PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : CS:source Benches der vollversion


dildo4u
2004-10-11, 16:24:25
http://www.xbitlabs.com/articles/video/display/cs-source_15.html

Aufällig 6800U kickt die X800XT in einem ATI spiel bis zur 1280*1024 auflösung und die 9800pro ist meilenweit hinter der 9800XT was hat ati oder valve da verbockt?

mapel110
2004-10-11, 16:34:56
bei 1280er und AA bringen die 256 MB der XT den Speedvorteil. :)

dildo4u
2004-10-11, 16:35:26
bei 1280er und AA bringen die 256 MB der XT den Speedvorteil. :)
Das is viel zu massiv

mapel110
2004-10-11, 16:39:48
http://www.computerbase.de/artikel/hardware/grafikkarten/2004/inno3d_geforce_6800_gt_ultra/14/#half_life_2_video_stress_test
also da werden die Zahlen bestätigt.
30 zu 49 fps

dildo4u
2004-10-11, 16:46:34
Hmm aber schon ärgerlich wenn man bedenkt das die karte vor einem jahr noch als die karte für HL2 galt und in jedem test die FXen von nvidia wegpustet und jetzt kann man nich mal mit AA und aniso zocken.

Birdman
2004-10-11, 16:58:08
Hui, also die krassen Unterschiede von 9800pro auf 9800XT find ich sehr überraschend.
Gibts irgendwo benches mit/zwischen einer 6800GT mit 128M und 256M? Wäre interessant ob es da die selben analogien gibt, oder ob der Ati Treiber bei CS:S Mist baut wenn er nur 128MB zur Verfügung hat.

dildo4u
2004-10-11, 17:00:48
Hui, also die krassen Unterschiede von 9800pro auf 9800XT find ich sehr überraschend.
Gibts irgendwo benches mit/zwischen einer 6800GT mit 128M und 256M? Wäre interessant ob es da die selben analogien gibt, oder ob der Ati Treiber bei CS:S Mist baut wenn er nur 128MB zur Verfügung hat.
Naja die 6800 mit 128 kackt im vergleich zur 6800GT auch zu sher ab kann schon sein da müsste valve noch diese neue texturekompressions technik einsetzen nur schlecht das sie nur auf X800 karten funzt ;-)

LovesuckZ
2004-10-11, 18:25:48
Aufällig 6800U kickt die X800XT in einem ATI spiel bis zur 1280*1024 auflösung

ATi hat ein Problem die vorhandene Fillrate ohne AF umzusetzen.

Gast
2004-10-11, 18:26:17
eglal ob ne neue kompressionstechnik oder nicht wenn man ne neue karte hat
is man aus dem schneider.
is nur dumm für diejenigen die sich letztes jahr ne teure ati karte gekauft haben weil ati gesagt hat das die karten das non plus ultra für hl2 wären und jetzt kommen sie mit so miesen ergebnissen an.
vielleicht bin ich der einzige der so denkt, aber ich find das ne sauerei!
ich kann mir einfach nicht vorstellen das ati nicht schon vor nem jahr gewusst hat das alles doch nicht ganz so toll läuft wie sie behaupten.
naja wenn ihr anderer meinung, seid dann löchert mich halt :P :D

achja:
wo liegt denn eigentlich ne ausus gamer edition?
so zwischen 6800 und gt?

Gortha
2004-10-11, 18:27:25
Man sieht an den Benches deutlich, das diese nichts über die wahre Leistungen
der High-End Grakas aussagen... hier ist wirklich der Prozessor erstmal gefragt.

Warum ist bitte im Pure-Mode(xbitlabs) die 9800XT oft schneller als alle
High-End Karten... besonders als ihre Nachfolger der X800er Serie...!?
Scheint mir ne reine Treiberangelegenheit zu sein.

Ich denke das HL² Benches anders aussehen werden, was die Platzierung der
Grafikkarten angehen wird.

Grüsse
Gortha

Gast
2004-10-11, 18:36:00
tsts, während einige auf ihre egoverlängerung in form einer x800xtpe bis an ihr lebensende erwarten werden, wird der rest der welt mit gf6800/gt und x800pro in ruhe in max detail +aa/af spielen können ohne von irgendwelchen kids angemacht zu werden "ei mein benchbalken is 1,34456674 mal so lang wie deiner".
is doch echt teilweise niveaulos was hier wieder aufgegriffen wird.

dildo4u
2004-10-11, 18:37:30
Man sieht an den Benches deutlich, das diese nichts über die wahre Leistungen
der High-End Grakas aussagen... hier ist wirklich der Prozessor erstmal gefragt.


Grüsse
Gortha
Hmm da kann ich nicht ganz zustimmen in manchen levels z.B italy liegt die 6800U relativ weit vor einer 6800GT die ja sonst eher wenig verliert im vergleich ab 1280*1024 mit AA und Aniso ist es sher GK limitiert.

Gortha
2004-10-11, 18:39:18
/sinnfrei

reunion
2004-10-11, 18:39:35
ATi hat ein Problem die vorhandene Fillrate ohne AF umzusetzen.

Oder präziser ausgedrückt man benötigt deutlich mehr Bandbreite als NV um die vorhandene Füllrate umzusetzten, Ati scheint irgendetwas am Speichercontroller verpfuscht zu haben...

Gast
2004-10-11, 18:44:03
ich kann aus dem bench nur sehn das ati nicht die 9xxx karten für hl2 optimiert hat sondern die x800 serie.
mehr seh ich da echt nicht, sorry.

ich glaub ehrlich gesagt auch nich das n anderer treiber bzw. n anderer cpu da noch viel verändern wird.
klar wenn jemand nen xp1600 hat werden sich die fps auch in grenzen halten aber bei den aktuellen cpus kann ich mir nicht vorstellen das die unterschiede so riesig sind

Gortha
2004-10-11, 18:47:17
@dildo4u
Klar,

wenn du ihre Tests mit 8xaa16xAniso nimmst ist ja auch klar,
dass der größere Takt von GPU und Speicher mehr ins Gewicht fällt.

Aber das kannst du auch bei jedem anderen Spielen/Benchs sehen.^^

:biggrin:

Aber du weißt auch nicht, waurm die 9800XT oft so hervorsticht!?

Grüsse
Gortha

Demirug
2004-10-11, 18:49:42
Oder präziser ausgedrückt man benötigt deutlich mehr Bandbreite als NV um die vorhandene Füllrate umzusetzten, Ati scheint irgendetwas am Speichercontroller verpfuscht zu haben...

Ich habe da eher den Texturecache im Verdacht. Wenn ATI immer noch den alten Linewalker benutzt ist das auch nicht verwunderlich. Desweiteren vermute ich auch das ATI aufgrund des Pipeline Designs eine höhere Texturewechselrate hat als nVidia.

deekey777
2004-10-11, 19:04:04
Um Mißverständnisse vorzubeugen:
"Please keep in mind that Half-Life 2 performance may differ from what we see with the Counter Strike: Source."

Ich weiß nicht, ob es gut oder schlecht ist, dass die wenig anspruchsvollen Dust-Maps nicht verwendet wurden, aber VALVe einiges zu optimieren.

Und so schlimm sieht's für die 9800 Pro auch wieder nicht, dass man gleich daraus eine heisse Debatte entwickelt; schliesslich ist auch der Taktvorteil der 9800XT nicht zu vernachlässigen. Dass meine 9800 Pro im VST von 75 auf 28 fps einbrach, habe ich schon gepostet - und VALVe weiß das!!! :biggrin:

Sonst: CSS braucht CPU-Power.

PS: Ist es wirklich Shaderwasser in CSS und keine Cube Maps??? Falls ja: Zwei linke Hände und alles nur Daumen.

http://www.picupload.net/thumbs/20041110/1097514186.jpg (http://www.picupload.net/files/20041110/1097514186.jpg)

dildo4u
2004-10-11, 19:09:04
@dildo4u
Klar,

wenn du ihre Tests mit 8xaa16xAniso nimmst ist ja auch klar,
dass der größere Takt von GPU und Speicher mehr ins Gewicht fällt.

Aber das kannst du auch bei jedem anderen Spielen/Benchs sehen.^^

:biggrin:

Aber du weißt auch nicht, waurm die 9800XT oft so hervorsticht!?

Grüsse
Gortha
hier ist es aber schon ab 1280*1024 und 4XAA und 16Aniso so und ich finde nicht das das eine utopische hohe auflösung ist da alle die ein tft ab 17zoll
1280*1024 als native also optimale auflösungen haben.

jasihasi
2004-10-11, 19:21:10
ich kann aus dem bench nur sehn das ati nicht die 9xxx karten für hl2 optimiert hat sondern die x800 serie.
mehr seh ich da echt nicht, sorry.

ich glaub ehrlich gesagt auch nich das n anderer treiber bzw. n anderer cpu da noch viel verändern wird.
klar wenn jemand nen xp1600 hat werden sich die fps auch in grenzen halten aber bei den aktuellen cpus kann ich mir nicht vorstellen das die unterschiede so riesig sind

Ich sehe da nur den gewöhnlichen bis zu 100% Vorsprung der X800 zur 98xx.Und spielbar ist CS ja wohl auch,auf diesem MainstreamSys.

Exxtreme
2004-10-11, 19:47:02
http://www.xbitlabs.com/articles/video/display/cs-source_15.html

Aufällig 6800U kickt die X800XT in einem ATI spiel bis zur 1280*1024 auflösung und die 9800pro ist meilenweit hinter der 9800XT was hat ati oder valve da verbockt?
Man sollte nicht ausschliessen, daß Nvidia mal wieder per Treiber nachgeholfen hat.

dildo4u
2004-10-11, 19:56:32
Man sollte nicht ausschliessen, daß Nvidia mal wieder per Treiber nachgeholfen hat.
Zumindest is schon mal keine optemierung auf eine bestimmte timedemos da hier custom demos eingesetz wurden.

Coda
2004-10-11, 20:15:25
Ist es wirklich Shaderwasser in CSS und keine Cube Maps???
Naja "Shaderwasser". Du must voher immer nen render-to-texture machen rigendwie.

ShadowXX
2004-10-11, 22:36:48
Ich habe da eher den Texturecache im Verdacht. Wenn ATI immer noch den alten Linewalker benutzt ist das auch nicht verwunderlich. Desweiteren vermute ich auch das ATI aufgrund des Pipeline Designs eine höhere Texturewechselrate hat als nVidia.

"Den alten Linewalker"???

Ist das der uneheliche Bruder von Anakin Skywalker??

Scherz beiseite...könntest du das etwas genauer erklären??

Gast
2004-10-12, 08:56:47
is nur dumm für diejenigen die sich letztes jahr ne teure ati karte gekauft haben weil ati gesagt hat das die karten das non plus ultra für hl2 wären und jetzt kommen sie mit so miesen ergebnissen an.
LOL?
Von den damals erhältlichen Karten ist ein R3x0 das Nonplusultra!
Schau dir mal die Ergebnisse der FX Karten an. Mit 8.1 Pfad etwas über 9800PRO Niveau. Würde man mit 9.0 Pfad benchen wären die ATIs doppelt so schnell wie die FX Serie von Nvidia. Siehe die aktuelle PCGH. Dort ist der Verlust von 8.1 zu 9.0 einfach gewaltig.

Quasar
2004-10-12, 09:35:25
Würde man mit 9.0 Pfad benchen wären die ATIs doppelt so schnell wie die FX Serie von Nvidia. Siehe die aktuelle PCGH. Dort ist der Verlust von 8.1 zu 9.0 einfach gewaltig.
Richtig, aber andererseits - würde man mit DX8.1-Pfad benchen, wären die ATis wiederum nicht in der Lage, so wahnsinnig viel Speed herauszuholen.

Holundermann
2004-10-12, 10:31:47
Richtig, aber andererseits - würde man mit DX8.1-Pfad benchen, wären die ATis wiederum nicht in der Lage, so wahnsinnig viel Speed herauszuholen.

hihi, das wär ja sinnvoll, die 9800er mit 8.1 zu benchen nur um zu zeigen das die fx da in etwa gleichschnell ist... stumpfsinn?

aber am geringeren speicher kanns bei der 9800pro nicht liegen: die 6800er NU liegt auch noch vor der xt und hat auch "nur" 128mb...

und nv jetzt schowieder treiberoptimierungen zu unterstellen und das bei ati zu unterlassen, trotz der gemeinsamen werbekampagne ist doch witzlos...

Winter[Raven]
2004-10-12, 10:41:56
Immer diese Unterstellungen gegen Nvidia werden langsamm aber sicher etwas eintönig *gähn*...

Beide Hersteller cheaten auf eine oder andere Weise...

*rüber guck zu exxtreme* *wink*

Quasar
2004-10-12, 10:48:02
hihi, das wär ja sinnvoll, die 9800er mit 8.1 zu benchen nur um zu zeigen das die fx da in etwa gleichschnell ist... stumpfsinn?

aber am geringeren speicher kanns bei der 9800pro nicht liegen: die 6800er NU liegt auch noch vor der xt und hat auch "nur" 128mb...

und nv jetzt schowieder treiberoptimierungen zu unterstellen und das bei ati zu unterlassen, trotz der gemeinsamen werbekampagne ist doch witzlos...
Stumpfsinn im Sinne von Vergleichbarkeit: Klar. :)
Stumpfsinn im Sinne von "CS:S/HL2" ist auf einer FX nicht spielbar: Nein. :)

edit:
Ups. Hier wurde ja auch der 256MB-Bugfix-Treiber benutzt. Komisch, wieviel auf einmal weitere 128MB bei den Radeonsbringen.... :|

mapel110
2004-10-12, 10:55:44
edit:
Ups. Hier wurde ja auch der 256MB-Bugfix-Treiber benutzt. Komisch, wieviel auf einmal weitere 128MB bei den Radeonsbringen.... :|

http://www.computerbase.de/artikel/hardware/grafikkarten/2004/inno3d_geforce_6800_gt_ultra/14/#half_life_2_video_stress_test
also da werden die Zahlen bestätigt.
30 zu 49 fps

war auch schon mit dem cat4.8 so. :)

Quasar
2004-10-12, 10:57:11
Na sowas! Gibt es nun diesen Bug oder gibt es ihn nicht?

Exxtreme
2004-10-12, 11:01:42
']Immer diese Unterstellungen gegen Nvidia werden langsamm aber sicher etwas eintönig *gähn*...

Beide Hersteller cheaten auf eine oder andere Weise...

*rüber guck zu exxtreme* *wink*
Bei Nvidia wundert mich halt nix mehr. X-D

Und man hat bei Doom 3 gesehen, daß die Jungs verdammt schnell sein können mit Shaderreplacement & Co.

Winter[Raven]
2004-10-12, 11:45:55
Bei Nvidia wundert mich halt nix mehr. X-D

Und man hat bei Doom 3 gesehen, daß die Jungs verdammt schnell sein können mit Shaderreplacement & Co.

Hab ich was verpasst?

deekey777
2004-10-12, 13:33:43
Bei Firing Squad gibt es auch einen Artikel zur Performance in CSS: 3D Performance with Counter-Strike: Source Part 1 High-End Cards (http://firingsquad.com/hardware/counter-strike_source/default.asp) .

Warum liegen die Karten so nah beianander?V-Sync an? :biggrin:

Nein. CPU zu schwach? Ja. :biggrin:

Gast
2004-10-12, 13:53:31
Bei Nvidia wundert mich halt nix mehr. X-D

Und man hat bei Doom 3 gesehen, daß die Jungs verdammt schnell sein können mit Shaderreplacement & Co.

Bei ATI wundert mich auch nix mehr. Seit der Trillinear Filter Story und den Beteuerungen nur die Konkurenz cheatet ist deren Glaubwürdigkeit auf einem 0 punkt angelangt. Ich sage nicht das Nvidia besser ist. Die haben die letzten 2 Jahre auch alles gemacht um nicht zu sehr abzufallen. Derzeit würde ich aber ATI den größeren schwarzen Peter zuschieben was Leistungserschummelung angeht. Dafür haben sie einfach nicht genug geboten diesmal. Da müssen dann ein paar Handgriffe her um das möglichst gut zu überdecken.

Fakt ist doch mal, dass Doom3 Nvidia Domäne ist ohne BQ Verlust. ATI dagegen kann weder in CS2 noch im HL2 VST so für sich punkten. Von einstiger Größe zu R3xx Zeiten ist davon aber auch gar nüscht mehr übrig geblieben. Die haben momentan weit aus mehr Grund rumzuschummeln als die Konkurenz.

DrumDub
2004-10-12, 14:10:19
Bei Firing Squad gibt es auch einen Artikel zur Performance in CSS: 3D Performance with Counter-Strike: Source Part 1 High-End Cards (http://firingsquad.com/hardware/counter-strike_source/default.asp) .

Warum liegen die Karten so nah beianander?V-Sync an? :biggrin:

Nein. CPU zu schwach? Ja. :biggrin:

cpu zu schwach? a64 3800+? ich nix versteh. die werte liegen doch weit unter denen anderer tests. :conf2:

deekey777
2004-10-12, 14:15:26
cpu zu schwach? a64 3800+? ich nix versteh. :kratz:


Du hast es schon verstanden. :D
CSS bzw. die Physik verbracht zu viel CPU Power. Die CPU ist die bremsende Kraft in CSS.

Exxtreme
2004-10-12, 14:18:23
Bei ATI wundert mich auch nix mehr. Seit der Trillinear Filter Story und den Beteuerungen nur die Konkurenz cheatet ist deren Glaubwürdigkeit auf einem 0 punkt angelangt. Ich sage nicht das Nvidia besser ist. Die haben die letzten 2 Jahre auch alles gemacht um nicht zu sehr abzufallen. Derzeit würde ich aber ATI den größeren schwarzen Peter zuschieben was Leistungserschummelung angeht. Dafür haben sie einfach nicht genug geboten diesmal. Da müssen dann ein paar Handgriffe her um das möglichst gut zu überdecken.

Fakt ist doch mal, dass Doom3 Nvidia Domäne ist ohne BQ Verlust. ATI dagegen kann weder in CS2 noch im HL2 VST so für sich punkten. Von einstiger Größe zu R3xx Zeiten ist davon aber auch gar nüscht mehr übrig geblieben. Die haben momentan weit aus mehr Grund rumzuschummeln als die Konkurenz.
Also ich sehe ATi leicht vorne. Denn die RX800XTPE bietet überall Top-Leistung und nicht nur in den Spielen, die der Hersteller für wichtig genug hält. Und ATi wird mit Shaderreplacement nachziehen müssen. Und dann wird sich noch herausstellen, wer der King bei Doom 3 ist. Nvidia hat einen kleinen Vorsprung. Und es spricht auch nicht für die Treiberabteilung von denen wenn sie nur noch per Shaderreplacement konkurrenzfähig sind. ATi scheint halt die bessere Optimierungsarbeit zu leisten denn diese wirkt in praktisch allen Spielen. Man erlebt also kaum böse Überraschungen wenn man sich Spiele ausserhalb des Mainstreams kauft.

Der Markt zwingt ATi zu solchen Mitteln wie Shaderreplacement... und das müsstest du eigentlich wissen. =)

DrumDub
2004-10-12, 14:19:28
Du hast es schon verstanden. :D
CSS bzw. die Physik verbracht zu viel CPU Power. Die CPU ist die bremsende Kraft in CSS.

das macht schon sinn. trotzdem versteh ich die abweichung gegenüber xbitlabs nicht so ganz, besonders weil dort der x64 3200+ schneller ist.

a64 3200+
http://www.xbitlabs.com/images/video/cssource/italy_1600_candy.gif

a64 3800+
http://firingsquad.com/hardware/counter-strike_source/images/ity1600.gif

deekey777
2004-10-12, 14:30:37
das macht schon sinn. trotzdem versteh ich die abweichung gegenüber xbitlabs nicht so ganz, besonders weil dort der x64 3200+ schneller ist.

a64 3200+
http://www.xbitlabs.com/images/video/cssource/italy_1600_candy.gif

a64 3800+
http://firingsquad.com/hardware/counter-strike_source/images/ity1600.gif


Beide haben ihre eigenen Demos aufgezeichnet und verwendet. Bei Firing Squad wurden Online-Kämpfe aufgezeichnet, bei X-bit ist es nicht ganz klar:
"We utilized five custom demos recorded by X-bit labs for benchmarking purposes."

Auch unterschiedliche Treiber wurden verwendet.

Jesus
2004-10-12, 14:31:59
das macht schon sinn. trotzdem versteh ich die abweichung gegenüber xbitlabs nicht so ganz, besonders weil dort der x64 3200+ schneller ist.

a64 3200+
http://www.xbitlabs.com/images/video/cssource/italy_1600_candy.gif

a64 3800+
http://firingsquad.com/hardware/counter-strike_source/images/ity1600.gif

vsync ?

deekey777
2004-10-12, 14:32:39
vsync ?


Nein.

DrumDub
2004-10-12, 14:40:12
Beide haben ihre eigenen Demos aufgezeichnet und verwendet. Bei Firing Squad wurden Online-Kämpfe aufgezeichnet, bei X-bit ist es nicht ganz klar:
"We utilized five custom demos recorded by X-bit labs for benchmarking purposes."

Auch unterschiedliche Treiber wurden verwendet.

dennoch recht massive unterschiede. wobei das verhältnis der karten untereinander schon stimmt (bis auf die 6800nu, die verliert zu stark bei fs), wenn man die beiden tests vergleicht. möglich wäre es, dass die aufgzeichneten demos von fs mit wesentlich mehr spielern gemacht wurden.

was die treiber angeht, so kann ich mir nicht vorstellen, dass die so einen massiven einfluss haben.

Gortha
2004-10-12, 14:43:40
Xbitlabs haben haben größtenteils ohne Gegner gespielt.... also Demos ohne Gegner....

Firingsquad haben mit Gegnern Demos erstellt.

Ich bin mir aber sicher, das sich das Bild mit der Zeit und mit neuen
Treibern^^ noch Richtung ATi verscheiben wird.


Aber wirklich ins Gewicht fallen wird eh erst HL²... so wie es Firingsquad auch in
ihrem letzen Satz schreiben. CS:S ist nur ne ärmliche Demo gegen HL², die auf
fps-speed ausgelegt ist, damit Ati- sowie Nvidia-käufer aller Klassen gut spielen können.

EDIT Und man muss ja sagen, Valve hat es ja so hingekriegt, das alle CS:S,
wie man in den Benches sieht, je nach Bildeinstellung, noch sehr gut spielen
können. Ich selber bange ob mein Barton auf 2020 MHz reichen wird.
CS:S und auch HL² scheinen ja CPUfresserchen zu sein. EDIT

Grüsse
Gortha

Gast
2004-10-12, 15:58:18
Also ich sehe ATi leicht vorne. Denn die RX800XTPE bietet überall Top-Leistung und nicht nur in den Spielen, die der Hersteller für wichtig genug hält. Und ATi wird mit Shaderreplacement nachziehen müssen. Und dann wird sich noch herausstellen, wer der King bei Doom 3 ist. Nvidia hat einen kleinen Vorsprung. Und es spricht auch nicht für die Treiberabteilung von denen wenn sie nur noch per Shaderreplacement konkurrenzfähig sind. ATi scheint halt die bessere Optimierungsarbeit zu leisten denn diese wirkt in praktisch allen Spielen. Man erlebt also kaum böse Überraschungen wenn man sich Spiele ausserhalb des Mainstreams kauft.

Der Markt zwingt ATi zu solchen Mitteln wie Shaderreplacement... und das müsstest du eigentlich wissen. =)

Ach komm immer wieder das Geschwafel von der XTPE.
Das ist doch ein reines Pressesample mehr nicht. Kaum erhältlich. Wenn dann guggen wa uns doch mal alles an.
Die XTPE mag ja leicht vorn liegen aber die pro wird von der GT gefressen.
Gegen die 6600GT gibts auch nix. Von 6800 non Ultra und LE mal ganz zu schweigen.
Einzig die GF6800Ultra könnte man leicht hinter der XTPE sehen aber das wars auch schon.
Über den Daumen gepeilt kann ATI also gerade mal eine einzige Marktposition für ich behaupten - Ultra High End. Vielleicht noch im mittleren Bereich bei der X700 aber da gibts weder Produkte noch Preise um hier genaue Vorhersagen zu treffen. Da wird sich bei beiden noch einiges tun. Ein Fazit kann man da erst nach einiger Zeit ziehen.

Die Shaerreplacement Story ist doch abgekaut wie sonst was. Wer sagt mir denn, dass ATI das nicht auch gemacht hat bzw. macht? Ich könnte auch anders argumentieren. Wenn Nvidia erstmal anfängt eine derart qualitativ desaströse Filterung wie sie ATI bietet zu implementieren, dann ist auch die XTPE mit ihrem minimalen Vorsprung weg.

Momentan hat ATI ganz klar das Nachsehen. Aktionen wie das AI das kein Mensch braucht bestätigen doch, dass sie an allen Ecken und Ende versuchen hier und da ein wenig IQ einzusparen um noch mehr Leistung zu gewinnen. Die einzelne Optimierung fällt nicht so auf. Alles in allem ist das aber inakzeptabel. Ich zahle keine 400€ und mehr um dann mit einer derart minimalen IQ zu spielen.
BTW sage ich nicht das es Nvidia besser macht. Sie versuchen auch zu sparen allerdings in diesem Umfeld hat ATI eindeutig angefangen mit der Sparerei ohne wenn und aber.

reunion
2004-10-12, 16:14:23
Ach komm immer wieder das Geschwafel von der XTPE.
Das ist doch ein reines Pressesample mehr nicht. Kaum erhältlich. Wenn dann guggen wa uns doch mal alles an.


MSI RX800XT-VTD256 Platinum, Radeon X800 XT-PE, 256MB GDDR3, DVI, TV-out, PCIe ab 505,96€ palletenweise auf Lager:

http://www.geizhals.at/eu/a104664.html


Die XTPE mag ja leicht vorn liegen aber die pro wird von der GT gefressen.


Ansichtssache, meistens liegen die Karten gleichauf mit leichten Vorteilen für die 6800GT.

Gegen die 6600GT gibts auch nix.

Die X700XT Serie ist "nichts"?

Über den Daumen gepeilt kann ATI also gerade mal eine einzige Marktposition für ich behaupten - Ultra High End. Vielleicht noch im mittleren Bereich bei der X700 aber da gibts weder Produkte noch Preise um hier genaue Vorhersagen zu treffen. Da wird sich bei beiden noch einiges tun. Ein Fazit kann man da erst nach einiger Zeit ziehen.


Die X700 versägt die 6600er um einiges deutlicher als zB die 6800GT die X800pro, AFAIK.

Gortha
2004-10-12, 16:20:10
ähhhh.. lieber Gast

ATi hat immer noch eine 9800pro und 9800XT... gegen die6800LE und 6600
(GT)welche nicht verfügbar ist ausser für PCI-E.
Die selbe Leier wie von dir....

Ati hat auch eine X800Pro ViVo.... die von jedem und seinem Bruder zu ner XT
gemoddet wird.

Deine Augen müssen wahnsinnig gut sein, ich sehe in alten wie aktuellen
Spielen auf meiner X800 sowie auf der 6800nu@16x1,6 von meinem Freund
keine schlecht ImageQuality... ist sowieso immer stark was die leute alles
!beim spielen! sehen können...

Ach ja, viel spass beim Standbilder angucken und vergleichen.

grüsse
Gortha

Mcdave
2004-10-12, 16:36:46
Für Fans von Standbildern gibt es auch noch diesen Test:

http://www.driverheaven.net/articles/atiop/

Nix neues, aber noch längst nicht veraltet. Jedenfalls lag die 6800Ultra dort deutlich hinter der X800er. Jetzt nicht mehr.
Ändert sich doch eh alles wieder........spätestens beim nächsten (beta)Treiber.
Hauptsache ist doch, dass es bei guter Bildqualität flüssig spielbar ist. Ob nun auf ATI oder NV ist doch sowas von Peng (mir zumindest, jedem das Seine).

Ich reg mich erst auf, wenn ich Ingame Meldungen à la "hier wäre eigentlich eine Textur. Um sie zu sehen, schalten sie bitte die Optimierungen aus" lesen muss.
Spätestens dann hol ich den Amiga 500 wieder aus dem Schrank.
Hm, das wär eigentlich auch so ne gute Idee. =)

deekey777
2004-10-12, 17:11:17
Für Fans von Standbildern gibt es auch noch diesen Test:

http://www.driverheaven.net/articles/atiop/

Nix neues, aber noch längst nicht veraltet. Jedenfalls lag die 6800Ultra dort deutlich hinter der X800er. Jetzt nicht mehr.
Ändert sich doch eh alles wieder........spätestens beim nächsten (beta)Treiber.
Hauptsache ist doch, dass es bei guter Bildqualität flüssig spielbar ist. Ob nun auf ATI oder NV ist doch sowas von Peng (mir zumindest, jedem das Seine).

Ich reg mich erst auf, wenn ich Ingame Meldungen à la "hier wäre eigentlich eine Textur. Um sie zu sehen, schalten sie bitte die Optimierungen aus" lesen muss.
Spätestens dann hol ich den Amiga 500 wieder aus dem Schrank.
Hm, das wär eigentlich auch so ne gute Idee. =)

Nur geht es in diesem Thread nicht um den VST, sondern um die Performance in CSS.

Mcdave
2004-10-12, 17:33:25
Nur geht es in diesem Thread nicht um den VST, sondern um die Performance in CSS.

...was die Sache -als Ganzes betrachtet- erst recht in ein seltsames Licht rückt.

deekey777
2004-10-12, 17:37:58
...was die Sache -als Ganzes betrachtet- erst recht in ein seltsames Licht rückt.


Wieso? Das sind zwei verschiedene Paar Schuhe: Der VST ist eine reine Grafikdemo.

DrumDub
2004-10-12, 17:38:50
MSI RX800XT-VTD256 Platinum, Radeon X800 XT-PE, 256MB GDDR3, DVI, TV-out, PCIe ab 505,96€ palletenweise auf Lager:

http://www.geizhals.at/eu/a104664.html


falsch. das ist keine xt pe sondern nur ne normale xt mit 500/500 und pci-e.

richtig ist aber, dass diese normalen xts jetzt in der agp-variante lieferbar sind: http://www.ble-computer.com/?such=SAM310095&blereff=3

der gast hat schon recht in diesem punkt bezüglich der xt pes. nur gilt gleiches auch für die 6800 ultra, die momentan auch gar nicht zu bekmmen ist.

MechWOLLIer
2004-10-12, 18:07:05
Mhm, ich würde wirklich mal gerne wissen, warum die Geforce 6800U plötzlich schneller als eine X800XT-PE ist. Immerhin war sie in älteren Tests deutlich langsamer.
Scheint wohl so ungefähr das selbe wie in D3 zu werden. Am Anfang war ATI deutlich langsamer und nach ein bischen Shaderreplacement(das NV auch macht) sind sie fast gleichschnell.

Jesus
2004-10-12, 18:14:51
Mhm, ich würde wirklich mal gerne wissen, warum die Geforce 6800U plötzlich schneller als eine X800XT-PE ist. Immerhin war sie in älteren Tests deutlich langsamer.
Scheint wohl so ungefähr das selbe wie in D3 zu werden. Am Anfang war ATI deutlich langsamer und nach ein bischen Shaderreplacement(das NV auch macht) sind sie fast gleichschnell.

ich weiss nicht, aber beim CSS warn die Ergebnissse schon immer sehr nahe beieinander. Vielleicht ein bischen was am Testverfahren geändert und schon verschiebt sich alles um 3 fps ;)

Intressant find ich aber das Fazit von driverheaven hier :

On the other hand it could be looked at in the way that ATI's optimized setting is infact much closer to Nvidia's non optimized results in terms of comparison articles than every one thought up to this point. With a margin so small it almost made us consider leaving our review of Nvidia's no-optimizations Vs ATI's with Optimizations and not updating it. Overall though its great that ATI now offer the user control over optimizations, even if its not worth their while disabling them.

steinigt mich!

Gast
2004-10-13, 08:41:17
ich weiss nicht, aber beim CSS warn die Ergebnissse schon immer sehr nahe beieinander. Vielleicht ein bischen was am Testverfahren geändert und schon verschiebt sich alles um 3 fps ;)

Intressant find ich aber das Fazit von driverheaven hier :
steinigt mich!

Also in Anbetracht der Tatsache, dass driverheaven von rage3d Fanboys gemacht wird, finde ich das nicht verwunderlich.
Driverheaven zu verlinken ist genauso als würde ich irgendeine Nvidia Fanseite verlinken. Driverheaven ist ziemlich biased in Richtung ATI und ziemlich ist noch vorsichtig ausgedrückt.

Exxtreme
2004-10-13, 16:10:00
Ach komm immer wieder das Geschwafel von der XTPE.
Das ist doch ein reines Pressesample mehr nicht. Kaum erhältlich. Wenn dann guggen wa uns doch mal alles an.

Die GF6800U ist auch nicht wirklich gut erhältlich. Man könnte diese GraKa auch als Pressesample bezeichnen.

Die XTPE mag ja leicht vorn liegen aber die pro wird von der GT gefressen.
Gegen die 6600GT gibts auch nix. Von 6800 non Ultra und LE mal ganz zu schweigen.
Einzig die GF6800Ultra könnte man leicht hinter der XTPE sehen aber das wars auch schon.
Über den Daumen gepeilt kann ATI also gerade mal eine einzige Marktposition für ich behaupten - Ultra High End. Vielleicht noch im mittleren Bereich bei der X700 aber da gibts weder Produkte noch Preise um hier genaue Vorhersagen zu treffen. Da wird sich bei beiden noch einiges tun. Ein Fazit kann man da erst nach einiger Zeit ziehen.
Die RX800Pro und GF6800GT sind in etwa gleich schnell. Von "gefressen" kann da keine Rede sein. Und gegen die GF6600GT hat ATi die R700XT ins Rennen geschickt.

Gut, ATi hat nicht wirklich so viele Modelle wie Nvidia, aber IMHO reichen diese vollkommen um den Markt komplett abzudecken.

Die Shaerreplacement Story ist doch abgekaut wie sonst was. Wer sagt mir denn, dass ATI das nicht auch gemacht hat bzw. macht? Ich könnte auch anders argumentieren. Wenn Nvidia erstmal anfängt eine derart qualitativ desaströse Filterung wie sie ATI bietet zu implementieren, dann ist auch die XTPE mit ihrem minimalen Vorsprung weg.
Diese "desaströse" Filterung wird man demnächst deaktivieren können. Und dann wird der NV40 nur noch theoretisch leicht bessere Filterqualität bringen.

Und bisher deutet nichts darauf hin, daß ATi Shaderreplacement betrieben hat bevor Nvidia damit bei Doom 3 angefangen hat.

Momentan hat ATI ganz klar das Nachsehen. Aktionen wie das AI das kein Mensch braucht bestätigen doch, dass sie an allen Ecken und Ende versuchen hier und da ein wenig IQ einzusparen um noch mehr Leistung zu gewinnen. Die einzelne Optimierung fällt nicht so auf. Alles in allem ist das aber inakzeptabel. Ich zahle keine 400€ und mehr um dann mit einer derart minimalen IQ zu spielen.
BTW sage ich nicht das es Nvidia besser macht. Sie versuchen auch zu sparen allerdings in diesem Umfeld hat ATI eindeutig angefangen mit der Sparerei ohne wenn und aber.
Siehe oben. Und wer hat "brilineare" Filterung zuerst eingeführt? ;D

LovesuckZ
2004-10-13, 17:07:58
Und bisher deutet nichts darauf hin, daß ATi Shaderreplacement betrieben hat bevor Nvidia damit bei Doom 3 angefangen hat.

3DMark?!

Siehe oben. Und wer hat "brilineare" Filterung zuerst eingeführt? ;D

ATi...

Gast
2004-10-13, 17:25:08
3DMark?!



ATi...
1. no
2. neither

Demirug
2004-10-13, 18:14:40
1. no
2. neither

Da täuscht dich leider deine Erinnerung.

1. ATI hat es sogar zugegeben: http://www.xbitlabs.com/news/video/display/20030526040035.html

2. Das wird etwas komplizierter. ;)

2.a bei nVidia hat man BRI mit UT2003 im 44.65 entdeckt: http://www.3dcenter.org/artikel/ati_nvidia_treiberoptimierungen/index9.php
2.b ATI bestätigt am 18.05.2004 das sie BRI schon über ein Jahr bei der 9600 nutzen: http://www.computerbase.de/news/hardware/grafikkarten/ati/2004/mai/offizielles_ati-statement_texturfilterung/
2.c der 44.65 ist am 31.05.2004 aufgetaucht: http://www.3dcenter.org/downloads/treiber-geforce-w2k.php

Jesus
2004-10-13, 19:11:36
Da täuscht dich leider deine Erinnerung.

1. ATI hat es sogar zugegeben: http://www.xbitlabs.com/news/video/display/20030526040035.html


... und wieder entfernt ( im Gegensatz zu NV) ;) Jetzt erinnere ich mich daran-das war die Geschichte die bei NV so 25% Leistungssteigerung brachte und ATI ca. 3%, richtig ?

Quasar
2004-10-13, 19:23:50
... und wieder entfernt ( im Gegensatz zu NV) ;) Jetzt erinnere ich mich daran-das war die Geschichte die bei NV so 25% Leistungssteigerung brachte und ATI ca. 3%, richtig ?

Du erinnerst in etwa richtig. =)
Wäre ich jetzt gehässig, würde ich sagen, daß man in der Schule beim Abschreiben immer eine '6' bekommen hat, egal, ob man nun ordentliche abgeschrieben hat oder das Abschreiben kaum was gebracht hat.

Aber ich bin ja nicht gehässig. :)


BTW, wer hat denn im 3DMark2001 eigentlich angefangen, seine Scores künstlich aufzublasen? Waren immerhin auch 'Shader'.

Mr. Lolman
2004-10-13, 19:35:24
Du erinnerst in etwa richtig. =)
BTW, wer hat denn im 3DMark2001 eigentlich angefangen, seine Scores künstlich aufzublasen? Waren immerhin auch 'Shader'.


NV mit der GF4, vor mehr als 2 Jahren: http://www.hardware-durchblick.de/html/special/aktenvidia12.htm

dildo4u
2004-10-13, 19:37:49
Och man nicht schon wieder bitte zurück zum topic

Mr. Lolman
2004-10-13, 19:38:26
2.c der 44.65 ist am 31.05.2004 aufgetaucht: http://www.3dcenter.org/downloads/treiber-geforce-w2k.php

Du meinst 2003.

Quasar
2004-10-13, 19:38:27
Gern, aber bitte mit einem anderen Beleg, als diesem lächerlich Fanboy-Gebrabbel*.

BTW, ich bin mir halbwegs sicher, daß es schon vor 2002 losging...

LovesuckZ
2004-10-13, 19:38:38
1. no

Ne? Ach, deswegen verkuerzte sich der Vergleichschwanz bei Einsatz von "Alternativshadern" beim '01 und '03.

2. neither

Hm, 8500 und "Quark"? RV350? Sagt dir beides wohl nicht!

Mr. Lolman
2004-10-13, 19:40:33
Hm, 8500 und "Quark"? RV350? Sagt dir beides wohl nicht!

Das gabs dann aber kurz darauf einen Treiber, der den "16bit Bug" deaktivierte, und troztdem die Performance beibehielt.

BTW, was hat das mit brilinearem Filtering zu tun?

Mr. Lolman
2004-10-13, 19:41:29
Gern, aber bitte mit einem anderen Beleg, als diesem lächerlich Fanboy-Gebrabbel.

Ob lächerlich oder nicht, die Fakten stimmen jedenfalls, soweit...


BTW, ich bin mir halbwegs sicher, daß es schon vor 2002 losging...

Garantiert. :)

Jesus
2004-10-13, 19:42:50
Du erinnerst in etwa richtig. =)
Wäre ich jetzt gehässig, würde ich sagen, daß man in der Schule beim Abschreiben immer eine '6' bekommen hat, egal, ob man nun ordentliche abgeschrieben hat oder das Abschreiben kaum was gebracht hat.


eh? ich nix abgeschrieben :uwoot:

Das stand mal in ner Gamestar oder so...

LovesuckZ
2004-10-13, 19:51:47
BTW, was hat das mit brilinearem Filtering zu tun?

Das Verändern der Filterung, nichts anderes ist "brilinear".
Und dies tat ATi schon in Quake3, also 1 1/2 Jahre vor Nvidia.

Quasar
2004-10-13, 19:59:37
Ob lächerlich oder nicht, die Fakten stimmen jedenfalls, soweit...
Nein, schon die erste Stichprobe erwies sich als negativ, negativ für "Hardware-Durchblick"...

"So hatte zum Beispiel Rivastation.com keinerlei Probleme den Kyro2 mit Mercedes Benz Truck zu benchen. Er erreicht fast die gleichen Werte, wie die Geforce 2 GTS." - Hardware Durchblick, http://www.hardware-durchblick.de/html/special/aktenvidia10.htm

"Auch Mercedes Benz Truck Racing lief erst nach Abschaltung der Alpha Texturen ohne Bildfehler." - Rivastation.com, http://www.rivastation.com/3dprophet4500-64mb.htm

" Etwas Probleme hat die 3D Prophet 4500 dennoch mit diesem Spiel. Die Auflösung 1600x1200 wollte nicht laufen." - Rivastation.com, http://www.rivastation.com/3dprophet4500-64mb.htm
Direkt aus dem Review, aus dem Hardware-Durchblick.de offenbar die Grafiken entlehnt hat.
Soviel zur "Faktenlage" von Herrn Burger.

Nicht falsch verstehen, natürlich gab und gibt es Treiber von nV, die auf den Murks optimiert sind, aber meine Frage von oben wurde leider nicht beantwortet.

edit:
Grade in Onkel Toms Hütte gefunden:
http://graphics.tomshardware.com/graphic/20011123/radeon8500-07.html
Q3 wurde doch ein bissel langsamer mit dem Post-Cheat0r Treiber.... ;)
und:
http://graphics.tomshardware.com/graphic/20011123/radeon8500-08.html
Upsala, erst Gleichstand und nun fand man auf einmal 500 vergessene 3DMarks.
Es ist IMO sinnlos, nur einer Firma den schwarzen Peter zuschieben zu wollen. BEIDE sind nur hinter unseren Geld her und dafür ist ihnen jedes Mittel recht.

Quasar
2004-10-13, 20:00:22
eh? ich nix abgeschrieben :uwoot:

Das stand mal in ner Gamestar oder so...
Glaube ich dir gern. Meine 'Message' war eine andere...

dildo4u
2004-10-13, 20:03:57
Bitte wieder ontopic

Mr. Lolman
2004-10-13, 20:09:37
Das Verändern der Filterung, nichts anderes ist "brilinear".
Und dies tat ATi schon in Quake3, also 1 1/2 Jahre vor Nvidia.

Nönö das war schon trilinear, nur haben die mit den Mipmaps herumgefuhrwerkt. Und selbst wenn, im Nachhinein ists ja sh1ce egal. Schuld sind eher die idiotischen Reviewer, die immerwieder nur die selben 2-3 Spiele getestetet haben. Da braucht man sich eigentlich garnicht über Appspezifische Optimierungen wundern, wenngleich sie natürlich aufs schärfste zu verurteilen sind, wenn son Schmarrn dabei rauskommt.

Als Spieler sollte man sich eher im Allgemeinen darüber freuen dürfen. Ist ja nett wenn mehr fps rauskommen. Die BQ sollte dabei aber mindestens gleichgut bleiben. Für Benchmarks ists halt ein Problem. Mittlerweile ist eh schon fast jede App. optimiert. Da ists die Glaubensfrage nicht mehr, wer wo optimiert, sondern wann und wieviel optimiert wird. Ich glaub die Frage wird in Zukunft viel eher sein, wielangs dauert, bis das neugekaufte Spiel optimal läuft (=Zeit bis zur Treiberoptimierung), und wie gut man es bis dahin spielen kann (=Performance von unoptimerter Software). Natürlich habens kleine Nonametitel so noch schwerer. Vielleicht sollten sich die Reviewer wiedermal verstärkt auf Spiele konzentrieren, die nicht so häufig gebencht werden.

Mr. Lolman
2004-10-13, 20:16:11
Nein, schon die erste Stichprobe erwies sich als negativ, negativ für "Hardware-Durchblick"...

Darum gehts ja jetzt schon garnicht. Nur weil eine leicht fanatisch anmutende (?) Seiten 'richtige' Fakten bietet, die ich zitiere, musst du jetzt nicht die Seite auseinander nehmen. Es hätte auch gereicht wenn du bei Hardtecs4u nach 30.82 gesucht hättest:

http://www.hardtecs4u.com/news/arc7-2002.php


Nicht falsch verstehen, natürlich gab und gibt es Treiber von nV, die auf den Murks optimiert sind, aber meine Frage von oben wurde leider nicht beantwortet.

Welche meinst du genau?

edit:
Grade in Onkel Toms Hütte gefunden:
http://graphics.tomshardware.com/graphic/20011123/radeon8500-07.html
Q3 wurde doch ein bissel langsamer mit dem Post-Cheat0r Treiber.... ;)
und:
http://graphics.tomshardware.com/graphic/20011123/radeon8500-08.html
Upsala, erst Gleichstand und nun fand man auf einmal 500 vergessene 3DMarks.
Es ist IMO sinnlos, nur einer Firma den schwarzen Peter zuschieben zu wollen. BEIDE sind nur hinter unseren Geld her und dafür ist ihnen jedes Mittel recht.

Minimalst. Es wär interessant wie hoch die Leistungssteigerung mit dem Cheattreiber war...

/edit: Was willst du jetzt mit den Murksen bezwecken? Der Treiber hat bei den Murksen um 5% zugelegt, bei Giants um 10%, und bei Maxpayne um 16% (in 1280 sogar 22%). Ist doch gut wenn Spiele (noch dazu selten gebenchte) am meisten von Optimierungen profitieren, oder?

up¦²
2004-10-15, 00:54:51
Hörte von'em Bekannten, daß er im Video Stress Test 22.75 fps hatte...
Mit AXP 1500, Radeon 9200se, 512mb in 1024x768 :confused:

Dann wären die HW-Specs doch nicht so hoch, wie erwartet ;D

seahawk
2004-10-15, 08:13:32
Muss den jede Diskussion in dämliches ATI vs NV Gebashe ausarten ??

Jeder weiss doch dass ATI/NV besser sind als NV/ATI. (make your chopice and shut up)

Mr. Lolman
2004-10-15, 11:12:02
Wo ist da ein Gebashe?

Vor 1 1/2 Tagen gabs ne angeregtere (OT) Diskussion. Ist aber lustig, dass es immer die Selben sind, die sofort irgendwo ein Gebashe erkennen wollen. Wenn man sich genötigt fühlt in beschwichtigender Weise in irgendeine Diskussion eingreifen zu müssen, ohne dabei selbst was zur Diskussion beizutragen, dann meldet den jew. Thread oder bewerbt euch als Mod.

Andersrum wird der Thread nur noch mehr geshreddert, womit sich das eigentliche Ansinnen nur negativ veräussert.

Klar mein aktueller Beitrag tragt thematisch auch nichts zur Diskussion bei, aber wär der Inhalt der letzen paar Posts wirklich so übel, hätt' doch schon längst ein Mod eingegriffen.

seahawk
2004-10-15, 11:54:19
Dann erklär mir mal was die Frage welcher IHV als erster Bri-Filterung eingeführt hat, mit den CSS Benches zu tun hat ??

Du bist doch auch so einer der ganz gerne mal in der Vergangenheit kramt um so evtl. eine gegenwärtige Schwäche seines IHVs zu überdecken.

Jesus
2004-10-15, 12:17:14
OT Alarm! OT Alarm! :cop:

Tesseract
2004-10-15, 12:23:43
Für Fans von Standbildern gibt es auch noch diesen Test:

http://www.driverheaven.net/articles/atiop/

Nix neues, aber noch längst nicht veraltet. Jedenfalls lag die 6800Ultra dort deutlich hinter der X800er. Jetzt nicht mehr.

sry for OT, aber gibt es zu diesem test einen anderen thread? ich finde es nämlich sehr interessant, dass ich (wider vielen behauptungen) sowohl bei d3 als auch beim vst der NV40 eine deutlich bessere bildquallität bescheinigen kann (zB bzgl. texturealiasing, über/unterfilterung etc.) wenn bei beiden alle optimierungen "aus" sind.

andererseits hat ati mit aktiven optimierungen imho wieder die nase bei der quallität vorne. (stark bei d3)

Jesus
2004-10-15, 12:27:40
sry for OT, aber gibt es zu diesem test einen anderen thread? ich finde es nämlich sehr interessant, dass ich (wider vielen behauptungen) sowohl bei d3 als auch beim vst der NV40 eine deutlich bessere bildquallität bescheinigen kann (zB bzgl. texturealiasing, über/unterfilterung etc.) wenn bei beiden alle optimierungen "aus" sind.

andererseits hat ati mit aktiven optimierungen imho wieder die nase bei der quallität deutlich vorne.


hört hört!

da bist du aber nicht der einzige ( siehe Grauenhafte Qualitätthread mit... im NV forum ) ;)

Alphaflight
2004-10-22, 14:32:37
Ich dachte das CS Sorce können bisher nur leute spielen die eine ATI Grafikkarte haben :D

betasilie
2004-10-22, 14:34:12
Ich dachte das CS Sorce können bisher nur leute spielen die eine ATI Grafikkarte haben :D
Das eine schließt das andere doch nicht aus. ;)

deekey777
2004-10-27, 19:05:22
3D Performance with Counter-Strike: Source Part 2 Mainstream Cards (http://www.firingsquad.com/hardware/counter-strike_source_2/default.asp)

mapel110
2004-10-28, 04:39:27
3D Performance with Counter-Strike: Source Part 2 Mainstream Cards (http://www.firingsquad.com/hardware/counter-strike_source_2/default.asp)
schon krass, was die 6600 GT für eine Performance noch bei 1600er und 2xAA/16AF bietet. :O

betasilie
2004-10-28, 05:21:44
schon krass, was die 6600 GT für eine Performance noch bei 1600er und 2xAA/16AF bietet. :O
Full Ack! :eek:

q w/o keks
2004-10-28, 08:20:27
IMO schon fast 'zu gut'. Da wurde bestimmt ein Setting falsch oder nicht angewandt. Andere Möglichkeit wäre ein Bug im ATi-Treiber.

q w/o keks
2004-10-28, 08:26:46
So, grad nochmal den "alten" Test angeschaut mit den High-End Karten: Dort liegen die X800 Pro und die 6800GT auch sehr dicht zusammen, ohne daß es diesen Einbruch der ATi in 1600x1200 gegeben hätte.

Treiberbug oder Mist gemessen. ;)

dildo4u
2004-10-28, 09:35:44
So, grad nochmal den "alten" Test angeschaut mit den High-End Karten: Dort liegen die X800 Pro und die 6800GT auch sehr dicht zusammen, ohne daß es diesen Einbruch der ATi in 1600x1200 gegeben hätte.

Treiberbug oder Mist gemessen. ;)
Tjo nur hast du übersehen das die 6600GT und die X700XT nur 128mb haben und die X800 und die 6800GT 256 irgendwie geht der X700XT der speicher aus und der 6600GT halt nicht.Die 9800pro mit 128mb bricht auch extrem gegenüber der 9800XT mit 256mb ein und das in allen tests die es bisher gab.Ati hat irgendwas mit dem texturespeicher mangament bei der Source Engine versaut.

Quasar
2004-10-28, 09:46:16
Nein, übersehen habe ich das nicht. :)
Einerseits sind in beiden Segmenten dieselben Voraussetzungen gegeben (hier 128MB, dort 256MB), andererseits bestätigst du mit deinem letzten Satz selbst, daß hier eventuell ein Treiber-Käfer lauern könnte. ;)

Und selbst wenn es ein Problem geben sollte: Die X700 Pro, die ja über 256MB verfügt, liegt so verdächtig gleichauf (im Gegensatz zu den Differenzen, die die beiden 9800-Modelle zeigen), daß ich hier die Speichermenge mal ausschließen will.

Andererseits wurde für den älteren Test noch ein prä-3DMark05-Treiber benutzt - der enthielt noch den sog. "256MB-Bug", der ja aktuell gefixt wurde...err.... :|

dildo4u
2004-10-28, 09:52:30
Jo schon alles ein bissel merkwürdig vor allem bis vor kurzem hieß es ja noch das die 6800/6600 karte probleme haben weil ein Bildbuffer zu viel speicher frisst scheint sich aber hier nicht wirklich auszuwirken.

Quasar
2004-10-28, 10:01:41
Eben.... :-))
(Von der 6600 weiß ich aber nicht, ob die nicht eventuell kein F@S verwendet)

Mr. Lolman
2004-10-28, 10:35:01
Mir würden schon BQ Vergleiche reichen :|