PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Call of Juarez DirectX 10 Benchmark


Seiten : [1] 2

Razor
2007-06-07, 19:01:35
Nanü... endlich mal ein 'richtiger' DX-Bench und keine Vergleiche?
Ich muss mich da doch glatt mal wundern!
:D

Zu laden bei Guru3D:
http://downloads.guru3d.com/download.php?det=1642
The first ever DX10 benchmark from techland is here.

This benchmark is just so delicious to look at, is using Shader Model 4 with DirectX 10, so the usage of Vista32 is mandatory.

Und die 2 Screens von der Site:

http://194.71.11.70/pub/games/PC/guru3d/generic/r6/08_CoJDX10-MSAA.jpg

http://194.71.11.70/pub/games/PC/guru3d/generic/r6/04_CoJDX10-RealismThroughGeometryShader.jpg

Na dann mal los!

Razor

Duke Eiter
2007-06-07, 21:21:08
min. 16.9
max. 54.6
avg. 29.2

res. 1280x1024
shadowmap res. 2048x2048
quality 1
supersampling off
multisampling x2
----------------------
min. 12.6
max. 49.3
avg. 23.7

res. 1280x1024
shadowmap res. 2048x2048
shadows quality 3
supersampling off
multisampling x4
----------------------
min. 11.9
max. 32.9
avg. 19.8.2

res. 1280x1024
shadowmap res. 2048x2048
quality 3
supersampling on 2.25x
multisampling off
----------------------
min. 8.0
max. 23.5
avg. 14.6

res. 1280x1024
shadowmap res. 2048x2048
quality 3
supersampling on 4x
multisampling off
----------------------

C2D 6600 @ standard
HD2900XT @standard Cat 7.50
4GB RAM
Vista64 ultimate

Moralelastix
2007-06-07, 21:48:58
Is das ein reiner Benchmark oder is da auch n' Demo Level dabei?

Blaire
2007-06-07, 21:49:00
Erstmal auf die schnelle 2 Tests mit 2x8800GTX@SLI (Standardtakt) und HQ im Treiber 158.45 versteht sich.

res. 1600x1200
shadowmap res. 2048x2048
quality 3
Supersampling off
Multisampling 4x
Anisotropic 16x

Average: 36 fps ;)

-------------------------------

res. 1920x1200
shadowmap res. 2048x2048
quality 3
Supersampling off
Multisampling off
Anisotropic 16x

Average: 40 fps

^^ Hab mit leicht abgeänderten SLI Profil noch 1 fps rausgeholt. Value "4003cc1" :D

A.Wesker
2007-06-07, 22:00:18
@ blaire

könntest du noch einen Durchlauf mit folgenden Einstellungen ohne SLI machen? wäre nett.

res. 1920x1200
shadowmap res. 2048x2048
quality 3
Supersampling off
Multisampling off
Anisotropic 16x

Blaire
2007-06-07, 22:13:50
Ungefähr die Hälfte abziehen, denn SLI skaliert sehr gut auch bei den Minimumfps. Kann aber auch noch genauen Wert nachliefern.

22,4 fps sinds um genau zu sein

A.Wesker
2007-06-07, 22:27:05
Ungefähr die Hälfte abziehen, denn SLI skaliert sehr gut auch bei den Minimumfps. Kann aber auch noch genauen Wert nachliefern.

22,4 fps sinds um genau zu sein

22.1 sinds mit einer 2900XT @ 825/950, werde gleich noml auf Standardtakt testen.

Blaire
2007-06-07, 22:28:34
22.1 sinds mit einer 2900XT @ 825/950, werde gleich noml auf Standardtakt testen.

Hast du auch dieses leichte Stottern drinne z.b. an der Stelle wo es zu HDR umschaltet? Komischerweise ist das mit SLI verschwunden.

tombman
2007-06-07, 22:29:30
hat wer nen schnelleren mirror?

A.Wesker
2007-06-07, 22:31:55
hat wer nen schnelleren mirror?
nimm den zweiten Mirror bei guru

tombman
2007-06-07, 22:34:17
paßt, wollte ich eh probieren ;)

A.Wesker
2007-06-07, 22:36:50
Hast du auch dieses leichte Stottern drinne z.b. an der Stelle wo es zu HDR umschaltet? Komischerweise ist das mit SLI verschwunden.

habe dieses Stottern bisher nur mit AA beobachten können.

Auf Standardtakt sind es übrigens 20.4 FPS.

tombman
2007-06-07, 22:39:33
habe dieses Stottern bisher nur mit AA beobachten können.

Auf Standardtakt sind es übrigens 20.4 FPS.
SPielt die cpu da ne Rolle?

A.Wesker
2007-06-07, 22:44:05
SPielt die cpu da ne Rolle?

habe mit 3 GHz und 4 GHz getestet --> exakt das gleiche Ergebnis.

tombman
2007-06-07, 22:47:44
habe mit 3 GHz und 4 GHz getestet --> exakt das gleiche Ergebnis.
dann issed ned übel, die 2900er nur 10% langsamer als die GTX

Blaire
2007-06-07, 22:51:48
Wobei ich aber mit HQ im Treiber getestet habe. AI off scheint ja bei dem R600 nicht zu funktionieren wenn es stimmt was Genosse Raff herausgefunden hat. :wink: http://www.pcgameshardware.de/?article_id=603118&page=1

reunion
2007-06-07, 22:56:32
Wobei ich aber mit HQ im Treiber getestet habe. AI off scheint ja bei dem R600 nicht zu funktionieren wenn es stimmt was Genosse Raff herausgefunden hat. :wink: http://www.pcgameshardware.de/?article_id=603118&page=1

Im Vergleich zur GF8800 scheints noch zu reichen: :wink:
http://www.pcgameshardware.de/?article_id=603050

Blaire
2007-06-07, 23:00:09
Im Vergleich zur GF8800 scheints noch zu reichen: :wink:
http://www.pcgameshardware.de/?article_id=603050

Aber nicht für HQ ;)
"Letztere filtern mit A.I. Off fast so gut wie eine Geforce 8 im HQ-Modus. Die Unterschiede sind dann minimal, mit knappem Sieg der Geforce, da sie dank verminderter Winkelabhängigkeit etwas "schärfer" filtert."

reunion
2007-06-07, 23:01:14
Aber nicht für HQ ;)

Und wieviel Leistung verlierst du durch HQ?

"Letztere filtern mit A.I. Off fast so gut wie eine Geforce 8 im HQ-Modus. Die Unterschiede sind dann minimal, mit knappem Sieg der Geforce, da sie dank verminderter Winkelabhängigkeit etwas "schärfer" filtert."

Da muss man aber schon mit der Lupe suchen.

Blaire
2007-06-07, 23:04:05
Und wieviel Leistung verlierst du durch HQ?

Hab ich bisher noch nicht getestet, warum soll ich denn auf Quality testen wenn ich eh immer HQ verwende? Man will sich ja nicht selber besch..... oder?

reunion
2007-06-07, 23:05:58
Hab ich bisher noch nicht getestet, warum soll ich denn auf Quality testen wenn ich eh immer HQ verwende?

Um Vergleichbarkeit herzustellen? Du behauptest doch, in höherer Qualität zu messen.

Blaire
2007-06-07, 23:15:11
Um Vergleichbarkeit herzustellen? Du behauptest doch, in höherer Qualität zu messen.

Natürlich ohne Optimierungen. Also bei 1920x1200 macht HQ und Quality mal glatt 2 fps aus@8800GTX.

toroidh
2007-06-07, 23:40:36
Ok, so kann man auch die 8800gtx für DX10 spiele in die Tonne hauen. Allen Benchmarks nach geht auch dieser zu schnell die Puste aus. Gibt im Herbst also wieder ein Upgrade...:-(

Blaire
2007-06-07, 23:42:30
Ok, so kann man auch die 8800gtx für DX10 spiele in die Tonne hauen. Allen Benchmarks nach geht auch dieser zu schnell die Puste aus. Gibt im Herbst also wieder ein Upgrade...:-(

Das würde ich so nicht sagen ,denn Call of Juarez war selbst im DX9 Modus schonein ordentlicher Hardwarefresser.

Deathcrush
2007-06-07, 23:43:52
Wa doch klar, nicht umsonnst sagt NV z.B das man die Geometry Shader der 8800er nicht so stark belasten soll, da diese noch zu langsam sind. Daher reicht eine 1900er ATI noch vollkommen aus. Hatte auch mal eine 8800er und so viel langsamer ist meine 1950xt nicht.

dildo4u
2007-06-07, 23:47:01
Wa doch klar, nicht umsonnst sagt NV z.B das man die Geometry Shader der 8800er nicht so stark belasten soll, da diese noch zu langsam sind. Daher reicht eine 1900er ATI noch vollkommen aus. Hatte auch mal eine 8800er und so viel langsamer ist meine 1950xt nicht.
Für den DX10 Modus reicht eine 1900 interresant.Und eine 8800 ist nicht soo viel schneller als eine 1950XT wie viel ist nicht soo viel 70%?


http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_ultra/24/#abschnitt_performancerating_qualitaet

Deathcrush
2007-06-07, 23:54:09
Bei 1280x1024 4AA 16AF sind es gerade mal 25%. Und macht es ein Spiel deshalb unspielbar oder spielbarer? NEIN. Und wozu eine DX10 Karte, wenn die jetzt schon Gnadenlos bei DX10 einbricht? Selbst dirt kann ich mit 1280x1024 4AA 8AF alles High, schatten Medium, flüssig spielen. Da brauch ich keine DX10 Karte.

P.S hab vergessen zu sagen, das ich eine 8800gts hatte und auch diese zum vergleich herangezogen habe ;)

dildo4u
2007-06-07, 23:59:20
Bei 1280x1024 4AA 16AF sind es gerade mal 25%. Und macht es ein Spiel deshalb unspielbar oder spielbarer? NEIN.
Dann gibts bei COJ ein Problem mit dem AA und AF bei 1600*1200 ohne AA und AF sind die 8800 krass überlegen.Und einen Kauf macht man sicher nicht nur von einem Spiel abhänig oder ist COJ jetzt das In Game auf dem PC.Bin ja nicht mher so drinn da Konsolenfreund. ;) Und ich betrache die Sache von der GTX als Vergleich aus also High-End gegen High-End.

Deathcrush
2007-06-08, 00:09:06
Ich halte so teure Karten für überflüssig. Was bringt mir so eine teure Karte die in einem halben Jahr eh wieder zu langsam ist und der Wertverlust so enorm hoch ist. Und wenn ich so die Benchmarks sehe, ohne Sli ist da nicht wirklich was zu machen. Ich habs mir jedenfalls abgewöhnt den teuren kram bei erscheinen zu kaufen. Wa früher auch immer der erste :D Auf dauer teuer ;). Jetzt lebe ich mit 1280x1024 4AA 16AF recht gut.

dildo4u
2007-06-08, 00:12:54
Bis jetzt gibts mit der GTX ja nur Benches in "SLI Auflösungen" interresant für mich wäre 1280*1024.

Blaire
2007-06-08, 00:14:41
Das ist eh purer Unsinn zu glauben das neue Games immer optimal laufen müssen. Ich hab mir die 8800GTXn letztes Jahr gekauft um die Games die es damals aktuell gab in hohen Auflösungen wenn möglich ohne Kompromisse eingehn zu müssen flüssig zu zocken und nicht etwa um ein halbes Jahr später DX10 Games flüssig zu zocken. Das wird dann erst mit einem Refresh z.b. der 8900GTX im SLI mit 60 fps und allem Pipapo möglich sein, aber das weiss man vorher da muss ich nicht rumjammern z.b. meine alte Karte reicht noch aus blabla...

tombman
2007-06-08, 00:31:55
Bei mir kommen Werte erst am WE-- mein Vista ist seit längerer Zeit abgefuckt, und jetzt isses Zeit endlich dagegen mal was zu tun ;)

Btw, eine 8800GTX mit ner X19xx zu vergleichen...l o l ;)

Deathcrush
2007-06-08, 00:35:00
8800gts ;). Und was bringt mir so eine Karte, wenn ich doch nur auf 20FPS komme. Da machen dann die Spiele nicht wirklich Spaß. Jetzt für DX10 Spiele eine Karte zu kaufen ist ziemlich Sinnlos. Ich meine, wie oft hört man den Spruch, "jetzt habe ich eine 8800gtx, Crysis kann kommen" Bin schon auf derren Gesichter gespannt, wenn sie es "nur" in 1024x768 @full flüssig spielen können.

Wenn man keine Mörderauflösung fährt, reicht für DX9 eine 1950XT locker. Und für DX10 ist eine 8800er am ende des Jahres zu schwach, da bin ich mir zu 99% sicher.

Blaire
2007-06-08, 00:37:06
Crysis ist ein Game für die Zukunft sagte ein Entwickler mal ;) Ich denke das sagt alles. Maximum Details in höchster Auflösung? In zwei/drei Jahren vieleicht einmal. :wink:

tombman
2007-06-08, 00:41:07
Und für DX10 ist eine 8800er am ende des Jahres zu schwach, da bin ich mir zu 99% sicher.
Da wirst du zu 99% falsch liegen ;)

Auf der 8800er wurde entwickelt, viele Leute haben das Teil gekauft, also MUSS es darauf gut rennen, wenn sie nicht nur die freaks der freaks als Kunden haben wollen. Es ist schon riskant genug DX10 generell zu fordern, aber dann noch ne 8800er GTX alt aussehen zu lassen wäre Selbstmord.

Und bei Crysis brauchst ned hoffen, daß die 8800GTX abstinken wird- zufällig WEISS ich, daß das nicht der Fall sein wird ;)

Viele "8800er Neider" hoffen ja inständig "Bitte laß die 8800er Ende des Jahres schwach aussehen, dann muß ich nicht mehr neidisch sein, wenn meine X19xx/79xx abstinkt" - tjo, NIX DA, so wirds ned kommen ;)

Deathcrush
2007-06-08, 00:42:42
Warum neidisch auf eine 8800er sein, wenn ich schon eine hatte? Ich seh einfach jetzt keinen Sinn in dieser Karte. Deine Glaskugel hätte ich gerne :D Bisher war es immer so das die erste Generation schlecht abgeschnitten hat, das wird bei der 8800er Reihe nicht anders sein. Und 1 Jahr ist verdammt viel Zeit für eine Grafikkarte. Und wer weiss was Crytek sich noch einfallen lässt. Nicht umsonnst sagen Crytek, das man Crysis so hoch schrauben kann, das man es erst in 1,5 Jahren flüssig spielen kann.

EDIT Doom3 wurde auf der Geforce2 Ultra entwickelt. Spiel es doch mal darauf :D Ich kann mich noch an Carmacks sprüche erinnern.

tombman
2007-06-08, 00:54:16
Du hattest keine GTX, basta.
Und ich nutze keine Glaskugel ;)

Moralelastix
2007-06-08, 01:04:21
Könnte mir mal bitte einer sagen ob bei dem Benchmark auch n' Demo Level dabei is, wenn nicht könnte ich mir den Download sparen!

san.salvador
2007-06-08, 01:08:07
Danke für den Hinweis!

Auf den ersten Blick hatte ich einen positiven Eindruck, aber wenn man genauer hinsieht, sieht man doch einige Defizite.

Die Spiegelungen des Wassers sind armselig, nichtmal alle Felsen geschweige denn Bäume sind darin zu sehen.

Das Holz sieht aus wie glänzendes Plastik, Far Cry lässt grüßen.

Die Personen werfen keine Schatten, mach irgendwie das doch recht stimmige Licht/Schattenspiel kaputt.

Die Bäume weißen aller gemeinstes Dithering auf, das sieht unglaublich mies aus.



Die CPU-Auslastung war beim Benchmark übrigens immer bei ca. 20%. :|

Blaire
2007-06-08, 01:18:32
Könnte mir mal bitte einer sagen ob bei dem Benchmark auch n' Demo Level dabei is, wenn nicht könnte ich mir den Download sparen!

Nee nur Benchmark

dildo4u
2007-06-08, 05:09:45
Mirrors

http://www.gamershell.com/news/39093.html

Razor
2007-06-08, 07:22:49
Da wirst du zu 99% falsch liegen ;)

Auf der 8800er wurde entwickelt, viele Leute haben das Teil gekauft, also MUSS es darauf gut rennen...
Den restlichen Quatsch zitiere ich mal lieber nicht.

Ja, es wurde auf den 88'ern (und zuvor auf Software-Renderern) geproggt und da ist Geschwindigkeit erst einmal nebensächlich. Erst jetzt (so ca. 6 Monate vor Release ;-) wird Finetuning betrieben und da hat man bei Crysis sicher schon einen G98 oder ähnliches in den Rechnern werkeln...

Vermutlich wird - wie es ja jetzt schon abzusehen ist - DX9 ganz hervorragend auf 'ner 88'er laufen, DX10 hingegen nicht - wie mit diesem Bench ja wieder einmal sehr gut zu sehen ist und sich damit in bisher ALLE Betrachtungen dieser Art einreiht.

Es scheint, wie schon vor einiger Zeit vermutet und öffentlich zum Besten gegeben:
Die 8800 ist für DX10 das, was die GeForce3 damals für DX8 war... oder die 5800 für DX9. Ein technologischer Ausblick... aber auch nicht mehr.

Ist aber auch OK... denn es war schon immer so und wiederholt sich diesmal nur.

Schwer zu hoffen, dass man dann mit einem entsprechend leistungsfähigen Refresh auch endlich wieder ein wenig... sagen wirr... 'sorgsam' mit den Resourcen umgeht und das leidige 'Verschwendungsproblem' behebt... könnte mir gut vorstellen, dass auch ich mich dann wieder zum "HighEnd" hinreißen lassen würde... OK, vielleicht eher "UpperMidrange/LowerHighEnd"... ;)

Aber hey... die 8800-Benutzer können zumindest sagen:
"Aber zumindest war ich von Anfang an dabei... jawohl!"

Razor

Deathcrush
2007-06-08, 08:15:23
Du redest da gegen eine Mauer, wie auch bei einigen anderen hier. Was Tombman sagt ist doch Gesetz und unfehlbarkeit sagt man ihm auch nach :D

Das sagt doch schon alles über Tombman aus Zitat"...............abstinken wird- zufällig WEISS ich, daß das nicht der Fall sein wird" Wa anderes bekommt man von ihm auch nie zu hören, als ich weiss es besser.

sun-man
2007-06-08, 08:32:21
Tja, der dritte Bench der unter DX10 eigebtlich zeigt wie die 8800 abschwächelt - und mich weiter darin bestärkt das es da ein Problem gibt. Klar muß NV da nicht reagieren, wozu auch. (War doch bei den damaligen 6800'er auch so, dolles shader3 und dann zu lahm).

Lustigerweise gibt es für die Verfechter derzeit noch immer Gründe es auch die miesen Spiele zu schicben. Bei COH oder Lost Planet sind es SoftShadows, jetzt soll man sich doch lieber gleich ne GTX kaufen....lächerlich so langsam.
Und bei Crysis brauchst ned hoffen, daß die 8800GTX abstinken wird- zufällig WEISS ich, daß das nicht der Fall sein wird
Ich setze drauf das es nur bis 1280x1024 geht, sollte es sowas wie Ultra oder High geben wird die GTX danach bei den Min-Frames einbrechen und ne Ruckelorgie like FarCry auf ner 6800GT draus machen.

MFG

Undertaker
2007-06-08, 10:44:58
Tja, der dritte Bench der unter DX10 eigebtlich zeigt wie die 8800 abschwächelt - und mich weiter darin bestärkt das es da ein Problem gibt. Klar muß NV da nicht reagieren, wozu auch. (War doch bei den damaligen 6800'er auch so, dolles shader3 und dann zu lahm).

wenn du das so sagst solltest du auch erwähnen, dass der r600 ebenso versagt ;)

eigentlich find ich die performance auch gar nicht mal soo schlecht... schon in dx9 mit wirklich allem @max (was auf dem g80 erst seit kurzem ohne grafikfehler geht) sind die fps recht mies...

deekey777
2007-06-08, 10:45:52
Nee nur Benchmark
Und daraus leiten einige gleich den Untergang der 8800er unter D3D10 ab?
Abgesehen davon, dass LP als erster verfügbarer Benchmark der neuen API miserabel ist und CoH da nicht viel besser ist, muss die 8800er gleich als 5900 des DX10 abgeschrieben werden. Na toll.
Nee nur Benchmark
Hat der Benchmark irgendwas mit dem Spiel zu tun? Nichts. Betrachtet den Benchmark höchstens als Ausblick auf die Grafik eines vermeintlichen Updates von CoJ - wo auch die CPU ein Wörtchen mitzureden hat.
Und wenn die Performance doch nicht zufriedenstellend ist, kann man einfach die Einstellungen herabsetzen. Also wo ist jetzt Problem?

Ich setze drauf das es nur bis 1280x1024 geht, sollte es sowas wie Ultra oder High geben wird die GTX danach bei den Min-Frames einbrechen und ne Ruckelorgie like FarCry auf ner 6800GT draus machen.

MFG
Far Cry war auf einer 6800GT also eine Ruckelorgie. Wie geht das denn? Auf meiner seligen 9800Pro war es nicht.

4711
2007-06-08, 11:20:59
Warum neidisch auf eine 8800er sein, wenn ich schon eine hatte? Ich seh einfach jetzt keinen Sinn in dieser Karte. Deine Glaskugel hätte ich gerne :D Bisher war es immer so das die erste Generation schlecht abgeschnitten hat, das wird bei der 8800er Reihe nicht anders sein. Und 1 Jahr ist verdammt viel Zeit für eine Grafikkarte. Und wer weiss was Crytek sich noch einfallen lässt. Nicht umsonnst sagen Crytek, das man Crysis so hoch schrauben kann, das man es erst in 1,5 Jahren flüssig spielen kann.

EDIT Doom3 wurde auf der Geforce2 Ultra entwickelt. Spiel es doch mal darauf :D Ich kann mich noch an Carmacks sprüche erinnern.

Du laaberst und laaberst....geh einfach wo anders hin echt.
Kein Mensch hat sich eine 8800 gekauft um DX10 Games ein Jahr nach erscheinen der Karte zu spielen!
Sondern um jetzt und hier flüssig in hohen Auflösungen ruckelfrei zu spielen!
Und das hat nichts aber auch reingarnichts mit deiner Zufriedenheit in 12..xxx zutun!
Geht das rein in deine Birne?

4711
2007-06-08, 11:24:31
Den restlichen Quatsch zitiere ich mal lieber nicht.

Ja, es wurde auf den 88'ern (und zuvor auf Software-Renderern) geproggt und da ist Geschwindigkeit erst einmal nebensächlich. Erst jetzt (so ca. 6 Monate vor Release ;-) wird Finetuning betrieben und da hat man bei Crysis sicher schon einen G98 oder ähnliches in den Rechnern werkeln...

Vermutlich wird - wie es ja jetzt schon abzusehen ist - DX9 ganz hervorragend auf 'ner 88'er laufen, DX10 hingegen nicht - wie mit diesem Bench ja wieder einmal sehr gut zu sehen ist und sich damit in bisher ALLE Betrachtungen dieser Art einreiht.

Es scheint, wie schon vor einiger Zeit vermutet und öffentlich zum Besten gegeben:
Die 8800 ist für DX10 das, was die GeForce3 damals für DX8 war... oder die 5800 für DX9. Ein technologischer Ausblick... aber auch nicht mehr.

Ist aber auch OK... denn es war schon immer so und wiederholt sich diesmal nur.

Schwer zu hoffen, dass man dann mit einem entsprechend leistungsfähigen Refresh auch endlich wieder ein wenig... sagen wirr... 'sorgsam' mit den Resourcen umgeht und das leidige 'Verschwendungsproblem' behebt... könnte mir gut vorstellen, dass auch ich mich dann wieder zum "HighEnd" hinreißen lassen würde... OK, vielleicht eher "UpperMidrange/LowerHighEnd"... ;)

Aber hey... die 8800-Benutzer können zumindest sagen:
"Aber zumindest war ich von Anfang an dabei... jawohl!"

Razor

Genau so ein dummes Zeug das Du wie eine hängende Platte immer und immer wieder zum besten gibst....manman eigendlich hät ich dir etwas mehr Intellischenz zu getraut...

Wenn ich daran denke was mein GX² in 1920x1200 in Oblivion für einen FPS Power entwickelt hat....und was die 8800 damit macht...
Und ach ja ehe ich es vergesse Oblivion ist kein DX10 Game oder???

Moralelastix
2007-06-08, 11:28:09
Gibts schon genauere Infos zur Crysis Beta?

Soll ja laut meinen letzten Infos ne Open Beta werden.


Und hört auf hier virtuelle Ohrfeigen zu verteilen oder hat hier einer einen heißen Draht nach Frankfurt?
Der Crysis Multiplayer lief ja damals auf der GC 06 schon gut auf ner x1900.

A.Wesker
2007-06-08, 11:29:23
Far Cry war auf einer 6800GT also eine Ruckelorgie. Wie geht das denn? Auf meiner seligen 9800Pro war es nicht.

Far Cry war selbst auf eine 6800 Ultra eine Ruckelorgie, sobald man 4xAA hinzugeschaltet hat.

4711
2007-06-08, 11:29:51
Da bekomm ich locker die 8800 zum ruckeln.

Undertaker
2007-06-08, 11:34:29
Far Cry war selbst auf eine 6800 Ultra eine Ruckelorgie, sobald man 4xAA hinzugeschaltet hat.


noja, schon noch erträglich:

http://www.computerbase.de/artikel/hardware/grafikkarten/2005/test_nvidia_geforce_7800_gtx_512/13/#abschnitt_far_cry

A.Wesker
2007-06-08, 11:44:33
noja, schon noch erträglich:

http://www.computerbase.de/artikel/hardware/grafikkarten/2005/test_nvidia_geforce_7800_gtx_512/13/#abschnitt_far_cry
das sind aber avg FPS, bei den minFPS unterscheidet sich gut von böse :D

Da bekomm ich locker die 8800 zum ruckeln.

bei der 2900XT reicht schon 8xAA/16AF + 1920x1200 um auf unter 40 FPS zu kommen --> net mehr so ganz flüssig.

sun-man
2007-06-08, 11:56:57
Hmm....ja, ch hab auch - mal wieder - was verwechselt.
Die Lichteffekte meine ich konnte man erst mit einer GeForce einstellen (also die bessere Beleuchtung).

Generell sah es jedoch so aus:
http://www.3dcenter.org/artikel/nv40_benchmarks/index17.php

Hier ist noch ein anderer Vergleich Shader 2.0b gegen Shader 3 (NV vs ATI):
http://www.computerbase.de/news/hardware/grafikkarten/2004/juli/far_cry_version_12_sm_20b/

Ich muß das mit dem Shader aber zurücknehmen, da habe ich was durcheinander gebracht. Was ich meinet war/ist HDR in FarCry

MFG

Slipknot79
2007-06-08, 13:31:38
Weiß ned was das Rumgeheule soll, wenn die 88GTX für Crysis zu schwach sein sollte, dann kommt eben der G90 rein, wo ist das Problem?

Zu teuer? Richtet Euch erst mal das Leben gscheit ein, keine Urlaube, keine Autos, keine Kredite, keine 50EUR Saufwochenenden und Nichtraucher sein, dann ist nix zu teuer. Immer der gleiche Scheiss.

sun-man
2007-06-08, 13:34:24
Nicht jeder muß gleich arm sein um sich so etwas nicht leisten zu können.
Von meinem freien Geld könnt ich mir theoretisch jeden Monat ne GTX kaufen...sie ist es aber nicht wert. Von daher, wer auf das Leben verzichtet um Hardware zu kaufen ist auch recht arm dran.

Slipknot79
2007-06-08, 13:35:49
Nicht jeder muß gleich arm sein um sich so etwas nicht leisten zu können.
Von meinem freien Geld könnt ich mir theoretisch jeden Monat ne GTX kaufen...sie ist es aber nicht wert. Von daher, wer auf das Leben verzichtet um Hardware zu kaufen ist auch recht arm dran.


Das ist Ansichtssache, das Leben bietet eben nicht immer was tolles. Urlaube=Stress mit dem Ehepartner=Auto=Im Stau stehen=Parkplatzsuche=Samstage mit Pflege vergeuden. Oder Raucher=Gesundheit killen=Luft verpesten=Nichtraucher schädigen. Ist das besser?

sun-man
2007-06-08, 13:48:20
Keine Ahnung wo Du lebst, aber das wird ne OffTopic Grundsatzdiskussion.
Ich arbeite den ganzen Tag mit Hardware (Server von SUN) und weiß das mein Leben mehr bietet als mich nur um den PC zu drehen und mein Privatleben nach so nem Unsinn auszurichten.
Im Stau stehen ist sicherlich weniger aufregend als sich über ein ruckelndes Crysis zu ärgern.....und dem sogennanten Urlaubsstreß vier Nächte vor nem anonymen 20" TFT vorzuziehen ist irgendwie auch alles andere als Sinnvoll.

Die Hardware und die Stromherstellung des PCs kostet enorme Ressourcen unseres Planeten, dann wird noch dauernd Pizza bestellt um die Verpackung weggeworfen, die Blisterverpackungen der Hardware verrotten auch extrem schwer ganz zu schweigen von den Inhaltsstoffen von No-RoHS Hardware. wer sich natürlich nicht um den gegenüber schert dem ist so etwas egal, das ist richtig.....

deekey777
2007-06-08, 13:50:03
Far Cry war selbst auf eine 6800 Ultra eine Ruckelorgie, sobald man 4xAA hinzugeschaltet hat.
Und konnte man in Far Cry auch 2xAA nutzen?

up¦²
2007-06-08, 14:01:57
Den restlichen Quatsch zitiere ich mal lieber nicht.

Ja, es wurde auf den 88'ern (und zuvor auf Software-Renderern) geproggt und da ist Geschwindigkeit erst einmal nebensächlich. Erst jetzt (so ca. 6 Monate vor Release ;-) wird Finetuning betrieben und da hat man bei Crysis sicher schon einen G98 oder ähnliches in den Rechnern werkeln...

Vermutlich wird - wie es ja jetzt schon abzusehen ist - DX9 ganz hervorragend auf 'ner 88'er laufen, DX10 hingegen nicht - wie mit diesem Bench ja wieder einmal sehr gut zu sehen ist und sich damit in bisher ALLE Betrachtungen dieser Art einreiht.

Es scheint, wie schon vor einiger Zeit vermutet und öffentlich zum Besten gegeben:
Die 8800 ist für DX10 das, was die GeForce3 damals für DX8 war... oder die 5800 für DX9. Ein technologischer Ausblick... aber auch nicht mehr.

Ist aber auch OK... denn es war schon immer so und wiederholt sich diesmal nur.

Schwer zu hoffen, dass man dann mit einem entsprechend leistungsfähigen Refresh auch endlich wieder ein wenig... sagen wirr... 'sorgsam' mit den Resourcen umgeht und das leidige 'Verschwendungsproblem' behebt... könnte mir gut vorstellen, dass auch ich mich dann wieder zum "HighEnd" hinreißen lassen würde... OK, vielleicht eher "UpperMidrange/LowerHighEnd"... ;)

Aber hey... die 8800-Benutzer können zumindest sagen:
"Aber zumindest war ich von Anfang an dabei... jawohl!"

Razor
Genau so isses!
Für DX10 reicht die jetzige HW hinten und vorne nicht...

4711
2007-06-08, 14:14:03
Nur das es die jetzigen NV und Ati Besitzer (8800/600)nicht die Bohne juckt was mit DX10 läuft oder nicht..davon hat noch nicht mal ein Bruchteil Vista inst.....die einzigen die das interessiert sind die Leutchen die keine haben.........das war doch schon immer so...2 gig oder 4gig.....usw....wenn jeder könnte wie er wollte geb es solche Threads gar nicht.

Slipknot79
2007-06-08, 14:26:28
Keine Ahnung wo Du lebst, aber das wird ne OffTopic Grundsatzdiskussion.
Ich arbeite den ganzen Tag mit Hardware (Server von SUN) und weiß das mein Leben mehr bietet als mich nur um den PC zu drehen und mein Privatleben nach so nem Unsinn auszurichten.
Im Stau stehen ist sicherlich weniger aufregend als sich über ein ruckelndes Crysis zu ärgern.....und dem sogennanten Urlaubsstreß vier Nächte vor nem anonymen 20" TFT vorzuziehen ist irgendwie auch alles andere als Sinnvoll.

Die Hardware und die Stromherstellung des PCs kostet enorme Ressourcen unseres Planeten, dann wird noch dauernd Pizza bestellt um die Verpackung weggeworfen, die Blisterverpackungen der Hardware verrotten auch extrem schwer ganz zu schweigen von den Inhaltsstoffen von No-RoHS Hardware. wer sich natürlich nicht um den gegenüber schert dem ist so etwas egal, das ist richtig.....



Du hast es also richtig erkannt, jeder muss wissen was richtig ist :)
Stünde mir gerade mal so viel Geld im Monat zur Verfügung von dem ich mir eine GTX kaufen könnte, würde ich mir diese Hobby auch anders überlegen ;-) Vom Modellbau fange ich da erst mal lieber nicht an.


Ich versteh die Leute ned die rumheulen, was soll das bitte bringen? Dann soll man eben die Finger von richtiger Hardware lassen, zu Konsolen greifen (die auch nicht viel billiger sind) und ned aufregen, es wäre zu teuer blabla, welches Hobby ist schon billig? Ist im Modellbau ned anders, was da rumgeheult wird, wie kann man sich Modelle um 1500EUR kaufen, aber Hauptsache der tägliche Raunzer ist drin. :rolleyes:

sun-man
2007-06-08, 14:30:16
Nur das es die jetzigen NV und Ati Besitzer (8800/600)nicht die Bohne juckt was mit DX10 läuft oder nicht..davon hat noch nicht mal ein Bruchteil Vista inst.....die einzigen die das interessiert sind die Leutchen die keine haben.........das war doch schon immer so...2 gig oder 4gig.....usw....wenn jeder könnte wie er wollte geb es solche Threads gar nicht.

Auch das ist Quatsch. Ich nehme bewusst einige der Käufer aus, aber die breite Masse fragt doch "Es muß auch für Crysis reichen" weil man damait gleich stellt das alles bis dahin weniger Systemperformance benötigt. Da recht es auch sich die Threads hier im Bord durchzulesen "Hach, jetzt hab ich Vista und brauch was für DX10". Die Hoffung nach oder auf DX kleinzureden ist danach immer einfach, die Geilheit danach steht in jedem dritten Posting in dem es um die Nvidia geht -bei den neuen ATIs hat sich schon rauskristallisiert das es in absehbarer Zeit kaum DX10 Software geben wird, deswegen sind die Leute etwas auf dem Boden der Tatsachen geblieben. Das die da atm auch nicht besser sind ist das I-Tüpfelchen.

MFG

mapel110
2007-06-08, 14:50:39
hm, dann reicht die alte Generation aber auch nicht für DX9 in Call of Juarez aus, wenn die 8800er zu lahm für den DX10-Pfad ist.
Ergo kann man auch die 8800er als erste Generation ansehen, auf der DX9 von COJ vernünftig läuft. Also hat man von der Karte einen Vorteil, den die alte Generation nicht bot.

btw eigentlich sollten hier Benchmarkergebnisse gepostet werden und nicht offtopic über Crysis und 8800er gequatscht werden. ;(

up¦²
2007-06-08, 15:03:12
Gibt es denn schon Resultate mit R600?

Undertaker
2007-06-08, 15:11:15
Gibt es denn schon Resultate mit R600?

schau doch mal auf seite 1 ;)

sun-man
2007-06-08, 15:24:34
...und sind bei CB evtl in Arbeit. W. Andermahr weiß nicht ob er dazu kommt. PCGH hat sicher auch noch nix??

dildo4u
2007-06-08, 15:29:50
"Umfangreiche Benchmarks mit aktuellen Treibern bereiten wir zur Stunde für Sie vor"

http://www.pcgameshardware.de/?article_id=603197

tombman
2007-06-08, 15:32:34
Wo läuft denn bitte DX10 auf der 8800GTX schlecht???

Nur zur Erinnerung, weil einige offenbar was ned kapieren: 1600x1200 oder 1920x1200 sind eigentlich
KEINE Auflösungen für single Karten.
Das ist SLI/CF Bereich!

Lost Planet und Call of Juarez in DX10 rennt auf einer GTX FLÜSSIG mit maximalen Details in zb der normalen HDTV Auflösung von 1280x720.
Das wird bei Crysis nicht anders sein.

Wer die ganz hohen Auflösungen auch noch flüssig haben will, der greift eben zu SLI/CF. Das war aber mit DX9 auch ned anders...

Undertaker
2007-06-08, 15:37:26
Nur zur Erinnerung, weil einige offenbar was ned kapieren: 1600x1200 oder 1920x1200 sind eigentlich
KEINE Auflösungen für single Karten.
Das ist SLI/CF Bereich!


wer legt sowas fest? dann wäre 2560x1600 ja mit keinem setup möglich... eine gute singlekarte sollte 1920x1200 ohne aa/af eigentlich immer schaffen (zumindest in realen games)

denn merke: es gibt weit mehr user mit 1600x1200 oder noch mehr, aber kaum nennenswert sli/cf nutzer :wink:

dildo4u
2007-06-08, 15:42:19
denn merke: es gibt weit mehr user mit 1600x1200 oder noch mehr, aber kaum nennenswert sli/cf nutzer :wink:
Dann hat man sich definitv den falschen TFT gekauft 1280*1024 war und ist das Maximale was eine High-End Karte mit AA und AF bei aktuellen Games schaffen muss.Beispiele wären FEAR und Oblivion die jeweils defintiv nicht flüssig in 1600*1200 auf einer High-End Karte(1900XT,7900GTX) zur Zeit ihrer Veröffentlichung liefen.
Nur weil jetzt 22 und 24 Zoll TFTs mit 1600 Auflösungen billig werden,werden die Karten ja nicht automatisch schneller.

tombman
2007-06-08, 15:47:00
Genau, mehr als 1280x1024 war einfach noch nie für single Karten gedacht...

Undertaker
2007-06-08, 15:53:26
Dann hat man sich definitv den falschen TFT gekauft 1280*1024 war und ist das Maximale was eine High-End Karte mit AA und AF bei aktuellen Games schaffen muss.Beispiele wären FEAR und Oblivion die jeweils defintiv nicht flüssig in 1600*1200 auf einer High-End Karte(1900XT,7900GTX) zur Zeit ihrer Veröffentlichung liefen.
Nur weil jetzt 22 und 24 Zoll TFTs mit 1600 Auflösungen billig werden,werden die Karten ja nicht automatisch schneller.

dem würde ich wiedersprechen, auf der 7900gtx hatte ich bis zum verkauf kein game das nicht in 1920x1200 flüssig laufen wollte, bei bester optik ohne aa/af - ausnahme gothic, dafür kam dann die 8800 ;) und die schafft bis auf stalker atm sogar noch jedes game mit aa und/oder af :cool:

Undertaker
2007-06-08, 15:56:35
Genau, mehr als 1280x1024 war einfach noch nie für single Karten gedacht...

bei 100% grakalimit verliert man von 1280x1024 zu 1600x1200 4xaa 16xaf fast 2/3 leistung

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/22/#abschnitt_oblivion

das würde ja anderherum bedeuten, das auch sli nicht für mehr als 1600x1200 2xaa gut ist :D und das willst du doch nicht behaupten? :D


edit: sry 4 doppelpost

tombman
2007-06-08, 16:04:44
bei 100% grakalimit verliert man von 1280x1024 zu 1600x1200 4xaa 16xaf fast 2/3 leistung

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/22/#abschnitt_oblivion

das würde ja anderherum bedeuten, das auch sli nicht für mehr als 1600x1200 2xaa gut ist :D und das willst du doch nicht behaupten? :D


edit: sry 4 doppelpost

Klarer Fall von falsche Schlüsse ziehen :rolleyes:
Du schaust dir an wie der Abfall von 1280x1024 nach 1600x1200 4/16 ist und rechnest dann dumm hoch auf 1600x1200 2xAA. Den Abfall von 1280x1024 nach 1280x1024 4/16 hast dir natürlich nicht angesehen. Und wie SLi ist der Realität bei Oblivion rennt natürlich auch ned.

Oblivion rennt in 1920x1200 4/16 ohne Probleme in SLI..und das flüssig- das ist eine Tatsache, da brauchen wir keine Hochrechnungen, weder falsche noch richtige.

Undertaker
2007-06-08, 16:11:10
Klarer Fall von falsche Schlüsse ziehen :rolleyes:
Du schaust dir an wie der Abfall von 1280x1024 nach 1600x1200 4/16 ist und rechnest dann dumm hoch auf 1600x1200 2xAA. Den Abfall von 1280x1024 nach 1280x1024 4/16 hast dir natürlich nicht angesehen. Und wie SLi ist der Realität bei Oblivion rennt natürlich auch ned.

Oblivion rennt in 1920x1200 4/16 ohne Probleme in SLI..und das flüssig- das ist eine Tatsache, da brauchen wir keine Hochrechnungen, weder falsche noch richtige.

du hast nicht verstanden worauf ich hinauswollte:

einerseits sagst du, 1280x1024 ist das maximum für eine singlekarte. andererseits ist man schon in 1600x1200 mit minimalsten aa/af settings bei nur noch etwa der halben performance, du selbst spielst aber nach dem was du so erzählst nix in unter 1920x1200 (und praktisch immer mit aa/af)

das beißt sich.

tombman
2007-06-08, 16:17:10
1280x1024 ~ 1,3 Millionen Pixel
1920x1200 ~ 2,3 Millionen Pixel

2,3 / 1,3 ~ 77% mehr Pixel.

Und genau diese 77% mehr Pixel kann SLI locker auffangen :cool:

w.z.b.w ;)

p.s. und wenns hart auf hart kommt, Spiel sehr anspruchsvoll, dann gehe ich auf 1600x1000 (16:10 ws) runter und die Sache paßt wieder. Und das bei vollen Details + 4/16 :cool:

Undertaker
2007-06-08, 16:22:20
1280x1024 ~ 1,3 Millionen Pixel
1920x1200 ~ 2,3 Millionen Pixel

2,3 / 1,3 ~ 77% mehr Pixel.

Und genau diese 77% mehr Pixel kann SLI locker auffangen :cool:

w.z.b.w ;)

p.s. und wenns hart auf hart kommt, Spiel sehr anspruchsvoll, dann gehe ich auf 1600x1000 (16:10 ws) runter und die Sache paßt wieder. Und das bei vollen Details + 4/16 :cool:

du vergleichst nur die pixel, dann kommt am ende doch wieder was von aa/af - das passt nicht ;)

wo ich dir zustimme: singlekarte -> sli kann 1280x1024 -> 1920x1200 abfangen, keine frage. aber in welchen games reicht ein g80-sli nur für 1920x1200 noaa noaf? fällt mir auf die schnelle keines ein, dir? ;) und wenn sli für 1920x1200 4xaa 16xaf reicht, kommt man mit einer singlekarte auch bei 1920x1200 0xaa/af noch zurecht - das wollte ich ausdrücken

tombman
2007-06-08, 16:27:07
Ob AA oder nicht ist irrelevant, denn das würde sich ja auch auf die SINGLE Karte auswirken. Also entweder man vergleicht mit AA oder ohne, bei SINGLE und SLI, und nicht querbeet.
AA wird auf jedes Pixel angewendet, egal ob SINGLE oder SLI.
SLI kann die Mehrbelastung der 77% auffangen.
Wenn 1280x1024 in 4/16 auf der SINGLE zu langsam ist, dann wird wohl auch 1920x1200 4/16 auf SLI zu langsam sein, weil zaubern kann SLI auch ned.
Aber genau dazu gibts ja das "fallback" auf 1600x1000, was immer noch HAMMERGEIL aussieht.

Jetzt alles klar?

up¦²
2007-06-08, 16:29:51
schau doch mal auf seite 1 ;)
Soll das etwa alles sein... aber ok: danke für den Spott! :wink:
Scheint keinen wirklich zu jucken...

Undertaker
2007-06-08, 16:31:37
Soll das etwa alles sein... aber ok: danke für den Spott! :wink:
Scheint keinen wirklich zu jucken...

hab ich was falsches gesagt? dort stehen doch mehrere r600-ergebnisse, sogar in diversen settings und auf verschiedenen taktraten - was willst du denn noch?

up¦²
2007-06-08, 17:15:26
Vielleicht haben robbitop & BlackBirdSR Zeit und lust paar interessante Aspekte als Nachtrag zur Review (http://www.3dcenter.org/artikel/radeon_hd_2900_xt/) zu liefern.
Die Info von Eiter ist zu wenig, aber immerhin net, das er es postet.
Bei DX10 ist scheinbar die Luft raus... vielleicht auch gut so :tongue:

san.salvador
2007-06-08, 17:18:52
Bei DX10 ist scheinbar die Luft raus... vielleicht auch gut so :tongue:
Könntest du bitte diese haltlose Flamerei bleiben lassen?

up¦²
2007-06-08, 17:31:57
Könntest du bitte diese haltlose Flamerei bleiben lassen?
Wie kommst du mir vor... :rolleyes:

dildo4u
2007-06-08, 17:58:39
Schade der Benchmark scheint in der Form zum Vergleich nutzlos zu sein.

"Update 2:
Wir haben 24 Vergleichsshots angefertigt, die HD2900 XT und GF8800 GTX bei der Arbeit auf den Zahn fühlen. Obwohl auf den ersten Blick ohne große Unterschiede, fällt in einigen Shots auf, dass die HD2900 XT offenbar eine geringere Texturauflösung nutzt. Möglicherweise wird diese vom Benchmark anhand der verfügbaren VRAM-Menge vorgegeben. Die AF-Einstellung haben wir jedenfalls überprüft: Sie war für beide Karten deaktiviert."

http://www.pcgameshardware.de/?article_id=603197

Undertaker
2007-06-08, 18:04:34
Schade der Benchmark scheint in der Form zum Vergleich nutzlos zu sein.

"Update 2:
Wir haben 24 Vergleichsshots angefertigt, die HD2900 XT und GF8800 GTX bei der Arbeit auf den Zahn fühlen. Obwohl auf den ersten Blick ohne große Unterschiede, fällt in einigen Shots auf, dass die HD2900 XT offenbar eine geringere Texturauflösung nutzt. Möglicherweise wird diese vom Benchmark anhand der verfügbaren VRAM-Menge vorgegeben. Die AF-Einstellung haben wir jedenfalls überprüft: Sie war für beide Karten deaktiviert."

http://www.pcgameshardware.de/?article_id=603197

also von den screenshots her muss bei der 8800 af angewesen sein - die nahen texturen sehen noch identisch aus, in der ferne wird die hd2900 extrem unscharf - nach unterschiedlichen texturauflösungen sieht mir das nicht aus

Blaire
2007-06-08, 18:25:26
So würde ich das auch sehn.

Mr. Lolman
2007-06-08, 19:22:28
Absolut ACK. Am G80 Shot ist AF aktiv.

Wie man überhaupt auf die Idee kommen kann, dass da ne unterschiedliche Texturauflösung genutzt wird... :|

Raff
2007-06-08, 19:30:53
Schaut aus wie "adaptives AF", ergo winkelabhängig. Paar Flächen sehen nach trilinear aus, andere anisotrop gefiltert.

MfG,
Raff

SuperSoldierX
2007-06-08, 20:02:02
Details 'Balanced'@1280x1024

http://img528.imageshack.us/img528/5101/bm1mc4.th.jpg (http://img528.imageshack.us/my.php?image=bm1mc4.jpg)

Details 'High'@1280x1024

http://img528.imageshack.us/img528/1410/bm2wn5.th.jpg (http://img528.imageshack.us/my.php?image=bm2wn5.jpg)

Sys.:

Xeon X3210@stock
8800GTS 640@648/1512/2020MHz
4GB DDR2 RAM
Vista Ultimate x64

Mr. Lolman
2007-06-08, 20:10:01
Schaut aus wie "adaptives AF", ergo winkelabhängig. Paar Flächen sehen nach trilinear aus, andere anisotrop gefiltert.

MfG,
Raff

Es sieht aus, als wär am G80 Shot AF aktiv und am R600 Shot nicht.

toroidh
2007-06-08, 22:34:37
Bis jetzt gibts mit der GTX ja nur Benches in "SLI Auflösungen" interresant für mich wäre 1280*1024.


Ich habe auf einer 8800gtx ohne AA und Schatten Medium Gebencht, doe Auflösung auf 1280x1024. Das war ein Geruckel mit Average 32 und minimum 16 FPS. Da beginnt man über das Versagen der teuren Hardware fast zu weinen. Was für ein teures Stück Schrott steckt da eigentlich in meinem PC ? Für Anständiges DX10 reicht es mit der Karte nicht, dafür war diese aber entwickelt worden. Ohne AA sieht deser Benchmark übrigens grauenvoll aus, das Flimmern ist extrem. Wieso brechen die Karten bei DX10 so extrem ein ? SLI auflösungen ? Bei DX10 sind 1280x1024 SLI Auflösungen.

Ich habe übrigens mit 2fach MSAA schlechtere Werte als SuperSoldierX, obwohl ich eine 8800gtx am start habe und einen C2D bei 3,51 GHz .
SuperSoldierX, welchen Treiber verwendest du ?

Vega2002
2007-06-09, 00:18:48
schau mal die qualität an ... steht auf 1

e6600@3.2GHz 400*8 // 2x 1 GB DDR2 @ 800 MHz bei 4.4.4.12 // Geforce 8800GTX 768 MB @ 621|1125 MHz , Forceware 158.45@HQ // Vista Ult. 64b

res. 1280x1024
shadowmap res. 2048x2048
quality 3
Supersampling off
Multisampling 4x
Anisotropic 16x

min: 11.2
max: 42
avg: 20.2

res. 1280x1024
shadowmap res. 2048x2048
quality 3
Supersampling 4x
Multisampling off
Anisotropic 16x

min: 6.5
max: 24.0
avg: 14.1

toroidh
2007-06-09, 03:51:38
Seine Karte bringt trozdem mehr Leistung in diesem Bench.
D.h:
1. Die "vollen" Möglichkeiten einer GTX werden nicht ausgenutzt - eine übertaktete GTS frisst eine GTX ohne Probleme, - heftig!
2. Es gibt irgendwelche Tricks
3. Mein Treiber ist müll. Die Botanik sieht zumindest nach punktuellem Schrott aus, alles scheint aus Punkten zu bestehen bei mir, wirklich ätzend + ständiges Stuttering nach jedem "Szänewechseln"...


Ich mache mir keine Illusionen mehr - die Karte muss im Herbst weg...

san.salvador
2007-06-09, 04:00:26
Ich habe auf einer 8800gtx ohne AA und Schatten Medium Gebencht, doe Auflösung auf 1280x1024. Das war ein Geruckel mit Average 32 und minimum 16 FPS. Da beginnt man über das Versagen der teuren Hardware fast zu weinen. Was für ein teures Stück Schrott steckt da eigentlich in meinem PC ? Für Anständiges DX10 reicht es mit der Karte nicht, dafür war diese aber entwickelt worden. Ohne AA sieht deser Benchmark übrigens grauenvoll aus, das Flimmern ist extrem. Wieso brechen die Karten bei DX10 so extrem ein ? SLI auflösungen ? Bei DX10 sind 1280x1024 SLI Auflösungen.

Ich habe übrigens mit 2fach MSAA schlechtere Werte als SuperSoldierX, obwohl ich eine 8800gtx am start habe und einen C2D bei 3,51 GHz .
SuperSoldierX, welchen Treiber verwendest du ?
Was erwartest du? Der "Patch" ist reine Gaudi für die Programmierer. Das Spiel ist bereits durchverkauft, das "DX10" ist ein reines Experiment ihrereseits. Das selbe gilt für "Company of Hereoes".
Diese zwei Entwicklungen sind aus reiner Freude am Spaß entstanden.

Wer diese zwei Benchmarks bereits als maßgeblich für DX10 wahrnimmt, hat das Prozedere nicht ansatzweise verstanden.

toroidh
2007-06-09, 08:55:43
Wenn Du meinst. Es wird sich dann zeigen, wenn Crysis mit 30 FPS dahinzuckt. Wundern wird es mich nicht und deswegen ist eine neue Karte ist im Herbstbudget bereits eingeplant.

SuperSoldierX
2007-06-09, 10:51:11
Ich habe übrigens mit 2fach MSAA schlechtere Werte als SuperSoldierX, obwohl ich eine 8800gtx am start habe und einen C2D bei 3,51 GHz .
SuperSoldierX, welchen Treiber verwendest du ?

Hab mit dem 158.45 gebencht.

TheBrother
2007-06-09, 11:07:10
Details 'Balanced' @1280x1024
Treiber: 158.45

Min: 16,7
Max: 54,6
Avg: 29,9

Sys wie in der Sig. Ich denke nvidia wird sicher so wie bei LostPlanet nen extra Treiber für rausbringen um ein paar Punkte gut zumachen, aber wieviel das hilft wird sich zeigen.


Gruß

Brother

4711
2007-06-09, 11:27:09
Wenn Du meinst. Es wird sich dann zeigen, wenn Crysis mit 30 FPS dahinzuckt. Wundern wird es mich nicht und deswegen ist eine neue Karte ist im Herbstbudget bereits eingeplant.

Bis dahin gibt es neue Hardware!
Hört endlich auf diese bis dahin "uralte Graka" mit Games vergleichen die irgenwann dieses Jahr kommen oder auch nicht.
Sonst tauf ich diese Forum noch in "HellseherForum" um.

moTiv8
2007-06-09, 12:14:49
Auflösung 1920x1200
AA aus
Super-/Multisampling aus
Shadowsquality 3

Min: 11,9
Max: 40.1
AVG: 22.1

Schöner Benchmark wie ich finde. Vor allem die Sonne im Wald sieht einfach toll aus.

sun-man
2007-06-09, 14:23:40
so, die PCGH hat ja die Benches fertig....
Selbst die GTX bricht in unspielbare Abgründe ein...warum?
1024x768 mit ner GTX in DX10 um speilbare Frames zu bekommen ist ja schon ganz cool ;). Knappe 50% durch schatten auf "Low" weniger? Alter Vadder...laut diesen Benches tut es dann locker ne GTS.

http://www.pcgameshardware.de/?menu=browser&mode=article&article_id=603251&entity_id=-1&image_id=660478&page=1

MFG

Deathcrush
2007-06-09, 14:28:36
Daran sieht man doch schon das die 8800er für DX10 ein bisl zu wenig Power haben, wobei ich glaube das sie bei Crysis ein bisl besser performanen werden. Aber wer glaubt Crysis @Max spielen zu können (1280x1024 4AA 8AF), mit einer 8800er, der ist ein bisl naiv.

sun-man
2007-06-09, 14:35:16
Hi,

das Problem welches ich sehe. Wenn die HERSTELLER die Treiber nicht gebacken bekommen, wodrauf soll dann Crysis sauber entwickelt werden?
Ebenso habe ich in nem anderen Thread gerade erwähnt das man die GTX/GTS Reiher sehr wohl unter dem Gesichtspunkt DX10 sehen muß - und zwar zwingend. Die Karten gibt es heute zu kaufen, die Werben mit DX10...das sind keine EOL Karten die es nur noch bei Ebay gibt. Es gibt nicht besseres atm.. Gut, wenn XY jetzt sagt das er nicht an DX10 denkt mag das sein weil er genug Kohle hat, der Rest der welt kauft sich Vista und ne GTS/X um zukünftig damit spielen zu können. Bekommen tut er im Moment bei beiden Firmen Grafikkarten die zuviel Strom verbraten und in DX10 einrechen wie nichts gutes.

Mal ernsthaft. Warum sollten BEIDE Firmen sich das gefallen lassen und nicht Demos oder was auch immer bringen die zeigen wie gut die Karten unter DX10 performen? Es sei denn sie wissen das die Performance unter DX10 eben so ist wie sie ist. Beider Hersteller verdienen Millionen und denen kann eigentlich nur daran gelegen sein zu zeigen wie gut die eigenen Karten laufen. Das tun sie aber nicht - Warum?

MFG

Deathcrush
2007-06-09, 14:43:20
Schau dir doch nur einmal die ersten DX8 Karten an. Für DX7 einwandfrei und für DX8 konnte man sie in die Tonne kloppen. Genauso wirds mit der 8800er. Jetzt wird fett Werbung gemacht, ein paar Spieleschnipsel gezeigt, alle Sabbern und ziehen los und kaufen sich das Teil. Halbes Jahr später dann die ernüchterung. Wa schon immer so und wird auch immer so bleiben.

Cubitus
2007-06-09, 14:49:12
Wo läuft denn bitte DX10 auf der 8800GTX schlecht???

Nur zur Erinnerung, weil einige offenbar was ned kapieren: 1600x1200 oder 1920x1200 sind eigentlich
KEINE Auflösungen für single Karten.
Das ist SLI/CF Bereich!

Lost Planet und Call of Juarez in DX10 rennt auf einer GTX FLÜSSIG mit maximalen Details in zb der normalen HDTV Auflösung von 1280x720.
Das wird bei Crysis nicht anders sein.

Wer die ganz hohen Auflösungen auch noch flüssig haben will, der greift eben zu SLI/CF. Das war aber mit DX9 auch ned anders...

Tombmans Wort ist kein Gestz, die Aussage ist aber absulut logisch.
durch die Staerke der einzelnen Karte waren ploetzlich hohe Aufloesungen moeglich.

das Problem welches ich sehe. Wenn die HERSTELLER die Treiber nicht gebacken bekommen, wodrauf soll dann Crysis sauber entwickelt werden?
Ebenso habe ich in nem anderen Thread gerade erwähnt das man die GTX/GTS Reiher sehr wohl unter dem Gesichtspunkt DX10 sehen muß - und zwar zwingend. Die Karten gibt es heute zu kaufen, die Werben mit DX10...das sind keine EOL Karten die es nur noch bei Ebay gibt. Es gibt nicht besseres atm.. Gut, wenn XY jetzt sagt das er nicht an DX10 denkt mag das sein weil er genug Kohle hat, der Rest der welt kauft sich Vista und ne GTS/X um zukünftig damit spielen zu können. Bekommen tut er im Moment bei beiden Firmen Grafikkarten die zuviel Strom verbraten und in DX10 einrechen wie nichts gutes.

Bis jetzt sind es ja nur Benchmarks, ein reines D3D10 ist noch nicht
erschienen. Und Lost Planet ist auch nur ne Demo, das als eines der ersten Games ueberhaupt auf Vista setzt. Aber schwer zu sagen ob die richtigen Kracher wie Hellgate London, Bioshock, oder eben Cyrisis besser Performen werden. Nvidia ist durchaus in der Lage bessere Treiber zu entwickeln aber warum sollten die das tun, wenn die naechste Genaration bald kommen wird :wink:

Lightning
2007-06-09, 14:49:55
Schau dir doch nur einmal die ersten DX8 Karten an. Für DX7 einwandfrei und für DX8 konnte man sie in die Tonne kloppen.

Es war nicht immer so. Die ersten DirectX-9-Karten haben z.B. durchaus noch großen nutzen daraus ziehen können.

Genauso wirds mit der 8800er.

Möglich. Möglich auch, dass es anders kommt. Ist aber auf jeden Fall Spekulation.

Jetzt wird fett Werbung gemacht, ein paar Spieleschnipsel gezeigt, alle Sabbern und ziehen los und kaufen sich das Teil.

Ich bezweifle, dass sich viele Leute eine 8800 mit DX10 als Hauptgrund gekauft haben.

Blaire
2007-06-09, 15:12:20
Ich bezweifle, dass sich viele Leute eine 8800 mit DX10 als Hauptgrund gekauft haben.

So siehts aus

Deathcrush
2007-06-09, 15:18:54
Es war nicht immer so. Die ersten DirectX-9-Karten haben z.B. durchaus noch großen nutzen daraus ziehen können.



Möglich. Möglich auch, dass es anders kommt. Ist aber auf jeden Fall Spekulation.



Ich bezweifle, dass sich viele Leute eine 8800 mit DX10 als Hauptgrund gekauft haben.

Wie oft hört man hier oder in andere Foren den Spruch "Jetzt hab ich die 8800gtx, Crysis kann kommen".

Cubitus
2007-06-09, 15:20:30
Wie oft hört man hier oder in andere Foren den Spruch "Jetzt hab ich die 8800gtx, Crysis kann kommen".

Nicht vergessen ! Crysis enthaelt aber auch einen DX9 Renderpfad :biggrin:

Blaire
2007-06-09, 15:26:21
Wie oft hört man hier oder in andere Foren den Spruch "Jetzt hab ich die 8800gtx, Crysis kann kommen".

Auf einer 8800GTX wird Crysis gut laufen wie auch die ganzen Videos gezeigt haben. Mit 8800GTX@SLI kann man sicher noch mehr Details rauskitzeln bzw. die Auflösung erhöhen.

LovesuckZ
2007-06-09, 15:46:34
Wie oft hört man hier oder in andere Foren den Spruch "Jetzt hab ich die 8800gtx, Crysis kann kommen".

Crysis läuft nicht auf den 8800 Karten? :|

Deathcrush
2007-06-09, 15:46:51
Weil du auf den Videos sehen kannst, welche Detailstufe und vor allem welche Hardware am laufen ist? Wenn es auf einer 8800GTX flüssig laufen sollte, freu ich mich natürlich. Da kann ich güsntig umrüsten und das Spiel voll geniesen. Nur ich glaube daran irgendwie noch nicht, da die Vergangeheit immer anderes gezeigt hat.


P.S Wer eine DX10 Karte hat, wird auch in DX10 spielen wollen ;)

Blaire
2007-06-09, 16:05:20
Die 8800GTX kam letztes Jahr November auf den Markt ich frage mich was einige für eine Erwartungshaltung haben... Selbst wenn die kein DX10 untersützt hätte wäre die Karte dennoch top gewesen! DX10 kommt erst 2008 so richtig in Fahrt da haben wir wieder neue Karten am Markt. Daher erübrigt sich die DX10 Diskussion eigentlich von ganz allein.

Cubitus
2007-06-09, 16:11:42
Die 8800GTX kam letztes Jahr November auf den Markt ich frage mich was einige für eine Erwartungshaltung haben... Selbst wenn die kein DX10 untersützt hätte wäre die Karte dennoch top gewesen! DX10 kommt erst 2008 so richtig in Fahrt da haben wir wieder neue Karten am Markt. Daher erübrigt sich die DX10 Diskussion eigentlich von ganz allein.

Genau,
ausserdem ist es in den letzten Jahren immer so gewesen, dass High End Games mit full eye Candys neue Karten brauchen, wenn die aktuelle High End schon laenger als ein gutes halbes Jahr verfuegbar ist. So ist das nun mal, eine Graphikkarte ist so gesehen nach einem Jahr eben alt.

Slipknot79
2007-06-09, 16:25:46
Wie oft hört man hier oder in andere Foren den Spruch "Jetzt hab ich die 8800gtx, Crysis kann kommen".


Zeige mir in diesem Forum dieses oder ein ähnliches Ztitat. Ich kenne hier auch niemanden, der sich ne 88GTX für Crysis gekauft hat.

tombman
2007-06-09, 16:59:47
Ich habe Crysis auf der GC06 im August schon gespielt, und da gabs noch gar keine 8800gtx, und trotzdem lief es flüssig.

Undertaker
2007-06-09, 17:02:56
Ich habe Crysis auf der GC06 im August schon gespielt, und da gabs noch gar keine 8800gtx, und trotzdem lief es flüssig.

habe ich ebenfalls, die version auf der gc06 sah äußerst dürftig aus und lief nur auf lcd-tvs mit vermutlich 1280x720

sun-man
2007-06-09, 17:04:19
Ich habe Crysis auf der GC06 im August schon gespielt, und da gabs noch gar keine 8800gtx, und trotzdem lief es flüssig.
Das tut COH oder CoJ unter DX9 auch auch, nicht aber unter DX10.

MFG

tombman
2007-06-09, 17:06:57
Das tut COH oder CoJ unter DX9 auch auch, nicht aber unter DX10.

MFG
COH und CoJ sind alles nur gepatchte Versionen mit Spaßfaktor. Crytek sind keine noobs, und die werden DX10 sicher ned langsamer laufen lassen als DX9... (relativ zur Optik natürlich)

Aber die mp beta demo von Crysis kommt ja bald zu mir, dann weiß ich mehr ;)

Undertaker
2007-06-09, 17:07:13
Das tut COH oder CoJ unter DX9 auch auch, nicht aber unter DX10.

MFG


bei gleicher optik ist dx10 eher schneller als langsamer...

sun-man
2007-06-09, 17:15:22
Zeige mir in diesem Forum dieses oder ein ähnliches Ztitat. Ich kenne hier auch niemanden, der sich ne 88GTX für Crysis gekauft hat.
Meinst Du solche Fragen (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=332107)? Dazu nutzt man die ausgeklügelte suchfunktion und sucht 6Monate und älter, 3 Monate und älter brächte wohl auch einiges zu Tage. man kann natürlich auch anderes finden (http://www.forumdeluxx.de/forum/showpost.php?p=4950646&postcount=149).


bei gleicher optik ist dx10 eher schneller als langsamer...
Richtig. alle bisher gezeigten Versuche DX10 umzusetzen zeigten das aber nicht wirklich.

MFG

dildo4u
2007-06-09, 17:17:45
Richtig. alle bisher gezeigten Versuche DX10 umzusetzen zeigten das aber nicht wirklich.

MFG
Doch Lost Planet z.B beim Rest gibts immer extra DX10 Effekte sind also nicht 100% vergleichbar.

"Erfreulich ist jedoch, dass der D3D10-Modus mit den Detail-Einstellungen des D3D9-Pfads etwa zehn Prozent schneller läuft."

http://www.pcgameshardware.de/?article_id=601203

sun-man
2007-06-09, 17:20:54
Ich kenne nur den Firingtest von LostPlanet:
http://www.firingsquad.com/hardware/lost_planet_demo_directx_10_performance/page2.asp

MFG

PS: OK, PCGH gabs auch noch ;;).

PPS: Naja, die 8'er Reihe von Nvidia soll angeblich günstiger gemacht werden. Vielleicht kann man mich dann überreden mein 256Mb Monster aufzugeben ;) :D
http://www.vr-zone.com/index.php?i=5049

dildo4u
2007-06-09, 17:23:29
Jup weil die kein Plan haben und den DX10 Pfad mit den Softshadows gebencht haben die unter DX9 nicht verfügbar sind.

sun-man
2007-06-09, 17:25:44
Jup weil die kein Plan haben und den DX10 Pfad mit den Softshadows gebencht haben die unter DX9 nicht verfügbar sind.
Das kann ja nicht sein, wenn PCGH schreibt das die Raten um 50% einbrechen ? Dann hat einer Unrecht....PCGH mit den 50% oder die haben entgegen den Unterstellungen doch daran gedacht. suchen wir uns was aus?

MFG

dildo4u
2007-06-09, 17:29:43
Firingsquad hat selber geschrieben das sie nur am HDR gedreht haben einmal medium einmal High die Shadows waren whol immer bei der hösten Einstellung also unter DX10 High und unter DX9 medium was dort die maximale Einstellung ist.

sun-man
2007-06-09, 17:37:19
dann schreibt die PCGH mit den 50% Unsinn. wenn in DX9 keine softshadows vorhanden sind und die dann eben laut Firing eben z.B. in 1600x1200 nur 2 Frames Unterschied haben ist doch alles OK wie ich finde. Die Ultra bricht von 62 auf 24 ein....bei Firing bleiben beide renderpfade bei ~50. Tja nun....was soll ich mir denn nun aussuchen? Benchht die PCGH so scheiße das bei denen die Ultra auf 24 einbrict oder hat Firing eben ne bessere Ultra mit über 50fps avg?

Fragen über Fragen.....

tombman
2007-06-09, 17:38:10
Die Gurus haben doch schon mehrfach erwähnt, daß DX10 Sachen schneller macht und nicht langsamer.
Neue Effekte gibts durch DX10 zu 99% nicht.

Wenn der DX10 Pfad langsamer rennt, dann nur weil
a.) die Leut ned proggn können
b.) neue Effekte dazukommen, die im DX9 Pfad weggelassen wurden, obwohl sie technisch darstellbar gewesen wären

Das ist eben das Problem: wie will man Leuten DX10 schmackhaft machen? Doch nur, wenn man was SEHEN kann, was unter dem DX9 Pfad nicht zu sehen ist, und dann dieses den noobs als "DX10 Effekte" zu verkaufen. Dann akzeptiert auch jeder, daß es langsamer rennt. Blöd nur, wenn jetzt einige meinen, die jetzige Generation "sei nicht schnell genug für DX10"- das ist bullshit, denn das wäre gleichbedeutend mit "sie ist nicht schnell genug für DX9+ mehr Effekte".

Überfordern kann man jede GPU, hat nur NIX mit DX10 zu tun :rolleyes:

dildo4u
2007-06-09, 17:42:55
Wenn der DX10 Pfad langsamer rennt, dann nur weil
a.) die Leut ned proggn können
b.) neue Effekte dazukommen, die im DX9 Pfad weggelassen wurden, obwohl sie technisch darstellbar gewesen wären

c.) Der Treiber noch Luft nach oben hat mich wundert das eh das der DX10 Pfad bei Lost Planet schon schneller ist obwhol die Final noch nicht mal draußen ist.Da ist allgemein noch viel Potenztial vorhanden.

Slipknot79
2007-06-09, 17:46:51
Meinst Du solche Fragen (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=332107)? Dazu nutzt man die ausgeklügelte suchfunktion und sucht 6Monate und älter, 3 Monate und älter brächte wohl auch einiges zu Tage. man kann natürlich auch anderes finden (http://www.forumdeluxx.de/forum/showpost.php?p=4950646&postcount=149).



Ich sagte in diesem Forum, damit meinte ich nicht das forumdeluxx.


Zum ersten Link: Immerhin hat der Threadersteller keine unrealistische Erwartungshaltung, denn er will Crysis in 1280 und 4xAA spielen.

sun-man
2007-06-09, 17:58:23
Ich sagte in diesem Forum, damit meinte ich nicht das forumdeluxx.
Blablub....nur weil Du nicht alles liest heisst das nicht das es nicht existiert.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5237075&postcount=4

Slipknot79
2007-06-09, 18:44:39
Blablub....nur weil Du nicht alles liest heisst das nicht das es nicht existiert.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5237075&postcount=4



Aber er erwähnt keine Auflösung. Du kannst in max Details auch in 800x600 flüssig spielen.

Awrack
2007-06-09, 18:50:38
Ich habe ein heftiges Stuttering-Problem in dem Benchmark,damals konnte man durch ändern des Prerenderlimits dem entgegenwirken,aber jetzt nutzt das nix mehr,also ist der Benchmark für mich fürn Arsch.

deekey777
2007-06-09, 19:34:59
so, die PCGH hat ja die Benches fertig....
Selbst die GTX bricht in unspielbare Abgründe ein...warum?
1024x768 mit ner GTX in DX10 um speilbare Frames zu bekommen ist ja schon ganz cool ;). Knappe 50% durch schatten auf "Low" weniger? Alter Vadder...laut diesen Benches tut es dann locker ne GTS.

http://www.pcgameshardware.de/?menu=browser&mode=article&article_id=603251&entity_id=-1&image_id=660478&page=1


MFG
Spielbare Frameraten in einem Benchmark? Das ist ein Widerspruch in sich.:wink:
COH und CoJ sind alles nur gepatchte Versionen mit Spaßfaktor. Crytek sind keine noobs, und die werden DX10 sicher ned langsamer laufen lassen als DX9... (relativ zur Optik natürlich)

Aber die mp beta demo von Crysis kommt ja bald zu mir, dann weiß ich mehr ;)
Wenn sie beim D3D10-Renderer versagen, dann liegt es an den beiden von NV freigestellten Mitarbeitern.
Zur Fettschrift: Da musste ich einfach grinsen. Aber die Cryengine ist schon cool.

sun-man
2007-06-09, 20:25:12
Aber er erwähnt keine Auflösung. Du kannst in max Details auch in 800x600 flüssig spielen.
Was willst Du eigentlich ? Jetzt so lange drauf herumreiten und Möglichkeiten schaffen bis etwas zutrifft?
Deien Frage war:
"Zeige mir in diesem Forum dieses oder ein ähnliches Ztitat. Ich kenne hier auch niemanden, der sich ne 88GTX für Crysis gekauft hat."

und nicht in Auflösung XY oder Erbsenzählerei weil es dir nicht passt das die Frage ausgerechnet hier gefunden wurde. Aber aber aber....wir sind doch nicht im Kindergarten wo man so lange versucht Recht zu haben bis Tante Sowieso einschreiten muß.

@TheRest
Grundsätzlich interessiere ich mich ja für die 8800....allerdings kann man mir nicht ausreden das ich HEUTE auf die DX10 Fähigkeit schauen darf. Es gibt Vista und es gibt ganze drei Mischmaschbenchmarks in denen - mit den einprogrammierten Goodies - Karten beider Seiten scheinbar einbrechen. Softshadows hin oder her, schlecht programmiert hin oder her....wenn Lost Planet sponsored bei Nvidia ist dann sollte man eigentlich erwarten das gerade der Hersteller weiß was wann wie und wo einbricht und genau das dann eben nicht zeigt oder eben besser macht. Ende 2006 mag das noch Zukunfstsmusik gewesen sein, heute sieht das ganz anders aus.

Nvidia wirbt mit
Volle Unterstützung für Microsoft® DirectX 10 und DirectX 9 für unerreichten Realismus und höchste Grafikperformance
ATI wirbt mit
The ATI Radeon™ HD 2900 unleashes the power of DirectX® 10 with awesome performance, stunning visual effects, and more dynamic interactivity than ever before.

Gezeigt hat es MIR noch niemand das dem tatsächlich so ist. Futurmark hat ja auch nix im angebot ;)

MFG

Slipknot79
2007-06-09, 21:42:36
...


Und trotzdem kommt ne Kindergartenantwort von dir. :rolleyes: "Ich kenne hier auch niemanden, der sich ne 88GTX für Crysis gekauft hat." = Unter unrealistischen Bedingungen, also unter unflüssigen. Und das war ja der eigentliche Kritikpunkt von Deathcrush, man kauft sich ne 88GTX und wird Crysis drauf ned spielen können. Dabei setzte er aber sicher voraus, dass es unflüssige Bedingungen sein müssen, no na.

toroidh
2007-06-10, 12:46:34
Ich habe ein heftiges Stuttering-Problem in dem Benchmark,damals konnte man durch ändern des Prerenderlimits dem entgegenwirken,aber jetzt nutzt das nix mehr,also ist der Benchmark für mich fürn Arsch.

Das habe ich auch, es lassen sich wohl die schlechteren Werte als mit der GTS eines anderen Teilnehmers hier wohl auch damit erklären. Die grafik sieht auch stark vergrieselt aus...

dargo
2007-06-13, 18:39:01
Puh, jetzt habe ich mir die 7 Seiten durchgelesen und fand zum großen Teil nur Diskussionen über G8800GTX in Verbindung mit DX10 und Crysis. :usweet:
Eins vor weg - wer sich einen G80 nur für Crysis zugelegt hat der kann sie nicht mehr alle haben. Den G80 gibts schon seit ~8 Monaten und man weiß afaik noch nicht mal wann Crysis erscheinen wird. Mich würde es nicht wundern, wenns 2008 wird. Bis dahin gibts schon lange neue/schnellere Grafikkarten, also was soll das :confused:

Zum Thema:

1. Sind eigendlich keinem diese "merkwürdigen" Benchmarks der PCGH aufgefallen?

http://www.pcgameshardware.de/screenshots/original/CoJ_DX10_G80GTX.PNG

Zwischen hohen und niedrigen Schatten gibt es praktisch keinen Performanceunterschied. Und ohne Schatten soll die GTX in 12x10 plötzlich ~75% (im Vergleich zu low) zulegen? Niemals! Die DX9 Version gibt ein völlig anderes Bild was die Performance mit unterschiedlichen Schattendetails angeht wieder.
Hier stimmt 100%-ig was nicht. Treiberprobleme? Patchprobleme? Andere Schattentechnik?

In der DX9 Version steigt die Performance um locker 60% (genaueren Wert müßte ich erst überprüfen) zwischen Schatten mittel und high. Warum ist es in der DX10 Version nicht der Fall? Hat sich das von den CoJ Spielern noch keiner gefragt? Dass die Performance bei hohen Schatten, sprich Softshadows oder weichen Schatten (nennt es wie ihr es wollt) stark einbricht ist nichts neues, gabs schon in DX9. Aber die Werte bei low bis high geben mir zu denken (Hauptsache man hat wieder was zu meckern, sprich G80 und DX10 :hammer:).

2. Könnte bitte jemand für mich folgendes mit einer G8800GTX oder GTS testen?

1280x1024 4xAA/16xAF - max. Details
und
1280x1024 4xAA/16xAF - Schatten mittel, Shadowmapgröße 1024, sonst max. Details


Edit:
Beim genaueren Betrachten des Benchmarks seitens der PCGH ist mir aufgefallen, dass die G8800GTX mit steigender Auflösung (also näher in Richtung Graka-Limit) prozentual weniger Leistung zwischen low Schatten und keinen Schatten verliert. Ähm ... hä??? :|

Vega2002
2007-06-13, 19:19:33
Puh, jetzt habe ich mir die 7 Seiten durchgelesen und fand zum großen Teil nur Diskussionen über G8800GTX in Verbindung mit DX10 und Crysis. :usweet:
Eins vor weg - wer sich einen G80 nur für Crysis zugelegt hat der kann sie nicht mehr alle haben. Den G80 gibts schon seit ~8 Monaten und man weiß afaik noch nicht mal wann Crysis erscheinen wird. Mich würde es nicht wundern, wenns 2008 wird. Bis dahin gibts schon lange neue/schnellere Grafikkarten, also was soll das :confused:

Zum Thema:

1. Sind eigendlich keinem diese "merkwürdigen" Benchmarks der PCGH aufgefallen?

http://www.pcgameshardware.de/screenshots/original/CoJ_DX10_G80GTX.PNG

Zwischen hohen und niedrigen Schatten gibt es praktisch keinen Performanceunterschied. Und ohne Schatten soll die GTX in 12x10 plötzlich ~75% (im Vergleich zu low) zulegen? Niemals! Die DX9 Version gibt ein völlig anderes Bild was die Performance mit unterschiedlichen Schattendetails angeht wieder.
Hier stimmt 100%-ig was nicht. Treiberprobleme? Patchprobleme? Andere Schattentechnik?

In der DX9 Version steigt die Performance um locker 60% (genaueren Wert müßte ich erst überprüfen) zwischen Schatten mittel und high. Warum ist es in der DX10 Version nicht der Fall? Hat sich das von den CoJ Spielern noch keiner gefragt? Dass die Performance bei hohen Schatten, sprich Softshadows oder weichen Schatten (nennt es wie ihr es wollt) stark einbricht ist nichts neues, gabs schon in DX9. Aber die Werte bei low bis high geben mir zu denken (Hauptsache man hat wieder was zu meckern, sprich G80 und DX10 :hammer:).

2. Könnte bitte jemand für mich folgendes mit einer G8800GTX oder GTS testen?

1280x1024 4xAA/16xAF - max. Details
und
1280x1024 4xAA/16xAF - Schatten mittel, Shadowmapgröße 1024, sonst max. Details


Edit:
Beim genaueren Betrachten des Benchmarks seitens der PCGH ist mir aufgefallen, dass die G8800GTX mit steigender Auflösung (also näher in Richtung Graka-Limit) prozentual weniger Leistung zwischen low Schatten und keinen Schatten verliert. Ähm ... hä??? :|

Ich finde die Werte auch im allgemeinen zu hoch ! Weiß leider nicht ob die ne standard GTX mit default taktraten nutzen oder eine stark übertaktete.

Hier mal werte von mir. Mit mittleren Schatten test ich auch noch, hab nur im moment mein Vista HD nicht im Rechner.


e6600@3.2GHz 400*8 // 2x 1 GB DDR2 @ 800 MHz bei 4.4.4.12 // Geforce 8800GTX 768 MB @ 621|1125 MHz , Forceware 158.45@HQ // Vista Ult. 64b

res. 1280x1024
shadowmap res. 2048x2048
quality 3
Supersampling off
Multisampling 4x
Anisotropic 16x

min: 11.2
max: 42
avg: 20.2

res. 1280x1024
shadowmap res. 2048x2048
quality 3
Supersampling 4x
Multisampling off
Anisotropic 16x

min: 6.5
max: 24.0
avg: 14.1


Achja und ein Mod koennte mal den ganzen scheiss von nutzlosen und dazu auch nicht hier her passenden Komentaren löschen. Hier sollten Ergebnisse stehen und nicht Diskusionen wie läuft xyz auf Hardware AB wenn Crysis rauskommt ect.
Auf 7 Seiten stehen nur ne Handvoll Benchergebnisse !

dargo
2007-06-13, 19:44:10
e6600@3.2GHz 400*8 // 2x 1 GB DDR2 @ 800 MHz bei 4.4.4.12 // Geforce 8800GTX 768 MB @ 621|1125 MHz , Forceware 158.45@HQ // Vista Ult. 64b

res. 1280x1024
shadowmap res. 2048x2048
quality 3
Supersampling off
Multisampling 4x
Anisotropic 16x

min: 11.2
max: 42
avg: 20.2


Mit mittleren Schatten test ich auch noch, hab nur im moment mein Vista HD nicht im Rechner.

Teste bitte unbedingt mit mittleren Schatten und Shadowmap von 1024x1024 (ich hoffe das kann man ändern, in der DX9 Full geht es zumindest).

Ich finde die Werte auch im allgemeinen zu hoch ! Weiß leider nicht ob die ne standard GTX mit default taktraten nutzen oder eine stark übertaktete.
Testet vielleicht die PCGH mit Q und nicht HQ? Außerdem, war überhaupt AA und/oder AF bei PCGH aktiv?

Vega2002
2007-06-13, 21:32:17
e6600@3.2GHz 400*8 // 2x 1 GB DDR2 @ 800 MHz bei 4.4.4.12 // Geforce 8800GTX 768 MB @ 621|1125 MHz , Forceware 158.45@HQ // Vista Ult. 64b

res. 1280x1024
shadowmap res. 1024x1024
quality 2
Supersampling off
Multisampling 4x
Anisotropic 16x

min: 14.1
max: 43.2
avg: 22.1

mhh bringt irgendwie kaum was, evtl. lief auch irgendwas verkehrt, hab allerdings mehrmal getestet.

Andere Frage wie kann man bei der Systemsteuerung im NV Panel alles auf default setzen ? (nicht manuell, sondern als default button um alles auf die ursprungseinstellung zu setzen) // hab nach dem test paar sachen umgestellt, aber ka mehr was normal an war und was nicht

dargo
2007-06-13, 21:40:35
e6600@3.2GHz 400*8 // 2x 1 GB DDR2 @ 800 MHz bei 4.4.4.12 // Geforce 8800GTX 768 MB @ 621|1125 MHz , Forceware 158.45@HQ // Vista Ult. 64b

res. 1280x1024
shadowmap res. 1024x1024
quality 2
Supersampling off
Multisampling 4x
Anisotropic 16x

min: 14.1
max: 43.2
avg: 22.1

Und wieviel fps hast du mit den gleichen Settings wie hier, nur ohne Schatten?

A.Wesker
2007-06-14, 09:16:33
res. 1680x1050
shadowmap res. 2048x2048
quality 3
Supersampling off
Multisampling off
Anisotropic 16x


--> 29.5 FPS


2900XT @ 925/999 @ 1.35Vgpu

Odal
2007-06-14, 15:58:29
offtopic

Wesker mit was hast du deine vgpu geändert? hard vmod oder gibts schon ne softwarelösung?

wie sieht s mit dem ram aus?

deekey777
2007-06-14, 17:51:43
offtopic

Wesker mit was hast du deine vgpu geändert? hard vmod oder gibts schon ne softwarelösung?

wie sieht s mit dem ram aus?
Dafür gibt's die PN-Funktion.

A.Wesker
2007-06-14, 17:54:01
offtopic

Wesker mit was hast du deine vgpu geändert? hard vmod oder gibts schon ne softwarelösung?

wie sieht s mit dem ram aus?
nutze mein eigenes Programm zum Verstellen der Vgpu.

dargo
2007-06-15, 13:26:30
Nun konnte ich mich auch von dem "DX10" Benchmark überzeugen. :)
Optisch gefällts mir sehr gut, performancemäßig weniger.

Gibts irgendeine logische Erklärung dafür, warum die Performance ohne Schatten so deutlich steigt? Verwendet die DX10 Demo eine andere Schattentechnik?

PS: ruckelt bei euch auch ab und zu der Benchmark stark? Ich verwende den FW 158.24.

A.Wesker
2007-06-15, 13:40:58
Nun konnte ich mich auch von dem "DX10" Benchmark überzeugen. :)
Optisch gefällts mir sehr gut, performancemäßig weniger.

Gibts irgendeine logische Erklärung dafür, warum die Performance ohne Schatten so deutlich steigt? Verwendet die DX10 Demo eine andere Schattentechnik?

PS: ruckelt bei euch auch ab und zu der Benchmark stark? Ich verwende den FW 158.24.

Die Orginalversion (DX9) von Call of Juarez verhält sich bei mir genauso, sobald ich Schatten aktiviere. Beim DX10 Benchmark steigert sich die Performance durch das Deaktivieren der Schatten um 47 % (2900XT) im Vergleich zu Schatten @ high. Ruckler gibt es bei mir nicht.

dargo
2007-06-15, 13:46:27
Die Orginalversion (DX9) von Call of Juarez verhält sich bei mir genauso, sobald ich Schatten aktiviere. Beim DX10 Benchmark steigert sich die Performance durch das Deaktivieren der Schatten um 47 % (2900XT) im Vergleich zu Schatten @ high.

Hmm, seltsam. Ich habe mit der DX9 Version andere Erfahrungen gemacht. Vergleiche mal in DX9 Schatten - mittel und Schatten - max. Das gleiche dann unter dem DX10 Benchmark. Da liegen Welten zwischen.


Ruckler gibt es bei mir nicht.
Hmm, hast du auch Vista 64? Ich werde mal den Beta FW 158.45 ausprobieren.

A.Wesker
2007-06-15, 14:29:04
Hmm, seltsam. Ich habe mit der DX9 Version andere Erfahrungen gemacht. Vergleiche mal in DX9 Schatten - mittel und Schatten - max. Das gleiche dann unter dem DX10 Benchmark. Da liegen Welten zwischen.


Hmm, hast du auch Vista 64? Ich werde mal den Beta FW 158.45 ausprobieren.

Settings:
res. 1920x1200
shadowmap res. 2048x2048

2900XT @ 940/950
Vista 32bit

DX9:
keine --> 77 FPS
mittel --> 42 FPS
max --> 33 FPS

DX10:
keine --> 37.2 FPS
mittel --> 25.5 FPS
max --> 25.2 FPS

tombman
2007-06-15, 14:35:39
res. 1680x1050
shadowmap res. 2048x2048
quality 3
Supersampling off
Multisampling off
Anisotropic 16x


--> 29.5 FPS


2900XT @ 925/999 @ 1.35Vgpu
Ich habe ziemlich die selben fps, nur mit 1920x1200+ 4x AA dazu ;)
(default GTX SLI Takt)

dargo
2007-06-15, 14:36:03
Settings:
res. 1920x1200
shadowmap res. 2048x2048

2900XT @ 940/950
Vista 32bit

DX9:
keine --> 77 FPS
mittel --> 42 FPS
max --> 33 FPS

DX10:
keine --> 37.2 FPS
mittel --> 25.5 FPS
max --> 25.2 FPS
Hmm, interessant. Bei mir sind mittlere Schatten in der DX9 Version ganze 76% schneller als mit max. Schatten.
Aber beachte mal den Unterschied bei dir zwischen DX9 und DX10 in Bezug auf Schatten mittel und max. Ich finde es halt seltsam, dass man in DX10 praktisch Null Unterschied hat.

Edit:
Mit dem FW 158.45 sind die Ruckler nahezu komplett verschwunden. Ich sags jetzt mal vorsichtig - alle Benchmarks (zumindest mit einem G80) kann man vorerst vergessen. NV wird wohl erst einen vernünftigen Treiber dafür bringen müssen. Dieser Benchmark ist einfach imho zu "frisch".

PS: sind den G80 Usern eigendlich die Grafikfehler nicht aufgefallen? An den Bäumen gibts oft so ne art Rastermuster.

A.Wesker
2007-06-15, 14:47:26
Ich habe ziemlich die selben fps, nur mit 1920x1200+ 4x AA dazu ;)
(default GTX SLI Takt)
mit den Einstellungen sind es bei mir 19.8 FPS @ 940/950

Razor
2007-06-19, 13:49:11
Nun konnte ich mich auch von dem "DX10" Benchmark überzeugen. :)
Optisch gefällts mir sehr gut, performancemäßig weniger.

Gibts irgendeine logische Erklärung dafür, warum die Performance ohne Schatten so deutlich steigt? Verwendet die DX10 Demo eine andere Schattentechnik?

Hat hier jemand schon diese Info zur Kenntnis genommen?
(ich war 'ne Woche 'weg' ;-)

http://www.guru3d.com/newsitem.php?id=5464

Last Friday (June 8), the Call of Juarez Benchmark was released publicly. The benchmark includes new code that substantially reduces performance of NVIDIA hardware. Further, there are NO perceivable improvements in visual quality, and ATI/AMD performance was not improved.

Here are the key issues:

NVIDIA’s DX10 hardware-based multi-sampled AA resolve is disabled in the benchmark, with all NVIDIA GPUs now being forced to use software-based AA resolve similar to the ATI DX10 GPU (which lacks hardware AA resolve). This artificially deflates performance on NVDIA graphics cards and users are not getting the benefit of a key NVIDIA hardware feature.

A hidden “ExtraQuality” parameter only accessible via a configuration file is automatically enabled when the benchmark is run, no matter what the setting in the configuration file. This setting has no apparent visual quality enhancement, but reduces NVIDIA GPU performance.

Changes to shaders that deflate NVIDIA performance by approximately 10-14%, without improving visual quality on either NVIDIA or ATI GPUs.

Default settings for the new benchmark have shadow quality set to LOW. Note that NVIDIA hardware is much stronger in shadow-mapping than the competition.
All together, the code changes present in the new Call of Juarez benchmark only slow down NVIDIA hardware significantly while contributing no discernable improvement in visual quality on NVIDIA or ATI hardware.

We encourage you to take a long, hard look at this new Call of Juarez DX10 benchmark before deciding to use it, as it does not properly reflect typical DX10 performance on NVIDIA GeForce 8x hardware.
So 'scheint' der Bench "Sponsored by ATI" zu sein, wenn ich das 'Weinen' von nVidia richtig verstehe.

Vielleicht sollte man diese 'Anmerkungen' zumindest im Hinterkopf behalten, wenn man Ergebnisse IHV-übergreifend und/oder in bestimmten Situationen gegenüber stellt.

Razor

dargo
2007-06-19, 14:07:37
Hat hier jemand schon diese Info zur Kenntnis genommen?
(ich war 'ne Woche 'weg' ;-)

http://www.guru3d.com/newsitem.php?id=5464

Ja, hier:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=363737&page=8

Razor
2007-06-19, 17:36:51
Ja, hier:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=363737&page=8
Ich meinte eigentlich: im Zusammenhang mit diesem Thread...
Aber danke für den Link.

Finde gerade diese Thematik sehr, sehr interessant!

Razor

P.S.: nur habe ich gesehen, dass man auch dort nicht wirklich auf die Thematik eingeht.
Interessant, denn die einzigen, die das konkret tun könnten, wäre DX10-Karten-Nutzer... und die halten sich offenbar sehr bedeckt.

reunion
2007-06-21, 17:46:10
Das passt vielleicht in diesem Zusammenhang auch sehr gut: http://www.xbitlabs.com/news/video/display/20070620151758.html

Schönes Fazit von xbitlabs zum "DX10-Benchmark-Disaster".

no_surrender
2007-06-22, 09:13:36
Intel Xeon X3210 @ 4x 2136 MHz
MSI P35 Neo F
2 GB GEIL 1066
ATI HD 2900XT @ 820/1000 cat- 7.5

AA off
AF off
http://img504.imageshack.us/img504/2047/2134mhzatihd2900xt80095jq3.th.jpg (http://img504.imageshack.us/my.php?image=2134mhzatihd2900xt80095jq3.jpg)

AA 4x
AF 16x
http://img440.imageshack.us/img440/4364/2134mhzatihd2900xt80095iy7.th.jpg (http://img440.imageshack.us/my.php?image=2134mhzatihd2900xt80095iy7.jpg)

Vega2002
2007-06-22, 10:50:46
Mal ne Frage ... mit welchen Prog. kann man intern nen Screen machen ? Fraps oder von Windows die Druck Taste gehen bei mir nicht.

VoodooJack
2007-06-28, 20:58:21
X6800 @3.5 - Crossfire 2900XT - Vista64 - Cat 7.6

Shadowmap size: 2048x2048
Shadows quality: 3
Multi-sampling: x4
HQAF: x16

1920x1200: 28.5 fps avg

Also ich bin beeindruckt von den DX10 Goodies. Das ist schon ein gewaltiger Fortschritt. Flüssig spielbar wird es wohl erst mit der nächsten Kartengeneration.

In 1280x1024 erzielte ich übrigens 44.9 fps avg.

no_surrender
2007-06-28, 21:12:09
bei 1920 kann ich net mit reden, aber ich hab mit 1 2900XT und nem QUad der Standard ist 40 FPS in 1680x1050 und 4x AA und 16xAF mit dem Cat. 7.5:confused:
Und CF funzt bestimmt noch net so recht oder ?
Weil danach sieht es nicht aus.

VoodooJack
2007-06-28, 21:49:24
bei 1920 kann ich net mit reden, aber ich hab mit 1 2900XT und nem QUad der Standard ist 40 FPS in 1680x1050 und 4x AA und 16xAF mit dem Cat. 7.5:confused:
Und CF funzt bestimmt noch net so recht oder ?
Weil danach sieht es nicht aus.

Du hast recht. Mit Crossfire Profil geht da noch was. Im Cat 7.6 (atiumdag.dll) ist jedenfalls noch kein Profil für diesen DX10 Benchmark drin.

Blaire
2007-06-29, 23:50:05
Doch Crossfire sollte gehn schau auf deine Werte , selbst A.Wesker kommt nur auf 22 fps bei 1600x1200 4xAA/16xAFmit seiner stark übertakteten X2900XT.

VoodooJack
2007-06-30, 13:48:36
Doch Crossfire sollte gehn schau auf deine Werte , selbst A.Wesker kommt nur auf 22 fps bei 1600x1200 4xAA/16xAFmit seiner stark übertakteten X2900XT.

Ich bin auch der Meinung, dass beide Karten renderten. Andererseits weiß ich aus der Erfahrung mit Crossfire heraus, dass noch jedes nachträgliche Profil etwas brachte, und wenn es nur magere 10% wie in Gothic3 waren.

In 1600x1200 hab ich nun auch gebencht.

Shadowmap size: 2048x2048
Shadows quality: 3
Multi-sampling: x4
HQAF: x16

1600x1200: 33.7 fps avg

X6800 @3.6 - Crossfire 2900XT - Vista64 - Cat 7.6

Mayk-Freak
2007-07-09, 23:34:57
Auflösung 1680x1050
shadores. 2048x2048
quality 3
Supersampling off
Multisampling off
Anisotropic 16x

min. 17.7
max. 55.8
Avg. 30.5

C2D@3800MHz 8800GTX@ 719/1246Mhz

up¦²
2007-10-14, 23:57:46
- DirectX 10 benchmark added. :wink:
http://www.gamershell.com/download_21432.shtml

vinacis_vivids
2008-03-07, 21:37:24
c2Q@3200, CF3870, Cat 8.3, vista 64bit
Shadowz: 2048x2048
Shadowq: Normal
1280x1024
No AA/AF: 69
AA: MSAAx4 AF:16HQAF ->Fps: 39,0
AA: MSAAx8 AF:16HQAF ->Fps: 40,1

1920x1200 (shadow high)
No AA/AF: 50,1 (49,1)

Raff
2008-03-08, 17:47:29
Das Spiel läuft ja fast so schlecht wie Crysis ... :| Etwas parteiischer "Benchmark", da können die Radeons mal regeln. :D

1024x768, kein AA/AF: 26,9 - 45,2 Fps
1680x1050, kein AA/AF: 19,1 - 31,9 Fps
1680x1050, kein AA/16x AF: 16,9 - 27,3 Fps
1680x1050, 4x MSAA/16x AF: 11,7 - 21,2 Fps
1680x1050, 4x SSAA/16x AF: 6,2 - 13,9 Fps

C2D Allendale (2 MiB L2-Cache) @ 351x10 = 3510 MHz, i965P, 2x 1024 MiB DDR2 @ 439 MHz bei 4-5-4-5-2T, GeForce 8800 GTX (768 MiB) @ 675/1674/1080 MHz, 120 MHz PCIe-Takt, ForceWare 174.31 Beta @ HQ, Vista x86.

MfG,
Raff

VoodooJack
2008-03-22, 23:40:59
X6800 @3.6 - Tri-CF 3870 - Vista 64-bit - Cat 8.3

1920x1200/alles max/4xAA: min 25 fps - avg 54 fps - max 98 fps

hacky
2008-04-28, 00:15:50
Q6600@2400/3000
2x XFX 8800GTX (630MHz Coretakt Version) SLI
NV 174.74, vista 64bit
High, Shadowz: 2048x2048, Shadowq: Normal
AA: MSAAx4 AF

Werte @2,4 GHz Q6600

1920x1200

Min 23,5
Max 67,6
Avg 35,6

Ohne AA

Min 25,9
Max 88,5
Avg 44,7


Werte @ 3,0 GHz quasi identisch-> GPU Killerapplication

Frank1974
2008-06-22, 02:43:24
Hier läuft die GTX280 sehr schlecht meiner Ansicht, aber egal in den meisten Spielen die ich habe läuft sie dafür umso besser.
Ich Spiele sehr gerne, aber an zweiter Stelle Benche ich auch gerne, vorallem in vielen verschiedenen Einstellungen, weil mich auch die Technik sehr interessiert, vorallem die Unterschiede von Nvidia/ATI, jedes Game hat seine Favoriten.

Fast vergessen die Benches ;D

Core 2 Duo E6600@3200MHz, 2x2048MB/2x1024MB@DDR2-800, 5-5-5-15-6-42-2T,
NVIDIA GTX280@602/1296/1107MHz, Vista64 Sp1, FW177.35@HQ

1280x1024, 1xAA, 1xAF
http://www.abload.de/thumb/coj_dx10_1280a3e9.jpg (http://www.abload.de/image.php?img=coj_dx10_1280a3e9.jpg)

1680x1050, 1xAA, 1xAF
http://www.abload.de/thumb/coj_dx10_1680ak1g.jpg (http://www.abload.de/image.php?img=coj_dx10_1680ak1g.jpg)

1680x1050, 1xAA, 16xAF
http://www.abload.de/thumb/coj_dx10_1680b0ii.jpg (http://www.abload.de/image.php?img=coj_dx10_1680b0ii.jpg)

1680x1050, 4xAA, 1xAF
http://www.abload.de/thumb/coj_dx10_1680cfo0.jpg (http://www.abload.de/image.php?img=coj_dx10_1680cfo0.jpg)

1680x1050, 4xAA, 16xAF
http://www.abload.de/thumb/coj_dx10_1680dgw4.jpg (http://www.abload.de/image.php?img=coj_dx10_1680dgw4.jpg)

1680x1050, 4xSSAA, 1xAF
http://www.abload.de/thumb/coj_dx10_1680em66.jpg (http://www.abload.de/image.php?img=coj_dx10_1680em66.jpg)

1680x1050, 4xSSAA, 16xAF
http://www.abload.de/thumb/coj_dx10_1680foln.jpg (http://www.abload.de/image.php?img=coj_dx10_1680foln.jpg)


mfg
Frank

Slipknot79
2008-06-22, 11:48:48
Hier läuft die GTX280 sehr schlecht meiner Ansicht, aber egal in den meisten Spielen die ich habe läuft sie dafür umso besser.
Ich Spiele sehr gerne, aber an zweiter Stelle Benche ich auch gerne, vorallem in vielen verschiedenen Einstellungen, weil mich auch die Technik sehr interessiert, vorallem die Unterschiede von Nvidia/ATI, jedes Game hat seine Favoriten.


1680x1050, 1xAA, 16xAF
http://www.abload.de/thumb/coj_dx10_1680b0ii.jpg (http://www.abload.de/image.php?img=coj_dx10_1680b0ii.jpg)



Kommt ungefähr hin. Hier hab ich 31/160/65 fps.

Ronny G.
2008-06-22, 14:00:29
ich denke das es eines der Titel sein wird die erst mit zukünftigen Treibern auf der GTX280 gescheit laufen.

Jedenfalls verhaut meine 8800GTS 512mb nach momentanen stand die GTX280 heftig und das mit ihren eigenen Treibern.

Q6600@3,6Ghz, 8800GTS@864/2106/1152Mhz@177.39+PhyX@NV, 3GB DDR2 800 4-4-4-12, Asus P5Q pro

1280x1024 Shadow 3, no AA/AF ->71,5fps
http://foto.arcor-online.net/palb/alben/69/1887469/1400_3362653634323331.jpg

1280x1024 shadow 3, 4xaa/16xaf -52,5fps
http://foto.arcor-online.net/palb/alben/69/1887469/1400_6165363861353264.jpg

1680x1050 shadow 3, 4xaa/16xaf -35,5fps
http://foto.arcor-online.net/palb/alben/69/1887469/1400_6235623466353732.jpg

Frank1974
2008-06-22, 16:40:06
ich denke das es eines der Titel sein wird die erst mit zukünftigen Treibern auf der GTX280 gescheit laufen.

Jedenfalls verhaut meine 8800GTS 512mb nach momentanen stand die GTX280 heftig und das mit ihren eigenen Treibern.

Nvidia muss aber gewaltig was mit den Treibern gemacht haben, ich hatte auch zwischendurch eine 8800GTS 512MB, die ist bei 4xAA eingebrochen wie nix, da war meine alte 640er noch schneller.
Ich habe sogar noch ein paar Bilder.

8800GTS-512MB@default Treiber war zu der Zeit irgend ein 169er
http://www.abload.de/thumb/coj_dx10_1680_4aa_gtr97.jpg (http://www.abload.de/image.php?img=coj_dx10_1680_4aa_gtr97.jpg)

mfg
Frank

Ronny G.
2008-06-22, 18:03:40
dann möchte doch mal bitte jemand mit ner GTS 512mb@177.39er den Benchmark durchlaufen lassen, langsam zweifel ich an den ergebnissen von mir selber:confused:
Die Unterschiede sind einfach zu heftig, dabei ist die 88er GTS 512mb ja bekannt bei hoher AA und AF stufe einzubrechen.

Ich werde wohl nochmal alte Treiber drauf knallen und prüfen

HarryHirsch
2008-07-08, 21:30:51
4870CF, 1680x1050, 4xAA, 16xAF

http://www.abload.de/thumb/coj_dx10kqn.jpg (http://www.abload.de/image.php?img=coj_dx10kqn.jpg)

min: 21,6
max: 150,9
avg: 52,2

VoodooJack
2008-07-13, 21:10:21
1920x1200/max/4xAA: min 32 fps - avg 71 fps - max 143 fps

1920x1200/max/4xAA/16xAF: min 29 fps - avg 61.5 fps - max 135 fps

C2D @3.7
CF 4870 @790/1000
Vista64
Cat 8.6 sample_r700

Cubitus
2008-07-31, 14:47:45
1680*1050, 16xAF, 4xAA, Hohe Qualität, Geforce280GTX AMP!@SLI, FW 177.79

min: 37,7 max: 150,9 avg: 58,5

http://www.directupload.net/images/080731/temp/9w9xvpri.jpg (http://www.directupload.net/file/d/1507/9w9xvpri_jpg.htm)

1920*1200, 16xAF, 4xAA, Hohe Qualität, Geforce280GTX AMP!@SLI, FW 177.79

min: 32,1 max: 122,3 avg: 50,9

http://www.directupload.net/images/080731/temp/nl3lusut.jpg (http://www.directupload.net/file/d/1507/nl3lusut_jpg.htm)

Ronny G.
2008-07-31, 16:48:16
4870CF, 1680x1050, 4xAA, 16xAF

http://www.abload.de/thumb/coj_dx10kqn.jpg (http://www.abload.de/image.php?img=coj_dx10kqn.jpg)

min: 21,6
max: 150,9
avg: 52,2
irgendwas bremst bei dir, die Werte von VoodooJack sehen wesentlich besser aus.

Blaire
2008-07-31, 17:20:10
1680*1050, 16xAF, 4xAA, Hohe Qualität, Geforce280GTX AMP!@SLI, FW 177.79

min: 37,7 max: 150,9 avg: 58,5

http://www.directupload.net/images/080731/temp/9w9xvpri.jpg (http://www.directupload.net/file/d/1507/9w9xvpri_jpg.htm)

1920*1200, 16xAF, 4xAA, Hohe Qualität, Geforce280GTX AMP!@SLI, FW 177.79

min: 32,1 max: 122,3 avg: 50,9

http://www.directupload.net/images/080731/temp/nl3lusut.jpg (http://www.directupload.net/file/d/1507/nl3lusut_jpg.htm)

Im Ati Vorzeigegame schlagen sich die GTXen ganz gut, vor allem die Minimumfps sind sehr ordentlich.

Jake Dunn
2008-07-31, 17:30:25
1920x1200/max/4xAA: min 32 fps - avg 71 fps - max 143 fps

1920x1200/max/4xAA/16xAF: min 29 fps - avg 61.5 fps - max 135 fps

C2D @3.7
CF 4870 @790/1000
Vista64
Cat 8.6 sample_r700

@Blaire Warum :confused:

Blaire
2008-07-31, 17:37:22
@Blaire Warum :confused:

Was meinst mit Warum? Die Minimumfps sind doch sehr gut 32 und 37fps wenn ich da zurückdenke was da zwei 8800GTX schafften...

Slipknot79
2008-07-31, 22:58:34
1680*1050, 16xAF, 4xAA, Hohe Qualität, Geforce280GTX AMP!@SLI, FW 177.79

min: 37,7 max: 150,9 avg: 58,5

http://www.directupload.net/images/080731/temp/9w9xvpri.jpg (http://www.directupload.net/file/d/1507/9w9xvpri_jpg.htm)

1920*1200, 16xAF, 4xAA, Hohe Qualität, Geforce280GTX AMP!@SLI, FW 177.79

min: 32,1 max: 122,3 avg: 50,9

http://www.directupload.net/images/080731/temp/nl3lusut.jpg (http://www.directupload.net/file/d/1507/nl3lusut_jpg.htm)


Hattest du Transparent AA an?

Cubitus
2008-08-01, 16:40:43
Hattest du Transparent AA an?

ne, nicht das ich wüsste ;(

Slipknot79
2008-08-01, 17:29:36
ne, nicht das ich wüsste ;(


Dann habe ich mit deinen Settings (Grakas auf 670/1404/1215 laut EVGA Precision Tool 1.3.1)
min: 23,1 max: 150,9 avg: 60,4


Du hattest:
1680*1050, 16xAF, 4xAA, Hohe Qualität, Geforce280GTX @SLI, FW 177.79
min: 37,7 max: 150,9 avg: 58,5


Was für eine CPU hast du und wieviel GB RAM?

Cubitus
2008-08-01, 21:12:59
Dann habe ich mit deinen Settings (Grakas auf 670/1404/1215 laut EVGA Precision Tool 1.3.1)
min: 23,1 max: 150,9 avg: 60,4


Du hattest:
1680*1050, 16xAF, 4xAA, Hohe Qualität, Geforce280GTX @SLI, FW 177.79
min: 37,7 max: 150,9 avg: 58,5


Was für eine CPU hast du und wieviel GB RAM?

hmm schon seltsam, aber die avg Werte sind ja fast gleich bzw deine sogar ja etwas besser.
Meine Karten sind dazu noch mit 700 Mhz getaktet, sonst alles gleich wie bei dir.

System: Q6600@3,45 Ghz und 4 MB MDT DDR3@1066 und Vista64
Board ist ein XFX 790I SLI

Slipknot79
2008-08-02, 03:53:31
Langsam frage ich mich ob Quad Core tatsächlich die min-fps derart anheben kann?!?!?

Blaire
2008-08-02, 04:12:47
Unterstützt Juarez überhaupt Quadcore? Ich vermute es könnte eher am 790i liegen was einige SLI Verbesserungen mitsich gebracht hat.

Slipknot79
2008-08-02, 14:06:35
Unterstützt Juarez überhaupt Quadcore? Ich vermute es könnte eher am 790i liegen was einige SLI Verbesserungen mitsich gebracht hat.

Zumindest der Treiber unterstützt MultiGPU? Oo

Gamer68
2008-08-02, 16:20:15
C2Q @4000 Mhz
ASUS Rampage Formula
4Gb RAM
2xHD4870 ASUS TOP@ 820/1100
Vista U. 64 Bit +SP1
R700 Sample

1680x1050 4xMSAA 16xAF alles HIGH

min 38.8 fps - avg 104.7 fps - max 233.9 fps

http://www.abload.de/thumb/1680ded.jpg (http://www.abload.de/image.php?img=1680ded.jpg)

1920x1200 4xMSAA 16xAF alles HIGH

min 32.4 fps - avg 95.4 fps - max 213.9fps

http://www.abload.de/thumb/19209ux.jpg (http://www.abload.de/image.php?img=19209ux.jpg)

Gamer68
2008-08-02, 16:24:14
Dann habe ich mit deinen Settings (Grakas auf 670/1404/1215 laut EVGA Precision Tool 1.3.1)
min: 23,1 max: 150,9 avg: 60,4


sicher das SLI richtig ging?

Dein Ergebniss ist sehr schlecht, das hat ja fast ne Single 4870 :eek:

dildo4u
2008-08-02, 16:26:36
sicher das SLI richtig ging?

Dein Ergebniss ist sehr schlecht, das hat ja fast ne Single 4870 :eek:
So wie dein CF bei Crysis abkackt so hat jeder Hersteller "sein" Game. ;)
Wobei der Grundspeed der GTX 280 hier schon relativ langsam ist dafür skaliert aber SLI defintiv im gegensatz zum CF bei Crysis DX10.

http://www.pcgameshardware.de/aid,653475/Test/Benchmark/PCGH_beweist_Mikroruckler_auf_der_Radeon_HD_4870_X2/

Gamer68
2008-08-02, 16:31:35
So wie dein CF bei Crysis abkackt so hat jeder Hersteller "sein" Game. ;)
Wobei der Grundspeed der GTX 280 hier schon relativ langsam ist dafür skaliert aber SLI defintiv im gegensatz zum CF bei Crysis DX10.

http://www.pcgameshardware.de/aid,653475/Test/Benchmark/PCGH_beweist_Mikroruckler_auf_der_Radeon_HD_4870_X2/

wo bitte kackt CF bei Crysis ab ?

Blaire
2008-08-02, 16:33:25
sicher das SLI richtig ging?

Dein Ergebniss ist sehr schlecht, das hat ja fast ne Single 4870 :eek:

Sicher das auch 4xAA an war? Die Werte von dir scheinen viel zu hoch. 45fps mehr als zwei GTX280AMP kann ich nicht ganz glauben. ;)

Gamer68
2008-08-02, 16:36:14
Sicher das auch 4xAA an war? Die Werte von dir scheinen viel zu hoch. 45fps mehr als zwei GTX280AMP kann ich nicht ganz glauben. ;)

Klick auf den Screen dann siehst du doch was alles an ist, und ja es ist an gewesen schau bei VJ er hat nur paar FPS weniger meine Kiste hat halt bissel mehr wumms;)

Blaire
2008-08-02, 16:39:42
Klick auf den Screen dann siehst du doch was alles an ist, und ja es ist an gewesen schau bei VJ er hat nur paar FPS weniger meine Kiste hat halt bissel mehr wumms;)

Paar FPS weniger ist gut 60fps vs. 95 fps...da kann etwas nicht stimmen das ist offensichtlich ich glaube kaum das ein Quadcore die AverageFPS dermaßen pushen kann. Ich glaube eher das AA nicht funktioniert hat bei deinen Tests das CCC spinnt ganz gern mal und vergisst die AA Einstellungen.

Gamer68
2008-08-02, 16:41:38
Paar FPS weniger ist gut 60fps vs. 95 fps...da kann etwas nicht stimmen das ist offensichtlich ich glaube kaum das ein Quadcore die AverageFPS dermaßen pushen kann. Ich glaube eher das AA nicht funktioniert hat bei deinen Tests das CCC spinnt ganz gern mal und vergisst die AA Einstellungen.

AA funzt, und das sehr gut sogar ich kann auch gern Screens machen.

Und das CCC hat garnix mit dem AA am Hut, MSAA stelle ich im Benchmark ein und im CCC ist es auf Anwendungsgesteuert.

Er hat nen C2D 3.7 Ghz, ich ein Q6600 mit 4 Ghz
Er hat seine Karten 700/900 ich meien 820/1100

Blaire
2008-08-02, 16:45:11
AA funzt, und das sehr gut sogar ich kann auch gern Screens machen.

Und das CCC hat garnix mit dem AA am Hut, MSAA stelle ich im Benchmark ein und im CCC ist es auf Anwendungsgesteuert.

Er hat nen C2D 3.7 Ghz, ich ein Q6600 mit 4 Ghz
Er hat seine Karten 700/900 ich meien 820/1100

Macht der Quad 4Ghz 35fps mehr aus? Irgendwie kaum vorstellbar oder?

Gamer68
2008-08-02, 16:47:08
Macht der Quad 4Ghz 35fps mehr aus? Irgendwie kaum vorstellbar oder?


weiss ich doch nicht, so wie es aussehen tut ja und ich schireb grad ich hab auch 120 Mhz auf den Grakas (GPU) und 200 Mhz mehr auf den RAMs.

Gamer68
2008-08-02, 17:19:15
so hier wie gewünscht ohne AA:

selben Settings:

C2Q @4000 Mhz
ASUS Rampage Formula
4Gb RAM
2xHD4870 ASUS TOP@ 820/1100
Vista U. 64 Bit +SP1
R700 Sample

1680x1050 4xMSAA 16xAF alles HIGH

min 43.6 fps - avg 119.5 fps - max 285.7 fps

http://www.abload.de/thumb/16802lys.jpg (http://www.abload.de/image.php?img=16802lys.jpg)

1920x1200 4xMSAA 16xAF alles HIGH

min 42.3 fps - avg 112.0 fps - max 256.4fps

http://www.abload.de/thumb/19202lhz.jpg (http://www.abload.de/image.php?img=19202lhz.jpg)

Cubitus
2008-08-02, 17:50:23
so hier wie gewünscht ohne AA:

selben Settings:

C2Q @4000 Mhz
ASUS Rampage Formula
4Gb RAM
2xHD4870 ASUS TOP@ 820/1100
Vista U. 64 Bit +SP1
R700 Sample

1680x1050 4xMSAA 16xAF alles HIGH

min 43.6 fps - avg 119.5 fps - max 285.7 fps

http://www.abload.de/thumb/16802lys.jpg (http://www.abload.de/image.php?img=16802lys.jpg)

1920x1200 4xMSAA 16xAF alles HIGH

min 42.3 fps - avg 112.0 fps - max 256.4fps

http://www.abload.de/thumb/19202lhz.jpg (http://www.abload.de/image.php?img=19202lhz.jpg)


Wo gibt es den die Version 1.3.0.1 zum download, ich finde diese Version nirgends. Ich benutze die v1.1.0.0 ( vermutlich so wir die meisten hier ). Es könnte ja sein das durch diesen Patch Einiges verbessert wurde...

dildo4u
2008-08-02, 18:08:50
Den Bench kann man in die Tonne kloppen hab grad die neue PCGH bekommen.Im Bench ist die 4870 so schnell wie die GTX 280 im Game selber zieht die Nvidia deutlich davon.Da hat ATI ordentlich auf den Benchablauf optemiert.

Gamer68
2008-08-02, 18:11:35
Wo gibt es den die Version 1.3.0.1 zum download, ich finde diese Version nirgends. Ich benutze die v1.1.0.0 ( vermutlich so wir die meisten hier ). Es könnte ja sein das durch diesen Patch Einiges verbessert wurde...

Hier hab ich es her:
http://downloads.guru3d.com/Call-of-Juarez-DirectX-10-Benchmark-download-1642.html

vieleicht wird es geupdatet wenn man das Spiel drauf hat?

dildo4u
2008-08-02, 18:29:09
Den Bench kann man in die Tonne kloppen hab grad die neue PCGH bekommen.Im Bench ist die 4870 so schnell wie die GTX 280 im Game selber zieht die Nvidia deutlich davon.Da hat ATI ordentlich auf den Benchablauf optemiert.
PCGH Ausgabe 09/2008 Seite 104.

http://s7.directupload.net/images/080802/4vca6rzu.jpg

Gamer68
2008-08-02, 18:31:28
ja und was ist daran so komisch?

Die 4870 ist fast so schnell wie ne GTX280, nicht überall kommt aufs Spiel drauf an aber sonst sind das nur ein paar % die sie von einandere trennen.:confused:
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_radeon_hd_4870_cf_geforce_gtx_260_sli/18/

dildo4u
2008-08-02, 18:35:14
Es geht in der Grafik nur um Call of Juarez DX10.Im integierten Bench ist die 4870 gleich schnell wie die GTX 280 im Game selber(Also das was man wirklich zockt) ist die Nvidia ein gutes Stück schneller.Deshalb ist der integrierte Bench für die Tonne.Das bestätigen ja auch die Computerbase Werte(eigenes Savegame) dort ist die 4870 auch nur ca auf GTX 260 Niveau.

misterh
2008-08-02, 18:52:43
@ Gamer68

ich glaube du hast sich selbst ins Fleisch geschnitten ^^

ich weiss das du in 3DMarkVantage umgenannt hast und du deswegen soviel FPS in AVG bekommst

auch ich hab eben festgestellt

Q6600 @ 3250
4870 CF @ 790/1050
1680x1050
4xAA (Benchmark) 16xAF (Control Panel)

orginal exe : 62 FPS
3DMarkVantage.exe : 98 FPS

und ja wenn man in 3DMarkVantage umnennt, bekommt man da kaum zu sehen, weil starke Grafikfehler zu sehen ist. und am ende wenn ergebnis erscheint und du dann mit Fraps als Screenhot speicherst, sieht man dann da nichts von den Fehler.

http://www.abload.de/img/3dmarkvantagexay.jpg

Gamer68
2008-08-02, 19:27:52
@ Gamer68

ich glaube du hast sich selbst ins Fleisch geschnitten ^^

ich weiss das du in 3DMarkVantage umgenannt hast und du deswegen soviel FPS in AVG bekommst




Ich hab nichts Umbenannt :|

Wie Blaire mir gerade geschieben hat könnte es auch an den verschiedenen Versionen liegen.

misterh
2008-08-02, 19:41:45
Ich hab nichts Umbenannt :|

Wie Blaire mir gerade geschieben hat könnte es auch an den verschiedenen Versionen liegen.

eher nicht. hab auch das geladen, wo du hier link gepostet hattest.

nicht anders.

Slipknot79
2008-08-03, 15:46:52
Bei der Benchmarkversion muss man tatsächlich aufpassen.

Habe jetzt auch 1.3.0.1en getestet und da habe ich auch mehr min-fps. Statt 23 habe ich jetzt 30.2fps.

Ronny G.
2009-01-08, 23:07:29
ich denke das es eines der Titel sein wird die erst mit zukünftigen Treibern auf der GTX280 gescheit laufen.

Jedenfalls verhaut meine 8800GTS 512mb nach momentanen stand die GTX280 heftig und das mit ihren eigenen Treibern.

Q6600@3,6Ghz, 8800GTS@864/2106/1152Mhz@177.39+PhyX@NV, 3GB DDR2 800 4-4-4-12, Asus P5Q pro

1280x1024 Shadow 3, no AA/AF ->71,5fps
http://foto.arcor-online.net/palb/alben/69/1887469/1400_3362653634323331.jpg

1280x1024 shadow 3, 4xaa/16xaf -52,5fps
http://foto.arcor-online.net/palb/alben/69/1887469/1400_6165363861353264.jpg

1680x1050 shadow 3, 4xaa/16xaf -35,5fps
http://foto.arcor-online.net/palb/alben/69/1887469/1400_6235623466353732.jpg

Ich kanns mir bis heute nicht erklären, auf was fährt CoJ ab? Auf Shadertakt?

1280x1024 Shadow3, no AA/AF - 33,3/62,8/150,9

1280x1024 Shadow3, 4xMSAA 16xAF - 21,4/45,4/122,0

1680x1050 Shadow3, 4xMSAA 16xAF - 20,0/37,3/91,7

1680x1050 Shadow3, SSAAx4 - 14,2/21,6/32,1


E8600@4,5Ghz
GTX280 756/1620/1350Mhz FW185.20
4GB DDR2 1080Mhz, 5-5-5-15
Asus P5Q Pro
Audigy 2 ZS
Vista64 SP1

Raff
2009-01-08, 23:10:08
"Shadertakt" gibt's nicht. Wenn, dann FLOPS – wie die Leistung zustande kommt, ist dem Spiel Wurstsalat. Aber sehe ich das richtig, dass die GTS deine wicked GTX plattmacht? :| Da ist was im George.

MfG,
Raff

Ronny G.
2009-01-08, 23:15:44
"Shadertakt" gibt's nicht. Wenn, dann FLOPS – wie die Leistung zustande kommt, ist dem Spiel Wurstsalat. Aber sehe ich das richtig, dass die GTS deine wicked GTX plattmacht? :| Da ist was im George.

MfG,
Raff

hmm so sieht es aus:frown:
langsam glaube ich echt das hier was net stimmt, teils kann ich mich kaum bis garnicht von Frank seinem System absetzen, das trotz nicht unherblichen mehrtaktes aller Komponenten, er hat ja soweit das gleiche system wie ich.

Frank1974
2009-01-09, 20:33:09
hmm so sieht es aus:frown:
langsam glaube ich echt das hier was net stimmt, teils kann ich mich kaum bis garnicht von Frank seinem System absetzen, das trotz nicht unherblichen mehrtaktes aller Komponenten, er hat ja soweit das gleiche system wie ich.

Bei Call of Juarez läuft die GTX280 schon immer schlecht.

Und soviel schneller ist dein System nicht, du hast ca. 10% mehr Cpu Leistung, das nützt aber nichts wenn es GPU limitiert ist, der nächste Faktor dein Speichertakt auf der GK, der bringt in vielen Situationen gar nichts, Furmark ist so ein Beispiel, und auch der Shader, du müsstest etwas mehr als 1600MHz haben um auf mich 10% gut zu machen, wenn ich also 30fps habe, kommst du maximal auf 33fps usw..

Man sieht, das mein System gar nicht so weit hinter deinem ist:smile:

mfg
Frank

Ronny G.
2009-01-09, 21:31:28
Bei Call of Juarez läuft die GTX280 schon immer schlecht.

Und soviel schneller ist dein System nicht, du hast ca. 10% mehr Cpu Leistung, das nützt aber nichts wenn es GPU limitiert ist, der nächste Faktor dein Speichertakt auf der GK, der bringt in vielen Situationen gar nichts, Furmark ist so ein Beispiel, und auch der Shader, du müsstest etwas mehr als 1600MHz haben um auf mich 10% gut zu machen, wenn ich also 30fps habe, kommst du maximal auf 33fps usw..

Man sieht, das mein System gar nicht so weit hinter deinem ist:smile:

mfg
Frank

nee das die CPU nichts bringt wenn wir mit solch hohen AA-Modis benchen ist klar, wobei gerade bei manchen Konsolenumsetzungen selbst bei hohen Auflösungen öfters ein CPU-Limit vor kommt. Nee du stehst eigentlich nie hinten an, ganz im Gegenteil, ich habe zu tun hinter her zu kommen, warum auch immer.
Kauf dir doch endlich mal die GTX295, was zögerst du so? ;)

Frank1974
2009-01-09, 22:36:46
nee das die CPU nichts bringt wenn wir mit solch hohen AA-Modis benchen ist klar, wobei gerade bei manchen Konsolenumsetzungen selbst bei hohen Auflösungen öfters ein CPU-Limit vor kommt. Nee du stehst eigentlich nie hinten an, ganz im Gegenteil, ich habe zu tun hinter her zu kommen, warum auch immer.
Kauf dir doch endlich mal die GTX295, was zögerst du so? ;)

Nächste Woche, ich bin immer noch am überlegen ob eine zweite GTX280 + nForce Board, oder die GTX295, da eine zweite GTX280 eine Menge mehr Strom zieht als die 295, weiß ich auch nicht ob mein Netzteil das packt, und ein neues Netzteil möchte ich nicht, das was ich im Moment habe, hat bis jetzt gute Arbeit geleistet.

Aber nächste Woche werde ich was neues haben, ich überlege jetzt noch das Wochenende, mal sehen was es wird.

mfg
Frank

first_blood
2009-01-12, 16:36:55
1680x1050 Shadow3, - 13,9/40,4/85,5

http://img379.imageshack.us/img379/3900/benchya4.jpg (http://imageshack.us)
http://img379.imageshack.us/img379/benchya4.jpg/1/w1680.png (http://g.imageshack.us/img379/benchya4.jpg/1/)


Quad 6600 @ 3,0GHz
2GB OCZ Reaper 1066MHz
Geforce GTX 280 @ 650/1400/1150MHz


Meine 280er kackt ja derbe ab :S

derguru
2009-01-12, 16:55:28
hm wo kriegt man denn die 1.3 version runter geladen,ich sehe überall immer nur die 1.1 version.

dildo4u
2009-01-12, 16:57:45
hm wo kriegt man denn die 1.3 version runter geladen,ich sehe überall immer nur die 1.1 version.
Das ist dann die Full gepatcht der Benchmark wurde nur in der Version 1.1 released.

derguru
2009-01-12, 17:02:38
alles klar,thx für die info:biggrin:

first_blood
2009-01-12, 17:02:39
Habs von Guru3D

dildo4u
2009-01-12, 17:04:07
Oh ok dann gabs doch noch mal ein Update.

Schlammsau
2009-01-13, 20:22:34
also welcher Patch ist jetzt der aktuellste? Finde nur den 1.1`.

derguru
2009-01-13, 20:40:20
der 1.3 bloß wo kriegt man den her,bei guru 3d hab ich dn nicht gefunden.

Frank1974
2009-01-13, 20:58:48
So weit ich weiß gibt es nur die Version 1.1.1.0 für die Vollversion nur der Benchmark den man extra laden kann hat die v1.3.
Keine Ahnung warum das so ist.

Bei 4players ist auch 1.1.1.0 der letzte Eintrag.

edit
Der Benchmark der Vollversion hat auch 1.3.0.1, hier beide aus dem Juarez Ordner
http://666kb.com/i/b5isypzmhv4qfj74q.pnghttp://666kb.com/i/b5it09dpzsj6y8wre.png

mfg
Frank

first_blood
2009-01-14, 07:17:27
der 1.3 bloß wo kriegt man den her,bei guru 3d hab ich dn nicht gefunden.

Habe mich ein bisschen unverständlich ausgedrückt: Habe den Benchmark von Guru3D, und der ist schon in der Version 1.3. Gepatcht habe ich nichts :)

deekey777
2009-01-14, 12:40:29
So weit ich weiß gibt es nur die Version 1.1.1.0 für die Vollversion nur der Benchmark den man extra laden kann hat die v1.3.
Keine Ahnung warum das so ist.

Bei 4players ist auch 1.1.1.0 der letzte Eintrag.

edit
Der Benchmark der Vollversion hat auch 1.3.0.1, hier beide aus dem Juarez Ordner
http://666kb.com/i/b5isypzmhv4qfj74q.pnghttp://666kb.com/i/b5it09dpzsj6y8wre.png

mfg
Frank

Steam-Version: Spiel ist auf 1.1.1.0. Im Benchmark-Fenster ist keine Versionsangabe zu finden, nur wenn man - so wie du das gemacht hast, - die rechte Maustaste nutzt, sieht man, dass die EXE die Versionsnummer 1.3.0.1 hat.

Schlammsau
2009-01-14, 17:08:52
Also ich denke das ichs jetzt hinbekommen habe.
Gebencht mit der gepatchten Vollversion.

C2D E4300@3Ghz / 4GB RAM / Powercolor HD4870 512MB@810/1025Mhz / Catalyst 8.12 Hotfix / Vista x64 SP1

1440x900, alles@max, 1xAA, AF auf Anwendungsgesteuert

Min.: 32,1fps
Max.: 142,9fps
Avg.: 52,6fps

http://www.abload.de/thumb/coj_dx102009-01-1417-0geun.png (http://www.abload.de/image.php?img=coj_dx102009-01-1417-0geun.png)

1440x900, alles@max, 4xAA, 16xAF

Min.: 17,7fps
Max.: 116,6fps
Avg.: 45,2fps

http://www.abload.de/thumb/coj_dx102009-01-1417-218lo.png (http://www.abload.de/image.php?img=coj_dx102009-01-1417-218lo.png)

Panasonic
2009-01-15, 22:08:46
Gibt es eine Chance, den Grafik-Patch irgendwie auch unter Windows XP zu nutzen?

VoodooJack
2009-01-16, 13:47:43
C2D @3.8
Tri-CF 4870
Vista 64
8.561.3

Call of Juarez DX10 Benchmark:

1920x1200/max/4xAA: 44-99-198

http://www.abload.de/thumb/cojdx1019x124xaa44-99-80nv.jpg (http://www.abload.de/image.php?img=cojdx1019x124xaa44-99-80nv.jpg)

Ronny G.
2009-01-17, 00:03:32
Ich kanns mir bis heute nicht erklären, auf was fährt CoJ ab? Auf Shadertakt?

1280x1024 Shadow3, no AA/AF - 33,3/62,8/150,9

1280x1024 Shadow3, 4xMSAA 16xAF - 21,4/45,4/122,0

1680x1050 Shadow3, 4xMSAA 16xAF - 20,0/37,3/91,7

1680x1050 Shadow3, SSAAx4 - 14,2/21,6/32,1


E8600@4,5Ghz
GTX280 756/1620/1350Mhz FW185.20
4GB DDR2 1080Mhz, 5-5-5-15
Asus P5Q Pro
Audigy 2 ZS
Vista64 SP1

Aber sehe ich das richtig, dass die GTS deine wicked GTX plattmacht? :| Da ist was im George.

MfG,
Raff


So ich habe den Übeltäter gefunden, kann ja nicht sein das mein durchweg schnelleres System nicht an das von vor 6monaten ran kommt;) Es muß eine verbugte Vista Installation gewesen sein, klar zwischenzeitlich waren viele verschiede Grafikkarten, meist ATI im Rechner, dazu noch diverse andere Sachen, ich weiß jetzt garnicht ob ich das Mainboard vor oder nach dem wechsel auf Vista getauscht habe....:rolleyes:
Nun ist die GTX280 + dem Wolf@4,5Ghz klar auf der Überholspur!!!

E8600@4,5Ghz
GTX280 756/1620/1350Mhz FW181.20
4GB DDR2 1080Mhz, 5-5-5-15
Asus P5Q Pro
Audigy 2 ZS
Vista64 SP1

Hier nun die Korrigierten Werte und alles wird gut!

1680x1050 Shadow 3 no AA/AF - 30,2/51,9/111,7fps
http://www.abload.de/thumb/2uh58.jpg (http://www.abload.de/image.php?img=2uh58.jpg)

1680x1050 Shadow 3 4xMSAA/16xAF - 20,0/37,0/88,5fps
http://www.abload.de/thumb/3w3a3.jpg (http://www.abload.de/image.php?img=3w3a3.jpg)

1680x1050 Shadow 3 SSAAx4 - 17,4/27,4/47,5fps
http://www.abload.de/thumb/4eagv.jpg (http://www.abload.de/image.php?img=4eagv.jpg)

1680x1050 Shadow 3 SSAAx4 16xAF - 14,2/21,5/31,7fps
http://www.abload.de/thumb/5tdbl.jpg (http://www.abload.de/image.php?img=5tdbl.jpg)

Frank1974
2009-01-17, 01:57:41
So ich habe den Übeltäter gefunden, kann ja nicht sein das mein durchweg schnelleres System nicht an das von vor 6monaten ran kommt;) Es muß eine verbugte Vista Installation gewesen sein, klar zwischenzeitlich waren viele verschiede Grafikkarten, meist ATI im Rechner, dazu noch diverse andere Sachen, ich weiß jetzt garnicht ob ich das Mainboard vor oder nach dem wechsel auf Vista getauscht habe....:rolleyes:
Nun ist die GTX280 + dem Wolf@4,5Ghz klar auf der Überholspur!!!

E8600@4,5Ghz
GTX280 756/1620/1350Mhz FW181.20
4GB DDR2 1080Mhz, 5-5-5-15
Asus P5Q Pro
Audigy 2 ZS
Vista64 SP1

1280x1024 Shadow 3 no AA/AF - 32,1/115,9/285,7fps

1280x1024 Shadow 3 4xMSAA/16xAF - 27,3/76,9/198,0fps

1680x1050 Shadow 3 4xMSAA/16xAF - 24,2/58,2/142,9fps

1680x1050 Shadow 3 SSAAx4 - 17,3/39,3/80,2fps ->Es wäre eigentlich noch Spielbar!

1680x1050 Shadow 3 SSAAx4 16xAF - 16,0/30,3/61,1fps ->Meine Fresse schluckt AF nochmal!


Deine Ergebnisse sind Technisch gar nicht möglich, viel zu hoch, du kannst nicht die selben Werte wie SLI haben, die Ergebnisse davor waren richtig.

Hier 3 Beispiele

58fps mit zwei übertakteten GTX
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6693337&postcount=178

60,4 mit SLI
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6695742&postcount=185

Hier eine einzelne GTX bei PCGH im DX10 Benchmark, 27fps
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6697617&postcount=204

Und ich habe auch nur etwas über 30fps bei 702/1458/1260MHz, Vista64 wurde bestimmt 3-4 mal neu aufgesetzt und Treiber habe ich alle getestet.

KA wieso du jetzt auf 58,2 fps bei 1680x1050 +AA +AF kommst, du kannst nicht so schnell sein wie SLI, egal wie die Karte getaktet ist.
Hast du etwas umbenannt, oder was verstellt?

Hier mal einige von mir.

27,8fps FW178.24
http://www.abload.de/thumb/coj_dx10_fw178-24_vistnwj6.jpg (http://www.abload.de/image.php?img=coj_dx10_fw178-24_vistnwj6.jpg)

27,9fps FW180.48
http://www.abload.de/thumb/coj_dx10_fw180-48_vistlji0.jpg (http://www.abload.de/image.php?img=coj_dx10_fw180-48_vistlji0.jpg)

27,9fps FW180.70
http://www.abload.de/thumb/coj_dx10_fw180-70_vistslcm.jpg (http://www.abload.de/image.php?img=coj_dx10_fw180-70_vistslcm.jpg)

27,9fps FW181.20
http://www.abload.de/thumb/coj_dx10_fw181-20_vistgw7v.jpg (http://www.abload.de/image.php?img=coj_dx10_fw181-20_vistgw7v.jpg)

28,1fps FW185.20
http://www.abload.de/thumb/coj_dx10_fw185-20_vistglja.jpg (http://www.abload.de/image.php?img=coj_dx10_fw185-20_vistglja.jpg)

Und mein System hat seid 2006 keine ATI mehr gesehen, also auch keine Reste, auch sonst ist es in einem extrem guten Zustand, du kannst nicht auf das doppelte kommen.

mfg
Frank

derguru
2009-01-17, 02:32:22
hehe,der arme Frank1974 läuft seit mehreren tagen schon dem Ronny G. hinterher und berichtigt seine benchfehler.
das ihm das nicht auffällt :idea:
ich komme auf avg 50fps in 1920*1200 4msaa/16af,das sollte der normalfall sein.
bei SSAAx4 sind es gerade mal 28,8fps;)

Frank1974
2009-01-17, 04:39:13
hehe,der arme Frank1974 läuft seit mehreren tagen schon dem Ronny G. hinterher und berichtigt seine benchfehler.
das ihm das nicht auffällt :idea:
ich komme auf avg 50fps in 1920*1200 4msaa/16af,das sollte der normalfall sein.
bei SSAAx4 sind es gerade mal 28,8fps;)

Mit was für einer Karte hast du die 50fps, mit der GTX295?

Es kann ja auch sein das ich mal einen Fehler mache:wink:

Aber bei mir lief der Juarez Benchmark von Anfang an scheiße.

Mal schnell testen mit dem neuen PhysX und dem 181.22, aber ich denke nicht das sich da was ändert, obwohl ich schon immer dachte das der Benchmark mit Handbremse läuft, vielleicht hat Ronny diese ja jetzt gelöst:smile:

/edit
Hmm, ich habe meine Karte jetzt schon an ihr Maximum getaktet, nix zu machen

Core 2 Duo E8600@4100MHz[9.5x432], 2x2048MB@DDR2-864, 5-5-5-12-2T,
NVIDIA GTX280@738/1512/1296MHz, Vista64 Sp1, FW181.20@HQ

1680x1050, AA/AF aus
Avg: 46,7fps
http://www.abload.de/thumb/coj_dx10_fw181-20_16805kez.png (http://www.abload.de/image.php?img=coj_dx10_fw181-20_16805kez.png)

1680x1050, 4xAA/16xAF
Avg: 33,3fps
http://www.abload.de/thumb/coj_dx10_fw181-20_1680oz7i.png (http://www.abload.de/image.php?img=coj_dx10_fw181-20_1680oz7i.png)

1680x1050, 4xSSAA/1xAF
Avg: 25,3fps
http://www.abload.de/thumb/coj_dx10_fw181-20_16805tjb.png (http://www.abload.de/image.php?img=coj_dx10_fw181-20_16805tjb.png)

1680x1050, 4xSSAA/16xAF
Avg: 20,5fps
http://www.abload.de/thumb/coj_dx10_fw181-20_16806r7s.png (http://www.abload.de/image.php?img=coj_dx10_fw181-20_16806r7s.png)

edit
Ich geb es auf, egal was ich einstelle, ich komme nicht mal in die Nähe von Ronnys Ergebnissen.

nochmal edit;D
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7035232&postcount=217

Das ist auch ungefähr wie meine Ergebnisse, ich habe ja nochmal etwas höher getaktet.

mfg
Frank

derguru
2009-01-17, 11:49:29
I7 920@4ghz 295GTX@655/1455/1188 181.22 beta

1920*1200 4xMSAA/16xAF Avg 49,4
http://www.abload.de/thumb/coj_dx102009-01-1711-40wb8.png (http://www.abload.de/image.php?img=coj_dx102009-01-1711-40wb8.png)

1920*1200 4xSSAA/16xAF Avg 28,6
http://www.abload.de/thumb/coj_dx102009-01-1711-4er36.png (http://www.abload.de/image.php?img=coj_dx102009-01-1711-4er36.png)

Ronny G.
2009-01-17, 12:35:35
Ich habe das jetzt extra mal gefilmt, damit es glaubwürdig ist....ich weiß das ich ne menge fehler bei diversen AA-Modis beim Benchen in letzter Zeit gemacht habe, das liegt aber eben daran das ich früher einfach nur 4x oder 8x AA im Treiber eingestellt habe, seit der GTX280 spiele ich halt auch etwas mit dem Nhancer rum um das volle Potenzial der GTX zu nutzen.

Hier nun das Video, da dürfte alles ganz klar ersichtlich sein, ich fake hier nicht herum;)
http://www.materialordner.de/8pwGvaPqQUmfw15kzxcTWMMsraOQhCM.html

tombman
2009-01-17, 13:40:23
Die werte von Ronny können unmöglich stimmen, keine 280er der Welt kann ohne LN2 so schnell wie eine 295 sein...

Ronny, stelle im CP bitte kein AA und AF ein, also auf ANWENDUNG. Auch das GOBALE Profil auf ANWENDUNG stellen.

Nur in Juarez selbst AA einstellen. Und Qualität im CP des Treibers auf HIGH QUALITY.

Keinerlei Nhancer.

Edit:

aus Ronnys Video, hier ein screenshot:

http://www.abload.de/img/vlcsnap-37664c0og.png (http://www.abload.de/image.php?img=vlcsnap-37664c0og.png)

Was soll das denn für eine Texturqualität sein???

derguru
2009-01-17, 14:03:39
hab ich auch gesehen dachte aber das liegt an der schlechten videoqualität;)

Ronny G.
2009-01-17, 14:17:36
@Tombman

das Video ist doch aber mal dermaßen tot komprimiert, da kann man doch keine Screenshots zum beweisen irgendwelcher Texturqualitäten nehmen.

Das Originale unkomprimierte Avi der Digicam kommt schon nicht an die tatsächliche Qualität weil es nur in 640x480 aufgenommen ist, dazu war es ja auch net 100% scharf gestellt, die Cam stellt nur einmal scharf bei Aufnahmestart.

Ich habe es jetzt nochmals ohne 16xAF über Nhancer durchlaufen lassen, dazu noch alles unter Global auf Applikationgesteuert eingestellt, auch im Treiber und es kommmen~37fps raus bei 1680x1050 Shadow3 SSAAx4. Video habsch zur noch auch wieder aufgenommen, diesmal fest vom Stativ aus, reiche ich gleich nach....

edit:das Video habe ich mir jetzt erspart, den der Kamin sieht aber echt so mieß aus, wie sieht es bei euch aus? Der Rest wie die Holzpanele oder das Fenster sind ja in Ordnung. So richtig erfassen tut das AA auch nicht jede Kante, zeigt mal eure Screens, vielleicht kommen wir der Lösung bald auf die schliche

Hier der Screen beim Benchen mit SSAAx4 + 16xAF alles andere Max.
http://www.abload.de/thumb/coj_dx102009-01-1714-4buot.jpg (http://www.abload.de/image.php?img=coj_dx102009-01-1714-4buot.jpg)

tombman
2009-01-17, 14:51:02
[x] tombman hat immer Recht ;)

Ich weiß eben was Videos können und was ned ;)

Ronny, da fehlt das komplette Bump Mapping am Kamin.

Ist ja kein Wunder, daß du so hohe scores bekommt, wenn nur die Hälfe gerendert wird...

Raff
2009-01-17, 14:51:21
Das sind jedenfalls nicht maximale Details. Die Texturen sind nicht hochauflösend, das Parallax Mapping fehlt ...

MfG,
Raff

tombman
2009-01-17, 14:59:30
Hier ein GOOGLE BILD (NICHT MEINES)

http://www.gamoholic.net/images/stories/call_of_juarez_directx10/call_of_juarez_directx10_8.jpg

Das sieht dann doch ein bissi anders aus als bei Ronny ;D

Ronny, wenns nicht so aussieht wie auf dem DX10 Abschnitt, isses schon falsch...

derguru
2009-01-17, 15:00:19
so sollte es normalerweise aus sehen mit 4xssaa/16af

http://www.abload.de/thumb/coj_dx102009-01-1714-50c4x.png (http://www.abload.de/image.php?img=coj_dx102009-01-1714-50c4x.png)

also wenn das nicht auffällt was dann;) das beste ist du postet es noch und hast es immernoch nicht gemerkt,hehe
aber so,:confused:
http://www.abload.de/thumb/coj_dx102009-01-1714-4buot.jpg (http://www.abload.de/image.php?img=coj_dx102009-01-1714-4buot.jpg)

Ronny G.
2009-01-17, 15:02:08
mann ist das ein Unterschied, ich werde es mal neuinstallieren........

tombman
2009-01-17, 15:10:32
Es ist nicht nur das bump mapping und die Texturen- das ganze Lichtmodell ist im Eimer, Schatten etc etc...

Ronny G.
2009-01-17, 15:11:55
Es ist nicht nur das bump mapping und die Texturen- das ganze Lichtmodell ist im Eimer, Schatten etc etc...

keine sorge ich lasse glei die Hosen runter, ich lade nur gerade die Demo neu runter........;D

edit:jetzt rennt er gerade durch, danach kann Frank wieder ruhig schlafen:comfort2:

Edit: ich habs geschafft, nun stimmen die Werte und tatsächlich sah es ganz anders aus, man kann schon von Welten sprechen. Danke Jungs.
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7045284#post7045284

Panasonic
2009-01-17, 16:50:55
Noch mal meine Frage, kann man den DX10-Patch auch irgendwie sinnvoll unter Wndows XP nutzen?

Raff
2009-01-17, 19:07:10
Noch mal meine Frage, kann man den DX10-Patch auch irgendwie sinnvoll unter Wndows XP nutzen?

Die D3D10-API gibt's unter XP nicht, ergo: keine Chance. Also entweder du installierst Vista ... oder die Fenster-7-Beta. :)

MfG,
Raff

Frank1974
2009-01-17, 21:59:09
Ich wusst es doch, das hätte doch auffallen müssen, bei der Texturqualität wird man ja blind:rolleyes:

Hier endlich mein erstes Ergebnis mit der GTX295, bei der zweiten Bestellung hat es jetzt geklappt

Erst mal nur mit Standardtakt

Core 2 Duo E8600@4100MHz[9.5x432], 2x2048MB@DDR2-864, 5-5-5-12-2T,
NVIDIA GTX295@default, Vista64 Sp1, FW181.22@HQ

1680x1050, 4xAA, 16xAF
Avg: 47,7fps
http://www.abload.de/thumb/coj_dx10_gtx295_1680aplrv.png (http://www.abload.de/image.php?img=coj_dx10_gtx295_1680aplrv.png)

edit
Mit der GTX280@default hatte ich maximal 28,1fps jetzt 47,7fps, ist schon mal ganz nett

mfg
Frank

Raff
2009-01-17, 22:00:52
Ich wusst es doch, das hätte doch auffallen müssen, bei der Texturqualität wird man ja blind:rolleyes:

Ohne Vergleich nimmt man das halt hin.

MfG,
Raff