PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Ist eine G8800GT512 wirklich schneller als eine G8800GTS640@G80?


Seiten : [1] 2

dargo
2007-12-09, 20:14:42
Als erstes möchte ich darauf hinweisen, dass dies kein Bashing-Thread ist!

Man sieht praktisch in jedem Review, dass eine G8800GT512 eine G8800GTS640 überholt. Folgender Test gibt mir aber zu denken. Es handelt sich um den
intergrierten GPU-Benchmark von Crysis.

System vom Forum-User Schrotti (WinXP32 SP2):
Intel Pentium E 2180@3,33GHz @ Zalman 9500 AT | Gigabyte P35-DS3P | 4GB DDR2-667 by Aeneon | Zotac 8800GT 512MB

1280x1024 4xAA/1xAF, high Details
TimeDemo Play Started , (Total Frames: 2000, Recorded Time: 111.86s)
!TimeDemo Run 0 Finished.
Play Time: 70.86s, Average FPS: 28.22
Min FPS: 16.57 at frame 144, Max FPS: 34.50 at frame 1007
Average Tri/Sec: 29536578, Tri/Frame: 1046479
Recorded/Played Tris ratio: 0.88
!TimeDemo Run 1 Finished.
Play Time: 66.64s, Average FPS: 30.01
Min FPS: 16.57 at frame 144, Max FPS: 36.02 at frame 1015
Average Tri/Sec: 31775058, Tri/Frame: 1058761
Recorded/Played Tris ratio: 0.87
!TimeDemo Run 2 Finished.
Play Time: 66.61s, Average FPS: 30.03
Min FPS: 16.57 at frame 144, Max FPS: 36.16 at frame 991
Average Tri/Sec: 31806830, Tri/Frame: 1059332
Recorded/Played Tris ratio: 0.87
!TimeDemo Run 3 Finished.

1280x1024 1xAA/1xAF, high Details
TimeDemo Play Started , (Total Frames: 2000, Recorded Time: 111.86s)
!TimeDemo Run 0 Finished.
Play Time: 53.90s, Average FPS: 37.10
Min FPS: 19.65 at frame 145, Max FPS: 46.19 at frame 996
Average Tri/Sec: 37608340, Tri/Frame: 1013619
Recorded/Played Tris ratio: 0.90
!TimeDemo Run 1 Finished.
Play Time: 49.14s, Average FPS: 40.70
Min FPS: 19.65 at frame 145, Max FPS: 47.16 at frame 1024
Average Tri/Sec: 41757356, Tri/Frame: 1025875
Recorded/Played Tris ratio: 0.89
!TimeDemo Run 2 Finished.
Play Time: 49.12s, Average FPS: 40.72
Min FPS: 19.65 at frame 145, Max FPS: 49.14 at frame 996
Average Tri/Sec: 41776756, Tri/Frame: 1026013
Recorded/Played Tris ratio: 0.89

Mein System (WinXP64 SP2):
Gigabyte GA-965P-S3| E6400 Allendale @3300Mhz@1,280V| Thermaltake Sonic Tower mit Yate Loon D12SL-12 Lüfter @500-1150RPM | 4GB Aeneon DDR2-800 @412Mhz 5-5-5-12 @1,9Vdimm | Leadtek Geforce 8800GTS 640MB

1280x1024 4xAA/1xAF, high Details
TimeDemo Play Started , (Total Frames: 2000, Recorded Time: 111.86s)
!TimeDemo Run 0 Finished.
Play Time: 90.10s, Average FPS: 22.20
Min FPS: 17.21 at frame 1950, Max FPS: 26.74 at frame 1001
Average Tri/Sec: 23162334, Tri/Frame: 1043500
Recorded/Played Tris ratio: 0.88
!TimeDemo Run 1 Finished.
Play Time: 87.78s, Average FPS: 22.78
Min FPS: 17.21 at frame 1950, Max FPS: 26.78 at frame 1008
Average Tri/Sec: 24010302, Tri/Frame: 1053791
Recorded/Played Tris ratio: 0.87
!TimeDemo Run 2 Finished.
Play Time: 87.75s, Average FPS: 22.79
Min FPS: 17.19 at frame 1951, Max FPS: 26.81 at frame 1009
Average Tri/Sec: 24044004, Tri/Frame: 1054897
Recorded/Played Tris ratio: 0.87

1280x1024 1xAA/1xAF, high Details
TimeDemo Play Started , (Total Frames: 2000, Recorded Time: 111.86s)
!TimeDemo Run 0 Finished.
Play Time: 75.02s, Average FPS: 26.66
Min FPS: 21.24 at frame 1947, Max FPS: 32.27 at frame 997
Average Tri/Sec: 26960184, Tri/Frame: 1011342
Recorded/Played Tris ratio: 0.91
!TimeDemo Run 1 Finished.
Play Time: 72.87s, Average FPS: 27.45
Min FPS: 21.09 at frame 1957, Max FPS: 32.40 at frame 61
Average Tri/Sec: 28012944, Tri/Frame: 1020651
Recorded/Played Tris ratio: 0.90
!TimeDemo Run 2 Finished.
Play Time: 72.88s, Average FPS: 27.44
Min FPS: 21.09 at frame 1957, Max FPS: 32.50 at frame 75
Average Tri/Sec: 28040968, Tri/Frame: 1021797
Recorded/Played Tris ratio: 0.90

Man achte auf die min.fps die eigendlich über die Spielbarkeit entscheiden. Jetzt müsste man am besten wissen wieviele Stellen es bei der G8800GT gibt wo sie so stark einbricht. Ein Frameverlauf wäre da ideal.

AnarchX
2007-12-09, 20:24:09
Ein Frameverlauf wäre da ideal.
Und folgt dieser noch?;)

Interessant aber, dass die Karten ihr Minimum an unterschiedlichen Stellen haben, während das Maximum für beide gleich ist.

dargo
2007-12-09, 20:29:22
Und folgt dieser noch?;)

Bin gerade am Überlegen wie ich das am besten anstelle. Fraps?
Ich bräuchte aber auch einen freiwilligen mit einer G8800GT, sonst bringt das ja nichts.


Interessant aber, dass die Karten ihr Minimum an unterschiedlichen Stellen haben, während das Maximum für beide gleich ist.
Falls du die einzelnen der 3 Messungen meinst, die erste Messung kann man getrost ignorieren, bei dieser wird noch was nachgeladen.

Edit:
Achso, du meinst den Frame mit der niedriegsten Framerate. Jo, das ist mir noch gar nicht aufgefallen, dass bei mir die tiefste Framerate ziemlich weit hinten in der Timedemo vorkommt, wo hingegen bei der G8800GT es ziemlich vorne der Fall ist.

redpanther
2007-12-09, 20:31:35
Hmm, ein halbes frame langsamer? Wow.
Aber dein Prozessor hat auch mehr cache, könnte den Unterschied, gerade bei min fps machen. Hab aber keine Ahnung wie sich bei dem Bench die CPU auswirkt.
Vergleich auf zwei unterschiedlichen Sys ist aber ewas gewagt, finde ich, auch wenn sie sehr ähnlich sind. Es fehlen z.b. auch die Treiber Einstellungen, waren die auch gleich?

desert
2007-12-09, 20:32:12
ok dargo die gts ist viel besser, das wolltest du doch jetzt hören oder?

Die liegt ja auch bei den min. fps ganze 0,67 fps vor der gt.

Dieser test zeigt doch nur das 512 mb bei crysis nicht zuwenig vram ist, wie von dir immer propagiert. und deswegen der g80 dem g92 in seiner jetztigen ausbaustufe eben nicht überlegen ist. du stellst das ja immer gerne so da, das die gts immer von ihren 640 mb ram gerettet wird, was halt nicht stimmt.

die gt hat die überlegene shaderpower, und sind selbst wo sie böse an die speicherbandbreit muss, hält sie sich hervorragend und deklassiert den g80 um ca. 7 fps.

Gast
2007-12-09, 20:38:22
Ich bezweifel, dass die unterschiedlichen CPU irrelevant sind.

dargo
2007-12-09, 20:39:43
Hmm, ein halbes frame langsamer? Wow.

Darum gehts doch gar nicht. Schaue dir mal die min.fps der beiden Karten an und dann die avg.fps. Klingelts jetzt? ;)


Aber dein Prozessor hat auch mehr cache, könnte den Unterschied, gerade bei min fps machen. Hab aber keine Ahnung wie sich bei dem Bench die CPU auswirkt.

Am Prozessor kann es nicht liegen da die min.fps bei Schrotti mit 1xAA steigen:

1280x1024 1xAA/1xAF
TimeDemo Play Started , (Total Frames: 2000, Recorded Time: 111.86s)
!TimeDemo Run 0 Finished.
Play Time: 53.90s, Average FPS: 37.10
Min FPS: 19.65 at frame 145, Max FPS: 46.19 at frame 996
Average Tri/Sec: 37608340, Tri/Frame: 1013619
Recorded/Played Tris ratio: 0.90
!TimeDemo Run 1 Finished.
Play Time: 49.14s, Average FPS: 40.70
Min FPS: 19.65 at frame 145, Max FPS: 47.16 at frame 1024
Average Tri/Sec: 41757356, Tri/Frame: 1025875
Recorded/Played Tris ratio: 0.89
!TimeDemo Run 2 Finished.
Play Time: 49.12s, Average FPS: 40.72
Min FPS: 19.65 at frame 145, Max FPS: 49.14 at frame 996
Average Tri/Sec: 41776756, Tri/Frame: 1026013
Recorded/Played Tris ratio: 0.89


Vergleich auf zwei unterschiedlichen Sys ist aber ewas gewagt, finde ich, auch wenn sie sehr ähnlich sind.

Imho limitiert hier nicht die CPU.


Es fehlen z.b. auch die Treiber Einstellungen, waren die auch gleich?
Davon gehe ich aus.

ok dargo die gts ist viel besser, das wolltest du doch jetzt hören oder?

Die liegt ja auch bei den min. fps ganze 0,67 fps vor der gt.

Dieser test zeigt doch nur das 512 mb bei crysis nicht zuwenig vram ist, wie von dir immer propagiert. und deswegen der g80 dem g92 in seiner jetztigen ausbaustufe eben nicht überlegen ist. du stellst das ja immer gerne so da, das die gts immer von ihren 640 mb ram gerettet wird, was halt nicht stimmt.

die gt hat die überlegene shaderpower, und sind selbst wo sie böse an die speicherbandbreit muss, hält sie sich hervorragend und deklassiert den g80 um ca. 7 fps.
Hast du überhaupt die Messungen verstanden?
Auch für dich, achte mal auf die min.fps und dann die avg.fps.

[dzp]Viper
2007-12-09, 20:41:42
Hm ich komme mit meinem System und einer unübertakteten Zotac GTS 640MB auf 25fps im Schnitt (übertaktet 33fps)

Aber die Min-FPS Werte liegen ebenfalls bei knapp 17fps

/edit: Ah geht ja um 4AA :ugly:
Mal wieder überlesen ;(

Oh muss mal Treiber aktualisieren merke ich gerade :D

dargo
2007-12-09, 20:56:40
Ich habe mal oben im ersten Post die Werte von 1280x1024 1xAA/1xAF hinzugefügt. Da ist der Unterschied zwischen min.fps und avg.fps noch extremer. :|
Kann es sein, dass hier einfach die Treiber noch Probleme mit einem G92 machen, was die min.fps angeht?

Was auch besonders auffällt - bei den max.fps ist die G8800GT ganze 51% schneller.

[dzp]Viper
2007-12-09, 21:03:34
So Werte von mir

1280x1024 - 4 AA - 8AF -High Details

Karte @ 612 / 905 MHz

Meine Min-FPS Werte sind nochmal etwas höher und auch die avg-Werte

http://www.abload.de/img/clipboard01u0y.jpg

dargo
2007-12-09, 21:06:16
@[dzp]Viper
Wenn du schon benchst dann bitte die GTS@Standard. Alles andere macht hier keinen Sinn.

LovesuckZ
2007-12-09, 21:07:09
Es ist falsch auf unterschiedlichen System Vergleiche und Aussagen durchzuführen. Man sieht doch ganz eindeutig, dass die 8800GT mit 4AA einen geringeren Einbruch bei den minFPS hat als die 8800GTS. Somit geht ihr nicht der Speicher aus.
Ersichtlich ist, dass die 8800GT wesentlich bessere FPS erreicht als die 8800GTS. Und das muss in deutlich öfteren Fällen gesehen.

Deathcrush
2007-12-09, 21:13:37
Bei 1280x1024 wäre es ja auch traurig ;) wenn die GT dort stark einbrechen würde. Interessant wirds bei 1680x1050 und aufwärts.


@Dargo

Ich hab mit 648/900 die gleichen min FPS wie du, kann es sein das die min FPS hier doch stark an der CPU hängen?

EDIT
1280x1024 0AA/0AF
Object Details = High = min FPS = 21 FPS
Object Details = Medium = min FPS = 25 FPS

Um eine wirklich gute Aussage zu bekommen, müsste man alles deakt. was die CPU belastet (Physik, Sound, Objectdetails)

[dzp]Viper
2007-12-09, 21:19:43
@[dzp]Viper
Wenn du schon benchst dann bitte die GTS@Standard. Alles andere macht hier keinen Sinn.

Achso ich dachte deine is auch auf 612/900 getaktet? ;)

Werte kommen sofort. Hab eh gesehen, dass bei mir oben noch 8AF aktiv war...

Super Grobi
2007-12-09, 21:23:54
Ich frag mich auch, warum die GT soviel besser sein sollte, als die alte GTS.

In irgentwelchen Benchmarks, besonders 3dMark06, geht die GT natürlich besser, aber im RL ist die Karte so gut oder so schlecht, wie eine alte GTS.

Auch deshalb versteh ich den hype um die GT nicht. OK, der Preis, aber das war es dann auch schon.

SG

AnarchX
2007-12-09, 21:27:09
Ich frag mich auch, warum die GT soviel besser sein sollte, als die alte GTS.

Weil sie nunmal 40% mehr Tex- und 46% mehr ALU-Leistung hat. ;)

r00t
2007-12-09, 21:27:25
die 112 Shader-Einheiten (MADD) bringen bei der GT schon einiges (die gts hat nur 96)

außerdem verfügt die GT über mehr TMUs und TAUs

Gast
2007-12-09, 21:29:29
Und dazu ist der ganze Kram noch höher getaktet.

[dzp]Viper
2007-12-09, 21:30:05
Viper;6097535']
Werte kommen sofort. Hab eh gesehen, dass bei mir oben noch 8AF aktiv war...

Werte ähneln sich der Werte von dargo
stark. Nur die Min-FPS sind geringer (warum auch immer)

Was mir aber stark aufgefallen ist ist, dass der Berg mit 1AF im Hintergrund wesentlich schärfer ist als mit 8AF. Scheinbar steht da mehr Texturspeicher zur verfügung und dadurch nimmt er für den Berg im Hintergrund auch die nächst bessere Texturstufe. Ob das mit der 8800GT auch so ist?

http://www.abload.de/img/clipboard01crg.jpg

Deathcrush
2007-12-09, 21:32:31
Vielleicht einen anderen Treiber, andere Qualisettings etc pp. Um eine wirkliche Aussage treffen zu können, müsste man auf dem selben System beide Grakas testen.

Super Grobi
2007-12-09, 21:32:44
Und warum ist die Karte dann nicht soviel schneller in Crysis?

Ihr haut hier mit Daten rum... ist zwar schön, aber erinnert an den über R600 mit den 320 dingsbums (damals wurde ja auch so geredet).

Am ende kommt davon nicht soviel bei rum. Wenn ich den Ergebnissen da oben glauben darf, fast nichts bei dem derzeit Grakalastigsten Game auf dem Markt.

SG

p.s.
oder das blöde SI der GT verschluckt einfach alles an extra GPU Leistung. Ändert aber nichts am Ergebniss.

AnarchX
2007-12-09, 21:35:34
Und warum ist die Karte dann nicht soviel schneller in Crysis?


Du schaust aber schon auf die AVG-Werte oder?;) (Ich sehe da jedenfalls >30%... )
Min-FPS sind, wie dargo ja selbst sagt ohne FPS-Verlauf nicht viel wert...

r00t
2007-12-09, 21:36:15
crysis verschluckt dann schon wieder recht viel Vram...(und den hat die GT eben nicht "reichlich")

Super Grobi
2007-12-09, 21:36:53
Du schaust aber schon auf die AVG-Werte oder?;)
Min-FPS sind, wie dargo ja selbst sagt ohne FPS-Verlauf nicht viel wert...

Eigentlich nicht. Ich hab nur auf die min. FPS geguckt, da diese für mich das A und O sind.

SG

dargo
2007-12-09, 21:37:58
@Dargo

Ich hab mit 648/900 die gleichen min FPS wie du, kann es sein das die min FPS hier doch stark an der CPU hängen?

Bei 1280x1024 4xAA/1xAF gibts zumindest 100% GPU-Limit. Nochmal zur Übersicht:

1280x1024 4xAA/1xAF - CPU@3,3Ghz
TimeDemo Play Started , (Total Frames: 2000, Recorded Time: 111.86s)
!TimeDemo Run 0 Finished.
Play Time: 90.10s, Average FPS: 22.20
Min FPS: 17.21 at frame 1950, Max FPS: 26.74 at frame 1001
Average Tri/Sec: 23162334, Tri/Frame: 1043500
Recorded/Played Tris ratio: 0.88
!TimeDemo Run 1 Finished.
Play Time: 87.78s, Average FPS: 22.78
Min FPS: 17.21 at frame 1950, Max FPS: 26.78 at frame 1008
Average Tri/Sec: 24010302, Tri/Frame: 1053791
Recorded/Played Tris ratio: 0.87
!TimeDemo Run 2 Finished.
Play Time: 87.75s, Average FPS: 22.79
Min FPS: 17.19 at frame 1951, Max FPS: 26.81 at frame 1009
Average Tri/Sec: 24044004, Tri/Frame: 1054897
Recorded/Played Tris ratio: 0.87


1280x1024 4xAA/1xAF - CPU@2,4Ghz
TimeDemo Play Started , (Total Frames: 2000, Recorded Time: 111.86s)
!TimeDemo Run 0 Finished.
Play Time: 91.60s, Average FPS: 21.83
Min FPS: 17.41 at frame 1962, Max FPS: 25.95 at frame 993
Average Tri/Sec: 22782092, Tri/Frame: 1043421
Recorded/Played Tris ratio: 0.88
!TimeDemo Run 1 Finished.
Play Time: 87.78s, Average FPS: 22.79
Min FPS: 17.35 at frame 1960, Max FPS: 26.99 at frame 995
Average Tri/Sec: 24016632, Tri/Frame: 1054030
Recorded/Played Tris ratio: 0.87
!TimeDemo Run 2 Finished.
Play Time: 87.76s, Average FPS: 22.79
Min FPS: 17.34 at frame 1961, Max FPS: 26.99 at frame 995
Average Tri/Sec: 24032262, Tri/Frame: 1054483
Recorded/Played Tris ratio: 0.87

Gast
2007-12-09, 21:39:01
Jep, liegt am Vram. Sonst Owned die GT die olle GTS.
Soll ja eine 1GB GT kommen oder? Ob des dann vlt. reichen tät für eine GTX?
ne wa?.

[dzp]Viper
2007-12-09, 21:40:24
@[dzp]Viper
Wenn du schon benchst dann bitte die GTS@Standard. Alles andere macht hier keinen Sinn.

Interessant, dass eine GTS 640 MB mit den Taktraten einer 8800GT wesentlich höhere Min-FPS Werte liefert

Hab dafür mal meine 8800GTS 640MB auf genau die selben Taktraten wie die 8800GT getaktet

Das sind im schnitt 4 MIN-FPS mehr!! (8800GT Min FPS: 16.57)

Ich denke also schon, dass sich die 100MB mehr Speicher bemerkbar machen!

1280x1024 alles auf High
4AA - 1AF
Karte: 600/900

http://www.abload.de/img/clipboard019mg.jpg

dargo
2007-12-09, 21:40:51
Ich frag mich auch, warum die GT soviel besser sein sollte, als die alte GTS.

In irgentwelchen Benchmarks, besonders 3dMark06, geht die GT natürlich besser, aber im RL ist die Karte so gut oder so schlecht, wie eine alte GTS.

Auch deshalb versteh ich den hype um die GT nicht. OK, der Preis, aber das war es dann auch schon.

Die GT ist natürlich von den Specs. schneller als eine alte GTS. Ich frage mich nur warum ich davon nichts in dem Crysis Benchmark an den min.fps sehe? :confused:

Vielleicht einen anderen Treiber, andere Qualisettings etc pp. Um eine wirkliche Aussage treffen zu können, müsste man auf dem selben System beide Grakas testen.
Ich und Schrotti verwenden den gleichen Treiber (FW169.17) und die gleichen Settings.

AnarchX
2007-12-09, 21:43:14
Eigentlich nicht. Ich hab nur auf die min. FPS geguckt, da diese für mich das A und O sind.

Na dann... ;D

Für mich ist es jedenfalls:
FPS-Verlauf (ausführliche Übersicht über alle Einbrüche unter eine bestimmte Grenze) > AVG-FPS(Zusammenfassung der Performance über eine längeren Zeitraum inkl. Einbrüche) > Min-FPS (belanglos, da es sich hier nur um den Wert eines Frames von hier z.B. 2000 handelt)

Die GT ist natürlich von den Specs. schneller als eine alte GTS. Ich frage mich nur warum ich davon nichts in dem Crysis Benchmark an den min.fps sehe? :confused:

Weil vielleicht gerade Frame 144 eine ROP/Speicherbandbreiten/Speicherbelastungs-Limitierung aufweist? ;)

[dzp]Viper
2007-12-09, 21:43:28
Die GT ist natürlich von den Specs. schneller als eine alte GTS. Ich frage mich nur warum ich davon nichts in dem Crysis Benchmark an den min.fps sehe? :confused:


Ich und Schrotti verwenden den gleichen Treiber (FW169.17) und die gleichen Settings.

Ich denke da limitieren wirklich die 512MB...

dargo
2007-12-09, 21:46:12
Jep, liegt am Vram.
Nein, es liegt nicht am Vram. Nur zur Information - unter 1280x1024 4xAA/1xAF begnügt sich die Timedemo mit max. 532MB Vram. Ok, hier könnte man denken, es liegt wirklich am Vram. Allerdings sinds ohne AA "nur" 43xMB (genauen Wert liefere ich gleich). Und auch hier liefert die GT minimal schlechtere min.fps.

Edit:
In 1280x1024 1xAA/1xAF limitiert nicht der Vram - max. 432MB.

r00t
2007-12-09, 21:47:16
jup limitiert auch...gerade in crysis... alles über 1280x1024 hohe details dürften die 512mb Vram locker ausgenützt sein!

AnarchX
2007-12-09, 21:54:45
Ist aber die Frage ob sich ein Verbrauch von >512MB auf die FPS auswirkt oder ob hier nicht etwas anderes limitiert.

Wie schon gesagt ein FPS-Verlauf wäre doch interessant und ich hoffe, dass dargo ihn nachliefert (mit FRAPS sollte das gut machbar sein).

Ansonsten wären vielleicht auch Bilder den Frames interessant, wo die Karten ihr Minimum haben, an denen man vielleicht erkennen kann, welcher Effekt dieses Einbruch verursacht.:D

dargo
2007-12-09, 21:57:41
Viper;6097612']Interessant, dass eine GTS 640 MB mit den Taktraten einer 8800GT wesentlich höhere Min-FPS Werte liefert

Hab dafür mal meine 8800GTS 640MB auf genau die selben Taktraten wie die 8800GT getaktet

Das sind im schnitt 4 MIN-FPS mehr!! (8800GT Min FPS: 16.57)

So darfst du nicht vergleichen, die GT hat mit 900Mhz Speicher eine Bandbreite von 57,6GB/s. Die alte GTS bei gleicher Taktfrequenz 72GB/s. Du müsstest also den Speicher deiner GTS mit 720Mhz takten um auf die 57,6GB/s der GT zu kommen.

Wie schon gesagt ein FPS-Verlauf wäre doch interessant und ich hoffe, dass dargo ihn nachliefert (mit FRAPS sollte das gut machbar sein).

Das kann ich gerne machen. Ich brauche aber einen freiwilligen User mit einer G8800GT für weitere Tests (am besten mit einem C2D) sonst lohnt der Aufwand nicht.

Weil vielleicht gerade Frame 144 eine ROP/Speicherbandbreiten/Speicherbelastungs-Limitierung aufweist? ;)
Das ist interessant! Den Vram kann ich in 1280x1024 1xAA/1xAF ausschließen. Jetzt bleibt nur noch die Speicherbandbreite und die ROPs. Die Bandbreite kann ich gleich anpassen. Schauen wir mal...

Edit:
Ich sehe gerade, dass Schrotti sogar eine Zotac G8800GT hat. Also entweder 660/900Mhz oder 700/1000Mhz.

laser114
2007-12-09, 22:10:37
So darfst du nicht vergleichen, die GT hat mit 900Mhz Speicher eine Bandbreite von 57,6GB/s. Die alte GTS bei gleicher Taktfrequenz 72GB/s. Du müsstest also den Speicher deiner GTS mit 720Mhz takten um auf die 57,6GB/s der GT zu kommen.

Die alte GTS hat aber nur 800 MHz Speichertakt, alsoeine Bandbreite von 64 GB/s. Und der Speichertakt wurde ja nicht angehoben, denke ich mal?

Übrigens dürfte das Groß der Benches noch kommen, das NDA scheint bei der Karte ja einige Webseiten und auch manche Händler gar nicht zu interessieren.

AnarchX
2007-12-09, 22:10:52
Edit:
Ich sehe gerade, dass Schrotti sogar eine Zotac G8800GT hat. Also entweder 660/900Mhz oder 700/1000Mhz.
AFAIK hatte er doch keine AMP!(auch laut SuFu), womit wohl die Bandbreite der entscheidende Faktor für F.144/145 wäre?

Metalmaniac
2007-12-09, 22:13:00
Deshalb überlege ich mir ja eigentlich auch, diese hier zu kaufen und meine bestellte Zotac AMP zu stornieren:
http://www.alternate.de/html/product/details.html?articleId=238977&showTechData=true
112 Streaming Prozessoren wie die GTs, gleiche Taktraten wie die normalen GTs aber den vorteilhafteren Speicher der alten GTS-Versionen. Ist halt nur noch der alte G80-Chip verbaut und deshalb nicht zu verwechseln mit den bald erscheinenden GTS-Karten mit G92-Chips. Die haben zwar noch mehr Streaming Prozessoren aber wiederum schlechtere Speicher-Parameter und werden voraussichtlich noch ein bißchen teurer sein.

dargo
2007-12-09, 22:33:11
AFAIK hatte er doch keine AMP!(auch laut SuFu), womit wohl die Bandbreite der entscheidende Faktor für F.144/145 wäre?
Gehen wir erstmal von 660/900Mhz bei der G8800GT von Schrotti aus (ich habe ihn deswegen angeschrieben).

Um die gleiche Speicherbandbreite der GT zu erreichen muss ich den Speicher meiner GTS wie schon gesagt mit 720Mhz takten. Hier das Ergebnis:

1280x1024 1xAA/1xAF mit G8800GT512 (660/900Mhz)
TimeDemo Play Started , (Total Frames: 2000, Recorded Time: 111.86s)
!TimeDemo Run 0 Finished.
Play Time: 53.90s, Average FPS: 37.10
Min FPS: 19.65 at frame 145, Max FPS: 46.19 at frame 996
Average Tri/Sec: 37608340, Tri/Frame: 1013619
Recorded/Played Tris ratio: 0.90
!TimeDemo Run 1 Finished.
Play Time: 49.14s, Average FPS: 40.70
Min FPS: 19.65 at frame 145, Max FPS: 47.16 at frame 1024
Average Tri/Sec: 41757356, Tri/Frame: 1025875
Recorded/Played Tris ratio: 0.89
!TimeDemo Run 2 Finished.
Play Time: 49.12s, Average FPS: 40.72
Min FPS: 19.65 at frame 145, Max FPS: 49.14 at frame 996
Average Tri/Sec: 41776756, Tri/Frame: 1026013
Recorded/Played Tris ratio: 0.89

1280x1024 1xAA/1xAF mit G8800GTS640@G80 (513/720Mhz)
TimeDemo Play Started , (Total Frames: 2000, Recorded Time: 111.86s)
!TimeDemo Run 0 Finished.
Play Time: 77.18s, Average FPS: 25.91
Min FPS: 20.74 at frame 1964, Max FPS: 31.25 at frame 1011
Average Tri/Sec: 26212840, Tri/Frame: 1011532
Recorded/Played Tris ratio: 0.91
!TimeDemo Run 1 Finished.
Play Time: 74.29s, Average FPS: 26.92
Min FPS: 20.74 at frame 1964, Max FPS: 31.47 at frame 83
Average Tri/Sec: 27505150, Tri/Frame: 1021730
Recorded/Played Tris ratio: 0.90
!TimeDemo Run 2 Finished.
Play Time: 74.23s, Average FPS: 26.94
Min FPS: 20.74 at frame 1964, Max FPS: 31.62 at frame 989
Average Tri/Sec: 27519296, Tri/Frame: 1021419
Recorded/Played Tris ratio: 0.90
!TimeDemo Run 3 Finished.

Wenn ich die Taktrate der GTS auf 660Mhz anheben könnte würden die min. fps noch schätzungsweise um ~25% steigen. Dabei hat die GT sogar mehr Shader-Einheiten. Können die 16 ROPs beim G92 dermaßen limitieren? :|

Superheld
2007-12-09, 22:40:55
wass passiert wohl wenn du die Auflösung runterschrauben würdest:|

LovesuckZ
2007-12-09, 22:41:05
Warum sind euch die minFPS so wichtig? Ob nun 18,5 oder 20fps sind doch schnuppe. Viel wichtiger sind die Durchschnittswerte in Crysis. Und hier ist die 8800GT wesentlich schneller.

Super Grobi
2007-12-09, 22:42:52
Warum sind euch die minFPS so wichtig? Ob nun 18,5 oder 20fps sind doch schnuppe. Viel wichtiger sind die Durchschnittswerte in Crysis. Und hier ist die 8800GT wesentlich schneller.

Weil es bekanntlich bei den min. FPS ruckelt und nicht bei den max. oder durchschnitts FPS? :|

SG

LovesuckZ
2007-12-09, 22:44:33
Weil es bekanntlich bei den min. FPS ruckelt und nicht bei den max. oder durchschnitts FPS? :|
SG

Du meinst, 18,5 ruckeln und 20 nicht? :rolleyes:
Die minFPS sind vollkommen lächerlich ohne Frameverlauf. Und solange sind einzig die Durchschnittswerte interessant. Und da hier Schrotti's Karte um 48% mehr hat, wird sie auch das bessere Spieleerlebnis liefern.

Gast
2007-12-09, 22:45:52
Weil es bekanntlich bei den min. FPS ruckelt und nicht bei den max. oder durchschnitts FPS? :|

SG
Aber das ganze ist eh für die Tonne, wenn die minFPS auch CPU limitiert sein können.


Ein FPS Diagramm hilft schon weiter.

mapel110
2007-12-09, 22:46:51
ehm, vergleicht ihr hier XP32bit vs XP64bit?
tolle Wurst. Und dann über mehr minfps freuen bei 4 GB Ram. :ugly:

dargo
2007-12-09, 22:51:16
Warum sind euch die minFPS so wichtig? Ob nun 18,5 oder 20fps sind doch schnuppe.
Du hast wohl nicht verstanden worum es hier geht. Es geht darum, dass die GT eigendlich ~30% (eventuell, etwas mehr) schneller ist als eine alte GTS, zumindest was die Specs hergeben. Davon sehe ich aber bei den min.fps nichts. Warum???

wass passiert wohl wenn du die Auflösung runterschrauben würdest:|
Na was wohl? :)
Es würde in Richtung CPU-Limit gehen. Das will ich hier aber nicht wissen. Ich vergleiche die GPU-Leistung.

Aber das ganze ist eh für die Tonne, wenn die minFPS auch CPU limitiert sein können.

Du hast aber schon Post #25 gelesen?


Ein FPS Diagramm hilft schon weiter.
Das ist wohl wahr, denn so weiß ich nicht wie oft die GT so tief einbricht.

Gast
2007-12-09, 22:57:46
Du hast wohl nicht verstanden worum es hier geht. Es geht darum, dass die GT eigendlich ~30% (eventuell, etwas mehr) schneller ist als eine alte GTS, zumindest was die Specs hergeben. Davon sehe ich aber bei den min.fps nichts. Warum???


Na was wohl? :)
Es würde in Richtung CPU-Limit gehen. Das will ich hier aber nicht wissen. Ich vergleiche die GPU-Leistung.


Du hast aber schon Post #25 gelesen?


Das ist wohl wahr, denn so weiß ich nicht wie oft die GT so tief einbricht.

Weil ihr der Vram ausgeht. jeder Wette. Sieht man an dem test 1280 Vs 1600 ohne AA schon.
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gt_sli/21/#abschnitt_crysis

LovesuckZ
2007-12-09, 22:58:41
Du hast wohl nicht verstanden worum es hier geht. Es geht darum, dass die GT eigendlich ~30% (eventuell, etwas mehr) schneller ist als eine alte GTS, zumindest was die Specs hergeben. Davon sehe ich aber bei den min.fps nichts. Warum???

Ich schätz', dass liegt an dem Umstand, dass die Grafikkarte nicht der einzige Bestandteil eines PCs ist...

Das ist wohl wahr, denn so weiß ich nicht wie oft die GT so tief einbricht.

Sie wird deutlich geringer "Einbrechen" als die 8800GTS.

dargo
2007-12-09, 22:59:32
Viel wichtiger sind die Durchschnittswerte in Crysis.
Sorry, aber das ist Unsinn. Stelle dir vor, die Grafikkarte liefert in 30% der Timedemo Frames <20fps, 30% <=30fps und in 40% >40fps. Dadurch wird das Game auch nicht durchgehend flüßig spielbar.

dargo
2007-12-09, 23:01:06
Weil ihr der Vram ausgeht. jeder Wette. Sieht man an dem test 1280 Vs 1600 ohne AA schon.
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gt_sli/21/#abschnitt_crysis
Lese bitte alle meine Posts, danke. :)
Diesmal Post #31.

LovesuckZ
2007-12-09, 23:02:09
Sorry, aber das ist Unsinn. Stelle dir vor, die Grafikkarte liefert in 30% der Timedemo Frames <20fps, 30% <=30fps und in 40% >40fps. Dadurch wird das Game auch nicht durchgehend flüßig spielbar.

Die Durchschnittswerte liegen ohne AA 48% über der 8800GTS. Die Karte wird also einen größteil der Teil wesentlich höhrere Frameszahl haben.

dargo
2007-12-09, 23:02:56
Ich schätz', dass liegt an dem Umstand, dass die Grafikkarte nicht der einzige Bestandteil eines PCs ist...

Wie oft muss ich denn noch beweisen, dass die CPU hier nicht limitiert? :rolleyes:

Super Grobi
2007-12-09, 23:05:11
Die Durchschnittswerte liegen ohne AA 48% über der 8800GTS. Die Karte wird also einen größteil der Teil wesentlich höhrere Frameszahl haben.

Was nützt einem das, wenn die min. FPS bei beiden gleich sind (nehmen wir jetzt mal an, das es 100% an der Graka liegt)?

Dann sind bei beiden Karten die gleichen Settings schön spielbar und 100% flüssig bzw. das andere Settings scheisse, da es hin und wieder ruckelt. Was hab ich davon, das bei der einen Karte mal die FPS auf 120 hochgehen und bei der andern nur auf 80?

Daher ist min. FPS das wichtigste!

SG

dargo
2007-12-09, 23:05:31
Die Durchschnittswerte liegen ohne AA 48% über der 8800GTS. Die Karte wird also einen größteil der Teil wesentlich höhrere Frameszahl haben.
Da stellt sich mir die Frage - was bringt mir eine im Durchschnitt schnellere Grafikkarte wenn sie in "Extremsituationen" keinen einzigen Frame mehr liefert. Stelle dir mal vor, du wirst in Crysis gerade angegriffen und das ist die Stelle wo die Frames teilweise auf ~20fps fallen.

Hakim
2007-12-09, 23:06:33
Ich weiß nicht warum die min werte hier mit der GT so niedrig sind, ich habe höhere werte mit meiner karte. Ok karte ist OC und ich nutze Vista x64. Dennoch scheinen mir die min werte der GT von Dargo etwas wenig. Ich hab auf 1280x1024 24,42 fps als min und bei 1680x1050 19,99 fps.

dargo
2007-12-09, 23:08:25
ehm, vergleicht ihr hier XP32bit vs XP64bit?
tolle Wurst. Und dann über mehr minfps freuen bei 4 GB Ram. :ugly:
Was hat das jetzt mit den 4GB Ram zu tun wenn die Anwendung kaum über 1,3GB kommt?

@Hakim
Hättest du Lust paar Tests im Laufe der Woche mit deiner G8800GT anzustellen? :)

mapel110
2007-12-09, 23:09:13
Gerade minfps würde ich nur auf identischen Systemen vergleichen und das auch bei mindestens 3 gemittelten Durchläufen. Ansonsten bringt das gar nichts.
64bit XP mit 32bit XP zu vergleichen bei 4 GB Ram ist ja wohl denkbar ungünstig, um eine Aussage über minfps machen zu können.
Was hat das jetzt mit den 4GB Ram zu tun wenn die Anwendung kaum über 1,3GB kommt?

Fängt schon damit an, dass 32bit-Treiber != 64bit Treiber ist.

dargo
2007-12-09, 23:12:18
Gerade minfps würde ich nur auf identischen Systemen vergleichen und das auch bei mindestens 3 gemittelten Durchläufen. Ansonsten bringt das gar nichts.
64bit XP mit 32bit XP zu vergleichen bei 4 GB Ram ist ja wohl denkbar ungünstig, um eine Aussage über minfps machen zu können.

Nochmal meine Frage über dem Post von dir.


Fängt schon damit an, dass 32bit-Treiber != 64bit Treiber ist.
1. Falls es dir was hilft, mit der 32Bit.exe habe ich exakt die gleichen Frames.
2. Du glaubst doch nicht ernsthaft, dass der 64Bit Treiber ~30% schneller ist als der 32Bit Treiber. :|

[dzp]Viper
2007-12-09, 23:30:11
Ich weiß nicht warum die min werte hier mit der GT so niedrig sind, ich habe höhere werte mit meiner karte. Ok karte ist OC und ich nutze Vista x64. Dennoch scheinen mir die min werte der GT von Dargo etwas wenig. Ich hab auf 1280x1024 24,42 fps als min und bei 1680x1050 19,99 fps.

4AA aktivieren!

Schrotti
2007-12-09, 23:51:09
dargo

Schau hier (ich hatte damals noch einen Vergleich gemacht bevor meine 8800GTS 640MB verkauft wurde).

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6028432&postcount=1190

Hakim
2007-12-09, 23:59:51
Viper;6097952']4AA aktivieren!

DX9 1280x1024, AA=4x, Vsync=Disabled, 32 bit test, FullScreen
Demo Loops=3, Time Of Day= 9
Global Game Quality: High
==============================================================
TimeDemo Play Started , (Total Frames: 2000, Recorded Time: 111.86s)
!TimeDemo Run 0 Finished.
Play Time: 67.37s, Average FPS: 29.69
Min FPS: 18.59 at frame 152, Max FPS: 38.57 at frame 987
Average Tri/Sec: 30188518, Tri/Frame: 1016883
Recorded/Played Tris ratio: 0.90
!TimeDemo Run 1 Finished.
Play Time: 63.84s, Average FPS: 31.33
Min FPS: 18.59 at frame 152, Max FPS: 38.57 at frame 987
Average Tri/Sec: 32215676, Tri/Frame: 1028259
Recorded/Played Tris ratio: 0.89
!TimeDemo Run 2 Finished.
Play Time: 64.17s, Average FPS: 31.17
Min FPS: 18.59 at frame 152, Max FPS: 38.57 at frame 1007
Average Tri/Sec: 32065904, Tri/Frame: 1028782
Recorded/Played Tris ratio: 0.89

Hakim
2007-12-10, 01:32:55
@Hakim
Hättest du Lust paar Tests im Laufe der Woche mit deiner G8800GT anzustellen? :)

Ich bin zwar ein etwas fauler mensch, aber warum nicht :)

Schrotti
2007-12-10, 01:54:52
Das kommt dabei raus, wenn ich meine 8800GT mit 720/1745/950 und 4xAA laufen lasse (1280x1024).


==============================================================
TimeDemo Play Started , (Total Frames: 2000, Recorded Time: 111.86s)
!TimeDemo Run 0 Finished.
Play Time: 66.21s, Average FPS: 30.21
Min FPS: 17.88 at frame 154, Max FPS: 36.97 at frame 1781
Average Tri/Sec: 31596670, Tri/Frame: 1046058
Recorded/Played Tris ratio: 0.88
!TimeDemo Run 1 Finished.
Play Time: 62.66s, Average FPS: 31.92
Min FPS: 17.88 at frame 154, Max FPS: 38.80 at frame 1003
Average Tri/Sec: 33800052, Tri/Frame: 1058927
Recorded/Played Tris ratio: 0.87
!TimeDemo Run 2 Finished.
Play Time: 62.61s, Average FPS: 31.94
Min FPS: 17.88 at frame 154, Max FPS: 39.23 at frame 1006
Average Tri/Sec: 33830160, Tri/Frame: 1059097
Recorded/Played Tris ratio: 0.87
!TimeDemo Run 3 Finished.
Play Time: 62.60s, Average FPS: 31.95
Min FPS: 17.88 at frame 154, Max FPS: 39.23 at frame 1006
Average Tri/Sec: 33824264, Tri/Frame: 1058676
Recorded/Played Tris ratio: 0.87
TimeDemo Play Ended, (4 Runs Performed)
==============================================================

tombman
2007-12-10, 02:00:57
Du meinst, 18,5 ruckeln und 20 nicht? :rolleyes:
Die minFPS sind vollkommen lächerlich ohne Frameverlauf. Und solange sind einzig die Durchschnittswerte interessant. Und da hier Schrotti's Karte um 48% mehr hat, wird sie auch das bessere Spieleerlebnis liefern.
Absolut richtig. Ob 1 frame von 2000 mal 1 fps weniger hatte oder nicht, ist doch sowas von scheißegal. Die G92 GT OWNED die G80 GTS, basta.
Die AVGs zeigen das sehr gut.

tombman
2007-12-10, 02:03:22
Sorry, aber das ist Unsinn. Stelle dir vor, die Grafikkarte liefert in 30% der Timedemo Frames <20fps, 30% <=30fps und in 40% >40fps. Dadurch wird das Game auch nicht durchgehend flüßig spielbar.
Das ist aber nicht der Fall, weil es diese >40fps schlicht und einfach nicht gibt. Trau ich mich sagen ohne eine GT zu besitzen- einfach aus Erfahrung mit meiner GTX ;)

Dargo, ich weiß, es muß weh tun, daß die G80 GTS so böse geowned wird, aber da soll man nicht weinen sondern das Teil schleunigts abstoßen und sich eine G92 GT oder gleich besser G92 GTS besorgen ;)

Hakim
2007-12-10, 02:07:09
@Schrotti ich weiß nicht warum deine min werte immer noch einen tick schlechter sind obwohl du deine graka sogar höher getaktet hast als ich (bis auf ram). Aber kommt ja fast hin. Dein sys sollte auch etwas besser sein. Hast zwar ein Allendale, aber dafür deutlich mehr takt.

James Ryan
2007-12-10, 05:44:32
Weil sie nunmal 40% mehr Tex- und 46% mehr ALU-Leistung hat. ;)

Die aber dank des 256 Bit Speicherinterfaces halb verhungern.

MfG :cool:

tombman
2007-12-10, 06:08:57
del

=Floi=
2007-12-10, 06:39:35
die 8800GT verhungert _nicht_ an der speicherbandbreite bei normalen settings! (bis 1600X1200 4XAA)

tombman
2007-12-10, 09:25:16
die 8800GT verhungert _nicht_ an der speicherbandbreite bei normalen settings! (bis 1600X1200 4XAA)
Bei 1920x1200, 4xAA ist das HUngern aber schon deutlich zu sehen ;)

Gast
2007-12-10, 09:31:28
Bei 1920x1200, 4xAA ist das HUngern aber schon deutlich zu sehen ;)
Wer sowas braucht, kauft auch keine verdammte GT :usad:

Adam D. @ work

Razor
2007-12-10, 09:32:46
Überflüssiger Thread, weil keine vergleichbare Systembasen.

Diskutiert nur weiter über vollkommen belangloses Zeug, ohne auch nur annähernd die Basis für einen "Vergleich" erfüllt zu haben. Selbst wenn die Hardware vollkommen identisch ist, sind es schon die Bios-Einstellungen meist nicht, wie auch das Betriebssystem auf beiden Rechner nicht zu 100% (!) identisch sein kann. Schon kann man nicht mehr von einer Vergleichbarkeit sprechen.

Fakt ist: bei 100%'iger Vergleichbarkeit liegt die 88GT512 vor der 88GTS640. Punkt.

Wer das ignoriert, der hat Scheuklappen auf und versucht vermutlich nur sein Gewissen zu beruhigen.
Und jeglicher Versuch, das zu untermauern, wirkt eigentlich nur noch armselig...

Dem einzigen Vergleich, den ich zulassen würde, wäre ein und das selbe System mit unterschiedlichen Karten.
(logisch nätürlich: die absolut identische Software-Basis)

Razor

Gast
2007-12-10, 09:32:53
die 8800GT verhungert _nicht_ an der speicherbandbreite bei normalen settings! (bis 1600X1200 4XAA)

Das würde ich so nicht sagen. Schau dir mal Standard-GT vs OC-GT (Zotac, EVGA) an. Von den technischen Daten könnten sie schneller, aber der reale Abstand ist geringer.

Bei der G92 GTS ist dies noch weit ausgeprägter. Trotz ihrer deutlich erhöhten Taktraten kann sie sich nicht so stark absetzen, wie es die technischen Daten vermuten lassen. gegen eine gf8800 ultra hat sie in auflösung die über Standard hinaus gehen und das kann ja schon 1280x1024 6xAA und aufwärts sein, keine Chance.

tombman
2007-12-10, 09:35:46
Das würde ich so nicht sagen. Schau dir mal Standard-GT vs OC-GT (Zotac, EVGA) an. Von den technischen Daten könnten sie schneller, aber der reale Abstand ist geringer.

Bei der G92 GTS ist dies noch weit ausgeprägter. Trotz ihrer deutlich erhöhten Taktraten kann sie sich nicht so stark absetzen, wie es die technischen Daten vermuten lassen. gegen eine gf8800 ultra hat sie in auflösung die über Standard hinaus gehen und das kann ja schon 1280x1024 6xAA und aufwärts sein, keine Chance.
Jo, die G92 GTS kackt zT auch gegen ein GTX ab.

Razor
2007-12-10, 09:36:54
Das würde ich so nicht sagen. Schau dir mal Standard-GT vs OC-GT (Zotac, EVGA) an. Von den technischen Daten könnten sie schneller, aber der reale Abstand ist geringer.
So ist es eigentlich IMMER!
Schau Dir einfach nur die 88GTX vs. 88Ultra, denn letztere ist auch nur eine OC'te GTX...

100% Skalierung gibt es eigentlich nur in absolut synthetischen Umgebungen.
(Spiele sind damit ausgeschlossen ;-)

Jo, die G92 GTS kackt zT auch gegen ein GTX ab.
Wie auch umgekehrt... die beiden scheinen sich nicht viel zu nehmen... mit einer leichten Tendenz zur GTX!

Razor

tombman
2007-12-10, 09:40:27
Wie auch umgekehrt... die beiden scheinen sich nicht viel zu nehmen... mit einer leichten Tendenz zur GTX!
Aber wenns hard auf hard kommt...
http://www.picupload.net/f-5d929cd5333a5a3e6e105d191c384734.png
Klarer Fall von Speicherbandbreitenmangel (oder Größe)
Auf 1440x900 liegt sie noch vorn, um dann immer mehr abzukacken.

Gast
2007-12-10, 09:47:08
Schau Dir einfach nur die 88GTX vs. 88Ultra, denn letztere ist auch nur eine OC'te GTX...

100% Skalierung gibt es eigentlich nur in absolut synthetischen Umgebungen.
(Spiele sind damit ausgeschlossen ;-)


Ich würde behaupten, es liegt in vielen Fällen an der CPU-Limitierung an die solche Karten schnell heran kommen. Es gibt nur wenige Games, die viel Grafikpower brauchen, aber fast keine CPU-Power nutzen... meistens ist es ausgeglichen oder stark einseitig.

Eigentlich müsste eine G92 GTS mit den hier genannten Daten von über 700 oder 800 MHz GPU und 2 GHz Shader JEDE Ultra beziehen. Das sie das trotzdem nicht schafft, spricht eigentlich Bände... denn was nützt die höchste Rohleistung, wenn ihr der Speicher ausgeht oder die Daten nicht schnell genug von A nach B gelangen?

Deathcrush
2007-12-10, 10:05:39
Bevor ich eine GTS G92 für 330.- kaufe, hole ich mir liebe diese für 369€

http://www.alternate.at//html/shop/productDetails.html?&artno=JBXVG1&

tombman
2007-12-10, 10:06:52
Bevor ich eine GTS G92 für 330.- kaufe, hole ich mir liebe diese für 369€

http://www.alternate.at//html/shop/productDetails.html?&artno=JBXVG1&
Jo, GTXen kriegst auf ebay auch so um ca 320€ ;)

Razor
2007-12-10, 10:15:23
Aber wenns hard auf hard kommt...
http://www.picupload.net/f-5d929cd5333a5a3e6e105d191c384734.png
Klarer Fall von Speicherbandbreitenmangel (oder Größe)
Auf 1440x900 liegt sie noch vorn, um dann immer mehr abzukacken.
Wie man ja sehr schön an dem Vergleich 88GT/GTS512 vs. 88GTS640 sieht...
...und bei letzterer die wirklich armselige "Leistung" ggü. der 3850-256.
:rolleyes:

Ich würde behaupten, es liegt in vielen Fällen an der CPU-Limitierung an die solche Karten schnell heran kommen. Es gibt nur wenige Games, die viel Grafikpower brauchen, aber fast keine CPU-Power nutzen... meistens ist es ausgeglichen oder stark einseitig.
Das ist ja das Schöne an RL-Tests.
Da gibt es eben nicht nur schwarz und weiss, sondern viele - viiiiieeeeelllle Abstufungen von Limitierungen.

Und ich würde gar nicht mal behaupten, dass die genau zu spezifizieren sind...
Mal limitiert die CPU, mal der Speicher des Rechners, mal die GPU und mal auch der Speicher der GraKa... in der einen oder anderen Ausprägung.

Man muss dies im Einzelfall sehen, aber generell zu behaupten:
"Des krepiert immöh an de Speichö!"

...ist einfach falsch.

Eigentlich müsste eine G92 GTS mit den hier genannten Daten von über 700 oder 800 MHz GPU und 2 GHz Shader JEDE Ultra beziehen. Das sie das trotzdem nicht schafft, spricht eigentlich Bände... denn was nützt die höchste Rohleistung, wenn ihr der Speicher ausgeht oder die Daten nicht schnell genug von A nach B gelangen?
Kann ich Dir sagen:
- die GT512 kostet etwa 200€
- die GTS512 kostet etwa 300€
(meinetwegen lege derzeit nochmal jeweils etwa 50€ drauf und ignoriere die Phantasie-Vorstellungen)

Und nun schaun' wir mal auf die GTX... dann auf die Ultra:
- GTX ab etwa 400€ (was schon recht niedrig ist)
- Ultra ab etwa 500€ (was immer noch ganz schön happig ist)

Merkst Du was?
:confused:

Dafür, dass die GTS der GTX leistungsseitig schon sehr nahe kommt, ist der Preisunterschied zwischen den beiden mit etwa 100€ recht hoch... insofern aber gerechtfertigt, als das diejenigen, die mit Auflösungen von 1920 und mehr liebäugeln (oder 'brauchen' ;-) den Aufschlag eben auch bezahlen müssen... richtig krass das dann bei der "Ultra" wird und hier dann ja auch lt. nVidia ein uminöser G80+ verbaut ist - was auch immer das sein soll - um auch nur halbwegs diesen Preis zu rechtfertigen... aber den Enthusis reicht das ja offenbar schon, um sich 'gut' zu fühlen.

Klar ist Speicherbandbreite bei den 'neuen' Performance-Karten geringer, als bei den 'alten' Ultra-HighEndern.
Warum auch nicht?

Und natürlich ergeben sich bei entsprechenden Settings dann auch dadurch Vorteile.
Warum auch nicht?

Nur sie müssen bezahlt werden und das ist es, was hier offenbar vollkommen vergessen wird.

Klar limitiert ein Speicherinterface 'irgendwann', wenn es eben bei 256Bit und ca. 1GHzDDR bzw. 2GHz liegt.
Das macht das (universale!) PCB aber günstiger und dank des geringeren Fertigungsverfahrens auch die GPU.
Das entprodukt ist ein erheblich günstiger herzustellendes Gesamtprodukt, was letztlich dem Konsumenten zu gute kommt...

Lange Rede, kurzer Sinn:
- die 88GT besetzt eine bis dato unbesetzte Lücke im Preissegment (sehr gut im übrigen ;-)
- die 88GTS ersetzt das nun obsolet gewordene Segment

Wen hier also jemand etwas vergleichen will, dann die 'neuen' gegen die 'alten' im Performance-Segment.
Wer wirklich das preisgünstige Performance-Segemnt gegen das verdammt hochpreisige HighEnd-Segment vergleicht, hat einen an der Waffel.

Technisch mag das ja noch halbwegs interessant sein, wirtschaftlich ist das vollkommener Unfug.

Razor

P.S.: jetzt auch noch gebrauchte Grafikkarte mit ins Spiel zu bringen, macht diese "Diskussion " dann natürlich vollkommen unsinnig... weiter so!

K4mPFwUr$t
2007-12-10, 10:27:42
@tombman
ich versteh dich nicht, einerseits lobst du den G92 hoch bis in den himmel und ein posting weiter musst du wieder selbst erkennen das nVidia doch nicht so doof ist.
denn der G80 hat immer noch seine vorteile, wobei diese eher nicht bei der GPU liegen.

nV hat die specs so verteilt das der G92, rein theoretisch von der rohleistung vorne liegt. aber das VRAM und bandbreite einfach zu gering sind.

Gast
2007-12-10, 10:33:56
Man muss dies im Einzelfall sehen, aber generell zu behaupten:
"Des krepiert immöh an de Speichö!"

...ist einfach falsch.

Wer hat das denn gesagt?

Denk mal ein wenig logischer, dann stellt sich das Problem nicht.
Die G92 GTS hat MEHR Rohleistung als eine GeForce 8800 GTX. Was folgern wir daraus? Der Käufer möchte HÖHERE Qualitätseinstellungen fahren um das MEHR an Leistung in Qualität umzusetzen.

Dieser Gedankengang funktioniert aber nicht, da die Karte in diesen Bereichen zu wenig Speicher und zu wenig Bandbreite hat. Statt meinen z.B. vorher funktionierenden 1920x1200 4xAA kann ich nun nicht einfach 1920x1200 6xAA fahren, weil dort die Limitierungen noch mehr auftreten als eh schon der Fall. Sie wäre nur schneller, wenn ich die Qualität REDUZIERE und das ist für Käufer dieser Klasse eigentlich schwachsinn.

Merkst Du was?

Das du Produkte vergleichst, die 1 Jahr auseinanderliegen und das es normal ist, das irgendwann die gleiche Leistung zu einem günstigeren Preis zu haben ist? So ist der Normalfall!

tombman
2007-12-10, 10:34:15
@tombman
ich versteh dich nicht, einerseits lobst du den G92 hoch bis in den himmel und ein posting weiter musst du wieder selbst erkennen das nVidia doch nicht so doof ist.
denn der G80 hat immer noch seine vorteile, wobei diese eher nicht bei der GPU liegen.

Wo ist da jetzt der Widerspruch? Ich kann doch den G92 loben und mich trotzdem freuen, daß er nicht zu stark geworden ist ;)

K4mPFwUr$t
2007-12-10, 10:39:55
wenn man es so sieht ist der G92 nichts ganzen und nicht halbes.

ein G92 mit weniger rohleistung als ein G80 und mehr speicherbandbreite und VRAM wäre auch nicht der brüller. aber ein G92 wie wir in heute kennen + 1GB GDDR4 würde den G80 sicherlich in mehr situationen zersägen. nur dann gibt es kein abverkauf mehr, das will nV nicht ... leider ;D

Gast
2007-12-10, 10:46:57
Das dumme an der Geschichte ist eben, das seit dem Launch des G80 keine richtige Entwicklung stattgefunden hat.

Normal wäre, wenn die damalige Leistung nach einem Jahr zu einem geringeren Preis verfügbar gemacht wird, aber genau das hat NVIDIA nicht geschafft, mangels Konkurrenz.

Bei ATI sieht die Sache ein wenig anders aus. Die neuen HD3870 sind z.B. durchgehend besser als die Vorgängergeneration (X19XX) und hängen in vielen Fällen auch die eigene "Highend" Lösung (HD2900XT) ab.

Warum NVIDIA uns dann trotzdem noch 280€ Karten andrehen will, die an Leistung nicht zugelegt haben, verstehe ich nicht. :)

Razor
2007-12-10, 10:49:19
Die G92 GTS hat MEHR Rohleistung als eine GeForce 8800 GTX. Was folgern wir daraus? Der Käufer möchte HÖHERE Qualitätseinstellungen fahren um das MEHR an Leistung in Qualität umzusetzen.
Unfug...
Er kann jetzt eine sehr leistungsstarke Karte für recht wenig Geld bekommen.
Die GT besetzt wirtschaftlich eine Lücke, für die es vormals gar nichts gab.
Die GTS512 macht das Ganze 'rund' und ersetzt nun eine obsolt gewordene Produktreihe.
Alles schon gesagt.

...wenn ich die Qualität REDUZIERE und das ist für Käufer dieser Klasse eigentlich schwachsinn.
Die Qualität, die eine 88GT heute bietet, war zu dem Preis vorher einfach nicht möglich...

So ist der Normalfall!
Klar.
Vorher waren die GTS einfach zu teuer (GTX/Ultra sind es noch) und das wurde nun korrigiert.

Wo ist da jetzt der Widerspruch? Ich kann doch den G92 loben und mich trotzdem freuen, daß er nicht zu stark geworden ist ;)
:up:

wenn man es so sieht ist der G92 nichts ganzen und nicht halbes.
Eiegntlich könnte man sagen: die GTS (320 und 640) waren "nichts Halbes und nicht Ganzes".
;)

ein G92 mit weniger rohleistung als ein G80 und mehr speicherbandbreite und VRAM wäre auch nicht der brüller. aber ein G92 wie wir in heute kennen + 1GB GDDR4 würde den G80 sicherlich in mehr situationen zersägen. nur dann gibt es kein abverkauf mehr, das will nV nicht ... leider
Was absolut verständlich ist, oder?
Schließlich könnte man dann auch gleich die GTX/Ultra mit 'verreamschen'...
Das ist bei AMD passiert, nicht aber bei nVidia - was dann auch den Erfolg bei nVidia erklärt.

Und: was sollen 1GB VRAM bei gleicher Bandbreite jetzt nochmal genau für Vorteile haben?
Oder meinst Du,d ass damit dann der mickrige Vorteil von 128MB VRAM der GTS ausgeglichen wäre?
Hmmm...

Razor

Byteschlumpf
2007-12-10, 10:50:38
Lohnt sich eigentlich noch eine GTX für unter 400€ oder sollte man besser auf deren Nachfolger warten?

Oder was haltet ihr von der 8800GTS 640MB 320bit mit 112 Shadern @600/900?
http://geizhals.at/deutschland/a298753.html

K4mPFwUr$t
2007-12-10, 10:56:19
so mickrig scheint es ja nicht zu sein wie manche vergleiche zeigen.
128MB sind 128MB. der knackpunkt des G92 ist nunmal VRAM und bandbreite.
würde man die karte vollausbauen, würde man sich selbst in das eigene fleisch schneiden.

bezüglich des themas bandbreite: die GTS1024 hat ja die selbe bandbreite wie die GTS640.
würde man den G92 mit GDDR4 bestücken hätte der G80 bandbreitentechnisch das nachsehen. auch wenn er das breitere SI besitzt.

@byteschlumps
lohnt nur noch bedingt. bei der aufgebohrten G80 GTS gibt es nunmal einen netten aufschlag ;)

Deathcrush
2007-12-10, 11:03:38
Lohnt sich eigentlich noch eine GTX für unter 400€ oder sollte man besser auf deren Nachfolger warten?

Oder was haltet ihr von der 8800GTS 640MB 320bit mit 112 Shadern @600/900?
http://geizhals.at/deutschland/a298753.html

Übertakte deine GTS und du spielst noch weiter oben mit. Warte auf die neue High End Klasse. 600/900 dürfte sie locker schaffen und mit den A3 Stepping sind wohl auch 650/900 drinn, oft auch mehr. Das sind dann rund 25-30% mehr Leistung.

Gast
2007-12-10, 11:10:20
Unfug...

Was du als Unfug ansiehst, ist hier nicht relevant.
Der Käufer, unter anderem ich, hätte das ganz einfach erwartet. Wenn schon mit mehr Rohleistung geprahlt wird, dann bitte so, das ich sie nutzen kann und nicht schlechter darstehe als zuvor.
Fakt ist, nach jetzigem Stand ist dem nicht so, denn die reduzierte Speichermenge ist schon ein arges Hinderniss für hohe Auflösungen und hohen AA-Grad.

Denke mal ein Stück weiter: Was tun Besitzer von TFTs mit 1920x1200 Auflösung nun? Die sind nicht gerade selten. In niedrigen Auflösungen mag die Karte noch ganz gut dastehen(gerade die Auflösungen will ich aber nicht mehr nutzen, wenn ich aufrüste, ein UPGRADE mache), denn dann hätte ich es mir gleich sparen können.

Die Qualität, die eine 88GT heute bietet, war zu dem Preis vorher einfach nicht möglich...

Das bezweifel ich sehr. MÖGLICH war sie schon lange vorher gewesen, nvidia WOLLTE nur nicht. Mangels Konkurrenz, versteht sich.
Das deine Aussage sich nicht an die Realität orientiert, kannst du gerne Anhand der Geschäftszahlen von nvidia überprüfen.

Ich finds nachwievor peinlich, das sie jetzt versuchen uns Kunden zu veräppeln. Fast 300 Euro für eine Karte, die prinzipiell das gleiche bietet, was ich auch schon Ende 2006 hätte erwerben können (und damit selbst heute noch Vorteile habe). Der Preis ist nicht das entscheidende, wenn ich berücksichtige, das ich damals ~450€ hingeblättert habe und dafür die Karte über 13 Monate (!) lang nutzen konnte (und noch weiter nutzen kann), so ist dieser Aufpreis von noch nicht mal 200€ ein echter Witz, denn ob der G92 so lange am Markt bestehen kann, kann dir heute niemand garantieren.

Byteschlumpf
2007-12-10, 11:14:39
Übertakte deine GTS und du spielst noch weiter oben mit. Warte auf die neue High End Klasse. 600/900 dürfte sie locker schaffen und mit den A3 Stepping sind wohl auch 650/900 drinn, oft auch mehr. Das sind dann rund 25-30% mehr Leistung.
Meine A2 GTS laß ich mit 620/1500/920 problemlos laufen, was ja im Grunde vollkommen genügen dürfte.
Die Dualslot-Kühlung des G80 gefällt mir besonders gut, da der Lüfter nicht sonderlich aufdrehen muß, wenn die Karte ordentlich gefordert wird. :)

Sonyfreak
2007-12-10, 11:17:42
Überflüssiger Thread, weil keine vergleichbare Systembasen.Stoppt den Fred - der Meister hat gesprochen. :rolleyes:

Ich finde das Thema hier sehr interessant, und würde mich auch freuen, wenn dargo einen schönen Vergleich zusammenstellen würde. Ich habe nämlich auch die Vermutung, dass eine GT nicht immer schneller ist als eine GTS. Ob das stimmt oder nicht, lässt sich ja nachprüfen.

mfg.

Sonyfreak

Metalmaniac
2007-12-10, 13:32:49
Lohnt sich eigentlich noch eine GTX für unter 400€ oder sollte man besser auf deren Nachfolger warten?

Oder was haltet ihr von der 8800GTS 640MB 320bit mit 112 Shadern @600/900?
http://geizhals.at/deutschland/a298753.html

Die habe ich doch gestern schon angepriesen und bin nur noch wenige Klicks davon entfernt sie mir zu bestellen. Wenn ich genau wüßte daß ich auf meine bestellte AMP von Zotac noch ewig lange weiter warten muß, dann würde ich diese GTS wahrscheinlich sofort bestellen (habe momentan aber noch ein ganz tolles Schnäppchen in Aussicht, mal sehen was damit wird :cool:).

Hakim
2007-12-10, 13:38:10
Denke die neue GTS braucht einfach so 1GB speicher mit 1150-1200 mhz. Dann würde die GTX vermute ich immer das nachsehen haben. Nur wird sowas wohl net kommen (1200mhz speicher).

dargo
2007-12-10, 15:04:22
Das ist aber nicht der Fall, weil es diese >40fps schlicht und einfach nicht gibt. Trau ich mich sagen ohne eine GT zu besitzen- einfach aus Erfahrung mit meiner GTX ;)

Du hast das hier aber schon gesehen oder? Ich sehe da im dritten Lauf 49fps bei Frame 996. :rolleyes:
!TimeDemo Run 0 Finished.
Play Time: 53.90s, Average FPS: 37.10
Min FPS: 19.65 at frame 145, Max FPS: 46.19 at frame 996
Average Tri/Sec: 37608340, Tri/Frame: 1013619
Recorded/Played Tris ratio: 0.90
!TimeDemo Run 1 Finished.
Play Time: 49.14s, Average FPS: 40.70
Min FPS: 19.65 at frame 145, Max FPS: 47.16 at frame 1024
Average Tri/Sec: 41757356, Tri/Frame: 1025875
Recorded/Played Tris ratio: 0.89
!TimeDemo Run 2 Finished.
Play Time: 49.12s, Average FPS: 40.72
Min FPS: 19.65 at frame 145, Max FPS: 49.14 at frame 996
Average Tri/Sec: 41776756, Tri/Frame: 1026013
Recorded/Played Tris ratio: 0.89

Dargo, ich weiß, es muß weh tun, daß die G80 GTS so böse geowned wird, aber da soll man nicht weinen sondern das Teil schleunigts abstoßen und sich eine G92 GT oder gleich besser G92 GTS besorgen ;)
Boah, verschone mich bitte mit deinem Kinderkram. Wenn du nichts vernünftiges zum Thema beizutragen hast dann lasse es bitte. Es geht hier nicht um wer wen owned (was für ein Wort :rolleyes:) sondern darum warum Karte X bei den min.fps nicht Karte Y um X% überholen kann was man eigendlich erwartet hätte.

Stoppt den Fred - der Meister hat gesprochen. :rolleyes:

Ich finde das Thema hier sehr interessant, und würde mich auch freuen, wenn dargo einen schönen Vergleich zusammenstellen würde. Ich habe nämlich auch die Vermutung, dass eine GT nicht immer schneller ist als eine GTS. Ob das stimmt oder nicht, lässt sich ja nachprüfen.

mfg.

Sonyfreak
Danke, wenigstens einer der das Thema verstanden hat. Ich habe gerade von Schrotti mitbekommen, dass er für weitere Tests bereit wäre. Bei Hakim ist es eventuell auch der Fall. Nur Not kann ich auch WinXP32 installieren, auch wenn ich der Meinung bin, dass das nichts bringt.

dargo
2007-12-10, 15:50:35
So, hier noch was zum Grübeln (ich habe wegen besserer Übersicht jetzt nur den dritten Lauf genommen). In allen 3 Fällen geht es um 1280x1024 1xAA/1xAF, high Details.

G8800GTS@G80 mit 513/792Mhz
!TimeDemo Run 2 Finished.
Play Time: 72.88s, Average FPS: 27.44
Min FPS: 21.09 at frame 1957, Max FPS: 32.50 at frame 75
Average Tri/Sec: 28040968, Tri/Frame: 1021797
Recorded/Played Tris ratio: 0.90

G8800GTS@G80 mit 612/945Mhz
!TimeDemo Run 2 Finished.
Play Time: 61.42s, Average FPS: 32.56
Min FPS: 25.18 at frame 1953, Max FPS: 38.81 at frame 79
Average Tri/Sec: 33255792, Tri/Frame: 1021240
Recorded/Played Tris ratio: 0.90

G8800GT mit 660/900Mhz
!TimeDemo Run 2 Finished.
Play Time: 49.12s, Average FPS: 40.72
Min FPS: 19.65 at frame 145, Max FPS: 49.14 at frame 996
Average Tri/Sec: 41776756, Tri/Frame: 1026013
Recorded/Played Tris ratio: 0.89


1. Bei meiner GTS habe ich die GPU und Speicherleistung um je 19,3% erhöht. Die min. und max.fps sind praktisch exakt um diesen Wert gestiegen. Nur die avg.fps weichen um ~0,5% ab. Das zähle ich eher zur Messtoleranz.
2. Obwohl die G8800GT von der Rohleistung her immer noch vor meiner übertakteten GTS vorne liegt (dabei sollte man auch nicht den im Verhälnis höheren Shadertakt der G8800GT vergessen) ist sie bei den min.fps 22% langsamer als die übertaktete GTS. Oder die übertaktete GTS ist halt 28% schneller als die GT, je nachdem wie mans sieht.

Ich hoffe jetzt ist es klar worum es mir überhaupt hier geht.

Sonyfreak
2007-12-10, 16:11:14
Die Stellen wo die maximale und die minimale FPS-Rate auftreten divergieren auch deutlich zwischen G80(OC + ohne OC) und G92. Deutet darauf hin, dass jeweils ein anderer Faktor die Leistung einschränkt.

mfg.

Sonyfreak

Gast
2007-12-10, 17:10:36
So, hier noch was zum Grübeln (ich habe wegen besserer Übersicht jetzt nur den dritten Lauf genommen). In allen 3 Fällen geht es um 1280x1024 1xAA/1xAF, high Details.

G8800GTS@G80 mit 513/792Mhz
!TimeDemo Run 2 Finished.
Play Time: 72.88s, Average FPS: 27.44
Min FPS: 21.09 at frame 1957, Max FPS: 32.50 at frame 75
Average Tri/Sec: 28040968, Tri/Frame: 1021797
Recorded/Played Tris ratio: 0.90

G8800GTS@G80 mit 612/945Mhz
!TimeDemo Run 2 Finished.
Play Time: 61.42s, Average FPS: 32.56
Min FPS: 25.18 at frame 1953, Max FPS: 38.81 at frame 79
Average Tri/Sec: 33255792, Tri/Frame: 1021240
Recorded/Played Tris ratio: 0.90

G8800GT mit 660/900Mhz
!TimeDemo Run 2 Finished.
Play Time: 49.12s, Average FPS: 40.72
Min FPS: 19.65 at frame 145, Max FPS: 49.14 at frame 996
Average Tri/Sec: 41776756, Tri/Frame: 1026013
Recorded/Played Tris ratio: 0.89


1. Bei meiner GTS habe ich die GPU und Speicherleistung um je 19,3% erhöht. Die min. und max.fps sind praktisch exakt um diesen Wert gestiegen. Nur die avg.fps weichen um ~0,5% ab. Das zähle ich eher zur Messtoleranz.
2. Obwohl die G8800GT von der Rohleistung her immer noch vor meiner übertakteten GTS vorne liegt (dabei sollte man auch nicht den im Verhälnis höheren Shadertakt der G8800GT vergessen) ist sie bei den min.fps 22% langsamer als die übertaktete GTS. Oder die übertaktete GTS ist halt 28% schneller als die GT, je nachdem wie mans sieht.

Ich hoffe jetzt ist es klar worum es mir überhaupt hier geht.

Wenn die min FPS wirklich längere Zeit auftreten, wieso sind dann wohl die AVG FPS um ca 50 % besser. Denn die müssten ja auch ordentlich beeinflusst werden.
Das ist wahrscheinlich irgendeine kleine Szene beim schwenken der Kamera oder aber ein Treiberproblem mehr nicht.

dargo
2007-12-10, 17:46:19
Wenn die min FPS wirklich längere Zeit auftreten, wieso sind dann wohl die AVG FPS um ca 50 % besser.

Das ist es ja gerade was ich herausfinden will - wie lange/oft gehen die Frames so runter.


Das ist wahrscheinlich irgendeine kleine Szene beim schwenken der Kamera oder aber ein Treiberproblem mehr nicht.
Ich tippe eher auf Treiberblasen.

PS: bald kann ich Frameverläufe liefern. :)

Hakim
2007-12-10, 20:27:18
@dargo ka warum bei euere GT die min wieder so niedrig sind

gt@720/1728/1013 mhz

DX9 1280x1024, AA=No AA, Vsync=Disabled, 32 bit test, FullScreen
Demo Loops=3, Time Of Day= 9
Global Game Quality: High
==============================================================
TimeDemo Play Started , (Total Frames: 2000, Recorded Time: 111.86s)
!TimeDemo Run 0 Finished.
Play Time: 52.01s, Average FPS: 38.46
Min FPS: 24.46 at frame 153, Max FPS: 49.91 at frame 993
Average Tri/Sec: 37876156, Tri/Frame: 984933
Recorded/Played Tris ratio: 0.93
!TimeDemo Run 1 Finished.
Play Time: 48.06s, Average FPS: 41.61
Min FPS: 24.46 at frame 153, Max FPS: 51.49 at frame 1000
Average Tri/Sec: 41417540, Tri/Frame: 995350
Recorded/Played Tris ratio: 0.92
!TimeDemo Run 2 Finished.
Play Time: 48.12s, Average FPS: 41.57
Min FPS: 24.46 at frame 153, Max FPS: 51.49 at frame 1000
Average Tri/Sec: 41410388, Tri/Frame: 996270
Recorded/Played Tris ratio: 0.92

Schrotti
2007-12-10, 22:07:57
@dargo ka warum bei euere GT die min wieder so niedrig sind

gt@720/1728/1013 mhz

DX9 1280x1024, AA=No AA, Vsync=Disabled, 32 bit test, FullScreen
Demo Loops=3, Time Of Day= 9
Global Game Quality: High
==============================================================
TimeDemo Play Started , (Total Frames: 2000, Recorded Time: 111.86s)
!TimeDemo Run 0 Finished.
Play Time: 52.01s, Average FPS: 38.46
Min FPS: 24.46 at frame 153, Max FPS: 49.91 at frame 993
Average Tri/Sec: 37876156, Tri/Frame: 984933
Recorded/Played Tris ratio: 0.93
!TimeDemo Run 1 Finished.
Play Time: 48.06s, Average FPS: 41.61
Min FPS: 24.46 at frame 153, Max FPS: 51.49 at frame 1000
Average Tri/Sec: 41417540, Tri/Frame: 995350
Recorded/Played Tris ratio: 0.92
!TimeDemo Run 2 Finished.
Play Time: 48.12s, Average FPS: 41.57
Min FPS: 24.46 at frame 153, Max FPS: 51.49 at frame 1000
Average Tri/Sec: 41410388, Tri/Frame: 996270
Recorded/Played Tris ratio: 0.92

Dann mach doch mal.

Max. Qualität im Treiber und auf 660/1600/900.

desert
2007-12-10, 22:33:04
das ist meine gt mit 4 aa

10.12.2007 21:09:16 - XP
Beginning Run #1 on Map-island, Demo-benchmark_gpu
DX9 1280x1024, AA=4x, Vsync=Disabled, 32 bit test, FullScreen
Demo Loops=3, Time Of Day= 9
Global Game Quality: High
==============================================================
TimeDemo Play Started , (Total Frames: 2000, Recorded Time: 111.86s)
!TimeDemo Run 0 Finished.
Play Time: 68.91s, Average FPS: 29.02
Min FPS: 16.65 at frame 144, Max FPS: 36.31 at frame 986
Average Tri/Sec: 29623800, Tri/Frame: 1020714
Recorded/Played Tris ratio: 0.90
!TimeDemo Run 1 Finished.
Play Time: 65.31s, Average FPS: 30.62
Min FPS: 16.65 at frame 144, Max FPS: 37.07 at frame 999
Average Tri/Sec: 31626628, Tri/Frame: 1032772
Recorded/Played Tris ratio: 0.89
!TimeDemo Run 2 Finished.
Play Time: 65.30s, Average FPS: 30.63
Min FPS: 16.65 at frame 144, Max FPS: 37.07 at frame 999
Average Tri/Sec: 31652866, Tri/Frame: 1033457
Recorded/Played Tris ratio: 0.89
TimeDemo Play Ended, (3 Runs Performed)
==============================================================

Completed All Tests

<><><><><><><><><><><><><>>--SUMMARY--<<><><><><><><><><><><><><>

10.12.2007 21:09:16 - XP

Run #1- DX9 1280x1024 AA=4x, 32 bit test, Quality: High ~~ Overall Average FPS: 3062,5


und jetzt ohne

10.12.2007 21:05:22 - XP
Beginning Run #1 on Map-island, Demo-benchmark_gpu
DX9 1280x1024, AA=No AA, Vsync=Disabled, 32 bit test, FullScreen
Demo Loops=3, Time Of Day= 9
Global Game Quality: High
==============================================================
TimeDemo Play Started , (Total Frames: 2000, Recorded Time: 111.86s)
!TimeDemo Run 0 Finished.
Play Time: 53.18s, Average FPS: 37.61
Min FPS: 20.37 at frame 140, Max FPS: 46.92 at frame 1004
Average Tri/Sec: 37200424, Tri/Frame: 989239
Recorded/Played Tris ratio: 0.93
!TimeDemo Run 1 Finished.
Play Time: 47.67s, Average FPS: 41.96
Min FPS: 20.37 at frame 140, Max FPS: 50.03 at frame 1012
Average Tri/Sec: 41949352, Tri/Frame: 999836
Recorded/Played Tris ratio: 0.92
!TimeDemo Run 2 Finished.
Play Time: 47.68s, Average FPS: 41.94
Min FPS: 20.37 at frame 140, Max FPS: 50.65 at frame 1003
Average Tri/Sec: 41984860, Tri/Frame: 1000955
Recorded/Played Tris ratio: 0.92
TimeDemo Play Ended, (3 Runs Performed)
==============================================================

Completed All Tests

<><><><><><><><><><><><><>>--SUMMARY--<<><><><><><><><><><><><><>

10.12.2007 21:05:22 - XP

Run #1- DX9 1280x1024 AA=No AA, 32 bit test, Quality: High ~~ Overall Average FPS: 4195

bin jetzt aber noch sehr billig an eine 8800 gts 640 mit 112 alu´s gekommen, werden die dann mal gegen meine gt testen. werde testen mit crysis, lost planet demo, coh, und 3dmark xp,vista und mit aa und ohne aa. Mal schauen welche dann besser ist

Hakim
2007-12-10, 23:28:16
Dann mach doch mal.

Max. Qualität im Treiber und auf 660/1600/900.

werde ich gleich mal machen..schaue grad fern. Aber max qauli ist bei mir immer eingestellt.

Edit:
http://666kb.com/i/au9eagudu6i8ckd8d.jpg

tombman
2007-12-11, 01:27:07
Du hast das hier aber schon gesehen oder? Ich sehe da im dritten Lauf 49fps bei Frame 996. :rolleyes:
Schau, du willst nicht verstehen, daß MIN und MAX PUNKTUELLE Werte sind, die KEINERLEI BEDEUTUNG haben. Das sind nur "Schluckaufs" des Rechners. Die AVGs zeigen wie leistungsfähig eine Karte ist, und da WIRD die G80 GTS nun mal von den G92ern GEOWNED.
Andere habens verstanden, siehe hier:
Die Stellen wo die maximale und die minimale FPS-Rate auftreten divergieren auch deutlich zwischen G80(OC + ohne OC) und G92. Deutet darauf hin, dass jeweils ein anderer Faktor die Leistung einschränkt.

und hier:
Wenn die min FPS wirklich längere Zeit auftreten, wieso sind dann wohl die AVG FPS um ca 50 % besser. Denn die müssten ja auch ordentlich beeinflusst werden.
Das ist wahrscheinlich irgendeine kleine Szene beim schwenken der Kamera oder aber ein Treiberproblem mehr nicht.

Wenn du was beweisen willst, dann mußt schon mit einem Frameverlauf antanzen ;)
Am besten mit einer prozentuellen Einteilung (wieviel % unter 30fps, unter 25fps, unter 20fps etc...)

aths
2007-12-11, 02:59:13
Aber wenns hard auf hard kommt...
http://www.picupload.net/f-5d929cd5333a5a3e6e105d191c384734.png
Klarer Fall von Speicherbandbreitenmangel (oder Größe)
Auf 1440x900 liegt sie noch vorn, um dann immer mehr abzukacken.Abkacken würde ich das nicht nennen. Aber kommt es hart auf hart, setzt sich sogar noch die Ultra von der GTX ab. Ist ja auch logisch.

Die GT ist nicht als 8800-GTX-Ersatz gedacht, in Richtung GTX-Ersatz marschiert vielleicht die neue GTS-512.

Schau, du willst nicht verstehen, daß MIN und MAX PUNKTUELLE Werte sind, die KEINERLEI BEDEUTUNG haben. Das sind nur "Schluckaufs" des Rechners. Die AVGs zeigen wie leistungsfähig eine Karte ist, und da WIRD die G80 GTS nun mal von den G92ern GEOWNED.Average-fps alleine sagt ziemlich wenig, siehe SLI-Mikrorucker-Problem. Man benötigt neben dem Durchschnitt mindestens noch die Varianz oder Standardabweichung.

So ist es eigentlich IMMER!
Schau Dir einfach nur die 88GTX vs. 88Ultra, denn letztere ist auch nur eine OC'te GTX...Nö, für die Ultra wurde eine neue Chip-Revision entwickelt. Ohne A3 hätte es keine Ultra gegeben. Außerdem lässt sich die Ultra auch noch übertakten.

nV hat die specs so verteilt das der G92, rein theoretisch von der rohleistung vorne liegt. aber das VRAM und bandbreite einfach zu gering sind.NV entwickelte die Karte so, dass sie ohne echtes Chip-Neudesign auskommen. Die Texturierungsleistung des G92 kann nicht ausgenutzt werden, aber die Shaderleistung. Vermutlich war es preiswerter, größere Chips zu haben (wo "zu viele" TMUs eingebaut sind) als den Chip zu überarbeiten.

tombman
2007-12-11, 03:58:21
Die GT ist nicht als 8800-GTX-Ersatz gedacht, in Richtung GTX-Ersatz marschiert vielleicht die neue GTS-512.
Auch die GTS kackt ab, siehe 1920x1200.

Average-fps alleine sagt ziemlich wenig, siehe SLI-Mikrorucker-Problem. Man benötigt neben dem Durchschnitt mindestens noch die Varianz oder Standardabweichung.
Single Karten zeigen keine schlechte frame-Verteilung, das Problem besteht nur bei Multi.Gpu und AFR.

nomadhunter
2007-12-11, 14:07:00
Average-fps alleine sagt ziemlich wenig, siehe SLI-Mikrorucker-Problem. Man benötigt neben dem Durchschnitt mindestens noch die Varianz oder Standardabweichung.
Zumindest sagen Avg FPS aber in den meisten Fällen mehr aus als Min FPS. Aber ein Frameverlauf oder zumindest eine Angabe, wieviel Prozent unter 30fps oder so ist natürlich noch besser.

K4mPFwUr$t
2007-12-11, 14:31:17
@tombman
die AVG werte sagen genau so wenig aus wie MIN und MAX werte.
ein verlauf würde hier viel mehr aussagen.

von daher bleibt nur ein FPS verlauf was. wo eine linie eingetragen ist, ab wann die ganze sache flüssig ist (vorschlagsweise 60FPS). wenn man dann zwischen low- und high end vergleicht, wird man deutlich sehen das die gemessenen werte im allgemeinen höher liegen.

ist aber schwer zu erklären, hoffe man verstehts :biggrin:

Hakim
2007-12-11, 14:37:57
Ich würde ja gerne eine Frameverlauf posten. Komme nur net ganz mit dem Funktion beim Rivatuner klar.

Byteschlumpf
2007-12-11, 14:43:36
@tombman
die AVG werte sagen genau so wenig aus wie MIN und MAX werte.
ein verlauf würde hier viel mehr aussagen.

von daher bleibt nur ein FPS verlauf was. wo eine linie eingetragen ist, ab wann die ganze sache flüssig ist (vorschlagsweise 60FPS). wenn man dann zwischen low- und high end vergleicht, wird man deutlich sehen das die gemessenen werte im allgemeinen höher liegen.

ist aber schwer zu erklären, hoffe man verstehts :biggrin:
Korrekt! Erst anhand des FPS-Verlaufs sieht man, an welchen Stellen die Hardware besonders gefordert ist!
Im Crysis-GPU_Bench steigen die fps, wenn die Kamera gen Himmel zeigt deutlich an (wo nicht viel zu rendern ist) und sinken auf weniger als die Hälfte ab, wenn zahlreiche Bäume, und weitere aufwändige Strukturen ins Bild kommen.

Da sich die Spielfigur zumeist aber dicht über den Boden bewegt, wo viele Objekte die Grafikkarte sehr fordern, ist das FPS-Niveau dann auch entsprechend niedriger und man ist gezwungen, hier und dort die Detailstufe nach unten zu regulieren, um mit brauchbarer Framerate spielen zu können.

dargo
2007-12-11, 15:59:42
Schau, du willst nicht verstehen, daß MIN und MAX PUNKTUELLE Werte sind, die KEINERLEI BEDEUTUNG haben. Das sind nur "Schluckaufs" des Rechners.

Ich frage mich gerade wer hier was nicht versteht. :rolleyes:

1. Erst anhand von min.fps sehe ich zb. Werte die auf einen Vram-Mangel hindeuten können. Bei den avg. Werten sieht man es nicht solange der Vram nur in bestimmten (wenigen) Szenen nicht ausreicht.

2. Das sind auch keine Schluckaufs. :D
Die max.fps deuten einfach auf eine Szene hin die geringere Anforderung an die Grafikkarte stellt.

So, hier nun mein Diagramm, auf die Werte der G8800GT von Schrotti warte ich immer noch.

http://img4.imagebanana.com/img/24azehx7/G80.PNG

Ein Diagramm mit Frametimes wäre wohl genauer/besser. Leider weiß ich nicht wie ich mit den Frametimes umgehen soll. Vielleicht kann mir das jemand erklären?

Zu deinem Schluckauf. Warum verschluckt sich die G8800GT bzw. der G92 dann so extrem? Das ist das Einzige was ich in diesem Thread herausfinden möchte.

K4mPFwUr$t
2007-12-11, 16:42:19
@dargo
gold richtig deine aussage ;)

ich vermute mal das der VRAM einfach zu knapp wird. das sieht man gut daran das bei einigen benches die 3850 + 3870 troz geringerer rohleistung vorne liegen. grund kann hier nur sein das nV bei 512MB in der speicherverwaltung das nachsehen hat. wo da hingegen ati punkten kann.

dargo
2007-12-11, 16:45:58
ich vermute mal das der VRAM einfach zu knapp wird.
:usad:

Ich habe schon mehrmals gesagt, dass der Vram in 1280x1024 1xAA/1xAF bei dieser Timedemo mit max. 432MB nicht limitiert. Ich habe das natürlich nur mit dem G80 gemessen. Es würde mich aber sehr wundern wenn der G92 plötzlich in der gleichen Timedemo mit gleichen Grafiksettings >512MB bräuchte.

syronth
2007-12-11, 17:06:55
Warum verschluckt sich die G8800GT bzw. der G92 dann so extrem?

Hä? Extremes Verschlucken? Wo? Bislang seh ich nur, dass die Min-FPS beim G80 anderswo liegen als beim G92. Hab den Bench auch mal wieder laufen lassen, spare mir aber Screenies, da es sich von den bereits geposteten nicht signifikant unterscheidet - verschlucken tat sich da nichts.

dargo
2007-12-11, 17:27:14
Hä? Extremes Verschlucken? Wo?
Öhm, fassen wir nochmal zusammen.

G8800GT512@660/900Mhz
min. 19,65 / avg. 40,72 / max. 49,14

G8800GTS640@G80@513/792Mhz
min. 21,09 / avg. 27,44 / 32,50

Wer "verschluckt" sich hier wohl extremer? Ich meine die Differenz zwischen zb. min. und avg.

Sonyfreak
2007-12-11, 17:32:50
Warum testet ihr eigentlich eine übertaktete 8800GT(660/900 statt normal 600/900 (http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gt_sli/2/#abschnitt_technische_daten)) gegen eine Standard 8800GTS? Wenn schon so ein Vergleich, dann bitte auch mit Standardtaktraten würde ich vorschlagen.
Interessant wäre meiner Meinung nach auch ein Vergleich mit identischen Taktraten.

mfg.

Sonyfreak

Hakim
2007-12-11, 17:55:23
hier stürzt man sich ständig auf die werte einer GT wo die Min werte sehr niedrig ausfallen (ka warum). Habe jetzt mehrmals gezeigt das es bei mir nicht so ist. Von daher verstehe ich nicht warum hier weiter darauf aufgebaut wird. Ich nehme meine Min werte 23-24 fps Nichtmal wahr obwohl ich ständig auf die FPS werte schaue. Bis auf die ersten Sekunden, wo mal für ein Bruchteil einer Sekunde die 2x.xx fps zu sehen sind läuft es sehr gut. Danach sieht man keine 2x.xx mehr weil es nicht mehr unter 30 fällt.

LovesuckZ
2007-12-11, 17:56:28
http://img4.imagebanana.com/img/24azehx7/G80.PNG


Vollkommen anderes System mit Vista 32bit und 8800GT @ Standard, aber gleicher Frameverlauf:

http://www.imgimg.de/uploads/8800gtd5b6abb9jpg.jpg

Ich wette, bei einem XP User würde man die angezeigten minfps nicht per Fraps sehen.

TimeDemo Play Started , (Total Frames: 2000, Recorded Time: 111.86s)
!TimeDemo Run 0 Finished.
Play Time: 74.37s, Average FPS: 26.89
Min FPS: 16.91 at frame 138, Max FPS: 35.80 at frame 991
Average Tri/Sec: 27193992, Tri/Frame: 1011185
Recorded/Played Tris ratio: 0.91
!TimeDemo Run 1 Finished.
Play Time: 69.05s, Average FPS: 28.96
Min FPS: 16.91 at frame 138, Max FPS: 35.80 at frame 991
Average Tri/Sec: 29596126, Tri/Frame: 1021878
Recorded/Played Tris ratio: 0.90

dargo
2007-12-11, 18:08:52
Warum testet ihr eigentlich eine übertaktete 8800GT(660/900 statt normal 600/900 (http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gt_sli/2/#abschnitt_technische_daten)) gegen eine Standard 8800GTS? Wenn schon so ein Vergleich, dann bitte auch mit Standardtaktraten würde ich vorschlagen.
Interessant wäre meiner Meinung nach auch ein Vergleich mit identischen Taktraten.

mfg.

Sonyfreak
Es ist doch völlig egal ob die GT mit 600 oder 660Mhz bei der GPU taktet. Ist es denn so schwer zu verstehen was ich mit diesem Thread bezwecken will? :usad:
Schau dir doch mal die Zahlen im Post #115 an. Überlege jetzt ein wenig... fällt dir nichts dabei auf? :)

Vollkommen anderes System mit Vista 32bit und 8800GT @ Standard, aber gleicher Frameverlauf:

http://www.imgimg.de/uploads/8800gtd5b6abb9jpg.jpg

Ich wette, bei einem XP User würde man die angezeigten minfps nicht per Fraps sehen.

TimeDemo Play Started , (Total Frames: 2000, Recorded Time: 111.86s)
!TimeDemo Run 0 Finished.
Play Time: 74.37s, Average FPS: 26.89
Min FPS: 16.91 at frame 138, Max FPS: 35.80 at frame 991
Average Tri/Sec: 27193992, Tri/Frame: 1011185
Recorded/Played Tris ratio: 0.91
!TimeDemo Run 1 Finished.
Play Time: 69.05s, Average FPS: 28.96
Min FPS: 16.91 at frame 138, Max FPS: 35.80 at frame 991
Average Tri/Sec: 29596126, Tri/Frame: 1021878
Recorded/Played Tris ratio: 0.90
Der Frameverlauf sieht ziemlich gleich aus. Hast du aber mit AA gebencht? Die Werte sehen etwas tief aus. Benche mal bitte mit 1280x1024 1xAA/1xAF high Details (nur original cfg Dateien, keine Tweaks!), FW169.17 und folgenden Settings:
http://img4.imagebanana.com/img/oi9bcdoh/NV_Teil1.PNGhttp://img4.imagebanana.com/img/wzufzld2/NV_Teil2.PNG
Welche CPU hast du und wie hoch ist diese getaktet?

LovesuckZ
2007-12-11, 18:22:21
Welche CPU hast du und wie hoch ist diese getaktet?

X²@2720Mhz.
Ich wollte nur schnell zeigen, dass trotz Vista und einer schwächeren Infrastuktur die Framesverläuf zu deinem Ergebnis ähnlich ist. Somit wird die GT bei jemanden mit der deinesgleichen Infrastruktur fast genauso aussehen.

Hakim
2007-12-11, 18:42:02
ok hier ein frameverlaufe (bin laie daher etwas rücksicht)! Hab mit fraps benchmarklaufen lassen und dann einen liniendiagram mit excel erstellt.

GT@Default also 600/1500/900 mhz

Vom zweiten Lauf!!

http://666kb.com/i/aua6nqq3pvu62baky.jpg

DX9 1280x1024, AA=No AA, Vsync=Disabled, 32 bit test, FullScreen
Demo Loops=3, Time Of Day= 9
Global Game Quality: High
==============================================================
TimeDemo Play Started , (Total Frames: 2000, Recorded Time: 111.86s)
!TimeDemo Run 0 Finished.
Play Time: 59.17s, Average FPS: 33.80
Min FPS: 22.37 at frame 1978, Max FPS: 44.78 at frame 990
Average Tri/Sec: 33284458, Tri/Frame: 984791
Recorded/Played Tris ratio: 0.93
!TimeDemo Run 1 Finished.
Play Time: 54.32s, Average FPS: 36.82
Min FPS: 22.37 at frame 1978, Max FPS: 44.78 at frame 990
Average Tri/Sec: 36650244, Tri/Frame: 995340
Recorded/Played Tris ratio: 0.92

wie man sehen kann sieht man bei mir nicht mal die 22,37 fps auf den diagramm. Ich vermute das ist ganz am anfang in den ersten Sekunden für den bruchteil einer sek.

syronth
2007-12-11, 18:45:17
Wer "verschluckt" sich hier wohl extremer?

"Verschlucken" halte ich für eine recht irreführende Umschreibung, ich assoziiere damit spür-/sichtbare Aussetzer. Hier ist nur die Spannweite zwischen Min und Max etwas größer, "verschlucken" tut sich da nichts. Außerdem:

G8800GT512@660/900Mhz
min. 19,65 / avg. 40,72 / max. 49,14

Wo kommen DIE Werte her?! Sieht aus wie zusammengepackt aus verschiedenen Benches, wahlweise mit 4xAA (min-FSP) und ohne (Max-FPS), dann Avg-FPS von 40,72?! Öhm - du konstruierst da schlicht gerade etwas, was mit der Realität gar nichts zu tun hat, Dargo ...

Ich hab mir meine eigenen Benches doch mal näher angesehen, die sehen allerdings anders aus. (Original Zotac 8800GT/512 Takte: 660/1600/900):

Vista32
DX9 1280x1024, AA=No AA, Vsync=Disabled, 32 bit test, FullScreen
Global Game Quality: High
=============================================================
TimeDemo Play Started , (Total Frames: 2000, Recorded Time: 111.86s)
!TimeDemo Run 0 Finished.
Play Time: 57.86s, Average FPS: 34.57
Min FPS: 26.44 at frame 165, Max FPS: 45.76 at frame 996
Average Tri/Sec: 34054484, Tri/Frame: 985228
Recorded/Played Tris ratio: 0.93
!TimeDemo Run 1 Finished.
Play Time: 53.00s, Average FPS: 37.74
Min FPS: 26.44 at frame 165, Max FPS: 46.90 at frame 1011
Average Tri/Sec: 37566952, Tri/Frame: 995529
Recorded/Played Tris ratio: 0.92
!TimeDemo Run 2 Finished.
Play Time: 52.87s, Average FPS: 37.83
Min FPS: 26.31 at frame 1956, Max FPS: 47.90 at frame 1003
Average Tri/Sec: 37689776, Tri/Frame: 996377
Recorded/Played Tris ratio: 0.92
TimeDemo Play Ended, (3 Runs Performed)
==============================================================

Das rotmarkierte ist mir gerade aufgefallen und ist garantiert NICHT gefaked, um dich zu ärgern. Der Vollständigkeit halber das ganze nochmal mit 4xAA, ohne diesen Ausreißer allerdings:

Vista32
DX9 1280x1024, AA=4x, Vsync=Disabled, 32 bit test, FullScreen
Global Game Quality: High
==============================================================
TimeDemo Play Started , (Total Frames: 2000, Recorded Time: 111.86s)
!TimeDemo Run 0 Finished.
Play Time: 74.80s, Average FPS: 26.74
Min FPS: 19.51 at frame 141, Max FPS: 34.02 at frame 1003
Average Tri/Sec: 27202656, Tri/Frame: 1017337
Recorded/Played Tris ratio: 0.90
!TimeDemo Run 1 Finished.
Play Time: 71.94s, Average FPS: 27.80
Min FPS: 19.51 at frame 141, Max FPS: 34.26 at frame 1010
Average Tri/Sec: 28598776, Tri/Frame: 1028651
Recorded/Played Tris ratio: 0.89
!TimeDemo Run 2 Finished.
Play Time: 72.04s, Average FPS: 27.76
Min FPS: 19.51 at frame 141, Max FPS: 34.26 at frame 1010
Average Tri/Sec: 28563732, Tri/Frame: 1028879
Recorded/Played Tris ratio: 0.89
TimeDemo Play Ended, (3 Runs Performed)
==============================================================

dargo
2007-12-11, 19:05:59
Wo kommen DIE Werte her?!

Von Schrotti, steht alles im ersten Post. :)



Ich hab mir meine eigenen Benches doch mal näher angesehen, die sehen allerdings anders aus. (Original Zotac 8800GT/512 Takte: 660/1600/900):

Vista32
DX9 1280x1024, AA=No AA, Vsync=Disabled, 32 bit test, FullScreen
Global Game Quality: High
=============================================================
TimeDemo Play Started , (Total Frames: 2000, Recorded Time: 111.86s)
!TimeDemo Run 0 Finished.
Play Time: 57.86s, Average FPS: 34.57
Min FPS: 26.44 at frame 165, Max FPS: 45.76 at frame 996
Average Tri/Sec: 34054484, Tri/Frame: 985228
Recorded/Played Tris ratio: 0.93
!TimeDemo Run 1 Finished.
Play Time: 53.00s, Average FPS: 37.74
Min FPS: 26.44 at frame 165, Max FPS: 46.90 at frame 1011
Average Tri/Sec: 37566952, Tri/Frame: 995529
Recorded/Played Tris ratio: 0.92
!TimeDemo Run 2 Finished.
Play Time: 52.87s, Average FPS: 37.83
Min FPS: 26.31 at frame 1956, Max FPS: 47.90 at frame 1003
Average Tri/Sec: 37689776, Tri/Frame: 996377
Recorded/Played Tris ratio: 0.92
TimeDemo Play Ended, (3 Runs Performed)
==============================================================

Danke, das sieht schon ganz anders aus. Es sind zwar "nur" ~25% mehr bei den min.fps als bei mir. Aber immer noch deutlich besser als nichts, bzw. sogar weniger wie auf der ersten Seite zu sehen ist. Ich vermute langsam, es liegt am System von Schrotti oder an falschen Treibersettings. Leider meldet er sich nicht mehr. :(

syronth
2007-12-11, 19:31:41
Sorry für den "Konstruierer"-Vorwurf, Schrotti's Bench aus Post 1 schaut tatsächlich so aus, das hatte ich zu Anfang noch gar nicht so wahrgenommen. :redface:

Play Time: 49.12s, Average FPS: 40.72
Min FPS: 19.65 at frame 145, Max FPS: 49.14 at frame 996

meiner:
Play Time: 53.00s, Average FPS: 37.74
Min FPS: 26.44 at frame 165, Max FPS: 46.90 at frame 1011

Direkt verglichen mit Schrotti's Benches schaut das von GT zu GT schon seltsam aus. Er hat höhere Max-FPS, aber deutlich niedrigere Min-FPS. Allerdings benchte er unter XP, ich unter Vista - doof, dass ich unter XP nicht mehr benchen kann.

dargo
2007-12-11, 19:34:40
@syronth
Benchst du unter Vista im DX10 oder DX9 Modus, sprich mit dem -DX9 Anhängsel?

Hakim
2007-12-11, 19:36:23
ich hab unter DX10 64Bit modus höhere min werte aber dafür weniger avg und max werte (auf 1280x1024 ohne AA/AF)

syronth
2007-12-11, 19:38:28
Die Benches sind unter DX9 gelaufen, klar, ich verwende hierzu auch das Crysis-Bench-Tool.

Schrotti
2007-12-11, 21:17:02
Ich frage mich gerade wer hier was nicht versteht. :rolleyes:

1. Erst anhand von min.fps sehe ich zb. Werte die auf einen Vram-Mangel hindeuten können. Bei den avg. Werten sieht man es nicht solange der Vram nur in bestimmten (wenigen) Szenen nicht ausreicht.

2. Das sind auch keine Schluckaufs. :D
Die max.fps deuten einfach auf eine Szene hin die geringere Anforderung an die Grafikkarte stellt.

So, hier nun mein Diagramm, auf die Werte der G8800GT von Schrotti warte ich immer noch.


Ein Diagramm mit Frametimes wäre wohl genauer/besser. Leider weiß ich nicht wie ich mit den Frametimes umgehen soll. Vielleicht kann mir das jemand erklären?

Zu deinem Schluckauf. Warum verschluckt sich die G8800GT bzw. der G92 dann so extrem? Das ist das Einzige was ich in diesem Thread herausfinden möchte.


Habe ich dir gestern schon an deine Mailadresse geschickt.

PS: Ich kann auch mit Windows Vista 32bit dienen.

Gast
2007-12-11, 21:51:43
Der Crysis-Benchmark ist sowieso irgendwie Komisch, denn man erhält oft sehr unterschiedliche Ergebnise ist mir aufgefallen.
Z.b. wenn ich "r_TexturesStreaming" auf 0 setzte hab ich mehr Min. Frames, aber im game läuft es genauso wie sonst.

fulgore1101
2007-12-11, 22:09:01
omg,wer ist denn so dumm und denkt eine g92 gt ist schneller als eine g80gts 640?? das sind doch alles nullchecker. die ganzen reviews und benches sind gefakt. den grund wirst du sicherlich kennen! also alle die eine gts 640 haben sollten auf keinen fall zu einer g92 gt wechseln. wozu auch, man tauscht ja seine graka nicht gegen eine langsamere aus...

fulgore1101
2007-12-11, 22:10:04
doppelpost sry, ich war grade so aufgeregt =)

Schrotti
2007-12-11, 22:17:10
Und du bist narürlich der ganz große Checker.

Informiere dich genauer denn die 8800GT ist schneller als eine 8800TS 640.

Superheld
2007-12-11, 22:28:36
Jo was ist denn nun richtig bei den Min Fps:|

Schrotti
2007-12-11, 23:36:56
Ich frage mich gerade wer hier was nicht versteht. :rolleyes:

1. Erst anhand von min.fps sehe ich zb. Werte die auf einen Vram-Mangel hindeuten können. Bei den avg. Werten sieht man es nicht solange der Vram nur in bestimmten (wenigen) Szenen nicht ausreicht.

2. Das sind auch keine Schluckaufs. :D
Die max.fps deuten einfach auf eine Szene hin die geringere Anforderung an die Grafikkarte stellt.

So, hier nun mein Diagramm, auf die Werte der G8800GT von Schrotti warte ich immer noch.

http://img4.imagebanana.com/img/24azehx7/G80.PNG

Ein Diagramm mit Frametimes wäre wohl genauer/besser. Leider weiß ich nicht wie ich mit den Frametimes umgehen soll. Vielleicht kann mir das jemand erklären?

Zu deinem Schluckauf. Warum verschluckt sich die G8800GT bzw. der G92 dann so extrem? Das ist das Einzige was ich in diesem Thread herausfinden möchte.

Ich hänge meine eben schnell gemachte Übersicht hier ran (du bist ja net da).

(Man sieht ja wo der Übergang von Benchrunde 2 auf 3 ist).

http://www.abload.de/img/dargo_fps9t5.png (http://www.abload.de/image.php?img=dargo_fps9t5.png)

Gast
2007-12-12, 01:05:45
ich hatte mit den werten getestet und kam zu dem schluss das meine alte gts bei 1680*1050+4aa+16af wenn es möglich war immer besser lief(nicht bezogen auf crysis sonder allgemein),zudem muss ich sagen ist die gts leiser und wird nicht so heiss.das einzige wo die gt karte wirklich davon flog war gothic 3,das wars aber auch.die taktraten der gts schafft man fast mit jeder karte aber ich bezweifel stark das man mit der gt immer so hoch kommt.

*gt 750/1800/1900 gegen gts 640mb 650/1600/2100

fulgore1101
2007-12-12, 01:25:34
Und du bist narürlich der ganz große Checker.

Informiere dich genauer denn die 8800GT ist schneller als eine 8800TS 640.


herzlichen glückflunsch. du bist gnadenlos auf mein ironisches posting reingefallen. :biggrin:

ich wollte damit nur mal dem threadersteller auf die füsse treten und aufzeigen wie dümmlich doch diese überschrift ist: "Ist eine G8800GT512 wirklich schneller als eine G8800GTS640@G80?

mich wunderts warum dieser bash noch nicht gesperrt wurde? natürlich ist die gt schneller als eine g80 gts. es gibt ausnahmen und es gibt settings wo die 512mb vram und das 256bit si limitieren. wenn das ganze allerdings nur an einem crysis bench festgemacht wird,und dazu noch mit verschiedenen systemen,ist das einfach nur überflüssig.

tombman
2007-12-12, 01:43:12
herzlichen glückflunsch. du bist gnadenlos auf mein ironisches posting reingefallen. :biggrin:

ich wollte damit nur mal dem threadersteller auf die füsse treten und aufzeigen wie dümmlich doch diese überschrift ist: "Ist eine G8800GT512 wirklich schneller als eine G8800GTS640@G80?

mich wunderts warum dieser bash noch nicht gesperrt wurde? natürlich ist die gt schneller als eine g80 gts. es gibt ausnahmen und es gibt settings wo die 512mb vram und das 256bit si limitieren. wenn das ganze allerdings nur an einem crysis bench festgemacht wird,und dazu noch mit verschiedenen systemen,ist das einfach nur überflüssig.
Ich habs gerade noch als ironisch erkannt ;D;D

Ich weiß auch nicht wie man heutzutage noch auf die Idee kommen kann, eine G80 GTS wäre schneller als eine G92 GT.
Da postet der threadersteller zb sowas:
Öhm, fassen wir nochmal zusammen.

G8800GT512@660/900Mhz
min. 19,65 / avg. 40,72 / max. 49,14

G8800GTS640@G80@513/792Mhz
min. 21,09 / avg. 27,44 / 32,50


..und weiß immer noch nicht was schneller ist? Das sieht ja ein Blinder :rolleyes:

fulgore1101
2007-12-12, 03:06:06
hallo tombman du spassvogel :)

wie ich geschrieben habe gibt es ausnahmen und spiele wo die gts seltsamerweise schneller ist als ne gt. auch da wo der vram und das si nicht limitieren sollten. ich kann da keine argumente bringen. dazu hab ich schlicht viel zu wenig ahnung von der technik. aber im allgemeinen für den 08/15 user ist die gt in moderaten settings schneller als ne gts 640! da gibts doch nichts dran zu rütteln!!

und ich spreche da nicht als "erhabener gt besitzer" ich habe selbst ne gts 640 und blick mittlerweile kaum mehr durch....


UND: wenn ich jetzt deine ironie deines posts nicht erkannt haben sollte,dann :P


:smile:

tombman
2007-12-12, 03:14:20
wie ich geschrieben habe gibt es ausnahmen und spiele wo die gts seltsamerweise schneller ist als ne gt.
Dazu hätte ich gerne Beweise wie pics und links ;)

Schrotti
2007-12-12, 03:27:09
Dazu hätte ich gerne Beweise wie pics und links ;)


Company of Heroes DX9

2560x1600 4xAA/16xAF:
Nvidia GeForce 8800 GTS : 30,3
Nvidia GeForce 8800 GT : 26,9


http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gt_sli/11/#abschnitt_company_of_heroes

Mehr hab ich auf die schnelle nicht gefunden.

tombman
2007-12-12, 03:31:23
Company of Heroes DX9

2560x1600 4xAA/16xAF:
Nvidia GeForce 8800 GTS : 30,3
Nvidia GeForce 8800 GT : 26,9


http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gt_sli/11/#abschnitt_company_of_heroes

Mehr hab ich auf die schnelle nicht gefunden.
Genau sowas habe ich mir gedacht, die höchste Auflösung, die man sich denken kann, + AA.
Da sag ich nur WAYNE ;)

Zeig mal lieber 1680x1050 ohne AA, weil viel mehr wird die Zielgruppe bei diesen Karten nicht nutzen ;)

Tigershark
2007-12-12, 03:32:58
Dazu hätte ich gerne Beweise wie pics und links ;)


Call of Juarez mit AA&AF z.B.:
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gts_512/19/

Company of Heroes mit AA&AF z.B.:
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gts_512/20/#abschnitt_company_of_heroes

Allerdings sind das imho auch nur einige wenige Ausnahmen - aber gut, das hat er ja auch gesagt ;)

*edit* und das auch schon in 1280 :)

tombman
2007-12-12, 03:35:34
Call of Juarez mit AA&AF z.B.:
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gts_512/19/

Company of Heroes mit AA&AF z.B.:
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gts_512/20/#abschnitt_company_of_heroes

Allerdings sind das imho auch nur einige wenige Ausnahmen - aber gut, das hat er ja auch gesagt ;)

*edit* und das auch schon in 1280 :)
Und jetzt das ganze noch in übertaktetem Zustand bitte, weil die Zielgruppe nämlich übertaktet ;)

Aber danke für die Links, da sieht man mal wie geil die GTX immer noch ownt ;D
Bei den derzeitigen Ebay Preisen kann man nur raten sich ne GTX zu holen ;D

Tigershark
2007-12-12, 03:41:29
Gut, ich hab jetzt leider beide Spiele nicht, sonst würde ich es mal mit meiner GTS testen, aber in Anbetracht der Tatsache, dass die GTS mit 500 MHz Core läuft, standardmäßig und viele User (mich eingeschlossen) auf gut über 600MHz CORE & 1500-1600 MHz Shadertakt kommen (siehe 8800 OCing Thread), was einem OC von etwa 20-25% entspricht, müssten die GTs schon mit zumindest 720-750 MHz CORE rennen, um den Abstand zu halten bzw. mit deutlich mehr, um aufzuschließen.

*edit*

Andererseits sehen andere Reviews das verhältnis anders als die CB....z.B. liegt die GT bei HT4U auch unter 16x12 mit AA&AF noch VOR der GTS....schon komisch... ;)

Razor
2007-12-12, 03:45:17
*edit* und das auch schon in 1280 :)
Und ausschließlich unter Vista und D3D10.
Nicht gerade aussagekräftig...

Hier werden wohl die (noch) Treiber das Problem darstellen... für die 'alte' GTS sind sie einfach ausgereifter, für den G92 noch viel zu frisch.
Die Performance ist unter Vista/D3D10 'eh schon insgesamt mies... für die 'neuen' dann halt noch ein bissi mieser...
:D

Andererseits sehen andere Reviews das verhältnis anders als die CB....z.B. liegt die GT bei HT4U auch unter 16x12 mit AA&AF noch VOR der GTS....schon komisch... ;)
HT4U hat unter WinXP SP2 getestet... ;)

Razor

tombman
2007-12-12, 03:50:39
Ich gebe meine beiden Stromfresserbabies GTXen jedenfalls nicht her :ulove:
Seit einem fetten Jahr ownen die nun schon :eek: ;)

fulgore1101
2007-12-12, 03:57:21
tombman,kannste mal bitte aufhöhren mich zuverarschen!?

wenn ich schreibe die gt ist im allgemeinen schneller als die gts640 dann passt dir das nicht. und wenn ich schreibe,dass die gts640 in manchen marks unerklärlicher weise besser abschneidet als die gt dann willste beweise haben??:confused:

tombman
2007-12-12, 04:01:39
tombman,kannste mal bitte aufhöhren mich zuverarschen!?

wenn ich schreibe die gt ist im allgemeinen schneller als die gts640 dann passt dir das nicht. und wenn ich schreibe,dass die gts640 in manchen marks unerklärlicher weise besser abschneidet als die gt dann willste beweise haben??:confused:
:confused: Ich wüßte nicht, wo dich verarscht haben soll? Ich meine die GT ist in 99% der Fälle nicht nur schneller als die G80 GTS, sondern deutlich schneller.
Und in diesem 1% der Fälle, wo dies nicht der Fall ist, dann nur sowenig langsamer, daß es ned wirklich stört.
Fazit: G92 GT ist zu 100% der G80 GTS vorzuziehen ;)

Tigershark
2007-12-12, 04:06:56
HT4U hat unter WinXP SP2 getestet... ;)

Razor


Stimmt, war mir entfallen.

Dennoch sind die Werte von CB sehr zweifelhaft. Wenn ich das mit den Werten von Anand vergleiche, passen die hinten und vorne nicht bei vergleichbarem System (QX6850 vs. übertakteten X6800, Vista 32bit bei beiden).

Bei WiC & BioShock sind die CB Werte viel zu niedrig, während sie bei z.b. Oblivion viel höher sind - bei Crysis sind sie wiederum viel niedriger...also irgendwie ist hier doch der Wurm drin...

Werte von Anand:

http://anandtech.com/video/showdoc.aspx?i=3175&p=4


Review von CB, Abteilung DX9:

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gts_512/13/#abschnitt_oblivion

Review von CB, Abteilung DX10:

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gts_512/18/#abschnitt_bioshock

Gast
2007-12-12, 05:54:34
Bei WiC & BioShock sind die CB Werte viel zu niedrig, während sie bei z.b. Oblivion viel höher sind - bei Crysis sind sie wiederum viel niedriger...also irgendwie ist hier doch der Wurm drin...

Das erklärt sich vielleicht damit, das die beiden jeweils andere Benchmarks nutzen und dazu noch andere Treiber. ;)

Vergleichbarkeit zwischen verschiedenen Webseiten muss NIE gegeben sein!

Tigershark
2007-12-12, 09:27:53
Natürlich, aber ich meinte auch eher dass auch die Karten untereinander hier starke Unterschiede aufweisen - und zumindest die Verhältnisse der Karten zueinander sollten ja annähernd gleich sein, oder? ;)

Gast
2007-12-12, 09:37:58
Natürlich, aber ich meinte auch eher dass auch die Karten untereinander hier starke Unterschiede aufweisen - und zumindest die Verhältnisse der Karten zueinander sollten ja annähernd gleich sein, oder? ;)

Nein, warum?

Das Verhältniss kann sich stark verschieben, je nachdem welcher Benchmarks da zum Einsatz kommt.

Oblivion ist so ein beliebtes Beispiel: Bist du in Städten, so frisst es ordentlich CPU-Power, d.h. GPU-Rohpower kommt nicht so stark zu tragen (Unterschiede geringer); bist du irgendwo anders, so frisst es plötzlich ordentlich GPU-Power und die Unterschiede werden größer.

Guckst du in ein paar der vorherigen Artikeln, wirst du feststellen, das Oblivion am Anfang bei denen gerade mal 5-15fps produzierte, obwohls mit den genannten Karten definitiv flüssig spielbar war. Jetzt haben sie wohl n anderen Bench genommen.

MartinRiggs
2007-12-12, 11:32:19
Ich teste den ganzen Kram jetzt selber, hab ne HD3870 und hab mir heute beim lokalen Händler ne 8800GT geholt.
Werde die beiden Karten ausführlich benchen(kein 3D-Quark) und entscheide dann welche ich behalte und welche mein Kumpel bekommt.
Subjektiv kommt es mir nämlich teilweise so vor als würde das Game ruckeln obwohl die FPS hoch genug sind, naja mal schauen wie sich die 8800GT schlägt.

K4mPFwUr$t
2007-12-12, 11:33:58
@martinriggs
kommt den das ruckeln überall vor? und kommt es auch bei vsync vor? oder optinaler weise mit triple buffering?

MartinRiggs
2007-12-12, 11:39:04
nein nicht überall, aber Oblivion ist ein Beispiel.
V-Sync habe ich generell nicht an, die Graka kann also munter vor sich hin rechnen.

dargo
2007-12-12, 15:28:16
Ich hänge meine eben schnell gemachte Übersicht hier ran (du bist ja net da).

(Man sieht ja wo der Übergang von Benchrunde 2 auf 3 ist).

http://www.abload.de/img/dargo_fps9t5.png (http://www.abload.de/image.php?img=dargo_fps9t5.png)
Ja, das sieht jetzt auch normal aus. Die min.fps sind jetzt bei ca. 28-29fps. Was war denn vorher an deinen Werten im Post 1 von mir verkehrt? Bzw. woran lags, dass du knapp unter 20fps warst?

ich wollte damit nur mal dem threadersteller auf die füsse treten und aufzeigen wie dümmlich doch diese überschrift ist: "Ist eine G8800GT512 wirklich schneller als eine G8800GTS640@G80?

Schön, dass du den Thread überhaupt nicht verstanden hast. :rolleyes:
Meinst du ich habe zum Spaß den ersten Satz im ersten Post fett markiert?

Schrotti
2007-12-12, 22:48:28
Frag mich mal warum das so war, ich weiß es nicht.

Habe nur den 3 fach Puffer deaktiviert (da ich ja eh v-sync off habe).

dargo
2007-12-13, 19:04:38
Frag mich mal warum das so war, ich weiß es nicht.

Habe nur den 3 fach Puffer deaktiviert (da ich ja eh v-sync off habe).
:hammer:

Also doch der Triple-Buffer. Wobei der eigendlich nur bei Vsync On greifen müsste. :|
Naja, wie dem auch sei. Nun stimmen die Frames wieder. Hat sich also alles geklärt. :)

Deathcrush
2007-12-13, 19:19:41
Ich habe fürn Kumpel eine GTS @G92 bestellt. Wenn also noch interesse besteht, kann ich diese mal morgen testweise bei mir einbauen. Sprich unter gleichen bedingungen testen. Gleiche Treiber, gleiches System etc pp ;)

dargo
2007-12-13, 19:26:07
Ich habe fürn Kumpel eine GTS @G92 bestellt. Wenn also noch interesse besteht, kann ich diese mal morgen testweise bei mir einbauen. Sprich unter gleichen bedingungen testen. Gleiche Treiber, gleiches System etc pp ;)
Ich wäre interessiert? :D
Aber bitte keinen 3DFurz. ;) Und mindestens 4xMSAA/16xAF bitte. :)

Gast hitcher
2007-12-13, 19:31:22
Als erstes möchte ich darauf hinweisen, dass dies kein Bashing-Thread ist!

Man achte auf die min.fps die eigendlich über die Spielbarkeit entscheiden. Jetzt müsste man am besten wissen wieviele Stellen es bei der G8800GT gibt wo sie so stark einbricht. Ein Frameverlauf wäre da ideal.

so eine E2180 CPU ist aber gegen die andere CPU klar im Nachteil,
weil sie viel weniger Cache hat, und die Assoziativität von dem ist auch kleiner.
Das könnte daher auch eine Auswirkung haben.

dargo
2007-12-13, 19:32:36
so eine E2180 CPU ist aber gegen die andere CPU klar im Nachteil,
weil sie viel weniger Cache hat, und die Assoziativität von dem ist auch kleiner.
Das könnte daher auch eine Auswirkung haben.
Nein, an der CPU liegt es nicht. Ich hatte schon mehrfach gesagt, dass der GPU Benchmark in den getesteten Settings vollkommen gpu-limitiert ist. Der E2180 lief übrigens mit 3,33Ghz. Kann ja sein, dass man es übersehen hat.

Gast Hitcher
2007-12-13, 19:36:01
die andere, bessere CPU lief auch mit über 3 GHZ.

Gast hitcher
2007-12-13, 19:42:40
da aber eh höhere avg. Frameraten bei der 8800GT und schlechterer CPU sind, könnte man doch mal versuchen triplebuffering zu aktivieren und vsync einzuschalten. Dann werden nie mehr als die nächsten 2 Frames berechnet, also die Ressourcen etwas geschont. Wäre mal interessant wie sich das auf den min-FPS Wert auswirkt.

dargo
2007-12-13, 19:42:51
die andere, bessere CPU lief auch mit über 3 GHZ.
Ändert nichts daran, dass die Timedemo zu 100% gpu-limitiert war.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6097604&postcount=25

Deathcrush
2007-12-13, 19:43:53
Ich wäre interessiert? :D
Aber bitte keinen 3DFurz. ;) Und mindestens 4xMSAA/16xAF bitte. :)

1280x1024 4AA / 16AF
1680x1050 2AA / 16AF

Crysis - DX9 GPU Bench
Armed Assault - Savegame
Lost Planet - Interner Bench @DX10
3Dmark06 - @1680x1050

Denke das dürfte reichen. Kann man die Frames irgendwie mitloggen? Hab mal gehört das es mit dem Rivatuner gehen soll


P.S
GTS G80
- 500/800
- 648/900

GTS @G92
- 650/940 (?!)
- und wenn ich darf @700/1000 ;)

dargo
2007-12-13, 19:49:11
1280x1024 4AA / 16AF
1680x1050 2AA / 16AF

:up:


3Dmark06 - @1680x1050

:down:


Kann man die Frames irgendwie mitloggen? Hab mal gehört das es mit dem Rivatuner gehen soll
Nimm einfach Fraps und erstelle ein Diagramm wenn du magst. Messe bei deinen Benches bitte immer mit beiden Karten den Vram-Bedarf mit dem Rivatuner (natürlich nur den lokalen Speicher). Savegames würde ich bei GPU-Benches grundsätzlich nicht empfehlen. Da könnte in manchen Szenen noch ein kleiner CPU-Limit vorkommen.

Gast hitcher
2007-12-13, 19:49:45
im crysis gibts eine benchmark.bat datei im bin32 und im bin64 Verzeichnis.
Die musst ausführen.
In dem dos-Fenster stehen dann, nachdem den Benchmark nach 3 Durchläufen abbrichst, die Frameraten drinnen.

dargo
2007-12-13, 19:51:25
GTS @G92
- 650/940 (?!)
- und wenn ich darf @700/1000 ;)
OC kannst du weglassen. Das kann sich jeder ausrechnen. Erhöhst du zb. den GPU und Speichertakt um 10% so erhöhen sich auch die Frames um 10% solange die Graka zu 100% limitiert.

Deathcrush
2007-12-13, 20:22:06
Savegames würde ich bei GPU-Benches grundsätzlich nicht empfehlen. Da könnte in manchen Szenen noch ein kleiner CPU-Limit vorkommen.

Das kann ich bei Arma eigentlich ausschliessen ;) Es gibt stellen die einfach pervers Grakalim. sind. Von ~80 FPS (800x600) auf 29 FPS (1280x1024)


P.S Fürs OC issse schon zu spät :D :D

syronth
2007-12-13, 20:27:32
Inzwischen halte ich den Crysis-Benchmark für Tinnef, ich hab den Test gerade eben noch mal durchrödeln lassen, Min-FPS liegen plötzlich bei 20 FPS, selbst wenn ich übertakte. Bei GT @ 700/1725/1000 sinds einmal Avg 40, dann ein andermal nur 37. Trallala, heute Hü, morgen Hott, oder so. Weil ich gerade Spaß dran hatte, hab ich mal r_TexturesStreaming auf 0 gesetzt mit dem Ergebnis von Min-FPS von 1 an einer späteren Stelle, wo ich es beim besten Willen nicht wahrnehmen kann und wo der ganze Texturdatenchunk schon längst geladen ist.

Greif ich mir nen Ladestand an kritischen Stellen, habe ich auf jedenfall konstant ein kleines bisschen durch das OC dazugewonnen und Crysis scheint tatsächlich auch eine Spur flotter zu sein.

dargo
2007-12-13, 20:35:58
Inzwischen halte ich den Crysis-Benchmark für Tinnef, ich hab den Test gerade eben noch mal durchrödeln lassen, Min-FPS liegen plötzlich bei 20 FPS, selbst wenn ich übertakte.
Hmm. :uponder:
Dann scheint es doch einen Fehler im Treiber (vielleicht nur) mit Crysis in Verbindung mit einem G92 zu geben. Ich habe bei mir so oft den GPU-Benchmark laufen lassen und bekomme immer die gleichen Werte raus.

Das kann ich bei Arma eigentlich ausschliessen ;) Es gibt stellen die einfach pervers Grakalim. sind. Von ~80 FPS (800x600) auf 29 FPS (1280x1024)

Ja, ok. Wenn du ein 100%-iges GPU-Limit garantieren kannst sind Savegames natürlich auch in Ordnung.

Deathcrush
2007-12-14, 15:27:14
Ich kann die ersten Benchmarks präsentieren (GTS640 vs GTS512). Komplett gleiches System wie in der Sig zu sehen. Treiber bei allen der 169.21

Crysis

G80 @513/800

1680x1050 2AA/8AF
Play Time: 104.53s, Average FPS: 19.13
Min FPS: 13.62 at frame 147, Max FPS: 22.54 at frame 82


1280x1024 4AA/8AF
Play Time: 87.57s, Average FPS: 22.84
Min FPS: 14.38 at frame 139, Max FPS: 27.46 at frame 999


G80 @648/900

1680x1050 2AA/8AF
Play Time: 86.12s, Average FPS: 23.22
Min FPS: 13.71 at frame 142, Max FPS: 27.45 at frame 68


1280x1024 4AA/8AF
Play Time: 72.44s, Average FPS: 27.61
Min FPS: 18.74 at frame 141, Max FPS: 32.95 at frame 1011


G92 Non OC

1680x1050 2AA/8AF
!TimeDemo Run 1 Finished.
Play Time: 74.73s, Average FPS: 26.76
Min FPS: 19.03 at frame 138, Max FPS: 30.23 at frame 1002


1280x1024 4AA/8AF

!TimeDemo Run 1 Finished.
Play Time: 62.28s, Average FPS: 32.11
Min FPS: 14.85 at frame 148, Max FPS: 38.20 at frame 1019


Ich werde nach und nach mehr Benchmarks hier reineditieren ;)

EDIT

Armed Assault (Alles High + AA/AF)

Armed Assault

G80 @513/800

1680x1050 @High (auch AA/AF)
= 20 FPS
1280x1024 @High (auch AA/AF)
= 23 FPS

G80 @648/900

1680x1050 @High (auch AA/AF)
= 24 FPS
1280x1024 @High (auch AA/AF)
= 29 FPS

G92 @ Non Oc

1680x1050 @High (auch AA/AF)
= 28 FPS
1280x1024 @High (auch AA/AF)
= 34 FPS

EDIT 2

3Dmark06 1680x1050

G80 @513/800
8563 P.

G80 @648/900
10053 P.

G92 Non Oc
11257 P.

EDIT3

Habe nun mal ne Runde UT3 gespielt (1680x1050 2AA) und muss leider zugeben :( das meine GTS640 @648/900 nicht den hauch einer Chance hat. Oft kam ich schon mit der GTS640 in unspielbaren bereichen (35FPS). Mit der GTS 512 Non OC lief bisher alles Smooth (nie unter 45). UE3 scheint der Karte wohl zu liegen.

Gleiches gilt für Crysis beim spielen. Man merkt einen Unterschied, teilweise bis zu 20% gegenüber meiner GTS @648/900

P.S Kleine Frage am Rande. Mit welchen Tool kann ich der Karte dampf machen? Rivatuner lässt mich nicht :D Hab nur den heutigen Abnd, kumpel schleckt sich schon die Finger. Ob er es merken würde wenn er meine Karte bekommt *g

K4mPFwUr$t
2007-12-14, 16:44:13
teste mal bitte mit cod4 =)

Deathcrush
2007-12-14, 17:06:16
Das lief doch schon mit einer 8800GTS 640 perfekt @1680x1050 2AA/16AF. Ausserdem ist es sehr schwer zu benchen :( Aber ich spiele es gleich mal an.

Deathcrush
2007-12-14, 17:51:46
So langsam werde ich neidisch auf die neue GTS/G92 :D 1680x1050 @4AA 16AF keinerlei Probleme in COD4 mit der GTS/G92. Das kann ich mit meiner Karte nicht, trotz einem takt von 648/900. Dort reicht die Leistung nur für 2AA. Bisher konnte ich im jedem Game (1680x1050) eine steigerung merken. Habe ich echt nicht für möglich gehalten, das die GTS G92 Non OC so viel Kraft hat.

Deathcrush
2007-12-14, 21:15:26
Letzte Benchmarks

Lost Planet 1680x1050 2AA/16AF DX10

G80 @513/800
Snow 20,1 FPS - Cave 27,8 FPS

G90
Snow 25,5 FPS - Cave 35,1 FPS

Deathcrush
2007-12-14, 22:38:36
Thema OC der Karte

Ein bisl entäuscht bin ich da schon. Ohne entsprechende Gehäusebelüftung (Lüfter an den Slots) klettern die Temps recht schnell auf über 90C, was zur folge hat, das der Lüfter voll aufdreht. Laut, leise, laut, leise und das abwechselnd im sekundentakt. Das nervt extremst :D Da bin ich von meiner GTS besseres gewohnt. Getestet habe ich nur 700/1000, weiter wollte ich nicht gehen, erstens wegen der Temps und zweitens weil die Karte mir nicht gehört ;) Aber auch so vernascht die GTS G92 meine GTS @648/900. Hätte ich nicht gedacht.

Gast
2007-12-14, 22:43:59
Naja OC mit Default Kühler macht selten Spass. ;)
Guck dir mal eine 7900/7800/6800GT an. Da war es eher schlimmer.

Deathcrush
2007-12-14, 22:48:46
Man hätte aber mehr Lüfterstufen einbauen können, sprich von 36% auf 45% und nicht gleich auf Nervtötend :D

dargo
2007-12-14, 22:54:57
Aber auch so vernascht die GTS G92 meine GTS @648/900. Hätte ich nicht gedacht.
Ist ja auch kein Wunder. Die G92GTS hat eine um 80% höhere arithmetische Leistung als eine G80GTS. Ich sags ja - hätte die neue GTS 1GB Vram und eine Speicherbandbreite von ca. 100GB/s bei ca. 400€ wäre sie meins. ;)

Dann die GTS auf 730Mhz GPU-Takt und 1825Mhz Shader-Takt bringen und schon habe ich praktisch eine G8800GTS@G80*2. ;)

Edit:
Wobei arithmetische Leistung nicht alles ist.

spatz
2007-12-14, 23:29:15
Mit dem Rivatuner lässt sich das ganze schon 'bearbeiten', einfach in der Rivatuner.cfg in Zeile 60 aus "G92= 610h-61Fh" folgendes machen :"G92= 610h-61Fh,600h".
Stand hier irgendwo im Forum, klappt wunderbar.

Die Lüftersteuerung ist wirklich etwas merkwürdig. Habe den Lüfter nun standardmässig auf 45% eingestellt, damit ist er aus meinem System immernoch nicht herauszuhören und die Temperaturen haben sich um ~10°C gebessert.
Ab 50% ist er mehr als wahrnehmbar, aber während dem spielen noch nicht wirklich störend. Ab 55% finde ich ihn nervig, weiter drüber brauchen wir gar nicht mehr von sprechen.

Deathcrush
2007-12-14, 23:29:48
@dargo
Ich hab halt durch die Panikmacherei mit dem VRAM und Speicherbandbreite ein sehr viel schlechteres Ergebniss erwartet.

Danke dir spätzchen ;)


EDIT

Einer ausm HWL http://img49.imageshack.us/my.php?image=880jz9.jpg

Nicht schlecht!

spatz
2007-12-14, 23:34:26
Ach so, bzgl der Schwankungen in Crysis. Musste ähnliches feststellen. Zwar kann ich das ganze mit keiner gleichwertigen Graka vergleichen, aber betrachte ich immer den 2ten Durchlauf variieren die Frames doch schon ziemlich.

Stellenweise waren die AVG FPS mit der leicht übertakteten Graka (715/1000) unter den AVG FPS mit Defaul Takt. Alles unter Verwendung des .21er Treibers.

dargo
2007-12-14, 23:36:11
@dargo
Ich hab halt durch die Panikmacherei mit dem VRAM und Speicherbandbreite ein sehr viel schlechteres Ergebniss erwartet.

Nun, ich sehe, dass die G92GTS um die 40% schneller ist als die G80GTS. Wenn ich mir vorstelle, dass daraus ca. 70-80% hätten sein können dann finde ich das schon eher enttäuschend.

Deathcrush
2007-12-15, 00:03:56
Was erwartest du für 269-300€? (Amazon 269€) Ich denke das non 8800er Besitzer ein gutes Stück Hardware für ihr Geld bekommen. Und wenn sich alle nur annähernd so gut takten lassen wie die eine ausm Luxx, dann kann man echt nicht meckern, selbst ich könnte da noch schwach werden. Denn selbst im non OC zustand merke ich schon einen unterschied, und das bei Crysis z.B nicht zu knapp. Dann die Karte auf 750/1100 takten und sie zieht auf und davon ^^

Da fällt mir mal auf, ich könnte noch mal ebn den Speichertakt auf 1100 anheben und schaun wie sich die FPS verhalten ^^

dargo
2007-12-15, 00:12:29
Was erwartest du für 269-300€? (Amazon 269€)

Ich habe nicht von diesem Preis gesprochen. ;)
Die G92GTS hat eine um 80% höhere arithmetische Leistung als eine G80GTS. Ich sags ja - hätte die neue GTS 1GB Vram und eine Speicherbandbreite von ca. 100GB/s bei ca. 400€ wäre sie meins.

Außerdem sind sie zu diesem Preis noch nicht lieferbar.


Ich denke das non 8800er Besitzer ein gutes Stück Hardware für ihr Geld bekommen.
Das auf jeden Fall. Bringt mir nur leider nichts. :(

Deathcrush
2007-12-15, 00:18:50
Gerade mal ebn von 970 auf 1100.

Crysis von 44 FPS auf 47-48 FPS (schwankend)

dargo
2007-12-15, 00:24:33
Gerade mal ebn von 970 auf 1100.

Crysis von 44 FPS auf 47-48 FPS (schwankend)
Haue mal bitte 4xAA bei 1680x1050 rein und benche mal 650/970Mhz und 650/1100Mhz. Wichtig ist halt, dass die Graka zu 100% limitiert.

LovesuckZ
2007-12-15, 00:25:14
Die Lüftersteuerung ist wirklich etwas merkwürdig. Habe den Lüfter nun standardmässig auf 45% eingestellt, damit ist er aus meinem System immernoch nicht herauszuhören und die Temperaturen haben sich um ~10°C gebessert.
Ab 50% ist er mehr als wahrnehmbar, aber während dem spielen noch nicht wirklich störend. Ab 55% finde ich ihn nervig, weiter drüber brauchen wir gar nicht mehr von sprechen.

Ist die Steuerung so schlecht? Bei der GT wird fein erhöht, sobald die Temperatur 93° erreicht.

spatz
2007-12-15, 00:36:37
Bei mir ists noch nicht dazu gekommen, als dass die Steuerung von selbst eingegriffen hätte (die 45% waren bisher ausreichend, um die Graka kühl genug zu halten). Deathcrush meinte ja weiter oben, dass die Graka bei ihm ab ~90°C anfängt den Lüfter schneller drehen zu lassen. So warm wurde sie bei mir bisher noch nicht.

Habe die Werte selbst mit dem Rivatuner eingestellt/getestet. Glaube er hat bei mir bis 83°C noch auf 36% gedreht, was ich als unsinnig empfinde. Wie gesagt, ich für meinen Teil höre keinen Unterschied, wenn der Lüfter 10% schneller dreht. Kann natürlich in nem komplett auf Silent getrimmten PC anders sein, aber das 'Problem' habe ich nicht ;)

Ich kanns aber gerne nochmal testen, stelle einfach wieder auf automatisch gesteuert und gucke, was passiert.

LovesuckZ
2007-12-15, 00:38:24
Ich kanns aber gerne nochmal testen, stelle einfach wieder auf automatisch gesteuert und gucke, was passiert.

Das wäre nett. ATiTool Würfel ist ein guter Heizer.

Deathcrush
2007-12-15, 00:46:05
Habe die Werte selbst mit dem Rivatuner eingestellt/getestet. Glaube er hat bei mir bis 83°C noch auf 36% gedreht, was ich als unsinnig empfinde. Wie gesagt, ich für meinen Teil höre keinen Unterschied, wenn der Lüfter 10% schneller dreht. Kann natürlich in nem komplett auf Silent getrimmten PC anders sein, aber das 'Problem' habe ich nicht ;)



Die 90C hatte ich auch beim OC ;) Ohne OC und 2 Slotlüftern komme ich auf 81-83C unter Last.

@Dargo

Sry, benchzeit vorbei :( baue gerade den Rechner für mein Kumpel zusammen und ich muss morgen um 6:00 raus :(

spatz
2007-12-15, 01:03:01
Das musste ich auch gerade feststellen. Über 82°C wollte er sich nicht bewegen lassen, wohlgemerkt nur beim Crysis spielen.

Der Würfel hat nach 10 Minuten (was immer er da auch tut, läuft ja nur die Uhr ... unglaublich spannend :rolleyes:) nichts anderes ergeben. Schwankt zur Zeit zwischen 82-83°C. Lüfter ununterbrochen auf 36%.

Da muss ich wohl doch bisschen hoch mit dem Takt.

----

Also nu war ich mal bei 91°C. Lüfter heult ganz kurz auf und nach einer Sekunde ist wieder Stille. Und so gehts dann die ganze Zeit. Also exakt das, was Deathcrush auch gesagt hat. Super Lüftersteuerung, beinhaltet zwei Stufen, 1/3 bzw 36% und Max bzw 100% :)

Belasse ich den Lüfter auf den von mir vorher eingestellen 45%, pendelt sich die Temperatur bei molligen 82-83°C ein. Also knapp 7-8°C unter der Schwelle, bei welcher der Lüfter normalerweise unerträglich laut wird.

syronth
2007-12-15, 01:47:35
Ist die Steuerung so schlecht? Bei der GT wird fein erhöht, sobald die Temperatur 93° erreicht.

Beim Würfeltest hob meine GT (@700/1725/1000) bereits bei 85 Grad die Lüfterdrehzahl an und steigerte sich Prozent für Prozent bis 90 Grad (von 29% bis 34%). Ab da ist der (Standard-)Lüfter durch seine spezielle Tonlage leise heraushörbar. Über 90 Grad kam die GT nicht (hab Gehäuselüfter).

Ich vermute, bzw. hoffe für die GTS-Besitzer, dass der komische Krach mit einem neuen Treiber weggeregelt wird.

Tigershark
2007-12-15, 13:27:10
Die 90C hatte ich auch beim OC ;) Ohne OC und 2 Slotlüftern komme ich auf 81-83C unter Last.

@Dargo

Sry, benchzeit vorbei :( baue gerade den Rechner für mein Kumpel zusammen und ich muss morgen um 6:00 raus :(

@Deathcrush:

Welchen Shadertakt hattest du denn bei der GTS anliegen bei 648MHz? Ich denke mal gerade bei Crysis und UT3 macht der deutlich höhere Shadertakt der GTS512 einiges aus. Ich habe bei mir (G80 GTS640)bspw. den Multi für den Shadertakt so erhöht, dass ich annähernd die Werte der GT erreiche - was die "alte" GTS doch schon deutlich besser da stehen lässt.

Byteschlumpf
2007-12-15, 14:53:12
@Deathcrush:

Welchen Shadertakt hattest du denn bei der GTS anliegen bei 648MHz? Ich denke mal gerade bei Crysis und UT3 macht der deutlich höhere Shadertakt der GTS512 einiges aus. Ich habe bei mir (G80 GTS640)bspw. den Multi für den Shadertakt so erhöht, dass ich annähernd die Werte der GT erreiche - was die "alte" GTS doch schon deutlich besser da stehen lässt.
Wie hast du den Multi geändert und wie äußert sich das in der Leistung?
Meiner "alten" GTS würde das sicher auch gut stehen! :)

Tigershark
2007-12-15, 15:07:02
Mit dem RT vor 2.05 konnte man ja die Shader nicht unabhängig von der ROP domain takten. Was dann ab einer bestimmten FW Version (ich meine ab 163.44, BioShock FW) dazu geführt hat, dass die Shaderdomain nicht mehr mit übertaktet wurde. Da gab es eine Möglichkeit, den Multiplikator (normalerweise 2,4) zu ändern, und somit den Shadertakt zu beeinflussen.

Jetzt kannst du ja die takte ohnehin unabhängig voneinander einstellen. Bei mir liegen bspw. 1566 Shadertakt an, und ich bilde mir ein, dass das gegenüber den normalen 1200MHz einiges bringt, gerade bei shaderlastigen Games.

Deathcrush
2007-12-15, 15:12:46
Bei Crysis hatte ich mal den shadertakt von 1458 auf 1650 wehöht und im GPU Bench konnte ich kaum bis keine Änderung verspüren.

Byteschlumpf
2007-12-15, 15:18:23
Wenn ich die GPU auf 620 hochziehe, liegt ein Shadertakt von 1435Mhz an, was ja auch nicht so ganz schlecht ist.

Was die Crysis-Performance angeht, so ist diese bei mir unter Vista nicht so dolle, was wohl maßgeblich am Treiber liegen kann. Ich habe immer noch den 169.63 drauf.
Mit welchem ist denn die Performance besonders gut und die Darstellungsqualität und Performance anderer Games nicht sonderlich beeinträchtigt?

Ich überlege mir auch, auf die GTS 512 oder die GTX umzusteigen, um noch mehr Luft nach oben zu haben.
Eine günstige GTX ist doch immer noch einer kaum günstigeren GTS 512 vorzuziehen, oder?


---- Die Macht der Verführung ist leider sehr groß! ----


Andernfalls kann ich auch noch ohne weiteres auf die komplett neue Generation mit weitaus mehr Power warten und darauf sparen. ;)

Unzufrieden bin ich mit meiner GTS keineswegs und das OC-Potential ist ja auch ok.

Deathcrush
2007-12-15, 15:30:57
Wer seine GTS G80 nicht übertaktet, für den würde sich der tausch auf eine GTS G92/GTX lohnen. Ein Problem mit der VRAM Menge @1680x1050 2AA bzw 4AA konnte ich nicht feststellen und ein anheben des Speichertaktes von 970 auf 1100 (~ +13%) brachten nicht einmal 10% Mehrleistung. 5-7% waren so die regel. GPU habe ich nicht getestet. Ich denke die Speicherbandbreite und VRAM Menge wird viel zu viel überbewertet. So lange man nicht höher als 1680x1050 geht sehe ich da auch keinerlei Probleme. Alles darüber bedarf eh ein SLI gespann.

Getestete Spiele

Lost Planet
UT3
CoD4
Crysis
Armed Assault.

Byteschlumpf
2007-12-15, 15:39:00
Wie sieht es denn mit den Treibern aus?
Welcher ist denn deutlich schneller/besser, als der 169.63 (Vista64), den ich noch verwende?

dargo
2007-12-15, 15:51:43
Ein Problem mit der VRAM Menge @1680x1050 2AA bzw 4AA konnte ich nicht feststellen ...
Der GPU Benchmark von Crysis ist absolut nicht maßgebend. :)

Ich hatte vor kurzem auf meinen RT geschaut. In 1280x960 1 4xAA/8xAF 627MB Vram. :ugly:
Ich weiß allerdings nicht ob es eine Zwischensequenz war oder nicht.

Edit:
Ich muss mich korrigieren, anscheinend war bei mir 4xMSAA drin. Ab und zu nehme ich 4xAA für Screenshots.

Deathcrush
2007-12-15, 16:07:41
Weil ich ja auch nur Crysis getestet habe ;) Und selbst wenn der Vram bei 1680x1050 limitieren sollte (Crysis), selbst eine GTX wird dieses nicht flüssig darstellen können ;) Daher erübrigt sich dann die Frage ob es ausreichend sein sollte oder nicht.

Byteschlumpf
2007-12-15, 16:44:03
Im Grunde laufen bei mir nur Crysis und Dirt mit höheren Auflösungen und hohen Qualitätseinstellungen nicht so supperdolle flüssig - CoD4 und Bioshock fluppen dagegen ganz gut.

Wie läuft denn Dirt mit der GTS 512?

Gast
2007-12-15, 16:53:43
Im Grunde laufen bei mir nur Crysis und Dirt mit höheren Auflösungen und hohen Qualitätseinstellungen nicht so supperdolle flüssig - CoD4 und Bioshock fluppen dagegen ganz gut.

Wie läuft denn Dirt mit der GTS 512?

Hallo,
ich hatte früher eine Club3D 8800GTS und habe diese durch eine Spakle 8800GT@default Takt ersetzt (Rechner: Core2Duo E6750 + 2GB). Ich habe einen deutlichen BOOST gegenüber der GTS bemerkt, besonders Dirt ist jetzt in 1680er Auflösung superflüssig zu spielen, wo meine GTS bei 1440er und schlechteren Detaileinstellungen schier zusammengebrochen ist. Auch alle anderen Spiele laufen merklich besser, ich bin daher froh meine 8800GT vor nem Monat für 289€ bei ebay verkauft zu haben. Meine Sparkle kostete mich inkl. Versand 254€.
Gruß
3DoMan

Gast
2007-12-15, 16:54:42
Hallo,
ich hatte früher eine Club3D 8800GTS und habe diese durch eine Spakle 8800GT@default Takt ersetzt (Rechner: Core2Duo E6750 + 2GB). Ich habe einen deutlichen BOOST gegenüber der GTS bemerkt, besonders Dirt ist jetzt in 1680er Auflösung superflüssig zu spielen, wo meine GTS bei 1440er und schlechteren Detaileinstellungen schier zusammengebrochen ist. Auch alle anderen Spiele laufen merklich besser, ich bin daher froh meine 8800GTS vor nem Monat für 289€ bei ebay verkauft zu haben. Meine Sparkle kostete mich inkl. Versand 254€.
Gruß
3DoMan
Korrigiert

Deathcrush
2007-12-17, 08:10:08
Hab mir noch mal Call of Juarez unter DX10 benchen lassen

8800GTS-G92
1680x1050 Alles Max, kein AA

min. 16
Max. 45
Avg. 24

1280x1024 Alles Max, kein AA

min. 21
Max. 54
Avg. 29


Ich erinnere mich, das ich mit meiner GTS G80 @600/900 gerade mal 14-15 FPS (1280x10240) minimum hatte. Kann das mal wer zusätzlich gegenbenchen, nicht das es heisst mein System wäre wieder zugemüllt ;) Vielleicht hat sich ja auch was an den Treibern geändert, kann das jetzt leider nicht nachvollziehen, da ich kein lauffähiges Vista drauf habe.

Windows Vista DX10 Benchmark, alles Highest, kein AA (Shadow High, Shadowmaps 2048x2048)

Deathcrush
2007-12-18, 12:14:48
Da es ja keinen zu interessieren scheint, musste ich Vista noch mal neu installieren und habe dann mal CoJ DX10 gebenchet. Die min. sind tatsächlich sehr viel niedriger als die einer G92 GTS. Habe 14,8 FPS bei den min. FPS. (1280x1024 Alles High AA=0)

dargo
2007-12-18, 15:37:42
Da es ja keinen zu interessieren scheint, musste ich Vista noch mal neu installieren und habe dann mal CoJ DX10 gebenchet. Die min. sind tatsächlich sehr viel niedriger als die einer G92 GTS. Habe 14,8 FPS bei den min. FPS. (1280x1024 Alles High AA=0)
Die üblichen ~40% wieder. Ist aber schon längst bekannt. Die neue GTS@G92 ist einfach um die 40% schneller als die alte GTS@G80, obwohl sie 80% mehr arithmetische Leistung hat. Tja, da ist halt die Sache mit den beschnittenen ROPs. ;)

Deathcrush
2007-12-18, 15:52:51
Die üblichen 40%, das meine GTS übertaktet ist, weisst du? Siehe SIG. Ich teste dummerweise immer meine OC G80 gegen die G92, alles andere ist für mich nämlich uninteressant ;)

dargo
2007-12-18, 16:17:21
Ich weiß nicht was du da gebencht hast. Lauf CB sind es ohne AA/AF sogar nur ~30% Vorteil.
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gts_512/19/

Es sind zwar "nur" die avg.fps. Bei den min.fps wirst du trotzdem keine ~60% plötzlich haben. ;)

PS: und man sollte nicht vergessen, dass CB für den G80 einen älteren Treiber verwendet.

Deathcrush
2007-12-18, 16:20:51
Dann bench du doch mal, dann werden wir es ja ganz sicher wissen. Aber es ist nicht das erste Spiel wo die min. FPS deutlich höher sind. Bei Crysis konnte ich ähnliches feststellen. Und ich meine damit mehr als 40%.


http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gts_512/10/

Schau dir doch mal diese Benchmarks an. Die GTS G92 mag zwar beschnitten sein und hier und da eine schwäche haben. Aber vor der GTX braucht sie sich nicht zu verstecken, jedenfalls bis 1680x1050. Bin echt am überlegen noch schnell umzurüsten *g Solange ich noch ein bisl Geld für die Karte bekomme ^^

dargo
2007-12-18, 16:36:11
Ich wiederhole mich nochmal.

Nvidia ForceWare 163.75 (G8x)
Nvidia ForceWare 169.01 (8800 GT)
Nvidia ForceWare 169.06 (8800 GTS 512)

Nicht immer nur auf die Balkenlänge achten. ;)
Solange die Sache nicht mit gleichen Treibern gemacht wird erachte ich die Benches als nicht vergleichbar.

Deathcrush
2007-12-18, 16:38:38
Was hab ICH wohl die ganze Zeit gemacht? Denkst du ich habe, nur um dich zu ärgern, andere Treiber für Crysis, Arma und Call of Juarez DX10 genommen?

dargo
2007-12-18, 16:40:17
@Deathcrush
Kauf dir doch einfach die neue GTS, wenn du meinst sie haben zu müssen und gut ist.

Deathcrush
2007-12-18, 17:06:40
Ich weiss gar nicht was du willst. Der Thread heisst "Ist eine G8800GT512 wirklich schneller als eine G8800GTS640@G80?". Das versuchen wir hier heraus zu finden. Du hast dich so auf deine 40% eingeschossen, das du gleich beleidigt reagierst oder aber mit vorwürfen kommst man hätte falsch gebencht, sofern mehr als diese 40% Leistung dabei herauskommen. Wofür Opfer ich denn überhaupt die Zeit von mir und meinem Kumpel wenn ich deiner Meinung nach falsch benche?

P.S

Zu den CB Company of heroes Bench

Glaubst du wirklich das ein Treiber, der nicht gezielt programmiert wurde, mal ebn 84% Leistung bringt? Selbst wenn der Treiber noch 15-20% bringen würde, hinkt die G80 weit hinter her.

1600x1200 4AA

G80=55 FPS
G92=101 FPS

Gast
2007-12-18, 23:12:27
Zu den CB Company of heroes Bench

Glaubst du wirklich das ein Treiber, der nicht gezielt programmiert wurde, mal ebn 84% Leistung bringt? Selbst wenn der Treiber noch 15-20% bringen würde, hinkt die G80 weit hinter her.

1600x1200 4AA

G80=55 FPS
G92=101 FPS

R580 = 67,2FPS :P

Schrotti
2007-12-18, 23:23:39
R580 = 67,2FPS :P

Mit einer X1900XT oder was?

PS: Solche Gäste kann ich leiden.

Gast
2007-12-19, 00:23:32
Mit einer X1900XT oder was?

PS: Solche Gäste kann ich leiden.
Ja die bösen Gäste immer :rolleyes:

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gts_512/10/

Tigershark
2007-12-19, 02:42:41
Die G80 GTS Werte erscheinen mir viel zu niedrig....selbst eine 3850 soll schneller sein als eine GTS und die 7900GTX ist fast dran? Im Leben nicht....aber die G80 GTX hat ihre 88FPS...

Byteschlumpf
2007-12-20, 19:37:46
Dann bench du doch mal, dann werden wir es ja ganz sicher wissen. Aber es ist nicht das erste Spiel wo die min. FPS deutlich höher sind. Bei Crysis konnte ich ähnliches feststellen. Und ich meine damit mehr als 40%.


http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gts_512/10/

Schau dir doch mal diese Benchmarks an. Die GTS G92 mag zwar beschnitten sein und hier und da eine schwäche haben. Aber vor der GTX braucht sie sich nicht zu verstecken, jedenfalls bis 1680x1050. Bin echt am überlegen noch schnell umzurüsten *g Solange ich noch ein bisl Geld für die Karte bekomme ^^
Geht mir auch so!
Bei Alternate gibt's eine für 299€! Da würde ich gleich zuschlagen und meine alte GTS entsprechend günstig verkaufen - dann hat jeder was davon. :)

HD-Ronny
2007-12-20, 19:56:37
Bis 1680x1050 reicht eine GT um die alte GTS zu schlagen,worüber regt ihr euch hier auf? Die GTS new (G92) positioniert sich zwischen GTS old (G80) und GTX ,wo ist das Problem? Die alte GTS ist tot,die Frage lautet eher eine neue G92 GTS ,oder die alte G80 GTX.

James Ryan
2007-12-27, 15:06:03
Sorry für die blöde Frage aber:
Lohnt es sich, eine Gf 8800 GTS/640 @ 675/1566/1000 MHz gegen eine Gf 8800 GT/512 MB oder 1024 MB zu tauschen?
Speziell habe ich da Crysis im Auge, möchte gerne mit High-Details unter WinXP in 1280*1024 und 4xMSAA + 8xAF zocken.
Kurz und knapp: Würde sich das lohnen oder lieber auf eine Gf 9800 GT warten?

MfG :cool:

Gast
2007-12-27, 15:08:05
Sorry für die blöde Frage aber:
Lohnt es sich, eine Gf 8800 GTS/640 @ 675/1566/1000 MHz gegen eine Gf 8800 GT/512 MB oder 1024 MB zu tauschen?
Speziell habe ich da Crysis im Auge, möchte gerne mit High-Details unter WinXP in 1280*1024 und 4xMSAA + 8xAF zocken.
Kurz und knapp: Würde sich das lohnen oder lieber auf eine Gf 9800 GT warten?

MfG :cool:

hast du zuviel geld? 0_o von der lesitung her is das kaum nen unterschied...

MartinRiggs
2007-12-27, 15:16:56
Sorry für die blöde Frage aber:
Lohnt es sich, eine Gf 8800 GTS/640 @ 675/1566/1000 MHz gegen eine Gf 8800 GT/512 MB oder 1024 MB zu tauschen?
Speziell habe ich da Crysis im Auge, möchte gerne mit High-Details unter WinXP in 1280*1024 und 4xMSAA + 8xAF zocken.
Kurz und knapp: Würde sich das lohnen oder lieber auf eine Gf 9800 GT warten?

MfG :cool:

Die Frage ist wirklich blöd.
1. Ist dein G80 sehr hoch getaktet
2. Ist eine übertaktete GT/neue GTS auch nicht für Crysis mit viel AA/AF geeignet.
3. MSAA wird dir bei Palmen net viel bringen und die Hybridmodi bzw. TSAA sind wohl erst in 2 Generationen bei Crysis nutzbar.
4. imo ist Crysis scheisse:udown:

Einzige Option, bau dein P5N-SLI wieder ein und schiess günstig ne 8800GTS/640, dann müsste das mit 4xAA/16xAF in 1280x1024 machbar sein.

James Ryan
2007-12-27, 15:25:23
Die Frage ist wirklich blöd.
1. Ist dein G80 sehr hoch getaktet


Naja, eine Gf 8800 GT kann man ja noch weit höher takten. ;)

2. Ist eine übertaktete GT/neue GTS auch nicht für Crysis mit viel AA/AF geeignet.

Gut, das ist eine Aussage mit der ich was anfangen kann.

3. MSAA wird dir bei Palmen net viel bringen
und die Hybridmodi bzw. TSAA sind wohl erst in 2 Generationen bei Crysis nutzbar.


Mit meiner G80-GTS zocke ich momentan mit 1280*1024 und 2xAA und 8xAF mit getweakter High-ini-Datei und es läuft ganz gut und die Palmen stören mich nicht übermäßig. Beim Träger am Schluss wird es aber arg zäh!


4. imo ist Crysis scheisse:udown:


Ok, das ist deine Meinung. Ich mag Crysis und möchte es annehmbar spielen, darum meine blöde Frage. ;)


Einzige Option, bau dein P5N-SLI wieder ein und schiess günstig ne 8800GTS/640, dann müsste das mit 4xAA/16xAF in 1280x1024 machbar sein.

Das P35-DS3 ist das beste Board was ich je hatte, das bleibt drin, SLI ist für mich absolut keine Option!

MfG :cool:

MartinRiggs
2007-12-27, 15:30:28
Naja, eine Gf 8800 GT kann man ja noch weit höher takten. ;)

Gut, das ist eine Aussage mit der ich was anfangen kann.

Mit meiner G80-GTS zocke ich momentan mit 1280*1024 und 2xAA und 8xAF mit getweakter High-ini-Datei und es läuft ganz gut und die Palmen stören mich nicht übermäßig. Beim Träger am Schluss wird es aber arg zäh!

Das P35-DS3 ist das beste Board was ich je hatte, das bleibt drin, SLI ist für mich absolut keine Option!



Dann hast du momentan leider keine Wahl, außerdem ist es ein Gerücht das alle 8800GT so gut gehen, meine macht bei 730/1700/950 den Arsch hoch im Alltag lasse ich sie niedriger laufen.
Warte nur gespannt wann im Luxx wieder die Flut der defekten Karten losgeht weil die Dinger hoffnungslos überlastet wurden:biggrin:
Die Stelle mit dem Träger meine ich, die späteren Level scheinen nicht so toll optimiert, da machen selbst die GTX-Jünger AA aus oder die Details weiter runter.
Also warte auf die nächste Graka-Generation und den Patch, dann sieht es gut für dich aus:wink:

P.S. Ich geb mein Gigabyte P965 auch net her, wollte auch kein Nfurz-Board haben:biggrin:

James Ryan
2007-12-27, 15:32:16
Dann hast du momentan leider keine Wahl, außerdem ist es ein Gerücht das alle 8800GT so gut gehen, meine macht bei 730/1700/950 den Arsch hoch im Alltag lasse ich sie niedriger laufen.
Warte nur gespannt wann im Luxx wieder die Flut der defekten Karten losgeht weil die Dinger hoffnungslos überlastet wurden:biggrin:
Die Stelle mit dem Träger meine ich, die späteren Level scheinen nicht so toll optimiert, da machen selbst die GTX-Jünger AA aus oder die Details weiter runter.
Also warte auf die nächste Graka-Generation und den Patch, dann sieht es gut für dich aus:wink:

P.S. Ich geb mein Gigabyte P965 auch net her, wollte auch kein Nfurz-Board haben:biggrin:

Danke für deine Einschätzung, habe mir ähnliches aber schon gedacht. ;)

MfG :cool:

dargo
2007-12-27, 16:41:24
Sorry für die blöde Frage aber:
Lohnt es sich, eine Gf 8800 GTS/640 @ 675/1566/1000 MHz gegen eine Gf 8800 GT/512 MB oder 1024 MB zu tauschen?
Speziell habe ich da Crysis im Auge, möchte gerne mit High-Details unter WinXP in 1280*1024 und 4xMSAA + 8xAF zocken.
Kurz und knapp: Würde sich das lohnen oder lieber auf eine Gf 9800 GT warten?

Diese Frage ist relativ einfach zu beantworten. Für 1280x1024 4xMSAA/8xAF brauchst du bei Crysis (solange Crytek mit dem Performance-Patch nicht viel reißt) ca. 180-200% der alten G8800GTS Leistung oder ~150-160% der G8800GTX Leistung. Und solche Grafikkarte wird es unter dem G80/92 nicht geben.

Gast
2007-12-30, 12:37:39
Mit 2AA/4AF ist Crysis bei 1680x1050 unter XP auf high,Shadows low,Postpr. medium mit der G92GTS gut spielbar.Auf dem Träger beim Kampf mit dem Mutterschiff musste ich auch AA rausnehmen.

huw11
2008-01-03, 16:30:40
Also ich spiele Crysis mit 1680x1050 mit AA 4x und alles auf hoch, bin jetzt bei der Mission Core und alles läuft mit meiner GTS G80 bisher flüssig. Solange ich 30 fps hab reicht mir das eh aus, ich brauche keine 115 fps und ein Umstieg von der alten GTS auf eine neue GTS bei ca. 50 Euro Verlust ist nicht wirklich Sinnvoll. Eigendlich sollte man doch lieber warten bis die neuen 9xxx Modelle raus kommen.

James Ryan
2008-01-03, 16:34:01
Nach der Mission Core wirst du einen deutlichen Perfomancerückgang feststellen. Das letzte Level ist dann richtig übel.
Spielst du denn ohne AF?

MfG :cool:

huw11
2008-01-03, 18:48:11
Spielst du denn ohne AF?

MfG :cool:

nein, mit 8xAF, hab ich nur vergessen zu schreiben. Bin aber mal gespannt wie meine GTS bei den nächsten Missionen einknickt :uroll:

huw11
2008-01-04, 23:34:53
so, jetzt bin ich mit Crysis durch, es lief zwar auf dem Flugzeugträger nicht mehr so flüssig wie vorher, aber es war noch ohne reduzieren der Qualitätseinstellungen spielbar, ich hatte es mir schlimmer vorgestellt :biggrin:

Deathcrush
2008-01-05, 00:21:52
Also, alles High 1680x1050 4AA, da muss deine Schmerzgrenze aber recht niedirg liegen. Du wirst unter Garantie niemals 30FPS Average haben. Hab ja selber einer GTS und einen 20 Zoll WS TFT.

mike49
2008-01-05, 00:25:00
Crysis in high @1680x1050 + 4xAA/8AF mit einer 8800GTS?

Ist nicht wirklich ernst gemeint, oder?

Cleric
2008-01-05, 07:07:36
Crysis in high @1680x1050 + 4xAA/8AF mit einer 8800GTS?

Ist nicht wirklich ernst gemeint, oder?
Das ist 1680x1050 nicht 1600x1200... durchaus noch spielbar auf der 88GTS512oc

huw11
2008-01-05, 11:20:35
einschließlich der Mission Core lief das Spiel in den oben genannten Einstellungen gut und flüssig. Auf dem Flugzeugträger gabs dann schon mal ein paar Hakler und ich denke auch das es da ab und an mal unter 30 fps ging, aber es war noch recht gut spielbar. Es gibt natürlich Leute, die da empfindlicher sind als ich ;)

huw11
2008-01-05, 11:27:54
mal ne andere Frage, stimmt es eigentlich, das die G80 GTS beim OC besser skalieren und es sich auch in mehr Leistung bemerkbar macht. Im Gegensatz zu den G92 GT/GTS, bei denen soll das Übertakten ja angeblich nicht so viel bringen?

AnarchX
2008-01-05, 11:32:43
Kommt ganz auf die Games drauf an, aber die G80-Karten haben natürlich meist ein höheres Potential beim RAM und mit den breiteren SIs, ergibt das einen deutlichen Bandbreitenvorsprung gegenüber den G92-Karten, weswegen diese erst sehr spät limitiert und sich eben auch die übertaktete GPU besser entfalten kann.

Byteschlumpf
2008-01-05, 12:14:37
einschließlich der Mission Core lief das Spiel in den oben genannten Einstellungen gut und flüssig. Auf dem Flugzeugträger gabs dann schon mal ein paar Hakler und ich denke auch das es da ab und an mal unter 30 fps ging, aber es war noch recht gut spielbar. Es gibt natürlich Leute, die da empfindlicher sind als ich ;)
Laut diverser Benchmarks wundert es mich überhaupt, dass bei diesen Settings mehr als 30fps überhaupt möglich sind - insbesondere unter Direct3D-10!

Zwischen 1600x1200 und 1650x1080 liegen nur 138.000 Pixel, die mehr zu berechnen sind. Das kann es ja wohl kaum ausmachen.

huw11
2008-01-05, 14:58:42
Laut diverser Benchmarks wundert es mich überhaupt, dass bei diesen Settings mehr als 30fps überhaupt möglich sind - insbesondere unter Direct3D-10!

Zwischen 1600x1200 und 1650x1080 liegen nur 138.000 Pixel, die mehr zu berechnen sind. Das kann es ja wohl kaum ausmachen.

jo, das hatte ich bisher noch nicht erwähnt, ich habe noch XP also DirectX 9, macht sicher was aus oder? Wie groß ist denn der Unterschied?

Deathcrush
2008-01-05, 17:43:19
Also wer behauptet, das er mit 1680x1050 4AA @high flüssig Spielen kann, egal ob DX9 oder DX10, hat sie einfach nicht mehr alle :D Das geht nicht! Egal ob erstes, zweites oder fünftes Level. NEVER!! Ich hab selber eine GTS @750/1000 und selbst 2AA ist mit 1680 @High nicht möglich.

EDIT
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gts_512/21/

Bei 1680x1050 +4AA dürfte auch der Vram knapp werden. Was aber nicht weiter schlimm ist, da selbst ein GTX hier versagen würde.

1600x1200 AVG 8FPS

mike49
2008-01-05, 18:37:23
Also wer behauptet, das er mit 1680x1050 4AA @high flüssig Spielen kann, egal ob DX9 oder DX10, hat sie einfach nicht mehr alle :D Das geht nicht! Egal ob erstes, zweites oder fünftes Level. NEVER!! Ich hab selber eine GTS @750/1000 und selbst 2AA ist mit 1680 @High nicht möglich.

Kann ich nur bestätigen. Selbst mit nur 2xAA wird das teils schon zur Ruckelorgie.


http://www.computerbase.de/artikel/h...00_gts_512/21/

Bei 1680x1050 +4AA dürfte auch der Vram knapp werden. Was aber nicht weiter schlimm ist, da selbst ein GTX hier versagen würde.

1600x1200 AVG 8FPS

Die avg fps der 8800GTS 640 sind bei der Auflösung übrigens 12,1 und nicht 8 ;)
Wie man das als flüssig empfinden kann ist mir allerdings auch ein Rätsel...

Edit:
Ja, hier wird übrigens der Speicher der G92 512MB Karten knapp, sehr schön zu sehen an 8 vs. 12 fps (512 vs. 640MB).

Deathcrush
2008-01-05, 19:04:53
Ich rede aber nicht von der 640er ;) Und ob nun 8 oder 12 FPS, beides ist unspielbar :D

huw11
2008-01-05, 23:06:30
tja Jungs, das tut mir leid für euch, bei mir liefs gut und nicht ruckelig (bis auf ein paar Stellen auf dem Flugzeugträger) :P , vielleicht mal ein Tröpfchen Öl in den PCI-e-Slot, dann flutschen die Bilder besser durch :weg:

CoD4 läuft bei gleichen Einstellungen bei mir erheblich schlechter :frown:

Deathcrush
2008-01-05, 23:14:12
Dann lass doch mal bei 1680x1050 4AA den GPU Bench laufen.


P.S

1680x1050 4AA ist mit der GTS G92 gar kein Problem (CoD4)

huw11
2008-01-05, 23:19:01
Dann lass doch mal bei 1680x1050 4AA den GPU Bench laufen.



Werd ich mal machen, dauert aber was, da ich Crysis erst wieder installieren muß.

Matrix316
2008-01-05, 23:49:52
Etwas offtopic, aber könnte vielleicht jemand den Threadtitel ändern? Wenn ich 8800GT512 sehe, lese ich immer 8800GTS und nicht GT... :rolleyes: ...

Bitte trennt Zahlen und Ziffern, gerade wenn es sich um S und 5 handeln könnte...

huw11
2008-01-06, 00:38:56
Ich habe das Crysis Benchmark Tool 1.05 mal laufen lassen, na gut, es waren bei AA4x=15,5 AFPS und bei AA2x=17,5 AFPS. Aber trotzdem lief das Spiel für mich gefühlt flüssiger als der Benchmark :biggrin: