PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Große differenz Toms vs andere reviews bei GF 6800u


Mad-Marty
2004-04-15, 21:55:21
Hi,

sagt mal, fällt das nur mir auf, das bei Toms die GF benchmarks mal wieder extrem übertrieben gut aussehen für die GF 6800 im vergleich zu allen anderen Reviews ?


Dabei meine ich noch nichtmal den cpu limitierten 3dcenter test, aber andere haben mit A64 / 3,2 er P4 getestet und nicht eine verdoppelung der leistung in fast allen lagen ...


Das ding ist sehr schnell keine frage,
aber im mittel sinds ca 60 % - 70 % mehrspeed gegenüber
aktuellen high-ende. Bei Toms sinds komischerweise mal wieder konstant 100%.

*ein alle reviews lesender Mad-Marty* ;-)

LovesuckZ
2004-04-15, 22:02:16
Der Speedvorteil ebwegt sich zwischen 80-100%. In extremen Situationen auch mal bei 150-200%.
Man kann also sagen, dass die Karte die Leistung zur alten Generation fast verdoppelt hat.

Gast
2004-04-15, 22:02:29
Das ist doch immer so :) NV und Intel schneiden dort immer mit ein paar Dollar Vorsprung ab. Im Forum wurde das ausführlich zum nv30 Launch diskutiert.

Colin MacLaren
2004-04-15, 22:15:30
Kann es sein, daß THG die Ultra und z.B. anandtech nur die nonUltra getestet haben?

Mad-Marty
2004-04-15, 22:27:43
@ Lovesuckz :

Sorry, du bist das Stefan Payne pendant - soll heissen voll biased - und von konstant min. 80% bis 200 % ?! kannst nur du reden ...

ICH habe keine 200 % mehrleistung gesehen (zumindest nicht gegenüber eine R9800XT ) - und vermutlich nicht mal Razor [obwohl ich mir da noch nicht ganz sicher bin ] ;-)



@ Gast
Nunja vermutet habe ich es auch schon, aber sooo krass ist es nie aufgefallen - das schreit ja schon danach ...

@ Poster #3:
Afaik hatten alle das selbe sample ... die 6800 u
==========================================

Toms - Ut2k4 1600x1200 4AA 8AF (http://www.de.tomshardware.com/graphic/20040414/nv40_geforce6800ultra-26.html)
Anandt - Ut2k4 1600x1200 4AA 8AF (http://www.anandtech.com/video/showdoc.html?i=2023&p=21)
firingsquad - Ut 2k4 1600x1200 4AA 8AF (http://www.firingsquad.com/hardware/nvidia_geforce_6800_ultra/images/ut16004xaa8xaniso.gif)
-------------------------------------

Anandt FarCry 1600x1200 4AA 8AF - Anandt (http://www.anandtech.com/video/showdoc.html?i=2023&p=17)
Toms Farcry 1600x1200 AA + AF (http://www.de.tomshardware.com/graphic/20040414/nv40_geforce6800ultra-42.html)
3Dcenter Farcry 1600x1200 (http://www.3dcenter.de/artikel/nv40_benchmarks/index17.php)
Firingsquad Farcry 1600x1200 4xAA (http://www.firingsquad.com/hardware/nvidia_geforce_6800_ultra/page23.asp)



Also wo immer du hier 200% siehst (mit gutem willen sehe ich hier konstant nur 80 % selbst bei 1600x1200 - ausser bei Toms wie gesagt) - vielleicht ist die aktuelle Brille nicht mehr gut genug für deine Augen?

LovesuckZ
2004-04-15, 22:33:34
Original geschrieben von Mad-Marty
@ Lovesuckz :

Sorry, du bist das Stefan Payne pendant - soll heissen voll biased - und von konstant min. 80% bis 200 % ?! kannst nur du reden ...

Extremsituation: http://www.3dcenter.de/artikel/nv40_benchmarks/index22.php


ICH habe keine 200 % mehrleistung gesehen (zumindest nicht gegenüber eine R9800XT ) - und vermutlich nicht mal Razor [obwohl ich mir da noch nicht ganz sicher bin ] ;-)

Das ist wohl dann nicht mein Versagen...

Lokadamus
2004-04-16, 02:09:34
mmm...

Ein Problem sehe ich darin, das überall eine andere Hardwarebasis (CPU, Board und Ram) benutzt wurde, sie sind sich alle nur in dem Punkt einige, dass die Geforce 6800 je nach Einstellung (Auflösung und AF, AA) schneller ist ... das Tom's Hardware irgendwie im selben Haus sitzt, wie Intel ist nichts neues ...

Gast
2004-04-16, 02:14:07
Wobei ati bei den letzten Tests bei thg sehr gut weggekommen ist bzw gegen die nvdia Karten gewonnen hat.

Von einer pro-nvidia würd ich bei thg erstmal nicht sprechen.

Gast
2004-04-16, 02:18:27
http://www.de.tomshardware.com/graphic/20031023/nvidia-nv38-nv36-42.html

hier z.B. mal das Fazit des letzten Vergleichs. Eindeutig pro Ati.

thg hat auch imo einen Ati freundlichen benchmarkparkours. Das mit pro-nvidia war mal. (oder ist es wieder da?)

Colin MacLaren
2004-04-16, 10:53:12
Vielleicht hatte NV die letzte Zeit nicht so gut gezahlt und mußte daher "bestraft" werden ;)

DrumDub
2004-04-16, 11:08:12
Original geschrieben von LovesuckZ
Extremsituation: http://www.3dcenter.de/artikel/nv40_benchmarks/index22.php

Das ist wohl dann nicht mein Versagen...

hehe... sehr geil, lovesuckz. ;D

wird interessant sein, wie sich die x800xt in spellforce schlägt.

deekey777
2004-04-16, 11:08:27
Original geschrieben von Gast
http://www.de.tomshardware.com/graphic/20031023/nvidia-nv38-nv36-42.html

hier z.B. mal das Fazit des letzten Vergleichs. Eindeutig pro Ati.

thg hat auch imo einen Ati freundlichen benchmarkparkours. Das mit pro-nvidia war mal. (oder ist es wieder da?)


Und welche Benchmarks sind es denn genau?

Mad-Marty
2004-04-16, 13:10:39
Original geschrieben von LovesuckZ
Extremsituation: http://www.3dcenter.de/artikel/nv40_benchmarks/index22.php



Das ist wohl dann nicht mein Versagen...


Spellforce .... gleichzusetzen mit unbedeutend.

Obwohl ich zugeben muss das der eine punkt an dich geht ;)
hab ich wohl übersehen.

aber zurück zu konstanten werten : 100% ist die ausnahme, nicht die regel. ich denke mit 60-70% können wir rechnen.

------------------------------------------------------

Sicher ist die Basis teilweise unterschiedlich, aber meist wurden A64 3200+ oder P4 3200 genutzt ...

Müsste man jetzt vielleicht mal abprüfen von wem welche artikel geschrieben sind, Lars "Borsti" Weinand ist ja nun nicht gerade als ATi fan bekannt ... www.rivastation.de


Vermutlich schwankt das bei Toms je nach Autor sehr stark

deekey777
2004-04-16, 14:31:50
Na ja, die Gamestar ist auch nicht viel besser: Seite 4 (http://www.gamestar.de/magazin/specials/hardware/17040/4.html) ihres Tests. Der Titel: Doppelt so schnell wie Radeon 9800 XT :|

Quasar
2004-04-16, 14:55:49
Original geschrieben von Gast
http://www.de.tomshardware.com/graphic/20031023/nvidia-nv38-nv36-42.html

hier z.B. mal das Fazit des letzten Vergleichs. Eindeutig pro Ati.

thg hat auch imo einen Ati freundlichen benchmarkparkours. Das mit pro-nvidia war mal. (oder ist es wieder da?)

Nuja, THG hat ziemlich schnell ihren Parcours umgestellt auf eine Mehrheit an Games, die Shader benutzen und daher i.d.R. etwas weniger CPU-Lastig sind (oder waren mit den FXen), als ältere Games, bei denen die Karten ihrer hohen Füllrate wegen öfter mal die CPU in Bedrängnis bringen konnten.

Das "rächt" sich nun eben, wo nV in Sachen Shadern deutlich nachgelegt hat. Mal sehen, was ATi so bringt...

AYAlf
2004-04-22, 10:48:45
ja mindesten 500% mehrleistung gegenueber den alten karten (uebertreib)! manch nvidia fanboys sind echt zum .... :asshole:

fakt ist .. 6800u ist nicht mal doppelt so schnell wie die 9800xt in aktuellen spielen. ihr werdet es erleben wenn ihr die karten in den haenden haltet.

Marodeur
2004-04-22, 14:02:51
Machmal frag ich mich wie beschränkt manche denken. Nicht sind, sondern denken... will ja nicht beleidigen (höchstens ein bisserl das es im Rahmen bleibt ;) )

Ich mein wir haben hier ein Karte der neuen Generation und sie ist in AKTUELLEN Spielen bereits 60-80 oder 100% schneller als die SCHNELLSTEN aktuellen Karten.

HALLOOOO! Erde an Leser! Denkt mal etwas zurück!

Als die GeForce 4 rauskam, sah man da große Mehrperformance gegenüber GeForce 3? Ne, nicht wirklich, erst als ein Spiele wie UT2003 rauskam merkte man endlich einen größeren Unterschied.
Wenn man die Reviews zur Radeon 9800Pro oder FX5900 anschaut, merkt man da einen großen Unterschied zur GF4TI4600? Ne, erst bei wirklich neuen Spielen welche die ganzen Effekte unterstützen merkte man wirklich was. Man braucht sich ja nur mal bei 3DCenter das alte Review durchsehen und da ists gar nur eine 4200...
http://www.3dcenter.de/artikel/r9500+9700+9800_vs_gffx5200+5600+5800/

Jetzt kommt eine Grafikkarte raus die bereits JETZT eine ERHEBLICHE Mehrperfomance bietet welche man bei anderen Generationswechseln nicht wirklich hatte und jetzt sinds alle am meckern das man ja "nur" 60-80 Prozent mehr hat.

Irgendwie drehens wohl alle etwas am Rad scheint mir... Ich frag mich was manche erwarten... Anscheinend ein Wunder, aber für die sind die Chipdesigner nicht verantwortlich...
*kopfschüttel*

Vielleicht grad ein bisserl OT aber so wie hier grad wieder mit den Prozenten herumgeworfen wird und gleich wieder von "nur sonundsoviel" geredet wird musste das mal raus...

ow
2004-04-22, 14:34:34
.

mictasm
2004-04-22, 15:39:11
WOW, es gibt noch vernünftige Leute hier! Danke Marodeur!

MadMan2k
2004-04-22, 15:55:59
Original geschrieben von Marodeur
HALLOOOO! Erde an Leser! Denkt mal etwas zurück!

Als die GeForce 4 rauskam, sah man da große Mehrperformance gegenüber GeForce 3? Ne, nicht wirklich, erst als ein Spiele wie UT2003 rauskam merkte man endlich einen größeren Unterschied.
Wenn man die Reviews zur Radeon 9800Pro oder FX5900 anschaut, merkt man da einen großen Unterschied zur GF4TI4600? Ne, erst bei wirklich neuen Spielen welche die ganzen Effekte unterstützen merkte man wirklich was. Man braucht sich ja nur mal bei 3DCenter das alte Review durchsehen und da ists gar nur eine 4200...
http://www.3dcenter.de/artikel/r9500+9700+9800_vs_gffx5200+5600+5800/

wenn du dir die Benchmarks etwas genauer anschaust, wirst du merken, dass sie alle extrem CPU Limitiert sind.
Und wenn du jetzt noch die entsprechenden Ergebnisse aus dem aktuellen Test der 6800Ultra raussuchst wirst du merken, dass sie auch nicht schneller ist.


Jetzt kommt eine Grafikkarte raus die bereits JETZT eine ERHEBLICHE Mehrperfomance bietet welche man bei anderen Generationswechseln nicht wirklich hatte und jetzt sinds alle am meckern das man ja "nur" 60-80 Prozent mehr hat.

das sind dann aber dann doch die Ausnahmen.
In der Regel ist der Vorsprung 0-20% unter 1024x768 bis zu 60% unter 1600x1200.

Colin MacLaren
2004-04-22, 16:02:42
Die Frage ist vor allem, ob man die Shadereffekte wirklich braucht. Bei Spellforce schalt ich halt die komplexen Schatten aus und schon hab ich ähnliche Framerates wie eine 6860 Ultra.

Bei Far Cry merkt man es nur bei einigen Lichteffekte, das geht aber eher unter, wenn man nicht explizit darauf achtet.

Bei Halo ist der Unterschied quasi nicht vorhanden.

Tomb Raider spielt keiner ;D

In Spielen, wo Shader nicht der primäre limitierende Faktor sind, ist der Unterschied für einen Generationswechsel durchaus OK, aber nicht bahnbrechend, zumal eine gewisse Tendenz zu CPU-Limitierung bei vielen beliebten Spielen zu erkennen ist.

Das liegt ähnlich wie beim Umstieg von GF2 af 3 bzw. 4. Ich freute mich auf tolle DX8-Effekte, und alles, was ich bekam (und auch auffiel), war schönes Wasser in Morrowind im Küstenbereich und in den Springbrunnen vorm Tempel in Neverwinter. Ja doll.... :)

LovesuckZ
2004-04-22, 16:03:42
Original geschrieben von MadMan2k
das sind dann aber dann doch die Ausnahmen.
In der Regel ist der Vorsprung 0-20% unter 1024x768 bis zu 60% unter 1600x1200.

Nein, die 6800U ist im Durchschnitt 80% schneller, wenn der Flaschenhals bei der Grafikkarte liegt. Daher sind die Zahlen von Marodeur keine "Ausnahmen".

Tigerchen
2004-04-22, 16:13:42
Original geschrieben von Mad-Marty
Spellforce .... gleichzusetzen mit unbedeutend.

Obwohl ich zugeben muss das der eine punkt an dich geht ;)
hab ich wohl übersehen.

aber zurück zu konstanten werten : 100% ist die ausnahme, nicht die regel. ich denke mit 60-70% können wir rechnen.

------------------------------------------------------

Sicher ist die Basis teilweise unterschiedlich, aber meist wurden A64 3200+ oder P4 3200 genutzt ...

Müsste man jetzt vielleicht mal abprüfen von wem welche artikel geschrieben sind, Lars "Borsti" Weinand ist ja nun nicht gerade als ATi fan bekannt ... www.rivastation.de


Vermutlich schwankt das bei Toms je nach Autor sehr stark

Nur weil Borsti der Inhaber von Rivastation ist heißt das noch lange nicht daß er nicht objektiv ist. Also nix gegen Borsti! Die Leistung des nV40 ist schon nicht von schlechten Eltern. Und die Frage wo der nV40 wirklich steht wird in ein paar Tagen beantwortet sein. Bis dahin sollte man und werde ich das Thema ruhen lassen.

MadMan2k
2004-04-22, 16:48:35
Original geschrieben von LovesuckZ
Nein, die 6800U ist im Durchschnitt 80% schneller, wenn der Flaschenhals bei der Grafikkarte liegt. Daher sind die Zahlen von Marodeur keine "Ausnahmen". ok, dann formulier ichs für dich anders:
"bei den meisten Spielen ist der Flaschenhals nicht bei der GraKa"

Gast
2004-04-22, 16:52:04
Original geschrieben von Marodeur
Machmal frag ich mich wie beschränkt manche denken. Nicht sind, sondern denken... will ja nicht beleidigen (höchstens ein bisserl das es im Rahmen bleibt ;) )

Ich mein wir haben hier ein Karte der neuen Generation und sie ist in AKTUELLEN Spielen bereits 60-80 oder 100% schneller als die SCHNELLSTEN aktuellen Karten.

HALLOOOO! Erde an Leser! Denkt mal etwas zurück!

Als die GeForce 4 rauskam, sah man da große Mehrperformance gegenüber GeForce 3? Ne, nicht wirklich, erst als ein Spiele wie UT2003 rauskam merkte man endlich einen größeren Unterschied.
Wenn man die Reviews zur Radeon 9800Pro oder FX5900 anschaut, merkt man da einen großen Unterschied zur GF4TI4600? Ne, erst bei wirklich neuen Spielen welche die ganzen Effekte unterstützen merkte man wirklich was. Man braucht sich ja nur mal bei 3DCenter das alte Review durchsehen und da ists gar nur eine 4200...
http://www.3dcenter.de/artikel/r9500+9700+9800_vs_gffx5200+5600+5800/

Jetzt kommt eine Grafikkarte raus die bereits JETZT eine ERHEBLICHE Mehrperfomance bietet welche man bei anderen Generationswechseln nicht wirklich hatte und jetzt sinds alle am meckern das man ja "nur" 60-80 Prozent mehr hat.

Irgendwie drehens wohl alle etwas am Rad scheint mir... Ich frag mich was manche erwarten... Anscheinend ein Wunder, aber für die sind die Chipdesigner nicht verantwortlich...
*kopfschüttel*

Vielleicht grad ein bisserl OT aber so wie hier grad wieder mit den Prozenten herumgeworfen wird und gleich wieder von "nur sonundsoviel" geredet wird musste das mal raus...

Ja GF4 Ti4200 zu GF3 Ti500 war anfangs fast kein Unterschied. Genau wie GF2 Ultra zu GF 3. Aber der Vorsprung Radeon 9700pro zu Ti4600 war in Extremsituationen 600% (Chameleonmark mit AA/AF), 70 - 80% waren da auch das min. was man erwarten würd, un d genau das hat die Radoen auch geboten... (bei JKII war die Karte mit AA/AF immerhin 4x so schnell)

Damals war auch keienr aus dem Häusschen, wieso sollte es jetzt jemand sein, v.A. weil der direkte Konkurrent zur 6800 Ultra noch nichtmal released wurde. Und wenn bei Farcry, das Spiel wo mans am ehesten erwarten würd, die 6800 Ultra sich nicht so deutlich absetzen kann, wie man es erwartet hat, dann ist es durchaus legitim, v.A. in anbetracht der tw. geboteten BQ, das neue NV Flaggschiff auch mal kritisieren zu dürfen.

Gast
2004-04-22, 16:53:07
Original geschrieben von Colin MacLaren
Die Frage ist vor allem, ob man die Shadereffekte wirklich braucht. Bei Spellforce schalt ich halt die komplexen Schatten aus und schon hab ich ähnliche Framerates wie eine 6860 Ultra.

Bei Far Cry merkt man es nur bei einigen Lichteffekte, das geht aber eher unter, wenn man nicht explizit darauf achtet.

Bei Halo ist der Unterschied quasi nicht vorhanden.

Tomb Raider spielt keiner ;D

In Spielen, wo Shader nicht der primäre limitierende Faktor sind, ist der Unterschied für einen Generationswechsel durchaus OK, aber nicht bahnbrechend, zumal eine gewisse Tendenz zu CPU-Limitierung bei vielen beliebten Spielen zu erkennen ist.

Das liegt ähnlich wie beim Umstieg von GF2 af 3 bzw. 4. Ich freute mich auf tolle DX8-Effekte, und alles, was ich bekam (und auch auffiel), war schönes Wasser in Morrowind im Küstenbereich und in den Springbrunnen vorm Tempel in Neverwinter. Ja doll.... :)

Die Frage ist, obe man Shadereffekte überhaupt braucht. Ein gutes Spiel sollte einem so fesseln, dass man keine Zeit hat auf Effekte zu auchte. Lasst uns alle wieder GF2s einbauen...

Steel
2004-04-22, 16:56:20
Original geschrieben von Mad-Marty
Müsste man jetzt vielleicht mal abprüfen von wem welche artikel geschrieben sind, Lars "Borsti" Weinand ist ja nun nicht gerade als ATi fan bekannt ... www.rivastation.de


Vermutlich schwankt das bei Toms je nach Autor sehr stark

Ja *ROFL* ist klar, weil die Domain den Namen einer mittelalterlichen NV Karte trägt, hat Borsti die Benchmarkwerte verfälscht oder wie jetzt?!? :schlag:

AYAlf
2004-04-22, 17:15:32
Original geschrieben von Gast
Ja GF4 Ti4200 zu GF3 Ti500 war anfangs fast kein Unterschied. Genau wie GF2 Ultra zu GF 3. Aber der Vorsprung Radeon 9700pro zu Ti4600 war in Extremsituationen 600% (Chameleonmark mit AA/AF), 70 - 80% waren da auch das min. was man erwarten würd, un d genau das hat die Radoen auch geboten... (bei JKII war die Karte mit AA/AF immerhin 4x so schnell)

Damals war auch keienr aus dem Häusschen, wieso sollte es jetzt jemand sein, v.A. weil der direkte Konkurrent zur 6800 Ultra noch nichtmal released wurde. Und wenn bei Farcry, das Spiel wo mans am ehesten erwarten würd, die 6800 Ultra sich nicht so deutlich absetzen kann, wie man es erwartet hat, dann ist es durchaus legitim, v.A. in anbetracht der tw. geboteten BQ, das neue NV Flaggschiff auch mal kritisieren zu dürfen.

meine rede. in den aktuellen spielen wie splinter cell oder farcry ist kein unterschied zu sehen. egal welcher proz da immer noch kommen mag. der unterschied bleibt eher gering. bei dem wechsel gf4 ti zu den radeon 9700pro war ein echter quantensprung zu sehen, egal in welchem spiel. ich erinnere mich da nur an gothic2. einem spiel der damals neueren generation. die 6800 ist eine tadellose karte bei alten spielen. bei neuen dx9 anwendungen eher nicht. schaut euch doch mal die tests genau an. in q3a basierten spielen jk, cod ist die karte wirklich schnell. aber das war ja schon immer nvidias vorteil. in den wirklich wichtigen benchmarks ist der vorsprung einfach zu gering (meiner ansicht nach).
und hoert mit dem gequatsche auf farcry sei ein sonderfall. es gibt dann x sonderfaelle. und komischerweise immer bei den aktuellen dx9 spielen.

LovesuckZ
2004-04-22, 17:18:47
Hat Nagus/Tarkin einen neuen Account?
Sehr lustig, was heutzutage aus der roten ecke kommt
;D

MarcWessels
2004-04-22, 17:58:36
Original geschrieben von Colin MacLaren
Die Frage ist vor allem, ob man die Shadereffekte wirklich braucht. Bei Spellforce schalt ich halt die komplexen Schatten aus und schon hab ich ähnliche Framerates wie eine 6860 Ultra.

:O

Quasar
2004-04-22, 18:48:32
Original geschrieben von Tigerchen

Nur weil Borsti der Inhaber von Rivastation ist heißt das noch lange nicht daß er nicht objektiv ist. Also nix gegen Borsti! Die Leistung des nV40 ist schon nicht von schlechten Eltern. Und die Frage wo der nV40 wirklich steht wird in ein paar Tagen beantwortet sein. Bis dahin sollte man und werde ich das Thema ruhen lassen.


Am geilsten finde ich noch, daß früher (in der R8500/GF4-Ära) schonmal genau derselbe Tenor bezgl. Borsti herrschte.

Dann kamen die R300 und Ableger und auf einmal war THG wieder eine der ersten Adressen (s. mein Posting auf der letzten Seite bezgl. deren Benchmarkparcours und Auswirkung) um ATis Überlegenheit zu verlinken. =)

Jetzt wagt es Borsti wieder, nVidia gewinnen zu lassen und schwuuuups, ist er wieder der böse Fanboy.

Vielleicht entscheiden diejenigen, auf die diese Argumentation zutrifft, sich einfach mal, in welche Richtung sie ihre Hälse wenden wollen?

AYAlf
2004-04-22, 19:05:57
Original geschrieben von Quasar
Am geilsten finde ich noch, daß früher (in der R8500/GF4-Ära) schonmal genau derselbe Tenor bezgl. Borsti herrschte.

Dann kamen die R300 und Ableger und auf einmal war THG wieder eine der ersten Adressen (s. mein Posting auf der letzten Seite bezgl. deren Benchmarkparcours und Auswirkung) um ATis Überlegenheit zu verlinken. =)

Jetzt wagt es Borsti wieder, nVidia gewinnen zu lassen und schwuuuups, ist er wieder der böse Fanboy.

Vielleicht entscheiden diejenigen, auf die diese Argumentation zutrifft, sich einfach mal, in welche Richtung sie ihre Hälse wenden wollen?

glaube nicht das einer thg zu einer super review seite gekuehrt hat. auf alle faelle keine ati fans. da thg eher nvidia und intel lastig ist. war schon immer so. soweit ich mich entsinnen kann.

Quasar
2004-04-22, 19:20:07
Dann such mal hier ein bissel rum.... X-D

edit:
Was ich sagen will: Als ATi bei THGs Reviews die Krone trug, war anscheinend alles in Butter mit Borsti, Tom usw...
Eine "Super Review Seite" hast du ins Spiel gebracht, nicht ich.

Godmode
2004-04-22, 19:32:46
Original geschrieben von AYAlf
meine rede. in den aktuellen spielen wie splinter cell oder farcry ist kein unterschied zu sehen. egal welcher proz da immer noch kommen mag. der unterschied bleibt eher gering. bei dem wechsel gf4 ti zu den radeon 9700pro war ein echter quantensprung zu sehen, egal in welchem spiel. ich erinnere mich da nur an gothic2. einem spiel der damals neueren generation. die 6800 ist eine tadellose karte bei alten spielen. bei neuen dx9 anwendungen eher nicht. schaut euch doch mal die tests genau an. in q3a basierten spielen jk, cod ist die karte wirklich schnell. aber das war ja schon immer nvidias vorteil. in den wirklich wichtigen benchmarks ist der vorsprung einfach zu gering (meiner ansicht nach).
und hoert mit dem gequatsche auf farcry sei ein sonderfall. es gibt dann x sonderfaelle. und komischerweise immer bei den aktuellen dx9 spielen.

Guter Tip: Informier dich lieber mal etwas besser, bevor du was postest. Gerade in diesen neuen Dx9 Games kann die Geforce 6 ihre Vorteile ausspielen.

Und bei Farcry gibts irgendwelche Bugs, die mit DX9c und mit mit dem Patch 1.2 gelöst werden sollten.

tokugawa
2004-04-22, 19:33:11
Original geschrieben von Gast
Ja GF4 Ti4200 zu GF3 Ti500 war anfangs fast kein Unterschied. Genau wie GF2 Ultra zu GF 3. Aber der Vorsprung Radeon 9700pro zu Ti4600 war in Extremsituationen 600% (Chameleonmark mit AA/AF), 70 - 80% waren da auch das min. was man erwarten würd, un d genau das hat die Radoen auch geboten... (bei JKII war die Karte mit AA/AF immerhin 4x so schnell)

Damals war auch keienr aus dem Häusschen, wieso sollte es jetzt jemand sein, v.A. weil der direkte Konkurrent zur 6800 Ultra noch nichtmal released wurde. Und wenn bei Farcry, das Spiel wo mans am ehesten erwarten würd, die 6800 Ultra sich nicht so deutlich absetzen kann, wie man es erwartet hat, dann ist es durchaus legitim, v.A. in anbetracht der tw. geboteten BQ, das neue NV Flaggschiff auch mal kritisieren zu dürfen.

Ich finde hier die Formulierung "die R300 war x mal so schnell" irreführend. Ich würde in diesem Fall die Formulierung umdrehen "die GF4 Ti4600 war x mal so langsam".

Und zwar deswegen, weil die Rohpower ohne AA/AF doch eher mäßig gestiegen ist (IMO) bei der R300 im Vergleich zu den damaligen Konkurrenzprodukten. Und dass mit AA/AF die R300 weniger empfindlich in Bezug auf die Performance reagiert wie die damalige Konkurrenz würd ich nicht als "x mal schneller" sondern als "x mal weniger Performance-kostendes AA/AF" oder eben die Konkurrenz als "x mal langsamer bei AA/AF" bezeichnen. Ansonsten impliziert das eine (nicht im Übermaß) vorhandene Mehr-Rohperformance.

Nur meine Meinung. Und ja, ich hab sowohl eine GF4 Ti als auch eine R300.

tokugawa
2004-04-22, 19:36:01
Original geschrieben von AYAlf
meine rede. in den aktuellen spielen wie splinter cell oder farcry ist kein unterschied zu sehen. egal welcher proz da immer noch kommen mag. der unterschied bleibt eher gering. bei dem wechsel gf4 ti zu den radeon 9700pro war ein echter quantensprung zu sehen, egal in welchem spiel. ich erinnere mich da nur an gothic2. einem spiel der damals neueren generation. die 6800 ist eine tadellose karte bei alten spielen. bei neuen dx9 anwendungen eher nicht. schaut euch doch mal die tests genau an. in q3a basierten spielen jk, cod ist die karte wirklich schnell. aber das war ja schon immer nvidias vorteil. in den wirklich wichtigen benchmarks ist der vorsprung einfach zu gering (meiner ansicht nach).
und hoert mit dem gequatsche auf farcry sei ein sonderfall. es gibt dann x sonderfaelle. und komischerweise immer bei den aktuellen dx9 spielen.

Genau das finde ich nicht... der Sprung von meiner GF4 Ti zu meiner R300 (9500 Pro) hab ich als eher klein empfunden. Gut, mit aktiviertem AA/AF war der Sprung größer, aber ich hab mir einfach auch eine höhere Mehr-Rohperformance ohne AA/AF erwartet, und leider nicht bekommen.

Der Sprung von meiner Riva TNT2/Voodoo2 auf eine GeForce2 GTS war jedenfalls merkbarer :D

Bastler
2004-04-22, 19:42:00
Ich habe zwar keine Ahnung.
Aber ich vermute mal das NV nicht alle Transistoren auf dem Chip freigeschaltet hat.
Da die mögliche Antwort auf ATI ein neuer Treiber (Freischaltung) sein kann.
Hier pokert NV und ATI muß die Karten auf den Tisch legen.
Um mithalten zu können wird ATI die Taktrate erhöhen ,deswegen der spätere Termin.
Diesmal macht NV-das Rennen(mein Tip )

Gast
2004-04-22, 19:53:35
Original geschrieben von Mad-Marty
Spellforce .... gleichzusetzen mit unbedeutend.


Hinter Spellforce steht die "Krass Engine" und die würde ich nicht als unbedeutend abtun.
Es gibt Gerüchte (nein ich kann keine Quelle angeben), daß die Gothic3 Engine darauf aufbauen wird...

Tigerchen
2004-04-23, 15:52:08
Original geschrieben von tokugawa
Ich finde hier die Formulierung "die R300 war x mal so schnell" irreführend. Ich würde in diesem Fall die Formulierung umdrehen "die GF4 Ti4600 war x mal so langsam".

Und zwar deswegen, weil die Rohpower ohne AA/AF doch eher mäßig gestiegen ist (IMO) bei der R300 im Vergleich zu den damaligen Konkurrenzprodukten. Und dass mit AA/AF die R300 weniger empfindlich in Bezug auf die Performance reagiert wie die damalige Konkurrenz würd ich nicht als "x mal schneller" sondern als "x mal weniger Performance-kostendes AA/AF" oder eben die Konkurrenz als "x mal langsamer bei AA/AF" bezeichnen. Ansonsten impliziert das eine (nicht im Übermaß) vorhandene Mehr-Rohperformance.

Nur meine Meinung. Und ja, ich hab sowohl eine GF4 Ti als auch eine R300.

Warum "vergißt" du an dieser Stelle die x-mal höhere Shaderleistung der R300?

Colin MacLaren
2004-04-23, 15:55:33
Bloß leider laufen die Spiele, die vermehrt auf PS 3.0-Shader setzen, auch auf de R3xx-Karten nicht sonderlich flüssi, siehe Halo oder Far Cry, so daß man selbige besser Effekte besser gleich deaktiviert.

Mr. Lolman
2004-04-23, 16:59:49
Original geschrieben von Colin MacLaren
Bloß leider laufen die Spiele, die vermehrt auf PS 3.0-Shader setzen, auch auf de R3xx-Karten nicht sonderlich flüssi, siehe Halo oder Far Cry, so daß man selbige besser Effekte besser gleich deaktiviert.

Hä, ich spiel FarCry mit 4xAA 4xAF, und max. Details, also bitte :nono:

ow
2004-04-23, 17:53:51
.

CrazyIvan
2004-04-23, 18:15:15
Original geschrieben von AYAlf
meine rede. in den aktuellen spielen wie splinter cell oder farcry ist kein unterschied zu sehen. egal welcher proz da immer noch kommen mag. der unterschied bleibt eher gering. bei dem wechsel gf4 ti zu den radeon 9700pro war ein echter quantensprung zu sehen, egal in welchem spiel. ich erinnere mich da nur an gothic2. einem spiel der damals neueren generation. die 6800 ist eine tadellose karte bei alten spielen. bei neuen dx9 anwendungen eher nicht. schaut euch doch mal die tests genau an. in q3a basierten spielen jk, cod ist die karte wirklich schnell. aber das war ja schon immer nvidias vorteil. in den wirklich wichtigen benchmarks ist der vorsprung einfach zu gering (meiner ansicht nach).
und hoert mit dem gequatsche auf farcry sei ein sonderfall. es gibt dann x sonderfaelle. und komischerweise immer bei den aktuellen dx9 spielen.

Erwartest Du nach nem Upgrade Deiner Grafikkarte auch, dass Du dann schneller RARen kannst? Oder zählt dann auf einmal der Fakt, das RAR von der CPU und nicht der GPU limitiert wird???

Was wollen wir wetten, dass der prozentuale Abstand der GF6800U zur R9800XT mit nem schnelleren Prozessor noch weiter steigt?

Asmodeus
2004-04-23, 21:03:30
Was meiner Meinung nach bei der ganzen Situation zur Zeit auch immer noch vergessen wird, die Leistung einer Grafikkarte hängt auch immer sehr entscheidend vom Treiber und dessen Entwicklungsstand ab. Und vorallem bei noch nicht finalen Treibern gänzlicher neuer Grafikhardware wäre ich da immer vorsichtig schon endgültige Statments und unumstößliche Aussagen zu treffen, egal welchen Chiphersteller sie betreffen. Da sollte man a) warten, bis beide Chips verfügbar sind und b) zu beiden Chips finale Treiber vorliegen. Und gerade auf die Leistung haben sich neue Treiber bei neuen Karten eigentlich immer positiv ausgewirkt.

Und das schlecht optimierte Treiber eine schnelle Hardware auch ausbremsen können dürfte wohl hinlänglich bekannt sein.

Carsten.

mbee
2004-04-23, 22:45:13
Original geschrieben von Bastler
Ich habe zwar keine Ahnung.
Aber ich vermute mal das NV nicht alle Transistoren auf dem Chip freigeschaltet hat.
Da die mögliche Antwort auf ATI ein neuer Treiber (Freischaltung) sein kann.
Hier pokert NV und ATI muß die Karten auf den Tisch legen.
Um mithalten zu können wird ATI die Taktrate erhöhen ,deswegen der spätere Termin.
Diesmal macht NV-das Rennen(mein Tip )

Transistoren "freischalten" durch Treiberupdates????
Cool, dann schalten wohl demnächste alle P4-Besitzer die brachliegenden 64-Bit-Funktionen im Prescott auch durch ein Treiberupdate seitens Intel ein oder wie?

Sorry, aber ich musste mich gerade mich vor Lachen kringeln :D

LordDeath
2004-04-23, 23:13:03
es gibt soviele spieleszenarios, wo immer andere verhältnisse zwischen den grafikkarten stehen. warum seit ihr alle so verbissen danach, alles in eine aussage zusammenzufassen? die leistung einer graka sollte man nicht einfach versuchen zu verallgemeineren, weil so ein ding mit über 200mio transistoren schon etwas komplexer ist, so dass man sich nicht an aussagen wie "ist 70-80% schneller" stützen darf.

TinyFighter
2004-04-24, 00:33:03
Also ich finde man sollte mal abwarten bis die Treiber mal ausgereifter sind u. mal sehen wie sich die Dinger in der Realität schlagen u. nicht ständig an Benchmarks herumgurken..mir wurscht wie toll die bei den Benchmarks ist wenns bei mir dann net so ist dann brauch ichs auch nicht...sorry aber echt was erwarten manche?

Das ist ungefähr so als würde man erwarten das ich mit einem neuen Auto auf einmal zum Mond fliegen kann...

Ich finde, bezogen auf die Benchmarks, die Leistungssteigerung doch beachtlich u. vor allem die Zusatzeffekte, nur wie überall braucht man das entsprechende rundherum!!Was bringt mir ein 500 PS Motor wenn ich keine Reifen auf meinen Felgen hab?

Also ich wäre da nicht so voreillig mit schimpfen u. in den Himmel loben!!Mal etwas Geduld walten lassen!!Sorry für OT u. auch wenns keinen interessiert ich musste es mal sagen!:asshole:

tokugawa
2004-04-24, 03:15:06
Original geschrieben von LordDeath
es gibt soviele spieleszenarios, wo immer andere verhältnisse zwischen den grafikkarten stehen. warum seit ihr alle so verbissen danach, alles in eine aussage zusammenzufassen? die leistung einer graka sollte man nicht einfach versuchen zu verallgemeineren, weil so ein ding mit über 200mio transistoren schon etwas komplexer ist, so dass man sich nicht an aussagen wie "ist 70-80% schneller" stützen darf.

Genau! 100% ACK.

Performance ist nämlich nicht so trivial wie manche Leute anscheinend glauben, von daher ist eine allgemeine Aussage einfach unmöglich.

Colin MacLaren
2004-04-24, 10:04:23
Original geschrieben von Mr. Lolman
Hä, ich spiel FarCry mit 4xAA 4xAF, und max. Details, also bitte :nono:

Ja, und das läuft an allen stellen flüssig und fällt nie unter 35 fps ;D

MadManniMan
2004-04-24, 12:19:20
Original geschrieben von Colin MacLaren
Ja, und das läuft an allen stellen flüssig und fällt nie unter 35 fps ;D

Was ja auch sooooo ausschlaggebend ist :| ... FC ist doch nicht Q3A!

aths
2004-04-24, 13:05:45
Original geschrieben von ow
Welche x-mal höhere Shaderleistung? Um das mal klar zu stellen :)

Unter günstigsten Umständen hat der NV35 Takt für Takt höhere Shaderleistung als R300. In der Praxis hat der R300 aber ca. 50% höhere "nutzbare" Leistung. Wegen der schwierigen Optimierung auf CineFX2 können es in Spielen durchaus 100% sein, die der R300 bei der Arithmetik im Vorteil ist.

Bei heutigen DX9-Spielen zählt arithmetische Power meistens noch nicht so sehr, so dass NV35 (bzw. NV38) bei Verwendung von AF mit seiner Füllrate etwas Boden gut machen kann (sofern man natürlich die BQ-Vorteile durch das bessere AF vs. R360 berücksichtigt.)

Während ATI jetzt noch nicht die Features bringt, brachte NV bisher noch nicht die Leistung. Beides ist nicht ganz so schlimm, da z. B. eine 9600 Nonpro dem Publisher schon als sehr gute Karte gilt.

ow
2004-04-24, 13:28:06
.

Colin MacLaren
2004-04-24, 13:36:23
Original geschrieben von MadManniMan
Was ja auch sooooo ausschlaggebend ist :| ... FC ist doch nicht Q3A!

Das nicht, aber spätestens unter 30 fps ruckelt es ohne Ende. Empfinde ich zumindest so.

Mike
2004-04-24, 13:44:30
Far Cry ist ein Shooter, da muss man möglichst schnell zielen und feuern können, was bei niedriger Framerate nicht möglich ist... egal ob dies nun Q3 ist oder nicht :p

Ich habe Far Cry mit meiner GF4 Ti4200 und P4 @ 3GHz mit niedrigsten settings bei 1024x768 gespielt, da war die Framerate Ok - bei medium Settings war sie zwar auch *meißtens* Ok, aber halt nicht immer, und nachdem ich 1-2 mal durch schlechtes Zielen dank niedriger Framerate im Nachteil war, hab ich auf low runtergeschaltet - Nachdem ichs durchgespielt hatte, habe ich mir einige Stellen halt nochma mit sehr hohen Details angesehen, um mich auch von der Grafik ein wenig beeindrucken zu lassen :)

Gast
2004-04-24, 13:52:03
Thema Shooter:
IMO muss man da Single- und Multiplayer differenziere, nicht nach Shootern und Non-Shootern.

SP ist für mich eher das Spielerlebnis und da gehört die Grafik einfach mit dazu, ergo, einschalten, was geht.
Wenn man dann wirklich mal an 'ner Stelle gelandet ist, wo es trotz zwei, drei Versuchen aufgrund schlechten Zielens nicht weitergeht, schalte ich für diese Stelle die Details runter und danach wieder rauf.

MP spielt man IMO hauptsächlich wegen des Gewinnens und hat keine zwei, drei Versuche. Hier kommt's dann wirklich drauf an, gleich beim ersten Mal ohne Behinderung das Spiel zu machen, ergo vorher ausloten, was geht, und Details entsprechend absenken, daß man immer genug Reserven hat.

;Q

Mike
2004-04-24, 14:05:30
Ist auch was wahres dran, wenns auch nur sehr vereinzelte Stellen sind, ginge das, aber alle paar Minuten die Details zu ändern habe ich auch keine Lust :) (Unds hat imo auch nicht unbedingt was mit weiterkommen zu tun, wenn man merkt das es beim Zielen 'ruckelt', dann nervt das total (mich zumindest :)), selbst wenn man den/die Gegner trotzdem noch ausschalten kann und weiterkommt)

Quasar
2004-04-24, 14:12:14
Neenee, alle paar Minuten wäre zu nervig, das stimmt.
Aber wenn es vielleicht mal eine Stelle pro zwei Levels ist, finde ich das ok (zumindest bei der Levelgröße von FC).

Dalai-lamer
2004-04-24, 15:00:52
Man kann die Super Leistung der 6800 pro nciht bestreiten. Mir war schon früher klar das die Karte Hammer wird. So war es schon Ati früh klar, warum hätten sie sonst ohre High end Radeon 9800 Pro so vershcleudert ß teils unter 200 € ?

Die 6800 Ultra kostet fast das 3 fache, und für 600 € bau ich mir nen ganzen PC zusammen =)

Außerdem werden viele ein neues Netzteil brauchen und wenn man diese graka mit einem barton benutzt dann sind das perlen vor die Säue geworfen, wenn dann richtig und einen A64 =)

ich behalte meinen 2500 @ 2500 Mhz und Radeon 9800 Pro jetzt erstmal und betrcte das ganze objektiv.
Mich juckt es auch noch nciht in den Fingern diese karte zu kaufen, da bei mir bei Spielen der MP im vordergrund steht und ich wegen defekt meiner Graka eine Gefroce 2 MX drin hatte. und die Spiele haben genausoviel Spaß wie vorher gemacht, für mich kein unterschied, Null =)

bei Spielenw ie spellforce ist mir Grafik schon etwas wichtiger, aber sind wir mal ehrlich, 90 % der SP Spiele sind Müll ....

Mr. Lolman
2004-04-24, 15:18:23
Original geschrieben von Quasar
Neenee, alle paar Minuten wäre zu nervig, das stimmt.
Aber wenn es vielleicht mal eine Stelle pro zwei Levels ist, finde ich das ok (zumindest bei der Levelgröße von FC).

ACK, und schlimm (tw. unter 25fps) war bis jetzt nur beim Schiff, wo man am Dach den Helikopter fertig machen muss.

Und schlimmstenfalls bindet man sich einen Key, der e_shadow_maps auf '0' schaltet, und schon hat man auch an rechenintensivsten Stellen absolut ausreichende fps. (musste ich noch nicht machen)

Tigerchen
2004-04-24, 16:21:56
Original geschrieben von ow
Welche x-mal höhere Shaderleistung?

Ti4600:
http://www.hardoverclock.org/pics/reviews/r9500pro/r9500pro_bench_ti4600_3dm2001_details.gif

R9500 Pro:
http://www.hardoverclock.org/pics/reviews/r9500pro/r9500pro_bench_r9500_3dm2001_details.gif

Immerhin 50% mehr Leistung bei den Shadertests. Bei einem Vergleich Ti4200 vs. R9700 Pro dürfte der Abstand noch ein "wenig" weiter wachsen!

Bastler
2004-04-24, 19:36:19
Original geschrieben von mbee
Transistoren "freischalten" durch Treiberupdates????
Cool, dann schalten wohl demnächste alle P4-Besitzer die brachliegenden 64-Bit-Funktionen im Prescott auch durch ein Treiberupdate seitens Intel ein oder wie?

Sorry, aber ich musste mich gerade mich vor Lachen kringeln :D
Wir werden sehen.
Hast du schon mal einen Graka-Treiber programmiert?
(Soft mod 9500@9700 Pro)

ow
2004-04-24, 20:22:31
.

Tigerchen
2004-04-24, 21:26:54
@ow
Es ging mir nur darum die Aussage von tokugawa zu relativieren der ja mehr oder weniger behauptet hat der R300 hätte im Vergleich zu den TI's quasi nur schnelles AA/AF zu bieten gehabt.

tokugawa
2004-04-24, 22:22:26
Original geschrieben von Tigerchen

@ow
Es ging mir nur darum die Aussage von tokugawa zu relativieren der ja mehr oder weniger behauptet hat der R300 hätte im Vergleich zu den TI's quasi nur schnelles AA/AF zu bieten gehabt.


Das habe ich eben gerade nicht behauptet.

Die Aussage war: ich hätte mir mehr auch mehr generelle Rohleistung (speziell mehr reine Geometrieleistung) gewünscht, neben all dem anderen Tam-Tam.

Das mit der Shader-Leistung ist sowieso einleuchtend.

Gast
2004-04-24, 23:06:42
Original geschrieben von ow
Ja, das sind 50%, also x=1,5.
Wobei es sicher auch Shader gibt, bei denen das x für die R300 oder die GF4 auch mal günstiger ausfallen mag.

Warum man die 4200 mit der 9700 vergleichen sollte erschliesst sich mir nicht, die GF68U wurde ja auch nicht gegen eine R9800 nonpro gebencht. Da dürfte der Abstand dann auch recht beachtlich sein (x= 2 bis 3).

http://www.3dnews.ru/documents/3642/pubst_chameleonmark1.gif

tokugawa
2004-04-25, 00:04:08
Original geschrieben von Gast
http://www.3dnews.ru/documents/3642/pubst_chameleonmark1.gif

Und? Darum ging's ja nicht.

Piffan
2004-04-25, 00:48:21
Original geschrieben von tokugawa
Das habe ich eben gerade nicht behauptet.

Die Aussage war: ich hätte mir mehr auch mehr generelle Rohleistung (speziell mehr reine Geometrieleistung) gewünscht, neben all dem anderen Tam-Tam.

Das mit der Shader-Leistung ist sowieso einleuchtend.

Kann es nicht sein, dass von dem Mehr an der "generellen Rohleistung" nix zu spüren ist, weil die Graka gar nicht der Flaschenhals ist?

Kann es nicht sein, dass die meisten aktuellen Karten in der "Rohleistung" dicht beieinanderliegen in Spielen, die für den breiten Markt entwickelt werden?

Also irgendwie weiß ich nicht, was manche für Vorstellungen haben....:kratz:

Wenn ich die wirkliche Power ermitteln will, dann muss ich entweder ein Spiel oder Settings haben, die die Graka auch komplett auslasten und dafür sorgen, dass die Graka auch wirklich der bestimmende Faktor(Flaschenhals) ist......

Also mir ist schon klar, warum die Unterschiede in den Standardsettings ohne AF/FSAA nicht sooo prall sind. Wer was anderes erwartet, der soll sich noch mal setzen und drüber nachdenken.....

Für ein 3dcenter sind manche Aussagen hier verdächtig arm.....Biased? :(

Tigerchen
2004-04-25, 06:30:20
Original geschrieben von tokugawa
Das habe ich eben gerade nicht behauptet.

Die Aussage war: ich hätte mir mehr auch mehr generelle Rohleistung (speziell mehr reine Geometrieleistung) gewünscht, neben all dem anderen Tam-Tam.

Das mit der Shader-Leistung ist sowieso einleuchtend.

Gut. Dann ist das Thema ja geklärt.