PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : X1900 XTX vs 7800 GTX 512 mb


Seiten : [1] 2

tombman
2006-02-01, 01:27:34
Ein user bei nvnews hat sich die Mühe gemacht diesen Chart anzufertigen. Seit dem ist der server dort ziemlich überlastet ;)

Hier nochmal zum Staunen, wie gut sich die 512er halten kann ;)
Der G71 würde dieses Bild wohl in eine grüne Sommerwiese verwandeln ;)

http://img490.imageshack.us/img490/7417/x1900xtxvs7800gtx512mb0zj.png

deekey777
2006-02-01, 01:29:22
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=3934274#post3934274

Du bist zu langsam. Und ein weiterer Thread ist unnötig.

StefanV
2006-02-01, 01:32:32
Hm, wenn man das ganze mitteln würde, dann schauts eher so aus, als ob die x1900XTX besser wäre...

Zumal das ATI Teil das nV Teil in einigen Benchmarks ungespitzt in den Boden rammt :devil:

tombman
2006-02-01, 01:34:12
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=3934274#post3934274

Du bist zu langsam. Und ein weiterer Thread ist unnötig.

Der server dort ist überlastet UND ZEIGT NIX AN, deshalb bringt ein link nix, deshalb mein thread und das Bild nochmal groß für alle...

p.s.: ALLE PROZENTE ZUSAMMENGEZÄHLT:

ATI: 788%: Nvidia: 667%

Nur schlappe 18% schneller für ATI. Jetzt ist wohl klar, daß G71 deutlich dominieren wird :cool:

thade
2006-02-01, 02:01:13
Jetzt ist wohl klar, daß G71 deutlich dominieren wird :cool:

Erstmal abwarten und nen G71 zu kaufen, der erst im März oder April kommt, ist eh Schwachsinn. Wenn schon Herbst/Winter 2006 die nächste Generation kommt mit DX10, was will ich da noch mit einer alten Ramsch Karte, die voraussichtlich nicht mal HDR und AA kann, zudem noch schlechteres AF bietet als die Konkurrenz :tongue:

Und Tombman mag sein, dass die 512 GTX "rankommt", aber man sieht, in komplexeren Spielen ist der R580 deutlich schneller. Und nix anderes zählt.

Auch mit AA/AF wird der Unterschied größer.

Was du und einige hier die ganze Zeit versuchen, ist den R580 runterzumachen, wieso respektiert ihr nicht ATIs Führung? Ist denn das so schwer? Wir würden ja auch NVs Führung respektieren, aber im Moment führt ATI und da kommt ihr immer mit euren Runterziehversuchen daher :down:

Gast
2006-02-01, 02:01:28
Mich wundert irgendwie, dass verschiedene Seiten vollkommen unterschiedliche Ergebnisse produzieren, obwohl die Einstellungen gleich sein sollen. Vergleiche SCCT bei Anandtech und Hothardware. Anand nutzt einen 200Mhz schnelleren Prozessor und trotzdem sind die Ergebnisse völlig unterschiedlich. Wurde da nicht mit gleichen Einstellungen gebencht?

tombman
2006-02-01, 02:06:51
.. immer mit euren Runterziehversuchen daher :down:

Lol, ich ziehe also X1900 runter und werde in ein bis zwei Wochen selbst X1900 Crossfire haben? Yepp, bin multiple Persönlichkeit :up: ;D

Und es zählt eben NICHT nur mathematische power, denn game-developer programmieren eben für alle und nicht nur für die high-ender. Was heißt, fillrate zählt weiterhin viel und damit auch G70. Opengl sollte man auch ned vergessen...

Sphinx
2006-02-01, 02:07:27
Ich weiß zwar nicht was du daraus ableiten möchtest ?

Aber das Bild könnte man interpretieren wie sonst nochwas.

Ich sehe folgendes Scenerio : Lass mal alle NonAA Auflösungen ausser Acht und rechne mal mit den besten Settings die möglich sind. Ich denke mal dann wirst du ein realistischeres Bild haben, von dem was z.Zt. existiert und eventuell daraus kann man sich ein gewisses Bild machen wer,was,kommende vorbeiziehen werden.

Wobei mir die 4xAA Rechnungen bei dieser Liga schon das MIN Darstellen ab wo man an schauen sollte... <- und das ist meine persönliche Meinung

Nvidia wird schon etwas knacken müssen. Und dabei ist die Meßlatte nicht in der RohLeistung "nur" zu suchen...

Gast
2006-02-01, 02:07:28
Was du und einige hier die ganze Zeit versuchen, ist den R580 runterzumachen, wieso respektiert ihr nicht ATIs Führung? Ist denn das so schwer? Wir würden ja auch NVs Führung respektieren, aber im Moment führt ATI und da kommt ihr immer mit euren Runterziehversuchen daher :down:Naja, ich sehe da keine deutliche Führung von ATI, wenn man alles mit einbezieht. Klar bei den Single-Karten sind sie meist schneller und bieten dazu noch bessere Bildqualität, aber guckt man sich Crossfire an - einfach nur erbärmlich.

Und für tombman und viele andere Leute zählt nunmal auch Multi-GPU und da kann ATI absolut nichts bieten und das obwohl die Single-Karten verdammt gut sind. Wer nur eine einzelne Karte will, ist mit der x1900xt/x sehr gut beraten, hier liegt ATI deutlich vorne. Will man aber Multi-GPU, führt zur Zeit absolut nichts an SLI vorbei.

nsofern würde ich da schon ein Unentschieden sehen.

Gast
2006-02-01, 02:09:56
Der letzte Satz sollte natürlich "Insofern würde ich da schon ein Unentschieden sehen." lauten.

ATI liefert zur Zeit die besten Einzelkarten, aber wenns um Multi-GPU geht, haben sie einfach großen Mist gebaut.

thade
2006-02-01, 02:11:06
Lol, ich ziehe also X1900 runter und werde in ein bis zwei Wochen selbst X1900 Crossfire haben? Yepp, bin multiple Persönlichkeit :up: ;D


Dann rede nicht immer davon, dass der G71 alles plattmachen wird. Du weißt es nicht, Punkt !!! Abwarten und Tee trinken, danach kann man ATI immer noch fertigmachen.

Und finde ich gut, dass du von der dunklen Seite der Macht langsam aber sicher abfällst. ;)

aber guckt man sich Crossfire an - einfach nur erbärmlich.


Erbärmlich ist was anderes... Das wird schon mit der Zeit. SLI war auch nicht anfangs Das, was es jetzt ist.

SKYNET
2006-02-01, 02:14:59
er wird nicht abfallen... denn ich weiß das er in spätestens 3 monaten G71 SLI haben wird... sofern ers sich leisten kann... sein limit liegt ja bei 650€/karte... X-D

thade
2006-02-01, 02:19:10
er wird nicht abfallen... denn ich weiß das er in spätestens 3 monaten G71 SLI haben wird... sofern ers sich leisten kann... sein limit liegt ja bei 650€/karte... X-D

das halte ich aber für ziehmlich sinnfrei. Wieso sollte er von ATI wieder auf die technologisch rückständigen NV Karten wechseln. Und wer sich SLI G71 kauft, der hat zuviel Geld und keinerlei Vernunft, da würde ich lieber auf R600 und Co warten.

Naja jedem das Seine :)

SKYNET
2006-02-01, 02:24:30
technologisch rückständig... ich verweise auf meine signatur(falls net komplett zu lesen, im profil stehts auch).... ATI = immer noch kein SM3.0... traurig, traurig...

thade
2006-02-01, 02:32:20
was interessieren mich wage Spekulationen... die nicht bestätigt sind?

Reden wir in nem Jahr wieder weiter, denn ich versichere Dir, dass NV kein DX9 Game in irgendeiner Weise besser darstellen kann als ATI. Alles nur dummes Geschwätz :rolleyes:

Außerdem ist die Zeit der DX9 Spiele eh bald vorbei, da könnt ihr euch noch Jahrelang die Köppe einschlagen, mit der NEUEN Generation, werden die Karten wieder komplett neugemischt. Das erste DX10 Game soll schon 2006 kommen.

Also who cares?

SKYNET
2006-02-01, 02:37:38
du zweifelst an demirugs worten? :|

Gast
2006-02-01, 02:38:33
Erbärmlich ist was anderes... Das wird schon mit der Zeit. SLI war auch nicht anfangs Das, was es jetzt ist.Nö, es ist einfach nur erbärmlich. Bei SLI konnte man von Anfang an selbst Profile erstellen.

In welcher Hinsicht sind die NV-Karten "technologisch rückständig"?

Man kann ATI für das gute AF seit x1800 nur loben, ja, allerdings kann man sie auch nicht genug für die fehlende Filterung von FP-Texturen kritisieren.

thade
2006-02-01, 02:42:02
du zweifelst an demirugs worten? :|

Ich zweifle hier nicht an Demjenigen seiner Kompetenz. Er kennt sich sicher besser aus, als 95% aller Forum Besucher hier. Ich bin ja auch nicht so vertieft in die Materie.

Er hat vllt sogar auch recht, bzw er hat recht, nur ob wir in der Praxis etwas davon sehen werden? Ich bezweifle es, ich kann mich allerdings auch irren, aber wenn jeder der gleichen Meinung wäre, dann wärs ja schön langweilig auf der Welt :)

In welcher Hinsicht sind die NV-Karten "technologisch rückständig"?


Betrachte das eher, als kleinen Seitenhieb für das immer noch nicht an die Konkurrenz angepasste AF und wegen des Nichtkönnens von HDR mit AA.

Gast
2006-02-01, 02:50:31
Wenn du das als technologisch rückständig bezeichnest, was war ATI denn dann bis Oktober 05? Im Mittelalter? Achne, ich vergaß, dann hieß es natürlich "SM3 braucht man überhaupt nicht". ;) ;) ;)

thade
2006-02-01, 02:55:31
Wenn du das als technologisch rückständig bezeichnest, was war ATI denn dann bis Oktober 05? Im Mittelalter? Achne, ich vergaß, dann hieß es natürlich "SM3 braucht man überhaupt nicht". ;) ;) ;)

Ja und ich brauche kein SM3. Ich hatte zwar schon 2 Shader 3 Karten (6800GT und 7800GTX), aber ich brauche kein Shader 3. Nenn mir bitte Spiele die unbedingt Shader 3 brauchen, die Spiele aber immens besser aussehen als mit Shader 2b?

Ich kann mich da an keine Spiele erinnern, bis diese Effekte erstmal sichtbar sind, mein Gott, da gibts ja schon DX10 Karten.

tokugawa
2006-02-01, 02:59:36
Ja und ich brauche kein SM3. Ich hatte zwar schon 2 Shader 3 Karten (6800GT und 7800GTX), aber ich brauche kein Shader 3. Nenn mir bitte Spiele die unbedingt Shader 3 brauchen, die Spiele aber immens besser aussehen als mit Shader 2b?

Ich kann mich da an keine Spiele erinnern, bis diese Effekte erstmal sichtbar sind, mein Gott, da gibts ja schon DX10 Karten.

www.gametools.org

Gast
2006-02-01, 03:02:37
Ach, aber man braucht in der Praxis eh kaum nutzbares HDR+MSAA? ;)

Außerdem gibts schon Spiele, die einen deutlich sichtbaren Vorteil aus SM3 oder anderen Features die der NV40 dem R420 vorraus hatte ziehen. Allerdings kann man die in der Tat an 1-2 Händen abzählen.

Grobblin
2006-02-01, 03:50:56
Ja und ich brauche kein SM3. Ich hatte zwar schon 2 Shader 3 Karten (6800GT und 7800GTX), aber ich brauche kein Shader 3. Nenn mir bitte Spiele die unbedingt Shader 3 brauchen, die Spiele aber immens besser aussehen als mit Shader 2b?
LoL, schonmal FarCry oder SplinterCell 3 gesehen? Ich habe es noch nicht gesehen aber ich denke mir das AoE3 auch immens besser aussieht mit SM3!

Nazar
2006-02-01, 04:38:27
Was soll der Quark?

Wer spielt mit so einer Karte ohne AA & AF?

Hier werden 2 unterschiedliche Sachen erst durchgemengt und dann verglichen... tolle Leistung :|

Am besten noch den Stromverbrauch und die Lautstärke dazumischen, damit es noch mehr aussagekraft gewinnt! ;D

Wenn das kein Trollversuch ist, was dann? :crazy2:

Spasstiger
2006-02-01, 06:11:25
Wenn das kein Trollversuch ist, was dann? :crazy2:

Ich sehe darin keinen Trollversuch, sondern finde es im Gegenteil sogar sehr praktisch, dass jemand mal sämtliche Benchmarkergebnisse in einem Diagramm zusammengefasst hat.
Wenn für dich nur die Performance mit 4xAA interessant ist, brauchst du ja die anderen Ergebnisse nicht zu beachten.

aths
2006-02-01, 06:21:39
du zweifelst an demirugs worten? :|Wenn man nur das zitiert, was einem in den Kram passt, kann man alles beweisen. Dass NVs Karten ab GF6 aus Sicht des Entwicklers die SM3-Specs umfassender unterstützten als ATIs R520-Serie, heißt nicht, dass SM3-Spiele auf entsprechenden GeForce-Karten besser laufen würden.

Erstens steht die Frage der Rohleistung. Was arithmetische Power angeht (wichtig für lange Shader) liegen die Trümpfe beim R580. Dann: Was Dynamic Branching im Pixelshader angeht (wichtig, um die Performance zu maximieren) kann der R580 im Vergleich zum G70 glänzen. Nicht vergessen, auch wenn das nichts mit SM3 zu tun hat: Multisampling auf ein 64-Bit-Target bieten derzeit nur die Radeons. Das erlaubt Multisampling-AA im Zusammenhang mit HDR-Rendering.

Dann bietet die Radeon ab R520 einen AF-Modus, der alle Spiele die Texturen nutzen besser aussehen lässt als auf dem NV40 oder G70. Auch im SM3-Zeitalter bleiben Texturen wichtig. Unvollständige Spec-Erfüllung hin oder her: SM3-Spiele können auf der Radeon durchaus sowohl schneller sein, als auch besser aussehen als auf den aktuellen GeForce-Topmodellen.

san.salvador
2006-02-01, 09:17:33
Der server dort ist überlastet UND ZEIGT NIX AN, deshalb bringt ein link nix, deshalb mein thread und das Bild nochmal groß für alle...

p.s.: ALLE PROZENTE ZUSAMMENGEZÄHLT:

ATI: 788%: Nvidia: 667%

Nur schlappe 18% schneller für ATI. Jetzt ist wohl klar, daß G71 deutlich dominieren wird :cool:
Ich hab jetzt mal nur die 4xAA Ergebnisse zusammengerechnet, ich glaub nicht dass bei Krafikkarten dieser Klasse Ergebnisse ohne AA irgendwen interessieren.

ATI: 559% vs. Nvidia: 333%

"Monster Kill" ;)

svenw
2006-02-01, 09:19:23
Ich frag mich nur, warum noch so oft ohne AA gebenched wird? Was soll das? Dafür brauche ich keine 600+€ Karte um damit auf vernünftige Framerates zu kommen. Das ist in etwa so als ob ich mir einen Porsche kaufe und Diesel in den Tank fülle um die die Endgeschwindigkeit mit einem Golf TDI vergleichen zu können.

Sehen schön aus die Ergebnisse, praxisrelevant sind sie nicht. Für mid bis low range Karten sieht es natürlich anders aus, weil da eher die Frage lautet, was überhaupt noch halbwegs läuft.

Ich frag mich allerdings warum die eine Fraktion immer meint, die andere runterziehen zu müssen? Ich bin eher ATI Fan und gehe dennoch davon aus, das die neue Nvidia wohl gleich oder besser werden wird als die ATI. Und danach wird ATI wieder besser sein und dann Nvidia etc . Die 1800 kann man nicht als Beispiel nehmen, denn deren Start wurde ja leider um 6 monate nach hinten geschoben.

Grestorn
2006-02-01, 09:30:57
Dann bietet die Radeon ab R520 einen AF-Modus, der alle Spiele die Texturen nutzen besser aussehen lässt als auf dem NV40 oder G70. Auch im SM3-Zeitalter bleiben Texturen wichtig. Unvollständige Spec-Erfüllung hin oder her: SM3-Spiele können auf der Radeon durchaus sowohl schneller sein, als auch besser aussehen als auf den aktuellen GeForce-Topmodellen.Auch wenn ich WU-AF für wichtig halte, so kann ich dieses ewige Gedröhne nicht mehr lesen.

In AF-Testtools kann ich zwar wunderbar den Effekt von WA-AF sehen, aber in bisher keinem Spiel ist es mir bisher tatsächlich so aufgefallen, dass es mich gestört hätte. Dagegen sehe ich sofort, wenn AF ganz ausgeschaltet ist.

Es mag ja einige Fälle geben (z.B. rotierende Meshes) wo es wirklich total störend ist. Aber obwohl ich nun wirklich viel spiele, ist mir da bisher nichts derartiges aufgefallen.

Dann zu behaupten, dass alle Spiele von WU-AF profitieren und ständig von der ach so schlechten BQ von nVidia zu reden, klingt für mich nur furchtbar polemisch. Der normale Spieler, ja so gar der "normale" Enthusiast, zu denen ich mich zähle, wird nur ganz ganz selten irgendeinen Unterschied erkennen können.

Also bitte Kirche im Dorf lassen, ok?

martma
2006-02-01, 09:31:56
Der server dort ist überlastet UND ZEIGT NIX AN, deshalb bringt ein link nix, deshalb mein thread und das Bild nochmal groß für alle...

p.s.: ALLE PROZENTE ZUSAMMENGEZÄHLT:

ATI: 788%: Nvidia: 667%

Nur schlappe 18% schneller für ATI. Jetzt ist wohl klar, daß G71 deutlich dominieren wird :cool:


:ulol2: , gar nichts ist klar! Vor allem wenn man bedenkt, woher die Ergebnisse kommen. "nvnews" ... ganz toll. Wie die Tabelle wohl von "atinews" aussehen würde? Der nächste Punkt ist der, in den Tests, welche für so eine Karte relevant sind (mit AA und AF) hat die NV keine Chance. Deine Interpretation ist also total daneben.

Gast
2006-02-01, 09:45:14
Auch wenn ich WU-AF für wichtig halte, so kann ich dieses ewige Gedröhne nicht mehr lesen.

In AF-Testtools kann ich zwar wunderbar den Effekt von WA-AF sehen, aber in bisher keinem Spiel ist es mir bisher tatsächlich so aufgefallen, dass es mich gestört hätte. Dagegen sehe ich sofort, wenn AF ganz ausgeschaltet ist.

Es mag ja einige Fälle geben (z.B. rotierende Meshes) wo es wirklich total störend ist. Aber obwohl ich nun wirklich viel spiele, ist mir da bisher nichts derartiges aufgefallen.

Dann zu behaupten, dass alle Spiele von WU-AF profitieren und ständig von der ach so schlechten BQ von nVidia zu reden, klingt für mich nur furchtbar polemisch. Der normale Spieler, ja so gar der "normale" Enthusiast, zu denen ich mich zähle, wird nur ganz ganz selten irgendeinen Unterschied erkennen können.

Also bitte Kirche im Dorf lassen, ok?

Schon mal einen Flugsimulator gespielt? Winkel-AF -> :down:

Grestorn
2006-02-01, 09:48:13
Schon mal einen Flugsimulator gespielt? Winkel-AF -> :down:Ok, bei einem Flugsimulator kann ich mir das sogar sehr gut vorstellen.

Bei FS also keine Karte verwenden, die kein WU-AF beherrscht.

FS sind aber kaum alle Spiele.

Gast
2006-02-01, 09:51:59
ATI = immer noch kein SM3.0... traurig, traurig...
Und das schreibt Demirug genau wo?

Gast
2006-02-01, 09:58:49
So hat er das natürlich niemals geschrieben. Du weißt doch, dass Skynet zum überdramatisieren neigt. Dennoch kann man ATI für das Fehlen dieser zwei Features ruhig ein wenig kritisieren. "SM3 done right" würde ich das nämlich nicht bezeichnen. ;)

Winter[Raven]
2006-02-01, 09:59:36
Zitat von Demirug
Zitat:
Zitat von SKYNET
kann es sein, das bisher nur NV die vollen SM3.0 spezifikationen erfüllt?
In dem Sinn wie SM3 ursprünglich gedacht war ja. Das was ATI hier macht ist eine klare Vergewaltigung der Spec.

In Summe muss ich aber noch mal die ganzen Caps allerdings gegeinader abwägen. In meinen primären Entwicklungrechner kommt aber wohl kein R520 rein. nVidia deckt die DX Spec soweit ich das derzeit sehe einfach besser ab.

HOT
2006-02-01, 10:01:39
Ok, bei einem Flugsimulator kann ich mir das sogar sehr gut vorstellen.

Bei FS also keine Karte verwenden, die kein WU-AF beherrscht.

FS sind aber kaum alle Spiele.

Auch in meinen MMORPGs wie DAoC oder WoW ist WinkelAF ziemlich auffällig und nervig.

HOT
2006-02-01, 10:05:34
Die Radeon bieter z.Z. einfach die bessere BQ mit dem WinkelAF und dem sehr guten und schnellen AAA auch für den HDR Modus. Da kann der G70 z.Z. nicht gegen anstinken, auch der G71 wird das nicht können, wenn das Featureset so bleibt.
Zudem zeigt der R580 im direkten Vergleich zu R520 eindrucksvoll, dass es eben nicht mehr nur auf die Füllrate ankommt. Der G71 wird von seiner zusätzlichen Shaderpower profitieren können, jedoch kaum von seiner zusätzlichen Füllrate.

Ailuros
2006-02-01, 10:10:46
Grestorn,

Unter Umstaenden sind die Unterschiede schon ziemlich bemerkbar.

Natuerlich nicht ueberall und es handelt sich stets um die etwas feineren Details. In einem jeglichen Spiel wo man aussen in einem Feld mit ungleichen Bodenhoehen als Beispiel herumrennt sieht man den Unterschied sofort. Und es gibt mehr als genug Spiele wo so etwas vorkommt.

Wirft man jetzt alles in einen Topf: HQ AF, adaptive AA, sparse/gamma adjusted MSAA und den jeweiligen Leistungsverlust fuer das gesamte Buendel hat ATI tatsaechlich einen Vorsprung.

Winkelabhaengigkeit hin und her, ich haette liebend gerne auch selber einen ziemlich kleineren Leistungsverlust fuer MSAA auf der G70.

Gast
2006-02-01, 10:11:56
Dann zu behaupten, dass alle Spiele von WU-AF profitieren und ständig von der ach so schlechten BQ von nVidia zu reden, klingt für mich nur furchtbar polemisch. Der normale Spieler, ja so gar der "normale" Enthusiast, zu denen ich mich zähle, wird nur ganz ganz selten irgendeinen Unterschied erkennen können.

Also bitte Kirche im Dorf lassen, ok?
Natürlich profitieren ALLE Spiele davon. Bei einigen sieht man es mehr, bei anderen weniger. Punkt!

Gast
2006-02-01, 10:14:55
Natürlich profitieren ALLE Spiele davon. Bei einigen sieht man es mehr, bei anderen weniger. Punkt!
Joar, und es kostet auch nur dort Leistung, wo man es auch sieht.

Wirft man jetzt alles in einen Topf: HQ AF, adaptive AA, sparse/gamma adjusted MSAA und den jeweiligen Leistungsverlust fuer das gesamte Buendel hat ATI tatsaechlich einen Vorsprung.Bei den Einzelkarte, ja. Multi-GPU ist aber ein anderes Thema, da hat ATI absolut nichts brauchbares zu bieten.

Ailuros
2006-02-01, 10:16:41
Die Radeon bieter z.Z. einfach die bessere BQ mit dem WinkelAF und dem sehr guten und schnellen AAA auch für den HDR Modus. Da kann der G70 z.Z. nicht gegen anstinken, auch der G71 wird das nicht können, wenn das Featureset so bleibt.
Zudem zeigt der R580 im direkten Vergleich zu R520 eindrucksvoll, dass es eben nicht mehr nur auf die Füllrate ankommt. Der G71 wird von seiner zusätzlichen Shaderpower profitieren können, jedoch kaum von seiner zusätzlichen Füllrate.

Shaderpower = interne Shader-Fuellrate.

So wie NV4x/G7x von Anfang an ausgelegt wurde, profitiert und begrenzt eine jegliche GPU von zusaetzlicher Fuellrate stets mit der verfuegbaren Bandbreite.

Die eine Seite hat vereinfacht zu viel TMUs und die andere zu wenig. An Bandbreite wird es jedoch einem G71 genauso viel fehlen wie einem R580.

LolekDeluxe
2006-02-01, 10:24:03
Jetzt lassen wir mal den ganzen Schrott beiseite und nehmen nur die Spiele.

BF2
COD2
C of R
FC
FEAR
HL2
Q4
SS2
SC:CT

Also jeder der Wahrscheinlich die Spiele spielt wird sich eine Highedkarte kaufen.

ATI: 709% vs. Nvidia: 233%

"wicked sick"

Ja tombman jeder dreht sich alles so zu recht wie er es gern haben möchte. :cool:

Grestorn
2006-02-01, 10:28:40
Auch in meinen MMORPGs wie DAoC oder WoW ist WinkelAF ziemlich auffällig und nervig.Hm. Wie macht es sich da bemerkbar? Änderst Du bei diesen Spielen des öfteren Deinen Blickwinkel? Oder rotieren Objekte?

Den Blickwinkel ändert man - neben irgendwelchen Fluggeräten, die um die z-Achse schwenken können - eigentlich nur bei Spielen, bei denen man sich nach rechts oder links lehnen kann und dadurch das Bild leicht gekippt wird. Da mag in Einzelfällen das WA-AF auffallen.

Ansonsten kann der wirklich sehr genau beobachtende Spieler bestenfalls sehen, dass die Texturschärfe bei ganz bestimmten Texturen leicht inhomogen ist (z.B. dass ein Hügel an seiner Flanke etwas unschärfer wirkt als sonst). Ich kann aber einfach nicht glauben, dass das so auffällig sein soll, dass es wirklich stört.

Ich habe mal den Selbsttest mit Gothic 2 gemacht, da bei diesem Spiel auch die Landschaft in allen möglichen Winkeln existiert. Ich konnte nur mit sehr viel Mühe einige Stellen ausfindig machen, bei denen ich den Effekt wirklich nachweisen konnte.

Gast
2006-02-01, 10:34:30
Jetzt lassen wir mal den ganzen Schrott beiseite und nehmen nur die Spiele.

BF2
COD2
C of R
FC
FEAR
HL2
Q4
SS2
SC:CT

Also jeder der Wahrscheinlich die Spiele spielt wird sich eine Highedkarte kaufen.

ATI: 709% vs. Nvidia: 233%

"wicked sick"

Ja tombman jeder dreht sich alles so zu recht wie er es gern haben möchte. :cool:Ganz im Gegensatz zu dir hat tombman einfach nur ALLE Ergebnisse zusammengezählt, was durchaus legitim ist. Du hast dir jetzt nur die Situationen rausgepickt, bei denen ATI besonders gut abschneidet. Merkst du den Unterschied?

LolekDeluxe
2006-02-01, 10:43:19
Der server dort ist überlastet UND ZEIGT NIX AN, deshalb bringt ein link nix, deshalb mein thread und das Bild nochmal groß für alle...

p.s.: ALLE PROZENTE ZUSAMMENGEZÄHLT:

ATI: 788%: Nvidia: 667%

Nur schlappe 18% schneller für ATI. Jetzt ist wohl klar, daß G71 deutlich dominieren wird :cool:

Das ist doch nicht dein Ernst oder?

Es Fehlen 12 Ati werte zu 6 NV werte.

DAS IST JA EIN TOLLER VERGLEICH!!!



Ganz im Gegensatz zu dir hat tombman einfach nur ALLE Ergebnisse zusammengezählt, was durchaus legitim ist. Du hast dir jetzt nur die Situationen rausgepickt, bei denen ATI besonders gut abschneidet. Merkst du den Unterschied?

Das hat damit überhaupt nichts zutun.
Es gibt Spiele wo kein Ergebniss von der X1900 steht und umgekehrt.
Bin sogar der Meinung das die 7800 recht gut abgeschnitten hat.
ATI: 709% vs. Nvidia: 233%
Wenn von den Spielen wo die X1900 fehlt die Werte da wären, würde es für die 7800 noch schlechter aussehen. :biggrin:

Gast
2006-02-01, 10:51:16
und nun sollen alle diese hohen preise für ne ATI GraKa zahlen die mal 15 - 18 % schneller ist ???.

man sollte wirklich mal bedenken die Chip reihe 7800 ist ca. 1 Jahr alt.Wie alt ist denn die 1600 / 1800 reihe ???.

Das was da zur zeit ATI abliefert ist nur traurig bringen einen chip fast 3/4 Jahr später raus und haben nicht mal genug dampf einen " alten " 7800 zu etrem schlagen ( damit meine ich werte die über 50 % mehr FPS liegen ). Auch die untzerstützung von SM 3.0 finde ich einen witz, in meinen augen haben die garnicht verdient zu schreiben "SM 3.0 karte" weil sie einfach nicht alles was SM vorschreibt umgesetzt haben.

Gast
2006-02-01, 10:55:28
Das ist doch nicht dein Ernst oder?

Es Fehlen 12 Ati werte zu 6 NV werte.

DAS IST JA EIN TOLLER VERGLEICH!!!





Das hat damit überhaupt nichts zutun.
Es gibt Spiele wo kein Ergebniss von der X1900 steht und umgekehrt.
Bin sogar der Meinung das die 7800 recht gut abgeschnitten hat.
Wenn von den Spielen wo die X1900 fehlt die Werte da wären, würde es für die 7800 noch schlechter aussehen. :biggrin:


Besonders interessant finde ich das viele werte fehle wo die ati klar dominieren würde , z.b hl2: lost coast usw :| Naja nv-fanboy tabelle halt :D

LolekDeluxe
2006-02-01, 10:56:29
und nun sollen alle diese hohen preise für ne ATI GraKa zahlen die mal 15 - 18 % schneller ist ???.

man sollte wirklich mal bedenken die Chip reihe 7800 ist ca. 1 Jahr alt.Wie alt ist denn die 1600 / 1800 reihe ???.

Das was da zur zeit ATI abliefert ist nur traurig bringen einen chip fast 3/4 Jahr später raus und haben nicht mal genug dampf einen " alten " 7800 zu etrem schlagen ( damit meine ich werte die über 50 % mehr FPS liegen ). Auch die untzerstützung von SM 3.0 finde ich einen witz, in meinen augen haben die garnicht verdient zu schreiben "SM 3.0 karte" weil sie einfach nicht alles was SM vorschreibt umgesetzt haben.

JA und wie Alt sind die Treiber von Nvidia für 7800, und wie alt sind die Treiber von ATI für die X1900?
Du galubst aber auch wirklich alles was dir tombman vor die Nase setzt. :|
Außerdem gehts hier um X1900 und nicht um X1800. :rolleyes:

Gast
2006-02-01, 10:58:08
und nun sollen alle diese hohen preise für ne ATI GraKa zahlen die mal 15 - 18 % schneller ist ???.

man sollte wirklich mal bedenken die Chip reihe 7800 ist ca. 1 Jahr alt.Wie alt ist denn die 1600 / 1800 reihe ???.

Das was da zur zeit ATI abliefert ist nur traurig bringen einen chip fast 3/4 Jahr später raus und haben nicht mal genug dampf einen " alten " 7800 zu etrem schlagen ( damit meine ich werte die über 50 % mehr FPS liegen ). Auch die untzerstützung von SM 3.0 finde ich einen witz, in meinen augen haben die garnicht verdient zu schreiben "SM 3.0 karte" weil sie einfach nicht alles was SM vorschreibt umgesetzt haben.


Bullshit, die ati (r580) liegt genau im zeitrahmen , der r520 hat sich verspätet. Die 7800gtx512 ist nicht mal 2monate alt und ausserdem wieso soll ich 700€ für eine karte zahlen die 15-18 % langsamer ist ;)

Ailuros
2006-02-01, 11:09:53
Bei den Einzelkarte, ja. Multi-GPU ist aber ein anderes Thema, da hat ATI absolut nichts brauchbares zu bieten.

Kombinier mal 8x Super-AA + 8x adaptiveAA + HQ AF und schau Dir die Leistung an. Vom 8x MSAA modus kommt wohl kein besonderer Unterschied, aber vom 8xAAA dann schon.

Im Gegensatz gibt es dann auf SLi setups die Moeglichkeit 16xS mit TSAA zu kombinieren, aber schneller als das obrige wird es auf jeden Fall nicht sein.

Und das auch nur weil ich mich auf eine Qualitaets-Leistung Relation bezogen habe und Du darauf geantwort hast.

Sonst unter normalen Umstaenden skaliert SLi gegenueber CrossFire in viel mehr Spielen und natuerlich auch mit 4xAA/16xAF.

Gast
2006-02-01, 11:44:35
Zitat von Demirug
Zitat:
Zitat von SKYNET
kann es sein, das bisher nur NV die vollen SM3.0 spezifikationen erfüllt?
In dem Sinn wie SM3 ursprünglich gedacht war ja. Das was ATI hier macht ist eine klare Vergewaltigung der Spec.
Ist egal. ATi hält sich trotzdem voll an die Spezifikation. Wie es ursprünglich gedacht war != wie es jetzt ist. Microsoft ist halt zu blöd genaue Spezifikationen zu entwickeln. Ist zwar unschön von ATi diese Lücke in der Spezifikation auszunutzen wodurch ein Feature quasi unbrauchbar wird auf der Radeon. Aber Microsoft sollte eigentlich klar sein, daß wenn man eine Lücke bietet, daß dann sich jemand tatsächlich findet, der das ausnutzt. Microsoft hat auch einige Anomalien ausgenutzt. Nur deswegen gibt's z.B. noch das A20-Gate.

SKYNET
2006-02-01, 11:51:37
'].....


und das wird bei allen spiele entwicklern derzeit so sein.... fazit: alle kommenden games, sind auf NV programmiert worden und werden dementsprechend wohl auch sehr flüssig aud ihnen laufen.... :biggrin:

Pirx
2006-02-01, 11:59:37
und das wird bei allen spiele entwicklern derzeit so sein.... fazit: alle kommenden games, sind auf NV programmiert worden und werden dementsprechend wohl auch sehr flüssig aud ihnen laufen.... :biggrin:
War doch schon immer so, Demirug wollte damals auch nicht auf ner R300, sondern ner FX programmieren, es hat cheinbar nicht viel damit zu tun, wie die Spiele so laufen.

reunion
2006-02-01, 12:02:16
Ich hab jetzt mal nur die 4xAA Ergebnisse zusammengerechnet, ich glaub nicht dass bei Krafikkarten dieser Klasse Ergebnisse ohne AA irgendwen interessieren.

ATI: 559% vs. Nvidia: 333%

"Monster Kill" ;)

ACK, das die nV-Karten ohne Qualitätsfeatures etwas schneller sind, ist ein alter Hut. Intressant ist bei High-End-Karten dieses Kalibers allerdings die AA/AF-Performnace, und da siehts wohl ziemlich eindeutig aus.

SKYNET
2006-02-01, 12:08:15
War doch schon immer so, Demirug wollte damals auch nicht auf ner R300, sondern ner FX programmieren, es hat cheinbar nicht viel damit zu tun, wie die Spiele so laufen.


das lag wohl drann, das ne FX damals schon recht nahe an den SM3.0 spezifikationen kratzte....

Gast
2006-02-01, 12:13:56
Kombinier mal 8x Super-AA + 8x adaptiveAA + HQ AF und schau Dir die Leistung an. Vom 8x MSAA modus kommt wohl kein besonderer Unterschied, aber vom 8xAAA dann schon.

Im Gegensatz gibt es dann auf SLi setups die Moeglichkeit 16xS mit TSAA zu kombinieren, aber schneller als das obrige wird es auf jeden Fall nicht sein.

Und das auch nur weil ich mich auf eine Qualitaets-Leistung Relation bezogen habe und Du darauf geantwort hast.

Sonst unter normalen Umstaenden skaliert SLi gegenueber CrossFire in viel mehr Spielen und natuerlich auch mit 4xAA/16xAF.Das meine ich doch alles gar nicht. Ich meinte in erster Linie die Tatsache, dass man keinen Zugriff auf die Profile hat. Was bringt es wenn mir Crossfire theoretisch tollstes "Super-AA" liefern könnte, wenn es in neuen Spielen überhaupt nicht aktiv ist bis ATI einen neuen Treiber gebracht hat? Ich will Spiele am Veröffentlichungstag oder unmittelbar danach spielen. Das beißt sich aber mit ATIs Treiberpolitik nur jeden Monat einen Treiber zu bringen. Sie sollen einfach Zugriff auf die Profile erlauben, dann wäre Crossfire eine ernsthafte Alternative zu SLI, aber so wie es jetzt ist, ist es einfach nur eine erbärmliche Frickellösung, die nur bei Mainstreamtiteln Performance bringt und selbst da erst nach 4 Wochen Warten.

deekey777
2006-02-01, 12:24:18
Das meine ich doch alles gar nicht. Ich meinte in erster Linie die Tatsache, dass man keinen Zugriff auf die Profile hat.
DAU-Schutz. ;) :D

Was bringt es wenn mir Crossfire theoretisch tollstes "Super-AA" liefern könnte, wenn es in neuen Spielen überhaupt nicht aktiv ist bis ATI einen neuen Treiber gebracht hat? Ich will Spiele am Veröffentlichungstag oder unmittelbar danach spielen.
Eigentlich muß das SuperAA im Unterschied zu AFR immer funktionieren, wie die anderen zwei Modi auch. Nur für das AFR muß gehext werden, es ist aber wert, fürs AFR zu hexen.

Das beißt sich aber mit ATIs Treiberpolitik nur jeden Monat einen Treiber zu bringen. Sie sollen einfach Zugriff auf die Profile erlauben, dann wäre Crossfire eine ernsthafte Alternative zu SLI, aber so wie es jetzt ist, ist es einfach nur eine erbärmliche Frickellösung, die nur bei Mainstreamtiteln Performance bringt und selbst da erst nach 4 Wochen Warten.
Vielleicht ist CrossFire doch uninteressant für Leute, die eigene CF-Profile erstellen könnten.

Was mich seit einiger Zeit beschäftigt: Ist es eigentlich möglich AdAA auch mit X800ern im CF-Betrieb freischalten und nutzen? An sich wären 4xAAA oder 6xAAA eine (zumindest schnellere) Alternative zu SuperAA.

Gast
2006-02-01, 12:33:50
Nur für das AFR muß gehext werden, es ist aber wert, fürs AFR zu hexen.Wie meinst du das? Gibt es eine Möglichkeit AFR zu nutzen, auch wenn ATI kein Profil im Treiber hinterlegt hat?

DAU-Schutz. ;) :D
Vielleicht ist CrossFire doch uninteressant für Leute, die eigene CF-Profile erstellen könnten.Warum sollte Crossfire für diese Leute uninteressant? Crossfire ist doch in erster Linie für Enthusiasten und diese sollten doch fähig sein mal eben ein Profil zu erstellen. Oder sind ATIs Kunden allesamt DAUs? ;)

Eigentlich muß das SuperAA im Unterschied zu AFR immer funktionieren, wie die anderen zwei Modi auchIn was für einer Performance das resultiert, brauch ich dir aber nicht sagen, oder? Crossfire ist bei Games ohne Profil meist langsamer als die Singlekarte.

Nerothos
2006-02-01, 12:35:21
und das wird bei allen spiele entwicklern derzeit so sein.... fazit: alle kommenden games, sind auf NV programmiert worden und werden dementsprechend wohl auch sehr flüssig aud ihnen laufen.... :biggrin:
Und auf ATI Karten nicht, oder was? Dann sollten sich vielleicht ALLE Leute eine nVidia Karte holen, damit sie's auch flüssig spielen können.

Oh man, was für ein Fanboythread schon wieder. Diese ständigen Seitenhiebe gegen ATI und nVidia nerven. Kann man sich nichtmal vernünftig unterhalten, ohne gleich von irgendeinem Fanboy angelabert zu werden?

Und ja: Das Wort "Fanboy" kann man in diesem Thread sehrwohl verwenden. Ich werd' wohl wieder meine Ignorelist bemühen müssen, damit der Thread lesbar bleibt :(


Ontopic:
Warum man nicht einfach mal zugeben kann, dass ATI im Moment die bessere Karte für's High-End hat? Mit High-End meine ich keine unrealistischen "kein AA und kein AF" Benchmarks, sondern solche, wo man es aktiviert hat. Keiner kann mir erzählen, dass er auf einer 7800GTX512 oder auf einer X1900XTX ohne AA/AF spielt.
Weiterhin sehe ich in der X1900XTX wesentlich mehr Potential, was Arithmetikpower angeht. In Fear kann man es ja schon relativ gut umsetzen.

Bis jetzt war die GTX512 die schnellste Karte und ATI konnte mit der X1800XT nix dagegen machen. Nun hat sich das Blatt aber eben gewendet. That's life.
Wenn der G71 kommt, sieht es vielleicht wieder anders aus. Aber bis dahin gilt: X1900XTX > 7800GTX512

Mr. Lolman
2006-02-01, 12:46:00
Von wem ist den die blöde Liste?

Da hat sich jemand ein paar Benchmarks aus den ihm passenden Reviews rausgesucht. Ich kenn zB einen B&W2 Benchmark wo die X1900XT eindeutig gewinnt. Mal sehen ob mir einfällt wo das war :rolleyes:

/edit: http://www.tomshardware.com/2006/01/24/ati_radeon_x1900_heats_up_with_48_pixel_pipelines/page12.html

Gast
2006-02-01, 12:50:35
Ontopic:
Warum man nicht einfach mal zugeben kann, dass ATI im Moment die bessere Karte für's High-End hat? Kann man so nicht sagen, da High-End eben auch Multi-GPU bedeuet und was ATI da abgeliefert hat, ist einfach nur erbärmlich. Bei den Single-Karten hast du allerdings Recht, hier sind die neuen Karten von ATI einfach nur verdammt gut.

deekey777
2006-02-01, 12:51:20
Wie meinst du das? Gibt es eine Möglichkeit AFR zu nutzen, auch wenn ATI kein Profil im Treiber hinterlegt hat?
Nein.


Warum sollte Crossfire für diese Leute uninteressant? Crossfire ist doch in erster Linie für Enthusiasten und diese sollten doch fähig sein mal eben ein Profil zu erstellen. Oder sind ATIs Kunden allesamt DAUs? ;)

Ich meinte Leute, die so was ATT oder RivaTuner machen: Wäre CF so interessant wie SLI, so gäbe es vielleicht auch "Hacks".

In was für einer Performance das resultiert, brauch ich dir aber nicht sagen, oder? Crossfire ist bei Games ohne Profil meist langsamer als die Singlekarte.
In welcher Performance resultiert es sich? Mit SuperAA kann CrossFire gar nicht schneller als eine einzelne Grafikkarte sein. Sonst kann ich dir nicht folgen.

Gast
2006-02-01, 12:59:30
Na dann guck dir z.b. mal die I-L2 Sturmovik Benchmarks auf diversen Webseiten an. Gibt noch mehrs als genug Beispiele für grottige Performance von Crossfire, hauptsächlich bei Spielen abseits des Mainstream.

Gast
2006-02-01, 13:01:23
Ich meinte Leute, die so was ATT oder RivaTuner machen: Wäre CF so interessant wie SLI, so gäbe es vielleicht auch "Hacks".Naja, grestorn hat mal gesagt, dass er sowas ähnliches wie Nhancer auch für ATI-Karten machen würde, wenn ATI einem denn Zugriff auf die Profile erlauben würde. x1900xt-Crossfire wäre durchaus interessant, wenn da nicht diese vielen Einschränken von CF wären.

Mr. Lolman
2006-02-01, 13:07:07
So sieht die Benchmark Summary Comparision aus, wenn man die Einzelbenchmarks entfernt:

(dass das durch Auswahl von verschiedenen HW-Seiten in jede Richtung ausbaubar ist, sollte klar sein)

Grestorn
2006-02-01, 13:13:51
So sieht die Benchmark Summary Comparision aus, wenn man die Einzelbenchmarks entfernt:Was macht einen Benchmark eines einzelnen Spiels unglaubwürdiger als einen Vergleich mehrere Spiele?

deekey777
2006-02-01, 13:16:18
Na dann guck dir z.b. mal die I-L2 Sturmovik Benchmarks auf diversen Webseiten an. Gibt noch mehrs als genug Beispiele für grottige Performance von Crossfire, hauptsächlich bei Spielen abseits des Mainstream.

Ich kenn nur zwei:
http://www.firingsquad.com/hardware/ati_radeon_x1900_crossfire_performance/page7.asp
http://www.driverheaven.net/reviews/X1900XTXCF/x1900/il2.htm

Sternenkind
2006-02-01, 13:19:43
Schon erstaunlich wie viel Ignoranz und Dummheit bei manchen zutage gefördert werden. ;D

Aber erstmal etwas konstruktives (weil es so selten war) dem nichts hinzu zufügen gibt:

Wenn man nur das zitiert, was einem in den Kram passt, kann man alles beweisen. Dass NVs Karten ab GF6 aus Sicht des Entwicklers die SM3-Specs umfassender unterstützten als ATIs R520-Serie, heißt nicht, dass SM3-Spiele auf entsprechenden GeForce-Karten besser laufen würden.

Erstens steht die Frage der Rohleistung. Was arithmetische Power angeht (wichtig für lange Shader) liegen die Trümpfe beim R580. Dann: Was Dynamic Branching im Pixelshader angeht (wichtig, um die Performance zu maximieren) kann der R580 im Vergleich zum G70 glänzen. Nicht vergessen, auch wenn das nichts mit SM3 zu tun hat: Multisampling auf ein 64-Bit-Target bieten derzeit nur die Radeons. Das erlaubt Multisampling-AA im Zusammenhang mit HDR-Rendering.

Dann bietet die Radeon ab R520 einen AF-Modus, der alle Spiele die Texturen nutzen besser aussehen lässt als auf dem NV40 oder G70. Auch im SM3-Zeitalter bleiben Texturen wichtig. Unvollständige Spec-Erfüllung hin oder her: SM3-Spiele können auf der Radeon durchaus sowohl schneller sein, als auch besser aussehen als auf den aktuellen GeForce-Topmodellen.


Aber es ging ja schon im ersten Post von Tombman los..und zwar mit geistigen Dünnschiss. Erstens ist das Prozentezählen vollkommen lächerlich. Einen Unterschied von 20% im dreistelligen FPS-Bereich merkt kein Schwein, im unter 60FPS-Bereich dagegen hin schon sehr. Dies müsste also wesentlich höher bewertet werden. Nur mal so als Tipp lieber Tombman.
Da ist LolekDeluxe's Prozentzählerei schon brauchbarer, denn da werden aktuelle und anspruchsvolle Titel beleuchet. Und das Ergebnis spricht Bände. Ohne AA + AF zu Benchen wäre als würde man einem Porsche kaufen, dem ein "25km/h" Aufkleber hinten drauf kleben und 'nem alten Opa in die Hand drücken. Weniger sinnvoll...

Das was da zur zeit ATI abliefert ist nur traurig bringen einen chip fast 3/4 Jahr später raus und haben nicht mal genug dampf einen " alten " 7800 zu etrem schlagen ( damit meine ich werte die über 50 % mehr FPS liegen ). Auch die untzerstützung von SM 3.0 finde ich einen witz, in meinen augen haben die garnicht verdient zu schreiben "SM 3.0 karte" weil sie einfach nicht alles was SM vorschreibt umgesetzt haben.

Halten wir doch mal fest: Nvidia 'nur' HDR, ATI HDR und AA. Was wird dem Nutzer wohl mehr interessieren? Sagen zu können "meine GraKa kann die SM3 Spezifikation zu 100%" :uclap: oder das schönere und bessere Bild auf dem Monitor wenn er die ATI nutzt? Ich weiß, Fanboys ziehen ersteres vor.. ;D

Die ganze Diskussion erinnert mich ein wenig an die 9800pro/FX 5900 Zeit. Damals hiess es auch immer die FX5900 kann mithalten oder ist gar besser. Ein, zwei Jahr später konnte man mit 'ner 9800pro noch ganz gut mitspielen, während die FX5900 deutlich zu wenig Power hatte (besonders Shaderleistung, siehe auch HL2 Debakel) und reihenweise von ihren Besitzern ersetzt wurden.
Heute wird die x1900 ihren (Shader)Vorteil vielleicht noch nicht ganz ausspielen können aber sicher ist die Karte in Zukunft brauchbarer als Nvidias 7800. Die 'jetztige' Performance in hohen Auflösungen MIT AA+AF war schon in der Vergangenheit ein guter Indiez wie langlebig so eine Karte ist.

Aber ich würde mich gern von Nvidia belehren lassen. Sollen sie doch mal eine G71 zaubern die nicht nur Rohpower hat, sondern auch mit der Bildqualität von ATI gleichzieht und mit AA+AF nicht mehr so einbricht. Ja dann werde ich mir gern auch freiwillig wieder ein Forceware installieren wollen. Nur so recht dran glauben tue ich nicht.

Mr. Lolman
2006-02-01, 13:32:06
Was macht einen Benchmark eines einzelnen Spiels unglaubwürdiger als einen Vergleich mehrere Spiele?

Unglaubwürdiger insofern, da es 100e Benchmarks im Netz gibt, wo die X1900XT gegen eine 512MB GTX gebencht worden ist, und dass dementsprechend ein Benchmarkvergleich mehrerer HW Seiten etwas konstruiert wirkt, wenn man dann doch Spiele heranzieht, die nur auf einer einzigen Seite gebencht wurden.

(vgl. B&W2: Man denkt, NV hat hier den ärgeren Vorsprung und das Spiel wird kaum getestet. Zweiteres mag stimmen, aber der Vorsprung lässt sich zB. mit den Werten von THG widerlegen.)


BTW: Falls mir irgendwann ganz fad ist, konstruier ich mal den Gegenpart zum NVNews-vergleich :naughty:

Gast
2006-02-01, 13:34:59
das lag wohl drann, das ne FX damals schon recht nahe an den SM3.0 spezifikationen kratzte....
Ack.
Wobei das uns Gamer nicht weiter interessieren sollte...
Das Gesamtpaket ist wichtig. Und hier ist der R580 dem G70 meilenweit voraus.

Grestorn
2006-02-01, 13:46:56
Unglaubwürdiger insofern, da es 100e Benchmarks im Netz gibt, wo die X1900XT gegen eine 512MB GTX gebencht worden ist, und dass dementsprechend ein Benchmarkvergleich mehrerer HW Seiten etwas konstruiert wirkt, wenn man dann doch Spiele heranzieht, die nur auf einer einzigen Seite gebencht wurden.

(vgl. B&W2: Man denkt, NV hat hier den ärgeren Vorsprung und das Spiel wird kaum getestet. Zweiteres mag stimmen, aber der Vorsprung lässt sich zB. mit den Werten von THG widerlegen.)


BTW: Falls mir irgendwann ganz fad ist, konstruier ich mal den Gegenpart zum NVNews-vergleich :naughty:Ich denke, der Autor des Vergleichs hat nur einige Reviews namhafter Seiten herangezogen und dann alle Spiele, die dort jeweils getestet wurden, aufgeführt. Egal ob ein Spiel nur in einem oder allen dieser Reviews herangezogen wurde, denn das ist in dieser Art der Tabelle auch völlig egal, da transparent.

Man kann natürlich die Auswahl der Reviews erhöhen. Aber so lange die vorgenommene Auswahl nicht deutlich unausgeglichen ist, sehe ich kein Problem. Alle Reviews im Netz kann man schließlich rein technisch nicht aufnehmen.

Grestorn
2006-02-01, 13:50:16
Das Gesamtpaket ist wichtig. Und hier ist der R580 dem G70 meilenweit voraus.Ist Euch nicht klar, dass solche Aussagen nur Zwietracht und Widerspruch auslösen?

Ich denke auch, dass momentan die X1900 Reihe der aktuellen G70 Reihe überlegen ist. Aber meilenweit war vielleicht mal ein R300 dem NV30 überlegen, oder die Voodoo2 dem TNT. Aber hier ist das Wort wirklich unangebracht.

123456
2006-02-01, 14:19:53
Aber es ging ja schon im ersten Post von Tombman los..und zwar mit geistigen Dünnschiss. Erstens ist das Prozentezählen vollkommen lächerlich. Einen Unterschied von 20% im dreistelligen FPS-Bereich merkt kein Schwein, im unter 60%-Bereich dagegen hin schon sehr. Dies müsste also wesentlich höher bewertet werden. Nur mal so als Tipp lieber Tombman.

Dann setzen wir das doch gleich um und berechnen den arithmetischen Mittelwert. :)

AnandTech
FX-57

no AA 4x AA

7 % 15,5 %


ExtremeTech
X2 4800+

no AA 4x AA

8 % 12 %


FiringSquad
FX-60

no AA 4x AA

9 % 2 %


Hot Hardware
FX-55

no AA 4x AA

9 % 8 %


Tech Report
X2 4800+

no AA 4x AA

4 % 5 %


X-bit labs
Athlon 64 4000+

no AA 4x AA

10 % unentschieden

Sternenkind
2006-02-01, 14:25:03
Dann setzen wir das doch gleich um und berechnen den arithmetischen Mittelwert. :)

was wolle du sage? :ududen:

SKYNET
2006-02-01, 14:37:54
das, die ATI mit 4xAA nur 6.92% schneller ist als die NV! =)

123456
2006-02-01, 14:39:49
was wolle du sage? :ududen:

Ich möchte sagen, dass man den Mittelwert bilden und nicht einfach alle Prozentsätze addieren sollte. :)

Sternenkind
2006-02-01, 14:43:35
Da nützt mir aber ein Mittelwert auch nicht viel um die subjektive Spielbarkeit im <60FPS zu vergleichen und schon gar nicht wenn ich NUR mit Prozentwerten 'rechne' ohne die wirklichen FPS -_-

123456
2006-02-01, 14:45:28
Da nützt mir aber ein Mittelwert auch nicht viel um die subjektive Spielbarkeit im <60FPS zu vergleichen. -_-

Darum geht es hier doch auch gar nicht. Hier möchte man herausfinden, ob die 7800 GTX 512 MiB oder X1900 XTX schneller ist.

Gast
2006-02-01, 14:48:41
Darum geht es hier doch auch gar nicht. Hier möchte man herausfinden, ob die 7800 GTX 512 MiB oder X1900 XTX schneller ist.
Das brauchst du nicht...
Die X1900XT(X) ist schneller.

123456
2006-02-01, 14:51:15
das, die ATI mit 4xAA nur 6.92% schneller ist als die NV! =)

Allgemein kann man das so nicht sagen. Du vermischst jetzt sechs unterschiedliche Ergebnisse, die mit völlig unterschiedlichen Prozessoren (Single Core / Dual Core, untersch. Taktfrequenzen) und Einstellungen (Tech Report hat einige Spiele mit 1920 x 1440er-Auflösungen gebencht) erreicht worden sind.

Sternenkind
2006-02-01, 14:54:11
Voodoo recht hast du aber dann auch mit gescheiten Mittel, außerdem würde mich mal zugern interessieren wie du auf 'deine' Werte gekommen sein willst. ;) Entweder deine Werte sind falsch oder ich habe in der Schule beim Thema 'arithmetisches Mittel' was anderes beigebracht bekommen.

Spasstiger
2006-02-01, 14:54:17
Ich möchte sagen, dass man den Mittelwert bilden und nicht einfach alle Prozentsätze addieren sollte. :)

Den Einwand wollte ich auch schon bringen.
Und man darf auch nicht vergessen, die positiven Ergebnisse von der Konkurrenz vom Ergebnis der anderen Grafikkarte abzuziehen, sonst betreibt man auch automatisch Spiele-/Benchmarkselektion.
Wenn ich jetzt nur mal die Ergebnisse mit 4xAA zusammenrechne (ich würde mit so einer Karte aktuelle Spiele immer mit AA zocken), komme ich im Mittel über alle CPUs hinweg auf einen Geschwindigkeitsvorteil von 5,5% für ATI.

Mein Fazit deshalb: Man sollte schauen, welche Karte in den bevorzugten Spielen vorne liegt, da es teils ja doch eklatante Unterschiede gibt zwischen den Karten beider Hersteller. Z.B. ist es für einen exzessiven Fear-Zocker beinahe schon Frevel, eine Nvidia-Karte zu kaufen.
Auch die Bildqualität kann eine Rolle spielen. ATI bietet das bessere AF und das bessere MSAA. Die Nvidia-Karte ermöglicht es dafür, mittelmäßig alte Spiele mit SSAA aufzupeppen (16xS-AA).
Linux-Zocker nur mit der 7800 GTX glücklich, die ATI wäre hier ein glatter Fehlkauf.

ShadowXX
2006-02-01, 14:55:17
Allgemein kann man das so nicht sagen. Du vermischst jetzt sechs unterschiedliche Ergebnisse, die mit völlig unterschiedlichen Prozessoren (Single Core / Dual Core, untersch. Taktfrequenzen) und Einstellungen (Tech Report hat einige Spiele mit 1920 x 1440er-Auflösungen gebencht) erreicht worden sind.

Dazu sollte man aber auch noch mal sagen, das ich keinen einzigen deiner "Mittelwerte" rechnerisch Nachvollziehen konnte....

Speziell den von XBit bei 4xMSAA würde ich gerne mal vorgerechnet bekommen.


Den Einwand wollte ich auch schon bringen.
Und man darf auch nicht vergessen, die positiven Ergebnisse von der Konkurrenz vom Ergebnis der anderen Grafikkarte abzuziehen, sonst betreibt man auch automatisch Spiele-/Benchmarkselektion.


Nur komme ich z.B. bei XBit auf etwas über 11% Geschwindigkeitsvorteil (incl. abziehen der verlorenen benches) und nicht auf ein Draw (bei 4xMSAA).

fizzo
2006-02-01, 14:57:45
die hoehere leistung inkl. bessere bildqualitaet zum guenstigeren...momentan stellt sich fuer mich die frage nicht mal entweder oder.......

123456
2006-02-01, 15:07:02
Voodoo recht hast du aber dann auch mit gescheiten Mittel, außerdem würde mich mal zugern interessieren wie du auf 'deine' Werte gekommen sein willst. ;) Entweder deine Werte sind falsch oder ich habe in der Schule beim Thema 'arithmetisches Mittel' was anderes beigebracht bekommen.

Ich verrat's dir.

Nehmen wir als Rechenbeispiel die Werte von ExtremeTech ohne AA.

Als erstes bilde ich die Summe aller Daten. Für rot (ATi) erhält man (19 % + 10 % + 2 % + 19 %) 50 %. Nun teile ich durch die Anzahl aller Daten (50 % : 5) und erhalte 10 %.

Damit alleine kann ich aber nichts anfangen. Ich muss das Verfahren nochmal für grün (nVidia) durchführen; die nVidia-Karte muss doch auch mit einbezogen werden. Also 10 % : 5 = 2 %.

Nun die Differenz bilden. 10 % - 2 % = 8 %


Anmerkung: Wenn in der Tabelle steht 10 %, bedeutet das automatisch 0 % für grün und umgekehrt.

Spasstiger
2006-02-01, 15:08:15
Nur komme ich z.B. bei XBit auf etwas über 11% Geschwindigkeitsvorteil (incl. abziehen der verlorenen benches) und nicht auf ein Draw (bei 4xMSAA).

Hier komme ich auf auf ein Unentschieden (0,23% Vorteil für Nvidia).

123456
2006-02-01, 15:09:52
Hier komme ich auf auf ein Unentschieden (0,23% Vorteil für Nvidia).

So wie ich. =)

Mir muss man nicht trauen, aber dem Vorsitzenden des Clubs der 3DCenter-Mathefreaks schon. X-D

Sternenkind
2006-02-01, 15:19:32
äh lol? Voodoo auf die 8% komme ich auch, als so ziemlich einzigen Wert aber schon bei 4xAA stimmt es nicht mehr. Bin auf Arbeit und habe nicht die Zeit alles vorrechnen...später maybe.

Komme 'Overall' komme ich auf die schnelle ein plus von >10% für ATI raus (bei 4xAA).

Wobei das trotzdemnoch Schwachsinn ist, da AF völlig außer acht gelassen wird und man die AA Modi nicht 1:1 übertragen kann.

ShadowXX
2006-02-01, 15:23:01
Ich verrat's dir.

Nehmen wir als Rechenbeispiel die Werte von ExtremeTech ohne AA.

Als erstes bilde ich die Summe aller Daten. Für rot (ATi) erhält man (19 % + 10 % + 2 % + 19 %) 50 %. Nun teile ich durch die Anzahl aller Daten (50 % : 5) und erhalte 10 %.

Damit alleine kann ich aber nichts anfangen. Ich muss das Verfahren nochmal für grün (nVidia) durchführen; die nVidia-Karte muss doch auch mit einbezogen werden. Also 10 % : 5 = 2 %.

Nun die Differenz bilden. 10 % - 2 % = 8 %



Dann rechne ich dir mal das ganze für Xbit (4xMSAA, alles andere ist nonsense), nach deiner Methode vor:


ATI 19+31+6+15+37+3+8+21 = 140 / 11 = 12,727272....
nV 6+9+2 / 11 = 1,545454.....

12,72 - 1,54 = 11,18


11,18 und nicht Draw....

123456
2006-02-01, 15:23:53
äh lol? Voodoo auf die 8% komme ich auch, als so ziemlich einzigen Wert aber schon bei 4xAA stimmt es nicht mehr. Bin auf Arbeit und habe nicht die Zeit alles vorrechnen...später maybe.

Da habe ich falsch gerundet, merke ich gerade. Es sind 12 % statt 11 % - ganz genau 11,6 %. Hast du das auch so raus oder etwas völlig Anderes?

123456
2006-02-01, 15:24:37
Dann rechne ich dir mal das ganze für Xbit (4xMSAA, alles andere ist nonsense), nach deiner Methode vor:


ATI 19+31+6+15+37+3+8+21 = 140 / 11 = 12,727272....
nV 6+9+2 / 11 = 1,545454.....

12,72 - 1,54 = 11,18


11,18 und nicht Draw....

Wieso teilst du durch 11? Es sind 17 Werte.

Gast
2006-02-01, 15:25:44
Aber meilenweit war vielleicht mal ein R300 dem NV30 überlegen, oder die Voodoo2 dem TNT. Aber hier ist das Wort wirklich unangebracht.
Der R300 war eigentlich nur ab PS2.0 weit überlegen. Bei DirectX8.x-Spielen herrschte weitgehend Gleichstand. Der R300 war trotzdem die bessere Wahl ausser man legte wirklich grossen Wert auf sehr gutes AF. Damals hatten die Spiele aber eher rechtwinklige Levelgeometrie, sodaß das winkelabhängige AF nicht wirklich ein großes Manko war. Heutzutage sieht es eher umgekehrt aus.

Blutmaul
2006-02-01, 15:25:53
Da hat man nichts besseres zu tun und schmökert ein bischen im Forum herum und liest dann so einen Thread!

Ich versteh nicht, das irgendwer ernstlich behaupten kann, die heutigen Highendgrafikkarten wären in irgendeiner Form erbärmlich, lausig, schwach, böse...

Wir haben heute Hardware, die so leistungsfähig ist, wie niemals zuvor!

Den Low-End-Bereich lassen wir mal weg, da frag ich mich auch, wie man manche Modelle vollen Ernstes auf den Markt werfen kann, aber das ist eine Klasse, die hier und jetzt nicht zählt...

Sternenkind
2006-02-01, 15:26:32
11,6% kommt schon eher hin. Overall bei 4xAA irgendwas über 10%, hab kein Bock nochmal alles einzutippen.


EDIT: auch mit Lolmans Tabelle gerechnet, wobei lolmans 'Auswahl' für zukünftige Spiele maybe besser geeignet ist. Naja lassen wir das, sonst wird mir noch vorgeworfen irgendwas zurecht biegen zu wollen. ;)

123456
2006-02-01, 15:27:03
Ahhh. Verdammt, du hast die falsche Tabelle genommen. Du musst die aus dem Eingangsposting nehmen und nicht die, die Lolman gepostet hat, ShadowXX. X-D

Spasstiger
2006-02-01, 15:27:43
ATI 19+31+6+15+37+3+8+21 = 140 / 11 = 12,727272....
nV 6+9+2 / 11 = 1,545454.....

12,72 - 1,54 = 11,18


11,18 und nicht Draw....

Öhm, da fehlen aber noch ein paar Pro-Nvidia-Benches, 12% in AoE 3, 15% in Riddick, 44% in Pacific Fighters, 28% in Project Snowblind und 34% in Warhammer 2K.

ShadowXX
2006-02-01, 15:28:03
Wieso teilst du durch 11? Es sind 17 Werte.

Es werden bei XBit aber nur 11 Games getestet...dann kann ich nicht durch 17 Teilen.

Davon abgesehen....sind in der Tabelle sowieso nur 12 Games drinne. Woher also die 17?

123456
2006-02-01, 15:28:34
Es werden bei XBit aber nur 11 Games getestet...dann kann ich nicht durch 17 Teilen.

Davon abgesehen....sind in der Tabelle sowieso nur 12 Games drinne. Woher also die 17?

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=3935203#post3935203

Du hast die falsche Tabelle genommen. Lolman hat sie geändert (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=3936167#post3936167)und du hast seine genommen. Ich habe die Originaltabelle genommen. Daher das Missverständnis. X-D

mirp
2006-02-01, 15:30:17
Wenn da steht 30%, bedeutet das 130% für den Gewinner und 100% für den Verlierer.

Alle Vergleiche
ATI: 788% vs NVIDIA: 667% (83 Vergleiche)
9088/8967=1.0135 => 1.35% schneller

Nur 4xAA Vergleiche
ATI: 559% vs NVIDIA: 333% (45 Vergleiche)
5059/4833=1.0468 => 4.68% schneller

Hier wurde öfter mal behauptet, da würden Ergebnisse in der Tabelle fehlen. Kann das mal jemand erklären? Die Behauptung kann ich im Moment nicht nachvollziehen.

aths
2006-02-01, 15:30:28
Da nützt mir aber ein Mittelwert auch nicht viel um die subjektive Spielbarkeit im <60FPS zu vergleichen und schon gar nicht wenn ich NUR mit Prozentwerten 'rechne' ohne die wirklichen FPS -_-Genau, nix Mittelwert. Das geometrische Mittel der fps-Zahlen könnte zwar als erste Angabe herhalten, allerdings sollte man die Werte gewichten (Benches ohne AA sind weniger wertvoll als mit und so weiter.) Wie gut das Gesamtpaket aus Karte und Treiber für den einzelnen ist hängt dermaßen von seinen Präferenzen ab, dass ich es für sinnlos halte, mittels Benches die "beste" Karte ermitteln zu wollen. Ich würde z. B. MSAA-Qualität und AF-Qualität so hoch gewichten, dass die Radeon gerne 20, 30 oder 40% langsamer sein könnte (auf dem ohnehin sehr hohen Niveau) und sie trotzdem die Karte meiner Wahl wäre.

Spasstiger
2006-02-01, 15:36:27
Genau, nix Mittelwert. Das geometrische Mittel der fps-Zahlen könnte zwar als erste Angabe herhalten, allerdings sollte man die Werte gewichten (Benches ohne AA sind weniger wertvoll als mit und so weiter.) Wie gut das Gesamtpaket aus Karte und Treiber für den einzelnen ist hängt dermaßen von seinen Präferenzen ab, dass ich es für sinnlos halte, mittels Benches die "beste" Karte ermitteln zu wollen. Ich würde z. B. MSAA-Qualität und AF-Qualität so hoch gewichten, dass die Radeon gerne 20, 30 oder 40% langsamer sein könnte (auf dem ohnehin sehr hohen Niveau) und sie trotzdem die Karte meiner Wahl wäre.

Meiner Meinung nach sollte in Benchmarks immer angegeben werden, bis zu welcher Auflösung und bei welchen Qualitätseinstellungen man noch gerade so durchgehend flüssig zocken konnte. Und ein Kommentar dazu, wie der Tester die Bildqualität dabei empfand. Also eine subjektive Bewertung der Karten zusätzlichen zu den objektiven Benchmarks. Außerdem sollten die minimalen fps auch stets angegeben werden, besser wäre es noch, anzugeben, wieviel % der fps unter 20,25, 30 fps etc. lagen, also ähnlich wie in Fear.

Sternenkind
2006-02-01, 15:39:16
Richtig Spasstiger. Dreaverheaven.net macht das ganz nett (wenn auch nicht immer :( ).

ShadowXX
2006-02-01, 15:39:56
Öhm, da fehlen aber noch ein paar Pro-Nvidia-Benches, 12% in AoE 3, 15% in Riddick, 44% in Pacific Fighters, 28% in Project Snowblind und 34% in Warhammer 2K.

WObei man sagen muss, das zumindest der AoE3 Wert Nonsense ist (siehe Computer-Base-Test) und ich zuhause bei Project Snowblind ebenfalls wesentlich mehr Frames habe, als da im Test angegeben werden....

Das Ding können wir sowieso knicken, da die Ergebnisse in der Tabelle mit verschiedensten Einstellungen und Konfigurationen gemacht wurde.

XBit hat z.B. nV mit Q + allen Optimierungen an getestet...CB auf HQ mit allen Optimierungen aus.

Mann sollte mal einen ernsthaften Vergleich in ca. einem Monat machen (also so mit CAT6.3)....dann aber bitte mit jeweils der gleichen HW & ähnlichen BQ-Einstellungen.

123456
2006-02-01, 15:40:53
Genau, nix Mittelwert. Das geometrische Mittel der fps-Zahlen könnte zwar als erste Angabe herhalten, allerdings sollte man die Werte gewichten (Benches ohne AA sind weniger wertvoll als mit und so weiter.) Wie gut das Gesamtpaket aus Karte und Treiber für den einzelnen ist hängt dermaßen von seinen Präferenzen ab, dass ich es für sinnlos halte, mittels Benches die "beste" Karte ermitteln zu wollen. Ich würde z. B. MSAA-Qualität und AF-Qualität so hoch gewichten, dass die Radeon gerne 20, 30 oder 40% langsamer sein könnte (auf dem ohnehin sehr hohen Niveau) und sie trotzdem die Karte meiner Wahl wäre.

Aber Momente mal. Es geht ja nicht allgemein darum einen Mittelwert zu bilden und dadurch die bessere Karte zu krönen. Es geht hier nur um Tombmans Tabelle aus dem Eingangsposting. Da ist es sicherlich sinnvoller einen Mittelwert zu bilden (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=3936411#post3936411) anstatt alle Prozentsätze zusammenzuzählen wie Tombman (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=3935219#post3935219) (Zitat: "ATI: 788%: Nvidia: 667%") es tat - wenn man einfach nur einen Performancevergleich durchführen möchte. BQ, Preis, Lautstärke etc. außer Acht gelassen.

Dass die Tabelle ansich schwachsinnig ist, sei mal dahingestellt.

Sternenkind
2006-02-01, 15:50:04
Schwachsinnig in dem Sinne weil in verschiedenen Setting gebenched wurde und nur mit oder ohne AA, kein AF.

Werti
2006-02-01, 16:22:56
Schade das es soviele versuchen die 7800 512 MB GTX so hoch zu pushen.Ich konnte eine Woche lang eine 7800 512 MB GTX mein eigen nennen.Die 7800 512 MB GTX Performance war wirklich Hammer schnell.Vor 2 Tagen habe ich mir eine X1900 XTX gekauft.Ich kann nur soviel sagen die X!900 XTX bricht wirklich *WIRKLICH*bei keinen verdammten Settings ein!Es ist scheissegal was du einstellst 6AAA 16 AF das juckt die Ati Karte nicht.Dazu muss ich noch sagen das die Ati wirklich leicht das bessere Bild hat.Ich würde denn kauf nie mehr rückgängig mahchen!Die X1900 XTX ist mit Qualitäts einstellung einer 7800 512 MB GTX weit voraus.Beispiel:
NFSMW:1600/1200 4AA (TSAA-AAA) 16 AF
Die 7800 512 MB GTX produzierte Slowdowns dei der Ati hab ich bis heute noch kein einzigen Framedrop in irgend ein Spiel gemerkt.Benchmarks hinundher.Die Minimum FPS gehen ganz klar an die ATI Karte.

Spasstiger
2006-02-01, 16:54:57
Die 7800 512 MB GTX produzierte Slowdowns dei der Ati hab ich bis heute noch kein einzigen Framedrop in irgend ein Spiel gemerkt.Benchmarks hinundher.Die Minimum FPS gehen ganz klar an die ATI Karte.

In der aktuellen PC Games Hardware ist ein Crossfire-Test anhand von zwei Komplettrechnern (einmal mit 2*X1800 XT, einmal mit 2*X1900 XT, beide mit A64 FX-60). Als SLI-Konkurrenz tritt ein Rechner mit zwei 7800 GTX 512 MB und einem A64 X2 4800+ an.
In Need for Speed Most Wanted liegen die ATI-Karten auch dort deutlich vorne, sind 59 fps zu 42 fps @ 1600x1200, 4xAA, 8:1 AF.

Allerdings kann es sein, dass da auch die Dual-Core-Optimierung mit reinspielt, die mit dem ATI-Treiber in NFS:MW besonders gut funktioniert.

Gast
2006-02-01, 17:23:16
WObei man sagen muss, das zumindest der AoE3 Wert Nonsense ist (siehe Computer-Base-Test).Nö, der Wert ist vollkommen korrekt. Computerbase hat hier Unsinn gebencht, die haben MSAA vs SSAA und FP16-HDRR vs. Int10-HDRR, beidesmal zum Nachteil von Nvidia, gebencht.

ShadowXX
2006-02-01, 17:40:07
Nö, der Wert ist vollkommen korrekt. Computerbase hat hier Unsinn gebencht, die haben MSAA vs SSAA und FP16-HDRR vs. Int10-HDRR, beidesmal zum Nachteil von Nvidia, gebencht.

Nein...Computerbase hat das gemacht, was man machen sollte. Etwa jeweils gleiche Qualität gegeneinander.
Und wir haben mehrere Aussagen, das das Ergebnis auf dem Bildschirm Qualitativ gleich ist.

Das das für nV dann natürlich nicht so gut aussieht ist klar.

Der G70 kann nunmal HDR + AA nur mit SSAA. Das ist Pech für nV, aber nicht zu ändern.

Nochmals....man kauft keine 500-600Euro-Karte um dann ohne AA/AF zu spielen (oder HDR wegzulassen, wenns durchaus FPS-mäßig anwendbar ist).

Das ist auch der Grund, warum CB wohl als einziger Test im Netz das einzig sinnvolle Gemacht hat, indem Sie nV mit HQ-AF (+ohne optimierungen) vs. ATI Standard-AF gebencht haben.

HOT
2006-02-01, 17:51:45
Hm. Wie macht es sich da bemerkbar? Änderst Du bei diesen Spielen des öfteren Deinen Blickwinkel? Oder rotieren Objekte?

Den Blickwinkel ändert man - neben irgendwelchen Fluggeräten, die um die z-Achse schwenken können - eigentlich nur bei Spielen, bei denen man sich nach rechts oder links lehnen kann und dadurch das Bild leicht gekippt wird. Da mag in Einzelfällen das WA-AF auffallen.

Ansonsten kann der wirklich sehr genau beobachtende Spieler bestenfalls sehen, dass die Texturschärfe bei ganz bestimmten Texturen leicht inhomogen ist (z.B. dass ein Hügel an seiner Flanke etwas unschärfer wirkt als sonst). Ich kann aber einfach nicht glauben, dass das so auffällig sein soll, dass es wirklich stört.

Ich habe mal den Selbsttest mit Gothic 2 gemacht, da bei diesem Spiel auch die Landschaft in allen möglichen Winkeln existiert. Ich konnte nur mit sehr viel Mühe einige Stellen ausfindig machen, bei denen ich den Effekt wirklich nachweisen konnte.


Das ist relativ einfach zu beschreiben: Beide Spiele verwenden Landschaften, die nicht oder nur selten eben sind. Meistens läuft durch Senken oder über Hügel, und das natürlich in den seltensten Fällen grade. Zudem sind die Texturen eher eintönige Gras oder Steintexturen, die auch eher zum flimmern neigen. Werden die Texturen jetzt teilweise weniger gut gefiltert entsteht ein Eindruck von "Unsauberkeit" im Bild. Stellt man die Scenen auf einer Geforce4 nach, sieht man deutliche Unterschiede, übrigens auch im Flimmerverhalten meiner Geforce6.

BlackArchon
2006-02-01, 18:09:38
Nein...Computerbase hat das gemacht, was man machen sollte. Etwa jeweils gleiche Qualität gegeneinander.
Und wir haben mehrere Aussagen, das das Ergebnis auf dem Bildschirm Qualitativ gleich ist.

Das das für nV dann natürlich nicht so gut aussieht ist klar.

Der G70 kann nunmal HDR + AA nur mit SSAA. Das ist Pech für nV, aber nicht zu ändern.

Nochmals....man kauft keine 500-600Euro-Karte um dann ohne AA/AF zu spielen (oder HDR wegzulassen, wenns durchaus FPS-mäßig anwendbar ist).

Das ist auch der Grund, warum CB wohl als einziger Test im Netz das einzig sinnvolle Gemacht hat, indem Sie nV mit HQ-AF (+ohne optimierungen) vs. ATI Standard-AF gebencht haben.
Ach und FP16 gegen INT10 ist fair? Wenn beide Modi eine vergleichbare Bildqualität bringen sollen, warum wird dann überhaupt erst FP16 bei Nvidia-Karten benutzt?

Gast
2006-02-01, 18:09:54
Nein...Computerbase hat das gemacht, was man machen sollte. Etwa jeweils gleiche Qualität gegeneinander.
Und wir haben mehrere Aussagen, das das Ergebnis auf dem Bildschirm Qualitativ gleich ist.

Das das für nV dann natürlich nicht so gut aussieht ist klar.

Der G70 kann nunmal HDR + AA nur mit SSAA. Das ist Pech für nV, aber nicht zu ändern.

Nochmals....man kauft keine 500-600Euro-Karte um dann ohne AA/AF zu spielen (oder HDR wegzulassen, wenns durchaus FPS-mäßig anwendbar ist).Man kann aber nicht Äpfel mit Birnen vergleichen, das ist doch Humbug. Wenns denn nur das SSAA wäre, aber die HDRR-Varianten sind auch nicht miteinander zu vergleichen.

Pirx
2006-02-01, 18:11:11
...
Mann sollte mal einen ernsthaften Vergleich in ca. einem Monat machen (also so mit CAT6.3)....dann aber bitte mit jeweils der gleichen HW & ähnlichen BQ-Einstellungen.
Genau

Ich hoffe, das wird der 3DC-Artikel bringen. (Haben Sie eine 512er GTX?)

Sternenkind
2006-02-01, 18:34:43
Man kann aber nicht Äpfel mit Birnen vergleichen, das ist doch Humbug. Wenns denn nur das SSAA wäre, aber die HDRR-Varianten sind auch nicht miteinander zu vergleichen.

Das hat doch nicht unbedingt was mit Äpfeln und Birnen zu tun, sondern eher was der Nutzer auf dem Bildschirm präsentiert bekommt. Und da sieht es scheinbar für Nvidia äußerst mau aus.

Gast
2006-02-01, 18:50:51
Nö, natürlich hat das was mit Äpfel und Birnen zu tun, wenn man zwei vollkommen unterschiedliche AA-Modi und dazu auch noch völlig unterschiedliche HDR-Rendering-Varianten für einen Vergleichstest auswählt. Ich frag mich immer noch was die Jungs von CB da geritten hat, die produzieren doch sonst nicht so einen Nonsens.

Sternenkind
2006-02-01, 18:56:23
Na dann sage mir doch mal wie man die (annähernd) gleiche Bildqualität sonst vergleichen will. Ist doch völlig egal wie Hersteller X und Hersteller Y zum gleichen optischen Bild Z kommen. Was kann der eine dafür wenn der andere schlechte/ungünstigere Filter/Algorithmen benutzen muss?

Gast
2006-02-01, 18:57:29
Nö, natürlich hat das was mit Äpfel und Birnen zu tun, wenn man zwei vollkommen unterschiedliche AA-Modi und dazu auch noch völlig unterschiedliche HDR-Rendering-Varianten für einen Vergleichstest auswählt. Ich frag mich immer noch was die Jungs von CB da geritten hat, die produzieren doch sonst nicht so einen Nonsens.
Dann teile uns bitte mit, wie du MSAA mit FP16-HDR auf dem G70 darstellen willst...:rolleyes:

MechWOLLIer
2006-02-01, 19:00:29
Nö, natürlich hat das was mit Äpfel und Birnen zu tun, wenn man zwei vollkommen unterschiedliche AA-Modi und dazu auch noch völlig unterschiedliche HDR-Rendering-Varianten für einen Vergleichstest auswählt. Ich frag mich immer noch was die Jungs von CB da geritten hat, die produzieren doch sonst nicht so einen Nonsens.
Was für Alternativen hätte man denn sonst nehmen sollen? Vielleicht gar kein HDRR? Dann hätten manche wieder gemeckert, dass da nicht mit vollen Settings getestet worden ist.

AOE3 kann man derzeit eben leider nur mit Kompromissen benchen. Was für Einstellungen hättest du denn genommen?

Ich bezweifle ganz einfach, dass wirklich identische Bildqualität geherrscht hat.
Von identisch ist auch nie die Rede, wie wäre es mit vergleichbar?;)

Gast
2006-02-01, 19:00:43
Na dann sage mir doch mal wie man die (annähernd) gleiche Bildqualität sonst vergleichen will. Ist doch völlig egal wie Hersteller X und Hersteller Y zum gleichen optischen Bild Z kommen. Was kann der eine dafür wenn der andere schlechte/ungünstigere Filter/Algorithmen benutzen muss?Ich bezweifle ganz einfach, dass wirklich identische Bildqualität geherrscht hat.

Dann teile uns bitte mit, wie du MSAA mit FP16-HDR auf dem G70 darstellen willst...Dann bencht man halt ohne HDRR oder ohne MSAA. Oder einmal mit HDRR und einmal mit MSAA. Aber man kann doch nicht so einen Unsinn verzapfen.

Gast
2006-02-01, 19:35:57
AOE3 kann man derzeit eben leider nur mit Kompromissen benchen. Was für Einstellungen hättest du denn genommen?Ich hätte NV&ATI ohne HDR-Rendering mit MSAA getestet und die Radeons noch einmal untereinander mit HDRR + MSAA. Evtl. hätte man auch noch nur HDRR ohne MSAA benchen können, weiß aber nicht inwiefern AoE3 FP16-HDRR für x1800 anbietet.

Gast
2006-02-01, 19:46:35
Dann bencht man halt ohne HDRR oder ohne MSAA. Oder einmal mit HDRR und einmal mit MSAA. Aber man kann doch nicht so einen Unsinn verzapfen.
Schau dir mal die Bilder an. Das ATI-Bild sieht sogar besser aus. Und DAS ist hier entscheidend. Der Weg ist für den Gamer egal, wichtig ist was hinten rauskommt...:)

Spasstiger
2006-02-01, 19:56:09
Schau dir mal die Bilder an. Das ATI-Bild sieht sogar besser aus. Und DAS ist hier entscheidend. Der Weg ist für den Gamer egal, wichtig ist was hinten rauskommt...:)

Trotzdem kann man nicht einfach für einen Vergleich mit Einstellungen testen, für die die Hardware gar nicht gemacht ist. Einen Porsche 911 wird man auch nicht gegen einen Porsche Cayenne im Gelände antreten lassen, nur weil beide sehr sportlich sind.

Gast
2006-02-01, 20:20:44
Trotzdem kann man nicht einfach für einen Vergleich mit Einstellungen testen, für die die Hardware gar nicht gemacht ist. Einen Porsche 911 wird man auch nicht gegen einen Porsche Cayenne im Gelände antreten lassen, nur weil beide sehr sportlich sind.
Dieser Vergleich hinkt und das ganz gewaltig^^
Worauf es bei Grafikkarten ankommt ist die Performance und die BQ. Wie diese entstehen, ist für die meisten irrelevant. Es zählt was hinten rauskommt.

(del676)
2006-02-01, 23:14:25
lol wie geil

schaut man mal zwei tage nicht hier rein, kommen schon wieder die huldigungs threads für langsame karten mit mangelhafer bildqualität hoch X-D

an die "verschiedene settings" jammerer - das ist AUCH ein problem von NVIDIA
man hat performance im überfluss, kann es aber nicht gut in bildqualität umsetzen, wenn ich 8x AA brauche (mit Supersampling Anteil) um an ATI Qualität ranzukommen (die texturen sehen dabei auf der nvidia noch immer unschärfer aus - overall) dann ist das NVIDIAS problem, punkt

man kann es auch schön umschreiben ... ati hat ein 800ps gefährt mit allrad
nvidia ein 1000ps gefährt mit frontantrieb X-D
mit welchem bekomm ich die ps wohl besser auf die straße?

GENAU so verhält es sich mit performance zu bildqualität
hab ich übermäßg performance WILL ich es in bildqualität umsetzen - was bleibt mir bei 4xAA und (minderwertigem) 16xAF übrig? genau - SUPERSAMPLING :rolleyes:

d.h. ich montiere mir auf die motorhaube einen 600kg stahlbetonklotz damit ich die ps besser auf die straße bringe - mission geschafft, mehr grip, aber halt saulahm X-D

kapische?

J0ph33
2006-02-01, 23:28:43
an die "verschiedene settings" jammerer - das ist AUCH ein problem von NVIDIA
man hat performance im überfluss, kann es aber nicht gut in bildqualität umsetzen, wenn ich 8x AA brauche (mit Supersampling Anteil) um an ATI Qualität ranzukommen (die texturen sehen dabei auf der nvidia noch immer unschärfer aus - overall) dann ist das NVIDIAS problem, punkt

man kann es auch schön umschreiben ... ati hat ein 800ps gefährt mit allrad
nvidia ein 1000ps gefährt mit frontantrieb X-D
mit welchem bekomm ich die ps wohl besser auf die straße?

GENAU so verhält es sich mit performance zu bildqualität
hab ich übermäßg performance WILL ich es in bildqualität umsetzen - was bleibt mir bei 4xAA und (minderwertigem) 16xAF übrig? genau - SUPERSAMPLING :rolleyes:

d.h. ich montiere mir auf die motorhaube einen 600kg stahlbetonklotz damit ich die ps besser auf die straße bringe - mission geschafft, mehr grip, aber halt saulahm X-D

kapische?

full ACK!
ein sehr schöner vergleich...so sehe ich das auch :up:

weiß eigentlich jmd ob noch ne X1900XL kommt, ne XT ist mir zu teuer, 48ALUs hätte ich aber doch schon gern...

PP
2006-02-02, 00:03:10
full ACK!
ein sehr schöner vergleich...so sehe ich das auch :up:

weiß eigentlich jmd ob noch ne X1900XL kommt, ne XT ist mir zu teuer, 48ALUs hätte ich aber doch schon gern...
Im Handbuch meiner X1900XT steht auch eine X1900XL mit 512MB.

Piffan
2006-02-02, 00:07:30
Lustiger Kleinkrieg mal wieder. Schön zu sehen, wer Fanboy ist. :D

Zu dem Spruch vom "erbärmlichen" Crossfire: Selbst wenn es erbärmlich wäre, Wayne?

Es gibt sicher wenige, die "Multi-GPU" nötig haben.... :|

Gouvernator
2006-02-02, 00:12:09
Schade das es soviele versuchen die 7800 512 MB GTX so hoch zu pushen.Ich konnte eine Woche lang eine 7800 512 MB GTX mein eigen nennen.Die 7800 512 MB GTX Performance war wirklich Hammer schnell.Vor 2 Tagen habe ich mir eine X1900 XTX gekauft.Ich kann nur soviel sagen die X!900 XTX bricht wirklich *WIRKLICH*bei keinen verdammten Settings ein!Es ist scheissegal was du einstellst 6AAA 16 AF das juckt die Ati Karte nicht.Dazu muss ich noch sagen das die Ati wirklich leicht das bessere Bild hat.Ich würde denn kauf nie mehr rückgängig mahchen!Die X1900 XTX ist mit Qualitäts einstellung einer 7800 512 MB GTX weit voraus.Beispiel:
NFSMW:1600/1200 4AA (TSAA-AAA) 16 AF
Die 7800 512 MB GTX produzierte Slowdowns dei der Ati hab ich bis heute noch kein einzigen Framedrop in irgend ein Spiel gemerkt.Benchmarks hinundher.Die Minimum FPS gehen ganz klar an die ATI Karte.

Aber dennoch kann man mit dieser Karte nicht wirklich glücklich werden . Ich finde man MUSS sie noch übertakten damit in NFSMW und GTA:SA die Framedrops nicht zu hoch ausfallen. Es ist sehr angenehm bei 770mhz/900 COD2 in 1600x1200 +2AA zu spielen.

Spasstiger
2006-02-02, 00:12:57
Lustiger Kleinkrieg mal wieder. Schön zu sehen, wer Fanboy ist. :D

:|

Ich finde die Diskussion auf den letzten Seiten eigentlich recht konstruktiv.

aths
2006-02-02, 04:18:11
Lustiger Kleinkrieg mal wieder. Schön zu sehen, wer Fanboy ist. :D

Zu dem Spruch vom "erbärmlichen" Crossfire: Selbst wenn es erbärmlich wäre, Wayne?

Es gibt sicher wenige, die "Multi-GPU" nötig haben.... :|Ja, und. Die, die es wollen, scheinen auch mir derzeit bei SLI besser aufgehoben. Für mich sieht es so aus als sei SLI von NV von langer Hand geplant worden, während Crossfire bei ATI hastig und halbherzig nachgeschoben wurde.

aths
2006-02-02, 04:21:20
Der R300 war eigentlich nur ab PS2.0 weit überlegen. Bei DirectX8.x-Spielen herrschte weitgehend Gleichstand. Der R300 war trotzdem die bessere Wahl ausser man legte wirklich grossen Wert auf sehr gutes AF. Damals hatten die Spiele aber eher rechtwinklige Levelgeometrie, sodaß das winkelabhängige AF nicht wirklich ein großes Manko war. Heutzutage sieht es eher umgekehrt aus.Bei WoW nervt mich das stark winkelabhängige AF sowohl auf meiner GF 6600 GT als auch auf der Radeon Mobility. Die FX 5900 XT ist in Spielen die PS 2.0 oder höher nutzen, erschreckend langsam, bot aber in Max Payne und Max Payne 2 neben exzellenter Performance (welche die GF4 Ti 4600 deutlich übertrifft) bei Verwendung des richtigen Treibers (der keinen Zwang zur "brilinearen" Texturen beinhaltet) auch geniale Filterqualität.

aths
2006-02-02, 04:23:31
Aber Momente mal. Es geht ja nicht allgemein darum einen Mittelwert zu bilden und dadurch die bessere Karte zu krönen. Es geht hier nur um Tombmans Tabelle aus dem Eingangsposting. Da ist es sicherlich sinnvoller einen Mittelwert zu bilden (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=3936411#post3936411) anstatt alle Prozentsätze zusammenzuzählen wie Tombman (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=3935219#post3935219) (Zitat: "ATI: 788%: Nvidia: 667%") es tat - wenn man einfach nur einen Performancevergleich durchführen möchte. BQ, Preis, Lautstärke etc. außer Acht gelassen.

Dass die Tabelle ansich schwachsinnig ist, sei mal dahingestellt.Leute, Leute. Ich hab nur wenig Ahnung von Statistik, aber genug um zu sehen dass die hier im Thread vorgenommenen Rechnungen allesamt nicht dem Erkenntnisgewinn dienen.

Ach und FP16 gegen INT10 ist fair? Wenn beide Modi eine vergleichbare Bildqualität bringen sollen, warum wird dann überhaupt erst FP16 bei Nvidia-Karten benutzt?Wuss? Bencht da wer 64 Bit FP (16-16-16-16) vs. 32 Bit FX (10-10-10-2)?

Dann teile uns bitte mit, wie du MSAA mit FP16-HDR auf dem G70 darstellen willst...:rolleyes:Ich bin mir nicht sicher, dass die Hardware das verbietet sondern befürchte, dass NV das im Treiber unterbindet. FP16-Blending kann die GF ab NV40 ohnehin. Um MSAA auf ein FP16-Target zu erlauben ist nicht allzu viel an Hardware nötig. Es kann schon sein dass man sich das bei NV gespart hat (immerhin ist der Chip von der Transistorzahl vergleichsweise sparsam) es kann aber auch sein, dass NV den Kunden vor allzu hohen Framedrops "schützen" will.

Die Crux ist, dass man für HDR-Rendering sowohl FP16-Filterung als auch MSAA auf FP16-Targets zur Verfügung stellen sollte. Weder ATI noch NV bieten beides.

aths
2006-02-02, 04:26:16
Genau

Ich hoffe, das wird der 3DC-Artikel bringen. (Haben Sie eine 512er GTX?)Keiner kann alles im Kopf behalten. Am besten du schreibst Madkiller, der glaube ich in Kürze eine GTX (ob 512 MB, weiß ich jetzt nicht) geliehen bekommen dürfte, eine PM.

Gast
2006-02-02, 12:07:33
Wuss? Bencht da wer 64 Bit FP (16-16-16-16) vs. 32 Bit FX (10-10-10-2)?So ist es. Computerbase hat das verbrochen.

mapel110
2006-02-02, 12:17:44
Ich bin mir nicht sicher, dass die Hardware das verbietet sondern befürchte, dass NV das im Treiber unterbindet. FP16-Blending kann die GF ab NV40 ohnehin. Um MSAA auf ein FP16-Target zu erlauben ist nicht allzu viel an Hardware nötig. Es kann schon sein dass man sich das bei NV gespart hat (immerhin ist der Chip von der Transistorzahl vergleichsweise sparsam) es kann aber auch sein, dass NV den Kunden vor allzu hohen Framedrops "schützen" will.

Gabs das überhaupt schon mal, dass ein Graka-IHV ein funktionierendes Feature per Treiber einfach nicht anbot?
Mir fällt da derzeit nur Displacementmapping von Matrox Parhelia ein, ansonsten kennt man das imo nur von CD/DVD-Brennern und LWs, die künstlich per Firmware zurückgehalten werden.

ShadowXX
2006-02-02, 12:37:08
Wuss? Bencht da wer 64 Bit FP (16-16-16-16) vs. 32 Bit FX (10-10-10-2)?


Wenns identisch aussieht? Who cares....

reunion
2006-02-02, 13:36:25
Ich bin mir nicht sicher, dass die Hardware das verbietet sondern befürchte, dass NV das im Treiber unterbindet. FP16-Blending kann die GF ab NV40 ohnehin. Um MSAA auf ein FP16-Target zu erlauben ist nicht allzu viel an Hardware nötig. Es kann schon sein dass man sich das bei NV gespart hat (immerhin ist der Chip von der Transistorzahl vergleichsweise sparsam) es kann aber auch sein, dass NV den Kunden vor allzu hohen Framedrops "schützen" will.


Ironie?
Gerade nV ist berüchtigt dafür, Features anzubieten, die selbst auf High-End-Karten leistungstechnisch kaum zu gebrauchen sind. Und inwiefern man jemanden dadurch schützt, indem man ihm ein Feature vorenthält, will mir nicht so recht einleuchten. Besonders da die Konkurrenz dieses Feature anbietet, und man dadurch einen marketingtechnischen Schaden davonträgt.

Gast
2006-02-02, 14:01:57
Gabs das überhaupt schon mal, dass ein Graka-IHV ein funktionierendes Feature per Treiber einfach nicht anbot?


ATI z.b. alpha-test-AA für sehr sehr lange zeit ;)

oder NV die curved-surfaces (ich glaube RT-patches nannten sie sich) die eigentlich seit der GF3 in hardware vorhanden sind, aber per treiber deaktiviert (ich denke bei neueren karten werden wohl auch die nötigen hardwareschaltungen fehlen).


Ich bin mir nicht sicher, dass die Hardware das verbietet sondern befürchte, dass NV das im Treiber unterbindet. FP16-Blending kann die GF ab NV40 ohnehin. Um MSAA auf ein FP16-Target zu erlauben ist nicht allzu viel an Hardware nötig. Es kann schon sein dass man sich das bei NV gespart hat (immerhin ist der Chip von der Transistorzahl vergleichsweise sparsam) es kann aber auch sein, dass NV den Kunden vor allzu hohen Framedrops "schützen" will.

glaube ich kaum, es wäre verdammt dumm von NV, spätestens seit der X1800 hätte man das zumindest für die GTX512 aktivieren müssen.

Piffan
2006-02-02, 16:54:55
Ja, und. Die, die es wollen, scheinen auch mir derzeit bei SLI besser aufgehoben. Für mich sieht es so aus als sei SLI von NV von langer Hand geplant worden, während Crossfire bei ATI hastig und halbherzig nachgeschoben wurde.

Warum sind die SLI- User besser aufgehoben? Ich denke, dass man die Performance immer in Relation zur Bildqualität sehen muss, da gibts sicher auch von Dir keine Einwände. :biggrin:

Das Beispiel vom übermotorisierten Auto, dass seine Kraft gar nicht auf die Strasse bringen kann, ist imho gar nicht mal so schlecht. :|

Gast
2006-02-02, 17:06:38
Öhm, ganz einfach weil man bei Crossfire keine eigenen Profile erstellen kann und somit auf ATI-Treiber angewiesen ist. Nagelneue Spiele gleich am Erscheinungstag spielen kannst du vergessen mit Crossfire und musst auf den nächsten ATI-Treiber warten, der im unglücklichsten Fall noch 4 Wochen auf sich warten lässt. Spiele abseits des Mainstream laufen ebenfalls beschissen.

Crossfire ist eine total undurchdachte Notlösung, die man schnell dahin gefrickelt hat um NV den Markt im Ultra-High-End nicht allein zu überlassen.

tombman
2006-02-03, 00:24:29
Warum sind die SLI- User besser aufgehoben? Ich denke, dass man die Performance immer in Relation zur Bildqualität sehen muss, da gibts sicher auch von Dir keine Einwände. :biggrin:

Das Beispiel vom übermotorisierten Auto, dass seine Kraft gar nicht auf die Strasse bringen kann, ist imho gar nicht mal so schlecht. :|

Du wirst jetzt sicher gleich behaupten, daß bei gleichWERTIGER BQ SLI langsamer ist als EINE X1900, gell? ;D;D

btw, ich finds lustig wie sich manche gleich aufregen und "hängt tombman höher" schreien, nur weil ich eine Tabelle gepostet habe ;D;D

Die X1900 ist schnell, aber nicht schnell genug :)

Gast
2006-02-03, 01:14:24
Lol, ich ziehe also X1900 runter und werde in ein bis zwei Wochen selbst X1900 Crossfire

Was ist das für eine Schwachsinnige überlegung?
Jedes Kleinkind weiß, das Nvidia bei SLI deutlich überlegen ist, auch ohne den G71.

Mr. Lolman
2006-02-03, 01:39:56
Du wirst jetzt sicher gleich behaupten, daß bei gleichWERTIGER BQ SLI langsamer ist als EINE X1900, gell? ;D;D

btw, ich finds lustig wie sich manche gleich aufregen und "hängt tombman höher" schreien, nur weil ich eine Tabelle gepostet habe ;D;D

Die X1900 ist schnell, aber nicht schnell genug :)

Bei Fear schon...

Nerothos
2006-02-03, 05:50:21
Die X1900 ist schnell, aber nicht schnell genug :)
Der G71 ist auch nicht schnell genug... und der G80 ist auch nicht schnell genug... und der G666 ist auch nicht schnell genug... got it?

Spasstiger
2006-02-03, 06:32:02
Hat eigentlich schonmal jemand die neuen Karten in der Roboblitz Demo (Unreal Engine 3) verglichen?

nagus
2006-02-03, 07:29:22
...

Die X1900 ist schnell, aber nicht schnell genug :)...


dann kauf dir die 1900XTX ;)

btw, meinst nicht, dass dus a bissi übertreibst? es gibt wichtigeres im leben als den längsten e-penis.

Gast
2006-02-03, 12:32:37
dann kauf dir die 1900XTX ;)

btw, meinst nicht, dass dus a bissi übertreibst? es gibt wichtigeres im leben als den längsten e-penis.1. die x1900xtx ist nicht viel schneller, das weißt du aber vermutlich selbst.
2. Das hat weniger was mit E-Penis zu tun, als viel mehr mit Anspruch. Will man jedes Spiel in hoher Auflösung und mit sehr hohen Qualitätssettings spielen, braucht man nunmal einen starken Rechner.
btw, auch ich habe ein mächtiges Prachtexemplar von E-Penis. ;D

tombman
2006-02-03, 12:35:44
Der G71 ist auch nicht schnell genug... und der G80 ist auch nicht schnell genug... und der G666 ist auch nicht schnell genug... got it?
YOU didn´t get it, got it? ;)

tombman
2006-02-03, 12:37:00
Was ist das für eine Schwachsinnige überlegung?
Jedes Kleinkind weiß, das Nvidia bei SLI deutlich überlegen ist, auch ohne den G71.
Ich bin vieeeel schlimmer als ein Kleinkind :naughty:

tombman
2006-02-03, 12:38:33
es gibt wichtigeres im leben als den längsten e-penis.

Ja, was denn zb? ;)

Piffan
2006-02-03, 12:43:59
Du wirst jetzt sicher gleich behaupten, daß bei gleichWERTIGER BQ SLI langsamer ist als EINE X1900, gell? ;D;D

btw, ich finds lustig wie sich manche gleich aufregen und "hängt tombman höher" schreien, nur weil ich eine Tabelle gepostet habe ;D;D

Die X1900 ist schnell, aber nicht schnell genug :)

Grinsmodus an: Seit wann gibts die gleiche BQ von Nvidia? Es GIBT einfach keine vergleichbaren Settings. Nur über die Auflösung kann ich ein verpfischtes AF niemals korrigieren. Grinsmodus aus.

Wir sind wohl beide schlau genug, dass diese Laberei für den Spielealltag völlig irrelevant ist. Nur aths meint ja, dass winkelabhängiges AF furchtbar ist. :rolleyes:

Meines Erachtens wird der Winkelabhängigkeit zu viel Aufmerksamkeit geschenkt. Was echt nervtötend ist, das ist Texturenflimmern, Bi- Bänder etc. Da kriege ich auch nen Hals von. Um dagegen die Winkelabhängigkeit zu sehen, muss man schon wissen, wonach man suchen muss. :|

Piffan
2006-02-03, 12:46:03
Ja, was denn zb? ;)

Echter Sex, Macht, Geld. Kann man nie genug von kriegen. :tongue:

desert
2006-02-03, 12:47:24
das ist wohl wahr, ist mir ehrlich gesagt noch nie aufgefallen dieses winkelabhängigkeit.

Nur extremes texturflackern, wie z.b. die landedecks der flugzeugträger in il2:pf. Da hilft einfach nichts gegen.

Nerothos
2006-02-03, 12:49:25
YOU didn´t get it, got it? ;)
Was willst du mir damit sagen? :conf2:

Piffan
2006-02-03, 12:52:27
das ist wohl wahr, ist mir ehrlich gesagt noch nie aufgefallen dieses winkelabhängigkeit.

Nur extremes texturflackern, wie z.b. die landedecks der flugzeugträger in il2:pf. Da hilft einfach nichts gegen.

So ist es. Die wirklichen Ärgernisse kommen von den Entwicklern........

Die Technik ist schon sehr weit, nur das Können der Entwickler steht auf einem anderen Blatt. Wieso gibts Spiele, wo Bodentexturen im Terrain fließend ineinander übergehen, und bei anderen sieht man stümperhafte Stoßkanten. Gerade bei HL2 nervt es hochgradig, wenn man gerade Farcry gezockt hat. Farcry zeigt wie es geht......

Statt über winkelabhängiges AF zu mosern, mosere ich lieber über suboptimalen Content. DA liegt der Hase im Pfeffer....

MadManniMan
2006-02-03, 14:19:44
Ja, was denn zb? ;)

Spaß mit Freunden/Frauen/Alkohol z.B.? :|

Seis drum, nochmal zu der Übersicht:
Du berufst Dich auf diese, obgleich sie sich als völlig unbrauchbar selbst enttarnt? Einerseits: was will man bei solchen Karten ohne AA/AF? Andererseits: wie kommen derartig unterschiedliche Ergebnisse zu stande?

Ist das die Basis für Deine Argumentation?

MadManniMan
2006-02-03, 14:23:18
So ist es. Die wirklichen Ärgernisse kommen von den Entwicklern...

Ob sich die Jungens von DICE was dabei gedacht hatten, als sie die Texturen bei BF so designten, daß sie unter der Winkelabhängigkeit leiden? ;)
Guck Dich zettbeh mal Bocage an, oder auch eine beliebige Map mit Flugzeugen - setz Dich ins Cockpit, schalt 16*AF an und flieg ne Schraube :D

MarcWessels
2006-02-03, 14:26:14
*rechtgeb* WA-AF suckt und fällt sehr wohl auf.

123456
2006-02-03, 14:47:51
Crossfire ist eine total undurchdachte Notlösung, die man schnell dahin gefrickelt hat um NV den Markt im Ultra-High-End nicht allein zu überlassen.

Der paarweise Betrieb von Grafikkarten ist auch nichts weiter als Geldabzockerei, die ATi wahrscheinlich so nicht betreiben wollte, wegen nVidias SLI dann aber doch musste. "Notlösung" ist wirklich das perfekte Wort dafür.

Gast
2006-02-03, 14:50:23
Einerseits: was will man bei solchen Karten ohne AA/AF?Naja, mal angenommen man möchte eine solche Karte etwas länger behalten. Irgendwann schafft sie kein AA und AF mehr und man muss es ausschalten. Dann ist auch die Performance ohne AA/AF wichtig und das ist die klare Stärke der GTX/512.

erwingage
2006-02-03, 14:51:18
es ist sehr schön zu lesen wie man sich immer wieder gegen einander aufstachelt! :biggrin:
wenn manche sich auge in auge gegenüberstehen würden gäbe es bestimmt backensolo`s und diskobrillen :cool:

Mr. Lolman
2006-02-03, 14:52:10
Naja, mal angenommen man möchte eine solche Karte etwas länger behalten. Irgendwann schafft sie kein AA und AF mehr und man muss es ausschalten. Dann ist auch die Performance ohne AA/AF wichtig und das ist die klare Stärke der GTX/512.

Zu dem Zeitpunkt ist vll auch dynamisches Branching recht wichtig - und das ist die klare Stärke der X1900XT...

Gast
2006-02-03, 14:56:08
Der paarweise Betrieb von Grafikkarten ist auch nichts weiter als Geldabzockerei, die ATi wahrscheinlich so nicht betreiben wollte, wegen nVidias SLI dann aber doch musste. "Notlösung" ist wirklich das perfekte Wort dafür.Ati musste Crossfire bringen? Nö, sie wollten einfach nur auch ein Stück vom Kuchen abkriegen. Mir wäre es lieber gewesen sie hätten damit ne Zeit lang gewartet bis was gut durchdachtes bei rausgekommen wäre.

Zum Sinn von SLI: SLI ist eine prima Möglichkeit die Leistung der nächsten Generation schon heute im PC zu haben. Für Leute denen eine High-End-Karte nicht ausreicht und das nötige Kleingeld haben ist SLI doch prima. Wer nicht soviel Geld ausgeben will oder die Leistung nicht braucht, kann sich ja weiterhin eine einzelne Karte kaufen, die auch genug Leistung bringt.

crystalfunky
2006-02-03, 14:57:05
kann mir mal jemand die Tabelle erklären?
Ich sehe da nur ein CPU Vergleich (??????????????).

Und dann hat ein User nie Prozentzahlen zusammengezählt.
ATI hatte glaube ich 778% und NV 667%. und da meinte er nur 18 weniger für nv.. was soll das denn bedeuten?

Gast
2006-02-03, 14:58:39
Zu dem Zeitpunkt ist vll auch dynamisches Braching recht wichtig - und das ist die klare Stärke der X1900XT...Da hast du natürlich Recht. Spätestens wenn NV auch performantes DB anzubieten hat (frühestens G80, bei G71 wird das wohl nichts mehr), könnte es vermehrt in Spielen genutzt werden. Das wäre dann natürlich ein Vorteil für R520/R580.

MadManniMan
2006-02-03, 14:58:59
Naja, mal angenommen man möchte eine solche Karte etwas länger behalten. Irgendwann schafft sie kein AA und AF mehr und man muss es ausschalten. Dann ist auch die Performance ohne AA/AF wichtig und das ist die klare Stärke der GTX/512.

*nick*

Nun, kein falscher Gedanken - doch laß mich einen weiteren einwerfen!
Indeed, GTXen und X1900en sind Karten für Leute, die gern mehr Geld für GPUs ausgeben ... ich bin durchaus geneigt zu behaupten, daß nur ein kleiner Teil der Käufer zu dem Zeitpunkt, wo AA und AF kein Thema mehr ist bereits eine neue, bessere Karte im Rechner hat. Was meinst?

Gast
2006-02-03, 15:04:29
Nun, kein falscher Gedanken - doch laß mich einen weiteren einwerfen! Indeed, GTXen und X1900en sind Karten für Leute, die gern mehr Geld für GPUs ausgeben ... ich bin durchaus geneigt zu behaupten, daß nur ein kleiner Teil der Käufer zu dem Zeitpunkt, wo AA und AF kein Thema mehr ist bereits eine neue, bessere Karte im Rechner hat. Was meinst?Ebenfalls richtig. Der Großteil der Leute, die jetzt eine GTX/512 oder x1900xt kaufen, haut diese dann wohl mit Erscheinen der D3D10-GPUs wieder aus dem Rechner. Dann wird es wiederrum Leute geben, die die ehemaligen High-End-Karten günstig gebraucht erwerben und dann evtl. auch eine Zeit lang im Rechner behalten.

mapel110
2006-02-03, 15:05:08
*nick*

Nun, kein falscher Gedanken - doch laß mich einen weiteren einwerfen!
Indeed, GTXen und X1900en sind Karten für Leute, die gern mehr Geld für GPUs ausgeben ... ich bin durchaus geneigt zu behaupten, daß nur ein kleiner Teil der Käufer zu dem Zeitpunkt, wo AA und AF kein Thema mehr ist bereits eine neue, bessere Karte im Rechner hat. Was meinst?
Sicher gibts die Leute, aber wer eine 512 GTX kauft, verkauft sie auch wieder und das an jemanden, der offenbar weniger Ansprüche an Leistung stellt.

MadManniMan
2006-02-03, 15:15:04
Ebenfalls richtig. Der Großteil der Leute, die jetzt eine GTX/512 oder x1900xt kaufen, haut diese dann wohl mit Erscheinen der D3D10-GPUs wieder aus dem Rechner. Dann wird es wiederrum Leute geben, die die ehemaligen High-End-Karten günstig gebraucht erwerben und dann evtl. auch eine Zeit lang im Rechner behalten.

Sicher gibts die Leute, aber wer eine 512 GTX kauft, verkauft sie auch wieder und das an jemanden, der offenbar weniger Ansprüche an Leistung stellt.

Darauf hab ich gewartet :D

Und schade, daß ich wohl erstmal keine Zeit zum Antworten hab, aber laßt mich noch eins sagen:
Für jemanden mit solchen finanziellen Möglichkeiten sollte die Differenz zwischen dem Wiederverkaufswert einer X1900 und einer 7800GTX nicht wirklich entscheidend sein *spekulier*

123456
2006-02-03, 15:27:36
Zum Sinn von SLI: SLI ist eine prima Möglichkeit die Leistung der nächsten Generation schon heute im PC zu haben. Für Leute denen eine High-End-Karte nicht ausreicht und das nötige Kleingeld haben ist SLI doch prima. Wer nicht soviel Geld ausgeben will oder die Leistung nicht braucht, kann sich ja weiterhin eine einzelne Karte kaufen, die auch genug Leistung bringt.

Sag das mal den Leuten, die zwei 6800 oder zwei 7800 im SLI-Modus laufen haben und ehe sie "SLI" sagen konnten jetzt schonwieder von einer X1900 leistungs- und bildqualitätsmäßig geschlagen werden, die zudem auch noch mit unter 600 € sehr viel billiger ist als eine SLI-Lösung.

Gast
2006-02-03, 15:30:58
Sag das mal den Leuten, die zwei 6800 oder zwei 7800 im SLI-Modus laufen haben und ehe sie "SLI" sagen konnten jetzt schonwieder von einer X1900 leistungs- und bildqualitätsmäßig geschlagen werden, die zudem auch noch mit unter 600 € sehr viel billiger ist als eine SLI-Lösung.Und weiter? Die 6800er sind uralt und zwei 7800GTX/256 sind in den meisten Fällen immer noch schneller als eine x1900xt. Vor allem die minimalen FPS sind hier höher. Von der Bildqualität her hast du ja Recht, das AF der x1800/x1900 ist wirklich sehr gut, da ärger ich mich mit meiner GTX auch, dass die das nicht kann.

Mr. Lolman
2006-02-03, 15:33:46
Und weiter? Die 6800er sind uralt und zwei 7800GTX/256 sind in den meisten Fällen immer noch schneller als eine x1900xt. Vor allem die minimalen FPS sind hier höher. Von der Bildqualität her hast du ja Recht, das AF der x1800/x1900 ist wirklich sehr gut, da ärger ich mich mit meiner GTX auch, dass die das nicht kann.

Abwarten. Selbst bei der 9700Pro gabs anfangs gabs auch ein paar Spiele bei denen die Ti4600 noch schneller war. *mithinkendemvergleichölinsfeuergieß*

/edit: BTW: Die günstigste 7800GTX kostet momentan 415€. Die günstigste X1800XT 350€.

123456
2006-02-03, 15:36:20
Und weiter? Die 6800er sind uralt und (...)

That's what I'm talking about.

Die 6800-SLI-Version ist maximal ein Jahr alt. Im Grafikkartenmarkt nennt man das schon "uralt". Wenn der G71 erst einmal draußen ist, wird man die 7800 GTX auch als "uralt" abstempeln. Das dauert noch ein bis zwei Monate.

Aufgrund der so schnellen Entwicklung im Grafikkartenmarkt macht SLI / Crossfire einfach keinen Sinn.

Spasstiger
2006-02-03, 16:29:21
Abwarten. Selbst bei der 9700Pro gabs anfangs gabs auch ein paar Spiele bei denen die Ti4600 noch schneller war. *mithinkendemvergleichölinsfeuergieß*

Der Einwand ist aber berechtigt. Wenn man hier mal alte Threads im Forum rauskramt, so sieht man, dass Anno 2002 noch viele skeptisch waren bezüglich ATI-Karten und sich lieber eine GF 4 TI 4600 gekauft haben als eine Radeon 9700 Pro. In DX7-Spielen und ohne AA nehmen sich die beiden Karten halt auch praktisch nichts.
Erst in shaderlastigen Spielen kamen die Unterschiede in der Rohleistung zu Tage (bis zu vierfache Performance mit der 9700 Pro @DX8.1-Shader-Spielen).

Allerdings liegen X1900 XTX und GF7800 GTX in der theoretischen Shader-Leistung lange nicht so weit auseinander, als dass man noch auf Wunder seitens ATI hoffen kann. Ich denke nämlich auch, dass ATI gegen den G71 mit der X1900 XTX nicht mehr erfolgreich antreten kann.

Mumins
2006-02-03, 17:12:09
Ich denke nämlich auch, dass ATI gegen den G71 mit der X1900 XTX nicht mehr erfolgreich antreten kann.

Warum nicht? Mit erhöhtem Core und Speichertakt bestimmt.

Spasstiger
2006-02-03, 17:14:51
Warum nicht? Mit erhöhtem Core und Speichertakt bestimmt.

Ja, aber das ist dann nicht mehr die X1900 XTX. Vielleicht kommt ja noch eine XTX PE. ;D

Gast
2006-02-03, 17:58:01
Der Einwand ist aber berechtigt. Wenn man hier mal alte Threads im Forum rauskramt, so sieht man, dass Anno 2002 noch viele skeptisch waren bezüglich ATI-Karten und sich lieber eine GF 4 TI 4600 gekauft haben als eine Radeon 9700 Pro. In DX7-Spielen und ohne AA nehmen sich die beiden Karten halt auch praktisch nichts.
Erst in shaderlastigen Spielen kamen die Unterschiede in der Rohleistung zu Tage (bis zu vierfache Performance mit der 9700 Pro @DX8.1-Shader-Spielen).

Allerdings liegen X1900 XTX und GF7800 GTX in der theoretischen Shader-Leistung lange nicht so weit auseinander, als dass man noch auf Wunder seitens ATI hoffen kann. Ich denke nämlich auch, dass ATI gegen den G71 mit der X1900 XTX nicht mehr erfolgreich antreten kann.


Die Entwicklung geht weiter. Im nächsten Schritt kommen dann halt keine 8.1 Shader sondern eben dynamisches Branching. Dann könnten sich wieder bis jetzt ungeahnte Leistungsdifferenzen auftun.

Im übrigen erwähnte Demi mal daß ATI das hervorragende DynBranching sehr gut zur Leistungssteigerung bei den treiberinternen Shader-Optimierungen einsetzen könnte. Wer weiß, evtl bastelt ATI z.Z. schon an solch einem Shader-Compiler den wir dann zum G71 Launch zu sehen bekommen. Nur mal so zum Nachdenken.

doom1
2006-02-03, 18:19:48
Ich weis ja nicht...bin ja von SLI (256)auf nur eine Karte umgestiegen und langsamer ist die ATI mit bestimmtheit nicht!
Eher viel schneller bei besserer BQ warum..ist ja auch schon zig mal geschrieben worden.
Und da dürfte sie auch gegen 1 Karte (512) nicht langsamer sein sind ja irgendwie die selben voraussetzungen....
Auch wenn es einigen nicht in den Kram paßt.
Wie das mit einem 512 SLI aussieht KA vieleicht sagt ja Blaire was dazu.
Diese ganzen Test,ich halte davon eh nicht so viel..(was der Kram taugt sieht man erst am eigenen PC)hatte mit meinem SLI schon ab und an kräftig die Tränen in den Augen(zb.Cod2)mit der ATI hab ich Lachfalten......

Ach ja ich wollt es auch nicht wahrhaben....wie sagt man so schön Versuch mach Klug...und dann kann man es sich auch ruhig eingestehen...

Gast
2006-02-03, 18:54:40
Öhm, abgesehen von Fear ist GTX/256-SLI eigentlich immer schneller als eine x1900xt(x)...

Blaire
2006-02-03, 19:15:42
Man kann tatsächlich sagen die X1900XTX kommt verdammt nah an die Leistung zweier 7800GTX 256@SLI heran, bietet zudem sehr gute Bildqualität dank wuAF. Mit waAF Ati und Nvidia sehe ich allerdings keinen großen Unterschied (AI disabled und Nvidia HQ). Würde sagen das nimmt sich nicht viel bzw. bleibt sich gleich.
Bisher bin ich sehr zufrieden, bis auf den sehr lauten Lüfter.

Gandharva
2006-02-03, 19:17:34
Man kann tatsächlich sagen die X1900XTX kommt verdammt nah an die Leistung zweier 7800GTX 256@SLI heran, bietet zudem sehr gute Bildqualität dank wuAF. Mit waAF Ati und Nvidia sehe ich allerdings keinen großen Unterschied (AI disabled und Nvidia HQ). Würde sagen das nimmt sich nicht viel bzw. bleibt sich gleich.
Bisher bin ich sehr zufrieden, bis auf den sehr lauten Lüfter.Hast du dir 2 oder nur eine geholt? Wie lässt sich der Lüfter einsufen in Sachen Lautstärke? Sehr nervig?

P.S. Ich glaub ich hol mir auch ne X1900XT

Blaire
2006-02-03, 19:24:40
Hast du dir 2 oder nur eine geholt? Wie lässt sich der Lüfter einsufen in Sachen Lautstärke? Sehr nervig?

P.S. Ich glaub ich hol mir auch ne X1900XT

Erstmal eine, die zweite ist auf dem Weg zu mir. :wink:
Der Lüfter ist recht laut da ich den Tower aber unter dem Tisch habe, ists eingermasen erträglich. In etwa so laut wie damals die 5800 Ultra vom Lärmpegel her.
Bisher hab ich keine Stabilitätsprobleme bemerkt die Karten werden aber auch ordentlich warm bis um die 80 Grad hinaus nach ner halben Stunde zocken.

Gandharva
2006-02-03, 19:26:22
Erstmal eine, die zweite ist auf dem Weg zu mir. :wink:
Der Lüfter ist recht laut da ich den Tower aber unter dem Tisch habe, ists eingermasen erträglich. In etwa so laut wie damals die 5800 Ultra vom Lärmpegel her.
Bisher hab ich keine Stabilitätsprobleme bemerkt die Karten werden aber auch ordentlich warm bis um die 80 Grad hinaus nach ner halben Stunde zocken.Danke, dann werd ich gleich einen Zalman mitbestellen.

Gouvernator
2006-02-03, 20:09:21
Ich bin froh das ATI wieder einmal gezeigt hat. So das Nvidia Leuten nix anderes übrig bleibt als die Karte für nicht schnell genug um 2xGTX zu schlagen zu beschimpfen.
Vor mir liegt eine Gamestar Ausgabe wo die Ergebnisse in FarCry im Duell zwischen X800XT PE und 6800 Ultra Extreme extreme geschönt sind :biggrin:

Gast
2006-02-03, 20:14:04
Vor mir liegt eine Gamestar Ausgabe wo die Ergebnisse in FarCry im Duell zwischen X800XT PE und 6800 Ultra Extreme extreme geschönt sind :biggrin:
Die können so viel schönen wie sie wollen, an eine X800XT PE wird die 6800Ultra nie rankommen, da FarCry von ATI dominiert wird.
Klick (http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_ati_radeon_x1900_xtx_x1900_cf-edition/19/#abschnitt_far_cry)

Gouvernator
2006-02-03, 20:22:49
Ich meine nur das gewisse Leute keine starke Konkurrenz verkraften und alles daran setzen ja sogar manipulation um besser da zu stehen.
oder wie kann es sein das eine 6800 Ultra in FarCry unter 1600x1200 +4xAA+16AF auf 15 fps kommt und eine um +50 mhz schnellere Variante auf 34

Mr. Lolman
2006-02-03, 20:25:04
Erstmal eine, die zweite ist auf dem Weg zu mir. :wink:
Der Lüfter ist recht laut da ich den Tower aber unter dem Tisch habe, ists eingermasen erträglich. In etwa so laut wie damals die 5800 Ultra vom Lärmpegel her.

So verzerren sich die Erinnerungen. Ne 5800 Ultra mit FXFlow Lüfter schaffte bis zu 13 Sone, die X1900XT "nur" knapp 6. Somit ist die X1900XT ca so laut wie diese, damals als "sehr leise" (:ulol: ) (http://www.tomshardware.de/graphic/20030715/kaufberatung-grafikkarten-35.html) erachtete, 5900 Ultra hier:
http://www.chip.de/ii/13530339_ff5e3608ca.jpg

Coda
2006-02-03, 20:29:30
Kommt ja auch auf die Frequenz an was den Nervfaktor betrifft, aber ich wage es auch mal sehr stark zu bezweifweln, dass die X1900 auch nur entfernt an den Staubsauger rankommt.

aths
2006-02-03, 20:37:37
Zu dem Zeitpunkt ist vll auch dynamisches Branching recht wichtig - und das ist die klare Stärke der X1900XT...Zumal man kaum jemals wieder ohne AA und AF spielen möchte. Dass die GF bei HDR-Rendering kein MSAA anbietet, ist ein weiterer Nachteil.

Gouvernator
2006-02-03, 20:43:39
Zumal man kaum jemals wieder ohne AA und AF spielen möchte. Dass die GF bei HDR-Rendering kein MSAA anbietet, ist ein weiterer Nachteil.

Das ist kein Nachteil das ist eine Katastrophe. Wenn mann bedenkt das man den neusten Kracher mit einer sauteuren GraKa ohne AA spielen MUSS :eek:

Gouvernator
2006-02-03, 20:44:44
Ist eigentlich eine Besserung bei Nvidia in diese Richtung geplant ?

Gast
2006-02-03, 20:50:37
Das ist kein Nachteil das ist eine Katastrophe. Wenn mann bedenkt das man den neusten Kracher mit einer sauteuren GraKa ohne AA spielen MUSS :eek:Ja, ne ist klar. Weil R520/R580 auch genug Leistung haben um in zukünftigen Spielen echtes HDR und hohe AA-Modi zu bringen. Es ist ärgerlich, dass NV es nicht bietet, ja. Aber es ist auch nicht der Weltuntergang. Dafür bieten sie eben Filterung von FP16-Texturen, was auch nicht gerade unwichtig ist.

Gast
2006-02-03, 20:59:48
Ja, ne ist klar. Weil R520/R580 auch genug Leistung haben um in zukünftigen Spielen echtes HDR und hohe AA-Modi zu bringen.
Glaskugel?

Es ist ärgerlich, dass NV es nicht bietet, ja. Aber es ist auch nicht der Weltuntergang.
Ack.
Wie sieht es mit FX10-HDR aus?
Das können doch die NV Chips?


Dafür bieten sie eben Filterung von FP16-Texturen, was auch nicht gerade unwichtig ist.
Das mit der Filtrung von FP16-Texturen scheint ein Hype, wie damals (vor 1,5 Jahren) SM3, zu sein.
Erst jetzt kommt SM3 langsam in Fahrt.

aths
2006-02-03, 21:25:15
Ack.
Wie sieht es mit FX10-HDR aus?
Das können doch die NV Chips?FX10 ist kein HDR-, nicht mal MDR-Format. Ich wüsste nicht, dass GF-Karten RGBA 10-10-10-2 unterstützen.

Gouvernator
2006-02-03, 21:25:21
Es kommt eher dazu das Entwickler gar kein HDR einbauen bevor Nvidia nicht nachzieht mit AA+HDR.

Gast
2006-02-03, 21:29:43
FX10 ist kein HDR-, nicht mal MDR-Format.
Dann einigen wir uns auf den HDR-Effekt. :D
Siehe AoE3.
Der Effekt von FX10-HDR ist der gleiche wie mit FP16-HDR. Es ist kein Bloom und wertet die Grafik deutlich auf.

Ich wüsste nicht, dass GF-Karten RGBA 10-10-10-2 unterstützen.
Das ist dann aber übel...

Gast
2006-02-03, 21:30:15
So verzerren sich die Erinnerungen. Ne 5800 Ultra mit FXFlow Lüfter schaffte bis zu 13 Sone, die X1900XT "nur" knapp 6.

vergleiche niemals die lautstärkemessungen verschiedener reviews vergleichen, es kommt auch immer auf die messentfernung und umgebung an ;)

aber an den FX-fön wird sie wohl doch nicht drankommen.

mapel110
2006-02-03, 21:33:18
Es kommt eher dazu das Entwickler gar kein HDR einbauen bevor Nvidia nicht nachzieht mit AA+HDR.
Wenn kein HDR eingebaut wird, liegt das eher an ATI, weil sie kein Filtering bei FP16 Rendertargets unterstützen.
Das ist dann aber übel...
Warum? wenn sie was besseres anbieten...

Mr. Lolman
2006-02-03, 21:35:45
vergleiche niemals die lautstärkemessungen verschiedener reviews vergleichen, es kommt auch immer auf die messentfernung und umgebung an ;)

aber an den FX-fön wird sie wohl doch nicht drankommen.

Naja auch wenn beide Werte von unterschiedlichen Reviews @ Chip.de kommen so hoffe ich, dass die einen halbwegs konformen Testaufbau einhalten. (Falls nicht hat die X1900XT noch 0.1 Sone Spielraum bis zur Gainwardkarte ;))

Gast
2006-02-03, 21:37:53
Wenn kein HDR eingebaut wird, liegt das eher an ATI, weil sie kein Filtering bei FP16 Rendertargets unterstützen.
Es geht auch ohne...

Warum? wenn sie was besseres anbieten...
Welches nur mit SSAA funktioniert und brutal langsam ist...
Was soll die Frage überhaupt?

Gast
2006-02-03, 21:42:21
Es geht auch ohne...

Welches nur mit SSAA funktioniert und brutal langsam ist...
Was soll die Frage überhaupt?Errm, wenn du bei ATI die Filterung von FP-Texturen im Pixelshader nachstellen musst, ist das ebenso "brutal langsam". Viele Entwickler werden dann wohl komplett darauf verzichten und ein HDR-R minderer ATI-Qualität abliefern. ;)

Gast
2006-02-03, 21:48:36
Der Effekt von FX10-HDR ist der gleiche wie mit FP16-HDR.Das bezweifle ich stark.

Gast
2006-02-03, 21:53:47
Errm, wenn du bei ATI die Filterung von FP-Texturen im Pixelshader nachstellen musst, ist das ebenso "brutal langsam".
Beweise?
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3561761&postcount=24
Oder kannst du vom Code her auf die Performance schliessen, wenn man noch andere Pxelshaderberechnungen ausführenen muss?
Mein Gedanke war FX10-HDR...

Gast
2006-02-03, 21:55:14
Das bezweifle ich stark.
Schau dir die Bilder an:
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_ati_radeon_x1900_xtx_x1900_cf-edition/15/#abschnitt_age_of_empires_3

Gast
2006-02-03, 21:55:28
Mein Gedanke war FX10-HDR...Je nach Situation kann das aber bedeutend schlechter aussehen.

Gast
2006-02-03, 22:05:33
Je nach Situation kann das aber bedeutend schlechter aussehen.
Hast du Beispiele?

Gast
2006-02-03, 22:52:30
Was ich nicht verstehe: Wann wird denn eine X1900XT Crossfire-konstellation wirklich gefordert ? Bestimmt nicht bei 1600x1200, oder ?

Also angenommen ich hab hier nen Röhrenmonitor rumstehen und will mehr als 1600x1200 einstellen. Da schaltet die X1900XT schon bei 1920x1440 auf 75 Hz
runter. Die 7800er macht da noch 90 Hz.

Kann mir das einer erklären ?

Gast
2006-02-03, 23:03:57
Jap, durch die Crossfire-Lösung mit dem externen Dongle, ist die Auflösung und Bildwiederholfrequenz durch die Bandbreite des Dual-Link-DVI begrenzt. Das Maximum sind hier 2560x1600@60Hz. Für einen sehr großen CRT kann das zu wenig sein, weil man hier deutlich höhere Bildwiederholraten als 60Hz braucht und somit mit der Auflösung runtergehen muss.

Aber sei froh, bei x800/x850 Crossfire war es nur ein Single-Link-DVI, da war dann bei 1600x1200@60Hz schluss, also absolut nichts für CRTs...

Gast
2006-02-03, 23:11:51
Na wie geil. Dann bezahlt man mal eben noch 1200€ für nen TFT mit 1920x1200 und muss sich obendrein noch mit 16ms Reaktionszeit zufrieden geben.

Ist doch alles Schwachsinn.

Gast
2006-02-03, 23:19:17
Oder man begnügt sich mit einer Auflösung von 1600 x 1200 + 6x AAA & 16x AF. :D

Gast
2006-02-03, 23:32:18
Oder man begnügt sich mit einer Auflösung von 1600 x 1200 + 6x AAA & 16x AF. :D

:D Oder so. Wenn wir die 1920x1200 aber verlassen und noch ne Stufe höher gehen, kann auch 1600x1200 mit allem Pi-pa-po nicht mehr mithalten.
Auflösung ist halt was anderes als AA/AF.
Und: Umso höher die Auflösung, umso unbedeutender AA/AF.

MarcWessels
2006-02-03, 23:48:32
Für AF würde ich das nicht unterschreiben.

Gast
2006-02-04, 00:08:25
Für AF würde ich das nicht unterschreiben.

doch, je kleiner die pixel desto weniger fällt die unschärfe bei verzerrten texturen auf, also braucht man auch einen weniger hohen AF-grad für die gleiche texturschärfe.

Piffan
2006-02-04, 00:27:46
doch, je kleiner die pixel desto weniger fällt die unschärfe bei verzerrten texturen auf, also braucht man auch einen weniger hohen AF-grad für die gleiche texturschärfe.

Hä? :confused:

Ist es nicht eher so, das eine Anpassung der Mipmap- Wechsel die Schärfe bringt?

Die Frage ist nur, was einen höheren Ertrag bringt: Auflösung rauf oder lieber mehr AA/AF....Sollte eigentlich klar sein. Zumal die Flucht in die Auflösung ja vom Wiedergabegerät eingeschränkt wird.

aths
2006-02-04, 04:00:24
Hä? :confused:

Ist es nicht eher so, das eine Anpassung der Mipmap- Wechsel die Schärfe bringt?

Die Frage ist nur, was einen höheren Ertrag bringt: Auflösung rauf oder lieber mehr AA/AF....Sollte eigentlich klar sein. Zumal die Flucht in die Auflösung ja vom Wiedergabegerät eingeschränkt wird.Die MIP-Stufen-Berechnung hängt vom Verhältnis Pixel-zu-Texel ab. Dazu bald mehr in einer bekannten Zeitschrift. Entsprechend hängt es auch von der Auflösung ab, wann welche MIP genommen wird. Allerdings ist AF deutlich effektiver wenn es darum geht, durch isotrope Filterung hervorgerufene Texturunschärfe zu mindern. Man kann den Wechel der MIP-Maps nicht anpassen um zusätzliche Schärfe zu erzeugen, ohne gleichzeitig Aliasing zu bekommen. Was hab ich gestaunt, dass LFS genau das tut: Standard ist LOD-Bias von -2. Wirklich idiotisch.

m.sch
2006-02-04, 07:39:50
:D Oder so. Wenn wir die 1920x1200 aber verlassen und noch ne Stufe höher gehen, kann auch 1600x1200 mit allem Pi-pa-po nicht mehr mithalten.
Auflösung ist halt was anderes als AA/AF.
Und: Umso höher die Auflösung, umso unbedeutender AA/AF.


AA/AF sind für Leute ohne ToP-MoNiToR ( Mark Rein Epic ) :D

The_Invisible
2006-02-04, 08:02:44
AA/AF sind für Leute ohne ToP-MoNiToR ( Mark Rein Epic ) :D

die Pixel sind einfach immer zu groß bzw das Bild zu körnig... beispiel: bei meinem laptop mit auflösung 1280x800 bei 13" merkt mna so gut wie kein Aliasing, dann setzt man sich vor ner 19" 1280x1024 TFT Kiste und sieht direkt die pixel, ideal ist da wieder ein 20" TFT mit 1600x1200/1680x1060

da kann ich auch verstehen warum sich die 19" TFT leute immer über Aliasing aufregen, dort sieht man es wirklich am ärgsten

mfg

Gast
2006-02-04, 14:09:30
da kann ich auch verstehen warum sich die 19" TFT leute immer über Aliasing aufregen, dort sieht man es wirklich am ärgsten



stimmt, bei einem 17"-monitor kann man fast eine AA-stufe niedriger einstellen und hat das gleiche subjektive empfinden wie bei einem 15" oder 19" in der nativen auflösung.

aths
2006-02-05, 02:11:22
die Pixel sind einfach immer zu groß bzw das Bild zu körnig... beispiel: bei meinem laptop mit auflösung 1280x800 bei 13" merkt mna so gut wie kein Aliasing, dann setzt man sich vor ner 19" 1280x1024 TFT Kiste und sieht direkt die pixel, ideal ist da wieder ein 20" TFT mit 1600x1200/1680x1060Auch bei 20" und 1600 sehe ich Kantenflimmern.

The_Invisible
2006-02-05, 11:22:57
Auch bei 20" und 1600 sehe ich Kantenflimmern.

schon, aber lange nicht so arg wie bei 19" / 1280

die auflösungen müssten einfach viel höher sein, dann müsste das OS auch noch vektorisiert arbeiten (bei linux gehts ja zum teil) und alles wär in butter...

mfg

Gast
2006-02-05, 12:56:37
Ich hab selber einen 19 Zoll Tft daheim.
Meine Graka ist eine X800xt.
Nachdem Valve nun die neue Militia-Map released hatte, war cih ziemlich geschockt.
20 - 40 Frames pro Sekunde, mit allen Einstellungen auf High.
Antialiasing auf 6-fach Aniso auf 16-Fach, natürlich auch.
Ach habe Hdr und sogar noch das Antialiasing ausgestellt.
Jetzt läuft die Map zwar flüssig, aber das Bild ist hässlich.....

Coda
2006-02-05, 13:29:45
schon, aber lange nicht so arg wie bei 19" / 1280

die auflösungen müssten einfach viel höher sein, dann müsste das OS auch noch vektorisiert arbeiten (bei linux gehts ja zum teil) und alles wär in butter...

mfgAlso ich kann aths nur beipflichten. Ich hab nen 20" 1600x1200 und das ist ohne AA unerträglich, weil ein TFT nicht interpoliert wie ein CRT.

aths
2006-02-05, 14:15:52
schon, aber lange nicht so arg wie bei 19" / 1280

die auflösungen müssten einfach viel höher sein, dann müsste das OS auch noch vektorisiert arbeiten (bei linux gehts ja zum teil) und alles wär in butter...Nah... wenn die Auflösung viel höher wäre, würde recht ineffizent gerendert. Man braucht für Spiele gar nicht so viel Auflösung, aber hohe AA-Stufen.

erwingage
2006-02-06, 11:02:31
wie wird sich die X1900XTX gegen die neue nvidia karte(7900) schlagen :confused:

Zino
2006-02-06, 11:08:26
*glaskugelraushol* :|

wir werden sehen.

MFG

Zino

Ailuros
2006-02-07, 17:25:45
Es wird so langsam Zeit dass ich eine R5x0 bekomme:

http://www.beyond3d.com/forum/showpost.php?p=691633&postcount=15

Gast
2006-02-07, 17:28:10
Es wird so langsam Zeit dass ich eine R5x0 bekomme:

http://www.beyond3d.com/forum/showpost.php?p=691633&postcount=15
Ein Performance Einbrucj von 40 FPS ist das wirklich sogut ?

Ailuros
2006-02-07, 17:49:59
Ein Performance Einbrucj von 40 FPS ist das wirklich sogut ?

Ich verliere auch ~50% zwischen quality und high quality auf der G70.

c0re
2006-02-07, 17:56:18
wie wird sich die X1900XTX gegen die neue nvidia karte(7900) schlagen :confused:

Meine Glaskugel sagt: Die GeForce 7900 wird etwas schneller als die X1900TX. Ist mit großer Wahrscheinlichkeit so. Dann kommt ATI wieder mit einer neuen Karte die wieder etwas schneller wird als die GeForce 7900.

So, oder zumindest so ähnlich, läuft es doch vom Prinzip her immer ab...

Coda
2006-02-07, 18:29:30
Ein weiterer DX9-Chip von ATI ist eher unwahrscheinlich. Wenn dann eine XTX-PE oder sowas...

Demirug
2006-02-07, 18:33:47
schon, aber lange nicht so arg wie bei 19" / 1280

die auflösungen müssten einfach viel höher sein, dann müsste das OS auch noch vektorisiert arbeiten (bei linux gehts ja zum teil) und alles wär in butter...

mfg

Deswegen gibt es ja für Windows demnächst WPF. Das arbeitet voll vektorisiert.

Gast
2006-02-07, 18:47:31
Meine Glaskugel sagt: Die GeForce 7900 wird etwas schneller als die X1900TX. Ist mit großer Wahrscheinlichkeit so.
Ich würde diese Aussage differenzieren.
Bei neuen, stark shaderlastigen Spielen wie z.B. FEAR oder FarCry wird eher die X1900XT vorn sein. Bei älteren Games sollte die 7900 schneller sein.

c0re
2006-02-07, 18:52:51
Ich würde diese Aussage differenzieren.
Bei neuen, stark shaderlastigen Spielen wie z.B. FEAR oder FarCry wird eher die X1900XT vorn sein. Bei älteren Games sollte die 7900 schneller sein.

Warum denn guter Gast? So hoch ist der Performance Unterschied nicht, als das nVidia ihn nicht mit einer neuen Karte einholen bzw. eher sogar übertreffen könnte...

Gast
2006-02-07, 19:05:19
Warum denn guter Gast? So hoch ist der Performance Unterschied nicht, als das nVidia ihn nicht mit einer neuen Karte einholen bzw. eher sogar übertreffen könnte...
Echt nicht?



http://images.anandtech.com/graphs/ati%20radeon%20x1900%20launch_012406100152/10664.png

Demirug
2006-02-07, 19:09:22
Fear ist wohl gar nicht so shaderlastig wie immer vermutet wird. Ein R520 verbringt 50% seiner Zeit damit die Stencil Schatten zu rendern.

Black-Scorpion
2006-02-07, 19:10:37
Warum denn guter Gast? So hoch ist der Performance Unterschied nicht, als das nVidia ihn nicht mit einer neuen Karte einholen bzw. eher sogar übertreffen könnte...
Dann schau dir mal die Ergebnisse bei Fear mit 1600x1200 4xAA/16xAF an.

ATi Radeon X1900 XTX - 49
ATi Radeon X1900 XT - 47
nVidia GeForce 7800 GTX 512 - 29
nVidia GeForce 7800 GTX - 23

http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_ati_radeon_x1900_xtx_x1900_cf-edition/20/#abschnitt_fear
Da muß die 7900 schon ganz schön zulegen um erstmal gleichzuziehen.

Gast
2006-02-07, 19:11:03
Fear ist wohl gar nicht so shaderlastig wie immer vermutet wird. Ein R520 verbringt 50% seiner Zeit damit die Stencil Schatten zu rendern.
Uiii...
Du meinst jetzt Softshadows?

Demirug
2006-02-07, 19:17:49
Uiii...
Du meinst jetzt Softshadows?

Die Aussage ist von einem ATI Mitarbeiter. Ich nehme mal an er meinte mit maximale Eyecandy.

Gast
2006-02-07, 19:29:31
Die Aussage ist von einem ATI Mitarbeiter. Ich nehme mal an er meinte mit maximale Eyecandy.
Aha...
dann verstehe ich aber nicht, warum NV so abkackt.
Ausserdem ist die X1900XT(X) auch deutlich schneller als die X1800XT. Das muss an den Shadern liegen.

Mr. Lolman
2006-02-07, 19:52:05
Fear ist wohl gar nicht so shaderlastig wie immer vermutet wird. Ein R520 verbringt 50% seiner Zeit damit die Stencil Schatten zu rendern.

Glaub ich auch. Ansonsten wär ja die X1900 noch viel schneller :biggrin:

Gast
2006-02-07, 19:58:14
Glaub ich auch. Ansonsten wär ja die X1900 noch viel schneller :biggrin:
Erklärung? *grübel*

Gast
2006-02-07, 20:06:42
Glaub ich auch. Ansonsten wär ja die X1900 noch viel schneller :biggrin:
Jetzt hab ichs kappiert...

Du glaubst wohl nicht, dass ein R580 3 Mal so schnell in Spielen sein wird wie der R520?
Es wird immer andere Engpässe geben, die das verhindern werden.
Zum Beispiel die Speicherbandbreite...
Die Shaderleistung des R580 ist schon sehr beeindruckend. Die 7900er wird es echt schwer haben...

Gast
2006-02-07, 20:39:15
Dann schau dir mal die Ergebnisse bei Fear mit 1600x1200 4xAA/16xAF an.

ATi Radeon X1900 XTX - 49
ATi Radeon X1900 XT - 47
nVidia GeForce 7800 GTX 512 - 29
nVidia GeForce 7800 GTX - 23

http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_ati_radeon_x1900_xtx_x1900_cf-edition/20/#abschnitt_fear
Da muß die 7900 schon ganz schön zulegen um erstmal gleichzuziehen.
Fear ist das einzige Spiel bei dem der Vorsprung der Radeons so massiv ist. Also tu bitte nicht so als seien diese Werte allgemeingültig auf die gesamte Performance zu übertragen. ;)

Gast
2006-02-07, 20:41:14
Es gibt nämlich auch Fälle, wo eine GTX/256 deutlich schneller als eine x1900xtx ist, nur lassen diese genauso wenig auf die Gesamtperformance schließen wie die Werte in Fear.

Gast
2006-02-07, 20:50:20
Aha...
dann verstehe ich aber nicht, warum NV so abkackt.
Ausserdem ist die X1900XT(X) auch deutlich schneller als die X1800XT. Das muss an den Shadern liegen.

auch die stencilleistung wurde im X1900 im vergleich zum X1800 verdoppelt.

außerdem hat NV bei fear offenbar große probleme mit FSAA, was zwar nicht gerade schön ist, allerdings nicht auf die shaderleistung schließen lässt.

ShadowXX
2006-02-07, 20:55:47
auch die stencilleistung wurde im X1900 im vergleich zum X1800 verdoppelt.


Hast du dafür mal einen Link?


außerdem hat NV bei fear offenbar große probleme mit FSAA, was zwar nicht gerade schön ist, allerdings nicht auf die shaderleistung schließen lässt.

Juppss....nV hat bei FEAR probs mit dem AA, welcher auch nicht mit dem Speicher (wegen dem filter@scanout) zu tun haben scheint, da die GTX/512 ja genauso "langsam" wie die GTX ist (relativ gesehen).

Black-Scorpion
2006-02-07, 20:58:18
Fear ist das einzige Spiel bei dem der Vorsprung der Radeons so massiv ist. Also tu bitte nicht so als seien diese Werte allgemeingültig auf die gesamte Performance zu übertragen. ;)
Hier wird doch Fear immer als Beispiel rangezogen wenn es um die Performance in zukünftigen Spielen geht.
Und wie schnell die Karten mit DX8 Games sind ist den meisten bestimmt Sch*** egal, da die Karten dafür immer schnell genug sind.
Egal welche da schneller ist.

Gast
2006-02-07, 21:05:24
Hier wird doch Fear immer als Beispiel rangezogen wenn es um die Performance in zukünftigen Spielen geht.
Und wie schnell die Karten mit DX8 Games sind ist den meisten bestimmt Sch*** egal, da die Karten dafür immer schnell genug sind.
Egal welche da schneller ist.Trotzdem kann man von Fear nicht auf die Performance anderer Spiele schließen. Offensichtlich hat NV stärkere Probleme bei Fear, wenn AA ins Spiel kommt. In der Betaversion war das übrigens noch nicht der Fall, da war das Bild genau umgekehrt. NV40 & G70 deutlich vor ihren ATI-Pendanten, auch in 1600 m. 4xAA/16xAF.

Gast
2006-02-07, 21:07:41
Außerdem gibt es noch sehr viele andere DX9-Games in denen der G70 nicht so hoffnungslos unterliegt. Daraus, dass Fear nicht so gut performt, jetzt darauf zu schließen, dass der G70 nur in DX8.1-Games was taugt (leicht überspitzt gesagt), halte ich für äußerst gewagt.

Gast
2006-02-07, 21:09:13
GAst du nerfts langsam.:rolleyes: