PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : R420 vs. NV40: Edition 2007


Gast
2007-05-09, 09:44:57
Die NV4x und G7x Generation basiert immer noch auf der CineFX Architektur des NV3x, sie wurden nur "etwas" verbessert um konkurrenzfähig zu bleiben!
Die G8x Generation ist völlig neu, daher sind Vergleiche aus der Vergangenheit eher schlecht.


Es sagt etwas über die Firmenphilosophie aus. Bei nV sind die Chips mindestens seit NV30 immer höchstens so lange konkurrenzfähig, bis der Nachfolger erscheint. nV legt die Chips vorallem auf aktuelle Spiele aus, was sich bei G80 mit der sehr hohen Texelfüllrate fortzusetzen scheint. Zukünftige Dinge werden oft nur unzureichend schnell implementiert. Mit den Ati-Pendants hatte man da wesentlich länger was davon.


Es sieht momentan so aus, dass der G80 verdammt effizient ist und der R600 eben nicht so davon ziehen kann wie es früher der Fall war!


So sah es auch bei NV40 und G70 zu beginn aus. Dem nV40 wurde eine überlegene Shaderleistung zugeschrieben, und immer wenn R420 vorne war, wurde das auf die Texelfüllrate geschoben. Aber in Zukunft würde der Nv40 auf jeden fall vorne liegen. Heute macht ein R420 einen NV40 aber sowas von nass. Mit R580 vs. G71 scheint sich das schon wieder ähnlich zu entwickeln.

Mr. Lolman
2007-05-09, 13:13:20
So sah es auch bei NV40 und G70 zu beginn aus. Dem nV40 wurde eine überlegene Shaderleistung zugeschrieben, und immer wenn R420 vorne war, wurde das auf die Texelfüllrate geschoben. Aber in Zukunft würde der Nv40 auf jeden fall vorne liegen. Heute macht ein R420 einen NV40 aber sowas von nass. Mit R580 vs. G71 scheint sich das schon wieder ähnlich zu entwickeln.


Wobei manche Ergebnisse schon absolut derb sind :eek:

http://www.behardware.com/articles/663-1/agp-graphic-cards-in-2007.html

deekey777
2007-05-09, 13:26:07
Dass der R420 vor NV40 in NFSC liegt, kann nur daran liegen, weil sie nicht die gleiche Bildqualität liefert.

Mr. Lolman
2007-05-09, 13:29:00
Dass der R420 vor NV40 in NFSC liegt, kann nur daran liegen, weil sie nicht die gleiche Bildqualität liefertn

Ja klar :rolleyes:

/edit: Tun sie das?

IVN
2007-05-09, 13:32:31
Dass der R420 vor NV40 in NFSC liegt, kann nur daran liegen, weil sie nicht die gleiche Bildqualität liefertn
Das sieht man an den Ergebnissen der 9800, sehr deutlich. Wie kann diese GPU gleichauf mit der X1650 liegen? Da wird sofort klar, das beide GPUs (die 9800 und X800) minderwertige Qualität liefern müssen, um diesen Speed zu erreichen.

deekey777
2007-05-09, 13:42:37
Ja klar :rolleyes:

/edit: Tun sie das?

Nein, alles nur Täuschung. :tongue:
Die Geforce stolpern malwieder über den kaum optimierten Code des NFSC, erst dann kommt die Shaderpower (der X1x00er).
http://www.behardware.com/articles/663-7/agp-graphic-cards-in-2007.html
Da die Source-Engine alles in einem Pass erledigt, spielt die X800XT PE ihre Stärke durch hohen Takt aus.
http://www.behardware.com/articles/663-8/agp-graphic-cards-in-2007.html
Hm, Hyper-Z?
http://www.behardware.com/articles/663-10/agp-graphic-cards-in-2007.html
Keine Ahnung, hoher Takt bestimmt, aber was noch?

Was meiner Meinung nach nicht unbeachtlich bleiben darf, ist die Performance der 7800GS im Vergleich zur 6800GT.

Gast
2007-05-09, 15:23:34
Mit den Ati-Pendants hatte man da wesentlich länger was davon.



LOL, zeig mir mal, wie du ein SM3 Spiel auf einem R420 startest.

Mr. Lolman
2007-05-09, 15:26:28
Zeig mir mal jemand, der mit nem NV40 Spaß an nem SM3.0 Spiel hat:

Moralelastix
2007-05-09, 15:44:28
Wie siehts denn in FarCry aus?
Gibts da Vergleiche mit dem NV40 / x800 und aktuellem Treiber?

deekey777
2007-05-09, 16:17:05
Zeig mir mal jemand, der mit nem NV40 Spaß an nem SM3.0 Spiel hat:
Zeig mir, wo sich zwischen den Balken der R420 versteckt.


Moralelastix, in FC sollte der R420 weiterhin vor dem NV40 liegen.

Mr. Lolman
2007-05-09, 16:20:00
Zeig mir, wo sich zwischen den Balken der R420 versteckt.

Ob ich ein Spiel in 1024x768 ohne AA/AF mit 12fps avg. spiel, oder garnicht ist auch schon wieder wurscht...

Gast
2007-05-09, 16:20:47
Zeig mir mal jemand, der mit nem NV40 Spaß an nem SM3.0 Spiel hat:Kein Problem. Ich hatte damals meinen Spaß mit SCCT.

Godmode
2007-05-09, 16:22:45
Ob ich ein Spiel in 1024x768 ohne AA/AF mit 12fps avg. spiel, oder garnicht ist auch schon wieder wurscht...

Man könnte auf 640 * 480 gehen! ;D

Aber jetzt im Ernst, diese Diskussion führt doch zu nichts! Das wird hier nur wieder in einem Flamewar ausarten! :rolleyes:

deekey777
2007-05-09, 16:23:18
Ob ich ein Spiel in 1024x768 ohne AA/AF mit 12fps avg. spiel, oder garnicht ist auch schon wieder wurscht...
Ich habe R6V noch nie gespielt (als überzeugter R6-Fan werde ich es auch nicht): Es gibt in diesem Spiel bestimmt eine Möglichkeit, die Details so anzupassen, dass man wieder im spielbaren Bereich ist?;)

Mr. Lolman
2007-05-09, 16:45:33
Kein Problem. Ich hatte damals meinen Spaß mit SCCT.

SM2.0 User auch, nachdem ATi nen Patch gebracht hat.

Ich habe R6V noch nie gespielt (als überzeugter R6-Fan werde ich es auch nicht): Es gibt in diesem Spiel bestimmt eine Möglichkeit, die Details so anzupassen, dass man wieder im spielbaren Bereich ist?;)

ja, 22fps avg. in 640x480 Low Quality, auf ner 7600GS X-D
http://images.anandtech.com/reviews/video/RSV/lowquallowend.png

http://www.anandtech.com/video/showdoc.aspx?i=2895&p=6

Gast
2007-05-09, 16:46:36
SM2.0 User auch, nachdem ATi nen Patch gebracht hat. Dafür hatten sie mit Colorbanding zu kämpfen. Außerdem erschien der Patch doch erst 1 Jahr nach Release oder so.

deekey777
2007-05-09, 16:48:40
Dafür hatten sie mit Colorbanding zu kämpfen. Außerdem erschien der Patch doch erst 1 Jahr nach Release oder so.
Der Patch kam im August 2005.

http://www.anandtech.com/video/showdoc.aspx?i=2895&p=6
Hinter welcher Grafikkarte versteckt sich da ein vollwertiger NV40?:|

Gast
2007-05-09, 16:54:55
Der Patch kam im August 2005.Dann wars wohl doch nur ein halbes Jahr. SCCT kam doch im März, oder?

HOT
2007-05-09, 17:05:02
SM1 war auf ATIs immer spielbar, der SM2 Patch kam etwas später und ab da sehs identisch aus, mal abgesehen von dem HDR. Ja und? Man hatte auch mit SM1 bei dem Spiel Spass... von SM3 war da eh nicht viel zu sehen fand ich.

Mr. Lolman
2007-05-09, 17:09:12
Der Patch kam im August 2005.

http://www.anandtech.com/video/showdoc.aspx?i=2895&p=6
Hinter welcher Grafikkarte versteckt sich da ein vollwertiger NV40?:|

Ich hab einfach die 7600GS mit der 6800GT fps gleichgesetzt. Bei den Behardware CoH-Benchmarks kommt das auch ziemlich genau hin...

Moralelastix
2007-05-09, 17:28:43
Gabs da nicht auch noch ne 7600GT ?

Die war glaub ich eher der 6800GT gleich zu setzten.

Mr. Lolman
2007-05-09, 17:37:28
lt. behardware nicht. In Post #2 und #8 gucken...

Moralelastix
2007-05-09, 17:45:27
Gut möglich.... aber das Beste ist immer noch die FX:biggrin:

Mr. Lolman
2007-05-09, 17:51:11
Gut möglich.... aber das Beste ist immer noch die FX:biggrin:

Total. Hätt man damals gemutmaßt, das ne 9800pro mal 4x flotter als ne FX5900 sein wird, wäre man wahrscheinlich wegen Spam gebannt worden X-D

r3ptil3
2007-05-09, 17:51:51
Zeig mir mal jemand, der mit nem NV40 Spaß an nem SM3.0 Spiel hat

Theoretisch bei jedem Spiel, welches das Shader Model 3.0 unterstützt haben die Geforce 6er-Karten Performancevorteile gegenüber Shader Model 2.0, also wieso sollte das nicht der Fall sein?

Oder meinst du damit eher HDR?

Mr. Lolman
2007-05-09, 17:54:51
Theoretisch bei jedem Spiel, welches das Shader Model 3.0 unterstützt haben die Geforce 6er-Karten Performancevorteile gegenüber Shader Model 2.0, also wieso sollte das nicht der Fall sein?

Oder meinst du damit eher HDR?

Nö, ich meine damit jetzt nicht notorische NV-Käufer, die in ATi sowieso keine Alternative sehen, sondern die jenigen, die damals zw Ati und NV geschwankt haben und wegen der zukunftssicheren Technik zu NV griffen. Das lustige ist, dass das bei NV schon seit jeher so ist. Seits die Firma gibt, schaffen sie zwar technische Standards, aber hinken bei hoher Grafiklast in der Performance hinterher...

r3ptil3
2007-05-09, 17:56:14
Nö, ich meine damit jetzt nicht notorische NV-Käufer, die in ATi sowieso keine Alternative sehen, sondern die jenigen, die damals zw Ati und NV geschwankt haben und wegen der zukunftssicheren Technik zu NV griffen. Das lustige ist, dass das bei NV schon seit jeher so ist. Seits die Firma gibt, schaffen sie zwar technische Standards, aber hinken bei hoher Grafiklast in der Performance hinterher...

Ahso, also im Vergleich zu ATI. Stimmt...
Wiederholt sich bei der 7900 GTX/X1900 XTX ebenfalls.

Spasstiger
2007-05-09, 18:23:02
Wobei manche Ergebnisse schon absolut derb sind :eek:

http://www.behardware.com/articles/663-1/agp-graphic-cards-in-2007.html
Dass hier die X800 XT in Führung liegt, kommt daher, dass die X800 XT keine SM3-Effekte berechnen muss (afaik fällt da der neue Motion-Blur-Shader drunter).
Aber der Vergleich zwischen der X1650 Pro und der 7800 GS spricht natürlich auch Bände, wird doch die X1650 Pro immer nur als gleichwertig zur 6800 NU 256 MB gehandelt. In neueren Spielen ist die X1650 Pro aber klar die bessere Wahl - trotz des schmaleren Speicherinterfaces.

Der Vergleich zwischen 9800 Pro und 5800 XT ist amüsant wie immer, aber ich glaube, in dem Bereich wurde schon genug gebasht. Ich konnte damals zum Glück einige Leute zu ATI bekehren und von der Katastrophen-Geforce abhalten. Immerhin lässt sich - wie man an den Benchmarks sieht- NfS Carbon noch mit der 9800 Pro spielen, während es auf der GeForce FX 5900 XT die reinste Ruckelorgie ist.

Malabolge
2007-05-09, 18:24:41
LOL, zeig mir mal, wie du ein SM3 Spiel auf einem R420 startest.

Lol, zeige mir ein SM3 spiel das zur r420 fertig war

deekey777
2007-05-09, 18:36:37
Lol, zeige mir ein SM3 spiel das zur r420 fertig war
SC3

HOT
2007-05-09, 18:42:21
Ausnahmetitel, bei dem man SM2 mit Absicht weglies. Ausnahmen bestätigen nunmal die Regel. Zudem bekam das Spiel SM2 per Patch und ab da gab so gut wie keine visuellen Unterschiede mehr.

deekey777
2007-05-09, 18:51:02
Ausnahmetitel, bei dem man SM2 mit Absicht weglies. Ausnahmen bestätigen nunmal die Regel. Zudem bekam das Spiel SM2 per Patch und ab da gab so gut wie keine visuellen Unterschiede mehr.
Man ließ SM 2.0 in SC3 nicht absichtlich weg, sondern für den PC haben die Entwickler nur einen SM3-Renderer geschrieben.

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=206525

Gast2
2007-05-09, 18:52:18
Lol, zeige mir ein SM3 spiel das zur r420 fertig war


? Geht es in dem Thread nicht gerade darum, an welcher Karte man länger hat?
Und da gibt es 2007 doch einige SM3 Games, die man mit einm Nv40 spielen kann und die auf einem R420 gar nicht mehr starten.

Wechselbalg
2007-05-09, 19:14:16
Dass hier die X800 XT in Führung liegt, kommt daher, dass die X800 XT keine SM3-Effekte berechnen muss (afaik fällt da der neue Motion-Blur-Shader drunter)...


Die Werte aus NFSC waren ohne den Motion Blur Effekt, wenn ich den Test richtig verstehe. Auf der Seite ist unten noch ein Test mit allen Effekten, den dann die FX-5900XT, die 9800 Pro und die X800XT-PE nicht mehr bewältigen konnten.

Ansonsten sind die Werte schon erstaunlich und ich hätte es nicht so stark gedacht. Aus Spielersicht war es zumindest wohl wirklich kein Nachteil, wobei die Entwicklersicht natürlich eine andere ist. Aber ich bin mit meinen X800er Karten auch durchaus zufrieden.

Der_Korken
2007-05-09, 19:32:29
Ach du Schande, der R420 ist der totale Basher :eek: Der macht in Oblivion ja die X1K-Serie sowas von nass ... da sollte man als Nvidia-Käufer immer zusehen, die neuste Serie zu besitzen^^

sth
2007-05-09, 20:23:45
Meine Erfahrung bei eigenen Projekten (= spezielle Treiberoptimierungen auf die Anwendung selbst ausgeschlossen): x1600 mobile 256mb (die im MBP, siehe Sig, Taktraten ergooglebar) gegenüber 7600 mobile 256mb (irgendein günstiges Acer Notebook): Keine Chance für die x1600 (auch egal auf welchem Betriebssystem).

Selbst wenn ich auf der x1600 ohne AA/AF und auf der 7600 mit 4xAA/8xAF teste muss sich die x1600 klar geschlagen geben. Ebenso gegenüber einer Desktop-6600gt. Die getestete Anwendung ist relativ Fillrate-intensiv und auf den getesteten Rechnern nicht CPU-limitiert.

Just my 2ct ;) (sagt nichts über die reale Spieleperformance aus aber hilft vielleicht ein bisschen, die Rohperformance einzuschätzen).

NiCoSt
2007-05-09, 20:57:32
Zeig mir mal jemand, der mit nem NV40 Spaß an nem SM3.0 Spiel hat:


Farcry; SCCT; ?HL² Epi one?!

ich hab meine 6800 immernoch im rechner und werde sie vll dieses jahr austauschen... immerhin 3 jahre gehalten hat sie

Blaze
2007-05-09, 21:08:19
Weder FarCry noch HL² nutzen SM3.0 ;)

AnarchX
2007-05-09, 21:12:40
Weder FarCry noch HL² nutzen SM3.0 ;)

Natürlich nutzt FC auf den passenden Karten einen SM3.0 Pfad, der dann eben inoffiziell noch FP16-HDR bietet.

Gast
2007-05-09, 21:19:18
Wobei manche Ergebnisse schon absolut derb sind :eek:

http://www.behardware.com/articles/663-1/agp-graphic-cards-in-2007.html

aber auch nur weil SM2-karten deutlich weniger shader berechnen müssen.

der R520 ist auch "nur" auf G71-niveau.

Mr. Lolman
2007-05-09, 21:24:29
aber auch nur weil SM2-karten deutlich weniger shader berechnen müssen.

der R520 ist auch "nur" auf G71-niveau.

Letztenendes kommts ja nur aufs (optische) Ergebnis an. Und das ist anscheinend gleich...

deekey777
2007-05-09, 22:04:51
Natürlich nutzt FC auf den passenden Karten einen SM3.0 Pfad, der dann eben inoffiziell noch FP16-HDR bietet.
Übrigens ist HDRR in Far Cry SM-unabhängig.
http://img514.imageshack.us/img514/521/farcry0022rq0.th.jpg (http://img514.imageshack.us/my.php?image=farcry0022rq0.jpg)
http://img514.imageshack.us/img514/6517/farcry0023ge7.th.jpg (http://img514.imageshack.us/my.php?image=farcry0023ge7.jpg)

Dass noch keiner auf die Idee gekommen ist... :biggrin:
Hier normal:
http://img514.imageshack.us/img514/8509/farcry0024lz6.th.jpg (http://img514.imageshack.us/my.php?image=farcry0024lz6.jpg)

Gast
2007-05-09, 22:05:14
In wie weit spielt eigentlich der zum benchen benutzte, über 1/2 Jahr alte Treiber für die NV Karten eine Rolle?
Hab mal gehört, daß NV mit dem Erscheinen neuer Karten Performanceoptimierung für alte Karten rausnimmt, damit die neuen besser dastehen.

deekey777
2007-05-09, 22:07:49
In wie weit spielt eigentlich der zum benchen benutzte, über 1/2 Jahr alte Treiber für die NV Karten eine Rolle?
Hab mal gehört, daß NV mit dem Erscheinen neuer Karten Performanceoptimierung für alte Karten rausnimmt, damit die neuen besser dastehen.
Nicht bei der aktuellen Generation, das sind zwei verschiedende Architekturen, dazu kommt noch, dass der G80 zu stark ist.

Moralelastix
2007-05-09, 22:15:06
Übrigens ist HDRR in Far Cry SM-unabhängig.
http://img514.imageshack.us/img514/521/farcry0022rq0.th.jpg (http://img514.imageshack.us/my.php?image=farcry0022rq0.jpg)
http://img514.imageshack.us/img514/6517/farcry0023ge7.th.jpg (http://img514.imageshack.us/my.php?image=farcry0023ge7.jpg)

Dass noch keiner auf die Idee gekommen ist... :biggrin:
Hier normal:
http://img514.imageshack.us/img514/8509/farcry0024lz6.th.jpg (http://img514.imageshack.us/my.php?image=farcry0024lz6.jpg)

Hä?

Hieß es nicht immer das HDR erst ab dem NV40 funktioniert?
War das alles nur eine riesen Verarsche von NV?

Wenn es bei nem R300 geht dann ja auch auf ner FX?
Bekommst Du am Ende auch noch HDR mit SM2 in Oblivion?

AnarchX
2007-05-09, 22:20:31
Hä?

Hieß es nicht immer das HDR erst ab dem NV40 funktioniert?
War das alles nur eine riesen Verarsche von NV?
Keine "Verarsche"! Es ist einfach nur der Zusammenhang, dass die ersten FP-HDR-fähigen(FP-Blending) GPUs auch SM3.0 beherrscht haben, ansonsten hat beides nichts miteinander zu tun.



Bekommst Du am Ende auch noch HDR mit SM2 in Oblivion?

Oblivion bietet per Default nur SM2.x Pfade an. ;)

deekey777
2007-05-09, 22:22:13
Hä?

Hieß es nicht immer das HDR erst ab dem NV40 funktioniert?
War das alles nur eine riesen Verarsche von NV?

Wenn es bei nem R300 geht dann ja auch auf ner FX?
Ließ doch genau, was AnarchX geschrieben hat: FP16-HDR. Ich war nur faul, FP16 zu schreiben.
Es geht um zwei Voraussetzungen: FP16-Buffer (das können alle Radeon ab R300) und das FP16-Blending (nur ab X1x00).

Moralelastix
2007-05-09, 22:22:35
Grad gesehn ich dachte DK777 hätte noch den alten R300!

Gast
2007-05-09, 22:51:31
Letztenendes kommts ja nur aufs (optische) Ergebnis an. Und das ist anscheinend gleich...

ganz sicher nicht. ich weiß z.b. dass es motion-blur bei NFSC nur mit SM3-hardware gibt, nicht mal das MB der vorgänger ist als fallback vorhanden und dieses wäre nicht mal annähernd vergleichbar.

DOF gibt es soweit ich weiß auch nur mit SM3-karten, in wie weit noch weitere unterschiede existieren weiß ich nicht, aber gut möglich dass es noch mehr unterschiede gibt.

wenn du einen vernünftigen vergleich willst, dann musst du die details auf SM3-karten entsprechend anpassen, dass die optik wirklich gleichwertig zu SM2-karten ist, dann ist natürlich die performance auch um einiges besser.

deekey777
2007-05-09, 22:58:07
DOF gibt es nur in den Zwischensequenzen (wofür wohl der FP16-Buffer benutzt wird).
Carsten hat mehrmals geschrieben, dass NFSC mit arithmetischer Leistung skaliert, ua ab hier: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5285677#post5285677

Arithmetische Leistung und besseres Batching bei Multi-Core-CPUs.

=Floi=
2007-05-10, 04:20:27
dafür kann man bei der 6800GT auch noch günstig eine 2. karte schiessen (gab es bei alternate mal neu für 110€ ) und SLI fahren :D ;D

Odal
2007-05-10, 09:14:03
jo mit deinen 2 6800GT karten kommst dann vielleicht auf die Performance einer X850XT

die X800/850 karten sind auch richtige kracher gewesen....und nicht solche rohrkrepierer wie der NV40...klar sah dieser zum erscheinen ganz gut aus...aber nach einer weile hat sich halt herausgestellt das er doch das nachsehen gegenüber dem R420/480 hat...mit ausnahme des "vorteils" sm3 und hdrr

LovesuckZ
2007-05-10, 09:54:05
jo mit deinen 2 6800GT karten kommst dann vielleicht auf die Performance einer X850XT

die X800/850 karten sind auch richtige kracher gewesen....und nicht solche rohrkrepierer wie der NV40...

Wären die Karten so gut gewesen, hätte ATi nicht cheaten und die Reviewer belügen müssen.
Was macht eigentlich die X800pro? Ist die auch so'ne Kracherkarte geworden?

Gast
2007-05-10, 10:02:10
? Geht es in dem Thread nicht gerade darum, an welcher Karte man länger hat?
Und da gibt es 2007 doch einige SM3 Games, die man mit einm Nv40 spielen kann und die auf einem R420 gar nicht mehr starten.

Zum Beispiel:____________________________________________ (bitte ausfüllen)

Schau Dir mal moderne Games an. Nehmen wir Stalker. Das läuft auf einer 6800GT mit 4xAF (+ ca. 80% der maximal möglichen Details + Full Dynamic Lighting) mit ca. 10 FPS, eher weniger. In 1024*768 wohlgemerkt.

Oder Oblivion mit Shivering Isles. Auch da pfeifft der NV40 aus dem letzten Loch. Der R420 auch, aber auf höherem FPS Niveau. In beiden genannten Spielen.

Fazit: Flüssig spielen kann man auf dem R420 länger als mit dem NV40. Und wenn ich nun die Wahl habe, ein SM3.0 only Game mit dem NV40 @ 8 FPS zu zocken oder eben gar nicht auf dem R420, dann lieber letztere Variante.

Gast
2007-05-10, 10:03:18
Was macht eigentlich die X800pro? Ist die auch so'ne Kracherkarte geworden?
Jo, die war ganz ok und hat sich auch gut verkauft. Wo ist das Problem?

Mr. Lolman
2007-05-10, 10:06:32
Wären die Karten so gut gewesen, hätte ATi nicht cheaten und die Reviewer belügen müssen.
Was macht eigentlich die X800pro? Ist die auch so'ne Kracherkarte geworden?

Hä? Meinst du AF? Das wurde bei NV mit jeder Generation schlechter (mit Ausnahme vom G80).

IVN
2007-05-10, 10:09:26
Zum Beispiel: Age of Empires 3 & The WarChiefs(bitte ausfüllen)

Schau Dir mal moderne Games an. Nehmen wir Stalker. Das läuft auf einer 6800GT mit 4xAF (+ ca. 80% der maximal möglichen Details + Full Dynamic Lighting) mit ca. 10 FPS, eher weniger. In 1024*768 wohlgemerkt.

Oder Oblivion mit Shivering Isles. Auch da pfeifft der NV40 aus dem letzten Loch. Der R420 auch, aber auf höherem FPS Niveau. In beiden genannten Spielen.

Fazit: Flüssig spielen kann man auf dem R420 länger als mit dem NV40. Und wenn ich nun die Wahl habe, ein SM3.0 only Game mit dem NV40 @ 8 FPS zu zocken oder eben gar nicht auf dem R420, dann lieber letztere Variante.
Und ja, diese Spiele kann ich, auf einer 6800 nU, in HDRR und mit Max. Settings bewundern, während so mancher r420 Besitzer in die Röhre gucken muss.

Grindcore
2007-05-10, 10:11:05
Was soll denn "wären gewesen" bedeuten? Ich bin von ner GT auf eine x800pro@850Xt umgestiegen und der Unterschied war einfach schockierend. Der technologische Vorsprung sei der Karte unbenommen, aber performancetechnisch war sie absolut chancenlos.

Mr. Lolman
2007-05-10, 10:14:03
Und ja, diese Spiele kann ich, auf einer 6800 nU, in HDRR und mit Max. Settings bewundern, während so mancher r420 Besitzer in die Röhre gucken muss.

Naja, entweder mit hohen Shaderdetails, oder AA. Beides zusammen bringt auf ner 6800 Ultra in 1280x1024 nichtmal 17fps avg...

http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_ati_radeon_x1900_xtx_x1900_cf-edition/15/

Was soll denn "wären gewesen" bedeuten? Ich bin von ner GT auf eine x800pro@850Xt umgestiegen und der Unterschied war einfach schockierend. Der technologische Vorsprung sei der Karte unbenommen, aber performancetechnisch war sie absolut chancenlos.

Mit den ersten Treibern hatte die x800pro noch ein paar Performance Probleme. Aber später war sie oft auf einer Höhe mit der 6800 Ultra. Und in Anbetracht der aktuellen Ergebnisse der X800XT, schätz ich mal dass ne x800pro ne 6800Ultra mittlerweile auch locker abhängt (in manchen Spielen zumindest).

IVN
2007-05-10, 10:17:38
Naja, entweder mit hohen Shaderdetails, oder AA. Beides zusammen bringt auf ner 6800 Ultra in 1280x1024 nichtmal 17fps avg...

http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_ati_radeon_x1900_xtx_x1900_cf-edition/15/
Und? Auf einer r420 hat man nicht mal die Möglichkeit zu wählen.

P.S. Die Perf. ist unwichtig geworden, da sie, so wie die r420 Karten, mittlerweile Low-End ist.

Vertigo
2007-05-10, 10:19:30
Und? Auf einer r420 hat man nicht mal die Möglichkeit zu wählen.
Und das soll ein Nachteil sein, wo die Möglichkeit nicht sinnvoll nutzbar ist?

Gast
2007-05-10, 10:21:29
Und das soll ein Nachteil sein, wo die Möglichkeit nicht sinnvoll nutzbar ist?
Wieso nicht sinnvoll nutzbar? Für dich vielleicht nicht, für andere vielleicht ausreichend.

Mr. Lolman
2007-05-10, 10:23:00
Und? Auf einer r420 hat man nicht mal die Möglichkeit zu wählen.

DAS ist dann die Glaubensfrage. Hab ich lieber die Möglichkeit zu max details, oder gern ne tw. deutlich höhere Grundperformance? Ich gehör das eher zu der Riege, dies nicht gerne sieht, wenn Teile der GPU Däumchen drehen.

Ist ca. so wie mit SUVs und Kombis. Auf normalen Strassen haben div. Kombis ne bessere Straßenlage, aber mit dem SUV kann man halt auch querfeldein heizen (solang der Weg nicht zu holprig wird).

Wieso nicht sinnvoll nutzbar? Für dich vielleicht nicht, für andere vielleicht ausreichend.

Und natürlich beisst sich niemand in den Hintern, wenn er sieht, dass die ehemalige direkte Konkurrenz, mittlerweile oft doppelt so flott läuft. Naja, wie gesagt: Es ist ne Glaubensfage. Rüstet man oft auf, mags sogar durchaus sein, dass man mit NV-Karten tw. besser bedient ist.

IVN
2007-05-10, 10:25:00
Und das soll ein Nachteil sein, wo die Möglichkeit nicht sinnvoll nutzbar ist?
Ich spiele in einer Aufl. von 1024x768. Für mich ist die Möglichkeit, sehr wohl, sinnvoll nutzbar. Sogar auf meinem NB, wo eine go 6600 installiert ist.

Vertigo
2007-05-10, 10:25:13
Wieso nicht sinnvoll nutzbar? Für dich vielleicht nicht, für andere vielleicht ausreichend.
Ganz genau. Für andere vielleicht ausreichend. Ich empfand meine 6800Ultra seinerzeit schon als zu schwach für HDRR ohne AA in Far Cry, selbst in kleinen Auflösungen wie 1024*768 und habe lieber mit AA statt HDRR gespielt.

Ich spiele in einer Aufl. von 1024x768. Für mich ist die Möglichkeit, sehr wohl, sinnvoll nutzbar. Sogar auf meinem NB, wo eine go 6600 installiert ist.
Ganz wie Du meinst. =)

IVN
2007-05-10, 10:29:39
DAS ist dann die Glaubensfrage. Hab ich lieber die Möglichkeit zu max details, oder gern ne tw. deutlich höhere Grundperformance? Ich gehör das eher zu der Riege, dies nicht gerne sieht, wenn Teile der GPU Däumchen drehen.

Ist ca. so wie mit SUVs und Kombis. Auf normalen Strassen haben div. Kombis ne bessere Straßenlage, aber mit dem SUV kann man halt auch querfeldein heizen (solang der Weg nicht zu holprig wird).



Und natürlich beisst sich niemand in den Hintern, wenn er sieht, dass die ehemalige direkte Konkurrenz, mittlerweile oft doppelt so flott läuft. Naja, wie gesagt: Es ist ne Glaubensfage. Rüstet man oft auf, mags sogar durchaus sein, dass man mit NV-Karten tw. besser bedient ist.
Ich spreche die ganze Zeit von meinen Erfahrungen, und versuche deine Pauschalaussagen zu entkräften.

Das die direkte Konkurrnz "oft doppelt so schnell läuft" nutzt mir nichts, wenn ich einfach in 1024x768 AoE3, mit max. Settings, spielen möchte. Kannst du diesen Standpunkt verstehen?

P.S. Hast du jemals HW2 mit 8S gesehen? Sowas ist mit Radeons nicht möglich. Damit will ich sagen, das für mich, da ich oft ältere Spiele spiele, die Hybrid-Modi einen enormen Plus darstellen.

RainingBlood
2007-05-10, 10:45:21
naja, wozu die Wahl haben, wenns eh zu lahm ist oder nicht mit AA funktioniert. Nutze selbst auf meiner 1950Pro kaum HDRR Einstellungen.

HOT
2007-05-10, 10:48:30
Erschreckend ist, wie die X19x0XT Varianten ggü. den G7 Varianten abgeht. Ob das bei den X29xx Modellen ggü. dem G80 auch so abläuft? Ich glaube es könnte sich lohnen, auch wenn die ATIs jetzt langsamer sein sollten.

Gast
2007-05-10, 11:09:29
Erschreckend ist, wie die X19x0XT Varianten ggü. den G7 Varianten abgeht.

Ja, vorallen die Lautstärke und der Stromverbrauch...

Gast
2007-05-10, 11:11:29
Also mich erschrickt viel mehr, wie sehr die X19x0 einbrechen, sobald mal in voller Bildqualität gebencht wird, nachzulesen auf hardtecs4u.

AnarchX
2007-05-10, 11:21:24
Erschreckend ist, wie die X19x0XT Varianten ggü. den G7 Varianten abgeht. Ob das bei den X29xx Modellen ggü. dem G80 auch so abläuft?

Es könnte diesmal eher umgekehrt ablaufen, mit dem Unterschied dass es der R600 auch nicht zum Release schafft die Konkurrenz zu erreichen.
(So mancher kam schon auf den Vergleich im Bezug auf die Architektur: R600-> NV30, G80 -> R300. ;))

Aber das der R580 sich mittlerweile so gut gegenüber dem G71 behaupten kann, ist nicht wirklich verwunderlich, da er doch deutlich komplexer ist und wohl in ihm einiges mehr an Arbeit geschieht, wie man an der Verlustleistung sieht.

Für den Spieler sicherlich eine gute GPU, von der wirtschaftlichen Sicht für ATi wohl eher weniger.

up¦²
2007-05-10, 11:49:29
Ein Spiel in dem SM3.0 wirklich lohnt?
AoE3 :wink:
http://www.xbitlabs.com/articles/video/display/games-2005_3.html

Vertigo
2007-05-10, 11:58:19
Also mich erschrickt viel mehr, wie sehr die X19x0 einbrechen, sobald mal in voller Bildqualität gebencht wird, nachzulesen auf hardtecs4u.
Im Vergleich zu was?

up¦²
2007-05-10, 12:19:24
Seit der R580 "3x mehr Shaderpower" hat (warum wohl :wink: ) ist alles paletti!
Sehr schön am D3D Rightmark zu bewundern:
http://prohardver.hu/html/vga/nvidia_g71/results/ps_light2.png
Sehr gute Info (Bilderbuch :smile: )
http://prohardver.hu/p.php?mod=21&id=1081

Gast
2007-05-10, 12:26:36
Im Vergleich zu was?
er meint wohl die 50% Verlust sobald man AI ausschaltet. AI sollte man endlich mal richtig untersuchen, indem man ohne AF bencht und zum Vergleich mit AF. Damit man endlich sieht, wie viel Shaderreplacement und wie viel AF-Tri-Optimierung.
Leider kam iirc bisher keiner auf die Idee.

Vertigo
2007-05-10, 12:38:13
er meint wohl die 50% Verlust sobald man AI ausschaltet. AI sollte man endlich mal richtig untersuchen, indem man ohne AF bencht und zum Vergleich mit AF. Damit man endlich sieht, wie viel Shaderreplacement und wie viel AF-Tri-Optimierung.
Leider kam iirc bisher keiner auf die Idee.
50% zw. AI off und AI standard/advanced? Shaderreplacement? Wo, in welchem Spiel? Die Filteroptimierung lasse ich mir ja noch eingehen, aber 50%? Das ist ganz bestimmt nicht die Regel. Und selbst wenn dies in Ausnahmen so sein sollte - wie verhält sich dann erst eine GeForce7 mit HQ/Q?

mapel110
2007-05-10, 12:42:33
Das ist ganz bestimmt nicht die Regel.
tja, und das eine 1900er deutlich vor einer G7 liegt, ist auch nicht die Regel.

Bezüglich HQ-nvidia: Schau dir Computerbase-Reviews an. Die schalten es immer auf HQ bei ihren Tests. ATI gewinnt nur dann deutlich, wenn man HQ einschaltet und AI low dagegen bencht.

Vertigo
2007-05-10, 12:45:31
tja, und das eine 1900er deutlich vor einer G7 liegt, ist auch nicht die Regel.

Bezüglich HQ-nvidia: Schau dir Computerbase-Reviews an. Die schalten es immer auf HQ bei ihren Tests. ATI gewinnt nur dann deutlich, wenn man HQ einschaltet und AI low dagegen bencht.
Dass eine 1900er immer deutlich vor einer 7900er liegt ist sicher nicht die Regel, in aktuellen Spielen aber oft der Fall. Die CB-Reviews sind außerdem ziemlich alt.

Dennoch ging es mir eher um die 50% Leistungsverlust zw. AI on/off. Das kann einfach nicht sein - oder ich bin zu blöd.

EDIT: Sollte dieser Thread nicht eigentlich ein Flamewar R420/480 vs. NV40 werden? ;D

Gast
2007-05-10, 12:48:46
er meint wohl die 50% Verlust sobald man AI ausschaltet. AI sollte man endlich mal richtig untersuchen, indem man ohne AF bencht und zum Vergleich mit AF. Damit man endlich sieht, wie viel Shaderreplacement und wie viel AF-Tri-Optimierung.
Leider kam iirc bisher keiner auf die Idee.

Ist und bleibt die absolute Ausnahme, auch wenn Du Dir das auf die Stirne tätowieren lässt. Ich habe mit meiner X1950pro diverse Benches durchgeführt zwischen AI standard und AI off und im Schnitt knapp 5% Tempo verloren. Also 10 mal weniger als was Du vorgibst, es sei immer der Fall. Das ist nämlich glatt gelogen und übrigens ein äusserst plumper Versuch, den Flame zu verstecken.

Gast
2007-05-10, 12:51:41
50% zw. AI off und AI standard/advanced? Shaderreplacement? Wo, in welchem Spiel? Die Filteroptimierung lasse ich mir ja noch eingehen, aber 50%? Das ist ganz bestimmt nicht die Regel. Und selbst wenn dies in Ausnahmen so sein sollte - wie verhält sich dann erst eine GeForce7 mit HQ/Q?


http://www.hardtecs4u.de/reviews/2007/msi_nx8600_gts/index5.php
und folgende Seiten

Schau dir mal die Werte der X1950 Pro mit/ohne A.I bei Einsatz von AA/AF an.

mapel110
2007-05-10, 12:51:56
http://www.hardtecs4u.com/reviews/2007/msi_nx8600_gts/index5.php
COD2
http://www.hardtecs4u.com/reviews/2007/msi_nx8600_gts/index8.php
Oblivion
http://www.hardtecs4u.com/reviews/2007/msi_nx8600_gts/index9.php
quake4
http://www.hardtecs4u.com/reviews/2007/msi_nx8600_gts/index11.php
SS2

Gast
2007-05-10, 12:55:27
Oder ab der Seite hier (8800 review):

http://www.hardtecs4u.de/reviews/2006/nvidia_g80/index7.php

Raff
2007-05-10, 12:58:21
http://www.hardtecs4u.de/reviews/2007/msi_nx8600_gts/index5.php
und folgende Seiten

Schau dir mal die Werte der X1950 Pro mit/ohne A.I bei Einsatz von AA/AF an.

Dass der Unterschied erst mit (AA/)AF auftritt, zeigt klar, dass die Filteroptimierungen am meisten Fps bringen. Beim eher füllratenarmen R600 mag ich mir die Auswirkungen nicht ausmalen ...

MfG,
Raff

Vertigo
2007-05-10, 12:59:02
http://www.hardtecs4u.de/reviews/2007/msi_nx8600_gts/index5.php
und folgende Seiten

Schau dir mal die Werte der X1950 Pro mit/ohne A.I bei Einsatz von AA/AF an.
Okay, danke. Das kannte ich noch nicht.

Aber das ist auch nur ein Teil der Wahrheit. Immerhin ist die X1950Pro auch mit AI off + HQAF immer auf und oft über dem Niveau einer 7900GT mit HQ. Die Unterschiede treten auch erst mit AA/AF so richtig zu Tage. Wie sehr verbessern sich die fps auf der GeForce beim Übergang HQ->Q? Das sollte wohl in ähnlichen Dimensionen liegen.

Gast
2007-05-10, 13:49:45
Dass der Unterschied erst mit (AA/)AF auftritt, zeigt klar, dass die Filteroptimierungen am meisten Fps bringen. Beim eher füllratenarmen R600 mag ich mir die Auswirkungen nicht ausmalen ...

MfG,
Raff


Mich würden mal getrennte AA-only/AF-only Benches noch interessieren, draus lassen sich bestimmt noch genauere Schlüsse ableiten.

PCGH_Carsten
2007-05-10, 13:57:10
Bitte bei HT4U nicht außer Acht lassen, dass die HQ-AF verwenden, die Radeon-Bildqualität also über der der GF6/7 liegt. Da macht sich "A.I." (*hust* Was ist an einem stupiden Algo eigentlich intelligent?) besonders stark bemerkbar.

Immerhin ist die X1950Pro auch mit AI off + HQAF immer auf und oft über dem Niveau einer 7900GT mit HQ.
Das stimmt für den HT4U-Test so jedenfalls nicht.

Vertigo
2007-05-10, 14:03:48
Das stimmt für den HT4U-Test so jedenfalls nicht.
Da hat wohl einer von uns falsch geguckt. Aber wer? Bitte nicht wegen 5% Unterschied anfangen zu diskutieren, das ist für mich ein Niveau.

EDIT: Okay, mit AA/AF sieht es tendenziell besser aus für die 7900GT, die allerdings auch nicht die BQ der Radeon erreicht.

Gaestle
2007-05-10, 16:40:52
Theoretisch bei jedem Spiel, welches das Shader Model 3.0 unterstützt haben die Geforce 6er-Karten Performancevorteile gegenüber Shader Model 2.0

Dazu gab's auch mal Diskussionen.
Leider ist dieser Vorteil geringer als ursprünglich gedacht.Ein großes Optimierungspotential besteht wohl im überspringen nicht benötigter Berechnungen in den Shaderanweisungen. Leider ist es in der Praxis beim NV40 so, dass die Sprungvorhersage selbst im Pixelshader oft ähnlich viele Takte benötigt, wie die Abarbeitung des Shadercodes, der durch den Sprung eingespart wird. BeimVertexshader ist das Problem wohl geringer und bei G70 soll das Branching allgemein verbessert worden sein.

Trotzdem bin ich bekennender Features-Fan und mit meinem NV40 bis jetzt zufrieden (bin aber auch kein Hardcore-Gamer). Wichtig war (und ist) für mich weniger SM3, sondern vor allem HDR.

reunion
2007-05-10, 16:54:15
Wären die Karten so gut gewesen, hätte ATi nicht cheaten und die Reviewer belügen müssen.


Also dieses Argument ist ja wohl mehr als zynisch. Im Vergleich zum Quality-Modus der NV4x war der bri-Filter der R4xx-Serie eine Offenbarung. Schon vergessen: http://www.3dcenter.de/artikel/g70_flimmern/index2.php

http://www.hardtecs4u.com/reviews/2007/msi_nx8600_gts/index5.php
COD2
http://www.hardtecs4u.com/reviews/2007/msi_nx8600_gts/index8.php
Oblivion
http://www.hardtecs4u.com/reviews/2007/msi_nx8600_gts/index9.php
quake4
http://www.hardtecs4u.com/reviews/2007/msi_nx8600_gts/index11.php
SS2

Der Unterschied ist, dass ATi mit AI_off alle Optimierungen deaktiviert, und voll filtert, während HQ auf G7x noch immer Samples einspart.

Bezüglich HQ-nvidia: Schau dir Computerbase-Reviews an. Die schalten es immer auf HQ bei ihren Tests. ATI gewinnt nur dann deutlich, wenn man HQ einschaltet und AI low dagegen bencht.

Achtung: Nach sorgfältiger Überlegung und mehrfacher Analyse selbst aufgenommener Spielesequenzen sind wir zu dem Schluss gekommen, im ForceWare-Treiber für nVidia-Karten die Qualitätseinstellungen auf High Quality anzuheben, da man nur mit diesem Setting das Texturflimmern effektiv bekämpfen kann. Zudem ist dieser Modus vergleichbar mit der Einstellung „Catalyst A.I. Standard“ auf den ATi-Pendants, wodurch bei der Bildqualität größtenteils ein Gleichstand erreicht wird.

Wollen wir nur stupide den zweitbesten Modus vergleichen, oder doch lieber auf vergleichbare IQ achten?

Es könnte diesmal eher umgekehrt ablaufen, mit dem Unterschied dass es der R600 auch nicht zum Release schafft die Konkurrenz zu erreichen.
(So mancher kam schon auf den Vergleich im Bezug auf die Architektur: R600-> NV30, G80 -> R300. ;))


Das ist schon alleine deshalb Blödsinn, weil die Stärken des R600 eindeutig in zukünftigen Features liegen (ful-speed FP16 Filterung, wohl sehr gute GS-Leistung, hohe Shaderleistung, etc.), was im krassen Gegensatz zu NV30 steht. IMHO durchaus realistisch, dass R600 in Zukunft aufholt, ob es allerdings reicht um vorbeizuziehen, bleebt abzuwarten.

Gast
2007-05-10, 19:59:58
Der Unterschied ist, dass ATi mit AI_off alle Optimierungen deaktiviert, und voll filtert, während HQ auf G7x noch immer Samples einspart.


nö, in HQ filtert auch die G7x/NV4x-reihe voll, allerdings gibt es bei NV natürlich noch immer die starke winkelabhängigkeit.

L.ED
2007-05-10, 20:24:24
Ja und DAS ist ja gerade mit eine der Hauptzutaten für ,,Knüppel auf dem Kopp’’

Raff
2007-05-10, 20:27:46
nö, in HQ filtert auch die G7x/NV4x-reihe voll, allerdings gibt es bei NV natürlich noch immer die starke winkelabhängigkeit.

Letzteres war auf dem R4x0 nicht besser. Sie haben nur unauffälliger den Filter verschlechtert.

MfG,
Raff

Gast
2007-05-10, 20:29:25
Also dieses Argument ist ja wohl mehr als zynisch. Im Vergleich zum Quality-Modus der NV4x war der bri-Filter der R4xx-Serie eine Offenbarung. Schon vergessen: http://www.3dcenter.de/artikel/g70_flimmern/index2.php


Das ändert nichts an der Tatsache, dass ATi die ganze Welt schön belogen hat - oder schon vergessen?
Bei nVidia konnte man wenigsten beim nv40 die Optimierungen von anfang deaktivieren, bei ATi kam dies erst Wochen später und dann noch gekoppelt mit "legalen" Optimierungen - ist das nicht zynisch?
Das der g70 dann nochmal stärker unterfiltert und somit auch im HQ Modus eher zum Flimmern neigt, ist eine andere Geschichte.

LovesuckZ

reunion
2007-05-10, 20:36:14
nö, in HQ filtert auch die G7x/NV4x-reihe voll, allerdings gibt es bei NV natürlich noch immer die starke winkelabhängigkeit.

NV4x ja, G7x nein. Dass die G7x-Serie auch noch im HQ-Modus Pixel einspart, wird schon alleine deshalb deutlich, da der HQ-Modus im Vergleich zu Q kaum noch Leistung kostet, während man bei NV4x schon mal bis zu 40% dadurch verliert, und das obwohl die Architekturen praktisch ident ist. Zauberei?

Letzteres war auf dem R4x0 nicht besser. Sie haben nur unauffälliger den Filter verschlechtert.

MfG,
Raff

R4XX flimmert nicht, sondern hat nur einen bri-Filter. Erst mit R5xx kam der "Flimmereffekt" durch die Unterfilterung.

mapel110
2007-05-10, 20:38:11
NV4x ja, G7x nein. Dass die G7x-Serie auch noch im HQ-Modus Pixel einspart, wird schon alleine deshalb deutlich, da der HQ-Modus im Vergleich zu Q kaum noch Leistung kostet, während man bei NV4x schon mal bis zu 40% dadurch verliert, und das obwohl die Architekturen praktisch ident ist. Zauberei?
ATI kann zaubern und gewinnt durch AI.Low 50 % Leistung ohne optische Auswirkungen, laut Computerbase zumindest. :rolleyes:
Warum soll das nvidia nicht können?!

Raff
2007-05-10, 20:39:30
R4XX flimmert nicht, sondern hat nur einen bri-Filter. Erst mit R5xx kam der "Flimmereffekt" durch die Unterfilterung.

"Nur ein Bri-Filter" ist gut. Was glaubst du, was das an Füllrate spart. ;)

MfG,
Raff

reunion
2007-05-10, 20:41:43
ATI kann zaubern und gewinnt durch AI.Low 50 % Leistung ohne optische Auswirkungen, laut Computerbase zumindest. :rolleyes:
Warum soll das nvidia nicht können?!

Wo schreibt das CB? Sie sagen nur, dass AI_low vergleichbar mit HQ auf G7x ist. Beides ist nicht frei von Optimierungen. AI_off hingegen filtert voll, und kostet auch dementsprechend Leistung. Und das auch nV nicht zaubern kann, sieht man sehr schön an HQ auf NV4x.

"Nur ein Bri-Filter" ist gut. Was glaubst du, was das an Füllrate spart. ;)

MfG,
Raff

Selbst bei reine bi-Filterung max. 50%. Natürlich ist das nicht toll, doch wesentlich störender und auch wesentlich mehr Leistung schindet man mit der Unterfilterung, die den bekannten Flimmereffekt hervorruft.

deekey777
2007-05-10, 20:43:07
Was war das eigentliche Thema dieses Threads?
Bin jetzt in Klugscheißerstimmung:
Ich hab einfach die 7600GS mit der 6800GT fps gleichgesetzt. Bei den Behardware CoH-Benchmarks kommt das auch ziemlich genau hin...
Und darum ist der R420 besser?
Ich kann so einer Logik einfach nicht folgen. Und wenn ich es doch könnte, dann weigere ich mich.

Was ist eigentlich daran so schwer zu verstehen: Dort, wo der R420 schon immer schneller war, wird er auch weiterhin vor dem NV40 bleiben. Nicht weil er so viel arithmetische Leistung hat, sondern weil er höheren Takt und somit deutlich höhere Fillrate hat. Das schlägt sich grundsätzlich in allen Spielen, denn Spiele, die eher auf die Rechenleistung der PS-ALUs setzen sind selbst heute eine Ausnahme. Dann gibt es weitere "Sonderfälle" wie Oblivion, wo die Stärke der Radeon seit R300 zum Vorschein kommt - weniger rechnen als nötig (siehe aths' Doom3-Artikel).

L.ED
2007-05-10, 20:45:54
... bei ATi kam dies erst Wochen später und dann noch gekoppelt mit "legalen" Optimierungen - ist das nicht zynisch?


Solche Sachen im Übrigen auch der Grund gewesen Warum seiner Zeit für mich NV40 (zunächst in form einer 6800LE & als die dann durchbrannte :redface: 6800 GT), dann die Wahl gewesen.

Zwischen beiden Übeln war es halt noch das geringere bzw. gab es zumindest Formel auch diesbezüglich kaum Unterschied zu dem AF Vermögen des R420, wohl aber die Hybrid AA (4S/8S etc) Modies und das SM3.0 kam zudem noch hinzu! (hätte der R420 schon das AF Vermögen gehabt wie R520, hätte ich zu ATI gegriffen!)

mapel110
2007-05-10, 20:47:06
Wo schreibt das CB? Sie sagen nur, dass AI_low vergleichbar mit HQ auf G7x ist.

http://www.computerbase.de/artikel/hardware/grafikkarten/2005/bericht_af-optimierungen_lupe/15/#abschnitt_fazit
Die Optimierungsfunktion Catalyst A.I. von ATi dagegen konnte regelrecht begeistern.
Die Bildqualität nimmt zwischen der vollständigen Deaktivierung und der Standardeinstellung („Low“) sichtbar nicht ab.

reunion
2007-05-10, 20:50:19
http://www.computerbase.de/artikel/hardware/grafikkarten/2005/bericht_af-optimierungen_lupe/15/#abschnitt_fazit
Die Optimierungsfunktion Catalyst A.I. von ATi dagegen konnte regelrecht begeistern.
Die Bildqualität nimmt zwischen der vollständigen Deaktivierung und der Standardeinstellung („Low“) sichtbar nicht ab.

Du vergleichst Äpfel mit Birnen. Auf R4xx waren die Optimierungen wirklich kaum zu sehen, da nur ein bri-Filter zum Einsatz kam. Vergleichbar mit Quality auf G80. Siehe auch den 3dc Artikel dazu: http://www.3dcenter.de/artikel/g70_flimmern/index2.php

Zu AI-low:
Die Radeon X800 zeigt sich in den Standard-Einstellungen jeder GeForce 6800 und erst recht einer GeForce 7800 qualitätsmäßig deutlich überlegen. Es gibt Bereiche, die ganz schwach zum Flimmern neigen, insgesamt stört aber eigentlich nur die winkelabhängige AF-Reduzierung im Tunnelgewölbe. Sogar die HQ-Qualität der GeForce 7800 wird spielend übertroffen

Zu AI_off:
Schaltet man A.I. auf der Radeon X800 aus, sind keine deutlichen Unterschiede zum aktivierten A.I. wahrzunehmen.


Erst mit R5xx kamen weitere Optimierungen dazu, die auch zu Flimmern führten, und eben auch deutlich zu sehen sind.

mapel110
2007-05-10, 20:51:41
Erst mit R5xx kamen weitere Optimierungen dazu, die auch zu Flimmern führten, und eben auch deutlich zu sehen sind.
Aber dazu gibts natürlich keinen Artikel, weil bei ATI keiner was sieht. :confused:

reunion
2007-05-10, 20:54:30
Aber dazu gibts natürlich keinen Artikel, weil bei ATI keiner was sieht. :confused:

Warum es dazu keine Artikel gibt, weiß ich nicht. Auf jeden Fall hat sich die Filterqualität bei AI_low von R4xx zu R5xx ziemlich stark verschlechtert. AI-off hingegen ist nach wie vor einwandfrei und kostet deshalb auf R5xx auch schonmal gehörig Leistung.

L.ED
2007-05-10, 21:12:45
Es wäre schön wenn sich die Gurus vom 3D Center in Form eines eingehenden Artikels, darüber mal näher auslassen täten. :smile:

Primär an Bildqualität und ein möglichst Flimmerfreies Bild Interessiert, was man bis heute allerdings nur selten hat. :mad: Und man selbst ist langsam am Ende mit seinem Latein (was man eben noch alles Einstellen muss, außer alles auf Anschlag und Optimierungen AUS!). :frown: :confused:

Mag es mal am Beispiel X3 Heranziehen wollen, wo bekanntlich Trotz Höchsten Treiberseitigen Qualitäts- Level, die Grafik im Großen und Ganzen noch immer Flimmert! :(

Hatte auch mal was von gelesen das dessen (ab bestimmten Level), dann an den Programmierern mit liegt die welche die Shader Programme Schreiben? Bzw. das man mit herkömmlichen MSAA Mitteln oder gar AF dem somit nicht beikommen kann. So das es also an den Programmierern mit liegt/hängt (weil es ein Technisches Dingens)? Wenn die halt Scheiße bauen bzw. Tomaten auf den Augen (?), dann ist das halt so!

Hohes SSAA als einzig wirksam dagegen währe (was allerdings ATI Hardware wohl gar nicht kann und zudem jeweils vergleichsweise exorbitant an Rohleistung verschlingend?!)

Mich würde mal also so ne Art Guide Interessieren wie man trotz allem das Beste dann jeweils noch rausholen kann!?

Raff
2007-05-10, 21:19:57
Einen Artikel über A.I. auf R5x0 habe ich schon mehrfach fast abgeschlossen, aber wegen diverser Gründe nie beendet und auf 3DC veröffentlicht ...

MfG,
Raff

L.ED
2007-05-10, 21:50:20
Es wäre schön wenn besagtes dann noch einmal Vollendet! :wave:

Und ich bin mir nicht sicher ob sich so Seiten wie 3D Center ihrer Rolle Bewusst? :wink:

Freaks und Geeks sind obgleich im Großen und Ganzen die Minderheit bildend, nicht selten aber der Antriebsmotor für Bewegungen in die eine oder andere Richtung! Denn obgleich sie eine Minderheit, haben sie dann schnell aber auch mal die Lautesten Stimmen (etwa in Form solcher Thematisierenden Seiten). :deal:

Die welche dann auch von einer bedeutsameren Menge der eher Stillschweigenden und Unbedarften wahrgenommen. Welche dann daraufhin durchaus beginnt zu Selektieren im Kaufverhalten (und somit der stärkere Anreiz für Hersteller sich am Schlipper zu reißen! bzw. wo sie ihr Hauptaugenmerk zukünftig dann jeweils drauf zu legen haben!) :whisper:

Man muss es einfach Thematisieren, denn wie viele Grafikkarten Generationen sollen dann noch ins Land ziehen bis man etwa ein UT2004 wirklich durchweck Flimmerfrei + Absolut Brillantes 3D Erleben darf!? :| Und das war nur ein Beispiel und was es meint und worauf hinaus dürfte klar sein? Ich meine es ist doch Traurig und kann es doch irgendwo nicht sein, das man selbst in älteren Titeln mit Grafik Hardware von ganzen Generationen später, noch immer kein Aal Glattes Optisches Erleben bekommt! :hammer:

Vertigo
2007-05-11, 10:19:55
Ich verstehe die ganze Aufregung um Catalyst AI und die darin implementierten Filteroptimierungen nicht so ganz. Diese lassen sich vollständig abschalten und die Performance der Radeons ist dennoch konkurrenzfähig.

Piffan
2007-05-11, 13:27:03
Dafür hatten sie mit Colorbanding zu kämpfen. Außerdem erschien der Patch doch erst 1 Jahr nach Release oder so.

Colorwas? Selbst gespielt oder blos Mutmaßung? Ich habs mit dem R420 gespielt und konnte kein Banding ausmachen. Richtig ekelig sind die Spiele mit der Source- Engine, da ist das Banding das reinste Brechmittel......

Ich möchte mich dem Threadstarter anschließen: Bei den Atis kann man die Hardware sehr lange nutzen....Rekordhalter dürfte die Radeon 9700 sein. Damals für teuer Geld erstanden, dann bald bemerkt, dass man die gewaltig übertakten kann und jahrelang damit gezockt.....Meine X800XT wurde auch erst alt durch Stalker. Gothic 3 ging noch gut aufgrund mancher fehlender Details, Fear konnte ich ohne Einschränkungen genießen....Farcry sowieso, da geht selbst Transparenz- AA völlig problemlos...

CEO
2007-05-11, 13:41:33
Yay leute mit einer gf6800u kann man heute noch vieles in high detail bei 1280x1024 zocken. selbstverständlich ohne AA und nur mit 2AF wenn man über 30-40 FPS bleiben will.

Vertigo
2007-05-11, 13:43:40
Yay leute mit einer gf6800u kann man heute noch vieles in high detail bei 1280x1024 zocken. selbstverständlich ohne AA und nur mit 2AF wenn man über 30-40 FPS bleiben will.
Ja, die Spiele von damals, als die Karte noch aktuell war. Das geht natürlich auch heute noch. :biggrin:

Ein Gothic3 oder Anno1701 ist auf einer 6800GT/U einfach nur grausam - ich habe es selbst gesehen. Eine X800XT macht dort deutlich mehr her, auch wenn dort maximale Details natürlich auch nicht drin sind.

CEO
2007-05-11, 13:49:30
Ja, die Spiele von damals, als die Karte noch aktuell war. Das geht natürlich auch heute noch. :biggrin:

Ein Gothic3 oder Anno1701 ist auf einer 6800GT/U einfach nur grausam - ich habe es selbst gesehen.

Nope. Gothic3 läuft mit ~20-30fps auf einem 2GB C2D 6300. @Max (bis auf die sichtweite) Habe ich nicht nur gesehen sondern gezockt.
Anno1701 geht eigentlich schon noch im 20FPS bereich (Hallo? muss das noch schneller) und ist ohne AA & AF immer noch flüssiger als der shit von der PCGames DVD. Ebenfalls gezockt.

Vertigo
2007-05-11, 13:54:32
Nope. Gothic3 läuft mit ~20-30fps auf einem 2GB C2D 6300. @Max (bis auf die sichtweite) Habe ich nicht nur gesehen sondern gezockt.
Anno1701 geht eigentlich schon noch im 20FPS bereich (Hallo? muss das noch schneller) und ist ohne AA & AF immer noch flüssiger als der shit von der PCGames DVD. Ebenfalls gezockt.
Na okay, wenn Du damit zufrieden bist kann ich schlecht dagegen argumentieren. Ich persönlich finde es nicht gut und auf einer Radeon X800XT im Vergleich besser spielbar.

CEO
2007-05-11, 13:57:04
Na okay, wenn Du damit zufrieden bist kann ich schlecht dagegen argumentieren. Ich persönlich finde es nicht gut und auf einer Radeon X800XT im Vergleich besser spielbar.

Zufrieden? Nicht wirklich. Mit einer X800(XT welche ja ~20% mehrleistung bei hohen auflösungen im vergl. zur x800 bietet) ist es ebenfalls dasselbe bild.

Vertigo
2007-05-11, 14:00:20
Zufrieden? Nicht wirklich. Mit einer X800(XT welche ja ~20% mehrleistung bei hohen auflösungen im vergl. zur x800 bietet) ist es ebenfalls dasselbe bild.
Stimmt schon - riesig sind die Unterschiede nicht. Dafür braucht es dann schon die nachfolgende Generation.

Gast
2007-05-11, 15:25:46
Colorwas? Selbst gespielt oder blos Mutmaßung? Ich habs mit dem R420 gespielt und konnte kein Banding ausmachen.Selbst gespielt. Auf meinem damaligen NV43 konnte ich im SM3-Pfad mit HDR-Rendering kein solches Colorbanding ausmachen, dafür war die Geschwindigkeit aber grenzwertig.

L.ED
2007-05-11, 20:01:46
Da muss ich mal in die Presche springen, bis vor kurzen ja noch nen NV40 hin und wieder auch zum Spielen unter Verwendung gehabt und das Ding war sogar zur Quadro FX4000 gemoddet :eek: und als solche Betrieben (Resultat, u.a. hübscheres Farbvermögen)!

Und das ging ganz gut, gerade so Sachen wie Oblivion und Gothic 3 (von den insbesondere anfänglichen Technischen Bugs mal abgesehen), hängen eher an der CPU, über ein nicht minderen Teil der Zeit, denn als an der Grafik.

Was ich im Nachhinein auf demselben System mit aber einer X1900XT 256MB (X1950XT *AGP* ;) ), sehr gut nachvollziehen kann.

An gewissen Stellen kann dann nun zwar noch mit ner höheren Auflösung plus vollen HQ AF Faktor Fahren (und teilweise 4x bis 6x AA insofern Technisch es möglich), wo sich dann auch der Mehrwert dieser Karte für mich zeigt/ergibt, mehr FPS sind es aber noch immer nicht! :whistle:
(wobei ich persönlich FPS Anzeige usw. nach der Eingangs/Testphase dann eh nicht mehr eingeschaltet habe und dann relativiert sich viel ;) )

Man kann also schon Postulieren, wer diesbezüglich härter im Nehmen (also zu Not auch ohne AA & AF und auch noch mit 1024x768 oder gar 800x600 warm werden kann), das diese Leute absolut auch Sachen wie Gothic 3, Oblivion (+HDR) und Co Daddeln können! (gesetzt dem Fall das das restliche System halbwegs auf Höhe der Anforderungen)

Und Ehrlich gesagt wird das wohl auch jeder dann tun der sich seinerzeit für SM 3.0 entschieden hat, denn HDR ist das einzige Feature (was heuer unter Verwendung), was wenn denn (?), einen nutz und sichtbaren Mehrwert gegenüber dem R42x bringt!

Wobei ne x850 XT PE allerdings schon Performance Technisch ne derbe Nummer, es ist zwar richtig das Preislich mittlerweile zu Low End dann zu Zählen (der Zusammenhang fiel ja hier auch schon). Aber gemessen an dem was diese Karte noch Loszutreten vermag, ist es absolut kein Low End! ;) (auch heute noch nicht)

Gast
2007-05-11, 23:40:13
Zeig mir mal jemand, der mit nem NV40 Spaß an nem SM3.0 Spiel hat:
Zeig mir mal mit welcher der genannten man NV kartem man zocken kann (>=30fps) *LOL*

Gast
2007-05-11, 23:44:26
R4XX flimmert nicht, sondern hat nur einen bri-Filter. Erst mit R5xx kam der "Flimmereffekt" durch die Unterfilterung.

auch der bri-filter kann zu flimmern führen.

bei "korrektem" bilinearem filter wird 50% der textur überfiltert und 50% unterfiltert. der unterfilterte teil kann dabei flimmern.

bei einem brilinearem filter wird auch ein teil unterfiltert nur ist dieser teil kleiner als bei rein bilinearem filter. dieser unterfilterte teil kann aber trotzdem zu flimmern führen, welches bei einem korrekten trilinearem filter nicht vorhanden wäre.

Gast
2007-05-11, 23:52:45
Colorwas? Selbst gespielt oder blos Mutmaßung? Ich habs mit dem R420 gespielt und konnte kein Banding ausmachen.

im SM1.1-modus hatten alle karten massives colorbanding(speziell vor dem tressorraum), und bis endlich der SM2-patch kam war das spiel nicht mehr wirklich aktuell.

Gast
2007-05-11, 23:54:51
Warum es dazu keine Artikel gibt, weiß ich nicht. Auf jeden Fall hat sich die Filterqualität bei AI_low von R4xx zu R5xx ziemlich stark verschlechtert. AI-off hingegen ist nach wie vor einwandfrei und kostet deshalb auf R5xx auch schonmal gehörig Leistung.

ist auch vollkommen logisch. zur R4xx-zeit hatte man im verhältnis zur konkurrenz die überlegene füllrate, da brauchte man nicht großartig weiter zu optimieren.
seit der R5xx-reihe ist man aber in der füllrate deutlich unterlegen, da musste man natürlich mit stärkeren "optimierungen" nachhelfen.

Gast
2007-05-12, 01:45:53
Hohes SSAA als einzig wirksam dagegen währe[I] (was allerdings ATI Hardware wohl gar nicht kann und zudem jeweils vergleichsweise exorbitant an Rohleistung verschlingend?!)Einerseits stimmt es, das gegen Shaderflimmern außer SSAA/Hybridmodi kein Gras gewachsen ist, andererseits stimmt es nicht, dass ATI-HW es nicht könnte. Wenn es z.B. per DirectX-Tweaker über Software erledigt wird funktioniert es sehr wohl auf ATI-HW. ATI baut es nur nicht in ihre Treiber ein.

Hvoralek
2007-05-12, 13:22:10
In wie weit spielt eigentlich der zum benchen benutzte, über 1/2 Jahr alte Treiber für die NV Karten eine Rolle?
Hab mal gehört, daß NV mit dem Erscheinen neuer Karten Performanceoptimierung für alte Karten rausnimmt, damit die neuen besser dastehen.Ist das eigentlich immer noch bloßes Hören- Sagen oder gibt es inzwischen irgendwelche halbwegs handfesten Indizien? Zumindest bei NV25 war es offenbar nicht so (http://www.3dcenter.org/artikel/geforce4_treibervergleich/).

Naja, entweder mit hohen Shaderdetails, oder AA. Beides zusammen bringt auf ner 6800 Ultra in 1280x1024 nichtmal 17fps avg...

http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_ati_radeon_x1900_xtx_x1900_cf-edition/15/In einem (nicht besonders hektischen) Strategiespiel sollte das doch problemlos spielbar sein. Und ohne (SS-)AA kommt man in 1280x1024 schon fast auf 30 fps. Mit FP16-HDRR.

ist auch vollkommen logisch. zur R4xx-zeit hatte man im verhältnis zur konkurrenz die überlegene füllrate, da brauchte man nicht großartig weiter zu optimieren.
seit der R5xx-reihe ist man aber in der füllrate deutlich unterlegen, da musste man natürlich mit stärkeren "optimierungen" nachhelfen.R520 hatte eine höhere nutzbare Füllrate als G70 (rechnerisch die gleiche, aber keine Stalls). Also eigentlich erst seit R580 (RV530 ignoriere ich mal wieder) :biggrin:

Raff
2007-05-12, 15:07:42
Ist das eigentlich immer noch bloßes Hören- Sagen oder gibt es inzwischen irgendwelche halbwegs handfesten Indizien? Zumindest bei NV25 war es offenbar nicht so (http://www.3dcenter.org/artikel/geforce4_treibervergleich/).

Naja, die ersten 50-er ForceWares haben die GF4-Serie nachweislich gebremst. Die Beseitigung dieser Sinnlosigkeit wurde aber von den Kritikern unbeachtet/unbemerkt gelassen. Alte Karten werden mit aktuellen Treibern tendenziell schneller.

MfG,
Raff

Gast
2007-05-12, 15:29:40
Ist das eigentlich immer noch bloßes Hören- Sagen oder gibt es inzwischen irgendwelche halbwegs handfesten Indizien? Zumindest bei NV25 war es offenbar nicht so (http://www.3dcenter.org/artikel/geforce4_treibervergleich/).


Das war noch nie so, das ist nur eine Lüge, die von ATI Anhängern gern verbreitet wird um nvidia zu bashen. Genauso wie dieser "wir bashen nvidia" Thread nur dazu dient um von den schwachen Ergebnissen des R600 abzulenken.

Coda
2007-05-12, 18:09:45
Naja, die ersten 50-er ForceWares haben die GF4-Serie nachweislich gebremst. Die Beseitigung dieser Sinnlosigkeit wurde aber von den Kritikern unbeachtet/unbemerkt gelassen. Alte Karten werden mit aktuellen Treibern tendenziell schneller.
Das war weil Teile der Z-Buffer-Kompression bei der GeForce 4 fehlerhaft sind, deshalb wurden die in späteren Treibern deaktiviert.

Gast
2007-05-20, 01:10:25
Einen Artikel über A.I. auf R5x0 habe ich schon mehrfach fast abgeschlossen, aber wegen diverser Gründe nie beendet und auf 3DC veröffentlicht ...

MfG,
Raff

Diverse Gründe: Ihr seit Pro-ATI

Das habe ich schon lange bemerkt als ich eure Artikel durchgelesen habe.

Raff
2007-05-20, 01:26:14
Das war weil Teile der Z-Buffer-Kompression bei der GeForce 4 fehlerhaft sind, deshalb wurden die in späteren Treibern deaktiviert.

Und später hat man das Problem offenbar gefixt.

Diverse Gründe: Ihr seit Pro-ATI

Das habe ich schon lange bemerkt als ich eure Artikel durchgelesen habe.

Ja, genau. Wir sind jedes Jahr Fanboys einer anderen Firma. Jedesmal, wenn objektive Berichterstattung das gegenteilige Ergebnis hervorruft.

MfG,
Raff

Mumins
2007-05-20, 09:04:52
Diverse Gründe: Ihr seit Pro-ATI

Das habe ich schon lange bemerkt als ich eure Artikel durchgelesen habe.

Die sind hier so pro ATI, dass man ihnen von Seiten ATI jahrelang Testsamples verweigerte.

HOT
2007-05-20, 10:21:26
Seit dem ATI aber AMD gehört, hat sich das Problem offenbar auch behoben ;). Finde ich sehr schön.

War es nicht so, dass die G5 Serie auf einmal das zwangs-bri weggenommen bekamen, als die Geforce6 erschien? NV praktiziert sowas schon, aber eben in einem wie ich finde legitimen Rahmen.

Raff
2007-05-20, 11:27:33
Welches Zwangs-Bri denn? Mit den ersten ForceWares (50.xx) wurden die "Optimierungen" eingeführt, IIRC nicht abschaltbar. Mit neueren Treibern (End-50er) konnte und kann man die aber immer ausschalten.

MfG,
Raff

HOT
2007-05-20, 12:00:58
Das mein ich.

Gast
2007-05-20, 14:45:15
Und später hat man das Problem offenbar gefixt.



stimmt, farcry beispielsweise zeigte mit den alten treibern mit aktiviertem early-z darstellungsfehler. wenn man das ganze deaktiviert hat waren sie weg, ebenso mit den späteren treibern mit aktiviertem early-z.

Das mein ich.

standardmäßig war es immer eingeschaltet (und ist es imo heute noch), mit den späteren treibern war NV wenigstens so gnädig dieses feature abschaltbar zu machen.

Coda
2007-05-20, 15:20:21
Und später hat man das Problem offenbar gefixt.
Ja, aber das ist ja nichts absichtliches gewesen dann.

Gast
2007-06-18, 22:38:13
NVIDIA hat damals die Kunden veräpfelt!

Es wurde klar gemacht, dass der NV40 den R420 platt macht, doch es geschah genau umgekehrt.

So ist man mit einem R420 heute viel besser dran als mit einem NV40.

LordDeath
2007-06-19, 01:24:11
NVIDIA hat damals die Kunden veräpfelt!

Es wurde klar gemacht, dass der NV40 den R420 platt macht...

das heißt marketing und wer sowas nicht macht gehört eingesperrt.

L.ED
2007-06-19, 02:12:32
Man kann es aber auch Übertreiben, alles muss seine Grenzen haben und Kennen sonst tritt der Effekt der Negierung ein!

(so etwas sollte man nie Unterschätzen)

Wenn man die Leute zu oft und doll verarscht (ich schrieb es mal so aus und benannte es beim Namen), dann werden sie es mehr und mehr mit Kaufverweigerung Abstrafen. Selbst dann wenn zufälligerweise das Marketing geblubber dann mal doch, wieder relativ nahe an Objektiver Realität!

Übern Tisch ziehen lässt sich niemand gerne und nicht wenigen fehlt es halt gerade auch im Bereich Computer am diesbezüglichem Sachverstand, um selber das alles immer zu Durchblicken.

Gast
2007-06-19, 07:35:27
Mit R580 vs. G71 scheint sich das schon wieder ähnlich zu entwickeln.
Ich finde hier ist es sogar schlimmer.

Selbst der R520, also eine X1800 XT hat heute keine Scheu mehr vor der 7950 GT.
Bei dem R570/R580 ist das genauso schlimm, eine X1950 Pro verfehlt nur noch knapp die 7900 GTX, eine X1950 XTX schlägt schon das Karten-Doppelpack 7950 GX2.
So rechtfertigt sich der hohe Stromverbrauch der ATI-Karten wieder.

Mr. Lolman
2007-06-19, 08:58:46
Mit neueren Treibern (End-50er) konnte und kann man die aber immer ausschalten.

MfG,
Raff

In der richtigen Reihenfolge zumindest größtenteils ;)

James Ryan
2007-06-19, 09:01:17
NVIDIA hat damals die Kunden veräpfelt!

Es wurde klar gemacht, dass der NV40 den R420 platt macht, doch es geschah genau umgekehrt.

So ist man mit einem R420 heute viel besser dran als mit einem NV40.

Naja, dafür kann man heutzutage mit einem NV40 einige Spiele immerhin starten, was mit einem R420 nicht mehr funktioniert. ;)
SCNR!

MfG :cool:

Gast
2007-06-19, 09:09:16
NVIDIA hat damals die Kunden veräpfelt!

Es wurde klar gemacht, dass der NV40 den R420 platt macht, doch es geschah genau umgekehrt.

So ist man mit einem R420 heute viel besser dran als mit einem NV40.

Natürlich macht das nV. Aber viel trauriger war, dass das fast das ganze Forum bis hin zu unseren sog. "Gurus" sang und klanglos gefressen hat. Da wurde von überlegener Shaderleistung gefaselt, die einfach nicht vorhanden war. Dem NV40 wurde die bessere Zukunftseignung zugesprochen, und immer wenn er hinten lag (was bei hohen Auflösungen mit AA/AF auch schon damals fast immer der Fall war) wurde auf die Zukunft verwiesen. Die mit Standardeinstellung immens flimmernden Texturen wurden wegdiskuttiert und als Fanboymist abgestempelt.

Mumins
2007-06-19, 09:27:38
Naja, dafür kann man heutzutage mit einem NV40 einige Spiele immerhin starten, was mit einem R420 nicht mehr funktioniert. ;)
SCNR!

MfG :cool:

Wen interessiert das. Meinen NV40 oder R420 hab ich schon seit Ewigkeiten nicht mehr.

Gast
2007-06-19, 09:38:16
Natürlich macht das nV. Aber viel trauriger war, dass das fast das ganze Forum bis hin zu unseren sog. "Gurus" sang und klanglos gefressen hat. Da wurde von überlegener Shaderleistung gefaselt, die einfach nicht vorhanden war. Dem NV40 wurde die bessere Zukunftseignung zugesprochen, und immer wenn er hinten lag (was bei hohen Auflösungen mit AA/AF auch schon damals fast immer der Fall war) wurde auf die Zukunft verwiesen. Die mit Standardeinstellung immens flimmernden Texturen wurden wegdiskuttiert und als Fanboymist abgestempelt.

Tja das liegt eben daran, dass Coda und Co meist von ATi abgeneigt sind. Deswegen sprechen Sie immer Pro NV!

Botcruscher
2007-06-19, 10:09:33
Naja, dafür kann man heutzutage mit einem NV40 einige Spiele immerhin starten, was mit einem R420 nicht mehr funktioniert. ;)
SCNR!

MfG :cool:


Die da wären? Mir fällt da nur ein bestimmtes Schleichspeil ein welches eh einen Patch hat.

LovesuckZ
2007-06-19, 10:35:01
Die da wären?

Alle Xbox360 Portierungen, die zur Zeit den Markt überschwemmen.
Splinter Cell: DA, Colin: Dirt, Spider-Man 3...

HOT
2007-06-19, 10:47:59
http://www.alternate.de/html/product/details.html?articleId=148889

Witziges Angebot mit R481 Chip + DDR3 RAM ;). Damit wurde der R4xx noch ein letztes Mal aufgelegt.

Gast
2007-06-19, 17:13:22
Die da wären? Mir fällt da nur ein bestimmtes Schleichspeil ein welches eh einen Patch hat.

Du meinst wohl Splinter cell 3. Da kam ein patch mit Shadermodell 2.0 Unterstützung raus. Aber Splinter cell 4 startet wirklich nur mit Shader modell 3.0 kompatiblen Karten.

Flashpoint
2007-06-19, 18:16:05
Du meinst wohl Splinter cell 3. Da kam ein patch mit Shadermodell 2.0 Unterstützung raus. Aber Splinter cell 4 startet wirklich nur mit Shader modell 3.0 kompatiblen Karten.


Der von ATI zusammengeschustert wurde.
Zum Glück ^^

Gast
2007-06-19, 19:29:39
Naja, dafür kann man heutzutage mit einem NV40 einige Spiele immerhin starten, was mit einem R420 nicht mehr funktioniert. ;)
SCNR!

MfG :cool:

Jo, mit 3 fps. Dann merk ich auch voll den Unterschied zu 0 fps.

Flaschenpunkt
2007-06-19, 19:31:13
Der von ATI zusammengeschustert wurde.
Zum Glück ^^

NVIDIA macht soetwas nicht!

Gast
2007-06-19, 19:31:35
NVIDIA macht soetwas nicht!

Außerdem war das in einem Patch drin.

Mr.Magic
2007-06-19, 20:47:29
NVIDIA macht soetwas nicht!

Nö, nVidia bietet den Entwicklern während der ganzen Produktionsphase Unterstützung an. Deshalb sind sie bei Developern so beliebt.

Flashpoint
2007-06-19, 20:59:23
Nö, nVidia bietet den Entwicklern während der ganzen Produktionsphase Unterstützung an. Deshalb sind sie bei Developern so beliebt.

Wenn man die rosa-rote Brille aufhat geht sowas an einem vorbei.
Macht aber nix.

Mr. Lolman
2007-06-19, 21:02:27
Nö, nVidia bietet den Entwicklern während der ganzen Produktionsphase Unterstützung an. Deshalb sind sie bei Developern so beliebt.

Wenn man die rosa-rote Brille aufhat geht sowas an einem vorbei.
Macht aber nix.

Und wenns die Entwickler verbocken, schreibt einem NV gar selbst die Shader. :up:

Schwanztasse
2007-06-19, 21:08:08
Nö, nVidia bietet den Entwicklern während der ganzen Produktionsphase Unterstützung an. Deshalb sind sie bei Developern so beliebt.

Und ATI bei den Kunden!

Undertaker
2007-06-19, 21:16:14
http://www.alternate.de/html/product/details.html?articleId=148889

Witziges Angebot mit R481 Chip + DDR3 RAM ;). Damit wurde der R4xx noch ein letztes Mal aufgelegt.

hatten denn nicht alle r4** gddr3?

Gast
2007-06-19, 21:26:46
DDR2 = GDDR3

Flashpoint
2007-06-19, 21:39:31
Und wenns die Entwickler verbocken, schreibt einem NV gar selbst die Shader. :up:

Na wenn das nix tolles ist :redface:

Der Dev-Support sollte bei beiden eigtl ausgeglichen sein.
Wobei man eigtl davon ausgehen kann, das wenn die NV-Dev´s da mit dran werkeln das eigtl auch mit ATI Hardware vernünftig läuft.

HOT
2007-06-19, 21:46:47
Die unterstützen ja beide, NV ist da nur deutlich aggressiver. letztendlich laufen die Games aber immer auf beiden gleich gut. Hab selten erlebt, dass das anders war, was jetzt exakt auf diese Untertützung zurückzuführen wäre.

HOT
2007-06-19, 21:48:12
hatten denn nicht alle r4** gddr3?
DDR3 = GDDR4. Das bedeutet, dass man den R481 sogar mit den neuen Speichern betreiben kann.

Hvoralek
2007-06-19, 22:04:07
Auf der verlinkten Karte ist aber GDDR3 verbaut. Die 1080 MHz sind wohl effektiv, da wäre GDDR4 auch irgendwie seltsam.

AnarchX
2007-06-19, 22:38:23
DDR3 = GDDR4. Das bedeutet, dass man den R481 sogar mit den neuen Speichern betreiben kann.
Würde ich doch bezweifeln, selbst bei R580 gab es eine neue Revision -> R580+.

Auf der verlinkten Karte ist aber GDDR3 verbaut. Die 1080 MHz sind wohl effektiv, da wäre GDDR4 auch irgendwie seltsam.
Ganz genau ist "nur" GDDR3, zudem ist diese Palit-Karte auch nicht gerade ein Meisterstück, wenn man sich die Kommentare dazu durchliest.

Auf Alternate-Angaben sollte man zudem auch nicht viel geben, da diese gerne nochmal den effektiven Speichertakt von der Herstellerseite nochmal verdoppeln. X-D

Gast
2007-06-19, 22:39:43
GDDR4 ist auf dem R4XX technisch möglich, wurde aber nicht eingesetzt.

AnarchX
2007-06-19, 22:50:33
GDDR4 ist auf dem R4XX technisch möglich, wurde aber nicht eingesetzt.

Sicher? Quelle?

Memory Type Support DDR, GDDR-2, GDDR-3
http://www.beyond3d.com/resources/chip/98

Undertaker
2007-06-20, 07:32:06
DDR3 = GDDR4. Das bedeutet, dass man den R481 sogar mit den neuen Speichern betreiben kann.

"=" ist da gar nix ;) ich dächt du hast nur das g bei gddr vergessen, denn normaler ddr3 ist auf keiner graka zu finden...

Gast
2007-06-20, 07:46:16
Sicher? Quelle?


http://www.beyond3d.com/resources/chip/98

Als das geschriben wurde, gab es auch noch kein GDDR4.

James Ryan
2007-06-20, 08:18:53
Und ATI bei den Kunden!

Merkt man vor allem am Steam-Hardware-Survey! ;D
ATi ist beim 0815-Gamer kaum bekannt oder gar beliebt!

MfG :cool:

Gast
2007-06-20, 09:52:03
Als das geschriben wurde, gab es auch noch kein GDDR4.

Als R4xx entwickelt wurde ebenfalls nicht, also wie soll er das unterstützen können?

Gast
2007-06-20, 10:04:55
Würde ich doch bezweifeln, selbst bei R580 gab es eine neue Revision -> R580+.
Das war aber nur wegen den höheren Takten, nicht wegen der Kompatiblität allgemein.

deekey777
2007-06-20, 10:06:26
Als R4xx entwickelt wurde ebenfalls nicht, also wie soll er das unterstützen können?
http://www.digit-life.com/articles2/video/r520-part6.html
iXBT.com: Why did ATI mention GDDR4 in the list of supported memory formats for R520? Is it a mistake, or is this support planned in a future standard, which is not ready yet?

ATI has been closely cooperating with memory manufacturers over developing new standards for many years. So there is nothing surprising about some chips supporting standards, which are still in development. This fact means that these chips are used to verify and fine-tune new technologies. As soon as this technology is available, we shall be able to introduce it into real products painlessly and fast. Flexibly programmable architecture of a memory controller allows us to support any existing GDDR standard, as well as new standards still in development.

Gleiches galt wohl auch für den R420, wenn der GDDR4-Speicher in Grundzügen spezifiziert worden war.

Odal
2007-06-20, 11:34:27
ein R420 mit GDDR4 ram mit über 1Ghz real takt würde so manchem mainstreamprodukt auch noch heute die hosen ausziehen... :D vom R420 in 65nm und max. taktraten mal ganz zu schweigen :D

wobei sich mittlerweile SM3 hardware schon lohnt da genug software auf dem markt ist die davon gebrauch macht

Undertaker
2007-06-20, 11:43:55
man würde whl große unterschiede von spiel zu spiel sehen - in shaderlastigen games erreicht eine x850xtx nur die werte einer 7600gs bis gt, welche wiederum in neueren games gegen die 8500gt kämpft - ohne aa (wo sie ihr 256bit interface ausspielen kann) hätte ein hochgetakteter r4** wohl nicht sonderlich gute karten

Gast
2007-06-20, 11:47:16
man würde whl große unterschiede von spiel zu spiel sehen - in shaderlastigen games erreicht eine x850xtx nur die werte einer 7600gs bis gt, welche wiederum in neueren games gegen die 8500gt kämpft - ohne aa (wo sie ihr 256bit interface ausspielen kann) hätte ein hochgetakteter r4** wohl nicht sonderlich gute karten

Wie kommst du darauf? Ein R420 hat bei gleichem Takt nicht weniger Shaderpower als ein R520.

Undertaker
2007-06-20, 11:52:17
dann nutzt er sie evntl ineffizienter, was weis ich - die zahlen zeigen es

http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_geforce_7600_gt_7900_gt_7900_gtx/20/#abschnitt_hl2_lost_coast
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_geforce_7600_gt_7900_gt_7900_gtx/22/#abschnitt_the_chronicles_of_riddick

ich wäre wirklich mal an einem test mit aktuellen treibern und in games wie tdu/gothic/stalker interessiert (sofern das sm 2.0 dort keine probs macht?), aber ich denke die x850xt (pe) wird nicht über der 8500gt liegen, wenn überhaupt

HOT
2007-06-20, 12:36:19
Die Karte hat defintiv DDR3 Speicher drauf. Das steht überall und der RAM selbst macht auch den Eindruck. Zudem macht es einfach sinn, da normale DDR3 Speicherchips in der Grössenordnung billiger sein dürften als GDDR3 oder GDDR4 RAM. Es hab auch etliche Billigkarten, auf denen normaler DDR2 Speicher verbaut wurde. Das könnte vielleicht sogar der Hauptunterschied zwischen R420 und R481 gewesen sein. Damals der R300 konnte auch schon DDR2 (und damit automatisch GDDR2 und GDDR3), obwohl davon noch rein garnix zu sehen war bei Release.
Die DDR3 Specs standen schon früh, also werden auch GDDR4 und GDDR5 Chips unterstützt... die basieren auf der gleichen Technik.
Zudem habe ich die Karte vor kurzen verbaut, die haben die Kühler schon längst gegen ein deutlich leiseres Modell ausgetauscht. Das ist nurnoch ein grosser schwarzer Kühlblock mit Lüfter.
Alles in Allem ist diese Karte für den Preis empfehlenswert, weil sie ja doch einiges an Rohpower bietet und für AGP ist.

James Ryan
2007-06-20, 13:08:43
Die Karte hat defintiv DDR3 Speicher drauf. Das steht überall und der RAM selbst macht auch den Eindruck. Zudem macht es einfach sinn, da normale DDR3 Speicherchips in der Grössenordnung billiger sein dürften als GDDR3 oder GDDR4 RAM. Es hab auch etliche Billigkarten, auf denen normaler DDR2 Speicher verbaut wurde. Das könnte vielleicht sogar der Hauptunterschied zwischen R420 und R481 gewesen sein. Damals der R300 konnte auch schon DDR2 (und damit automatisch GDDR2 und GDDR3), obwohl davon noch rein garnix zu sehen war bei Release.
Die DDR3 Specs standen schon früh, also werden auch GDDR4 und GDDR5 Chips unterstützt... die basieren auf der gleichen Technik.
Zudem habe ich die Karte vor kurzen verbaut, die haben die Kühler schon längst gegen ein deutlich leiseres Modell ausgetauscht. Das ist nurnoch ein grosser schwarzer Kühlblock mit Lüfter.
Alles in Allem ist diese Karte für den Preis empfehlenswert, weil sie ja doch einiges an Rohpower bietet und für AGP ist.

Es gibt_kein_DDR3_auf_Grafikkarten!
Dass du es nicht verstehen willst... :rolleyes:
Auf der Karte ist GDDR3 verbaut und nichts anderes!

MfG :cool:

Gast
2007-06-20, 13:19:34
Auf der Karte ist GDDR3 verbaut und nichts anderes!



Steht doch auch so in der Artikelbeschreibung.

HOT
2007-06-20, 13:24:47
http://www.palit.biz/en/products/ati_agp_X850XT.html
Für mich steht auf deren Homepage, dass da DDR3 drauf ist... Das ist kein GDDR3.

AnarchX
2007-06-20, 13:29:08
http://www.palit.biz/en/products/ati_agp_X850XT.html
Für mich steht auf deren Homepage, dass da DDR3 drauf ist... Das ist kein GDDR3.

Und hier steht GDDR3:
http://www.xpertvision.eu/index.php?area=1&p=static&page=ati_x850xt
;)

Gast
2007-06-20, 13:30:56
Da haben sie dann halt das "G" vergessen.
Oder denkst du die X800XL hat auch DDR3 statt GDDR3?

HOT
2007-06-20, 14:26:40
Ich gebs auf... lohnt auch net darüber zu streiten... Wenn ich mal wieder ne Version in die Finger krieg schau ich nach.

Viper00
2007-06-20, 14:45:11
Ich gebs auf... lohnt auch net darüber zu streiten... Wenn ich mal wieder ne Version in die Finger krieg schau ich nach.

http://de.wikipedia.org/wiki/GDDR <--- hier mal nachlesen. Dürfte die Unklarheiten beseitigen.

- Viper00