PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Offizieller NV40 / GeForce 6800 Thread Second Edition


Seiten : [1] 2

Crushinator
2004-06-30, 17:14:33
Tatsache ist, daß der erste (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=136962) offizielle "NV40 / GeForce 6800 Thread" inzwischen einwenig unhandlich geworden ist, womit Grund zur Hoffnung besteht daß Dieser hier bessere und vor allem niveauvollere Diskussionen zuläßt. :)

Möge der Thread besenrein (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=1964967#post1964967) hinterlassen werden, danke im Voraus!

Blaire
2004-06-30, 18:02:20
@dzpViper:
Sehr interressant, finde ich die Bildqualitätsvergleiche
Es gibt (meinem Auge nach) keinen bis kaum unterschied ausser in Quake3...
Aber in Quake3 ist der Unterschied schon wieder so groß, dass ich fast denke, dass es ein Fehler bei den Einstellungen ist

NV40
http://www.zive.cz/files/obrazky/20...NV40_Q3_816.png

X800
http://www.zive.cz/files/obrazky/20...X800_Q3_616.png

Kann jemand der eine 6800er hat mal ein Bild von genau der selben stelle machen?
------------------------------------------------

Jo kann ich. =)

http://img25.imageshack.us/img25/7591/quak3.jpg

Hat der Czeche wohl ein paar Einstellungen verwechselt lol

MfG

Jesus
2004-06-30, 19:20:39
vielleicht optimierungen an ? ;)

Blaire
2004-06-30, 19:34:45
Original geschrieben von Jesus
vielleicht optimierungen an ? ;)

Ich denke mal der hatte die Textureinstellungen auf normal darum sieht es so aus. Mit Optimierungen an ist das Bild auch "scharf" Lol ;D

MfG

q@e
2004-06-30, 19:51:29
2xSS+4xMS gegen 6xMS ist sowieso ein Vergleich der bis auf Spezialfälle relativ sinnlos ist. :)

Winter[Raven]
2004-07-01, 13:08:01
So wir haben heute den 1 Juli, und ich frage mich wo die NV40 Demos bleiben, aka NALU :O, Clear Sailing und Timbury. Gut ne "guter" Freund meine die Würden ende Juni bzw. mitte Juli kommen.

Nur hätte ich mir jetzt bissel mehr erwünscht, z.b. Wallpapers oder neue höher aufgelöste Videos von den Demos.

Weiß einer von unseren Gurus was bei Nvidia los ist? Die NV40 werden mit jedem Tag immer mehr und sollte man annehmen Nvidia ist fertig.

Unrealswebmaster
2004-07-01, 17:03:06
Schaut mal bei TweakPC vorbei
http://www.tweakpc.de/hardware/tests/graka/leadteka400tdh/s01.php

dildo4u
2004-07-01, 18:10:09
http://www.tweakpc.de/hardware/tests/graka/leadteka400tdh/s01.php

Leadtek 6800

seahawk
2004-07-01, 18:17:55
War heute auch schon im SATURN

seahawk
2004-07-01, 18:27:02
Auch wenn der Test mir komisch erscheint, so ist das Ergebnis gar nicht schlecht.

LovesuckZ
2004-07-01, 18:29:35
Leadtek A400 Ultra und A400 (6800NU) (http://www.digit-life.com/articles2/gffx/nv40-3-p1.html#p1)

Schade nur, dass wohl keine Karte im Handel sich befindliche Karte funktioniert... :(

reunion
2004-07-01, 19:23:44
Original geschrieben von LovesuckZ
Leadtek A400 Ultra und A400 (6800NU) (http://www.digit-life.com/articles2/gffx/nv40-3-p1.html#p1)

Schade nur, dass wohl keine Karte im Handel sich befindliche Karte funktioniert... :(

Was?

BvB123
2004-07-01, 19:54:18
Die die sich im handel befindenen 6800NU von Leadtek haben alle einen fehler

guck mal im nvidia Forum da würste fündig

Fruchti
2004-07-01, 20:54:46
Original geschrieben von BvB123
Die die sich im handel befindenen 6800NU von Leadtek haben alle einen fehler

guck mal im nvidia Forum da würste fündig

Die wurden schon längst alle zurückgerufen, dürfte eingentlich kein Händler mehr welche haben.
Ich hab gerade heute eine in nen Kunden Rechner eingebaut und die war OK ;)

LovesuckZ
2004-07-01, 21:02:39
Original geschrieben von Fruchti
Die wurden schon längst alle zurückgerufen, dürfte eingentlich kein Händler mehr welche haben.


Haben sie einen Grund angegeben?

dildo4u
2004-07-02, 00:11:30
http://www.hwhell.com/gallery/albums/userpics/6800_xfx_ultra_revie/normal_1.jpg

XFX Geforce 6800 Ultra Anwärter für coolste verpackung ;-)

Auch sonst nette karte "The XFX Geforce 6800 ships with a core speed of 425MHz and a memory speed of 575MHz (or 1150MHz if you will"
http://www.hwhell.com/articles/xfx_geforce_6800_ultra/

DanMan
2004-07-02, 04:44:49
Original geschrieben von dildo4u
XFX Geforce 6800 Ultra Anwärter für coolste verpackung ;-)

Auch sonst nette karte "The XFX Geforce 6800 ships with a core speed of 425MHz and a memory speed of 575MHz (or 1150MHz if you will"
http://www.hwhell.com/articles/xfx_geforce_6800_ultra/
Der Teil mit dem AA ist mir da doch sehr suspekt. Entweder filtert ATI bei 4x da mit Supersampling oder die Tester ham garkein 4x bei der nVidia eingestellt. Denn das Bild der NV ohne AA sieht exakt aus wie das mit 4x, und das kann ja nur sein wenn das ne Alphatest Textur ist, richtig?
Der AF Teil ist jedoch beeindruckend. Hätte mir den Qualtätsvorsprung seitens NV nicht so deutlich vorgestellt.
Aber angesichts der Sache mit dem AA muss ich da natürlich auch die Glaubwürdigkeit in Frage stellen. :(

Tigerchen
2004-07-02, 08:19:33
Original geschrieben von DanMan
Der Teil mit dem AA ist mir da doch sehr suspekt. Entweder filtert ATI bei 4x da mit Supersampling oder die Tester ham garkein 4x bei der nVidia eingestellt. Denn das Bild der NV ohne AA sieht exakt aus wie das mit 4x, und das kann ja nur sein wenn das ne Alphatest Textur ist, richtig?
Der AF Teil ist jedoch beeindruckend. Hätte mir den Qualtätsvorsprung seitens NV nicht so deutlich vorgestellt.
Aber angesichts der Sache mit dem AA muss ich da natürlich auch die Glaubwürdigkeit in Frage stellen. :(

NVIDIA’s anisotropic filtering has come a long way since the last generation of cards. On low settings I preferred NVIDIA, but at 16xAF they’re about the same.

Winter[Raven]
2004-07-02, 08:59:36
FarCry Benches mit PAtch 1.2 und Shader 3.0
http://www.anandtech.com/video/showdoc.html?i=2102

Die GF 6800 Serie ist besser geeignet für Far Cry ....! Von den versprochnem VD sieht man nichts :(

q@e
2004-07-02, 09:14:59
Also irgendwas ist das komisch - selbst im SM2.0-Pfad sind die nV-Karten IMO ein bißchen zu gut wiedergegeben...

Hoffentlich geht da alles mit rechten Dingen zu.

ShadowXX
2004-07-02, 09:16:16
Original geschrieben von Winter[Raven]
FarCry Benches mit PAtch 1.2 und Shader 3.0
http://www.anandtech.com/video/showdoc.html?i=2102

Die GF 6800 Serie ist besser geeignet für Far Cry ....! Von den versprochnem VD sieht man nichts :(

Naja...erst mal reicht es mir, dass die 6800er jetzt in den gleichen Performance-Rängen spielen wie die x800er...

Neuer Content soll ja auch erst mit Patch 1.3 kommen...da wird man dann sehen müssen, obs dann unterschiede schwischen ATI und nV geben wird...

//Edit:
und man kann auch sehen, das das SM3.0 gegenüber dem SM2.0 auf den nV-Karten zumindest für etwas Speedupdate sorgen kann...die SM3.0 Features sind also durchaus nutzbar und dabei gewinnbringend.....

//Edit2:
Nur die "Final Words" des Reviews kann ich nicht so ganz nachvollziehen...

Winter[Raven]
2004-07-02, 09:17:06
ULTRA:

http://www.nvnews.net/images/news/200407/farcry_sm30.png

GF 6800!
http://www.nvnews.net/articles/chrisray_iq/comparison/farcrygraph1.jpg

Tjell
2004-07-02, 09:22:55
Ganz hübsch, das Ganze. Nur bin ich noch skeptisch, und warte lieber ein paar mehr Tests ab, die zu denselben Ergebnissen kommen.

q@e
2004-07-02, 09:23:34
Anand hat auch online - sind mir aber 'etwas' suspekt...

q@e
2004-07-02, 09:26:25
Original geschrieben von ShadowXX
//Edit:
und man kann auch sehen, das das SM3.0 gegenüber dem SM2.0 auf den nV-Karten zumindest für etwas Speedupdate sorgen kann...die SM3.0 Features sind also durchaus nutzbar und dabei gewinnbringend.....

Ich bin ziemlich sicher, daß zumindest mehrere Lichtquellen auch mit dem 2.a-Profil vom Instruktion-Count her drin sein müßten.

Ein dümmlich verlangsamtes SM2 gegen ein halbwegs brauchbares SM3 ist IMO kein geeigneter Vergleich.

nggalai
2004-07-02, 09:28:33
Ja. In meinem verlinkten Thread (http://www.nvnews.net/vbulletin/showthread.php?t=31104&page=1&pp=15) hat's Benches von verschiedenen Usern drin. Eben--von User für User. ;)

93,
-Sascha.rb

Grestorn
2004-07-02, 09:29:05
Ich finde es vieeel bemerkenswerter wie sehr der NV40 auch mit dem SM2.0 von Patch 1.2 profitieren konnte. Insbesondere mit AA/AF machte der NV40 doch normalerweise keinen Stich in FC gegen den R420.

Außerdem vermisse ich eine Aussage über die Rendering-Artefakte, die unter 1.1 auf einer NV40 zu sehen waren.

ShadowXX
2004-07-02, 09:33:06
Original geschrieben von q@e
Ich bin ziemlich sicher, daß zumindest mehrere Lichtquellen auch mit dem 2.a-Profil vom Instruktion-Count her drin sein müßten.

Ein dümmlich verlangsamtes SM2 gegen ein halbwegs brauchbares SM3 ist IMO kein geeigneter Vergleich.

Ich wollte damit eigentlich mehr ausdrücken, das man die SM3.0 Shader also durchaus in Games benutzen kann, ohne das die Performance ins Bodenlose fällt, was ja von vielen so angenommen wurde...

Ob die SM3.0 wirklich Performancevorteile gegenüber SM2.0 bringen, wenn das SM2.0 ordentlich benutzt wird (incl. dem 2.a Profil für x800-Karten), steht auf einem anderen Blatt...

[dzp]Viper
2004-07-02, 09:36:36
Original geschrieben von q@e
Also irgendwas ist das komisch - selbst im SM2.0-Pfad sind die nV-Karten IMO ein bißchen zu gut wiedergegeben...

Hoffentlich geht da alles mit rechten Dingen zu.

Richtig - die Performance der 6800u in den Benchmarks mit PS2.0 ist irgendwie wesentlich höher als in anderen Reviews :|

Aber wie man sieht, bringt PS3.0 in Farcry reichlich wenig - gerade mal 1-8 fps mehr (wobei eher 2-3 fps mehr durchschnitt sind)
:ratlos:

/edit:

Jetzt gibts ja schon den nächsten Test und da sind die Ergebnisse komplett anders :eyes:
Spricht nicht gerade für richtige genaue Ergebnisse - müssen wir wohl doch noch auf ein paar mehr Reviews warten

Demirug
2004-07-02, 09:37:40
Original geschrieben von grestorn
Ich finde es vieeel bemerkenswerter wie sehr der NV40 auch mit dem SM2.0 von Patch 1.2 profitieren konnte. Insbesondere mit AA/AF machte der NV40 doch normalerweise keinen Stich in FC gegen den R420.

Eigentlich nicht denn es ist eine logische Konsequenz daraus was da intern jetzt beim SM3 Pfad gegenüber dem SM2 Pfad anders abläuft.

Außerdem vermisse ich eine Aussage über die Rendering-Artefakte, die unter 1.1 auf einer NV40 zu sehen waren.

Die sind weg. Dort gibt es Shots: http://www.nvnews.net/vbulletin/showthread.php?t=31104&page=1&pp=15

q@e
2004-07-02, 09:40:00
Original geschrieben von Demirug
Eigentlich nicht denn es ist eine logische Konsequenz daraus was da intern jetzt beim SM3 Pfad gegenüber dem SM2 Pfad anders abläuft.


Er meinte rein auf den Vergleich bei SM2.0 bezogen...

LovesuckZ
2004-07-02, 09:47:03
Original geschrieben von nggalai
Ja. In meinem verlinkten Thread hat's Benches von verschiedenen Usern drin. Eben--von User für User. ;)
93,
-Sascha.rb

Kann es sein, dass Anandtech.com die Werte von nvidia hat?
Wurde im Nvnews.net Forum geschrieben und zweitens bezweife ich, dass eine 6800NU es mit einer X800pro aufnehmen kann, auch mit SM3.0...

Demirug
2004-07-02, 09:47:41
Original geschrieben von [dzp]Viper
Richtig - die Performance der 6800u in den Benchmarks mit PS2.0 ist irgendwie wesentlich höher als in anderen Reviews :|

Aber wie man sieht, bringt PS3.0 in Farcry reichlich wenig - gerade mal 1-8 fps mehr (wobei eher 2-3 fps mehr durchschnitt sind)
:ratlos:


Der SM2 Pfad ist für den NV40 beim Patch 1.2 auch verändert. In wie weit sich das auf die Leistung gegenüber 1.1 auswirken sollte ist schwer zu sagen. Allerdings sollte es keinen grosses Unterschied machen.

Die Steigerung bei der U und GT finde ich allerdings ganz brauchbar. Die UE scheint das nicht umsetzten zu können.
Edit: Bezogen auf "research" das von SM3 Path ja am besten profitiert.


Wobei man das wie du schon sagst alles noch mit vorsicht geniesen muss.

nggalai
2004-07-02, 09:56:48
Original geschrieben von LovesuckZ
Kann es sein, dass Anandtech.com die Werte von nvidia hat?
Wurde im Nvnews.net Forum geschrieben und zweitens bezweife ich, dass eine 6800NU es mit einer X800pro aufnehmen kann, auch mit SM3.0... Im Extremfall spart der SM3.0-Patch massiv Füllrate. Mit SM2.0 muss pro Lichquelle ein Pass verwendet werden, mit SM3.0 kann man 4 Lichtquellen in einem Pass rendern--entsprechend müssen auch Bumpmap, Decals etc. nur einmal durch die Pipe durch. Entsprechend ziehen die NV40-Karten auch bei 1600x1200 mit 8°AF am heftigsten los.

Aber ja, Anands Ergebnisse sind mir auch suspekt. AFAIK haben Mike und Chris mit FRAPS gebencht, Anand mit der FarCry-Benchmarkfunktion.

93,
-Sascha.rb

Demirug
2004-07-02, 10:02:24
Original geschrieben von nggalai
Im Extremfall spart der SM3.0-Patch massiv Füllrate. Mit SM2.0 muss pro Lichquelle ein Pass verwendet werden, mit SM3.0 kann man 4 Lichtquellen in einem Pass rendern--entsprechend müssen auch Bumpmap, Decals etc. nur einmal durch die Pipe durch. Entsprechend ziehen die NV40-Karten auch bei 1600x1200 mit 8°AF am heftigsten los.

Aber ja, Anands Ergebnisse sind mir auch suspekt. AFAIK haben Mike und Chris mit FRAPS gebencht, Anand mit der FarCry-Benchmarkfunktion.

93,
-Sascha.rb

Ein bischen Rechenleistung wird auch noch gespart weil bestimmte Berechungen die bisher pro Lichtquelle gemacht wurden jetzt auch nur noch einmal für jeweils 4 zusammen durchgeführt werden. Allerding ist wie du schon schreibst bei 8xAF die Füllrate dominant.

Allerdings scheinen mir die Möglichkeiten von allen DX9 Karten (auch R3XX, NV3X) nach wie vor nicht ideal genutzt.

Fadl
2004-07-02, 10:02:35
Original geschrieben von Demirug

Die Steigerung bei der U und GT finde ich allerdings ganz brauchbar. Die UE scheint das nicht umsetzten zu können.
Edit: Bezogen auf "research" das von SM3 Path ja am besten profitiert.


Hast du dich da vielleicht vertan? Wenn ich mir die research benches anschaue dann steigert sich die Extreme in gleichem Maße wie es auch die Ultra oder GT tut.

http://www.anandtech.com/video/showdoc.html?i=2102&p=7

nggalai
2004-07-02, 10:04:31
Ich find's etwas suspekt, dass Crytek diese Pass-Reduktion explizit nur mit SM3.0 zulässt, obowhl's eigentlich auch auf den neuen ATIs mit PS2.x tun sollte (AFAIK). Oder sind die Shader sooooo lang, dass auch das nicht mehr reicht?

Neben suspekt ist's auch indirekt lustig, wenn man Kevins Kommentare zur engen Zusammenarbeit zwischen ATI und Crytek wie im Interview beschrieben nochmals durchliest. ;)

93,
-Sascha.rb

Jesus
2004-07-02, 10:05:52
aber am besten finde ich das fazit :

The main point that the performance numbers make is not that SM3.0 has a speed advantage over SM2.0 (as even the opposite may be true), but that single pass per-pixel lighting models can significantly reduce the impact of adding an ever increasing number of lights to a scene.

Ausserdem finde ich das das SM 3.0 screenshot weniger Lightning und damit schlechtere BQ bietet als der SM 2.0.

Das wird im Test auch angedeutet ! Nämlich hier:

The difference is honestly so tiny that you can't call either rendering lower quality from a visual standpoint. We will still try to learn what exactly causes the differences we noticed from CryTek

Man beachte diese 3 Screenshots auf dieser Seite und das lightning an den 3 Buttons der Maschine:

http://www.anandtech.com/video/showdoc.html?i=2102&p=7

Demirug
2004-07-02, 10:09:27
Original geschrieben von Fadl
Hast du dich da vielleicht vertan? Wenn ich mir die research benches anschaue dann steigert sich die Extreme in gleichem Maße wie es auch die Ultra oder GT tut.

http://www.anandtech.com/video/showdoc.html?i=2102&p=7

Hast recht. Muss ich irgendwie in der Zeile verrutscht sein.

(del676)
2004-07-02, 10:14:59
hmmm, das eine 6800GT eine XT PE gerade in Farcry versägt (und das noch dazu in 1600 MIT AA/AF) hätte ich NIE gedacht

allerdings sollte noch jemand die Bildqualität genau unter die Lupe nehmen

ShadowXX
2004-07-02, 10:16:01
Original geschrieben von Jesus
aber am besten finde ich das fazit :



Ausserdem finde ich das das SM 3.0 screenshot weniger Lightning und damit schlechtere BQ bietet als der SM 2.0.

Das wird im Test auch angedeutet ! Nämlich hier:



Man beachte diese 3 Screenshots auf dieser Seite und das lightning an den 3 Buttons der Maschine:

http://www.anandtech.com/video/showdoc.html?i=2102&p=7

Es wird aber im Text auch erwähnt, das Sie nicht wissen, woher diese kleinen Unterschiede kommen...

Genauer gesagt, sagen Sie, das das andere Lightning auch durch das Multipass des PS2.0 kommen kann...und Sie nicht wissen, was eher dem Entspricht, was die Devs den gerne als Endresultat haben wollen...

Beispiel:

Either rendering seems equally likely to be more desired (either the reflection is supposed to be brighter than the SM3.0 path, or the the SM2.0 path's multipass lighting may over brighten the floor).

Grestorn
2004-07-02, 10:16:26
Original geschrieben von Jesus
Ausserdem finde ich das das SM 3.0 screenshot weniger Lightning und damit schlechtere BQ bietet als der SM 2.0.

Gratuliere, es ist wirklich sehr schwer, bei den Ergebnissen noch ein Haar in der Suppe zu finden und sich dann auch noch daran zu stören :)

Wäre schön, wenn das allgemein mal etwas objektiver gesehen würde.

Unterm Strich bleibt: Der Patch 1.2 sorgt dafür, dass der NV40 jetzt auch bei FC in etwa gleich schnell und schön wie der R420 ist.

Die Vor- und Nachteile von SM 3.0 spielen hierbei doch nur sekundär eine Rolle. FC ist dafür sicher kein Maßstab, weder im positiven noch im negativen Sinne.

Demirug
2004-07-02, 10:17:45
Original geschrieben von Jesus
Ausserdem finde ich das das SM 3.0 screenshot weniger Lightning und damit schlechtere BQ bietet als der SM 2.0.

Das wird im Test auch angedeutet ! Nämlich hier:

Man beachte diese 3 Screenshots auf dieser Seite und das lightning an den 3 Buttons der Maschine:

http://www.anandtech.com/video/showdoc.html?i=2102&p=7

Scherzkeks. Ein anderer Sichtwinkel verändert natürlich das Licht. Und der SM3 Shot hat definitive einen anderen Sichtwinkel.

Der SM3 Pfad rechnet genauer als der SM2 Pfad weil das addieren der Lichtquellen in einer FP32 Domäne ablauft und nicht in einer FX8 Domäne. Meist macht das zwar keinen Unterschied aber in Grenzfällen kann es leichte Abweichungen geben.

Grestorn
2004-07-02, 10:21:00
Original geschrieben von Jesus
Man beachte diese 3 Screenshots auf dieser Seite und das lightning an den 3 Buttons der Maschine:

http://www.anandtech.com/video/showdoc.html?i=2102&p=7
Ach ja, mich wundert schon, dass Du dieses Beispiel für Deine Argumentation wählst, es sei denn, Du willst Dich selbst diskreditieren (vielleicht bist Du sowas wie ein Fanboy-Teamkiller, was Jesus? :D ).

Sowohl im Text nachzulesen, als auch überdeutlich an den Shots zu sehen, sind die beiden Shots alles andere als deckungsgleich was die Perspektive angeht. In so fern sind die völlig unbrauchbar, um die Unterschiede in irgendwelchen Bumpmap-Lighting-Effekten zu bewerten.

Ich kann auch mit ein und der selben x800 zwei Shots machen, wo Du deutlich mehr Unterschied bei den "Buttons" siehst, als in den beiden Shots im Test.

Grestorn
2004-07-02, 10:22:49
Original geschrieben von [dzp]Viper
Jetzt gibts ja schon den nächsten Test und da sind die Ergebnisse komplett anders :eyes:
Spricht nicht gerade für richtige genaue Ergebnisse - müssen wir wohl doch noch auf ein paar mehr Reviews warten
Welchen Test? Link bitte... Bin sehr neugierig :)

Demirug
2004-07-02, 10:27:15
Original geschrieben von nggalai
Ich find's etwas suspekt, dass Crytek diese Pass-Reduktion explizit nur mit SM3.0 zulässt, obowhl's eigentlich auch auf den neuen ATIs mit PS2.x tun sollte (AFAIK). Oder sind die Shader sooooo lang, dass auch das nicht mehr reicht?

Neben suspekt ist's auch indirekt lustig, wenn man Kevins Kommentare zur engen Zusammenarbeit zwischen ATI und Crytek wie im Interview beschrieben nochmals durchliest. ;)

93,
-Sascha.rb

Schön das das noch jemaden auffält.

In 2.X gehen die alle rein. Bei 2.0 würde es teilweise eng. Bei 3.0 gibt es gegenüber 2.0 aber auch noch zusätzlich FP fähige Interpolatoren. Bei 2.0 gibt es davon 8 bei 3.0 sind es 10.

Aber selbst wenn 4 Lichtquellen nicht unbedingt in einem Pass möglich gewesen wären so hätte man daraus ja dann 2 mal 2 machen können. 3 Lichtquellen würden auf den 2.X fähigen Chips (NV3X, R420) wohl meist in einem Pass gehen und auch auf den 2.0 Karten sehe ich gute Möglichkeiten das es oft hinhaut. Bei 2 Lichtquellen bin ich recht sicher das jede 2.0 Karte das in einem Pass schaft.

Aber selbst der jetzige 3.0 Pfad erreicht scheinbar noch nicht die maximale Ausführungsdichte.

[dzp]Viper
2004-07-02, 10:31:22
Original geschrieben von grestorn
Welchen Test? Link bitte... Bin sehr neugierig :)

http://www.anandtech.com/video/showdoc.html?i=2102&p=7

und

http://www.nvnews.net/vbulletin/showthread.php?t=31104&page=1&pp=15

Bei dem Benches von nvnews sind die Unterschiede wesentlich höher als bei den Benches von anandtech

nggalai
2004-07-02, 10:37:05
Die benches von Chris und Mike wurden mit FRAPS gemacht, im "echten" Spiel. Die auf Anandtech verwenden Timedemos / die Benchmark-Funktion.

93,
-Sascha.rb

Crushinator
2004-07-02, 10:40:16
Original geschrieben von grestorn
Ach ja, mich wundert schon, dass Du dieses Beispiel für Deine Argumentation wählst, es sei denn, Du willst Dich selbst diskreditieren (vielleicht bist Du sowas wie ein Fanboy-Teamkiller, was Jesus? :D ) ... Lies' bitte nochmal das erste Posting im Thread, danke. :jedifire:

seahawk
2004-07-02, 10:55:51
http://www.anandtech.com/video/showdoc.html?i=2102&p=10

Wenn ich mir die Bilder ansehe, dann finde ich den SM3.0 Path subjektiv besser. Der Boden sind weniger wie Plastik aus. Die overbright Relektions sind weg.

q@e
2004-07-02, 10:57:18
Benutzt CryTek evtl. (ob nun absichtlich oder notwendig) mehrere Dependant Reads pro Lichtquelle beim Bumpen?

Das könnte erklären, warum man das nicht generell für SM2.0 freischaltet, oder?

Tjell
2004-07-02, 11:11:29
Original geschrieben von seahawk
Wenn ich mir die Bilder ansehe, dann finde ich den SM3.0 Path subjektiv besser. Der Boden sind weniger wie Plastik aus. Die overbright Relektions sind weg.

Hey, Du hast recht. Die fast komplett zu sehende Kachel schaut unter Einsatz SM2.0 bei ATI und nVidia fast identisch aus, wohingegen das letzte Bild einigermaßen stark abweicht.

Es wirkt auch auf mich tatsächlich ein bischen weniger künstlich (die "Flecken" sind nicht so "draufgepappt").

Im echten Spielverlauf, fällt das sicherlich nicht auf, wenn das jedoch mit einer exakteren Berechnung der Lichtverhältnisse zu tun haben sollte, hebt es den optischen Eindruck insgesamt marginal an. Nicht merklich eben, aber dennoch... :)

nggalai
2004-07-02, 11:35:58
Original geschrieben von Ulukay
kann man nicht einfach den nv40 pfad auf einer r420 benutzen? Nein.

Und der SM2.0-Pfad sei jetzt für ATI und NV identisch (ok, NV hat noch pp_hints drin).

93,
-Sascha.rb

LovesuckZ
2004-07-02, 11:38:44
Original geschrieben von nggalai
Und der SM2.0-Pfad sei jetzt für ATI und NV identisch (ok, NV hat noch pp_hints drin).


Hm, durchgehend _pp? Oder kommt da auch mal volle Genauigkeit vor?

nggalai
2004-07-02, 11:51:47
Habe einige Postins aus diesem Thread (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=1973111#post1973111) hier eingefügt. Hoffe, das ist nicht zu verwirrend. ;)

93,
-Sascha.rb

aths
2004-07-02, 12:01:05
Original geschrieben von q@e
Benutzt CryTek evtl. (ob nun absichtlich oder notwendig) mehrere Dependant Reads pro Lichtquelle beim Bumpen?

Das könnte erklären, warum man das nicht generell für SM2.0 freischaltet, oder? Dependent reads sind per se schlecht für die Performance. Warum sollte man mit dependent reads bumpen? Den dependent read braucht's nur beim Offset Mapping.

q@e
2004-07-02, 12:07:40
Original geschrieben von aths
Dependent reads sind per se schlecht für die Performance.
Unbestritten, aber irrelevant, zumal es bei Far Cry nicht wundern würde, wenn da noch mehr merkwürdige Bremsen drin sind.

Original geschrieben von aths
Warum sollte man mit dependent reads bumpen?

Die Frage sollte eher lauten "kann man mit dependant reads bumpen"? Das "warum" musst du schon die Jungs von Cry Tek fragen, falls die Antwort ja lautet.

Original geschrieben von aths
Den dependent read braucht's nur beim Offset Mapping.
Es ging ja nicht um "den" DR, sondern um eine Anzahl davon, die evtl. über das Limit der Radeons hinausgegangen wäre und somit das Kollabieren der vier Licht-Shader in einen einzigen mit SM2.0 verhindern würde.

Davon ab hat Demirug das alles schon beantwortet - leider hat Sascha das offenbar mit rausgesplittet...

LovesuckZ
2004-07-02, 12:09:02
Koennten ein Mod bitte einen extra Thread anlegen?
Mir erscheint das Thema zu groß, u das hier "abzufertigen".
Ansonsten gibt es bei Techreport (http://www.techreport.com/etc/2004q3/farcry/index.x?pg=1) einen weiteren test.

Jesus
2004-07-02, 12:21:18
Original geschrieben von Demirug
Scherzkeks. Ein anderer Sichtwinkel verändert natürlich das Licht. Und der SM3 Shot hat definitive einen anderen Sichtwinkel.

Der SM3 Pfad rechnet genauer als der SM2 Pfad weil das addieren der Lichtquellen in einer FP32 Domäne ablauft und nicht in einer FX8 Domäne. Meist macht das zwar keinen Unterschied aber in Grenzfällen kann es leichte Abweichungen geben.

ich scherze gar nicht, oder wie erklärst du dir dann diesen kommentar der genau das bestätigt:

Either rendering seems equally likely to be more desired (either the reflection is supposed to be brighter than the SM3.0 path, or the the SM2.0 path's multipass lighting may over brighten the floor).

aths
2004-07-02, 12:31:24
Original geschrieben von q@e
Die Frage sollte eher lauten "kann man mit dependant reads bumpen"? Das "warum" musst du schon die Jungs von Cry Tek fragen, falls die Antwort ja lautet.Man kann, aber selbst Crytek würde nicht auf diese dumme Idee kommen.

seahawk
2004-07-02, 12:34:48
Original geschrieben von Jesus
ich scherze gar nicht, oder wie erklärst du dir dann diesen kommentar der genau das bestätigt:

Der Kommentar spricht nicht von einer schlechteren BQ. Er spricht von einer anderen Belichtung. CryTek hat sich noch nicht geäußert welche mehr ihren Vorstellungen entspricht. So lange ist es eben anders, aber nicht schlechter.

Deine Aussage im Hinblick auf eine schlechtere BQ wird also von dem Review nicht abgedeckt. Wenn wäre die BQ für Dich subjektiv schlechter.

q@e
2004-07-02, 12:41:27
Original geschrieben von Jesus
ich scherze gar nicht, oder wie erklärst du dir dann diesen kommentar der genau das bestätigt:
by Anandtech
Either rendering seems equally likely to be more desired (either the reflection is supposed to be brighter than the SM3.0 path, or the the SM2.0 path's multipass lighting may over brighten the floor).
Jesus,

Dein Link, der zu Demirugs Aussage führte, war auf diese Seite:
http://www.anandtech.com/video/showdoc.html?i=2102&p=7
(Research Level)
Dort steht:
"By some miracle the two SM2.0 rendering path screenshots are just about perfectly lined up, but the SM3.0 shot was a little early. There isn't a discernable IQ difference in looking at these images that we can tell, but please have a look at the full versions."

Dann versuchst du, Demi zu widerlegen, indem du eine Aussage von hier (http://www.anandtech.com/video/showdoc.html?i=2102&p=10) zitierst, die mit deinem Link aus dem ersten Bild leider nichts zu tun haben.

Sowas fällt mir bei dir nicht zum ersten Mal auf. Bitte versuche doch, deine Zitation und deren Zusammenhang klarer herauszustellen.

q@e
2004-07-02, 13:08:54
Original geschrieben von q@e
Sowas fällt mir bei dir nicht zum ersten Mal auf. Bitte versuche doch, deine Zitation und deren Zusammenhang klarer herauszustellen.

Klarstellung:
Mit "Sowas" meine ich nicht nur Zitation, sondern ganz allgemein Dinge im richtigen Kontext wiederzugeben.

deekey777
2004-07-02, 13:38:34
*Trollmodus an*: Hm, jetzt sieht FC auf einer NV40er genau so aus wie auf meiner 9800 Pro.

Die Alibi-SM3.0-Unterstützung Nr. 1 ist da! Hurra, hurra!

*Trollmodus aus*

Sollten sich die Performancesprünge tatsächlich bewahrheiten, tolle Leistung. Sollte es sich herausstellen, dass SM 2.0 Grafikkarten unnötig ausgebremst werden, tolle Leistung.
Zu den Screenshots: In FC ist es relativ schwer Screenshots an gleicher Stelle zu machen, da Jack nicht still stehen kann und sich immer etwas bewegt. Darum ist der Einwand mit der Beleuchtung aus der Welt, da sich dabei auch die Lichtverhältnisse etwas ändern. Dennoch sieht ein geübtes Auge nach 100maligen FC Durchspielen, ob die Objekte tatsächlich so glänzen, wie es mit der Beleuchtungsqualität auf "very high" sein soll.

@Mods: Macht daraus einen neuen Thread. Bitte http://messenger.msn.com/MMM2004-06-01_14.58/Resource/emoticons/kiss.gif

Crushinator
2004-07-02, 13:42:04
*Unbeschreibliche Gastpostings und die Hinweise der anderen auf jene getrasht*

q@e
2004-07-02, 13:42:18
Original geschrieben von deekey777

Zu den Screenshots: In FC ist es relativ schwer Screenshots an gleicher Stelle zu machen, da Jack nicht still stehen kann und sich immer etwas bewegt.

Eigentlich bewegt sich bei mir nur die Waffe und wenn man's übertreibt mit dem rumstehen, wischt 'Jack' ab und zu das Okular sauber - die grundlegende Position stimmt aber weiterhin.

Einfach mal mittels 'Quicksave' nachprobieren...

deekey777
2004-07-02, 13:53:20
Original geschrieben von q@e
Eigentlich bewegt sich bei mir nur die Waffe und wenn man's übertreibt mit dem rumstehen, wischt 'Jack' ab und zu das Okular sauber - die grundlegende Position stimmt aber weiterhin.

Einfach mal mittels 'Quicksave' nachprobieren...

Jein, ich kann so gar ein Bsp posten, da ich ganz am Anfang mit Einstellungen herumgespielt hatte und zur besseren Vergleichbarkeit per Quicksave Screenshots gemacht. Das ist aber eine andere Diskussion, dafür sieht man deutlich den Unterschied zw. Beleuchtung auf "hoch" und "sehr hoch".

robbitop
2004-07-02, 14:49:00
@DK
die Offsetshaddowmaps kommen erst mit 1.3

Blaire
2004-07-02, 15:26:23
Da kommt Freude auf. ;D

nggalai
2004-07-02, 15:27:59
Original geschrieben von robbitop
@DK
die Offsetshaddowmaps kommen erst mit 1.3 Yup. 1.2 kann's zwar, aber der Content muss noch fertig überarbeitet werden.

93,
-Sascha.rb

robbitop
2004-07-02, 15:29:16
@nggalai
was meinst du wieviel NV Crytek für die ganzen Optimierungen und die Werbefläche schon zahlen musste?

LovesuckZ
2004-07-02, 15:30:35
Original geschrieben von nggalai
Yup. 1.2 kann's zwar, aber der Content muss noch fertig überarbeitet werden.
93,
-Sascha.rb

Wird HDR Lightning auch auf r3xx/4xx Karten verfuegbar sein?

Fadl
2004-07-02, 15:36:25
Original geschrieben von LovesuckZ
Wird HDR Lightning auch auf r3xx/4xx Karten verfuegbar sein?

Ich meine gelesen zu haben das es nicht so sein wird.

nggalai
2004-07-02, 15:49:18
Original geschrieben von LovesuckZ
Wird HDR Lightning auch auf r3xx/4xx Karten verfuegbar sein? Dazu hab' ich keine Info. Nur, dass "some new features will be NV4x-exclusive". Was auch immer "some" heissen mag. Und die Info habe ich NICHT von Crytek, ist also als Gerücht zu werten, bitte. Ich will in der Sache echt nicht zitiert werden.

Ist ja nicht so, als ging's noch lange bis zum Release des Patches. ;)

93,
-Sascha.rb

aths
2004-07-02, 16:27:07
Original geschrieben von LovesuckZ
Wird HDR Lightning auch auf r3xx/4xx Karten verfuegbar sein? Lighting. Lightning ist was anderes :)

R300 kann MDR, aber nur recht langsam im Vergleich mit NV40. Vermutlich erspart Crytek den Radeon-Usern diese Bremse.

Jesus
2004-07-02, 16:32:12
ehm und was ist dann mit rthdribl ?

Jesus
2004-07-02, 16:34:08
Original geschrieben von seahawk
Der Kommentar spricht nicht von einer schlechteren BQ. Er spricht von einer anderen Belichtung. CryTek hat sich noch nicht geäußert welche mehr ihren Vorstellungen entspricht. So lange ist es eben anders, aber nicht schlechter.

Deine Aussage im Hinblick auf eine schlechtere BQ wird also von dem Review nicht abgedeckt. Wenn wäre die BQ für Dich subjektiv schlechter.

ich spreche von weniger Belichtung, das meinte ich auch mit dem Zitat. Für mich ist weniger Belichtung gleich schlechtere Belichtung, weiss ja nicht wie ihr das seht...

aths
2004-07-02, 16:37:13
Original geschrieben von Jesus
ehm und was ist dann mit rthdribl ? Das Programm rendert wenige Objekt mit image based medium dynamic range lighting und hat sonst nix zu tun. Btw, wenn ich das anmerken darf :) guck doch mal hier: www.aktiv-gegen-plenken.de.

Jesus
2004-07-02, 16:39:35
Original geschrieben von aths
Das Programm rendert wenige Objekt mit image based medium dynamic range lighting und hat sonst nix zu tun.

eh, tolle aussage?

Rthdribl is a technical demo of "High Dynamic Range Image-Based
Lighting". DirectX(R) 9.0 high-precision texture formats and
version-2.0 of Pixel Shader represent real-time true HDR rendering.
Light sources and reflected or refracted lights that are very bright
cause Glare.

Technical features of this demo are:
- True HDR (High-Dynamic Range) Rendering
- IBL (Image-Based Lighting)
- Glare Generation (Afterimage, Bloom, Halo, Ghost, and Star)
- Automatic Exposure Adjustment
- Iris shaped Depth of Field blur
- Realistic Motion Blur
- FSAA (Full-Scene Anti-Alias)
- Fresnel Reflection (Specular Reflectance, Metallic Color-Shift)
etc.

aths
2004-07-02, 16:42:27
Original geschrieben von Jesus
eh, tolle aussage?

Rthdribl is a technical demo of "High Dynamic Range Image-Based
Lighting". DirectX(R) 9.0 high-precision texture formats and
version-2.0 of Pixel Shader represent real-time true HDR rendering.
Light sources and reflected or refracted lights that are very bright
cause Glare.

Technical features of this demo are:
- True HDR (High-Dynamic Range) Rendering
- IBL (Image-Based Lighting)
- Glare Generation (Afterimage, Bloom, Halo, Ghost, and Star)
- Automatic Exposure Adjustment
- Iris shaped Depth of Field blur
- Realistic Motion Blur
- FSAA (Full-Scene Anti-Alias)
- Fresnel Reflection (Specular Reflectance, Metallic Color-Shift)
etc. ... und was sagt das jetzt?

Jesus
2004-07-02, 16:43:47
öh HDR ? ;)

aths
2004-07-02, 16:56:21
Original geschrieben von Jesus
öh HDR ? ;) Original geschrieben von aths
R300 kann MDR, aber nur recht langsam im Vergleich mit NV40. Vermutlich erspart Crytek den Radeon-Usern diese Bremse.

Jesus
2004-07-02, 17:02:14
ich glaube wir schreiben aneinander vorbei :)

aths
2004-07-02, 17:04:17
Original geschrieben von Jesus
ich glaube wir schreiben aneinander vorbei :) Was möchtest du denn sagen?

Demirug
2004-07-02, 17:22:12
Original geschrieben von Jesus
ich spreche von weniger Belichtung, das meinte ich auch mit dem Zitat. Für mich ist weniger Belichtung gleich schlechtere Belichtung, weiss ja nicht wie ihr das seht...

Also wäre ganz weiss (maximale Belichtung) gleich der best möglichen Belichtung?

Jemand mit viel Zeit und den nötigen technischen Mittel könnte bei den entsprechenden Stellen natürlich überprüfen wie es zu den Unterschieden in der berechneten Lichtstärke kommt. Berechnet wird die nämlich in beiden Fällen für die gleiche Anzahl von Pixel. Es wird sogar für eine Menge Pixel eine Lichtberechnung durchgeführt bei der am Ende herauskommt das das Licht dort überhaupt nichts bewirkt.

Demirug
2004-07-02, 17:34:21
Original geschrieben von deekey777
Sollten sich die Performancesprünge tatsächlich bewahrheiten, tolle Leistung. Sollte es sich herausstellen, dass SM 2.0 Grafikkarten unnötig ausgebremst werden, tolle Leistung.

SM 2.0 Karten werden nicht mehr mehr ausgebremst als es bei FC schon immer der Fall war.

Ich sage aber auch gleichzeitig das der SM3 Pfad nicht das maximum an Optimierung darstellt die möglich wären.

Wobei bei passender Optimierung die unterschiede zwischen einen SM2, SM2.X und SM3 Pfad kleiner ausfallen sollten als das was man uns jetzt presentiert.

SM2 reicht nicht immer weil alle Rechenanweisungen die zum entgültigen Berechnen der Pixelfarbe benötigt werden an manchen Stellen das Anweisungslimit übersteigen. Das Limit von 2,X (in Form von 2.A und 2.B) ist dagegen ausreichend. SM3 wird dann nur noch gebraucht wenn die Übergaberegister zwischen Vertexshader und Pixelshader nicht mehr reichen. SM3 hat da zwei mehr als SM2 (10 vs. 8). SM3 bringt dann noch das Instancing für die Fälle in dennen das gleiche Objekt (bei Farcry vorallem das Grünzeug im Aussenbereich) oftmals im gleichen Frame benutzt wird. Wobei das primär eine CPU Entlastung bringt.

seahawk
2004-07-02, 17:42:06
Original geschrieben von Jesus
ich spreche von weniger Belichtung, das meinte ich auch mit dem Zitat. Für mich ist weniger Belichtung gleich schlechtere Belichtung, weiss ja nicht wie ihr das seht...

Da möchte ich heftig widersprechen. Überbelichtung ist für mich nicht besser.

Ansonsten wie Demi schon sagte.

PS. Ist auch diese Aussage oben, Deine subjektive Meinung. Das solltest Du mal klarer zum Ausruck bringen.

Tjell
2004-07-02, 17:51:52
Woran zieht Ihr Euch eigentlich wieder (Jesus hab dank) hoch?

Wenn die Entwickler von Far Cry eventuell mit dem SM3.0 eine andere Beleuchtung ansetzen und es so veröffentlichen, dann ist das so gewollt.

Ob das dem einen gefällt oder nicht ist doch vollkommen uninteressant.

Mir wäre es lieber die anwesenden (Damen?) und Herren gingen besser auf die Performance-Gewinne ein, anstatt auf irgendwelchen Lichtberechnungen rumzureiten. Nicht die Szene in FC, sondern das Thema an sich ist unterbelichtet!! *grrr*

Gast
2004-07-02, 17:58:16
Anscheind dauert es noch ein bisschen bis NV40-Technik bis ins unterste Segment gebracht wird.

Die GF4MX bis zum Ende des Jahres 2004 und dann die GFX5200 als Low-End:

Quelle:
http://www.myhard.com/news_hard/361696444584820736/20040702/1826468.shtml
http://www.myhard.com/image20010518/146255.gif

Schade.

Uller
2004-07-02, 18:05:00
Bisher war ich ja überglücklich mit meiner X800 Pro @ X800 XT, aber wenn ich mir diese Benchmarks so anschaue - aber hallo!
Ganz schön viel Performance-Unterschied zwischen der X800XT-PE und der 6800 Ultra - nur auf einmal in der anderen Richtung als bisher!
Das ist ja mal richtig krass.

Finde ich aber dann im Endeffekt doch halb so wild, da man auf der X800 halt nicht die ganzen Lichteffekte einstellen kann.

Ein Test ist aber nicht unbedingt repräsentativ...wollen wir mal darauf warten, was andere Tests dazu sagen.

Demirug
2004-07-02, 18:25:23
Original geschrieben von Tjell
Mir wäre es lieber die anwesenden (Damen?) und Herren gingen besser auf die Performance-Gewinne ein, anstatt auf irgendwelchen Lichtberechnungen rumzureiten. Nicht die Szene in FC, sondern das Thema an sich ist unterbelichtet!! *grrr*

Die Performancegewinne kommen ja weitgehend durch die veränderte Rendertechnik beim Licht. Von daher ist es ja durchaus IMHO legtim zu fragen ob da wirklich nur Lichtquellen in einem Pass zusammengelegt werden oder ob auch die Formel für einen Lichtquelle nun eine andere ist. Ohne Prüfung der Shader ist das aber nicht genau zu sagen.

Tjell
2004-07-02, 18:30:28
@Demirug
Sowas hier meine ich:
Original geschrieben von Jesus
ich spreche von weniger Belichtung, das meinte ich auch mit dem Zitat. Für mich ist weniger Belichtung gleich schlechtere Belichtung, weiss ja nicht wie ihr das seht...
Wenn man diese Aussagen auch noch auf gleichem Niveau beantwortet, hört es für mich mit der Sinnhaftigkeit auf.

deekey777
2004-07-02, 18:35:06
Hm, kann es sein, dass alle Demos so ausgewählt wurden, um die "Vorteile" der NV40 zu zeigen - oder leide ich unter Paranoia?

"Remember, this is an NVIDIA provided demo and highlights the performance benefits of the new rendering path. At the same time, if we had benchmarked this level, we would have done the same thing by following the path on which the game takes the player. This kind of benefit does exist in the game, but so do times when (as we have shown) no real improvement can be seen." ( Anandtech (http://www.anandtech.com/video/showdoc.html?i=2102&p=7) )

Tjell
2004-07-02, 18:46:57
Original geschrieben von deekey777
Hm, kann es sein, dass alle Demos so ausgewählt wurden, um die "Vorteile" der NV40 zu zeigen - oder leide ich unter Paranoia?


Da hast Du vollkommen recht.

Gegenbeispiel: Wenn Du zeigen willst, wie schnell ein Porsche ist, schickst Du als Verkäufer den Interessenten sicherlich nicht in den Stadtverkehr.

seahawk
2004-07-02, 19:00:46
Original geschrieben von deekey777
Hm, kann es sein, dass alle Demos so ausgewählt wurden, um die "Vorteile" der NV40 zu zeigen - oder leide ich unter Paranoia?

"Remember, this is an NVIDIA provided demo and highlights the performance benefits of the new rendering path. At the same time, if we had benchmarked this level, we would have done the same thing by following the path on which the game takes the player. This kind of benefit does exist in the game, but so do times when (as we have shown) no real improvement can be seen." ( Anandtech (http://www.anandtech.com/video/showdoc.html?i=2102&p=7) )

Aber selbst in den alten Demos sieht man einen Zugewinn.

Jesus
2004-07-02, 19:04:34
stimmt. Weiter benchmarks gibts u.a. auch auf www.hardocp.com ( unter den news ).

mit weit weniger unterschied und teilw. wieder andersherum

was mich intressieren würde ist die x800 performance mit dem patch, hat sich da was geändert ? schliesslich sollen ja jetzt gleiche ps2.0 renderpfade für alle karten verwendet werden, nur welche ? (r300 ?) ich denke nicht dass da auch nur irgendwas in dieser richtigung ( r420 ) optimiert worden ist.

Blaire
2004-07-02, 19:06:24
Original geschrieben von Jesus
stimmt. Weiter benchmarks gibts u.a. auch auf www.hardocp.com ( unter den news ).

mit weit weniger unterschied und teilw. wieder andersherum


was mich intressieren würde ist die x800 performance mit dem patch, hat sich da was geändert ?

Hardocp halt sowas fang ich garnicht an zu lesen. =)

Jesus
2004-07-02, 19:08:03
das war mir klar...

Sind allerdings nicht von [H] sondern nur gelinkt in den news :)

deekey777
2004-07-02, 19:18:03
Original geschrieben von seahawk
Aber selbst in den alten Demos sieht man einen Zugewinn.

Was für alte Demos?

Es ist wirklich schade, dass FC keine richtige Benchmarkfunktion intergiert hat - allein der Vergleichbarkeit wegen.

@Tjell:
Dann hätten die R420 Grafikkarten gar nicht mitgetestet werden dürfen.

Jesus
2004-07-02, 19:26:44
Original geschrieben von Jesus
was mich intressieren würde ist die x800 performance mit dem patch, hat sich da was geändert ? schliesslich sollen ja jetzt gleiche ps2.0 renderpfade für alle karten verwendet werden, nur welche ? (r300 ?) ich denke nicht dass da auch nur irgendwas in dieser richtigung ( r420 ) optimiert worden ist.

so frage selbst beantwortet :)

"ATI assures us that they have also been working with CryTek on their efforts. Since we have seen a performance improvement with the latest driver and new 1.2 patch, we don't have any reason to think that anything extraordinarily fishy is going on behind the scenes between NVIDIA and Crytek. We would obviously like to see this texturing issue fixed."

deekey777
2004-07-02, 19:38:12
Original geschrieben von Jesus


was mich intressieren würde ist die x800 performance mit dem patch, hat sich da was geändert ? schliesslich sollen ja jetzt gleiche ps2.0 renderpfade für alle karten verwendet werden, nur welche ? (r300 ?) ich denke nicht dass da auch nur irgendwas in dieser richtigung ( r420 ) optimiert worden ist.

Klick mich!!! (http://www.hexus.net/content/reviews/review.php?dXJsX3Jldmlld19JRD03OTYmdXJsX3BhZ2U9Mw==)

Demirug
2004-07-02, 19:39:09
Original geschrieben von Jesus
schliesslich sollen ja jetzt gleiche ps2.0 renderpfade für alle karten verwendet werden, nur welche ?

Ich weiss zwar nicht wer gesagt hat das jetzt alle Karten den gleichen SM2 Shadersatz verwenden aber ich würde demjenigen nicht unbedingt glauben. ;)

Jesus
2004-07-02, 19:40:25
@deekey

jo habs gerade bemerkt... da hat NV wohl doch etwas mehr springen lassen...

"For an unknown reason the RADEON X800-series graphics products’ performance slightly dropped in FarCry version 1.2 compared to the version 1.1. The reasons for the drop are not clear, but may indicate that ATI also has some speed headroom with its latest family of graphics processors and the final judgement is yet to be made…"

und -14% ist nicht gerade "slightly" ;)

Uller
2004-07-02, 19:48:00
Das habe ich auch gerade beim Hexus.net Test gelesen.

Das ist nicht ok, Nvidia! :rail:

Die X800 Karten stellen sicher nichts anderes dar als vorher, und nun haben sie auf einmal soviel weniger Performance!
Von 58fps auf 50fps, wg. einer neuen und "verbesserten" Version des Spiels. Toll.

reunion
2004-07-02, 19:54:26
Original geschrieben von Uller
Das habe ich auch gerade beim Hexus.net Test gelesen.

Das ist nicht ok, Nvidia! :rail:

Die X800 Karten stellen sicher nichts anderes dar als vorher, und nun haben sie auf einmal soviel weniger Performance!
Von 58fps auf 50fps, wg. einer neuen und "verbesserten" Version des Spiels. Toll.

Geld regiert die Welt :naughty:

seahawk
2004-07-02, 19:55:14
Bei Anand sind airstrip und mangoriver nicht von NV sondern die Standard FarCry Benches von Anand.

Der Hexustest ist mir irgendwie komisch. Und bevor man NV vorwirft, dass sie CryTek bezahlen ATI auszubremsen, sollte man in Erwägung ziehen, dass applikationsspezifische Optimierungen im ATI Treiber durch die neue Version ausgebremst werden.

Denn die Benches wurden mit dem 4.6 gemacht. ATI garantiert die optimale Performance für den 4.7. :D

BvB123
2004-07-02, 19:55:24
Bei einem test von pc games

haben sie die x800 mit patch und ohne getestet

mit war sie sogar im innelevel schneller

also nix langsammer da hat hexus wohl was falsch gemacht

die 6800war auch gleich schnll wie ohne

sie wurde erst schneller durch aktivieren des 3.0 profils


Der neue Patch 1.2 allein verbessert die Performance gegenüber Version 1.1 kaum. Auf unserem Testsystem mit einem Athlon XP 3000+ und einer Geforce 6800 GT bzw. Radeon X800 Pro konnten wir im PCGH-Außenlevel keinen und im PCGH-Innenlevel nur einen Leistungsunterschied von ein bis zwei Prozent messen. Mit dem neuen Rendering-Pfad und der Nutzung von Vertex- und Pixel-Shader 3.0 werden Nvidia-Beschleuniger mit dem Geforce 6800 dagegen deutlich schneller. Je nach Level konnten wir bei einer Geforce 6800 GT einen Performancezuwachs von ein bis sieben Prozent feststellen (unterschiedliche Settings). Im Durchschnitt (ermittelt aus den Levels Pier, Training, Research, Regulator und Volcano) liegt der Unterschied zum alten Pfad bei vier Prozent. Auf einer Geforce 6800 Ultra ließen sich je nach Level Steigerungen von 2 bis 17 Prozent ermitteln (8:1 AF, kein FSAA). Besonders der Level Research scheint vom neuen SM3-Pfad zu profitieren. Hier werden bis zu vier Lichtquellen in einem Pass gerendert. Das mehrfache Samplen der gleichen Textur (z. B. Bump Maps) entfällt dann.

deekey777
2004-07-02, 20:09:49
Original geschrieben von seahawk
Bei Anand sind airstrip und mangoriver nicht von NV sondern die Standard FarCry Benches von Anand.

Der Hexustest ist mir irgendwie komisch. Und bevor man NV vorwirft, dass sie CryTek bezahlen ATI auszubremsen, sollte man in Erwägung ziehen, dass applikationsspezifische Optimierungen im ATI Treiber durch die neue Version ausgebremst werden.

Denn die Benches wurden mit dem 4.6 gemacht. ATI garantiert die optimale Performance für den 4.7. :D

Und der Texturenbug ist wohl keine Performancebremse?

"Unfortunately, in the process, a new bug has cropped up for ATI’s RADEON X800 concerning texture quality. At times on uneven surfaces the level of detail on textures will be rendered incorrectly." ( Link (http://firingsquad.com/hardware/far_cry_sm30/) )
Wie schon gesagt: Die ATi Grafikkarten dürften nicht mitgetestet werden...

LovesuckZ
2004-07-02, 20:18:29
Original geschrieben von Jesus
@deekey
jo habs gerade bemerkt... da hat NV wohl doch etwas mehr springen lassen...


Tja, Nvidia investiert eben nicht 6 Millionen in ein Spiel, sondern teilt es auf *eg*
Ausserdem muss ja Crytek etwas gut machen ;D

deekey777
2004-07-02, 20:23:01
Original geschrieben von LovesuckZ
Tja, Nvidia investiert eben nicht 6 Millionen in ein Spiel, sondern teilt es auf *eg*
Ausserdem muss ja Crytek etwas gut machen ;D

OT: Bevor so etwas gepostet wird, sollte man sich fragen, wieviel nVidia bereit an VALVe zu zahlen. Bisher heißt es nur, dass ATi nVidia überboten hat.

seahawk
2004-07-02, 21:06:23
Original geschrieben von deekey777
Und der Texturenbug ist wohl keine Performancebremse?

"Unfortunately, in the process, a new bug has cropped up for ATI’s RADEON X800 concerning texture quality. At times on uneven surfaces the level of detail on textures will be rendered incorrectly." ( Link (http://firingsquad.com/hardware/far_cry_sm30/) )
Wie schon gesagt: Die ATi Grafikkarten dürften nicht mitgetestet werden...

Vielleicht auch eine Konsequenz der LOD-Optimierung bei der R420??

Der neue Treiber wird es bestimmt anpassen.

Gast
2004-07-02, 21:55:40
deekay & lovesuckz

Könnt ihr diese Kindereien vielleicht sein lassen oder war das erste Postings dieses Threads nicht deutlich genug?

Melbourne, FL
2004-07-02, 21:57:06
Also ich weiss nicht...bei jedem Test kommt hier was anderes heraus. Bisher finde ich diesen Test am wenigsten fragwuerdig...die haben auch eigene Timedemos aufgenommen:

http://techreport.com/etc/2004q3/farcry/index.x?pg=1

Alexander

deekey777
2004-07-02, 22:23:13
Original geschrieben von Gast
deekay & lovesuckz

Könnt ihr diese Kindereien vielleicht sein lassen oder war das erste Postings dieses Threads nicht deutlich genug?

Entweder deekey777 oder DK.

Es ist ein Unterschied zw. Spammen/Flamen/Trollen... und einer vernünftig geführten Diskussion.

Zum Thema:

Auch bei X-Bit gibt es einige Leistungseinbrüche bei R420&Patch 1.2.

aths
2004-07-02, 22:53:48
Jesus,

weißt du wieder, was du mit dem Quote der RTIBLHDR-Demobeschreibung sagen wolltest?

qqq
2004-07-02, 23:01:44
LOL das ist ja wieder geil !

Naja irgendwie kann mans NV ja auch nicht verübeln dass sie jetzt Crytek dafür bezahlen um ATI schlechter dastehen zu lassen. Schliesslich ist das SM3.0 in FC jetzt das einzige Argument um eine 6800 überhaupt zu kaufen. Oder wer will schon eine karte die 150 grad heiss wird, 2 Steckplätze belegt, ein riesen Netzteil benötigt, in allen anderen Spielen bei HQ settings langsamer ist und 5 sone laut ist ? :)
Und da in absehbarer Zukunft keine anderen Spiele mehr SM3 support bieten werden ist das auch in Ordnung so. Naja hoffen wir mal das ATI das richtig tut um diesem Beschiss ( wie wir es ja schon seit geraumer Zeit von NV gewohnt sind ) einhalt zu gebieten.
Also diesen Patch erstmal bitte nicht sooo ernst nehmen :)

LovesuckZ
2004-07-02, 23:05:04
Original geschrieben von qqq
Also diesen Post erstmal bitte nicht sooo ernst nehmen :)

Wird getan :)

Gast
2004-07-02, 23:08:30
Original geschrieben von seahawk
Der Hexustest ist mir irgendwie komisch. Und bevor man NV vorwirft, dass sie CryTek bezahlen ATI auszubremsen, sollte man in Erwägung ziehen, dass applikationsspezifische Optimierungen im ATI Treiber durch die neue Version ausgebremst werden.


ich wüsste nicht das ATI seit den Q3 benches Applicationsspezifische "Optimierung" besitzt. Ganz im gegensatz zu Nvidia, die letzen waren übrigens die FartCry Optimierungen, daran möchte ich euch verblendeten nvidia Fanboys nur allzugerne erinnern ;)

Und bitte das Nv nicht die Finger bei Crytek im Spiel hat kannst du deiner Oma erzählen. Was meinst du wieviel Kohle das Crytek kosten würde extra die Engine mit neuen effektiven SM3 paths auszustatten? Glaubst du die machen sowas umsonst ? Nene da gibts schon fett was geschmiert von Big Nv. Wär ja nicht das erste mal ( siehe TR: AoD etc. )

BvB123
2004-07-02, 23:20:31
Original geschrieben von qqq
LOL das ist ja wieder geil !

Naja irgendwie kann mans NV ja auch nicht verübeln dass sie jetzt Crytek dafür bezahlen um ATI schlechter dastehen zu lassen. Schliesslich ist das SM3.0 in FC jetzt das einzige Argument um eine 6800 überhaupt zu kaufen. Oder wer will schon eine karte die 150 grad heiss wird, 2 Steckplätze belegt, ein riesen Netzteil benötigt, in allen anderen Spielen bei HQ settings langsamer ist und 5 sone laut ist ? :)
Und da in absehbarer Zukunft keine anderen Spiele mehr SM3 support bieten werden ist das auch in Ordnung so. Naja hoffen wir mal das ATI das richtig tut um diesem Beschiss ( wie wir es ja schon seit geraumer Zeit von NV gewohnt sind ) einhalt zu gebieten.
Also diesen Patch erstmal bitte nicht sooo ernst nehmen :)

Mal wieder klar

1. PC Games konnte zwischen patch 1.1 und 1.2 keinen unterschied in der performance feststellen
2. Die Karte ist Kühler als ein X800XT
3. 350Watt hatt wohl jeder Pc....
4. es werden diese jahr mindestens noch 5 spiele mit sm3.0 unterstützung rauskommen

Jesus
2004-07-02, 23:23:45
Original geschrieben von BvB123
Mal wieder klar

1. PC Games konnte zwischen patch 1.1 und 1.2 keinen unterschied in der performance feststellen
2. Die Karte ist Kühler als ein X800XT
3. 350Watt hatt wohl jeder Pc....
4. es werden diese jahr mindestens noch 5 spiele mit sm3.0 unterstützung rauskommen

1. pc games : sieh dir auch mal andere Benchmarks im Web an und nicht nur einen
2. und ist wohl auch leiser und verbraucht weniger strom ? loool...
3. ich nicht, hab 420 ;)
4. ah ja welche ?

Winter[Raven]
2004-07-02, 23:29:49
ah ja welche ?

- S.T.A.L.K.E.R.
- Lord of the Rings: Battle for Middle Earth
- Painkiller (Patch)
- Vapire Bloodlines
- Driver 3

dildo4u
2004-07-02, 23:32:47
Original geschrieben von Winter[Raven]
- S.T.A.L.K.E.R.
- Lord of the Rings: Battle for Middle Earth
- Painkiller (Patch)
- Vapire Bloodlines
- Driver 3

schlechte beispiele S.T.A.L.K.E.R.
und Vampire kommen sicher nicht mher 2004

Jesus
2004-07-02, 23:33:01
Original geschrieben von Winter[Raven]
- S.T.A.L.K.E.R.
- Lord of the Rings: Battle for Middle Earth
- Painkiller (Patch)
- Vapire Bloodlines
- Driver 3

google: stalker sm3.0 ? ;D :asshole:

btw vampire benutzt hl2 engine ;)

dildo4u
2004-07-02, 23:35:39
Original geschrieben von Jesus
google: stalker sm3.0 ? ;D :asshole:

btw vampire benutzt hl2 engine ;)


http://www.bit-tech.net/images/feature/43/4.jpg
Stalker is powerd by nvidia also warum kein SM 3.0 vor kurzem sind ja ein paar ganz nette DX9 techdemo Videos dazu rausgekommen

BvB123
2004-07-02, 23:38:48
Original geschrieben von Jesus
1. pc games : sieh dir auch mal andere Benchmarks im Web an und nicht nur einen
2. und ist wohl auch leiser und verbraucht weniger strom ? loool...
3. ich nicht, hab 420 ;)
4. ah ja welche ?

1. ja habe ich

2. habe ich nie behauptet
3. sag ich ja

4. haben andere für mich schon beantwortet :)

Blaire
2004-07-02, 23:40:27
Metal of Honor: Pacific Assault ;D

Im übrigen reicht für die 6800 Ultra auch ein 300 Watt Netzteil. =)

MfG

deekey777
2004-07-02, 23:40:48
Original geschrieben von Jesus
google: stalker sm3.0 ? ;D :asshole:

btw vampire benutzt hl2 engine ;)

Zu STALKER: Die Ukrainer waren die ersten, die die Limits der PS 2.0 HW der R300er bemängelt und mehr "Freiraum" gefordert hatten. Darum werden die auch auf SM 3.0 setzen, um den SM 2.0 Limits zu "entliehen". Dazu kommt noch, dass sie etwas auf ATi sauer sind, da ATi ihnen keine Grafikkarten rechtzeitig geliefert haben soll.
Edit: STALKER hat die Beta-Phase erreicht.
Zu Vampire 2:
VALVe wird für HL2 ein SM 3.0 Update liefern - wohl aber erst mit dem R520.

Eins kann aber sagen: Wie weit werden die SM 3.0 Spiele mit ihren Anforderungen an die SM 3.0 HW gehen - Stichwort Alibi-SM 3.0?
Na Jesus, war wohl nix.

BvB123
2004-07-02, 23:42:02
Original geschrieben von deekey777

Na Jesus, war wohl nix.


Wie so oft :D :asshole:

Jesus
2004-07-02, 23:43:11
na wieso sind doch noch mehr als 50% ;) es ging um "dieses Jahr ;)"

Gast
2004-07-03, 01:06:31
Ich hoffe bei uns werden auch Passivgekühlte GF6800 erscheinen, macht sich gut in jedem Silence PC!

Galaxy HP 6800! - http://www.nvnews.net/ 7/02/04 @ 7:55 am

http://www.nvnews.net/images/news/200406/6800_1.jpg

IC-Burn
2004-07-03, 01:42:46
Original geschrieben von dildo4u
http://www.bit-tech.net/images/feature/43/4.jpg
Stalker is powerd by nvidia also warum kein SM 3.0 vor kurzem sind ja ein paar ganz nette DX9 techdemo Videos dazu rausgekommen


Hast links zu den Videos? würde gern ma sehn :)

dildo4u
2004-07-03, 01:51:10
http://www.on24.com/media/news/corporatevideo/events/6094/1_wmmulti.asf 150MB
Is die komplette presentation der 6800 geht über eine stunde

Melbourne, FL
2004-07-03, 02:36:26
Oh man...das ganze Geflame hier geht mir tierisch auf den Sack! Koennen die entsprechenden Personen sich nicht auf die Spielwiese verziehen und dort ihren Spass haben.

Es waere mal interessant rauszukriegen wo die drastischen Unterschiede bei den Benches von verschiedenen Seiten rauskommen...ist ja nicht das erste Mal in letzter Zeit. Bei Anandtech liegt die 6800 Ultra meilenweit vor der X800XT PE und beim Techreport liegen sie etwa gleichauf...meist ist sogar die X800XT PE ein wenig schneller. Bei Anandtech wird der Vorsprung der 6800Ultra bei Aktivierung von FSAA und AF drastisch groesser beim Techreport bleibt er gleich oder wird kleiner...wohlgemerkt bei gleicher Aufloesung (1600x1200). Also irgendwas haut da doch nicht hin... :???:

Alexander

Tjell
2004-07-03, 02:40:41
Original geschrieben von qqq
LOL das ist ja wieder geil !

Naja irgendwie kann mans NV ja auch nicht verübeln dass sie jetzt Crytek dafür bezahlen um ATI schlechter dastehen zu lassen. Schliesslich ist das SM3.0 in FC jetzt das einzige Argument um eine 6800 überhaupt zu kaufen. Oder wer will schon eine karte die 150 grad heiss wird, 2 Steckplätze belegt, ein riesen Netzteil benötigt, in allen anderen Spielen bei HQ settings langsamer ist und 5 sone laut ist ? :)
Und da in absehbarer Zukunft keine anderen Spiele mehr SM3 support bieten werden ist das auch in Ordnung so. Naja hoffen wir mal das ATI das richtig tut um diesem Beschiss ( wie wir es ja schon seit geraumer Zeit von NV gewohnt sind ) einhalt zu gebieten.
Also diesen Patch erstmal bitte nicht sooo ernst nehmen :)

ATI assures us that they have also been working with CryTek on their efforts. Since we have seen a performance improvement with the latest driver and new 1.2 patch, we don't have any reason to think that anything extraordinarily fishy is going on behind the scenes between NVIDIA and Crytek. (Quelle: Anandtech (http://www.anandtech.com/video/showdoc.html?i=2102&p=2))

Danke fürs Gespräch.



Ich bin mittlerweile für die Schließung dieses Threads, es wird hier doch sowieso mehr geflamt als diskutiert. :greydead:

IC-Burn
2004-07-03, 03:31:06
Original geschrieben von dildo4u
http://www.on24.com/media/news/corporatevideo/events/6094/1_wmmulti.asf 150MB
Is die komplette presentation der 6800 geht über eine stunde


Super Danke =)

Kladderadatsch
2004-07-03, 07:36:09
Original geschrieben von Melbourne, FL
Es waere mal interessant rauszukriegen wo die drastischen Unterschiede bei den Benches von verschiedenen Seiten rauskommen...ist ja nicht das erste Mal in letzter Zeit. Bei Anandtech liegt die 6800 Ultra meilenweit vor der X800XT PE und beim Techreport liegen sie etwa gleichauf...meist ist sogar die X800XT PE ein wenig schneller. Bei Anandtech wird der Vorsprung der 6800Ultra bei Aktivierung von FSAA und AF drastisch groesser beim Techreport bleibt er gleich oder wird kleiner...wohlgemerkt bei gleicher Aufloesung (1600x1200). Also irgendwas haut da doch nicht hin... :???:

Alexander

jo, das regt mich auch auf.
3dcenter braucht nochmal ein paar karten:)

Uller
2004-07-03, 08:28:48
So wie es aussieht hat Anandtech auf den Nvidia Karten Kantenglättug nicht aktiviert.
Die Benchmarks anderer Seiten sehen ganz anderst aus, die X800 XT hält hier mindestens gut mit, wenn sie nicht sogar ein Stück schneller ist!
Bei Firingsquad ist sie ohne AA/AF fast immer hinten, mit AA/AF fast immer - teils deutlich - vorne.
Sogar wenn man nur 4xAA und kein AF anschaltet holt die X800 XT so weit auf, dass sie in den meisten Fällen wieder vorne liegt! Sie ist also nicht nur wegen dem schnelleren ("optimierten") AF vorne.
http://www.firingsquad.com/hardware/far_cry_sm30/default.asp


Xbitlabs hat ziemlich ähnliche Ergebnisse, nur fehlen hier noch die AA und AA/AF Ergebnisse.
Ohne beides liegt die 6800 Ultra mit SM3.0 Pfad zumeist leicht vorne:
http://www.xbitlabs.com/articles/video/display/farcry30_6.html

Ich denke also diese Ergebnisse sind weit mehr wert als die von Anandtech, die offensichtlich wieder einmal sehr pro-Nvidia sind.

tokugawa
2004-07-03, 08:31:57
Original geschrieben von Gast
ich wüsste nicht das ATI seit den Q3 benches Applicationsspezifische "Optimierung" besitzt. Ganz im gegensatz zu Nvidia, die letzen waren übrigens die FartCry Optimierungen, daran möchte ich euch verblendeten nvidia Fanboys nur allzugerne erinnern ;)

Und bitte das Nv nicht die Finger bei Crytek im Spiel hat kannst du deiner Oma erzählen. Was meinst du wieviel Kohle das Crytek kosten würde extra die Engine mit neuen effektiven SM3 paths auszustatten? Glaubst du die machen sowas umsonst ? Nene da gibts schon fett was geschmiert von Big Nv. Wär ja nicht das erste mal ( siehe TR: AoD etc. )

Was willst du mit dem Post sagen? Ich glaube mich zu erinnern, dass ATI sehr wohl bei Quake 3 damals irgendwas eingebaut hat, das die Qualität verschlechterte und die Performance verbesserte (und was durch umbennenen von der Quake 3 .exe umgangen werden konnte). Ist das keine applikationsspezifische Optimierung?

Und das "Bezahlen" ist ja Standard für sowohl ATI (HL2) als auch NVIDIA.

Ob dabei auch vertraglich festgelegt wird, die Konkurrenz zu verlangsamen, ist reine Vermutung und Spekulation (Beweis hast du keinen, weder dass es NVIDIA tut, noch dass es ATI nicht tut), gehört also nicht in dieses Forum.

tokugawa
2004-07-03, 08:37:45
Original geschrieben von Jesus
google: stalker sm3.0 ? ;D :asshole:

btw vampire benutzt hl2 engine ;)

Es ist kein Problem in eine Engine, die bereits SM 2.0 unterstützt, SM 3.0 Support einzubauen. Speziell wenn sich die Engine oder das Spiel noch in der Entwicklung befindet.

Wenn also STALKER nicht mehr dieses Jahr rauskommt, bin ich mir absolut sicher, dass es einige 3.0-er Shader abbekommt.

Und dass Vampire die HL2 Engine benutzt ist kein "Beweis", dass es "nur" SM 2.0 unterstützt. Wie gesagt, der Einbau von SM 3.0 in eine SM2.0-fähige Engine ist relativ trivial; das einzige, was mehr Arbeit ist, ist wohl, Shader zu schreiben die SM 3.0 auch wirklich ausnutzen.

tokugawa
2004-07-03, 08:40:15
Original geschrieben von deekey777
Zu STALKER: Die Ukrainer waren die ersten, die die Limits der PS 2.0 HW der R300er bemängelt und mehr "Freiraum" gefordert hatten. Darum werden die auch auf SM 3.0 setzen, um den SM 2.0 Limits zu "entliehen". Dazu kommt noch, dass sie etwas auf ATi sauer sind, da ATi ihnen keine Grafikkarten rechtzeitig geliefert haben soll.
Edit: STALKER hat die Beta-Phase erreicht.
Zu Vampire 2:
VALVe wird für HL2 ein SM 3.0 Update liefern - wohl aber erst mit dem R520.

Eins kann aber sagen: Wie weit werden die SM 3.0 Spiele mit ihren Anforderungen an die SM 3.0 HW gehen - Stichwort Alibi-SM 3.0?
Na Jesus, war wohl nix.

Es steht ja den Entwicklern von Vampire auch frei, einen SM 3.0 Support selbst einzubauen. Dürfte nicht so schwer sein (bzw geradezu trivial). Ich glaube die Lizenzbedingungen der Source Engine erlauben eine solche Modifikation (wär ja logisch, (fast) jede andere lizenzierbare Engine erlaubt noch viel weitgehendere Modifikationen).

tombman
2004-07-03, 09:52:06
Tjo, ihr seht ja was für ein Chaos herrscht bei den reviewern- einer zeigt bei AA/AF ati schneller, der andere genau das Gegenteil.
Wahrscheinlich hat Anandtech gar ned mitbekommen, daß er bei far cry kein AA per CP erzwingen kann BEI NVIDIA sodaß es dann eben ohne AA lief...lol. (bei ATI geht zwingen aber)

Meiner Erfahrung seit der 9700pro ist, daß es IMMER ATi sind, die weniger fps verlieren wenn man AA/AF dazuschaltet und meistens Nvidia diejenigen sind, die ohne alles schneller sind. Sollte mich wundern wenn das bei der NV40-r420 anders wäre.

Dann noch der riesige Nvidia $$$$$ Schatten, der über der ganzen far cry Sache schwebt- hinterläßt einfach einen schlechten Nvidia Nachgeschmack.
(zb dieses Pic: toller 1.2 patch läßt nvidia schneller werden indem man ATI langsamer macht ---> top idee ;))
http://img.hexus.net/v2/features/farcry12/images/x800.png

Aber genau deshalb gibts ja den lieben tombman, der kann euch das alles schön durchtesten mit genauesten settings, drivers usw :D

Ich bin der Fels in der Brandung, die Festung im Sturm ;)

Gast
2004-07-03, 10:09:41
Wem wirfst du etwas vor? Ati und Crytek haben doch zusammen am Patch gearbeitet, nur wird da wohl etwas schief gegangen sein...

LovesuckZ
2004-07-03, 10:32:50
Original geschrieben von Gast
Wem wirfst du etwas vor? Ati und Crytek haben doch zusammen am Patch gearbeitet, nur wird da wohl etwas schief gegangen sein...

Stimmt, immerhin scheint ATi der Patenonkel von Farcry zu sein...

Demirug
2004-07-03, 10:37:39
tombman, das man bei Anandtech öfter mal was nicht auf die Reihe bekommt ist ja nun nichts neues.

Das manche einen Einbruch bei der X800 durch den neuen Patch hatten ist natürlich merkwürdig. Das nun aber keiner der Sache nachgegangen ist zeigt mal wieder ganz eindeutig das sie eben doch nicht mehr können oder wollen als ihere Benchmarks laufen zu lassen.

nggalai
2004-07-03, 10:39:59
Original geschrieben von seahawk
Aber selbst in den alten Demos sieht man einen Zugewinn. ... und in den in-game Benchmarks auf nvnews ...

93,
-Sascha.rb

LovesuckZ
2004-07-03, 10:41:45
Original geschrieben von nggalai
... und in den in-game Benchmarks auf nvnews ...
93,
-Sascha.rb

Da die Demos meisten ohne Gegener ablaufen: Kann GI in solchen Szenen mit Gegnern fuer einen deutlichen Leistungsanstieg sorgen, da man die CPU entlastet?

nggalai
2004-07-03, 10:44:09
Original geschrieben von Uller
Das habe ich auch gerade beim Hexus.net Test gelesen.

Das ist nicht ok, Nvidia! :rail:

Die X800 Karten stellen sicher nichts anderes dar als vorher, und nun haben sie auf einmal soviel weniger Performance!
Von 58fps auf 50fps, wg. einer neuen und "verbesserten" Version des Spiels. Toll. Und was hat NV damit zu tun? Wir erinnern uns:

[...] I remember supporting Crytek 4 years ago when they were only 6 people working on an unheard of demo. Obviously our support increased as their team grew and they signed their game to Ubisoft. Look at them now! Far Cry has been on top of the PC charts in many countries and they have an excellent engine that they are licensing to other developers. You never know where a small developer will be in 2 years' time and because of this ATI have additional resources in Canada dedicated to supporting smaller and non-established developers to ensure that all games run well on ATI hardware. [...]

Link (http://www.3dcenter.org/artikel/2004/06-30_b_english.php)
93,
-Sascha.rb

tombman
2004-07-03, 10:53:15
Original geschrieben von Demirug
tombman, das man bei Anandtech öfter mal was nicht auf die Reihe bekommt ist ja nun nichts neues.

Das manche einen Einbruch bei der X800 durch den neuen Patch hatten ist natürlich merkwürdig. Das nun aber keiner der Sache nachgegangen ist zeigt mal wieder ganz eindeutig das sie eben doch nicht mehr können oder wollen als ihere Benchmarks laufen zu lassen.

Noch nie gabs soviel Abweichungen bei benchmarks wie diesmal, deshalb hab ich auch beide gekauft... da muß man sich ja quasi selbst ein Bild machen....

Btw, ich meine einen trend beobachtet zu haben, daß ATI eine echt schnelle cpu braucht um so richtig zu ownen- kann des möglich sein?

Endorphine
2004-07-03, 11:04:42
Ich denke, dass Far Cry gnadenlos überbewertet wird. Dieses Spiel ist nicht die einzige Anwendung für aktuelle 3D-Beschleuniger, sondern eher eine von vielen. Welche Grafikkarte nun für den einzigen die optimale Wahl darstellt hängt von zu vielen verschiedenen Faktoren ab, als dass man dies an der Balkenlänge in einem Benchmarkvergleich nur an Hand eines einzigen Spiels festmachen könnte.

Ich würde es mir wünschen, dass sich der Thread wieder mehr um technische Details und neue Erkenntnisse des NV40 dreht, statt sich hier gegenseitig mit irgendwelchen Balkenlängen die Köpfe einzuschlagen. Es macht einfach keinen Spass mehr, hier bei diesem Diskussionsniveau noch mitzulesen.

Und dann kann ich mir etwas leider nicht verkneifen... Wenn das Punkte gibt nehme ich diese billigend in Kauf. Das ist es mir wert, sorry.
Original geschrieben von tombman
Ich bin der Fels in der Brandung, die Festung im Sturm ;) Kannst du solcherlei Kommentare nicht einfach mal stecken lassen? Du kannst deine Meinung auch vertreten ohne dich als Rächer eines scheinbar unterdrückten Marktführers aufzuführen.

Schau dir deine Postings mal ohne diese geistigen Exkremente an. Zumindest interessant und mal eine andere Sichtweise auf die Dinge. Warum entwertest du deine Postings permanent mit solcherlei Kommentaren?

Ich glaube, dass ich nicht der einzige bin, der bei dir eher an einen engstirnigen und bornierten Provokanten denkt, denn an einen "Fels in der Brandung", der Glorifikation verdient hätte.

Hast du es wirklich nötig, dich immer wieder auf dieses Niveau herab zu begeben?

Mr. Lolman
2004-07-03, 14:01:01
Original geschrieben von Endorphine
Kannst du solcherlei Kommentare nicht einfach mal stecken lassen? Du kannst deine Meinung auch vertreten ohne dich als Rächer eines scheinbar unterdrückten Marktführers aufzuführen.

Schau dir deine Postings mal ohne diese geistigen Exkremente an. Zumindest interessant und mal eine andere Sichtweise auf die Dinge. Warum entwertest du deine Postings permanent mit solcherlei Kommentaren?

Ich glaube, dass ich nicht der einzige bin, der bei dir eher an einen engstirnigen und bornierten Provokanten denkt, denn an einen "Fels in der Brandung", der Glorifikation verdient hätte.

Hast du es wirklich nötig, dich immer wieder auf dieses Niveau herab zu begeben?

Hätte eine PN mit dem gleichen Inhalt nicht auch ihren Zweck erfüllt, oder wolltest du mit deiner Zurechtweisung Tombman auch gleich ein kleines bisschen diskreditieren?


@aths:

Was für Vorteile hat MDR ggü. HDR?

@all:

HDR != Überbelichtung. Der Wertebereich bei HDR ist einfach grösser. Deswegen können auch dunkle Flächen feiner abgestuft werden als beim normalen Rendering.

VooDoo7mx
2004-07-03, 15:46:40
Original geschrieben von tombman
Aber genau deshalb gibts ja den lieben tombman, der kann euch das alles schön durchtesten mit genauesten settings, drivers usw :D


Sorry, aber auf deine Tests und deine "objektive" Meinung kann ich sehr gerne verzichten.

Am meisten währe ich, an einen interessanten 3dcenter Artikel interessiert, den es höchstwarscheinlich auch geben wird. :-)

Jesus
2004-07-03, 16:45:43
hier noch was intressantes, könnte auch die mehrleistung der nv40 karten mit dem patch gerklären, zumindest bringt bei mir Schattenqualität auf medium ganz gewaltig Performance :)

Patch 1.2:
ATI RADEON X800 XT
http://www.xbitlabs.com/images/video/farcry30/radeon_shadows.jpg

NVIDIA GeForce 6800 Ultra
http://www.xbitlabs.com/images/video/farcry30/geforce_shadows.jpg

Ranz0r
2004-07-03, 17:17:44
Original geschrieben von Jesus
hier noch was intressantes, könnte auch die mehrleistung der nv40 karten mit dem patch gerklären, zumindest bringt bei mir Schattenqualität auf medium ganz gewaltig Performance :)

Patch 1.2:
ATI RADEON X800 XT
http://www.xbitlabs.com/images/video/farcry30/radeon_shadows.jpg

NVIDIA GeForce 6800 Ultra
http://www.xbitlabs.com/images/video/farcry30/geforce_shadows.jpg

Und? Spielst du mit ner 6800U auf Medium? Wie einige Atianer doch immer sagen: Im Spiel sieht man es nicht (auf die Optimierugnen bezogen). Medium ist bei diesen GraKas eh schon keine Option, da kann man sich genausogut ne 9600Pro holen.... Und bei alles auf High sieht man, bis auf etwas wenigen "Belichtung" der Bumps keinen Unterschied, zumal etwas weniger meinem subjektiven Urteilungsvermögen nach besser aussieht.

Allerdings ist das für Medium (sofern man das auf ner 6800 überhaupt nötig ist das mal durchzugucken) schon nen bissl ungenau, da muss ich dir Recht geben. Aber Praxisnahe ist es in keinem Fall.

Jesus
2004-07-03, 17:35:14
Original geschrieben von Ranz0r
Und? Spielst du mit ner 6800U auf Medium? ...

eh das ist nicht medium( es sieht nur so aus :) ), das ist very high auf ner X800 und ner 6800 im Vergleich...

BvB123
2004-07-03, 17:36:05
Nein.

Jesus
2004-07-03, 18:21:45
Original geschrieben von BvB123
Nein.

rofl ok dann glaubs halt nicht, ist mir auch egal :)

steht alles hier geschrieben:

http://www.xbitlabs.com/articles/video/display/farcry30_4.html

Tjell
2004-07-03, 18:21:47
Original geschrieben von Jesus
eh das ist nicht medium( es sieht nur so aus :) ), das ist very high auf ner X800 und ner 6800 im Vergleich...

Erklärender Text der X-bit labs:
NVIDIA seems to have a driver bug that results in very rough shadows in the game. This is unlikely to affect performance seriously as shadows in FarCry hardly require any significant computing power, though, this is something negative we can tell about the new set of drivers.


Seit ich mich in dieses Forum zum ersten Mal begeben habe, sehe ich Dich, lieber Jesus, nur mit blöden Mutmaßungen, Unterstellungen, aus dem Kontext gerissenen Bildern und Textstellen sowie Behauptungen in dümmlichster Art und und Weise gegen den NV40 wettern. Und wo macht der werte Herr das zu allem Überfluß? Natürlich im offiziellen NV40-Thread.

MAN! Du solltest mal an Deiner Art Deiner Beiträge arbeiten! Wenn Du das Ganze mal konstruktiv angehen würdest, könnte man/ich Dir garnichts vorwerfen, aber Du scheinst doch stattdessen ein ziemliches Bedürfnis an den Tag zu legen, den NV40 auf alle erdenklichen Arten schlecht zu machen.

:jedifire:

seahawk
2004-07-03, 18:22:39
Original geschrieben von Gast
ich wüsste nicht das ATI seit den Q3 benches Applicationsspezifische "Optimierung" besitzt. Ganz im gegensatz zu Nvidia, die letzen waren übrigens die FartCry Optimierungen, daran möchte ich euch verblendeten nvidia Fanboys nur allzugerne erinnern ;)

Und bitte das Nv nicht die Finger bei Crytek im Spiel hat kannst du deiner Oma erzählen. Was meinst du wieviel Kohle das Crytek kosten würde extra die Engine mit neuen effektiven SM3 paths auszustatten? Glaubst du die machen sowas umsonst ? Nene da gibts schon fett was geschmiert von Big Nv. Wär ja nicht das erste mal ( siehe TR: AoD etc. )

Zu den applikationsspezifischen Optimierungen im Treiber empfehle ich das Interview mit den Mitarbeitern des ATI Dev-Supports hier auf 3dc zu lesen.

Jesus
2004-07-03, 18:27:13
Original geschrieben von Tjell
Erklärender Text der X-bit labs:

Seit ich mich in dieses Forum zum ersten Mal begeben habe, sehe ich Dich, lieber Jesus, nur mit blöden Mutmaßungen, Unterstellungen, aus dem Kontext gerissenen Bildern und Textstellen sowie Behauptungen in dümmlichster Art und und Weise gegen den NV40 wettern. Und wo macht der werte Herr das zu allem Überfluß? Natürlich im offiziellen NV40-Thread.

MAN! Du solltest mal an Deiner Art Deiner Beiträge arbeiten! Wenn Du das Ganze mal konstruktiv angehen würdest, könnte man/ich Dir garnichts vorwerfen, aber Du scheinst doch stattdessen ein ziemliches Bedürfnis an den Tag zu legen, den NV40 auf alle erdenklichen Arten schlecht zu machen.

:jedifire:

zeit für nen punkt ? oder willst du den threat schliessen ? :) sorry wenn ich dich mit den Bildern in deiner NV Fanboy Ehre gekränkt habe, aber ich habe da überhaupt nichts aus dem Kontext gerissen, sondern nur meine Meinung dazu gegeben. Wenn Xbitlabs sagt das Schatten "wohl" keine grossen Einfluss auf die Performance haben "würden" dann muss das noch lange nicht stimmen. Fakt ist der Schatten auf der 6800 ist weniger detailiert und wie ich oben angegeben habe sind BEI MIR Schatten sehr wohl ausschlaggebend für die Performance, und das nicht zu knapp...

Gohan
2004-07-03, 18:35:27
Bitte sachlich bleiben und Schrifftgröße auf ein normales Maß runter korregieren.

Tjell kommt auf meine neue "vermerkt Liste".

@Jesus: Auch aufpassen, wenn Punkte nötig sind, wird es sie schon geben, da brauchen wir keine Tipps.

BvB123
2004-07-03, 18:41:08
Original geschrieben von Tjell
Erklärender Text der X-bit labs:



Seit ich mich in dieses Forum zum ersten Mal begeben habe, sehe ich Dich, lieber Jesus, nur mit blöden Mutmaßungen, Unterstellungen, aus dem Kontext gerissenen Bildern und Textstellen sowie Behauptungen in dümmlichster Art und und Weise gegen den NV40 wettern. Und wo macht der werte Herr das zu allem Überfluß? Natürlich im offiziellen NV40-Thread.

MAN! Du solltest mal an Deiner Art Deiner Beiträge arbeiten! Wenn Du das Ganze mal konstruktiv angehen würdest, könnte man/ich Dir garnichts vorwerfen, aber Du scheinst doch stattdessen ein ziemliches Bedürfnis an den Tag zu legen, den NV40 auf alle erdenklichen Arten schlecht zu machen.

:jedifire:


FULL ACK

Tjell
2004-07-03, 18:43:15
Das ist es mir wert, mit der "Vermerkt-Liste".



Original geschrieben von Jesus
...oder willst du den threat schliessen ? :) ...
Ja, klar, Jesus das Unschuldslamm.

Original geschrieben von Jesus
...sorry wenn ich dich mit den Bildern in deiner NV Fanboy Ehre gekränkt habe,...
"Fanboy". Lachhaft. Die einzige Bezeichnung, die man mir ernsthaften andichten darf, ist "ATI-Meider", und das auch nur in der persönlichen Graka-Wahl.

Original geschrieben von Jesus
zeit für nen punkt?...
.

Jesus
2004-07-03, 18:46:14
wo wir schon beim Thema sind, anandtech haben ihr Review upgedated :) ich zitiers jetzt nicht sonst bin ich wieder der böse NV basher :) als lest selbst ...

http://www.anandtech.com/video/showdoc.html?i=2102:D

Wallman
2004-07-03, 18:56:16
So sind die Werte schon viel glaubwürdiger!
Im Schnitt kann man sagen,dass ATI und Nvidia
von der Performance her jetzt gleichauf liegen.
Was will man mehr?

Jesus
2004-07-03, 18:59:16
stimmt, aber nur fast, abzüglich dem hier :)

Original geschrieben von tombman
http://img.hexus.net/v2/features/farcry12/images/x800.png
...

Tjell
2004-07-03, 19:01:35
Aus Anandtech.com, FarCry v1.2 SM3.0 Path Analysis, Introduction, Update:
UPDATE: It has recently come to our attention that our 4xAA/8xAF benchmark numbers for NVIDIA 6800 series cards were incorrect when this article was first published. The control panel was used to set the antialiasing level, which doesn't work with FarCry unless set specifically in the FarCry profile (which was not done here). We appologize for the error, and have updated our graphs and analysis accordingly.

Aus Anandtech.com, FarCry v1.2 SM3.0 Path Analysis, Final Words, Update:
UPDATE: CryTek has pointed out that the new lighting implimentation is essentially the same but uses branching in the pixel shader to accomplish what needed to be done in multiple shaders under the PS2.0 path. This indicates that the conditional rendering feature of SM3.0 is actually faster than using multiple shaders (which gives NVIDIA 6 series cards a performance advantage when multiple shaders would have been required).

Mein persönliches Fazit hieraus: die derzeit in Entwicklung befindlichen Spiele mit SM2.0 werden nur geringfügige Mehrleistung aus dem Einsatz von SM3.0 erzielen.
SM3.0 ist somit mehr oder weniger ein "Goodie".


@Jesus
Letzte Worte zu meinem "Aufreger-Post":
Du hast fast immer nur Meldungen wie Rosinen aus den News gepickt, die gegen den NV40 sprechen. Das könntest DU wenigstens mal zugeben.

Demirug
2004-07-03, 19:02:35
Tjell, ich wünsche dir die Kraft, zu ändern, was zu ändern ist. Die Geduld, zu akzeptieren, was nicht zu ändern ist, und die Weisheit beides zu unterscheiden.

Jesus, ich weiss das Provokation ein äussert schöner Zeitvertreib sein kann. Vorallem wenn man jemanden findet der sich provozieren lässt. Im öffentlichen Raum gelingt das ja fast immer und wenn der Raum dann noch so schön anonym wie das Internet ist braucht man sich noch nicht darüber Gedanken zu machen was andere von einem halten. Wobei das einem professionellen Provokateur sowwieso egal ist. Kennengelernt haben wir dich als harten Kritiker von nVidia und den Produkten dieser Firma. Und ja es ist gut das es solche Leute gibt. Auch deine vorliebe aus den reichhaltigen Inhalten des Internets zu schöpfen ist per se nichts schlechtes. Jedoch wäre es wohl fair gegenüber den Quellen deiner reichhaltigen Entdeckungen diese durch einen Link auf das jeweils vollständige Werk ihres Schaffens zu würdigen. Es würden sich auch vielfach die von dir sicherlich nicht beabsichtigten Missverständnisse vermeiden lassen wenn deine Auszüge vollständiger ausfallen würden. So wie es höfflich ist jemanden aussprechen zu lassen ist es auch höfflich die Gedanken eines Reviewers zu einem von ihm aufgenommen Bild nicht von dem Bild zu trennen. Das heist natürlich nicht das man sich die Meinung des Autors zu eigen machen soll und muss. Natürlich darf man es anders sehen und in diesem Fall macht man es sich ja sogar einfacher wenn man auf die Vorlage nur eingehen muss und nicht aus dem Nichts heraus seine Gedanken darstellen muss.


Auch wenn ich jetzt Tjell und Jesus direkt angesprochen habe so gilt das hier gesagte in dieser oder ähnlicher Form für jeden.

Jesus
2004-07-03, 19:04:23
Original geschrieben von Tjell
@Jesus
Letzte Worte zu meinem "Aufreger-Post":
Du hast fast immer nur Meldungen wie Rosinen aus den News gepickt, die gegen den NV40 sprechen. Das könntest wenigsten mal zugeben.

völlig korrekt, ich versuche aber nur die Sachen ins rechte Licht zu rücken :) nicht schlechter zu machen als sie sind ( habe weder x800 noch 6800 ;) werd ich mir auch nicht so schnell kaufen ... )

@demi:
bisher habe ich immer links zu meinen Zitaten angegeben, diesmal leider vergessen sorry :)
/Edit:bzw. nachgereicht, nicht vergessen ;)

Wallman
2004-07-03, 19:07:32
Mein persönliches Fazit hieraus: die derzeit in Entwicklung befindlichen Spiele mit SM2.0 werden nur geringfügige Mehrleistung aus dem Einsatz von SM3.0 erzielen.

Ein "Goodie" vielleicht,aber ein nützliches!
Da ich mir Grafikkarten nur so alle 2 Jahre leisten
kann ist mir so ein FReature wie SM 3.0 sehr wichtig.

Ich bin mir sicher,dass ich Ende 2005 noch großen Nutzen
daraus ziehen werde.(Ati bringt ja auch SM 3.0 2005)

Tjell
2004-07-03, 19:07:49
Original geschrieben von Demirug
...
Auch wenn ich jetzt Tjell und Jesus direkt angesprochen habe so gilt das hier gesagte in dieser oder ähnlicher Form für jeden.
Oh Herr, führe mich nicht in Versuchung, sondern erlöse mich von dem Bösen...

Ich lasse mich leider zu leicht dazu hinreißen, auf den Tisch zu hauen. :saiyan:

ShadowXX
2004-07-03, 19:09:19
UPDATE: CryTek has pointed out that the new lighting implimentation is essentially the same but uses branching in the pixel shader to accomplish what needed to be done in multiple shaders under the PS2.0 path. This indicates that the conditional rendering feature of SM3.0 is actually faster than using multiple shaders (which gives NVIDIA 6 series cards a performance advantage when multiple shaders would have been required).


Falls das tatsächlich so stimmen sollte, kann man aber (zumindest IMHO) sagen, das das SM3.0 beim nv40 durchaus nutzbar ist und auch durchaus was bringen kann..

Und wenns nur gegenüber einem SM2.0-Only-Pfad auf dem nv40 ist...

Jesus
2004-07-03, 19:09:33
Original geschrieben von Tjell
Oh Herr, führe mich nicht in Versuchung, sondern erlöse mich von dem Bösen...

Ich lasse mich leider zu leicht dazu hinreißen, auf den Tisch zu hauen. :saiyan:

deine sünden seien dir vergeben mein sohn :D

Demirug
2004-07-03, 19:15:04
Was das Branching angeht wäre ich etwas vorsichtig. Ich habe den Verdacht das Crytek und Anandtech da aneinader vorbei geredet haben. Aber das lässt sich ja überprüfen.

seahawk
2004-07-03, 19:31:55
Original geschrieben von Demirug
Was das Branching angeht wäre ich etwas vorsichtig. Ich habe den Verdacht das Crytek und Anandtech da aneinader vorbei geredet haben. Aber das lässt sich ja überprüfen.

Branching würde mich überraschen. Aber andererseits überrascht mich bei CryTek nichts mehr. Mal abwarten bis der Patch da ist.

Sonst erstmal danke an Jesus für den Hinweis auf das Update des Anand Artikels.

Imho imho läst sich jetzt ein Fazit ziehen.

Der NV40 profitiert von der Anwendung von SM3.0. In manchen Situation ist er dadurch sogar in der Lage den R420 zu schlagen. In der Regl liegt der R420 weiter vorne. Benches mit AA/AF zeigen das bekannte Bild. Hier ist halt auch das Level der Optimierungen zu beachten. Was jetz noch toll wäre, wären Benchens bei den die Optimierungen bei beiden Chips abgestellt wurden.

Demirug
2004-07-03, 20:09:05
Original geschrieben von seahawk
Branching würde mich überraschen. Aber andererseits überrascht mich bei CryTek nichts mehr. Mal abwarten bis der Patch da ist.

Warten macht keinen Spass. Ich würde jedenfalls keinen müden Cent darauf setzten das ein SM3 Chip mit dem Patch 1.2 Branches in den Pixelshadern zu sehen bekommt.

Imho imho läst sich jetzt ein Fazit ziehen.

Der NV40 profitiert von der Anwendung von SM3.0. In manchen Situation ist er dadurch sogar in der Lage den R420 zu schlagen.

Auch wenn ich mich wiederhole. Ein nicht unwesentlicher Teil der Performances des neuen teils kommt nicht durch SM3 sondern durch die bessere Nutzung der Features von DX9 Karten. Das ganze wäre auch schon für die NV3X Reihe und im kleineren Umfang für die R3XX möglich gewesen. Mit Ruhm hat sich Crytek deshalb da gerade nicht bekleckert weil diese optimierungen erst jetzt und dann nur für SM3 Karten kommen. Sowas geht besser.

Melbourne, FL
2004-07-03, 21:25:51
Original geschrieben von Demirug
Auch wenn ich mich wiederhole. Ein nicht unwesentlicher Teil der Performances des neuen teils kommt nicht durch SM3 sondern durch die bessere Nutzung der Features von DX9 Karten. Das ganze wäre auch schon für die NV3X Reihe und im kleineren Umfang für die R3XX möglich gewesen. Mit Ruhm hat sich Crytek deshalb da gerade nicht bekleckert weil diese optimierungen erst jetzt und dann nur für SM3 Karten kommen. Sowas geht besser.

Vor allem weil auch die FX 5950 Ultra durch den neuen Patch massiv an Performance verliert (siehe: X-bit labs)...eigentlich haette man da ja auch eine Steigerung erwarten duerfen...oder zumindest keinen Einbruch.

Alexander

PS: Hier wuerde mich mal aths Meinung vom FarCry-Patch interessieren. Bisher war er ja immer der Meinung, dass der NV40 durch ordentliche Optimierung auf ihn (in dem Fall positive Optimierung durch bessere Auslastung der Shadereinheiten) den R420 alt aussehen lassen wuerde...aber speziell mit FSAA und AF scheint ja immer noch die X800XT deutlich vor der 6800 Ultra zu liegen und das trotz aufwaendiger Optimierung und sogar SM3.0 Support. Hat CryTek nicht ausfuehrlich genug optimiert oder kann man durch die Optimierungen doch nicht so viel herausholen wie angenommen? Oder ist der Techlevel von FarCry zu niedrig und der NV40 entfaltet seine Leistung erst bei komplexeren Shadern?

seahawk
2004-07-03, 21:47:40
Original geschrieben von Melbourne, FL
Alexander

PS: Hier wuerde mich mal aths Meinung vom FarCry-Patch interessieren. Bisher war er ja immer der Meinung, dass der NV40 durch ordentliche Optimierung auf ihn (in dem Fall positive Optimierung durch bessere Auslastung der Shadereinheiten) den R420 alt aussehen lassen wuerde...aber speziell mit FSAA und AF scheint ja immer noch die X800XT deutlich vor der 6800 Ultra zu liegen und das trotz aufwaendiger Optimierung und sogar SM3.0 Support. Hat CryTek nicht ausfuehrlich genug optimiert oder kann man durch die Optimierungen doch nicht so viel herausholen wie angenommen? Oder ist der Techlevel von FarCry zu niedrig und der NV40 entfaltet seine Leistung erst bei komplexeren Shadern?

Es wurde mit aktivierten Filtertricks + AF Optimierungen gebencht.

Gast
2004-07-03, 22:48:11
Original geschrieben von seahawk
Es wurde mit aktivierten Filtertricks + AF Optimierungen gebencht.

Bei beiden?

aths
2004-07-03, 22:53:44
Original geschrieben von Melbourne, FL
PS: Hier wuerde mich mal aths Meinung vom FarCry-Patch interessieren. Bisher war er ja immer der Meinung, dass der NV40 durch ordentliche Optimierung auf ihn (in dem Fall positive Optimierung durch bessere Auslastung der Shadereinheiten) den R420 alt aussehen lassen wuerde...aber speziell mit FSAA und AF scheint ja immer noch die X800XT deutlich vor der 6800 Ultra zu liegenWurde wo mit AA und ohne AF bzw. ohne AA und mit AF gebencht? Ansonsten könnten diese Benchmarks u. U. nur "beweisen", dass ATI beim AF mehr Qualität spart als NV.
Original geschrieben von Melbourne, FL
und das trotz aufwaendiger Optimierung und sogar SM3.0 Support. Hat CryTek nicht ausfuehrlich genug optimiert oder kann man durch die Optimierungen doch nicht so viel herausholen wie angenommen? Oder ist der Techlevel von FarCry zu niedrig und der NV40 entfaltet seine Leistung erst bei komplexeren Shadern? Grob gesagt: Je länger der Shader, desto eher kann NV40 seine Muskeln spielen lassen (im Vergleich mit X800.)

Vermutlich sind die 3.0-Compiler und die Shader-Optimierer im Treiber noch nicht voll ausgereift. Handoptimierung könnte sicher was bringen, aber Handoptimierung ist per se der falsche Weg für sowas.

Melbourne, FL
2004-07-03, 23:17:45
Original geschrieben von aths
Wurde wo mit AA und ohne AF bzw. ohne AA und mit AF gebencht? Ansonsten könnten diese Benchmarks u. U. nur "beweisen", dass ATI beim AF mehr Qualität spart als NV.

Leider nicht. Und leider wurde auch immer mit aktivierten Optimierungen gebencht...zumindest die Tests die ich gelesen habe. Ehrlich gesagt gehen mir die ganzen Tests gegen den Strich...kaum einer macht eine halbwegs vollstaendige Analyse...welchen Unterschied machen die Optimierungen (keiner), wie sieht es aus wenn man nur FSAA oder nur AF aktiviert (keiner), wie beeinflusst der Patch die "alten" Grafikkarten (nur X-bit-labs und auch nur ohne FSAA und AF). Anandtech hat ja noch nicht mal gemerkt, dass FSAA beim NV40 nicht aktiv war... :eyes:

Original geschrieben von aths Grob gesagt: Je länger der Shader, desto eher kann NV40 seine Muskeln spielen lassen (im Vergleich mit X800.)

Vermutlich sind die 3.0-Compiler und die Shader-Optimierer im Treiber noch nicht voll ausgereift. Handoptimierung könnte sicher was bringen, aber Handoptimierung ist per se der falsche Weg für sowas.

Also das heisst...weiter warten ob der NV40 wirklich schneller sein kann als der R420.

Alexander

BvB123
2004-07-03, 23:22:21
Doch haben sie anandtech hat doch inzwischen nen update gemacht!

LovesuckZ
2004-07-04, 00:16:34
Original geschrieben von Melbourne, FL
Vor allem weil auch die FX 5950 Ultra durch den neuen Patch massiv an Performance verliert (siehe: X-bit labs)...eigentlich haette man da ja auch eine Steigerung erwarten duerfen...oder zumindest keinen Einbruch.

Nein, man hat die vermurkste Qualitaet wieder gerade gerichtet.

aber speziell mit FSAA und AF scheint ja immer noch die X800XT deutlich vor der 6800 Ultra zu liegen und das trotz aufwaendiger Optimierung und sogar SM3.0 Support.

Vergleiche bei Firingsquad mal die AA und AA/AF vergleiche. Es faellt auf, dass ATi beim Zuschalten von AF kaum Leistung verliert. Da Nvidia nicht so gut optimiert (keine zusaetzliche LOD Verschiebung beim AF), liegt ATI vorne.
Hoffnung bleibt aber solange noch bestehen, bisd Computerbase.de ihr Review online bringt.

aths
2004-07-04, 01:39:43
Original geschrieben von Melbourne, FL
Leider nicht. Und leider wurde auch immer mit aktivierten Optimierungen gebencht...zumindest die Tests die ich gelesen habe. Ehrlich gesagt gehen mir die ganzen Tests gegen den Strich...kaum einer macht eine halbwegs vollstaendige Analyse...welchen Unterschied machen die Optimierungen (keiner), wie sieht es aus wenn man nur FSAA oder nur AF aktiviert (keiner), wie beeinflusst der Patch die "alten" Grafikkarten (nur X-bit-labs und auch nur ohne FSAA und AF). Anandtech hat ja noch nicht mal gemerkt, dass FSAA beim NV40 nicht aktiv war... :eyes: Insofern würde ich die Ergebnisse nicht überinterpretieren. Gerade wenn eine Karte beim Zuschalten von AF wenig Leistung verliert, obwohl ein starkes CPU-Limit unwahrscheinlich ist, sollte man eher die AF-Qualität hinterfragen als der Karte hohe Performance andichten. Damit AF "nutzbar" wird, muss die Grundperformance hoch genug sein. Ein AF was immer nur wenig Leistung kostet, kann nicht viel Zusatzqualität bringen.

Original geschrieben von Melbourne, FL
Also das heisst...weiter warten ob der NV40 wirklich schneller sein kann als der R420.Er kann schneller sein, das ist nicht die Frage :) Der umgekehrte Fall gilt auch. Nur dass der NV40 ggü. R420 insgesamt mehr Vor- als Nachteile hat. Kurze grobe Übersicht (enthält streng genommen Fehler. Konkreter wird es bald in einem Artikel.)

R420 kann pro Takt: 1 MAD3, 1 MAD oder SFU*, 1 Tex.

NV40 kann pro Takt: 1 MAD3, 1 MAD, 1 Tex oder Mul3, sowie bis zu 2 SFU pro Takt (mit bestimmten Abhängigkeiten, die nicht so schnell erklärt sind.) und das NRM_PP. Und FP16-Texturen in der TMU filtern (dauert doppelt so lange wie FX8-Texturen, ist gegenüber der Methode im Pixelshader zu filtern aber saubillig.)

Im Wesentlichen gibts beim NV40 pro Takt eine FP32-Multiplikation zusätzlich, SFUs sind aufgrund bestimmter Optimierungen (teilweise deutlich) schneller, und mit NRM_PP spart man je nach Rechnung 1,5 - 3 Takte. Mit der FP16-Filterung, so man sie braucht, spart man noch sehr viel mehr Takte.

Man könnte u. U. auch in Rechnung stellen, dass R420 pro Kanal nur 24 Bit berechnet, NV40 (ausgenommen NRM_PP) 32 Bit. Ob man das "braucht", wäre die zweite Frage, immerhin kann jede NV40-Pipe pro Takt bis zu 8 FP32-Werte multiplizieren, eine R420-Pipe pro Takt nur 4 FP24-Werte.

* Viele SFUs dauern länger als 1 Takt. NV40 hat mehr SFUs besondes beschleunigt als R420.

aths
2004-07-04, 01:49:49
Original geschrieben von Mr. Lolman
@aths:

Was für Vorteile hat MDR ggü. HDR?Keine. HDR sage ich erst ab FP32.

Coda
2004-07-04, 03:47:18
Sag mal aths, unterschreibst du eigentlich NDAs oder woher nimmst du diese Infos?

Tigerchen
2004-07-04, 06:28:36
Original geschrieben von aths
Insofern würde ich die Ergebnisse nicht überinterpretieren. Gerade wenn eine Karte beim Zuschalten von AF wenig Leistung verliert, obwohl ein starkes CPU-Limit unwahrscheinlich ist, sollte man eher die AF-Qualität hinterfragen als der Karte hohe Performance andichten. Damit AF "nutzbar" wird, muss die Grundperformance hoch genug sein. Ein AF was immer nur wenig Leistung kostet, kann nicht viel Zusatzqualität bringen.


Könntest du diese provokative Polemik bitte lassen. Du weißt das es Leute gibt die das anders sehen. Wenn du flamen willst sind solche Statements genau der richtige Einstieg.:jedifire:

(AF-Threads hatten wir ja nun wirklich genug um die Unvereinbarkeit unserer Positionen zu bekräftigen)

mictasm
2004-07-04, 06:52:33
Original geschrieben von Tigerchen

Könntest du diese provokative Polemik bitte lassen. Du weißt das es Leute gibt die das anders sehen. Wenn du flamen willst sind solche Statements genau der richtige Einstieg.:jedifire:

(AF-Threads hatten wir ja nun wirklich genug um die Unvereinbarkeit unserer Positionen zu bekräftigen)


Schlecht geschlafen? Von Polemik kann hier doch wohl keine Rede sein. Es ist einfach seine Meinung. Und so weit hergeholt ist diese Überlegung nicht. Vielleicht wäre es wirklich langsam besser, diesen Thread dicht zu machen.

Gruß,

MIC

Tigerchen
2004-07-04, 07:24:16
Original geschrieben von mictasm
Schlecht geschlafen? Von Polemik kann hier doch wohl keine Rede sein. Es ist einfach seine Meinung. Und so weit hergeholt ist diese Überlegung nicht. Vielleicht wäre es wirklich langsam besser, diesen Thread dicht zu machen.

Gruß,

MIC

Muß er das wirklich wie ein Verkündigungsengel in jedem Thread mit einbauen? Ich schreib doch auch nicht in jeden Thread daß ich von ATI`s superschneller AF-Lösung überzeugt bin. Mittlerweile kennen alle die Meinung von aths und auch die Gegenmeinung. Irgendwann muß auch mal gut sein.

Gast
2004-07-04, 09:36:06
Original geschrieben von aths
Insofern würde ich die Ergebnisse nicht überinterpretieren. Gerade wenn eine Karte beim Zuschalten von AF wenig Leistung verliert, obwohl ein starkes CPU-Limit unwahrscheinlich ist, sollte man eher die AF-Qualität hinterfragen als der Karte hohe Performance andichten. Damit AF "nutzbar" wird, muss die Grundperformance hoch genug sein. Ein AF was immer nur wenig Leistung kostet, kann nicht viel Zusatzqualität bringen.


Full Ack.:up:

Man kann das gar nicht oft genug wiederholen, denn wie man sieht gibt es immer noch welche, die das einfach nicht kapieren wollen.

Tigerchen
2004-07-04, 10:06:58
Original geschrieben von Gast
Full Ack.:up:

Man kann das gar nicht oft genug wiederholen, denn wie man sieht gibt es immer noch welche, die das einfach nicht kapieren wollen.

Na, gießen wir nun noch ein wenig Öl ins Feuer? Wer hat sich denn da wieder ausgeloggt um ein bißchen zu flamen?

LovesuckZ
2004-07-04, 10:11:14
Original geschrieben von Tigerchen

Irgendwann muß auch mal gut sein.


Bestimmt nicht.
ATi hat mit dem R420 (ja, auch nvidia beim NV40 trotz der Abschaltoption) das Maß wohl ueberschritten. Nur durch kritik kann man die beiden wohl "ueberzeugen", dass vernuenftige Filterung zu einer High - End Grafik ebenfalls dazugehoert.
Das dir "brilinear" reicht, ist doch okay. Dazu brauch man aber keine High End Karte sich kaufen!

Geist
2004-07-04, 10:13:47
Original geschrieben von Gast
Original geschrieben von aths
Insofern würde ich die Ergebnisse nicht überinterpretieren. Gerade wenn eine Karte beim Zuschalten von AF wenig Leistung verliert, obwohl ein starkes CPU-Limit unwahrscheinlich ist, sollte man eher die AF-Qualität hinterfragen als der Karte hohe Performance andichten. Damit AF "nutzbar" wird, muss die Grundperformance hoch genug sein. Ein AF was immer nur wenig Leistung kostet, kann nicht viel Zusatzqualität bringen.

Full Ack.:up:

Man kann das gar nicht oft genug wiederholen, denn wie man sieht gibt es immer noch welche, die das einfach nicht kapieren wollen.
Ist von dem mehr an Qualität unter normalen Bedingungen überhaupt etwas sichtbar, oder muss man das erst mit der Lupe suchen?

Ich bin weder pro ATI noch pro nVidia und da ich kein Experte bin, würde ich dazu gerne ein objektives Statement von den Experte erhalten!

LovesuckZ
2004-07-04, 10:18:46
Original geschrieben von Geist
Ist von dem mehr an Qualität unter normalen Bedingungen überhaupt etwas sichtbar, oder muss man das erst mit der Lupe suchen?


Video von tEd:
http://www.beyond3d.com/forum/viewtopic.php?p=300527#300527

Demirug
2004-07-04, 10:18:59
Original geschrieben von aths
Ein AF was immer nur wenig Leistung kostet, kann nicht viel Zusatzqualität bringen.

Wobei der Umkehrschluss natürlich nicht automatisch zum tragen kommt. Ein aufwendiges und damit leistungsverbrauchendes AF (bzw Texturefilterung im allgemeinen) muss nicht zwangsläufig Zusatzqualität bringen.

Der Nutzwert von korrektem Texturefiltern hängt stark davon ab welches Grundmaterial zur Verfügung steht und wie die Samples weiterverrechnet werden. Wobei AFAIK kein Chip und auch nicht der Refrast bisher mathematisch korrekt gefiltert hat. Beim alten DX7 Refrast sind aleine 5 verschiedene Methode zur LOD-Bestimmung bei deaktivierem AF vorgesehen. Jede dieser Methode zeichnet sich durch unterschiedliche Genauigkeit aus. Perfekt ist aber keine davon da fortwährend auf Näherungen zurückgegriffen wird.

Bevor ich aber noch weiter ins OT abrutsche höhre ich besser auf.

Gast
2004-07-04, 10:26:03
Original geschrieben von Tigerchen

Na, gießen wir nun noch ein wenig Öl ins Feuer? Wer hat sich denn da wieder ausgeloggt um ein bißchen zu flamen?


aths hat hier einen technischen Beitrag geleistst, du flamst nur rum.

Melbourne weiss jetzt, wie er unter bestimmtem Bedingungen Benchmarks zu sehen hat. Hättest ihn ja selbst drauf hinweisen können, dann hätte aths das nicht tun müssen.

Gast
2004-07-04, 10:28:35
Original geschrieben von Geist
Full Ack.:up:

Man kann das gar nicht oft genug wiederholen, denn wie man sieht gibt es immer noch welche, die das einfach nicht kapieren wollen.
Ist von dem mehr an Qualität unter normalen Bedingungen überhaupt etwas sichtbar, oder muss man das erst mit der Lupe suchen?

Ich bin weder pro ATI noch pro nVidia und da ich kein Experte bin, würde ich dazu gerne ein objektives Statement von den Experte erhalten! [/SIZE][/QUOTE]

Das ist unter bestimmten Umständen deutlich sichtbar, unter anderen wiederum kaum bis gar nicht. Ziemlich grosse Bandbreite also.
Nur lässt einem da ATi leider keine Wahl zur bestmöglichen Qualität, die der Chip kann.

Geist
2004-07-04, 10:36:16
Original geschrieben von LovesuckZ
Video von tEd:
http://www.beyond3d.com/forum/viewtopic.php?p=300527#300527
Die Videos halte ich für nicht Aussagekräftig!

Mit xvid wird das Videomaterial komprimiert und es entstehen dabei Artfakte, so das diese Videos zum Vergleich nicht mehr tauglich sind (da müsste man schon unkomprimiertes Videos, die die gleiche Auflösung haben in der getestet wurde und unter gleichen Bedingungen aufgenommen wurden, vergleichen!).

Tigerchen
2004-07-04, 10:45:29
Original geschrieben von Gast
aths hat hier einen technischen Beitrag geleistst, du flamst nur rum.

Melbourne weiss jetzt, wie er unter bestimmtem Bedingungen Benchmarks zu sehen hat. Hättest ihn ja selbst drauf hinweisen können, dann hätte aths das nicht tun müssen.

Ist dir schon aufgefallen daß ich aths gar nicht das Recht abgesprochen habe das anders zu sehen.
Er stellt halt nur immer und immer wieder die Lösung von ATI als grottenschlecht und armselig dar. Das wiederrum kann ich im Alltagsbetrieb nicht feststellen. Wer flamt also?

Gast
2004-07-04, 11:00:26
Original geschrieben von Tigerchen

Ist dir schon aufgefallen daß ich aths gar nicht das Recht abgesprochen habe das anders zu sehen.
Er stellt halt nur immer und immer wieder die Lösung von ATI als grottenschlecht und armselig dar. Das wiederrum kann ich im Alltagsbetrieb nicht feststellen. Wer flamt also?


Da interpretierst du wohl etwas hinein, was er nicht gesagt hat.
Er hat lediglich drauf hingewiesen, dass Benchmarks unter Berücksichtigung der dabei erreichten Bildqualität zu sehen sind. Und darüber herrscht ja bestimmt Einigkeit.
Sonst müsste man auf einmal noch XGI die Performancekrone verleihen.;)

Tigerchen
2004-07-04, 11:40:35
Original geschrieben von Gast
Da interpretierst du wohl etwas hinein, was er nicht gesagt hat.
Er hat lediglich drauf hingewiesen, dass Benchmarks unter Berücksichtigung der dabei erreichten Bildqualität zu sehen sind. Und darüber herrscht ja bestimmt Einigkeit.
Sonst müsste man auf einmal noch XGI die Performancekrone verleihen.;)

Ich denke ich hab aths schon richtig verstanden.

Jesus
2004-07-04, 12:17:18
Original geschrieben von Tigerchen

Ist dir schon aufgefallen daß ich aths gar nicht das Recht abgesprochen habe das anders zu sehen.
Er stellt halt nur immer und immer wieder die Lösung von ATI als grottenschlecht und armselig dar. Das wiederrum kann ich im Alltagsbetrieb nicht feststellen. Wer flamt also?


Das kannst nicht nur du nicht feststellen, sondern 95% aller anderen Tester auch nicht. Bisher hat KEIN BQ vergleich in irgendeinem anständigen Test festgestellt das das AF der X800 so viel schlechter ist wie das der 6800.

NV ist übrigens mit der AF Qualiät lt. einiger Tests ( GS u.a. ) mit der 6800 ebenfalls ein Stück nach unten gegangen im Vergleich zum NV3x. Wieso machen sie das denn wenn sie doch die super "Rohleistung" haben um so "gutes" AF darzustellen ?

The above images compares the filtering methods of both GeForce FX on the 52.16 drivers (left) and GeForce 6800 Ultra on the 60.72 drivers (right). We can see that the base Trilinear pattern of GeForce 6800 Ultra has been altering in comparison to GeForce FX and now has the LOD pushed out further at the 45° angles. In the max Anisotropy case 6800 has a new 16X mode, as opposed to GeForce FX's max of 8X, but we can see NVIDIA have also adopted a filtering pattern similar to the one ATI uses with their range of R300 based boards. This particular Anisotropic Filtering pattern is optimal on horizontal or vertical surfaces, but if you go off angle then the maximum degree of anisotropy is reduced. It is thought that the normal GeForce Anisotropic Filtering mechanism is still available within NV40, however its understood not to be presently available in the drivers - presumably the "High Quality" mode of the "Image Settings" option will enable this.

http://www.beyond3d.com/previews/nvidia/nv40/index.php?p=18

oder

http://www.pcper.com/images/reviews/40/AFSlideshow.jpg

hier (http://www.pcper.com/article.php?aid=40&type=expert&pid=4) wird sogar festgestellt das das niedrige ( 2x, 4x) AF der x800 ein sichtbar besseres Bild erzeugt als das der 6800

LovesuckZ
2004-07-04, 12:26:05
Original geschrieben von Jesus
NV ist übrigens mit der AF Qualiät lt. einiger Tests ( GS u.a. ) mit der 6800 ebenfalls ein Stück nach unten gegangen im Vergleich zum NV3x. Wieso machen sie das denn wenn sie doch die super "Rohleistung" haben um so "gutes" AF darzustellen ?


Hm, um dem ATi User nicht zu erschrecken und zu verwirren?
Denn der gemeine ATi user spielt ja nur mit Bilinear und Winkelabhaengigkeit, da ist "brilinear" einzig auf Stage 0 (1) doch schon wie Weihnachten und Ostern an einen Tag.

Jesus
2004-07-04, 12:28:31
das muss es sein danke für deine hilfe ! :chainsaw:

zu dem bild fällt dir wohl nichts ein ? :asshole:

schade dass keine FPS anzeige bei den Bildern gemacht wurde, denn ich möchte wetten dass der 6800 mit steigendem AF wesentlich mehr Performance verliert, bei nicht sichtbaren Unterschieden.

LovesuckZ
2004-07-04, 12:33:59
Original geschrieben von Jesus
zu dem bild fällt dir wohl nichts ein ? :asshole:

Wenn du mir sagst, mit welchen treiber die vergleichen.
Ansonsten, Texturflimmern auf den ATi Karten.

/edit: Man sieht ATi's Filterung deutlich am AA vergleich: LOD Verschiebung ohne AF fuehrt zu Texturflimmern, so wie ich das mitbekommen habe. Guckt man sich das Bild von 8AA (produziert 2AF) vs. 6AA an, sieht man auch sehr schoen die Mipmaps bei ATi.

BvB123
2004-07-04, 12:35:55
Hi guckt mal hier die 3dmark03 screens

da sieht ati irgendwie ein bisschen schlecht aus....

http://www.hwhell.com/articles/xfx_geforce_6800_ultra/3.html


guckt auf dens Stein und das Gras

Gruss

Jesus
2004-07-04, 12:38:04
Original geschrieben von BvB123
Hi guckt mal hier die 3dmark03 screens

da sieht ati irgendwie ein bisschen schlecht aus....

http://www.hwhell.com/articles/xfx_geforce_6800_ultra/3.html

"At this point there isn’t much of a difference between ATI and NVIDIA. The only difference I could tell is in the crispness of the back portion of the rock, where NVIDIA seems to pull ahead by a tiny bit. When actually playing games I couldn’t have told them apart at 16xAF, so you’re good either way."

BvB123
2004-07-04, 12:41:43
kannste eigentlich auch irgendwas andere außer sachen zu zitieren?

Demirug
2004-07-04, 12:42:06
Jesus, laut Microsoft ist die LOD-Berechnung beim NV40 genauer als beim Refrast:

http://tech-report.com/onearticle.x/6668

The DX9 reference rasterizer does not produce an ideal result for level-of-detail computation for isotropic filtering, the algorithm used in NV40 produces a higher quality result. Remember, our API is constantly evolving as is graphics hardware, we will continue to improve all aspects of our API including the reference rasterizer.

Ich will da morgen aber ein paar eigene Experimente dazu machen.

Jesus
2004-07-04, 12:44:16
Original geschrieben von BvB123
kannste eigentlich auch irgendwas andere außer sachen zu zitieren?

lol ich meine du bringst irgendein Beispiel und darin steht so ziemlich das Gegenteil von dem was du Behauptet hast, fals du das Zitat nicht verstehst...

BvB123
2004-07-04, 12:46:09
Also ich sehe da dass das gras und der stein bei ATI sehr schlecht ausehen im vergleich zu Nvidia mehr nicht

Jesus
2004-07-04, 12:46:52
ok.

robbitop
2004-07-04, 12:47:58
wenn man bei jeder Generation ein Quäntchen an Quallität verliert (auch wenn dieses Quäntchen kaum sichtbar ist) und das ein paar Jahre mit anschaut und dann mal auf die erste zurückschaut, wird man staunen.
Ich hoffe es wird nie soweit kommen.
WinkelAF und Optimierungen hoffe ich als Option damit Leute, die offenbar nicht so gute Augen haben, ihre 10fps mehr bekommen und ein HQ AF ohne große Kompromisse.

Ich finde es schade, dass man damals den AF drop nicht einfach hingenommen hat und in folgenden Generationen einfach die Grundleistung erhöt.
Optimiertes AF als Option besonders in Midrangekarten wäre gut.

Diesen "Zurückschauen wie gut es mal gewesen ist" Effekt will ich gar nicht erleben müssen. Ich hoffe NV/ATi reagieren in der nächsten Generation auf die massive Kretik.

BvB123
2004-07-04, 12:48:01
Siehst du es etwa nicht?

Der stein ist bei nvida viel schärfer

und das gras bei ati ist so verpixeld

reunion
2004-07-04, 12:51:09
Original geschrieben von robbitop
Diesen "Zurückschauen wie gut es mal gewesen ist" Effekt will ich gar nicht erleben müssen. Ich hoffe NV/ATi reagieren in der nächsten Generation auf die massive Kretik.


Diesen "Zurückschauen wie gut es mal gewesen ist" Effekt gibt es aber leider schon, immerhin bot bereits der NV20 ein wesentlich besseres AF als der NV40...

Jesus
2004-07-04, 12:54:17
Original geschrieben von Demirug
Jesus, laut Microsoft ist die LOD-Berechnung beim NV40 genauer als beim Refrast:

http://tech-report.com/onearticle.x/6668



Ich will da morgen aber ein paar eigene Experimente dazu machen.

NO - AF:

"In terms of relevant image quality characteristics, the only place we see any issue is directly under the door. The X800 cards show a distinct line where the door's bottom meets the floor. The GeForce 6800 cards seem to produce a rather blurred joint here, failing to have the same crispness as their counterparts."

Auch vom obigen Test.

LovesuckZ
2004-07-04, 13:00:59
Original geschrieben von BvB123
Also ich sehe da dass das gras und der stein bei ATI sehr schlecht ausehen im vergleich zu Nvidia mehr nicht

Testen wahrscheinlich mit 8AA (Supersampling).
Ansonsten sieht man beim r420 Bild sehr schoen das Mipbanding am Stein.

Gohan
2004-07-04, 13:04:29
Jesus, erste Verwarnung. Wenn du jetzt nicht endlich aufhörst, gibt es einen Punkt.

Jesus
2004-07-04, 13:07:36
lol womit denn ? Zitate aus anderen Tests zu geben ?

Was ist daran falsch, oder darf man hier nur pro Nvidia posten ?

Wenn aths und lovesux etc. postet dass das AF der x800 so scheisse ist dann darf ich ja wohl Quellen angeben in denen gesagt wird dass das nicht so ist.

Gohan
2004-07-04, 13:11:37
Das k;nnte man ja dann Jahrelang so machen. In manchen Applikationen sieht es halt nach Pro nVidia aus, in anderen nach Pro Ati. Während aths und Co. das auch so berücksichtigen, schreibst du so, als ob nVidia überall versagen würde, was so aber nicht ist.

Jesus
2004-07-04, 13:14:41
das tue ich nicht! ich schreibe dass es keinen relevanten Unterschied gibt, das ist ein grosser unterschied :)

Ich versuche nicht zu sagen das ATI besser ist, ganz im Gegenteil, NV hat das qualitativ bessere AF z.b.

Aber ich versuche etwas gegen diese "ATI´s AF ist grottenschlecht" - bzw. "ATI´s AF muss eigentlich grottenschlecht sein denn es kostet kaum performance" - Mentalität zu tun, denn so ist es nicht, die unterschiede sind einfach minimalst und dass bestätigen auch die meisten Reviews.

Demirug
2004-07-04, 13:19:48
Original geschrieben von Jesus
NO - AF:

"In terms of relevant image quality characteristics, the only place we see any issue is directly under the door. The X800 cards show a distinct line where the door's bottom meets the floor. The GeForce 6800 cards seem to produce a rather blurred joint here, failing to have the same crispness as their counterparts."

Auch vom obigen Test.

Natürlich ist das X800 Bild auf Screenshots "schärfer". Eine logische Folge der Unterfilterung die sich wiederum aus dem veränderten Verfahren zur LOD-Berechnung ergibt.

Und ja es gibt auch ein zu "scharf" beim Filtern von Texturen. Im Refrast Quellcode gibt es sogar dort wo der LOD berechnet wird entsprechenden Kommentare ob ein Verfahren zu scharfe oder zu verwaschene Ergebnisse erzeugt.

robbitop
2004-07-04, 13:22:42
Jesus das tust du. Ich habe mir das 3 Wochen lang angesehen. Du suchst dir ständig nur die Rosinen gegen NV. Wenn dir das nicht auffällt ist irgendwas schiefgelaufen.
Natürlich darfst du deine Meinung haben, aber dieses gebashe mittels "rosinen" wird echt "ätzend".

Das sehe ich bei aths nicht so. Ausserdem ist das kein Argument "andere machen das aber auch".
Sind wir aus dem Alter nicht schon raus? ;)

Ich erwarte nicht, dass du deine kritische Sichtweise ablegst. Sowas ist immer gut. Jedoch macht der Ton die Musik. Und momentan klingt die Musik nicht chartsverdächtig ;).


@reunion
leider hast du da Recht.

ShadowXX
2004-07-04, 13:28:41
Original geschrieben von Jesus
das tue ich nicht! ich schreibe dass es keinen relevanten Unterschied gibt, das ist ein grosser unterschied :)

Ich versuche nicht zu sagen das ATI besser ist, ganz im Gegenteil, NV hat das qualitativ bessere AF z.b.

Aber ich versuche etwas gegen diese "ATI´s AF ist grottenschlecht" Mentalität zu tun, denn so ist es nicht, die unterschiede sind einfach minimalst und dass bestätigen auch die meisten Reviews.

Das verstehe ich sogar (ich gehe jetzt sogar mal einen schritt weiter und sage 90% der User werden es nicht bemerken)...

Das einzige was ich bei dir bemängele, ist das du manchmal etwas zu "Missionarisch" rüberkommst...(liegt vielleicht am Nick ;D )

Mir geht bei ATI im Prinzip auch nur die Bevormundung des User auf den Geist...sonst hab ich nix gegen die Kanadier.

Auch wenn meine GraKa diesmal Grün werden wird, werde ich kein davon abhalten oder bekehren zu versuchen, der eine ATI kaufen will...

Lass doch einfach jedem "seine" Überzeugung und denen, die sich für nV diese Runde entschieden haben, Ihre Freude darüber, das sich was an der nV-Front tut.

P.S.
ich bin auch dagegen, das ISVs irgendwelche Marken bevorzugen...falls Crytek bei FC den r420 ungerechterweise Benachteiligen sollte, würde ich dieses (auch wenn ich bis dahin vielleicht mal ne 68U haben sollte) Verhalten ablehnen...

aths
2004-07-04, 13:42:38
Original geschrieben von Coda
Sag mal aths, unterschreibst du eigentlich NDAs oder woher nimmst du diese Infos? Gelegentlich unterschreibe ich NDAs. Diese Infos stammen aber nur zum Teil von NV. Wobei NV gesprächiger ist, als z. B. ATI.

aths
2004-07-04, 13:43:49
Original geschrieben von Demirug
Wobei der Umkehrschluss natürlich nicht automatisch zum tragen kommt. Ein aufwendiges und damit leistungsverbrauchendes AF (bzw Texturefilterung im allgemeinen) muss nicht zwangsläufig Zusatzqualität bringen. Ja, das ist auch klar.
Original geschrieben von Demirug
Der Nutzwert von korrektem Texturefiltern hängt stark davon ab welches Grundmaterial zur Verfügung steht und wie die Samples weiterverrechnet werden. Wobei AFAIK kein Chip und auch nicht der Refrast bisher mathematisch korrekt gefiltert hat. Ja, sind alles Approximationen.

Demirug
2004-07-04, 13:51:21
Original geschrieben von ShadowXX
P.S.
ich bin auch dagegen, das ISVs irgendwelche Marken bevorzugen...falls Crytek bei FC den r420 ungerechterweise Benachteiligen sollte, würde ich dieses (auch wenn ich bis dahin vielleicht mal ne 68U haben sollte) Verhalten ablehnen...

Was ist für dich eine "ungerechte Benachteiligung"? Wenn man als ISV nicht das maximale an Leistung aus den von einem Chip bereitgestellten Technologien holt? Dann ist wohl jeder ISV mehr oder minder ungerecht.

Im Bezug auf Farcry muss man sagen das schon aus dem R300 nicht das maximum herausgeholt wurde und das gilt noch mehr für die NV3X Reihe. Auch der SM3 Pfaddes 1.2 Patch stellt nicht das maximum dar was man mit SM3 machen kann.

OK, man sollte vielleicht Crytek der Fairniss wegen die Möglichkeit geben ihere Entscheidungen zu begründen.

aths
2004-07-04, 13:53:19
Original geschrieben von Jesus
Wenn aths und lovesux etc. postet dass das AF der x800 so scheisse ist dann darf ich ja wohl Quellen angeben in denen gesagt wird dass das nicht so ist. Diese Quellen haben nicht immer recht, bzw. sehen einfach die Nachteile nicht :) Wer mit dem X800-AF zufrieden ist, soll sich eine X800 kaufen. Wer die Unterschiede zur 6800 nicht sieht, sollte aber nicht behaupten, es gäbe keine (also keine sichtbaren.) Was an Filterqualität subjektiv sichtbar ist, ist eben subjektiv.

ShadowXX
2004-07-04, 14:22:04
Original geschrieben von Demirug
Was ist für dich eine "ungerechte Benachteiligung"? Wenn man als ISV nicht das maximale an Leistung aus den von einem Chip bereitgestellten Technologien holt? Dann ist wohl jeder ISV mehr oder minder ungerecht.

Im Bezug auf Farcry muss man sagen das schon aus dem R300 nicht das maximum herausgeholt wurde und das gilt noch mehr für die NV3X Reihe. Auch der SM3 Pfaddes 1.2 Patch stellt nicht das maximum dar was man mit SM3 machen kann.

OK, man sollte vielleicht Crytek der Fairniss wegen die Möglichkeit geben ihere Entscheidungen zu begründen.

Ich hatte geschrieben falls....

Aber darauf wollte ich nicht hinaus.

Gemeint war, das wenn ein IHV Effekte auf einem Chip anbieten, die auch der andere zu leisten Fähig wäre diesem diese aber nicht zugesteht...nur weil ein anderer Name auf dem Chip steht...

FC war wohl ein blödes Beispiel....

Gast
2004-07-04, 14:29:11
Original geschrieben von ShadowXX
Ich hatte geschrieben falls....

Aber darauf wollte ich nicht hinaus.

Gemeint war, das wenn ein IHV Effekte auf einem Chip anbieten, die auch der andere zu leisten Fähig wäre diesem diese aber nicht zugesteht...nur weil ein anderer Name auf dem Chip steht...

FC war wohl ein blödes Beispiel....

Echte SM3 Effekte kann keine Radeon in Echtzeit berechnen. Was soll es also bringen, diese Effekte auch auf solchen Karten anzubieten?

Mr. Lolman
2004-07-04, 14:31:40
Original geschrieben von aths
HDR sage ich erst ab FP32.

Warum?

Gast
2004-07-04, 14:38:11
Original geschrieben von Mr. Lolman
Warum? das h dürfte wohl für HIGH stehen und 24 bit ist Lower than 32 bit

@ShadowXX
nja als man auf nv hartware nicht alle shader bekommen sollte, hies es ja zu wenig power.
ob das wahr ist lassen wir mal dahingestellt sein.

nun ist es andesherum ich gebe einen haufen ... auf far cry

ShadowXX
2004-07-04, 14:43:06
Original geschrieben von Gast
Echte SM3 Effekte kann keine Radeon in Echtzeit berechnen. Was soll es also bringen, diese Effekte auch auf solchen Karten anzubieten?

Es geht nicht um "echte" SM3.0 Effekte...

Sondern um den Fall, das wenn es auf beiden Chips möglich wäre...und dann diese auf einem nicht angeboten werden...

@2ten Gast:
geb ich dir natürlich auch recht...im Prinzip ist es jetzt etwas umgedreht zu der Situation vorher.

Man könnte jetzt vermutlich viele alte Posts ausgraben und müsste nur die Namen der IHVs darin umdrehen und hätte dann Aussagen auf die (mögliche) Situation jetzt..

Mr.Leadtek
2004-07-04, 14:50:38
Hallo zusammen,

Ich habe Informationen erhalten von diversen Quellen das es in diesem Forum einige gibt - welche ein Problem mit der Leadtek A 400 TDH Karten haben.

Ich selber arbeite bei Leadtek und bin für CET Verantwortlich. Also keine Scheu... :-)

Ich würde mich freuen wenn jemand die "angebliche Fehlfunktion" noch mal detalierter beschreiben könnte.

Aktuell sind uns keine Probleme bekannt und auch bei mir laufen die A 400 ULTRA TDH, die A 400 GT TDH und die A 400 TDH absolut ohne Probleme.

Würde mich über entsprechendes Feedback noch mal freunen (ich weiss - es gibt verstreut auch Hinweise im Forum).

Danke

Mr. Leadtek

ShadowXX
2004-07-04, 14:56:12
Original geschrieben von Mr.Leadtek
Hallo zusammen,

Ich habe Informationen erhalten von diversen Quellen das es in diesem Forum einige gibt - welche ein Problem mit der Leadtek A 400 TDH Karten haben.

Ich selber arbeite bei Leadtek und bin für CET Verantwortlich. Also keine Scheu... :-)

Ich würde mich freuen wenn jemand die "angebliche Fehlfunktion" noch mal detalierter beschreiben könnte.

Aktuell sind uns keine Probleme bekannt und auch bei mir laufen die A 400 ULTRA TDH, die A 400 GT TDH und die A 400 TDH absolut ohne Probleme.

Würde mich über entsprechendes Feedback noch mal freunen (ich weiss - es gibt verstreut auch Hinweise im Forum).

Danke

Mr. Leadtek

Hat zwar nicht mit den nU Problemen zu tun....aber vielleicht könntest du mal verraten, wann endlich die Ultras kommen, bzw. wo das Problem liegt...

robbitop
2004-07-04, 15:18:37
woran liegt es dass die Karten Monate lang brauchen bis die Endkunden sie haben Mr. Leadtek?
Liefert NV nicht genug NV40 oder ist es der noch sehr rare GDDR3 Speicher?

Warum bauen nur so wenig Hersteller eigene Kühllösungen? (MSI/Gainward/ASUS zB).

Demirug
2004-07-04, 15:38:50
Irgendwie werde ich den Verdacht nicht loss das ein nicht unerheblicher Teil der für Deutschland bestimmten 6800U dort (http://shop.mediamarkt.de/webapp/wcs/stores/servlet/ProductDisplay?productId=40954&catalogId=5000&langId=-3&storeId=5000&categoryId=10002) gelandet ist.

Winter[Raven]
2004-07-04, 15:50:11
Original geschrieben von robbitop
woran liegt es dass die Karten Monate lang brauchen bis die Endkunden sie haben Mr. Leadtek?
Liefert NV nicht genug NV40 oder ist es der noch sehr rare GDDR3 Speicher?

Warum bauen nur so wenig Hersteller eigene Kühllösungen? (MSI/Gainward/ASUS zB).

Klingt ehe nach dem raren GDDR3 Speicher, wenige Tage nach dem Demirug meinte die Massenfertig seih bei Samsung los mit paar Änderungen, tauchten die GT und Ulras auf. Ich denke die Schuld liegt eindeutig bei dem Speichersteinen.

Geist
2004-07-04, 15:50:36
Original geschrieben von Demirug
Irgendwie werde ich den Verdacht nicht loss das ein nicht unerheblicher Teil der für Deutschland bestimmten 6800U dort (http://shop.mediamarkt.de/webapp/wcs/stores/servlet/ProductDisplay?productId=40954&catalogId=5000&langId=-3&storeId=5000&categoryId=10002) gelandet ist.
Ich denke, da wirst du recht haben!

Tigerchen
2004-07-04, 15:51:53
Original geschrieben von reunion
Diesen "Zurückschauen wie gut es mal gewesen ist" Effekt gibt es aber leider schon, immerhin bot bereits der NV20 ein wesentlich besseres AF als der NV40...


Wenn ich so zurückschaue sehe ich trilineares Dithern bei Multitexturierung und 22-Bit Postfilter.
aber gut "früher war alles besser".;D

Tigerchen
2004-07-04, 15:55:39
Original geschrieben von Gohan
Das k;nnte man ja dann Jahrelang so machen. In manchen Applikationen sieht es halt nach Pro nVidia aus, in anderen nach Pro Ati. Während aths und Co. das auch so berücksichtigen, schreibst du so, als ob nVidia überall versagen würde, was so aber nicht ist.


Was ist los? aths & Co. sind unparteiisch? Du mißt hier wohl mit zweierlei Mass! Wen meinst du denn mit Co.? Lovesuckz etwa?

LovesuckZ
2004-07-04, 16:05:43
Original geschrieben von Mr.Leadtek
Hallo zusammen,
Ich habe Informationen erhalten von diversen Quellen das es in diesem Forum einige gibt - welche ein Problem mit der Leadtek A 400 TDH Karten haben.
Ich selber arbeite bei Leadtek und bin für CET Verantwortlich. Also keine Scheu... :-)
Ich würde mich freuen wenn jemand die "angebliche Fehlfunktion" noch mal detalierter beschreiben könnte.


Meine Fehlerdarstellung (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=1926438#post1926438) aus diesem (informativen) Thread (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=1926438#post1926438).
Aber nicht nur User aus Deutschland berichten ueber Probleme:
Egal ob im Beyond3d.com Forum (http://www.beyond3d.com/forum/viewtopic.php?p=309978#309978), Guru3d.com Forum (http://forums.guru3d.com/showthread.php?s=&threadid=94043&highlight=6800) und im NVNews.net Forum (http://www.nvnews.net/vbulletin/showthread.php?t=30408&highlight=leadtek+6800).
aus meiner Sicht ist es daher unwahrscheinlich, dass sie ueber diese Fehler nichts wissen, da es nicht nur ein oder zwei Karten sind, die diese Probleme haben, sondern wahrscheinlich ueber 90%!

LovesuckZ
2004-07-04, 16:06:59
Original geschrieben von Tigerchen

Was ist los? aths & Co. sind unparteiisch? Du mißt hier wohl mit zweierlei Mass! Wen meinst du denn mit Co.? Lovesuckz etwa?


Was hab ich damit jetzt zu tun?
Muss man mich fuer seine eigenen Fehler verantwortlich machen?
Schon schlimm genug, dass ich fuer Beta's tempban verantwortlich waere, nun auch fuer die ermahnung bei Jesus :freak:

MadManniMan
2004-07-04, 16:30:00
Original geschrieben von Tigerchen

Was ist los? aths & Co. sind unparteiisch?


Dein Problem ist, daß du nicht verstehst, daß sich aths nicht um das Artikulieren eines subjektiven, sondern möglichst technischen Eindrucks bemüht.

Es wird dir vielleicht nicht gefallen, aber uns :kicher: ist Welten objektiver als du und deine Gereitheit bestätigt mich auch in meinem verdacht, daß dich dieser Sachverhalt emotional berührt.

Es soll dich nicht provozieren, was ich schreibe, sondern es soll eher ein Wink mit dem Zaunpfahl sein, daß du den ganzen Mist einfach mal bei aller Liebe etwas distanzierter betrachten solltest ;)

Nichts für Ungut, Gruß MMM

Crushinator
2004-07-04, 16:35:34
So, jetzt haben wir uns alle wieder lieb und gehen wieder On Topic. Es kann doch echt nicht sein, daß man Euch nicht mal einen einzigen Tag alleine lassen kann.

Nur vorsorglich:
Eine Diskussion über Verwarnungen hat hier nichts zu suchen.
Da sie OT und störend für die Diskussion sind, können wir solche Diskussionen hier nicht dulden.
Euch bleibt aber natürlich die Möglichkeit, sich an den entsprechenden Mod selber durch eine PN zu wenden, bzw. einen Beschwerde-Thread im 3DCenter-Forum zu eröffnen.

Aber bitte hier nicht mehr!
Siehe dazu auch:
http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=147046

seahawk
2004-07-04, 17:04:52
Original geschrieben von aths
Diese Quellen haben nicht immer recht, bzw. sehen einfach die Nachteile nicht :) Wer mit dem X800-AF zufrieden ist, soll sich eine X800 kaufen. Wer die Unterschiede zur 6800 nicht sieht, sollte aber nicht behaupten, es gäbe keine (also keine sichtbaren.) Was an Filterqualität subjektiv sichtbar ist, ist eben subjektiv.

Und wer sich eine X800 kaufen will, der muss nicht unbedingt im GeForce6800 Thread immer nur die Vorteile der X800 posten und die Nachteile der GeForce anprangern.

Dann soll er einen Thread aufmachen mit dem Titel "Warum ich die X800 viel besser finde" und fertig.

Mmmmmh
2004-07-04, 17:22:14
Original geschrieben von seahawk
Und wer sich eine X800 kaufen will, der muss nicht unbedingt im GeForce6800 Thread immer nur die Vorteile der X800 posten und die Nachteile der GeForce anprangern.

Dann soll er einen Thread aufmachen mit dem Titel "Warum ich die X800 viel besser finde" und fertig.

:up: :laola: :up: Mehr gibts dazu nicht zu sagen.
Eine Frage mal an die technisch versierten hier, was meint ihr wie weit kann man noch die Arbeit der Shaderunits in den jeweiligen Pixelprozessoren durch optimieren des ShaderCompilers verbessern, ich meine wird man im Laufe der Zeit eine 100% Auslastung der SU1 und SU2 erreichen?

Mr.Leadtek
2004-07-04, 18:57:39
Danke...Habe mir den Link durchgelesen.

Nein - es ist bislang nicht bekannt. Ich wurde auf dieses Forum hingewiesen und auf einige Benutzer mit einem solchen Problem - deshalb habe ich mich hier angemeldet und gehe nun diesen Problemen nach.

Ich habe auch die "aufgezeigten" Links auf die anderen Seiten verwendet und diese mir dann durchgelesen...Sehr eigenartig - es gibt sehr viele die überhaupt keine Probleme haben und die Karten voll genießen können. Diese Fehlerbeschreibungen - die ich hier aber lese - weisen eigentlich nicht auf "Hardwarefehler" hin.

Aktuell muss ich passen (heute am Sonntag).
Wie ich schon erwähnte - Redakteure aus sehr bekannten Magazinen (und ich sprechen wirklich diesen Herren einiges an Kompetenz zu) - haben nach mehrtägigen oder mehrstündigen Testen nichts über solche Fehler geäußert - und ebenso uns ist bislang dies nicht untergekommen.

Dennoch - ich habe nun schon einiges Vorbereitet und dies zu meinen Kollegen weitergeleitet. Ich hoffe wir können nun am Montag dies reproduzieren und können diese "benannten" Fehler auffinden.

Ich selber habe es nun versucht - stelle diese Fehler aber nicht fest.

Was vielleicht noch helfen würde wären einige Informationen zu dem System welches Du/Ihr verwendet - Mainboard, Speicher etc.

Anbei meine Mailadresse: Ihr könnt mich dann darunter erreichen - dann kann ich dies entsprechend weiterleiten...

Schickt mir alles was Ihr habt (Bilder der Fehler oder was auch immer) - so mehr ich habe - so schnelle können wir dann helfen.

Ihr erreicht mich unter: Th.Doege@Leadtek.de

Danke für die Hilfe und die Infos....

ShadowXX
2004-07-04, 19:31:03
Original geschrieben von Mr.Leadtek
Danke...Habe mir den Link durchgelesen.

Nein - es ist bislang nicht bekannt. Ich wurde auf dieses Forum hingewiesen und auf einige Benutzer mit einem solchen Problem - deshalb habe ich mich hier angemeldet und gehe nun diesen Problemen nach.

Ich habe auch die "aufgezeigten" Links auf die anderen Seiten verwendet und diese mir dann durchgelesen...Sehr eigenartig - es gibt sehr viele die überhaupt keine Probleme haben und die Karten voll genießen können. Diese Fehlerbeschreibungen - die ich hier aber lese - weisen eigentlich nicht auf "Hardwarefehler" hin.

Aktuell muss ich passen (heute am Sonntag).
Wie ich schon erwähnte - Redakteure aus sehr bekannten Magazinen (und ich sprechen wirklich diesen Herren einiges an Kompetenz zu) - haben nach mehrtägigen oder mehrstündigen Testen nichts über solche Fehler geäußert - und ebenso uns ist bislang dies nicht untergekommen.

Dennoch - ich habe nun schon einiges Vorbereitet und dies zu meinen Kollegen weitergeleitet. Ich hoffe wir können nun am Montag dies reproduzieren und können diese "benannten" Fehler auffinden.

Ich selber habe es nun versucht - stelle diese Fehler aber nicht fest.

Was vielleicht noch helfen würde wären einige Informationen zu dem System welches Du/Ihr verwendet - Mainboard, Speicher etc.

Anbei meine Mailadresse: Ihr könnt mich dann darunter erreichen - dann kann ich dies entsprechend weiterleiten...

Schickt mir alles was Ihr habt (Bilder der Fehler oder was auch immer) - so mehr ich habe - so schnelle können wir dann helfen.

Ihr erreicht mich unter: Th.Doege@Leadtek.de

Danke für die Hilfe und die Infos....

Wirklich nett von Ihnen, dass Sie sich um solche Probleme kümmern.

Aber einn kleiner "Hint" über das verbleiben bzw. die Gründe für die nicht Verfügbarkeit der Ultra-Karten wäre auch ganz nett gewesen.

aths
2004-07-04, 20:10:40
Original geschrieben von Mmmmmh
:up: :laola: :up: Mehr gibts dazu nicht zu sagen.
Eine Frage mal an die technisch versierten hier, was meint ihr wie weit kann man noch die Arbeit der Shaderunits in den jeweiligen Pixelprozessoren durch optimieren des ShaderCompilers verbessern, ich meine wird man im Laufe der Zeit eine 100% Auslastung der SU1 und SU2 erreichen? Das wird man nie erreichen.

Das ist auch nicht sooo wichtig. Beispiel die NRM_PP-Hardware: Praktisch kein Shader kann pro Takt eine NRM_PP-Anweisung gebrauchen. Insofern ist diese Lösung ineffizient. Aber wegen der höheren Rohleistung natürlich besser, als wenn NRM grundsätzlich nach der oldschool-Methode gemacht werden müsste. Zwei (jeweils auf bestimmte Operationen limitierte) Shaderunits pro Takt auszulasten ist prinzipiell schwieriger, als nur eine (Allzweck-) Unit auszulasten.

aths
2004-07-04, 20:11:33
Original geschrieben von Mr. Lolman
Warum? Weil ich nicht einsehe, dass ATI und NV nach Belieben mit dem Begriff HDR umgehen :) und praktisch alles was über FX8 (also über 1,0) hinaus geht schon HDR nennen.