PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : ATI r420 bei neuen game doppelt so schnell wie NV40 --- WTF??


Seiten : [1] 2 3 4

tombman
2004-11-07, 19:34:45
Ich hatte jetzt wieder mal Gelegenheit meine x800xtpe mit 2 neuen games zu testen und es haute mich von den Socken:

bei flatout demo und medal of honor pacific assault erreicht die x800xtpe @ 1600x1200 die selben frame raten wie die 6800ultra @ 1024x768 !
(die nvidia war auf 1600x1200 @ MOH-PA nimma spielbar und bei flatout hatte die praktisch die halben fps (40 zu 80))

Was geht da ab??? (ok, die ati war auf 600/600, aber die 6800u war auf 430/610, also RELATIV ned so viel Unterschied- selbst wann man großzügig 10% aller ati scores abzieht isses immer noch Wahnsinn)

ironMonkey
2004-11-07, 19:40:34
Treiber????


Aber du hast es ja sicher selbst im Spieleforum(Flatout) gelesen das dieses Spiel auf ATI Karten sehr gut läuft.

LovesuckZ
2004-11-07, 19:42:51
Mit oder ohne AA?

tombman
2004-11-07, 19:43:48
Mit oder ohne AA?

flatout mit, MOH mag kein AA.... jedenfalls gleiche settings bei beiden.

LovesuckZ
2004-11-07, 19:45:54
flatout mit, [...]

Inwieweit verhaelt es sich bei niedrigen Aufloesungen, geringeren Texturaufloesung und keinem bzw. kleinen AA Stufen?

mapel110
2004-11-07, 19:50:28
najo, bei Flatout hab ich zumindest keine Performanceprobs @1600 und 4xAA und max AF sogut wie immer zwischen 40-50 fps. GT @ 420/1120

p.s. und das mohpa grottig läuft, kann ich bestätigen. Fürs gebote viel zu wenig fps hier

FW 66.77

btw Men of Valor ist auch so ein Kandidat.

dildo4u
2004-11-07, 19:55:59
@Tombman hast du aa und aniso bei Flatout im CP oder im gamesetup eingestellt? Wenn ich im CP auf anwendung stelle und im game setup
auf 4XAA und Volles Aniso kommen bei mir sher gute frames raus selten unter 50 und meine GT läuft ohne OC also mit 350/1000
V-sync ist an deshalb maximal 60fps

1280*1024 4XAA Full Aniso
http://img103.exs.cx/img103/7246/FlatOutDemo1.jpg

http://img106.exs.cx/img106/7416/FlatOutDemo2.jpg

Iceman346
2004-11-07, 20:10:01
@Tombman hast du aa und aniso bei Flatout im CP oder im gamesetup eingestellt?

Macht bei mir keinen Unterschied. Ich hab die gleichen Frameraten egal ob ich AA/AF im CP oder im Spiel einstelle.

tombman
2004-11-07, 20:20:07
@Tombman

1280*1024 4XAA Full Aniso


Dir ist schon aufgefallen, daß ich von 1600x1200 rede? :cool:

@ LS: niedrigere Stufen hab i ned probiert und mit der x800stpe rennt flatout bei 80fps (bis hinauf zu 100), mit der 6800 hab ich die Hälfte.

Noch deutlicher ist MOHPA. Da ist 1600x1200 16xAF (AA geht ned bei MOHPA) absolut flüssig spielbar, mit der 6800u kannst des VERGESSEN, da hab ich runter auf 1024 müssen um die selben fps zu haben :eek:

KA was da los ist, aber villeicht BRAUCHT Nvidia ja SLI ... rofl.

dildo4u
2004-11-07, 20:23:48
Dir ist schon aufgefallen, daß ich von 1600x1200 rede? :cool:


Ich kann leider nix höheres testen da ich hier vor nem 17erTFT sitze.:rolleyes:

Auflösung reicht für mich völlig sieht 1A aus *G*

betasilie
2004-11-07, 20:27:00
Ist nix neues.

MoH: Pa, Men of Velor, Flatout, X2, Joint Operations. Bei allen diesen Spielen ist die X800XT-PE fast doppelt so schnell wie eine 6800Ultra.

Deswegen habe ich ja auch meine 6800GT verkauft und wieder ne ATI gekauft. :biggrin:

BvB123
2004-11-07, 20:28:59
;D

dildo4u
2004-11-07, 20:29:07
Ist nix neues.

MoH: Pa, Men of Velor, Flatout, X2, Joint Operations. Bei allen diesen Spielen ist die X800XT-PE fast doppelt so schnell wie eine 6800Ultra.

Deswegen habe ich ja auch wieder ne ATI gekauft. :biggrin:Mach mal bidde pix ich will shen ob du 120fps beim start bei Flatout hast bei 1280*1024 4XAA FullAniso

tombman
2004-11-07, 20:35:24
Ist nix neues.

MoH: Pa, Men of Velor, Flatout, X2, Joint Operations. Bei allen diesen Spielen ist die X800XT-PE fast doppelt so schnell wie eine 6800Ultra.

Deswegen habe ich ja auch meine 6800GT verkauft und wieder ne ATI gekauft. :biggrin:

hmm, kann des deshalb sein, weil die neuen games einfach eine viel höhere Last erzeugen?

dildo4u
2004-11-07, 20:36:55
hmm, kann des deshalb sein, weil die neuen games einfach eine viel höhere Last erzeugen?
Ich denk eher das der Nvidia karte eher der v-ram ausgeht das hatten wir alles schonmal leider testet hier keiner in 1280*1024.

StefanV
2004-11-07, 20:40:47
hmm, kann des deshalb sein, weil die neuen games einfach eine viel höhere Last erzeugen?
Naja, kann auch eher sein, das die 6800er von den App spezifischen Optimierungen leben und sonst deutlich lahmer als die x800 wären...

PS: das ist auch der Grund, warum ich gegen app spezifische Optimierungen bin:
ich möchte, das meine Karte bei allen Games gleich schlecht läuft und nicht bei einigen toll und bei anderen (quasi) garnicht...
Welche Games optimiert werden, ist meist auch klar -> the most benched games...

Pirx
2004-11-07, 20:42:25
Muß nV immer die Treiber erst auf Spiele hin optimieren und hat es bei denen noch nicht getan?
Sind die noch auf R3xx hin optimiert/programmiert? Kann aber eigentlich nicht der Grund sein, da ne NV40 mit diesen Spielen ja auch gut zurecht kommt, normalerweise.

Die gute allgemeine Performance der R>=300 scheint deren große Stärke zu sein, so wie es früher die der nVidia-Chips war.

LovesuckZ
2004-11-07, 20:45:31
@ LS: niedrigere Stufen hab i ned probiert und mit der x800stpe rennt flatout bei 80fps (bis hinauf zu 100), mit der 6800 hab ich die Hälfte.


Wie sieht es ohne AA aus?

dildo4u
2004-11-07, 20:45:57
Muß nV immer die Treiber erst auf Spiele hin optimieren und hat es bei denen noch nicht getan?
Sind die noch auf R3xx hin optimiert/programmiert? Kann aber eigentlich nicht der Grund sein, da ne NV40 mit diesen Spielen ja auch gut zurecht kommt, normalerweise.

Die gute allgemeine Performance der R>=300 scheint deren große Stärke zu sein, so wie es früher die der nVidia-Chips war.
Ich hab bei allen auch modernen games noch sher gute Frame rate mit meiner GT@350 wenn man dann natürlich mit einer 600mhz ATI vergleicht wirds siehts düster für den NV aus.Hab auch schon von vielen X800 gehört die bei über 530chip abkacken.Bin immernoch sehr zufrieden mit der Karte.

Spasstiger
2004-11-07, 20:49:09
Bei Doom 3 und Call of Duty ist es genau umgekehrt. Da liegt Nvidia uneinholbar in Front.

StefanV
2004-11-07, 20:50:59
Wie sieht es ohne AA aus?
Hm, wer kauft sich 'ne X800 XT und 'ne 6800 ULTRA um damit ohne AA zu zoggn?! :|

LovesuckZ
2004-11-07, 20:54:07
Hm, wer kauft sich 'ne X800 XT und 'ne 6800 ULTRA um damit ohne AA zu zoggn?! :|

Er wollt'n Grund wissen und keine dummen Sprueche.
Und wenn der 6800U der VRam ausginge, dann haetten wir, mindesten in Flatout, die Ursache, warum die Konkurenzkarte so deutlich schneller ist.

tombman
2004-11-07, 20:57:53
Bei Doom 3 und Call of Duty ist es genau umgekehrt. Da liegt Nvidia uneinholbar in Front.

Falsch. In D3 vielleicht ein paar fps und in COD genauso schnell.
(alles selbst getestet)

MikBach
2004-11-07, 21:02:44
Naja, kann auch eher sein, das die 6800er von den App spezifischen Optimierungen leben und sonst deutlich lahmer als die x800 wären...
Das sehe ich auch so.

PS: das ist auch der Grund, warum ich gegen app spezifische Optimierungen bin:
ich möchte, das meine Karte bei allen Games gleich schlecht läuft und nicht bei einigen toll und bei anderen (quasi) garnicht...
Welche Games optimiert werden, ist meist auch klar -> the most benched games...
Teilweise Ack.
Klar werden zuerst Spiele optimiert, die als Benchmarks herhalten müssen.
Natürlich wäre es löblich, wenn man sich auf den Compiler konzentrieren würde, um alle Spiele zu beschleunigen. Die Compiler haben aber auch ihre Grenzen. Durch gezielten Shadertausch läßt sich viel mehr Speed rausholen.
Wahrscheinlich ist der NV40 da anfälliger. Ihm scheinen einige Shader(folgen) nicht zu schmecken. Die ATIs sind da anspruchsloser.
So dürfte sich Nvidia in der mieslichen Lage befinden, daß sie viel von Hand optimieren müssen, was bei der Anzahl an Top-Spielen, die so auf den Markt kommen, recht aufwändig sein dürfte. Irgendwann wird ihnen die Manpower ausgehen...

betasilie
2004-11-07, 21:03:16
@Tombman hast du aa und aniso bei Flatout im CP oder im gamesetup eingestellt? Wenn ich im CP auf anwendung stelle und im game setup
auf 4XAA und Volles Aniso kommen bei mir sher gute frames raus selten unter 50 und meine GT läuft ohne OC also mit 350/1000
V-sync ist an deshalb maximal 60fps

1280*1024 4XAA Full Aniso
http://img103.exs.cx/img103/7246/FlatOutDemo1.jpg

http://img106.exs.cx/img106/7416/FlatOutDemo2.jpg
So, dann hier meine Pics, allerdings in 1600*1200, aber trotzdem schneller. Ansonsten ebenfalls 4*AA und volles AF:
http://img102.exs.cx/img102/8095/flatout316004aavollaf.jpg

http://img102.exs.cx/img102/3696/faltout216004aavollaf.jpg

Auf Anfrage von tjell:
Die CPU lief mit 2500Mhz, die X800 @ 520/560 (XT-PE Standardtakt)
Treiber sind die cat 4.9, OS ist WinXP SP2, Mainboardtreiber sind die 5.10er
4*AA und volle AF wurde über das Spiel selbst eingestellt.

dildo4u
2004-11-07, 21:06:25
Ähm bitte mal in 1280*1024 das wär sehr nett.

LovesuckZ
2004-11-07, 21:08:42
Was willst du beweisen?
Dass deine über 50% hoeher getaktete Karte schneller ist? Nicht wirklich, oder?

Exxtreme
2004-11-07, 21:10:10
http://img102.exs.cx/img102/3696/faltout216004aavollaf.jpg
Böses Mipmap-Banding sichtbar. ;(

Das gibt im Spiel garantiert eine nette Bugwelle.

Mr. Lolman
2004-11-07, 21:11:28
R300@400/350, 1280x1024 4xAA/AF:

http://img117.exs.cx/img117/4231/FlatOutDemo-2004-11-07-21-0.jpg

(der wollte mich einfach nicht in der 2. Startreihe starten lassen :|)

1600x1200 mit 4xAA und 4xpAF ist auch spielbar. Lustigerweise machen sich die verschiedenen AF Stufen deutlichst in der Performance merkbar, nur sieht man imo kaum was davon.

mapel110
2004-11-07, 21:11:37
Falsch. In D3 vielleicht ein paar fps und in COD genauso schnell.
(alles selbst getestet)

ATI drivers v6.490 (CATALYST 4.10); NVIDIA drivers v66.51.

call of duty
http://www.digit-life.com/articles2/radeon/x700-1/x700-1_08.html
183 zu 147 fps
GT zu XT (non PE)

doom3
http://www.digit-life.com/articles2/radeon/x700-1/x700-1_14.html
40.9 zu 25,2

betasilie
2004-11-07, 21:20:41
Ähm bitte mal in 1280*1024 das wär sehr nett.
In 1280*1024 wird das schon sehr arg von der CPU begrenzt. Da müsste ich mit einem Athlon 64 benchen, um vernünftige Werte zu bekommen. ... Du solltest leiber in 1600*1200 benchen, um wenn Du wirklich wissen willst, was die Karte kann. ;)

Und außerdem habe ich nicht die aktuellsten Treiber drauf und noch ne Menge Zeug im Hintergrund an.

Skusi
2004-11-07, 21:21:05
So eine sinnlose Diskussion.
Wer ernsthaft glaubt, daß eine X800U doppelt so schnell wie eine 6800U ist, der... :conf:
@tombman: Sicherlich kann man sich das immer so hinbasteln, wie man es gerne hätte. Bei mir bist du eh dafür bekannt.(siehe deine Sig.)
Bevor man mich jetzt als NV Fanboy beschimpft:
Ich habe zwar ne 6800, aber die X800 finde ich genauso gut. :smile:
OT: Von der Performance her war ich von Flat Out auch eher enttäuscht.
Ich denke, daß Spiel hat dezente Probleme mit einer 6800, die aber nicht in der Leistungsfähigkeit des 6800 zu suchen sind. Mal abwarten, was da noch so kommt.

Grüße, Skusi

mapel110
2004-11-07, 21:22:53
http://img126.exs.cx/img126/5095/FlatOutDemo2004-11-0721-17-39-83.th.jpg (http://img126.exs.cx/my.php?loc=img126&image=FlatOutDemo2004-11-0721-17-39-83.jpg)

http://img126.exs.cx/img126/18/FlatOutDemo2004-11-0721-17-51-55.th.jpg (http://img126.exs.cx/my.php?loc=img126&image=FlatOutDemo2004-11-0721-17-51-55.jpg)

http://img126.exs.cx/img126/4916/FlatOutDemo2004-11-0721-17-59-06.th.jpg (http://img126.exs.cx/my.php?loc=img126&image=FlatOutDemo2004-11-0721-17-59-06.jpg)

betasilie
2004-11-07, 21:23:01
So eine sinnlose Diskussion.
Wer ernsthaft glaubt, daß eine X800U doppelt so schnell wie eine 6800U ist, der... :conf:
@tombman: Sicherlich kann man sich das immer so hinbasteln, wie man es gerne hätte. Bei mir bist du eh dafür bekannt.(siehe deine Sig.)
Bevor man mich jetzt als NV Fanboy beschimpft:
Ich habe zwar ne 6800, aber die X800 finde ich genauso gut. :smile:
OT: Von der Performance her war ich von Flat Out auch eher enttäuscht.
Ich denke, daß Spiel hat dezente Probleme mit einer 6800, die aber nicht in der Leistungsfähigkeit des 6800 zu suchen sind. Mal abwarten, was da noch so kommt.

Grüße, Skusi
Ach und die ganzen anderen TWIMTBP-Games auch, wo die X800er soviel schneller sind?

dildo4u
2004-11-07, 21:23:38
In 1280*1024 wird das schon sehr arg von der CPU begrenzt. Da müsste ich mit einem Athlon 64 benchen, um vernünftige Werte zu bekommen. ... Du solltest leiber in 1600*1200 benchen, um wenn Du wirklich wissen willst, was die Karte kann. ;)

Und außerdem habe ich nicht die aktuellsten Treiber drauf und noch ne Menge Zeug im Hintergrund an.

Ich kann leider nix höheres testen da ich hier vor nem 17erTFT sitze.:rolleyes:

Auflösung reicht für mich völlig sieht 1A aus *G*

StefanV
2004-11-07, 21:24:00
So eine sinnlose Diskussion.
Wer ernsthaft glaubt, daß eine X800U doppelt so schnell wie eine 6800U ist, der... :conf:
1. find ich nicht :rolleyes:
2. sorry, aber das kann durchaus den Tatsachen entsprechen, wenn man etwas so 'hinbiegt', das es der 6800 nicht schmeckt, wohl aber den Radeons...
Da kann man sogar noch mehr erreichen, theoretisch...

Mr. Lolman
2004-11-07, 21:25:00
Klick (http://www.forum-3dcenter.de/vbulletin/showpost.php?p=2422239&postcount=3275) für Screens in 1600x1200.

Exxtreme
2004-11-07, 21:25:42
Ach und die ganzen anderen TWIMTBP-Games auch, wo die X800er soviel schneller sind?
Was hat TWIMTBP mit Gewinnen von Benchmarks zu tun?

betasilie
2004-11-07, 21:26:57
http://img126.exs.cx/img126/5095/FlatOutDemo2004-11-0721-17-39-83.th.jpg (http://img126.exs.cx/my.php?loc=img126&image=FlatOutDemo2004-11-0721-17-39-83.jpg)

kommen noch zwei ...
Vernünftig. Alles drunter wird zu stark von der CPU ausgebremst. :up:

Und wie man sehen kann ist die X800XT-PE (fps71) wirklich fast doppelt so schnell, wie die 6800Ultra (46fps).

Außerdem benutze ich nicht die aktuellsten Treiber und habe noch Zeugs im Hintergrund laufen. Ob das wirklich was ausmacht, weiß ich aber auch nicht.

StefanV
2004-11-07, 21:29:21
Wobei ihr 2 auch noch ein einigermaßen vergleichbares System habt ;)
Gut, Mapel hat 'nen Barton @ 2,4GHz und du 'nen T-Bred @ 2,5GHz, ansonsten aber einigermaßen vergleichbar...

MikBach
2004-11-07, 21:29:50
Was hat TWIMTBP mit Gewinnen von Benchmarks zu tun?
Gar nichts. Das ist DAU-Marketing. ;)

betasilie
2004-11-07, 21:29:57
Was hat TWIMTBP mit Gewinnen von Benchmarks zu tun?
Garnichts, wie man sieht. ;)

Es hörte sich aber so an, als ob Skusi sagen wollte, dass es sich nur um einen Bug handelt, was ich aber ausschließe, denn 1. soll TWIMTBP ja laut NV zumindest garantieren, dass die Games fehlerfrei laufen und ne Menge andere TWIMTBP-Games laufen auf den X800ern auch nahezu doppelt so schnell, wie auf den 6800ern.

mapel110
2004-11-07, 21:30:35
und habe noch Zeugs im Hintergrund laufen. Ob das wirklich was ausmacht, weiß ich aber auch nicht.

hab auch alles noch im Hintergrund laufen(emule, torrent, winamp). :)

CPU war auf 2200 Mhz/200 FSB und Karte @420/1120
FW 66.77

Wobei ihr 2 auch noch ein einigermaßen vergleichbares System habt ;)
Gut, Mapel hat 'nen Barton @ 2,4GHz und du 'nen T-Bred @ 2,5GHz, ansonsten aber einigermaßen vergleichbar...

nö. :D

LovesuckZ
2004-11-07, 21:32:40
Und wie man sehen kann ist die X800XT-PE (fps71) wirklich fast doppelt so schnell, wie die 6800Ultra (46fps).

nunja, wenn du 90 Frames haettes, dann würde diese Aussage sogar stimmen.
Das einzige was man erkennt ist, dass ein 25% Vorsprung bei gleichen Taktraten herrscht.
Nichts neues also. Solche Unterschiede kommen eben vor.
Bei MoH denke ich dagegen, dass die Treiber noch nicht in der Austaischbank vorhanden sind...

dildo4u
2004-11-07, 21:32:52
http://img126.exs.cx/img126/5095/FlatOutDemo2004-11-0721-17-39-83.th.jpg (http://img126.exs.cx/my.php?loc=img126&image=FlatOutDemo2004-11-0721-17-39-83.jpg)

http://img126.exs.cx/img126/18/FlatOutDemo2004-11-0721-17-51-55.th.jpg (http://img126.exs.cx/my.php?loc=img126&image=FlatOutDemo2004-11-0721-17-51-55.jpg)

http://img126.exs.cx/img126/4916/FlatOutDemo2004-11-0721-17-59-06.th.jpg (http://img126.exs.cx/my.php?loc=img126&image=FlatOutDemo2004-11-0721-17-59-06.jpg)


@mapell GT oder Ultra Clock die Atiler ham ja auch oc.:tongue:

betasilie
2004-11-07, 21:33:16
hab auch alles noch im Hintergrund laufen(emule, torrent, winamp). :)

CPU war auf 2200 Mhz/200 FSB und Karte @420/1120
FW 66.77
Meine Karte habe ich extra auf Standardtakt getaktet, Du alter Cheater. ;)

CPU ist bei mir wie in der Sig. Treiber sind die Cat 4.9.

Blaire
2004-11-07, 21:33:22
@Tombman: Teste doch mal den 70.41er Forceware der ist bei Mohaa PA deutlich schneller zumindest bei der Demo. Die Fullversion hab ich noch nicht.
Nvidia wird da sicher wieder nachbessern ist ja nix neues das Nvidia einige Probleme mit PS 2.0 Games besitzt. Aber im Falle von Farcry wurde da jetzt auch deutlich nachgebessert und der Unterschied ist bei weitem nicht mehr so groß als es damals noch der Fall war.

MfG

dildo4u
2004-11-07, 21:37:31
Immer noch keine 1280*1024 pix schade :rolleyes:
Ist auch GK limitiert bekomme ca 10fps mher wenn ich von GT auf Ultra takt gehe
Mapell mach mal bidde 1280*1024 4XAA full Anios mit GT takt zum vergleichen
vieleicht is der 66.81 den ich drauf hab schneller.

Skusi
2004-11-07, 21:41:25
Es hörte sich aber so an, als ob Skusi sagen wollte, dass es sich nur um einen Bug handelt, was ich aber ausschließe, denn 1. soll TWIMTBP ja laut NV zumindest garantieren, dass die Games fehlerfrei laufen und ne Menge andere TWIMTBP-Games laufen auf den X800ern auch nahezu doppelt so schnell, wie auf den 6800ern.

Wollte ich nicht, sondern einfach zum Ausdruck bringen, daß die X800 bei Flat Out ihren Taktvorteil ausspielen kann, der durch Optimierung auf die moderne Hardware des NV40 noch relativiert werden kann.

betasilie
2004-11-07, 21:42:44
@mapell GT oder Ultra Clock die Atiler ham ja auch oc.:tongue:
Ich habe Standardtakt an. Also XT-PE. ;)

Mr. Lolman
2004-11-07, 21:43:02
http://img91.exs.cx/img91/5121/FlatOutDemo-2004-11-07-21-4.th.jpg (http://img91.exs.cx/my.php?loc=img91&image=FlatOutDemo-2004-11-07-21-4.jpg) http://img106.exs.cx/img106/8079/FlatOutDemo-2004-11-07-21-5.th.jpg (http://img106.exs.cx/my.php?loc=img106&image=FlatOutDemo-2004-11-07-21-5.jpg)
(4xAA/biAF - wie schnell die Karte mit 256MB wohl wär :|)

dildo4u
2004-11-07, 21:43:53
Ich habe Standardtakt an. Also XT-PE. ;)
Naja aber Ultra takt gegen ATI PE takt ist schon gerecht oder nich?

betasilie
2004-11-07, 21:46:34
Wollte ich nicht, sondern einfach zum Ausdruck bringen, daß die X800 bei Flat Out ihren Taktvorteil ausspielen kann, der durch Optimierung auf die moderne Hardware des NV40 noch relativiert werden kann.
Ok. :)

Leider stellt sich das auch bei einer Menge anderen Spiele so dar. Deshalb habe ich meine 6800GT auch verkauft, obwohl sie sehr gut zu übertakten war.

In Joint Ops ist der Unterschied genauso hoch. Bei MoH: PA auch. X2 ebenfalls. Auch Men of Velor soll trotz SM3.0 Optimierungen erheblich schneller laufen.

Mag sein, dass der NV40 bei optimierten Games schneller läuft, nur scheinbar gibt es davon nicht allzu viele.

betasilie
2004-11-07, 21:47:36
Naja aber Ultra takt gegen ATI PE takt ist schon gerecht oder nich?
Klar. Die Karten haben den selben Preis, also sind sie die direkten Konkurrenten. :)

Exxtreme
2004-11-07, 21:54:45
Naja aber Ultra takt gegen ATI PE takt ist schon gerecht oder nich?
Natürlich ist das gerecht. Oder wieso soll man ein Produkt künstlich verlangsamen bloß weil die Konkurrenz nicht hinterherkommt?

Bei Autovergleichen werden bei einem 6-Zylinder auch nicht 2 Zylinder "deaktiviert" wenn man das Auto gegen einen 4-Zylinder testet.

dildo4u
2004-11-07, 21:58:57
Hier nochmal 1280*1024 4xAAFullAniso diesmal 6800U Takt
schwankt zwischen 68-69fps bitte macht noch mal vergleich shots.
Wie gesagt bei mir ist das noch GK limitiert


http://img131.exs.cx/img131/8623/FlatOutDemo2004-11-0721-54-53-62.jpg

mapel110
2004-11-07, 21:59:03
Auch Men of Velor soll trotz SM3.0 Optimierungen erheblich schneller laufen.


Dann wärs schon das zweite SM3.0 Game, das nach DX7 aussieht.
Hast du eine Quelle, dass das Game SM3.0 nutzt?
find dazu nix.

@Dildo4u
hab an der Stelle auch ca 66 fps bei selben settings.

betasilie
2004-11-07, 22:00:53
Dann wärs schon das zweite SM3.0 Game, das nach DX7 aussieht.
Hast du eine Quelle, dass das Game SM3.0 nutzt?
find dazu nix.
Ne, ehrlich weiß ich nicht mehr wo ich das gelesen habe, Afair soll MoV einen SM3.0 Pfad haben für den NV40. Aber ich weiß es nicht sicher, daher nehme ich die Aussage lieber zurück.

Edit:
mapel, Query. :)

dildo4u
2004-11-07, 22:33:35
Ne, ehrlich weiß ich nicht mehr wo ich das gelesen habe, Afair soll MoV einen SM3.0 Pfad haben für den NV40. Aber ich weiß es nicht sicher, daher nehme ich die Aussage lieber zurück.

Edit:
mapel, Query. :)
MOHPA zeigt bei mir an das meine 6800GT PS3.0 hat auswählen kann ich trotzdem nur PS1.1 und PS2.0

tombman
2004-11-07, 22:37:21
ATI drivers v6.490 (CATALYST 4.10); NVIDIA drivers v66.51.

call of duty
http://www.digit-life.com/articles2/radeon/x700-1/x700-1_08.html
183 zu 147 fps
GT zu XT (non PE)

doom3
http://www.digit-life.com/articles2/radeon/x700-1/x700-1_14.html
40.9 zu 25,2

1.) pci-express --> Treiber im Arsch
2.) ich bekomm andere Ergebnisse, bei Doom3 ist die 6800u etwas schneller aber beide über 40fps. (die 29fps von deinem link sind nur mehr Blödsinn)

tombman
2004-11-07, 22:43:54
http://img126.exs.cx/img126/5095/FlatOutDemo2004-11-0721-17-39-83.th.jpg (http://img126.exs.cx/my.php?loc=img126&image=FlatOutDemo2004-11-0721-17-39-83.jpg)



da hab ich ca 80fps...

Also war das mit fast doppelt so schnell gar ned so falsch :cool:

das TWINMTBP Programm is nur mehr ein Witz... überall pickts drauf und heißt eigentlich nur, daß ATI da schneller ist :D Vielleicht solltens es NICHT draufpicken :D:D:D

BvB123
2004-11-07, 23:10:35
das TWINMTBP Programm sagt doch nicht aus das es schneller läuft nur das es mit jeder Nvidia karte ohne bugs oder ähnliches laufen soll


Gruß

dildo4u
2004-11-07, 23:11:55
da hab ich ca 80fps...

Also war das mit fast doppelt so schnell gar ned so falsch :cool:

das TWINMTBP Programm is nur mehr ein Witz... überall pickts drauf und heißt eigentlich nur, daß ATI da schneller ist :D Vielleicht solltens es NICHT draufpicken :D:D:D
Atis programm bringt aber irgendiwe auch nix siehe HL2.

ShadowXX
2004-11-07, 23:12:23
An der von Dildo geposteten Stelle hab ich folgende "werte" (XFX 6800 Ultra (die läuft Standardmässig mit 425/1200)):

1280x1024:

4xAA + 8xAF = 78 FPS
4xAA + 16xAF = 77 FPS
8xS AA + 8AF = 40 FPS

1600x1200:

4xAA + 8xAF = 57 FPS
4xAA + 16xAF = 55 FPS

(Nur Bri ist als Optimierung an, die gesammelte AF optimierungen sind aus, Treiber ist 66.81)

dildo4u
2004-11-07, 23:15:10
An der von Dildo geposteten Stelle hab ich folgende "werte" (XFX 6800 Ultra (die läuft Standardmässig mit 425/1200)):

1280x1024:

4xAA + 8xAF = 78 FPS
4xAA + 16xAF = 77 FPS
8xS AA + 8AF = 40 FPS

1600x1200:

4xAA + 8xAF = 57 FPS
4xAA + 16xAF = 55 FPS

(Nur Bri ist als Optimierung an, die gesammelte AF optimierungen sind aus, Treiber ist 66.81)


CPU?

ShadowXX
2004-11-07, 23:19:29
CPU?

Athlon 64 3800+, 1 Gig Ram :biggrin:

betasilie
2004-11-07, 23:19:41
CPU?
Jo und Bilder fänd ich auch toll. :rolleyes:

dildo4u
2004-11-07, 23:22:24
Athlon 64 3800+, 1 Gig Ram :biggrin:

Nich nett :eek: jo bei den High end karten kann man mit na guten cpu noch einiges rausholen selbst bei sehr hohen settings.

ShadowXX
2004-11-07, 23:37:45
Jo und Bilder fänd ich auch toll. :rolleyes:

Bilder kommen gleich....mit was bekommt man die so schön klein??? (JPEG oder PNG?)

ShadowXX
2004-11-07, 23:38:39
Nich nett :eek: jo bei den High end karten kann man mit na guten cpu noch einiges rausholen selbst bei sehr hohen settings.

Tombman hat auch nicht gerade eine "Krücke" als CPU.

BvB123
2004-11-07, 23:44:12
Meinst du diesen kleinen schnuckeligen 3 GHZ FX?

Kleinkram ;D

@ Tomb was sagt eigentlich skynet dazu das er in jedem bench mit seiner hochgelobten GT gegendich verliert :D

Gruß

betasilie
2004-11-07, 23:44:43
Bilder kommen gleich....mit was bekommt man die so schön klein??? (JPEG oder PNG?)
jepg. ;) 80% Qualität

ShadowXX
2004-11-08, 00:03:33
So...nun die Bilder: (und ein sorry an alle 56K-Modem-User)

1280x1024 4xAA / 8xAF

http://guardians-realm.net/FlatOut_1280x1024_4aa_8af.jpg

1280x1024 4xAA / 16xAF

http://guardians-realm.net/FlatOut_1280x1024_4aa_16af.jpg

1280x1024 8xS AA / 8AF

http://guardians-realm.net/FlatOut_1280x1024_8xS_8af.jpg

1600x1200 4xAA / 8xAF

http://guardians-realm.net/FlatOut_1600x1200_4aa_8af.jpg

1600x1200 4xAA / 16xAF

http://guardians-realm.net/FlatOut_1600x1200_4aa_16af.jpg

1600x1200 8xS / 8xAF

http://guardians-realm.net/FlatOut_1600x1200_8xS_8af.jpg


Das sollten dann alle gewesen sein....is leider nur JPEG 30% (wenn ich mal zuviel Zeit habe mach ichs nochmal mit 80%...hatte vergessen das mein umwandlungs-tool per default bei mir auf 30 eingestellt ist)

dildo4u
2004-11-08, 00:05:21
Leider arbeit umsonst du musst ganz links in der 2reihe stehen so haben bisher alle ihre pix gemacht.Wenn ich ganz vorne stehe hab ich auch höhere fps.

san.salvador
2004-11-08, 00:08:02
Irgendwie sieht das AF auf den Bildern sehr nach "nicht vorhanden" aus....

ShadowXX
2004-11-08, 00:09:43
Leider arbeit umsonst du musst ganz links in der 2reihe stehen so haben bisher alle ihre pix gemacht.Wenn ich ganz vorne stehe hab ich auch höhere fps.

Zieh um die 3-4 FPS ab...(bei den 8XS ruhig 5).

Wie man sieht sind die werte auch etwas höher als die alten...bei den alten werten, stand ich meist etwas weiter hinten.

betasilie
2004-11-08, 00:11:25
Irgendwie sieht das AF auf den Bildern sehr nach "nicht vorhanden" aus....
Shadow, du musst das AF über die Applikation regeln. Also einfach voll aufdrehen den Schieberegler.

Etwas edited. :D

ShadowXX
2004-11-08, 00:12:28
Irgendwie sieht das AF auf den Bildern sehr nach "nicht vorhanden" aus....

Doch...ist definitiv an...hab gerade nochmal nachgeguckt...ist auch egal ob man per CP oder per Game das AF zuschaltet, so siehts nunmal aus.

(Bilder sind alle per aTool geforceten AA/AF gemacht)

^^ is nicht richt...beta hatte recht...auf der nächsten Seite des Threads sind die korrigierten Werte.

Unterscheiden sich allerdings nicht wirklich gewaltig...

betasilie
2004-11-08, 00:19:07
1600x1200 4xAA / 16xAF

http://guardians-realm.net/FlatOut_1600x1200_4aa_16af.jpg

Du stehst ja in der ersten Reihe. Da hatte ich 8 fps mehr, so dass ich bei ~80fps wäre. ;)

Gast
2004-11-08, 00:29:36
An der von Dildo geposteten Stelle hab ich folgende "werte" (XFX 6800 Ultra (die läuft Standardmässig mit 425/1200)):

1280x1024:

4xAA + 8xAF = 78 FPS
4xAA + 16xAF = 77 FPS
8xS AA + 8AF = 40 FPS

1600x1200:

4xAA + 8xAF = 57 FPS
4xAA + 16xAF = 55 FPS

(Nur Bri ist als Optimierung an, die gesammelte AF optimierungen sind aus, Treiber ist 66.81)


Bei Ati sind standard dann auch mehr Optimierungen an oder? Das würde die leichten Unterschiede erklären.

Quasar
2004-11-08, 00:32:04
Ich glaube nicht, daß es an mangelndem Shaderreplacement seitens nV liegt, daß hier [edit: in der Flat-Out Demo] die X800XT-PE schneller sein soll. ;)

Ich behaupte mal, mit diesem Game hätte auch eine FX5800 nur wenig Probleme. ;)

ShadowXX
2004-11-08, 00:33:03
Da isrt auch kein AF vorhanden. ;)

Shadow, du musst das AF über die Applikation regeln. Also einfach voll aufdrehen den Schieberegler. Hatte anhand deiner Werte schon die Vermutung, dass Du kein AF an hast. Deswegen habe ich auch nach Bildern gefragt. ;)

Upppsss...ihr habt recht....allerdings ändern sich die werte nicht besonders stark:

1280x1024 mit 4xAA und "echtem" 8xAF (incl. hintere Reihe) = 75 FPS

1280x1024 mit 4xAA und "echtem" 16xAF (incl. hinter Reihe) = 72 FPS

1600x1200 mit 4xAA unnd "echtem" 16xAF (incl. hinter Reihe) = 53 FPS

Wenn ich lust hab, lade ich die anderen Bilder morgen Abend mal hoch...

Quasar
2004-11-08, 00:34:34
ShadowXX,

Welche Optimierungen für das AF waren bei dir an? Und wieviel Performance kostet/bringt es, im Flatout-Demo 'Triple Buffering' an- bzw. abzuwählen? ;)

betasilie
2004-11-08, 00:37:53
Upppsss...ihr habt recht....allerdings ändern sich die werte nicht besonders stark:

1280x1024 mit 4xAA und "echtem" 8xAF (incl. hintere Reihe) = 75 FPS

1280x1024 mit 4xAA und "echtem" 16xAF (incl. hinter Reihe) = 72 FPS

1600x1200 mit 4xAA unnd "echtem" 16xAF (incl. hinter Reihe) = 53 FPS

Wenn ich lust hab, lade ich die anderen Bilder morgen Abend mal hoch...
Und ab in die zweite Reihe des Startfeldes. Das macht schon was aus, ob man Fahrzeuge vor sich hat oder nicht. ;)

ShadowXX
2004-11-08, 00:41:13
ShadowXX,

Welche Optimierungen für das AF waren bei dir an? Und wieviel Performance kostet/bringt es, im Flatout-Demo 'Triple Buffering' an- bzw. abzuwählen? ;)

Nur die Bri-Optimierung war an....die beiden AF-Optimierungen waren aus.

Mit den AF-Optimierungen an hat man ca. 2 bis 3 FPS mehr (also nicht wirklich viel)

Zumindest auf 1280x1024 ist es egal ob man Triple-Buffer an oder aus hat....bei 160x1200 müsste ich es ausprobieren.

ShadowXX
2004-11-08, 00:43:29
Und ab in die zweite Reihe des Startfeldes. Das macht schon was aus, ob man Fahrzeuge vor sich hat oder nicht. ;)

Wie gesagt...bei den oben geposteten (neuen) werten stand ich in der 2ten Startreihe...hatte ich diesmal extra drauf geachtet.

Und es macht bei mir wirklich nur 2 bis 3 Frames unterschied, ob ich ganz vorne oder ganz hinten stehe.....

tombman
2004-11-08, 00:47:03
btw, bei diesen screenshots war die cpu ein 3.4ghz EE p4 @ default Takt. (meinen FX53 hab ich verkauft). Bekomme nächste Woche (wenn nix schiefgeht) einen FX55 :D (brauch dann noch ein mobo für sockel 939)

Piffan
2004-11-08, 00:47:31
Nun ist auch klar, warum NV das alte SLI wieder ausgebuddelt hat. :lol:

Möönsch Leude, nun hört mal auf damit, NV fertig zu machen. Habe gerade zwei Mainboards mit nForce- Chipsätzen gekauft und hoffe doch, dass NV noch in der Zukunft Support leisten kann.:frown:

Gast
2004-11-08, 01:29:42
Bei Doom 3 und Call of Duty ist es genau umgekehrt. Da liegt Nvidia uneinholbar in Front.


;D der war gut

10 fps ooooooh ja was für eine leistung ;D

naja hauptsache du glaubst es ;D

Xmas
2004-11-08, 02:01:53
Könnte ein X800-Besitzer mal Screenshots mit trilinearem AF machen? Bisher habe ich nur die Shots von beta mit bilinear gesehen.

seahawk
2004-11-08, 08:06:45
Typisch NV. Ohne Hilfe per Treiber läuft auf diesen Karten fast kein Spiel ausreichend schnell. Köstlich, dass Tombman das immer wieder beweist. ;D

Quasar
2004-11-08, 09:40:56
So, dann hier meine Pics, allerdings in 1600*1200, aber trotzdem schneller. Ansonsten ebenfalls 4*AA und volles AF:
http://img102.exs.cx/img102/8095/flatout316004aavollaf.jpg

http://img102.exs.cx/img102/3696/faltout216004aavollaf.jpg
Exxtreme hatte dich zwar schon drauf angesprochen, aber ich habe irgendwie keine Antwort auf die Frage gefunden, warum da so ein Mip-Banding offensichtlich ist.

Wie schaut denn die Performance mit einer Filterung aus, die einer High-End Karte würdig ist?

Mit biAF sind also 71fps.

Exxtreme
2004-11-08, 09:49:31
Wie schaut denn die Performance mit einer Filterung aus, die einer High-End Karte würdig ist?

Das würde mich jetzt auch interessieren.

ShadowXX
2004-11-08, 10:45:26
Wenn ihr euch bis heute Abend gedulden könnt, werde ich mal Bilder von der 68U mit allen Optimierungen aus posten. (Also "FullTri", keine AF optimierungen).

Bin selber mal gespannt was das denn an Performance zieht.

Dann kommt für Quasar auch noch die Untersuchung, ob Triple Buffer auf 1600x1200 extra Leistung zieht...

Wenns es das Game inzwischen beim MM gibt, gibts die Bilder sogar aus der Full-Version.

P.S.
gross vor 20:00 Uhr wird das aber nichts....

Labberlippe
2004-11-08, 11:01:10
Exxtreme hatte dich zwar schon drauf angesprochen, aber ich habe irgendwie keine Antwort auf die Frage gefunden, warum da so ein Mip-Banding offensichtlich ist.

Wie schaut denn die Performance mit einer Filterung aus, die einer High-End Karte würdig ist?

Mit biAF sind also 71fps.

Hi

Wenn ich AF übers Game einstelle habe ich ein heftiges Mip-Banding.
Wenn ich es aber übers CP erwzinge, dann funzt es ohne Mip-Banding.

Gruss Labberlippe

Quasar
2004-11-08, 11:06:57
Tjo, hier wurde doch aber an ShadowXX die Forderung gestellt, AF per Game-Setup einzustellen?

Ich hab's mir eben mal auf meiner 6800 angeschaut.
In 1600x1200 nur mit 16xAF (über den Treiber, und ja, das funktioniert bei mir und ich habe brav Screenshots gemacht, um das zu vergleichen, man muss FRAPS vorher beenden) bringt Quality mit allen Optimierungen an ggü. HQ glatt mal 50% mehr Leistung. ;)

Sieht aber auch zum fürchten flimmerig aus.
(Gleich schau ich's mir mal auf der R9700M @ default an. :devil: )

edit:
Hm, da gibt's gar nur bilineares AF, egal ob CP oder Applikation... kömich.
Mal bissel rumwurschtele...

Labberlippe
2004-11-08, 11:14:14
Tjo, hier wurde doch aber an ShadowXX die Forderung gestellt, AF per Game-Setup einzustellen?

Ich hab's mir eben mal auf meiner 6800 angeschaut.
In 1600x1200 nur mit 16xAF (über den Treiber, und ja, das funktioniert bei mir und ich habe brav Screenshots gemacht, um das zu vergleichen, man muss FRAPS vorher beenden) bringt Quality mit allen Optimierungen an ggü. HQ glatt mal 50% mehr Leistung. ;)

Sieht aber auch zum fürchten flimmerig aus.
(Gleich schau ich's mir mal auf der R9700M @ default an. :devil: )

Hi

Bei meiner 9600XT (jo ich weiss is keine X800) habe ich heftiges Banding wenn ich AF über Game einstelle.

Wobei ich immer 30 fps habe, egal ob ich FSAA an mache.
Laut Fraps pendle ich zwischen 25-30 fps.
4X FSAA und 16AF

gruss labberlippe

tombman
2004-11-08, 12:46:42
hab noch vergessen zu sagen, daß bei meinen tests ALLE nvidia Optimierungen ON waren--- ohne sinds nämlich statt 40fps dann nur mehr 30fps ;D

Und mip banding geht bei ATI weg in flatout wenn man über CP AF forced. (speed geht keiner verloren- da macht flatout einfach shit würd ich mal sagen)

tombman
2004-11-08, 12:47:25
Typisch NV. Ohne Hilfe per Treiber läuft auf diesen Karten fast kein Spiel ausreichend schnell. Köstlich, dass Tombman das immer wieder beweist. ;D

Meine Signatur hat magische Kräfte :cool:

Quasar
2004-11-08, 12:53:31
hab noch vergessen zu sagen, daß bei meinen tests ALLE nvidia Optimierungen ON waren--- ohne sinds nämlich statt 40fps dann nur mehr 30fps ;D

Und mip banding geht bei ATI weg in flatout wenn man über CP AF forced. (speed geht keiner verloren- da macht flatout einfach shit würd ich mal sagen)

Ein Texture-Layer mehr wird trilinear-anisotrop gefiltert und das kostet keine Performance? Das hiesse ja quasi, du hingest _nur_ an der Speicherbandbreite *gg* oder an der CPU-Leistung.

Ach ja, meine 6800 mit 'etwas' weniger RAM, Bandbreite und eine Füllrate in der Mitte zwischen GT und Ultra (also 16p, 375MHz), schafft da, wo du nur 30fps hast, schon 34 fps. - mit Optimierungen gar bis zu 48 (Startposition vorne links).

Vielleicht solltest' dein System mal neu formatieren. :devil:

betasilie
2004-11-08, 12:55:29
Exxtreme hatte dich zwar schon drauf angesprochen, aber ich habe irgendwie keine Antwort auf die Frage gefunden, warum da so ein Mip-Banding offensichtlich ist.

Wie schaut denn die Performance mit einer Filterung aus, die einer High-End Karte würdig ist?

Mit biAF sind also 71fps.
Ja, mit dem AF was man im Spiel einstellt ist ein böses Banding zu sehen und es flimmert auch. ;(

Nun ja, der Dildo hat das ja so gefordert, von daher kann ich ja nix dafür. ;)#

Mit dem CP-AF sieht das AF allerdings sauber aus, scheinbar ohne Verlust an Leistung.

Quasar
2004-11-08, 13:05:56
Schade - meine 9700M kann ich offenbar nicht dazu überreden. ;(

Tjell
2004-11-08, 13:06:14
Bin ich der Einzige hier, der von fast allen FPS-Ergebnisse postenden Leuten genaue Angaben zum eingesetzten System inklusive OS, Treiber und Qualitätseinstellungen vermißt?

Quasar
2004-11-08, 13:07:35
Nein.

edit:
Und bitte auch, an welcher Stelle - Erste Startreihe/Zweite Startreihe, welche Position vlnr usw. usf. ;)

saddevil
2004-11-08, 13:31:40
(alles selbst getestet)


ja das wissen wir doch schon ..
wobei ich DA keine objektivität SEHE!
lassen wir es mal so stehen

Gast
2004-11-08, 14:04:17
ohje, jetzt wird das ganze wieder von NV "Freunden" (vorsichtig ausgedrückt)ala Quasar ins Lächerliche gezogen...

Der krasse Abstand der bei MOHPA oder JO, BFV etc. auftritt hat rein gar nichts mit irgendwelchen Filteroptimierungen (die bei ATI ca. 5% Performance kosten, im Gegensatz zu NV) zu tun, auch wenn ihr jetzt wieder versucht auf der Schiene zu fahren.

Bei der Filter BQ ist wie man liest und sieht NV mittlerweile (mit Optimierungen) an ATI im negativen Sinne vorbeigezogen .

Es geht hier darum dass das oft beobachtete Phänomen dass NV Karten mit neuen Games sehr schlecht performen einfach ein Faktum ist und zeigt wie sehr NV (leider) mittlerweile von Optimierungen abhängig ist.
Ein Armutszeugnis.

betasilie
2004-11-08, 14:07:49
Bin ich der Einzige hier, der von fast allen FPS-Ergebnisse postenden Leuten genaue Angaben zum eingesetzten System inklusive OS, Treiber und Qualitätseinstellungen vermißt?
Ich habe Bilder gemacht, war in der zweiten Startreihe und mein System steht ja in der Sig. Besser geht es ja wohl kaum. ;)

Wie das mit der Peromance in Joint Ops aussieht, nämlich genauso wie bei X2, Flatout, MoH: PA, könnt hier hier sehen: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=173906

Und das diese riesigen Performanceunterschied durch die Filter kommen bezeifl ich doch sehr. Ich habe beide Karten 6800GT@Ultra und X800pro@XT-PE verglichen und sa sehe ich keine Unterschiede, was man auch an den entsprechenden Screenshots nachschauen kann.

MoH: PA (Demo) kann ich zB. in 1600*1200 schneller spielen, als 6800Ultra User in 1152*864. Soviel dazu. Bei der Full verhält sich das wohl genauso, wie ich von einigen Leuten schon geschreiben bekommen habe.

Tjell
2004-11-08, 14:17:50
@betareverse
Womit immer noch nicht geklärt ist, welches Betriebssystem, ServicePack, Mainboard-Treiber und Graka-Treiber zum Einsatz kamen, geschweige denn, inwiefern Optimierungen deaktiviert und welche BQ-Einstellungen genau eingestellt waren.

betasilie
2004-11-08, 14:20:18
@betareverse
Womit immer noch nicht geklärt ist, welches Betriebssystem, ServicePack, Mainboard-Treiber und Graka-Treiber zum Einsatz kamen, geschweige denn, inwiefern Optimierungen deaktiviert und welche BQ-Einstellungen genau eingestellt waren.
Schreibe ich auch noch drunter. :rolleyes:

Labberlippe
2004-11-08, 14:33:45
Hi

So sieht das ganze bei mir aus.

http://img112.exs.cx/img112/4356/1239.jpg

1024x768
4xFSAA 16AF per CP

Radeon 9600XT

Gruss Labberlippe

Quasar
2004-11-08, 14:40:53
ohje, jetzt wird das ganze wieder von NV "Freunden" (vorsichtig ausgedrückt)ala Quasar ins Lächerliche gezogen...

Der krasse Abstand der bei MOHPA oder JO, BFV etc. auftritt hat rein gar nichts mit irgendwelchen Filteroptimierungen (die bei ATI ca. 5% Performance kosten, im Gegensatz zu NV) zu tun, auch wenn ihr jetzt wieder versucht auf der Schiene zu fahren.

Bei der Filter BQ ist wie man liest und sieht NV mittlerweile (mit Optimierungen) an ATI im negativen Sinne vorbeigezogen .

Es geht hier darum dass das oft beobachtete Phänomen dass NV Karten mit neuen Games sehr schlecht performen einfach ein Faktum ist und zeigt wie sehr NV (leider) mittlerweile von Optimierungen abhängig ist.
Ein Armutszeugnis.

Ich habe lediglich von Flatout gesprochen. ;)

BK-Morpheus
2004-11-08, 14:41:49
Sorry, ich hatte bisher keine Zeit den ganzen Thread zu lesen, aber ist es normal, dass ich so eine derbe Bugwelle habe (wie hier auch jemadn hat: http://img102.exs.cx/img102/8095/flatout316004aavollaf.jpg), wenn ich AF per Spiel einstelle?

Wenn ich es im Treiber einstelle sieht es normal aus.
Hat Tombman beim Benchen evtl. auch AF im Spiel eingestellt und die häßliche Bugwelle, so dass dadurch teilweise die höhere Performance der ATI zu erklären ist?

Quasar
2004-11-08, 14:44:30
Und das diese riesigen Performanceunterschied durch die Filter kommen bezeifl ich doch sehr. Ich habe beide Karten 6800GT@Ultra und X800pro@XT-PE verglichen und sa sehe ich keine Unterschiede, was man auch an den entsprechenden Screenshots nachschauen kann.

Wie die X800 sich in Flat-Out verhält, weiß ich nicht - meine 6800 gewinnt (ohne AA) in 16x12x2 von HQ-16xAF zu Quality-16xAF mit allen Optimierungen an etwa 50% - verliert im Umkehrschluss also etwa 33% FPS.

Und eines noch: Auf Screenshots kann man das Flimmern leider nicht sehen. ;)

Quasar
2004-11-08, 14:45:27
Sorry, ich hatte bisher keine Zeit den ganzen Thread zu lesen, aber ist es normal, dass ich so eine derbe Bugwelle habe (wie hier auch jemadn hat: http://img102.exs.cx/img102/8095/flatout316004aavollaf.jpg), wenn ich AF per Spiel einstelle?

Wenn ich es im Treiber einstelle sieht es normal aus.
Hat Tombman beim Benchen evtl. auch AF im Spiel eingestellt und die häßliche Bugwelle, so dass dadurch teilweise die höhere Performance der ATI zu erklären ist?

Laut Beta und Tombman kostet CP-AF keine weitere Performance, im Gegensatz zu in-Game AF.

hmx
2004-11-08, 14:46:49
Kann vllt mal jemand in 1600*1200 mit 4xAA NoAF benchen? Dann könnnte man ja sehen wie die Filter die Performance beeinflussen. Ausserdem würde mich interessieren ob beim NV40 die der RAM bei 4xAA und 1600*1200 ausgeht. Also vergleiche zw 6800 mit 128 und 256MB bei og Einstellungen wären interessant. Und dann vielleicht wie hoch der einbruch beim Zuschalten von 4xAA in 1600*1200 in % auf der x800 bzw 6800 128 und 256MB ist.

ShadowXX
2004-11-08, 14:54:41
Tjo, hier wurde doch aber an ShadowXX die Forderung gestellt, AF per Game-Setup einzustellen?

Ich hab's mir eben mal auf meiner 6800 angeschaut.
In 1600x1200 nur mit 16xAF (über den Treiber, und ja, das funktioniert bei mir und ich habe brav Screenshots gemacht, um das zu vergleichen, man muss FRAPS vorher beenden) bringt Quality mit allen Optimierungen an ggü. HQ glatt mal 50% mehr Leistung. ;)


Ja was denn nun....wenn ich FRAPS vorher beenden muss, um AF zu haben, gibts keine FPS-Zahlen mehr.

Wie soll man dann die FPS ablesen....schätzen :| ??

Sagen wirs mal anders...meine ersten Bilder waren mit geforcten AF per CP...und trotzdem war wohl kein AF dabei. Lag das nun an FRAPS??

Und das Ingame-Zeug ist wohl wirklich nur Bi-AF (nach längerem betrachten, habe sogar ich das bemerkt).

Um Tri/Bri-AF zu haben müsste ich wohl dann über das CP das AF forcen...dann geht FRAPS aber nicht mehr...

Gibts da noch andere Programme, mit den man das mal testen könnte....oder würde es vielleicht reichen, wenn man die LOG-Funktion von FRAPS benutzt, den FPS-Overlay aber ausblendet.

Ach ja...zu Men of Valor und MohaPA muss ich den Jungs hier allerdings rechtgeben...hatte Sie mir mal aus der Videothek ausgeliehen und musste feststellen, das Sie wirklich grottig auf den nVs laufen (zumindest mit dem 66.81).

Bin momentan am überlegen, ob ich mit Tombman gleichziehe und mir noch eine XT-PE dazuhole (wenn man Sie den bekommen könnte).
Wobei das dauernde Kartenwechseln wohl doch auf den APG-Slot gehen würde.

Hmmm...wenn man ein SLI Board hätte...könnte man dann beide Karten (68U & XT-PE) reinsetzen und als Renderer zwischen beiden wählen??? (Bei Voodoo + beliebige andere AGP-Karte funktionierte das ja auch)

Labberlippe
2004-11-08, 14:56:05
Laut Beta und Tombman kostet CP-AF keine weitere Performance, im Gegensatz zu in-Game AF.

Hi

Hmm irgendwie kommt mir vor, das vor der Bugwelle, die Texturen schärfer sind als bei mir...

Gruss Labberlippe

Quasar
2004-11-08, 14:59:38
Bei mir (128MB-6800er) liegen die FPS in 1600x1200 ohne alles in HQ bei ~86.
Nur 4xAA senkt das auf 57FPS, nur 16xAF auf 48fps und beides zusammen auf 34 FPS.
Alles von Startposition 1 inkl. der "Press Enter to Start" Einblendung auf der Schotterstrecke.

1 | 2 | 3 | 4
------------
5 | 6 | 7 | 8

Treiber 66.81 auf HQ, Auflösung 1600x1200, maximale Grafikdetails (bis auf Triple-Buffering, welches aus war), minimale Sounddetails.
Mein System steht in der Sig, die 6800 lief mit 16/6 Shadereinheiten bei 375/400MHz. Win2k, keine großartige Hintergrundaktivität (nur Software-Firewall an), SP4.

Die VRAM-Größe wird mit 4xAA zwar knapp, aber die 256MB-Versionen sollten keine Beeinträchtigung dadurch haben.

Quasar
2004-11-08, 15:01:30
Ja was denn nun....wenn ich FRAPS vorher beenden muss, um AF zu haben, gibts keine FPS-Zahlen mehr.

Wie soll man dann die FPS ablesen....schätzen :| ??

Ich habe ab und an beobachtet, das FRAPS wohl irgendwie als 3D-Applikation gewertet wurde, so daß _während_ FRAPS lief, keine Modus-Änderungen akzeptiert wurden.
FRAPS aus, Modus ändern, FRAPS wieder an. ;)

ShadowXX
2004-11-08, 15:03:02
Kann vllt mal jemand in 1600*1200 mit 4xAA NoAF benchen? Dann könnnte man ja sehen wie die Filter die Performance beeinflussen. Ausserdem würde mich interessieren ob beim NV40 die der RAM bei 4xAA und 1600*1200 ausgeht. Also vergleiche zw 6800 mit 128 und 256MB bei og Einstellungen wären interessant. Und dann vielleicht wie hoch der einbruch beim Zuschalten von 4xAA in 1600*1200 in % auf der x800 bzw 6800 128 und 256MB ist.

Ich werde heute Abend mal eine kurze Testreihe fahren.

1280x1024 und 1600x1200, in allen Varianten (kein AA/AF, 4xAA/ XxAF, per CP / per Application).

Die Bilder werde ich dann alle mal reinstellen....von mir aus auch ohne JPEG-Kompression (Platz hab ich auf meinem Web-Server genug).

Dann sollten wir aber eine "< 1000MBit Down DSL"-Warnung in den Threadtitel reinhängen.

ShadowXX
2004-11-08, 15:05:13
Ich habe ab und an beobachtet, das FRAPS wohl irgendwie als 3D-Applikation gewertet wurde, so daß _während_ FRAPS lief, keine Modus-Änderungen akzeptiert wurden.
FRAPS aus, Modus ändern, FRAPS wieder an. ;)

Danke...dann weiss ich ja was ich heute Abend mache....ist auch besser als Fernsehen gucken.

Quasar
2004-11-08, 15:28:55
http://home.arcor.de/quasat/3DC-Pics/Flatout%2016x12x3%20DB%204xAA%2016xAF%20(b).PNG

http://home.arcor.de/quasat/3DC-Pics/Flatout%2016x12x3%20DB%204xAA%2016xAF%20(a).PNG

Sodele, hier meine Screenies (Vorsicht, à 2,8MB-PNG).
Erstaunt (oder auch nicht) stellt man fest, daß der Screenshot mit aktiven Optimierungen ein vieeeel schärferes Bild bietet. *boah*

Und nein, ich will damit in keinster Weise gegen die "Großen" anstinken, deswegen spielts auch für mich keine Rolle, daß mein Shot von Startposition 1 aufgenommen wurde und nicht von Position 5.

Gast
2004-11-08, 15:38:52
Bin ich der Einzige hier, der von fast allen FPS-Ergebnisse postenden Leuten genaue Angaben zum eingesetzten System inklusive OS, Treiber und Qualitätseinstellungen vermißt?

Bei Tombman kennt man es ja nicht anders.

Gast
2004-11-08, 15:43:23
MoH: PA (Demo) kann ich zB. in 1600*1200 schneller spielen, als 6800Ultra User in 1152*864. Soviel dazu. Bei der Full verhält sich das wohl genauso, wie ich von einigen Leuten schon geschreiben bekommen habe.

Albern. Ich kann problemlos bei 1600x1200 zocken mit einer 6800 GT was sagsten dazu? Mit 1600x1200 Quality Treiber (Tril.Op.enabled,Anisotr.Opt. sind aus) 40-50fps ca. je nach Situation

Quasar
2004-11-08, 15:49:14
Bei Tombman kennt man es ja nicht anders.
:nono:
Pöser, karstiger Kast! Sowas sollst du nicht sagen!

Gast
2004-11-08, 15:54:10
:nono:
Pöser, karstiger Kast! Sowas sollst du nicht sagen!

Jaja mein guter
die wahrheit tut weh gell?

oder siehst du hier EIN beweis von unserm top Bencher ?
weil zahlen kann ich hier auch Posten :)

ps. net soviel axxxxgricherich durchs leben gehn :)

Gast
2004-11-08, 16:00:36
:nono:
Pöser, karstiger Kast! Sowas sollst du nicht sagen!

Ist es nicht so? Oder höre ich da ein wenig Ironie heraus?

Holundermann
2004-11-08, 16:07:17
hui, die optimierungen bringen satte 14 fps auf ner 6800er 128mb^^ würde mich interessieren wies bei den radeon karten aussieht...

MikBach
2004-11-08, 16:08:36
Bei Tombman kennt man es ja nicht anders.
Tombman wird schon einen relativ neuen 66er bei Nvidia und den Cat 4.10 oder 4.11b bei ATI benutzen. Wen juckt´s?
Welchen genau er jetzt bei Nvidia benutzt ist doch unwichtig, da alles Beta/Leaked Treiber, die in "paar Tage Periode" kommen. Man kann nicht ernsthaft von jemandem verlangen auch noch zum Betatester für die verschiedensten Spiele zu mutieren. ;)

xL|Sonic
2004-11-08, 16:14:04
Wenn man es ganz genau nimmt müsste man gegen den offiziellen Catayst 4.10 mit dem letzten offiziellen nv Treiber benchen und da der 66.77 für WinXP MCE nicht zählt ist das hier der 61.77er, aber das kann man den armen nvidianern ja nicht antun, sind ja schon genug gebeutelt :/

dildo4u
2004-11-08, 16:23:26
Ja, mit dem AF was man im Spiel einstellt ist ein böses Banding zu sehen und es flimmert auch. ;(

Nun ja, der Dildo hat das ja so gefordert, von daher kann ich ja nix dafür. ;)#


Bei mir gibt mit allen optemierungen an aber gar kein Banding jedenfalls nix was wirklich auffällt.

Gast
2004-11-08, 16:45:16
Tombman wird schon einen relativ neuen 66er bei Nvidia und den Cat 4.10 oder 4.11b bei ATI benutzen. Wen juckt´s?
Welchen genau er jetzt bei Nvidia benutzt ist doch unwichtig, da alles Beta/Leaked Treiber, die in "paar Tage Periode" kommen. Man kann nicht ernsthaft von jemandem verlangen auch noch zum Betatester für die verschiedensten Spiele zu mutieren. ;)

Das ändert trotzdem nichts daran das man fair gegeneinander benchen muss. Sonst braucht man solche Threads garnicht erst aufmachen dienen sie doch nur dazu rumzuflamen. Das ist ja leider nicht das erste Mal.
Was die Treiber angeht so muss man sagen daß Nvidia da vorsichtiger mit den Kunden umgeht und nicht wahllos wie Ati --> Betatreiber als neue offizielle deklariert und den Kunden als Betatester missbraucht.

san.salvador
2004-11-08, 16:55:09
Das ändert trotzdem nichts daran das man fair gegeneinander benchen muss. Sonst braucht man solche Threads garnicht erst aufmachen dienen sie doch nur dazu rumzuflamen. Das ist ja leider nicht das erste Mal.
Was die Treiber angeht so muss man sagen daß Nvidia da vorsichtiger mit den Kunden umgeht und nicht wahllos wie Ati --> Betatreiber als neue offizielle deklariert und den Kunden als Betatester missbraucht.
Wann hat ATI Betatreiber nicht als solche deklariert?

xL|Sonic
2004-11-08, 17:01:44
Ist ja nicht ATI's Fehler, wenn nvidia es nicht schafft öfters mal nen vernünftigen offiziellen Treiber rauszubringen. ATI dann aber zu unterstellen, sie würden Beta Treiber als offizielle treiber rausbringen ist doch blödsinn.
Aber hauptsache erstmal rumflamen ;)

Gast
2004-11-08, 17:05:16
Ist ja nicht ATI's Fehler, wenn nvidia es nicht schafft öfters mal nen vernünftigen offiziellen Treiber rauszubringen. ATI dann aber zu unterstellen, sie würden Beta Treiber als offizielle treiber rausbringen ist doch blödsinn.
Aber hauptsache erstmal rumflamen ;)

Nope. Du flamst rum. Nvidia bringt nur dann Treiber heraus wenn alle neuen Games einwandfrei darauf funzen. Das ist auch korrekt so. Wer Leaked Treiber testen will sollte es tun dürfen (sollte jedem frei stehen..)
Ist aber besser als bei Ati die nach den offiziellen Catalysts ---> Hotfixes bringen müssen weil ja alles so gut läuft. ;) LOL

xL|Sonic
2004-11-08, 17:10:32
Es funzen selbst mit den ach so tollen nv treibern nicht alle Spiele 100%ig wie du uns hier weiß machen willst.
Ich selber hate noch nie Probleme mit ATI treibern gehabt, jedoch welche mit den nv Treibern. Es hängt vieles vom System ab und dem User der davor sitzt und es ist schlichtweg falsch zu pauschalisieren, dass es überall so ist, denn bei nv ist es nicht anders. Nur hast du bei ATI die möglichkeit mit dem nächsten offiziellen Catalyst das problem gefixt zu haben, währenddessen du bei nvidia da ein halbes Jahr warten musst.

deLuxX`
2004-11-08, 17:11:14
Das kann man jetzt sehen wie man will. Wenn es danahc geht könnte NV gar keinen Treiber mehr rausbringen weil immer igendein Game rumzickt, aber gut ist sowieso alles OT!

€:xL|Sonic sagt es. BTW ich hab ne 6800GT :P

tombman
2004-11-08, 17:11:49
des war irgendein 68er treiber bei nvidia und bei ATi wars 8.07 (weiß gar ned wie der in cat heisst?) glaub ich ...

und ihr könnt mir glauben, daß die "Filtertheorie" (so nenn ich den hype jetzt mal liebevoll) bis zu 100% langsamer NICHT erklären kann.

Wie gesagt, bei MOHPA hast ziemlich die selben fps bei nv 1024 und ati 1600 --> so krank.

Gast
2004-11-08, 17:14:40
Es funzen selbst mit den ach so tollen nv treibern nicht alle Spiele 100%ig wie du uns hier weiß machen willst.
Ich selber hate noch nie Probleme mit ATI treibern gehabt, jedoch welche mit den nv Treibern. Es hängt vieles vom System ab und dem User der davor sitzt und es ist schlichtweg falsch zu pauschalisieren, dass es überall so ist, denn bei nv ist es nicht anders. Nur hast du bei ATI die möglichkeit mit dem nächsten offiziellen Catalyst das problem gefixt zu haben, währenddessen du bei nvidia da ein halbes Jahr warten musst.

Wer sagt das? Was aber als sicher geht bei Nvidia testet man vorher gründlicher nach Fehlern als dies bei Ati der Fall ist.
Da ich selber aus beiden Lagern Karten besitze weiss ich das bei Ati deutlich mehr Probleme gibt mit Games.
Pauschalisieren kann man dies aber nicht. Aber ich finde Nvidias Treiberpolitik als deutlich kundenfreundlicher.

Gast
2004-11-08, 17:15:49
des war irgendein 68er treiber bei nvidia und bei ATi wars 8.07 (weiß gar ned wie der in cat heisst?) glaub ich ...

und ihr könnt mir glauben, daß die "Filtertheorie" (so nenn ich den hype jetzt mal liebevoll) bis zu 100% langsamer NICHT erklären kann.

Wie gesagt, bei MOHPA hast ziemlich die selben fps bei nv 1024 und ati 1600 --> so krank.

Beweise es und poste Screenshots mit ident. Settings...

deLuxX`
2004-11-08, 17:16:55
@Gast

Findest du es Kundenfreundlich wenn NV es nicht in den Griff bekommt nen gescheiten Treiber zu proggen. Ich nicht!

MikBach
2004-11-08, 17:18:13
Nvidia bringt nur dann Treiber heraus wenn alle neuen Games einwandfrei darauf funzen. Das ist auch korrekt so.
Na, das wird noch was dauern, da nie alle Spiele funken werden, da immer wieder neue kommen. ;)

Wer Leaked Treiber testen will sollte es tun dürfen (sollte jedem frei stehen..)

Wer auf Leistung und Kompatibilität achtet, wird mit Sicherheit nicht mehr den 61.77 verwenden. Man muss auf inoffizielle Treiber ausweichen.

Ist aber besser als bei Ati die nach den offiziellen Catalysts ---> Hotfixes bringen müssen weil ja alles so gut läuft. ;) LOL
Wenn es sich um wichtiges Bugfixing handelt, halte ich Betas für sinnvoll. So z.B. der 256 MB Bug bei ATI.
Aber zig Betatreiber, bei denen keiner mehr durchblickt, sind IMHO nicht der richtige Weg.
ATI bringt höchstens ein paar Betatreiber im Jahr. Das ist noch überschaubar.

Mumins
2004-11-08, 17:19:56
Aber ich finde Nvidias Treiberpolitik als deutlich kundenfreundlicher.

Wie lange gibts den 61.77 schon? Ne halbe Ewigkeit, sonst gibts auf der offizielen Seite gar nichts, dieser Treiber ist eine Zumutung.

Gast
2004-11-08, 17:20:07
@Gast

Findest du es Kundenfreundlich wenn NV es nicht in den Griff bekommt nen gescheiten Treiber zu proggen. Ich nicht!

Inwiefern?

Gast
2004-11-08, 17:21:47
Wie lange gibts den 61.77 schon? Ne halbe Ewigkeit, sonst gibts auf der offizielen Seite gar nichts, dieser Treiber ist eine Zumutung.

66.77 steht auf Nvidias Server zur Verfügung. Allerdings Beta teste ihn oder lass es sein. Deine Entscheidung

Quasar
2004-11-08, 17:22:33
und ihr könnt mir glauben, daß die "Filtertheorie" (so nenn ich den hype jetzt mal liebevoll) bis zu 100% langsamer NICHT erklären kann.

Sind's nicht eher 50% langsamer?
30+x% sind schonmal reine Taktratenvorteile - somit bleiben 20-x% für die Filtergeschichten übrig. ;)

StefanV
2004-11-08, 17:24:17
Nope. Du flamst rum. Nvidia bringt nur dann Treiber heraus wenn alle neuen Games einwandfrei darauf funzen. Das ist auch korrekt so. Wer Leaked Treiber testen will sollte es tun dürfen (sollte jedem frei stehen..)
Ist aber besser als bei Ati die nach den offiziellen Catalysts ---> Hotfixes bringen müssen weil ja alles so gut läuft. ;) LOL
Nope, da hat der liebe XL|Sonic schon recht, irgendwie.

Zumal die nV Treiber ganz schön nachgelassen haben und auch nicht mehr wirklich 'gut' laufen, ganz im Gegenteil, die ATI Treiber sind sogar weit vor den nV Treibern...

Solche gimmicks wie 'hot plugging' vom Monitor, ohne irgendwas einzustellen, sind schon ganz nützlich...

Und das nV nur dann Treiber raus bringt, wenn 'alles soweit läuft', ist auch völliger blödsinn...

Sorry, lieber Gast aber es scheint, als wolltest du hier nV schönreden...


€dit:

Achja, lieber Gast, falls du es nicht sehen magst, aber der liebe xl|Sonic ist im Besitze einer 6800 ULTRA...
Von daher...

Aber vermutlcih sprichst du von einer TI4200, wo die Treiber früher mal einigermaßen OK waren, seit der FX Serie gibts aber 'hier und da' mal Probleme, bei ATi eher weniger...

deLuxX`
2004-11-08, 17:25:58
Inwiefern?

Insofern das ich, wenn ich Geschwindigkeit(und wahrscheinlich auch Kompatibilität) wollte einen neuen, sprich 65.X-66.X installieren müsste. Diese haben aber bei den Spielen die ich zogge Bildfehler und Bugs, zb. WC3, D³, UT2k4. So muss ich bei dem alten 61.77 bleiben, der bei mir zwar keine Bildfehler liefert aber in in den beiden oben angesprochenen Dingen überholt ist.

BlackArchon
2004-11-08, 17:26:37
des war irgendein 68er treiber bei nvidia...So genau wollten wir das gar nicht wissen.

MikBach
2004-11-08, 17:30:02
Sind's nicht eher 50% langsamer?
30+x% sind schonmal reine Taktratenvorteile - somit bleiben 20-x% für die Filtergeschichten übrig. ;)
Hehe, die arithmetische Shaderleistung ist laut aths beim NV40 deutlich besser. :naughty:
Taktnormalisiert zu rechnen ist weltfremd. ;)

LovesuckZ
2004-11-08, 17:30:20
Oh, eine Treiberdiskussion, wie fein:


Wer auf Leistung und Kompatibilität achtet, wird mit Sicherheit nicht mehr den 61.77 verwenden. Man muss auf inoffizielle Treiber ausweichen.

Auch nvidia's Treiber sidn inoffizielle, da sie keinerlei Garantie für das einwandfreie funktionieren uebernehmen.
Ausserdem ist nicht Nvidia sondern der Partner, bei welchem man die Karte gekauft hat, für den Support zustaendig.
Wer Probleme hat, sollte bzw. muss ihm schreiben.

Wenn es sich um wichtiges Bugfixing handelt, halte ich Betas für sinnvoll. So z.B. der 256 MB Bug bei ATI.

Aha, wichtiges "bugfixing".
So nennt man das Cheaten in Doom3 (und anderen Spielen dank A.I), das Ausmerzen eines Bugs, welches schon seit dem erscheinen der X karten vorhanden war (immerhin nur 6 Monate gedauert :top:) oder das unterstuetzen bestimmter Features durch Hacks, weil man unbedingt besser sein moechte.

ATI bringt höchstens ein paar Betatreiber im Jahr. Das ist noch überschaubar.

Nvidia hat mit dem 66.81 (n-zone) im Gegensatz zu Ati gerade mal einem in den letzten drei Monaten veröffentlicht.


@Gast
Findest du es Kundenfreundlich wenn NV es nicht in den Griff bekommt nen gescheiten Treiber zu proggen. Ich nicht!

Kein Unterschied zu ATi.


Wenn man es ganz genau nimmt müsste man gegen den offiziellen Catayst 4.10 mit dem letzten offiziellen nv Treiber benchen und da der 66.77 für WinXP MCE nicht zählt ist das hier der 61.77er, aber das kann man den armen nvidianern ja nicht antun, sind ja schon genug gebeutelt :/

Der letzte offizielle ist der 66.81 von n-zone.

Gast
2004-11-08, 17:30:28
Na, das wird noch was dauern, da nie alle Spiele funken werden, da immer wieder neue kommen. ;)

Was ist für den Programmierer sinnvoller? Ein stabiler Treiber oder zig Betatreiber jeden Monat? Warum wohl muss bei Ati so oft nachgebessert werden? Woran liegt das wohl?


[QUOTE]
Wer auf Leistung und Kompatibilität achtet, wird mit Sicherheit nicht mehr den 61.77 verwenden. Man muss auf inoffizielle Treiber ausweichen..

Halt ich für ein Gerücht.


Wenn es sich um wichtiges Bugfixing handelt, halte ich Betas für sinnvoll. So z.B. der 256 MB Bug bei ATI.
Aber zig Betatreiber, bei denen keiner mehr durchblickt, sind IMHO nicht der richtige Weg.
ATI bringt höchstens ein paar Betatreiber im Jahr. Das ist noch überschaubar.

Bei ersterem gebe ich dir Recht. Aber überschaubar ist die ganze Geschichte schon lange nicht mehr. Natürlich freuen sich die Leute wenn dauernd neue "offizielle" Catalysts erscheinen aber leider dienen diese meist nur zum Bugfixing. D.h. Alte Probleme wurden behoben und neue wurden (wieder) geschaffen. meine Erfahrungen

deLuxX`
2004-11-08, 17:36:00
Kein Unterschied zu ATi.


Mag sein, bzw. kann ich nicht beurteilen da ich keine ATI hab, aber Kundenunfreundich bliebt es imho trotzdem-

Labberlippe
2004-11-08, 17:38:08
Halt ich für ein Gerücht.




Bei ersterem gebe ich dir Recht. Aber überschaubar ist die ganze Geschichte schon lange nicht mehr. Natürlich freuen sich die Leute wenn dauernd neue "offizielle" Catalysts erscheinen aber leider dienen diese meist nur zum Bugfixing. D.h. Alte Probleme wurden behoben und neue wurden (wieder) geschaffen. meine Erfahrungen


Hi

Also ich lese jetzt diesen Thread schon die ganze Zeit und mir geht das treiber gejammere am Sack.

Dann lass Deine nV Karte im Rechner mach nen Bogen um ATi und stell nicht sinnlose Behauptungen in den Raum.

Ich kenne genug User die ATi Karten Verwenden und zwar schon seit der ersten Radeon und haben keine nennenswerte Probleme.
Genauso gibt es auch nVIDIA User die keine Probs haben.

Mich wundert es nicht, wenn einige Probleme mit deren Karten haben.

Da werden X Tools fürs Ocen installiert oder sonstigen Müll, geschweige den das die meisten eine vernünftige Ordner Struktur im System erstellen, wo einen dann die Startmenüleiste mit 3 Reihen erschlägt.

Einfach alles ohne Rücksicht auf Verluste auf das System und dann wundern wenn etwas nicht klappt.
Die Logische Schlussverfolgerung, Scheiss Graka Treiber.
Ja Klar.

Gruss Labberlippe

Quasar
2004-11-08, 17:42:56
Hehe, die arithmetische Shaderleistung ist laut aths beim NV40 deutlich besser. :naughty:
Taktnormalisiert zu rechnen ist weltfremd. ;)
Du hast es leider nicht verstanden.
Es geht nicht um Taktnormalisiert, sondern darum, daß in simplen Shadingszenarien und DX7-MT-Setups die 30% Taktvorteil der XTPE voll durchschlagen können.
Es ist also nicht "wtf" oder großartig überraschend, wenn in solchen Situationen eine XTPE 30% schneller als eine 6800u ist, sondern schlicht "Pflichtprogramm".

"Arithmetische Shaderleistung" sieht auch ziemlich gut aus beim nV40. Aber eben bei rechenlastigen Shadern und nicht PS1.1-Games wie der Flat-Out Demo. ;) Da schlägt der Takt durch - und wenn er das nicht tut, liegt irgendwo ein Fehler im Treiber.

Mumins
2004-11-08, 17:44:32
66.77 steht auf Nvidias Server zur Verfügung. Allerdings Beta teste ihn oder lass es sein. Deine Entscheidung

Du wirst es nicht glauben, aber den hab ich drauf.

Gast
2004-11-08, 17:46:07
Hi

Also ich lese jetzt diesen Thread schon die ganze Zeit und mir geht das treiber gejammere am Sack.

Dann lass Deine nV Karte im Rechner mach nen Bogen um ATi und stell nicht sinnlose Behauptungen in den Raum..

Behauptungen? Ich gebe dir mal nen Tip! Gucke dir doch mal das rage3d.com Technical Support Forum an und schau dir an wieviele Leute Probleme mit Ati Karten haben. Alle zu dumm um Treiber zu installieren? Nein nein...
Ich hab kein Problem mit den Karten von Ati sondern mit den Treibern die z.T. richtig schlecht sind. Ein Nvidia Treiber muss bei mir nie so oft gewechselt werden wie bei Ati. Das sind meine Erfahrungen.

Labberlippe
2004-11-08, 17:52:50
Behauptungen? Ich gebe dir mal nen Tip! Gucke dir doch mal das rage3d.com Technical Support Forum an und schau dir an wieviele Leute Probleme mit Ati Karten haben. Alle zu dumm um Treiber zu installieren? Nein nein...
Ich hab kein Problem mit den Karten von Ati sondern mit den Treibern die z.T. richtig schlecht sind. Ein Nvidia Treiber muss bei mir nie so oft gewechselt werden wie bei Ati. Das sind meine Erfahrungen.

Hi

Und es gibt auch genug Foren wo die nVIDIA Kärtchen Probleme haben.
Ich verwende auch ATI und kann bis zu den DX5 Games alles zocken.

Einige Bekannte von mir verwenden noch immer die alten Catalyst und haben keine Probleme.

Wie gesagt das ist alles augenauswischerei.
Wenn die meisten alles ohne Rücksicht auf installieren dann braucht man sich nicht wundern.

Das beste Beispiel mit den CCC da wird auf der Page vermerkt das Framenetwork installiert werden muss und die meisten haben es nicht gemacht.

Was kann dann da ATi dafür das die meisten zu faul sind um die Readmes zum checken.

Gruss Labberlippe

MikBach
2004-11-08, 17:53:55
Du hast es leider nicht verstanden.
Doch. :)

Es geht nicht um Taktnormalisiert, sondern darum, daß in simplen Shadingszenarien und DX7-MT-Setups die 30% Taktvorteil der XTPE voll durchschlagen können.
Es ist also nicht "wtf" oder großartig überraschend, wenn in solchen Situationen eine XTPE 30% schneller als eine 6800u ist, sondern schlicht "Pflichtprogramm".
Ob Pflichprogramm oder nicht, die XT ist halt schneller (Mhz), weil sie weniger Transistoren hat, da Balast, wie z.B. SM3 nicht an Board sind. =)

"Arithmetische Shaderleistung" sieht auch ziemlich gut aus beim nV40. Aber eben bei rechenlastigen Shadern und nicht PS1.1-Games wie der Flat-Out Demo. ;) Da schlägt der Takt durch - und wenn er das nicht tut, liegt irgendwo ein Fehler im Treiber.
Ist doch egal, welche Shader ein Spiel verwendet.
Es ist ein Spiel. Das zählt.

deLuxX`
2004-11-08, 17:58:39
Ich hatte früher auch Vorurteile gegen die Treiber von ATI, da ich früher ne Radeon 7500(:D) und zu dem Zeitpunkt waren die Treiber weit weg von Gut und Böse(oder wie das heisst...). Dann hatte ich bei nem Freund ne 9800pro einbauen und installiern müssen. Natürlich gleich mal gezoggt und ausprobiert und seitdem finde ich, müssen sich ATI Treiber nicht vor NV Treibern verstecken(ATM sogaer eher das Gegenteil).

So und das sidn doch die Erfahrungen die wir hier alle machen. Ich sage mal 90% der leute hier haben nur eine Grafikarte von einem IHV *zu tombman wink*
Fast niemand teste zwei relativ gleichstarke und zeitnah erschienene Grakas nur um zu sehen welcher Treiber besser ist......
Es geht um die jetztigen Treiber und nicht um die allgemeinem Qualitäten jener.

Und da ich sowieso gaaanz fett im OT bin finde ich solten wir alle zur ursrpünglichen Diskussion zurückkommen, die da heisst:

ATI r420 bei neuen game doppelt so schnell wie NV40 --- WTF??

deLuxX`
2004-11-08, 18:01:27
Ist doch egal, welche Shader ein Spiel verwendet.
Es ist ein Spiel. Das zählt.

Egal ist es nicht denn Quasar versucht hier eine Erklärung auf die Frage im Topic
(WTF??...wir erinnern uns) zu finden und diese erscheint mir logisch. Ob es stimmt, K.A.

Quasar
2004-11-08, 18:02:25
Doch. :)
Na, ganz offenbar doch nicht - wo fordere ich denn einen taktnormalisierten Vergleich?


Ob Pflichprogramm oder nicht, die XT ist halt schneller (Mhz), weil sie weniger Transistoren hat, da Balast, wie z.B. SM3 nicht an Board sind. =)
Ballast - mit doppel-L. Ausserdem ist Ballast auch das falsche Wort - "Extras" wäre angebrachter. =)
Ausserdem bestreitet doch niemand, daß die XT(PE) hier (Flat-Out) schneller ist, weil sie eine höhere Füllrate und Speicherbandbreite hat.


Ist doch egal, welche Shader ein Spiel verwendet.
Es ist ein Spiel. Das zählt.
Jein. ;)
Das Spiel läuft schneller auf der XT(PE) - ja. Das liegt aber weniger an fehlendem Shaderreplacement (wie bereits suggeriert wurde), da hier nur 1.1-Shader verwendet werden (wenn ich nicht beim durchscrollen einen 2.0er übersehen haben sollte), so daß man im Treiber keinen Ersatzshader mit geringerer Präzision oder niedrigerem Shadermodel hinterlegen kann. =)

Arithmetische Überlegenheit kann sich nur auswirken, wenn man der Flaschenhals auch wirklich im arithmetischen Teil der Shader liegen, insofern ist das hier durchaus relevant. =)

seahawk
2004-11-08, 18:05:12
des war irgendein 68er treiber bei nvidia und bei ATi wars 8.07 (weiß gar ned wie der in cat heisst?) glaub ich ...

und ihr könnt mir glauben, daß die "Filtertheorie" (so nenn ich den hype jetzt mal liebevoll) bis zu 100% langsamer NICHT erklären kann.

Wie gesagt, bei MOHPA hast ziemlich die selben fps bei nv 1024 und ati 1600 --> so krank.

Aber die 6800Ultra ist doch High-End. ;D

Die wird wahrscheinlich von der X700XT verblasen.

Danke für diesen Thread, ich werde mir wohl doch lieber ne X800XT kaufen, als auf diese sensibelen Kärtchen von NV zu setzen.

dildo4u
2004-11-08, 18:11:40
Aber die 6800Ultra ist doch High-End. ;D

Die wird wahrscheinlich von der X700XT verblasen.

Danke für diesen Thread, ich werde mir wohl doch lieber ne X800XT kaufen, als auf diese sensibelen Kärtchen von NV zu setzen.
Hmm merkwürdig ich zock MOHPA in 1280*1024 alle details PS2.0 16Aniso flüssig.
Mit GT takt.

MikBach
2004-11-08, 18:13:18
Na, ganz offenbar doch nicht - wo fordere ich denn einen taktnormalisierten Vergleich?
Quasar, hast du das wirklich nötig?

Sind's nicht eher 50% langsamer?
30+x% sind schonmal reine Taktratenvorteile - somit bleiben 20-x% für die Filtergeschichten übrig.
;)


Ballast - mit doppel-L. Ausserdem ist Ballast auch das falsche Wort - "Extras" wäre angebrachter. =)
Ausserdem bestreitet doch niemand, daß die XT(PE) hier (Flat-Out) schneller ist, weil sie eine höhere Füllrate und Speicherbandbreite hat.
Ich nenne es Ballast;), weil für SM3-Effekte ist der NV40 nicht geschaffen.
BTW gut, daß du wenigstens einsiehst, daß die XT im Allgemeinen schneller sein muß, weil sie eine deutlich höhere Füllrate bietet.



Jein. ;)
Das Spiel läuft schneller auf der XT(PE) - ja. Das liegt aber weniger an fehlendem Shaderreplacement (wie bereits suggeriert wurde), da hier nur 1.1-Shader verwendet werden (wenn ich nicht beim durchscrollen einen 2.0er übersehen haben sollte), so daß man im Treiber keinen Ersatzshader mit geringerer Präzision oder niedrigerem Shadermodel hinterlegen kann. =)
Wer sagt denn, daß Nvidia nicht auch bei 1.1Shadern Probleme hat?

Arithmetische Überlegenheit kann sich nur auswirken, wenn man der Flaschenhals auch wirklich im arithmetischen Teil der Shader liegen, insofern ist das hier durchaus relevant. =)
Das dürfte nicht so schnell vorkommen.

SteWanKenobi
2004-11-08, 18:19:48
Ich will auch mal meinen Senf dazugeben was die Treiberpolitik der beiden Lager angeht!
Habt ihr schon mal darüber nachgedacht, wie denn der "normale" PC User aussieht??? Ihr denkt immer nur in den Dimensionen von diesem oder ähnlichen Foren und schließt somit auf bestimmte durchschnittliche Hardware und auch Fähigkeiten von Usern!!
Die meisten PC User (--> keine Zocker!!!!) haben doch eher Low End Hardware und die muss doch von den Treibern auch unterstützt werden!! Und wie viele von den "normalen" Usern machen ihren Treiberupdate mit einer kleinen Drüberbügelaktion, anstatt den alten Treiber sauber zu entfernen!! Und was ist für solche User wohl besser? Ein Treiber die Woche oder einer in einem halben Jahr, der zusätzlich auch noch Uraltkarten supportet??? Ich möchte nicht sehen, wie ein System läuft, wenn man im halben Jahr 10mal den Treiber ohne Deinstallierung des alten Treibers wechselt!!

hmx
2004-11-08, 18:27:25
Dieser "Ballast" sorgt nicht nur für SM3.0-Komplianz sondern wohl auch dafür, dass der NV40 eine höhere Arithmetische Leistung hat als der r420 (mehr Recheneinheiten). Dies wirkt sich aber natürlich nur in Szenarien aus, in welchen die Arithmetische Leistung limitiert.
Dass der NV40 für SM3-Effekte nicht schnell genug ist, ist spekulativ. Auch bei der Benutzung von vielen SM2-Effekten sollte der NV40 Vorteile Haben. Und SM3 sorgt auch dafür, dass die Arithmetische Leistung effizienter eingesetzt werden kann. Das wurde aber auch schon 1000mal gesagt. Ich frag mich, warum immer noch Leute auf diese weise Argumentieren.
Mich würde btw ein Vergleich 6800gt und x800pro interessieren, da die von der Füllrate her gleichauf liegen.

Mr. Lolman
2004-11-08, 18:27:32
9700pro@400/350, 1600x1200x32, 4xAA, 16x(?)AF
http://img91.exs.cx/img91/462/FlatOutDemo-2004-11-08-18-2.th.jpg (http://img91.exs.cx/my.php?loc=img91&image=FlatOutDemo-2004-11-08-18-2.jpg)

mapel110
2004-11-08, 18:28:47
Hmm merkwürdig ich zock MOHPA in 1280*1024 alle details PS2.0 16Aniso flüssig.
Mit GT takt.

O_o
dann hast du eine recht niedrige fps-schwelle für das, was du als flüssig bezeichnest. Ich zocks in 1152 mit 2xAF und die fps reichen mir gerade so.

Ich möchte nicht sehen, wie ein System läuft, wenn man im halben Jahr 10mal den Treiber ohne Deinstallierung des alten Treibers wechselt!!

hab schon seit Ewigkeiten keinen Grakatreiber mehr deinstalliert. und auch nie Probs gehabt, die darauf zurückzuführen wären. Die sollten auch nicht auftreten.

9700pro@400/350, 1600x1200x32, 4xAA, 16x(?)AF
http://img91.exs.cx/img91/462/FlatOutDemo-2004-11-08-18-2.th.jpg (http://img91.exs.cx/my.php?loc=img91&image=FlatOutDemo-2004-11-08-18-2.jpg)

Bi oder Tri?

Quasar
2004-11-08, 18:29:45
Quasar, hast du das wirklich nötig?
Nein, eigentlich nicht. Aber das Mitleid treibt mich...


;)
Offenbar verstehst du wirklich nicht. Die 30% resultieren aus 120MHz mehr Takt der GPU - diese 30% sollte die XTPE immer schneller sein. Alles was darüber hinaus geht (oder merklich drunter bleibt), kann man sich mal anschauen, ob es eine plausible Erklärung gibt.


Ich nenne es Ballast;), weil für SM3-Effekte ist der NV40 nicht geschaffen.
BTW gut, daß du wenigstens einsiehst, daß die XT im Allgemeinen schneller sein muß, weil sie eine deutlich höhere Füllrate bietet.
Ja, du nennst es Ballast - offenbar hast du keine Verwendung dafür. Ich nenne es "Extras", weil ich Verwendung dafür habe. ;)
Und was heisst einsehen? Das ist doch so offensichtlich... du hast es doch auch bemerkt. 30% sollten immer drin sein - leider ist das oftmals nicht der Fall.


Wer sagt denn, daß Nvidia nicht auch bei 1.1Shadern Probleme hat?
Eigentlich die meisten mir bekannten Tests. Du erinnerst dich? Sogar die FX konnte 1.1-Shader relativ flott ausführen.


Das dürfte nicht so schnell vorkommen.
Es kommt bereits vor - seit ca. einem halben Jahr oder sogar länger.

MikBach
2004-11-08, 18:31:16
Ich will auch mal meinen Senf dazugeben was die Treiberpolitik der beiden Lager angeht!
Habt ihr schon mal darüber nachgedacht, wie denn der "normale" PC User aussieht??? Ihr denkt immer nur in den Dimensionen von diesem oder ähnlichen Foren und schließt somit auf bestimmte durchschnittliche Hardware und auch Fähigkeiten von Usern!!
Die meisten PC User (--> keine Zocker!!!!) haben doch eher Low End Hardware und die muss doch von den Treibern auch unterstützt werden!!
Ich weiß ja nicht wie der normale User aussieht, aber ein normaler User kauft sich keine Graka für 400€.
Hier im Forum sind die Ansprüche bisschen höher.
Wer eh nur Word und Co betreibt, der kann auch mit einer GF2mx glücklich werden.

Darum geht es in diesem Thread aber nicht.

Black-Scorpion
2004-11-08, 18:32:45
Ich möchte nicht sehen, wie ein System läuft, wenn man im halben Jahr 10mal den Treiber ohne Deinstallierung des alten Treibers wechselt!!
Ohne Probleme ;)
Warum soll ich den neuen Treiber nicht drüberbügeln?

MikBach
2004-11-08, 18:36:18
Dieser "Ballast" sorgt nicht nur für SM3.0-Komplianz sondern wohl auch dafür, dass der NV40 eine höhere Arithmetische Leistung hat als der r420 (mehr Recheneinheiten). Dies wirkt sich aber natürlich nur in Szenarien aus, in welchen die Arithmetische Leistung limitiert.
Welche es zur Zeit nicht gibt. Oder hast du ein Beispiel?

Dass der NV40 für SM3-Effekte nicht schnell genug ist, ist spekulativ.
Langsam ist es nicht mehr spekulativ...

Auch bei der Benutzung von vielen SM2-Effekten sollte der NV40 Vorteile Haben. Und SM3 sorgt auch dafür, dass die Arithmetische Leistung effizienter eingesetzt werden kann.
Das ist korrekt. Aber effizienter wozu?
Siehe FC. Der NV40 performt mit SM3 besser, aber eine X800XT ist schneller.

LovesuckZ
2004-11-08, 18:39:11
Das ist korrekt. Aber effizienter wozu?
Siehe FC. Der NV40 performt mit SM3 besser, aber eine X800XT ist schneller.

Was ist mit einer X700pro, 9800xt oder X800pro?
Performanen sie auch besser oder ist beziehen sich Vergleiche nur auf das 30% hoeher getaktete Modell?

MikBach
2004-11-08, 18:42:34
Was ist mit einer X700pro, 9800xt oder X800pro?
Performanen sie auch besser oder ist beziehen sich Vergleiche nur auf das 30% hoeher getaktete Modell?
Siehe Threadthema.
Falls du dich über die anderen GPUs unterhalten willst, mache einen neuen Thread auf. ;)

LovesuckZ
2004-11-08, 18:45:21
Siehe Threadthema.
Falls du dich über die anderen GPUs unterhalten willst, mache einen neuen Thread auf. ;)

Aehm, da steht r420 und nv40.
Nun, beantworte doch einfach die frage ;)

hmx
2004-11-08, 18:47:51
Welche es zur Zeit nicht gibt. Oder hast du ein Beispiel?

Langsam ist es nicht mehr spekulativ...

Das ist korrekt. Aber effizienter wozu?
Siehe FC. Der NV40 performt mit SM3 besser, aber eine X800XT ist schneller.

FC benutzt auch viele SM3 Fähigkeiten nicht. Atm gibt es diese Szenarien noch nicht, aber was mich angeht behalte ich meine Graka länger als ein halbes Jahr.
Für die meisten Füllratenlimitierten ist der r420 schneller, aber der NV40 sollte auch schnell genug sein. Ausserdem interessiert nicht nur wie sich die 6800u gegen die x800xt schlägt. Mich würde interessieren, wie es bei x800pro gegen 6800gt aussieht. ATi hat nämlich nicht über die ganze Serie einen so starken Füllratenvorteil wie bei der x800xt.
Mich ärgert es übrigens auch, dass meine 6800gt in gewissen Games sehr langsam ist (Mohpa ist auf meiner 6800gt unspielbar :() Aber mich interessiert auch worans liegt. Max 30% Nachteil hab ich erwartet, bei 16*12 mit 4xAA eher weniger, da hier die Speicherbandbreite auch eine grosse Rolle Spielt. Wenn die Karten so weit auseinander liegen ist das schon seltsam...

MikBach
2004-11-08, 18:50:39
Aehm, da steht r420 und nv40.
Korrekt. Da tombman eine X800XT PE und eine 6800Ultra besitzt, sollte es wohl klar sein...

Nun, beantworte doch einfach die frage ;)
Wie soll ich sie beantworten, wenn du eine x700 und die Oma 9800 ins Feld führst...
OK. Will mal nicht so gemein sein. ;)
Bei einer X800PRO dürfte der Vorsprung bei nicht optimierten Spielen deutlich geringer sein. :)

Dunkeltier
2004-11-08, 18:51:59
[...]
30% sollten immer drin sein - leider ist das oftmals nicht der Fall.
[...]

Naja, spätestens wenn 4xMSAA ins Spiel kommt, dann schon. Da ist mir dann auch die Galaxy Geforce 6800 GT@Ultra relativ stark weggebrochen. Was mich wundert ist, das sich die X800 XT (aus meiner Sicht das Pendant zur Geforce 6800 GT) da noch wacker schlägt.

Quasar
2004-11-08, 18:53:04
Die 2.0-Pixelshader von SpellForce bsw. sind relativ lang und dort sieht es m.W. nicht so dolle aus für die X800 Pro ggü. einer 6800GT.

Allerdings sind meine Kenntnisse aus relativ alten Treibern gewonnen - vielleicht hat sich da ja schon was getan? ;)

Dunkeltier
2004-11-08, 18:53:53
FC benutzt auch viele SM3 Fähigkeiten nicht. Atm gibt es diese Szenarien noch nicht, aber was mich angeht behalte ich meine Graka länger als ein halbes Jahr.
Für die meisten Füllratenlimitierten ist der r420 schneller, aber der NV40 sollte auch schnell genug sein. Ausserdem interessiert nicht nur wie sich die 6800u gegen die x800xt schlägt. Mich würde interessieren, wie es bei x800pro gegen 6800gt aussieht. ATi hat nämlich nicht über die ganze Serie einen so starken Füllratenvorteil wie bei der x800xt.
Mich ärgert es übrigens auch, dass meine 6800gt in gewissen Games sehr langsam ist (Mohpa ist auf meiner 6800gt unspielbar :() Aber mich interessiert auch worans liegt. Max 30% Nachteil hab ich erwartet, bei 16*12 mit 4xAA eher weniger, da hier die Speicherbandbreite auch eine grosse Rolle Spielt. Wenn die Karten so weit auseinander liegen ist das schon seltsam...

Wie kommst du eigentlich laufend auf die Idee, ATIs drittes "Flagschiff" (die Pro) im Consumermarkt mit nVidias #2 (die GT) zu vergleichen?

deLuxX`
2004-11-08, 18:55:45
Wie kommst du eigentlich laufend auf die Idee, ATIs drittes "Flagschiff" (die Pro) im Consumermarkt mit nVidias #2 (die GT) zu vergleichen?

Weil sie, wie die GT auch ca. 400€ kostet.
Frage ging zwar nich an mich aber ich bin mal so frei :D

xL|Sonic
2004-11-08, 18:58:48
Die derzeitigen Preise sind eh schlecht vergleichbar, weil die Verfügbarkeit gering ist und die Nachfrage sehr hoch, dadurch wird das Preisbild doch sehr verzerrt.
Das Pendant zur 6800 GT ist nunmal derzeit die x800 XT und nicht mehr die x800 Pro.
Oder du müsstest eine x800 Pro mit ins Feld führen die auf 16 pipes gemoddet ist und diese dann mit default Takt gegen die 6800 GT antreten lassen.

hmx
2004-11-08, 18:59:45
Wie kommst du eigentlich laufend auf die Idee, ATIs drittes "Flagschiff" (die Pro) im Consumermarkt mit nVidias #2 (die GT) zu vergleichen?

Weil die beiden etwa gleich viel kosten...

edit:
es gibt zwar ne x800xt für 420 Euro, aber nur für PCI-E.

Quasar
2004-11-08, 19:00:16
Naja, spätestens wenn 4xMSAA ins Spiel kommt, dann schon. Da ist mir dann auch die Galaxy Geforce 6800 GT@Ultra relativ stark weggebrochen. Was mich wundert ist, das sich die X800 XT (aus meiner Sicht das Pendant zur Geforce 6800 GT) da noch wacker schlägt.

Bei mir brach da nicht viel überraschend weg - eher im Gegenteil, solange das VRAM reichte, schien mir das 4xMSAA von nV effizienter und die Lücke ward kleiner.

Oder meinst du 4xMSAA und 16xAF zugleich?

dildo4u
2004-11-08, 19:02:29
Die derzeitigen Preise sind eh schlecht vergleichbar, weil die Verfügbarkeit gering ist und die Nachfrage sehr hoch, dadurch wird das Preisbild doch sehr verzerrt.
Das Pendant zur 6800 GT ist nunmal derzeit die x800 XT und nicht mehr die x800 Pro (16 pipes).
Oder du müsstest eine x800 Pro mit ins Feld führen die auf 16 pipes gemoddet ist und diese dann mit default Takt gegen die 6800 GT antreten lassen.

eine 6800gt ist für 395€ lieferbar deshalb kann man sie auch ruhig mit anderen karten für 400€vergleichen.

http://www.geizhals.at/deutschland/?a=107137&t=alle&v=l

X800pro 428€ lieferbar http://www.geizhals.at/deutschland/?a=104543&t=alle&v=l

xL|Sonic
2004-11-08, 19:04:13
Soll ich dir jetzt noch marktwirtschaftlich erläutern wie das ganze zusammenhängt?
Es gibt kaumt x800 XT's bzw. XT PE's, deswegen sind die Preise höher als sie sein könnten.

Quasar
2004-11-08, 19:04:31
Die derzeitigen Preise sind eh schlecht vergleichbar, weil die Verfügbarkeit gering ist und die Nachfrage sehr hoch, dadurch wird das Preisbild doch sehr verzerrt.
Das Pendant zur 6800 GT ist nunmal derzeit die x800 XT und nicht mehr die x800 Pro.
Oder du müsstest eine x800 Pro mit ins Feld führen die auf 16 pipes gemoddet ist und diese dann mit default Takt gegen die 6800 GT antreten lassen.
Wonach sortierst du deine 'Gegenüberstellung'?

Sag' bitte nicht, Flaggschiff gegen Flaggschiff und dann leistungsmäßig abwärts?

xL|Sonic
2004-11-08, 19:06:58
6800 Ultra = x800 XT PE
6800 GT = x800 XT

Die x800 Pro liegt zwischen 6800 GT und 6800.

dildo4u
2004-11-08, 19:07:17
Soll ich dir jetzt noch marktwirtschaftlich erläutern wie das ganze zusammenhängt?
Weder die 6800 Gt's / Ultras noch die x800 XT / XT PE's sind flächendeckend verfügbar.
Man muss immer noch recht viel Glück haben den richtigen Laden zu finden. Tweilse werden die XT PE's ja auch für mehr als 600€ verkauft.
Gts und X800pro sind lieferbar wie ich schon gepostet habe.Beider für ca400€ also 100%vergleichbar.

dildo4u
2004-11-08, 19:08:20
6800 Ultra = x800 XT PE
6800 GT = x800 XT

Die x800 Pro liegt zwischen 6800 GT und 6800.
Aber nich vom preis her.

StefanV
2004-11-08, 19:08:30
Weil sie, wie die GT auch ca. 400€ kostet.
Frage ging zwar nich an mich aber ich bin mal so frei :D
Die x800 XT kostet auch nur etwa 400€uronen...

Quasar
2004-11-08, 19:09:15
6800 Ultra = x800 XT PE
6800 GT = x800 XT

Die x800 Pro liegt zwischen 6800 GT und 6800.
Woran machst du das fest?
Flaggschiff gegen Flagschiff und dann nach Performance gestaffelt nach unten - oder an irgendwas anderem?

xL|Sonic
2004-11-08, 19:09:18
Ja, sry zu spät gesehen.
Jedoch findest du kaum x800 XT's und dadurch bedingt, dass die Nachfrage riesig ist und die Verfügbarkeit sehr gering ist sind die Preise halt höher.
Sobald diese genauso verfügbar sind wie die GT's und Pros werden dich auch die Preise nach unten korrigieren.

dildo4u
2004-11-08, 19:09:34
Die x800 XT kostet auch nur etwa 400€uronen...
Wo bei ebay LOL?Da gibts nur ominöse PCI Express karten.

xL|Sonic
2004-11-08, 19:10:41
Woran machst du das fest?
Flaggschiff gegen Flagschiff und dann nach Performance gestaffelt nach unten - oder an irgendwas anderem?

Flagschiff gegen Flagschiff und halt den technischen Voraussetzungen entsprechend, ergo 16 pipes gegen 16 pipes.
Man vergleicht ja Autos auch mit anderen in ihrer Klasse, unabhängig von den Preisunterschieden.

xL|Sonic
2004-11-08, 19:12:27
http://www.geizhals.at/deutschland/a106599.html

Sapphire x800 XT für 420€, somit also auch vom Preis her vergleichbar, da ne GT z.B. bei mindfactory auch knappe 450€ kostet.

Ich hoffe du verstehst jetzt endlich den marktwirtschaftlichen Aspekt.

Funky Bob
2004-11-08, 19:12:53
6800 Ultra = x800 XT PE
6800 GT = x800 XT

Die x800 Pro liegt zwischen 6800 GT und 6800.


rofl sry aber das ist Käse... Es zählt in einem Vergleich immer nur der Preis, oder willst du mir sagen, das du nen 2,4GHz P4 gegen nen 2,4GHz A64 Benchen, nur weil beide den gleichen Takt haben?

Man muss bei sowas den Preis beachten und ne X800XT ist eigentlich das Gegenstück zur 6800U (was wieder nur durch den Preis wiederlegt wird, oder warum solltest nun du Recht haben und nicht ich mit der Behauptung?) und die X800Pro das Gegenstück zur 6800GT.

Und bevor nun kommt das ich nVidia doch so verteidige, ich hab ne X800XTPE und vorher wars ne 6800U (RIP) und ich hab mir einfach die Karte geholt, die als erster Verfügbar war, da es meist eh nur nen Unterschied von max 10% ist.

dildo4u
2004-11-08, 19:13:04
Flagschiff gegen Flagschiff und halt den technischen Voraussetzungen entsprechend, ergo 16 pipes gegen 16 pipes.
Man vergleicht ja Autos auch mit anderen in ihrer Klasse, unabhängig von den Preisunterschieden.
Ähm Blanker unsinn sorry.

dildo4u
2004-11-08, 19:13:46
http://www.geizhals.at/deutschland/a106599.html

Sapphire x800 XT für 420€, somit also auch vom Preis her vergleichbar, da ne GT z.B. bei mindfactory auch knappe 450€ kostet.
Aber leider keine AGP karte.Angesicht dieser benches http://www.digit-life.com/articles2/radeon/x700-1/x700-1_08.html
würde ich bei den pciexpress karten nicht zu einer ATI greifen hoffentlich wird das noch gefixt.

hmx
2004-11-08, 19:14:59
6800 Ultra = x800 XT PE
6800 GT = x800 XT

Die x800 Pro liegt zwischen 6800 GT und 6800.

In einem Shop bei Pt war die x800xt PCI-E für 425 Euro verfügbar, die 6800gt ist für 388 Euro zu haben.

Die x800pros sind irgendwie gar net so gut verfügbar, waren aber als ich meine gt kaufte bei ca 399 Euro.

Quasar
2004-11-08, 19:15:05
Flagschiff gegen Flagschiff und halt den technischen Voraussetzungen entsprechend, ergo 16 pipes gegen 16 pipes.
Man vergleicht ja Autos auch mit anderen in ihrer Klasse, unabhängig von den Preisunterschieden.

Das Flaggschiff von nVidia ist aber eine SLI-Kombo mit zwei PCIe-Ultras. Pipes und Takt spielen doch laut diversen Kommentaren hier keine Rolle - entscheidend sei das, was hinten rauskommt. ;)

Und unabhängig vom Preis - tja.

Also so gesehen ist sowohl mein Beispiel als auch deine Gegenüberstellung gleichermaßen Unsinn. Anderes dämliches Beispiel: nVidia bringt noch ein paar Editionen heraus - Ultra mit 400MHz, Ultra- mit 390MHz, Ultra-- mit 380MHz, GT++ mit 370MHz, GT+ mit 360MHz usw. usf.

Ich denke, so ist das relativ sinnlos - Klassen werden durch Preise definiert. Natürlich nur IMO.

xL|Sonic
2004-11-08, 19:15:36
@dildo4u
LOL jetzt ziehst du dich auch noch da dran hoch, sry aber das ist langsam echt arm wie du mit allen Mitteln versuchst deine heilige Grafikkartenfirma zu verteidigen und es ist schlichtweg sinnlos weiter zu diskutieren, da du dir immer nen Strohhalm suchen wirst. Ales nächstes sagst du noch, ich darf die Karte nicht vergleichen, weil sie die falsche Farbe hat.

xL|Sonic
2004-11-08, 19:17:58
Das Flaggschiff von nVidia ist aber eine SLI-Kombo mit zwei PCIe-Ultras. Pipes und Takt spielen doch laut diversen Kommentaren hier keine Rolle - entscheidend sei das, was hinten rauskommt. ;)

Und unabhängig vom Preis - tja.

Also so gesehen ist sowohl mein Beispiel als auch deine Gegenüberstellung gleichermaßen Unsinn. Anderes dämliches Beispiel: nVidia bringt noch ein paar Editionen heraus - Ultra mit 400MHz, Ultra- mit 390MHz, Ultra-- mit 380MHz, GT++ mit 370MHz, GT+ mit 360MHz usw. usf.

Ich denke, so ist das relativ sinnlos - Klassen werden durch Preise definiert. Natürlich nur IMO.

Du verstehst unbestritten viel von Grafikkarten und der ganzen Materie, wohl auch bedeutend mehr als ich, aber von Wirtschaft hast du anscheinend eher weniger Ahnung.

edit: @Quasar (um den thread nicht noch weiter mit neuen Post zuzuspammen)
Wo machst du den Preis denn fest?
Sicherlich kaufe ich mir die Karte, die für mich am billigsten ist, nur musst du dabei auch beachten, dass es Läden gibt, die die Preise drücken, weil sie an anderen Dingen sparen (wie Norskit z.B. am service) oder nen billigeren Zulieferer haben oder oder oder.
Das hat alles nichts mit der eigentlichen Karte zu tun, sondern mit dem drumherum und deswegen sage ich auch nur, dass man nur bedingt nach dem Preis gehen kann.

Tjell
2004-11-08, 19:18:04
Wenn schon gegenüberstellen, dann aber auch richtig:

X800 XT PE = 6800 Ultra "EE" (-> 450 MHz, gibt es von einigen Herstellern, vor allem in Nordamerika)
X800 XT = 6800 Ultra
X800 Pro = 6800 GT

Die kleineren Modelle lassen wir mal außen vor.

Dunkeltier
2004-11-08, 19:18:54
Bei mir brach da nicht viel überraschend weg - eher im Gegenteil, solange das VRAM reichte, schien mir das 4xMSAA von nV effizienter und die Lücke ward kleiner.

Oder meinst du 4xMSAA und 16xAF zugleich?


Natürlich, denn wer spielt denn schon bei so einer Karte ohne 16x tri-aF (mit ausgeschalteten Optmierungen)?

Quasar
2004-11-08, 19:19:18
LOL jetzt ziehst du dich auch noch da dran hoch, sry aber das ist langsam echt arm wie du mit allen Mitteln versuchst deine heilige Grafikkartenfirma zu verteidigen und es ist schlichtweg sinnlos weiter zu diskutieren, da du dir immer nen Strohhalm suchen wirst. Ales nächstes sagst du noch, ich darf die Karte nicht vergleichen, weil sie die falsche Farbe hat.

Nein, aber sinnlos ist es, Produkte, denn nichts anderes sind diese Dinger, nicht nach Preisen zu vergleichen.

Ich gehe doch nicht los und kauf mir auf Teufel komm' raus 16 Pipelines oder 500MHz, sondern eine Grafikkarte, die mir die beste Leistung für meinen Geldbeutel bietet.

edit:
Ah, ich sehe, du hast das gar nicht auf mich bezogen. Ok, aber meine Antwort passt irgendwie auch "wirtschaftlich" - zumindest wenn ich von einem normalen Menschen ausgehe, der nicht unbegrenzt viel Kohle hat.

SteWanKenobi
2004-11-08, 19:19:30
Ich weiß ja nicht wie der normale User aussieht, aber ein normaler User kauft sich keine Graka für 400€.
Hier im Forum sind die Ansprüche bisschen höher.
Wer eh nur Word und Co betreibt, der kann auch mit einer GF2mx glücklich werden.

Darum geht es in diesem Thread aber nicht.
Doch! Denn man muss doch die Grafikberechnung im PC immer als Treiber/Karte Kombination sehen! Also kann es durchaus sein, dass Treiber die eine hohe Fallback Garantie in Bezug auf HW besitzten nicht so gut performen! Also wenn man über Performance redet, spricht man auch von Treibern, die für alle User gedacht sind auch die von Low End Systemen und ich wollte nur einwerfen, dass verschieden Entwickler unterschiedliche Schwerpunkte haben können! Außerdem der gewinnträchtigste Markt ist der OEM Markt, dort wird Umsatz gemacht High End Karten ist sind doch (mal abgsehen, dass sie ihrem gut situierten Besitzer Gaming auf hohem BQ Niveau ermöglichen) nur Aushängeschilder und Demonstrationen der Leistungsmöglichkeit! Das ist doch wie die Verbreitung der M BMWs und der normalen Strassenmodele (etwas blöder Vergleich, ist mir aber gerade so eingefallen), ebenso sind doch auch die Verteilungen bei PC Hardware!!

Und alle die mein Argument mit Treiberneuinstallation NACH vorausgehenden Deinstallieren nicht verstehen: Was ist denn eure erste Empfehlung bzw. Frage an einem User, wenn eine Karte aus heiterem Himmel nach einen Treiber Update nicht mehr so will, wie sie soll?????

So jetzt ist aber genug mit OT und weiter mit dem eingentlichen Thema!

MonsyX
2004-11-08, 19:20:41
@Gast und alle anderen NV-fanbabys

Was geht denn mit euch ab, ich weiss das es höllisch weh tut wenn die zahlen sprechen und man sich menge theorien aus der nase ziehen muss um solche differenzen der zahllen zu erklären, doch ihr könnt es drehen und wenden wie ihr wollt, die zahlen sprechen gegen euch. Nehmt es hin wie Männer und flammt hier nicht so rum mit euren an den Haaren herbei gezogenen erläuterungsversuchen. Es beweisst sicher keine Reife eurer seits wenn ihr alles und jeden versucht schlecht zu machen, nur weil es euch nicht in den kramm passt.

Was ich auch noch eine unverschämtheit finde ist, das der Herr Gast nichtmal die Korrage hat sich zu registieren sondern seine fast rassitischen aussagen hinter dem Schleier der Anonymität tätigt.

@Administrative, wie wäre es wenn man als Gast nur lesen könnte und nichts schreiben, das würde uns sicher eine menge geflamme ersparen.

Das einzige was ich zur Zeit was ich nur machen kann beim lesen von einigne Posts ist fassungslos meinen Kopf schütteln und nun auch mal Meinung kund tun.

MfG MonsyX

Mcdave
2004-11-08, 19:21:26
Hier fehlt bislang noch die X800pro. Das möchte ich hiermit ändern ;) :


http://img124.exs.cx/img124/3430/Flatout.jpg


Settings: 1280*1024*32, 4xAA/16xAF, Catalyst 8.07 Treiber mit classic CP, Win XP SP2 und NForce 4.27 Treiber.
Es ist (wie immer bei mir) nichts übertaktet. Der Rest meines Systems steht in der Signatur.

Quasar
2004-11-08, 19:24:11
Hier fehlt bislang noch die X800pro. Das möchte ich hiermit ändern ;) :


http://img124.exs.cx/img124/3430/Flatout.jpg


Settings: 1280*1024*32, 4xAA/16xAF, Catalyst 8.07 Treiber mit classic CP, Win XP SP2 und NForce 4.27 Treiber.
Es ist (wie immer bei mir) nichts übertaktet. Der Rest meines Systems steht in der Signatur.
Krass, das ist ja noch 1fps mehr, als betareverses Pro @XTPE.

edit:
Arggh! Das ist auch eine andere Auflösung - sry!

LovesuckZ
2004-11-08, 19:25:26
Ales nächstes sagst du noch, ich darf die Karte nicht vergleichen, weil sie die falsche Farbe hat.

Die einzig Geforce 6800 auf PCI-E Basis ist die "PNY QuadroFX 3400, GeForce 6800 Ultra, 256MB GDDR3, 2x DVI" für 1200€.
Du kannst nicht die Preise von PCI-E und AGP vergleichen, da beide andere Marktbereiche ansprechen.
So ist es verstaendlich, dass der Preis für eine XT auf PCI-E niedriger ist, da der Markt deutlich kleiner ist, sich deswegen Kunden rumtummeln.

dildo4u
2004-11-08, 19:25:55
@dildo4u
LOL jetzt ziehst du dich auch noch da dran hoch, sry aber das ist langsam echt arm wie du mit allen Mitteln versuchst deine heilige Grafikkartenfirma zu verteidigen und es ist schlichtweg sinnlos weiter zu diskutieren, da du dir immer nen Strohhalm suchen wirst. Ales nächstes sagst du noch, ich darf die Karte nicht vergleichen, weil sie die falsche Farbe hat.
Wie gesagt leider sind zur zeit die ati pci express treiber nicht zu gebrauchen aber ich weiss ja das kann ja gar nicht sein den ati macht nur gute Linux und pciexpress treiber.:rolleyes:Ich frag mich sowieso du dir überhaupt eine 6800 geholt hast du hättest doch schon längts dein Bi filternden roten renner haben können *g*

betasilie
2004-11-08, 19:28:31
Bei mir gibt mit allen optemierungen an aber gar kein Banding jedenfalls nix was wirklich auffällt.
Bei mir auch nicht, das ist halt einfach ein Fehler, wenn das AF vom Spiel gesteuert wird. Über die Treiber geht der AF einwandfei in bester Qualität!

xL|Sonic
2004-11-08, 19:28:48
Wie gesagt leider sind zur zeit die ati pci express treiber nicht zu gebrauchen aber ich weiss ja das kann ja gar nicht sein den ati macht nur gute Linux und pciexpress treiber.:rolleyes:Ich frag mich sowieso du dir überhaupt eine 6800 geholt hast du hättest doch schon längts dein Bi filternden roten renner haben können *g*

mangels verfügbarkeit und weil ich mich hab täuschen lassen von gewissen Leuten, die etwas mehr Partei für nvidia ergreifen und nicht ganz so objektiv gewesen sind.

P.S.: Von der Filterqualität seitens nvidia wollen wir auch erstmal nicht sprechen, denn die ist auch nicht so ganz das wahre so und jetzt genug OT.

P.P.S.: Die billigste XT die ich gefunden habe kostet 450€, soviel kostet ne GT bei mindfactory auch.
Wie ich oben schon geschrieben habe, lässt sich der Preis nur schlecht vergleichen, weil da noch andere umstände mit einfliessen und deswegen ist es schwachsinnig nur nach dem Preis zu gehen.
Aber um das zu verstehen muss man anscheinend erstmal seine grüne nvidia Brille abnehmen ;)

Back to topic

betasilie
2004-11-08, 19:31:52
Ich frag mich sowieso du dir überhaupt eine 6800 geholt hast du hättest doch schon längts dein Bi filternden roten renner haben können *g*
:nono: Solche Flames solltest Du lassen. Das trägt absolut nicht zum Thema bei und ist zumal noch falsch.

dildo4u
2004-11-08, 19:34:01
:nono: Solche Flames solltest Du lassen. Das trägt absolut nicht zum Thema bei und ist zumal noch falsch.
Sorry warum flame die X800 kann doch nur bi filtern oder bin ich falsh informiert?

Jesus
2004-11-08, 19:34:30
lol ist ja lustig hier. Aber wie wärs mal mit MOHPA Fraps screenshots ?

Jesus
2004-11-08, 19:35:03
Sorry warum flame die X800 kann doch nur bi filtern oder bin ich falsh informiert?

ja

Dunkeltier
2004-11-08, 19:35:43
rofl sry aber das ist Käse... Es zählt in einem Vergleich immer nur der Preis, oder willst du mir sagen, das du nen 2,4GHz P4 gegen nen 2,4GHz A64 Benchen, nur weil beide den gleichen Takt haben?

[...]

Quatsch. Man vergleicht immer deren Topprodukte. Das wären (als Beispiel!) ein AMD Athlon 64 3200+ VS. Intel Pentium 4 3200 Mhz. Der Pentium ist dabei auch teurer (!), bietet aber weniger Leistung in den meisten (nicht allen) Spielen...

reunion
2004-11-08, 19:36:47
Aber leider keine AGP karte.

Und?
Die 6800GT bekomm ich aktuell nur als AGP-Karte die X800XT nur als PCIe Karte, der Preis ist trozdem ungefair gleich.

Mcdave
2004-11-08, 19:36:56
Krass, das ist ja noch 1fps mehr, als betareverses Pro @XTPE.

edit:
Arggh! Das ist auch eine andere Auflösung - sry!

Stimmt, ist etwas wirr. Manche haben 1280er Shots, andere 1600er.

Der Vollständigkeit halber: 1600*1200*32, 4xAA/16xAF ---> 56 FPS bei meiner Pro.

dildo4u
2004-11-08, 19:36:57
lol ist ja lustig hier. Aber wie wärs mal mit MOHPA Fraps screenshots ?
Geht nich habs schon porbiert leider

LovesuckZ
2004-11-08, 19:41:55
P.P.S.: Die billigste XT die ich gefunden habe kostet 450€, soviel kostet ne GT bei mindfactory auch.

Eine lieferbare kostet bei Mad-Maxx 499€, 100€ mehr als eine 6800gt.
Bei mf dagegen sogar 509€ auf PCI-E Basis...

Wie ich oben schon geschrieben habe, lässt sich der Preis nur schlecht vergleichen, weil da noch andere umstände mit einfliessen und deswegen ist es schwachsinnig nur nach dem Preis zu gehen.

Verglichen wird das, was in seiner Preisklasse vorhanden ist.
Wenn das bei ATi eine Karte ist, die nicht durch einen 30% hoeheren Fillratewert glaenzt, dann ist das eben Pech.
Aber ansonsten müsste man auch nicht nur nach den Pipelines gehen:
Coretakt, Speichertakt, Shadermodel, Stromverbrauch, Pipelinezahl, extrafeatures etc.

LovesuckZ
2004-11-08, 19:43:33
Und?
Die 6800GT bekomm ich aktuell nur als AGP-Karte die X800XT nur als PCIe Karte, der Preis ist trozdem ungefair gleich.

Schon mal'ne X800XT mit PCIe in'nen AGP-Slot gesteckt? ;)

betasilie
2004-11-08, 19:43:49
LOL, bei der FX Serie noch darauf bestehen, dass man nur Karten testet, die gleich getaktet sind und jetzt plötzlich doch auf den Preis gucken. ... Immer wie es einem passt, gelle? :naughty:

hmx
2004-11-08, 19:44:45
Du verstehst unbestritten viel von Grafikkarten und der ganzen Materie, wohl auch bedeutend mehr als ich, aber von Wirtschaft hast du anscheinend eher weniger Ahnung.

edit: @Quasar (um den thread nicht noch weiter mit neuen Post zuzuspammen)
Wo machst du den Preis denn fest?
Sicherlich kaufe ich mir die Karte, die für mich am billigsten ist, nur musst du dabei auch beachten, dass es Läden gibt, die die Preise drücken, weil sie an anderen Dingen sparen (wie Norskit z.B. am service) oder nen billigeren Zulieferer haben oder oder oder.
Das hat alles nichts mit der eigentlichen Karte zu tun, sondern mit dem drumherum und deswegen sage ich auch nur, dass man nur bedingt nach dem Preis gehen kann.

Das du Ahnung von Wirtschaft hast ist kein Argument. Wenns wirklich so wäre hättest du es ja nicht nötig auf deine Wirtschaftswissen zu pochen. Woher hast du Ahnung von Wirtschaft? Gerade bei Wirtschaftlichen Dingen wird so einiges an Halbwissen präsentiert, da viele meinen etwas zu wissen...
Erklär doch mal warum du Anscheinend mehr Ahnung von Wirtschaft hast.

Quasar
2004-11-08, 19:47:45
Stimmt, ist etwas wirr. Manche haben 1280er Shots, andere 1600er.

Der Vollständigkeit halber: 1600*1200*32, 4xAA/16xAF ---> 56 FPS bei meiner Pro.
Nein, war mein Fehler. Du hast's ja groß und deutlich drunter geschrieben.

reunion
2004-11-08, 19:49:26
Schon mal'ne X800XT mit PCIe in'nen AGP-Slot gesteckt? ;)

Nein(:D), schonmal ne Geforce 6800GT mit AGP in einen PCIe-Slot gesteckt?
(den Sinn deiner Frage versteh ich trozdem nicht ;))

hmx
2004-11-08, 19:49:47
mangels verfügbarkeit und weil ich mich hab täuschen lassen von gewissen Leuten, die etwas mehr Partei für nvidia ergreifen und nicht ganz so objektiv gewesen sind.

P.S.: Von der Filterqualität seitens nvidia wollen wir auch erstmal nicht sprechen, denn die ist auch nicht so ganz das wahre so und jetzt genug OT.

P.P.S.: Die billigste XT die ich gefunden habe kostet 450€, soviel kostet ne GT bei mindfactory auch.
Wie ich oben schon geschrieben habe, lässt sich der Preis nur schlecht vergleichen, weil da noch andere umstände mit einfliessen und deswegen ist es schwachsinnig nur nach dem Preis zu gehen.
Aber um das zu verstehen muss man anscheinend erstmal seine grüne nvidia Brille abnehmen ;)

Back to topic



Ja bei MF. Und? Warum die 6800gt bei MF kaufen wenns die woanders auch für 399 Euro gibt. Ich dachte du hast so viel Anhnung von Wirtschaft. :)

Dunkeltier
2004-11-08, 19:50:19
Eine lieferbare kostet bei Mad-Maxx 499€, 100€ mehr als eine 6800gt.
Bei mf dagegen sogar 509€ auf PCI-E Basis...



Verglichen wird das, was in seiner Preisklasse vorhanden ist.
Wenn das bei ATi eine Karte ist, die nicht durch einen 30% hoeheren Fillratewert glaenzt, dann ist das eben Pech.
Aber ansonsten müsste man auch nicht nur nach den Pipelines gehen:
Coretakt, Speichertakt, Shadermodel, Stromverbrauch, Pipelinezahl, extrafeatures etc.

Gibt aber welche ab etwas über 460 Euro...
http://www.csv-direct.de/netforge/netengine?mode=track&tid=2&tmpl=out_index&artikel=A0602254
http://www.csv-direct.de/netforge/netengine?mode=track&tid=5&tmpl=out_index&artikel=A0602226

Quasar
2004-11-08, 19:51:49
LOL, bei der FX Serie noch darauf bestehen, dass man nur Karten testet, die gleich getaktet sind und jetzt plötzlich doch auf den Preis gucken. ... Immer wie es einem passt, gelle? :naughty:
Hab ich sowas etwa verlangt? *omg_schäm*
Ich muss...errr.... von meinen bösen Zwillingsbruder betäubt und eingesperrt worden sein, damit er sowas posten konnte.

*Es_gar_nicht_glauben_kann*
Wo oder wann ungefährt war das?

LovesuckZ
2004-11-08, 19:52:27
Das hat alles nichts mit der eigentlichen Karte zu tun, sondern mit dem drumherum und deswegen sage ich auch nur, dass man nur bedingt nach dem Preis gehen kann.

Der Preis ist der wichtigste Faktor in unserem Markt, immerhin handeln wir nicht im Sinne des vollkommenden Marktes.
Wenn du den Preis ausschließen würdest (auch nur ein klein bisschen), verabschiedest du dich von der Realitaet. Und jegliche weitere Diskussionen sind dann sinnlos, da nicht nachvollziehbar.

betasilie
2004-11-08, 19:53:34
Leute, auch wenn einigen hier nicht passt, es geht um den großen Leitungsvorteil der X800Pro bei Flatout und MoH: PA und nicht um irgendwelche Preisvergleiche. :rolleyes:


... Um das mal zu beenden. Die X800Xt kostet etwas mehr als eine 6800GT, und die 6800Ultra und die X800XT-PE kosten ~ gleichviel.

dildo4u
2004-11-08, 19:55:37
Leute, auch wenn einigen hier nicht passt, es geht um den großen Leitungsvorteil der X800Pro bei Flatout und MoH: PA und nicht um irgendwelche Preisvergleiche. :rolleyes:
?
Leider kann das bis es timedemos von MOH gibt nicht endgültig geklärt werden da fraps nicht funzt.

xL|Sonic
2004-11-08, 19:55:57
Um nochmal Dunkeltiers hervorragenden Vergleich zu bringen. Was macht ihr denn nun bei den CPU's, bei denen es eigentlich schon immer so war, dass die AMD CPU's billiger waren. Darf man dann nen XP 3200+ mit nem 2,6Ghz Pentium 4 vergleichen, weil sie ja den selben Preis haben?
Nochwas Lovesuckz, wenn keine Karte Verfügbar ist, wie am Anfang als sie rauskamen, darfst du sie dann erst gar nicht vergleichen?
Das würde ja heissen, dass alle Benchmarks von die eine Karte testen, die nicht Verfügbar auf dem Markt ist blödsinn sind, da man sie nicht miteinander vergleichen kann, weil der Preis noch nicht feststeht.

Sry, aber hier sieht man eindrucksvoll an welchen nichtigen Argumenten sich die nvidia jünger versuchen an den allerletzten Strohhalm zu klammern.

betasilie
2004-11-08, 19:57:43
?
Leider kann das bis es timedemos von MOH gibt nicht endgültig geklärt werden da fraps nicht funzt.
Fraps funzt bei mir einwandfrei. Habe das schon mit mapel verglichen im privaten Rahmen anhand von Screenshots und meine Karte war in 1600*1200 schneller, als sein 6800GT@>Ultra in 1280*1024.

reunion
2004-11-08, 19:57:51
Leute, auch wenn einigen hier nicht passt, es geht um den großen Leitungsvorteil der X800Pro bei Flatout und MoH: PA und nicht um irgendwelche Preisvergleiche. :rolleyes:


Und auf was willst du hinaus?
Die X800XT PE ist (fast immer) schneller als ne 6800U weil sie höher getaktet ist. Warum sollte es bei Flatout und MoH : PA anders sein?

betasilie
2004-11-08, 19:59:13
Und auf was willst du hinaus?
Die X800XT PE ist (fast immer) schneller als ne 6800U weil sie höher getaktet ist. Warum sollte es bei Flatout und MoH:PA anders sein?
:rolleyes: Oh man. Die Karten kosten aber gleichviel. Daher stehen sie in direkter Konkurrenz. ... Wenn NV nicht den selben Takt für den Preis bietet kann ich auch nix dafür. Beschwer dich bei NVidia.

Quasar
2004-11-08, 20:00:43
Fraps funzt bei mir einwandfrei. Habe das schon mit mapel verglichen im privaten Rahmen anhand von Screenshots und meine Karte war in 1600*1200 schneller, als sein 6800GT@>Ultra in 1280*1024.
Na, dann erzähl doch bitte genaueres dazu...

1fps mehr von 100 oder in welchen Dimensionen bewegte sich das, wie waren die Treibereinstellungen, wie war die Bildqualität, wie sehr hängt MOH an der CPU? Mehr Details plz!

reunion
2004-11-08, 20:01:13
:rolleyes: Oh man. Die Karten kosten aber gleichviel. Daher stehen sie in direkter Konkurrenz.

Ich weiss, trozdem ist das nichts neues das eine X800XT PE schneller ist... :cool:

betasilie
2004-11-08, 20:01:48
Sry, aber hier sieht man eindrucksvoll an welchen nichtigen Argumenten sich die nvidia jünger versuchen an den allerletzten Strohhalm zu klammern.
Ja, leider führt sowas immer auf das slebe hinaus. Einige Leute können einfach den Fakten nicht ins gesicht sehen. Hinterher haben sich wieder die Devs gegen NV verschworen, weil diese angeblich alle auf ATI optimieren. ... Und das obwohl NV ja den besten Dev.Support haben soll. :rolleyes:

Quasar
2004-11-08, 20:01:52
Leute, auch wenn einigen hier nicht passt, es geht um den großen Leitungsvorteil der X800Pro bei Flatout [...]
Doch nicht der "Pro"? Gegenüber welcher anderen Karte denn? GT?

dildo4u
2004-11-08, 20:02:19
Fraps funzt bei mir einwandfrei. Habe das schon mit mapel verglichen im privaten Rahmen anhand von Screenshots und meine Karte war in 1600*1200 schneller, als sein 6800GT@>Ultra in 1280*1024.
Ja hab mich falsch ausgedrückt mit der screenshot funktion von fraps und mit der ingame screenshot funktion sieht man bei mir nich die fps anzeige auf dem screenshot kein plan warum.

betasilie
2004-11-08, 20:03:05
Doch nicht der "Pro"? Gegenüber welcher anderen Karte denn? GT?
Sorry, das Pro war Reflex. Ich meinte die X800 Serie im allgmeinen, Übrigens scheint ja die 9800Pro fast auf dem Leistungsniveau einer 6800GT zu sein. Von daher. ...

betasilie
2004-11-08, 20:03:54
Ja hab mich falsch ausgedrückt mit der screenshot funktion von fraps und mit der ingame screenshot funktion sieht man bei mir nich die fps anzeige auf dem screenshot kein plan warum.
Achso. Aber die Screenshotfunktion von fraps arbeitet doch einwandfrei. Von daher einfach diesen nutzen. :)

Quasar
2004-11-08, 20:05:04
Ja hab mich falsch ausgedrückt mit der screenshot funktion von fraps und mit der ingame screenshot funktion sieht man bei mir nich die fps anzeige auf dem screenshot kein plan warum.
Da gibt's extra eine Option im FRAPS - aber in Flatout geht's bei dir ja auch... :|

Gast
2004-11-08, 20:05:58
Ja, leider führt sowas immer auf das slebe hinaus. Einige Leute können einfach den Fakten nicht ins gesicht sehen. Hinterher haben sich wieder die Devs gegen NV verschworen, weil diese angeblich alle auf ATI optimieren. ... Und das obwohl NV ja den besten Dev.Support haben soll. :rolleyes:

Welche Fakten denn? Bisher lese ich nur Behauptungen die bisher kein Ergebnis erbracht haben.

LovesuckZ
2004-11-08, 20:07:48
Um nochmal Dunkeltiers hervorragenden Vergleich zu bringen. Was macht ihr denn nun bei den CPU's, bei denen es eigentlich schon immer so war, dass die AMD CPU's billiger waren. Darf man dann nen XP 3200+ mit nem 2,6Ghz Pentium 4 vergleichen, weil sie ja den selben Preis haben?

Gleichwertiges Mainboard:
Ja, da der Preis die Moeglichkeiten begrenzt.
Wenn jemand für die CPU nur 100€ ausgeben will und er einen 3200+ oder einen 2.6Ghz bekommt, dann werden sie miteinander verglichen und nicht der 100€ teure 3.2GHz herangezogen, nur weil das Rating sich auf diesen bezieht.

Nochwas Lovesuckz, wenn keine Karte Verfügbar ist, wie am Anfang als sie rauskamen, darfst du sie dann erst gar nicht vergleichen?

Das ist sozusagen eine moralische Frage.
Am Anfang kommt sowieso erst der Launch und dann die Verfuegbarkeit (meisten jedenfalls). Als die Pro und die Ultra draußen war, hat man beide ebenfalls, wenn man Geld bis 500€ übrighaette, verglichen und abgewogen, was besser ist.

Sry, aber hier sieht man eindrucksvoll an welchen nichtigen Argumenten sich die nvidia jünger versuchen an den allerletzten Strohhalm zu klammern.

Du kannst gerne meine jetzige BP (=betriebswirtschaftliche Prozesse) Lehrerin abloesen, wenn du meinst, du haettest groeßeres Wissen.

/edit: Das über den wirtschaftlichen vergleich ist ohne jeglichen fanboyismus hervorgetreten sondern bezieht sich nur auf laecherliche 9 Bloecke BP.

Quasar
2004-11-08, 20:09:14
Sorry, das Pro war Reflex. Ich meinte die X800 Serie im allgmeinen, Übrigens scheint ja die 9800Pro fast auf dem Leistungsniveau einer 6800GT zu sein. Von daher. ...

Wenn wir denn mal wirklich vergleichbare Einstellungen und Taktraten hätten, könnten wir das mal klären, aber leider scheint jeder in anderen Einstellungen zu testen und kaum einer bemüht sich, die Einstellungen genau preiszugeben.

Dildo4U hatte auf Startposition 5 (siehe mein "Raster" ein paar Seiten zuvor) auf Seite 1 mit VSync on glatte 60fps in 1280x1024 mit 4x/16x - aber ohne genauere Angaben zum Treiber etc.

McDave hatte von derselben Position 72fps - ebenfalls ohne genauere Angaben zu den getätigten Einstellungen IIRC.

Das sehe ich momentan als Vergleichsreferenz, weil noch mit am besten dokumentiert.