PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : ATI r420 bei neuen game doppelt so schnell wie NV40 --- WTF??


Seiten : 1 [2] 3 4

betasilie
2004-11-08, 20:13:57
Wenn wir denn mal wirklich vergleichbare Einstellungen und Taktraten hätten, könnten wir das mal klären, aber leider scheint jeder in anderen Einstellungen zu testen und kaum einer bemüht sich, die Einstellungen genau preiszugeben.

Dildo4U hatte auf Startposition 5 (siehe mein "Raster" ein paar Seiten zuvor) auf Seite 1 mit VSync on glatte 60fps in 1280x1024 mit 4x/16x - aber ohne genauere Angaben zum Treiber etc.

McDave hatte von derselben Position 72fps - ebenfalls ohne genauere Angaben zu den getätigten Einstellungen IIRC.

Das sehe ich momentan als Vergleichsreferenz, weil noch mit am besten dokumentiert.
Ja, da hast Du recht. Ich habe jedenfalls die selben Settings wie Dildo gehabt nur eine Auflösungsstufe höher.

Dildo:
http://img103.exs.cx/img103/7246/FlatOutDemo1.jpg

betareverse:
http://img102.exs.cx/img102/8095/flatout316004aavollaf.jpg


Und um es nochmal zu sagen: Flatout ist nciht das einzige Spiel, wo die X800er soviel schneller sind. Ich habe wie gasgt nicht aus jux meine 6800GT @ 435/1180 verkauft. ;) Wenn die Karten gleich schnell wären, hätte ich die 6800Gt definitiv behalten, denn ich mag SSAA. ;)

Jesus
2004-11-08, 20:16:24
dieses blöde Spiel intressiert doch keine Sau! ich will MoHPA Screens :)

Quasar
2004-11-08, 20:17:16
Jo, bleibt die Frage, wieviel über 60fps ihm der VSync geklaut hat.

betasilie
2004-11-08, 20:20:12
dieses blöde Spiel intressiert doch keine Sau! ich will MoHPA Screens :)
Gibts leider noch nicht. Aber die Demo läuft katastrophal auf den 6800ern, ganz im Gegensatz zu den X800ern. ... Leider habe ich die MoH Demos nciht mehr drauf, sonst würde ich auch hier mal zeigen wo der ahmmer hängt in 1600*1200. :biggrin:

Gast
2004-11-08, 20:24:32
Gibts leider noch nicht. Aber die Demo läuft katastrophal auf den 6800ern, ganz im Gegensatz zu den X800ern. ... Leider habe ich die MoH Demos nciht mehr drauf, sonst würde ich auch hier mal zeigen wo der ahmmer hängt in 1600*1200. :biggrin:

Siehste du hast einfach keinen Plan. Nur Behauptungen sonst nix wo sind deine Beweise? Wie definierst du katastrophal? Man Man ...

Fadl
2004-11-08, 20:25:47
Ich höre hier immer wieder von schlechten ATI PCI-Express Treibern. Dem kann ich gar nicht zustimmen.
Ein Kumpel von mir hat eine X800XT PCI-E Karte und die ist verdammt schnell. Oftmals ist sein Rechner schneller als meiner mit 6800U Karte....
Natürlich bei gleichem Takt der CPU(P4).
Die Bildqualität kommt mir bei einigen Games auch etwas besser vor. Da rächt es sich doch das NVidia vieles einfach zu scharf zeichnet. Flimmern ist die Folge.
Dieses ATI gebashe was viele hier praktizieren ist einfach nicht richtig. Die x800er Karten haben sicherlich nicht die technischen Spielereien und Feinheiten wie eine NV40 Karte aber manchmal hilft rohe Gewalt(sprich hoher Takt) im Falle der ATI Karten halt auch um ans Ziel zu kommen.
Und wenn man sich die Benches von vielen neuen Games so anschaut weiss ich auch nicht ob ich auf das richtige Pferd gesetzt habe. Zudem die ATI XT Karten im Falle von PCI-Express auch deutlich günstiger sind als eine 6800U...

Jesus
2004-11-08, 20:27:36
http://home.arcor.de/quasat/3DC-Pics/Flatout%2016x12x3%20DB%204xAA%2016xAF%20(b).PNG

http://home.arcor.de/quasat/3DC-Pics/Flatout%2016x12x3%20DB%204xAA%2016xAF%20(a).PNG

Sodele, hier meine Screenies (Vorsicht, à 2,8MB-PNG).
Erstaunt (oder auch nicht) stellt man fest, daß der Screenshot mit aktiven Optimierungen ein vieeeel schärferes Bild bietet. *boah*


nicht wirklich, böse flimmernd ? ;)

DanMan
2004-11-08, 20:28:52
Ist es wieder so weit? Streiten sich die Herrschaften wieder über die Balkenlänge bei irgendwelchen Vorab-Demoversionen? Es gibt nur eine Geschwindigkeit, und die heißt "schnell genug".

mapel110
2004-11-08, 20:29:02
so, hab mal fraps nebenher laufen lassen (benchmarkmode)
bei 1152er Auflösung, 2xAF, high quality, ingame alles max pendeln die fps so zwischen 40-50 fps.
GT @default takt, FW 66.77

höhere Settings schlagen nahezu voll auf die Performance durch, daher würd ich CPU-Limitierung fast ausschliessen.

btw seit einigen Gamestarts ist der EA-screen beim starten "defekt", voll die krassen Bildfehler.

hmx
2004-11-08, 20:29:26
@beta
Sehe nur ich dass oder ist bei deinem Bild weiter oben so starkes Mip-Banding zu sehen, dass man es auf einem Screenshot ohne probleme erkennt?

Quasar
2004-11-08, 20:32:44
@beta
Sehe nur ich dass oder ist bei deinem Bild weiter oben so starkes Mip-Banding zu sehen, dass man es auf einem Screenshot ohne probleme erkennt?
Laut beta und tombman ein Fehler im Spiel - AF über das CP soll keine zusätzliche Performance kosten.

hmx
2004-11-08, 20:33:25
ok.

dildo4u
2004-11-08, 20:35:43
Jo, bleibt die Frage, wieviel über 60fps ihm der VSync geklaut hat.
Hier nochmal 1280*1024 4xAAFullAniso diesmal 6800U Takt
schwankt zwischen 68-69fps bitte macht noch mal vergleich shots.
Wie gesagt bei mir ist das noch GK limitiert


http://img131.exs.cx/img131/8623/FlatOutDemo2004-11-0721-54-53-62.jpg

Ohne V-scny und mit 66.81 treiber alle optemierungen an Aniso und AA im game setup eingestellt.1A Bild ohne banding.

Quasar
2004-11-08, 20:37:48
AH ja, danke.
Welcher Treiber und wie war der eingestellt, bzw. was heisst bei dir "FullTri"?

edit:
Ok, hat sich dann erledigt.

dildo4u
2004-11-08, 20:39:29
AH ja, danke.
Welcher Treiber und wie war der eingestellt, bzw. was heisst bei dir "FullTri"?
Mit Full Aniso mein ich den komischen schiebe regler im gamesetup sorry für missverständnisse.

betasilie
2004-11-08, 20:47:31
@beta
Sehe nur ich dass oder ist bei deinem Bild weiter oben so starkes Mip-Banding zu sehen, dass man es auf einem Screenshot ohne probleme erkennt?
Ja, das ist aber nur, wenn das AF über das Speil eingeschaltet wird. Übers Cp ist es einwandfrei.

Gast
2004-11-08, 20:50:21
MOH-Trainingslevel: Geforce6800GT 350/1000 Fw.66.81 8xAF CP forced Quality Setting im Treiber läuft astrein.

Mit Fraps erstellt und F10 Taste: Im Spiel hatte ich an dieser Stelle 54 fps Fraps meldet jetzt 51 fps k.A. warum
http://img105.exs.cx/img105/933/mohpa2004-11-0820-43-37-62.jpg

Gast
2004-11-08, 20:56:42
Was auch noch wichtig wäre EAX3 incl. 7.1 Sound waren enabled. Zieht ja auch noch zusätzlich Performance was nicht zu unterschätzen ist.

Mr. Lolman
2004-11-08, 21:03:35
Mein Screenshot war 16xbiAF(34fps). Ich sehe in dem Spiel lustigerweise kaum einen Unterschied zw. 16x Fulltri AF (23fps) und 4xbiAF (40fps). Der Vollständigkeit halber: 16xQualityAF bringt 27fps. Übers Spiel eingestellt ist das AF genauso schnell wie Quality AF, aber deutlich schärfer...

Vielleicht sollte man Flautout ohne AF testen?

mapel110
2004-11-08, 21:11:49
MOH-Trainingslevel: Geforce6800GT 350/1000 Fw.66.81 8xAF CP forced Quality Setting im Treiber läuft astrein.

Mit Fraps erstellt und F10 Taste: Im Spiel hatte ich an dieser Stelle 54 fps Fraps meldet jetzt 51 fps k.A. warum
http://img105.exs.cx/img105/933/mohpa2004-11-0820-43-37-62.jpg

mit selben Settings und selben grakatakt hab ich ca 42 fps (FW 66.77)

1600er auflösung war es doch?

Gast
2004-11-08, 21:15:42
mit selben Settings und selben grakatakt hab ich ca 42 fps (FW 66.77)

1600er auflösung war es doch?

Ich habs vergessen dazu zuschreiben, ja 1600x1200 und High Details Vsync off und Pentium4 3,2Ghz 1024mb
Teste doch mal bitte mit 66.81

//
// Video Card Name: NVIDIA GeForce 6800 GT
// Video Card Memory: 256 MB
// Video Card Family: NVidia
// Video Card Vendor ID: 0x000010DE
// Video Card Device ID: 0x00000045
//
// CPU Clock Rate: 3202 MHz
// System Memory: 1024 MB
//
// Default config selection: High
//

set com_machinespeed_mhz "3408"
set com_performanceratio "2.43"
set cg_cull_factor "0.00002"
set cg_max_tempmodels "1024"
set cl_previewBuild "0"
set com_machinespec "2"
set com_machinespeed_mhz "3408"
set com_performanceratio "2.43"
set com_pose_lod_bias "0"
set default_largetextures "1"
set default_machinespec "2"
set default_picmip "0"
set default_ps "2"
set default_screenwidth "1024"
set g_enableik "1"
set g_footstepdecals "1"
set g_ragdolldeaths "1"
set r_allow_software "1"
set r_dds "1"
set r_drawdecals "1"
set r_drawshadows "1"
set r_drawterraindecals "1"
set r_largetextures "1"
set r_max_replicant_vertices "2500"
set r_max_replicant_vtx_buf_size "15000"
set r_picmip "0"
set r_postfx_enable "1"
set r_ps_generation "2"
set r_refreshrate "60"
set r_replicant_divide "1"
set r_screenheight "1200"
set r_screenwidth "1600"
set r_video_memory "256"
set r_vs_generation "2"
set r_vsync "0"
set s_khz "44"
set s_milesdriver "Creative Labs EAX 3 (TM)"
set s_numobjects_per_frame "5"
set s_speaker_type "5"

mapel110
2004-11-08, 21:18:57
oh man, dieses dumme game forced doch tatsächlich vsync, kein wunder, dass die performance bei mir fürn arsch ist.
ohne siehts schon wesentlich freundlicher aus. sry dildo4u, dann stimmt meine Aussage wegen 1152 und 2AF auch nicht mehr, jetzt gehen auch höhere Settings.

dildo4u
2004-11-08, 21:21:37
oh man, dieses dumme game forced doch tatsächlich vsync, kein wunder, dass die performance bei mir fürn arsch ist.
ohne siehts schon wesentlich freundlicher aus. sry dildo4u, dann stimmt meine Aussage wegen 1152 und 2AF auch nicht mehr, jetzt gehen auch höhere Settings.jo an der stelle im boot camp hab ich bei 1280*1024 16Aniso 70FPS

Gast
2004-11-08, 21:24:42
Es wäre mal interessant zu wissen was die X800XT Jünger an dieser Stelle denn haben. Laut Tombmans Aussagen müssten sich die FPS ja dort um die 100 fps bewegen. Da bin ich aber mal gespannt drauf. ;)

hmx
2004-11-08, 22:07:37
http://img107.exs.cx/img107/142/FlatOutDemo16_12_maxaf_4xAA.jpg

1600*1200 4xAA maxAF

http://img113.exs.cx/img113/9127/FlatOutDemo16_12_noaf_4xAA.jpg

1600*1200 4xAA noAF

http://img113.exs.cx/img113/8383/FlatOutDemo16_12_maxaf_noAA.jpg

1600*1200 noAA maxAF

http://img119.exs.cx/img119/3425/FlatOutDemo16_12_noaf_noAA.jpg

1600*1200 noAA noAF

AF wurde im Spiel auf max gestellt. Tbred@2200MHz, 6800gt@default, 66.81 alle Optimierungen aus.(also auch HQ im Treiber eingestellt) Vsync und Triplebuffer an.
Das AF scheint wohl einiges an Performance zu fressen.
Zwischen Triplebuffer Ein/Aus besteht kaum ein Unterschied: 54FPS Ein zu 56FPS Aus bei 1600*1200 4xAA noAF.

Gast
2004-11-09, 11:40:20
q.e.d.

Labberlippe
2004-11-09, 11:51:41
Hi

Sieht irgendwie unscharf aus.

Liegt aber auch anscheined am JPEG, hm....

Gruss Labberlippe

mapel110
2004-11-09, 13:52:00
1.) pci-express --> Treiber im Arsch
2.) ich bekomm andere Ergebnisse, bei Doom3 ist die 6800u etwas schneller aber beide über 40fps. (die 29fps von deinem link sind nur mehr Blödsinn)
http://www.digit-life.com/articles2/digest3d/1004/itogi-video-cod-wxp-aaa-1024.html
hmmmmmmmm?!
:)
http://www.digit-life.com/articles2/digest3d/1004/itogi-video-d3-wxp-aaa-1024.html

tja, nix is mit mieser PCIe-Performance. :)

dean
2004-11-09, 14:21:20
http://www.digit-life.com/articles2/digest3d/1004/itogi-video-cod-wxp-aaa-1024.html
hmmmmmmmm?!
:)
http://www.digit-life.com/articles2/digest3d/1004/itogi-video-d3-wxp-aaa-1024.html

tja, nix is mit mieser PCIe-Performance. :)

Sorry, find ich jetzt aber nicht ganz förderlich, darauf hier wieder herum zu reiten. Hat doch mit der eigentlichen Thematik, dass neue Spiele, die eben nicht so bekannt und benchmarkträchtig sind, komischerweise nicht so gut laufen, überhaupt nix zu tun, eher im Gegenteil.

Warum D3 auf NV so schnell ist, wurde doch schon allzu oft diskutiert, oder?

Gruss

Tjell
2004-11-09, 14:42:27
Ich finde es faszinierend, daß hier wieder einige daherkommen und behaupten, höhere Einstellungen beim Einsatz von AF würde keinen Leistungseinbruch mit sich bringen.

Und dann sind hier noch einige der absolut unrealistischen Meinung, die "Optimierungen" beim Einsatz von AF würden keinen großen Einfluß auf die Framerate haben, sprich ob Optimierungen an oder aus würde keine Rolle spielen.

Hallo? Wieso befleißigen sich denn beide großen Chiphersteller-Kontrahenten so aufwändiger Findigkeit beim Erfinden von neuen "Optimierungen" für Anisotrope Filterung? Weil es nichts bringt? Alles klar.

Gast
2004-11-09, 15:09:07
Ich finde es faszinierend, daß hier wieder einige daherkommen und behaupten, höhere Einstellungen beim Einsatz von AF würde keinen Leistungseinbruch mit sich bringen.

Und dann sind hier noch einige der absolut unrealistischen Meinung, die "Optimierungen" beim Einsatz von AF würden keinen großen Einfluß auf die Framerate haben, sprich ob Optimierungen an oder aus würde keine Rolle spielen.

Hallo? Wieso befleißigen sich denn beide großen Chiphersteller-Kontrahenten so aufwändiger Findigkeit beim Erfinden von neuen "Optimierungen" für Anisotrope Filterung? Weil es nichts bringt? Alles klar.

wer behauptet denn sowas ? es gab nur mal vor kurzem einen Test des CCC bei Xbitlabs (glaub ich) wo man optimierungen an gegen aus testete. Dabei stellte man fest dass es bei ATI kaum Performance bringt (ca. 5%) während bei NV oft 20% und mehr Unterschied zwischen optimiert und nicht optimiert brachte.

Tjell
2004-11-09, 15:22:05
wer behauptet denn sowas ? es gab nur mal vor kurzem einen Test des CCC bei Xbitlabs (glaub ich) wo man optimierungen an gegen aus testete. Dabei stellte man fest dass es bei ATI kaum Performance bringt (ca. 5%) während bei NV oft 20% und mehr Unterschied zwischen optimiert und nicht optimiert brachte.
Lies mal ein paar Seiten vorher in diesem Thread... :frown:

Und ganz objektiv betrachtet: würde sich ein Hersteller so sehr Mühe geben zu "optimieren", wenn es nur 5 % ausmachen würde?

Daß das CCC bei "Deaktivierung der Optimierungen" nur diesen zu messenden Unterschied ergibt heißt nicht, daß auch wirklich alles an Optimierungen ausgeschaltet wird, also die letztendliche Auswirkung beziffert wird.

Es gibt weder von ATI noch von nVIDIA Wunderhardware, die ohne Tricksereien in den Treibern AF "for free" ermöglicht.

betasilie
2004-11-09, 15:35:37
Lies mal ein paar Seiten vorher in diesem Thread... :frown:

Und ganz objektiv betrachtet: würde sich ein Hersteller so sehr Mühe geben zu "optimieren", wenn es nur 5 % ausmachen würde?

Daß das CCC bei "Deaktivierung der Optimierungen" nur diesen zu messenden Unterschied ergibt heißt nicht, daß auch wirklich alles an Optimierungen ausgeschaltet wird, also die letztendliche Auswirkung beziffert wird.

Es gibt weder von ATI noch von nVIDIA Wunderhardware, die ohne Tricksereien in den Treibern AF "for free" ermöglicht.
Man, bring Fakten, aber komm nicht mit solchen Floskeln "würde sich ein Hersteller so sehr Mühe geben zu "optimieren", wenn es nur 5 % ausmachen würde?".

Die 5% sind Messungen und deine Aussage zeigt nur mal wieder, dass Du scheinbar biased bist.

Aber wie gesagt, es ist wohl jedem neutralem Leser klar, dass am Ende ATI irgendwelche geheimen, unsichtbaren AF Cheats anbringt. Die Möglichkeit, dass ATIs AF einfach effizienter, und somit schneller arbeitet, kommt einigen Leute wohl nicht in den Sinn. :rolleyes:

HOT
2004-11-09, 15:37:32
Man, bring Fakten, aber komm nicht mit solchen Floskeln "würde sich ein Hersteller so sehr Mühe geben zu "optimieren", wenn es nur 5 % ausmachen würde?".

Die 5% sind Messungen und deine Aussage zeigt nur mal wieder, dass Du scheinbar biased bist.

Aber wie gesagt, es ist wohl jedem neutralem Leser klar, dass am Ende ATI irgendwelche geheimen, unsichtbaren AF Cheats anbringt. Die Möglichkeit, dass ATIs AF einfach effizienter arbeitet, kommt einigen Leute wohl nicht in den Sinn. :rolleyes:



Ob ATI im allgeinen vielleicht mehr chiptakt hat? ;)
Kein Wunder dass AF bei ATI schneller arbeitet oder? :)
Je weniger Takt und je kritischer die Leistung, desto mehr schlagen Optimierungen durch, ist doch irgendwie logisch.

betasilie
2004-11-09, 15:40:37
Ob ATI im allgeinen vielleicht mehr chiptakt hat? ;)
Kein Wunder dass AF bei ATI schneller arbeitet oder? :)
Ja, klar. Nur ist diese Taktdiskussion sinnlos. NV hat sich für weniger Takt entschieden und für mehr Transistoren. Ati für weniger Transitoren und mehr Takt. Was am Ende rauskommt, ist das was zählt.

HOT
2004-11-09, 15:45:44
Ja, klar. Nur ist diese Taktdiskussion sinnlos. NV hat sich für weniger Takt entschieden und für mehr Transistoren. Ati für weniger Transitoren und mehr Takt. Was am Ende rauskommt, ist das was zählt.

Moment, fürs AF ist das alles andere als Sinnlos.
Wenn du nämlich die Texturfilterpower der Beiden Karten aufrechnest, ist die in etwa gleich pro Takt.
Das würde bedeuten, dass ATI durch höheren Takt eben schneller Filtern kann (kein Wunder bei höherer Füllrate).
Das ist nur ne einfache Erklärung dafür, warum die Optimierung bei ATI nicht allzuviel bringt.

Tjell
2004-11-09, 15:53:55
Man, bring Fakten, aber komm nicht mit solchen Floskeln "würde sich ein Hersteller so sehr Mühe geben zu "optimieren", wenn es nur 5 % ausmachen würde?"...
Muß hier jeder, der Fragen aufwirft, seine Fragen oder Zweifel mit technischen Dokumente begründen? Wohl kaum...

... Aber wie gesagt, es ist wohl jedem neutralem Leser klar, dass am Ende ATI irgendwelche geheimen, unsichtbaren AF Cheats anbringt. Die Möglichkeit, dass ATIs AF einfach effizienter, und somit schneller arbeitet, kommt einigen Leute wohl nicht in den Sinn. :rolleyes:
Ich bin hier nicht der Technik-Guru. Deine Hypothese kann sicher jemand mit Technik-Know-how bestätigen oder widerlegen.

Also, lieber betareverse, falls es Dir nichts ausmacht, ich für meinen Teil hinterfrage die allzu ati-sympathisierenden Aussagen ein wenig. Es sollte aber ebenso augenscheinlich sein, daß ich nicht den generellen Leistungsvorsprung der ATI-Karten in Frage stelle. Wozu auch? ;)



...Die 5% sind Messungen und deine Aussage zeigt nur mal wieder, dass Du scheinbar biased bist...
Falsch. Ich bin nicht pro-nv sondern anti-ati. Ein kleiner aber feiner Unterschied, der sich im Übrigen nur in meiner Kaufentscheidung niederschlägt.

Gast
2004-11-09, 15:54:42
Ja, klar. Nur ist diese Taktdiskussion sinnlos. NV hat sich für weniger Takt entschieden und für mehr Transistoren. Ati für weniger Transitoren und mehr Takt. Was am Ende rauskommt, ist das was zählt.

im übrigen arbeitet ATI´s AF doch mit weniger (bit) genauigkeit afaik. Eine weiter erklärung dafür ...

Gast
2004-11-09, 15:57:04
bla.[/SIZE]

sorry aber du unterstellst gerade dass ATI´s Optimierunge nicht deaktiviert werden können, die von NV aber schon.

Liest man sich so durch die Threads (Thema BQ im NV Forum) kommt man eher zu einem anderen Schluss...

zum auch niemand das Gegenteil bisher bewiesen hat. Aber es ist immer einfach sowas zu behaupten (und damit bereits durchgeführte Benchmarks bzw. Ergebnisse in Frage zu stellen, weil sie einem nicht passen ).

Tjell
2004-11-09, 16:04:02
des war irgendein 68er treiber bei nvidia und bei ATi wars 8.07 (weiß gar ned wie der in cat heisst?) glaub ich ...

und ihr könnt mir glauben, daß die "Filtertheorie" (so nenn ich den hype jetzt mal liebevoll) bis zu 100% langsamer NICHT erklären kann.

Wie gesagt, bei MOHPA hast ziemlich die selben fps bei nv 1024 und ati 1600 --> so krank.
Genau das meine ich.

Den "Riesenunterschied" erklärt es in der Tat nicht, wohl aber möglicherweise den Unterschied zwischen "zu erwartender Leistung" und "festgestellter Leistung".

betasilie
2004-11-09, 16:35:17
Muß hier jeder, der Fragen aufwirft, seine Fragen oder Zweifel mit technischen Dokumente begründen? Wohl kaum...[/SIZE]
Du unterstellst, dass man bei den ATI Karten die Optimierungen nicht auschalten kann, obwohl alles dagegen spricht. Ziemlich konstruktiv und fundiert deine Aussage. :usad:

Ich bin hier nicht der Technik-Guru. Deine Hypothese kann sicher jemand mit Technik-Know-how bestätigen oder widerlegen.[/SIZE]
Das Thema ist schon so oft besprochen worden. :rolleyes:

Falsch. Ich bin nicht pro-nv sondern anti-ati. Ein kleiner aber feiner Unterschied, der sich im Übrigen nur in meiner Kaufentscheidung niederschlägt.
Jo, das ist ja auch in Ordnung. Jeder hat so seine Vorlieben. Es gibt ja auch Argumente für die 6800er Karten.

Tjell
2004-11-09, 16:42:28
Es wird doch genauso unterstellt, daß NV nur durch "Handoptimierung" auf das jeweilige Spiel Leistung gewänne und im "Normalfall" gravierend langsamer sei.

Dieser Thread dient doch gerade dazu, diese Unterstellungen zu beweisen oder zu widerlegen (was ich ganz sicher nicht tun kann), deshalb ist eine etwas kritischere Betrachtung der Benchmarks doch angebracht, schließlich dreht sich die Diskussion genau darum.

Gast
2004-11-09, 16:48:47
Es wird doch genauso unterstellt, daß NV nur durch "Handoptimierung" auf das jeweilige Spiel Leistung gewänne und im "Normalfall" gravierend langsamer sei.

Dieser Thread dient doch gerade dazu, diese Unterstellungen zu beweisen oder zu widerlegen (was ich ganz sicher nicht tun kann), deshalb ist eine etwas kritischere Betrachtung der Benchmarks doch angebracht, schließlich dreht sich die Diskussion genau darum.

Falsch, diese "Handoptimierung" ist keine Unterstellung mehr, sondern eine Tatsache. (Sogar selbst von NV bestätigt).

betasilie
2004-11-09, 16:52:19
Es wird doch genauso unterstellt, daß NV nur durch "Handoptimierung" auf das jeweilige Spiel Leistung gewänne und im "Normalfall" gravierend langsamer sei.

Dieser Thread dient doch gerade dazu, diese Unterstellungen zu beweisen oder zu widerlegen (was ich ganz sicher nicht tun kann), deshalb ist eine etwas kritischere Betrachtung der Benchmarks doch angebracht, schließlich dreht sich die Diskussion genau darum.
Ja, aber das mit dem AF ist halt schon lange durch.

Und das der NV40 speziell angesprochen werden muss, um eine bessere pro-mhz Leitung zu haben, ist wohl auch Fakt. FarCry hat es schön gezeigt. In der Version 1.0 war die 6800Ultra erheblich langsamer, in 1.3 hat sie fast zur X800Xt-PE aufgeschlossen. Nur ist halt nicht jeder Entwickler bereit dazu, für NV solche Extrawürstchen zu backen, denn das kostet ne menge Geld.

hmx
2004-11-09, 17:01:35
@beta

Hast du UT2004? Wenn ja kannst du mal DM_Icetomb einmal mit und ohnr AF testen. Ich hatte da mit meiner gt nämlich einen echt üblen einbruch mit unoptimiertem AF. Wenn ich die Optimierungen ausschalte gehts halbwegs. Auch bei Bf:V zieht AF aussergewöhnlich viel Leistung...

edit: Link zum Thread den ich damals aufgemacht habe:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=174929&highlight=ut2004+icetomb

LovesuckZ
2004-11-09, 17:02:42
Und das der NV40 speziell angesprochen werden muss, um eine bessere pro-mhz Leitung zu haben, ist wohl auch Fakt.

Ja?
Gut, wieso ist dann eine X800pro nicht in jedem Spiel schneller?

FarCry hat es schön gezeigt. In der Version 1.0 war die 6800Ultra erheblich langsamer, in 1.3 hat sie fast zur X800Xt-PE aufgeschlossen.

Das stimmt. Wenn man "nicht richtig funktionieren" mit "erheblich langsamer" gleichsetzt...
Wie erklaert man jedoch hierhier (http://www.computerbase.de/artikel/hardware/grafikkarten/2004/x800_pro_xt_pe_geforce_6800_gt_ultra/10/#far_cry_v1_1) den Gleichstand zwischen pro und gt?

Nur ist halt nicht jeder Entwickler bereit dazu, für NV solche Extrawürstchen zu backen, denn das kostet ne menge Geld.

Dafür belohnt ihm der Gamer mit einem NV40 indem er das Spiel kauft.
ATi user haetten auch was davon, aber da sie die technologisch unterentwickelte Karte gekauft haben, koennen sie nicht davon ausgehen, dass hier noch Optimierungen herausgeholt werden koennen (reduzierte Genauigkeit, dynamisches Branching in den VS, Profil 2.a/3.0 etc.).

betasilie
2004-11-09, 17:06:04
@beta

Hast du UT2004? Wenn ja kannst du mal DM_Icetomb einmal mit und ohnr AF testen. Ich hatte da mit meiner gt nämlich einen echt üblen einbruch mit unoptimiertem AF. Wenn ich die Optimierungen ausschalte gehts halbwegs. Auch bei Bf:V zieht AF aussergewöhnlich viel Leistung...

edit: Link zum Thread den ich damals aufgemacht habe:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=174929&highlight=ut2004+icetomb
Leider habe ich UT2004 verliehen, schon ziemlich lange. Sry.

Mr. Lolman
2004-11-09, 17:11:36
@beta
edit: Link zum Thread den ich damals aufgemacht habe:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=174929&highlight=ut2004+icetomb

Dein Screenshot geht nicht mehr...

Gast
2004-11-09, 17:16:34
Dafür belohnt ihm der Gamer mit einem NV40 indem er das Spiel kauft.
ATi user haetten auch was davon, aber da sie die technologisch unterentwickelte Karte gekauft haben, koennen sie nicht davon ausgehen, dass hier noch Optimierungen herausgeholt werden koennen (reduzierte Genauigkeit, dynamisches Branching in den VS, Profil 2.a/3.0 etc.).

sorry wenn du traurig bist dass deine Karte Müll ist. Denn die ganzen Tollen Papierfeatures die du da aufzählst bringen rein gar nichts und trotz dieser (überflüssigen) Features ist der NV40 langsamer als die "veraltete" ATI Karte...

Btw dass mit der Technologisch unterentwickelten Karte auch optimierungen möglich sind zeigt FarCry mit SM2.0b deutlich, wo mehr nutzen daraus gezogen werden kann als der NV40 aus dem SM3.

betasilie
2004-11-09, 17:24:13
sorry wenn du traurig bist dass deine Karte Müll ist. Denn die ganzen Tollen Papierfeatures die du da aufzählst bringen rein gar nichts und trotz dieser (überflüssigen) Features ist der NV40 langsamer als die "veraltete" ATI Karte...

Btw dass mit der Technologisch unterentwickelten Karte auch optimierungen möglich sind zeigt FarCry mit SM2.0b deutlich, wo mehr nutzen daraus gezogen werden kann als der NV40 aus dem SM3.
Ack. Was habe ich von einer technologisch tollen Karte, deren meisten Features in absehbarer Zeit sowieso nicht zum Einsatz kommen und speziellen Effekte außerdem zu langsam laufen? :D

Ich spiele lieber in 1600*1200 mit 4*AA und 8*AF auf meiner ach so rückständigen Karte, die top-aktuelle, shaderlastige Spiele um Längen schneller beschleunigt, als auf einer langsameren 6800Ultra, deren AA auch noch viel schlechter aussieht.

LovesuckZ
2004-11-09, 17:44:53
sorry wenn du traurig bist dass deine Karte Müll ist. Denn die ganzen Tollen Papierfeatures die du da aufzählst bringen rein gar nichts und trotz dieser (überflüssigen) Features ist der NV40 langsamer als die "veraltete" ATI Karte...

NV40 oder nur Ultra?
Wie ich so seh, ist eine GT nicht langsamer als das Konkurenzprodukt.
Eine 6800NU/LE sind außer Konkurenz und eine 6600GT zieht eine X700pro, die XT wird es wohl nie zu kaufen geben, einfach so ab. Nichts mit mehr ROPs oder 6 Vertexshader.
Warum immer nur von der XTPE geredet wird, ist mir schleierhaft, liegt wohl daran, dann andere, verfuegbare Karten, nicht besser sind...

Btw dass mit der Technologisch unterentwickelten Karte auch optimierungen möglich sind zeigt FarCry mit SM2.0b deutlich, wo mehr nutzen daraus gezogen werden kann als der NV40 aus dem SM3.

Je kuerzer die Shader umso geringer die Wahrscheinlichkeit für Artefakte mit FP16. Bringt Speed für den NV40.
Shader, die nicht über das maximum vom SM2.0 hinaus gehen, bringt ein 2.b Profil garnichts. Als NV40 Kartenbesitzer habe ich dank 2.a und 3.0 einen Vorteil, da selbst hier Anweisungen eingespart werden koennen.
Und je laenger die Shader werden, desto groeßer ist der Gewinn durch Einsparung von Anweisungen bzw. Branching das nicht Ausführen von Anweisungen.
Aber schon gut, schlechte Dinge gut reden, gehoert auch dazu.

HOT
2004-11-09, 17:46:14
Ja?
[...]



Dafür belohnt ihm der Gamer mit einem NV40 indem er das Spiel kauft.
ATi user haetten auch was davon, aber da sie die technologisch unterentwickelte Karte gekauft haben, koennen sie nicht davon ausgehen, dass hier noch Optimierungen herausgeholt werden koennen (reduzierte Genauigkeit, dynamisches Branching in den VS, Profil 2.a/3.0 etc.).


Das ist doch Schwachsinn. ATI bietet ausreichende Qualität, jedenfalls sind Unterschiede in Spielen nicht feststellbar. Von daher is schonmal nix mit Unterentwickelt. Beide Karten haben ihre Vor- und Nachteile, das ist nunmal so. Der NV40 kann immerhin schonmal ausreichend schnelles HDR, da muss sich ATI erstmal mit beweisen (geht ja leider net in Farcry).
Es gibt nunmal Fakten, die für die ATI als auch welche die für NV spechen, für ATI spricht nunmal die wesentlich höhere Füllrate und sehr effizentes AA. Das sind dummerweise genau die Features, die im Moment noch die meisten FPS bringen und die Leistung der Bildqualitätsverbessernden Massnahmen erhöhen, da kann die NV40 nichts dran ändern.
Das mag sich in Zukunft noch ändern, aber bei NV sind hier schonmal wieder mehr Optimierungen nötig, sofern der Compiler das nicht macht. Und anscheinend scheint grad da auchnoch nicht alles rund zu laufen bei NV (hab ja selber ne 6800GT).
Nichtsdestotrotz sind beide Karten gut und es gibt für beide gute Treiber. Es gibt garkeinen Grund für die eine oder gegen die andere zu sein, es sei den man ist Fan.
Sogar liegen alle Karten im richtigen Preissegment zueinander!

MechWOLLIer
2004-11-09, 17:48:22
Ack. Was habe ich von einer technologisch tollen Karte, deren meisten Features in absehbarer Zeit sowieso nicht zum Einsatz kommen und speziellen Effekte außerdem zu langsam laufen? :D
Ich spiele lieber in 1600*1200 mit 4*AA und 8*AF auf meiner ach so rückständigen Karte, die top-aktuelle, shaderlastige Spiele um Längen schneller beschleunigt, als auf einer langsameren 6800Ultra, deren AA auch noch viel schlechter aussieht.
Verstehe ich das jetzt richtig, dass du findest, dass die 6800ultra Müll ist?(bezogen auf das ack, was dem Post des Vorgängers zustimmen soll, der sagt , dass die Karte müll ist) Wird ja immer besser.....
Und woher willst du wissen, welche Effekte des NV40 in absehbarer Zeit nicht zum Einsatz kommen? Ich glaube kaum, dass du von jedem Entwickler wohl geheime Infos diesbezüglich hast(natürlich ist es dennoch möglich, dass kein feature zum Einsatz kommt).

Und ich kann auch Top Spiele auf einer 6800U in 1600x1200/4xAA/16xAF flüssig Spielen ohne Probleme zu haben? Ist das verwunderlich?

Oha, jetzt sieht das AA sogar schon viieeelll schlechter aus, als das eines R420. Komisch, zum zeitpunkt als die Karte rausgekommen ist, hat jeder gesagt, dass das AA fast gleichwertig ist zu dem des R3x0.

Oder auch kurz: findest du nicht, dass du die Schlechtmachung der 6800U ein wenig übertreibst?

HOT
2004-11-09, 17:51:02
Verstehe ich das jetzt richtig, dass du findest, dass die 6800ultra Müll ist? Wird ja immer besser.....
Und woher willst du wissen, welche Effekte des NV40 in absehbarer Zeit nicht zum Einsatz kommen? Ich glaube kaum, dass du von jedem Entwickler wohl geheime Infos diesbezüglich hast(natürlich ist es dennoch möglich, dass kein feature zum Einsatz kommt).

Und ich kann auch Top Spiele auf einer 6800U in 1600x1200/4xAA/16xAF flüssig Spielen ohne Probleme zu haben? Ist das verwunderlich?

Oha, jetzt sieht das AA sogar schon viieeelll schlechter aus, als das eines R420. Komisch, zum zeitpunkt als die Karte rausgekommen ist, hat jeder gesagt, dass das AA fast gleichwertig ist zu dem des R3x0.

Oder auch kurz: findest du nicht, dass du die Schlechtmachung der 6800U ein wenig übertreibst?

Da kann ich nur Zustimmen. Allerings sind die Verbesserungen auf der NV40 etwas teuerer erkauft. Das z.B. AA ist auch gut, aber die interessanten Modi sind leider recht lahm und AF killt die NV40 (mangels Füllrate zur Konkurrenz) eben auch etwas früher. Der NV40 ist technologisch "sicherer" und der R420 der bessere Allrounder. Soll jeder für sich selbst entscheiden, was er besser findet. Ich hab mich für den NV40 entschieden, weil mit die BQ verbessernden Massnahmen liegen und mich die gebotene Leistung zufriedenstellt. Dafür weiss ich aber auch sicher, dass ich in Zukunft HDR Spiele problemlos spielen kann z.B.
Alles hat Vor- und Nachteile.

Gast
2004-11-09, 17:52:41
NV40 oder nur Ultra?
Wie ich so seh, ist eine GT nicht langsamer als das Konkurenzprodukt.
Eine 6800NU/LE sind außer Konkurenz und eine 6600GT zieht eine X700pro, die XT wird es wohl nie zu kaufen geben, einfach so ab. Nichts mit mehr ROPs oder 6 Vertexshader.
Warum immer nur von der XTPE geredet wird, ist mir schleierhaft, liegt wohl daran, dann andere, verfuegbare Karten, nicht besser sind...

wird zwar OT jetzt, aber es gibt sogar eine X700XT von Sapphire mit 256MB (hybrid), ganz neu ;)



Je kuerzer die Shader umso geringer die Wahrscheinlichkeit für Artefakte mit FP16. Bringt Speed für den NV40.
Shader, die nicht über das maximum vom SM2.0 hinaus gehen, bringt ein 2.b Profil garnichts. Als NV40 Kartenbesitzer habe ich dank 2.a und 3.0 einen Vorteil, da selbst hier Anweisungen eingespart werden koennen.
Und je laenger die Shader werden, desto groeßer ist der Gewinn durch Einsparung von Anweisungen bzw. Branching das nicht Ausführen von Anweisungen.
Aber schon gut, schlechte Dinge gut reden, gehoert auch dazu.

richtig, weniger Befehle, die jedoch oft zu längerer ausführungszeit führen (vorallem bei der FX). Aber auch beim NV40 wird z.b. dyn. Branching bei FC bewusst nicht benutzt, weil es ein performancedämpfer wäre. Wann es soweit ist dass es jemals sinnvoll eingesetzt werden wird in einem Spiel steht in den Sternen (und auch ob der NV40 dann noch leistungsfähig ist).

Mr. Lolman
2004-11-09, 17:55:07
. Der NV40 kann immerhin schonmal ausreichend schnelles HDR, da muss sich ATI erstmal mit beweisen (geht ja leider net in Farcry).

Ja die HDR Technik von Farcry beherrschen die Ati Karten leider nicht. Aber beim ersten HDR Demo überhaupt (rthdribl) ist ne x800xtpe um den Faktor 2.3 schneller als ne 6800 Utra. Ja sogar ne 9800XT ist dort schneller als ne 6800 Ultra...

betasilie
2004-11-09, 18:02:21
Verstehe ich das jetzt richtig, dass du findest, dass die 6800ultra Müll ist?(bezogen auf das ack, was dem Post des Vorgängers zustimmen soll, der sagt , dass die Karte müll ist) Wird ja immer besser.....
Und woher willst du wissen, welche Effekte des NV40 in absehbarer Zeit nicht zum Einsatz kommen? Ich glaube kaum, dass du von jedem Entwickler wohl geheime Infos diesbezüglich hast(natürlich ist es dennoch möglich, dass kein feature zum Einsatz kommt).

Und ich kann auch Top Spiele auf einer 6800U in 1600x1200/4xAA/16xAF flüssig Spielen ohne Probleme zu haben? Ist das verwunderlich?

Oha, jetzt sieht das AA sogar schon viieeelll schlechter aus, als das eines R420. Komisch, zum zeitpunkt als die Karte rausgekommen ist, hat jeder gesagt, dass das AA fast gleichwertig ist zu dem des R3x0.

Oder auch kurz: findest du nicht, dass du die Schlechtmachung der 6800U ein wenig übertreibst?

Die 6800GT/Ultra ist sicherlich kein Müll, aber bisweilen erheblich langsamer, als X800Pro/XT/XT-PE, wie dieser Thread ja zeigt.

Und im übrigen gibt es einige Spiele, die Du nicht flüssig in 1600x1200/4xAA/16xAF zocken kannst, jemand mit einer X800XT-PE allerdings schon. :)

Was das AA betrifft war ich auch erst optimistisch, daher habe ich mir auch eine 6800GT gekauft. Ich persönlich empfinde des Unterschied als stark im direkten Vergleich

HOT
2004-11-09, 18:04:11
Ja die HDR Technik von Farcry beherrschen die Ati Karten leider nicht. Aber beim ersten HDR Demo überhaupt (rthdribl) ist ne x800xtpe um den Faktor 2.3 schneller als ne 6800 Utra. Ja sogar ne 9800XT ist dort schneller als ne 6800 Ultra...

Weiss ich, dass das in der Form nicht geht. Der HDR Status in Farcry kann man aber auch nur mit viel gutem Willen noch als beta bezeichenen :D
Das HDR wäre wohl in der Qualität auf der R420 auch möglich gewesen, ist aber nicht dafür implementiert.

betasilie
2004-11-09, 18:04:34
Dafür weiss ich aber auch sicher, dass ich in Zukunft HDR Spiele problemlos spielen kann z.B.
Alles hat Vor- und Nachteile.
Nun, die Performance in FarCry mit HDR findest Du befriedigend? Sry, aber ich werde deswegen sicherlich nicht in 1024*768er (no AA, no AF) Klötzengrafik spielen. ;(

HDR ist ne tolle Sache. Was der NV40 da wirklich kann, muss er noch beweisen.

MechWOLLIer
2004-11-09, 18:08:25
Die 6800GT/Ultra ist sicherlich kein Müll, aber bisweilen erheblich langsamer, als X800Pro/XT/XT-PE, wie dieser Thread ja zeigt.
Und im übrigen gibt es einige Spiele, die Du nicht flüssig in 1600x1200/4xAA/16xAF zocken kannst, jemand mit einer X800XT-PE allerdings schon. :)
Was das AA betrifft war ich auch erst optimistisch, daher habe ich mir auch eine 6800GT gekauft. Ich persönlich empfinde des Unterschied als stark im direkten Vergleich
Teilweise ist sie erheblich langsamer, zugegeben, aber normalerweise sind beide Kandidaten gleich schnell.

Was kann ich denn nicht auf 1600x1200/4xAA/16xAF gut zocken? Das einzige Spiel das ich habe und mir dort Probleme bereitet, ist UT2004.

Mhm, ist wohl auch Geschmackssache. Ich bin ja von einer 9700Pro gewechselt und kann bei 4xAA keine großen unterschiede erkennen.

HOT
2004-11-09, 18:14:19
Nun, die Performance in FarCry mit HDR findest Du befriedigend? Sry, aber ich werde deswegen sicherlich nicht in 1024*768er (no AA, no AF) Klötzengrafik spielen. ;(

HDR ist ne tolle Sache. Was der NV40 da wirklich kann, muss er noch beweisen.

Ja nun. Ich persönlich sehe die beiden Features HDR und Normalmaps als eine Revolution in der 3D Welt, da diese beiden Features das Erscheinungsbild der Spiele derart nachhaltig verändern, wie schon seit etlichen Jahren nicht mehr. HDR ist nunmal sehr fordernd, das kann man denke ich nicht anders beschreiben. Warten wir mal auf FC1.4, vielleicht gibt es dann einen HDR Modus, der besser NV40 optimiert ist und einen ATI Support bietet.
Der HDR Modus von FC 1.3 ist auf nem 6600GT schneller als auf ner 6800U, da sieht man doch schon wie unausgegoren der Mode noch ist.
Aber als Demo, was in Zukunft möglich ist, taugt der Mode allemal, dafür isser ja auch gedacht.
Dass MSAA bei HDR net funzt ist nunmal ne Einschränkung, die die heutigen Karten nunmal hinnehmen müssen, da wirste auf NV50/R520 oder auf noch später warten müssen, bis das Problem behoben ist.
Aber solange ich zwischen HDR und MSAA wählen kann, würde ich jederzeit HDR wählen.

Mr. Lolman
2004-11-09, 18:14:32
Was kann ich denn nicht auf 1600x1200/4xAA/16xAF gut zocken? Das einzige Spiel das ich habe und mir dort Probleme bereitet, ist UT2004.


UT2004 zock ich auf meiner betagten 9700pro mit 1280x1024 4xAA/biAF :D

Labberlippe
2004-11-09, 18:19:11
Lies mal ein paar Seiten vorher in diesem Thread... :frown:

Und ganz objektiv betrachtet: würde sich ein Hersteller so sehr Mühe geben zu "optimieren", wenn es nur 5 % ausmachen würde?

Daß das CCC bei "Deaktivierung der Optimierungen" nur diesen zu messenden Unterschied ergibt heißt nicht, daß auch wirklich alles an Optimierungen ausgeschaltet wird, also die letztendliche Auswirkung beziffert wird.

Es gibt weder von ATI noch von nVIDIA Wunderhardware, die ohne Tricksereien in den Treibern AF "for free" ermöglicht.


Hi

Laut Aktuellen Interview in der PCGH wird bei A.I. Aus alle Optmierungen deaktiviert.
Ausser Speicheroptimierungen und Cache einstellungen.
Allerdings bleibt die Winkelabhängikeit bei AF da dieses in HW ist.

Gruss Labberlippe

betasilie
2004-11-09, 18:19:37
Teilweise ist sie erheblich langsamer, zugegeben, aber normalerweise sind beide Kandidaten gleich schnell.
Leider.

Was kann ich denn nicht auf 1600x1200/4xAA/16xAF gut zocken? Das einzige Spiel das ich habe und mir dort Probleme bereitet, ist UT2004.
Joint Operations, UT2004, X2, FlatOut, Battlefield Vietnam, MoH: PA (Da kannste froh sein in 1152*864 ohne alles zocken zu können), Men of Velor, ...

Mhm, ist wohl auch Geschmackssache. Ich bin ja von einer 9700Pro gewechselt und kann bei 4xAA keine großen unterschiede erkennen.
Ja, das mag gut sein. Ich bin da möglicherweise auch etwas sehr sensiblisiert. ;)

Mr. Lolman
2004-11-09, 18:27:12
...FlatOut,...

Naja Flatout rennt selbst auf meiner GraKa in 1600x1200 und 4xAA/AF noch ganz gut.

/edit: Hab mir jetzt auch die 500Mb Mohaa Demo gesaugt, nur um dann festzustellen, dass die Mission aus den Screenshots garnicht dabei ist. :eek:
Mir scheint auch, als würde Mohaa einem irgendeinen AF Modus aufzwingen. Alle Einstellungen übers CP sind nutzlos...

betasilie
2004-11-09, 18:28:36
Naja Flatout rennt selbst auf meiner GraKa in 1600x1200 und 4xAA/AF noch ganz gut.
Ja, aber die die min fps sind dann teilweise unter 30fps, was sicherlich nicht gut spielbar ist. Oder irre ich?

Mr. Lolman
2004-11-09, 18:31:27
Ja, aber die die min fps sind dann teilweise unter 30fps, was sicherlich nicht gut spielbar ist. Oder irre ich?

Nö du irrst nicht. :) Die erste Kurve der Waldstrecke ist in der ersten Runde tatsächlich etwas zäh. Aber sonst rennts eigentlich wunderbar.

MechWOLLIer
2004-11-09, 18:31:27
UT2004 zock ich auf meiner betagten 9700pro mit 1280x1024 4xAA/biAF :D
Mit biAF rennt meine Karte auch problemlos mit 1600x1200/4xAA/16xAF, ich bin jetzt von FullTri ausgegangen:)

Mr. Lolman
2004-11-09, 18:36:22
Mit biAF rennt meine Karte auch problemlos mit 1600x1200/4xAA/16xAF, ich bin jetzt von FullTri ausgegangen:)

Aber meine Karte kann ja garkeine AF Optimierungen. Und das die tw. massig fps bringen, haben wir in dem Thread erneut wiedermal herausgefunden. Tatsächlich begnüge ich mich bei Spielen oft auch mit 4xbiAF wenn dafür 4xAA in 1280x1024 möglich ist. Oder wenns ordentlich fps bringt. Bei Flatout hab ich bei 1600x1200 4xAA/biAF 40fps in der 2. Startreihe. Mit 16xFulltri sinds noch 23fps. Und da rechtfertigt der optische Zugewinn m.E. keineswegs
den enormen Performanceeinbruch.

Logischerweise ist das nur für mein 2 Jahre altes R300 Kärtchen gültig. Mit doppelt sovielen Pipes und Speicher würd ich auch AF aufdrehen was das Zeug hält (auf 4xAA verzichten fällt mir da schon zunehmend schwerer)

tombman
2004-11-09, 19:52:22
http://www.digit-life.com/articles2/digest3d/1004/itogi-video-cod-wxp-aaa-1024.html
hmmmmmmmm?!
:)
http://www.digit-life.com/articles2/digest3d/1004/itogi-video-d3-wxp-aaa-1024.html

tja, nix is mit mieser PCIe-Performance. :)

lol, als ob irgendjemanden 1024 interessieren würde.-- naja, 6800 user sind dazu vielleicht gezwungen :D
Btw, die Werte sind SCHROTT bei Doom3: eine 6800 LE mit 128mb ist so schnell wie eine X800XTPE --> mauhahaah, DAS wäre mir aber aufgefallen :D

Ich teste die Karten in der Königsauflösung von 1600 UND 4xAA/16xAF (außer wo AA ned geht)....

Außerdem gehts hier um games die NICHT "most benched" sind und wo Nvidia NICHT bis zur Hölle optimiert weil die Aufmerksamkeit eben ned so groß ist.

ich kenne jetzt schon mindestens 3 Leute, die BEIDE Karten hatten und die ATI behalten haben; gibt uns das zu denken? Nööööö :rolleyes:

@ Gäste und co die anzeifeln, daß ich ja gar ned beide Karten habe und Filtertricks nutze um zu meinen "gefakten" Erkenntnissen zu kommen --> no comment.

Gast
2004-11-09, 20:06:54
lol, als ob irgendjemanden 1024 interessieren würde.-- naja, 6800 user sind dazu vielleicht gezwungen :D
Btw, die Werte sind SCHROTT bei Doom3: eine 6800 LE mit 128mb ist so schnell wie eine X800XTPE --> mauhahaah, DAS wäre mir aber aufgefallen :D

Ich teste die Karten in der Königsauflösung von 1600 UND 4xAA/16xAF (außer wo AA ned geht)....

Außerdem gehts hier um games die NICHT "most benched" sind und wo Nvidia NICHT bis zur Hölle optimiert weil die Aufmerksamkeit eben ned so groß ist.

ich kenne jetzt schon mindestens 3 Leute, die BEIDE Karten hatten und die ATI behalten haben; gibt uns das zu denken? Nööööö :rolleyes:

@ Gäste und co die anzeifeln, daß ich ja gar ned beide Karten habe und Filtertricks nutze um zu meinen "gefakten" Erkenntnissen zu kommen --> no comment.

Wozu machst du eigentlich denn einen neuen Thread auf , wenn du die Ergebnisse nicht nachweisen bzw. beweisen kannst. Machst dich dadurch nur unglaubhafter denn je. Denk mal darüber nach Sportsfreund.

tombman
2004-11-09, 20:15:34
du hast da was nicht verstanden. Ich KANN alles beweisen, aber ich habs nicht nötig.
Warum? Weil ich tombman bin und mein Wort ist Gesetz. In solchen Sachen lüg´ ich nicht, und die die mich kennen wissen des auch.
Ich werd nicht für popelige 3 screenshots meinen AGP Stecker noch mehr abwetzen nur um irgendwelchen Gästen, die mir völlig egal sind, irgendwas zu beweisen.
Hab ich früher gemacht, und Entschuldigungen kommen ja dann doch ned von den Gästen-> also wozu Energie verschwenden für Beweise? Eben, Sports"freund".

p.s.: andere user haben ja auch ähnliche Erfahrungen gemacht, also ...

Gast
2004-11-09, 20:24:19
das is ja das prob
weil du Tombman bist is dein Wort Null (0) nix wert
und von daher wird nach beweisen gefragt
und da du bist jetz NIE aber auch NICHT einmal ein beweis erbracht hast
sei es bei Doom3 oder 3Dmark0X oder hier sind deine "test" fürn arsch

dein fazit lautet ja : DIe 6800 Ultra is nah dran,aber ich wert immer für ATI benchen.

Dunkeltier
2004-11-09, 20:28:14
Wozu machst du eigentlich denn einen neuen Thread auf , wenn du die Ergebnisse nicht nachweisen bzw. beweisen kannst. Machst dich dadurch nur unglaubhafter denn je. Denk mal darüber nach Sportsfreund.


Ich hatte auch 2x Geforce 6800 GT @ Ultra, und muß sagen das die in normalen Spielen klar hinter eine Radeon X800 XT (PE) hinterherlaufen. Rein von der Performance, versteht sich. Kanns sogar belegen durch die Kaufbelege. Benchmarks kann ich leider keine mehr mit den Geforce-Karten machen, da ich diese aufgrund verschiedener Ursachen beide hab zurückgehen lassen und somit keine Geforce-Karte mehr besitze.

Jesus
2004-11-09, 20:28:29
http://www.digit-life.com/articles2/digest3d/1004/itogi-video-cod-wxp-aaa-1024.html
hmmmmmmmm?!
:)
http://www.digit-life.com/articles2/digest3d/1004/itogi-video-d3-wxp-aaa-1024.html

tja, nix is mit mieser PCIe-Performance. :)

ahjo:

http://www.xbitlabs.com/articles/video/display/asus-ax800xt-tvd_4.html

kommt immer drauf an was man wie testet ;)

Gast
2004-11-09, 20:30:15
du hast da was nicht verstanden. Ich KANN alles beweisen, aber ich habs nicht nötig.
Warum? Weil ich tombman bin und mein Wort ist Gesetz....

Musst du nicht selber darüber lachen? Sind wir hier im Kindergarten?
Es geht doch vielmehr darum das du was behauptest aber nicht belegen willst oder kannst? Es liegt an dir, deine Behauptungen mit Belegen (Screenshots mit ausführlicher Beschreibung der verwendeten Settings...) zu untermauern.


In solchen Sachen lüg´ ich nicht, und die die mich kennen wissen des auch


Hab ich sowas behauptet? Nein. Aber seltsamerweise bist du der jenige wenn ins Detail geht nicht mehr drauf eingeht. Und genau das ist der Punkt. Kann ja sogar sein daß du Recht mit deiner Behauptung hast, aber bitte liefer auch Belege.

Ich werd nicht für popelige 3 screenshots meinen AGP Stecker noch mehr abwetzen nur um irgendwelchen Gästen, die mir völlig egal sind, irgendwas zu beweisen.....

Mir ists völlig egal aber du behauptest etwas oder? Wer ist denn in der Pflicht du oder ich? ;)


Hab ich früher gemacht, und Entschuldigungen kommen ja dann doch ned von den Gästen-> also wozu Energie verschwenden für Beweise? Eben, Sports"freund"

Was heisst Entschuldigen? Hab ich dich persönlich angegriffen? Nein, ich will nur Ergebnisse sehn und viele andere User sicherlich auch und nicht haltlose Behauptungen. Und das sind sie ,bevor du nicht Belege liefern kannst.
Nicht das wir uns falsch verstehen ich habe nichts gegen dich, aber gegen deine Art ein Thema anzufangen und dann nicht zu Ende zu bringen. OK?

MikBach
2004-11-09, 20:31:36
das is ja das prob
Das Problem ist hier, daß du unnötig provozierst.

weil du Tombman bist is dein Wort Null (0) nix wert
und von daher wird nach beweisen gefragt
und da du bist jetz NIE aber auch NICHT einmal ein beweis erbracht hast
sei es bei Doom3 oder 3Dmark0X oder hier sind deine "test" fürn arsch
LOL.
Tombman ist bestimmt glaubwürdiger als irgendein durchgedrehter "Gast" ;)
Und Bewiese hat er schon genug (auch in anderen Threads) gebracht. Du mußt nur die Suchfunktion benutzen.
Aber die scheint bei Gästen nicht so sehr in Mode zu sein, oder?

dein fazit lautet ja : DIe 6800 Ultra is nah dran,aber ich wert immer für ATI benchen.
Falsch. Die 6800Ultra ist meistens deutlich langsamer. :D

Gast
2004-11-09, 20:34:55
wegn noob gelaber gelöscht...


ah,da unser Miklach sich mal wieder zum Affen macht

dann bring uns doch mal SEINE beweise.

Gast
2004-11-09, 20:38:19
sinnfrei..

ach und noch.ICH muss nix beweisen.
jeder andere normale user bringt hier bilder etc.
schon komisch......

Gast
2004-11-09, 20:41:40
Falsch. Die 6800Ultra ist meistens deutlich langsamer. :D


denn ich/wir gäste verstecken uns net hinter mehreren accounts oder loggen uns aus.

dafuer bist DU zu unwichtig.

und nun OT vorbei.

Quasar
2004-11-09, 20:46:17
ahjo:

http://www.xbitlabs.com/articles/video/display/asus-ax800xt-tvd_4.html

kommt immer drauf an was man wie testet ;)

Genau.

CoD, 1024x768, 4xAA, 16xAF:
245,3 (PCIe) zu 166,9 (AGP)

D3, 1024x768, 4xAA, 16xAF:
47,0 (PCIe) zu 51,2 oder 37,3 (AGP) je nach Demo....

Sag mal, wie willst du daran die Qualität der PCIe-Treiber von ATi bewerten???

MikBach
2004-11-09, 20:49:30
dann bring uns doch mal SEINE beweise.
Einfach genau Thread lesen, verstehen und dann noch die Suchfunktion benutzen. :D

ICH muss nix beweisen.
Wenn du nichts beweisen mußt, dann brauchst du auch nicht an dieser Diskussion teilzunehmen.

hier stand mal was ung00ts
Wäre nicht schlecht bei Quake3. ;D
Dann wäre ich Halbgott. :D



[Edit]
Don't feed the troll MikBach. Also bitte ignorieren

Jesus
2004-11-09, 20:59:34
Genau.

CoD, 1024x768, 4xAA, 16xAF:
245,3 (PCIe) zu 166,9 (AGP)

D3, 1024x768, 4xAA, 16xAF:
47,0 (PCIe) zu 51,2 oder 37,3 (AGP) je nach Demo....

Sag mal, wie willst du daran die Qualität der PCIe-Treiber von ATi bewerten???


Darum gings mir auch gar nicht ... genausowenig wie´s in diesem Thread um PCIe geht.

Quasar
2004-11-09, 21:08:47
Darum gings mir auch gar nicht ... genausowenig wie´s in diesem Thread um PCIe geht.
:up:
Prima!

Mantikor
2004-11-09, 21:54:29
Mensch Gäste benehmt euch..auch wenn Tombman vielleicht über die Strenge schlägt...

@tombmann: Wie sieht es eigentlich bei Battlefront aus? Bei den mobilen Chips scheint die ATi ja mit etwa 100% überlegen zu sein..momentan. :rolleyes:

Mfg Der Mantikor

Jesus
2004-11-09, 21:57:16
Battlefront ?

Btw. Tombman postet auch fröhlich pro NV wenns um SLI etc. geht... also nicht alles nur schwarz und weiss sehen ;)

Korak
2004-11-09, 22:17:38
Korak oder wie auch immer, das ist keine beleidigung das ist meine meinung, warum sagt ihr net gleich "in diesem Forum ist nur erlaubt wer schreibt was wir wollen"
ein armutszeugnis eben das gleiche wie Tombman.

wie der Herr so das G....

lol

aber echt. Weiter so.

Du trägst nichts zum Thema bei und störst den Forumsfrieden. Das ist keine Beleidigung sondern eine Tatsache.

Und nun Schluss damit

BvB123
2004-11-09, 22:26:18
Wie siehts denn mit dem neuen NV Treiber aus?

Soll im Moh Pa schneller sein

Gruß

Mantikor
2004-11-09, 22:26:22
Battlefront ?


Ja, Star Wars : Battlefront.
Wir können doch mal eine Liste aufstellen, jener Spiele in denen die X-Farbe der Y-Farbe um 100% überlegen ist. ;D

Mfg Der Mantikor

Supernatural
2004-11-10, 01:10:46
Wäre sehr erfreut, wenn das kindische geflame sich langsam dem Ende neigt und tatsächlich mal Beweise auf den Tisch gelegt werden. Mich als 6800GT Nutzer interessiert es nämlich wirklich, ob man diese Aussage @ Threadtitel so stehen lassen kann oder ob irgendwie selektiv getestet wurde ( in für ATI-Karten günstigen Games ) oder eine gewisse Objektivität im Spiel war.
Es interessiert mich einfach deswegen, weil ich, wenn es stimmte, natürlich wechseln würde, da ich nicht Anhänger irgendeiner Firma bin, sondern einfach nur die beste Leistung für mein Geld haben will.
Mich interessieren auch keine Aussagen wie "dafür hat die 6800er aber die bessere Technologie blabla", sondern schlicht und ergreifend was unterm Strich dabei rauskommt, was heisst : wer bringt die bessere Leistung ( ganz wichtig minimum frames ) im Grossteil der Games.
Wenn jemand diese Frage beantworten könnte ohne in dämliches Hochjubeln von Grafikchipherstellern zu verfallen, wäre ich sehr dankbar.

dean
2004-11-10, 01:41:54
Wäre sehr erfreut, wenn das kindische geflame sich langsam dem Ende neigt und tatsächlich mal Beweise auf den Tisch gelegt werden. Mich als 6800GT Nutzer interessiert es nämlich wirklich, ob man diese Aussage @ Threadtitel so stehen lassen kann oder ob irgendwie selektiv getestet wurde ( in für ATI-Karten günstigen Games ) oder eine gewisse Objektivität im Spiel war.
Es interessiert mich einfach deswegen, weil ich, wenn es stimmte, natürlich wechseln würde, da ich nicht Anhänger irgendeiner Firma bin, sondern einfach nur die beste Leistung für mein Geld haben will.
Mich interessieren auch keine Aussagen wie "dafür hat die 6800er aber die bessere Technologie blabla", sondern schlicht und ergreifend was unterm Strich dabei rauskommt, was heisst : wer bringt die bessere Leistung ( ganz wichtig minimum frames ) im Grossteil der Games.
Wenn jemand diese Frage beantworten könnte ohne in dämliches Hochjubeln von Grafikchipherstellern zu verfallen, wäre ich sehr dankbar.


Ohohoh, endlich mal wieder ein Beitrag, der es wert zu lesen war. Ich geb´ die Hoffnung für dieses Forum glaub´ ich doch nicht auf :up:

Gruss

IVN
2004-11-10, 02:03:26
Wäre sehr erfreut, wenn das kindische geflame sich langsam dem Ende neigt und tatsächlich mal Beweise auf den Tisch gelegt werden. Mich als 6800GT Nutzer interessiert es nämlich wirklich, ob man diese Aussage @ Threadtitel so stehen lassen kann oder ob irgendwie selektiv getestet wurde ( in für ATI-Karten günstigen Games ) oder eine gewisse Objektivität im Spiel war.
Es interessiert mich einfach deswegen, weil ich, wenn es stimmte, natürlich wechseln würde, da ich nicht Anhänger irgendeiner Firma bin, sondern einfach nur die beste Leistung für mein Geld haben will.
Mich interessieren auch keine Aussagen wie "dafür hat die 6800er aber die bessere Technologie blabla", sondern schlicht und ergreifend was unterm Strich dabei rauskommt, was heisst : wer bringt die bessere Leistung ( ganz wichtig minimum frames ) im Grossteil der Games.
Wenn jemand diese Frage beantworten könnte ohne in dämliches Hochjubeln von Grafikchipherstellern zu verfallen, wäre ich sehr dankbar.


Well,your card is one of the best at the moment.There is no need to buy a new one.Don't listen to those idiots,they don't know what are they tallking about.It's better to save the money that you would give for a new ATI top model now,and invest it in a r520 few months later :wink: .

mapel110
2004-11-10, 03:47:24
Wie siehts denn mit dem neuen NV Treiber aus?

Soll im Moh Pa schneller sein

Gruß

ist nicht schneller (als 66.77)

@Supernatural
Generell würd ich sagen, wer Wert auf hohen D3D-speed legt, sollte zu ATI greifen.

betasilie
2004-11-10, 03:54:13
Wäre sehr erfreut, wenn das kindische geflame sich langsam dem Ende neigt und tatsächlich mal Beweise auf den Tisch gelegt werden. Mich als 6800GT Nutzer interessiert es nämlich wirklich, ob man diese Aussage @ Threadtitel so stehen lassen kann oder ob irgendwie selektiv getestet wurde ( in für ATI-Karten günstigen Games ) oder eine gewisse Objektivität im Spiel war.
Es interessiert mich einfach deswegen, weil ich, wenn es stimmte, natürlich wechseln würde, da ich nicht Anhänger irgendeiner Firma bin, sondern einfach nur die beste Leistung für mein Geld haben will.
Mich interessieren auch keine Aussagen wie "dafür hat die 6800er aber die bessere Technologie blabla", sondern schlicht und ergreifend was unterm Strich dabei rauskommt, was heisst : wer bringt die bessere Leistung ( ganz wichtig minimum frames ) im Grossteil der Games.
Wenn jemand diese Frage beantworten könnte ohne in dämliches Hochjubeln von Grafikchipherstellern zu verfallen, wäre ich sehr dankbar.

Nun, natürlich ist nur bei einer Hand von Spielen das Verhältniss so extrem, aber halt immer bei technisch top-modernen Games, die richitg die Shader fordern.

Ich selber habe mir eine 6800GT gekauft, weil ich dachte, dass diese Karte die bessere Wahl wäre. nachdem ich dann bei zwei Freunden (x800pro und X800XT-PE) einige Games gezockt habe und wusste, dass diese Games bei mir erheblich langsamer laufen, habe ich gewechselt. Ich kenne momentan ganze 4 Leute, die ihre 6800GT wieder loswerden wollem, weil sie auch erkannt haben wie frapierend teilweise der Leistungsunterschied ist.

Und ein Fanboy bin ich sicher nicht. Ich würde mir von jeder Firma eine Karte kaufen, wenn sie das beste P/L-Verhältniss darstellt. NV ist mir vollkommen symphatisch, wenn sie die für mich beste Hardware haben.

Der NV40 ist ja auch kein schlechter Chip, aber eher für Leute, die die KArte sehr lange behalten wollen und auf die Vorteile von SM3.0 spekulieren wollen. Ich halte das allerdings für gewagt, denn wan und ob der NV40 wirklich mal erheblich von SM3.0 profitiert, steht in den Sternen. Effekte, die nur in 1024*768 ohne AA und AF in vernünftigen Frameraten darstellbar sind, interssieren mich ehrlich gesagt nicht.

Nur wirst Du ein Problem haben; kaum einer will von ATI nach NV tauschen. Da wirst Du wohl drauflegen müssen. ;(

betasilie
2004-11-10, 04:00:24
Well,your card is one of the best at the moment.There is no need to buy a new one.Don't listen to those idiots,they don't know what are they tallking about.It's better to save the money that you would give for a new ATI top model now,and invest it in a r520 few months later :wink: .
Ack. To sell a NV40 based card at this moment, is not the best idea. The disprofit could be to high.

IMO its better to wait for the NV48 oder R520 an hope for a moderate introductory-offer.

Quasar
2004-11-10, 07:55:20
[...]aber halt immer bei technisch top-modernen Games, die richitg die Shader fordern.
[...]
Damit meinst du aber nicht unbedingt Flatout oder X²?

tombman
2004-11-10, 08:07:48
@battlefront

Da war die ATI auch schneller, aber nix dramatisches, dh im üblichen Rahmen von einer paar fps. (jedoch kam 1600x1200 4/16 aufgrund dieser paar fps bei der ATI in den spielbareren Rahmen-- aber wie gesagt; nix dramatisches)

Den thread hab ich ja nur aufgemacht, weil mich der Unterschied in flatout, vorallem aber in MOHPA ärger geflashed hat...

Quasar
2004-11-10, 08:12:46
Ist dir dasselbe passiert, wie mapel110?

seahawk
2004-11-10, 08:52:41
Wäre sehr erfreut, wenn das kindische geflame sich langsam dem Ende neigt und tatsächlich mal Beweise auf den Tisch gelegt werden. Mich als 6800GT Nutzer interessiert es nämlich wirklich, ob man diese Aussage @ Threadtitel so stehen lassen kann oder ob irgendwie selektiv getestet wurde ( in für ATI-Karten günstigen Games ) oder eine gewisse Objektivität im Spiel war.
Es interessiert mich einfach deswegen, weil ich, wenn es stimmte, natürlich wechseln würde, da ich nicht Anhänger irgendeiner Firma bin, sondern einfach nur die beste Leistung für mein Geld haben will.
Mich interessieren auch keine Aussagen wie "dafür hat die 6800er aber die bessere Technologie blabla", sondern schlicht und ergreifend was unterm Strich dabei rauskommt, was heisst : wer bringt die bessere Leistung ( ganz wichtig minimum frames ) im Grossteil der Games.
Wenn jemand diese Frage beantworten könnte ohne in dämliches Hochjubeln von Grafikchipherstellern zu verfallen, wäre ich sehr dankbar.


Das hängt davon ab auf welche ATI Du wechseln möchtest. Der Wechsel von 6800GT zu X800PRo ist relativ sinnlos. Ein Wechsel zu einer X800XT hingegen ist in vielen Fällen spürbar, weil man oft eine 1-2 Stufen höhere Auflösung laufen lasen kann bzw. bei AA+AF höher gehen kann.
Ich würde allerdings die 6800GT bis zum Erscheinen des R520 von ATI noch ertragen und dann erst wechseln. Ne gebrauchte 6800GT wird nur mit Verlust zu verkaufen sein.

Cyv
2004-11-10, 09:26:31
Omg, ich blick nimmer durch :biggrin:
Dann is die x800Pro Vivo im Endeffekt besser bzw= lohnt mehr als ne 6800gt?

Ich hatte seit der GF4Ti4600 das gefühl dass Nvidia karten schnell veralten, also nicht zukunftssicher... Man sieht, dass die 9700Pro lange vor FarCry rauskam und es performt verdammt geil darauf ;D

Holundermann
2004-11-10, 09:34:31
ihr habt ja einen an der waffel. fast jeder benchmark bescheinigt einer gt die gleiche leistung wie einer pro, das die xtpe in den meisten benches vorne liegt sollte jedem der bis 100 zählen kann klar sein... ganz abgesehen davon das dieses preissegment vielleicht 5% der kunden interessiert, die meisten kaufen im bereich von 150-200€, und nicht im 500€ bereich.

meiner meinung nach bietet nv bis 300€ das beste p/l verhältnis, bis 400€ herscht gleichstand und danach liegt ati in führung.

ich leg jedenfalls auf keinen user benchmark mehr wert, dazu sind die testsysteme und die fähigkeiten des benutzers der davor hockt zu verschieden und unobjektiv.

SentinelBorg
2004-11-10, 09:37:09
Ist es wieder so weit? Streiten sich die Herrschaften wieder über die Balkenlänge bei irgendwelchen Vorab-Demoversionen? Es gibt nur eine Geschwindigkeit, und die heißt "schnell genug".
Absolut korrekt ! Ich weiss nicht, warum hier manche so verwundert tun ? Dass die X800 in so altbackenen Spielen wie FlatOut, dank dem höheren Takt und der damit höheren Füllrate, ein gutes Stück schneller als die GF6800 ist, war doch bekannt.
Aber ist das wirklich relevant ? Ich finde 40 Fps bei 1600 x 1200 mit 4x AA und hohem AF mehr als ausreichend in einem solchen Spiel, zumal der Start, wo noch alle Autos auf dem Bild sind, oftmals die langsamste Szene im ganzen Rennen ist.
Viel wichtiger ist doch, wie die Karten bei wirklich modernen Games mit Unmengen an SM2(+) Shadern performen. So ein alter Schinken, auch wenn er grad frisch rausgekommen ist, geht mir da gelinde gesagt am Arsch vorbei, solange die Performance noch mit höhsten Details und Auflösungen gut ist.

Sentinel

Dr Hake
2004-11-10, 09:44:35
Omg, ich blick nimmer durch :biggrin:
Dann is die x800Pro Vivo im Endeffekt besser bzw= lohnt mehr als ne 6800gt?

Ich hatte seit der GF4Ti4600 das gefühl dass Nvidia karten schnell veralten, also nicht zukunftssicher... Man sieht, dass die 9700Pro lange vor FarCry rauskam und es performt verdammt geil darauf ;D

Hierzu ein klares jein. Die x800Pro ViVo oob ist etwa 8% langsamer als eine 6.800Gt bei gleicher Fuellrate. Bei dentischer Bandbreite (500Mhz Ramtakt) sind beide in etwa gleich schnell (im Mix der bekannten Benchmarks, cf Test der Toxic, interpoliert auf 500Mhz)
Vorteile der X800Pro ViVo sind:
-modbar auf XT
-6x MSAA , Gammakorigiert
-bessere Ergonomie (kleineres PCB, leider gibt es fast keine leisen 6.800er)
-nutzbare Videofeatures (falls du es brauchst)
-Shader sind Allesfresser, deshalb weniger Treiber/Compiler Optimierungen notwendig

Vorteile der GT
- SM3.0
- in der Theorie bessere Filter (bis auf das Flimmern in verschiedenen Games)
- AA Hybride

tombman
2004-11-10, 10:03:48
naja, ich denke er meinte natürlich eine gemoddete pro vivo.... ne vivo kaufen ohne modden is ja ärger sinnlos..

Quasar
2004-11-10, 10:17:54
Ist dir dasselbe passiert, wie mapel110?

Nochmal die Frage: Hat bei dir auch "irgendwas" vSync erzwungen, obwohl per Treiber abgeschaltet?

Gast
2004-11-10, 10:27:05
also eine reine Pro (ohne übertakten etc) würde ich auch sicher nicht kaufen, dann schon eher eine GT.

(aber vivo etc. ist schon was anderes... )

Mr. Lolman
2004-11-10, 10:31:14
Saugt euch mal die aktuelle Painkiller Demo 3 (http://www.gamershell.com/download_7247.shtml) (180MB)

und testet diese Szene (1280x1024 2xAA/4xAF reicht, würd ich sagen). Mal sehen ob die HDR Effekte auch mit AA durch SM3.0 eine nette Beschleunigung erfahren:

http://img119.exs.cx/img119/1598/Painkiller-2004-11-10-00-34.jpg

Tjell
2004-11-10, 10:39:13
Nochmal die Frage: Hat bei dir auch "irgendwas" vSync erzwungen, obwohl per Treiber abgeschaltet?
Hm, ist mir gerade erst nachträglich eingefallen:

Als ich in der Forceware alles auf anwendungsgesteuert gestellt hab, lag die Framerate bei der 1600er Auflösung (Einstellungen wie bei Tombman) bei 60 Hz laut Fraps zwischen ca. 19 bis 33.

Im zweiten Durchgang stellte ich alles übers CP ein, die FPS schwankten laut Fraps zwischen ca. 26 bis 44, dies jedoch bei 85 Hz.

Ich kenne Fraps nicht so genau und weiß auch nicht, ob es Meßungenauigkeiten bei den FPS aufweist, aber irgendwie läge es bei beiden Durchgängen im Bereich der FPS-Abstufungen mit "Vsync an", was aber definitiv im Treiber nicht an war. Vielleicht Zufall...?


//NACHTRAG
Fragt bitte nicht nach den genauen Einstellungen in der Forceware, das weiß ich nicht mehr. Auch habe ich gestern Abend noch sowohl Fraps als auch die Flatout-Demo wieder runtergeschmissen. :frown:

Supernatural
2004-11-10, 10:45:56
So wie ich das sehe ( mittlerweile ) wird ATI, bis die vielbeschworenen neuen games rauskommen, selber eine Grafikkarte bieten, die all jene technische Spielereien bieten wird wie die NV-Karten im Moment. Was ich sehe ist , dass ausser in Doom3 die 6800er KArten keine wirklich überlegene Leistung bieten und gerade im minimum Framebereich zu schwach sind ( und ich spreche aus Erfahrung, da ich Besitzer einer 6800GT bin ).
Ich bin wie gesagt völlig leidenschaftslos und keine habe kein Poster igendeines Grafikkartenherstellers bir mir zu Hause an der Wand hängen, jedoch glaube ich, dass mir lieber eine x800xt hätte kaufen sollen.
Aber ich muss euch Recht geben : werde wohl warten bis der r520 erhältlich ist und dann wieder auf ATI wechseln ( hatte meine 9700 Pro 2 Jahre lang und war nie unzufrieden ).

Labberlippe
2004-11-10, 10:50:49
Wäre sehr erfreut, wenn das kindische geflame sich langsam dem Ende neigt und tatsächlich mal Beweise auf den Tisch gelegt werden. Mich als 6800GT Nutzer interessiert es nämlich wirklich, ob man diese Aussage @ Threadtitel so stehen lassen kann oder ob irgendwie selektiv getestet wurde ( in für ATI-Karten günstigen Games ) oder eine gewisse Objektivität im Spiel war.
Es interessiert mich einfach deswegen, weil ich, wenn es stimmte, natürlich wechseln würde, da ich nicht Anhänger irgendeiner Firma bin, sondern einfach nur die beste Leistung für mein Geld haben will.
Mich interessieren auch keine Aussagen wie "dafür hat die 6800er aber die bessere Technologie blabla", sondern schlicht und ergreifend was unterm Strich dabei rauskommt, was heisst : wer bringt die bessere Leistung ( ganz wichtig minimum frames ) im Grossteil der Games.
Wenn jemand diese Frage beantworten könnte ohne in dämliches Hochjubeln von Grafikchipherstellern zu verfallen, wäre ich sehr dankbar.


Hi

Ich persönlich finde das man an den minimum Frames nichts alles gleich annageln sollte.
Es kann schon mal passieren das im Hindergrund eine Software das Sys für eine Sekunde zum stocken bringt.
Average ist immer besser.

Gruss Labberlippe

xL|Sonic
2004-11-10, 10:56:08
Nur zeigt dir nur die minimum framerate die Spielarkeit an. Was bringts dir, wenn du ne average framerate hast, die aussagt das nen spiel spielbar sein soll in wirklichkeit aber an entscheindenden Stellen so niedrige fps hast, dass es unspielbar wird oder nur unter sehr schweren bedingungen?
Eigentlich gar nix.

Quasar
2004-11-10, 10:59:12
Saugt euch mal die aktuelle Painkiller Demo 3 (http://www.gamershell.com/download_7247.shtml) (180MB)

und testet diese Szene (1280x1024 2xAA/4xAF reicht, würd ich sagen). Mal sehen ob die HDR Effekte auch mit AA durch SM3.0 eine nette Beschleunigung erfahren:

http://img119.exs.cx/img119/1598/Painkiller-2004-11-10-00-34.jpg
HDR? Oder meinst du Bloom und Glow?

Labberlippe
2004-11-10, 11:01:05
Nur zeigt dir nur die minimum framerate die Spielarkeit an. Was bringts dir, wenn du ne average framerate hast, die aussagt das nen spiel spielbar sein soll in wirklichkeit aber an entscheindenden Stellen so niedrige fps hast, dass es unspielbar wird oder nur unter sehr schweren bedingungen?
Eigentlich gar nix.

Hi

Wenn Szenen öfters erscheinen wo die Framerrate in den Keller gehen, dann macht sich das auch bei den Average bemerkbar.

Wenn man natürlich nur solche Szenen auswählt wo die Karte nicht gefordert wird, dann kann einen die minimum Framerate auch nicht wirklich helfen.

Bei gewissen Timedemos kommt es halt immer darauf an wie ehrlich der Tester selbst ist.

Gruss Labberlippe

Mr. Lolman
2004-11-10, 11:03:40
HDR? Oder meinst du Bloom und Glow?

Ja Bloom und Glow.

Quasar
2004-11-10, 11:06:39
Ich hatte an der Stelle eben ~58fps schwankten aber deutlich, auch mit Abstechern in die 40er runter.

Mr. Lolman
2004-11-10, 11:13:32
Ich hatte an der Stelle eben ~58fps schwankten aber deutlich, auch mit Abstechern in die 40er runter.

GraKa?

BTW: Meine fps sind an der Stelle konstant zw. 43 u. 45... (aber mit bi-AF ;), tri-AF sind ca. ~10%* weniger)

/edit: Du hast eine PK Demo 1.4? Ich kenn nur 1.35...
/edit2: *Muss nochmal genauer testen...

Quasar
2004-11-10, 11:16:48
6800nu 16-6 350/400, FW66.93
AA/AF über Treiber.

Die Version der Demo habe ich im Menü-Schirm oben rechts abgelesen. Da steht 1.4 (scheint ein neuerer Engine Build zu sein, als der letzte Patch für die Full, IIRC).

edit:
Vielleicht sollte ich hinzufügen, daß diese Stelle bei mir auch in 640x480 nicht schneller wird....

xL|Sonic
2004-11-10, 11:19:23
Hi

Wenn Szenen öfters erscheinen wo die Framerrate in den Keller gehen, dann macht sich das auch bei den Average bemerkbar.

Wenn man natürlich nur solche Szenen auswählt wo die Karte nicht gefordert wird, dann kann einen die minimum Framerate auch nicht wirklich helfen.

Bei gewissen Timedemos kommt es halt immer darauf an wie ehrlich der Tester selbst ist.

Gruss Labberlippe

Nicht wenn es auch mal Stellen gibt die Ploygon/Texturarm sind und die FPS dann mal auf über 100 schnellen ;)
Das merke ich bei mir bei BFV z.B.
Was bringts mir wenn ich ne average framerate von sagen wir 60fps haben, es aber zum gefecht kommt da fps drops auf 20 habe und diese dann unspielbar sind? Nix...die average fps bleiben aber weit oben, weil bei BFV oft recht viel leerlauf ist.

Labberlippe
2004-11-10, 11:28:29
Nicht wenn es auch mal Stellen gibt die Ploygon/Texturarm sind und die FPS dann mal auf über 100 schnellen ;)
Das merke ich bei mir bei BFV z.B.
Was bringts mir wenn ich ne average framerate von sagen wir 60fps haben, es aber zum gefecht kommt da fps drops auf 20 habe und diese dann unspielbar sind? Nix...die average fps bleiben aber weit oben, weil bei BFV oft recht viel leerlauf ist.


Hi

Deswegen sollte man auch darauf achten, was man für Demos zum Testen nimmt.
Wenn ich nur ein kurzes Gefecht nehme und dann 5 min im Leerlauf nehme ist es keine Frage das die Werte nach oben schnallen.
Dann kann ich genauso gut mich vor eine Wand stellen und jubeln das ich über 300fps habe.

Gruss Labberlippe

tombman
2004-11-10, 16:52:29
an der Stelle hab ich mit lolmans Einstellungen über 100fps mit der X800XTPE :D

betasilie
2004-11-10, 17:02:30
@ quasar und tombman
Könnt ihr bitte Screenshots machen?

tombman
2004-11-10, 17:06:11
@ quasar und tombman
Könnt ihr bitte Screenshots machen?

da du kein Gast bist erfülle ich deine Bitte :D:D:D

http://img79.exs.cx/img79/9225/PK.jpg

OK, sie lief auf 600/580, aber des kann man ja dann runterrechnen.

LovesuckZ
2004-11-10, 17:16:19
Die Filterung sieht beschissen aus,
koenntest du mal mit "full" Trilinear testen?
Bitte :)

Quasar
2004-11-10, 17:16:42
@ quasar und tombman
Könnt ihr bitte Screenshots machen?
Wie schon gesagt, relativ witzlos bei mir, da in 640x480 kein einiges Frame pro Sekunde mehr.

Oder willst du zeigen, daß ein P3 langsamer ist, als ein Kompressorgekühlter Athlon FX?

Quasar
2004-11-10, 17:18:02
Die Filterung sieht beschissen aus,
koenntest du mal mit "full" Trilinear testen?
Bitte :)
Das wird nicht helfen.
Wie ich mir mittlerweile einbilde, liegt die besch***ene Filterung an Painkiller.
Auch meine M11 macht, mit deaktiviertem AI nur mehr häßliches Geflimmere.

tombman
2004-11-10, 17:20:51
Die Filterung sieht beschissen aus,
koenntest du mal mit "full" Trilinear testen?
Bitte :)

Zuerst zeigts mir mal die Stellen wo irgendwas "beschissen" aussehen soll ;)

Btw, hab ich ganz vergessen, bei mir war 16xAF drinnen :D
Also wären die fps noch höher :D

Hier mal ein geiles pic @ 1920x1200, 4/16, maximum Detail in game ;)

http://img79.exs.cx/img79/46/pk2.jpg

Gast
2004-11-10, 17:21:39
Unscharf ists. Ati halt

betasilie
2004-11-10, 17:21:59
Wie schon gesagt, relativ witzlos bei mir, da in 640x480 kein einiges Frame pro Sekunde mehr.

Oder willst du zeigen, daß ein P3 langsamer ist, als ein Kompressorgekühlter Athlon FX?
Ich mache ja auch noch Screenshots. ;)

tombman
2004-11-10, 17:22:55
Wie schon gesagt, relativ witzlos bei mir, da in 640x480 kein einiges Frame pro Sekunde mehr.

Oder willst du zeigen, daß ein P3 langsamer ist, als ein Kompressorgekühlter Athlon FX?

du bist ned am neuesten Stand... derzeit rennt ein 3.4 ghz p4 ee @ default bei mir :D

Außerdem hab ich die Gegner vorher schon gekillt (zur Hilfe: console . pkgod showfps 1).

Versuch mal die Gegner zu killen an der Stelle und dann stell dich nochmal hin, vielleicht hilfts ja was.

Gast
2004-11-10, 17:29:46
das sieht ja besser aus als FC

tombman
2004-11-10, 17:40:49
Unscharf ists. Ati halt

Nö, scharf ists, Ati halt.

Pauschalaussagen ownen, gell? :D

tombman
2004-11-10, 17:44:17
btw, wieso gibts Version 1.4 ned als patch für die full?

reunion
2004-11-10, 17:44:59
Die Filterung sieht beschissen aus,
koenntest du mal mit "full" Trilinear testen?
Bitte :)

ACK, ein Shot in fultri wäre intressant, der obrige Shot ist fulbi oder(zumindest siehts so aus)?

//Edit: Sieht bei mir auch nicht besser aus offensichtlich liegt das am Game.

Dunkeltier
2004-11-10, 18:04:26
Unscharf ists. Ati halt


Besser aber als das Geflimmer von nVidia. Zudem siehts in echt meist schärfer aus. ;) Gurke selber gerade mit einer Radeon 9600 Pro ohne Optimierungen mit 16xtri-aF rum, und finde es doch sehr angenehm.

Imprrr
2004-11-10, 18:04:38
da du kein Gast bist erfülle ich deine Bitte :D:D:D

Ich werde meine geistigen Ergüsse in Zukunft mit niveauvollerer Wortwahl äußern, Amen.

Dunkeltier
2004-11-10, 18:06:05
Crushi löschte den Quote

Kannst du nicht auch mal sachlich argumentieren?

Nedo
2004-11-10, 18:06:50
Seid ihr Gäste eigtl. noch ganz sauber???
Euch ht man doch nicht genügend gestreichelt... (sry, aber das musste raus)

Hat jemand von der Stelle noch n Screeni mit ner 6800 ultra? würd mich interessieren, wie die an tombmans 108 fps rankommt :D

Quasar
2004-11-10, 18:09:39
Versuch mal die Gegner zu killen an der Stelle und dann stell dich nochmal hin, vielleicht hilfts ja was.
Meine Gegner sind schon längst tot - auch ohne Konsole ;)

Gast
2004-11-10, 18:28:34
Nö, scharf ists, Ati halt.

Pauschalaussagen ownen, gell? :D

Du bist ja geübt darin, gell? ;)

Trauriger Gast
2004-11-10, 18:51:26
Ich werde meine geistigen Ergüsse in Zukunft mit niveauvollerer Wortwahl äußern, Amen.

du beweist ja das du nicht viel davon hast?
es ist also gang und gebe so eine art?
weisst du auch worum es geht hier? (ich glaube nicht)
da wundert ihr euch das die leute nicht mal kleinlaut werden?
aber gut..weiter gehts.

imprrr

Gast
2004-11-10, 18:51:40
Zuerst zeigts mir mal die Stellen wo irgendwas "beschissen" aussehen soll ;)

[/IMG]


Bist du blind? Das sieht doch jeder Einäugige, daß die mipmaps nicht smooth ineinander übergehen.

Gast
2004-11-10, 18:53:48
Kannst du nicht auch mal sachlich argumentieren?

Du meinst, so wie du?

Besser aber als das Geflimmer von nVidia.

:lol:

betasilie
2004-11-10, 18:54:14
Hat jemand von der Stelle noch n Screeni mit ner 6800 ultra? würd mich interessieren, wie die an tombmans 108 fps rankommt :D
Mich auch. ;)

Quasar
2004-11-10, 18:55:33
Bist du blind? Das sieht doch jeder Einäugige, daß die mipmaps nicht smooth ineinander übergehen.

Ja, und wie schon mehrfach gesagt, baut Painkiller da anscheinend irgendeinen Bockmist - selbst mit deaktiviertem A.I. oder mit HQ im Treiber sieht's auf meiner M11 oder 6800 nicht wirklich 'sauber' gefiltert aus. ;(

edit:
Mit Verzicht auf 3D-Sound usw. kann ich an der Stelle mittlerweile 61fps bieten. ;)

betasilie
2004-11-10, 18:56:30
Ja, und wie schon mehrfach gesagt, baut Painkiller da anscheinend irgendeinen Bockmist - selbst mit deaktiviertem A.I. oder mit HQ im Treiber sieht's auf meiner M11 oder 6800 nicht wirklich 'sauber' gefiltert aus. ;(
Genau das wollte ich dich gerade fragen. :up:

tombman
2004-11-10, 18:59:34
Du bist ja geübt darin, gell? ;)

Nur das meine stimmen ;)

tombman
2004-11-10, 19:00:42
Meine Gegner sind schon längst tot - auch ohne Konsole ;)

Na dann hast ja genug skill um Profi zu werden :D

dildo4u
2004-11-10, 19:01:59
.

Crushinator
2004-11-10, 19:04:01
Liebe Gäste,

mißbraucht Euer Gastrecht nicht um hier Flames zu entfachen, sonst läuft's Gefahr, daß Eure Beiträge kommentarlos in unserem geliebten Papierkorb landen. Das war die einzige und die letzte Warnung. Die Member werden hiermit gebeten auf Provokationen wenn überhaupt nur angemessen zu reagieren und diese - wie von einigen Diskussionsteilnehmern in diesem Thread bereits getan - lieber zu melden.

Quasar
2004-11-10, 19:05:36
Na dann hast ja genug skill um Profi zu werden :D
Nö - hab in "Daydream" gespielt. ksrythx ;(

Aber:
Welches FRAPS macht in Painkiller auch Shots? Meines (1.9D) verlangsamt das Game zwar für ein paar Sekunden, schreibt nichts. Und F12 erzeugt im Demo-Directory nur tiefschwarze, 5MB große .BMPs.

dildo4u
2004-11-10, 19:07:57
Nö - hab in "Daydream" gespielt. ksrythx ;(

Aber:
Welches FRAPS macht in Painkiller auch Shots? Meines (1.9D) verlangsamt das Game zwar für ein paar Sekunden, schreibt nichts. Und F12 erzeugt im Demo-Directory nur tiefschwarze, 5MB große .BMPs.
Version 2.2.4 hab ich gibt mitlerweile schon version 2.3.3 http://www2.fraps.com/FRAPS233.EXE

Labberlippe
2004-11-10, 19:08:37
Nö - hab in "Daydream" gespielt. ksrythx ;(

Aber:
Welches FRAPS macht in Painkiller auch Shots? Meines (1.9D) verlangsamt das Game zwar für ein paar Sekunden, schreibt nichts. Und F12 erzeugt im Demo-Directory nur tiefschwarze, 5MB große .BMPs.

Installiere HyperSnapDX, dann haste keine Probleme mehr.
Mit dem Prog mache ich alle meine Shots.

Gruss Labberlippe

Dunkeltier
2004-11-10, 19:08:46
Du meinst, so wie du?



:lol:


Willst du etwa behaupten, das es kein Texturflimmern bei nVidia gibt? Hör auf, du machst dich langsam lächerlich. Ich habe 2x Geforce 6800 GT Karten gehabt, und kann mit Fug und Recht diese Behauptung aufstellen.

dildo4u
2004-11-10, 19:14:34
6800GT@Ultra Takt 1280*1024 2XAA alles auf high bei den details und filtering auf Aniso gestellt im CP auf 4XAF

http://img52.exs.cx/img52/826/Painkiller2004-11-1018-58-56-98.jpg


6800GT@Ultra Takt 1280*1024 4XAAIngame Filtering ingame auf Aniso 16XAniso im CP eingestellt Forceware 66.81 alle details High


http://img56.exs.cx/img56/5521/Painkiller2004-11-1019-11-20-14.jpg

Quasar
2004-11-10, 19:18:22
Nur das meine stimmen ;)
So wie:
ATI r420 bei neuen game doppelt so schnell wie NV40 --- WTF??
Die soeben zum wiederholten Male widerlegt worden ist?

dildo4u
2004-11-10, 19:21:48
Hab ein fehler gemacht das 2 bild war nur mit GT takt hier nochmal Ultra Takt 1280*1024 4XAAIngame Filtering ingame auf Aniso 16XAniso im CP eingestellt Forceware 66.81 alle details Hig


http://img48.exs.cx/img48/52/Painkiller2004-11-1019-19-31-09.jpg

Bitte vergleichbaren Shot einer X800XT@Default

MikBach
2004-11-10, 19:22:24
du beweist ja das du nicht viel davon hast?
es ist also gang und gebe so eine art?
weisst du auch worum es geht hier? (ich glaube nicht)
da wundert ihr euch das die leute nicht mal kleinlaut werden?
aber gut..weiter gehts.

imprrr
Mach dich erstmal mit den Forumsregeln vertraut. Flames werden hier nicht toleriert. Und schon gar nicht mit deiner Wortwahl. Damit hast du nicht nur Tombman, sondern auch die Mods beleidigt. Würdest du dich nicht hinter einem Gastaccount verstecken, hättest du schon ein paar Punkte kassiert.

Und mit der Aussage, daß Crushi nicht weiß worum es hier geht, hast du dich selbst als Gesprächspartner disqualifiziert.

Für den Gast, der mit dem Flimmern nichts anfangen konnte: hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=172917).

@Tombman
Wieviel fps hast du in 1280x1024 mit 4xAA und 16xAF?

Gast
2004-11-10, 19:22:54
Nur das meine stimmen ;)

Was zu beweisen ist... ;)

Gast
2004-11-10, 19:23:00
Ja, und wie schon mehrfach gesagt, baut Painkiller da anscheinend irgendeinen Bockmist - selbst mit deaktiviertem A.I. oder mit HQ im Treiber sieht's auf meiner M11 oder 6800 nicht wirklich 'sauber' gefiltert aus. ;(

[/i]

Sieht so aus. Der Nvidia Screenshot ist auch nicht besser. Muss sicher das Spiel gepatched werden.

tombman
2004-11-10, 19:29:28
Nö - hab in "Daydream" gespielt. ksrythx ;(

Aber:
Welches FRAPS macht in Painkiller auch Shots? Meines (1.9D) verlangsamt das Game zwar für ein paar Sekunden, schreibt nichts. Und F12 erzeugt im Demo-Directory nur tiefschwarze, 5MB große .BMPs.

lol, ich kann das game ohne probs in "trauma" durchzocken ;)

und F12 macht bei meiner ATI normale screenshots... hatte aber auch fraps NICHT laufen... wozu auch? showfps 1 geht eh ingame.

Quasar
2004-11-10, 19:31:15
Sieht so aus. Der Nvidia Screenshot ist auch nicht besser. Muss sicher das Spiel gepatched werden.
Sag' ich doch - ich habe ja beider Hersteller Karten und teste alles selbst.

betasilie
2004-11-10, 19:34:09
6800GT@Ultra Takt 1280*1024 2XAA alles auf high bei den details und filtering auf Aniso gestellt im CP auf 4XAF

http://img52.exs.cx/img52/826/Painkiller2004-11-1018-58-56-98.jpg

So, hier mal mein Bild mit XT-PE Standardtakt:

http://img57.exs.cx/img57/6074/pk14.jpg

Edit: So, jetzt stimmt alles. :)

Quasar
2004-11-10, 19:38:27
Jetzt wäre noch Pro vs. GT interessant.

Dunkeltier
2004-11-10, 19:40:37
Die Bilder sind nicht identisch, daher schlecht miteinander vergleichbar. Auf dem Bild von der ATI-Karte ist z.B. hinten Rauch am LKW, auf dem anderen Bild wiederum nicht. Zudem verwendet einer den In-Game FPS-Counter, der andere einen externen...

Schafft doch mal identische Rahmenbedingungen.

dildo4u
2004-11-10, 19:40:39
Painkiller zwei scheint nun nicht zu den Spielen gehören, wo ATI haushoch überlegen ist.

Vieleicht wurde auch hier mal endlich PS3.0 gut zur geschwindigkeits optemierung genutzt ohne PS3.0 lag die R420 so wie ich mich erinnern kann gut vor dem NV40.

tombman
2004-11-10, 19:41:28
Hab ein fehler gemacht das 2 bild war nur mit GT takt hier nochmal Ultra Takt 1280*1024 4XAAIngame Filtering ingame auf Aniso 16XAniso im CP eingestellt Forceware 66.81 alle details Hig


http://img48.exs.cx/img48/52/Painkiller2004-11-1019-19-31-09.jpg

Bitte vergleichbaren Shot einer X800XT@Default

Ok, das is aber der letzte shot für heute.... hab gerade ein nicht näher genanntes game auf die hdd bekommen was etwas mit "Untergrund" zu tun hat- und das muß natürlich getestet werden :D

Hier mal XTPE default Takt von 520/560 mit 4xAA/16x-QUALITY-AF, Rest maximum Detail.

http://img117.exs.cx/img117/2329/pk3.jpg

Netter score, was? Mit 16x perf. Af wärs sicher noch mehr.

edit: lol, mit 4xAA schneller als Nvidia mit 2xAA :D

MikBach
2004-11-10, 19:41:46
Painkiller zwei scheint nun nicht zu den Spielen gehören, wo ATI haushoch überlegen ist.
Kommt drauf an, was bei 1600x1200 mit 4xAA und 16xAF rauskommt. Man kennt das ja, die Unterschiede zeigen sich meist erst in dieser Auflösung mit Quallisetting.

PS welche Settings hast du gebenched? Wie dildo4u, 1280x1024 mit 2xAA und 4xAF?

Leute, bitte mit 4xAA und 16xAF testen, am Besten in 1600x1200. =)

tombman
2004-11-10, 19:45:29
Leute, bitte mit 4xAA und 16xAF testen, am Besten in 1600x1200. =)

Schau hin, 80 zu 60 für ATI ;)

Und bei 1600 wärs sicher noch deutlicher :D
(und ich war sogar nett und hab quality AF im cp geniommen ;))

Labberlippe
2004-11-10, 19:49:36
Hi

Und hast den Brilinearen Filter deaktiviert?

Gruss Labberlippe

betasilie
2004-11-10, 19:52:49
6800GT@Ultra Takt 1280*1024 2XAA alles auf high bei den details und filtering auf Aniso gestellt im CP auf 4XAF

http://img52.exs.cx/img52/826/Painkiller2004-11-1018-58-56-98.jpg

So, hier jetzt mal der richitige Shot (@XT-PE):
http://img57.exs.cx/img57/6074/pk14.jpg





Leute, bitte mit 4xAA und 16xAF testen, am Besten in 1600x1200. =)
Jo, der Dildo fängt doch immer mir den mickrigen 1280*1024 Screenshots an.

Im ist 1600*1200 4*AA und 8*AF ziemlich ideal. 16*AF finde ich in der Praxis nicht so prickelnd, weil der optische Unterschied zu 8*AF einfach zu gering ist.

Quasar
2004-11-10, 19:55:11
Ja, bitte bitte mal genau hinschreiben, was ihr wo aktiviert/deaktiviert habt.

edit:
96 zu 74 - wenn ich das mal als vergleichbar annehme, sind das ziemlich genau 30%. ;)

dildo4u
2004-11-10, 19:58:53
So, hier jetzt mal der richitige Shot (@XT-PE):






Jo, der Dildo fängt doch immer mir den mickrigen 1280*1024 Screenshots an.

.
Lol zum 3 mal innerhalb der threads ich kann nur maximal 1280*1024 einstellen weil ich ein 17er TFT hab.

MikBach
2004-11-10, 19:59:17
Schau hin, 80 zu 60 für ATI ;)
Ist ja Wahnsinn. ;)
Hat mit dem Thema aber wenig zu tun. ;)
Könnte sein, daß wir uns in ín höheren Auflösungen dem Threadthema deutlich nähern.

Und bei 1600 wärs sicher noch deutlicher :D
(und ich war sogar nett und hab quality AF im cp geniommen ;))
Auf diesen Beweis warte ich noch. Wir brauchen Screens von einer 6800GT/Ultra in 1600x1200 mit 4xAA und 16xAF. :)

@Alle, die testen
alle Optimierungen auf aus stellen. ;)

betasilie
2004-11-10, 20:01:05
Lol zum 3 mal innerhalb der threads ich kann nur maximal 1280*1024 einstellen weil ich ein 17er TFT hab.
:tongue: Dann besorg dir mal zum benchen nen Monitor, der 1600*1200 kann. ;)

Gast
2004-11-10, 20:10:16
Schau hin, 80 zu 60 für ATI ;)

Und bei 1600 wärs sicher noch deutlicher :D
(und ich war sogar nett und hab quality AF im cp geniommen ;))

Welche Settings genau? Bei deinen Settings sollte man ohnehin Vorsicht walten lassen. ;)

betasilie
2004-11-10, 20:13:54
96 zu 74 - wenn ich das mal als vergleichbar annehme, sind das ziemlich genau 30%. ;)[/i]
Ja, dann besorg mal jemanden, der mit seinern 6800Ultra auf 1600*1200 testet. ;)

Im übrigen ist es natürlich klar, dass nicht jedes Spiel auf der X800 doppelt so schnell läuft, wie auf einer 6800. Ich werde nachher mal ein paar Jointops Screenshots posten; einmal auf einer 6800GT@425/1180 und einmal mit meiner X800Pro, im selben System. Da legst Du dann aber die Ohren an. :tongue:

Quasar
2004-11-10, 20:15:16
Hm, aus dem ersten Posting stand noch 600/600 als Takt für die XTPE. Dazu ein P4 3,4EE @ default?
Quality-AF im CP hiess eigentlich immer: Brilinear, Stage-Optimierung und Anisotrope Sample-Optimierung AN. =)


Wie gesagt, es sollte nicht sooo schwer sein, für alle mal die Settings anzugeben - das ist nämlich etwas, wo man bitte gern mit 'angeben' darf. ;)

Quasar
2004-11-10, 20:16:32
Ich werde nachher mal ein paar Jointops Screenshots posten; einmal auf einer 6800GT@425/1180 und einmal mit meiner X800Pro, im selben System. Da legst Du dann aber die Ohren an. :tongue:
Prima. :up:
Aber hoffentlich nicht irgendein mysteriös erzwungenes VSync auf irgendeiner Seite, wie bei mapel110, oder?

dildo4u
2004-11-10, 20:17:02
Ich hab auch alle optemierungen an Systemleistung auf Qualität

Quasar
2004-11-10, 20:18:01
Sehr schön - dann sollte das ja passen. :up:

tombman
2004-11-10, 20:18:19
Welche Settings genau? Bei deinen Settings sollte man ohnehin Vorsicht walten lassen. ;)

Bei ATI kannst ned soviel ohne tools verädern. die 80fps waren auf der besten BQ die game UND cp hergeben.

Die Nvidia Leute sollte für einen fairen Vergleich quality im cp nehmen, weil high quality doch mehr Last bedeutet. Bei ATI müßte man dann tools oder registry nehmen, worauf ich keinen bock habe....

Aber jetzt hab ich eh keine Zeit mehr .. das "andere" game ruft und es ownt mich ÄRGER :D (allein die Musik ..EEEKKKK!!!)

tombman
2004-11-10, 20:20:22
Sehr schön - dann sollte das ja passen. :up:

eben, dann paßts ja mit 80fps zu 60fps. Beide hatten ähnliche settings.

betasilie
2004-11-10, 20:23:48
Prima. :up:
Aber hoffentlich nicht irgendein mysteriös erzwungenes VSync auf irgendeiner Seite, wie bei mapel110, oder?
Natürlich nicht. ... btw: Wegen dem erzwungen vsync, waren meine ersten PK-Demo Sreenshots hinfällig. ;)

Hier mal ein Joint Ops Screenshots, mit meiner 6800GT @ 425/1180 (natürlich ohne Vsync / 4*AF):
http://img75.exs.cx/img75/2193/7791.jpg

Und hier mal eins mit einer X800XT-PE (Quelle (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2322978&postcount=24) ):
http://www.steffenmay.de/jo1.jpg

Fast 70%

Settings waren wie folgt:
http://img85.exs.cx/img85/9784/men1.jpg

Nacher mache ich dann nochmal ein Screenshot mit meiner aktuelln Karte, wobei man da noch bedenken muss, dass Joint-Ops sehr stark durch meine CPU begrenzt wird.

dildo4u
2004-11-10, 20:31:26
@Beta reicht die ATI für 4XAA nich wird whol dann auch eng bei massen schlachten oder?Find ich eigentlich nicht so toll das die high end karten schon wieder am limit laufen.So besonders is die optik auch wieder nicht.

Jesus
2004-11-10, 20:33:26
@Beta reicht die ATI für 4XAA nich wird whol dann auch eng bei massen schlachten oder?Find ich eigentlich nicht so toll das die high end karten schon wieder am limit laufen.So besonders is die optik auch wieder nicht.

eh beide waren auf 2x AA ;)

dildo4u
2004-11-10, 20:34:57
eh beide waren auf 2x AA ;)
Deshalb frag ich ja ob man unter online bedinungen noch 4XAA nutzen kann mit der X800XT

betasilie
2004-11-10, 20:36:47
@Beta reicht die ATI für 4XAA nich wird whol dann auch eng bei massen schlachten oder?Find ich eigentlich nicht so toll das die high end karten schon wieder am limit laufen.So besonders is die optik auch wieder nicht.
Wie? Bei Joint Ops? Ich verstehe die Frage nicht so ganz. :)

Mit der 6800 GT konnte ich nur in 1280*960 2*AA / 4*AF zocken und musste ien paar Details runterstellen (Partikeleffekte Frameeffekte). Mit meiner jetzigen X800Pro kann ich in 1600*1200 mit 2*AA und 8*AF zocken und habe mehr Effekte an. Das ganze läuft sogar flüssiger. ;)

Und der Sreeshot ist nciht nach Optik ausgesucht worden. Das game sieht absolut sahnig aus und ist imo nach FarCry das schönste Spiel des Jahres.

xL|Sonic
2004-11-10, 20:38:20
Hätte ich die Painkiller demo könnte ich es mal benchen in 1600x1200

Jesus
2004-11-10, 20:39:04
so ich versuche jetz mal PK auf meiner 9200 mobility zu benchen :P

wo ist die stelle denn genau und kann man benutzer definierte Auflösungen irgendwie einstellen ?

betasilie
2004-11-10, 20:40:24
Deshalb frag ich ja ob man unter online bedinungen noch 4XAA nutzen kann mit der X800XT
Natürlich. In 1280*1024 4*AA läuft es sogar noch etwas flüssiger, als in 1600*1200 2*AA.

Das Spiel ist leider in so hohen Settings stark durch die CPU begrenzt. Das Alphablending zieht z.B. ne Menge. Daher sind die max. FPS zwar nicht so hoch, aber die min. FPS brechen nicht so stark ein, wenn viel Action auf dem Bildschirm ist.

Gast
2004-11-10, 20:40:34
Du bist ja geübt darin, gell? ;)

Anderer Gast, ich weiss das du von nv bist! Aber mach dir nix draus!
Bist halt GE-BRAIN-WASHED!

dildo4u
2004-11-10, 20:43:23
Hätte ich die Painkiller demo könnte ich es mal benchen in 1600x1200
Der server hatte bei mir über 100k
ftp://download2.gamershell.com/pub/pc/games/gamershell//demo/Painkiller_SP_Demo_3_Setup.zip

xL|Sonic
2004-11-10, 20:45:46
t-dsl384 und das im speckgürtel von berlin :/

Kann es so gegen 22Uhr mal benchen

dildo4u
2004-11-10, 20:52:48
http://www.xbitlabs.com/articles/video/display/asus-ax800xt-tvd.html

http://www.xbitlabs.com/images/video/asus-ax800xt-tvd/pkiller_candy.gif

Leider nur mit recht alten treibern cat4.8 und Forceware61.77

Mr. Lolman
2004-11-10, 20:55:50
edit:
96 zu 74 - wenn ich das mal als vergleichbar annehme, sind das ziemlich genau 30%. ;)

Deinem Zwinkern folgend, behaupt ich einfach mal ganz frech, dass SM3.0 garnix bringt (bei PK zumindest)

Quasar
2004-11-10, 20:56:44
Natürlich nicht. ... btw: Wegen dem erzwungen vsync, waren meine ersten PK-Demo Sreenshots hinfällig. ;)

Hier mal ein Joint Ops Screenshots, mit meiner 6800GT @ 425/1180 (natürlich ohne Vsync / 4*AF):
http://img75.exs.cx/img75/2193/7791.jpg

Und hier mal eins mit einer X800XT-PE (Quelle (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2322978&postcount=24) ):
http://www.steffenmay.de/jo1.jpg

Fast 70%

Settings waren wie folgt:
http://img85.exs.cx/img85/9784/men1.jpg
Treiber waren wie eingestellt? Und welche Treiberversionen? ;)



Nacher mache ich dann nochmal ein Screenshot mit meiner aktuelln Karte, wobei man da noch bedenken muss, dass Joint-Ops sehr stark durch meine CPU begrenzt wird.
Oh-Oh - was soll das dann erst für'n Geruckel bei mir werden? JO war bei meiner GBT als Bundle dabei.

xL|Sonic
2004-11-10, 20:59:55
Oh-Oh - was soll das dann erst für'n Geruckel bei mir werden? JO war bei meiner GBT als Bundle dabei.

Wennde es nicht spielen kannst, dann nehme ich dir das Spiel gerne ab Quasar :D

betasilie
2004-11-10, 21:03:33
Treiber waren wie eingestellt? Und welche Treiberversionen? ;)
Das wurde leider im Vorfeld nicht festgelegt. Es hieß halt nur, dass 4*AF im CP an sein soll. Treiber hatte ich die 61.77.

Oh-Oh - was soll das dann erst für'n Geruckel bei mir werden? JO war bei meiner GBT als Bundle dabei.
Spielbar ist es ja auch mit meiner GT gewesen, halt bloß nicht in 1600*1200. ;)

Und gibt dir etwas Zeit beim spielen. Es dauert meistens etwas, bis man sich warm gespielt hat. Imo ist JOTR das MP-Spiel des Jahres! =)

Edit:
Achso, wegen deiner CPU meinste das. ^^ Ja, JOTR ist ziemlich fordernd in Sachen CPU, Speicher und GraKa.

dildo4u
2004-11-10, 21:05:34
Das wurde leider im Vorfeld nicht festgelegt. Es hieß halt nur, dass 4*AF im CP an sein soll. Treiber hatte ich die 61.77.


Spielbar ist es ja auch mit meiner GT gewesen, halt bloß nicht in 1600*1200. ;)

Und gibt dir etwas Zeit beim spielen. Es dauert meistens etwas, bis man sich warm gespielt hat. Imo ist JOTR das MP-Spiel des Jahres! =)
Ich glaub es geht eher darum ob sein P3 das cpuspeed mäßig noch packt das dürfte nämlich eng werden.

betasilie
2004-11-10, 21:07:10
Ich glaub es geht eher darum ob sein P3 das cpuspeed mäßig noch packt das dürfte nämlich eng werden.
Jo, ist mir gerade auch in den Sinn gekommen. ;)

Quasar
2004-11-10, 21:12:39
Braucht man dafür 'nen bestimmten Patch? Im Options-Menü habe ich die Punkte für die Auswahl der Texturkompression und des Pixelshader-Levels nicht...?

betasilie
2004-11-10, 21:20:18
Braucht man dafür 'nen bestimmten Patch? Im Options-Menü habe ich die Punkte für die Auswahl der Texturkompression und des Pixelshader-Levels nicht...?
Ja, den brauchst Du.

Außerdem performt das Spiel mit Patch besser. ;)

Quasar
2004-11-10, 21:31:52
Krass - der zieht sich mit 400kByte+ das Update vom Novalogic Server....

Quasar
2004-11-10, 21:31:52
Krass - der zieht sich mit 400kByte+ das Update vom Novalogic Server....

betasilie
2004-11-10, 21:37:52
Krass, das sind ja dann 800kbyte+. =)

Die Stellen im Spiel kennst Du?

dildo4u
2004-11-10, 21:40:58
Krass, das sind ja dann 800kbyte+. =)

Die Stellen im Spiel kennst Du?
Wozu? mit einem P3 und einer 6800 wirds whol kein guter vergleich.

Quasar
2004-11-10, 21:47:46
Krass, das sind ja dann 800kbyte+. =)
WTF?


Die Stellen im Spiel kennst Du?
Jo.

edit:
"Stelle 1": 22fps
"Stelle 2": 25fps

Wenn ich die Texturkompression auf Maximum stelle und bei Landschaft- und Terrain-Polys auf "High" reduziere, sind bei 1280x1024x32, 2xAA 27fps bzw. 35fps drin. =)
GF6800 16-6 350/350, FW66.93, High-Quality im Treiber, 4xAF per Treiber erzwungen, 2xAA in-Game. Rest: siehe Sig.

xL|Sonic
2004-11-10, 22:13:28
So, habe das jetzt mal mit Painkiller gecheckt, jedoch keinen screenshot mit ner vernünftigen fps rate mit fraps hinbekommen, wenn ich nochmal Lust habe mir 75hz anzutun gucke ich nachher maybe nochmal.

Also ich habe ~31-33fps mit 1600*1200 4xAA und 16xAF Quality settings, trilinear filtering und ingame details auf maximum.
Forceware habe ich den aktuellen 66.93.

Black-Scorpion
2004-11-10, 22:32:12
WTF?
Doppelpost

VoodooJack
2004-11-10, 22:32:41
Und nun mein Painkiller-Screenshot.

Control Panel:
- High Quality
- 16xAF

in-game:
- 4xAA
- Anisotropic
- restlos alles maximiert einschließlich Bloom und Surround Sound + EAX3 Acoustics

Btw, Bloom ein/aus macht knapp 20% aus.
Btw, Quality im CP ergibt in 1600x1200 10% mehr Leistung.

X800 XTPE @default, 1280x1024/16xAF/4xAA

http://img69.exs.cx/img69/8694/Painkiller12x1085.jpg

dildo4u
2004-11-10, 22:38:08
THX@VJ für den verlgeichsscreen also hier kann die X800XT ihre Takt 1zu1 ausspielen Aber vieleicht ist das hier in 1280 noch teilweise cpu limitiert hab ja leider kein P4EE wie Tombman und du.Sein P4EE lief mit 3.4GHZ du hast 5fps mher wie lief deiner?

VoodooJack
2004-11-10, 22:52:25
THX@VJ für den verlgeichsscreen also hier kann die X800XT ihre Takt 1zu1 ausspielen Aber vieleicht ist das hier in 1280 noch teilweise cpu limitiert hab ja leider kein P4EE wie Tombman und du.Sein P4EE lief mit 3.4GHZ du hast 5fps mher wie lief deiner?

Meiner lief bei 3.8. Ich werde gleich mal überprüfen, ob die 400 Mhz mehr 5 fps Unterschied ausmachen.

Zunächst noch ein 1600x1200 Screenshot. Einstellungen wie bei meinem 1280x1024 Screenshot. Bei diesem Shot hatte ich wie immer High Quality im Control Panel eingestellt. Ich hab auch noch einen Shot mit Quality gemacht. Da sind es dann 62 fps statt 55 fps.

X800 XTPE @default, 1600x1200/16xAF/4xAA

http://img52.exs.cx/img52/6553/Painkiller16x1255.jpg

VoodooJack
2004-11-10, 23:57:46
THX@VJ für den verlgeichsscreen also hier kann die X800XT ihre Takt 1zu1 ausspielen Aber vieleicht ist das hier in 1280 noch teilweise cpu limitiert hab ja leider kein P4EE wie Tombman und du.Sein P4EE lief mit 3.4GHZ du hast 5fps mher wie lief deiner?

So, die 400MHz-mehr-Sache hab ich überprüft. Spielt keine Rolle in Painkiller. Mit 3.4 hab ich auch 85 fps in 1280x1024. Vielleicht verwendete tombman einen anderen Treiber? Ich verwende zur Zeit 4.11 Beta.

Es könnte aber auch an was anderem liegen. Ich hab festgestellt, dass beim Hin- und Herschalten der Auflösungen die Frames erfreulich (hehe) ansteigen. Nachdem ich von 2048x1536 auf 1600x1200 zurückwechselte, sah ich folgende FPS-Zahl. Die Graka war außerdem übertaktet. Einstellungen wie oben.

X800 XTPE @580/590, 1600x1200/16xAF/4xAA

http://img34.exs.cx/img34/9003/Painkiller16x1268oc.jpg

tombman
2004-11-11, 06:09:16
vj hat wahrscheinlich perf. AF genommen, während ich qual AF hatte. Das werden die 5fps sein.

Gast
2004-11-11, 08:11:42
vj hat wahrscheinlich perf. AF genommen, während ich qual AF hatte. Das werden die 5fps sein.

Ich habe gerade gelesen das der 66.93 WHQL haben soll, mann staune!
Jetzt müßte nur noch einer die Performance bei Farcry zB. überprüfen, bin mir sicher da gibt es weniger.

q@w
2004-11-11, 08:18:05
Ich habe gerade gelesen das der 66.93 WHQL haben soll, mann staune!
Jetzt müßte nur noch einer die Performance bei Farcry zB. überprüfen, bin mir sicher da gibt es weniger.

Erzähl...

seahawk
2004-11-11, 09:03:35
Ich denke, dass es keiner Tests mehr Bedarf. Der Vorteil der ATI Karten in dast allen Games ist nicht mehr zu leugnen. Der Unterschied ist imho so gravierend, dass man von 6800Ultras nur noch dringend abraten kann.

Tjell
2004-11-11, 09:06:19
Ich denke, dass es keiner Tests mehr Bedarf. Der Vorteil der ATI Karten in dast allen Games ist nicht mehr zu leugnen. Der Unterschied ist imho so gravierend, dass man von 6800Ultras nur noch dringend abraten kann.
Da ich mich ein wenig zu dieser Thematik im Internet durch ältere Reviews und Benchmarks gequält habe kann ich hierzu nur noch folgendes sagen: LOL!

Warum? Mein Beispiel (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2434329&postcount=25).

seahawk
2004-11-11, 09:09:34
Bei Ultra-High-End-Akrten zählen für mich nur die maximalen Einstellungen. Ne Ultra um in 1024x768 ohne AA/AF flüssig spielen zu können erscheint mir doch etwas teuer.

Tjell
2004-11-11, 09:14:40
Bei Ultra-High-End-Akrten zählen für mich nur die maximalen Einstellungen. Ne Ultra um in 1024x768 ohne AA/AF flüssig spielen zu können erscheint mir doch etwas teuer.
Ich behaupte einfach mal, daß es mehr Leute mit einer High-End-Grafikkarte gibt, als es Monitore gibt, die Auflösungen von über 1280 augenschonend darstellen kann, deshalb muß man für Beurteilungen von Grafikkarten nicht eine einzige Auflösung und Qualitätseinstellung zum Maßstab machen.

Wenn es Dein Maßstab ist, die Herangehens- und Betrachtungsweise für Dich ausschlaggebend und richtig. Für ein Pauschalurteil reicht das aber noch lange nicht.

Gast
2004-11-11, 09:20:26
Ich behaupte einfach mal, daß es mehr Leute mit einer High-End-Grafikkarte gibt, als es Monitore gibt, die Auflösungen von über 1280 augenschonend darstellen kann, deshalb muß man für Beurteilungen von Grafikkarten nicht eine einzige Auflösung und Qualitätseinstellung zum Maßstab machen.

Wenn es Dein Maßstab ist, die Herangehens- und Betrachtungsweise für Dich ausschlaggebend und richtig. Für ein Pauschalurteil reicht das aber noch lange nicht.


Hi

Ich mag ja nicht lästern, aber hier wurde immer gepredigt das 1024x768 schnulli Auflösungen sind.
Jetzt plötzlich ein umkehrschwung auf 1024x768 ???

Dennoch wäre es mehr Hilfreich wenn zusätzlich mit angegeben wird, was genau aktiv war.

Alle Optimierungen aus, das wäre ein vernünftiger Vergleich.

Gruss Labberlippe

Tjell
2004-11-11, 09:31:39
Hi

Ich mag ja nicht lästern, aber hier wurde immer gepredigt das 1024x768 schnulli Auflösungen sind.
Jetzt plötzlich ein umkehrschwung auf 1024x768 ???

Dennoch wäre es mehr Hilfreich wenn zusätzlich mit angegeben wird, was genau aktiv war.

Alle Optimierungen aus, das wäre ein vernünftiger Vergleich.

Gruss Labberlippe
Wo proklamiere ich denn die 1024er Auflösung?
Es gibt immerhin noch einige Zwischenschritte bis zur 1600er, die viele Nutzer einsetzen können.

Die Praxis (Freundes- ,Bekanntenkreis) zeigt mir jedoch, daß von 8 Leuten mit High-End- oder vormals High-End-Karten (9800 Pro, FX5900, 6800 GT) nur ein einziger auch die 1600er Auflösung auf seinem Monitor vernünftig darstellen kann. Alle anderen bewegen sich, wenn der Monitor immerhin eine augenschonende Hz-Zahl schafft, am Rande der technischen Leistungsfähigkeit des Geräts und wie jeder weiß leidet dadurch die Darstellungsqualität.

Man sehe sich einfach nur die Verbreitung der Monitorgrößen an schließe dann auf die optimale Auflösung. Da mutmaße ich nun einfach, daß die für die viele bei 1280 liegt.

Die Kombination macht's aus, und genau da liegt der Hund begraben. Teure Monitore (> 300 €) für hohe Auflösungen sind weitaus seltener anzutreffen, als teure Grafikkarten.

Holundermann
2004-11-11, 09:34:48
Ich mag ja nicht lästern, aber hier wurde immer gepredigt das 1024x768 schnulli Auflösungen sind.

hier wird einem immer das wort im mund umgedreht, es hat keiner was von 1024 gesagt...

Gast
2004-11-11, 09:50:26
also ich habe eine 9500 Pro und spiele alles auf 1024er dank 17" monitor. Das reicht um JEDES Spiel flüssig spielen zu können.

Wenn ich nun ne 6800 hätte und nen TFT oder grlösseren Monitor würde ich erwarten, dass ich damit auch in höheren Aufösungen mit allen Details, AA / AF Spielen kann, denn ich gebe nicht umsonst 500 Euro für eine Highend Karte aus wenn ich sie nicht nutzen kann.

Holundermann
2004-11-11, 10:16:47
jo, und wenn ich nen 17" tft haben würde würde ich mir erwarten ein spiel mit vollen details und max aa/af in der nativen auflösung zu zocken, und siehe da: die ultra bzw. die gt erfüllen meine kriterien, genauso wie die x800 pro und die x800xt(pe)

seahawk
2004-11-11, 10:20:55
Wenn Du max AA willst und von dem extrem lahmen SSAA absiehst, dann liegen auch da die ATI Akrten mit gammakorigiertem 6xMSAA deutlich vorne. Bei der AF Qualität gibt es einen ungefähren Gleichstand.

q@w
2004-11-11, 10:26:25
500€+ für eine Karte, die schon heute nicht mehr alle Effekte in Games darstellen kann? Hm...

robbitop
2004-11-11, 10:35:32
viele Leute mit High End Karten besitzen einen 17" TFT (1280x1024).
Mich interessieren vA deshalb Vergleiche auf dieser Auflösung.
Dazu dann feine unterteilungen:
2xAA / 4xAF und 4xAA / 16x AF.
Solche Tests mag ich sehr gern, weil es genau auf mein Profil zutrifft.
bei 4xMS und 1600 wird der lokale Videoram schnell zur Bremse besonders bei Scanout@Framebuffer +Trible buffer. Da kommt dann AGP Texturing zustande. Bei 1280 ist das nicht der Fall.

Dass die X800XT PE 30% schneller sein MUSS heutzutage bei 16x12 16xAF ist glasklar, da hier die pure Füllrate limitiert. Davon hat die einfach 30% mehr.
Weniger limitieren tut diese bei geringeren Auflösungen oder bei Spielen, die mehr auf Shader setzen (wobei alle bekannten Games auf sehr kurze Shader setzen ...es wird noch nicht zum Flaschenhals).
D.h die X800 ist nunmal heutzutage fast immer schneller als die 6800U.
Hinzu kommt natürlich noch die Scanout sache und ein hoch optimiertes AF.

Wie es in Zukunft und unter TFT Auflösungen aussieht, das interessiert scheinbar keinen von euch. Scheinen ja fast alle >20" Monitore hier zu haben :)

Mr. Lolman
2004-11-11, 11:19:33
vormals High-End-Karten (9800 Pro, FX5900, 6800 GT)

Die FX5900 war doch kein HighEnd...

/edit: Im Nachhinein betrachtet

Mr. Lolman
2004-11-11, 11:23:17
@robbitop: Du vergisst, dass Painkiller eines der TWIMTBP SM3.0 Vorzeige Spiele ist. Da kann man schon erwarten, dass eine 6800 Ultra zumindest auf dem Niveau eine x800xt ist.

Oder anders gefragt, was macht einen NV40 momentan kaufenswert (bis auf SSAA) ?

/edit: Ausserdem haben die Leuts ja eh auch in 1280x1024 getestet: http://www.forum-3dcenter.de/vbulletin/showthread.php?t=181885&page=21&pp=20 und das sinds auch 30%!

Holundermann
2004-11-11, 11:27:03
Wenn Du max AA willst und von dem extrem lahmen SSAA absiehst, dann liegen auch da die ATI Akrten mit gammakorigiertem 6xMSAA deutlich vorne. Bei der AF Qualität gibt es einen ungefähren Gleichstand.

na da würde mich doch mal ein benchmark in 1280 + 16af + 6 msaa und auf nv seite 16af + 8aa interessieren :)

aths
2004-11-11, 11:41:19
@robbitop: Du vergisst, dass Painkiller eines der TWIMTBP SM3.0 Vorzeige Spiele ist. Da kann man schon erwarten, dass eine 6800 Ultra zumindest auf dem Niveau eine x800xt ist. Was TWIMTBP aussagt, dürfte inzwischen doch klar sein. Auch in der Vergangenheit waren große TWIMTBP-Titel auf Radeons schneller.

/edit: Ausserdem haben die Leuts ja eh auch in 1280x1024 getestet: http://www.forum-3dcenter.de/vbulletin/showthread.php?t=181885&page=21&pp=20 und das sinds auch 30%!Sieht auf den ersten Blick so aus, als limitiert da die Texturfüllrate.

Gast
2004-11-11, 11:48:08
Ati macht was besseres als SLI,guckt euch das mall an.
http://www.computerbase.de/news/hardware/grafikkarten/ati/2004/november/angebliche_taktraten_atis_refresh-chips/
besser.

robbitop
2004-11-11, 12:11:31
Die FX5900 war doch kein HighEnd...

/edit: Im Nachhinein betrachtet

sondern?
Die 5900 war im Sommer 2003 NV's High End Part.

bzgl der 30% hat aths schon geantwortet.
Wenn Texelfüllrate limitiert, ist die X800 schneller. Gar keine Widerrede.
Aber es muss nicht immer so sein und ist es auch nicht immer. :)
[ich widerspreche niemandem der sagt, die XT PE sei schneller als eine 6800U]

Ich würde z.B. eh keine 6800U oder XT PE kaufen. Die sind beide ihr Geld IMO nicht wert. 500EUR für ein bisschen mehr Leistung als für 250EUR.

Es gibt auch noch andere Käuferschichten als die 500EUR. ATi ist hier interessanter.
400EUR da steht die GT gegen die X800Pro und das gar nicht so schlecht. NV IMO interessanter.
300EUR die ASUS 6800GT 128MB gegen ...?? 9800XT oder auch die X800SE. NV IMO interessanter.
260EUR 6800NU gegen? NV IMO interessanter.
200EUR 6600GT gegen X700. Gleichstand.
100EUR 6200 gegen X300 ..kA habe da noch kaum benches gesehen.

Ich will damit nur sagen, dass es nicht immer nur um Ultra High End geht.
NV ist in der 500EUR Schicht nicht der beste Griff. SSAA ist für Nostalgiker wie mich allerdings schon ein sehr überzeugendes Argument (Max Payne und Mafia). Dazu kann ich im Panel auch noch HQ AF aktivieren...für mich ein Kaufargument.

Für andere mag das jedoch wegfallen. Kann man alles nicht pauschalisieren.

robbitop
2004-11-11, 12:14:53
Ati macht was besseres als SLI,guckt euch das mall an.
http://www.computerbase.de/news/hardware/grafikkarten/ati/2004/november/angebliche_taktraten_atis_refresh-chips/
besser.

woraus entnimmist du "besser"?
Sieht mir stark nach ALX ala Metabyte aus. Diese Methode hat auch ihre Schwächen, ähnelt der Methode von NV.
Und ich halte es für nicht so besonders gut, dass man den PCI-E mit dem Traffic belastet.

IMO sollte man detailiertere Berichte abwarten.

BodyLove
2004-11-11, 12:30:03
In dem Shot von Painkiller schwangt die Leistung bei mir zwischen 120 und 80FPS, wobei, wenn ich stehen bleibe, es konstant bei 115FPS ist. Ja wie jetzt?:|

Egal, habe versucht mit printsc-Button auf der Tastatur ein Screen zu erzeugen, was nicht gelang. Mit Fraps kann ich zwar ein Screen erzeugen, aber dann sieht man die FPS-Angabe nicht.

Kann jemand das Befehl für die FPS über die Konsole kurz eingeben?

Ich "benchte" mit 1280x1024 bei 4xAA und 16xAF über CP. Die Taktraten betrugen 475/450Mhz.

Noah
2004-11-11, 12:37:40
In dem Shot von Painkiller schwangt die Leistung bei mir zwischen 120 und 80FPS, wobei, wenn ich stehen bleibe, es konstant bei 115FPS ist. Ja wie jetzt?:|

Egal, habe versucht mit printsc-Button auf der Tastatur ein Screen zu erzeugen, was nicht gelang. Mit Fraps kann ich zwar ein Screen erzeugen, aber dann sieht man die FPS-Angabe nicht.

Kann jemand das Befehl für die FPS über die Konsole kurz eingeben?

Ich "benchte" mit 1280x1024 bei 4xAA und 16xAF über CP. Die Taktraten betrugen 475/450Mhz.
Hast du "Include frame rate on screen captures" bei Fraps aktiviert?

BodyLove
2004-11-11, 12:39:24
Hast du "Include frame rate on screen captures" bei Fraps aktiviert?

öhh nein.;) Danke.

aths
2004-11-11, 13:03:57
Die FX5900 war doch kein HighEnd...

/edit: Im Nachhinein betrachtetEigentlich schon, sie konkurrierte mit der 9800, war die denn im Nachhinein betrachtet auch kein Highend?

robbitop
2004-11-11, 13:10:55
Eigentlich schon, sie konkurrierte mit der 9800, war die denn im Nachhinein betrachtet auch kein Highend?
Ich hatte bis vor Kurzem eine und war 1.5 Jahre sehr sehr angetan davon.
Selbst Doom3 war damit noch recht flott spielbar.
Bei Far Cry reichte es zumindist in V1.0 nicht mehr für 1280x1024 in max Details im R300_PP Pfad.

IVN
2004-11-11, 13:16:58
sondern?
Die 5900 war im Sommer 2003 NV's High End Part.

bzgl der 30% hat aths schon geantwortet.
Wenn Texelfüllrate limitiert, ist die X800 schneller. Gar keine Widerrede.
Aber es muss nicht immer so sein und ist es auch nicht immer. :)
[ich widerspreche niemandem der sagt, die XT PE sei schneller als eine 6800U]

Ich würde z.B. eh keine 6800U oder XT PE kaufen. Die sind beide ihr Geld IMO nicht wert. 500EUR für ein bisschen mehr Leistung als für 250EUR.

Es gibt auch noch andere Käuferschichten als die 500EUR. ATi ist hier interessanter.
400EUR da steht die GT gegen die X800Pro und das gar nicht so schlecht. NV IMO interessanter.
300EUR die ASUS 6800GT 128MB gegen ...?? 9800XT oder auch die X800SE. NV IMO interessanter.
260EUR 6800NU gegen? NV IMO interessanter.
200EUR 6600GT gegen X700. Gleichstand.
100EUR 6200 gegen X300 ..kA habe da noch kaum benches gesehen.

Ich will damit nur sagen, dass es nicht immer nur um Ultra High End geht.
NV ist in der 500EUR Schicht nicht der beste Griff. SSAA ist für Nostalgiker wie mich allerdings schon ein sehr überzeugendes Argument (Max Payne und Mafia). Dazu kann ich im Panel auch noch HQ AF aktivieren...für mich ein Kaufargument.

Für andere mag das jedoch wegfallen. Kann man alles nicht pauschalisieren.

100€ 6200 vs. x600 ?

Gast
2004-11-11, 13:23:29
viele Leute mit High End Karten besitzen einen 17" TFT (1280x1024).
Mich interessieren vA deshalb Vergleiche auf dieser Auflösung.
Dazu dann feine unterteilungen:
2xAA / 4xAF und 4xAA / 16x AF.
Solche Tests mag ich sehr gern, weil es genau auf mein Profil zutrifft.
bei 4xMS und 1600 wird der lokale Videoram schnell zur Bremse besonders bei Scanout@Framebuffer +Trible buffer. Da kommt dann AGP Texturing zustande. Bei 1280 ist das nicht der Fall.

Dass die X800XT PE 30% schneller sein MUSS heutzutage bei 16x12 16xAF ist glasklar, da hier die pure Füllrate limitiert. Davon hat die einfach 30% mehr.
Weniger limitieren tut diese bei geringeren Auflösungen oder bei Spielen, die mehr auf Shader setzen (wobei alle bekannten Games auf sehr kurze Shader setzen ...es wird noch nicht zum Flaschenhals).
D.h die X800 ist nunmal heutzutage fast immer schneller als die 6800U.
Hinzu kommt natürlich noch die Scanout sache und ein hoch optimiertes AF.

Wie es in Zukunft und unter TFT Auflösungen aussieht, das interessiert scheinbar keinen von euch. Scheinen ja fast alle >20" Monitore hier zu haben :)

Full ack ! Die meisten wollen in genannten Auflösungen mit hohen Settings spielen und nicht in 1600, da immer mehr Gamer einen TFT benutzen und die eine Röhre benutzen, zwar 1600 evtl. einstellen könnten, aber aufgrund der Ergonomie eine niedrigere Auflösung fahren. Diese Benches in 1600 sind zwar schön, aber absolut unnütz und wirklichkeitsfremd....

Gast
2004-11-11, 13:40:28
Full ack ! Die meisten wollen in genannten Auflösungen mit hohen Settings spielen und nicht in 1600, da immer mehr Gamer einen TFT benutzen und die eine Röhre benutzen, zwar 1600 evtl. einstellen könnten, aber aufgrund der Ergonomie eine niedrigere Auflösung fahren. Diese Benches in 1600 sind zwar schön, aber absolut unnütz und wirklichkeitsfremd....
Oh man. *kopfschüttel*
Alle Jahre wieder...
Warum man in 1600x1200 benchen sollte, hängt nicht von den verfügbaren Monitoren ab.
Ich kaufe mir die Karte für 500€ doch nicht um zu sehen, wie sie in heutigen Spielen performt, sondern wie das in einem halben oder gar einem Jahr aussehen wird.
Wenn eine X800XT in 1600x1200 mit Quallisettings deutlich schneller als eine 6800Ultra ist, ist zu vermuten, daß bei grafisch anspruchsvolleren Spielen, die noch kommen werden, man mit der 6800Ultra vielleicht nur noch in 1024x768 mit 4XAA und FullAF spielen kann, während dann die X800XT vielleicht doch die 1280x1024/960 schafft.
Das ist der Punkt.

Holundermann
2004-11-11, 13:42:56
Wenn eine X800XT in 1600x1200 mit Quallisettings deutlich schneller als eine 6800Ultra ist, ist zu vermuten, daß bei grafisch anspruchsvolleren Spielen, die noch kommen werden, man mit der 6800Ultra vielleicht nur noch in 1024x768 mit 4XAA und FullAF spielen kann, während dann die X800XT vielleicht doch die 1280x1024/960 schafft.

also das halt ich für ein gerücht, ich denke es wird genau das gegenteil der fall sein sobald längere shader zum einsatz kommen, den dann kann eine 6800er ihr stärken ausspielen!

StefanV
2004-11-11, 13:44:00
Eigentlich schon, sie konkurrierte mit der 9800, war die denn im Nachhinein betrachtet auch kein Highend?
Eigentlich nicht, denn im Nachhinein betrachtet liegt die 5900 weit unter der 9800...

Nur in alten Multi Texturing Games kann die 5900 mit der 9800 konkurieren, nicht aber bei neuen 'DX9 Games'.

StefanV
2004-11-11, 13:45:20
also das halt ich für ein gerücht, ich denke es wird genau das gegenteil der fall sein sobald längere shader zum einsatz kommen, den dann kann eine 6800er ihr stärken ausspielen!
Tschuldigung, aber das ist 'schönmalerei', das hat auch bei der 5900 nix gebracht, die ist auch mit 'schönreden' recht bescheiden...

Ich würd eher mal sagen, das wir alle mal etwas abwarten sollten, bevor wir uns so weit aus dem Fenster lehnen, denn am Ende kanns anders kommen als man meint...

SentinelBorg
2004-11-11, 13:58:54
Oh man. *kopfschüttel*
Alle Jahre wieder...
Warum man in 1600x1200 benchen sollte, hängt nicht von den verfügbaren Monitoren ab.
Ich kaufe mir die Karte für 500€ doch nicht um zu sehen, wie sie in heutigen Spielen performt, sondern wie das in einem halben oder gar einem Jahr aussehen wird.
Wenn eine X800XT in 1600x1200 mit Quallisettings deutlich schneller als eine 6800Ultra ist, ist zu vermuten, daß bei grafisch anspruchsvolleren Spielen, die noch kommen werden, man mit der 6800Ultra vielleicht nur noch in 1024x768 mit 4XAA und FullAF spielen kann, während dann die X800XT vielleicht doch die 1280x1024/960 schafft.
Das ist der Punkt.
Grafisch anspruchsvoll wird in Zukunft aber vor allem auch längere und komplexere Shader bedeuten. Und da hat die GF6800 die bessere Technik.
Man sieht ja schon in Far Cry 1.3, wie gut die GF6800 für ihren deutlich geringeren Takt im Vergleich zur X800 performed.
Mal ganz davon abgesehen, dass grafisch anspruchsvollere Spiele, wie z.B. Far Cry mit HdR, auf der X800 teils gar nicht mehr möglich sind, durch diverse technische Limitationen.

Aber ehrlich gesagt, ist zumindest für mich persönlich 1600x1200 vollkommen uninteressant. Mein oller 17" CRT schafft das nur mit 60Hz. Also spiele ich normal in 1024x768. So wie NFS:Underground das ist gestern installiert habe. 1024x768 mit 8xS AA und 16xAF. Könnte mir eine X800 (so denn es überhaupt ein Modell im Preisbereich meiner GF6800nu gegeben hätte...) eine solche Grafikqualität in der Auflösung auf den Bildschirm bringen ? Ich denke nicht...

Sentinel

sui
2004-11-11, 14:01:56
Oh man. *kopfschüttel*
Alle Jahre wieder...
Warum man in 1600x1200 benchen sollte, hängt nicht von den verfügbaren Monitoren ab.
Ich kaufe mir die Karte für 500€ doch nicht um zu sehen, wie sie in heutigen Spielen performt, sondern wie das in einem halben oder gar einem Jahr aussehen wird.
Wenn eine X800XT in 1600x1200 mit Quallisettings deutlich schneller als eine 6800Ultra ist, ist zu vermuten, daß bei grafisch anspruchsvolleren Spielen, die noch kommen werden, man mit der 6800Ultra vielleicht nur noch in 1024x768 mit 4XAA und FullAF spielen kann, während dann die X800XT vielleicht doch die 1280x1024/960 schafft.
Das ist der Punkt.

Du hast im Prinzip Recht.
Wenn man allein die Grafikkartenleistung bewerten will und moegliche CPU Bottlenecks vernachlaessigen, dann ist man gut damit beraten die hohen Aufloesungen zu testen. Gerade bei den modernsten Chips die von vielen aktuellen Spielen sonst nicht ausgereizt wuerden.

Der Punkt in diesem konkreten Fall ist aber ein anderer.
Wie ich verstehe geht dem NV40 bei 1600x1200 mit AA und AF voll aufgedreht und triple buffering oben drauf das VRAM aus.
Das ist in gewisser Weise ein Effekt der nur auf diese ultrahohen Aufloesungen zurueckzufuehren ist und der sich nur bei diesen einstellt.

Wenn ich nun einen TFT mit 1280x1024 nativer Aufloesung besitze (17'' und 19'' zb), dann werde ich aber weder jetzt noch in Zukunft Spiele bei diesen ultrahohen Aufloesungen (1600x1200 and up) spielen (koennen).
Der Makel des Mangels an VRAM, der einem heutigen Test bei 1600x1200 nun mal zugrunde liegt, wird sich auf mich nicht auswirken. Weder heute noch morgen (solange ich zumindest keinen TFT mit 1600x1200 nativ besitze).

Insofern ist die "Prognose" fehlerhaft.

regards, alex

Holundermann
2004-11-11, 14:02:32
Ich würd eher mal sagen, das wir alle mal etwas abwarten sollten, bevor wir uns so weit aus dem Fenster lehnen, denn am Ende kanns anders kommen als man meint...

jo, ich denk das sollten wir uns alle mal zu herzen nehmen. derzeitiges faktum ist und bleibt wohl (vorerst ;)) das die x800 xt(pe) der ultra in den meisten titeln in der 1600er auflösung davonzieht.

Gast
2004-11-11, 14:05:54
Oh man ihr seid so ne Kiddys streitet euch welche Karte schnellerist ZZZZZZZ
Die Nvidia Freaks wollen nicht einsehen das die Ultra in jeden spiel ausser doom3 ein tick langsamer ist als ne XT PE.
Die Atiler wollen mit ihrer XT PE angeben weil sie paar frames schneller ist ZZZ.
Habt ihr euch zu lebensaufgabe gemacht über Grafikkarten zu diskutieren.
Habe selber ne 6800 Gt (msi)läuft in Ultra tackt,bin zufrieden,schön schnell.
Auf der anderen seite muss ich zugeben das die XT PE halt immer ein kleines bisschen schneller ist,dadurch bricht doch für euch keine Welt zusammen oder=?
Wie es aussieht schon.