PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Half life 2 Benchmarks (Single Player ingame)


mapel110
2004-11-18, 05:59:52
http://www.anandtech.com/video/showdoc.aspx?i=2278&p=1
guckt ihr da.

max 22.4 Prozent liegt die XT vor der Ultra(1600x1200x 4xAA, ohne AF)

Erstaunlich gut schlägt sich die x800 Pro im Vergleich zur 6800 GT. wurden allerdings auch nur bis 1280er Auflösung gebencht.

Anscheinend alle Benchmarks ohne AF, weils ihnen zuviel "geschimmert" hat. Das steht aber nicht im Text.
Irgendwie macht das alle Zahlen recht sinnlos. :|

/edit
Im Fazit reden die auch von AF-Performance. Bin ich blind?

/edit
http://www.thetechlounge.com/article.php?directory=hl2_performance
http://www.hardocp.com/article.html?art=NjkyLDE=

http://www.3dchipset.com/forums/viewtopic.php?t=1513&sid=59c07945d77f21e2086ca503d77fc444
hardocp timedemos.

/edit
Keine XT PE, sondern wohl XT.

Gast
2004-11-18, 07:34:51
http://www.anandtech.com/video/showdoc.aspx?i=2278&p=1
guckt ihr da.

max 22.4 Prozent liegt die XT PE vor der Ultra(1600x1200x 4xAA, ohne AF)

Erstaunlich gut schlägt sich die x800 Pro im Vergleich zur 6800 GT. wurden allerdings auch nur bis 1280er Auflösung gebencht.

Anscheinend alle Benchmarks ohne AF, weils ihnen zuviel "geschimmert" hat. Das steht aber nicht im Text.
Irgendwie macht das alle Zahlen recht sinnlos. :|

/edit
Im Fazit reden die auch von AF-Performance. Bin ich blind?

/edit
http://www.thetechlounge.com/article.php?directory=hl2_performance
http://www.hardocp.com/article.html?art=NjkyLDE=


Das ist schon erstaunlich, gerade weil du die Auflösung gebencht hast die 80% der Gamer verwenden.

Gast
2004-11-18, 08:11:31
Erstaunlich gut schlägt sich die x800 Pro im Vergleich zur 6800 GT. wurden allerdings auch nur bis 1280er Auflösung gebencht.


"Erstaunlich gut"?
Beide Karten liegen auf und dem selben Niveau.

LovesuckZ

Gast
2004-11-18, 08:19:09
"Erstaunlich gut"?
Beide Karten liegen auf und dem selben Niveau.

LovesuckZ



Update: We have gone back and updated our pages with a couple of graphs that show Maximum IQ settings in terms of AA and AF. Without a doubt the ATI Radeon X800XT-PE did by the far the best job at delivering a playable gaming experience. Of course it is up to the end user to determine if turning these options on give you any tangible gaming returns, but without a doubt if you want to run "ultra high quality settings," the ATI Radeon X800XT-PE gives a much better return than NVIDIA's solution.

hardocp

Wenn sich dieses Erbegnis für dich "gleichauf" anhört, dann ist für dich auch ein Audi A8 genauso schnell wie ein Porsche Turbo, wobei AUDI kein schlechtes Fz. ist.

Audi 8 = nv68
Porsche Turbo = X800

Sieger: X800
Looser: nv68

Dancer
2004-11-18, 08:43:51
Wenn sich dieses Erbegnis für dich "gleichauf" anhört, dann ist für dich auch ein Audi A8 genauso schnell wie ein Porsche Turbo, wobei AUDI kein schlechtes Fz. ist.

Audi 8 = nv68
Porsche Turbo = X800

Sieger: X800
Looser: nv68

er bezog sich auf die X800pro nicht auf die XT-PE

Crushinator
2004-11-18, 10:10:51
"Erstaunlich gut"?
Beide Karten liegen auf und dem selben Niveau. Das ist doch erstaunlich gut für die 12 Pipige X800Pro, oder nicht?

dildo4u
2004-11-18, 10:14:30
Das ist doch erstaunlich gut für die 12 Pipige X800Pro, oder nicht?
Nich vergessen 350 gegen 475 chip takt gleichzeitig ist es ein ATI game ich bin der meiung das ATI bei Doom3 weiter zurück hin noch ohne shaderreplacement als Nvidia jetzt bei HL2.

Crushinator
2004-11-18, 10:22:36
Wenn ich jetzt das Verhältnis von 16 zu 12 auf den Takt übertrage, sind sie theoretisch auf dem selben Niveau, und wenn Valve das selbe im Sinn hat, wie jedes andere Softwarehaus, nämlich daß ihr Spiel auf möglichst allen Plattformen vernünftig performt, und der ATi-Deal sich nur auf die Vermarktung/Bundling bezog, kommt es auch gut hin. Außerdem sehe ich darin nichts kritisches, wenn ein Game auf dem 68GT so gut läuft.

Vielleicht seh' ich das ganze auch einfach nur etwas lockerer. ;)

Gast
2004-11-18, 10:24:28
http://www.anandtech.com/video/showdoc.aspx?i=2278&p=1
guckt ihr da.

max 22.4 Prozent liegt die XT PE vor der Ultra(1600x1200x 4xAA, ohne AF)


Äh, da wurde aber keine XT-PE verwendet, sondern nur eine XT.

BlackBirdSR
2004-11-18, 10:44:49
Auf die gefahr hin, mich als Spielverderber zu outen:

Sind denn jetzt alle reviewer so sau blöde, und Grafikkarten geil, dass sie nicht einen Moment für CPU benches verschwenden?

Eine 9800Pro auf Athlon64 4000+ erreicht 100fps... super, das ist prima.
Aber was zum Geier erreicht die gleiche Karte auf einem XP2000+ oder Xp3000+?

Kaum einer mit einem Athlon64 4000+ wird eine Radeon9800Pro haben.
Aber welcher "idiot" hat eine NV40 in einem Xp2000?

Hallo? Bin ich der Einzige der denkt, dass diese ganzen Reviews nur FPS geil sind, und Inhaltlich nahezu NULL Verwertbares aufbringen?

Demirug
2004-11-18, 10:51:57
Wenn ich jetzt das Verhältnis von 16 zu 12 auf den Takt übertrage, sind sie theoretisch auf dem selben Niveau, und wenn Valve das selbe im Sinn hat, wie jedes andere Softwarehaus, nämlich daß ihr Spiel auf möglichst allen Plattformen vernünftig performt, und der ATi-Deal sich nur auf die Vermarktung/Bundling bezog, kommt es auch gut hin. Außerdem sehe ich darin nichts kritisches, wenn ein Game auf dem 68GT so gut läuft.

Vielleicht seh' ich das ganze auch einfach nur etwas lockerer. ;)

Ob das Valve wirklich im Sinn hatte? nVidia wurde ja recht kurz gehalten indem sie nur bei Valve selbst testen durften und am Ende sogar ihere Rechner dort lassen mussten um sie erst irgendwann nach dem offiziellen Release wieder zu bekommen. Ergo hatte nVidia auch keine Timedemos die sie mal schnell an die Presse verteilen konnten.

Aber du hast recht solange es gut läuft muss man das erst mal nicht so eng sehen.

mapel110
2004-11-18, 10:58:54
Äh, da wurde aber keine XT-PE verwendet, sondern nur eine XT.

scheint wirklich so. jedenfalls find ich keine Angaben zum Takt der Karte.


Hallo? Bin ich der Einzige der denkt, dass diese ganzen Reviews nur FPS geil sind, und Inhaltlich nahezu NULL Verwertbares aufbringen?

sollte ein Grafikkartenvergleich werden, kein CPU-Vergleich. ;)

Crushinator
2004-11-18, 11:00:36
(...) Hallo? Bin ich der Einzige der denkt, dass diese ganzen Reviews nur FPS geil sind, und Inhaltlich nahezu NULL Verwertbares aufbringen? Nein, ich denke genau so. Nebenbei und nicht HL2 bezogen: Den absoluten Bock hat für mich die c't abgeschossen, als sie beim neuen neuen Aldi-PC die 3D-Performance Beurteilung "sehr gut" aufgrund von Quake3 und Doom3 als einzige echte Game-Tests vergaben. :D

BlackBirdSR
2004-11-18, 11:03:12
sollte ein Grafikkartenvergleich werden, kein CPU-Vergleich. ;)Und schaus dir doch mal an?
Jede Page bringt erstmal ihre Benchmarks mit den High End Karten.
Ehrlich gesagt: Wer eine NV40/X800 hat, der spielt das Spiel eh ohne Probleme.

Aber was ist mit den Anderen?
Und den Stress Test und Performance Test mit der Source Engine, können sich die bei Valve wieder ihre dicken Ärsche stecken :P
Ich würde nicht darauf vertrauen, dass diese die gleiche CPU Last erzeugen.

Hat nicht jemand ein Review, in dem auch auf CPUs Wert gelegt wird?
Ansonsten finde ich das extrem erbärmlich. Sind wir jetzt auch im Netz schon auf Computerbildniveau?
Hauptsache man tut der FPS Geilheit der Masse genüge....

Gortha
2004-11-18, 11:05:50
Tja das ist echt schade, dass so gut wie in jedem Test nur die dicksten AMDs
bzw. P4 EE eingesetzt werden.

Wo doch jeder weis, das die Masse der Gamer eine AthlonXP hat gefolgt von
einem P4 unter 3,2 GHz.

Grüsse
Gortha

deekey777
2004-11-18, 11:41:20
Zumindest steht bei Anandtech:
"We’ve left a number of questions unanswered here today involving older/slower hardware, so be sure to check back for part II of our Half Life GPU comparison to find out how well older hardware performs under Valve’s amazing game. Thanks for taking a break from playing Half Life 2 to read this, now get back to it…"
Das macht Hoffnung, aber BlackBirdSR hat schon Recht, Tests mit einer schwächeren CPU wären wünschenswert. Aber meinte der Citizen Gabe, dass HL2 eher eine schnelle Grafikkarte braucht und die CPU eher zweitrangis sei?

Zum Glück werden einige selbst ihre Ergebnisse posten.

Gast
2004-11-18, 11:47:05
Das ist doch erstaunlich gut für die 12 Pipige X800Pro, oder nicht?

Oehm, 12 Pipes und 475MHz oder 16 Pipes mit 350, ist, bezueglich der Fillrate/Shaderleistung egal.
Wie waere es mit der Vertexshaderleistung, die da maßgeblich vom Coretakt beeinflusst wird. Und das bei 6 Vertexshader auf beiden Seiten.

q@w
2004-11-18, 11:47:43
Aber du hast recht solange es gut läuft muss man das erst mal nicht so eng sehen.

Die Frage ist nur, wie gut es laufen könnte. Bestimmt kommt bald ein HL2-Treiber Rev1.1 von den Grünen Jungs und die Roten Jungs werden sicherlich ihr A.I. noch etwas aufbohren.

Closertogod
2004-11-18, 12:16:09
Ich sehe das genauso wie BlackBirdSR. Es wird viel zuwenig wert auf das Gesamte gelegt. Wie schon gesagt würde baut sich keiner einen FX55 zusammen und steckt dann eine 9800Pro rein wenn er zocken will. dann wird er entweder sich eine adäquate Karte kaufen oder weniger Geld ausgeben und sich dann was Passendes an Graka kaufen.

Ich kauf ja auch keinen Porsche Turbo und bastel dann HR-Reifen drauf mit denen ich das Teil nicht ausfahren kann wenn es mal sein sollte.
Insofern sind Benches und Reviews nur aussagekräftig wenn man das ganze System in Relation setzt.

Gast
2004-11-18, 12:20:03
Nich vergessen 350 gegen 475 chip takt gleichzeitig ist es ein ATI game ich bin der meiung das ATI bei Doom3 weiter zurück hin noch ohne shaderreplacement als Nvidia jetzt bei HL2.

Und ich glaube das ATI leckeren Kaffee hat als nvidia, ;)

Und überhaupt sind 101fps gegen 97fps schon echt ne nummer*ggg*

Dr Hake
2004-11-18, 14:19:29
achja,erstaunlich wieviel Takt die x800pro doch dazu braucht :)


hat nicht die Gt bei gleicher Fuellrate 11% mehr Bandbreite? :D :P

Gast
2004-11-18, 14:35:11
So there's definitely an improvement with 8X anisotropic filtering enabled but the difference in image quality between ATI and NVIDIA is tough to quantify. The two look quite similar in our opinion, with ATI getting the nod for slightly better image quality (the difference is quite subtle).

One issue we found in Half Life 2 with anisotropic filtering enabled is that the amount of resulting texture shimmering was borderline unbearable. The shimmering was worse on NVIDIA cards than on ATI cards, but it was definitely present on both. Part of the cause of the shimmering was the fact that all modern ATI and NVIDIA cards have resorted to a less ideal method of distance calculation for anisotropic filtering, which contributes to the shimmering issues we noticed under Half Life 2. With the release of the GeForce 6 series, NVIDIA moved to a method of anisotropic filtering using a weighted manhattan distance calculation, similar to what ATI had been doing for quite a while. The problem with the weighted manhattan distance calculation is that it is much more sensitive to the orientation of a surface in respect to the viewer, which can cause more of these shimmering issues.
...

In terms of anisotropic filtering image quality, we just showed that we were hard pressed to find any image quality differences between ATI and NVIDIA’s solutions under Half Life 2. In motion however, NVIDIA’s drivers did seem to cause more texture shimmering than ATI’s with anisotropic filtering enabled.

das bestätigt wieder mal alle "Gerüchte" (wie die roten immer sagen). Aber nein es flimmert ja nur in BF1942 und nur manchmal ... rofl. jaja ;)

Gast
2004-11-18, 14:35:47
...
das bestätigt wieder mal alle "Gerüchte" (wie die roten immer sagen). Aber nein es flimmert ja nur in BF1942 und nur manchmal ... rofl. jaja ;)

die Grünen natürlich !

Xmas
2004-11-18, 15:26:33
Könnte das Pipeline/Takt-Gespamme sowie das Rot/Grün-Geflame jetzt bitte unterlassen werden?

Zurück zum Topic. Es geht um HL2-Benches, nur zur Erinnerung.

Gast
2004-11-18, 15:31:30
Also der Anandtech Benchmark ist irgendwie auch nicht gerade toll:

1. Es wurde nur eine X800 XT (500/500 )gegen eine 6800 Ultra (400/550) gebencht. Sprich die 6800U hat neben der Tatsache dass sie gar nicht im Preissegment der X800XT liegt auch noch einen Bandbreitenvorteil.

2. Es wurde nicht mit Reflect All getestet sondern nur mit Reflect World, und da wundern die sich dass sie so oft CPU limitiert sind...

hoffentlich gibts bald bessere Benchmarks.

mapel110
2004-11-18, 21:27:01
ftp://beta0098:3WWWWvxp@ftp1.ati.com/
hier solls die ATI demo geben, also die für die ATI-Benchmarks vor ein paar Tagen herhalten mussten. Quelle Rage3d.com
Komme aber bislang nicht auf den Server.

BlackBirdSR
2004-11-18, 23:07:08
Also der Anandtech Benchmark ist irgendwie auch nicht gerade toll:

1. Es wurde nur eine X800 XT (500/500 )gegen eine 6800 Ultra (400/550) gebencht. Sprich die 6800U hat neben der Tatsache dass sie gar nicht im Preissegment der X800XT liegt auch noch einen Bandbreitenvorteil.

2. Es wurde nicht mit Reflect All getestet sondern nur mit Reflect World, und da wundern die sich dass sie so oft CPU limitiert sind...

hoffentlich gibts bald bessere Benchmarks.

mach das beste draus..
jetzt weisst du wie die X800XT gegen die NV40Ultra performed.
Ist ja nicht so, dass es bei den Benches darum geht einen absoluten gewinner zu finden, oder?
Ist das wie im TV? Wettkampt, Siegerehrung, Zuschauer zufrieden?

Zurück zum Thema:
Gibt es irgendwo Benches in denen versch. CPUs benutzt wurden?
Wäre sehr! lesenswert, würde ich sagen. Sowas wie eine Testlücke
;D

Gandharva
2004-11-18, 23:31:03
Die Frage ist nur, wie gut es laufen könnte. Bestimmt kommt bald ein HL2-Treiber Rev1.1 von den Grünen Jungs und die Roten Jungs werden sicherlich ihr A.I. noch etwas aufbohren.
exakt. und wenn beide treiber bezüglich hl2 in etwa ausgereizt sind, wird der unterschied zwischen den konkurierenden modellen wieder verschwindend gering sein.

Gast
2004-11-19, 00:54:33
http://www.xbitlabs.com/articles/video/display/half-life.html

Bei den etwas "Shaderlastigeren" Benches liegen die Highend NV Karten immer zurück, speziell der "Canals" Bench zeigt, das hier sicher nicht die CPU Limitiert sondern einfach die Graka (auch ohne AA/AF) am ende ist, liegen der NV40 Generation die HL2 Shader nicht, kann ja eigentlich nicht mehr sein oder.

Ja ich weis, NV machts in 32Bit Präzi und Ati nur in 24Bit, liegts daran?

Gast
2004-11-19, 00:56:38
Kann ja net angehn das ne R9800XT ne GF6800GT schlägt, da muss was im Treiber oder sonstwo schiefgegangen sein, egal was, an Speed mangelts der GT ja nicht um ne R9800XT abzuhängen.

mapel110
2004-11-19, 01:32:19
haben ja nur mit 66.93 gebencht und nicht mit dem 67.02.

deekey777
2004-11-19, 01:41:34
http://www.xbitlabs.com/articles/video/display/half-life.html

Bei den etwas "Shaderlastigeren" Benches liegen die Highend NV Karten immer zurück, speziell der "Canals" Bench zeigt, das hier sicher nicht die CPU Limitiert sondern einfach die Graka (auch ohne AA/AF) am ende ist, liegen der NV40 Generation die HL2 Shader nicht, kann ja eigentlich nicht mehr sein oder.

Ja ich weis, NV machts in 32Bit Präzi und Ati nur in 24Bit, liegts daran?


Die NV40 hat aber auch 60 Mio Transistoren mehr. Ich glaub, dieses Argument mit der höheren Präzision zieht nicht mehr.


As usual, we set the graphics quality of the game to the same level so that the RADEON and the GeForce hardware produced an image of the same quality. We also wanted to check out the influence of NVIDIA’s new driver (ForceWare 67.02) on the performance, but found that the difference between the new version and ForceWare 66.93 was no more than 1-2fps in the three scenes we used in our tests. Considering that the absolute fps rates are about 60-100fps, this difference fits into the measurement error range.

betasilie
2004-11-19, 01:42:06
haben ja nur mit 66.93 gebencht und nicht mit dem 67.02.
Tja, selber Schuld, wenn NV kaum offizielle Treiber bringt und alle paar Tage irgendwelche beta Treiber leaked. Da kann man keinem Reviewer einen Vorwurf machen. Wer soll darauf noch Rücksicht nehmen.

Imo solten Reviewer nur offizielle Treiber nehmen.

Gast
2004-11-19, 01:48:52
Tja, selber Schuld, wenn NV kaum offizielle Treiber bringt und alle paar Tage irgendwelche beta Treiber leaked. Da kann man keinem Reviewer einen Vorwurf machen. Wer soll darauf noch Rücksicht nehmen.

Imo solten Reviewer nur offizielle Treiber nehmen.

Erst lesen dann bashen, sehr niveaulos von dir!

Deekey hat schon den entsprechenden Kommentar für Leute wie dich rauskopiert.

Leonidas
2004-11-19, 04:44:34
Äh, da wurde aber keine XT-PE verwendet, sondern nur eine XT.



Denke ich nicht. Die XT-PE wird öfters nur als "XT" angegeben und das "PE" dabei unterschlagen.

Ich denke, AnandTech wollte in diesem Test die Top-Karten testen. Und da haben sie sicher eine XT-PE genommen und keine XT.

tombman
2004-11-19, 04:53:14
Denke ich nicht. Die XT-PE wird öfters nur als "XT" angegeben und das "PE" dabei unterschlagen.

Ich denke, AnandTech wollte in diesem Test die Top-Karten testen. Und da haben sie sicher eine XT-PE genommen und keine XT.

Spekulation, solang da XT steht isses keine PE ;)

hmx
2004-11-19, 05:01:19
Die NV40 hat aber auch 60 Mio Transistoren mehr. Ich glaub, dieses Argument mit der höheren Präzision zieht nicht mehr.

Und? Dass mit den 60 Mio Transistoren ändert trotzdem nix daran, dass NV höherer Präzision rendert. Wenn jmd sagt Ati ist schneller, sagst du dann auch, die haben ja auch mehr einen höheren Takt, Dieses Argument mit dem höheren Takt zieht nicht mehr?
Ich glaube aber nicht, dass es an der niedrigen Präzision liegt.

tombman
2004-11-19, 05:56:17
Und? Dass mit den 60 Mio Transistoren ändert trotzdem nix daran, dass NV höherer Präzision rendert. Wenn jmd sagt Ati ist schneller, sagst du dann auch, die haben ja auch mehr einen höheren Takt, Dieses Argument mit dem höheren Takt zieht nicht mehr?
Ich glaube aber nicht, dass es an der niedrigen Präzision liegt.

nur leider sieht man diese Präzision auf keinem screenshot und auch nicht IRL.

Die Qualität der Nvidia Treiber hinsichtlich Qualität der Filterung wird immer schlechter. Ich hab bei HL2 sogar auf high quality schalten müssen, was sonst ned nötig ist- einfach deshalb weil HL2 so hochfrequente Texturen benutzt (zb Kieselsteinboden bis ganz nach hinten), daß quality im cp nimmer reicht ...

Piffan
2004-11-19, 07:44:28
Kinderkram mal wieder..........

Es ist auch nicht richtig, dass HL auf älterer Hardware völlig problemlos mit 4x FSAA gezockt werden kann. Bin erst vor dem Level Ravenholm und habe genug Level entdeckt, die Höchstleistung von der Graka abverlangen. Da muss ich mit meiner auf 390 Mhz getakteten R 9700 mit FSAA und AF haushalten.

Die Sequenz mit dem über den Kanal fallenden Schornstein war einmal die reinste Diashow, als ich in dem Qualm herumtuckerte. Da habe ich neu geladen und die Auflösung auf 800x600 2xFSAA und 4xAF (Stageopt.) runtergesetzt. Dadurch waren die Einbrüche beseitigt...

Die Benches picken sich wohl immer bestimmte Sequenzen raus, die aber oft nicht für alle Situationen des Spiels gelten. Ist bei Farcry nicht anders, je nachdem ob Außenlevel oder Innenräume....

Wenn der Spielehersteller ne Konfiguration auf der Packung empfiehlt, dann ist der Proz meist untertrieben und die Graka taugt nur ohne AF/FSAA....

Der Mythos von der hochperformanten Source- Engine ist wohl auch ein Witz angesichts der unzähligen und leider sichtbaren Tricks, den Rechenaufwand zu verringern.
In City 17 gabs Stellen im Kanal, die ausgesprochen schlecht performten angesichts der doch kleinen Wasseroberflläche. Das Wasser scheint wesentlich mehr die Graka zu fordern als die großen Wasserareale als in Farcry....

Die Programmierer können alle nur mit Wasser kochen.......HL ist im Großen und Ganzen gut optimiert und durchgehend gut spielbar (soweit ich es bis jetzt (Ravenholm) gesehen habe, aber grafisch und technologisch eher Hausmannskost. Was dem Spiel aber nicht abträglich ist......

seahawk
2004-11-19, 08:04:06
Kinderkram mal wieder..........

Es ist auch nicht richtig, dass HL auf älterer Hardware völlig problemlos mit 4x FSAA gezockt werden kann. Bin erst vor dem Level Ravenholm und habe genug Level entdeckt, die Höchstleistung von der Graka abverlangen. Da muss ich mit meiner auf 390 Mhz getakteten R 9700 mit FSAA und AF haushalten.

Die Sequenz mit dem über den Kanal fallenden Schornstein war einmal die reinste Diashow, als ich in dem Qualm herumtuckerte. Da habe ich neu geladen und die Auflösung auf 800x600 2xFSAA und 4xAF (Stageopt.) runtergesetzt. Dadurch waren die Einbrüche beseitigt...

Die Benches picken sich wohl immer bestimmte Sequenzen raus, die aber oft nicht für alle Situationen des Spiels gelten. Ist bei Farcry nicht anders, je nachdem ob Außenlevel oder Innenräume....

Wenn der Spielehersteller ne Konfiguration auf der Packung empfiehlt, dann ist der Proz meist untertrieben und die Graka taugt nur ohne AF/FSAA....

Der Mythos von der hochperformanten Source- Engine ist wohl auch ein Witz angesichts der unzähligen und leider sichtbaren Tricks, den Rechenaufwand zu verringern.
In City 17 gabs Stellen im Kanal, die ausgesprochen schlecht performten angesichts der doch kleinen Wasseroberflläche. Das Wasser scheint wesentlich mehr die Graka zu fordern als die großen Wasserareale als in Farcry....

Die Programmierer können alle nur mit Wasser kochen.......HL ist im Großen und Ganzen gut optimiert und durchgehend gut spielbar (soweit ich es bis jetzt (Ravenholm) gesehen habe, aber grafisch und technologisch eher Hausmannskost. Was dem Spiel aber nicht abträglich ist......

Was hast Du für ne CPU ??

Bei mir lief die Schornsteinszene absolut flüssig mit einer 9700pro @ default und 1024x768 2xAA+2xAF.

4xAA halte ich allerdings auch für unmöglich.

Gast
2004-11-19, 08:34:56
Kann man HL² (oder Steam) irgendwie mit 3Da auf "reduzierte" Genauigkeit zwingen?

LovesuckZ

Quasar
2004-11-19, 08:48:18
Probier's aus - "Force Low Precision Pixel Shader" gibt es ja als D3D-Option.

gnomi
2004-11-19, 09:46:28
Der Mythos von der hochperformanten Source- Engine ist wohl auch ein Witz angesichts der unzähligen und leider sichtbaren Tricks, den Rechenaufwand zu verringern.
In City 17 gabs Stellen im Kanal, die ausgesprochen schlecht performten angesichts der doch kleinen Wasseroberflläche. Das Wasser scheint wesentlich mehr die Graka zu fordern als die großen Wasserareale als in Farcry....

Die Programmierer können alle nur mit Wasser kochen.......HL ist im Großen und Ganzen gut optimiert und durchgehend gut spielbar (soweit ich es bis jetzt (Ravenholm) gesehen habe, aber grafisch und technologisch eher Hausmannskost. Was dem Spiel aber nicht abträglich ist......

Stimmt IMHO generell betrachtet schon so weit, aber von Hausmannskost würde ich bei Half-Life 2 dann nicht sprechen wollen.
Spiele, welche designtechnisch auch nur in die Nähe von HL2 kommen, kann man fast schon an einer Hand abzählen. Wenn ich mir z.B das Project Nova Level angucke. :massa:
Gelegentlich wirkt es ein wenig kantig (liegt am sehr niedrigen Polycount) und statisch. Hin und wieder sieht man auch den antiquirerten Technikeinsatz ein wenig. Auch ist klar, daß Far Cry bezügl. der Außenlandschaften nicht zu schlagende Geschütze auffährt.
Aber insgesamt gibt es von mir trotzdem ein ganz großes WOW. Design, Texturierung, Shadereffekte, Detailtreue- mir gefällt es grafisch defintiv ein ganzes Stück besser als Far Cry. Persönlich bleibt Doom 3 aber mein Favorit. Mir egal, wie wenig manch einer Wert auf Licht-und Schattenspiele legt und wie viele sich kein Spiel ohne natürlich wirkende Außenlandschaften mehr geben wollen. Mich hat es grafisch und technisch mehr als alles andere seit Unreal 1 begeistert.
Was die Engine angeht, sehe ich Far Cry (Allround) und Doom 3 (speziell) leicht vorne. Valve muß doch über den Content und das Design auch quasi schon alles aus der Engine rausholen, um grafisch gleichzuziehen. (außerdem profitiert es dabei auch von natürlich wirkenden Animationen und dem spektakulären Physikeinsatz, denn die Qualität der Grafik läßt sich isoliert vom Spiel selber nur sehr schlecht betrachten)
Ich glaube nicht, daß Vampire Bloodlines z.B. auch nur ansatzweise mit HL2 mithalten kann. Nicht jeder bringt derart viel Content in sein Spiel und entwickelt jahrelang akribisch und perfektionistisch dran.
Aber nun gut, letztendlich ist das alles auch nur Spekulation. Ich mag mich da durchaus irren und eines besseren belehrt werden...

Zu den Benchmarks:
Nichts wirklich Neues. Alles ziemlich im Bereich des Erwartenden liegend...

Demirug
2004-11-19, 10:35:33
Kann man HL² (oder Steam) irgendwie mit 3Da auf "reduzierte" Genauigkeit zwingen?

LovesuckZ

Beim NV40 bringt es nach meinen bisherigen Tests nichts. Wobei ich das mal noch an einer Stellen mit aufwendigen Shadern testen müss.

Den NV35 hatte ich seit HL2 noch nicht wieder im Rechner aber dort erwarte ich schon einen Leistungszugewinn.

Gast
2004-11-19, 11:12:46
Beim NV40 bringt es nach meinen bisherigen Tests nichts. Wobei ich das mal noch an einer Stellen mit aufwendigen Shadern testen müss.

Den NV35 hatte ich seit HL2 noch nicht wieder im Rechner aber dort erwarte ich schon einen Leistungszugewinn.

Lol,

so ca. 70% der Gamer verwenden ältere Hardware:

Hier einige Benchmarks:

http://www.p2pworld.to/history/topic/76403-1.html

Pentium 4 2.8 GHz (FSB800) mit aktuellen veröffentlichten Grafikkarten-Treibern mit einer Auflösung von 1.024x768 in 32bit ohne FSAA (Kantenglättung) und AF (Tiefenschärfe)

NVIDIA GeForceFX 5200 Ultra: knapp 10 fps (Bilder pro Sekunde)
NVIDIA GeForceFX 5600 Ultra: etwas über 10 fps
NVIDIA GeForceFX 5900 Ultra: 30 fps
ATi Radeon 9600 Pro : um die 50 fps
ATi Radeon 9800 Pro: um die 60 fps

Peinlich peinlich ;) das die 9600Pro die FX5900 Ultra schlägt!

Das ist eine bittere Pille für NV3x!

hmx
2004-11-19, 11:21:00
nur leider sieht man diese Präzision auf keinem screenshot und auch nicht IRL.

Die Qualität der Nvidia Treiber hinsichtlich Qualität der Filterung wird immer schlechter. Ich hab bei HL2 sogar auf high quality schalten müssen, was sonst ned nötig ist- einfach deshalb weil HL2 so hochfrequente Texturen benutzt (zb Kieselsteinboden bis ganz nach hinten), daß quality im cp nimmer reicht ...

Dass Texturflimmern könnte durch eine neue Option im 67.02 beseitigt werden. Dort kann man ein Negatives LOD im treiber verbieten. Bei Bf1942 hats geholfen.

Quasar
2004-11-19, 11:26:13
Lol,

so ca. 70% der Gamer verwenden ältere Hardware:

Hier einige Benchmarks:

http://www.p2pworld.to/history/topic/76403-1.html

Pentium 4 2.8 GHz (FSB800) mit aktuellen veröffentlichten Grafikkarten-Treibern mit einer Auflösung von 1.024x768 in 32bit ohne FSAA (Kantenglättung) und AF (Tiefenschärfe)

NVIDIA GeForceFX 5200 Ultra: knapp 10 fps (Bilder pro Sekunde)
NVIDIA GeForceFX 5600 Ultra: etwas über 10 fps
NVIDIA GeForceFX 5900 Ultra: 30 fps
ATi Radeon 9600 Pro : um die 50 fps
ATi Radeon 9800 Pro: um die 60 fps

Peinlich peinlich ;) das die 9600Pro die FX5900 Ultra schlägt!

Das ist eine bittere Pille für NV3x!

Ist dir bekannt, wann und unter welchen Umständen diese FPS-Werte entstanden? *g*

Atma
2004-11-19, 11:31:27
Ich zocke mit ner FX 5900 nU (Asus V9950) absolut ohne probleme in 1024x768 no AA/AF kein einziger ruckler bisher. HL2 läuft absolut rund bei mir :smile:

AthlonXP 3200+
FX 5900 nonUltra no OC (67.02'er Forceware)
2x512 MB DDR400 Ram Corsair
ABit NF7-S 2.0
XP Pro + SP2

Demirug
2004-11-19, 11:40:23
Lol,

so ca. 70% der Gamer verwenden ältere Hardware:

Hier einige Benchmarks:

http://www.p2pworld.to/history/topic/76403-1.html

Pentium 4 2.8 GHz (FSB800) mit aktuellen veröffentlichten Grafikkarten-Treibern mit einer Auflösung von 1.024x768 in 32bit ohne FSAA (Kantenglättung) und AF (Tiefenschärfe)

NVIDIA GeForceFX 5200 Ultra: knapp 10 fps (Bilder pro Sekunde)
NVIDIA GeForceFX 5600 Ultra: etwas über 10 fps
NVIDIA GeForceFX 5900 Ultra: 30 fps
ATi Radeon 9600 Pro : um die 50 fps
ATi Radeon 9800 Pro: um die 60 fps

Peinlich peinlich ;) das die 9600Pro die FX5900 Ultra schlägt!

Das ist eine bittere Pille für NV3x!

Ach das sind ja die uralten Shader Day Werte. Gibt es auch Ergebnisse die weniger Staub angesetzt haben?

Gast
2004-11-19, 12:26:39
Beim NV40 bringt es nach meinen bisherigen Tests nichts. Wobei ich das mal noch an einer Stellen mit aufwendigen Shadern testen müss.

Den NV35 hatte ich seit HL2 noch nicht wieder im Rechner aber dort erwarte ich schon einen Leistungszugewinn.

seltsam, in einem kürzlichen Test der 6600 GT hat man dieses B3d Shaderbenchmark tool benutzt, und auch mal wieder PP getestet. Die Unterschiede waren teilw. ziemlich gewaltig (50%).

Da HL2 ein seeeehr Shaderlastiges Game ist kann ich mir das eigentlich nicht erklären dass es nichts bringen sollte. Könnte es sein das NV das im Treiber bereits "replaced" (eine Art force PP )?

Gast
2004-11-19, 12:27:33
seltsam, in einem kürzlichen Test der 6600 GT hat man dieses B3d Shaderbenchmark tool benutzt, und auch mal wieder PP getestet. Die Unterschiede waren teilw. ziemlich gewaltig (50%).

Da HL2 ein seeeehr Shaderlastiges Game ist kann ich mir das eigentlich nicht erklären dass es nichts bringen sollte. Könnte es sein das NV das im Treiber bereits "replaced" (eine Art force PP )?

Rightmark hiess es, Test ist auf Firingsquad iirc.

Demirug
2004-11-19, 12:51:09
seltsam, in einem kürzlichen Test der 6600 GT hat man dieses B3d Shaderbenchmark tool benutzt, und auch mal wieder PP getestet. Die Unterschiede waren teilw. ziemlich gewaltig (50%).

Die Shader welche in dem Test enhalten sind können von PP profitieren weil sie entsprechenden Anweisungen enthalten.

Da HL2 ein seeeehr Shaderlastiges Game ist kann ich mir das eigentlich nicht erklären dass es nichts bringen sollte. Könnte es sein das NV das im Treiber bereits "replaced" (eine Art force PP )?

Also beim NV40 wird auf keinen Fall PP erzwungen. Es ist viel eher so das die Shader von HL2 einfach kaum was enthalten was mit FP16 noch zu beschleunigen wäre. Zudem bezweifle ich auch etwas das bei hohen AF Einstellungen das Spiel wirklich noch stark Shaderlastig ist. Die meisten Shader enthalten immer noch einen sehr hohen Textureanteil. Gerade weil Valve eine neue Lightmapping Methode benutze die sehr viele Texturen pro Pixel braucht.

BlackBirdSR
2004-11-19, 13:35:13
na endlich hat mal jemand genug Hirn um wenigstens an CPUs zu denken:
http://www.firingsquad.com/hardware/half_life_2_cpu_shootout/page4.asp

Leider nicht genug Hirn, um auch an normale User zu denken.
Aber vielleicht kommt einer mal irgendwann auf die geniale Idee, Benchmarks für die Massen zu machen.
XP2000+ Rad9700 , P4 2.8GHz GF5900
Athlon 1.4GHz GFTi4200

dildo4u
2004-11-19, 13:58:38
na endlich hat mal jemand genug Hirn um wenigstens an CPUs zu denken:
http://www.firingsquad.com/hardware/half_life_2_cpu_shootout/page4.asp

Leider nicht genug Hirn, um auch an normale User zu denken.
Aber vielleicht kommt einer mal irgendwann auf die geniale Idee, Benchmarks für die Massen zu machen.
XP2000+ Rad9700 , P4 2.8GHz GF5900
Athlon 1.4GHz GFTi4200
Leider sind so benches relativ sinnlos bei dem game nämlich wenn ich ein paar kisten stapele und dann noch was explodieren lasse wird die cpu belastung ungleich höher wegen der grandieosen HavokPhysik das hängt also zum größten teil vom user ab wie viel cpu power mann braucht besonders im level ravenholm.

Crushinator
2004-11-19, 14:06:35
(...) Aber vielleicht kommt einer mal irgendwann auf die geniale Idee, Benchmarks für die Massen zu machen.
XP2000+ Rad9700 , P4 2.8GHz GF5900
Athlon 1.4GHz GFTi4200 Mal eine Idee: Warum machen wir das nicht selbst? Es sollte sich doch einrichten lassen eine feste Vorgehensweise zu definieren und ausgewählte/freiwillige User aus unserem Forum führen sie aus. Das Ergebnis wird Leo vorgelegt und er könnte es veröffentlichen. Dann hätten wir den ultimativen Test für die Massen.

Gast
2004-11-19, 14:17:16
hier neue Benchmarks:

http://www.xbitlabs.com/articles/video/display/half-life_1.html

irgendwie liegen da die ATI Karten verdammt weit vorne im Vgl. zu Anandtech z.b.... schon komisch ;)

Mr. Lolman
2004-11-19, 14:23:31
Vielleicht hat anandtech, entgegen den 3DC News Mutmassungen doch nur ne normale x800 XT (ohne PE) getestet.

Die Performance der 9800XT ist IMO auch äusserst beeindruckend. Überhaupt wenn man bedenkt, dass die einen Großteil der ganzen AF Optimierungen garnicht beherrscht.

dildo4u
2004-11-19, 14:27:42
Vielleicht hat anandtech, entgegen den 3DC News Mutmassungen doch nur ne normale x800 XT (ohne PE) getestet.
ne daran liegts nich anandtech hat nich mit alle details nämlich Refelct all getestet macht sich besonders in der timedemo tunnels wo man die ganze zeit im wasser fährt bemerkbar ist sher GK lastig X-Bit labs scheint wiklich mit allen details an getestet zu haben.


Und irgendiwe machen es sich die ATI karte auch leichter sie Blenden eher objekte weg siehe hier

ATI rechts hinten auf die bäume achten
http://www.xbitlabs.com/images/video/half-life/3_ati_old.jpg

Nvidia
http://www.xbitlabs.com/images/video/half-life/3_nv_old.jpg

Gast
2004-11-19, 14:31:59
also das Canals Level scheint den NV Karten überhaupt nicht zu liegen, was wird dort gerendert(hab das Game noch nicht)

Demirug
2004-11-19, 14:32:17
Erschwerend könnte noch hinzu kommen das X-Bit im Gegensatz zu Anand die ATI Demos benutzt hat. Bei HL2 kann die verwendete Demo durchaus darüber entscheiden wo der primäre Flaschenhals liegt.

Gast
2004-11-19, 14:39:44
Glaube nur die _C17_12 Demo wurde bei beiden erwendet ansonsten hat da jeder andere Demos genutzt.

http://www.xbitlabs.com/articles/video/display/half-life_8.html
http://www.xbitlabs.com/articles/video/display/half-life_9.html

http://www.anandtech.com/video/showdoc.aspx?i=2278&p=11

Anand hat wohl nirgends AF eingeschaltet, sonst wärens ja nicht 20FPS Unterschied bei gleichen Settings. Aber wenn man die Tests ohne AA/AF vergleicht... versteh ich nicht

Gast
2004-11-19, 14:46:10
ne daran liegts nich anandtech hat nich mit alle details nämlich Refelct all getestet macht sich besonders in der timedemo tunnels wo man die ganze zeit im wasser fährt bemerkbar ist sher GK lastig X-Bit labs scheint wiklich mit allen details an getestet zu haben.


Und irgendiwe machen es sich die ATI karte auch leichter sie Blenden eher objekte weg siehe hier

ATI rechts hinten auf die bäume achten
http://www.xbitlabs.com/images/video/half-life/3_ati_old.jpg

Nvidia
http://www.xbitlabs.com/images/video/half-life/3_nv_old.jpg


Die weisen auch darauf hin das die Hintergründe bei NV anderst ausschauen als bei ATI, sieht man ja schön an dem Berg von den ersten Bildern.

Gast
2004-11-19, 15:19:24
ne daran liegts nich anandtech hat nich mit alle details nämlich Refelct all getestet macht sich besonders in der timedemo tunnels wo man die ganze zeit im wasser fährt bemerkbar ist sher GK lastig X-Bit labs scheint wiklich mit allen details an getestet zu haben.


Und irgendiwe machen es sich die ATI karte auch leichter sie Blenden eher objekte weg siehe hier

ATI rechts hinten auf die bäume achten
http://www.xbitlabs.com/images/video/half-life/3_ati_old.jpg

Nvidia
http://www.xbitlabs.com/images/video/half-life/3_nv_old.jpg

LOL.

Schau dir mal den Stein unten links im Bild an, oberhalb der 100, da erkennst wie nv mit nahen Objekten umgeht! ;) Der Stein hat plötzlich eine Kante, hingegen er bei ATI eine natürlich Form hat. Dein Baumvergleich belegt das ATI und NV andere Shader berechnen!

Ich sehe aber noch mehr!

Das NV-Bild ist um 3KB grösser! 304 zu 301 KB, was bedeutet das, die Bilder sind WERTLOS! Manipuliert oder was ??? ;)

Kann ja sein das nv -Karten deshalb langsamer sind weil sie pro Bild 3KB mehr berechnen müssen.

:)

lach mich gleich weg hier!

tRpii
2004-11-19, 15:19:47
Und irgendiwe machen es sich die ATI karte auch leichter sie Blenden eher objekte weg siehe hier



ist eigentlich eher so, dass nV mit fog Probleme haben soll.. wurde schon diskutiert (HOCP) und fog kann mehr Performance kosten als man ohne gewinnt..

roman
2004-11-19, 15:31:44
Wie siehts eigentlich mit 3dc aus? HL2 sollte doch eines der ersten Games sein, die dieses Feature benutzen. Tut es das auch wirklich und vor allem: was hats für einen Einfluss auf die Performance?

Demirug
2004-11-19, 15:40:47
Wie siehts eigentlich mit 3dc aus? HL2 sollte doch eines der ersten Games sein, die dieses Feature benutzen. Tut es das auch wirklich und vor allem: was hats für einen Einfluss auf die Performance?

Gar keinen weil es noch nicht eingebaut ist. Wird vielleicht per Patch nachgeliefert.

Jesus
2004-11-19, 15:51:29
LOL.

Schau dir mal den Stein unten links im Bild an, oberhalb der 100, da erkennst wie nv mit nahen Objekten umgeht! ;) Der Stein hat plötzlich eine Kante, hingegen er bei ATI eine natürlich Form hat. Dein Baumvergleich belegt das ATI und NV andere Shader berechnen!

sieht aus wie ne leichte "Reflexionsvereinfachung" kann aber auch nur ne Welle sein, da war ich noch net ;)

Jesus
2004-11-19, 16:00:33
Erschwerend könnte noch hinzu kommen das X-Bit im Gegensatz zu Anand die ATI Demos benutzt hat. Bei HL2 kann die verwendete Demo durchaus darüber entscheiden wo der primäre Flaschenhals liegt.

As we said above, we used three demos for the first version of the article. The demo sequences were recorded on Canals 09, Town 01 and D3 C17 12 levels of the game. ATI Technologies offered us demos made by ATI’s technical specialists, but we decided to use our own sequences for testing, except the Town 01 sequence, which had been made most professionally. We only renamed the Town 01 demo file to avoid any accusations that ATI used any unfair optimizations for the particular demo.

Fast 100% schneller ist schon heftig auf der Canals Map, welche Shader sind denn das die dem NV40 da gar nicht zu schmecken scheinen ?

dildo4u
2004-11-19, 16:11:19
Fast 100% schneller ist schon heftig auf der Canals Map, welche Shader sind denn das die dem NV40 da gar nicht zu schmecken scheinen ?
Wie gesagt das liegt daran das man die ganze zeit mit dem Luftkissenboot im wasser unterwegs ist in dem sich alles spiegelt.

Jesus
2004-11-19, 16:13:37
Wie gesagt das liegt daran das man die ganze zeit mit dem Luftkissenboot im wasser unterwegs ist in dem sich alles spiegelt.

Naja, klar aber das sind ja Pixelshader die da benutzt werden für die Reflexionen. Ich meine ist das was spezielles oder wie sehen die aus (was den Performanceunterschied erklärt, Takt kanns ja nicht sein ).

Tjell
2004-11-19, 16:27:43
LOL.

Schau dir mal den Stein unten links im Bild an, oberhalb der 100, da erkennst wie nv mit nahen Objekten umgeht! ;) Der Stein hat plötzlich eine Kante, hingegen er bei ATI eine natürlich Form hat. Dein Baumvergleich belegt das ATI und NV andere Shader berechnen!

Ich sehe aber noch mehr!

Das NV-Bild ist um 3KB grösser! 304 zu 301 KB, was bedeutet das, die Bilder sind WERTLOS! Manipuliert oder was ??? ;)

Kann ja sein das nv -Karten deshalb langsamer sind weil sie pro Bild 3KB mehr berechnen müssen.

:)

lach mich gleich weg hier!Schonmal Wasser gesehen? Soll je nach Wellengang anders reflektieren hört man munkeln.
Dasselbe ist hier bei HL2 der Fall. :wink:

Quasar
2004-11-19, 16:30:34
LOL.

Schau dir mal den Stein unten links im Bild an, oberhalb der 100, da erkennst wie nv mit nahen Objekten umgeht! ;) Der Stein hat plötzlich eine Kante, hingegen er bei ATI eine natürlich Form hat.

Dann guck dir mal die Spiegelungen des ersten Brückenpfeilers an - da verzerrt die Welle das nV Bild mehr.... Irgendwie unsinnig, sich an dynamischen Inhalten aufzuhängen, solange sie nicht als Standbild gerendert wurden.

Quasar
2004-11-19, 16:34:10
Fast 100% schneller ist schon heftig auf der Canals Map, welche Shader sind denn das die dem NV40 da gar nicht zu schmecken scheinen ?
Meinst du jetzt die 70,x% mehr mit "Fast 100% schneller"?

Jesus
2004-11-19, 16:51:26
Meinst du jetzt die 70,x% mehr mit "Fast 100% schneller"?

Genau, man könnte auch sagen die 6800 Ultra erreicht nur 58,8 % der Performance einer X800XTPE (1600x1200). :rolleyes:

Edit: 58,8 nicht 58,9 ;)

Quasar
2004-11-19, 16:59:57
Genau, man könnte auch sagen die 6800 Ultra erreicht nur 58,8 % der Performance einer X800XTPE (1600x1200). :rolleyes:

Edit: 58,8 nicht 58,9 ;)
Könnte man - klar. Du hast allerdings ja angefangen, diese Form der Darstellung zu wählen ('X ist xx,% schneller als Y'). =)
Da brauchst du gar nicht mit den Augen zu rollen, denn als studierter Informatiker sollte man doch auch ein bißchen was von Prozentdarstellungen mitbekommen haben, oder? ;)


Wie dem auch sei (also quasi on-Topic): Waren im xBit-Test die jeweiligen PCIe- und AGP-Varianten der Karten eigentlich gleich getaktet? Wenn ja, weiß jemand, wie es kommt, daß die 6800GT nur ~5,8%* durch die offenbar CPU-seitig schnellere AGP-Plattform gewinnt, die X800XT dagegen ~13,9%* obwohl letztere sogar ein natives PCIe-Interface besitzt und doch den vollen Vorteil von PCIe einfahren sollte?

edit:
* in 1024

Gast
2004-11-19, 17:00:35
Genau, man könnte auch sagen die 6800 Ultra erreicht nur 58,8 % der Performance einer X800XTPE (1600x1200). :rolleyes:

Edit: 58,8 nicht 58,9 ;)

Hoffentlich gibt es bald einen Cheat für die 6800'er ;)

betasilie
2004-11-19, 17:01:30
Und irgendiwe machen es sich die ATI karte auch leichter sie Blenden eher objekte weg siehe hier

ATI rechts hinten auf die bäume achten
http://www.xbitlabs.com/images/video/half-life/3_ati_old.jpg

Nvidia
http://www.xbitlabs.com/images/video/half-life/3_nv_old.jpg
Das stimmt so nicht ganz.

Die Ati-Karten blenden korrekt aus, im gegensatz zu den NVs. Deshalb sehen die Bäume bei dem ATI-Screeshot heller aus, bei der NV dunkler.

Hier der NV screenshot. Man sieht deutlich, dass die NV zu dunkel ausblendet, was überhaut nicht zum Himmel passt.
http://www.xbitlabs.com/images/video/half-life/1_nv_old.jpg

HIer der ATI Screeshot. Man sieht, es wird passend zur Skybox ausgeblendet, wie es sein soll.
http://www.xbitlabs.com/images/video/half-life/1_ati_new.jpg

Somit dürfte klar sein, dass es bei ATI keine popups gibt, bei NV scheinbar schon, wenn die Objekte nicht vernünftig ausgeblendet werden.

Kladderadatsch
2004-11-19, 17:25:30
Das stimmt so nicht ganz.

Die Ati-Karten blenden korrekt aus, im gegensatz zu den NVs. Deshalb sehen die Bäume bei dem ATI-Screeshot heller aus, bei der NV dunkler.

Hier der NV screenshot. Man sieht deutlich, dass die NV zu dunkel ausblendet, was überhaut nicht zum Himmel passt.
http://www.xbitlabs.com/images/video/half-life/1_nv_old.jpg

HIer der ATI Screeshot. Man sieht, es wird passend zur Skybox ausgeblendet, wie es sein soll.
http://www.xbitlabs.com/images/video/half-life/1_ati_new.jpg

Somit dürfte klar sein, dass es bei ATI keine popups gibt, bei NV scheinbar schon, wenn die Objekte nicht vernünftig ausgeblendet werden.


warum werden dort plötzlich die bäume von nv und ati gleich dargestellt?

StefanV
2004-11-19, 17:26:50
Mal eine Idee: Warum machen wir das nicht selbst? Es sollte sich doch einrichten lassen eine feste Vorgehensweise zu definieren und ausgewählte/freiwillige User aus unserem Forum führen sie aus. Das Ergebnis wird Leo vorgelegt und er könnte es veröffentlichen. Dann hätten wir den ultimativen Test für die Massen.
Gebt mir 'nen ungelockten T-Bred + Barton samt einem 'repräsentativen Board' (mein Wunsch: Gigabyte 7NNXP bzw basierend darauf (erkennbar an der MCP-T))...

Und natürlich die entsprechende SW und jemanden, den ich fragen kann, wie ich benchen soll ;)

Eine 'Testplatte' ist mehr oder minder auch vorhanden (20GB Barracuda ATA (II?))...


Aktuelle 'Testcpus':
P4C, 2,6GHz
P4, 3,06 (2,3GHz/3,06GHz, atm auf i850E)
2GHz P4A
A64/3000+

verfügbare Bretter:
P4T533-C/8IHXP (i850E)
AOffen AX45F-4DN
Gigabreit K8VT800 PRO

GraKas:
9700 PRO
5900
9100 Low Profile
FX5200

Gast
2004-11-19, 17:29:03
warum werden dort plötzlich die bäume von nv und ati gleich dargestellt?

Weil sie vor der Nebelgrenze liegen.

Jesus
2004-11-19, 17:32:47
Könnte man - klar. Du hast allerdings ja angefangen, diese Form der Darstellung zu wählen ('X ist xx,% schneller als Y'). =)
Da brauchst du gar nicht mit den Augen zu rollen, denn als studierter Informatiker sollte man doch auch ein bißchen was von Prozentdarstellungen mitbekommen haben, oder? ;)

Und du könntest endlich mal aufhören auf jedem völlig belanglosen Mist rumzureiten. Ich sitze nicht ständig vorm PC und mir geht auch keiner ab dabei wenn ich diese Zahlen sehe dass ich gleich nen Taschenrechner rausholen muss um das genau auszurechnen und überall zu posten. Wenn du das brauchst dann bitte, ich hab mir nur die Balken angesehen und (zugegeben etwas "ungenau") geschätzt. Ende der Diskussion.

Quasar
2004-11-19, 17:39:55
Und du könntest endlich mal aufhören auf jedem völlig belanglosen Mist rumzureiten. Ich sitze nicht ständig vorm PC und mir geht auch keiner ab dabei wenn ich diese Zahlen sehe dass ich gleich nen Taschenrechner rausholen muss um das genau auszurechnen und überall zu posten. Wenn du das brauchst dann bitte, ich hab mir nur die Balken angesehen und (zugegeben etwas "ungenau") geschätzt. Ende der Diskussion.
Ach, komm' schon Jesus. Nicht gleich aufregen... =)

Ich sitze auch nicht ständig vorm PC und mir geht auch keiner ab, wenn ich Zahlen sehe. Aber du weisst doch, wie schwer das ist, wenn sich Leute erstmal an irgendwelche Sprüche gewöhnt haben, diese wieder aus ihren Köpfen heraus zu bekommen - wenn sie erwiesenermaßen falsch sind....

Zum Beispiel, daß MSAA Texturen vermatscht ware ewig lange ein sehr hartnäckiges Vorurteil, so wie vieles andere auch - und nur, weil manch einer halt nicht genau (genug) hingeguckt hat und einfach fraß, was ihm vorgesetzt wurde.

Kein Grund, das jetzt gleich persönlich zu nehmen - ich hab dich doch auch lieb. *knuddel*

betasilie
2004-11-19, 18:00:18
warum werden dort plötzlich die bäume von nv und ati gleich dargestellt?
Weil die noch nicht weit genug entfernt sind, ausgeblendet zu werden?

Quasar
2004-11-19, 18:08:22
Diese Nebel-Geschichte fände ich jetzt aber auch mal interessant - kann da jemand mit nV und HL2 was zu sagen ob die Bäume bsw. aufpoppen, oder normal aus dem Nebel auftauchen?

Daß Nebel in den Standardeinstellungen anders gehandhabt wurde (ausgelassen??) zwischen nV und ATi gab es ja schon bei RtCW oder CoD, IIRC.

betasilie
2004-11-19, 18:13:55
Diese Nebel-Geschichte fände ich jetzt aber auch mal interessant - kann da jemand mit nV und HL2 was zu sagen ob die Bäume bsw. aufpoppen, oder normal aus dem Nebel auftauchen?

Daß Nebel in den Standardeinstellungen anders gehandhabt wurde (ausgelassen??) zwischen nV und ATi gab es ja schon bei RtCW oder CoD, IIRC.
Also ich habe es bei einem Freund auf einer 6800Ultra gesehen. Auf die Bäume habe ich in den paar Minuten nicht genau geachtet, aber das Terrain wurde definitv nicht sauber wegeblendet, wie auf meiner ATI. Man hat eine dunkle Bergkette gesehen, die dann ein einfach dem blauem Himmel wich. Das sah nicht sehr schön aus. Bei ATi merkts man kaum, weil das Terrain fast nahtlos in den Hintergrundnebel übergeht.

Quasar
2004-11-19, 18:18:59
Das klingt aber gar nicht schön für nV-Geplagte.

betasilie
2004-11-19, 18:22:07
Das klingt aber gar nicht schön für nV-Geplagte.
mal gucken. Vieleicht kommt dafür ja ein Fix von NV. Die hatten ja nicht viel Zeit zu reagieren mit ihren Treibern

dildo4u
2004-11-19, 18:24:37
Mir persönlich ist es nicht aufgefallen passiert whol erst ab einer extreme weiten entfernung.

ich hab mir grad mal meinen screen angeguckt und irgendwie hab ich nebel auf meiner 6800GT bäume hinten sind weiß hab den 66.81 drauf merkwürdig das ganze.

http://img53.exs.cx/img53/2876/hl22004-11-1817-56-26-59.jpg

Demirug
2004-11-19, 18:51:49
Hat mal jemand eine Demo wo man den Effekt sehen kann? Ich habe da einen Verdacht an was das liegt.

Quasar
2004-11-19, 18:53:31
Entfernungsberechnungen beim Nebel basierend a) auf Distanz zum Alter Ego und b) zur Ebene des Alter Ego?

Demirug
2004-11-19, 19:09:21
Entfernungsberechnungen beim Nebel basierend a) auf Distanz zum Alter Ego und b) zur Ebene des Alter Ego?

So wie man es programmiert. In der Regel Distanz zum Alter Ego.

dildo4u
2004-11-19, 20:26:32
Weiss nicht ob das schon gepostet wurde hier liegen die karten nicht besonders weit auseinander so wie bei anandtech

http://www.firingsquad.com/hardware/half-life_2_performance/page5.asp


http://www.firingsquad.com/hardware/half-life_2_performance/images/c1280aaf.gif


As you saw in our test results, ATI’s RADEON X800 series of graphics cards held a pretty decisive advantage in d1_canals_09. ATI has distributed a Half-Life 2 performance PDF to members of the press that mentions that performance in this map in particular is primarily limited by Half-Life 2’s water shader, this could potentially indicate a trouble spot for NVIDIA’s GeForce 6800 series but we’ll have to evaluate Half-Life 2’s performance with more maps that involve large bodies of water before we can come to this conclusion.

Our d1_canals_01a demo doesn’t contain any water, instead it consists of a mixture of lighting scenes where the flashlight is used and urban combat. In this demo the X800 cards come out ahead once again, with the X800 XT AGP and X800 XT Platinum Edition holding a performance advantage of over 20% at 1600x1200 with 4xAA and 8xAF. At those settings, the 12-pipe RADEON X800 PRO is actually capable of giving the GeForce 6800 Ultra a run for its money in our testing

Dem NV40 scheint nur der watershader nicht wirklich zu liegen in leveln ohne viel wasser ist der unterschied eher durch den mhertakt der X800 karte zu erklären.

Mr. Lolman
2004-11-19, 20:30:33
Vielleicht hat xbit die Optimierungen deaktiviert gehabt?

/edit: vielleicht doch nicht ;(

/e2: Gibts eigentlich schon irgendwo GF4 Benchmarks?

Gast
2004-11-19, 20:32:45
Hat mal jemand eine Demo wo man den Effekt sehen kann? Ich habe da einen Verdacht an was das liegt.

Jaklar*g* Frag mal Leo ;)

Gast
2004-11-19, 21:18:57
http://www.xbitlabs.com/articles/video/display/half-life.html

So, Valve’s long-awaited project has fleshed out into shiny compact discs with the Half-Life logo. With its excellent graphics, complex physics of the game world and thrilling gameplay, the second Half-Life is really a representative of the new generation of computer games.

What you have just read is a preview, so we can’t make any final verdicts yet. But still, some basic facts are already clear. This game evidently prefers graphics cards with graphics processors of the new generation developed by ATI Technologies. The RADEON X800 XT Platinum Edition, X800 XT and X800 PRO GPUs run this game at the highest speed. On the other hand, graphics cards on the GeForce 6800 Ultra and GT chips from NVIDIA do not look completely hopeless against their competitors. Using such cards you will still have enough performance for a comfortable play. Moreover, the difference between the top-end solutions from ATI and NVIDIA depends heavily on the specific game scene. The gap is wider in scenes with water surfaces, and narrower in others, especially when there’s mass fighting onscreen and the main load falls on the central processor of the system.

Right now we’re working on an in-depth review of Half-Life 2, with more game scenes and more graphics cards. We’ll publish this review as soon as possible, so stay tuned!

nino
2004-11-19, 21:56:05
http://www.xbitlabs.com/images/video/half-life/d3c17_1280_candy.gif

hm, die pcie x800xt is da aber n gutes stück langsamer als die agp version :| woran liegts?

Wolfram
2004-11-19, 22:37:19
Auf die gefahr hin, mich als Spielverderber zu outen:

Sind denn jetzt alle reviewer so sau blöde, und Grafikkarten geil, dass sie nicht einen Moment für CPU benches verschwenden?

Im Tech Lounge-Artikel wird mit einem PCI-Express und einem AGP-System getestet, im AGP-System sitzt ein P4 2,4 GHz ( http://www.thetechlounge.com/article.php?directory=hl2_performance).

Viel besser ist das natürlich in dem vor Dir genannten FiringSquad-Artikel.

Ich bin übrigens einer der Dummköpfe, die derzeit eine 6800GT in einem XP@2288 MHz-Rechner sitzen haben. Vermutlich aber nicht mehr lange (wenn auch nicht für HL2, dafür scheint's ja zu reichen).

Gast
2004-11-19, 23:03:02
Die Benchmarkergebnisse ( besonders mit AA. und AF.) von thetechlounge.com zeigen doch mal wieder recht gut, daß eine Investition in eine neue HighEndGrafikarte wichtiger ist als die Anschaffung ein neuen FX- oder P4EE-CPU, dann auch noch mit Mainboard und möglicherweise neuen RAM!
Also würde ich deine Kaufverhalten nicht als dumm ansehen, sondern als überlegt. Die GT6800 liefert für ein Singleplayerspiel genug Bilder im 1600x1200 und AA.+AF.!

tombman
2004-11-19, 23:50:44
Die Benchmarkergebnisse ( besonders mit AA. und AF.) von thetechlounge.com zeigen doch mal wieder recht gut, daß eine Investition in eine neue HighEndGrafikarte wichtiger ist als die Anschaffung ein neuen FX- oder P4EE-CPU, dann auch noch mit Mainboard und möglicherweise neuen RAM!
Also würde ich deine Kaufverhalten nicht als dumm ansehen, sondern als überlegt. Die GT6800 liefert für ein Singleplayerspiel genug Bilder im 1600x1200 und AA.+AF.!

da könnte ich dir aber was anderes erzählen... man glaubt gar nicht wie viele games cpu limitiert sind...

Also ich würde eine schnelle cpu einer schnellen gpu vorziehen. Warum?

Ganz einfach: falls das game gpu lastig ist einfach Auflösung runterdrehen und schon wird es flüssig mit allen Details.
Wenn das game cpu lastig ist --> ähmm..... hast PECH, da kannst dann nämlich gar nix mehr machen ohne details runterzudrehen....

deshalb: cpu power forever :D

betasilie
2004-11-19, 23:54:28
da könnte ich dir aber was anderes erzählen... man glaubt gar nicht wie viele games cpu limitiert sind...

Also ich würde eine schnelle cpu einer schnellen gpu vorziehen. Warum?

Ganz einfach: falls das game gpu lastig ist einfach Auflösung runterdrehen und schon wird es flüssig mit allen Details.
Wenn das game cpu lastig ist --> ähmm..... hast PECH, da kannst dann nämlich gar nix mehr machen ohne details runterzudrehen....

deshalb: cpu power forever :D
Jo, das ist echt so wahr, wie auch traurig. Mit meiner CPU gibt es leider immer wieder in aktuellen Games ruckeligen Stellen, weil die CPU zu schlapp ist.

Nächsten Monat muss definitv ein A64 in meinen Cube.

Gast
2004-11-20, 00:07:04
hm, die pcie x800xt is da aber n gutes stück langsamer als die agp version :| woran liegts?


liegt daran das das AGP System mit einem A64 4000 betrieben wird und die PCI-E Plattform mit einem P4 560, auch die 6800GT verliert fps.

nino
2004-11-20, 00:18:50
liegt daran das das AGP System mit einem A64 4000 betrieben wird und die PCI-E Plattform mit einem P4 560, auch die 6800GT verliert fps.
kk thx :) wer lesen kann is im vorteil ^^

Gast
2004-11-20, 01:22:15
@ tombman
Wir reden hier ja doch primär von Half-Life, einem sog. Egoshooter, und nicht von Strategiespielen. Wenn ich Hl² als Beispiel nehme, dann zeigt sich doch, daß einer "schwachen Grafikarte" ( X600 XT ) kein neuer P4 3,4E mit DDR2Speicher nützt, um mit AA. und AF. in hohen Auflösungen (1280x1024 u. höher) in einem Einzelspieler-Spiel wie HL² noch genug Bilder pro Sekunde zu liefern.
Im Vergleich dazu kann eine starke Grafikarte (GT6800) schon mit einem alten P4 2,4C/XP2600+ CPU auch noch in den hohen Qualitäteinstellungen genug Bilder pro Sekunde aufweisen, damit es spielbar ist. :wink:

tombman
2004-11-20, 03:30:31
@ tombman
Wir reden hier ja doch primär von Half-Life, einem sog. Egoshooter, und nicht von Strategiespielen. Wenn ich Hl² als Beispiel nehme, dann zeigt sich doch, daß einer "schwachen Grafikarte" ( X600 XT ) kein neuer P4 3,4E mit DDR2Speicher nützt, um mit AA. und AF. in hohen Auflösungen (1280x1024 u. höher) in einem Einzelspieler-Spiel wie HL² noch genug Bilder pro Sekunde zu liefern.
Im Vergleich dazu kann eine starke Grafikarte (GT6800) schon mit einem alten P4 2,4C/XP2600+ CPU auch noch in den hohen Qualitäteinstellungen genug Bilder pro Sekunde aufweisen, damit es spielbar ist. :wink:

So pauschal kannst ned reden.

Gibt genug Stellen in HL2 wo auch ein 3.4 EE unter 30fps fällt, unabhängig von der Auflösung...

Es kommt immer auf die Situation an und hat nicht primär was mit dem game-genre zu tun.

Du kannst ned sagen, daß Egoshooter mehr gpu brauchen und andere games mehr cpu.

Wichtig is nur, daß eine schnelle cpu durch nix zu ersetzen ist, bei einer schwächeren gpu kann man sich helfen indem man die Auflösung runterdreht.
(auch da gibts natürlich Grenzen, mit low end gpu bist sowieso fucked :D)

tombman
2004-11-20, 07:29:24
btw, hab jetzt die x800 wieder drinnen.... die is ned nur schneller in HL2, die OWNT die 6800er geradezu...

ActionNews
2004-11-20, 09:29:33
Mir ist es egal ob ne Geforce 6800 GT/ULTRA/schiessmichtot. ein paar Prozent hinter ner Ati liegt, solange es flüssig läuft und ATI solche $%&§/(/&%$§-Linux-Treiber abliefert!

BTW: Cedega 4.2 (kommt im Dezember) soll auch Steam und HL² unter Linux unterstützen. Schon mal versucht Cedega mit ner ATi zu betreiben?

tombman
2004-11-20, 11:00:46
ein paar Prozent?

1280 4xAA

Nvidia: unter 40fps
Ati: über 70fps

Noch Fragen? :)

MechWOLLIer
2004-11-20, 11:28:47
Wenn die X800 soviel besser ist, warum willst du dir dann ein SLI System von NV hohlen? :D
Soviel schneler wäre das nach deinen Ergebnissen nicht;)

Wolfram
2004-11-20, 13:50:38
Die Benchmarkergebnisse ( besonders mit AA. und AF.) von thetechlounge.com zeigen doch mal wieder recht gut, daß eine Investition in eine neue HighEndGrafikarte wichtiger ist als die Anschaffung ein neuen FX- oder P4EE-CPU, dann auch noch mit Mainboard und möglicherweise neuen RAM!
Also würde ich deine Kaufverhalten nicht als dumm ansehen, sondern als überlegt. Die GT6800 liefert für ein Singleplayerspiel genug Bilder im 1600x1200 und AA.+AF.!
Ich traue den Benchmarks nicht. In meinem leicht angestaubten Rechner (siehe Sig) steckt mittlerweile eine 6800GT statt einer 9800 non-pro und zB Far Cry ist in Single-Player-Außenlevels praktisch durchgehend CPU-limitiert, bei 1280x960, 4xAA, 16xAF und extremen Grafik-Settings (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=183967). Ähnliches hat Tech Lounge zB für NFSU festgehalten: http://www.thetechlounge.com/review.php?directory=xfx_geforce_6800_gt_256&page=9

Interessanter als Benchmarks finde ich das Konzept von echten Level-Durchläufen, wie in dem ersten Doom3-Performance-Artikel bei HardOCP.

Jesus
2004-11-20, 13:56:54
Wenn die X800 soviel besser ist, warum willst du dir dann ein SLI System von NV hohlen? :D
Soviel schneler wäre das nach deinen Ergebnissen nicht;)

Es gibt ja auch noch andere Spiele ausser HL2 ;)

btw ich spiele mittlerweile in 1280x1024 4xAA 8xAF (AI an) sehr flüssig muss ich sagen, nur in manch einer Pfütze mit Reflect all geht ein bischen die Puste aus.

Mein Bruder spielts auf 1024x768 2xAA 4xAF mit ner 9500 Pro flüssiger als ich...

MechWOLLIer
2004-11-20, 14:08:29
Ich traue den Benchmarks nicht. In meinem leicht angestaubten Rechner (siehe Sig) steckt mittlerweile eine 6800GT statt einer 9800 non-pro und zB Far Cry ist in Single-Player-Außenlevels praktisch durchgehend CPU-limitiert, bei 1280x960, 4xAA, 16xAF und extremen Grafik-Settings (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=183967). Ähnliches hat Tech Lounge zB für NFSU festgehalten: http://www.thetechlounge.com/review.php?directory=xfx_geforce_6800_gt_256&page=9

Mhm, in meinen Tests stellt sich eher heraus, dass 1280x1024/4xAA/16xAF in Far Cry sehr wohl GPU limitiert sind in Außenwelten. Zumindest in Pier habe ich bei den Settings derbe Verluste im Gegensatz zu z.B. 1600x1200.
Solange man aber AF ausschaltet, gebe ich dir recht, sind die Außenwelten teilweise CPU limitiert.

Gast
2004-11-20, 14:09:03
ein paar Prozent?

1280 4xAA

Nvidia: unter 40fps
Ati: über 70fps

Noch Fragen? :)

Ati cheatet, das wissen wir schon. Malsehn wann Nvidia damit anfängt.

Gast
2004-11-20, 14:14:32
Ati cheatet, das wissen wir schon. Malsehn wann Nvidia damit anfängt.


NV muss erstmal den Nebel so darstellen wie es gedacht war, also so wie bei ATI, das ATi cheatet finde ich voll ok, weil es schaut ja selbst dadurch noch besser als auf eine NV Karte aus.


Neee....hat doch keinen Sinn, ich denke mit dem nächsten Treiber wird NV auf ATI level kommen, genug Leistung haben ja die aktuellen Karten.

Wolfram
2004-11-20, 14:36:30
Mhm, in meinen Tests stellt sich eher heraus, dass 1280x1024/4xAA/16xAF in Far Cry sehr wohl GPU limitiert sind in Außenwelten. Zumindest in Pier habe ich bei den Settings derbe Verluste im Gegensatz zu z.B. 1600x1200.
Auf Deinem Athlon64? Bei mir war es eben ein TBred, mit nur 143 Mhz FSB. Außerdem, wie gesagt, kein Timedemo, sondern ein Leveldurchlauf mit Kämpfen.

Es ging ja eben um die Frage, ob man wirklich eine so schnelle CPU braucht. Was vielleicht für HL2 und Doom3 weniger nötig zu sein scheint als für andere Spiele.

Gast
2004-11-20, 15:23:48
ein paar Prozent?

1280 4xAA

Nvidia: unter 40fps
Ati: über 70fps

Noch Fragen? :)



Mit 70.41er Treiber?

StefanV
2004-11-20, 15:24:58
Ati cheatet, das wissen wir schon. Malsehn wann Nvidia damit anfängt.
LOL
Sorry, aber das ist ein Witz in Tüten...

Genug des Gelächters:

Würdest du uns bitte erklären, wo, wann und wie ATI 'cheatet' und ebenso beweisen, das nV das nicht macht?? ;)

Akira20
2004-11-20, 16:05:57
ein paar Prozent?

1280 4xAA

Nvidia: unter 40fps
Ati: über 70fps

Noch Fragen? :)
...also so krass scheinen die Unterschiede nicht zu sein Link (http://www.anandtech.com/video/showdoc.aspx?i=2278&p=10) ...und nicht umsonst ist ein nettes Ati Logo auf der HL2-DVD ;D ...

MfG
Akira20

Jesus
2004-11-20, 16:12:52
...also so krass scheinen die Unterschiede nicht zu sein Link (http://www.anandtech.com/video/showdoc.aspx?i=2278&p=10) ...und nicht umsonst ist ein nettes Ati Logo auf der HL2-DVD ;D ...

MfG
Akira20

das liegt daran dass Anand mit niedrigeren Settings (reflect world) getestet hat. Ausserdem wurde wohl eine XT und keine XT PE benutzt.

Hier (http://www.xbitlabs.com/articles/video/display/half-life_6.html) siehts schon anders aus ...

dildo4u
2004-11-20, 16:59:09
Weiter gehts mit Half Life 2 GPU Roundup Part 2 - Mainstream DX8/DX9 Battle

http://www.anandtech.com/video/showdoc.aspx?i=2281&p=4


Die armen FX user

http://images.anandtech.com/graphs/half%20life%202%20gpu%20roundup%20part%202_11190421128/5513.png

Zum glück gibt ja noch den DX8 mode aber auch da kommt sie grad mal an eine 9600XT ran naja is aber so auch ganz gut spielbar.
http://images.anandtech.com/graphs/half%20life%202%20gpu%20roundup%20part%202_11190421128/5504.png

reunion
2004-11-20, 17:10:10
Weiter gehts mit Half Life 2 GPU Roundup Part 2 - Mainstream DX8/DX9 Battle

http://www.anandtech.com/video/showdoc.aspx?i=2281&p=4


Die armen FX user

http://images.anandtech.com/graphs/half%20life%202%20gpu%20roundup%20part%202_11190421128/5513.png


Also das ist schon ziemlich extrem, da wird die 5900XT von ner X300SE bei der selbst der PCIe Slot mehr Bandbreite hergibt als das onboardmemory übertrumpft ;D
Ne 9600XT ATi letzter Midragechip erreicht mal locker mehr als die doppelten fps einer FX.

Mr. Lolman
2004-11-20, 17:14:03
...und man darf nichteinmal über die Ergebnisse lolen und meinen dass mans eh schon immer gesagt hat, weil auch hohe 3DC Leute in der Riege derjenigen sitzen, die dem Irrtum vom enormen Leistungspotential des NV3x aufgesessen sind, welche dann aus Kränkung vll, Punkte geben könnten ;) ;(

Soulthief
2004-11-20, 18:00:45
das liegt daran dass Anand mit niedrigeren Settings (reflect world) getestet hat. Ausserdem wurde wohl eine XT und keine XT PE benutzt.

Hier (http://www.xbitlabs.com/articles/video/display/half-life_6.html) siehts schon anders aus ...

Du glaubst doch wohl nicht wirklich, dass die reine Performance einer X800 Pro höher ist, als die der High-End Karte (6800 Ultra) von Nvidia. Hier ist doch offensichtlich, dass die ATI Karten auf HL2 optimiert sind! Aber wenn du so blauäugig bist, ist es dein Problem! :hammer: :ucrazy: :ucrazy2: :udown:

Gast
2004-11-20, 18:10:21
Du glaubst doch wohl nicht wirklich, dass die reine Performance einer X800 Pro höher ist, als die der High-End Karte (6800 Ultra) von Nvidia. Hier ist doch offensichtlich, dass die ATI Karten auf HL2 optimiert sind! Aber wenn du so blauäugig bist, ist es dein Problem! :hammer: :ucrazy: :ucrazy2: :udown:
Lol?
Klar sind die ATI-Treiber auf HL2 optimiert, genauso wie die Nvidiatreiber. Wer da jetzt mehr optimiert weiß man nicht. Solange die BQ gut ist, sehe ich kein Problem. Wenn ich aufgrund der Optimierung bei besserer BQ (höhere Auflösung) spielen kann, dann ist es mir recht. =)

Soulthief
2004-11-20, 18:29:41
Lol?
Klar sind die ATI-Treiber auf HL2 optimiert, genauso wie die Nvidiatreiber. Wer da jetzt mehr optimiert weiß man nicht. Solange die BQ gut ist, sehe ich kein Problem. Wenn ich aufgrund der Optimierung bei besserer BQ (höhere Auflösung) spielen kann, dann ist es mir recht. =)

Du willst mir doch wohl nicht erzählen, dass eine X800 Pro schneller ist, als eine 6800 Ultra!!!!!!!! :cool:

Gast
2004-11-20, 18:36:59
Du willst mir doch wohl nicht erzählen, dass eine X800 Pro schneller ist, als eine 6800 Ultra!!!!!!!! :cool:
Doch klar.
Warum soll das nicht zutreffen? Es gibt ja auch Spiele, wo die 6800 Ultra führt, allerdings nicht so deutlich. Verglichen mit der XT natürlich. Es gibt aber Spiele wo eine X800PRO schneller als eine 6800Ultra ist. Das trifft meistens auf sehr neue Spiele zu.

Gast
2004-11-20, 19:17:34
LOL
Sorry, aber das ist ein Witz in Tüten...

Genug des Gelächters:

Würdest du uns bitte erklären, wo, wann und wie ATI 'cheatet' und ebenso beweisen, das nV das nicht macht?? ;)

Wir warten mal die echten 70er Release Treiber ab. Mehr wird noch nicht verraten. ;)

Gast
2004-11-20, 19:23:14
Wir warten mal die echten 70er Release Treiber ab. Mehr wird noch nicht verraten. ;)
Ja ja, immer die gleiche Leier bei Nvidia, Warten, warten, warten...
Das trifft auf die meisten neuen Spiele zu. Shaderreplacement?
Gut daß bei ATI alle Spiele out of the box vernünftig laufen. =)

Gast
2004-11-20, 20:04:19
Ja ja, immer die gleiche Leier bei Nvidia, Warten, warten, warten...
Das trifft auf die meisten neuen Spiele zu. Shaderreplacement?
Gut daß bei ATI alle Spiele out of the box vernünftig laufen. =)

Jaja so wie bei Doom3 usw.? LOL

StefanV
2004-11-20, 20:09:26
Jaja so wie bei Doom3 usw.? LOL
Und der Rest?!

Man munkelt, in dunklen Kämmerchen, das es mehr als nur Dumm3 geben soll, was man spielen könnte...

Jesus
2004-11-20, 22:37:21
Es gibt ja auch noch andere Spiele ausser HL2 ;)

btw ich spiele mittlerweile in 1280x1024 4xAA 8xAF (AI an) sehr flüssig muss ich sagen, nur in manch einer Pfütze mit Reflect all geht ein bischen die Puste aus.

Mein Bruder spielts auf 1024x768 2xAA 4xAF mit ner 9500 Pro flüssiger als ich...

4.12b drin, Ruckler im Wasser adé ;D Wunderbar flüssig jetzt! (und 10 fps mehr im VST)

ShadowXX
2004-11-20, 22:56:04
das liegt daran dass Anand mit niedrigeren Settings (reflect world) getestet hat. Ausserdem wurde wohl eine XT und keine XT PE benutzt.

Hier (http://www.xbitlabs.com/articles/video/display/half-life_6.html) siehts schon anders aus ...

Was wollen die bei XBit den da getestet haben???

Die Werte die die bei 1280x1024 bei einer 6800 Ultra mit AA/AF haben, habe ich mit 1600x1200 AA/AF (4xAA/8xAF, Reflect All, keine AF Optimierungen (eigentlich sind die Werte sogar knapp höher im Durchschnitt)).

Interessant finde ich auch, dass nach xbit die XT-PE knapp 40 Frames beim Wechsel von 1280x1024 noAA/noAF zu AA/AF verliert, die Ultra aber merkwürdigerweise beim gleichen Wechsel nur ca. 20.

Schätze mal, das da irgendwo der Wurm ist Test drinne ist....

Man sollte xbit mal den Tip geben, das man die Refreshrate nicht über das nV Panel forcen sollte....das kostet aus irgendeinem Grund massig Performance.

Gast
2004-11-21, 02:16:19
habe wirklich mit dem Gedanken gespielt, mich hier anzumelden und was zur Diskussion beizutragen, doch nachdem ich diesen und andere Threads überflogen habe, kommt mir nur noch die Kotze hoch. Wird hier immer so subversiv rumgetrollt und gebashed? Das sind bei euch immer dieselben Leute...am geilsten ist der Tombman....ohje ist das peinlich
Hier werden interessierte Leutz sofort vergrault und ne entpannte Atmosphäre kommt gar nicht erst in solchen Threads auf
Ich wollte das nur mal loswerden, da ich bestimmt nicht der einzige bin und sein werde, der sich hier schnell wieder verzieht

tombman
2004-11-21, 02:48:12
...am geilsten ist der Tombman....

Ohhh YES :D

btw, das Wasser mit "reflect all" scheint der 6800ultra am meisten zuzusetzen, da bricht sie so derbe ein. Hatte zuerst 66.93 drinnen, dann später 70.41.... immer das selbe.

Naja, und dann hab ich die X800XTPE mit cat 4.12 reingehaut und es ging ärger geil ab ;)

p.s.: ich denke, daß nvidia da sicher einen neuen Treiber rausbringen wird, sodaß sich die Leistung eher Richtung x800 bewegt- und dann sollte SLi wieder schneller sein ;)

Außerdem: umsteigen auf ATi AMR kann man ja später immer noch, Hauptsache man hat mal das mobo dazu ;) (asus AN8-SLI)

mapel110
2004-11-21, 04:53:18
btw, das Wasser mit "reflect all" scheint der 6800ultra am meisten zuzusetzen, da bricht sie so derbe ein. Hatte zuerst 66.93 drinnen, dann später 70.41.... immer das selbe.

67.02 nicht getestet? ist der neueste Treiber bislang.
http://www.nzone.com/object/nzone_downloads_winxp_2k_67.02.html

oje, sieht das düster aus, immerhin ist die FX schneller als eine 4600er.

ActionNews
2004-11-21, 08:21:27
ein paar Prozent?

1280 4xAA

Nvidia: unter 40fps
Ati: über 70fps

Noch Fragen? :)

Ja und? Das ist EIN Spiel. Optimiert auf ATi, es läuft bei mir aber trotzdem flüssig (spiele selber 1280x1024 max Details, 4xAA, 8xAF und es ruckelt nix). aber dafür laufen Spiele auch unter Linux anständig und ich habe einen Vorteil bei Doom3 ... na und? Ist doch wurscht.
Ich setze wahrscheinlich einfach andere Prioritäten als du ;).

CU ActionNews

Gast
2004-11-21, 09:00:01
habe wirklich mit dem Gedanken gespielt, mich hier anzumelden und was zur Diskussion beizutragen, doch nachdem ich diesen und andere Threads überflogen habe, kommt mir nur noch die Kotze hoch. Wird hier immer so subversiv rumgetrollt und gebashed? Das sind bei euch immer dieselben Leute...am geilsten ist der Tombman....ohje ist das peinlich
Hier werden interessierte Leutz sofort vergrault und ne entpannte Atmosphäre kommt gar nicht erst in solchen Threads auf
Ich wollte das nur mal loswerden, da ich bestimmt nicht der einzige bin und sein werde, der sich hier schnell wieder verzieht
Hallo Gast,

anstatt das gesamte Forum zu kritisieren, solltest du vielleicht etwas zum Thema beitragen. Und ja, Tombman ist deswegen so "geil", wie du das sagst, weil er eine 6800Ultra und eine X800XT besitzt und so auch die Ergebnisse gegenchecken kann. Nur ist das zur Zeit bei Nvidia nicht einfach, da man mehr Zeit damit verbringt den richtigen Treiber zu finden als man Zeit für die Benchmarks braucht. Der 67.02 ist neuer als der 70.41. :ucrazy2:
Überhaupt braucht man bei Nvidia für fast jedes Spiel einen anderen Treiber, wenn man das Optimum rausholen will. Bei ATI einfach den neusten drauf und alles läuft bestens. Die Treiberpolitik von Nvidia ist einfach zum Kotzen.

anderer Gast.

Piffan
2004-11-21, 10:04:00
Nv hats mit den NV 3X so gründlich verbockt, dass die Spieldesigner halt auf Ati entwickelt/optimiert haben. Dann scheint der NV immer noch wählerisch zu sein bei den Shadern, Ati scheint klagloser alles abzuarbeiten ohne drastische Einbrüche bei "falschen" Shadern......

Leute, so ist das Leben. Vor Jahren noch gabs zu NV nicht wirklich ne Alternative. NV machte die Musik.

Es ist die Frage, ob sich eine Firma je wieder erholt, wenn das Image einen derartig heftigen Knacks weg hat.....

Selbst Intel hat sich mit dem P4 vergallopiert. Soll vorkommen....

Ich finde es beschämend, dass einige furchtbar emotional werden, wenn hier nackte Zahlen auf den Tisch kommen...

Lächerlich die Hinweise auf kommende Treiber. Die werden dann lediglich "mundgerechte" Shader für bestimmte Spieletitel bringen. Vielleicht zu Lasten der Optik, vielleicht auch nicht. Aber es wäre für mich sehr beunruhigend, wenn ich für jedes einzelne Spiel bangen müsste, ob meine teure NV schnell genug ist, damit ich die hohen Invetitionskosten in FSAA oder AF umsetzen kann.

Schön, dass NV bei Linux besser dasteht. Da muss jeder für sich entscheiden, was er braucht.

Quasar
2004-11-21, 10:10:30
Diese Treibergeschichte gehen mir auch auf die Nerven - offiziell ist der 66.93 und "halboffiziell" der 67.02 (entsprechend den Bugfix-Releases bei ATi, IMO).
Alles andere ist Spielerei und eventuell ein Ausblick auf die Zukunft, aber auch nur eventuell.

Demirug
2004-11-21, 10:19:26
Der 67.02 ist neuer als der 70.41. :ucrazy2:

Sowas ist bei nVidia möglich. Das hängt damit zusammen wie dort die Treiberentwicklung läuft. Nur die Nummern bei den offiziellen Treibern sind zwingend fortlaufen.

Gast
2004-11-21, 10:22:48
Sowas ist bei nVidia möglich. Das hängt damit zusammen wie dort die Treiberentwicklung läuft.
Chaotisch wie ich sehe.

LovesuckZ
2004-11-21, 10:27:35
Chaotisch wie ich sehe.

Nein, du glaubst, sie waere chaotisch.
Sehen würde bedeuten, du haettest einen Blick darauf.

Piffan
2004-11-21, 10:31:00
Chaotisch wie ich sehe.

Vielleicht auch nicht chaotisch. Die müssen wohl je nach aktueller Lage die Shader auf spezielle Anwendungn optimieren. Im Moment ist erstmal HL an der Reihe, nach dem 3dMurks.....

Auf Dauer wird sowas recht teuer. Früher war es anders, da optimierten die Entwickler von vornherein auf NV.

Wenn ich das richtig geschnallt habe, ist ja gerade die Programmierbarkeit in HLS der Faktor, der die Entwickler unabhängig von spezieller Hardware machen sollte. Wenn NV dann doch ne spezielle Art der Programmierung braucht, kann man das durchaus als Schwäche werten. Oder schlimmer noch: Vielleicht glaubte NV so seine Marktmacht weiter zu festigen. Da kam dumberweise der Riensenerfolg des R 300 in die Quere. Ist natürlich nur Spekulation, aber zutrauen würde ich den Strategen von NV noch andere Sachen.....

Gast
2004-11-21, 10:31:53
Nein, du glaubst, sie waere chaotisch.
Sehen würde bedeuten, du haettest einen Blick darauf.
Wieder mal einer der geistreichen Posts von LS. ;(

LS, was gibt es daran nicht zu verstehen?
Wenn ein Treiber mit einer kleineren Nummer neuer als der mit der höheren Nummer ist, lässt das auf Chaos schliessen.

Demirug
2004-11-21, 10:35:40
Chaotisch wie ich sehe.

Eigentlich nicht. Es arbeiten immer mehrer Teams an unterschiedlichen Sachen. Jedes Team bekommt für seine Arbeit die es zu erledigen hat eine Nummer. Damit kann man am Treiber selbst erkennt von welchen Team dieser nun gerade ist. Es liegt nun in der Natur der Sache das die Teams nicht in der Reihenfolge mit den Arbeiten fertig werden wie die Nummern verteilt wurden. Sobald die jeweilige Sache erledigt ist wird sie von einem weiteren Team in den nächsten offiziellen Treiber (der wieder eine andere Nummer hat) integriert. Diese Verfahren soll sicherstellen das sich zwei Teams die an unterschiedlichen Dingen arbeiten nicht gegenseitig das Leben schwer machen indem dann Team A plötzlich mit Fehlern zu kämpfen hat die von den unfertigen Arbeiten von Team B herrühren.

StefanV
2004-11-21, 10:36:02
Nein, du glaubst, sie waere chaotisch.
Sehen würde bedeuten, du haettest einen Blick darauf.
Nein, er weiß, das es Chaotisch ist.

Wenns nicht Chaotisch wäre, dann wäre der Treiber mit der höchsten Nummer der aktuellste, wie es bei allen anderen 'Treiberbastlern' auch üblich ist...

Gast
2004-11-21, 10:38:23
Eigentlich nicht. Es arbeiten immer mehrer Teams an unterschiedlichen Sachen. Jedes Team bekommt für seine Arbeit die es zu erledigen hat eine Nummer. Damit kann man am Treiber selbst erkennt von welchen Team dieser nun gerade ist. Es liegt nun in der Natur der Sache das die Teams nicht in der Reihenfolge mit den Arbeiten fertig werden wie die Nummern verteilt wurden. Sobald die jeweilige Sache erledigt ist wird sie von einem weiteren Team in den nächsten offiziellen Treiber (der wieder eine andere Nummer hat) integriert. Diese Verfahren soll sicherstellen das sich zwei Teams die an unterschiedlichen Dingen arbeiten nicht gegenseitig das Leben schwer machen indem dann Team A plötzlich mit Fehlern zu kämpfen hat die von den unfertigen Arbeiten von Team B herrühren.
OK. Jetzt ist es wenigstens nachvollziehbar.
Woran arbeiten denn die ganzen Teams?
Jedes Team nimmt sich ein Spiel für Shaderreplacement vor? Oder wie muss man sich das vorstellen?
Warum ist eine Koordination nicht möglich?

LovesuckZ
2004-11-21, 10:46:06
LS, was gibt es daran nicht zu verstehen?
Wenn ein Treiber mit einer kleineren Nummer neuer als der mit der höheren Nummer ist, lässt das auf Chaos schliessen.

Hier werden Treiber, welche nicht für die Oeffentlichkeit bestimmt sind, mit offiziellen verglichen.
So und nun zeige mir das Chaos bei den von nvidia offiziell zur Verfuegung gestellten (hauptseite und Nzone).
Kannst du nicht?
Also glaubst du nur an das Chaos.

Gast
2004-11-21, 10:47:48
Hier werden Treiber, welche nicht für die Oeffentlichkeit bestimmt sind, mit offiziellen verglichen.
Also sollte man als Benchmarker nur die offiziellen werwenden, um dem Chaos zu entfliehen?

Demirug
2004-11-21, 10:50:57
OK. Jetzt ist es wenigstens nachvollziehbar.
Woran arbeiten denn die ganzen Teams?
Jedes Team nimmt sich ein Spiel für Shaderreplacement vor? Oder wie muss man sich das vorstellen?
Warum ist eine Koordination nicht möglich?

Shaderreplacments gibt es nur noch in Ausnahmefällen (nVidia hat wohl eingesehen das dies auf Dauer doch etwas teuer wird). Ausnahmefälle sind dabei fehlerhafte Shader in einem Spiel oder Shader wo der Shadercompiler total versagt und man es auf die schnelle nicht hinbekommt. Da jetzt sicher gleich die Nachfrage kommt wieso ein Spiel "Fehlerhafte" Shader enthalten kann wenn diese doch auf anderen Karten funktionieren. nVidia Hardware ist mathematisch etwas korrekter als die der anderen. Wenn man einen Shader schreibt der unbeabsichtigt in diese Bereiche vordringt dann bekommt man plötzlich nichts mehr. Weniger korrekte Shaderhardware reagiert dagegen weniger empfindlich auf sowas.

Es wird aber durchaus in Abhängigkeit von Spielen optimiert. Wenn ein Spiel die Hardware auf eine Art nutz wie es bisher noch nicht gemacht wurde muss ein Treiberteam prüfen ob der Treiber diesen Anwendungsfall schon optimal unterstützt. Falls nicht wird es kümmert man sich eben darum und dafür gibt es dann eben eine Nummer.

Das ganze ist doch Koordiniert. Nach aussen hin sieht es nicht zwangsläufig so aus weil man nur einen Teil des Ganzen sieht.

Gast
2004-11-21, 10:51:57
Ati cheatet, das wissen wir schon. Malsehn wann Nvidia damit anfängt.

HAHAHA,

bessere Argumente warum Ihr so schlecht dasteht bei HL2 habt Ihr wahrscheinlich nicht in eurer Präsi stehen.

Gast
2004-11-21, 11:04:38
Shaderreplacments gibt es nur noch in Ausnahmefällen (nVidia hat wohl eingesehen das dies auf Dauer doch etwas teuer wird).
Das glaube ich nicht. Anders lassen sich die ganzen Treiberspielchen gar nicht erkläeren. Klar würde jeder IHV sagen, daß er am Compiler optimiert um alle Spiele zu beschleunigen. Hört sich smart an.

Ausnahmefälle sind dabei fehlerhafte Shader in einem Spiel oder Shader wo der Shadercompiler total versagt und man es auf die schnelle nicht hinbekommt.
Das scheint bei Nvidia öfter der Fall zu sein. Vielleicht ist die Architektur schuld. Wie wir wissen baut der NV40 auf dem NV3x auf. Man hat viele Probleme beseitigt, aber auch alle?


Es wird aber durchaus in Abhängigkeit von Spielen optimiert. Wenn ein Spiel die Hardware auf eine Art nutz wie es bisher noch nicht gemacht wurde muss ein Treiberteam prüfen ob der Treiber diesen Anwendungsfall schon optimal unterstützt. Falls nicht wird es kümmert man sich eben darum und dafür gibt es dann eben eine Nummer.
Abgefahren.

Das ganze ist doch Koordiniert. Nach aussen hin sieht es nicht zwangsläufig so aus weil man nur einen Teil des Ganzen sieht.
Ja, ist klar. Für einen normalen User ist das aber nicht nachvollziehbar.

LovesuckZ
2004-11-21, 11:11:08
Also sollte man als Benchmarker nur die offiziellen werwenden, um dem Chaos zu entfliehen?

Es müssen die verwendet werden, welche vom Partner zur Verfuegung gestellt werden.

reunion
2004-11-21, 11:15:45
Außerdem: umsteigen auf ATi AMR kann man ja später immer noch, Hauptsache man hat mal das mobo dazu ;) (asus AN8-SLI)

Stimmt, nur wird man für ATIs AMR vermutlich einen Chipsatz benötigen der das auch unterstützt. (was mit an sicherheit grenzender warscheindlichkeit nur auf ATis RS400/480 Chipsätze zutrifft, aber nicht auf den Nforce4) ;)

Demirug
2004-11-21, 11:17:47
Das glaube ich nicht. Anders lassen sich die ganzen Treiberspielchen gar nicht erkläeren. Klar würde jeder IHV sagen, daß er am Compiler optimiert um alle Spiele zu beschleunigen. Hört sich smart an.

Der Compiler ist inzwischen sehr gut. Ich habe dem Teil shader vorgesetzt welche er auf keinen Fall kennen konnte.

Zum anderen hängt die Shaderleistung nicht nur vom Shaderprogramm ab.

Das scheint bei Nvidia öfter der Fall zu sein. Vielleicht ist die Architektur schuld. Wie wir wissen baut der NV40 auf dem NV3x auf. Man hat viele Probleme beseitigt, aber auch alle?

Sicherlicht gibt es da noch Probleme. Aber die hat jede Architektur. Auch R3XX/R4XX sind ja nicht perfekt. ATI hat was den Shadercompiler angeht den Vorteil das R3XX/R4XX ja im Prinzip identisch aufgebaut sind. So hatte man für den R420 ja schon einen gute Compiler zur Verfügung. nVidia brauchte für den NV40 ein neues Backend und das folgt wesentlich komplexeren Regeln als das von ATI. Ist natürlich Architekturbedingt nur solange man sich nicht von dem klasichen GPU Design verabschiedet die logische Folge wenn man mehr Rechenleistung pro Takt haben will ohne mehr "Pipelines" zu bauen. Noch mehr Pipelines waren aber keine Lösung weil der Speicher nicht nachkommt. Eine Zwickmühle.

Gast
2004-11-21, 11:18:34
Es müssen die verwendet werden, welche vom Partner zur Verfuegung gestellt werden.
Ok, Themawechsel. :)
Wenn ich aber kein Test bestimmter Grafikkarten machen will, sonder ein ATI vs Nvidia Test schreiben will. Dann muss ich doch die offizielen Treiber von ATI und Nvidia nehmen um politisch korrekt zu handeln.

Gast
2004-11-21, 11:28:42
Der Compiler ist inzwischen sehr gut. Ich habe dem Teil shader vorgesetzt welche er auf keinen Fall kennen konnte.
Wenn du die Shader NV40 gerecht geschrieben hast, dürfte es kein Wunder sein. Die bescheidene Leistung des NV40 in neueren Spielen und auch Demos lässt mich vermuten, daß Shaderreplacement doch notwendig ist. Wenn ich mir die Leistung des R420/R423 ansehe, da scheint mir der Compiler sehr gut zu sein, weil die neusten Spiele auf einer ATI problemlos laufen, was man von Nvidia nicht behaupten kann.

StefanV
2004-11-21, 11:43:01
Hier werden Treiber, welche nicht für die Oeffentlichkeit bestimmt sind, mit offiziellen verglichen.
So und nun zeige mir das Chaos bei den von nvidia offiziell zur Verfuegung gestellten (hauptseite und Nzone).
Kannst du nicht?
Also glaubst du nur an das Chaos.
Seltsam, das es nur von nV Leaks gibt, nicht aber von ATi...

Hast du eine Erklärung dafür?!

Also ich würd mal sagen, das diese 'Leaks' von nV gewollt sind, eine andere Erklärung hab ich dafür nicht...

Demirug
2004-11-21, 11:46:48
Wenn du die Shader NV40 gerecht geschrieben hast, dürfte es kein Wunder sein. Die bescheidene Leistung des NV40 in neueren Spielen und auch Demos lässt mich vermuten, daß Shaderreplacement doch notwendig ist. Wenn ich mir die Leistung des R420/R423 ansehe, da scheint mir der Compiler sehr gut zu sein, weil die neusten Spiele auf einer ATI problemlos laufen, was man von Nvidia nicht behaupten kann.

Die waren nicht NV40 gerecht geschrieben. Wenn ich mit Effekten experimentiere mache ich mir um sowas keine Gedanken.

ATI profitiert im Moment etwas davon das die viele Spielen die im Moment heraus kommen auf R3XX Hardware entwickelt wurden. Dadurch hatte das Treiberteam auch frühzeitig Feedbacks.

Und natürlich ist der R3XX/R4XX Compiler gut weil er ja inzwischen auch einiges an Entwicklungszeit auf dem Rücken hat. Im Bezug auf die Treiberentwicklung ist es natürlich vorteilhaft wenn man eine Architektur durch viele Refreshzyklen nutzt.

Ich bitte auch darum die Vorstellung das nVidia bei "wichtigen" Spielen grundsätzlich die Shader ersetzt zu verwerfen. Bei der Anzahl von Shadern die Spiele wie Farcry oder HL2 enthalten ist das gar nicht mehr zu verantworten.

Jesus
2004-11-21, 12:01:36
Ich bitte auch darum die Vorstellung das nVidia bei "wichtigen" Spielen grundsätzlich die Shader ersetzt zu verwerfen. Bei der Anzahl von Shadern die Spiele wie Farcry oder HL2 enthalten ist das gar nicht mehr zu verantworten.

Aber wäre es dann nicht angebracht einzelne Shader wie (z.b. Wasserreflexionen, falls das einer ist ;) ) die besonders schlecht laufen zu "ersetzen"?

Ich denke ATI wird sowas in der Art bei HL2 auch machen, oder wieso läufts mit dem 4.12b im Wasser jetzt soviel besser als mit dem 4.11er (zumindest hab ich den Eindruck) ?

Demirug
2004-11-21, 12:17:53
Aber wäre es dann nicht angebracht einzelne Shader wie (z.b. Wasserreflexionen, falls das einer ist ;) ) die besonders schlecht laufen zu "ersetzen"?

Bei HL2 ist es das ärgerliche (aus Treibersicht) das es für den gleichen Effekt mehr als einen Shader gibt. Sind alles leicht modifizierte Variante.

Es ist mir aufgefallen das der Shadercompiler bei nV tendenziel bei langen Shadern noch mehr Probleme hat als bei kurzen. Die Wassershader sind recht lang. Ein Zusammenhang wäre denkbar. Bei langen Shader gibt es ja meist sehr viele mögliche Lösungen diese auf die Hardware abzubilden.

Ich denke ATI wird sowas in der Art bei HL2 auch machen, oder wieso läufts mit dem 4.12b im Wasser jetzt soviel besser als mit dem 4.11er (zumindest hab ich den Eindruck) ?

Denkbar wäre:

a) Verbesserungen des Shadercompilers für Lange Shader.
b) Bessere Cache und Speicherprofil für HL2.

Gerade beim Punkt b scheint das Hauptproblem bei ATI zu liegen weil sie das auch als die Stelle angeben wo sie am meisten Leistung verlieren bzw durch Optimierung holen können.

Hellknight[FA]
2004-11-21, 12:21:05
Aber wäre es dann nicht angebracht einzelne Shader wie (z.b. Wasserreflexionen, falls das einer ist ;) ) die besonders schlecht laufen zu "ersetzen"?

Ich denke ATI wird sowas in der Art bei HL2 auch machen, oder wieso läufts mit dem 4.12b im Wasser jetzt soviel besser als mit dem 4.11er (zumindest hab ich den Eindruck) ?


Kommt schon Leute - definitives kann man erst in 1 - 2 Monaten sagen: Beim Erscheinen von Doom 3 vernichtete NVidia-Hardware ihre ATi-Pendands auch gnadenlos. Dies hat sich jedoch mittlerweile geändert, da ATi sehr gute Treiber-Arbeit (nicht nur bezgl. Doom 3) geleistet hat. Selbst vom Cat 4.11 (welcher ja schon der bis dato schnellste offizielle Cat für X800 Karten ist) auf dem 4.12 beta waren in Doom 3 immer noch 2 fps Steigerung drinnen.

Jedenfalls schnupft eine 6800 GT in Doom 3 nicht mehr eben kurz eine X800XT (hab das selbst nachgetestet) - letztere ist ihr sogar (teilweise) überlegen).

Rollen wir das Thema in 1 - 2 Monaten nochmal auf und die Sache schaut anders aus :D


Und jetzt kanner für 2 Monate geschlossen werden :D :D ;D


Grüße

Timo

Jesus
2004-11-21, 12:37:41
Denkbar wäre:

a) Verbesserungen des Shadercompilers für Lange Shader.
b) Bessere Cache und Speicherprofil für HL2.

Gerade beim Punkt b scheint das Hauptproblem bei ATI zu liegen weil sie das auch als die Stelle angeben wo sie am meisten Leistung verlieren bzw durch Optimierung holen können.

hm ok wäre möglich. Besonders weil manch andere Spiele mit dem 4.12b langsamer laufen (painkiller demo z.b.) .

Edit: Auch denkbar, da der R420 mit langen Shadern ja viel besser umgehen können sollte (Stichw. verbesserter F-Buffer), bei Xbit Stand ja dass auf deren x800ern es kaum verbesserungen gab von 4.11 auf 4.12b.
Das kann ich von meinem r350 nicht behaupten ...

BlackBirdSR
2004-11-21, 12:49:13
hm ok wäre möglich. Besonders weil manch andere Spiele mit dem 4.12b langsamer laufen (painkiller demo z.b.) .

Es kann ja mal jemand den benchmark der Comanche4 Demo durchlaufen lassen.
Immer wenn Oberflächen mit Shadern ins Bild rücken wird das Ganze bei mir sehr langsam (R300, 4.12b)

ActionNews
2004-11-21, 13:42:23
Also Leute ich weiss gar nicht warum ihr euch wegen einem Spiel gegenseitig die Köpfe einschlagt ;).
Na dann ist ATi halt schneller in HL2 ... na und? soll ich deshalb jetzt in den nächsten Laden rennen und mir ne X800XT-PE holen? Wieso? Mir reicht doch die 6800GT locker :). Wo ist das Problem?

CU ActionNews

MechWOLLIer
2004-11-21, 14:17:50
Außerdem: umsteigen auf ATi AMR kann man ja später immer noch, Hauptsache man hat mal das mobo dazu ;) (asus AN8-SLI)
Wobei da aber noch die Frage ist, ob AMR überhaupt auf SLI Boards funktioniert?
Imo gab es irgendwo mal ein Gerücht, dass man für AMR speziell angepasste Boards braucht.

chrisihamm
2004-11-21, 14:18:16
Hallo,

ich habe mal die Performance nachgemessen,die bei Techlounge veröffentlicht wurden für HL2 und kommen auf viel höhere Frameraten bei einer G6800Gt(selbe Einstellung wie auf Techlounge),warum sind die Frameraten dort so niedrig????




http://www.thetechlounge.com/article.php?directory=hl2_performance

mfg

Gast
2004-11-21, 14:39:14
Wobei da aber noch die Frage ist, ob AMR überhaupt auf SLI Boards funktioniert?
Imo gab es irgendwo mal ein Gerücht, dass man für AMR speziell angepasste Boards braucht.



Für SLI braucht man ein NV Brett und für AMR ein ATI Brett, wenn man nur eine Karte nutzt hat man eine sehr Breite Auswahl.

Demirug
2004-11-21, 15:04:36
Für SLI braucht man ein NV Brett und für AMR ein ATI Brett, wenn man nur eine Karte nutzt hat man eine sehr Breite Auswahl.

SLI funktioniert mit jedem Board das zwei 16xPCIe Slots hat.

Gast
2004-11-21, 15:11:46
SLI funktioniert mit jedem Board das zwei 16xPCIe Slots hat.



Demnach währe also ein ATI Brett die weit aus bessere Wahl, da hier deiner Meinung nach ja beides läuft, auf dem NV Brett läuft aber nur SLI weil ja der Chipsatz nicht AMR unterstützt, von anderen Chipsatz Hersteller ist mit jetzt kein dual PCI-E Mainboard bekannt.

LovesuckZ
2004-11-21, 15:22:28
Edit: Auch denkbar, da der R420 mit langen Shadern ja viel besser umgehen können sollte (Stichw. verbesserter F-Buffer) ...

Wie arbeitet denn der F-Buffer? ;)
Wenn die Shader in einer nvidiafreundlich Form vorliegen, dann kann der NV40 deutlich besser mit laengeren Shadern umgehen.

Demirug
2004-11-21, 15:30:05
Demnach währe also ein ATI Brett die weit aus bessere Wahl, da hier deiner Meinung nach ja beides läuft, auf dem NV Brett läuft aber nur SLI weil ja der Chipsatz nicht AMR unterstützt, von anderen Chipsatz Hersteller ist mit jetzt kein dual PCI-E Mainboard bekannt.

Meiner Meinung nach?

Ich erwähnte lediglich einmal das ich mir nicht sicher bin ob ein Punkt zu Punkt transfer, welcher IMHO für performantes AMR unverzichtbar ist, ein Plicht Feature für PCIe Chipsätze ist. Und selbst wenn es eine Option ist wissen wir nicht welche Chipssätze es denoch implementiert haben. Ergo können wir zur kompatibilität von AMR zu verschiedenen PCIe Chipsätzen nichts sagen. Selbst bei ATI kann man nicht mit Sicherheit sagen ob und wie die aktuellen Chipsätze AMR unterstützen. Es ist aber genauso gut möglich das Punkt zu Punkt transfer Plicht für einen PCIe Chipsatz ist. Dann wird es lediglich noch lustig dem Betriebssystem klar zu machen was man will. Im Moment wird PCIe nämlich wie normales PCI verwaltet.

Man kann auch mit einem Intel E7525 (Tumwater) sowie mit jedem anderen PCIe Chipsatz ein SLI Board bauen. SLI ist eine reine mechanische Sache (2 16xPCIe Slots die nicht voll verdrahtet sein müssen).

Demirug
2004-11-21, 15:33:40
Edit: Auch denkbar, da der R420 mit langen Shadern ja viel besser umgehen können sollte (Stichw. verbesserter F-Buffer), bei Xbit Stand ja dass auf deren x800ern es kaum verbesserungen gab von 4.11 auf 4.12b.
Das kann ich von meinem r350 nicht behaupten ...

Nix F-Buffer. Die längeren Shader beim R420 werden durch einen grösseren Programmspeicher realisiert.

Jesus
2004-11-21, 15:44:07
Wie arbeitet denn der F-Buffer? ;)

http://graphics.stanford.edu/projects/shading/pubs/hwws2001-fbuffer/


Wenn die Shader in einer nvidiafreundlich Form vorliegen, dann kann der NV40 deutlich besser mit laengeren Shadern umgehen.

Es ist mir aufgefallen das der Shadercompiler bei nV tendenziel bei langen Shadern noch mehr Probleme hat als bei kurzen. Die Wassershader sind recht lang. Ein Zusammenhang wäre denkbar. Bei langen Shader gibt es ja meist sehr viele mögliche Lösungen diese auf die Hardware abzubilden.

Ja, wenn ;)

LovesuckZ
2004-11-21, 15:52:38
Ja, wenn ;)

Jedes moderne DX Game sollte unterschiedliche Shaderprofile unterstuetzen.
Im gegensatz zum r420 kann der NV40 auch Shader ausführen, die in die Richtung "Angst (siehe Donnie Darko)" gehen.
Das Valve den nvidiaoptimierten Pfad entfernt hat, zeigt doch nur, dass die ATi Hardware nicht mehr viel schneller waere.

Jesus
2004-11-21, 15:56:43
Jedes moderne DX Game sollte unterschiedliche Shaderprofile unterstuetzen.
Im gegensatz zum r420 kann der NV40 auch Shader ausführen, die in die Richtung "Angst (siehe Donnie Darko)" gehen.
Das Valve den nvidiaoptimierten Pfad entfernt hat, zeigt doch nur, dass die ATi Hardware nicht mehr viel schneller waere.

Nur bisher gibts irgendwie noch kein Shaderlastiges (selbst mit SM3) Spiel welches auf dem NV40 schneller ist (eher das Gegenteil ist der Fall).

Gast
2004-11-21, 16:02:07
Jedes moderne DX Game sollte unterschiedliche Shaderprofile unterstuetzen.
Im gegensatz zum r420 kann der NV40 auch Shader ausführen, die in die Richtung "Angst (siehe Donnie Darko)" gehen.
Das Valve den nvidiaoptimierten Pfad entfernt hat, zeigt doch nur, dass die ATi Hardware nicht mehr viel schneller waere.


Also einerseits schreibst du der NV 40 frisst alles, aber dann schreibst du das optimiert werden muss, entscheide dich mal.


Ich glaube auch kaum das Vavle für extra NV ausbremst, genau wie ID ATI angeblich ausbremst, keine der Karten ist eine eierlegende Wollmilchsau.

Du erinnerst mich an so einige Politiker, hauptsache man ist gegen die anderen, egal was kommt.

Mantikor
2004-11-21, 16:10:55
Nur bisher gibts irgendwie noch kein Shaderlastiges (selbst mit SM3) Spiel welches auf dem NV40 schneller ist (eher das Gegenteil ist der Fall).

Spellforce? :rolleyes:

Gast
2004-11-21, 17:05:12
Spellforce? :rolleyes:


Das lief auch schon auf meiner FX 5900 XT besser als auf der 9800Pro.

LovesuckZ
2004-11-21, 17:35:00
Also einerseits schreibst du der NV 40 frisst alles, aber dann schreibst du das optimiert werden muss, entscheide dich mal.

Ich sehe hier keinen Widerspruch.
Der Vorteil von ATi ist/war, dass das SM2.0 auf ihre Hardware ausgerichtet wurde.
Jegliche PS (vielleicht auch VS)2.0 laufen auf ihrer Hardware bestens. Alle anderen versionen laufen dagegen nichtmehr, bis auf 2.b.

Ich glaube auch kaum das Vavle für extra NV ausbremst, [...] keine der Karten ist eine eierlegende Wollmilchsau.

Wo ist der von Valve angepriesende optimierte und fünfmal solange gebrauchte Pfad für die FX Karten?

tombman
2004-11-22, 00:04:10
@ gast oben: wie demirug schon gesagt hat, gibt es auch INTEL chipsets (tumwater) die zb dual xeon mobos befeuern wo SLi drauf rennt--- also nix mit nvidia only.

Und des wäre von ATI SEHR blöd wenn AMR nur auf ATi chipset mobos laufen würde, weil sie einen riesen nforce4 SLI Markt einfach verlieren würden. Denn so arrogant KANN ATi ned sein zu glauben es wird jeder auch gleich das mobo wechseln wenn er AMR haben will...natürlich MUSS das kompatibel zu tumwater und nf4sli sein... damit man auch schnell zu ATI wechseln kann, falls man vorher nvidia SLI hatte...

Ich mach mir da also weniger Sorgen. (würde mich ned wundern wenn die selbst mit einer bridge rauskommen würden, ähnlich wie der SLI Adapter von Nvidia..rofl)
(natürlich würde das dann nur auf den neuen Karten mit r480++ gehen...-> also genau auf die neuen Karten-pcbs schauen wenn sie rauskommen ;))

deekey777
2004-11-22, 00:09:38
Wo ist der von Valve angepriesende optimierte und fünfmal solange gebrauchte Pfad für die FX Karten?


Der Hacker hat's geklaut. :weg:

Gast
2004-11-22, 09:55:15
Ich sehe hier keinen Widerspruch.
Der Vorteil von ATi ist/war, dass das SM2.0 auf ihre Hardware ausgerichtet wurde.
Jegliche PS (vielleicht auch VS)2.0 laufen auf ihrer Hardware bestens. Alle anderen versionen laufen dagegen nichtmehr, bis auf 2.b.


Welche anderen "Versionen" ? Du meinst wohl das tolle SM2.0a (das es so nicht gibt, in keinem DX Standard, NV only). Das war der grosse Fehler von NV, hätten sie sich mehr an den Standard gehalten, würden sie jetzt besser dastehen.

Es entstammt zwar wie SM2.0b auch dem SM2.0+ (extended), aber es ist eben nur ein Subset von diesem. Wenn Entwickler sowas unterstützen (was sie in der Vergangenheit NICHT getan haben, und auch in der Zukunft nicht tun werden) dann bedeutet das immer dass eine spezielle Hardware bevorzugt wird und natürlich mehraufwand bei der Entwicklung.

Genau aus diesem Grund gibt es Standards... (auch SM2.0b ist ein Sonderweg, der nicht gut zu heissen ist).

Gortha
2004-11-22, 10:14:51
Wobei SM2.0b spitze im neuen FarCry 1.3 läuft ;D

reunion
2004-11-22, 10:23:32
Das war der grosse Fehler von NV, hätten sie sich mehr an den Standard gehalten, würden sie jetzt besser dastehen.


Zuerst die Chips und dann der Standard ;)
Soll heißen NV konnte zum Zeitpunkt der Entwicklung des NV30 unmöglich wissen wie der SM2.0 Standard aussehen wird.

Gast
2004-11-22, 10:54:16
Zuerst die Chips und dann der Standard ;)
Soll heißen NV konnte zum Zeitpunkt der Entwicklung des NV30 unmöglich wissen wie der SM2.0 Standard aussehen wird.

Natürlich konnten sie es wissen, sie wussten ja schliesslich auch wie der SM2.0+ Standard aussieht.

r@w
2004-11-22, 10:59:34
Nicht schon wieder dieser Müll!
Sorry...

Welche anderen "Versionen" ? Du meinst wohl das tolle SM2.0a (das es so nicht gibt, in keinem DX Standard, NV only). Das war der grosse Fehler von NV, hätten sie sich mehr an den Standard gehalten, würden sie jetzt besser dastehen.nVidia hat sich bei der Entwicklung (welche laaaaange vor dem finalen DX9 begann) an damals gültige "Standards" gehalten. Als M$ diese aber änderte und damit auf die R300-Archtektur als Minimum 'anhob' (was sonst eigentlich nicht üblich ist), hatte nVidia das Nachsehen.

Und es scheint weniger technische Gründe für die Entscheidung Microschrotts gegeben zu haben.

Es entstammt zwar wie SM2.0b auch dem SM2.0+ (extended), aber es ist eben nur ein Subset von diesem. Wenn Entwickler sowas unterstützen (was sie in der Vergangenheit NICHT getan haben, und auch in der Zukunft nicht tun werden) dann bedeutet das immer dass eine spezielle Hardware bevorzugt wird und natürlich mehraufwand bei der Entwicklung.Blödsinn, sorry.

Das einzige, was man machen muss, ist, die Shader einfach nochmal mit dem anderen Rendertarget (PS2.0, PS2.A, PS2.B, PS3.0) durch den Compiler zu jagen und dann später beim 'erkennen' der GraKa-Features (was sowieso gemacht werden muss) entsprechend zuzuordnen. Dabei wird überhaupt nichts "bevorzugt"...

Genau aus diesem Grund gibt es Standards... (auch SM2.0b ist ein Sonderweg, der nicht gut zu heissen ist).Falsch.

PS2.0 ist ein ATI-'Standard', während PS2.A ein nVidia-'Standard' ist (selbiges gilt vice versa für PS2.B und PS3.0). Und überhaupt... ist jetzt PS3.0 ein 'Standard'? Und wenn ja, warum hat sich ATI nicht daran 'gehalten'?

Sorry, aber ich vermute, dass Du hier einfach etwas falsch verstanden hast.
Microschrott 'versäumte' es einfach (absichtlich?), auch ein Redertarget für nVidia-Karten der ersten Generation vorzusehen...

Razor

r@w
2004-11-22, 11:02:03
Natürlich konnten sie es wissen, sie wussten ja schliesslich auch wie der SM2.0+ Standard aussieht.Nein.
Und alles, was über die Grundspezifikation von PS2.0 hinaus geht, wird PS2.0+ genannt.

Und inwiefern unterstützt nVidia SM2 denn nicht?
Das würde mich jetzt auch mal brennend interessieren...

Razor

r@w
2004-11-22, 11:04:36
Der Hacker hat's geklaut. :weg:Ich würd' eher sagen: ATI hat's gekauft!
:D

Razor

reunion
2004-11-22, 11:37:05
Natürlich konnten sie es wissen, sie wussten ja schliesslich auch wie der SM2.0+ Standard aussieht.

Nein, wussten sie nicht. Die einzelnen Hersteller "wandern" mit ihren Spezifikationen zu M$, die dann diese Standards festlegen. Da R300 featuremäßig magerer ausgestattet war als NV30 wurde er als minimalvorraussetztung eingestuft. NV30 bekam ein eigenes Profil 2.0a um die zusätztlichen Features des Chips auch ausnützten zu können. Den Fehler den NV gemacht hat war schlicht und einfach das man zuwenig auf die PS-Performance geschaut hat bzw. man nicht mit einem so starken R300 gerechnet hat.

betasilie
2004-11-22, 11:40:38
nVidia hat sich bei der Entwicklung (welche laaaaange vor dem finalen DX9 begann) an damals gültige "Standards" gehalten. Als M$ diese aber änderte und damit auf die R300-Archtektur als Minimum 'anhob' (was sonst eigentlich nicht üblich ist), hatte nVidia das Nachsehen.

Und es scheint weniger technische Gründe für die Entscheidung Microschrotts gegeben zu haben.


Ja klar. Mal wieder diese arrogante Annahme, dass NV ohne Rücksicht auf die anderen IHVs den DirectX Standard schreiben kann. NV hat die Rechnung dafür bekommen, als sie meinten sie könnten alle Mitbewerber außen vor stehen lassen und DX9 alleine festlegen.

Gast
2004-11-22, 11:51:59
Nein, wussten sie nicht. Die einzelnen Hersteller "wandern" mit ihren Spezifikationen zu M$, die dann diese Standards festlegen. Da R300 featuremäßig magerer ausgestattet war als NV30 wurde er als minimalvorraussetztung eingestuft. NV30 bekam ein eigenes Profil 2.0a um die zusätztlichen Features des Chips auch ausnützten zu können. Den Fehler den NV gemacht hat war schlicht und einfach das man zuwenig auf die PS-Performance geschaut hat bzw. man nicht mit einem so starken R300 gerechnet hat.

Es gibt kein Profil 2.0a ( zumindest nicht bei M$). 2.0a ist genauso wie 2.0b eine Untermenge von 2.0+ extended. Was genau in 2.0a/b drin steht machen nur die Hersteller unter sich aus, MS hat damit nichts zu tun.

Gast
2004-11-22, 11:53:07
Ja klar. Mal wieder diese arrogante Annahme, dass NV ohne Rücksicht auf die anderen IHVs den DirectX Standard schreiben kann. NV hat die Rechnung dafür bekommen, als sie meinten sie könnten alle Mitbewerber außen vor stehen lassen und DX9 alleine festlegen.

Völlig richtig, es gibt schliesslich auch noch andere Grafikkartenhersteller ausser ATI und NV...

Gast
2004-11-22, 12:07:48
Es gibt kein Profil 2.0a ( zumindest nicht bei M$). 2.0a ist genauso wie 2.0b eine Untermenge von 2.0+ extended. Was genau in 2.0a/b drin steht machen nur die Hersteller unter sich aus, MS hat damit nichts zu tun.

Wenn man vom Profil spricht, meint man das Shaderprofil, welches vom HLSL zur Verfuegung gestellt und nach welchen der Shader compiliert wird.
Und wenn MS damit nichts zu tun haette, ah mai Gott, wer dann?

LovesuckZ

Quasar
2004-11-22, 12:16:55
Nur bisher gibts irgendwie noch kein Shaderlastiges (selbst mit SM3) Spiel welches auf dem NV40 schneller ist (eher das Gegenteil ist der Fall).

Was ist "shaderlastig"?
- Einfach nur viele, viele Shader?
- Viele Pixel, deren Farbe mittels eines Shaders berechnet wird?
- Einfach nur laaange Shader?
- Viele lange Shader, die auch noch möglichst viele Pixel berechnen?

Oder anders gefragt:
Einfach nur der Einsatz von Shadern oder die Limitierung durch die Rechenlänge von Shadern?

Xmas
2004-11-22, 12:35:25
Ja klar. Mal wieder diese arrogante Annahme, dass NV ohne Rücksicht auf die anderen IHVs den DirectX Standard schreiben kann. NV hat die Rechnung dafür bekommen, als sie meinten sie könnten alle Mitbewerber außen vor stehen lassen und DX9 alleine festlegen.
Mal wieder diese arrogante Annahme, NVidia hätte arroganterweise angenommen, DX9 alleine festlegen zu können. ;)

Wie kommst du darauf?

betasilie
2004-11-22, 12:40:50
Mal wieder diese arrogante Annahme, NVidia hätte arroganterweise angenommen, DX9 alleine festlegen zu können. ;)

Wie kommst du darauf?
Nun, man hat ja gesehen, dass NV schon ohne Absprache mit anderen IHVs fleißig entwickelt hat, in der Annahme, dass ihre Vorschläge DX9 defnieren würden. Das konnten sie durch den X-Box Deal mit M$ auch noch annehmen, denn, wenn M$ und NV sich nicht zerstritten hätten, dann hätten andere IHVs sicherlich nichts zu melden gehabt und NVs Konzept wäre als DX9 gegossen worden. Tja, das ist dann wohl in die Hose gegangen.

Quasar
2004-11-22, 12:55:39
Nun, man hat ja gesehen, dass NV schon ohne Absprache mit anderen IHVs fleißig entwickelt hat, in der Annahme, dass ihre Vorschläge DX9 defnieren würden. Das konnten sie durch den X-Box Deal mit M$ auch noch annehmen, denn, wenn M$ und NV sich nicht zerstritten hätten, dann hätten andere IHVs sicherlich nichts zu melden gehabt und NVs Konzept wäre als DX9 gegossen worden. Tja, das ist dann wohl in die Hose gegangen.
:lol:
Wenn jemand "aus der grünen Fraktion" sowas geschrieben hätte, wäre wieder der Paranoia-Smiley von extern gelinkt worden... ;)

Man könnte den Eindruck gewinnen, daß nicht die IHVs es sind, die im Endeffekt über den Grafikmarkt bestimmen, sondern ein gewisser ISV...

Demirug
2004-11-22, 12:55:41
Nun, man hat ja gesehen, dass NV schon ohne Absprache mit anderen IHVs fleißig entwickelt hat, in der Annahme, dass ihre Vorschläge DX9 defnieren würden. Das konnten sie durch den X-Box Deal mit M$ auch noch annehmen, denn, wenn M$ und NV sich nicht zerstritten hätten, dann hätten andere IHVs sicherlich nichts zu melden gehabt und NVs Konzept wäre als DX9 gegossen worden. Tja, das ist dann wohl in die Hose gegangen.

Alle IHVs haben immer ohne Absprache entwickelt sonst wären die ganzen DX-Caps nie notwendig gewesen.

Wenn MS das nVidia Konzept als Basis für DX9 genommen hätte dann wäre am Ende nur nVidia mit einer DX9 Karte present gewesen.

In die Hose ist für nVidia eigentlich nur die Festlegung des PS 2.0 Standards gegangen.

Xmas
2004-11-22, 13:04:20
Nun, man hat ja gesehen, dass NV schon ohne Absprache mit anderen IHVs fleißig entwickelt hat, in der Annahme, dass ihre Vorschläge DX9 defnieren würden.
Zumindest in der Hoffnung. Aber genau dasselbe hat ATI auch getan. Und PowerVR. Jeder IHV entwickelt erst mal für sich, jedenfalls jene die technologisch führend sind.

Leider entwickelten ATI und NVidia in deutlich unterschiedliche Richtungen.

betasilie
2004-11-22, 13:16:16
Alle IHVs haben immer ohne Absprache entwickelt sonst wären die ganzen DX-Caps nie notwendig gewesen.

Wenn MS das nVidia Konzept als Basis für DX9 genommen hätte dann wäre am Ende nur nVidia mit einer DX9 Karte present gewesen.

In die Hose ist für nVidia eigentlich nur die Festlegung des PS 2.0 Standards gegangen.
Ja, was natürlich für NV ein Desaster war, denn SM3.0 war ja auch für NV mit dem NV30 nicht machbar und von der SM2.0 Performance brauchen wir ja nicht zu reden.

Ich denke es wäre durchaus möglich gewesen, dass NVs Vorstellung als DX9 Mindestanforderung gekommen wäre, wenn ATI nicht den X-BoxII deal bekommen hätte.
Zumindest in der Hoffnung. Aber genau dasselbe hat ATI auch getan. Und PowerVR. Jeder IHV entwickelt erst mal für sich, jedenfalls jene die technologisch führend sind.

Leider entwickelten ATI und NVidia in deutlich unterschiedliche Richtungen.
Ja, das stimmt natürlich. Ich wollte auch nur darauf hinaus, dass NV verständlicher Weise in der Annahme war, dass deren Vorstellungen von DX9 durchkommen. Dass ander führende IHVs das ähnlich machen, ist klar. Im Endeffekt entscheidet das leider M$ in letzter Instanz, wie deren API aussehen wird, was natürlich immer für den Nachteile hat, der gerade nicht so gut mit M$ steht.

r@w
2004-11-22, 13:31:40
Ja klar. Mal wieder diese arrogante Annahme, dass NV ohne Rücksicht auf die anderen IHVs den DirectX Standard schreiben kann. NV hat die Rechnung dafür bekommen, als sie meinten sie könnten alle Mitbewerber außen vor stehen lassen und DX9 alleine festlegen.Seit wann legen IHV's DX-Spezifikationen fest?
:confused:

Razor

r@w
2004-11-22, 13:33:11
Es gibt kein Profil 2.0a ( zumindest nicht bei M$). 2.0a ist genauso wie 2.0b eine Untermenge von 2.0+ extended. Was genau in 2.0a/b drin steht machen nur die Hersteller unter sich aus, MS hat damit nichts zu tun.Natürlich gibt es die Profile als Redertarget... M$ musste diese ja höchstselbst in den Compiler integrieren.

Razor

r@w
2004-11-22, 13:40:03
Ich wollte auch nur darauf hinaus, dass NV verständlicher Weise in der Annahme war, dass deren Vorstellungen von DX9 durchkommen. Dass ander führende IHVs das ähnlich machen, ist klar. Im Endeffekt entscheidet das leider M$ in letzter Instanz, wie deren API aussehen wird, was natürlich immer für den Nachteile hat, der gerade nicht so gut mit M$ steht.Nicht alle IHVs machen das ähnlich, sondern sie machen es selbstverständlich genauso!
nVidia hat die Hardware nach einem 'etwas anderen' DX-Konzept entwickelt und wurde dann von der harten Realität eingeholt.

Und klar, dass nVidia so 'abgesemmelt' wurde, hat auch ganz sicher was mit einem etwas verärgerten Microschrott zu tun, welches einfach nicht einsah, dass so ein 'kleiner' IHV sich nicht einfach duckt, wenn der große Bill gesprochen hat, sich sogar erdreistete öffentlich ein "mir doch egal" in die Welt schallen zu lassen.

Nun ja, ATI ist da vielleicht etwas besser im Katzbuckeln...
:D

Razor

MechWOLLIer
2004-11-22, 16:20:24
Seit wann legen IHV's DX-Spezifikationen fest?
:confused:
Razor
Sie legen sie zwar nicht alleine fest, haben aber neben MS noch einen großen Anteil daran.
Smoit kann man schon auf die Vermutung kommen, dass NV dachte, sie könnten ihre Ideen einfach so durchsetzen.(Anders herum kann man natürlich auch denken).

r@h
2004-11-22, 18:13:41
Sie legen sie zwar nicht alleine fest, haben aber neben MS noch einen großen Anteil daran.
Smoit kann man schon auf die Vermutung kommen, dass NV dachte, sie könnten ihre Ideen einfach so durchsetzen.(Anders herum kann man natürlich auch denken).Ähmmm...
Die Henne oder das Ei, ja?

Ohne Hardware/Treiber gibt's keine Specs, das ist schon richtig.

Insofern bringen die IHV's ihre Features ein und Microsoft macht daraus Specs. Welche davon nun aber welchem DX-Level zugeordnet werden (bzw. ob überhaupt) und welche als Optional gelten, legt allein Microschrott fest und die IHV's haben darauf nur bedingt Einfluss. Allerdings sollte M$ eigentlich sehr großes Interesse daran haben, möglichst viele Features der jeweiligen IHV's zumindest zu unterstützen... aber das, was da mit nVidia passierte, darf man wohl als einzigartig einstufen. So wurden Featuresets (wie z.Bsp. die INT12-Einheiten) komplett ignoriert, obwohl es dafür eigentlich keinen Grund gab. Auch hat man sich auf ATI's 24fp-Level als Minimum für die Default-Präzision eingelassen, obwohl das sonst (zu diesem Zeitpunkt) kein Anbieter im Markt tat. Somit verkam nVidia's "Double-fp16-Engine" zu einem optionalem Feature, welches explizit von den Entwicklern unterstützt werden musste.

Alles in allem ein bissel viel des "Zufalls", oder?

Wenn man jetzt noch bedenkt, dass sich nVidia und Microschrott wegen der XBox in Haaren lagen (M$ wollte einfach so die Verträge einseitig ändern und nVidia machte 'erstaunlicher Weise' nicht mit) und daraufhin ATI den Zuschlag für die XBox2 bekam und - welch Zufall - der R300 in allen seinen Spezifikationen exakt dem Minimum des DX9-Levels entsprach und damit nVidia's Technologie recht alt aussah, ist es recht einfach 1 und 1 zusammen zu zählen...

Aber das ist nun schon echt lange her... und wie es ausschaut hat nVidia doch wohl ganz ordentlich aufgeholt.

Wie dem auch sei, nicht die IHV's machen die Specs, sondern M$ tut dies. Die IHV's liefern lediglich die Features, die dann von den Konsortien zu Specs werden (oder auch nicht).

Razor

deekey777
2004-11-22, 18:56:38
Um beim Thema zu bleiben: Half-Life 2 Performance with Athlon XP (http://www.firingsquad.com/hardware/half-life_2_athlon_xp/default.asp)

LovesuckZ
2004-11-23, 17:14:40
Mein Schnuckelchen, wenn die nV Hardware so gut ist, wie von dir und anderen orakelt, dann kann man sie garnicht einbremsen.

Zeige mir bitte dies als Zitat.


Und was hat JC über D³ gesagt?
Da sollte auch das möglichste aus der Hardware rausgeholt werden.

Wo steht das?

Beide (id und Valve) haben in der Beziehung die Leute verar***t.

Wo hat er absichtlich ATi hardware eingebremst oder von einem Pfad versprochen, der schneller, gleichschoen und im Spiel nicht mehr vorhanden ist?

Und wo ist das optimale für ATI Karten?

Wurde er versprochen?
Oder anders: Warum hat sich Nvidia darum gekuemmert und ATi nicht?
Id hat einen ARB2 Pfad, der beide Karten nicht bevorzugt. Das dieser nicht optimal ist, hat niemand behauptet.

Also kannst du der Aussage von JC genause Vertrauen wie der von Valve.

Er ist vertrauenswürdiger als die Leute bei Valve, die Lügen naemlich.
Immerhin sagte er die Wahrheit über die FP Leistung bei den NV3x Karten.

Beide haben mit den Aussagen die User verar***t.


Gibt es ein Zitat von carmack, dass er es so gesagt haette, dass beste aus den beiden Karten herausgeholt zu haben?

Gast
2004-11-24, 09:43:24
Zeige mir bitte dies als Zitat.
Wo steht das?


eine Seite vorher


Wo hat er absichtlich ATi hardware eingebremst oder von einem Pfad versprochen, der schneller, gleichschoen und im Spiel nicht mehr vorhanden ist?

Guck mal in dein D3 Verzeichnis in die Pk dateien, da sind die Shader sogar noch drinnen (r200 etc...)


Wurde er versprochen?
Oder anders: Warum hat sich Nvidia darum gekuemmert und ATi nicht?
Id hat einen ARB2 Pfad, der beide Karten nicht bevorzugt. Das dieser nicht optimal ist, hat niemand behauptet.

NVidia macht Shaderreplacement und noch viel mehr was sie sich durch ihre "Zusammenarbeit" mit id erarbeitet haben, sollte klar sein (und bewiesen). Der ARB2 Pfad ist so geschrieben dass er NV Karten eher liegt als ATI Karten (sagte Demirug mal).

Er ist vertrauenswürdiger als die Leute bei Valve, die Lügen naemlich.
Immerhin sagte er die Wahrheit über die FP Leistung bei den NV3x Karten.


ok JC = gut, weil NV (durch Shaderreplacement etc.) schneller ist, Valve = böse, weil NV langsamer ist (da sie sich an den PS2.0 Standard halten)...


Gibt es ein Zitat von carmack, dass er es so gesagt haette, dass beste aus den beiden Karten herausgeholt zu haben?

ja. auch schon 1000 mal durchgekaut und das weiss du genau, also bitte lass diesen Bullshit. Wie im Kindergarten ...

Quasar
2004-11-24, 09:51:59
Guck mal in dein D3 Verzeichnis in die Pk dateien, da sind die Shader sogar noch drinnen (r200 etc...)
Und was sagt uns das in Bezug auf "Wo hat er absichtlich ATi hardware eingebremst oder von einem Pfad versprochen, der schneller, gleichschoen und im Spiel nicht mehr vorhanden ist?"?


NVidia macht Shaderreplacement und noch viel mehr was sie sich durch ihre "Zusammenarbeit" mit id erarbeitet haben, sollte klar sein (und bewiesen). Der ARB2 Pfad ist so geschrieben dass er NV Karten eher liegt als ATI Karten (sagte Demirug mal).
GL_ARB_fragment_program verwendet dieselben HW-Pfade wie 2.0-Shader und setzt sich, IIRC, hauptsächlich aus der ehemaligen ATi-Extension zusammen.

Name

ARB_fragment_program

Name Strings

GL_ARB_fragment_program

[...]
Contact

Benj Lipchak, ATI Research (blipchak 'at' ati.com)

Wie kann man "2.0-Shader" schreiben, die nVidia mehr liegen? *gg* Ich dachte, nVidia kann kein 2.0 und muss deswegen 3.0 in ihren Shadern haben ((tm) by Gast).



ja. auch schon 1000 mal durchgekaut und das weiss du genau, also bitte lass diesen Bullshit. Wie im Kindergarten ...
Was sagte JC genau? ;) Zitate sind immer so eine Sache, wenn man sich "ungefähr" daran zu erinnern meint...

Dr Hake
2004-11-24, 12:39:20
kann das Ganze der optimiert fuer den und der fuer den anderen nicht einmal aufhoeren. Laeuft ein TWIMTBP Game schneller auf nV als auf Ati heisst es sofort aus der roten Ecke: auf nV optimiert. Aus der gruenen ertoent es : Noe, TWIMTBP will nur sagen dass das Game auf der HW laeuft. In diesem Falle ist es umgedreht.
Kanmn es nicht sein dass
- D3 auf nV schneller laeuft weil nV die bessere OGL Implemetation hat
- HL2 auf Ati schneller ist weil es halt ein PS2.0 Spiel ist.
Boese Zungen koennen ja jetzt behaupten dass Carmac absichtlich OGl benuetzt weil er weiss dass nV hier schneller ist als Ati, umgekehrt mit HL2 koennte man auch einen Schuh daraus machen. Schmarrn

hmx
2004-11-24, 17:21:05
Hmmm ich glaube dass NV dadurch dass ein NV40 mit 16p 32 zixel pro Takt schreiben kann auch Vorteile haben müsste.
Dass HL2 ein PS2 Spiele ist hat imo damit dass es schneller läuft nix zu tun. Die Shader des NV40 sollten pro Takt/Pipeline min. genauso schnell sein wie die des r420.

Jesus
2004-11-24, 18:40:43
Hmmm ich glaube dass NV dadurch dass ein NV40 mit 16p 32 zixel pro Takt schreiben kann auch Vorteile haben müsste.
Dass HL2 ein PS2 Spiele ist hat imo damit dass es schneller läuft nix zu tun. Die Shader des NV40 sollten pro Takt/Pipeline min. genauso schnell sein wie die des r420.

Jo dann dürfte der Vorsprung nicht höher als 30% sein, dem ist aber oft nicht so.

hmx
2004-11-24, 19:18:07
Afaik ist aus dem NV40-Technik Artikel ja zu entnehmen, dass man sich beim NV40 an bestimmte Optimierungsregeln halten muss, um die bestmögliche Leistung zu erreichen. Der NV40 besitzt ja pro Pipeline mehr Recheneinheiten als der r420 und irgendwo steht da auch, dass zwei unterschiedliche Recheneinheiten "besser" sind als eine Allzweckeinheit. Ati muss ja mit dem höheren Tkt gegen die bessere Takt/Pipeline Leistung gegenhalten. Afaik wurde HL2 auf dem r300 entwickelt, was Valve ja auch nicht vorzuwerfen ist, denn damals war der r300 die schnellste DX9 HW.

Quasar
2004-11-24, 19:51:32
Die Shader des NV40 sollten pro Takt/Pipeline min. genauso schnell sein wie die des r420.
Das sind sie aber nicht. "Mindestens" impliziert den schlechtest-möglichen Fall und in diesem können Radeons deutlich schneller als GeForces sein. Wenn man nun die jeweils schlechtesten Fälle jeder Stufe der Rendering-Pipeline nimmt, kann sich das ganz noch stark vervielfältigen.

hmx
2004-11-24, 19:54:58
OK. Dann ist es eher so, dass die Shadern im schlechtestem Fall langsamer und im bestem Fall schneller sind?

Gast
2004-11-24, 19:56:10
Afaik ist aus dem NV40-Technik Artikel ja zu entnehmen, dass man sich beim NV40 an bestimmte Optimierungsregeln halten muss, um die bestmögliche Leistung zu erreichen. Der NV40 besitzt ja pro Pipeline mehr Recheneinheiten als der r420 und irgendwo steht da auch, dass zwei unterschiedliche Recheneinheiten "besser" sind als eine Allzweckeinheit.
Ich glaube da hat aths zu tief in seine Glaskugel geschaut. :)
Theorie muss nicht immer mit der Praxis übereinstimmen. Siehe R350 und NV35. Der NV35 ist in der Theorie besser, in der Praxis sieht es aber in DX9 vernichtend schlecht für den NV35 aus.

hmx
2004-11-24, 20:00:41
Man kann aber auch Theoretisch gut nachvollziehen, dass der nv35 bei PS2.0 Shadern so langsam ist. Wenn die Theorie dies nicht zeigt, bedeutet das nicht, dass Theoretische betrachtungen generell Unsinn sind sondern nur, dass man nicht alles Vollständig betrachtet hat und so nicht alles auf der Rechnung hat.

Quasar
2004-11-24, 20:06:34
Ich glaube da hat aths zu tief in seine Glaskugel geschaut. :)
Theorie muss nicht immer mit der Praxis übereinstimmen. Siehe R350 und NV35. Der NV35 ist in der Theorie besser, in der Praxis sieht es aber in DX9 vernichtend schlecht für den NV35 aus.

Mal wieder einen Nahe-Worst-Case annehmend, hat nVidia in "dieser Runde" zumindest den Nachteil der nur halb so vielen Shaderpipelines ausgewetzt. Von daher sollte man den Vergleich R300/nV30 (R350/nV35) nicht auf R420/nV40 übertragen. ;)

Xmas
2004-11-24, 20:10:37
Jo dann dürfte der Vorsprung nicht höher als 30% sein, dem ist aber oft nicht so.
Öfter als dass er niedriger ist?

OK. Dann ist es eher so, dass die Shadern im schlechtestem Fall langsamer und im bestem Fall schneller sind?
Genau. Es ist recht einfach, einen Shader zu finden der auf NV40 wesentlich schneller läuft, genauso wie es einfach ist einen zu finden der auf R420 wesentlich schneller läuft.
Was zählt sind allerdings "realistische" Shader, und da sieht es IMO einigermaßen ausgeglichen aus.

Jesus
2004-11-24, 20:18:12
Öfter als dass er niedriger ist?

Nein, es ist ja nich alles shaderlimitiert, wie man an den Ergebnissen der Maps (und an den Maps selbst) sieht. Canal ist so eine shaderlimiterende Map imo, vorallem mit Relfect All. Vieles ist auch einfach CPU limitiert oder hängt an der Füllrate etc...

Quasar
2004-11-24, 20:39:51
Vielleicht tut Reflect all auch noch was anderes - etwas, womit man auf den ersten Blick nicht rechnet?

Demirug
2004-11-24, 20:47:37
Nein, es ist ja nich alles shaderlimitiert, wie man an den Ergebnissen der Maps (und an den Maps selbst) sieht. Canal ist so eine shaderlimiterende Map imo, vorallem mit Relfect All. Vieles ist auch einfach CPU limitiert oder hängt an der Füllrate etc...

Da frage ich doch mal unverschämt nach dem Nachweiss das Canal mit Reflect All shaderlimitiert und was ohne Reflect All limitiert?

aths
2004-11-24, 22:04:00
Jo dann dürfte der Vorsprung nicht höher als 30% sein, dem ist aber oft nicht so.Das hängt davon ab. Man kann Shader konstruieren, wo ATI pro Takt mindestens doppelt so schnell ist. Man kann auch Shader konstruieren, wo NV mindestens 6x so schnell ist. Die NV-Pipes sind traditionell sehr MUL-stark. Shader, die oft MUL verwenden, oder neben DP3 noch MUL brauchen, eignen sich gut um die NV40-Pipe effizient auszulasten.

Xmas
2004-11-24, 23:04:42
Ich könnte mir sogar vorstellen, dass Reflect all shader-limitiert ist. Vertex Shader-limitiert allerdings.

deekey777
2004-11-24, 23:48:35
Choosing the Best CPU for Half-Life 2 (http://www.xbitlabs.com/articles/cpu/display/29cpu-hl2.html) @Xbit.

Irgendjemand bei VALVe meinte, dass HT(T?) nicht implementiert sein wird, da es zu umständlich sei, Hyper Threading zu implementieren ist.

Dennoch sieht man, dass die CPU (selbst in den Kanälen, so lange keine Eye Candies an) eine wichtige Rolle hat, was den Marketingsprüchen von VALVe ("man braucht eher eine starke Grafikkarte") zum Teil widerspricht.

Gast
2004-11-25, 07:08:15
Da frage ich doch mal unverschämt nach dem Nachweiss das Canal mit Reflect All shaderlimitiert und was ohne Reflect All limitiert?

Hm, bei Reflect All wird mehr reflektiert vorallem bewegliche Objekte, das heisst komplexere Shader. Da dabei die eine Graka anscheinend anders reagiert als die andere kann man CPU limitierung dabei ausschliessen. Auch die Menge der Pixel ändert sich insgesamt nicht, womit die Füllrate auch ausgeschlossen werden kann. Bleibt nicht mehr viel übrig...

Gast
2004-11-25, 07:18:21
oder hier:

[quoteHalf-Life 2 uses a special shader for water surfaces, which loads the graphics processor really heavily.[/quote] (xbitlabs)

Demirug
2004-11-25, 08:14:22
Hm, bei Reflect All wird mehr reflektiert vorallem bewegliche Objekte, das heisst komplexere Shader. Da dabei die eine Graka anscheinend anders reagiert als die andere kann man CPU limitierung dabei ausschliessen. Auch die Menge der Pixel ändert sich insgesamt nicht, womit die Füllrate auch ausgeschlossen werden kann. Bleibt nicht mehr viel übrig...

oder hier:

Half-Life 2 uses a special shader for water surfaces, which loads the graphics processor really heavily. (xbitlabs)

Das mehr reflektiert wird ist ersichtlich. Aber...

Was in möglicherweise nicht direkt einsehbaren Rendertargets abläuft sieht man ja nicht. Ändert sich die Pixelmenge wirklich nicht?

Die zusätzlichen Objekte müssen ja irgendwo herkommen. Geht das ohne den Einsatz von zusätzlicher Texelfüllrate?

Ist der Wassershader bei Reflect All ein andere als bei Reflect World?

Ich bleibe also dabei das es keine Nachweiss gibt das Reflect All die Last auf die Pixelshader überproportional erhöht.

Gast
2004-11-25, 08:18:38
Das hängt davon ab. Man kann Shader konstruieren, wo ATI pro Takt mindestens doppelt so schnell ist. Man kann auch Shader konstruieren, wo NV mindestens 6x so schnell ist. Die NV-Pipes sind traditionell sehr MUL-stark. Shader, die oft MUL verwenden, oder neben DP3 noch MUL brauchen, eignen sich gut um die NV40-Pipe effizient auszulasten.

So kann mann es auch darstellen, aber ob das auch RICHTIG so ist steht auf einen anderen Blatt!

;)

Gast
2004-11-25, 08:38:44
Das mehr reflektiert wird ist ersichtlich. Aber...

Was in möglicherweise nicht direkt einsehbaren Rendertargets abläuft sieht man ja nicht. Ändert sich die Pixelmenge wirklich nicht?

Die zusätzlichen Objekte müssen ja irgendwo herkommen. Geht das ohne den Einsatz von zusätzlicher Texelfüllrate?

Ist der Wassershader bei Reflect All ein andere als bei Reflect World?

Ich bleibe also dabei das es keine Nachweiss gibt das Reflect All die Last auf die Pixelshader überproportional erhöht.

Kannst du die die Shader nicht einfach mal ansehen ? Müsste man doch sehen was da abläuft...

Demirug
2004-11-25, 08:44:32
Kannst du die die Shader nicht einfach mal ansehen ? Müsste man doch sehen was da abläuft...

Die Shader aleine nützen ja nichts (auch wenn ich sie habe). Man muss prüfen welche an welcher Stelle für was benutzt werden. Es ist ja durchaus möglich das grundsätzlich immer alle Shader für alle möglichen Settings geladen werden aber dann eben nur ein Teil wirklich zum Einsatz kommt.

Jesus
2004-11-25, 15:38:35
Das mehr reflektiert wird ist ersichtlich. Aber...

Was in möglicherweise nicht direkt einsehbaren Rendertargets abläuft sieht man ja nicht. Ändert sich die Pixelmenge wirklich nicht?

Die zusätzlichen Objekte müssen ja irgendwo herkommen. Geht das ohne den Einsatz von zusätzlicher Texelfüllrate?

Ist der Wassershader bei Reflect All ein andere als bei Reflect World?

Ich bleibe also dabei das es keine Nachweiss gibt das Reflect All die Last auf die Pixelshader überproportional erhöht.

poste ichs hier auchmal, gehört ja eigentlich hier her ;)

... wenn es an der Füllrate oder Speicherbandbreite liegen würde, wieso ist dann eine X800 Pro mit wesentlich weniger Pixelfüllrate und noch weniger Speicherbandbreite trotzdem selbst in hohen Auflösungen mit AA und AF meist schneller als eine 6800 Ultra ?

Demirug
2004-11-25, 15:45:38
poste ichs hier auchmal, gehört ja eigentlich hier her ;)

... wenn es an der Füllrate oder Speicherbandbreite liegen würde, wieso ist dann eine X800 Pro mit wesentlich weniger Pixelfüllrate und noch weniger Speicherbandbreite trotzdem selbst in hohen Auflösungen mit AA und AF meist schneller als eine 6800 Ultra ?

Ist doch nichts neues das einem NV40 in hohen Auflösungen mit AA schnell der Speicher ausgeht und es dann zu bremsenden Wirkungen kommt.

Jesus
2004-11-25, 15:52:21
Ist doch nichts neues das einem NV40 in hohen Auflösungen mit AA schnell der Speicher ausgeht und es dann zu bremsenden Wirkungen kommt.

wie erklärst du dir dann dass das nur auf bestimmten Maps (Canals z.b.) so ist ? Auf anderen Maps liegt die 6800U auch in höchsten Auflösungen mit AA/AF vor der X800 Pro (siehe xbit)

Tjell
2004-11-25, 15:57:03
http://www.xbitlabs.com/images/video/half-life/update/min_canals_1024_pure.gif
http://www.xbitlabs.com/images/video/half-life/update/min_canals_1280_pure.gif
http://www.xbitlabs.com/images/video/half-life/update/min_canals_1600_pure.gif
http://www.xbitlabs.com/images/video/half-life/update/min_canals_1024_candy.gif
http://www.xbitlabs.com/images/video/half-life/update/min_canals_1280_candy.gif
http://www.xbitlabs.com/images/video/half-life/update/min_canals_1600_candy.gif

Ich kann mir nicht so ganz einen Reim auf die Graphen machen... :(

dildo4u
2004-11-25, 16:02:26
Kein plan ob das schon gepostet wurde

http://www.hardocp.com/images/articles/11006766724A4ignx3cx_2_2_l.gif

http://www.hardocp.com/article.html?art=NjkyLDI=

tombman
2004-11-25, 16:11:57
hmm, schau dir mal die 6800ultta Linie an bei 1280 und 1600 mit 4/16.

Scheint so, als ob ab Markierung 10 die Linies fast gleich sind..... rent die 6800u da gegen eine Leistungsgrenze?

Die x800 verliert von 1280 auf 1600 noch normal wie man es erwartet.

Dr Hake
2004-11-25, 16:22:02
hmm, schau dir mal die 6800ultta Linie an bei 1280 und 1600 mit 4/16.

Scheint so, als ob ab Markierung 10 die Linies fast gleich sind..... rent die 6800u da gegen eine Leistungsgrenze?

Die x800 verliert von 1280 auf 1600 noch normal wie man es erwartet.
Es nicht das was Tjell meint, sondern:
1. die Pro kann nie schneller sein sein als die XT ditto Gt vs Ultra
2. Eigentlich muesste ein gewisser Gleichlauf der Taeler und Hoehen von Pro vs XT zu sehen sein, waehrend hier eine gewisse Zeitversetzung zu sehen ist.
Falls x= Frames, y = sec, kann es nur sein dass das Game bei niedrigeren FPS an sich langsamer laufen muesste, was allerdings nur BS sein kann.

Jesus
2004-11-25, 16:23:38
jo scheint etwas zeitversetzt zu sein...

Xmas
2004-11-25, 17:22:31
Ich kann mir nicht so ganz einen Reim auf die Graphen machen... :(
Ich auch nicht. Vor allem scheint es so als ob man hier die ersten x gerenderten Frames bzw. deren Abstände genommen und in fps umgerechnet hat. Das heißt natürlich, dass die Graphen gar nicht an derselben Stelle in der Demo enden.

Erstaunlich ist der große Einbruch des NV40 bei 1280x1024, während der Performance-Verlust von 1280x1024 auf 1600x1200 im Rahmen liegt. Irgendetwas muss sich von 1024x768 auf 1280x1024 also ändern, und ich tippe mal darauf dass die Auflösung irgendwelcher Rendertargets nicht linear mit der Ausgabeauflösung steigt, sondern in Schritten. Das würde auch die "Dellen" in den Fillrate-Graphen bei B3D erklären.

DemiohneKeks
2004-11-25, 17:42:11
Erstaunlich ist der große Einbruch des NV40 bei 1280x1024, während der Performance-Verlust von 1280x1024 auf 1600x1200 im Rahmen liegt. Irgendetwas muss sich von 1024x768 auf 1280x1024 also ändern, und ich tippe mal darauf dass die Auflösung irgendwelcher Rendertargets nicht linear mit der Ausgabeauflösung steigt, sondern in Schritten. Das würde auch die "Dellen" in den Fillrate-Graphen bei B3D erklären.

Soll ich mal nachschauen?

alTrax
2004-12-07, 21:33:57
Tag zusammen !

Ich hab ein ziemlich großes Problem und bitte euch um Hilfe !

Wenn ich HL² Spielen will habe ich momentan starke Performance Probleme.
Am Anfang lief alles total flüssig in 1152x864 und alles auf High sowie mit 4x AA und 4x AF!!
Nur seit dem ersten Update für HL² geht absolut gar nix mehr ! Es läuft dermaßen ruckelig (~ 1-3 Fps) , dass man es unmöglich spielen kann!
Selbst auf 800x600 und alles auf mittel und ohne AA und AF läuft es nicht wesentlich besser ...

Mein System :
CPU AMD 2600+
Grafik Radeon 9800XT
Ram 768MB
Mainbord K7S8X

WinXP Pro.
Catalyst 4.11

Bitte Helft mir !

alTrax
2004-12-07, 21:34:29
Tag zusammen !

Ich hab ein ziemlich großes Problem und bitte euch um Hilfe !

Wenn ich HL² Spielen will habe ich momentan starke Performance Probleme.
Am Anfang lief alles total flüssig in 1152x864 und alles auf High sowie mit 4x AA und 4x AF!!
Nur seit dem ersten Update für HL² geht absolut gar nix mehr ! Es läuft dermaßen ruckelig (~ 1-3 Fps) , dass man es unmöglich spielen kann!
Selbst auf 800x600 und alles auf mittel und ohne AA und AF läuft es nicht wesentlich besser ...

Mein System :
CPU AMD 2600+
Grafik Radeon 9800XT
Ram 768MB
Mainbord K7S8X

WinXP Pro.
Catalyst 4.11

Bitte Helft mir !