PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : HL2 benchmarks von anand (kleiner vorgeschmack)


Seiten : [1] 2 3 4 5 6

tEd
2003-09-11, 01:53:43
http://www.anandtech.com/video/showdoc.html?i=1862


You'll see my own numbers tomorrow night at midnight, but we've been given the go ahead to reveal a bit of information about Half-Life 2. I'll keep it brief and to the point and will explain it in greater detail tomorrow night:

- Valve is pissed at all of the benchmarking "optimizations" they've seen in the hardware community;
- Half-Life 2 has a special NV3x codepath that was necessary to make NVIDIA's architecture perform reasonably under the game;
- Valve recommends running geforce fx 5200 and 5600 cards in dx8 mode in order to get playable frame rates.
- even with the special NV3x codepath, ATI is the clear performance leader under Half-Life 2 with the Radeon 9800 Pro hitting around 60 fps at 10x7. The 5900 ultra is noticeably slower with the special codepath and is horrendously slower under the default dx9 codepath;
- the Radeon 9600 Pro performs very well - it is a good competitor of the 5900 ultra;
- ATI didn't need these special optimizations to perform well and Valve insists that they have not optimized the game specifically for any vendor.

There you have it folks, there's much more coming tomorrow.



EDIT:
ups falsches forum , sorry

benchmarks von valve:
http://www.beyond3d.com/forum/viewtopic.php?t=7826



/edit L.
andere Artikel mit den Benchmarks von Valve:
http://www.hardocp.com/article.html?art=NTE5
http://www.tech-report.com/etc/2003q3/valve/index.x?pg=1
http://www.extremetech.com/article2/0,3973,1261767,00.asp
http://firingsquad.gamers.com/hardware/hl2_performance_preview_part1/
http://www.gamersdepot.com/hardware/video_cards/ati_vs_nvidia/dx9_desktop/HL2_benchmarks/001.htm

Metzler
2003-09-11, 01:56:40
- the Radeon 9600 Pro performs very well - it is a good competitor of the 5900 ultra;

Die Zeile finde ich etwas... hart ;)

BUG
2003-09-11, 02:34:41
..krass. :O

cu
BUG

Hamster
2003-09-11, 02:41:45
Original geschrieben von Metzler
Die Zeile finde ich etwas... hart ;)


ich auch. vor allem als ein besitzer von einer fx 5900 :(


hoffentlich sieht die wahrheit letzendlich besser aus...

thop
2003-09-11, 02:53:51
nö die wahrheit sieht nich anders aus. das wurde doch schon zig mal von den entwicklern gesagt dass das spiel nur auf ATI karten ordentlich läuft, und im forum auch 10x wiederholt. und was machen die leute? holen sich nvidia karten ... da kann ich auch nicht mehr helfen.

Crushinator
2003-09-11, 02:58:18
- the Radeon 9600 Pro performs very well - it is a good competitor of the 5900 ultra; :banghead: Aua! Was ist denn da so extrem schiefgelaufen?
Original geschrieben von Hamster
...hoffentlich sieht die wahrheit letzendlich besser aus... Dein Wort in wessen auch immer Ohr. Morgen werden wir's ja in etwa erfahren.

Metzler
2003-09-11, 03:01:53
Liegt das wirklich nur an der Hardware von NVidia, dass es auf der FX 5900 Ultra so schlecht läuft ?
Wenn da von "special optimizations" extra für den NV3X gesprochen wird, könnte man das fast meinen... Oder haben die Entwickler gesaut ? Ich mein, solche extremen Probleme gibts doch sonst auch bei keinem anderem Spiel. Oder irre ich ?

Gast
2003-09-11, 03:04:02
Au-weia...

BTW, Go, Nagus go! =)
up

tEd
2003-09-11, 03:08:47
http://www.nonlimit.ch/ted/hl1.gif
http://www.nonlimit.ch/ted/hl2.gif
http://www.nonlimit.ch/ted/hl3.gif

Benchmark Setup

DX9, PS 2.0, Full precision floating-point
2.8 GHz P-IV, 800 MHz FSB
Average of several test DEM files
NVIDIA Detonator 45.23
ATI Catalyst 3.7

1024*768 kein AA kein AF
radeon 9600 ist eine 9600pro

Metzler
2003-09-11, 03:18:06
Was für Tabellen sind das ?

Edit : Sind das die Half-Life 2 Benchies ?

BUG
2003-09-11, 03:19:53
..jo, sind aber imho von Valve selbst und oben in dem Forum Link "verlinkt". :)

cu
BUG

Metzler
2003-09-11, 03:23:04
Ahso. Das Forum ging vorhin bei mir nicht...

Edit : Sollten die Tabellen bestätigt werden, muss der Satz "9600 is a good competitor to 5900 Ultra" wohl nochmal relativiert werden : Nicht die 9600, sondern die 8500 ... ;)

mayo
2003-09-11, 03:26:36
Ich denke doch, dass nvidia mit neuen Treiben (Det. 50+) die Performance noch steigern kann und auch wird. Das war ja häufig bei neuen Spielen so. Ich kann mir gar nicht vorstellen wie eine Radeon 9600 pro schneller sein soll als ein 5900 ultra, wenn ich so an die theoretische Rohleistung denke oder man andere Spiele betrachtet.

Sicherlich wird ATI ihre Treiber auch noch verbessern. *hoff*

MadManniMan
2003-09-11, 03:28:26
Hm... daß nV nen eigenen Pfad bekommt, läßt mich ungeduldig werden. Ungeduldig deshalb, weil ich die visuellen Einbuße des "mixed Mode" in Relation zum Performancegewinn interpretiert haben möchte...

...*hibbel*

BTW: *GRUNZ* ...meine R95P zerpflückt ne FX59U :naughty:

MadManniMan
2003-09-11, 03:31:59
Original geschrieben von mayo
Ich kann mir gar nicht vorstellen wie eine Radeon 9600 pro schneller sein soll als ein 5900 ultra, wenn ich so an die theoretische Rohleistung denke oder man andere Spiele betrachtet.

Da springt ja grad der Punkt. Auch wenn ich vom CineFX-Artikel nicht so sehr viel verstanden hab, so kann ich doch sagen, daß die Shaderpower der FX-Architektur der der R3x0-Designs nicht wirklich das Wasser reichen kann. Will heißen: DX7 - und vielleicht noch DX8 - wohl ein Pari zwischen nV und ATi bei R3X0 und nV3X, DX9 jedoch mit den momentan vorgezogenen PS2.0 scheint an ATi zu gehen.

Da können "Wundertreiber" höchstens für jede "wichtigere" :naughty: Applikation spetielle Optimierungen mit sich bringen...

mayo
2003-09-11, 03:35:32
Original geschrieben von MadManniMan
Da springt ja grad der Punkt. Auch wenn ich vom CineFX-Artikel nicht so sehr viel verstanden hab, so kann ich doch sagen, daß die Shaderpower der FX-Architektur der der R3x0-Designs nicht wirklich das Wasser reichen kann. Will heißen: DX7 - und vielleicht noch DX8 - wohl ein Pari zwischen nV und ATi bei R3X0 und nV3X, DX9 jedoch mit den momentan vorgezogenen PS2.0 scheint an ATi zu gehen.

Da können "Wundertreiber" höchstens für jede "wichtigere" :naughty: Applikation spetielle Optimierungen mit sich bringen...

Wir reden vom RV350!, der praktisch einem halben R350 entspricht.

BUG
2003-09-11, 03:38:09
..und am ende kommt raus, dass ATI --> Vave "geschmiert" hat und alle sind böse/wütend auf ATI. ;)
Wenn dem nich so is *hoff* ---> Respekt! :)

cu
BUG

thop
2003-09-11, 03:43:48
Das hat man doch schon bei TombRaider AOD gesehen, wenns um DX9 geht ist nVidia momentan ein Witz. Da würd ich auch auf die Deto5 nicht hoffen, die Catalyst 3.8 sollen ja auch revolutionär werden, also gleicht sich das dann vermutlich wieder aus.

Im Moment siehts einfach nur Scheisse für nVidia aus. 9600pro schlägt 5900U, kostet mehr als doppel soviel, autsch!

Und wie gesagt dass ist mit spezieller NV codepath, ohne den ist ja ganz miserabel.

Aber interessant dass die 9600pro so knapp hinter der 9800pro liegt. Denke mal ist 1024x768, bei 1600x1200 mit AA/AF schaut das vermutlich anders aus.

Gast
2003-09-11, 04:53:34
Da bleibt nur zu hoffen, dass NV beim NV40 endlich mal wieder was vernünftiges auf den Markt wirft. Momentan ist jedenfalls ATI haushoch überlegen.

Ich hoffe für NV, dass kommende DX9-Spiele nicht so schlecht auf den aktuellen Karten laufen, wie jetzt schonmal TombRaider und HL2. Klar, STALKER wird auf NV-Karten nicht nicht schlecht Rennen, da NV Technologiepartner ist. Bis Ende 2004 ist aber noch lange hin und von daher sind z.B. FarCry, HL2, und Kreed die Messlatten.

Salvee
2003-09-11, 06:44:00
Original geschrieben von MadManniMan
Da können "Wundertreiber" höchstens für jede "wichtigere" :naughty: Applikation spetielle Optimierungen mit sich bringen...

Schätze auch, dass die ersehnten Wundertreiber in erster Linie durch auf nVs Rechnerfarmen optimierten Austauschshadern brillieren (oder auch nicht).

Edit: FP$ ist eine goile Abkürzung :)

Edit2: Wobei es mich angesichts der enttäuschenden nV-Performance wundert, dass Newell nirgends auch nur eine Andeutung auf den Det50 macht.
Ich kann kaum glauben, dass bei Valve noch keine Beta dieses Treibers in Anwendung ist...

Edit3: Hier ist ja auch schon was zum Beta-Det50 :)

'Early Half-Life 2 Results Show ATI Well Ahead

Round One Goes to ATI

We still need to independently verify Valve's test results, and we'll have that data for you in the next few days so stay tuned.

nVidia has been circulating its Det50 driver to analysts in hopes that we would use it for our Half-Life 2 benchmarking. The driver contains application-specific optimizations that will likely improve nVidia's overall performance picture, however Valve's Gabe Newell expressed concerns that some of nVidia's optimizations may go too far. Doug Lombardi of Valve has explicitly asked that beta versions of the Det50 drivers not be used for benchmarking.

At this point, we'll have to withhold judgment on the matter until we've had some time to benchmark the Det50 drivers and look at their image quality running Half-Life 2. As we've seen, performance is only one piece of the puzzle. We all want good performance, but not at the expense of image quality.'

ExtremeTech (http://www.extremetech.com/article2/0,3973,1261770,00.asp)

[dzp]Viper
2003-09-11, 07:09:51
Original geschrieben von Salvee
.....however Valve's Gabe Newell expressed concerns that some of nVidia's optimizations may go too far.


ähm .. no comment .. naja wir werden sehe .. in ein paar tagen ;)

Endorphine
2003-09-11, 07:32:31
Original geschrieben von BUG
..und am ende kommt raus, dass ATI --> Vave "geschmiert" hat und alle sind böse/wütend auf ATI. ;)
Wenn dem nich so is *hoff* ---> Respekt! :)

cu
BUG Das brauch nicht "am Ende herauskommen", es ist allgemein bekannt, dass ATI HL2 supported. Natürlich gibts da heute mehr als nur nen ATI-Logo auf der Verpackung als Entschädigung.

Ich bin mal auf einen Kommentar von Kai und/oder nggalai gespannt...

seahawk
2003-09-11, 08:14:58
Wenn man aber die HL2 Videos gesehen hat, wissen wir, dass die extrem viel mit den Shadern machen. Und Shaderperforance ist das Problem bei NV.

Demirug
2003-09-11, 08:37:27
Ich weiss ja nicht ob es nur mir so geht aber irgendwie erscheint mir der Unterschied von einer 9600 Pro zu einer 9800 Pro mit etwa 25% doch etwas mager. Die beiden trennt doch ein erheblicher Unterschied in Speicherbandbreite, Fillrate und Shaderleistung. Es sieht also IMHO schwer nach einer CPU-Limitierung bei der 9800 Pro aus.

- Half-Life 2 has a special NV3x codepath that was necessary to make NVIDIA's architecture perform reasonably under the game;

Dieser Spruch entbehrt nicht einer gewissen Ironie. Es gibt derzeit nur zwei DX9 Chipfamilien und es gibt zwei "Codepfade" (was immer das hier auch bedeuten soll) für DX9 Hardware.

Das eine 5900 nicht an eine 9800 herankommt ist ja noch leicht zu verstehen da nVidia Probleme mit PS 2.0 ja allgemein bekannt sind. Aber das selbst eine 9600 eine 5900 versägt erscheint mir nun etwas arg merkwürdig. NV35 und RV350 haben beide einen Peak von 12 OPs pro Takt welcher auch erreichbar ist. NV35 hat dabei höherwertige Operationen im Angebot.

Zudem wüsste ich wirklich gerne was dieser "Mixed Mode" nun mixed? Ich habe einen leisen Verdacht das der normale DX9 Modus einfach mal schnell alles mit PS 2.0 Shadercode macht und der Mixed Mode wenn möglich auch andere Shaderversionen benutzt aber wenn DX9 Shader notwendig sind immer noch die 2.0 Shader benutzt.

EDIT: OK ich habe gefunden was der mixed mode sein soll:
- partial-precision hints
- Berechnugen durch texture fetchs ersetzt
- Code umstrukturiert.

perforierer
2003-09-11, 09:05:12
@Demirug:
Wegen den beiden Codepfaden: Macht doch John C. genauso bei Doom3.

@Alle:
http://www.gamersdepot.com/hardware/video_cards/ati_vs_nvidia/dx9_desktop/HL2_benchmarks/001.htm
Nochmal ein Link.Die benches sind die offiziellen von nVidia, aber es gibt ein nettes Interview mit gabe Newell von Valve zum Thema. :)

Ich bin wirklich gespannt auf Anandtechs fertige Benches.
Und auf den Deto 50 auch. Ich finds ja sehr kauzig, dass Valve explizit wünscht ihn nicht zu verwenden wegen den zu weit gehenden "Optimierungen". Das ist ein derber Schlag ins Gesicht von nVidia.
Wenn die Performance der GeForce FX Familie tatsächlich so extrem schlecht ist, dann ist das eine echte Katastrophe für nVidia. Ich meine:
HL2 wird DER Benchmark, bis Doom3 rauskommt und vor allem auch das vielleicht meistverkaufte Spiel aller Zeiten und mit den sicher kommenden Mods ne lange Lebenszeit haben. Wenn der Durchschnittsgamer Hardware upgradet und HL2 spielt (was viele machen werden), warum sollte er angesichts solcher Benches auch nur daran denken, noch nVidia zu kaufen?

knallebumm
2003-09-11, 09:06:37
http://myweb.cableone.net/jrose/Jeremy/HL2.jpg

ow
2003-09-11, 09:12:37
Original geschrieben von Demirug
EDIT: OK ich habe gefunden was der mixed mode sein soll:
- partial-precision hints
- Berechnugen durch texture fetchs ersetzt
- Code umstrukturiert.


Würde das erklären, warum die FX5600 Ultra lt. obigen Diagrammen im mixed mode noch langsamer ist als in full precision (ist das noch keinem aufgefallen?) oder sind die Diagramme einfach Müll?

Demirug
2003-09-11, 09:13:42
Original geschrieben von perforierer
@Demirug:
Wegen den beiden Codepfaden: Macht doch John C. genauso bei Doom3.

DOOM III ist OpenGL und damit ein ganz anderes Spielfeld. Dort heist Codepfad das es wirklich unterschiedlichen Programmcode gibt. Im Falle von HL2 scheint es sich eher um unterschiedliche Shader zu handeln.

perforierer
2003-09-11, 09:16:38
@Demirug: Jo, klar ist D3 Open GL. Aber keine Ahnung, ich hab das nicht so gelesen, dass es nur unterschiedliche Shader sind. Aber wir werden es hoffe ich heute Abend wissen. Bin wirklich gespannt. Sind interessanre Tage, wenn man bedenkt, dass am 15. (?) die ganzen Grakanews, der neue Aquamark und wohl der Deto 50 kommen :)...

ShadowXX
2003-09-11, 09:16:58
Original geschrieben von Demirug
Ich weiss ja nicht ob es nur mir so geht aber irgendwie erscheint mir der Unterschied von einer 9600 Pro zu einer 9800 Pro mit etwa 25% doch etwas mager. Die beiden trennt doch ein erheblicher Unterschied in Speicherbandbreite, Fillrate und Shaderleistung. Es sieht also IMHO schwer nach einer CPU-Limitierung bei der 9800 Pro aus.


Das HL2 auch sehr CPU-Lastig ist, ist doch schon lange bekannt.
Gabe Newell (in einem Interview) und die PCGH haben unlängst mal erwähnt das man so ca. einen 3Ghz Boliden mit 1GB Ram brauchen wird um HL2 'gut' spielen zu können (und natürlich eine 9800Pro).

Wenn sich der Vorsprung der 9600Pro gegenüber der 5900Ultra bewahrheiten sollte, dann sieht das mehr als schlecht für nV aus.....(und ein,zwei Theorien die ich gehört habe bestätigen.....).

J.S.Shadow

Demirug
2003-09-11, 09:19:46
Original geschrieben von ow
Würde das erklären, warum die FX5600 Ultra lt. obigen Diagrammen im mixed mode noch langsamer ist als in full precision (ist das noch keinem aufgefallen?) oder sind die Diagramme einfach Müll?

Möglich, aber dann sollte sich das bei einer 5200 eigentlich ähnlich auswirken.

ShadowXX
2003-09-11, 09:23:42
Also erstmal geht es da um vielleicht 1 Frame und das können durchaus Messungenauigkeiten sein.
(Auch wenn das Mittel gebildet wurde....)

Es sagt eigentlich nur aus, dass der Mixed-Mode keine Vorteile bei den 5600U's bietet....

J.S.Shadow

ow
2003-09-11, 09:29:08
Original geschrieben von ShadowXX
Also erstmal geht es da um vielleicht 1 Frame und das können durchaus Messungenauigkeiten sein.
(Auch wenn das Mittel gebildet wurde....)

Es sagt eigentlich nur aus, dass der Mixed-Mode keine Vorteile bei den 5600U's bietet....

J.S.Shadow


Für mich sagt das nur, dass die Diagramme faul sind. Vielleicht sogar gefaked.

Demirug
2003-09-11, 09:31:18
Original geschrieben von ShadowXX
Es sagt eigentlich nur aus, dass der Mixed-Mode keine Vorteile bei den 5600U's bietet....

J.S.Shadow

Was sehr merkwürdig ist denn von der angesprochenen Massnahmen müsste auch NV31 profitieren.

ShadowXX
2003-09-11, 09:34:23
Klar Valvue faked Benches um Sie dann in Foren öffentlich auszustellen.....und die hälfte...upppss...sogar mindestens zwei drittel seinen potentiellen Kundschaft zu verschrecken....

Wäre etwas Kontraproduktiv....

Das Problem ist doch das:
Selbst wenn Leo itself HL2 Benchen würde und änliche Tabellen dabei rauskommen, würden es die nV Leute bezweifeln.

Und das die 9600Pro die 5900U schlagen soll, geistert schon etwas länger als Gerücht durch die Gegend.

Ich muss allerdings auch zugeben, das ich den Abstand für etwas zu Gross halte....;D

Aber wir werden sehen....MOrgen sollen ja noch ein paar Benche kommen....

J.S.Shadow

perforierer
2003-09-11, 09:38:12
Ich finde auch, dass die Tabellen noch nix hergeben, über das man ernsthaft diskutieren kann. Erstmal auf anand , hardocp usw warten...

Demirug
2003-09-11, 09:40:53
Für die die es noch nicht mitbekommen haben.

Die Zahlen wurden auf einer ATI-Entwickler Konferenz presentiert und von dort aus in die Welt getragen.

ow
2003-09-11, 09:45:44
Original geschrieben von Demirug
Für die die es noch nicht mitbekommen haben.

Die Zahlen wurden auf einer ATI-Entwickler Konferenz presentiert und von dort aus in die Welt getragen.

AHA!! Nun, das erklärt wohl einiges.

Exxtreme
2003-09-11, 09:49:18
Abwarten und Tee trinken sage ich nur. Warten wir auf andere Tests.

ow
2003-09-11, 09:50:04
Original geschrieben von Exxtreme
Abwarten und Tee trinken sage ich nur. Warten wir auf andere Tests.

Genau das meinte ich.=)

PCGH_Thilo
2003-09-11, 09:58:32
Original geschrieben von Demirug
Für die die es noch nicht mitbekommen haben.

Die Zahlen wurden auf einer ATI-Entwickler Konferenz presentiert und von dort aus in die Welt getragen.

wieso wird das dann nicht richtig kenntlich gemacht? so glaubt doch jeder, dass das unabhängige tests von webseiten sind.

außerdem: seit wann gehen entwickler mit benchmarks hausieren? das gabs ja noch nie.

Gast
2003-09-11, 09:58:41
Naja, Wunder können nicht erwartet werden. Denn wenn Valve extra einen optimierten Codepath für NV schreibt, dann nicht weil sie was gegen NV haben, sondern möglichst viele Spiel verkaufen wollen. Und da NV ebenfalls hohe Zahlen an Karten loswerden will, tut man mit den 50-Det alles mögliche, um die Leistung zu verbessern, auch um den Preis der Bildqualität. Was vielleicht Valve nicht schmeckt, was ich sehr gut verstehen kann, denn Jahre und Millionen investiert, und das Game sieht wieder wie HL aus :kotz:

perforierer
2003-09-11, 10:05:15
Lol@ letzter satz vom Gast! :D
So schlimm wirds wohl nicht werden =)

ow
2003-09-11, 10:05:29
Original geschrieben von PCGH_Thilo
wieso wird das dann nicht richtig kenntlich gemacht? so glaubt doch jeder, dass das unabhängige tests von webseiten sind.

außerdem: seit wann gehen entwickler mit benchmarks hausieren? das gabs ja noch nie.

So läuft Propaganda halt.
Möchte nicht wissen, was ATi dafür gezahlt hat, solch schöne Zahlen zu bekommen.

Demirug
2003-09-11, 10:06:45
Original geschrieben von Demirug
Für die die es noch nicht mitbekommen haben.

Die Zahlen wurden auf einer ATI-Entwickler Konferenz presentiert und von dort aus in die Welt getragen.

Entschuldigung ich habe da zwei ATI Events vertauscht. Newell war nicht auf der Entwicklerkonferenz sondern auf der Presseveranstaltung von ATI, MS und Softimage zum Thema Pixelshader. Ändert aber wohl nicht alzu viel, oder?

Alexander
2003-09-11, 10:08:54
Original geschrieben von ow
So läuft Propaganda halt.
Möchte nicht wissen, was ATi dafür gezahlt hat, solch schöne Zahlen zu bekommen.

Oh man...immer solche Verschwörungstheorien...

Lassen wir es doch mal dabei: "Abwarten und Tee trinken sage ich nur. Warten wir auf andere Tests."

Alexander

Quasar
2003-09-11, 10:11:52
Original geschrieben von ShadowXX
Klar Valvue faked Benches um Sie dann in Foren öffentlich auszustellen.....und die hälfte...upppss...sogar mindestens zwei drittel seinen potentiellen Kundschaft zu verschrecken....
Wäre etwas Kontraproduktiv...
J.S.Shadow

Wie man hört, soll HL2 ja mit den neuen ATi-Karten gebundelt werden. Da springt schonmal ein schönes Sümmchen für Valve raus...


Original geschrieben von Demirug
Für die die es noch nicht mitbekommen haben.
Die Zahlen wurden auf einer ATI-Entwickler Konferenz presentiert und von dort aus in die Welt getragen.

Von Gabe 'AA doesn't work on nVidia-cards' Newell? ;)

Original geschrieben von PCGH_Thilo
wieso wird das dann nicht richtig kenntlich gemacht? so glaubt doch jeder, dass das unabhängige tests von webseiten sind.
außerdem: seit wann gehen entwickler mit benchmarks hausieren? das gabs ja noch nie.

Das gab's auch noch nie, daß ATi quasi über ein gesamtes Jahr an der Performancekrone dran war -> 'Tempora Mutandur' zum Guten oder zum Schlechten liegt im Auge des Betrachters.

perforierer
2003-09-11, 10:14:10
Original geschrieben von Demirug
Entschuldigung ich habe da zwei ATI Events vertauscht. Newell war nicht auf der Entwicklerkonferenz sondern auf der Presseveranstaltung von ATI, MS und Softimage zum Thema Pixelshader. Ändert aber wohl nicht alzu viel, oder?

Original geschrieben von PCGH_Thilo
wieso wird das dann nicht richtig kenntlich gemacht? so glaubt doch jeder, dass das unabhängige tests von webseiten sind.
außerdem: seit wann gehen entwickler mit benchmarks hausieren? das gabs ja noch nie.

@Thilo: Manchmal hilft es, den Text zu Benchmark-Charts zu lesen. Es ist im gamersdepot Link oben klar zu lesen, dass es Benches von Valve sind. :)

@Thilo, Demirug:
Das sind natürlich keine unabhängigen Benches, darum habe ich ja auch die Aussagekraft angezweifelt weiter oben.
Aber immerhin sind sie nicht von ATI sondern von Valve und die haben wohl kaum ein Interesse daran, Benches zu türken, Grakabundles hin oder her. Sie wollen so viele Games wie möglich verkaufen, egal was für nr Graka der Gamer drin hat.

Salvee
2003-09-11, 10:14:20
Original geschrieben von PCGH_Thilo
wieso wird das dann nicht richtig kenntlich gemacht? so glaubt doch jeder, dass das unabhängige tests von webseiten sind.

außerdem: seit wann gehen entwickler mit benchmarks hausieren? das gabs ja noch nie.

Quote von Anand

'You'll see my own numbers tomorrow night at midnight, but we've been given the go ahead to reveal a bit of information about Half-Life 2. I'll keep it brief and to the point and will explain it in greater detail tomorrow night:

- Valve is pissed at all of the benchmarking "optimizations" they've seen in the hardware community;
- Half-Life 2 has a special NV3x codepath that was necessary to make NVIDIA's architecture perform reasonably under the game;
- Valve recommends running geforce fx 5200 and 5600 cards in dx8 mode in order to get playable frame rates.
- even with the special NV3x codepath, ATI is the clear performance leader under Half-Life 2 with the Radeon 9800 Pro hitting around 60 fps at 10x7. The 5900 ultra is noticeably slower with the special codepath and is horrendously slower under the default dx9 codepath;
- the Radeon 9600 Pro performs very well - it is a good competitor of the 5900 ultra;
- ATI didn't need these special optimizations to perform well and Valve insists that they have not optimized the game specifically for any vendor.

There you have it folks, there's much more coming tomorrow.'

Hört sich für mich nicht so an, als würden die Zahlen von Anand selbst, die morgen kommen, sonderlich differieren, sonst hätte er imho seine berühmt-berüchtigten Andeutungen angebracht ('much more' interpretiere ich als 'performanceneutral' ;) )
Naja, spätestens morgen wissen wir mehr...

Demirug
2003-09-11, 10:17:24
Original geschrieben von Quasar
Von Gabe 'AA doesn't work on nVidia-cards' Newell? ;)

Ja, siehe meine Korrektur oben.

Das gegenseitige Hoch-Loben auf dem Event ging wohl noch weiter.

Microsoft:

Wir betrachten Half-Life 2 als den neuen Benchmark für die Art von spannenden Spielen, die mittlerweile auf der Windows-Plattform entwickelt werden können. DirectX 9.0 trägt dabei einen großen Teil zur Entwicklung derartiger State-of-the-art-Spiele bei.

Valve (Gabe Newell):

DirectX 9.0 hat uns im großen Umfang dabei geholfen, einen würdigen Nachfolger zu Half-Life zu entwickeln, der Windows-Spielern genau das gibt, was sie erwartet haben - eine unnachahmliche Erfahrung. Wir sind glücklich darüber, dass unsere Partnerschaft mit Microsoft einen Titel hervorgebracht hat, auf den wir alle stolz sein können.

EDIT: Link vergessen: http://www.golem.de/0309/27395.html

Endorphine
2003-09-11, 10:18:26
Original geschrieben von perforierer
Aber immerhin sind sie nicht von ATI sondern von Valve und die haben wohl kaum ein Interesse daran, Benches zu türken. Doch, Valve arbeitet intensiv mit ATI zusammen und wird auch von ATI für HL2 gesponsored. Den ersten "PR-Stunt" (© by nggalai) haben wir ja mit "AA doesn't work on nVidia cards" schon hinter uns, das ist der nächste.

Irgendwie würde ichs fast fair finden, wenn nVidia sich jetzt auf iD-Software stürzt und John Carmack demnächst ein paar D3-Ergebnisse auf die Welt loslässt, in der nVidia-Karten die ATI-Karten ein weiteres Mal so richtig versägen ;)

perforierer
2003-09-11, 10:18:32
@Demirug
Das sind ja nun völlig normale Aussagen auf nem Presseevent. Sowas wirst Du auch von Tim Sweeney über DirectX hören...

@Endorphine:
Ich hab das Zitat noch verändert, kannst ja nochmal lesen :)
Sicher hat Valve wegend er Zusammenarbeit ein Interesse daran, dass ATI Karten gut performen, aber dass sie nVidia Karten mit Absicht schlecht dastehen lassen glaub ich nicht, aus genanntem Grund.

Exxtreme
2003-09-11, 10:21:55
Original geschrieben von Endorphine
Irgendwie würde ichs fast fair finden, wenn nVidia sich jetzt auf iD-Software stürzt und John Carmack demnächst ein paar D3-Ergebnisse auf die Welt loslässt, in der nVidia-Karten die ATI-Karten ein weiteres Mal so richtig versägen ;)
Gab es ja schon bei der Vorstellung des NV35. ;)

ow
2003-09-11, 10:22:54
Original geschrieben von perforierer

Sicher hat Valve wegend er Zusammenarbeit ein Interesse daran, dass ATI Karten gut performen, aber dass sie nVidia Karten mit Absicht schlecht dastehen lassen glaub ich nicht, aus genanntem Grund.


Naja, NV absichtlich gut dastehn zu lassen ist wohl noch weniger in Valves Interesse. Der NV3x Codepath scheint ja wohl nicht so ganz gelungen zu sein, ansonsten sähen die Zahlen ggü. dem PS2.0 Pfad imo anders aus.

Endorphine
2003-09-11, 10:27:41
Original geschrieben von Exxtreme
Gab es ja schon bei der Vorstellung des NV35. ;) Nach dieser Aktion wirds wohl beim NV38 eine weitere Aktion nach der Spielart geben.

Irgendwie finde ich diesen Zirkus aber ganz lehrreich. Zeigt doch wieder einmal, wie eng alle in der Industrie zusammenarbeiten, und wie wenig "independent" unsere software/hardware vendors doch sind. Und die Webseiten sind natürlich wie immer auch 100%ig in die PR-Kette eingebunden :bonk:

Demirug
2003-09-11, 10:28:57
Original geschrieben von perforierer
@Demirug
Das sind ja nun völlig normale Aussagen auf nem Presseevent. Sowas wirst Du auch von Tim Sweeney über DirectX hören...

Ich habe die Aussagen zu DX (auch offizielle auf MS-Events)von Sweeney jetzt nicht mehr Wort für Wort im Kopf aber sie waren AFAIR nicht ganz so euphorisch.

Auch das MS sich ein einzelnes Spiel herauspickt und auf einen solchen Sockel stellt (als den neuen Benchmark) kommt eher selten vor.

IMHO haben Valve und MS noch etwas zusammen vor. Möglicherweise ist Valve als einer der Entwickler ausgesucht worden welcher an den Launch Titeln für die XBox-II arbeiten soll.

Exxtreme
2003-09-11, 10:29:58
Original geschrieben von Endorphine
Irgendwie finde ich diesen Zirkus aber ganz lehrreich. Zeigt doch wieder einmal, wie eng alle in der Industrie zusammenarbeiten, und wie wenig "independent" unsere software/hardware vendors doch sind. Und die Webseiten sind natürlich wie immer auch 100%ig in die PR-Kette eingebunden :bonk:
Full Ack!

Aber ich schliesse mich trotzdem perforierer an. Valve wird nicht absichtlich Nvidia-Karten schlecht aussehen lassen.

Ich glaube eher, daß die GFFX-HW nicht schneller sein kann.

Gast
2003-09-11, 10:31:55
Original geschrieben von Endorphine
Nach dieser Aktion wirds wohl beim NV38 eine weitere Aktion nach der Spielart geben.

Irgendwie finde ich diesen Zirkus aber ganz lehrreich. Zeigt doch wieder einmal, wie eng alle in der Industrie zusammenarbeiten, und wie wenig "independent" unsere software/hardware vendors doch sind. Und die Webseiten sind natürlich wie immer auch 100%ig in die PR-Kette eingebunden :bonk:

Business und independent? Das schliesst sich fast aus, bei BIG business hundertprozentig.

thop
2003-09-11, 10:33:24
Ich sehe manche nVidiots hören können die Wahrheit noch immer nicht verdauen. Demirug, zuerst einmal möcht ich ein paar Quellen sehen für deine Entwicklerkonferenzenverschwörungstheorie. Wie üblich gibts du nie Quellen an.

Und hat jemand mal dran gedacht dass es nicht an geheimen Deals oder sonstwas liegt sondern dass die nVidia Karten für DX9 einfach Scheisse sind? Ich sag nur Tomb Raider AOD. Der Trend setzt sich nahtlos fort. Da haben viele hier wohl auf das falsche Pferd gesetzt.

Und was gibt es da noch abzuwarten und Tee zu trinken? Anand sagt ganz eindeutig dass die ATI Karten wesentlich schneller sind. Damit hat sich das Thema erledigt und auch die Verschwörungstheoretiker können wieder unter ihren Stein krabbeln.

perforierer
2003-09-11, 10:36:48
Original geschrieben von Endorphine
Irgendwie finde ich diesen Zirkus aber ganz lehrreich. Zeigt doch wieder einmal, wie eng alle in der Industrie zusammenarbeiten, und wie wenig "independent" unsere software/hardware vendors doch sind.

Klar, da hast Du ganz recht. Es geht eben um ne Menge Geld. Und es gibt eben nur ne handvoll Entwickler, die Games machen, für die man die neue und schnellste Graka überhaupt braucht! Man darf nie vergessen, dass Spieleentwickler und Hardwarehersteller hier eben in Symbiose leben. Ohne den anderen kann man kein vernünftiges Geschäft machen. Wobei Valve hier bisher die Ausnahme war, weil die HL und CS auch auf uralt Gurken gut liefen...

PCGH_Thilo
2003-09-11, 10:40:08
Original geschrieben von perforierer
@Thilo: Manchmal hilft es, den Text zu Benchmark-Charts zu lesen. Es ist im gamersdepot Link oben klar zu lesen, dass es Benches von Valve sind. :)


ich kann lesen ;-)
gamersdepot mag das kenntlich gemacht haben, aber das ist nicht die einzige site mit hl2-"benchmarks".

Tyler_Durden
2003-09-11, 10:40:54
Was mich (und wohl auch andere NV30 User) jetzt noch interessieren würde, ist die Performance auf 5800er Karten, da deren PS2.0 Leistung ja noch unter der der 5900er Boards liegt!

perforierer
2003-09-11, 10:41:25
War nicht bös gemeint Thilo :)


@Tyler: Jo, warten wir die neutralen benches ab...

Demirug
2003-09-11, 10:48:22
Original geschrieben von thop
Ich sehe manche nVidiots hören können die Wahrheit noch immer nicht verdauen. Demirug, zuerst einmal möcht ich ein paar Quellen sehen für deine Entwicklerkonferenzenverschwörungstheorie. Wie üblich gibts du nie Quellen an.

1. Ich habe doch schon geschrieben das es nicht die Entwicklerkonferenz sonder das Presseevent war.

2. Links in mein Emailpostfach oder eine geschlossen Benutzergruppe funktionieren nicht so gut ohne die notwendigen Passwörter (welche ich sicherlich nicht öffentlich machen werden).

3. In diesem Fall gibt es aber auch eine öffentliche Bestätigung (http://www.techreport.com/etc/2003q3/valve/index.x?pg=1):

The context of Newell's remarks was ATI's "Shader Days" event. Select members of the press spent the day here taking in presentations by employees of ATI, Microsoft, and SoftImage about the latest developments in DirectX 9-class shaders, with an emphasis on pixel shader hardware.

4. Ich gab lediglich einen Hinweis auf die Quelle und wie die Zahlen zustande gekommen sind was daraus gemacht wird ist nun wirklich nicht meine Sache.

Quasar
2003-09-11, 10:48:24
Original geschrieben von Exxtreme
Full Ack!

Aber ich schliesse mich trotzdem perforierer an. Valve wird nicht absichtlich Nvidia-Karten schlecht aussehen lassen.

Ich glaube eher, daß die GFFX-HW nicht schneller sein kann.

Das hingegen glaube ich nicht.
Klar hat Valve kein Interesse daran, nV-Besitzer komplett zu vergraulen, soviel ist allein schon durch den extra-Pfad bewiesen.

Andererseits wäre es als 'Technology Partner' von ATi aber sicher auch nicht erwünscht, wenn im ersten Titel dieser Art zum Launch der Technology-Partner nur zweiter Sieger wäre (!!), weswegen ein gewisser Respektsabstand der nV-Chips zu ATi sicherlich in Valves Interesse sein dürfte.

edit:
Welcher (Respektsabstand) gar nichtmal durch irgendeine unlautere Mogelei ermöglicht werden müsste. Wie wir schon von JC wissen, kann man relativ einfach Szenarien kreieren, in denen der Chip der Wahl gewinnt. Nichts anderes hätte Valve für einen Benchmark zu tun.

Tyler_Durden
2003-09-11, 10:49:33
Hier, auch ein interessanter Artikel zum HL2 Event

http://firingsquad.gamers.com/hardware/hl2_performance_preview_part1/

thop
2003-09-11, 10:49:50
Ich warte ja schon gespannt auf die Benchmarks von Lars Weinand (THG), das werden vermutlich die einzigen Benchmarks der Welt sein wo nVidia vorne liegt! :lolaway:

Tyler_Durden
2003-09-11, 10:53:57
Original geschrieben von thop
Ich warte ja schon gespannt auf die Benchmarks von Lars Weinand (THG), das werden vermutlich die einzigen Benchmarks der Welt sein wo nVidia vorne liegt! :lolaway:

Atom :rofl:

Gast
2003-09-11, 10:54:35
hm jetzt wird wohl anscheinend zum ersten mal ein Spiel auf Ati Graka entwickelt und nun ist das Geschrei bei den Nvidia anhängern gross.

Komisch aber dass in den letzten 2-3 Jarhen alles nur auf Nvidia hardware entwickelt wurde. Gut dass man das jetzt gerne vergisst.

Von dem abgesehen glaube ich auch kaum dass Valve diese mit Absicht gemacht hat. Die Theorie dass Ati als Technologiepartner vorn sein muss ist ja zu verstehen, aber schaut euch doch mal die Benchmarks an. So ein Vorsprung baut kein mensch mit absicht ein. Wenn wir hier um 10 % reden würden ok, aber nicht bei diesen fast 50 % !!!

Damit schneidet sich Valve doch ins eigene Fleisch und so dumm sind die nun auch wieder nicht.

thop
2003-09-11, 10:56:05
Soviel zum Thema das Spiel wurde extra für ATI Karten entwickelt (von der Präsentation):
http://www.techreport.com/etc/2003q3/valve/image12.jpg
5x so viel Zeit investiert extra für nVidia, aber die miserableHardware konnt es trotzdem nicht ausgleichen.

perforierer
2003-09-11, 10:57:04
@thop: Wegen der tomshardware Stichelei:
:chainsaw:

Aber es liegt Wahrheit drin :D

thop
2003-09-11, 11:00:55
Und lest euch mal das durch, das setzt den cheater königen echt dir Krone auf!
He said they had seen cases where fog was completely removed from a level in one of Valve's games, by the graphics driver software, in order to improve performance. I asked him to clarify which game, and he said it was Half-Life 2. Apparently, this activity has gone on while the game is still in development. He also mentioned that he's seen drivers detect screen capture attempt and output higher quality data than what's actually shown in-game.
http://www.techreport.com/etc/2003q3/valve/index.x?pg=2

Quasar
2003-09-11, 11:02:24
Original geschrieben von thop
Soviel zum Thema das Spiel wurde extra für ATI Karten entwickelt (von der Präsentation):
http://www.techreport.com/etc/2003q3/valve/image12.jpg
5x so viel Zeit investiert extra für nVidia, aber die miserableHardware konnt es trotzdem nicht ausgleichen.

thop,

Du weisst doch auch, daß 'auf ATi Hardware' in Bezug auf DX9 nicht entwickelt werden muss, weil der Standard-Kompiler schon zu 99% nach deren Optimierungsrichtlinien funktioniert.

Und das runterladen des neuen SDK und das Rekompilieren der Shader könnte durchaus 5x länger gedauert haben....

edit:
BTW, daß das Meeting von ATi ausgerichtet wurde, spielte natürlich keine Rolle für die Präsentation. Wenn ATi schlecht 'wäre', hätten sie's dort sicher mit aller Deutlichkeit gesagt, oder? :lol:

ShadowXX
2003-09-11, 11:04:13
Original geschrieben von thop
Soviel zum Thema das Spiel wurde extra für ATI Karten entwickelt (von der Präsentation):
/*Image mal weggelassen*/
5x so viel Zeit investiert extra für nVidia, aber die miserableHardware konnt es trotzdem nicht ausgleichen.

Tja...das spricht gegen Verschwörungstheorien und für das was ich schon mal erwähnte...

Valve wird einen Teufel tun seine nV-Besitzende Käuferschaft zu verprellen...nur nV's Hardware gibt nicht mehr her...zumindest bei HL2.

J.S.Shadow

thop
2003-09-11, 11:06:25
Quasar, du musst die Wahrheit akzeptieren. Ich würde deine 5800U lieber jetzt schon bei eBay reinsetzen, denn in einem Monat wirds da nur so von 5x00 wimmeln!

ShadowXX
2003-09-11, 11:08:10
@Quasar

klar....und ATI/Valvue wollen sich vor allen Entwicklern und sonstigen Leute lächerlich machen......(das kann nV besser)

Wenn die Tests in den nächsten Tagen bestätigt werden, was sagt Ihr dann??

J.S.Shadow

Gast
2003-09-11, 11:09:19
Ich würde ja gerne mal screens von Halflife mit Dx8 und Dx9 sehen.
Werde mich wahrscheinlich damit anfreunden müssen das Game auf meinem Notebook mit gffx5650 nur mit dx8 anschauen zu können. Naja hab ja noch meinen PC der kriegt dann n upgrade....

Demirug
2003-09-11, 11:10:42
Original geschrieben von Quasar
thop,

Du weisst doch auch, daß 'auf ATi Hardware' in Bezug auf DX9 nicht entwickelt werden muss, weil der Standard-Kompiler schon zu 99% nach deren Optimierungsrichtlinien funktioniert.

Und das runterladen des neuen SDK und das Rekompilieren der Shader könnte durchaus 5x länger gedauert haben....

edit:
BTW, daß das Meeting von ATi ausgerichtet wurde, spielte natürlich keine Rolle für die Präsentation. Wenn ATi schlecht 'wäre', hätten sie's dort sicher mit aller Deutlichkeit gesagt, oder? :lol:

Was ist eigentlich 5*0?

Wenn mich mein Englisch nicht ganz im Stich lässt heist doch "ATI hardware didn't need it" das sie für ATI überhaupt nichts optimieren mussten.

Auch die Bezeichnung "Generic DX9 Path" gefällt mir nicht schlecht und ich würde gerne wissen wie dieser aussieht. Ich habe es bisher nur auf einem Weg geschafft einen solchen "generischen Pfad "zu bauen. HLSL zur Laufzeit compilieren unter Verwendung des neuen SDKs. Bei alle anderen vorgehensweise bin ich nicht mehr neutral. Allerdings darf man eine solche Lösung derzeit nicht nach aussen geben.

perforierer
2003-09-11, 11:14:35
@Quasar, Thop:
Haltet mal den Ball flach, wir werden ja die Benchmarks sehen. :)
Eins ist natürlich klar: Sollte HL von Anfang an "für ATI-Karten" geschrieben worden sein, dann wäre es klar, dass der Standard-"Pfad" auch ohne spezielle Optimierungen auf ATI Karten klasse läuft, da hat Quasar gant recht.
Aus der Tatsache, dass man den Pfad dann "normalen" DX9 Pfad nennt, könnte man keine Schlüsse ableiten. De facto wäre das dann schon ein optimierter ATI-"Pfad"

So oder so würde mir kein Game einfallen, bei dem der Unterschied zwischen den beiden großen Herstellern so groß wäre, wenn denn die Benches stimmen. Das wäre schon krass...

thop
2003-09-11, 11:16:10
Mir fallen nur Spiele aus der Glide Zeit ein :)
Aber Generic Path könnte in Wirklichkeit auch ATI Path heissen, denn was für DX9 Karten gibs sonst noch ausser ATI und NV? Parhelia nicht.
Dass nV auf dem Generic Path so abloost ist natürlich trotzdem erbärmlich.

perforierer
2003-09-11, 11:20:29
Stimmt, Glide war damals teils superschnell. UT damals war besonders seltsam: Max Framerate und avg. Framerate waren mit dem ersten d3d Renderer gar nicht so unterschiedich. Aber die einzelnen Framedrops unter D3D waren manchmal krass... In einem Moment 50 Frames, dann 5 :)

ShadowXX
2003-09-11, 11:22:07
Original geschrieben von Demirug
Was ist eigentlich 5*0?

Wenn mich mein Englisch nicht ganz im Stich lässt heist doch "ATI hardware didn't need it" das sie für ATI überhaupt nichts optimieren mussten.

Auch die Bezeichnung "Generic DX9 Path" gefällt mir nicht schlecht und ich würde gerne wissen wie dieser aussieht. Ich habe es bisher nur auf einem Weg geschafft einen solchen "generischen Pfad "zu bauen. HLSL zur Laufzeit compilieren unter Verwendung des neuen SDKs. Bei alle anderen vorgehensweise bin ich nicht mehr neutral. Allerdings darf man eine solche Lösung derzeit nicht nach aussen geben.

Wollt Ihr euch jetzt eigentlich extra doof anstellen, oder wurmen euch die Ergebnisse wirklich so doll.

Mir dem 'generic Path' ist der der normalen Programmierung gemeint -> d.h. der Programmierer programmiert so, wie er sich das vorstellt, ohne extra nachzudenken ob dies für die eine oder die andere Hardware gut/schlecht ist.

Wenn ich dann sehe das diese Programmierung bei Chip X so gut läuft (auf dem ich Progge) lass ich es so.
Dann sehe ich auf Chip Y läuft 'mein' Standardpfad nicht so dolle, dann optimiere ich meinen alten Pfad auf Chip Y um.
(Und nimm das mit dem Pfad bitte nicht OGL-like, das soll mehr als Ablaufplan gesehen werden...)

Man muss nicht immer alles wortwörtlich nehmen.....

J.S.Shadow

P.S.
den erstgenannten genric optimiere ich natürlich auch noch mal und von dieser Zeit ausgehend kann man durchaus 5 mal so lange brauchen.....

Quasar
2003-09-11, 11:31:47
Original geschrieben von ShadowXX
@Quasar
[...]
Wenn die Tests in den nächsten Tagen bestätigt werden, was sagt Ihr dann??
J.S.Shadow

Glückwunsch, ATi, daß HL2 auf deren Karten so gut läuft, was sonst?

edit:
Falls du es nicht mitbekommen hast: Mir ist wurscht, ob nV oder ATi in Benchmark X schneller ist. Es geht mir einzig darum, zu schauen, warum das so ist.
Wenn ATi allein aufgrund ihrer leistungfähigeren Shader schneller ist, ist das eine gute Sache. Wenn nV allein aufgrund der höheren Texelfüllrate schneller ist, ebenso.

Wenn aber einer von beiden 'unfair' benachteiligt wird, sei es durch Cheats, sei es durch einseitige Optimierung, hat der entsprechende Test für mich irgendwo seine Gültigkeit verloren.

thop
2003-09-11, 11:37:22
Ich denke Füllrate ist heutzutage nicht mehr interessant. Bei Q3 mag das ja noch interessant gewesen sein aber heute kommt es auf die per pixel performance an.

Tyler_Durden
2003-09-11, 11:37:48
Mir ist es auch relativ egal ob nun ATi oder NV schneller ist, Hauptsache ich kann HL2 im DX9 Mode flüssig in 1024er Res zocken, denn dafür hab ich mir extra ne DX9 Karte gekauft!
Oder ich muss halt nochmal auf 9800pro umsteigen, worauf ich aber eigentlich 0 Lust hab!

Demirug
2003-09-11, 11:39:38
Original geschrieben von ShadowXX
Wollt Ihr euch jetzt eigentlich extra doof anstellen, oder wurmen euch die Ergebnisse wirklich so doll.

Mir dem 'generic Path' ist der der normalen Programmierung gemeint -> d.h. der Programmierer programmiert so, wie er sich das vorstellt, ohne extra nachzudenken ob dies für die eine oder die andere Hardware gut/schlecht ist.

Wenn ich dann sehe das diese Programmierung bei Chip X so gut läuft (auf dem ich Progge) lass ich es so.
Dann sehe ich auf Chip Y läuft 'mein' Standardpfad nicht so dolle, dann optimiere ich meinen alten Pfad auf Chip Y um.
(Und nimm das mit dem Pfad bitte nicht OGL-like, das soll mehr als Ablaufplan gesehen werden...)

Man muss nicht immer alles wortwörtlich nehmen.....

J.S.Shadow

P.S.
den erstgenannten genric optimiere ich natürlich auch noch mal und von dieser Zeit ausgehend kann man durchaus 5 mal so lange brauchen.....

Mich wurmen ganz andere Dinge sowas lässt mich mehr oder minder kalt weil ich ja keinen persönlichen Nachteile dadurch habe.

Bei dem 5*0 habe ich einen Smilie vergessen. Das war nicht ganz ernst gemeint aber man sollte eben nicht schreiben das man auf einer Hardware nicht optimieren musste und auf der anderen 5 mal so lange gebraucht hat. :D

Das derzeitige Problem mit DX9 und 'generic Paths' ist nun aber mal das diese fast zwangsläufig in einem ATI Pfad enden weil das nun mal der KGN von DX9 ist. Aus diesem Grund fordere ich ja schon seit längerem das sich nVidia endlich was zur generellen Lösung dieses Problems einfallen lassen muss.

Exxtreme
2003-09-11, 11:40:08
Original geschrieben von Tyler_Durden
Mir ist es auch relativ egal ob nun ATi oder NV schneller ist, Hauptsache ich kann HL2 im DX9 Mode flüssig in 1024er Res zocken, denn dafür hab ich mir extra ne DX9 Karte gekauft!
Oder ich muss halt nochmal auf 9800pro umsteigen, worauf ich aber eigentlich 0 Lust hab!
Naja, laut den Benchmarks @ B3D läuft die GFFx5900U mit durchschnittlich 31 fps. Also ruckeln tut es nicht. :)

thop
2003-09-11, 11:41:10
Exxtreme: Gemein ;D

Exxtreme
2003-09-11, 11:42:19
Original geschrieben von thop
Exxtreme: Gemein ;D
Wieso? ;D ;D

Ich kenne Leute, die 18 fps als flüssig empfinden. ;)

Tyler_Durden
2003-09-11, 11:44:22
Original geschrieben von Exxtreme
Naja, laut den Benchmarks @ B3D läuft die GFFx5900U mit durchschnittlich 31 fps. Also ruckeln tut es nicht. :)

Tja, ich habe aber ne 5800 non Ultra! Die wird wohl keine 31 fps, sondern dann wohl eher 20 erreichen! :-(

thop
2003-09-11, 11:45:33
Mein ernstgemeinter Tipp: Schnelle alle 5x00 auf eBay verkaufen, denn wenn HL2 rauskommt wird die keiner mehr kaufen.

HellHorse
2003-09-11, 12:23:18
Original geschrieben von Demirug
...
IMHO haben Valve und MS noch etwas zusammen vor.
...
Steam & NGSCB :D

AlfredENeumann
2003-09-11, 12:55:35
Original geschrieben von MadManniMan
Hm... daß nV nen eigenen Pfad bekommt, läßt mich ungeduldig werden. Ungeduldig deshalb, weil ich die visuellen Einbuße des "mixed Mode" in Relation zum Performancegewinn interpretiert haben möchte...


Auf Onkel Toms´s Seite steht dazu was. Die BQ soll nicht drunter gelitten haben.

ShadowXX
2003-09-11, 13:03:57
THG ist allerdings nicht gerade als 'neutral' bekannt.
Ist ja schon ein Wunder das die Benches dort nicht genau andersherum aussehen....

J.S.Shadow

Gast
2003-09-11, 13:04:36
Als Nvidia Kunde hab ich echt ANGST vor jedem neuen dx9 game.

Coolj100
2003-09-11, 13:08:05
Original geschrieben von ShadowXX
THG ist allerdings nicht gerade als 'neutral' bekannt.
Ist ja schon ein Wunder das die Benches dort nicht genau andersherum aussehen....

J.S.Shadow

Jetzt noch nicht!!! ;D

*edit*
Bald gibts wieder geld von nv...

Hamster
2003-09-11, 13:11:41
ahc, nachdem jetzt so langsam die ganze wahrheit durchsickert (pressekonferenz mit ati, valve weigert sich 50er deto einzusetzen, auf ati geproggt, etc), glaube ich nicht, dass es so schlecht um die fx karten steht.

das die ati von vorneherein schneller sein wird, war klar.
ich denke aber, nvidia wird nochmals 50 - 100% zulegen können (wären dann ja immer noch hinter einer r9800p). sei es durch treiber, durch patches von valve (i.eg. neu kompilierung mit cgi), oder schlicht durch unabhängige benches!


man wird sehen...

mayo
2003-09-11, 13:11:51
Man sollte weiterhin auf das fertige Spiel mit fertigen Treibern warten. Bis dahin lohnt sich eigentlich die weitere Diskussion nicht. Wie ich schon erwähnt habe werden die Zahlen nicht stimmen. Ist ja auch logisch, wenns quasi nur Marketingaussagen sind?!, auf die auch noch viele reinfallen.

Das eigentliche Ziel von ATI ist es, sich damit bei OEMs beliebt zu machen und damit ihre Absatzzahlen zu erhöhen. Was in gewisser Weise gut ist, denn somit wird vielleicht nvidias Vormacht ein wenig angetastet.

Coolj100
2003-09-11, 13:17:45
Original geschrieben von Hamster
ahc, nachdem jetzt so langsam die ganze wahrheit durchsickert (pressekonferenz mit ati, valve weigert sich 50er deto einzusetzen, auf ati geproggt, etc), glaube ich nicht, dass es so schlecht um die fx karten steht.

das die ati von vorneherein schneller sein wird, war klar.
ich denke aber, nvidia wird nochmals 50 - 100% zulegen können (wären dann ja immer noch hinter einer r9800p). sei es durch treiber, durch patches von valve (i.eg. neu kompilierung mit cgi), oder schlicht durch unabhängige benches!


man wird sehen...

Ich glaube nicht das jetzt auf einmal 50 - 100 % mehr leistung drin ist. Bissl wird sicherlich der neue treiber bringen aber auch der beste treiber kann nicht die hardware verbessern. Ich kenne die versprechen von damals mit der geforce4 ti, da kam ein treiber raus und auf nv's seite stand 50% mehr leistung und was war die treiber brachten bei einem optimalen umfeld gerademal 10% mehr.

Aber das die r9600pro schneller ist als die fx5900u ist wirklich komisch. Bin schon auf neutrale benches gespannt!!!

Hamster
2003-09-11, 13:21:46
Original geschrieben von Coolj100
Ich glaube nicht das jetzt auf einmal 50 - 100 % mehr leistung drin ist. Bissl wird sicherlich der neue treiber bringen aber auch der beste treiber kann nicht die hardware verbessern. Ich kenne die versprechen von damals mit der geforce4 ti, da kam ein treiber raus und auf nv's seite stand 50% mehr leistung und was war die treiber brachten bei einem optimalen umfeld gerademal 10% mehr.

Aber das die r9600pro schneller ist als die fx5900u ist wirklich komisch. Bin schon auf neutrale benches gespannt!!!

ich meinte ein mischmasch aus allen von mir obengenannten bespielen, dürfte letzendlich nen schub von 50% geben.


sicherlich ist das optimistisch, aber keiner wird mir das jetzt auch widerlegen können.

Coolj100
2003-09-11, 13:24:55
Original geschrieben von Hamster
ich meinte ein mischmasch aus allen von mir obengenannten bespielen, dürfte letzendlich nen schub von 50% geben.


sicherlich ist das optimistisch, aber keiner wird mir das jetzt auch widerlegen können.

Ja,

keiner solange es den deto50 net gibt. Aber wenn der rauskommt werden wirs ja sehen.

Ich finde das trotz mischmasch unrealistisch...

50 - 100 % sind sogar total überzogen.

Matrix316
2003-09-11, 13:25:36
http://www.techreport.com/etc/2003q3/valve/image14.jpg

Interessant ist doch wie die GF4 hier "performt". Da dürfte selbst die 4200/4400/4800SE mindestens auf 5600 Ultra höhe liegen, wenn nicht gar 5900 Niveau.

Coolj100
2003-09-11, 13:26:32
Original geschrieben von Matrix316
http://www.techreport.com/etc/2003q3/valve/image14.jpg

Interessant ist doch wie die GF4 hier "performt". Da dürfte selbst die 4200/4400/4800SE mindestens auf 5600 Ultra höhe liegen, wenn nicht gar 5900 Niveau.

Ja die ist so gut, weil die ja auch nur dx8 kann;D

*edit*

Stellste bei der fx nur die dx8 effekte ein dann sind die fx'er besser als die ti karten.

Matrix316
2003-09-11, 13:34:21
Aber net die 5600er (siehe oben).

Die gelbe Eule
2003-09-11, 13:34:25
naja wenn nur 60 fps rauskommen in einem benchmark, wie sieht es dann in einem multiplayergame aus?

da kommt einem wieder der 60Hz bug ins gedächtnis, wer spielt schon mit flimmern in den augen ...

auch wird nicht gesagt mit welchen details ingame gebencht worden ist.

warum wurde nicht mit einem amd gebencht auf nem nforce2 board?

das dort die performance verschieden ist sieht man in anderen benches.

mayo
2003-09-11, 13:40:06
Original geschrieben von die elektrische eule


warum wurde nicht mit einem amd gebencht auf nem nforce2 board?

das dort die performance verschieden ist sieht man in anderen benches.

Auf einer Marketingveranstaltung von ATI Benchmarks von Testsysteme mit Nvidia Chipsatz zu erwarten ist ein wenig unrealistisch. Meinst du nicht?

Die gelbe Eule
2003-09-11, 13:41:51
das schon ... aber dann intel zu bervorzugen auch nicht unbedingt oder?

edit: mit nem omega treiber würde ich auch mal nen bench sehen ob da was bei rumkommt ...

leider ist ja der bench erst für den 30. sept angekündigt, dem datum des erscheinens ... war wohl nix mit kommt vorher raus ...

das sdk wird doch dann wohl auch ne möglichkeit bieten sich maps anzuschauen, bzw sie anzuspielen. befehle für performance gibt es ja zu hauf in hl, die allgemein bekannt sind

mayo
2003-09-11, 13:43:33
Irgentein System braucht man ja.

Hamster
2003-09-11, 13:45:44
Original geschrieben von Coolj100
Ja,

keiner solange es den deto50 net gibt. Aber wenn der rauskommt werden wirs ja sehen.

Ich finde das trotz mischmasch unrealistisch...

50 - 100 % sind sogar total überzogen.


finde ich nicht.

lass den neuen deto 20% mehrleistung haben, bei unabhängigen benches sind auch nochmal 15% drin, und bei weiterer optimierung auf nv karten auch nochmal 20%

Coolj100
2003-09-11, 13:46:46
Original geschrieben von Matrix316
Aber net die 5600er (siehe oben).

Jo aber die waren nie schneller als ne ti4600.

Die gelbe Eule
2003-09-11, 13:50:08
die 40.xx detos sidn eigentlich keine wahren fx detos. sie wurden nur optimiert, das etwas an performance bei rumkommt. wenn nv schon sagt das sogar noch tnt karten von den 50ern profitieren, dann kann der sprung gewaltig für die fxen werden.

naja noch was anderes ... wenn schon ati für die xbox zwei einen r500 chip plant, ist wohl klar das sie hl2 dort auch portieren werden.

hat nv da die chance bei der ps3 einzugreifen, wird es ein harter kampf.

Matrix316
2003-09-11, 13:50:56
Original geschrieben von Coolj100
Jo aber die waren nie schneller als ne ti4600.

Außer im 3DMark2003. ;D

John Porno
2003-09-11, 13:51:10
Original geschrieben von Alexander
Oh man...immer solche Verschwörungstheorien...

Lassen wir es doch mal dabei: "Abwarten und Tee trinken sage ich nur. Warten wir auf andere Tests."

Alexander


Kein Wunder zum 11 September :)

Coolj100
2003-09-11, 13:53:26
Original geschrieben von Hamster
finde ich nicht.

lass den neuen deto 20% mehrleistung haben, bei unabhängigen benches sind auch nochmal 15% drin, und bei weiterer optimierung auf nv karten auch nochmal 20%

Du nicht aber ich...

wenn der deto50 20% mehr leistung hat dann kannst du doch nicht,

20% deto50 leistung + 20% optimierung rechnen.

Durch die optimierung kann höchstens die 20% leistung des deto50(20%) erreicht werden.

Kennst du das sprichwort,

Träume sind Schäume...

Scose
2003-09-11, 13:54:32
Das wirklich krasse find ich das hier...

Teil einer Übersetzung zur Valve Präsentation...

Den ganzen Artikel gibts hier:

http://www.withingames.net/index.php?show=news&type=newsmain&typ=hardware&start=1#0


....Zum einen zeigte er sich sehr besorgt darüber, dass gewisse Chipentwickler vermehrt Cheats und andere fragwürdige Optimierungen in ihre Treiber einbauen, um in Benchmarks eine höhere Performance zu erzielen. Neben bekannten Cheats erwähnte Newell dabei auch einige Methoden, von denen wir bisher noch nie gehört haben...

(Soviel ist bekannt)


...So versuchte ein ungenannter Hersteller über den Treiber Screen-Capture Befehle abzufangen und dadurch Screenshots auszugeben, die qualitativ über dem lag, was eigentlich auf dem Monitor zu sehen war...


Hatter ihr jemals davon gehört? Das schiesst echt den Vogel ab.

cheers

thop
2003-09-11, 13:56:39
Also wer hier an Performancesteigerungen von 50-100% träumt den kann ich nur Fragen wovon er nachts träumt. Unabhängige Tests gibs doch schon, Anandtech hat zwar keine Zahlen präsentiert aber gesagt dass seine Ergebniss mit denen von Valve übereinstimmen. Und die Det50 wurden nur deshalb nicht eingesetzt weil nV wieder einmal das große Cheat-Geschütz aufgefahren hat.

Ich denke mal 20% mehr Leistung sind realistisch. Trotzdem wird die 9600pro vor der 5900U liegen. Da hilft auch kein Schönreden, nV ist für HL2 einfach Mist! Vielleicht hat die nV Fraktion bei Doom3 mehr Glück.

gRoUnD
2003-09-11, 13:58:00
Ja warten wir auf "Optimierungen", is wohl das einzige was nV noch zu leisten vermag.

Edit: Ach jetzt ist es ja schon soweit das nicht nur nVidia gezwungen ist zu optimieren, sondern auch Valve dies tun muss(te).

Szilard
2003-09-11, 13:59:34
Natürlich sind 100% Mehrleistung drin aber wie dann wohl die Bildqaulität ist (Strichmänchen :D) ???

MfG

Szilard

nggalai
2003-09-11, 14:00:58
Hola,

falls es wer überlesen hat, hier übrigens NVs offizielle Antwort auf die Benches:The Optimizations for Half-Life 2 shaders are in the 50 series of drivers which we made available to reviewers on Monday. Any Half-Life 2 comparison based on the 45 series driver are invalid. NVIDIA 50 series of drivers will be available well before the release of Half-Life 2.Ich hab' das im gleichen Wortlaut auch auf Firingsquad gesehen, denke also, dass ich hier den E-mail-Auszug posten kann, da es sich offensichtlich um die offizielle PR-Antwort handelt.

Ob und wie die Det50 reissen darf ich nicht sagen, aber ich zitier mich mal aus dem (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=85151) Thread:- Wunder darf man nicht erwarten.

93,
-Sascha.rb

Coolj100
2003-09-11, 14:01:08
Original geschrieben von gRoUnD
Ja warten wir auf "Optimierungen", is wohl das einzige was nV noch zu leisten vermag.

Ja wenn die hardware nicht mehr leistung hat sind doch optimierungen die folge, was ich nicht gut finde. NV ist ja für optimierungen bekannt, seidem es die fx gibt.

Die gelbe Eule
2003-09-11, 14:10:15
ist es sicher das dort nicht die 9800xt gebencht worden ist?

markttechnisch wäre das dort vorstellebar.

das wird die karte sein mit der hl2 gebundelt sein wird. aber hier sei gesagt, das hl2 was dort beiliegt ist eine spezielle abgespeckte version, was das auch immer heißen mag.

Coolj100
2003-09-11, 14:10:17
Original geschrieben von nggalai
Ob und wie die Det50 reissen darf ich nicht sagen, aber ich zitier mich mal aus dem (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=85151) Thread:- Wunder darf man nicht erwarten.


93,
-Sascha.rb

Was manche nv user einfach nicht verstehen...

PCGH_Thilo
2003-09-11, 14:11:36
Original geschrieben von thop
Ich denke Füllrate ist heutzutage nicht mehr interessant. Bei Q3 mag das ja noch interessant gewesen sein aber heute kommt es auf die per pixel performance an.

"nicht mehr interessant" ist auf den ganzen spielemarkt gesehen verfrüht. da gibt es genug spiele, die nicht ps 2.0 shader benutzen. und was die von dir heruntergespielte q3-engine angeht: die lebt auch noch (siehe jedi knight 3, moh, call of duty), und da sehen radeon-karten teilweise ziemlich alt aus ;-) aber das ist OT.

http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=93368&perpage=20&pagenumber=1

John Porno
2003-09-11, 14:14:14
Original geschrieben von Coolj100
Ich glaube nicht das jetzt auf einmal 50 - 100 % mehr leistung drin ist. Bissl wird sicherlich der neue treiber bringen aber auch der beste treiber kann nicht die hardware verbessern. Ich kenne die versprechen von damals mit der geforce4 ti, da kam ein treiber raus und auf nv's seite stand 50% mehr leistung und was war die treiber brachten bei einem optimalen umfeld gerademal 10% mehr.

Aber das die r9600pro schneller ist als die fx5900u ist wirklich komisch. Bin schon auf neutrale benches gespannt!!!

Hallo!

Man kann es auch so sehen 50 % mehr Leistung zum 1 FX Treiber :)

Coolj100
2003-09-11, 14:14:40
Original geschrieben von PCGH_Thilo
"nicht mehr interessant" ist auf den ganzen spielemarkt gesehen verfrüht. da gibt es genug spiele, die nicht ps 2.0 shader benutzen. und was die von dir heruntergespielte q3-engine angeht: die lebt auch noch (siehe jedi knight 3, moh, call of duty), und da sehen radeon-karten teilweise ziemlich alt aus ;-) aber das ist OT.

http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=93368&perpage=20&pagenumber=1

Verstehe nicht warum die da alt aussehen...

Habe die demos gespielt call of duty lief meistens schneller auf der r9500pro als auf der fx5800.

Die gelbe Eule
2003-09-11, 14:15:13
wo wir schon bei ps 2.0 shader sind ... die nv30er haben doch ps 2.0+ ... bringt das nichts mehr als normales ps 2.0?

thop
2003-09-11, 14:17:07
Ja die Q3 Engine ist einfach nicht totzukriegen :) Aber die ist ja auch nur noch villeicht 20% der Original Engine bei JK3.

Demirug
2003-09-11, 14:18:38
Original geschrieben von die elektrische eule
wo wir schon bei ps 2.0 shader sind ... die nv30er haben doch ps 2.0+ ... bringt das nichts mehr als normales ps 2.0?

2.0+ = Mehr Features. Richtig eingesetzt kann man sich mit den 2.0+ Features bei komplexen Shadern ein paar Anweisungen sparen. Allerdings laufen dann solche Shader nicht mehr auf reinen 2.0 Karten.

ow
2003-09-11, 14:18:58
Original geschrieben von die elektrische eule
wo wir schon bei ps 2.0 shader sind ... die nv30er haben doch ps 2.0+ ... bringt das nichts mehr als normales ps 2.0?


Doch, aber dazu müssen diese Shader auch genutzt werden. Und das ist derzeit wohl nicht der Fall.

Tyler_Durden
2003-09-11, 14:24:45
Vorallem laufen die 2.0 Shader auf NV Hardware nicht schnell genug!

[dzp]Viper
2003-09-11, 14:26:18
Original geschrieben von PCGH_Thilo
(siehe jedi knight 3, moh, call of duty), und da sehen radeon-karten teilweise ziemlich alt aus ;-) aber das ist OT.


ähm .. wo hast du das den her - ist zwar OT aber irgendwie stimmt das garnicht

Mohaa geht in 1280x1024 mit 6 AA und 8 AF flüssig ..
Call of duty ebenfalls
und JK3 demo läuft auch zufriedenstellend in 1280x1024 mit 2 AA und 8 Af (ca. 40 fps)

also verbreite mal bitte nicht so einen humbug - thx ;)

ow
2003-09-11, 14:27:03
Original geschrieben von Tyler_Durden
Vorallem laufen die 2.0 Shader auf NV Hardware nicht schnell genug!


Doch, tun sie.
Aber nicht wenn sie auf die ATi Chips angepasst sind. Und das ist wohl derzeit leider meistens der Fall.

Coolj100
2003-09-11, 14:27:04
Original geschrieben von die elektrische eule
wo wir schon bei ps 2.0 shader sind ... die nv30er haben doch ps 2.0+ ... bringt das nichts mehr als normales ps 2.0?

Es scheint so als brige das nicht viel, als wäre da bissl wahrheit aber das meiste marketing.

LovesuckZ@school
2003-09-11, 14:27:40
Original geschrieben von [dzp]Viper
also verbreite mal bitte nicht so einen humbug - thx ;)

Frage: Warum sollte man dir mehr glauben als jemanden anderen?
Tja, "verbreite mal bitte nicht so einen humbug"

ow
2003-09-11, 14:28:59
Original geschrieben von LovesuckZ@school
Frage: Warum sollte man dir mehr glauben als jemanden anderen?
Tja, "verbreite mal bitte nicht so einen humbug"


Das Frage ich mich auch.

Für mich ist Thilo jedenfalls weitaus glaubwürdiger als irgendwelche FanATiker hier.

Tyler_Durden
2003-09-11, 14:29:16
Original geschrieben von ow
Doch, tun sie.
Aber nicht wenn sie auf die ATi Chips angepasst sind. Und das ist wohl derzeit leider meistens der Fall.

Das Problem ist auch, daß die ATis die wesentlich stärkere Rohperformance unter DX9 Shadern haben!
Zumindest les ich das aus dem CineFX Artikel heraus!

Coolj100
2003-09-11, 14:29:45
Original geschrieben von LovesuckZ@school
Frage: Warum sollte man dir mehr glauben als jemanden anderen?
Tja, "verbreite mal bitte nicht so einen humbug"

Weils so ist...

thop
2003-09-11, 14:30:23
Original geschrieben von ow
Doch, tun sie.
Aber nicht wenn sie auf die ATi Chips angepasst sind. Und das ist wohl derzeit leider meistens der Fall.
Soweit ich das verstehe liegt das daran dass sich ATI eher an die Standards hält, während nV versucht ihren eigenen Brei zu kochen. Siehe z.b. Cg, das wollten sie allen aufdrücken, aber jetzt dreht sich alles um HLSL.

ow
2003-09-11, 14:32:22
Original geschrieben von thop
Soweit ich das verstehe liegt das daran dass sich ATI eher an die Standards hält, während nV versucht ihren eigenen Brei zu kochen. Siehe z.b. Cg, das wollten sie allen aufdrücken, aber jetzt dreht sich alles um HLSL.


Soweit ich das sehe verstehst du garnichts. Am besten informierst du dich mal und dann reden wir weiter. EOD.

mayo
2003-09-11, 14:32:50
Original geschrieben von Demirug
2.0+ = Mehr Features. Richtig eingesetzt kann man sich mit den 2.0+ Features bei komplexen Shadern ein paar Anweisungen sparen. Allerdings laufen dann solche Shader nicht mehr auf reinen 2.0 Karten.

Wird PS2.0+ nicht automatisch genutzt wenn Microsofts Compiler PS2_X Code ausgibt?

Coolj100
2003-09-11, 14:33:45
Original geschrieben von ow
Soweit ich das sehe verstehst du garnichts. Am besten informierst du dich mal und dann reden wir weiter. EOD.

Dann erklär es mal damit wir es alle verstehen...

Das thema interessiert mich...

Die gelbe Eule
2003-09-11, 14:34:42
der treiber muss es schon ansprechen können udn ich denke das das erst im 50er möglich ist

ow
2003-09-11, 14:35:33
Original geschrieben von Coolj100
Dann erklär es mal damit wir es alle verstehen...


was glaubst du eigentlich wieviele Threads und auch 3DC Artikel sich damit schon befasst haben?

wer´s jetzt noch nicht kapiert hat, der wird´s auch nicht mehr kapieren. Nämlich wo die Unterschiede der HW von ATi&NV liegen.

Die gelbe Eule
2003-09-11, 14:36:55
manche lesen halt nicht die randartikel die schon seit monaten in der rechten navig rumdümpeln ...^^

Coolj100
2003-09-11, 14:37:21
Original geschrieben von ow
was glaubst du eigentlich wieviele Threads und auch 3DC Artikel sich damit schon befasst haben?

wer´s jetzt noch nicht kapiert hat, der wird´s auch nicht mehr kapieren. Nämlich wo die Unterschiede der HW von ATi&NV liegen.

Habe diese threads leider verpasst verstehe nicht warum du mir sowas vorwirfst.

Wenn ichs gelesen hätte, hätte ich es sicherlich kapiert.

Bist ja echt vorbildlich!!!

Demirug
2003-09-11, 14:37:59
Original geschrieben von mayo
Wird PS2.0+ nicht automatisch genutzt wenn Microsofts Compiler PS2_X Code ausgibt?

Ja und nein. Das Compiler Profil nennt sich 2.A und war bis vor kurzem noch Beta und nutzte noch nicht alle PS 2.0+ Features. Seit einer Woche gibt es jetzt einen RC der wieder ein bischen mehr nutzt. Allerdings darf man diesen Compiler da er noch nicht offiziel ist auch nicht in Verkaufsversionen benutzten. Für die gibt es immer noch den guten alten Compiler der nur 2.0 Shader nach ATI Manier bauen kann.

ow
2003-09-11, 14:38:16
Original geschrieben von mayo
Wird PS2.0+ nicht automatisch genutzt wenn Microsofts Compiler PS2_X Code ausgibt?


Doch, AFAIK schon.
Aber den Compiler gibt es ja noch garnicht mit dem 2_X Profil in endgültiger Fassung. Das ist immer noch Beta Status (AFAIK, unser Demirug weiss da mehr).

ow
2003-09-11, 14:39:10
Original geschrieben von ow
Doch, AFAIK schon.
Aber den Compiler gibt es ja noch garnicht mit dem 2_X Profil in endgültiger Fassung. Das ist immer noch Beta Status (AFAIK, unser Demirug weiss da mehr).

/edit: ^^ im vordrängeln ist er auch grosse klasse:D;);)

roman
2003-09-11, 14:40:48
Original geschrieben von Coolj100
Es scheint so als brige das nicht viel, als wäre da bissl wahrheit aber das meiste marketing.

wie schon gesagt, ps2.0(+) ist eine featurespezifikation, hat also mit der performance nur wenig zu tun.

ShadowXX
2003-09-11, 14:44:00
Original geschrieben von Coolj100
Verstehe nicht warum die da alt aussehen...

Habe die demos gespielt call of duty lief meistens schneller auf der r9500pro als auf der fx5800.

Und dem kann ich mich nur anschliessen...ebenfalls lief bei mir JK3 auch ohne Probleme (1152x864x32 4xAA/8xAF)....

@ow
ich glaube schon das die meisten wissen worin der Unterschied zwischen ATI und nV Hardware besteht und wenn man den Artikel gelesen hat, weiss man auch warum nV nie an die Shadergewindigkeit von ATI rankommen wird.....

J.S.Shadow

LovesuckZ@school
2003-09-11, 14:44:09
Original geschrieben von thop
Soweit ich das verstehe liegt das daran dass sich ATI eher an die Standards hält,

Es waere nett, wenn du aufzeigen koenntest, wie diese Standards aussaehen. Waere der ATi weg der einzig richtige, warum sollte MS dann ein (oder mehere) extra Compiler Profile nachschieben?

Siehe z.b. Cg, das wollten sie allen aufdrücken, aber jetzt dreht sich alles um HLSL.

Cg war vor HLSL da. und wie wir sehen, ist HLSL das für ATi, was CG für Nvidia ist...

[dzp]Viper
2003-09-11, 14:46:15
Original geschrieben von LovesuckZ@school


Es waere nett, wenn du aufzeigen koenntest, wie diese Standards aussaehen. Waere der ATi weg der einzig richtige, warum sollte MS dann ein (oder mehere) extra Compiler Profile nachschieben?



Cg war vor HLSL da. und wie wir sehen, ist HLSL das für ATi, was CG für Nvidia ist... [/SIZE]

HLSL is nicht von ATI ... das is von MS
Cg ist direkt von NV .. hätte sich Cg durchgesetzt, ..daran will ich garnicht denken ...lol

Coolj100
2003-09-11, 14:46:30
Original geschrieben von ow
Doch, tun sie.
Aber nicht wenn sie auf die ATi Chips angepasst sind. Und das ist wohl derzeit leider meistens der Fall.

UT2003 ist die radeon auch schneller als ne nv ist da auch der code oder was auch immer angepasst für die radeon??

Weil da ja ein fetter nv logo kommt würde mich das interessieren ob dieses logo was mit einer zusammenarbeit zutun hat...

ow
2003-09-11, 14:48:14
Original geschrieben von ShadowXX


@ow
ich glaube schon das die meisten wissen worin der Unterschied zwischen ATI und nV Hardware besteht und wenn man den Artikel gelesen hat, weiss man auch warum nV nie an die Shadergewindigkeit von ATI rankommen wird.....

J.S.Shadow


Das mag ja sein, aber so eklatant unterschiedlich wie hier dargestellt wird die Shaderperformance letzten Endes nicht sein, wenn die NV-Chips endlich mal den für sie passenden Code vorgestzt bekommen und nicht nur diesen 'ATI-Code'.

roman
2003-09-11, 14:48:24
Original geschrieben von LovesuckZ@school


Cg war vor HLSL da. und wie wir sehen, ist HLSL das für ATi, was CG für Nvidia ist... [/SIZE]

???

Ich dachte immer

HLSL = Microsoft
Cg = Nvidia
Rendermonkey = ATi (auch wenns sich scheinbar (noch) nicht durchgesetzt hat)

LovesuckZ@school
2003-09-11, 14:49:22
Original geschrieben von [dzp]Viper
HLSL is nicht von ATI ... das is von MS
Cg ist direkt von NV .. hätte sich Cg durchgesetzt, ..daran will ich garnicht denken ...lol

Ach, es ist also nicht richtig, wenn CG sich durchgesetzt haette, doch bei HLSL mache man eine Ausnahme, weil es Standardmaesig auf ATI optimiert?
Ohman...

[dzp]Viper
2003-09-11, 14:51:11
Original geschrieben von ow
Das mag ja sein, aber so eklatant unterschiedlich wie hier dargestellt wird die Shaderperformance letzten Endes nicht sein, wenn die NV-Chips endlich mal den für sie passenden Code vorgestzt bekommen und nicht nur diesen 'ATI-Code'.

NIRGEND - absolut NIRGENDS wurde gesagt, das es reiner ATI code ist ...das ist reine spekulation von dir ow ..

allgemein ist dieser thread pure spekulation ... eigentlich lohnt es sich ja eh nicht drüber zu diskutieren, da das endergebenis eh erst am 30.sep zu sehen ist ....

und das ihr euch SO beschwert, das valve VIELLEICHT ati karten leicht bevorzugt, finde ich lächerlich, da es mehr als genug spiele gibt, die auf NV karten entwickelt und optimiert wurden sind ...

[dzp]Viper
2003-09-11, 14:51:40
Original geschrieben von LovesuckZ@school
Ach, es ist also nicht richtig, wenn CG sich durchgesetzt haette, doch bei HLSL mache man eine Ausnahme, weil es Standardmaesig auf ATI optimiert?
Ohman...

lol - MS hat also standardmäßig auf ATI optimiert ? :bonk:

thop
2003-09-11, 14:52:06
ow: Da ist aber jemand ganz schön pissed dass seine schöne nV so Scheisse performed ;D
HLSL ist der Standard, da hilft auch deine arrogante Antwort wenig. Nciht mein problem dass nV ihr eigenes Süppchen kocht. Und selbst auf nV optimiert sind die nV noch miserable, muss ich mehr sagen? Denke nicht.

Demirug
2003-09-11, 14:53:36
Original geschrieben von Romanski
???

Ich dachte immer

HLSL = Microsoft
Cg = Nvidia
Rendermonkey = ATi (auch wenns sich scheinbar (noch) nicht durchgesetzt hat)

Da sind ja wieder dinge im Umlauf :D

HLSL und Cg sind Syntaxgleich und von MS und nVidia zusammen entwickelt.

MS hat aber nur DirectX Profile bis 2.0 (R3XX; offiziel) und 2.A (NV3X; noch nicht offziel)

nVidia unterstützt nur Profile die ihnen gefallen dafür aber auch OpenGL.

Rendermonkey ist ein Shadertoolkit das den HLSL Compiler von Mircrosoft benutzt und die Entwicklung von Shader vereinfachen soll.

Demirug
2003-09-11, 14:55:08
Original geschrieben von [dzp]Viper
lol - MS hat also standardmäßig auf ATI optimiert ? :bonk:

Ja, der Compiler den MS mit dem offizielen DX-SDK ausliefert erzeugt 2.0 Code nach den Regeln von ATI.

thop
2003-09-11, 14:55:43
Rate mal wieso.

LovesuckZ@school
2003-09-11, 14:57:00
Original geschrieben von [dzp]Viper
lol - MS hat also standardmäßig auf ATI optimiert ? :bonk:

jap, oder warum befindet sich im jezigen offiziellen SDK(?) nur ein Compiler Profil, der einzig den r(v)3x0 karten nützt?

[dzp]Viper
2003-09-11, 14:57:17
Original geschrieben von Demirug
Ja, der Compiler den MS mit dem offizielen DX-SDK ausliefert erzeugt 2.0 Code nach den Regeln von ATI.

und der teilcode von NV ist nicht mit in HSLW reingeflossen, da NV auf ihr eigenes Cg bestand ?

oder ist das jetzt auch reine spekulation ? :D

roman
2003-09-11, 14:58:11
Original geschrieben von Demirug
Da sind ja wieder dinge im Umlauf :D


wer nicht fragt bleibt ewig blöd :D

dafür hab ich ja so kompetente menschen wie euch ... ;)

Gast
2003-09-11, 15:01:24
Original geschrieben von ow
Das mag ja sein, aber so eklatant unterschiedlich wie hier dargestellt wird die Shaderperformance letzten Endes nicht sein, wenn die NV-Chips endlich mal den für sie passenden Code vorgestzt bekommen und nicht nur diesen 'ATI-Code'.

Dieser und viele andere Sätze die das gleiche sagen sind ja eigentlich die dämlichsten was zur Zeit in diesem forum geschrieben werden.

Dieser ATI-Code ist doch kein ATI-Code sondern ein Microsoft Code der den ATI Karten besser liegt aufgrund dessen da NVIDIA einen anderen Weg in ihrer Architektur gegangen ist.

Was eigentlich auch bei den NVIDIA Usern angekommen sein muss. Aber so lässt es sich halt einfacher leben weil es ja ATI Code ist der extra von der bösen Firma Microsoft und der ab jetzt noch böseren Firma ATI im DX SDK releast worden ist nur um die gute Firma NVIDIA bloszustellen. :balla:

Smoking_Red
2003-09-11, 15:01:55
Hm,

das ATi Karten besser mit DX9 funken sollte doch erklärbar
sein...Wer war nochmal der Chippartner für die XBOX2? MS
wird ATi-Chips von daher mit Sicherheit bei der (Weiter)Ent-
wicklung seiner Games-API ein wenig bevorzugen...Schliess-
lich soll/muss das Gespann ja eine "sehr gute" Konsole her-
vorbringen...Und mit Sicherheit möchte man auch für die Ent-
wickler von Games eine leichtere Portierbarkeit erreichen.
Je näher sich beide Hartwareplattformen(PC/XBox2) sind, desto
einfacher sollte das dann doch sein...;) Geringe Kosten ver-
sprechen höhere Gewinne...:D


Edit:

Naja und son kleiner Racheakt für manches was bei der XBox
ablief konnte/wollte MS sich vll. dann auch nicht verkneifen.
Nach dem Motto: Ihr seit zwar die Nr. bei den Grakas ABER nur
weil wir das mit unserem OS/APIs auch zulassen...

Lev Arris
2003-09-11, 15:02:44
mann lovesuck ...wie oft denn noch


hl2 ist nicht auf ati optimiert ...sondern auf den standardpfad dx9 von microsoft !!!

ati hat nur etwas draufgepocht das dieser standard wird ... hauptsache nicht nvidias cg ;-) ... quasi kein monopol seitens nvidia zu "erwärmen" ... microsofts stellung wird dadurch nur gestärkt


ait passt sich microsoft an ... und microsoft zieht sein ding durch ... nvidia versuchts halt auch mit cg ...


ich persönlich schreibe cg und die cinefx noch lange nicht ab ...da noch nv38..nv4x folgen werden auf der basis ...
microsoft wird aber so denk ich nen längeren atem haben das sie ja das betriebssystem liefern ... und nvidia halt mit microsoft "verhandeln" sollte ... das teile des renderpfades in dx9 intigriert werden ...

ati ... hab ich erst seit kurzem und zu rendermonkey kann ich nix sagen ...


bin vor kurzem von gf4 ti 4600 auf 9800pro umgestiegen ... nich wegen ati vs nvidia geflame sondern ... für heutige spiele beste leistung ... kurzfristig verfügbare eingeschlossen ... hl2, max payne ...


naja ...ob die entscheidung gut war wird sich zeigen ... die ti hat 1 1/2 jahre super leistung gezeigt


das ati mit valve kooperiert ist nur fair ... wenn nvidia mit epic megagames (ut2003), monolith (tron2.0), oder id- software (doom3 ?) auch kooperiert ...letztendlich ermöglicht es ein evt. besser spielbares produkt ...oder ?

geforce
2003-09-11, 15:04:22
Original geschrieben von PCGH_Thilo
und was die von dir heruntergespielte q3-engine angeht: die lebt auch noch (siehe jedi knight 3, moh, call of duty), und da sehen radeon-karten teilweise ziemlich alt aus ;-) aber das ist OT.

Diese Pauschalisierung ist aber IMHO völlig daneben. Und es wundert mich schon das es gerade von dir kommt. Sorry, aber zum Beispiel Jedi3 performt auf meiner Geforce sehr schlecht. Bei Call of Duty ist das nicht wirklich anders. Könntest du deine "Theorie" auch mit Fakten belegen?

btw: Man beachte das IMHO ... ;););)

edit 1: Hmmm, scheiss Quote.

LovesuckZ@school
2003-09-11, 15:05:35
Original geschrieben von Lev Arris
mann lovesuck ...wie oft denn noch
hl2 ist nicht auf ati optimiert ...sondern auf den standardpfad dx9 von microsoft !!!


Hab ich was zu dem Thema gesagt?

Gast
2003-09-11, 15:06:00
Original geschrieben von Demirug
Ja, der Compiler den MS mit dem offizielen DX-SDK ausliefert erzeugt 2.0 Code nach den Regeln von ATI.

Das bestreitet ja auch glaub ich keiner mehr.
Aber wo kann ich nachlesen das Mircrosoft auf ATI optimiert ?

Es wahr halt eben Pech für NVIDIA mit ihrer Architektur.
Mit ihrem nächsten Chip wird die Sache bestimmt wieder besser ausschauen.

ow
2003-09-11, 15:08:01
Original geschrieben von Lev Arris
mann lovesuck ...wie oft denn noch


hl2 ist nicht auf ati optimiert ...sondern auf den standardpfad dx9 von microsoft !!!




Mann, wie oft denn noch:

ES GIBT KEINEN DX9 STANDARDPFAD!!

thop
2003-09-11, 15:08:35
ruhig blut, es kommen wieder bessere zeiten für nV besitzer.

geforce
2003-09-11, 15:09:35
Original geschrieben von thop
ruhig blut, es kommen wieder bessere zeiten für nV besitzer.

Ja, und bis dahin werkelt in meinem Rechner eine ATI. ;)

ow
2003-09-11, 15:10:24
Original geschrieben von Gast
Das bestreitet ja auch glaub ich keiner mehr.
Aber wo kann ich nachlesen das Mircrosoft auf ATI optimiert ?



In ATis Programmierrichtlinien.
Einfach mal reinschauen und mit dem 2.0 Shadercode des MS-Compilers vergleichen. Und dann mal die NV-Richtlinien studieren.

ow
2003-09-11, 15:11:28
Original geschrieben von thop
ruhig blut, es kommen wieder bessere zeiten für nV besitzer.


Wenn du nix zum Theama zu sagen hast, dann lass es.

Lev Arris
2003-09-11, 15:12:06
ich denke nicht das es derzeit schlechte zeiten sind
für nvidia

nur der konkurenzkampf ist etwas härter

fast wie formel 1 ---- lol


jeder versucht halt ein marketingtechnisch guten artikel mit in die produktlinie aufzunehmen

software verkauft hardware ...war früher net anders

(denk an wing commander ..nur wegen dem spiel nen sündteuren 286'er ...loooooool)

Coolj100
2003-09-11, 15:12:27
Original geschrieben von Gast
Dieser und viele andere Sätze die das gleiche sagen sind ja eigentlich die dämlichsten was zur Zeit in diesem forum geschrieben werden.

Dieser ATI-Code ist doch kein ATI-Code sondern ein Microsoft Code der den ATI Karten besser liegt aufgrund dessen da NVIDIA einen anderen Weg in ihrer Architektur gegangen ist.

Was eigentlich auch bei den NVIDIA Usern angekommen sein muss. Aber so lässt es sich halt einfacher leben weil es ja ATI Code ist der extra von der bösen Firma Microsoft und der ab jetzt noch böseren Firma ATI im DX SDK releast worden ist nur um die gute Firma NVIDIA bloszustellen. :balla:

FULL ACK

Demirug
2003-09-11, 15:12:39
Original geschrieben von [dzp]Viper
und der teilcode von NV ist nicht mit in HSLW reingeflossen, da NV auf ihr eigenes Cg bestand ?

oder ist das jetzt auch reine spekulation ? :D

Der kommt mit den neuen SDK. MS wollte eben erst mal das 2.0 Profil fertig bekommen.

[dzp]Viper
2003-09-11, 15:13:29
Original geschrieben von ow
In ATis Programmierrichtlinien.
Einfach mal reinschauen und mit dem 2.0 Shadercode des MS-Compilers vergleichen. Und dann mal die NV-Richtlinien studieren.

die frage lautet, was hättest du lieber ?

Cg von NV (die extrem auf nv optimiert isst)

oder HLSW was ein wenig auf ATI optimiert ist...

???

[dzp]Viper
2003-09-11, 15:15:33
Original geschrieben von Demirug
Der kommt mit den neuen SDK. MS wollte eben erst mal das 2.0 Profil fertig bekommen.

achso .. aber das neue SDK dauert ja noch eine weile ..

also ist valve nicht dran schuld, sondern eher MS, weil sie den code von NV noch nicht mit in die SDK eingebettet haben ... ;)

dann tut mir NV doch ein wenig leit - aber man kann halt nicht immer glück haben -und wie es thop schon geschrieben hat:
"ruhig blut, es kommen wieder bessere zeiten für nV besitzer."

ow
2003-09-11, 15:16:02
Original geschrieben von Demirug
Der kommt mit den neuen SDK. MS wollte eben erst mal das 2.0 Profil fertig bekommen.


Ich frage mich, wie oft das jetzt schon erwähnt wurde und warum das einige hier partout nicht begreifen wollen?

S.a. Vipers Posting hier obendrüber.

[dzp]Viper
2003-09-11, 15:21:01
Original geschrieben von ow
Ich frage mich, wie oft das jetzt schon erwähnt wurde und warum das einige hier partout nicht begreifen wollen?

S.a. Vipers Posting hier obendrüber.

WAS habe ich den geschrieben ? nix ow .. wenn der code von NV in HSLW noch nicht drin ist, naja .. das ist dann halt pech für NV ...

was hatte valve den für eine wahl ? die cg´s von NV oder halt das von MS ....

und wann kommt den das neue SDK - kann das jemand beantworten ?

thop
2003-09-11, 15:21:05
spätestens bei doom3 haben du ow und andere nV user wieder was zu lachen. bis dahin zähne zusammenbeissen.

ow
2003-09-11, 15:23:50
Original geschrieben von [dzp]Viper


also ist valve nicht dran schuld, sondern eher MS, weil sie den code von NV noch nicht mit in die SDK eingebettet haben ... ;)



Kannst du mir zeigen, wo hier irgendjemand mit der Frage des Schuldigen kam?

Ich sehe da keine zu klärende Frage der Schuld.
Aber Fakt ist, dass NV derzeit im Nachteil ist, wenn es um 2.0er Shader geht. Oder bestreitest du dies immer noch?

Coolj100
2003-09-11, 15:24:27
Original geschrieben von thop
spätestens bei doom3 haben du ow und andere nV user wieder was zu lachen. bis dahin zähne zusammenbeissen.

Beiß aber deine zähne nicht zu viel zusammen sonst fallen sie dir raus;D

Bis doom3 kommt wird es keine fx serie mehr geben!!!

Demirug
2003-09-11, 15:27:03
Original geschrieben von [dzp]Viper
WAS habe ich den geschrieben ? nix ow .. wenn der code von NV in HSLW noch nicht drin ist, naja .. das ist dann halt pech für NV ...

HLSL (High Level Shading Language) bitte ;)

was hatte valve den für eine wahl ? die cg´s von NV oder halt das von MS ....

Beides. Ist in weniger als 2 Tagen machbar.

und wann kommt den das neue SDK - kann das jemand beantworten ?

Das weiss noch nicht mal das DX Team. Je mehr Bugs wir noch finden desto später wird es ausser es gibt wieder einen Rush.

Coolj100
2003-09-11, 15:27:17
Original geschrieben von ow
Kannst du mir zeigen, wo hier irgendjemand mit der Frage des Schuldigen kam?

Ich sehe da keine zu klärende Frage der Schuld.
Aber Fakt ist, dass NV derzeit im Nachteil ist, wenn es um 2.0er Shader geht. Oder bestreitest du dies immer noch?

Das ist sicherlich nicht zu bestreiten, das nv im nachteil ist.

Aber nicht weil ms und ati zusammenarbeiten, sondern weil nv einen anderen weg genommen hat als ati. Das versuchen die wohl eher zu erklären.

[dzp]Viper
2003-09-11, 15:28:00
Original geschrieben von ow
Kannst du mir zeigen, wo hier irgendjemand mit der Frage des Schuldigen kam?

Ich sehe da keine zu klärende Frage der Schuld.
Aber Fakt ist, dass NV derzeit im Nachteil ist, wenn es um 2.0er Shader geht. Oder bestreitest du dies immer noch?

hm ... übersiehst du meinen smilie mit absicht ? no comment

NV is im nachteil - ja .. aber so ist das leben - aber ob dadurch SO ein extremer leistungsabfall zustande kommt ...

wir werden sehen

ow
2003-09-11, 15:28:09
Original geschrieben von thop
spätestens bei doom3 haben du ow und andere nV user wieder was zu lachen. bis dahin zähne zusammenbeissen.

/MOD:

und bis doom3 solltest du dich etwas zusammenreissen sonst bist du bis dahin in diesem Forum nicht mehr zugegen.
Auf unserer Flamerliste bist du jedenfalls schon drauf.
Ist nur ein gut gemeinter Rat.

thop
2003-09-11, 15:29:27
interessant dass ich auf der flamerliste bin ... und du nicht! jetzt mal im ernst.

Smoking_Red
2003-09-11, 15:30:34
Original geschrieben von ow
In ATis Programmierrichtlinien.
Einfach mal reinschauen und mit dem 2.0 Shadercode des MS-Compilers vergleichen. Und dann mal die NV-Richtlinien studieren.

Es ist doch nunmal so:

Als die XBox im "kommen war" wurde NV IMO bei DX8/8.1
gegenüber ATi bevorteilt - Kein Wunder NV lieferte als
Chippartner ja auch einen nicht unwichtigen Teil der
XBox...Nachdem nun ATi der neue Chippartner für die XBox2
ist wird MS hier sicherlich ähnliche Wege mit ATi gehen,
wie zuvor mit NV...Das MS also eine API/Compiler/Profile
liefert die ATi bevorzugen sollte doch nicht wirklich ver-
wundern oder?

Eines hat sich in der Vergangenheit doch immer gezeigt:
Software sells Hardware...MS wird alles daran setzen, dass
es so bleibt! Sichert es doch ihre steten Profite...;) So-
lange die User bereit sind sich diesem Diktat zu unterwerfen
wird sich wohl auch nix ändern...Kein Mensch fordert eine
bessere Optimierung auf bestehende Hardware sondern kauft
lieber nach ein paar Monaten/Jahren sich neues Zeug...Bei
Konsolen erscheinen teilweise 2-3 Jahre nach der Vorstel-
lung noch Titel, die optisch immernoch was "neues/besseres"
zu bieten haben - Weil die bestehende Hardware besser ausge-
reizt wird...Der PC-User geht halt Teile kaufen...


just my 2cents

BlackBirdSR
2003-09-11, 15:31:40
mal eine Meinung eines Unbeteiligten...

Die Einen hier benehmen sich wie Kinder, die noch nicht weit genug sind, ihr Weltbild anhand von Informationen zu ändern.

Die Anderen benehmen sich in Sachen Behandlung anderer Mitmenschen total daneben.

Und Manche hier sind selbst schuld wenn sie sich mit so manch Anderem hier abgeben und sich dann in total idiotische Streiterein verrennen.

Meiner Meinung nach sollten die Leute die wirklich Interesse und Hirnschmalz haben, dieses Thema intelligent durchzukauen, einen neuen Thread aufmachen und ihn mit Technobabbel füllen. So wird man zumindest schon mal die nVidia und ATI Fanatiker los die nichts verstehen (wollen).

Den nVidia und ATI Fanatikern die allerdings mitreden können wird man so natürlich nicht herr. ;D

Fazit:
Ihr seit Alle :krank:
Es ist fast unmöglich aus diesem Thread die durchaus interessanten Informationen rauszufischen :down:

Gast
2003-09-11, 15:32:23
Original geschrieben von ow
/MOD:

und bis doom3 solltest du dich etwas zusammenreissen sonst bist du bis dahin in diesem Forum nicht mehr zugegen.
Auf unserer Flamerliste bist du jedenfalls schon drauf.
Ist nur ein gut gemeinter Rat.

Warum schickst du ihm keine PM oder Mail, sondern spamst den Beitrag voll?

Demirug
2003-09-11, 15:38:16
Original geschrieben von Smoking_Red
Es ist doch nunmal so:

Als die XBox im "kommen war" wurde NV IMO bei DX8/8.1
gegenüber ATi bevorteilt - Kein Wunder NV lieferte als
Chippartner ja auch einen nicht unwichtigen Teil der
XBox...

Ja um DX 8 und nvidia gibt es doch einige interesante Sagengeschichten.

Fakt ist das der DX8 Basislevel nicht von nVidia sondern von 3dfx festgelegt wurde. nVidia durfte dann für die 1.1 Shader noch ein paar Ergänzungen hinzufügen und ATI hat dann später noch die 1.4er bekommen. Da wurde keiner bevorteilt. Das die Entwickler nicht richtig auf PS 1.4 angesprungen sind lag daran das die verbreitung von DX8 Hardware im Allgemeinen und PS 1.4 im Speziellen nicht sehr hoch war.

Jetzt aber bitte keine erneute PS 1.4 Diskussion. Danke

Lev Arris
2003-09-11, 15:41:26
...
mal ne frage an die "insider" ..

wenn ps 2.0+ in hlsl ...intigriert ... wird ...mit dirextx9
...9.0c ? :-)

würde dann der hl2 benchmarkt schneller laufen ?


bzw. wenn ich das so korrekt verstanden hab ..wenn cg in hlsl intigriert wird ... hat das auswirkungen auf den benchmark oder ähnliche applikationen wie tomb raider 6 ?

oder sind performancesprünge nur mit treiberverbesserungen möglich ?

ps. hoffe das jemand mit der fragestellug so zurechtkommt :-)

LovesuckZ
2003-09-11, 15:48:38
Original geschrieben von Salvee
nVidia has been circulating its Det50 driver to analysts in hopes that we would use it for our Half-Life 2 benchmarking. The driver contains application-specific optimizations that will likely improve nVidia's overall performance picture, however Valve's Gabe Newell expressed concerns that some of nVidia's optimizations may go too far. Doug Lombardi of Valve has explicitly asked that beta versions of the Det50 drivers not be used for benchmarking.


Bringen diese "application-specific optimizations" nur im HL2 benchmark eine bessere Performance oder steigert sich die Leistung im ganzen Spiel, sollte erstmal die Frage sein.
Treffe b) zu, finde ich die Aussage von Gabe Newell doch schon sehr befremdend...

Der Treiber enthält anwendungsspezifische Optimierungen, die wahrscheinlich gesamte Leistungsabbildung der nVidias verbessern - google.de Übersetzung

Gast
2003-09-11, 15:50:33
Original geschrieben von ow
/MOD:

Auf unserer Flamerliste bist du jedenfalls schon drauf.


Ich frage mich, ob die Forumsadmins auch selber in dieser Liste laden können. ow, Dein Verhalten hier ist kaum besser als das der Leute, die Du kritisierst.

Gruß

Jörg

Demirug
2003-09-11, 15:52:32
Original geschrieben von Lev Arris
...
mal ne frage an die "insider" ..

wenn ps 2.0+ in hlsl ...intigriert ... wird ...mit dirextx9
...9.0c ? :-)

Es gibt dafür keine neue Runtime sondern nur ein neues SDK das die Entwickler aber auch nutzen müssen.

würde dann der hl2 benchmarkt schneller laufen ?

Nein, an bestehenden Programmen ändert sich nichts.

bzw. wenn ich das so korrekt verstanden hab ..wenn cg in hlsl intigriert wird ... hat das auswirkungen auf den benchmark oder ähnliche applikationen wie tomb raider 6 ?

Cg wird nicht in HLSL integriert. Es werden die Optimierungsregeln die Cg benutzt in HLSL eingebaut und wie oben schon gesagt ändert sich dadurch an Programmen die HLSL benutzten nichts solange es keinen Patch dafür gibt welcher den neuen Compiler benutzt.

oder sind performancesprünge nur mit treiberverbesserungen möglich ?

Nein, der Compiler aleine schaft auf einem NV30 schon mal 40%. Ist aber nicht die Regel und der neue Compiler muss in bestehende Spiele eingebaut werden. In Spiele die gar kein HLSL benutzten bringt aber auch das nichts.

Der Treiber kann natürlich auch noch was rausholen.

roman
2003-09-11, 15:53:38
Original geschrieben von Lev Arris
bzw. wenn ich das so korrekt verstanden hab ..wenn cg in hlsl intigriert wird ... hat das auswirkungen auf den benchmark oder ähnliche applikationen wie tomb raider 6 ?

oder sind performancesprünge nur mit treiberverbesserungen möglich ?

ps. hoffe das jemand mit der fragestellug so zurechtkommt :-)

nö, da ja dann die engine wieder auf das erweiterte featureset angepasst werden müsste, um zB bestimmte shader etwas schneller ablaufen zu lassen.

x-dragon
2003-09-11, 15:53:43
Original geschrieben von Lev Arris
...
mal ne frage an die "insider" ..

wenn ps 2.0+ in hlsl ...intigriert ... wird ...mit dirextx9
...9.0c ? :-)

würde dann der hl2 benchmarkt schneller laufen ?


bzw. wenn ich das so korrekt verstanden hab ..wenn cg in hlsl intigriert wird ... hat das auswirkungen auf den benchmark oder ähnliche applikationen wie tomb raider 6 ?

oder sind performancesprünge nur mit treiberverbesserungen möglich ?

ps. hoffe das jemand mit der fragestellug so zurechtkommt :-) Wenn die 2.0+ -Version offiziell wird müsste zusätzlich erstmal noch die HL2-Engine diese neuen Funktionen nutzen, ansonsten gibts auch nicht mehr Performance.

CG und HSLS sind beides ein und dieselbe Programmiersprache, wobei CG nur etwas mehr Wert auf Optimierungen von Nvidia-Funktionen legt, da gibts also nix zu integrieren.

"Performancesprünge" gibts im Prinzip nur wenn sehr speziell auf einzelne Grafikkarten hin optimiert wird oder ansonsten vielleicht beim Treiber grobe Fehler ausgebessert werden (was inzwischen eher unwahrscheinlich ist) bzw ansonsten durch schummeln, also schlechtere Qualität => mehr Performance.

ow
2003-09-11, 15:58:52
Original geschrieben von X-Dragon
Wenn die 2.0+ -Version offiziell wird müsste zusätzlich erstmal noch die HL2-Engine diese neuen Funktionen nutzen, ansonsten gibts auch nicht mehr Performance.



Nicht ganz.
An der Hochsprache HLSL ändert sich ja nix, es ist nur ein neuer Compilerdurchlauf mit dem 2.0+ Profil nötig.

Lev Arris
2003-09-11, 16:05:39
...
aha vielen dank ...

also müsste valve ein update ihres benchmarks bzw. spiels machen ( falls das nicht zu umfangreich wird )
um das derzeitige ergebniss in nvidia richtung zu verbessern


desweiteren hoffe ich für jeden user egal ob ati oder nvidia ...das spieleoptimierte treiber ohne bildqualitätsverluste auskommen ...

was der deto 50.xx macht mit diesem application settings
ist eh heut nicht auszumachen ..da müssen wir abwarten

ich denke auch das ati evtl. mit dem 3.8'er und weiteren treibern weitere opitmierungen bzw. bugfixes einbauen werden ... das wird sich also die waage halten denk ich

fakt für mich war das nvidia derzeit kein produkt hat auf das ich upgraden würde ... preistechnisch gesehen ... 365€ 9800pro und ab 500€ 5900ultra für fast identische leistungen ( in heutigen spielen ) macht schon nen unterschied ...

ich denke auch das der hl2 benchmark kein allzugroßes gewicht wird ... da ja die allgemeine ps2.0 schwäche seitens nvidia bekannt ist ... dx9 benches wie 3dmark2003, aquamark, und eben hl2bench werden so denk ich erst nextes jahr wenn ne 2 stellige zahl an spielbarer software vorhanden ist die dx9 effekte vorraussetzt ( für volle bildqualität ) ...an bedeutung hinzugewinnen ... und die leute die sich heut ne 5900(ultra) gekauft haben oder 9800pro ...denken sowieso alle halbe jahre über ein upgrade nach ... so lange die derzeitige noch etwas € abwirft :-)


... so ich hab gleich feierabend ... ich wünsch ein schönes wochenende allen hier :-) hab euch doch alle lieb "frechgrins"

ps. die meisten grafikkarten hatte ich von 3dfx ... hehehe

Smoking_Red
2003-09-11, 16:10:20
Original geschrieben von Demirug
Ja um DX 8 und nvidia gibt es doch einige interesante Sagengeschichten.

Fakt ist das der DX8 Basislevel nicht von nVidia sondern von 3dfx festgelegt wurde. nVidia durfte dann für die 1.1 Shader noch ein paar Ergänzungen hinzufügen und ATI hat dann später noch die 1.4er bekommen. Da wurde keiner bevorteilt. Das die Entwickler nicht richtig auf PS 1.4 angesprungen sind lag daran das die verbreitung von DX8 Hardware im Allgemeinen und PS 1.4 im Speziellen nicht sehr hoch war.

Jetzt aber bitte keine erneute PS 1.4 Diskussion. Danke

Ich wollte ja garnicht auf die 1.4 hinaus...Wie Du ja
selber schreibst wurde PS1.1 bevorzugt...Und genau dort
ist ja anscheinend NV massgeblich beteiligt gewesen. Hin-
zu kommt, dass NV ja 3DFX, die das Basislevel lieferten,
geschluckt hat(zumindest einiges aus den Resten). Mit den
dann später hinzugekommenden PS1.4 konnte ATi dann auch
ned mehr viel reißen...Der Anfang war aber gemacht wie man
jetzt sieht...;)

wrdaniel
2003-09-11, 16:13:06
wenn die ergebnisse sich so bestaetigen sollten hat nv eben was falsch gemacht, hardware-, software- oder finanztechnisch.

roman
2003-09-11, 16:23:45
Original geschrieben von Lev Arris
ich denke auch das der hl2 benchmark kein allzugroßes gewicht wird ...

das denke ich allerdings schon ... HL2 wird DER kracher dieses jahr, und die engine kann AFAIK auch für zukünftige titel lizenziert werden. also hat der bench durchaus aussagekraft, auch für die zukunft.

besonders die "massenblätter" a la THG, anand, gamestar & co werden sich draufstürzen wie die motten aufs licht ...

nggalai
2003-09-11, 16:23:45
Hola,

OT:
Original geschrieben von Gast
Ich frage mich, ob die Forumsadmins auch selber in dieser Liste laden können.Oh, ja. Ich glaube, einige Leute hier im Forum wären erstaunt, wieviele Mods mit wievielen Punkten in der Flame- und Spamliste drinstehen.

Wenn wir schon ein Punktesystem einführen, dann ziehen wir das auch durch.

93,
-Sascha.rb

x-dragon
2003-09-11, 16:28:48
Original geschrieben von ow
Nicht ganz.
An der Hochsprache HLSL ändert sich ja nix, es ist nur ein neuer Compilerdurchlauf mit dem 2.0+ Profil nötig. Deswegen hab ich es auch etwas allgemeiner gehalten, da war ich mir nämlich nicht ganz sicher :). Aber danke für den Hinweis.

Original geschrieben von Lev Arris
... so ich hab gleich feierabend ... ich wünsch ein schönes wochenende allen hier :-) hab euch doch alle lieb "frechgrins" ... Wie am Donnerstag schon schönes Wochenende wünschen? Da ist es ja kein Wunder das unsere Wirtschaft den Bach runtergeht ... :).

Wie die Entwicklung der Benchmarks weiter gehen wird, werde ich auf jeden Fall mit Spannung weiter verfolgen. Ich bin mir da nämlich noch nicht so sicher wie es beispielsweise mit dem HL2-Benchmark verlaufen wird, aber einfach wird es für Valve garantiert nicht ...

Aeros405
2003-09-11, 16:58:53
Mich würde mal interesieren, was passiert, wenn andere DX9 Chips auf den Markt kommen (Via, PowerVR, XABRE?? , usw.). Muß dann jedesmal das DX9 SDK angepasst werden bzw. der Compiler? Das kann doch nicht der Sinn sein.
Ich denke die Spezifikationen sollten doch klar sein und man soll sich doch dann gefälligst auch dran halten und nicht immer ein eigenes Süppchen kochen.

Gast
2003-09-11, 17:00:13
Original geschrieben von ow

Aber Fakt ist, dass NV derzeit im Nachteil ist, wenn es um 2.0er Shader geht. Oder bestreitest du dies immer noch?

Daran sind sie allerdings selbst schuld, weil sie eine Extrawurst braten wollten in der Hoffnung, diese durch ihre Marktmacht durchzusetzten. Nun hat das nicht geklappt. Pech. Mitleid bekommen die dafür keins von mir.

Original geschrieben von ow
/MOD:
und bis doom3 solltest du dich etwas zusammenreissen sonst bist du bis dahin in diesem Forum nicht mehr zugegen.
Auf unserer Flamerliste bist du jedenfalls schon drauf.
Ist nur ein gut gemeinter Rat.

Ganz erstaunlich, wenn man bedenkt, mit welch rüdem Ton Du hier teils postest. Einem Mod übrigens keineswegs angemessen. Auch wenn es Dich emotional sehr mitnimmt, dass die FX Karten im Nachteil sind und für HL2 vielleicht ne Fehlinvestition, solltest Du Dir Deiner Verantwortung bewusst sein.

Samson-Nite
2003-09-11, 17:00:35
Original geschrieben von ow

Aber Fakt ist, dass NV derzeit im Nachteil ist, wenn es um 2.0er Shader geht. Oder bestreitest du dies immer noch?

Daran sind sie allerdings selbst schuld, weil sie eine Extrawurst braten wollten in der Hoffnung, diese durch ihre Marktmacht durchzusetzten. Nun hat das nicht geklappt. Pech. Mitleid bekommen die dafür keins von mir.

Original geschrieben von ow
/MOD:
und bis doom3 solltest du dich etwas zusammenreissen sonst bist du bis dahin in diesem Forum nicht mehr zugegen.
Auf unserer Flamerliste bist du jedenfalls schon drauf.
Ist nur ein gut gemeinter Rat.

Ganz erstaunlich, wenn man bedenkt, mit welch rüdem Ton Du hier teils postest. Einem Mod übrigens keineswegs angemessen. Auch wenn es Dich emotional sehr mitnimmt, dass die FX Karten im Nachteil sind und für HL2 vielleicht ne Fehlinvestition, solltest Du Dir Deiner Verantwortung bewusst sein.

x-dragon
2003-09-11, 17:06:57
Original geschrieben von Aeros405
Mich würde mal interesieren, was passiert, wenn andere DX9 Chips auf den Markt kommen (Via, PowerVR, XABRE?? , usw.). Muß dann jedesmal das DX9 SDK angepasst werden bzw. der Compiler? Das kann doch nicht der Sinn sein.
Ich denke die Spezifikationen sollten doch klar sein und man soll sich doch dann gefälligst auch dran halten und nicht immer ein eigenes Süppchen kochen. Erstmal wird nix passieren, zumindest solange keiner der Anbieter einen größen Markanteil inne hat und auch technisch ohne größere Probleme mit halten kann bzw die technische Messlatte selbst höher setzt (was ja bei Nvidia der Fall ist). Und gute Verbindungen zu MS können glaube ich auch nicht schaden :).

Demirug
2003-09-11, 17:08:40
Original geschrieben von Aeros405
Mich würde mal interesieren, was passiert, wenn andere DX9 Chips auf den Markt kommen (Via, PowerVR, XABRE?? , usw.). Muß dann jedesmal das DX9 SDK angepasst werden bzw. der Compiler? Das kann doch nicht der Sinn sein.
Ich denke die Spezifikationen sollten doch klar sein und man soll sich doch dann gefälligst auch dran halten und nicht immer ein eigenes Süppchen kochen.

Ja dann gibt es 2.B (wurde hinter vorgehaltner Hand schon angekündigt).

Leider geht es derzeit nicht anders. Uns solange man sich an die (neuen) Vorgaben von MS hält gibt das auch kein Problem weil man dann einfach mal schnell neu kompiliert und das wars.

Samson-Nite
2003-09-11, 17:14:19
Diesen teil aus der Valve Präsentation finde ich besonders gemein, das ist ja quasi Nachtreten pur :D

"A roumor"

-ATI's OEM Deal with Valve is the real reason for these benchmark results.

-The reality is that these benchmark results are the reason we have an OEM Deal with ATI.

http://www.tech-report.com/etc/2003q3/valve/image16.jpg

Aeros405
2003-09-11, 17:17:55
Original geschrieben von Demirug
Ja dann gibt es 2.B (wurde hinter vorgehaltner Hand schon angekündigt).


Heißt das, dass ein DX9 Chip von nem anderen Hersteller gar nicht mehr so weit weg ist ???

Die gelbe Eule
2003-09-11, 17:19:46
sieht man dann auf der computex was der xabre2 (xgi) und der deltachrome noch drauf haben ......

mapel110
2003-09-11, 17:26:08
hm, also mir gefallen diese zahlen :)
aufs richtige pferd gesetzt *aufdieeigeneschulterklopf*

interessiert mich nen feuchten ..., woher nvidias probs kommen. fakt ist für mich, sie sind lahmer und vor allem beweisen diese benches, dass die 5200er bestensfalls full detail bei 640x480 schafft. na dann fröhliches "zwischendurch spielen" im büro mit so ner karte *eg*

performance wird auch nicht herbeigezaubert werden können bei nvidia. füllrate/pixelshaderperformance is am ende und dann geht halt nix mehr. da war halt nvidia zu sparsam bei den transistoren in diesem mischmaschbetrieb des chips.

KiBa
2003-09-11, 17:35:09
Steht es überhaupt fest, dass HL2 HLSL anstelle normaler asm-Shader benutzt? (Link?)

thop
2003-09-11, 17:46:19
ja wie mapel1100, nach all den FX5200 posts von dir bist du auf ne 9800 umgestiegen? ich bin schockiert! ;)

Demirug
2003-09-11, 17:47:41
Original geschrieben von KiBa
Steht es überhaupt fest, dass HL2 HLSL anstelle normaler asm-Shader benutzt? (Link?)

Laut diesem Chatlog (http://planethalflife.com/features/articles/hl2chatlog/) benutzten sie HLSL

Die gelbe Eule
2003-09-11, 18:09:38
ist zwar schon etwas bekannt aber dies passage ist interessant:

<valve|gary> "Are shaders based on PS1.0 or PS2.0? What about old hardware that doesn't have pixel shaders?"

<valve|gary> Shaders are ps1.1, ps1.4, or ps2.0 depending on what hardware you are running on. You can also code up fixed-function shaders for older hardware if you wish.

Gast
2003-09-11, 18:14:19
Original geschrieben von [dzp]Viper
ähm .. wo hast du das den her - ist zwar OT aber irgendwie stimmt das garnicht

Mohaa geht in 1280x1024 mit 6 AA und 8 AF flüssig ..
Call of duty ebenfalls
und JK3 demo läuft auch zufriedenstellend in 1280x1024 mit 2 AA und 8 Af (ca. 40 fps)

also verbreite mal bitte nicht so einen humbug - thx ;)

sorry, wir müssen hier ein heft zu ende bringen.
jk3: ganz frische benchmarks, die wir eben fürs heft machen. ich habe nicht gesagt, dass die radeons nicht zufriedenstellend laufen. aber die fxen sind im direkten vergleich jeweils schneller.
elite force 2: 1024x768 noaa/noaf ist die 5900 ultra schneller als 9800 pro, mit aa/af dann leicht dahinter. 5600 U liegt gleichauf mit 9600 pro mit leichten vorteilen.
call of duty: keine benchmarks bisher.

ich schrieb "teilweise". humbug ist das keiner =)

PCGH_Thilo
2003-09-11, 18:15:01
Original geschrieben von Gast
sorry, wir müssen hier ein heft zu ende bringen.
jk3: ganz frische benchmarks, die wir eben fürs heft machen. ich habe nicht gesagt, dass die radeons nicht zufriedenstellend laufen. aber die fxen sind im direkten vergleich jeweils schneller.
elite force 2: 1024x768 noaa/noaf ist die 5900 ultra schneller als 9800 pro, mit aa/af dann leicht dahinter. 5600 U liegt gleichauf mit 9600 pro mit leichten vorteilen.
call of duty: keine benchmarks bisher.

ich schrieb "teilweise". humbug ist das keiner =)

ständig vergisst der IE meinen cookie ;-)

Die gelbe Eule
2003-09-11, 18:19:06
geb ihm endlich den keks =)

doom1
2003-09-11, 18:19:07
http://www.guru3d.com/forum/showthread.php?&threadid=63181

Die gelbe Eule
2003-09-11, 18:22:01
da kann der deto ja doch noch was ... und da wird noch mehr drin sein =)

http://www.guru3d.com/miraserver/images/news/08-2003/am3-results.jpg

man sieht deutlich das der cata 3.7 im dx9 bereich nur in der messungeneauigkeit zugelegt hat. um es mal vorsichtig auszudrücken

PCGH_Thilo
2003-09-11, 18:22:14
Original geschrieben von PCGH_Thilo
ständig vergisst der IE meinen cookie ;-)

und wegen call of duty: hab ich nur als beispiel für die q3-/quake/-qwhatelse-engine aufgeführt. ich weiß auch, dass da vieles modifiziert wurde. aber offensichtlich nicht richtung "ps-2.0-ähnliche effekte", weil die fxen wohl anständig performen (vergleichswerte für radeon fehlen).

http://www.nvnews.net/articles/CoD_Gameplay/

PCGH_Thilo
2003-09-11, 18:23:01
Original geschrieben von doom1
http://www.guru3d.com/forum/showthread.php?&threadid=63181

siehe aktuelle pcgh ,-)

PCGH_Thilo
2003-09-11, 18:24:42
Original geschrieben von geforce
Diese Pauschalisierung ist aber IMHO völlig daneben. Und es wundert mich schon das es gerade von dir kommt. Sorry, aber zum Beispiel Jedi3 performt auf meiner Geforce sehr schlecht. Bei Call of Duty ist das nicht wirklich anders. Könntest du deine "Theorie" auch mit Fakten belegen?

btw: Man beachte das IMHO ... ;););)

edit 1: Hmmm, scheiss Quote.

mal ne blöde frage: welches jk3 nutzt du denn? und in welchen settings performt die karte schlecht?

von wegen pauschalisierungen =)

Die gelbe Eule
2003-09-11, 18:25:10
meine aktuellste ist die 02/2002 ;)

LovesuckZ
2003-09-11, 18:26:07
Original geschrieben von die elektrische eule
http://www.guru3d.com/miraserver/images/news/08-2003/am3-results.jpg


Das die Leistung der Nvidiakarten in Aquanox mit AA/AF nie besonders besonders gut war, ist klar. Was mich eher interessiert ist die Geschwindigkeit ohne AA/AF.

PCGH_Thilo
2003-09-11, 18:27:43
Original geschrieben von LovesuckZ
Das die Leistung der Nvidiakarten in Aquanox mit AA/AF nie besonders besonders gut war, ist klar. Was mich eher interessiert ist die Geschwindigkeit ohne AA/AF.

die ist relativ gesehen besser. aber radeons liegen trotzdem vor den jeweiligen fx-karten.

LovesuckZ
2003-09-11, 18:28:42
Original geschrieben von PCGH_Thilo
die ist relativ gesehen besser. aber radeons liegen trotzdem vor den jeweiligen fx-karten.

Auch einer der glücklichen der den 51.75 testen darf?

PCGH_Thilo
2003-09-11, 18:29:58
Original geschrieben von LovesuckZ
Auch einer der glücklichen der den 51.75 testen darf?

nein. die amis haben so manchen vorteil ;-=)

edit: wir bekommen anscheinend doch ne version.

Die gelbe Eule
2003-09-11, 18:33:33
für ne beta kommt da aber viel bei rum ... gerade in den aa und af modi hat der deto schon arg zugelegt

LovesuckZ
2003-09-11, 18:34:57
Original geschrieben von Tyler_Durden
Tja, ich habe aber ne 5800 non Ultra! Die wird wohl keine 31 fps, sondern dann wohl eher 20 erreichen! :-(

Wenn wir von den 15FPS der 5600Ultra ausgehen, dann koennte die 5800 doppelt so schnell sein, wenn die PS2.0 Shader der limitierende Faktor sei:
http://www.beyond3d.com/misc/traod_dx9perf/index.php?p=3

Und das würde bedeuten, die 5800 waere genauso schnell wie die 5900Ultra. Aeh, irgendwie ist das nen bissl konfus...

mapel110
2003-09-11, 18:37:37
Original geschrieben von thop
ja wie mapel1100, nach all den FX5200 posts von dir bist du auf ne 9800 umgestiegen? ich bin schockiert! ;)

peil ich nit :|
hatte nie ne 5200er *brustschwell*

hätte gern mal benches mit ner 5800er und den deto51. naja, wird wohl nit mehr lange dauern.

Die gelbe Eule
2003-09-11, 18:40:08
Original geschrieben von LovesuckZ
Wenn wir von den 15FPS der 5600Ultra ausgehen, dann koennte die 5800 doppelt so schnell sein, wenn die PS2.0 Shader der limitierende Faktor sei:
http://www.beyond3d.com/misc/traod_dx9perf/index.php?p=3

Und das würde bedeuten, die 5800 waere genauso schnell wie die 5900Ultra. Aeh, irgendwie ist das nen bissl konfus...

das würde heißen das dann die 5900ultra noch schneller performt und die ergebnisse im bench gefaked sind :)

thop
2003-09-11, 18:41:52
Original geschrieben von mapel110
peil ich nit :|
hatte nie ne 5200er *brustschwell*
Dann gibs noch nen anderen User mit deinem Icon :|

PS. Ich finde es ja niedich wie manche von der 5600 Leistung darauf schließen dass die 5900 eigentlich schneller sein müsste wenn es doch schwarz auf weiß da steht wie schnell die 5900 ist!

PCGH_Thilo
2003-09-11, 18:42:10
Original geschrieben von die elektrische eule
für ne beta kommt da aber viel bei rum ... gerade in den aa und af modi hat der deto schon arg zugelegt

ehrlich gesagt finde ich beta-treiber, die nicht öffentlich zugänglich sind, ziemlich fragwürdig...

Die gelbe Eule
2003-09-11, 18:44:16
eigentlich nen wunder das niemand das teil leaked ...

back to topic plzzzzzzzz

LovesuckZ
2003-09-11, 18:45:20
Original geschrieben von thop
PS. Ich finde es ja niedich wie manche von der 5600 Leistung darauf schließen dass die 5900 eigentlich schneller sein müsste wenn es doch schwarz auf weiß da steht wie schnell die 5900 ist!

Und die Werte ja auch von einer unabhaengigien Quelle kamen.
Ich hab nur das gepostete, was anhand der Tomb Raider 6 Werte klar zu seinen scheint. sind der limitierende Faktor die Shader, dann sei es moeglich, dass die 5800 fast doppelt so schnell performt wie die 5600Ultra. Unloegisch? Nein, denn es ist bewiesen.

Die gelbe Eule
2003-09-11, 18:47:00
naja tr6 ist auch nicht das game was jeder haben muss ... es hat zwar dx9 unterstützung, das soll aber nicht heißen das es dann sauber dafür programmiert ist. zur psone version hat sich kaum etwas getan ... nur so nebenbei ...

[dzp]Viper
2003-09-11, 18:49:17
Original geschrieben von PCGH_Thilo
...und was die von dir heruntergespielte q3-engine angeht: die lebt auch noch (siehe jedi knight 3, moh, call of duty), und da sehen radeon-karten teilweise ziemlich alt aus ;-) aber das ist OT.


Original geschrieben von PCGH_Thilo
sorry, wir müssen hier ein heft zu ende bringen.
jk3: ganz frische benchmarks, die wir eben fürs heft machen. ich habe nicht gesagt, dass die radeons nicht zufriedenstellend laufen. aber die fxen sind im direkten vergleich jeweils schneller.
elite force 2: 1024x768 noaa/noaf ist die 5900 ultra schneller als 9800 pro, mit aa/af dann leicht dahinter. 5600 U liegt gleichauf mit 9600 pro mit leichten vorteilen.
call of duty: keine benchmarks bisher.

ich schrieb "teilweise". humbug ist das keiner =)


also ..

1. du hast noch keine cod benches und sagst sowas denoch ? finde ich nicht gerade toll ... (das du noch keine Cod benches hast, sagtest du weiter oben ..siehe von mir eingefügeten quote)

2. unter "ziemlich alt ausehen" verstehe ich (und bestimmt auch viele andere leute) einen starken unterschied .. aber ich weiss nicht, ob 3 - 5 fps bei 90 fps ein starker unterschied ist :freak:. Selber schreibst du auch noch, dass mit AA und AF dann die 9800pro wieder vorne liegt. Also is der begriff "x sieht alt gegen x aus" völlig falsch am platze und du solltest dich nicht wundern, wenn dich dann jemand falsch versteht ..

P.S. ich hoffe das stück OT zwischen uns ist damit geklärt

MfG Falk

PCGH_Thilo
2003-09-11, 18:56:23
Original geschrieben von [dzp]Viper
also ..

1. du hast noch keine cod benches und sagst sowas denoch ? finde ich nicht gerade toll ... (das du noch keine Cod benches hast, sagtest du weiter oben ..)

2. unter "ziemlich alt ausehen" verstehe ich (und bestimmt auch viele andere leute) einen starken unterschied .. aber ich weiss nicht, ob 3 - 5 fps bei 90 fps ein starker unterschied ist :freak:. Also is der begriff "sehen alt gegen x aus" völlig falsch am platze und du solltest dich nicht wundern, wenn dich dann jemand falsch versteht ..

ich würde ja gerne benches posten, aber wir müssen auch noch hefte verkaufen ;-)
JK3:
1= FX 5900 Ultra/256 MByte
2= Radeon 9800 Pro/256 MByte

1 2
1.024x768, NO AA, NO AF 96,4 82,2
1.024x768, 2X FSAA + 4:1 AF 72,3 59,4
1.280x1.024, 4X FSAA + 8:1 AF 41,5 38,7

settings:
Athlon XP 3000+
Nforce2
2.45
512 MB DDR 333
45.23/cat 3.7
PCGH-Timedemo
FINALE JK3-Version (!)

ist IMHO schon deutlich. rein leistungsmäßig (4x FSAA mit den bekannten qualitätseinschränkungen).
und ja: nächstes mal liefere ich gleich zahlen. hab mich nur geärgert, dass anscheinend manche leute hinter jedem kommemden spiel einen ps-2.0-kandidaten vermuten.

OT ist damit für mich geklärt, hoffentlich auch für dich =)

Demirug
2003-09-11, 18:58:00
Original geschrieben von die elektrische eule
eigentlich nen wunder das niemand das teil leaked ...

back to topic plzzzzzzzz

Wundert mich nicht. Angeblich sollen die herausgegeben Treiber einzeln signiert worden sein und wer einen heraus gibt bekommt richtig Ärger.

LovesuckZ
2003-09-11, 18:58:29
Original geschrieben von PCGH_Thilo
1= FX 5900 Ultra/256 MByte
2= Radeon 9800 Pro/256 MByte
1 2
1.024x768, NO AA, NO AF 96,4 82,2
1.024x768, 2X FSAA + 4:1 AF 72,3 59,4
1.280x1.024, 4X FSAA + 8:1 AF 41,5 38,7

settings:
Athlon XP 3000+
Nforce2
2.45
512 MB DDR 333
45.23/cat 3.7
PCGH-Timedemo
FINALE JK3-Version (!)


Koenntet ihr eine 2. Timedemo aufnehmen und mit der benchen? Die 2AA/4AF Werte sind mir doch ein bissl zu krass...

Die gelbe Eule
2003-09-11, 18:59:19
meinste net dual channel würde noch mehr reißen?

Tyler_Durden
2003-09-11, 19:00:53
Original geschrieben von die elektrische eule
naja tr6 ist auch nicht das game was jeder haben muss ... es hat zwar dx9 unterstützung, das soll aber nicht heißen das es dann sauber dafür programmiert ist. zur psone version hat sich kaum etwas getan ... nur so nebenbei ...

Nur mal so nebenbei, ne PSOne Version gab es nicht! PS2 only!

PCGH_Thilo
2003-09-11, 19:01:35
Original geschrieben von LovesuckZ
Koenntet ihr eine 2. Timedemo aufnehmen und mit der benchen? Die 2AA/4AF Werte sind mir doch ein bissl zu krass...

wieso? das passt schon so. die demo ist zwar hardcore, aber nicht unrepräsentativ.