PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : HL2 benchmarks von anand (kleiner vorgeschmack)


Seiten : 1 [2] 3 4 5 6

PCGH_Thilo
2003-09-11, 19:02:21
Original geschrieben von die elektrische eule
meinste net dual channel würde noch mehr reißen?

ich versteh nicht ganz. was ist an unserem system nicht dual channel? =)

Die gelbe Eule
2003-09-11, 19:03:33
Original geschrieben von Tyler_Durden
Nur mal so nebenbei, ne PSOne Version gab es nicht! PS2 only!

nur mal so nebenbei, meinte das spiel an sich ...

es hat sich nichts am gameplay geändert. also warum sollte man am spiel großartig schrauben, es ist noch genauso gut/schlecht spielbar wie tr1.

das zum thema sequels die niemand braucht, dx9 hin oder her

Die gelbe Eule
2003-09-11, 19:05:04
Original geschrieben von PCGH_Thilo
ich versteh nicht ganz. was ist an unserem system nicht dual channel? =)

da steht nur 512 mb ram, da sieht man nix von 2x256er =)

PCGH_Thilo
2003-09-11, 19:12:44
Original geschrieben von die elektrische eule
da steht nur 512 mb ram, da sieht man nix von 2x256er =)

dat stimmt wohl ;-)

Die gelbe Eule
2003-09-11, 19:15:27
also single oder dual channel? =)

BUG
2003-09-11, 19:32:11
Original geschrieben von die elektrische eule
also single oder dual channel? =)

..also ob das auf dem AMD mit nForce2 nen "großen" unterschied machen würde. Ob der nForce2 mit Singel oder Dualchannel läuft, dass sind im besten Fall 5% Unteraschied.

cu
BUG

Die gelbe Eule
2003-09-11, 19:41:46
mit nem guten prozi und schnellem ram tut sich da einiges ... was meinste warum via usw. nachrüsten auf dual channel obwohl sie das nie geplant hatten?

BUG
2003-09-11, 19:47:02
Original geschrieben von die elektrische eule
mit nem guten prozi und schnellem ram tut sich da einiges ... was meinste warum via usw. nachrüsten auf dual channel obwohl sie das nie geplant hatten?

...nur die Latenzen ändern sich ein wenig da parallel gelesen/geschrieben werden kann, mehr aber nich und VIA macht das nur, damit sie wieder gleichauf mit nVidia liegen und ggf ihre OnBord Graka beschleunigen. Aus dem Grund (OnboardGraka mit Shared Memory) hat auch nVidia das Dual Channel Speicherinterface auf AMD Plattformen "entwickelt".

..aber egal, steht hier nich zur Debatte, --> back on Topic!

cu
BUG

nggalai
2003-09-11, 20:01:00
Original geschrieben von PCGH_Thilo
nein. die amis haben so manchen vorteil ;-=)

edit: wir bekommen anscheinend doch ne version. Hoff ich doch--NV hat seit Montag angefangen, die Det51.75 an die Presse zu verschicken. Und wirklich verscherzt habt ihr's doch ned mit denen, oder? ;)

93,
-Sascha.rb

Gast
2003-09-11, 20:04:48
Original geschrieben von BUG
...nur die Latencen ändern sich ein wenig da paralel gelesen/geschrieben werden kann, mehr aber nich und VIA macht das nur, damit sie wieder gleichauf mit nVidia liegen und ggf ihre OnBord Graka beschläunigen. Aus dem Grund (OnboardGraka mit Shared Memory) hat auch nVidia das Dual Channel Speicherinterface auf AMD Platformen "entwickelt".
(...)
cu
BUG

1. Latenzen
2. parallel
3. beschleunigen
3. Plattformen

Danke für die Aufmerksamkeit

LovesuckZ
2003-09-11, 20:05:52
Original geschrieben von nggalai
Hoff ich doch--NV hat seit Montag angefangen, die Det51.75 an die Presse zu verschicken. Und wirklich verscherzt habt ihr's doch ned mit denen, oder? ;)


Welche Version hast du zu Gesicht bekommen?

BUG
2003-09-11, 20:09:08
Original geschrieben von Gast
1. Latenzen
2. parallel
3. beschleunigen
3. Plattformen

Danke für die Aufmerksamkeit


...sorry, tut mir leid, ich war in Eile. ;)

ps.: bitte =)

cu
BUG

Die gelbe Eule
2003-09-11, 20:11:10
aber ä und e und verwechseln? das dauert paar ms mehr, also haste hier zeit verloren, glaub dir nicht ;)

nggalai
2003-09-11, 20:14:48
Original geschrieben von LovesuckZ
Welche Version hast du zu Gesicht bekommen? 51.35 oder 51.45 (sorry, war nicht mein PC, daher weiss ich's ned genau). Und vor ein paar Monaten einen der 50.xx-Serie. Den .75er hab' ich selbst noch nicht live gesehen.

Und ja, Demiurg hat recht--zumindest die vorm Presserelease waren einzeln "gesigned" und mit einem Mörder-NDA versehen (sechsstellige Strafsumme), kein Wunder, dass die nicht geleakt sind.

93,
-Sascha.rb

BUG
2003-09-11, 20:15:44
Original geschrieben von die elektrische eule
aber ä und e und verwechseln? das dauert paar ms mehr, also haste hier zeit verloren, glaub dir nicht ;)
...das liegt bei mir daran, dass ich einfach drauf lostippe. Da passiert es bei mir recht heufig, dass ich mir das Geschriebene nicht nochmal durchlese und auf abschicken klicke. ;) ...meine RS is soweiso unter aller sau, aber ich versuche mich zu bessern. *g* =)

cu
BUG

Demirug
2003-09-11, 20:38:26
Original geschrieben von nggalai
Und ja, Demiurg hat recht--zumindest die vorm Presserelease waren einzeln "gesigned" und mit einem Mörder-NDA versehen (sechsstellige Strafsumme), kein Wunder, dass die nicht geleakt sind.

93,
-Sascha.rb

Es gab auch schon böse Anrufe weil es ein paar Leuten zu sehr in den Fingern gejuckt hat und sie schon mal ein paar Leistungsdaten haben durchsickern lassen.

doom1
2003-09-11, 20:38:37
schon vor paar Monaten einen aus der 50xxx Serie und da lassen uns die Penner hier mit nur 100fps rumkrauchen FRECHEIT SOWAS :D

nggalai
2003-09-11, 20:44:50
Original geschrieben von Demirug
Es gab auch schon böse Anrufe weil es ein paar Leuten zu sehr in den Fingern gejuckt hat und sie schon mal ein paar Leistungsdaten haben durchsickern lassen. Yup. Ante P ausm Beyond3D-Forum z.B. wurde auch schon angefaucht, konnte aber einem Rechtsstreit ausm Wege gehen (dafür ist seine Quelle wohl auf immer "dicht") . . . krass. Sowas habe ich bei Treibern (!!!) echt noch NIE erlebt. Nicht, dass ich das schlecht finden würde--ich kenne das Problem, dass man eine Marketingkampagne einstampfen kann, weil wer was geleakt hat, persönlich zu gut--, aber ob hier die Verhältnisse eingehalten werden, sei mal dahingestellt . . .

93,
-Sascha.rb

PCGH_Thilo
2003-09-11, 22:00:37
Original geschrieben von die elektrische eule
also single oder dual channel? =)

natürlich dual

(del676)
2003-09-11, 23:05:00
Original geschrieben von die elektrische eule
eigentlich nen wunder das niemand das teil leaked ...

...:| ... :eyes: ... :D

(del676)
2003-09-11, 23:17:20
btw:

NVIDIA's Response:

Over the last 24 hours, there has been quite a bit of controversy over comments made by Gabe Newell of Valve at ATIs Shader Day.

During the entire development of Half Life 2, NVIDIA has had close technical contact with Valve regarding the game. However, Valve has not made us aware of the issues Gabe discussed.

We're confused as to why Valve chose to use Release. 45 (Rel. 45) - because up to two weeks prior to the Shader Day we had been working closely with Valve to ensure that Release 50 (Rel. 50) provides the best experience possible on NVIDIA hardware.

Regarding the Half Life2 performance numbers that were published on the web, we believe these performance numbers are invalid because they do not use our Rel. 50 drivers. Engineering efforts on our Rel. 45 drivers stopped months ago in anticipation of Rel. 50. NVIDIA's optimizations for Half Life 2 and other new games are included in our Rel.50 drivers - which reviewers currently have a beta version of today. Rel. 50 is the best driver we've ever built - it includes significant optimizations for the highly-programmable GeForce FX architecture and includes feature and performance benefits for over 100 million NVIDIA GPU customers.

Pending detailed information from Valve, we are only aware one bug with Rel. 50 and the version of Half Life 2 that we currently have - this is the fog issue that Gabe refered to in his presentation. It is not a cheat or an over optimization. Our current drop of Half Life 2 is more than 2 weeks old. NVIDIA's Rel. 50 driver will be public before the game is available. Since we know that obtaining the best pixel shader performance from the GeForce FX GPUs currently requires some specialized work, our developer technology team works very closely with game developers. Part of this is understanding that in many cases promoting PS 1.4 (DirectX 8) to PS 2.0 (DirectX 9) provides no image quality benefit. Sometimes this involves converting 32-bit floating point precision shader operations into 16-bit floating point precision shaders in order to obtain the performance benefit of this mode with no image quality degradation. Our goal is to provide our consumers the best experience possible, and that means games must both look and run great.

The optimal code path for ATI and NVIDIA GPUs is different - so trying to test them with the same code path will always disadvantage one or the other. The default settings for each game have been chosen by both the developers and NVIDIA in order to produce the best results for our consumers.

In addition to the developer efforts, our driver team has developed a next-generation automatic shader optimizer that vastly improves GeForce FX pixel shader performance across the board. The fruits of these efforts will be seen in our Rel.50 driver release. Many other improvements have also been included in Rel.50, and these were all created either in response to, or in anticipation of the first wave of shipping DirectX 9 titles, such as Half Life 2.

We are committed to working with Gabe to fully understand his concerns and with Valve to ensure that 100+ million NVIDIA consumers get the best possible experience with Half Life 2 on NVIDIA hardware.

Derek Perez
Director of Public Relations
NVIDIA Corp.

im prinzip das was ich schon seit 3 monaten sage - wartet endlich mal auf die ERSTEN treiber die auf eine nv3x optimiert wurden

btw. ich geb ned viel auf game-developer-aussagen die sich vorschnell möglichste vielen kiddys äussern wolln um als "big daddy" dazustehen

(siehe vorschnelles aufschreien wegen AA bei hl2, oder der ~20jährige leveldesigner der stock und steif behauptete das ut2k3 auf einer k2 gar nicht mal starten wird - einfach lächerlich solche "Ich-bin-developer-was-ich-sage-zählt-kniet-vor-mir-nieder"-leute

MadManniMan
2003-09-11, 23:23:14
Original geschrieben von Ulukay
our driver team has developed a next-generation automatic shader optimizer that vastly improves GeForce FX pixel shader performance across the board.

Also diese Textstelle bereitet mir echt Kopfschmerzen...

:(

(del676)
2003-09-11, 23:26:35
Original geschrieben von MadManniMan
Also diese Textstelle bereitet mir echt Kopfschmerzen...

:(

warum?

es is nur mal programable - und wenn der shader leicht umgestellt das SELBE ergebnis in der halben zeit erledigt soll mir das recht sein - das is ja der sinn einer solchen grafikkarte

MadManniMan
2003-09-11, 23:29:54
Original geschrieben von Ulukay
es is nur mal programable - und wenn der shader leicht umgestellt das SELBE ergebnis in der halben zeit erledigt soll mir das recht sein - das is ja der sinn einer solchen grafikkarte

So interpretiertist das Ganze ja auch für mich kein Prob, nur glaube ich nicht so recht an eine ebensolche Verwirklichung...

...du verstehst

Gast
2003-09-11, 23:31:08
Ich verstehe was er meint: Damit kannst Du als Benchmarker gar keinen sinnvollen Vergleich z.B,. der 2.0 Shader Performance machen, weil der treiber quasi "automatisch" u.U mit 1.3er oder 1.4er arbeitet. DAS könnte man als so ne Art Generalcheat bezeichnen, wenn mans nicht ein und ausschalten kann...

Gast
2003-09-11, 23:35:38
DAS ist mein Lieblingszitat:

"Sometimes this involves converting 32-bit floating point precision shader operations into 16-bit floating point precision shaders in order to obtain the performance benefit of this mode with no image quality degradation. Our goal is to provide our consumers the best experience possible, and that means games must both look and run great."

Scheint, als habe es nVidia aufgegeben, die 2.0er Performance zu verbessern, oder? Man fällt einfach zurück auf 1.3 oder 1.4, oder?
Naja...wenn es keinen Unterschied in der Darstellungsquali macht, kann es dem Nutzer ja egal sein (bei Doom3 wird es ja ähnlich gemacht)
Aber trotzdem offenbart es den Architekturnachteil der nv30er Klasse...oder?

Gast
2003-09-11, 23:45:04
@ Ulukay:
Klasse, Mann!
Die sache ist noch lange nicht gegessen und sicher gut für einige Überraschungen =)
Gerade die FX5900 sollte noch Reserven haben!
*Nebenbei* wo hast du das Statement eigentlich gefunden?
up

mr orange
2003-09-11, 23:46:36
falls noch nicht gepostet:
da die 5900 ultra angeblich über einen schlechten pixelshader 2.0 verfügen und sich das auf halflife 2 stark ausübt, arbeiten die entwickler bei nvidia hart an einer lösung des problems.
dem 3dguru hilbert wurden dann zu testzwecken die neuen 51.75 treiber von nvidia zugespielt, die dann mit dem aquamark 3, der alle shader von direktx9 beherrscht, getestet.
die ergebnisse findet ihr mit diesem link:

http://www.guru3d.com/forum/showthread.php?&threadid=63181

und zur full story geht es hier:

http://www.guru3d.com/newsitem.php?id=464

die nvidia liegt mit den neuen treibern, die wahrscheinlich
ende des monats geleakt werden,in sachen shader fast gleich mit der 9800 pro auf und man kann fast daraus schliessen, dass etwas im hause valve nicht stimmen kann und valve kräftig an der werbetrommel ati&HL2bundle dreht.

Quasar
2003-09-12, 00:12:24
Meine Lieblingsstelle in Perez' Äußerung sind folgende:
[...]over 100 million NVIDIA GPU customers.[...]
und
[...]We are committed to working with Gabe to fully understand his concerns and with Valve to ensure that 100+ million NVIDIA consumers get the best possible experience with Half Life 2 on NVIDIA hardware.[...]


Wenn das mal kein Wink mit dem Wolkenkratzer ist (*auf die Uhr schiel'... ja, wir ham schon den 12.9., das kann man also wieder sagen.).

Demirug
2003-09-12, 00:14:16
Ich verstehe was er meint: Damit kannst Du als Benchmarker gar keinen sinnvollen Vergleich z.B,. der 2.0 Shader Performance machen, weil der treiber quasi "automatisch" u.U mit 1.3er oder 1.4er arbeitet. DAS könnte man als so ne Art Generalcheat bezeichnen, wenn mans nicht ein und ausschalten kann...

DAS ist mein Lieblingszitat:

"Sometimes this involves converting 32-bit floating point precision shader operations into 16-bit floating point precision shaders in order to obtain the performance benefit of this mode with no image quality degradation. Our goal is to provide our consumers the best experience possible, and that means games must both look and run great."

Scheint, als habe es nVidia aufgegeben, die 2.0er Performance zu verbessern, oder? Man fällt einfach zurück auf 1.3 oder 1.4, oder?
Naja...wenn es keinen Unterschied in der Darstellungsquali macht, kann es dem Nutzer ja egal sein (bei Doom3 wird es ja ähnlich gemacht)
Aber trotzdem offenbart es den Architekturnachteil der nv30er Klasse...oder?

Mir scheint es du bringst ein bischen was durcheinader.

Viele Spielereien lassen sich mit 1.3 und 1.4 überhaupt nicht machen für andere ist Multipass erforderlich. Ein Treiber wäre schön blöd sich selbst auf eine Multipasslösung herunter zu zwingen da man damit eigentlich nie Vorteile hat. Zudem ist das auch völlig überflüssig nv hat ja intern viel mehr Kontrolle über den Pixelprozessor als es jede API zulässt. Es gibt für den Pixelprozessor noch eine interne nv-Only API die ein Zusammenschluss aus den Funktionen aller anderen APIs ist plus ein bischen mehr. Für solche Shader replacement spiele wird diese API benutzt.

"16-bit floating point precision shaders" ist immer noch PS >= 2.0 weil es bei den 1.X Shader gar keine "floating point precision" gibt.

DOOM III ist OpenGL und da hat nV eine eigene Extension mit der man die Shadermöglichkeiten der NV3X Chips besser nutzen kann.

NV3X haben einen andere Architektur und bis zum NV35 sind die Chips auch als eher Leistungsschwach was die FP Liestung angeht einzustufen. NV35 hat wesentlich mehr FP-Power zur Verfügung. Allerdings ist die "Out of the Box" Leistung eher schlecht weil es nVidia mit den derzeit verfügbaren Treibern nicht schaft beliebige Shader so auf ihere interne Struktur zu übersetzten das sie Performant laufen.

ow
2003-09-12, 00:18:27
Original geschrieben von Demirug
Mir scheint es du bringst ein bischen was durcheinader.


Mir scheint, du auch: ;)


NV3X haben einen andere Architektur und bis zum NV35 sind die Chips auch als eher Leistungsschwach was die FP Liestung angeht einzustufen. NV35 hat wesentlich mehr FP-Power zur Verfügung.

Was denn jetzt?

Quasar
2003-09-12, 00:21:29
"bis zum" wahrscheinlich exklusive...

Pathfinder
2003-09-12, 00:26:19
Irgendwie erinnert mich der ganze PR-Geschichte an eine ID-Software/NVidia Veranstaltung zu Ehren der FX5800Ultra, bei der NVidia mit freundlicher Genehmigung von ID hauseigene Benches vom Gespann D3/FX5800 präsentieren durfte. Damals mit gleicher Überlegenheit, eben nur umgekehrten Vorzeichen. Wie sich die Geschichte doch wiederholt. :)

Es gibt sicher noch keinen Anlaß zu voreiliger Panik/Freude. Vermutlich wird sich alles ähnlich der D3-Situation einpendeln.
Geringere Qualität aber höhere Geschwindigkeit bei NVidia bzw. ein umgekehrtes Verhältnis bei ATI.

G.
P.

ow
2003-09-12, 00:26:30
Original geschrieben von Quasar
"bis zum" wahrscheinlich exklusive...

ah ja, sowas lese ich immer als inkl. :D

Demirug
2003-09-12, 00:28:24
Original geschrieben von ow
Was denn jetzt?

So wie es Quasar schon sagte.

Gast
2003-09-12, 00:39:50
@Demirug:
danke für die Erklärung. :)
Ich wußte eigentlich, dass floating point erst mit 2.0 kam (wenn ich das mal so laienhaft ausdrücken darf), habs aber in den Zusammenhang net gerafft.
Bin da durch den Comment von John C bezüglich seiner OpenGL Lösung des Problemes irgendwie fehlgeleitet worden...
Ich hab das so verstanden, wie wenn die Shader sozusagen von der 2.0 ine 1.3 oder 1.4 Shader "übersetzt werden" (auch wieder laienhaft. Und unter Open GL eben vergleichbar...
http://www.gamersdepot.com/hardware/video_cards/ati_vs_nvidia/dx9_desktop/001.htm

Kannst Du mir noch zusätzlich erklären, was der große Vorteil der 32 Bit fp precision gegenüber 16 Bit ist?
Warum hat das keine Auswirkung auf die Quali, wenn ich mit der Präzision runtergehe?
Hängt das nicht vom Effekt ab?
Und noch was: Ist es nicht dennoch so, dass diese neue Funktion des 50er Detos, die nVidia beschreibt, dann wohl sowas wie nen "ersetze 32 durch 16 Bit" Funktion bedeutet?
Ich hatte es ja so verstanden, dass nVidia den PS 2.0 nicht schneller bekommt. Aberr ist es dann nicht wohl so, dass letztlich die 32 Bit FP demnach wohl nicht beschleunigt werden kann?
Und wenn ein Spiel in Zukunft diese 32 Bit für nrn bestimmten Effekt brauchen würde, dass dann die FX eben deutlich langsamer wäre ?
Wär geil, wenn Du mir das sagen könntest, ich raffs mittlerweile nimmer :D

ice cool69
2003-09-12, 00:41:51
wundert mich dass richthofen hier noch nix gepostet hat, is wohl noch im urlaub :D

ich würde zwar auch erstmal auf unabhängige tests warten, aber dass ati deutlich vor nvidia liegt dürfte klar sein und mir isses als endverbraucher auch ziemlich wurscht WIESO das so ist, ich will einfach nur HL2 bestmöglich spielen weils das geilste spiel wird.

wer sagt eigentlich dass die HL2-engine nicht ähnlichen erfolg wie die doom3-engine haben wird? der nachfolger von medal of hohor wird die engine jedenfalls auch nutzen und es wird garantiert nicht das einzige spiel mit hl2-engine sein.

dass hier die üblichen verdächtigen mal wieder amok laufen (im übertragenden sinne) weil nv nich der king ist war ja kklar.
wärs umgekehrt mit den benches hätte ati mal wieder scheiß treiber oder nvidia halt die überlegene technik, aber dass ati schneller/besser sind passt hier einigen nicht so richtig ins weltbild was?

na egal könnt ja mit euren fxen rumdümpeln, ich genieß hl2 jedenfalls mit maximaler pracht auf meiner günstigen r9500pro

guts nächtle :D

Winter[Raven]
2003-09-12, 00:58:26
wird? der nachfolger von medal of hohor wird die engine jedenfalls auch nutzen und es wird garantiert nicht das einzige spiel mit hl2-engine sein.


Solltest du nicht mitbekommen haben, bei MOha2 handelt es sich um die Quake 3 Engine, mit Support für DX 9.0 fähigkeiten.

Demirug
2003-09-12, 01:09:26
Original geschrieben von Gast
@Demirug:
danke für die Erklärung. :)
Ich wußte eigentlich, dass floating point erst mit 2.0 kam (wenn ich das mal so laienhaft ausdrücken darf), habs aber in den Zusammenhang net gerafft.
Bin da durch den Comment von John C bezüglich seiner OpenGL Lösung des Problemes irgendwie fehlgeleitet worden...
Ich hab das so verstanden, wie wenn die Shader sozusagen von der 2.0 ine 1.3 oder 1.4 Shader "übersetzt werden" (auch wieder laienhaft. Und unter Open GL eben vergleichbar...
http://www.gamersdepot.com/hardware/video_cards/ati_vs_nvidia/dx9_desktop/001.htm

Ja, da muss man etwas aufpassen das man OpenGL (DOOM III) und DirectX nicht in einen Topf wirft weil sich da vieles nicht so einfach übertragen lässt.

Kannst Du mir noch zusätzlich erklären, was der große Vorteil der 32 Bit fp precision gegenüber 16 Bit ist?

Der Vorteil ist dann da wenn man sich entweder am Limit (Zahlenraum, Genauigkeit) des FP16 Formats bewegt oder den Wert einer Einheit zuführt welche etwas mit der hoehen Genauigkeit anfangen kann. Die Texturesampler/Filter der NV3X Chips können zum Beispiel mit FP32 umgehen was dann zu einem viel besseren Filterergebniss führt. So kann man zum Beispiel mit FP16 nur Texturen bis zu 1024*1024 Pixel adderessieren. Allerdings sind dann schon bei dieser Texturegrösse keine zusätzlichen Bits mehr verfügbar um ein weiches überblenden zwischen zwei Pixel bei einer Bewegung zu erreichen. Das ist schwer zu erklären das muss man gesehen haben. Bei FP32 sind dagegen genügend Bits da um ein weiches überbleden immer sicher zu stellen.

Warum hat das keine Auswirkung auf die Quali, wenn ich mit der Präzision runtergehe?
Hängt das nicht vom Effekt ab?

Es hängt von den berechnungen ab die ein Effekt erfordert. Addiert man zum Beispiel zwei Texturewerte (8 Bit pro farbkanal) spielt es keine Rolle ob nun FP16 oder FP32 weil das Ergebniss in beiden Fällen gleich ist. In anderen Fällen ist der Fehler so gering das er beim Schreiben in den Framebuffer (8 Bit Integer pro Farbe) vollständig eliminiert wird.

Und noch was: Ist es nicht dennoch so, dass diese neue Funktion des 50er Detos, die nVidia beschreibt, dann wohl sowas wie nen "ersetze 32 durch 16 Bit" Funktion bedeutet?

Nein es gibt noch eine Reihe von anderen möglichkeiten einen Shader schneller laufen zu lassen. Die NV3X Chips fressen zwar schadertechnisch fast alles aber richtig schnell laufen sie nur mit dem richtigen Futter. Der Treiber kann nun aber versuchen aus dem was dem Chip eigentlich nicht schmeckt durch ein bischen umsortieren der Anweisungsfolge etwas bekömmlicheres zu zaubern. Die Option des FP32 zu FP16 bleibt natürlich auch noch nur in diesem Fall bleibt zu hoffen das vor dem ersetzten durch eine Berechnung geprüft wird ob der dadurch entstehende Fehler sichtbar werden kann.

Ich hatte es ja so verstanden, dass nVidia den PS 2.0 nicht schneller bekommt. Aberr ist es dann nicht wohl so, dass letztlich die 32 Bit FP demnach wohl nicht beschleunigt werden kann?

Die Hardware läuft so schnell wie sie läuft bekommt sie allerdings wie schon gesagt Shadercode den sie nicht mag verheitzt sie eine grosse Menge an Rechenleistung ungenutzt. Es geht also nicht darum die Shaderhardware schneller zu machen sondern die Effizienz dieser zu steigern.

Und wenn ein Spiel in Zukunft diese 32 Bit für nrn bestimmten Effekt brauchen würde, dass dann die FX eben deutlich langsamer wäre ?

Nicht zwangsläufig da es sehr auf den spezifsichen Shader den man für diesen Effekt benutzt ankommt. Die FXen < NV35 sind aber durchaus etwas schwach was die FP Leistung angeht und da spielt es keine Rolle ob nun FP16 oder FP32.

gRoUnD
2003-09-12, 01:33:25
Zitat Uttar@nVnews-Forum

Well... to make sure you don't get your hopes up too much, I'll give you the worst case scenario I know about
PS2.0.-only test of an upcoming highly anticipated game sequel ( which is NOT HL2, Deus Ex 2, Doom 3, Max Payne 2, and so on - and I won't say what it is :P ) : -2%

You heard me right. -2%.

+200 3DMarks03.

Fairly nice performance boost in a few specific DX9 apps, maybe through special-case optimizations ( *sigh* )


Uttar

Edit: Die Rede is vom Deto 5x.xx

][immy
2003-09-12, 02:05:41
nun, werd ich auch mal meinen senf dazugeben ^^

Also ich find ungeheuerlich was nVidia da als reaktion abgelassen hat
Warum muss man denn erst die Hardware auf ein spiel anpassen?
bzw der satz.. weiß jetz nich mehr genau, aber da ging es darum, das wenn ATi und nVidia den gleichen renderpfad nutzen, eine immer schlechter abschneidet. ok damit geb ich mich noch einverstanden, aber bestimmt nicht in so einem ausmaße, wenn sich nVidia bei der Chipkonstruktion an die DirectX 9 specs gehalten hätte, anstatt ihren eigenen "misst" zu fabrizieren

Das die Schlechten ergebnisse am chip liegen, und nicht etwa an ATi optimierungen sieht man schon bei Tomb RAider AoD wenn man PS 2.0 einschaltet, also hat da valve bestimmt nicht für ati optimiert sondern für directX 9

ungeheuerlich find ich auch, das die GeForce FX karten in DirectX 8 schlechter abschneiden, als die GeForce 4 karten

irgendwie hab ich das gefühl nVidia will immer mehr auf das zugehen, was 3Dfx sich früher leisten konnte. Einen eigenen standart schaffen. Aber liebes nVidia-Team, 3Dfx konnte das machen, da sie diese Technologie überhaupt erst markttauglich rausgebracht haben ;).. und markttaugliche 3D-beschleuniger gibt es inzwischen genug, so das ihr mit eurem eigenen standart garantiert nix erreichen werdet

ok, ich weiß das wird eh nie einer von nvidia lesen, aber naja wollte auch mal meinen senf dazugeben ;)


und was soll das bitte, Bildqualität einbüßen für mehr performance?
sicher gibt es sinnvolle optimierungen, aber von den 32 bit auf 16 bit lasst mal lieber die finger, noch mehr cheaten geht da echt nicht mehr, besonders wenn ihr eure grafikkarten als Top-DirectX 9 Beschleuniger verkauft

MadManniMan
2003-09-12, 02:10:33
Original geschrieben von Demirug
Die Option des FP32 zu FP16 bleibt natürlich auch noch nur in diesem Fall bleibt zu hoffen das vor dem ersetzten durch eine Berechnung geprüft wird ob der dadurch entstehende Fehler sichtbar werden kann.


:w00t:

On the fly?!?

:o

][immy
2003-09-12, 02:11:35
ups sorry, ... büdde löschen, bin auf ausversehen auf aktualisieren gekommen ^^

Quasar
2003-09-12, 02:45:47
Original geschrieben von ][immy
...senf...

...nVidia bei der Chipkonstruktion an die DirectX 9 specs gehalten hätte...

...valve bestimmt nicht für ati optimiert sondern für directX 9...

...GeForce FX karten in DirectX 8 schlechter abschneiden, als die GeForce 4 karten...

und was soll das bitte, Bildqualität einbüßen für mehr performance?...

...von 32 bit auf 16 bit lasst mal lieber die finger, noch mehr cheaten geht da echt nicht mehr, besonders wenn ihr eure grafikkarten als Top-DirectX 9 Beschleuniger verkauft...

Ketchup

DX9 Specs: Wenn sich irgendwer an die Final gehalten hätte, wäre der erste DX9 Chip Mitte nächsten Jahres auf dem Martk.

DX9 optimiert: Die Shader, die der HLSL-Compiler aktuell baut, sind nunmal nach den Richtlinien von ATi gemacht. Ein Optimierung auf DX9 ist somit eine Optimierung auf ATi.

FX schlechter als GF4: Dass die 5200u schlechter ist, ok. Aber bei den anderen Chips wurde der 8.1-Pfad benutzt, der evtl. schon deutlich andere Effekte produziert.

Bildqualität einbüßen: Einmal Sünder, immer Sünder, was? Oder glaubst du Gabe 'Technology Partner' Newell auch, dass HL2 ein Problem mit MSAA hat?

Von 32 auf 16Bit: Ich glaube, einige hier verwechseln FP16 mit 16Bit Farbtiefe im herkömmlichen Sinne. FP16 ist 64Bit, wo schon viele sagten, sie sähen keinen Unterschied zwischen 16 und 32Bit. Solange es das sichtbare Ergebnis nicht beeinträchtigt, können sie meinethalben auch auf INT12 oder 1 Bit runtergehen.

Beispiel:
Man kann (1*5)+(1*5)+(1*5)+(1*5) = 20 rechnen, ein wenig optimiert sähe das schon so aus:
1*5+1*5+1*5+1*5 (Punkt vor Strichrechnung, Ergebnis immer noch 20)
Nun könnte man auch die Faktoren weglassen und auf:
5+5+5+5 = 20 verkürzen.

gRoUnD
2003-09-12, 02:56:53
So sehr ich ATI auch bei der DX9-Hardware vor nVidia sehe, dieser Benchmark erscheint mir a bissl suspekt und ich schliesse mich der Meinung an das wir abwarten sollten. Andererseits würde sich doch sehr viel verändern (müssen)... jedenfalls bei nVidia´s nächstem Chip.

Edit: Und Quasar stimme ich tw. zu, die MSAA-Geschichte ist höchst zweifelhaft.

Merlin31
2003-09-12, 03:57:56
ich hoffe nur das NV sich nicht rächen wird, und evtl
dafür sorgt das bei Doom3 der Abstand auch so gross ist nur umgekehrt.

Mir ist sch.... egal ob NV oder ATI generell besser ist, ich kaufe mir immer die Karte, die grade bei den aktuellen Spielen für mich die Beste ist (Betonung liegt auf mich).
Mal habe ich NV mal ATI in meinem System. Ich will nur Topgames zocken können ohne gleich 2 System hier hin zu stellen.

Meine Sorge kommt daher, weil ich weiss das NV sehr grossen Einfluss auf diverse Firmen hat(Rede aus eigener Erfahrung (Beruflich gesehen), was ich persönlich net so gut fand, erinnert mich ein wenig an MS.

MadManniMan
2003-09-12, 04:00:13
Original geschrieben von Quasar
Von 32 auf 16Bit: Ich glaube, einige hier verwechseln FP16 mit 16Bit Farbtiefe im herkömmlichen Sinne. FP16 ist 64Bit, wo schon viele sagten, sie sähen keinen Unterschied zwischen 16 und 32Bit. Solange es das sichtbare Ergebnis nicht beeinträchtigt, können sie meinethalben auch auf INT12 oder 1 Bit runtergehen.

Da bin ich vedammt nochmal immernoch wahnsinnig gespannt, wie nun die unterschiede zwischen 64 und 96 bit rüberkommen. An Unterschiede in Größenordnungen bei 96 vs. 128 bit glaube ich bei Apps zu R3XX und NV3X-Lebzeiten überhaupt rein gar nicht.

Naja, aber 64bit werden doch schon langsam notwendig. Schon bei WC3 vor nem guten Jahr hat mich das Color Banding elendig angekotzt. Habs aber auch nicht mehr gespielt, seit ich meine R300 habe - schaut der Nebel damit besser aus?

Ailuros
2003-09-12, 04:30:26
Nachdem ich mir die ganzen 15 Seiten durchgelesen hab, darf ich mich jetzt erschiessen? :D

Ich hab keine Lust bei dem idiotischen ATI/NV Krampf mitzumachen; wo NV's Hardware kraenkelt wissen da meisten wohl schon und wieviel Muehe sie sich geben werden das ganze NV3x Debakel auszuboxen kann man auch schon verdaechtigen.

Was mir wirklich zum Hals raushaengt sind die staendigen Konspirationstheorien, dass M$ sich an NV geraecht hat und daher ATI einen Bonus mit dx9 gab, dass Valve von ATI ausgekauft wurde und daher so reagiert, dass Activision einen fetten check fuer den NV3x path bekam und die Horror-stories koennen unendlich weiter gehen.

Ich hab's schon auf B3D gesagt und sage es noch einmal, ich bin froh dass ich vor 1.5 Jahr eine NV25 gekauft habe und heutzutage eine R300. Ich kauf mir grundsaetzlich worueber ich den Verdacht habe dass es meine Ansprueche besser decken wird und um Missverstaendnissen zu entgehen waren mir dx8.1 Faehigkeiten genauso egal auf NV25, wie heute dx9.0 auf R300. Ob besagte dx9.0 Effekte wirklich der Rede wert sind in HL2 oder jeder anderem Spiel dass sich als "moechtegerndx9.0" verkaufen lassen wird, moechte ich persoenlich erst mal sehn.

Nichtsdestominder DoF (ja nur mit einem "o" :D ) in TR:AoD sieht meiner Meinung nach eher nach nem Witz aus, aber das sollte man auch als Geschmacksache ansehen.

Und wenn es bis jetzt nicht klar genug war: mir sind andere Sachen wichtiger wie z.B. Anti-aliasing und da es sich um meinen eigenen Geschmack handelt, steht das auch nicht zur Debatte frei. NV25 hatte brauchbares 2xRGMS (was die Konkurrenz dahingegen zu bieten hatte weiss wohl jeder) und NV3x waere mit brauchbarem 4xOGMS nicht IMHO eine wahre Aufruestung gewesen. Dabei hat sich weder ATI noch NV einen Platz fuer zukuenftige Produkte gesichert; wer immer meine Ansprueche besser decken wird, bekommt auch mein Geld (kann sein dass ich diesmal ne Ausnahem mache, aber es ist ein anderes Kapitel).

Was Valve betrifft: was immer sich auch im Hintergrund abgespielt hat, werden wir frueher oder spaeter schon herausfinden. Ich gratulier denen erst, wenn ich ueberzeugt werde dass sie guten Grund fuer diese Taktik hatten und wenn sich auch dazu auf diesen Behauptungen in der Zukunft bestehen werden und sich nicht feige davon zurueckziehen.

Eine Frage plagt mich jetzt noch: wird sich die bekannte Linie "keinen Wert auf synthetische Benchmarks legen, sondern reale Spiele" bald auf "keinen Wert auf reale Spiele legen, sondern synthetisch Benchmarks" aendern? Ja es ist ein klarer Hint auf moegliche zukuenftige FutureMark Applikationen und wahrscheinliche Wendungen von Marketing-Politik. Das Ganze ist mir zu laecherlich um ueberhaupt daran teilzunehmen :bäh:

Demirug
2003-09-12, 07:22:11
Original geschrieben von MadManniMan
:w00t:

On the fly?!?

:o

Dann wenn der Shader angelegt wird. Das ist nicht ganz "On the Fly" aber bei den Startvorbereitungen.

Dr@gonXP
2003-09-12, 07:33:32
Hi Leute,

ich bin 100%ig sicher das HL2 auch auf einer FX sehr gut laufen wird, dafür wird Valve schon sorgen, die machen sich doch nicht ihr eigenes Geschäft kaputt.
Die wollen doch Spiele verkaufen, es gibt viele User die eine FX nutzen und diese sollen Valve doch auch Geld bringen;)

Mfg

Ailuros
2003-09-12, 07:40:56
Original geschrieben von Dr@gonXP
Hi Leute,

ich bin 100%ig sicher das HL2 auch auf einer FX sehr gut laufen wird, dafür wird Valve schon sorgen, die machen sich doch nicht ihr eigenes Geschäft kaputt.
Die wollen doch Spiele verkaufen, es gibt viele User die eine FX nutzen und diese sollen Valve doch auch Geld bringen;)

Mfg

Noch einfacher: Spiel installieren und Spass damit haben. Ein gutes Spiel wuerde mir auch auf ner TNT Spass machen.

Hacki_P3D
2003-09-12, 07:51:58
schaut mal bei Anandtech rein, recht interessant....... (http://www.anandtech.com/video/showdoc.html?i=1863)

seahawk
2003-09-12, 08:21:35
Und was ist wenn HL2 gar nicht funzt ? Wenn das Spiel auch nur gehypt wurde und voller anderer Bugs ist ??

Einfach abwarten ...

Demirug
2003-09-12, 08:31:10
Original geschrieben von Hacki_P3D
schaut mal bei Anandtech rein, recht interessant....... (http://www.anandtech.com/video/showdoc.html?i=1863)

IMHO nicht wirklich. Anand hat sich da wohl recht genau an die Benchanleitung von Valve gehalten und im Prinzip nur das gleiche was Valve schon gemessen hat mit einem anderen Rechner nachexerziert.

Ich hätte da etwas mehr Mut von Anand erwartet auch mal etwas ungewöhliche Sache zu probieren. Alle Karten (die es können) mal mit DX 8 und DX 8.1 Pfad laufen lassen zum Beispiel. Und ob die Radeons mit dem NV3X Pfad überhaupt starten wäre sicherlich auch eine interesante Frage.

OK es könnte auch sein das die Software die er bekommen hat solche Sachen nicht zugelassen hat.

nggalai
2003-09-12, 08:32:41
Hola,
Original geschrieben von Ulukay
We're confused as to why Valve chose to use Release. 45 (Rel. 45) - because up to two weeks prior to the Shader Day we had been working closely with Valve to ensure that Release 50 (Rel. 50) provides the best experience possible on NVIDIA hardware.ROLF LOL :rofl:

Perez for president! :D

LOL ;D

93,
-Sascha.rb

P.S. Zum Zeitpunkt des Shader Days und der Weitergabe der Benches an die Presse war das Veröffentlichen, auch in kleinem Rahmen, jeglicher Det50 Performance-Zahlen verboten. Hallo? "Wir verstehen ned, weshalb die Rel.45-Ergebnisse publiziert haben, obwohl niemand Rel.50-Ergebnisse veröffentlichen darf. Echt gemein, weil, sonst hätten wir Valve und jede Website, die die Ergebnisse zeigt, gleich noch abmahnen können. :( *sniff*" ;D -.rb

protossgamer
2003-09-12, 08:34:00
heisst das jetzt etwa, dass ich mit meiner geforce 2 mx nicht gamen kann ?

bis jetzt hat mir die karte immer gute dienste erwiesen

Gast
2003-09-12, 08:35:37
Original geschrieben von seahawk
Und was ist wenn HL2 gar nicht funzt ? Wenn das Spiel auch nur gehypt wurde und voller anderer Bugs ist ??

Einfach abwarten ...

Das ist imho sehr unwahrscheinlich. Der Vorgänger ist nach 5 Jahren immer noch das mit Abstand meistgespielte Onlinegame überhaupt. Das zeugt ja irgendwie von Qualität. Da erwarte ich vom Nachfolger halflife2 zumindest, daß es nicht ein Totalreinfall wird.

www.gamespy.com/stats

Quasar
2003-09-12, 08:42:17
Irgendwie kommt mir Anands Test mit seeehr heisser Nadel gestrickt vor.

Im Bugbait-Demo (http://www.anandtech.com/video/showdoc.html?i=1863&p=9) verliert die R9600p beim Wechsel von 1024 auf 1280 gerade mal 0,1fps. OK, tolle Leistung, aber wieso knappst die hohe Auflösung den High-End Karten dann satte 9-10fps ab?

Zumindest seine eigenen Ergebnisse könnte man ja nach Tippfehlern durchsehen, aber mit Reviews wird's mittlerweile schlimmer als mit Spielen. Hauptsache erstmal rausbringen, Käfer jagen tun schon die Kunden.
:(
:(
:(

edit:
Mir kommt echt das :kotz: , wenn ich dann eine Seite weiter lesen: "Here we see something very interesting, and something we haven't really seen before - the Radeon 9600 all the way up to the Radeon 9800 Pro all perform within 12% of each other. This is because with shader-heavy games such as Half-Life 2, the bottleneck is no longer memory bandwidth - rather it is pure computational power; basically how quickly these GPUs can process through those shader programs."

4 Pixel/Clock mit 400MHz sind ja auch nur 12% langsamer als 8Pixel/Clock mit 380MHz.... MEGA-:bonk:

seahawk
2003-09-12, 08:43:04
Also irgendwie stinken die ganzen Benches. Der Abstand zwischen 9800pro und 9600pro ist zu klein. Stellenweise schlägt die 9600pro die 9700pro.

Die Shaderleistung der 9600pro dürfte ja wohl deutlicher unter der 9800pro liegen.

Das stinkt doch alles.

Demirug
2003-09-12, 08:53:48
Original geschrieben von seahawk
Also irgendwie stinken die ganzen Benches. Der Abstand zwischen 9800pro und 9600pro ist zu klein. Stellenweise schlägt die 9600pro die 9700pro.

Ja das finde ich auch merkwürdig. Da wirbelt doch das FPS/$ verhältniss schwer durcheinader.

Komisch fand ich auch das man die 5200 nur mit dem DX 8.0 Pfad hat laufen lassen. Eine Begründung dafür habe ich nicht gefunden (falls jemand mehr glück dabei hatte bitte sagen wo). Es mag ja durchaus sein das sie mit dem 8.1 Pfad noch langsamer ist aber das hätte ich dann gerne auch gesehen wie viel es ausmacht.

Die Shaderleistung der 9600pro dürfte ja wohl deutlicher unter der 9800pro liegen.

Ja, die 9800 Pro hat 90% mehr Fillrate und Shaderleistung als die 9600 Pro.

perforierer
2003-09-12, 09:01:03
Original geschrieben von protossgamer
heisst das jetzt etwa, dass ich mit meiner geforce 2 mx nicht gamen kann ?
bis jetzt hat mir die karte immer gute dienste erwiesen

1. Möglichkeit: Das Posting war Satire :) Dann war sie gut und Du brauchst nicht weiterlesen :D

2.Möglichkeit: Das Posting ist ernst gemeint. In diesem Fall gilt: Die GF2 MX hatte ich auch ewig, aber ihre Zeit ist nun vorbei. Notfalls ne günstige GF4 4200er irgendwo abgreifen, wenn man spielen will, aber kein geld hat :)
Und beui all den Zahlen hier darf man nicht vergessen, dass es um die öchste Quali geht. Natürlich wird man das Spiel auch auf älterer Hardware spielen können. Mit weniger Details und z.B. auch 800x600...

The_Invisible
2003-09-12, 09:02:46
also das die 9600pro einmal vor der 9700pro liegt und dann nur immer knapp dahinter finde ich schon merkwürdig... und das dann auf die verbesserte architektur zu schieben ist wohl der hammer

am besten ist es wirklich abwarten bis wirklich unabhängige damit benchen können, am besten selbst :D

mfg

GiLo5
2003-09-12, 09:10:57
mmh, da bin ich doch mal froh, das ich mir die radeon 9800 pro (256mb) gekauft hab und doch nicht die 5900er..

:D

mfg g5

perforierer
2003-09-12, 09:13:02
Jedenfalls enthält der Anandartikel noch mal ne Erklärung zu dem speziellen Code-Pfad für die NV3x Chips, für alle, die die Anfangspostings und die anderen Artikel nicht lesen wollen:

"Working closely with NVIDIA (according to Gabe), Valve ended up developing a special codepath for NVIDIA's NV3x architecture that made some tradeoffs in order to improve performance on NVIDIA's FX cards. The tradeoffs, as explained by Gabe, were mainly in using 16-bit precision instead of 32-bit precision for certain floats and defaulting to Pixel Shader 1.4 (DX8.1) shaders instead of newer Pixel Shader 2.0 (DX9) shaders in certain cases. Valve refers to this new NV3x code path as a "mixed mode" of operation as it is a mixture of full precision (32-bit) and partial precision (16-bit) floats as well as pixel shader 2.0 and 1.4 shader code."

ShadowXX
2003-09-12, 09:13:09
Ja, das die Benches etwas überzogen sind, ist wohl allen klar...
aber Sie setzen die gleiche Richtung fort, die z.B. TR:AoD oder Halo beta 1.5 eingeschlagen haben...

Ohne nV-spezifische Modifikationen von nV selbst sehen die FX'e immer öfter 'alt' aus.
Das ist sehr interessant, da die Entwickler selbst ja auch einen optimierten nV3x-Pfad meist mit einbauen...auch bei HL2 und bei Halo.
Aber selbst dieser von den Entwicklern eingebaute nv30-Pfade scheinen die FX'e nicht wirklich 'stark' zu beschleunigen.

Jetzt mal eherlich:
Wenn ich als Entwickler schon einen nV30-Pfad mit einbaue, denkt dann wirklich jeamnd ich würde nicht den bestmöglichen benutzen?? (oder zumindest einen möglichst guten.....) Und ich glaube auch nicht das nV 'nein' sagt wenn man als Entwickler nach unterstützung fragt.

Deshalb die mal wirklich Ernstgemeinte Frage (und gleichzeitig auch Aussage):
Wie wenn nicht durch einen 'cheat' will nV HL2 schneller machen.......

Dazu gebe ich auch gleich noch mal meine Definition von 'cheat' bekannt:
Jegliche Veränderung des 'Rendercodes' des Entwicklers (<- absichtlich sehr allgemein gehalten) die nicht dazu dient fehlerhafte Darstellungen zu eliminieren.
(Das sind z.B. Flackernde Texturen oder fehlerhafte Darstellungen.....ab rein gar nichts was zum Performancegewinn dazuträgt).

Ja und ich weiss das danach sehr oft von nV und ATI ge'cheatet' wird.....

Und im gegensatz zu anderen halte ich von Just-In-Time Compilierung bzw. ReCompilierung von HLSL, wenn nicht vom Entwickler vorgesehen, gar nichts.....

J.S.Shadow

/Edit: da fehlte ein wort

ow
2003-09-12, 09:14:09
Original geschrieben von Demirug
Ja das finde ich auch merkwürdig. Da wirbelt doch das FPS/$ verhältniss schwer durcheinader.

Komisch fand ich auch das man die 5200 nur mit dem DX 8.0 Pfad hat laufen lassen. Eine Begründung dafür habe ich nicht gefunden (falls jemand mehr glück dabei hatte bitte sagen wo). Es mag ja durchaus sein das sie mit dem 8.1 Pfad noch langsamer ist aber das hätte ich dann gerne auch gesehen wie viel es ausmacht.




Mir kommt es so vor, als wären da recht wahllos verschiedene Karten auf verschieden Pfaden gebencht worden.

Nv3x Pfad für die FX5900, DX8.1 für die FX5600 und DX8.0 für die FX5200. Was soll das??

Quasar
2003-09-12, 09:16:50
Original geschrieben von ow
Was soll das??

Ist, glaube ich, auf Empfehlung von Valve geschehen....

Komisch nur, dass der 51.75 nicht zum Test zugelassen wurde, die 'Issues' auf der R9200 jedoch keinen Hinderungsgrund darzustellen scheinen. :|

ow
2003-09-12, 09:17:23
Original geschrieben von perforierer
Jedenfalls enthält der Anandartikel noch mal ne Erklärung zu dem speziellen Code-Pfad für die NV3x Chips, für alle, die die Anfangspostings und die anderen Artikel nicht lesen wollen:

"Working closely with NVIDIA (according to Gabe), Valve ended up developing a special codepath for NVIDIA's NV3x architecture that made some tradeoffs in order to improve performance on NVIDIA's FX cards. The tradeoffs, as explained by Gabe, were mainly in using 16-bit precision instead of 32-bit precision for certain floats and defaulting to Pixel Shader 1.4 (DX8.1) shaders instead of newer Pixel Shader 2.0 (DX9) shaders in certain cases. Valve refers to this new NV3x code path as a "mixed mode" of operation as it is a mixture of full precision (32-bit) and partial precision (16-bit) floats as well as pixel shader 2.0 and 1.4 shader code."

Diess Zitat macht imo auch nicht viel Sinn, weil die NV3x AFAIk keinen Vorteil aus PS1.4 ggü PS2.0 (FP16) ziehen können.

Exxtreme
2003-09-12, 09:17:35
Also Opengl guy meint, daß die GFFX 5900-Serie eine sehr viel bessere INT-Leistung ggü. der FP-Leisting hat.

Und das sei bei der GFFX5200 & GFFX5600 nicht der Fall.

ShadowXX
2003-09-12, 09:17:57
@ow

Sie haben einfach beim Benchen die Pfade benutzt, die Sie am sinnvollsten hielten.

Deshalb finde ich die Abstufung auch ok.
Sie sind pro Modell einen Runtergegangen...hätte ich wahrscheinlich ähnlich gemacht....

Und mal ehrlich...ob die fx5200U nun 2 oder 3 FPS bei dx9.0 full presicion hat ist doch egal, oder;D

J.S.Shadow

Quasar
2003-09-12, 09:20:41
Original geschrieben von ShadowXX
Deshalb die mal wirklich Ernstgemeinte Frage (und gleichzeitig auch Aussage):
Wie wenn nicht durch einen 'cheat' will nV HL2 schneller machen.......


-Indem optimal (oder zumindest besser) angeordneter Code genutzt wird?

-Indem die 4 zusätzlichen FP32-Einheiten im nV35 offengelegt werden

-Indem ein von Grund auf für den nV3x optimierter Treiber zum Einsatz kommt


Frage:
Stellt für dich das rekompilieren von Shadern, die mit den alten Profilen erzeugt wurden, mit dem neuen RC des DX9-SDK und den zugehörigen 2.a-Profilen auch ein Cheat dar?

ow
2003-09-12, 09:23:20
Original geschrieben von Exxtreme
Also Opengl guy meint, daß die GFFX 5900-Serie eine sehr viel bessere INT-Leistung ggü. der FP-Leisting hat.

Und das sei bei der GFFX5200 & GFFX5600 nicht der Fall.


Halte ich für unwahrscheinlich.
Sollten im FX5200&5600 niocht noch zusätzlich reine INT Einheiten verbaut worden sein?

Gast
2003-09-12, 09:24:15
@Demirug: Danke für die nette Erklärung :)

@Alle:
Bisschen enttäuscht bin ich schon über den anand-artikel. ich dachte, er hat eigene Tests. Aber immerhin sagt er was zur Bildqualität der verschiedenen Modi:

[quote}The 5900 Ultra, running in mixed mode, will exhibit some banding effects as a result of a loss in precision (FP16 vs. FP32) but still looks good - just not as good as the full DX9 code path. There is a noticeable difference between this mixed mode and the dx82 mode, as well as the straight DX8 path - for example, you'll notice that shader effects on the water aren't as impressive as they are "in the native DX9 path."[/quote]

Kann mir jemand mal erklären, was mit bending gemeint ist, also wie man sich das visuell vorzustellen hat?

ow
2003-09-12, 09:24:24
Original geschrieben von ShadowXX
@ow

Sie haben einfach beim Benchen die Pfade benutzt, die Sie am sinnvollsten hielten.

Deshalb finde ich die Abstufung auch ok.
Sie sind pro Modell einen Runtergegangen...hätte ich wahrscheinlich ähnlich gemacht....

Und mal ehrlich...ob die fx5200U nun 2 oder 3 FPS bei dx9.0 full presicion hat ist doch egal, oder;D

J.S.Shadow


Dadurch geht aber die Vergleichbarkeit zwischen den Chips flöten. Hätten sie alle NV3xe mit allen Pfaden gebencht, wäre das ok.

Gast
2003-09-12, 09:27:24
Oh, gar nicht gesehen, es war ja doch sein eigenes Testrig, ich dachte, er hätte auf zur verfügung gestelleter Hardware getestet. mein fehler, sorry.

Demirug
2003-09-12, 09:27:33
Original geschrieben von Exxtreme
Also Opengl guy meint, daß die GFFX 5900-Serie eine sehr viel bessere INT-Leistung ggü. der FP-Leisting hat.

Und das sei bei der GFFX5200 & GFFX5600 nicht der Fall.

Häh??? Sorry aber das kann ich nicht nachvollziehen. NV34 hat definitive eine bessere Integer als FP Leistung. Beim NV31 bin ich mir nicht absolute sicher aber ich sehe keinen Grund warum das nicht so sein sollte. Eingentlich haben AFAIK alle NV3X Chips mehr Integer als FP Leistung.

Exxtreme
2003-09-12, 09:28:29
Original geschrieben von Gast


Kann mir jemand mal erklären, was mit bending gemeint ist, also wie man sich das visuell vorzustellen hat?
Das heisst "banding" und bedeutet, daß die Abstufungen zwischen verschiedenen Farben nicht "glatt" sind sondern einige sichtbare Stufen aufweisen.

Aber daß man den Unterschied zw. 16 Bit FP und 32 Bit FP sieht, wundert mich schon etwas.

nggalai
2003-09-12, 09:28:58
Hola Gast,Original geschrieben von Gast
Kann mir jemand mal erklären, was mit bending gemeint ist, also wie man sich das visuell vorzustellen hat? Color Banding--so Farbstreifen in Farbverläufen, wie man's noch von 16bit-Spielen her kennt.

Edit: Mist, Alex war schneller. ;D

93,
-Sascha.rb

Gast
2003-09-12, 09:33:45
Ah..danke.
Also ich will das dann mal bisschen populistisch ausdrücken. Wenn ich diesen bench oben angugge:
http://www.anandtech.com/video/showdoc.html?i=1863&p=9

Dann heisst das (mit den momentan erhältlichen Treibern also, ich bekomme mit der FX 5900er 53,7 Frames mit erkennbar schlechterer Qualität als bei der 9800er, bei der ich 71,1 Frames bekomme bei perfekter Qualität.
Irgendwie finde ich das noch krasser, als ich es erwartet habe. Oder gehts nur mir so. Ich hab 2 nVidia Grakas (beide keine FX) Aber die Zahlen sind - gelinde gesagt - bitter.

Demirug
2003-09-12, 09:35:07
Original geschrieben von Exxtreme
Aber daß man den Unterschied zw. 16 Bit FP und 32 Bit FP sieht, wundert mich schon etwas.

Wenn man es darauf anlegt geht das leicht. Eine ungeschickte Berechnungsreihenfolge kann da schon reichen. (Überlauf unterlauf Probleme) und FP16 in Verbindung mit Texturen >= 512 Pixel ist auch nicht unbedingt der bringer.

Gast
2003-09-12, 09:37:39
Original geschrieben von Gast
Dann heisst das (mit den momentan erhältlichen Treibern also, ich bekomme mit der FX 5900er 53,7 Frames mit erkennbar schlechterer Qualität als bei der 9800er, bei der ich 71,1 Frames bekomme bei perfekter Qualität.
Irgendwie finde ich das noch krasser, als ich es erwartet habe. Oder gehts nur mir so. Ich hab 2 nVidia Grakas (beide keine FX) Aber die Zahlen sind - gelinde gesagt - bitter.

Bei den FX wird es sich auf Kosten der Bildqualität noch etwas nach oben bewegen, da du keine FX hast, sind die Zahlen für dich endgültig, wie ich aber finde sehr gut, aber das die 4000 Serie super ist, dass wusste man schon vor HL2.

Demirug
2003-09-12, 09:38:08
Original geschrieben von ow
Dadurch geht aber die Vergleichbarkeit zwischen den Chips flöten. Hätten sie alle NV3xe mit allen Pfaden gebencht, wäre das ok.

Das Problem scheint ja zu sein das der NV3X Pfad laut den Folien von Valve auf einem NV31 ja sogar langsamer als der reine "Generic DX9 Pfad" ist.

Exxtreme
2003-09-12, 09:38:33
Original geschrieben von Demirug
Wenn man es darauf anlegt geht das leicht. Eine ungeschickte Berechnungsreihenfolge kann da schon reichen. (Überlauf unterlauf Probleme) und FP16 in Verbindung mit Texturen >= 512 Pixel ist auch nicht unbedingt der bringer.
Trotzdem glaube ich nicht, daß Valve es darauf angelegt hat.

Gast
2003-09-12, 09:40:10
Wie schlägt sich eigentlich die 5800/5800U bei HL2 ?

Quasar
2003-09-12, 09:40:29
Original geschrieben von Demirug
[...] und FP16 in Verbindung mit Texturen >= 512 Pixel ist auch nicht unbedingt der bringer.

Läßt sich das bei der GeForceFX eigentlich getrennt indizieren? Berechnungen in FP16 und Texturen>=512x512 in FP32?

Demirug
2003-09-12, 09:41:06
Original geschrieben von Exxtreme
Trotzdem glaube ich nicht, daß Valve es darauf angelegt hat.

Kann ja auch unbeabsichtigt passiert sein. Dieser ganze NV3X Pfad kommt mir eben etwas spanisch vor.

ow
2003-09-12, 09:42:22
Original geschrieben von Exxtreme
Trotzdem glaube ich nicht, daß Valve es darauf angelegt hat.

Nein, vermutlich sind die einfach nur unfähig.
Die letzen Jahre haben eigentlich immer INT Berechnungen ausgereicht und jetzt soll FP16 nicht mehr reichen?

ow
2003-09-12, 09:43:08
Original geschrieben von Gast
Wie schlägt sich eigentlich die 5800/5800U bei HL2 ?

Gute Frage, weil deren Ergebnisse vermisse ich auch etwas.

der Gast
2003-09-12, 09:43:12
Original geschrieben von Gast
Bei den FX wird es sich auf Kosten der Bildqualität noch etwas nach oben bewegen, da du keine FX hast, sind die Zahlen für dich endgültig, wie ich aber finde sehr gut, aber das die 4000 Serie super ist, dass wusste man schon vor HL2.

Ja, also die Performance der GF4 Ti ist völlig in Ordnung. Wenn sie solche Frameraten bei höchster ihr möglicher Qualität liefert ist das wirklich ok, keine Frage. Ich werde mir auch sicher dieses Jahr keine neue Graka nur wegen HL2 kaufen, soviel ist klar...

Quasar
2003-09-12, 09:44:41
Original geschrieben von Gast
Wie schlägt sich eigentlich die 5800/5800U bei HL2 ?

Guuuute Frage. Eigentlich sollte man meinen, wie die FX5600, nur auf etwas höherem Niveau.
Aber das könnte ein Licht auf den nV3x-mixed-Mode werfen.

Exxtreme
2003-09-12, 09:45:06
Original geschrieben von ow
Nein, vermutlich sind die einfach nur unfähig.
Die letzen Jahre haben eigentlich immer INT Berechnungen ausgereicht und jetzt soll FP16 nicht mehr reichen?
Naja, es mussten wohl einige "Kompromisse" eingegangen werden damit INT ausreicht.

Aber das kann Demirug besser erklären. :)

Demirug
2003-09-12, 09:45:30
Original geschrieben von Quasar
Läßt sich das bei der GeForceFX eigentlich getrennt indizieren? Berechnungen in FP16 und Texturen>=512x512 in FP32?

Man kann für jede Anweisung angeben ob man nun mit FP16 oder FP32 Rechnen will bzw in welchen Format man das Ergebniss braucht. Texturekorrdinaten sollte man eigentlich am besten immer mit FP32 berechnen. Will man das allerdings abhänig von der Texturegrösse machen braucht man mindestens zwei Shader. Ist aber mit ein bischen bedingter compielerung eigentlich kein echtes Problem.

ow
2003-09-12, 09:47:30
Original geschrieben von Exxtreme
Naja, es mussten wohl einige "Kompromisse" eingegangen werden damit INT ausreicht.

Aber das kann Demirug besser erklären. :)


Ich frage mich nur, welche Monster-Shader Valve da denn eingebaut haben will, damit FP16 nicht ausreichen sollte. Immerhin kann man das Game ja auch noch auf DX7 HW spielen.

seahawk
2003-09-12, 09:48:36
Original geschrieben von Exxtreme
Trotzdem glaube ich nicht, daß Valve es darauf angelegt hat.

Hmm, nicht absichtlich. Wenn ich mir aber den ihre Art der Texturenerzeugung ansehe, dann ist das vielleicht eine Konsequenz daraus.

Ich denke da liegt der Hund bei der HL2-Engine begraben. Siehe Probleme mit AA und ich schätze auch, dass es da Probleme mit dem NV3X gibt.

Die Engine funktioniert ja nur beim R300 (und Nachfolgern) und beim NV25 gut. Ich denke die Art der Texturerzeugung ist sehr hardware abhängig und sehr unflexibel wenn es um andere Hardware geht.

Wieso z.B. hat die 9200 Probleme. Für mich riecht die Engine (zumindest in dem für die Benches genutzten Build) ziemlich buggy.

Gast
2003-09-12, 09:49:53
vorweg: Seite 9-14 hab ich nicht gelesen, war eh so auch genug ;)

Wie siehts mit Linux aus? Da das ja ein DirectX-Game ist befürchte ich Übles :(

mfg
Flipper

thop
2003-09-12, 09:50:04
Ich denke das ist der Beweis dass ne 9600pro der bessere Kauf ist als ne 9500pro.

Quasar
2003-09-12, 09:52:07
Original geschrieben von thop
Ich denke das ist der Beweis dass ne 9600pro der bessere Kauf ist als ne 9500pro.

Woraus schließt du das? Ich habe noch keine Benches der R9500p gesehen. Rechnerisch müßte eine R9600p mit 550MHz Chiptakt laufen, um gleichzuziehen.

ShadowXX
2003-09-12, 09:54:07
Original geschrieben von Quasar
-Indem optimal (oder zumindest besser) angeordneter Code genutzt wird?

-Indem die 4 zusätzlichen FP32-Einheiten im nV35 offengelegt werden

-Indem ein von Grund auf für den nV3x optimierter Treiber zum Einsatz kommt

Frage:
Stellt für dich das rekompilieren von Shadern, die mit den alten Profilen erzeugt wurden, mit dem neuen RC des DX9-SDK und den zugehörigen 2.a-Profilen auch ein Cheat dar?

Zur Frage:
Wenn es der Entwickler (bei HL2 also Valve) es selbst macht nicht, sonst ja....

Zu deinen Punkten darüber:
Wie gesagt: Wenn ein Entwickler schon einen extra nV3x-Pfad programmiert, glaube ich, dass er diese Sachen schon mit Berücksichtigt hat.
Sonst wäre die extra nv3x-Pfad-Programmierung ja für die Katz (und die Zeit(=Geld) auch) und ich könnte gleich den Standard/ATI-Code benutzen....

Zum anderen Treiber:
ja...wenn es wirklich nur über Treiberoptimierungen/anpassungen zustandekommt ist es ok...aber bitte keine dynamische Re/compilation / Shaderreplacement....dann könnte nV auch gleich die Renderengine selbst schreiben....

Wie gesagt....ich hatte selbst schon mehr als genug nV-Karten....und auch mehr als genung Ankündigungen von WunderDetos....IMHO glaube nicht das der Deto50 (mit IMO 'legalen' mitteln) viel reissen wird...Aber ich lasse mich gerne Überraschen....

Und noch was zu den Anti-Detect-Scripts:
Sie sind IMO die einzige Möglichkeit aufzudecken wo nach meiner Definition geschummelt wird....(Wie schon gesagt: Shaderreplacment, egal wie gut, ist für mich immer geschummelt....).

J.S.Shadow

Gast
2003-09-12, 09:54:59
HL2 scheint ja wirklich ein echtes driect x 9 game zu sein. damit hätte ich nicht gerechnet :-)

Gast
2003-09-12, 09:59:20
Original geschrieben von seahawk
Die Engine funktioniert ja nur beim R300 (und Nachfolgern) und beim NV25 gut. Ich denke die Art der Texturerzeugung ist sehr hardware abhängig und sehr unflexibel wenn es um andere Hardware geht. (...)
Wieso z.B. hat die 9200 Probleme. Für mich riecht die Engine (zumindest in dem für die Benches genutzten Build) ziemlich buggy.

Das ist sehr allgemein formuliert. Schau Dir die GF 4 an. Die performt doch sehr gut. Man darf nicht vergessen, dass die Benches die jeweils bestmögliche Quali darstellen.
Du kannst ja bei der 9600er z.B. auch DX8 nehmen, statt 8.1
Da dürfte sie deutlich schneller sein, wenn man die Ergebnisse der GF4 anschaut.

Ich bin nur mal gespannt, wie das in Zukunft mit den Grafikoptionen aussieht in den Spielen. Statt "high quality" oder so, wird man dann die Optimierung für bestimmte Karten ein-oder ausschalten können im Menü? Hoffentlich kann man auch mit hochklassigen Karten beliebig "dwongraden" im Menü... Das wird ein lustiges austesten, bis man die optimale Möglichkeit hat.

Demirug
2003-09-12, 10:02:04
Original geschrieben von Exxtreme
Naja, es mussten wohl einige "Kompromisse" eingegangen werden damit INT ausreicht.

Aber das kann Demirug besser erklären. :)

Was soll man da gross erklären. Für das bischen zusammenrechnen von Farbwerten war Int gut genug. Und der Texturteil (die 4 Befehle am Anfang eines Pixelshaders) war bei nV ja schon immer FP und Zecki meinte die ALUs beim R200 rechnen mit einer Art eingeschrängtem FP-Format.

FP spielt vorallem beim Berechnen von texturekoordinaten eine grosses Rolle weil man dort ja nicht nur einfach einen Pixel addressieren möchte sondern möglichst genau einen Punkt innerhalb eines Pixels um dann die Gewichtungen für die Texturefilter entsprechend zu bestimmen.

ow
2003-09-12, 10:03:12
Original geschrieben von Gast
HL2 scheint ja wirklich ein echtes driect x 9 game zu sein. damit hätte ich nicht gerechnet :-)

Nö, ist von der Basis so DX6 bis DX7.
Die Handvoll DX9 Shader sind eher zu werbetechnischen Zwecken drin ("Seht her, wir haben ein DX9 Game....")

'Echte' DX9 Games laufen nicht auf Karten < DX9, bis dahin gehen bestimmt aber noch 2 Jahre und mehr ins Land...

Exxtreme
2003-09-12, 10:06:24
Original geschrieben von Quasar
-Indem optimal (oder zumindest besser) angeordneter Code genutzt wird?

-Indem die 4 zusätzlichen FP32-Einheiten im nV35 offengelegt werden

-Indem ein von Grund auf für den nV3x optimierter Treiber zum Einsatz kommt


Frage:
Stellt für dich das rekompilieren von Shadern, die mit den alten Profilen erzeugt wurden, mit dem neuen RC des DX9-SDK und den zugehörigen 2.a-Profilen auch ein Cheat dar?
Hmmm, es hiess doch immer, daß NV einen ach so tollen Dev-Support hat.

Also entweder hat dieser Dev-Support versagt oder die GFFX-Serie kann einfach nicht schneller sein. Wäre es mit einer einfachen Rekompilierung der Shader getan dann hätte Valve wohl längst sowas eingebaut. Aber nein, sie sind viel weitergegangen. Ich fürchte, da limitiert noch sehr viel mehr als nur die "ungünstigen" Shader.

seahawk
2003-09-12, 10:07:01
Original geschrieben von Gast
Das ist sehr allgemein formuliert. Schau Dir die GF 4 an. Die performt doch sehr gut. Man darf nicht vergessen, dass die Benches die jeweils bestmögliche Quali darstellen.
Du kannst ja bei der 9600er z.B. auch DX8 nehmen, statt 8.1
Da dürfte sie deutlich schneller sein, wenn man die Ergebnisse der GF4 anschaut.



Für mich zeigen nur der NV25 und die 9600pro in etwas die Leistung die man erwarten konnte. Alle anderen Karten laufen deutlich schlechter. (Im Verhältnis zu den beiden)

Ob ne 9600pro unter DX8.0 schneller ist, kann man imo nicht sagen. PS 2.0 ermöglicht es ja Shaderops effizienter durchzuführen als unter 1.3 oder 1.1.
Ob die dann ne 4600 schlägt und wie deutlich müßte man erst testen.

Demirug
2003-09-12, 10:07:10
Original geschrieben von ShadowXX

Zum anderen Treiber:
ja...wenn es wirklich nur über Treiberoptimierungen/anpassungen zustandekommt ist es ok...aber bitte keine dynamische Re/compilation / Shaderreplacement....dann könnte nV auch gleich die Renderengine selbst schreiben....

Wenn du das nicht zulassen willst sind alle Benchmarks mit ATI Karten ungültig.

seahawk
2003-09-12, 10:09:05
Demi meinst Du, dass es an der Texturenerzeugung liegen könnte ?? Würde mich interessieren. Die ist ja irgendwie HL2 speziell.

Demirug
2003-09-12, 10:10:36
Original geschrieben von Exxtreme
Hmmm, es hieß doch immer, daß NV einen ach so tollen Dev-Support hat.

Also entweder hat dieser Dev-Support versagt oder die GFFX-Serie kann einfach nicht schneller sein. Wäre es mit einer einfachen Rekompilierung der Shader getan dann hätte es Valve wohl längst sowas eingebaut. Aber nein, sie sind viel weitergeganen. Ich fürchte, da limitiert noch sehr viel mehr als nur die "ungünstigen" Shader.

Valve und der Dev-Support von nVidia scheinen eine merkwürdige Beziehung zu pflegen. Es wird zum einen immer behauptet das man im engen Kontakt stände aber auf der anderen Seite kommen dann immer wieder Vorwüfe das der einen den anderen nicht richtig informiert.

thop
2003-09-12, 10:11:02
Vielleicht ist das auch der Grund warum die GFFX so schlecht in HL2 sind :D

The GeForce FX is currently the fastest card we've benchmarked the Doom technology on and that's largely due to NVIDIA's close cooperation with us during the development of the algorithms that were used in Doom. They knew that the shadow rendering techniques we're using were going to be very important in a wide variety of games and they made some particular optimizations in their hardware strategy to take advantage of this and that served them well.

Quasar
2003-09-12, 10:11:26
Original geschrieben von Exxtreme
Hmmm, es hieß doch immer, daß NV einen ach so tollen Dev-Support hat. [...]


Bei einigen Games scheint der ja auch ausreichend gut zu funktionieren. Bisher sehe ich 'nur' TRAOD und HL2, wo ein wenig was schiefgelaufen ist.

Bei ersterem darf sich das Design-Team schonmal nach einem neuen Betätigungsfeld umsehen, was bei letzterem wohl nicht der Fall sein wird, hat man doch die Schäfchen rechtzeitig ins trockene gebracht.

edit:
Vielleicht sollte nV sich mal anstelle des Dev-Supports um den 'technology-partner' status bei Valve bemühen. Der scheint ordentlich was zu bringen. *eg*

Demirug
2003-09-12, 10:13:04
Original geschrieben von seahawk
Demi meinst Du, dass es an der Texturenerzeugung liegen könnte ?? Würde mich interessieren. Die ist ja irgendwie HL2 speziell.

Ich denke nicht das es sich um das gleiche Problem wie beim MSAA handelt. Allerdings ist schwer zu sagen ob Valve nicht noch an anderen stellen ähnlich Kreative Einfälle hatte.

Exxtreme
2003-09-12, 10:15:44
Original geschrieben von Demirug
Valve und der Dev-Support von nVidia scheinen eine merkwürdige Beziehung zu pflegen. Es wird zum einen immer behauptet das man im engen Kontakt stände aber auf der anderen Seite kommen dann immer wieder Vorwüfe das der einen den anderen nicht richtig informiert.
Hmmm, trotzdem glaube ich nicht, daß Valve die Empfehlungen des NV-Dev-Supports einfach so in den Wind geschlagen hat.

Also entweder hat der Dev-Support nicht die richtigen Infos rausgerückt oder sie haben Valve die richtigen Infos gegeben und die GFFX kann trotzdem nicht richtig punkten.

seahawk
2003-09-12, 10:18:47
Original geschrieben von Demirug
Ich denke nicht das es sich um das gleiche Problem wie beim MSAA handelt. Allerdings ist schwer zu sagen ob Valve nicht noch an anderen stellen ähnlich Kreative Einfälle hatte.

Ich bin ja kein Programmierer sondern nur ein 2D Futzie. Aber können diese zusammengesetzten Txturen nicht auch eine gewisse Unfelxbilität in der weiteren Verarbeitung bedeuten ??

ShadowXX
2003-09-12, 10:20:04
@Quasar

da könnte ich jetzt noch ein paar Titel hinzufügen....(unteranderem Halo)...darf ich aber leider nicht.....

ow
2003-09-12, 10:21:25
Original geschrieben von Exxtreme
Hmmm, trotzdem glaube ich nicht, daß Valve die Empfehlungen des NV-Dev-Supports einfach so in den Wind geschlagen hat.

Also entweder hat der Dev-Support nicht die richtigen Infos rausgerückt oder sie haben Valve die richtigen Infos gegeben und die GFFX kann trotzdem nicht richtig punkten.


oder Valve ist einfach zu dämlich, die korrekten Infos brauchbar zu verwerten. Diese Möglichkeit besteht auch noch.

Gast
2003-09-12, 10:21:53
Bei der Gelegenheit: Habt ihr schon das neueste Valve Tech Video gesehen, welches heute veröffentlicht wurde? Schaut ganz nett aus...

Gast
2003-09-12, 10:23:06
Anandtech siehts in Bezug der Leistung der R9600 so:


Here we see something very interesting, and something we haven't really seen before - the Radeon 9600 all the way up to the Radeon 9800 Pro all perform within 12% of each other. This is because with shader-heavy games such as Half-Life 2, the bottleneck is no longer memory bandwidth - rather it is pure computational power; basically how quickly these GPUs can process through those shader programs.

Exxtreme
2003-09-12, 10:24:16
Original geschrieben von ow
oder Valve ist einfach zu dämlich, die korrekten Infos brauchbar zu verwerten. Diese Möglichkeit besteht auch noch.
Naja, bei ATi waren sie anscheinend nicht so dämlich. ;)

Quasar
2003-09-12, 10:25:50
Original geschrieben von Gast
Anandtech siehts in Bezug der Leistung der R9600 so:


Here we see something very interesting, and something we haven't really seen before - the Radeon 9600 all the way up to the Radeon 9800 Pro all perform within 12% of each other. This is because with shader-heavy games such as Half-Life 2, the bottleneck is no longer memory bandwidth - rather it is pure computational power; basically how quickly these GPUs can process through those shader programs.

Wie ich oben schon schrieb: Absoluter BS in Bezug auf die Relation 9600p <-> 9800p

Quasar
2003-09-12, 10:27:09
Original geschrieben von Exxtreme
Naja, bei ATi waren sie anscheinend nicht so dämlich. ;)

'Technology Partner' is ja man auch n' gaanz 'n annern Schnack als wie nur Dev-Support zu leisten. =)

Exxtreme
2003-09-12, 10:27:24
Original geschrieben von Quasar
Wie ich oben schon schrieb: Absoluter BS in Bezug auf die Relation 9600p <-> 9800p
Eine Sache hast du vielleicht übersehen: die mögliche CPU-Limitierung. :)

Näheres werden wohl AA + AF Benchmarks zeigen.

ow
2003-09-12, 10:32:21
Original geschrieben von Exxtreme
Eine Sache hast du vielleicht übersehen: die mögliche CPU-Limitierung. :)

Näheres werden wohl AA + AF Benchmarks zeigen.



Was für ne CPU sollte man denn für HL2 und ne 9800 brauchen, wenn ein 3GHZ P4, FSB800 mit 1GB RAM nicht ausreicht?

Demirug
2003-09-12, 10:35:07
Original geschrieben von seahawk
Ich bin ja kein Programmierer sondern nur ein 2D Futzie. Aber können diese zusammengesetzten Txturen nicht auch eine gewisse Unfelxbilität in der weiteren Verarbeitung bedeuten ??

Nö nach dem Texturesamplen macht es keinen Unterschied mehr. Farbwert ist Farbwert.

Exxtreme
2003-09-12, 10:35:26
Original geschrieben von ow
Was für ne CPU sollte man denn für HL2 und ne 9800 brauchen, wenn ein 3GHZ P4, FSB800 mit 1GB RAM nicht ausreicht?
Das System reicht doch aus. :)

Also mir sind 71 fps genug bei einem Single-Player Spiel. :)

seahawk
2003-09-12, 10:36:26
Und warum rückt dann die 9600pro der 9800pro bei höheren Auflösungen näher ??

Demirug
2003-09-12, 10:37:20
Original geschrieben von ow
oder Valve ist einfach zu dämlich, die korrekten Infos brauchbar zu verwerten. Diese Möglichkeit besteht auch noch.

Es gibt noch eine weitere Möglichkeit. Die Infos die sie bekommen haben bezogen sich auf einen Detonator 5X.XX.

ow
2003-09-12, 10:38:48
Original geschrieben von Demirug
Es gibt noch eine weitere Möglichkeit. Die Infos die sie bekommen haben bezogen sich auf einen Detonator 5X.XX.

Ah ja, das hatte ich nicht in Betracht gezogen.

Quasar
2003-09-12, 10:39:02
Original geschrieben von Exxtreme
Eine Sache hast du vielleicht übersehen: die mögliche CPU-Limitierung. :)

Näheres werden wohl AA + AF Benchmarks zeigen.

CPU-Limitierung, die mit steigender Auflösung zunimmt und sich auf sehr ähnliche Chips unterschiedlich auswirkt?

Nein, ich glaube nicht.

edit:
Und dass AA von vornherein ausgeschlossen ist bei HL2, glaube ich überdies. Es erfordert nochmehr Durchläufe eines 2.0-PS (evlt. sogar pro Sample??) und dann reicht dir sicher auch eine R9800p nicht mehr aus.

ow
2003-09-12, 10:40:59
Original geschrieben von seahawk
Und warum rückt dann die 9600pro der 9800pro bei höheren Auflösungen näher ??


Nein, das erstaunliche ist ja, dass die 9600 bei Umstellung von 1024 auf 1280 überhaupt keine Leistung verliert:

http://www.anandtech.com/video/showdoc.html?i=1863&p=8

http://www.anandtech.com/video/showdoc.html?i=1863&p=9

Demirug
2003-09-12, 10:51:27
Original geschrieben von ow
Nein, das erstaunliche ist ja, dass die 9600 bei Umstellung von 1024 auf 1280 überhaupt keine Leistung verliert:

http://www.anandtech.com/video/showdoc.html?i=1863&p=8

http://www.anandtech.com/video/showdoc.html?i=1863&p=9

http://www.anandtech.com/video/showdoc.html?i=1863&p=10 kannst du auch noch dazufügen.

Vertexshader des RV350 am Ende?

seahawk
2003-09-12, 10:52:17
Original geschrieben von ow
Nein, das erstaunliche ist ja, dass die 9600 bei Umstellung von 1024 auf 1280 überhaupt keine Leistung verliert:

http://www.anandtech.com/video/showdoc.html?i=1863&p=8

http://www.anandtech.com/video/showdoc.html?i=1863&p=9

Ich meinte das gleiche - blöd formuliert.

Quasar
2003-09-12, 10:55:20
Original geschrieben von Demirug
http://www.anandtech.com/video/showdoc.html?i=1863&p=10 kannst du auch noch dazu hängen.

Vertexshader des RV350 am Ende?

Das wäre eine Erklärung (die sich nur durch Vergleichsbenches aufklären liesse).

Demirug
2003-09-12, 10:58:35
Original geschrieben von Quasar
Das wäre eine Erklärung (die sich nur durch Vergleichsbenches aufklären liesse).

Wobei das aber nicht die Frage klärt warum eine R9700 Pro unter (bzw auf den Level) die R9600 Pro fällt.

Gast
2003-09-12, 11:02:25
Kann es denn vielleicht sein, daß der RV350 von seinem relativ hohen GPU-Takt profitiert (was HL2 dann mit höherer Shaderleistung dankt) und die Speicherbandbreite gar nicht so von Nöten ist ?? Bin ein Noob und war daher nur so ´ne Frage...

seahawk
2003-09-12, 11:12:45
Original geschrieben von Demirug
Wobei das aber nicht die Frage klärt warum eine R9700 Pro unter (bzw auf den Level) die R9600 Pro fällt.

Hast Du ne Idee. Optimierungen im Chip ??

PCGH_Thilo
2003-09-12, 11:13:56
Original geschrieben von Gast
Bei der Gelegenheit: Habt ihr schon das neueste Valve Tech Video gesehen, welches heute veröffentlicht wurde? Schaut ganz nett aus...

an sich sehr fett, ich finde aber die reflektionen teilweise unrealistisch/künstlich/übertrieben.

thop
2003-09-12, 11:16:02
ja ein bisschen viel glänzt da schon aber schaut geil aus.

Gast
2003-09-12, 11:16:53
Genauso gehts mir auch Thilo, ich finde das ein wenig zu dick aufgetragen. Wirklich fantastisch ist aber, wie echt das tageslicht, bzw. die gesamte Umgebung wirkst. Nicht so wie Plastik und künstlich wie bei Doom3 (wobei das natürlich nen ganz anderen Designansatz hat).

Demirug
2003-09-12, 11:19:27
Original geschrieben von Gast
Kann es denn vielleicht sein, daß der RV350 von seinem relativ hohen GPU-Takt profitiert (was HL2 dann mit höherer Shaderleistung dankt) und die Speicherbandbreite gar nicht so von Nöten ist ?? Bin ein Noob und war daher nur so ´ne Frage...

Wer nicht fragt kann nichts dazu lernen.

Der R300 und R350 wird zwar mit gerinigerem Takt betrieben hat aber dafür die doppelte Anzahl von Recheneinheiten. Die Peak-Shaderleistung ist daher:

9600 Pro 400*4*3 = 4800 MOps/s
9700 Pro 325*8*3 = 7800 MOps/s
9800 Pro 380*8*3 = 9120 MOps/s

Daran kann es also nicht liegen. Aber mit dem Takt hast du mich auf eine Idee gebracht.

seahawk
2003-09-12, 11:28:01
Erzähl mal bitte @ Demi.

Gast
2003-09-12, 11:32:22
Dass die 9600pro so schnell wie die 9800pro ist könnte doch an CPU-Limitierung liegen, wurde ja nur ein 2,8GHZ P4 benutzt.

Ich finds aber auch sehr merkwürdig, dass Valve keine Det50 benches haben will. Man könnte dazu ja ein paar Screens zeigen um die Bildqualität zu vergleichen etc...

Die Det50 treiber erhöhen im 3dmark03 die Pixelshader 2.0 Performance um über 20%. Das ist zwar lang nicht so viel wie Nvidia braucht um in HL2 aufzuholen, allerdings war der 3dmark ja schon vorher extrem optimiert worden. Möglicherweise sinds dann in bisher unoptimierten Games deutlich mehr als 20% Performancesprung.

http://www.amdmb.com/article-display.php?ArticleID=257

roman
2003-09-12, 11:33:22
Original geschrieben von Gast
Bei der Gelegenheit: Habt ihr schon das neueste Valve Tech Video gesehen, welches heute veröffentlicht wurde? Schaut ganz nett aus...

gibts da auch einen link?

Gast
2003-09-12, 11:35:07
LOL @ Nvidia :-)

Es ist zwar nur ein Vorgeschmack, aber es ist (für mich) eine schöne Bestätigung, dass es eine richtige Entscheidung war auf ATI umzusteigen (hatte vorher GF1, GF2 Ultra, GF 4600).
Die Probleme mit nvidia mehrten sich bei mir von Generation zu Generation.
Mit ATi funzt alles wunderbar und jetzt zeigt sich sogar noch, dass ATi sogar konkurenzfähiger als Nvidia ist.

RESPEKT !

Aber das letzte Wort ist bestimmt nicht gesprochen, auch wenn ich nicht glaube, dass nvidia die Leistung verdoppeln (!) kann, um annähernd auf Ati 9800 Niveau zu kommen.

Bravo ATi und Ärmel hochkrempeln bei Nvidia!

Christian

P.S. Und mit den HL2-Benchmarks kann man wunderbar die 5900-Besitzer ärgern.... LOL
Ein bisschen Schadenfreude macht das Leben doch angenehmer, oder? ;-)

Cow
2003-09-12, 11:42:11
Hier

http://www.gamersdepot.com/hardware/video_cards/ati_vs_nvidia/dx9_desktop/hl2_followup/001.htm

gibts HL2 Benchmarks mit AF und AA. Und ein paar Bilder sind auch zu sehen (unter anderem Vergleiche von DirectX 8.0, 8.1, 9.0).

Demirug
2003-09-12, 11:42:15
Original geschrieben von seahawk
Erzähl mal bitte @ Demi.

Hat sich nicht mit allen Messungen in einklang bringen lassen.

Guido
2003-09-12, 11:42:43
Original geschrieben von Romanski
gibts da auch einen link?
Reichen die ? :)
http://www.4players.de/rendersite.php?LAYOUT=download_info&ID=26566&sid=de6dca19f23b9c71f38814024b0bfe41&STARTTIME=&UPDATEDATE=&DOWNLOADID=5412
http://www.gamershell.com/news_BHalf-Life2BDirectx9.0Ef.shtml
http://www.3dgamers.com/games/halflife2/
http://www.ausgamers.com/files/details/html/8284
http://www.computergames.ro/download.php?optiune=show_download&did=2020
http://www.fileplanet.com/files/130000/130227.shtml
http://www.fileshack.com/file.x?fid=3619
http://www.worthplaying.com/article.php?sid=12907

ow
2003-09-12, 11:43:04
Original geschrieben von Demirug
http://www.anandtech.com/video/showdoc.html?i=1863&p=10 kannst du auch noch dazufügen.

Vertexshader des RV350 am Ende?


Sieht für mich eher so aus, als hätten die da verscheidene Auflösungen durcheinander geworfen.

thop
2003-09-12, 11:48:29
Original geschrieben von Cow
Hier
http://www.gamersdepot.com/hardware/video_cards/ati_vs_nvidia/dx9_desktop/hl2_followup/001.htm
gibts HL2 Benchmarks mit AF und AA. Und ein paar Bilder sind auch zu sehen (unter anderem Vergleiche von DirectX 8.0, 8.1, 9.0).
Mit AA/AF steht nV genauso schlecht da wie vorher. Aber die Bilder sind interessant, zwischen DX8 und DX8.1 kann ich keinen Unterschied erkennen.

Winter[Raven]
2003-09-12, 11:50:41
gibts HL2 Benchmarks mit AF und AA. Und ein paar Bilder sind auch zu sehen (unter anderem Vergleiche von DirectX 8.0, 8.1, 9.0).

Ich muss sagen, GEIL ... eine GF FX 5600 schlägt eine GF FX 5900 Ultra ... !

Der war gut !

ow
2003-09-12, 11:52:40
Original geschrieben von Winter[Raven]
Ich muss sagen, GEIL ... eine GF FX 5600 schlägt eine GF FX 5900 Ultra ... !

Der war gut !

Und selbst die 9800Pro wird unter DX8.1 teils von der FX5600 deklassiert.
Auweia, ich hoffe dass HL2 nicht vor Jahresende kommt, damit Valve die ganzen Bugs noch beseitigen kann.

Cow
2003-09-12, 11:54:18
Original geschrieben von Cow
gibts HL2 Benchmarks mit AF und AA. Und ein paar Bilder sind auch zu sehen


Schön ist auch zu sehen, dass die ATI Karten unter DX 8.1 langsamer als unter DX 9.0 sind (Achtung, die Farben der Balken in den Diagrammen ist unterschiedlich).

Demirug
2003-09-12, 11:56:36
Original geschrieben von Cow
Hier

http://www.gamersdepot.com/hardware/video_cards/ati_vs_nvidia/dx9_desktop/hl2_followup/001.htm

gibts HL2 Benchmarks mit AF und AA. Und ein paar Bilder sind auch zu sehen (unter anderem Vergleiche von DirectX 8.0, 8.1, 9.0).

Vorallem die Messergebnisse mit dem DX 8.1 Pfad sind interesant:


http://www.gamersdepot.com/hardware/video_cards/ati_vs_nvidia/dx9_desktop/hl2_followup/dx81_1024.gif (http://www.gamersdepot.com/hardware/video_cards/ati_vs_nvidia/dx9_desktop/hl2_followup/002.htm)

Das stimmt doch was vorne und hinten nicht. Eine 5600 Ultra immer schneller als eine 5900 Ultra? Und bei der techdemo zerlegt sie alles? Wurden da die beiden Karten vertauscht?

EDIT: Zu langsam.

thop
2003-09-12, 11:56:41
denke ich auch.

Alexander
2003-09-12, 11:59:39
Original geschrieben von Gast
Genauso gehts mir auch Thilo, ich finde das ein wenig zu dick aufgetragen. Wirklich fantastisch ist aber, wie echt das tageslicht, bzw. die gesamte Umgebung wirkst. Nicht so wie Plastik und künstlich wie bei Doom3 (wobei das natürlich nen ganz anderen Designansatz hat).

Wenn ich mir so die Häuser/Bretterzäune gegen den Himmel angucke, sieht das so aus, als ob FSAA an wäre. Was denkt ihr?

Alexander

Demirug
2003-09-12, 12:04:15
Also wenn gamersdepot da beim durchführen der Benchmarks oder beim erstellen der Diagramme keinen Mist gebaut hat bleibt mir nur noch eines zu sagen:

Valve bitte zurück ans Reißbrett mit dem ganzen Teil.

Alexander
2003-09-12, 12:04:44
Original geschrieben von Demirug
Das stimmt doch was vorne und hinten nicht. Eine 5600 Ultra immer schneller als eine 5900 Ultra? Und bei der techdemo zerlegt sie alles? Wurden da die beiden Karten vertauscht?

Wenn ich das richtig sehe, wurde für Radeon 9600Pro und GeforceFX 5600 Ultra ein anderes Grundsystem verwendet als für die Highend-Karten. Das ist zwar langsamer, hat aber kein HT. Vielleicht ist das ja einer der Fälle, in denen HT bremst... *schulterzuck*

Alexander

Cow
2003-09-12, 12:08:04
Am Ende des Reviews steht.

Over the course of the next few days, we'll be conducting our own DX9 tests using a beta Det50 driver under different DX9 games (we don't have the HL2 benchmark yet) - not for conclusive performance but to hopefully shed some light on what to expect. We'll also have an interview with the folks at NVIDIA to hear directly from them just what the deal is.


Sie haben im Moment also nicht den HL2 Benchmark. Da frage ich mich wie sie dann an die Ergebnisse kommen.

Demirug
2003-09-12, 12:11:11
Original geschrieben von Cow
Am Ende des Reviews steht.



Sie haben im Moment also nicht den HL2 Benchmark. Da frage ich mich wie sie dann an die Ergebnisse kommen.

Wenn ich das richtig verstanden habe hat Valve eine HL2 Beta mit diesen 3 demo Dateien zum Benchen zur Verfügung gestellt.

Der eigentliche HL2 Benchmark ist dann wieder etwas anderes.

Cow
2003-09-12, 12:17:37
Original geschrieben von Demirug
Wenn ich das richtig verstanden habe hat Valve eine HL2 Beta mit diesen 3 demo Dateien zum Benchen zur Verfügung gestellt.

Der eigentliche HL2 Benchmark ist dann wieder etwas anderes.

Ja, da hast du wahrscheinlich recht.

Gast
2003-09-12, 12:20:16
Großes Kino:
http://www.gamersdepot.com/hardware/video_cards/ati_vs_nvidia/dx9_desktop/hl2_followup/dx9_1024_aa.gif
http://www.gamersdepot.com/hardware/video_cards/ati_vs_nvidia/dx9_desktop/hl2_followup/dx9_1280.gif

PCGH_Thilo
2003-09-12, 13:20:50
Original geschrieben von Demirug
Also wenn gamersdepot da beim durchführen der Benchmarks oder beim erstellen der Diagramme keinen Mist gebaut hat bleibt mir nur noch eines zu sagen:

Valve bitte zurück ans Reißbrett mit dem ganzen Teil.

ich muss sagen, dass die screenshots noch am besten sind. WEIL: die sind nicht erlaubt ;-)

also schnell ziehen.

stickedy
2003-09-12, 13:27:06
Original geschrieben von thop
Mir fallen nur Spiele aus der Glide Zeit ein :)
Aber Generic Path könnte in Wirklichkeit auch ATI Path heissen, denn was für DX9 Karten gibs sonst noch ausser ATI und NV? Parhelia nicht.
Dass nV auf dem Generic Path so abloost ist natürlich trotzdem erbärmlich.

Ist dir schon in den Sinn gekommen, dass man bei Valve durchaus Testsamples von anderen DX9-kompatiblem Grafikkarten haben könnte? Spontan fällt mir da S3 Graphics (DeltaChrome), XGI ("Xabre II") und PowerVR (Series5) ein...

Und wenn diese Grafikchips mit dem "Standard-Pfad" ohne Probleme zurecht kommen, aber NVidia-Chips nicht, was ist dann? Ist das dann immernoch ein "ATI-Pfad"?

Demirug
2003-09-12, 13:38:48
Original geschrieben von stickedy
Ist dir schon in den Sinn gekommen, dass man bei Valve durchaus Testsamples von anderen DX9-kompatiblem Grafikkarten haben könnte? Spontan fällt mir da S3 Graphics (DeltaChrome), XGI ("Xabre II") und PowerVR (Series5) ein...

Und wenn diese Grafikchips mit dem "Standard-Pfad" ohne Probleme zurecht kommen, aber NVidia-Chips nicht, was ist dann? Ist das dann immernoch ein "ATI-Pfad"?

Es gibt wohl zumindestens einen weiteren DX9 Chip von den MS weiss das er auch ein spezielles Compilerprofil braucht.

Den von einem 2.B Profil wurde schon mal vor sehr langer Zeit gesprochen.

Das Valve schon testsamples von DeltaChrome und Serie5 hat bzweifle ich mal stark weil es da AFAIK noch keine verteilt wurde. Über Xabre II weiss ich aber zu wenig um da etwas sagen zu können.

Quasar
2003-09-12, 13:43:56
Original geschrieben von Demirug
Es gibt wohl zumindestens einen weiteren DX9 Chip von den MS weiss das er auch ein spezielles Compilerprofil braucht.


Nur ums mal festzuhalten: Ein 'noch' anderer Ansatz, als wir ihn bislang kennen?

Liesse das nicht schon darauf schliessen, dass man eigentlich für jeden DX9-Chip (und sukzessive auch DX10) einen eigenen Pfad brauchte?

ShadowXX
2003-09-12, 13:44:56
Original geschrieben von Demirug
Es gibt wohl zumindestens einen weiteren DX9 Chip von den MS weiss das er auch ein spezielles Compilerprofil braucht.

Den von einem 2.B Profil wurde schon mal vor sehr langer Zeit gesprochen.

Das Valve schon testsamples von DeltaChrome und Serie5 hat bzweifle ich mal stark weil es da AFAIK noch keine verteilt wurde. Über Xabre II weiss ich aber zu wenig um da etwas sagen zu können.

Dann wird das mit den sogeannten 'DX9'-Karten ja langsam witzlos, wenn Sie alle eine eigene Anpassung brauchen.

Unter diesen Vorraussetzungen kann dann ja auch gleich wieder jeder Gfx-Chiphersteller seine eigene 'DX9'-API bereitstellen und stur auf diese verweisen. (oder besser noch gleich eine komplett eigene API...)

Wäre einfacher gewesen wenn MS gesagt hätte:
Es gibt einen ShaderCompiler mit einerEinstellung....und wenn eure Chips nicht damit klar kommen ist das Eure sache....

J.S.Shadow

roman
2003-09-12, 13:45:34
Original geschrieben von Demirug
Also wenn gamersdepot da beim durchführen der Benchmarks oder beim erstellen der Diagramme keinen Mist gebaut hat bleibt mir nur noch eines zu sagen:

Valve bitte zurück ans Reißbrett mit dem ganzen Teil.

Wieso? Für die 5900er hat doch der DX8.1 Pfad eigentlich keine Relevanz, Valve hat sich da wohl mehr auf den DX9 Mixed Mode konzentriert. Und da könnte der Deto50 eventuell auch noch Boden gutmachen.

mayo
2003-09-12, 13:51:00
Im Gegensatz zu Anandtech verliert die Radeon 9600 pro bei Gamersdepot auch an Geschwindigkeit bei steigender Auflösung. Vielleicht hat sich Anandtech einfach vertan. (Wurde die Auflösung vielleicht nicht übernommen? :))

Exxtreme
2003-09-12, 13:52:07
Original geschrieben von ShadowXX
Wäre einfacher gewesen wenn MS gesagt hätte:
Es gibt einen ShaderCompiler mit einerEinstellung....und wenn eure Chips nicht damit klar kommen ist das Eure sache....

J.S.Shadow
Die Möglichkeit gibt es AFAIK jetzt schon. :)

Leider machen es die Spiele-Hersteller nicht.

Ailuros
2003-09-12, 13:52:36
ExtremeTech diesmal (falls es noch nicht erwaehnt wurde):

http://www.extremetech.com/article2/0,3973,1264991,00.asp

ow
2003-09-12, 13:56:01
Original geschrieben von ShadowXX
Wäre einfacher gewesen wenn MS gesagt hätte:
Es gibt einen ShaderCompiler mit einerEinstellung....und wenn eure Chips nicht damit klar kommen ist das Eure sache....

J.S.Shadow

Sicher, und damit bremsen wir jede Weiterentwiclung konsequent aus. Wozu brauchen wir dann überhaupt noch verschiedene Chiphersteller?
Und wozu verschieden CPUs? Bist du da auch der Meinung, dass da auch jeder x-beliebige Code auf allen gleichgut laufen muss?

Demirug
2003-09-12, 13:57:14
Original geschrieben von Quasar
Nur ums mal festzuhalten: Ein 'noch' anderer Ansatz, als wir ihn bislang kennen?

Liesse das nicht schon darauf schliessen, dass man eigentlich für jeden DX9-Chip (und sukzessive auch DX10) einen eigenen Pfad brauchte?

Ich weis nicht nicht was an diesem 2.B anders sein soll. Es wurde nur mal am Rande erwähnt und seit dem totgeschwiegen.

Ailuros
2003-09-12, 14:03:08
Ist dir schon in den Sinn gekommen, dass man bei Valve durchaus Testsamples von anderen DX9-kompatiblem Grafikkarten haben könnte? Spontan fällt mir da S3 Graphics (DeltaChrome), XGI ("Xabre II") und PowerVR (Series5) ein...

Die ersten zwei haben theoretisch eine Moeglichkeit es bald in Valve's Haende zu schaffen, wobei die dritte genauso viel Chancen hat wie NV40 oder R420 momentan in Entwicklerhaende zu kommen.

ShadowXX
2003-09-12, 14:05:44
Original geschrieben von ow
Sicher, und damit bremsen wir jede Weiterentwiclung konsequent aus. Wozu brauchen wir dann überhaupt noch verschiedene Chiphersteller?
Und wozu verschieden CPUs? Bist du da auch der Meinung, dass da auch jeder x-beliebige Code auf allen gleichgut laufen muss?

Nein, gleich gut laufen muss er nicht überall...er muss nur laufen, die Gewindigkeit ist egal.

Und genau das was du erwähnst ist doch auch bei den CPU's so:
Manches läuft auf AMD besser, manches auf Intel...
HL2 läuft auf ATI besser, Doom3 auf nV.

Es hat sich übrigens noch kein fanATIker 'extrem' darüber beschwert das Doom3 auf nV beser läuft....

Und wie gesagt: ich habe nicht gesagt das der gleiche Code auf allen CPU/GPU's gleich gut laufen soll.
Ich habe nur gesagt, dass es (IMHO) einfacher gewesen wäre M$ hat gesagt DX9, so wie es herrausgekommen ist ist Fakt...Ein Profil, eine Shaderhochsprache.

Wenn der Code auf der einen Architektur nicht so gut läuft wie auf der anderen....pech..ist dann halt langsamer.

Warum muss denn die nV gleichschnell/schneller sein??

J.S.Shadow

ShadowXX
2003-09-12, 14:11:27
Ach ja, die Weiterentwicklung wird dadurch auch nicht gebremst...den die Weiterentwicklung gibt ja MS (wenn auch nach teiweisen Rücksprachen mit den IHV's) vor.

Wie die IHV's diese Weiterentwicklung dann erreichen und umsetzen ist Ihre sache....
Und wenn der Weg nicht das non-plus-ultra war oder nicht so gut zur von M$ vorgegebenen Programmierungsumgebung passt, dann hat die IHV eben Pech gehabt.

J.S.Shadow

Ailuros
2003-09-12, 14:11:38
Ein sehr schoener Post von DemoCoder auf B3D hier:

http://www.beyond3d.com/forum/viewtopic.php?t=7839&start=40

Mr. Lolman
2003-09-12, 14:13:06
Original geschrieben von ShadowXX
HL2 läuft auf ATI besser, Doom3 auf nV.


In Medium Quality vielleicht. Aber in HQ? (http://www.de.tomshardware.com/graphic/20030512/nv35_geforce_fx5900ultra-12.html)

Ausserdem kommt ja DOOMII erst irgendwann 2004. Man kann doch die FX Anhänger nicht immer mit Warten vertrösten.

BlackBirdSR
2003-09-12, 14:15:04
Hat Valve die alle eingeladen?
Es sind immer die 4 gleichen testsysteme.

Und schlimmer noch.. trotzdem bekommen die Seiten alle ganz unterschiedliche Ergebnisse :chainsaw:

ShadowXX
2003-09-12, 14:16:14
Original geschrieben von Mr. Lolman
In Medium Quality vielleicht. Aber in HQ? (http://www.de.tomshardware.com/graphic/20030512/nv35_geforce_fx5900ultra-12.html)

Ausserdem kommt ja DOOMII erst irgendwann 2004. Man kann doch die FX Anhänger nicht immer mit Warten vertrösten.

Mir viel gerade kein besseres Beispiel ein...;D

LovesuckZ
2003-09-12, 14:16:19
Original geschrieben von ShadowXX
Es hat sich übrigens noch kein fanATIker 'extrem' darüber beschwert das Doom3 auf nV beser läuft....


Stimmt, die Aussage kam nicht, dafür, dass die Werte nicht legitim waeren, da sie (fast) von Nvidia stammen koennten.

LovesuckZ
2003-09-12, 14:17:28
Original geschrieben von Mr. Lolman
In Medium Quality vielleicht. Aber in HQ? (http://www.de.tomshardware.com/graphic/20030512/nv35_geforce_fx5900ultra-12.html)


Ja, mit 8QAF. Ist klar, dass ATi da vorne liegt.

Quasar
2003-09-12, 14:17:52
Original geschrieben von ShadowXX
Es hat sich übrigens noch kein fanATIker 'extrem' darüber beschwert das Doom3 auf nV beser läuft....

Nein, in diesem Thread noch nicht. Aber schau dir mal die alten Threads an, als THG zur Vorstellung des nV35 D3 benchte.
Von 'unfähig' über 'cheat' bis 'gekauft' (wahlweise THG oder JC) war alles dabei, wie üblich.

mayo
2003-09-12, 14:19:06
Original geschrieben von BlackBirdSR
Hat Valve die alle eingeladen?
Es sind immer die 4 gleichen testsysteme.

Und schlimmer noch.. trotzdem bekommen die Seiten alle ganz unterschiedliche Ergebnisse :chainsaw:

Es gibt 2 Möglichkeiten. Entweder die Systeme sind so modefiziert, dass nvidia besonders schlecht dasteht. Wie auch immer man das erreichen kann. Oder Vlave wollte einfach nicht, dass bei den ersten Test schon gleich etliche Bugs öffenlich werden.

Ailuros
2003-09-12, 14:19:20
Ich hab ernsthafte Zweifel dass Doom3 ueberhaupt eine integrierter Benchmark-funktion haben wird. Leonidas get to work :D

ow
2003-09-12, 14:27:23
Original geschrieben von ShadowXX
Ach ja, die Weiterentwicklung wird dadurch auch nicht gebremst...den die Weiterentwicklung gibt ja MS (wenn auch nach teiweisen Rücksprachen mit den IHV's) vor.

Wie die IHV's diese Weiterentwicklung dann erreichen und umsetzen ist Ihre sache....
Und wenn der Weg nicht das non-plus-ultra war oder nicht so gut zur von M$ vorgegebenen Programmierungsumgebung passt, dann hat die IHV eben Pech gehabt.

J.S.Shadow

Ähm, also die Chipentwicklung ist immer noch Sache der IHVs und nicht MS´.
Wenn MS so vorgehen würde wie du vorschlägst, dann wäre Direct3D TOT und alles würde zu OpenGL überlaufen.

Ailuros
2003-09-12, 14:27:49
Original geschrieben von LovesuckZ
Ja, mit 8QAF. Ist klar, dass ATi da vorne liegt.

Bitte Seite beim oberen Link umblaettern fuer 4xAA/HighQ scores.

In dem Sinn ist die Leistung zwischen ATI/NV und HL2/D3 schon momentan vergleichbar. Jeder schneidet in einem der beiden Spiele besser ab.

ShadowXX
2003-09-12, 14:28:03
Original geschrieben von Quasar
Nein, in diesem Thread noch nicht. Aber schau dir mal die alten Threads an, als THG zur Vorstellung des nV35 D3 benchte.
Von 'unfähig' über 'cheat' bis 'gekauft' (wahlweise THG oder JC) war alles dabei, wie üblich.

Und Ihr benehmt euch jetzt genauso.....

Aber das ist ok.....jeder verteidigt 'seine' HW.

LovesuckZ
2003-09-12, 14:29:28
Original geschrieben von Ailuros
Bitte Seite beim oberen Link umblaettern fuer 4xAA/HighQ scores.


Lars Weinand hat in irgendeinen Forum erklaert, dass es keine HQ Settings waren sondern nur Medium Quality.

Die gelbe Eule
2003-09-12, 14:29:58
mir fällt da was ein ...

es gab vor einiger zeit ein video wo hl2 auf nem p3 1000 mit ti4200 flüssig lief. als flüssig würde ich da mehr als 60 fps bezeichnen. die auflösung war 1024x768 ...

das dreht den sinn der benches etwas ...

BlackBirdSR
2003-09-12, 14:33:27
Original geschrieben von Ailuros
Ich hab ernsthafte Zweifel dass Doom3 ueberhaupt eine integrierter Benchmark-funktion haben wird. Leonidas get to work :D

Du oder Dave Baumann?
:bäh:

Quasar
2003-09-12, 14:34:09
Original geschrieben von ShadowXX
Und Ihr benehmt euch jetzt genauso.....

Aber das ist ok.....jeder verteidigt 'seine' HW.

Wer ist 'Ihr'? Wenn ich all meine HW verteidigen wollte, müsste ich ziemlich schizophren sein, da ich auch Karten mit Chips von Matrox, ATi, S3, PowerVR, 3dfx und 3DLabs habe...

Ich sage lediglich, daß es mir mit den HL2-Benches noch zuviele Ungereimtheiten gibt, als dass ich mich jetzt blind drauf verlassen würde (gleiches gilt für D3, da aber eher, weil das Game noch in weiter Ferne scheint).

mayo
2003-09-12, 14:34:46
Original geschrieben von die elektrische eule
mir fällt da was ein ...

es gab vor einiger zeit ein video wo hl2 auf nem p3 1000 mit ti4200 flüssig lief. als flüssig würde ich da mehr als 60 fps bezeichnen. die auflösung war 1024x768 ...

das dreht den sinn der benches etwas ...

Ich denke die Engine wird gut skalierbar sein. Man wird einfach ein paar Details herunterschrauben können, denn Valve will ja nicht Millionen von potenziellen Käufern verschrecken.

Ailuros
2003-09-12, 14:36:29
Dann wuerde ich gerne wissen warum er seinen eigenen Fehler nicht korrigiert hat in der Zwischenzeit.

Auf den Graphs hier, steht nach wie vor HighQuality drauf:

http://www.de.tomshardware.com/graphic/20030512/nv35_geforce_fx5900ultra-13.html

Das aber bringt theoretisch zumindest beide high end Karten zum Gleichstand nach Schaetzungen. Wenn man von den 4xAA scores 10% fuer ATI und 33% fuer NV abzieht, kommen beide auf die gleiche Framerate.

Die gelbe Eule
2003-09-12, 14:37:28
das ist mir schon klar ...

doch das video sah kaum schlechter aus als auf einer 9800pro.

wo wir schon dabei sind:

jeder kennt das bugbait video. an der stelle wo die selbstschußanlangen stehen und die bugs reinrennen ruckelt es schon derbe ... denke das da so 15-20 fps anliegen. für ne 9800pro ziemlich naja ...

Ailuros
2003-09-12, 14:38:02
Original geschrieben von BlackBirdSR
Du oder Dave Baumann?
:bäh:

Kann sein dass wir beide gleiche Quellen haben? :bäh:

ShadowXX
2003-09-12, 14:39:34
Original geschrieben von Quasar
Wer ist 'Ihr'? Wenn ich all meine HW verteidigen wollte, müsste ich ziemlich schizophren sein, da ich auch Karten mit Chips von Matrox, ATi, S3, PowerVR, 3dfx und 3DLabs habe...

Ich sage lediglich, daß es mir mit den HL2-Benches noch zuviele Ungereimtheiten gibt, als dass ich mich jetzt blind drauf verlassen würde (gleiches gilt für D3, da aber eher, weil das Game noch in weiter Ferne scheint).

Ok...das 'Ihr' war zu allgemein...(hatte gerade keine Zeit den Text ganz zu ende zu schreiben...)

Und ja...es gibt bei den HL2 Benches noch viele Ungereimtheiten...

Ich verlasse mich auch nicht auf die gezeigten Benches...aber Sie zeigen wohl doch eine Richtung vor (bei HL2).

J.S.Shadow

Ailuros
2003-09-12, 14:41:01
Original geschrieben von die elektrische eule
mir fällt da was ein ...

es gab vor einiger zeit ein video wo hl2 auf nem p3 1000 mit ti4200 flüssig lief. als flüssig würde ich da mehr als 60 fps bezeichnen. die auflösung war 1024x768 ...

das dreht den sinn der benches etwas ...

So "fluessig" zum Beispiel?

http://www.3dcenter.de/artikel/r9500+9700+9800_vs_gffx5200+5600+5800/zj_bench_ut2003_a.php

Nicht dass es vergleichbar ist, aber wir haben wohl wenig Ahnung im Moment wieviel Stress und wo besagte demos ueberhaupt auflegen.

Quasar
2003-09-12, 14:42:24
Original geschrieben von Ailuros Wenn man von den 4xAA scores 10% fuer ATI und 33% fuer NV abzieht, kommen beide auf die gleiche Framerate.

Gerade 4xAA kostet auf der FX5900u eigentlich recht wenig. Der Unterschied zu 2xAA ist meist kaum spürbar.

Ich würde eher bei beiden so um die 20% abziehen, auch ATi kann nicht zaubern. ;)

ShadowXX
2003-09-12, 14:45:04
Original geschrieben von ow
Ähm, also die Chipentwicklung ist immer noch Sache der IHVs und nicht MS´.
Wenn MS so vorgehen würde wie du vorschlägst, dann wäre Direct3D TOT und alles würde zu OpenGL überlaufen.

Habe ich irgendwo geschrieben das M$ die Chips entwickelt?

Aber M$ gibt das Interface (D3D) vor.
Und dieses Interface wird nach Rücksprache ("was wollt Ihr den so bringen, bzw. was verlangen die Entwickler") entwickelt/geschrieben.

Wenn dann eine Architektur nicht so gut damit klar kommt wie eine andere...pech für den Einen, glück für den Anderen.
ATI ist einen Weg gegeangen, nV einen anderen...ATI's weg passte besser und Sie waren zuerst da.
Pech für nV.

J.S.Shadow

/edit: den durch einen ersetzt

Quasar
2003-09-12, 14:46:29
Original geschrieben von ShadowXX
Ich verlasse mich auch nicht auf die gezeigten Benches...aber Sie zeigen wohl doch eine Richtung vor (bei HL2).


Auf jeden Fall. Es wird sicher schwer genug für nV an die Radeons grob heranzukommen, aber momentan sind 'mir' die dargestellten Unterschiede einfach noch zu groß.

Vorhanden sein werden sie nach (Det51.75) wie vor, aber ich denke, nicht ganz so gravierend.

Und um die Spekulationen mal in feste Form zu gießen (für mich persönlich), rechne ich für die neuen Detos mit etwa 20% Mehrleistung in shaderlimitierten Situationen, mal mehr ('TWIMTBP'), mal weniger ('Technology Partner').

Die gelbe Eule
2003-09-12, 14:51:42
Original geschrieben von Ailuros
So "fluessig" zum Beispiel?

http://www.3dcenter.de/artikel/r9500+9700+9800_vs_gffx5200+5600+5800/zj_bench_ut2003_a.php

Nicht dass es vergleichbar ist, aber wir haben wohl wenig Ahnung im Moment wieviel Stress und wo besagte demos ueberhaupt auflegen.

war auf der gc zu sehen das video ...

leider gab es nur diese spärliche auskunft von den pr leuten, aber die quali war beeindruckend.

Gast
2003-09-12, 14:52:56
Noch mal was zu den Screenshots, die dx 9.0, dx8.1 und dx8.0 zeigen.
Also wenn die Unterschiede so marginal auch im bewegten Bild sind, dann kann ich mit meiner GeForce 4 gut leben...

Die gelbe Eule
2003-09-12, 14:57:05
es geht doch mehr darum das die engine für multiplayer mods wie cs 2, tf2 oder dod 2 spielbare frameraten bringt, wo das auge eine steigerung im spielfluß erkennt.

alleine das die physikengine ungeahnte möglichkeiten mit sich bringt, macht es interessant.

wenn thilo mal wieder auftaucht:

wo bleiben eure counterstrike benches in den pcgh??? mich würde interessieren wie da die highend karten performen ... der letzte war meines wissen nach mit ner ti500 und 8500er

Ailuros
2003-09-12, 14:57:10
Original geschrieben von Quasar
Gerade 4xAA kostet auf der FX5900u eigentlich recht wenig. Der Unterschied zu 2xAA ist meist kaum spürbar.

Ich würde eher bei beiden so um die 20% abziehen, auch ATi kann nicht zaubern. ;)

Dann geh erst mal zurueck auf Tomshardware D3 Resultate.

1024*768*32 noAF-->8x AF

ATI -10%
NV -33%

Diese Prozentuale hab ich dann von den AA scores abgezogen und obwohl es nur rein theoretisch ist und nicht unbedingt stimmen muss, sieht es trotzdem moeglicher aus dass beide karten mit 4xAA/8xAF verdammt nahe liegen werden in D3. Die Rechenuebung kannst Du wohl selber nachvollziehen.

***edit: ich muss nochmal schnell rueber zu HardOCP und sehen wie es da aussieht.

******editNr2: ich hab trotzdem immer noch das Gefuehl dass Weinand tatsaechlich high quality mit 4xAA benutzt hat, sonst machen HardOCP's Resultate wiederum keinen Sinn.

Ailuros
2003-09-12, 14:58:47
Original geschrieben von die elektrische eule
war auf der gc zu sehen das video ...

leider gab es nur diese spärliche auskunft von den pr leuten, aber die quali war beeindruckend.

Pyramid2003 als demo sieht auch fluessig aus mit 45fps in real time und das war ja auch mein Punkt.

Gast
2003-09-12, 15:02:39
Nochmal Benches:
http://techreport.com/etc/2003q3/hl2bench/index.x?pg=1

Winter[Raven]
2003-09-12, 15:02:44
@ ShadowXX

Ahhh ... sorry ... aber würdest du deine wirklich EXTREM provokativen Äußerungen unterlassen und nicht das nervt.

Dir tritt kein NV Fan auf die füße, so trette nicht den anderen.

nagus
2003-09-12, 15:03:10
http://www.techreport.com/etc/2003q3/hl2bench/index.x?pg=2


http://www.techreport.com/etc/2003q3/hl2bench/e3techdemo.gif

http://www.techreport.com/etc/2003q3/hl2bench/bugbait.gif


http://www.techreport.com/etc/2003q3/hl2bench/c17_02.gif

Die gelbe Eule
2003-09-12, 15:09:53
sieht auch komisch aus ... schon hat die 5900er im schnitt über 40 frames und die 9800er kommt auf fast 70.

was wie getestet worden ist steht auch nirgends.

edit:

die e3 demos scheinen ati optimiert zu sein.

bei dem city17 demo sieht es schon viel knapper aus.

dx8.1 nur 1,3 fps unterschied ...

Gast
2003-09-12, 15:13:40
Naja...mit voller Qualität, also DX9 hat siehts in allen Benches grausam aus.

Ailuros
2003-09-12, 15:13:42
Original geschrieben von die elektrische eule
sieht auch komisch aus ... schon hat die 5900er im schnitt über 40 frames und die 9800er kommt auf fast 70.

was wie getestet worden ist steht auch nirgends.

edit:

die e3 demos scheinen ati optimiert zu sein.

bei dem city17 demo sieht es schon viel knapper aus.

dx8.1 nur 1,3 fps unterschied ...

Wahrscheinlicher ist wohl dass die eine techdemo mehr CPU limitiert, waerend die andere mehr Shader limitiert ist.

Die gelbe Eule
2003-09-12, 15:17:09
ja und alles mit dem alten deto gebencht ... ich denke das dann der letzte bench einen gleichstand erzwingen wird.

Gast
2003-09-12, 15:17:18
ein kleiner OT-Comment eines Spiele-Entwicklers ( Ilfirin ) auf Beyond3d :


HardOCP wrote:
Gabe is basically saying here that NVIDIA current GeForceFX lineup is nothing more than a DX8 card in DX9 clothing.



FYI, I've been working on a DX9 product everyday since right around DX9 first came out and I can say that this is exactly what I've been finding (though I'd even remove the part about having DX9 clothing.. but then what I've been working on is far more stressful on DX9 hardware than HL2).


Also, wenn ihr eine gute DX8.1-Karte haben wollt, kauft euch die Geforce FX5900-Ultra.

Exxtreme
2003-09-12, 15:19:40
Original geschrieben von Gast
ein kleiner OT-Comment eines Spiele-Entwicklers ( Ilfirin ) auf Beyond3d :




FYI, I've been working on a DX9 product everyday since right around DX9 first came out and I can say that this is exactly what I've been finding (though I'd even remove the part about having DX9 clothing.. but then what I've been working on is far more stressful on DX9 hardware than HL2).


Also, wenn ihr eine gute DX8.1-Karte haben wollt, kauft euch die Geforce FX5900-Ultra.
Ja, das ist sicherlich bitter.

ShadowXX
2003-09-12, 15:20:14
Original geschrieben von Quasar
Auf jeden Fall. Es wird sicher schwer genug für nV an die Radeons grob heranzukommen, aber momentan sind 'mir' die dargestellten Unterschiede einfach noch zu groß.

Vorhanden sein werden sie nach (Det51.75) wie vor, aber ich denke, nicht ganz so gravierend.

Und um die Spekulationen mal in feste Form zu gießen (für mich persönlich), rechne ich für die neuen Detos mit etwa 20% Mehrleistung in shaderlimitierten Situationen, mal mehr ('TWIMTBP'), mal weniger ('Technology Partner').

dazu ein: full ack!!!

J.S.Shadow

ShadowXX
2003-09-12, 15:25:13
Original geschrieben von Winter[Raven]
@ ShadowXX

Ahhh ... sorry ... aber würdest du deine wirklich EXTREM provokativen Äußerungen unterlassen und nicht das nervt.

Dir tritt kein NV Fan auf die füße, so trette nicht den anderen.

hmmm...du bist scheinbar der einzige den es 'nervt'.
Und zeige mir bitte ein einzige stelle wo ich nV niedermache.....
Und nV Fans die mir auf die Füße treten gibt es mehr als genug....(nicht nur mir...)

J.S.Shadow

Die gelbe Eule
2003-09-12, 15:25:59
http://www.gamersdepot.com/hardware/video_cards/ati_vs_nvidia/dx9_desktop/hl2_followup/dx81_1024.gif

das ist lustig ... ne nv5600er schneller als alles andere ^^

Ailuros
2003-09-12, 15:32:15
Original geschrieben von die elektrische eule
ja und alles mit dem alten deto gebencht ... ich denke das dann der letzte bench einen gleichstand erzwingen wird.

Unter legitimen Bedingungen wuerde ich eher einen dx8.1/NV35 oder etwas hoeheren "Gleichstand" sagen.

***edit: so in etwa wie die Techreport NV35/dx8.1 Resultate.

Gast
2003-09-12, 15:32:25
Original geschrieben von ShadowXX
Habe ich irgendwo geschrieben das M$ die Chips entwickelt?

Aber M$ gibt das Interface (D3D) vor.
Und dieses Interface wird nach Rücksprache ("was wollt Ihr den so bringen, bzw. was verlangen die Entwickler") entwickelt/geschrieben.

Wenn dann eine Architektur nicht so gut damit klar kommt wie eine andere...pech für den Einen, glück für den Anderen.
ATI ist einen Weg gegeangen, nV einen anderen...ATI's weg passte besser und Sie waren zuerst da.
Pech für nV.

J.S.Shadow

/edit: den durch einen ersetzt
Full Ack. Einige hier wollen das aber nicht wahr haben und sehen da eine Verschwörung gegen NV.

Beta

Ailuros
2003-09-12, 15:35:11
Verschwoerungs-Theorien sind so alt wie die 3Dfx-NVIDIA Ausseinandersetzungen.

Quasar
2003-09-12, 16:07:19
Original geschrieben von Exxtreme
Ja, das ist sicherlich bitter.

Jo, aber das war abzusehen. DX7-Titel kriegt man erst mit der letzten Generation von DX8(.1)-Karten ordentlich zum Laufen, DirectX8(.1)-Titel werden mit der letzten Generation von DX9-Karten ordentlich spielbar sein.


Wenn Ilfirin an etwas "far more stressful on DX9 hardware than HL2)" arbeitet, wird das mit keiner aktuell kaufbaren Karte ordentlich laufen (oder Valve muss ihre Engine von FM lizenziert haben ;)).

Quasar
2003-09-12, 16:11:17
Original geschrieben von Ailuros
Die Rechenuebung kannst Du wohl selber nachvollziehen.


Ja, ich hatte dich irgendwie mißverstanden.... Keine Ahnung wieso. (Reicht es als Entschuldigung, daß ich heute Nacht nur 2.5h gepennt habe?)

ow
2003-09-12, 16:43:04
Original geschrieben von Gast
Noch mal was zu den Screenshots, die dx 9.0, dx8.1 und dx8.0 zeigen.
Also wenn die Unterschiede so marginal auch im bewegten Bild sind, dann kann ich mit meiner GeForce 4 gut leben...


Die Unterschiede werden nur marginal sein, weil es Valve sich nicht leisten kann, das Spiel nur auf DX9 HW gut aussehen zu lassen. Das wird man im Spiel nicht merken, ob man auf DX8 oder DX9 spielt.

Davon abgesehen würde mich aber auch brennend interessieren, wie HL2 auf DX7 Karten aussieht.

ow
2003-09-12, 16:50:17
Original geschrieben von Ailuros
Verschwoerungs-Theorien sind so alt wie die 3Dfx-NVIDIA Ausseinandersetzungen.

:D

Ich hab da noch eine:

Kann mir jemand sagen, warum in allen Benches eine 9600 Pro, aber nur eine normale FX5600 und keine Ultra zu sehen ist?

Will da jemand vielleicht den Namen 9600 ggü. 5600 ein wenig hypen?

Gast
2003-09-12, 16:59:09
Original geschrieben von ow
Die Unterschiede werden nur marginal sein, weil es Valve sich nicht leisten kann, das Spiel nur auf DX9 HW gut aussehen zu lassen. Das wird man im Spiel nicht merken, ob man auf DX8 oder DX9 spielt.
Davon abgesehen würde mich aber auch brennend interessieren, wie HL2 auf DX7 Karten aussieht.

Ja, das wäre interessant. Die Unterscheide der dx versionen wird man aber denke ich durchaus auch im Spiel sehen. Naja, mir reicht dx 8 und die GF4. Ich kaufe lieber erst dann ne neue Graka, wenn D3 draußen ist. Dann sind wir 1 -2 Generationen weiter, und ich habe die Sicherheit, dass beide Games und die auf den Engines basierenden Spiele einigermaßen korrekt laufen :)

Beileid dennoch allen GeForce FX Usern.
Viel geld ausgegeben, und dennoch nicht die volle Schönheit, selbst wenn der Speed noch erhöht wird...

Die gelbe Eule
2003-09-12, 17:04:29
Original geschrieben von ow
:D

Ich hab da noch eine:

Kann mir jemand sagen, warum in allen Benches eine 9600 Pro, aber nur eine normale FX5600 und keine Ultra zu sehen ist?

Will da jemand vielleicht den Namen 9600 ggü. 5600 ein wenig hypen?

siehe meinen vorletzten post, da is ne 5600 ultra schneller als eine 9600 =)

Quasar
2003-09-12, 17:13:32
Original geschrieben von Gast
Beileid dennoch allen GeForce FX Usern.
Viel geld ausgegeben, und dennoch nicht die volle Schönheit, selbst wenn der Speed noch erhöht wird...

Wie kommst du zu der Annahme?

Gast
2003-09-12, 17:33:19
Meiner Meinung nach sind die Ergebnisse, die auf den vier Seiten:
Gamers Depot
Tech Report
AnandTech
ExtremeTech
ermittelt wurden, sehr frustrierend für alle GeforceFX-Besitzer aus (besonderes die Lowend FX-Karten).

Dies scheint aber immer mehr zu bestätigen, dass die FX-Karten in Directx9 eher mäßig sind.

Bereits Tests in TombRaider6 und in der Halo-Beta (Version1.5) waren vergleichsweise eher schlecht.

Die neuen FX-Treiber werden sicherlich die Unterschiede schmälern, aber das grundsätzliche Problem, der schlechteren Leistung unter Direcx9 wird sich nicht ändern.

Es ist jetzt aber eher kontraproduktiv das Spiel DOOM3 heran zu ziehen und zu behaupten, dass es auf FX-Karten besser läuft. D3 erscheint erst 2004 und bisher wurde nur eine Beta oder Alpha(?) Version getestet. Meines Erachtens war sogar die ATI RAdeon9800 in High Quality(!) ebenbürtig bzw. besser als die FX5800Ultra oder FX5900Ultra(?!). Link wurde bereits irgendwo vor mir genannt, einfach mal suchen, wen es interessiert.

Also lieber auf aktuelle Spiele konzentrieren wie dem erschienen TombRaider6 (auch wenn das Spiel eher mäßig ist), der Halo-Beta (Vollversion soll Oktober bzw. November erscheinen) und eben HalfLife2, wenn mann die Directx9 Leistung vergleichen möchte.

Samson-Nite
2003-09-12, 17:37:16
@Quasar:
Ich schau mir die Benches unter DX9 an, sehe, dass die FX da kein Land sieht und lese das bei anand:
"
(...)

The sacrifices you encounter by running either the mixed mode path or the DX8 path are obviously visual. The 5900 Ultra, running in mixed mode, will exhibit some banding effects as a result of a loss in precision (FP16 vs. FP32) but still looks good - just not as good as the full DX9 code path. There is a noticeable difference between this mixed mode and the dx82 mode, as well as the straight DX8 path - for example, you'll notice that shader effects on the water aren't as impressive as they are in the native DX9 path.

Are the visual tradeoffs perceptive? Yes. The native DX9 path clearly looks better than anything else, especially the DX8.0/8.1 modes."

Ergo: Man kann die FX zwar schneller machen, aber wohl nicht substantiell im dx9 Modus. Die anderen Modi sehen aber sichtbar schlechter aus.

Achill
2003-09-12, 17:44:17
also zu den HQ Benchs und 4xAA unter D3...

Schaut man sich das ergebnis der 5900U unter 1024x768 an, so schafft sie dort 55.0 fps.
Klickt man jetzt eine Seite weiter, so hat die 5900U mit 4xAA unter 1024x768 57.1 fps - ich denke das zeigt, das dort irgend etwas schief lief.

Ob die fx nun ohne AA nicht rund lief oder der AA Bench nicht OK ist, das stelle ich einmal in den raum...

Gast
2003-09-12, 17:46:25
Bei dem D3 bench steht auch irgendwo das es Treiber Probleme gab schau mal nach ich glaube unter der Tabelle mit den 55fps

LovesuckZ
2003-09-12, 18:00:43
Interessant ist eigentlich auch, dass wir wohl keine HL2 Werte von dem Deto 51.75 bis zum erscheinen des Spiels oder dem Benchmark erhalten werden.
Denn so wie es aussieht, sind die jezigen benchmarks " in a very controlled environment" (http://www.techreport.com/etc/2003q3/hl2bench/index.x?pg=1) enstanden. Naja, langsam nimmt das wirklich seltsame Zuege an...

Die gelbe Eule
2003-09-12, 18:01:53
ja die 9800xt bekommt auch eine spezielle version von hls bundled, was das immer heißen mag =)

Gast
2003-09-12, 18:03:47
Die Bemerkungen auf der Frontpage von 3DCenter:

"Nichts desto trotz sollte man diese Zahlen nicht wahnwitzig überbewerten. Immerhin ist Half-Life 2 zwar ein wichtiges, aber auch nur ein Spiel - im Gegensatz zu Doom III, dessen Engine in dutzenden anderer Spiele verwendet werden wird."

zeigt diesmal nicht die Kompetenz wie man sie sonst gewohnt ist. Hier wird impliziert, dass die Benchmarks zu HL2 nicht aussagekräftig bezüglich der Leistungsfähigkeit der aktuellen Grafikkarten sind und dass Doom3 wieder alles ins wahr Licht rückt.

Was soll das?!?!?!?!

HL2 ist ein in Kürze erscheinendes Spiel, welches Directx9 nutzt. Es wurden bereits ähnliche Werte in Spielen wie TombRaider6 oder Halo (Beta) ermittelt. Und DOOM3 liegt noch in weiter Ferne und es ist nicht Fakt, dass Nvidia-Karten vielleicht besser in D3 abschneiden als ATI-Karten. Aber wie ich bereits in einem vorherigen Post erwähnt: Betrachtungen zu Doom3 sind derzeit absolut irrelevant, weil nicht aussagekräftig, was man von HL2, TombRaider6 oder Halo nicht behaupten kann.

PS: Was ist eure Meinung dazu?

Iceman346
2003-09-12, 18:10:59
Original geschrieben von Gast
Die Bemerkungen auf der Frontpage von 3DCenter:

"Nichts desto trotz sollte man diese Zahlen nicht wahnwitzig überbewerten. Immerhin ist Half-Life 2 zwar ein wichtiges, aber auch nur ein Spiel - im Gegensatz zu Doom III, dessen Engine in dutzenden anderer Spiele verwendet werden wird."

zeigt diesmal nicht die Kompetenz wie man sie sonst gewohnt ist. Hier wird impliziert, dass die Benchmarks zu HL2 nicht aussagekräftig bezüglich der Leistungsfähigkeit der aktuellen Grafikkarten sind und dass Doom3 wieder alles ins wahr Licht rückt.

Was soll das?!?!?!?!

HL2 ist ein in Kürze erscheinendes Spiel, welches Directx9 nutzt. Es wurden bereits ähnliche Werte in Spielen wie TombRaider6 oder Halo (Beta) ermittelt. Und DOOM3 liegt noch in weiter Ferne und es ist nicht Fakt, dass Nvidia-Karten vielleicht besser in D3 abschneiden als ATI-Karten. Aber wie ich bereits in einem vorherigen Post erwähnt: Betrachtungen zu Doom3 sind derzeit absolut irrelevant, weil nicht aussagekräftig, was man von HL2, TombRaider6 oder Halo nicht behaupten kann.

PS: Was ist eure Meinung dazu?

Der Absatz hat mich auch irritiert, vor allem weil die Source Engine mit Vampire: Bloodlines bereits einen Abnehmer gefunden hat (genausoviele wie die Doom 3 Engine mit Quake 4 ;)). Ich gehe davon aus, dass die Source Engine sich genauso lizensieren lassen wird wie die Doom 3 Engine und ich gehe davon aus das die Source Engine deutlich häufiger lizensiert werden wird als die Doom 3 Engine weil Source einfach mehr Möglichkeiten hat. Bei der Doom Engine ist man ziemlich auf enge Gänge beschränkt, bei Source kann man auch grosse Aussengebiete darstellen (nach allem was ich bisher gesehen hab).

Pathfinder
2003-09-12, 18:15:11
Leo bei einer Gratwanderung :) Insgesamt ein ausgewogener Kommentar, der die Gefühle beider Parteien berücksichtigt. Dass der Kommentar inhaltlich spekulativ ist, sollte jetzt nicht überbewertet werden.

G.
P.

Gast
2003-09-12, 18:20:42
Ist es eigentlich möglich die Peak-Shaderleistung per Software zu limitieren ???

Gast
2003-09-12, 18:26:08
Die schlecht Directx9-Leistung der FX-Karten wird auch durch die Statements von Valve deutlich, dass sie 5x länger für den speziellen Codepath für FX-Karten programiert haben, als für den Standard-Direcx9-Codepath(nicht ATI-Codepath!).

Weiterhin hat auch John Carmack mal erwähnt (bezogen auf Doom3), dass die ATI-Karten unter dem ARB2-Codepath (Standard OpenGL2!) schneller sind als die FX-Karten, die nur durch den speziellen(!) NV3x-Codepath die gleiche oder bessere Leistungen erzielen. Die Ursache war meines Erachtens, das im ARB2-Codepath die ATI-Karten mit 96bit-Genauigkeit rechnen und die FX-Karten mit 128bit-Genauigkeit, im NV3x-Codepath dagegen in 64bit-Genauigkeit.
Was John Carmack nun in Doom3 (Final) realisiert, kann niemand vorhersagen (außer er selbst vielleicht).

Es ist wie es ist: Doom3 aktuell nicht relevant!

Demirug
2003-09-12, 18:31:04
Original geschrieben von Gast
Ist es eigentlich möglich die Peak-Shaderleistung per Software zu limitieren ???

höchstens der Treiber kann etwas an der Peakleistung ändern aber wenn man sich mal am Hardwarelimit befindet geht auch über den Treibern nichts mehr.

Die Software hat aber einen Einfluss darauf wie viel Prozent von der Peakleistung auch wirklich genutzt werden.

Gast
2003-09-12, 18:33:29
Hier nochmal der Link zu TombRaider6, Halo + Directx9:

http://www.gamersdepot.com/hardware/video_cards/ati_vs_nvidia/dx9_desktop/001.htm

Ein weiterer Link zu TombRaider6 + Directx9:

www.beyond3d.com (ein bisschen suchen!)

ow
2003-09-12, 18:35:27
Original geschrieben von LovesuckZ
Interessant ist eigentlich auch, dass wir wohl keine HL2 Werte von dem Deto 51.75 bis zum erscheinen des Spiels oder dem Benchmark erhalten werden.
Denn so wie es aussieht, sind die jezigen benchmarks " in a very controlled environment" (http://www.techreport.com/etc/2003q3/hl2bench/index.x?pg=1) enstanden. Naja, langsam nimmt das wirklich seltsame Zuege an...


Na damit ist doch klar, dass diese Benches absolut garnichts wert sind.


Die Aussage mal komplett:

Normally, when you see benchmarks on TR with fancy graphs and the like, we have conducted the testing ourselves using test systems we've built and installed personally. That's not the case with these numbers, which were produced in a very controlled environment. ATI and Valve collaborated on the system setups, and my role in the process was reduced to specifying verbally which script should be run. A very protective ATI employee kept my hands off the keyboard and kicked off the scripts for me, so not even in that basic way can I claim these are "my" benchmark numbers.

(del676)
2003-09-12, 18:36:32
Original geschrieben von Gast
Aber die Zahlen sind - gelinde gesagt - bitter.

die Zahlen sind gelinde gesagt - falsch und aus der luft gegriffen :D

edit: und haben rein GAR NICHTS mit HL2 @ Det50 zu tun

Gast
2003-09-12, 18:38:32
Original geschrieben von LovesuckZ
Interessant ist eigentlich auch, dass wir wohl keine HL2 Werte von dem Deto 51.75 bis zum erscheinen des Spiels oder dem Benchmark erhalten werden.
Denn so wie es aussieht, sind die jezigen benchmarks " in a very controlled environment" (http://www.techreport.com/etc/2003q3/hl2bench/index.x?pg=1) enstanden. Naja, langsam nimmt das wirklich seltsame Zuege an...

hmm täusch ich mich oder hörte man diesen einwand von deiner seite bei den doom3 benches nicht wo es genauso war ? :confused:

thop
2003-09-12, 18:39:49
Kann es sein dass 3DCenter mit nVidia unter einer Decke steckt? Auffällig viele pro-nV Sachen kann man hier teilweise lesen. Ausserdem noch dieser Artikel über die FFX Reihe der versucht ne Entschuldigung für die schlechte Shader Performance zu finden :|

Gast
2003-09-12, 18:40:53
Original geschrieben von Ulukay
die Zahlen sind gelinde gesagt - falsch und aus der luft gegriffen :D

edit: und haben rein GAR NICHTS mit HL2 @ Det50 zu tun

nachdem der det 5x.xx in nem test von neulich nur im 3dmark03 25% beim PS2.0 und sonst in anderen engines ~10% zugelegt hat würde ihc nicht auf ein wunder hoffen ;)

mayo
2003-09-12, 18:44:38
Original geschrieben von thop
Kann es sein dass 3DCenter mit nVidia unter einer Decke steckt? Auffällig viele pro-nV Sachen kann man hier teilweise lesen. Ausserdem noch dieser Artikel über die FFX Reihe der versucht ne Entschuldigung für die schlechte Shader Performance zu finden :|

Ich denken 3dcenter ist relativ objktiv. Du solltest vielleicht mal überlegen warum du das nicht so siehst. :)

Gast
2003-09-12, 18:47:17
Es wurden aber bereits Benchmarks bei 4 verschiedenen Websites durchgeführt. Es wurde zwar nirgendwo der Det 5x verwendet, aber dieser enorme Rückstand ist wohl nur schwer durch einen neuen Treiber aufzuholen.



PS: Genaue Seite des TombRaider + Directx8/9 Tests:
http://www.beyond3d.com/misc/traod_dx9perf/

Gast2
2003-09-12, 18:52:55
Verdammt noch ein Gast hier;)

Ich nenne mich einfach mal Gast2.

Die zwei Aussagen des Gast vor mir, stammen nicht von mir.

Meines Erachtens ist 3DCenter eine sehr kompetente Seite. Ich liebe ihre Artikel, nur den einen Satz auf der Frontseite
"Nichts desto trotz sollte man diese Zahlen nicht wahnwitzig überbewerten. Immerhin ist Half-Life 2 zwar ein wichtiges, aber auch nur ein Spiel - im Gegensatz zu Doom III, dessen Engine in dutzenden anderer Spiele verwendet werden wird."
fand ich nicht sehr kompetent, aus den bereits vorher genannten Gründen.

(del676)
2003-09-12, 18:54:31
Original geschrieben von Gast
nachdem der det 5x.xx in nem test von neulich nur im 3dmark03 25% beim PS2.0 und sonst in anderen engines ~10% zugelegt hat würde ihc nicht auf ein wunder hoffen ;)

angenommen :D :
Det50: +25% bei shaderlimitierten szenarien ...
HL2: FINAL + xx% ...

Gast
2003-09-12, 18:57:25
Original geschrieben von LovesuckZ
Interessant ist eigentlich auch, dass wir wohl keine HL2 Werte von dem Deto 51.75 bis zum erscheinen des Spiels oder dem Benchmark erhalten werden.
Denn so wie es aussieht, sind die jezigen benchmarks " in a very controlled environment" (http://www.techreport.com/etc/2003q3/hl2bench/index.x?pg=1) enstanden. Naja, langsam nimmt das wirklich seltsame Zuege an...

Wobei man nicht vergessen darf, dass sich nVidia zwar über die Benchmarks beschwert, aber ja SELBST bisher gar nicht erlaubt hat, dass Deto 50er Benches überhaupt veröffentlicht werden dürfen. diese Komik sollte man nicht vergessen.
Selbst schuld sag ich dazu nur...

Gast2
2003-09-12, 18:57:45
Nochmal verdammt;)

Jetzt wirds langsam lächerlich, aber der Post von Gast mit dem Link zu Tomb Raider 6 ist noch von mir. Die beiden davor nicht.

Ich hoffe, dass konnte ich klären.

Eine Bitte an alle Gäste:

Bitte jetzt keine Scherze mit meinem Benutzernamen Gast2 treiben, sonst wird es konfus;)

PS:
Ja ja, ich mag es nicht mich zu registrieren. Ist so eine Phobie von mir.

ow
2003-09-12, 18:58:39
Original geschrieben von Gast2
Verdammt noch ein Gast hier;)

Ich nenne mich einfach mal Gast2.

Die zwei Aussagen des Gast vor mir, stammen nicht von mir.

Meines Erachtens ist 3DCenter eine sehr kompetente Seite. Ich liebe ihre Artikel, nur den einen Satz auf der Frontseite
"Nichts desto trotz sollte man diese Zahlen nicht wahnwitzig überbewerten. Immerhin ist Half-Life 2 zwar ein wichtiges, aber auch nur ein Spiel - im Gegensatz zu Doom III, dessen Engine in dutzenden anderer Spiele verwendet werden wird."
fand ich nicht sehr kompetent, aus den bereits vorher genannten Gründen.


Die Aussage auf der 3DC Seite ist zwar etwas spekulativ, aber man bedenke, dass bislang jede Engine von iD sehr oft lizensiert wurde und afaik von Valve es noch nie eine eigene Engine gab, die man überhaupt hätte lizensieren können. Oder irre ich mich da?