PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : HL2 NV35 FP16 vs. FP32


Seiten : 1 2 [3]

Demirug
2004-12-10, 21:51:50
ok.
Knnst du mir bitte auch deine Interpretation dieser
http://www.hardocp.com/image.html?image=MTA2MzI2MzQ4OHMwTVVnQlIybHZfM18zX2wuZ2lm
http://www.hardocp.com/image.html?image=MTA2MzI2MzQ4OHMwTVVnQlIybHZfM181X2wuZ2lm
slides geben (aus derselben Präsentation, die Ls zitierte).
Nur um klarzustellen:
ja, ich gönne jedem Fx User den FP Pfad, oder ggf einen Mixed Mode.

Was soll ich da viel interpretieren?

Valve beschreibt dort die Erfahrungen die sie bezüglich der Implementierung des "Mixed Mode" gemacht haben wollen und gibt Tipps wie sich andere Entwickler iherer Meinung nach verhalten sollen. Liest sich fast genauso wie ein Vortrag von ATI auf einer Entwicklerkonferenz.

r@h
2004-12-11, 07:30:15
Ne GF2 Ultra war bisweilen sogar deutlich schneller als ne GF3 Ti200...Nein... oder besser: nur am Anfang, als die Treiber sich noch nicht so richtig auf die gf3 eingeschossen haben. Und... wieso überhaupt gf3ti200? Ich beziehe mich hier lieber auf die Ur-gf3...

Mit trilinearem Filter und 32Bit Farbtiefe wurde die gf2 dann endgültig abgehängt.

Tut man ja nicht. Ich zumindest nicht. Denn mit FP16 sind max ~75% (Mehr-)Leistung drinnen.Und Dir ist aber schon klar, dass mit 'mixed-mode' nicht nur pp-Hints gemeint sind, oder?

Kompletter verzicht auf 2.0 Shader = DX8
Ich glaub die 100% sind nicht so unrealistischNein, DX9 mit pp-Hints wo es angebracht ist. Ansonsten PS1.1-1.4, wo es sinnvoller ist, als gleich mit PS2.0 "drauf zu hauen"...
;)

Hätte im übrigen auch die Engine ganz erheblich aufgeräumt, da man so nicht gleich komplett unterschiedliche Pfade hätte schreiben müssen. Mal ganz davon abgesehen, dass auch ältere Karten optisch nicht so kräftig ins Hintertreffen geraten wären...

Bestes Beispiel ist hier Vampires2, welches mit sehr viel weniger Shaderns auskommt und trotzdem eine recht opulente Grafik bietet (von den Poly-armen Charakteren mal abgesehen ;-)

Hab ja nicht behauptet, dass es mich nicht interessiert...Dann solltest Du auch nicht versuchen, die Diskussion abzuwürgen...

Sooo einen großen Unterschied gibts jetzt auch nicht zw. dem HL² DX8 und DX9 (bis vll, auf die Wassershader). Ich bin mir sicher dem Großteil der Daus fällt das nichteinmal auf...Auch einem Dau fällt auf, dass HL2 auf "einer ATI" besser aussieht, als auf "einer nVidia". Viel schlimmer ist allerdings, was damit ausgesagt wird... und das wollten IMO ATI und Valve damit auch erreichen...

-

Und um das Thema zu konstatieren: ich bin der Meinung, dass wir uns dem ursprünglich angedachten, bzw. bereits realisierten "mixed-mode" immer weiter nähern. Erst die FP16-Geschichte (die durchgängig selbstredend nicht nur glücklich ist) und nun auch das recht einfache Ersetzen von ultra-kurzen PS2.0-Massenshadern durch einfache PS1.1-Multipass- oder PS1.4-Shader. Und denkbar wäre selbstredend auch die Abbildung dieser PS2.0-massen-Shader durch effizente PS3.0-Shader, um diesem 'Wust' Einhalt zu gebieten... mal schaun', ob sich da auch mal jemand ran machen wird.

Razor

BUG
2004-12-11, 11:47:20
Und um das Thema zu konstatieren: ich bin der Meinung, dass wir uns dem ursprünglich angedachten, bzw. bereits realisierten "mixed-mode" immer weiter nähern. Erst die FP16-Geschichte (die durchgängig selbstredend nicht nur glücklich ist) und nun auch das recht einfache Ersetzen von ultra-kurzen PS2.0-Massenshadern durch einfache PS1.1-Multipass- oder PS1.4-Shader. Und denkbar wäre selbstredend auch die Abbildung dieser PS2.0-massen-Shader durch effizente PS3.0-Shader, um diesem 'Wust' Einhalt zu gebieten... mal schaun', ob sich da auch mal jemand ran machen wird...das darfst du aber nicht verallgemeinern, es lassen sich mit sicherheit für beide Situationen Beispiele finden wo der eine schneller ist als der andere..:

Hätte nicht der Mixed Mode 2 gereicht, um alle DX9 Karten optimal zu betreiben?
ATI rechnet doch sowieso immer in FP24, gibt es da optische Unterschiede zwischen einem 2.0 und 1.1 Shader, die daselbe berechnen?



Im Prinzip ja. Valve benutzt im DX9 Pfad aber zum einen minimal genauere Formeln und zum anderen werden da für jede mögliche Effektvariante Spezialshader benutzt. Im DX8 Pfad kommen allgemeinere Shader zum Einsatz so das da öfter auch mal mehr als notwendig gerechnet wird. Daher gibt es auch stellen bei denen der DX9 Pfad schneller als der DX8 Pfad ist.

Wenn 1.1 Shader teilweise langsamer und ungenauer sind, wieso dann auf 2.0 Shader verzichten? Und wenn man das alles in jeder Situaution ausprobieren muß, fließt mit sicherheit eine menge Wasser die Elbe runter. Auf 3.0 Shader zu setzen, hmm naja da wären wir wieder bei den verschienden Renderpfaden bzw noch einer mehr als es jetzt schon sind da derzeit nur NV PS3.0 unterstützt. ..ggf wird sowas folgen wenn ATI PS3.0 fähige Hardware liefert. :)

Zum einen stellst du (durch die Blume) ATI als Technologie bremse hin (seit mehreren Jahren nur PS2.0), anderseits ist die vortschritlichere NV3x Gerneration für durchgäng 2.0 Shader zu langsam und dann willst du noch das auf PS3.0 gesetzt wird aber 2.0 Shader sollte man aus Rücksicht auf den NV3x liber nicht verwenden?

cu
BUG

r@w
2004-12-13, 14:01:16
..das darfst du aber nicht verallgemeinern, es lassen sich mit sicherheit für beide Situationen Beispiele finden wo der eine schneller ist als der andere..:Darum geht es (primär) doch gar nicht...

Wenn 1.1 Shader teilweise langsamer und ungenauer sind, wieso dann auf 2.0 Shader verzichten? Und wenn man das alles in jeder Situaution ausprobieren muß, fließt mit sicherheit eine menge Wasser die Elbe runter. Auf 3.0 Shader zu setzen, hmm naja da wären wir wieder bei den verschienden Renderpfaden bzw noch einer mehr als es jetzt schon sind da derzeit nur NV PS3.0 unterstützt. ..ggf wird sowas folgen wenn ATI PS3.0 fähige Hardware liefert. :)Letzteres ganz sicher... aber bestimmt nicht, weil die Hardware-Plattform dann dafür breiter ist!
:D

Ansonsten: der Entwickler weiß sehr genau, was für einen Effekt er kreieren will und welche Präzision dafür benötigt wird. Sind ja schließlich keine Anfänger, die nach dem Trial-and-Error Prinzip vorgehen... und wenn man dies schon beim Proggen der Shader berücksichtig, ist der Mehraufwand sogar minimal. Zumal die Guidelines der IHV ja sogar sagen: "Best Tool for the job" (OK, ATI geht derzeit einen anderen Weg ;-), sich die Entwickler aber offenbar nicht daran gehalten haben (wenn sie denn die Shader überhaupt selbt programmiert haben ;-).

Zum einen stellst du (durch die Blume) ATI als Technologie bremse hin (seit mehreren Jahren nur PS2.0), anderseits ist die vortschritlichere NV3x Gerneration für durchgäng 2.0 Shader zu langsam und dann willst du noch das auf PS3.0 gesetzt wird aber 2.0 Shader sollte man aus Rücksicht auf den NV3x liber nicht verwenden?Derzeit sind sie sogar in jeder Hinsicht eine Technologie-Bremse... und das sage ich nicht nur durch die Blume. Da bringen sie doch tatsächlich mal ein richtig gutes Produkt (den ur-R300) und ruhen sich seither nur noch darauf aus, da ja selbst der R420 nicht wirklich etwas anderes ist und technologisch noch immer hinter dem NV30 hinterher hinkt.

Und da Du offenbar den Thread hier nicht verfolgt hast, sollte ich lieber nicht auf den Rest des letzten Absatzes eingehen. Lies Dir das nochmal in ruhe durch und formuliere den letzten Absatz neu.
Danke.

Razor

[TMP]Peds X-ing
2004-12-15, 14:31:00
Hi!
Wie kann ich bei dem 3DAnalze nen Programm starten und dem noch zusätzlich Parameter mitgeben, die ich normal an die Verknüpfung hängen würde?
Ich denk da an:
hl2.exe -heapsize 512000 -console -steam
Wie kann ich das machen?

EDIT:
Nochwas ...
Muss ich zusätzlich zum 3DAnalyze noch bei HL2 die PS 2.0 erzwingen?
Und wie groß is der Unterscheid zwischen dem 8.1 und dem 9.0 Pfad bei HL2 (Von der Bildqualität mein ich jetzt)

Jesus
2004-12-15, 21:18:57
Derzeit sind sie sogar in jeder Hinsicht eine Technologie-Bremse... und das sage ich nicht nur durch die Blume. Da bringen sie doch tatsächlich mal ein richtig gutes Produkt (den ur-R300) und ruhen sich seither nur noch darauf aus, da ja selbst der R420 nicht wirklich etwas anderes ist und technologisch noch immer hinter dem NV30 hinterher hinkt.
Razor

Es ist ja schön und gut das der NV3x schon immer dem R3xx/R4xx "technologisch" überlegen war, aber was bringt das wenn diese ganzen netten Featueres (Ultra Shadow, CineFX, FP32 (juhu!) etc... ) NIE genutzt wurden, überhaupt nichts bewirken und auch nie genutzt werden ? Der NV3x war ein Rohrkrepierer und nichts anderes.
Und hätte es keinen R300 gegeben, dann hätten wir jetzt immer noch grösstenteils DX8 Games mit bescheidenen Effekten weil der NV3x einfach zu langsam dafür ist/war.

Was zählt ist letztendlich nur das ganze schnell darzustellen, mit samt allen möglichen Effekten, und da hatte ATI einfach das bessere Eisen im Feuer (und haben sie bisher eigentlich immer noch, trotz "technologischer" Unterlegenheit).

hmx
2004-12-15, 23:26:57
Nö. Ohne den r300 hätte es dann vllt ein anderes DX9 gegeben...

Mr. Lolman
2004-12-15, 23:35:29
Nö. Ohne den r300 hätte es dann vllt ein anderes DX9 gegeben...

...wo der NV35 seine technische Überlegenheit ausspielen hätte können. Falls es eine nutzbare welche gegeben hätte. Denn wo ist die überlegene OpenGL Performance?

Coda
2004-12-15, 23:40:48
...wo der NV35 seine technische Überlegenheit ausspielen hätte können. Falls es eine nutzbare welche gegeben hätte. Denn wo ist die überlegene OpenGL Performance?
NV_fragment_program ist durchaus sehr schnell auf NV3x. ARB_fragment_program rechnet hingegen auch nur mit FP, also ist es auch nicht schneller.
Microsoft hätte es auf jeden Fall nicht das Genick gebrochen einen FX12 Datentyp in PS2.0 aufzunehmen.

r@w
2004-12-17, 12:10:50
Peds X-ing']Hi!
Wie kann ich bei dem 3DAnalze nen Programm starten und dem noch zusätzlich Parameter mitgeben, die ich normal an die Verknüpfung hängen würde?
Ich denk da an:
hl2.exe -heapsize 512000 -console -steam
Wie kann ich das machen?Schreib einfach eine Batch-Datei im Verzeichnis von HL2...

Rechts-Klick -> Neu -> Textdokument
Darin dann die o.g. Zeile schreiben, speichern und in z.Bsp. HL2.BAT umbenennen.
Diese Batch-Datei dann mit dem 3DC aufrufen.

Peds X-ing']EDIT:
Nochwas ...
Muss ich zusätzlich zum 3DAnalyze noch bei HL2 die PS 2.0 erzwingen?
Und wie groß is der Unterscheid zwischen dem 8.1 und dem 9.0 Pfad bei HL2 (Von der Bildqualität mein ich jetzt)Durch den zusätzlichen Parameter "-dxlevel 90" (alternative hier auch 81, 80 oder 70 ;-).

Die Zeile müsste dann also lauten:
hl2.exe -heapsize 512000 -console -steam -dxlevel 90
(die Reihenfolge der Parameter ist unwichtig)

Razor

r@w
2004-12-17, 12:18:49
Es ist ja schön und gut das der NV3x schon immer dem R3xx/R4xx "technologisch" überlegen war, aber was bringt das wenn diese ganzen netten Featueres (Ultra Shadow, CineFX, FP32 (juhu!) etc... ) NIE genutzt wurden, überhaupt nichts bewirken und auch nie genutzt werden ? Entweder kennst Du die von Dir genannten Features nicht oder aber Du redest hier Unsinn.

Sowohl US (1&2), als auch CineFX (Sammelbegriff für die komplette Shader-Engine) und FP32 (=Standard Präzision für DX9 und sogar Voraussetzung für SM3) sind bereits genutzt worden und werden (natürlich) auch weiterhin Anwendung finden.

Und hätte es keinen R300 gegeben, dann hätten wir jetzt immer noch grösstenteils DX8 Games mit bescheidenen Effekten weil der NV3x einfach zu langsam dafür ist/war. Hätte es 'nur' den R300 gegeben, wäre dem sogar ganz sicher so. Denn wenn Du Dir mal die Verkaufszahlen der lieben kleinen FX5200 anschaust, dann wirst Du hoffentlich auch bemerken, warum es schon jetzt DX9-Games gibt... mit der 9200 von ATI wäre das ganz sicher nicht gelungen. Merke: nur die Marktverbreitung einer Technologie entscheidet über deren Unterstützung bei den ISV's.

Was zählt ist letztendlich nur das ganze schnell darzustellen, mit samt allen möglichen Effekten, und da hatte ATI einfach das bessere Eisen im Feuer (und haben sie bisher eigentlich immer noch, trotz "technologischer" Unterlegenheit).Falsch.
Offenbar sind Dir generelle Markt-Gesetzte völlig fremd.

Razor

r@w
2004-12-17, 12:20:49
Nö. Ohne den r300 hätte es dann vllt ein anderes DX9 gegeben...Ganz sicher sogar...
Schließlich entscheidet verfügbare Technologie über einen DX-Techlevel.

...wo der NV35 seine technische Überlegenheit ausspielen hätte können. Ganz genau!
:D

Razor

r@w
2004-12-17, 12:23:14
NV_fragment_program ist durchaus sehr schnell auf NV3x. ARB_fragment_program rechnet hingegen auch nur mit FP, also ist es auch nicht schneller.
Microsoft hätte es auf jeden Fall nicht das Genick gebrochen einen FX12 Datentyp in PS2.0 aufzunehmen....oder FP16 als Minimum für die Präzision zu akzeptieren.

Allerdings wäre ihre 'Rache' an nVidia dann nur halb so süß gewesen und den (für Microsoft) lukrativen Deal für die XBox2 hätte es dann wohl auch nicht gegeben... ;)

Razor

Coda
2004-12-17, 12:35:12
FP16 als Minimum wäre Quatsch, das ist viel zu wenig für manche Sachen.
Ein Wunder-DX9 für den NV3x hätte es auch nicht geben können, die FP Leistung ist nunmal mies. Nur der dass FX12 Datentyp fehlt ist natürlich schlecht.

Allerdings wäre ihre 'Rache' an nVidia dann nur halb so süß gewesen und den (für Microsoft) lukrativen Deal für die XBox2 hätte es dann wohl auch nicht gegeben...
Spekulationen. Ich glaube nicht an solche Verschwörungen, MS wird wohl andere Gründe gehabt haben.
Wenn sie nVidia wirklich was heimzahlen hätten wollen, dann hätten sie auch PP weggelassen und durchgängig mindestens FP24 verlangt.

reunion
2004-12-17, 13:16:01
...oder FP16 als Minimum für die Präzision zu akzeptieren.


Und das FP16 für manche Effekte viel zu wenig ist scheint dich ja nicht zu stören. Einen unterschied zwischen FP24 und FP32 konnte bis jetzt allerdings noch niemand feststellen, sodass M$ AFAIK völlig richtig gehandelt hat.
Für die mieße FP-Performace der NV3x Serie kann einzig und alleine NV etwas und nicht M$.

r@w
2004-12-17, 15:05:57
Spekulationen. Ich glaube nicht an solche Verschwörungen, MS wird wohl andere Gründe gehabt haben.
Wenn sie nVidia wirklich was heimzahlen hätten wollen, dann hätten sie auch PP weggelassen und durchgängig mindestens FP24 verlangt.Was sie ja im Prinzip durch die fehlende Unterstützung in den ersten HLSL-Compilern auch getan haben...
Oder willst Du verneinen, dass das 2.A Compiler-Target erst sehr spät gekommen ist?
(welches ja erstmalig die "Feinheiten" der NV3x-Serie untersützte)

Razor

r@w
2004-12-17, 15:14:55
Und das FP16 für manche Effekte viel zu wenig ist scheint dich ja nicht zu stören. Einen unterschied zwischen FP24 und FP32 konnte bis jetzt allerdings noch niemand feststellen, sodass M$ AFAIK völlig richtig gehandelt hat.Falsch.
Schließlich müssen die ISV's ja ihr Produkt zu den ATI's kompatibel halten.
(welche ja das Minimum für die Unterstützung von DX9 bieten)

Würde es einen Unterschied geben (z.Bsp. Banding), dann wäre das Geschrei groß und der Vorwurf sogar richtig, dass sich ein IHV nicht an die Spezifikationen hält... es sei denn, der ISV schreibt bei seinem Produkt direkt dazu, dass für die korrekte Darstellung eine Präzision von mindestens FP32 erforderlich ist... womit er dann alle ATI's wissentlich ausschließen würde.

Eben analog Valve, wie sie es mit den nVidia's taten und es eben nicht dazu geschrieben haben, dass diese nicht im DX9-Modus arbeiten werden. Schließlich lassen sie den nVidia-Usern ja nicht einmal die Möglichkeit, den Grafik-Modus mit beschriebenen Mitteln umzustellen. Von einer gänzlichen Nicht-Unterstützung eines kompletten IHV's mal ganz abgesehen...

Was meinst Du eigentlich, warum für SM3 eine Präzision von FP32 vorgeschrieben wird?
Weil es keinen Sinn macht?
:confused:

Razor

reunion
2004-12-17, 15:55:08
Was sie ja im Prinzip durch die fehlende Unterstützung in den ersten HLSL-Compilern auch getan haben...
Oder willst Du verneinen, dass das 2.A Compiler-Target erst sehr spät gekommen ist?
(welches ja erstmalig die "Feinheiten" der NV3x-Serie untersützte)

Razor

Schon mal daran gedacht das es daran liegen könnte das auch der erste Chip der Shader 2.A unterstützte sehr spät kam?

reunion
2004-12-17, 16:05:24
Falsch.
Schließlich müssen die ISV's ja ihr Produkt zu den ATI's kompatibel halten.
(welche ja das Minimum für die Unterstützung von DX9 bieten)

Würde es einen Unterschied geben (z.Bsp. Banding), dann wäre das Geschrei groß und der Vorwurf sogar richtig, dass sich ein IHV nicht an die Spezifikationen hält... es sei denn, der ISV schreibt bei seinem Produkt direkt dazu, dass für die korrekte Darstellung eine Präzision von mindestens FP32 erforderlich ist... womit er dann alle ATI's wissentlich ausschließen würde.


Das ist eine Vermutung ohne Beweise, mehr nicht.
Tatsache ist das FP24 bis jetzt in allen Spielen oder Anwendungen die optimale Qualiät bietet was man von FP16 nicht behaupten kann. Deshalb wurde von M$ völlig zurecht FP24 als Minimalvorraussetztungen festgelegt. Aber man hat ja bei Shadern die auch mit weniger auskommen die möglichkeit auf FP16 zurückzugehen.


Eben analog Valve, wie sie es mit den nVidia's taten und es eben nicht dazu geschrieben haben, dass diese nicht im DX9-Modus arbeiten werden. Schließlich lassen sie den nVidia-Usern ja nicht einmal die Möglichkeit, den Grafik-Modus mit beschriebenen Mitteln umzustellen. Von einer gänzlichen Nicht-Unterstützung eines kompletten IHV's mal ganz abgesehen...


Die FXen arbeiten bei HL2 nicht im DX9 Modus weil sie dafür zu langsam sind. Und das liegt weder an M$ noch an Valve sondern einzig und alleine an den Karten selbst.


Was meinst Du eigentlich, warum für SM3 eine Präzision von FP32 vorgeschrieben wird?
Weil es keinen Sinn macht?
:confused:

Razor

Nein, weil SM3.0 wesentlich komplexere Shader ermöglicht für die FP24 offensichtlich nicht ausreicht.

Gast
2004-12-17, 16:17:36
Ich denke man kann es drehen und wenden wie man will,

die ATi´s wären wohl bei Shader-Intensiven Spielen auch mit einem FX-freundlicheren DX9 vorne gelegen.

Allerdings ist es falsch, immer zu behaupten das die FX-Serie eine Fehlentwicklung gewesen sei.
Microsoft ist schließlich schuld daran, daß ca. 50% der Rechenpower (FX12 Rechenwerke) von NVIDIA´s GeforceFX vollkommen brachliegen (Shader 2.0).

Wenn also jemand von einer FX abrät, sollte er so fair sein und auch dazuschreiben, das diese Karte künstlich ausgebremst wird!

LovesuckZ
2004-12-17, 16:33:10
die ATi´s wären wohl bei Shader-Intensiven Spielen auch mit einem FX-freundlicheren DX9 vorne gelegen.


ATi karten koennen keinen "FX-freundlicheren DX9 [Shader]" ausführen.

Crushinator
2004-12-17, 16:38:31
ATi karten koennen keinen "FX-freundlicheren DX9 [Shader]" ausführen. Wie meinst Du das? Reden wir hier von _pp hints oder nicht? Wenn ja, seit wann führen die Radeons keine Shader mit _pp hint mehr aus? :confused: Daß sie _pp einfach ignorieren und mit höherer Präzision rechnen ist mir schon klar.

LovesuckZ
2004-12-17, 16:44:15
Wie meinst Du das? Reden wir hier von _pp hints oder nicht? Wenn ja, seit wann führen die Radeons keine Shader mehr mit _pp hint mehr aus? :confused: Daß sie _pp einfach ignorieren und mit höherer Präzision rechnen ist mir schon klar.

Seit wann sind die _pp hints die einzigen Unterschiede der beiden Architekturen? ;)
Siehe auch tb (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2237212&postcount=42) nach der Frage, ob der R420 das PS2.a profil des Shadermark's 2.1 ausführen koennte.

Jesus
2004-12-17, 16:52:32
Entweder kennst Du die von Dir genannten Features nicht oder aber Du redest hier Unsinn.

Sowohl US (1&2), als auch CineFX (Sammelbegriff für die komplette Shader-Engine) und FP32 (=Standard Präzision für DX9 und sogar Voraussetzung für SM3) sind bereits genutzt worden und werden (natürlich) auch weiterhin Anwendung finden.

ah, ja sehr intressant. Nun, was passiert wenn z.b. FP32 eingesetzt wird haben wir ja jüngst erfahren dürfen.

(btw. "Standard" aka Full Precision ist nicht 32bit, sondern 24 (und aufwärts) ;)


Hätte es 'nur' den R300 gegeben, wäre dem sogar ganz sicher so. Denn wenn Du Dir mal die Verkaufszahlen der lieben kleinen FX5200 anschaust, dann wirst Du hoffentlich auch bemerken, warum es schon jetzt DX9-Games gibt... mit der 9200 von ATI wäre das ganz sicher nicht gelungen. Merke: nur die Marktverbreitung einer Technologie entscheidet über deren Unterstützung bei den ISV's.

logisch, eine Super Lowcost billig Karte die später rauskam als der Ur-R300 und viel zu langsam für jegliches DX9 ist ist also dafür verantwortlich das wir jetzt DX9 Games haben, klar. Ich glaube du hast nicht ganz verstanden was ich geschrieben habe...aber naja.

Crushinator
2004-12-17, 16:54:59
Seit wann sind die _pp hints die einzigen Unterschiede der beiden Architekturen? ;) Du weichst der Fragestellung aus. ;) Hier im Thread geht's worum? Ja, darum daß die Fähigkeiten der FX-Serie nicht genutzt wurden, um eine bessere Performance bei einem DX9-Titel zu ermöglichen. Wenn Du jetzt so freundlich wärst eine weitere Fähigkeit der FX-Serie zu nennen, welche zwingend dazu führen würde, daß die FX-Serie in diesem oder anderen Shaderlastigen (PS2x) mit den vergleichbaren ATi-Karten puncto Geschwindigkeit gleichziehen oder sie überholen würde?
Siehe auch tb (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=2237212&postcount=42) nach der Frage, ob der R420 das PS2.a profil des Shadermark's 2.1 ausführen koennte. Danke, das war mir allerdings bekannt, eben so daß es mind. 5 oder 6 Teile des selbigen Benchmarks mangels Untersützung seitens der technisch oft als überlegen bezeichneten FX-Serie nicht auf dieser ausgeführt werden. Aber auch darum ging's hier glaub' ich nicht. :)

LovesuckZ
2004-12-17, 17:08:28
Wenn Du jetzt so freundlich wärst eine weitere Fähigkeit der FX-Serie zu nennen, welche zwingend dazu führen würde, daß die FX-Serie in diesem oder anderen Shaderlastigen (PS2x) mit den vergleichbaren ATi-Karten
puncto Geschwindigkeit gleichziehen oder sie überholen würde?

Lese dir den Satz des Gastes und meine Reaktion darauf nochmal durch.
Denke über den zitieren Satz hier nach, betrachte das in Zusammenhang mit dem vom Gast und meinen geschriebenen Text und bevor du nochmal darauf eingehst, einen kleinen Blick auf die verlinkte Antwort von tb werfen.


Danke, das war mir allerdings bekannt, eben so daß es mind. 5 oder 6 Teile des selbigen Benchmarks mangels Untersützung seitens der technisch oft als überlegen bezeichneten FX-Serie nicht auf dieser ausgeführt werden. Aber auch darum ging's hier glaub' ich nicht. :)

Welchen Bezug hatte dies auf meine Antwort zum Gast und dem zitierten Text von tb?

Crushinator
2004-12-17, 17:32:00
Lese dir den Satz des Gastes und meine Reaktion darauf nochmal durch. Denke über den zitieren Satz hier nach, betrachte das in Zusammenhang mit dem vom Gast und meinen geschriebenen Text und bevor du nochmal darauf eingehst, einen kleinen Blick auf die verlinkte Antwort von tb werfen. Danke, das habe ich jetzt schon zum zweiten mal getan. Wenn ich das richtig verstehe, schreibt der Gast, daß die besagten ATi-Karten auch dann in solchen Games vorne lägen, wenn man für die FX-Serie zusätzlich _pp hints setzen würde. Ich denke noch dazu, daß selbst ein PS2.a-Pfad und Ausnutzung dieser nicht viel daran ändern würde. Da ich nun aber beim Nachdenken nicht weiterkomme, könntest Du vielleicht erklären, was genau daran nicht stimmen könnte. Zumal ich an keiner der nicht unterstützten Caps (von tb genannten) erkennen konnte, welche von ihnen für die äußerst beschleunigte Ausführung von PS2 (und höheren) Shadern auf der FX-Serie stünden.
Welchen Bezug hatte dies auf meine Antwort zum Gast und dem zitierten Text von tb? Wahrscheinlich einen nebensächlichen?

Jesus
2004-12-17, 17:47:41
Danke, das habe ich jetzt schon zum zweiten mal getan. Wenn ich das richtig verstehe, schreibt der Gast, daß die besagten ATi-Karten auch dann in solchen Games vorne lägen, wenn man für die FX-Serie zusätzlich _pp hints setzen würde. Ich denke noch dazu, daß selbst ein PS2.a-Pfad und Ausnutzung dieser nicht viel daran ändern würde. Da ich nun aber beim Nachdenken nicht weiterkomme, könntest Du vielleicht erklären, was genau daran nicht stimmen könnte. Zumal ich an keiner der nicht unterstützten Caps (von tb genannten) erkennen konnte, welche von ihnen für die äußerst beschleunigte Ausführung von PS2 (und höheren) Shadern auf der FX-Serie stünden.
Wahrscheinlich einen nebensächlichen?

Wenn ich mir diese zusätzlichen Features so ansehe könnte ich mir eher vorstellen dass das noch mehr Performance kosten wird (unlimited dependant reads z.b.), da sie irgendwie auf noch mehr "zu tun" hindeuten ;)
Weiss ich aber nicht mit Sicherheit ;)

Gast
2004-12-17, 17:54:39
Was ist eigentlich nun aus Demirug´s Gedankenspiel geworden, für Half-Life 2 mit den FXen etwas zu basteln?

Oder wurde dies schon verworfen, weil das mit der 3DA Lösung so toll klappt?

Kommt von NVIDIA selbst noch was für die FXen?

Also jetzt wo NV48 und NV50 verworfen wurden, und der nachgeschobene NV47 laut neuester Meldung nicht existiert, der ATi Monsterchip (R520) NVIDIA zurück an die Simulatoren zwingt, könnte doch ein Treiberteam da mal Hand anlegen, sappalot!

LovesuckZ
2004-12-17, 18:08:16
Danke, das habe ich jetzt schon zum zweiten mal getan. Wenn ich das richtig verstehe, schreibt der Gast, daß die besagten ATi-Karten auch dann in solchen Games vorne lägen, wenn man für die FX-Serie zusätzlich _pp hints setzen würde.

Nein: "die ATi´s wären wohl bei Shader-Intensiven Spielen auch mit einem FX-freundlicheren DX9 vorne gelegen."

Ich denke noch dazu, daß selbst ein PS2.a-Pfad und Ausnutzung dieser nicht viel daran ändern würde.

Doch: "ATi karten koennen keinen "FX-freundlicheren DX9 [Shader]" ausführen."

Da ich nun aber beim Nachdenken nicht weiterkomme, könntest Du vielleicht erklären, was genau daran nicht stimmen könnte.

Nein, keine Lust.

Zumal ich an keiner der nicht unterstützten Caps (von tb genannten) erkennen konnte, welche von ihnen für die äußerst beschleunigte Ausführung von PS2 (und höheren) Shadern auf der FX-Serie stünden.


Inwieweit kannst du dann behaupten, "daß selbst ein PS2.a-Pfad und Ausnutzung dieser nicht viel daran ändern würde"?
/edit: Das hier oben stehende ist Müll :ugly:
Daher: Der Gast sagt, dass ein r300 beim Ausführen von einem "FX - freundlichen DX9" schneller waere. Hierfür zaehlt auch das Profil 2.a, was ein r300 wegen den nicht vorhanden Moeglichkeiten nicht ausführen kann.
Und daher: Wie kann also ein r300 schneller sein, wenn er den Shader nicht ausführen kann?

Demirug
2004-12-17, 18:11:25
Ein "FX freundliches DX" wäre ein DX das in Shader >= 2.0 auch noch Festpunktberechnungen erlaubt. Gäbe es ein solches DX und würde Shader entsprechend gebrauch davon machen hätte ein NV30 einen R300 richtig nass gemacht. Es wäre allerdings nach wie vor einfach gewesen einen NV30 alt aussehen zu lassen wenn man Shader wie Valve programmiert.

Crushinator
2004-12-17, 18:24:37
Nein: "die ATi´s wären wohl bei Shader-Intensiven Spielen auch mit einem FX-freundlicheren DX9 vorne gelegen." Also, mit einem DX9, was es nicht gibt? Ähm, ja...
Doch: "ATi karten koennen keinen "FX-freundlicheren DX9 [Shader]" ausführen." Ganz toll, echt. Was soll uns das da weiterbringen, denn es gibt auch Sachen auf der R300 Seite, die die nV30 nicht ausführen können. Stell' Dir mal vor, MRT wäre Bestandteil von SM2 gewesen.
Nein, keine Lust. Das braucht man nicht weiter zu kommentieren, außer daß es dann auch keinen Sinn macht Dein Argumente für eine weitere Disksussion als solches gelten zu lassen.
Inwieweit kannst du dann behaupten, "daß selbst ein PS2.a-Pfad und Ausnutzung dieser nicht viel daran ändern würde"? Weil die Hardware einfach zu wenig Rechenwerke hat für das, was einen PS2 (und höheren) Shader ausmacht.

Crushinator
2004-12-17, 18:26:42
Ein "FX freundliches DX" wäre ein DX das in Shader >= 2.0 auch noch Festpunktberechnungen erlaubt. Gäbe es ein solches DX und würde Shader entsprechend gebrauch davon machen hätte ein NV30 einen R300 richtig nass gemacht. (...) Da es nun derartiges nicht gibt, macht es glaub' ich wenig Sinn sich darüber die Köpfe einzuschlagen.

LovesuckZ
2004-12-17, 18:30:15
Ganz toll, echt. Was soll uns das da weiterbringen, denn es gibt auch Sachen, die die nV30 nicht ausführen können.

Ist es schwer, dass was der Gast schreibt, richtig zu verstehen und dann eventuell auch mit meinem Text in einklang zu bringen?
Anscheinend bist du nur auf Provokation aus. Kein wirkliches Verstaendnis für das, worauf ich mich bezogen habe.
Schade, sowas erwartet man nicht von einem Moderator.

Das braucht man nicht weiter zu kommentieren, außer daß es dann auch keinen Sinn macht Dein Argumente für eine weitere Disksussion als solches gelten zu lassen.

Suggestivfrage.
Ja oder Nein.
Ich kann nichts für deine Frage, also lebe auch mit der Antwort.

Demirug
2004-12-17, 18:37:36
Da es nun derartiges nicht gibt, macht es glaub' ich wenig Sinn sich darüber die Köpfe einzuschlagen.

Die Köpfe soll sich deswegen ja auch keiner einschlagen. Dieser ganze Komplex ist aber IMHO aus inzwischen schon fast Historischer Sicht interesant.

Man könnte das Spiel natürlich noch weiter treiben und jegliche API in dem Gedankenspiel entfernen und versuchen zu bestimmen was man aus dem Chip mit SHD rausholen könnte.

Crushinator
2004-12-17, 18:40:16
Ist es schwer, dass was der Gast schreibt, richtig zu verstehen und dann eventuell auch mit meinem Text in einklang zu bringen?
Anscheinend bist du nur auf Provokation aus. Kein wirkliches Verstaendnis für das, worauf ich mich bezogen habe. Schade, sowas erwartet man nicht von einem Moderator. Wieso provoziere ich, wenn ich eine einfache Frage stelle, welche Du nicht im Kontext sondern mit Ausweichen beantwortest? Provokation war mit Sicherheit nicht meine Absicht, denn ich war nur etwas überrascht, weil ich nicht davon ausging, daß Du eine ganze DX9-Spezifikation meintest, die es nunmal nicht gibt. Mit FX-Freundlicheren [DX9] Shadern (Deine Worte) asoziiere ich nämlich bis heute noch - weil es sie gibt - Shader mit reduzierter Präzision. Alles andere würde sie da noch weiter verlangsamen bzw. nichts drastiges ändern.

Suggestivfrage.
Ja oder Nein.
Ich kann nichts für deine Frage, also lebe auch mit der Antwort. Vielen Dank, auch das hilft nämlich nicht wirklich weiter.

Gast
2004-12-17, 18:40:17
Ein "FX freundliches DX" wäre ein DX das in Shader >= 2.0 auch noch Festpunktberechnungen erlaubt. Gäbe es ein solches DX und würde Shader entsprechend gebrauch davon machen hätte ein NV30 einen R300 richtig nass gemacht. Es wäre allerdings nach wie vor einfach gewesen einen NV30 alt aussehen zu lassen wenn man Shader wie Valve programmiert.

Danke,

das ist genau das was ich meinte, Microsoft hat diesen Shader-Nachteil überhaupt erst verursacht.

Allein schon deshalb ist dieser Thread so wichtig, denn er zeigt bereits Ansätze, wie man die durchaus vorhandene Hardware-Power der FXen für Half-Life 2 besser nutzen kann.

Das eine ATi mit mehr FP - Rohpower nicht überholt werden kann ist hierbei eigentlich gar nicht wichtig. Hier geht es viel eher darum, diese schlechte Ausnutzung von NVIDIA Hardware etwas zu kompensieren!

@Crushinator

Leider hast du Recht, so ein DX gab und gibts nicht.
Aber in der FX steckt mehr als das was uns derzeit geboten wird (z. B. HL2) -das ist nun mal Fakt

Gast
2004-12-17, 18:49:49
Die Köpfe soll sich deswegen ja auch keiner einschlagen. Dieser ganze Komplex ist aber IMHO aus inzwischen schon fast Historischer Sicht interesant.

Man könnte das Spiel natürlich noch weiter treiben und jegliche API in dem Gedankenspiel entfernen und versuchen zu bestimmen was man aus dem Chip mit SHD rausholen könnte.


Oh ja,

wenn die XBOX doch nur einen NV30A hätte, anstelle des NV20A -dann hätte es nicht nur DX9 mit Fixpoint-Berechnungen gegeben, sondern auch mal Entwickler die hätten zeigen können, das es auch mit einem Genauigkeitsmix (FX12/FP16/FP32) schöne Grafiken geben kann!

StefanV
2004-12-17, 19:21:07
Ein "FX freundliches DX" wäre ein DX das in Shader >= 2.0 auch noch Festpunktberechnungen erlaubt. Gäbe es ein solches DX und würde Shader entsprechend gebrauch davon machen hätte ein NV30 einen R300 richtig nass gemacht. Es wäre allerdings nach wie vor einfach gewesen einen NV30 alt aussehen zu lassen wenn man Shader wie Valve programmiert.
Schön, nur hat sich das nV selbst zuzuschreiben, schließlich haben die sich ja auch dazu entschlossen veraltete Festpunkt Einheiten zu verbauen...

Das ATi konsequent auf Fließkomma setzen würde, dürften die eigentlich recht früh gewusst haben, aber sie haben den IBM/Intel Weg versucht und sind entsprechend hart gelandet...

Wie dem auch sei:

Es ist anders gekommen als nV wollte, man konnte die eigene 'Macht' nicht gegen M$ ausspielen, zumal man M$ ja auch leicht verärgert hat...


Allerdings:
Ich denke auch nciht, das so ein DX9 wirklich so viel gebracht hätte, wie du hier vorraussagst, denn dann wären die FX ja auch bei 'DX8 Shadern' in der Lage der R300 davonzuziehen, sind sie aber bekanntlich nicht...

StefanV
2004-12-17, 19:23:59
@Crushinator

Leider hast du Recht, so ein DX gab und gibts nicht.
Aber in der FX steckt mehr als das was uns derzeit geboten wird (z. B. HL2) -das ist nun mal Fakt
Tjo, das zeigt doch nur eins:

Die Analüsten bei nV haben versagt mit ihren 'Vorraussagen' übers Next Gen DX...

Oder anders gesagt:

nV hat sich arg verschätzt, was aber eigentlich abzusehen war...

StefanV
2004-12-17, 19:28:14
Oh ja,

wenn die XBOX doch nur einen NV30A hätte, anstelle des NV20A -dann hätte es nicht nur DX9 mit Fixpoint-Berechnungen gegeben, sondern auch mal Entwickler die hätten zeigen können, das es auch mit einem Genauigkeitsmix (FX12/FP16/FP32) schöne Grafiken geben kann!

Nunja, die Frage wäre doch, was die Progger damit gemacht hätten!!

Einen FX12/FP16/FP32 Mix hätten wir eh nur bei absoluten Top Titeln gesehen und bei Proggern, die nV Fans sind, beim Rest ists unwahrscheinlich, das sie es anders machen als jetzt schon...

So ein DX hätte also nicht wirklich was gebracht, außer das nV bei einigen Titeln schneller wäre als jetzt (btw: warum sind sie dann in OGL nicht schneller, die FXen, als die R300?!)...

Es hätte sich also auf dem Papier viel geändert, in der Praxis sähe es genauso bescheiden aus, wie es mit dem DX9 ausschaut, das uns M$ bescherte und ja, das akutelle dürfte wesentlich sinniger sein als eines mit einem FX12 Mode...

Demirug
2004-12-17, 19:58:31
Allerdings:
Ich denke auch nciht, das so ein DX9 wirklich so viel gebracht hätte, wie du hier vorraussagst, denn dann wären die FX ja auch bei 'DX8 Shadern' in der Lage der R300 davonzuziehen, sind sie aber bekanntlich nicht...

Wenn sie rechenlastig sind geht das auch. Aber versuch mal mit den begrenzten Möglichkeiten von DX8 Shadern rechenlastige Shader zu schreiben.

Quasar
2004-12-17, 20:24:37
Ein "FX freundliches DX" wäre ein DX das in Shader >= 2.0 auch noch Festpunktberechnungen erlaubt. Gäbe es ein solches DX und würde Shader entsprechend gebrauch davon machen hätte ein NV30 einen R300 richtig nass gemacht. Es wäre allerdings nach wie vor einfach gewesen einen NV30 alt aussehen zu lassen wenn man Shader wie Valve programmiert.
IIRC war die R9700p auch in DX8-Titeln (teils deutlich) schneller als der nV30. Oder meintest du die theoretisch zur Verfügung stehende Shaderleistung?

Quasar
2004-12-17, 20:26:46
(btw: warum sind sie dann in OGL nicht schneller, die FXen, als die R300?!)...
Sind sie das nicht des Öfteren? Oder meintest du mit "die FXen" eine FX5200-64Bit?

Demirug
2004-12-17, 20:31:37
IIRC war die R9700p auch in DX8-Titeln (teils deutlich) schneller als der nV30. Oder meintest du die theoretisch zur Verfügung stehende Shaderleistung?

Wie schon gesagt kann man mit den Grenzen die einem 1.X Shader setzten die Rechenleistung eines NV30 gar nicht richtig nutzen.

Quasar
2004-12-17, 20:38:13
Na gut, nehmen wir die entsprechende OpenGL-Extension.

IVN
2004-12-17, 22:52:34
IIRC war die R9700p auch in DX8-Titeln (teils deutlich) schneller als der nV30. Oder meintest du die theoretisch zur Verfügung stehende Shaderleistung?

There is a possibility to make shaders really fast on GF FX.(5600,5700,5800(U) and 5900)-5200 is too slow

For example when you calculate Lighting,it is good to let the Vertex unites do the most work.

The emissive,ambient and diffuse term should be calculated with VSs.And only the specular with the PSs.With lowest possible profile.

That are the circumstantes that nv30 was built for.
Dx9 shader:VS 2.a fp32 and PS FX12 if possible,then FP16,and if even that is not enough you should take FP32.



P.S. You also can make ATI GPUs (from r300 until now) faster by using VSs more then PSs.

StefanV
2004-12-17, 22:59:46
Sind sie das nicht des Öfteren?
Welches OGL Game nutzt denn Shader? ;)

IVN
2004-12-17, 23:02:59
Welches OGL Game nutzt denn Shader? ;)

Doom 3. Fragment and Vertex Program.

aths
2004-12-18, 00:52:20
Du weichst der Fragestellung aus. ;) Hier im Thread geht's worum? Ja, darum daß die Fähigkeiten der FX-Serie nicht genutzt wurden, um eine bessere Performance bei einem DX9-Titel zu ermöglichen. Wenn Du jetzt so freundlich wärst eine weitere Fähigkeit der FX-Serie zu nennen, welche zwingend dazu führen würde, daß die FX-Serie in diesem oder anderen Shaderlastigen (PS2x) mit den vergleichbaren ATi-Karten puncto Geschwindigkeit gleichziehen oder sie überholen würde?Wenn ein Pixelshader häufig SINCOS nutzt, zieht die FX davon.

StefanV
2004-12-18, 00:54:26
Wenn ein Pixelshader häufig SINCOS nutzt, zieht die FX davon.
Wofür braucht man SINCOS?! :| :uponder:

aths
2004-12-18, 01:00:04
Wofür braucht man SINCOS?! :| :uponder:Mal überlegen ... wahrscheinlich immer dann, wenn man Sinus und Cosinus braucht?

StefanV
2004-12-18, 08:07:55
Mal überlegen ... wahrscheinlich immer dann, wenn man Sinus und Cosinus braucht?
Ahja, das hätte ich mir jetzt nicht gedacht, wenn du das nicht gesagt hättest :|

Hast du eventuell auch ein paar Aussagen auf Lager, die man nicht als Spam werten könnte und einen entsprechenden Informationsgehalt enthalten?!

Oder ist das für die Praxis irrelevant und du betreibst hier nur das übliche nV3x gehype?!

Xmas
2004-12-18, 12:17:28
Ahja, das hätte ich mir jetzt nicht gedacht, wenn du das nicht gesagt hättest :|

Hast du eventuell auch ein paar Aussagen auf Lager, die man nicht als Spam werten könnte und einen entsprechenden Informationsgehalt enthalten?!

Oder ist das für die Praxis irrelevant und du betreibst hier nur das übliche nV3x gehype?!
Ich würde eher diesen Beitrag von dir als Spam werten.

StefanV
2004-12-18, 12:26:02
Wie wärs, wenn wir aufhören würden, uns zu kloppen und mal einer sagen würde, was für tolle Dinge man mit der SINCOS Funktion anstellen kannn, alles andere ist irrelevant...

Eigentlich hab ich 'ne brauchbare Antwort erwartet, das SINCOS für Sinus-Cosinus steht, das sollte eigentlich logisch sein, kennt man ja vom Taschenrechner...

LordDeath
2004-12-18, 14:17:11
also wenn jetzt die nv3x karten für jeden shader daraub hin geprüft werden müssen, wie schnell der shader noch mit verschiedenen präsitionen läuft, man wegen den direct x 9 ungeeigneten leistungsreserven und wegen den durch sm2.0 fehlenden programmverzweigungen in dem shadercode ausgeht, kann man doch eigentlich sagen, dass die nv3x für programmierer am lästigsten ist oder? (scheiß langer satz :D)

Jesus
2004-12-18, 14:27:10
wo wir schon beim Thema sind, ist das mglw. auch durch FP16 verursacht ?

http://www.hardocp.com/images/articles/1103052842X79z6hkx1O_5_6_l.jpg

All the Half Life 2 effects were rendered the same between the cards; save for the water banding issue which we discovered here on GeForce 6 series based video cards

oder nur wieder ein "bug" ? ;)

Xmas
2004-12-18, 14:42:59
Wie wärs, wenn wir aufhören würden, uns zu kloppen und mal einer sagen würde, was für tolle Dinge man mit der SINCOS Funktion anstellen kannn, alles andere ist irrelevant...

Eigentlich hab ich 'ne brauchbare Antwort erwartet, das SINCOS für Sinus-Cosinus steht, das sollte eigentlich logisch sein, kennt man ja vom Taschenrechner...
Wenn du Sinus und Cosinus nur vom Taschenrechner her kennst, ist es auch kein Wunder dass du die Antwort nicht verstehst.
http://de.wikipedia.org/wiki/Sinus

Rotation, Dreiecksberechnungen, harmonische Schwingungen, Fourier, komplexe Zahlen... denk dir was aus, die Möglichkeiten werden nur durch die Phantasie des Programmierers begrenzt. Genauso wie bei allen anderen Ops auch.

Xmas
2004-12-18, 14:50:01
wo wir schon beim Thema sind, ist das mglw. auch durch FP16 verursacht ?

http://www.hardocp.com/images/articles/1103052842X79z6hkx1O_5_6_l.jpg



oder nur wieder ein "bug" ? ;)
Wie schön, ein stark komprimiertes JPEG... Welche "water banding issue" ist denn gemeint?

Demirug
2004-12-18, 15:02:00
Wie schön, ein stark komprimiertes JPEG... Welche "water banding issue" ist denn gemeint?

Gute Frage. Vorallem macht es nur begrenzt Sinn von Flächen die sich bewegen Vergleichsbilder zu machen wenn man nicht sicherstellen kann das sie sich in der gleichen Phase befinden.

Zudem scheint auch keinen aufgefallen zu sein das die Radeon da was unterschlägt.

Jesus
2004-12-18, 15:05:52
Wie schön, ein stark komprimiertes JPEG... Welche "water banding issue" ist denn gemeint?

Gute Frage, hier ist der gesamte Test http://www.hardocp.com/article.html?art=NzAwLDEx

There really isn’t much to say about image quality, as we did not notice any differences in shader effects between any of the cards. All we witnessed were some bugs such as water banding on the GeForce 6 series in Half Life 2, but it does not really negatively impact gameplay

scheint wohl dann ein Bug zu sein.

Gute Frage. Vorallem macht es nur begrenzt Sinn von Flächen die sich bewegen Vergleichsbilder zu machen wenn man nicht sicherstellen kann das sie sich in der gleichen Phase befinden.


Ich denke mal man siehts nur in Bewegung ...

Zudem scheint auch keinen aufgefallen zu sein das die Radeon da was unterschlägt.

das wäre ?

Demirug
2004-12-18, 15:23:27
Ich denke mal man siehts nur in Bewegung ...

Was? Banding? Das soillte man auch auf einem Standbild sehen.

das wäre ?

Das was bei ATI merkwürdigerweise öfter mal fehlt.

Xmas
2004-12-18, 15:30:22
Es fehlt der Strauch rechts vom vordersten Holzbalken.

Mr. Lolman
2004-12-18, 15:47:24
Es fehlt der Strauch rechts vom vordersten Holzbalken.

Blöderweise wurde der Screenshot nicht von der selben Position aus aufgenommen.

Xmas
2004-12-18, 16:27:55
Blöderweise wurde der Screenshot nicht von der selben Position aus aufgenommen.
Ich kann die beiden Bilder praktisch deckungsgleich übereinander legen. Dabei ändern sich das Wasser und der Strauch, die Häuser und Bäume sind aber an exakt der gleichen Position.

Mr. Lolman
2004-12-18, 16:37:22
Ich kann die beiden Bilder praktisch deckungsgleich übereinander legen. Dabei ändern sich das Wasser und der Strauch, die Häuser und Bäume sind aber an exakt der gleichen Position.

Tatsächlich. War wol ne optische Täuschng, dass die Hovercraftkufe links nen spitzeren Winkel zum Bildrand bildet, als rechts.

Stellt sich halt nur die Frage wer das LOD falsch berechnet. Es hat ja bei beiden IHVs auch schon in der Nebeldarstellung Ungereimtheiten gegeben.

BTW, gibts von al1asx ne nette config, für deutlich mehr Details, bei kaum vorhandenen Performanceverlust:

jpeg_quality 100
cl_forcepreload 1
sv_forcepreload 1
cl_ragdoll_collide 1
violence_ablood 1 // [0,1] - If set to 1 shows alien blood when they are hit. Disabling this can improve performance but reduce realism.
violence_agibs 1 // [0,1] - If set to 1 shows alien gore when they are hit. Disabling this can improve performance but reduce realism.
violence_hblood 1 // [0,1] - If set to 1 shows human blood when they are hit. Disabling this can improve performance but reduce realism.
violence_hgibs 1 // [0,1] - If set to 1 shows human gore when they are hit. Disabling this can improve performance but reduce realism.
cl_ejectbrass 1
cl_show_bloodspray 1
r_drawflecks 1
r_DrawRain 1
r_dynamic 1
r_lod -8 // (default -1, -8=maximum level of details)
cl_maxrenderable_dist 8000 // (default glaube 1800)
cl_detaildist 8000 // Details wie Gras, Entfernung (default 1200)
cl_detailfade 1900 // Übergang von kein Gras zu voll sichtbarem Gras (8000 - 8000, default 800)
r_maxmodeldecal 50 // höchste Anzahl an Decals auf Models (alle Einsc

Quasar
2004-12-18, 18:45:11
Tatsächlich. War wol ne optische Täuschng, dass die Hovercraftkufe links nen spitzeren Winkel zum Bildrand bildet, als rechts.

Stellt sich halt nur die Frage wer das LOD falsch berechnet. Es hat ja bei beiden IHVs auch schon in der Nebeldarstellung Ungereimtheiten gegeben.


LOD? Das, mit dem der Strauch weggeschnipselt würde? Ja, die Frage stellt sich...

Und ebenfalls, wie solche Sträucher erzeugt werden - Alpha-....?

edit:
Das Banding auf der GF ist horizontal. Von der linken Seite der GF-Hälfte des Bildes sind zwei Bänder erkennbar...

r@h
2004-12-19, 05:28:32
Schon mal daran gedacht das es daran liegen könnte das auch der erste Chip der Shader 2.A unterstützte sehr spät kam?Sehr spät in Relation zur Verfügbarkeit des Chips/der Karten.

Da hatte ich wohl zuviel voraus gesetzt, insofern sorry, dass ich es für Dich nicht dazu geschrieben habe...
;)

Das ist eine Vermutung ohne Beweise, mehr nicht.
Tatsache ist das FP24 bis jetzt in allen Spielen oder Anwendungen die optimale Qualiät bietet was man von FP16 nicht behaupten kann. Deshalb wurde von M$ völlig zurecht FP24 als Minimalvorraussetztungen festgelegt. Aber man hat ja bei Shadern die auch mit weniger auskommen die möglichkeit auf FP16 zurückzugehen.Keine Vermutung, Fakt.
Und M$ hat ausschießlich wegen ATI die Minimal-Präzision auf FP24 gestezt...

Die FXen arbeiten bei HL2 nicht im DX9 Modus weil sie dafür zu langsam sind. Und das liegt weder an M$ noch an Valve sondern einzig und alleine an den Karten selbst.Die FX'en arbeiten nicht im DX9-Modus, weil ATI und Valve es so wollten.

Nein, weil SM3.0 wesentlich komplexere Shader ermöglicht für die FP24 offensichtlich nicht ausreicht.Wieso?

Bisher gabe es reine Perfromance-Gründe für SM3. Warst Du es nicht, der dieses Zeug so behauptete? Jetzt kommt Valve mit HL2 und schon dreht sich das Fähnchen wieder im Winde... ja was denn nun?

Wenn FP24 für SM2 ausreicht, dann tut es das auch (nach Deiner Interpretation !) für SM3.
Also was jetzt?
:confused:

Razor

r@h
2004-12-19, 05:33:54
ah, ja sehr intressant. Nun, was passiert wenn z.b. FP32 eingesetzt wird haben wir ja jüngst erfahren dürfen.

(btw. "Standard" aka Full Precision ist nicht 32bit, sondern 24 (und aufwärts) ;)Stimmt, die 68'er performen wunderbarst...
Und nein, die "Standard aka Full Precision" ist für die nVidias FP32.
:)

logisch, eine Super Lowcost billig Karte die später rauskam als der Ur-R300 und viel zu langsam für jegliches DX9 ist ist also dafür verantwortlich das wir jetzt DX9 Games haben, klar. Ich glaube du hast nicht ganz verstanden was ich geschrieben habe...aber naja.Du hast es doch ganz hervorragend rezitiert...
...wenn auch bezüglich fer FX5200-Performance falsch.

Was genau verstehst Du daran nicht?
Kann ich Dir helfen?

Razor

r@w
2004-12-19, 05:39:03
Also jetzt wo NV48 und NV50 verworfen wurden, und der nachgeschobene NV47 laut neuester Meldung nicht existiert, der ATi Monsterchip (R520) NVIDIA zurück an die Simulatoren zwingt, könnte doch ein Treiberteam da mal Hand anlegen, sappalot!Ui... so viele Spekulationen auf einmal...
Husch, husch ins Speku-Forum!
:D

Razor

r@h
2004-12-19, 06:00:54
Schön, nur hat sich das nV selbst zuzuschreiben, schließlich haben die sich ja auch dazu entschlossen veraltete Festpunkt Einheiten zu verbauen...

Das ATi konsequent auf Fließkomma setzen würde, dürften die eigentlich recht früh gewusst haben, aber sie haben den IBM/Intel Weg versucht und sind entsprechend hart gelandet...

Es ist anders gekommen als nV wollte, man konnte die eigene 'Macht' nicht gegen M$ ausspielen, zumal man M$ ja auch leicht verärgert hat...Da ist gleich so dermaßen viel falsch dran', dass es schon fast weh tut. Insofern waren die "Festpunkt Einheiten" nicht nur nicht veraltet, sondern sogar Bestandteil der DX9-Spezifikationen, als die Grundkonzeption der NV3x-Architektur gelegt wurde.

Ohne eine Unterstütung in DX9 hätten diese gar keinen Sinn gemacht, weil ja zusätzlich eine durchgehende (!) FP16-Architektur implementiert wurde. Dass allerdings M$ 'einfach so' die Spezifikation zum Nachteil von nVidia ändern würde, hatten sie nicht voraussehen können. Um den 'Schaden' zu begrenzen, konnte beides (Entfernen der FX-Einheiten, Verdopplung der FP-Einheiten) erst in einem weiteren Release ihrer GPU's (NV35+) realisiert werden. Sicher hat dieses die Problematik nicht ganz aufheben können, aber zumindest wurde der darurch erzielte und wohl auch erwünschte Effekt (seitens ATI und M$) etwas abgemildert...

Razor

r@h
2004-12-19, 06:07:00
Oh mann, Stefan, da sieht man recht deutlich, welch geistig Kind Du bist...
Wofür braucht man SINCOS?! :| :uponder:Mal überlegen ... wahrscheinlich immer dann, wenn man Sinus und Cosinus braucht?Ahja, das hätte ich mir jetzt nicht gedacht, wenn du das nicht gesagt hättest :|

Hast du eventuell auch ein paar Aussagen auf Lager, die man nicht als Spam werten könnte und einen entsprechenden Informationsgehalt enthalten?!

Oder ist das für die Praxis irrelevant und du betreibst hier nur das übliche nV3x gehype?!Sinus und Cosinus braucht man eigentlich IMMER, wenn man Rundungen jeglicher Art berechnen möchte. Und da Du dieses vermutlich weißt, ist Deine Antwort noch unverständlicher. Könntest Du also mal erklären, wieso DU hier herum spamst?

Razor

r@w
2004-12-19, 06:10:39
also wenn jetzt die nv3x karten für jeden shader daraub hin geprüft werden müssen, wie schnell der shader noch mit verschiedenen präsitionen läuft, man wegen den direct x 9 ungeeigneten leistungsreserven und wegen den durch sm2.0 fehlenden programmverzweigungen in dem shadercode ausgeht, kann man doch eigentlich sagen, dass die nv3x für programmierer am lästigsten ist oder? (scheiß langer satz :D)Nein, um Berechnungen durchführen zu können, muss man sich überlegen, in welchem Werteraum man sich befindet, um das Ergebnis korrekt zu interpretieren, bzw. sicher zu stellen, dass dieses nicht durch Rundungsfehler verfälscht wird. Dies muss man auch machen, wenn man sich Berechnungen für FP32 überlegt... grundlegende Mathematik als Voraussetzung für komplexe Berechnungen.

Hat im Prinzip eigentlich nichts mit Grafik zu tun...

Razor

r@h
2004-12-19, 08:12:28
Ein "FX freundliches DX" wäre ein DX das in Shader >= 2.0 auch noch Festpunktberechnungen erlaubt. Gäbe es ein solches DX und würde Shader entsprechend gebrauch davon machen hätte ein NV30 einen R300 richtig nass gemacht. Es wäre allerdings nach wie vor einfach gewesen einen NV30 alt aussehen zu lassen wenn man Shader wie Valve programmiert.Da es nun derartiges nicht gibt, macht es glaub' ich wenig Sinn sich darüber die Köpfe einzuschlagen.Sag mal Crushi, was genau hast Du daran jetzt nicht verstanden?

Selbst wenn es ein solches DX gegeben hätte und Volave solche Shader programmierten, wie sie es taten (Annahme und Faktum)... selbst dann hätten sie einen NV30 richtig alt aussehen lassen.

Das impliziert eindeutig eine absolut einseitige Optimierung auf eine einzelne Architektur eines IHVs. Und wenn man jetzt nach hinzu setzt, dass sowohl das Render-Target (sprich PS2.0 und nicht PS2.A) und auch die Engine-Konfiguration (lt. Demirug) als "ATI-freundlich" anzusehen ist, dann haben ATI und Valve wirklich ALLES getan, um ihre Intention durchzusetzen. Hätte man in dieser Weise auf die FX'en hin optimiert (wäre also um einiges weiter gegangen, als bei Doom3!), würde das Ganze im besten Fall schlechter auf den ATI's laufen und im schlechtesten Fall gar nicht (insofern die ATI's auf den DX8-Pfad gezwungen werden).

Ich hoffe, Du siehst die Analogie und ich muss nicht noch weiter ausholen, um diese Dir und anderen näher zu bringen.

Razor

r@h
2004-12-19, 08:12:47
Wenn ich das richtig verstehe, schreibt der Gast, daß die besagten ATi-Karten auch dann in solchen Games vorne lägen, wenn man für die FX-Serie zusätzlich _pp hints setzen würde. Ich denke noch dazu, daß selbst ein PS2.a-Pfad und Ausnutzung dieser nicht viel daran ändern würde. Und wie kommst Du darauf, dass es an der Unspielbarkeit des DX9-Modus auf den FX'en nichts geändert hätte?
DARUM geht es hier... und nicht darum, dass eine FX eine ATI in HL2 überholt...

Razor

r@h
2004-12-19, 08:13:56
edit:
Das Banding auf der GF ist horizontal. Von der linken Seite der GF-Hälfte des Bildes sind zwei Bänder erkennbar...Kannst Du mir mal zeigen, wo Du das nur bei dem NV40 erkennbare Banding siehst?

Also die Bilder selbst sind um etwa 2 Pixel versetzt, insofern ein 100%-Vergleich unmöglich ist (allein schon die starke Komprimierung und auch des fehlende Save-Game ist 'unschön'). Desweiteren meine ich ein vertikales (von oben nach unten laufendes) "Banding" zu erkennen, was aber auf beiden Karten vorhanden ist, nur auf dem NV40 stärker ausgeprägt zu sein scheint. Habe das selber näherungsweise nachgestellt und so festgestellt, dass es auch auf der R9800p vorhanden ist.

Auf jeden Fall scheinen diese Screenshots NICHT das "banding issue" eines NV40 aufzuzeigen, insofern mich mal eine nähere Erklärung seitens HOCP mal interessieren würde.

Razor

r@h
2004-12-19, 09:15:59
Nachtrag:

Stellt man die Reflektionen auf "All", dann ist die Ausprägung des vertikalen 'Bandings' sogar 100%'ig identisch, also weit weniger stark auf dem NV40 ausgeprägt, als mit "World". Dürfte auch der Grund gewesen sein, warum mir das bis dato nicht aufgefallen ist...

Eine Folge der höheren Präzision des NV40, der bei Konzeption der Shader nicht bedacht wurde?
Kann ja eigentlich gar nicht sein, oder?
Hmmm...

Und dann noch die 'Regelmäßigkeit' des 'Bandings'... die auch verwundert.
Überhaupt ist das kein 'Banding' im herkömmlichen Sinne, sondern einfach nur eine regelmäßige 'Abgrenzung' zwischen vertikalen Bildstreifen gleicher Bildqualität.

Razor

reunion
2004-12-19, 13:09:27
Keine Vermutung, Fakt.
Und M$ hat ausschießlich wegen ATI die Minimal-Präzision auf FP24 gestezt...


Die minimalpräzison ist FP16 (falls der Entwickler das als außreichend erachtet) Und das wurde übrigens ausschließlich wegen Nv eingeführt, hätte M$ wirklich wie von dir behauptet Nv absichtlich benachteiligt hätte man wohl kaum diesen "Fallbackmodus" hinzugefügt. Fixpunktberechnungen wollte M$ offensichtlich nicht mehr in DX9.

Ohne ATI hätte M$ die "volle Präzison" vermutlich auf FP32 angehoben mit der möglichkeit auf FP16 zurückzugehen falls ausreichend. Was ändert das für die NV-Karten? Genau, gar nichts.


Die FX'en arbeiten nicht im DX9-Modus, weil ATI und Valve es so wollten.


Spekulation


Wieso?

Bisher gabe es reine Perfromance-Gründe für SM3. Warst Du es nicht, der dieses Zeug so behauptete?


Nein, definitiv nicht.


Wenn FP24 für SM2 ausreicht, dann tut es das auch (nach Deiner Interpretation !) für SM3.
Also was jetzt?
:confused:

Razor

Sm3.0 erlaubt Shader mit über 32K Anweisungen, das da FP24 schon manchmal zu wenig sein kann sollte klar sein, für SM2.X mit max. 512 Anweisungen ist FP24 offennbar außreichend.

reunion
2004-12-19, 13:26:45
Sag mal Crushi, was genau hast Du daran jetzt nicht verstanden?

Selbst wenn es ein solches DX gegeben hätte und Volave solche Shader programmierten, wie sie es taten (Annahme und Faktum)... selbst dann hätten sie einen NV30 richtig alt aussehen lassen.

Das impliziert eindeutig eine absolut einseitige Optimierung auf eine einzelne Architektur eines IHVs. Und wenn man jetzt nach hinzu setzt, dass sowohl das Render-Target (sprich PS2.0 und nicht PS2.A) und auch die Engine-Konfiguration (lt. Demirug) als "ATI-freundlich" anzusehen ist, dann haben ATI und Valve wirklich ALLES getan, um ihre Intention durchzusetzen. Hätte man in dieser Weise auf die FX'en hin optimiert (wäre also um einiges weiter gegangen, als bei Doom3!), würde das Ganze im besten Fall schlechter auf den ATI's laufen und im schlechtesten Fall gar nicht (insofern die ATI's auf den DX8-Pfad gezwungen werden).

Ich hoffe, Du siehst die Analogie und ich muss nicht noch weiter ausholen, um diese Dir und anderen näher zu bringen.

Razor


Ich halte nichts von solchen verschwörungstheorien. Letztendlich bleibt die Erkenntnis das die R(V)3xx Karten jeden Shader mit volle Präzision außreichend schnell berechnen können, während die NV3x Karten für jeden Shader spezielle optimierungen benötigen um nicht total unterzugehen.

Demirug
2004-12-19, 13:31:40
Sm3.0 erlaubt Shader mit über 32K Anweisungen, das da FP24 schon manchmal zu wenig sein kann sollte klar sein, für SM2.X mit max. 512 Anweisungen ist FP24 offennbar außreichend.

Nein, es reicht nicht. Epic ist schon bei ~150 Anweisungen an einer Grenze angekommen wo FP24 zu sichtbaren (wenn auch noch leicht) Artekfakten führt.

Das man für SM3 jetzt FP32 als Minimum festgelegt hat dürfte daran liegen das jeder IHV eben zugesagt hat das seine SM3 Lösung auch FP32 beherscht. So wie noch ein paar andere Dinge in dem SM3 Paket gelanden sind weil die IHVs es eben so zugesagt haben. So eben auch das GI welches aus ähnlichen Gründen kein Capsbit bekommen hat sondern mit SM3 verbunden wurde.

Letzten Endes stellt jede DX-Spec und jedes SM ja sowieso nur die Schnittmenge da welche alle IHVs zu erfüllen bereit sind. Wenn ATI eben nicht mehr als FP24 machen wollte was soll den MS dann tun?

Das war doch schon bei DX8 nicht anders. 3dfx hat bestimmte Rechenops nicht untestützt aber konnte 8 Texturen pro Pass. nVidia konnte die Rechenops aber eben nur 4 Texturen. Die Schnittmenge für 1.0 waren dann halt 4 Texturen bei einer begrenzten Auswahl an Rechenops.

StefanV
2004-12-19, 13:37:01
Die FX'en arbeiten nicht im DX9-Modus, weil ATI und Valve es so wollten.

1. warum sollten die FXen im DX9 Mode Arbeiten?!
Damit der letzte n00b kapiert, das die unter DX9 Mist sind und sogar von einer lahmen X300 (SE) geplättet werden?!
Was glaubst du, was die Folge (in Amiland z.B.) wäre, wenn das so gewesen wäre?!
Wäre es nicht Möglich, das das ein Fall für die Gerichte wäre?!

2. was macht dich so sicher, das es die beiden und Nicht nV sind, die das 'entschieden' haben?!
Überwiegen die Vorteile vom DX8 Mode auf den FXen nicht gegenüber dem DX9 Mode?!

Jesus
2004-12-19, 13:43:51
Kannst Du mir mal zeigen, wo Du das nur bei dem NV40 erkennbare Banding siehst?

Also die Bilder selbst sind um etwa 2 Pixel versetzt, insofern ein 100%-Vergleich unmöglich ist (allein schon die starke Komprimierung und auch des fehlende Save-Game ist 'unschön'). Desweiteren meine ich ein vertikales (von oben nach unten laufendes) "Banding" zu erkennen, was aber auf beiden Karten vorhanden ist, nur auf dem NV40 stärker ausgeprägt zu sein scheint. Habe das selber näherungsweise nachgestellt und so festgestellt, dass es auch auf der R9800p vorhanden ist.

Auf jeden Fall scheinen diese Screenshots NICHT das "banding issue" eines NV40 aufzuzeigen, insofern mich mal eine nähere Erklärung seitens HOCP mal interessieren würde.

Razor

Ehm, Razor, du hast aber gelesen ,das [H] das explizit auf dem NV40 beobachtet hat und nicht auf der ATI Karte, oder ? Toll dass du jetzt wieder versuchst einen "Gleichstand" herzustellen, indem du irgendwelche Behauptungen aufstellst und Sachen siehst du kein anderer sehen kann...

Coda
2004-12-19, 13:57:42
Ich habe auch kein Banding aufm Wasser gesehen bei mir, und sowas fällt mir definitiv auf :rolleyes:

r@h
2004-12-19, 20:13:59
Ich habe auch kein Banding aufm Wasser gesehen bei mir, und sowas fällt mir definitiv auf :rolleyes:Mir auch...
Aber ich bin mir bei weitem nicht sicher, ob wir hier über das Gleiche reden.

Horizontales 'Banding' gibt es weder auf er FX, noch auf der 6800. Selbstredend auch nicht auf der ATI. Vertikales Banding gibt es bei mir hingegen auf allen Karten... je nach Situation mehr oder weniger stark ausgeprägt. So sind bei der 6800 recht starke 'Kanten' (eigentliches Banding ist es nicht) zu sehen, wenn man "reflect world" auswählt. Bei der R9800p ist dieser Effekt nicht so ausgeprägt, aber vorhanden. Wähle ich hingegen "Reflect World", gibt es KEINEN Unterschied zwischen 6800 und R9800p (beide zeigen 'leichte' vertikale 'Kanten').

Keine Ahnung, warum das so ist, oder ob das von HOCP gemeint war. Schade nur, dass die Schnuller hier (die 'üblichen' Verdächtigen halt ;-) nicht an einer Auflösung oder Darlegung dessen interessiert sind, sondern hier nur in der Gegend rum hupen und offenbar rein gar nichts beizutragen haben. Ich bin nicht einmal sicher, ob sie das, was ich schrieb, überhaupt verstanden haben... aber sei's drum.

Wenn hier jemand ernsthaft interessiert ist und auch eigene Beispiele bringt, ohne hier blöd in der Gegend rum zu plappern, werde ich das Meinige tun, den Hintergrund hierfür aufzuklären.

Interessieren würde mich aber schon, was HOCP unter 'Banding' versteht.
Ich verstehe darunter horizontale, harte Übergänge von einer zur nächsten Quali-Stufe (jetzt sehr verienfacht ausgedrückt).

Razor

P.S.: die 'Schnuller' sollten sich nicht wundern, wenn ich auf deren Posts nicht reagiere... ;)

Jesus
2004-12-19, 20:28:36
P.S.: die 'Schnuller' sollten sich nicht wundern, wenn ich auf deren Posts nicht reagiere... ;)

Ist auch besser so. Noch besser wäre allerdings du würdest vielen hier mal einen Gefallen tun und dich endlich mal einloggen, dann müsste man auch gar nicht erst auf sowas reagieren, denn dafür gibt es die Ignore Liste ;)

Coda
2004-12-19, 21:32:37
Gut, dann mach ich mal bei mir nen Screenshot von ner Wasserfläche, vielleicht kann mir dann einer sagen was für Banding ihr meint...

So fertig:
Kein AF: http://home.arcor.de/aexorzist/hl2water1.png
16xAF: http://home.arcor.de/aexorzist/hl2water2.png

r@h
2004-12-20, 07:48:00
Gut, dann mach ich mal bei mir nen Screenshot von ner Wasserfläche, vielleicht kann mir dann einer sagen was für Banding ihr meint...

So fertig:
Kein AF: http://home.arcor.de/aexorzist/hl2water1.png
16xAF: http://home.arcor.de/aexorzist/hl2water2.pngHabe mir mal Deinen Shot ohne AF gegriffen und mal eingezeichnet, was ich mit "vertikalem Banding" meine, was nach der Definition von "Banding" eigentlich keines ist, sodern vielmehr eine art horizontale 'Kante' zwischen Bildstreifen gleicher Qualität zeigt. Also bitte in Pfeilrichtung folgen und etwas länger hinschaun'... ;)

Und: bei "reflect all" ist dieser Effekt eigentlich nicht/kaum wahrnehmbar (je nach Fähigkeit ;-), bei "refelct world" hingegen schon recht deutlich (eine entsprechende Auflösung voraus gesetzt ;-).

Horizontales "Banding" im klassischen Sinne kann allerdings auch ich nicht beobachten und wäre hier sehr an weiteren Informationen interessiert.

Razor

P.S.: ach ja, das Bild:

http://mitglied.lycos.de/razor3dc/pics/hl2water1_mod.jpg (http://mitglied.lycos.de/razor3dc/pics/hl2water1_mod.png)

r@h
2004-12-20, 07:51:23
@Jesus

Schade, dass man als 'Unreg' solche Posts wie die Deinigen nicht melden kann... :)

q@w
2004-12-20, 14:04:01
Aber als Reg kann man. Allein - es scheint so ein netter Ton seitens der Moderation akzeptiert zu sein (oder sie sitzen seit gestern Abend <22:00 Uhr herum und beratschlagen).

TobiWahnKenobi
2004-12-20, 14:39:09
moinsen,

ich hatte die gelegenheit das jetzt auch mal auszutesten und muss sagen:

schade dass ich die defizite bei DX9 eingestehen muss. es sieht unter DX9
wirklich besser aus und läuft messbar schlechter.. wenn man so spielen will, muss man aber den framecounter ausschalten. 40fps wirken psychologisch schon recht unflüssig, obwohl 40 schon ein geringer wert ist. in anderen szenen waren höhere fps zu sehen, aber das savegame ist nunmal an einer 40fps stelle.

FX5950Pro 128MB
1024x768 4fachAA / 8fach AF Reflect all, alle Effekte aktiviert, vsync aus:

DX8
http://home.t-online.de/home/TobiWahnKenobi/PICTURES/HL2vergleich/HL2-DX8-1024-4xAA-8xAF-OCed.jpg
DX9
http://home.t-online.de/home/TobiWahnKenobi/PICTURES/HL2vergleich/HL2-1024-DX9-3DA-%204xAA-8xAF.jpg

tja, schade popade.. eigentlich ärgert es mich, dass ich es überhaupt versucht habe. war irgendwie ein schlag ans maul.

greets
tobi

r@h
2004-12-22, 19:15:57
moinsen,

ich hatte die gelegenheit das jetzt auch mal auszutesten und muss sagen:

schade dass ich die defizite bei DX9 eingestehen muss. es sieht unter DX9
wirklich besser aus und läuft messbar schlechter.. wenn man so spielen will, muss man aber den framecounter ausschalten. 40fps wirken psychologisch schon recht unflüssig, obwohl 40 schon ein geringer wert ist. in anderen szenen waren höhere fps zu sehen, aber das savegame ist nunmal an einer 40fps stelle.

FX5950Pro 128MB
1024x768 4fachAA / 8fach AF Reflect all, alle Effekte aktiviert, vsync aus:

DX8
http://home.t-online.de/home/TobiWahnKenobi/PICTURES/HL2vergleich/HL2-DX8-1024-4xAA-8xAF-OCed.jpg
DX9
http://home.t-online.de/home/TobiWahnKenobi/PICTURES/HL2vergleich/HL2-1024-DX9-3DA-%204xAA-8xAF.jpg

tja, schade popade.. eigentlich ärgert es mich, dass ich es überhaupt versucht habe. war irgendwie ein schlag ans maul.Jo, das fand ich auch...
Und war auch sicher so von Valve/ATI beabischtigt!

Deswegen ja auch die Diskussion hier, um pp-Hints (FP16) und einen schon fertigen NV3x-Pfad, der offenbar von Valve vor Release von HL2 wieder entfernt wurde.

Vielleicht verstehst Du jetzt das Engagement einiger Poster hier... ;)

Razor

Jesus
2004-12-22, 22:49:57
Jo, das fand ich auch...
Und war auch sicher so von Valve/ATI beabischtigt!

Deswegen ja auch die Diskussion hier, um pp-Hints (FP16) und einen schon fertigen NV3x-Pfad, der offenbar von Valve vor Release von HL2 wieder entfernt wurde.

Vielleicht verstehst Du jetzt das Engagement einiger Poster hier... ;)

Razor

Alles was ich fett markiert habe ist reine Spekulation, aber irgendwie drehen wir uns hier auch langsam im Kreis.

Übrigens ich kann in meinem Post von da oben keine Beleidigungen oder direkten Anfeindungen entdecken, wie bspw. in dem darüber (oder vielen anderen). Betrachte es einfach als freundlichen Wink mit dem Zaunpfahl :wink:
Oh, und das mit dem Melden ist wirklich sehr einfach, wie Quasar auch schon so schön erkannt hat - man muss sich nur ..... hmpf :rolleyes:

IVN
2004-12-22, 23:24:22
Well,i could make some FX friendly shaders with CG,but HL2 wont use them becouse it has it's own shader file format. :(

r@h
2004-12-23, 05:39:39
Alles was ich fett markiert habe ist reine Spekulation, aber irgendwie drehen wir uns hier auch langsam im Kreis.Nein, ist es nicht, da alles dafür spricht (bezogen auf die 'intensive' und zusätzlich monetär unterstützte Zusammenarbeit von ATI und Valve ;-). Das mit den NV3x-Pfad ist Fakt und kann im Prinzip von jedem mit mein bissel 'Engagemant' nachvollzogen werden...

Dass Du (und andere ATI-User) es gerne anders sehen möchtet, ist schon klar.
Nur sollte man ob der eigenen Vorlieben immer noch ein wenig Objektivität walten lassen.
Ich weiß, dass dies schwer ist...
:D

Razor

TobiWahnKenobi
2004-12-26, 12:48:57
warum sollte man überhaupt auf die idee kommen, da was zu erzwingen.
für die meisten ist der aufwand zu umständlich und sicher verliert man mit erzwungenen 16bit, frames und hier und da die bildqulität..

das wasser sieht bei mir (jetzt) in DX8 und DX9 gleich aus. nur läuft das spiel
unter DX8 einfach schneller, so dass ich überhaupt keinen grund mehr, für tweakerei mit DX9, sehe.

nochmal zum vergleich:

1024x768, Pure DX9, 4xAA, 8xAF
http://home.t-online.de/home/TobiWahnKenobi/PICTURES/HL2vergleich/HL2-1024-DX9-3DA-%202xAA-8xAF.jpg

1024x768, DX8 mit Watermod, 4xAA, 8xAF
http://home.t-online.de/home/TobiWahnKenobi/PICTURES/HL2vergleich/HL2%20DX8%201024x768%204xAA-8xAF%20wm.jpg

wenn ich es spielen würde, würde ich es unter DX8 spielen und den watermod installieren.

mfg
tobi

Jesus
2004-12-26, 14:10:23
:rolleyes:

Ganz gleich würde ich nicht sagen. Bei dem Mod fehlt so viel ich sehe (u.a.z.b.) der/die weiche( n ) Übergangsshader vom Wasser auf Land.

Edit: sorry ne falsches Bild angeschaut :)

MechWOLLIer
2004-12-26, 18:35:20
:rolleyes:
Ganz gleich würde ich nicht sagen. Bei dem Mod fehlt so viel ich sehe (u.a.z.b.) der/die weiche( n ) Übergangsshader vom Wasser auf Land.

Die Bilder sind trotzdem nicht identisch.
Das Bild mit DX9 hat im Gegensatz zu dem DX8 Bild mit Mod genauere Schattenverläufe auf dem Wasser.

LordDeath
2004-12-26, 18:38:11
Die Bilder sind trotzdem nicht identisch.
Das Bild mit DX9 hat im Gegensatz zu dem DX8 Bild mit Mod genauere Schattenverläufe auf dem Wasser.

das ist ja das problem: das wasser bewegt sich und solange niemand da gleiche tool benutzt wie demirug, um die gleiche szene dazustellen, kann man so einen genauen vergleich nicht ziehen!

Demirug
2004-12-26, 18:42:41
das ist ja das problem: das wasser bewegt sich und solange niemand da gleiche tool benutzt wie demirug, um die gleiche szene dazustellen, kann man so einen genauen vergleich nicht ziehen!

Bei unterschiedlichen Pfaden bin ich aber auch machtlos. Ich kann lediglich beim gleichen Pfad die Shader verändern. Nur dürfte sich von DX8 auf DX9 eben mehr als nur die Shader verändern.

LordDeath
2004-12-26, 19:49:59
wäre dann nicht die einzige sinnvolle vergleichsmöglichkeit zwei gleich lange videos mit der selben timedemo?

Demirug
2004-12-26, 19:55:02
wäre dann nicht die einzige sinnvolle vergleichsmöglichkeit zwei gleich lange videos mit der selben timedemo?

Bezüglich der Timedemos bin ich noch am experimentieren in wie weit diese überhaupt identische Ergebnisse liefern können.

Gast
2004-12-27, 02:09:36
Hat eigentlich schon jemand den Link für tolles DX8.0 /DX8.1 Wasser verlinkt?

Ich hätte diese zwei hier gefunden...

http://www.fileplanet.com/148304/140000/fileinfo/Half-Life-2---DirectX-8-Water-Reflection-Mod

http://discuss.futuremark.com/forum/showflat.pl?Board=gaminggeneral&Number=4676855

Bei letzterem Link wird dies sogar für Besitzer einer GeForce FX dem 3D Analyze Trick (DX9 FP16) vorgezogen.

Jetzt wo das Wasser so gut wie identisch ist (DX8/8.1 vs. DX9) kann ich gut und gerne auf den nichtoptimierten DX9 Modus verzichten.

Vielen Dank an den Author: JoshuaC

TobiWahnKenobi
2004-12-27, 12:10:28
genau meine einstellung. noch weiter drüber zu spekulieren und zu diskuttieren, ist überflüssig.

der optische eindruck ist jetzt in ordnung. die framerate unter DX8 ist sowieso ungleich schneller, zu DX9..

also: wayne?

klar, dass man den 3DA jetzt nicht mehr benötigt.

die files habe ich auf meiner site mit eingebettet. liegen also dort, wo auch die biosfiles rumdüsen.

mfg
tobi

Grestorn
2004-12-27, 17:12:55
genau meine einstellung. noch weiter drüber zu spekulieren und zu diskuttieren, ist überflüssig.Die Frage, die man sich dennoch stellen muss, ist warum es erst einen User-Mod braucht, um im DX8.1 Modus diese Qualität zu erhalten. Technische Gründe kanns ja wohl nicht geben.

Und über andere Gründe kann man nur spekulieren, ein gutes Licht wirft es auf keinen Fall auf den Hersteller. Da mag HL2 als Spiel noch so gut sein...

StefanV
2004-12-27, 17:47:03
Die Frage, die man sich dennoch stellen muss, ist warum es erst einen User-Mod braucht, um im DX8.1 Modus diese Qualität zu erhalten. Technische Gründe kanns ja wohl nicht geben.

Doch, z.B. Performance...

Grestorn
2004-12-27, 19:01:34
Doch, z.B. Performance...Ist doch wiederlegt worden?

Außerdem: Ganz offensichtlich ist die Wasser-Reflektion unabhängig vom Shaderlevel (ab 8.1) implementierbar. Warum ist dann die Reflektion nicht einfach ab 8.1 frei wählbar? Dann kann man sich das ganze je nach seiner Grafikkartenleistung und seinen Präferenzen einstellen.

Ich sehe nur einen Grund, so zu handeln, wie Valve es getan hat. Sehr schade eigentlich.

Jesus
2004-12-27, 19:14:39
Ist doch wiederlegt worden?

Außerdem: Ganz offensichtlich ist die Wasser-Reflektion unabhängig vom Shaderlevel (ab 8.1) implementierbar. Warum ist dann die Reflektion nicht einfach ab 8.1 frei wählbar? Dann kann man sich das ganze je nach seiner Grafikkartenleistung und seinen Präferenzen einstellen.

Ich sehe nur einen Grund, so zu handeln, wie Valve es getan hat. Sehr schade eigentlich.

Es gibt ja auch noch mehr als nur das Wasser wodurch sich DX8 und 9 unterscheiden.

Allerdings denke ich dass eigentlich alles auch mit DX8 möglich wäre. Hab mir eben mal Halo2 reingezogen und wenn man bedenkt dass da nur ne GF2.5 drin ist dann ist das schon beeindruckend - (Pseudo) "HDR", Glanzeffekte, Bumpmapping ... , eben alles was es jetzt auf dem PC mit DX9 auch zu sehen gibt, nur mit viel weniger Mitteln.

LordDeath
2004-12-27, 19:21:36
Es gibt ja auch noch mehr als nur das Wasser wodurch sich DX8 und 9 unterscheiden.

Allerdings denke ich dass eigentlich alles auch mit DX8 möglich wäre. Hab mir eben mal Halo2 reingezogen und wenn man bedenkt dass da nur ne GF2.5 drin ist dann ist das schon beeindruckend - (Pseudo) "HDR", Glanzeffekte, Bumpmapping ... , eben alles was es jetzt auf dem PC mit DX9 auch zu sehen gibt, nur mit viel weniger Mitteln.

das ist was anderes. wenn jetzt jeder eine nv30 karte haben würde, und jeder entwickler nur spiele dafür proggen darf, muss man keine rücksicht mehr drauf nehmen, dass andere grakas das teil auch ähnlich dastellen können. man wäre nicht mehr auf irgendein direct x angewiesen und würde mit dieser karte locker die leistungen einer heutigen r420 karte übertreffen. es ist halt diese sache mit der optimierung, die sich keiner für eine einzige karte leisten kann!
und ne xbox hat ne geforce 3 drinne, die aber wie die geforce 4 wie 2 vertex shader hat :D

Jesus
2004-12-27, 19:28:00
Das meine ich damit aber nicht. Ich meine man braucht nicht immer das neueste und teuerste (z.b. SM3) wenn das alte noch nichtmal ansatzweise ausgereizt ist, wie man an diesem Beispiel sieht. :wink:

LordDeath
2004-12-27, 19:35:50
Das meine ich damit aber nicht. Ich meine man braucht nicht immer das neueste und teuerste (z.b. SM3) wenn das alte noch nichtmal ansatzweise ausgereizt ist, wie man an diesem Beispiel sieht. :wink:

jo ist aber immer von situation zu situation anders:
beim r300 konnte man ruhig mit 2.0-shadern durchstarten, da die nicht langsamer als die 1.xer waren (beim gleichen effekt) und man musste sich nicht mit zwei unterschiedlichen arten von shadern, die sich total anders proggen lassen rumärgern.
beim nv4x muss man, um mit ati gleichziehen zu können auf sm3.0 bauen, um die geringere rohleistung auszugleichen.

bei beiden fällen hätte man locker noch auf die alte technik setzten können aber die vorteile der neuen generation sind einfach nicht zu vernachlässigen.

leute benutzten heute auch freiwillig eher delphi als turbo pascal, eher c++ als c usw. (geht jetzt aber zu weit offtopic :D)

godess
2004-12-27, 20:12:01
also, ich kann nur sagen das bei meiner 5900 fp16 nix bringt! aber der wasserreflektionpatch is richtig sahne. und hl2 selbst auch(habs gestern durchgezockt)

Gast
2004-12-27, 20:18:15
Ist doch wiederlegt worden?

Außerdem: Ganz offensichtlich ist die Wasser-Reflektion unabhängig vom Shaderlevel (ab 8.1) implementierbar. Warum ist dann die Reflektion nicht einfach ab 8.1 frei wählbar? Dann kann man sich das ganze je nach seiner Grafikkartenleistung und seinen Präferenzen einstellen.

Ich sehe nur einen Grund, so zu handeln, wie Valve es getan hat. Sehr schade eigentlich.

Sogar auf DX8.0 gehts schon. Also auch GeForce 4Ti -an der GeForce 3 scheiterts wohl daran, daß die nur einen Vertex-Shader hat!

Geht wohl auch auf Radeon 8500 (R200) !

r@h
2004-12-28, 09:18:28
Das meine ich damit aber nicht. Ich meine man braucht nicht immer das neueste und teuerste (z.b. SM3) wenn das alte noch nichtmal ansatzweise ausgereizt ist, wie man an diesem Beispiel sieht. :wink:Nur das man auf einem PC eher selten eine Auflösung von 640x480 Pünktchen verwendet...
:D

Und... wenn Du das schon so sehen möchtest (und nur dann ;-), dann 'reicht' auch völlig eine R9500, insofern alles, was drüber geht (inkl. der neuen X'er ;-) überflüssig ist. Ansonsten würde ich Dir doch dringenst raten, Konsolen nicht mit PC's zu vergleichen...

Razor

r@h
2004-12-28, 09:19:34
Doch, z.B. Performance...Nein.

Razor

Jesus
2004-12-28, 19:16:06
Nein.

Razor

Doch.

Nur das man auf einem PC eher selten eine Auflösung von 640x480 Pünktchen verwendet...


Und... wenn Du das schon so sehen möchtest (und nur dann ;-), dann 'reicht' auch völlig eine R9500, insofern alles, was drüber geht (inkl. der neuen X'er ;-) überflüssig ist. Ansonsten würde ich Dir doch dringenst raten, Konsolen nicht mit PC's zu vergleichen...

Die Auflösung hat damit eigentlich überhaupt nichts zu tun. Auflösung = Chiptakt und Bandbreite, klar dass sich das weiter entwickelt im Laufe der Zeit und mehr werden muss, mit immer höheren Auflösungen und grösseren Texturen.

Es ging mir aber primär um die Effekte, die scheinbar sogar mit DX8 (xbox) genauso möglich sind, klar reicht dann eine 9500, aber eben auch eine "grössere" 9500 aka X800 ;)

Ich denke je schneller man immer wieder neue Techonlogien einführt, desto länger dauert es um sie benutzen zu können und desto "unsauberer" wird dann entwickelt, auf Kosten der Performance (siehe SM3 beim NV40).

aths
2004-12-28, 19:32:24
Es ging mir aber primär um die Effekte, die scheinbar sogar mit DX8 (xbox) genauso möglich sind, klar reicht dann eine 9500, aber eben auch eine "grössere" 9500 aka X800 ;)

Ich denke je schneller man immer wieder neue Techonlogien einführt, desto länger dauert es um sie benutzen zu können und desto "unsauberer" wird dann entwickelt, auf Kosten der Performance (siehe SM3 beim NV40).SM3 ermöglicht einfachere und effizientere Programmierung als SM2, insbesondere als SM2 á la Radeon.

Jesus
2004-12-28, 19:40:01
SM3 ermöglicht einfachere und effizientere Programmierung als SM2, insbesondere als SM2 á la Radeon.

Eh ja, haben wir ja (bisher) gesehen. Mehr Möglichkeiten = mehr Aufwand und unbekannte Faktoren die man schnell unterschätzt und das geht dann des öfteren nach hinten los. ;)

(das heisst aber natürlich nicht dass das so bleibt)

aths
2004-12-28, 19:43:47
Eh ja, haben wir ja (bisher) gesehen. Mehr Möglichkeiten = mehr Aufwand und unbekannte Faktoren die man schnell unterschätzt und das geht dann des öfteren nach hinten los. ;)Mehr Möglichkeiten heißt in diesem Falle vor allem: Mit weniger Befehlen zum Ziel.

Jesus
2004-12-28, 19:51:26
Mehr Möglichkeiten heißt in diesem Falle vor allem: Mit weniger Befehlen zum Ziel.

Aber auch wenige Befehle die viel Zeit kosten, wenn man sie falsch benutzt. Stichwort: Erfahrung, die Zeit kostet ;) Womit wir wieder bei meinem oberen Post sind :rolleyes:

aths
2004-12-28, 19:59:20
Aber auch wenige Befehle die viel Zeit kosten, wenn man sie falsch benutzt.Gegenüber R420 verbrauchen die meisten Befehle auf dem NV40 weniger Takte. Außerdem gibt es zusätzliche Befehle, die man auf dem R420 teilweise nur takt-intensiv (teilweise auch gar nicht) nachbilden kann.

Stichwort: Erfahrung, die Zeit kostet ;) Womit wir wieder bei meinem oberen Post sind :rolleyes:Natürlich müssen die Entwickler mit SM3 erst mal ein wenig warm werden – deshalb ist es gut, wenn es so früh wie möglich kommt.

r@h
2004-12-28, 20:05:48
Doch.Nein.
Ich selber kann dies nachprüfen... Du auch?

Es ging mir aber primär um die Effekte, die scheinbar sogar mit DX8 (xbox) genauso möglich sind, klar reicht dann eine 9500, aber eben auch eine "grössere" 9500 aka X800 ;)Klar... Du kannst auch alles mit Multi-Texturing machen... dafür braucht's dann nicht mal mehr eine DX7-Karte... trotzdem hat es einen Grund, warum das nicht sinnvoll ist.

Ich denke je schneller man immer wieder neue Techonlogien einführt, desto länger dauert es um sie benutzen zu können und desto "unsauberer" wird dann entwickelt, auf Kosten der Performance (siehe SM3 beim NV40).Hast Du dafür auch nur Ansatzweise einen Beleg oder sinnierst Du hier nur wieder sinnfrei herum?
Momentan scheint ja wohl eher das Gegenteil der Fall zu sein...

Lediglich die 'Unfähigkeit' der R3x0/4x0 mit unterschiedlichen Präzisionen zu rechnen scheint dazu zu führen, 'unsauber' zu programmieren... so ist es für performante PC-Applikationen ja regelrecht Pflicht, einen Datentyp nicht nur zu spezifizieren (muss man nicht unbedingt), sondern auch korrekt zu dimensionieren (man kann auch immer 'double' benutzen ;-), wenn man nicht mit dem Arbeitsspeicher rum aasen will und riskiert so nicht, dass einem bei Speicher-intensiven Dingen die Performance in den Keller geht.

Bei performanten Anwendungen ist dies völlig normal, bei hoch-komplexen... sorry... 'ultra-einfachen' Shadern aber nicht? Offenbar zumindest bei Valve nicht... denn da wird IMMER brutal mit der höchsten Präzision drauf geschlagen und ein Shader-Modell benutzt, welches bei weitem nicht notwendig wäre, um die geforderte Aufgabe zu bewätigen.

Nicht einmal ein Idiot würde so programmieren, aber die Progger bei Valve taten das offenbar.
Denk' mal darüber nach...

Und ja, nahezu die gleiche Optik wäre auch komplett mit DX8 abzubilden gewesen... und so performant, dass ALLE Karten aller IHV's damit zurecht kommen würden (OK, 'fast' alle ;-). Aber nein...

...und den Rest schenk' ich mir mal.

Razor

P.S.: und wenn Du Dich fragst, was das mit dem Thema zu tun hat, dann schau' einfach mal in den Thread-Titel, bevor Du hier noch mehr ins Abseits driftest.

Demirug
2004-12-28, 20:10:11
Gegenüber R420 verbrauchen die meisten Befehle auf dem NV40 weniger Takte. Außerdem gibt es zusätzliche Befehle, die man auf dem R420 teilweise nur takt-intensiv (teilweise auch gar nicht) nachbilden kann.

Im Gegenzug gibt es aber auch Operationen die ein NV40 heftig expandieren muss und das Registerproblem ist er auch noch nicht ganz loss. Zudem ist die ALU 1 (eigentlich die SCT 0 und 1 der IPU) funktional doch stärker begrenzt als nvidia glauben machen wollte. Sie haben mehr verschoben als man allgemein angenommen hat.

Ich sollte aber meine Klappe halten sonst bekomme ich noch eine drauf.

PS: Der Treiber ist bezüglich des Branchings auch schlauer geworden. Wenn er erkennt das man ineffektives Branching einsetzt baut er es in eine Sequenz mit Predications ums. Aber auch das sollte ich eigentlich gar nicht wissen.

aths
2004-12-28, 20:13:08
Lediglich die 'Unfähigkeit' der R3x0/4x0 mit unterschiedlichen Präzisionen zu rechnen scheint dazu zu führen, 'unsauber' zu programmieren... so ist es für performante PC-Applikationen ja regelrecht Pflicht, einen Datentyp nicht nur zu spezifizieren (muss man nicht unbedingt), sondern auch korrekt zu dimensionieren (man kann auch immer 'double' benutzen ;-), wenn man nicht mit dem Arbeitsspeicher rum aasen will und riskiert so nicht, dass einem bei Speicher-intensiven Dingen die Performance in den Keller geht.Die Radeon hält sich an den DirectX9-Standard und verführt mit ihrer Hardware nicht zu "unsauberer" Programmierung. Hingegen erfordert die Programmierung einer GeForce mehr Sorgfalt (als bei der Radeon) wenn man auf Performance wert legt.

aths
2004-12-28, 20:18:17
Im Gegenzug gibt es aber auch Operationen die ein NV40 heftig expandieren muss und das Registerproblem ist er auch noch nicht ganz loss. Zudem ist die ALU 1 (eigentlich die SCT 0 und 1 der IPU) funktional doch stärker begrenzt als nvidia glauben machen wollte. Sie haben mehr verschoben als man allgemein angenommen hat. Hrr hrr, Kirk redete dann im ExtremeTech-Interview nicht umsonst um den heißen Brei. Angesichts des im Vergleich zum Featuresets schon schmalen Transistor-Counts befürchtete ich, dass sich im Nachhinein noch einige Nachteile herauskristallisieren.

Kann man denn sagen, dass wenigstens die CineFX-Befehle (vom NV3x) ohne "Haken" umgesetzt wurden?

Gast
2004-12-28, 20:22:03
ich würde eher sagen, dass eine abhängigkeit zwischen spieleentwicklern und hardwareherstellern besteht.

mit hardware von vor 2 jahren noch top-titel zocken zu können, würde den absatz aktueller karten blockieren.

neue technologien sollen natürlich kaufreiz schaffen. ein spiel, welches auf der vermeintlich alten und schlechten hardware nicht läuft, soll man halt mit der investition in eine neue grafikkarte auf touren bringen.

so funktioniert diese marktwirtschaft.

dass eine karte besser oder schlechter ist (in der gleichen preisklasse und generation), kann man genauso glauben, wie die these, dass persil weisser als omo wäscht.

wer auf hardware optimierten code will, muss einfach eine konsole kaufen. damit hat man dann 3-5 jahre angepassten und optimierten code.

ich mag die xbox-optik (und den sound)

mfg
tobi

Demirug
2004-12-28, 20:28:34
Hrr hrr, Kirk redete dann im ExtremeTech-Interview nicht umsonst um den heißen Brei. Angesichts des im Vergleich zum Featuresets schon schmalen Transistor-Counts befürchtete ich, dass sich im Nachhinein noch einige Nachteile herauskristallisieren.

Ja, das lustige ist allerdings das sie die ganzen Informationen wenn auch wohl etwas unfreiwillig schon längst rausgerückt haben.

Kann man denn sagen, dass wenigstens die CineFX-Befehle (vom NV3x) ohne "Haken" umgesetzt wurden?

Genau genommen entspricht keine der Shadersprachen der CineFX internen Sprache. Das ist SHD und die hat dann auch noch für jede Chipgeneration so ihere Eigenheiten. Es wird also grundsätzlich alles erst mal übersetzt dann optimiert und dann geht es ab in den Grafikspeicher.

Aquaschaf
2004-12-28, 20:53:58
ich würde eher sagen, dass eine abhängigkeit zwischen spieleentwicklern und hardwareherstellern besteht.

mit hardware von vor 2 jahren noch top-titel zocken zu können, würde den absatz aktueller karten blockieren.
tobi

Ja aber man kann doch mit Karten die sogar älter als 2 Jahre sind noch ohne große Kompromisse spielen. Von der Performance reicht mir eine 9700 Pro auch heute noch.
Auch abgesehen davon stimmt das nicht, gerade "Top-Titel" müssen auch auf alten Kisten laufen. Wer soll die Spiele denn sonst kaufen?

r@h
2004-12-29, 19:54:37
Die Radeon hält sich an den DirectX9-Standard und verführt mit ihrer Hardware nicht zu "unsauberer" Programmierung. Hingegen erfordert die Programmierung einer GeForce mehr Sorgfalt (als bei der Radeon) wenn man auf Performance wert legt.Du siehst also einen Unterschied zwischen "wenig Sorgfalt" und "unsauber"?
Interessant...

Razor

r@h
2004-12-29, 20:02:58
...noch ohne große Kompromisse spielen.Gut, dass Du dies so formuliertest.

"ohne Kompromisse" wäre ja auch nicht nur unpräzise sondern schlicht falsch gewesen. Schließlich muss mein Kollege ja auch mit seiner R9500@9700p schon mal hier und da auf's AA verzichten (für's AF ist merkwürdiger weise ja noch immer Luft ;-). Alternativ kann er natürlich an den Details schrauben, aber....

Für mich waren die 'Kompromisse' auch schon vor einem Jahr mit der R9800p zu hoch (Erklärungen dafür gab's von mir an anderen Stellen zu Genüge). Und vor Kurzem dann auch mit der FX5900 (auf anderer Basis ;-). Jetzt habe ich den einen Kompromiß gegen einen anderen getauscht, da es offenbar heutzutage nicht mehr möglich ist, gänzlich 'ohne Kompromisse' zu gamen. Und glaube mir, bei fast gleicher Filterungs-'Fähigkeit', liegen zwischen R3x0 und NV40 geradezu Welten... und damit meine ich ganz sicher nicht (nur) technologisch.

Razor

reunion
2004-12-29, 20:23:39
Nein.
Lediglich die 'Unfähigkeit' der R3x0/4x0 mit unterschiedlichen Präzisionen zu rechnen scheint dazu zu führen, 'unsauber' zu programmieren...

Nein, die unfähigkeit der NV3x und teilweise auch der NV4x Serie mit voller Präzision auch maximale Leistung bereitzustellen führt zu erheblichen aufwand für die Programmierer, den so mache offenbar nicht bereit sind zu leisten.

reunion
2004-12-29, 20:30:41
Und glaube mir, bei fast gleicher Filterungs-'Fähigkeit', liegen zwischen R3x0 und NV40 geradezu Welten... und damit meine ich ganz sicher nicht (nur) technologisch.

Razor

R300 wurde im Oktober 2002 vorgestellt und war spätestens im Dezember flächendeckend verfügbar, NV40 ist selbst jetzt über zwei jahre später weit davon entfernt flächendeckend verfügbar zu sein. Ich denke das erklärt alles. Wie du überhaupt auf die Idee kommst unterschiedliche generationen zu vergleichen? R300 ist auch deutlich besser als NV20, wen wunderts?

Demirug
2004-12-29, 20:35:00
Nein, die unfähigkeit der NV3x und teilweise auch der NV4x Serie mit voller Präzision auch maximale Leistung bereitzustellen führt zu erheblichen aufwand für die Programmierer, den so mache offenbar nicht bereit sind zu leisten.

Da könnte man aber jetzt auch gegenhalten mit:

"Die Unfähigkeit eines R3XX (teilweise auch R4XX) ausreichend Shader resourcen zur verfügung zu stellen führen zu einem erheblichen Mehraufwand bei der Effektentwicklung. Da man aber nicht einen wichtigen Teil des Marktes ignorieren kann muss man in leisten."

Letzten Endes ist das alles immer nur ein Ergebniss davon an wenn sich ein Entwickler (bewusst oder unbewusst) verkauft hat. Das wird auch nicht aufhören sondern eher schlimmer werden.

LordDeath
2004-12-29, 20:36:49
Nein, die unfähigkeit der NV3x und teilweise auch der NV4x Serie mit voller Präzision auch maximale Leistung bereitzustellen führt zu erheblichen aufwand für die Programmierer, den so mache offenbar nicht bereit sind zu leisten.

man muss aber sehen, dass in beiden fällen "volle präzision" was anders bedeutet!

reunion
2004-12-29, 20:41:15
Da könnte man aber jetzt auch gegenhalten mit:

"Die Unfähigkeit eines R3XX (teilweise auch R4XX) ausreichend Shader resourcen zur verfügung zu stellen führen zu einem erheblichen Mehraufwand bei der Effektentwicklung. Da man aber nicht einen wichtigen Teil des Marktes ignorieren kann muss man in leisten."


Natürlich, nur hat das eine mit dem anderen nichts zu tun, man kann ja auch eine Chip mit "allzweckunit" bauen der technologisch up-to-date ist.


Letzten Endes ist das alles immer nur ein Ergebniss davon an wenn sich ein Entwickler (bewusst oder unbewusst) verkauft hat. Das wird auch nicht aufhören sondern eher schlimmer werden.

ACK

reunion
2004-12-29, 20:45:38
man muss aber sehen, dass in beiden fällen "volle präzision" was anders bedeutet!

Die Präzision der R3x0/R4x0 Chips war bis jetzt für alle SM2.0 Anwendungen, mehr beherrschen die Chips ja auch nicht, ausreichend. R520 mit SM3.0 Support wird mit an sicherheit grenzender warscheindlichkeit durchgängig mit FP32 rechnen.

LordDeath
2004-12-29, 20:51:23
@Demirug: hast du ne ahnung, ob die r3x0 chips auch viel leistung gewonnen hätten, wenn die shader auch mit alternativer niedrigerer präzision erlaubt wären und die chips die auch so abarbeiten würden?

Demirug
2004-12-29, 20:59:15
Natürlich, nur hat das eine mit dem anderen nichts zu tun, man kann ja auch eine Chip mit "allzweckunit" bauen der technologisch up-to-date ist.

Ich verstehe nicht ganz was du damit sagen möchtest.

Demirug
2004-12-29, 21:03:16
@Demirug: hast du ne ahnung, ob die r3x0 chips auch viel leistung gewonnen hätten, wenn die shader auch mit alternativer niedrigerer präzision erlaubt wären und die chips die auch so abarbeiten würden?

Eher nicht. Die Performancevorteile eines CineFX Chips durch FP16 ergeben sich jeweils aus dem Design. Das R3XX/R4XX Design ist aufgrund des Verzichts auf bestimmte Features dafür nicht empfänglich.

Demirug
2004-12-29, 21:09:58
Die Präzision der R3x0/R4x0 Chips war bis jetzt für alle SM2.0 Anwendungen, mehr beherrschen die Chips ja auch nicht, ausreichend. R520 mit SM3.0 Support wird mit an sicherheit grenzender warscheindlichkeit durchgängig mit FP32 rechnen.

Für die Unreal3 Engine reicht es leider nicht mehr vollständig. Es dauert aber glücklicherweise noch etwas bis Spiele auf dieser Basis erscheinen.

Beim R420 sehe aufgrund der 512 Slots die Gefahr für das Hochschauckeln von Rechenfehler als durchaus gegeben an. Bisher sind wir Effekttechnisch noch nicht in diesen Bereichen aber sowas kann schnell passieren.

reunion
2004-12-29, 21:13:19
Ich verstehe nicht ganz was du damit sagen möchtest.

Naja, wenn razor behauptet das die unfähigkeit der R3x0/R4x0 Serie dazu führt das unsauber programmiert wird dann behaupte ich das die unfähigkeit der NV3x/NV4x Serie auch bei voller Präzision max. Performance zu liefern das eigendliche problem ist. Wenn du dann mit der technologischen überlegenheit der NV karten kommst dann hat das nicht wirklich was mit damit zu tun. :)

reunion
2004-12-29, 21:19:06
Für die Unreal3 Engine reicht es leider nicht mehr vollständig. Es dauert aber glücklicherweise noch etwas bis Spiele auf dieser Basis erscheinen.

Beim R420 sehe aufgrund der 512 Slots die Gefahr für das Hochschauckeln von Rechenfehler als durchaus gegeben an. Bisher sind wir Effekttechnisch noch nicht in diesen Bereichen aber sowas kann schnell passieren.

Was kann man tun wenn man beim R420 an diese grenze stößt?
Ist es möglich die Shader zu "splitten" um trozdem keine Artefakte zu bekommen oder hat man dann einfach "pech gehabt"?

Coda
2004-12-29, 21:22:57
Letzteres.

Demirug
2004-12-29, 21:23:13
Naja, wenn razor behauptet das die unfähigkeit der R3x0/R4x0 Serie dazu führt das unsauber programmiert wird dann behaupte ich das die unfähigkeit der NV3x/NV4x Serie auch bei voller Präzision max. Performance zu liefern das eigendliche problem ist. Wenn du dann mit der technologischen überlegenheit der NV karten kommst dann hat das nicht wirklich was mit damit zu tun. :)

Indirekt schon.

Angenommen ich habe Zeitraum X pro Effekt zur Verfügung dann kümmere ich mich ja erst einmal darum das er auf so vielen Chips wie nur möglich läuft. Ergo wird mit der technisch schwächsten Lösung angefangen. Je mehr Zeit dafür verwendet werden muss desto weniger Zeit bleibt sich um andere Optimierungen zu kümmern. Allerdings ist sowas wie Rechengenauigkeit eigentlich eine Sache die man gleich einbauen kann weil mit ein bischen verständniss für das Thema weiß man wie viel Genauigkeit man für was braucht.

Das es bei den ersten 2.0 Titeln nicht gemacht wurde muss sich nVidia aber selbst zuschreiben weil sie die Entwickler nicht rechtzeitig auf die Problematik aufmerksam gemacht haben. Da es zu 2.0 nur von MS und ATI Unterlagen gab hat sich natürlich jeder an diese gehalten. MS Unterlagen sind im Hinblick auf Performance Informationen ja immer sehr nichtssagen. Ergo hat man gemacht was ATI geschrieben hat.

Demirug
2004-12-29, 21:26:55
Was kann man tun wenn man beim R420 an diese grenze stößt?
Ist es möglich die Shader zu "splitten" um trozdem keine Artefakte zu bekommen oder hat man dann einfach "pech gehabt"?

Splitten macht es ja noch schlimmer. Entweder man findet ein anderes Verfahren für den Effekt oder "Pech gehabt". Für das andere Verfahren braucht man aber Zeit und so wie in Zukunft Shader gebaut werden setzt sich da eigentlich keiner mehr hin und wird das tun.

Gast
2004-12-30, 00:43:08
Wow, habe eben Half-Life 2 installiert und

es rennt super auf einer NV38!

Ich spiele mit DX8.1 und dem Wasser-Patch auf 1152*864

Der Patch leistet großartige Arbeit, das Tempo ist gleich geblieben!

Überhaupt ist das Spiel auf meiner FX so schnell daß ich es bei oben genannter Auflösung mit 4x AA und 8x AF zocken kann.

Super Patch, besser hätte es für uns FX Besitzer gar nicht laufen können.

(Warum ist so was nicht in der ForceWare hinterlegt? -Hey, das ist immerhin Half-Life!)

Banshee18
2004-12-30, 01:05:56
R520 mit SM3.0 Support wird mit an sicherheit grenzender warscheindlichkeit durchgängig mit FP32 rechnen.

Kann darüber einer der Gurus genaueres sagen? Für viele Shader reicht FP16 oder sogar FX8, warum sollte Ati dem R520 nicht zumindest FP16-Units spendieren? Der NV40 hat sie ja auch, also würde diese Option von den Spieleentwicklern garantiert auf breiterer Basis genutzt werden. Performancemäßig hätte man bestimmt oft Vorteile.

mfg

Banshee

aths
2004-12-30, 02:25:09
Kann darüber einer der Gurus genaueres sagen? Für viele Shader reicht FP16 oder sogar FX8, warum sollte Ati dem R520 nicht zumindest FP16-Units spendieren? Der NV40 hat sie ja auch, also würde diese Option von den Spieleentwicklern garantiert auf breiterer Basis genutzt werden. Performancemäßig hätte man bestimmt oft Vorteile.Was "HDR-Einheiten" wie FP-Texturfilter und FP-Alphablender angeht ist es unwahrscheinlich, dass R520 auf FP32 setzt.

StefanV
2004-12-30, 06:27:20
Was "HDR-Einheiten" wie FP-Texturfilter und FP-Alphablender angeht ist es unwahrscheinlich, dass R520 auf FP32 setzt.
Warum soll das unwahrscheinlich sein?! :|

Der R520 setzt ja bekanntlich auf 90nm und man munkelt, das ATi noch etwas Platz hat, für diverse Dinge :rolleyes:

Hauwech
2004-12-30, 08:24:56
Warum soll das unwahrscheinlich sein?! :|

Der R520 setzt ja bekanntlich auf 90nm und man munkelt, das ATi noch etwas Platz hat, für diverse Dinge :rolleyes:

Sieht es mit FP32 denn besser aus?

aths
2004-12-30, 11:56:36
Warum soll das unwahrscheinlich sein?! :|

Der R520 setzt ja bekanntlich auf 90nm und man munkelt, das ATi noch etwas Platz hat, für diverse Dinge :rolleyes:Für 32 Bit ist die Bandbreite nicht da.

reunion
2004-12-30, 13:05:12
Splitten macht es ja noch schlimmer. Entweder man findet ein anderes Verfahren für den Effekt oder "Pech gehabt". Für das andere Verfahren braucht man aber Zeit und so wie in Zukunft Shader gebaut werden setzt sich da eigentlich keiner mehr hin und wird das tun.

Achso, wobei ich mich noch dunkel an eine Aussage der Entwickler erinnern kann wonach ein R420 nur einstellige fps in UnrealEngine 3 Demo erreichen würde wodurch sich diese Diskussion ohnehin erübrigt. vermutlich wird man einfach auf gewisse Effekte verzichten müssen.

reunion
2004-12-30, 13:11:01
Für 32 Bit ist die Bandbreite nicht da.

Wieviel hat NV40, 16bit?

reunion
2004-12-30, 13:16:24
Kann darüber einer der Gurus genaueres sagen? Für viele Shader reicht FP16 oder sogar FX8, warum sollte Ati dem R520 nicht zumindest FP16-Units spendieren? Der NV40 hat sie ja auch, also würde diese Option von den Spieleentwicklern garantiert auf breiterer Basis genutzt werden. Performancemäßig hätte man bestimmt oft Vorteile.

mfg

Banshee

ATi ist mit der allzweckunit der R3x0/R4x0 Serie sehr gut gefahren, NV hatte nicht selten probleme mit ihrer Architektur. Ich sehe keine grund warum ATi hier zusätzliche Transistoren investieren sollte.

Demirug
2004-12-30, 13:29:31
Wieviel hat NV40, 16bit?

In diesem Bereich ja. Ist aber üblich da auch 3dlabs und sogar SGI da nur auf FP16 setzten.

Demirug
2004-12-30, 13:31:56
Achso, wobei ich mich noch dunkel an eine Aussage der Entwickler erinnern kann wonach ein R420 nur einstellige fps in UnrealEngine 3 Demo erreichen würde wodurch sich diese Diskussion ohnehin erübrigt. vermutlich wird man einfach auf gewisse Effekte verzichten müssen.

So wie die Shaderarchitektur der Engine aussieht ist es da bezüglich Fallbacks nicht sonderlich gut bestellt. FP24 macht es laut den Entwicklern ja auch nicht unspielbar sonder führt zu einer schlechten Bildqualität. Es gibt wohl banding und solche Sache.

Demirug
2004-12-30, 13:34:47
ATi ist mit der allzweckunit der R3x0/R4x0 Serie sehr gut gefahren, NV hatte nicht selten probleme mit ihrer Architektur. Ich sehe keine grund warum ATi hier zusätzliche Transistoren investieren sollte.

Die Probleme kommen aber nicht von den unterschiedlichen ALUs. Das wäre kein Problem da ja selbst ATI offiziel 2 unterschiedliche ALUs angibt. Das Problem liegt eher darin das es eine voll syncroniserte Pipeline ist und ATI etwas ansyncrones benutzt. Hat beides seine vor und Nachteile.

Gast
2004-12-30, 14:06:39
Frage an unsere 3D Gurus:

Wie hat dieser Knabe das gemacht, mit dem Wasser Patch für DX8 / DX8.1 ?

Ich meine wie konnte er wissen, welche Shader er hinzufügen / -ändern muß?

Wie kam der da dran? (Maschinencode in lesbare Form zurückverwandelt?)

Hätte das auch jemand anderes machen können, -wenn ja welche Tools benötigt man eigentlich, bzw. welche Kenntnisse?

Oder war/ist das ein Valve Mitarbeiter, der einzig und alleine das fundierte Fachwissen hat, um solche kleinen Änderungen vorzunehmen (sind ja nur etwa 10kb)

aths
2004-12-30, 15:35:44
Wieviel hat NV40, 16bit?Ja, und eine Operation dauert zwei Takte – wegen der Bandbreite aber kein Problem. Selbst wenn R520 ein 512-Bit-Design wäre, könnte man damit gerade mal FP16 in voller Geschwindigkeit bringen.

Razor
2004-12-31, 09:47:44
R300 wurde im Oktober 2002 vorgestellt und war spätestens im Dezember flächendeckend verfügbar, NV40 ist selbst jetzt über zwei jahre später weit davon entfernt flächendeckend verfügbar zu sein. Ich denke das erklärt alles. Wie du überhaupt auf die Idee kommst unterschiedliche generationen zu vergleichen? R300 ist auch deutlich besser als NV20, wen wunderts?Ich vergleiche R3x0/R420 deswegen mit dem NV40, weil es ATI bis dato einfach nch nicht schaffte, etwas Neues zu bringen. Insofern vergleiche ich nur die aktuellen Generationen beider Hersteller.

Und selbstverständlich ist der NV40/41/43 flächendeckend verfügbar...
(von einigen Modellen mal abgesehen ;-)

Razor

LordDeath
2004-12-31, 13:33:02
Ich vergleiche R3x0/R420 deswegen mit dem NV40, weil es ATI bis dato einfach nch nicht schaffte, etwas Neues zu bringen.

woher willst du wissen, dass sie nicht bewusst auf features verzichtet haben um so die rohleistung per taktfrequenz hochzuprügeln?
kann ja sein, dass deren marketingforscher zum entschluss kamen, dass die chip designer das teil deswegen nicht mit features vollstopfen sollten und die mussten halt gehorchen...

reunion
2005-01-01, 12:08:49
Ich vergleiche R3x0/R420 deswegen mit dem NV40, weil es ATI bis dato einfach nch nicht schaffte, etwas Neues zu bringen. Insofern vergleiche ich nur die aktuellen Generationen beider Hersteller.

Und selbstverständlich ist der NV40/41/43 flächendeckend verfügbar...
(von einigen Modellen mal abgesehen ;-)

Razor

An Ausreden mangelt es dir wirklich nicht :|
Du hast explizit vom R300 gesprochen und behauptet das zwischen diesem und dem NV40 welten liegen und zwar nicht nur featuremäßig. Was ja auch kein Wunder ist. Aber egal es bringt vermutlich ohnehin nichts.

Und NV40 ist defintiv nicht flächendeckend verfügbar, ich kann mich nicht erinnern NV41/43 angesprochen zu haben.

Grestorn
2005-01-01, 12:53:57
Und NV40 ist defintiv nicht flächendeckend verfügbar, ich kann mich nicht erinnern NV41/43 angesprochen zu haben.Die 6800GT (AGP) kann überall und sofort lieferbar bestellt werden.

aths
2005-01-01, 15:13:50
woher willst du wissen, dass sie nicht bewusst auf features verzichtet haben um so die rohleistung per taktfrequenz hochzuprügeln?
kann ja sein, dass deren marketingforscher zum entschluss kamen, dass die chip designer das teil deswegen nicht mit features vollstopfen sollten und die mussten halt gehorchen...Das könnte zwar sein, ist aber wenig wahrscheinlich. ATI gibt mehr oder minder zu, an einem SM3-Chip gearbeitet und jenen gecancelt zu haben – weil die Herausforderung zu groß war.

mapel110
2005-01-01, 15:25:17
weil die Herausforderung zu groß war ...

... SM3 mit guter Performance zu integrieren.

q@h
2005-01-01, 15:32:17
... SM3 mit guter Performance zu integrieren.
Nein, das sagen sie offiziell (ich glaube, die Speech-Notes aus dem entsprechenden PDF sind nicht unabsichtlich geleaked). ;)

Zugeben tun sie, daß es ihnen nicht möglich erschien, SM3 mit guter Wirtschaftlichkeit zu realisieren.

Jesus
2005-01-01, 15:43:37
Nein, das sagen sie offiziell (ich glaube, die Speech-Notes aus dem entsprechenden PDF sind nicht unabsichtlich geleaked). ;)

Zugeben tun sie, daß es ihnen nicht möglich erschien, SM3 mit guter Wirtschaftlichkeit zu realisieren.

wo tun sie das?

aths
2005-01-01, 15:54:01
... SM3 mit guter Performance zu integrieren.Imo: ... überhaupt zu integrieren.

NV40 gewinnt durch SM3 bei überlegter Nutzung an Flexibilität und Leistung. Das Kriterium "mit guter Performance" ist damit erfüllt. ATI war dazu offenbar nicht in der Lage. Kein Wunder, entweder hätten sie basierend auf der R300-Architektur viel "rumbasteln" müssen, was transistor-intensiv ist, oder eine komplett neue Architektur entwerfen müssen, wozu ihnen wahrscheinlich die Designtools fehlten.

Zu SM3 gehören praktisch noch die meisten "CineFX"-Features, die GeForce FX dem R300/R420 voraus hat. Diese Entwicklungsarbeit hatte sich ATI ja auch beim R360 gespart, so dass der große Brocken, also 2_A und dann noch 3_0 beim R4xx nicht zu stemmen war. Statt einem 2_A-ähnlichem Profil haben wir nun ein 2_B, was gegenüber 2_0 kaum mehr Features hat.

Letztlich komme ich zum Schluss, dass bei ATI nicht der Wille fehlte, einen topmodernen Chip zu entwickeln, dass es auch nicht an den klugen Köpfen mangelte, sondern dass die Ressourcen nicht reichten.

mapel110
2005-01-01, 16:00:15
Imo: ... überhaupt zu integrieren.

NV40 gewinnt durch SM3 bei überlegter Nutzung an Flexibilität und Leistung. Das Kriterium "mit guter Performance" ist damit erfüllt.

Irgendwie hab ich solche Sätze auch schon in Bezug auf die FX-Serie gehört. :|

aths
2005-01-01, 16:04:09
Irgendwie hab ich solche Sätze auch schon in Bezug auf die FX-Serie gehört. :|Die Sätze sind nicht falsch, nur muss man bei der FX die furchtbar niedrige PS2.x-Grundleistung sehen. So weit wie ich Benchmarks kenne, hat der NV40 eine sehr anständige 2.x-Grundleistung.

mapel110
2005-01-01, 16:05:29
Die Sätze sind nicht falsch, nur muss man bei der FX die furchtbar niedrige PS2.x-Grundleistung sehen.

und wer gibt dir die Garantie, dass die PS3.0-Grundleistung des NV4x nicht auch furtchbar niedrig sein wird im Vergleich zum erscheindenden R520?!

aths
2005-01-01, 16:11:40
und wer gibt dir die Garantie, dass die PS3.0-Grundleistung des NV4x nicht auch furtchbar niedrig sein wird im Vergleich zum erscheindenden R520?!Ein 3_0-Shader kann später hoffentlich für mehrere Targets übersetzt werden, für NV40 und für R520. Damit werden gleich Dinge ersetzt, die den jeweiligen Architekturen nicht so schmecken. Dazu zählt Dynamic Branching beim NV40.

Aber wie lange muss der NV4x gegen R5xx kämpfen? Die Entwicklung vom NV50 ist in einem fortgeschrittenem Stadium.

Man kann wohl davon ausgehen, dass die R520-Grundleistung die NV40-Grundleistung übertrifft. Damit wäre auch bei identischer SM3-Implementierung die PS3-Grundleistung höher.

Demirug
2005-01-01, 16:16:45
Ein 3_0-Shader kann später hoffentlich für mehrere Targets übersetzt werden, für NV40 und für R520. Damit werden gleich Dinge ersetzt, die den jeweiligen Architekturen nicht so schmecken. Dazu zählt Dynamic Branching beim NV40.

Aber wie lange muss der NV4x gegen R5xx kämpfen? Die Entwicklung vom NV50 ist in einem fortgeschrittenem Stadium.

Man kann wohl davon ausgehen, dass die R520-Grundleistung die NV40-Grundleistung übertrifft. Damit wäre auch bei identischer SM3-Implementierung die PS3-Grundleistung höher.

Wozu Specialtargets? 2.A und 2.B sind ja nur nötig damit man die entsprechenden Erweiterungen überhaupt nutzen kann.

Die Shadercompiler in den Treibern bauen das was von der Runtime kommt sowieso wieder um. Bei den CineFX Chips kann ich mir das schön anschauen bei den Radeons (noch) nicht weil das sehr tief im Treiber vergraben ist.

mapel110
2005-01-01, 16:18:44
Man kann wohl davon ausgehen, dass die R520-Grundleistung die NV40-Grundleistung übertrifft. Damit wäre auch bei identischer SM3-Implementierung die PS3-Grundleistung höher.

Die ohnehin wohl wesentlich höhere allgemeine Grundleistung des R520 aussen vor, könnte doch auch die relative Shader-Leistung um einiges höher sein, als beim NV4x. Ist doch nicht ausgeschlossen?!

Demirug
2005-01-01, 16:26:49
Die ohnehin wohl wesentlich höhere allgemeine Grundleistung des R520 aussen vor, könnte doch auch die relative Shader-Leistung um einiges höher sein, als beim NV4x. Ist doch nicht ausgeschlossen?!

Wie definierst du den relative und absolute Shaderleistung?

aths
2005-01-01, 16:28:45
Wozu Specialtargets? 2.A und 2.B sind ja nur nötig damit man die entsprechenden Erweiterungen überhaupt nutzen kann.

Die Shadercompiler in den Treibern bauen das was von der Runtime kommt sowieso wieder um. Bei den CineFX Chips kann ich mir das schön anschauen bei den Radeons (noch) nicht weil das sehr tief im Treiber vergraben ist.Hat man den Highlevel-Language-Code zur Hand, stelle ich mir ein Aufdröseln einfacher vor. Ich habe aber keine Ahnung, wie ausgefuchst die Shader-Recompiler inzwischen sind.

mapel110
2005-01-01, 16:30:26
Wie definierst du den relative und absolute Shaderleistung?

Ich meine jedenfalls, dass selbst Takt/Rohleistungsnormalisiert die R520 Shaderleistung (wesentlich) höher sein könnte als beim NV4x.

aths
2005-01-01, 16:31:38
Die ohnehin wohl wesentlich höhere allgemeine Grundleistung des R520 aussen vor, könnte doch auch die relative Shader-Leistung um einiges höher sein, als beim NV4x. Ist doch nicht ausgeschlossen?!Das halte ich sogar für sehr wahrscheinlich, dass beim R520 einige kritische Dinge besser (performanter) gelöst werden. Immerhin hat ATI die Chance, die R300-Architektur voll über Board zu werfen und direkt für SM3 zu designen, während es mir bei NV mehr so aussieht, als hätten sie CineFX auf SM3 aufgebohrt. (Mit vielen, vielen Änderungen allerdings. Die Branching-Unit im PS sieht mir aber "angeflanscht" aus. Hierbei verlasse ich mich allerdings auf Shadertests von Tridam und Demirug. Mit NVs Gesprächigkeit ist es da nicht allzu weit her.) Weiterhin ist es gut möglich, dass eine R520-Pipe rechenstärker ist als eine NV40-Pipe, was auch der Grundleistung zugute kommt.

Es könnte aber auch sein, dass R520 rein durch Takt und Rechen-Rohleistung PS3-Benches gewinnt, obwohl viele PS3-Features noch umständlicher implementiert sind als beim NV40.

Beim NV40, woran hakt es noch? Das sind:

- Gewisse TEX-Befehle. Geht sicher schneller, wenn die TEX-Unit mehr Transistoren bekommen kann.

- Dynamic Branching. Ich rede nicht von den zwei Takten, sondern von den großen Quad-Batches. Die Quad-Batches zu verkleinern ist nicht so ohne weiteres möglich. Man könnte aber dafür sorgen, dass die "Stückelung" fürs Branching feiner gemacht wird. Kostet aber zusätzliche Transistoren.

Coda
2005-01-01, 16:34:56
Vielleicht mit Branching. Ohne wohl kaum falls er noch auf R300 basiert, wovon inzwischen auszugehen ist.

Demirug
2005-01-01, 16:39:58
Hat man den Highlevel-Language-Code zur Hand, stelle ich mir ein Aufdröseln einfacher vor. Ich habe aber keine Ahnung, wie ausgefuchst die Shader-Recompiler inzwischen sind.

Sicher kann man aus dem HLSL Code mehr Sematik ableiten allerdings müsste MS dann für jeden Chip ein Profil schreiben. Dafür bräuchten sie wiederum sehr genaue angaben darüber wie die Chips interna aufgebaut sind. Dabei gibt es sicherlich sowohl von Seiten ATIs wie auch nVidias Grenzen der Mitteilungsbereitschaft.

Wie ausgefeilt die Crosscompiler inzwischen sind ist schwer zu sagen weil ATI ja überhaupt nichts zu dem Thema rausrückt und auch bei nVidia die Informationslage eher dünn ist. nVidia behauptet zwar mit der Leistung schon sehr zufrieden zu sein nur lässt auch eine solche Antwort noch Spielraum zur Interpretation. Da ich auch nicht weiss welche Auslastungszielsetzung nVidia hatte ist es schwer entsprechenden verfügbare Zahlen einzuordnen.

Demirug
2005-01-01, 16:42:54
Vielleicht mit Branching. Ohne wohl kaum falls er noch auf R300 basiert, wovon inzwischen auszugehen ist.

Mit mehr Recheneinheiten pro Kanal könnte da durchaus was daraus werden. Das ist ja immer noch meine alternative Marschrichtung gegenüber einer weiteren Erhöhung der Kanalanzahl.

aths
2005-01-01, 16:44:36
Noch mal was zum Thema SM3 und Performance.

Für meine Arbeit zum "Großen Beleg" habe ich ein Programm geschrieben, welches rein auf der CPU läuft. Würde ich in 3D (OpenGL) mehr hinkriegen als ein paar beleuchtete Grundmuster, könnte ich einiges direkt von der Grafikkarte berechnen lassen.

Mit SM3 würde praktisch alles auf der Grafikkarte laufen können. Das wäre in jedem Fall sehr, sehr, sehr viel schneller als es jetzt die CPU kann. Die Belegarbeit beschäftigt sich mit Farbreduzierung und Farbraumkonvertierung, hat also mit 3D nichts zu tun. Dennoch brächte SM3 großen Nutzen. Erste Ansätze zur Mustererkennung (eigentlich nicht Thema der Arbeit) ließen sich auf einer SM3-Karte besser umsetzen, als auf herkömmlichen 3D-Chips – obwohl auch dies nichts mit "3D" zu tun hat.

Für mich ist SM3 mehr als das Vorhandensein einiger Features für neue Grafikeffekte in PC-Spielchen. Es ist mehr ein Ausblick auf WGF und das damit verbundene deutlich größere Einsatzfeld.

So ein NV40 mag meinetwegen 500 € kosten. Ist aber geschenkt, wenn man damit in der Industrie Dinge tun kann, die vorher von der CPU erledigt werden mussten. Nalu ist nicht adäquat um zu zeigen, was mit SM3 jetzt alles in Echtzeit möglich ist, was vorher nicht möglich war.

Demirug
2005-01-01, 16:50:38
Das halte ich sogar für sehr wahrscheinlich, dass beim R520 einige kritische Dinge besser (performanter) gelöst werden. Immerhin hat ATI die Chance, die R300-Architektur voll über Board zu werfen und direkt für SM3 zu designen, während es mir bei NV mehr so aussieht, als hätten sie CineFX auf SM3 aufgebohrt. (Mit vielen, vielen Änderungen allerdings. Die Branching-Unit im PS sieht mir aber "angeflanscht" aus. Hierbei verlasse ich mich allerdings auf Shadertests von Tridam und Demirug. Mit NVs Gesprächigkeit ist es da nicht allzu weit her.) Weiterhin ist es gut möglich, dass eine R520-Pipe rechenstärker ist als eine NV40-Pipe, was auch der Grundleistung zugute kommt.

Angeflanscht ist das falsche Wort dafür. Das alles ist eine direkte Folge aus dem interesanten Ansatz wie nVidia in der Fragmentpipeline die Steuerung implementiert hat. Diese Steuerung ist auch schon in CineFX I vorhanden nur war sie dort eben noch nicht für Branches ausgelegt. Die restlichen änderungen von CineFX II zu III haben alle nichts mit dem Branching zu tun sonder sollten nur die FP Leistung erhöhen und wahrscheinlich die Pipeline verkürzen.

IMHO wird aber nach CineFX IV (NV4E und NV4F) schluss mit der CineFX Technik sein und man wird für die WGF Chips mit etwas neuem kommen.

Quasar
2005-01-01, 16:57:05
wo tun sie das?
Im Interview von B3D mit Dave Orton, CEO von ATi.