PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Benachteiligt Ubisoft SM 2.0 Karten?


Seiten : 1 2 3 [4]

aths
2005-06-15, 20:42:01
Danke. :)

Falls du dich durch mein Posting provoziert siehst, dann sorry.
Mir geht der Hype um ein Nebenprodukt ziemlich auf die Eier, weil es nicht nur Vorteile gibt. Fake-HDR sieht auch gut aus, ist recht performant, was man vom echten HDR nicht behaupten kann. AA ist mit der jetzigen Hardware in Verbindung mit HDR auch nicht drin.
Dann lieber Fake-HDR. Ist imo der besser Kompromis. :)Die ganze 3D-Grafik ist ein einziger Fake. Um ein paar Gloom-Effekte etc. reinzubringen bedarf es nicht unbedingt echten HDRs. Der WoW-Vollbildleucht-Effekt nutzt ja auch keine echten HDR-Berechnungen. Will man mehr, gelangt man früher oder später an die Grenzen und braucht echtes HDR-Rendering. Ein "Nebenprodukt" ist die HDR-Fähigkeit beim NV40 imo nicht, sondern ein wichtiges Feature (dessen Implementierung in zukünftigen Generationen sicherlich noch performanter wird) mit Zukunft.

Gast
2005-06-15, 20:46:26
Ein "Nebenprodukt" ist die HDR-Fähigkeit beim NV40 imo nicht, sondern ein wichtiges Feature (dessen Implementierung in zukünftigen Generationen sicherlich noch performanter wird) mit Zukunft.
Es ist ein Nebenprodukt, weil es weder spezifiziert ist, noch so geplannt war.
Ist einfach ein Produkt der FP16-Rops.

Warum hat Nvidia dafür nicht schon im Vorfeld Werbung gemacht, sondern für SM3? ;)

Quasar
2005-06-15, 20:47:34
Es ist ein Nebenprodukt, weil es weder spezifiziert ist, noch so geplannt war.
Ist einfach ein Produkt der FP16-Rops.
...die allerdings voll und ganz 'freiwillig' sind. Von daher ein gewolltes Kind, kein TroPi.

Demirug
2005-06-15, 20:49:15
Es ist ein Nebenprodukt, weil es weder spezifiziert ist, noch so geplannt war.
Ist einfach ein Produkt der FP16-Rops.

Für was sollte man FP16 ROPs aber sonst nutzen?

Warum hat Nvidia dafür nicht schon im Vorfeld Werbung gemacht, sondern für SM3? ;)

In den Presse Unterlagen stand so einiges dazu. Ich vermute aber das es viele nicht verstanden haben. SM3 war halt einfach greifbarer.

aths
2005-06-15, 21:04:04
Es ist ein Nebenprodukt, weil es weder spezifiziert ist, noch so geplannt war.Ist das eine Information die du hast, oder nur eine Vermutung?
Ist einfach ein Produkt der FP16-Rops.Nvidia hat FP16-Texturfilterung und Alphablending nicht zum Spaß eingebaut, etwa um den Die vollzukriegen. Diese Units haben sich einfach als notwendig herausgestellt, wenn man HDR-Rendering in erträglicher Performance haben möchte. Der NV40 hat sogar eine Tonemapping-Unit, die allerdings nicht so funktionierte wie gedacht und auch nicht genutzt wird.

"HDR" ist spezifiziert. In OpenEXR, und in DirectX9 ebenso vorgesehen (abgesehen von dediziertem Tonemapping.)

Warum hat Nvidia dafür nicht schon im Vorfeld Werbung gemacht, sondern für SM3? ;)In den NV-Präsentationen die ich kenne, wurde die Möglichkeit des HDR-Renderings als ein herausragendes Merkmal des NV40 dargestellt.

zeckensack
2005-06-15, 21:06:02
"HDR" ist spezifiziert. In OpenEXR, und in DirectX9 ebenso vorgesehen (abgesehen von dediziertem Tonemapping.)Quark!
OpenEXR ist einfach nur ein Datenformat, wie IEEE-754.
DirectX9 definiert auch nicht etwa "HDR", sondern Texturformate und Render-Target-Formate.
Damit kann man HDR machen, aber es ist nicht HDR.
*gnarf*

aths
2005-06-15, 21:08:41
Quark!
OpenEXR ist einfach nur ein Datenformat, wie IEEE-754.
DirectX9 definiert auch nicht etwa "HDR", sondern Texturformate und Render-Target-Formate.
Damit kann man HDR machen, aber es ist nicht HDR.
*gnarf*Ja. OpenEXR spezifiziert aber das FP16-Format, das NV40 für HDR nutzt (ist ja zufällig kompatibel mit DX9 _PP.) Und DX sieht Texturformate vor, sie sich für HDR nutzen lassen – das alles zeigt doch, dass das von langer Hand geplant war. Und nicht dass NV, weil die nicht ausgelastet waren, FP16-Units einbauten und dann feststellten "Huch, damit könnte man HDR-Rendering machen." Also die Datenformate für HDR wurden spezifiziert, abgesehen von Tonemapping ändert sich ja sonst an der Lichtberechnung nichts. Danke für die Präzisierung (das ist nicht mal ironisch gemeint. Ich habe es gern korrekt.)

Gast
2005-06-15, 21:14:48
Ist das eine Information die du hast, oder nur eine Vermutung?
Deins ist eine Vermutung...

Nvidia hat FP16-Texturfilterung und Alphablending nicht zum Spaß eingebaut, etwa um den Die vollzukriegen. Diese Units haben sich einfach als notwendig herausgestellt, wenn man HDR-Rendering in erträglicher Performance haben möchte.
Das ist jetzt aber nicht Ernst?
Sorry, aber da fällt mir nichts mehr zu ein. ;D



"HDR" ist spezifiziert. In OpenEXR, und in DirectX9 ebenso vorgesehen (abgesehen von dediziertem Tonemapping.)
:lol:

In den NV-Präsentationen die ich kenne, wurde die Möglichkeit des HDR-Renderings als ein herausragendes Merkmal des NV40 dargestellt.
Scheinst ja ein Insider zu sein... ;)

Gast
2005-06-15, 21:16:32
Der NV40 hat sogar eine Tonemapping-Unit, die allerdings nicht so funktionierte wie gedacht und auch nicht genutzt wird.



ist es eigentlich sicher dass die einheit nicht funktioniert oder fehlt da nicht einfach nur die api-unterstützung?

Demirug
2005-06-15, 21:29:07
ist es eigentlich sicher dass die einheit nicht funktioniert oder fehlt da nicht einfach nur die api-unterstützung?

DX kennt sowas nicht und für OpenGL hat nVidia keine Extension herausgebracht. Also liegt der Verdacht nahe das was immer da auch eingebaut wurde nicht funktioniert.

Gast
2005-06-15, 21:37:24
edit:
HDR ist auch ohne FP16-ROPs auf nahezu jedem DX9-Chip lauffähig.
Richtig, deswegen habe ich die Aussage vo aths...:

Nvidia hat FP16-Texturfilterung und Alphablending nicht zum Spaß eingebaut, etwa um den Die vollzukriegen. Diese Units haben sich einfach als notwendig herausgestellt, wenn man HDR-Rendering in erträglicher Performance haben möchte.
...in Frage gestellt.

HDR ist halt eine Definitionssache. :)

Quasar
2005-06-15, 21:41:06
Richtig, deswegen habe ich die Aussage vo aths...:

...in Frage gestellt.

HDR ist halt eine Definitionssache. :)
aths hat aber auch geschrieben, daß es um 'erträgliche Performance' ging.

Gast
2005-06-15, 21:44:36
aths hat aber auch geschrieben, daß es um 'erträgliche Performance' ging.
Und?
Das Fake-HDR, was die Meisten eh nicht vom richtegem HDR unterscheiden können, bietet deutlich mehr Vorteile auf der vorhandenen Hardware...

In Zukunft mag das anders aussehen...

mapel110
2005-06-15, 21:48:22
Und?
Das Fake-HDR, was die Meisten eh nicht vom richtegem HDR unterscheiden können,
Ich hab noch nirgens einen Vergleich gehabt. Du etwa?

Coda
2005-06-15, 21:52:15
Das mit HDR immer dieser Bloom assoziiert wird ist ja das schlimmste Übel imho...

Gast
2005-06-15, 21:52:51
Ich hab noch nirgends einen Vergleich gehabt. Du etwa?
Ja. :)

Ich arbeite zwar nicht in der Spielindustrie, aber Testversuche mit Visualisierungen habe ich schon einige hinter mir. ;)

Und ich muß sagen, dass die Meisten ziemlich blind sind. ;)

Gast
2005-06-15, 21:54:02
Das mit HDR immer dieser Bloom assoziiert wird ist ja das schlimmste Übel imho...
Bloom, Overbright oder wie immer du es auch nennst...
Die Meisten sehen da kein Unterschied.

aths
2005-06-15, 22:01:20
Deins ist eine Vermutung...Darf man fragen, woher du denn deine Informationen hast?

Das ist jetzt aber nicht Ernst?
Sorry, aber da fällt mir nichts mehr zu ein. ;DSchade.

:lol:Eine Argumentation stelle ich mir anders vor.

Scheinst ja ein Insider zu sein... ;)Ich habe mit einigen Leuten von NV über den NV40 gesprochen, da waren die HDR-Fähigkeit und die dazu bereitgestellten Hardware-Einheiten natürlich auch ein Thema. Darf man erfahren was deine Quellen sind?

aths
2005-06-15, 22:05:05
ist es eigentlich sicher dass die einheit nicht funktioniert oder fehlt da nicht einfach nur die api-unterstützung?Auf eine Nachfrage hin bekam ich die Antwort, diese Unit würde nicht "as intended" funktionieren. Auf der ersten Präsentation (Februar 2004) wurde noch von der Tonemapping-Unit gesprochen, die das Tonemapping angeblich bis zu 10x schneller als ein Pixelshader-Code ausführen würde. Details zur Funktion (wird eine Formel eingestellt? Gehts via Lookup-Table?) bekam ich da aber nicht.

aths
2005-06-15, 22:09:40
Bloom, Overbright oder wie immer du es auch nennst...
Die Meisten sehen da kein Unterschied.HDR ermöglicht auch, im Dunklen noch erkennbares zu liefern anstatt nur heftiges Colorbanding, welches fast keine Details mehr übrig lässt.

Gast
2005-06-15, 22:09:45
Darf man fragen, woher du denn deine Informationen hast?
Sorry aths, aber damit disqulifizierst Du Dich...
Es gibt eigentlich keine Informationen zu HDR. Es ist ein Nebenprodukt.
Falls es eine Fangfrage war, dann mußt Du Dir was besseres einfallen lassen. :)

Eine Argumentation stelle ich mir anders vor.
Was soll ich Dir darauf antworten?
Du liegst fasch?
Begründe Deine Ansichten...

Ich habe mit einigen Leuten von NV über den NV40 gesprochen, da waren die HDR-Fähigkeit und die dazu bereitgestellten Hardware-Einheiten natürlich auch ein Thema. Darf man erfahren was deine Quellen sind?
Ist ja schön, dass Du Deine Erkenntnisse direkt von Nvidia hast.
Wen wunderts, dass Du das Fake-HDR nicht richtig kennst.
Aber vielleicht kannst Du das nachholen. :)

Coda
2005-06-15, 22:14:00
Es gibt eigentlich keine Informationen zu HDR. Es ist ein Nebenprodukt. Nein ist es nicht. HDR zeichnet sich dadurch aus das der Framebuffer eben High Dynamic Range Werte speichert und FP16 ROPs werden für nicht anderes gebraucht.

HDR ist nicht dieser Overbright Effekt. Das ist nur eine Möglichkeit wie ein Postfilter aussehen kann der die HDR Werte verarbeitet.

Gast
2005-06-15, 22:14:03
HDR ermöglicht auch, im Dunklen noch erkennbares zu liefern anstatt nur heftiges Colorbanding, welches fast keine Details mehr übrig lässt.
Endlich was brauchbares. :)
Das ist natürlich richtig. Ich bin auch ein HDR-Freak. Softshadows sehen auch sehr gut aus.
Das Problem an der Geschichte ist nur, dass das die Wenigsten wahrnehmen.
Ich stehe voll auf Deiner Seite, aber viele sehen es anders..

Gast
2005-06-15, 22:14:40
Nein ist es nicht. HDR zeichnet sich dadurch aus das der Framebuffer eben High Dynamic Range Werte speichert und FP16 ROPs werden für nicht anderes gebraucht.
Definiere HDR :)

Coda
2005-06-15, 22:16:50
Hab ich doch eben. Der Framebuffer kann Werte außerhalb von [0.0,1.0] enthalten.

Was dann damit gemacht wird ist eine andere Sache, aber das ist HDR. So simpel ist die Definition.

Gast
2005-06-15, 22:18:55
Hab ich doch eben. Der Framebuffer kann Werte außerhalb von [0.0,1.0] enthalten.
Keine Techink, für alle begreifbare oder visuell nachvollziehbare Begriffe.
Das würde mir auch bisschen weiterhelfen. :)

Coda
2005-06-15, 22:21:02
Solange nichts mit den Werten gemacht wird in einem Postfilter ist ein mit HDR gerendertes Bild exakt gleich (bis auf etwas geringeres Banding). HDR ist eben schon ein technisches Detail und kein einzelner "Effekt". Das ist das große Problem an der Sache: Man kann es schlecht begreiflich machen.

Es können eben auch Lichtintensitäten > 1.0 (höchste Helligkeit) abgespeichert werden, die der Monitor zwar nicht anzeigen kann, aber für Postfilter eben die nötigen Informationen liefern.

Und FP16 ROPs sind wirklich ausschließlich für diesen Zweck zu gebrauchen. Zu sagen nVIDIA hätte nichts von HDR gewusst ist einfach Quark.

ShadowXX
2005-06-15, 22:21:11
Sorry aths, aber damit disqulifizierst Du Dich...
Es gibt eigentlich keine Informationen zu HDR. Es ist ein Nebenprodukt.


Ein Nebenprodukt von was?

Demirug
2005-06-15, 22:22:04
Hab ich doch eben. Der Framebuffer kann Werte außerhalb von [0.0,1.0] enthalten.

Was dann damit gemacht wird ist eine andere Sache, aber das ist HDR. So simpel ist die Definition.

Man kann auch mit dem Wertebereich von 0-1 HDR rendering realisieren. Solange das Datenformat die benötige "Dynamic range" sauber auflösen kann. Allerdings ist es wirklich einfacher wenn die 0-1 Begrenzung nicht vorhanden ist.

aths
2005-06-15, 22:22:30
Sorry aths, aber damit disqulifizierst Du Dich...
Es gibt eigentlich keine Informationen zu HDR. Es ist ein Nebenprodukt. Entweder haben wir unterschiedliche Ansichten zu dem, was ein "Nebenprodukt" ist, oder ich muss dich noch ein mal mit Nachdruck darum bitten, deine Argumentation zu vervollständigen.

Ich bringe an Punkten folgendes vor:

- Die FP16-Units sind teuer, kosten also recht viele Transistoren. FP16-Texturfilter und Alphablender baut man nicht nur so zum Spaß ein.

- Die (allerdings nicht funktionierende) Tonemapping-Unit ist praktisch nur für HDR zu gebrauchen. Warum ist sie geplant und sogar (wenn auch verbuggt) eingebaut worden, wenn sich HDR nur so als Nebenprodukt der FP16-Units ergeben hätte?

- Wozu hätte Nvidia sonst die FP16-Units einbauen sollen, wenn nicht für High Dynamic Range? HDR ist nicht gleichbedeutend mit Gloom-Effekten, sondern ermöglicht einfach durchgehende Rechnungen, Texturfilterungen und Blending-Operationen in hoher Dynamik.

- HDR-Rendering wird über kurz oder lang Standard. Dass man mit LDR keine realistischen Lichtberechnungen machen kann, war lange vor dem NV40 bekannt. Erst mit dem NV40 sah sich ein IHV in der Lage, die für eine erträgliche Performance notwendigen dedizierten Units in den Chip zu integrieren.


Falls es eine Fangfrage war, dann mußt Du Dir was besseres einfallen lassen. :)

Was soll ich Dir darauf antworten?
Du liegst fasch?
Begründe Deine Ansichten...Ich sehe nur dass du die ganze Zeit "Nebenprodukt" rufst.

Ist ja schön, dass Du Deine Erkenntnisse direkt von Nvidia hast.
Wen wunderts, dass Du das Fake-HDR nicht richtig kennst.
Aber vielleicht kannst Du das nachholen. :)Von Nvidia habe ich Informationen, was sich zur Erkenntis verfestigt ist nicht immer das, was Nvidia sagt. Effekte die mit "Fake-HDR" realisiert werden und echtes HDR ist etwas anderes – "Fake-HDR" ermöglicht einige Effekte, die (in besserer Qualität) auch mit echtem HDR-Rendering realisierbar sind, aber mit Fake-HDR kann man längst nicht alles machen, was echtes HDR möglich macht.

Auch R300 kann echtes HDR – bei schwacher Performance, wenn man von spezialisierten Techdemos wie rtibhdrl absieht. Die FP16-Units im NV40 sind – imo völlig logisch – zur Beschleunigung von HDR-Rendering gedacht und dafür entworfen und eingebaut. Wofür sollten Units, die in hoher Dynamik rechnen, sonst eingebaut sein wenn nicht für High Dynamic Range-Rendering?

Quasar
2005-06-15, 22:23:41
Sorry aths, aber damit disqulifizierst Du Dich...
Es gibt eigentlich keine Informationen zu HDR. Es ist ein Nebenprodukt.

Leider falsch - die Dokumente sprechen eindeutig gegen dich.

Coda
2005-06-15, 22:23:41
Man kann auch mit dem Wertebereich von 0-1 HDR rendering realisieren. Solange das Datenformat die benötige "Dynamic range" sauber auflösen kann. Allerdings ist es wirklich einfacher wenn die 0-1 Begrenzung nicht vorhanden ist.Bitte mache die Sache nicht noch komplizierter als sie ist, es ist schon so schwer genug zu vermitteln.

Gast
2005-06-15, 22:27:31
Leider falsch - die Dokumente sprechen eindeutig gegen dich.
Nö...

Coda
2005-06-15, 22:35:25
Also entweder du gehst jetzt auf die Argumente ein oder trollst dich, aber mit einem simplen "Nö..." gehst du uns hier nur gewaltig auf die Nerven.

Gast
2005-06-15, 22:40:32
Also entweder du gehst jetzt auf die Argumente ein oder trollst dich, aber mit einem simplen "Nö..." gehst du uns hier nur gewaltig auf die Nerven.
Siehe Demirugs letzter Post. :)

Quasar
2005-06-15, 22:46:35
Nö...
http://www.computerbase.de/artikel/hardware/grafikkarten/2004/nvidia_geforce_6800_ultra/9/#abschnitt_high_definition_range_rendering
Diese Bilder stammen aus der nV-Präsentation zum nV40 - HDR war eines der längsten Kapitel darin, zusammen mit OpenEXR und dem kpl. Kontext.

aths
2005-06-15, 22:47:50
Solange nichts mit den Werten gemacht wird in einem Postfilter ist ein mit HDR gerendertes Bild exakt gleich (bis auf etwas geringeres Banding).Und HDR-Texturfilterung bringt einen großen Performance-Schub, weil man für HDR-Rendering ja hier und da entsprechende Lightmaps braucht.

aths
2005-06-15, 22:55:40
Man kann auch mit dem Wertebereich von 0-1 HDR rendering realisieren. Solange das Datenformat die benötige "Dynamic range" sauber auflösen kann.Was selten der Fall ist. NV spricht dennoch von HPDR, also High Precision Dynamic Range, um zu betonen dass neben der Dynamik auch hohe Präzision geboten wird – in der Praxis ja nicht unwichtig. Das FP16-Format skaliert zudem logarithmisch (bzw. exponentiell), was – das muss ich dir ja nicht sagen – natürlich von Vorteil ist. Wenn man eine Dynamik von 0..8 braucht, hätte man beim FX8-Format nur noch 5 Bit, also 32 Intensitäts-Stufen übrig. Während das für dich alles andere als neu ist, hoffe ich dass der Gast nicht nur auf deine Postings verweist, sondern auch versucht, sie zu verstehen.

Black-Scorpion
2005-06-15, 23:03:49
Als wenn gerade Marketingaussagen der Weißheit letzter Schluß sind.
Siehe VP der auch groß beworben wurde und nicht funktioniert hat.
Zumindest nicht so wie gedacht/versprochen und das hat das Marketing auch nicht abgehalten.

Coda
2005-06-15, 23:03:58
Siehe Demirugs letzter Post. :)Ja, was ist damit das Problem? 32bit hat keine high dynamic range. Dazu müsste das Format genauso FP sein, dass es auch in der 0-1 Range funktioniert.

Du stellst hier Behauptungen auf ohne überhaupt die technischen Details zu kennen. Imho qualifizierst du dich damit zum typischen Fanboy.

Und HDR-Texturfilterung bringt einen großen Performance-Schub, weil man für HDR-Rendering ja hier und da entsprechende Lightmaps braucht.Lightmaps braucht man nicht filtern. UT hat das iirc z.B. auch nicht gemacht.

aths
2005-06-15, 23:10:05
Lightmaps braucht man nicht filtern. UT hat das iirc z.B. auch nicht gemacht.Lightmaps würde ich schon bilinear filtern. Sonst wäre es impraktikabel, sie in Vergrößerung zu nutzen.

Quasar
2005-06-15, 23:11:21
Als wenn gerade Marketingaussagen der Weißheit letzter Schluß sind.
Siehe VP der auch groß beworben wurde und nicht funktioniert hat.
Zumindest nicht so wie gedacht/versprochen und das hat das Marketing auch nicht abgehalten.
Tjo, aber selbst die bestreitet Gast ja.

Coda
2005-06-15, 23:11:37
Das Banding wird von den dagegen hochfrequenten Texturen überdeckt. Glaub's mir, man sieht den Unterschied praktisch nicht.

zeckensack
2005-06-15, 23:21:11
Lightmaps braucht man nicht filtern. UT hat das iirc z.B. auch nicht gemacht.Ich denke schon. Und mit Verlaub, ich sollte es eigentlich wissen :)

@aths,
es ging mir darum dass HDR an sich keine Spezifikation hat, weder in DirectX9, noch indirekt durch OpenEXR. Natürlich haben die Junx die FP16-Filter und -Blender für HDR eingebaut, es gibt wohl auch keinen besseren Grund sowas zu tun.

Demirug
2005-06-15, 23:30:13
Was selten der Fall ist. NV spricht dennoch von HPDR, also High Precision Dynamic Range, um zu betonen dass neben der Dynamik auch hohe Präzision geboten wird – in der Praxis ja nicht unwichtig. Das FP16-Format skaliert zudem logarithmisch (bzw. exponentiell), was – das muss ich dir ja nicht sagen – natürlich von Vorteil ist. Wenn man eine Dynamik von 0..8 braucht, hätte man beim FX8-Format nur noch 5 Bit, also 32 Intensitäts-Stufen übrig. Während das für dich alles andere als neu ist, hoffe ich dass der Gast nicht nur auf deine Postings verweist, sondern auch versucht, sie zu verstehen.

Die Dynamik definiert sich letztenden Endes doch nicht über den Wertbereich. Nicht umsonst gibt man sie ja in dB an. Deswegen schrieb ich ja das der Wertbereich von 0-1 ausreicht wenn das Format eine dem Anwendungsfall entsprechenden "Dynamic Range" hat.

8Bit RGBA = 2,4 dB
8Bit sRGB = 3,5 dB
16Bit RGBA = 4,8 dB

Alle haben aber nur den Wertbereich von 0 bis 1;

Allerdings macht FP16 mit 12 dB und ohne Clamp eindeutig mehr Spass.

aths
2005-06-15, 23:36:44
Die Dynamik definiert sich letztenden Endes doch nicht über den Wertbereich. Nicht umsonst gibt man sie ja in dB an. Deswegen schrieb ich ja das der Wertbereich von 0-1 ausreicht wenn das Format eine dem Anwendungsfall entsprechenden "Dynamic Range" hat.

8Bit RGBA = 2,4 dB
8Bit sRGB = 3,5 dB
16Bit RGBA = 4,8 dB

Alle haben aber nur den Wertbereich von 0 bis 1;

Allerdings macht FP16 mit 12 dB und ohne Clamp eindeutig mehr Spass.Mit sRGB zu rechnen dürfte schwierig sein. 16 Bit Integer wird – soweit ich informiert bin – von keinem gängigen Chip unterstützt, außer vom R200 (wobei das FX16 dort allerdings von -8..+8 geht, soweit ich weiß.)

Bleibt in der Praxis FX8. Das hat einfach zu wenig Dynamik, weil es linear quantisiert ist. Hohe Dynamik bei linearer Quantisierung hieße ja, sehr viele Bits zu brauchen. Ob man FX8 nun von 0..1 interpretiert oder nicht ist ja Jacke wie Hose – 8 Bit sind bei linearer Repräsentation zu wenig.

Dynamik definiert sich über den Größenunterschied vom größten Wert zum kleinsten Wert ungleich Null, ja, und nicht über den Wertebereich. Soweit ich weiß ist die vom Auge erfassbare Dynamik etwa bei 14 dB – FP16 ist also auf längere Sicht nicht das Ende der Fahnenstange, aber ein guter Anfang.

aths
2005-06-15, 23:37:57
Das Banding wird von den dagegen hochfrequenten Texturen überdeckt. Glaub's mir, man sieht den Unterschied praktisch nicht.Den Unterschied siehst du hundertpro. Glaubs mir, ich hab kürzlich Max Payne2 mit Point Sampling gespielt.

Coda
2005-06-15, 23:40:03
Pointsampling nur bei der lightmap oder diffuse und lightmap?

Ich denke schon. Und mit Verlaub, ich sollte es eigentlich wissen Ich weiß nicht ob es UT war, aber irgendwo hab ich das schon gesehen :|

aths
2005-06-15, 23:41:30
Pointsampling nur bei der lightmap oder diffuse und lightmap?Die Frage verstehe ich nicht. Das Vertexlighting war natürlich noch aktiv, aber alle Texturen mit Point Sampling (und MIP-Mapping) gerendert. Ich mach mal n Screenshot, Moment bitte.

Coda
2005-06-15, 23:44:28
Ich meinte damit eigentlich das nur die Lightmap pointsampling abbekommt, nicht die Diffustextur.

Demirug
2005-06-15, 23:49:52
Mit sRGB zu rechnen dürfte schwierig sein. 16 Bit Integer wird – soweit ich informiert bin – von keinem gängigen Chip unterstützt, außer vom R200 (wobei das FX16 dort allerdings von -8..+8 geht, soweit ich weiß.)

Bleibt in der Praxis FX8. Das hat einfach zu wenig Dynamik, weil es linear quantisiert ist. Hohe Dynamik bei linearer Quantisierung hieße ja, sehr viele Bits zu brauchen. Ob man FX8 nun von 0..1 interpretiert oder nicht ist ja Jacke wie Hose – 8 Bit sind bei linearer Repräsentation zu wenig.

Dynamik definiert sich über den Größenunterschied vom größten Wert zum kleinsten Wert ungleich Null, ja, und nicht über den Wertebereich. Soweit ich weiß ist die vom Auge erfassbare Dynamik etwa bei 14 dB – FP16 ist also auf längere Sicht nicht das Ende der Fahnenstange, aber ein guter Anfang.

sRGB ist im Prinzip kein Problem. Das Problem ist nur das das Alphablendig nicht zwingend im linearen Space erfolgen muss. Ein Kompromiss den MS wohl eingehen musste.

aths
2005-06-15, 23:50:59
Ich meinte damit eigentlich das nur die Lightmap pointsampling abbekommt, nicht die Diffustextur.Was ist die Diffustextur?

Hier die Bilder:

http://www.dudv.de/files/3dcf/tril.jpg

http://www.dudv.de/files/3dcf/points.jpg

aths
2005-06-15, 23:52:06
sRGB ist im Prinzip kein Problem. Das Problem ist nur das das Alphablendig nicht zwingend im linearen Space erfolgen muss. Ein Kompromiss den MS wohl eingehen musste.Ein ADD von zwei sRGB-Werten liefert doch ein falsches Ergebnis – man müsste vorher und nachher (in FP-Genauigkeit) mit POW ran. Iirc, kostet ein POW ca. 3 Takte.

aths
2005-06-15, 23:58:01
Ich denke schon. Und mit Verlaub, ich sollte es eigentlich wissen :)

@aths,
es ging mir darum dass HDR an sich keine Spezifikation hat, weder in DirectX9, noch indirekt durch OpenEXR. Natürlich haben die Junx die FP16-Filter und -Blender für HDR eingebaut, es gibt wohl auch keinen besseren Grund sowas zu tun.Na die Spezifikation von HDR ist ein Mindestmaß an Dynamik. Ich bin ja so hardcoremäßig drauf, für echtes echtes HDR FP32 zu verlangen und bei FP16 eigentlich nur von MDR zu sprechen. High Dynamic Range – durch was kann das spezifiziert werden? Durch Mindestanforderungen an die Dynamik, oder? Ich wüsste nichts besseres. FP16 ist so eine Definition, und wird von DX9 und OpenEXR bitkompatibel als ein mögliches Datenformat beschrieben. NV drückt sich ja beim FP16-Format um "HDR" und nennt es HPDR. Das kommt mir insofern entgegen, als dass ich nicht alles was besser als FX8 ist, gleich HDR nennen möchte.

Demirug
2005-06-16, 00:01:41
Ein ADD von zwei sRGB-Werten liefert doch ein falsches Ergebnis – man müsste vorher und nachher (in FP-Genauigkeit) mit POW ran. Iirc, kostet ein POW ca. 3 Takte.

Genau das ist ja der Punkt. Die Ideale Lösung sieht vor das erst nach den ROPs in sRGB konvertiert wird bzw wenn die ROPs im sRGB Modus sind beim auslesen aus dem Speicher für das Alphablending der Wert in den linearen Farbraum gewandelt wird.

Da das aber mindestens ein IHV nicht kann schreibt MS diese Lösung nicht zwingend vor und erlaubt eine Konvertierung in den Shadern mit anschliesendem falschen Alphablending.

Coda
2005-06-16, 00:17:07
Was ist die Diffustextur?
Hier die Bilder:Das ist seltsam. Vielleicht hab ich schon vom bilinearen Filtering Artefakte gesehen, weil die Lightmaps extrem niedrig aufgelöst waren + komischer Gammaeinstellung von UT?

Ich weiß es nicht, es gab auf jeden Fall eine Blockbildung, aber lang nicht so krass.

aths
2005-06-16, 00:29:59
Das ist seltsam. Vielleicht hab ich schon vom bilinearen Filtering Artefakte gesehen, weil die Lightmaps extrem niedrig aufgelöst waren + komischer Gammaeinstellung von UT?

Ich weiß es nicht, es gab auf jeden Fall eine Blockbildung, aber lang nicht so krass.Krass? Das ist krass:


http://www.dudv.de/files/3dcf/points1.jpg


http://www.dudv.de/files/3dcf/points2.jpg


http://www.dudv.de/files/3dcf/points3.jpg

(Diese Bilder sind alle mit 16x Supersampling gerendert.)

Da merkt man erst mal, wie wenig Texel man für Helligkeitsverläufe braucht.

Coda
2005-06-16, 00:32:27
Naja da hilft 16xSS dann auch nix mehr ;D

aths
2005-06-16, 00:35:36
ATI mit der 6-Bit-Gewichtungs-Quantisierung kann aus meiner Sicht in Schwulitäten geraten. Um einen großen Helligkeitsverlauf von 0 nach 255 zu zeichnen, sollte man schon volle 8-Bit-Präzision haben. Für Max Payne 2 reichts wohl noch, dennoch: Die Bildauflösung nimmt zu, aber Lightmaps kommen in einigen Fällen mit extrem geringer Auflösung aus.

deekey777
2005-06-16, 00:35:39
Diese Info hat ATi gegeben. Warum sollte ATi lügen?

Genau darum geht's auch: Was hat ATi gemacht - und auf Kosten wovon?

@aths: Hör bitte auf, Max Payne 2 zu vergewaltigen, sonst kommen mir noch die Trännen.
Ist HDR Rendering eigentlich nicht eine Definitionssache?

Coda
2005-06-16, 00:39:11
Ist HDR Rendering eigentlich nicht eine Definitionssache?Jain. High Dynamic Range ist eigentlich schon für FP16 zu übertrieben. Das müsste man als MDR bezeichen, da geb ich Aths recht.

Aber irgendwelche Spielereien mit 8bit Rendertargets + Bloom als HDR zu bezeichnen ist totaler Quark.

deekey777
2005-06-16, 00:44:41
Half Life 2: Lost Coast HDR overview (http://www.bit-tech.net/gaming/2005/06/14/hl2_hdr_overview/1.html)

Seite 2, zB "our definition of HDR for Lost Coast "
Irgendwie klingt es, ob jeder sein HDR nach seinem Belieben definieren würde, wobei bei VALVe ist es schon klar, daß deren HDR Rendering noch Higher als das der anderen. ;D


(For example, Lombardi says of Blooming: "This feature has been added to other applications and is often mistaken as a full implementation of HDR," - one reason why he was keen to talk to us to help clear the air surrounding HDR rendering.)

aths
2005-06-16, 00:58:32
Jain. High Dynamic Range ist eigentlich schon für FP16 zu übertrieben. Das müsste man als MDR bezeichen, da geb ich Aths recht.Das hängt natürlich vom Einsatzgebiet ab. In der Musik ist man mit 16 Bit Auflösung bei linearer Quantisierung sehr gut bedient, beim Nachbearbeiten reichen 24 Bit aus. In der 3D-Grafik kann man mit FP16 eben noch nicht den vollen Umfang des Auges abdecken. Die Unterschiede von dem, was wir im Dunklen noch umrissartig erkennen und dem, was nahe der Schmerzgrenze an Sonnenlicht in die Augen ballern kann, sind gewaltig. Da (hoffentlich) niemand auf die Idee kommen wird, FP24-Texturfilter- oder Alphablender zu basteln, wäre ich dafür, ab FP32 (nach IEEE745, aber ohne Denorms) "HDR" zu sagen. Obwohl man es bei FP16 nicht sooo oft braucht, wäre ich dafür, Denorm-Support für FP16 zu haben um das volle MDR-Potenzial erschließen zu können. FX8, FX12 und FX16 sind für mich LDR, obwohl man mit FX16 schon einige passable Overbright-Effekte hinkriegt, und FX12 gegenüber FX8 schon eine nette Erweiterung darstellt (FX12-Hardware hatte ich mir schon für GeForce4 gewünscht.)

Ich kann mir vorstellen, dass eines Tages die Pixelpipeline mit mehr als mit FP32 rechnet. Vorläufig erscheint mir FP32 gut genug, und FP16 als "Half"-Format ein idealer Kompromiss, auch als MDR-Framebuffer, auch als Texturformat. (Wobei über kurz oder lang eine FP-Texturkomprimierung hermuss.)

Übrigens bin ich der Meinung, dass wir endlich den 10:10:10:2-Framebuffer brauchen, und zwar mit gedithertem Output.

Coda
2005-06-16, 01:02:48
Da (hoffentlich) niemand auf die Idee kommen wird, FP24-Texturfilter- oder Alphablender zu basteln,...Klingt doch gar nicht so schlecht. 12 statt 16 Bytes für eine wohl von FP32 nicht zu unterscheidende Grafik.

Ich kann mir vorstellen, dass eines Tages die Pixelpipeline mit mehr als mit FP32 rechnet.Ich nicht, das machen AFAIK nicht mal die offline renderer.

aths
2005-06-16, 01:05:48
Klingt doch gar nicht so schlecht. 12 statt 16 Bytes für eine wohl von FP32 nicht zu unterscheidende Grafik.Je moderner die GPU, desto mehr kann man abseits der Grafik machen.

Ich nicht, das machen AFAIK nicht mal die offline renderer.Ich denke, schon, und nicht erst in 10 Jahren. Wobei FP32 für Tex-Ops auch für 8192-er Texturen noch ausreicht. Meiner Meinung nach ist aber schon abzusehen, dass 24 Bit für Z mal an seine Grenzen kommt. Wenn man später mit prozeduralen Texturen und langen Shadern arbeitet, kann sich FP32 im Pixelshader als zu ungenau erweisen. Auch beim Vertexshading sehe ich denkbare Szenarien, wo FP32 bissel dünn wäre.

Jetzt ist natürlich erst mal zu hoffen, dass sich (mindestens) FP16 als MDR-Format durchsetzt.

aths
2005-06-16, 01:11:55
Genau das ist ja der Punkt. Die Ideale Lösung sieht vor das erst nach den ROPs in sRGB konvertiert wird bzw wenn die ROPs im sRGB Modus sind beim auslesen aus dem Speicher für das Alphablending der Wert in den linearen Farbraum gewandelt wird.

Da das aber mindestens ein IHV nicht kann schreibt MS diese Lösung nicht zwingend vor und erlaubt eine Konvertierung in den Shadern mit anschliesendem falschen Alphablending.Der Framebuffer sollte für beste Qualität eigentlich sRGB-Inhalte speichern. Damit das alles klappt, müssten aber Textur-Farben vor dem Filtern von sRGB nach RGB umgewandelt werden, und afaik hakt es da schon.

Coda
2005-06-16, 01:14:01
Wenn man später mit prozeduralen Texturen und langen Shadern arbeitet, kann sich FP32 im Pixelshader als zu ungenau erweisen.Wie gesagt, wenn mich nicht alles täuscht sind die Shader in Maya&Co. auch nur mit Single Precision gerechnet.

aths
2005-06-16, 01:48:51
Wie gesagt, wenn mich nicht alles täuscht sind die Shader in Maya&Co. auch nur mit Single Precision gerechnet.Eine Intel-CPU rechnet afaik intern mit Extended, wobei die Ergebnisse bei Nutzung von Single dann aufs FP32-Format gerundet werden. Die heutigen Offline-Renderer nutzen in den für sie vorgesehen Szenarien sicher nicht alles aus, was in einigen Jahren leistungsmäßig in Echtzeit möglich wäre. Wenn sich die IHVs natürlich stur stellen und sich permanent zieren, mehr als FP32 anzubieten, muss der Entwickler damit irgendwie klar kommen.

Demirug
2005-06-16, 07:10:50
Der Framebuffer sollte für beste Qualität eigentlich sRGB-Inhalte speichern. Damit das alles klappt, müssten aber Textur-Farben vor dem Filtern von sRGB nach RGB umgewandelt werden, und afaik hakt es da schon.

Wieso sollte es da haken? Man braucht nur Hardware die das ganze unterstützt und muss es natürlich dann auch einschalten. Zusätzlich braucht man mindestens einen Fallback für Hardware die es nicht kann. Ich könnte jetzt die Spezifikation dafür aus unserer internen Doku anfügen aber das bringt ja keinem was.

Demirug
2005-06-16, 07:13:26
Eine Intel-CPU rechnet afaik intern mit Extended, wobei die Ergebnisse bei Nutzung von Single dann aufs FP32-Format gerundet werden. Die heutigen Offline-Renderer nutzen in den für sie vorgesehen Szenarien sicher nicht alles aus, was in einigen Jahren leistungsmäßig in Echtzeit möglich wäre. Wenn sich die IHVs natürlich stur stellen und sich permanent zieren, mehr als FP32 anzubieten, muss der Entwickler damit irgendwie klar kommen.

Schnelle Softwarerenderer setzten aber auch fleisig SSE ein und sobald man ein 64 Bit Windows nutzt ist SSE sowieso Plicht.

Demirug
2005-06-16, 07:15:33
Je moderner die GPU, desto mehr kann man abseits der Grafik machen.

Ich denke, schon, und nicht erst in 10 Jahren. Wobei FP32 für Tex-Ops auch für 8192-er Texturen noch ausreicht. Meiner Meinung nach ist aber schon abzusehen, dass 24 Bit für Z mal an seine Grenzen kommt. Wenn man später mit prozeduralen Texturen und langen Shadern arbeitet, kann sich FP32 im Pixelshader als zu ungenau erweisen. Auch beim Vertexshading sehe ich denkbare Szenarien, wo FP32 bissel dünn wäre.

Jetzt ist natürlich erst mal zu hoffen, dass sich (mindestens) FP16 als MDR-Format durchsetzt.

Das Problem mit dem Z Buffer ist das er nicht als FP gepseichert ist. 32 Bit FP Z wird dagegen noch lange reichen aber da wollen die IHVs noch nicht so richtig mitgehen da es die ROPs und anderer Teile aufweniger macht.

Beim Vertexshading gibt es ja schon eine FP36 Lösung.

Hübie
2005-06-16, 10:09:48
Ich habe gelesen, das Ubisoft einen SM2.0 Patch für SC3 nachliefern will. Ist da nun was dran oder nur Spekulation???
Ich finds echt schmutzig, was die Industrie mit deren Marketing uns da antut :|
"HL² ATi-optimiert, Doom³ nVidia-optimiert und SC3 möchte gerne SM3.0 für gute Qualität haben" BLAAAH :mad:
Demirug, du Guru: Ist es schwer die "verschiedenen" shadercodes zu impelmentieren???


bye Hübie

Demirug
2005-06-16, 10:23:22
Ich habe gelesen, das Ubisoft einen SM2.0 Patch für SC3 nachliefern will. Ist da nun was dran oder nur Spekulation???
Ich finds echt schmutzig, was die Industrie mit deren Marketing uns da antut :|
"HL² ATi-optimiert, Doom³ nVidia-optimiert und SC3 möchte gerne SM3.0 für gute Qualität haben" BLAAAH :mad:
Demirug, du Guru: Ist es schwer die "verschiedenen" shadercodes zu impelmentieren???


bye Hübie

Unterschiedliche Shaderpfade einzubauen ist nicht sonderlich kompliziert. Die Engien kann es ja sowieso. Das Problem bei SC3 liegt mehr darin das sich die verwendeten SM3 sich nicht so leicht in eine SM2 Lösung umsetzten lassen.

Hübie
2005-06-16, 10:29:39
Unterschiedliche Shaderpfade einzubauen ist nicht sonderlich kompliziert. Die Engien kann es ja sowieso. Das Problem bei SC3 liegt mehr darin das sich die verwendeten SM3 sich nicht so leicht in eine SM2 Lösung umsetzten lassen.

Wegen "Emulation"? Dann verzichtet man eben auf einige Effekte... müssen Texturen geändert werden? Ich denke net oder irre ich mich?? :)


bye Hübie

Demirug
2005-06-16, 10:32:30
Wegen "Emulation"? Dann verzichtet man eben auf einige Effekte... müssen Texturen geändert werden? Ich denke net oder irre ich mich?? :)


bye Hübie

Die Texturen bleiben die gleichen aber der Shadercode und die Shaderverwaltung lassen sich nicht direkt übertragen.

Coda
2005-06-16, 10:49:00
Eine Intel-CPU rechnet afaik intern mit Extended, wobei die Ergebnisse bei Nutzung von Single dann aufs FP32-Format gerundet werden. Die heutigen Offline-Renderer nutzen in den für sie vorgesehen Szenarien sicher nicht alles aus, was in einigen Jahren leistungsmäßig in Echtzeit möglich wäre. Wenn sich die IHVs natürlich stur stellen und sich permanent zieren, mehr als FP32 anzubieten, muss der Entwickler damit irgendwie klar kommen.Du kannst die CPU auch intern auf SP setzen, was alle Spiele übrigens auch tun.

Bei Vertexshadern magst du recht haben, da wird bei den Realizms ja auch schon mit 40bit gerechnet iirc, aber das sich bei Pixelshadern kann ich mir FP64 beim besten Willen nicht vorstellen.

Grindcore@work
2005-06-16, 12:29:17
Im übrigen finde ich es ziemlich beeindruckend, wie gefasst und sachlich Ihr mit den sinnentleerten Einwürfen vollkommen planloser Gäste umgeht. OT, aber das musste ich mal los werden. Ich finde es schon beim bloßen lesen stellenweise ärgerlich, dass man keine Milzbrandbriefe per IP verschicken kann. Eure Geduld jedoch zeugt von der Gelassenheit eines buddhistischen Mönches auf ner Wochenration Opium.

DaBrain
2005-06-16, 14:31:16
Muss ich mich mal anschließen. :)

Aber nicht vergessen, dass dieses Topic mehr als nur die technischen Aspekte behandelt. Ubisofts Handeln hatte bestimmt nich nur einen Grund.

aths
2005-06-16, 17:49:14
Wieso sollte es da haken? Man braucht nur Hardware die das ganze unterstützt und muss es natürlich dann auch einschalten. Kennst du Hardware, die sRGB-Texturen korrekt filtern kann?

aths
2005-06-16, 17:54:35
Du kannst die CPU auch intern auf SP setzen, was alle Spiele übrigens auch tun.

Bei Vertexshadern magst du recht haben, da wird bei den Realizms ja auch schon mit 40bit gerechnet iirc, aber das sich bei Pixelshadern kann ich mir FP64 beim besten Willen nicht vorstellen.Ich habe nicht gesagt, dass es im Pixelshader gleich FP64 sein muss :)

FP32 ist ja s23e8. Mit einem Bit mehr im Exponenten kann man auch in den Bereich denormalisierte FP32-Werte kommen, ohne selbst Denorm-Support anzubieten. Ich würde allerdings zwei Bit in den e schieben so dass man s29e10 hätte. So ein Format sollte genügend Luft bieten. Bei 42 Bit könnte man sich s31e10 erlauben, das wäre natürlich noch besser.

Wenn eines Tages Unified Shader kommen, müssen die ja an Genauigkeit sowohl Vertex- als auch Pixelshader-Anforderungen gerecht werden. NV zielt u. a. auf den professionellen Markt – schon deshalb halte ich einen langfristigen Verbleib bei FP32 für unwahrscheinlich.

aths
2005-06-16, 17:57:13
Im übrigen finde ich es ziemlich beeindruckend, wie gefasst und sachlich Ihr mit den sinnentleerten Einwürfen vollkommen planloser Gäste umgeht. Dabei hätte ich gerne mehr darüber erfahren, wie HDR ein Nebenprodukt von HDR-Units sein kann. Mit diesem Wissen hätte ich beim nächsten Gepräch mit NV-Leuten sicherlich auftrumpfen können. Jetzt aber muss ich mir weiterhin meine Erkenntnisse von Nvidia einflüstern lassen.

aths
2005-06-16, 18:04:58
Schnelle Softwarerenderer setzten aber auch fleisig SSE ein und sobald man ein 64 Bit Windows nutzt ist SSE sowieso Plicht.Inwiefern Pflicht – darf man dort nicht mehr die FPU benutzen?

Das Problem mit dem Z Buffer ist das er nicht als FP gepseichert ist. 32 Bit FP Z wird dagegen noch lange reichen aber da wollen die IHVs noch nicht so richtig mitgehen da es die ROPs und anderer Teile aufweniger macht.Gespeichert wird Z doch nur mit 24 Bit. Wenn ich gleichzeitig hohe Dynamik aber stellenweise auch hohe Präzision brauche, wird das imo zu knapp.

Beim Vertexshading gibt es ja schon eine FP36 Lösung.Bei welchen Karten?

Demirug
2005-06-16, 18:30:37
Kennst du Hardware, die sRGB-Texturen korrekt filtern kann?

Mein NV40 kann es. Ansonsten müsste ich mal ein paar Capsfiles prüfen.

Da ich entsprechenden Emulationscode in der Engine habe kümmert mich das Flag nicht mehr so sehr.

EDIT: R420 sollte es auch können.

aths
2005-06-16, 18:47:26
Mein NV40 kann es. Ansonsten müsste ich mal ein paar Capsfiles prüfen.

Da ich entsprechenden Emulationscode in der Engine habe kümmert mich das Flag nicht mehr so sehr.Interessant, denn als ich NV fragte ob NV40 sRGB-Texturen unterstützt, verstand ich die Antwort als "nein".

Wie emulierst du denn sRGB-Filterung? Bei der Umwandlung von FX8-sRGB zu linearen RGB-Texturen hätte man doch viel Verlust, und nach dem Filtern zu korrigieren bringt es ja nicht.

Demirug
2005-06-16, 18:50:54
Interessant, denn als ich NV fragte ob NV40 sRGB-Texturen unterstützt, verstand ich die Antwort als "nein".

Wie emulierst du denn sRGB-Filterung? Bei der Umwandlung von FX8-sRGB zu linearen RGB-Texturen hätte man doch viel Verlust, und nach dem Filtern zu korrigieren bringt es ja nicht.

Der Performance Modus macht eben wieder eine normale 8Bit RGBA Texture daraus.

Der Quality Modus pumpt die Texture wenn möglich in ein 16 Bit pro Kanal Format.

Gast
2005-06-16, 19:34:20
Dabei hätte ich gerne mehr darüber erfahren, wie HDR ein Nebenprodukt von HDR-Units sein kann. Mit diesem Wissen hätte ich beim nächsten Gepräch mit NV-Leuten sicherlich auftrumpfen können. Jetzt aber muss ich mir weiterhin meine Erkenntnisse von Nvidia einflüstern lassen.
HDR ist ein Nebenprodukt, wie z.B. Trueform, weil es in keiner API spezifiziert ist.
Feautures, die nicht spezifiziert sind, sind ein Nebenprodukt.
Über die Definition kann man sicherlich streiten. :)
Kannst du mir eine API zeigen, wo das Wort HDR vorkommt?
Ich denke nicht...

Der R200 hat auch Truform-Units, wenn du es so willst. War dennoch ein Nebenprodukt.

Coda
2005-06-16, 19:45:57
Ich habe nicht gesagt, dass es im Pixelshader gleich FP64 sein muss :)Ok - Missverständnis.

HDR ist ein Nebenprodukt, wie z.B. Trueform, weil es in keiner API spezifiziert ist.Truform war ist in DX8 sehr wohl spezifiziert und die HDR Formate waren in DX9 auch schon immer enthalten.

http://msdn.microsoft.com/library/default.asp?url=/library/en-us/directx9_c/directx/graphics/programmingguide/advancedtopics/HDRLighting/HDRLighting.asp

Demirug
2005-06-16, 19:46:35
HDR ist ein Nebenprodukt, wie z.B. Trueform, weil es in keiner API spezifiziert ist.
Feautures, die nicht spezifiziert sind, sind ein Nebenprodukt.
Über die Definition kann man sicherlich streiten. :)
Kannst du mir eine API zeigen, wo das Wort HDR vorkommt?
Ich denke nicht...

Der R200 hat auch Truform-Units, wenn du es so willst. War dennoch ein Nebenprodukt.

Truform ist aber in DX spezifiziert. Nur eben nicht unter dem Marketingnamen sondern unter der korrekten technischen Bezeichnung.

In der DX Dokumenation steht zudem eine Menge über HDR drin. Gibt sogar HDR Samples im SDK.

aths
2005-06-16, 21:31:09
HDR ist ein Nebenprodukt, wie z.B. Trueform, weil es in keiner API spezifiziert ist.Was ist denn das Hauptprodukt der FP16-Texturfilter- und Alphablender?

Tigerchen
2005-06-17, 07:17:45
Truform ist aber in DX spezifiziert. Nur eben nicht unter dem Marketingnamen sondern unter der korrekten technischen Bezeichnung.

In der DX Dokumenation steht zudem eine Menge über HDR drin. Gibt sogar HDR Samples im SDK.

Ist das HDR wie es in Splinter Cell oder FarCry geboten wird nun 100%ig nach den DX Forderungen gemacht?
Eine klare Antwort wäre nett.:)

Demirug
2005-06-17, 08:55:22
Ist das HDR wie es in Splinter Cell oder FarCry geboten wird nun 100%ig nach den DX Forderungen gemacht?
Eine klare Antwort wäre nett.:)


Wenn du als Entwickler was versuchst was nicht durch die Spec gedeckt ist funktioniert es nicht. Ergo sind beide HDR Variante konform stellen aber nicht die einzige Lösung dar. Viele Wege führen nach Rom.

Xmas
2005-06-17, 12:11:53
Genau das ist ja der Punkt. Die Ideale Lösung sieht vor das erst nach den ROPs in sRGB konvertiert wird bzw wenn die ROPs im sRGB Modus sind beim auslesen aus dem Speicher für das Alphablending der Wert in den linearen Farbraum gewandelt wird.

Da das aber mindestens ein IHV nicht kann schreibt MS diese Lösung nicht zwingend vor und erlaubt eine Konvertierung in den Shadern mit anschliesendem falschen Alphablending.
Welcher IHV kann es denn? Und wird es auch mit aktiviert wenn man sRGB-Writes einschaltet?


Kennst du Hardware, die sRGB-Texturen korrekt filtern kann?
ATI definitiv seit R300, NVidia AFAIK seit NV30. Wobei die DX9-Spezifikation leider auch Konvertierung nach dem Filtern erlaubt.



Wer wissen möchte was "HDR" darstellt, der sollte sich unbedingt diesen hervorragenden Beitrag von squarewithin im Beyond3D-Forum durchlesen:
http://www.beyond3d.com/forum/viewtopic.php?p=537949#537949

Dann sollte auch klar sein dass man HDR nicht in einer API spezifizieren kann.

Demirug
2005-06-17, 12:15:45
Welcher IHV kann es denn? Und wird es auch mit aktiviert wenn man sRGB-Writes einschaltet?.

Ich weiß nicht ob es überhaupt einer kann. So wie es aber MS in die Doku geschrieben hat ist davon auszugehen das zumindestens ein IHV gesagt hat er werde diese Implementierung bringen.

Coda
2005-06-17, 12:18:24
Wer wissen möchte was "HDR" darstellt, der sollte sich unbedingt diesen hervorragenden Beitrag von squarewithin im Beyond3D-Forum durchlesen:
http://www.beyond3d.com/forum/viewt...p=537949#537949Darüber könnte man doch auch auf 3DCenter einen Artikel veröffentliche. Meiner Meinung nach ist das ziemlich nötig.

aths
2005-06-17, 16:19:06
Darüber könnte man doch auch auf 3DCenter einen Artikel veröffentliche. Meiner Meinung nach ist das ziemlich nötig.Das hatte ich schon mal geplant, allerdings nicht realisiert. Also weniger technisch als das (wirklich lesenswerte) B3D-Posting von squarewithin, sondern mal klarzstellen dass "HDR" nicht gleichbedeutend mit diesen bekannten Gloom-Effekten ist, und man "HDR-Effekt" missverstehen kann da so ein Effekt das Resultat von HDR-Rendering ist. Im Moment aber haben andere Dinge Vorrang.

deekey777
2005-08-03, 19:32:38
*push*
Habe den Thread beinahe nicht gefunden - der letze Post ist schon 100 Tage alt...

Aus der c't 13/ Seite 113:
"... ATi ließ uns wissen, dass man dem Entwickler ubisoft bereits entsprechende 2.0-Shader zur Verfügung gestellt habe und dass eventuell bald ein Patch für SC: CT erscheint, der auch auf ATi-Karten die Grafik aufpeppen soll."

Klingt interessant...

Double-Push. :biggrin:

Splinter Cell: Chaos Theory retail patches v1.04 (http://www.driverheaven.net/#news80903)

A new round of patches for Splinter Cell: Chaos Theory is now online, bringing the US and European (Canadian, Australian) retail and downloadable editions of the stealthy 3D action sequel by Ubi Soft Montreal to version 1.04. This update implements support for ATI Shader Model 2.0 and fixes a divergence problem.

Overview
-Highlights of patch 1.04 include various fixes and minor enhancements.

Bug Fixes
- Fixed divergence after restarting/quick loading with users using non-default control settings.

General Improvements
- ATI Shader Model 2.0 support has been implemented

Schade, daß ich die Splinter Cell Serie nicht mag...

LordDeath
2005-08-03, 19:40:35
her mit den benchmarks :D
kann jemand sagen, wie die visuelle qualität des sm2.0 pfads aussieht? welcher effekt ist verfügbar, welcher nicht?

Jesus
2005-08-03, 20:04:46
General Improvements
- ATI Shader Model 2.0 support has been implemented

Schade, daß ich die Splinter Cell Serie nicht mag...


Wieso ATI Shader Model?

LordDeath
2005-08-03, 20:11:04
Wieso ATI Shader Model?
vielleicht weil es keinen sinn vor nvidia karten hat! fx karten sind zu lahm, gf 3,4 haben nur sm1.1 und nv4x karten sind mit sm3.0 schneller als mit sm2.0 (bei gleichen effekten)
aber obs wirklich für testfreudige nvidia user versperrt bleibt? ati hat ja die shader geschrieben...

Spasstiger
2005-08-03, 20:11:14
Wieso ATI Shader Model?

Hm, vielleicht wollte man den GeForce FX Karten dann doch kein SM2.0 zumuten und lässt diese außen vor ;).

deekey777
2005-08-03, 22:18:50
Wieso ATI Shader Model?

Du kannst doch lesen, oder?
Steht doch bei mir im Zitat, daß ATi den SM2.0 Pfad geliefert hat.
Gilt auch für die anderen. :biggrin:

Gaestle
2005-08-04, 16:42:52
Du kannst doch lesen, oder?
Steht doch bei mir im Zitat, daß ATi den SM2.0 Pfad geliefert hat.
Gilt auch für die anderen. :biggrin:


Laut Aussagen im Spieleforum, soll man nun auch mit Radeons und auf SM2-Pfad HDR aktivieren können. Leider hab' ich nur die Demo und kann es deshalb nicht selbst probieren. Deswegen nun meine Frage:
Ist es Bloom/Glow oder wirklich echtes M/HDR?

Wenn es HDR ist: Wie funktioniert das bei der Radeon?

Danke im Voraus.

Grüße

DanMan
2005-08-04, 17:12:15
Ist es Bloom/Glow oder wirklich echtes M/HDR?
Oh man... wie oft denn noch? :|

deekey777
2005-08-04, 17:12:47
Auch wenn es HDR ist, warum sollte es nicht auf einer Radeon funktionieren? :)
Irgendwie schweigen die Gurus, oder sie haben sich kaputt->totgelacht...

Aber warum denke ich andauernd an "The Project".

€: Bei B3D steht was von HDR&Tone Mapping...

PingpiN
2005-08-04, 17:54:05
Ob es Hdr ist oder nicht es sieht auf jeden fall glecih aus! :uhippie: :usweet:

Mr. Lolman
2005-08-04, 18:00:16
Jepp, lt. B3d und rage3d funktioniert HDR. Nur das Tonemapping schaut anders als bei NV aus. Aber das hat auf meiner 6800GT in der Demoversion tw. Mist produziert.

Jesus
2005-08-04, 18:27:49
Guckst du auch hier
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3335924&postcount=27

mapel110
2005-08-04, 18:28:21
http://www.beyond3d.com/forum/showpost.php?p=536400&postcount=34

Jesus
2005-08-04, 18:32:05
http://www.beyond3d.com/forum/showpost.php?p=536400&postcount=34

Irgendwie scheint mir beim Tonemapping einfach nur am Gamma gedreht zu sein.

Razor
2005-08-05, 06:08:41
Irgendwie scheint mir beim Tonemapping einfach nur am Gamma gedreht zu sein.Schau' nochmal genauer hin...
...und bei ATI scheint's einfach nicht zu funktionieren.

Razor

reunion
2005-08-05, 10:30:48
Hat irgend jemand Ahnung, wie ATi HDR implementiert hat?
Nur ein billiger Fake?

Gaestle
2005-08-05, 13:13:00
Hat irgend jemand Ahnung, wie ATi HDR implementiert hat?
Nur ein billiger Fake?


Das müsste man in Bewegung sehen. Laut Aussagen (von Demi?) ist es prinzipiell nicht unmöglich, allerdings würden wohl an einigen Stellen Loops gebraucht, was sauer auf die Performance schlagen würde, mit entsprechendem Prog-Aufwand liesse sich das aber wohl egalisieren....

Grüße

RLZ
2005-08-05, 13:55:50
Frage:
Wie kriegen den HDR Farbraum ohne Tonemapping auf den Bildschirm?
Einfach clippen?
Da der normale Content Verwendung findet, wäre es wohl eine machbare Lösung, weil dadurch der Farbraum eh nicht wirklich genutzt wird.
Streng genommen wäre aber auch einfaches Clippen schon Tonemapping.

Irgendwie scheint mir beim Tonemapping einfach nur am Gamma gedreht zu sein.
Normaler Content benutzt -> Farbraum eigentlich garnicht genutzt
Dadrüber dann primitives Exponentialtonemapping und schon siehts aus wie einfach veränderte Gamma.

Man sollte dran denken, dass Tonemapping nicht ein einzelner fester Algo ist, sondern ein ganzes Forschungsgebiet.

tEd
2005-08-05, 16:33:16
http://www.simhq.com/_technology/technology_058a.html

Gast@Ronny G.
2005-08-05, 19:45:31
Hat irgend jemand Ahnung, wie ATi HDR implementiert hat?
Nur ein billiger Fake?

Hallo ganz einfach, es wird mehr oder weniger nur emuliert, künstlich erzeugt.
Hallt per software, nicht wie bei den 6er´n Geforceserie, dort wird es tatsächlich hardwareseitig unterstützt.

Ist halt der nachteil bei den X800, sie haben weniger features als ne "lumpige" Geforce 5200 für 50€, aber halt die rohe geschwindigkeit einer anständigen Karte.

Sollen sie ruhig alle in zukunft auf Shader 3.0 setzen, schließlich wird so Direct X 9.0c endlich mal genutzt, warum soll man technischen fortschritt nicht nutzen, natürlich sollten zum übergang auch noch ne weile Shader 2.0 unterstützt werden.

Gruß Ronny G.

Tigerchen
2005-08-05, 19:59:17
Hallo ganz einfach, es wird mehr oder weniger nur emuliert, künstlich erzeugt.
Hallt per software, nicht wie bei den 6er´n Geforceserie, dort wird es tatsächlich hardwareseitig unterstützt.

Ist halt der nachteil bei den X800, sie haben weniger features als ne "lumpige" Geforce 5200 für 50€, aber halt die rohe geschwindigkeit einer anständigen Karte.

Sollen sie ruhig alle in zukunft auf Shader 3.0 setzen, schließlich wird so Direct X 9.0c endlich mal genutzt, warum soll man technischen fortschritt nicht nutzen, natürlich sollten zum übergang auch noch ne weile Shader 2.0 unterstützt werden.

Gruß Ronny G.

Man sollte den technischen Fortschritt nicht nutzen weil das Nutzen des jeweils technisch Machbaren keinen Wert an sich darstellt. Tatsächlich wird bei HDR nur der gut betuchte Highest-End-Poweruser glücklich. Das ist unsozial.

Grestorn
2005-08-05, 20:02:37
Tatsächlich wird bei HDR nur der gut betuchte Highest-End-Poweruser glücklich. Das ist unsozial.
ROFL!

Immobilienmakler, BMW, Juweliere usw. sind also alle unsozial...

man lernt nie aus.

deekey777
2005-08-05, 20:07:33
Man sollte den technischen Fortschritt nicht nutzen weil das Nutzen des jeweils technisch Machbaren keinen Wert an sich darstellt. Tatsächlich wird bei HDR nur der gut betuchte Highest-End-Poweruser glücklich. Das ist unsozial.

Ouch, das tut meinen Hirnzellen weh...

ESAD
2005-08-05, 20:28:46
Zitat:
Zitat von deekey777
Ouch, das tut meinen Hirnzellen weh...



Wie sehr kann denn eine Zelle schon schmerzen.........

du hast hier einen kleinen fehler gemacht und zwar schrieb er dass im seine hirnzellen weh täten du antwortestes aber darauf dass eine zelle doch garnicht so schmerzen könne aber aus seinem post ist eindeutig abzulesen, dass er mehr als eine hat die ihm wehtut als wenn schon beschimpfen dann wenigstens richtig und sagen

Wie sehr können denn die 2 Zellen schon schmerzen.........
[sorry deekey777]


so und sorry tigerchen aber wir leben in eine kapitalistischen welt und alles mehr kostet auch mehr

ich persöhnlich frage mich jedoch wo bei ati an berechnungsaufwand gespart wird da sie zwar deutlich einbrechen aber für die emulation von so komplexen dingen muss doch massig leistung draufgehen?

und wieso wird das für sp gemacht und nicht für fc? dieses ist schon länger verfügbar. was für probleme könnte es geben über die in sp leichter hinweggetäuscht werden kann?

Quasar
2005-08-05, 20:39:56
http://www.simhq.com/_technology/technology_058a.html
Interessant.
Besonders interessant finde ich die unterschiedlichen Reaktionen von GF6800 und X800 in SimHQs Test Nr. 2, wo nur 'HDR' und Tonemapping zum Einsatz kamen.
Die GF fällt direkt um 50% ab, reagiert in der Folge aber weniger stark auf Auflösungswechsel, während die Radeon deutlich stärker mit der Auflösung skaliert, aber per se erstmal nur wenig Performance einbüßt.

Interessant ist auch der Bildvergleich, besonders der zweite.

Quasar
2005-08-05, 20:43:19
Tatsächlich wird bei HDR nur der gut betuchte Highest-End-Poweruser glücklich. Das ist unsozial. [/COLOR]
Ist es dann nicht genauso unsozial, wenn nicht alle, egal welche Grafiklösung sie einsetzen, genau gleich glücklich werden mit HDR?

Darf die Technik, und damit meine ich nicht die verfügbare, sondern die genutzte, sich wirklich immer nur nach dem am schwächsten ausgestatteten User auf dem Planeten richten?

Ist es nicht schon unsozial, daß Computerspiele Menschen ohne Computer vorenthalten bleiben? :|

Jesus
2005-08-05, 20:46:33
^^^

Naja, der Vergleich hinkt etwas, da Tonemapping auf den ATIs ja nicht zu gehen scheint.

Razor
2005-08-05, 21:03:43
'Etwas' ist gut... irgendwie scheint sich der 2.0-Pfad bei den Radeons nicht einmal sonderlich vom 1.1-Pfad zu unterscheiden. Ist halt wieder nur ein: "So etwas ähliches können wir aber auch... und viiiiiiel schneller".

IMO sollte ATI sich lieber mal auf die neue Generation konzentrieren...

Razor

P.S.: mit dem 3DA (2.36) kann man den 2.0-Pfad auch wunderbar auf 'ner 6800'er in Augenschein nehmen... vermutlich sogar auf 'ner FX. Was ja eigentlich auch klar war, denn was soll 'ne ATI auch mehr können, als 'nen NV40?

Jesus
2005-08-05, 23:09:58
'Etwas' ist gut... irgendwie scheint sich der 2.0-Pfad bei den Radeons nicht einmal sonderlich vom 1.1-Pfad zu unterscheiden. Ist halt wieder nur ein: "So etwas ähliches können wir aber auch... und viiiiiiel schneller".

IMO sollte ATI sich lieber mal auf die neue Generation konzentrieren...

Razor

P.S.: mit dem 3DA (2.36) kann man den 2.0-Pfad auch wunderbar auf 'ner 6800'er in Augenschein nehmen... vermutlich sogar auf 'ner FX. Was ja eigentlich auch klar war, denn was soll 'ne ATI auch mehr können, als 'nen NV40?

Deine Fanboy Kommentare intressieren niemanden... Es ging eigentlich darum dass das HDR auf den Radeons identisch aussieht, wenn man Tonemapping weglässt, was man auf beiden tun kann. Das hätten sie mal benchen sollen (und vergleichen).

Seraf
2005-08-05, 23:15:07
Deine Fanboy Kommentare intressieren niemanden... Es ging eigentlich darum dass das HDR auf den Radeons identisch aussieht, wenn man Tonemapping weglässt, was man auf beiden tun kann. Das hätten sie mal benchen sollen (und vergleichen).

HDR ohne Tonemapping? Ich hab gedacht das wäre immanent wichtig für HDR?!?
Hast gerade mein Weltbild zerstört.

Hoffentlich kommt gleich ein 3D Guru.

Coda
2005-08-06, 13:50:32
HDR-Rendertargets sollten am fertigen Bild nichts ändern ohne Postprocessing.

Winter[Raven]
2005-08-06, 14:03:25
.

Mr. Lolman
2005-08-06, 15:21:30
^^^

Naja, der Vergleich hinkt etwas, da Tonemapping auf den ATIs ja nicht zu gehen scheint.

Sicher? Es sieht ja nur anders aus als bei NV. Und bei der Demo arbeitet das Tonemapping auf meiner 6800GT tw. scheinbar, unabhängig von der mittleren Helligkeit, sehr willkürlich, was tw. zu recht seltsamen Ergebnissen führt.

Gast
2005-08-06, 16:45:55
ROFL!

Immobilienmakler, BMW, Juweliere usw. sind also alle unsozial...

man lernt nie aus.
BMW? :) Unsozial nicht, aber leicht asozial. Und natürlich nicht alle, aber leider der größte Teil davon. Was Immobilienmakler angeht. Und Versicherungsvertreter. Anlagenberater usw. usw. Jemand der Dir etwas andrehen muß um gut zu leben dreht Dir auch alles an, um gut zu leben. Kannst mir folgen? Ich glaub ich hab Dich schonmal drauf aufmerksam gemacht, daß Du den falschen "Avatar" hast. Du brauchst das Bild des "kleinen Chefs" :crazy:

@ESAD
Man sollte nicht jeden Dreck mit "Kapitalismus" rechtfertigen :| Shader2.0 rennen auf den ATIs wie sau. Auch auf den älteren. HDR mal ausgenommen spricht nichts dagegen sie nicht zu nutzen. Die Effekte sind super. Es ist eine Schweinerei von den Studios nur 1.1 und 3.0 zu machen. Vor allem da es mir eher so scheint, daß sich manche für dieses Nichtstun sogar extra Würstchen von NVidia in den Arsch schieben laßen. Wie EA. Sowas sollte hier knallhart an den Pranger. Wenigstens als kleiner Ausgleich zum Kapitalismus... :crazy2:

Winter[Raven]
2005-08-06, 17:01:55
Also die meisten EA Games laufen auf ATI schneller, soll das heißen NV zahlt für etwas, was am Ende nicht da ist? In dem Fall Performance ...

Gast
2005-08-06, 17:11:37
']Also die meisten EA Games laufen auf ATI schneller
Was ist das für eine Aussage?

deekey777
2005-08-06, 17:15:27
']Also die meisten EA Games laufen auf ATI schneller, soll das heißen NV zahlt für etwas, was am Ende nicht da ist? In dem Fall Performance ...

Nein. :biggrin:
Durch das TWIMTBP Programm garantiert nVidia bzw. deren Partner, daß das Spiel mit dem TWIMTBP auf nVidia-Grafikkarten problemlos laufen, was auch funktioniert. Doch irgendwie ist das für viele nicht zu verstehen. Doch wo hat EA auf den SM 2.0 Support verzichtet? :confused:

Aber ATI-Versager scheinen doch einen guten Job gemacht zu haben und nicht die Entwickler von ubi Montreal.

Was ist das für eine Aussage?

Sie hat schon ihren Sinn.

Gast
2005-08-06, 17:25:29
Nein. :biggrin:
Durch das TWIMTBP Programm garantiert nVidia bzw. deren Partner, daß das Spiel mit dem TWIMTBP auf nVidia-Grafikkarten problemlos laufen, was auch funktioniert
Hmm. Da waren die Jungs von BF2 aber nicht dabei...
Sie hat schon ihren Sinn.
Nur was für einen? ;)

Franzmann-Jan
2005-08-06, 17:26:03
Warum ATI-Versager??? Auf was bezieht sich das?

Winter[Raven]
2005-08-06, 17:49:52
Nein. :biggrin:
Durch das TWIMTBP Programm garantiert nVidia bzw. deren Partner, daß das Spiel mit dem TWIMTBP auf nVidia-Grafikkarten problemlos laufen, was auch funktioniert. Doch irgendwie ist das für viele nicht zu verstehen. Doch wo hat EA auf den SM 2.0 Support verzichtet? :confused:

Aber ATI-Versager scheinen doch einen guten Job gemacht zu haben und nicht die Entwickler von ubi Montreal.



Sie hat schon ihren Sinn.

Ist doch klar ;), brauchst mir nicht erklären was das TWIMTBP ist. Nur wird es halt EA und NV die Sache was Optimierung auf NV Chips angeht, nachgesagt ... Ob was dran ist werden wir sowieso NIE erfahren...

Grestorn
2005-08-07, 10:57:39
Ich glaub ich hab Dich schonmal drauf aufmerksam gemacht, daß Du den falschen "Avatar" hast. Du brauchst das Bild des "kleinen Chefs" :crazy:Diffamierung eines anderen, dessen Meinung man nicht teilt, ist arm. Noch ärmer ist es, wenn man sich dabei hinter einem anonymen Gastzugang versteckt.

Gast
2005-08-07, 11:12:18
Diffamierung eines anderen, dessen Meinung man nicht teilt, ist arm
Na na. Eine Meinungsbildung anhand der Texte ist nicht gleich Diffamierung. Man kann mit der persönlichen Meinung immer mal falsch liegen. Oder richtig...

Noch ärmer ist es, wenn man sich dabei hinter einem anonymen Gastzugang versteckt.
Hinter einem Gastzugang kann sich nur jemand verstecken der schon angemeldet ist. Obwohl... Ich hab grad gestern gesucht, aber ich find keinen Grestorn im Telefonbuch.

EOD

aths
2005-08-07, 11:55:14
[COLOR="#000088"]
Man sollte den technischen Fortschritt nicht nutzen weil das Nutzen des jeweils technisch Machbaren keinen Wert an sich darstellt. Tatsächlich wird bei HDR nur der gut betuchte Highest-End-Poweruser glücklich. Das ist unsozial. Die unsozial denkenden Entwickler, die heute schon Technologien nutzen die in ein paar Jahren ohnehin Standard werden. Kann man doch wirklich nicht mehr alle Effekte mit einer Radeon X800 sehen ... ein Skandal! Die Entwickler sollten sich was schämen, so unsozial zu sein, nicht zu warten, bis auch ATI SM3 und 64-Bit-Blending in den Mittelklasse-Bereich bringt. Die Leute, die sich jetzt schon eine 6800 U SLI leisten können, sollen zur Strafe wenigstens kein vernünftiges HDR-Rendering bekommen, sondern höchstens ein bissel Gloom-Zeug was auch auf der X800 läuft!

Skandalös auch, dass nur gut betuchte Highest-End-Poweruser bei Extremauflösungen und FSAA und AF noch 75+ fps haben. SLI/Crossfire ist erst mal gemein! Das kommt aktuell nur für einen Bruchteil aller User überhaupt in Frage. Das sowas dann überhaupt gebaut wird, wie perfide! Das kann ja nicht mal ich mir leisten, also solls auch kein anderer haben.

Oder kürzlich auf der Autobahn, als ein BMW überholte. Da dachte ich nur "Wie unsozial, dass nur Betuchte sich ein schnelleres Auto leisten können". Mir bleibt da nur der virtuelle Spaß in GT4 *flenn* *zeter*.

Was ich mir nicht leisten kann, sollen andere auch nicht haben. Denn ich bin ja der Maßstab.

Gast
2005-08-07, 12:14:03
Skandalös auch, dass nur gut betuchte Highest-End-Poweruser bei Extremauflösungen und FSAA und AF noch 75+ fps haben. SLI/Crossfire ist erst mal gemein! Das kommt aktuell nur für einen Bruchteil aller User überhaupt in Frage. Das sowas dann überhaupt gebaut wird, wie perfide! Das kann ja nicht mal ich mir leisten, also solls auch kein anderer haben.

Das mit dem SLI kram finde ich echt den oberbrüller, solche ideen können nur von der Hardware industrie stammen, denn dies heißt ja gleich den doppelten Umsatz wenn sich jeder "anspruchsvolle User" zwei karten bestellt.

Dumm wird es nur wenn die Software/Game studios verstärkt auf diesen SLI kram setzten und wir in einem jahr nur noch dumm da stehen wenn es heißt "Half Life 3 nur vernünftig mit SLI/Crossfire spielbar", dann werde ich wohl aus dem PC-Gaming zurückziehen müssen, denn wer soll das noch bezahlen???

Man merkt auch die unterschiede ob sich die leute/Programmierer mühe geben oder schlampig programmieren, an der Performance.Und damit ist schon viel machbar ohne SLi un d co.

Gruß Ronny G.

aths
2005-08-07, 12:18:03
Das mit dem SLI kram finde ich echt den oberbrüller, solche ideen können nur von der Hardware industrie stammen, denn dies heißt ja gleich den doppelten Umsatz wenn sich jeder "anspruchsvolle User" zwei karten bestellt.

Dumm wird es nur wenn die Software/Game studios verstärkt auf diesen SLI kram setzten und wir in einem jahr nur noch dumm da stehen wenn es heißt "Half Life 3 nur vernünftig mit SLI/Crossfire spielbar", dann werde ich wohl aus dem PC-Gaming zurückziehen müssen, denn wer soll das noch bezahlen???

Man merkt auch die unterschiede ob sich die leute/Programmierer mühe geben oder schlampig programmieren, an der Performance.Und damit ist schon viel machbar ohne SLi un d co.Ja. Bei HL2 ist das Problem ja noch eher andersrum gelagert: Das Programm nutzt vielleicht eine 9600 Pro voll aus, mehr aber auch nicht. "SLI" ansich wird wohl nie Voraussetzung werden, da man einfach auch eine stärkere Karte nehmen kann. Dank SLI kann man allerdings seine alte HW noch weiter nutzen. Wer jetzt eine 6600 oder 6600 GT hat, und ein SLI-fähiges Board, kann später eine weitere 6600 oder 6600 GT kaufen. Nur müssten sich SLI- bzw. Crossfire-fähige Boards erst mal durchsetzen. Angesichts der Mehrkosten ist SLI heute vor allem für reiche Leute, die viel Geld für ihr Hobby ausgeben können. Aber das muss ja nicht immer so bleiben. Wenn die SLI-Version eines guten Boards nur einige € mehr kostet, sollte man gleich auf Verdacht zugreifen.

Selbst wenn heute jemand anfängt, für die 7800 GTX SLI zu entwickeln, so gibts über kurz oder lang eine Einzelkarte mit gleichen oder besseren Leistungsparamtern. Schon deshalb glaube ich nicht, dass SLI jemals Voraussetzung wird. Aber es kann natürlich sein, dass man zum Release-Zeitpunkt für alle Effekte bei hoher Auflösung für flüssige Grafik SLI braucht. Da sehe ich auch kein Problem. Hauptsache, die am eigenen PC gebotene Grafik ist gut genug. Später kann man das Spiel dann in voller Pracht noch mal spielen.

Was Spiele angeht, bin ich jetzt trotzdem in Richtung Konsolen eingeschwenkt :)

Winter[Raven]
2005-08-07, 12:37:32
aths,

SLI bittet den DEV's nunmal aber in etwa die Performace der kommenden Generationen zu simulieren. In dem Sinne denke ich schon das heutige Entwickler bewusst bei Ihren next-generation Engines auf Sli setzen, wenn es um Design geht.

*Soll aber nicht heißen das man beim Releaseprodukt dann auch ein Sli Produkt notwendig ist.

aths
2005-08-07, 14:07:55
']aths,

SLI bittet den DEV'sWenn ich dich sprachlich berichtigen darf: "SLI bietet den DEVs" (ohne Apostroph, bietet statt bittet.)

']nunmal aber in etwa die Performace der kommenden Generationen zu simulieren. In dem Sinne denke ich schon das heutige Entwickler bewusst bei Ihren next-generation Engines auf Sli setzen, wenn es um Design geht.

*Soll aber nicht heißen das man beim Releaseprodukt dann auch ein Sli Produkt notwendig ist.Die Leistung zukünftiger Hardware ist für die Entwickler imo nicht so entscheidend. Eine ziemlich frühe Version von der UE3-Engine lief auf einer GeForce FX z. B. mit etwa 2 fps – in 320x240.

Ich weiß nicht, was bei einigen das Gejammer über SLI soll. Für ein möglichst perfektes Grafik-Erlebnis in GT4 bräuchte ich einen HDTV-Fernseher (sowie die US-Version der PS2 und vom Spiel ansich.) Das kann ich mir nicht leisten, also muss ich mit effektiven 512p bei 50 Hz auskommen. Deswegen sage ich aber nicht, dass HDTV "unsozial" sei.

Jesus
2005-08-07, 14:11:06
Die unsozial denkenden Entwickler, die heute schon Technologien nutzen die in ein paar Jahren ohnehin Standard werden. Kann man doch wirklich nicht mehr alle Effekte mit einer Radeon X800 sehen ... ein Skandal! Die Entwickler sollten sich was schämen, so unsozial zu sein, nicht zu warten, bis auch ATI SM3 und 64-Bit-Blending in den Mittelklasse-Bereich bringt. Die Leute, die sich jetzt schon eine 6800 U SLI leisten können, sollen zur Strafe wenigstens kein vernünftiges HDR-Rendering bekommen, sondern höchstens ein bissel Gloom-Zeug was auch auf der X800 läuft!

Dafür dass nicht mehr alle Effekte möglich sind, siehts aber verdammt identisch aus :rolleyes:

aths
2005-08-07, 14:12:32
Dafür dass nicht mehr alle Effekte möglich sind, siehts aber verdammt identisch aus :rolleyes:Ich weiß jetzt nicht, was du meinst.

Jesus
2005-08-07, 14:14:17
Ich weiß jetzt nicht, was du meinst.

Den SC3 ATI Patch...

DrFreaK666
2005-08-07, 14:14:20
Ich weiß jetzt nicht, was du meinst.

HDR?

Seraf
2005-08-07, 14:20:00
Dafür dass nicht mehr alle Effekte möglich sind, siehts aber verdammt identisch aus :rolleyes:

Hat nur ein halbes Jahr gedauert um es zu integrieren X-D
Und wenn ich es richtig gesehen habe gibts auf den Screenshots immernoch Unterschiede mit HDR+Tonemapping.

Jesus
2005-08-07, 14:22:25
Hat nur ein halbes Jahr gedauert um es zu integrieren X-D

Kam ja auch wohl auch nicht freiwillig von den Entwicklern, sonst hätte ATI wohl nicht selbst hand anlegen müssen...

deekey777
2005-08-07, 14:36:47
Hat nur ein halbes Jahr gedauert um es zu integrieren X-D
Und wenn ich es richtig gesehen habe gibts auf den Screenshots immernoch Unterschiede mit HDR+Tonemapping.

Nein, weniger als sechs Monate: Vor mir liegt die c't Nr. 17, der Test, in dem es hieß, daß ATi den SM 2.0 Support den Entwicklern zur Verfügung stellte, ist in der c't Nr. 13 zu finden. :biggrin:

Winter[Raven]
2005-08-07, 14:39:14
Wenn ich dich sprachlich berichtigen darf: "SLI bietet den DEVs" (ohne Apostroph, bietet statt bittet.)

Die Leistung zukünftiger Hardware ist für die Entwickler imo nicht so entscheidend. Eine ziemlich frühe Version von der UE3-Engine lief auf einer GeForce FX z. B. mit etwa 2 fps – in 320x240.

Ich weiß nicht, was bei einigen das Gejammer über SLI soll. Für ein möglichst perfektes Grafik-Erlebnis in GT4 bräuchte ich einen HDTV-Fernseher (sowie die US-Version der PS2 und vom Spiel ansich.) Das kann ich mir nicht leisten, also muss ich mit effektiven 512p bei 50 Hz auskommen. Deswegen sage ich aber nicht, dass HDTV "unsozial" sei.

a) Danke für die Korrektur :) *sich aufschreib*

b) Ich für meinen Teil weiß von einem Bekannten der in der Gamebrange arbeitet, dass sich die Technolgie-ingeneure Sli-Systeme zusammengestellt haben, da man Nextgeneration 3D engine schreibt, und man die Engine besser abstimmt auf die Leistung die in der kommenden Generation erzielt werden kann, oder auch wird.

Im Bezug auf Sli, stimme ich dir zu. Musst aber abwarten bis Crossfire auf dem Markt ist, da wird erstmal alles Persilweiß gewaschen und da wird keiner mehr nur ein Wort darüber verlieren.

//EDIT:

*ich hasse Notebook-Tastatur ... :mad:

Gast
2005-08-07, 14:51:19
']a) Danke für die Korrektur :) *sich aufschreib*



Noch etwas zum aufschreiben: Gamebranche

aths
2005-08-07, 15:10:43
HDR?HDR heißt "High Dynamic Range". Was soll "HDR", für sich stehend, im Thread-Kontext aussagen?

Den SC3 ATI Patch...Da gibt es Settings, die auf den Screenshots gleich aussehen, und welche, die nicht gleich aussehen.

aths
2005-08-07, 15:14:03
']a) Danke für die Korrektur :) *sich aufschreib*

b) Ich für meinen Teil weiß von einem Bekannten der in der Gamebrange arbeitet, dass sich die Technolgie-ingeneure Sli-Systeme zusammengestellt haben, da man Nextgeneration 3D engine schreibt, und man die Engine besser abstimmt auf die Leistung die in der kommenden Generation erzielt werden kann, oder auch wird.Ein SLI-System verhält sich anders als ein Einzelkarten-System. Feintuning für Einzelkarten wird man da kaum machen können. Ich kann mir vorstellen, dass Entwickler vom Leistungsaspekt her gerne SLI nutzen, einfach weil es dann vielleicht noch einigermaßen flüssig ist während es mit einer Einzelkarte stark ruckelt.

SLI sehe ich aber nicht nur für den Highend-Bereich als brauchbar an. Wenn sich die SLI-fähigen Plattformen durchsetzen, kann der Kunde, der einen recht preiswerten PC mit Mittelklasse-Karte kauft, später die Grafik einfach aufrüsten.

Gast
2005-08-07, 16:07:28
SLI sehe ich aber nicht nur für den Highend-Bereich als brauchbar an
Das hab ich schonmal irgendwo gehört. Ich glaub als VooDoo2 rauskam.

Gast
2005-08-07, 16:25:10
Ja. Bei HL2 ist das Problem ja noch eher andersrum gelagert: Das Programm nutzt vielleicht eine 9600 Pro voll aus, mehr aber auch nicht
Na ich wäre wirklich begeistert, wenn ich in den Stadtszenen oder auf dem Boot mit dem 2.3Ghz Barton,1GB DDR400 und der 9800XT/440 in FPS gradezu schwimmen würde :up: Mal auch ohne AA/AF.

Konsolen. Jou, GT4 auf PS2 und 100Hz Löwe ist schon ein anderes Spielen als GTR auf der PC-Peitsche :D Es bockt halt irgendwie anders, ABER ES BOCKT. Nie im Leben würde mir einfallen zu überlegen, ob da jetzt AF irgendwo greift oder nicht ;) Grausam sind halt nur die Umsetzungen von PC<->Konsole. Wenn es ein Spiel für PC gibt kauf ich das garantiert nicht für die Playsi. Und wenn es einen Spiel für die Playsi gibt hol ich das 100% nicht die PC-Version. Echt schrecklich :(

Jesus
2005-08-08, 08:25:27
HDR heißt "High Dynamic Range". Was soll "HDR", für sich stehend, im Thread-Kontext aussagen?

Da gibt es Settings, die auf den Screenshots gleich aussehen, und welche, die nicht gleich aussehen.

"HDR" sieht gleich aus, Tonemapping nicht. Aber das reicht eigentlich schon. (Tonemapping != HDR).

Coda
2005-08-08, 10:01:19
Ohne Postfilter muss jegliches Framebufferformat mit höherer Präzision gleich aussehen.

Ob das jetzt HDR ist bei ATi ist eine ganz andere Frage, weil anscheinend das Tonemapping anders aussieht und ich damit mal ganz stark davon ausgehe dass keine FP16 Buffer verwendet wurden.

aths
2005-08-08, 15:01:36
"HDR" sieht gleich aus, Tonemapping nicht. Aber das reicht eigentlich schon. (Tonemapping != HDR).Der Begriff "HDR" alleine sagt nichts aus, schon deshalb ist "Tonemapping != HDR" auf jeden Fall korrekt.

HDR-Rendering nutzt man nicht zuletzt deshalb, um Tonemapping machen zu können. Dynamisches Tonemapping.

Gaestle
2005-08-08, 15:21:34
[...]Deswegen nun meine Frage:
Ist es Bloom/Glow oder wirklich echtes M/HDR?

Wenn es HDR ist: Wie funktioniert das bei der Radeon?

Danke im Voraus.

Grüße


Nochmal gefragt.

Grüße

Mr. Lolman
2005-08-08, 17:15:33
Wahrscheinlich genauso, wie ATi es geschafft hat, noch >30% aus der perfekt optimierten D³ Engine rauszuholen ;)

Coda
2005-08-08, 17:17:06
Man kann ja sicher vieles optimieren, aber nicht-vorhandenes kann man nicht einfach herzaubern.

Und überhaupt, wer behauptet dass D³ perfekt optimiert ist? Da hat Demirug schon ganz andere Sachen gesagt...

Mr. Lolman
2005-08-08, 17:27:03
Man kann ja sicher vieles optimieren, aber nicht-vorhandenes kann man nicht einfach herzaubern.War ja auch nicht ganz ernst gemeint. :)



Und überhaupt, wer behauptet dass D³ perfekt optimiert ist? Da hat Demirug schon ganz andere Sachen gesagt...Nagut, "perfekt" wars nicht. Aber ne "Glanzleistung" und "erstaunlich" wars schon ;):

Wie wir noch sehen werden, hat John Carmack eine Glanzleistung vollbracht, was die Optimierung auf Radeon-Karten angeht.
Angesichts der Technik der Radeon-Chips, welche so gar nicht zu Doom 3 passt, halten wir es für schon erstaunlich, was John Carmack und id Software da noch an Performance herauskitzeln konnte.
http://www.3dcenter.de/artikel/2004/07-30.php

aths
2005-08-08, 18:14:07
Wahrscheinlich genauso, wie ATi es geschafft hat, noch >30% aus der perfekt optimierten D³ Engine rauszuholen ;)Sowohl NV als auch ATI nutzen Tricks, die von JC nicht vorgesehen waren. Dass die GF letztlich doch schneller ist liegt nach meiner Einschätzung nach nicht daran, dass NV besser cheaten kann, sondern dass die HW für Doom3 besser ist. Nur weil ATI jetzt ebenfalls applikationsspezifisch, äh, "optimiert", kann man JC kaum vorwerfen er hätte ATI künstlich benachteiligt.

Gast
2005-08-08, 19:46:14
Sowohl NV als auch ATI nutzen Tricks, die von JC nicht vorgesehen waren. Dass die GF letztlich doch schneller ist liegt nach meiner Einschätzung nach nicht daran, dass NV besser cheaten kann, sondern dass die HW für Doom3 besser ist. Nur weil ATI jetzt ebenfalls applikationsspezifisch, äh, "optimiert", kann man JC kaum vorwerfen er hätte ATI künstlich benachteiligt.
Ich meine ATI hinkt mit dem OpenGL-Treiber auch immernoch kleinwenig hinter NV...

Grestorn
2005-08-08, 21:09:05
Hinter einem Gastzugang kann sich nur jemand verstecken der schon angemeldet ist. Obwohl... Ich hab grad gestern gesucht, aber ich find keinen Grestorn im Telefonbuch.Wenn Du mich kontaktieren willst, dann schreib an grestorn at gmx punkt net

Anonym ist das sicher nicht. Und wenn Du den Link in meiner Signatur folgst wirst Du sogar mit etwas suchen meinen Realnamen finden.

So, jetzt bist Du dran.

Winter[Raven]
2005-08-08, 21:13:56
Ich meine ATI hinkt mit dem OpenGL-Treiber auch immernoch kleinwenig hinter NV...

Wie lange soll man den ATI noch entschuldigen für die Unfähigkeit OpenGL Teile zuschreiben? Als damals Catalyst-Treiber kamm, konnte man die Entschuldigung akzeptieren, aber nicht JAHRE später!

Gast
2005-08-08, 21:15:50
']Wie lange soll man den ATI noch entschuldigen für die Unfähigkeit OpenGL Teile zuschreiben? Als damals Catalyst-Treiber kamm, konnte man die Entschuldigung akzeptieren, aber nicht JAHRE später!
Bürste nicht vergessen.

Seraf
2005-08-08, 21:21:12
']Wie lange soll man den ATI noch entschuldigen für die Unfähigkeit OpenGL Teile zuschreiben? Als damals Catalyst-Treiber kamm, konnte man die Entschuldigung akzeptieren, aber nicht JAHRE später!

Was geht denn mit den Treibern nicht?
Welche Bugs gibt es denn?
Welches OpenGL Spiel außer Doom3 läuft spürbar langsamer als auf NV Karten?

Das der OpenGL Treiber durch andere Programmierung schneller wäre ist "bis jetzt" reine Spekulation.

deekey777
2005-08-08, 21:24:02
']Wie lange soll man den ATI noch entschuldigen für die Unfähigkeit OpenGL Teile zuschreiben? Als damals Catalyst-Treiber kamm, konnte man die Entschuldigung akzeptieren, aber nicht JAHRE später!

Was ist das jetzt?

Winter[Raven]
2005-08-08, 21:35:47
Was geht denn mit den Treibern nicht?

Eigentlich alles, habe ich gesagt irgendetwas würde nicht gehen?

Welche Bugs gibt es denn?

Fallen mir gerade ned ein, aber man verweißt komischer Weise immer auf die Performace der ATI karten unter openGl...

Welches OpenGL Spiel außer Doom3 läuft spürbar langsamer als auf NV Karten?

Keines, aber viele Meckern trotzdem die Treiber wären nicht ausgereift.

Das der OpenGL Treiber durch andere Programmierung schneller wäre ist "bis jetzt" reine Spekulation.

Nun, ATI versprach mitte letzen Jahres, man würde in den nächsten 6 Monaten neuen OpenGL-part in die Treiber includen. Jetzt sind wir aber über ^^.

Diskutator
2005-08-08, 22:07:23
']Eigentlich alles, habe ich gesagt irgendetwas würde nicht gehen?



Fallen mir gerade ned ein, aber man verweißt komischer Weise immer auf die Performace der ATI karten unter openGl...



Keines, aber viele Meckern trotzdem die Treiber wären nicht ausgereift.



Nun, ATI versprach mitte letzen Jahres, man würde in den nächsten 6 Monaten neuen OpenGL-part in die Treiber includen. Jetzt sind wir aber über ^^.

LOL,

versprach nicht NVIDIA irgendwas von HW-Support für irgendeinen Video-Codec bei der 6800'er ?? Nix mehr gehört! Nur mal so gefragt und warum ist die Performance beim NEUEN SLI 8xAA so massiv eingebrochen?

Fragen über Fragen, lieber Winter.

Übrings, beim lesen deiner Beiträge ist ein klarer Hang zum NV-Sysmdrom zu erkennen! Ich finde das sehr bedenklich!

Grestorn
2005-08-08, 22:25:47
KotoR 1 und KotoR 2 sind je nach eingesetzter Catalyst Treiberversion nahezu unspielbar. Insbesodnere mit den neuesten Versionen.

Beides OGL Spiele.

Gast
2005-08-08, 22:35:09
LOL,


Übrings, beim lesen deiner Beiträge ist ein klarer Hang zum NV-Sysmdrom zu erkennen! Ich finde das sehr bedenklich!

Während bei dir eindeutig ein Hang zu ATI zu sehen ist,wie man aus den letzten Threads entnehmen kann.

Muss man jedesmal,wenn man einen Hersteller kritisiert den Gegenspieler auch kritisieren, damit sich niemand aus einem der Fanlager beleidigt fühlt?

Seraf
2005-08-08, 22:50:56
KotoR 1 und KotoR 2 sind je nach eingesetzter Catalyst Treiberversion nahezu unspielbar. Insbesodnere mit den neuesten Versionen.

Beides OGL Spiele.

Mit der Engine von Neverwinter Nights gibts wirklich immer mal Probleme.
Nur, macht ATI was falsch oder Bioware? :|

Gast
2005-08-08, 23:28:18
Nur, macht ATI was falsch oder Bioware? :|

nachdem es bei der konkurrenz einwandfrei funktioniert darfst du dir die antwort aussuchen ;)

deekey777
2005-08-08, 23:31:14
nachdem es bei der konkurrenz einwandfrei funktioniert darfst du dir die antwort aussuchen ;)

Das war eh eine rhetorische Frage und ja, es ist Bioware.

Coda
2005-08-09, 09:21:34
Was geht denn mit den Treibern nicht?
Welche Bugs gibt es denn?
Welches OpenGL Spiel außer Doom3 läuft spürbar langsamer als auf NV Karten?

Das der OpenGL Treiber durch andere Programmierung schneller wäre ist "bis jetzt" reine Spekulation.So spekulativ ist das nicht. Der GL Treiber von nVIDIA verkraftet deutlich mehr Batches...

TrigPe
2005-08-09, 09:56:11
Was geht denn mit den Treibern nicht?
Welche Bugs gibt es denn?
Welches OpenGL Spiel außer Doom3 läuft spürbar langsamer als auf NV Karten?

Das der OpenGL Treiber durch andere Programmierung schneller wäre ist "bis jetzt" reine Spekulation.

Schon mal unter Linux OpenGl Spiele gespielt? Da wird meine 9800se 256bit von der alten Geforce3 gnadenlos zersägt.

MfG

Seraf
2005-08-09, 10:01:03
Schon mal unter Linux OpenGl Spiele gespielt? Da wird meine 9800se 256bit von der alten Geforce3 gnadenlos zersägt.

MfG

Von Linux war auch nie die Rede.
Benutzt man unter Linux nicht FireGL Treiber (die vom Windowstreiber mehr oder weniger schlecht portiert wurden)?
Dann brauchst du dich auch nicht wundern das Spiele langsam laufen.

Grestorn
2005-08-09, 11:16:58
Das war eh eine rhetorische Frage und ja, es ist Bioware.
Warum geht es dann mit bestimmten Catalyst Versionen?

Seraf
2005-08-09, 11:26:07
Warum geht es dann mit bestimmten Catalyst Versionen?

Im einen Cat gibt es einen workaround für Biowares Meisterleistung.
Im nächsten wurde der OpenGL Teil optimiert. Leider ist der workaround nun unwirksam.
usw usw...

Bei Neverwinter Nights bekam man schon den Eindruck das Bioware auf NV Hardware programmiert und bei der letzten Betaversion nochmal guckt ob das Spiel auch auf ATI Karten läuft. Wenn visuell alles stimmt wird das Spiel auf den Markt geworfen. z.B. wurde Pixelshader Wasser für R200 Karten erst ein Jahr später auf drängen der Fangemeinde nachgereicht.

Mr. Lolman
2005-08-09, 11:28:09
Schon mal unter Linux OpenGl Spiele gespielt? Da wird meine 9800se 256bit von der alten Geforce3 gnadenlos zersägt.

MfG

Selbst unter Linux cheatet NV. Bei UT2004 wird z.B. das Multitexturing beschränkt, weswegen dann manche Effekte fehlen...

Coda
2005-08-09, 11:35:12
Selbst unter Linux cheatet NV. Bei UT2004 wird z.B. das Multitexturing beschränkt, weswegen dann manche Effekte fehlen...Das liegt am OpenGL Backend von UT2004 und ist auch unter Windows sichtbar afaik.

Demirug
2005-08-09, 12:01:55
Das liegt am OpenGL Backend von UT2004 und ist auch unter Windows sichtbar afaik.

Ja, es sind die Render2Texture Effekte die fehlen. Die sollen aber nachdem es jetzt eine passende OpenGL Extension gibt nachgepflegt werden.

Tigerchen
2005-08-09, 16:14:49
KotoR 1 und KotoR 2 sind je nach eingesetzter Catalyst Treiberversion nahezu unspielbar. Insbesodnere mit den neuesten Versionen.

Beides OGL Spiele.


Soviel ich weiß hat Bioware den Bug gefixt der in bestimmten Leveln zu grauenhaften Slowdowns führte.

Tigerchen
2005-08-09, 16:18:33
']Wie lange soll man den ATI noch entschuldigen für die Unfähigkeit OpenGL Teile zuschreiben? Als damals Catalyst-Treiber kamm, konnte man die Entschuldigung akzeptieren, aber nicht JAHRE später!


Der OpenGL-Treiber ist doch gut. Was fehlt dir denn da? :confused:

Coda
2005-08-09, 17:39:01
Performance ist noch verbesserungswürdig. In manchen Dingen ist der ATi OpenGL-Treiber aber wirklich besser wie z.B. in Sachen GLSL compliance.

Gast
2005-08-09, 18:26:10
Performance ist noch verbesserungswürdig. In manchen Dingen ist der ATi OpenGL-Treiber aber wirklich besser wie z.B. in Sachen GLSL compliance.
:confused:
GLSL ist ja die Shadersprache, aber was ist mit compilance gemeint?

Coda
2005-08-09, 18:46:13
nVIDIA benützt den Cg Compiler für GLSL auch im Treiber, was dazu führt das manche konforme Shader nicht kompilieren.

Gast
2005-08-09, 20:09:11
nVIDIA benützt den Cg Compiler für GLSL auch im Treiber, was dazu führt das manche konforme Shader nicht kompilieren.
Ich stehe leider weiterhin auf dem Schlauch. :(
Der Compiler ist doch ein Bestandteil des Treibers?

Coda
2005-08-09, 20:15:34
Ja und das ist bei nVIDIA eben der eingebaute Cg Compiler der manchmal Probleme mit GLSL Programmen hat, wärend der ATi Compiler weitgehend konform ist.

Gast
2005-08-09, 20:19:14
Ja und das ist bei nVIDIA eben der eingebaute Cg Compiler der manchmal Probleme mit GLSL Programmen hat, wärend der ATi Compiler weitgehend konform ist.
OK, alles klar.
Hab vergessen, dass der Cg Nvidias Süppchen ist. :rolleyes:
*duck*

Gast
2005-08-09, 20:32:31
Ja und das ist bei nVIDIA eben der eingebaute Cg Compiler der manchmal Probleme mit GLSL Programmen hat, wärend der ATi Compiler weitgehend konform ist.
Dazu habe ich noch eine Frage. :)
Liegt es an Caps/Extensions oder ist der Cg recht grottig, wenn es um OGL geht?

Gast
2005-08-09, 21:25:25
Ja und das ist bei nVIDIA eben der eingebaute Cg Compiler der manchmal Probleme mit GLSL Programmen hat, wärend der ATi Compiler weitgehend konform ist.


ist der Cg-compiler nicht 100% kompatibel sowohl zu HLSL als auch zu GLSL?

Demirug
2005-08-09, 21:28:54
ist der Cg-compiler nicht 100% kompatibel sowohl zu HLSL als auch zu GLSL?

Nein. Cg ist von der Syntax her wie HLSL. Deswegen hat sich 3DLabs ja auch so gespert als nVidia vorgeschlagen hat Cg als Shaderhochsprache für OpenGL zu nehmen. Für GLSL werden auch nur Teile des Cg Compilers genutzt. Der Compiler ist als typischer 3 Pass Compiler aufgebaut.

MikBach
2005-08-09, 22:01:54
Nein. Cg ist von der Syntax her wie HLSL. Deswegen hat sich 3DLabs ja auch so gespert als nVidia vorgeschlagen hat Cg als Shaderhochsprache für OpenGL zu nehmen. Für GLSL werden auch nur Teile des Cg Compilers genutzt. Der Compiler ist als typischer 3 Pass Compiler aufgebaut.
Und? :confused:
Was willst du mir jetzt damit sagen?
Dass nicht alle Extensions der GF6 erkannt werden?
Oder redest du von DX?

Demirug
2005-08-09, 22:10:21
Und? :confused:
Was willst du mir jetzt damit sagen?
Dass nicht alle Extensions der GF6 erkannt werden?
Oder redest du von DX?

Soll heisen das Cg als solches eigentlich gar keinen GLSL Syntax beherscht. Weil Cg Syntaxkompatibel zu HLSL ist. Im Treiber werden allerdings Teile des Cg Compilers auch für GLSL benutzt. Allerdings eben mit einem anderen Frontend. Offiziell hat aber Cg nichts mit GLSL zu tun. Sieht man mal jetzt davon ab das man bei den nVidia dem Treiber anstelle von GLSL auch Cg Code vorsetzen kann.

MikBach
2005-08-09, 22:16:23
Soll heisen das Cg als solches eigentlich gar keinen GLSL Syntax beherscht. Weil Cg Syntaxkompatibel zu HLSL ist. Im Treiber werden allerdings Teile des Cg Compilers auch für GLSL benutzt. Allerdings eben mit einem anderen Frontend. Offiziell hat aber Cg nichts mit GLSL zu tun. Sieht man mal jetzt davon ab das man bei den nVidia dem Treiber anstelle von GLSL auch Cg Code vorsetzen kann.
Hört sich aber nicht so gut an...

Coda
2005-08-09, 22:19:18
Ist es auch nicht. Vor allem spuckt der Compiler wirre Cg-Syntax-Fehlermeldungen aus und frisst teilweiße sogar Cg-GLSL Mischmasch ;)

Ich verifizier meine GLSL-Programme lieber mit dem 3DLabs Testtool, dann kann ich sicher sein, dass ATi Karten ihn zumindest fressen.