PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : welche ati karte kann hdr?


Gast
2005-11-24, 02:28:59
hi,ich brauch ne neue karte.würde gerne eine ati holen,aber ich möchte nicht auf hdr verzichten.welche ati karte kann hdr?

deekey777
2005-11-24, 02:33:37
hi,ich brauch ne neue karte.würde gerne eine ati holen,aber ich möchte nicht auf hdr verzichten.welche ati karte kann hdr?

Mindestens jede ab dem R300.
Es liegt am Programmierer, ob man auf einer Radeon HDR sieht oder nicht, sprich ob sich der Aufwand lohnt. Doch irgendwie beschleicht mich ein ungutes Gefühl, daß man mit einer G70 auf der sichereren Seite ist.

Simon
2005-11-24, 09:00:38
Auch der G70 kann kein richtiges HDR. HDR verlangt 64Bit Rechengenauigkeit pro Kanal und das bietet auch die Karte nicht!
Meistens wird HDR als Synonym für einen Glow/Bloom Effekt (diese haben dann noch eine höhere Genauigkeit als die anderen Effekte) benutzt. Das einzigste Spiel, wo da unterschieden wird, ist AFAIR WoW.
Wenn du diese Effekte unbedingt brauchst, nimm eine Karte aus der X1k Serie. Die können wenigstens gleichzeitig FSAA dazu (was normalerweise nicht geht) :up:

Thanatos
2005-11-24, 09:23:20
Errr..... so, wie ich das immer von aths' lese braucht es FP16 blending und nicht 64 bit rechengenauigkeit.




NB: mein erster post im ati Forum X-D

Fruli-Tier
2005-11-24, 09:53:59
Auch der G70 kann kein richtiges HDR. HDR verlangt 64Bit Rechengenauigkeit pro Kanal und das bietet auch die Karte nicht!
Meistens wird HDR als Synonym für einen Glow/Bloom Effekt (diese haben dann noch eine höhere Genauigkeit als die anderen Effekte) benutzt. Das einzigste Spiel, wo da unterschieden wird, ist AFAIR WoW.
Wenn du diese Effekte unbedingt brauchst, nimm eine Karte aus der X1k Serie. Die können wenigstens gleichzeitig FSAA dazu (was normalerweise nicht geht) :up:
Laut aktueller PCGH aber auch nur, wenn das programmiertechnisch so vorgesehen ist. Die aktuellen Spiele wie z.B. AoE3 sollen da noch zicken machen, wenn FSAA hinzu geschalten wird.

Letztendlich ist HDR eine Frage der Implementierung. Valve hat es geschafft, auch auf Nicht-SM3 Hardware einen schicken HDR Effekt zu erzielen. Der Rest setzt bisher ja auf SM3 (soweit ich das überblicken kann). Die Frage ist doch eher, wieviel Geld Du für einen Grafikkarte investieren willst.

Simon
2005-11-24, 11:22:46
Laut aktueller PCGH aber auch nur, wenn das programmiertechnisch so vorgesehen ist. Die aktuellen Spiele wie z.B. AoE3 sollen da noch zicken machen, wenn FSAA hinzu geschalten wird.
Auch HDR Effekte auf versch. Grafikkarten sind nur eine Implementierungsfrage ;)
Laut dem dt. Wikipedia braucht man für HDR 32Bit Genauigkeit pro Kanal. Ich hab irgendwie 64Bit im Kopf, muss das nochmal nachfragen bei uns in der Visualisierungsabteilung...

Letztendlich ist HDR eine Frage der Implementierung. Valve hat es geschafft, auch auf Nicht-SM3 Hardware einen schicken HDR Effekt zu erzielen.
Das ist keine Kunst, sieht man auch im Nvidia und ATI SDK. Oder bei den Humus Demos. Oder ...

Der Rest setzt bisher ja auf SM3 (soweit ich das überblicken kann). Die Frage ist doch eher, wieviel Geld Du für einen Grafikkarte investieren willst.
Die SC (Teil irgendwas) haben doch auch von ATI Hilfe bekommen, um dort diese Effekte zum Laufen zu bekommen, oder?

Simon
2005-11-24, 11:23:48
Errr..... so, wie ich das immer von aths' lese braucht es FP16 blending und nicht 64 bit rechengenauigkeit.
"Normale" HDR Effekte verhindern das Benutzen von Blending wegen den FP Texturformaten. Nvidia Karten unterstützen dieses Blending nun. Ist also kein Requirement, sondern macht das Leben leichter ;)

deekey777
2005-11-24, 11:28:36
Auch der G70 kann kein richtiges HDR. HDR verlangt 64Bit Rechengenauigkeit pro Kanal und das bietet auch die Karte nicht!
Die 64bit sind 16bit*4. Ach so.
Darum spricht aths eher von MDR, wobei dieses FP16 HDR zu diesem Zeitpunkt wie auch in kommenden Monaten/Jahren ausreichend ist.

Meistens wird HDR als Synonym für einen Glow/Bloom Effekt (diese haben dann noch eine höhere Genauigkeit als die anderen Effekte) benutzt. Das einzige Spiel, wo da unterschieden wird, ist AFAIR WoW.
Da kommt noch (insbesondere) Far Cry, SC3, HL2: Lost Coast und DoDS, AoE3(?) und SS2(?).

Wenn du diese Effekte unbedingt brauchst, nimm eine Karte aus der X1k Serie. Die können wenigstens gleichzeitig FSAA dazu (was normalerweise nicht geht) :up:
Bei der Aussage wäre ich sehr vorsichtig. Die X1800er beherrscht ja keine FP16-Filterung, was zwar über PS simuliert werden kann, doch das kostet uU viel Rechenleistung. Und wenn ein Entwickler "rücksichtsvoll" auf die FP16 Filterung verzichtet, so wird er auch zu faul sein, MSAA&HDR zu implementieren.
Nach dem Interview mit einem ATi Verantwortlichen beschleicht mich ein Gefühl, daß ATi Mist gebaut hat, als sie sich entschieden haben, auf die FP16 Filterung zu verzichten.

Simon
2005-11-24, 12:03:36
Die 64bit sind 16bit*4. Ach so.
Darum spricht aths eher von MDR, wobei dieses FP16 HDR zu diesem Zeitpunkt wie auch in kommenden Monaten/Jahren ausreichend ist.
Ok, ich war vielleicht etwas durcheinander heute morgen ;)
Aber du hast dich auch verlesen, denn ich schrieb 64Bit pro Kanal und nicht insgesamt :P
Laut Wikipedia und einer Präsentation, die ich gerad gefunden habe, ist HDR 32Bit pro Kanal, insgesamt also 128Bit. Also ist das, was der G70 kann, maximal MDR.

Da kommt noch (insbesondere) Far Cry, SC3, HL2: Lost Coast und DoDS, AoE3(?) und SS2(?).
Die Spiele kenn ich alle nur vom Namen her. Gibt es da wirklich eine Option, um Glow/Bloom zu aktivieren? Oder nur ein Schalter für "HDR (Effekte)"?
Will nur sichergehen, wenn mich das nächste Mal einer fragt ;)


Bei der Aussage wäre ich sehr vorsichtig. Die X1800er beherrscht ja keine FP16-Filterung, was zwar über PS simuliert werden kann, doch das kostet uU viel Rechenleistung. Und wenn ein Entwickler "rücksichtsvoll" auf die FP16 Filterung verzichtet, so wird er auch zu faul sein, MSAA&HDR zu implementieren.
Nach dem Interview mit einem ATi Verantwortlichen beschleicht mich ein Gefühl, daß ATi Mist gebaut hat, als sie sich entschieden haben, auf die FP16 Filterung zu verzichten.
Ich weiß nicht, was man für Render2Texture und AA braucht. Ich denke, man braucht nur den Buffer mit dem entsprechenden Flag erstellen muss. Von daher: Ist schnell gemacht. Bei der Filterung geb ich dir recht, vielleicht kommt das ja noch wie bei Transparency AA ;)

deekey777
2005-11-24, 19:07:06
[...]
Die Spiele kenn ich alle nur vom Namen her. Gibt es da wirklich eine Option, um Glow/Bloom zu aktivieren? Oder nur ein Schalter für "HDR (Effekte)"?
Will nur sichergehen, wenn mich das nächste Mal einer fragt ;)

[...]

In Far Cry gibt es definitiv richtiges HDR, aber keinen Schalter, sondern es wird per Konsolenbefehl aktiviert. Zu diesem Zeitpunkt sieht man es nur mit einer NV40/G70, erst mit dem kommenden Patch kommen auch die Besitzer einer X1000 in den Genuß von HDR.
In SC3 muß man unterscheiden zw. dem "serienmäßigen" FP16-HDR auf NV40/G70 und dem von ATi nachträglich gelieferten "SM2.0" HDR für die X800 und auch die X1000 (wird wohl aufgezwungen, da FP16 Filterung nicht verfügbar).
In HL2: Lost Coast und DoD:S gibt es mehrere HDR-Implementierungen: die allgemeine HDR-Implementierung für alle DX9-Grafikkarten (mit FP16-Texturen und bei fehlender FP16-Filterung INT16) und eine freischaltbare FP16 HDR-Implementierung ohne Nachteile der allgemeinen Implementierung.
In AoE3 wohl auch, aber nur auf nVidia HW. Und SS2? Es hieß auch hier ja, bei der X1000er Serie entstehen wegen der fehlenden FP16-Filterung aber häßliche Artifakte + http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3687100&postcount=18.

Radeonator
2005-11-24, 19:10:49
Wird es denn in naher Zukunft Games geben die zwingend SM3 verlangen? Wollte mir evtl wg PCE-E umstiegs ne x800 XL zulegen...ansonsten muss ich halt auf ne G7x im Mainstream Segment warten...

aths
2005-11-24, 19:14:44
Auch der G70 kann kein richtiges HDR. HDR verlangt 64Bit Rechengenauigkeit pro Kanal und das bietet auch die Karte nicht!HDR braucht eine hohe Dynamik, was (bei Support von Denorms) bereits FP16 bietet.
Meistens wird HDR als Synonym für einen Glow/Bloom Effekt (diese haben dann noch eine höhere Genauigkeit als die anderen Effekte) benutzt. Das einzigste Spiel, wo da unterschieden wird, ist AFAIR WoW.
Wenn du diese Effekte unbedingt brauchst, nimm eine Karte aus der X1k Serie. Die können wenigstens gleichzeitig FSAA dazu (was normalerweise nicht geht) :up:Ich glaube, dass ich andere Artikel erst mal zurückstellen und was zum Thema HDR-Rendering schreiben sollte.

aths
2005-11-24, 19:15:22
Laut aktueller PCGH aber auch nur, wenn das programmiertechnisch so vorgesehen ist. Die aktuellen Spiele wie z.B. AoE3 sollen da noch zicken machen, wenn FSAA hinzu geschalten wird.

Letztendlich ist HDR eine Frage der Implementierung. Valve hat es geschafft, auch auf Nicht-SM3 Hardware einen schicken HDR Effekt zu erzielen. Der Rest setzt bisher ja auf SM3 (soweit ich das überblicken kann). Die Frage ist doch eher, wieviel Geld Du für einen Grafikkarte investieren willst.HDR und SM3 haben technisch nichts miteinander zu tun.

aths
2005-11-24, 19:17:51
Die 64bit sind 16bit*4. Ach so.
Darum spricht aths eher von MDR, wobei dieses FP16 HDR zu diesem Zeitpunkt wie auch in kommenden Monaten/Jahren ausreichend ist.Neuerdings spreche ich auch bei FP16 von HDR, sofern es für FP16 Denorm-Support gibt. Grund: Als "hohe" Range setze ich FX32 an, welches 9,6 dB Dynamik bietet. Alles was gleich viel oder mehr Dynamik bietet, darf sich nach meiner neuen Definition "H"DR nennen. Ohne Denorm-Support bietet FP16 nur 9,3 dB und liegt damit knapp unter der (recht willkürlich gesetzten) Schwelle, mit Denorm-Support sind es 12,3 dB.

FX16 wäre (mit 4,8 dB) für mich dann das Mindestmaß für "M"DR.

Das ganze noch mal, anders aufgebaut: Das traditionelle 8-Bit-Format (2,4 dB) wäre LDR, für MDR brauchts doppelt so viel, für HDR noch mal doppelt so viel. Ich hoffe, dass diese Argumentation auf breite Akzeptanz trifft, lasse mich jedoch gerne auch von anderen Argumenten überraschen.

Simon
2005-11-24, 19:45:23
Ich glaube, dass ich andere Artikel erst mal zurückstellen und was zum Thema HDR-Rendering schreiben sollte.
Hab ich etwa soviel Blödsinn geschrieben? :usad:

Das ganze noch mal, anders aufgebaut: Das traditionelle 8-Bit-Format (2,4 dB) wäre LDR, für MDR brauchts doppelt so viel, für HDR noch mal doppelt so viel. Ich hoffe, dass diese Argumentation auf breite Akzeptanz trifft, lasse mich jedoch gerne auch von anderen Argumenten überraschen.
Das ist das, was auch in Wikipedia steht. Ich muss morgen wirklich nochmal bei meinem Kollegen in der Visualisierung fragen...

aths
2005-11-24, 19:50:43
Hab ich etwa soviel Blödsinn geschrieben? :usad:Diese Überstrahl-Effekte von denen du spricht können auch ohne HDR-Rendering erzeugt werden. Eigentlich ist HDR-Rendering nur dazu gedacht, einen höheren Dynamikbereich zu berücksichtigen und die virtuelle Kamera-Blende anzupassen. Man kann beim HDR-Rendering auch einen Überstrahl-Effekt erzeugen. Das ist aber nicht der primäre Grund, warum sich HDR-Rendering (bzw. HDR-Lighting) durchsetzen wird. Für optimale Qualität braucht man in Hardware: HDR-Blending, HDR-Filtering und HDR-Multisampling. NV40/G70 bieten Blending und Filtering, R520 bietet Blending und Multisampling. Für performantes und qualitativ hochwertiges HDR-Rendering braucht man auch das native HDR-Filtering.

Obwohl es keine Karte gibt, die alle drei Features kann, wird es natürlich HDR-mäßige Grafik geben – und viele Leute werden beim ersten Überstrahl-Effekten denken "boah geil HDR!" Dabei heißt HDR für sich alleine genommen nur "High Dynamic Range" und sagt ohne weitere Bestimmung (-Imaging, -Rendering, -Lighting, ...) nichts aus – den Glow-Effekt kann man auch auf praktisch jeder Karte hinkriegen, ohne dass gleichzeitig (adptives) HDR-Rendering geboten wird.

Gutes HDR-Rendering äußert sich in keinen neuen Effekten, es sorgt einfach für stimmige Beleuchtung sowohl bei simuliertem Tageslicht als auch in der Dämmerung und Dunkelhalt.


Das ist das, was auch in Wikipedia steht. Na wenn das sogar Wikipedia schreibt ... :)