PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : warum kein dedizierter filterchip?


Hamster
2005-01-16, 20:04:16
ist vielleicht nur ein hirngespinnst, aber kam mir grad in den sinn:


heutzutage definieren sich ja grafikkarten hauptsächlich durch ihre filtermethoden und vor allem durch die geschwindigkeit dabei.


warum setzt man aber zwischen gpu und monitorsignal keinen dedizierten filterchip? dieser soll über das gerenderte bild nochmal div. filter laufen lassen (aa, af...).

so könnte man die volle rohleistung der gpu nutzen, da sie nicht mehr durch aa/af "behindert" wird.

so hätte man immer ein absolut geiles bild. man stelle sich vor: 8x super sampling, und "FX-8x af"... göttlich.

man hätte evtl. eine max. auflösung und eine max. bildwiederholrate (sagen wir mal 1600x1200 bei 100fps) da der chip an kapazitätsgrenzen stösst, dürfte so aber schneller sein als mehrfachchiplösungen bei besserer bq.

oder wird sowas ähnliches heute schon @gpu realisiert?

oder geht das technisch gar nicht? (also nachträglich...)

Exxtreme
2005-01-16, 20:34:13
warum setzt man aber zwischen gpu und monitorsignal keinen dedizierten filterchip? dieser soll über das gerenderte bild nochmal div. filter laufen lassen (aa, af...).

so könnte man die volle rohleistung der gpu nutzen, da sie nicht mehr durch aa/af "behindert" wird.

so hätte man immer ein absolut geiles bild. man stelle sich vor: 8x super sampling, und "FX-8x af"... göttlich.

Technisch ist das ganze recht aussichtslos da man nachträglich nichts mehr drehen kann.

Quasar
2005-01-16, 22:36:12
Wieso sollte man nicht nachträglich den FB mit OGSS aufblähen und wieder runterfiltern können?

huha
2005-01-16, 22:40:21
AA und AF müssen passieren, wenn das Bild erzeugt wird. Wenn das Bild erstmal steht, ist nichts mehr zu machen.
Gut, ein Blurfilter ließe sich schnell per dediziertem Chip erzeugen, das geht aber auch billiger durch ein schlechtes Monitorkabel ;)

-huha

Quasar
2005-01-16, 22:52:02
Dann frage ich einfach mal:
Wie wurde 'klassisches' SSAA erzeugt - bsw. bei Chips, die eigentlich nicht so richtig dafür ausgelegt waren, wie die GF2?

Sobald das finale Bild im Framebuffer ist, kann man sehr wohl damit noch allerlei Unfug anstellen - AF nicht mehr, aber gegen OGSS spricht m.W. nichts.

edit:
...ausser evtl. auftretende Ungenauigkeiten bei sehr feiner Farbauflösung, die höher als der Framebuffer-Inhalt war.

Exxtreme
2005-01-16, 22:58:43
Wieso sollte man nicht nachträglich den FB mit OGSS aufblähen und wieder runterfiltern können?
AA und AF beruhen darauf, daß in das fertige Bild MEHR Informationen reinfliessen als ohne. Ein Bild in der 1024'er Auflösung mit 4x OGSSAA behandelt enthält viele (nicht alle) zusätzliche Informationen eines mit der 2048'er Auflösung gerenderten Bildes.

Wenn du aber ein Bild von vorneherein mit der 1024'er Auflösung renderst, kannst du es aufblähen wie du lustig bist. Zusätzliche Informationen, die das Bild besser machen, wird es einfach nicht enthalten.

Quasar
2005-01-16, 23:14:22
Du kannst zumindest Kanten damit glätten (Nein, sie sind dann nicht aufgrund von mehr Information 'besser', aber aufgrund von optischer Täuschung wegen milderen Kontrasten)

Exxtreme
2005-01-16, 23:20:31
Du kannst zumindest Kanten damit glätten (Nein, sie sind dann nicht aufgrund von mehr Information 'besser', aber aufgrund von optischer Täuschung wegen milderen Kontrasten)
Wenn man Bilder irgendwie "aufbläht" dann hat das normalerweise Auswirkungen auf das gesamte Bild. Dann werden auch die Texturen damit "nachbehandelt" und das dürfte in Unschärfe resultieren.

aths
2005-01-17, 00:24:12
Du kannst zumindest Kanten damit glätten (Nein, sie sind dann nicht aufgrund von mehr Information 'besser', aber aufgrund von optischer Täuschung wegen milderen Kontrasten)Du kannst dir auch eine Milchglasscheibe vor den Monitor schrauben.

aths
2005-01-17, 00:27:19
ist vielleicht nur ein hirngespinnst, aber kam mir grad in den sinn:


heutzutage definieren sich ja grafikkarten hauptsächlich durch ihre filtermethoden und vor allem durch die geschwindigkeit dabei.


warum setzt man aber zwischen gpu und monitorsignal keinen dedizierten filterchip? dieser soll über das gerenderte bild nochmal div. filter laufen lassen (aa, af...).

so könnte man die volle rohleistung der gpu nutzen, da sie nicht mehr durch aa/af "behindert" wird.Um AA und AF überhaupt in Echtzeit zu ermöglichen, ist die große Rohleistung notwendig. Der Qualitätsgewinn entsteht durch das Einbringen zusätzlicher Informationen, die in der GPU erzeugt werden müssen. AA und AF sind keine Filter die man einfach über das fertige Bild laufen lässt.

Piffan
2005-01-17, 01:07:20
Mal ganz grob gesagt: Wenn es so billig nachträglich ginge, dann gäbe es das längst.........

Gedankengang: Ein Bild, welches fertig im Speicher liegt, kann ich genau so schlecht von Artefakten befreien wie ein vorliegendes Foto....Man kann am Gamma und dem Kontrast rumfummeln, aber mehr rausholen als drin ist kann man nicht....

Tesseract
2005-01-17, 01:14:55
Technisch ist das ganze recht aussichtslos da man nachträglich nichts mehr drehen kann.

alles geht wenn man nur will:
der "filter" könnte das ganze bild nochmal leicht versetzt berechnen und draus ein multisamplebuffer-supersampling basteln ;D

Exxtreme
2005-01-17, 01:17:04
alles geht wenn man nur will:
der "filter" könnte das ganze bild nochmal leicht versetzt berechnen und draus ein multisamplebuffer-supersampling basteln ;D
Genau. Also 2 Berechnungsdurchgänge für 2x MSB-SSAA und 4 Berechnungsdurchgänge für 4x MSB-SSAA. Merkst du was? ;)

Tesseract
2005-01-17, 01:29:26
Genau. Also 2 Berechnungsdurchgänge für 2x MSB-SSAA und 4 Berechnungsdurchgänge für 4x MSB-SSAA. Merkst du was? ;)

immerhin gehts so ;)

apropos: könnte man so nicht mit einem SLI system 2xRGSS ohne leistungsverlust, also mit 100%iger effizienz, gegenüber einer einzelkarte zusammenbringen und zusätzlich noch 2 verschiedene MS-masken kombinieren?
bei optimaler umsetzung - wenn überhaupt möglich - könnte man so z.B. einen modus bekommen, der polykanten mit 4x4 und alphakanten mit 2x2 glättet und, vergleichen mit einer einzelkarte, die leistung von 2xRGMS hat.

jaja ich weiß, das ist wunschdenken :D

Quasar
2005-01-17, 08:37:24
Wenn man Bilder irgendwie "aufbläht" dann hat das normalerweise Auswirkungen auf das gesamte Bild. Dann werden auch die Texturen damit "nachbehandelt" und das dürfte in Unschärfe resultieren.
Ja, vermutlich. Allerdings wäre mir mittlerweile ein klein wenig Unschärfe lieber, als das elende Geflimmer, welches bsw. Riddick auf den Monitor bringt (Gut, daß es nur aus der Videothek geliehen war...).

Quasar
2005-01-17, 08:38:02
Du kannst dir auch eine Milchglasscheibe vor den Monitor schrauben.
Nein, damit verliere ich meine Monitorgarantie, wenn ich Löcher ins Gehäuse bohre.

Tesseract
2005-01-17, 11:49:47
Nein, damit verliere ich meine Monitorgarantie, wenn ich Löcher ins Gehäuse bohre.

du kannst dir ja keinen ständer basteln, damit bist du auch noch flexibel :tongue:

Exxtreme
2005-01-17, 11:51:48
du kannst dir ja keinen atänder basteln, damit bist du auch noch flexibel :tongue:
Ausserdem sollte man nie die Macht des Tesas unterschätzen. ;)

Piffan
2005-01-17, 13:34:45
Was geht denn hier ab? MOD beim Spammen. tstststs

Übrigens ist der Tesafilm auch mein Lieblingsfilm, aber Panzerband ist noch ne Ecke besser. :D

aths
2005-01-17, 22:50:32
Ja, vermutlich. Allerdings wäre mir mittlerweile ein klein wenig Unschärfe lieber, als das elende Geflimmer, welches bsw. Riddick auf den Monitor bringt (Gut, daß es nur aus der Videothek geliehen war...).Kommt das Geflimmer zufällig durch (Specular) Bumpmapping?

Quasar
2005-01-17, 23:23:14
Das ist durchaus möglich. Warum werden da nicht Wege genutzt, um das zu vermindern?
Sogar FarCry kann das in Grenzen.

aths
2005-01-17, 23:33:27
Das ist durchaus möglich. Warum werden da nicht Wege genutzt, um das zu vermindern?
Sogar FarCry kann das in Grenzen.Das ist eine nichtlineare Berechnung, wo man schwer die endgültige Frequenz berechnen kann.

Quasar
2005-01-17, 23:49:34
Wie gesagt, "sogar FarCry kann das in Grenzen".
Evtl. war es sogar auch "nur" Normalmapping - k.A. ich hab's jedenfalls keine zehn Minuten ertragen und jetzt isses wieder in der Videothek und wartet auf den nächsten armen Irren.

aths
2005-01-18, 02:08:40
Wie gesagt, "sogar FarCry kann das in Grenzen".
Evtl. war es sogar auch "nur" Normalmapping - k.A. ich hab's jedenfalls keine zehn Minuten ertragen und jetzt isses wieder in der Videothek und wartet auf den nächsten armen Irren.Gibts da bei FC eine Extra-Option, oder flimmert das einfach nur nicht so stark?

Vernünftig designtes Bumpmapping-Artwork sollte zumindest beim Diffuse Bumpmapping kaum flimmern.

q@w
2005-01-18, 09:38:57
Es flimmert von vornherein deutlich (!!) weniger und es gibt noch eine Option namens "shader_antialias" (o.ä., hab's nicht ganz genau im Gedächntis), die das "glänzen" von Normalmapping etwas reduziert.

Ich wollte das mal für den optischen Unterschied in der FarCry Releaseversion zwischen GFFX und Radeon verantwortlich machen, wo letztere "mehr glänzte" (Plastiklook) - hab's dann aber nicht weiter verfolgt.

aths
2005-01-18, 16:42:55
Es flimmert von vornherein deutlich (!!) weniger und es gibt noch eine Option namens "shader_antialias" (o.ä., hab's nicht ganz genau im Gedächntis), die das "glänzen" von Normalmapping etwas reduziert.

Ich wollte das mal für den optischen Unterschied in der FarCry Releaseversion zwischen GFFX und Radeon verantwortlich machen, wo letztere "mehr glänzte" (Plastiklook) - hab's dann aber nicht weiter verfolgt.FC habe ich nie untersucht, bei Doom 3 fiel mir allerdings auch recht fix Geflimmer auf. Besonders Specular Bumpmapping neigt zum Flimmern. Es war aber nicht so schlimm, dass ich es deshalb nicht spielen würde.

Eng verknüpft sind Detailgrad und Flimmeranfälligkeit – bei Riddick könnten zu detaillierte Maps zum Einsatz gekommen sein, und/oder eine unglückliche Formel für das Specular Lighting. Screenshots wäre nicht schlecht gewesen :)

Piffan
2005-01-18, 21:02:45
Wenn du mal FC untersuchen willst, dann teste doch mal die Project- Demo. Soll auf auf NV- Hardware laufen, und ein Benchmark ist auch schon dabei. Bei der neuen PcGHardware ist die Demo schon dabei, falls du immer noch per Modem unterwegs bist.

Hamster
2005-01-19, 19:40:42
schade, hab ich mir ja aber fast schon gedacht, dass es nicht geht.

aber danke für die antworten.