PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : 8xMSAA vs. Mischmodi


Seiten : 1 [2]

Raff
2009-04-29, 14:13:12
R420 mit A.I. ist nicht besser als NV40 HQ. Beide flimmern bei fiesen Texturen, beide filtern sinnlos winkelabhängig. Q ist natürlich meilenweit hässlicher als beides. Ich sag's gerne nochmal: Prä-G80-HQ wird schlechter gemacht als es ist. Da färbt viel von Q ab.

MfG,
Raff

Gast
2009-04-29, 14:18:56
Ich will hauptsächlich spielen, und das mit einem möglichst günstigem Verhältnis zw. BQ und fps.

Das gibt es derzeit leider nur bei Nvidia, bei ATI ist die BQ einfach zu schlecht, das kann auch der geringere Preis nicht aufwiegen.

reunion
2009-04-29, 14:38:35
Das gibt es derzeit leider nur bei Nvidia, bei ATI ist die BQ einfach zu schlecht, das kann auch der geringere Preis nicht aufwiegen.

Das sind typische Aussagen von Leute welche vorher einen NV40 oder G70 hatten.

Gast
2009-04-29, 14:38:46
Das gibt es derzeit leider nur bei Nvidia, bei ATI ist die BQ einfach zu schlecht, das kann auch der geringere Preis nicht aufwiegen.
Derartiges Getrolle bringt die Diskussion ganz sicher nicht voran, aber einen wichtigen Punkt kann man nicht außer Acht lassen. In die Gewichtung zwischen Bildqualität und FPS fließen immer subjektive Aspekte mit ein, Catalyst A.I. schließt individuelle Anpassungen aber kategorisch aus und zwingt die Leute, sich entweder mit der Fremdbestimmung zu arrangieren oder sich abzuwenden.

Gast
2009-04-29, 14:56:06
Nur mal so als unverbindlicher Vorschlag:
Wie wäre es mal zur Abwechslung mit der Rückkehr zum ursprünglichen Threadthema? Dass einige hier der NV-Religion und andere der ATI-Religion angehören ist uns allen doch sattsam bekannt.

*Hüstel*
Gepriesen sei Sankt Matrox! :weg:

Lawmachine79
2009-04-29, 14:57:29
Das gibt es derzeit leider nur bei Nvidia, bei ATI ist die BQ einfach zu schlecht, das kann auch der geringere Preis nicht aufwiegen.
Das ist total übertrieben. Ich hatte eine 4850, die Leistung und die BQ waren gut, aber eben nicht so gut wie bei den G80-und-danach Karten, die ich habe / hatte. Man muss schon hinsehen, um die Schwächen zu erkennen; eine andere Sache ist natürlich das ausbleibende SSAA-"Aha-Erlebnis"; das aber auch nur bei Spielen vor 2007.
R420 mit A.I. ist nicht besser als NV40 HQ. Beide flimmern bei fiesen Texturen, beide filtern sinnlos winkelabhängig. Q ist natürlich meilenweit hässlicher als beides. Ich sag's gerne nochmal: Prä-G80-HQ wird schlechter gemacht als es ist. Da färbt viel von Q ab.

MfG,
Raff
Ist es nicht? Ok, bei der Out-of-the-Box BQ ist es noch klarer, aber bei HQ muss man ja konsequenterweise auch A.I. ausschalten.

Gast
2009-04-29, 15:02:30
Nur mal so als unverbindlicher Vorschlag:
Wie wäre es mal zur Abwechslung mit der Rückkehr zum ursprünglichen Threadthema?
Ich denke, das gehört alles zusammen, sonst kannst du ATI-User gleich ganz bitten, außen vor zu bleiben. Was soll denn jemand auch groß sagen, dessen Treiber ihm außer dem Switch auf 8xAA und einem fremdbestimmten AAA-Modus keine Auswahl erlaubt, er wird - was menschlich verständlich ist - 8xAA für sinnvoller erachten als es ist und trägt das hier in die Diskussion.

kruemelmonster
2009-04-29, 15:04:01
Was für nen Monitor hast du?

Irrelevant. Es gab hier im Forum mal ne animierte Gif, welche die Auswirkungen von Artificial Dumbness bei Stalker aufgezeigt hat, iirc erstellt von Coda. Vollkommen Humpe ob du dir das an nem TFT oder CRT anguckst.


Ich will hauptsächlich spielen, und das mit einem möglichst günstigem Verhältnis zw. BQ und fps.

Da liegt der Hund begraben. Dein möglichst günstiges Verhältnis bekommst du von AMD im Großen und Ganzen fest vordefiniert. Will ich Flatout, Max Payne oder ältere GTA's spielen, interessiert mich keine Kosten/Nutzenrechnung sondern nur maximale BQ.

Für ATI's 8xMSAA kann ich mir in der Situation gar nix kaufen während NV's 16xS mir eine schön ruhige Darstellung ermöglicht.

fdk
2009-04-29, 15:08:56
das ausbleibende SSAA-"Aha-Erlebnis"; das aber auch nur bei Spielen vor 2007.


Ich kann nur für mich sprechen aber das ist mittlerweile das einzige wofür ich von meiner 8800gt aufrüsten würde: für höhere ssaa modi in Spielen wie zB. Fallout 3. Was bringt mir eine neue Graka wenn sie ihre zusätzliche Leistung dank Treiberbevormundung in 80% der Zeit beim spielen älterer Spiele in sinnlosen fpssteigerungen von 60 -> 130 ohne zusätzlichen Nutzen verpufft?

aths
2009-04-29, 15:21:48
Für ATI's 8xMSAA kann ich mir in der Situation gar nix kaufen während NV's 16xS mir eine schön ruhige Darstellung ermöglicht.ATIs und Nvidias (ohne Apostroph, bitte.)

Bei mir liegt der Hauptgrund, von der 8600 GTS (schön übertaktet) zur 9800 GTX (diese wird allerdings heruntergetaktet betrieben) gewechselt zu haben zwar auch vor allem darin, mehr Supersampling nutzen zu können. Allerdings bleibt Supersampling, insbesondere bei einem Ordered Grid, ineffizient. Man akzeptiert den schlampigen Content weil man es mit irrsinniger GPU-Leistung wieder halbwegs flimmerfrei hinbekommt. Richtig wäre, die Flimmer-Games im Regal stehen zu lassen.

In WoW kann ich mir statt 4xS nun 16xS leisten (4x MSAA + 2x2 OGSSAA.) Sieht spitze aus – aber dafür gleich eine 9800 GTX? Wäre WoW vernünftig programmiert, reicht jede 8500 GT für 1280x1024 aus.

san.salvador
2009-04-29, 15:27:02
Die Effizienz lässt sich IMHO nur im Vergleich mit anderen, ähnlich effektiven Verfahren beurteilen. In diesem Sinne ist SSAA sogar sehr effizient, weil die einzig effektive Lösung.

Gast
2009-04-29, 15:43:47
Ich denke, das gehört alles zusammen, sonst kannst du ATI-User gleich ganz bitten, außen vor zu bleiben.Die können sich, wie Mr. Lolman, ihre Hybriden selber stricken, indem sie 720p-Beamer/HDTVs in 1920x1080 ansteuern. Ist auch nichts anderes als 1,5x1,5 OGSSAA. Mit ner NV-Karte käme man in der Konstellation bis auf "72xS" (1920x1080@32xS Berechnung bei Darstellung über ein Gerät mit 1280x720 physikalischer Auflösung). Gut, das nenne dann sogar ich Overkill. Selbst Pixar nutzt "nur" 64xSSAA.
"18xS" mit ner ATI sollte schon eine vernünftige Effizienz bringen. Spätestens mit dem Wide-Tent-Downfilter dürfte dann auch die AF-Qualität mehr als ausreichend sein.

Mr.Magic
2009-04-29, 15:59:07
ATIs und Nvidias (ohne Apostroph, bitte.)

Tatsächlich? Dann gefällt dir diese Schreibweise wahrscheinlich auch nicht: das Ohm'sche Gesetz.

Gast
2009-04-29, 17:52:14
In WoW kann ich mir statt 4xS nun 16xS leisten (4x MSAA + 2x2 OGSSAA.) Sieht spitze aus – aber dafür gleich eine 9800 GTX? Wäre WoW vernünftig programmiert, reicht jede 8500 GT für 1280x1024 aus.

Hätte wäre wenn...das können wir nicht beeinflussen.
Ich kauf mir meine Grafikkarten nach Bildqualitätsmerkmalen und da bietet Ati seit Jahren nur Magerkost. Bildqualität darf auch gerne etwas mehr kosten, das ist immer noch besser als extrem hohe FPS und schlechten AA Alternativen auskommen zu müssen.

aths
2009-04-29, 18:11:06
Tatsächlich? Dann gefällt dir diese Schreibweise wahrscheinlich auch nicht: das Ohm'sche Gesetz.Es ist ja auch das Ohmsche Gesetz.

Die Effizienz lässt sich IMHO nur im Vergleich mit anderen, ähnlich effektiven Verfahren beurteilen. In diesem Sinne ist SSAA sogar sehr effizient, weil die einzig effektive Lösung.SSAA berechnet alles intern in höherer Auflösung, obwohl nur wenige Bildbereiche profitieren. SSAA mit OG-Raster behält das Gitterraster der Pixelanordnung bei, wodurch bestimmte Probleme nur wenig entschärft werden. Effizient wäre eine vernünftige Shaderprogrammierung bzw. ordentlicher Content.

Hätte wäre wenn...das können wir nicht beeinflussen.
Ich kauf mir meine Grafikkarten nach Bildqualitätsmerkmalen und da bietet Ati seit Jahren nur Magerkost. Bildqualität darf auch gerne etwas mehr kosten, das ist immer noch besser als extrem hohe FPS und schlechten AA Alternativen auskommen zu müssen.Das Antialiasing ist bei ATI-Karten sehr gut, insbesondere die Blurmodi mit Edge-Detection, die Polygoninnenflächen in Ruhe lassen und nicht blurren, bieten eine bessere Filterqualität als der übliche Boxfilter. Allerdings habe ich am AF einiges auszusetzen. Die Karten scheinen chronisch zu unterfiltern.

Die AF-Problematik bei aktivem AI und dass kein Supersampling geboten wird, hält mich zwar im Moment vom Kauf einer Radeon ab, aber das fehlende SSAA laste ich weniger der Karte und mehr dem schlechten Content gewisser Spiele an. Zusätzliches OGSSAA zum Multisampling ist nur in sehr wenigen Situationen eine gute Lösung. Wenn schon SSAA, dann bitte durchweg mit Sparse Grid.

Gast
2009-04-29, 18:31:44
Wenn schon SSAA, dann bitte durchweg mit Sparse Grid.
Wieso haben wir das nicht, braucht es da Anpassungen an der Hardware oder ist aufgrund von Kompatibilitätsproblemen der Pflegeaufwand zu groß? Himmelherrgott, die wollen uns Mosterkarten verkaufen, am Besten noch im SLI-Gespann, damit wir darauf Konsolenports nudeln. Dann gebt uns doch wenigstens Zucker!

Gast
2009-04-29, 18:53:14
Brauch kein SGSSAA das OGSSAA genügt völlig, als Hybriden nahezu perfekt.

Mr.Magic
2009-04-29, 18:55:27
Es ist ja auch das Ohmsche Gesetz.

Nicht zwingendermaßen.

Wenn Sie den Personennamen hervorheben wollen, können Sie auch den Namensteil großschreiben und ihn durch einen Apostroph (Auslassungszeichen) vom übrigen Teil des Wortes abtrennen:

die Grimm’schen Märchen, das Ohm’sche Gesetz,
die Einstein’sche Relativitätstheorie

http://www.duden.de/deutsche_sprache/sprachwissen/rechtschreibung/crashkurs/grossklein/regel_16.php

Gast
2009-04-29, 19:01:24
Wieso haben wir das nicht, braucht es da Anpassungen an der Hardware oder ist aufgrund von Kompatibilitätsproblemen der Pflegeaufwand zu groß?Transparenz-Supersampling zeigt eindeutig, dass die HW es (=SGSSAA) bereits kann. Könnte allerdings wesentlich langsamer werden als es sich so mancher vorstellt, was die Effizienz verglichen mit OGSSAA wieder stark relativiert...

Lawmachine79
2009-04-29, 19:29:11
Transparenz-Supersampling zeigt eindeutig, dass die HW es (=SGSSAA) bereits kann. Könnte allerdings wesentlich langsamer werden als es sich so mancher vorstellt, was die Effizienz verglichen mit OGSSAA wieder stark relativiert...
Naja, bei gleichem Ergebnis sollte es doch schneller sein als OGSSAA und bei gleichem Performancehit wie bei OGSSAA sollte das Ergebnis besser sein.


Das Antialiasing ist bei ATI-Karten sehr gut, insbesondere die Blurmodi mit Edge-Detection, die Polygoninnenflächen in Ruhe lassen und nicht blurren, bieten eine bessere Filterqualität als der übliche Boxfilter. Allerdings habe ich am AF einiges auszusetzen. Die Karten scheinen chronisch zu unterfiltern.


Gibt es eine Faustregel bzw. eine Möglichkeit, den Performancehit der Edge-Detection zu berechnen?

Und noch eine Grundsatzfrage; bei SSAA wird das Bild ja intern in der doppelten Auflösung GERENDERT. Wieso steigt dabei die Arithmetiklast? Sollte theoretisch nicht nur der Füllraten- und Bandbreitenbedarf steigen?

fdk
2009-04-29, 19:39:11
Du gibst dir die Antwort ja praktisch selbst: Doppelte Auflösung -doppelte shaderlast.

Gast
2009-04-29, 19:42:14
Naja, bei gleichem Ergebnis sollte es doch schneller sein als OGSSAA und bei gleichem Performancehit wie bei OGSSAA sollte das Ergebnis besser sein.Gleiches Ergebnis gibt es nicht, denn auch wenn 4xSG und 4x4 OG die gleiche EER von 4x4 haben, glättet 4x4 OG immer noch besser. Ich kann mich ja irren, aber war es nicht so, dass in Extremsituationen TSSAA mehr kostet als OGSSAA mit der gleichen Zahl an Samples, obwohl es immer noch nicht die ganze Szene erfasst?

Und noch eine Grundsatzfrage; bei SSAA wird das Bild ja intern in der doppelten Auflösung GERENDERT. Wieso steigt dabei die Arithmetiklast? Sollte theoretisch nicht nur der Füllraten- und Bandbreitenbedarf steigen?Weil alle Pixelshader für dementsprechend mehr Pixel abgearbeitet werden müssen. Deine Annahme stimmt näherungsweise für MSAA, nicht SSAA.

Lightning
2009-04-29, 19:44:06
Und noch eine Grundsatzfrage; bei SSAA wird das Bild ja intern in der doppelten Auflösung GERENDERT.

Bei OGSSAA wird einfach eine höhere Auflösung gerendert als die der Ausgabeauflösung, ja.

Wieso steigt dabei die Arithmetiklast? Sollte theoretisch nicht nur der Füllraten- und Bandbreitenbedarf steigen?

Wegen der Shader, soweit ich weiß. Verhält sich das nicht gar in einem linearen Verhältnis zur Auflösung?
Ich erinnere mich, dass ich in CMR DIRT fast kostenlos MSAA reinknallen konnte, weil ohnehin die Shaderleistung limitierte. Eine Erhöhung der Auflösung hatte hingegen direkt starke Auswirkungen auf die Performance.

Lawmachine79
2009-04-29, 19:52:10
Weil alle Pixelshader für dementsprechend mehr Pixel abgearbeitet werden müssen. Deine Annahme stimmt näherungsweise für MSAA, nicht SSAA.
MSAA steigert den Füllratenbedarf nicht.
Was ich nicht verstehe ist, warum der mathematische Rechenweg, der zu "dem Pixel" geführt hat, nochmal durchgeführt werden muss.

Lightning
2009-04-29, 19:56:28
Muss er ja nicht. Aber für die anderen Pixel, die die höhere Auflösung mit sich bringt.

Mr.Magic
2009-04-29, 19:57:13
Wegen der Shader, soweit ich weiß. Verhält sich das nicht gar in einem linearen Verhältnis zur Auflösung?

Bei vielen aktuellen Spielen sind Berechnungen enthalten, die "per Pixel" (Schatten z.B. afair) durchgeführt werden. Dadurch hat die Auflösung oft einen direkten Einfluss auf die Framerate.

Lawmachine79
2009-04-29, 19:59:14
Muss er ja nicht. Aber für die anderen Pixel, die die höhere Auflösung mit sich bringt.
Würde es nicht funktionieren, die Pixel, die durch die höhere Auflösung entstehen, aus dem Rest zu interpolieren und es dann runterzurechnen? Also quasi jeden durch höhere Auflösung neu entsteheden Pixel aus den vorher vorhandenen Nachbarpixeln interpolieren.

Lightning
2009-04-29, 20:08:28
Bei vielen aktuellen Spielen sind Berechnungen enthalten, die "per Pixel" (Schatten z.B. afair) durchgeführt werden. Dadurch hat die Auflösung oft einen direkten Einfluss auf die Framerate.

So dachte ich mir das, danke.

Würde es nicht funktionieren, die Pixel, die durch die höhere Auflösung entstehen, aus dem Rest zu interpolieren und es dann runterzurechnen? Also quasi jeden durch höhere Auflösung neu entsteheden Pixel aus den vorher vorhandenen Nachbarpixeln interpolieren.

Zu welchem Zweck? AA wäre es dann jedenfalls nicht mehr, du schlägst ja quasi vor, man solle Bildinformationen erraten. Das kann natürlich nicht besonders gut funktionieren.
Wo ich gerade so schön am Spekulieren in diesem Thread bin (an Fachwissen mangelt es mir leider sichtlich :D): Würde warmachines Vorschlag nicht einfach einem Blurfilter entsprechen?

Mr.Magic
2009-04-29, 20:13:58
Würde es nicht funktionieren, die Pixel, die durch die höhere Auflösung entstehen, aus dem Rest zu interpolieren und es dann runterzurechnen? Also quasi jeden durch höhere Auflösung neu entsteheden Pixel aus den vorher vorhandenen Nachbarpixeln interpolieren.

Es gibt keine vorher vorhandenen Pixel. Bei SSAA wird in der hohen Auflösung das Bild erstellt, und dann vor der Ausgabe runterskaliert.

Lawmachine79
2009-04-29, 20:23:43
Es gibt keine vorher vorhandenen Pixel. Bei SSAA wird in der hohen Auflösung das Bild erstellt, und dann vor der Ausgabe runterskaliert.
Doch, wenn man das Bild in 1680x1050 rendert, dann auf 3360x2100 "stretcht" und die "Hohlräume" dann mit der interpolierten Information aus den (vorher vorhandenen) Nachbarpixeln füllt.

fdk
2009-04-29, 20:37:14
Klar könnte man das machen, nur Sinn macht es nicht. NVidias Quincunx AA hat iirc sogar in der Art funktioniert, da haben sich auch Benachbarte pixel samples geteilt. Aber wenn du ein Bild in Auflösung x renderst und es dann auf x² skalierst nur um es wieder in ein Bild mit x runterzuskalieren hast du doch nichts gewonnen (eher Verluste) - oder versteh ich nur nicht was du willst? :)

Mr.Magic
2009-04-29, 20:38:00
Doch, wenn man das Bild in 1680x1050 rendert, dann auf 3360x2100 "stretcht" und die "Hohlräume" dann mit der interpolierten Information aus den (vorher vorhandenen) Nachbarpixeln füllt.

Das wäre höchstens ein Matschfilter. Mit SSAA hat das wenig zu tun.

Gast
2009-04-29, 20:43:16
Mit SSAA hat das wenig zu tun.

Das hat nicht nur wenig, sondern überhaupt nichts mit SSAA zu tun.

Gast
2009-04-30, 13:27:06
MSAA steigert den Füllratenbedarf nicht.Doch. Der Begriff Füllrate allein sagt erstmal nichts darüber aus, auf was diese Füllrate sich bezieht. Das kann z.B. Pixelfüllrate, Texelfüllrate oder Samplefüllrate sein. Letztere ist für MSAA relevant. Du solltest dir aths alte Artikelserie mal durchlesen.

y33H@
2009-04-30, 16:16:18
@ LovesuckZ

Soa, FSAA-Modi in CoD4 (http://www.pcgameshardware.de/aid,682832/Call-of-Duty-4-Modern-Warfare-Grafikkarten-Test-mit-maximaler-Bildqualitaet/Action-Spiel/Test/). Mit 16x und TMSAA und TSAA; extra für dich ;D

Mr. Lolman
2009-04-30, 16:26:10
@ LovesuckZ

Soa, FSAA-Modi in CoD4 (http://www.pcgameshardware.de/aid,682832/Call-of-Duty-4-Modern-Warfare-Grafikkarten-Test-mit-maximaler-Bildqualitaet/Action-Spiel/Test/). Mit 16x und TMSAA und TSAA; extra für dich ;D

Im GTX285-Diagramm steht bei Auflösung 1620x1050.

vinacis_vivids
2009-04-30, 16:28:21
@ LovesuckZ

Soa, FSAA-Modi in CoD4 (http://www.pcgameshardware.de/aid,682832/Call-of-Duty-4-Modern-Warfare-Grafikkarten-Test-mit-maximaler-Bildqualitaet/Action-Spiel/Test/). Mit 16x und TMSAA und TSAA; extra für dich ;D

Ich sehe irgendwie keinen qualitativen Unterschied zwischen TMSAA und TSSAA und 16xSAA als auch 4x4 SSAA sind sehr unscharf.

y33H@
2009-04-30, 16:30:20
Ich sehe irgendwie keinen qualitativen Unterschied zwischen TMSAA und TSSAASchau halt genau hin ... das sieht man ja wohl.

@ LovesuckZ

Ist bereits gefixt, dauert wohl n Moment bis es geupt ist.

Gast
2009-04-30, 16:33:04
Jup sieht man deutlich TRSSAA ist dem QAAA klar überlegen.

Mr. Lolman
2009-04-30, 16:33:05
Schau halt genau hin ... das sieht man ja wohl.


Ja minimal. 8xQAAA sieht auch nicht schlechter aus. Und die Hybridmodi sind wirklich ziemlich unscharf. :|

Gast
2009-04-30, 16:45:18
Ja minimal. 8xQAAA sieht auch nicht schlechter aus. Und die Hybridmodi sind wirklich ziemlich unscharf. :|

Aber verschlucken keine Details wie die Tent Modis, sieht man schön im Vordergrund. Ist schon ein Ding man kriegt bei Ati trotz Quality AAA die Palmen nicht geglättet, da kann man es auch gleich auf ausstelln.

y33H@
2009-04-30, 16:49:10
Und die Hybridmodi sind wirklich ziemlich unscharf.Das liegt am DoF, das kollidiert mit SSAA, wenn das per Treiber forct. Gibts auch n Thread zu - Spiele, bei denen SSAA-(Hybrid-)Modi (un)scharf sind (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=443275).

vinacis_vivids
2009-04-30, 16:56:20
Jup sieht man deutlich TRSSAA ist dem QAAA klar überlegen.

Nee man sieht, dass TSSAA total sinnlos ist weils nichts bringt bei dem Performanceverlust. Der optische Gewinn = 0

Raff
2009-04-30, 16:56:52
Kauf dir mal 'nen gescheiten Bildschirm, dann reden wir weiter. ;)

MfG,
Raff

vinacis_vivids
2009-04-30, 16:58:39
Kauf dir mal 'nen gescheiten Bildschirm, dann reden wir weiter. ;)

MfG,
Raff

Meinen Bildschirm find ich ganz in Ordnung :wink:

Aber viele laufen in dem Ego Shooter mit ner extra Lupe rum.

y33H@
2009-04-30, 17:03:50
Der optische Gewinn = 0Du sehen Spiel in Bewegung, erkennen Unterschied du wirst =)

Gast
2009-04-30, 22:58:23
8xQAAA sieht auch nicht schlechter aus.
Warum dann den langsameren 8xQ Modus so erfürchtig vor Alternativen verteidigen?

HarryHirsch
2009-04-30, 23:15:20
Aber verschlucken keine Details wie die Tent Modis, sieht man schön im Vordergrund. Ist schon ein Ding man kriegt bei Ati trotz Quality AAA die Palmen nicht geglättet, da kann man es auch gleich auf ausstelln.

aso?

Gast
2009-04-30, 23:38:26
Aber viele laufen in dem Ego Shooter mit ner extra Lupe rum.
Du meinst nicht zufällig die, die unbedingt auf 8xMSAA bestehen, weils auf der Geforce langsamer läuft?

Gast
2009-05-01, 00:56:17
Du hast doch einen roten Knick in der Optik Schätzchen...in jeder Hinsicht!
magst nen paar FPS abhaben für deine Gurken ATI?
http://www.abload.de/thumb/iw3sp2009-04-3023-57-1esbb.png (http://www.abload.de/image.php?img=iw3sp2009-04-3023-57-1esbb.png)

oh wie niedlich - starrt er nen tisch an und zeigt uns wie viel fps er hat .
wie wärs , wenn du nen screen machst auf dem noch weniger details zusehen gibt, lässt sich besser mit prollen.
nachm betrachten des screens , beweist du der welt , dass nvidia unschlagbar ist - realtalk .
außerdem sehen nvidiakarten eher wie ne gurke aus als ati , zumindest ist nvs farbe eher passend
schau dir lieber die neuen anandtech benchmarks an und wie eure " ach so toll filternde " karte , zerstümmelt wird :(
http://www.anandtech.com/video/showdoc.aspx?i=3555&p=14

y33H@
2009-05-01, 03:55:53
Toll ... der GTX 285 kann ich auch nen Vmod verpassen (siehe EVGA GTX 285 FTW) und die knallt dann auch HD 4890 OC weg - bei besserer BQ ;D

Gast
2009-05-01, 04:04:19
@y33H@

so siehts aus. Aber bei manchen entscheidet die Balkenlänge. Ich sag nur mein bro hat ne 4870 und ich ne 260. Ich sehe Unterschiede (BQ). Aber was mir noch mehr zu schaffen macht ist das ich heute um 10 Uhr aufstehen muss und mit Kumpels die wahre BQ anschauen muss, sprich durch die Botanik latschen;)


aber das ist----->offtopic

Gast
2009-05-01, 04:06:24
Das sind eben die typischen Noobs die nur auf Balkenlänge starren,anstatt auf Bildqualität Rücksicht zu nehmen, da könnt ich sofort den Raketenwerfer auspacken. :D

Gast
2009-05-01, 04:09:30
Nunja, soooo schlimm isses auch net. Aber das Geflimmer, bekomme ich halt Kopfschmerzen von. Ich hatte auch schon ATI`S aber sowas tu ich mir einfach nicht mehr an. Ich sehs bei Witcher, Sacred 2 etc ganz deutlich. Mein Bruder ist immun dagegen;)

Lawmachine79
2009-05-01, 04:25:05
oh wie niedlich - starrt er nen tisch an und zeigt uns wie viel fps er hat .
wie wärs , wenn du nen screen machst auf dem noch weniger details zusehen gibt, lässt sich besser mit prollen.
nachm betrachten des screens , beweist du der welt , dass nvidia unschlagbar ist - realtalk .
außerdem sehen nvidiakarten eher wie ne gurke aus als ati , zumindest ist nvs farbe eher passend
schau dir lieber die neuen anandtech benchmarks an und wie eure " ach so toll filternde " karte , zerstümmelt wird :(
http://www.anandtech.com/video/showdoc.aspx?i=3555&p=14
Ja, anscheinend wären ja ausreichend Leistungsreserven da, um den Nutzer selbst über die Qualität seiner Filterung und Kantenglättung entscheiden zu lassen und ihm auch eine qualitativ angemessene Kantenglättung verfügbar zu machen. Stattdessen hat man Spiele, die mit 200fps laufen; diese 200fps kann ich ohne SSAA nicht sinnvoll in BQ umsetzen.
ATI baut Superhardware zu einem Superpreis (ich geh mal davon aus, daß sowas wie die Kühlung der 4850 in Zukunft nicht mehr vorkommt), wie man es sich so durch die Software versauen kann, durch Dinge, deren Behebung einen Entwickler ein paar Mausklicks kosten, kann ich einfach nicht nachvollziehen. Wenn man dieses unsägliche Catalystproblem (hiermit meine ich nicht nur das A.I. und das SSAA-Problem, sondern auch das .Net-Problem) lösen würde, könnte man noch sehr viele NV-Käufer überzeugen. Wenn es nur um das Stück Hardware geht, was ich in der Hand habe, würde ich mir wahrscheinlich zur Zeit eine ATI kaufen. Aber Dinge, die seit Jahren angesprochen und moniert werden, werden einfach ignoriert. Und eine Kleinigkeit noch: offenbar baut ATI schnellere Karten zu einem besseren Preis; bei solchen Frameraten kann es nicht sein, daß an der Filterung auch nur das Geringste gespart wird. Die Filterung hat in solchen Segmenten (damit meine ich die Preisregion als auch die FPS-Region) auszusehen, als würde Gott persönlich im Chip sitzen und den ganzen Tag Texturen filtern.
Eigentlich bräuchte man nur eine 4890 die mit dem 185.xx und dem NHancer läuft und alle Probleme sind gelöst.

Gast
2009-05-01, 04:27:04
Was ich noch schlimmer finde ist das der 5xxx die TMU`s nicht nennenswert erhöht wird(Gerüchte) das kann ich nur sagen: Happy Flimmer. Passt zu den Aussagen der ATI-Mitarbeiter: AI is cool und bleibt so. Arm, einfach arm. Schade ATI, so nicht!

Der GT300 wird den ATI 5xxx Chip in Sachen BQ im Boden versenken, soweit meine Meinung

reunion
2009-05-01, 09:58:18
ATI baut Superhardware zu einem Superpreis (ich geh mal davon aus, daß sowas wie die Kühlung der 4850 in Zukunft nicht mehr vorkommt),

Da ist nichts vorgekommen. Man sollte nicht immer von einem Montagsmodell auf alle schließen.


wie man es sich so durch die Software versauen kann, durch Dinge, deren Behebung einen Entwickler ein paar Mausklicks kosten, kann ich einfach nicht nachvollziehen. Wenn man dieses unsägliche Catalystproblem (hiermit meine ich nicht nur das A.I. und das SSAA-Problem, sondern auch das .Net-Problem) lösen würde, könnte man noch sehr viele NV-Käufer überzeugen.

Du überschätzt die Wichtigkeit einer Hand voll Enthusiasten. .NET ist Bestandteil von Vista und wird von einer Vielzahl von Programmen verwendet. Dein immer wieder aufgeführter NHancer benötigt das im übrigen auch, und das sogar in Version 3.5, welche es nicht mehr mit Vista gibt. Lächerlich das hier noch immer zu kritisieren. Das SSAA-Problem wird sich von selber lösen IMO, da nV das mit GT300 streichen wird, wie man schon bei GT200 vorhatte. Es läuft eh kaum mehr bei neuen DX10-Spielen ohne unschärfeeffekt und wird auch nur mehr inoffiziell angeboten.


bei solchen Frameraten kann es nicht sein, daß an der Filterung auch nur das Geringste gespart wird. Die Filterung hat in solchen Segmenten (damit meine ich die Preisregion als auch die FPS-Region) auszusehen, als würde Gott persönlich im Chip sitzen und den ganzen Tag Texturen filtern.
Eigentlich bräuchte man nur eine 4890 die mit dem 185.xx und dem NHancer läuft und alle Probleme sind gelöst.

Ja, an der Filterung sollte man wirklich was ändern, da hast du recht. Allerdings gilt auch hier das was ich schon vorher erwähnt habe: Du überschätzt die Wichtigkeit einer Hand voll Enthusiasten.

Gast
2009-05-01, 10:37:30
Ja, an der Filterung sollte man wirklich was ändern, da hast du recht. Allerdings gilt auch hier das was ich schon vorher erwähnt habe: Du überschätzt die Wichtigkeit einer Hand voll Enthusiasten.

Und du unterschätzt Sie, denn das so manch ein Hersteller die Filterqualität fast ins perfekte gedreht hat, ist dir vieleicht entgangen (siehe G70-G80)... Da gibt es kein Pardon für AMD!

Gast
2009-05-01, 11:21:14
Was ich noch schlimmer finde ist das der 5xxx die TMU`s nicht nennenswert erhöht wird(Gerüchte) das kann ich nur sagen: Happy Flimmer. Passt zu den Aussagen der ATI-Mitarbeiter: AI is cool und bleibt so. Arm, einfach arm. Schade ATI, so nicht!
Ich finde das gut so.
Wenns wirklich so kommt, AMD die Qualität nochmal erheblich senkt, dann gibt es hoffentlich mal einen Aufschrei.
Mit Glück behebt AMD diesen BQ Mangel dann mit HD6/7.

Bis dahin muss ich wohl oder übel bei Nvidia bleiben.

Mr. Lolman
2009-05-01, 12:09:19
Und du unterschätzt Sie, denn das so manch ein Hersteller die Filterqualität fast ins perfekte gedreht hat, ist dir vieleicht entgangen (siehe G70-G80)... Da gibt es kein Pardon für AMD!

Achwas. Der G70 war seehr schwach. Selbst unter HQ gabs teilweise nur bilineare Filterung (!). Der G80 filtert weit besser - ist aber trotzdem selbst bei HQ nicht annähernd perfekt. Treiberdefault sind ohnehin beide IHV ziemlich vergleichbar.

Und jetzt warten wir die neuen GraKas mal ab. Dank der immer höheren Anforderungen an die Shaderleistung, bei relativ stagnierenden Tex-Ops gibts keinen Grund, beim Sampling noch mehr zu sparen. Und das würde sich Ati wirklich nicht trauen. Vll. sollten wir in unserem Review auch nen G70 mitreinnehmen, dass das Gejammere über ATis BQ endlich mal ein Ende hat. Denn im vgl. zum G70 ists ja wirklich Jammern auf hohem Niveau.

AnarchX
2009-05-01, 12:25:46
Interessanter wäre da wohl eher der Vergleich von aktuellen ATi-Karten mit dem R520, ebenfalls aus 2005.;)

Und selbst mit der Verschiebung zur Shaderleistung sind die Einsparungen am Filter relevant, da man hierdurch Transitoren für TMUs sparen kann, die wiederum in die ALUs und dazugehörige Features investiert werden können.

Gast
2009-05-01, 12:26:43
Es ist wirklich ein Armutszeugnis für AMD, daß sie noch nie so gut filtern konnten wie Nvidia. Selbst ein G70 filtert um Längen besser als daß was AMD in der aktuellen Generation anbietet.

Mr. Lolman
2009-05-01, 12:29:07
Und selbst mit der Verschiebung zur Shaderleistung sind die Einsparungen am Filter relevant, da man hierdurch Transitoren für TMUs sparen kann, die wiederum in die ALUs und dazugehörige Features investiert werden können.

Das ist imo noch fraglich. Denn so wies aussieht könnte auch ein RV770 ordentlich filtern.

Es ist wirklich ein Armutszeugnis für AMD, daß sie noch nie so gut filtern konnten wie Nvidia. Selbst ein G70 filtert um Längen besser als daß was AMD in der aktuellen Generation anbietet.

So ein Schmarrn! :usad:

Raff
2009-05-01, 12:31:08
Das ist imo noch fraglich. Denn so wies aussieht könnte auch ein RV770 ordentlich filtern.

Hoffentlich. Was lässt dich das vermuten?

MfG,
Raff

AnarchX
2009-05-01, 12:33:09
Das ist imo noch fraglich. Denn so wies aussieht könnte auch ein RV770 ordentlich filtern.
Selbst wenn er es kann, bleibt hier immer noch die Frage wie viel Leistung es gegenüber dem aktuellen Spar-Filter kosten würde. Vermutlich (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7244198#post7244198) wohl nicht wenig.

reunion
2009-05-01, 12:40:22
Selbst wenn er es kann, bleibt hier immer noch die Frage wie viel Leistung es gegenüber dem aktuellen Spar-Filter kosten würde. Vermutlich (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7244198#post7244198) wohl nicht wenig.

Interessant wäre wie viel "AI_low" ggü. "Quality" bei NV spart, alles andere ist typischer Sarkasmus. Denn das man schon alleine durch eine bri-Filter locker 30% und mehr Texelfüllrate sparen kann sollte bei bi-TMUs klar sein.

Mr. Lolman
2009-05-01, 12:42:05
Hoffentlich. Was lässt dich das vermuten?

MfG,
Raff

Interne BQ-Diskussionen mit Coda. Das Problem an der Sache ist, dass Filtereinsparung ja prinzipiell nicht schlecht sind. Je nach Amplitude der Texturen ist die maximale Sampleanzahl nicht notwendig (Stichwort: einfarbige Textur). Nur den Grenzwert darf man halt nicht zu tief ansetzen.

AnarchX
2009-05-01, 12:47:20
Interne BQ-Diskussionen mit Coda. Das Problem an der Sache ist, dass Filtereinsparung ja prinzipiell nicht schlecht sind. Je nach Amplitude der Texturen ist die maximale Sampleanzahl nicht notwendig (Stichwort: einfarbige Textur). Nur den Grenzwert darf man halt nicht zu tief ansetzen.
... und wichtig ist, dass man auf seinen bis zu 160TMUs eben die Wahl hat, ob man diese Optimierung nutzen möchte.

Sonyfreak
2009-05-01, 12:53:18
Interessant wäre wie viel "AI_low" ggü. "Quality" bei NV spart, alles andere ist typischer Sarkasmus. Denn das man schon alleine durch eine bri-Filter locker 30% und mehr Texelfüllrate sparen kann sollte bei bi-TMUs klar sein.Was wäre eigentlich, wenn Nvidia den HQ-Modus bei den größeren Karten zum Standard machen würde? Wie Frank1974 (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7244748&postcount=52) kürzlich gezeigt hat, kostet das den Karten nämlich kaum Leistung.

mfg.

Sonyfreak

Gast
2009-05-01, 13:12:21
Je nach Amplitude der Texturen ist die maximale Sampleanzahl nicht notwendig (Stichwort: einfarbige Textur).

Kann es sein, daß du keine Ahnung hast? Einfarbige Texturen brauchen grundsätzlich gar keinen Filter, weder bi noch tri noch AF!.

Lawmachine79
2009-05-01, 13:31:50
Du überschätzt die Wichtigkeit einer Hand voll Enthusiasten. .NET ist Bestandteil von Vista und wird von einer Vielzahl von Programmen verwendet. Dein immer wieder aufgeführter NHancer benötigt das im übrigen auch, und das sogar in Version 3.5, welche es nicht mehr mit Vista gibt. Lächerlich das hier noch immer zu kritisieren. Das SSAA-Problem wird sich von selber lösen IMO, da nV das mit GT300 streichen wird, wie man schon bei GT200 vorhatte. Es läuft eh kaum mehr bei neuen DX10-Spielen ohne unschärfeeffekt und wird auch nur mehr inoffiziell angeboten.

Richtig, auch der NHancer braucht .Net. Aber wegen des NHancers mußte ich noch nie Windows neu installieren!
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=450924
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=450600
Beim zweiten Link geht es bei Post 5 los. Ich habe bisher 3 ATIs verbaut, 2 mal durfte ich Windows neu aufsetzen.

Achso, kennst Du ja schon den Thread.
Du hättest eben .NET vorher installieren müssen wenn du XP nützt.

Bei der 4850 aus dem ersten Post durfte ich übrigens trotz richtiger Reihenfolge Windows neu aufsetzen, das ist eine Zumutung.

Da ist nichts vorgekommen. Man sollte nicht immer von einem Montagsmodell auf alle schließen.

Ach, Montagsmodell? Warum bietet z.B. Powercolor die 4850 im Referenzdesign nicht mehr an? Die gibt es neu nur noch mit Custumkühlung. Komisch. Da war ja nichts vorgekommen.

Du überschätzt die Wichtigkeit einer Hand voll Enthusiasten. Das SSAA-Problem wird sich von selber lösen IMO, da nV das mit GT300 streichen wird, wie man schon bei GT200 vorhatte. Es läuft eh kaum mehr bei neuen DX10-Spielen ohne unschärfeeffekt und wird auch nur mehr inoffiziell angeboten.

Ich denke nicht, daß sie das rausnehmen. Wozu auch? Es ist drin, bietet keine Nachteile und es zu entfernen wäre nur Arbeit. Es wird auch nichts unübersichtlicher, weil es eh erstmal durch Enthusiasten (die ich völlig überschätze, deshalb baut man auch soviele dicke Grafikkarten für die) zugänglich gemacht werden muss, der DAU sieht von den SSAA-Modi nichts und sie können ihn auch nicht "verwirren".

AnarchX
2009-05-01, 13:39:05
Was wäre eigentlich, wenn Nvidia den HQ-Modus bei den größeren Karten zum Standard machen würde?

Wohl nicht viel, vielleicht gibt es dazu noch ein paar böse Folien in Richtung AMD mit Aussagen wie "Delivering newest DirectX-technology, but not the basics of good 3d-graphics", "Dual HD4870X2 - like a luxury sports car with entry class interior", ... .:D
Zumal man ja festhalten muss, dass einige bedeutenden HW-Seiten die GeForce eh schon mit HQ testen.

Mr. Lolman
2009-05-01, 13:46:21
Kann es sein, daß du keine Ahnung hast? Einfarbige Texturen brauchen grundsätzlich gar keinen Filter, weder bi noch tri noch AF!.

Wow. Der Gast kennt sich aus. Danke für den geistreichen Hinweis. Offensichtlich hast du grobe Probleme mit der Syntax - oder du wolltest einfach nur flamen. Beides qualifiziert einen nicht unbedingt für eine produktive Diskussion! :mad:

(Gemeint war natürlich das wachsende Einsparpotential an Samples bei ner Konvergenz der Amplitude gegen 0, falls das wirklich nicht klar gewesen sein sollte)

Richtig, auch der NHancer braucht .Net. Aber wegen des NHancers mußte ich noch nie Windows neu installieren!
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=450924
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=450600
Beim zweiten Link geht es bei Post 5 los. Ich habe bisher 3 ATIs verbaut, 2 mal durfte ich Windows neu aufsetzen.

Ich hab nie Windows neu aufsetzen müssen, obwohl ich mehrfach hinundher switche. Ist vll. auch vom Chipsatz des MB abhängig.


Ich denke nicht, daß sie das rausnehmen. Wozu auch? Es ist drin, bietet keine Nachteile und es zu entfernen wäre nur Arbeit. Es wird auch nichts unübersichtlicher, weil es eh erstmal durch Enthusiasten (die ich völlig überschätze, deshalb baut man auch soviele dicke Grafikkarten für die) zugänglich gemacht werden muss, der DAU sieht von den SSAA-Modi nichts und sie können ihn auch nicht "verwirren".


Nö. Es kompatibel zu halten wäre Arbeit. So einen Regkey hingegen kann man schnell inaktivieren (leidgeplagte ATI-User können ein Liedchen davon singen). Außerdem wurde SSAA beim G80 zB anfangs auch garnicht angeboten. Eine kompatiblere Möglichkeit wär SGSSAA, oder einfach treiberseitiges Downscaling auf die Monitorauflösung - wo v.A. letzteres unzählige Kombinationsmöglichkeiten mit vorhandenen AA-Modi erlauben würde.


Zumal man ja festhalten muss, dass einige bedeutenden HW-Seiten die GeForce eh schon mit HQ testen.

...was aufgrund der Mehrarbeit der NV-Karten die Leistungsvergleiche zu deren Ungunsten verzerrt, und deswegen unfair ist.

reunion
2009-05-01, 13:48:31
Richtig, auch der NHancer braucht .Net. Aber wegen des NHancers mußte ich noch nie Windows neu installieren!
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=450924
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=450600
Beim zweiten Link geht es bei Post 5 los. Ich habe bisher 3 ATIs verbaut, 2 mal durfte ich Windows neu aufsetzen.

Achso, kennst Du ja schon den Thread.

Bei der 4850 aus dem ersten Post durfte ich übrigens trotz richtiger Reihenfolge Windows neu aufsetzen, das ist eine Zumutung.


Und du glaubst jeder ATI-User setzt nach jedem neuen Treiber Windows neu auf? Schonmal überlegt dass das Problem vielleicht wie so oft vor dem Bildschirm sitzt? Ich hatte in den vergangenen Jahren haufenweise ATi-Karten und musste noch nie mein Windows neu aufsetzen. Also manchmal. Du bist das typische Beispiel dafür die eigenen Unfähigkeit anderen als Vorwurf zu machen, sorry.


Ach, Montagsmodell? Warum bietet z.B. Powercolor die 4850 im Referenzdesign nicht mehr an? Die gibt es neu nur noch mit Custumkühlung. Komisch. Da war ja nichts vorgekommen.

Weil das immer und bei jeder Karte das gleiche Spiel ist. Die Hersteller ersetzen das teurer Referenzmodell durch eigenen Entwicklungen.


Ich denke nicht, daß sie das rausnehmen. Wozu auch? Es ist drin, bietet keine Nachteile und es zu entfernen wäre nur Arbeit. Es wird auch nichts unübersichtlicher, weil es eh erstmal durch Enthusiasten (die ich völlig überschätze, deshalb baut man auch soviele dicke Grafikkarten für die) zugänglich gemacht werden muss, der DAU sieht von den SSAA-Modi nichts und sie können ihn auch nicht "verwirren".


Es gibt einen Unterscheid zwischen Enthusiasten wie sie du verstehst, welche eine dicke Karte kaufen, aber keine Ahnung haben was AA/AF überhaupt ist und Enthusiasten die Ahnung von der Materie haben. Aber selbst solche Enthusiasten welche nur dicke Karten kaufen machen nichtmal 5% des Gesamtmarktes aus. Wie es mit SSAA weitergeht wird man sehen. Die Zahl der Spiele welche damit Probleme haben steigt jedenfalls zunehmends.

mapel110
2009-05-01, 13:58:44
Das SSAA-Problem wird sich von selber lösen IMO, da nV das mit GT300 streichen wird, wie man schon bei GT200 vorhatte. Es läuft eh kaum mehr bei neuen DX10-Spielen ohne unschärfeeffekt und wird auch nur mehr inoffiziell angeboten.

SSAA hat man schon immer inoffiziell angeboten. Beim G80 war es Anfangs nicht möglich, SSAA zu nutzen. Aber das lag eher an neuen Registry-Werten, als am Entfernen von SSAA aus dem Treiber. Beim GT200 gabs diese Gerüchte nicht.
Bei den Quadro-Karten ist man auf SSAA angewiesen und bewirbt es auch.
http://www.nvidia.de/object/product_quadro_fx_5800_de.html
Also wärs unlogisch, sowas aus dem Treiber zu entfernen.

AnarchX
2009-05-01, 13:59:47
Wie es mit SSAA weitergeht wird man sehen. Die Zahl der Spiele welche damit Probleme haben steigt allerdings zunehmends.
Wobei hier sich beide IHVs vielleicht Gedanken machen sollten, denn mittlerweile gibt es ja so einige Konsolenports die ohne MSAA-Support kommen und jetzt schon auf aktuellen Karten im 3-stelligen FPS Bereich laufen, sodass man hier ein vernünftiges treiberseitiges Downsampling anbietet, wie es z.B es hier gerade besprochen wird:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=454129

Mr. Lolman
2009-05-01, 14:01:33
SSAA hat man schon immer inoffiziell angeboten. Beim G80 war es Anfangs nicht möglich, SSAA zu nutzen. Aber das lag eher an neuen Registry-Werten, als am Entfernen von SSAA aus dem Treiber.

iirc lags wirklich am Treiber.

Wobei hier sich beide IHVs vielleicht Gedanken machen sollten, denn mittlerweile gibt es ja so einige Konsolenports die ohne MSAA-Support kommen und jetzt schon auf aktuellen Karten im 3-stelligen FPS Bereich laufen, sodass man hier ein vernünftiges treiberseitiges Downsampling anbietet, wie es z.B es hier gerade besprochen wird:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=454129

word! :up:

reunion
2009-05-01, 14:02:42
Wobei hier sich beide IHVs vielleicht Gedanken machen sollten, denn mittlerweile gibt es ja so einige Konsolenports die ohne MSAA-Support kommen und jetzt schon auf aktuellen Karten im 3-stelligen FPS Bereich laufen, sodass man hier ein vernünftiges treiberseitiges Downsampling anbietet, wie es z.B es hier gerade besprochen wird:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=454129

DX10 erlaubt kein forcen von AA mehr ganz einfach. Wenn die Programmierer nicht fähig sind hier eine vernünftige Lösung anzubieten hat man Pech gehabt.

Coda
2009-05-01, 14:03:31
Der G80 filtert weit besser - ist aber trotzdem selbst bei HQ nicht annähernd perfekt.
Red doch keinen Stuss. HQ filtert nach der Spezifikation absolut perfekt. AF kann nicht besser aussehen.

Mr. Lolman
2009-05-01, 14:03:42
DX10 erlaubt kein forcen von AA mehr ganz einfach. Wenn die Programmierer nicht fähig sind hier eine vernünftige Lösung anzubieten hat man Pech gehabt.

Treiberseitiges Downscaling ist das neue Zauberwort. :biggrin:

Red doch keinen Stuss. HQ filtert nach der Spezifikation absolut perfekt. AF kann nicht besser aussehen.

Nach welcher Spezifikation? ;)

EDIT: Ich werd mal wohl wirklich Vista installieren müssen und dann ein paar gewisse Texturen näher untersuchen...

Coda
2009-05-01, 14:06:00
Nach der von OpenGL und Direct3D.

Halt dich bitte raus wenn du keine Ahnung hast. Es nervt. NVIDIA filtert entlang der Line-Of-Anisotropy völlig ohne Unterabtastung.

Für bessere Bildqualität braucht man andere Filterverfahren.

EDIT: Ich werd mal wohl wirklich Vista installieren müssen und dann ein paar gewisse Texturen näher untersuchen...
Kannst du dir sparen. Es gibt keine Unterschiede (abgesehen von negativem LOD, aber hör mir jetzt bitte auf damit)

reunion
2009-05-01, 14:10:19
SSAA hat man schon immer inoffiziell angeboten. Beim G80 war es Anfangs nicht möglich, SSAA zu nutzen. Aber das lag eher an neuen Registry-Werten, als am Entfernen von SSAA aus dem Treiber. Beim GT200 gabs diese Gerüchte nicht.

Der Grund für die Einführung von SSAA war die mangelnde MSAA-Fähigkeit der früheren Geforce-Karten ggü. der Konkurrenz. Mit G80 war das Geschichte und nV wollte SSAA damit auch begraben. Bei B3D gab es lange Diskussionen mit einem NV-Engineer, und der Unnötigkeit SSAA bei G80 noch anzubieten. Der Mann musste dort ganz schön überzeugt werden um es doch noch inoffiziell anzubieten. Ne, ohne Druck von außen hätte NV SSAA schon lange gestrichen und es ist IMO nur noch eine Frage der Zeit bis man das auch endgültig tun wird. Ressourcen wird man da jedenfalls sicher nicht mehr hineinstecken und die Probleme mit neuen Spielen häufen sich.

Mr. Lolman
2009-05-01, 14:11:33
Nach der von OpenGL und Direct3D.

Aha!



Halt dich bitte raus wenn du keine Ahnung hast. Es nervt. NVIDIA filtert entlang der Line-Of-Anisotropy völlig ohne Unterfilterung.

Deine Art zu diskutieren nervt. Schreib dir deinen Artikel selbst. Meine Einleitung kannst verwenden, oder wisch dir damit den Arsch ab. Mach damit was du willst. Mir reichts. Dankeschön.


Für bessere Bildqualität braucht man andere Filterverfahren.

Und die dürfte man dann nicht mehr als Anisotrop bezeichnen, oder wie jetzt!!!????

Coda
2009-05-01, 14:13:13
Je nach Amplitude der Texturen ist die maximale Sampleanzahl nicht notwendig (Stichwort: einfarbige Textur). Nur den Grenzwert darf man halt nicht zu tief ansetzen.
Frequenz. Die Amplitude ist dafür völlig nebensächlich.

Coda
2009-05-01, 14:15:50
Deine Art zu diskutieren nervt. Schreib dir deinen Artikel selbst. Meine Einleitung kannst verwenden, oder wisch dir damit den Arsch ab. Mach damit was du willst. Mir reichts. Dankeschön.
MICH nervt es, dass hier ständig falsche Dinge behauptet werden, die ich schon längst widerlegt und erklärt habe.

Man könnte ja mal versuchen wirklich zu verstehen über was man redet, ich stehe auch gerne Antwort und Rede, aber so nicht.

Weißt du überhaupt wieviel Arbeit ich darin überhaupt investiert habe? Es ist ja nicht so, dass ich hier haltlose Aussagen tätige.

Dann kommen wieder so Sachen von dir wie "Negatives LOD ist ja gar nich so schlecht". Sorry, aber da kommt's mir einfach hoch.

Und die dürfte man dann nicht mehr als Anisotrop bezeichnen, oder wie jetzt!!!????
Es geht darum, das zu tun was einem die API sagt. Und ATI ist weit davon weg das zu tun. Wenn wir das geschafft haben kann man über andere Sachen diskutieren, aber das braucht noch mehr Samples.

Und ja, das würde man dann anders bezeichnen, weil es nicht mehr bloß anisotrop wäre.

Mr. Lolman
2009-05-01, 14:19:07
Frequenz. Die Amplitude ist dafür völlig nebensächlich.

Eine schwarze Textur mit einem weissen Pixel hat eine geringe Frequenz aber eine hohe Amplitude, oder?


Es geht darum, das zu tun was einem die API sagt.

Die Api sagt - filtere mit voller Sampleanzahl. Je nach Texturinhalt ist das nicht notwendig - ohne gleich unterfiltern zu müssen. ATI müsste mit AI einfach den Grenzwert höher setzen.

Coda
2009-05-01, 14:21:05
Eine schwarze Textur mit einem weissen Pixel hat eine geringe Frequenz aber eine hohe Amplitude, oder?
Sie hat sogar die maximal mögliche Frequenz. 2x2 weiße Pixel auf einer schwarzen Textur wäre die halbe Frequenz.

Mr. Lolman
2009-05-01, 14:23:57
Sie hat sogar die maximal mögliche Frequenz. 2x2 weiße Pixel auf einer schwarzen Textur wäre die halbe Frequenz.

Oh. Dann hab ich tatsächlich den falschen Terminus benutzt. Sry. :cool:

aths
2009-05-01, 15:59:26
Frequenz. Die Amplitude ist dafür völlig nebensächlich.Wenn man einen bestimmten Rauschabstand erlaubt, der sich unter anderem schon durch den Quantisierungfehler der Ausgabe mit 8 Bit Kanal ergibt, spielt die Amplitude insofern eine Rolle als dass große Amplituden auf jeden Fall voll gefiltert werden müssen während man bei sehr kleinen Amplituden das Aliasing kaum sieht, möglicherweise geht es sogar im Quantisierungsrauschen unter.

Allerdings glaube ich nicht, dass die Radeon Texturen daraufhin analysieren zumal das Sparpotenzial gering ist. Vermutlich nutzen die einen festen Unterfilterungsfaktor. Selbst wenn der von der MIP-Stufe abhängig ist, widerspricht das den Regeln einer vernünftigen Filterung im Zeitalter des Pixelshaders.

Dann kommen wieder so Sachen von dir wie "Negatives LOD ist ja gar nich so schlecht". Sorry, aber da kommt's mir einfach hoch.Einfach weghören =) Dass ein negatives LOD-Bias, also das bewusste Auslassen vorhandener Sampledaten, Quatsch sein muss, ist klar.

Mr. Lolman
2009-05-01, 16:12:26
Nur nochmal, damit ichs auch wirklich kapier: Eine schwarze Textur mit einem einzigem weißen Pixel hat tatsächlich eine höhere, oder zumindest gleichhohe, Frequenz als eine Textur mit pixelgroßem s/w-Schachbrett? Ich dachte, die Amplitude sei gleich hoch, die Frequenz bei letzterer aber deutlich höher. :confused:

Einfach weghören =) Dass ein negatives LOD-Bias, also das bewusste Auslassen vorhandener Sampledaten, Quatsch sein muss, ist klar.

Logisch betrachtet habt ihr beide natürlich recht. Trotzdem entspricht bei LOD 0 der Informationsgehalt im Bild häufig nicht dem (subjektivem?) Optimum. Und das liegt sicher nicht am brilinearen Filtering, oder an sonstigen Samplingsparmaßnahmen, sonst würde das 'perfekte' NV-HQ schon auf Standbildern deutlich besser aussehen, als das was ATis zu produzieren, in der Lage sind.


http://www.abload.de/thumb/scrshot_130409_163501bae4.png (http://www.abload.de/image.php?img=scrshot_130409_163501bae4.png) http://www.abload.de/thumb/scrshot_130409_1635171m0u.png (http://www.abload.de/image.php?img=scrshot_130409_1635171m0u.png)
http://www.abload.de/thumb/untitled-4d584.jpg (http://www.abload.de/image.php?img=untitled-4d584.jpg) http://www.abload.de/thumb/untitled-4a99k7.jpg (http://www.abload.de/image.php?img=untitled-4a99k7.jpg)


Allerdings glaube ich nicht, dass die Radeon Texturen daraufhin analysieren zumal das Sparpotenzial gering ist. Vermutlich nutzen die einen festen Unterfilterungsfaktor. Selbst wenn der von der MIP-Stufe abhängig ist, widerspricht das den Regeln einer vernünftigen Filterung im Zeitalter des Pixelshaders.

Zumindest beim R580 konnte ich anhand der NFS-Carbon-Demo feststellen, dass mit AI-High die extrem flimmrige Bodentextur besser gefiltert wurde, als mit AI-Low. Interessanterweise wurde gleichzeitig manche Texturen mit geringerer Flimmerneigung schlechter gefiltert. Seit dem R600 sind ja die Unterschiede zw. off, low und high geringer geworden, aber schätz mal, dass das da noch ähnlich ist. Die Carbondemo sollt ich ohnehin wiedermal installieren, da sie u.A. ein super Beispiel ist, um die Grenzen der Texturfilterung sichtbar zu machen.

Blaire
2009-05-01, 16:47:49
Ressourcen wird man da jedenfalls sicher nicht mehr hineinstecken und die Probleme mit neuen Spielen häufen sich.

Probleme gibt es auch mit den offiziellen AA Modis von Ati die zum Teil nichteinmal unter DX10 funktionieren...

Buzzler
2009-05-01, 16:57:05
Nur nochmal, damit ichs auch wirklich kapier: Eine schwarze Textur mit einem einzigem weißen Pixel hat tatsächlich eine höhere, oder zumindest gleichhohe, Frequenz als eine s/w-Schachbretttextur? Ich dachte, die Amplitude sei gleich hoch, die Frequenz bei letzterer aber deutlich höher. :confused:
Beides ist nicht bandbegrenzt und die Amplitude der Grundwelle ist gleich. Beim Impuls (=weißer Punkt auf schwarzer Textur) haben aber alle Oberwellen die gleiche Amplitude wie die Grundwelle, während beim Rechteck (=S/W-Schachbrett) die Amplituden der Oberwellen mit steigender Frequenz stark abnehmen (mag gerade nicht nachschauen IIRC mit 1/n wobei n=Grad der Harmonischen).

Mr. Lolman
2009-05-01, 17:51:18
Sry, aber ich check nicht ganz, was das mit meiner Frage zu tun haben soll. Ich dachte wir reden von der 'räumlichen Frequenz' also sprich der Wellenzahl.

Buzzler
2009-05-01, 18:36:54
Sry, aber ich check nicht ganz, was das mit meiner Frage zu tun haben soll. Ich dachte wir reden von der 'räumlichen Frequenz' also sprich der Wellenzahl.
Ich versteh nicht so ganz, was Du meinst. Ob man das im Zeitbereich oder im Raum betrachtet und ob die Frequenz in Hz oder in Linienpaare pro Irgendwas vorliegt, ist doch dafür völlig egal?!

Und Wellenzahl kenn ich als Verhältnis aus Zahl der Wellenlängen und Längenabschnitt und das ist ja praktisch das Gleiche wie die Frequenz, nur dass beim Verhältnis von Frequenz und Wellenlänge noch die Ausbreitungsgeschwindigkeit drinsteckt.

Mr. Lolman
2009-05-01, 18:41:12
Ich versteh nicht so ganz, was Du meinst. Ob man das im Zeitbereich oder im Raum betrachtet und ob die Frequenz in Hz oder in Linienpaare pro Irgendwas vorliegt, ist doch dafür völlig egal?!

Anundfürsich schon. Ich kapier nur nicht ganz was die Oberwellen damit zu tun haben sollen...

EDIT: Und inwiefern man von einer steigenden Frequenz bei nem fixen sw-Gitter sprechen kann? Oder beziehst du dich damit auf eine bereits im Screenspace abgebildete, verzerrte Textur?

Lawmachine79
2009-05-01, 18:57:25
Und du glaubst jeder ATI-User setzt nach jedem neuen Treiber Windows neu auf? Schonmal überlegt dass das Problem vielleicht wie so oft vor dem Bildschirm sitzt? Ich hatte in den vergangenen Jahren haufenweise ATi-Karten und musste noch nie mein Windows neu aufsetzen. Also manchmal. Du bist das typische Beispiel dafür die eigenen Unfähigkeit anderen als Vorwurf zu machen, sorry.
Also, in einem Falle habe ich alles nach Lehrbuch gemacht und ich durfte TROTZDEM neu installieren. Und selbst wenn ich einmal irrtümlich den Catalyst VOR .Net installiert habe, ist das keine "Unfähigkeit". Kann man ja vorher nicht wissen und es wird auch nicht darauf hingewiesen, als ehemaliger NV-User kennt man solche Unwegbarkeiten ja nicht. Und selbst wenn ich es dann falsch mache, und Catalyst VOR .Net installiere, kann es nicht sein, daß mir dann der Weg für die Treiberinstallation VERBAUT ist. Das ist einfach schlampige Arbeit. Wenn sogar ich, der vielleicht nicht Codas Sachverstand hat, aber auch schon weit über 50 PCs zusammengebaut und aufgesetzt hat, sich stundenlang durch Foren wühlen muss und Betriebssysteme neu installiert, damit es läuft wie es soll, sitzt der Fehler DEFINITIV nicht mehr vor dem Bildschirm. Und man kann auch nicht abstreiten, daß der Catalyst unter den Nutzern generell einen beschissenen Ruf hat und das völlig zu Recht.



Weil das immer und bei jeder Karte das gleiche Spiel ist. Die Hersteller ersetzen das teurer Referenzmodell durch eigenen Entwicklungen.

Ja, daran wirds liegen, daß das Referenzmodell ÜBERHAUPT nicht mehr verfügbar ist.

Gast
2009-05-01, 19:12:04
Wow. Der Gast kennt sich aus. Danke für den geistreichen Hinweis. Offensichtlich hast du grobe Probleme mit der Syntax - oder du wolltest einfach nur flamen. Beides qualifiziert einen nicht unbedingt für eine produktive Diskussion! :mad:

(Gemeint war natürlich das wachsende Einsparpotential an Samples bei ner Konvergenz der Amplitude gegen 0, falls das wirklich nicht klar gewesen sein sollte)



Es lässt sich überhaupt nichts sinnvoll einsparen beim AF, vielleicht solltest DU das endlich mal begreifen.

Buzzler
2009-05-01, 19:12:38
Sorry, ich denke analog. ;)

Anundfürsich schon. Ich kapier nur nicht ganz was die Oberwellen damit zu tun haben sollen...
Wellen sind doch immer periodisch und ein Impuls ist das nicht. Um also aus Wellen einen Impuls zu "basteln" braucht man jede Menge Wellen unterschiedlichster Frequenz, die sich so überlagern, dass am Ende nur noch der Impuls stehen bleibt.

Mir ist jetzt allerdings nicht klar, ob ein s/w-Muster bei dem immer abwechselnd ein Pixel schwarz und eins weiß ist, in dem Zusammenhang kackfrech als einzelne harmonische Schwingung, also durch eine einzelne Frequenz charakterisierbar, betrachtet wird oder als Signal mit einem Spektrum. Edit: Spätestens wenn das Muster gröber wird, hat man aber IMHO Oberwellen.

EDIT: Und inwiefern man von einer steigenden Frequenz bei nem fixen sw-Gitter sprechen kann? Oder beziehst du dich damit auf eine bereits im Screenspace abgebildete, verzerrte Textur?
Soweit in die Praxis würde ich mich gar nicht begeben, davon hab ich in diesen Zusammenhängen nämlich keine Ahnung. ;) Ich meinte die Frequenz der Oberwellen.

Edit und alles auf Anfang: Ok, ich bin jetzt auch soweit, dass die höchste Frequenz in beiden Fällen eigentlich die Gleiche sein müsste. ;D

Das s/w-Muster hat eine Frequenz von 1 Linienpaar pro 2 Pixel. Der ein-weißes-Pixel-auf-schwarzem-Grund-Impuls müsste eine höchste Frequenz von ebenfalls einem Linienpaar pro 2 Pixel haben und dazu "Subharmonische" mit 1/n*Grundfrequenz und n -> unendlich.

Oder doch nicht? So langsam dreht sich alles. ;)

Mr. Lolman
2009-05-01, 19:16:10
Es lässt sich überhaupt nichts sinnvoll einsparen beim AF, vielleicht solltest DU das endlich mal begreifen.

Wenn du mir erklärst warum, dann werd ichs versuchen.

reunion
2009-05-01, 19:43:23
Also, in einem Falle habe ich alles nach Lehrbuch gemacht und ich durfte TROTZDEM neu installieren. Und selbst wenn ich einmal irrtümlich den Catalyst VOR .Net installiert habe, ist das keine "Unfähigkeit". Kann man ja vorher nicht wissen und es wird auch nicht darauf hingewiesen, als ehemaliger NV-User kennt man solche Unwegbarkeiten ja nicht. Und selbst wenn ich es dann falsch mache, und Catalyst VOR .Net installiere, kann es nicht sein, daß mir dann der Weg für die Treiberinstallation VERBAUT ist. Das ist einfach schlampige Arbeit. Wenn sogar ich, der vielleicht nicht Codas Sachverstand hat, aber auch schon weit über 50 PCs zusammengebaut und aufgesetzt hat, sich stundenlang durch Foren wühlen muss und Betriebssysteme neu installiert, damit es läuft wie es soll, sitzt der Fehler DEFINITIV nicht mehr vor dem Bildschirm. Und man kann auch nicht abstreiten, daß der Catalyst unter den Nutzern generell einen beschissenen Ruf hat und das völlig zu Recht.

Normalerweise kann man gar nicht aus, da sich .NET eh automatisch installiert wenn es nicht oben ist. Eben ein Notebook mit HD3470 neu mit XP aufgesetzt um deine Ausführungen zu testen. dotNET 2.0 hat sich vor dem CCC selbstständig installiert. Was du da verbrochen hast weiß ich bei besten willen nicht. Da muss man es schon mutwillig wegklicken um das zu verhindern.



Ja, daran wirds liegen, daß das Referenzmodell ÜBERHAUPT nicht mehr verfügbar ist.

Richtig, auch wenn du das nicht einsehen willst.

albix64
2009-05-01, 21:58:28
Normalerweise kann man gar nicht aus, da sich .NET eh automatisch installiert wenn es nicht oben ist. Eben ein Notebook mit HD3470 neu mit XP aufgesetzt um deine Ausführungen zu testen. dotNET 2.0 hat sich vor dem CCC selbstständig installiert. Was du da verbrochen hast weiß ich bei besten willen nicht. Da muss man es schon mutwillig wegklicken um das zu verhindern.
Zeige mir mal bitte, wo hier .NET 2.0 dabei sein soll? http://game.amd.com/us-en/drivers_catalyst.aspx?driver=VideoCard/xp32-suite

.NET 2.0 muss man manuell aus dem Netz laden, es ist nicht im Catalyst enthalten.

Übrigens wenn man .NET 2.0 installiert, ist man von MS gezwungen, ein 300 MB großes Update über Windows Update zu installieren.

Gast
2009-05-02, 02:53:36
Logisch betrachtet habt ihr beide natürlich recht. Trotzdem entspricht bei LOD 0 der Informationsgehalt im Bild häufig nicht dem (subjektivem?) Optimum. Und das liegt sicher nicht am brilinearen Filtering, oder an sonstigen Samplingsparmaßnahmen, sonst würde das 'perfekte' NV-HQ schon auf Standbildern deutlich besser aussehen, als das was ATis zu produzieren, in der Lage sind.


http://www.abload.de/thumb/scrshot_130409_163501bae4.png (http://www.abload.de/image.php?img=scrshot_130409_163501bae4.png) http://www.abload.de/thumb/scrshot_130409_1635171m0u.png (http://www.abload.de/image.php?img=scrshot_130409_1635171m0u.png)
http://www.abload.de/thumb/untitled-4d584.jpg (http://www.abload.de/image.php?img=untitled-4d584.jpg) http://www.abload.de/thumb/untitled-4a99k7.jpg (http://www.abload.de/image.php?img=untitled-4a99k7.jpg)



die bilder links sehen besser aus.
Assasins Creed sieht um einiges detailreicher aus im 1.link von links.
auf dem 2.bild , werden die wände bissl matschiger dargestellt meiner meinung nach.
aber kann auch sein , dass es dafür flimmeranfälliger ist , mit den settings auf dem 1.bild zu spielen ?

Tesseract
2009-05-02, 03:10:34
die bilder links sehen besser aus.
Assasins Creed sieht um einiges detailreicher aus im 1.link von links.
auf dem 2.bild , werden die wände bissl matschiger dargestellt meiner meinung nach.
aber kann auch sein , dass es dafür flimmeranfälliger ist , mit den settings auf dem 1.bild zu spielen ?

"detailreicher" muss aber weder schöner noch realistischer heißen. ich finde die rechten bilder wesentlich homogener. was sind das jeweils für einstellungen?

Gast
2009-05-02, 09:35:58
aber kann auch sein , dass es dafür flimmeranfälliger ist , mit den settings auf dem 1.bild zu spielen ?
Ja es flimmert mehr.
Müsste am negativen LOD liegen, Lolman ist davon richtig begeistert. ;)

aths
2009-05-02, 13:39:31
Nur nochmal, damit ichs auch wirklich kapier: Eine schwarze Textur mit einem einzigem weißen Pixel hat tatsächlich eine höhere, oder zumindest gleichhohe, Frequenz als eine Textur mit pixelgroßem s/w-Schachbrett? Ich dachte, die Amplitude sei gleich hoch, die Frequenz bei letzterer aber deutlich höher. :confused:Die vorkommende Maximalfrequenz ist bei beiden Texturen maximal. Unterabtastung kann dafür sorgen, dass das Texel übersehen wird. Hätte man einen saften Farbverlauf in der Textur, würde Unterabtastung lediglich für eine schlechtere (ungenauere) Reproduktion sorgen.

Logisch betrachtet habt ihr beide natürlich recht. Trotzdem entspricht bei LOD 0 der Informationsgehalt im Bild häufig nicht dem (subjektivem?) Optimum. Und das liegt sicher nicht am brilinearen Filtering, oder an sonstigen Samplingsparmaßnahmen, sonst würde das 'perfekte' NV-HQ schon auf Standbildern deutlich besser aussehen, als das was ATis zu produzieren, in der Lage sind.


http://www.abload.de/thumb/scrshot_130409_163501bae4.png (http://www.abload.de/image.php?img=scrshot_130409_163501bae4.png) http://www.abload.de/thumb/scrshot_130409_1635171m0u.png (http://www.abload.de/image.php?img=scrshot_130409_1635171m0u.png)
http://www.abload.de/thumb/untitled-4d584.jpg (http://www.abload.de/image.php?img=untitled-4d584.jpg) http://www.abload.de/thumb/untitled-4a99k7.jpg (http://www.abload.de/image.php?img=untitled-4a99k7.jpg)

Zumindest beim R580 konnte ich anhand der NFS-Carbon-Demo feststellen, dass mit AI-High die extrem flimmrige Bodentextur besser gefiltert wurde, als mit AI-Low. Interessanterweise wurde gleichzeitig manche Texturen mit geringerer Flimmerneigung schlechter gefiltert. Seit dem R600 sind ja die Unterschiede zw. off, low und high geringer geworden, aber schätz mal, dass das da noch ähnlich ist. Die Carbondemo sollt ich ohnehin wiedermal installieren, da sie u.A. ein super Beispiel ist, um die Grenzen der Texturfilterung sichtbar zu machen.Bei Prince of Persia (Assessins's Creed) ist es nicht ganz so deutlich wie bei dem Autorennen (Live for Speed?) Du findest vermutlich das jeweils erste Bild besser, da man mehr Details hat. Das ist aber der "chön-charf"-Effekt, der in Bewegung leider Flimmern erzeugt. Die Details die man hat, überstrapazieren die Pixeldichte. Guck dir einen x-beliebigen Film von DVD an: Hat man da pixelgenaue Schärfe?

Das ist die Crux bei pixelfeinen Details: Man kann mehr Schärfe (also hohe Frequenzen mit großen Amplituden) reinbringen, aber nur dann wenn die Phasenlage stimmt (das Pixelraster zufällig so liegt, dass die Details optimal wiedergegeben werden.) Wie soll man das bei einem Versatz von 0,5 Pixeln anzeigen? Das führt zu Flimmern. Sinnvoller ist es, auf pixelfeine Details zu verzichten. Die noch übrig gebliebenen Details verändern dafür ihr Aussehen nur unmerklich, wenn sie nicht ins Pixelraster passen.

Mr. Lolman
2009-05-02, 16:47:11
Die vorkommende Maximalfrequenz ist bei beiden Texturen maximal. Unterabtastung kann dafür sorgen, dass das Texel übersehen wird. Hätte man einen saften Farbverlauf in der Textur, würde Unterabtastung lediglich für eine schlechtere (ungenauere) Reproduktion sorgen.

Bei Prince of Persia (Assessins's Creed) ist es nicht ganz so deutlich wie bei dem Autorennen (Live for Speed?) Du findest vermutlich das jeweils erste Bild besser, da man mehr Details hat. Das ist aber der "chön-charf"-Effekt, der in Bewegung leider Flimmern erzeugt. Die Details die man hat, überstrapazieren die Pixeldichte. Guck dir einen x-beliebigen Film von DVD an: Hat man da pixelgenaue Schärfe?

Nö. Deswegen schärf ich auch da gern nach. Auch beim normalen PAL TV-Bild kann man vgl zum normalen Scaling mit Lanczos und Warpsharp ernorme Verbesserungen erzielen. (darüber leg ich dann gern noch ein minimales Rauschen, damit die, durch die zT sehr geringen Bitraten bedingten, miesen Kompressionsartefakte, nicht so sichtbar sind)


http://www.abload.de/thumb/eurosport_5001-330_v_64aem.jpg (http://www.abload.de/image.php?img=eurosport_5001-330_v_64aem.jpg) http://www.abload.de/thumb/eurosport_5001-330_v_6oa5q.jpg (http://www.abload.de/image.php?img=eurosport_5001-330_v_6oa5q.jpg) http://www.abload.de/thumb/vlcsnap-a309377wa5d.jpg (http://www.abload.de/image.php?img=vlcsnap-a309377wa5d.jpg) http://www.abload.de/thumb/vlcsnap-309377vbv0.jpg (http://www.abload.de/image.php?img=vlcsnap-309377vbv0.jpg) http://www.abload.de/thumb/vlcsnap-333742af52u.jpg (http://www.abload.de/image.php?img=vlcsnap-333742af52u.jpg) http://www.abload.de/thumb/vlcsnap-333742c866.jpg (http://www.abload.de/image.php?img=vlcsnap-333742c866.jpg)
PAL-Bild mit Lanczos und Warpsharp geschärft und von 1280x1024 wieder auf 720x576 runterskaliert. HD-Bilder mittels VLC-Player geschärft.



Das ist die Crux bei pixelfeinen Details: Man kann mehr Schärfe (also hohe Frequenzen mit großen Amplituden) reinbringen, aber nur dann wenn die Phasenlage stimmt (das Pixelraster zufällig so liegt, dass die Details optimal wiedergegeben werden.) Wie soll man das bei einem Versatz von 0,5 Pixeln anzeigen? Das führt zu Flimmern. Sinnvoller ist es, auf pixelfeine Details zu verzichten. Die noch übrig gebliebenen Details verändern dafür ihr Aussehen nur unmerklich, wenn sie nicht ins Pixelraster passen.

Es war sogar LOD-1 (und jeweils 4xAA/16xAF). Wie man nichtganzzahliges LOD beim ATitreiber einstellen kann, hab ich noch nicht herausgefunden. Und ja, mir gefällt jeweils das 1. Bild besser. (Das Autorennspiel heisst übrigens Ferrari Virtual Race und ist ein 80MB großer gratis Download)

Der Asphalt schaut trotz LOD-1 eigentlich weniger bröslig aus, als man erwarten würde. Und in Bewegung flimmert zwar die Vegetation ein bisschen, der Detailgewinn wiegt das aber imo idF auf.

So lang dank div. Designverbrechen/limitation gewisse Bildinhalte (abundan) sowieso zum Flimmern neigen, akzeptier ich tw. sogar lieber eine gewisse Grundflimmrigkeit, als die Immersion des feinen homogenen Bildes plötzlich durch nen miesen Shader, oder einem verunglückten AT-Busch zu zerstören. Nebenbei hat man auch pixelfeine Details. Klappt aber klarerweise bei weitem nicht bei jedem Spiel. ;)

aths
2009-05-02, 17:25:29
("Heißt" schreibt sich mit ß.)

Ich werde nicht weiter gegen deine persönlichen Vorlieben andiskutieren, die ich dir ja auch lasse. Unterfilterung ist per se unsinnig. Für schärfere Fahrbandrandstreifen braucht man 64x AF. Einzelne Blätter in den Baumkronen als einzelne Pixel zu haben, muss flimmern.

Es ergibt keinen Sinn, eine Textur in größeren Abständen abzutasten als die Datenpunkte auseinanderliegen. Nicht nur dass das der Nutzung des Texture-Caches widerspricht, es ergibt keinen Sinn, diese Daten erst zu speichern wenn die nicht in jedem Bild vorkommen sondern der Pixelversatz darüber entscheidet.

Gast
2009-05-02, 17:31:43
Nebenbei hat man auch pixelfeine Details. Klappt aber klarerweise bei weitem nicht bei jedem Spiel.
Hmm, Details sind doch Feinheiten, die der Content mitbringt. Was du hier als "feinere Details" bezeichnest, sind doch aber Zufallsprodukte der Unterfilterung und somit eher Artefakte?!

Ist als Frage gemeint, nicht als Kritik an dir oder weil ich dir deine Vorlieben nicht lassen will. :)

Mr. Lolman
2009-05-10, 13:36:57
Hmm, Details sind doch Feinheiten, die der Content mitbringt. Was du hier als "feinere Details" bezeichnest, sind doch aber Zufallsprodukte der Unterfilterung und somit eher Artefakte?!

Ist als Frage gemeint, nicht als Kritik an dir oder weil ich dir deine Vorlieben nicht lassen will. :)

Stimmt. Wobei die Zufallsprodukte aus einer fix vorgebenen Menge heraus enstehen und der durchschnittliche Fehler deswegen sich in Grenzen hält.