PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Suche möglichst preiswerte Karte für SSAA


Gast
2011-04-17, 16:00:02
Hallo,
ich habe einen Phenom II X4 mit 4GB Ram und momentan eine Gtx 285, SSAA ist damit bei halbwegs aktuellen Titeln im Prinzip nicht möglich. Bald will ich auf Windows 7 und Direct X 11 umsteigen, damit sich der Kauf einer neuen Karte lohnt möchte ich möglichst auch in der Lage sein Titel wie z.B. Call of Duty mit 2x2 SSAA zu zocken, welche Karte brauche ich dafür? Reicht eine Gtx 560 mit 1GB Ram bzw. alternativ mit 2 GB Ram? Mehr Geld würde ich momentan wahrscheinlich nicht ausgeben wollen, falls 230€ nicht für SSAA reichen werde ich den Kauf wahrscheinlich auf die nächste Generation verschieben.
Danke, MfG

boxleitnerb
2011-04-17, 16:33:41
Eine 560 sollte es schon sein. (OG)SSAA erhöht den Speicherverbrauch leicht (höhere Auflösung intern), SGSSAA hingegen nicht. 2GB sind da nicht wirklich zwingend.

SGSSAA ist billiger von der Performance her, man muss aber mit den AA-Bits den Blur mitunter bekämpfen. Da du nur mit einer Geforce SGSSAA auch in DX10/11 nutzen kannst (OGSSAA dort gar nicht, es sei denn per Downsamplinbastelei), ist die 560 eine ganz gute Wahl in der Preisregion.

Gast
2011-04-19, 17:17:04
Danke, 2 GB Ram brauch ich dann schonmal nicht.
Wieviel fps hätte die Gtx 560 ungefähr in Call of Duty und ähnlichen Titeln? Kann ich bei Geizhals einfach das preiwerteste Modell nehmen?
MfG

Spasstiger
2011-04-19, 17:42:31
Radeon HD 5850 für 110€: Sapphire Radeon HD 5850 Extreme (http://geizhals.at/deutschland/a630270.html).
Stampft eine GTX 285 mit SGSSAA in Grund und Boden und kommt da sogar an die GeForce GTX 560 Ti ran. Nachteil: SSSA gibts nur unter DX9.

Hier gibts Benchmarks: http://www.computerbase.de/artikel/grafikkarten/2011/test-nvidia-geforce-gtx-560-ti-sli/21/#abschnitt_benchmarks_mit_ssaa.
In Call of Duty MW2 ist die GTX 560 Ti @ 1920x1200 + 4xSGSSAA nur 15% schneller als die Radeon HD 5850, kostet aber über 60% mehr. Die Bildqualität ist dabei mit der HD 5850 dank automatischer LOD-Bias-Anpassung sogar tendentiell besser.

LovesuckZ
2011-04-19, 17:53:35
Radeon HD 5850 für 110€: Sapphire Radeon HD 5850 Extreme (http://geizhals.at/deutschland/a630270.html).
Stampft eine GTX 285 mit SGSSAA in Grund und Boden und kommt da sogar an die GeForce GTX 560 Ti ran. Nachteil: SSSA gibts nur unter DX9.

Hier gibts Benchmarks: http://www.computerbase.de/artikel/grafikkarten/2011/test-nvidia-geforce-gtx-560-ti-sli/21/#abschnitt_benchmarks_mit_ssaa.
In Call of Duty MW2 ist die GTX 560 Ti @ 1920x1200 + 4xSGSSAA nur 15% schneller als die Radeon HD 5850, kostet aber über 60% mehr. Die Bildqualität ist dabei mit der HD 5850 dank automatischer LOD-Bias-Anpassung sogar tendentiell besser.

Wie wäre es mit der kompletten Informationslage?
Die Kompartibilität bei AMD ist deutlich schlechter. Gibt es Probleme in Spielen, lassen sie sich kaum richtig fixen. Dazu kommt, dass AMD selbstständig am SSAA rumdoktert, so dass es am Ende kein FullScene-AA mehr ist. Und dank der Offenheit der Profile kann man durch die AA-Bits bei nVidia sogar in den Spielen SSAA forcieren, die über kein MSAA verfügen bzw. die Kantenglättungsqualität über das Niveau von MSAA bringen.

Man muss sich also fragen, ob man die deutlich bessere Kompartibilität will und dafür deutlich mehr bezahlen muss, oder ob man in Spielen auch auf SSAA verzichten kann.

Gast
2011-04-21, 17:43:15
Danke für alle Antworten!

Schaffe89
2011-04-22, 13:33:46
Dazu kommt, dass AMD selbstständig am SSAA rumdoktert, so dass es am Ende kein FullScene-AA mehr ist.

Von dir sollte man sich in der Hinsicht eigentlich nicht beraten lassen. :P
Dass AMD am SGSSA in dieser HInsicht rumdoktert hat schon seine Gründe.
Ergebnis sieht im Schnitt aber immernoch besser aus, wie wenn man sein LOD selber ungenau einstellt. Zudem mehr Leistung bei SGSSAA, denn die meisten Titel sind immernoch directx9 Titel.
Nvidia hat den Vorteil mit AA-Bits Frickelei und trotzdem nicht immer sauberen Ergebnissen in directx10/11 SGSSAA zu Nutzen.
AMD arbeitet aber bereits an Downsampling und wird das in naher Zukunft anbieten.
Was ich gehör hab solls schon in 2 Monaten so weit sein. ;-)

Am allerbesten ist es sich einmal http://www.3dcenter.org/artikel/sapphire-radeon-hd-6970-vs-palit-geforce-gtx-570/hd6970-vs-gtx570-artikel-fazit Den Test anzugucken.

Gast
2011-04-22, 14:00:20
AMD arbeitet aber bereits an Downsampling und wird das in naher Zukunft anbieten.
Was ich gehör hab solls schon in 2 Monaten so weit sein. ;-)

Und von dir sollte man solche Behauptungen auch nicht allzu ernst nehmen. Es ist bekannt, dass du AMD Promotion betreibst. In diese Hinsicht unterscheidest du dich von LovesuckZ nicht, nur mit umgekehrten Vorzeichen. Neutral bist weder Du noch er.

Raff
2011-04-22, 14:08:43
AMD arbeitet aber bereits an Downsampling und wird das in naher Zukunft anbieten.
Was ich gehör hab solls schon in 2 Monaten so weit sein. ;-)

Woher stammt das Zeitfenster? Quelle? :)

MfG,
Raff

dargo
2011-04-22, 14:23:18
Woher stammt das Zeitfenster? Quelle? :)

Er phantasiert nur. ;)

Raff
2011-04-22, 14:34:02
Wäre schade. Dass etwas kommt gilt als sicher. Nur das Datum ...

MfG,
Raff

Ronny145
2011-04-22, 16:39:17
Die HD69xx Modelle mit ihren 2 GB VRAM wären prädestiniert fürs Downsampling. Sieht man ja auch an den 2560x1600 Benchmarks gegenüber der GTX570 mit "nur" 1,28 GB VRAM. Das wäre ein Mega Feature wenn die es schaffen würden offiziell anzubieten.

dargo
2011-04-22, 17:27:25
Die HD69xx Modelle mit ihren 2 GB VRAM wären prädestiniert fürs Downsampling.

Jein. Wo die 2GB nötig sind fehlt eh die Rohleistung.


Das wäre ein Mega Feature wenn die es schaffen würden offiziell anzubieten.
Wenn die das machen, und dann noch mit vernünftigen Filter wechsle ich bei der nächsten Gen. das Lager. :D

Spasstiger
2011-04-22, 17:47:51
Downsampling geht doch auf Radeons. Ich hab Downsampling mit der Radeon HD 2900 Pro schon genutzt, bevor es den Begriff in diesem Kontext überhaupt gab: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=450226.
Geht unter DX9@WinXP per modifiziertem Monitortreiber oder PowerStrip und unter DX10/DX11 mit dem ToMMTi-Systems SSAA-Tool (http://www.tommti-systems.de/start.html).

Ich spiel z.B. derzeit mit meiner Radeon HD 4850 Call of Juarez 2 mit Downsampling, weil das Spiel kein MSAA/AAA unterstützt.

Raff
2011-04-22, 17:48:18
Ne übertaktete HD 6970 kommt in High-Res bzw. mit SGSSAA oft an einer GTX 580 OC vorbei, von daher ist die "nächste Gen" schon da, sofern die das einbauen. ;)

MfG,
Raff

Jake Dunn
2011-04-22, 17:52:08
Ich spiel z.B. derzeit mit meiner Radeon HD 4850 Call of Juarez 2 mit Downsampling, weil das Spiel kein MSAA/AAA unterstützt.

Geht das hier nicht mehr ? > http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8196381#post8196381

Raff
2011-04-22, 17:53:56
Downsampling geht doch auf Radeons. Ich hab Downsampling mit der Radeon HD 2900 Pro schon genutzt, bevor es den Begriff in diesem Kontext überhaupt gab: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=450226.
Geht unter DX9@WinXP per modifiziertem Monitortreiber oder PowerStrip und unter DX10/DX11 mit dem ToMMTi-Systems SSAA-Tool (http://www.tommti-systems.de/start.html).

Ich spiel z.B. derzeit mit meiner Radeon HD 4850 Call of Juarez 2 mit Downsampling, weil das Spiel kein MSAA/AAA unterstützt.

Es ist eben auf Windows XP beschränkt.

MfG,
Raff

Spasstiger
2011-04-22, 17:56:14
Geht das hier nicht mehr ? > http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8196381#post8196381
Ich sehe da kein AA, sondern nur zermatschte Artefakte. Die Performance geht bei mir unter Aktivierung von AA auch deutlich runter, aber das ganze Bild sieht genau wie auf deinen Screenshots nicht nach MSAA/adaptivem AA aus. Downsampling kostet weniger und bringt mehr (reduziert auch das Texturflimmern).

Es ist eben auf Windows XP beschränkt.
Für mich keine Einschränkung, ich fahre beide Betriebssysteme. WinXP für Downsampling@DX9 und zum Checken, ob ALchemy unter Win 7 richtig arbeitet, und Win 7 für den Rest.
Das SSAA-Tool geht übrigens unter Windows 7, ich hab Just Cause 2 (DX10) damit auf meiner Radeon HD 4850 getestet. Leider unterstützt das SSAA-Tool keine vernünftigen Downsampling-Filter, sah bei mir nach Pointsampling aus, was natürlich fürn Arsch ist.

Dass Radeons kein Downsampling unterstützen würden, ist einfach nur Quatsch. Ich hab doch mit meiner Radeon die ganze Downsampling-Bewegung erst losgetreten, siehe mein Thread, den ich oben verlinkt habe. dargo hat sich als Reaktion auf meinen Thread damals dann intensiv der Materie angenommen und den Begriff "Downsampling" begründet.
Ich will aber nicht abstreiten, dass man mit einer Radeon nicht an die Möglichkeiten rankommt, die eine NV-Karte bietet. NV bietet ja schon seit Urzeiten "Luxus-Downsampling" aka OGSSAA an und das halboffiziell im Treiber.
Wo ich Nachholbedarf bei AMD sehe, ist SGSAA für DX10/DX11.

Ronny145
2011-04-22, 18:09:47
Downsampling geht doch auf Radeons. Ich hab Downsampling mit der Radeon HD 2900 Pro schon genutzt, bevor es den Begriff in diesem Kontext überhaupt gab

Erstens nur für XP und zweitens inoffiziell. Das SSAA Tool funktioniert auch nur in gefühlt jedem zweiten DX10+ Spiel.

Jein. Wo die 2GB nötig sind fehlt eh die Rohleistung.


Wie interpretierst du dann die Ergebnisse, dass in größeren Auflösungen über 1920 die HD6970 aufholt bzw. die GTX570 hinter sich lässt? 1,5 GB würden dafür sicherlich auch noch reichen, sie hat aber nunmal 2 GB. Der Abstand könnte sich in einer typischen Downsampling Auflösung noch vergrößern.

http://www.computerbase.de/artikel/grafikkarten/2010/test-amd-radeon-hd-6970-und-hd-6950/26/#abschnitt_performancerating_mit_aaaf

Spasstiger
2011-04-22, 18:11:25
Erstens nur für XP und zweitens inoffiziell.
Genauso offiziell oder inoffiziell wie bei NV. Bei NV ist die Frickelei sogar größer.

Ronny145
2011-04-22, 18:14:16
Genauso offiziell oder inoffiziell wie bei NV. Bei NV ist die Frickelei sogar größer.

Ja darum warten wir alle auf eine offizielle Implementierung. Bei Nvidia geht es jedoch immerhin auch unter Win 7, auch wenn inoffiziell.

Spasstiger
2011-04-22, 18:15:29
NV bietet ja schon OGSSAA an, ich denke nicht, dass man da Downsampling als ernsthafte Alternative erwägt. Ist ja eh viel zu stark an das Zusammenspiel mit dem Monitor gekoppelt.

dargo
2011-04-22, 18:16:59
Ne übertaktete HD 6970 kommt in High-Res bzw. mit SGSSAA oft an einer GTX 580 OC vorbei, von daher ist die "nächste Gen" schon da, sofern die das einbauen. ;)

Ähm... für 3840x2160 samt 2-4xMSAA brauche ich schon eher was in Richtung 2x GTX580. ;) Ok... 2x GTX570 würden auch gehen. :D

Downsampling geht doch auf Radeons. Ich hab Downsampling mit der Radeon HD 2900 Pro schon genutzt, bevor es den Begriff in diesem Kontext überhaupt gab: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=450226.
Geht unter DX9@WinXP per modifiziertem Monitortreiber oder PowerStrip und unter DX10/DX11 mit dem ToMMTi-Systems SSAA-Tool (http://www.tommti-systems.de/start.html).

Öhm... XP ist bei mir schon lange begraben und das SSAA-Tool ist für mich keine Option.

Gast
2011-04-22, 18:22:50
Öhm... XP ist bei mir schon lange begraben und das SSAA-Tool ist für mich keine Option.
Warum nicht?

dargo
2011-04-22, 18:23:31
Wie interpretierst du dann die Ergebnisse, dass in größeren Auflösungen über 1920 die HD6970 aufholt bzw. die GTX570 hinter sich lässt? 1,5 GB würden dafür sicherlich auch noch reichen, sie hat aber nunmal 2 GB. Der Abstand könnte sich in einer typischen Downsampling Auflösung noch vergrößern.

http://www.computerbase.de/artikel/grafikkarten/2010/test-amd-radeon-hd-6970-und-hd-6950/26/#abschnitt_performancerating_mit_aaaf
Ich sehe in den Diagrammen die GTX580 überall vorne. Und für das was ich in quasi jedem Spiel gerne nutzen würde ist selbst diese GTX580 zu langsam. Wir brauchen einfach doppelt so schnelle GPUs.

Warum nicht?
Deshalb:
Das SSAA Tool funktioniert auch nur in gefühlt jedem zweiten DX10+ Spiel.

Und letztens hat auch jemand berichtet, dass irgendein Anticheat-Programm (der Name fällt mir gerade nicht ein) Probleme damit bereitet. Außerdem funktionierte das SSAA-Tool bei mir von Anfang an nicht.

NV bietet ja schon OGSSAA an, ich denke nicht, dass man da Downsampling als ernsthafte Alternative erwägt. Ist ja eh viel zu stark an das Zusammenspiel mit dem Monitor gekoppelt.
Bis 24" und max. 1920x1200 nativ ist es gar kein Problem mehr. Ich bin mittlerweile viel weiter was das Zusammenspiel der jeweiligen Timings im Treiber angeht. Es ist im Prinzip total einfach. Duch diese Erkenntnis brauche ich praktisch gar nicht mehr rumtesten. Ich weiß sofort ob eine XY DS-Auflösung angenommen wird oder nicht. Diese neuen Erkenntnisse sind in meinem DS-Thread aber noch nicht enthalten.

Ronny145
2011-04-22, 18:45:56
Ich sehe in den Diagrammen die GTX580 überall vorne. Und für das was ich in quasi jedem Spiel gerne nutzen würde ist selbst diese GTX580 zu langsam. Wir brauchen einfach doppelt so schnelle GPUs.

Die hat ja auch 1,5 GB und die stärkere GPU. 1,5 GB würde wie schon gesagt auch schon eine vernünftige Größe sein für die HD69xx. Natürlich bräuchten wir auch schnellere GPUs. Es ging darum, dass sich die 2GB jetzt schon bemerkbar machen in größeren Auflösungen gegenüber den 1GB oder 1,25 GB Karten in Form einer GTX570. Es würde theoretisch nur eine schnellere Single GPU Karte in einer typischen Downsampling Auflösung von mindestens 2560x geben, an Nummer 2 folgt schon AMD mit der HD6970 für 100€ weniger bei noch vertretbaren Verbrauch.

http://www.computerbase.de/artikel/grafikkarten/2011/test-amd-radeon-hd-6950-1.024-mb/22/#abschnitt_performancerating_mit_aaaf

Die HD6950 mit 1 GB verliert von 1920x1200 4xAA/16xAF auf 2560x1600 4xAA/16xAF gegenüber der 2GB Version 9%. Mit 8xAA sind es 50%. Ich habe lieber etwas Spielraum beim VRAM als einen zu knapp bemessenen.

dargo
2011-04-22, 18:51:40
Ich hoffe bloß, dass Nvidia oder AMD (sollten die wirklich einwandfreies Downsampling anbieten) bei der nächsten Gen ein 512Bit SI verwenden. Denn unter 2GB möchte ich nicht unbedingt gehen. Die 1,5GB sind für 3840-er Auflösung samt 4xMSAA auch schon hier und da zuwenig.

Spasstiger
2011-04-22, 19:26:44
Ein 512-Bit-SI ist für 2 GiB oder mehr nicht erforderlich, siehe die Radeon HD 6950/6970 und die GTX 570 2,5 GiB bzw. GTX 580 3 GiB.
Und für SSAA ist es auch nicht erforderlich, wenn der Speicher schnell genug ist. NV hat ja theoretisch noch gut Spielraum bei GDDR5, die müssen ihrem GDDR5-Controller nur mehr Feuer unterm Hintern machen.

Raff
2011-04-22, 19:50:51
Bis 24" und max. 1920x1200 nativ ist es gar kein Problem mehr. Ich bin mittlerweile viel weiter was das Zusammenspiel der jeweiligen Timings im Treiber angeht. Es ist im Prinzip total einfach. Duch diese Erkenntnis brauche ich praktisch gar nicht mehr rumtesten. Ich weiß sofort ob eine XY DS-Auflösung angenommen wird oder nicht. Diese neuen Erkenntnisse sind in meinem DS-Thread aber noch nicht enthalten.

Leg mal los. :) Ich kann das bei meiner 120-Hz-Kiste nämlich nicht reproduzieren.

MfG,
Raff

dargo
2011-04-22, 19:53:23
Ein 512-Bit-SI ist für 2 GiB oder mehr nicht erforderlich, siehe die Radeon HD 6950/6970 und die GTX 570 2,5 GiB bzw. GTX 580 3 GiB.

Ich rede von der nächsten Gen. Da wird ein 256Bit SI wohl kaum mehr reichen wenn die Rohleistung verdoppelt wird. Und die 2,5 und 3GB Versionen von Nvidia kommen viel zu spät da kein Referenzdesign.


Und für SSAA ist es auch nicht erforderlich, wenn der Speicher schnell genug ist.
Ähm... ich bin hier bei Shift 2 in 2562x1200 4xMSAA+4xSSAA schon bei 1260MB. Was glaubst du wie das bei 3840x2160 4xMSAA aussieht? Ich kann dir jetzt schon sagen, dass 1,5GB nicht reichen werden.

Leg mal los. :) Ich kann das bei meiner 120-Hz-Kiste nämlich nicht reproduzieren.

Wir können das gerne mal bei dir probieren. Aber bitte nicht jetzt da:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8696648&postcount=4075

und vorallem nicht übers Forum. Da tipp ich mir wieder die Finger wund. Hast du ein Mikro bzw. Headset, sodass wir alles über Teamspeak besprechen können?

mapel110
2011-04-22, 19:57:17
Leider unterstützt das SSAA-Tool keine vernünftigen Downsampling-Filter, sah bei mir nach Pointsampling aus, was natürlich fürn Arsch ist.

Da muss bei dir was kaputt gewesen sein. Bei mir sah alles bestens aus, was mit dem Tool funktioniert hat.

Blaire
2011-04-22, 21:52:45
Ergebnis sieht im Schnitt aber immernoch besser aus, wie wenn man sein LOD selber ungenau einstellt. Zudem mehr Leistung bei SGSSAA, denn die meisten Titel sind immernoch directx9 Titel.
Nvidia hat den Vorteil mit AA-Bits Frickelei und trotzdem nicht immer sauberen Ergebnissen in directx10/11 SGSSAA zu Nutzen.

Der Spielraum auf AMD Karten ist sehr begrenzt, spätestens dann wenn es Probleme gibt, hat man kaum eine Chance dagegen vorzugehn. Frickelei gehört beim PC einfach dazu, wenn man es genau nimmt ist jede Windows Installation eine einzige Frickelei, hat man aber alles richtig eingestellt , ist das Problem dann auch keines mehr, ebenso ist es bei den Treibereinstellungen bzw. AA Bits ja auch.
Ich möchte aber als User auch soviel Einfluss wie nur möglich nehmen können, da man immer wieder sieht das die Hersteller Probleme haben und mit ihren Aufgaben kaum hinterherkommen. Und hier hat man dann selber die Chance einzugreifen bzw. sich zu helfen, wenn man will.

LovesuckZ
2011-04-24, 16:28:09
Von dir sollte man sich in der Hinsicht eigentlich nicht beraten lassen. :P

Es ist egal, wer die Wahrheit ausspricht. Wobei - in diesem Forum will man ja nonsens. Dann passe ich mich diesem Niveau eben an:


Dass AMD am SGSSA in dieser HInsicht rumdoktert hat schon seine Gründe.
Ergebnis sieht im Schnitt aber immernoch besser aus, wie wenn man sein LOD selber ungenau einstellt.

Stimmt. Wenn kein SSAA angewendet wird, ist das Ergebnis natürlich besser als wenn SSAA verwendet werden kann. ;D


Zudem mehr Leistung bei SGSSAA, denn die meisten Titel sind immernoch directx9 Titel.

Man sieht ja, was die ganzen AMD Leute mit der besseren Leistung so machen können. Ich als nVidia-User muss wirklich heulen, wenn ich sehe, wie AMD User in Dragon Age 2, Bad Company 2, Medal of Honor, Mafia 2, Crysis 2 und Konsorten ihr SSAA nutzen können... Hoppla, dass können sie ja garnicht. :freak:
Es ist schon erstaunlich: Früher gab es Leute in diesem Forum, die kauften sich ihre Grafikkarte, weil sie mehr BQ erlaubte. Heute wohl nur, weil man dann hier trollen kann, wie toll Features sind, die kaum bis garnicht verwendet werden können.


Nvidia hat den Vorteil mit AA-Bits Frickelei und trotzdem nicht immer sauberen Ergebnissen in directx10/11 SGSSAA zu Nutzen.

Da stimm ich zu: Das Kopieren von Bits aus dem Internet und Eintragen in den Inspector ist sowas von eine Frickelei. Also wirklich, da hätte der Inspector-Mensch mal was viel einfacheres machen können.
So wie AMD: Ein einfaches globales Profil + Exe-Renaming. Immer diese Kompliziertheit. Unerträglich.
Und dann diese Probleme unter DX1x. Wirklich. Mir fällt zwar gerade kein Spiel ein, wo es Probleme gibt, aber wenn ein Schaffe89 es schreibt, muss es stimmt. Es lügt ja auch niemand im Internet. NIE!


Am allerbesten ist es sich einmal http://www.3dcenter.org/artikel/sapphire-radeon-hd-6970-vs-palit-geforce-gtx-570/hd6970-vs-gtx570-artikel-fazit Den Test anzugucken.

Finde ich auch. Denn Werte aus Januar, die im April veröffentlicht werden, sind immer aktuell. :freak:

Der Spielraum auf AMD Karten ist sehr begrenzt, spätestens dann wenn es Probleme gibt, hat man kaum eine Chance dagegen vorzugehn. Frickelei gehört beim PC einfach dazu, wenn man es genau nimmt ist jede Windows Installation eine einzige Frickelei, hat man aber alles richtig eingestellt , ist das Problem dann auch keines mehr, ebenso ist es bei den Treibereinstellungen bzw. AA Bits ja auch.
Ich möchte aber als User auch soviel Einfluss wie nur möglich nehmen können, da man immer wieder sieht das die Hersteller Probleme haben und mit ihren Aufgaben kaum hinterherkommen. Und hier hat man dann selber die Chance einzugreifen bzw. sich zu helfen, wenn man will.

Lass es. Diese Forum hat nun ein Klientel, dem Bildqualität vollkommen egal ist - es sogar als irrelevant hinstellt - und dem 1 Minute Tweaking schon zuviel sind.
Irgendwie absurd, stand die Seite und das Forum mal genau für die entgegengesetzte Gruppe. Aber ein Anddill hat es ja so schön gesagt: Man möchte hier nonsens haben.

Spasstiger
2011-04-24, 16:48:41
@LovesuckZ: Du übersiehst hier das "preiswert" im Threadtitel. Wenn ich 75€ bzw. 2/3 mehr zahlen muss, um bei NV die gleiche SSAA-Performance zu bekommen, dann sind Überlegungen dahingehend, ob die Featureauswahl der HD 5850 nicht auch reicht, durchaus berechtigt.

Zumal AMD nach Meinung der Mehrheit die bessere SSAA-Qualität bietet dank automatischer LOD-Bias-Anpassung und fortgeschrittener Downfilter (gerichtete und ungerichtete Tent-Filter). Wenn du zwei HD 5850 im Crossfire betreibst, kannst du für den Preis einer GTX 560 Ti Super-OC unter DirectX 9 sogar 16xSGSSAA mit optimaler Samplemaske nutzen. Es ist keineswegs so, dass AMD für SSAA keine Option wäre.

Ich spiel jetzt übrigens mal weiter Call of Juarez 2 mit SSAA in Form von Downsampling auf meiner Radeon HD 4850. ;) Die NV-Alternative zur HD 4850, die ich für einen gleichen Preis hätte haben können, wäre die GeForce 9800 GT 512 MiB gewesen, aber mit der hätte ich CoJ 2 nicht mit Downsampling oder SSAA flüssig spielen können. Features mögen zwar toll sein, aber ohne die passende Performance liegen die Features einfach brach.

LovesuckZ
2011-04-24, 17:04:22
@LovesuckZ: Du übersiehst hier das "preiswert" im Threadtitel. Wenn ich 75€ bzw. 2/3 mehr zahlen muss, um bei NV die gleiche SSAA-Performance zu bekommen, dann sind Überlegungen dahingehend, ob die Featureauswahl der HD 5850 nicht auch reicht, durchaus berechtigt.

Und du übersiehst, dass er eine Karte für SSAA will. Daher ist es fragwürdig, wenn gewisse Informationen einfach verheimlicht werden.
Mir ist es egal, was er kauft. Aber die Enttäuschung kann schon ziemlich groß sein, keine Option auf SSAA haben zu können.


Zumal AMD nach Meinung der Mehrheit die bessere max. SSAA-Qualität bietet dank automatischer LOD-Bias-Anpassung und fortgeschrittener Downfilter (gerichtete und ungerichtete Tent-Filter). Wenn du zwei HD 5850 im Crossfire betreibst, kannst du für den Preis einer GTX 560 Ti Super-OC unter DirectX 9 sogar 16xSGSSAA mit optimaler Samplemaske nutzen.

Und du übersiehst, dass DX9 einfach falsch ist. Dragon Age 2, Crysis 2, Mafia 2, Bad Company 2 sind vier Spiele, die über DX9 verfügen und kein Anwendungs-MSAA unterstützen. In all den Spielen kann ich auf einer nVidia-Karte SSAA aktivieren - sei es über AA-Bits oder unter DX1x.

Und das wird in Zukunft einfach noch zunehmen. Da hat er dann viel Freude mit seinem Crossfire-System, wenn er sich die Flimmernhölle antun darf.

Blaire
2011-04-24, 22:43:28
Und du übersiehst, dass DX9 einfach falsch ist. Dragon Age 2, Crysis 2, Mafia 2, Bad Company 2 sind vier Spiele, die über DX9 verfügen und kein Anwendungs-MSAA unterstützen. In all den Spielen kann ich auf einer nVidia-Karte SSAA aktivieren - sei es über AA-Bits oder unter DX1x.

Da gibt es sogar noch eine ganze Reihe mehr u.a. DeadSpace2, Two WorldsII oder auch sehr viele Unreal 3 Engine Games wo Nvidia AA Bits besitzt, die auf Alles greifen, diese Qualität erreicht man derzeit auf keiner AMD Karte. Dafür muss man halt fummeln, aber das gehört beim PC einfach dazu.

boxleitnerb
2011-04-24, 22:47:30
Ich wollte ja mal eine Art Umfrage machen, in welchen Spielen bei AMD AA geht und in welchen nicht. Auch um zu klären, ob Nvidia da wirklich einen Vorteil hat - dann konsequenterweise auch bei der Häufigkeit, in der SSAA angwendet werden kann. Leider kam da nichts an Beteiligung.

Gibts dazu irgendwelche halbwegs objektiven Daten?