PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Rage3D-Interview


Seiten : [1] 2

Coda
2009-04-06, 16:56:18
http://www.rage3d.com/interviews/ATIChats/intothedll/index.php?p=2

Rage3D: Also tied to the topic of optimizations: do you feel that having everything tied to the Catalyst AI is still a viable alternative? This creates the premise for someone completely turning it off in order to get perfect filtering or whatever, and thus killing a lot of valid, per-application optimizations and badly affecting performance. Don't you feel the market is mature enough to have separate knobs for more mundane optimizations, like those pertaining to texture-filtering? And wouldn't it be more prudent to keep the per-application optimizations/fixes in an always enabled state?

Andrew: I don’t think users have much to gain by adjusting so many different settings – one of our key messages behind Catalyst AI is that every optimization we do only enhances the performance of applications with absolutely no degradation in image quality, and users can verify this for themselves by comparing an application with Catalyst AI on vs. off.
*seufz*

Das ist einfach nur eine Lüge.

_DrillSarge]I[
2009-04-06, 17:03:00
irgendwann ist der ai-schalter ganz weg, dann gibts nur noch advanced :ugly:
:(

ich hattte gehofft, dass es mal in die andere richtung geht.

We believe that our Crossfire solution (which uses AFR) delivers a great user experience, and that the micro stuttering issue isn’t really an issue at all for end users – In fact I can honestly say that it can’t be seen at all. We’re of course always looking at enhancing our CrossFire design, but again, I can’t comment on any specifics, for obvious reasons.

We want to make the experience as seamless as possible to the end user, our customers shouldn’t have to worry about how many GPUs are on their graphics accelerator – as long as it delivers a great experience, that’s all that counts. For the rare cases where an application has not been profiled, and does lead to slower performance, we always try to fix this as quickly as possible through our monthly ATI Catalyst updates.
alles klar. alles bleibt so wie es ist. ;(

Banshee18
2009-04-06, 17:10:40
http://www.rage3d.com/interviews/ATIChats/intothedll/index.php?p=2


*seufz*

Das ist einfach nur eine Lüge.
Selbst unter den Freaks interessieren sich nur wenige für gute Bildqualität, und solange das so ist, wird sich bei ATi auch nichts ändern.
Bleibt nur zu hoffen, dass nV nicht an der Bildqualitätsschraube dreht.

Eigentlich sollte man im Kaufberatungsforum konsequent von ATi abraten.

Exxtreme
2009-04-06, 17:14:42
I[;7219153']
alles klar. alles bleibt so wie es ist. ;(
Richtig. Um Mikroruckler zu verhindern bräuchte man eine Zeitmaschine im Nano-Format.

Nakai
2009-04-06, 17:14:57
Ganz großes Kino...

Viele Reviewseiten, wie CB, 3DC, PCGH sollten sich mit dieser Thematik mal explizit beschäftigen. Also ein paar etwas kritischere Reviews veröffentlichen. Mir gehts gar nicht darum, dass wir ATI/AMD zwingen auf ein höheres BQ-Niveau zu gehen, aber die User und Reviewer sollten die Wahl haben, welche Einstellungen sie nehmen sollten.

Die AI-Problematik muss ausgemerzt werden.


mfg Nakai

_DrillSarge]I[
2009-04-06, 17:17:03
Richtig. Um Mikroruckler zu verhindern bräuchte man eine Zeitmaschine im Nano-Format.
???

ich frage mich gerade, was mit diesem ominösen crossfire-sideport ist. wird der nun mal genutzt? und wozu?

@banshee18: komplettes abraten von ati finde ich falsch. es ist ja nicht so, dass es totaler crap ist. es sind immer noch sehr gute grafikkarten.

Gouvernator
2009-04-06, 17:24:00
We believe that our Crossfire solution (which uses AFR) delivers a great user experience, and that the micro stuttering issue isn’t really an issue at all for end users – In fact I can honestly say that it can’t be seen at all.
Ist ja unglaublich was der Mensch hier abzieht. Leugnet, einfach so mal, die Mikroruckel Problematik. Wow, dumm UND dreist!
Eigentlich sollte man im Kaufberatungsforum konsequent von ATi abraten.
AMEN.

HD-Ronny
2009-04-06, 17:30:50
Die meisten Crossfire User sehen die Microruckler wahrscheinlich auch garnicht, oder ordnen die anderen Komponenten zu. Die Bildqualität ist mit AI auch absolut o.k , es sind halt nicht alle 3dcenter Grafikfetischisten. Leider wird man damit leben müssen solange ATI diese Tweaks braucht um mit den derzeitigen Gforce mitzuhalten. Mir wäre es auch lieber die Wahl zu haben alle Treiberoptimierungen abzuschalten.

Banshee18
2009-04-06, 17:33:53
I[;7219188']@banshee18: komplettes abraten von ati finde ich falsch. es ist ja nicht so, dass es totaler crap ist. es sind immer noch sehr gute grafikkarten.
Gute Grafikkarten mit miesen Treibern.
ATi wird es erst lernen, wenn sie ihre Karten nicht mehr so gut verkaufen, deshalb muss man die schlechtere Bildqualität überall anprangern, wo es nur geht.
Bei nV hat es damals anscheinend auch geholfen, siehe die Links bei Geizhals aufs 3DC.

Gast
2009-04-06, 17:34:03
Die meisten Crossfire User sehen die Microruckler wahrscheinlich auch garnicht, oder ordnen die anderen Komponenten zu. Die Bildqualität ist mit AI auch absolut o.k , es sind halt nicht alle 3dcenter Grafikfetischisten. Leider wird man damit leben müssen solange ATI diese Tweaks braucht um mit den derzeitigen Gforce mitzuhalten. Mir wäre es auch lieber die Wahl zu haben alle Treiberoptimierungen abzuschalten.
Tweaken tut Nvidia auch ;)

HD-Ronny
2009-04-06, 17:35:46
Tweaken tut Nvidia auch ;)
Machen sie doch alle, bis man sie erwischt... ;)

Coda
2009-04-06, 18:09:44
Gute Grafikkarten mit miesen Treibern.
ATi wird es erst lernen, wenn sie ihre Karten nicht mehr so gut verkaufen, deshalb muss man die schlechtere Bildqualität überall anprangern, wo es nur geht.
Bei nV hat es damals anscheinend auch geholfen, siehe die Links bei Geizhals aufs 3DC.
Kommt Zeit kommt Rat. Es ist ja was in Vorbereitung - wenn nur mal die Zeit reichen würde.

mAxmUrdErEr
2009-04-06, 18:09:58
Reichlich uninteressanter Artikel, der großteils aus Marketinggeblubber besteht.

Coda
2009-04-06, 18:12:47
Reichlich uninteressanter Artikel, der großteils aus Marketinggeblubber besteht.
Klar - Darum ging's ja gar nicht, sondern um den gebetmühlenartig vorgetragenen Müll seitens ATI in diesem Zusammenhang.

Blaire
2009-04-06, 18:34:06
Das Problem ist auch damals wurde viel mehr auf Nvidia rumgehackt wegen der Flimmerproblematik, darufhin sah sich Nvidia genötigt etwas dagegen zu tun. Anders bei Ati da wird es nur zwischen den Zeilen angesprochen bzw. verharmlost mal von 3DCenter abgesehn...
Das mit den Crossfire Nachteilen das war mir eigentlich schon klar das die sich nicht in die Karten schauen lassen schade...Chance vertan.

nagus
2009-04-06, 18:43:49
Gute Grafikkarten mit miesen Treibern.
ATi wird es erst lernen, wenn sie ihre Karten nicht mehr so gut verkaufen, deshalb muss man die schlechtere Bildqualität überall anprangern, wo es nur geht.
Bei nV hat es damals anscheinend auch geholfen, siehe die Links bei Geizhals aufs 3DC.

also das ist doch vollkommener schwachsinn!!!! die "schlechte" bildqualität. dass ich nicht lache! die unterschiede bei catalyst AI auf "off" sind sowas von MINIMAL! und es interessiert sich keine SAU (außer ein paar freaks in irgendwelchen foren) dafür.

.... und am besten finde ich dass, wenn solche beschwerden von Nvidia usern kommt... da weiß ich nicht ob ich weinen, lachen oder einen HASS bekommen soll.

wenn euch die "schlechte" bildqualität stört, dann heiratets doch eure geforce und werdet glücklich damit. auf die paar freaks die sich über alles und jeden beschweren kann nicht nur ati verzichten.

dieses theater zwecks bildqualität ist sowas von LÄCHERLICH. mir scheint, dass die typen die sich über sowas aufregen können nur einen vorwand suchen, sich überhaupt über irgendwas aufregen zu können! sowas kotzt mich dermaßen an....

... und dann diese pauschalisierungen mit "ATI treiber sind shice".... mir kommt gleich die galle hoch

nagus
2009-04-06, 18:48:02
Reichlich uninteressanter Artikel, der großteils aus Marketinggeblubber besteht.

Marketinggeblubber, sehr passend! es ist nicht mehr und nicht weniger. typisch für manche leute sich über sowas aufzuregen... ich geh jetzt kotzen :weg:

Showtime
2009-04-06, 18:52:24
die unterschiede bei catalyst AI auf "off" sind sowas von MINIMAL! und es interessiert sich kein SAU (außer ein paar freaks in irgendwelchen foren) dafür.

Den meisten Leuten geht es dabei, glaube ich, eher ums Prinzip als um die "minimalen Qualitätsunterschiede" (ob sie wirklich minimal sind, weiß ich nicht. Ich bin kein Spieler). Volle Bildqualität ist nun einmal voll, nicht 99,4%.
Du würdest doch als erstes an die Front laufen und die Fahne schwenken, wenn der Fall umgekehrt wäre, und nVidia Mist bauen würde, oder jedenfalls ist das mein Eindruck von dir. Könnte natürlich auch falsch sein. Könnte auch gar keine Rolle spielen.

nagus
2009-04-06, 19:03:40
Den meisten Leuten geht es dabei, glaube ich, eher ums Prinzip als um die "minimalen Qualitätsunterschiede" (ob sie wirklich minimal sind, weiß ich nicht. Ich bin kein Spieler). Volle Bildqualität ist nun einmal voll, nicht 99,4%.
Du würdest doch als erstes an die Front laufen und die Fahne schwenken, wenn der Fall umgekehrt wäre, und nVidia Mist bauen würde, oder jedenfalls ist das mein Eindruck von dir. Könnte natürlich auch falsch sein. Könnte auch gar keine Rolle spielen.

NEIN ich wäre sicher NICHT der erste weil mir das vollkommen "DUTTL" ist was Nvidia in den Treibern aufführt solange es nicht wirklich unfaire praktiken sind.

und ob die Qualität bei 95% oder 99,8 oder 100% ist, ist mir vollkommen egal weil ich beim spielen nicht mit der lupe vorn monitor sitze... wie anscheinend manche leute hier im forum.... ziemlich "seltsam" sowas... naja. manche brauchen das offenbar um glücklich zu sein. es sei ihnen gegönnt.

deekey777
2009-04-06, 19:18:50
Hiermit möchte ich mich herzlich bei Tarkin und nagus für die Zerstörung dieses Threads bedanken.

Und trotzdem bleibt's: AI ist Scheiße. Und die Filterqualität auch. Ob das eine mit dem anderen was zu tun hat?

_DrillSarge]I[
2009-04-06, 19:19:42
Klar - Darum ging's ja gar nicht, sondern um den gebetmühlenartig vorgetragenen Müll seitens ATI in diesem Zusammenhang.
ist ja nix neues. erstens redet niemand schlecht über seinen arbeitgeber und zweitens stellt man ai irgendwie immer als üb0r-feature dar :| (???).

nagus
2009-04-06, 21:30:50
Hiermit möchte ich mich herzlich bei Tarkin und nagus für die Zerstörung dieses Threads bedanken.

Und trotzdem bleibt's: AI ist Scheiße. Und die Filterqualität auch. Ob das eine mit dem anderen was zu tun hat?

klar, bin wieder ich schuld. jemand muss ja der schuldige sein. pauschale und aus dem wind gegriffene aussagen wie "miese" treiber werden akzeptiert aber wenn jemand etwas dagegen sagt ist er gleich ein "thread zerstörer". :|

zum thema: wer an marketing-gebabbl glaubt ist selber schuld.

Raff
2009-04-06, 22:06:10
OMFG

Und ich glaubte bis eben, dass man bei Ati/AMD vielleicht doch mal klug wird. Aber stattdessen werden die Treiber immer DAU-iger. Dabei würde ich schon gerne wieder ohne bitteren Beigeschmack eine Radeon empfehlen und nutzen. Dieses Quasi-Monopol suckt. Und das Ati-Männchen lügt gedruckt, im Chor mit Terry. ;(

MfG,
Raff

y33H@
2009-04-06, 22:12:09
µRuckler gibts nicht, AI ist toll, das AF flimmert nicht und am besten nutzen wir künftig einen Blur-Filter - auf den Konsolen kommt das ja auch super an ... ach halt .. Wide-Tent gibts ja schon ;D

Nee Jungs, so nicht.

tEd
2009-04-06, 22:42:47
Da sind einfach die falschen Leute bei AMD/ATI am Drücker.

[fu]121ah@home
2009-04-06, 22:46:17
na das ist ja mal die höhe. da überleg ich mir doch gleich ob die nächste karte eine nvidia wird - trotzdem ich amd fan bin, fucking bevormundung!

HarryHirsch
2009-04-06, 22:54:06
Kommt Zeit kommt Rat. Es ist ja was in Vorbereitung - wenn nur mal die Zeit reichen würde.

:confused:
Los rück raus mit der Sprache.

Gast
2009-04-06, 22:57:16
Ich meine ist das normal bei ATI das die so die Leute verarschen? Klar hohe Frames aber die BQ scheint keinen zu jucken. Wo ist die Petition gegen schlechte BQ? Mich als ATI user würde das nerven.

Exxtreme
2009-04-06, 23:07:50
I[;7219188']???

Man müsste recht präzise in die Zukunft schauen können. Z.B. um zu wissen wie lange eine Grafikkarte für ein Bild brauchen WIRD um dann den passenden Wartezyklus zwischen den zwei Grafikkarten einzufügen.

Da die elektronische Glaskugel aber nicht machbar ist, wird man auch in Zukunft mit Mikrorucklern leben müssen.

Raff
2009-04-06, 23:10:57
Da sind einfach die falschen Leute bei AMD/ATI am Drücker.

Sehe ich auch so. Diese gottverdammte Balkenmentalität (http://extreme.pcgameshardware.de/blogs/pcgh_raff/149-appell-qualitaet-anstatt-quantitaet.html) muss endlich fallen.

Der Balken muss weg!

Hier ist aber das Problem: Die meisten Nutzer sind noch nicht sensibel genug. Nicht mal hier, in einer Nerd-Hochburg. Die meisten sind noch viel zu tolerant. ;(

MfG,
Raff

Coda
2009-04-06, 23:11:32
:confused:
Los rück raus mit der Sprache.
Ich habe Beweise ;)

_DrillSarge]I[
2009-04-06, 23:13:45
Man müsste recht präzise in die Zukunft schauen können. Z.B. um zu wissen wie lange eine Grafikkarte für ein Bild brauchen WIRD um dann den passenden Wartezyklus zwischen den zwei Grafikkarten einzufügen.

Da die elektronische Glaskugel aber nicht machbar ist, wird man auch in Zukunft mit Mikrorucklern leben müssen.
das ist mir schon klar, dass afr sehr viele schattenseiten hat. profile und co geben dann noch den rest :D.


Der Balken muss weg!
das war aber schon IMMER so. zu geforce256-zeiten hat sich kaum einer über die extrem beschissene (ja, beschissene) 2d-quali aufgeregt (oder auch die 16bit-quali *dither dither*). hauptsache supderduper-3dmark2000-TnL.

was war nur halt zuerst da? die gier der kunden oder das performancegeprolle der hersteller.

Exxtreme
2009-04-06, 23:18:46
Sehe ich auch so. Diese gottverdammte Balkenmentalität (http://extreme.pcgameshardware.de/blogs/pcgh_raff/149-appell-qualitaet-anstatt-quantitaet.html) muss endlich fallen.

Der Balken muss weg!

Hier ist aber das Problem: Die meisten Nutzer sind noch nicht sensibel genug. Nicht mal hier, in einer Nerd-Hochburg. Die meisten sind noch viel zu tolerant. ;(

MfG,
Raff
AMD hat nie die Schmerzgrenze der Massen überschritten. Das haben die durchaus geschickt gemacht.
I[;7219939']das ist mir schon klar, dass afr sehr viele schattenseiten hat. profile und co geben dann noch den rest :D.
Anders bekommst du das auch nicht hin. Die alte 3dfx-Technik klappt auch nicht mehr. Von daher verzichte ich von vorneherein auf Multi-GPU-Lösungen.

Raff
2009-04-06, 23:29:53
I[;7219939']was war nur halt zuerst da? die gier der kunden oder das performancegeprolle der hersteller.

Ich verstehe das Problem irgendwie nicht. Die Hersteller müssten ihre Ub0r-BQ nur gescheit vermarkten. Das klappt ja mit absurder Balkenskalierung und dem nächsten "Wundertreiber" auch immer.

Ambient Occlusion ist IMO ein tolles Feature, das "alter Scheiße" etwas mehr Grafikpracht entlockt. Das kostet dann halt mal 50% der Fps, Pech. Features wie Sparse-Grid-SSAA, 64:1 AF und derlei Späße könnte man auch auf Bildern geschönt darstellen (frei von Ruckeln) und damit Kunden ködern. Gerade heutzutage, wo angeblich so viel Wert auf Individualität und Design bei Hardware gelegt wird ...

MfG,
Raff

_DrillSarge]I[
2009-04-06, 23:32:53
Ich verstehe das Problem irgendwie nicht. Die Hersteller müssten ihre Ub0r-BQ nur gescheit vermarkten. Das klappt ja mit absurder Balkenskalierung und dem nächsten "Wundertreiber" auch immer.
setzt mal jemanden unbedarphten vorn pc und erklär ihm bspw. ssaa. ich wette der 500fps framecounter oben in der ecke ist wesentlich "beeindruckender" für den.
balken sind halt für jeden idioten verständlich. mehr=besser. und wenn spiele ruckeln sieht das JEDER, irgendwelche quali-sachen fallen den wenigsten auf.

€: und vergleiche zwischen den herstellern wären über bq immer deutlich aufwändiger. bestimmt herrscht auch intern ein mächtiger druck, dass die treiberentwickler jeden frame zusätzlich rauspressen müssen, wenn die konkurrenz minimal vorne liegt.

y33H@
2009-04-06, 23:44:33
und wenn spiele ruckeln sieht das JEDERSag das nicht. Ich kenne genug, die meinen Crysis mit 20 Fps oder CSS mit 30 Fps sei flüssig :ucrazy:

_DrillSarge]I[
2009-04-06, 23:45:34
Sag das nicht. Ich kenne genug, die meinen Crysis mit 20 Fps oder CSS mit 30 Fps sei flüssig :ucrazy:
denen ist dann auch nicht mehr zu helfen. ;D

pest
2009-04-06, 23:50:08
I[;7219963']und wenn spiele ruckeln sieht das JEDER irgendwelche quali-sachen fallen den wenigsten auf.


die ironie dieses satzes ist dir hoffentlich bewusst

Gast
2009-04-06, 23:50:10
Nunja, dann sollte man sich an der BQ mit spielbaren Frames orientieren ohne Bevormundung. Bei ATI biste bei Crossfire schon gearscht (Bitte auf der Zunge zergehen lassen). Nenene, das finde ich frech und sollte nicht durch einen Kauf belohnt werden, soweit meine Meinung:)

_DrillSarge]I[
2009-04-06, 23:51:18
die ironie dieses satzes ist dir hoffentlich bewusst
nein :confused: (komma oder wuz?)
:frown:

pest
2009-04-06, 23:58:16
ich bezweifle das viele in einem A/B-Blind Test einen Unterschied in Bewegung zwischen ATIs AF-Optimierung und besserer Filterung bemerken würden.
Das bedeutet aber auch, das ich lieber die +10% nehme, anstatt ein Warm-&-Fuzzy-Feeling bzgl. Texture-Filterung zu haben. Genauso denkt ATI, und genau das sagt dein Satz aus.

derguru
2009-04-07, 00:00:50
I[;7219963']bestimmt herrscht auch intern ein mächtiger druck, dass die treiberentwickler jeden frame zusätzlich rauspressen müssen, wenn die konkurrenz minimal vorne liegt.

bestimmt aber nv lässt wenigstens zu das man darauf auch verzichten kann wie z.b. HQ AF.
wovor hat den amd angst auch sowas in der art zumachen.verstehe die sturheit garnicht,entweder es klaut wirklich heftig an performance und wollen es damit tot schweigen oder der aufwand es zu trennen vom a.i wäre zu groß.
ich frag mich warum nv nicht auf solchen schwächen von amd rumreitet,das würde am meisten bringen.
für mich persöhnlich war das schlechtere af aber nie so tragisch ehrlich gesagt,solch extrem beispiele wie coda das bei half life gezeigt hatte sah ich auch wirklich nur dort so extrem.

_DrillSarge]I[
2009-04-07, 00:01:28
ich bezweifle das viele in einem A/B-Blind Test einen Unterschied in Bewegung zwischen ATIs AF-Optimierung und besserer Filterung bemerken würden.
Das bedeutet aber auch, das ich lieber die +10% nehme, anstatt ein Warm-&-Fuzzy-Feeling bzgl. Texture-Filterung zu haben. Genauso denkt ATI, und genau das sagt dein Satz aus.
früher hatte man mal anders gedacht. da hat man sich mit area-af gepriesen und gute performance. hielt aber auch nicht lange.
ich habe lieber 10%fps weniger und dafür halt bessere quali. von mir aus können sie beides einbauen, aber: ICH WILL ENTSCHEIDEN WAS ICH WÄHLE.
wo ist das problem noch 2 extra schalter ins ccc zu machen und diverse optimierungen von ai zu entkoppeln?


ich frag mich warum nv nicht auf solchen schwächen von amd rumreitet,das würde am meisten bringen.
das wärs eigentlich. :D sowas bewegt oft am meisten.

Banshee18
2009-04-07, 00:03:17
Ich habe Beweise ;)
Wann darf man mit einer Veröffentlichung deiner Beweise rechnen? When it´s done?
AMD hat nie die Schmerzgrenze der Massen überschritten. Das haben die durchaus geschickt gemacht.
Die Schmerzgrenze liegt bei einigen noch deutlich höher.
Anders bekommst du das auch nicht hin. Die alte 3dfx-Technik klappt auch nicht mehr. Von daher verzichte ich von vorneherein auf Multi-GPU-Lösungen.
Wäre ein TBDR hier eine Lösung? Wäre doch perfekt für SFR, oder?

_DrillSarge]I[
2009-04-07, 00:06:57
Die Schmerzgrenze liegt bei einigen noch deutlich höher.
thats the problem!

wer auf konsole hochskaliertes 720p mit spar-aa (wenn überhaupt) spielt, nimmt halt dankend auch "sowas" an. ;)
(ich will jetzt hier keinen "konsolen sind schuld" o.ä. flamewar entfachen :redface:)

pest
2009-04-07, 00:13:52
ach komm...man findet sich aber auch selbst nen bisschen geil wenn man 20 aa-modi auswendig kennt ;)
wobei man bei vielen nichmal auf standbildern den unterschied sieht
jedenfalls kommts mir hier manchmal so vor, mit der selbstbeweihräucherung

gegen vermindertes shader-aliasing hätte ich aber auch nichts einzuwenden,
dagegen ist die debatte um atis-ai doch lächerlich

noch eine rhetorische frage zum schluss: wie heißen menschen die sich über dinge aufregen die sie nicht ändern können?

Banshee18
2009-04-07, 00:15:06
Primär geht es beim Spielen ja um Spielspaß, und den kann man auch auf Konsolen haben. Am PC will ich aber zusätzlich sehr gute Bildqualität, was für mich einer der Gründe dafür ist, auf PCs zu setzen.
Spaß habe ich auch an meinem GameCube.

gegen vermindertes shader-aliasing hätte ich aber auch nichts einzuwenden,
dagegen ist die debatte um atis-ai doch lächerlich
:| Das kann ich nicht nachvollziehen. Es gibt durchaus Spiele mit wenig bis garkeinem Shaderflimmern, dafür aber AF-Flimmern.
noch eine rhetorische frage zum schluss: wie heißen menschen die sich über dinge aufregen die sie nicht ändern können?
Wie heißen Menschen, die bei allem meinen, sie können nichts ändern?

_DrillSarge]I[
2009-04-07, 00:16:45
Primär geht es beim Spielen ja um Spielspaß, und den kann man auch auf Konsolen haben. Am PC will ich aber zusätzlich sehr gute Bildqualität, was für mich einer der Gründe dafür ist, auf PCs zu setzen.
eben. und da sind künstliche beschneidungen nogo.

Spaß habe ich auch an meinem GameCube.
ich hab mehr spaß am n64 mit smash brothers = godlike :D

Raff
2009-04-07, 00:35:19
Hartz-4-AF verstärkt Shaderflimmern.

MfG,
Raff

Gast
2009-04-07, 00:40:38
Also ich habe den Vergleich. Hab hier ne alte ATI 9800 es flimmert. Mein Bruder hat ne 4870 es flimmert. Ist doch echt grausam wenn du in Bewegung bist. Wer das nicht sieht muss wirklich was an der Hornhaut haben. Tut mir leid ich sehe Unterschiede!

pest
2009-04-07, 00:47:14
Hartz-4-AF verstärkt Shaderflimmern.


mag ja sein, trotzdem fehlt mir da die empirische Beweislast, auch wenn das anderen egal ist
vielleicht auch schwieriger einen Blind-Test in Bewegung zu machen
aber's gibt ja auch Leute die den Unterschied zwischen Flac und Wav hören,
und solange es die gibt...warte ich eben auf den "Beweis"

Gast
2009-04-07, 00:51:08
@pest

Es soll auch Leute geben die noch nie ne Nvidia hatten;)

Iceman346
2009-04-07, 01:31:01
Ich kanns ja nicht 1:1 vergleichen, aber ich tu mich auch schwer Unterschiede zu sehen. Hatte bis vor nen paar Tagen noch ne GTX260 drin, aber massive Verschlechterungen in der Texturqualität beim Wechsel zur 4870 sind mir nicht aufgefallen.

Schlechter/Überscharfer Content flimmert bei beiden, so sind viele Texturen in Fallout 3 beispielsweise immer gut am flimmern. Und teilweise ists dann halt unterschiedlich wie eine Textur "reagiert", die schwarz/gelbe Umrandung um Kontrollpunkte/Capture Punkte in Team Fortress 2 beispielsweise flimmerte beispielsweise auf der GTX260 mehr.

Ich find die Diskussion um das AF bzw. die Texturschärfe relativ müßig, wichtiger sind mir da die fehlenden Spielprofile bei ATi. Das die monatlichen Treiberreleases da als ausreichende Lösung für angesehen werden find ich doch recht bedenklich.

ftw
2009-04-07, 01:45:19
Andrew: I don’t think users have much to gain by adjusting so many different settings

Dann soll ATI einfach nen zuschaltbaren Expertenmodus einbauen, damit alle Benutzergruppen zufrieden sind. Bei anderen Programmen gibt es soetwas schliesslich auch.

tEd
2009-04-07, 05:34:08
Dann soll ATI einfach nen zuschaltbaren Expertenmodus einbauen, damit alle Benutzergruppen zufrieden sind. Bei anderen Programmen gibt es soetwas schliesslich auch.

Ja genau , der Aufwand das einzbauen sollte doch eher gering sein.

Savay
2009-04-07, 06:28:25
ohje...warum zum geier nicht einfach EINE zusätzliche AI stufe...AI low oder so wo alle AF optimierungen aus sind aber der rest noch an...das kann ja wohl nicht so schwer sein :mad:

aber das problem wurde ja schon angesprochen...die ATis mögen ja durchaus unterfiltern aber der unterschied ist relativ gesehen eher subtil auch in anfälligen spielen.

Ich kanns ja nicht 1:1 vergleichen, aber ich tu mich auch schwer Unterschiede zu sehen. Hatte bis vor nen paar Tagen noch ne GTX260 drin, aber massive Verschlechterungen in der Texturqualität beim Wechsel zur 4870 sind mir nicht aufgefallen.



viele sehen halt wirklich keinen unterschied und asche auf mein haupt aber MIR geht es auch so!
dabei bin ich eigentlich recht anspruchsvoll was das angeht...und in meinem bekanntenkreis wohl der einzige der auf die BQ features wirklich wertlegt :|

der vergleich RV570 mit AI Off und HQ AF vs. RV770 mit AI on ist selbst in WoW für mich nicht eindeutig auszumachen obwohl der RV570 schon eigentlich besser filtern soll :redface: mir fallen in dem spiel sogar eher moiremuster und pixelflimmern auf das trotz 8xMSAA/AAA an manchen polygonkanten bzw schattenkanten ensteht und eher aufs konto des FSAA geht (treppen in dalaran z.B.)!
auch im vergleich mit ner GF8300 sehe ich was die texturen angeht keine echten unterschiede in bewegung.

meine NV40 filtert dagegen unter Q wirklich flimmeriger... :|

insgesamt gesehen hat die HD4850 trotz des eher schlechteren AF sowieso eher vorteile ggü. der alten X1950Pro weil das gesamtbild durch das durchweg verwendbare 8xMSAA und HQ AAA enorm ruhiger wird! :eek:

bis jetzt habe ich mit jedem grafikkarten upgrade noch an BQ gewonnen und nicht verloren...solange der trend sich fortsetzt reicht es mir persönlich auch durchaus aus. ;)

Gast
2009-04-07, 06:41:30
Aus der Sicht eines Causal-Gamers:
Ich stecke eine Grafikkarte in den Slot und stelle im Spiel die Grafikoptionen soweit ein, dass ich durchwegs flüssig spielen kann. Im Treiber-Menu war ich noch nie und wenn, dann sehe ich auch auf Screenshots nur so minimale Unterschiede, dass ich denke: Leute, sonst habt ihr aber auch keine Probleme (zB: Computerbase diese O... Shader im neuen GeForce Treiber).
Das einzige, was ich gesehen habe war das AF-Flackern der GeForce 7600GT, die ich mal kurz hatte.
Klar, ist die Politik nicht schön, aber wie schon mancher sagt: Es interessiert den User in der Regel einfach nicht, da die Unterschiede einfach zu gering sind.

BlackBirdSR
2009-04-07, 06:51:13
Was ich nicht verstehe:

Dieses Interview ist für die breite, leichtgläubige Masse an Leuten, die weder Ahnung noch Interesse haben. Zugleich wird das Interview aber nur von Leuten gelesen und diskutiert, die sehr viel Interesse und Ahnung haben. Die eigentliche Zielgruppe erreicht dieses Interview doch gar nicht...

Da wird man als fortgeschrittener User IMO für blöd verkauft und einfach nur verarscht. Wer bitte kapiert nicht, wie die Sache funktioniert?

Die breite Masse kauft anhand weniger Merkmale (Speicher, Name, Spruch im Media-Markt) und kümmert sich nicht im geringsten um solche Details wie AI oder Crossfire. Die Leute, die damit sehr wohl in Kontakt kommen, sind inzwischen so aufgeklärt, dass jedes geschöne Interview doch nur negativ aufgenommen werden kann. Also wer hat hier Realitätsverlust?

Gast
2009-04-07, 07:10:55
Mich nervt mehr wie mikroruckler oder mieses AF o.ä dieses verschwommene cleartype was sich wie die Seuche ausbreitet und sich nicht abstellen lässt.

Manche spielen sogar immer noch ohne AA weil sie mit solchen ingame Einstellungen schon überfordert sind und schrauben maximal die Auflösung auf ihre native. Erzähl so einen mal was Bildqualität, das marketinggeblubber mit great gaming expiriänz und lange Balken kapieren sie aber.

nagus
2009-04-07, 07:59:33
sorry, ihr habts anscheinend alle keine anderen probleme als sich über sowas lächerlich unwichtigem zu streiten und aufzuregen. wie kann man sich nur über solche kleinigkeiten so aufregen?

die ganze diskussion hier ist sowas von unsinnig, wahnsinn. selten so eine sinnlos diskussion verfolgt.

was ATI oder AMD macht ist absolut ihm rahmen! das bisschen texturflimmern bei AI auf "advanced" stört mich nicht im geringsten und wenns wirklich mal ins auge sticht schalt ich einfach AI OFF. fertig.

was irgend so ein ATI marketing fuzzzi verzapft ist doch vollkommen harmlos. wie das alles hier breitgetreten wird ist wirklich lachhaft. hauptsache man hat irgendwas um sich sinnlos zu beschweren. typisch

Raff
2009-04-07, 09:33:12
Das Problem ist, dass A.I. "Off" nicht "off" ist, sondern weiter "optimiert". Das wird hier angekreidet – der Kunde wird bevormundet. Wenn du das nicht siehst, ist das schön für dich und in einem gewissen Rahmen beneidenswert, da man so sehr viel Geld sparen kann. Die Fakten sind allerdings nicht zu leugnen.

MfG,
Raff

BlackBirdSR
2009-04-07, 09:36:01
Lieber Nagus,
mit Enttäuschung musste ich deinen Ausführungen folgen. Es kann nicht deine Entscheidung sein, wer Probleme hat und wer nicht. Gleichso, darf es nicht in deiner Bewertung liegen, ob etwas für andere Personen lächerlich oder unwichtig ist. Uns definiert die unterschiedliche Auffassung von Tatsachen, die auch durch unterschiedliche Bevorzugung beeinflusst wird.

Zugleich unterstelle ich jedem Menschen genug Verstand und anstehende Aufgaben, dass er sich nicht mit "sinnlosen" Sachen aufhalten muss. Deshalb kann ich leider nicht nachvollziehen, warum Du hier so viel Energie verschwenden könntest.

Glücklicherweise kann noch jeder Mensch für sich selbst entscheiden, was im Rahmen ist oder nicht. Das ist einer der Grundpfeiler dieser Gesellschaft und sollte unbedingt erhalten bleiben. Eine Tatsache, die Nachbesserung bedarf, ist zugleich die Basis aus der Fortschritt entsteht. Wie Du bereits richtig angeführt hast, stören Dich bestimmte Tatsachen nicht. Genau so, muss Du aber anderen zugestehen, dass die das stören könnte. Auch wenn eine bestimmte Konstellation dieses Problem nicht aufzeigt, ist für manche bereits die Möglichkeit, benachteiligt zu werden, ein entscheidender Faktor.

Vernachlässigen darf man dabei unter keinen Umständen, dass wichtige Funktionen teilweise an AI gebunden sind und somit Deine Ausführung nicht vollständig korrekt ist.

Desweiteren sind ATIs Pressesprecher nicht ohne Grund die Kommunikation zur Kundenbasis. Ihr Wort hat direkte Auswirkungen auf das Image der ganzen Firma. Es ist demnach sehr wohl wichtig, was solch eine Person von sich gibt. Wichtiger als das, was so mach anderer von sich gibt. Bisher war mir nicht bekannt, dass Pressesprecher ein Beruf ist, den man abschaffen kann, da völlig ohne konkrete Funktion.

Probleme und Missstände müssen diskutiert werden, da sonst keine Basis existiert, sie aus der Welt zu schaffen. Ob das nun ein politisches Problem, ein technischer Tatbestand oder eine Aussage ist, alles besitzt die gleiche instutitionelle Bedeutung. Man beschwert sich nicht über irgendetwas, man beschwert sich über etwas, das interessiert, ja vielleicht sogar am Herzen liegt. Typisch ist dies in der Tat, denn so funktioniert der Mensch in Politik, im Krieg, beim deutschen liebsten Auto und selbst in der Erziehung.

Mit tiefstem Bedauern muss ich daher feststellen, dass Du

PCGH_Carsten
2009-04-07, 09:39:30
Viele Reviewseiten, wie CB, 3DC, PCGH sollten sich mit dieser Thematik mal explizit beschäftigen. Also ein paar etwas kritischere Reviews veröffentlichen. Mir gehts gar nicht darum, dass wir ATI/AMD zwingen auf ein höheres BQ-Niveau zu gehen, aber die User und Reviewer sollten die Wahl haben, welche Einstellungen sie nehmen sollten.

Das haben wir gemacht, bereits 2005/2006 in Reviews, später (2007/2008) in mehreren Berichten zur Bildqualität und sind dafür massiv geflamed und kritisiert worden, wir wären gekauft, parteiisch, man würde keinen Unterschied sehen und was weis ich nicht alles - unter anderem auch hier im 3DCenter.

Exxtreme
2009-04-07, 09:40:20
Wäre ein TBDR hier eine Lösung? Wäre doch perfekt für SFR, oder?
SFR ist prinzipiell eine "Lösung" für dieses Problem. Ich weiss aber nicht ob das so einfach zu implementieren ist. Da Grafikkarte A die berechneten Daten von Grafikarte B benötigen könnte. Zu 3dfx-Zeiten gab es die Problematik nicht, jetzt schon.

pest
2009-04-07, 10:02:34
Die Fakten sind allerdings nicht zu leugnen.


gibt es eigentlich ingame a/b-vergleichvideos zwischen nv-hq und atis texture-filterung, vor allem modernere games?

Exxtreme
2009-04-07, 10:33:36
sorry, ihr habts anscheinend alle keine anderen probleme als sich über sowas lächerlich unwichtigem zu streiten und aufzuregen. wie kann man sich nur über solche kleinigkeiten so aufregen?

die ganze diskussion hier ist sowas von unsinnig, wahnsinn. selten so eine sinnlos diskussion verfolgt.

was ATI oder AMD macht ist absolut ihm rahmen! das bisschen texturflimmern bei AI auf "advanced" stört mich nicht im geringsten und wenns wirklich mal ins auge sticht schalt ich einfach AI OFF. fertig.

was irgend so ein ATI marketing fuzzzi verzapft ist doch vollkommen harmlos. wie das alles hier breitgetreten wird ist wirklich lachhaft. hauptsache man hat irgendwas um sich sinnlos zu beschweren. typisch
Problem ist, selbst wenn du AI auf "off" stellst, ist es weiterhin aktiv.

dargo
2009-04-07, 10:35:39
gibt es eigentlich ingame a/b-vergleichvideos zwischen nv-hq und atis texture-filterung, vor allem modernere games?
Videos sind dafür imho ungeeignet. Durch die Kompression wird zuviel Bildmaterial vernichtet.

Raff
2009-04-07, 10:49:59
Videos sind dafür imho ungeeignet. Durch die Kompression wird zuviel Bildmaterial vernichtet.

Fraps komprimiert nicht, deswegen sind die entstehenden Clips auch so abartig groß. Das taugt sehr wohl, wenn Fullsize-Capturing betrieben wird. :)

MfG.
Raff

Nakai
2009-04-07, 11:00:45
Das haben wir gemacht, bereits 2005/2006 in Reviews, später (2007/2008) in mehreren Berichten zur Bildqualität und sind dafür massiv geflamed und kritisiert worden, wir wären gekauft, parteiisch, man würde keinen Unterschied sehen und was weis ich nicht alles - unter anderem auch hier im 3DCenter.

Das weiß ich, aber mir ging es explizit, dass sich mal mehrere Reviewseiten zusammentun sollten um dieses Problem mehr Gewicht zu verleihen.

Ich persönlich habe nichts gegen AI, ich sehe kaum Unterschied, aber seit ich mal an einer Nvidia gearbeitet habe und deren Einstellungsmöglichkeiten gesehn habe, würde ich dasselbe gerne auf einer ATI haben. Texturoptimierungen müssen deaktivierbar sein, so wie alle Einstellungen auf einer Grafikkarte. Das ist Bevormundung des Bürgers und sowas will man auch nicht in der Politik haben. ;)

Videos sind dafür imho ungeeignet. Durch die Kompression wird zuviel Bildmaterial vernichtet.

Das ist imo das größte Problem, sonst glaubt es keiner.


mfg Nakai

V2.0
2009-04-07, 11:05:34
ATI hat völlig Recht. >95% der User sind mit AI gut bedinet. Es enthält Fixes und Optimierungen um so einen guten Kompromiss zwischen BQ und FPS zu finden. Einzig AI-off muss noch entfernt werden, damit diese sinnlosen Vergleiche entfallen.

Schöm, dass ATI sich nicht von wenigen Freaks von ihrer Linie abbringen läst. Viel FPS fürs Geld, dass bietet ATI und das machen sie verdammt gut.

deekey777
2009-04-07, 11:06:28
Problem ist, selbst wenn du AI auf "off" stellst, ist es weiterhin aktiv.
Noch fieser wäre, wenn technisch nichts Besseres möglich wäre.

Gast
2009-04-07, 11:11:51
Bei mir wurde eine 8800gts 640mb vor 3mon. gegen eine Hd4870 1024mb ausgetauscht und ich kann keinen unterschied festellen,bei beiden Karten ist das Bild gut.

Aquaschaf
2009-04-07, 11:14:33
ATI hat völlig Recht. >95% der User sind mit AI gut bedinet. Es enthält Fixes und Optimierungen um so einen guten Kompromiss zwischen BQ und FPS zu finden. Einzig AI-off muss noch entfernt werden, damit diese sinnlosen Vergleiche entfallen.

Schöm, dass ATI sich nicht von wenigen Freaks von ihrer Linie abbringen läst. Viel FPS fürs Geld, dass bietet ATI und das machen sie verdammt gut.

Toll an einem PC ist eigentlich, dass man auch Spiele betreiben kann die schon 10 Jahre alt sind. Und dort sind beispielsweise Filteroptimierungen die bei neuen Spielen einen Kompromiss zwischen BQ und FPS liefern sollen absolut witzlos. Dazu sieht das öfters wirklich beschissen aus. Soll ich jetzt jedes Mal wenn ich etwas aus der Pre-Shader-Ära spielen will die Grafikkarte tauschen?

Spasstiger
2009-04-07, 11:24:18
Problem ist, selbst wenn du AI auf "off" stellst, ist es weiterhin aktiv.
Richtig, auch Catalyst AI off flimmert:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6926042&postcount=27

puntarenas
2009-04-07, 11:26:38
Andrew: I don’t think users have much to gain by adjusting so many different settings – one of our key messages behind Catalyst AI is that every optimization we do only enhances the performance of applications with absolutely no degradation in image quality, and users can verify this for themselves by comparing an application with Catalyst AI on vs. off.
Spin Doctor, ich bin zutiefst beleidigt. Natürlich sollte man den Crapfilter nicht mit sich selbst vergleichen, wie er nahelegt, sondern mit der Referenz. Allerdings muss man solchen Quark nur beständig genug in eine Diskussion einfließen lassen, die Verwirrung potenziert sich und am Ende kloppen sich die Lager und begraben alle Fakten unter ihren Flamewars.

Was ich mir schon lange wünsche sind hübsche Vergleichsvideos. Hier gibt es Leute, die geeignete Szenen heraussuchen können und die im Stande sind, die Videos aufzuzeichnen und zu schneiden (vielleicht teilwiese Split-Screen, teilweise Wechsel von A.I. zu NV HQ). Dann noch einen Miniartikel und einen 3DCenter-Torrent, ich würde seeden bis zum jüngsten Gericht. Vielleicht sollte man die Videos mit englischen Untertiteln versehen, dann könnte man auch noch gleich englische Foren vollspammen. Okay, ein Problem könnte der Zeit- und Arbeitsaufwand sein, aber das blende ich mal aus. :tongue:


Eigentlich sollte man im Kaufberatungsforum konsequent von ATi abraten.
Warum so negativ, man sollte explizit zu Nvidia raten:

Für die Nvidia-Lösung spricht:
- besseres AF
- freie Wahl ob TMSAA oder TSSAA
- SuperSampling und Hybrid-Modi
- kein Exe-Renaming (einige Spiele oder Distributionsformen erlauben dies nicht), sondern Kompatibilitätsbits

Das könnte man vielleicht scriptgesteuert in jeden Kaufberatungsthread posten.:biggrin:

Mr. Lolman
2009-04-07, 11:27:33
Richtig, auch Catalyst AI off flimmert:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6926042&postcount=27

Insofern hat ja Andrew damit recht, wenn er behauptet, dass AIon vgl zu AIoff die BQ nicht sichtbar verschlechtert. ;)

Exxtreme
2009-04-07, 11:28:37
Warum so negativ, man sollte explizit zu Nvidia raten:

Für die Nvidia-Lösung spricht:
- besseres AF
- freie Wahl ob TMSAA oder TSSAA
- SuperSampling und Hybrid-Modi
- kein Exe-Renaming (einige Spiele oder Distributionsformen erlauben dies nicht), sondern Kompatibilitätsbits

Das könnte man vielleicht scriptgesteuert in jeden Kaufberatungsthread posten.:biggrin:
Und du findest mit Sicherheit wiederum Punkte, die für AMD und gegen NV sprechen. Von daher bringt sowas nichts ausser Flamewars.

robbitop@work
2009-04-07, 11:32:39
SFR ist prinzipiell eine "Lösung" für dieses Problem. Ich weiss aber nicht ob das so einfach zu implementieren ist. Da Grafikkarte A die berechneten Daten von Grafikarte B benötigen könnte. Zu 3dfx-Zeiten gab es die Problematik nicht, jetzt schon.
Im Prinzip arbeitet Makrotiling so. PVR nutzt dies um im SGX 543 nahezu linear alles skalieren. Sogar die Rasterleistung. Das geht, weil ein TBDR im Voraus schon die Szene kennt. Jedoch muss auch da eine latenzarme und sehr breite Verbindung zwischen den Kernen bestehen. Beim SGX 543MP ist das kein Problem, da die Kerne alle in einem DIE sitzen. So muss man nur einen Kern entwickeln und setzt den am Ende mehrfach zusammen. Die Tapeouts spart man deshalb natürlich trotzdem nicht.

deekey777
2009-04-07, 11:35:42
Insofern hat ja Andrew damit recht, wenn er behauptet, dass AIon vgl zu AIoff die BQ nicht sichtbar verschlechtert. ;)
Und irgendwann werden wir den Punkt erreichen, wo die eine Seite behauptet, dass deren Flimmern besser ist als das der Konkurrenz.

y33H@
2009-04-07, 11:40:50
Viel FPS fürs Geld, dass bietet ATI und das machen sie verdammt gut.Man kauft sich idR eine neue Grafikkarte weil die Leistung nicht reicht um Spiel YX mit einer bestimmten Optik flüssig(er) zu zocken. Wenn man nun von einer 8800 GT auf eine HD 4870 wechselt, hat man zwar mehr Fps, aber eine schlechtere Bildqualität :uclap:

Zumindest die Option, alles an Optimierungen zu deaktivieren sollte vorhanden sein. Offenbar hat man bei AMD aber Angst, dass die eigenen Karten dann abkacken (und das imo zu Recht). Mit 1.200 GFLOPS (die man in der Praxis btw nicht erreicht) lässt sich halt super PR machen ("bla mehr als nV bla"), mit gescheiter Bildqualität aber leider nicht - und wenn man es macht (Crysis), dann wird geweint und es heißt "schei0e programmiert" und der Verkauf floppt.

Und so Leute wie du unterstützen diese "Hauptsache langer Schwanz Balken"-Metalität; die Technik mit der das erreicht wird, interessiert offenbar nicht. Selbiges gilt für CF und SLI: Nominell hohe Fps, aber ein besseres Spielgefühl ist oft nicht vorhanden - im Gegenteil. Nvidia ist das Problem der BQ angegangen und auch das der µRuckler, AMD dagegen verharrt und die ganzen schei0 Fanboys da draußen unterstützen das auch noch und flamen die nieder die das zu Recht kritisieren.

Das ist mehr als traurig ;(

EDITWarum so negativ, man sollte explizit zu Nvidia raten:Mach ich schon (http://www.computerbase.de/forum/showthread.php?t=243085):

Aktuelle Modelle der 8000-/9000- und GTX-200-Serie bieten folgende Vorteile:
• Beste Bildqualität dank OGSSAA- und Hybrid-Modi sowie Ambient Occlusion
• Optionales High-Quality-AF mit deaktivierten Optimierungen
• CUDA und damit GPU-beschleunigtes PhysX
• Freie Wahl zwischen TSSAA und TMSAA
• Mehr Optionen bei MPGU-Nutzung
• Häufigere Treiber-Updates dank Betas

Und ja, ich benenne auch AMDs Vorteile :tongue:

Raff
2009-04-07, 11:42:21
Und irgendwann werden wir den Punkt erreichen, wo die eine Seite behauptet, dass deren Flimmern besser ist als das der Konkurrenz.

Das geht jetzt schon: Nvidias Flimmern ist auf Quality "besser", weil es weniger ist als das von Ati mit A.I. Gewiss bestätigen auch hier Ausnahmen die Periode, aber in allen aktuellen Spielen, die ich in den letzten Monaten testete, ist Q "flimmerfreier" als A.I. Standard. Liste:

- Crysis Warhead
- Call of Duty 5
- GTA 4
- Gothic 3 GD
- Fallout 3
- Stalker: Clear Sky
- UT3
- WoW: Lich King

Und ich könnte für jedes einen Vergleich bauen, bei dem A.I. alt/scheiße/krebsig aussieht. Fehlt "nur" Zeit. ;)

MfG,
Raff

Mr. Lolman
2009-04-07, 11:58:21
Das geht jetzt schon: Nvidias Flimmern ist auf Quality "besser", weil es weniger ist als das von Ati mit A.I. Gewiss bestätigen auch hier Ausnahmen die Periode, aber in allen aktuellen Spielen, die ich in den letzten Monaten testete, ist Q "flimmerfreier" als A.I. Standard. Liste:

- Crysis Warhead
- Call of Duty 5
- GTA 4
- Gothic 3 GD
- Fallout 3
- Stalker: Clear Sky
- UT3
- WoW: Lich King

Und ich könnte für jedes einen Vergleich bauen, bei dem A.I. alt/scheiße/krebsig aussieht. Fehlt "nur" Zeit. ;)

MfG,
Raff

Nur bist du auch in deiner Wahrnehmung etwas vorbelastet. Weisst du noch, wie du bei Crysis gerade dem unschärfsten Bild (=ohne AF) die beste BQ attestiert hast?.

Atis AF flimmert nicht nur mehr als bei NV (was ja hoffentlich keiner abstreiten will), sondern zeigt auch schärfere Texturen (= mehr Details) - und daran scheiden sich die Geister. ZB. ist mir selbst ATis schärferes (und ja auch flimmrigeres) AF bei Assassins Creed noch ein bisschen zu unscharf:
Klick (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6936079&postcount=166)

Das Problem ist der Kompromiss zw. Texturschärfe und Flimmrigkeit. Ich hätt gern die Flimmerfreiheit von NV-HQ bei ATis Texturschärfe. Ohne SSAA spielts das aber leider nicht. Und (ganzzahliges) SSAA ist wiederum recht teuer.

Deswegen spiel ich auch ganz gern mit nem HD-Ready Beamer übersteuert von 1920x1080 -> 1280x720, und hab einen imo wunderbaren Kompromiss zw Texturschärfe/Ruhe. Crysis zB zock ich mit Edge-AA 2 und LOD-1 und POM, was dann in einer solchen Qualität resultiert: Klick (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6795048&postcount=6)

GTAIV spiel ich dementsprechend auch mit Kantenglättung...




Ergo: Besseres AF? Ja gerne! Weitaus lieber wär mir aber treiberseitiges Downscaling.

Gast
2009-04-07, 12:04:28
• Häufigere Treiber-Updates dank Betas


Wenn willst du damit verarschen? Ein Blick in die Treiberthreads genügt wie gut das ist :rolleyes:

Banshee18
2009-04-07, 12:07:24
ATI hat völlig Recht. >95% der User sind mit AI gut bedinet. Es enthält Fixes und Optimierungen um so einen guten Kompromiss zwischen BQ und FPS zu finden. Einzig AI-off muss noch entfernt werden, damit diese sinnlosen Vergleiche entfallen.

Schöm, dass ATI sich nicht von wenigen Freaks von ihrer Linie abbringen läst. Viel FPS fürs Geld, dass bietet ATI und das machen sie verdammt gut.
Schön, dass du eine Firma für einen Mangel an einem Produkt lobst.
Bei nV gibt es auch Optimierungen, die aber unabhängig von der AF-Qualität sind. Die Frage ist, warum man überhaupt einen Schalter brauchen sollte, der sinnvolle Optimierungen (z.B. Shaderreplacements ohne Bildqualitätsverlust) abschaltet.

Spasstiger
2009-04-07, 12:07:34
Ergo: Besseres AF? Ja gerne! Weitaus lieber wär mir aber treiberseitiges Downscaling.

Das geht doch schon:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=450226

Und nein, mein Bildschirm macht das definitiv nicht. Habs auch schon an einer GeForce 8800 GT unter Windows Vista an einem ganz anderen Bildschirm hinbekommen.

y33H@
2009-04-07, 12:10:01
Wenn willst du damit verarschen? Ein Blick in die Treiberthreads genügt wie gut das istIch selbst habe nur ganz ganz selten Probleme mit GF-Betas *Schulter zuck* Zumindest stehen zum Launch neuer Titel Performance-Treiber bereit und es wird ständig gefixt und optimiert. Bei AMD muss ich immer warten und dann schleifen die doch tatsächlich Dinge wie den AF-Bug wochenlang mit sich, die D3D10-Optis aber sind während der Zeit außen vor. Großes Kino.

Exxtreme
2009-04-07, 12:18:26
Schön, dass du eine Firma für einen Mangel an einem Produkt lobst.
Bei nV gibt es auch Optimierungen, die aber unabhängig von der AF-Qualität sind. Die Frage ist, warum man überhaupt einen Schalter brauchen sollte, der sinnvolle Optimierungen (z.B. Shaderreplacements ohne Bildqualitätsverlust) abschaltet.
Die Frage ist ob man das Ganze tatsächlich einen Mangel nennen kann. Soviel ich weiss gibt es da keinerlei Standards wie das Endergebnis aussehen soll.

dargo
2009-04-07, 12:23:34
Fraps komprimiert nicht, deswegen sind die entstehenden Clips auch so abartig groß. Das taugt sehr wohl, wenn Fullsize-Capturing betrieben wird. :)

Raff, auch Fraps komprimiert. Zugegeben, das Bildmaterial ist damit schon brauchbar aber eben nicht perfekt. Nur wer will diese gigantischen Datenmengen hochladen?

Gast
2009-04-07, 12:25:17
Ich selbst habe nur ganz ganz selten Probleme mit GF-Betas *Schulter zuck* Zumindest stehen zum Launch neuer Titel Performance-Treiber bereit und es wird ständig gefixt und optimiert. Bei AMD muss ich immer warten und dann schleifen die doch tatsächlich Dinge wie den AF-Bug wochenlang mit sich, die D3D10-Optis aber sind während der Zeit außen vor. Großes Kino.
Der Grid Bug,der das Game unspielbar macht ist auch schon seit dem letzen Treiber vorhanden,ansonsten steht genug über die qualität der Treiber in den entsprechenden Threads nicht umsonst wird immer wieder gerne auf den Whql zurück gewechselt

puntarenas
2009-04-07, 12:28:12
Raff, auch Fraps komprimiert. Zugegeben, das Bildmaterial ist damit schon brauchbar aber eben nicht perfekt. Nur wer will diese gigantischen Datenmengen hochladen?
3DCenter goes Torrent, endlich mal legale Inhalte für die Piratenbucht. Damit sich das zu seeden lohnt müsste es aber IMHO wie gesagt ein fertig geschnittenes Video sein, keine Einzelvideos von verschiedenen Usern auf verschiedenen Rechnern zusammengetragen. :up:

_DrillSarge]I[
2009-04-07, 12:30:30
Dieses Interview ist für die breite, leichtgläubige Masse an Leuten, die weder Ahnung noch Interesse haben. Zugleich wird das Interview aber nur von Leuten gelesen und diskutiert, die sehr viel Interesse und Ahnung haben. Die eigentliche Zielgruppe erreicht dieses Interview doch gar nicht...

Da wird man als fortgeschrittener User IMO für blöd verkauft und einfach nur verarscht. Wer bitte kapiert nicht, wie die Sache funktioniert?
ist schon lustig. ich meine, wenn man wenigstens irgendwelche "gründe" liefern würde. man sagt aber "so und so, weil das so ist" :|.

imo ist es dieselbe diskussion wie schon vorher. trennung ai von bildqualitätsmindernden maßnahmen.

reserven sind ja da, man sieht ja wie ein neuer treiber aus dem nichts manches spiel beschleunigt (gilt jetzt nicht, wenn spiele aufgrund von bugs etc. miserabel laufen). sobald die konkurrenz eine schnellere lösung bringt, gibts auf einmal "crysis warhead perfomance +50%". :confused:
das sind eindeutig falsche proritäten.

Sonyfreak
2009-04-07, 12:31:20
Videos sind dafür imho ungeeignet. Durch die Kompression wird zuviel Bildmaterial vernichtet.Die richtigen Härtefälle erkennt auch man problemlos auf komprimierten Videos mit nur halber Auflösung. Wenn man mal weiß wohin man schauen muss, dann sieht man das Problem auch bei vielen anderen Spielen.

mfg.

Sonyfreak

y33H@
2009-04-07, 12:31:27
@ Gast

Beta ist halt Beta. Es ist eine sehr schöne optionale Sache. Bei AMD hattest du dagegen zwei Monate lang nur die Wahl zwischen DX10-Optis + AF-Bug oder kein AF-Bug, dafür lahm. Dann lieber Betas ... und nur weil ein Game Probs bereitet ist der Treiber ja nicht gleich schei0e.

Raff
2009-04-07, 12:32:39
Weisst du noch, wie du bei Crysis gerade dem unschärfsten Bild (=ohne AF) die beste BQ attestiert hast?

Das habe ich nie.

Ich habe die weitgehend flimmerfreie Geforce-BQ über die der flimmernd scharfen Radeon gestellt.

MfG,
Raff

dargo
2009-04-07, 12:36:36
Warum so negativ, man sollte explizit zu Nvidia raten:
Für die Nvidia-Lösung spricht:
- besseres AF
- freie Wahl ob TMSAA oder TSSAA
- SuperSampling und Hybrid-Modi
- kein Exe-Renaming (einige Spiele oder Distributionsformen erlauben dies nicht), sondern Kompatibilitätsbits

Wobei diese beiden Punkte nicht offiziell von NV supportet werden. Dass wir es nutzen können haben wir abseits der Hardware nur Grestorn und allen anderen die am nHancer beteiligt sind zu verdanken.

Raff
2009-04-07, 12:39:06
Nvidia lässt die Optionen aber im Treiber und entwickelt sie sogar weiter, anstatt sie zu kicken. Ohne Quelle könnte kein Tool der Welt erfolgreich nach Wasser graben.

MfG,
Raff

puntarenas
2009-04-07, 12:42:34
Nvidia lässt die Optionen aber im Treiber und entwickelt sie sogar weiter, [...]
Jepp und ATI wäre auch niemand böse, wenn man Optimierungen, Kompatibilitätsmodi und zusätzliche Modi nur via Registry erreichen könnte. Dann könnten sie das CCC ruhig noch "intelligenter" machen, ein Fremdtool für schnöde Handarbeit wäre bestimmt schnell zur Stelle.

Gast
2009-04-07, 12:45:28
Ich selbst habe nur ganz ganz selten Probleme mit GF-Betas *Schulter zuck* Zumindest stehen zum Launch neuer Titel Performance-Treiber bereit und es wird ständig gefixt und optimiert. Bei AMD muss ich immer warten und dann schleifen die doch tatsächlich Dinge wie den AF-Bug wochenlang mit sich, die D3D10-Optis aber sind während der Zeit außen vor. Großes Kino.

Für den Kunden ist das aber definitiv schlechter. Der will sich gar nicht mit sowas herumplagen. Für den einfachen Kunden ist die Vorgehensweise von Ati daher die bessere. Einmal im Monat kommt ein Treiber und fertig. Wobei das natürlich auch nur etwas versiertere Kunden wissen. Bei Nvidia ist es ja eher so, dass mal ein Treiber für ein neues Spiel erscheint, dann paar Tage später noch ein Beta-Treiber der vielleicht älter datiert ist als der Treiber für das Spiel, jedoch hier und da vielleicht etwas bessere Leistung (= mehr Punkte im 3D Mark!!111) liefert und wenn all das auch nichts bringt, dann könnte ja noch ein Treiber der Boardpartner kommen. Das ist alles, nur nicht durchsichtig. Unregelmäßige Beta-Treiber sind kein Vorteil.

Es ist übrigens verständlich, wenn der Ati-Mensch behauptet, dass die eine Option für den Kunden genüge bzw. völlig ausreichend ist. Einige hier haben ja nicht einmal die leiseste Vorstellung, wie unglaublich DUMM "der Kunde" sein kann. Man hört zwar immer so Geschichten und liest hier und da mal bei DAU-Alarm und schmunzelt ein wenig, aber das ist teilweise nur die Spitze des Eisberges. Daher ist, wie gesagt, durchaus Verständnis da.
Jedoch ist das eigentlich eher ein Problem des Einzelhandels bzw. der Hotlines der Boardpartner und keines, mit dem sich Ati sonst herumplagen muss. Also wieder eher etwas fadenscheinig, diese Aussage.

Klar ist jedoch, dass der Markt nicht ausschließlich aus Vollidioten besteht. Wobei man noch gucken muss, ob man die technisch versierten Fanboys nicht doch ... ehja. Jedenfalls fährt Nvidia eindeutig die bessere Schiene. Man sieht allerdings auch keinen Priester oder gar Messias am Horizont, der Ati diesen Unsinn austreiben könnte. Ich gehe allerdings auch davon aus, dass es einige technische Hintergründe haben wird. Vielleicht bedarf es bei Ati ein komplett neues CCC, weil das derzeitige einfach an einigen Dingen vorbeiprogrammiert wurde. Die Gurus hier könnten ja vielleicht in etwa abschätzen, wie aufwändig eine Änderung in diesem Maße derzeitig wäre. Also das loslösen von Profilen und die krasse Optimierung.

Wo sind Nvidias Bullshit-Papers, wenn man sie mal *wirklich* braucht? Weshalb gehen die Online-Magazine vergleichsweise brav mit Ati um, wo Nvidia für den G70 doch gesteinigt wurde? Muss unbedingt immer das 3DCenter den Stein ins rollen bringen? (ein Kompliment!)
Wenn es dafür nicht bereits längst zu spät ist(?).

Gast
2009-04-07, 12:45:59
@ Gast

Beta ist halt Beta. Es ist eine sehr schöne optionale Sache. Bei AMD hattest du dagegen zwei Monate lang nur die Wahl zwischen DX10-Optis + AF-Bug oder kein AF-Bug, dafür lahm. Dann lieber Betas ... und nur weil ein Game Probs bereitet ist der Treiber ja nicht gleich schei0e.

Wie wahr wie wahr^^

dargo
2009-04-07, 12:52:49
Die richtigen Härtefälle erkennt auch man problemlos auf komprimierten Videos mit nur halber Auflösung. Wenn man mal weiß wohin man schauen muss, dann sieht man das Problem auch bei vielen anderen Spielen.

Natürlich, das will ich auch gar nicht abstreiten. Mit einem perfekten Bildmaterial würde imo aber der Unterschied noch extremer in Bewegung auffallen. Wie lang müssen die Videos eigentlich sein? Ich möchte nur daran erinnern, dass Fraps in 1680x945 @35fps für eine Minute (je nach Quelle) gerne mal ~2GB braucht. Also ich möchte das trotz DSL 16000 nicht hochladen müssen. :D

Mr. Lolman
2009-04-07, 12:53:13
Das habe ich nie.

Indirekt schon. Du hast AIoff die beste BQ bescheinigt, jedoch bekamen die POM-Oberflächen mit AIoff anscheinend garkein AF mehr ab - und waren damit dementsprechend unschärfer als AFoff (also AppAF?). Gemeint sind diese Bilder: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6672023#post6672023 (ff)

Ich habe die weitgehend flimmerfreie Geforce-BQ über die der flimmernd scharfen Radeon gestellt.

MfG,
Raff

Das auch ;)

y33H@
2009-04-07, 12:59:34
Der will sich gar nicht mit sowas herumplagen [...] Unregelmäßige Beta-Treiber sind kein Vorteil. Sagst du. Der DAU installiert sich idR imo nicht mal neue Treiber - und die, die Ahnung haben, die freuen sich imo über Betas. Ich etwa freue mich über Boost- oder Feature-Betas.Einige hier haben ja nicht einmal die leiseste Vorstellung, wie unglaublich DUMM "der Kunde" sein kann.Ich habe schon sehr sehr viel dummes in Foren gesehen und trotzdem wird das mit schöner Regelmäßigkeit getoppt :usad:Weshalb gehen die Online-Magazine vergleichsweise brav mit Ati um?Unterschätze niemals den Hass und den Aufschrei einer Rotte AMD-Fanboys ;D

Sonyfreak
2009-04-07, 13:37:09
Natürlich, das will ich auch gar nicht abstreiten. Mit einem perfekten Bildmaterial würde imo aber der Unterschied noch extremer in Bewegung auffallen. Wie lang müssen die Videos eigentlich sein? Ich möchte nur daran erinnern, dass Fraps in 1680x945 @35fps für eine Minute (je nach Quelle) gerne mal ~2GB braucht. Also ich möchte das trotz DSL 16000 nicht hochladen müssen. :DMan könnte ja beispielsweise die Bildschirmauflösung auf 1024x768 verändern und nur 30fps einstellen. Die Videos müssen ja theoretisch nur 5 bis 10 Sekunden lang sein. Lassen sich die Videos mit 7-zip oder so nicht verlustfrei komprimieren?

Edith: Ein testweise aufgenommenes Video mit diesen Einstellungen brauch für 7 Sekunden etwa 122MB. Mit 7-zip auf Ultra kann man die Größe auf 112MB stauchen.

mfg.

Sonyfreak

V2.0
2009-04-07, 13:40:49
Schön, dass du eine Firma für einen Mangel an einem Produkt lobst.
Bei nV gibt es auch Optimierungen, die aber unabhängig von der AF-Qualität sind. Die Frage ist, warum man überhaupt einen Schalter brauchen sollte, der sinnvolle Optimierungen (z.B. Shaderreplacements ohne Bildqualitätsverlust) abschaltet.

Es ist kein Mangel, es ist eine andere Entscheidung. ATI beitet dem Kunden ein kompaktes Paket aus Karte und Treiber, das wenig Pflege bedarf und bei dem die einzigen Einstellungen, die ein Kunde vornehmen muss, Auflösung sowie der Grad an AA und AF ist.

AI-off muss allerdings imho noch aus dem Treiber entfernt werden. Es führt nur zu Verwirrung und sinnfreien Vergleichen.

PS. ich habe selber ne GeForce, aber da bedeutet nicht dass ich nicht den Sinn hinter dem Konzept von ATI sehen könnte.

y33H@
2009-04-07, 13:50:42
das wenig Pflege bedarfWarum nicht gleich auch die Kantenglättung und den anisotropen Filter dem Treiber überlassen? Wir sind ja in der Praxis schon teils soweit: Wenn man Adaptive-AA wählt, entscheidet der Treiber (nicht der User!) je nach Versionsnummer und Spiel ob er die Alphas mit MSAA oder SSAA angeht :ucrazy2: Bei nV kann ich alles frei wählen.

Ja, mehr Optionen mögen für den ein oder anderen verwirrend sein ... das ist aber kein Argument, diese dem User vor zu enthalten.

Sonyfreak
2009-04-07, 13:50:50
PS. ich habe selber ne GeForce, aber da bedeutet nicht dass ich nicht den Sinn hinter dem Konzept von ATI sehen könnte.Ich verstehe das Konzept von AMD auch sehr gut. Sie bieten durch schlechtere Bildqualität längere Balken bei den Benchmarks. Oder zumindest gewinnt man als Anwender schnell diesen Eindruck wenn man sieht wie sich die Firma sträubt, einen winzigen Knopf in die Treiber einzubauen.

mfg.

Sonyfreak

Gast
2009-04-07, 13:58:41
Eigentlich sollte man im Kaufberatungsforum konsequent von ATi abraten.


Ja bitte mach das. Monopol FTW!

derguru
2009-04-07, 14:05:19
keine sorge der einfluss ist gernig,geringer,unbedeutend;)

Gast
2009-04-07, 14:06:46
Ich verstehe das Konzept von AMD auch sehr gut. Sie bieten durch schlechtere Bildqualität längere Balken bei den Benchmarks. Oder zumindest gewinnt man als Anwender schnell diesen Eindruck wenn man sieht wie sich die Firma sträubt, einen winzigen Knopf in die Treiber einzubauen.

mfg.

Sonyfreak


Wie gesat, vielleicht ist es durch ihre womöglich verkorkste Treiberarchitektur gar nicht mehr so einfach? Es wäre jedenfalls schön, wenn es so wäre ...

Exxtreme
2009-04-07, 14:10:14
Im Prinzip arbeitet Makrotiling so. PVR nutzt dies um im SGX 543 nahezu linear alles skalieren. Sogar die Rasterleistung. Das geht, weil ein TBDR im Voraus schon die Szene kennt. Jedoch muss auch da eine latenzarme und sehr breite Verbindung zwischen den Kernen bestehen. Beim SGX 543MP ist das kein Problem, da die Kerne alle in einem DIE sitzen. So muss man nur einen Kern entwickeln und setzt den am Ende mehrfach zusammen. Die Tapeouts spart man deshalb natürlich trotzdem nicht.
Es reicht nicht nur die Szene zu kennen. Stell dir vor, du hast eine Lichtquelle, ein Objekt, welches das Licht reflektiert und dazwischen eine bunte Scheibe, die das Licht verändert.

Wenn die Lichtquelle jetzt auf der Grafikkarte A gerendert wird und das spiegelnde Objekt auf der Grafikkarte B dann hast du ein Problem mit SFR und ggf. mit diesem Makrotiling. Denn Grafikkarte B muss jetzt darauf warten bis Grafikkarte A fertig ist da sie das Ergebnis der Grafikkarte A braucht. Kommt jetzt die Scheibe dazwischen dann wird's noch blöder da ein Teil der Scheibe auf GraKa A berechnet wird und ein Teil auf GraKa B.

Wie man das Problem mit SFR lösen kann, weiss ich nicht wirklich. Parallel geht schonmal gar nix bei sowas.

HarryHirsch
2009-04-07, 14:12:31
Ich habe Beweise ;)

Na dann erzähl mal bitte was du weißt. Gibt es bald ganz neue Treiber?

Gast
2009-04-07, 14:16:49
Na dann erzähl mal bitte was du weißt. Gibt es bald ganz neue Treiber?

Afaik hat Coda am Anfang des Jahres einen recht ausführlichen, neuen Artikel bezüglich der Problematik angekündigt. Dieser ist wohl derzeit noch in Arbeit und wird hoffentlich eine ähnliche Wirkung wie der G70-Flimmerartikel haben.

Coda
2009-04-07, 15:01:04
Na dann erzähl mal bitte was du weißt. Gibt es bald ganz neue Treiber?
Es geht ganz generell um die Filterqualität bei ATI, und die ist selbst mit deaktiviertem A.I. unter aller Kanone. Mit A.I. wird es geradezu lächerlich an manchen Stellen.

Das mag viele nicht stören, die Sache ist aber das sie damit auch massivst Füllrate sparen und sie somit viel weniger Texturleistung in ihren Chips unterbringen müssen.

Ich bin der Meinung, dass das nicht der richtige Weg ist. Zumindest die Bildqualität ohne A.I. sollten sie 2009 schon bieten. Ihr Verhalten bei den Treibern an der Stelle ist einfach nicht akzeptabel.

Microsoft sollte da ähnlich bei der ALU-Präzision einen Mindeststandard vorgeben ohne den es kein WHQL gibt.

_DrillSarge]I[
2009-04-07, 15:17:04
^^artikel or GTFO! :biggrin:

die frage ist, wieviel wird eingespart und wie würgt [sic] sich das auf die performance aus?

Gast
2009-04-07, 15:35:32
Treiberdefaults sind ähnlich/gleich gut/schlecht,was der jeweilige Hersteller sonst noch so bietet kann er sich gerne bezahlen lassen von den Leuten die darauf wert legen.
Fakt ist es gibt kein gesetzten Standard und deshalb kann jeder Hersteller machen was er will,ob es sich für ihn lohnt muß er selbst entscheiden wie der Markt sich dabei verhält.

kruemelmonster
2009-04-07, 15:49:21
Ich verstehe das Konzept von AMD auch sehr gut. Sie bieten durch schlechtere Bildqualität längere Balken bei den Benchmarks.

So right. Dazu kommt dann noch:

AMD hat nie die Schmerzgrenze der Massen überschritten. Das haben die durchaus geschickt gemacht.

Seh' ich auch so. Und das lustige ist, die auf die künstlichen Einschränkungen konditionierten(?) ATI-User bekommen augenscheinlich Pusteln am Arsch wenn man das Thema zur Sprache bringt.
Habt ihr gerne weniger Optionen als nötig? Der eine mag Pommes + Ketchup, der andere Pommes + Mayo, der dritte Pommes rot/weiß....gut das man wählen kann.
Bei "euch" hab ich dagegen den Eindruck das "ihr" gern in eurem goldenen Käfig lebt.

In der Beziehung dürfte ATI sehr zufrieden mit seiner PR sein:

- Die HW (bzw. die Kühlung derselben) ist minderwertiger (ausgelegt) als bei NV
- Die Treiber werden immer intelligenter (Artificial Dumbness triffts wohl eher)
- man spart sich Transistoren, BQ und Rechenzeit

und trotzalledem ist in der allgemeinen Wahrnehmung ATI Gandalf und NV Saruman.

Savay
2009-04-07, 15:56:17
eines mal vorweg: NEIN ich finde nicht das im CCC genug feineinstellungen bezüglich der BQ zu finden sind...
JA ich finde SSAA, AF optimierungen und erweiterte profilsteuerungen sind alles themen denen sich ATi annehmen sollte.

Liste:


- Fallout 3 (fall a))

- UT3 (fall b))
- WoW: Lich King (Fall c))

Und ich könnte für jedes einen Vergleich bauen, bei dem A.I. alt/scheiße/krebsig aussieht. Fehlt "nur" Zeit. ;)

MfG,
Raff

so nunmal bitte butter bei die fische...ich habe echt den eindruck das sich grade hier im thread manche tummeln die wohl arg übersensibilisiert sind und zähle da ehrlich gesagt 3 unterfraktionen...seien es nun hardwaretester mit einem benchmark syndrom :tongue: oder perfektionistische programmierer mit einem ihnen zurecht anhaftenden technischen optimierungs"wahn" und zu guter letzt seltsame nV fanbois die seltsamen ATi fanbois vorhalten sie wären seltsame fanbois. :rolleyes:

die scheinen alle dinge zu sehen die die mir deutlich weniger ins auge springen... :|

jetzt aber mal konkret zu deinen beispielen

fall a) Fallout3 -> ein arg shaderlastiges spiel mit stellenweise moirelastigen texturen...aber die immer mit ca 500.000 shaderinstruktionen und bump specular und watweißichnichtnochallesmaps veredelt wurden.
ich sehe doch recht wenig flimmern im spiel...kann ich nun annehmen das dieses von den shadern (auf deren flimmeranfälligkeit wie mir mehrmals versichert wurde der AF grad schlicht keinen einfluss nehmen kann) verursacht wurde oder kann ich mir eine wunder GeForce einbauen und ohne SSAA ist alles glatt wie ein babypopo? :tongue:

fall b) siehe auch fall a) nur noch shaderlastiger und dementsprechend deutlich am flimmern...ja "selbst" für mein "schlechtes" auge...wie gesagt darf ich annehmen dass das tolle nV AF dafür sorgt das nun doch shader geglättet werden was ja angeblich nicht funktionieren mag...zumindest in unserer dimension? :ucrazy3:

fall c) ja...da haben wir es...eines der flimmerigsten spiele der jüngeren geschichte (neben fall b)) aber...ich frage mich doch wirklich ob alles was da flimmert wirklich auf die kappe des AF geht!? wenn ich so durchs spiel renne springen oder besser flimmern mir zuerst die unmengen an alphatests ins auge...dann folgen seit WotLK die neuen und extra verbesserten schattenkanten deluxe...die scheinbar und offensichtlich absolut unbeeindruckt vom AF grad sind.
an dritter stelle folgen texturen...ja das spiel flimmert...ja es dürfte auf einer ATi wirklich mehr flimmern aber grade die texturen scheinen doch stark content und design spezifisch einfach ein griff ins klo zu sein was die flimmeranfälligkeit angeht...
blizzard scheint das allerdings auch selber aufgefallen zu sein denn im ggs. zu Classic und BC ist der WotLK content gradezu erholsam was das texturflimmern angeht und in der beziehung deutlich weniger auf- bzw. um nicht zusagen sogar gradzu unauffällig wie ich finde.
kompensiert allerdings durch noch maßloseren einsatzes von alphatests ;D...blizz scheint es den IHVs wirklich unnötig schwer machen zu wollen. aber das nur nebenher ;)

aber auch hier wieder wie bei den beiden anderen? wenn ich SSAA ignoriere und nur FSAA, AF und TSAA anschmeiße auf einer GeForce...flimmert dann ernsthaft garnichts mehr?! wirklich nichts? in keinem der drei titel? :uconf:

wie mir scheint haben wir es neben den AF trickserein bei ATi es auch recht oft einfach mit salopp gesagt dämlich designten content zu tun (WoW ahoi)...das alles in gänze auf die kappe ATis schieben zu wollen ist doch dann etwas unfair wie ich finde. :tongue:

nichtsdestotrotz gehören die AF optimierungen abschaltbar.

was ich nur bedaurlich finde ist das abseits der notwendigkeit der diskussion an sich, in solchen threads einfach auch sinnlos aufeinander eingehackt wird.
mir persönlich erschließt sich wirklich nicht warum manche forenmitglieder gradezu manisch darin werden anderen zu sagen wie schlecht doch IHV xyz ist...

vorallem finde ich verwunderlich das manche poster scheinbar puterrot anlaufen und sich regelrecht echauffieren (wenn man ihrem schreibstil trauen kann) obwohl sie defakto selber garnicht im geringsten negativ betroffen sind da sie ja sowieso niemals derart dämlich und bescheuert wären sich eine scheiß ATi zu kaufen?! ;D

Aquaschaf
2009-04-07, 15:57:31
und trotzalledem ist in der allgemeinen Wahrnehmung ATI Gandalf und NV Saruman.

In welcher allgemeinen Wahrnehmung? Laßt doch diesen blödsinnigen NV- vs. AMD-Kram einfach sein. Das hat mit dem Thema nichts zu tun.

Gast
2009-04-07, 16:06:51
Aktuelle Modelle der 8000-/9000- und GTX-200-Serie bieten folgende Vorteile:
• Beste Bildqualität dank OGSSAA- und Hybrid-Modi sowie Ambient Occlusion
• Optionales High-Quality-AF mit deaktivierten Optimierungen
• CUDA und damit GPU-beschleunigtes PhysX
• Freie Wahl zwischen TSSAA und TMSAA
• Mehr Optionen bei MPGU-Nutzung
• Häufigere Treiber-Updates dank Betas
Um das mal aufzugreifen:
1. 99% kennen nicht mal OGSSAA, Hybrid-Modi und Ambient Occlusion ist ja nun wirklich sehr performancefressend - kennt aber auch kaum einer
2. Gut, das ist ein wirklicher Vorteil
3. Mjam - KANN ein Vorteil WERDEN, ist momentan eher noch keiner
4. Kennt keiner
5. ...
6. Naja, ich finde es eher nervig dauernd einen Treiber draufzuklatschen, mein NV-Treiber ist von August 2008, mein ATI von Dez 2008, aber wenn das DER Vorteil sein soll.

Für anspruchsvolle ist eine ATI euren Ausführungen zu folge nichts, für die allermeisten User reicht eine ATI aber eben genauso gut, oder gar besser, je nach Wunsch oder Budget. ATI zu verschreien ist nicht die Lösung, es anzukreiden schon, aber bitte sachlich und nicht jeden Furznachteil, Vorteil aufwiegen.

Iceman346
2009-04-07, 16:16:59
Die allermeisten User wissen nichtmal was AA/AF ist. Von den Leuten die ich kenne die am PC zocken kennen sich vielleicht 2 etwas mehr mit AA/AF aus. Einer davon ist mein Bruder, den musste ich selbst drauf stoßen, der andere macht sich aus AA nichts und spielt trotzdem ohne.

Alle anderen nehmen die Standardeinstellungen im Treiber hin und stellen oftmals nichtmal im Spiel AA an falls es das unterstützt. War grad neulich noch beim Kumpel der viel WoW zockt, der hat ne 4850 drin, mit dem 8.6er Catalyst (seit Zusammenbau des Systems nicht erneuert) und spielt WoW in 1280x1024 ohne AA/AF weil er nicht weiß was das ist.

Am Anspruch der normalen User gehen die Diskussionen hier meilenweit vorbei ;)

AnarchX
2009-04-07, 16:21:15
Naja, wenn ATi der Meinung ist, dass ein Schalter, der die maximale Filterqualität erlaubt, für den Normaluser zu anspruchsvoll ist, dann könnte man es wenigstens doch automatisch für den Enthusiasten freischalten, der in seinem PC 80-160 TMUs@750MHz+ für 400-800€ verbaut hat. Denn hier verliert man ja die MGPU-Fähigkeit sobald man manuelle AI deaktiviert.

_DrillSarge]I[
2009-04-07, 16:22:42
Naja, wenn ATi der Meinung ist, dass ein Schalter, der die maximale Filterqualität erlaubt, für den Normaluser zu anspruchsvoll ist, dann könnte man es wenigstens doch automatisch für den Enthusiasten freischalten, der in seinem PC 80-160 TMUs@750MHz+ für 400-800€ verbaut hat.
das verwirrt doch den user nur, genau wie der hochkomplexe AAA-schalter.
:rolleyes:

kruemelmonster
2009-04-07, 16:31:36
In welcher allgemeinen Wahrnehmung?
Mein persönlicher Eindruck des Marktes, Ähnlichkeiten mit der Wirklichkeit sind unbeabsichtigt.

Das hat mit dem Thema nichts zu tun.
MMn schon. Müsste ATI das BQ-Niveau von NV erreichen, wär das nich mehr mit den fps von heute zu erreichen. ATI's Schmalspurtreiber inkl. dem Bugfixes/AI-Bundle ist elementarer Bestandteil ihrer Produktpolitik.

derguru
2009-04-07, 16:34:24
I[;7221220']das verwirrt doch den user nur, genau wie der hochkomplexe AAA-schalter.
:rolleyes:
auch wenn es ironisch war,so müßte man es nicht zwingend im treiber einfügen aber wenigstens freigeben sodas andere tools wie att oder sonstiges solche features einbauen könnten so wie etwa bei nv mit dem nhancer.damit will ich nur sagen man könnte es ja inoffiziell machen und der normale user wird auch nicht verwirrt:rolleyes: da er meist solche tools eh nicht nutzt.das würde schon vollkommen reichen.

Jake Dunn
2009-04-07, 16:37:43
Multi GPU interesiert doch nun wirklich keinen.

SLI (2GPU) -> 1.9%
CF (2GPU) -> 0.25%

http://store.steampowered.com/hwsurvey/

DrFreaK666
2009-04-07, 16:47:26
Es gibt doch beim CCC den Basic- und den Advanced-View.
Wenigstens im Advanced-View könnte man es anbieten.
Basic reicht ja für den Rest :biggrin:

dargo
2009-04-07, 16:51:21
Multi GPU interesiert doch nun wirklich keinen.

Wenn es keinen interessiert wozu bietet man es überhaupt an? Die Kosten hätte man sich sparen können.

BlackBirdSR
2009-04-07, 17:31:00
Wenn es keinen interessiert wozu bietet man es überhaupt an? Die Kosten hätte man sich sparen können.

Zum großen Anteil reine Show für Reviews, um Tester als Marketinginstrument auszunutzen.

dargo
2009-04-07, 17:49:02
Zum großen Anteil reine Show für Reviews, um Tester als Marketinginstrument auszunutzen.
Ich meinte damit zb. eine GTX295 für die man ein extra PCB, Kühler etc. entwerfen muss. SLI/CF ansich kann man günstiger vermarkten.

AnarchX
2009-04-07, 18:04:56
Ich meinte damit zb. eine GTX295 für die man ein extra PCB, Kühler etc. entwerfen muss. SLI/CF ansich kann man günstiger vermarkten.

4 GPUs geht aber eben nur brauchbar mit einer Dual-GPU-Karte in einem System. (btw. bei Steam gibt es wohl mittlerweile über 1000 GTX 295 Besitzer)

Und so riesig dürfte der Aufwand für ein PCB auch nicht sein, zumal man es ja auch nicht nur für GeForce verwendet, die Einführung von Quadro GTX 295 mit bis zu 7GiB Speicher steht auch kurz bevor.

V2.0
2009-04-07, 18:27:28
Soll ich euch sagen wie ein guter Treiber aussehen müßte.

Er enthält Spieleprofile, die er regelmäßig automatisch per Internet aktualisiert. In diesen wird unter Berücksichtigung der Grafikkarte, der eingestellten Auflösung und des Rest PC eingestellt wieviel AA/AF ist. Texturfilterung wird ebenso runtergefahren, falls nötig.
Er sollte so gut wie neu installiert werden und das einzige was der User verstellen kann ist die Desktopauflösung.

Dau noch eine Grafik die je Spiel anzeigt wie die Leistung des eigenen Systems ist. (am besten mit einem Vergleichsbalken zu "Brand X") Wenn ne neue Generation erscheint, dann wird der Balken um einem "neu Generation Radeon" erweitert und die Skalierung so angepasst, dass die neun min. einen doppelt so langen Balken hat.

dargo
2009-04-07, 18:42:58
Soll ich euch sagen wie ein guter Treiber aussehen müßte.

Er enthält Spieleprofile, die er regelmäßig automatisch per Internet aktualisiert. In diesen wird unter Berücksichtigung der Grafikkarte, der eingestellten Auflösung und des Rest PC eingestellt wieviel AA/AF ist. Texturfilterung wird ebenso runtergefahren, falls nötig.
Er sollte so gut wie neu installiert werden und das einzige was der User verstellen kann ist die Desktopauflösung.

Lass die Auflösung gleich weg und du hast eine Konsole. :ugly:
Was sollen eigentlich diese ganzen unsinnigen Bevormundungen in einem PC? Das ist kein PC mehr.

nagus
2009-04-07, 18:44:49
Richtig, auch Catalyst AI off flimmert:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6926042&postcount=27

ok, und in welchen realen situationen bewegt sich ein spieler in dieser weise auf einer map, sind wände 100% senkrecht, rechtwinkelig etc. also als ich das letzte mal einen shooter gespielt habe war das relativ selten der fall ;)

mich stört nicht der umstand dass bei AI off die texturen auch stellenweise flimmern... mich störts gewaltig, dass sich manche leute so dermaßen darüber aufregen können und dies als vorwand nutzen ATI in den dreck zu ziehen. ich finde das erbärmlich kleinlich und infantil.

Raff
2009-04-07, 18:48:45
mich stört nicht der umstand dass bei AI off die texturen auch stellenweise flimmern... mich störts gewaltig, dass sich manche leute so dermaßen darüber aufregen können und dies als vorwand nutzen ATI in den dreck zu ziehen. ich finde das erbärmlich kleinlich und infantil.

Es ist weitaus infantiler, den Bullshit eines Herstellers mit Inbrunst schönzureden, obwohl es klar sein sollte, dass eine Option für beste Qualität niemandem schaden würde.

MfG,
Raff

Gast
2009-04-07, 18:50:43
Müsste ATI das BQ-Niveau von NV erreichen, wär das nich mehr mit den fps von heute zu erreichen.
Hast du dich auch über die jahrelange miese AA Quali bei NV so aufgeregt?
Ach so, brauchte man ja nicht. Dafür gab es ja die Tollen SS Modi die man selten nutzen konnte weil die karten zu lahm waren.
Und vor nicht allzulanger Zeit war die AF Quali noch mieser.

_DrillSarge]I[
2009-04-07, 18:53:43
ok, und in welchen realen situationen bewegt sich ein spieler in dieser weise auf einer map, sind wände 100% senkrecht, rechtwinkelig etc. also als ich das letzte mal einen shooter gespielt habe war das relativ selten der fall ;)

mich stört nicht der umstand dass bei AI off die texturen auch stellenweise flimmern... mich störts gewaltig, dass sich manche leute so dermaßen darüber aufregen können und dies als vorwand nutzen ATI in den dreck zu ziehen. ich finde das erbärmlich kleinlich und infantil.
oh mann :rolleyes:

wer keinen mangel sieht/daran nicht stört, soll zufrieden sein und sich einfach nicht an dem thread beteiligen.

jetzt braucht man nur zu warten bis die üblichen konsorten von der anderen seite dazukommen und den thread gemeinsam kaputtflamen. :(

nagus
2009-04-07, 18:54:03
Aktuelle Modelle der 8000-/9000- und GTX-200-Serie bieten folgende Vorteile:
• Beste Bildqualität dank OGSSAA- und Hybrid-Modi sowie Ambient Occlusion
• Optionales High-Quality-AF mit deaktivierten Optimierungen
• CUDA und damit GPU-beschleunigtes PhysX
• Freie Wahl zwischen TSSAA und TMSAA
• Mehr Optionen bei MPGU-Nutzung
• Häufigere Treiber-Updates dank Betas

Und ja, ich benenne auch AMDs Vorteile :tongue:

da muss ich lachen > "äufigere Treiber-Updates dank Betas". was ist wohl besser, haufenweise beta treiber auf den "markt" zu werfen wo kein schwein mehr durchblickt oder fix monatlich aktuelle treiber offiziell zu releasen?

Mehr Optionen bei MPGU-Nutzung > und was bringt das? außer marketing blah blah für 99% der otto-normalverbraucher ist das heiße luft.

Freie Wahl zwischen TSSAA und TMSAA > was ist an einer automatischen auswahl wie bei ATI schlecht? wieso soll ich mich bemühen wollen den richtigen modi zu finden wenn das bei ATI automatisch passiert? > weiters sind solche spielerein ebenfalls für einen bruchteil der user interessant

CUDA und damit GPU-beschleunigtes PhysX > darüber kann man sich auch vortrefflich streiten. was ist für spieler "besser" physix oder dx10.1?

Optionales High-Quality-AF mit deaktivierten Optimierungen > ein punkt wo nvidia punktet. > trotzdem bleibt die sinnhaftigkeit in frage gestellt. wahrscheinlich wissen 90% der user nicht mal was "AF" bedeutet, geschweige denn, wie man es aktiviert.

Beste Bildqualität dank OGSSAA- und Hybrid-Modi sowie Ambient Occlusion > bei ATI gibts 24xFSAA und DX10.1 was die "beste" bildqualität hat würde ich jetzt nicht 100%ig festlegen... auch weil mir jetzt der vergleich fehlt. weiters ist die geschwindigkeit bei diesen modin wohl auch nicht ganz unwichtig... und da liegt eindeutig ATI mit besserer Effizienz vorne.

so what?

nagus
2009-04-07, 18:56:04
Es ist weitaus infantiler, den Bullshit eines Herstellers mit Inbrunst schönzureden, obwohl es klar sein sollte, dass eine Option für beste Qualität niemandem schaden würde.

MfG,
Raff

"gebabbl eines marketingfuzzies" würde ich nicht unbedingt als "schönreden" bezeichnen. aber bitte...

nagus
2009-04-07, 18:57:26
I[;7221520']oh mann :rolleyes:

wer keinen mangel sieht/daran nicht stört, soll zufrieden sein und sich einfach nicht an dem thread beteiligen.

jetzt braucht man nur zu warten bis die üblichen konsorten von der anderen seite dazukommen und den thread gemeinsam kaputtflamen. :(

ich wüsste nicht dass ich behauptet hatte, dass man das nicht sieht! wo hab ich das bitte behauptet????? schon faszinierend was manche leute reininterpretieren können.

LovesuckZ
2009-04-07, 19:04:12
Immerhin zeigt es auch, dass 8xMSAA Vergleiche komplett für die Tonne sind, da sowieso niemand die Unterschiede sieht und der User generell keinen Plan von AA hat.
Danke Tarkin ähm Nagus, du hast gezeigt, dass jegliche Verweise von dir auf Test mit AA, AF und andere Qualitätsteigrungen über 4xMSAA und Quality AF reine Trollaktionen sind.
Wobei, mist - ich stehe ja auf seiner Ignoreliste.

Hast du dich auch über die jahrelange miese AA Quali bei NV so aufgeregt?
Ach so, brauchte man ja nicht. Dafür gab es ja die Tollen SS Modi die man selten nutzen konnte weil die karten zu lahm waren.
Und vor nicht allzulanger Zeit war die AF Quali noch mieser.

AMD hat länger einen schlechteren AF gehabt als nVidia. :rolleyes:

V2.0
2009-04-07, 19:38:38
Lass die Auflösung gleich weg und du hast eine Konsole. :ugly:
Was sollen eigentlich diese ganzen unsinnigen Bevormundungen in einem PC? Das ist kein PC mehr.

Und es wäre für viele Anwender die perfekte Lösung. Der PC als Abreitsgerät und Spielen ist so einfach wie mit der Konsole.

"Better Graphics, easier to use. Experience the games of the future wuth Radeon Easy Control" :biggrin:

DrFreaK666
2009-04-07, 19:42:32
Und es wäre für viele Anwender die perfekte Lösung. Der PC als Abreitsgerät und Spielen ist so einfach wie mit der Konsole.

"Better Graphics, easier to use. Experience the games of the future wuth Radeon Easy Control" :biggrin:

Für unerfahrene User sicherlich interessant.
Aber für Freaks sollten die aktuellen + weitere Möglichkeiten zum Tunen bereit stehen.

Jake Dunn
2009-04-07, 20:35:01
Wenn es keinen interessiert wozu bietet man es überhaupt an?
Wegen den Balken ;D

Gast
2009-04-07, 20:52:02
Es geht ganz generell um die Filterqualität bei ATI, und die ist selbst mit deaktiviertem A.I. unter aller Kanone. Mit A.I. wird es geradezu lächerlich an manchen Stellen.


Bis vor G80 war die Filterqualität einer R5xx noch das non-plus-ultra. Heute bietet ein RV7xx sogar noch die leicht bessere Blume und ist damit natürlich "geradezu lächerlich".

Gast
2009-04-07, 21:06:46
Die AF-Blume alleine sagt nichts über die Qualität der Filterung aus, weil sie nur den benutzen Mip-Lekel angibt, aber nicht, wieviel Samples genommen werden.

Spasstiger
2009-04-07, 21:43:40
ok, und in welchen realen situationen bewegt sich ein spieler in dieser weise auf einer map, sind wände 100% senkrecht, rechtwinkelig etc. also als ich das letzte mal einen shooter gespielt habe war das relativ selten der fall ;)
Das Schlimme ist: Diese Wände flimmern immer, egal wo man sich auf der Map befindet. Ich bin nur senkrecht auf die Wand zugelaufen, weil so der Startpunkt in der Map gelegen ist. Und Savegames funktionieren in Garry's Mod nicht so richtig.

Gast
2009-04-07, 21:56:03
Die AF-Blume alleine sagt nichts über die Qualität der Filterung aus, weil sie nur den benutzen Mip-Lekel angibt, aber nicht, wieviel Samples genommen werden.
Schlimmer noch: Catalyst AI erkennt die Blume und schaltet die Sparfilter ab.

Gast
2009-04-07, 22:30:15
Und Savegames funktionieren in Garry's Mod nicht so richtig.

Richtige Games waren mal gut :(

Schlimmer noch: Catalyst AI erkennt die Blume und schaltet die Sparfilter ab.

Quatsch!

Exxtreme
2009-04-07, 22:51:55
Quatsch!
Kein Quatsch. Demirugs AF-Blumentester wird vom Treiber erkannt und die Blume wird deaktiviert. ;)

Coda
2009-04-07, 23:28:02
Heute bietet ein RV7xx sogar noch die leicht bessere Blume und ist damit natürlich "geradezu lächerlich".
Die Unterabtastung siehst du an der Blume aber nicht mein lieber Herr Gast.

Spasstiger
2009-04-07, 23:38:26
Richtige Games waren mal gut :(
Garry's Mod (10) ist halt als Multiplayer-Spiel mit Multiplayer-Karten konzipiert. Und nach dem Laden eines Savegames spawne ich halt an einem der Player-Startpunkte und nicht an dem Punkt, an dem ich gespeichert habe.

Savay
2009-04-08, 04:26:08
I[;7221520']
jetzt braucht man nur zu warten bis die üblichen konsorten von der anderen seite dazukommen und den thread gemeinsam kaputtflamen. :(

die sind IMO doch eh schon lange da :rolleyes:

V2.0
2009-04-08, 07:25:15
Für unerfahrene User sicherlich interessant.
Aber für Freaks sollten die aktuellen + weitere Möglichkeiten zum Tunen bereit stehen.

Das ist aber einen Entscheidung die ATI treffen muss, Ich verstehe die ganze Aufregung ehrlich nicht. Niemand muss einer AMD/ATI Karte kaufen und viele sind die Probleme schlicht egal, wie die Verkaufszahlen des letzten Jahres belegen. Da beide Treiber in den Werkseinstellungen halbwegs vergleichbare Ergebnisse abliefern, sehe ich bei Test auch keine relevante Benachteiligung der Konkurrenz.

kruemelmonster
2009-04-08, 08:37:22
Hast du dich auch über die jahrelange miese AA Quali bei NV so aufgeregt?
Ach so, brauchte man ja nicht. Dafür gab es ja die Tollen SS Modi die man selten nutzen konnte weil die karten zu lahm waren.
Und vor nicht allzulanger Zeit war die AF Quali noch mieser.

Ja, ich hab mich über das Flimmern meiner NV40 so aufgeregt, das sie nach einigen Wochen einer X800XT weichen musste.
Flimmerfreiheit > techn. Fortschritt... so what? Die gleiche Position nehm ich heute wieder ein, nur das die IHV die Plätze getauscht haben.

Savay
2009-04-08, 09:27:21
ja aber ganz so schlimm wie meine NV40 flimmert meine RV770 nicht. :)

die sparfilter lassen sich IMO aber eh am besten in älteren titeln vergleichen...und fallen dort IMO auch deutlich mehr auf. problem bei aktuellen titeln ist ja oft das sie sowieso zum flimmern neigen aufgrund des maßlosen und unüberlegeten shader einsatzes.

geil sichtbar werden sie deshalb noch am ehesten im good old Unreal 1 mit dem OldUnreal Patch und den S3TC texturen + OpenGL renderer :biggrin: hohe texturauflösung + keinerlei shadereinsatz = toller BQ benchmark :)

dort dürfte auch garantiert keine AI schose wirksam sein da das spiel überhaupt nicht auf AI on oder off reagiert. anscheinend kennt der catalyst das spiel garnichtmehr :D

da sieht man auch schon auf standbildern das es flimmert wobei ich bezweifeln möchte das man dies auf komprimierten und verkleinerten videos festhalten könnte da selbst JPEGs die entsprechenden stellen glattkomprimieren. ;)

24xEdge, 16xAF, AI OFF, Q-AAA
http://home.htp-tel.de/savay/Pics/Shot0002.png

Mr. Lolman
2009-04-08, 09:43:38
Kein Quatsch. Demirugs AF-Blumentester wird vom Treiber erkannt und die Blume wird deaktiviert. ;)

Die Blume wird erkannt, weil sich die Mipmaps voneinander zustark unterscheiden. Der Treiber spart sich nur dann Samples, wenn die Mipmaps zueinander eine gewisse Ähnlichkeit besitzen. Blöderweise (oder praktischerweise, je nach Standpunkt ;)) verhindert das aber nur bei sehr speziellen Flimmertexturen die Unterabtastung - und eben bei der AF-Blume, wo mans aber, abgesehen von der reduzierten Trilinearität, ohnehin nicht sehen würde. :|

Aquaschaf
2009-04-08, 10:09:53
Das ist aber einen Entscheidung die ATI treffen muss, Ich verstehe die ganze Aufregung ehrlich nicht.

Manch einer hätte vielleicht einfach gerne eine Karte mit der Shader-Architektur des RV770, den wunderbaren MSAA-Modi und gescheiter Texturfilterung ;)

Gast
2009-04-08, 10:20:39
Die Blume wird erkannt, weil sich die Mipmaps voneinander zustark unterscheiden. Der Treiber spart sich nur dann Samples, wenn die Mipmaps zueinander eine gewisse Ähnlichkeit besitzen.


Das glaubst du doch wohl selbst nicht. Mipmaps sind IMMER stark ähnlich zueinander, weil es sich ja um dieselbe Textur nur in anderer Auflösung handelt.

Mr. Lolman
2009-04-08, 10:24:58
Das glaubst du doch wohl selbst nicht. Mipmaps sind IMMER stark ähnlich zueinander, weil es sich ja um dieselbe Textur nur in anderer Auflösung handelt.

So ists aber. Dass 'normale' Texturen von der 'Optimierung' kaum ausgenommen werden, hab ich ja dazugeschrieben. Außerdem werden bei AIHigh anscheinend die Grenzwerte enger gesetzt. D.h. Es werden zwar mehr Samples gespart, aber fiese Flimmertexturen auch eher als solche 'erkannt'. Kann (oder konnte man zumindest mit R580) gut bei der NFS-Carbon Demo beim Driftrennen nachvollziehen. Da hat der Shaderboden mit AIHigh weniger geflimmert, als mit Low...

Gast
2009-04-08, 10:25:19
Manch einer hätte vielleicht einfach gerne eine Karte mit der Shader-Architektur des RV770, den wunderbaren MSAA-Modi und gescheiter Texturfilterung ;)
Das ist doch genau der Punkt, wurde weiter vorn auch schonmal gesagt. Exzellente Hardware aber leider grottige Treiber, man wird vom Treiberteam um eine Alternative zu Nvidia betrogen. :mad:

Mr. Lolman
2009-04-08, 10:27:25
Das ist doch genau der Punkt, wurde weiter vorn auch schonmal gesagt. Exzellente Hardware aber leider grottige Treiber, man wird vom Treiberteam um eine Alternative zu Nvidia betrogen. :mad:

Achwas. Tu mal nicht so, als wären die NV-Treiber das Gelbe vom Ei. Einfach mal in die entsprechenden Threads schauen ;)

Gast
2009-04-08, 10:35:34
Achwas. Tu mal nicht so, als wären die NV-Treiber das Gelbe vom Ei. Einfach mal in die entsprechenden Threads schauen ;)
Ich rede nicht von Bugs, die plagen beide Hersteller. ;)

Aquaschaf
2009-04-08, 12:17:11
Das ist doch genau der Punkt, wurde weiter vorn auch schonmal gesagt. Exzellente Hardware aber leider grottige Treiber

Ich halte es für sehr unwahrscheinlich dass RV770 besser filtern kann als mit "AI off". Und das ist noch relativ suboptimal. Mich würde interessieren wieviele Transistoren eine TMU bei ATI im Vergleich zu NVidia benötigt..

Gast
2009-04-08, 12:22:43
Ich halte es für sehr unwahrscheinlich dass RV770 besser filtern kann als mit "AI off". Und das ist noch relativ suboptimal.
Sollte es eine Einschränkung seitens der Hardware sein, nehme ich die Kritik an den Treibern selbstverständlich zurück. Bis dahin bleibe ich dabei, Treiber, welche es nicht erlauben die Möglichkeiten der Hardware zu nutzen oder nur sehr eingeschränkt zur Verfügung stellen, sind grottig. Liegt eine Hardwarebeschränkung vor, dann ist natürlich die Hardware grottig und das Treiberteam fein raus. ;D

So oder so, das Gesamtpaket ist unbefriedigend.

Spasstiger
2009-04-08, 13:51:41
Über die Shadereinheiten kann jede aktuelle Grafikkarte perfektes AF. Ist nur saumäßig langsam.

Coda
2009-04-08, 14:33:13
Das glaubst du doch wohl selbst nicht. Mipmaps sind IMMER stark ähnlich zueinander, weil es sich ja um dieselbe Textur nur in anderer Auflösung handelt.
Die Mipmaps haben jeweils eine andere Farbe und unterscheiden sich daher erheblich, sonst wäre auch die Blume nicht farbig. Das ist der Sinn der Sache. Du kannst dir gerne mit PIX aus dem DirectX-SDK die Textur im Filter-Tester anschauen, falls du es nicht glaubst.

Anhand des Filtertesters sieht man ausschließlich welches LOD-Level (= Farbe) die TMUs an jedem Punkt wählen. Das sagt rein gar nichts über die Samplezahl und damit die Güte der Abtastung aus.

Gast
2009-04-08, 15:35:03
Die Unterabtastung siehst du an der Blume aber nicht mein lieber Herr Gast.

Das war bei R5xx mit AI aber genau so mein lieber Herr Coda!

PCGH_Carsten
2009-04-08, 16:00:55
Die Blume wird erkannt, weil sich die Mipmaps voneinander zustark unterscheiden. Der Treiber spart sich nur dann Samples, wenn die Mipmaps zueinander eine gewisse Ähnlichkeit besitzen.

So wie hier beschrieben?
http://www.computerbase.de/artikel/hardware/grafikkarten/2004/bericht_radeon_x800_texturen/2/
Ich hoffe doch, "AI" ist inzwischen nicht mehr ganz so stur.

Gast
2009-04-08, 16:13:54
Interessant auch, was bereits 2004 galt:
Um es aber auch in aller Deutlichkeit zu sagen: Bei Karten, für die der Gamer 400 Euro und mehr ausgibt, um neue und neueste Spiele in höchstmöglichen Einstellungen und damit höchstmöglicher Bildqualität zu genießen, kann es unmöglich im Sinne des Erfinders („The way it's meant to be played“) sein, nur mit angezogener Qualitätsbremse ins Spiel zu kommen („Get in the Game“)!
Bericht: Radeon X800 und die Texturen (http://www.computerbase.de/artikel/hardware/grafikkarten/2004/bericht_radeon_x800_texturen/4/#abschnitt_fazit)

Nun musste ich hier zu meiner Verwunderung feststellen, dass es User gibt, die gern noch mehr bevormundet und beschnitten würden. Ich staune. :eek:

Cyphermaster
2009-04-08, 16:23:51
Das ist aber einen Entscheidung die ATI treffen muss, Ich verstehe die ganze Aufregung ehrlich nicht. Niemand muss einer AMD/ATI Karte kaufen und viele sind die Probleme schlicht egal, wie die Verkaufszahlen des letzten Jahres belegen. Da beide Treiber in den Werkseinstellungen halbwegs vergleichbare Ergebnisse abliefern, sehe ich bei Test auch keine relevante Benachteiligung der Konkurrenz.Wenn mir mein IHV der Wahl nicht MEINE Wahl läßt, wie ich meine HW nutze, sondern mir sagt, wieviel (bzw. wie wenig) Bildqualität mir gefälligst zu gefallen hat, dann sollte das jedem genug Argument sein, um das anzuprangern! Oder würdet ihr es akzeptieren, wenn man euch zwingt, immer ungefärbte/ungemusterte Kleidung zu tragen, weil man sich durch das Färben doch immens Kosten spart, und damit viel mehr Kleidung für das gleiche Geld abliefern kann?

Daß die Verkaufszahlen nicht drauf anspringen, nun, das ist einfach: Solange als Prediger ihren Jüngern unter den Usern fleißig über die Gebetsmühle einbläuen, daß der längere Balken immer die bessere Wahl ist, werden die auch weiterhin dem FPS-Götzen huldigen. Funktioniert ja auch, solange die Unterschiede zwischen den IHVs nicht ZU groß werden, und damit BEIDE crap anbieten...

Ich habe nichts dagegen, daß AMD mir VorSCHLÄGE für verschiedene Optimierungen in den Treibern gibt. Was ich aber definitiv nicht mehr gut finde, ist, wenn mir AMD VorSCHRIFTEN macht, hinsichtlich was ich zu mögen habe. Das Gleiche gilt auch für nVidia. Ich habe schon früher einen Bogen um flimmernde Grafikkarten gemacht, und ich werde es wieder tun. Epilepsie-Gaming ist für mich kein Erlebnis, sondern Ärgernis, und mein Geld geht da hin, wo ich das beste Performance/Euro-Rating habe. Und zwar nicht nur in FPS/Euro, sondern in FPS*BQ/Euro.

Ich hätte nichts dagegen, bei Geizhals demnächst auch Links zum Treiber-Schmuh von AMD zu sehen. Warum? Ganz einfach. Wenn etwas Dreck ist, dann sollte man das als Kunde schon erfahren - dann kann er selber entscheiden, ob es für ihn relevant ist, oder nicht.

Raff
2009-04-08, 17:31:03
Interessant auch, was bereits 2004 galt:

Bericht: Radeon X800 und die Texturen (http://www.computerbase.de/artikel/hardware/grafikkarten/2004/bericht_radeon_x800_texturen/4/#abschnitt_fazit)

Nun musste ich hier zu meiner Verwunderung feststellen, dass es User gibt, die gern noch mehr bevormundet und beschnitten würden. Ich staune. :eek:

Na, wer kennt den Autor? ;) Einige Redakteure und Nutzer achten eben noch genau auf die Qualität.

MfG,
Raff

Mr. Lolman
2009-04-08, 17:48:56
Na, wer kennt den Autor? ;) Einige Redakteure und Nutzer achten eben noch genau auf die Qualität.

MfG,
Raff

Genau. Deswegen hat man damals den R420 gerügt und den NV40 davonkommen lassen... ;)

EDIT: ...bzw. sogar gelobt:

Um es aber auch in aller Deutlichkeit zu sagen: Bei Karten, für die der Gamer 400 Euro und mehr ausgibt, um neue und neueste Spiele in höchstmöglichen Einstellungen und damit höchstmöglicher Bildqualität zu genießen, kann es unmöglich im Sinne des Erfinders („The way it's meant to be played“) sein, nur mit angezogener Qualitätsbremse ins Spiel zu kommen („Get in the Game“)!

deekey777
2009-04-08, 17:50:28
Warum habe ich das Gefühl, dass wir sehr bald beim Q3-Cheat landen...

V2.0
2009-04-08, 18:08:28
Wenn mir mein IHV der Wahl nicht MEINE Wahl läßt, wie ich meine HW nutze, sondern mir sagt, wieviel (bzw. wie wenig) Bildqualität mir gefälligst zu gefallen hat, dann sollte das jedem genug Argument sein, um das anzuprangern! Oder würdet ihr es akzeptieren, wenn man euch zwingt, immer ungefärbte/ungemusterte Kleidung zu tragen, weil man sich durch das Färben doch immens Kosten spart, und damit viel mehr Kleidung für das gleiche Geld abliefern kann?

Daß die Verkaufszahlen nicht drauf anspringen, nun, das ist einfach: Solange als Prediger ihren Jüngern unter den Usern fleißig über die Gebetsmühle einbläuen, daß der längere Balken immer die bessere Wahl ist, werden die auch weiterhin dem FPS-Götzen huldigen. Funktioniert ja auch, solange die Unterschiede zwischen den IHVs nicht ZU groß werden, und damit BEIDE crap anbieten...

Ich habe nichts dagegen, daß AMD mir VorSCHLÄGE für verschiedene Optimierungen in den Treibern gibt. Was ich aber definitiv nicht mehr gut finde, ist, wenn mir AMD VorSCHRIFTEN macht, hinsichtlich was ich zu mögen habe. Das Gleiche gilt auch für nVidia. Ich habe schon früher einen Bogen um flimmernde Grafikkarten gemacht, und ich werde es wieder tun. Epilepsie-Gaming ist für mich kein Erlebnis, sondern Ärgernis, und mein Geld geht da hin, wo ich das beste Performance/Euro-Rating habe. Und zwar nicht nur in FPS/Euro, sondern in FPS*BQ/Euro.

Ich hätte nichts dagegen, bei Geizhals demnächst auch Links zum Treiber-Schmuh von AMD zu sehen. Warum? Ganz einfach. Wenn etwas Dreck ist, dann sollte man das als Kunde schon erfahren - dann kann er selber entscheiden, ob es für ihn relevant ist, oder nicht.

Du musst keine ATI kaufen. Deren Modell sieht eben eine solche Einschränkung vor, weil sie es für sinnvoll halten. Solange es kein Monopol gibt, kann jeder mit seiner Kaufentscheidung die Sache regeln.

Cyphermaster
2009-04-08, 18:22:26
Du musst keine ATI kaufen. Deren Modell sieht eben eine solche Einschränkung vor, weil sie es für sinnvoll halten. Solange es kein Monopol gibt, kann jeder mit seiner Kaufentscheidung die Sache regeln.Die Existenz einer solchen Einschränkung ist ja nicht das Haupt-Problem, das ich meine. Das sehe ich darin, wenn dem Kunden mehr oder minder vorenthalten wird, daß "A.I. off" eben nicht wirklich "off" bedeutet, Testprogramme umgangen werden, oder -wie in dem Interview- entgegen der Erfahrung behauptet wird, daß man Mikroruckler gar nicht sehen könne.

Solche Dinge müssen dem Interessenten schon bekannt sein, sonst fällt er seine Kaufentscheidung auf Basis falscher Einschätzungen. Und andersrum bedeutet das eben, wenn ich dem Kunden keine Einschränkung mitteile, darf da auch keine sein...

y33H@
2009-04-08, 19:25:31
was ist wohl besser, haufenweise beta treiber auf den "markt" zu werfen wo kein schwein mehr durchblickt oder fix monatlich aktuelle treiber offiziell zu releasen?Die Betas sind nummeriert ... und natürlich sind optionale Betas eine feine Sache, so können schneller Bugs gefixt werden oder zum Launch von Spiel XY steht ein Performance-Treiber bereit. Bei AMD muss ich satte 4 Wochen warten bis ein Bug gefixt wird - wenn er denn gefixt wird, siehe AF-Bug.und was bringt das?Die User von MGPU haben eben mehr Optionen und mehr Optionen sind nie schlecht.was ist an einer automatischen auswahl wie bei ATI schlecht?Bevormundung. Man muss mit TMSAA vorlieb nehmen, obwohl TSSAA die optisch klar bessere Option wäre. Warum? Weil ATI meint, es sein besser so. Ohne mich.weiters sind solche spielerein ebenfalls für einen bruchteil der user interessantDas ist kein Argument diese nicht anzubieten. wahrscheinlich wissen 90% der user nicht mal was "AF" bedeutet, geschweige denn, wie man es aktiviert. Nur weil manche nicht in der Lage sind AF zu nutzen, ist das kein Grund Flimmer-AF denen unterzuschieben, die AF kennen und wollen.

Gast
2009-04-08, 19:56:53
Das ist kein Argument diese nicht anzubieten. Nur weil manche nicht in der Lage sind AF zu nutzen, ist das kein Grund Flimmer-AF denen unterzuschieben, die AF kennen und wollen.
Außerdem ist es IMHO ein Zeichen für sträfliche Versäumnisse im Marketing. Anstatt belangloser Demos hätte man den Karten längst regelrechte Aufklärungsdemos beilegen können, die eine Szene nach und nach mit unterschiedlichen Qualtitätssettings rendern und dabei durch Untertitel die Unterschiede und Feinheiten erklären. Das macht Lust auf mehr - mehr Hardware (höherpreisige Karten) und mehr Features (neueste Generation). Man konkurriert ja einerseits mit dem Konsolenmarkt und andererseits will man die jeweils neueste Generation und wenn möglich auch nicht nur Low-End-Karten absetzen, wie soll das gehen ohne Käuferscharen, die Rechenpower benötigen und sie einzusetzen wissen?

Gast
2009-04-09, 00:55:32
Genau. Deswegen hat man damals den R420 gerügt und den NV40 davonkommen lassen... ;)

EDIT: ...bzw. sogar gelobt:

Daran gabs auch wenig auszusetzen wenn man HighQuality nutzte.

Coda
2009-04-09, 02:32:12
Das war bei R5xx mit AI aber genau so mein lieber Herr Coda!
Du kapierst es scheinbar immer noch nicht:

Man sieht an der Blume NICHT ob eine Unterabtastung stattfindet. R5xx hat besser gefiltert als R6xx und R7xx in dieser Hinsicht. Sowohl mit als auch ohne A.I.

Die LOD-Bestimmung ist bei R6xx etwas besser geworden, das ist aber relativ nebensächlich.

Du musst keine ATI kaufen. Deren Modell sieht eben eine solche Einschränkung vor, weil sie es für sinnvoll halten. Solange es kein Monopol gibt, kann jeder mit seiner Kaufentscheidung die Sache regeln.
Kritisieren kann man es trotzdem. Es gibt ja genügend andere gute Gründe eine ATI zu kaufen.

Gast
2009-04-09, 03:14:59
OMFG

Und ich glaubte bis eben, dass man bei Ati/AMD vielleicht doch mal klug wird. Aber stattdessen werden die Treiber immer DAU-iger. Dabei würde ich schon gerne wieder ohne bitteren Beigeschmack eine Radeon empfehlen und nutzen. Dieses Quasi-Monopol suckt. Und das Ati-Männchen lügt gedruckt, im Chor mit Terry. ;(

MfG,
Raff


hi

Erkläre mir mal was an den ATi Treiber Dauig sein soll.

Gruss Labberlippe

Coda
2009-04-09, 04:34:00
Sie bevormunden den Benutzer bei einigen Einstellungen, zudem gibt es keine Profile und nichts wie man Crossfire beeinflussen könnte.

V2.0
2009-04-09, 09:58:26
Die Existenz einer solchen Einschränkung ist ja nicht das Haupt-Problem, das ich meine. Das sehe ich darin, wenn dem Kunden mehr oder minder vorenthalten wird, daß "A.I. off" eben nicht wirklich "off" bedeutet, Testprogramme umgangen werden, oder -wie in dem Interview- entgegen der Erfahrung behauptet wird, daß man Mikroruckler gar nicht sehen könne.

Solche Dinge müssen dem Interessenten schon bekannt sein, sonst fällt er seine Kaufentscheidung auf Basis falscher Einschätzungen. Und andersrum bedeutet das eben, wenn ich dem Kunden keine Einschränkung mitteile, darf da auch keine sein...

Und deswegen gehört ein Hinweis darauf in jedes anständige Review. Die Kaufentscheidung muss dann aber der Käufer wählen und ich wette, dass die Mehrheit immern och die ATI kauft, weil sie mehr FPS/€ liefert.

Cyphermaster
2009-04-09, 10:28:50
Und deswegen gehört ein Hinweis darauf in jedes anständige Review.Nicht nur in ein Review, imho! Kann ja nicht sein, daß mir ein Hersteller eine für den Normalbetrieb relevante Einschränkung seiner Ware verschleiert. Das ist, als würde man dich beim Autokauf z.B. nicht darauf hinweisen, daß "wir uns im Sinne der Kundensicherheit, basierend auf aktuellen Unfallstatistiken, dazu entschieden haben, den Motor elektronisch auf 120km/h abzuregeln.". Wenn man sowas macht, erwarte ich auch, daß mich der Hersteller darüber aufklärt - und ich das nicht erst (im Schlimmsten Fall erst nach dem Kauf!) aus einer Autozeitschrift erfahre. Da kann es auch kein Argument sein, daß ich keiner der "Durchschnittskäufer" bin, die sich nicht dran stören.
Die Kaufentscheidung muss dann aber der Käufer wählen und ich wette, dass die Mehrheit immern och die ATI kauft, weil sie mehr FPS/€ liefert.Die Kaufentscheidung bleibt IMMER beim Käufer, das habe ich auch nicht bestritten oder ändern wollen. Das wäre ja nur eine Bevormundung in die andere Richtung... Wie sich die Masse entscheidet, kommt viel darauf an, wie gut die Propheten der allmächtigen Framerate dabei sind, die Käuferschicht vom "Sündenfall" abzuhalten, auch andere Götter neben der FPS-Performance haben zu wollen.

Ich will absolut keinem absprechen, nach puren FPS/€ zu gehen. Aber ich würde auch gerne als Käufer die Option haben, das auch bei einer ATI-Karte nicht zu tun. Immerhin gibt es keinerlei technische Notwendigkeit, das so einzuschränken. Und ich denke nicht, daß z.B. 4 Stufen "A.I." im CCC den Kunden überfordern würden:

- off: wirklich alle Optimierungen aus.
- low: Nur Tweaks ohne BQ-Verlust aktiv
- medium: Entspricht dem jetzigen "A.I. low"
- high: Entspricht dem jetzigen "A.I. high"

Dazu ähnlich dem aktuellen Zustand bei nVidia im Hintergrund einen Zugriff auf ALLE Settings (entweder über einen "Expertenmodus" oder Zusatzprogramme), und ATI hätte sich wohl für die aktuellen Karten-Generationen einige Liebhaber hoher BQ weniger (imho unnötig) vergrault.

_DrillSarge]I[
2009-04-10, 00:25:42
R5xx hat besser gefiltert als R6xx und R7xx in dieser Hinsicht. Sowohl mit als auch ohne A.I.
mich würde interessieren, ob das jetzt, mit aktuellen catalysts, immer noch so ist, oder man auch den "sparfilter" anwendet.
(wenn mir jemand ne am2 cpu schenkt, kann ichs auch mit ner x1950xt selber testen :biggrin:)

Coda
2009-04-10, 00:31:08
Dazu ähnlich dem aktuellen Zustand bei nVidia im Hintergrund einen Zugriff auf ALLE Settings (entweder über einen "Expertenmodus" oder Zusatzprogramme), und ATI hätte sich wohl für die aktuellen Karten-Generationen einige Liebhaber hoher BQ weniger (imho unnötig) vergrault.
Jain. Der Basisfilter ist ja auch schon nicht ganz das wahre. Wenn man ihm genauer auf die Finger schaut ist es sogar wirklich ein Trauerspiel was da wirklich gemacht wird :(

Gast
2009-04-10, 00:33:08
Jain. Der Basisfilter ist ja auch schon nicht ganz das wahre. Wenn man ihm genauer auf die Finger schaut ist es sogar wirklich ein Trauerspiel was da wirklich gemacht wird :(
Und ist das nun eine Hardwarelimitierung, wie weiter oben vermutet, oder reine Treiberschweinerei?

Darkstar
2009-04-10, 19:36:01
Nicht nur in ein Review, imho! Kann ja nicht sein, daß mir ein Hersteller eine für den Normalbetrieb relevante Einschränkung seiner Ware verschleiert. Das ist, als würde man dich beim Autokauf z.B. nicht darauf hinweisen, daß "wir uns im Sinne der Kundensicherheit, basierend auf aktuellen Unfallstatistiken, dazu entschieden haben, den Motor elektronisch auf 120km/h abzuregeln.". Wenn man sowas macht, erwarte ich auch, daß mich der Hersteller darüber aufklärt - und ich das nicht erst (im Schlimmsten Fall erst nach dem Kauf!) aus einer Autozeitschrift erfahre. Da kann es auch kein Argument sein, daß ich keiner der "Durchschnittskäufer" bin, die sich nicht dran stören.Wenn man mal etwas intensiver im Internet stöbert, wird man feststellen, daß viele Autohersteller genau das machen (ich meine nicht die „übliche“ Begrenzung auf vmax = 250 km/h). Meist handelt es sich um elektronische Abregelungen oder kürzere Getriebeabstufungen, um ein kleinere Modell gegenüber einem großeren Modell des gleichen Herstellers besser abzugrenzen. Und nein, die Autohersteller weisen einen nicht darauf hin, wenn man das Auto kauft.

Andere Beispiele aus der Autobranche sind nicht abschaltbare Airbags, ESP, ABS usw. Es wird halt nur für die Masse produziert … :|

Coda
2009-04-10, 19:50:35
Und ist das nun eine Hardwarelimitierung, wie weiter oben vermutet, oder reine Treiberschweinerei?
Das kann dir nur jemand von ATI genau beantworten, aber es ist wohl unsinnig etwas zu verbauen was sowieso nie zum Einsatz kommt, vor allem wenn man dadurch auch ein paar Transistoren sparen könnte.

Gast
2009-04-10, 19:55:16
Das kann dir nur jemand von ATI genau beantworten, aber es ist wohl unsinnig etwas zu verbauen was sowieso nie zum Einsatz kommt, vor allem wenn man dadurch auch ein paar Transistoren sparen könnte.
Nur dann ist die Forderung nach der Trennung von Bugfixes/Shaderreplacements einerseits und der Deaktivierung von Sparmaßnahmen andererseits doch witlos, wenn die Hardware nicht besser filtern kann, dann ist das halt so.

:confused:

reunion
2009-04-10, 20:09:43
Nur dann ist die Forderung nach der Trennung von Bugfixes/Shaderreplacements einerseits und der Deaktivierung von Sparmaßnahmen andererseits doch witlos, wenn die Hardware nicht besser filtern kann, dann ist das halt so.

:confused:

Das die Hardware nicht besser filtern kann ist bestenfalls eine Vermutung. Und ob man durch das einsparen von ein paar Samples eine nennenswerte Anzahl an Transistoren sparen kann ebenso. IMO ist das ganz klar eine Treibergeschichte. Zum Ende des R5xx testeten immer mehr Seiten mit AI_off um die Leistung mit perfektem Filter zeigen zu können, was aber leider auch viele andere Dinge deaktivierte. Um das zu umgehen hat sich AMD wohl kurzerhand dazu entschlossen bei R6xx auf einen solchen Modi zu verzichten und nur noch den Sparfilter anwählbar zu machen. Damit gibt es defacto keinen sinnvollen Grund mehr AI auszuschalten.

Coda
2009-04-10, 20:19:36
IMO ist das ganz klar eine Treibergeschichte.
Jo und bei NV40 war es natürlich ganz klar keine Treibergeschichte dass er nur winkelunabhängig filtern konnte.

Um das zu umgehen hat sich AMD wohl kurzerhand dazu entschlossen bei R6xx auf einen solchen Modi zu verzichten und nur noch den Sparfilter anwählbar zu machen. Damit gibt es defacto keinen sinnvollen Grund mehr AI auszuschalten.
Was redest du da eigentlich? A.I. off ist immer noch deutlich sichtbar besser als A.I. low.

Nur dann ist die Forderung nach der Trennung von Bugfixes/Shaderreplacements einerseits und der Deaktivierung von Sparmaßnahmen andererseits doch witlos, wenn die Hardware nicht besser filtern kann, dann ist das halt so.
Sie filtert mit A.I. low eben noch beschissener.

reunion
2009-04-10, 20:30:32
Jo und bei NV40 war es natürlich ganz klar keine Treibergeschichte dass er nur winkelunabhängig filtern konnte.


Das hast du behauptet.


Was redest du da eigentlich? A.I. off ist immer noch deutlich sichtbar besser als A.I. low.

Die Leistung nimmt nur mehr minimal ab in den meisten Fällen, kein Vergleich zu R5xx. Die Qualität wurde deutlich zurück geschraubt. Klar ist AI_off noch etwas besser, aber in vielen Fällen vernachlässigbar.

Coda
2009-04-10, 20:44:30
Das hast du behauptet.
Du hast es damals wehement abgestritten, das das auch nur sein könnte.

Es ist sehr wohl möglich, dass ATI sich die Transistoren gespart hat auch noch den "perfekt" Modus abtasten zu können. Auch die Logik darum muss auf eine maximale Latenz ausgelegt sein, die dadurch deutlich geringer wird. Dafür spricht u.A. dass für bestimmte Verzerrungsgrade 8x noch besser filtert als 16x - ja wirklich bei 16x ohne A.I. ist das Bild in vielen Bereichen schlechter als mit 8x.

Die Leistung nimmt nur mehr minimal ab in den meisten Fällen, kein Vergleich zu R5xx.
Nochmal: Was redest du da? A.I. off deaktiviert alle applikationsspezifischen Optimierungen, das sorgt für enorme Leistungseinbrüche.

Zudem sind die Applikationen weitaus ALU lastiger geworden. Tex-Latenz lässt sich viel besser verstecken.

Die Qualität wurde deutlich zurück geschraubt. Klar ist AI_off noch etwas besser, aber in vielen Fällen vernachlässigbar.
Das ist ganz und gar nicht "vernachlässigbar". Vor allem nicht wenn man nicht nur subjektiv auf das Bild schaut.

Gast
2009-04-10, 21:47:02
Sie bevormunden den Benutzer bei einigen Einstellungen, zudem gibt es keine Profile und nichts wie man Crossfire beeinflussen könnte.

Hi

Bei einigen Usern ist soetwas eh sinnvoller...

Ich finde es auch schade das ATI mit AI Off noch immer die optimierungen aktiv sind, nur denke ich dennoch das es für den Grosszahl der User dies keine Rolle spielt.

Gruss Labberlippe,

_DrillSarge]I[
2009-04-11, 01:00:40
Hi

Bei einigen Usern ist soetwas eh sinnvoller...

Ich finde es auch schade das ATI mit AI Off noch immer die optimierungen aktiv sind, nur denke ich dennoch das es für den Grosszahl der User dies keine Rolle spielt.

Gruss Labberlippe,
das können sie gerne per treiberdefault lassen, damit der unbedarfte anwender nicht verwirrt wird. X-D

aber wenigstens die OPTION auf mehr einstellungsmöglichkeiten und mehr qualität ist doch nun wirklich kein beinbruch.
ati wiegelt ja immer mit dem argument ab, dass der treiber schon wisse was er macht und der user nix wissen braucht. da können sie auch gleich den advanced-view im ccc rausnehmen. :D

Gast
2009-04-11, 12:43:57
Und deswegen gehört ein Hinweis darauf in jedes anständige Review. Die Kaufentscheidung muss dann aber der Käufer wählen und ich wette, dass die Mehrheit immern och die ATI kauft, weil sie mehr FPS/€ liefert.

Sowas in der Art hier wäre auch nett gewesen, aber ComputerBase war ja schon immer der Ansicht, dass die Unterschiede in der Texturfilterung führ ihre Klientel irrelevant seien:

Video: Performance-Vorteil durch DX 10.1 (http://www.computerbase.de/news/hardware/grafikkarten/ati/2009/april/video_performance-vorteil_dx_101/)

Ja, DX10.1 beginnt langsam in einigen Spielen richtig nützlich zu werden, man denke nur an AA und UE3, aber wieso in aller Welt glaubt man, die Klientel, die man für zu blöd hält Sparmaßnahmen am Texturfilter zu verstehen oder den Vorteil, wenn man Kompatibilitätsbits setzen und den TAA/AAA-Modus selbst wählen kann, könnte mit sowas etwas anfangen. Bencht man als nächstes Spiele mit PhysX-Support gegen PhysX-Off bei ATI?

Für einen Performancevergleich macht man ein eindrucksvolles Video, da hätten es auch Balken getan. :rolleyes:

reunion
2009-04-11, 13:18:37
Das Video ist von AMD; nicht von CB.

Gast
2009-04-11, 13:31:31
Das Video ist von AMD; nicht von CB.
CB verbreitet es aber in einem Artikel und setzt noch einen Artikel obendrauf, in dem man das von AMD ausgewählte Verfahren (ATI-Karte einmal mit DX10, einmal mit DX10.1 benchen) übernimmt und Balken malt.

Also ich würde in Spielen mit D3D10.1 meinen D3D10-Modus sogar ausbremsen, wenn ich als ATI wüsste, dass die Presse so handzahm ist. Außerdem ist so ein Marketingartikel grober Unfug. Sinn machen Vergleiche, wo es Unterschiede in der Bildqualität durch D3D10.1 gibt und dann muss man sich mit dieser auseinandersetzen. Das ist aber anstrengend oder man hält das Publikum für hirntot, da malt man lieber weiter Balken. Das sollte man dann aber besser zwischen ATI-Karte und Nvidia-Äquivalent machen, welchen Renderpfad die nutzen um die Performance zu liefern ist doch egal.

Gast
2009-04-11, 19:24:42
Das ist, als würde man dich beim Autokauf z.B. nicht darauf hinweisen, daß "wir uns im Sinne der Kundensicherheit, basierend auf aktuellen Unfallstatistiken, dazu entschieden haben, den Motor elektronisch auf 120km/h abzuregeln.".

Schlechter Vergleich, da für 99% der Kunden die Gescchwindigkeit des Autos genauso vergleichbar essentiell wie die FPS sind.

Der Auto Vergleich würde passen, wenn verschwiegen würde, dass der Scheibenwischer sich nicht mehr manuell sondern nur per automatischen Regensensor regeln ließe.
Ja, für welche, die keinen Tropfen zu viel, jedoch aber auch keine Schlieren durch trockenes Wischen auf der Scheibe haben wollen, wäre das sicher ein großes Problem! Das perfekte Ergebnis gäbe es nur manuell ... ohauerha

Lawmachine79
2009-04-12, 00:41:25
Und deswegen gehört ein Hinweis darauf in jedes anständige Review. Die Kaufentscheidung muss dann aber der Käufer wählen und ich wette, dass die Mehrheit immern och die ATI kauft, weil sie mehr FPS/€ liefert.
Daß sie mehr FPS/€ liefert, ist unbestritten (naja, mittlerweile doch, wenn ich mir mal ansehe, was eine GTX260@216SP so kostet). Aber ALLE anderen Faktoren (und ich meine wirklich ALLE) sind schlechter. Und ich habe 2 ATI-Karten und 1 NV-Karte (naja, nur noch eine ATI, nachdem ATI bei der 4850 SOVIEL FPS/€ geliefert hat, daß sie an der Kühlung sparen mußten (jaaaaaa, ich weiß, ich habe einen anderen Kühler montiert - hatte aber keine Wahl da sie mit Standartkühler (!) auf Standarttaktraten (!) Artefakte produzierte - den Furmark zu starten habe ich mich nicht getraut, macht ja nix, die Karte ist auch ohne Furmark ganz gut abgeraucht).

Gast
2009-04-12, 08:39:23
Bei deiner 4850 hast du anscheinend ein Montagsmodell erwischt. Denn üblich ists nicht, dass 4850 mit Standardkühler (!) und Standardtaktraten (!) standardmässig (!) Bildfehler bringen.

Außerdem ist die (reine) Kantenglättung dank Edge-Detect besser, die Abwärme in 3D geringer (außerhalb von Furmarkbenches) und der Treibersupport besser - es erscheinen nicht andauernd irgendwelche Betatreiber, womit das aktuellste Spiel zwar besser läuft, dafür irgendwas anderes nicht mehr ordentlich funktioniert.

nagus
2009-04-12, 09:51:33
Daß sie mehr FPS/€ liefert, ist unbestritten (naja, mittlerweile doch, wenn ich mir mal ansehe, was eine GTX260@216SP so kostet). Aber ALLE anderen Faktoren (und ich meine wirklich ALLE) sind schlechter.....

ich versuch jetzt mal ganz ruhig zu sein und keine schimpftiraden vom zaun zu brechen

dann zähl mal brav auf was du mit "ALLE anderen Faktoren" meinst. ohne weiters kann man eine solche aussage leider nicht in den raum stellen fürchte ich. :|

Gast
2009-04-12, 10:23:08
Bei deiner 4850 hast du anscheinend ein Montagsmodell erwischt. Denn üblich ists nicht, dass 4850 mit Standardkühler (!) und Standardtaktraten (!) standardmässig (!) Bildfehler bringen.

Außerdem ist die (reine) Kantenglättung dank Edge-Detect besser, die Abwärme in 3D geringer (außerhalb von Furmarkbenches) und der Treibersupport besser - es erscheinen nicht andauernd irgendwelche Betatreiber, womit das aktuellste Spiel zwar besser läuft, dafür irgendwas anderes nicht mehr ordentlich funktioniert.

Ich gebe Dir recht, aber der gute Mann ist ein Dilettant par excellence, der nun meint, mit Populismus gegen ATI wettern zu müssen. Von daher vergebene Liebesmühe. Man lese sich seine Postings durch, dann weiß man in etwa, mit welcher Gattung man es hier zu tun hat.

Meine HD4850 läuft seit dem 1 Tag mit dem Referenzkühler, ohne dass ich diesbezüglich auch nur einen einzigen seiner Kritikpunkte bestätigen könnte.
Wer sein System nicht ständig mit Betatreibern nutzen will, der fährt mit ATI klar besser. Multi-GPU-Freaks, deren Leben sich zu 95% vor dem PC abspielt, können allenfalls einen Blick in Richtung NV wagen. Die werden bei NV tatsächlich besser gepflegt.

Ich will ATI gar nicht über den Klee loben. Die Chips sind derart schnell, dass der Anwender die Möglichkeit haben sollte, HQ-AF erzwingen zu können. Den Vorwurf muss sich ATI gefallen lassen, und ich werde auch nicht müde, ihnen das mitzuteilen.

dargo
2009-04-12, 10:33:00
Wer sein System nicht ständig mit Betatreibern nutzen will, der fährt mit ATI klar besser.
Oder installiert sie einfach nicht. ;)

LovesuckZ
2009-04-12, 10:33:54
Stimmt, AMD's monatliche Treiber sind so gut, die können sich sogar erlauben Bugs einzubauen. :rolleyes:

Gast
2009-04-12, 10:41:13
AMD veröffentlicht nie Betas oder Hotfixes, gell? :rolleyes:

Lawmachine79
2009-04-12, 12:27:57
ich versuch jetzt mal ganz ruhig zu sein und keine schimpftiraden vom zaun zu brechen

dann zähl mal brav auf was du mit "ALLE anderen Faktoren" meinst. ohne weiters kann man eine solche aussage leider nicht in den raum stellen fürchte ich. :|

1) Treiber. Mit dem Catalyst hat man nichts als Ärger. Da muss man nur mal durch die einschlägigen Foren streifen. Auch mußte noch niemand wegen des NV-Treibers sein Windows neu aufsetzen. Wenn der Catalyst nach De-und Reinstallation von .Net noch immer nicht läuft, ist Neuinstallation inzwischen die Standartlösung.
2) Kompatiblität. Alte Spiele wollen auf ATI-Karten nicht so recht - liegt wahrscheinlich auch am Treiber, in denen man sich nur noch darauf fokussiert, die Spiele zu "pflegen" die von CB und Konsorten bebenched werden. Im ATI-Subforum gibt es einen Sammelthread dazu und mich kotzt es nun einmal an, wenn ich mein geliebtes Dungeon Keeper II nicht mehr zocken kann, und wenn Vantage 500 Punkte mehr macht, wird es dadurch nicht besser.
3) Featureset/BQ. SSAA. Hybridmodi. Immer noch nicht da. Die Entwickler würde das ein müdes Arschrunzeln kosten. Passiet was? Nein.
4) Spielspezifische (gute) Optimierungen muss man sich mit Abstrichen in der Filterqualität erkaufen, perfekte BQ (A.I. Off) gibt es nur gepaart mit dem Verzicht auf (gute) spielspezifische Optimierungen. Das ist eine Bevormundung und Entmündigung des Kunden wie sie im Buche steht.
5) Kühlung 4850. Unzureichend. Produzierte Artefakte bei Standardtaktraten. Das kann einfach nicht sein. Die Karte war NIE übertaktet, lief immer innerhalb der Spezifikationen, der Lüfter war nicht verstaubt. Dennoch fing sie irgendwann an Artefakte zu produzieren. Ich habe hier eine Uralte 5900XT rumliegen, da ist ein 5950Ultra Bios draufgeflasht+Stockcooler. Die Karte läuft noch. Die 4850 ist abgeraucht.
6) Lautstärke. Als die Karte Artefakte produzierte, musste ich den Lüfter so weit aufdrehen, damit die Artefakte verschwinden, daß ich dachte ein Learjet kreuzt durch mein Gehäuse.

Und kommt mir nicht mit Fanboy. Ich habe nur AMD/ATI-Boards in meinen Rechnern, obwohl ich NV-Chipsätze bekommen könnte und mit den Boards bin ich auch zufrieden. In den Artikeln, an denen ich mitgewirkt habe, ist ATI stets gut weggekommen (was auch weiter so sein wird, sofern es sich aus dem Rohmaterial ableitet), das ist für jeden nachvollziehbar. Und ich kaufe mir garantiert im August keine 4850, nur damit ich mich im April so richtig darüber aufregen, die Annahme ist völlig weltfremd, ich bin ja kein Milliardär, der sich Produkte kauft, die er eh nicht will, nur damit er im Anschluß darüber losledern kann. Aber wenn man die Leistung der 4850 ausklammert, haben mich alle anderen Parameter eben maßlos enttäuscht und das tu ich auch kund und das sollte auch jeder so machen, schließlich hat auch das erst NV veranlasst, seine Filterqualität wieder zu verbessern - sie haben bis heute einen perfekten AF. Und wenn ATI sich jetzt mal die Kritik zu Herzen nimmt, kauf ich mir in einem Jahr auch vielleicht wieder eine ATI. Aber garantiert nicht, wenn nicht wenigstens 6 Monate nach dem Release vergangen sind, die hohe Ausfallrate der 4850 jedenfalls macht sich erst jetzt bemerkbar.

reunion
2009-04-12, 12:49:05
5) Kühlung 4850. Unzureichend. Produzierte Artefakte bei Standarttaktraten. Das kann einfach nicht sein. Die Karte war NIE übertaktet, lief immer innerhalb der Spezifikationen, der Lüfter war nicht verstaubt. Dennoch fing sie irgendwann an Artefakte zu produzieren. Ich habe hier eine Uralte 5900XT rumliegen, da ist ein 5950Ultra Bios draufgeflasht+Stockcooler. Die Karte läuft noch. Die 4850 ist abgeraucht.

Das ist ganz klar ein Mangel der behoben gehört. Man kann mit jeder Karte Pech haben. Das aber als Mangel im Sinne der Herstellers darzustellen ist absoluter Blödsinn. Es gibt haufenweise 4850-Karten welche ohne jegliche Probleme laufen.


6) Lautstärke. Als die Karte Artefakte produzierte, musste ich den Lüfter so weit aufdrehen, damit die Artefakte verschwinden, daß ich dachte ein Learjet kreuzt durch mein Gehäuse.


Es gibt sehr leise, kühle und billige 4850-Karten. Man muss sich halt vorher informieren.

Lawmachine79
2009-04-12, 13:29:37
Das ist ganz klar ein Mangel der behoben gehört. Man kann mit jeder Karte Pech haben. Das aber als Mangel im Sinne der Herstellers darzustellen ist absoluter Blödsinn. Es gibt haufenweise 4850-Karten welche ohne jegliche Probleme laufen.



Es gibt sehr leise, kühle und billige 4850-Karten. Man muss sich halt vorher informieren.
Richtig, die gibt es - da ist aber der jeweilige Kartenhersteller für verantwortlich. Ich rede hier vom Referenzmodell. Und das wurde von ATI entworfen und nicht von Sapphire oder Powercolor.

grobi
2009-04-12, 13:51:38
Richtig, die gibt es - da ist aber der jeweilige Kartenhersteller für verantwortlich. Ich rede hier vom Referenzmodell. Und das wurde von ATI entworfen und nicht von Sapphire oder Powercolor.


Ich habe auch eine 4850 mit Referenzkühler in einsatz gehabt und hatte damit keine Probleme. Deine Karte war von anfang an Defekt.

mfg grobi

Gast
2009-04-12, 14:07:34
Stimmt, AMD's monatliche Treiber sind so gut, die können sich sogar erlauben Bugs einzubauen. :rolleyes:

Hi

Die Grafikkarten haben schon derart eine solche Funktionsvielfalt das es quasi schon ein Wunder wäre, wenn es keine Bugs geben würde.
Da haben alle Hersteller schon Ihre Probleme.

Gruss Labberlippe

Gast
2009-04-12, 16:10:30
3dcenter wird von nvidia gesponsort? hm

Lawmachine79
2009-04-12, 16:13:53
3dcenter wird von nvidia gesponsort? hm
So ein Schwachsinn, lies Dir mal die Artikel durch, die sind stets sehr wohlwollend gegenüber ATI, NV hingegen hat im Rahmen der Filtertricks ordentlich sein Fett weggekriegt.

Blacksoul
2009-04-12, 16:16:26
3dcenter wird von nvidia gesponsort? hm

Jup. Nvidia hat eben großes Interesse daran, dass so ein Desaster wie der G70-Flimmerartikel nicht erneut vorkommt. Der Artikel hat eben eine große Welle losgetreten. Außerdem wird Geld hier gut gebraucht, wie Leo mal anmerkte. Verübeln kann man es ihm also nicht. Und der User hat dann auch etwas davon, da beispielsweise bereits der Google-Werbekram entfernt wurde. Gibt imo schlimmeres.

edit: Meiner Meinung nach ist es schlimmer, dass ein Autor/Redakteur des 3DCenter es nicht schafft, Standard mit d zu schreiben.


t.b.d

Exxtreme
2009-04-12, 16:35:47
3dcenter wird von nvidia gesponsort? hm
Japp, Wirtschaftskrise und so. Und als Betreiber muss man schon sehen wo man bleibt.

Gast
2009-04-12, 16:39:50
Jup. Nvidia hat eben großes Interesse daran, dass so ein Desaster wie der G70-Flimmerartikel nicht erneut vorkommt.
Ach und deswegen gibts auch schon so lange einen AI Artikel hier.
:rolleyes:

Lawmachine79
2009-04-12, 17:03:56
Jup. Nvidia hat eben großes Interesse daran, dass so ein Desaster wie der G70-Flimmerartikel nicht erneut vorkommt. Der Artikel hat eben eine große Welle losgetreten. Außerdem wird Geld hier gut gebraucht, wie Leo mal anmerkte. Verübeln kann man es ihm also nicht. Und der User hat dann auch etwas davon, da beispielsweise bereits der Google-Werbekram entfernt wurde. Gibt imo schlimmeres.

edit: Meiner Meinung nach ist es schlimmer, dass ein Autor/Redakteur des 3DCenter es nicht schafft, Standard mit d zu schreiben.


t.b.d
Weis mir das in einem Artikel nach und ich spendiere Dir einen Elfer.

Davon ab: hier wird ein Hardwarehersteller für Mängel an einem Produkt kritisiert. Wenn das einem ATI-Fan nicht passt, sollte er auf www.ati.com seine Zeit verbringen und wenn einem NVidia-Fan das nicht passt, sollte er auf www.nvidia.com sein Unwesen treiben. Es ist absurd, daß ein Fanboy (angesichts der Unterstellung ist es ja offenkundig) behauptet, daß eine Seite von einem Hersteller bezahlt wird, sobald der andere Hersteller kritisiert wird. Sollen wir demnächst Benchmarkwerte von ATI nach oben fälschen, damit nicht die Vermutung aufkommt, wir wären von NV subventioniert? Wenn ich Manches hier lese, frage ich mich, ob jeder seinen Osterrausch ordentlich ausgeschlafen hat!

Gast
2009-04-12, 17:14:21
3DC hat nunmal den AMD/ATI Touch seit Jahren nicht ablegen können.

Wer warmachine79 nach dem Test der älteren Grafikkarten noch für Nvidia freundlich hält, hat ein arg vedrehtes Weltbild. Gerade solche Artikel, in Zusammenspiel der seit 2,5 Jahren überfälligen AI-Artikel und den doppelten G7x Flimmerartikeln zeigen mir, das 3DC definitiv der roten Seite näher steht oder bis jetzt stand.

Aber ich lasse mich gerne durch einen zukünftigen AI-Artikel besänftigen.

_DrillSarge]I[
2009-04-12, 17:32:27
jetzt mal tacheles: eigentlich ist es ganz anders. 3dcenter wird regiert von XGI!!! diese wurden überhaupt nicht von ati übernommen, sondern sind ein joint venture mit dem bnd eingegangen. das hat den sinn, dass alle crew-member die chips von anderen bashen und die forensoftware heimlich euren rechner ausspioniert.
:P

mal im ernst: toll den thread kaputtgemacht (y)

[x] close

tEd
2009-04-12, 17:38:33
Naja wirklich viel gibts ja zum Interview sowieso nicht mehr zu sagen.

Gast
2009-04-12, 18:06:53
Richtig, die gibt es - da ist aber der jeweilige Kartenhersteller für verantwortlich. Ich rede hier vom Referenzmodell. Und das wurde von ATI entworfen und nicht von Sapphire oder Powercolor.

Laut Dir hat jede HD4850 im Referenzdesign diese Artefaktprobleme. Genau so stellst Du es dar. Klar, wir verblendeten ATI-Dussel nehmen das natürlich in Kauf.
Wer sowas ernsthaft behauptet, der sollte sich besser um seine eigenen Räusche kümmern, und zwar mit der nötigen Intensität.

Lawmachine79
2009-04-12, 18:18:10
Laut Dir hat jede HD4850 im Referenzdesign diese Artefaktprobleme. Genau so stellst Du es dar. Klar, wir verblendeten ATI-Dussel nehmen das natürlich in Kauf.
Wer sowas ernsthaft behauptet, der sollte sich besser um seine eigenen Räusche kümmern, und zwar mit der nötigen Intensität.
Nicht jede, aber das Internet ist voll davon. Sowas darf es überhaupt nicht geben bei Defaulttakten. ÜBERHAUPT NICHT.

y33H@
2009-04-12, 18:41:00
Außerdem ist die (reine) Kantenglättung dank Edge-Detect besserED glättet die Geometrie am besten, falls du das meinst. Gegen OGSSAA samt RGMSAA und vll gar noch TSSAA in Form der xS-Modi kommt ED freilich nicht an - das glättet nämlich praktisch alle Kanten *g*perfekte BQ (A.I. Off) gibt es nur gepaart mit dem Verzicht auf (gute) spielspezifische OptimierungenAI off flimmert immer noch. Off sind nur die spielespezifische Optimierungen, nicht die die BQ betreffen ;D

Ok, bei ner Geforce muss man für beste OGL-Quali nach wie vor den Rivatuner bemühen ... damit keiner Grund hat zu weinen, weil keiner was pööhses zur Nv'schen Filter-Quali sagt ... aber AI sucks. Punkt.

Raff
2009-04-12, 18:45:51
24x ED-CFAA bietet eine etwas bessere Polygonglättung als 32xS, weil die Sample-Übergänge zermatscht werden. 32xS ist dank des 4-fachen SS-Anteils aber insgesamt deutlich überlegen, zu sehen in jedem aktuellen Flimmerspiel.

MfG,
Raff

Gast
2009-04-12, 19:21:10
Toll zeig mal ein Spiel das mit 32xS flüssig läuft

Wo wir doch dank warmachine79 bei schlechten Referenzdesigns sind, was ist denn mit dem deutlich wahrnehmbaren Spulenpfeifen bei allen aktuellen nVidias, ist doch auch das Referenzdesign.

1 Treiber. Mit dem Catalyst hat man nichts als Ärger. Da muss man nur mal durch die einschlägigen Foren streifen. Auch mußte noch niemand wegen des NV-Treibers sein Windows neu aufsetzen. Wenn der Catalyst nach De-und Reinstallation von .Net noch immer nicht läuft, ist Neuinstallation inzwischen die Standartlösung.

Aha, ich weiß es nicht nur hatte ich noch nie Probleme mit dem CCC, mit dem nV CP übrigens auch noch nicht (wer sich deswegen gar das OS neu aufspielt, dem ist nicht mehr zu helfen) Ich liebe einfach diese Pauschalisierungen à la: Nv ist überall besser außer beim Preis!

Wessen Karten werden über Jahre optimiert?
Wessen Treiberbenennung ist durchschaubar?
Wer nVs Treiberpolitik als Vorteil sieht, leidet einfach gerne, Kundenfreundlich ist es bestimmt nicht!

Ach übrigens danke y33H@ in dieser Weise hast du dich noch nie so sehr zu nVidia bekannt. Jetzt weiß ich wo das PCGH steht.

Es ist fast schon erdrückend wie die (Möchtegern-)Grafikgurus und Tester versuchen Stimmung gegen ATi zu machen. Es ist doch mehr als klar, dass sobald sich die Möglichkeit des absoluten AI-OFF ergibt (fraglich, ob hier nicht die Hardware beschränkt) ihr dann nur noch mit diesem Setting testet!
Und nein ich bin nicht bereit auf 20% der Leistung zu verzichten, damit sich ein paar Fetischisten an der Grafik aufgeilen können. Ich habe nie einen Unterschied zwischen der 8800GTX und meiner HD4870 bemerkt, so sehr ich auch wollte. Dass nV's 4xMSAA immernoch schlechter als die der ATi's ist, wird auch nicht erwähnt.

Ich verstehe nicht die Faszination die nV ausmacht, jene ist aber denitiv da und nimmt linear mit dem subjektiven Wissen der Probanden zu.

MfG

Booby

Lawmachine79
2009-04-12, 19:26:29
Toll zeig mal ein Spiel das mit 32xS flüssig läuft


Die BQ von 16xS ist mit ATI-Karten bereits unerreichbar. Und mit 16xS kann man mit einer GTX260@216 schon alles spielen, was vor Crysis kam.

Der CF-Blur reißt viel mehr raus als der Sprung von 4 auf 8 Multisamples.


Bezog sich auf NV-Karten.

Es ist echt lächerlich, wer Voreingenommenheit zugunsten NV unterstellt, hat keinen einzigen Artikel des 3DCenter gelesen.

was ist denn mit dem deutlich wahrnehmbaren Spulenpfeifen bei allen aktuellen nVidias, ist doch auch das Referenzdesign.




Das ist ohne Zweifel auch ein Unding, allerdings ist deswegen noch keine Karte abgeraucht.
Es ist doch mehr als klar, dass sobald sich die Möglichkeit des absoluten AI-OFF ergibt ihr dann nur noch mit diesem Setting testet!

Genau, so wie wir es mit NV machen. Fakt ist, daß es keine einzige sachliche Begründung gibt, die BQ-Settings an spielspezifische Optimierungen zu binden, es sei denn, man hat etwas zu verbergen. Die derzeitige Treiberpolitik jedenfalls ist "Friß oder Stirb".

Raff
2009-04-12, 19:32:09
Das ist ohne Zweifel auch ein Unding, allerdings ist deswegen noch keine Karte abgeraucht.

Einigen Menschen fehlt anscheinend das Verständnis dafür, dass Negativpunkte als solche ausgesprochen werden. Sind die bei einem Hersteller zahlreicher, und sei es nur ein Teilgebiet, sind natürlich die Kritiker schuld, nicht der verzapfende Hersteller.

MfG,
Raff

Lawmachine79
2009-04-12, 19:33:13
Und nein ich bin nicht bereit auf 20% der Leistung zu verzichten, damit sich ein paar Fetischisten an der Grafik aufgeilen können.
Streiche Fetischisten, setze Enthusiasten. Wenn Dir das hier zu sehr ins Detail und auf Kleinigkeiten angeht, empfehle ich Dir "schlichtere" Foren.
Einigen Menschen fehlt anscheinend das Verständnis dafür, dass Negativpunkte als solche ausgesprochen werden. Sind die bei einem Hersteller zahlreicher, und sei es nur ein Teilgebiet, sind natürlich die Kritiker schuld, nicht der verzapfende Hersteller.

MfG,
Raff
Die Diskussionsteilnehmer, die auf Mängel beider Hersteller einzugehen bereit sind, kann man an einer Hand abzählen. Dabei tut man sich keinen Gefallen damit, erst wenn der Druck auf einen Hersteller wirklich groß wird, ändert er was. Siehe NV und Filtertricks, ATI wird nicht annähernd so unter Druck gesetzt und schon kommen Einige mit Voreingenommenheit.

_DrillSarge]I[
2009-04-12, 19:38:40
Es ist doch mehr als klar, dass sobald sich die Möglichkeit des absoluten AI-OFF ergibt (fraglich, ob hier nicht die Hardware beschränkt) ihr dann nur noch mit diesem Setting testet!
Und nein ich bin nicht bereit auf 20% der Leistung zu verzichten, damit sich ein paar Fetischisten an der Grafik aufgeilen können. Ich habe nie einen Unterschied zwischen der 8800GTX und meiner HD4870 bemerkt, so sehr ich auch wollte. Dass nV's 4xMSAA immernoch schlechter als die der ATi's ist, wird auch nicht erwähnt.


Booby
hast du dir schon mal überlegt, das es in DIESEM THREAD genau darum geht?
es geht um bildqualität und deren beschränkung etc. bei ati. um nix anderes und da werden nun mal mängel angesprochen.
wer sowas als geflame o.ä. ansieht, braucht ja den thread nicht beachten.

y33H@
2009-04-12, 19:42:37
Ach übrigens danke y33H@ in dieser Weise hast du dich noch nie so sehr zu nVidia bekannt.Wenn man die BQ bei AI kritisiert und die Tatsache benennt, dass 32xS 24xED überlegen ist, bekennt man sich zu nVidia? Grandiose Logik. Die Logik eines Fanboy-Gastes.Jetzt weiß ich wo das PCGH steht.Auch schön. Warum sind Leute wie du nicht in der Lage zu differenzieren? So wie Raff bin auch ich eine Privatperson und nicht pauschal DIE PCGH. Zumal es an den Aussagen zu AI und den FSAA-Modi schlicht nichts zu rütteln gibt.Ah ja - die PCGH, nicht das.Dass nV's 4xMSAA immernoch schlechter als die der ATi's ist, wird auch nicht erwähnt.Was ist schlechter am 4x MSAA von nVidia? Die Samples sind leicht anders, je nach Winkel kann es daher einen Ticken besser aussehen - und umgekehrt. Angesichts der Welten die sich beim AF auftun muss man für den MSAA-Unterschied Massen an Screenshots mit der Lupe an den richtigen Stellen absuchen.Stimmung gegen ATi zu machenIst es schon Stimmungsmache, wenn man Kritik an etwas übt, was kritikwürdig ist?! Nein.was ist denn mit dem deutlich wahrnehmbaren Spulenpfeifen bei allen aktuellen nVidias, ist doch auch das ReferenzdesignTritt nur bei weit über 100 Fps auf, bei Radeons wie Geforces. Bei letzteren lauter. Im Gegensatz zu FSAA und AF sieht man über 100 Fps aber nur kurz im Menü oder bei Ladezeiten und selbst leise Musik übertönt das. Mieses AF sieht man dagegen ... ok, wer sich Wide-Tent aufs Bild klatscht, der blurt eh alles weg. Gute Idee, flimmern mit blur bekämpfen ;D

Gast
2009-04-12, 20:00:39
Och bitte diese maßlose Selbstüberschätzung ist doch sowas von lächerlich.
Es geht hier doch primär und das minimale Flimmern, mich persönlich stört es kaum. Nur im Gegensatz zum G70 ist das doch nicht mehr der Rede wert. Mir persönlich gehen flimmernde Kanten wesentlich eher auf den Geist. Und es ist ja auch nicht so, dass bei nV die Texturen gar nicht flimmern. Dass ich bei ATi grundsätzlich schärfere Texturen habe, fällt bei dir auch nicht ins Gewicht...
Es wirklich nur eine Frage der Gewichtung. Es ist sehr gut möglich, dass ab dem R600 einfach nicht mehr möglich ist. Ist in diesem Fall der ganze Chip für den Eimer, nur weil ein paar Leute durchgehend perfekte Texturen erwarten? 99,9% der User aber überhaupt kein Problem damit haben! Wie gesagt das Schlimme ist ja, dass solche Leute dann die Reviews schreiben und einen Herrsteller in Ungnade fallen lassen. nVidias verstand es schon zu 3dfx Zeiten solche Entscheidungkompetenzen auf ihre Seite zu bringen.

Die Diskussionsteilnehmer, die auf Mängel beider Hersteller einzugehen bereit sind, kann man an einer Hand abzählen. Dabei tut man sich keinen Gefallen damit, erst wenn der Druck auf einen Hersteller wirklich groß wird, ändert er was. Siehe NV und Filtertricks, ATI wird nicht annähernd so unter Druck gesetzt und schon kommen Einige mit Voreingenommenheit.
Ich hoffe du willst damit nicht sagen, dass du zu diesen unvoreingenommenen Leuten gehörst. Wie schon oben zitiert, deiner Ansicht nach ist nV überall besser außer halt beim Preis...

Iceman346
2009-04-12, 20:04:43
Die BQ von 16xS ist mit ATI-Karten bereits unerreichbar. Und mit 16xS kann man mit einer GTX260@216 schon alles spielen, was vor Crysis kam.

Das ist schon wieder so eine unzulässige Verallgemeinerung. 16xS konnte ich mit der GTX260 in ganz wenigen Titeln wirklich nutzen, 8xS war da angenehmer aber auch nur in Ausnahmefällen brauchbar von den FPS her. Das ganze in 1920x1200. WoW kratzte bereits mit 8xS im 1280x1024 Fenstermodus oftmals am Rande der Spielbarkeit.

Raff
2009-04-12, 20:05:57
Dass nV's 4xMSAA immernoch schlechter als die der ATi's ist, wird auch nicht erwähnt.

Das liegt daran, dass diese Tatsache keine ist. Die Modi 2x, 4x und 8x wirst du nur mit erheblichem Vergrößerungs- und Selektionsaufwand qualitativ unterscheiden können. Vergiss dabei aber nicht, alle erdenklichen Winkel zu testen, sonst kommen schnell falsche Schlüsse zustande. Fazit: Die nehmen sich nichts. Ati ist bei 8x nur schneller (relativ), nicht hübscher als NV.

Ich find's aber hochgradig interessant, dass du die teils stechenden Unterschiede zwischen Ati- und NV-AF nicht siehst, den nicht vorhandenen beim AA jedoch schon. ;D

Das ist schon wieder so eine unzulässige Verallgemeinerung. 16xS konnte ich mit der GTX260 in ganz wenigen Titeln wirklich nutzen, 8xS war da angenehmer aber auch nur in Ausnahmefällen brauchbar von den FPS her. Das ganze in 1920x1200.

Mit einer GTX 28x wirst du in 1.680x1.050 jedoch keine gravierenden Probleme mit 16xS haben. Ausnahmen bestätigen die Regel. Ja, ich weiß das, denn die Kombination ist meine Präferenz beim Zocken.

MfG,
Raff

Gast
2009-04-12, 20:10:00
@_DrillSarge]I[

Hast du schon überlegt, worum es bei diesem Thread genau geht?
Schau mal bitte auf die Überschrift?

Warum so negativ, man sollte explizit zu Nvidia raten
Mach ich schon:

Aktuelle Modelle der 8000-/9000- und GTX-200-Serie bieten folgende Vorteile:
• Beste Bildqualität dank OGSSAA- und Hybrid-Modi sowie Ambient Occlusion
• Optionales High-Quality-AF mit deaktivierten Optimierungen
• CUDA und damit GPU-beschleunigtes PhysX
• Freie Wahl zwischen TSSAA und TMSAA
• Mehr Optionen bei MPGU-Nutzung
• Häufigere Treiber-Updates dank Betas


Es geht mir eher um solche Beiträge.


@y33h@

Falsch das Spulenpfeilen tritt bei den Radeons erst ab 300fps auf.
Bei nV (GTX280 beim Kumpel) kann man es bereits bei 80pfs wahrnehmen.

Booby

_DrillSarge]I[
2009-04-12, 20:15:34
@_DrillSarge]I[

Hast du schon überlegt, worum es bei diesem Thread genau geht?
Schau mal bitte auf die Überschrift?
um das interview. bevormundung durch ai etc..
-> das hängt direkt mit der bildqualität zusammen

Rage3D: Also tied to the topic of optimizations: do you feel that having everything tied to the Catalyst AI is still a viable alternative? This creates the premise for someone completely turning it off in order to get perfect filtering or whatever, and thus killing a lot of valid, per-application optimizations and badly affecting performance. Don't you feel the market is mature enough to have separate knobs for more mundane optimizations, like those pertaining to texture-filtering? And wouldn't it be more prudent to keep the per-application optimizations/fixes in an always enabled state?

Andrew: I don’t think users have much to gain by adjusting so many different settings – one of our key messages behind Catalyst AI is that every optimization we do only enhances the performance of applications with absolutely no degradation in image quality, and users can verify this for themselves by comparing an application with Catalyst AI on vs. off.

Gast
2009-04-12, 20:17:11
Das sind JPEGs (= unbrauchbar) und keine pixelgenauen Bilder.

MfG,
Raff

100% = brauchbar...

Gast
2009-04-12, 20:18:12
Das sind JPEGs (= unbrauchbar) und keine pixelgenauen Bilder.


Ob pixelgenau oder nicht, den Unterschied muss man praktisch mit der Lupe suchen und selbst da dürfte es schwerfallen da was zu finden wo 24xEdgeAA minimal besser glättet, während 8xS in Bewegung wiederum klar von Vorteil ist.

Raff
2009-04-12, 20:18:15
100% = brauchbar...

Ich sehe auf den Bildern selbst an dem übelst unscharfen CRT in meiner Heimat, vor dem ich gerade sitze, Kompressionsartefakte, ergo: nö.

http://666kb.com/i/b80yi6klf4alvi9ch.png

MfG,
Raff

Gast
2009-04-12, 20:19:15
Ich find's aber hochgradig interessant, dass du die teils stechenden Unterschiede zwischen Ati- und NV-AF nicht siehst, den nicht vorhandenen beim AA jedoch schon.

Natürlich sehe ich keinen Unterschied beim AA, habe ich auch nie behauptet.

@Gast

Ganz toll Kompression dank JPEG und selbst dann sieht man wesentlich mehr Details beim 24xEdge

Gast
2009-04-12, 20:24:57
Ich sehe auf den Bildern selbst an dem übelst unscharfen CRT in meiner Heimat, vor dem ich gerade sitze, Kompressionsartefakte, ergo: nö.


http://img3.imagebanana.com/view/frwslmub/_8xS_.jpg
Mal auf die 3 Stellen achten zwischen 8xS und 24xEdgeAA (auf den Originalpics!) , ich denke man sieht das 8xS besser glättet.

Gast
2009-04-12, 20:28:54
Nur im Gegensatz zum G70 ist das doch nicht mehr der Rede wert.
Warum nicht?

Dass ich bei ATi grundsätzlich schärfere Texturen habeFalsch.
Außerdem, manuellen LOD Regler vergessen?
SSAA als Texturschärfer vergessen?

Ist in diesem Fall der ganze Chip für den Eimer, nur weil ein paar Leute durchgehend perfekte Texturen erwarten? Die Karte kann mehr als der Treiber zulässt.
Das ist Fakt oder was meinst du warum alle weinen wenn man mit AI-off ankommt?

Wie viel mehr ist unklar, aber G8x Q wär schonmal ein Anfang, kostet auch nicht die Welt.


99,9% der User aber überhaupt kein Problem damit haben!
Äh nein.
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=438475
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=438525
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=438530

Wie gesagt das Schlimme ist ja, dass solche Leute dann die Reviews schreiben und einen Herrsteller in Ungnade fallen lassen. nVidias verstand es schon zu 3dfx Zeiten solche Entscheidungkompetenzen auf ihre Seite zu bringen.
Genau, deshalb wars zu G7x Zeiten ok.
G7x Karten sind die einzigen, die ihre 2 Links bei Geizhals bekommen haben, das hat nie Kaufentscheidungen beeinflusst, gell?

derguru
2009-04-12, 20:31:13
http://img3.imagebanana.com/view/frwslmub/_8xS_.jpg
Mal auf die 3 Stellen achten zwischen 8xS und 24xEdgeAA (auf den Originalpics!) , ich denke man sieht das 8xS besser glättet.

8xS glättet nicht mal besser als 8tmsaa. bei fallout 3 ist ssaa eh total unnötig.:rolleyes:

Gast
2009-04-12, 20:32:30
8xS glättet nicht mal besser als 8tmsaa. bei fallout 3 ist ssaa eh total unnötig.:rolleyes:

Dann bist du blind...ich hab die 3 Stellen extra rot markiert.

Raff
2009-04-12, 20:35:56
8xS glättet nicht mal besser als 8tmsaa. bei fallout 3 ist ssaa eh total unnötig.:rolleyes:

Die Texturen des HD-Packs flimmern oft wie Sau (z. B. der Kieselboden mit feinen Braun-Schwarz-Kontrasten). Anhand dieser Bilder treffe ich trotzdem keine Aussage zur AA-Qualität.

MfG,
Raff

Gast
2009-04-12, 20:38:12
Die Texturen des HD-Packs flimmern oft wie Sau Auch noch mit 2x2SS?

Gast
2009-04-12, 20:39:30
Habe eine G70 erlebt und habe das Flimmern bemerkt, gestört hat es mich aber nicht.

Genau, deshalb wars zu G7x Zeiten ok.
G7x Karten sind die einzigen, die ihre 2 Links bei Geizhals bekommen haben, das hat nie Kaufentscheidungen beeinflusst, gell?
Habe ich gesagt dass nVidia nie Opfer davon wurde?

Damals bei grottenschlechten AA der FX-Serie blieb es ihnen aber erspart und da hat mich der Umstand wesentlich mehr gestört.


Die Karte kann mehr als der Treiber zulässt.

Quelle?

@_DrillSarge]I[
das ist deine subjektive Interpretation.

Wer einem 'Marketing-Typen glaubt, hat schon verloren, wenn er was anderes machen würde, hätte ich ihn gefeuert (wäre ich sein Vorgesetzter)

Raff
2009-04-12, 20:43:18
Auch noch mit 2x2SS?

HQ + 4x SSAA tötet das Flimmern weitgehend, jo. Q sieht aber fies aus, A.I. ist noch schärfer und damit flimmeriger.

MfG,
Raff

Savay
2009-04-12, 20:55:14
I[;7231409']um das interview. bevormundung durch ai etc..
-> das hängt direkt mit der bildqualität zusammen

ja nun was er da schreibt ist ja auch richtig...nen wirklichen unterschied ausser in der performance gibt es zwischen AI on und off auch nicht :rolleyes:

je nach standpunkt ist halt beides "absolut scheiße" oder "für mich ausreichend"...:cool:

ich weiß sowieso nicht warum hier wieder groß auf kindergarten niveau mit einer derartigen vehemenz diskutiert wird...FAKT ist einfach das nV AF ist besser als das ATi AF...wer damit leben kann soll das tun...wer nicht kann auch aufhören hier eine diskussion fort zu führen die einfach verpufft weil sie ausser ein paar geeks niemanden erreicht...hier wird sich doch eh im kreis gedreht

zu dem thema wurde doch schon nahezu alles wesentliche gesagt...das einzige was noch fehlt ist ein fundierter artikel inkl. HD vergleichsvideos der das ganze auch mal auf der 3DCenter hauptseite in den fokus rückt...das würde vielleicht sogar mal etwas bewirken.

BTW. mal so am rande...wer sich hier im forum wiederholt derart "voreingenommen" präsentiert und sei es auch als "privatperson" wird das auch auf der arbeit nicht ablegen können egal wie sehr diejenigen sich auch im beruflichen umfeld um unvoreingenommenheit bemühen. das kann mir keiner erzählen das es die arbeit nicht beeinflusst...und diejenigen brauchen sich dann eigentlich auch nicht über gewisse vorwürfe zu wundern. :rolleyes:

ich würde mir da generell eher die frage stellen ob es schlau und professionell ist seine privatmeinung derartig zu publizieren. :|

Raff
2009-04-12, 21:04:20
Missstände und Fakten bleiben privat und beruflich Missstände und Fakten. Klick doch mal auf den Fanboy-Meter in meiner Signatur.

MfG,
Raff

Lawmachine79
2009-04-12, 21:08:42
Wo wir doch dank warmachine79 bei schlechten Referenzdesigns sind, was ist denn mit dem deutlich wahrnehmbaren Spulenpfeifen bei allen aktuellen nVidias, ist doch auch das Referenzdesign.




Nochmal etwas zu Referenzdesigns:
http://geizhals.at/deutschland/?cat=gra16_512;asuch=4850&sort=p
Sieh Dir mal die 4850er an - da ist das Referenzdesign nur noch SEHR selten vertreten - faktisch ausgestorben -, sowas habe ich bei noch keiner anderen Karte gesehen, das bei fast jedem Modell die Hersteller irgendwas eigenes basteln! Die Custom-Modelle sind auch noch preisgünstiger - warum? Weil man sich dadurch RMA-Kosten spart. Zumindest ist das die einzig betriebswirtschaftlich sinnvolle Antwort auf die Frage: "Warum ist das in der Herstellung kostenintensivere Customprodukt im Verbraucherendpreis günstiger?"

ATI muss man zugestehen (oder vorwerfen, je nach Sichtweise), daß sie es absolut selbst in der Hand ein in der Tat besseres Produkt als NV zu basteln. Der Chip, das Fundament also, ist ja hervorragend - AI, Hybridmodi, Kühlung - alles Dinge, die man ohne Weiteres machen könnte. Um die Kühlung muss man sich nicht mehr kümmern, da aufgrund der hohen Ausfallraten eh nur noch Customlösungen verkauft werden. AI abschaffen, das Profilsystem von NV übernehmen, SSAA freischalten und den Catalyst weg von diesem unsäglichen .NET, Produktpreis beibehalten und schon guckt NV blöd aus der Wäsche.