PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Computerbase Test: 19 DX11 Grafikkarten


dildo4u
2011-06-24, 21:31:42
Neues Testsystem,relativ aktuelle Treiber und 6 neue Games.

Intel Core i7-2600K (übertaktet per Multiplikator auf 4,5 GHz, Quad-Core)

Treiberversionen
AMD Catalyst 11.5b mit CAP4
Nvidia GeForce 275.27


http://www.computerbase.de/artikel/grafikkarten/2011/test-19-grafikkarten/#abschnitt_einleitung_und_neuigkeiten

mapel110
2011-06-24, 21:35:22
Für SLI mal wieder wenig aussagekräftig, weil sie sich keine Mühe machen, es zum Laufen zu bringen falls es mal nicht out of the box greift.

san.salvador
2011-06-24, 21:42:21
Keine 480 dabei, wth?

Knuddelbearli
2011-06-24, 21:42:23
finds schade das sie noch auf den SB-E gewartet haben vor allem für li / cf tests

dargo
2011-06-24, 21:49:50
Keine 480 dabei, wth?
Wozu denn? GTX570 = ~GTX480 solange der Vram der GTX570 nicht limitiert. Und da CB nur mit MSAA testet wird das in der Regel nie passieren (einzige Ausnahme 8xMSAA in 2560x1600). Ob die eine oder andere mal 5% vorne oder hinten liegt juckt dann auch niemanden.

LovesuckZ
2011-06-24, 21:51:27
Der Rambedarf steigt auch nicht mit SSAA höher.

derguru
2011-06-24, 21:52:33
doch doch,bestimmt.;D

san.salvador
2011-06-24, 21:53:21
Wozu denn? GTX570 = ~GTX480 solange der Vram der GTX570 nicht limitiert. Und da CB nur mit MSAA testet wird das in der Regel nie passieren (einzige Ausnahme 8xMSAA in 2560x1600). Ob die eine oder andere mal 5% vorne oder hinten liegt juckt dann auch niemanden.
Dann sind aber auch andere Karten unnütz.

Die 480 ist altes high-end und somit eine sehr gute Referenz. Wenn man sich zum Ziel setzt, einen möglichst breiten Vergleich zu liefern, dann ist die Pflicht. Zumal die preislich gerade extrem interessant ist.

y33H@
2011-06-24, 21:55:47
finds schade das sie noch auf den SB-E gewartet haben vor allem für li / cf testsWozu? Die zwei Kerne reißen es im Mittel nicht. Außerdem ist SNB-E noch ein halbes Jahr entfernt.

dargo
2011-06-24, 21:56:06
Der Rambedarf steigt auch nicht mit SSAA höher.
Hä?

Ich war aber etwas zu voreilig. CB testet doch zusätzlich noch SSAA.

LovesuckZ
2011-06-24, 21:56:36
Dann sind aber auch andere Karten unnütz.

Die 480 ist altes high-end und somit eine sehr gute Referenz. Wenn man sich zum Ziel setzt, einen möglichst breiten Vergleich zu liefern, dann ist die Pflicht. Zumal die preislich gerade extrem interessant ist.

Die GTX480 ist keine Referenz. Abgesehen von ein paar Custom-Design macht es kein Sinn sie weiter im Chart zu haben, da die GTX570 sie sehr gut repräsentiert.

fondness
2011-06-24, 21:57:03
Für SLI mal wieder wenig aussagekräftig, weil sie sich keine Mühe machen, es zum Laufen zu bringen falls es mal nicht out of the box greift.

Alles andere läuft auch out-of-the-box somit ist das sogar sehr aussagekräftig.

LovesuckZ
2011-06-24, 21:57:30
Hä?


Bezug sich hierrauf:

Wozu denn? GTX570 = ~GTX480 solange der Vram der GTX570 nicht limitiert. Und da CB nur mit MSAA testet wird das in der Regel nie passieren (einzige Ausnahme 8xMSAA in 2560x1600). Ob die eine oder andere mal 5% vorne oder hinten liegt juckt dann auch niemanden.

Der Bedarf ist nicht soviel höher, dass es sich überhaupt negativ bemerkbar macht.

dargo
2011-06-24, 21:59:49
Dann sind aber auch andere Karten unnütz.

Sehe ich nicht so. Ich kann wie gesagt die Leistung der GTX480 sehr gut von der GTX570 ableiten. Man wird es nicht jedem recht machen können. Denn dafür bräuchte man noch eine GTX470, GTX460 usw. usf.

derguru
2011-06-24, 22:14:37
Alles andere läuft auch out-of-the-box somit ist das sogar sehr aussagekräftig.
war zu zeiten von miesen cf profilen auch nicht anders,da hat die nv fraktion auch auf out of the box bestanden obwohl es ein leichtes war über exe umbenennung sehr gute skalierung zu erreichen.

ich seh jetzt aber auch kein spiel wo sli nicht skaliert(ok teilweise beschissen aber skaliert)abgesehen von ssaa benchs.bestimmt ein schreibfehler denn bulletstorm skaliert unter 1080p aber dafür in 1680*1050 nicht.:biggrin:

mapel110
2011-06-24, 22:25:40
Bei Dragon Age ab 2560er Auflösung greift es offenbar nicht mehr.
bei Bulletstorm ist wohl auch was fuckep up.

Blaire
2011-06-24, 22:30:18
Da hat der Wolfgang sich wieder sehr viel Mühe gemacht, sehr schöner und umfangreicher Test. :up:

Ronny145
2011-06-24, 22:43:44
Mit welchen Treibereinstellungen testet Computerbase? Quality mit beiden Herstellern?

€: schon gefunden.

Klingone mit Klampfe
2011-06-24, 22:44:44
Die HD6770 entspricht einer HD5770, richtig?

y33H@
2011-06-24, 22:48:49
Ja, Performance 1:1 identisch.

Raff
2011-06-24, 22:54:17
Mit welchen Treibereinstellungen testet Computerbase? Quality mit beiden Herstellern?

€: schon gefunden.

GeForce-Karten filtern unter DX10/11 übrigens (nach wie vor) automatisch mit HQ. Das ist irgendwie banane, aber hier müsste man fairerweise auf Radeons ebenfalls HQ aktivieren.

MfG,
Raff

boxleitnerb
2011-06-24, 23:23:24
Warum eigentlich? Bug oder Absicht?

Raff
2011-06-24, 23:26:29
Laut Nvidia Absicht. Aber da HQ normalerweise eh fast nichts kostet, ist das fast egal. So dachte NV wohl auch – ohne das je offensiv zu bewerben.

MfG,
Raff

boxleitnerb
2011-06-24, 23:31:53
Laut einem Test von HT4U vor etwa einem Jahr kostet HQ schon bis zu 10%. Im Schnitt 3-4% vielleicht - das, was auch ein Treiber an Performance bringt teilweise. Ich finds ja löblich, aber ich verstehe es nicht :freak:

Das ist so untypisch. Nvidia optimiert die SLI-Profile für beste Kompatibilität anstatt Performance, verschenken selbige oft auch ohne Grund...wieso?

Raff
2011-06-24, 23:34:56
Um genau zu sein: Im stark konstruierten Worst Case sind es bis 15 Prozent (UT2004 mit der richtigen Dosis OG/SG-SSAA). ;) Ich verstehe es auch nicht und hätte gern die Option, mit SSAA etwas Füllrate einzusparen. Aber was soll's – besser so als Q-Zwang.

MfG,
Raff

horn 12
2011-06-25, 07:45:00
Nun, die HD6950 2GB schneidet recht schlecht ab.
Teilweise langsamer als die 1GB HD6950, zudem ist die GTX 570 schneller, und oft gute 10-15%
Durch die Treiber Boost kann ich mir dies schlecht vorstellen.
Hat Computerbase wohl richtig gebencht,- oder NV wieder bevorzugt ?

Hugo78
2011-06-25, 08:30:23
@horn 12
Seit wann ist die 6950 der Gegner für die 570?! :crazy:

horn 12
2011-06-25, 08:45:03
Ja, der Gegner war/ bzw. ist immer noch die HD6970
Doch durch die teils enormen Performance Schübe durch die Neuen AMD Treiber sollte die HD6950 weitaus näher an der GTX 570 ran sein als die ComputerBase Test darstellen,- und die HD6970 wohl auch geringfügig schneller.

desert
2011-06-25, 09:33:05
Ja, der Gegner war/ bzw. ist immer noch die HD6970
Doch durch die teils enormen Performance Schübe durch die Neuen AMD Treiber sollte die HD6950 weitaus näher an der GTX 570 ran sein als die ComputerBase Test darstellen,- und die HD6970 wohl auch geringfügig schneller.

Es gibt keine Wundertreiber die erst das richtige potenzial der grafikkarten freilegen, hat es nie und wird es nie.

Was es gibt, ist bugbeseitigung und leichte optimierung, die in ausgewählten spielen für einen schub sorgen können, aber niemals über über die gesamte bandbreite der spiele die grafikkarten plötzlich um 20 % beschleunigen.

Wenn man sich mal treiberreviews anschaut, stellt man fest das die neuen treiber im durchschnitt um 1-3 % zulegen, das ist kein perfomanceschub, das ist kosmetik.

Undertaker
2011-06-25, 10:14:58
Computerbase hat mit dem 11.5b doch einen sehr aktuellen Treiber gemessen. Auch der Nvidia-Treiber war ähnlich alt bzw. neu. Faire Voraussetzungen, und das Ergebnis (560Ti ~ HD6950, 570 ~ HD6970) ist absolut typisch. Imo ein guter und sauberer Test.

derguru
2011-06-25, 10:30:49
Faire Voraussetzungen, und das Ergebnis (560Ti ~ HD6950, 570 ~ HD6970) ist absolut typisch. Imo ein guter und sauberer Test.
mit 2 klaren gewinnern mMn,AMD.(vor allem bei den neueren spielen wie bulletstorm,shogun 2,dirt 3,dragon age 2)

Reneeeeeee
2011-06-25, 10:54:21
wieso nehmen die eigentlich nirgends mehr eine 5870 mit rein ? aber eine 5850 dafür. Soll man etwa die Werte der 6870 nehmen ? ^^

Raff
2011-06-25, 11:27:38
Ja, der Gegner war/ bzw. ist immer noch die HD6970
Doch durch die teils enormen Performance Schübe durch die Neuen AMD Treiber sollte die HD6950 weitaus näher an der GTX 570 ran sein als die ComputerBase Test darstellen,- und die HD6970 wohl auch geringfügig schneller.

Es gibt keine Wundertreiber die erst das richtige potenzial der grafikkarten freilegen, hat es nie und wird es nie.

Was es gibt, ist bugbeseitigung und leichte optimierung, die in ausgewählten spielen für einen schub sorgen können, aber niemals über über die gesamte bandbreite der spiele die grafikkarten plötzlich um 20 % beschleunigen.

Wenn man sich mal treiberreviews anschaut, stellt man fest das die neuen treiber im durchschnitt um 1-3 % zulegen, das ist kein perfomanceschub, das ist kosmetik.

Computerbase hat mit dem 11.5b doch einen sehr aktuellen Treiber gemessen. Auch der Nvidia-Treiber war ähnlich alt bzw. neu. Faire Voraussetzungen, und das Ergebnis (560Ti ~ HD6950, 570 ~ HD6970) ist absolut typisch. Imo ein guter und sauberer Test.

Zumal Nvidia auch Treiberoptimierung betreibt. Es ist nicht so, dass AMD nach einem Jahr in eine ganz neue Leistungsklasse vorstößt, während Nvidia hängenbleibt. Allerdings gewann AMD prozentual in den vergangenen Generationen etwas mehr.

MfG,
Raff

Quaker
2011-06-25, 11:50:12
Der Test gefällt mir auch recht gut, bin daher eigentlich positiv überrascht.
Zeigt mir auch sehr schön dass ich mit der 6870 wieder mal richtig lag, Preis/Leistung praktisch unschlagbar. :)

dildo4u
2011-06-25, 12:12:04
mit 2 klaren gewinnern mMn,AMD.(vor allem bei den neueren spielen wie bulletstorm,shogun 2,dirt 3,dragon age 2)

Echt lustig was sich einige immer zusammenreimen.

"Mit vier-fachem Anti-Aliasing sowie der 16-fachen anisotropen Filterung ist die Situation ähnlich. So schaut es für die Nvidia-Grafikkarten erneut gut aus. Die GeForce GTX 570 kann sich, abgesehen von der Auflösung 2.560x1.600, besser von der Radeon HD 6970 absetzen als mit dem alten Parcours, wobei auch hier die Differenzen sehr gering sind. In 2.560x1.600 gibt es dagegen keine Unterschiede."

http://www.computerbase.de/artikel/grafikkarten/2011/test-19-grafikkarten/3/#abschnitt_leistung_mit_aaaf

NV steht besser das als je zuvor da,bis 200€ zahlt man kein NV Aufpreis mehr(GTX460,GTX560Ti) das gabs schon lange nicht mehr.

http://www.computerbase.de/artikel/grafikkarten/2011/test-19-grafikkarten/9/#abschnitt_preisleistungverhaeltnis

Ronny145
2011-06-25, 12:33:16
Die HD6950 mit 1GB verbraucht in den Spielen fast 30 Watt mehr als die 2 GB Version. Wie ist das möglich? Die performance Karten von Nvidia sind bei Blu-ray Wiedergabe um einiges effizienter. Hier wäre man wohl ohne GPU Beschleinigung öfter sparsamer unterwegs (starke und effiziente CPU vorausgesetzt).

y33H@
2011-06-25, 12:37:24
Frühes Sample? War bei der PCGH'schen 2G-Version zB der Fall.

Raff
2011-06-25, 12:48:19
Die ersten Review-Samples brennen sowieso immer Eindrücke in die Hirne, welche später von diversen Retaildesigns nicht eingehalten werden. Letztere, gerade Versionen mit werkseitiger Übertaktung, verbrauchen fast immer (deutlich) mehr Strom als die Launch-Testmuster. Man muss nur mal über den Einkaufsführer der PCGH gehen und diese Werte mit den Launchtests vergleichen. Ich erinnere da immer gern an die HD 5870, welche rund 130 Watt (http://www.pcgameshardware.de/aid,695285/Radeon-HD-5870-Die-erste-Direct-X-11-Grafikkarte-im-Benchmark-Test/Grafikkarte/Test/?page=3) schluckte ... und dann in verschiedenen Farben und Formen als Herstellerkarten zwischen 150 und 170 Watt. Insofern sind diese Werte mit Vorsicht zu "genießen".

MfG,
Raff

derguru
2011-06-25, 13:00:19
Echt lustig was sich einige immer zusammenreimen.

"Mit vier-fachem Anti-Aliasing sowie der 16-fachen anisotropen Filterung ist die Situation ähnlich. So schaut es für die Nvidia-Grafikkarten erneut gut aus. Die GeForce GTX 570 kann sich, abgesehen von der Auflösung 2.560x1.600, besser von der Radeon HD 6970 absetzen als mit dem alten Parcours, wobei auch hier die Differenzen sehr gering sind. In 2.560x1.600 gibt es dagegen keine Unterschiede."

gesamtratings sind nur was für hampelmänner wie dich.würde es keine großen ausreißer in starcraft,lost planet 2 shit oder battleforge geben wäre eine 6970 sogar in gefilden der gtx580 und komm mir nicht mit rosinenpick,es sind noch 8 andere spiele am start.

@horn 12
Seit wann ist die 6950 der Gegner für die 570?! :crazy:
schon immer 6950@70:tongue:

dildo4u
2011-06-25, 13:13:49
gesamtratings sind nur was für hampelmänner wie dich.würde es keine großen ausreißer in starcraft,lost planet 2 shit oder battleforge geben wäre eine 6970 sogar in gefilden der gtx580 und komm mir nicht mit rosinenpick,es sind noch 8 andere spiele am start.

Hätte,wäre,wenn der Trend ist klar NV Arbeitet besser mit den Entwicklern zusammen,die Folge die Games laufen besser auf der 5XX Generation.(Witcher2,Crysis2, etc)AMD hingegen verkackt sogar wenn sie ein Deal haben siehe Dirt 3 kein Vorteil für AMD.Dragon Age 2 weiteres Beispiel für perfekte Treiber Arbeit von NV,vor dem fix unterlegen jetzt deutlich schneller das in einem Powered by AMD Game.

laryllan
2011-06-25, 13:29:51
Hätte,wäre,wenn der Trend ist klar NV Arbeitet besser mit den Entwicklern zusammen,die Folge die Games laufen besser auf der 5XX Generation.(Witcher2,Crysis2, etc)AMD hingegen verkackt sogar wenn sie ein Deal haben siehe Dirt 3 kein Vorteil für AMD.Dragon Age 2 weiteres Beispiel für perfekte Treiber Arbeit von NV,vor dem fix unterlegen jetzt deutlich schneller das in einem Powered by AMD Game.

Mit Verlaub, Du redest Quark.

Edit:

Das Fehlen einer GTX480 halte ich ebenfalls nicht für schlimm, man kann ja schließlich nicht ständig "Altlasten" mit sich herumschleppen. Selbst mit 19 Karten dauert so ein Test mitunter schon sehr lange. Alles in allem ein aufschlussreicher Test, der mich bezüglich meiner Settings in meinen Kaufentscheidungen bestätigt.
Ob SLI/CF Out of the Box: Fakt ist bei keinem Hersteller arbeitet MultiGPU im Hinblick der MRs Out of the Box zufriedenstellend.

Viele Grüße

dargo
2011-06-25, 13:51:42
Das Fehlen einer GTX480 halte ich ebenfalls nicht für schlimm, man kann ja schließlich nicht ständig "Altlasten" mit sich herumschleppen.
Die HD5850 ist ja auch so aktuell. ;)

laryllan
2011-06-25, 14:09:11
Die HD5850 ist ja auch so aktuell. ;)

Oh Verzeihung, ich habe nicht jeden Post auswendig gelernt :rolleyes:

Richtig, sie ist auch nicht aktuell, aber im Hinblick auf viele Schnäppchenkäufer der Sapphire der letzten 2 Monate vielleicht noch verständlich.
Edit: und zwischen der 6850 und 5850 liegen je nach Setting schon einmal 8-12 % Leistungsunterschied. Aber wegen mir hätte sie dort auch nicht mitgetestet werden müssen.

Viele Grüße

Hugo78
2011-06-25, 14:42:51
schon immer 6950@70:tongue:
AMD meint dazu:
"AMD does not endorse the use of the unsupported vBIOS' on the AMD Radeon HD 6950
as this may lead to unstable performance and/or subsequent failure of the product which is not covered under warranty."

Also viel Glück damit und bye, bye Garantie. :uup:

Multipler Miggs
2011-06-25, 14:45:06
Schöner Test,für die P/L decider AMD,für die Unvernüftigen die für beste Leistung/Qualität etwas mehr ausgeben NV.
Gruss Miggs

derguru
2011-06-25, 15:02:11
AMD meint dazu:
"AMD does not endorse the use of the unsupported vBIOS' on the AMD Radeon HD 6950
as this may lead to unstable performance and/or subsequent failure of the product which is not covered under warranty."

Also viel Glück damit und bye, bye Garantie. :uup:
amd muss das sagen aber passieren tut zu 99% eh nichts.lustig, jetzt ist amd´s wort mal geltend für die green hornet´s;D

Matrix316
2011-06-25, 15:04:27
wieso nehmen die eigentlich nirgends mehr eine 5870 mit rein ? aber eine 5850 dafür. Soll man etwa die Werte der 6870 nehmen ? ^^
Tja, das frage ich mich auch, zumal die 5870 wohl etwas verbreiteter sein dürfte als die 6870 und in diversen Tests auch eher auf 6950 Niveau liegt. Je nach Spiel halt: http://www.gamestar.de/hardware/grafikkarten/club-3d-geforce-gtx-560-ti/test/club_3d_geforce_gtx_560_ti,337,2323708.html

laryllan
2011-06-25, 15:06:19
Schöner Test,für die P/L decider AMD,für die Unvernüftigen die für beste Leistung/Qualität etwas mehr ausgeben NV.
Gruss Miggs

Im Hinblick auf mein Setting ist die Aussage falsch. Deswegen ist es auch so schwer, allgemeingültige Aussagen zu treffen. Ich spare bspw. Geld UND habe mehr Leistung (System 1)

Im Hinblick auf Qualität, sei es nun Darstellung od. Treiber kann ich im Schnitt keine Unterschiede feststellen, die nicht mit einer Lupe zu suchen wären.

Mir fehlt ohnehin das Verständnis für emotionale Diskussionen über Hardware(hersteller) (nicht, dass ich meine kleinen Daddelbabys nicht lieben würde *g*)

Viele Grüße

Hugo78
2011-06-25, 16:27:38
amd muss das sagen aber passieren tut zu 99% eh nichts.lustig, jetzt ist amd´s wort mal geltend für die green hornet´s;D

Freischalten ist ebend wie OC, beides macht man auf eigene Gefahr hin.
Wenn ich ne GTX 560Ti mit 1000Mhz "freischalte", hab ich auch den Speed einer 6970,
dennoch würde ich nie diesen diesen Vergleich ersthaft gegen eine 6970 stellen.

Und um wieder zum Ausgangspunkt dieses Diskussionsstranges zukommen.
Der Gegner der 570 ist ebend nicht die 6950, auch wenn "horn 12" der AMDischen Propaganda vom Wundertreiber mal wieder erlegen ist. ;D

laryllan
2011-06-25, 16:38:35
@Hugo78
auch wenn es lästig ist, auch hier hat Deine Aussage keine Allgemeingültigkeit, Es kommt stets auf die Auflösung an und die gewünschten Settings an. Für mich wären bspw. 2x Standard GTX 570 Rohrkrepierer allererster Güte (ich kann das hier mit meinem anderen System sehr gut nachvollziehen) 2x 2GB 6950 sind die wahre Wonne dagegen.


Viele Grüße

Hugo78
2011-06-25, 16:54:28
Für SLI das einen 30" oder tripple TFT Gespann befeuern soll, würde ich auch eher zu 570er mit 2,5GB VRAM greifen.

Aber selbst hier im Forum trifft das grad mal auf 5-6% der Leute zu.
Womit das ganze dann wieder zur Rosinenenpikerei verkommt.
-> http://www.3dcenter.org/umfrage/welche-bedeutung-hat-die-1680er-aufloesung-im-desktop-bereich-noch

laryllan
2011-06-25, 17:06:34
Das hat nichts mit Rosinen picken zu tun, nur wer allgemeingültige Aussagen trifft, der braucht sich nicht zu wundern, wenn sie widerlegt werden.

Mal davon ab gibt es nicht wirklich viele 2,5 GB 570. Ich sehe bei geizhals eine Einzige gelistet und die ist noch nicht einmal verfügbar (wer pickt jetzt Rosinen?). Vom Preisunterschied rede ich noch nicht einmal, spätestens ab da wird es absurd.

Viele Grüße

Hugo78
2011-06-25, 18:16:28
@laryllan
Also wenn man allgemein gültige Aussagen trifft ist das doof, ... weil ... weil es immer noch Ausnahmen gibt, so, so ... ok. :uclap:

95% der Leute* zocken heute ohne Bedarf für 2GB VRAM.
Und solang ebend keine 2GB VRAM gebraucht werden, ist die 570 schneller als 6950 und gleichauf mit der 6970.

Das die Verfügbarkeit von 570er mit 2,5 GB VRAM kacke ist, und die erst jetzt nach und nach erscheinen ist ja auch eine Folge dieser Erkenntnis.

* = 3DC und andere HW Foren sind dabei immernoch stark mit Technikbegeisterten "durchsetzt".
Leute die sich gern solche Anlagen hinstellen, egal was ihr Weibchen dazu sagt.
In der "freien Wildbahn" aber verflüchtigt sich dieser Bedarf wahrscheinlich sogar auf unter ein % Pünktchen.

laryllan
2011-06-25, 18:24:17
@laryllan
Also wenn man allgemein gültige Aussagen trifft ist das doof, ... weil ... weil es immer noch Ausnahmen gibt, so, so ... ok. :uclap:

95% der Leute* zocken heute ohne Bedarf für 2GB VRAM.
Und solang ebend keine 2GB VRAM gebraucht werden, ist die 570 schneller als 6950 und gleichauf mit der 6970.

Das die Verfügbarkeit von 570er mit 2,5 GB VRAM kacke ist, und die erst jetzt nach und nach erscheinen ist ja auch eine Folge dieser Erkenntnis.

* = 3DC und andere HW Foren sind dabei immernoch stark mit Technikbegeisterten "durchsetzt".
Leute die sich gern solche Anlagen hinstellen, egal was ihr Weibchen dazu sagt.
In der "freien Wildbahn" aber verflüchtigt sich dieser Bedarf wahrscheinlich sogar auf unter ein % Pünktchen.

Genau und weniger als 5% brauchen die Leistung einer 570GTX. Wo fängt man an, wo hört man auf, bei Deiner Meinung? :tongue:

Und glaub es oder nicht, mein Weibchen stört sich nicht an meinen "Anlagen" und das Heimkino mit bösen Standboxen vorne und hinten im Wohnzimmer findet sie sogar auch doll. Ich scheine das richtige Weibchen gefunden zu haben :wink: Edit: Und mein Freundeskreis verrät mir, es gibt da noch mehr, echt!

Viele Grüße

y33H@
2011-06-25, 18:28:10
Das DMA der Fermis muss man erst mal totkriegen. Bei CB in 25x16 mit AA/AF liegt die GTX 570 wie gehabt vor der HD 6950/2G.

LovesuckZ
2011-06-25, 18:28:29
Solange wie es bri AMD kein Downsampling unter Win7 gibt, ist die Diskussion sowieso für die Katz.

Knuddelbearli
2011-06-25, 18:41:05
naja Wundertreiber gibt es schon aber nur wenns auch eine neue Architektur gab

laryllan
2011-06-25, 18:41:39
@y33H@

Yo, nur leider spiel ich in 6052x1080. Es ist also immer eine Frage des Standpunktes.

@LovesuckZ

siehe @y33H@

für mich völlig irrelevant und: Totschlagargument, aber damit hast Du ja Erfahrung.

Edit: Ich nehm das hier mal raus. Sollte sich jemand auf die Füße getreten gefühlt haben, sorry.

Ich bevorzuge das, was am Besten zu meinem Profil passt, nicht dass wo der vermeintlich beste (oder farblich passenste) Name drauf steht.

Und jenseits des Hörensagens täte es dem Ein oder Anderen mal gut selbst Erfahrung zu sammeln. Edit: ebenfalls von mir gelöscht.

Viele Grüße

LovesuckZ
2011-06-25, 19:01:48
Dann solltest du deinen speziellen Fall nicht als allgemeingültig ansehen.

laryllan
2011-06-25, 19:14:44
@LovesuckZ

Das tu ich auch nicht. Ich "wehre" mich nur gegen so einen ("Der Gegner der 570 ist ebend nicht die 6950, auch wenn "horn 12" der AMDischen Propaganda vom Wundertreiber mal wieder erlegen ist.") Blödsinn.
Genau genommen hast Du von Deinem Anwendungsprofil auf mich geschlossen, denn sonst hättest Du das Argument "Downsampling" ja nicht gebracht. Aber das hier ist nicht der Punkt.

Wenn Du Dir mal meine Profile anschaust, kannst Du denke ich gut erkennen, dass ich nicht zwingend bestimmte Hersteller "bevorzuge" und ich benutzte BEIDE Systeme (und hab, wie viele Andere mir ihrer HArdware auch, Spaß damit), daher kann ich verschiedene Kritiken (besser Vorurteile) bestimmten Herstellern gegenüber, schlichtweg nicht nachvollziehen und da ich seit mittlerweile 13 Jahren Foren lese (passiv), gibt es einfach Dinge die stoßen mir übel auf.

Viele Grüße

LovesuckZ
2011-06-25, 19:31:50
Es ist ja wohl im Grunde relativ einfach: Der Speicher der GTX570 reicht für 1080p vollkommen aus. Mit dem Finger auf dem Speicher zu zeigen, ist da deplaziert. Du brauchtest mehr Speicher, weil du Multi-Monitor-Gaming betreiben willst. Dein Anwendungsprofil ist sehr speziell. Downsampling ermöglicht es heutzutage jedem in das Speicherproblem der GTX570 reinlaufen zu können. Deswegen sind auch die 2GB der AMD Karten kein Vorteil, wenn sie nur in Extremfällen auftreten. Und diesen Extremfall muss man sich erst auch zusammenkaufen...

Raff
2011-06-25, 19:37:35
Für 1080p reichen 1.280 MiB natürlich dicke aus, aber spätestens in 2.560x1.600 ist eine HD 6970 nicht nur schneller, sondern hat auch noch Luft für 8x AA.

MfG,
Raff

laryllan
2011-06-25, 19:51:38
Es ist ja wohl im Grunde relativ einfach: Der Speicher der GTX570 reicht für 1080p vollkommen aus. Mit dem Finger auf dem Speicher zu zeigen, ist da deplaziert. Du brauchtest mehr Speicher, weil du Multi-Monitor-Gaming betreiben willst. Dein Anwendungsprofil ist sehr speziell. Downsampling ermöglicht es heutzutage jedem in das Speicherproblem der GTX570 reinlaufen zu können. Deswegen sind auch die 2GB der AMD Karten kein Vorteil, wenn sie nur in Extremfällen auftreten. Und diesen Extremfall muss man sich erst auch zusammenkaufen...

Weil der Speicher für 1080p reicht sind andere Auflösungen (z.B 2560x1600) nicht mehr interessant? Deine Meinung? Universalgültigkeit? Vor gar nicht allzu langer Zeit war 1680x1050 noch Standard. Bezüglich 2560x1600 hat y33H@ in diesem konkreten Fall zwar recht (die 570 ist laut Test dort noch schneller) aber bedenkt man den Aufpreis, den man sich, Deinen Argumenten, folgend zusammenkaufen muss, sieht es ab da mit AA nicht mehr so dolle aus für die 570 aus.

Es geht hier nicht um mein Extrem-Setting sondern darum, falsche Aussagen ala "die 570 1.2GB ist einer 6950 2GB in jedem Fall vorzuziehen" zu entkräften. Denn wie wir anhand des Testes sehen, spätestens ab 2560x1600 4xAA/16xAF ists essig mit der Dominanz und das liegt nun einmal am Speicher, da sind wir uns wohl einig.

Mir ist es ohnehin unverständlich warum Nvidia bzw deren Partner (wiederholt), mit krummen Speicher bestückte Ramkrüppel (Edit: Ich hätte sehr gerne 2x 580er GTX genommen) auf den Markt wirft oder sich die Verdoppelung des Speichers mit 100 Euro mehr vergüten lässt (an den Speicherpreisen liegt es definitiv nicht)

Edit: @Raff: ich liebe Deinen Avatar :-)

Viele Grüße

Blaire
2011-06-25, 20:28:22
Zumal Nvidia auch Treiberoptimierung betreibt. Es ist nicht so, dass AMD nach einem Jahr in eine ganz neue Leistungsklasse vorstößt, während Nvidia hängenbleibt. Allerdings gewann AMD prozentual in den vergangenen Generationen etwas mehr.


Vermutlich deshalb, da Nvidia nicht auf Teufel komm raus optimiert wie man ja auch bei DX10/11 und HQ sieht.

desert
2011-06-25, 20:38:28
naja Wundertreiber gibt es schon aber nur wenns auch eine neue Architektur gab

ich warte noch heute auf den wundertreiber der das reale niveau des R600 zeigt und ihn zum 8800 GTX Killer macht.

Es gibt keine wundertreiber die die neue architektur beschleunigen, nach verkaufsstart. Hört endlich mal mit dieser Legendenbildung auf.

Was erreicht wird, sind im durchschnitt ein paar prozentpunkte, zu 99 % weit unter 10 %.

Raff
2011-06-26, 13:09:10
Vermutlich deshalb, da Nvidia nicht auf Teufel komm raus optimiert wie man ja auch bei DX10/11 und HQ sieht.

Vielleicht. Ich schätze aber, dass die größeren Gewinne bei AMD vor allem architekturbedingt sind – VLIW 5 ist eben ein anderes Kaliber als Nvidias "Allesfresser".

MfG,
Raff

Winter[Raven]
2011-06-27, 07:27:09
Wirklich genialer Beitrag durch einen MOD aus dem CB Forum:


Tja, da solltest Du Dich mal an Nvidia wenden, wenn der Treiber etwas macht, was nicht eingestellt ist. Die Angaben hier in den Tests beziehen sich natürlich auf die gewählten Treibereinstellungen.

http://www.computerbase.de/forum/showpost.php?p=10140519&postcount=207

Angesprochen war das Thema, dass Wolfgang nicht einmal den Vermerk auf die HQ Filterung unter DX10/11 gemacht hat.

Anstelle das HQ positiv hervorzuheben wird es NV ausgelegt nicht genug "optimiert zu haben"

Black-Scorpion
2011-06-27, 09:30:26
;8807436']Wirklich genialer Beitrag durch einen MOD aus dem CB Forum:



http://www.computerbase.de/forum/showpost.php?p=10140519&postcount=207

Angesprochen war das Thema, dass Wolfgang nicht einmal den Vermerk auf die HQ Filterung unter DX10/11 gemacht hat.

Anstelle das HQ positiv hervorzuheben wird es NV ausgelegt nicht genug "optimiert zu haben"
Warum sollte man etwas als positive hinstellen wenn der Treiber macht was er will? Wenn ich nur Q testen will und das nicht geht ist das Nvidias Problem. Entweder Q aus dem Panel entfernen. geht ja eh nicht. oder den Fehler beseitigen. Aber mit Sicherheit muss man einen Fehler nicht posoitiv hervorheben weil du das so siehst.

san.salvador
2011-06-27, 09:34:37
Warum sollte man etwas als positive hinstellen wenn der Treiber macht was er will? Wenn ich nur Q testen will und das nicht geht ist das Nvidias Problem. Entweder Q aus dem Panel entfernen. geht ja eh nicht. oder den Fehler beseitigen. Aber mit Sicherheit muss man einen Fehler nicht posoitiv hervorheben weil du das so siehst.
Aber man hat es zu erwähnen. Sonst kann man seine Glaubwürdigkeit gleich bei ebay verschleudern.

Raff
2011-06-27, 09:35:24
Es ist kein Fehler, sondern gewollt. So oder so setzt sich der Treiber über den Nutzer hinweg – das ist das Einzige, was man ankreiden kann.

MfG,
Raff

san.salvador
2011-06-27, 09:37:11
Es ist kein Fehler, sondern gewollt. So oder so setzt sich der Treiber über den Nutzer hinweg – das ist das Einzige, was man ankreiden kann.

MfG,
Raff
Tjo, aber im Gegensatz zu AMD in die richtige Richtung. Was auch wieder wunderbar ins alte Klischee passt - AMD=Balkenlänge, nV=BQ.

Muss trotzdem nicht sein. :)

Raff
2011-06-27, 09:43:07
AMD hat SGSSAA seit Herbst 2009 offiziell im Treiber, NV nicht. Das passt nicht ins Klischee. ;)

Ok, genug Öl für etwaige Feuer.

MfG,
Raff

puntarenas
2011-06-27, 13:00:26
Die GUI-Frickler bei Nvidia sind wahre Helden der Arbeit und kommen vermutlich aus der gleichen Kaderschmiede wie ihre AMD-Kollegen.

40111

Natürlich kann man nicht voraussagen, ob nach Betätigung des Schalters ein DX9- oder ein DX11-Spiel gestartet wird, deshalb kann die Option auch nicht dynamisch entfernt werden und auf DX9-Games hat sie ja Auswirkungen. Trotzdem darf man als User erwarten, dass unten bei der Beschreibung ein entsprechender Hinweis vermerkt wird.

Nvidias Murks entbindet Computerbase meiner Meinung nach allerdings nicht von einem entsprechenden Hinweis, so sie denn von dem Phänomen wissen. Murks kann man leider nicht gegen Murks aufrechenen, jetzt haben wir Doppelmurks. :)

mapel110
2011-06-27, 13:11:52
Bei nvidia ist so manches nicht dokumentiert. Das wäre wirklich mal einen Artikel wert, welche Einstellungen unter Opengl und welche unter D3D greifen. Bei den SGSSAA-Schaltern steigt doch auch niemand mehr durch, vor allem ist da die Wirkung bei älteren GPUs noch anders.
Die Updates der Profile werden auch ohne Infos installiert.

G 80
2011-06-27, 23:59:52
Wow das NV einen Minimumstandard hat (den das ist er ja gleichzeitig auch - gewollt oder nicht wobei ich bei NV eher an gewollt glaube) der _über_ dem liegt was ATI seit Jahren und Generationen überhaupt erreichen kann, darf man nicht positiv erwähnen?

Ist das das rote Pendant zu LZ? Wenn wir weiter in der Schiene bleiben: HQ aus dem ATI Panel den das geht seit den X1ern nicht mehr (zumindest was den Namen verdient). ;D

Und am besten noch die von von LZ geforderten Benches von ATI-Karten mit 0 FPS (für die Gesamtrating-Fraction) denn: Wenn ich nur HQ testen will und das nicht geht ist das Nvidias ATIs Problem ;D


Bitte wirklich mal Brille absetzten, Aktienpaket verkaufen oder was auch immer .... ich kritisiere hier im Forum in den Threads eigentlich mehr den Müll den NV verzapft, aber das geht doch auf keine Kuhhaut.

Richtige Entwicklungen hin zu BQ sind zu loben und wohlwollend zu erwähnen. Performancehit ist auch alles andere als Extrem, obwohl er mit G80 bis eben Fermi Erschien, schon mal niedriger war. Wenn ich mir dann ansehe wie ATIs winkelunabhängige Flimmerei bei erscheinen noch hochgejubelt wurde ziehe ich "NVs Dummheit" "ATIs können" vor.

fondness
2011-06-28, 10:02:17
Wow das NV einen Minimumstandard hat (den das ist er ja gleichzeitig auch - gewollt oder nicht wobei ich bei NV eher an gewollt glaube) der _über_ dem liegt was ATI seit Jahren und Generationen überhaupt erreichen kann, darf man nicht positiv erwähnen?

Ist das das rote Pendant zu LZ? Wenn wir weiter in der Schiene bleiben: HQ aus dem ATI Panel den das geht seit den X1ern nicht mehr (zumindest was den Namen verdient). ;D

Und am besten noch die von von LZ geforderten Benches von ATI-Karten mit 0 FPS (für die Gesamtrating-Fraction) denn: ;D


Bitte wirklich mal Brille absetzten, Aktienpaket verkaufen oder was auch immer .... ich kritisiere hier im Forum in den Threads eigentlich mehr den Müll den NV verzapft, aber das geht doch auf keine Kuhhaut.

Richtige Entwicklungen hin zu BQ sind zu loben und wohlwollend zu erwähnen. Performancehit ist auch alles andere als Extrem, obwohl er mit G80 bis eben Fermi Erschien, schon mal niedriger war. Wenn ich mir dann ansehe wie ATIs winkelunabhängige Flimmerei bei erscheinen noch hochgejubelt wurde ziehe ich "NVs Dummheit" "ATIs können" vor.


Man kann natürlich immer alles in einem Topf werfen, ganz fest umrühren und es dann so heraus ziehen das es ins eigenen Weltbild passt. Faktum ist jedenfalls das zusätzliche Optionen nie ein Nachteil sind. Aber das wäre ja noch nicht das Problem. Nur wenn ich diese Optionen anbiete, sie dann aber nicht liefere, dann ist es wohl offensichtlich wo das Problem liegt. Klar sollte man es erwähnen, aber ansonsten ist hier ganz klar NV gefordert zu handeln.

N0Thing
2011-06-28, 13:22:40
ich seh jetzt aber auch kein spiel wo sli nicht skaliert(ok teilweise beschissen aber skaliert)abgesehen von ssaa benchs.bestimmt ein schreibfehler denn bulletstorm skaliert unter 1080p aber dafür in 1680*1050 nicht.:biggrin:

Bei Bulletstorm scheint es doch einen Bug zu geben, wodurch nur 16:9 Auflösungen eine gute Performance bringen. Das paßt dann auch zu den CB Ergebnissen.

Schaffe89
2011-06-28, 13:51:00
Hat Computerbase wohl richtig gebencht,- oder NV wieder bevorzugt ?

Würde ich nicht meinen, dass sie das getan haben, ist halt ne Spieleauswahl.
Hätten sie alten Parcours behalten, läge die HD 6970 halt vor der GTX 570.
Star Craft 2 und Lost Planet 2 sind stark Nvidia optimierte Titel und fallen was die Durchschnittsleistungleistung angeht stark ins Gewicht, da ist AMD einfach Chancenlos.
Auch Battleforge ist ein Ausnahmetitel der Nvidiakarten stark präferiert, sowie Crysis 2 ohne Performancepatch und ohne Directx11 Grafikeinheit. DAs alles ist sehr Nvidialastig.
Hier hätte man den fordernderen Crysis Warhead Bench vielleicht lieber lassen sollen.
Unsinn erscheint mir, bei 2560x1600 Benches die HD 6870 sowie GTX 560 ti 1GB aus dem Rating rauszulassen, ist die GTX 560 TI doch direkter Konkurrent mit der HD 6950.

Hätte,wäre,wenn der Trend ist klar NV Arbeitet besser mit den Entwicklern zusammen,die Folge die Games laufen besser auf der 5XX Generation.(Witcher2,Crysis2, etc)AMD hingegen verkackt sogar wenn sie ein Deal haben siehe Dirt 3 kein Vorteil für AMD.Dragon Age 2 weiteres Beispiel für perfekte Treiber Arbeit von NV,vor dem fix unterlegen jetzt deutlich schneller das in einem Powered by AMD Game.

Was war mit Dragon Age 2? Hier hatte Nvidia auch Performanceprobleme und musste nachbessern.
In Bulletstorm ist AMD auch flotter, da eben AMD optimiert. Man kann nicht in jedem Spiel trotz Optimierungen schneller sein als die Konkurrenz, siehe Nvidia Titel Crysis Warhead.
Nvidia hats bei CRysis 2 eben kurzzeitig geschafft die Performance hochzuhalten, bald kommt ein Patch nachgeschoben, bzw directx11 Modus, dann werden die Karten wieder neu gemischt.

vor dem fix unterlegen jetzt deutlich schneller das in einem Powered by AMD Game.


DAs gleiche trifft wohl auf Battlefield BAd Company 2 bei AMD zu. Man kann auch Spiele wählen, die AMD deutlich besser liegen. Hier bessere Treiber herauszulesen, bei dieser kleinen Spieleauswahl ist Quatsch.

Schaffe89
2011-06-28, 13:57:02
Bei CB in 25x16 mit AA/AF liegt die GTX 570 wie gehabt vor der HD 6950/2G.

Das kommt auf die Spieleauswahl an. Es sind nur 5% Unterschied.
Die bessere Skalierung sieht man besonders in diesem Test.
http://www.computerbase.de/artikel/grafikkarten/2011/test-2-x-geforce-gtx-580/4/#abschnitt_performancerating

Downsampling ermöglicht es heutzutage jedem in das Speicherproblem der GTX570 reinlaufen zu können. Deswegen sind auch die 2GB der AMD Karten kein Vorteil, wenn sie nur in Extremfällen auftreten.

Im Unsinnreden bist du ziemlich gut.
Du siehst Vorteile in Downsampling (was kein Mensch nutzt) siehst aber keinen Vorteil in der besseren Skalierung der AMD Karten bei hohen Auflösungen + mehr V-ram, der bei einigen Spielen nachweislich im Vergleich zur GTX 570 etwas hilft, bzw mit der Zeit sicherlich wichtiger wird.
Sowie du AMD´s SGSSAA out of the Box ständig mit "da wird nicht alles geglättet" kritisierst, aber Nvidias SGSSAA mit frickel AA- Bits, Bildfehlern und fehlender Automatik- LOD Einstellung übersiehst.
Nebenbei möchte ich wissen wie oft du wirklich "Downsampling" nutzt, das so wichtig ist.


spätestens ab 2560x1600 4xAA/16xAF ists essig mit der Dominanz und das liegt nun einmal am Speicher, da sind wir uns wohl einig.

Nicht zwingend, eher teils, teils, eher mehr an der besseren Skalierung. Den V-ram Vorteil kann man erst recht @2560x1600 @8xaa sehen.

LovesuckZ
2011-06-28, 14:17:34
Im Unsinnreden bist du ziemlich gut.
Du siehst Vorteile in Downsampling (was kein Mensch nutzt) siehst aber keinen Vorteil in der besseren Skalierung der AMD Karten bei hohen Auflösungen + mehr V-ram, der bei einigen Spielen nachweislich im Vergleich zur GTX 570 etwas hilft, bzw mit der Zeit sicherlich wichtiger wird.

Soso - kein Mensch nutzt Downsampling. Der Thread in diesem Forum hat 4.310 Beiträge und 324.738 Klicks. Aber es nutzt kein mensch. NIEMAND auf dieser freaking World. :freak:
Warum sollte ich nach dir also etwas bei AMD als Vorteil gelten lassen, dass von keinem Menschen auf dieser Welt benutzt wird? Man, ein shice Paradoxon aber auch.


Sowie du AMD´s SGSSAA out of the Box ständig mit "da wird nicht alles geglättet" kritisierst, aber Nvidias SGSSAA mit frickel AA- Bits, Bildfehlern und fehlender Automatik- LOD Einstellung übersiehst.
Nebenbei möchte ich wissen wie oft du wirklich "Downsampling" nutzt, das so wichtig ist.


Oh - Out of the Box. Das Argument der AMD user. Die Einstellung per nv Inspector sind genauso schnell erledigt wie bei AMD. Dazu habe ich Out-Of-The-Box AA Bits und Downsampling. Niemand kauft sich heute noch AMD, wenn ihm BQ interessiert.

/edit: Downsampling gehört für mich zum PC. Deswegen spiele ich auf dem PC. Das AMD Users keinen Wert auf BQ legen, ist ihr gutes Recht. Aber dann bitte nicht mit irgendwelchen 660€+ Monitoren und SSAA ankommen, nur weil ihre Lieblingsfirma hier einen Vorteil hat.

Raff
2011-06-28, 14:30:04
Star Craft 2 und Lost Planet 2 sind stark Nvidia optimierte Titel und fallen was die Durchschnittsleistungleistung angeht stark ins Gewicht, da ist AMD einfach Chancenlos.

Bei Lost Planet 2 kann ich nur spekulieren, aber Starcraft 2 ist nicht "Nvidia optimiert" – Nvidia bietet schlicht und ergreifend den besseren (performanteren) AA-Hack. No-AA-Benches sehen nicht so vernichtend aus.

MfG,
Raff

Schaffe89
2011-06-28, 14:35:01
Naja, aber es muss doch einen triftigen Grund geben, warum eben genau der AA-Hack von Nvidia soviel performanter ist. Weißt du da genaueres?

derguru
2011-06-28, 14:42:21
weil sie darin besser sind;)

in batman liefen amd-karten mit nv´s aa-hack auch deutlich schneller.:biggrin:

N0Thing
2011-06-28, 14:44:55
Auch Battleforge ist ein Ausnahmetitel der Nvidiakarten stark präferiert,


Und dabei von AMD zwecks DX11 stark beworben wurde und noch immer einigen AMD-Grafikkarte beigelegt wird. Daß die Entwickler das Spiel auf Hardware von Nvidia entwickelt haben, bezweifle ich.



In Bulletstorm ist AMD auch flotter, da eben AMD optimiert. Man kann nicht in jedem Spiel trotz Optimierungen schneller sein als die Konkurrenz, siehe Nvidia Titel Crysis Warhead.

Nur ist Bulletstorm ein TWIMTPB-Titel und ausgerechnet dort wurde für AMD-Karten optimiert?

Ich denke es ist offensichtlich, daß man sich die Behauptung, dieses oder jenes Spiel sei für einen GPU-Hersteller optimiert, sparen sollte, wenn man glaubwürdig erscheinen will. Nur weil ein Titel bei einem Hersteller schneller läuft, muß da noch lange nichts speziell optimiert worden sein.

LovesuckZ
2011-06-28, 14:50:14
Und nVidia ist in Battleforge nur unter DX11 schneller. Testet man das ganze mit DX10.x, dann verlieren sie böse. DirectCompute ist hier wohl der Unterschied.

Wer also behauptet Battleforge wäre auf nvidia-Karten optimiert, hat keine Ahnung.

Schaffe89
2011-06-28, 15:03:00
Der Thread in diesem Forum hat 4.310 Beiträge und 324.738 Klicks.

Wahrscheinlich von den ein und denselben Nerd Leuten(geringe Anzahl), die hier posten und lesen.
Warum sollte ich nach dir also etwas bei AMD als Vorteil gelten lassen, dass von keinem Menschen auf dieser Welt benutzt wird?

Halt eben auffallend, wie wichtig dir das einzige Schlagwort Downsampling in wenig genutzten APi´s wie directx 10 und 11 ist und wie unwichtig im Vergleich V-ram und hohe Auflösungen und hoher Pixeldichte sind, sowie SGSSAA ohne LOD Einstellungen @ directx9, oder eben man kein Downsampling @ directx11 in Spielen ist.
Du scheinst dich in deiner kleinen Welt von anderen Meinungen verschließen zu wollen und deine für Allgemeingültig zu halten.

Das AMD User keinen Wert auf BQ legen, ist ihr gutes Recht.

Nur weil der Nachteil in directx11 und directx10 kein SSAA nutzen zu können besteht, ist einem AMD Nutzer die BQ nicht egal, aber gut dass du das Klischee eröffnen willst, damit wird das was du schreibst eben noch mal ne Spitze Pistazieneis witziger.

Die Einstellung per nv Inspector sind genauso schnell erledigt wie bei AMD.

Hm... auf mehreren SGSSAA Tests, wie zum Beispiel hier, wird eben genau dieser Vorteil aufgegriffen, zudem kommt man auf ein Fazit, dass dir als Nvidia Fan kaum schmecken wird.
Hast du doch in deiner Paranoia selbst den Redakteur angegriffen und ihm Unobjektivität unterstellt, was man in deiner Position ja kaum für eine glaubhafte Anschuldigung halten kann.

ber dann bitte nicht mit irgendwelchen 660€+ Monitoren und SSAA ankommen, nur weil ihre Lieblingsfirma hier einen Vorteil haben.

Aber dann bitte nicht mit 1680x1050 Bildschirmen mit Gammel-Panel kommen und meinen, man hätte auf seinem Bildschirm mit Downsampling und irgendwelchen 880 teuren SLI Grafikkarten ein gutes Bild?
Man kann sich alles so drehen wie man es will.
Fakt ist AMD liegt was die BQ betrifft kaum zurück, muss sich nur was Downsapling unter directx 10/11 angeht nach hinten stellen.

http://www.3dcenter.org/artikel/sapphire-radeon-hd-6970-vs-palit-geforce-gtx-570/hd6970-vs-gtx570-artikel-fazit

Schaffe89
2011-06-28, 15:08:06
Nur ist Bulletstorm ein TWIMTPB-Titel und ausgerechnet dort wurde für AMD-Karten optimiert?


Hab das Spiel so oft in der Catalyst- Werbung gesehen. Hm.. gut.
Daß die Entwickler das Spiel auf Hardware von Nvidia entwickelt haben, bezweifle ich.

Habe ich doch gar nicht geschrieben, ich schrieb präferiert, was heißt, da läuft es überdurschnittlich besser.
Ob Spiele sonderlich optimiert sind, oder nicht zeigt sich spätestens nach den ersten Patches.
Ansonsten liegts an der Architektur oder an dem besseren AA Hack, da hast du recht.

kmf
2011-06-28, 15:10:43
Also mir ist egal, ob und wer optimiert. Auch welche Karte derzeit schneller ist. Von daher ist der Test bei CB für mich net so relevant. Ich habe ausreichend performante Lösungen, die mir im Moment sehr gut ausreichen. Hauptsache meine Games laufen im gr. G. ziemlich ruckelfrei bei 1920x1200 bzw. unter DS mit 2880x1800 (mehr ist bei meinem Moni net drin :(), und wo möglich noch mit extra SGSSAA-Zugabe.

Ich versteh net, warum man hier wegen dem Test und dem Drumherum jetzt versucht den Bau abzureißen. :D

Schaffe89
2011-06-28, 15:14:45
Wer also behauptet Battleforge wäre auf nvidia-Karten optimiert, hat keine Ahnung.

Ich schrieb ja in dem Zusammenhang auch nicht von optimiert, imho habe ich es auch nicht behauptet, ich dachte Bulletstorm wäre ein Gaming envolved Titel, ist aber keiner.

LovesuckZ
2011-06-28, 15:22:06
Wahrscheinlich von den ein und denselben Nerd Leuten(geringe Anzahl), die hier posten und lesen.

Bestimmt. Muss so sein. :rolleyes:
Oder eben von ganz vielen Leuten, die es scheiße finden, dass viele Spiele heute ohne richtigen AA Support kommen und somit nach einer Möglichkeit suchen, die BQ deutlich zu erhöhen ohne sich für 660€+ einen neuen Monitor kaufen zu müssen.


Halt eben auffallend, wie wichtig dir das einzige Schlagwort Downsampling in wenig genutzten APi´s wie directx 10 und 11 ist und wie unwichtig im Vergleich V-ram und hohe Auflösungen und hoher Pixeldichte sind, sowie SGSSAA ohne LOD Einstellungen @ directx9, oder eben man kein Downsampling @ directx11 in Spielen ist.
Du scheinst dich in deiner kleinen Welt von anderen Meinungen verschließen zu wollen und deine für Allgemeingültig zu halten.

Hä? Ich habe hier folgende Optionen als nVidia-User:
Downsampling <DX1x | jetzt auch in allen APIs unter Win7 64bit Out-of-the-Box
SGSSAA in allen APIs mit LoD Anpassung in DX7, DX8 und DX9
Hybride-AA Modi in DX7, DX8, DX9 und OpenGL
AA Bits, um in vielen Spielen eine bessere AA-Qualität als bei AMD zu erreichen (z.B. Mafia 2).

ich habe keine Ahnung, von was du faselst. Aber die Realität scheint irgendwie links und rechts an dir vorbei zu laufen...


Nur weil der Nachteil in directx11 und directx10 kein SSAA nutzen zu können besteht, ist einem AMD Nutzer die BQ nicht egal, aber gut dass du das Klischee eröffnen willst, damit wird das was du schreibst eben noch mal ne Spitze Pistazieneis witziger.

Zusätzliches neben fehlendes Downsampling, HQ AF, SSAA in OpenGL...
Aber BQ ist dem AMD User soooooooo wichtig.


Hm... auf mehreren SGSSAA Tests, wie zum Beispiel hier, wird eben genau dieser Vorteil aufgegriffen, zudem kommt man auf ein Fazit, dass dir als Nvidia Fan kaum schmecken wird.
Hast du doch in deiner Paranoia selbst den Redakteur angegriffen und ihm Unobjektivität unterstellt, was man in deiner Position ja kaum für eine glaubhafte Anschuldigung halten kann.

Mr.Lolman ist alles, aber bestimmt nicht objektiv. Deswegen werden auch die nVidia-Vorteile schön ignoriert und Test so gefahren, dass sie immer nur dem kleinsten Nenner entsprechen. Das dir das als AMD-Fan gefällt - nunja - ist jetzt nicht verwunderlich.


Aber dann bitte nicht mit 1680x1050 Bildschirmen mit Gammel-Panel kommen und meinen, man hätte auf seinem Bildschirm mit Downsampling und irgendwelchen 880 teuren SLI Grafikkarten ein gutes Bild?
Man kann sich alles so drehen wie man es will.

Vernünftige 1080p Displays gibt es für ein Appel und Ei. Im Gegensatz zu Displays mit 1440p bzw. 1600. Man muss sich überhaupt nichts drehen.
Eine GTX580 + 200€ 1080p Display kostet heute 565€. Das sind 300€ weniger als ein 1440p Display und 6970. Ein Mr.Lolman würde jetzt sagen: Es ist dekadent 300€ mehr für keinen Vorteil auszugeben. Recht hat er.


Fakt ist AMD liegt was die BQ betrifft kaum zurück, muss sich nur was Downsapling unter directx 10/11 angeht nach hinten stellen.

Klar. Wenn man alle Vorteile von nVidia ignoriert. Aber ignoranz ist ja der Freund von AMD. :rolleyes:

Ich schrieb ja in dem Zusammenhang auch nicht von optimiert, imho habe ich es auch nicht behauptet, ich dachte Bulletstorm wäre ein Gaming envolved Titel, ist aber keiner.

EA hat DX11 in Battleforge implementiert, da gab es noch nichtmal Dev-Boards von GF100. Es ist die Architektur von GF100, die dazu führt, dass die Karten so dermaßen schnell in DX11 sind, wenn man AA aktiviert.

laryllan
2011-06-28, 18:58:03
Klar. Wenn man alle Vorteile von nVidia ignoriert. Aber ignoranz ist ja der Freund von AMD. :rolleyes:



Neben SSAA unter DX10 & 11 gibt es nicht wirklich welche:

Treiber: Genau der gleiche Mist wie bei AMD (Not gegen Elend)
GPU-PhysX = tot
Der Einkauf eines TWIMTBP Logos bei Spielstart ein Vorteil? Ich weiß nicht.
Minimal besserer AF. WOW aber: wenn es enginebedingt flimmert, flimmerts bei beiden Herstellern, wenn nicht, kann man die Unterschiede auf Standbildern bewundern, wobei ich das nicht als Freifahrtschein für AMD sehe, ihn nicht zu verbessern. Das Argument ist nur faktisch zu sehr aufgebauscht und praktisch weniger relevant.

Nvidia baut mit Sicherheit gute Karten, aber so deutlich überwiegen die Vorteile nun nicht.

Ich hab mir Deine Argumentationen in Ruhe angeschaut und wollte erst punktuell antworten. Allerdings scheinst Du mir ein argumentativer "Wendehals" zu sein (z.B. Multi-Monitoring ein Spezialfall, mehr als 1080p Irrelevant und Downsampling Standard) Also -> zwecklos :wink:

Ein wenig mehr Distanz und Ausgeglichenheit würden Dir nicht schaden :cool:

@kmf Amen :-)

Viele Grüße

PS: Ich hab jetzt grad Spaß mit meinen NV 470@SLI und Morgen werde ich mir Crysis 2 in 6052x1080 gönnen, dann aber mit AMD. Versuch es doch auch mal, das mit dem Spaß meine ich :wink:

Blaire
2011-06-28, 19:09:10
Crossfire bei dieser Auflösung? Brrr...:freak:

laryllan
2011-06-28, 19:25:25
@Blaire

Noch Cross- und bald Trifire. Die Mehrausgaben habe ich im Übrigen boxleitnerb zu verdanken, da, seit DXTory, die MRs Geschichte sind (in den Auflösungen ist das ziemlich relevant, da man sich ständig in dem MR-FPS Bereich aufhält) :biggrin:

Ansonsten versteh ich Deine Vorbehalte gegen CF nicht :confused:

Viele Grüße

Blaire
2011-06-28, 19:37:33
Mein Kommentar bezog sich auf Crysis2 bei solch einer Auflösung, die FPS sind dann so niedrig da hilft auch kein Limiter mehr.

laryllan
2011-06-28, 19:41:06
@Blaire

Ich werds sehen. Bisher klappte das eigentlich (trotz "nur" CF) bei allen Spielen vorzüglich. Möglich, dass das bei Crysis 2 mit Patch anders ist. Dann feu ich mich eben ein paar Tage später :biggrin:

Viele Grüße

boxleitnerb
2011-06-28, 19:49:40
Wenn es nicht reicht, musst du halt noch einer vierte Karte kaufen :biggrin:

laryllan
2011-06-28, 19:55:42
Wenn es nicht reicht, musst du halt noch einer vierte Karte kaufen :biggrin:

Na, soweit würde ich nicht gehen, wobei, auf dem Board wäre da noch Platz :biggrin:

Viele Grüße

G 80
2011-06-28, 20:44:52
@ fondess: Klar sollte NV handeln, ich bin auch immer für mehr optionen, aber wenn du BlSc und den Grundton hier höhrt bleibt :buah NV baut Scheiße.
Richtig: NV ist zu dumm und liefert aber damit die beste BQ die Konkurrenz nichtmal liefern kann.

DAS ist nunmal der Punkt worums geht und wenn ich das mit LZer Rhetorik aufbereitet sehe, gebe ich diese auch gerne mal zurück auch wenns eher vergeblich ist, da die Neutrale Fraktion ohnehin Neutral ist und die jeweiligen Zealoten sowiso ihre Meinung in Beton gegossen haben.

Schließlich ziehe ich eben auch NVs Dummheit (zu dumm bei eh kaum Performance hit schlechteres wählbares zu liefern, oder sich Balkenlänge in Benches zu sichern) ATIs Können (Bildverschlechterung mit Regler wählbar aber saubere Referenz der Konkurrenz eben nicht) in _diesem Fall_ vor:


Gerade hier wird (richtigererweise) Propagiert das 10 % (avg) Perofrmancehit nicht über spielbar/unspielbar entscheiden. Dh seh ichs nicht, hab ich auch nichts wichtiges verloren. Seh ichs hab ich die beste (aktuell) mögliche BQ.

ATI version: Referenz geht sowiso seit Jahr und Tag nicht mehr, ich kanns höchstens noch schlimmer machen. Sehe ichs, tanzt gefühltes Red Dead Redemption geflimmere über den Bildschirm und verursacht Augenkrebs*1. Seh ichs nicht .... hab ich Penisstolz über Balkenlänge.

*1 Vorsicht Übertreibung ;).

Ich verliere nichts und gewinne vieleicht, gegen ich gewinne nichts und verliere höchstens; und das soll dann nicht klipp und klar gesagt werden bzw. NV dafür sogar noch eher Lob kassieren? :ucrazy2:

Ich weis ja nicht ob die Leute mit ner Rot/Cyan Pappbrille vor dem Bildschirm sitzen und das rechte Auge kräftig zukneifen, aber ich wage eine Feststellung über den Handlungsbedarf in beiden Fällen zu treffen, mit dem Hinweis auf die eklatante unterschiedliche Dringlichkeit bei ATI und NV. Kleiner Hinweis: NV ist das Ärernis das beseitigt werden sollte. ATI darf sich jetzt selber denken.

Tesseract
2011-06-28, 21:01:35
Minimal besserer AF. WOW aber: wenn es enginebedingt flimmert, flimmerts bei beiden Herstellern, wenn nicht, kann man die Unterschiede auf Standbildern bewundern, wobei ich das nicht als Freifahrtschein für AMD sehe, ihn nicht zu verbessern.

auf standbildern wirst du die unterschiede kaum bewundern können weil man sie hauptsächlich in bewegung sieht und nein, es flimmert nicht entweder bei beiden oder keinem. wenn das flimmern durch die shader zustande kommt flimmert es bei beiden. wenn das flimmern durch texturfilterung zustande kommt (und die textuten hoch genug aufgelöst sind) flimmert es bei AMD und bei nvidia nicht. ganz einfach.

ein weiterer (bzw. darauf aufbauender) vorteil ist die in der praxis deutlich bessere performance pro bildqualität durch bessere einstellmöglichkeiten.
hohen MSAA/CSAA graden in HQ mit keinen oder moderaten SS-anteilen hat die aktuelle generation von AMD einfach nix entgegen zu setzen. entweder du rollst mit der SS-walze drüber, dann ist es schön und langsam, oder du beschränkst dich auf multisampling mit guter performance aber musst abstriche bei der qualität machen. einen mittelweg gibt es einfach nicht.

keine ahnung warum alle immer auf phys-x oder eyefinity oder sonstigen rumreiten. vermutlich weil das das ist, was auch auf der packung oben steht. mir sind ganz andere dinge wichtig.

derguru
2011-06-28, 21:43:01
eq/edge/tent ist dx unabhängig und adapitv AA ist unter dx9 immerhin immer zuschaltbar solang die basis für msaa da ist.
manko bleibt einzig allein dx10 aufwärts und seien wir mal ehrlich,so viele spiele sind es nun mal nicht(und die dx9 liste geht weiter mit fear 3,alice,duke) und meist fehlt es an fps vor allem bei denen die eh keine multigpu in der kiste haben.
ok,man hat bei nv fast alles aber effektiv nutzbar bleibt auch nicht viel übrig.

Blaire
2011-06-28, 22:16:40
Effektiv nutzbar ist deutlich mehr als bei AMD, alleine die AA-Bits Möglichkeiten gibt es da garnicht, bei Nvidia hat man den Luxus von zig Hybriden, OG/SGSSAA, scharfen Downsampling. TRSSAA funktioniert ebenso mit 2x - 8xSupersamples. Ja selbst OpenGL bleibt da nicht Außen vor (RAGE kommt ja auch bald.) Was will man eigentlich noch mehr? Man hat eher die Qual der Wahl, wenn gleich zuletzt auch Games kamen, die kein richtiges AA mehr anboten und man da nur per Downsampling zu akzeptablen Ergebnis kam (DukeforEver z.b.).
Ich kann es nur immer wiederholen, AMD sollte ihre Profile offenlegen damit man selber eingreifen kann und schon ergäben sich da mehr Möglichkeiten. Es gibt da mit JapaMD (siehe RadeonPro) tüchtige Leute die viel Zeit investieren und dies sicher zu nutzen wüssten.

laryllan
2011-06-28, 22:19:07
@Tesseract

Auch hier möchte ich nochmal festhalten:

1. Aktuell (und ich hoffe das ändert sich bald) bin ich froh, wenn ich 2xMSAA oder sogar mal 4x MSAA anmachen darf (auflösungsbedingt). Ich hab da eben andere Dinge die mir wichtig sind.
2. Vor ca. 2 Jahren habe ich meinem Bruder (noch älter als ich:biggrin:), daddelt gerne und ist in allgemeinen PC Dingen recht informiert, die Funktionen AA und AF im Treiber telefonisch erklärt. Er war begeistert (vorher kannte er die Funktionen nicht, obwohl er sehr gerne gespielt hat, sofern Zeit). Wenn er Deinen Text lesen würde -> Bahnhof

Es geht doch nicht darum wer das bessere AF hat, darüber brauchen wir doch nicht zu diskutieren und es wird ja auch oft genug von der, ich nenn sie mal "grünen Fraktion" verargumentiert. Nur wie entscheidend ist das im Alltagsbetrieb für den Käufer.

Wenn ich mir manche "Kaufberatungsthreads" anschaue. Da bekomme ich nen Knall. Jemand (weniger informiert, im Folgenden "arme Sau" genannt) stellt eine durchaus berechtigte Frage: Neue Karte, was denn nun?

Und sofort geht es los:
Nimm NVIDIA (habbich iss gut) -> Cuda, PysX, besserer AF (habbichdochmalirgendwogelesenalsoschreibichdasmalhierhin), TWIMTBP Titel etc. etc.
Weiter: Nöööööö, nimm ne ATI (habbichissbesser): 2GB, P/L Verhältnis, Eyefinity etc etc.

"Arme Sau" :confused:

Und womit? Mit Recht. Den interessiert weder: Cuda -> PhysX -> AF -> Eyefinity. Der Jung/die Frau möchte einfach eine neue Grafikkarte und möchte keine Fremdsprache auswendig lernen. A Bang for the Buck. Und der sieht auch keinen Unterschied zwischen MSAA und SSAA, schon gar nicht einen Unterschied der AF von Nvidia/AMD

Diejenigen die es wissen, kaufen sich doch ohnehin das was sie "brauchen". Da muß niemand "bekehrt" werden. Es ist geradezu unglaublich mit welcher Vehemenz auf solchen Dingen herumgeritten wird und immer wieder und wieder durchexerziert.

Ich frage mich Beispielsweise bis heute, warum NVidia bzw. deren Partner es nicht hinbekommen, eine "vernünftige" (das ist jetzt auch Jammern auf ganz hohem Niveau) 2D Darstellung zu liefern. Jedesmal wenn ich einen anderweitig "befeuerten" Bildschrim sehe, weine ich fast vor Glück (und erst da bemerk ich den Unterschied wieder). Und das ist kein Ausnahmefall (GF2MX, Gf2GTS, GF4TI4200; 7950gx2; 8800GTS(g80), 8800gts (G92); 260GTX, 470gtx) alles gehabt, bzw noch da.

Und ja mir sind auch andere Dinge wichtig als Dir. Ich find Eyefinity Klasse (Surround ist lange nicht so ausgereift, wobei "ausgereift" keines von Beiden ist) und nutze es auch. Aber ich bin auch nicht die "arme Sau", sondern weiß, was ich benötige und habe entsprechend gekauft. Davon hätten mich die "grüne Fraktion" ebensowenig abgehalten wie die "roten Panther", weil ich weiß was ich benötige und was anschaffungstechnisch das Sinnvollste für mich ist.

Wenn jemand "LovesuckZ" Beiträge liest und, vorrausgesetzt er hätte eine Legende für die Abkürzungen und wüßte was sie bedeuten, kann zu dem Schluss kommen (Nvidia = dolle BQ; ATI - Sieht blöd aus) und das ist einfach Falsch.

Was die BQ betrifft, liegen beide Lösungen sehr dicht beieinander und ich sehe das nicht theoretisch, nein ich sehe das jeden Tag.

@Blaire

Im Hinblick auf die Profile (und nur da :-)) geb ich Dir vollkommen Recht.

Viele Grüße

y33H@
2011-06-28, 22:23:11
Ich frage mich Beispielsweise bis heute, warum NVidia bzw. deren Partner es nicht hinbekommen, eine "vernünftige" (das ist jetzt auch Jammern auf ganz hohem Niveau) 2D Darstellung zu liefern. Jedesmal wenn ich einen anderweitig "befeuerten" Bildschrim sehe, weine ich fast vor Glück (und erst da bemerk ich den Unterschied wieder). Und das ist kein Ausnahmefall (GF2MX, Gf2GTS, GF4TI4200; 7950gx2; 8800GTS(g80), 8800gts (G92); 260GTX, 470gtx) alles gehabt, bzw noch da. Was ist das denn für ein Quatsch? Zwischen AMD und NV gibt's keine optischen Unterschiede in 2D.

laryllan
2011-06-28, 22:39:46
Was ist das denn für ein Quatsch? Zwischen AMD und NV gibt's keine optischen Unterschiede in 2D.

Leider kein Quatsch. Aber es musste ja so etwas kommen. Schau mal auf einen Matrox Desktop. Gleicher Monitor, gleiches Kabel, "gleicher" Anschluss und wenn Du DA keinen Unterschied siehst, brauchts auch kein SSAA.

Tesseract
2011-06-28, 22:51:59
Was die BQ betrifft, liegen beide Lösungen sehr dicht beieinander und ich sehe das nicht theoretisch, nein ich sehe das jeden Tag.
2x-4x MS auf einer briefschlitz-gaming-zusammenstellung ist aber kein wirklich aussagekräftiger vergleich. da stelle ich mir lieber einen 2560x1440 auf den tisch und befeuer den mit besseren einstellungen.
abgesehen von so einem sonderfall (und nichtmal da) ist die BQ eben nicht dicht beieinander. zumindest nicht nach meinen maßstäben.

Leider kein Quatsch. Aber es musste ja so etwas kommen. Schau mal auf einen Matrox Desktop. Gleicher Monitor, gleiches Kabel, "gleicher" Anschluss und wenn Du DA keinen Unterschied siehst, brauchts auch kein SSAA.
was soll da bitte für ein unterschied sein?

IchoTolot
2011-06-28, 23:03:41
Niemand kauft sich heute noch AMD, wenn ihn BQ interessiert.


Das unterschreib ich mal. :up:

laryllan
2011-06-28, 23:09:13
2x-4x MS auf einer briefschlitz-gaming-zusammenstellung ist aber kein wirklich aussagekräftiger vergleich. da stelle ich mir lieber einen 2560x1440 auf den tisch und befeuer den mit besseren einstellungen.
abgesehen von so einem sonderfall (und nichtmal da) ist die BQ eben nicht dicht beieinander. zumindest nicht nach meinen maßstäben.


Schön, dass Du Dir lieber einen 2560x1440er auf den Tisch stellst und ihn mit maximalen Einstellungen befeuerst. Müssen das jetzt alle machen? Was ist daran jetzt aussagekräftiger? 360BP mehr in der Höhe; auch nen Briefschlitz nur ein schmalerer. Edit: Und schau mal, ich kann sogar meinen beiden Karten beibringen auf nur einem Monitor zu laufen in 1080p, so zu Testzwecken, oder um Direktvergleiche der "abnormen" Überlegenheit der NVIDIA BQ durch zu führen


was soll da bitte für ein unterschied sein?

Es gibt tatsächlich Dinge, die kann man nicht theoretisch erfassen, dazu muss man gucken und ausprobieren :eek:

Im Übrigen hast Du nicht eine einzige Zeile von dem was ich schrieb verabreitet, zumindest nicht ausserhalb Deines NVIversums.

derguru
2011-06-28, 23:10:07
Effektiv nutzbar ist deutlich mehr als bei AMD, alleine die AA-Bits Möglichkeiten gibt es da garnicht, bei Nvidia hat man den Luxus von zig Hybriden, OG/SGSSAA, scharfen Downsampling. TRSSAA funktioniert ebenso mit 2x - 8xSupersamples. Ja selbst OpenGL bleibt da nicht Außen vor (RAGE kommt ja auch bald.) Was will man eigentlich noch mehr? Man hat eher die Qual der Wahl, wenn gleich zuletzt auch Games kamen, die kein richtiges AA mehr anboten und man da nur per Downsampling zu akzeptablen Ergebnis kam (DukeforEver z.b.).
Ich kann es nur immer wiederholen, AMD sollte ihre Profile offenlegen damit man selber eingreifen kann und schon ergäben sich da mehr Möglichkeiten. Es gibt da mit JapaMD (siehe RadeonPro) tüchtige Leute die viel Zeit investieren und dies sicher zu nutzen wüssten.
ach komm,was willst du denn noch mit den hybriden oder ogssaa?nach dem sgssaa auch bei nv funktioniert sind die modis doch unbedeutend.spielerei ist das,mehr nicht.

LovesuckZ
2011-06-28, 23:14:48
ach komm,was willst du denn noch mit den hybriden oder ogssaa?nach dem sgssaa auch bei nv funktioniert sind die modis doch unbedeutend.spielerei ist das,mehr nicht.

Du kannst die Hybriden auch mit SSAA kombinieren. :-)

derguru
2011-06-28, 23:24:58
hammer! :ulol:

Tesseract
2011-06-28, 23:46:24
ach komm,was willst du denn noch mit den hybriden oder ogssaa?nach dem sgssaa auch bei nv funktioniert sind die modis doch unbedeutend.spielerei ist das,mehr nicht.
gerade seit es SGSSAA gibt sind die hybriden wieder relevant weil man MSAA mit SGSSAA kombinieren kann. z.B. ein 8xMS, das 2 subpixel als supersamples einfließen lässt und man damit ein EER von 8x8 zusammen mit noch relativ gut performendem 2xSS haben kann. ist in der praxis relevanter als ein 8xSGSSAA, dass in fast allen fällen unzureichend performt.

Es gibt tatsächlich Dinge, die kann man nicht theoretisch erfassen, dazu muss man gucken und ausprobieren :eek:
ja ich glaubs auch. :rolleyes:

Und schau mal, ich kann sogar meinen beiden Karten beibringen auf nur einem Monitor zu laufen in 1080p, so zu Testzwecken, oder um Direktvergleiche der "abnormen" Überlegenheit der NVIDIA BQ durch zu führen
das brauchst du überhaupt nicht. selbst mit 2-4xMS gibt es mehr als genug beispiele wo die kaputte filterung von AMD reinhaut.

Im Übrigen hast Du nicht eine einzige Zeile von dem was ich schrieb verabreitet, zumindest nicht ausserhalb Deines NVIversums.
doch habe ich. ich seh nur nicht ganz was das mit meinem ursprünglichen post zutun hat. ja, die meisten sehen die unterschiede nicht. die meisten sehen aber auch keine unterschiede von +-30% fps. was willst du jetzt genau damit sagen?

LovesuckZ
2011-06-29, 00:13:51
Neben SSAA unter DX10 & 11 gibt es nicht wirklich welche:

Treiber: Genau der gleiche Mist wie bei AMD (Not gegen Elend)
GPU-PhysX = tot
Der Einkauf eines TWIMTBP Logos bei Spielstart ein Vorteil? Ich weiß nicht.
Minimal besserer AF. WOW aber: wenn es enginebedingt flimmert, flimmerts bei beiden Herstellern, wenn nicht, kann man die Unterschiede auf Standbildern bewundern, wobei ich das nicht als Freifahrtschein für AMD sehe, ihn nicht zu verbessern. Das Argument ist nur faktisch zu sehr aufgebauscht und praktisch weniger relevant.

Nvidia baut mit Sicherheit gute Karten, aber so deutlich überwiegen die Vorteile nun nicht.

Ich hab mir Deine Argumentationen in Ruhe angeschaut und wollte erst punktuell antworten. Allerdings scheinst Du mir ein argumentativer "Wendehals" zu sein (z.B. Multi-Monitoring ein Spezialfall, mehr als 1080p Irrelevant und Downsampling Standard) Also -> zwecklos :wink:

Ein wenig mehr Distanz und Ausgeglichenheit würden Dir nicht schaden :cool:


Ich sage ja: Ignoranz ist der beste Freund, den AMD haben kann.

Statt nach mehr zu schreien, wird einfach alles negiert, ignoriert, niedergemacht. Da wundert es einem nicht, dass man als AMD User Downsampling nur mit XP, SGSSAA nur DX7, DX8 und DX9 einsetzen kann, kein HQ-AF hat und nach knapp 2 Jahren immer noch auf GPU-Physik über OpenCL warten darf.

Tesseract
2011-06-29, 00:26:38
das kaputte AF hat nix damit zutun was die kunden wollen oder nicht, das ist ein bug in der hardware. ein sehr dummer, unnötiger bug aber keine absicht und bringt auch keine performance.

LovesuckZ
2011-06-29, 00:39:11
das kaputte AF hat nix damit zutun was die kunden wollen oder nicht, das ist ein bug in der hardware. ein sehr dummer, unnötiger bug aber keine absicht und bringt auch keine performance.

Spielt das eine Rolle? Zwischen r600 und Cayman lagen 3 1/2 Jahre. Es war ein Bug in einem Bereich, den die Kunden eben als gleichgültig sehen. Ergo wurde es auch nicht gefixt.

Tesseract
2011-06-29, 00:46:35
Spielt das eine Rolle? Zwischen r600 und Cayman lagen 3 1/2 Jahre. Es war ein Bug in einem Bereich, den die Kunden eben als gleichgültig sehen. Ergo wurde es auch nicht gefixt.
wenn man die karte einsetzt spielt es keine rolle, im zusammenhang mit deinem üblichen anti-AMD-geflame schon. ;)

G 80
2011-06-29, 00:46:39
ach komm,was willst du denn noch mit den hybriden oder ogssaa?nach dem sgssaa auch bei nv funktioniert sind die modis doch unbedeutend.spielerei ist das,mehr nicht.


Hier letztens wieder _enige_ Games mit Open GL gespielt ( zB Homeworld, Doom 3, Elite Force 2, Prophecy [Glide -> Gliedwrapper -> OGL -> Inspector mit Hybridem 32xS also OGSS+OGMSAA]) gespielt. Die meisten haben seinerzeit nichtmal AA ingame Angeboten, dh ich hab mal wieder mit 5 Jahren alten Karten Spiele gespielt die besser aussahen, als mit den topaktuellen Krokos.
Nebenbei da ich seit ner Weile nciht mehr aufgerüstet habe (juckt aber grad) ist für micht OGSSA _sehr_ wichtig und war und ist auch heute noch mit ein Kaufgrund für das 88er SLI. -> 2x2 (oder 3x3? weis nimmer schon wieder bischen her) OGSSA in zB Earth 2160. Und mit Hybriden 4xS oder 8xS schmeiß ich auch gerne in neueren D3D Sachen, bei denen die Leistung nicht für reines OGSSA reicht um micht. Aber alleine der OpenGL Teil ist es Wert die Hybriden zu behalten.

Vergessen wir noch abschließend nicht das ich, würde ich Fermis haben, sicher eine besser spielbares Ergebnis mit MSAA + SGSSA Anteil habe als mit purem reinem höherem SGSSAA.


Und das ist halt NV Paket. Ich will ja gar nicht sagen, das jeder das alles braucht aber man hat die Möglichkeit dazu und es ist nicht von vornherein nicht verfügbar. Wäre ja nicht so, dass es diese Abwehrhaltung umgekehrt zB bei Eyefinity nicht auch gebe. Ich brauchs nicht, aber ingesamt: wiso nicht ist sicher ganz nett zu haben.


@ 2 D Darstellung: Neutrale + meine Haltung: Gibts nicht den User von Prad mit Ahnung der sich schon angeboten hat die Farbe-Änderung bei Treiberversionen-Verschwörung aufzuklären. Frag doch dort um einen Testlauf an, der hat kalibrierte Geräte + gute und schlechte Monitore, dann kann man das Weiterverfolgen.

Bonus: ATI-Haltung: Kann nicht sein, den ich sehe keinen Unterschied + und falls mans beweisen kann das man ihn sieht, ist auch egal, weil die Masse/Konsolen Leute es nicht sieht. Lieber ordentliche Balken und überhaupt ist auch die BQ/Perf Perfekt sonnst kommt wieder sowas raus: Wir empfehlen, so komisch es klingen mag, im 2D-Bereich unter Windows 7 generell mit deaktivierter Aero-Oberfläche zu arbeiten, sollte eine Karte der neuen HD 5xxx-Reihe im PC stecken. Der Leistungszuwachs von bis zu 300% je nach Anwendung kompensiert den optischen Verlust auf alle Fälle. Wir raten deshalb dazu, Aero für das betreffende Programm über die Verknüpfung definitiv zu deaktivieren um nicht generell auf Aero verzichten zu müssen. (http://www.tomshardware.de/WDM-GDI-WDDM-ATI-Radeon,testberichte-240480.html) *1

*1 Nein, das meine ich nicht ernst, aber genau so höhrt sich das Echo an wenn man gegen eine Wand des Ayers Rock des Forums ruft. Auch die GTX285 von Nvidia muss sich oft genug von einer Onboardgrafik geschlagen geben. - der gleiche Mist ;) (http://www.tomshardware.de/wddm-2d-performance,testberichte-240487-14.html)

LovesuckZ
2011-06-29, 01:00:15
wenn man die karte einsetzt spielt es keine rolle, im zusammenhang mit deinem üblichen anti-AMD-geflame schon. ;)

Und was ist daran ein Flame? Das AF ist seit r600 deutlich schlechter. r600 ist 2007. Cayman Dezember 2010. Also bitte. Das AF interessiert dem AMD User nicht. Wie generell BQ. Gibt es ein bissl MSAA und ein bissl AF, ist er zufrieden. Das ist auch vollkommen in Ordnung. Aber dann soll diese Gruppe hier nicht anfangen irgendwelche Negierungstaktiken zu fahren.

Perfektes Beispiel ist doch unser Mr.Lolman: Anfang 2006 noch einen tollen Artikel geschrieben, wie wichtig sehr gute Default-Filterungsqualität wäre. Und was kam, als AMD rumgefuscht hat? Nichts. Garnichts. Überhaupt nichts. Es ging Mr.Lolman nie um die Qualität. Er suchte einem Vorwand gegen nVidia zu flamen.

Wieso man mir also hier vorwirft, ich würde "anti-AMD-geflame" praktizieren, verstehe ich nicht. Ich gehe doch nur akkord mit den Aussagen von Mr.Lolman aus dem Jahr 2006.

MartinRiggs
2011-06-29, 08:57:24
Ja ist ja gut wir kennen alle deine Meinung.
Wie kann man nur so krank sein und jeden Thread kaputtreden, was bezahlt dir NV für deinen Kreuzzug gegen AMD?:rolleyes:

Raff
2011-06-29, 09:11:12
hammer! :ulol:

Das ist wirklich Hammer. Ich sage nur 32xS + 8x SGSSAA. Killer-AA, vor allem für die Grafikkarte. Die wird dadurch nämlich gekillt. ;)

MfG,
Raff

san.salvador
2011-06-29, 09:13:09
Irgendwann, wenn wir alt und klapprig sind, wird das der Standard sein. Nur leider werden wir es dann nur noch verschwommen sehen können. ^^



Oder AMD macht das Rennen und wir haben dann verflimmerte 48000fps. :ulol:

Klingone mit Klampfe
2011-06-29, 09:24:21
Ich frage mich ja immer, wer von Euch überhaupt schon einmal eine HD5xxx oder HD6xxx selbst erlebt hat und nicht nur nachplappert, was er irgendwo aufgeschnappt hat.

Mein Vorschlag: AMD-Unterforum in "sonstige Grafikkarten" verschieben, Forum in nVidia-Center umbenennen.

Raff
2011-06-29, 09:51:13
Hier neigen diverse Leute zu gaaanz dezenter Überzeichnung. ;) Das ist ein tolles Stilmittel, führt jedoch zu Missverständnissen und Flames. Was viele der "Counter Flamer" (also die, die Quali-Kritiker für ihre Quali-Kritik kritisieren) nicht verstehen: Sobald AMD liefert, was die Kritiker fordern, sind Letztere ruhig. Ok, die meisten. Aber so weit muss es erst mal kommen. Die Barts-/Cayman-Filtersülze hat gezeigt, dass AMD auf harsche Kritik reagiert und nachbessert, soweit das möglich ist.

Daraus folgt: Eine "Basst scho"-Attitüde ändert nichts, also helft gefälligst mit. Möglichst sachlich. :) Wenn hier ständig jemand seine Mutter oder heilige Kuh angegriffen sieht, ist das mindestens eine Stufe zu persönlich. Das sind alles Firmen, die nur euer Geld wollen, also behandelt sie auch so. ;)

MfG,
Raff

Schlammsau
2011-06-29, 10:13:23
Nur ist die Kritik in diesem Forum zu einseitig und hier schwirren viel zu viele IHV-Evangelisten und Freaks rum..... ;)
Hier wird aus einer Mücke ein Elefant, und aus einem Elefant ne Mücke gemacht.

Eigentlich wollte ich hier nie wieder was schreiben, jetzt hab ichs doch gemacht.....verdammt! :smile:

Raff
2011-06-29, 10:18:13
Kritik wird dort ausgeübt, wo es Gründe dafür gibt – und nicht einfach so, möglichst gleichmäßig auf alle IHVs verteilt.

MfG,
Raff

Schlammsau
2011-06-29, 10:22:38
Hört sich vernünftig an, nur mit der praktischen Umsetzung hapert es hier doch gewaltig!

Und jetzt bin ich raus, hab auf diese sinnlosen Diskussionen keinen Bock mehr!

Klingone mit Klampfe
2011-06-29, 10:25:41
Daraus folgt: Eine "Basst scho"-Attitüde ändert nichts, also helft gefälligst mit. Möglichst sachlich.

Also meine HD5770 ist für meine Zwecke (Silent/Stromsparrechner, Steam sales, Videos) perfekt wie sie ist. Da sage ich in der Tat "Basst scho". Nicht jeder glotzt beim Zocken nur auf Polygonkanten, damit er nachher von tollen AA-Modi schwärmen kann bis ihm die Unterbuxe platzt.

Raff
2011-06-29, 10:28:38
In diesem Fall (Genügsamkeit) wäre es angebracht, sich einfach herauszuhalten, auch wenn das schwerfällt. :) Hier rennen nun mal eine Menge Enthusiasten herum, für die weder eine HD 5770 noch deren AF ernsthaft infrage kommt. Diese Leute geben einen Haufen Kohle für ihre Grafikkarte(n) aus und erwarten daher, dass ein entsprechend hoher Gegenwert auf den Schirm kommt.

Zumal die 100-Euro-Karten ja gar nicht kritisiert werden – AMD liefert nach wie vor das bessere Watt-Fps-Verhältnis, Qualität ist da unten sekundär.

MfG,
Raff

Schlammsau
2011-06-29, 10:34:01
Als ob LovesuckZ und Co kontruktive Kritik an AMD üben würden, um sich im Falle deutlicher Veränderungen auch wirklich eine Radeon zu kaufen!? :freak:

Ich lach mich tot!

Raff
2011-06-29, 10:43:30
Natürlich gilt meine Aussage nicht für alle Anwesenden. ;)

MfG,
Raff

boxleitnerb
2011-06-29, 10:43:44
Das Forum besteht ja zum Glück nicht nur aus diesen Leuten. Wie war das mit nichts mehr schreiben? Immer schön gegenprovozieren :freak:

Schlammsau
2011-06-29, 10:48:06
Natürlich gilt meine Aussage nicht für alle Anwesenden. ;)

MfG,
Raff
Du forderst Sachlichkeit und gegebenfalls Zurückhaltung bei den AMD-Verteidigern aber bei den AMD-Flamern hälst du die Klappe!?
Sehr einseitig deine Einstellung!

Aber das war jetzt endgültig meine letzter Post hier!

san.salvador
2011-06-29, 10:52:57
Also meine HD5770 ist für meine Zwecke (Silent/Stromsparrechner, Steam sales, Videos) perfekt wie sie ist. Da sage ich in der Tat "Basst scho". Nicht jeder glotzt beim Zocken nur auf Polygonkanten, damit er nachher von tollen AA-Modi schwärmen kann bis ihm die Unterbuxe platzt.
Warum beteiligst du dich dann in einem 3D-Forum an solchen Diskussionen? Genau wegen solcher Themen ist nämlich der Rest von uns hier.

Den Rest hat Raff schon richtig erkannt und erklärt, dem ist nichts hinzuzufügen.

Raff
2011-06-29, 10:54:25
Du forderst Sachlichkeit und gegebenfalls Zurückhaltung bei den AMD-Verteidigern aber bei den AMD-Flamern hälst du die Klappe!?
Sehr einseitig deine Einstellung!

Aber das war jetzt endgültig meine letzter Post hier!

Damit waren alle gemeint. Du übrigens auch, weil du es ebenfalls nicht hinbekommst, mit den Augen statt dem Herzen zu urteilen.

MfG,
Raff

Klingone mit Klampfe
2011-06-29, 10:58:28
Ihr wollt Low- und Midrange-Nutzern also den Mund verbieten (aber nur denen mit AMD-Karten). Interessant.

derguru
2011-06-29, 11:06:02
gerade seit es SGSSAA gibt sind die hybriden wieder relevant weil man MSAA mit SGSSAA kombinieren kann. z.B. ein 8xMS, das 2 subpixel als supersamples einfließen lässt und man damit ein EER von 8x8 zusammen mit noch relativ gut performendem 2xSS haben kann. ist in der praxis relevanter als ein 8xSGSSAA, dass in fast allen fällen unzureichend performt.
das ist i.o. obwohl ich selbst da 4xsgssaa bevorzugen würde aber ich bezog mich auf die hybriden wie z.b. 8xS/16xS/32xS.
Hier letztens wieder _enige_ Games mit Open GL gespielt ( zB Homeworld, Doom 3, Elite Force 2, Prophecy [Glide -> Gliedwrapper -> OGL -> Inspector mit Hybridem 32xS also OGSS+OGMSAA]) gespielt. Die meisten haben seinerzeit nichtmal AA ingame Angeboten, dh ich hab mal wieder mit 5 Jahren alten Karten Spiele gespielt die besser aussahen, als mit den topaktuellen Krokos.
Nebenbei da ich seit ner Weile nciht mehr aufgerüstet habe (juckt aber grad) ist für micht OGSSA _sehr_ wichtig und war und ist auch heute noch mit ein Kaufgrund für das 88er SLI. -> 2x2 (oder 3x3? weis nimmer schon wieder bischen her) OGSSA in zB Earth 2160. Und mit Hybriden 4xS oder 8xS schmeiß ich auch gerne in neueren D3D Sachen, bei denen die Leistung nicht für reines OGSSA reicht um micht. Aber alleine der OpenGL Teil ist es Wert die Hybriden zu behalten.
bei dir ist das verständlich allein aus dem grund weil deine karten eine miserabele sgssaa performance haben aber wenn du fermi-karten hättest würde du nicht mehr auf die hybriden greifen weil sgssaa einfach effektiver,schneller und dx unabhängig ist.
Das ist wirklich Hammer. Ich sage nur 32xS + 8x SGSSAA. Killer-AA, vor allem für die Grafikkarte. Die wird dadurch nämlich gekillt. ;)

MfG,
Raff
ebend gekillt,ich habe die kombovariante live noch nie genutzt/gesehen wegen miserabler performance aber soviel besser als eine sgssaa/tent-edge qualität kann es nicht mehr sein.irgendwann ist die grenze fürs auge erreicht,jedenfalls für mein äuglein.

boxleitnerb
2011-06-29, 11:11:09
Ihr wollt Low- und Midrange-Nutzern also den Mund verbieten (aber nur denen mit AMD-Karten). Interessant.

Was heißt den Mund verbieten? Es bringt doch einfach nichts, wenn sich jemand an der Diskussion beteiligt, den das diskutierte Thema überhaupt nicht berührt? Er erfeifert sich (jetzt egal welcher Fraktion er angehört) für nichts und wieder nichts und nur aus Prinzip, verletztem Stolz oder sonstirgendwas Bescheuertem.

Ich finde es genauso sinnbefreit, wenn AMD-Fanboys Nvidia Threads zuspammen und umgekehrt. Klar kann man mitschreiben, aber außer dem üblichen Egoboost, den anderen mal wieder die Meinung gesagt zu haben, bringt das der Diskussion rein gar nichts.

Raff
2011-06-29, 11:11:36
ebend gekillt,ich habe die kombovariante live noch nie genutzt/gesehen wegen miserabler performance aber soviel besser als eine sgssaa/tent-edge qualität kann es nicht mehr sein.irgendwann ist die grenze fürs auge erreicht,jedenfalls für mein äuglein.

Vollkommen richtig. 8x SGSSAA + Edge-Downfilter erreicht in Spielen, wo 32xS nutzbar ist, etwa Max Payne 2, eine gleichwertige Glättung. Der Edge-Filter vermischt die Samples einfach viel besser als das Geboxe bei Nvidia – das ist übrigens ein klarer Nachteil bei NV. Viele der bis zu 32 Samples pro Pixel (!) gehen bei Boxfiltering verloren, während man bei AMD den Filter auswählen kann. Ich vermisse CFAA auf meiner GTX 580.

MfG,
Raff

Undertaker
2011-06-29, 11:25:58
Für weiteren Spam, OT und gegenseitige Unterstellungen gibt es Karten.

MadManniMan
2011-06-29, 11:29:10
Ihr wollt Low- und Midrange-Nutzern also den Mund verbieten (aber nur denen mit AMD-Karten). Interessant.

Was sollte ich als Zu-Hause-Spieler mit einer 70-Euro-E-Gitarre über professionelle Bühnenklampfen mit entscheiden? Für mich ist es wichtig, dass die Saiten nicht reißen und ordentlich bräsiger Sound aus meinem Amp kommt, wenn ich die Gitarre anstöpsel.

Ich hätte (noch) keinerlei Verwendung für eine sich automatisch stimmende Gitarre - wenn meine das aber könnte, würde ich nicht drüber urteilen können, ob die eine oder andere Implementierung gut und richtig so ist. Wenn mir aber jemand nachweislich versichern kann, dass es technisch bessere Lösungen gibt, was sollte ich ihm da in die Parade fahren?

Schaffe89
2011-06-29, 12:41:46
Mr.Lolman ist alles, aber bestimmt nicht objektiv.

Er hat die Benches gemacht, aber den Test nicht geschrieben.

Klar. Wenn man alle Vorteile von nVidia ignoriert. Aber ignoranz ist ja der Freund von AMD.

Wenn man sich an jedem Fitzelchen für den absoluten Nerd festhält, magst du ja recht haben. (Auf der Gegenseite ignorierst du ja geflissentlich, dass AMD ebenfalls Antialisasing Modi anbietet).
DAs tut ergo aber niemand. Man muss auch für den gemeinen Nutzer etwas abwägen und nicht alles auf die Waagschale werfen, was irgendwie besser sein könnte, das ist wohl dein generelles Problem.
Dass Nvidia mehr AA Möglichkeiten hat, habe ich nirgends verneint oder aus irgendwelchen absichtlichen Motiven kleingeredet. Du willst das leider aber auf einen sehr großen BQ Unterschied aufbauschen und zum Fanboy Thema schlechtin treiben um dann zum Fazit kommen, dass AMD Nutzer keine BQ sehen wollen, das geht mir alles zu weit, deswegen reagiere ich allergisch gegen solche übertriebenen Darstellungen, so einfach ist das.

Wieso man mir also hier vorwirft, ich würde "anti-AMD-geflame" praktizieren, verstehe ich nicht. Ich gehe doch nur akkord mit den Aussagen von Mr.Lolman aus dem Jahr 2006.

Sicher, ich glaub du bist meilenweit an der Realität vorbeigeschossen, denunzierst zu Unrecht einen objektiven Artikelschreiber und bist nicht in der Lage Dinge von einem Punkt aus zu sehen, der inmitten von Nvidia und AMD liegt.
Nvidia bietet die bessere BQ, was SGSSAA und mehr Antialiaisng in einigen Spielen sowie APi´s ermöglicht. Das AF ist geringfügig besser und neigt weniger zum Flimmern.
Das ist aber alles kein Grund AMD-Usern zu Unterstellen sie wollen keine BQ, weil das Meckern auf äußerst hohem Niveau ist, das ist für dich anscheinend nicht einzusehen.

Vollkommen richtig. 8x SGSSAA + Edge-Downfilter erreicht in Spielen, wo 32xS nutzbar ist, etwa Max Payne 2, eine gleichwertige Glättung. Der Edge-Filter vermischt die Samples einfach viel besser als das Geboxe bei Nvidia – das ist übrigens ein klarer Nachteil bei NV. Viele der bis zu 32 Samples pro Pixel (!) gehen bei Boxfiltering verloren, während man bei AMD den Filter auswählen kann. Ich vermisse CFAA auf meiner GTX 580.

Nvidia liefert für directx9 und SGSSAA keine bessere Bildqualität als AMD und hat auch einige Nachteile. Wie keine LOD Verschiebung unter directx10/11 und keine automatische unter directx9.
Und das mit den AA-Bits ist kein Angebot von Nvidia, sondern das ist die Leistung der im Forum postenden Tweaker und Freaks.
Und eine Karte nehme ich gerne in Kauf. Vielleicht siehst du ja irgendwann mal ein, dass du übertreibst.

deekey777
2011-06-29, 12:52:58
Und was ist daran ein Flame? Das AF ist seit r600 deutlich schlechter. r600 ist 2007. Cayman Dezember 2010. Also bitte. Das AF interessiert dem AMD User nicht. ....
Echt nicht?
Gibt es dazu eine Studie, Befragung, Untersuchung, etc?

LovesuckZ
2011-06-29, 12:56:15
Er hat die Benches gemacht, aber den Test nicht geschrieben. Wurde dir erklärt.

Opfer Mr.Lolman. ;D
Wahrscheinlich hat Mr.Lolman 2006 auch nur seinen Namen für den Text hingegeben. Geschrieben wurde er von jemand anderem.


Wenn man sich an jedem Fitzelchen für den absoluten Nerd festhält, magst du ja recht haben.
DAs tut ergo aber niemand. Man muss auch für den gemeinen Nutzer etwas abwägen und nicht alles auf die Waagschale werfen, was irgendwie besser sein könnte, das ist wohl dein generelles Problem.
Dass Nvidia mehr AA Möglichkeiten hat, habe ich nirgends verneint. Du willst das leider aber auf einen sehr großen BQ Unterschied aufbauschen und zum Fanboy Thema schlechtin treiben um dann zum Fazit kommen, dass AMD Nutzer keine BQ sehen wollen, das geht mir alles zu weit, deswegen reagiere ich allergisch gegen solche übertriebenen Darstellungen, so einfach ist das.

Wieso man sich nach AMD als "kleinsten Nenner" richten muss, wurde übrigens nicht erläutert.
Und natürlich existiert ein "großer BQ Unterschied", wenn Features wie Downsampling und SSAA eben nicht zur Verfügung stehen. Deutlich größer als der Unterschied beim AF. Und das kann man am Ende nichtmal mit Ignoranz wegnegieren.

Cadmus
2011-06-29, 13:07:48
Habe ich gerade einen Knick in der Linse? Welche GTX 460 wurde denn getestet, 768 oder 1024?

boxleitnerb
2011-06-29, 13:08:04
Wurde eigentlich schon angesprochen, dass drei AMD-Karten in Dragon Age 2 drosseln? Ich hab von Anfang an PowerTune sehr misstrauisch beäugt. Erkennung für Furmark schön und gut, das hat ja auch Nvidia. Aber das geht doch zu weit.

Was ist eigentlich mit dem AMD-Optimized Tessellationschalter? Hat der irgendwelche Auswirkungen inzwischen? Bei AMD muss man da ja immer genauer hinschauen...inzwischen in drei Teilbereichen (AF, Powertune, Tess) - den Redakteur freuts, wenn er seinem Messgerät und Fraps nicht mehr blind vertrauen kann und er mehr Arbeit hat.

Raff
2011-06-29, 13:09:45
Die PCGH bencht im neuen Parcours übrigens manuell mit 64x Tesselfaktor und ohne Surface Format Optimization im Catalyst.

MfG,
Raff

derguru
2011-06-29, 13:09:46
Habe ich gerade einen Knick in der Linse? Welche GTX 460 wurde denn getestet, 768 oder 1024?
1024
http://www.computerbase.de/artikel/grafikkarten/2011/test-19-grafikkarten/11/#abschnitt_testsystem

LovesuckZ
2011-06-29, 13:10:04
Wurde eigentlich schon angesprochen, dass drei AMD-Karten in Dragon Age 2 drosseln? Ich hab von Anfang an PowerTune sehr misstrauisch beäugt. Erkennung für Furmark schön und gut, das hat ja auch Nvidia. Aber das geht doch zu weit.


Wollte ich anmerken, aber ich fand den Thread nicht mehr. :rolleyes:
Ich weiß auch nicht, inwieweit Computerbase.de darauf im Test eingegangen ist - also ob sie Powertune erhöht haben oder nicht.

boxleitnerb
2011-06-29, 13:15:27
Was die Ergebnisse allerdings komisch macht, ist die Tatsache, dass die Geforces deutlich weniger verbraten in diesem Setting. Volker würde erkannt haben, wenn die auch drosseln würden - nehme ich jedenfalls mal an...

LovesuckZ
2011-06-29, 13:39:22
Was die Ergebnisse allerdings komisch macht, ist die Tatsache, dass die Geforces deutlich weniger verbraten in diesem Setting. Volker würde erkannt haben, wenn die auch drosseln würden - nehme ich jedenfalls mal an...

Unterschiedliche Spiele, unterschiedliche Anforderungen.
Wahrscheinlich benötigen die AMD Karten deutlich mehr Strom, weil Dragon Age 2 sehr stark auf die Rechenleistung drückt: SSAO, DoF, POM. Tessellation wird ja eigentlich kaum angewendet. Das lastet die Karte besser aus und führt - trala - zum erhöhten Stromverbrauch.

Schaffe89
2011-06-29, 13:48:45
Es gibt immernoch keine Profile für den Tesselationschalter, man kann allerdings den Tess Grad nach unten hin anpassen.

Und natürlich existiert ein "großer BQ Unterschied", wenn Features wie Downsampling und SSAA eben nicht zur Verfügung stehen. Deutlich größer als der Unterschied beim AF. Und das kann man am Ende nichtmal mit Ignoranz wegnegieren.

Bei directx9 stehen sie aber zur Verfügung und da teils besser als bei Nvidia.
Als Zugabe für die Titel ohne AA- Bits gibt es MLAA, was besser ist als gar nichts, hier hat Nvidia auch kein Gegenstück.
Die maximal erreichbare BQ soll mit directx9 bei AMD mit SGSSAA oftmals besser sein, als Nvidia das kann, da ist AF unbedeutend.
Fehlt directx10 und directx11 und besseres AF. Raff schrieb mal was von einem Downsamplingschalter bei AMD, der kommen soll?
Ich bin mal gespannt, wo du in 4 Monaten?, wenn AMd die neue Architektur womöglich released und das AF und SSAA Nachteile hoffentlich Geschichte sind, dann das Haar in der Suppe suchst.
Womöglich wirst du bei den AA-Bits ansetzen und den 10 Titeln die man damit dann Mit eigener Initiative mit AA spielen darf, so wie es ja bei directx11/10 udn SGSSAA selbst genauso ist, wo man von Nvidia kein automatisches LOD bekommt, sondern verschiedene Bit´s ausporobieren muss, bis es läuft. Da braucht man erstmal fast Fachwissen.

Und nochmal, ich lasse keine Ignoranz walten, ich sehe nur SGSSAA nicht als den heiligen Gral der BQ an und verbitte mir AMD-Users zu unterstellen sie wollen keine BQ.

Gibt es dazu eine Studie, Befragung, Untersuchung, etc?

Nunja, wäre bei Nvidia noch das BAnding Problem zu lösen, welches keine Beachtung findet, es wird nur immer am unscheinbaren Flimmern herumgeritten.
Es gibt keine Studie, es ist einfach eine unsinnige Behauptung.
Das AMd´sche AF, wurde teils mithilfe von Differenzbildern (kleinen Hilfsmittelchen) in den Redaktionen schlechtgeredet, bis AMD (minimalst) nachgebessert hat, was zur Folge hatte dass die BQ insgesamt wieder an die von der HD5870 Serie heranreicht.

Tesseract
2011-06-29, 13:51:50
Nvidia liefert für directx9 und SGSSAA keine bessere Bildqualität als AMD und hat auch einige Nachteile. Wie keine LOD Verschiebung unter directx10/11 und keine automatische unter directx9.
der eigentliche nachteil ist, dass die modi von nvidia inoffiziell sind und man sich dementsprechend sehr viele profile für SGSSAA selber bauen muss. aber wenn diese mal eingerichtet sind hat man keine nachteile mehr wärend der nutzung.
wer die bessere bildqualität bietet ist eine frage des bereichs. bis 8xSGSSAA bietet nvidia die bessere overall-qualität, danach tendenziell AMD wenn man mal von den unglaublich langsamen multi-hybriden OGSS+SGSS mit zig samples absieht. die frage ist welcher bereich für den nutzer relevanter ist. ich kenne beides und bin zum schluss gekommen, dass mir hohe SGSSAA-grade, so toll sie auch aussehen, einfach zu langsam sind wenn ich mit sinnvollen einstellungen eine ebenfalls sehr hochwertige BQ erreichen kann und dabei ein gewaltiges performanceplus mitnehmen kann.

Und das mit den AA-Bits ist kein Angebot von Nvidia, sondern das ist die Leistung der im Forum postenden Tweaker und Freaks.
nvidia hat die treiber-API offen gelegt damit tools wie der inspector überhaupt funktionieren und baut laufend neue AA-bits ein. die möglichkeit hat man bei AMD schlicht nicht bzw. in vielen fällen nur über umwege wie exe-renaming und solche späße.
ja, das ist ein service von nvidia und ein großer vorteil gegenüber AMD.


Als Zugabe für die Titel ohne AA- Bits gibt es MLAA, was besser ist als gar nichts, hier hat Nvidia auch kein Gegenstück.
MLAA ist nicht besser als garnix. MLAA ist ein totaler performancefresser und versagt genau da, wo AA am aller wichtigsten ist: bei filigraner geometrie. dafür vermatscht es das bild. nein danke. wenn ich die wahl habe zwischen MLAA und keinem AA nehm ich kein AA.

LovesuckZ
2011-06-29, 13:57:28
Bei directx9 stehen sie aber zur Verfügung und da teils besser als bei Nvidia.

Und viel öfters deutlich schlechter. Und nun? Kann man denn als AMD User endlich Full-Scene-SSAA in Hot Pursuit 2010 forcieren? Oder Mafia 2? Oder Medal of Honor 2010? Oder Bad Company 2?

Als Zugabe für die Titel ohne AA- Bits gibt es MLAA, was besser ist als gar nichts, hier hat Nvidia auch kein Gegenstück.

MLAA ist keine Alternative zu Downsampling. Spiele ich ohne Brille/kontaktlinsen, habe ich auch MLAA...


Die maximal erreichbare BQ soll mit directx9 bei AMD mit SGSSAA oftmals besser sein, als Nvidia das kann, da ist AF unbedeutend.

"Soll", ist richtig. Denn es ist es nicht. Die "maximal erreichbare BQ" ist abhängig davon, was bei AMD möglich ist. Und wenn da mal etwas nicht möglich ist, geht es bergab.


Fehlt directx10 und directx11 und besseres AF. Raff schrieb mal was von einem Downsamplingschalter bei AMD, der kommen soll?
Ich bin mal gespannt, wo du in 4 Monaten?, wenn AMd die neue Architektur womöglich released und das AF und SSAA Nachteile hoffentlich Geschichte sind, dann das Haar in der Suppe suchst.
Womöglich wirst du bei den AA-Bits ansetzen und den 10 Titeln die man damit dann mit AA spielen darf.

Wieso ich? Mich freuts, wenn AMD User dann wieder ihre Meinung um 180° ändern. Jahrelang war etwas unnötig, bis es plötzlich ganz toll ist. Nichts neues im 3DCenter Land.
Ich habe das alles jetzt schon.


Und nochmal, ich lasse keine Ignoranz walten, ich sehe nur SGSSAA nicht als den heiligen Gral der BQ an.

Ach und was ist der "heilige Gral"? MLAA? Nicht wirklich. MSAA? Ja, für Nicht-High-End-Kunden.
SSAA und Downsampling ist der heilige Gral. Alles andere ist Ignoranz.

derimmerwiederüberraschte
2011-06-29, 14:03:47
Der Computerbase Test ist echt gut. Schade ist nur, dass bei Crysis II noch nicht in DX11 gebencht wurde.
Aber ansonsten eine gute Auswahl von Spielen und aktueller Grafikkarten.

Schaffe89
2011-06-29, 14:09:21
MLAA ist ein totaler performancefresser und versagt genau da, wo AA am aller wichtigsten ist: bei filigraner geometrie. dafür vermatscht es das bild. nein danke. wenn ich die wahl habe zwischen MLAA und keinem AA nehm ich kein AA.

Das ist schlicht Geschmackssache. Als das mit den AA-Bits noch in den Kinderschuhen war, wurde auch von Nvidiaseite argumentiert, dass SGSSAA unter directx11 mit dem Blur doch für manchen schön aussehe...

ahrelang war etwas unnötig, bis es plötzlich ganz toll ist. Nichts neues im 3DCenter Land.
Ich habe das alles jetzt schon.

Das Problem ist, dass du einem die Worte im Mund umdrehst.
Noch mal: Ich änder meine Meinung nicht und schon gar nicht, sage ich dass irgendetwas unnötig ist. Ich bemesse es lediglich nicht als den heiligen Gral, der alles entscheidet, so wie du es andauernd tust.
Es wäre schön, wenn AMD SGSSAA für alle APi´s anbietet, ich brauche es aber nicht zwingend und schon gar nicht interessiert mich das bessere AF, weil mir es im normalen Spielbetrieb keineswegs stört, wenn überhaupt irgendwann mal auffällt, ansonsten würde ich keine AMD-Karte kaufen.
Ende der Diskussion.

LovesuckZ
2011-06-29, 14:16:21
Das ist schlicht Geschmackssache. Als das mit den AA-Bits noch in den Kinderschuhen war, wurde auch von Nvidiaseite argumentiert, dass SGSSAA unter directx11 mit dem Blur doch für manchen schön aussehe...

Man sollte das normale Blur durch SSAA nicht mit Inkompartibilität gleichsetzen.


Das Problem ist, dass du einem die Worte im Mund umdrehst.
Noch mal: Ich änder meine Meinung nicht und schon gar nicht, sage ich dass irgendetwas unnötig ist. Ich bemesse es lediglich nicht als den heiligen Gral, der alles entscheidet, so wie du es andauernd tust.
Es wäre schön, wenn AMD SGSSAA für alle APi´s anbietet, ich brauche es aber nicht zwingend und schon gar nicht interessiert mich das bessere AF, weil mir es im normalen Spielbetrieb keineswegs stört, wenn überhaupt irgendwann mal auffällt, ansonsten würde ich keine AMD-Karte kaufen.
Ende der Diskussion.

Wieso schreibst du hier, wenn dir High-End Features egal sind. Würden wir hier über GTS450 und 5770 reden, dann gehe ich akkord. Für alles darüber sehe ich nur Ignoranz: Muss nicht, braucht nicht, will nicht.

derimmerwiederüberraschte
2011-06-29, 14:19:57
[...]
Würden wir hier über GTS450 und 5770 reden, dann gehe ich akkord.
[...]

Ich glaube es heisst d´accord. Akkord gibts bei manchen auf der Arbeit oder in der Musik.
Aber warum streitet ihr Euch so verbissen?
Ich spiele auf 4xAA + 16:1 AF und anisotrope Filterung auf hohe Qualität.
Das sieht schon ziemlich gut aus, wie ich finde.

Sir Unreal
2011-06-29, 14:44:57
Gibt es eigentlich irgendwo eine Auflistung der Länge der Grafikkarten? Ich habe keine Lust meinen Festplattenkäfig zu zersägen.

PCGH_Raffael
2011-06-29, 14:46:56
Gibt es eigentlich irgendwo eine Auflistung der Länge der Grafikkarten? Ich habe keine Lust meinen Festplattenkäfig zu zersägen.

Wir geben in unseren Tests und im Einkaufsführer in jedem Heft Länge und (Slot-)Breite an. :)

Raff schrieb mal was von einem Downsamplingschalter bei AMD, der kommen soll?

Dazu gibt es bislang nichts Neues. Aber wenn, dann wird das natürlich ausführlich behandelt.

MfG,
Raff

N0Thing
2011-06-29, 15:36:16
Das AMd´sche AF, wurde teils mithilfe von Differenzbildern (kleinen Hilfsmittelchen) in den Redaktionen schlechtgeredet, bis AMD (minimalst) nachgebessert hat, was zur Folge hatte dass die BQ insgesamt wieder an die von der HD5870 Serie heranreicht.

Wenn man mal nicht aus Sicht von AMD auf das Thema schaut, dann könnte man auch sagen, daß die Redakteure das Problem benannt und eine Verbesserung gefordert haben. ;)
Schlechtreden mußte man ja gar nichts, es hat gereicht die Tatsachen zu dokumentieren. Nur weil sich nicht jeder am schlechteren AF stört, heißt dies ja nicht, daß man den Mantel des Schweigens darüber ausbreiten sollte.

Deshalb finde ich die Kritik gut, genauso wie die Kritik damals bei Nvidia, denn als Kunde habe ich lieber die Wahl zwischen zwei perfekten AF, als die Wahl zwischen zweimal Flimmer-AF. :)

san.salvador
2011-06-29, 16:14:04
Für Fanboys ist das Dokumentieren von Schwächen schon Schlechtreden bzw. Bashen. Das 3Dc ist voll mit illustren Beispielen. :D

Labberlippe
2011-06-29, 17:27:27
Opfer Mr.Lolman. ;D
Wahrscheinlich hat Mr.Lolman 2006 auch nur seinen Namen für den Text hingegeben. Geschrieben wurde er von jemand anderem.



Wieso man sich nach AMD als "kleinsten Nenner" richten muss, wurde übrigens nicht erläutert.
Und natürlich existiert ein "großer BQ Unterschied", wenn Features wie Downsampling und SSAA eben nicht zur Verfügung stehen. Deutlich größer als der Unterschied beim AF. Und das kann man am Ende nichtmal mit Ignoranz wegnegieren.


Hi

Keiner muss sich nach irgendeinen Nenner richten.
Gerade in Zeiten wo sich LED Geräte durchgesetzt haben, die CDs quasi ausgestorben sind und durch lausige Mp3 Downloads ersetztet wurden, sollte man eher vorsichtig sein den grossen Trara zu machen, nur weil man seinen Lieblings IHV als den grossen Heilbringer auf den Thron stellen muss.

Die Unternehmen haben unterschiedliche sichtweisen, genauso wie die Kunden wo manchen AF und PhysX nicht gerade derart wichtig ist, das diese in Panik wegen eventuellen Augenkrebsschäden geraden.

Man kann es wenden und drehen wie man es will, so scheisse wie einige hier die BQ von AMD hinstellen ist diese nicht.
Unterschiedliche Firmen, unterschiedliche Strukturen.

Ansonsten kann jeder gerne zu einer nVIDIA Karte greifen oder je nach laune zu AMD und wenn es reicht zu Intel.

In jeder andere Branche gibt es genug Auswahl möglichkeiten was die Hersteller an Verarbeitungsqualität, Ausstattung und sonstigen Features
anbieten und man kann frei entscheiden was nimmt.

Das beste aber daran ist, das hier Artikelschreiber angegriffen werden, weil man deren Lieblings IHV nicht so hoch lobt das das eigene EGO vor dem kümmerlichen einsamen Bildschirm gestreichelt wird.

Kritik kann man geben, aber bei jeder Gelegenheit gleich Lolman angreifen ist gelinde gesagt unter aller Sau.

Das ist mit der Grund warum viele Member einfach keinen Bock mehr haben was zum posten.

Es kann nicht angehen das in jeden Thread immer über das gleiche gelabbert wird.

Ist aber nicht nur auf Dich bezogen LS sondern die AMD Fraktion schenkt sich auch nichts.


Gruss Labberlippe

LovesuckZ
2011-06-29, 17:42:56
Hi
Keiner muss sich nach irgendeinen Nenner richten.

Richtig. Aber dann bitte nicht High-End Features negieren. Der Masse reicht eben MSAA und LQ-AF. Das ist das Recht der Masse. Aber die Masse sollte dann nicht dort ihre Meinung kundtun, wo sie keinem interessiert.
Dieses Forum ist nicht Computerbase.de und Konsorten. Wer meint, dass High-End Features für High-End Karten unbedeuten sind, der ist ein Paradoxon hier. Und das sollten die Leute auch mal begreifen. Niemand stellt ihnen die Meinungsfreiheit in Frage. Aber ab einem bestimmten Punkt muss auch diese Gruppe akzeptieren, dass es andere Foren gibt, die ihren Interessen eher entsprechen.


Das beste aber daran ist, das hier Artikelschreiber angegriffen werden, weil man deren Lieblings IHV nicht so hoch lobt das das eigene EGO vor dem kümmerlichen einsamen Bildschirm gestreichelt wird.

Kritik kann man geben, aber bei jeder Gelegenheit gleich Lolman angreifen ist gelinde gesagt unter aller Sau.

Das ist mit der Grund warum viele Member einfach keinen Bock mehr haben was zum posten.

Gruss Labberlippe

1. Mr.Lolman ist selbst schuld. Niemand anderes hat den Artikel aus dem Jahr 2006 geschrieben. Vielleicht sollte man diesen Artikel mal lesen, bevor man meint, dass er "angegriffen" werde. Dann wird einem auffallen, dass Mr.Lolman Wasser predigt, aber Wein trinkt. Auf Vergleiche verweisen, wo ein Mr.Lolman die Tests durchgeführt hat, ist daher doch kaum brauchbar. Schon ironisch, dass man hier jetzt zur Zensur greift, wenn man dies sagt.

Labberlippe
2011-06-29, 17:48:17
Richtig. Aber dann bitte nicht High-End Features negieren. Der Masse reicht eben MSAA und LQ-AF. Das ist das Recht der Masse. Aber die Masse sollte dann nicht dort ihre Meinung kundtun, wo sie keinem interessiert.
Dieses Forum ist nicht Computerbase.de und Konsorten. Wer meint, dass High-End Features für High-End Karten unbedeuten sind, der ist ein Paradoxon hier. Und das sollten die Leute auch mal begreifen. Niemand stellt ihnen die Meinungsfreiheit in Frage. Aber ab einem bestimmten Punkt muss auch diese Gruppe akzeptieren, dass es andere Foren gibt, die ihren Interessen eher entsprechen.

Dieses Forum heist 3Dcenter und nicht perfektes AF, AA und PhysX Forum und wenn einige der Meinung sind das deren Meinung in diesen Bereich nicht gelten oder so wie Du sagst negiert werden, dann macht ein eigenes High End Forum oder von mir aus hier eine eigene Untergruppe auf.
( Gut, die Postingsanzahl wird dann halt niedriger sein. )

Die User können meiner Meinung nach selbst entscheiden, wo der schwerpunkt liegt, die Bälle werden von beiden Fraktionen hin und her geworfen.

Anderen User nahezulegen, das es andere Foren gibt, weil deren Meinung nicht passt ist eine Frechheit, angefangen hat diese Seite mit allen Bereich und nicht nur mit Highend BQ.



1. Mr.Lolman ist selbst schuld. Niemand anderes hat den Artikel aus dem Jahr 2006 geschrieben. Vielleicht sollte man diesen Artikel mal lesen, bevor man meint, dass er "angegriffen" werde. Dann wird einem auffallen, dass Mr.Lolman Wasser predigt, aber Wein trinkt. Auf Vergleiche verweisen, wo ein Mr.Lolman die Tests durchgeführt hat, ist daher doch kaum brauchbar. Schon ironisch, dass man hier jetzt zur Zensur greift, wenn man dies sagt.

Ich finde es nicht, gerade der letzte Artikel war pro AMD ausgerichtet wie Du es gerne hättest.
Statt aber wenigsten es zu versuchen zu würdigen welche Heidenarbeit so etwas ist, wird versucht Fehler zu finden und Ihn als Fanboy hinzustellen.

Zeit genug hast Du zum posten, dann hole Dir eine AMD Karte und kannst ja einen Artikel hier auch jederzeit reinstellen, wenn Du der Meinung bist das seine Artikel ja biased sind.

Gruss Labberlippe

LovesuckZ
2011-06-29, 18:12:33
Dieses Forum heist 3Dcenter und nicht perfektes AF, AA und PhysX Forum und wenn einige der Meinung sind das andere Meinung in diesen Bereich nicht gelten dann macht ein eigenes High End Forum oder von mir aus hier eine Untergruppe auf.

Dieses Forum befasste sich schon immer mit BQ-Maßnahmen. Und diese gingen immer einher mit High-End. Schau doch mal auf die Hauptseite, wieviele Artikel es über diese Feature gibt.
Manchmal ist es auch notwendig, dass man Intention und Geschichte eines Ortes kennt.

Ich finde es nicht, gerade der letzte Artikel war pro AMD ausgerichtet wie Du es gerne hättest.
Statt aber wenigsten es zu versuchen zu würdigen welche Heidenarbeit so etwas ist, wird versucht Fehler zu finden und Ihn als Fanboy hinzustellen.

Ich hätte die Arbeit gelobt, wenn man sich endlich mal dazu durchgerungen hätte, abseits der anderen zu schwimmen. Und wenn man selbst zu dem eigenen Geschriebenen gestanden hätte.

Trotzdem ist und bleibt es eine gezielte Verschlechterung der Darstellungsqualität, zugunsten der Framerate und zu Ungunsten der Vergleichbarkeit. Außerdem kauft sich niemand gerne eine 500-€-Grafikkarte, die in Vergleichstests bei (nach obenhin) angepasster Bildqualität plötzlich deutlich langsamer ist, als in allen anderen Tests, wo mit GeForce-Standardqualität gebencht wurde. Dementsprechend liegt es neben dem Qualitätsbewußtsein der PC-Spieler auch an uns Hardwaretestern, dass wir auf möglichst gute und vor allem vergleichbare Bildqualität achten.

Deswegen appellieren wir an dieser Stelle nochmals an unsere Kollegen, dass die Qualität ihrer Reviews nur gesteigert wird, wenn sie (zugegebenermaßen zeitintensive) Bildqualitätsvergleiche anstellen und deren Erkenntnisse in künftigen Hardwaretests mit verarbeiten.
http://alt.3dcenter.org/artikel/neue_filtertricks/

Und die Filterqualität von r6xx, rv7xx, Barts und Cayman steht der vom G7x nichts nach. Wie sich doch Ansichten innerhalb von einemm Jahr doch um 180° ändern können.

Black-Scorpion
2011-06-29, 18:24:47
Das Forum bzw. die Mods sollten sich vielleicht mal damit befassen das du jeden, aber auch jeden Thread zu deinem ganz privaten Feldzug missbrauchst und damit schrottest. Du hast schon so oft die Quittung dafür bekommen und nichts verstanden. Ausgerechnet du solltest dich damit zurückhalten über andere her zuziehen und denen vorzuwerfen sie seien nicht neutral. Du bist von Mitte so weit entfernt das du diese nur noch erahnen kannst.

Labberlippe
2011-06-29, 18:27:33
Dieses Forum befasste sich schon immer mit BQ-Maßnahmen. Und diese gingen immer einher mit High-End. Schau doch mal auf die Hauptseite, wieviele Artikel es über diese Feature gibt.
Manchmal ist es auch notwendig, dass man Intention und Geschichte eines Ortes kennt.


Mir brauchst Du die Geschichte und Intention hier nicht erklären, ich bin schon lange genug hier.
Dieses Forum befasst sich natürlich mit BQ Massnahmen und es gehört auch genauso dazu sich auch die anderen BQ Massnahmen anzusehen.
Es hat in den laufen der Jahren genug Wechsel alleine im AA Bereich geben und wird es wieder geben.
Usern aber vom Forum verweisen zu wollen, weil deren Anforderungen im BQ nicht mit Dir einhergehen und Du als BQ Fanatiker der Meinung bist das dies das alleinige Merkmal hier im Forum darstellt, ist keine Lösung.


Ich hätte die Arbeit gelobt, wenn man sich endlich mal dazu durchgerungen hätte, abseits der anderen zu schwimmen. Und wenn man selbst zu dem eigenen Geschriebenen gestanden hätte.

Du wolltest den letzten Artikel nicht mal verstehen worum es ging, sonst hätte er gleich bis zum Anschlag alles aufdrehen und die Werte präsentieren können.
Es ging auch darum mit maximaler BQ auch spielbare Settings zu erreichen.
In meine Augen ging der Artikel sogar sehr gegen den Mainstream.

Den Link kannst Dir schenken, der letzte Artikel war nicht so biased wie Du es gerne hättest.

So und jetzt ist EOD von mir, wir drehen uns hier ja sonst nur im Kreis.

Gruss Labberlippe

Tesseract
2011-06-29, 18:36:29
schluss jetzt mit den persönlichen feldzügen gegen andere user/autoren/etc.
damit bist in erster linie du gemeint, LZ.
das forum ist für jeden da, der zu einem der themen was sinnvolles beitragen will, sicher nicht nur für selbsternannte eliten. wenn euch was an den beiträgen nicht passt, bringt sachliche argumente oder spart euch die anfeindungen.

LovesuckZ
2011-06-29, 18:45:39
Mir brauchst Du die Geschichte und Intention hier nicht erklären, ich bin schon lange genug hier.
Dieses Forum befasst sich natürlich mit BQ Massnahmen und es gehört auch genauso dazu sich auch die anderen BQ Massnahmen anzusehen.
Es hat in den laufen der Jahren genug Wechsel alleine im AA Bereich geben und wird es wieder geben.
Usern aber vom Forum verweisen zu wollen, weil deren Anforderungen im BQ nicht mit Dir einhergehen und Du als BQ Fanatiker der Meinung bist das dies das alleinige Merkmal hier im Forum darstellt, ist keine Lösung.

Ich verweise niemanden. Im Gegensatz zu anderen in diesem Forum kann aus meiner Sicht hier jeder seine Meinung haben. Was ich klar sage ist: Wenn man keinen Wert auf BQ legt, dann sollte man sich aus Diskussionen um High-End Grafikkarten raushalten. Das ist eigentlich ganz simpel. Denn niemand in diesem Forum empfiehlt eine Mid-Range Karte ala 5770/GTS550 über die andere auf Basis von Downampling und SSAA. Wenn es aber um High-End geht, kommen komplett andere Features zum Tragen. Und genau jene werden auf ein Minimum negiert, bis AMD und nVidia plötzlich auf gleich Höhe stehen. Und das ist das absurde.

Labberlippe
2011-06-29, 18:56:34
Ich verweise niemanden. Im Gegensatz zu anderen in diesem Forum kann aus meiner Sicht hier jeder seine Meinung haben. Was ich klar sage ist: Wenn man keinen Wert auf BQ legt, dann sollte man sich aus Diskussionen um High-End Grafikkarten raushalten. Das ist eigentlich ganz simpel. Denn niemand in diesem Forum empfiehlt eine Mid-Range Karte ala 5770/GTS550 über die andere auf Basis von Downampling und SSAA. Wenn es aber um High-End geht, kommen komplett andere Features zum Tragen. Und genau jene werden auf ein Minimum negiert, bis AMD und nVidia plötzlich auf gleich Höhe stehen. Und das ist das absurde.


Hi

Nochmal, es sind unterschiedliche Ansätze die beide Hersteller verfolgen und was Du unbedingt als HighEnd für alle Hersteller festlegen willst ist hier irrelevant, geschweige den festzulegen welcher User seine Meinung Kundtun darf.

Gruss Labberlippe

Gipsel
2011-06-29, 19:09:06
Der nächste mit einem OT-Posting darf pausieren! Das ist hier die letzte Warnung.

Peter Gräber
2011-07-02, 09:34:23
Wurde eigentlich schon angesprochen, dass drei AMD-Karten in Dragon Age 2 drosseln?

Hast du mal einen Link, wo man sich diesbezüglich belesen kann?

boxleitnerb
2011-07-02, 10:48:04
Hier stand das im Test:
http://www.computerbase.de/artikel/grafikkarten/2011/test-19-grafikkarten/8/#abschnitt_leistungsaufnahme

Was da genau passiert ist, wäre interessant zu wissen.

Kosh
2011-07-02, 13:33:26
Die 5870 ist ja leider nicht dabei,gibt eine andere Karte die vergleichbar ist,oder muss ich die 5850 + zB 10% nehmen?

derguru
2011-07-02, 14:20:27
Die 5870 ist ja leider nicht dabei,gibt eine andere Karte die vergleichbar ist,oder muss ich die 5850 + zB 10% nehmen?

+- 6950 1gb sollte hinhauen.

Oberst
2011-07-03, 00:26:07
Hallo,
Ich spiele des öfteren mit SSAA oder Donwsampling (z.B. in ArmA2 mit 3840x2400 auf 1920x1200 gestutzt), unter 8x MSAA gehe ich eigentlich nie, und das auf AMD Hardware...Es gibt durchaus auch AMD User, die etwas höhere Einstellungen nutzen. Texturflimmern hatte ich bei meinen Spielen bisher kein auffälliges, was aber auch an meiner Spiele Auswahl liegen kann.

Zusätzliches neben fehlendes Downsampling, HQ AF, SSAA in OpenGL...
Was genau passiert eigentlich, wenn man bei AMD SSAA einstellt und eine OGL Anwendung startet? Gibt's dann gar keine Glättung?

Da es einigen ja so um die Bildqualität geht, sollte man anmerken, dass unter 8x MSAA meist die AMD Karten in der Leistung die Nase vorne haben, unter 4x hingegen die NVidia. Das ist auch schon länger so. Mit Fermi konnte NV unter 8x etwas aufschließen, während AMD mit Cayman unter 4x ihre Schwäche etwas ausbügeln konnten, aber nach wie vor ist AMD unter 8x üblicherweise Sieger, NV unter 4x. Da 4x MSAA des öfteren nicht wirklich toll aussieht und einen BQ Junkie sicher nicht befriedigen kann, hat AMD hier evtl. einen kleinen Vorteil. Wer also im AF Bereich unproblematische Spiele hat, der ist evtl. mit AMD besser bedient.

Was mir aber gar nicht gefällt, ist die Behauptung, AMD liefert generell die schlechtere BQ. Wenn ich mir hier (http://www.3dcenter.org/artikel/sapphire-radeon-hd-6970-vs-palit-geforce-gtx-570/benchmarks-armed-assault-2) die Screenshots ansehe, dann ist das SSAA von NVidia da viel zu unscharf. Wenn ich dann so was lese
MLAA ist keine Alternative zu Downsampling. Spiele ich ohne Brille/kontaktlinsen, habe ich auch MLAA...
Ach und was ist der "heilige Gral"? MLAA? Nicht wirklich. MSAA? Ja, für Nicht-High-End-Kunden.
SSAA und Downsampling ist der heilige Gral. Alles andere ist Ignoranz. dann könnte ich das "ohne Brille" auch auf das SSAA von NV beziehen...daher ist das auch nicht der heilige Gral, zumindest in meinen Augen nicht. Denn der Screen sieht auch aus, als hätte ich eine falsch Brille auf.

Was ich auch komisch finde, ist dass PowerTune bei DA2 drosseln soll, und trotzdem brauchen die AMD Karten auf einmal merklich mehr als die NVidia Konkurrenzmodelle. Im Fall der GTX560TI und der HD6950(1GB), die unter BF:BC2 den selben Verbrauch haben (in Crysis2 ist die AMD sogar 13W sparsamer), macht das in DA2 schon 45W aus. Da wird dann über AMD hergezogen und niemand wundert sich darüber, dass die Karten trotzdem noch teils deutlich vor den NVidia Konkurrenten liegen. In 1680x1050 (ohne AA/AF), in dem die HD6950(1GB) offensichtlich drosselt (weil sie hinter der 2GB Variante liegt, die angeblich nicht drosselt und eigentlich langsamer sein müsste), ist die Karte trotzdem um 31% (!) vor der GTX560TI. Wenn die Leistung der AMD Karte schon gedrosselt ist, dann müsste die GTX560TI ja noch viel mehr gedrosselt sein, damit sie so weit hinterher hinkt. Jedenfalls deuten die Messwerte schwer in diese Richtung. Nur weil man es an den Taktraten nicht sieht, muss das ja nicht heißen, dass die Karte nicht ein paar Takte aus lässt um nicht zu überhitzen (das kann man auch so machen, dass es für den User am Takt nicht sichtbar ist). Das hätte man eigentlich noch anmerken müssen, dass hier bei NV eventuell auch eine Drosselung stattfindet. Nicht nur, dass die NVidia Karten da auf einmal überraschend sparsam sind.
M.f.G.

Angiesan
2011-07-04, 15:25:08
Was ich auch komisch finde, ist dass PowerTune bei DA2 drosseln soll, und trotzdem brauchen die AMD Karten auf einmal merklich mehr als die NVidia Konkurrenzmodelle. Im Fall der GTX560TI und der HD6950(1GB), die unter BF:BC2 den selben Verbrauch haben (in Crysis2 ist die AMD sogar 13W sparsamer), macht das in DA2 schon 45W aus. Da wird dann über AMD hergezogen und niemand wundert sich darüber, dass die Karten trotzdem noch teils deutlich vor den NVidia Konkurrenten liegen. In 1680x1050 (ohne AA/AF), in dem die HD6950(1GB) offensichtlich drosselt (weil sie hinter der 2GB Variante liegt, die angeblich nicht drosselt und eigentlich langsamer sein müsste), ist die Karte trotzdem um 31% (!) vor der GTX560TI. Wenn die Leistung der AMD Karte schon gedrosselt ist, dann müsste die GTX560TI ja noch viel mehr gedrosselt sein, damit sie so weit hinterher hinkt. Jedenfalls deuten die Messwerte schwer in diese Richtung. Nur weil man es an den Taktraten nicht sieht, muss das ja nicht heißen, dass die Karte nicht ein paar Takte aus lässt um nicht zu überhitzen (das kann man auch so machen, dass es für den User am Takt nicht sichtbar ist). Das hätte man eigentlich noch anmerken müssen, dass hier bei NV eventuell auch eine Drosselung stattfindet. Nicht nur, dass die NVidia Karten da auf einmal überraschend sparsam sind.
M.f.G.

Das würde auch erklären, warum relativ viel GTX 580 User bei Crysis II auf einmal über Slowdowns klagen die ich mit meiner GTX 480 nicht feststellen kann.
Die GTX 580 ist normalerweise schon ein gutes Stück flotter wie die GTX 480 auch wenn meine leicht übertaktet ist (756/1512/1900).

Tesseract
2011-07-04, 16:32:21
Was mir aber gar nicht gefällt, ist die Behauptung, AMD liefert generell die schlechtere BQ. Wenn ich mir hier (http://www.3dcenter.org/artikel/sapphire-radeon-hd-6970-vs-palit-geforce-gtx-570/benchmarks-armed-assault-2) die Screenshots ansehe, dann ist das SSAA von NVidia da viel zu unscharf.

da sind falsche bzw. keine AA-bits eingestellt. das ist nicht normal.

Raff
2011-07-04, 16:33:34
So ist das aber nun mal. Vergleicht man das SGSSAA ohne Bit-Gefrickel bei Nvidia, ist das oft unscharf, während Radeöner es machen schöner. ;)

MfG,
Raff

Tesseract
2011-07-04, 16:39:11
So ist das aber nun mal. Vergleicht man das SGSSAA ohne Bit-Gefrickel bei Nvidia, ist das oft unscharf, während Radeöner es machen schöner. ;)
das ist in etwa so sinnvoll wie ein automatikgetriebe mit einem schaltgetriebe zu vergleichen, da aber nur im ersten gang zu fahren und dann zu behaupten automatik ist viel schneller.
wie bequem die einstellungen sind hat nix mit der funktionsweise des AA zu tun. aber ja, einfacher zum einstellen ist es auf jeden fall in den meisten fällen.

kmf
2011-07-04, 16:52:23
So ist das aber nun mal. Vergleicht man das SGSSAA ohne Bit-Gefrickel bei Nvidia, ist das oft unscharf, während Radeöner es machen schöner. ;)

MfG,
RaffIch liebe das Bit-Gefrickel für SGSSAA bei Nvidia, genauso wie das Anpassen des LODs bis es mir passt. Stell dir mal vor, man müsste das einfach nur noch in der Checkbox per Mausklick aktivieren ... - l a a a n g w e i l i g ! ;(

N0Thing
2011-07-04, 18:45:52
Bei einem Test muß man irgendwo auch eine Grenze ziehen. Nvidia bietet SSAA über den Treiber nicht offiziell an und wenn man neben dem SSAA-Tool auch noch an den AA-Bits Einstellungen vornehmen muß, damit man ein scharfes Bild bekommt...

y33H@
2011-07-04, 19:03:23
Wenn man schon eine inoffizielle Lösung nutzt, dann bitte ganz oder gar nicht. Aber kein halbgares Gefummel.

dildo4u
2011-07-04, 19:32:28
@y33H@ Ich hab das neue Heft schon,war sicherlich wieder massig Arbeit mit dem neuen Bench Parcour.Ihr ändert aber jetzt nichts mehr oder wärs zu aufwändig Warhead mit Crysis 2 DX11 zu ersetzen?

y33H@
2011-07-04, 19:37:21
Ich war in diesem Fall bedingt durch Llano nicht involviert. Musst du Raff fragen, ob wir umsteigen - wäre dafür =)

PCGH_Raffael
2011-07-04, 19:48:00
Wir haben ja bereits im Text erwähnt, dass wir darüber debattieren werden. Nun wäre der Zeitpunkt. Da wir aber eben erst refreshed haben, werden wir es nicht sofort wieder tun. Mal sehen, was an dem Spiel noch geflext wird. Warhead ist nach wie vor ein klasse (fordernder) Benchmark, welcher auch noch DX10-Vergleichswerte ermöglicht. Wir haben im neuen Parcours schon sehr viel DX11. Genaueres kann ich an dieser Stelle zu diesem Moment nicht sagen.

MfG,
Raff

N0Thing
2011-07-04, 22:32:19
Wenn man schon eine inoffizielle Lösung nutzt, dann bitte ganz oder gar nicht. Aber kein halbgares Gefummel.

Sucht ihr für eure SGSSAA-Tests die passenden AA-Bits aus den Foren raus, um sie in Benchmarks zu verwenden?

y33H@
2011-07-04, 22:54:30
Ich für meinen Teil schon, inklusive LOD-Anpassung. Raff meines Wissens ebenfalls und Carsten auch. idR sind bei neuen Titel sehr schnell die passenden Bits vorhanden.

=Floi=
2011-07-04, 22:55:18
dank blaire!

N0Thing
2011-07-04, 23:49:32
Ich für meinen Teil schon, inklusive LOD-Anpassung. Raff meines Wissens ebenfalls und Carsten auch. idR sind bei neuen Titel sehr schnell die passenden Bits vorhanden.

Und für die optimale Performace bei einem Crossfire-Setup sucht ihr auch nach den besten bekannten EXE-Renaming-Möglichkeiten für eure Benchmarks?

y33H@
2011-07-05, 00:07:23
CF ist ein offizielles Feature, NVs SGSSAA nicht - der Vergleich zieht nicht.

Davon ab habe ich seit Monaten kein CF mehr angerührt außer das vom mobilen Llano.

N0Thing
2011-07-05, 00:51:21
CF ist ein offizielles Feature, NVs SGSSAA nicht - der Vergleich zieht nicht.

Davon ab habe ich seit Monaten kein CF mehr angerührt außer das vom mobilen Llano.


Also sucht ihr für ein inoffizielles Feature der Firma A Foren ab, um die optimale Performance und Bildqualität zu erreichen um es gegen ein offizielles Feature der Konkurrenz B zu benchen, wofür es es keine Optimierungsmöglichkeiten gibt, aber für ein offizielles Feature der Firma B macht ihr euch keine Mühe, obwohl es Optimierungsmöglichkeiten gibt, weil dies eben offiziell ist?

Ich möchte euch da gar nichts unterstellen, ich möchte nur wissen, in wie weit manche Benchmarks von euch in Zukunft noch von Wert für mich sind.

mapel110
2011-07-05, 00:57:19
Für SLI und nvidias SGSSAA finden sich auch leichter Infos im Web. Bei CF scheints die User selbst nicht großartig zu jucken, ob es greift oder nicht. Das überträgt sich denke ich auch auf Redakteure.

Schaffe89
2011-07-05, 01:51:01
CF ist ein offizielles Feature, NVs SGSSAA nicht - der Vergleich zieht nicht.



Natürlich zieht der Vergleich in einer bestimmten Art und Weise. Nur weil man bei Nvidia nichs offiziell einstellen kann, muss man das nicht bis aufs Zahnfleisch verbessern. AMD ist auch mal an der Reihe, da geht bestimmt auch irgendwas mit Manpower zu tweaken.Laut meines Wissens gibt es einige Menschen hier im Internet, die meinen SGSSAA funktioniere auch mit einem speziellen Tool auf Radeon Karten, welches aber nicht mehr aktualisiert wird, unter directx10/11.

Wie steht es denn damit?

Also sucht ihr für ein inoffizielles Feature der Firma A Foren ab, um die optimale Performance und Bildqualität zu erreichen um es gegen ein offizielles Feature der Konkurrenz B zu benchen, wofür es es keine Optimierungsmöglichkeiten gibt, aber für ein offizielles Feature der Firma B macht ihr euch keine Mühe, obwohl es Optimierungsmöglichkeiten gibt, weil dies eben offiziell ist

Relativ sinniger Einwand. Nur scheint bei AMD wahrscheinlich nicht viel "inoffiziell" zu funktionieren, oder etwa doch?

N0Thing
2011-07-05, 02:00:23
Bei Crossfire kann es durch das Umbenennen der EXE-Datei zu einer besseren (oder auch überhaupt einer) Skalierung kommen.

Soweit ich weiß hat sich aber nie einer die Mühe gemacht, dies auch bei einer Benchmarkreihe durchzuführen. Was durchaus verständlich ist, immerhin ist es zusätzlicher Aufwand und keiner kann garantieren, daß über das ganze Spiel keine Probleme/Bildfehler und der gleichen auftreten.
Daß man sich aber bei Nvidias SGSSAA genau diese Mühe macht und vom Treiber abweichende AA-Bits verwendet, hätte ich nicht erwartet und habe da bisher auch noch nie einen Kommentar dazu bei einem Benchmark bemerkt.

derguru
2011-07-05, 02:05:34
Für SLI und nvidias SGSSAA finden sich auch leichter Infos im Web. Bei CF scheints die User selbst nicht großartig zu jucken, ob es greift oder nicht.
bei cf braucht man nicht erst ins web um es ans laufen zu kriegen,es reichen die paar standard exe-umbenennungen und gut ist und ehrlich gesagt brauchte ich das schon lange nicht mehr weil die cap-profile ruck zuck da sind falls mal es nicht auf anhieb funzt was selten genug ist.
für sgssaa braucht man auch keine infos ,gibts msaa geht sgssaa unter dx9.

Soweit ich weiß, hat sie aber nie einer die Mühe gemacht, dies auch bei einer Benchmarkreihe durchzuführen. Was durchaus verständlich ist, immerhin ist es zusätzlicher Aufwand und keiner kann garantieren, daß über das ganze Spiel keine Probleme/Bildfehler und der gleichen auftreten.
kann auch keiner bei angewendeten aa/sli bits garantieren.

Blaire
2011-07-05, 02:42:37
Hmm ist ein schwieriges Thema, man könnte genauso gut argumentieren das sich die AA Qualität bei den offiziellen AA Bits ebenso unterscheidet und dies auch nicht immer vergleichbar ist. Nvidia ist hier sogar öfter im Nachteil durch den Blur, der bei einigen Games enorm viel Performance kosten kann. Was man dann also vermittelt bekäme, wäre ein ebenso falsches Leistungsbild. Was kann man also tun? Man kann versuchen sich der Bildqualität anzunähern oder es ganz bleiben lassen. Was wäre wohl besser? Ich denke das sollte der jeweilige Redakteur selber entscheiden können, was vergleichbar ist und was nicht.
Bei AMD CF zwecks Exe Renaming beisst sich schon deshalb, da zum Einen AA-Bits Kompatibilität und Crossfire Skalierung in der EXE harmonieren müssen, sonst funktioniert immer nur eines allein und das ist keine Option.

boxleitnerb
2011-07-05, 06:37:37
Weiterhin sind die AA/SLI-Bits schon mehr oder weniger durchgetestet, da gibts keine Überraschungen. y33H@ probiert ja nicht selbst da rum, sondern greift auf "fertige" Bits der Community zu.

Allerdings sollte man das in einem Test absolut erwähnen, sonst findet eine Verfälschung statt!

PCGH_Raffael
2011-07-05, 09:21:48
Bei Crossfire kann es durch das Umbenennen der EXE-Datei zu einer besseren (oder auch überhaupt einer) Skalierung kommen.

Soweit ich weiß hat sich aber nie einer die Mühe gemacht, dies auch bei einer Benchmarkreihe durchzuführen. Was durchaus verständlich ist, immerhin ist es zusätzlicher Aufwand und keiner kann garantieren, daß über das ganze Spiel keine Probleme/Bildfehler und der gleichen auftreten.
Daß man sich aber bei Nvidias SGSSAA genau diese Mühe macht und vom Treiber abweichende AA-Bits verwendet, hätte ich nicht erwartet und habe da bisher auch noch nie einen Kommentar dazu bei einem Benchmark bemerkt.

Bei den vergangenen GPU-Benchmarks (Launch-Tests, Aktualisierung des Parcours) haben wir nicht an den AA-Bits gespielt, sondern die Leistung "out of the driver" genommen. Dasselbe gilt für Multi-GPU. Bit-Gefrickel betreiben wir bei Praxisartikeln zu GPUs oder eben Spiele-Reviews, in denen es im die Leistung und Bildqualität geht. Ständig die AA-Bits umzukopieren, wäre viel zu fehleranfällig.

MfG,
Raff

V2.0
2011-07-05, 09:27:29
Bei Crossfire kann es durch das Umbenennen der EXE-Datei zu einer besseren (oder auch überhaupt einer) Skalierung kommen.

Soweit ich weiß hat sich aber nie einer die Mühe gemacht, dies auch bei einer Benchmarkreihe durchzuführen. Was durchaus verständlich ist, immerhin ist es zusätzlicher Aufwand und keiner kann garantieren, daß über das ganze Spiel keine Probleme/Bildfehler und der gleichen auftreten.
Daß man sich aber bei Nvidias SGSSAA genau diese Mühe macht und vom Treiber abweichende AA-Bits verwendet, hätte ich nicht erwartet und habe da bisher auch noch nie einen Kommentar dazu bei einem Benchmark bemerkt.
Man sollte testen was der Treiber ohne Hilfe bringt. Egal bei welchem IHV.

N0Thing
2011-07-05, 09:33:19
Bei den vergangenen GPU-Benchmarks (Launch-Tests, Aktualisierung des Parcours) haben wir nicht an den AA-Bits gespielt, sondern die Leistung "out of the driver" genommen. Dasselbe gilt für Multi-GPU. Bit-Gefrickel betreiben wir bei Praxisartikeln zu GPUs oder eben Spiele-Reviews, in denen es im die Leistung und Bildqualität geht. Ständig die AA-Bits umzukopieren, wäre viel zu fehleranfällig.

MfG,
Raff

Alles klar. Der Kommentar von y33H@ ließ etwas anderes vermuten, danke für die Klarstellung. :)

y33H@
2011-07-05, 09:53:38
Bit-Gefrickel betreiben wir bei Praxisartikeln zu GPUs oder eben Spiele-Reviews, in denen es im die Leistung und Bildqualität geht.Darauf bezog ich mich eigentlich. Standard-Benches ist "ootd".

Schaffe89
2011-07-05, 10:24:57
Ist es bezüglich was die Performance anbelangt, denn egal ob mit korrektem LOD oder nicht gebencht wird?

PCGH_Raffael
2011-07-05, 10:39:24
Wir haben neuerdings ein Spiel im Parcours, das wir mit 4x SGSSAA benchen: Mass Effect 2. Und da passen wir das Texture LOD bei Nvidia an, um zumindest auf dem Papier gleiche Bedingungen zu schaffen (-1,0 für 4x SGSS). Der Verlust dadurch liegt im Promillebereich, eigentlich nicht nachweisbar. Das war in vergangenen Tests mit anderen Spielen ähnlich. Wobei das Negativ-Setting über mehrere Läufe im Mittel minimalstens langsamer ist (<= 1 Prozent). Das ist bei Voodoo-Grafikkarten noch ganz anders, da kostet ein negatives LOD wahnsinnig viel. ;)

MfG,
Raff

fondness
2011-07-05, 10:51:16
CF ist ein offizielles Feature, NVs SGSSAA nicht - der Vergleich zieht nicht.


Das ist NVs-Problem. Das auch noch zu belohnen indem man ihnen die Arbeit abnimmt ist schon ziemlich grotesk.

Man sollte testen was der Treiber ohne Hilfe bringt. Egal bei welchem IHV.

Sehe ich auch so.

LovesuckZ
2011-07-05, 11:15:20
Man sollte testen was der Treiber ohne Hilfe bringt. Egal bei welchem IHV.

NVAPI, offene Profile + Profileditor, individuelle AA-Bits sind alles offizielle Features, die vom Treiber angeboten werden.

boxleitnerb
2011-07-05, 11:32:04
Sei aber so fair und gebe zu, dass die Möglichkeit, Profile und Bits zu ändern, zwar offiziell unterstützt wird, das Finden von vorteilhafteren Bits aber die Arbeit von anderen ist und insofern mit Nvidia gar nichts zu tun hat.
Oder meinst du, Blaire kriegt Geld von Nvidia dafür?

Die Zielgruppe vom Benchmarks ist an die Allgemeinheit gerichtet, die Bit-Frickelei (so schön sie auch sein mag) an die Bastler unter uns. Dass das prozentual nur sehr wenige sind, brauch ich dir sicherlich nicht zu erzählen.

Mal wieder ein schöner Autovergleich:
Autos werden auch ungetuned getestet, oder denkst du da kriechen die Redakteure von den Zeitschriften erstmal in den Motor und versuchen nach irgendwelchen Anleitungen aus dem Internet mehr PS rauszuholen? ;D

MadManniMan
2011-07-05, 11:33:24
Damit betritt man eine Grauzone, in der es schwer wird, eindeutig "gut" und "böse" zu trennen.

Ich habe z.B. keine Probleme damit, vor dem eigentlichen Spielen ein paar Stunden lang heraus zu finden, wie ich mein 3D Vision vernünftig zum Laufen bekomme (was für mich DER Grund für meine 460 war), aber auch nur 10 Minuten irgendwelche Bits heraus zu bekommen, um Frickel-AA zu erhalten, ist mir schon zuviel.

Was ist dann erst mit all den Nicht-Graka-Nerds? Ich kenne in meiner Steam-Zock-Gemeinde KEINEN, der außerhalb der Ingamemenüs irgendwelche Einstellungen vornimmt.

Meines Erachtens reicht es nicht, Dinge IRGENDWIE zur Verfügung zu stellen (und auf die Userschaft ABZUWÄLZEN, was zwar irgendwie nerdig und cool ist, tatsächlich aber unbezahlt Arbyte!), sondern es obliegt den Herstellern durchaus, sich um eine brauchbare Anwendbarkeit der Features zu kümmern.

LovesuckZ
2011-07-05, 11:40:13
Sei aber so fair und gebe zu, dass die Möglichkeit, Profile und Bits zu ändern, zwar offiziell unterstützt wird, das Finden von vorteilhafteren Bits aber die Arbeit von anderen ist und insofern mit Nvidia gar nichts zu tun hat.
Oder meinst du, Blaire kriegt Geld von Nvidia dafür?

Das nennt man PC. Die Offenheit gehört dazu. Wem das stört, der kann gerne zu AMD gehen. nVidia bietet die Möglichkeit an - genauso auch mit Downsampling.


Die Zielgruppe vom Benchmarks ist an die Allgemeinheit gerichtet, die Bit-Frickelei (so schön sie auch sein mag) an die Bastler unter uns. Dass das prozentual nur sehr wenige sind, brauch ich dir sicherlich nicht zu erzählen.

Diese Zielgruppe interessiert sich nicht für SSAA. Sie interessiert sich nichtmal für HQ-AF. Sobald sie den Leistungseinbruch bemerken, wird SSAA verteufelt.

Tesseract
2011-07-05, 12:21:19
Was ist dann erst mit all den Nicht-Graka-Nerds? Ich kenne in meiner Steam-Zock-Gemeinde KEINEN, der außerhalb der Ingamemenüs irgendwelche Einstellungen vornimmt.

was soll mit denen sein? die spielen auch mit einer AMD-karte nicht mit SSAA und oft nicht mal mit ingame-AA falls es dieses gibt.

G 80
2011-07-05, 12:33:28
Kann man das Drama noch abbrechen oder hat der Flame-ing Rock schon zuviel Schwung? Lest einfach mal was die Leute direkt oben geschrieben haben.

PCGH testen in Benchmarks out of the Box Driver.



Und bei den Gelegenheiten, bei denen es darum geht zu zeigen was optisch möglich wäre, wird gebastelt.

Also wo genau ist jetzt das Problem?



Ich bringe auch noch einen dummen Autovergleich, damit es dann gut ist:

Ersteres ist ein faires reglementiertes Rennen und zweiteres eine Veranstaltung in einem ausgetrockneten Salzsee irgendwo in der Einöde N-Amerikas.

boxleitnerb
2011-07-05, 12:43:11
Das nennt man PC. Die Offenheit gehört dazu. Wem das stört, der kann gerne zu AMD gehen. nVidia bietet die Möglichkeit an - genauso auch mit Downsampling.

Diese Zielgruppe interessiert sich nicht für SSAA. Sie interessiert sich nichtmal für HQ-AF. Sobald sie den Leistungseinbruch bemerken, wird SSAA verteufelt.

Es geht nicht darum, ob es jemanden stört, es geht darum, Tests zu machen, die die Zielgruppe nachvollziehen kann. Und da die Zielgruppe mit den Spieleinstellungen oder simplen Optionen im Treiber zufrieden ist, sollte auch so getestet werden, fertig. Weiß gar nicht, was es da zu diskutieren gibt.

Man kann ja gerne weiterführende Tests machen, so wie die CB-SSAA-Tests. Für die wäre es dann auch nicht verkehrt, für die zwei, drei Spiele die Bits wenigstens einmal durchzuprobieren bzgl. Performance und Glättung oder halt hier im AA-Bit-Thread kurz vorbeizusurfen - sofern man dazuschreibt, was man warum macht.

LovesuckZ
2011-07-05, 12:50:16
Es geht nicht darum, ob es jemanden stört, es geht darum, Tests zu machen, die die Zielgruppe nachvollziehen kann. Und da die Zielgruppe mit den Spieleinstellungen oder simplen Optionen im Treiber zufrieden ist, sollte auch so getestet werden, fertig. Weiß gar nicht, was es da zu diskutieren gibt.

Aber SSAA gehört nunmal nicht dazu. Denn wenn schon HQ-AF ignoriert wird, dann sollte man nichtmal ein Gedanken daran verwenden, SSAA zu aktivieren.


Man kann ja gerne weiterführende Tests machen, so wie die CB-SSAA-Tests. Für die wäre es dann auch nicht verkehrt, für die zwei, drei Spiele die Bits wenigstens einmal durchzuprobieren bzgl. Performance und Glättung oder halt hier im AA-Bit-Thread kurz vorbeizusurfen - sofern man dazuschreibt, was man warum macht.

Darum geht es doch garnicht. Hier wurde geschrieben, dass man nur "offizielle" Features verwenden sollten. Und ich habe aufgezählt, dass alles offiziel ist. NVAPI ist sogar sehr gut dokumentiert.

Raff
2011-07-05, 12:51:40
Du brauchst für die AA- oder SLI-Bits, angeblich offiziell, aber inoffizielle Tools. Sonst ist da nicht gut zu Frickeln. Und nun?

Downsampling ist bei Nvidia auch alles anderes als offiziell. Wenn man sich so anhört, was Nvidia zu dem Thema raushaut, klingt die Funktion über die Custom Resolutions eher nach einem superglücklichen Zufall, den sie immerhin nicht wegprogrammieren.

MfG,
Raff

LovesuckZ
2011-07-05, 12:54:27
Du brauchst für die AA- oder SLI-Bits, angeblich offiziell, aber inoffizielle Tools. Sonst ist da nicht gut zu Frickeln. Und nun?

MfG,
Raff

Du kannst mit offiziellen Tools die AA- und Sli-Bits übertragen. Oder du schreibst dir deine eigene Maske für den Ablauf. Oder du nimmst eine vorhandene Maske von einer Person aus dem Internet.

Alles realisiert über offizielle Features des Treibers.

Klingone mit Klampfe
2011-07-05, 12:57:01
LovesuckZ Kommentare eignen sich hervorragend für Trinkspiele, nur so nebenbei.

boxleitnerb
2011-07-05, 13:09:33
Lol, der war gut.

Nein, es ist nicht offiziell. Offiziell ist das, was im Treiber mitgeliefert und auch unterstützt wird. Die NVAPI bereitzustellen und zu sagen "macht mal" ist kein Support. Wie Lars Weinand richtig gesagt hat, ist alles, was offiziell ist, auch den Partnern (Systembuilder, OEMs, Grafikkartenherstellern etc.) kundzutun und muss entsprechend gepflegt werden.

Worüber diskutieren wir eigentlich?
"Normale" Benchmarks -> das, was der Treiber hergibt
"Gepimpte" Artikel -> es darf gebastelt werden

Alles andere ist Fanboygequatsche und Humbug. Man kann in besagten "normalen" Benchmarks am Rande erwähnen, was noch möglich ist, aber dann die Ergebnisse mit Bits und Co zu frisieren ist ein klares No-go, egal auf welcher Seite.

LovesuckZ
2011-07-05, 13:18:31
NVAPI ist offiziell (http://developer.nvidia.com/nvapi). Offizieller geht überhaupt nicht mehr. Oder denkt hier jemand, dass die Leute den Treiber auseinander nehmen und per Blindflug alle Funktionieren ausprobieren?

Das Bereitstellen einer Schnittstelle ist der normale Weg. Du erwartest hoffentlich nicht, dass nVidia, AMD oder auch Intel jede Software selbst programmiert? Oder ist Dekodierung Encodierung über Cuda nicht offiziell, weil nVidia keine Anwendung bereitstellt? Ist Transcoding von Intel nicht offiziell, weil sie keine Anwendung zur Verfügung stellen? Irgendwie sollte man sich erstmal dem Begriff "offiziell" bewusst sein. Der Profil-Extrahierer ist genauso offiziell.

MadManniMan
2011-07-05, 13:22:23
was soll mit denen sein? die spielen auch mit einer AMD-karte nicht mit SSAA und oft nicht mal mit ingame-AA falls es dieses gibt.

Haha, guter Einwand ;-) Aber nein, die Ingamemenüs werden dann sehr wohl benutzt.

Ich möchte einfach nur zu bedenken geben, dass über den Normzustand hinaus gehende Settings (Dritttools, Gegistrygefrickel) allesamt mehr oder minder gleichberechtigt bewertet werden sollten.

Ich habe sehr genossen, dass ich STALKER: Call of Pripyat mit Oversampling spielen konnte, aber ich wäre beim Applizieren beinahe wahnsinnig geworden.

Man sollte sich den "Normalzustand" vor Augen halten: ich behaupte, das ist ein halbwegs aktueller Treiber - und sonst nichts. Alles darüber hinaus sollte - so sehr es auch zum guten alten PC-ler-Tum gehört - mit Blick darauf bewertet werden, dass es Zusatzaufwand bedeutet. Unter diesem Gesichtspunkt darf dann gern noch abgestuft werden, aber da sollte dann keine Kaufentscheidung mehr empfohlen werden, weil manche Einstellungen ein bisschen Gefrickel, andere mehr Gefrickel bedeuten - das kann sich beim nächsten Spiel schon wieder ändern.

boxleitnerb
2011-07-05, 13:45:40
NVAPI ist offiziell (http://developer.nvidia.com/nvapi). Offizieller geht überhaupt nicht mehr. Oder denkt hier jemand, dass die Leute den Treiber auseinander nehmen und per Blindflug alle Funktionieren ausprobieren?

Das Bereitstellen einer Schnittstelle ist der normale Weg. Du erwartest hoffentlich nicht, dass nVidia, AMD oder auch Intel jede Software selbst programmiert? Oder ist Dekodierung über Cuda nicht offiziell, weil nVidia keine Anwendung bereitstellt? Ist Transcoding von Intel nicht offiziell, weil sie keine Anwendung zur Verfügung stellen? Irgendwie sollte man sich erstmal dem Begriff "offiziell" bewusst sein. Der Profil-Extrahierer ist genauso offiziell.

Für das, was sie direkt bewerben, natürlich! Für Dekodierung/Transcoding usw. gibt es separate Software, für die man wieder Geld zahlen muss bzw. die von dem jeweiligen Entwickler beworben wird. Dieser ist dann für Support etc. verantwortlich - auch das hat mit Nvidia/Intel etc. nichts zu tun, schließlich haben sie bei der Erstellung der Software nichts selbst geleistet. Oder darf ich demnächst zu Nvidia gehen und jammern, weil die Glättung/Performance/Skalierung mit den Bits xyz, die Blaire rausgefunden hat, nicht optimal ist? Die zeigen mir doch den Vogel! Oder von mir aus HP, wenn ich von denen einen Komplett-PC hätte.

Werkzeuge sind offiziell, da sind wir uns einig. Das, was andere damit machen, kann man (im Sinne der Nicht-Bastler, die nunmal leider 99% der User stellen) nicht Nvidia anrechnen, jedenfalls nicht in irgendwelchen Reviews für "die Masse". Nochmals darf ich auf Lars Weinand hinweisen: Wer mehr will, geht zum Tuner, und das ist dann nicht mehr Nvidias Bier. Klarer geht es nicht zu sagen.

LovesuckZ
2011-07-05, 13:48:59
Man sollte sich den "Normalzustand" vor Augen halten: ich behaupte, das ist ein halbwegs aktueller Treiber - und sonst nichts. Alles darüber hinaus sollte - so sehr es auch zum guten alten PC-ler-Tum gehört - mit Blick darauf bewertet werden, dass es Zusatzaufwand bedeutet. Unter diesem Gesichtspunkt darf dann gern noch abgestuft werden, aber da sollte dann keine Kaufentscheidung mehr empfohlen werden, weil manche Einstellungen ein bisschen Gefrickel, andere mehr Gefrickel bedeuten - das kann sich beim nächsten Spiel schon wieder ändern.

Vielleicht sollten wir unterscheiden, über welche Personengrupppe hier geredet wird. Ich denke, wir beziehen uns auf die Leute, die z.B. auch die PCGH in Zeitschriftenform lesen. Die auf 3DCenter.de, Computerbase.de und Co gehen.
In der PCGH gab es schon 2002+ Artikel über aTuner und später dann rTuner. Es gab How-Tos wie man die Filterqualität bei nVidia durch den aTuner steigern könnte.

Mir kommt es vor, dass sich alles zurückentwickelt.

Für das, was sie direkt bewerben, natürlich! Für Dekodierung/Transcoding usw. gibt es separate Software, für die man wieder Geld zahlen muss bzw. die von dem jeweiligen Entwickler beworben wird. Dieser ist dann für Support etc. verantwortlich - auch das hat mit Nvidia/Intel etc. nichts zu tun, schließlich haben sie bei der Erstellung der Software nichts selbst geleistet. Oder darf ich demnächst zu Nvidia gehen und jammern, weil die Glättung/Performance/Skalierung mit den Bits xyz, die Blaire rausgefunden hat, nicht optimal ist? Die zeigen mir doch den Vogel! Oder von mir aus HP, wenn ich von denen einen Komplett-PC hätte.

Du hast es nicht verstanden: Laut dir ist etwas nicht offiziell, wenn es nicht direkt vom Schnittstellenbetreiber angeboten wird. Demnach ist Cuda und Co. kein offizielles Feature. Es ist kein Unterschied zu NVAPI.


Werkzeuge sind offiziell, da sind wir uns einig. Das, was andere damit machen, kann man (im Sinne der Nicht-Bastler, die nunmal leider 99% der User stellen) nicht Nvidia anrechnen, jedenfalls nicht in irgendwelchen Reviews für "die Masse". Nochmals darf ich auf Lars Weinand hinweisen: Wer mehr will, geht zum Tuner, und das ist dann nicht mehr Nvidias Bier. Klarer geht es nicht zu sagen.

Richtig: Wer mehr will als die Fähigkeiten des CP, der muss tiefer gehen. Offiziell angeboten werden die Features, nur eben nicht direkt von nVidia.

N0Thing
2011-07-05, 13:54:30
Richtig: Wer mehr will als die Fähigkeiten des CP, der muss tiefer gehen. Offiziell angeboten werden die Features, nur eben nicht direkt von nVidia.

Was denn nun? Bietet Nvidia die Features offiziell an, oder nicht?

LovesuckZ
2011-07-05, 13:58:47
Was denn nun? Bietet Nvidia die Features offiziell an, oder nicht?

Steht dort doch: Sie bieten sie über die bereitgestellten Schnittstellen an.
Über das CP gibt es dagegen nur eine bestimmte Auswahl. Wer den kompletten Funktionsumfang haben muss, muss eben tiefer gehen. Aber Zugriff hat man selbst ohne Fremdanwendungen. Mit dem SSAA-Tool gibt es überall SSAA und mit dem Profil-Extrahierer kann man die Profile bearbeiten und wieder speichern.

Ich meine, wenn ich mit Cuda etwas encodieren will, muss ich auch irgendwo ein Programm herholen. Trotzdem wird sich hier niemand hinstellen und sagen: Cuda ist ein inoffizielles Feature.

boxleitnerb
2011-07-05, 14:01:02
Du hast es nicht verstanden: Laut dir ist etwas nicht offiziell, wenn es nicht direkt vom Schnittstellenbetreiber angeboten wird. Demnach ist Cuda und Co. kein offizielles Feature. Es ist kein Unterschied zu NVAPI.


Richtig: Wer mehr will als die Fähigkeiten des CP, der muss tiefer gehen. Offiziell angeboten werden die Features, nur eben nicht direkt von nVidia.

Nein, du ignorierst das, was ich schreibe. Wenn du mit einem Adobe CUDA-Plugin für ein Adobe Produkt Probleme hast, gehst du dann zu Adobe oder zu Nvidia?

Die Aussage ergibt keinen Sinn.
Außerdem: Was, wenn z.B. Bits Grafikfehler hervorrufen? Der Kunde denkt, seine Karte ist kaputt und schickt sie ein, kriegt sie auf eigene Kosten zurück. Sowas gilt es zu vermeiden, daher ist sowas nicht offiziell und auf eigenes Risiko.

Offiziell angeboten wird die Schnittstelle, die Features nicht (schon allein aus Kompatibilitätsgründen nicht. Ich bin sicher, Blaire kennt mehrere Dutzend Bits, die zu Grafikfehlern führen - das willst du ganz sicher nicht mit Nvidia in Verbindung bringen).

Wo ist eigentlich dein Problem? Willst du, dass man in Reviews mit den Bits rumspielt, damit Nvidia einen Vorteil hat? Dann sag das doch direkt, statt um den heißen Brei herumzureden und dich mit mir um Begrifflichkeiten zu streiten. Bezogen auf uns als "Nerds" gehe ich sogar mit dir konform, aber das hat in so einem allgemeinen Graka-Roundup wie das von CB, um das es in diesem Thread geht, nichts verloren. In einem separaten Artikel von mir aus gerne, wie ich schon vorhin schrieb.

LovesuckZ
2011-07-05, 14:07:52
Nein, du ignorierst das, was ich schreibe. Wenn du mit einem Adobe CUDA-Plugin für ein Adobe Produkt Probleme hast, gehst du dann zu Adobe oder zu Nvidia?

Das ergibt keinen Sinn. Was, wenn z.B. Bits Grafikfehler hervorrufen? Der Kunde denkt, seine Karte ist kaputt und schickt sie ein, kriegt sie auf eigene Kosten zurück. Sowas gilt es zu vermeiden.

Offiziell angeboten wird die Schnittstelle, die Features nicht (schon allein aus Kompatibilitätsgründen nicht. Ich bin sicher, Blaire kennt mehrere Dutzend Bits, die zu Grafikfehlern führen - das willst du ganz sicher nicht mit Nvidia in Verbindung bringen).


Wo ist der Unterschied zu Cuda? Wenn der Cuda-Encoder ein schlechtes Bild produziert, wird niemand seine Grafikkarte einschicken. Wieso sollte jemand bei AA-Bits also so handeln?
Und ich gehe natürlich zu Adobe. Genauso wie man beim MediaCoder. Und wenn Blair's-Bits Probleme machen, sagt man es. Da ist nichts dabei.
Problematisch wird es eben, wenn man etwas kaufen muss. Wenn Orbmu2k z.B. den Inspector gegen Geld verkauft, dann ist auch er für den Support zuständig. Wie Adobe bei Cuda.


Wo ist eigentlich dein Problem? Willst du, dass man in Reviews mit den Bits rumspielt, damit Nvidia einen Vorteil hat? Dann sag das doch direkt, statt um den heißen Brei herumzureden und dich mit mir um Begrifflichkeiten zu streiten. Bezogen auf uns als "Nerds" gehe ich sogar mit dir konform, aber das hat in so einem allgemeinen Graka-Roundup wie das von CB, um das es in diesem Thread geht, nichts verloren. In einem separaten Artikel von mir aus gerne, wie ich schon vorhin schrieb.

Ich will garnichts.
Das Problem ist doch, dass man einfach vergisst, welche Vorteile das oder andere hat. Und dann kommt soetwas wie beim 3DCenter.de Test raus, wo man die Vorteile der einen Lösung bis heute nicht in den Test eingeflossen hat.

Schaffe89
2011-07-05, 16:36:40
Aber SSAA gehört nunmal nicht dazu. Denn wenn schon HQ-AF ignoriert wird, dann sollte man nichtmal ein Gedanken daran verwenden, SSAA zu aktivieren.

Letztes mal, hast du AF im Vergleich zu SSAA noch als nicht sehr wichtig deklariert.
Jetzt änderst du deine Meinung wieder?

Das nennt man PC. Die Offenheit gehört dazu. Wem das stört, der kann gerne zu AMD gehen. nVidia bietet die Möglichkeit an - genauso auch mit Downsampling.



Das war nicht das Thema. Du willst die getätigten Aussagen verdrehen, warum ist das nötig?
Sei doch mal so fair. Es ist nicht Nvidia´s Leistung SGSSAA für directx 10/11 out of the Box geschmeidig im Treiber anzubieten. Niemand sagt, dass man deswegen das nicht testen soll und AA-Bits suchen soll, aber dann bitte so fair sein und den Nachteil hier nicht zerreden, bzw das auf die Tests bezogene Argument als "du verstehst es nicht" zu kannibalisieren.

Kann man das Drama noch abbrechen oder hat der Flame-ing Rock schon zuviel Schwung? Lest einfach mal was die Leute direkt oben geschrieben haben.



Bestimmt. Dafür wird aber etwas Fingerspitzengefühl von Nöten sein. ;-).

Hier wurde geschrieben, dass man nur "offizielle" Features verwenden sollten. Und ich habe aufgezählt, dass alles offiziel ist.

Bitte keine Wortklaubereien beginnen. Nvidias SGSSAA @ directx11/10 mit Zusatzsoftware + AA-Bits die Menschen mühsam austesten müssen und fachsimpeln, wo das Bild nun einigermaßen gut geglättet ist, hört sich für mich weniger danach an, als ob hier von offiziellen Settings gesprochen werden kann, auch wenn du das natürlich wieder bestreitest.

Boxleitner hat in dem Zusammenhang völlig recht. Da gibts nichts zu deuteln. Da hilft auch kein Rabulismus.

Das Problem ist doch, dass man einfach vergisst, welche Vorteile das oder andere hat. Und dann kommt soetwas wie beim 3DCenter.de Test raus, wo man die Vorteile der einen Lösung bis heute nicht in den Test eingeflossen hat.



Das Problem ist, dass du den Zusammenhang nicht verstehst, bis du dir deinen eigenen Zusammenhang herstellst. Die Thematik war simpel und einfach.
Niemand will Vorteile kleinreden.
Du schweifst schon wieder ab, ich warte nurnoch bis du mit deiner "Der 3DC Test war nicht objektiv" Heulerei beginnst, dann hast du den Thread endgültig geschrottet.

Und dann kommt soetwas wie beim 3DCenter.de Test raus, wo man die Vorteile der einen Lösung bis heute nicht in den Test eingeflossen hat.



Vielleicht wollte man einen Test der etwas Tuning zeigt und keinen Test der Tuning für Profis zeigt.
Beschwer dich mal im Gamestar Forum darüber, dass gar kein SGSSAA oder zumindest AAA in deren Tests alternativ genutzt wird.

Mr. Lolman
2011-07-05, 19:02:29
Das Problem ist doch, dass man einfach vergisst, welche Vorteile das oder andere hat. Und dann kommt soetwas wie beim 3DCenter.de Test raus, wo man die Vorteile der einen Lösung bis heute nicht in den Test eingeflossen hat.

Hör mal auf Unwahrheiten zu verbreiten. Ich hab bei jedem Spiel, wo AA nicht outofthebox funktioniert hat, die damals verfügbaren SLI-Bits genommen und mittels externem Tool appliziert. Das ist weitaus mehr, als ich für ATI gemacht hab. Da wurde nämlich außer AF auf HQ (nach Anweisung vom Chef), und halt SGSSAA, wos gebraucht wurde, nix im CCC oder sonstwo umgestellt. Und jetzt lass es mal gut sein mit deinem Feldzug gegen 3DC, das nimmt ja schon fast manische Züge an!

Black-Scorpion
2011-07-05, 19:10:57
Kann man den nicht endlich mal aus dem Verkehr ziehen? Es gibt doch wirklich nicht einen Thread den er mit seiner ständiger Tatsachenverdrehung kaputt macht. Anderen vorzuwerfen das sie nichts verstehen ist schon der Hammer wenn es von jemand kommt der mit lesen und verstehen arge Probleme hat. Der ist so auf seinen Feldzug fixiert das es egal ist was andere sagen. Im anderen Thread hat er es schon auf die Spitze getrieben und jetzt ist der dran weil der andere zu heiß geworden ist.

Tesseract
2011-07-05, 20:01:21
entweder ihr findet zurück zum thread-thema oder ich mach hier dicht.

mapel110
2011-07-15, 10:40:00
http://ht4u.net/reviews/2011/performance_vergleich_grafikkarten_quartal_2_2011/
Großer Grafikkarten-Vergleich: 53 Grafikkarten von AMD und NVIDIA im Test

Bei beiden Herstellern mit HQ getestet. Na wenigstens etwas.

Klingone mit Klampfe
2011-07-15, 11:23:34
Der Direktvergleich erzeugt unterschiedliche Ergebnisse, wenn man Produkt 1 und Produkt 2 vertauscht - sollte das nicht konsistent sein? Oder ist mein Prozentrechnen komplett eingerostet?

derimmerwiederüberraschte
2011-07-15, 13:09:43
Völlig normal.
Wenn Grafikkarte A 10fps erzeugt und Grafikkarte B 20fps, kommt es darauf an, von welcher Grafikkarte aus man die Werte betrachtet.
Wenn der Referenzwert Grafikkarte A ist, ist Grafikkarte B 100% schneller.
Ist der Referenzwert Grafikkarte B, ist A 50% langsamer.