PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : af optimiert & schnell oder perfekt & langsam?


Mad-Marty
2004-05-22, 18:21:43
Hi,

mich würde mal die meinung der werten Forumsteilnehmer interessieren.

Ich persönlich vertrete den Standpunkt das sowohl NVs Bri als auch ATIs adaptives Bri AF i.O. ist.
Und ich denke auch > 95 % der User werden/würden Optimiert nehmen, weil der geringe Unterschied einfach keinen so grossen Performance verlust Rechtfertigt.

Warum ?
Ganz einfach, so schlimm siehts nicht aus wie hier manche einreden wollen, ein BriAF mit sehr geringem Performanceverlust sieht immernoch um meilen besser aus als Trilinear only da die Karten ja auch mal nicht mehr soo schnell sind, und dann muss man wenigstens nicht mit Tri-Matsch Texturen spielen.

Kurz: ich finde Näherung sinnvoll, vorallem wenn man es kaum sieht und es wesentlich schneller ist (z.B. Farcry), jaja, gleich kommt sowieso "grauenhaft ...blubb.. nicht verwendbar" von ein paar leuten.

Poll :
Welches AF nutzt ihr ?
[ ] Immer Optimiert, dafür andere SEttings höher (Speed Rules)
[ ] Immer voll unoptimiert (IQ Fanatiker)
[ ] Meistens Optimiert
[ ] gar kein AF

Exxtreme
2004-05-22, 18:32:14
Poll. ;(

Showtime
2004-05-22, 18:39:25
Immer voll unoptimiert.

Winter[Raven]
2004-05-22, 18:40:08
[x] Immer voll unoptimiert (IQ Fanatiker)

Wenn ich eine 500€ teuere Karte kaufe, dann erwarte ich auch das:

- die Optimierungen nicht auf die BQ einwirken!
- die Optimierungen abschaltbar sind!

Exxtreme
2004-05-22, 18:41:05
[X]Mal das, mal jenes. Hängt vom Spiel ab

kami
2004-05-22, 18:42:45
Original geschrieben von Exxtreme
[X]Mal das, mal jenes. Hängt vom Spiel ab

Dito. Impliziert, dass ich gerne Optimierungen an- und & ausstellen kann, wenn ich es möchte.

Axel
2004-05-22, 18:43:42
[X]Mal das, mal jenes. Hängt vom Spiel ab

Ich möchte die Optimierungen selbst an- und abschalten können.

LovesuckZ
2004-05-22, 18:43:44
"Mal das, mal jenes. Hängt vom Spiel ab".
Solange wie ich die Wahl habe, koennen sie von mir aus optimieren, bis das Bild schwarz bleibt.
Muss ich jedoch mit etwas leben, was ich nicht will, dann brauche ich auch die Karte nicht kaufen.

Godmode
2004-05-22, 18:44:33
möchte zwar immer mit allerhöchter IQ spielen, aber mit ner GF4 ist das nicht immer möglich und deshalb muss ich bei neueren Spielen AF und AA ganz ausschalten :(

aths
2004-05-22, 18:44:51
Je nach Spiel kann so genannte "Stage-Optimierung" was bringen. Auch der brilineare Filter kann je nach Spiel Leistung bringen ohne (sonderlich) die BQ zu beeinträchtigen. Am liebsten würde ich AF ohne Kompromisse nehmen – wenn der verdammte Forceware das nur erlauben würde :devil:

Quasar
2004-05-22, 18:49:42
Original geschrieben von Showtime
Immer voll unoptimiert.

Dito. Performance reguliere ich durch den AF-Level, nicht dadurch, daß ich mir bilinearen Filter ins Bild mischen lasse.

reunion
2004-05-22, 19:08:26
[x] Mal das, mal jenes. Hängt vom Spiel ab

Wenn ich mir fulltri Performacemäßig leisten kann dann spiele ich auch fulltri, wenn nicht, dann wird als erstes die Stageoptimierung eingeschaltet(notfalls auch bi-AF) bevor ich details reduziere...

Morbid Angel
2004-05-22, 19:13:41
Es hängt vom Spiel hab, welche Einstellungen ich benutze.

Lightning
2004-05-22, 19:27:47
Ich bin auch einer von den Leuten, die gerne vollständige Kontrolle über die IQ haben. Es sollte immer eine Option für maximale Qualität geben.
Ansonsten [X]Mal das, mal jenes. Hängt vom Spiel ab.

ShadowXX
2004-05-22, 20:08:49
Original geschrieben von Quasar
Dito. Performance reguliere ich durch den AF-Level, nicht dadurch, daß ich mir bilinearen Filter ins Bild mischen lasse.

Jenem schliesse ich mich an....

Birdman
2004-05-22, 20:20:07
[x] Mal das, mal jenes. Hängt vom Spiel ab

Wobei ich nur Stageoptimierung in Kauf nehme. (Bei Games die alles auf Stage0 haben und keine Bumps oder Details einsetzten...z.B. Quake3)
Trylinear, Brilinear, oder Bilinear nehme ich aus Prinzip nicht, da ich auf Bugwellen allergisch bin. (und diese auch sofort bemerke)

(del676)
2004-05-22, 21:20:17
[x]Immer voll unoptimiert (IQ Fan)
(was einem ja bei den beiden drecksherstellern mittlerweile ja unmöglich gemacht wird)

Korak
2004-05-22, 21:26:30
Mal so mal so, je nach Game.

Wobei ich max. Quali. häufiger nehme, da das ja soviel Leistung nicht kosten tut.

D-Swat
2004-05-22, 22:11:18
[x]Immer voll unoptimiert (IQ Fan)
Für mehr Speed kann man AF,AA oder Auflösung runter schrauben.

Muh-sagt-die-Kuh
2004-05-22, 22:20:56
[x] Immer Optimiert, dafür andere SEttings höher (Speed Rules)

Ich sehe keinen großen Bildqualitätsunterschied zwischen dem 8x MaxQual AF meiner Ti4200 Go und dem 16x stage-optimierten und winkelabhängigem AF meiner R9700. Ich verzichte lieber auf das letzte Bischen Bildqualität wenn ich dadurch eine deutlich schnellere Darstellung geboten bekomme.
Den AF-Level oder die Auflösung runterschrauben kommt für mich nicht in Frage, ein unscharfer Boden oder ein pixeliges Bild fallen sofort unangenehm auf.

dildo4u
2004-05-22, 22:27:11
Original geschrieben von Muh-sagt-die-Kuh
[x] Immer Optimiert, dafür andere SEttings höher (Speed Rules)

Ich sehe keinen großen Bildqualitätsunterschied zwischen dem 8x MaxQual AF meiner Ti4200 Go und dem 16x stage-optimierten und winkelabhängigem AF meiner R9700. Ich verzichte lieber auf das letzte Bischen Bildqualität wenn ich dadurch eine deutlich schnellere Darstellung geboten bekomme.
Den AF-Level oder die Auflösung runterschrauben kommt für mich nicht in Frage, ein unscharfer Boden oder ein pixeliges Bild fallen sofort unangenehm auf. full ack.

Iwan
2004-05-22, 22:27:57
Ach bla, die Optmierungen fallen beim Zocken garnet auf. Die sieht man erst auf Screenshots oder Midmaps. Ergo=>

Speed Rulez! :D

Raff
2004-05-22, 22:44:09
[x] Mal das, mal jenes. Hängt vom Spiel ab

Es gibt Spiele, die sind so schnell, dass einem der lächerliche Qualitätsverlust garnicht auffällt und wo man lieber etwas mehr Speed hat. Beispiele: UT2004, Racing-Games. Da zocke ich dann lieber ne Auflösung höher und verzichte auf volle trilineare Filterung. Bei gemächlichen Games wie Gothic ist das natürlich etwas anderes, da muss volle Qualität ran.

Auf jeden Fall sollte volle Qualität überhaupt möglich sein!

MfG,
Raff

aths
2004-05-22, 22:45:18
Original geschrieben von Iwan
Ach bla, die Optmierungen fallen beim Zocken garnet auf. Mir sehr deutlich.
Original geschrieben von Iwan
Die sieht man erst auf Screenshots oder Midmaps. Ergo=>Ich sehe sie ingame eher als auf Screenshots.
Original geschrieben von Iwan
Speed Rulez! :D Meine Karte wäre auch bei voller BQ schnell genug.

Iwan
2004-05-22, 22:57:00
@aths:
so schlimm können diese optmierungen nicht sein, bei ati sind sie jedenfalls lange nicht aufgefallen. beim spielen muss man schon SEHR genau hinschaun um was in dieser richtung zu entdecken, und welcher Spieler macht das schon? :bäh:

MadManniMan
2004-05-22, 23:31:35
Seeeehr selten was anderes als Bi-AF. Ich hab eher nen ideologischen Hass auf die Optimierungen.

Aso: [x] Mal so, mal so.

r@h
2004-05-22, 23:54:39
Ich neheme am Poll nicht teil...

Trotzdem schließe ich mich Showtime, Quasar, Ulukay und den anderen an, die die absolut 'unoptimierte' Variante bevorzugen.

Und klar, wenn die IHV's dieses Optimierungszeug abschaltbar gestalten (sich also nicht so etwas, wie diesen winkelabhäbgigen Hardware-Mist leisten), dann ist es mir auch wurscht, wenn sie so etwas in die Treiber einbauen...

Das erste, was ich bei den Radeon-Treiber gemacht habe, ist, den "FullTri"-Hack zu nutzen, um dieses Zeug los zu werden. Schade nur, dass man diesen Winkel-Mist nicht abschalten kann.

Razor

darksun
2004-05-22, 23:58:38
Original geschrieben von Axel
[X]Mal das, mal jenes. Hängt vom Spiel ab

Ich möchte die Optimierungen selbst an- und abschalten können.

Jup da schliese ich mich an.
Da ich mich auch sehr oft älteren Games hingebe, will ich auch die Power meiner Graka nutzen und das bestmögliche an Bildqualität einstellen können.

Muh-sagt-die-Kuh
2004-05-23, 00:00:36
Original geschrieben von aths
Meine Karte wäre auch bei voller BQ schnell genug. Definiere "schnell genug"...

r@h
2004-05-23, 00:15:10
Original geschrieben von Muh-sagt-die-Kuh
Definiere "schnell genug"... Für ihn ausreichend...
Was gibt's daran nicht zu verstehen ?
:???:

Razor

MadManniMan
2004-05-23, 02:18:35
Original geschrieben von r@h
Für ihn ausreichend...
Was gibt's daran nicht zu verstehen ?
:???:

Razor

Man könnte z.B. nicht wissen, daß aths ATM ne FX59 hat ;)

Showtime
2004-05-23, 02:19:11
Ich wollte mir eigentlich innerhalb der nächsten 2-3 Monate entweder eine 6800GT oder X800 kaufen (je nachdem, welche Karte billiger wird, und wie die 6800GT mit fertigen Treibern abschneidet).
Aber dieses ganze Gerede über die "Optimierungen" (auf den Geldbeutel von ATI und nVidia optimiert?) und aths' Artikel nehmen mir langsam echt die Lust daran, das mit zu machen. Ich überlege schon, ob ich nicht einfach auf die Refresh Karten warten sollte, sofern denn auch echte Refresh Chips kommen, und einfach hoffe, dass einer der Beiden bis dahin so perfekte Bildqualität bietet, wie es eben geht.

Im Moment bin ich noch mit einer GeForce 3 unterwegs, und kann mich über das AF (in älteren Spielen immer an) nicht beklagen. Der Gedanke daran, 400€ für eine Karte auszugeben, die auch noch schlechtere Bildqualität liefert, lässt mich nicht unbedingt vor Freunde in die Luft springen. Auch wenn die mangelnde IQ bei einigen schnellen Spielen nicht auffällt, das ungute Gefühl irgendwie verarscht worden zu sein bleibt.

Wenn der Käufer maximale Bildqualität haben will, sollte man es ihm auch bieten. Das gleiche gilt für maximale Geschwindigkeit. So sehe ich das.

Mordred
2004-05-23, 03:55:16
[X]Immer voll unoptimiert (IQ Fan)

Deswegen immer noch die GF4TI und die wird auch solange drin bleiben bis endlich wieder eine Karte mit gescheiten Filtern kommt.

cos
2004-05-23, 04:13:01
Volle IQ waere schon was. Was bringt mir speed-optimiertes AF wenns mich von 50 auf 55fps bringt? oder von 120 auf 130...

Anders siehts aus wenns von 40 auf 60 gehen wuerde..

Tigerchen
2004-05-23, 05:50:37
Original geschrieben von Mad-Marty
Hi,

mich würde mal die meinung der werten Forumsteilnehmer interessieren.

Ich persönlich vertrete den Standpunkt das sowohl NVs Bri als auch ATIs adaptives Bri AF i.O. ist.
Und ich denke auch > 95 % der User werden/würden Optimiert nehmen, weil der geringe Unterschied einfach keinen so grossen Performance verlust Rechtfertigt.

Warum ?
Ganz einfach, so schlimm siehts nicht aus wie hier manche einreden wollen, ein BriAF mit sehr geringem Performanceverlust sieht immernoch um meilen besser aus als Trilinear only da die Karten ja auch mal nicht mehr soo schnell sind, und dann muss man wenigstens nicht mit Tri-Matsch Texturen spielen.

Kurz: ich finde Näherung sinnvoll, vorallem wenn man es kaum sieht und es wesentlich schneller ist (z.B. Farcry), jaja, gleich kommt sowieso "grauenhaft ...blubb.. nicht verwendbar" von ein paar leuten.

Poll :
Welches AF nutzt ihr ?
[ ] Immer Optimiert, dafür andere SEttings höher (Speed Rules)
[ ] Immer voll unoptimiert (IQ Fanatiker)
[ ] Meistens Optimiert
[ ] gar kein AF

Der Poll kommt 2 Jahre zu früh da die meisten ATI User hier gar nicht die Möglichkeit haben Bri AF zu nutzen.

Tigerchen
2004-05-23, 05:54:27
Original geschrieben von Muh-sagt-die-Kuh
[x] Immer Optimiert, dafür andere SEttings höher (Speed Rules)

Ich sehe keinen großen Bildqualitätsunterschied zwischen dem 8x MaxQual AF meiner Ti4200 Go und dem 16x stage-optimierten und winkelabhängigem AF meiner R9700. Ich verzichte lieber auf das letzte Bischen Bildqualität wenn ich dadurch eine deutlich schnellere Darstellung geboten bekomme.
Den AF-Level oder die Auflösung runterschrauben kommt für mich nicht in Frage, ein unscharfer Boden oder ein pixeliges Bild fallen sofort unangenehm auf.

So seh ich das auf. Und nie wieder das unoptimierte AF der GeForce3! Das war soooo langsam daß ich schon nach 9 Monaten ins R300 Lager übergelaufen bin.

DanMan
2004-05-23, 07:04:05
Original geschrieben von Tigerchen

Der Poll kommt 2 Jahre zu früh da die meisten ATI User hier gar nicht die Möglichkeit haben Bri AF zu nutzen.
Immer feste in der Scheiße rühren, gell?

Sphinx
2004-05-23, 07:08:21
Original geschrieben von DanMan
Immer feste in der Scheiße rühren, gell?

?

Tigerchen
2004-05-23, 09:11:05
Original geschrieben von DanMan
Immer feste in der Scheiße rühren, gell?

Die Hype ist mittlerweile so groß daß die ersten ATI-User Bri sehen deren Karte das gar nicht darstellen kann. Ist das meine Schuld?

ravage
2004-05-23, 10:36:51
[X]Mal das, mal jenes. Hängt vom Spiel ab

Ich habe nichts gegen Optimierungen, solange ICH* die Möglichkeit habe, diese auch wieder zu deaktivieren.

*Immer und überall und ohne Ausnahmen bei einigen Spielen etc.

Grestorn
2004-05-23, 10:43:27
Dumme Frage: Wieso darf ich in dem Poll nicht abstimmen? Welchen besonderen Status benötigt man dazu?

Ansonsten würde ich mit
[X]Mal das, mal jenes. Hängt vom Spiel ab
stimmen.

Gruß, Martin

Crushinator
2004-05-23, 11:56:50
[X]Mal das, mal jenes. Hängt vom Spiel ab

Wenn die Framerate unter 25 fällt, wird solange an Settings runtergeschruabt bis mind 30 fps anliegen.

tRpii
2004-05-23, 12:18:26
Original geschrieben von crushinator
[X]Mal das, mal jenes. Hängt vom Spiel ab

dito.

Raff
2004-05-23, 12:45:38
Original geschrieben von grestorn
Dumme Frage: Wieso darf ich in dem Poll nicht abstimmen? Welchen besonderen Status benötigt man dazu?
[...]

Du musst Fullmember sein (30 Postings).

MfG,
Raff

Madkiller
2004-05-23, 13:39:02
[x] Mal das, mal jenes. Hängt vom Spiel ab

Tom Servo
2004-05-23, 14:39:10
.

r@h
2004-05-23, 15:03:07
Original geschrieben von MadManniMan
Man könnte z.B. nicht wissen, daß aths ATM ne FX59 hat ;) Gibt's hier tatsächlich noch jemanden, der das nicht weiß ?
:D

Razor

r@h
2004-05-23, 15:08:16
Original geschrieben von Tigerchen

So seh ich das auf. Und nie wieder das unoptimierte AF der GeForce3! Das war soooo langsam daß ich schon nach 9 Monaten ins R300 Lager übergelaufen bin. Hatten wir schon Tigerlein...

Die gf3 bietet noch heute die beste BQ (mit Abstand !) und ist noch immer ganz gut unterwegs, für ein Kärtchen, dass schon soooo viele Jährchen auf dem Buckel hat, wirklich nicht schlecht.

Mit der BQ einer R300 kannst Du mir wörtlich gestohlen bleiben !
Gleiches gilt derzeit für mich im Sinne einer 6800/X800...

Razor

Aqualon
2004-05-23, 15:24:29
[X]Mal das, mal jenes. Hängt vom Spiel ab

Wenn ein Spiel schon schnell genug läuft, soll die bestmögliche Qualität ohne Optimierungen anschaltbar sein.

Falls ein Spiel aber die Graka überfordert, habe ich nichts gegen Optimierungen einzuwenden.

Aqua

Gast
2004-05-23, 16:07:54
Original geschrieben von Tigerchen

Der Poll kommt 2 Jahre zu früh da die meisten ATI User hier gar nicht die Möglichkeit haben Bri AF zu nutzen.

Ich glaube, hier haben mehr Leute eine R9600-Karte (inkl. Pro, XT, non-pro, SE usw.) als eine R3xx-Karte.

Sphinx
2004-05-23, 16:22:14
Original geschrieben von Gast
Ich glaube, hier haben mehr Leute eine R9600-Karte (inkl. Pro, XT, non-pro, SE usw.) als eine R3xx-Karte.

Du weißt auch das die BQ der x800´er besser ist als die der RV360´er... Da der Chip bessere Optimierungsmöglichkeiten besitzt ~ lt. Ati ob es stimmt sollte man mal unter den ATI Karten vielleicht Screenshot Vergleiche machen.

Gast
2004-05-23, 16:33:55
Original geschrieben von Sphinx
Du weißt auch das die BQ der x800´er besser ist als die der RV360´er... Da der Chip bessere Optimierungsmöglichkeiten besitzt ~ lt. Ati ob es stimmt sollte man mal unter den ATI Karten vielleicht Screenshot Vergleiche machen.
Dann mach' das doch bitte mal, ansonsten sehe ich nur, daß die R9600 "BRILINEAR" bietet - sogar ein bißchen mehr als die X800.

Sphinx
2004-05-23, 16:35:55
Original geschrieben von Gast
sogar ein bißchen mehr als die X800.

Darum gings^^

r@h
2004-05-23, 16:38:42
Original geschrieben von Gast
Dann mach' das doch bitte mal, ansonsten sehe ich nur, daß die R9600 "BRILINEAR" bietet - sogar ein bißchen mehr als die X800. Was ja aufgrund der sehr viel geringeren Leistungsfühigkeit eines RV360 auch Sinn machen würde...

Razor

DanMan
2004-05-23, 17:22:02
Original geschrieben von Tigerchen

Die Hype ist mittlerweile so groß daß die ersten ATI-User Bri sehen deren Karte das gar nicht darstellen kann. Ist das meine Schuld?

Lies das Chatlog nochmal: Die Trilinear-"Optimierungen" sind seit den Cat3.4 verfügbar, also werden das auch reichlich Karten nutzen.

Raymond
2004-05-23, 17:44:53
[x] immer unoptimiert

Optimierungen sind mir solange egal wie ich sie abschalten kann, sind sie nicht abschaltbar ist das für mich inakzeptabel.

Gruss Ray

Nasowas
2004-05-23, 18:11:06
Original geschrieben von Quasar
Dito. Performance reguliere ich durch den AF-Level, nicht dadurch, daß ich mir bilinearen Filter ins Bild mischen lasse.

Habe als Gast leider kein Stimmrecht. Aber der Aussage Quasars schliesse ich mich an.

aths
2004-05-23, 18:39:05
Original geschrieben von Tigerchen
Die Hype ist mittlerweile so groß daß die ersten ATI-User Bri sehen deren Karte das gar nicht darstellen kann.Nicht so vorschnell :) Radeon 9700 filtert jedenfalls nicht so schön trilinear wie eine GeForce das kann.

Quasar
2004-05-23, 18:55:03
Original geschrieben von Sphinx
Darum gings^^

Nichtsdestotrotz, die Aussage, auf die sich meine Aussage bezog, nämlich die von Tigerchen, daß kaum ATi-User die "Möglichkeit" haben, ihren trilinearen Filter reduzieren zu lassen, ist davon unbenommen.

avalanche
2004-05-23, 19:50:21
[x] unoptimiert
Aus: Wie viel Optimierung ist optimal?
Behauptungen (die man sinngemäß von ATI genau so wie von Nvidia hört), das Bild sei jetzt vielleicht anders, aber nicht schlechter, sind streng genommen eine Frechheit.Man könnte meinen, dass die Entwicklung der IQ von neueren Grafikkarten im Zusammenhang mit dem IQ der Sprücheklopfer der beiden "besten" Grafikchip-Herstellern steht. Von einer 500$ Grafikkarte muss ich erwarten können, dass ich ein Bild bekomme, dass genauso aussieht, wie das, was ursprünglich vom Entwickler geplant wurde. Das ist das gleiche Problem, das wir schon in einem anderen Zusammenhang haben: Es wird etwas am (zahlenden) Benutzer vorbei durchgesetzt.

Nefilim
2004-05-23, 20:57:45
Immer voll unoptimiert (IQ Fan)

Lieber "spare" ich am Antialiasing. :)

huha
2004-05-23, 21:28:29
Ich bin Bildqualitäts-Fanatiker. AA+AF sind *grundsätzlich* immer voll aufgedreht. Bisher klappt's eigentlich ganz gut, die Spiele, die ich spiele, sind noch schnell genug und das Bild sieht auch nicht unbedingt schlecht aus. Wobei ich mir gern noch mehr Kontrolle wünschen würde, manchmal wird's doch leicht vermatscht.

-huha

Piffan
2004-05-23, 21:30:39
Weil die Geschmäcker und Ansichten differieren, sollte man die Entscheidung dem Spieler überlassen. Ich persönlich freue mich über die MÖGLICHKEITEN, per Optimierung eine deutliche Verbesserung der Bildqualität zu erreichen, die sonst bei Farcry (z.B.) gar nicht drin wäre ohne empfindliche Performanceverluste. Lieber optimierte Verbesserung als gar keine.....Aber: ICH will entscheiden dürfen, eine Optimierung per Zwang ist schlecht und darum habe ich meine Kaufabsicht bezüglich einer neuen Karte komplett storniert...:D

@Razor: Es stimmt, die Gf3 ist immer noch brauchbar. Jedes Upgrade ist nur Luxus!

edit: Ich habe gestimmt: Mal so und mal so, je nach Spiel (und Laune)

Grestorn
2004-05-23, 22:28:21
Hah! Darf endlich abstimmen :)

Sorry für den :spam:

aths
2004-05-24, 11:18:15
Original geschrieben von Piffan
Weil die Geschmäcker und Ansichten differieren, sollte man die Entscheidung dem Spieler überlassen. Ich persönlich freue mich über die MÖGLICHKEITEN, per Optimierung eine deutliche Verbesserung der Bildqualität zu erreichen, die sonst bei Farcry (z.B.) gar nicht drin wäre ohne empfindliche Performanceverluste. Lieber optimierte Verbesserung als gar keine.....Aber: ICH will entscheiden dürfen, eine Optimierung per Zwang ist schlecht und darum habe ich meine Kaufabsicht bezüglich einer neuen Karte komplett storniert...:DZu "Lieber optimierte Verbesserung als gar keine". Das würde ich nicht so pauschal formulieren.

Was ist "optimierte Verbesserung"? Ist bri-AF besser als TF? Wäre dann nicht auxh bi-AF besser als TF? Ist 2x T-AA besser als 4x AA? Ist stark winkelabhängiges 16x AF wirklich besser als beinahe perfektes 4x AF? Das hängt immer davon ab.

Ich sehe BQ-Features als Möglichkeit, "überschüssige" Leistung in BQ zu tauschen. Eben damit genug Leistung "überschüssig" bleibt, kaufe ich eine schnelle Karte, und spare notfalls an Auflösung und Grafikdetails. Warum aber eine schnelle Graka kaufen, wenn man gar nicht mehr die "volle" BQ bekommt? Das ist doch der springende Punkt.

Ebenfalls idiotisch: Das "winkeloptimierte" AF bringt volle Qualität überwiegend bei alten Spielen, die sehr viel "90°-Architektur" haben. Gerade bei alten Spielen sind die modernen Karten aber längst schnell genug.

Crushinator
2004-05-24, 11:48:19
Original geschrieben von aths
(...) Ich sehe BQ-Features als Möglichkeit, "überschüssige" Leistung in BQ zu tauschen. Eben damit genug Leistung "überschüssig" bleibt, kaufe ich eine schnelle Karte, und spare notfalls an Auflösung und Grafikdetails. Warum aber eine schnelle Graka kaufen, wenn man gar nicht mehr die "volle" BQ bekommt? Das ist doch der springende Punkt. (...) Das kann man auf so ziemlich jede Entwicklung der IT-Branche in letzter Zeit anwenden. Als ein vielleicht weniger diskutiertes Beispiel muß ich hier MPEG4 anführen, wo ich mich fragen muß, warum ich - im Vergleich zu MPEG2 - auf gestochen scharfe Bilder verzichten muß, nur weil man Bandbreite sparen möchte? Ich könnte wetten, daß es mehr Leute als Meinesgleichen gibt, die der Meinung sind, MPEG4 sei ihrem Empfinden nach besser. Wie im anderen Thread schon gepostet wurde: Gefällt's Dir nicht, fällst Du aus der Zielgruppe.

Gast
2004-05-24, 12:58:27
Da belegt ist, daß man als Durchschnittsmensch ab 60 FPS kein Ruckeln mehr wahrnimmt, sollte doch eigentlich jegliche Leistung der Grafikkarten, jenseits dieser Grenze doch besser in die BQ steigernde Optionen "gesteckt" werden.

Und da gerade bei Käufern einer Highend-Grafikkarte ein wenig Kenntnis über Einstellmöglichkeiten anzunehmen ist, sollte man gerade bei diesen Karten ALLE Optionen offen lassen, d. h. dem Gamer überantworten, wie er sein Spiel dargestellt bekommen will.

Es ist nichts gegen Optimierungen zu sagen, solange sie nicht als Zwangseinstellung zum Einsatz kommen. Denn mal ehrlich, was will ich mit einer um Faktor X schnelleren Karte als eine GF3, wenn mir letztendlich maximal mögliche Bildqualität immer mehr beschnitten wird?

Vollkommener Schwachsinn - die Hardware wird immer leistungsfähiger und die maximale Darstellungsqualität immer geringer.



Wünschenswert wäre vielleicht so etwas:
Ein Treiber-Menü, das alle Optionen in einem Expertenmodus zugänglich macht, mit einer frei drehbaren 3D-Vorschau der Optionen - links BQ-Maßnahme ohne Optimierung, rechts mit Optimierung XYZ.

Birdman
2004-05-24, 13:17:02
Original geschrieben von crushinator
Das kann man auf so ziemlich jede Entwicklung der IT-Branche in letzter Zeit anwenden. Als ein vielleicht weniger diskutiertes Beispiel muß ich hier MPEG4 anführen, wo ich mich fragen muß, warum ich - im Vergleich zu MPEG2 - auf gestochen scharfe Bilder verzichten muß, nur weil man Bandbreite sparen möchte? Ich könnte wetten, daß es mehr Leute als Meinesgleichen gibt, die der Meinung sind, MPEG4 sei ihrem Empfinden nach besser. Wie im anderen Thread schon gepostet wurde: Gefällt's Dir nicht, fällst Du aus der Zielgruppe.
Dies liegt wohl weniger an MPEG4, als daran dass man hier und heutzutage halt die Bandbreite massiv senkst (bei ~gleicher IQ), anstelle die Bildqualität massiv erhöht. (bei ~gleicher Bandbreite)

Wenn du sehen willst dass MPEG4 auch die deutlich schärferen Bilder als MPEG2 hinkriegt, dann empfehle ich dir eine HD-DVD zu kaufen - hier hast du bei gleicher Datenrate eine um ein vielfaches bessere IQ als jegliches MPEG2 Bildmaterial.

Ein Punkt der aber sicher auch noch ein deine Bemängelung reinspielt ist der, dass die heutigen Codec wiklich darauf abziehlen, bei möglichst kleiner Datenrate ein fürs menschiche Auge möglichst angenehmes Bild zu produzieren - und hier hilft es natürlich etwas Schärfe zugunsten von Artefakten rauszunehmen.

Imho ist daran vor allem das Internet Schuld, denn der Hauptanwendungszweck der aktuellen MPEG4 Videos ist das Vvorhandensein auf Onlinetauschbören. (und hier zählt Bandbreite mehr als IQ)

Crushinator
2004-05-24, 13:39:51
Original geschrieben von Birdman
(...) Wenn du sehen willst dass MPEG4 auch die deutlich schärferen Bilder als MPEG2 hinkriegt, dann empfehle ich dir eine HD-DVD zu kaufen - hier hast du bei gleicher Datenrate eine um ein vielfaches bessere IQ als jegliches MPEG2 Bildmaterial. (...) :D Das sehe ich leicht anders. Schonmal im Studio mit richtigem MPEG2-Material (38 MBit/s) gearbeitet? Außerdem wurde MPEG4 von vornherein darauf ausgelegt Schärfe zu unterdrücken, und wie dabei mehr Schärfe entstehen soll, ist mir schleierhaft. Ich rede übrigens von möglichst Detailreichen und nicht von ruhigeren Bildern.

aths
2004-05-24, 14:10:12
Original geschrieben von crushinator
Das kann man auf so ziemlich jede Entwicklung der IT-Branche in letzter Zeit anwenden. Als ein vielleicht weniger diskutiertes Beispiel muß ich hier MPEG4 anführen, wo ich mich fragen muß, warum ich - im Vergleich zu MPEG2 - auf gestochen scharfe Bilder verzichten muß, nur weil man Bandbreite sparen möchte? Ich könnte wetten, daß es mehr Leute als Meinesgleichen gibt, die der Meinung sind, MPEG4 sei ihrem Empfinden nach besser. Wie im anderen Thread schon gepostet wurde: Gefällt's Dir nicht, fällst Du aus der Zielgruppe. MPEG-4 komprimiert deutlich stärker als MPEG-2. Das lässt sich nutzen, um bei gleicher Bandbreite bessere Bilder zu liefern, oder gleichwertige Bilder bei weniger Bandbreiten-Anforderung, oder etwas schlechtere Bilder bei noch weniger Bandbreiten-Anforderung.

Soweit ich weiß, kann man mit MPEG-1 noch bessere Bildqualität haben, sofern man denn nur wenig komprimieren will :)

Audio Layer 2 komprimiert besser als Layer 1 und liefert vergleichbare Qualität bei weniger Bandbreite. MP3 halbiert die Bandbreite noch mal, und kann dabei (unter Ausnutzung der Möglichkeiten, die nicht im ISO-Codec sind) sogar bessere Qualität liefern – zum Preis höheren Rechenaufwandes.

Kurz bevor MP3 aufkam, komprimierte ich gerne zu MP2. 256 Kbit, afaik mit ISO-Codec. Ggü. WAV etwas schlechtere Qualität, aber die Vorteile haben insgesamt überwogen.

aths
2004-05-24, 14:13:31
Original geschrieben von Gast
Da belegt ist, daß man als Durchschnittsmensch ab 60 FPS kein Ruckeln mehr wahrnimmt, sollte doch eigentlich jegliche Leistung der Grafikkarten, jenseits dieser Grenze doch besser in die BQ steigernde Optionen "gesteckt" werden.Persönlich habe ich gerne "75+" fps. Mit durchschnittlich 60 wäre ich geradeso zufrieden. Drops unter 40 halte ich bei Shootern für inakzeptabel.
Original geschrieben von Gast
Und da gerade bei Käufern einer Highend-Grafikkarte ein wenig Kenntnis über Einstellmöglichkeiten anzunehmen ist, sollte man gerade bei diesen Karten ALLE Optionen offen lassen, d. h. dem Gamer überantworten, wie er sein Spiel dargestellt bekommen will.Das ist der Punkt: Für viel Geld kaufe ich, der Enthusiast bin, hochwertige Technik. Und bekomme vorgeschrieben, wie diese einzusetzen ist.

aths
2004-05-24, 14:20:06
Original geschrieben von crushinator
:D Das sehe ich leicht anders. Schonmal im Studio mit richtigem MPEG2-Material (38 MBit/s) gearbeitet? Außerdem wurde MPEG4 von vornherein darauf ausgelegt Schärfe zu unterdrücken, und wie dabei mehr Schärfe entstehen soll, ist mir schleierhaft.Dafür sind die Ersparnisse in der Bandbreite so hoch, dass man einfach in höherer Auflösung digitalisieren kann :) und somit die Details behält.

MechWOLLIer
2004-05-24, 14:30:29
[x]mmer voll unoptimiert (IQ Fan)

We3nns zu langsm wird regle ich halt ensprechend das AF per Slider runter. Irgendwelche Optimierungen schalte ich (wenn möglich) direkt aus.

Crushinator
2004-05-24, 14:31:07
@aths

Ich weiß leider nicht genau, worauf Du genau hinaus möchtest, deshalb versuche ich meine Meinung jetzt etwas härter zum Ausdruck zu bringen, und entschuldige mich schon mal im Voraus, falls sie jemand in den falschen Hals bekommt.

Wenn jemand MP3 oder meinetwegen MPEG4 in den Himmel lobt, aber gleichzeitig behauptet nur maximale IQ zu bevorzugen, muß damit rechnen, von mir nicht weiter ernst genommen zu werden. ;)

Original geschrieben von aths
Dafür sind die Ersparnisse in der Bandbreite so hoch, dass man einfach in höherer Auflösung digitalisieren kann :) und somit die Details behält. Ich liebe Theoretiker. :D

aths
2004-05-24, 14:37:59
Zum Thema Performance:

Es gibt drei Arten von Benches, die mich nicht interessieren:

- 3DMark und sonstige synthetische Benches

- Benchmarks mit sehr geringen Frameraten (1600x1200, 4x//8x)

- Benchmarks mit sehr hohen Frameraten (>100 fps.)

Ist eine Karte schnell genug, ist sie schnell genug. Alles darüber hinaus würde ich in BQ-Maßnahmen stecken. Man sollte endlich mal damit aufhören, verschiedene Architekturen gegeneinander zu benchen. Ich will nicht wissen, welche Karte schneller, sondern welche besser ist. Nach etwas Marktforschung kommen für ein gewisses Budget sowieso nur eine Handvoll Karten in Betracht. Hier könnte man in Einzeltests prüfen, ob die Leistung für seine Lieblingsspiele ausreicht und welche BQ-Maßnahmen man zuschalten kann.

aths
2004-05-24, 14:40:37
Original geschrieben von crushinator
@aths

Ich weiß leider nicht genau, worauf Du genau hinaus möchtest, deshalb versuche ich meine Meinung jetzt etwas härter zum Ausdruck zu bringen, und entschuldige mich schon mal im Voraus, falls sie jemand in den falschen Hals bekommt.

Wenn jemand MP3 oder meinetwegen MPEG4 in den Himmel lobt, aber gleichzeitig behauptet nur maximale IQ zu bevorzugen, muß damit rechnen, von mir nicht weiter ernst genommen zu werden. ;)Alles hat seinen Preis. Im bewussten Artikel wird erwähnt, dass die FX-Serie schnelleres AF als die Vorgänger bietet, und dabei kaum Kompromisse bezüglich der Bildqualität eingeht. Die besten AF-Verfahren die es in Consumer-Hardware gibt, sind allesamt grobe Vereinfachungen der eigentlichen Mathematik, die im Hintergrund steht. Kompromisse geht man so oder so ein.

Original geschrieben von crushinator
Ich liebe Theoretiker. :D Wenn schon korrekt, dann auch korrekt :naughty:

Crushinator
2004-05-24, 14:56:32
@aths

Du hast scheinbar die Hälfte von dem was ich sagte nicht wirklich verstanden. Es wird auch zu OT, den MPEG-Krams hier zu diskutieren. Laß uns bitte darauf einigen, daß wir beide grundsätzlich anderen Definitionen von Qualiät und vor allem Doppelmoral verfallen sind. =)

aths
2004-05-24, 15:05:28
Original geschrieben von crushinator
Laß uns bitte darauf einigen, daß wir beide grundsätzlich anderen Definitionen von Qualiät und vor allem Doppelmoral verfallen sind. =) Darauf können wir uns einigen :) Wobei ich nicht genau weiß, worauf du hinaus willst. Wenn du gegen MPEG-4 lästerst und eine Doppelmoral siehst, warum bist du dann nicht gegen jegliche Bildkompression bei Videomaterial?

Crushinator
2004-05-24, 15:20:43
Das liegt vermutlich daran, daß Deine MPEG4-Auflösungstheorie bei Roh- sprich Studiomaterial a) eben nur theoretischer Natur ist und b) daß ich nicht behaupte, gleichzeitig sowohl gegen Abweichungen vom Lehrbuch zu sein, als auch für mehr sicht- bzw. hörbare Qualitätsreduzierungen als die Verfahren zuvor.

Sk_Antilles
2004-05-24, 15:34:08
[X] Mal das, mal jenes. Hängt vom Spiel ab.

Meistens spiele ich mit 2xAA und 2xAF, mehr gibt meine GF4200 eh nicht her. Wenn ich aber eine 400-500$ hätte, dann würde ich auf beste IQ bestehen und verlangen.

Sk_Antilles

aths
2004-05-24, 15:37:30
Original geschrieben von crushinator
Das liegt vermutlich daran, daß Deine MPEG4-Auflösungstheorie bei Roh- sprich Studiomaterial a) eben nur theoretischer Natur ist Wie meinst du das?

Nehmen wir JPEG als Beispiel, mit einer Komprimierungsrate von lediglich 1:4 (womit das Verfahren unterfordert ist.) Man kann bei gleicher Dateigröße die Auflösung auf beiden Achsen verdoppeln, und kriegt so mehr Details unter. Verlustfreie Komprimierung packt im Normalfall höchstens 2:1, wir sind noch immer auf der Gewinnerseite. JPEG hat nun den Vorteil, eine ziemliche Bandbreite bei der Komprimierungsrate gut zu bedienen. Angenommen wir nehmen ein Verfahren was explizit auf hohe Komprimierungsraten ausgelegt ist. Würde man das Ausgangsmaterial auf beiden Achsen hochskalieren vor der Komprimierung, um es nach dem Entpacken wieder runterzuskalieren, würden mehr Details transportiert. Kommt es auf solche Details an, wäre es natürlich sinnvoller, gleich ein anderes Verfahren zu nehmen.

Wavelet-basierende Bildkomprimierung bringt bei hoher Kompressionsrate für gleiche Bandbreite das bessere Bild, hat jedoch keine Vorteile wenn es um hochwertiges Material geht welches z. B. zum Druck bestimmt ist. Manchmal sogar Nachteile. "The right tool for the right job".

Original geschrieben von crushinator
und b) daß ich nicht behaupte, gleichzeitig sowohl gegen Abweichungen vom Lehrbuch zu sein, als auch für mehr sicht- bzw. hörbare Qualitätsreduzierungen als die Verfahren zuvor. Ich würde da keine so prinzipielle Sache draus machen. Angenommen, AF könnte um Faktor 2 beschleunigt werden, wobei nur sehr wenig BQ eingebüßt wird, dagegen würde sich kaum jemand wehren. MPEG-4 bringt drastische Bandbreitenvorteile gegenüber MPEG-2. Zur Weiterverarbeitung bestimmtes Material sollte nicht unbedingt mit MPEG-4 an die Grenze reduziert werden, für das Endprodukt ist es doch genau richtig, oder nicht?

Die Einsparungen beim AF vernichten mehr Qualität, als man durch die durch den Leistungsgewinn ermöglichte Auflösungssteigerung wieder reinholen kann. Man muss es so sagen, wie es ist: Jeglicher Gewinn durch winkelabhängige "Optimierung" ist Augenwischerei.

Crushinator
2004-05-24, 17:12:30
Original geschrieben von aths
(...) Die Einsparungen beim AF vernichten mehr Qualität, als man durch die durch den Leistungsgewinn ermöglichte Auflösungssteigerung wieder reinholen kann. Man muss es so sagen, wie es ist: Jeglicher Gewinn durch winkelabhängige "Optimierung" ist Augenwischerei. Ich gehe nur kurz auf die MPEG4-Thematik ein, weil ich a) keine Zeit habe es haargenau zu erklären und b) Dich so einschätze, auch selbst drauf kommen zu können, wo ein Verfahren in der Praxis seine Schwäche haben könnte. Darauf kommt man leider nicht, wenn man einfach nur oberflächliches zum Thema MPEG4 liest. Also, MPEG4 wurde nur dafür erfunden, um bei sehr niedrigen Datenraten noch erkennbare Bilder zu liefern und seine praktische Anwendung auf Datenraten oberhalb von 4 MBit/s kann u.A. wegen unnötigem Motionblur einwenig bis extrem kontraproduktiv sein, während es bei Studio-Anforderungen genau so gut/schlecht komprimiert wie MPEG2, dabei aber in der Regel mehr Details vernichtet. Auf alle Fälle ist MPEG4 immer rechenintensiver als MPEG2.

Man könnte quasi genau so behaupten, daß jeglicher Gewinn an Qualität bei MPEG4 ab bestimmten Datenraten Augenwischerei sei. Ich wiederhol' mich zu ungern: Gefällt's Dir nicht, fällst Du aus der Zielgruppe.

Mave@Work
2004-05-24, 17:23:21
IQ-FAN:bäh:

Xmas
2004-05-24, 17:52:27
Sinnvolle Optimierungen nehme ich gerne. Dass z.B. der Grad der Anisotropie pro Quad berechnet wird und entsprechend die Samplezahl variiert wird, ist selbstverständlich und einsichtig. Hier wird unnötige Arbeit eingespart. Dass der AF-Grad bei der Drehung um die Z-Achse stark variiert, ist dagegen absolut nicht einsichtig. Hier wird Arbeit eingespart wo sie notwendig wäre.

Birdman
2004-05-24, 20:09:57
Original geschrieben von crushinator
Man könnte quasi genau so behaupten, daß jeglicher Gewinn an Qualität bei MPEG4 ab bestimmten Datenraten Augenwischerei sei. Ich wiederhol' mich zu ungern: Gefällt's Dir nicht, fällst Du aus der Zielgruppe.
Du gehst hier aber IMHO immer davon aus, dass MPEG2 und MPEG4 bei gleicher Auflösung verglichen wird.
Dabei kann man aber bei gleicher Datenrate locker die doppelte Auflösung bei Mpeg4 fahren und hier wage ich einfach zu behaupten dass dann MPEG4 besser aussieht.

Crushinator
2004-05-24, 20:53:14
Birdman, nochmal für Dich: Ab ca. 4 MBit/s gewinnt MPEG2 qualitativ gegenüber MPEG4 und das auflösungsunabhängig. Deine Behauptung trifft um und bei bei 1 MBit/s selbstverständlich zu. Ob man das MPEG4-Ergebnis bei letztgenannten Datenraten mit akzeptabler Qualität bezeichnen kann, hängt sehr vom jeweiligen Anspruch ab.

/edit: Falls die Tonlage nicht paßt, bitte ich um Verzeihung.

Muh-sagt-die-Kuh
2004-05-24, 21:19:39
Original geschrieben von crushinator
:D Das sehe ich leicht anders. Schonmal im Studio mit richtigem MPEG2-Material (38 MBit/s) gearbeitet? Außerdem wurde MPEG4 von vornherein darauf ausgelegt Schärfe zu unterdrücken, und wie dabei mehr Schärfe entstehen soll, ist mir schleierhaft. Ich rede übrigens von möglichst Detailreichen und nicht von ruhigeren Bildern. MPEG-2 im Studio? Für Studiobearbeitung ist MPEG-2 so ziemlich das letzte, was ich nehmen würde....wenn man überhaupt verlustbehaftete Kompressions einsetzt, dann eigentlich nur M-JPEG-artige Verfahren, denn nur diese ermöglichen bildgenauen Schnitt ohne Qualitätsverlust.

Und erklär mir bitte mal, wo ein MPEG-4 Verfahren (welches Profil überhaupt?) konkret Schärfe unterdrücken soll.

Crushinator
2004-05-24, 21:53:20
a) MPEG basiert auf MJPEG + Differenzierung
b) Gefilmtes digitales Material besteht zu 98% aus Halbbildern.
c) Letzteres wird auch noch ohne B/P-Frames gespeichert
d) Deshalb könnte man's auch mit MJPEG Interlaced bezeichnen
e) oder auch mit MPEG2-Stream bestehend aus (I-Frame == GOP)
f) Es ist reichlich OT hier

Muh-sagt-die-Kuh
2004-05-24, 23:18:45
Original geschrieben von crushinator
b) Gefilmtes digitales Material besteht zu 98% aus Halbbildern.
c) Letzteres wird auch noch ohne B/P-Frames gespeichert
Falsch...wer hat dir denn das erzählt? Das einzige was sich bei interlaced Video ändert, ist das Codierungsverfahren der Makroblöcke...

Crushinator
2004-05-24, 23:34:39
Original geschrieben von Muh-sagt-die-Kuh
Falsch...wer hat dir denn das erzählt? Das einzige was sich bei interlaced Video ändert, ist das Codierungsverfahren der Makroblöcke... :kratz2: Kannst Du vielleicht präzisieren, was um Gottes Namen Fehlen der B- oder P-Frames damit zutun hat? Oder wolltest Du auch nur zum Ausdruck bringen, daß Interlaced der einzige Unterschied zwischen DV und MJPEG ist, womit jegliche weitere Diskussion darüber nur Haarspalterei wäre, weil es dann auch schlicht MPEG2 genannt würde?

/edit: Tippfehler korrigiert, und durch die letzten 2 Sätze präzisiert.

Muh-sagt-die-Kuh
2004-05-24, 23:41:01
Original geschrieben von crushinator
:kratz2: Kannst Du vielleicht präzisieren, was um Gottes Namen Fehlen der B- oder P-Frames damit zutun hat? Oder wolltest Du auch nur zum Ausdruck bringen, daß Interlaced der einzige Unterschied zwischen DV und MPJEG ist? Ich wollte damit nur ausdrücken, dass MPEG-2 auch interlaced Material mit P- und B-Frames codiert....was nach deiner Aussage nicht der Fall ist.

BodyLove
2004-05-26, 23:36:06
[x] immer voll unoptimiert. Gibt genug andere Möglichkeiten, etwas herunterzuschalten.

Banshee18
2004-05-26, 23:57:48
Mal das, mal jenes. Hängt vom Spiel ab

Ich bin "halber IQ Fan". Ohne AA und AF bekomm ich Augenkrebs, AA ist für mich jedoch wichtiger, weshalb ich mit den Optimierungen beim AF ganz gut leben kann. Trotzdem wäre es auch mir am liebsten, wenn ich freie Wahl hätte(per Treiber).

Colin MacLaren
2004-05-28, 15:45:25
Ich bin von FX5900 wider zu 9800Pro zurückgewechselt, weil die Ati-Karte adaptives AF bietet! Die Performance des "saubereren" AF der Fx5900 war in modernen Spielen so schlecht, daß ich ganz darauf verzichten mußte, obowhl ich doch ingame keinen Unterschied bemerken konnte.

Die "neue" AF-Optimierung auf den R420-Karten finde ich hervoragend, bietet sie doch wieder einen Geschwindigkeitsvoteil, und selbst der in Bezug auf trilineare Filterung empfindliche aths hatte Probleme, selbiges zu entdecken. Die meisten andern dürften den Unterschied nicht einmal wahrnehmen, wenn man ihn explizit danach suchen läßt.

Weiter so!

Den Schlater kann es teilweise nicht geben, weil am Transitorcount geaprt wurde, so daß nur diese optimierte Lösung einsetzbar ist. Das finde ich ebenfalls richtig, reduziert man so doch Produktionskosten und Wärmeentwicklung.

Hinweis, um den jetzt zu erwartenen üblichen Fanboy-Gelaber entgegenzuwirken:

Ich bin kein Ati-Fan, momentan sehe ich z.B. im NV40 das rundere Gesamtpaket mit gößerem Zukunftspotential und ich hab mich auch schon mehr als einmal über meine in einigen Spielen schlechten Erfahrungen mit Ati-Treibern ausgelassen.

Bl@de
2004-05-28, 16:09:55
Mal das, mal jenes. Hängt vom Spiel ab

bin aber auch nicht gerade ein FSAA & AF Fetischist ... von daher ...

aths
2004-05-28, 16:29:11
Original geschrieben von Colin MacLaren
Ich bin von FX5900 wider zu 9800Pro zurückgewechselt, weil die Ati-Karte adaptives AF bietet! Die Performance des "saubereren" AF der Fx5900 war in modernen Spielen so schlecht, daß ich ganz darauf verzichten mußte, obowhl ich doch ingame keinen Unterschied bemerken konnte. Welche Spielen waren das? Nicht mal 2x oder 4x AF war mit der FX5900 drin?

Colin MacLaren
2004-05-28, 17:05:30
Gar nicht:

LockOn
Far Cry 1.1
Spellforce (ohne PS2.0-Schatten)

Nicht in 8x:

Star Wars: KotoR
Enemy Territory auf Radar ;)

All dises Spiele sind mit der Radeon 4xAA/16xAF gut spielbar. Auf der Geforce ist es zwar möglich, mit der Einstellung "Performance" und einer Reduktion auf 4x oder 2x ein paar Frames herauszuholen, aber weder erreiche ich die gute AF-Perfomance der Radeon, noch ist das 2x Performance AF auf einer FX besser als 16x Quality AF einer R3xx ;)

Allerdings möchte ich hinzufügen, daß AF für mich persönlich in erster Linie eine möglichst weitäufige scharfe Filterung der Bodentexturen bringen soll, weil es hier ingame auch am meisten auffällt, weshalb mich das winkeladaptive AF auch nicht wirklich stört.

Gast
2004-05-28, 17:35:26
Original geschrieben von Colin MacLaren Den Schlater kann es teilweise nicht geben, weil am Transitorcount geaprt wurde, so daß nur diese optimierte Lösung einsetzbar ist. Das finde ich ebenfalls richtig, reduziert man so doch Produktionskosten und Wärmeentwicklung.

Falsch.

Jeder Chip, der optimiert "Trilinear" filtern kann ("brilinear" auf welche Weise auch immer) kann auch "Full-Trilinear" filtern.

Man muß es nur vom Treiber her erlauben!

aths
2004-05-28, 17:54:17
Original geschrieben von Gast
Falsch.

Jeder Chip, der optimiert "Trilinear" filtern kann ("brilinear" auf welche Weise auch immer) kann auch "Full-Trilinear" filtern.

Man muß es nur vom Treiber her erlauben! Jeder Chip, der adaptiv "optimiert" 'trilinear' ("brilinear") filtern kann, kann auch vollständig trilinear filtern. Es wären auch TMUs denkbar, die nur reduziert trilinear filtern können.

Mad-Marty
2004-05-28, 18:18:25
Original geschrieben von aths
Zu "Lieber optimierte Verbesserung als gar keine". Das würde ich nicht so pauschal formulieren.

Was ist "optimierte Verbesserung"? Ist bri-AF besser als TF? Wäre dann nicht auxh bi-AF besser als TF? Ist 2x T-AA besser als 4x AA? Ist stark winkelabhängiges 16x AF wirklich besser als beinahe perfektes 4x AF? Das hängt immer davon ab.

Ich sehe BQ-Features als Möglichkeit, "überschüssige" Leistung in BQ zu tauschen. Eben damit genug Leistung "überschüssig" bleibt, kaufe ich eine schnelle Karte, und spare notfalls an Auflösung und Grafikdetails. Warum aber eine schnelle Graka kaufen, wenn man gar nicht mehr die "volle" BQ bekommt? Das ist doch der springende Punkt.

Ebenfalls idiotisch: Das "winkeloptimierte" AF bringt volle Qualität überwiegend bei alten Spielen, die sehr viel "90°-Architektur" haben. Gerade bei alten Spielen sind die modernen Karten aber längst schnell genug.


@Aths

Dir muss ich jetzt direkt vorwerfen, das du nicht objektiv bist und unsinn erzählst, und das aus folgenden Gründen :

Wäre dann nicht auxh bi-AF besser als TF?
:spock:
Bri/Bi-AF ist GARANTIERT besser als matschiges TrilinearF.

[...]kaufe ich eine schnelle Karte, und spare notfalls an Auflösung und Grafikdetails.
:lolaway:
einfach lächerlich, du willst doch nicht etwa wirklich behaupten das 800x600xmittlere details mit 8xtriAF besser aussehen als 1024x768xfull details mit 8xbri-AF ???
evtl. noch mit weggelassenen spiel effekten ... lol


Auch wenn du gerne deine meinung haben darfst, und vielleicht bei älteren titel recht haben magst, in einer situation wo die leistung sonst nicht reichen würde kannst du dem optimierten af seinen sinn nicht absprechen.
(warum ist eigentlich mittels atuner die af qualität senkbar .... ?)


Sei es wie es sei, wer nur für unoptimiertes AF die auflösung senken würde hat einfach irgendwo die relationen bezgl. IQ gewinn verkannt.

Birdman
2004-05-28, 19:18:37
Original geschrieben von Mad-Marty
Bri/Bi-AF ist GARANTIERT besser als matschiges TrilinearF.

Dies ist genauso garantiert falsch.
Ich habe damals SeSam2 auf der Radeon8500 mit trilinear durchspielen müssen, weil das BiAF so scheusslich aussah. (Bugwelle etc.)

Bei RriAf mag ich dir zustimmen, solange das triBand nicht auf unerkenntliche Grösse zusammengeschrumpft wird, doch sobald wieder reines Bilinear im Spiel ist wird es je nach Situation absolut unerträglich. (für mich)

Mad-Marty
2004-05-28, 20:24:11
Original geschrieben von Birdman
Dies ist genauso garantiert falsch.
Ich habe damals SeSam2 auf der Radeon8500 mit trilinear durchspielen müssen, weil das BiAF so scheusslich aussah. (Bugwelle etc.)

Bei RriAf mag ich dir zustimmen, solange das triBand nicht auf unerkenntliche Grösse zusammengeschrumpft wird, doch sobald wieder reines Bilinear im Spiel ist wird es je nach Situation absolut unerträglich. (für mich)


ok, in manchen spielen störts, aber in 80 % ists ok.
insgesamt ist das bild schärfer mit biaf - halt die welle ist scheisse.

Bleibt nur noch die Antwort auf teil 2 von ath

aths
2004-05-28, 20:38:32
Original geschrieben von Mad-Marty
@Aths

Dir muss ich jetzt direkt vorwerfen, das du nicht objektiv bist und unsinn erzählst, und das aus folgenden Gründen :


:spock:
Bri/Bi-AF ist GARANTIERT besser als matschiges TrilinearF.Zeckensack spielte auf seiner 8500 lieber trilinear, als mit bi-AF á la R200.

Original geschrieben von Mad-Marty
:lolaway:
einfach lächerlich, du willst doch nicht etwa wirklich behaupten das 800x600xmittlere details mit 8xtriAF besser aussehen als 1024x768xfull details mit 8xbri-AF ???

evtl. noch mit weggelassenen spiel effekten ... lol Viele tun so, als sei das Teufelszeug. Dabei wurden Detail-Regler erfunden, um die Leistung nach Bedarf skalieren zu können. Man kann an Details sparen, an Auflösung, oder an Texturqualität. Ich sage, je nach dem ist das eine oder andere sinnvoll. Nicht sinnvoll ist es, grundsätzlich Texturqualität zu opfern.

An Texturqualität kann man sparen per LOD-Biasing, per AF-Reduzierung, oder per Reduzierung der Trilinearität. (Am LOD-Bias zu schrauben bringt fast nix an Leistung.) Oder in dem man 16-Bit-Texturen wählt. Was jeweils das beste ist, hängt immer davon ab.

Original geschrieben von Mad-Marty
Auch wenn du gerne deine meinung haben darfst, und vielleicht bei älteren titel recht haben magst, in einer situation wo die leistung sonst nicht reichen würde kannst du dem optimierten af seinen sinn nicht absprechen.
(warum ist eigentlich mittels atuner die af qualität senkbar .... ?)Standardmäßig bietet aTuner für R3xx das bessere AF. Ansonsten siehe obigen Absatz.

Original geschrieben von Mad-Marty
Sei es wie es sei, wer nur für unoptimiertes AF die auflösung senken würde hat einfach irgendwo die relationen bezgl. IQ gewinn verkannt. Wer das reduzieren von Details oder Auflösung grundsätzlich ablehnt, hat imo nicht genügend Erfahrung damit wie man für eine gegebene Leistung "optimale" Grafik einstellt. Dieser Wahn á la ATI und NV, in 1600x1200 mit 4x//8x zu benchen, geht imo voll an den Problemen des täglichen Lebens (einer Zockerseele) vorbei.

Wolfram
2004-05-28, 20:50:11
Original geschrieben von aths
Wer das reduzieren von Details oder Auflösung grundsätzlich ablehnt, hat nicht genügend Erfahrung damit wie man für eine gegebene Leistung "optimale" Grafik einstellt.
Das Problem ist die Haltung der User. Heute sind alle unzufrieden, wenn sie ein nagelneues Spiel mit einem nagelneuen Rechner nicht mit vollen Details in hoher Auflösung etc. spielen können. Gleichzeitig soll jedes Spiel besser aussehen als alles Vorangegangene und konstant mit >30 oder 60 fps laufen. Das geht natürlich nicht.

Jede Wette, daß auch die Spielehersteller darauf reagieren, indem sie das Einstellen maximaler Details über Menüs nicht erlauben. Weil sonst wieder alle auf "max" regeln und sich beschweren, daß es ruckelt.

Zum AF: Ist für meinen Geschmack bei den meisten Spielen Bildqualitätsverbesserer Nr.1. Nur bei großen Außenlevels und entsprechenden Sichtweiten hält mit. Eine reduzierte AF-Qualität nehme ich in Kauf, wenn's nicht anders geht. Far Cry spiele ich zB mit Bi-AF.

Wenn Firmen keine optimale AF-Qualität anbieten, um Benchmarks zu gewinnen, dann ist auch das IMO eine Folge der oben beschriebenen User/Käufer-Haltung.

Gast
2004-05-28, 20:52:31
Original geschrieben von aths
Dieser Wahn á la ATI und NV, in 1600x1200 mit 4x//8x zu benchen, geht imo voll an den Problemen des täglichen Lebens (einer Zockerseele) vorbei.
:|
Wer kauft sich schon eine Karte für 400-500 Euronen, um auf AA und AF zu verzichten(oder auch 1600x1200)? Wenn die Karten spielbare Frameraten ausspucken, dann ist es doch OK.

Shodan Veritas
2004-05-28, 21:10:15
[x] Mal das, mal jenes, hängt vom Spiel ab.
(AF-Stage-Otimierung)

@Gast
Es gibt auch höhere FSAA-Modi als 4x. 8xs in geringerer Auflösung ergibt ein wesentlich ruhigeres Bild, das subjektiv weit besser wirken kann als geringere Kantenglättung bei weit höherer Auflösung. Wenn man das mag, ist der Kauf von HighEnd auch ohne ausfahren auf 1600x1200 eine gute Idee. Wenn nicht, sollte man sein Geld besser in einen vernünfigen Monitor stecken als in HighEnd-Grakas, davon hat man einfach länger was.

MikBach
2004-05-28, 21:19:34
Original geschrieben von Shodan Veritas
[x] Mal das, mal jenes, hängt vom Spiel ab.
(AF-Stage-Otimierung)

@Gast
Es gibt auch höhere FSAA-Modi als 4x. 8xs in geringerer Auflösung ergibt ein wesentlich ruhigeres Bild, das subjektiv weit besser wirken kann als geringere Kantenglättung bei weit höherer Auflösung. Wenn man das mag, ist der Kauf von HighEnd auch ohne ausfahren auf 1600x1200 eine gute Idee. Wenn nicht, sollte man sein Geld besser in einen vernünfigen Monitor stecken als in HighEnd-Grakas, davon hat man einfach länger was.

Der Gast war ich. :D
Ich habe nicht so DIE Adleraugen, deswegen empfinde ich das Bild "schon" bei 4xAA als sehr ruhig. 8xs hat natürlich den Vorteil der Texturenglättung, da hast du recht.

PS lese meinen Post genau. Ich wollte eigentlich damit was anderes zum Ausdruck bringen.

Vote: [x] Mal das, mal jenes, hängt vom Spiel ab.

Shodan Veritas
2004-05-28, 22:09:52
Original geschrieben von MikBach
Der Gast war ich. :D
Ich habe nicht so DIE Adleraugen, deswegen empfinde ich das Bild "schon" bei 4xAA als sehr ruhig. 8xs hat natürlich den Vorteil der Texturenglättung, da hast du recht.

PS lese meinen Post genau. Ich wollte eigentlich damit was anderes zum Ausdruck bringen.

Vote: [x] Mal das, mal jenes, hängt vom Spiel ab.

Das liegt bei mir weniger an den Adleraugen, sondern am Spielegeschmack. Strategie- oder Rollenspiele ohne Hektikfaktor machen mich glücklich, und da hat man lange Zeit, jeden kleinsten Bildfehler in Ruhe zu betrachten, bis denn endlich mal wieder für ein oder zwei Minütchen die Kacke am Dampfen ist. Mechsimulationen kommen ja nur alle Jubeljahre, meine spezielle Art von Shooterleidenschaft (und damit auch FPS-Sucht) verbrennt also recht selten Geld für mehr Speed.
Und ja, es ist schön, daß spielbare Leistungen in schier beknackten Einstellungen möglich sind. Sobald man aber etwas genauer nachforscht, wie die Spielbarkeit trotz beknackter Einstellungen erreicht wird...

Mad-Marty
2004-05-28, 22:12:06
Original geschrieben von aths
Wer das reduzieren von Details oder Auflösung grundsätzlich ablehnt, hat imo nicht genügend Erfahrung damit wie man für eine gegebene Leistung "optimale" Grafik einstellt. Dieser Wahn á la ATI und NV, in 1600x1200 mit 4x//8x zu benchen, geht imo voll an den Problemen des täglichen Lebens (einer Zockerseele) vorbei.



Ok, man kann an mehreren stellen sparen, nur ist eine af optimierung nahezu kaum auffallend im gegensatz zu 800x600 ...

Erzähle mal einem TFT nutzer er soll sich von 1280x1024 oder 1024x768 trennen ....

Was nützen dir auserdem feine, perspektivisch perfekt aufgelöste Texturen wenn die darstellungsmatrix (auflösung) zu klein ist, da das AF zuviel leistung gekostet hat ?!

Das 1600x1200x4xAA+16xAF nicht drin ist ist mir auch klar,
aber heutige spiele wie z.b. FarCry laufen bei 1024x768x2AAx4AF mit R9800 gerade so brauchbar (je nach level).

Und deinen abschluss kann man genausogut ummünzen auf "wer opt. AF ablehnt ..." ;-)

Ich denke 99 % der User sehen es auch so:
Auflösung => Details => AF / AA

Aber das wird jetzt zur grundsatzdiskussion, weil du vermutlich nicht wahrhaben willst das performance optimiertes AF seine daseinsberechtigung hat.

Ich wiederum es als sehr sinnvoll empfinde, da es sehr oft keine bis nur extrem schwer wahrzunehmende qualitätsnachteile hat.

MikBach
2004-05-28, 22:19:48
Original geschrieben von Shodan Veritas
Das liegt bei mir weniger an den Adleraugen, sondern am Spielegeschmack. Strategie- oder Rollenspiele ohne Hektikfaktor machen mich glücklich, und da hat man lange Zeit, jeden kleinsten Bildfehler in Ruhe zu betrachten, bis denn endlich mal wieder für ein oder zwei Minütchen die Kacke am Dampfen ist. Mechsimulationen kommen ja nur alle Jubeljahre, meine spezielle Art von Shooterleidenschaft (und damit auch FPS-Sucht) verbrennt also recht selten Geld für mehr Speed.
Und ja, es ist schön, daß spielbare Leistungen in schier beknackten Einstellungen möglich sind. Sobald man aber etwas genauer nachforscht, wie die Spielbarkeit trotz beknackter Einstellungen erreicht wird...

Ich spiele auch eher "ruhigere" Spiele, wie z.B. Gothic1/2 oder Splinter Cell. Nur wie gesagt, die IQ mit den jetzigen Optimierungen geht für mich in Ordnung. Von Bekannten, die noch nicht mal den Unterschied zwischen AF an/aus sehen(das AA sehen doch fast alle) will ich gar nicht erst reden. ;D

aths
2004-05-28, 23:10:44
Original geschrieben von Wolfram
Das Problem ist die Haltung der User. Heute sind alle unzufrieden, wenn sie ein nagelneues Spiel mit einem nagelneuen Rechner nicht mit vollen Details in hoher Auflösung etc. spielen können. Gleichzeitig soll jedes Spiel besser aussehen als alles Vorangegangene und konstant mit >30 oder 60 fps laufen. Das geht natürlich nicht.

Jede Wette, daß auch die Spielehersteller darauf reagieren, indem sie das Einstellen maximaler Details über Menüs nicht erlauben. Weil sonst wieder alle auf "max" regeln und sich beschweren, daß es ruckelt.

Zum AF: Ist für meinen Geschmack bei den meisten Spielen Bildqualitätsverbesserer Nr.1. Nur bei großen Außenlevels und entsprechenden Sichtweiten hält mit. Eine reduzierte AF-Qualität nehme ich in Kauf, wenn's nicht anders geht. Far Cry spiele ich zB mit Bi-AF.

Wenn Firmen keine optimale AF-Qualität anbieten, um Benchmarks zu gewinnen, dann ist auch das IMO eine Folge der oben beschriebenen User/Käufer-Haltung. Mir gehts darum, ein "natürliches" Bild zu haben. Das heißt, keine Treppeneffekte an Kanten. Scharfe Texturen. Richtige Licht/Schatten-Effekte, etc. pp. Dazu gehört auch, wahrnehmbares Ruckeln zu unterdrücken. Wenn man an Details sparen "muss", kann man imo das insgesamt "natürlichere" Bild bekommen.

PAL-DVDs haben eine Auflösung von 576 Zeilen (die oftmals nicht ausgenutzt wird.) Warum zum Geier soll ich z. B. in 1600x1200 spielen? Dass ATI und Nvidia das als neuen Standard setzen wollen, sehe ich nicht so recht ein. Es kann gar keine allgemeingültige "gute" Standardauflösung für Benchmarks geben.

aths
2004-05-28, 23:14:14
Original geschrieben von Gast
:|
Wer kauft sich schon eine Karte für 400-500 Euronen, um auf AA und AF zu verzichten(oder auch 1600x1200)? Wenn die Karten spielbare Frameraten ausspucken, dann ist es doch OK. In 1600x1200 habe ich nur 85 Hz. In 1400x1050 noch 100, aber das fährt den Monitor voll aus (was ich in der Regel vermeide.) Also spiele ich höchstens in 1280x960. Finde ich auf meinem 19-Zöller sehr geil. Mit Antialiasing und AF natürlich. Aber wenn AF (gerade bei mehreren 100 € für die Karte) dann natürlich kein "optimiertes". ("Lehrbuch-AF" ist, dem Wortsinn nach, bereits optimal.)

Quasar
2004-05-28, 23:19:26
Folgendes habe ich schon auf Forumbase gepostet, aber ich denke, hier passt es auch ganz gut rein:

--
Es geht ja jetzt nicht ausschließlich um diese oder jene Optimierung. Allerdings sollten sich auch diejenigen fragen, was passiert, wenn nicht wir und die Kunden versuchten, dem entgegenzutreten.

Von Generation zu Generation wird immer ein bissel mehr optimiert. Zwischen den einzelnen Generationen wird jeweils nur ein kleiner (von einigen möglicherweise auch gar kein) Unterschied gesehen.

Wenn ich dann aber in vier Jahren auf die Idee komme, mal eine GF3/4 rauszukramen und einen IQ-Vergleich über mehrere Generationen hinweg zu veranstalten, könnten einem eventuell die Augen aus dem Kopf fallen, wenn man sieht, wieviel IQ einem über die Jahre und Generationen hinweg vorenthalten wurde.

Ihr wißt doch:
Steter Tropfen höhlt den Stein - und ich bsw. würde mir eine teure Grafikkarte eher dazu kaufen, in hohen Auflösungen mit maximaler Qualität zu spielen.
Lego-Quake kriegt auch meine KyroII schnell genug hin. ;)

Anderes Beispiel:
Was würdet ihr sagen, wenn eine Firma auf die Idee kommt, statt 1600x1200 nur noch 1580x1185 große Bilder zu rendern? Den Unterschied würde in-Game wahrscheinlich kaum jemand bemerken - die Firma freut's - vor allem, weil man sich dann in Benchmarks um 2,5% von der Konkurrenz absetzen kann. Ihr ahnt es - genau die 2,5%, die man weniger Pixel rendert.

In der nächsten Generation gibt's dann nur noch 1560x1170 usw...
Wäre das immer noch ok? Merkt man doch kaum ;)
--

aths
2004-05-28, 23:20:06
Original geschrieben von Mad-Marty
Ok, man kann an mehreren stellen sparen, nur ist eine af optimierung nahezu kaum auffallend im gegensatz zu 800x600 ...Wer sagt, dass man gleich auf 800x600 gehen muss?

Original geschrieben von Mad-Marty
Erzähle mal einem TFT nutzer er soll sich von 1280x1024 oder 1024x768 trennen ....Zum Thema TFT habe ich im letzten Artikel was geschrieben.

Original geschrieben von Mad-Marty
Was nützen dir auserdem feine, perspektivisch perfekt aufgelöste Texturen wenn die darstellungsmatrix (auflösung) zu klein ist, da das AF zuviel leistung gekostet hat ?!Wenn die "Darstellungmatrix", sprich Auflösung, geringer wird, sinkt auch die Schärfe-Gewinnung beim AF (auf gleiche Fläche gerechnet) womit AF (auf Kosten der Qualität) "billiger" wird.

"Lehrbuch-AF" ist (bei bi- oder tri-TMUs) der beste Weg, Leistung in Texturqualität umzusetzen. Bester Weg heißt hier, das größte Plus für den kleinsten Leistungsaufwand.

Original geschrieben von Mad-Marty
Das 1600x1200x4xAA+16xAF nicht drin ist ist mir auch klar,
aber heutige spiele wie z.b. FarCry laufen bei 1024x768x2AAx4AF mit R9800 gerade so brauchbar (je nach level).Far Cry ist ein Spiel, was imo viel zu oft genannt wird (vermutlich, weil Nvidia dort momentan grottenschlecht performt.)

Original geschrieben von Mad-Marty
Und deinen abschluss kann man genausogut ummünzen auf "wer opt. AF ablehnt ..." ;-)Für mich privat lehne ich es ab. Meine prinzipielle Haltung hierzu ist im vorletzten Artikel dargelegt: Je nach Spiel macht dies oder jenes mehr Sinn.

Original geschrieben von Mad-Marty
Ich denke 99 % der User sehen es auch so:
Auflösung => Details => AF / AAMüssten dann aber ziemlich schlecht informierte User sein.

Original geschrieben von Mad-Marty
Aber das wird jetzt zur grundsatzdiskussion, weil du vermutlich nicht wahrhaben willst das performance optimiertes AF seine daseinsberechtigung hat.

Ich wiederum es als sehr sinnvoll empfinde, da es sehr oft keine bis nur extrem schwer wahrzunehmende qualitätsnachteile hat. Was ist abstreite ist, dass es gut für uns sei, wenn die Firmen bestmögliches AF gar nicht (mehr) anbieten.

MB@W
2004-05-29, 10:32:10
Original geschrieben von aths
In 1600x1200 habe ich nur 85 Hz. In 1400x1050 noch 100, aber das fährt den Monitor voll aus (was ich in der Regel vermeide.) Also spiele ich höchstens in 1280x960. Finde ich auf meinem 19-Zöller sehr geil. Mit Antialiasing und AF natürlich.
100% gleiche Situation bei mir.

Ich sehe Benches in 1600x1200 mit AA und AF trotzdem als sinnvoll an, da man imo dadurch erkennen kann, wie viel Reserven die Karten für die Zukunft haben, bzw. welche der Karten mehr Reserven hat.
Gibt ja auch Einige(Ulukay), die die Auflösung bis zur Gesichtslähmung hochschrauben, auf AF (und AA) aber auch nicht verzichten wollen. Für solche User zählen doch nur Benches in 1600x1200 mit AF (und AA)

MikBach

Mad-Marty
2004-05-29, 13:33:51
Original geschrieben von aths
Far Cry ist ein Spiel, was imo viel zu oft genannt wird (vermutlich, weil Nvidia dort momentan grottenschlecht performt.)


Ich habe es herangezogen weil es ein spiel ist wo selbst eine 9800 pro nicht für jedes level reicht.
Es gab einfach level welche mit tri-AF ruckeln.
Bevor ich da gar keins hab nehm ich lieber 4x Bi


Für mich privat lehne ich es ab. Meine prinzipielle Haltung hierzu ist im vorletzten Artikel dargelegt: Je nach Spiel macht dies oder jenes mehr Sinn.


Ok, denke da kann ich mitgehen - je nach spiel.


Müssten dann aber ziemlich schlecht informierte User sein.

Nunja .... Auflösung ist nicht alles, aber auf AA gesehen doch wieder wichtig. (Im Bereich von praktikablen standardauflösungen (1280 - 1024 - 800 )


Was ist abstreite ist, dass es gut für uns sei, wenn die Firmen bestmögliches AF gar nicht (mehr) anbieten.

Ok da gebe ich dir recht, aber diesen umstand hast du genauso mitzuverantworten wie alle anderen tester.
Warum ?

Ganz einfach, nehmen wir mal an, Ati bietet demnächst einen Button "Super High Quality AF" an, Nvidia nicht.
Was würde passieren ?
THG (Borsti) z.b. würde vermutlich ATi SHQ-AF vs Nvidia teilw. optimiertes AF benchmarken, mit entsprechend vernichtendem Fazit für ATi.
=> Ati verliert käufer, schlimmer noch, bekommt Finanziellen verlust - daraus ist der antrieb beider firmen natürlich gering dies anzubieten.

Dieses Szenario ist natürlich auch umgekehrt denkbar.

Und es wird so passieren, man erinnere sich an die FX vs R300 Launches, da hat jede hw-seite selbst völlig frei ausgewählte settings verglichen.
( RGMSFSAA / OGMSFSAA ... Application AF vs Quality vs Performance AF, 8x AF vs 16xAF usw.)


Wobei ich dem 3dc letzlich zugute halten muss das man sich mühe gegeben hat das es ausgeglichen wird (AA / AF).

Allerdings sind die grosszahl der user einfach nur an der out-of-the-box leistung interessiert, und nicht daran was ist wenn ich den af SHQ-mode forciere.

Mad-Marty
2004-05-29, 13:36:09
Original geschrieben von MB@W
100% gleiche Situation bei mir.

Ich sehe Benches in 1600x1200 mit AA und AF trotzdem als sinnvoll an, da man imo dadurch erkennen kann, wie viel Reserven die Karten für die Zukunft haben, bzw. welche der Karten mehr Reserven hat.
Gibt ja auch Einige(Ulukay), die die Auflösung bis zur Gesichtslähmung hochschrauben, auf AF (und AA) aber auch nicht verzichten wollen. Für solche User zählen doch nur Benches in 1600x1200 mit AF (und AA)

MikBach


Full-ACK.

Um eine neue GFX Generation zukunftstauglich einschätzen zu können sind 1600x1200x4xAAx16AF durchaus nötig, da derzeit es einfach nicht möglich ist die karten sonst auszulasten in den meisten spielen.

Tigerchen
2004-05-29, 17:17:27
Original geschrieben von aths
Mir gehts darum, ein "natürliches" Bild zu haben. Das heißt, keine Treppeneffekte an Kanten. Scharfe Texturen. Richtige Licht/Schatten-Effekte, etc. pp. Dazu gehört auch, wahrnehmbares Ruckeln zu unterdrücken. Wenn man an Details sparen "muss", kann man imo das insgesamt "natürlichere" Bild bekommen.



Sehe ich das richtig daß du um "Lehrbuch-AF" möglich zu machen Details reduzieren würdest.?
Und das wäre nicht so schlimm weil ein detailreduziertes Bild natürlicher wirken kann als ein Bild was nicht bis in den letzten Winkel hinein scharf gefiltert wird?

MarcWessels
2004-05-29, 17:39:33
Original geschrieben von Raff
[x] Mal das, mal jenes. Hängt vom Spiel ab

Es gibt Spiele, die sind so schnell, dass einem der lächerliche Qualitätsverlust garnicht auffällt und wo man lieber etwas mehr Speed hat. Beispiele: UT2004, Racing-Games.

Wie bitte?? GERADE bei Racing-Games sind die Bugwellen auf der Strecke genau im Focus!!!

Wolfram
2004-05-29, 21:05:45
Original geschrieben von aths
Mir gehts darum, ein "natürliches" Bild zu haben. Das heißt, keine Treppeneffekte an Kanten. Scharfe Texturen. Richtige Licht/Schatten-Effekte, etc. pp. Dazu gehört auch, wahrnehmbares Ruckeln zu unterdrücken. Wenn man an Details sparen "muss", kann man imo das insgesamt "natürlichere" Bild bekommen.

PAL-DVDs haben eine Auflösung von 576 Zeilen (die oftmals nicht ausgenutzt wird.) Warum zum Geier soll ich z. B. in 1600x1200 spielen? Dass ATI und Nvidia das als neuen Standard setzen wollen, sehe ich nicht so recht ein. Es kann gar keine allgemeingültige "gute" Standardauflösung für Benchmarks geben.
Die Sache mit dem natürlichen Bild kann ich nur unterstützen. Insbesondere die Beleuchtung ist IMO auch eine der großen Stärken von Half-Life gewesen. Wenn das Licht authentisch wirkt, kann man auf viele andere Details verzichten.

Was die Auflösung angeht: Ich bin mit 800x600 bei vollem AA und AF auf einem 19er-Röhrenmonitor auch nicht recht zurfrieden. Vielleicht liegt's daran, daß bei Filmen die Aufmerksamkeit gelenkt wird und im übrigen meistens auf den Vordergrund fixiert ist. Nie aber auf kaum sichtbare Details im Hintergrund. Wenn überhaupt, wird dann mit der (Tiefen-)Schärfe gearbeitet, um die Aufmerksamkeit auf entfernter liegende Objekte zu lenken.

Das ist in vielen Spielen anders. Wenn ich mich in Außenlevels heranpirschen und die Umgebung sondieren muß, kommt es eben häufig darauf an, entfernte Details genau zu erkennen. Das geht mit hohen Auflösungen besser. Allerdings auch mit AA.

Wenn sich die Handlung mehr auf den Vordergrund fokussiert, ist es dann wieder Wurscht. Gibt eben nur auch viele Spiele mit Sniper-Elementen (und wenn's nur ne Railgun ist :D).

aths
2004-05-29, 23:05:30
Original geschrieben von Tigerchen
[COLOR="#000088"]
Sehe ich das richtig daß du um "Lehrbuch-AF" möglich zu machen Details reduzieren würdest.? Wenn es dem Spiel mehr bringt, als man wegen der Details verliert, natürlich.
Original geschrieben von Tigerchen
Und das wäre nicht so schlimm weil ein detailreduziertes Bild natürlicher wirken kann als ein Bild was nicht bis in den letzten Winkel hinein scharf gefiltert wird?In der Natur hängt "Texturschärfe" nun mal nicht vom Winkel um die Z-Achse der "Sichtfläche" ab.

aths
2004-05-29, 23:09:27
Original geschrieben von Wolfram
Was die Auflösung angeht: Ich bin mit 800x600 bei vollem AA und AF auf einem 19er-Röhrenmonitor auch nicht recht zurfrieden. Mit 800x600 kann ich inzwischen besser leben als früher, Doublescan sei's gedankt :) Darunter würde ich, Doublescan hin oder her, nur ungerne gehen. 1024x768 finde ich "voll ok", ab 1280x960 stecke ich mögliche Leistungsüberschüsse garantiert nicht mehr in höhere Auflösung.

Tigerchen
2004-05-30, 06:29:16
Original geschrieben von aths
Wenn es dem Spiel mehr bringt, als man wegen der Details verliert, natürlich.
In der Natur hängt "Texturschärfe" nun mal nicht vom Winkel um die Z-Achse der "Sichtfläche" ab.

Ein natürliches Bild ist überhaupt nicht mit einem computergenerierten Bild wie es typischerweise in Spielen angeboten wird vergleichbar. Ohne das Thema jetzt vertiefen zu wollen sag ich jetzt mal das dein Argument an der Wirklichkeit vorbeigeht.

Details heruntersetzen um ein perfektes AF zu ermöglichen ist für mich nicht akzeptabel. Das winkelabhängige AF ist so gut daß der Qualitätsverlust durch runterschrauben von Details immer, ja immer, erheblich größer ist.


Winkelabhängiges AF ist unabdingbar für so einige jetzige und viele kommende Games. Ich glaube Epic hat ja angedeutet daß die kommende Unreal-Engine den Einsatz von AA/AF unmöglich machen wird. Ich glaube zwar daß da übertrieben wird aber dennoch haben adaptive Verfahren bei kommenden Krachern die auf diese oder ähnliche Engines aufsetzen einen gewaltigen Vorteil. Und nVIDIA hat gut daran getan dies zu erkennen.

Quasar
2004-05-30, 07:53:58
Mark Rein von Epic bezog dies nur auf AA.
Außerdem spricht nichts gegen dein winkelabhängiges, nur auf der ersten Textur reduziert-trilinear filterndes, mit verschobenem LOD Pixelflimmern begünstigendes AF.

Ist es aber wirklich so schwer für dich zu akzeptieren, daß andere Menschen vielleicht einfach einen Button im Treiber wollen, der erlaubt all diesen Dreck abzuschalten?

Ich fahre lieber in einem fetten Mercedes mit 200 km/h und höre gerade mal ein leises Säuseln, als in einem Ferrari, dem bis auf das nötigste alles fehlt mit 300 km/h und muss schreien, um mich mit meinem Beifahrer zu verständigen.
Besonders gilt dies Innerorts und auf Landstraßen - dort nützt es mir nämlich nichts, daß der Ferrari 100 km/h schneller ist, aber ich muss immer noch seine Komfortmäßigen Unzulänglichkeiten ertragen.

Tigerchen
2004-05-30, 09:45:58
Original geschrieben von Quasar
Mark Rein von Epic bezog dies nur auf AA.
Außerdem spricht nichts gegen dein winkelabhängiges, nur auf der ersten Textur reduziert-trilinear filterndes, mit verschobenem LOD Pixelflimmern begünstigendes AF.

Ist es aber wirklich so schwer für dich zu akzeptieren, daß andere Menschen vielleicht einfach einen Button im Treiber wollen, der erlaubt all diesen Dreck abzuschalten?

Ich fahre lieber in einem fetten Mercedes mit 200 km/h und höre gerade mal ein leises Säuseln, als in einem Ferrari, dem bis auf das nötigste alles fehlt mit 300 km/h und muss schreien, um mich mit meinem Beifahrer zu verständigen.
Besonders gilt dies Innerorts und auf Landstraßen - dort nützt es mir nämlich nichts, daß der Ferrari 100 km/h schneller ist, aber ich muss immer noch seine Komfortmäßigen Unzulänglichkeiten ertragen.

Ein Auto ist keine Grafikkarte. Das geht völlig am Thema vorbei.
Nach 2 Jahren wird plötzlich ein Button gefordert weil ein Führer das fordert und alle laufen hinterher. So sehe ich diesen Sturm der Entrüstung den ein gewisser Guru vom Zaun gebrochen hat.
Da nehm ich mir einfach die Freiheit eine andere Sichtweise mit genau so großer Vehemenz vorzutragen. Frech nicht wahr?

Wolfram
2004-05-30, 10:30:27
Original geschrieben von Tigerchen
Ein natürliches Bild ist überhaupt nicht mit einem computergenerierten Bild wie es typischerweise in Spielen angeboten wird vergleichbar.
Warum nicht? aths meint, das Bild auf dem Schirm solle dem möglichst ähneln, was wir sonst beim Blick in die Landschaft wahrnehmen. Ist das nicht genau das, wo Spielegrafik erkennbar hin will (was auch immer man davon hält)?

ShadowXX
2004-05-30, 11:17:05
Original geschrieben von Tigerchen

Ein Auto ist keine Grafikkarte. Das geht völlig am Thema vorbei.
Nach 2 Jahren wird plötzlich ein Button gefordert weil ein Führer das fordert und alle laufen hinterher. So sehe ich diesen Sturm der Entrüstung den ein gewisser Guru vom Zaun gebrochen hat.
Da nehm ich mir einfach die Freiheit eine andere Sichtweise mit genau so großer Vehemenz vorzutragen. Frech nicht wahr?


Wieso nach 2 Jahren??? Die "alten" Karten konnten ja alle FullTri bzw. besseres AF...

Da brauchte man nichts "fordern"....und als nV ihr Bri einführte wurde auch schon damals ziemlich heftig darüber gemeckert...(überigens zum grössten Teil von ATI-Karten Besitzern (zu denen ich übrigens auch gehöre))

Mad-Marty
2004-05-30, 11:43:37
@Aths

Was sagst du zu der Thematik mit ungleichen Tests sollte ein hersteller es deaktivieren, bzw. den millionen out of the box käufern die nur schwerlich AA sehen oder nicht ?

http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=1858092#post1858092


@ Tigerchen :

Ja genauso sehe ich aths einstellung auch, spieldetailsw weglassen um annähernd optimalstes af zu haben.

Allerdings sollen auch diese ihren disable button bekommen,
schlimm wirds nur dann, wenn benchmarks damit gefahren werden (und darauf hin die jeweilige karte empfohlen wird), weil wahrscheinlich nicht mal 0,5 % der käufer
tri-af aktivieren werden.

Da könnte man ja auch gleich wieder zu SSFSAA zurückgehen, im endeffekt ist MSFSAA auch nur optimiertes SSFSAA - mit dem entsprechenden nachteil bei alphatexturen.

Tigerchen
2004-05-30, 12:00:23
Original geschrieben von Wolfram
Warum nicht? aths meint, das Bild auf dem Schirm solle dem möglichst ähneln, was wir sonst beim Blick in die Landschaft wahrnehmen. Ist das nicht genau das, wo Spielegrafik erkennbar hin will (was auch immer man davon hält)?

Willst du etwa behaupten ein heutiges "typisches" Spielebild wäre irgendwie natürlich? Natürlich will man dem Vorbild immer näher kommen. Aber mit AF hat das wenig zu tun.
Ich hab ja schon so einige Landschaftsbilder gemalt und weiß also wo die Probleme beim Raum in der Tiefe liegen. Für ein natürliches Bild ist es unabdingbar daß du die hinten liegenden Bildteile unscharf malst. Bei weit entfernten Bergen z.B. ist neben der Unschärfe noch ein verschieben der Farbtöne in Richtung blau sehr hilfreich um eine gewisse Räumlichkeit zu suggerieren. Dann spielt das Licht noch eine große Rolle. Die Sonne ist am Mittelmeer ganz anders und kann metaphysisch harte Schatten erzeugen. Ganz im Gegensatz z.B. zur Wintersonne an der Nordsee. Da muß dann die ganze Farbgebung einen diffusen Touch haben um realistisch zu wirken.

aths sieht alles aus der technisch-mathematischen Sicht. Will man natürliche Bilder und Farbverläufe richtig sehen und verstehen muß man aber von der künstlerischen Seite an die Problematik herangehen.
Daher sind Dinge wie AA/AF für Computergrafik gut und wichtig aber man sollte daß vom Begriff "Natürlichkeit" doch bitte trennen.

Tigerchen
2004-05-30, 12:07:50
Original geschrieben von ShadowXX
Wieso nach 2 Jahren??? Die "alten" Karten konnten ja alle FullTri bzw. besseres AF...

Da brauchte man nichts "fordern"....und als nV ihr Bri einführte wurde auch schon damals ziemlich heftig darüber gemeckert...(überigens zum grössten Teil von ATI-Karten Besitzern (zu denen ich übrigens auch gehöre))

Also besseres AF kann die R300 auch nicht. Ist schon winkelabhängig. Ich sag im Moment ja nichts zum bri-Filter auf ATI-Karten weil viele da keine Nachteile sehen, einige andere aber schon. Allerdings erst nachdem sie darauf aufmerksam gemacht wurden. Anscheinend ist kein wirklich in der Lage das Bri-AF von ATI objektiv einzuschätzen.
Blindtests wie sie z.B. bei Kaffee, Cola oder Pralinen gemacht werden wären sicher besser als wenn da ein voreingenommener Guru Tests macht um seine feststehende Meinung zu zementieren.

LovesuckZ
2004-05-30, 12:21:54
Original geschrieben von Tigerchen

Anscheinend ist kein wirklich in der Lage das Bri-AF von ATI objektiv einzuschätzen.


grestorn ist "in der Lage das Bri-AF von ATI objektiv einzuschätzen".

Quasar
2004-05-30, 12:23:33
Original geschrieben von Tigerchen

Ein Auto ist keine Grafikkarte. Das geht völlig am Thema vorbei.
Nach 2 Jahren wird plötzlich ein Button gefordert weil ein Führer das fordert und alle laufen hinterher. So sehe ich diesen Sturm der Entrüstung den ein gewisser Guru vom Zaun gebrochen hat.
Da nehm ich mir einfach die Freiheit eine andere Sichtweise mit genau so großer Vehemenz vorzutragen. Frech nicht wahr?


Nein, dein gutes Recht, welches dir auch keiner absprechen will - das Problem ist m.E. nur, daß viele sich der Konsequenzen (und wenn es nur mögliche Konsequenzen sind) einfach nicht bewußt sind.
Wenn sie es sind und diese "Optimierungen" (um es einmal möglichst neutral zu formulieren) trotzdem gutheißen - bitte sehr.

Genauso solltest du IMO aber auch denen zugestehen, die sich nicht von den IHVs mit einer Bildqualität, die unter der einer GF3 aus dem Jahre 2001 liegt, abspeisen lassen wollen, ihre Ablehnung auszudrücken.

aths
2004-05-30, 12:34:11
Original geschrieben von Tigerchen
[COLOR="#000088"]
aths sieht alles aus der technisch-mathematischen Sicht. Nein.

Das AF z. B. hat nichts damit zu tun, wie eine Textur in der Ferne aussieht, auf die man orthogonal sieht. Aber um die gleiche Schärfe auch bei anderen Sichtwinkeln zu liefern, braucht es AF. Um verzerrte Texturen i. A. richtig darzustellen, brauchts AF.

Für deinen Farbübergang gibt es Fog, was ab Voodoo1 ganz gut funktioniert. Depth of Field hingegen ist heute noch immer nicht so einfach zu machen.

Aber vielleicht hast du ja eine Erklärung, wie du ohne Mathematik die Realität im Computer abbilden willst :) wenn du schon gewisses (bei mir von viel zu dürftiges) Mathe-Hintergrundwissen offenbar ziemlich geringschätzt.

Zum Beispiel kommt es gerade aus meinem Sinn für ein "natürliches" Bild, so gutes AF wie möglich zu fordern.

ShadowXX
2004-05-30, 15:41:56
Original geschrieben von Tigerchen

Also besseres AF kann die R300 auch nicht. Ist schon winkelabhängig. Ich sag im Moment ja nichts zum bri-Filter auf ATI-Karten weil viele da keine Nachteile sehen, einige andere aber schon. Allerdings erst nachdem sie darauf aufmerksam gemacht wurden. Anscheinend ist kein wirklich in der Lage das Bri-AF von ATI objektiv einzuschätzen.
Blindtests wie sie z.B. bei Kaffee, Cola oder Pralinen gemacht werden wären sicher besser als wenn da ein voreingenommener Guru Tests macht um seine feststehende Meinung zu zementieren.



Die r300 nicht...die GFs vor dem n40 schon....

Und obwohl ich einen r350 habe und auch dessen AF benutze, muss ich es doch trotzdem nicht schön finden bzw. diese Optimierung gutheissen...

Das nV dem nv40 auch nur Winkelabhängiges AF spendiert hat, find ich auch sehr sehr schade....ich hoffe, dass Sie weigstens den FullTri Button drinne lassen (wenn nicht, werde ich wohl auch dieseGen überspringen)

In einem anderen Thread habe ich es schonmal erwähnt:
Es geht mir gar nicht so sehr darum, das ich in jedem Game nun den untersched zwischen Bri und Tri sehen kann, bzw. überhaupt entdecke....es geht darum, das dieser Tend gestoppt werden muss.

Und damit meine ich weniger die Möglichkeit der Optimierung, sondern mehr den Zwang dazu diese zu benutzen...

Und soviel langsamer ist FullTri gegenüber Bri nun auch nicht...wir reden hier von 10 bis 15% Performance (wenns hoch kommt).
Klar bei AF siehts etwas anders aus..aber auch da wäre es löblich, neben einem optimiertem AF ein GF3/4-like AF zu bieten...

Ich weiss auch gar nicht, was so viele gegen einen FullTri-Button im CP haben...er schadet doch niemanden...

Tigerchen
2004-05-30, 19:46:54
Original geschrieben von aths
Nein.

Das AF z. B. hat nichts damit zu tun, wie eine Textur in der Ferne aussieht, auf die man orthogonal sieht. Aber um die gleiche Schärfe auch bei anderen Sichtwinkeln zu liefern, braucht es AF. Um verzerrte Texturen i. A. richtig darzustellen, brauchts AF.

Für deinen Farbübergang gibt es Fog, was ab Voodoo1 ganz gut funktioniert. Depth of Field hingegen ist heute noch immer nicht so einfach zu machen.

Aber vielleicht hast du ja eine Erklärung, wie du ohne Mathematik die Realität im Computer abbilden willst :) wenn du schon gewisses (bei mir von viel zu dürftiges) Mathe-Hintergrundwissen offenbar ziemlich geringschätzt.

Zum Beispiel kommt es gerade aus meinem Sinn für ein "natürliches" Bild, so gutes AF wie möglich zu fordern.

Ich schätze dein Wissen nicht gering ein. Visuelle Wahrnehmung ist aber mehr als Mathematik. Ein natürliches Bild in Computerspielen zu erstellen ist noch nicht wirklich möglich. Und dabei ist es wurscht ob jetzt winkelabhängiges AF verwendet wird oder nicht. Der Unterschied ist viel zu gering um dem einen Verfahren das Prädikat "unnatürlich" zu verleihen.

Was ich so an Fog und Schatten in PC-Spielen bisher gesehen habe ist übrigens mehr als erbärmlich. Sogar viele Filmeffekte sind eher lächerlich als lebensecht. Hab grad einen Ausschnitt aus van Helsing gesehen wo eine Kutsche über einen riesigen Abgrund sprang. Auweia, es ist noch ein weiter Weg bis zu natürlichen Bildern.

Tigerchen
2004-05-30, 19:48:39
Original geschrieben von Quasar
Nein, dein gutes Recht, welches dir auch keiner absprechen will - das Problem ist m.E. nur, daß viele sich der Konsequenzen (und wenn es nur mögliche Konsequenzen sind) einfach nicht bewußt sind.
Wenn sie es sind und diese "Optimierungen" (um es einmal möglichst neutral zu formulieren) trotzdem gutheißen - bitte sehr.

Genauso solltest du IMO aber auch denen zugestehen, die sich nicht von den IHVs mit einer Bildqualität, die unter der einer GF3 aus dem Jahre 2001 liegt, abspeisen lassen wollen, ihre Ablehnung auszudrücken.

Aber sicher doch.

Quasar
2004-05-30, 19:53:37
Danke schön! =)

Haarmann
2004-05-30, 20:43:14
Schnellere Bildabfolge ist auch eine Form von Bildqualität, aber nur bis zu nem bestimmten Punkt -> je nach je eben.

Demirug
2004-05-30, 20:56:49
Original geschrieben von Haarmann
Schnellere Bildabfolge ist auch eine Form von Bildqualität, aber nur bis zu nem bestimmten Punkt -> je nach je eben.

Schneller (bis zum CPU-Limit) geht ja fast immer wenn man freiwillig auf Filter-Qualität verzichtet.

Wolfram
2004-05-30, 21:22:13
Original geschrieben von aths
Depth of Field hingegen ist heute noch immer nicht so einfach zu machen.
Mal kurz OT: Depth of Field hab ich das erste Mal bei Outcast gesehen. Ist das aber bei einem Computerspiel nicht Quatsch? Der Blick schweift ja über das Bild (zumindest einen großen Teil davon) hinweg, ist also gerade nicht auf die Bildmitte fixiert. Im Film wird Tiefenschärfe ja auch zur Lenkung der Aufmerksamkeit verwendet. Wenn ich aber einen Shooter heutiger Bauart und Spielweise habe, wird der Blick gerade nicht gelenkt, sondern kann sich frei bewegen.

Wolfram
2004-05-30, 21:28:10
Original geschrieben von Tigerchen
Ich schätze dein Wissen nicht gering ein. Visuelle Wahrnehmung ist aber mehr als Mathematik. Ein natürliches Bild in Computerspielen zu erstellen ist noch nicht wirklich möglich. Und dabei ist es wurscht ob jetzt winkelabhängiges AF verwendet wird oder nicht. Der Unterschied ist viel zu gering um dem einen Verfahren das Prädikat "unnatürlich" zu verleihen.

Was ich so an Fog und Schatten in PC-Spielen bisher gesehen habe ist übrigens mehr als erbärmlich. Sogar viele Filmeffekte sind eher lächerlich als lebensecht. Hab grad einen Ausschnitt aus van Helsing gesehen wo eine Kutsche über einen riesigen Abgrund sprang. Auweia, es ist noch ein weiter Weg bis zu natürlichen Bildern.

Das ist natürlich wahr. Aber dem Ideal wird man sich nicht besser nähern können, wenn man auf sinnvolle Methoden zur Bildqualitätsverbesserung verzichtet.

"Natürliches" Bild... das ist sowieso ein problematischer Ausdruck. Wieweit ist ein Fernsehbild "natürlich"? Ein Kinofilmfilmbild? Solange die Bilder auf einem Schirm gesehen werden, haben wir eh eine grundsätzlich andere Form der visuellen Wahrnehmung. Von der Wahrnehmung der "Bewegung" ganz zu schweigen.

aths
2004-05-30, 21:31:45
Original geschrieben von Tigerchen
[COLOR="#000088"]
Ich schätze dein Wissen nicht gering ein. Visuelle Wahrnehmung ist aber mehr als Mathematik.Natürlich. Nur, wie will man Realismus künstlich erzeugen, wenn ihn nicht mathematisch beschreiben kann? Dabei wird man immer Vereinfachungen inkauf nehmen müssten, das einzige Ding was die Welt wirklich realistisch wiedergeben kann, ist die Welt selbst.
Original geschrieben von Tigerchen
Ein natürliches Bild in Computerspielen zu erstellen ist noch nicht wirklich möglich. Und dabei ist es wurscht ob jetzt winkelabhängiges AF verwendet wird oder nicht. Der Unterschied ist viel zu gering um dem einen Verfahren das Prädikat "unnatürlich" zu verleihen. Dir mag es wurscht sein. Ich sehe das anders.
Original geschrieben von Tigerchen
Was ich so an Fog und Schatten in PC-Spielen bisher gesehen habe ist übrigens mehr als erbärmlich. Sogar viele Filmeffekte sind eher lächerlich als lebensecht. Hab grad einen Ausschnitt aus van Helsing gesehen wo eine Kutsche über einen riesigen Abgrund sprang. Auweia, es ist noch ein weiter Weg bis zu natürlichen Bildern. Immerhin, die Grafikkarten sind mit SM 3.0 jetzt "wirklich programmierbar" geworden. Schritt für Schritt wird der Fotorealismus Wirklichkeit werden.

Mad-Marty
2004-05-30, 22:25:57
Original geschrieben von ShadowXX
[...]
In einem anderen Thread habe ich es schonmal erwähnt:
Es geht mir gar nicht so sehr darum, das ich in jedem Game nun den untersched zwischen Bri und Tri sehen kann, bzw. überhaupt entdecke....es geht darum, das dieser Tend gestoppt werden muss.

Und damit meine ich weniger die Möglichkeit der Optimierung, sondern mehr den Zwang dazu diese zu benutzen...



Diese ansicht ist durchaus nachvollziehbar, ich denke mit entfernen des zwangs wären alle zufrieden, wenn auch noch die optimiert user optimiert nutzen können. Die optimierungen sollte nach möglichkeit dennoch verbessert werden, 99 % eines originalen AF bei 50 % des ressourcenhungers wäre doch was ;-).


Ich weiss auch gar nicht, was so viele gegen einen FullTri-Button im CP haben...er schadet doch niemanden...

Nunja, die gründe die dagegensprechen habe ich irgenwo vor ein paar seiten schon mal geschrieben, dann gehen wieder subjektive Benchmarksettings los. Z.b. könnte jemand auf die idee kommen nv's bri ist besser als ATis, also wird mal fix nv bri vs ati full gebencht ...

Ich denke auch das ist die hauptangst der ihv an dieser stelle, wer langsamer ist, verliert am markt!
Hat man ja in der vergangenheit deutlich schon gesehen das der markt für IQ Fans viel zu klein ist.

95 % interessiert wärme, lautstärke, AF art oder AA art absolut nicht die bohne, entscheidend ist wo der längere balken ist.

Tigerchen
2004-05-31, 06:32:15
Original geschrieben von Wolfram
Das ist natürlich wahr. Aber dem Ideal wird man sich nicht besser nähern können, wenn man auf sinnvolle Methoden zur Bildqualitätsverbesserung verzichtet.

"Natürliches" Bild... das ist sowieso ein problematischer Ausdruck. Wieweit ist ein Fernsehbild "natürlich"? Ein Kinofilmfilmbild? Solange die Bilder auf einem Schirm gesehen werden, haben wir eh eine grundsätzlich andere Form der visuellen Wahrnehmung. Von der Wahrnehmung der "Bewegung" ganz zu schweigen.

Eigentlich wollte ich ja nur darauf hinaus daß "natürliches Bild" ein problematischer Ausdruck ist und aths diesen Ausdruck bitte außen vor lassen möchte.:)

SKYNET
2004-05-31, 12:31:21
[x] Immer Optimiert, dafür andere Settings höher (Speed Rules)


;D ;D ;D

McUwe
2004-06-01, 09:58:42
[x]immer unoptimiert!

Original geschrieben von Iwan
Ach bla, die Optmierungen fallen beim Zocken garnet auf.

Dann spiele doch mal auf einer ATI Radeon z.B.: IL-2 und starte auf einer beliebigen Betonpiste. Das AF-Geflimmer am Ende der Betonpiste ist zum :puke:
Sowas sieht man im Spiel wie schon ATHS schrieb viel besser als auf einem Screenshot!

Tjell
2004-06-02, 08:56:05
...ein Künstler (GF3), der schuf die Mona Lisa, ein Meisterwerk der Malkunst.

Sein Käufer jedoch wollte nicht nur ein hervorragendes Bild, sondern eine ganze Serie, damit man eine geschmeidige Bewegung darstellen könne.

Der Künstler jedoch meinte, daß dies nicht möglich sei und man nur mit einem einzigen aber dafür wunderschönen Gemälde auskommen müsse.

Da begab es sich, daß zwei Künstlerwerkstätten, mit Name NVidia und Ati, eine Lösung für das Problem das Kunden anboten.

Es sollten statt einem Künstler mehrere an demselben Bild gleichzeitig arbeiten (gestiegene Transistormenge allgemein). Es leuchtetet dem Kunden auch gleich ein, daß mehrere Künstler viel schneller seien als einer alleine, und er freute sich schon, seine Mona Lisa nun endlich in mehreren Bildern in einem Bewegungsablauf bewundern zu dürfen.

Doch welche Werkstatt beauftragen? So fragte er einen Fachkundigen um dessen Rat und der Fachkundige tat wie ihm geheißen. Er beschäftigte sich mit den Arbeitsweisen der Künstlerwerkstätten und begutachtete die fertigen Werke.

Nach 1 Monat war er soweit:
Im ersten Fall bei NVidia fand er 22 Künstler vor, die zufrieden vor Ihren 10 Bildern für die Darstellung der vom Kunden gewünschte Bewegung.
Erarbeitet wurde dieses Ergebnis, wie sie selbst bekundeten, mit 16er und 32er Ölfarbe. Die Anleitung des Werkstattmeisters zur Erstellung war 3 Seiten lang und sehr vielseitig verfaßt mit vielen Verweisen im Text.
Doch, oh weh, was stellte der Fachkundige nach genauer Betrachtung der recht ansehnlichen Bilder fest? Sie waren nicht in der altehrwürdigen Maltechnik gefertigt, sondern in einem vereinfachten "Malen-nach-Zahlen"-Schema gemalt worden. Dessen hätte man nicht bedurft. Obwohl, vielleicht wäre der Kunde ja doch zufrieden?

Schaute er sich dann halt den zweiten Fall an:
Der Fachkundige war nun in der Künstlerwerkstätte Ati, wo er 16 Künstler und 11 Bilder vorfand.
Er war sichtlich beeindruckt: weniger Künstler und glatt ein Bild mehr als bei NVidia. Wie war das zustande gekommen?
Wie festzustellen war, nutzten die Ati-Künstler nur eine grobe 24er Mischfarbe, die die Arbeit erleichterte, aber dem Endergebnis nicht unbedingt abträglich war. Die Anleitung des Werkstattmeisters beschränkte sich auf 2 Seiten und hatte weniger Verweise und Ausnahmen, war aber leichter zu befolgen und schließlich war das Ergebnis ja doch hervorragend. Oder doch nicht? Der Fachkundige erinnerte sich an das "Malen-nach-Zahlen"-Prinzip der ersten Werkstätte - und fand hier nach genauer Betrachtung ein ebensolches, nur mit anderer Untergliederung. Aber dennoch, zählte nicht, daß der Kunde nun in vergleichbarer Qualität stattdessen 11 Bilder sein eigen nennen könnte?

Oder war die Qualität nun doch nicht vergleichbar?

Nach wieder 1 Monat zeigte sich dem Fachkundigen in allen vielen verschiedenen Kriterien die Arbeitsweise der beiden Künstlerwerkstätten, jeder hat seine Arbeitsweise auf eine andere Art optimiert, um dem Wunsch des Kunden nach einer möglichst lückenlosen Darstellung eines Bewegungsablaufs im festgesetzten Zeitrahmen zu verwirklichen.

Der Fachkundige hielt nochmal inne, besah sich die Ergebnisse - das Original der Mona Lisa, die NVidia-Bilderreihe sowie die Ati-Bilderreihe - und kam nicht umhin, die größte Schönheit dem Original zuzusprechen. Nur ließ das Original keine Bewegung erkennen.

Bei NVidia und Ati sah man die Bewegung in den Bildern, doch waren sie von minderer Malkunst.

Was würde der Kunde nun sagen? Wäre er zufrieden, mit dem was man ihm anbot? Eines weiß der Fachkundige: die 22 Künstler von NVidia und die 16 Künstler von Ati waren hervorragende Maler, das zeigten ihm die ausgeklügelten Maltechniken, die mehr vorgaben zu zeigen, als sie es tatsächlich taten.

Schlußendlich blieb dem Fachkundigen nur ein bohrender Gedanke: Hätten solche Künstler nicht lieber die Qualität des Originals erreichen sollen, auch wenn es am Ende 2 oder 3 Bilder weniger gewesen wären?

...


Und die Moral von der Geschicht:
Klasse hat man. Oder nicht?

robbitop
2004-06-02, 10:36:01
*gg* falsches Forum? ;)

je nach Spiel ändere ich den AF Grad, aber ich stelle und erzwinge (wenn möglich) das bestmögliche AF.

Tjell
2004-06-02, 11:19:41
[QUOTE][SIZE=1]Original geschrieben von robbitop
*gg* falsches Forum? ;)
QUOTE]

Ups. Ne, wollte noch schreiben daß es für mich hauptsächlich auf immer bessere Bildqualität ankommt, da auf meinem 19"-Monitor die Auflösung von 1600 × 1200 nicht augenfreundlich dargestellt werden kann.

Also bleibt mir nur das Optimum 1280 × 960 bei dem ich bildverbessernde Maßnahmen wie AF und AA in bester Qualität auf meinem Schirm erwarte.

Bevormunden lassen, wie die "beste" Qualität auszusehen hat, will ich mich nicht.

Einmal an AA und AF gewöhnt möchte ich das nicht mehr missen und würde nur bei Rucklern, also niedriger Framerate, auf Optimierungs-Modi ausweichen.

ShiShingu
2004-06-02, 14:05:41
hmmm... früher hab ichs genutzt - mittlerweile nicht mehr...

obwohl frisst eigentlich AA oder AF mehr leistung, bzw. welche allgemeinen AA/AF settings würdet ihr mit bei na radeon 9700 empfehlen?(spiel so alles auf 1024x768 max detail)

robbitop
2004-06-02, 14:11:41
probiers einfach aus.
Je nach Situation frisst es viel/wenig Power und je nach dem frisst das eine Feature mehr als das andere. Pauschalaussagen sind imo nicht drin.

McUwe
2004-06-02, 14:17:44
Original geschrieben von ShiShingu
obwohl frisst eigentlich AA oder AF mehr leistung, bzw. welche allgemeinen AA/AF settings würdet ihr mit bei na radeon 9700 empfehlen?(spiel so alles auf 1024x768 max detail)
Wenn du Flugsimulatoren spielst, dann schraube AA so hoch wie möglich. Bei allen anderen Spielen würde ich zuerst AF hoch setzen und wenns noch nicht ruckelt 2xAA dazu. WAS spielst du ?(

ShiShingu
2004-06-02, 14:32:07
Original geschrieben von McUwe
Wenn du Flugsimulatoren spielst, dann schraube AA so hoch wie möglich. Bei allen anderen Spielen würde ich zuerst AF hoch setzen und wenns noch nicht ruckelt 2xAA dazu. WAS spielst du ?(

überwiegend shooter, autorennen...

robbitop
2004-06-02, 14:34:30
da ist AA/AF eher unwichtig.
bei shootern würde ich AA bevorzugen bei Autorennen brauch man beides eher nicht.

Grestorn
2004-06-02, 14:49:02
Original geschrieben von robbitop
da ist AA/AF eher unwichtig.
bei shootern würde ich AA bevorzugen bei Autorennen brauch man beides eher nicht.
Völlig falsch, gerade bei Autorennen ist AF absolute Pflicht!

Denn: Ohne AF zerfasern die Linien (Strassenbegrenzung, Mittelstrich) in der Entfernung (immer im gleichen Abstand zum Auto), und das sieht einfach nur Sch... aus!

robbitop
2004-06-02, 14:57:59
hm das ist meine persönliche Erfahrung. Besonders bei NFS und GTA sind mir aufgefallen, dass mir AA/AF nicht auffallen.

ich denke das muss jeder für sich selbst wissen

MarcWessels
2004-06-02, 15:12:56
Ja, super... bei NFS-Underground hast Du ja auch derart verwaschene Straßen-Texturen, daß AF kaum auffällt, noch nichtmal in irgendeiner Art und Weise das Geschwindigkeitsgefühl verbessert.

Aber ansonsten ist das keine Geschmackssache sondern schlicht Fakt, daß in Rennspielen und Rennsimulationenein AF-Grad von mindestens 4x wichtig und essentiell ist

a)um ein gescheites Geschwindigkeitsgefühl zu bekommen und

b)um in Rallyspielen tatsächlich durch Kies (statt grauem Matsch), halbtrockenem und rissigem Matsch (statt brauner Brühe) etc. zu fahren


Bei Ego-Shootern ist auch (gerade bei den hochaufgelösten Texturen heutzutage) AF sehr wichtig, während AA eher hinten anzustehen hat. Es sieht einfach albern aus, wenn ich beispielsweise schönen, feinkörnigen Sand habe und der sich zwei Schritt entfernt in beige einfarbige Flächen verwandelt.

BodyLove
2004-06-02, 15:13:18
Original geschrieben von robbitop
da ist AA/AF eher unwichtig.
bei shootern würde ich AA bevorzugen bei Autorennen brauch man beides eher nicht.

Würde ich nicht unterschreiben wollen. Speziell bei Autorennen merkt man imho sehr gut, was man verstellt, wenn man AA und AF einschaltet. Ich halte es schon für wichtig.

MarcWessels
2004-06-02, 15:14:19
Original geschrieben von Tjell
[QUOTE][SIZE=1]Original geschrieben von robbitop
*gg* falsches Forum? ;)
QUOTE], da auf meinem 19"-Monitor die Auflösung von 1600 × 1200 nicht augenfreundlich dargestellt werden kann.

Was meinst Du damit?

McUwe
2004-06-02, 15:16:46
Original geschrieben von grestorn
Völlig falsch, gerade bei Autorennen ist AF absolute Pflicht!

Denn: Ohne AF zerfasern die Linien (Strassenbegrenzung, Mittelstrich) in der Entfernung (immer im gleichen Abstand zum Auto), und das sieht einfach nur Sch... aus!
Richtig! Aber wenns noch nicht ruckelt dann bitte wenigstens noch 2x AA dazu, sonst sieht so ein Auto aus der "KameraHinterherSchwebPosition" arg kantig aus.

MarcWessels
2004-06-02, 15:17:47
Original geschrieben von BodyLove
Würde ich nicht unterschreiben wollen. Speziell bei Autorennen merkt man imho sehr gut, was man verstellt, wenn man AA und AF einschaltet. Ich halte es schon für wichtig.

Hohe Frameraten sind dummerweise auch wichtig und mit einer normalen 9700er wird er da nicht weit kommen.

MarcWessels
2004-06-02, 15:18:41
Original geschrieben von McUwe
Richtig! Aber wenns noch nicht ruckelt dann bitte wenigstens noch 2x AA dazu, sonst sieht so ein Auto aus der "KameraHinterherSchwebPosition" arg kantig aus.

:kotz: IGITT! Wer benutzt DIE denn bitte?! Sind wir hier bei GIGA?

robbitop
2004-06-02, 15:21:53
Original geschrieben von MarcWessels
... essentiell ist...

a)um ein gescheites Geschwindigkeitsgefühl zu bekommen und

b)um in Rallyspielen tatsächlich durch Kies (statt grauem Matsch), halbtrockenem und rissigem Matsch (statt brauner Brühe) etc. zu fahren


Bei Ego-Shootern ist auch (gerade bei den hochaufgelösten Texturen heutzutage) AF sehr wichtig, während AA eher hinten anzustehen hat. Es sieht einfach albern aus, wenn ich beispielsweise schönen, feinkörnigen Sand habe und der sich zwei Schritt entfernt in beige einfarbige Flächen verwandelt.

1. nutz keine Worte die du nicht kennst
essentiell - überlebenswichtig
afaik ist AF nicht wichtig, um in irgendeiner Art zu überleben
2. wieso ändert AF etwas am Geschwindigkeitsgefühl?
3. AA sieht man recht häufig (an der Waffe und an Geländern). AF kommt darauf an wie schnell der Shooter ist und obs eine Ingamemap ist oder nicht und wie scharf die Texturen sind.

wie gesagt, das muss jeder für sich selbst rausfinden.
Pauschalaussagen sind imo wertlos

McUwe
2004-06-02, 15:24:26
Original geschrieben von MarcWessels
:kotz: IGITT! Wer benutzt DIE denn bitte?! Sind wir hier bei GIGA?

Ich. :D

Du hast Tjell gefragt was er meinte mit (Zitat) "da auf meinem 19"-Monitor die Auflösung von 1600 × 1200 nicht augenfreundlich dargestellt werden kann."

Ich habe 2 19Zöller. 1600x1200 sind technisch bedingt nur noch unscharf darstellbar. So einfach ist das. Wenn das dann auch noch ein 96KHz Monitor ist, flimmerts dann mit unerträglichen 60Hz.

Tjell
2004-06-02, 15:27:53
Original geschrieben von MarcWessels
Was meinst Du damit?

Mein 19-Zöller schafft die Auflösung 1600 × 1200 nicht mal mit 85 Hz (oder war es mit Ach und Krach???), ich wäre also eher auf 75 Hz beschränkt.

Und von 75 Hz bekomme ich Kopfschmerzen, weil ich es als Flimmern wahrnehme. :-(


P.S.
Ich glaube ich melde mich nun doch endlich mal als User hier im Forum an. Bis auf so kleine Flamewars gefällts mir hier :-)

MarcWessels
2004-06-02, 15:30:05
Original geschrieben von robbitop
1. nutz keine Worte die du nicht kennst
essentiell - überlebenswichtig
afaik ist AF nicht wichtig, um in irgendeiner Art zu überleben
2. wieso ändert AF etwas am Geschwindigkeitsgefühl?


1.Wird das Wort "essentiell" oft verwendet, um die dringliche Wichtigkeit von Dingen zu unterstreichen.

2.Na, je mehr Details (dazu gehören beispielsweise zahlreiche Objekte am Straßenrand, Risse/Strukturen im Asphalt u.v.a.)Dein Auge zur Orientierung hat um ein Gexchwindigkeitsgefühl zu entwickeln, desto besser, zumal im Falle von AF auch noch gleichzeitig die Tiefenwirkung verstärkt wird.

MarcWessels
2004-06-02, 15:33:10
Original geschrieben von Tjell
Mein 19-Zöller schafft die Auflösung 1600 × 1200 nicht mal mit 85 Hz (oder war es mit Ach und Krach???), ich wäre also eher auf 75 Hz beschränkt.

Und von 75 Hz bekomme ich Kopfschmerzen, weil ich es als Flimmern wahrnehme. :-(

In 60hz ist es aber vom Flüssigkeitsaspekt her, optimal zu spielen (Aufnahme/Wiedergabegeschwindigkeit).

Bekommst Du beim SNES, MegaDrive, PcEngine, Playstation, PS2, X-Box, Amiga, C64-spielen auch Kopfschmerzen? Die PAL-Versionen (die man anrürlich gerade bei Konsolen tunlichst vermeiden sollte) laufen gar mit 50hz.

MarcWessels
2004-06-02, 15:35:23
Original geschrieben von McUwe
Ich. :D

Du hast Tjell gefragt was er meinte mit (Zitat) "da auf meinem 19"-Monitor die Auflösung von 1600 × 1200 nicht augenfreundlich dargestellt werden kann."

Ich habe 2 19Zöller. 1600x1200 sind technisch bedingt nur noch unscharf darstellbar. So einfach ist das.

...was beim Arbeiten sicher unerträglich ist, nicht aber beim Zocken. Guck Dir mal "Pro Pinball - Fantastic Journey" an - das MUSS man sogar in 1600er Res spielen.

robbitop
2004-06-02, 15:46:54
@Mark

hm ist mir bisher noch nicht wirklich aufgefallen, kannst du mir ein Spiel empfehlen, an dem ich das besonders sehe (wie wärs mit CMR4?)?
dankeschön :)

McUwe
2004-06-02, 15:56:04
Original geschrieben von MarcWessels
...was beim Arbeiten sicher unerträglich ist, nicht aber beim Zocken. Guck Dir mal "Pro Pinball - Fantastic Journey" an - das MUSS man sogar in 1600er Res spielen.

Ich nehme bis 92Hz noch ein flimmern war (mit Matrox-Grafikkarten in 1Hz Schritten getestet). Spielen tue ich deswegen immer mit 120Hz in den niedrigen Auflösungen (800x600 - z.B.: Diablo 2) und mit 100Hz in den hohen Auflösungen (1280x960) alle modernen Spiele. Meine Monitore haben eine Horizontalfrequenz von 115 bzw. 110KHz.

Original geschrieben von MarcWessels
In 60hz ist es aber vom Flüssigkeitsaspekt her, optimal zu spielen (Aufnahme/Wiedergabegeschwindigkeit).

Du hast hier nicht was mit der V(ertikal)Sync on/off verwechselt?

Tjell
2004-06-02, 15:58:26
Original geschrieben von MarcWessels
In 60hz ist es aber vom Flüssigkeitsaspekt her, optimal zu spielen (Aufnahme/Wiedergabegeschwindigkeit).

Hä? Was hat "Aufnahme/Wiedergabegeschwindigkeit" denn mit Bildwiederholfrequenz zu tun?

[/QUOTE]
Bekommst Du beim SNES, MegaDrive, PcEngine, Playstation, PS2, X-Box, Amiga, C64-spielen auch Kopfschmerzen? Die PAL-Versionen (die man anrürlich gerade bei Konsolen tunlichst vermeiden sollte) laufen gar mit 50hz. [/QUOTE]

Ich habe nie eine Konsole besessen und werde mir wohl auch nie eine anschaffen. Im Übrigen: wenn man die an einen 100 Hz-TV anschließt, sind die dann nicht auch flimmerfrei? Hat doch nämlich nix mit der Framerate zu tun!?

Und ja, bei C64 und Amiga bekam ich Kopfschmerzen.
Nehme eben Bildflimmern stark wahr entgegen vieler anderer Mitmenschen :-)

Tjell
2004-06-02, 16:02:03
Ach Mist, könnte bitte ein Mod, wenn er denn die Zeit dazu hat, mein Zitat richtigstellen?

Kopieren/Einfügen hat da was "zerschossen" ;-)


Post kann dann gelöscht werden. THX

MarcWessels
2004-06-02, 18:58:47
Original geschrieben von robbitop
@Mark

hm ist mir bisher noch nicht wirklich aufgefallen, kannst du mir ein Spiel empfehlen, an dem ich das besonders sehe (wie wärs mit CMR4?)?
dankeschön :)

CMR4 hab ich zwar nicht, müte aber passen - ansonsten DTM Race Driver, F1 2002 oder Rally Trophy. ;)

MarcWessels
2004-06-02, 19:08:23
Original geschrieben von McUwe
Du hast hier nicht was mit der V(ertikal)Sync on/off verwechselt?

Nein, ich verwechsel da nichts. Von VSync hast Du nämlich nicht den maximalen Nutzen wenn die Framerate nicht 1/1 der Bildwiederholfrequenz entspricht, sprich 60hz/60fps; 85hz/85fps usw.. Die Aufnahme übernimmt sozusagen der Monitor, die Wiedergabe die Grafikkarte. Es ist für Dein System natürlich einfacher (auch wenn das bei topaktuellen Engines meist unmöglich ist), komplett 60fps über das ganze Spiel hinweg zu halten als 85, 90 oder gar 100fps.

Spielst Du mit 100hz und dümpelt das Spiel zu einem großen Teil zwischen 60 und 70fps herum, hast Du nachziehende und doppelte Obkjektkonturen sowie verwischte Texturen (dieser Effekt ähnelt der Wiedergabe auf einem TFT-Panel was wohl der Hauptgrund dafür ist, daß viele Wechsler von CRT zu TFT keinen Unterschied sheen und annehmen, daß der Spielablauf schlierenfrei sei)!

Vom Flimmern abgesheen ist es daher optimal, mit einer Bildwiederholfrequenz von 60hz zu spielen.

Was die Konsolen angeht, so ist man mit einem 100hz-Fernseher leider nicht fein heraus. Wie Dir sicher schon einmal aufgefallen sit, haben die Geräte vor allem bei horizontalen Laufschriften (z.B. nach den Nachrichten) derbe Schwierigkeiten, diese scharf und gleichmäßig darzustellen. Dasselbe passiert Dir dann auch mit Deiner Konsole, so daß dort das Scrolling in Spielen im A*** ist. :/

Leider tritt ein ähnlicher Effekt auch in Emulatoren wie WinUAE auf-> Stell ich auf 100hz x2 (= 50fps für PAL-Spiele), verwischen beim Scrolling komplett alle gezeichneten Grafiken.

Tigerchen
2004-06-02, 19:28:56
[QUOTE][SIZE=1]Original geschrieben von MarcWessels
Nein, ich verwechsel da nichts. Von VSync hast Du nämlich nicht den maximalen Nutzen wenn die Framerate nicht 1/1 der Bildwiederholfrequenz entspricht, sprich 60hz/60fps; 85hz/85fps usw.. Die Aufnahme übernimmt sozusagen der Monitor, die Wiedergabe die Grafikkarte. Es ist für Dein System natürlich einfacher (auch wenn das bei topaktuellen Engines meist unmöglich ist), komplett 60fps über das ganze Spiel hinweg zu halten als 85, 90 oder gar 100fps.

Spielst Du mit 100hz und dümpelt das Spiel zu einem großen Teil zwischen 60 und 70fps herum, hast Du nachziehende und doppelte Obkjektkonturen sowie verwischte Texturen (dieser Effekt ähnelt der Wiedergabe auf einem TFT-Panel was wohl der Hauptgrund dafür ist, daß viele Wechsler von CRT zu TFT keinen Unterschied sheen und annehmen, daß der Spielablauf schlierenfrei sei)!

Vom Flimmern abgesheen ist es daher optimal, mit einer Bildwiederholfrequenz von 60hz zu spielen.

Die meisten D3D Spiele nutzen IMHO den Tripplebuffer. Damit ist der von dir beschriebene Effekt kaum noch vorhanden.
Unter OpenGL sind ATI-User sowieso aus dem Schneider. Dort kann man den Tripplebuffer erzwingen. Und dies mache ich auch. 60Hz will ich noch nicht mal auf dem TFT haben. 75Hz sind subjektiv angenehmer.

Grestorn
2004-06-02, 19:52:46
Original geschrieben von MarcWessels
Spielst Du mit 100hz und dümpelt das Spiel zu einem großen Teil zwischen 60 und 70fps herum, hast Du nachziehende und doppelte Obkjektkonturen sowie verwischte Texturen (dieser Effekt ähnelt der Wiedergabe auf einem TFT-Panel was wohl der Hauptgrund dafür ist, daß viele Wechsler von CRT zu TFT keinen Unterschied sheen und annehmen, daß der Spielablauf schlierenfrei sei)!
Sprichst Du hier von VSync an?

Wenn ja, dann stimmt diese Aussage schlicht nicht. Es gibt bei VSync an keinerlei doppelte Objektkonturen oder verwischte Texturen (wieso auch).

Wenn VSync an ist und kein Tripelbuffer verwendet wird, dann ist der einzige negative Effekt, dass die Framerate nur ganzzahlige Bruchteile der Bildwiederholrate annehmen kann (1/1, 1/2, 1/3 usw, bei 60 Hz also 60 fps, 30 fps, 20 fps usw.). Das bedeutet recht heftige Sprünge in der Framerate, was eine unruhige Bewegung zur Folge haben kann.

Der von Tigerchen erwähnte Tripelbuffer vermeidet diesen Effekt vollständig. Es gibt schlicht keinerlei Vorteil OHNE VSync zu spielen, wenn man statt dessen mit VSync und Tripelbuffer spielen kann.

Wenn man VSync ausschaltet bekommt man eher die von Dir beschriebenen Effekte: Zerissene Bilder (der obere Bereich des Bildes zeigt bereits das neue Frame an, der untere noch den alten), was das Auge extrem anstrengt.

MarcWessels
2004-06-02, 20:37:51
Falsch. Der von mir beschriebene Effekt tritt ja GERADE beim TrippleBuffering auf denn sonst würde ja beispielsweise die Framerate an einer gegebenen Stelle bei 100hz 50fps betragen (DoubleBuffering), was aber natürlich schon allein deshalb nicht gescheit zu nutzen ist, weil es weder in DirectX noch in den bisherigen Treibern eienn Schalter gibt, um grundsätzlich die fps-Rate halb der Bildwiederholfrequenz festzustellen! In diesem Fall entstünden also die von Dir beschriebenen Sprünge...

Ich rede hier nicht von zerissenen Objekten, wie sie beim deaktivierten VSync entstehen (Tearing) sondern von doppelten Objektkanten und verwischten Texturen. Das diese störenden Effekte entstehen, ist aufgrund der oben beschriebenen Thematik völlig normal und unausweichlich.

Guckt Euch wenigstens EINMAL den Unterschied 60hz/60fps zu 100hz/90fps an - spätestens dann werdet Ihr wiisen, was ich meine... :freak2:

Grestorn
2004-06-02, 20:47:51
Original geschrieben von MarcWessels
Ich rede hier nicht von zerissenen Objekten, wie sie beim deaktivierten VSync entstehen (Tearing) sondern von doppelten Objektkanten und verwischten Texturen. Das diese störenden Effekte entstehen, ist aufgrund der oben beschriebenen Thematik völlig normal und unausweichlich.


Erklär mal, wie die zustande kommen sollen...

Wie soll die Limitierung der Framerate auf 60 fps (oder 100 fps...) verwischte Texturen und doppelte Objektkanten mit sich bringen?

Und was hat Tripelbuffering damit zu tun? Der von Dir beschriebene Zustand (90 fps / 100 Hz) führt ja nur dazu, dass bei jedem 10. Bildaufbau des Monitors das selbe Bild wie zuvor angezeigt wird. Bestenfalls würde man also eine leichte Unruhe in der Bewegung sehen (bei 100 Hz vom Menschen aber kaum auflösbar) aber mit Geisterbildern hat das wirklich nichts zu tun.

Ich spiel praktisch immer mit VSync und Tripelbuffer an (wenn möglich), und einige Spiele packen die Monitorrate nicht immer (FarCry z.B.). Den von Dir beschriebenen Effekt konnte ich noch niemals sehen, und ich kann ihn mir beim besten Willen auch nicht erklären.

Technische Begründung bitte! Ich halte sonst Deine Aussagen für ziemlich aus der Luft gegriffen!

/edit: Kommentar ergänzt und ausführlicher vormuliert.

MarcWessels
2004-06-02, 21:24:46
Original geschrieben von grestorn
Wie soll die Limitierung der Framerate auf 60 fps (oder 100 fps...) verwischte Texturen und doppelte Objektkanten mit sich bringen?

Bringt sie ja nicht... Wenn du bei 60hz 60fps hast oder bei 100hz 100fps verwischt natürlich nichts sondern nur wenn die Framerate eben NICHT mehr zur Bildwiederholfrequenz paßt.

Lustig finde ich, daß ich dir die Gründe detailliert erklären soll wenn man doch die Symptome unverkennbar sieht. *fg* Ist ja wie Deutschunterricht obwohl jeder in Deutschland aufgewachsene automatisch zu sprechen lernt. :D

Selbst hier-> http://www.heise.de/ct/99/02/130/default.shtml steht es nciht genauer als ich es gesagt hab'. Dort wird nur noch einmal bestätigt, daß die Framerate gleich der Bildwiederholfrequenz sein sollte, da sonst (Zitat)


"Zum anderen weichen in der Regel Aufnahme- und Wiedergabegeschwindigkeit, also Bildrate (3D-Chip) und Bildwiederholrate (Monitor), voneinander ab. Bei schnellen Bewegungen und kontrastreichen Bildern mit niedrigeren Bildraten scheinen Doppel- oder Mehrfachbilder dargestellt zu werden."



Stell Dich mal der Einfachheit halber (man siehts natürlich ebenso in anderen Situationen) in einem Egeshooter vor eine detailliert texturierte Wand. Stell sicher, daß es sich um einen Shooter habdelt, von dem Du weißt, daß er keinesfalls 100fps an der ausgesuchten Stelle schafft (Kontrolle per Fraps), mit Leichtigkeit aber 60fps. Stelle Deine Bildwiederholfrequenz auf 60hz und bewege Dich per Strafing nach links bis Du anstöt und dann wieder nach rechts. Beabachte dabei die Wanddetails-> Sie sheen in Bewegung genauso scharf aus wie wenn Du starr vor der Wand stehst!

Nun verlasse das Spiel und verstelle Deine für das Spiel angestrebte Bildwiederholfrequenz auf 100hz. Wiederhole nun den gleichen Vorgang, den Du zuvor bei 60hz gemacht hast. Du wirst sehen, daß mit einem Mal die schöne, detailierte Wandtapete verwischt, blurrt, was auch immer und Du sie erst wieder scharf zu sehen bekommst wenn Du aufhörst zu strafen und Dich im Stillstand befindest.

ShiShingu
2004-06-02, 21:33:34
also sollte man jetzt mit oder ohne dieses "Vsync" zocken?

und wieviel Hz sollte man beim zocken verwenden? ich spiel momentan immer auf 1024x768 @ 100Hz aufm 19"

is das ok oder habt ihr bessere vorschläge?

Grestorn
2004-06-02, 21:53:57
Dein Zitat passt nicht, da dabei von NIEDRIGEN BILDRATEN die Rede ist. Es ist klar, dass bei Bildraten deutlich unter 60 Hz (also z.B. 20 fps) Fehler im Bewegungsablauf sehr deutlich wahrgenommen werden.

Der Abschnitt weiter unten im selben Text passt viel eher zu dieser Diskussion:

Der Grafikprozessor baut in einem `unsichtbaren´ Speicherbereich (Back Buffer) ein neues Bild auf, währenddessen der RAMDAC das vorher gerenderte Bild aus einem zweiten Speicherbereich (Front Buffer) liest und auf dem Monitor anzeigt. Sind beide fertig, schaltet man die Puffer um. Das Umschalten ist nur nach einem vertikalen Synchronisationssignal (V-Sync) sinnvoll, also wenn der Monitor das Bild von oben nach unten dargestellt hat und der Elektronenstrahl zum oberen Bildanfang zurückspringt. Ansonsten würden zwei Teilbilder (neues und altes) gleichzeitig und mit einem waagerechten Sprung (tearing) dargestellt werden, was allerdings bei hohen Bildraten weniger auffällt.

Bei einer eingestellten Bildwiederholrate von 60 Hz generiert der RAMDAC jede sechzigstel Sekunde ein V-Sync-Signal. Benötigt der 3D-Chip für das Rendern eines neuen Bildes eine 59stel Sekunde und verpaßt das V-Sync Signal knapp, dann muß er auf das nächste Signal warten. Die tatsächlich angezeigte Bildrate beträgt daher lediglich 30 fps (2/60 = 1/30), bei 29 gerenderten Bildern 20 fps (3/60 = 1/20). Der Umschaltzeitpunkt und die angezeigte Bildrate bestimmen sich somit aus den ganzzahligen Teilern der eingestellten Bildwiederholrate. Mit einem Dreifachspeicher (Triple-Buffering) entfallen Wartezeit und Synchronisation, da der Chip sofort im dritten freien Buffer das nächste Bild berechnet. Die Nachteile des Tripel-Buffering sind der zusätzliche Bildspeicherbedarf und schwankende Bildraten, falls kein entsprechender Mechanismus die Bildrate konstant und gleichauf mit der Bildwiederholrate hält.

Das ist, etwas ausführlicher beschrieben, genau die selbe Aussage, die ich selbst vertreten habe.

(Schwankende Bildraten treten übrigens immer auf, wenn die Bildwiederholrate nicht in jeder Situation erreicht wird. Mit und ohne VSync).

Grestorn
2004-06-02, 21:56:00
Original geschrieben von ShiShingu
also sollte man jetzt mit oder ohne dieses "Vsync" zocken?

und wieviel Hz sollte man beim zocken verwenden? ich spiel momentan immer auf 1024x768 @ 100Hz aufm 19"

is das ok oder habt ihr bessere vorschläge?
Immer mit VSync, je höher Deine Bildwiederholrate, desto besser (aber achtung: je höher die Wiederholrate desto unschärfer werden die meisten Monitore!)

MarcWessels
2004-06-02, 22:59:19
Original geschrieben von grestorn
Dein Zitat passt nicht, da dabei von NIEDRIGEN BILDRATEN die Rede ist. Es ist klar, dass bei Bildraten deutlich unter 60 Hz (also z.B. 20 fps) Fehler im Bewegungsablauf sehr deutlich wahrgenommen werden.

Der Abschnitt weiter unten im selben Text passt viel eher zu dieser Diskussion:


Das ist, etwas ausführlicher beschrieben, genau die selbe Aussage, die ich selbst vertreten habe.

(Schwankende Bildraten treten übrigens immer auf, wenn die Bildwiederholrate nicht in jeder Situation erreicht wird. Mit und ohne VSync).

Hast Du's denn nu ausprobiert???

Grestorn
2004-06-03, 07:44:58
Original geschrieben von MarcWessels
Hast Du's denn nu ausprobiert???
Wozu? Ich weiß, dass die Bewegung "unrund" wird, wenn einzelne Bilder wiederholt werden müssen, weil die Framerate nicht mit der Wiederholfrequenz mithalten kann.

Ich spiele nun schon wirklich lange genug (und immer mit VSync) um den Effekt zu kennen. Mit Doppelbildern hat das aber nichts zu tun, die macht bestenfalls Dein Gehirn dazu, weil eben die Bewegung nicht rund ist. Der Bildschirm jedenfalls stellt zu keiner Zeit verwischte Texturen oder Doppelkonturen dar.

Nochmal ein Beispiel zum Unterschied zwischen VSync an (mit Tripelbuffer) und VSync aus. Sagen wir, die Framerate beträgt konstant 90 fps, die Bildwiederholfrequenz aber 100 Hz.

Mit VSync bedeutet das, dass jedes 10. Bild zweimal angezeigt wird. Man hat als 10x in der Sekunde einen kleinen "Hüpfer" (den die meisten aber bei der hohen Framerate nicht mal bemerken dürften).

Ohne VSync sieht man einen "Tearing-Streifen", der innerhalb einer Sekunde von unten nach oben durch den Screen wandert, und das immer wieder.

(Natürlich wird die Framerate in der Realität niemals konstant 90 fps betragen, weswegen dieser "Tearing-Streifen" normalerweise wild umherhüpft, bei deutlich höherer fps als Bildwiederholrate gibts sogar mehrere Streifen...).

Für mich steht völlig außer Frage, was hier vorzuziehen ist. Zumal das Bild sofort perfekt wird, wenn die Framerate die Wiederholrate übersteigt (ohne VSync wird das Bild nur schlimmer). Und wenn ich mal tatsächlich vergessen haben sollte, VSync zu erwingen, sehe ich das auf den ersten Blick (und muss das i.d.R. auch ziemlich schnell mit Kopfschmerzen betahlen, wenn ich's nicht abstelle).

McUwe
2004-06-03, 07:57:05
Original geschrieben von MarcWessels
Bringt sie ja nicht... Wenn du bei 60hz 60fps hast oder bei 100hz 100fps verwischt natürlich nichts sondern nur wenn die Framerate eben NICHT mehr zur Bildwiederholfrequenz paßt.

Lustig finde ich, daß ich dir die Gründe detailliert erklären soll wenn man doch die Symptome unverkennbar sieht. *fg* Ist ja wie Deutschunterricht obwohl jeder in Deutschland aufgewachsene automatisch zu sprechen lernt. :D

Selbst hier-> http://www.heise.de/ct/99/02/130/default.shtml steht es nciht genauer als ich es gesagt hab'. Dort wird nur noch einmal bestätigt, daß die Framerate gleich der Bildwiederholfrequenz sein sollte, da sonst (Zitat)


Wenn wir hier schon bei 3DCenter sind, warum liest du dann dir mal nicht den VSync-Bericht von ATHS auf der Hauptseite durch? Guckst du hier: http://www.3dcenter.de/artikel/2004/03-12_a.php

Zitat: "VSync on, Triple Buffering: Qualitäts-Einstellung. Kein Tearing, gute Performance, die nur durch die Bildwiederholrate des Monitors limitiert wird."

Du kannst jetzt schreiben bis dir die Finger wund werden ;D ;D und du bei 60Hz nur mit Aspirin spielen kannst, aber ich spiele weiter in 100Hz bzw. 120Hz. Basta. Punkt.

Schönen Tag noch
McUwe

aths
2004-06-03, 09:19:38
Original geschrieben von McUwe
Zitat: "VSync on, Triple Buffering: Qualitäts-Einstellung. Kein Tearing, gute Performance, die nur durch die Bildwiederholrate des Monitors limitiert wird."Bei mir funzt Triple Buffering mit der FX 5900 nicht wie erwartet. Werde noch weitere Tests machen und ggf. Nvidia darauf ansprechen.

McUwe
2004-06-03, 09:46:37
Original geschrieben von aths
Bei mir funzt Triple Buffering mit der FX 5900 nicht wie erwartet. Werde noch weitere Tests machen und ggf. Nvidia darauf ansprechen.

Hallo aths,

Jetzt bin ich irgendwie baff. :???:
Bei welchem Spiel(en) hast du Probleme? Ich gehe jetzt davon aus, das du einen CRT verwendest - bei welcher Bildwiederholrate?

aths
2004-06-03, 09:57:48
Original geschrieben von McUwe
Hallo aths,

Jetzt bin ich irgendwie baff. :???:
Bei welchem Spiel(en) hast du Probleme? Ich gehe jetzt davon aus, das du einen CRT verwendest - bei welcher Bildwiederholrate? Getestet hab ich Max Payne 2. 100 Hz, Triple Buffering. Fraps zeigt in der Regel 50 (oder 100) fps an, nach einer gewissen "Einspielzeit" natürlich. Werde den Test aber mal mit Max Payne 1 und dem internen FPS-Counter wiederholen (damit überprüfte ich weiland die Triple-Buffering-Funktion auf der Radein 9600, was einwandfrei funzte.)

McUwe
2004-06-03, 10:20:57
Original geschrieben von aths
Getestet hab ich Max Payne 2. 100 Hz, Triple Buffering.

Das habsch zwar net, aber werde mal in den nächsten Tagen die Demo zum testen installieren.

So long

McUwe

Quasar
2004-06-03, 10:29:13
Original geschrieben von aths
Max Payne 2 [...] Triple Buffering

AFAIK gibt es da einen Schalter für in Max Payne 2 direkt, oder? Kann es sein, daß der vom Treiber überschrieben wird?

ow
2004-06-03, 13:09:38
Original geschrieben von Quasar
AFAIK gibt es da einen Schalter für in Max Payne 2 direkt, oder? Kann es sein, daß der vom Treiber überschrieben wird?

Die Nv Treiber koennen da nichts ueberschreiben, weil es keine Einstellmoeglichkeit dafuer gibt.
Kann also nur ueber den Schalter im Spiel ueberhaupt aktiviert werden, das Triplebuffering.

aths
2004-06-03, 13:10:09
Original geschrieben von Quasar
AFAIK gibt es da einen Schalter für in Max Payne 2 direkt, oder? Kann es sein, daß der vom Treiber überschrieben wird? Bei MP1 und MP2 kann man TB in der Applikation aktivieren. IIRC kann man per Treiber weder DB noch TB erzwingen.

DrumDub
2004-06-03, 13:26:48
Original geschrieben von aths
IIRC kann man per Treiber weder DB noch TB erzwingen.

zumindest nicht in d3d. opengl geht ja sowohl bei ati- als auch bei nvidia-karten.

möcht gern wissen, warum m$ das nicht zulässt. oder ist das dem entwickler überlassen, wie bei mp2?

Quasar
2004-06-03, 13:27:47
Ja. Das meinte ich etwa der Art, daß der Treiber TB-Einstellungen ignoriert und "intern" überschreibt.

aths
2004-06-03, 13:35:51
Original geschrieben von DrumDub
zumindest nicht in d3d. opengl geht ja sowohl bei ati- als auch bei nvidia-karten.Wo stelle ich das in OpenGL bei einer GF ein?

Blumentopf
2004-06-03, 13:51:27
Mir geht Speed und Performance überalles.
AF kann auch draußen bleiben. Kommt aber aufs Spiel an - so auch mein Vote.

MarcWessels
2004-06-03, 14:11:05
Original geschrieben von grestorn
Für mich steht völlig außer Frage, was hier vorzuziehen ist. Zumal das Bild sofort perfekt wird, wenn die Framerate die Wiederholrate übersteigt (ohne VSync wird das Bild nur schlimmer). Und wenn ich mal tatsächlich vergessen haben sollte, VSync zu erwingen, sehe ich das auf den ersten Blick (und muss das i.d.R. auch ziemlich schnell mit Kopfschmerzen betahlen, wenn ich's nicht abstelle).

Wo habe ich bitte vorgeschlagen, kein VSync zu verwenden?? Und ob nun das Gehirn dem Menschen einen Streich spielt oder der Monitor den Spielablauf "tatsächlich" wie von mir beschrieben anzeigt, ist Jacke wie Hose, ändert aber nichts am Symptom.

DrumDub
2004-06-03, 15:25:31
Original geschrieben von aths
Wo stelle ich das in OpenGL bei einer GF ein?

gute frage. heißt das nicht "prerender limit" bei der gf? standardmäßig stehts auf zwei unter opengl. drei sollte ja den selben effekt haben wie "triple buffering", oder nicht?

robbitop
2004-06-03, 15:55:43
äh, hat das eine mit dem anderen was zu tun?

ow
2004-06-03, 16:00:28
Original geschrieben von DrumDub
gute frage. heißt das nicht "prerender limit" bei der gf? standardmäßig stehts auf zwei unter opengl. drei sollte ja den selben effekt haben wie "triple buffering", oder nicht?

Nein, das hat nix mit dem Buffering zu tun.

aths
2004-06-03, 16:05:03
Original geschrieben von DrumDub
gute frage. heißt das nicht "prerender limit" bei der gf? Nein, wie der VSync-Artikel auf einer Seite, die offenbar keiner liest (heißt 3dcenter.org) steht.

robbitop
2004-06-03, 16:09:01
ich habe ihn gelesen

ow
2004-06-03, 16:09:20
Original geschrieben von aths
Nein, wie der VSync-Artikel auf einer Seite, die offenbar keiner liest (heißt 3dcenter.org) steht.

Sag mal aths, kann es sein, dass dein Deutsch in letzter Zeit stark nachgelassen hat? Was ist denn das fuer ein Satz? :D

DrumDub
2004-06-03, 16:21:08
Original geschrieben von aths
Nein, wie der VSync-Artikel auf einer Seite, die offenbar keiner liest (heißt 3dcenter.org) steht.

mhhh... hab nie ne nv-karte gehabt. *entschuldigung such*
aber das ich den artikel noch nicht gelesen hab, ist allerdings nicht entschuldbar bis auf die tatsache das ich nie mit vsync off zocke, weil ich tearing hasse.

komisch ist, dass es die einstellung wohl schon mal gab auf nv-karten: http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=212421#post212421

Colin MacLaren
2004-06-06, 10:36:44
Ich mach einfach mal STRG+C -> STRG+V, paßt in beide Threads ;)

Für mich wäre, wenn ich momentan auf der Suche nach einer 400EUR-Karte wäre, der aktuelle Ati-"Cheat", welcher die "Brinlinearität" situationsbedingt regelt, eher der Kaufgrund, statt einer GF6800GT, welche mir featuremäßig eher zusagt.

Während die GF6800 bei AF starkt einbricht, was sich besonders bei NextGen-Spielen sehr negativ bemerkbar machen wird, wie die Benchmarks mit FarCry bereits andeuten, bietet Ati AF quasi "for free".

Daß der "Cheat" nicht wirklich sooo grausam sein kann, wie hier einige andueten, wird allein dadurch ersichtlich, daß der in Bezug auf Trinlineare Filterung sehr empfindliche aths erst auf diese Optimierung aufmerksam wurde, als er explizit darauf hingewiesen wurde und selbige nur durch Einfärben der Mipmaps nachweisen konnte. Ingame fällt so etwas hingegen nicht auf. Ob ich intelligent adaptiv brilenar gefiltetertes Far Cry mit 50 oder korrekt trinlenear gefiltertes mit 35 fps möchte, da brauch ich imho nicht lange zu überlegen ;)

AF bedeutet für den Durchschnittsgamer in erster Linie Schärfung weiter entfernt liegender Texturen, was wiederum am ehesten an der vor dem Spieler verlaufenden Bodentextur - also in der Regel Stage 0 - ersichtlich wird. Daß lehrbuchmäßige AF einer GF3 oder GF4 bringt herzlich wenig, wenn es einfach zu langsam ist, um sinnvoll eingesetzt zu werden. Auf einer rohpowermäßig nicht gerade Welten entfernten Radeon 9600 (Pro) ist es hingegen durchaus nutzbar, eben wegen dieser sinvollen Optimierungen.

Sicherlich haben die neuen Highend-Modelle genügend Power, um auch lehrbuchmäßige AF darzustellen, aber Far Cry und Spellforce wird es heute schon knapp, und früher oder später kommen garantiert Titel heraus, wo Optimierungen dirngend vonnöten sind, um überhaupt noch AF einsetzen zu können. Lieber stageoptimiertes adaptives brilenares AF, welches eben ingame kaum einen bis gar keinen Unterschied zur Lehrbuchqualität macht, als gar keins.

Daß kein Schalter zum Deaktivieren dieser imho verschmerzbaren Optimierungen vorhanden ist, kann ich aus marketingtechnischer Sicht durchaus nachvollziehen. Doch hier ist eben der Verbraucher auch selbst Schuld, denn die Masse der DAUs interessieren nun mal nur nakte Zahlen, die IHVs könnnen auch nur auf die Forderungen des Marktes reagieren. Und an dieser Marktsituation werden auch Foren und Websides wie dieser, die gern Aufklärungsarbeit leisten wollen, aber mit 10-Seiten+ Artikeln und ellenlange Diskussionen unwissende DAUs nur abschrecken, nicht viel ändern können, die Zahl der Leute, die sich auf solche Seiten verirrt, ist hiefür einfach zu verschwindend gering. Wirklich von Beduetung ist es auch nicht, denn die Masse der Gamer setzt sowieso kein AA oder AF ein, wie schon oft erwähnt, bin ich in meinem Clan von 12 Mann der einzige, und das auch erst, seit ich einen 19" TFT besitze. Da wird nach Anschaffung einer neuen Grafikkarte maximal die Auflösung von 800x600 auf 1024x768 oder 1280x1024 heraufgesetzt und das wars. Geht mal auf einer LAN durch die Reihen, die Menge der AA-, aber vor allem AF-Zocker kann man an ein bis zwei Händen abzählen.

Man mu sicher abwägen, irgendwo liegt eine Grenze, und einige Optimierungen kosten tatsächlich mehr Bildqualität als sie an Performance bringen, aber der adaptiv brileneare AF-Modus der R420-Reihe ist imho ein Beispiel für den richtigen Weg, viel Performance für minimale, nur mit Spezialtools nachweisbare Qualitäts-Verluste und wäre für mich eher ein Kaufgrund als Nicht-Kaufgrund.

Quasar
2004-06-06, 10:44:07
Das reduzieren der trilinear gefilterten Bereiche macht nur einen kleinen Teil des Leistungsgewinnes aus.

Das (http://www.computerbase.de/artikel/hardware/grafikkarten/radeon_x800_texturen/3/#lod_spielereien) bringt schon etwas mehr... Leistung & Flimmern.

aths
2004-06-06, 12:39:26
Original geschrieben von Quasar
Das reduzieren der trilinear gefilterten Bereiche macht nur einen kleinen Teil des Leistungsgewinnes aus.

Das (http://www.computerbase.de/artikel/hardware/grafikkarten/radeon_x800_texturen/3/#lod_spielereien) bringt schon etwas mehr... Leistung & Flimmern. Ich denke nicht, dass das wirklich viel bringt. Im Zusammenhang mit tri-flex (oder wie hieß das?) und der starken winkelabhängigen reduzierten A-Filterung trägt jeder Effekt sein Scherflein dazu bei, Speed zu Lasten der BQ zu schinden. (Was ich davon halte, ist ja bekannt :devil: )

r@h
2004-06-06, 13:29:28
Original geschrieben von Colin MacLaren
Ich mach einfach mal STRG+C -> STRG+V, paßt in beide Threads ;)Sag mal, was willst Du damit eigentlich sagen ?
Optimierung um jeden Preis, auch wenn's scheiße aussieht ?
:???:

Wenn Du Leistung haben willst, dann reduziere sämtliche Effekte und Texturdetails, schalte AF und AA einfach ab und senke die Filter auf mieseste Qualität und kaufe schon gar keine neuen High-Tech-Karten... also echt.

Wenn man sich die Vergleichsvideos (MP2) von tEd mal anschaut, dann scheint es ja fast so, als würde ATI in bestimmten Situationen überhaupt nicht mehr filtern.

Und wenn Du das gut findest, dann schalte auf 'bilinear', halte Dich aber aus solchen Diskussionen heraus.

Razor

kmf
2004-06-06, 14:00:49
Original geschrieben von Colin MacLaren
...
Während die GF6800 bei AF starkt einbricht, was sich besonders bei NextGen-Spielen sehr negativ bemerkbar machen wird, wie die Benchmarks mit FarCry bereits andeuten, bietet Ati AF quasi "for free".
...


Nichts tun, ist doch immer "for free".

Mir gehts aber hier nicht mal darum, sondern der übele Versuch, mit minderer BQ sich durchmogeln zu wollen, diese Betrugsversuche bei Nachweistests mit den bekannten Methoden dahingehend zu verschleiern, daß dann urplötzlich volle BQ erscheint.

Ich hab mir schon bei Erscheinen der 9600 damals wegen ihres viel zu guten Abschneidens in den Benchmarks gegenüber der 9500pro schon so meine Gedanken gemacht, daß diese hohe Leistung physikalisch eigentlich nicht möglich sein kann.

Heute wissen wir warum.

Der Grund dieser, ich nenns mal Machenschaften, ist ganz einfach in dem Entwicklungsstanddefizit gegenüber dem Wettbewerb begründet. Womit ich nicht sagen will, daß die Wettbewerber heute schon bessere Produkte, im Sinne der besseren Verwendbarkeit => schneller und einwandfreie BQ, für den Endkunden aufweisen können.

MarcWessels
2004-06-06, 23:45:16
Original geschrieben von Colin MacLaren Wirklich von Beduetung ist es auch nicht, denn die Masse der Gamer setzt sowieso kein AA oder AF ein, wie schon oft erwähnt, bin ich in meinem Clan von 12 Mann der einzige, und das auch erst, seit ich einen 19" TFT besitze. Da wird nach Anschaffung einer neuen Grafikkarte maximal die Auflösung von 800x600 auf 1024x768 oder 1280x1024 heraufgesetzt und das wars. Geht mal auf einer LAN durch die Reihen, die Menge der AA-, aber vor allem AF-Zocker kann man an ein bis zwei Händen abzählen.

Und warum? Weil die sich einbilden, mehr fps sehen zu können als das Display herzugeben vermag.

Grestorn
2004-06-07, 07:13:13
Original geschrieben von MarcWessels
Und warum? Weil die sich einbilden, mehr fps sehen zu können als das Display herzugeben vermag.
Ack.

Colin MacLaren
2004-06-07, 12:07:02
Die meisten Monitore packen wenigstens 85Hz, viele spielen auch mit 100Hz+.

Tjell
2004-06-07, 12:49:43
Sauber! Da wird mal wieder die Bildwiederholfrequenz mit der Framerate verwechselt.

Leute, ein für allemal:

Die Hertz-Angabe (Hz) bei Monitoren (z. B. 85 Hz) gibt an, wie oft ein Bild auf dem Monitor pro Sekunde aufgebaut wird. Völlig unabhängig davon, was dargestellt wird, ist mit steigender Hz-Zahl das Ergebnis für den Betrachter ein zunehmend ruhigeres Bild. Bei 100 Hz spricht man landläufig von "flimmerfrei".

Das hat nun wiederum rein garnix mit der Framerate zu tun, also der dargestellten "Bilder (Frames) pro Sekunde" (fps), die durch die Grafikkarte in 3D-Spielen ausgegeben wird.

Ich wiederhole es ohne Nennung eines Grundlagenartikels noch einmal in Kürze:
Untersuchungen haben ergeben, daß man bei gerenderten 3D-Szenen ab einer Rate von 60 Bildern pro Sekunde (fps) beim durchschnittlichen Menschen erwartet, daß er eine flüssige Darstellung von Bewegungen wahrnimmt.

Das kann bei einem Menschen jedoch auch schon bei z. B. 50 fps der Fall sein, empfindlichere Personen nehmen vielleicht (beispielsweise) bei 72 fps kein nennen wir es "Ruckeln" mehr wahr. Dies ist demnach von Person zu Person unterschiedlich, aber wie gesagt, ab einer Framerate von 60 kann man bei einem Großteil der Betrachter von einer flüssig wahrgenommenem Bewegung ausgehen.

Nur meine 2 Pfennig ;)

MarcWessels
2004-06-07, 14:02:43
Nö, hier wird nichts verwechselt - habe ich 120hz, kann ich auch (entsprechende Speedmöglichkeiten der restlichen Hardware bei einem gegebenen Spiel vorausgesetzt) nur maximal 120fps sehen.

Und was die 60fps angeht-> Die Empfindungskurve flacht ab siesem Punkt beim Menschen nur sehr stark ab; d.h., ihm kommen beispielsweise 120fps flüssiger vor als 60fps aber er sieht zwischen 55 und 60fps einen größeren Unterschied als zwischen 60 und 120fps.

Tjell
2004-06-07, 14:20:06
Original geschrieben von MarcWessels
Und warum? Weil die sich einbilden, mehr fps sehen zu können als das Display herzugeben vermag.
Dann habe ich das mißverstanden.




Und was die 60fps angeht-> Die Empfindungskurve flacht ab siesem Punkt beim Menschen nur sehr stark ab; d.h., ihm kommen beispielsweise 120fps flüssiger vor als 60fps aber er sieht zwischen 55 und 60fps einen größeren Unterschied als zwischen 60 und 120fps.

Ich schrieb "... ab einer Framerate von 60...".
Da sind wir dann ja einer Meinung. :)