PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Also ich mal 'ne Zusammenfassung: ATI oder Nvidia, oder: Was verbessert werden muss …


Seiten : [1] 2

Rampage 2
2004-07-03, 20:44:19
Hi guys,

Okay, fasse mal zusammen wo die Stärken und Schwächen der X800XT bzw. 6800 Ultra liegen.

Stärken:

6800 Ultra:

- SM3.0
- besseres AF (als ATI)
- extrem schnell unter OpenGL (250fps in Q3A unter 1600x1200x32Bit @4xAA+16xAF)
- akzeptabel bis schnell unter D3D (im Vergleich zur X800XT)
- "Optimierungen" lassen sich abschalten

X800XT:

- höhere Rohleistung
- besseres AA (als Nvidia: 6xAA, Gammakorrektur)
- geringerer Stromverbrauch (als Nvidia) + SingleSlot
- In allen D3D-Applikationen schnell bis sehr schnell (im Vergleich zu Nvidia)
- ATI hat (im Vergleich zu NV) in allen Spielen optimiert und nicht nur in bestimmten* Spielen
- In PS-Applikationen scheint ATI mehrheitlich schneller zu sein
- ATI hat Truform

Schwächen/Verbesserungsmöglichkeiten:

Nvidia:

- schlechteres AA (keine Gammakorrektur, extrem langsames 8xAA und ohne RG (im Vergleich zu ATI's 6xAA))
- verschlechtertes AF im Vergleich zur GF4Ti/GFFX
- DualSlot und sehr hoher Stromverbrauch
- kein TruForm
- niedrigere Rohleistung als ATI
- D3D Performance sollte sich verbessern
- PS2.0 Performance sollte Verbessert werden
- Controlpanel sollte übersichtlicher sein und die Einstellungsmöglichkeiten sollten zusammengefasst werden
- Nvidia muss für alle Spiele optimieren, nicht nur für bestimmte* (siehe das Review von xbitlabs)

ATI:

- AF nicht verbessert (Winkelabhängigkeit, Qualität, Stufe)
- kein 8xRGAA eingebaut
- TruForm nicht in Hardware wie beim R200
- OpenGL Performance unter aller Sau (im Vergleich zum NV40)
- Optimierungen lassen sich nicht abschalten wie bei Nvidia
- kein SM3.0 (ich sehe das als Nachteil)

* = alle Spiele die vor allem in Benchmarks eingesetzt werden

Was mich bei ATI buchstäblich schockiert/enttäuscht hat, ist, dass sie keine höheren AA/AF-Modi eingebaut haben und TruForm nicht endlich wieder in Hardware verfügbar ist. Zumindest in der Entwicklungszeit wären diese Verbesserungen möglich gewesen.

Nvidia hat zwar wenigstens Verbesserungen gezeigt doch diese (vor allem was AA und AF betreffen) zu wenig.

Im Moment bin ich noch bei ATI aber so langsam komme ich zu Nvidia rüber. Also von ATI bin ich richtig enttäuscht!

Jesus
2004-07-03, 20:47:36
zu ATI noch:

- optimierungen sind aus sobald CP auf Application default ist

tokugawa
2004-07-03, 20:50:59
Mich würd der Vollständigkeit halber auch eine Mängelliste mit XGI und S3 interessieren :)

Rampage 2
2004-07-03, 20:54:36
@tokogawa:

über diese Karten weiß ich praktisch gar nichts - sorry:(

Winter[Raven]
2004-07-03, 21:23:57
Original geschrieben von Jesus
zu ATI noch:

- optimierungen sind aus sobald CP auf Application default ist

du meinst so wie: Fulltri by Default? :lolaway:

MadMan2k
2004-07-03, 22:22:22
ich würde Truform bei Ati sowohl bei den pros als auch bei den kontras streichen - es ist schlichtweg nicht mehr vorhanden.
Den Fallback in Software könnte NVIDIA genausogut implementieren...

Warum sies es nicht tun und warum Ati das Feature fallengelassen hat ist:
1. die schlechte Verbreitung unter den Spielen (und meist auch schlecht ungesetzt)
2. TruForm ist technisch überholt und wird von Displacment Mapping ersetzt werden.

seahawk
2004-07-03, 22:31:27
Original geschrieben von Jesus
zu ATI noch:

- optimierungen sind aus sobald CP auf Application default ist

Wirklich ??

Gast
2004-07-03, 22:37:13
Original geschrieben von Rampage 2
Hi guys,

Okay, fasse mal zusammen wo die Stärken und Schwächen der X800XT bzw. 6800 Ultra liegen.

Stärken:

6800 Ultra:

- SM3.0
- besseres AF (als ATI)
- extrem schnell unter OpenGL (250fps in Q3A unter 1600x1200x32Bit @4xAA+16xAF)
- akzeptabel bis schnell unter D3D (im Vergleich zur X800XT)
- "Optimierungen" lassen sich abschalten

X800XT:

- höhere Rohleistung nana, das stimmt so aber nicht
- besseres AA (als Nvidia: 6xAA, Gammakorrektur) das 8x SSAA von NV ist DEUTLICH besser als das 6xAA von ATI
- geringerer Stromverbrauch (als Nvidia) + SingleSlot
- In allen D3D-Applikationen schnell bis sehr schnell (im Vergleich zu Nvidia)
- ATI hat (im Vergleich zu NV) in allen Spielen optimiert und nicht nur in bestimmten* Spielen
- In PS-Applikationen scheint ATI mehrheitlich schneller zu sein
- ATI hat Truform

Schwächen/Verbesserungsmöglichkeiten:

Nvidia:

- schlechteres AA (keine Gammakorrektur, extrem langsames 8xAA und ohne RG (im Vergleich zu ATI's 6xAA)) siehe oben 8xSSAA ist besser, langsamer aber besser
- verschlechtertes AF im Vergleich zur GF4Ti/GFFX
- DualSlot und sehr hoher Stromverbrauch dualslot ist kein nachteil, im gegenteil, besserer kühler und 1. PCI ist eh shared mit dem AGP und daher eigentlich unbrauchbar, hoher stromverbrauch... hat das wem bei der 9800pro und 9800XT gestört?
- kein TruForm
- niedrigere Rohleistung als ATI siehe oben
- D3D Performance sollte sich verbessern
- PS2.0 Performance sollte Verbessert werden
- Controlpanel sollte übersichtlicher sein und die Einstellungsmöglichkeiten sollten zusammengefasst werden NV hast das beste treiber menü aller grakas, sagten mir sogar eingefleischte ATI fans
- Nvidia muss für alle Spiele optimieren, nicht nur für bestimmte* (siehe das Review von xbitlabs)

ATI:

- AF nicht verbessert (Winkelabhängigkeit, Qualität, Stufe)
- kein 8xRGAA eingebaut
- TruForm nicht in Hardware wie beim R200
- OpenGL Performance unter aller Sau (im Vergleich zum NV40)
- Optimierungen lassen sich nicht abschalten wie bei Nvidia
- kein SM3.0 (ich sehe das als Nachteil)

* = alle Spiele die vor allem in Benchmarks eingesetzt werden

Was mich bei ATI buchstäblich schockiert/enttäuscht hat, ist, dass sie keine höheren AA/AF-Modi eingebaut haben und TruForm nicht endlich wieder in Hardware verfügbar ist. Zumindest in der Entwicklungszeit wären diese Verbesserungen möglich gewesen.

Nvidia hat zwar wenigstens Verbesserungen gezeigt doch diese (vor allem was AA und AF betreffen) zu wenig.

Im Moment bin ich noch bei ATI aber so langsam komme ich zu Nvidia rüber. Also von ATI bin ich richtig enttäuscht!

aths
2004-07-03, 22:47:22
Original geschrieben von Jesus
zu ATI noch:

- optimierungen sind aus sobald CP auf Application default ist Obwohl der Regler im NV-CP defaultmäßig nur auf "Quality" statt "High Quality" steht, bietet NV40 dennoch bessere Texturqualität. NV40-Default ist beim 61.34 Trilineare Optimierung auf ON (bei ATI auch, kann man bei der GF 6800 im Gegensatz zur X800 aber abschalten um volle Trilinearität zu bekommen, was in der Regel funzt, zur Not den anderen Regler auf "High Quality" stellen.) Beim NV40 ist die Aniso-"Optimierung" default OFF, bei X800 unter D3D mit dem CP wiederum nicht abschaltbar.

Außerdem filtert NV40 bi- und trilinear mit jeweils 8 Bit fraction* (X800: 6 bzw. 5 Bit) und hat beim AF nicht die LOD-Probleme der X800.

* Kann afaik gesenkt werden, ist im 61.34 soweit ich weiß aber nicht in Funktion.

Iceman346
2004-07-03, 22:55:39
Original geschrieben von Gast
- höhere Rohleistung nana, das stimmt so aber nicht


Diese Aussage hatte bisher jedes Review welches ich gelesen hab (Im Vergleich X800XT <-> 6800Ultra)

Original geschrieben von Gast
- besseres AA (als Nvidia: 6xAA, Gammakorrektur) das 8x SSAA von NV ist DEUTLICH besser als das 6xAA von ATI


Das 8xAA von NV besteht afaik aus 4xRGMSAA und 2xOGSSAA, das macht eine EER von 4x8, dass von ATi hat 6x6 + Gammakorrektur. Sofern man den (recht geringen) Supersamplingeffekt auf die Texturen aussen vor lässt würde ich das ATi AA weiterhin als qualitativ überlegen bezeichen.

Original geschrieben von Gast
- DualSlot und sehr hoher Stromverbrauch dualslot ist kein nachteil, im gegenteil, besserer kühler und 1. PCI ist eh shared mit dem AGP und daher eigentlich unbrauchbar, hoher stromverbrauch... hat das wem bei der 9800pro und 9800XT gestört?

Das Dualslot kein wirklicher Nachteil ist, darin stimme ich überein, allerdings ist das Sharing des ersten PCI Slots mit dem AGP Slot auch nicht auf allen Mainboards der Fall.
Und der Stromverbrauch der 6800 Ultra liegt doch eher leicht höher als der von einer 9800Pro oder XT...
Was mich aber eher stört ist die Notwendigkeit von 2 Stromkabeln.

Original geschrieben von Gast
- Controlpanel sollte übersichtlicher sein und die Einstellungsmöglichkeiten sollten zusammengefasst werden NV hast das beste treiber menü aller grakas, sagten mir sogar eingefleischte ATI fans

Ich komme mit den Menüs beider Hersteller klar, aber insgesamt würde ich sagen, dass ATi das "aufgeräumtere" Menü hat. Aber das ist wohl eher Geschmackssache.

VooDoo7mx
2004-07-03, 23:34:39
Original geschrieben von Jesus
zu ATI noch:

- optimierungen sind aus sobald CP auf Application default ist

Nicht dein Ernst, oder? :bonk:

aths
2004-07-03, 23:46:54
Original geschrieben von VooDoo7mx
Nicht dein Ernst, oder? :bonk: Lt. ATIs Definition schon – mehr Qualität wollen sie dem User nicht geben, obwohl die Hardware dazu imstande wäre.

Brillus
2004-07-04, 00:42:07
250fps in Q3A unter 1600x1200x32Bit @4xAA+16xAF

^^naja wie alt ist Q3 schon ich würde denn nichtmehr zum testen benutztn sorry aber das finde ich etwas:bonk:

LovesuckZ
2004-07-04, 01:00:41
Original geschrieben von Rampage 2
Schwächen/Verbesserungsmöglichkeiten:
Nvidia:
- DualSlot und sehr hoher Stromverbrauch

DualSlot betrifft nur die Ultra, und hier eventuell nicht alle.
"sehr hoher Stromverbrauch" ist uebertrieben, da er nicht deutlich ueber den der anderen Karten ist. Ausserdem muss man nicht den puren Stromverbrauch betrachten, sondern das, was man dafuer bekommt.
Bei dieser Betrachtrung hat auch ein R420 einen "sehr hoher Stromverbrauch", im Vergleich zum Deltachrome.


- niedrigere Rohleistung als ATI
- D3D Performance sollte sich verbessern


Pixel/Texel Leistung pro Takt ist fast identisch. Es gibt daher keine "niedrigere Rohleistung als ATI".

- PS2.0 Performance sollte Verbessert werden

Warum? zur Zeit hat man schon eine 1:1 Leistung im Vergleich zu ATi erreicht. Mit FP16 (und dank nrm_pp) ist man dann in der Protaktleistung eindeutig schneller, im besten Fall gibt es Zuwaechse von 50%+.

egdusp
2004-07-04, 01:41:51
Er hat aber von Rohleistung, und nicht von Rohleistung pro Takt geschrieben.
Da ATI höheren Takt gegenüber NV hat (genaue Zahlen weiß ich momentan nicht, da dauernd etwas geändert wurde), zuminest in den Top Modellen, hat ATI auch höhere Rohleistung, bei gleicher pro Takt-Leistung.

Ich weiß nur nicht so genau, ob ATI tatsächlich gleicht Pro Takt Leistung hat, da man nicht nur von den 1 Pipes ausgehen darf, sondern etliche andere Faktoren (prominentester: PS Instruktionenen pro takt) berücksichtigen muss.

mfg
egdusp

tombman
2004-07-04, 07:52:07
Naja, viele Unwahrheiten wieder mal hier geschrieben von Leuten die beide Karten nicht haben, meistens nicht mal eine.

1.) AF besser bei Nvidia --> NEIN (hab ich längst bewiesen bei far cry)
2.) "8"xAA schöner als 6xAA --> NEIN, da nicht vergleichbar, aber 6xAA ist 5 mal nützlicher, da spielbar (fps!!) NV 8xAA nur bei alten oder sehr genügsamen games nutzbar, DANN aber sehr schön. (wegen Texturenglättung)
3.) Rohleistung beider gleich ---> NEIN, da sich KEIN MENSCH für lovesuckz pro/mhz oder pro/Takt Leistung interessiert, sondern nur die fps zählen. Und die ATi HAT nun mal 30% mehr Takt, da fährt die Eisenbahn drüber, da kann man nichts schönreden für NV.
4.) Opengl Leistung schwach bei ATI ---> NEIN, hab ich ebenfalls am Beispiel von ET und tenebrae bewiesen.
5.) Truform nicht mehr in hardware und das suckt ---> NEIN, weil es mittlerweile so wichtig ist wie das Umfallen eines Reissacks in China-- kein Schwein benutzt es...zu alt.

Der Rest stimmt so ziemlich...

Zusätzliche Anmerkungen:

a.) Das control panel von nvidia ist besser, da man viel mehr Sachen einstellen kann ohne Zusatzprogramme bemühen zu müssen. Zb refresh rate override, custom resolutions usw. Dh, es ist umfangreicher.
b.) SM 3.0 fehlt ATI, was zwar derzeit total egal ist (ja, die x800xt pe BLEIBT schneller in far cry, auch wenn Nvidia 3.0 path verwendet), man sich aber trotzdem wünscht es wäre dabei, weil es einfach ein gutes Gefühl erzeugt wenn man es hat ;) Und wer Karten nicht alle 6 Monate tauscht, ist mit sm 3.0 an board auch länger auf der sicheren Seite in Zukunft keinen einzigen Effekt oder TEchdemo zu verpassen ;)
c.) Stromverbrauch, Lärm- und Hitzeentwicklung und Platzverbrauch ist ein ganz klares MINUS für Nvidia. Sollte auch jedem klar sein.
Atis x800 Serie ist praktisch unhörbar (sogar leiser als 9800 Serie), Nvidia rauscht fröhlich vor sich hin...


Was bei beiden eindeutig suckt: winkelabhängiges AF nicht abschaltbar :dpuke:

LovesuckZ
2004-07-04, 10:13:22
/edit:
Ich sah, ich sollt nicht Nachts schreiben :freak:

Axel
2004-07-04, 11:13:02
Original geschrieben von Rampage 2
Hi guys,

Okay, fasse mal zusammen wo die Stärken und Schwächen der X800XT bzw. 6800 Ultra liegen.
...


Eine gute Idee eine Übersicht der Stärken und Schwächen der Karten zu erstellen. :up:
Die Beurteilung von AA und AF von dir sehe ich genauso.
Trueform kann man mittlerweile vernachlässigen. Diese Technik hat sich nicht durchgesetzt.
Ich sehe es nicht als Nachteil in der jetzigen Zeit kein SM3.0 zu bieten, da es für den Endanwender erst in 6-12Monaten nutzbar sein wird. Zu diesem Zeitpunkt gibt es neue, schnellere Grafikkarten, die dieses Feature unterstützen müssen, wenn es denn benötigt wird.
Die Optimierungen bei ATi kann ich teilweise mit den bekannten tools abschalten. Dies sollte in der Auflistung ergänzt werden, insbesondere welche Optimierungen abgeschaltet werden können und welche nicht.

LovesuckZ
2004-07-04, 11:15:12
Original geschrieben von Axel
Ich sehe es nicht als Nachteil in der jetzigen Zeit kein SM3.0 zu bieten, da es für den Endanwender erst in 6-12Monaten nutzbar sein wird. Zu diesem Zeitpunkt gibt es neue, schnellere Grafikkarten, die dieses Feature unterstützen müssen, wenn es denn benötigt wird.


Meinst du nicht, dass dies ein Nachteil ist, weil die jetzigen R420 User dann umsteigen muessen?

Axel
2004-07-04, 11:29:48
Original geschrieben von LovesuckZ
Meinst du nicht, dass dies ein Nachteil ist, weil die jetzigen R420 User dann umsteigen muessen?

Sie müssen nicht umsteigen, somit ist es kein Nachteil. Dann wäre es noch eher ein Nachteil, daß die jetzigen Grafikkarten keine PCI-E Schnittstelle mitbringen.
Übrigens halte ich es für absolut sinnlos, irgendwelche Computertechnik auf Grund von "Zukunftssicherheit" zu kaufen.
Wer über eine Karte ab 9500pro-Klasse verfügt wird weder mit der x800 noch der 6800 irgendwelchen sichtbaren Vorteile haben (ausser den messbaren Mehr-FPS). Da kann man eigentlich auch warten, um zu sehen, ob sich einzelne Features durchsetzen. Die Entwicklung wird mit SM3.0 nicht abgeschlossen sein. Die 2.0+ der 5800 waren letztendlich auch unnütz.

LovesuckZ
2004-07-04, 11:52:43
Original geschrieben von Axel
Sie müssen nicht umsteigen, somit ist es kein Nachteil. [...]

Nein, dass meine ich nicht. Du sagts, dass das SM3.0 in 6 - 12 Monaten nutzbar waere, genau dann, wenn die neuen Grafikkarten erscheinen und es ausnutzen werden. Da der NV40 ueber SM3.0 verfuegt, profitiert er davon (siehe Shadermark2.1, farcry Patch 1.2, Rightmark3d) mit ersten Treibern und halbherzigen Implementieren (?).
Nehmen wir doch mal als Beispiel den r300: Hat fast 2 Jahre auf dem Buckel und ist immer noch Top. Jedoch gibt es in diesen 2 Jahren gerade mal eine handvoll Spiele, welche wirklich SM2.0 unterstuetzen (Farcry, Halo, TR:6, Knightshift, Aquanox2). Aber in diesen 5 Spielen haelt er sich im gegensatz zur Konkurenz sehr gut. War die Karte trotz dieser Tatsache ein schlechter Kauf? Oder anders: Ist die Karte dadurch "wertvoller" als das Konkurenzprodukt?

Übrigens halte ich es für absolut sinnlos, irgendwelche Computertechnik auf Grund von "Zukunftssicherheit" zu kaufen.


Der groeßteil der User, die 500€ ausgeben, werden die Karten laenger als 6 Monate behalten. Ich denke viele gehen mit solch eienr Betrachtungsweise an die Sache heran. Und da ist es ein Nachteil, wenn "Standardtechnik" fehlt (siehe TßL und SM1.1 und die Spiele, welche ohne Hardwareunterstuetzung nicht mehr starten).

Jesus
2004-07-04, 11:59:41
Original geschrieben von VooDoo7mx
Nicht dein Ernst, oder? :bonk:

doch, siehe den jetzt geschlossenen 61.34 Thread und das FC banding problem.

LovesuckZ
2004-07-04, 12:01:47
Original geschrieben von Jesus
doch, siehe den jetzt geschlossenen 61.34 Thread und das FC banding problem.

App-AF -> selbe Filterung ueber alle Stages -> im Bestfall brilinear (r420) | trilinear (r3xx).

Jesus
2004-07-04, 12:23:07
Original geschrieben von LovesuckZ
App-AF -> selbe Filterung ueber alle Stages -> im Bestfall brilinear (r420) | trilinear (r3xx).

wenn das so wäre dann wär die optimierung ja richtig gut :)

denn das banding dass ich selbst mit der 9800p gesehen habe ist auf tombmans x800 mit App default ebenfalls verschwunden ;)

Mmmmmh
2004-07-04, 12:36:03
Original geschrieben von tombman
...
c.) Stromverbrauch, Lärm- und Hitzeentwicklung und Platzverbrauch ist ein ganz klares MINUS für Nvidia. Sollte auch jedem klar sein.
...

Irgendwie fällt es mir schwer den Stromverbrauch als großen Nachteil anzuerkennen von Leuten die einen Athlon 64 Fx53 unter der Haube zu werkeln haben, den mit ner mach 1? kühlen(http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=1803448#post1803448) und auf 2900 MHz laufen zu lassen, in meinen Augen widerspricht man sich dort ein wenig. Da sollten doch die paar Watt mehr von einer 6800 Ultra doch wirklich egal sein.:wink2:

reunion
2004-07-04, 12:40:46
IMO sind die einzig wirklichen Vorteile der X800 der leise Lüfter (den man dank VGA-Silencer aber auch auf Geforcekarten haben kann), die kleinere Karte und das leicht bessere AA, alles andere spricht für NV...

Axel
2004-07-04, 12:51:02
Original geschrieben von LovesuckZ
Nein, dass meine ich nicht. Du sagts, dass das SM3.0 in 6 - 12 Monaten nutzbar waere, genau dann, wenn die neuen Grafikkarten erscheinen und es ausnutzen werden. Da der NV40 ueber SM3.0 verfuegt, profitiert er davon (siehe Shadermark2.1, farcry Patch 1.2, Rightmark3d) mit ersten Treibern und halbherzigen Implementieren (?).
Nehmen wir doch mal als Beispiel den r300: Hat fast 2 Jahre auf dem Buckel und ist immer noch Top. Jedoch gibt es in diesen 2 Jahren gerade mal eine handvoll Spiele, welche wirklich SM2.0 unterstuetzen (Farcry, Halo, TR:6, Knightshift, Aquanox2). Aber in diesen 5 Spielen haelt er sich im gegensatz zur Konkurenz sehr gut. War die Karte trotz dieser Tatsache ein schlechter Kauf? Oder anders: Ist die Karte dadurch "wertvoller" als das Konkurenzprodukt?


Ich kann aus deiner Argumentation keinen Grund erkennen, der für SM3.0 spricht.
Sicherlich profitiert der NV40 von SM3.0, da er damit endlich konkurrenzfähig zu ATi wird. aber er hat damit weder einen optischen noch messbaren Vorteil gegenüber der Konkurrenz. Da Nvidia in den letzten Jahren nicht wirklich gut im Bereich PS und VS war, bin ich vorsichtig was die Umsetzung von SM3.0 betrifft. So lange es keine für mich notwendige Software gibt, die dieses Feature erzwingt, brauche ich es als Endanwender nicht.

tokugawa
2004-07-04, 13:12:59
Original geschrieben von Axel
Sie müssen nicht umsteigen, somit ist es kein Nachteil. Dann wäre es noch eher ein Nachteil, daß die jetzigen Grafikkarten keine PCI-E Schnittstelle mitbringen.
Übrigens halte ich es für absolut sinnlos, irgendwelche Computertechnik auf Grund von "Zukunftssicherheit" zu kaufen.
Wer über eine Karte ab 9500pro-Klasse verfügt wird weder mit der x800 noch der 6800 irgendwelchen sichtbaren Vorteile haben (ausser den messbaren Mehr-FPS). Da kann man eigentlich auch warten, um zu sehen, ob sich einzelne Features durchsetzen. Die Entwicklung wird mit SM3.0 nicht abgeschlossen sein. Die 2.0+ der 5800 waren letztendlich auch unnütz.

Als Entwickler sehe ich es als Nachteil... aber gut, du sprachst von "Endanwendern". Obwohl ich Software-Entwicklung auch als "Endanwendung" selbst einer Consumer-Grafikkarte sehe.

LovesuckZ
2004-07-04, 13:19:04
Original geschrieben von Axel
Ich kann aus deiner Argumentation keinen Grund erkennen, der für SM3.0 spricht.

Nein? Das Beispiel r300 sollte zeigen, dass man heute nicht sagen kann, dass SM3.0 kein Nachteil waere. In einem jahr vielleicht.

Sicherlich profitiert der NV40 von SM3.0, da er damit endlich konkurrenzfähig zu ATi wird. aber er hat damit weder einen optischen noch messbaren Vorteil gegenüber der Konkurrenz.

Da die Betrachtung sich hier nur um die Ultra und XT PE Variante dreht, hast du recht.
Betrachtet man die Sache ein Stueck weiter und guckt sich auch die anderen Karten an (6800NU vs 9800XT | X800Pro vs 6800GT) faellt auf, dass die ATi Vergleichskarte nicht schneller ist. Und hier kommt der technologische Vorteil in Spiel: jedes Prozentpuenktchen was SM3.0 den Nvidiakarten bringt, schadet ATi. Und zur Zeit sind das 1-30% Mehrleistung.
Nicht zu vergessen, dass das SM3.0 Standard ist, von weiteren Kartenherstellern in Zukunft unterstuetzt wird (auch von ATi), den Entwicklern von Spielen die Programmierung erleichtert und gleichzeitig mehr Freiheiten gibt (weniger Grenzen) und leichter in die Engine einzubauen ist. Nvidia hat die Marktkraft und das Geld, die Entwickler zu "ueberreden" SM3.0 in die Spiele einzubauen oder nachzupatchen. Kein Nachteil fuer die Karten, welche nicht aufgrund des hoeheren Taktes schneller sind?
"optischen [...] Vorteil" habe ich schon mit Mr.Lolman diskutiert: Es gibt soviele technologischen Entwicklungen, welche keine "optischen [...] Vorteil" brachten, trotzdem wichtig waren und sind (PS1.1, Vertexshader, Videodecoding ueber die GPU, Texturcompression etc.).

So lange es keine für mich notwendige Software gibt, die dieses Feature erzwingt, brauche ich es als Endanwender nicht.

Natuerlich, wenn man eine Karte unter NV40/r420 besitzt. Moechte man aber Wechseln, muss auch SM3.0 mit in die Kaufentscheidung miteinbezogen werden, vorallen, wenn ich die Karte laenger halten moechte und sie nicht schon 30% schneller als das Nvidiakonkurenzprodukt ist.

tokugawa
2004-07-04, 13:21:28
Original geschrieben von Axel
Ich kann aus deiner Argumentation keinen Grund erkennen, der für SM3.0 spricht.
Sicherlich profitiert der NV40 von SM3.0, da er damit endlich konkurrenzfähig zu ATi wird. aber er hat damit weder einen optischen noch messbaren Vorteil gegenüber der Konkurrenz. Da Nvidia in den letzten Jahren nicht wirklich gut im Bereich PS und VS war, bin ich vorsichtig was die Umsetzung von SM3.0 betrifft. So lange es keine für mich notwendige Software gibt, die dieses Feature erzwingt, brauche ich es als Endanwender nicht.


Ist halt die Frage, ob Entwickler auch Endanwender sind... ich sehe sie als solche.

Ich mein, die GeForce 6800 ist sicher auch mit Entwicklern als Endanwender im Kopf entwickelt worden, also eine Karte, die Entwickler benutzen können, um endlich jene Ideen, für die SM 2.0 noch zu limitiert war, umsetzen zu können.

Demirug
2004-07-04, 13:32:14
Wer genau weiss das er bei den nächstens Karten auch wieder zuschlagen wird braucht sich um Technologien die jetzt eingeführt werden natürlich keine Gedanken zu machen. Für jemanden der aber zum Beispiel sich nur alle 2 Jahre ein neues System kauft ist das natürlich was anderes. Dass gleiche gilt auch für andere Punkte bei einer Grafikkarte. Es muss einfach jeder selber wissen was für in wichtig ist.

Axel
2004-07-04, 15:09:00
Original geschrieben von LovesuckZ
Nein? Das Beispiel r300 sollte zeigen, dass man heute nicht sagen kann, dass SM3.0 kein Nachteil waere. In einem jahr vielleicht.

:kratz2:
Ich glaube nicht, daß du sagen wolltest, was du hier geschrieben hast. So kann ich dir aber Recht geben. :D


Original geschrieben von LovesuckZ
"optischen [...] Vorteil" habe ich schon mit Mr.Lolman diskutiert: Es gibt soviele technologischen Entwicklungen, welche keine "optischen [...] Vorteil" brachten, trotzdem wichtig waren und sind (PS1.1, Vertexshader, Videodecoding ueber die GPU, Texturcompression etc.).


Wenn ich etwas schneller abarbeiten kann, kann ich auch mehr davon einbauen, ergo habe ich einen Vorteil (auch optisch). Ansonsten wäre SM3.0 ziemlich sinnlos, da ich mit mehr Aufwand das gleiche Ergebnis erhalten würde.

Thema Entwickler:
Von einem Entwickler erwarte ich, daß er die Möglichkeiten aller Karten auslotet. Wenn er denn Vorteile gefunden hat und sie in neuen Progammen/Spielen verwendet, kaufe ich mir die notwendige Karte, um die für mich interessantesten Features zu nutzen.

LovesuckZ
2004-07-04, 15:45:56
Original geschrieben von Axel
Wenn ich etwas schneller abarbeiten kann, kann ich auch mehr davon einbauen, ergo habe ich einen Vorteil (auch optisch). Ansonsten wäre SM3.0 ziemlich sinnlos, da ich mit mehr Aufwand das gleiche Ergebnis erhalten würde.


Dann verstehe ich das nicht: "aber er hat damit weder einen optischen noch messbaren Vorteil gegenüber der Konkurrenz".
Aber schoen, dass du mir zustimmst :)

tokugawa
2004-07-04, 16:09:15
Original geschrieben von Axel
Thema Entwickler:
Von einem Entwickler erwarte ich, daß er die Möglichkeiten aller Karten auslotet. Wenn er denn Vorteile gefunden hat und sie in neuen Progammen/Spielen verwendet, kaufe ich mir die notwendige Karte, um die für mich interessantesten Features zu nutzen.

Und Entwickler erwarten sich von den GPU-Herstellern, dass sie geforderte Features anbieten.

Warum soll man sich nur von Entwicklern was "erwarten" dürfen, und die Entwickler selbst nicht?

Da ich Entwickler als eine Gruppe der Endanwender sehe, begrüße ich "gute" Features die die Arbeit erleichtern.

Natürlich ist es dann so, bei Anwendungen die im "Mainstream" laufen sollen (i.e. für End-Endanwender :D), diese auch auf "kleinerer" Hardware laufen sollten, und man daher halt Renderpfade einbauen muß (die ich übrigens hasse wie die Pest).

Trotzdem dürfen Entwickler sich noch freuen wenn es neue erleichternde Features gibt, oder? :)

Axel
2004-07-04, 16:45:30
Original geschrieben von LovesuckZ
Dann verstehe ich das nicht: "aber er hat damit weder einen optischen noch messbaren Vorteil gegenüber der Konkurrenz".
Aber schoen, dass du mir zustimmst :)

Momentan wird SM3.0 nur in Farcry eingebaut. Aber in diesem Fall gibt es letztendlich keine Vorteile für den NV40, da ich diese Qualität und Geschwindigkeit auch beim R3*0 mit SM2.0 habe.
Ansonsten sehe ich die Vorteile von SM3.0 sehr wohl. Wie gesagt, wenn diese Feature ein "must have" ist, dann ist es ein Nachteil dieses nicht anzubieten.

Ende

Axel
2004-07-04, 16:47:50
Original geschrieben von tokugawa
Trotzdem dürfen Entwickler sich noch freuen wenn es neue erleichternde Features gibt, oder? :)

Aber sicher. :)

LovesuckZ
2004-07-04, 16:53:48
Original geschrieben von Axel
Ansonsten sehe ich die Vorteile von SM3.0 sehr wohl. Wie gesagt, wenn diese Feature ein "must have" ist, dann ist es ein Nachteil dieses nicht anzubieten.


Also hoffst du beim Kauf eines r420 gegenueber einem NV40 darauf, dass das SM3.0 kein "must have" werden und damit der jetzige Nachteil in keinen mutieren wuerde?
Finde ich ehrlich gesagt sehr verwirrend...

Konami
2004-07-04, 16:56:16
Stärken:

X800XT:
- höhere Rohleistungdas stimmt nicht... takte mal ne 6800 GT/Ultra und ne X800 XT gleich und bench ohne AA und mit bilinearer filterung, sodass es keine optimierungen gibt... die ergebnisse werden sich bestimmt sehr ähnlich sehen... genau wie bei ner X800 Pro und ner 6800 non-Ultra
- geringerer Stromverbrauch (als Nvidia) + SingleSlotder stromverbrauch der 9800XT stört auch niemanden, und die 6800er haben dafür auch ne wirklich angemessene leistung...
- In allen D3D-Applikationen schnell bis sehr schnell (im Vergleich zu Nvidia)durch die "optimierungen"...
- ATI hat (im Vergleich zu NV) in allen Spielen optimiert und nicht nur in bestimmten* Spielenimho ist das ein nachteil, genau wie dass die "optimierungen" bei ATi nicht deaktivierbar sind...
- ATI hat Truformwas aber kaum verwendet wird...

Schwächen/Verbesserungsmöglichkeiten:

Nvidia:
- DualSlot und sehr hoher Stromverbrauch
- kein TruForm
- niedrigere Rohleistung als ATI
- D3D Performance sollte sich verbessernalles siehe oben
- Controlpanel sollte übersichtlicher sein und die Einstellungsmöglichkeiten sollten zusammengefasst werdenich finde beide CPs gut, das von NV und das von ATi... allerdings ist das von NV etwas professioneller, und das von ATi dafür übersichtlicher... was einem wichtiger ist, kann man ja für sich selbst entscheiden
- Nvidia muss für alle Spiele optimieren, nicht nur für bestimmte* (siehe das Review von xbitlabs)finde ich nicht... siehe oben

ATI:
- TruForm nicht in Hardware wie beim R200wie gesagt, wird TruForm eh kaum verwendet... daher ist es eigentlich egal, wo es möglich ist und wo nicht
- Optimierungen lassen sich nicht abschalten wie bei Nvidiaallerdings!
- kein SM3.0 (ich sehe das als Nachteil)genau, denn SM3.0 wird, wenn erstmal DX 9.0c erschienen ist und in spielen verwendet wird, sicher einiges an performance bringen...

Was mich bei ATI buchstäblich schockiert/enttäuscht hat, ist, dass sie keine höheren AA/AF-Modi eingebaut haben und TruForm nicht endlich wieder in Hardware verfügbar ist. Zumindest in der Entwicklungszeit wären diese Verbesserungen möglich gewesen.TruForm ist egal, aber ATi hätte wirklich mal bessere AA/AF modi einbauen können... die rohleistung ist dafür jetzt ja wirklich ausreichend...
und genau das stört mich an ATi im moment am meisten: die gute performance wird nicht ausgenutzt, um dem user bessere bildqualität zu bescheren, sondern ATi legt glatt noch die "optimierungen" obendrauf, bloß damit möglichst gute benchmarkergebnisse otto normalverbraucher zum ATi käufer machen...


just my 2 cents

reunion
2004-07-04, 17:03:14
Original geschrieben von M4N!@C
das stimmt nicht... takte mal ne 6800 GT/Ultra und ne X800 XT gleich

Wie oft denn noch, niemand wird sich eine X800 kaufen und sie dann runtertakten. Tatsache ist die X800XT PE hat (durch den deutlich höheren Takt) auch eine höhere Rohleistung!

reunion
2004-07-04, 17:10:42
Original geschrieben von M4N!@C
takte mal ne 6800 GT/Ultra und ne X800 XT gleich und bench ohne AA und mit bilinearer filterung, sodass es keine optimierungen gibt... die ergebnisse werden sich bestimmt sehr ähnlich sehen...

Ja, weil dann wohl jede Anwendung total von der CPU limitiert wird. :asshole:

seahawk
2004-07-04, 17:13:35
Original geschrieben von reunion
IMO sind die einzig wirklichen Vorteile der X800 der leise Lüfter (den man dank VGA-Silencer aber auch auf Geforcekarten haben kann), die kleinere Karte und das leicht bessere AA, alles andere spricht für NV...

Also lauter ist die GeForce nur im 3D Betrieb. Bei 2D waren die alle nicht mehr zu unterscheiden.

Rampage 2
2004-07-04, 17:40:10
Also ich muss hier klarstellen: Mit der Rohleistung meine ich die rein physikalische Leistung (also nicht die Leistung inder Praxis) - und die ist bei der X800XT aufgrund des höheren Taktes höher.

Tesseract
2004-07-04, 18:42:31
wie ich das sehe:

NV40 stärken/schwächen:

+ nahezu keine bandbreitenlimitierung (d.h.u.a. sehr schnelles MS fast ohne speedverlust)
+ doublescan*
+ div. supersamplingmodi/hybriden*
- zu wenig effektive füllrate (macht sich am stärksten in der AF geschwindigkeit bemerkbar und da erst recht mit vollem Tri)
- zwang zu winkelabhängigem AF

X800 stärken/schwächen:

+ bandbreite und füllrate relativ ausgeglichen d.h. nicht so plötzliche flaschenhälse (zB bei AF)
+ AA modus mit höchster achsenauflösung (6x6)
+ geringe wärmeentwicklung
+ etwas höhere "unterm-strich-leistung" bei maximaler bildquallität
- allgemeine genauigkeitsschwäche - vor allem beim filtern (Bi, Tri, AF)
- zwang zu winkelabhängigem AF


wo ich unenschieden sehe bzw. was ich als - für den user - relativ unnötig erachte:

- PS speed (die ist im großen und ganzen bei beiden okay - starke unterschiede in games sind einzelfälle)
- truform (unnötig³)

*) für ältere spiele oft sehr sinnvoll

PS: natürlich kein anspruch auf vollständigkeit, das ist mir jetzt gerade so eingefallen
wird ev. noch erweitert

tombman
2004-07-05, 00:28:50
Original geschrieben von seahawk
Also lauter ist die GeForce nur im 3D Betrieb. Bei 2D waren die alle nicht mehr zu unterscheiden.

100% falsch.

6800u ist deutlich lauter als x800. (2d db= 3d db)

Gast
2004-07-05, 00:28:55
Also ich finde alle Karten, die man z. Zt. kaufen kann, sind Mist!
NV 25/28 - geile Karten, aber mittlerweile zu langsam
NV 30/38 - Leistungsdefizite
R 300/420 - keine optimale BQ
NV 40 - auch keine optimale BQ mehr.
Man kann eigentlich nur hoffen, daß die nächste Generation alles rausreißt, also z.B. sowas wie eine 6800er mit Lehrbuch-AF und Stromverbrauch/Lautstärke wie X800.

ironMonkey
2004-07-05, 00:41:58
Original geschrieben von Tesseract
wie ich das sehe:

NV40 stärken/schwächen:

+ nahezu keine bandbreitenlimitierung (d.h.u.a. sehr schnelles MS fast ohne speedverlust)
+ doublescan*
+ div. supersamplingmodi/hybriden*
- zu wenig effektive füllrate (macht sich am stärksten in der AF geschwindigkeit bemerkbar und da erst recht mit vollem Tri)
- zwang zu winkelabhängigem AF

X800 stärken/schwächen:

+ bandbreite und füllrate relativ ausgeglichen d.h. nicht so plötzliche flaschenhälse (zB bei AF)
+ AA modus mit höchster achsenauflösung (6x6)
+ geringe wärmeentwicklung
+ etwas höhere "unterm-strich-leistung" bei maximaler bildquallität
- allgemeine genauigkeitsschwäche - vor allem beim filtern (Bi, Tri, AF)
- zwang zu winkelabhängigem AF


wo ich unenschieden sehe bzw. was ich als - für den user - relativ unnötig erachte:

- PS speed (die ist im großen und ganzen bei beiden okay - starke unterschiede in games sind einzelfälle)
- truform (unnötig³)

*) für ältere spiele oft sehr sinnvoll

PS: natürlich kein anspruch auf vollständigkeit, das ist mir jetzt gerade so eingefallen
wird ev. noch erweitert


Um eine X800XT PE als ausgelglichen zu bezeichenen bräuchte sie Speicher mit ca.900MHz, eine X800Pro ca.600MHz Speicher.


Die Winkelabhängigkeit ist ein + bei beiden da gerade dies erlaubt ordenltich AF einzustellen ohne große BQ abstriche hinehmen zu müssen.


Gruß

tombman
2004-07-05, 00:48:31
Original geschrieben von Mmmmmh
Irgendwie fällt es mir schwer den Stromverbrauch als großen Nachteil anzuerkennen von Leuten die einen Athlon 64 Fx53 unter der Haube zu werkeln haben, den mit ner mach 1? kühlen(http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=1803448#post1803448) und auf 2900 MHz laufen zu lassen, in meinen Augen widerspricht man sich dort ein wenig. Da sollten doch die paar Watt mehr von einer 6800 Ultra doch wirklich egal sein.:wink2:

ich rede aber nicht für leute wie mich sondern für alle.
und für die masse IST strom, platz und lärm ein wichtiges thema. (stichworte barebone und silent pc)

Tesseract
2004-07-05, 01:13:54
Original geschrieben von ironMonkey
Die Winkelabhängigkeit ist ein + bei beiden da gerade dies erlaubt ordenltich AF einzustellen ohne große BQ abstriche hinehmen zu müssen.


du bist dir aber schon über die bedeutung des wortes "zwang" im klaren oder?

oder anders gesagt:
hätte es noch nie winkelabhängiges AF gegeben hätte es auch niemanden gestört das es "fehlt"
was mich an der winkelabhängigkeit so stört ist eben die tatsache das viele winkel nicht mit über 2x bzw. gar ganz isotrop gefiltert werden
und das steht in krassem widerspruch zu deiner aussage

beispiel: gothic2
einige flächen der landschaft sind gestochen scharf
andere hingegen matsch - obwohl es das selbe gelände ist, nur anderer winkel
die landschaft wirkt mir einfach zu künstlich und inhomogen
das ist der grund wieso ich auf meiner 9700pro fast nie mehr als 4xAF fahre, auch wenn die leistung locker vorhanden wäre
natürlich gibt es auch situationen wo es nicht stört, dann spart man aber auch nicht wirklich leistung

Original geschrieben von ironMonkey
Um eine X800XT PE als ausgelglichen zu bezeichenen bräuchte sie Speicher mit ca.900MHz, eine X800Pro ca.600MHz Speicher.

ausgeglichen im sinne von keiner offensichtlichen limitierung
ich habe noch kein szenario gesehen wo eine X800 "wie von geisterhand" extrem einbricht weil plötzlich einer der beiden faktoren limitiert (wie es zB bei der NV40 bei hohen AF graden ab und zu vorkommt - mit 50% FPS verlust)

ironMonkey
2004-07-05, 01:43:28
Original geschrieben von Tesseract
....................................
ausgeglichen im sinne von keiner offensichtlichen limitierung
ich habe noch kein szenario gesehen wo eine X800 "wie von geisterhand" extrem einbricht weil plötzlich einer der beiden faktoren limitiert (wie es zB bei der NV40 bei hohen AF graden ab und zu vorkommt - mit 50% FPS verlust)


Doch, die Chips sind limitiert vom Speicher, für einen Refresh könnte es schon fast genügen 250MHz Speicher mit 512bit anbindung zu nehmen um sich von den jetzigen Karten abzuheben.

Als beispiel könnte mal jemand der eine X800Pro hat bei der der Speicher sehr hoch geht einmal im standard Takt benchen und einmal mit OC'tem Speicher.

dem NV40 geht soweit ich das richtig gelesen hab bei 4xAA +16xAF Der Speicher langsam aus, also würden sich hier 512mb lohnen.

Wegen dem AF,über die Breite Masse gerechnet hat es fast nur Vorteile, von daher.......


Gruß

Xmas
2004-07-05, 01:52:50
Die Winkelabhängigkeit beim AF hat nur einen einzigen Vorteil, es spart Transistoren.

Xmas
2004-07-05, 01:54:40
Original geschrieben von tombman
ich rede aber nicht für leute wie mich sondern für alle.
und für die masse IST strom, platz und lärm ein wichtiges thema. (stichworte barebone und silent pc)
Barebone und Silent PC sind noch lange kein Thema für die Masse. High-End-GPUs aber auch nicht.

tombman
2004-07-05, 04:57:40
Original geschrieben von Xmas
Barebone und Silent PC sind noch lange kein Thema für die Masse. High-End-GPUs aber auch nicht.

lärm, strom und platz sind ganz sicher interessant für 99%
der käufer --> bleiben minuspunkte für nvidia.

btw, der barebone trend ist nicht mehr aufzuhalten, und diese käuferschicht ist ziemlich angepißt weil nvidia 2 steckplätze verbraucht, die im barebone nun mal nicht vorhanden sind. (bei der ultra) und wie ein 250watt barebone netzteil auf eine nv40 reagiert ist das nächste thema. dazu noch die hitze auf dem engen raum...

dvd kucken mit lüftergeräusch is auch ned nice...

dazu schon die ersten meldungen von usern, die stromprobleme haben machen die ganze chose rund...

klar, MIR und den wahnsinnigen auf XS.org is des so piepegal, aber wir sind nicht mal 5% ;)

Radeonator@work
2004-07-05, 06:27:58
Original geschrieben von tombman
lärm, strom und platz sind ganz sicher interessant für 99%
der käufer --> bleiben minuspunkte für nvidia.

btw, der barebone trend ist nicht mehr aufzuhalten, und diese käuferschicht ist ziemlich angepißt weil nvidia 2 steckplätze verbraucht, die im barebone nun mal nicht vorhanden sind. (bei der ultra) und wie ein 250watt barebone netzteil auf eine nv40 reagiert ist das nächste thema. dazu noch die hitze auf dem engen raum...

dvd kucken mit lüftergeräusch is auch ned nice...

dazu schon die ersten meldungen von usern, die stromprobleme haben machen die ganze chose rund...

klar, MIR und den wahnsinnigen auf XS.org is des so piepegal, aber wir sind nicht mal 5% ;)

So langsam reichts...das kann man sich ja nicht mehr antun.

nVidia ist und bleibt unter OGL schneller, egal wie sehr du dein Branding favorisierst.

- Ne 6800Ultra oder x800XT im Barebone...ne is klar :bonk:. Das supi totschlag Argument. Primär sind Barbone Systeme für Multimedia da und garantiert nicht um HighEnd Gamestations darzustellen.

- 99% der Käufer ist Platz und Stromverbrauch scheissegal. Die Masse kauft Aldi PC´s bzw beliebige "Fertigrechner". Wenn ein kaufgrund besteht, dann gutes Marketing und tolle "neue Sachen" muss Sie können.

- Egal was jemand schreibt, selbst wenn dieser jemand die Karte hat, schreibst du einfach das Gegenteil. Unter 2d ist die Karte nicht zu hören und 2d!=3d , versuch also nicht hier halb/unwahrheiten als Fakten darzustellen.

Gast
2004-07-05, 07:59:06
ein dicker minus punkt fuer die nv karten ist noch die mieserable uebertaktbarkeit.

und ich denke, dass fuer mindestens 80% der normalkunden, der stromverbrauch sehr wohl ein wichtiges kaufargument ist, auch bei den highendkarten. ausserdem ist die geraeuschentwicklung sehr wichtig bei einem pc. auch die normal user wollen in ihrem wohnzimmer keine flugzeugturbine. die meisten verzichten sogar auf leistung um einen moeglichst leisen pc zu haben.

ich koennte z.z. niemanden ruhigen gewissens, eine nv 6800 kaufempfehlung geben. es gibt einfach viel zu viele (für mich relevante) schwächen bei dieser kartengeneration. die x800 ist zwar auch nicht das non-plus-ultra, hat aber wesentlich weniger gravierende schwaechen und ist deshalb eine kaufempfehlung wert.

ShadowXX
2004-07-05, 08:19:25
Original geschrieben von Gast
ein dicker minus punkt fuer die nv karten ist noch die mieserable uebertaktbarkeit.

und ich denke, dass fuer mindestens 80% der normalkunden, der stromverbrauch sehr wohl ein wichtiges kaufargument ist, auch bei den highendkarten. ausserdem ist die geraeuschentwicklung sehr wichtig bei einem pc. auch die normal user wollen in ihrem wohnzimmer keine flugzeugturbine. die meisten verzichten sogar auf leistung um einen moeglichst leisen pc zu haben.

ich koennte z.z. niemanden ruhigen gewissens, eine nv 6800 kaufempfehlung geben. es gibt einfach viel zu viele (für mich relevante) schwächen bei dieser kartengeneration. die x800 ist zwar auch nicht das non-plus-ultra, hat aber wesentlich weniger gravierende schwaechen und ist deshalb eine kaufempfehlung wert.

Das mit der Lautstärke sehe ich noch teilweise ein (wobei bis vor ca. 1 bis 2 Jahren das auch noch niemand wirklich gestört hat).
Davon abgesehen, das die GF68U bestimmt auch nicht als Multimediakarte für den Barebone neben dem Frenseher geplant ist...

Aber das mit dem Stromverbrauch ist wirklich überzogen....auf 10-20 Watt mehr oder weniger kommt es wirklich nicht mehr an (gegenüber einer x800xt).
Speziell dann nicht, wenn der rest der Komponenten im System sowieso ebenfalls schon alles Stromschlucker sind (und das sind sie meistens, wenn man eine x800xt/nv40U richtig ausnutzen will).

Und so miserable zu übertakten sind die nVs auch nicht...es gibt reihenweise GTs die z.B. Ultra-Takt schaffen...klar es gibt auch welche, die nur 10MHz über GT Takt kommen.

Aber ich verstehe sowieso nicht, warum etwas am OC Potential festgemacht wird...der Hersteller garantiert die Takraten, die auf der Verpackung angegeben sind...mehr nicht...und man kann im Prinzip schon froh sein, das nV und ATI nicht irgendwelche OC-Sperren einbauen, denn besonders toll finden Sie, die Kartenhersteller und auch die Händler es bestimmt nicht, das alle wie wild Ihre Karten übertakten.

Und dann auch noch negativ darüber reden, wenn sich eine Ultra nicht auf 480MHz übertakten lässt...muss dann ja schei**e sein...
Gott, ich bin froh und glücklich darüber, das ich meine r350 auf 420GPU Takt heben kann...wenns nur 400 gewesen wären, wäre ich auch froh gewesen....und wenns gar nicht gegangen wäre...auch ok...den mir wird nunmal nur 380 garantiert...

tokugawa
2004-07-05, 09:28:07
Original geschrieben von tombman
lärm, strom und platz sind ganz sicher interessant für 99%
der käufer --> bleiben minuspunkte für nvidia.

btw, der barebone trend ist nicht mehr aufzuhalten, und diese käuferschicht ist ziemlich angepißt weil nvidia 2 steckplätze verbraucht, die im barebone nun mal nicht vorhanden sind. (bei der ultra) und wie ein 250watt barebone netzteil auf eine nv40 reagiert ist das nächste thema. dazu noch die hitze auf dem engen raum...

dvd kucken mit lüftergeräusch is auch ned nice...

dazu schon die ersten meldungen von usern, die stromprobleme haben machen die ganze chose rund...

klar, MIR und den wahnsinnigen auf XS.org is des so piepegal, aber wir sind nicht mal 5% ;)


Als Silent-Freak (ich bin auch einer), muß man eben mit Abstrichen leben, und halt nicht unbedingt das Ulta-Highend-Segment anvisieren. Eine 1-slottige sparsamere 6800 non-Ultra (eventuell sogar GT) mit alternativer Nicht-Referenz-Kühlkonstruktion ist für Silent-Freaks sicher genau so interessant (für mich sogar noch immer zu teuer).

tokugawa
2004-07-05, 09:30:22
Original geschrieben von Gast
ein dicker minus punkt fuer die nv karten ist noch die mieserable uebertaktbarkeit.

und ich denke, dass fuer mindestens 80% der normalkunden, der stromverbrauch sehr wohl ein wichtiges kaufargument ist, auch bei den highendkarten. ausserdem ist die geraeuschentwicklung sehr wichtig bei einem pc. auch die normal user wollen in ihrem wohnzimmer keine flugzeugturbine. die meisten verzichten sogar auf leistung um einen moeglichst leisen pc zu haben.


Genau, und wenn man sich gerade keine ULTRA kauft, hat man auch schmalere, sparsamere, und leisere (nicht-referenz) Lösungen.

Im Übrigen ist die 6800 Ultra im 2D-Betrieb überhaupt nicht schlimm, der Begriff "Flugzeugturbine" ist also eher... Mist :)

Gast
2004-07-05, 09:34:48
Original geschrieben von tombman
ich rede aber nicht für leute wie mich sondern für alle.
und für die masse IST strom, platz und lärm ein wichtiges thema. (stichworte barebone und silent pc)


Noe, hat di Masse noch NIE interessiert und wird es auch jetzt nicht.

tokugawa
2004-07-05, 09:35:53
Original geschrieben von Gast
Noe, hat di Masse noch NIE interessiert und wird es auch jetzt nicht.

Ist aber egal, was die Masse will, oder?

Zumindest solange auch "Minderheiten" bedient werden...

Tjell
2004-07-05, 10:05:12
Original geschrieben von Gast
ein dicker minus punkt fuer die nv karten ist noch die mieserable uebertaktbarkeit.


Ne, is klar. :balla:

(del676)
2004-07-05, 10:16:35
was verbessert werden muss?
ganz einfach, fast alles egal ob ATI oder NV

1. Stromverbrauch
2. Hitzeentwicklung (siehe 1.)
3. Triplehead (wenn ich 600€ zahle dann will ich doch ein paar gscheide Features und keine dumme 300k Pixel Webcam wie bei Asus)
4. Signalqualität (hat sicher mittlerweile schon gebessert)
5. Linux Treibersupport (2D und 3D Speed, Stabilität, Features)
6. Layout (und keine 50cm langen Karten die 1 PCI zusätzlich belegen)
7. Lautstärke des Kühlers
8. Qualität der ausgelieferten Ware, und keine pfeifenden Geräusche beim scrollen oder flimmern in Games :eyes:

seahawk
2004-07-05, 10:45:30
Original geschrieben von tombman
100% falsch.

6800u ist deutlich lauter als x800. (2d db= 3d db)

Hm unser Testsample regelt sich im 2D Betrieb runter.

tombman
2004-07-05, 10:57:49
Original geschrieben von Radeonator@work
So langsam reichts...das kann man sich ja nicht mehr antun.

nVidia ist und bleibt unter OGL schneller, egal wie sehr du dein Branding favorisierst.

- Ne 6800Ultra oder x800XT im Barebone...ne is klar :bonk:. Das supi totschlag Argument. Primär sind Barbone Systeme für Multimedia da und garantiert nicht um HighEnd Gamestations darzustellen.

- 99% der Käufer ist Platz und Stromverbrauch scheissegal. Die Masse kauft Aldi PC´s bzw beliebige "Fertigrechner". Wenn ein kaufgrund besteht, dann gutes Marketing und tolle "neue Sachen" muss Sie können.

- Egal was jemand schreibt, selbst wenn dieser jemand die Karte hat, schreibst du einfach das Gegenteil. Unter 2d ist die Karte nicht zu hören und 2d!=3d , versuch also nicht hier halb/unwahrheiten als Fakten darzustellen.

@barebone: dann frag mal tausende lan party gänger ob platz und strom ned wichtig ist.

@ogl: ich liefere fps beweise für meine aussagen, du hast nur dein gelabere

@lärm: MEINE 6800u hat wahrscheinlich ein pre-production bios, denn es ist eine original nvidia, die nicht für den handel bestimmt ist. deswegen ist bei mir 2d db= 3d db. TROTZDEM gibt es im internet eine 100% bestätigung für meine aussage, daß nvidia DEUTLICH lauter unter 3d ist als ati!

dein einziges "argument" besteht darin zu sagen, daß diese ganzen nvidia nachteile keine sind, weil es egal ist.
LOL, schon mal die ganzen "dustbuster" fx5800 verarschungswebsites gesehen?

strom, lärm und platz SIND wichtig.
für manche sogar kaufentscheident.

Gast
2004-07-05, 11:00:10
Original geschrieben von tombman


strom, lärm und platz SIND wichtig.
für manche sogar kaufentscheident.

Es gibt nichts unwichtigeres.

tokugawa
2004-07-05, 11:31:43
Original geschrieben von tombman
@barebone: dann frag mal tausende lan party gänger ob platz und strom ned wichtig ist.

@ogl: ich liefere fps beweise für meine aussagen, du hast nur dein gelabere

@lärm: MEINE 6800u hat wahrscheinlich ein pre-production bios, denn es ist eine original nvidia, die nicht für den handel bestimmt ist. deswegen ist bei mir 2d db= 3d db. TROTZDEM gibt es im internet eine 100% bestätigung für meine aussage, daß nvidia DEUTLICH lauter unter 3d ist als ati!

dein einziges "argument" besteht darin zu sagen, daß diese ganzen nvidia nachteile keine sind, weil es egal ist.
LOL, schon mal die ganzen "dustbuster" fx5800 verarschungswebsites gesehen?

strom, lärm und platz SIND wichtig.
für manche sogar kaufentscheident.

kaufentscheidend.

Es kommt immer drauf an, MANCHEN ist es nicht wichtig, anderen schon. Sicher ist es ein Nachteil, aber für den einen mag er mehr wiegen als für andere.

Eine Preproduction-Version hat allerdings null Aussagekraft, auch beim "Dustbuster" FX 5800 wurde die Retail-Kühlung trotz gleichen Aussehens/Prinzips wie die Preproduction-Samples nachgebessert und (etwas) leiser (aber noch immer laut im 3D-Betrieb. Dafür unhörbar im 2D-Betrieb, was ich für ein vernünftiges Prinzip halte).

@OGL: Wie oft denn noch, es ist nicht nur die Geschwindigkeit ausschlaggebend! Die OGL-Treiberqualität bei ATI war bei einigen Catalysts sehr suspekt (mit Abstürzen, was bei NVIDIA bei mir noch nie vorgekommen ist). Außerdem hält sich einer der beiden nicht an den Standard, was die Default-Werte für manche Statevariablen betrifft. Das OpenGL von der NV40 ist überaus exzellent, es unterstützt sogar einige ATI_ Extensions, dadurch ist die NV40 in Summe unter OpenGL eindeutig die bessere Wahl.

ironMonkey
2004-07-05, 11:45:23
Für jeden ist etwas anderes wichtig, der Stromverbrauch ist für mich selbst schon wichtig, nicht das ihr jetzt denk ich spar da überall wo es nur geht, aber Leistung/Stromverbrauch sollte stimmen und das NV den ca. 20 - 30% höheren Verbrauch nicht in Leistung umsetzten kann hatten wir schon zu genüge.

1Slot Karten sind in dem berreich wo sich die high end karten bewegen nicht möglich, falls es ne 1Slot lösung ist sollte trotzdem der 1ste PCI Steckplatz frei bleiben, bei meinem 8RDA3+ ist der erst garnicht da, da wurde also nachgedacht.


Was wirklich verbessert werden sollte ist der Service, hier könnte man bei Kunden sehr gut punkten, der Service ist im PC Sektor allgemein unter aller sau.

Ansonsten kann ich Ulukay in einigen Punkten zustimmen, weil ich bekomm zB. schon mit der länge eine 5900Xt Probleme und ne Webcam brauch ich auch nicht und Qualität sucht man im PC Berreich vergeblich, ist einfach zu schnell lebig.


Gruß

Grestorn
2004-07-05, 14:51:53
Original geschrieben von ironMonkey
Für jeden ist etwas anderes wichtig, der Stromverbrauch ist für mich selbst schon wichtig, nicht das ihr jetzt denk ich spar da überall wo es nur geht, aber Leistung/Stromverbrauch sollte stimmen und das NV den ca. 20 - 30% höheren Verbrauch nicht in Leistung umsetzten kann hatten wir schon zu genüge.
Bei 198 Watt (x800 XT) entsprechen 223 Watt (6800U) aber eher einem Mehrverbrauch von etwa 10%. Ein anderes Modell der 6800U im selben Test ergab gar nur 209 Watt, was gerade mal 5% Mehrleistung entspricht.

Quelle (http://www.computerbase.de/artikel/hardware/grafikkarten/x800_pro_xt_pe_geforce_6800_gt_ultra/19/#leistungsaufnahme)

Angegeben ist hier freilich immer der Gesamtverbrauch des Computersystems. Wieviel Leistung die Grafikkarte alleine mehr verbraucht lässt sich gar nicht getrennt ermitteln. Man darf ja auch nicht vergessen, dass das gesamte System (CPU, MB) mehr oder weniger stark belastet wird, abhängig von Leistung und Arbeitsweise der GraKa und damit auch mehr oder weniger viel Leistung verbraucht.

LovesuckZ
2004-07-05, 15:01:43
Original geschrieben von ironMonkey
Für jeden ist etwas anderes wichtig, der Stromverbrauch ist für mich selbst schon wichtig, nicht das ihr jetzt denk ich spar da überall wo es nur geht, aber Leistung/Stromverbrauch sollte stimmen und das NV den ca. 20 - 30% höheren Verbrauch nicht in Leistung umsetzten kann hatten wir schon zu genüge.


Muessen wir dauernd nur die typische "Leistung" betrachten? Wir sehen doch, wohin uns dies bringt: Weniger Bildqualitaet!
Wie sieht es mit dem aus, was die Karte hat: Features und Leistungs bei maximaler Bildqualitaet.
Und da hat nvidia auf der einen Seite einen hoeheren Stromverbrauch, jedoch auch das ueberlegende Featurepaket.
Wer wirklich Strom sparen will, kauft sich auch keinen R420 (sowie andere stromfressende Hardware). Alles andere ist "Wasser predigen und Wein trinken".

Gast
2004-07-05, 16:41:01
Original geschrieben von LovesuckZ
Muessen wir dauernd nur die typische "Leistung" betrachten? Wir sehen doch, wohin uns dies bringt: Weniger Bildqualitaet!
Wie sieht es mit dem aus, was die Karte hat: Features und Leistungs bei maximaler Bildqualitaet.
Und da hat nvidia auf der einen Seite einen hoeheren Stromverbrauch, jedoch auch das ueberlegende Featurepaket.
Wer wirklich Strom sparen will, kauft sich auch keinen R420 (sowie andere stromfressende Hardware). Alles andere ist "Wasser predigen und Wein trinken".

Features die keiner braucht ( noch nicht, bzw. in einem Jahr ) und Leistung die bei maximaler BQ leider 50% Performance kostet, von daher sinnlos da unspielbar.

Mantikor
2004-07-05, 16:44:36
Wer hat sich denn da ausgeloggt?!

Wie oft wurde es schon diskutiert? Gibt es keinen technologischen Vorstoß, dann machen auch die Entwickler nicht mit. (weiterdenken ist jedem "Gast" selbst überlassen")

Mfg der Mantikor

Gast
2004-07-05, 16:50:07
ok da hast du recht. Aber es geht darum dass das jetzt noch keinen Nutzen von sich ziehen wird ( und kommt mir jetzt nicht mit FC "sponsored by Nv" ).

Das Feature zu haben ist gut, nur nutzt es einem jetzt noch nichts. Und man zahlt quasi umsonst dafür. Denn sobald das richtig genutzt wird steht schon wieder die nächste Generation vor der Tür.

Ich bin nicht gegen SM3 oder so, im gegenteil, es ist gut das es vorhanden ist und auch irgendwann mal genutzt wird. Nur ist das noch lange kein Kaufargument.

Das Performanceproblem der Nv40 ist allerdings damit nicht aus der Welt. Denn wenn man schon max. BQ will dann sollte man auch die Leistung haben um sie darzustellen, und da siehts im Moment noch schlecht aus.

Ranz0r
2004-07-05, 16:50:26
Original geschrieben von Gast
Features die keiner braucht ( noch nicht, bzw. in einem Jahr ) und Leistung die bei maximaler BQ leider 50% Performance kostet, von daher sinnlos da unspielbar.

50% is bei diesen GraKadimensionen noch nichteinmal ansatzweise unspielbar... Es soll auch Leute geben die spielen noch mit ner 9600er.............

aths
2004-07-05, 18:17:29
Original geschrieben von Gast
Features die keiner braucht ( noch nicht, bzw. in einem Jahr ) und Leistung die bei maximaler BQ leider 50% Performance kostet, von daher sinnlos da unspielbar. 16x AA kostet auf der 6800 GT die ich leihweise habe, über 75% Leistung. Vieles ist damit noch sehr gut spielbar.

aths
2004-07-05, 18:22:14
Original geschrieben von Rampage 2
Also ich muss hier klarstellen: Mit der Rohleistung meine ich die rein physikalische Leistung (also nicht die Leistung inder Praxis) - und die ist bei der X800XT aufgrund des höheren Taktes höher. Welche Leistung? Texturierungsleistung? Shaderleistung?

Endorphine
2004-07-05, 18:40:37
"Rohleistung" ist imho viel eher das, was dem Programmierer über die DX/OGL-API zur Verfügung steht und durch Tools wie den ArchMark&trade;&reg; messbar ist =)

Aus dem Takt der GPU errechnete Füllraten, Shaderleistungen etc. sind reine Theoriewerte. Das was tatsächlich über die API nutzbar ist zählt. Nur das kann man in der Praxis tatsächlich nutzen. Oder gibt es irgendjemanden, der tatsächlich GPUs in ihrer nativen proprietären Maschinensprache programmiert? :freak:

LovesuckZ
2004-07-05, 19:03:04
Original geschrieben von Gast
Features die keiner braucht ( noch nicht, bzw. in einem Jahr )

Farcry^^

und Leistung die bei maximaler BQ leider 50% Performance kostet, von daher sinnlos da unspielbar.

Jap, deswegen ruesten auch alle r300 - r360 User auf: Bei ihnen ist alles unspielbar :freak:
Dir ist bewusst, dass die neuen Karten ca. 80 - 100% schneller sind als die alten?

LovesuckZ
2004-07-05, 19:08:35
Original geschrieben von Gast
ok da hast du recht. Aber es geht darum dass das jetzt noch keinen Nutzen von sich ziehen wird ( und kommt mir jetzt nicht mit FC "sponsored by Nv" ).

Welchen Nutzen habe ich von 3Dc und Ps2.b? Keinen, richtig. Also nicht aufruesten, auch wenn ich will?
Zu Farcry:
Ihr wärt erstaunt, wie viele Spiele nie einen Vertrieb finden; wie viele Entwickler die Tore schließen müssen, bevor sie ihr Spiel fertig gestellt haben oder gezwungen sind, bei einem kleinen Vertrieb zu unterzeichnen, um dann von geringen Absatzzahlen enttäuscht zu werden. Andererseits - man kann nie wissen, welches junge Entwicklungs-Studio den Durchbruch schaffen wird. Ich erinnere mich an Crytek vor vier Jahren, als sie noch sechs Mitarbeiter waren, welche an einer unbekannten Demo arbeiteten. Natürlich hat sich unser Support mit dem Wachstum des Teams und Ubisofts Vertriebspartnerschaft verstärkt. Und jetzt schaut sie euch an! Far Cry ist in vielen Ländern in den Top-Ten, und Crytek hat eine ausgezeichnete Engine, welche sie an andere Entwickler verkaufen. Du kannst nie wissen, wo ein kleiner Entwickler in zwei Jahren stehen wird, und deshalb stellt ATI zusätzliche Ressourcen in Kanada, welche kleine und noch nicht etablierte Entwickler unterstützen und so sicher stellen, dass alle Spiele gut auf ATI-Hardware laufen.
:freak:

Das Feature zu haben ist gut, nur nutzt es einem jetzt noch nichts. Und man zahlt quasi umsonst dafür. Denn sobald das richtig genutzt wird steht schon wieder die nächste Generation vor der Tür.

Daraus folgt: R420 User muessen wechseln, NV40 Kaeufer koennen noch warten.

Nur ist das noch lange kein Kaufargument.

Fue einen ATi user, der sich eine Steinzeitkarte gekauft hat, stimmt dies: Denn er muss hoffen, dass SM3.0 und FP - Blending nicht genutzt wird, da er sonst einen Nachteil hat!

Das Performanceproblem der Nv40 ist allerdings damit nicht aus der Welt. Denn wenn man schon max. BQ will dann sollte man auch die Leistung haben um sie darzustellen, und da siehts im Moment noch schlecht aus.

Im Gegensatz zu ATi kann man maximale Bildqualitaet einstellen. Sollte es zu langsam sein, dann reduziere ich die IQ.
ATi User muessen soch mit einer schlechteren Qualitaet vergnuegen, egal ob der Speed da ist oder nicht. Nennt man auch Bevormundung^^

xL|Sonic
2004-07-05, 19:13:46
max. Bildqualität kann der nv40 auch nicht darstellen :)
Im Vergleich zum R420 aufjedenfall höhere BQ, aber keine "maximale" BQ.

Das die Engine von Crytek nicht unbedingt ausgezeichnet ist, hat demirug hier ja schon mehrmals erläutert von daher ist es schwierig FC als Maßstab zu nehmen, was sogenannten SM3 Support in Spielen angeht.

Jesus
2004-07-05, 20:04:04
Original geschrieben von LovesuckZ
Welchen Nutzen habe ich von 3Dc und Ps2.b? Keinen, richtig. Also nicht aufruesten, auch wenn ich will?
Zu Farcry:
Ihr wärt erstaunt, wie viele Spiele nie einen Vertrieb finden; wie viele Entwickler die Tore schließen müssen, bevor sie ihr Spiel fertig gestellt haben oder gezwungen sind, bei einem kleinen Vertrieb zu unterzeichnen, um dann von geringen Absatzzahlen enttäuscht zu werden. Andererseits - man kann nie wissen, welches junge Entwicklungs-Studio den Durchbruch schaffen wird. Ich erinnere mich an Crytek vor vier Jahren, als sie noch sechs Mitarbeiter waren, welche an einer unbekannten Demo arbeiteten. Natürlich hat sich unser Support mit dem Wachstum des Teams und Ubisofts Vertriebspartnerschaft verstärkt. Und jetzt schaut sie euch an! Far Cry ist in vielen Ländern in den Top-Ten, und Crytek hat eine ausgezeichnete Engine, welche sie an andere Entwickler verkaufen. Du kannst nie wissen, wo ein kleiner Entwickler in zwei Jahren stehen wird, und deshalb stellt ATI zusätzliche Ressourcen in Kanada, welche kleine und noch nicht etablierte Entwickler unterstützen und so sicher stellen, dass alle Spiele gut auf ATI-Hardware laufen.
:freak:


deshalb prankt auch das Nv Logo auf der Verpackung und kein ATI logo ;)

deekey777
2004-07-05, 20:11:51
Der Patch 1.3 wird auch 3Dc nachliefern.

Jesus
2004-07-05, 20:13:56
fragt sich nur ob das viel nützt, denn imho werden in FC "nur" normale Bumpmaps verwendet, und keine normals ;) ( blöder satz ;) )

cmiiw...

deekey777
2004-07-05, 20:19:27
Original geschrieben von Jesus
fragt sich nur ob das viel nützt, denn imho werden in FC "nur" normale Bumpmaps verwendet, und keine normals ;) ( blöder satz ;) )

cmiiw...

Ob es was bringt oder nicht, ist letzendlich egal - Hauptsache ist, dass FC 1.3 ua auch 3Dc unterstützen wird.

Demirug
2004-07-05, 20:37:03
Original geschrieben von Jesus
fragt sich nur ob das viel nützt, denn imho werden in FC "nur" normale Bumpmaps verwendet, und keine normals ;) ( blöder satz ;) )

cmiiw...

Es geht. Aber nur solange nicht auch noch Offestmapping ins Spiel kommt. Dafür ist 3dc dann nicht mehr zu gebrauchen.

tokugawa
2004-07-05, 20:53:38
Original geschrieben von Jesus
fragt sich nur ob das viel nützt, denn imho werden in FC "nur" normale Bumpmaps verwendet, und keine normals ;) ( blöder satz ;) )

cmiiw...

Definiere "Normale Bumpmaps".

Und Normals werden ganz sicher verwendet, vielleicht meintest du Normal MAPS. Und ich _glaube_, selbst die werden verwendet (hab Far Cry nicht wahnsinnig lang gespielt, hat mir nicht wirklich zugesagt).

tombman
2004-07-05, 21:11:57
Original geschrieben von LovesuckZ




Im Gegensatz zu ATi kann man maximale Bildqualitaet einstellen. Sollte es zu langsam sein, dann reduziere ich die IQ.
ATi User muessen soch mit einer schlechteren Qualitaet vergnuegen, egal ob der Speed da ist oder nicht. Nennt man auch Bevormundung^^

B L A

Du kannst bei Nvidia keinen Modus einstellen in keinem game der besser mit freiem AUge aussieht als der beste Modus bei ATI.

Tesseract
2004-07-05, 21:20:06
Original geschrieben von tombman
Du kannst bei Nvidia keinen Modus einstellen in keinem game der besser mit freiem AUge aussieht als der beste Modus bei ATI.

gegenbeispiel: (hab ich schon des öfteren erwähnt)
gothic 1/2 mit supersampling

das ist mit reinem multisampling immer noch grausamst augenkrebserregend

behauptung widerlegt ;)

tombman
2004-07-06, 00:36:28
Original geschrieben von Tesseract
gegenbeispiel: (hab ich schon des öfteren erwähnt)
gothic 1/2 mit supersampling

das ist mit reinem multisampling immer noch grausamst augenkrebserregend

behauptung widerlegt ;)

das ist aber jetzt völlig andere Baustelle... es ging um AF.

Und wieviel fps hat man da mit SS? (1600x1200?)

Jesus
2004-07-06, 01:04:12
Original geschrieben von Tesseract
gegenbeispiel: (hab ich schon des öfteren erwähnt)
gothic 1/2 mit supersampling

das ist mit reinem multisampling immer noch grausamst augenkrebserregend

behauptung widerlegt ;)

also ich weiss ja nicht von was du augenkrebs bekommst, aber mit 6xAA und 16xAF gibts weder kantenflimmern noch sonst irgendwas augenkrebserregendes ( 1280x1024 auf r9800 )

http://nemesis.rushers.net/a.JPG

aths
2004-07-06, 01:10:48
Original geschrieben von Jesus
fragt sich nur ob das viel nützt, denn imho werden in FC "nur" normale Bumpmaps verwendet, und keine normals ;) ( blöder satz ;) )

cmiiw... Wie willst du Bumpmapping à la FC machen, ohne mit Normal Maps zu arbeiten?

aths
2004-07-06, 01:13:31
Original geschrieben von Jesus
also ich weiss ja nicht von was du augenkrebs bekommst, aber mit 6xAA und 16xAF gibts weder kantenflimmern noch sonst irgendwas augenkrebserregendes ( 1280x1024 auf r9800 ) Die Baumkronen flimmern z. B.

Bei Max Payne 2 gibt es leider viele Stellen wo Kanten per Alphatest erzeugt werden. Ordered Grid Supersampling ist eine ineffiziente Verbesserungsmethode, aber angesichts der überschüssigen Leistung aktueller GeForce-Karten trotzdem hier und da zu gebrauchen.

aths
2004-07-06, 01:14:30
Original geschrieben von tombman
B L A

Du kannst bei Nvidia keinen Modus einstellen in keinem game der besser mit freiem AUge aussieht als der beste Modus bei ATI. ... du meinst, wo du mit deinem Auge keinen Unterschied siehst?

Leider weiß ich nicht mehr, wie das Autorennspiel hieß, aber es gibt mindestens ein, wo sogar einige Radeon 9800-User zugeben, dass AF dort auf bestimmten Flächen zu Texture Shimmering führt. Angesichts der neuen "Optimierungen" bei der X800 muss das Texturflimmern da noch schlimmer sein.

Mir ist kein Spiel bekannt, wo GeForce-AF zu Texturflimmern führt. Ausgenommen sind natürlich z. B. Zäune mit Alphatest – dort führt AF immer zu Flimmern (Alphatest sollte man halt nicht nutzen.) Im Gegensatz zur Radeon haben GeForce-Karten beim Textur-Sampling keine Genauigkeits- und damit LOD-Probleme (http://www.3dcenter.org/artikel/2003/11-21_a.php), noch wird derartig "optimiert" dass bewusst zu wenig AF-Samples genommen werden, als zur Erfüllung des Nyquist-Kriteriums eigentlich nötig.

Das sieht man nicht immer auf den ersten Blick, weil Texturen oft keine so hochfrequenten Inhalte haben. Auf der anderen Seite darf man, so man auf Radeon X800 kein Texturflimmern haben will, keine sehr scharfen Texturen mehr einsetzen. An dieser Stelle will ich nicht über den Sinn und Unsinn von so genannten "Optimierungen" reden. Interessant finde ich allerdings, dass NV neuerdings an einem CP arbeitet wo man sowas alles abschalten kann, während ATI dem X800-User Texturqualität vorenthält, die die Hardware liefern könnte (weniger LOD-Probleme beim AF, volle trilineare Filterung.)

Kombiniert man 16x AF und 4x OGSSAA, hat man Texturen die praktisch 32x anisotrop gefiltert sind. Während wegen der starken Winkelabhängigkeit das normale NV40-AF schlimmstenfalls bis 2x runterschaltet, sind es bei 4x OGSSAA dann effektiv noch 4x AF. Die Radeon filtert die "schwachen" Winkel zwar 2x AF, liefert dort aber weniger Qualität als 2x eigentlich bringen sollte (sind wieder einmal LOD-Probleme.)

Es kostet zwar teilweise brutal Leistung – aber GeForce-Karten können ein besseres Bild liefern. Gerade ältere Spiele können damit kräftig aufpoliert werden. Für ältere Spiele empfielt sich auch Doublescan (http://ds80-237-203-42.dedicated.hosteurope.de/vbulletin/showthread.php?&postid=1903438#post1903438).

Jeder der beiden Marktführer hat bei seinen Produkten besondere Stärken – ATI z. B. bietet mit der 9600 seit längerer Zeit eine bezahlbare, leistungsgstarke DX9-Grafikkarte an, für Freaks von Extremauflösungen ist seit längerem die 9800 als preiswertes DX9-Produkt sehr beliebt.

Xmas
2004-07-06, 01:16:55
Original geschrieben von Jesus
also ich weiss ja nicht von was du augenkrebs bekommst, aber mit 6xAA und 16xAF gibts weder kantenflimmern noch sonst irgendwas augenkrebserregendes ( 1280x1024 auf r9800 )
Dass die Bäume, das Banner auf dem Turm und die Ketten nicht gerade schick aussehen fällt dir aber auf?
Und bei Gothic 2 ist Alpha Test nicht gerade selten. Ich hätte es jedenfalls lieber mit Supersampling denn mit 6xMSAA durchgespielt.

Gast
2004-07-06, 01:47:50
Gothic2 mit 8xSS? 20 Sekunden pro Frame? :freak2:

aths
2004-07-06, 01:52:14
Original geschrieben von Gast
Gothic2 mit 8xSS? 20 Sekunden pro Frame? :freak2: Mit 8xS (4x SSAA, 2x MSAA) auf NV35: Flüssige Grafik, deutlich reduziertes Flimmern der Baumkronen.

Gast
2004-07-06, 02:00:25
12er Auflösung x4 mit marvin Sichtweite flüssig? Bitte Bild mit fraps.

Axel
2004-07-06, 04:20:33
Original geschrieben von aths
Mit 8xS (4x SSAA, 2x MSAA) auf NV35: Flüssige Grafik, deutlich reduziertes Flimmern der Baumkronen.

Ich habe die 5900XT wieder zurückgeschickt, weil sie keine bessere BQ als meine 9500pro liefern konnte. Erst bei 8xQAA und 8AF war eine im Vergleich zur 9500pro akzeptable BQ erreicht. Leider war die Geschwindigkeit der 5900XT in diesem Fall, freundlich ausgedrückt, bescheiden.

tombman
2004-07-06, 04:34:14
Original geschrieben von aths
... du meinst, wo du mit deinem Auge keinen Unterschied siehst?

Leider weiß ich nicht mehr, wie das Autorennspiel hieß, aber es gibt mindestens ein, wo sogar einige Radeon 9800-User zugeben, dass AF dort auf bestimmten Flächen zu Texture Shimmering führt. Angesichts der neuen "Optimierungen" bei der X800 muss das Texturflimmern da noch schlimmer sein.

Mir ist kein Spiel bekannt, wo GeForce-AF zu Texturflimmern führt. Ausgenommen sind natürlich z. B. Zäune mit Alphatest – dort führt AF immer zu Flimmern (Alphatest sollte man halt nicht nutzen.) Im Gegensatz zur Radeon haben GeForce-Karten beim Textur-Sampling keine Genauigkeits- und damit LOD-Probleme (http://www.3dcenter.org/artikel/2003/11-21_a.php), noch wird derartig "optimiert" dass bewusst zu wenig AF-Samples genommen werden, als zur Erfüllung des Nyquist-Kriteriums eigentlich nötig.

Das sieht man nicht immer auf den ersten Blick, weil Texturen oft keine so hochfrequenten Inhalte haben. Auf der anderen Seite darf man, so man auf Radeon X800 kein Texturflimmern haben will, keine sehr scharfen Texturen mehr einsetzen. An dieser Stelle will ich nicht über den Sinn und Unsinn von so genannten "Optimierungen" reden. Interessant finde ich allerdings, dass NV neuerdings an einem CP arbeitet wo man sowas alles abschalten kann, während ATI dem X800-User Texturqualität vorenthält, die die Hardware liefern könnte (weniger LOD-Probleme beim AF, volle trilineare Filterung.)

Kombiniert man 16x AF und 4x OGSSAA, hat man Texturen die praktisch 32x anisotrop gefiltert sind. Während wegen der starken Winkelabhängigkeit das normale NV40-AF schlimmstenfalls bis 2x runterschaltet, sind es bei 4x OGSSAA dann effektiv noch 4x AF. Die Radeon filtert die "schwachen" Winkel zwar 2x AF, liefert dort aber weniger Qualität als 2x eigentlich bringen sollte (sind wieder einmal LOD-Probleme.)

Es kostet zwar teilweise brutal Leistung – aber GeForce-Karten können ein besseres Bild liefern. Gerade ältere Spiele können damit kräftig aufpoliert werden. Für ältere Spiele empfielt sich auch Doublescan (http://ds80-237-203-42.dedicated.hosteurope.de/vbulletin/showthread.php?&postid=1903438#post1903438).

Jeder der beiden Marktführer hat bei seinen Produkten besondere Stärken – ATI z. B. bietet mit der 9600 seit längerer Zeit eine bezahlbare, leistungsgstarke DX9-Grafikkarte an, für Freaks von Extremauflösungen ist seit längerem die 9800 als preiswertes DX9-Produkt sehr beliebt.

Alles nur Behauptungen, Mutmaßungen und Hörensagen- ohne screenshots. Du hast keine Karten, keine Screenshots und keine Videos.

Du kannst 100 mal behaupten, daß nvidia bessere BQ hat, ohne Beweise sind deine Aussagen absolut wertlos.

Ich dagegen habe beide Karten, sehr gute Augen und sehe alles was du siehst oder sonstwer. Und ich kann jederzeit screenshots liefern, die meine Aussagen untermauern.

Du kannst das nicht.

Gast
2004-07-06, 06:24:08
Original geschrieben von Axel
Ich habe die 5900XT wieder zurückgeschickt, weil sie keine bessere BQ als meine 9500pro liefern konnte. Erst bei 8xQAA und 8AF war eine im Vergleich zur 9500pro akzeptable BQ erreicht. Leider war die Geschwindigkeit der 5900XT in diesem Fall, freundlich ausgedrückt, bescheiden.

Wers glaubt wird seelig. Bekommen hier einige eigentlich Geld von ATi, damit Sie hier die PR nachbrabbeln ???

9500Pro, keine Frage sehr gute Karte, aber wenn du die bessere BQ (AF+SS) der FX net siehst, dann solltest du dringend einen Augenarzt aufsuchen...faszinierend, wie das Auge des betrachters nicht nur in diesem Beispiel, das Favorisierte Produkt immer besser aussehen lässt. Ich glaube selbst wenn einfach zwei exact gleiche schwarze Quadrate "gerendert" würden, kämen diese Herren mit "Also mit gefällt das XY Quadrat viel besser, weil...na weil" (Anm.d.R. : Weil ATi oder nV drauf steht :eyes: )

Argumente sollten sich dann doch eher auf Fakten, als auf "Ich sehe das net" Phrasen aufbauen. Das FX -AF ist dem r300 AF überlegen, zigfach nachgewiesen und belegt, Punkt. MSAA ist grundsätzlich besser als nVidias Standard FSAA, jedoch gibt es mehrere Methoden (SSAA) , wo dann zwar die fps einbrechen, die BQ jedoch nochmal besser wird.
Brauchbarer bleibt jedoch immer noch ATis FSAA Methode.

seahawk
2004-07-06, 07:53:45
Also ich finde bei CMR4 sieht man den unterschied ziemlich deutlich. Da flimmern die Texturkanten bei der X800 ziemlich oft.

tombman
2004-07-06, 08:31:44
Original geschrieben von seahawk
Also ich finde bei CMR4 sieht man den unterschied ziemlich deutlich. Da flimmern die Texturkanten bei der X800 ziemlich oft.

hast du beide Karten, also auch 6800?

seahawk
2004-07-06, 09:04:45
Original geschrieben von tombman
hast du beide Karten, also auch 6800?

Ich habe keine der beiden. Ich kann sie nur testen. Und man sieht bei der X800 eine Unterschied zur 6800 und sogar zu den alten R3XX Karten. Das Texturenflackern ist deutlich merklicher.

Auf Screenshots sieht man es leider praktisch nicht.

Crushinator
2004-07-06, 09:34:34
Temporär closed, bitte um Geduld

Wieder geöffnet, mit der Bitte Eure gegenseitigen Sticheleien auf der Spielwiese (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=153158) weiterzuführen.

aths
2004-07-06, 12:41:19
Original geschrieben von Axel
Ich habe die 5900XT wieder zurückgeschickt, weil sie keine bessere BQ als meine 9500pro liefern konnte. Erst bei 8xQAA und 8AF war eine im Vergleich zur 9500pro akzeptable BQ erreicht. Leider war die Geschwindigkeit der 5900XT in diesem Fall, freundlich ausgedrückt, bescheiden. Meine Erfahrungen sind anders: Die Radeon liefert, was Kantenglättung angeht, gegenüber der FX-Serie und gegenüber der 6800 mit dem 6x-Modus eine noch wahrnehmbare Steigerung gegenüber 4x. Beim Multisampling hält ATI seit dem Release der 9700 die Spitzenstellung.

Was die Texturen angeht, war nicht immer gleich die starke Winkelabhängigkeit beim AF zu merken – einfach weil viele Spiele die ich spiele, relativ an 90° ausgerichtete Level-Architektur haben. Was für mich sofort zu merken war, dass auf der 9600 einige Texturen flimmrig waren, die auf der 4600, 5900 und 6800 nicht flimmern.

aths
2004-07-06, 12:49:50
Original geschrieben von tombman
Alles nur Behauptungen, Mutmaßungen und Hörensagen- ohne screenshots.Hinter einigen Behauptungen steht ein bisschen Hintergrundwissen. Warum Screenshots wenig geeignet sind, um die Radeon-LOD-Probleme zu zeigen, wurde öfters diskutiert. Für Videos fehlt mir ein Programm, um verlustfrei zu capturen, sowie die Upload-Bandbreite und der FTP-Platz, um sowas zum DL anzubieten.

Original geschrieben von tombman
Du hast keine Karten, keine Screenshots und keine Videos.Ich habe Karten: Die 6800 als Leihgabe, die GF 5900 XT und 4600 sowie Radeon 9600 sind in meinem Besitz. Wenn mit der 9600 getestet wird, hat man beim AF sogar etwas bessere Qualität als mit der X800 (die 9700 bietet dank full-Tri beim TF und tri-AF wiederum ein wenig bessere Qualität.)
Original geschrieben von tombman
Du kannst 100 mal behaupten, daß nvidia bessere BQ hat, ohne Beweise sind deine Aussagen absolut wertlos.Ja, ich kann behaupten, dass:

- Die GF 6800 aufgrund nachweisbarer besserer Filterpräzision auch bessere Texturen liefert.

- Wenn man das dann noch mit 4x Supersampling kombiniert, werden die Texturen um so vieles besser, als hätte man den doppelten AF-Grad.

Bevor du einen der beiden Punkte abstreitest, würde ich dazu gerne ein entsprechendes Argument hören.

Original geschrieben von tombman
Ich dagegen habe beide Karten, sehr gute Augen und sehe alles was du siehst oder sonstwer.Siehst du auch die LOD-Probleme auf Radeon-Karten? Siehst du in bestimmten Szenen die Nachteile der AF-Winkelabhängigkeit auf X800 und 6800?

Original geschrieben von tombman
Und ich kann jederzeit screenshots liefern, die meine Aussagen untermauern.

Du kannst das nicht. Ich könnte einen Screenshot aus Max Payne aufnehmen, um die Vorteile von Supersampling zu zeigen :) Dass das Bild damit deutlich besser ist, als ohne Supersampling, weiß ich allerdings auch ohne Screenshotvergleich.

edit: Um keine Missverständnisse aufkommen zu lassen: Wenn wer der Meinung ist, die X800-BQ sei ausreichend, und die Texturen auf der 6800 würden seiner Meinung nach auch nicht besser sein, ist das als Meinung zu akzeptieren. Ein Faktum ist das damit aber nicht.

aths
2004-07-06, 16:25:54
Jesus,
Original geschrieben von aths
Wie willst du Bumpmapping à la FC machen, ohne mit Normal Maps zu arbeiten?

r@w
2004-07-06, 16:26:24
Original geschrieben von tombman
hast du beide Karten, also auch 6800? Ich habe zumindest FX5900nu (MSI) und R9800p (BBA) und kann das beurteilen.

Der qualitative Unterschied zwischen den Filtertechniken der beiden ist teilweise mehr als deutlich... insobesonders auf die LOD/Flimmer-Geschichte bezogen. Und wer schonmal diese beiden Techniken im direkten Vergleich gegenüber gestellt hat, weiß dies auch.

Insofern ist es mir absolut schleierhaft, wie jamand dies nicht wahr nehmen kann und bei mir somit nur der Schluß bleibt, dass man dies nicht wahrnehmen will... oder eben einfach nicht kann, weil man diese Vergleichsmöglichkeit nicht hat.

Razor

robbitop
2004-07-06, 17:37:23
@aths

verschwende deine Kraft nicht für Dinge, die nicht zu ändern sind. (Das sagte Demirug übrigens gestern auch zu Tjell)

@Jesus
wenn du nicht mal Texturflimmern siehst und grottige Alphakanten, wissen wir ja wo wir deine subjektive Ansichten über BQ einordnen können.

Durch Screenshots kann man leider nur sehr sehr wenig veranschaulichen...Schimmering, LOD, AlphaFlimmern usw Fehlanzeige

xL|Sonic
2004-07-06, 18:11:39
Im Grunde genommen ist doch diese gesamte Diskussion totaler Mist. Jeder weiss nun mittlerweile, wie genau es um die Filtermöglichkeiten bei beiden Grafikchips bestellt ist und jeder versucht hier irgendwie jeden von seiner Meinung zu überzeugen.
Jeder geht mit der ganzen Sache anders um. Dem einen ist eine hohe FPS Zahl wichtig und übersieht somit leicht Dinge, die für andere einfach nicht zu ertragen sind. Das muss man aber akzeptieren und wenn tombman der Meinung ist, die 6800 ultra hat keinen sichtbaren Vorteil, dann ist das seine Meinung und hat zumindest was sich angeht und auch eine gewisse Nutzergruppe Recht. Genauso sieht es auch bei aths usw. aus.
Aber scheinbar geht das irgendwie nicht in die Köpfe der Streithähne rein, sei es nun deshalb, dass man unbedingt Recht haben muss oder man einen Grafikkartenhersteller mehr favorisiert und diesen unbedingt unterstützen muss.
Und es bringt absolut nichts, wenn ihr dauernd immer wieder die gleichen Sätze bringt.
Jeder kennt mittlerweile die Meinung von tomban oder von aths.
Es ist einfach nicht möglich in diesem Falle jemanden den schwarzen Peter in die Schuhe zu schieben und zu sagen, der hat Recht und der hat Unrecht.
Es ist wie alles im Leben nunmal Geschmackssache und jeder muss mit sich selbst klären, was für wichtiger ist und was nicht.

LovesuckZ
2004-07-06, 19:36:16
Original geschrieben von Valmar
Es ist wie alles im Leben nunmal Geschmackssache und jeder muss mit sich selbst klären, was für wichtiger ist und was nicht.

Das stimmt nicht: Zwischen etwas nicht zu sehen und zu behaupten, es gaebe keine Unterschiede, besteht keine Gemeinsamkeit!
Wenn jemand keine Verbesserung oder Verschlechterung beim AF der Karten sieht, dann ist dies die sogenannte Geschmackssache.
Wer dagegen behauptet, es wuerde keinen Unterschied zwischen den beiden AF verfahren geben, versucht sein subjektives Empfinden als objektives zu verkaufen. Dies ist dann nicht mehr "Geschmackssache" und muss daher belegt werden. Und das fehlt bei Tombman. Er behauptet es, bringt aber keine Beweise.

Axel
2004-07-06, 19:36:48
Original geschrieben von aths
Meine Erfahrungen sind anders: Die Radeon liefert, was Kantenglättung angeht, gegenüber der FX-Serie und gegenüber der 6800 mit dem 6x-Modus eine noch wahrnehmbare Steigerung gegenüber 4x. Beim Multisampling hält ATI seit dem Release der 9700 die Spitzenstellung.

Was die Texturen angeht, war nicht immer gleich die starke Winkelabhängigkeit beim AF zu merken – einfach weil viele Spiele die ich spiele, relativ an 90° ausgerichtete Level-Architektur haben. Was für mich sofort zu merken war, dass auf der 9600 einige Texturen flimmrig waren, die auf der 4600, 5900 und 6800 nicht flimmern.

Ich hatte mir hauptsächlich Gothic2 angeschaut. Das erste was mir auffiel nach dem Umstieg von 9500pro auf 5900XT war die schlechtere Kantenglättung. Das 8xQAA war zwar akzeptabel aber viel zu langsam. Das 4xAA kann man vergessen. Bleibt noch 2xAA, welches nun nicht gerade qualitativ befriedigende Ergebnisse liefert, wenn man 4x und 6xAA der Radeon gewöhnt ist.
Beim AF musste ich länger suchen, um Unterschiede festzustellen. Gothic2 besteht aus sehr unregelmäßigen Flächen. Jedoch ist beim Spielen kein objetiver Unterschied feststellbar. Nach längerem Suchen auf einem screenshot der Stadt in G2 fand ich eine kleine Dachfläche, die bei der Radeon unschärfer war (Thema Winkelabhängigkeit). Im Spiel ist soetwas einfach nicht wahrnehmbar. Die Texturen selbst waren ansonsten für mich identisch. Ein Flimmern konnte ich nicht wahrnehmen. Dieses habe ich bislang nur bei BF1942 gesehen.
Insgesamt kann die FX keine akzeptable BQ bei spielbaren FPS liefern. Das 8xQAA und 8xAF kosten zuviel Leistung.

Ich wäre wirklich froh, wenn du vielleicht die Unterschiede in der BQ zwischen Radeon, FX und 6800. Anhand von sreenshots oder Filmen deutlich machen kannst, entweder im Forum oder als Beitrag auf der 3DC-Seite.

tokugawa
2004-07-06, 19:47:25
Original geschrieben von robbitop
Durch Screenshots kann man leider nur sehr sehr wenig veranschaulichen...Schimmering, LOD, AlphaFlimmern usw Fehlanzeige

Stimmt absolut! Bei diesen Komponenten spielt die Zeitachse t auch eine Rolle (ich würde manche dieser Aliasing-Formen als Arten von Motion Aliasing bezeichnen).

FRAPS-Filme in voller Auflösung und mit verlustfreier Kompression könnten hier vielleicht deutlicher die Unterschiede zeigen; nur wären das ziemlich heftig große Downloads.

Xmas
2004-07-06, 19:54:50
Axel,
eine Stelle bei Gothic 2, die mir wegen ihrer auffallend schlechten Texturfilterqualität noch in Erinnerung ist, ist das Dach des Klosters. Auch in der Landschaft fielen mir ab und zu kleinere Unregelmäßigkeiten auf. Dennoch hat der Wechsel von GF3Ti200 zu R9800 natürlich mehr nutzbare Qualität gebracht ;)
Ich habe leider zur Zeit weder G2 installiert noch eine GeForce-Karte, um einen Vergleichsshot zu machen.

Jesus
2004-07-06, 20:12:03
Original geschrieben von Axel
Ich wäre wirklich froh, wenn du vielleicht die Unterschiede in der BQ zwischen Radeon, FX und 6800. Anhand von sreenshots oder Filmen deutlich machen kannst, entweder im Forum oder als Beitrag auf der 3DC-Seite.

Amen. Aber wie soll man etwas machen was noch kein einiziger Reviewer im ganzen weiten Internet geschafft hat ? ;)

Im übrigen kann ich mich über euer "Flimmerempfinden" nur köstlich amüsieren. Das einzige was mir bei Gothic nachträglich ( erst nachdem ich diese Behauptung hier gelesen hatte ) flimmernd aufviel war das Gras, und das auch nur hauptsächlich weil sich die Grasshalme überdeckten und in Bewegung so der Hintergrund unterschiedlich durchschimmerte.

Natürlich werden die z.b. nicht gefiltert in Gothic mit MSAA, aber das werden die Bäume auch nicht, und da flimmert überhaupt nichts. Vielleicht liegts ja an meinem TFT keine Ahnung, jedenfalls seh ich der Stelle nichts.

robbitop
2004-07-06, 20:23:20
@Jesus und Axel

wenn ihr es nicht seht, heisst es nicht, dass es nicht da ist. Ich sehe es ganz deutlich, und ich hab im Vergleich zu aths oder razor verdammt schlechte Augen.

Je schlechter die Wahrnehmung, desto mehr kann man in die FPS investieren ...

Tjell
2004-07-06, 20:27:11
Könntet Ihr BQ-Vergleiche vielleicht zusammen mit der PCGH in einer kommenden Ausgabe als Artikel für deren DVD-Ausgabe erarbeiten?

Auf diesem Wege könnte man mal fernab von Balkendiagrammen auf die tatsächlichen Möglichkeiten der Chips zur Steigerung der BQ eingehen, da auf der DVD genügend Platz für High-Res-Videos wäre.

tokugawa
2004-07-06, 20:27:44
Original geschrieben von Jesus
Amen. Aber wie soll man etwas machen was noch kein einiziger Reviewer im ganzen weiten Internet geschafft hat ? ;)

Im übrigen kann ich mich über euer "Flimmerempfinden" nur köstlich amüsieren. Das einzige was mir bei Gothic nachträglich ( erst nachdem ich diese Behauptung hier gelesen hatte ) flimmernd aufviel war das Gras, und das auch nur hauptsächlich weil sich die Grasshalme überdeckten und in Bewegung so der Hintergrund unterschiedlich durchschimmerte.

Natürlich werden die z.b. nicht gefiltert in Gothic mit MSAA, aber das werden die Bäume auch nicht, und da flimmert überhaupt nichts. Vielleicht liegts ja an meinem TFT keine Ahnung, jedenfalls seh ich der Stelle nichts.


Mich (und aths vermutlich auch) interessiert noch folgendes:

Original geschrieben von aths
Wie willst du Bumpmapping à la FC machen, ohne mit Normal Maps zu arbeiten?

Jesus
2004-07-06, 20:29:41
eh keine ahnung ich dachte ursprünglich FC verwende nur "traditionelles" Bumpmapping ohne die RGB info (etc. ) der normal maps. ( ausser bei den extra erstellten "Offset" maps in diesem Custom demo )

ironMonkey
2004-07-06, 20:34:23
Original geschrieben von robbitop
@Jesus und Axel

wenn ihr es nicht seht, heisst es nicht, dass es nicht da ist. Ich sehe es ganz deutlich, und ich hab im Vergleich zu aths oder razor verdammt schlechte Augen.

Je schlechter die Wahrnehmung, desto mehr kann man in die FPS investieren ...


Erinnert mich etwas an die Kirche, muss ich jetzt schon an flimmern glauben um es zun sehen, wobei manch einer da noch ganz andere Dinge sieht........

aths und razor wissen worauf sie schauen müssen, du müsstest es leute testen lassen die davon nicht alzuviel Ahnung haben und wenn es dann von 10 Leuten keiner sieht....................


Gruß

Jesus
2004-07-06, 20:38:19
also ich weiss ganz genau worauf ich bei flimmernden Texturen und Polygonkanten schauen muss ( hab auch ne PS2 ;) ).

Aber wenn ich etwas suchen muss und 5 cm mit dem Auge vorm Bildschirm kleben muss um es zu sehen dann ist es mir relativ egal, denn im normalen "Betrieb" seh ichs sowieso nicht.

robbitop
2004-07-06, 20:39:30
das hat IMO keine Aussage.
Ich kenne viel zu viele Leute die nicht mal den Unterschied zwischen No AF und 8xAF sehen oder NoAA und 4xAA oder zwischen 60Hz und 85Hz.

Man muss schon wissen wo man hinschaut.
Gerade diese Leute können das am Besten beurteilen.
Für alle Leute die es nicht sehen können sich an Optimierungen mit mehr FPS erfreuen, ist doch eine feine Sache ;)

@Jesus

da gehe ich doch mit dir konform.
Wenn es einem nicht auffällt, dann ist es gut, also kanns bleiben. Es gibt bestimmt ein Haufen Leute die meinen TFT für ein Spielzeug halten und einen viel teureren brauchen. Ich sehe alles optimal -> Geld gespart.
Aber es gibt eben Leute die dieses Aliasing sehen und das sollte man nicht leugnen.

aths
2004-07-06, 20:44:54
Original geschrieben von Jesus
eh keine ahnung ich dachte ursprünglich FC verwende nur "traditionelles" Bumpmapping ohne die RGB info (etc. ) der normal maps. ( ausser bei den extra erstellten "Offset" maps in diesem Custom demo ) Wie funktioniert "traditionelles" Bumpmapping "ohne die RGB-Info"?

Jesus
2004-07-06, 20:45:35
Original geschrieben von robbitop
das hat IMO keine Aussage.
Ich kenne viel zu viele Leute die nicht mal den Unterschied zwischen No AF und 8xAF sehen oder NoAA und 4xAA oder zwischen 60Hz und 85Hz.


Natürlich, aber es gibt auch das andere Extrem und das stellen IMO solche Leute wie hier dar. Die einfach zu viel "sehen", aber nur weil sie gezielt danach suchen und teilweise Sachen die eben völlig irrelevant sind.

ironMonkey
2004-07-06, 20:47:50
Original geschrieben von robbitop
das hat IMO keine Aussage.
Ich kenne viel zu viele Leute die nicht mal den Unterschied zwischen No AF und 8xAF sehen oder NoAA und 4xAA oder zwischen 60Hz und 85Hz.

Man muss schon wissen wo man hinschaut.
Gerade diese Leute können das am Besten beurteilen.
Für alle Leute die es nicht sehen können sich an Optimierungen mit mehr FPS erfreuen, ist doch eine feine Sache ;)



Tja dann müsst ihr euch damit zufrieden geben das man bei ATI die Optimieugen drin lassen kann und Tombman völlig recht hat, Sorry, aber was hat den bitte Fehlersuche mit Spielen zu tun.

Bei dem AF muss ich dir recht geben, sieht wirklich kaum jemand den unterschied, bei AA ist das was anderes.


Aber da sieht man mal über was hier diskutiert wird.......



Gruß

Jesus
2004-07-06, 20:51:22
Original geschrieben von aths
Wie funktioniert "traditionelles" Bumpmapping "ohne die RGB-Info"?

http://members.shaw.ca/jimht03/normal.html

Tesseract
2004-07-06, 20:55:18
Original geschrieben von Axel
Beim AF musste ich länger suchen, um Unterschiede festzustellen. Gothic2 besteht aus sehr unregelmäßigen Flächen. Jedoch ist beim Spielen kein objetiver Unterschied feststellbar. Nach längerem Suchen auf einem screenshot der Stadt in G2 fand ich eine kleine Dachfläche, die bei der Radeon unschärfer war (Thema Winkelabhängigkeit).

das kann ich absolut nicht bestätigen
gerade bei gothic2 - und hier besonders die hügelige umgebung um die hafenstadt - hat so viele verschiedene winkel das mir die winkelabhängigkeit ebenso sofort ins auge gesprungen ist wie die alpha-bäume und gräser

zB hat am "hang" von der taverne richtung kloster nahezu jedes einzelne poligon des wiesenbodens einen (in meinen augen) sichtbar unterschiedlichen schärfegrad

Original geschrieben von Jesus
Vielleicht liegts ja an meinem TFT keine Ahnung, jedenfalls seh ich der Stelle nichts.

dann muss dein TFT ja ein regelrechtes spitzengerät sein ;D

probiers mal mit einem alten CRT wenn du noch wo einen hast
das flimmern der baumkronen ist ziemlich gewaltig, wenn du das nicht siehst wundert es mich auch nicht das du kein banding (bzw. nur die extremsten zwei) bei FC gesehen hast

robbitop
2004-07-06, 20:57:00
tja schimmering und LOD Flackern würde mich schon stören..stagesoptimierung sehe ich bei meiner NV3x auch...nur Bri nicht. Und deswegen glaube ich, dass es Leute gibt die viel mehr sehen als ich.
Ich bin jedenfalls manchmal froh, dass ich nicht alles sehe :D

Vieleicht hab ich auch nen Tunnelblick ..who knows?

Jesus
2004-07-06, 20:57:33
Original geschrieben von Tesseract
dann muss dein TFT ja ein regelrechtes spitzengerät sein ;D


Sony SDM S71 ;D

ShadowXX
2004-07-06, 20:58:34
Original geschrieben von ironMonkey
Erinnert mich etwas an die Kirche, muss ich jetzt schon an flimmern glauben um es zun sehen, wobei manch einer da noch ganz andere Dinge sieht........

aths und razor wissen worauf sie schauen müssen, du müsstest es leute testen lassen die davon nicht alzuviel Ahnung haben und wenn es dann von 10 Leuten keiner sieht....................


Gruß

Viele sehen auch solche Sachen nicht, weil Sie denken das dies "normal" ist.
Weil Sie eben den Unterschied nicht kennen.

Ich dachte am Anfang auch..."was habt Ihr alle mit dem Texturflimmern, Winkelabhängigkeit usw."...bis mir dann mal jemand zeigte, wie es besser aussehen kann bzw. worauf ich achten muss.

Danach sah ich es plötzlich quasi überall, speziell das Texturflimmern, welches ich vorher zwar auch wahrgenommen habe, aber wie schon vorher erwähnt, als "normal" empfand.

Bei AF muss ich eingestehen, das ich da wohl nicht so empfindlich bin. Den unterschied zwischen BriAF und TriAF sehe ich wirklich nur bei extremen Fällen (oder wenn ich gelegentlich eine Scene sehr lange betrachte).
BiAF sehe ich dagegen sofort...

Den gleichen Effekt habe ich auch bei ein paar Freunden festgestellt....Es kommt wirklich sehr stark darauf an, was man gewöhnt ist und wie lange man dies schon gewohnt ist.

Bestes Beispiel bin ich selber: Ich spiele grundsätzlich ohne V-Sync...und zwar nur aus einem Grud...ich habe von Anfang an (Voodoo1) nie V-Sync angehabt.
Und durch diese lange "Prägung", muss ich mich wirklich anstrengen, das ich das Tearing überhaupt mitbekomme (es ist nicht so, das ich es überhaupt nicht bemerke, aber ich bin halt daran gewöhnt).

Und das gilt bestimmt auch für viele andere, in anderen Bereichen, wie eben z.B. Texturfilterung oder auch AA.

(Um einen Kumpel davon zu überzeugen, das AA kein Blur ist, musste ich mit Ihm ca. 5 Stunden und unzählige Games vor dem Rechner durchgehen...er wollte es einfach nicht glauben und schob die Qualitätsverbesserungen auf immer wieder andere Sachen.... )

Axel
2004-07-06, 20:59:34
Original geschrieben von Xmas
Axel,
eine Stelle bei Gothic 2, die mir wegen ihrer auffallend schlechten Texturfilterqualität noch in Erinnerung ist, ist das Dach des Klosters. Auch in der Landschaft fielen mir ab und zu kleinere Unregelmäßigkeiten auf. Dennoch hat der Wechsel von GF3Ti200 zu R9800 natürlich mehr nutzbare Qualität gebracht ;)
Ich habe leider zur Zeit weder G2 installiert noch eine GeForce-Karte, um einen Vergleichsshot zu machen.

Ein gutes Beispiel.
Beim Klosterdach kann ich bei Bewegung eine Unruhe im Dach feststellen. Diese ist auch bei deaktivierten AF vorhanden. Leider kann ich nicht mehr direkt mit der 5900 vergleichen.

aths
2004-07-06, 21:04:37
Original geschrieben von Jesus
http://members.shaw.ca/jimht03/normal.html Danke, ich weiß, was Normal Maps sind. Was sagt der Link jetzt?Original geschrieben von Jesus
Natürlich, aber es gibt auch das andere Extrem und das stellen IMO solche Leute wie hier dar. Die einfach zu viel "sehen", aber nur weil sie gezielt danach suchen und teilweise Sachen die eben völlig irrelevant sind. Wer legt fest, wer "zu viel" sieht, bzw. wer definiert, was relevant ist und was nicht?

tokugawa
2004-07-06, 21:04:49
Original geschrieben von Jesus
http://members.shaw.ca/jimht03/normal.html

Dir ist aber schon klar, dass hier semantisch RGB-Info == XYZ-Info?

Normalmaps kann man auch als RGB-Images interpretieren, wobei R, G, und B Komponenten die X, Y, Z Komponente des Normalvektors auf dem Texel (in Tangent-Space) angibt. Da Normale meistens eher "weg" von einer Fläche zeigen ist die Z Komponente normalerweise betragsmäßig größer als die X und Y Komponente - mit anderen Worten, eine Normalmap die man in einem Image-Editor öffnet, ist bläulich, da die Z-Komponente als Blau-Komponente gesehen wird.

Mit anderen Worten, die Variante mit RGB-Images, oder mit Normalmaps, ist eigentlich diesselbe.

Es gibt natürlich noch andere Bumpmapping-Techniken (etwa Emboss-Bumpmapping), doch die haben ganz eigene Nachteile.

robbitop
2004-07-06, 21:05:59
naja bei der 5900 müsste man 4xS oder 4xSS oder 2xOGSS einschalten um daran was zu ändern

@ShaddowXX

full ack :up:

tokugawa
2004-07-06, 21:09:25
Original geschrieben von ShadowXX
Viele sehen auch solche Sachen nicht, weil Sie denken das dies "normal" ist.
Weil Sie eben den Unterschied nicht kennen.

Ich dachte am Anfang auch..."was habt Ihr alle mit dem Texturflimmern, Winkelabhängigkeit usw."...bis mir dann mal jemand zeigte, wie es besser aussehen kann bzw. worauf ich achten muss.

Danach sah ich es plötzlich quasi überall, speziell das Texturflimmern, welches ich vorher zwar auch wahrgenommen habe, aber wie schon vorher erwähnt, als "normal" empfand.

Bei AF muss ich eingestehen, das ich da wohl nicht so empfindlich bin. Den unterschied zwischen BriAF und TriAF sehe ich wirklich nur bei extremen Fällen (oder wenn ich gelegentlich eine Scene sehr lange betrachte).
BiAF sehe ich dagegen sofort...

Den gleichen Effekt habe ich auch bei ein paar Freunden festgestellt....Es kommt wirklich sehr stark darauf an, was man gewöhnt ist und wie lange man dies schon gewohnt ist.

Bestes Beispiel bin ich selber: Ich spiele grundsätzlich ohne V-Sync...und zwar nur aus einem Grud...ich habe von Anfang an (Voodoo1) nie V-Sync angehabt.
Und durch diese lange "Prägung", muss ich mich wirklich anstrengen, das ich das Tearing überhaupt mitbekomme (es ist nicht so, das ich es überhaupt nicht bemerke, aber ich bin halt daran gewöhnt).

Und das gilt bestimmt auch für viele andere, in anderen Bereichen, wie eben z.B. Texturfilterung oder auch AA.

(Um einen Kumpel davon zu überzeugen, das AA kein Blur ist, musste ich mit Ihm ca. 5 Stunden und unzählige Games vor dem Rechner durchgehen...er wollte es einfach nicht glauben und schob die Qualitätsverbesserungen auf immer wieder andere Sachen.... )

Full Ack!

Es ist möglich, dass man etwas nicht wahrnimmt, bis man darauf hingewiesen wird, und sich darauf einmal konzentriert. Sieht man es jedoch einmal, sieht man es nachher dafür immer.

Das ist in vielen Bereichen so (das kommt z.B. in der Musik oft vor - manche Stücke wo man sich zuerst denkt "man wie langweilig" können extrem interessant werden wenn man mal genauer hinhört, oder sich auf bestimmte Aspekte konzentriert).

robbitop
2004-07-06, 21:10:50
die menschliche Wahrnehmung ist schon ein wahres Filterwunder :)

ironMonkey
2004-07-06, 21:23:01
Original geschrieben von tokugawa
Full Ack!

Es ist möglich, dass man etwas nicht wahrnimmt, bis man darauf hingewiesen wird, und sich darauf einmal konzentriert. Sieht man es jedoch einmal, sieht man es nachher dafür immer.

Das ist in vielen Bereichen so (das kommt z.B. in der Musik oft vor - manche Stücke wo man sich zuerst denkt "man wie langweilig" können extrem interessant werden wenn man mal genauer hinhört, oder sich auf bestimmte Aspekte konzentriert).


Wenn ich Musik hörer lehne ich mich zurück und genieße sie und wenn man das ein oder andere raushört ist man doch eher erfreut.


Ich streite nicht ab das es Unterschiede gibt, hab ja erst wieder die Radeon rein, aber wenn ich schon anfangen muss zu suchen und der Spielspaß völlig dahin ist, dann hat das nicht wirklich was mit zocken zu tun wofür die Karten gebaut sind.


Wenn du probierst einen neuen Rekord einem schnellen Egoshooter aufzustellen dann schaut man nicht wirklich in den letzten Winkel.

Genau darum geht es aber, wenn ich eine Karte zum fehlersuchen brauche dann ist doch eine aktuelle high end Karte recht fehl am Platz, jetzt werden sicher einige sagen, ja aber die hat doch genug Leistung!!!!!!Das hatte die GF2 Ultra auch mal..........


Gruß

robbitop
2004-07-06, 21:28:37
in Spielen wo man viel Zeit hat oder es ins Auge springt, sieht es wieder anders aus.
Max Payne, oder Gothic oder generell RPGs.

robbitop
2004-07-06, 21:37:55
sry Doppelpost

tokugawa
2004-07-06, 21:51:25
Original geschrieben von ironMonkey
Wenn ich Musik hörer lehne ich mich zurück und genieße sie und wenn man das ein oder andere raushört ist man doch eher erfreut.


Wenn ich Musik höre, kann ich nicht anders als Details raushören. Musik ist für mich auch alles andere als entspannend, weil mein Gehirn automatisch "aktiv hört" (und sich von Musik nicht berieseln läßt). Dagegen kann ich nichts machen.

Ähnlich wohl einige eben mit den Bildqualitätsfeatures. Die haben einfach ein Auge dafür entwickelt wie ich ein Ohr für Musik, und dann sieht man solche Sachen halt deutlicher als jemand sonst, der sich eher "berieseln" läßt vom Gesamt-Mischmasch.

Weder noch ist schlecht, aber man sollte immer bedenken, dass es Ausprägungen in beide Richtungen gibt.

Weder existiert etwas nicht nur weil man es nicht sieht.
Noch ist etwas für jeden relevant wenn man es sieht.
Wer's nicht sieht der soll glücklich sein. Das heißt aber nicht dass es nicht existiert.

Mmmmmh
2004-07-06, 22:10:38
Original geschrieben von tokugawa
Wenn ich Musik höre, kann ich nicht anders als Details raushören. Musik ist für mich auch alles andere als entspannend, weil mein Gehirn automatisch "aktiv hört" (und sich von Musik nicht berieseln läßt). Dagegen kann ich nichts machen.

Ähnlich wohl einige eben mit den Bildqualitätsfeatures. Die haben einfach ein Auge dafür entwickelt wie ich ein Ohr für Musik, und dann sieht man solche Sachen halt deutlicher als jemand sonst, der sich eher "berieseln" läßt vom Gesamt-Mischmasch.

Weder noch ist schlecht, aber man sollte immer bedenken, dass es Ausprägungen in beide Richtungen gibt.

Weder existiert etwas nicht nur weil man es nicht sieht.
Noch ist etwas für jeden relevant wenn man es sieht.
Wer's nicht sieht der soll glücklich sein. Das heißt aber nicht dass es nicht existiert.

:up:

Aber das Problem was ich hier oft sehe ist, dass, egal in welche Richtung, sich immer viel zu sehr auf die Allgemeinheit bezogen wird anstatt seine Empfindungen als eben die Eigenen darzustellen. Nein da wird davon gesprochen, dass dies für ALLE gilt und auch für ALLe zu gelten hat. Und dann braucht sich auch keiner wundern wenn sich dann der Ein oder Andere bevormundet fühlt und dies dann auch klar zum Ausdruck bringt.

ironMonkey
2004-07-06, 22:18:59
Aha, dein Puls hängt also jenseits von 180 wenn du Musik hörst........Ok wenn man Probe hört ist das schon was anderes, hat aber nicht wirklich was mit Musik genießen zu tun.

Und schon sind wir bei dem Punkt den ich meine "Die haben einfach ein Auge dafür entwickelt wie ich ein Ohr für Musik"

Wer ist "Die", ist das der Großteil der Käufer????????



@Robbitop, das hast du recht, aber ich wollte auch mal die andere Seite von Spielern zeigen die mit einem lahmen RPG nix anfagen können, ich hab auch nix dagen das manch einem die fehler/Optimierungen sofort ins Auge Springen, nur ob das die Hersteller wirklich ändern sollten steht auf einem anderen Blatt, weil ob dann der Großteil der Käufer immer noch mit der Karte zufrieden ist wenn die sie bei 16xAF komplett in den Keller sakt ist eine andere Frage.



Gruß

robbitop
2004-07-06, 22:54:22
jepp ich denke eine Optimierung ist an sich eine gute Sache. Denn wenn man den Unterschied zum unoptimierten nicht sieht, aber der FPS Einbruch ein höheres Setting blockiert, dann bekäme man mittels Optimierung dieses Setting nun spielbar und damit indirekt wieder mehr BQ.

Aber eine Optimierung sollte nie mehr als eine Option sein...das Maximum sollte Old School bleiben.

Ich finde es löblich von NV, dass man die Optimierungen im Panel ausschalten kann, obwohl die dummen Reviewer gleich auf HQ schalten und man gegen ATis' optimierten Modus bencht.

Ich denke eine Optimierung bringt schon was, aber der Gewinn durch sie ist nicht so hoch, dass er ein grundlegenes Benchergebnis deutlich anders ändert. Somit wars IMO eine gute Entscheidung von NV...dass ATi das nicht nachmacht, hatte ich irgendwie im Gefühl, da sie scheinbar enorm Ressourcen in die "Optimierung" und das Verstecken dieser gesteckt haben.

Tesseract
2004-07-06, 23:13:54
Original geschrieben von ironMonkey
ich hab auch nix dagen das manch einem die fehler/Optimierungen sofort ins Auge Springen, nur ob das die Hersteller wirklich ändern sollten steht auf einem anderen Blatt, weil ob dann der Großteil der Käufer immer noch mit der Karte zufrieden ist wenn die sie bei 16xAF komplett in den Keller sakt ist eine andere Frage.

wenn jemanden die optimierungen nicht auffallen kann ihm aber erst recht egal ob der modus nun 16x heißt oder nicht


natürlich, wenn nur name und balkenlänge zählt mag unoptimiertes AF schlecht wirken
á la [name des AF grades] x [FPS-balkenlänge] = [tollheit des modus]

das ist aber absolut irrelevant wenn es um die bildquallität und nicht nur um den namen geht
denn ein winkelabhängiges 16xAF ist in wirklichkeit ein "1x-16x" AF


wenn der durschnittsuser also mit dem langsamen 16x nicht zufriden ist, ist das kein indiz dafür das der modus "schlecht" ist, sondern dass der user scheinbar nicht gut genug aufgeklärt wurde

aths
2004-07-07, 00:45:00
Original geschrieben von Tesseract
das ist aber absolut irrelevant wenn es um die bildquallität und nicht nur um den namen geht
denn ein winkelabhängiges 16xAF ist in wirklichkeit ein "1x-16x" AFJedes 16xAF ist 1x-16x AF, es sollte nur so viel AF im Pixel (bzw. Quad) eingesetzt werden, wie zur Qualitätssteigerung gebraucht wird. Bei der 6800 wird je nach Texturdrehrichtung leider an einigen Stellen, wo 16x noch was bringt, nur 2x genommen. Die Radeon hat bei den "schachen" Stellen aufgrund von LOD-Problemen dort noch etwas schlechtere Qualität.

aths
2004-07-07, 00:46:10
Original geschrieben von ironMonkey
weil ob dann der Großteil der Käufer immer noch mit der Karte zufrieden ist wenn die sie bei 16xAF komplett in den Keller sakt ist eine andere Frage.Wozu 16x in modernsten Spielen, wenn schon 4x (oder 8x) tolle Texturen bringt? Mit einem qualitativ hochwertigem 16x-Modus kann man dann ältere Spiele aufpeppen.

Was ist das nächste? 8x AA – nur für die Bildschirmmitte, der Rest kriegt 4x oder 2x? ('Userfreundlich, man guckt in die Mitte, und nein das kann man nicht abschalten weil man ja nur in die Mitte guckt und die Nachteile deshalb nicht sieht.')

Tesseract
2004-07-07, 00:50:39
Original geschrieben von aths
Jedes 16xAF ist 1x-16x AF, es sollte nur so viel AF im Pixel (bzw. Quad) eingesetzt werden, wie zur Qualitätssteigerung gebraucht wird.

schon klar, gemeint war das eigendlich dort wo 16x zum einsatz kommen sollte 1x-16x gemacht wird

bzw. eigendlich sowas wie 1,5x-16x

aths
2004-07-07, 01:06:13
Original geschrieben von Tesseract
schon klar, gemeint war das eigendlich dort wo 16x zum einsatz kommen sollte 1x-16x gemacht wird

bzw. eigendlich sowas wie 1,5x-16x 1,5x AF geht nicht.

Tesseract
2004-07-07, 01:23:31
Original geschrieben von aths
1,5x AF geht nicht.

ich hab auch geschrieben "sowas wie" :D

der die lod-grenze ist jedenfalls irgendwo zwischen 2xAF und garkeinem AF

du darfst mir gerne erklären warum ;)

aths
2004-07-07, 01:29:30
Original geschrieben von Tesseract
du darfst mir gerne erklären warum ;) Ungenügende Bitbreite der AF-Rechenwerke, hat dann ungenaue LOD-Bestimmung zur Folge. Die Radeon-AF-Winkelabhängigkeit ist ja nicht das Ergebnis einer durchdachten Optimierung, sondern entstand, weil man dort Transistoren sparen wollte.

tombman
2004-07-07, 01:34:28
1.) alle kommentare von usern, die nicht beide karten haben (6800, x800) oder zumindest testen konnten sind zu ignorieren.
besonders jene die 5800 oder 5900 karten haben oder generell vorgänger.
das wären schon mal fast alle.

2.) technische erklärungen wie af und filterung auf den einzelnen karten erzeugt wird sind irrelevant. es geht darum wie das bild mit freiem auge aussieht und sonst gar nichts. technische erklärungen als beweis für bq sind unzulässig und irreführend.

3.) jemandem schlechte augen oder unwissenheit anzudichten, weil dieser behauptet keine filterunterschiede zu sehen ist eine frechheit.
die meisten haben lang genug pcs und wissen genug um zu wissen was shimmering, banding usw ist und wie man es erkennt. dazu ist kein technisches wissen nötig.

4.) selbst wenn die filterung bei nv besser wäre (was sie nicht ist), ist doch das aa bei ati eindeutig besser. damit würden sich diese punkte bzgl bq aufheben.

5.) das wichtigste: es wird hier massiv versucht von nvidianern das mehr an fps, was die x800xt pe gegenüber der 6800ultra bringt, durch die angeblich schlechtere bildqualität zu erklären -> Laßt euch nicht täuschen, ati hat gleich gute Bildqualität, wenn es um x800 vs 6800 serie geht !

VoodooJack
2004-07-07, 01:59:34
Original geschrieben von tombman
1.) alle kommentare von usern, die nicht beide karten haben (6800, x800) oder zumindest testen konnten sind zu ignorieren.
besonders jene die 5800 oder 5900 karten haben oder generell vorgänger.
das wären schon mal fast alle.

2.) technische erklärungen wie af und filterung auf den einzelnen karten erzeugt wird sind irrelevant. es geht darum wie das bild mit freiem auge aussieht und sonst gar nichts. technische erklärungen als beweis für bq sind unzulässig und irreführend.

3.) jemandem schlechte augen oder unwissenheit anzudichten, weil dieser behauptet keine filterunterschiede zu sehen ist eine frechheit.
die meisten haben lang genug pcs und wissen genug um zu wissen was shimmering, banding usw ist und wie man es erkennt. dazu ist kein technisches wissen nötig.

4.) selbst wenn die filterung bei nv besser wäre (was sie nicht ist), ist doch das aa bei ati eindeutig besser. damit würden sich diese punkte bzgl bq aufheben.

5.) das wichtigste: es wird hier massiv versucht von nvidianern das mehr an fps, was die x800xt pe gegenüber der 6800ultra bringt, durch die angeblich schlechtere bildqualität zu erklären -> Laßt euch nicht täuschen, ati hat gleich gute Bildqualität, wenn es um x800 vs 6800 serie geht !

1.) I agree.
2.) I agree.
3.) I agree.
4.) I agree.
5.) I agree.

mictasm
2004-07-07, 05:55:20
So ein Glück, es gibt eine Ignore-Liste...

Gast
2004-07-07, 06:40:21
Original geschrieben von tombman
1.) alle kommentare von usern, die nicht beide karten haben (6800, x800) oder zumindest testen konnten sind zu ignorieren.
besonders jene die 5800 oder 5900 karten haben oder generell vorgänger.
das wären schon mal fast alle.

Ack, aber genauso sollte man dann den Rest weglassen, besonders die, die eine r300 ihr eigen nennen. Warum lässt du die aussen vor? Ein Schelm wer böses dabei denkt :eyes:

Original geschrieben von tombman
2.) technische erklärungen wie af und filterung auf den einzelnen karten erzeugt wird sind irrelevant. es geht darum wie das bild mit freiem auge aussieht und sonst gar nichts. technische erklärungen als beweis für bq sind unzulässig und irreführend.


Stimmt, mit Fakten braucht man es gar nicht erst versuchen! Wenn man will das etwas gleichgut aussieht, siehts auch so aus ;)

Original geschrieben von tombman
3.) jemandem schlechte augen oder unwissenheit anzudichten, weil dieser behauptet keine filterunterschiede zu sehen ist eine frechheit.
die meisten haben lang genug pcs und wissen genug um zu wissen was shimmering, banding usw ist und wie man es erkennt. dazu ist kein technisches wissen nötig..

Wieder Full Ack! Man muss einen PC nur lange genug besitzen, dann ist man Fachmann! Jawohl...und werdet ja nicht Frech!

Original geschrieben von tombman
4.) selbst wenn die filterung bei nv besser wäre (was sie nicht ist), ist doch das aa bei ati eindeutig besser. damit würden sich diese punkte bzgl bq aufheben.


Gaynau! selbst wenn das FSAA bei ATi besser wäre (was es nicht ist), ist doch das AF bei nV eindeutig besser. damit würden sich diese punkte bzgl bq aufheben.


Original geschrieben von tombman
5.) das wichtigste: es wird hier massiv versucht von nvidianern das mehr an fps, was die x800xt pe gegenüber der 6800ultra bringt, durch die angeblich schlechtere bildqualität zu erklären -> Laßt euch nicht täuschen, ati hat gleich gute Bildqualität, wenn es um x800 vs 6800 serie geht !

Genau, seht es ein ihr nösen nVidia Karten Besitzer! ATi ist das beste wo gibt und alle die was anderes behaupten sind LÜGNER!

Sry, gibt vielleicht Punkte oder Bann...ist mir mittlerweile egal...wenn ich so einen gesammelten Fanboy Post gezwungener Maßen nicht mehr anschauen muss, gut. Aber solange ich noch darf, werde ich soetwas nicht unkommentiert tolerieren.

Radeonator@work
2004-07-07, 06:40:48
Ich wars btw ...

Grestorn
2004-07-07, 06:52:05
Original geschrieben von Radeonator
Ich wars btw ...
Zu Deinem Posting (das Du als Gast geschrieben hast) bleibt mir nur noch ein
:up: :laola:
hinzuzufügen!

r@h
2004-07-07, 06:57:26
Original geschrieben von tombman
1.) alle kommentare von usern, die nicht beide karten haben (6800, x800) oder zumindest testen konnten sind zu ignorieren.
besonders jene die 5800 oder 5900 karten haben oder generell vorgänger.
das wären schon mal fast alle.Blödsinn.

6800 zu 5x00 = Winkelabhängigkeit ala Radeon
X800 zu 9800 = brilinearer Filter "ATI-like"

Wenn man also so möchte, dann ist bei beiden einfach nur miesere BQ dazu gekommen, die der jeweils andere auch schon (vorher) mitgebracht hat. Oder einigen wir uns zumindest darauf, dass die BQ nicht besser geworden ist...

Dass beispielsweise die Winkelabhängigkeit bei ATI noch ihr übriges dazu tut (und wir reden hier derzeit von dieser Shimmer/LOD-Geschichte ;-), steht auf einem anderen Blatt...
Original geschrieben von tombman
2.) technische erklärungen wie af und filterung auf den einzelnen karten erzeugt wird sind irrelevant. es geht darum wie das bild mit freiem auge aussieht und sonst gar nichts. technische erklärungen als beweis für bq sind unzulässig und irreführend.Ja, insofern sollte das (Dein?) Auge mal ein bissel Unterricht in Sachen Wahrnehmung nehmen, da Du offenbar nicht in der Lage bist, selbst deutliche Unterschiede wahr zu mehmen.
Original geschrieben von tombman
3.) jemandem schlechte augen oder unwissenheit anzudichten, weil dieser behauptet keine filterunterschiede zu sehen ist eine frechheit.
die meisten haben lang genug pcs und wissen genug um zu wissen was shimmering, banding usw ist und wie man es erkennt. dazu ist kein technisches wissen nötig.Umso erstaunlicher ist es doch, dass es offensichtlich Leute gibt, die das nicht sehen (wollen), oder ?
Original geschrieben von tombman
4.) selbst wenn die filterung bei nv besser wäre (was sie nicht ist), ist doch das aa bei ati eindeutig besser. damit würden sich diese punkte bzgl bq aufheben.Typisch...
Falsche Aussage und dann eine Relativierung für den Fall, dass die getroffene Annahme doch falsch sein könnte (was zumindest die Annahme der Möglichkeit dessen mit einschließt ;-).

Auch wenn wir hier über AA überhaupt nicht reden... sondern lediglich von der Auswirkung von Supersampling auf den AF-Level, da diese Technik zusätlich die Filterung beeinflußt.

Also bitte immer schön beim Thema bleiben, ja ?
Original geschrieben von tombman
5.) das wichtigste: es wird hier massiv versucht von nvidianern das mehr an fps, was die x800xt pe gegenüber der 6800ultra bringt, durch die angeblich schlechtere bildqualität zu erklären -> Laßt euch nicht täuschen, ati hat gleich gute Bildqualität, wenn es um x800 vs 6800 serie geht !Das ist offenbar das, was Du hier jedem einreden möchtest, obwohl es nicht den (bereits vielfach belegten) Fakten entspricht.

Bei beiden, nVidia und ATI, hat die BQ im Vergleich zu ihren Vorgängern nochmals gelitten, um sie (noch) schneller gegenüber den Vorgängern bzw. der Konkurrenz erscheinen zu lassen. Inwieweit dies einen Einfluß auf die tatsächliche Grundleistung hat, kann man leider nicht sagen, da zumindest einer der beiden die (vollständige) Deaktivierung der 'Optimierungen' (seien sie nun sinnvoll oder nicht) eben nicht erlaubt. Mal von der mutmaßlichen Hardwarelimitierung der Winkelabhängigkeit abgesehen...

Was spricht eigentlich dagegen, dass ATI einen Schalter anbietet, der alle 'Optimierungen' bis auf die Winkelabhängigkeit komplett deaktiviert... meinetwegen auch in Stufen, wie es bei nVidia der Fall ist ?

DAS würde mich wirklich mal interessieren !

Razor

P.S.: bin wieder spät dran... geh' jetzt mal saffe, gell ?
:D

tombman
2004-07-07, 07:24:05
@ kritiker der 5 "Gebote"

Ihr fällt alle unter Punkt 1, daher irrelevante Aussagen.

Deshalb auch keine Antwort von mir nötig.

Nur weil 20 nvidia fanboys ohne Karten hier gegen mich reden, haben sie nicht Recht.

Masse kann Klasse eben nicht schlagen.

seahawk
2004-07-07, 07:33:52
Tombman hat recht. Wenn er die Karten vergleicht dann sieht er keinen Unterschied.
Damit ist für ihn die BQ beider Akrten gleich und die X800 damit die eindeutige bessere (weil schnellere) Karte.

Also, wer seine Spiele nur durch Tombmans Augen genießt sollte sich eine X800 kaufen.

tombman
2004-07-07, 07:35:22
Original geschrieben von seahawk
Tombman hat recht. Wenn er die Karten vergleicht dann sieht er keinen Unterschied.
Damit ist für ihn die BQ beider Akrten gleich und die X800 damit die eindeutige bessere (weil schnellere) Karte.

Also, wer seine Spiele nur durch Tombmans Augen genießt sollte sich eine X800 kaufen.

es gibt keine besseren als tombmans Augen.

Die nvidia fanboys trauen sich ja nicht mal die Stellen zu nennen, wo man Unterschiede sieht, weil sie genau wissen, daß ich diese Stellen dann untersuchen und mit fraps Videos widerlegen kann.

Also bleiben ihre Aussagen einfach vage und nicht überprüfbar- meine Meinung soll einfach in der Masse untergehen.

Das wird sie aber nicht ;)

q@e
2004-07-07, 07:42:01
Ist denn die Meinung deiner nVidia Fanboys nicht sowieso irrelevant? Schließlich hat außer DIR keiner BEIDE Karten, perfekte Augen, ist 100% objektiv und qualifiziert, das zu beurteilen?

:massa:

tombman
2004-07-07, 07:44:24
Original geschrieben von q@e
Ist denn die Meinung deiner nVidia Fanboys nicht sowieso irrelevant? Schließlich hat außer DIR keiner BEIDE Karten, perfekte Augen, ist 100% objektiv und qualifiziert, das zu beurteilen?

:massa:

generell ist bei mir gar nix irrelevant. als du mir die far cry Stelle damals gezeigt hast, hab ichs auch sofort überprüft. durch app-af hab ich das banding dann bei ati auch wegbekommen.

Aber einfach Aussagen ohne Beweis und ohne den KArtenbesitz als Hintergrund.... haben nvidia fanboys eben nix zu lachen bei mir.

MB@W
2004-07-07, 09:10:38
Original geschrieben von MeLLe
Punkt 1, Absatz B:
Alle Kommentare von Usern, die zwar beide Karten haben (6800, x800) oder zumindest testen konnten, jedoch fehlende Einsicht und engstirnige, subjektive Betrachtungen als Fakten dadurch untermauern wollen, weil sie sich anmaßen, nur durch den Besitz beider Karten als einzige dazu in der Lage zu sein, sind zu ignorieren.
Da gibts auch mindestens einen, aber - verflixt - sein Name fällt mir grad nicht ein ...

Gerade du scheinst ein ganz toller Fanboy zu sein, eben weil du händeringend und ohne logische Gründe und Fakten versuchst, ATIs letztes Produkt zu verteidigen.

Original geschrieben von tombman
Die nvidia fanboys trauen sich ja nicht mal die Stellen zu nennen, wo man Unterschiede sieht, weil sie genau wissen, daß ich diese Stellen dann untersuchen und mit fraps Videos widerlegen kann.

Also wenn ein Fraps-Video kein Beweis ist, was ist denn für dich(MeLLe) ein Beweis?
Wo bleiben die Beweise der Member die das Gegenteil von tombman behaupten. Tombman will es ja beweisen, die anderen reden als ob sie eine Schallplatte aufgelegt hätten. Die technischen Unterschiede dürften langsam klar sein. Was zählt ist das was man sieht, der Rest ist nur graue Theorie.

@MeLLe
:down:
Wie kann man jemanden, der sich extra BEIDE Karten besorgt um möglichst objektiv zu sein, einen Fanboy nennen?
Weiss du überhaupt, was du hier schreibst. Das entbehrt jeglicher Logik!

MikBach

tombman
2004-07-07, 09:15:51
Original geschrieben von MB@W
Also wenn ein Fraps-Video kein Beweis ist, was ist denn für dich(MeLLe) ein Beweis?
Wo bleiben die Beweise der Member die das Gegenteil von tombman behaupten. Tombman will es ja beweisen, die anderen reden als ob sie eine Schallplatte aufgelegt hätten. Die technischen Unterschiede dürften langsam klar sein. Was zählt ist das was man sieht, der Rest ist nur graue Theorie.

@MeLLe
:down:
Wie kann man jemanden, der sich extra BEIDE Karten besorgt um möglichst objektiv zu sein, einen Fanboy nennen?
Weiss du überhaupt, was du hier schreibst. Das entbehrt jeglicher Logik!

MikBach

jo, danke.

da glauben echt einige ich kauf mir die nvidia Karte um 634€ extra noch zum Spaß, importiere sie 3 Wochen bevor sie jeder andere kaufen kann aus den USA, telefoniere mit einem der Gewinner des San Francisco NV40 Launch Party Events teuer in USA damit ich sie bekomme, nur damit ich hier
den glaubhaften fanboy spielen kann---> :balla:

Tjell
2004-07-07, 09:23:41
Original geschrieben von tombman
...
es gibt keine besseren als tombmans Augen.

Die nvidia fanboys trauen sich ja nicht mal die Stellen zu nennen, wo man Unterschiede sieht, weil sie genau wissen, daß ich diese Stellen dann untersuchen und mit fraps Videos widerlegen kann.
...
:buck:

Original geschrieben von tombman
1.) alle kommentare von usern, die nicht beide karten haben (6800, x800) oder zumindest testen konnten sind zu ignorieren.
besonders jene die 5800 oder 5900 karten haben oder generell vorgänger.
das wären schon mal fast alle.
Da brauche ich mal nicht widersprechen, schließlich habe ich hier nichts zur Bildqualität der Karten geschrieben.

Original geschrieben von tombman
2.) technische erklärungen wie af und filterung auf den einzelnen karten erzeugt wird sind irrelevant. es geht darum wie das bild mit freiem auge aussieht und sonst gar nichts. technische erklärungen als beweis für bq sind unzulässig und irreführend.
Stimmt ja, es kommt ja garnicht auf die objektive Betrachtensweise solcher Maßnahmmen an. Gut ist, was gefällt. LOL

Original geschrieben von tombman
3.) jemandem schlechte augen oder unwissenheit anzudichten, weil dieser behauptet keine filterunterschiede zu sehen ist eine frechheit.
die meisten haben lang genug pcs und wissen genug um zu wissen was shimmering, banding usw ist und wie man es erkennt. dazu ist kein technisches wissen nötig.
Die meisten Leute, die ich kenne, zocken seit etlichen Jahren. Und davon gibt es nur einen, der überhaupt etwas mit den Begriffen Anti-Aliasing und Anisotrope Filterung anfangen kann. Der Rest sieht zwischen keinem AA/AF und eingeschalteten Maßnahmen nicht einmal sofort einen Unterschied, man muß denen schon zeigen, was sich geändert hat. Deshalb behaupte ich, daß die meisten ebenso kein Texturflimmern etc. explizit wahrnehmen (so wie ich kein Tearing ohne Vsync!).

Original geschrieben von tombman
4.) selbst wenn die filterung bei nv besser wäre (was sie nicht ist), ist doch das aa bei ati eindeutig besser. damit würden sich diese punkte bzgl bq aufheben.
6×AA ist bei ATI eine Klasse für sich, warum sich das dann mit einer (evtl.) besseren Filterung bei NV aufheben soll, ist mir schleierhaft. Schonmal was vom Unterschied zwischen Äpfel und Birnen gehört, Herr Tombman?


Original geschrieben von tombman
5.) das wichtigste: es wird hier massiv versucht von nvidianern das mehr an fps, was die x800xt pe gegenüber der 6800ultra bringt, durch die angeblich schlechtere bildqualität zu erklären ->...
*Gähn* Balkenlängen alleine sind nicht ausschlaggebend.

Original geschrieben von tombman
...Laßt euch nicht täuschen, ati hat gleich gute Bildqualität, wenn es um x800 vs 6800 serie geht!
Genau DAS willst Du uns mit Deinem Punkt 2 durch Deinen subjektiv verklärten Blick als objektiv verkaufen.
Wenn jemand versucht, die ganze Sache objektiv zu beleuchten, was Deine Meinung widerlegen könnte, ist das für Dich "irrelevant". So kann man sich seine heile Welt hübsch erhalten, was?

:lolaway:

tombman
2004-07-07, 09:26:43
Original geschrieben von Tjell

Wenn jemand versucht, die ganze Sache objektiv zu beleuchten, was Deine Meinung widerlegen könnte, ist das für Dich "irrelevant". So kann man sich seine heile Welt hübsch erhalten, was?


Wenn dieser jemand nicht schon durch Punkt 1 ausgeschlossen wird und mir Stellen in games mit screenshots zeigt, werde ich mir die Sache natürlich ansehen, so wie immer.

Korak
2004-07-07, 09:43:37
Original geschrieben von tombman
Die Moderatoren werden schon erkennen, wann und wie ein thread totgeschrieben werden soll.


So ist es.

Original geschrieben von tombman
Und threads gibts genügend- und ich hab genug Zeit ;)


Danke, dass du uns nicht an Langeweile sterben lassen willst.

*closed*

Und jetzt mal sehen was ich daraus mache.

Demirug
2004-07-07, 09:51:50
Ich verstehe ehrlich gesagt so langsam den Sinn dieser Diskussion nicht mehr.

Völlig objektiv betrachtet gibt es zwischen den optimierten und unoptimierten Filtervarianten einen Unterschied. Die Quantität dieses Unterschieds wird massgeblich durch die Texturen sowie die verwendeten Shader bestimmt bleibt aber messbar. Bei der richtigen Kombination von Texturen und Shader kann dieser Unterschied auch durchaus 0 sein. In der Regel kann man aber einen Unterschied sehen wenn wir das sehen als den objektiven Vorgang der optischen Erfassung definieren.

Das was man aber umgangssprachlich als sehen bezeichnet kann aber niemals objektiv sein. Zuerst haben wir da einmal leichte anatomische Unterschiede was die Augen angeht. Der zweite Punkt ist die Wahrnehmung die eben nun mal bei jedem etwas anders ist. Daher macht es IMHO absolut keinen Sinn über den Eindruck bezüglich der Bildqualität von Einzelpersonen zu diskutieren. Genauso gut könnten wir über den Belag einer Pizza diskutieren um festzustellen welches der beste ist.

Objektiv können wir nur feststellen wie stark eine Optimierung das endgültige Bild verändert. Objektiv könnten wir auch den Unterschied zu einem Referenzbild feststellen. Im Gegensatz zu vielen Bereichen der Informatik mangelt es aber beim Rendern an gültigen Referenzen.

Bevor wir also weiter über IQ reden sollten wir IMHO vielleicht erst mal definieren was IQ ist und wie man sie objektiv messen kann.

aths
2004-07-07, 12:34:32
edit: Sry, hab nicht gesehen dass der Thread zu war. Posting kommt, sofern der Thread wieder geöffnet wird.

Korak
2004-07-07, 14:17:47
Angesichts der Tatsache, dass einige den Thread unbedingt wieder auf haben wollten öffne ich ihn wieder. Ein paar Posts wurden allerdings rausgeschmissen.

Dazu noch was:

Original geschrieben von tombman
@ kritiker der 5 "Gebote"

Ihr fällt alle unter Punkt 1, daher irrelevante Aussagen.

Deshalb auch keine Antwort von mir nötig.

Nur weil 20 nvidia fanboys ohne Karten hier gegen mich reden, haben sie nicht Recht.

Masse kann Klasse eben nicht schlagen.

Es tut mir leid tombman aber von 'Klasse' ist in deinen Postings nicht viel zu sehen. Zügel dich in Zukunft bitte etwas.

Und allg.: Haltet euch alle bitte etwas zurück. Es gibt wohl Punkte in einer Diskussion bei der kein Weiterkommen ist. Vielleicht sollte man ab da den ins Hirn intergrierten Filter anwerfen.

Piffan
2004-07-07, 14:48:13
Original geschrieben von Demirug
Ich verstehe ehrlich gesagt so langsam den Sinn dieser Diskussion nicht mehr.

Völlig objektiv betrachtet gibt es zwischen den optimierten und unoptimierten Filtervarianten einen Unterschied. Die Quantität dieses Unterschieds wird massgeblich durch die Texturen sowie die verwendeten Shader bestimmt bleibt aber messbar. Bei der richtigen Kombination von Texturen und Shader kann dieser Unterschied auch durchaus 0 sein. In der Regel kann man aber einen Unterschied sehen wenn wir das sehen als den objektiven Vorgang der optischen Erfassung definieren.

Das was man aber umgangssprachlich als sehen bezeichnet kann aber niemals objektiv sein. Zuerst haben wir da einmal leichte anatomische Unterschiede was die Augen angeht. Der zweite Punkt ist die Wahrnehmung die eben nun mal bei jedem etwas anders ist. Daher macht es IMHO absolut keinen Sinn über den Eindruck bezüglich der Bildqualität von Einzelpersonen zu diskutieren. Genauso gut könnten wir über den Belag einer Pizza diskutieren um festzustellen welches der beste ist.

Objektiv können wir nur feststellen wie stark eine Optimierung das endgültige Bild verändert. Objektiv könnten wir auch den Unterschied zu einem Referenzbild feststellen. Im Gegensatz zu vielen Bereichen der Informatik mangelt es aber beim Rendern an gültigen Referenzen.

Bevor wir also weiter über IQ reden sollten wir IMHO vielleicht erst mal definieren was IQ ist und wie man sie objektiv messen kann.

Ich hatte wegen dieser Problematik ja nicht nur einmal den "Blindtest" angeregt: Der Tester weiß selbst nicht, welche Karte er gerade beurteilt. Würde natürlich einen erhellichen Aufwand brauchen: Eine Person, die technisch beschlagen ist, stellt die Modi ein, und der Tester sollte nicht irgendwelche Demos laufen lassen, sondern tatsächlich mal intensiv, vielleicht ne Std, sich mit einem Spiel beschäftigen...

Ich weiß aus eigener Erfahrung, wie schnell man sich blenden lässt: Als ich die Ati 9700 das erste Mal bei Mafia testete, da machte ich pralle Augen bei 16 AF und bombiger Performance. Zum Glück sind hier ja alle Flächen senkrecht/waagrecht und mir fiel die Stage- Optimierung gar nicht so sehr auf. Inzwischen lasse ich den Af- Regler auf 2, evtl. 4x stehen und bestehe auf der Deaktivierung der Stage- Optimierung. Zieht zwar nun tüchtig Performance runter, gefällt meinen "gereiften" Augen aber deutlich besser. Zur Brilinearität: Können sich die Treiberprogger von mir aus in den Allerwertesten stecken. Dann lieber einen kleineren "sauberen" Af- Level als diesen Müll.

ABER: Wenn ein Spiel unspielbar wäre mit korrektem AF, dann würde ich eher zum optimierten AF greifen als gar kein AF zu haben.

Es ist unsere eigene Schuld, dass uns ATI und NV entmündigt haben und uns die Optimierungen ungefragt aufs Auge drücken. Es liegt am Äpfel- Birnen- Vergleich und unserem Hang zu den Benchmarkbalken......Solange unterschiedliche AF- Modi und vor allem FSAA- Modi gegeneinander antreten, taugt ein Bench nix. So war der unselige Multi- FSAA versus Super- FSAA ein Tiefpunkt der Review- Kultur. So geht es nicht, wozu es führt, sehen wir heute: Dem Kunden wird die "Macht" über die Optionen der Hardware einfach entzogen.

Darum steht meine Forderung nach wie vor: Wenn Benches, dann nur Modi, die identisch sind vom Füllratenbedarf. Sonst ohne AF!
Wenn dann Gleichstand herrscht, sind halt beide Karten gut "genug"..

zu tombmans Aussagen: Au backe! Man mag gar net mehr lesen :(

tombman
2004-07-07, 15:10:03
Original geschrieben von Piffan


zu tombmans Aussagen: Au backe! Man mag gar net mehr lesen :(

brauchst auch nimmer..... ich werde nimma versuchen, die Leute zu bekehren... bringt ja doch nix, glauben ja eh nur was sie glauben wollen. Denen könnte man Scheiß-BQ vorsetzen und ihnen erklären, daß da technisch 20 mal mehr gerechnet wird als bei der anderen Firma und schon glauben sies ;) (so wie, daß man schneller im Internet ist mit mehr cpu-mhz, quasi das Mediamarkt-Prinzip)

Ich werde einfach nur mehr meine persönlichen Erfahrungen posten, ohne weiteres Kommentar mehr von mir. Dann können sich alle selbst aussuchen, was sie davon halten sollen.

Und wenn ich zb bei Nvidia scheiß BQ sehe, wirds gepostet.
Mit screenshot oder fraps Video.
(upps, geht ja gar nicht, denn zb shimmering gibts bei nv40 ja nicht ;))

Crushinator
2004-07-07, 15:40:48
Original geschrieben von tombman
(...) Ich werde einfach nur mehr meine persönlichen Erfahrungen posten, ohne weiteres Kommentar mehr von mir. Dann können sich alle selbst aussuchen, was sie davon halten sollen. Es würde uns allen GPU-interessierten wesentlich besser gefallen, wenn Du auch Deine persönliche Meinung dazu äußertest, allerdings mit einem anderen Formulierungsstil. Ich denke die sich oft einfach nur abwertend anfühlende Art wie Du manches bezeichnest, führt dazu daß man Deine Argumentation als zu einseitig empfindet. Daß daruafhin keine vernünftigen Diskussionen zustande kommen, sollte einem IMHO doch klar sein. :)
Und wenn ich zb bei Nvidia scheiß BQ sehe, wirds gepostet. (...) Genau diese Argumentationsweise meine ich, die mir verbesserungswürdig erscheint.

Sry für OT

reunion
2004-07-07, 15:56:23
Original geschrieben von tombman
1.) alle kommentare von usern, die nicht beide karten haben (6800, x800) oder zumindest testen konnten sind zu ignorieren.
besonders jene die 5800 oder 5900 karten haben oder generell vorgänger.
das wären schon mal fast alle.

2.) technische erklärungen wie af und filterung auf den einzelnen karten erzeugt wird sind irrelevant. es geht darum wie das bild mit freiem auge aussieht und sonst gar nichts. technische erklärungen als beweis für bq sind unzulässig und irreführend.

3.) jemandem schlechte augen oder unwissenheit anzudichten, weil dieser behauptet keine filterunterschiede zu sehen ist eine frechheit.
die meisten haben lang genug pcs und wissen genug um zu wissen was shimmering, banding usw ist und wie man es erkennt. dazu ist kein technisches wissen nötig.

4.) selbst wenn die filterung bei nv besser wäre (was sie nicht ist), ist doch das aa bei ati eindeutig besser. damit würden sich diese punkte bzgl bq aufheben.

5.) das wichtigste: es wird hier massiv versucht von nvidianern das mehr an fps, was die x800xt pe gegenüber der 6800ultra bringt, durch die angeblich schlechtere bildqualität zu erklären -> Laßt euch nicht täuschen, ati hat gleich gute Bildqualität, wenn es um x800 vs 6800 serie geht !


Also nach diesem post muss ich einfach mal fragen ob man eigendlich für unnötige Sticheleien Punkte kassieren kann, und ja diese farge ist ernst gemeint...

//Edit: Jaja, sry

ironMonkey
2004-07-07, 17:11:09
Original geschrieben von aths
Wozu 16x in modernsten Spielen, wenn schon 4x (oder 8x) tolle Texturen bringt? Mit einem qualitativ hochwertigem 16x-Modus kann man dann ältere Spiele aufpeppen.

Was ist das nächste? 8x AA – nur für die Bildschirmmitte, der Rest kriegt 4x oder 2x? ('Userfreundlich, man guckt in die Mitte, und nein das kann man nicht abschalten weil man ja nur in die Mitte guckt und die Nachteile deshalb nicht sieht.')


Die letzte Karte die gutes AF hatte war wie wir alle wissen die GF4, und es kann keiner sagen das die Leistung von dem 8xAF überzeugte das Bild hingegen schon, war leider nicht alzu oft nutzbar, ich finde da den Schritt zum Winkelabhängigen recht gut, es ist nicht so stark sichtbar und ermöglicht hohes AF mit anehmbare FPS Raten, es geht mir hier um die Winkelabhängigkeit.

Das Problem ist auch noch das die Karten ja auch älter werden, hierdurch kann man also auch noch mit älteren Karten gut Spielen und hin und wieder AF dazu schalten, du denkst bei Spielen leider immer nur zurück, aber bei Features 10 Jahre voraus, wie du ja weist hatte ich jetzt einige Wochen eine 5900XT´und das 8xAF (per a tuner) ist nicht wirklich nutzbar in den aktuellen Spielen, hingegen kann ich dies bei der 9800Pro nutzen(per a tuner), ich hab wenigstens noch die Wahl bei der 9800Pro ob ich es anmache oder nicht.

Vieleicht siehst du jetzt mal was ich meine.


Gruß

Gast
2004-07-07, 17:24:01
@Tombman:

1. Hast du zum Bildqualitätsvergleich auch noch andere Karten zur Hand, zum Beispiel eine 9800Pro, FX5900 oder GF4?

2. Nutzt du irgendwelche Tools oder nur das Control Panel bzw. Gamesettings, um die Qualität des AF bzw. des trilinearen Filters zu beeinflussen?

Korak
2004-07-07, 18:03:18
Wen wollt ihr hier eigentlich verarschen?! Da wird der Thread extra wieder aufgemacht und es kommt nur Müll bei raus. Entweder es kommt was zum Thema (wenigsten halbwegs) oder garnix.

seahawk
2004-07-07, 18:26:48
Ich denke ein BQ Diskussion ist durchaus sinnvoll. Man muss aber dabei klar sagen, dass so etwas neben den technischen Fakten auch eine Frage der persönlichen Wahrnehmung ist.
Mir persönlich gewählt z.B. das nicht gammakoregierte 4xMSAA des NV40 besser als die Variante der R300. Der Grund sit, dass es bei NV keine Artefakte gibt, wenn z.B. Stromleitungen bearbeitet werden. Also dünne Linien mit starken Kontrast. Allerdings weiß ich auch, dass die ATI Lösung in der Mehrheit der Fälle besser ist. Deshalb würde ich nie behaupten, dass NV ein bessere AA hat.
Das gleiche gilt für AA. Filtering, Shimmering usw.

Es gibt nur die subjektive Wahrnehmung. Was ATHS grausam findet, fällt Tombman vielleicht nicht bewußt auf, weil er seinen Blick dafür einfach nicht geübt hat.


In diesem Sinne mehr Toleranz der anderen Meinung gegenüber. Und da es sich um eine subjektive Wahrnehmung handelt, bringen Überzeugungsversuche auch nichts.

tokugawa
2004-07-07, 18:30:45
Original geschrieben von ironMonkey
Aha, dein Puls hängt also jenseits von 180 wenn du Musik hörst........Ok wenn man Probe hört ist das schon was anderes, hat aber nicht wirklich was mit Musik genießen zu tun.


Doch, hat es. Du glaubst gar nicht wieviel Freude es mir macht, musikalische Strukturen zu entdecken, die man mit "berieseln" gar nicht bemerkt :)

Aber ich bin auch Hobbykomponist mit 12 Jahre Musikausbildung...

Original geschrieben von ironMonkey
Und schon sind wir bei dem Punkt den ich meine "Die haben einfach ein Auge dafür entwickelt wie ich ein Ohr für Musik"

Wer ist "Die", ist das der Großteil der Käufer????????


Die sind jene, die ich beschrieben habe. Ob es der Großteil der Käufer ist oder nicht, ist für mich irrelevant; das ist keine demokratische Entscheidung, sondern eine persönliche für jeden selbst.

Ich habe auch kein Bedürfnis, jemandem seine Meinung abzusprechen nur weil die "Mehrheit" anders denkt.

Original geschrieben von ironMonkey
@Robbitop, das hast du recht, aber ich wollte auch mal die andere Seite von Spielern zeigen die mit einem lahmen RPG nix anfagen können, ich hab auch nix dagen das manch einem die fehler/Optimierungen sofort ins Auge Springen, nur ob das die Hersteller wirklich ändern sollten steht auf einem anderen Blatt, weil ob dann der Großteil der Käufer immer noch mit der Karte zufrieden ist wenn die sie bei 16xAF komplett in den Keller sakt ist eine andere Frage.
Gruß

Sicher ist es eher so dass Kartenhersteller weder Balkenlänge noch Transistorencount riskieren um einen kleinen Teil ihrer Klientel zufriedenzustellen.

Das sehe ich mal einfach als Tatsache.

Dennoch sehe ich keinen Fehler darin, trotzdem kritisch zu sein. Nur weil's die Mehrheit nicht merkt, heißt das nicht dass man zufrieden damit sein muß.

tokugawa
2004-07-07, 18:36:32
Original geschrieben von tombman
3.) jemandem schlechte augen oder unwissenheit anzudichten, weil dieser behauptet keine filterunterschiede zu sehen ist eine frechheit.
die meisten haben lang genug pcs und wissen genug um zu wissen was shimmering, banding usw ist und wie man es erkennt. dazu ist kein technisches wissen nötig.
[/SIZE]

Wie bereits an anderer Stelle erwähnt (sh Vergleich mit Musikhören), erkennen es manche nicht an manchen Stellen. Liegt einfach an der Arbeitsweise des menschlichen Gehirns. Das ist weder schlecht noch gut, es ist einfach nur so.

Aber auch wenn man es nicht sieht, ist es vorhanden; und manche sehen es.

Ich kann deinen Punkten nicht prinzipiell zustimmen, denn der wahre Kern ist ja:

1) Es existiert
2) Manche sehen es
3) Manche sehen es nicht

Na und? Weder ist jemand "besonders blind", noch sind die, die es sehen, besonders pingelig, sondern es liegt einfach daran, wie das Gehirn (nicht das Auge) wahrnimmt. Das ist bei jedem verschieden.

tokugawa
2004-07-07, 18:41:04
Original geschrieben von Demirug
Ich verstehe ehrlich gesagt so langsam den Sinn dieser Diskussion nicht mehr.

Völlig objektiv betrachtet gibt es zwischen den optimierten und unoptimierten Filtervarianten einen Unterschied. Die Quantität dieses Unterschieds wird massgeblich durch die Texturen sowie die verwendeten Shader bestimmt bleibt aber messbar. Bei der richtigen Kombination von Texturen und Shader kann dieser Unterschied auch durchaus 0 sein. In der Regel kann man aber einen Unterschied sehen wenn wir das sehen als den objektiven Vorgang der optischen Erfassung definieren.

Das was man aber umgangssprachlich als sehen bezeichnet kann aber niemals objektiv sein. Zuerst haben wir da einmal leichte anatomische Unterschiede was die Augen angeht. Der zweite Punkt ist die Wahrnehmung die eben nun mal bei jedem etwas anders ist. Daher macht es IMHO absolut keinen Sinn über den Eindruck bezüglich der Bildqualität von Einzelpersonen zu diskutieren. Genauso gut könnten wir über den Belag einer Pizza diskutieren um festzustellen welches der beste ist.

Objektiv können wir nur feststellen wie stark eine Optimierung das endgültige Bild verändert. Objektiv könnten wir auch den Unterschied zu einem Referenzbild feststellen. Im Gegensatz zu vielen Bereichen der Informatik mangelt es aber beim Rendern an gültigen Referenzen.

Bevor wir also weiter über IQ reden sollten wir IMHO vielleicht erst mal definieren was IQ ist und wie man sie objektiv messen kann.

Genau!

Es ist ja unbestritten dass ein Unterschied in gewissen Situationen besteht.

Und die Diskussion, ob man es jetzt "sieht" oder "nicht sieht", ist eine die höchst "persönlich" ist.

Wahrnehmung läßt sich nicht objektiv diskutieren.

IMO hätte die Dikussion aufhören sollen mit der Conclusio:

Bildqualitätsunterschiede existieren, rational gesehen. Ob man sie sieht, ist von Person zu Person verschieden.

tokugawa
2004-07-07, 18:42:29
Original geschrieben von tombman
brauchst auch nimmer..... ich werde nimma versuchen, die Leute zu bekehren... bringt ja doch nix, glauben ja eh nur was sie glauben wollen. Denen könnte man Scheiß-BQ vorsetzen und ihnen erklären, daß da technisch 20 mal mehr gerechnet wird als bei der anderen Firma und schon glauben sies ;) (so wie, daß man schneller im Internet ist mit mehr cpu-mhz, quasi das Mediamarkt-Prinzip)

Ich werde einfach nur mehr meine persönlichen Erfahrungen posten, ohne weiteres Kommentar mehr von mir. Dann können sich alle selbst aussuchen, was sie davon halten sollen.

Und wenn ich zb bei Nvidia scheiß BQ sehe, wirds gepostet.
Mit screenshot oder fraps Video.
(upps, geht ja gar nicht, denn zb shimmering gibts bei nv40 ja nicht ;))

Du schimpfst immer über NV fanboys, aber wenn du jetzt einen Kreuzzug konzentriert gegen NVIDIA fährst, wärst du nicht genauso, nur mit anderem Vorzeichen?

tokugawa
2004-07-07, 18:43:52
Original geschrieben von seahawk
Ich denke ein BQ Diskussion ist durchaus sinnvoll. Man muss aber dabei klar sagen, dass so etwas neben den technischen Fakten auch eine Frage der persönlichen Wahrnehmung ist.
Mir persönlich gewählt z.B. das nicht gammakoregierte 4xMSAA des NV40 besser als die Variante der R300. Der Grund sit, dass es bei NV keine Artefakte gibt, wenn z.B. Stromleitungen bearbeitet werden. Also dünne Linien mit starken Kontrast. Allerdings weiß ich auch, dass die ATI Lösung in der Mehrheit der Fälle besser ist. Deshalb würde ich nie behaupten, dass NV ein bessere AA hat.
Das gleiche gilt für AA. Filtering, Shimmering usw.

Es gibt nur die subjektive Wahrnehmung. Was ATHS grausam findet, fällt Tombman vielleicht nicht bewußt auf, weil er seinen Blick dafür einfach nicht geübt hat.


In diesem Sinne mehr Toleranz der anderen Meinung gegenüber. Und da es sich um eine subjektive Wahrnehmung handelt, bringen Überzeugungsversuche auch nichts.

100% ACK.

Ich empfehle den Leuten die ihre eigenen Augen für "perfekt" halten und nur ihre Wahrnehmung zählen lassen, genau dies sich einmal zu überlegen.

Piffan
2004-07-07, 21:38:43
Nach diesen wirklich sinnvollen und schönen Bemerkungen hätte ich mal wieder was topisches, nämlich zu der Frage, was verbessert werden muss:

Bitte gebt den Leuten wieder die Befugnisse, die BQ nach ihrem Gusto einzustellen. Für die DAUS unter den Reviewern können die Optionen ja versteckt werden. Mir reicht es auch aus, wenn ein externes tool nötig ist, um volle Gewalt über die Hardware zu bekommen.
Die echten Könner unter den Reviewern werden ja sicher niemals nicht auf keinen Fall Äpfel mit Birnen vergleichen ;)

Schön wärs!

Leider haben wir uns die Suppe selbst eingebrockt, also nicht jaulen, sondern den Balken sehr kritisch gegenüberstehen. Und Sprüche wie: Die Karten haben die gleiche BQ will ich auch nicht mehr lesen.

@Korak: Trink n Bier. So schlecht war der Thread nach dem Öffnen ja wohl nicht. Immerhein sehe ich die Chance, dass sich tombman wieder abregt und von seiner Mission absieht ;)

tombman
2004-07-08, 01:03:07
Original geschrieben von tokugawa
Wie bereits an anderer Stelle erwähnt (sh Vergleich mit Musikhören), erkennen es manche nicht an manchen Stellen. Liegt einfach an der Arbeitsweise des menschlichen Gehirns. Das ist weder schlecht noch gut, es ist einfach nur so.

Aber auch wenn man es nicht sieht, ist es vorhanden; und manche sehen es.

Ich kann deinen Punkten nicht prinzipiell zustimmen, denn der wahre Kern ist ja:

1) Es existiert
2) Manche sehen es
3) Manche sehen es nicht

Na und? Weder ist jemand "besonders blind", noch sind die, die es sehen, besonders pingelig, sondern es liegt einfach daran, wie das Gehirn (nicht das Auge) wahrnimmt. Das ist bei jedem verschieden.

Mit meinem Gehirn is alles in Ordnung. Wenn deines zuviel sieht, ist eben dein Gehirn "so"- is ned schlecht, nur anders.

tombman
2004-07-08, 01:06:11
Original geschrieben von seahawk


Es gibt nur die subjektive Wahrnehmung. Was ATHS grausam findet, fällt Tombman vielleicht nicht bewußt auf, weil er seinen Blick dafür einfach nicht geübt hat.




Was aths zuviel sieht, entspringt seiner Phantasie. Er hat seinen Blick eben zuviel geübt.

aths
2004-07-08, 01:53:32
Original geschrieben von ironMonkey
Die letzte Karte die gutes AF hatte war wie wir alle wissen die GF4, und es kann keiner sagen das die Leistung von dem 8xAF überzeugte das Bild hingegen schon, war leider nicht alzu oft nutzbar, ich finde da den Schritt zum Winkelabhängigen recht gut, es ist nicht so stark sichtbar und ermöglicht hohes AF mit anehmbare FPS Raten, es geht mir hier um die Winkelabhängigkeit.Wenn Winkelabhängigkeit viel Leistung bringen soll geht das nur dann, wenn auch viel BQ geopfert wird. Die Radeon ist auch ohne AF sehr fix, und kann mit der Rohleistung natürlich auch bei aktiviertem AF noch recht schnell sein.
Original geschrieben von ironMonkey
Das Problem ist auch noch das die Karten ja auch älter werden, hierdurch kann man also auch noch mit älteren Karten gut Spielen und hin und wieder AF dazu schalten, du denkst bei Spielen leider immer nur zurück, aber bei Features 10 Jahre voraus, wie du ja weist hatte ich jetzt einige Wochen eine 5900XT´und das 8xAF (per a tuner) ist nicht wirklich nutzbar in den aktuellen SpielenBei welcher Auflösung? Liegt das wirklich am AF, oder an geringerer Grundgeschwindkeit beim Einsatz vom Pixelshader?

aths
2004-07-08, 01:59:45
Original geschrieben von tombman
Was aths zuviel sieht, entspringt seiner Phantasie. Er hat seinen Blick eben zuviel geübt. Es kann nicht sein, was nicht sein darf, oder wie soll man dieses Posting verstehen? Natürlich habe ich – als bemüht kritischer Redakteur – immer versucht, einen scharfen Blick zu haben. Aber wenn ich Karten teste, teste ich indem ich einfach spiele. Die 9600 wurde eingebaut, nicht gebencht, sondern in Spielen getestet. Der "brilineare" Filter (heißt bei ATI glaube ich Tri-Flex oder so) ist mir dabei entgangen, ein Schimmern (Aliasing) bei aktiviertem AF hingegen nicht. Auf Kantenglättung lege ich Wert seitdem ich die Voodoo4 hatte, dort litt ich allerdings unter grauenhafter bilinearer Filterung bzw. diese MIP-Map-Dithering. Seit der GF4 Ti 4600 und 8x oldschool-AF bekam ich ein Auge dafür. Gut möglich, dass viele keinen Unterschied zu 8x AF auf Radeon 9700 sehen. Ich kann aber z. B. wenn ich unter einer Säule stehe, sehen, ob der tatsächlich applizierte AF-Grad stark winkelabhängig ist oder nicht. Dass du Sachen, die außerhalb deiner persönlichen Wahrnehmung liegen, auf Fantasien anderer schiebst, halte ich für ein starkes Stück.
Original geschrieben von tombman
es gibt keine besseren als tombmans Augen.Wie ernst soll man das nehmen?

tombman
2004-07-08, 02:03:42
Original geschrieben von aths
...oder wie soll man dieses Posting verstehen?

Man kann auch zuviel sehen, nämlich Unterschiede die nicht da sind. Der, der angeblich mehr sieht ist nicht objektiver zu beurteilen, als derjenige der weniger sieht.

Was machst du wenn einer daherkommt und sagt er sieht ATI mit bessere BQ als Nvidia? Hat der dann Recht, weil er noch mehr sieht als du?

Da du ja keine screenshots lieferst oder Videos steht Aussage gegen Aussage.

btw, mit der 9600er fällst du sowieso unter Punkt 1.

Aber das wichtigste hat demirug eh schon gesagt: da es keine Referenz gibt was die richtige BQ ist, ist sowieso alles subjektiv.

p.s: bleib bitte on topic!!

aths
2004-07-08, 02:14:32
Original geschrieben von tombman
1.) alle kommentare von usern, die nicht beide karten haben (6800, x800) oder zumindest testen konnten sind zu ignorieren.Einige Leute hatten die 6800, und entweder die X800 selbst oder eine BQ-mäßig mindestens gleichwertige Karte (z. B. 9600) zum Testen.

Wer beide Karten hat, hat die Möglichkeit, beide zu vergleichen. Daraus folgt nicht zwingend, dass die Vergleichsergebnisse in Gänze richtig sind. Das würde nur dann gewährleistet sein, wenn alle Spiele komplett durchgespielt würden, und man ständig auf alles im Bild achten würde.
Original geschrieben von tombman
2.) technische erklärungen wie af und filterung auf den einzelnen karten erzeugt wird sind irrelevant.Das sind sie nicht. Ohne Hintergrundwissen kommt man mit:
Original geschrieben von tombman
es geht darum wie das bild mit freiem auge aussieht zwar auch zu Ergebnissen. Aber läuft Gefahr, zu falschen oder zumindest unvollständigen Ergebnissen zu kommen (wie man z. B. gesehen hat, als du bi-AF vs. bri-AF gebencht hast, weil du dir nicht bewusst warst, dass ATIs Performance-AF nur bilinear anisotrop filtert.)

Demirug hat herausgefunden, dass ATI auf der X800 das Nyquist-Kriterium nicht erfüllt. Daraus folgt zwingend, dass sich Situationen finden lassen, in der Texturen zu flimmern anfangen. Da man das weiß, kann man auch gezielt danach suchen. Und vergleichen, ob Nvidia ähnlich rumtrickst, oder (noch?) nicht.

Technisches Wissen ist sicher nicht irrelevant. Erst solches Wissen ermöglicht, die richtigen Fragen zu stellen bzw., die Karten bewusst in schwierigen Szenen zu testen. Anschließend kann (sollte) man darüber diskutieren, wie häufig solche Szenen sind.
Original geschrieben von tombman und sonst gar nichts. Das legst du fest? Ich habe BQ-Analysen gesehen, die sich auf MSAA beziehen und wo das alte GF-4x (OG) für genauso gut wie das Radeon-4x (RG sparsed) gehalten wurde – weil nur ein Bildausschnitt unter die Lupe genommen wurde. Um zu wissen, wo genau eine BQ-Maßnahme was bringt, und wo nicht, sollte man schon wissen, wie sie funktioniert.

Zum Beispiel sehe ich immer wieder, wie die AF-Geschwindigkeit zum größten Teil der Radeon-AF-Methode zugeschustert wird, und weniger der hohen Radeon-Rohleistung. Ohne die Technik zu hinterfragen, zieht man schnell falsche Schlüsse.
Original geschrieben von tombman
technische erklärungen als beweis für bq sind unzulässig und irreführend.Warum ist es "unzulässig und irreführend", die geringe Filterpräzision von ATI zu kritisieren? Weil du in deinen Tests bislang keine echten Nachteile gesehen hast, und womöglich auch nie sehen wirst?
Original geschrieben von tombman
3.) jemandem schlechte augen oder unwissenheit anzudichten, weil dieser behauptet keine filterunterschiede zu sehen ist eine frechheit.
die meisten haben lang genug pcs und wissen genug um zu wissen was shimmering, banding usw ist und wie man es erkennt. dazu ist kein technisches wissen nötig. Offenbar gehörst du trotz allem zu denen, die recht unempfindlich gegen "Optimierungs"-Artefakte sind. Vielleicht steht dein Empfinden auch für den größten Teil der Userschaft. Daraus folgt nicht, dass Radeon wirklich gleichwertige Qualität bietet – um z. B. sehr gute Lautsprecher von guten Lautsprechern zu unterscheiden, sollte man einerseits die richtige Musik hören, und andererseits Hörerfahrung haben.
Original geschrieben von tombman
4.) selbst wenn die filterung bei nv besser wäre (was sie nicht ist),Doch, das ist sie. Wirklich.
Original geschrieben von tombman
ist doch das aa bei ati eindeutig besser. damit würden sich diese punkte bzgl bq aufheben.MSAA und AF sind zwei unterschiedliche BQ-Maßnahmen. Bessere Kanten helfen genauso wenig über schlechtere Texturen hinweg, wie die besseren Texturen die treppigeren Kanten glatter erscheinen lassen würden.

Ob man sich lieber mit besseren Kanten oder besseren Texturen tröstet, ist dann nur noch Geschmackssache.

Ich bin z. B. Antialiasing-Fetischist. Lieber würde ich einen geringeren AF-Grad nehmen, als treppigere Kanten zu haben. (Ist eben eine Frage des Geschmacks.) Andererseits akzeptiere ich keinerlei Schimmern oder gar Flimmern auf Texturen. Unscharfe Texturen sind unschön, klar – aber sowohl Kanten- als Textur-Aliasing erfahre ich als Bildfehler. Das sieht jeder anders, viele leben gerne mit Kanten, sobald sie nur den maximalen AF-Grad einstellen können.

Das MSAA bei der X800 ist eindeutig besser als bei der GF 6800. Es gibt Leute die sagen: Ja, aber der 4x-Modus auf der GF reicht mir. Genau so kannst du sagen: "Ja, die Texturfilterung auf der X800 ist mir gut genug".
Original geschrieben von tombman
5.) das wichtigste: es wird hier massiv versucht von nvidianern das mehr an fps, was die x800xt pe gegenüber der 6800ultra bringt, durch die angeblich schlechtere bildqualität zu erklären -> Laßt euch nicht täuschen, ati hat gleich gute Bildqualität, wenn es um x800 vs 6800 serie geht ! "Das wichtigste: Es wird hier massiv versucht von ATI-Fans, die Texturfilternachteile wegzudiskutieren." Was sagst du nun?

Sind deiner Meinung nach alle, die die bessere Texturqualität auf der 6800 gut finden, Nvidianer? Könnte es nicht sein, dass die 6800 tatsächlich bessere Texturfilterung hat, wobei du die Unterschiede eben nicht siehst?

tombman
2004-07-08, 02:20:02
Original geschrieben von aths
cut wegen offtopic

ne, ahts, SO nicht.

Ich werd sicher nicht den thread mit weiterem offtopic bla zumüllen.

Wennst über meine Einschätzung reden willst, mach einen eigenen thread auf, der nur mich zum Thema hat.

Hier nicht mehr.

aths
2004-07-08, 02:21:12
Original geschrieben von tombman
Man kann auch zuviel sehen, nämlich Unterschiede die nicht da sind. Der, der angeblich mehr sieht ist nicht objektiver zu beurteilen, als derjenige der weniger sieht.Richtig.
Original geschrieben von tombman
Was machst du wenn einer daherkommt und sagt er sieht ATI mit bessere BQ als Nvidia? Hat der dann Recht, weil er noch mehr sieht als du?Dann zeige ich, dass Radeon geringere Filter-Präzision hat als die GF und frage nach einer Erklärung, wie das in besserer BQ münden soll. Und ob er die Screenshots der Radeon in diesem (http://www.3dcenter.org/artikel/2003/11-21_b.php) Artikel wirklich besser findet als die GeForce-Screenshots.
Original geschrieben von tombman
Da du ja keine screenshots lieferst oder Videos steht Aussage gegen Aussage.Den Artikel verlinke ich nicht zum ersten mal :eyes: In Spielen ist der Unterschied geringer. Du würdest vermutlich keinen Unterschied sehen. Zumal Screenshots ungeeignet sind. Die Problematik was Videos angeht habe ich mehrfach ausgeführt.
Original geschrieben von tombman
btw, mit der 9600er fällst du sowieso unter Punkt 1.Das ist ein Punkt, wo du dich der Logik verschließt. Ich habe direkt von ATI die Information, dass die 9600 nicht schlechter filtert als die X800. Wenn du das nicht glaubst, frage bei ATI selbst nach. Mit der 9600 kann ich also Vergleiche machen ohne Gefahr zu laufen, die X800 zu schlecht zu bewerten.

Ansonsten begründe bitte, warum die Glaubwürdigkeit von ATI bzw. mir in diesem Falle nicht gegeben sei, oder führe einen anderes triftiges Argument an, dass man nur mit der X800 die AF-Filterqualität bewerten darf, welcher stärker ist als mein Argument dass man wegen ATIs Aussage auch mit der 9600 vergleichen kann.
Original geschrieben von tombman
Aber das wichtigste hat demirug eh schon gesagt: da es keine Referenz gibt was die richtige BQ ist, ist sowieso alles subjektiv.Woanders tust du noch so, als sei deine Beurteilung die einzig richtige. Was denn nun?
Original geschrieben von tombman
p.s: bleib bitte on topic!! Danke gleichfalls.

tombman
2004-07-08, 02:27:54
Also ich finde, daß nvidia den Takt erhöhen muß als oberstes Ziel, da die technische und feature Seite gut abgedeckt ist.
Ein 6xAA Modus mit gamma-Korrektur würde auf jeden Fall auch was bringen.

Ati braucht natürlich sm 3.0 und Schalter zum deaktivieren sämtlicher Optimierungen, damit man nicht mehr in die registry gehen muß.

Und ich persönlich würde mir eine dual gpu Lösung von beiden wünschen ;)

p.s.: @ ahts, DU bekommst wegen deiner Sonderstellung ja keine Strafpunkte für offtopic, ICH schon.... deshalb: red mit dir selber ...

Xmas
2004-07-08, 02:45:04
Soso, tombman, deine Postings sind natürlich on-topic, aber wenn aths darauf antwortet wirds off-topic? Ich empfehle dir dringend, mal von deinem hohen Ross runterzukommen und mal deine eigenen Postings mit etwas Abstand zu lesen...

Und das du aths vorwirfst, zu phantasieren, ist schon ein starkes Stück. Insbesondere, wenn du gleichzeitig ein anderes Posting eines Gastes der Moderation meldest, das einen ähnlichen Vorwurf an dich enthält.

tombman
2004-07-08, 02:54:20
Original geschrieben von Xmas
Soso, tombman, deine Postings sind natürlich on-topic, aber wenn aths darauf antwortet wirds off-topic? Ich empfehle dir dringend, mal von deinem hohen Ross runterzukommen und mal deine eigenen Postings mit etwas Abstand zu lesen...

Und das du aths vorwirfst, zu phantasieren, obwohl es nachweislich und messbar Unterschiede gibt, ist schon ein starkes Stück.

war das gerade ontopic? wenn nicht -> alles weitere per pn.

Xmas
2004-07-08, 02:56:18
Nein, das war moderierend. Allerdings mit vergessener Mod-Farbe.

tombman
2004-07-08, 02:59:48
Original geschrieben von Xmas
Nein, das war moderierend. Allerdings mit vergessener Mod-Farbe.

Hab gar nicht gewußt, daß man beim moderieren auch offtopic sein kann...

Naja, ich darf dir ja nicht antworten drauf, weil ich darf ja nicht offtopic gehen.

Stell mir bitte keine offtopic Fragen mehr (mit einem "?"), weil ich dir ja nicht antworten darf.

Oder soll ich annehmen, daß du für ahts weitersprichst, damit er nicht in den OT Bereich kommt?
Wäre aber echt unfair, findest nicht? :nono:

Xmas
2004-07-08, 03:14:35
Original geschrieben von tombman
Hab gar nicht gewußt, daß man beim moderieren auch offtopic sein kann...
Ich habe gar nicht gewußt dass man beim moderieren auch on-topic sein kann. Moderieren hat nämlich thematisch so ziemlich gar nichts mit Grafikchips zu tun.

Naja, ich darf dir ja nicht antworten drauf, weil ich darf ja nicht offtopic gehen.
Dass Diskussionen sich verbreitern, aufspalten, in andere Richtungen bewegen u.Ä. ist ganz normal und wird auch in gewissen Grenzen toleriert. Off-topic ist hauptsächlich, wenn unbegründet Themensprünge eingebracht werden, die mit der bestehenden Diskussion nichts zu tun haben. Folglich, nein, es ist dir nicht verboten darauf zu antworten.

Stell mir bitte keine offtopic Fragen mehr (mit einem "?"), weil ich dir ja nicht antworten darf.

Oder soll ich annehmen, daß du für ahts weitersprichst, damit er nicht in den OT Bereich kommt?
Wäre aber echt unfair, findest nicht? :nono:
Weder kann noch will ich für aths sprechen. Sondern nur für mich oder im Sinne der Moderation.

tombman
2004-07-08, 03:15:38
Original geschrieben von Xmas


Weder kann noch will ich für aths sprechen.

Warum tust dus dann?

obwohl es nachweislich und messbar Unterschiede gibt,

Das ist eine Stellungnahme INNERHALB einer Moderation- unzulässig imo.

Xmas
2004-07-08, 03:28:53
Original geschrieben von tombman
Warum tust dus dann?
Ich spreche für mich selbst.

Das ist eine Stellungnahme INNERHALB einer Moderation- unzulässig imo.
Stimmt, das gehört dort nicht hin.

Aber hierher. Und das du aths vorwirfst, zu phantasieren, obwohl es nachweislich und messbar Unterschiede gibt, ist schon ein starkes Stück.

tombman
2004-07-08, 03:31:57
Original geschrieben von Xmas
Ich spreche für mich selbst.


Stimmt, das gehört dort nicht hin.

Aber hierher. Und das du aths vorwirfst, zu phantasieren, obwohl es nachweislich und messbar Unterschiede gibt, ist schon ein starkes Stück.

nachgewiesen ist für mich noch gar nix.

Xmas
2004-07-08, 03:58:25
X800Pro (http://www.firingsquad.com/media/hirez.asp?file=/hardware/geforce_6800_performance_and_overclocking/images/01.jpg)
6800 (http://www.firingsquad.com/media/hirez.asp?file=/hardware/geforce_6800_performance_and_overclocking/images/02.jpg)

http://www.firingsquad.com/media/article_image.asp?fs_article_id=1497&pic_id=01

Jetzt mal die fehlenden Bäume ganz außen vor gelassen, das ist schon ein sichtbarer Unterschied, findest du nicht?

Als interessanten Vergleichspunkt hatte ich ja auch schon mal das Dach des Klosters bei Gothic 2 vorgeschlagen. Davon kann ich nur zur Zeit keine Screenshots machen. Falls du das Spiel aber hast, wäre das mal ein Ansatz.

tombman
2004-07-08, 04:15:50
Original geschrieben von Xmas
X800Pro (http://www.firingsquad.com/media/hirez.asp?file=/hardware/geforce_6800_performance_and_overclocking/images/01.jpg)
6800 (http://www.firingsquad.com/media/hirez.asp?file=/hardware/geforce_6800_performance_and_overclocking/images/02.jpg)

http://www.firingsquad.com/media/article_image.asp?fs_article_id=1497&pic_id=01

Jetzt mal die fehlenden Bäume ganz außen vor gelassen, das ist schon ein sichtbarer Unterschied, findest du nicht?

Als interessanten Vergleichspunkt hatte ich ja auch schon mal das Dach des Klosters bei Gothic 2 vorgeschlagen. Davon kann ich nur zur Zeit keine Screenshots machen. Falls du das Spiel aber hast, wäre das mal ein Ansatz.

firingsquad? Nicht dein Ernst, oder?

Xmas
2004-07-08, 04:49:14
Original geschrieben von tombman
firingsquad? Nicht dein Ernst, oder?
Werden die Bilder dadurch falsch? Dann kannst du ja sicher das Gegenteil beweisen.

Abgesehen davon, auf diesem Niveau zu diskutieren bringt gar nichts. Wenn du verschiedenen Quellen von vornherein die jegliche Glaubwürdigkeit absprichst (so wie du das schon mit deinem "Punkt 1" getan hast), brauchst du dich nicht zu wundern wenn dir dasselbe passiert.

tombman
2004-07-08, 05:20:29
Original geschrieben von Xmas
Werden die Bilder dadurch falsch? Dann kannst du ja sicher das Gegenteil beweisen.

Abgesehen davon, auf diesem Niveau zu diskutieren bringt gar nichts. Wenn du verschiedenen Quellen von vornherein die jegliche Glaubwürdigkeit absprichst (so wie du das schon mit deinem "Punkt 1" getan hast), brauchst du dich nicht zu wundern wenn dir dasselbe passiert.

bei den firingsquad lomac Bildern war ganz klar des game Schuld. Die Unterschiede sind dort 10 mal krasser als alles was mir hier ahts und co einreden wollen...

Aber wenn dir die Meinung von review sites generell wichtig ist, dann such ich mal die Meinungen über BQ aller bekannten raus und poste dann das Verhältnis :D

Außerdem: du willst von einem game-test auf einer site einen Schluß ziehen? Hallo?

p.s: hier hast schon mal eine Gegenmeinung von xbit-labs:

The brief analysis proves that there are no substantial image quality differences between ATI RADEON X800 XT and NVIDIA GeForce 6800 Ultra graphics chips
http://www.xbitlabs.com/articles/video/display/farcry30_4.html

tombman
2004-07-08, 05:40:48
und wenn du das gelesen hättest würdest meine screenshots kennen, sehen absolut gleich aus, nur eben mit mehr fps bei ATI ;)

http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=150722&perpage=50&highlight=wundertreiber&pagenumber=6

Geist
2004-07-08, 09:52:22
tombman, könntest du dich wenigstens ein bisschen zurückhalten, ich glaube wir wissen langsam alle das du der beste, tollste, größte usw. bist, aber ich würde ganz gerne auch noch lesen was die anderen armen nichtwissenden zum Thema schreiben und nicht nur Seitenweise deine allumfassende Wahrheit!

Radeonator
2004-07-08, 10:29:04
Ach ja, um deiner Paranoia vorzugreifen, ich bin deinem Maßstab nach derzeit ein DC Fanboy, also ziehen deine üblichen :zzz: totschlag Argumente bei mir nicht, sry.

Habe beide Karten kurz testen können, AF muss bei ATi nachgebessert werden, bei nV sind die Optimierungenwenigstens abstellbar.

FSAA ist fast gleichwertig, leichte Vorteile ATi IMO

Ergo ist AF und OGL Speed bei ATi nachzubessern, sowie PS und FSAA bei nVidia. Jedoch lang nicht mehr so weiter Abstand wie "früher".

Viel Geld für Highend sollte eigentlich bedeuten = Viel IQ + viel Leistung. Derzeit wird zweiteres durch Minderung vom ersterem erreicht...traurig aber wahr :(

aths
2004-07-08, 13:34:28
Original geschrieben von tombman
p.s.: @ ahts, DU bekommst wegen deiner Sonderstellung ja keine Strafpunkte für offtopic, ICH schon.... deshalb: red mit dir selber ... Selbst ich kann Strafpunkte kriegen, Sonderstellung hin- oder her. Meine Postings sind höchstens zum kleinen Teil offtopic. Offtopic ist bei uns solange erlaubt, wie es topic ist (also solange es noch etwas mit dem Topic zu tun hat, sowie kein Spam und kein Flame ist.) Wenn du im 3dc-üblichen (= mindestens 3dc-regelkonformen) Tonfall darauf antwortest, bin ich sicher, dass du keine Punkte dafür kriegst.

Wir sind hier ja letztlich bei der Frage, was verbessert werden muss – zunächst müsste geklärt werden, ob überhaupt was verbessert werden muss, bzw. ob Radeon X800 nun GF 6800-Texturqualität erreicht, oder nicht.

Auch erzielten wir bislang keine Einigung, ob man die Radeon-Textur-Qualität auch mit der X800 testen darf. Imo ist das alles ontopic.

Xmas
2004-07-08, 13:38:14
Original geschrieben von tombman
bei den firingsquad lomac Bildern war ganz klar des game Schuld. Die Unterschiede sind dort 10 mal krasser als alles was mir hier ahts und co einreden wollen...

Aber wenn dir die Meinung von review sites generell wichtig ist, dann such ich mal die Meinungen über BQ aller bekannten raus und poste dann das Verhältnis :D

Außerdem: du willst von einem game-test auf einer site einen Schluß ziehen? Hallo?
Wer sagt denn dass ich einen Schluss ziehen will? Du hast deine Meinung über Bildqualität, und die will ich dir auch nicht absprechen. Meine ist eben anders.

Was ich aber nicht akzeptiere ist deine Behauptung, es gäbe keine Unterschiede, obwohl diese eben nachweislich vorhanden sind.

Crushinator
2004-07-08, 13:45:57
*Postings, die nicht hierher gehören, dahin (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&goto=lastpost&threadid=153377) verschoben, wo sie besser aufgehoben sind*

Gast
2004-07-08, 13:59:56
Original geschrieben von tombman
100% falsch.

6800u ist deutlich lauter als x800. (2d db= 3d db)

X800XT (Sapphire Ati Referenz Lüfter) 3,6 sone
6800u (MSI Nv Referenz Lüfter) 3,2 sone

Quelle ; aktuelle PC Games Hardware

Mist gelle, das dieses Argument nicht mehr zieht.

ironMonkey
2004-07-08, 14:06:33
Es gab doch mal die Idee das man bei ATI SSAA einbauen soll, wo sich ziemlich viele geholfen hatten, auch wenn es ihnen egal war, ich hatte auch die Mail abgeschickt obwohl ich es nicht brauchen würde, aber wenn andere es wollen und man ihnen damit helfen könnte......


Das gleiche Aktion könnte man eigentlich ja auch machen in dem man ATI darum bittet full Tri AF frei zu schalten, halt damit man es im Treiber auswählen kann, oder die ein extra Tool auf die schnell basteln damit man es über diese einstellen kann.


Gruß

Edit, das mit dem SSAA, war natürlich nicht einbauen, sondern für Windows user frei zu schalten.

LovesuckZ
2004-07-08, 14:08:39
Original geschrieben von ironMonkey
Es gab doch mal die Idee das man bei ATI SSAA einbauen soll,[...]

SSAA kostet gegenueber MSAA Speed -> abgelehnt.
Bestmoegliches AF kostet gegenueber optimiertem Leistung -> abgelehnt.
Man kann die Optimierungen per regedit ausstellen, eventuell hat es Exxtreme in sein rTool schon eingebaut.

Tjell
2004-07-08, 14:13:47
Meiner Meinung nach wichtigster Vorschlag, was bei ATI und NVidia zu verbessern wäre:
die Ehrlichkeit gegenüber Käufern und Reviewern.


---------------


Original geschrieben von tombman
100% falsch.

6800u ist deutlich lauter als x800. (2d db= 3d db)

Komisch, bei mir machen die Grafikchips garkeine Geräusche, die Lüfter auf den Karten dagegen schon. :D

Wenn Du die (Referenz-)Karten meinst, dann solltest Du schon einen entsprechend fairen Vergleich ziehen: 6800 U <--> X800 XT PE.

Original geschrieben von Gast
X800XT (Sapphire Ati Referenz Lüfter) 3,6 sone
6800u (MSI Nv Referenz Lüfter) 3,2 sone

Quelle ; aktuelle PC Games Hardware

Mist gelle, das dieses Argument nicht mehr zieht.
Immer langsam, junger Padawan. Ich denke, mit besserer Lüftersteuerung, eigenen Kühlkonstruktionen und entsprechender Treiberunterstützung ist bei allen Karten, ob mit ATI- oder NVidia-Chip, noch ein bischen mehr Ruhe im Betrieb der Lüfter zu erwarten.

aths
2004-07-08, 14:14:00
Original geschrieben von ironMonkey
Das gleiche Aktion könnte man eigentlich ja auch machen in dem man ATI darum bittet full Tri AF frei zu schalten, halt damit man es im Treiber auswählen kann, oder die ein extra Tool auf die schnell basteln damit man es über diese einstellen kann. Darauf habe ich ATI natürlich angesprochen (und das nicht alleine.) Antwort ist stets, es gäbe keine sichtbaren Nachteile.

ironMonkey
2004-07-08, 14:16:13
Für Mac oder Linux user gibts SSAA von ATI.

Also wenn man jetzt schon per Tool full Tri AF erzwingen kann bei den aktuellen Karten, dann hat sich ja meine Frage schon geklärt.


Gruß

Mr. Lolman
2004-07-08, 14:19:56
Original geschrieben von aths
Darauf habe ich ATI natürlich angesprochen (und das nicht alleine.) Antwort ist stehts, es gäbe keine sichtbaren Nachteile.

Ist die Antwort nicht eher, dass man den User nicht mit unübersichtlichen Option überfordern will ;D

Tjell
2004-07-08, 14:24:49
Original geschrieben von Mr. Lolman
Ist die Antwort nicht eher, dass man den User nicht mit unübersichtlichen Option überfordern will ;D
Ja, dabei ist mittlerweile ein durchschnittlicher Ticket-Automat für den Nahverkehr komplizierter.

Fazit: Wieder nur eine Ausrede.

Mr. Lolman
2004-07-08, 14:27:05
Original geschrieben von LovesuckZ
SSAA kostet gegenueber MSAA Speed -> abgelehnt.
Bestmoegliches AF kostet gegenueber optimiertem Leistung -> abgelehnt.
Man kann die Optimierungen per regedit ausstellen, eventuell hat es Exxtreme in sein rTool schon eingebaut.

So gefällst du mir Lovesuckz :)

Zum SSAA. Die Methodik ist generell sinnlos in Anbetracht der verblasenen Leistung. 3dfx'schens Technik, das ganze Bild öfter zu samplen, war die einzig wirklich sinnvolle, um ein ruhigeres Bild zu gewährleisten.

Falls man es als Spieleentwickler wirklich auf eine ruhiges Bild abzielt, wär der konsequente Verzicht von Alphatesttexturen die eher sinnvollere Variante, als den Usern Super Sampling AA 'aufzuzwingen'

LovesuckZ
2004-07-08, 14:32:18
Mr.Lolman,
was spricht dagegen, den User optional SS anzubieten?
Viele haben danach verlangt und wurden einfach "ignoriert".
Muss ziemlich deprimierend sein, wenn irgendwann die einzige Sichtweise (Speed) sich negativ auswirkt.

Tesseract
2004-07-08, 14:44:12
Original geschrieben von Mr. Lolman
Falls man es als Spieleentwickler wirklich auf eine ruhiges Bild abzielt, wär der konsequente Verzicht von Alphatesttexturen die eher sinnvollere Variante, als den Usern Super Sampling AA 'aufzuzwingen'

es ist aber nicht der spielentwickler der daurauf abzieht, sondern im normalfall der user, dem das geflimmer bei schon vorhandenen spielen, die zum großteil definitiv nichtmehr diesbezüglich verändert werden stört

Mr. Lolman
2004-07-08, 14:55:59
stimmt schon Lovesuckz

Original geschrieben von Tesseract
es ist aber nicht der spielentwickler der daurauf abzieht, sondern im normalfall der user, dem das geflimmer bei schon vorhandenen spielen, die zum großteil definitiv nichtmehr diesbezüglich verändert werden stört

Leider ists/wars nicht der Spieleentwickler.... Nur gibts seitens ATi nur blödes OGSSAA. Das glättet zwar auch das Bild, aber zu welchem Preis?

LovesuckZ
2004-07-08, 14:58:34
Original geschrieben von Mr. Lolman
Leider ists/wars nicht der Spieleentwickler.... Nur gibts seitens ATi nur blödes OGSSAA. Das glättet zwar auch das Bild, aber zu welchem Preis?

Wie stark ist der Bandbreitenverlust mit 4OGSS?

Gast
2004-07-08, 14:59:20
Original geschrieben von aths
Darauf habe ich ATI natürlich angesprochen (und das nicht alleine.) Antwort ist stehts, es gäbe keine sichtbaren Nachteile.


Ich denke es wird hier wieder Zeit fuer einen kritischen Artikel, in dem die sichtbaren Nachteile genau aufgezeigt werden und klar gemacht wird, dass ATi dem User die max. moegliche Qualitaet vorenthaelt.

aths
2004-07-08, 14:59:33
Original geschrieben von Mr. Lolman
Ist die Antwort nicht eher, dass man den User nicht mit unübersichtlichen Option überfordern will ;D Nein. ATI behauptet steif und fest, "Tri-flex" führe nicht zu BQ-Nachteilen.

Tesseract
2004-07-08, 15:01:58
Original geschrieben von Mr. Lolman
Nur gibts seitens ATi nur blödes OGSSAA. Das glättet zwar auch das Bild, aber zu welchem Preis?

den preis kann man bei vielen genügsameren spielen mit den heutigen karten locker bezahlen wenn diese sogar auf einer GF2MX brauchbar laufen

für spiele, die ungefähr die selbe generation sind wie die karte selbst ist SS natürlich zu ineffizient

Gast
2004-07-08, 15:02:18
Original geschrieben von Mr. Lolman
So gefällst du mir Lovesuckz :)

Zum SSAA. Die Methodik ist generell sinnlos in Anbetracht der verblasenen Leistung. 3dfx'schens Technik, das ganze Bild öfter zu samplen, war die einzig wirklich sinnvolle, um ein ruhigeres Bild zu gewährleisten.



???
Zum SSAA.
3dfx'sche Technik ist ebenso generell sinnlos in Anbetracht der verblasenen Leistung.

Tesseract
2004-07-08, 15:04:05
wie wärs wenn man zusätzlich zum AA einfach ordentlich filtert um das bild ruhig zu bekommen?

ach, ich vergaß, das ist ja gerade out ;)

aths
2004-07-08, 15:06:46
Original geschrieben von Gast
Ich denke es wird hier wieder Zeit fuer einen kritischen Artikel, in dem die sichtbaren Nachteile genau aufgezeigt werden und klar gemacht wird, dass ATi dem User die max. moegliche Qualitaet vorenthaelt. Zeit wäre es schon lange. Leider habe ich ebensolche zurzeit nicht. Zwar plane ich was, was auch in diese Richtung geht, aber von der Planung bis zur Umsetzung – das dauert.

aths
2004-07-08, 15:10:10
Original geschrieben von Gast
???
Zum SSAA.
3dfx'sche Technik ist ebenso generell sinnlos in Anbetracht der verblasenen Leistung. Um Kanten (egal ob Polygon- oder Alphatestkanten) zu glätten lieferte die T-Buffer-Technik einen ausgewogenen Trade-Off von Leistungsverlust für die gewonnene Qualität.

Mr. Lolman
2004-07-08, 15:10:14
Original geschrieben von Gast
???
Zum SSAA.
3dfx'sche Technik ist ebenso generell sinnlos in Anbetracht der verblasenen Leistung.


Bei 3dfxschens 2xAA gingen 'nur' 50% der Leistung flöten.
Bei 2x2OGSSA, was insgesamt den wohl ähnlicheren Glättungseffekt bringt als 1.5x1.5 oder 2x1 (vgl mit 3dfx AA)
brauchts 75%...

Xmas
2004-07-08, 15:15:28
Original geschrieben von Mr. Lolman
Bei 3dfxschens 2xAA gingen 'nur' 50% der Leistung flöten.
Bei 2x2OGSSA, was insgesamt den wohl ähnlicheren Glättungseffekt bringt als 1.5x1.5 oder 2x1 (vgl mit 3dfx AA)
brauchts 75%...
Da wir hier glaube ich eher von gemischten Modi reden (MS+SS, es macht IMO bei Karten die MS beherrschen keinen Sinn dies nicht zu nutzen), ist der Effekt auf Texturen vielleicht etwas wichtiger, und hier hat 2x2 OGSS sogar gegenüber 4xRGSS leichte Vorteile. Bei Kanten ist die EER wichtig, bei Texturen die gleichmäßige Verteilung der Samples, und da ist OGSS das Optimum.

Natürlich ist Supersampling kostspielig, nur wenn eine X800XT theoretisch viermal so schnell wie eine R9600 ist...

Gast
2004-07-08, 15:18:18
Original geschrieben von aths
Um Kanten (egal ob Polygon- oder Alphatestkanten) zu glätten lieferte die T-Buffer-Technik einen ausgewogenen Trade-Off von Leistungsverlust für die gewonnene Qualität.

Das hat aber weniger mit dem T-Buffer zu tun als vielmehr mit der RG-Abtastung.

Mr. Lolman
2004-07-08, 15:34:45
Original geschrieben von Xmas
Natürlich ist Supersampling kostspielig, nur wenn eine X800XT theoretisch viermal so schnell wie eine R9600 ist...


Stimmt schon, nur sieht ATi (nicht ich) den Kosten/Nutzen Faktor als nicht lohnend.


Wenns nach mir ginge, gäbe es schon längst:

x) Komplett frei wählbares AF, (Tribandbreite, Texturstages, LOD)
x) MS/SSAA mit Wahlmöglichkeit der Subpixelpositionierung
x) _optionales_ performanceabhängiges AA/AF
x) erweiterte Smartshaderfunktion - über einen Onthefly Edit Modus sollte man im Spiel direkt eine Oberfläche wählen können und aus, entweder vorgefertigten Shadern oder mittels Tool simpel selbst erstellten einen ausählen und der bestimmten Oberfläche zuordnen können.
x) zuschaltbarer 2xSai Modus für Spiele mit schlechtaufgelösten Texturen
x) optionaler 2xSai Modus für generelle 2D Darstellung
x) uvm...

Gast
2004-07-08, 15:35:21
Original geschrieben von Tjell
Meiner Meinung nach wichtigster Vorschlag, was bei ATI und NVidia zu verbessern wäre:
die Ehrlichkeit gegenüber Käufern und Reviewern.


---------------



Komisch, bei mir machen die Grafikchips garkeine Geräusche, die Lüfter auf den Karten dagegen schon. :D

Wenn Du die (Referenz-)Karten meinst, dann solltest Du schon einen entsprechend fairen Vergleich ziehen: 6800 U <--> X800 XT PE.


Immer langsam, junger Padawan. Ich denke, mit besserer Lüftersteuerung, eigenen Kühlkonstruktionen und entsprechender Treiberunterstützung ist bei allen Karten, ob mit ATI- oder NVidia-Chip, noch ein bischen mehr Ruhe im Betrieb der Lüfter zu erwarten.

Im Moment gib es aber nur Karten mit dem Refernz Design. Was möglich wäre, ist ja schön und gut, aber der aktuelle Stand der Dinge ist nunmal so. Und der Stand ist numal,das die XT lauter als die Ultra ist.

tombman
2004-07-08, 15:44:12
Original geschrieben von Gast
Ich denke es wird hier wieder Zeit fuer einen kritischen Artikel, in dem die sichtbaren Nachteile genau aufgezeigt werden und klar gemacht wird, dass ATi dem User die max. moegliche Qualitaet vorenthaelt.

wurde ja bis jetzt noch nicht geschafft zu zeigen, des versuchens jetzt eh schon ewig ;)

vorallem werdens höchstens ein paar ganz spezielle szenen in speziellen games zeigen können, mehr nicht.

auf jeden fall wird es nicht repräsentativ für die durchschnittliche bildqualität in allen games sein.

wie das aussieht habe ich selbst ja schon gezeigt mit bildern...nämlich absolut gleich bei nv40 und r420, auch bei hochfrequentem texturinhalt.

Tjell
2004-07-08, 15:44:26
Original geschrieben von Gast
Im Moment gib es aber nur Karten mit dem Refernz Design...
Falsch. Da hier die PCGH 8/2004 bemüht wurde gibt es von mir daraus entsprechende Gegenbeispiele:

Asus V9999 Ultra Deluxe - 1-Slot-Kühler
Asus AX 800 XT - eigene Kühlerkonstruktion
Leadtek Winfast A400 GT - eigene Kühlerkonstruktion
Leadtek Winfast A400 TDH - eigene Kühlerkonstruktion

Daß bei den X800ern ein so eklatanter Lautstärkenunterschied derzeit besteht, ist vermutlich auf eine viel zu hohe, aber sicherlich nicht benötigte Lüfterdrehzal zurückzuführen.

Es besteht also weiterhin bei ATI- und NVidia-Karten Optimierungsbedarf, denn 3,0 Sone aufwärts sind nicht gerade als leise zu bezeichnen.



[Nachsatz]
*Ich werde solche Bemerkungen flamevorbeugend unterdrücken, Amen.*
Schon gut, schon gut. :stareup:

Gast
2004-07-08, 16:11:34
Original geschrieben von Mr. Lolman
Stimmt schon, nur sieht ATi (nicht ich) den Kosten/Nutzen Faktor als nicht lohnend.




Welche Kosten meinst du?

Und denkst du nicht, dass ATis Bevormundung mittlerweile etwas zu weit geht?

Gast
2004-07-08, 16:13:44
Original geschrieben von tombman
wurde ja bis jetzt noch nicht geschafft zu zeigen, des versuchens jetzt eh schon ewig ;)

vorallem werdens höchstens ein paar ganz spezielle szenen in speziellen games zeigen können, mehr nicht.

auf jeden fall wird es nicht repräsentativ für die durchschnittliche bildqualität in allen games sein.

wie das aussieht habe ich selbst ja schon gezeigt mit bildern...nämlich absolut gleich bei nv40 und r420, auch bei hochfrequentem texturinhalt.

Es geht nicht primaer darum, wieviel es bringt. Sondern darum, dem User die Entscheidung zu ueberlassen, wieviel Qualitaet er denn einsetzen moechte. Und sei es noch so wenig an Mehrqualitaet. Bei >100 fps nimmt man die doch sicher gerne mit.

ironMonkey
2004-07-08, 16:16:45
Original geschrieben von aths
Zeit wäre es schon lange. Leider habe ich ebensolche zurzeit nicht. Zwar plane ich was, was auch in diese Richtung geht, aber von der Planung bis zur Umsetzung – das dauert.

Bedenke bitte hierbei den Artikel so zu gestalten als ob es unbedingt nötig ist dies frei zu schalten, auch wenn man etwas übertreiben müsste dafür, anderst kommst du sonst nicht weit, sieht man ja am besten bei NV und ATI.



Gruß

ironMonkey
2004-07-08, 16:31:10
Original geschrieben von Gast
Welche Kosten meinst du?

Und denkst du nicht, dass ATis Bevormundung mittlerweile etwas zu weit geht?


Das hat rein garnix mit Kundenwünsche zu tun, ich hab mir erst den Artikel bei T-online durchgelesen, hier wird erst garnix von BQ oder sonstigem geschrieben, sondern nur einfach eingeschaltet und 16xAF gegen 16xAF und der klare Sieger ist ATI, wenn ATI jetzt full tri AF filtern würde, hätten sie wohl nicht gewonnen und wenn dann nur sehr knapp und grad sowas wird ja oft gelesen und aus Angst das ein Tester halt Full Tri AF einstellen könnte wird das raus gelassen, deshalb auch mein Gedanke dazu das halt ATI ein Tool rausbringen könnte, weil das die was am treiber ändern glaube ich auch kaum, da muss man schon über die hälfte der User überzeugen und da der Anteil an usern die Tri AF wollen sehr klein ist, ist das halt verdammt schwer, da muss man schon wie ATi und NV denken und die aktuellen Filter von ATI als Weltuntergang darstellen sonst gibt das nix.

Die X800XT PE ist das Aushängeschild von ATI, ist die gut, sind alle gut, ich denke auch das das wegen dem SSAA nix wurde weil einfach viiiieeeel zu wenig mitgemacht haben.



Ich weiß das jetzt wieder viele denken das ist aber nicht meine Meinung, aber wer es besser haben will muss erstmal die breite Masse davon überzeugen das es besser ist, mir selbst genügt schon ein Tool wo ich full Tri af einstellen kann.

Am besten kann man halt ATI alt aussehen lassen wennman das Performence AF gegen das Full tri einer GF4 in Bildern zeigt.


Gruß

Gast
2004-07-08, 16:50:49
Original geschrieben von Tjell
Falsch. Da hier die PCGH 8/2004 bemüht wurde gibt es von mir daraus entsprechende Gegenbeispiele:

Asus V9999 Ultra Deluxe - 1-Slot-Kühler
Asus AX 800 XT - eigene Kühlerkonstruktion
Leadtek Winfast A400 GT - eigene Kühlerkonstruktion
Leadtek Winfast A400 TDH - eigene Kühlerkonstruktion

Daß bei den X800ern ein so eklatanter Lautstärkenunterschied derzeit besteht, ist vermutlich auf eine viel zu hoher, aber sicherlich nicht benötigte Lüfterdrehzal zurückzuführen.

Es besteht also weiterhin bei ATI- und NVidia-Karten Optimierungsbedarf, denn 3,0 Sone aufwärts sind nicht gerade als leise zu bezeichnen.


Tja,und alle von dir genannten Modelle sind enbenfalls (gerade die Asus Ultra,sowie die Asus XT) über 3 sone, trotz Eigenkonstruktion....nur die Asus Pro ist besonders leise eingestuft worden.

Tjell
2004-07-08, 17:01:20
Original geschrieben von Gast
...
Und der Stand ist numal,das die XT lauter als die Ultra ist.
Du scheinst auf das hier hinaus zu wollen, oder? Da habe ich Dir doch garnicht widersprochen.

Du schriebst zu späterem Zeitpunkt, daß es derzeit nur Karten nach Referenz-Design gibt, und das ist... FALSCH. Mehr wollte ich garnicht sagen.

By the way: Was für eine Asus Pro?
Sonst scheinen wird doch gleicher Meinung zu sein?!

Gast
2004-07-08, 19:57:22
Asus X800pro ist laut PCGH als besonders leise eingestuft worden. Sicher wird es irgendwann auch mal leise Versionen geben, doch dann währe es ja im Moment weder für den einen noch anderen Hersteller ein Kritikpunkt.
Die Ati Vertreter führen aber immer die Lautstärke der Ultra ins Feld...nun stellt sich herraus, das die Xt sogar lauter ist.Mehr meinte ich damit auch nicht.
Im übrigen hat das Fazit des PCGH Testes der GT einen Leistungsvorsprung vor der Pro eingeräumt. Bisher heißt es ja auch immer, das die Pro wesentlich schneller sei. Mich nervt immer, wie Tatsachen verdreht werden, um den bevorzugten Hersteller ins bessere Licht zu rücken. Was zählt sind Tatschen, nicht ob Ati oder Nvidia draufsteht. Im übrigen steht im Test, das die Ultra nicht mehr Strom als die 5950 zieht, was damals auch niemand moniert hat.

Benedikt
2004-07-11, 09:12:48
Hi,

kann mir mal jemand abseits von irgendwelchen Balkenlängen oder subjektiven Empfindungen erklären, woran sich der schlechte Ruf der OpenGL-Implementation von ATI festmachen lässt? Woran liegt's - zuwenig unterstützte Extensions, schlechte Qualität, Darstellungsfehler?

Fakt oder Fiktion? Auch noch bei den neuesten Treibern?

MFG,
B. W.

Grestorn
2004-07-11, 10:06:52
Original geschrieben von Benedikt
Hi,

kann mir mal jemand abseits von irgendwelchen Balkenlängen oder subjektiven Empfindungen erklären, woran sich der schlechte Ruf der OpenGL-Implementation von ATI festmachen lässt? Woran liegt's - zuwenig unterstützte Extensions, schlechte Qualität, Darstellungsfehler?

Fakt oder Fiktion? Auch noch bei den neuesten Treibern?

MFG,
B. W.
Das Hauptproblem ist die Instabilität der OpenGL Treiber. Unter 4.6 z.B. (4.7 noch nicht probiert), stürzt KotoR manchmal mit Grafikmüll ab, und zwar nur bei Levelwechsel und nach dem Laden eines Spielstandes. Je höher die Auflösung und das AA, desto häufiger scheint das Problem aufzutreten. Ich bin nachweibar nicht der einzige mit diesem Problem.

Auch andere Spiele, die ich selbst nicht spiele, scheinen immer wieder Probleme zu bereiten, CoD wird dabei immer wieder genannt.

tokugawa
2004-07-11, 13:36:46
Original geschrieben von Benedikt
Hi,

kann mir mal jemand abseits von irgendwelchen Balkenlängen oder subjektiven Empfindungen erklären, woran sich der schlechte Ruf der OpenGL-Implementation von ATI festmachen lässt? Woran liegt's - zuwenig unterstützte Extensions, schlechte Qualität, Darstellungsfehler?

Fakt oder Fiktion? Auch noch bei den neuesten Treibern?

MFG,
B. W.

Was grestorn geschrieben hat, stimmt, ich habe noch einige eigene Erfahrungen hinzuzufügen. In einigen älteren Catalyst-Versionen sind selbst einfachste Sachen manchmal abgestürzt (etwa das korrekte Clean-Up von Render-Contexts bei Beenden eines Programms, wenn man in einem Programm mehrere Render-Contexts mit jeweils eigenem Display-List-Space hatte).

Das ist zum Glück alles gefixt, und die Qualität der ATI-OpenGL-Implementation ist noch immer besser als die von S3 und XGI, aber es kommen halt immer wieder solche Dinge vor.

Es scheint außerdem so als ob sich einer der beiden - NVIDIA oder ATI (oder sogar beide) - nicht an die Default-Werte bei den Statevariablen hält.

Die OpenGL-Implementation für die NV40 dagegen kann man als wirklich gelungen bezeichnen - keine Ahnung ob das schon für die Performance gilt - aber in anderen Bereichen wie den von dir angesprochenen unterstützten Extensions ist die NV40 wirklich sehr sehr nett :)

Benedikt
2004-07-11, 22:22:35
Original geschrieben von grestorn
Das Hauptproblem ist die Instabilität der OpenGL Treiber. Unter 4.6 z.B. (4.7 noch nicht probiert), stürzt KotoR manchmal mit Grafikmüll ab, und zwar nur bei Levelwechsel und nach dem Laden eines Spielstandes. Je höher die Auflösung und das AA, desto häufiger scheint das Problem aufzutreten. Ich bin nachweibar nicht der einzige mit diesem Problem.

Auch andere Spiele, die ich selbst nicht spiele, scheinen immer wieder Probleme zu bereiten, CoD wird dabei immer wieder genannt.

Hi!

Ist das Problem mit KOTOR nicht eher anderer Natur, ich meine man hört ja des öfteren, dass es nur mit "nVidia in mind" programmiert sei!?

MFG,
B. W.

edit: vielleicht sind das ja auch nur Gerüchte... :)

Winter[Raven]
2004-07-11, 23:02:23
Ist das Problem mit KOTOR nicht eher anderer Natur, ich meine man hört ja des öfteren, dass es nur mit "nVidia in mind" programmiert sei!?


Es macht keinen Sinn, ein Spiel nur für eine Hardware zuentwerfen! Wenn es um OpenGL, so sollte man meiner Meinung nach die Fehler bei ATI suchen und nicht bei Bioware!

StefanV
2004-07-11, 23:10:53
Original geschrieben von Winter[Raven]
Es macht keinen Sinn, ein Spiel nur für eine Hardware zuentwerfen! Wenn es um OpenGL, so sollte man meiner Meinung nach die Fehler bei ATI suchen und nicht bei Bioware!

Naja, nicht unbedingt...

Das BIOWARE ATI (HW) nicht besonders mag, haben sie ja mit NWN bewiesen, besonders, das sie sich solang Zeit genommen haben, das das Wasser auch auf ATI HW läuft :eyes:

Skusi
2004-07-11, 23:24:54
Was hat denn das mit "mögen" zu tun ?
Ist wohl eher eine Frage des Geldes.