PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Haben diese ganzen Optimierungsskandale eure Kaufabsichten beeinflusst?


Brillus
2004-05-29, 16:30:30
Also da ich mir gedacht ,dass die Frage in einem von den großen Threads übersehen wird, habe ich hier mal einen neuen Thread geöffent.

@Mods Poll wäre sehr nett.

[ ]Nein, meine Entscheidung steht fest
[ ]Nein, wollte mir sowieso keine neue Graka kaufen.
[ ]Ja, auf unbestimmte Zeit
[ ]Ja, jetzt warte ich erst mal wie es mit den andern kleinen Herstellern ausieht ob die was bringen.
[ ]Ja, jetzt warte ich darauf ob die nächste Gerneration in dieser Hinsicht besser wird

PS; bei mir ts es Nr.3:
[x]Ja, jetzt warte ich erst mal wie es mit den andern kleinen Herstellern ausieht ob die was bringen.

JimBobb
2004-05-29, 16:33:06
Absolut meine Entscheidung steht fest! Geforce 6800 Ultra

Dunkeltier
2004-05-29, 16:48:48
Ja, haben sie. Würde ich meinen PC bis Montag nicht verkauft kriegen, stände eine Geforce 6800 Ultra ins Haus. Aber nur, wenn diese mehr als 2xtri-aF bietet...

Winter[Raven]
2004-05-29, 16:54:51
[x]Nein, meine Entscheidung steht fest.

Die GF6800 Ultra, da man die Optimierungen abstellen kann und ich mit Fulltri zocken kann!

Radeonator
2004-05-29, 17:13:03
[x]Nein, meine Entscheidung steht fest.

Weder noch, werde mir erstmal ne DC holen, zum "rumspielen". Wenn dann in ein paar Monaten die Sonne weniger scheint und die Graka preise gesunken sind, eine GF6800GT :) , weil ATi mir zu wenig neues zum Testen bietet.

Exxtreme
2004-05-29, 17:20:12
Poll.

Piffan
2004-05-29, 17:20:19
Öh, könntet ihr bitte Topic bleiben?

Also meine Absichten haben sich geändert. Ursprünglich wollte ich mir wieder was gönnen.
Aber nun sehe ich die Sache wie folgt: In der Praxis reicht mir eigentlich die 9800 XT noch dicke, wenn ich bei manchen Spielen Maß halte mit Af. FSAA ist eigentlich kein Problem, wenigsten 2xFSAA geht immer.

Nun ist das Dumme, dass hohe AF- Level nicht wirklich Sinn machen, wenn man veräppelt wird.

Aus diesem Grund habe ich alle Überlegungen gecancelt und kaufe gar keine Neue.

Sollte sich einer der Hersteller dazu herablassen und echtes AF anbieten ohne jede Winkelabhängigkeit und andere Mauschelei bzw. dem Spieler es selbst überlassen, ob er "optimiert" oder in voller Qualität spielen will, dann wäre ich sofort wieder dabei......

Axel
2004-05-29, 17:29:19
[x]Ja, jetzt warte ich erst mal wie es mit den andern kleinen Herstellern ausieht ob die was bringen.

Die neuen HighEnd-Karten bieten keine wirkliche Verbesserung gegenüber meiner 9500pro. Also warte ich ab ob sich nicht was bessres findet.

LovesuckZ
2004-05-29, 17:31:40
[x]Ja, auf unbestimmte Zeit

Ich warte erstmal den ersten offiziellen treiber bei nvidia ab und entscheide dann, ob ich mir eine neue GF Karte kaufen werde. Sollten sie wirklich die Idee auffassen, ATi bezueglich der Kundenverarsche zu konkurieren, dann wird es wohl ein Deltachrome.

Brillus
2004-05-29, 17:34:08
@Exxtreme Danke für den Poll

Mr. Lolman
2004-05-29, 17:37:48
Solang ich meine Spiele mit 1024x768 und min. 2xAA* spielen kann, kommt mir keine neue Karte ins Haus.

Es sei denn, es bietet sich wieder eine so Gelegenheit wie vor 1,5 Jahren, als ich meine BBA Radeon 9700pro aus den USA um 360€ bekam (abzüglich 150€ für meine 8500, also eigentlich um 210€ = der Preis, der in Ö immernoch für eine 9800pro verlangt wird :D)+

Dann ists mir aber wurscht welche in den Rechner käme. Wahrscheinlich aber ATi weil: "Framerate is life" :D




*(momentan ist bei allen Spielen sogar noch 4xAA drinnen, auch wenns bei Farcry schon knapp wird, weswegen ich dort zusätzlich auch nur 4xbi AF aktiviert hab)

MechWOLLIer
2004-05-29, 18:25:26
[x]Ja, auf unbestimmte Zeit

Ja, die Optimierungen die Aufgeflogen sind haben mich in der Entscheidung beeinflusst. NAch den Reviews des R420 stand für mich glas klar fest, dass ich mir eine X800XT kaufen werde. Speedmäßig dem NV40 oft überlegen, super AA. Das sie etwas Rückständig ist und nicht ganz so tolles AF bietet wie der NV40 störten mich nicht.
Aber nach den Optimierungsartikel bin ich im Mom gar nicht mehr sicher, ob X800XT oder Geforce 6800Ultra. Ich habe nämlich keine Lust auf schlechteres AF als bei meiner RAdeon 9700Pro. Und brilinear habe ich mal bei meinem Kumpel in Aktion erlebt, die Bugwelle ist mir direkt aufgefallen.
Man, man, wenn ich nur wüsste ob NV das deaktivieren in zukünftigen Treibern weiter anbietet(und zwar ohne Gelabere um Bug.....) und vielleicht noch etwas den Speed verbessern könnten..

Gast
2004-05-29, 18:46:03
Original geschrieben von Winter[Raven]
[x]Nein, meine Entscheidung steht fest.

Die GF6800 Ultra, da man die Optimierungen abstellen kann und ich mit Fulltri zocken kann!

Totaler Unsinn.

Ontopic
Bin eigentlich auch auf die 6800 scharf gewesen, werde aber auf die Refreshchips warten und hoffen, auch wenn wahrscheinlich vergebens.

Quasar
2004-05-29, 18:54:55
[x]Nein, wollte mir sowieso keine neue Graka kaufen.

(bis auf die Möglichkeit, daß der DC mich noch positivt zu überraschen vermag, was seine Filterqualität angeht)

Godmode
2004-05-29, 19:22:43
[x]Ja, auf unbestimmte Zeit

Warte noch auf finale Nvidia Treiber, wenn man dort dann alles auschalten kann (Winkelabhängiges AF, BRI,...) werde ich mir ne 6800GT holen. Mir ist das ziemlich egal, wieviel diese Karte mit dem zuschalten von AF verliert hauptsache die Qualität stimmt. IQ ist alles für mich!

Wenn es aber mit zukünftigen Treibern nicht besser wird, werde ich mir wohl keine neue Karte kaufen! Werde dann mal versuchen die GF4 mit Stickstoff zu kühlen ;D good old GF4TI

dildo4u
2004-05-29, 21:05:14
Nach dem schreck 6800U mit riesen kühler 2 stromanschlüssen sah es doch sehr nach X800pro aus aber nach den Ganzen optemierungs stress kam die 6800GT genau richtig meine karte alle vorteile der 6800U aber wegen nur einem stromanschluss und kleinem 1Slot kühler nicht mit dehren nachteilen der 6800U behaftet

hab nix passendes zum auswählen mir ist in 1 linie die Hardwarebasis wichtig treiber kann man noch ändern an der hardware bis auf die kühlung nix mher

Lightning
2004-05-29, 22:15:09
Nein, aktuell haben sie bei mir keine Kaufabsichten verändert, da meine Radeon 9800 Pro sowieso noch einige Zeit reichen muss. Aber wenn ich urspünglich vorgehabt hätte, mir eine next-gen Karte zu holen, hätte sich das womöglich schon geändert.. ich finde das Ganze ist einfach eine riesen Sauerei, und verdirbt durchaus den Spaß an Grafikkarten.

aths
2004-05-29, 22:57:24
Original geschrieben von MechWOLLIer
Man, man, wenn ich nur wüsste ob NV das deaktivieren in zukünftigen Treibern weiter anbietet(und zwar ohne Gelabere um Bug.....) und vielleicht noch etwas den Speed verbessern könnten.. Es gibt Leute, die wissen, ob ja oder nein; doch diese Leute werden schön das Maul halten ;( da kann man nix mach0rn.

aths
2004-05-29, 22:58:01
Original geschrieben von Winter[Raven]
[x]Nein, meine Entscheidung steht fest.

Die GF6800 Ultra, da man die Optimierungen abstellen kann und ich mit Fulltri zocken kann! Die AF-"Optimierung" in dieser Form von der ATI-mäßigen Winkelabhängigkeit kann man meines Wissens nicht abstellen.

Winter[Raven]
2004-05-29, 23:06:26
Original geschrieben von aths
Die AF-"Optimierung" in dieser Form von der ATI-mäßigen Winkelabhängigkeit kann man meines Wissens nicht abstellen.

Ich bezog mich ehe auf den Bi-Bri Müll :)

Das der Nv40 auch ohne Winkelabhänigkeit filtern kann, bin ich mir mehr als sicher, die Frage ist nur wie man dieses Abstellen kann.

Ist unlogisch seitens NV soetwas in HW zu implementieren.

betasilie
2004-05-29, 23:12:07
Der poll ist blöd, weil er nicht alle Möglichkeiten abdeckt.

Meine Entscheidung steht z.B. noch nicht, das hat aber nur sekundär mit den Optimierungen zu tun.

aths
2004-05-29, 23:12:50
Original geschrieben von Winter[Raven]
Ich bezog mich ehe auf den Bi-Bri Müll :)

Das der Nv40 auch ohne Winkelabhänigkeit filtern kann, bin ich mir mehr als sicher, die Frage ist nur wie man dieses Abstellen kann.

Ist unlogisch seitens NV soetwas in HW zu implementieren. Das Interview hast du doch gelesen? Dort steht: "The GeForce 6800 hardware has a simplified hardware LOD calculation for anisotropic filtering, compared to the GeForce FX. This calculation is still fully compliant with the Microsoft DirectX specification and WHQL requirements, as well as matching the requirements for OpenGL conformance. This optimization saves both cost and performance, and makes the chip run faster for anisotropic filtering as well as be less expensive for consumers. Consequently, it may not be possible to re-enable the GeForce FX calculation in this hardware generation."

Exxtreme
2004-05-29, 23:12:51
Original geschrieben von Winter[Raven]
Das der Nv40 auch ohne Winkelabhänigkeit filtern kann, bin ich mir mehr als sicher, die Frage ist nur wie man dieses Abstellen kann.

Ist unlogisch seitens NV soetwas in HW zu implementieren.
Ich wäre mir da nicht so sicher, daß man die Winkelabhängigkeit jemals auf dem NV40 wegkriegt. Auch wenn es theoretisch möglich wäre, ich glaube nicht, daß NV so eine Funktion einbaut wenn sie dabei Benchmarks verlieren.

MikBach
2004-05-29, 23:14:01
Original geschrieben von Winter[Raven]
Ich bezog mich ehe auf den Bi-Bri Müll :)

Das der Nv40 auch ohne Winkelabhänigkeit filtern kann, bin ich mir mehr als sicher, die Frage ist nur wie man dieses Abstellen kann.

Ist unlogisch seitens NV soetwas in HW zu implementieren.

Luciano Alibrandi: "Die GeForce 6800 hat verglichen mit der GeForce FX eine vereinfachte Hardware, um die LOD-Berechnungen für anisotrope Filterung auszuführen. Die Berechnung entspricht aber noch immer voll der Microsoft DirectX Spezifikation und WHQL-Bestimmungen, ebenfalls werden die Anforderungen von OpenGL erfüllt. Diese Optimierung spart Kosten und steigert die Performance, der Chip läuft mit anisotroper Filterung also schneller und ist für den Endkunden preiswerter. Daher könnte es sein, dass es unmöglich ist, den GeForce FX-Algorithmus in dieser Hardwaregeneration freizuschalten. Wir schauen uns das noch an.

Auf eines möchte ich aber hinweisen: Als unsere anisotrope Qualität DEUTLICH besser als beim Konkurrenzprodukt war, gab es keinen Reviewer in der Internet-Community, der uns für die Filterqualität gelobt hat – es gab nur Beschwerden bezüglich der Performance. Für die Zukunft planen wir, eine große Auswahlmöglichkeit von maximaler Qualität (so perfekt, wie wir es hinkriegen können) bis hin zur höchstoptimierten Leistung. Wenn man auch die LOD-Winkelabhängigkeit mit Testprogrammen zeigen kann, lassen sich in echten Spielen interessanterweise nur extrem schwierig Situationen finden, wo man Unterschiede sieht. Ich halte das für eine gute Optimierung, die dem Endkunden nützt."

Und jetzt?

aths
2004-05-29, 23:14:14
Original geschrieben von Exxtreme
Ich wäre mir da nicht so sicher, daß man die Winkelabhängigkeit jemals auf dem NV40 wegkriegt. Auch wenn es theoretisch möglich wäre, ich glaube nicht, daß NV so eine Funktion einbaut wenn sie dabei Benchmarks verlieren. Nah. Es reichte, wenn der Treiber das solange versteckt bis die meisten Benches gemacht sind, dann könnte man das auch mal freischalten – wenn die HW das kann.

aths
2004-05-29, 23:15:33
Original geschrieben von dildo4u
Nach dem schreck 6800U mit riesen kühler 2 stromanschlüssenDie PCI-E-Version wird mit einem Stromanschluss auskommen.

Winter[Raven]
2004-05-29, 23:19:24
Original geschrieben von aths
Das Interview hast du doch gelesen? Dort steht: "The GeForce 6800 hardware has a simplified hardware LOD calculation for anisotropic filtering, compared to the GeForce FX. This calculation is still fully compliant with the Microsoft DirectX specification and WHQL requirements, as well as matching the requirements for OpenGL conformance. This optimization saves both cost and performance, and makes the chip run faster for anisotropic filtering as well as be less expensive for consumers. Consequently, it may not be possible to re-enable the GeForce FX calculation in this hardware generation."

:O

Das hab ich wohl übersehn, dat ist ja der Hammer.

Dann müsse man wohl auf den NV45 oder gar NV50 warten bis man wieder Full AF serviert bekommt :(

dildo4u
2004-05-29, 23:20:46
Original geschrieben von aths
Die PCI-E-Version wird mit einem Stromanschluss auskommen. Da mein nästes Board eins von AMD sein wird kann ich mit der PCI E version nix anfangen amd stellt erst mit den Sockel 900 erst 2005 auf PCI E um

aths
2004-05-29, 23:32:14
Original geschrieben von dildo4u
Da mein nästes Board eins von AMD sein wird kann ich mit der PCI E version nix anfangen amd stellt erst mit den Sockel 900 erst 2005 auf PCI E um Dann kauf halt eine normale GeForce 6800 :)

dildo4u
2004-05-29, 23:33:56
Original geschrieben von dildo4u
Nach dem schreck 6800U mit riesen kühler 2 stromanschlüssen sah es doch sehr nach X800pro aus aber nach den Ganzen optemierungs stress kam die 6800GT genau richtig meine karte alle vorteile der 6800U aber wegen nur einem stromanschluss und kleinem 1Slot kühler nicht mit dehren nachteilen der 6800U behaftet

Exxtreme
2004-05-30, 02:16:45
Original geschrieben von aths
Nah. Es reichte, wenn der Treiber das solange versteckt bis die meisten Benches gemacht sind, dann könnte man das auch mal freischalten – wenn die HW das kann.
Ich weiss nicht...

Irgendwie habe ich das Gefühl als ob der NV40 auch ohne Winkelabhängigkeit filtern kann. Herr Alibrandi machte nämlich IMHO nicht den Eindruck als ob er wüsste was der NV40 kann und was er nicht kann. ;( Und eine Hintertür hat er sich auch offen gelassen. ;) Er sagte nämlich nicht, daß es völlig unmöglich sei den alten Algorhythmus wieder zu aktivieren.

flatbrain
2004-05-30, 07:38:13
[Ja, jetzt warte ich darauf ob die nächste Gerneration in dieser Hinsicht besser wird]wäre wohl meine Antwort gewesen... eigentlich hatte ich mit dem Gedanken gespielt, mir entweder eine XT800XT oder GF 6800 Ultra zu holen, nach den ganzen Optimierungen etc. wird meine 9800Pro wohl weiterhin ihre Dienste verrichten, für Preise um 500€ bin ich nicht gewillt, so viele Beschränkungen in der BQ hinzunehmen - egal von welchem Hersteller!

cu flatbrain

xL|Sonic
2004-05-30, 09:17:56
[X]Nein, meine Entscheidung steht fest
Da ich letztens erst meine Radeon 9800 XT verkauft habe und es meine alte GF2GTS nicht mehr wirklich tut bei neuen Spielen, werde ich mir nachwievor eine Ati Radeon x800 XT PE holen.
Die Optimierungen beeinflussen mich eher weniger, da es sich schon seit jeher sowohl bei ATI als auch bei nvidia gibt. Wer weiss, was in Zukunft noch alles aufgedeckt wird, aber solange es beim Spielen kaum ersichtlich ist, ist mir das auch relativ egal. Mir sind da 60fps bei Far Cry lieber als nur 30, zumal zukünftige Spiele wohl ähnlich performancefressend sein werden.
Ich spiele lieber mit max. Details im Spiel und einer hohen Framerate, als mit minimierten Details, dafür aber mit fsaa und af. Weiterhin soll meine zukünftige Grafikkarte sehr leise sein und deshalb kommt da nur die Radeon in Frage.

Mordred
2004-05-30, 09:50:22
[x]Ja, auf unbestimmte Zeit

Was soviel heisst wioe: Bis mal endlich wieder jemand ne schnelle KArte mit FullTRI und mit Lehrbuch AF rausbringt.

Solange bleibt die 4600 im Rechner

reunion
2004-05-30, 09:50:30
[x] Ja, auf unbestimmte Zeit

Zuerst sah mich der R420 mit der besseren Performace und weniger Stromverbrauch, nur einen Stromanschluss usw. als die bessere Karte an, da konnte man auf SM3.0 auch verzichten, doch jetzt wo ich die ganzen Cheats im ATI-Treiber gesehen habe wird meine nächste Karte definitiv eine 6800GT...

Gast
2004-05-30, 09:57:37
Original geschrieben von aths
Das Interview hast du doch gelesen? Dort steht: "The GeForce 6800 hardware has a simplified hardware LOD calculation for anisotropic filtering, compared to the GeForce FX. This calculation is still fully compliant with the Microsoft DirectX specification and WHQL requirements, as well as matching the requirements for OpenGL conformance. This optimization saves both cost and performance, and makes the chip run faster for anisotropic filtering as well as be less expensive for consumers. Consequently, it may not be possible to re-enable the GeForce FX calculation in this hardware generation."

Warum werde ich das Gefühl nich los das einige bei Kritik über NV immer nv-Presse als Gegenargument nehmen und bei umgekehrter Lage "Kritik gegen ATI" noch einen drauflegen!

Gast
2004-05-30, 09:58:52
Original geschrieben von reunion
[x] Ja, auf unbestimmte Zeit

Zuerst sah mich der R420 mit der besseren Performace und weniger Stromverbrauch, nur einen Stromanschluss usw. als die bessere Karte an, da konnte man auf SM3.0 auch verzichten, doch jetzt wo ich die ganzen Cheats im ATI-Treiber gesehen habe wird meine nächste Karte definitiv eine 6800GT...

Gesehen hast du nichts, gehört hast du hier davon!
Könnte ich mal bitte eine Liste der angeblichen cheats bitte sehen!!!!

reunion
2004-05-30, 10:05:26
Original geschrieben von Gast
Gesehen hast du nichts, gehört hast du hier davon!
Könnte ich mal bitte eine Liste der angeblichen cheats bitte sehen!!!!

Du weisst ganz genau um was es geht, der R420 ist offensichtlich nur deshalb schneller weil es Standardmäßig nur eine bri filter liefert, wenn man dann noch AF einschaltet bekommt man fast nurnoch bi. Und ich habe keine Lust diesen "trend" zu unterstützen. Ob ich das jetzt sieht oder nicht ist dabei zweitrangig...

Außerdem hat der NV40 keine entscheidenden nachteil, der leicht höhere Stromverbrauch ist mir egal, die GT hat angeblich nur eine Stromanschluss und eine 1-Slot Kühlung, und zusätzlich bekommt man noch SM3.0 für Techdemos =)

Gast
2004-05-30, 10:59:56
Ich lache mich wirklich über die 3D-Gurus und andere User schlapp, die wirklich daran glauben, daß ein Produkt nach dem Verkauf noch zusätzlich Merkmale aufweisen wird. Und das noch in der Computerbranche :D

ShadowXX
2004-05-30, 11:08:01
Original geschrieben von reunion
Du weisst ganz genau um was es geht, der R420 ist offensichtlich nur deshalb schneller weil es Standardmäßig nur eine bri filter liefert, wenn man dann noch AF einschaltet bekommt man fast nurnoch bi. Und ich habe keine Lust diesen "trend" zu unterstützen. Ob ich das jetzt sieht oder nicht ist dabei zweitrangig...


Full Ack!!

Mir ist es auch egal, ob ich es nun in jedem Game bemerke, dass ich nun FullTri oder gutes AF habe...dieser Trend muss einfach gestoppt werden, sonst sind wir irgendwann wieder bei purem Bi-Filtering und haben gar kein AF mehr, da es dann ja mehr FPS liefert (und damit auch längere Balken).

Ich frage mich sowieso weshalb sich welche 500Euro GraKas kaufen, wenn Sie auf BQ überhaupt keinen Wert legen....
Dann kann man auch eine MidRange Karte nehmen und mit Bi-Filtering und ohne AF gamen...

HOT
2004-05-30, 11:26:55
Original geschrieben von Winter[Raven]
:O

Das hab ich wohl übersehn, dat ist ja der Hammer.

Dann müsse man wohl auf den NV45 oder gar NV50 warten bis man wieder Full AF serviert bekommt :(

NV45 wohl eher net ;)

Killa Tomacco
2004-05-30, 11:50:24
Ja und es seht fest das in meinen Rechner weder eine ATI noch eine NIVIDA kommt. Ich werde mir um meine Kyro 2 zu ersetzen eine DeltaChrome oder eine Serie 5 holen welche genau steht aber noch nicht fest.

ironMonkey
2004-05-30, 11:50:50
Also Toll ists nicht, aber die nächsten Karten werden hoffentlich wieder besser, da nehme ich gerne ein halbesw jahr Wartezeit mehr in kauf und auch nen größeren Leistungsverlust.


Was ich jetzt nicht verstehe ist das manche die ne 9800pro( besser gesagt aktuelle ATI Hardware) haben sich keine X800 kaufen weil diese zu schlecht Filtert..............


Wenn man das alles so sieht dann merkt an sich jeder das der PC Markt viel zu schnell voran geht und zuviel auf der Strecke bleibt, high end Grafikkarten sind toll solange auch die BQ high end ist.



Gruß

xL|Sonic
2004-05-30, 11:55:03
Original geschrieben von ShadowXX
Full Ack!!

Mir ist es auch egal, ob ich es nun in jedem Game bemerke, dass ich nun FullTri oder gutes AF habe...dieser Trend muss einfach gestoppt werden, sonst sind wir irgendwann wieder bei purem Bi-Filtering und haben gar kein AF mehr, da es dann ja mehr FPS liefert (und damit auch längere Balken).

Ich frage mich sowieso weshalb sich welche 500Euro GraKas kaufen, wenn Sie auf BQ überhaupt keinen Wert legen....
Dann kann man auch eine MidRange Karte nehmen und mit Bi-Filtering und ohne AF gamen...

Warum ? Guck dir Spiele wie Far Cry an oder Doom 3 bzw. andere zukünftige Spiele, die immer höhere Anforderungen stellen. Jemand der nur ältere Games zocken will, der sollte sich eh aus dieser Diskussion raushalten.
Und jetzt sich eine Nvidia Karte zu holen, nur weil ATI cheatet, ist doch das dümmste Argument, das es gibt. Einerseits verurteilt man ATI und dann unterstützt man diese Optimierungen in dem man sich nen nv40 holt. Die Logik mancher Leute verstehe ich echt nicht.

LovesuckZ
2004-05-30, 12:00:28
Original geschrieben von Valmar
Und jetzt sich eine Nvidia Karte zu holen, nur weil ATI cheatet, ist doch das dümmste Argument, das es gibt. Einerseits verurteilt man ATI und dann unterstützt man diese Optimierungen in dem man sich nen nv40 holt. Die Logik mancher Leute verstehe ich echt nicht.

Wieso unterstuetze man "diese Optimierungen[,] in dem man sich nen nv40 holt"?
ATi hat es doch klar übertrieben, dagegen ist Nvidia beim NV40 fast schon einen Fortschritt bezueglich der Texturfilterung gelungen...
Das einige immer noch zu ATi halten und ihnen damit die vollste Unterstuetzung geben, dass sie weiter "Optimieren" dürfen, verstehe ich nicht. Das kann man ebenfalls auch auf Nvidia ziehen, wenn sie beim ersten offiziellen Treiber keinen "trilinear" Button (:bonk: ) anbieten!

reunion
2004-05-30, 12:00:39
Original geschrieben von ironMonkey
Was ich jetzt nicht verstehe ist das manche die ne 9800pro( besser gesagt aktuelle ATI Hardware) haben sich keine X800 kaufen weil diese zu schlecht Filtert..............


Die R3x0 serie hat diese optimierung nicht...

xL|Sonic
2004-05-30, 12:04:18
Original geschrieben von LovesuckZ
Wieso unterstuetze man "diese Optimierungen[,] in dem man sich nen nv40 holt"?
ATi hat es doch klar übertrieben, dagegen ist Nvidia beim NV40 fast schon einen Fortschritt bezueglich der Texturfilterung gelungen...
Das einige immer noch zu ATi halten und ihnen damit die vollste Unterstuetzung geben, dass sie weiter "Optimieren" dürfen, verstehe ich nicht. Das kann man ebenfalls auch auf Nvidia ziehen, wenn sie beim ersten offiziellen Treiber keinen "trilinear" Button (:bonk:) anbieten!


Soso und du heisst also den z.B. Brilinearen Filter gut ?
Oder das winkelabhängige AF ? Normalerweise müsste man doch genau aus diesen Gründen diese Grafikkartengen überspringen, wenn man generell gegen Optimierungen ist, die zu sichtbaren Qualitätsverlusten führen. Wenn man aber trotzdem sich entweder eine x800 oder nv40 holt, dann ist man einfach total Inkonsequent und verliert meienr Meinung nach auch die Ansprüche Kritik daran zu üben. Wer gegen optimierungen ist, muss auch mal seine Fanboybrille absetzen und generell NEIN sagen.

flatbrain
2004-05-30, 12:07:15
Original geschrieben von Valmar
Soso und du heisst also den Brilinearen Filter gut ?
Oder das winkelabhängige AF ? Normalerweise müsste man doch genau aus diesen Gründen diese Grafikkartengen überspringen, wenn man generell gegen Optimierungen ist, die zu sichtbaren Qualitätsverlusten führen. Wenn man aber trotzdem sich entweder eine x800 oder nv40 holt, dann ist man einfach total Inkonsequent und verliert meienr Meinung nach auch die Ansprüche Kritik daran zu üben. Wer gegen optimierungen ist, muss auch mal seine Fanboybrille absetzen und generell NEIN sagen.

Mein Reden, daher lass ich diese Generation aus, entweder ATi/nV schaffen es, mal wieder auf BQ als auf längere Schw** - sorry, Balken zu setzen oder man kann wirklich nur auf ein Wunder von der weiteren Konkurrenz hoffen *g* !

cu flatbrain

ironMonkey
2004-05-30, 12:07:53
Original geschrieben von Valmar
Soso und du heisst also den Brilinearen Filter gut ?
Oder das winkelabhängige AF ? Normalerweise müsste man doch genau aus diesen Gründen diese Grafikkartengen überspringen, wenn man generell gegen Optimierungen ist, die zu sichtbaren Qualitätsverlusten führen. Wenn man aber trotzdem sich entweder eine x800 oder nv40 holt, dann ist man einfach total Inkonsequent und verliert meienr Meinung nach auch die Ansprüche Kritik daran zu üben. Wer gegen optimierungen ist, muss auch mal seine Fanboybrille absetzen und generell NEIN sagen.


Es gibt ja aber auch genug Leute die auf Kanteglättung viel Wert legen und da sind die kommenden Karten absolut Top was Leistung und Ergebnis angeht.



Gruß

LovesuckZ
2004-05-30, 12:12:04
Original geschrieben von Valmar
Soso und du heisst also den z.B. Brilinearen Filter gut?

Solange wie ich "trilinear" anwaehlen ( :rofl: ) kann, ja!

Oder das winkelabhängige AF?

Siehe oben.

Normalerweise müsste man doch genau aus diesen Gründen diese Grafikkartengen überspringen, wenn man generell gegen Optimierungen ist, die zu sichtbaren Qualitätsverlusten führen. Wenn man aber trotzdem sich entweder eine x800 oder nv40 holt, dann ist man einfach total Inkonsequent und verliert meienr Meinung nach auch die Ansprüche Kritik daran zu üben. Wer gegen optimierungen ist, muss auch mal seine Fanboybrille absetzen und generell NEIN sagen.

Nicht jeder spielt mit AF. Muss er trotzdem diese Generation überspringen?
Ausserdem kann man gegen winkelabhaengiges AF nichts machen und wenn man eine Karte mit einer vernünftigem SM2.0 Leistung haben moechte, kann man nur zum winkelabhaengigen AF greifen. Das ganze laeuft auf das Prinzip des kleinsten Übels hinaus und da hat man zur Zeit einfach mit nvidia (wenn es "trilinear" wirklich weiterhin gibt) die bessere Karte unterhalb der X800XTPE.

flatbrain
2004-05-30, 12:13:27
Original geschrieben von ironMonkey
Es gibt ja aber auch genug Leute die auf Kanteglättung viel Wert legen und da sind die kommenden Karten absolut Top was Leistung und Ergebnis angeht.



Gruß

Naja, da hat m. E. die X800 die Nase mit gammakorrigierten RGAA vorn, gefällt mir persönlich besser, allerdings kann mich der Rest des R420 nicht überzeugen, genauso wenig wie der nV40...!

cu flatbrain

huha
2004-05-30, 12:14:44
Meine Kaufabsichten haben sie schon beeinflußt, ich wollte mir aber sowieso keine kaufen.
Meine 9700 pro reicht eigentlich noch gut aus und wenn die neue Generation sowieso nicht besser ist (und zwar von keinem der beiden großen Hersteller!), dann brauch' ich das nicht.
Ich bin absoluter Highest-Quality-Spieler. Wenn's mal unter 20 Frames kommt, ist es mir egal, ich will nur ein absolut schönes Bild. Und wenn neue Graphikkarten nicht mehr in der Lage sind, mir ein schönes Bild zu liefern, werden sie nicht gekauft.

-huha

ironMonkey
2004-05-30, 12:18:53
Original geschrieben von huha
Meine Kaufabsichten haben sie schon beeinflußt, ich wollte mir aber sowieso keine kaufen.
Meine 9700 pro reicht eigentlich noch gut aus und wenn die neue Generation sowieso nicht besser ist (und zwar von keinem der beiden großen Hersteller!), dann brauch' ich das nicht.
Ich bin absoluter Highest-Quality-Spieler. Wenn's mal unter 20 Frames kommt, ist es mir egal, ich will nur ein absolut schönes Bild. Und wenn neue Graphikkarten nicht mehr in der Lage sind, mir ein schönes Bild zu liefern, werden sie nicht gekauft.

-huha


Trotzdem braucht man dazu erstmal die nötige Leistung um das erstmal möglich zu machen, wenn du auf höchster BQ Zocken willst dann sollte man eine GF 4 ti nehmen, nur ist hier halt das Problem mit der Leistung.


Gruß

xL|Sonic
2004-05-30, 12:42:33
Original geschrieben von LovesuckZ
Solange wie ich "trilinear" anwaehlen ( :rofl: ) kann, ja!



Siehe oben.



Nicht jeder spielt mit AF. Muss er trotzdem diese Generation überspringen?
Ausserdem kann man gegen winkelabhaengiges AF nichts machen und wenn man eine Karte mit einer vernünftigem SM2.0 Leistung haben moechte, kann man nur zum winkelabhaengigen AF greifen. Das ganze laeuft auf das Prinzip des kleinsten Übels hinaus und da hat man zur Zeit einfach mit nvidia (wenn es "trilinear" wirklich weiterhin gibt) die bessere Karte unterhalb der X800XTPE.


Ja, aber jetzt ist die Frage was besser wäre. Die Kapazitäten aufsplitten und in Optimierungen und langsames Trilinear stecken oder wäre es nicht gleich besser komplett den optimierungen den Kampf anzusagen und somit alle Ressourcen in eine schelle Tri Performance zu stecken, wenn du verstehst worauf ich hinaus will. Den Weg den du einschlägst wird dir niemals dazu verhelfen das zu bekommen, was du willst. Entweder oder, nen zwischending ist in disem Fall wohl der falsche Weg.

Gast
2004-05-30, 12:44:28
Original geschrieben von LovesuckZ
Wieso unterstuetze man "diese Optimierungen[,] in dem man sich nen nv40 holt"?
ATi hat es doch klar übertrieben, dagegen ist Nvidia beim NV40 fast schon einen Fortschritt bezueglich der Texturfilterung gelungen...
Das einige immer noch zu ATi halten und ihnen damit die vollste Unterstuetzung geben, dass sie weiter "Optimieren" dürfen, verstehe ich nicht. Das kann man ebenfalls auch auf Nvidia ziehen, wenn sie beim ersten offiziellen Treiber keinen "trilinear" Button (:bonk: ) anbieten!

Echt lol, wie du dich immer als Fanboy auf den Serviertisch legst.

Wenn man Bildqualität und korrekte Umsetzung des anisotropen Filters fordert, muß man vom beiden Herstellern Anstand halten.

BerndJazz
2004-05-30, 14:14:20
LovesuckZ,
kannst du mir bitte erklären wo der "fast Fortschritt" bezüglich der Texturfilterung beim NV40 liegt?

MfG

BerndJazz

HOT
2004-05-30, 15:26:25
Original geschrieben von LovesuckZ
Wieso unterstuetze man "diese Optimierungen[,] in dem man sich nen nv40 holt"?
ATi hat es doch klar übertrieben, dagegen ist Nvidia beim NV40 fast schon einen Fortschritt bezueglich der Texturfilterung gelungen...
Das einige immer noch zu ATi halten und ihnen damit die vollste Unterstuetzung geben, dass sie weiter "Optimieren" dürfen, verstehe ich nicht. Das kann man ebenfalls auch auf Nvidia ziehen, wenn sie beim ersten offiziellen Treiber keinen "trilinear" Button (:bonk: ) anbieten!

Das wollen wir erstmal abwarten. Ich glaube nämlich, dass brilinear für NV40er Pflicht bleiben wird. Leider. Es gibt ja auch keinen Grund für NV das (ausser bei Quattros vielleicht) zu aktivieren.

HOT
2004-05-30, 15:27:52
Original geschrieben von LovesuckZ
Solange wie ich "trilinear" anwaehlen ( :rofl: ) kann, ja!



[...]

kein Kommentar...

Quasar
2004-05-30, 15:57:17
Original geschrieben von HOT
Das wollen wir erstmal abwarten.

Ist doch genau, was LS sagte: Wenn der erste offizielle Treiber (welcher auch immer es sein wird) keinen Tri-Schalter bietet, kann sich nV genau denselben Schuh wie nun erstmal nur ATi anziehen.

MechWOLLIer
2004-05-30, 15:59:55
Original geschrieben von aths
Es gibt Leute, die wissen, ob ja oder nein; doch diese Leute werden schön das Maul halten ;( da kann man nix mach0rn.

und ab wann werden diese Leute sprechen?? Oder dürfen die das auch nicht sagen?

Quasar
2004-05-30, 17:01:42
Original geschrieben von MechWOLLIer
und ab wann werden diese Leute sprechen?? Oder dürfen die das auch nicht sagen?

Wenn es nur um den Tri-Schalter geht, es gibt mindestens noch einen Treiber mit aktuellerem Build, als dem, in dem der "Bug" mit der Nicht-Deaktivierbarkeit auftrat, wo der Schalter wieder tut, was er soll.

MechWOLLIer
2004-05-30, 18:30:58
Original geschrieben von Quasar
Wenn es nur um den Tri-Schalter geht, es gibt mindestens noch einen Treiber mit aktuellerem Build, als dem, in dem der "Bug" mit der Nicht-Deaktivierbarkeit auftrat, wo der Schalter wieder tut, was er soll.

Aha, das ist immerhin eine gute NAchricht. Aber irgendwie klingt dein Post so, als hätte NV beim NV40 noch andere "Bugs" drin die die Qualität verschlechtern:(

kmf
2004-05-30, 19:34:06
Nur um die Frage des Threadstarters zu beantworten, ein klares "JA".

Ich verzichte bei dieser Grafikkartengeneration auf ein Neuprodukt der beiden größten Hersteller.

2004-05-30, 19:50:19
Habe für

"Ja, jetzt warte ich erst mal wie es mit den andern kleinen Herstellern ausieht ob die was bringen."

gestimmt.

Denke wenn S3 oder PVR sich etwas gutes einfallen lassen, könnten sie in diese Marktlücke "Qualität" springen und sich einen fixen Platz erobern. Die Kaufabsichten bzgl. R4XX und NV4X liegen bei mir mal auf Eis. Ist ja heftig wenn meine jetzige - nicht mehr zeitgemäße - GF2 bessere Qualität liefert als eine aktuelle HighEnd Karte.

MfG


P.S.: Warte Mal gespannt ob aus Serie 5 was wird... (hoffen darf man ja noch :) )

Haarmann
2004-05-30, 20:46:04
Beschissen ähm optimiert wird seit eh und je. Wenn einer mal auffliegt, dann wird das nur die Spitze des Eisbergs sein. Wenn ich Glück hab, dann kommt wirklich ein neuer "Kyro" und dort werd ich wieder zuschlagen, da ich mit der Karte echt zufrieden war. Kein Triple oder Doublebuffer - schön Singlebuffern bitte :). Kann halt nur ein TBR ;).

Gast
2004-05-30, 20:56:18
Original geschrieben von M²
Habe für

"Ja, jetzt warte ich erst mal wie es mit den andern kleinen Herstellern ausieht ob die was bringen."

gestimmt.

Denke wenn S3 oder PVR sich etwas gutes einfallen lassen, könnten sie in diese Marktlücke "Qualität" springen und sich einen fixen Platz erobern. Die Kaufabsichten bzgl. R4XX und NV4X liegen bei mir mal auf Eis. Ist ja heftig wenn meine jetzige - nicht mehr zeitgemäße - GF2 bessere Qualität liefert als eine aktuelle HighEnd Karte.

MfG


P.S.: Warte Mal gespannt ob aus Serie 5 was wird... (hoffen darf man ja noch :) )

Na OW, bist du froh was du angerichtet hast??

Deine Jünger glauben nun an den Weihnachtsmann S3 und behaupten eine GF2 biete bessere Qualität als eine heutige Highendkarte!

Ich würde mal sagen völlig Irrwitzig wie die Meinungen hier liegen!

Gottseidank gibt es aber mehr als 50.000 Highendgamer und daa hier ist wie RTL eine eigene kleine Welt geworden!

Schade eigentlich!

Congratulations!

Quasar
2004-05-30, 21:05:53
Original geschrieben von MechWOLLIer
Aber irgendwie klingt dein Post so, als hätte NV beim NV40 noch andere "Bugs" drin die die Qualität verschlechtern:(

Der "Klang" war nicht beabsichtigt, da ich das z.Zt. nicht beurteilen kann.

edit:
@Gast:
:up: Selten so ein durchdachtes und intelligent geschriebenes Posting gelesen. ;D

Piffan
2004-05-30, 21:14:11
Original geschrieben von Quasar
Der "Klang" war nicht beabsichtigt, da ich das z.Zt. nicht beurteilen kann.

edit:
@Gast:
:up: Selten so ein durchdachtes und intelligent geschriebenes Posting gelesen. ;D


Vorsichtig. Bei dem weiß man nie, ob der den Sarkasmus verstehen tut. ;)

aths
2004-05-30, 21:22:57
Original geschrieben von BerndJazz
LovesuckZ,
kannst du mir bitte erklären wo der "fast Fortschritt" bezüglich der Texturfilterung beim NV40 liegt?

MfG

BerndJazz Ich werde diese Frage mal beantworten. Der NV40 kann z. B. die Filterpräzision senken, und könnte trilinear genau so wie ATI mit nur 5 Bit LOD-Fraction filtern. Wer in ATIs HW einen generellen Fortschritt sieht, müsste in den NV40-Filtern auch einen sehen.

Natürlich ist es eher so, dass ATIs Texturfilter noch nie vorbildhaft waren, und man sich daran imo kein Beispiel nehmen sollte. Leider scheint ATIs Marktmacht groß genug, dass NV bezüglich AF nachgezogen hat, und die Qualität (zugunsten einiger % Performance) absenke – und trotzdem noch bessere AF-Texturen liefert, als ATI mit der "High Definition"-X800. Das ist aber noch nicht alles, was der NV40 alles kann um Texturen auf ATI-Niveau zu filtern.

Gast
2004-05-30, 21:28:14
Original geschrieben von aths
Ich werde diese Frage mal beantworten. Der NV40 kann z. B. die Filterpräzision senken, und könnte trilinear genau so wie ATI mit nur 5 Bit LOD-Fraction filtern. Wer in ATIs HW einen generellen Fortschritt sieht, müsste in den NV40-Filtern auch einen sehen.

Natürlich ist es eher so, dass ATIs Texturfilter noch nie vorbildhaft waren, und man sich daran imo kein Beispiel nehmen sollte. Leider scheint ATIs Marktmacht groß genug, dass NV bezüglich AF nachgezogen hat, und die Qualität (zugunsten einiger % Performance) gesenkt. Das ist aber noch nicht alles, was der NV40 alles kann um Texturen auf ATI-Niveau zu filtern.

Ganz genau ATHS, :) :)

1. Belege eine deiner Aussagen mit Benchmarks oder Messungen von seriösen Redakteuren.

2. Was kann der NV40 noch???

kami
2004-05-30, 21:29:00
Original geschrieben von aths
Das ist aber noch nicht alles, was der NV40 alles kann um Texturen auf ATI-Niveau zu filtern.

Was kann er denn bitte noch? Das ist ja ne grauslige Entwicklung. ;(

aths
2004-05-30, 21:38:28
Original geschrieben von Gast
Ganz genau ATHS, :) :)

1. Belege eine deiner Aussagen mit Benchmarks oder Messungen von seriösen Redakteuren.Err ... welche Aussage jetzt?
Original geschrieben von Gast
2. Was kann der NV40 noch??? Wird im großen Sommer-Artikel verraten :)

kami
2004-05-30, 21:44:25
Original geschrieben von aths
Wird im großen Sommer-Artikel verraten :)

Wann genau? ;D

aths
2004-05-30, 21:52:02
Original geschrieben von kami
Wann genau? ;D When it's done.

Das hängt auch von Umständen ab, die außerhalb meines Einflusses liegen.

Gast
2004-05-30, 22:22:30
Original geschrieben von aths
Err ... welche Aussage jetzt?
Wird im großen Sommer-Artikel verraten :)

Das ist ganz klar grüne Werbung! Aber seit der nvision wissen wir eh alle bescheid wie manchen TICKEN! ;)

Gast
2004-05-30, 22:31:44
die ganzen artikel zu optimierten filter algos bleiben den beleg für die relevanz bez der aktuellen spieleerfahrung schuldig....und sind gleichzeitig nicht so geschrieben dass man ihnen rein technisches interesse als motivation abnimmt

Quasar
2004-05-30, 22:39:15
Weiter so, Gast! Zeig's den verdammten nVidiots!!einseinselfelf!

BerndJazz
2004-05-30, 22:56:05
aths,
das ist ja das worüber ich mich wundere. Das AF von ATI wurde ja schon lange kritisiert, besonders von der Nvidiaseite. Jetzt frage ich mich halt wie man das plötzlich als Fortschritt bezeichnen kann wenn der NV40 jetzt einen ähnlichen Weg einschlägt wie ATI mit dem R300.
Sollte in LovesuckZ Beitrag Ironie enthalten gewesen sein ist sie mir leider entgangen.

MfG

BerndJazz

aths
2004-05-30, 22:56:59
Original geschrieben von Gast
Das ist ganz klar grüne Werbung! Aber seit der nvision wissen wir eh alle bescheid wie manchen TICKEN! ;) Grüne Werbung? Von mir? Komisch, wenn ich den letzten Artikel so sehe.

aths
2004-05-30, 23:02:11
Original geschrieben von BerndJazz
aths,
das ist ja das worüber ich mich wundere. Das AF von ATI wurde ja schon lange kritisiert, besonders von der Nvidiaseite. Jetzt frage ich mich halt wie man das plötzlich als Fortschritt bezeichnen kann wenn der NV40 jetzt einen ähnlichen Weg einschlägt wie ATI mit dem R300.
Sollte in LovesuckZ Beitrag Ironie enthalten gewesen sein ist sie mir leider entgangen.

MfG

BerndJazz Lovesucks Logik ist schwer zu verstehen, ja. Das heißt, er wechselt zwischen ernst gemeinter und "Ich tu mal so wie ein ATI-Fan"-formulierten Sätzen, ohne dass man denen das gleich ansieht.

BerndJazz
2004-05-30, 23:06:52
Der Gast hat wohl nicht ganz verstanden auf was es hinausläuft. Wenn du in dem Artikel aufzeigen willst was der NV40 alles kann um Texturen auf ATI-Niveau zu filtern kann das aus deiner Sicht eigentlich keine Werbung für Nvidia sein.

MfG

BerndJazz

aths
2004-05-30, 23:15:55
Original geschrieben von BerndJazz
Der Gast hat wohl nicht ganz verstanden auf was es hinausläuft. Wenn du in dem Artikel aufzeigen willst was der NV40 alles kann um Texturen auf ATI-Niveau zu filtern kann das aus deiner Sicht eigentlich keine Werbung für Nvidia sein.

MfG

BerndJazz Texturen sind dort nur als Nebenthema vorgesehen. Für ATI-Niveau wäre neben dem winkelabhängigem AF noch geringere Genauigkeit beim TF erforderlich, was NV40 bieten kann. Ob auch die BF-Genauigkeit reduziert werden kann (wo ATI statt 8 Bit leider nur 6 bietet) weiß ich noch nicht.

Quasar
2004-05-30, 23:24:45
Das LOD „anzupassen”, sollte ja kein Problem darstellen - auch automatisch nicht.

2004-05-31, 02:55:12
Lieber Gast!

"Na OW, bist du froh was du angerichtet hast??

Deine Jünger glauben nun an den Weihnachtsmann S3 und behaupten eine GF2 biete bessere Qualität als eine heutige Highendkarte!

Ich würde mal sagen völlig Irrwitzig wie die Meinungen hier liegen!

Gottseidank gibt es aber mehr als 50.000 Highendgamer und daa hier ist wie RTL eine eigene kleine Welt geworden!

Schade eigentlich!

Congratulations!"

a) Ich bilde mir meine Meinung selber. Dazu brauche ich niemanden anders. Selbst wenn JC persönlich das Gegenteil behauptet.

b) Wenn du gegen jemanden bist dann ist es gut, behalte es für dich - hat in einer sachlichen Diskussion nichts zu suchen.

c) Ich denke mal aus meinem Posting geht hervor das das MEINE Meinung war.

d) Ich lasse mich gern auf eine sachhaltige Diskussion mit dir ein, nur bitte nenne mir andere Gegenbeweiße als meine persönliche Meinung - darf ich ja noch wohl haben, oder?! - als "Irrwitzig" zu betiteln.

Also wenn du Kritik übst dann nicht an OW oder sonst wem hier, sondern bitte an mich.

Danke!

MfG

LovesuckZ
2004-05-31, 09:39:58
Original geschrieben von BerndJazz
LovesuckZ,
kannst du mir bitte erklären wo der "fast Fortschritt" bezüglich der Texturfilterung beim NV40 liegt?


"trilinear" Button.
Nach einen dreiviertel Jahr Zwangs - "brilinearitaet", bietet Nvidia wieder die Moeglichkeit an "trilinear" auszuwaehlen.
Ansonsten die "..." am Satzende betrachten, dass war nicht ganz so ernst gemeint. :)

BerndJazz
2004-05-31, 09:55:20
Danke, so kann ich es akzeptieren. Hab wohll etwas auf dem Schlauch gestanden.

MfG

BerndJazz

DrumDub
2004-05-31, 11:47:16
[x] Nein, wollte mir sowieso keine neue Graka kaufen.

vor 2005 gibts nichts neues, von daher betrifft mich die sache momentan nicht.

SKYNET
2004-05-31, 12:32:18
[x] Nein, meine Entscheidung steht fest


6800 series !

Corrail
2004-05-31, 14:01:58
[X] Ja, jetzt warte ich erst mal wie es mit den andern kleinen Herstellern ausieht ob die was bringen.

Ich hätte schon gern eine SM3.0 Board da man damit schon nette Sachen aufführen kann (selbst proggen ;D). Und da wird vermutlich kein Weg an der GeForce 6800 herumführen. Werde aber noch schaun, ob PowerVR mit S5 was bringt. Wäre sicher eine nette Alternative!
Zu den Optimierungen (oder "Cheats" wie einige behaupten) kann ich mich nur den Großteil der Community anschließen:
Optimierungen sind ok (wenn nicht sogar wünschenswert) WENN, und NUR WENN sie sich abschalten lassen.

ActionNews
2004-06-01, 12:48:54
[X] Ja, jetzt warte ich erst mal wie es mit den andern kleinen Herstellern ausieht ob die was bringen.

Ich bin gespannt was PowerVR mit der Serie 5 bieten kann. Die TBDR-Technik interessiert mich sowieso, wie es aussieht bekommt der Chip auch PS/VS 3.0 und PowerVR ist bisher nicht durch Treibercheats ... äh entschuldigung ... "Optimierungen" :D aufgefallen. Wenn die Geschwindigkeit einigermassen stimmt greife ich da zu :).

CU ActionNews

Mave@Work
2004-06-01, 13:06:23
[X]Ja, jetzt warte ich erst mal wie es mit den andern kleinen Herstellern ausieht ob die was bringen.

Ich schliesse mich mal meinem Vorredner an. Hoffentlich kommt Serie 5 wirklich.

ow
2004-06-01, 13:18:26
Original geschrieben von ActionNews
[X] Ja, jetzt warte ich erst mal wie es mit den andern kleinen Herstellern ausieht ob die was bringen.

Ich bin gespannt was PowerVR mit der Serie 5 bieten kann. Die TBDR-Technik interessiert mich sowieso, wie es aussieht bekommt der Chip auch PS/VS 3.0 und PowerVR ist bisher nicht durch Treibercheats ... äh entschuldigung ... "Optimierungen" :D aufgefallen. Wenn die Geschwindigkeit einigermassen stimmt greife ich da zu :).

CU ActionNews


Wo man nicht nach Cheats sucht wird man auch keine finden. Ich kann mich auch nicht erinnern, dass zu GF2/Radeon1 Zeiten ATi oder NV aufgefallen waeren.

Man sollte also nicht von vorneherein Cheating durch PVR ausschliessen. Die wollen schliesslich auch nur unser Geld.:)

Kenny1702
2004-06-01, 13:24:29
[x] Ja, auf unbestimmte Zeit

Das heißt, solange meine GF4 Ti mir noch genügt. Da ich aber i.d.R. Spiele etwa 1-2 Jahre nach deren Erscheinung spiele, glaube ich, daß ich noch etwas Zeit habe :)

Bl@de
2004-06-01, 13:58:27
[x]Nein, meine Entscheidung steht fest.

6800GT ... sobald der Preis natürlich etwas fällt ;)

ActionNews
2004-06-01, 14:17:34
Original geschrieben von ow
Wo man nicht nach Cheats sucht wird man auch keine finden. Ich kann mich auch nicht erinnern, dass zu GF2/Radeon1 Zeiten ATi oder NV aufgefallen waeren.

Man sollte also nicht von vorneherein Cheating durch PVR ausschliessen. Die wollen schliesslich auch nur unser Geld.:)

Habe ich auch nicht ausgeschlossen, dass PowerVR "optimiert". Ich sagte nur, dass sie bisher nicht aufgefallen sind. Aber solange ich nix Gegenteiliges höre bin ich erstmal "im Zweifel für den Angeklagten" ;).

CU ActionNews

advman
2004-06-02, 02:53:36
Leute, ich versteh die Welt nicht mehr :ratlos: Da gibt's nach langer Zeit wieder einen gewaltigen Performancesprung und ihr weint ;D

Klar, die AF/Try/Bri-Geschichten sind nicht ganz OK, aber doch wohl hauptsächlich deshalb, weil das hinten rum eingeführt wird. Mal ganz realistisch: was sollen die armen Kerle bei ATI und Nvidia denn machen? Wenn ein neues Spiel nicht so wie Far Cry, Doom 3, HL2 oder Stalker alle Grenzen sprengt, dann lockt das doch keinen Hund mehr hinter dem Ofen hervor. Die Leute wollen mehr Details und höhere Auflösungen, das bitte in mindestens 4xAA/8xAF/FullTri und klarerweise mit geilen Shadern :D

Nu, dann verdoppelt mal die Details in einem dreidimensionalen Raum! Irgendwas muss dann plötzlich acht mal mehr arbeiten, sagt mir meine Milchmädchenrechnung. Das wird sich auch bei der ohnehin sensationellen Verdopplung in einem Generationssprung nicht ganz ausgehen, oder ???

Versteht mich nicht falsch: die Dinge aufzudecken, wachsam zu sein, sich zu empören, alles OK, aber man muss das Kind nicht unbedingt mit dem Bade ausschütten.

Zum Topic: ich habe zwei AXP3000, einen mit 9700p, einen mit 9800p und selbst bei UT2k4 geht der 9800p mit ihren 128MB unter 16x12/AA/AF bei großen Onslaught-Levels die Luft aus. Ganz zu schweigen von Far Cry. Ich will Far Cry in 16x12/AA/AF spielen, so wie alles andere auch und zwar flüssig, also muss was Neues her, basta :)

Ich werde die 9700p mal gegen eines der beiden Wunderdinger austauschen, die 9800p kommt dann wohl im Winter dran. Was es wird? Nun, wahrscheinlich die X800XT. Leiser, weniger monströs. Hängt aber vielleicht auch davon ab, was zuerst lieferbar ist ;D

Ach ja, noch was: Gibt es irgendeinen Hinweis, dass wir mit der nächsten Tranche nicht einfach nur einen Aufguss mit ein paar MHz mehr bekommen? Glaub ich nämlich nicht. Vor R500/NV50 tut sich da gar nichts. Der Sprung ist jetzt, das war's dann für ein Jahr. Wer jetzt aus Prinzip verweigert, der wird lange warten :wink2:

r@h
2004-06-03, 00:11:14
[x] Ja, auf unbestimmte Zeit
(und nein, ich habe nicht gestimmt ;-)

Ich warte erst einmal ab, wie sich die IHV's jetzt verhalten. Sollte sich nVidia dazu durchringen, wieder 'echtes' tri via Treiber anzubieten, haben sie einen Plus-Punkt (selbiges gilt für die Abschaltung ALLER Optimierungen bei ATI... von der Winkelabhängigkeit mal abgesehen), was aber nicht zwingend zu einer Kaufentscheidung bei mir führen würde.

Meines Erachtens nach haben sich die IHV's hier bei dem R420 vs NV40 'Wettstreit' eindeutig über eine Grenze hinaus bewegt, deren Überschreitung für mich nicht mehr zu dulden ist, insofern ich mich wohl anderweitig umschauen und/oder einfach warten werde. Derzeit 'spiele' ich mit NV35 vs. R350/R360 herum und das wird dann auch erst einmal reichen müssen...
Original geschrieben von flatbrain
Naja, da hat m. E. die X800 die Nase mit gammakorrigierten RGAA vorn, gefällt mir persönlich besser, allerdings kann mich der Rest des R420 nicht überzeugen, genauso wenig wie der nV40...!Sorry, aber das gammakorrekte AA von ATI kann man ja wohl nur als schlechten Witz auffassen, oder ?

Nicht, dass es nicht richtig schnell ist, aber der Umstand, dass die Default-Gamma-Einstellung bei den Games einfach zu niedrig (und damit zu dunkel) ist, eine Veränderung dessen (InGame, da es ja im Panel keine Auswirkungen hat) aber schlicht dazu führt, dass die Gamma-Korrektur hier kontraproduktiv hinsichtlich der BQ wirkt, ist wirklich nicht akzeptabel.

Werde nochmal ein paar andere Treiber probieren (ist derzeit nur der Cat4.5 gewesen), aber irgendwie habe ich so das dumpfe Gefühl, dass sich gerade in dieser Hinsicht nicht viel geändert haben wird.

Oder gibt es etwa eine Möglichkeit, die Gamma-Korrektur einfach abzuschalten ?
:???:
Original geschrieben von LovesuckZ
"trilinear" Button.
Nach einen dreiviertel Jahr Zwangs - "brilinearitaet", bietet Nvidia wieder die Moeglichkeit an "trilinear" auszuwaehlen.
Ansonsten die "..." am Satzende betrachten, dass war nicht ganz so ernst gemeint. :) Also ich hoffe inständig, dass dieser "Tri-Button" auch für die älteren Karten verfügbar gemacht wird und nicht nur für die 'neuen' 6er... Zumindest würde die R9800p wieder (endgültig) aus dem Rechner fliegen, wenn dieser Schalter für die FX verfügbar werden sollte !
;-)

Razor

kmf
2004-06-03, 00:43:15
Original geschrieben von r@h
[x] Ja, auf unbestimmte Zeit
(und nein, ich habe nicht gestimmt ;-)

Ich warte erst einmal ab, wie sich die IHV's jetzt verhalten. Sollte sich nVidia dazu durchringen, wieder 'echtes' tri via Treiber anzubieten, haben sie einen Plus-Punkt (selbiges gilt für die Abschaltung ALLER Optimierungen bei ATI... von der Winkelabhängigkeit mal abgesehen), was aber nicht zwingend zu einer Kaufentscheidung bei mir führen würde.

Meines Erachtens nach haben sich die IHV's hier bei dem R420 vs NV40 'Wettstreit' eindeutig über eine Grenze hinaus bewegt, deren Überschreitung für mich nicht mehr zu dulden ist, insofern ich mich wohl anderweitig umschauen und/oder einfach warten werde. Derzeit 'spiele' ich mit NV35 vs. R350/R360 herum und das wird dann auch erst einmal reichen müssen...
Sorry, aber das gammakorrekte AA von ATI kann man ja wohl nur als schlechten Witz auffassen, oder ?

Nicht, dass es nicht richtig schnell ist, aber der Umstand, dass die Default-Gamma-Einstellung bei den Games einfach zu niedrig (und damit zu dunkel) ist, eine Veränderung dessen (InGame, da es ja im Panel keine Auswirkungen hat) aber schlicht dazu führt, dass die Gamma-Korrektur hier kontraproduktiv hinsichtlich der BQ wirkt, ist wirklich nicht akzeptabel.

Werde nochmal ein paar andere Treiber probieren (ist derzeit nur der Cat4.5 gewesen), aber irgendwie habe ich so das dumpfe Gefühl, dass sich gerade in dieser Hinsicht nicht viel geändert haben wird.

Oder gibt es etwa eine Möglichkeit, die Gamma-Korrektur einfach abzuschalten ?
:???:
Also ich hoffe inständig, dass dieser "Tri-Button" auch für die älteren Karten verfügbar gemacht wird und nicht nur für die 'neuen' 6er... Zumindest würde die R9800p wieder (endgültig) aus dem Rechner fliegen, wenn dieser Schalter für die FX verfügbar werden sollte !
;-)

Razor

Warst ja lange ein eherner Verfechter von nVidia. Und jetzt bist du fast schon umgekippt. :(

Was ist eigentlich so toll an der 9800pro. Nur der Speed? Weil BQ ist ja nicht wirklich besser! Aths hätte es fast mit einer 9-6er erwischt. :freak:

Macht aber nix, ich komm dafür nach mehr als 1 1/2 Jahren wieder zurück zu Muttern. :stolz:

Aber auch nicht mit einer 6-8er, wie ursprünglich geplant, sondern mit was Älterem (5900U). Protest!

smockdogx
2004-06-03, 05:39:31
nein
sobald die preise bischen fallen holle ich mir einen 800xt pe
hat genung leistung um mit viel aa und af zu zocken bricht nicht so ein wie die nv und die optimirungen sieht man ja garnicht dafür aber 15% mehrlesitung gerne doch
naja auschalten wer schon schön;D
und nv optimirt auch wenn ati es mal tut jaulen alle rum und bei ati sieht man es nicht mal nicht wie bei nv früher:chainsaw:

ausserdem is die optimirungen nur bei bei af ihr tut so hal ob ati nu bei allen anwendungen scheiss quali hätte

aber ihr habt ja alle augen wie falken das hatte ich ja vergessen
:chainsaw2

r@h
2004-06-03, 22:02:59
Original geschrieben von kmf
Warst ja lange ein eherner Verfechter von nVidia. Und jetzt bist du fast schon umgekippt. :(Umgekippt ?
:???:

Irgendwie habe ich das Gefühl, hier permanent falsch verstanden zu werden...
(muss wohl an meiner Ausdrucksweise liegen ;-)
Original geschrieben von kmf
Was ist eigentlich so toll an der 9800pro. Nur der Speed? Weil BQ ist ja nicht wirklich besser! Aths hätte es fast mit einer 9-6er erwischt. :freak:Vielleicht habe ich einfach zu viel voraus gesetzt: ein Zufall spielte mir das Kärtchen (die R9800p) "für lau" in die Hand und nun bin ich halt dabei, mir das Teil intensivst zu Gemüte zu führen.

Und wenn es in meinem vorherigen Post noch nicht rüber gekommen sein sollte: Ich warte eigentlich nur auf die Gelegenheit, die FX wieder in den Rechner zu hieven (ein neuer Treiber wäre da ein willkommener Anlaß ;D), aber solange ich 'eh keine Zeit habe, 'wirklich' zu gamen, ist es mir im Prinzip sogar egal, was ich derzeit im Rechner habe...

Die R9800p hat eindeutig Stärken... aber leider auch erhebliche Schwächen.

Auf der einen Seite ist sie verdammt schnell und bietet ein geniales 4xRGMSAA. Auf der anderen Seite sind die Default-Gamma-Werte zu niedrig, womit die Gammakorrektur vom AA schlicht für'n Ar... ist und sogar störend wirkt (vom fehlenden SS, auch im 'Mixed-Mode' ganz zu schweigen). Das AF ist zwar schnell, aber immer noch ganuso mies, wie damals zur R9500'er Zeit. Dann kommt leider noch die hohe Lautstärke (im Vergleich zur FX5900 vom MSI mit 'Sonnenkühler' ;-) und die vergleichsweise dumpfe Multi-Mon-Unterstützung (wobei ich letztere allerdings 'eh nicht viel nutze).

Und ich habe es ernst gemeint: sollte nVidia diesen Bri-Filter endlich via Control-Panel deaktivieren lassen (meinetwegen auch mit 'nem inoffiziellen RegKey ;-) und damit ECHTES, trilineares AF bieten... ist der Test der R9800p beendet.
Original geschrieben von kmf
Macht aber nix, ich komm dafür nach mehr als 1 1/2 Jahren wieder zurück zu Muttern. :stolz:

Aber auch nicht mit einer 6-8er, wie ursprünglich geplant, sondern mit was Älterem (5900U). Protest! Jo, aber warte noch den doch bald erscheinenden Treiber ab. Nicht, dass nVidia nun wieder versucht, mit ATI "gleich zu ziehen"... sonst schei.e ich auf aktuelle GraKa-Hardware und verkaufe den Rechner komplett (mit R9800p UND FX5900 ;-)... dann muss mein Centrino-Notebook mit 'Intel Extreme Graphics II' erst einmal reichen... bis sich die IHV's wieder eingekriegt haben und was vernünftiges auf den Markt bringen... was für Treiber und Hardware gleichermaßen gilt.

So, hoffe, dass ich mich nun klar ausgedrückt habe.

Razor

r@h
2004-06-03, 22:03:00
Original geschrieben von kmf
Warst ja lange ein eherner Verfechter von nVidia. Und jetzt bist du fast schon umgekippt. :(Umgekippt ?
:???:

Irgendwie habe ich das Gefühl, hier permanent falsch verstanden zu werden...
(muss wohl an meiner Ausdrucksweise liegen ;-)
Original geschrieben von kmf
Was ist eigentlich so toll an der 9800pro. Nur der Speed? Weil BQ ist ja nicht wirklich besser! Aths hätte es fast mit einer 9-6er erwischt. :freak:Vielleicht habe ich einfach zu viel voraus gesetzt: ein Zufall spielte mir das Kärtchen (die R9800p) "für lau" in die Hand und nun bin ich halt dabei, mir das Teil intensivst zu Gemüte zu führen.

Und wenn es in meinem vorherigen Post noch nicht rüber gekommen sein sollte: Ich warte eigentlich nur auf die Gelegenheit, die FX wieder in den Rechner zu hieven (ein neuer Treiber wäre da ein willkommener Anlaß ;D), aber solange ich 'eh keine Zeit habe, 'wirklich' zu gamen, ist es mir im Prinzip sogar egal, was ich derzeit im Rechner habe...

Die R9800p hat eindeutig Stärken... aber leider auch erhebliche Schwächen.

Auf der einen Seite ist sie verdammt schnell und bietet ein geniales 4xRGMSAA. Auf der anderen Seite sind die Default-Gamma-Werte zu niedrig, womit die Gammakorrektur vom AA schlicht für'n Ar... ist und sogar störend wirkt (vom fehlenden SS, auch im 'Mixed-Mode' ganz zu schweigen). Das AF ist zwar schnell, aber immer noch ganuso mies, wie damals zur R9500'er Zeit. Dann kommt leider noch die hohe Lautstärke (im Vergleich zur FX5900 vom MSI mit 'Sonnenkühler' ;-) und die vergleichsweise dumpfe Multi-Mon-Unterstützung (wobei ich letztere allerdings 'eh nicht viel nutze).

Und ich habe es ernst gemeint: sollte nVidia diesen Bri-Filter endlich via Control-Panel deaktivieren lassen (meinetwegen auch mit 'nem inoffiziellen RegKey ;-) und damit ECHTES, trilineares AF bieten... ist der Test der R9800p beendet.
Original geschrieben von kmf
Macht aber nix, ich komm dafür nach mehr als 1 1/2 Jahren wieder zurück zu Muttern. :stolz:

Aber auch nicht mit einer 6-8er, wie ursprünglich geplant, sondern mit was Älterem (5900U). Protest! Jo, aber warte noch den doch bald erscheinenden Treiber ab. Nicht, dass nVidia nun wieder versucht, mit ATI "gleich zu ziehen"... sonst schei.e ich auf aktuelle GraKa-Hardware und verkaufe den Rechner komplett (mit R9800p UND FX5900 ;-)... dann muss mein Centrino-Notebook mit 'Intel Extreme Graphics II' erst einmal reichen... bis sich die IHV's wieder eingekriegt haben und was vernünftiges auf den Markt bringen... was für Treiber und Hardware gleichermaßen gilt.

So, hoffe, dass ich mich nun klar ausgedrückt habe.

Razor

r@h
2004-06-03, 22:03:57
Na ja... doppelt hält besser, gell ?
:D

Razor

Sumpfmolch
2004-06-03, 22:13:51
bis auf weiteres kommt keine neue karte in den rechner.

für bildqualitätsverarsche gibts von mir im jahre 2004 keine kohle mehr

Radeonator
2004-06-04, 00:21:07
Also eine Option fehlt noch :

[x]Ja, ich kauf mir jetzt nen Fahrrad !;D

Blumentopf
2004-06-04, 10:38:19
[x]Nein, meine Entscheidung steht fest.

Abwarten und Tee trinken.

z3ck3
2004-06-05, 15:19:09
[x]Ja, jetzt warte ich erst mal wie es mit den andern kleinen Herstellern ausieht ob die was bringen.

ATI hat bei mir Optimierungsmäßig ausgeschissen, würde sie nur noch kaufen in den neueren Versionen wenn ich keine andere Möglichkeit habe.

Nvidia hat bei mir ein Dickes Minus wegen dem TV-Out Problem in Verbindung mit DVD. Ist aberja keine Optimierung. Wenn das nicht währe würde NVIDIA in meine engere Wahl kommen.

Duraner
2004-06-05, 15:45:17
Wollte mir nur eine neue Graka kaufen, wenn ich das Geld dazu übrig hätte. Durch diese Optimierungsskandale werde ich mir eine neue Graka erst kaufen, wenn es ein Spiel gibt, welches auf meiner jetztigen nicht anständig läuft. Ferner hoffe ich auf die kleinen Hersteller.

Gast
2004-06-05, 15:46:42
Ich verstehe hier einige Leute beim besten Willen nicht, die entweder ATI oder Nvidia auch noch in Schutz nehmen.
1. Es geht weder um ATI noch um Nvidia (haben beide mehr als genug Kohle), sondern um uns arme User/Käufer.
2. Es betrügen beide in gleichen Maßen, nur auf unterschiedlichen Wegen.
3. Wenn "wir" diese Graka-Generation aus Protest nicht kaufen, was denkt ihr wie schön die nächste Generation Filtern wird?

Also lasst es sein eine der beiden Firmen in Schutz zu nehmen, bescheißen tun sie beide.
Ausserdem wollen die eh nur unser bestes, unser Geld!

mfg
Maik

misterh
2004-06-05, 17:33:01
Original geschrieben von Gast
3. Wenn "wir" diese Graka-Generation aus Protest nicht kaufen, was denkt ihr wie schön die nächste Generation Filtern wird?

Vergiss es ;D

Gast
2004-06-05, 17:46:04
war ja auch nur so ne Idee :-)

Aquaschaf
2004-06-05, 18:16:02
Original geschrieben von Gast
Ausserdem wollen die eh nur unser bestes, unser Geld!


Mein Bestes ist bestimmt nicht mein Geld ;)

r@h
2004-06-05, 19:45:28
Original geschrieben von z3ck3
Nvidia hat bei mir ein Dickes Minus wegen dem TV-Out Problem in Verbindung mit DVD. Ist aberja keine Optimierung. Wenn das nicht währe würde NVIDIA in meine engere Wahl kommen. :???:

Razor

Quasar
2004-06-05, 22:27:13
Macrovision-Schutz

MarcWessels
2004-06-06, 01:44:20
Original geschrieben von Mr. Lolman
*(momentan ist bei allen Spielen sogar noch 4xAA drinnen, auch wenns bei Farcry schon knapp wird, weswegen ich dort zusätzlich auch nur 4xbi AF aktiviert hab)

Öh? FarCry kann ich nur noch in 800x600 + 4xtriAF spielen und selbst da nervt zwischendurch die Ruckelei noch derbe.

Was ich genau ankreuzen sollte, wußte ich nicht, weil meine Entscheidung zwar beeinflußt wurde aber dennoch inzwischen feststest. Statt der ursprünglich geplanten X800 XT PE gibt's ne 6800 Ultra... :D

MarcWessels
2004-06-06, 02:20:17
Original geschrieben von r@h
[b][
Sorry, aber das gammakorrekte AA von ATI kann man ja wohl nur als schlechten Witz auffassen, oder ?

Nicht, dass es nicht richtig schnell ist, aber der Umstand, dass die Default-Gamma-Einstellung bei den Games einfach zu niedrig (und damit zu dunkel) ist, eine Veränderung dessen (InGame, da es ja im Panel keine Auswirkungen hat) aber schlicht dazu führt, dass die Gamma-Korrektur hier kontraproduktiv hinsichtlich der BQ wirkt, ist wirklich nicht akzeptabel.

Mh? Ich weiß garnicht, was Du immer mit Deinem Gamma hast... Bei mir ist nix zu dunkel.

xL|Sonic
2004-06-06, 02:34:33
Original geschrieben von MarcWessels
Mh? Ich weiß garnicht, was Du immer mit Deinem Gamma hast... Bei mir ist nix zu dunkel.

Er ist bestimmt son Spieler, der die gammasettings derart hochschraubt, dass es Tag erscheint, obwohl es im Spiel noch nacht ist ;)

Colin MacLaren
2004-06-06, 10:36:07
Ich mach einfach mal STRG+C -> STRG+V, paßt in beide Threads ;)

Für mich wäre, wenn ich momentan auf der Suche nach einer 400EUR-Karte wäre, der aktuelle Ati-"Cheat", welcher die "Brinlinearität" situationsbedingt regelt, eher der Kaufgrund, statt einer GF6800GT, welche mir featuremäßig eher zusagt.

Während die GF6800 bei AF starkt einbricht, was sich besonders bei NextGen-Spielen sehr negativ bemerkbar machen wird, wie die Benchmarks mit FarCry bereits andeuten, bietet Ati AF quasi "for free".

Daß der "Cheat" nicht wirklich sooo grausam sein kann, wie hier einige andueten, wird allein dadurch ersichtlich, daß der in Bezug auf Trinlineare Filterung sehr empfindliche aths erst auf diese Optimierung aufmerksam wurde, als er explizit darauf hingewiesen wurde und selbige nur durch Einfärben der Mipmaps nachweisen konnte. Ingame fällt so etwas hingegen nicht auf. Ob ich intelligent adaptiv brilenar gefiltetertes Far Cry mit 50 oder korrekt trinlenear gefiltertes mit 35 fps möchte, da brauch ich imho nicht lange zu überlegen ;)

AF bedeutet für den Durchschnittsgamer in erster Linie Schärfung weiter entfernt liegender Texturen, was wiederum am ehesten an der vor dem Spieler verlaufenden Bodentextur - also in der Regel Stage 0 - ersichtlich wird. Daß lehrbuchmäßige AF einer GF3 oder GF4 bringt herzlich wenig, wenn es einfach zu langsam ist, um sinnvoll eingesetzt zu werden. Auf einer rohpowermäßig nicht gerade Welten entfernten Radeon 9600 (Pro) ist es hingegen durchaus nutzbar, eben wegen dieser sinvollen Optimierungen.

Sicherlich haben die neuen Highend-Modelle genügend Power, um auch lehrbuchmäßige AF darzustellen, aber Far Cry und Spellforce wird es heute schon knapp, und früher oder später kommen garantiert Titel heraus, wo Optimierungen dirngend vonnöten sind, um überhaupt noch AF einsetzen zu können. Lieber stageoptimiertes adaptives brilenares AF, welches eben ingame kaum einen bis gar keinen Unterschied zur Lehrbuchqualität macht, als gar keins.

Daß kein Schalter zum Deaktivieren dieser imho verschmerzbaren Optimierungen vorhanden ist, kann ich aus marketingtechnischer Sicht durchaus nachvollziehen. Doch hier ist eben der Verbraucher auch selbst Schuld, denn die Masse der DAUs interessieren nun mal nur nakte Zahlen, die IHVs könnnen auch nur auf die Forderungen des Marktes reagieren. Und an dieser Marktsituation werden auch Foren und Websides wie dieser, die gern Aufklärungsarbeit leisten wollen, aber mit 10-Seiten+ Artikeln und ellenlange Diskussionen unwissende DAUs nur abschrecken, nicht viel ändern können, die Zahl der Leute, die sich auf solche Seiten verirrt, ist hiefür einfach zu verschwindend gering. Wirklich von Beduetung ist es auch nicht, denn die Masse der Gamer setzt sowieso kein AA oder AF ein, wie schon oft erwähnt, bin ich in meinem Clan von 12 Mann der einzige, und das auch erst, seit ich einen 19" TFT besitze. Da wird nach Anschaffung einer neuen Grafikkarte maximal die Auflösung von 800x600 auf 1024x768 oder 1280x1024 heraufgesetzt und das wars. Geht mal auf einer LAN durch die Reihen, die Menge der AA-, aber vor allem AF-Zocker kann man an ein bis zwei Händen abzählen.

Man mu sicher abwägen, irgendwo liegt eine Grenze, und einige Optimierungen kosten tatsächlich mehr Bildqualität als sie an Performance bringen, aber der adaptiv brileneare AF-Modus der R420-Reihe ist imho ein Beispiel für den richtigen Weg, viel Performance für minimale, nur mit Spezialtools nachweisbare Qualitäts-Verluste und wäre für mich eher ein Kaufgrund als Nicht-Kaufgrund.

Grestorn
2004-06-06, 10:44:34
Original geschrieben von MarcWessels
Mh? Ich weiß garnicht, was Du immer mit Deinem Gamma hast... Bei mir ist nix zu dunkel. Es spielt doch keine Rolle, ob man die Gamma nun verändert oder nicht. Die Aussage (die ich nicht verifiziert habe), ist dass die vielzitierte AA-Gamma-Korrektur von ATI bei veränderten Gamma-Basiswerten offensichtlich Artefakte erzeugt.

Und egal wie man es dreht, das ist eher ein Nachteil denn ein Vorteil, oder?

Grestorn
2004-06-06, 10:46:23
Original geschrieben von Colin MacLaren
Ich mach einfach mal STRG+C -> STRG+V, paßt in beide Threads ;)Soll ich meine Erwiederung dann auch in beide Threads posten?

Ne, das ist wohl eher kontraproduktiv. Ich verlinke sie lieber: http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=1882771#post1882771

ShadowXX
2004-06-06, 10:55:11
Original geschrieben von grestorn
Soll ich meine Erwiederung dann auch in beide Threads posten?

Ne, das ist wohl eher kontraproduktiv. Ich verlinke sie lieber: http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=1882771#post1882771

Genau das wollte ich auch gerade schreiben...hast mir die mühe erspart...

DanMan
2004-06-06, 17:24:22
Original geschrieben von Colin MacLaren bietet Ati AF quasi "for free".
Dass das faktisch nicht sein kann, ist dir aber klar, oder? Außerdem hat FarCry i.M. als Benchmark keine Aussagekraft.

Dalai-lamer
2004-06-07, 11:44:13
Am Anfang von neuen Produkten wird immer gejammert. Ich will die ersten Spiele sehen, die die Zweifler nciht mehr mit eine rhöheren AUflösung als 800x600 spielen können. Da bringt ihnen eine "lehrbuchmäßige" Filterqualität auch sehr viel =)
Alles auf Low mit 800x600 ? Nene, mit mir nur weil ich imo keine Lust habe soviel Geld auszugeben =)

Colin MacLaren
2004-06-07, 12:03:16
Original geschrieben von DanMan
Dass das faktisch nicht sein kann, ist dir aber klar, oder? Außerdem hat FarCry i.M. als Benchmark keine Aussagekraft.

Nun, ich sehe schön weit gefilterte Bodentexturen und dies naezu ohne Geschwindigkeitsverlust. Was will ich als Durchschittsgamer, der in erster Linie mit ordentlichen Framerates (dank des Mauslags braucht man bei FarCry gerne 50fps+) zocken will, mehr? Ingame bedeutet AF eben in erster Line eine höherer Detailgrad der vor der Spielfigur verlaufenden Bodentextur, alles andere ist etwas für Screenshotvergleiche.

Ich kann nur aus meiner Erfahrung mit einer FX5900@5950 im Vergleich zu einer Radeon9800Pro sprechen:

Auf der Ati ist alles in 4xAA/16xAF möglich, bei der NVIDIA brauch ich für jedes spiel andere Settings, um eine halbwegs vernünftige Framerate herauszubekommen, meist muß ich das AF auf "Performance" setzen und auf 4x oder 2x reduzieren, was dann teilweise immer noch langsamer ist. 8xAF kann ich auf der FX gleich vergessen, da bricht die Framerate um 50% ein. Das hab ich aber von gecheatetem 16x-Ati-AF mehr, was dann für mich auch der Grund war, wieder zurück zu Ati zu wechseln. Im Endeffekt zählt für mich eine weit nach vorn gefilterte Bodentextur bei guter Framerate, der Rest darf nach Herzenslust optimiert werden, im Gegenteil, ich begrüße es sogar.

Am sinnvollsten wäre imho ein intelligenter Algorhythmus, der AF nach der Framerate regelt.

aths
2004-06-07, 18:21:01
Original geschrieben von Colin MacLaren
Am sinnvollsten wäre imho ein intelligenter Algorhythmus, der AF nach der Framerate regelt. Das gäbe eine Art "Texturschärfe-Popping". Auch nicht das Wahre.

Gast
2004-06-15, 13:47:11
nein, die optimierungen find ich super, kaufe mir auf jeden fall wieder ne ATi.

kiss
2004-06-15, 16:07:50
Original geschrieben von Gast
nein, die optimierungen find ich super, kaufe mir auf jeden fall wieder ne ATi.

:tgv:


Wie kann man "die optimierungen sind SUPER" sagen?!?!

Das ist einfach dumm!
Vor drei Jahren haben sogar GF3 & GF4 usw viel bessere qualität geboten als die heutigen :)
Leider setzten nVidia & vorallem ATI nur noch auf FPS und gehen hinterlistig vor.

Kein bock mehr...denn rest kennt ihr! :D


Mfg kiss

Tesseract
2004-06-15, 16:22:01
Original geschrieben von aths
Das gäbe eine Art "Texturschärfe-Popping". Auch nicht das Wahre.

wenn ich nur daran denke wird mir schon schlecht :dpuke:
überhaupt etwas bildquallität betreffendes nach framerate regeln zu lassen ist ziemlich daneben