Archiv verlassen und diese Seite im Standarddesign anzeigen : Optimierungen
Colin MacLaren
2004-05-17, 11:00:26
Achtung: Dies stellt meine ganz persönliche Meinung dar!
Ich weiß, daß ich hier gegen den Strom schwimme, aber ich wollt es einfach mal loswerden. Bevor ich also in irgendeinem anderen Thread eine Offtopic-Diskussion lostrete, mach ich einfach mal einen neuen auf...
Ich kann es manchmal nicht mehr nachvollziehen, warum sich hier ständig aufgeregt wird, wenn irgendwo neue Optimierungen gefunden werden, die ingame entweder gar nicht oder nur, wenn man ganz genau darauf achtetn, auffallen bzw. erst in Screenshotvergleichen bei x-facher Vergrößerung oder noch schlimmer, mit Analyse-Tools erkennbar werden. Ich hab jetzt eine FX5900, mit dem achso hochgelobten AF, aber da die Performance mit 8xAF um 50% einbricht, ist es dann sowieso nicht sinnvoll nutzbar. Da lob ich mir doch den Ati-Weg, wo ich trotzdem ordentlich gefilterte Bodentexturen des vor mir leigenden Weges bekomme - was imho das einzige ist, wo AF ingame wirklich auffällt - und muß dafür gerademal 10% Perfromance opfern.
Daß die Hersteller auch keine Option für maximale Qualität einbauen, kann ich ebenfalls nachvollziehen, denn sonst würden sämtliche Reviewes nur mit diesen Settings benchen und somit die Karten schlechter dastehen lassen, als sie sind, denn bei solche derben Performanceeinbrüchen wie oben beschrieben sind solche Ergebnisse für den Einsatz im Alltag sowieso nicht relevant.
Von unseren 12 Leuten im Clan bin ich btw. der einzgige, der AA/AF nutzt, von daher ist es nur logisch, daß die Hersteller sich bei diesen Filtertechniken auf die Optimierung hin zu prestigeträchtigen Benchmarkwerten konzentrieren, als auf bessere Qualität, die man selbst auf Screenshots noch mit der Lupe suchen muß, denn die überwiegende Mehrheit der User setzt die Filter sowieso nicht ein, geschweige denn liest sich in den Reviews die seitenlangen Erörterungen zu gewissen Optimierungen durch.
mfg
Colin
Lokadamus
2004-05-17, 11:20:22
Original geschrieben von Colin MacLaren Ich hab jetzt eine FX5900, mit dem achso hochgelobten AF, aber da die Performance mit 8xAF um 50% einbricht, ist es dann sowieso nicht sinnvoll nutzbar. Da lob ich mir doch den Ati-Weg, wo ich trotzdem ordentlich gefilterte Bodentexturen des vor mir leigenden Weges bekomme - was imho das einzige ist, wo AF [b]ingame wirklich auffällt - und muß dafür gerademal 10% Perfromance opfern.mmm...
Meiner Meinung nach geht es hierbei um die pure Rohpower, was bringt dir die Grafikkarte mit den tollsten Funktionen, wenn du für ein flüssiges Spielvergnügen auf die aktuellsten Treiber warten must, weil wiedermal einiges optimiert werden muss?
War einer dieser beiden anderen Grafikkartenhersteller (S3 oder VIA) mit ihren neuem Modell nicht tierisch auf die Schnauze gefallen, weil das Teil nur durch Treiberoptimierung lebt? Sobald es eine unbekannte Anwendung war, gab es schöne Einbrüche der FPS => wird vielleicht im nächsten Treiberupdate berücksichtig, na toll ...
Nerothos
2004-05-17, 11:25:10
Mir zum Bleistift geht es aber nicht darum, ob man es sieht, oder nicht, es geht mir um's Prinzip.
Wo soll dieser Optimierungswettstreit noch hinführen? Wird es bei Filterschummeleien bleiben? Ich denke nicht. NVIDIA ist jetzt mit dem AF ATI gleich gezogen. Ich denke, "es wird Zeit" für eine neue Optimierung.
DAS KANN NICHT DER RICHTIGE WEG SEIN!
Man hat beim NV40 220 Mio. Transistoren verballert, für Shader 3.0 und anderes Zeug. Nennt mich eine Technologiebremse, aber ICH hätte die Transistoren besser angelegt.
In echte Trilineare Textureinheiten zum Beispiel. Oder in ein sehr schnelles 8x RGMSAA (vll sogar gammakorrekt, wie bei ATI).
Ach das AF hätte durch die Tri-TMUs nicht beschnitten werden müssen. Ich denke, mit diesen Sachen, wäre ich sogar noch weit unter 220 Mio. Transistoren und könnte mir überlegen, ob ich den Chiptakt weiter hochdrehe, die Kernspannung senke, oder noch weiter Features einbaue.
Wobei ich sicherlich bei hinreichender Performance die Kernspannung gesenkt hätte für eine annehmbare Kühllösung.
Das wäre MIR viel lieber gewesen, als Shader 3.0.
/edit: Sorry, ich bin am Ende etwas abgeschweift *g*
Meine Meinung: Optimierungen sind zu verurteilen, egal von welchem Hersteller. Jeder User (ob er es nun sieht oder nicht, ist dabei vollkommen unrelevant) sollte das scharf kritisieren.
Kann doch nich sein, dass soviele Ressourcen in Hard- und Softwareoptimierungen gesteckt werden...
Kelron
2004-05-17, 11:44:31
Ich gebe Commander Larve recht.
Ich kaufe 3d Beschleuniger nicht nur wegen der Speed, sondern weil die Optik auch besser sein sollte als bei dem Vorgängermodell.
Wenn jetzt durch immer mehr Optimierungen die Bildqualität zurück geht während sie an der anderen Fortschritte macht frage ich mich persönlich warum man eigentlich die Texturen filtert, kostet eh nur Leistung. Was habe ich von den ganzen gottverdammten Features der Karten, wenn ich sie nicht benutzen kann.
ShadowXX
2004-05-17, 12:01:38
Original geschrieben von Kelron
Ich gebe Commander Larve recht.
Ich kaufe 3d Beschleuniger nicht nur wegen der Speed, sondern weil die Optik auch besser sein sollte als bei dem Vorgängermodell.
Wenn jetzt durch immer mehr Optimierungen die Bildqualität zurück geht während sie an der anderen Fortschritte macht frage ich mich persönlich warum man eigentlich die Texturen filtert, kostet eh nur Leistung. Was habe ich von den ganzen gottverdammten Features der Karten, wenn ich sie nicht benutzen kann.
Ack...
Dazu kommt noch eine andere Kleinigkeit:
Die Benchmarksvergleiche im I-Net und den Printmedien wurden durch diese versteckten Massnahmen nun unbrauchbar....
D.h. man kann diese nicht mehr als Grundlage für eine Kaufentscheidung benutzen, da man nicht weiss, welcher IHV wo und was gecheatet hat...
Crushinator
2004-05-17, 12:09:34
Meine Meinung:
Solange "Optimierungen" abschaltbar sind, und man beim Testen Äpfel mit Äpfeln vergleichen kann, können die Hersteller machen, was sie wollen. Ich bevorzöge dabei allerdings, wenn diese Optimierungen nicht per App-Detection herbeigerufen würden.
Am liebsten hätte ich selbstverständlich einen Chip, der auch in 1600x1200 ohne merkbaren Leistungseinbüsse nach :kicher:-Norm anisotrop filtert, aber ich bin Realist und denke, daß wenn's a) bezahlbar und b) die RAM-Bausteine lieferbar wären, die IHV u.A. auch Tri TMU in ihren Monster-Chips untergebracht hätten.
ACK. Und deswegen wird es schön langsam auch hoffentlich verständlich dass manche Leute auch durchaus mal biAF mit ihrer 9800pro nutzen.
Sieht nach, je nach Anwendung, kaum schlechter aus, und bringt mörder Performance.
Einen Button, mit dem man diverse Optimierungen abschalten kann, sollts trotzdem geben. V.A. bei der neuen Generation, wo bei gebräuchlichen Auslösungen trotz AA/AF ohnehin fast jedes Spiel CPU limitiert ist.
Original geschrieben von Colin MacLaren
Achtung: Dies stellt meine ganz persönliche Meinung dar!
Ich weiß, daß ich hier gegen den Strom schwimme, aber ich wollt es einfach mal loswerden. Bevor ich also in irgendeinem anderen Thread eine Offtopic-Diskussion lostrete, mach ich einfach mal einen neuen auf...
Ich kann es manchmal nicht mehr nachvollziehen, warum sich hier ständig aufgeregt wird, wenn irgendwo neue Optimierungen gefunden werden, die ingame entweder gar nicht oder nur, wenn man ganz genau darauf achtetn, auffallen bzw. erst in Screenshotvergleichen bei x-facher Vergrößerung oder noch schlimmer, mit Analyse-Tools erkennbar werden. Ich hab jetzt eine FX5900, mit dem achso hochgelobten AF, aber da die Performance mit 8xAF um 50% einbricht, ist es dann sowieso nicht sinnvoll nutzbar. Da lob ich mir doch den Ati-Weg, wo ich trotzdem ordentlich gefilterte Bodentexturen des vor mir leigenden Weges bekomme - was imho das einzige ist, wo AF ingame wirklich auffällt - und muß dafür gerademal 10% Perfromance opfern.
Daß die Hersteller auch keine Option für maximale Qualität einbauen, kann ich ebenfalls nachvollziehen, denn sonst würden sämtliche Reviewes nur mit diesen Settings benchen und somit die Karten schlechter dastehen lassen, als sie sind, denn bei solche derben Performanceeinbrüchen wie oben beschrieben sind solche Ergebnisse für den Einsatz im Alltag sowieso nicht relevant.
Von unseren 12 Leuten im Clan bin ich btw. der einzgige, der AA/AF nutzt, von daher ist es nur logisch, daß die Hersteller sich bei diesen Filtertechniken auf die Optimierung hin zu prestigeträchtigen Benchmarkwerten konzentrieren, als auf bessere Qualität, die man selbst auf Screenshots noch mit der Lupe suchen muß, denn die überwiegende Mehrheit der User setzt die Filter sowieso nicht ein, geschweige denn liest sich in den Reviews die seitenlangen Erörterungen zu gewissen Optimierungen durch.
mfg
Colin
Du gibst also 500€ (also ich finde das ist ne MENGE Holz) aus, um bei der neuen Kartengeneration schlechtere BQ zu haben als bei einer R9700/9800 oder gar Geforce4? Nein, das ist nicht akzeptabel. Das ist den PREIS einfach nicht Wert.
Wenn das hier einfach so hingenommen würde, würde man wirklich irgendwann komplett auf bilinear stehen oder man finge an das AA zu "optimieren" oder schlimmeres. Auch wenn dir das jetzt übertrieben vorkommt, aber ich glaube schon dass es sich lohnt keine Toleranz durchkommen zu lassen bei solchen Betrugsversuchen, wie sie ATI oder NV da abziehen.
Je grössere Wellen des Theater schlägt desto besser, denn desto eher sind wir die Bodenwellen wieder los.
Und alles was Recht ist: Bodenwellen SIEHT man IMMER.
Wenn man natürlich ncht weiss was das ist, ist es einem egal, aber mich würde das sowas von ankotzen.
Original geschrieben von crushinator
Meine Meinung:
Solange "Optimierungen" abschaltbar sind, und man beim Testen Äpfel mit Äpfeln vergleichen kann, können die Hersteller machen, was sie wollen. Ich bevorzöge dabei allerdings, wenn diese Optimierungen nicht per App-Detection herbeigerufen würden.
Am liebsten hätte ich selbstverständlich einen Chip, der auch in 1600x1200 ohne merkbaren Leistungseinbüsse nach :kicher:-Norm anisotrop filtert, aber ich bin Realist und denke, daß wenn's a) bezahlbar und b) die RAM-Bausteine lieferbar wären, die IHV u.A. auch Tri TMU in ihren Monster-Chips untergebracht hätten.
1024 mit vollem TriAF ohne Winkelabhängigkeit und 4x oder 8x SGMSAA würden mir schon vollkommen reichen. Dann verzichte ich auch bereitwillig auf SM3.0 oder anderen Schnickschnack.
gnomi
2004-05-17, 13:13:22
Meiner Meinung nach sind hardwareseitige oder über den Treiber standardmäßig aktivierte Optimierungen, die nachweislich die momentan hier erreichbare Bildqualität beeinträchtigen, unschön und stark zu kritisieren. Dabei ist es egal, ob es sich um die 500 Euro Highend Karten oder um die kleinste Serie des Herstellers handelt.
Andererseits bedeutet dies jetzt nicht, daß ich prinzipiell applikationsspezifischen oder treiberseitigen Optimierungen abgeneigt gegenüber stehe.
Wichtig ist für mich hier unter anderem folgendes:
1) Die Optimierung muß optional über den Treiber oder das Spiel zuschaltbar sein
2) Gleichzeitig muß sie gegenüber dem User sorgfätig dokumentiert sein (technische Verfahrensweise; möglicher Speedgewinn bei gleichzeitigem Hinweis auf mögliche Qualitätsabstriche)
Das momentan bzw. seit ein paar Jahren z.T. zu sehende Verhalten der Grafikkartenhersteller - namentlich seine Stärken nur noch im Vergleich zur Konkurrenz zu sehen oder noch schlimmer diese fernab von Fakten mit irgendwelchen PR Attacken beerdigen zu wollen sowie fleißig am User vorbei auf einen geringen Teil von zum Test anstehender Applikationen zu optimieren, anstatt dringend notwendige Kompatibilitätsprobleme in den Griff zu bekommen - basiert kaum auf Ehrlichkeit und ist daher alles andere als begrüßenswert. Hier gilt es ganz klar, dem Hersteller eine (verbale) Absage zu erteilen, (auch wenn das Produkt ansonsten hervorragend ist) und nicht darum, derartige Vorgehensweisen stillschweigend oder schönredend zu dulden.
Ein Grafikkartenhersteller sollte mit der Zielsetzung antreten, sowohl mit Qualitätsfeatures wie auch mit Geschwindigkeit zu glänzen, und er sollte es außerdem zustandebringen, über alle Schnittstellen und Betriebssysteme hinweg, ausgereifte und featureseitig nicht beschnittene Treiber zur Verfügung zu stellen.
Daß man sich Gedanken um eine in der Praxis brauchbar Kühllösung und wenn möglich einem im Verhätnis stehenden Stromverbrauch macht, sollte mittlerweile ja auch klar sein.
Ein Reviewer sollte auch genau diese Zielsetzung (und was davon im kokreten Falle noch übrig ist) im Hinterkopf haben, wenn er beabsichtigt, Produkte mehrerer Hersteller miteinander zu vergleichen und eine Empfehlung abzugeben. Was viele Tester anscheinend auch nicht verstehen: Es spricht ja nichts dagegen z.B. mehrere Produkte oder gar keines zu empfehlen oder Empfehlungen/Nichtempfehlungen für unterschiedliche Anwendungsbereiche auszusprechen.
Diese z.T. extreme Akzentuierung von Benchmarkwerten bringt dem User jedenfalls - außer vielleicht in Wahrheit nicht vergleichbarer Werte - nicht wirklich etwas; ins besondere dann nicht, wenn sich die Karten hier wenig nehmen oder gar nicht in vergleichbaren oder generell praxisnahen Settings gegeneinander antreten.
Colin MacLaren
2004-05-17, 13:41:19
Ich seh es aber bei meiner FX5900. Was nützt mir das minimal schönere AF, wenn es soviel Performance frißt, daß es in neueren Spielen quasi unbrauchbar ist? Da bevorzuge ich eher winkelahängiges TriAF als gar keins.
Eine Option zum Abschalten der Optimierungen wäre aus Marketingsicht Selbstmord, denn dann würde die Karte auch nur mit voller Quali gebencht, womit sie in den Augen des unbedarften Anwenders schlechter dasteht, da sie entweder schlechter als das Vorgängermodell bzw. als das Konkurrenzprodukt wirkt, oder, wenn beide IHVs Ihre Cheaterei sein lassen würden, zumindest generell in der Performance mit aktivierten Filtern schwachbrüstig erscheint.
Zumal ein Bench mit maximaler Quali imho ein Ergebnis liefern würde, was sowieso nicht praxisrelevant wäre, da DAs AF mit dieser Einstellung einfach zuviel Leistung frißt, denn momentan habe ich eher das Gefühl, daß Hardwareanforderungen in Spielen im Vergleich mit der Hardwareenwticklung schneller steigen.
Mit einer 179DM Geforce2MX konnte ich 2 Jahre lang alle Spiele mit vollen Details flüssig zocken. Mit einer heutigen 100EUR-Karte kann man aktuelle Titel bestnefalls in mittleren Details zocken, in 1-2 Jahren sicher gar nichts mehr. Wie lange gar meine Voodoo Graphics (159DM beim Erscheinen der V2, oder meine Banshee (70EUR von einem Kumpel) ausreichend waren, erspar ich mir jetzt, auszuführen. Selbst eine 400-500EUR teure 9800XT, beim Erscheinungstermin von Far Cry die absolute Topkarte, ist nicht in der Lage, bei maximalen Details in ordentlichen Framrates darzustellen, auch ohne AA/AF. Wenn sich diese Entwicklung fortsetzt, sind Optimierungen imho keine unlauteren Cheatereien, sondern zwingende Notwendigkeit, um mit minimalen Kosten in der Bildqualität diese Filter überhaupt noch einsetzbar zu machen. wie hieß es doch vor kurzem so schön "AA is dead" ;)
Ferner dürft Ihr nicht immer von Eurem Standpunkt als Hardware-Spezialisten mit beonderem Interesse an 3D-Grafik, ausgehen, sondern müßt die überweigende Mehrzahl der Anwender sehen, die ja nunmal auch die Zielgruppe der IHVs bildet. Ich höre andauernd nur "Warum machst Du immer AA/AF an, ich seh da keinen Unterschied?", sofern diejenigen zu den 30% zählen, die überhaupt wissen, was AA/AF denn eigentlich ist. Und glaubt Ihr ernsthaft, die Masse der Spieler würde die Optimierungen auf Screenshots, geschweige denn ingame entdecken?
Wen ich ET zocke, erkenn ich z.B. zwischen bilnearem, brilenearem oder gar trilenearem AF ingame null Unterschied.
Der aktuelle Cheat bei der X800, welcher wieder ausfürhlich diskutiert wurde, ist für mich hingegen das perfekte Beispiel einer gelungenen Optimierung. Bringt etwas mehr Performance, aber der Unterscheid ist quasi unsichtbar bzw. nur mit sntprechenden Tools zum Einfärben der MiMaps zu entlarven. Aber spielt Ihr mit eingfefärbten MipMaps? Ich glaube (oder hoffe) nicht ;)
PS:
Alle Tippfehler sind zu entschuldigen. Meine Rechtschreibung ist toll, meine Tippskills eher weniger :D
Exxtreme
2004-05-17, 13:48:57
Naja, ich habe nichts gegen Bildqualitätsreduzierungen solange diese abschaltbar sind. Mir aber irgendwelche "Optimierungen" aufzuzwingen empfinde ich irgendwo als Frechheit.
Original geschrieben von Colin MacLaren
Ich seh es aber bei meiner FX5900. Was nützt mir das minimal schönere AF, wenn es soviel Performance frißt, daß es in neueren Spielen quasi unbrauchbar ist? Da bevorzuge ich eher winkelahängiges TriAF als gar keins. Eine Option zum Abschalten der Optimierungen wäre aus Marketingsicht Selbstmord, denn dann würde die Karte auch nur mit voller
Quali gebencht, womit sie in den Augen des unbedarften Anwenders schlechter dasteht, da sie entweder schlechter als das Vorgängermodell bzw. als das Konkurrenzprodukt wirkt, oder, wenn beide IHVs Ihre Cheaterei sein lassen würden, zumindest generell in der Performance mit aktivierten Filtern schwachbrüstig erscheint.
Zumal ein Bench mit maximaler Quali imho ein Ergebnis liefern würde, was sowieso nicht praxisrelevant wäre, da DAs AF mit dieser Einstellung einfach zuviel Leistung frißt, denn momentan habe ich eher das Gefühl, daß Hardwareanforderungen in Spielen im Vergleich mit der Hardwareenwticklung schneller steigen.
Mit einer 179DM Geforce2MX konnte ich 2 Jahre lang alle Spiele mit vollen Details flüssig zocken. Mit einer heutigen 100EUR-Karte kann man aktuelle Titel bestnefalls in mittleren Details zocken, in 1-2 Jahren sicher gar nichts mehr. Wie lange gar meine Voodoo Graphics (159DM beim Erscheinen der V2, oder meine Banshee (70EUR von einem Kumpel) ausreichend waren, erspar ich mir jetzt, auszuführen. Selbst eine 400-500EUR teure 9800XT, beim Erscheinungstermin von Far Cry die absolute Topkarte, ist nicht in der Lage, bei maximalen Details in ordentlichen Framrates darzustellen, auch ohne AA/AF. Wenn sich diese Entwicklung fortsetzt, sind Optimierungen imho keine unlauteren Cheatereien, sondern zwingende Notwendigkeit, um mit minimalen Kosten in der Bildqualität diese Filter überhaupt noch einsetzbar zu machen. wie hieß es doch vor kurzem so schön "AA is dead" ;)
Ferner dürft Ihr nicht immer von Eurem Standpunkt als Hardware-Spezialisten mit beonderem Interesse an 3D-Grafik, ausgehen, sondern müßt die überweigende Mehrzahl der Anwender sehen, die ja nunmal auch die Zielgruppe der IHVs bildet. Ich höre andauernd nur "Warum machst Du immer AA/AF an, ich seh da keinen Unterschied?", sofern diejenigen zu den 30% zählen, die überhaupt wissen, was AA/AF denn eigentlich ist. Und glaubt Ihr ernsthaft, die Masse der Spieler würde die Optimierungen auf Screenshots, geschweige denn ingame entdecken?
Wen ich ET zocke, erkenn ich z.B. zwischen bilnearem, brilenearem oder gar trilenearem AF ingame null Unterschied.
Der aktuelle Cheat bei der X800, welcher wieder ausfürhlich diskutiert wurde, ist für mich hingegen das perfekte Beispiel einer gelungenen Optimierung. Bringt etwas mehr Performance, aber der Unterscheid ist quasi unsichtbar bzw. nur mit sntprechenden Tools zum Einfärben der MiMaps zu entlarven. Aber spielt Ihr mit eingfefärbten MipMaps? Ich glaube (oder hoffe) nicht ;)
PS:
Alle Tippfehler sind zu entschuldigen. Meine Rechtschreibung ist toll, meine Tippskills eher weniger :D
Es ist klar, dass es PR technisch so optimal läuft. Das interessiert mich als Konsumenten aber nicht die Bohne. Sollen die doch diesen Mist weitermachen, dann werd ich es nicht kaufen und auch nicht weiterempfehlen, so einfach ist das. Man ist nicht abhängig von den IHVs.
Sicher hast du da Recht, dass, wenn die Optimierung ein Feature auf LowEnd Karten nutzbar macht durchaus sinnvoll sein kann, aber gerade bei der 5900 verzichte ich da lieber auf eine AF Stufe (nutze 4x AF als 8x AF), hab dafür aber wieder gerne den trilinearen Filter. Es ist nicht akzeptabel, dass ein HighEnd Chip wie der 5900 eine schlechtere Filterqualität bietet wie eine TNT. Lächerlich und nicht kaufenswert.
Winter[Raven]
2004-05-17, 13:58:21
Original geschrieben von Exxtreme
Naja, ich habe nichts gegen Bildqualitätsreduzierungen solange diese abschaltbar sind. Mir aber irgendwelche "Optimierungen" aufzuzwingen empfinde ich irgendwo als Frechheit.
So sieht's aus und nicht anders!
Luciano Alibrandi versprach! ja, Nvidia wolle eine Vielzahl von Einstellungsmöglichkeiten in den nächsten Treibern einbauen, von extrem optimiert bis fullquality.
Ich vertrau ihm mal ...
Tesseract
2004-05-17, 13:58:43
Original geschrieben von Colin MacLaren
Wenn sich diese Entwicklung fortsetzt, sind Optimierungen imho keine unlauteren Cheatereien, sondern zwingende Notwendigkeit, um mit minimalen Kosten in der Bildqualität diese Filter überhaupt noch einsetzbar zu machen. wie hieß es doch vor kurzem so schön "AA is dead" ;)
in dem fall liegt der fehler aber an den spieleentwicklern, die einfach an der kundschaft vorbeientwickeln und an nichts anderem
wie gesagt, wenn die transistoren nicht reichen um so primitive sachen wie trilineare filterung vernünftig einsetzen zu können haben zB auch shader >=2.0 imho abolut nichts auf dieser karte verloren
da passt einfach hinten und vorne das endergebnis (am monitor) nichtmehr zusammen
an einem ende verkrüppelt man für ein paar jämmerliche % leistung einen sichtbaren teil des bildes
am anderen ende gewinnt man kaum sichtbar bildquallität mit einem komplexen shader der die ganze hardware auf 50% runterbremmst, sich aber kaum positiv auswirkt
und wer profitiert davon? das marketung
das kann es einfach nicht sein
Exxtreme
2004-05-17, 14:05:42
Original geschrieben von Winter[Raven]
Ich vertrau ihm mal ...
Ich nicht. ;)
HOT hat das in einem anderne Thread gut angedeutet. Erst wenn mind. 3 offizielle Treiber diese Möglichkeiten zur Abschaltung der "Optimierungen" enthalten, erst dann kann ich darauf vertrauen, daß Nvidia es ernst meint.
Original geschrieben von Tesseract
in dem fall liegt der fehler aber an den spieleentwicklern, die einfach an der kundschaft vorbeientwickeln und an nichts anderem
wie gesagt, wenn die transistoren nicht reichen um so primitive sachen wie trilineare filterung vernünftig einsetzen zu können haben zB auch shader >=2.0 imho abolut nichts auf dieser karte verloren
da passt einfach hinten und vorne das endergebnis (am monitor) nichtmehr zusammen
an einem ende verkrüppelt man für ein paar jämmerliche % leistung einen sichtbaren teil des bildes
am anderen ende gewinnt man kaum sichtbar bildquallität mit einem komplexen shader der die ganze hardware auf 50% runterbremmst, sich aber kaum positiv auswirkt
und wer profitiert davon? das marketung
das kann es einfach nicht sein
Da gibt es ein Mittel gegen: Nicht kaufen und niemandem den Kauf empfehlen, am besten den Kauf ausreden ;)
Na ja, müssen wir erstmal abwarten was NV da noch so macht.
Es liegt einzig und alleine bei NV und ATI. ;)
Original geschrieben von Winter[Raven]
So sieht's aus und nicht anders!
Luciano Alibrandi versprach! ja, Nvidia wolle eine Vielzahl von Einstellungsmöglichkeiten in den nächsten Treibern einbauen, von extrem optimiert bis fullquality.
Ich vertrau ihm mal ...
Pressefunzis sind dazu da alles zu erzählen was die Firma genre hätte. Dem glaube ich weniger als nem Politiker unserer derzeitigen Regierung ;)
Colin MacLaren
2004-05-17, 14:08:26
Original geschrieben von Tesseract
in dem fall liegt der fehler aber an den spieleentwicklern, die einfach an der kundschaft vorbeientwickeln und an nichts anderem
wie gesagt, wenn die transistoren nicht reichen um so primitive sachen wie trilineare filterung vernünftig einsetzen zu können haben zB auch shader >=2.0 imho abolut nichts auf dieser karte verloren
da passt einfach hinten und vorne das endergebnis (am monitor) nichtmehr zusammen
an einem ende verkrüppelt man für ein paar jämmerliche % leistung einen sichtbaren teil des bildes
am anderen ende gewinnt man kaum sichtbar bildquallität mit einem komplexen shader der die ganze hardware auf 50% runterbremmst, sich aber kaum positiv auswirkt
und wer profitiert davon? das marketung
das kann es einfach nicht sein
Ich bin mal faul und zitiere dbode, Admin bei Forundeluxx :)
Ich hole mal weit aus : Der User spielt in der Regel mit 1024x786 und 1280x1024 oder anderen, ähnlichen Auflösungen. Manche mit 2x AA und manche mit 4x AA. Eigentlich alles egal. Auf einem Standbild kann man vielleicht Unterschiede in der Bildqualität erkennen. In bewegten Bildern und gerade bei einem schnellen Ego-Shooter wird die Bildqualität eher auf Effekte etc. beschränkt, denn in der Schnelle sehe ich so genaue Unterschiede gar nicht. Wichtig sind da eher : Flüssiges Gameplay, realistische Effekte, die ich auch bei schnellen Bewegungen gut mitbekomme und die mir ein realistisches Spielgefühl geben. Ob da im Hintergrund brilinear oder trilinear gefiltert wird, ist mir im Endeffekt ja egal.
seahawk
2004-05-17, 14:10:37
Ich bin für die Optimierungen. Eine Optimierung, die bei geringem Verlust an Bildqualität deutlich mehr FPS bietet ist durchaus auch eine tolle Leistung der Hersteller.
Ich finde es auch hinnehmbar, wenn diese Einstellung der Standardwert ist.
Allerdings möchte ich die Möglichkeiten haben diese Optimierungen vollständig oder teilweise abzuschalten. Von mir aus eine Option im Treiber, die man nur per Tastenkombination erreicht und so nicht für jeden DAU zugängig ist. Ich will aber nicht externe Tools verwenden müssen.
Außerdem will ich, dass IHVs offen über ihre aktivierten Optimierungen reden.
Weiterhin will ich, dass Reviewer soweit möglich bei vergleichbarer Bildqualität testen. Also einmal ohne Optimierung und einmal mit. Dazu ein Vergleich der Bildqualität mt aktivierten Optimierungen und ein Test wäre für mich brauchbar.
Original geschrieben von Colin MacLaren
Ich bin mal faul und zitiere dbode, Adin bei Forundeluxx :)
Na das nenn ich ja ne dolle Einstellung ;)
Na ja, wem es egal ist, der soll sich den Müll kaufen, empfehlen werde ich es trotzdem nicht. Es ist mir egal, in welchen Settings ein normalouser spielt, ich spiele nicht so und werde es nicht akzeptieren.
LovesuckZ
2004-05-17, 14:13:03
Man kann nur den Kopf schütteln, wenn man solche Meinungen zu diesem Thema liest.
Dank solchen Leuten werden wir wohl auch in Zukunft kein richtiges AF und trilineare (ja, ein Standard seit mehreren Jahren) Filterung bekommen. Danke!
LovesuckZ
2004-05-17, 14:14:40
Original geschrieben von seahawk
Ich bin für die Optimierungen. Eine Optimierung, die bei geringem Verlust an Bildqualität deutlich mehr FPS bietet ist durchaus auch eine tolle Leistung der Hersteller.
:???:
Eine Leistung ist es vergleichbaren Speed bei gleicher oder besserer Qualitaet zu liefern.
Wer die IQ senkt um mehr Speed zu haben, hat keine Meisterleistung erreicht.
Das ist wie Doping.
Colin MacLaren
2004-05-17, 14:18:14
Original geschrieben von seahawk
Weiterhin will ich, dass Reviewer soweit möglich bei vergleichbarer Bildqualität testen. Also einmal ohne Optimierung und einmal mit. Dazu ein Vergleich der Bildqualität mt aktivierten Optimierungen und ein Test wäre für mich brauchbar.
Dab aber von seiten der Reviewer genau das nicht passieren würde, sondern gemäß des Hintergrunds des Reviewers, der logischerweise aus ähnlicher Szene wie die meisten Poster hier kommt, gewollt oder ungewollt die unoptimirte Varainte in Vordergrund rückt und dem Standard-Gamer, der ein ganz anderes Anforderungsprofil besitzt, ein flasches Bild vermittelt.
Das beste Beispiel war das 3Dcenter-Review der Geforce 6800 Ultra. Dort wurde auf Tests ohne AA und Af verzichtet. Doch die Mehrheit der User weiß entweder gar nicht was AA/AF ist oder setzt diese Filter nicht ein, wiel sie "sowieso keinen Unterschied erkennen".
Exxtreme
2004-05-17, 14:18:29
Original geschrieben von ow
So etwas gibt es aber nicht. Das ist der Punkt.
Der Leistungsgewinn ist proportional zum Qualitaetsverlust.
Nicht beim MSAA ggü. SSAA. :D
</klugscheiss>
Neee, es spielen auch subjektive Dinge ein Rolle. Schau z.B. OGAA vs. RGAA an. Rein mathematisch gesehen ist der Rechenaufwand gleich. Trotzdem sieht RGAA besser aus.
Tesseract
2004-05-17, 14:19:46
Original geschrieben von Colin MacLaren
Das beste Beispiel war das 3Dcenter-Review der Geforce 6800 Ultra. Dort wurde auf Tests ohne AA und Af verzichtet. Doch die Mehrheit der User weiß entweder gar nicht was AA/AF ist oder setzt diese Filter nicht ein, wiel sie "sowieso keinen Unterschied erkennen".
entsprechende user stellen aber im normalfall auch nicht die zielgruppe für diese karte da
Winter[Raven]
2004-05-17, 14:21:45
Könnte die Brifilterung seitens Nvidia die für die FX eingeführt worden ist, eine Reaktion auf das "Cheating" durch ATI sein? Die ja wie es scheint schon seit cat3.4 bei ATI drinne sind.
@ Exxtreme
Erst wenn mind. 3 offizielle Treiber
Das heißt, wenn die Optimierungen durch ATI seit 3.4 drinne sind, dann meinen die mit ihrer Cheterei mehr als ernst, muss ich mir das so auslegen?
Tesseract
2004-05-17, 14:22:15
Original geschrieben von Exxtreme
Neee, es spielen auch subjektive Dinge ein Rolle. Schau z.B. OGAA vs. RGAA an. Rein mathematisch gesehen ist der Rechenaufwand gleich. Trotzdem sieht RGAA besser aus.
rein mathematisch gesehen ist (im schnitt) auch das ergebnis gleich
nur in der rasterung ergeben sich unterschiede weil ein OG und der raster zueinander so ungünstig liegen das viel redundanz entsteht
seahawk
2004-05-17, 14:22:37
Original geschrieben von LovesuckZ
:???:
Eine Leistung ist es vergleichbaren Speed bei gleicher oder besserer Qualitaet zu liefern.
Wer die IQ senkt um mehr Speed zu haben, hat keine Meisterleistung erreicht.
Das ist wie Doping.
Bitte meinen ganzen Post zitieren und diesen Satz nicht aus dem Zusammenhang reissen.
Für mich ist eine optisch kaum wahrnehmbare Optimierung, bei gleichzeitiger Speedverbesserung durchaus eine Leistung. Ich finde den Brilinearen Filter der FX Serie z.B. durchaus einen aktzeptabelen Kompromiß.
Allerdings möchte ich auch diese Optimierung abstellen können.
Colin MacLaren
2004-05-17, 14:25:53
Original geschrieben von Tesseract
entsprechende user stellen aber im normalfall auch nicht die zielgruppe für diese karte da
Nicht unbedingt. Erstens bauen meist auch Mainstreamkarten auf der selben Architektur auf und teilen sich daher die Optimierungen mit den HighEnd-Modellen, zweitens sind günstige Highend-Karten wie die FX5900XT oder 9800Pro bis maximal 300 EUR durchaus für den Normalouser interessant.
z.B. verbaut DELL in 1000EUR-PCs 9800Pro-Karten, AldiPcs kommen mit 9800XXLs daher usw.
Tesseract
2004-05-17, 14:26:33
Original geschrieben von Winter[Raven]
Könnte die Brifilterung seitens Nvidia die für die FX eingeführt worden ist, eine Reaktion auf das "Cheating" durch ATI sein?
nein, weil die Bri filterung an die hardware gekoppelt ist und daher schon in der entwicklung des chips geplant gewesen sein muss
Winter[Raven]
2004-05-17, 14:29:25
Original geschrieben von Tesseract
nein, weil die Bri filterung an die hardware gekoppelt ist und daher schon in der entwicklung des chips geplant gewesen sein muss
Die Radeon 9600 unterstützt Bri in der HW ;)
Tesseract
2004-05-17, 14:30:06
Original geschrieben von Colin MacLaren
Nicht unbedingt. Erstens bauen meist auch Mainstreamkarten auf der selben Architektur auf und teilen sich daher die Optimierungen mit den HighEnd-Modellen, zweitens sind günstige Highend-Karten wie die FX5900XT oder 9800Pro bis maximal 300 EUR durchaus für den Normalouser interessant.
du hast einen fehler in der überlegung
ein benchmark ohne AA/AF der 6800u zeigt DEREN leistung in der entsprechenden einstellung und nicht die der kleineren karten
ergo sinnfrei
Original geschrieben von ow
So etwas gibt es aber nicht. Das ist der Punkt.
Der Leistungsgewinn ist proportional zum Qualitaetsverlust.
Klar, weil Qualitätsverlust absolut linear verläuft, und kein bisschen subjektiv ist.
(Genauso wie blaugrün blaugrün ist, und nicht grünblau :bonk: )
Tesseract
2004-05-17, 14:31:46
Original geschrieben von Winter[Raven]
Die Radeon 9600 unterstützt Bri in der HW ;)
ich hab auch nie etwas anderes behauptet ;)
Colin MacLaren
2004-05-17, 14:44:06
Original geschrieben von Tesseract
du hast einen fehler in der überlegung
ein benchmark ohne AA/AF der 6800u zeigt DEREN leistung in der entsprechenden einstellung und nicht die der kleineren karten
ergo sinnfrei
Worauf ich hinauswollte:
Normalouser sehen die Unterschiede nicht. Darauf antwortest Du, Normalouser kaufen sich auch keine 500 EUR-Karten.
Also schlußflgere ich, Normalouser kaufen sich Deiner Meinung nach Mid-End-Karten. Da aber sowohl Mid-End als auch High-End-Karten auf derselben Architektur aufbauen, müssen sie auch zwangsläufig die Optimierungen implentiert haben, die bei Mid-End-Modellen zweifelsohne notwendig sind.
Meiner Meinung nach sind aber selbst High-End-Karten zu schwach, um NextGen-Spiele mit vollen Details und AA/AF in Lehrbuchqualität darzustellen, und High-End-Karten sehr wohl für den Normalouser interessant, der aber die Optmierungen sowieso nicht wahrnimmt.
Tesseract
2004-05-17, 14:54:49
@colin:
und auf was ich hinaus wollte:
eine 6800U ohne AA/AF zu benchen ist sinnfrei weil ein benchmark einen wert ergibt, der, auch bei selber architektur, stark von den kleineren karten differiert
nicht mal der relative speedgewinn duch das abschalten muss der selbe sein weil zB das verhältnis von bandbreite und füllrate anders ausfallen kann
mit der bildquallität ist das etwas anderes vorrausgesetzt die beiden karten (high-end und mid-end) bieten wirklich das selbe bild
aber gerade was die bildquallität angeht ist im 3dc artikel eh immer 1xAA/AF miteinbezogen
Original geschrieben von Winter[Raven]
Könnte die Brifilterung seitens Nvidia die für die FX eingeführt worden ist, eine Reaktion auf das "Cheating" durch ATI sein? Die ja wie es scheint schon seit cat3.4 bei ATI drinne sind.
@ Exxtreme
Das heißt, wenn die Optimierungen durch ATI seit 3.4 drinne sind, dann meinen die mit ihrer Cheterei mehr als ernst, muss ich mir das so auslegen?
Es ging ja darum, dass NV versprach trilinear auswählbar zu lassen, mit dem 61.11 aber wieder dagegen verstieß.
Ich denke nicht, dass ATI das wieder aus dem Treiber rausnehmen wird, falls dich das "beruhigt" ;)
Original geschrieben von Colin MacLaren
Ich bin mal faul und zitiere dbode, Admin bei Forundeluxx :) In bewegten Bildern und gerade bei einem schnellen Ego-Shooter wird die Bildqualität eher auf Effekte etc. beschränkt, denn in der Schnelle sehe ich so genaue Unterschiede gar nicht. Wichtig sind da eher : Flüssiges Gameplay, realistische Effekte, die ich auch bei schnellen Bewegungen gut mitbekomme und die mir ein realistisches Spielgefühl geben. Ob da im Hintergrund brilinear oder trilinear gefiltert wird, ist mir im Endeffekt ja egal.Ich sehe aber, dass die Texturen auf meiner 5900 XT nicht so gut sind wie noch mit der Ti 4600: Bei der XT sind die Tribänder schmaler, was bei bestimmten Texturen auffällt. Das sehe ich auch bei 85 fps, und das kanns nicht sein.
Original geschrieben von Colin MacLaren
Worauf ich hinauswollte:
Normalouser sehen die Unterschiede nicht. Darauf antwortest Du, Normalouser kaufen sich auch keine 500 EUR-Karten.
Also schlußflgere ich, Normalouser kaufen sich Deiner Meinung nach Mid-End-Karten. Da aber sowohl Mid-End als auch High-End-Karten auf derselben Architektur aufbauen, müssen sie auch zwangsläufig die Optimierungen implentiert haben, die bei Mid-End-Modellen zweifelsohne notwendig sind.
Meiner Meinung nach sind aber selbst High-End-Karten zu schwach, um NextGen-Spiele mit vollen Details und AA/AF in Lehrbuchqualität darzustellen, und High-End-Karten sehr wohl für den Normalouser interessant, der aber die Optmierungen sowieso nicht wahrnimmt.
Was für Mid-Range Karten gilt, muss nicht für die HighEnd Liga gelten. In Mainstrwam mag brilinear ja in gewissem Sinne noch vertretbar sein, in High End ist es das nicht. Ist also keine Entschuldigung für derartiges Verhalten der IHVs.
Gerade die jetzigen HighEnd Karten sind in der Lage sogar in 1600x1200 noch ordentliche FPS mit AA und AF zu liefern. Also ist es gerade in dieser Generation keine Entschuldigung. Die Geschosse sind bei weitem schnell genug um ordentliches Trilinear anzubieten (wär auch total lächerlich sonst).
Exxtreme
2004-05-17, 15:08:42
Original geschrieben von Winter[Raven]
Könnte die Brifilterung seitens Nvidia die für die FX eingeführt worden ist, eine Reaktion auf das "Cheating" durch ATI sein? Die ja wie es scheint schon seit cat3.4 bei ATI drinne sind.
Diese Bri-Filterung braucht spezielle Hardware-Unterstützung. Und AFAIK ist das schon seit dem NV30 drinne. Sprich, Nvidia hat das schon seit sehr langer Zeit geplant. Von daher halte ich es für sehr unwahrscheinlich, daß das eine Reaktion auf ATis Verhalten ist.
Original geschrieben von Winter[Raven]
@ Exxtreme
Das heißt, wenn die Optimierungen durch ATI seit 3.4 drinne sind, dann meinen die mit ihrer Cheterei mehr als ernst, muss ich mir das so auslegen?
Keine Ahnung. Mir ist das bisher nicht aufgefallen weil der R300 kein Bri-Filtering kann. Und da ich keine R9600 besitze, wusste ich bisher davon nichts.
Original geschrieben von ow
So etwas gibt es aber nicht. Das ist der Punkt.
Der Leistungsgewinn ist proportional zum Qualitaetsverlust. Stimmt imo nicht ganz. Man kann bei TF das Bi-Band bei etwa 50% halten, und die wenigsten sehen es. Trotzdem sollte man auf Wunsch auch echtes tri kriegen können, das ist klar. Beim AF behaupte ich, dass die winkelabhängige "Optimierung" hingegen mehr Qualität vernichtet als man Leistung gewinnt. Die Beweisführung ist allerdings etwas umständlich.
Original geschrieben von Exxtreme
Keine Ahnung. Mir ist das bisher nicht aufgefallen weil der R300 kein Bri-Filtering kann. Und da ich keine R9600 besitze, wusste ich bisher davon nichts. Was nun, die volle X800-"Brilinearität" (an die ich nach wie vor nicht recht glaube, imo hat das andere Hintergründe ich brauche verdammt noch mal eine Karte) ist auch auf 'ner normalen 9600 aktivierbar? Dann könnte ich da ja mal reingucken :)
LovesuckZ
2004-05-17, 15:12:59
Original geschrieben von aths
Was nun, die volle X800-"Brilinearität" (an die ich nach wie vor nicht recht glaube, imo hat das andere Hintergründe ich brauche verdammt noch mal eine Karte) ist auch auf 'ner normalen 9600 aktivierbar? Dann könnte ich da ja mal reingucken :)
Deine RV350 Karte filtert nicht trilinear, auch wenn du es einstellst :)
reunion
2004-05-17, 15:14:17
Original geschrieben von aths
Was nun, die volle X800-"Brilinearität" (an die ich nach wie vor nicht recht glaube, imo hat das andere Hintergründe ich brauche verdammt noch mal eine Karte) ist auch auf 'ner normalen 9600 aktivierbar? Dann könnte ich da ja mal reingucken :)
Ja, angeblich ist die schon mindestens seit dem Cat. 3.4 auf allen RV350/360 Karten aktiv...
Demirug
2004-05-17, 15:14:53
Original geschrieben von aths
Was nun, die volle X800-"Brilinearität" (an die ich nach wie vor nicht recht glaube, imo hat das andere Hintergründe ich brauche verdammt noch mal eine Karte) ist auch auf 'ner normalen 9600 aktivierbar? Dann könnte ich da ja mal reingucken :)
Ja, bei der 9600 gibt es auch nur Brilinear. Das Band ist dort sogar noch etwas breiter als bei der X800.
xxnix da...xx
2004-05-17, 15:16:46
hab mir (mal wieder) nur den ersten beitrag durchgelesen da ich im moment sehr wenig zeit habe, und deshalb geb ich mal mein (persöhnliches) statement dazu ab:
also wie jetzt?? sobald nvidia etwas am treiber optimiert wird sofort rotz und wasser gespuckt, sie werden als cheater beschimpft etc etc.
Und jetzt wird ein neuer "cheat" im atitreiber aufgedeckt... und was machen die fanatiker die nvidia immer kritisiert haben?ß sie LOBEN es, ja, es bringt mehr leistung und man sieht es kaum.-.. zum teufel nochmal, ich glaub ich bin hier im falschen film...
p.s: ich weiß weder um die position des threaderstellers noch der der antworten, das ist mir nru allgemein beim überblick der foren aufgefallen...
Tigerchen
2004-05-17, 15:19:12
Original geschrieben von Commander Larve
Mir zum Bleistift geht es aber nicht darum, ob man es sieht, oder nicht, es geht mir um's Prinzip.
Wo soll dieser Optimierungswettstreit noch hinführen? Wird es bei Filterschummeleien bleiben? Ich denke nicht. NVIDIA ist jetzt mit dem AF ATI gleich gezogen. Ich denke, "es wird Zeit" für eine neue Optimierung.
DAS KANN NICHT DER RICHTIGE WEG SEIN!
Man hat beim NV40 220 Mio. Transistoren verballert, für Shader 3.0 und anderes Zeug. Nennt mich eine Technologiebremse, aber ICH hätte die Transistoren besser angelegt.
In echte Trilineare Textureinheiten zum Beispiel. Oder in ein sehr schnelles 8x RGMSAA (vll sogar gammakorrekt, wie bei ATI).
Ach das AF hätte durch die Tri-TMUs nicht beschnitten werden müssen. Ich denke, mit diesen Sachen, wäre ich sogar noch weit unter 220 Mio. Transistoren und könnte mir überlegen, ob ich den Chiptakt weiter hochdrehe, die Kernspannung senke, oder noch weiter Features einbaue.
Wobei ich sicherlich bei hinreichender Performance die Kernspannung gesenkt hätte für eine annehmbare Kühllösung.
Das wäre MIR viel lieber gewesen, als Shader 3.0.
/edit: Sorry, ich bin am Ende etwas abgeschweift *g*
Meine Meinung: Optimierungen sind zu verurteilen, egal von welchem Hersteller. Jeder User (ob er es nun sieht oder nicht, ist dabei vollkommen unrelevant) sollte das scharf kritisieren.
Kann doch nich sein, dass soviele Ressourcen in Hard- und Softwareoptimierungen gesteckt werden...
Das sehe ich vollkommen anders. Was XGI gemacht hat ist sichtbar. Und zwar deutlich. Optimierungen müßen aber sein. Das AF wie auf der GF3/4 frißt einfach zu viel Performance. Das steht in keinerlei Verhältnis im Vergleich zum optischen Gewinn.
Original geschrieben von Tigerchen
Das sehe ich vollkommen anders. Was XGI gemacht hat ist sichtbar. Und zwar deutlich. Optimierungen müßen aber sein. Das AF wie auf der GF3/4 frißt einfach zu viel Performance. Das steht in keinerlei Verhältnis im Vergleich zum optischen Gewinn.
Aber bitte nicht am trilinearen Filter, das ist nicht nur inakzeptabel für HighEnd, sondern vollkommen überflüssig. Auch hätte ich gerne auf ein paar Zusatzfeatures verzichtet wenn man dafür keine Winkelabhängigkeit bekommt.
Die Geschwindigkeitsgewinne durch brilinear sind den BQ Verlust absolut nicht Wert und die Winkelabhängigkeit man AF nicht schneller sondern spart nur Transistoren.
Tigerchen
2004-05-17, 15:28:15
Original geschrieben von Tesseract
in dem fall liegt der fehler aber an den spieleentwicklern, die einfach an der kundschaft vorbeientwickeln und an nichts anderem
wie gesagt, wenn die transistoren nicht reichen um so primitive sachen wie trilineare filterung vernünftig einsetzen zu können haben zB auch shader >=2.0 imho abolut nichts auf dieser karte verloren
da passt einfach hinten und vorne das endergebnis (am monitor) nichtmehr zusammen
an einem ende verkrüppelt man für ein paar jämmerliche % leistung einen sichtbaren teil des bildes
am anderen ende gewinnt man kaum sichtbar bildquallität mit einem komplexen shader der die ganze hardware auf 50% runterbremmst, sich aber kaum positiv auswirkt
und wer profitiert davon? das marketung
das kann es einfach nicht sein
Was heißt denn an der Kundschaft vorbeientwickelt? Die müßen doch immer auwändigere Spielewelten erschaffen. Oder soll Unreal 3 wirklich aussehen wie Unreal 2? Die Kundschaft wird dann keineswegs sagen: "Toll! Ich kann AA/AF anschalten" Sie werden sagen: "Scheiß Spiel, sieht aus wie von vor 3 Jahren."
Es führt gar kein Weg an hochoptimiertem AF vorbei sonst kannst du es nämlich nicht nutzen da es zu lahm ist. Solange die Optimierungen quasi unsichtbar sind oder ich als Alternative den AF-Filter um eine Stufe erhöhen kann (ohne spürbaren Performanceverlust) ist das mit den Optimierungen schon okay.
Schrottposting gelöscht :P
Exxtreme
2004-05-17, 15:32:18
Original geschrieben von Tigerchen
Es führt gar kein Weg an hochoptimiertem AF vorbei sonst kannst du es nämlich nicht nutzen da es zu lahm ist. Solange die Optimierungen quasi unsichtbar sind oder ich als Alternative den AF-Filter um eine Stufe erhöhen kann (ohne spürbaren Performanceverlust) ist das mit den Optimierungen schon okay.
Es gibt KEIN hochoptimiertes AF. :) Entweder es wird was gefiltert dann kostet es Leistung oder es wird nicht gefiltert. So einfach ist das. Alle "Optimierungen" gehen zu Lasten der Bildqualität. Nur das kannst du auch jetzt schon machen. Einfach den AF-Regler nutzen wenn's zu langsam ist.
Tigerchen
2004-05-17, 15:33:36
Original geschrieben von aths
Ich sehe aber, dass die Texturen auf meiner 5900 XT nicht so gut sind wie noch mit der Ti 4600: Bei der XT sind die Tribänder schmaler, was bei bestimmten Texturen auffällt. Das sehe ich auch bei 85 fps, und das kanns nicht sein.
Deine Ansprüche sind ja auch schon legendär.
Tigerchen
2004-05-17, 15:34:59
Original geschrieben von aths
Stimmt imo nicht ganz. Man kann bei TF das Bi-Band bei etwa 50% halten, und die wenigsten sehen es. Trotzdem sollte man auf Wunsch auch echtes tri kriegen können, das ist klar. Beim AF behaupte ich, dass die winkelabhängige "Optimierung" hingegen mehr Qualität vernichtet als man Leistung gewinnt. Die Beweisführung ist allerdings etwas umständlich.
Das ist deine persönliche, sehr einsame Meinung.
Tigerchen
2004-05-17, 15:36:28
Original geschrieben von HOT
Aber bitte nicht am trilinearen Filter, das ist nicht nur inakzeptabel für HighEnd, sondern vollkommen überflüssig. Auch hätte ich gerne auf ein paar Zusatzfeatures verzichtet wenn man dafür keine Winkelabhängigkeit bekommt.
Die Geschwindigkeitsgewinne durch brilinear sind den BQ Verlust absolut nicht Wert und die Winkelabhängigkeit man AF nicht schneller sondern spart nur Transistoren.
Die Winkelabhängigkeit bringt irrsinnig Speed.
Tigerchen
2004-05-17, 15:37:35
Original geschrieben von Exxtreme
Es gibt KEIN hochoptimiertes AF. :) Entweder es wird was gefiltert dann kostet es Leistung oder es wird nicht gefiltert. So einfach ist das. Alle "Optimierungen" gehen zu Lasten der Bildqualität. Nur das kannst du auch jetzt schon machen. Einfach den AF-Regler nutzen wenn's zu langsam ist.
Hochopimiert = winkelabhängig
So seh ich das und so war es gemeint.
Original geschrieben von Tigerchen
Die Winkelabhängigkeit bringt irrsinnig Speed.
wie kommst du darauf?? Winkelabhängigkeit ist einee Hardwareimplementierung, um weniger Transistoren dafür implementieren zu müssen. Die Speed der AF auf dem R300 ist kein Zufall sondern spiegelt sich in der Fillrate wider. Man hätte genauso mehr Rechenlogik implementieren können und winkelunabhängiges AF gehabt, bei der gleichen Speed (bei gleichem Takt natürlich).
Exxtreme
2004-05-17, 15:41:07
Original geschrieben von Tigerchen
Hochopimiert = winkelabhängig
So seh ich das und so war es gemeint.
Dann schreib's auch so hin. Wie gesagt, die Winkelabhängigkeit kannst du ausgleichen indem du den AF-Level runtersetzt. :) Eigentlich braucht man diese ganzen "Optimierungen" nicht.
DrumDub
2004-05-17, 15:42:06
Original geschrieben von HOT
wie kommst du darauf?? Winkelabhängigkeit ist einee Hardwareimplementierung, um weniger Transistoren dafür implementieren zu müssen. Die Speed der AF auf dem R300 ist kein Zufall sondern spiegelt sich in der Fillrate wider. Man hätte genauso mehr Rechenlogik implementieren können und winkelunabhängiges AF gehabt, bei der gleichen Speed (bei gleichem Takt natürlich).
jupp. so ist es. die winkelabhängigkeit wurde aus kostengründen implementiert und nicht weil sie ein paar prozentpunkte schneller ist, als (fast) winkelunabhängiges af. das ganze ist eine designentscheidung, um transistoren zu sparen. genau wie die ungenauigkeiten bei der lod-berechnung.
Original geschrieben von Tigerchen
Hochopimiert = winkelabhängig
So seh ich das und so war es gemeint.
Wenn du Spiele spielst, bei denen man im Tarrain herumläuft und in denen nicht alles platte Texturen vorkommen, wie z.B. Camelot oder SWG, vielleicht auch Morrowind z.T. (hat etwas komische Texturen), dann fällt es extrem auf und ist extrem nervig. Du siehst vielleicht net jede einzelne Winkeloptimierungen, aber das Bild ist mal scharf, mal unscharf. Das stört das Gesamtbild total und macht es absolut unnatürlich. Winkelabhängigkeit muss weg. Ist für mich genaus unakzeptabel wie brilinear.
Tigerchen
2004-05-17, 15:47:40
Original geschrieben von HOT
Wenn du Spiele spielst, bei denen man im Tarrain herumläuft und in denen nicht alles platte Texturen vorkommen, wie z.B. Camelot oder SWG, vielleicht auch Morrowind z.T. (hat etwas komische Texturen), dann fällt es extrem auf und ist extrem nervig. Du siehst vielleicht net jede einzelne Winkeloptimierungen, aber das Bild ist mal scharf, mal unscharf. Das stört das Gesamtbild total und macht es absolut unnatürlich. Winkelabhängigkeit muss weg. Ist für mich genaus unakzeptabel wie brilinear.
Du siehst Dinge die ich nicht sehe. Das eine scharfe neben einer unscharfen Textur liegt ist wirklich extrem selten. Und ich habe Morrowind wirklich oft gespielt mit winkelabhängigem AF.
MechWOLLIer
2004-05-17, 15:49:39
Also anversich hab ich nichts gegen die "Optimierungen" von ATI UND Nvdida. Allerdings stört es mich doch gewaltig, dass man diese Optimierungen nicht deaktivieren kann. Imo haben die Optimierungen durchaus eine Daseinsberechtigung, aber NUR wenn ich sie per Treiber deaktivieren kann und sonst nicht. Genauso stört es mich, dass NV jetzt wie ATI winkelabhängiges AF hat( finde es auch schade, dass ATI keins hat). Es wäre für mich ein großer Kaufgrund, wenn eine der Karte richtiges AF könnte, aber so.....
DrumDub
2004-05-17, 15:59:43
ebent. das problem ist, dass beide hersteller dem kunden nicht mehr die möglichkeit geben, die maximale af-qualität, zu der ihre hardware in der lage ist, zu aktivieren. das ist imho ne frechheit, weil der kunde bevormundet wird. noch schlimmer ist allerdings die tatsache, dass diese sachen hinter dem rücken des kunden geschehen bzw. dass man versucht diese dinge so lange wie möglich zu vertuschen. :motz:
Na ja Ati und nvidia können tun und lassen was sie wollen.
Ich fühl mich da nicht beschissen.
Original geschrieben von Tigerchen
Du siehst Dinge die ich nicht sehe. Das eine scharfe neben einer unscharfen Textur liegt ist wirklich extrem selten. Und ich habe Morrowind wirklich oft gespielt mit winkelabhängigem AF.
Ich sagte ja, das Morrowind relativ günstige Texturen für Winkelabhängigkeit bietet. Camelot ist da weitaus schlimmer dran. Es kommt sher auf das Spiel an, das muss man immer dazusagen und wenn man gerne UT spielt könnt ich mir Vorstellen, dass es in der Tat nicht schlimm ist, das sehe ich ein (na ja, weiss es net genau, hab kein UT ;)).
In EGO RPGs nervt mich die Winkelabhängigkeit am meisten.
Original geschrieben von x5
Na ja Ati und nvidia können tun und lassen was sie wollen.
Ich fühl mich da nicht beschissen.
Na dann können sich die Firman ja Glücklich schätzen dein uneingeschränktes Vertrauen zu haben, wenn du mal irgendwann nurnoch mit bilinear spielst, isses dir dann ja auch egal... Villst nicht gleich ganz auf die Filter verzichten um dolle SM8.0 Effekte geniessen zu können? ;D
Bis es mal soweit kommt bin ich bestimmt zu alt zum spielen.
Original geschrieben von Tigerchen
Es führt gar kein Weg an hochoptimiertem AF vorbei sonst kannst du es nämlich nicht nutzen da es zu lahm ist. Falsch. 4x bzw. 8x gutes AF sind locker drin mit heutigen Karten.
Original geschrieben von Exxtreme
Es gibt KEIN hochoptimiertes AF. :) Entweder es wird was gefiltert dann kostet es Leistung oder es wird nicht gefiltert. So einfach ist das. Alle "Optimierungen" gehen zu Lasten der Bildqualität. Nur das kannst du auch jetzt schon machen. Einfach den AF-Regler nutzen wenn's zu langsam ist. Richtig. Wenn es für 16x oder 8x AF nicht reicht, 4x nehmen.
Original geschrieben von Tigerchen
Das ist deine persönliche, sehr einsame Meinung. Nein, ist ein Fakt.
Original geschrieben von Tigerchen
Die Winkelabhängigkeit bringt irrsinnig Speed. Wobei mindestens so viel BQ geopfert wird, wie man Speed gewinnt.
Original geschrieben von Exxtreme
Dann schreib's auch so hin. Wie gesagt, die Winkelabhängigkeit kannst du ausgleichen indem du den AF-Level runtersetzt. :) Eigentlich braucht man diese ganzen "Optimierungen" nicht. So ist es.
Original geschrieben von Tigerchen
Du siehst Dinge die ich nicht sehe. Das eine scharfe neben einer unscharfen Textur liegt ist wirklich extrem selten. Und ich habe Morrowind wirklich oft gespielt mit winkelabhängigem AF. Ich für mein Teil sehe in der Tat Dinge, die andere nicht sehen, z. B. brilineare Filterung bei Max Payne.
Tigerchen
2004-05-17, 16:39:43
Wie gesagt aths. Mittlerweile kenne ich deine extremen Ansprüche und weiß auch was du so alles sehen willst. Verlange aber nicht von mir daß ich deine Erbsenzählerei gut finde.
Colin MacLaren
2004-05-17, 17:09:57
Original geschrieben von aths
Falsch. 4x bzw. 8x gutes AF sind locker drin mit heutigen Karten.
Nun ja.
Spellforce: 2xAA/8xAF: 44 fps
Spellforce: 2xAA/0xAF: 23 fps
Ich kann Dir gern Screenshots schicken ;)
so editiert, daß es Sinn ergibt ;)
BTW.: Dein Anforderungsniveau an BQ ist mir sowieso schleierhaft. Wähle ich bei OGL im aTuner "aths recommendation" ist das bild deutlich verwaschener, als wenn ich z.B. 25% brilenear und mit "Performance" statt "High Performance" wie in Deiner Empfehlung spiele. MipMap-Wellen erkenn ich bei beiden Varianten keine.
Natürlich sieht man das! Vor allem dann, wenn in einer Szene keine Ebene sondern diverse Winkel zum tragen kommen, sieht Winkel abhängiges Filtern zum :kotz: aus
Auch bri/bi lineare Filter senken die Qualität merkbar. Ich kaufe mir doch kein Highend um Lowend BQ zu bekommen...(sonst könnt ich mir gleich ne Volari kaufen ;) )
Colin MacLaren
2004-05-17, 17:40:00
Eine sinnvolle Variante wäre evt., ordentlich treiberseitg zu optimieren und MaxQuality-Settings tief in der Registry zu verstecken. So wird sichergestellt, daß der Normalanwender und hoffentlich auch die meisten Reviewer mit den sinnvoll nutzbaren performancten Varianten benchen und diejenigen, die MaxQuality wollen und den Unterschied auch erkennen, gehören sowieso zu der Gruppe, die keine Probleme damit hat, mal in der Regsitry etwas umzuschreiben bzwl. ein externes Tool zu nutzen.
Bei Hardwarelimitierten Einsparungen funktioniert dies natürlich nciht, aber hier ist der veringerten Transistorenzahl den Vorzug zu geben, sonst regen sich die gleichen, die sich hier über "optimierte" BQ beschweren, über noch dramatische Abwärme und Stromverbrauch auf. Irgendwo müssen die IHVs ja auch dem Markt nachkommen, und dieser fordert nun mal eher mehr Speed und PS 3.0 als TriAF in Lehrbuchqualität. Und ich schließ mich da dem Massenmarkt an :) Für mich wird die Lebensdauer einer Graka in meinem Rechner dadurch bestimmt, wie lange ich damit neue Spiele n 800x600 mit hohen Details flüssig zocken kann. AF und vor allem AF sind eine nette Spielerei, die zum Zuge gekommt, wenn noch genug Power über ist.
AYAlf
2004-05-17, 17:53:43
verzeihung ....
meine meinung dazu als gamer ist kurz und knapp.
ich glaube kaum, dass man einen grossen unterschied zwischen bi und trilinear bei shootern sehen kann. sein wir doch mal ganz ehrlich, die mp spieler stellen doch sowieso die meisten features ab, wenn sie online oder lan zocken. damit sie eine höchst mögliche fps zahl erhalten. ich verstehe also nicht warum, z.b. nvidia in ihren fx chips den ganzen kram wie 16aa und 8af anbietet? weil, wenn man das bei aktuellen spielen hinzuschaltet, eine diashow erhaelt. bei ati (r3xx) karten ist das was anderes. die haben genug power um auch den schnick schnack mit einzuschalten. ich persoenlich schaue mir ein spiel ein mal mit der höchsten detailstufe an. und schraube dann solange runter bis ich mindesten 50fps habe. damit ein fluessiges spielen zustande kommt. und dabei ist mir reichlich egal, ob es bi, bitri oder tri ist. weil in den meisten spielen kommt es nur darauf an wer der schnellere bzw. geschicktere ist. und mit wenig fps ist das nicht zu machen. warum glaubt ihr ist cs das mit abstand beliebteste spiel der welt?
die grafikkarten hersteller haben den trend erkannt. und haben deshalb weniger wert auf bq, als auf geschwindigkeit gesetzt. ati karten sind so beliebt, weil sie beides auf einmal bieten koennen. nvidia leider nicht! das ist fakt! und man sieht es ja auch an den benchmark ergebnissen immer wieder. fuer eine hand voll user ist sowas wie winkelabhaengiges af eine enorm wichtige sache. fuer den echten zocker ist es aber voellig uninteressant solange man dabei nicht die geschwindigkeit erhaelt die man zum spielen braucht.
mir ist aufgefallen das in diesem forum wirklich ein haufen experten ihr unwesen treiben. fuer experten mag die bq das wichtigste an einer graka sein (ist ja auch verstaendlich). fuer einen normal user ist dies aber nicht der fall. versteht mich nicht falsch. schoene grafik ist fuer mich auch wichtig (fc moechte ich niemals mit fx und 1.1 patch spielen wollen) aber ich schaue halt nicht auf die ganz, ganz kleinen details.
Eusti
2004-05-17, 18:23:35
Original geschrieben von HOT
Du gibst also 500€ (also ich finde das ist ne MENGE Holz) aus, um bei der neuen Kartengeneration schlechtere BQ zu haben als bei einer R9700/9800 oder gar Geforce4? Nein, das ist nicht akzeptabel. Das ist den PREIS einfach nicht Wert.Also jetzt sind wir doch mal ehrlich!!!
1) Eine Geforce4 hat GAR KEIN AA & AF (weil brutal zu langsam)
2) Auf meiner 9700 kann ich max. 2xAA & voll optimiertes AF nutzen (weil bei 17" TFT) ansonsten ebenfalls vieeeelllllll zu langsam).
3) Die neuen X800 Karten sind bei 4xAA & optimiertem AF absolut am Leistungslimit. Korrektes AF wäre sowiso unnutzbar.
4) Das die Optimierungen bislang niemand bemerkt hat, teugt davon, das sie sehr sehr gut sind.
Original geschrieben von DrumDub
ebent. das problem ist, dass beide hersteller dem kunden nicht mehr die möglichkeit geben, die maximale af-qualität, zu der ihre hardware in der lage ist, zu aktivieren. das ist imho ne frechheit, weil der kunde bevormundet wird. noch schlimmer ist allerdings die tatsache, dass diese sachen hinter dem rücken des kunden geschehen bzw. dass man versucht diese dinge so lange wie möglich zu vertuschen. :motz:
Bei der 9600XT ging das per Schalter im Treiber und neimanden hats gejuckt.
Bei der 9800XT hat mann es weggelassen und niemanden hats gejuckt.
Bei der X800 hat mann es auch weggelassen und alle schreien auf.
Was für einen wunderbare Welt !!
LovesuckZ
2004-05-17, 18:39:54
Original geschrieben von Colin MacLaren
Eine sinnvolle Variante wäre evt., ordentlich treiberseitg zu optimieren und MaxQuality-Settings tief in der Registry zu verstecken. So wird sichergestellt, daß der Normalanwender und hoffentlich auch die meisten Reviewer mit den sinnvoll nutzbaren performancten Varianten benchen und diejenigen, die MaxQuality wollen und den Unterschied auch erkennen, gehören sowieso zu der Gruppe, die keine Probleme damit hat, mal in der Regsitry etwas umzuschreiben bzwl. ein externes Tool zu nutzen.
Sry, aber das ist bullshit. Maxqualitaet sollte ohne Hack oder externes Tool immer lieferbar sein. Nur weil einige sich nicht auskennen, heißt es noch lange nicht, dass diese nicht die Moeglichkeit haben dürfen, auf die Maxqualitaet zugreifen zu koennen, ohne sich irgendwo erkündigen zu müssen.
ich überlege gerade, was ich wohl machen würde, wenn ich mir ein Auto kaufe und später feststelle, dass die Geschwindigkeit, welche ich erreichte, nie die mir versprochende Maximalgeschwindigkeit wäre...
Bei Hardwarelimitierten Einsparungen funktioniert dies natürlich nciht, aber hier ist der veringerten Transistorenzahl den Vorzug zu geben, [...]
Transistoren aufgrund verschlechterter Filterung oder IQ zu sparen ist falsch. Leider haben einige dies in der Vergangenheit freudenschreiend akzeptiert...
Irgendwo müssen die IHVs ja auch dem Markt nachkommen, und dieser fordert nun mal eher mehr Speed und PS 3.0 als TriAF in Lehrbuchqualität. Und ich schließ mich da dem Massenmarkt an :)
Was der Massenmarkt will, ist nicht immer das richtige. Und hier haette man Aufklaerungsarbeit leisten müssen. Merke: Die Masse ist meisten dumm...
Für mich wird die Lebensdauer einer Graka in meinem Rechner dadurch bestimmt, wie lange ich damit neue Spiele n 800x600 mit hohen Details flüssig zocken kann. AF und vor allem AF sind eine nette Spielerei, die zum Zuge gekommt, wenn noch genug Power über ist.
Du kannst anhand den Spieloptionen die Grafikqualitaet regeln.
Und ja, trilinear gehoert zu "hohen Details" und damit widersprichst du dir. Denn eine X800XT waere für dich mit "hohen Details" nie machbar, sie liefert keine trilineare Filterung!
seahawk
2004-05-17, 18:46:41
Original geschrieben von LovesuckZ
Sry, aber das ist bullshit. Maxqualitaet sollte ohne Hack oder externes Tool immer lieferbar sein. Nur weil einige sich nicht auskennen, heißt es noch lange nicht, dass diese nicht die Moeglichkeit haben dürfen, auf die Maxqualitaet zugreifen zu koennen, ohne sich irgendwo erkündigen zu müssen.
Exakt. Der Treiber muss alle Einstellungen ermöglichen. Die Dinger sind heute so groß und voller unnützem Zeug (Shader bei ATI z.B.), dass Platz für die Einstellung der Filteroptimierung sein muss. Von mir aus in einem Expertenmodus, der nur auf besondern Wunsch freigeschaltet wird.
harrypitt
2004-05-17, 18:52:02
Diese ganze Trickserei ist besonders bei den neuen Topkarten eine absolute Frechheit. Sowohl die Nvidia 6800 Ultra als auch die Ati X800XT bieten in den meisten Anwendung ca. die doppelte Leistung der Vorgängerkarten.
Derzeit ist doch sowieso die CPU der absolute Flaschenhals, Oder warum sind sonst die unterschiede erst bei wahnsinnig feinen Auflösungen messbar?! Daher ist so viel "überflüssige" Füllrate vorhanden die locker ausreicht um lehrbuchhaftes, trilineares Filtering anzubieten, und das bei Frameraten die wirklich als flüßig bezeichnet werden können.
Man sollte die wahnsinnig hohe Leistung der heutigen Topkarten lieber in die Qualität stecken. Ob eine Karte wirklich trillinear bzw. ohne winkelabhängikeit filtert kann man glaub ich leichter erkennen, als den Unterschied zwischen 80 und 100 fps (ohne Framecounter)...
Sphinx
2004-05-17, 18:54:54
It´s not a cheat it´s a Feature. Wenn ich hier einige "Meinungen" hier höre ist´s wirklich lustig.
Inwieweit entwickelt sich die Spiele-Industrie und der technische Fortschritt der IHV´s ?
Wird dem GAU nicht vonjeher schon vorgelegt wie er zu Spielen hat ? LOW - Normal - HighEND Settings. Aber für diese Settings gibt´s nunmal unterschiedlich Interpretationen wie was wann auszuschauen hat bei jedem einzelnen.
Aha warum wird dem Temporal AA nicht ein Cheat nachgesagt ?
Denn da wird absichtlich und wissentlich dem Benutzer etwas Vorgetäuscht.
Diese Bri-lineare Optimierungen sind schon lange da. Es gibt da kein Maß welches eingehalten werden muss ob der Tri Anteil x% Beträgt under der Bi Anteil y%. Es ist den IHVs das Recht selbst darüber Herr zu sein wie sie ihren Optimierungseinwand in dieses ZwitterFeature zu investieren...
Omnicron
2004-05-17, 18:57:08
Original geschrieben von seahawk
Exakt. Der Treiber muss alle Einstellungen ermöglichen. Die Dinger sind heute so groß und voller unnützem Zeug (Shader bei ATI z.B.), dass Platz für die Einstellung der Filteroptimierung sein muss. Von mir aus in einem Expertenmodus, der nur auf besondern Wunsch freigeschaltet wird.
Jepp, anscheined muss heute jeder Treiber erst genau untersucht werden, und dann müssen sich die User selbst Tools/Hacks zusammenbauen damit sie volle Qualität bekommen.
Und das bei Grakas die diese Qualität locker in mehr als aktzeptabler Geschwindigkeit liefern können, und dementsprechend kosten.
Wo sind wir nur hingekommen. :bonk:
Brillus
2004-05-17, 19:08:24
Also wer mir hier erzählen will das er bi nicht sieht in Egoshootern der ist blind oder benutzt nur Wallhacks. Bei meiner vorherigen Graka hatte ich nur bi(ist schon paar jährchen her) und die Bugwelle hat EXTREM genervt, bwohl ich damals noch nicht wusste was es ist.
zu sachen Winkelabhänigkeit kann ich nicht sagen da ich ohne nicht kenne.
Bir kenne ich auch nicht also kann ich dazu auch nicht sagen.
aber ich finde es auch eine schweinerrei was die da treiben mit den Optimierungen.
mal warten wie es bei VIa damit aussieht vielleicht gibts dann als nächste Graka eine solche.
stickedy
2004-05-17, 19:24:31
Original geschrieben von Lokadamus
War einer dieser beiden anderen Grafikkartenhersteller (S3 oder VIA) mit ihren neuem Modell nicht tierisch auf die Schnauze gefallen, weil das Teil nur durch Treiberoptimierung lebt? Sobald es eine unbekannte Anwendung war, gab es schöne Einbrüche der FPS => wird vielleicht im nächsten Treiberupdate berücksichtig, na toll ...
XGI (ex-SiS) war das! S3/VIA hat sowas nicht nötig...
Original geschrieben von AYAlf
verzeihung ....
meine meinung dazu als gamer ist kurz und knapp.
ich glaube kaum, dass man einen grossen unterschied zwischen bi und trilinear bei shootern sehen kann. Seh ich auf Anhieb.
Original geschrieben von Eusti
Also jetzt sind wir doch mal ehrlich!!!
1) Eine Geforce4 hat GAR KEIN AA & AF (weil brutal zu langsam)Habe Max Payne 1 und 2 mit 2x AA, 8x AF gespielt.
Original geschrieben von Colin MacLaren
Nun ja.
Spellforce: 2xAA/8xAF: 44 fps
Spellforce: 2xAA/0xAF: 23 fps
Ich kann Dir gern Screenshots schicken ;) Du meinst, 1x AF. Und hast die fps-Zahlen vertauscht, oder?
Original geschrieben von Colin MacLaren
Wähle ich bei OGL im aTuner "aths recommendation" ist das bild deutlich verwaschener, als wenn ich z.B. 25% brilenear und mit "Performance" statt "High Performance" wie in Deiner Empfehlung spiele. MipMap-Wellen erkenn ich bei beiden Varianten keine. Du hast einen Bug gefunden. "High" sollte nur bis GF4 Ti gelten. Nächste Version wird ab FX auf "Quality" stellen.
Original geschrieben von Tigerchen
Wie gesagt aths. Mittlerweile kenne ich deine extremen Ansprüche und weiß auch was du so alles sehen willst. Verlange aber nicht von mir daß ich deine Erbsenzählerei gut finde. Und? Richtete ich mich an dich persönlich?
Sphinx
2004-05-17, 19:29:35
Nja das wollt ich eigentlich ,) schon vorher schreiben.
--
Lady´s and Gentlemen,
DIE SCHLAMMSCHLACHT hat begonnen.
--
Wie bei jeder neuen Generation und sich zu wiederholenden Geschichten álá 3dfx vs Nvidia.
Möge der bessere gewinnen ,)
Ich mach den Anfang : http://www.theinquirer.net/?article=15902
Jetzt geht es darum Kunden des anderen abzuwerben. Und lassen wir uns überraschen was noch alles aufgedeckt wird.
WIESO ist das Temporal AA kein Cheat ?
seahawk
2004-05-17, 19:31:08
Original geschrieben von Omnicron
Jepp, anscheined muss heute jeder Treiber erst genau untersucht werden, und dann müssen sich die User selbst Tools/Hacks zusammenbauen damit sie volle Qualität bekommen.
Und das bei Grakas die diese Qualität locker in mehr als aktzeptabler Geschwindigkeit liefern können, und dementsprechend kosten.
Wo sind wir nur hingekommen. :bonk:
Imho muss man folgendes aus der ganzen Sache lernen :
- Geschwindigkeit ist nicht alles (ich werde es beim nächsten Kauf wirklich berücksichtigen und nicht unbedingt die schnellste Karte kaufen)
- Jeder IHV will nur unser Bestes - unser Geld
- auch Low-End und Midrange-Karten müssen genauso intensiv getestet werden wie High-End-Karten
Im Endeffekt wird sich aber nichts ändern, solange bei 80% der Käufer noch Zeitungen wie Computerbild kaufentscheidend sind.
Eusti
2004-05-17, 19:47:26
Original geschrieben von aths
Habe Max Payne 1 und 2 mit 2x AA, 8x AF gespielt. MaxPayne 1 kann ich mich nicht mehr dran erinnern. Aber MaxPayne 2 läuft definitiv nur ohne AA&AF auf einer GF4 (hab ich selber getestet).
Wenn du das in 2xAA & 4xAF spielen konntest, haben wir beide ein komplett unterschiedliches empfinden von Qualität.
60fps+ sind für mich sofort GANZ DEUTLICH merkbar. Und mit AA&AF ruckelt sich Max Payne zu Tode.
Original geschrieben von Sphinx
Nja das wollt ich eigentlich ,) schon vorher schreiben.
--
Lady´s and Gentlemen,
DIE SCHLAMMSCHLACHT hat begonnen.
Ich mach den Anfang : http://www.theinquirer.net/?article=15902Wieso Schlammschlacht? Dem Mann gebe ich recht. NV40 ist als neue Architektur noch lange nicht am Anschlag, treibermäßig, während ATI schon jetzt mit maximaler Effizienz auffahren kann. Im Moment ist X800 schneller, das Blatt kann sich durchaus noch wenden.
Privat halte ich den NV40 für die absolut überlegene Architektur, selbst wenn R420 schneller bleiben sollte.
Original geschrieben von Eusti
MaxPayne 1 kann ich mich nicht mehr dran erinnern. Aber MaxPayne 2 läuft definitiv nur ohne AA&AF auf einer GF4 (hab ich selber getestet).
Wenn du das in 2xAA & 4xAF spielen konntest, haben wir beide ein komplett unterschiedliches empfinden von Qualität.2x AA, 8x "optimiertes" AF (8x auf Stage 0, 1x auf den anderen Stages.)
Geht problemlos. MP2 ist bei meiner schlappen CPU sogar irgendwie schneller gewesen.
Colin MacLaren
2004-05-17, 19:55:30
Original geschrieben von LovesuckZ
Sry, aber das ist bullshit. Maxqualitaet sollte ohne Hack oder externes Tool immer lieferbar sein. Nur weil einige sich nicht auskennen, heißt es noch lange nicht, dass diese nicht die Moeglichkeit haben dürfen, auf die Maxqualitaet zugreifen zu koennen, ohne sich irgendwo erkündigen zu müssen.
ich überlege gerade, was ich wohl machen würde, wenn ich mir ein Auto kaufe und später feststelle, dass die Geschwindigkeit, welche ich erreichte, nie die mir versprochende Maximalgeschwindigkeit wäre...
Transistoren aufgrund verschlechterter Filterung oder IQ zu sparen ist falsch. Leider haben einige dies in der Vergangenheit freudenschreiend akzeptiert...
Was der Massenmarkt will, ist nicht immer das richtige. Und hier haette man Aufklaerungsarbeit leisten müssen. Merke: Die Masse ist meisten dumm...
Du kannst anhand den Spieloptionen die Grafikqualitaet regeln.
Und ja, trilinear gehoert zu "hohen Details" und damit widersprichst du dir. Denn eine X800XT waere für dich mit "hohen Details" nie machbar, sie liefert keine trilineare Filterung!
Hack: Dann zieht jeder DAU den Slider nach rechts, wundert sich, daß es auf einmal so ruckelt und kauft sich keine Karte des Herstellers mehr.
Transistoren: Je mehr Transistoren, umso mehr Abwärme, umso mehr schrien dieselben hier auf, die niedrige Preise und/oder weniger Abwärme fordern.
Massenmarkt: Der Massenmarkt ist sicherlich dumm, aber die Masse der User würde, wenn Ihr Ihnen die Unterschiede anhand von Screenshots oder eingefärbten MipMaps zeigt, mit den Schgultern zucken und fragen, wo denn nun ingame der Unterschied sei/das Problem liegt.
Grafikqualität: Ich sprach von hohen, nicht von [/b]höchsten Details[/b]. Ich regel die Details soweit runter, wie ich ingame keine Unterschiede erkenne. Z.B. 24-Bit auf 16-Bit-Tiefenpuffer in ET, High statt Highest Particles in Far Cry ect. Da ich zwischen brilenar oder trilenar auch keine Unterschiede ausmachen kann, schließt das selbige Optimierung mit ein.
Original geschrieben von aths
Du hast einen Bug gefunden. "High" sollte nur bis GF4 Ti gelten. Nächste Version wird ab FX auf "Quality" stellen. Und schon gefixt :kicher: (Muss von .org geladen werden.)
Original geschrieben von Colin MacLaren
Ich regel die Details soweit runter, wie ich ingame keine Unterschiede erkenne. Z.B. 24-Bit auf 16-Bit-Tiefenpuffer in ET, High statt Highest Particles in Far Cry ect. Da ich zwischen brilenar oder trilenar auch keine Unterschiede ausmachen kann, schließt das selbige Optimierung mit ein. Bei Morrowind stört mich am meisten, dass dort nur bilinear gefiltert wird.
Tigerchen
2004-05-17, 20:00:44
Original geschrieben von aths
Und? Richtete ich mich an dich persönlich?
Natürlich tust du dies. Immer wieder. Oder quotest du nicht?
Brauchst dich also nicht zu wundern wenn ich dir persönlich Erbsenzählerei vorwerfe wenn du sich z.B. zu Behauptungen versteigst daß winkelabhängiges AF die Qualität unterm Strich verschlechtert anstatt die Filterqualität zu verbessern.
Aber was schreibe ich. Das ist eben dein Feldzug gegen Windmühlen.
Original geschrieben von aths
Bei Morrowind stört mich am meisten, dass dort nur bilinear gefiltert wird.
ohne rtool wäre ich bei manchen games beim af ziemlich aufgeschmissen...URU z.b. verwendet für die bodentextur oder teile davon eben nicht die trilinear gefilterte stage 0 --> extremst auffällige und nervige bugwelle
Mr. Lolman
2004-05-17, 20:07:17
Original geschrieben von aths
Im Moment ist X800 schneller, das Blatt kann sich durchaus noch wenden.
Privat halte ich den NV40 für die absolut überlegene Architektur, selbst wenn R420 schneller bleiben sollte.
Ist doch irgendwie eine ähnliche Situation wie 'damals' beim NV3x.
Original geschrieben von seahawk
Im Endeffekt wird sich aber nichts ändern, solange bei 80% der Käufer noch Zeitungen wie Computerbild kaufentscheidend sind.
Wieso nur Computerbild. Über ATIs Cheats haben doch in den letzten 15 Monate alle hinweggesehen. War einfach trendy. Bei Nvidia wurde jeder Treiber und selbst wenns ein Beta war bis zum Boden hin untersucht. Bei ATI hat man einfach mal angenommen das Control Pannel wird schon passen. Warum genau hinschauen. ATI machts schon richtig.
Bis auf 3dCenter und vielleicht Computerbase und eventuel hin und wieder PCGH kann sich jeder größere Reviewer diesen Schuh anziehen. Mit Computerbild hat das gar nix zu tun. Da waren bis auf die o.g. alle anderen kein Stück besser. Hat halt einfach nicht ins Bild gepasst, dass ausser Nvidia eine andere Firma genauso ein lausiger dreckiger Cheat Verein ist. Jetzt dürften einige klarer sehen.
Mr. Lolman
2004-05-17, 20:15:49
Original geschrieben von aths
Bei Morrowind stört mich am meisten, dass dort nur bilinear gefiltert wird.
Seltsam. Gerade Morrowind sollte (zumindestausserhalb der Städte) mit bi-AF passabel aussehen, da MW ein Spiel ist, bei sich dem die Texturen eher durch ihre Farbgebung (wie z.B. bei Rallisport Challenge) definiert sind als durch starke Kontraste, welche die einzelnen Mipmaps untereinander deutlich differieren lassen.
Bei Farcry zum Beispil kommt mir in Innenlevels mit bi-AF das Grausen (zumindest sobalds Bumpmaps gibt) bei Aussenlevel ists voll ok...
/EDIT:
Damits nicht falsch aufgefasst wird:
Ich bin entschieden gegen 'Optimierungen' beim AA/AF. Vorallem bei den neuen Highendchips find ichs armselig. Dass ATi mit ihrem Colormipmapbeschiss das jetzt noch zu vertuschen versucht, setzt dem Ganzen überhaupt die Krone auf. Mal sehen ob Borsti bei NV ähnliche Cheats entdeckt.
Wenn eine 9600 brilinear filtert, dann soll sie das. Solangs Performance bringt (aber bei Colormipmaps zu 'cheaten' ist wirklich zu verurteilen)
Ein paar Mal wurden schon Bedenken wegen Screenshot beschiss angedeutet: AFAIK gabs doch von irgendeinem IHV schon mal einen Beta(?)treiber, der 'Screenshots' aufnahm, die nicht dem Bildschirminhalt entsprachen.
Warum jetzt aber Temporal AA auch ein Beschiss sein soll, frag ich mich wirklich. Nicht ATi, sondern eure Augen, bescheissen euch. So ist das :D
Nein im Ernst: Bei 4x Temporal AA gibts ja ein theoretisches 4x4EER, zumindest solangs mehr als 60fps sind. Sobald die fps darunter sind gibts normales 4xAA. Ein Beschiss wäre es doch nur wenn beim 4x Temporal AA, über 60fps auf ein alternierendes 1x2 Grid gewechselt würde. (Was allerdings auch sinnfrei ist, da man nicht nochmehr fps bräuchte, mal abgesehen davon, dass ab einer Kamerabewegung von min. 30Pixel/sec, ein 2x alternierendes Grid nicht mehr die gleiche Qualität bringen kann wie ein doppelt so hoch aufgelöstes einfaches Grid)
Ihr geht euch hier ja ganz schön an die gurgel, schaut aber nie über euren Tellerand, das eben einige andere Anforderungen an die Grafik stellen als andere...
Als MMORPG Spieler bin ich mit 25fps zufrieden, ich muss ja nicht innerhalb von Millisekunden n Gegner erkennen, sonder kann die Grafik genießen, und da brauchs nunmal MAX AF und AA wenn möglich, sonst siehts echt arm aus.
DiepProfessionellen Shooterleute hingegen, die spielen sicher nicht mit max Grafik sondern schalten allen Firlefanz aus, damit sie was sehn. Wenn möglich wird wohl AF und AA aktiviert, aber es gibt ja FPS Grenzen die z.b. ein Q3 Spieler niemals unterschreitet (glaub 125fps sinds), weil er sonst daneben ballert, und es ihm zu langsam ist.
Also giftet euch net so an, sondern seht ein das der andere auch ein recht aus seine Meinung/Ansicht hat, und nich immer stur dagegen halten...
LovesuckZ
2004-05-17, 20:29:55
Original geschrieben von Colin MacLaren
Hack: Dann zieht jeder DAU den Slider nach rechts, wundert sich, daß es auf einmal so ruckelt und kauft sich keine Karte des Herstellers mehr.
Dann zieht er den Slider wieder nach links.
Unsinniges Argument.
Wenn mein Auto bei 200 Sachen nicht mehr zu halten ist, kaufe ich mir doch kein anderes, sondern fahre langsamer.
Transistoren: Je mehr Transistoren, umso mehr Abwärme, umso mehr schrien dieselben hier auf, die niedrige Preise und/oder weniger Abwärme fordern.
Wenn ich weniger Abwärme haben will, kaufe ich mir keine High End Karte. Wer 500€ für eine Karte ausgibt, wird auch das Geld für den Strom haben und möchte gleichzeitig auch volle Qualitaet.
Massenmarkt: Der Massenmarkt ist sicherlich dumm, aber die Masse der User würde, wenn Ihr Ihnen die Unterschiede anhand von Screenshots oder eingefärbten MipMaps zeigt, mit den Schgultern zucken und fragen, wo denn nun ingame der Unterschied sei/das Problem liegt.
Und hier ist die Aufklaerung gefragt.
Die meisten Leute werden auch in 95% aller Fälle keinen Unterschied zwischen FP16 und FP24 sehen, das bedeutet aber gleichzeitig nicht, dass man nun FP16 durchweg verwenden dürfe.
Grafikqualität: Ich sprach von hohen, nicht von [/b]höchsten Details[/b]. Ich regel die Details soweit runter, wie ich ingame keine Unterschiede erkenne. Z.B. 24-Bit auf 16-Bit-Tiefenpuffer in ET, High statt Highest Particles in Far Cry ect. Da ich zwischen brilenar oder trilenar auch keine Unterschiede ausmachen kann, schließt das selbige Optimierung mit ein.
Trilinear zieht ohne AF so wenig Leistung auf heutigen Karten, dass es keinen Sinn macht, es nicht immer zu verwenden.
Trilinear beim AF "wegzunehmen" widerspricht der Bedeutung vom AF, denn es ist ein Qualitaetsfeature. Jegliche Optimierung ohne den User die Wahl zu lassen ist kontraproduktiv.
Tigerchen
2004-05-17, 20:32:26
Original geschrieben von Gast
ohne rtool wäre ich bei manchen games beim af ziemlich aufgeschmissen...URU z.b. verwendet für die bodentextur oder teile davon eben nicht die trilinear gefilterte stage 0 --> extremst auffällige und nervige bugwelle
DAS nenne ich auffällige schlechte Qualität! Das ist wirklich wahr!
Wenn ich weniger Abwärme haben will, kaufe ich mir keine High End Karte. Wer 500€ für eine Karte ausgibt, wird auch das Geld für den Strom haben und möchte gleichzeitig auch volle Qualitaet.
Ja, aber die Lautstärke des Lüfters möchte man auch nicht haben.
Und hier ist die Aufklaerung gefragt.
Die meisten Leute werden auch in 95% aller Fälle keinen Unterschied zwischen FP16 und FP24 sehen, das bedeutet aber gleichzeitig nicht, dass man nun FP16 durchweg verwenden dürfe.
Nö. Abnehmender Ertrag... FP16 ist deutlich schlechter als F24, FP32 bringt aber nicht viel mehr als FP24.
LovesuckZ
2004-05-17, 20:45:13
Original geschrieben von Coda
Ja, aber die Lautstärke des Lüfters möchte man auch nicht haben.
Wasserkühlung :)
Nein, es gibt eben auch mehr als nur eine Kühllösung auf dieser Welt.
Nö. Abnehmender Betrag... FP16 ist deutlich schlechter als F24, FP32 bringt aber nicht viel mehr als FP24.
Die Fehler sind aber nicht immer so deutlich sichtbar wie in farcry.
Original geschrieben von Tigerchen
Natürlich tust du dies. Immer wieder. Oder quotest du nicht? Du wirst es auf Prinzip nicht verstehen wollen, aber faktisch falsche Dinge möchte um der anderen willen so nicht stehen lassen :)
Original geschrieben von Mr. Lolman
Seltsam. Gerade Morrowind sollte (zumindestausserhalb der Städte) mit bi-AF passabel aussehen, da MW ein Spiel ist, bei sich dem die Texturen eher durch ihre Farbgebung (wie z.B. bei Rallisport Challenge) definiert sind als durch starke Kontraste, welche die einzelnen Mipmaps untereinander deutlich differieren lassen.Mich stört es trotzdem.
ShadowXX
2004-05-17, 20:55:05
Original geschrieben von Sphinx
WIESO ist das Temporal AA kein Cheat ?
Wenn ATI ihr 4xT AA als echtes 8xAA verkaufen würde, ohne zu erwähnen wie dies zustandekommt, dann wäre es beschiss (oder von mir aus auch ein cheat).
So, wie sie es anbieten, ist es eine Option, bei der Sie auch offen gelegt haben. wie es funktioniert.
Ausserdem wirst du nicht gezwungen T-AA zu benutzen.
Analogie:
Wenn nv/ATI Bri als Standarteinstellung vorgeben, aber gleichzeitig einen Full-Tri Schalter anbieten, wäre es auch wieder in Ordnung...dann würde auch keiner den Bri-Filter als cheat bezeichnen, sondern nur als Optimierungsmöglichkeit....
Tesseract
2004-05-17, 20:56:52
Original geschrieben von Mr. Lolman
Warum jetzt aber Temporal AA auch ein Beschiss sein soll, frag ich mich wirklich. Nicht ATi, sondern eure Augen, bescheissen euch. So ist das :D
beschiss ist es dann, wenn ATI zB das 2xT2 als 4x oder das 6xT3 als 18x "verkaufen" würde (wenn es dann offiziell im treiber ist)
weil es das einfach nicht ist, genau so wie Bri kein Tri ist (auch wenn es manchmal so scheinen mag)
aber da es sowieso optional bleiben wird sehe ich kein problem damit
@ShadowXX: kannst du gedanken lesen? :D
Original geschrieben von LovesuckZ
Deine RV350 Karte filtert nicht trilinear, auch wenn du es einstellst :) Das kontrolliere ich noch.
Original geschrieben von Demirug
Ja, bei der 9600 gibt es auch nur Brilinear. Das Band ist dort sogar noch etwas breiter als bei der X800. Und das ist mir nicht aufgefallen? :kratz: Gut, intensiv spielte ich nicht, dennoch ... das prüfe ich noch nach.
ShadowXX
2004-05-17, 21:04:50
Original geschrieben von Tesseract
@ShadowXX: kannst du gedanken lesen? :D
Nur Montags...da lassen Sie mich immer raus aus diesem komischen Institut mit den vielen Wachtürmen;D ;D
Original geschrieben von ShadowXX
Analogie:
Wenn nv/ATI Bri als StandarteinstellungStandardeinstellung. Standard mit d hinten, bitte. Danke.
Original geschrieben von ShadowXX
vorgeben, aber gleichzeitig einen Full-Tri Schalter anbieten, wäre es auch wieder in Ordnung...dann würde auch keiner den Bri-Filter als cheat bezeichnen, sondern nur als Optimierungsmöglichkeit.... Als Option ist der "adaptiv trilineare" Filter hochwillkommen. Je nach dem wie sensibel der Spieler bzw. wie die Texturen im Spiel sind, eliminiert man die scharfen MIP-Bänder, aber hat höhere Performance als bei echtem TF.
Original geschrieben von Mr. Lolman
Ist doch irgendwie eine ähnliche Situation wie 'damals' beim NV3x. Finde ich nicht. NV30 hat zwar bei weitem bessere Shaderfeatures als R420, aber die DX9-Leistung ist beim NV30 einfach beschämend niedrig. NV40 hat noch bessere Shaderfeatures (und vieles mehr) aber auch die Leistung. Abgesehen davon, dass nur der "optimierte" AF-Algo drin ist, finde ich die NV40-Architektur exzellent. Warum und wieso, da müsste ich etwas weiter ausholen.
AYAlf
2004-05-17, 21:18:37
Original geschrieben von Colin MacLaren
Massenmarkt: Der Massenmarkt ist sicherlich dumm, aber die Masse der User würde, wenn Ihr Ihnen die Unterschiede anhand von Screenshots oder eingefärbten MipMaps zeigt, mit den Schgultern zucken und fragen, wo denn nun ingame der Unterschied sei/das Problem liegt.
Grafikqualität: Ich sprach von hohen, nicht von höchsten Details. Ich regel die Details soweit runter, wie ich ingame keine Unterschiede erkenne. Z.B. 24-Bit auf 16-Bit-Tiefenpuffer in ET, High statt Highest Particles in Far Cry ect. Da ich zwischen brilenar oder trilenar auch keine Unterschiede ausmachen kann, schließt das selbige Optimierung mit ein.
ich gebe dir recht, dass die masse und fast alle gamer mit der schulter zucken wuerden (aber die sind nicht dumm) ... weil es keine sau interessiert. es interssiert nur, wenn ich hohe detailstufen einstelle kann und af und aa und dadurch nicht gravierend an performenz verliere. ich hatte es schon mal erwaehnt .. aber ich werde nicht muede es immer wieder zu betonen. es ist voellig egal wie die karten zu qualitaet und geschwindigkeit kommen. aber der kunde will alles auf einmal haben. und nicht voneinander getrennt (wie bei den nvidia boliden). darum hat ja nvidia aus seinen fehlern gelernt und endlich einen fast ebenbuertigen chip entwickeln koennen, den 6800er! wenn es mal einen kontest gibt, diashow mit schoener grafik, wird sich bestimmt ein chiphersteller erweichen lassen und eine solche karte bauen.
Winter[Raven]
2004-05-17, 21:24:33
Ist doch irgendwie eine ähnliche Situation wie 'damals' beim NV3x.
Also wenn ich mir das mal "Anschau": http://www.pcekspert.com/articles/211-20.html
Dann hat Aths aber mehr als recht ... der NV40 hat bessere Features und eine ungluabnliche Pixelperfotmace. Die man mit den kommenden Treibern noch zusteigern gibt.
Anders gesagt, Nvidia hat mit bravur ihre hausaufgaben gemacht, was man aber von ATi nicht sagen kann.
dildo4u
2004-05-17, 21:33:11
Original geschrieben von Winter[Raven]
Also wenn ich mir das mal "Anschau": http://www.pcekspert.com/articles/211-20.html
Dann hat Aths aber mehr als recht ... der NV40 hat bessere Features und eine ungluabnliche Pixelperfotmace. Die man mit den kommenden Treibern noch zusteigern gibt.
Anders gesagt, Nvidia hat mit bravur ihre hausaufgaben gemacht, was man aber von ATi nicht sagen kann. zu den benchmark dir is schon klar das da ATIs top karte fehlt
seahawk
2004-05-17, 21:36:29
Original geschrieben von Gast
Wieso nur Computerbild. Über ATIs Cheats haben doch in den letzten 15 Monate alle hinweggesehen. War einfach trendy. Bei Nvidia wurde jeder Treiber und selbst wenns ein Beta war bis zum Boden hin untersucht. Bei ATI hat man einfach mal angenommen das Control Pannel wird schon passen. Warum genau hinschauen. ATI machts schon richtig.
Bis auf 3dCenter und vielleicht Computerbase und eventuel hin und wieder PCGH kann sich jeder größere Reviewer diesen Schuh anziehen. Mit Computerbild hat das gar nix zu tun. Da waren bis auf die o.g. alle anderen kein Stück besser. Hat halt einfach nicht ins Bild gepasst, dass ausser Nvidia eine andere Firma genauso ein lausiger dreckiger Cheat Verein ist. Jetzt dürften einige klarer sehen.
Absolut. ATI war seit dem R300 en vogue, NV war der Bösewicht.
LovesuckZ
2004-05-17, 21:37:16
Im Rahmen des ATI Technology Day, der am heutigen Tage in den Räumlichkeiten der Games Academy abgehalten wurde, konnten wir kurz ein paar Worte mit Richard Huddy, dem Chef der europäischen Developer Relations, austauschen. [...] Alle cheaten.” lautete seine erste Reaktion in Bezug auf das Problem der Branche allgemein, die zum einen ehrlich ist und in der Form vermutlich nicht von der Pressestelle gekommen wäre. Sie will aber auch als kleine Rechtfertigung verstanden werden. (http://www.computerbase.de/news/hardware/grafikkarten/ati/2004/mai/erstes_statement_ati_texturfilter/)
Computerbase.de
Geile Erklaerung...
seahawk
2004-05-17, 21:39:22
Ui, so ein Kommentar von einen NV Offiziellen und das Forum würde durchdrehen. Ich kann mir schon die üblichen Verdächtigen vorstellen, wie sie hier über NV herziehen würden.
Winter[Raven]
2004-05-17, 21:42:30
Original geschrieben von dildo4u
zu den benchmark dir is schon klar das da ATIs top karte fehlt
Und? Der NV40 wäre immer noch an der Spitze :P.
Bei DX9 wäre sie näher, aber glaubst du bei Open GL schafft es die XT das > 2.5x Fache zuerreichen?
ich will nicht wissen, was du Nachts träumst.
@ CB Interview.
Also cheatet ATI, anders kann man das "Alle cheaten" nicht interpretieren.
ShadowXX
2004-05-17, 21:52:29
Original geschrieben von Winter[Raven]
Und? Der NV40 wäre immer noch an der Spitze :P.
Bei DX9 wäre sie näher, aber glaubst du bei Open GL schafft es die XT das > 2.5x Fache zuerreichen?
ich will nicht wissen, was du Nachts träumst.
@ CB Interview.
Also cheatet ATI, anders kann man das "Alle cheaten" nicht interpretieren.
Du solltest dir mal den ganzen Text angucken....dann relativert es sich etwas...LS hat etwas "unglücklich" rausgeschnitten (IMHO).
Das "cheaten" ist wesentlich allgemeiner von Ihm gemeint....
Das soll das ganze jetzt aber nicht rechtfertigen...
LovesuckZ
2004-05-17, 21:56:58
Nun, er sieht das Problem der Branche und beschreibt dieses in zwei Worten „Alle cheaten”.
Das ist eindeutig, denn dadurch nimmt sich ATi das Recht heraus ebenfalls die Branche ein Stueckchen in den Abgrund zu stuerzen...
Quasar
2004-05-17, 21:58:15
Original geschrieben von dildo4u
zu den benchmark dir is schon klar das da ATIs top karte fehlt
nVidias Top-Karte fehlt auch - so what?
Original geschrieben von Winter[Raven]
Und? Der NV40 wäre immer noch an der Spitze :P.
Bei DX9 wäre sie näher, aber glaubst du bei Open GL schafft es die XT das > 2.5x Fache zuerreichen?
ich will nicht wissen, was du Nachts träumst.
@ CB Interview.
Also cheatet ATI, anders kann man das "Alle cheaten" nicht interpretieren.
Hör doch auf für die NV40 Werbung zu machen, du möchtest dir die Karte kaufen, also kauf sie ;) Kein Bock dass hier wieder diese Schwachsinnsdiskussionen losgehen (von wegen SM3.0 und so). Das war jetzt schon 5x oder so in sich ständig im Kreis drehenden Resultaten. Über Geschmack lässt sich nicht streiten. Wieviel sich da noch ergibt, werden wir in der Praxis sehen, keinen deut vorher.
Es ist bekloppt überhaupt was anderes als trilinear überhaupt anzubieten bei den neuen Karten. Von mir aus können die Bilinear, brilinear ins Museum stellen und da vorrotten lassen. Diese "Optimierungen" sind bei der Speed der Karten absolut UNNÖTIG. Man ist ja nicht GEZWUNGEN mit AA/AF ztu spielen. Wenn was zu langsam wird, dreht man nen Gang runter, wie immer. Mehr als 4x AF einzustellen bei ATI/NV40 ist sowieso Blödsinn weil es die BQ eher verschlechtert (durch das unnatürliche Verhalten).
Ich käme bei meiner Karte niemals auf die Idee überhaupt bilinear zu nutzen, weil es eben komplett scheisse aussieht, und zwar bei 90% der in den Spielen verwendeten Texturen.
Einzig und allein Trilinear ist akzeptabel, im Optimalfall mit AF.
Bei Mainstream/LowEnd finde ich brilinear eine klasse Entwicklung, weil man hier wirklich auf die Speed angewiesen ist. Hier stellt es einen brauchbaren Kompromiss dar. Das würde ich mir zwar trotzdem nicht kaufen, aber akzeptieren.
Es gibt nur eine wirkliche Lösung, die das Probelm leicht lösen werden: TriTMUs.
dildo4u
2004-05-17, 22:02:40
Original geschrieben von Quasar
nVidias Top-Karte fehlt auch - so what? hä? 6800U 499$ X800XT499$ direkte konkurenz ATI braucht dank genialem Hi Quality AF keine von haus aus übertaktete Version ihres top modells
Es gibt nur eine wirkliche Lösung, die das Probelm leicht lösen werden: TriTMUs.
Da müsste aber einer der großen IHVs erstmal S3 aufkaufen um an die nötigen Patente zu kommen.
Exxtreme
2004-05-17, 22:09:01
Original geschrieben von Coda
Da müsste aber einer der großen IHVs erstmal S3 aufkaufen um an die nötigen Patente zu kommen.
Seit wann sind Tri-TMUs denn patentiert? :???:
Winter[Raven]
2004-05-17, 22:09:46
Hör doch auf für die NV40 Werbung zu machen, du möchtest dir die Karte kaufen, also kauf sie Kein Bock dass hier wieder diese Schwachsinnsdiskussionen losgehen (von wegen SM3.0 und so).
Wat ist los? Ich mache weder Werbung für ATI noch will ich die Shader 3.0 Diskussion vom neuen brechen.
Es ist nunmal eine Tasache, dass Nvidia mächtig aufgeholt hat was die Performace angeht, und daran gibt's nix zurüteln.
Quasar
2004-05-17, 22:10:11
Original geschrieben von dildo4u
hä? 6800U 499$ X800XT499$ direkte konkurenz ATI braucht dank genialem Hi Quality AF keine von haus aus übertaktete Version ihres top modells
Deswegen fehlt also die XT hier? ;)
Brillus
2004-05-17, 22:13:44
Hatte der Geforce 1 nicht sogar Tri-TUMs?
Tesseract
2004-05-17, 22:14:36
Original geschrieben von Brillus
Hatte der Geforce 1 nicht sogar Tri-TUMs?
afaik ja
Original geschrieben von Mr. Lolman
Ist doch irgendwie eine ähnliche Situation wie 'damals' beim NV3x.
Naja Mr. Lolmann,
Überlegen würde ich den NV40 nicht nennen!!!
PS: Kauf dir einen !!! *gggg*
Original geschrieben von Brillus
Hatte der Geforce 1 nicht sogar Tri-TUMs?
Definitiv nein. Die hatte 4 Renderingpipes mit je einer bilinear ausgelegten TMU.
S3 hat schon seit je her (Savage3D) TriTMUs. Allerdings sind das immer Sparversionen gewesen, sodass singel-cycle trilinear bei S3 nie sonderlich gut aussah.
Erst bei Deltacrome werden TriTMUs mit sher guter Qualität verwendet.
dildo4u
2004-05-17, 22:20:35
Original geschrieben von Quasar
Deswegen fehlt also die XT hier? ;)
http://homepage.ntlworld.com/susan.poole2/nocheatATi.jpg
So meine X800pro ist bestellt K&M liefert am 27.5 aus von Nvidias 6800GT weit und breit nix zu sehn schade *eg* eigentlich
Exxtreme
2004-05-17, 22:21:29
Original geschrieben von HOT
Definitiv nein. Die hatte 4 Renderingpipes mit je einer bilinear ausgelegten TMU.
Also ich habe es auch so in Erinnerung, daß die GF1 Tri-TMUs hatte. :|
*malwieder3dconceptdurchstöber*
Original geschrieben von dildo4u
http://homepage.ntlworld.com/susan.poole2/nocheatATi.jpg
[...]
:rofl: :lol:
Sphinx
2004-05-17, 22:22:28
Die ganze Diskussion ist eh schon lange abgekaut das es hier Grundsätzlich zu einem Fanboy´ismus augeartet ist.
Ich sehe die Sache so locker wie ich es nunmal auch in der Praxis handhabe und kaufe mir für das 3/4 Jahr ne x800Pro da sie für mich Subjectiv die bessere Performance (FPS) und Qualität (Temp.AA) (im Zusammenspiel) bietet als eine GF68ooU...
Und für 380 Euro - die ~2 Fache Performance meiner R97ooPro ist gewaltig als Übergangslösung ins PCI-E Zeitalter...
Edit das fehlte :
Was andre sich kaufen oder meinen kaufen zu müssen. Interressiert hier zu 99.99% die allerwenigsten und mich zu 100% reingarnicht. Wenn ich was will - kauf ich es mir und muß nicht in irgendeiner Form Rechtfertigen weswegen ich mich dafür Entscheide. Jeder hat ander Vorlieben und Schwerpunkte für seine Entscheidung.
LovesuckZ
2004-05-17, 22:24:57
Original geschrieben von Sphinx
Ich sehe die Sache so locker wie ich es nunmal auch in der Praxis handhabe und kaufe mir für das 3/4 Jahr ne x800Pro da sie für mich Subjectiv die bessere Performance (FPS) und Qualität (Temp.AA) (im Zusammenspiel) bietet als eine GF68ooU...
Oehm, bessere Performance? Nein.
Qualitaet? Ja, ohne AF. Da du Temp. AA herausstellst, erledigt sich der performanceaspekt ja von alleine *eg*
Demirug
2004-05-17, 22:25:29
Original geschrieben von Exxtreme
Seit wann sind Tri-TMUs denn patentiert? :???:
Es gibt Patentschriften dazu. Aber frag mich jetzt nicht ob die schon durch sind. nVidia hat aber neben S3 auch ein Patent auf TRI-TMUs angemeldet.
Tesseract
2004-05-17, 22:30:08
Original geschrieben von HOT
Definitiv nein. Die hatte 4 Renderingpipes mit je einer bilinear ausgelegten TMU
jedenfalls gab es schon mal (öfters?) spekulationen drüber
ganz geklärt is es scheinbar bis heute nicht...
Sphinx
2004-05-17, 22:31:05
Original geschrieben von LovesuckZ
Oehm, bessere Performance? Nein.
Qualitaet? Ja, ohne AF. Da du Temp. AA herausstellst, erledigt sich der performanceaspekt ja von alleine *eg*
Lovesucks dir und allen anderen steht es frei sich das zukaufen wofür er Geld hat.
Muss ich jemandem Rechenschaft leisten weswegen ich mir damals z.B. eine R97ooPro gegönnt habe - Nö... Hab ich es bereut - Nö...
Edited :
Eine x800Pro ist schnell in dieser Preisklasse. Das willst du doch wohl nicht in Frage stellen wollen ?
Und an dieser Art von Schlammschlachten habe ich langsam aber Satt. PS: Die Schlammschlacht Ati vs Nvidia beginnt erst...
Winter[Raven]
2004-05-17, 22:36:25
Es gibt nur eine wirkliche Lösung, die das Probelm leicht lösen werden: TriTMUs.
Kann man vergessen ... ATi und Nvidia werdne sicherlich wieder Wäge finden um rumzucheaten ... :(
Die sinnvollere Methode wäre wohl die Vorgaben so fest zumachen das man einfach nicht mehr zum Cheaten kommt.
Merlin31
2004-05-17, 22:38:06
wenn so etwas im Web und evtl. in der Presse als Skandal aufgebauscht wird.
Denn sonst fängt am Ende gar noch ein Wettbewerb an, wer kann den besten Cheat-Treiber entwickeln und wie übertrieben gesagt eine BQ einer CGA Karte haben, aber Hauptsache der Benchmark stimmt.
Diese Teufels Spirale ist ja eigentlich schon voll im Gange.
NV fing damals mit der Treiber Cheaterei an, ATI antworte
Hardware seitig darauf. NV bringt das Bril. Filtern zum Vorschein und ATI hat jetzt wiederum darauf geantwortet.
Was kommt als nächstes müssen wir uns wieder mit 16 Bit zufrieden geben.
Ne, ne :-(
Ich finde hier muss langsam ein Zeichen gesetzt werden, das es so nicht weiter gehen darf.
Shodan Veritas
2004-05-17, 22:48:48
Nvidia und ATI werden bald gemeinsam eine revolutionäre Textursamplingtechnologie wiedereinführen:
Point Sampling!
Wie der Name schon sagt eignet es sich perfekt, um die Leistungsnachteile komplexer Pixel Shader auszugleichen.
Damit wird man :freak:s wie S3 mit ihren leistungsfressenden komischen triTMUs endgültig im Staub stehen lassen! Welcher Pro-Gamer würde schon auf eine vierstellige Framerate verzichten...
Wer Sarkasmus findet darf ihn behalten.
Original geschrieben von Brillus
Hatte der Geforce 1 nicht sogar Tri-TUMs? Ja. Haben sie ab GF2 aufgespalten, weil man häufiger doch mal nur bilineare TMUs braucht.
Radeonator
2004-05-17, 23:01:08
AA / FSAA nutze ich seit Savage4 Zeiten (Line&Edge AA-> AFAIK )
Sehr gut spielbar seit radeon8500(allerdings nur 2x), Voodoo3000 und GF3
Mr. Lolman
2004-05-17, 23:09:08
Original geschrieben von Gast
das stimmt nicht lieber Lovesuck,
...
Entweder ist die BQ durch TempAA besser bei gleicher Geschwindigkeit, oder sie ist (im optimalfall) gleich gut bei besserer Geschwindigkeit.
Besser beides geht nur mit VERDAMMT VIEL HZ...
(für die x3T Modi)
Edit by Thowe: Quote angepasst
Mr. Lolman
2004-05-17, 23:09:57
Original geschrieben von aths
Finde ich nicht.
Ich ja auch nicht, aber:
Im Moment ist R300 schneller, das Blatt kann sich durchaus noch wenden.
Privat halte ich den NV30 für die absolut überlegene Architektur, selbst wenn R300 schneller bleiben sollte.
Klingt ja irgenwie bekannt :naughty:
Im Übrigen halte ich den NV40 shadertechnisch auch für überlegen. Insgesamt bietet ATi m.E. immernoch das rundere Gesamtkonzept, da NV immernochnicht jeder Shader zu schmecken scheint. Umgekehr hab ich es bisher noch nicht erlebt. (auch wenns sicher kein Problem wäre, 'atifeindliche' Shader zu basteln)
Aber warten wir mal ab, wie sich die Treiber noch entwickeln. Momentan ist ja ohnehin einiges im Argen...
/3|>I7: |23<|-|75c|-||24IB00|\|6
Demirug
2004-05-17, 23:12:35
Original geschrieben von Mr. Lolman
Im übrigen halte ich den NV40 shadertechnisch auch für überlegen. Insgesamt bietet ATi m.E. immernoch das rundere Gesamtkonzept, da NV immernochnicht jeder Shader zu schmecken scheint. Umgekehr hab ich es bisher noch nicht erlebt. (auch wenns sicher kein Problem wäre, 'atifeindliche' Shader zu basteln)
Die gibt es (sogar in echten Spielen). Ich müsste nur mal die grosse Liste laden.
Quasar
2004-05-17, 23:16:09
Spellforce?
Sphinx
2004-05-17, 23:17:39
Original geschrieben von Mr. Lolman
Entweder ist die BQ durch TempAA besser bei gleicher Geschwindigkeit, oder sie ist (im optimalfall) gleich gut bei besserer Geschwindigkeit.
Die bessere BQ wird ja nur VORGETÄUSCHT... wie Gut hängt von jedem selbst ab was er rein subjectiv empfindet und so ist es auch mit dem BriAF.
Mr. Lolman
2004-05-17, 23:18:51
Original geschrieben von Demirug
Die gibt es (sogar in echten Spielen). Ich müsste nur mal die grosse Liste laden.
War ja auch zu erwarten ;). Nur ist [i]scheinbar, momentan[i] NV noch etwas im Hintertreffen. Tatsächlich sind beide IHV geschwindigkeitsmässig so nah beinander, dass eher 'Features' (;D) wie ordentliches AF, oder möglichst 'wenig'* Cheats bei Benchmarks für eine Kaufentscheidung eher ausschlaggebend wirken würden. (bei mir zumindest)
*man verlangt ja nix unmenschliches :asshole:
Demirug
2004-05-17, 23:18:55
Original geschrieben von Quasar
Spellforce?
IIRC war dort nur einer dabei und der war gar nicht mal so heftig. Ich schaue morgen mal in der Liste nach.
Mr. Lolman
2004-05-17, 23:26:11
Original geschrieben von Sphinx
Die bessere BQ wird ja nur VORGETÄUSCHT... wie Gut hängt von jedem selbst ab was er rein subjectiv empfindet und so ist es auch mit dem BriAF.
Sicha, aber irgedwann macht sogar das Beste Auge schlapp. Schlimmstenfalls muss halt ein 130kHz 19" Monitor her ;)
Aber von der Definition her ist eigentlich schon ein Cheat. Nur ist das Wort schon so negativ behaftet, so dass ich im Zusammenhang mit Temp AA nicht von einem Cheat sprechen würde.
Sphinx
2004-05-17, 23:49:18
Original geschrieben von Mr. Lolman
Sicha, aber irgedwann macht sogar das Beste Auge schlapp. Schlimmstenfalls muss halt ein 130kHz 19" Monitor her ;)
Aber von der Definition her ist eigentlich schon ein Cheat. Nur ist das Wort schon so negativ behaftet, so dass ich im Zusammenhang mit Temp AA nicht von einem Cheat sprechen würde.
Natürlich ist es ein Cheat. ^^ ,) in gewisserweise . Da ATI ein besseres AA Vortäuscht als das es real ist.
Genauso das ganze gehype um BriAF vs TriAF...
Ich kann mit dem Leben - was ich zur Zeit geboten bekomme und freue mich bald doch endlich mal auf PCI-E umzusteigen und dann in aller Ruhe mein CMS System zu vermarkten und in aller Ruhe GuildWars zu spielen...
Original geschrieben von Mr. Lolman
War ja auch zu erwarten ;). Nur ist [i]scheinbar, momentan[i] NV noch etwas im Hintertreffen. Tatsächlich sind beide IHV geschwindigkeitsmässig so nah beinander, dass eher 'Features' (;D) wie ordentliches AF, oder möglichst 'wenig'* Cheats bei Benchmarks für eine Kaufentscheidung eher ausschlaggebend wirken würden. (bei mir zumindest)
*man verlangt ja nix unmenschliches :asshole:
Wenig Cheats!!!
Da steht bei mir NV ganz oben auf der Liste, aber egal!
Ich kaufe mir niemals einen Stromfresser der überhaupt kein QUALI-AF bietet!
Original geschrieben von Sphinx
Natürlich ist es ein Cheat. ^^ ,) in gewisserweise . Da ATI ein besseres AA Vortäuscht als das es real ist.
Genauso das ganze gehype um BriAF vs TriAF...
Ich kann mit dem Leben - was ich zur Zeit geboten bekomme und freue mich bald doch endlich mal auf PCI-E umzusteigen und dann in aller Ruhe mein CMS System zu vermarkten und in aller Ruhe GuildWars zu spielen...
Ohne offiz. Stellungsnahme von ATI wäre ich da VORSICHTIG einen SCHNELL-SCHUSS "CHEAT" zu machen.
Letztendlich haben wir bisher erst eine Seite gehört (Computerbase, OW und S.P., ich bin mal gespannt was die sagen!
Sphinx
2004-05-18, 00:27:28
Original geschrieben von Gast
Ohne offiz. Stellungsnahme von ATI wäre ich da VORSICHTIG einen SCHNELL-SCHUSS "CHEAT" zu machen.
Letztendlich haben wir bisher erst eine Seite gehört (Computerbase, OW und S.P., ich bin mal gespannt was die sagen!
Lieber Gast - das Wort Cheat bezog ich auf das TempAA welches uns nur ein besseres AA vortäuscht welches du anhand von Scrennshots nicht erkennst...
Ironie...
Winter[Raven]
2004-05-18, 00:28:59
Original geschrieben von Gast
Ohne offiz. Stellungsnahme von ATI wäre ich da VORSICHTIG einen SCHNELL-SCHUSS "CHEAT" zu machen.
Letztendlich haben wir bisher erst eine Seite gehört (Computerbase, OW und S.P., ich bin mal gespannt was die sagen!
Tjö ... also laut John Carmack ist es ein CHEAT :P.
This is indeed a "cheat" that both major vendors now do. Instead of always
sampling the two adjacent mip map levels and doing a full blend between
them, they have plateaus where only a single mip level is sampled, reducing
the average samples from 8 to about 6.
It is actually a pretty sensible performance enhancement, with minimal
visual issues. However, having drivers analyze mip map uploads to hide the
cheat is an unfortunate consequence.
The colored mip map option in Q3 should have absolutely zero performance
impact in the absense of performance options like this.
THX und Quoted @ Borsti :)
Tja,
warum hat John dann bei der 9800XT nichts gesagt, da fing das ja an!!!! und bei der 9600XT war der Schalter im Treiber ja noch drin.
Einfach den 3.2 Catalyst mal saugen und gucken!!!
Komisch ist das schon mit dem John, meiner Meinung ist es kein Cheat, weil kein Betrug vorliegt, es wird ja nichts schlechter in der Bildqualität.
Quasar
2004-05-18, 00:32:24
Original geschrieben von Gast
Letztendlich haben wir bisher erst eine Seite gehört (Computerbase, OW und S.P., ich bin mal gespannt was die sagen!
Lieber Gast, ows und Stefan Paynes Meinung haben damit nichts zu tun - und ich kenne sie diesbezüglich auch nicht. Sie wurden nur genannt, weil einige ihrer Postings hier mich zum Nachdenken über diese Sache anregten.
Quasar
2004-05-18, 00:33:54
Original geschrieben von Gast
Tja,
warum hat John dann bei der 9800XT nichts gesagt, da fing das ja an!!!! und bei der 9600XT war der Schalter im Treiber ja noch drin.
Einfach den 3.2 Catalyst mal saugen und gucken!!!
Komisch ist das schon mit dem John, meiner Meinung ist es kein Cheat, weil kein Betrug vorliegt, es wird ja nichts schlechter in der Bildqualität.
Was fing mit der 9800XT an? Die Textur-Stage Optimierung kam schon mit der 9800p - danach war nichts mehr und die R3xx Chips bringen eben im Gegensatz zu RV3xx und R420 noch volle Qualität.
Sphinx
2004-05-18, 00:34:21
"This is indeed a "cheat" that both major vendors now do."
Und nu ? Beide Cheaten auf ihre Art und Weise wie es ihnen passt...
Winter[Raven]
2004-05-18, 00:34:55
warum hat John dann bei der 9800XT nichts gesagt, da fing das ja an!!!! und bei der 9600XT war der Schalter im Treiber ja noch drin.
Wer lesen kann ist klar im Vorteil!
R300-350-360 ala Radeon 9700, 9800, 9800XT besitzen nicht die nötige Hardware um dieses Cheats auszuführen!
Die RVxx Reihe aber schon, genauso wie die R420 Reihe.
AYAlf
2004-05-18, 00:37:08
Original geschrieben von Winter[Raven]
Tjö ... also laut John Carmack ist es ein CHEAT :P.
THX und Quoted @ Borsti :)
musste ja von nem nv fanboy kommen .. gelle? :asshole:
so unqualifizierte kommentare sind wir ja von dir schon gewohnt. john c. kann schlecht sagen, dass die nv eine schlechte, ueberdimensionierte, viel zu laute, viel zu viel energie schluckende karte ist. er steckt bis zu den fuessen im a... von nvidia. hier geht es um macht, hier geht es um wirtschaftliches vorankommen. ich wuerde auch die konkurenzprodukte einer anderen firma schlecht machen, wenn ich dafuer geld bekomme. ;D
ps: vielen dank fuer deinen kommentar winter
psps: und wenn john c. sagen wuerde spring von der bruecke .. dann wuerde winter springen.
Warum hast du Richard so aussehen lassen in deinem NEUEN Update als das er den Vorwurf billigt, weil ja alle CHEATEN!
Er hatte sich ganz allg. auf Cheats bezogen und war nicht informiert bezüglich der Vorwürde auf COMPUTERBASE!
In den Foren wird die Aussage ja gerade zu zerrisssen!
Ist das Seriös???
Original geschrieben von Winter[Raven]
Wer lesen kann ist klar im Vorteil!
R300-350-360 ala Radeon 9700, 9800, 9800XT besitzen nicht die nötige Hardware um dieses Cheats auszuführen!
Die RVxx Reihe aber schon, genauso wie die R420 Reihe.
Da bist du falsch INFORMIERT lieber Raven!
Es funktioniert 100%, die 9600XT ist identisch mit RV360!
Bis auf Pipes und Takt!
Quasar
2004-05-18, 00:44:07
Original geschrieben von Gast
Warum hast du Richard so aussehen lassen in deinem NEUEN Update als das er den Vorwurf billigt, weil ja alle CHEATEN!
Er hatte sich ganz allg. auf Cheats bezogen und war nicht informiert bezüglich der Vorwürde auf COMPUTERBASE!
In den Foren wird die Aussage ja gerade zu zerrisssen!
Ist das Seriös???
Sorry, aber dazu kann ich nichts sagen, denn es ist nicht "mein" Update, sondern eine separate Newsmeldung. Schau mal genau auf den Autor der Newsmeldung... Du kannst gern an den verantwortlichen Redakteur eine Mail schreiben und Aufklärung verlangen.
Original geschrieben von Gast
Da bist du falsch INFORMIERT lieber Raven!
Es funktioniert 100%, die 9600XT ist identisch mit RV360!
Bis auf Pipes und Takt!
Nein, du bist falsch informiert.
Eine R9600XT nutzt den RV360 Chip, eine R9800XT den R360 Chip (ohne V).
Winter[Raven]
2004-05-18, 00:44:42
Original geschrieben von AYAlf
musste ja von nem nv fanboy kommen .. gelle? :asshole:
so unqualifizierte kommentare sind wir ja von dir schon gewohnt. john c. kann schlecht sagen, dass die nv eine schlechte, ueberdimensionierte, viel zu laute, viel zu viel energie schluckende karte ist. er steckt bis zu den fuessen im a... von nvidia. hier geht es um macht, hier geht es um wirtschaftliches vorankommen. ich wuerde auch die konkurenzprodukte einer anderen firma schlecht machen, wenn ich dafuer geld bekomme. ;D
ps: vielen dank fuer deinen kommentar winter
psps: und wenn john c. sagen wuerde spring von der bruecke .. dann wuerde winter springen.
Wäre dafür dass du für diesen Spam, Geflame, persönlichen Angriff paar Punkte auf der Modliste bekommst.
Es funktioniert 100%, die 9600XT ist identisch mit RV360!
Quasar .. warst schneller .. :)
Quasar
2004-05-18, 00:46:49
Original geschrieben von Sphinx
"This is indeed a "cheat" that both major vendors now do."
Und nu ? Beide Cheaten auf ihre Art und Weise wie es ihnen passt...
Nein, denn das hier:
"The colored mip map option in Q3 should have absolutely zero performance impact in the absense of performance options like this."
scheint momentan im Gegensatz zu dem hier:
http://www.beyond3d.com/forum/viewtopic.php?p=285819*
zu stehen, wenn es ein Cheat sein sollte.
edit:
*
NV40 Norm/Colored (with TrilOpt On)
16x12: 108,9 / 108,7
NV40 Norm/Colored (with TrilOpt Off)
16x12: 82,6 / 82,4
X800 XT Norm/Colored
16x12: 96,3 / 84,8
Original geschrieben von Quasar
Sorry, aber dazu kann ich nichts sagen, denn es ist nicht "mein" Update, sondern eine separate Newsmeldung. Schau mal genau auf den Autor der Newsmeldung... Du kannst gern an den verantwortlichen Redakteur eine Mail schreiben und Aufklärung verlangen.
Nein, du bist falsch informiert.
Eine R9600XT nutzt den RV360 Chip, eine R9800XT den R360 Chip (ohne V).
Das verstehe wer will, das paßt doch viel zu sehr in das Schema!
Das ist nicht dein Update ???
Also ich hätte dich gefragt! Das Update is 100% im Bezug auf deine Meldung!
Ich möchte dich bitten dafür zu sorgen das dieses Update aus dem Netz kommt und eine RICHTIGSTELLUNG reinkommt.
Jeder der das liest denkt doch es wäre im Bezug auf eurem bzw. deinem Vorwurf.
Quasar
2004-05-18, 00:54:18
Original geschrieben von Gast
Das verstehe wer will, das paßt doch viel zu sehr in das Schema!
Das ist nicht dein Update ???
Also ich hätte dich gefragt! Das Update is 100% im Bezug auf deine Meldung!
Ich möchte dich bitten dafür zu sorgen das dieses Update aus dem Netz kommt und eine RICHTIGSTELLUNG reinkommt.
Jeder der das liest denkt doch es wäre im Bezug auf eurem bzw. deinem Vorwurf.
a) was passt in welches Schema? Konspiration deutscher Webseiten gegen ATi? :lol:
b)Nein, nicht mein Update:
Autor: Thomas Hübner
Autor: Carsten Spille
Sind doch wohl zwei unterschiedliche Namen, oder?
c)Keine Ahnung, aber ich frage ihn morgen, was er Hernn Huddy genau gefragt hat. Wenn es mißverständlich formuliert ist, werden wir das selbstverständlich klarstellen.
d)Du kannst mich zwar darum bitten, aber mehr als unter c) gesagt, werde ich nicht tun - einfach mal so die Pressefreiheit beschneiden - nur auf Verdacht - läuft unserem GG zuwider.
e)Jeder der das liest, sollte sich mal lieber Gedanken machen, was der gute Herr Huddy da gesagt hat. Selbst ohne jeden Bezug zu irgendwas ausser der Grafikkartenbranche an sich wäre das schon ein ziemlicher Hammer.
Mr. Lolman
2004-05-18, 01:06:02
Original geschrieben von Gast
Wenig Cheats!!!
Da steht bei mir NV ganz oben auf der Liste, aber egal!
Ansichtssache...
Ich kaufe mir niemals einen Stromfresser der überhaupt kein QUALI-AF bietet!
Ich auch nicht.
ShadowXX
2004-05-18, 07:45:05
Original geschrieben von Gast
Warum hast du Richard so aussehen lassen in deinem NEUEN Update als das er den Vorwurf billigt, weil ja alle CHEATEN!
Er hatte sich ganz allg. auf Cheats bezogen und war nicht informiert bezüglich der Vorwürde auf COMPUTERBASE!
In den Foren wird die Aussage ja gerade zu zerrisssen!
Ist das Seriös???
a.) er wurde lt. Artikel aud den möglichen cheat angesprochen
b.) ebenso steht dort, das er zu diesem Fall keine infos hatte
c.) es kommt auch deutlich rüber, das er das cheaten sehr allgemein meinte
Wenn manche das nicht richtig lesen können, ist es weder Castens noch Thomas noch CBs schuld...
ShadowXX
2004-05-18, 07:51:13
Original geschrieben von AYAlf
musste ja von nem nv fanboy kommen .. gelle? :asshole:
so unqualifizierte kommentare sind wir ja von dir schon gewohnt. john c. kann schlecht sagen, dass die nv eine schlechte, ueberdimensionierte, viel zu laute, viel zu viel energie schluckende karte ist. er steckt bis zu den fuessen im a... von nvidia. hier geht es um macht, hier geht es um wirtschaftliches vorankommen. ich wuerde auch die konkurenzprodukte einer anderen firma schlecht machen, wenn ich dafuer geld bekomme. ;D
ps: vielen dank fuer deinen kommentar winter
psps: und wenn john c. sagen wuerde spring von der bruecke .. dann wuerde winter springen.
Das englische Wort "both" sagt dir etwas???
Falls nicht..JCs Aussage bezog sich auf beide Hersteller....
Davon Abgesehen kommt das Statement eben von JC und ist nicht von Raven erfunden...er kann also nichts für JCs seine Meinung..
Und wenn ich diesen Quote gefunden hätte, dann hätte ich ihn gepostet...(und nein, meine einzige GF zur Zeit ist eine LP MX440)
ShadowXX
2004-05-18, 07:53:48
Original geschrieben von Quasar
a) was passt in welches Schema? Konspiration deutscher Webseiten gegen ATi? :lol:
der ist fast signaturwürdig;D ;D
e)Jeder der das liest, sollte sich mal lieber Gedanken machen, was der gute Herr Huddy da gesagt hat. Selbst ohne jeden Bezug zu irgendwas ausser der Grafikkartenbranche an sich wäre das schon ein ziemlicher Hammer.
Jupss....das sollte man sich wirklich auf der Zunge zergehen lassen...
//Edit:
wusste gar nicht das Kanadier so gut Deutsch können;D ;D
Original geschrieben von Quasar
a) was passt in welches Schema? Konspiration deutscher Webseiten gegen ATi? :lol:
b)Nein, nicht mein Update:
Autor: Thomas Hübner
Autor: Carsten Spille
Sind doch wohl zwei unterschiedliche Namen, oder?
c)Keine Ahnung, aber ich frage ihn morgen, was er Hernn Huddy genau gefragt hat. Wenn es mißverständlich formuliert ist, werden wir das selbstverständlich klarstellen.
d)Du kannst mich zwar darum bitten, aber mehr als unter c) gesagt, werde ich nicht tun - einfach mal so die Pressefreiheit beschneiden - nur auf Verdacht - läuft unserem GG zuwider.
e)Jeder der das liest, sollte sich mal lieber Gedanken machen, was der gute Herr Huddy da gesagt hat. Selbst ohne jeden Bezug zu irgendwas ausser der Grafikkartenbranche an sich wäre das schon ein ziemlicher Hammer.
zu a.)
Falsch, ich meinte das SCHLUSS-KOMMENTAR und den Titel!
Aufgepaßt:
Zitat: Erstes Statement von ATi zum Texturfilter
1. Hatte Richard auch laut des Artikels keine Ahnung worum es ging!!! aber hauptsache ne Überschrift die zieht !
Zitat: Sie will wohl auch als kleine Rechtfertigung verstanden werden.
2. Kann die Antwort zum allg. Cheaten dann nicht als RECHTFERTIGUNG verstanden werden im Bezug auf den Filtercheat.
Zitat: An dieser Stelle sollte man jedoch aufpassen. Mit dieser Art von Argumentation kann schnell die Wurzel einer Teufelsspirale geschaffen werden, die immer weitere Ausmaße annimmt. Wenn die Konkurrenz unlautere Mittel benutzt, sollte man das selbst noch lange nicht zum eigenen Handeln avancieren lassen. Hier ist es an der Community, für die Grafikchip-Unternehmen dieser Tage ein klares Zeichen zu setzen. Generell hat niemand etwas gegen Optimierungen, dabei muss jedoch dem User immer die Wahl gelassen werden, welche optischen Einbußen er für die Performance in Kauf nehmen möchte und welche nicht. Von tollen Features, die nur auf dem Papier existieren, hat schließlich kein Verbraucher etwas.
3. Wir mit diesem Memo der Leser motiviert das nicht zu dulden!
Alles in allem ein unsauberer Pressestyl......
zu b)
OK!
zu c) siehe mein Memo zu a)
Vielen Dank !
Quasar
2004-05-18, 08:25:02
so, ich habe die Newsmeldung grade nochmal überflogen.
a) Die Überschrift lautet _nicht_ "ATi gibt Cheating zu" oder sowas, sondern schlicht "Erstes Statement von ATi zum Texturfilter" - eine an sich völlig wertneutrale Aussage.
b) Im Text selber steht eindeutig:
konnten wir kurz ein paar Worte mit Richard Huddy, dem Chef der europäischen Developer Relations, austauschen. Zum Problem selbst konnte er zwar nichts sagen, dennoch stellte er angesprochen auf Cheats generell fest, dass es hier in den letzten zwei Jahren mit der Branche ganz klar bergab ging. „Alle cheaten”, lautete seine erste Reaktion in Bezug auf das Problem der Branche allgemein, die zum einen ehrlich ist und in der Form vermutlich nicht von der Pressestelle gekommen wäre.
Wie du ja selbst auch schon bemerkt hast, wird also eindeutig klargestellt, daß der Kommentar nicht mit dem Artikel direkt zu tun hat.
Da bleibt mir nur, die Vorwürfe, die du hier bringst und die deine dir unbenommene persönliche Meinung darstellen dürften, mit einem "Wer lesen kann, ist klar im Vorteil" zurückzuweisen.
Sorry, EOD für mich.
Bei weiteren Beschwerden wende dich bitte an den Verfasser der News direkt.
Original geschrieben von Quasar
so, ich habe die Newsmeldung grade nochmal überflogen.
a) Die Überschrift lautet _nicht_ "ATi gibt Cheating zu" oder sowas, sondern schlicht "Erstes Statement von ATi zum Texturfilter" - eine an sich völlig wertneutrale Aussage.
b) Im Text selber steht eindeutig:
Wie du ja selbst auch schon bemerkt hast, wird also eindeutig klargestellt, daß der Kommentar nicht mit dem Artikel direkt zu tun hat.
Da bleibt mir nur, die Vorwürfe, die du hier bringst und die deine dir unbenommene persönliche Meinung darstellen dürften, mit einem "Wer lesen kann, ist klar im Vorteil" zurückzuweisen.
Sorry, EOD für mich.
Bei weiteren Beschwerden wende dich bitte an den Verfasser der News direkt.
Nein, ein Statement beinhaltet immer Kenntniss zur Sache oder des Vorwurfes!
Das hatte Richard nicht ! Also ist es kein Statement von ATI!
Eure Überschrift ist das Problem und die Schlussmemo im ersten Absatz!
Weiterhin wird dieses sogg. Statement direkt im Bezug auf den Filtercheat genannt.
EOD für mich!
Wollt Ihr das etwa echt so stehen lassen???????
Original geschrieben von Gast
Nein, ein Statement beinhaltet immer Kenntniss zur Sache oder des Vorwurfes!
Das hatte Richard nicht ! Also ist es kein Statement von ATI!
Eure Überschrift ist das Problem und die Schlussmemo im ersten Absatz!
Weiterhin wird dieses sogg. Statement direkt im Bezug auf den Filtercheat genannt.
EOD für mich!
Wollt Ihr das etwa echt so stehen lassen???????
...MEMO
Im Artikel selbst gebt Ihr doch die korrekte Antwort....
Er hat allgemein auf Cheats geantwortet....
...zum Problem (Filtercheat) konnte er nichts sagen::::
stop!!!!
Das ist kein Statement zum Filtercheat !!!!
Verstanden ???
Original geschrieben von Gast
...MEMO
Im Artikel selbst gebt Ihr doch die korrekte Antwort....
Er hat allgemein auf Cheats geantwortet....
...zum Problem (Filtercheat) konnte er nichts sagen::::
stop!!!!
Das ist kein Statement zum Filtercheat !!!!
Verstanden ???
Sicher ist es das. Damit hat er zugegeben, dass ATI Cheatet.
Original geschrieben von HOT Damit hat er zugegeben, dass ATI Cheatet. ..da musst du ihne aber erstmal nach seiner Definition von "Cheat" fragen. ;)
cu
BUG
Original geschrieben von Gast
Ohne offiz. Stellungsnahme von ATI wäre ich da VORSICHTIG einen SCHNELL-SCHUSS "CHEAT" zu machen.Meinst du, ATI würde das zugeben: "Ok, war 'n Cheat-Versuch"?
Original geschrieben von Gast
Letztendlich haben wir bisher erst eine Seite gehört (Computerbase, OW und S.P., ich bin mal gespannt was die sagen! Ich habe das gestern auf meiner Radeon 9600 gesehen, und das sieht ziemlich brilinear aus.
Original geschrieben von Gast
Das ist kein Statement zum Filtercheat !!!!Ich für mein Teil brauche kein Statement mehr (obwohl ich ATI deswegen noch mal ansprechen werde, irgendwann) denn was ich gestern sah, war nicht wirklich trilinear.
LovesuckZ
2004-05-18, 09:23:36
Original geschrieben von aths
Ich für mein Teil brauche kein Statement mehr [...]
..., doch würde mich interessieren, warum sie mit Absicht die Tester vorsätzlich anlügen und taeuschen (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=1822813#post1822813).
Original geschrieben von aths
Ich für mein Teil brauche kein Statement mehr (obwohl ich ATI deswegen noch mal ansprechen werde, irgendwann) denn was ich gestern sah, war nicht wirklich trilinear.
Das würde ich auch tun, denn alle Treiber sind WHCQL-Zertifiziert!
Was das bedeutet ist hoffentlich klar!
LovesuckZ
2004-05-18, 09:34:03
Original geschrieben von Gast
Das würde ich auch tun, denn alle Treiber sind WHCQL-Zertifiziert!
Was das bedeutet ist hoffentlich klar!
Öhm, sind Nvidia's Treiber auch...
Original geschrieben von LovesuckZ
Öhm, sind Nvidia's Treiber auch...
Jo, da wird ja genau so gelogen und betrogen :P
Sogar SIS Treiber sind WHQL zertifiziert ;) das beudeutet nichts.
Original geschrieben von aths
Ich habe das gestern auf meiner Radeon 9600 gesehen, und das sieht ziemlich brilinear aus.
Heisst das du hast es vorher nie bemerkt bis du darauf aufmerksam gemacht wurdest?
Uller
2004-05-18, 09:44:21
Da ja wie immer 5 Threads synchron laufen hier das offizielle Statement seitens ATI, vielen Dank an Borsti:
There has been a lot of discussion about our trilinear filtering algorithms
recently.
The objective of trilinear filtering is to make transitions between mipmap
levels as near to invisible as possible. As long as this is achieved, there
is no "right" or "wrong" way to implement the filtering.
We have added intelligence to our filtering algorithm to increase
performance without affecting image quality. As some people have
discovered, it is possible to show differences between our filtering
implementations for the RADEON 9800XT and RADEON X800. However, these
differences can only be seen by subtracting before and after screenshots and
amplifying the result. No-one has claimed that the differences make one
implementation "better" than another.
Our algorithm for image analysis-based texture filtering techniques is
patent-pending. It works by determining how different one mipmap level is
from the next and then applying the appropriate level of filtering. It only
applies this optimization to the typical case - specifically, where the
mipmaps are generated using box filtering. Atypical situations, where each
mipmap could differ significantly from the previous level, receive no
optimizations. This includes extreme cases such as colored mipmap levels,
which is why tests based on color mipmap levels show different results.
Just to be explicit: there is no application detection going on; this just
illustrates the sophistication of the algorithm.
We encourage users to experiment with moving the texture preference slider
from "Quality" towards "Performance" - you will see huge performance gains
with no effect on image quality until the very end, and even then, the
effect is hardly noticeable. We are confident that we give gamers the best
image quality at every performance level.
Microsoft does set some standards for texture filtering and the company's
WHQL process includes extensive image quality tests for trilinear filtering
and mipmapping. CATALYST passes all these tests - and without application
detection, which could be used if you wanted to get a lower-quality
algorithm go undetected through the tests.
Finally, ATI takes image quality extremely seriously and we are confident
that we set the bar for the whole industry. We don't undertake changes to
our filtering algorithms lightly, and perform considerable on-line and
off-line image analysis before implementing changes. This algorithm has
been in public use for over a year in our RADEON 9600 series products, and
we have not received any adverse comments on image quality in that time. If
anyone does find any quality degradation as a result of this algorithm, they
are invited to report it to ATI. If there is a problem, we will fix it.
Hi,
schaut mal hier:
http://www.driverheaven.net/
http://www.theinquirer.net/?article=15971
Statement von ATI !
Original geschrieben von LovesuckZ
..., doch würde mich interessieren, warum sie mit Absicht die Tester vorsätzlich anlügen und taeuschen (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=1822813#post1822813). Nah. Die Absicht wird vermutet, ist aber aus meiner Sicht noch nicht belegt.
edit: Hatte das Statement von ATI noch nicht gelesen. Nun ist ja alles klar.
LovesuckZ
2004-05-18, 09:53:20
Original geschrieben von aths
Nah. Die Absicht wird vermutet, ist aber aus meiner Sicht noch nicht belegt.
Nun, sie haben ja selbst zugegeben, dass sie nicht mehr vollstaendig trilinear filtern. Erwecken aber bei den Dokumenten für die Tester den Eindruck, dass sie es machen...
ShadowXX
2004-05-18, 09:57:21
Naja...lt. Ihrem Statement (also ATI) geben sie ja jetzt zu, das Sie am Filtering rumspielen...
Hört sich bei Ihnen natürlich harmlos an....trotzdem will ich einen Full-Tri-Schalter...alleine aus dem Grund, damit man vernünftige Benchmarkvergleiche machen kann...
Wenn von ATI aus dabei bleibt, sehe ich Schwarz für einen Full-Tri-Schalter bei nV...die werden dann was ähnliches wie jetzt ATI von sich geben...
Original geschrieben von aths
Nah. Die Absicht wird vermutet, ist aber aus meiner Sicht noch nicht belegt.
edit: Hatte das Statement von ATI noch nicht gelesen. Nun ist ja alles klar.
Thanks ATHS,
kannst du das bitte auch hier posten!
http://www.forum-3dcenter.org/vbulletin/showthread.php?postid=1822915#post1822915
Es laufen 2 Diskussionen, können wir nicht eine schliessen und auf die andere verweisen.
Original geschrieben von LovesuckZ
Nun, sie haben ja selbst zugegeben, dass sie nicht mehr vollstaendig trilinear filtern. Erwecken aber bei den Dokumenten für die Tester den Eindruck, dass sie es machen... Machen sie auch. (Wenn die Karte der Meinung ist, dass es notwendig ist für volle tri-Qualität.)
Sie filtern nicht immer und alles voll trilinear, und behaupten nun, die Qualität sei aber die gleiche. Sehr ähnliches hörte ich von NV auch.
Winter[Raven]
2004-05-18, 10:14:19
Hört sich bei Ihnen natürlich harmlos an....trotzdem will ich einen Full-Tri-Schalter...alleine aus dem Grund, damit man vernünftige Benchmarkvergleiche machen kann...
Ich bin begeistert, Nvidia wurde für ihren Brifilter zum Teufel gemacht und ATI lässt man das durchgehen?
Naja, anderes habe ich auch nicht erwartet ... :(
LovesuckZ
2004-05-18, 10:14:41
Original geschrieben von aths
Sie filtern nicht immer und alles voll trilinear, und behaupten nun, die Qualität sei aber die gleiche. Sehr ähnliches hörte ich von NV auch.
Sie sagen aber auch, dass man bei der Konkurenz "trilinear" erzwingen solle, weil diese "does not offer Trilinear filtering".
reunion
2004-05-18, 10:20:13
Original geschrieben von LovesuckZ
Im Rahmen des ATI Technology Day, der am heutigen Tage in den Räumlichkeiten der Games Academy abgehalten wurde, konnten wir kurz ein paar Worte mit Richard Huddy, dem Chef der europäischen Developer Relations, austauschen. [...] Alle cheaten.” lautete seine erste Reaktion in Bezug auf das Problem der Branche allgemein, die zum einen ehrlich ist und in der Form vermutlich nicht von der Pressestelle gekommen wäre. Sie will aber auch als kleine Rechtfertigung verstanden werden. (http://www.computerbase.de/news/hardware/grafikkarten/ati/2004/mai/erstes_statement_ati_texturfilter/)
Computerbase.de
Geile Erklaerung...
Und was ist daran falsch?
Im Grunde trifft es das genau auf den Punkt, alle Cheaten, NV, ATI, XGI,...
ShadowXX
2004-05-18, 10:21:00
Original geschrieben von Winter[Raven]
Ich bin begeistert, Nvidia wurde für ihren Brifilter zum Teufel gemacht und ATI lässt man das durchgehen?
Naja, anderes habe ich auch nicht erwartet ... :(
???
Mein Kommentar war eigentlich kritisch gemeint.....
Natürlich "verteufle" ich das Bri bei ATI.
Sphinx
2004-05-18, 10:26:38
Original geschrieben von ShadowXX
Naja...lt. Ihrem Statement (also ATI) geben sie ja jetzt zu, das Sie am Filtering rumspielen...
Hört sich bei Ihnen natürlich harmlos an....trotzdem will ich einen Full-Tri-Schalter...alleine aus dem Grund, damit man vernünftige Benchmarkvergleiche machen kann...
Wenn von ATI aus dabei bleibt, sehe ich Schwarz für einen Full-Tri-Schalter bei nV...die werden dann was ähnliches wie jetzt ATI von sich geben...
Kauf dir eine S3 dann hast nen TRI
LovesuckZ
2004-05-18, 10:30:14
Original geschrieben von Sphinx
Kauf dir eine S3 dann hast nen TRI
Ist wohl für die ganze Branche besser.
Wer will schon eine Technologiebremse von einem lügenden und vortäuschenden Hersteller kaufen?
Da hier 2 oder mehr Threads zum Thema sind poste ich es hier auch noch mal:
Mag sein das es minimale oder minimalste Abstriche in der Bildqualität gibt. Wirklich sichtbar wie eine "Bugwelle" scheint es bei der den R420 oder RV360 Karten aber nicht zu sein.
Denn wenn z.B. Aths es bisher noch nicht gesehen hat, gleichzeitig aber angibt das er SEHR empfindlich auf so etwas reagiert(zudem hatte er eine R420 Karte zum testen da!), dann kann es keine wirklichen Qualitätsunterschiede geben oder?
Es ist ja bisher auch nur durch spezielle Vergleiche anhand von Screenshots aufgefallen. Diese aber wurden nicht gemacht da einem die Bildqualität in den Spielen negativ auffiel sondern weil einige Messergebnisse unlogisch erschienen.
Demnach scheint es also so das der ATI Algorithmus sehr sehr effektiv arbeitet ohne wirklich die Bildqualität zu beeinträchtigen.
Ist das so richtig?
Kann man die Threads nicht zusammenlegen?
reunion
2004-05-18, 10:33:43
Original geschrieben von Quasar
nVidias Top-Karte fehlt auch - so what?
Nein, tut sie nicht, die NV40 UE gibt es nicht, war nur eine panikreaktion auf den R420, die man allerdings nicht kaufen wird können...
Sphinx
2004-05-18, 10:33:51
Original geschrieben von LovesuckZ
Ist wohl für die ganze Branche besser.
Wer will schon eine Technologiebremse von einem lügenden und vortäuschenden Hersteller kaufen?
Du lehnst dich zu Weit aus dem Fenster - Junge...
Das sie eine neuere Methode nutzen steht hier - welches in einem Review erwähnt wird :
Anisotropic Filtering:
We asked ATI if they had made any improvements on the Anisotropic Filtering side . As is well known, ATI’s AF method in the Radeon 9700/9800 series uses an adaptive algorithm that calculates the slope of each polygon to determine the optimal number of texture samples. They said that they have improved this algorithm so that it is more intelligent but nothing that would display any great AF quality differences in a game. The Radeon X800 series supports 2X, 4X, 8X and 16X AF. There will still be the option to select a performance mode that uses bilinear samples or a quality mode that uses trilinear samples.
Quelle : http://www.hardocp.com/article.html?art=NjEwLDc=
Original geschrieben von Fadl
Demnach scheint es also so das der ATI Algorithmus sehr sehr effektiv arbeitet ohne wirklich die Bildqualität zu beeinträchtigen.
Ist das so richtig?
REIN SUBJECTIVE Ermessenssache jeden einzelnen...
LovesuckZ
2004-05-18, 10:35:58
Original geschrieben von Sphinx
Du lehnst dich zu Weit aus dem Fenster - Junge...
Ist doch alles bewiesen.
reunion
2004-05-18, 10:36:30
Original geschrieben von aths
Ich habe das gestern auf meiner Radeon 9600 gesehen, und das sieht ziemlich brilinear aus.
Und bevor dieser Cheat aufkam hast du nichts davon bemerkt?
Original geschrieben von reunion
Und bevor dieser Cheat aufkam hast du nichts davon bemerkt?
Genau das gleiche hab ich auch schon gefragt. Leider noch ohne Antwort.
LovesuckZ
2004-05-18, 10:42:22
Original geschrieben von Fadl
Genau das gleiche hab ich auch schon gefragt. Leider noch ohne Antwort.
Wenn du es weißt, gehst du mit einer Einstellung an die Sache. Jemand der nicht weiß, wo er hinschauen muss, um den Unterschied zwischen Brilinear und trilinear zu erkennen, wird in den wenigsten faellen einen Unterschied feststellen.
Wenn man nur so spielt, dann sieht man es nicht, auch auf den FX karten.
Original geschrieben von LovesuckZ
Wenn du es weißt, gehst du mit einer Einstellung an die Sache. Jemand der nicht weiß, wo er hinschauen muss, um den Unterschied zwischen Brilinear und trilinear zu erkennen, wird in den wenigsten faellen einen Unterschied feststellen.
Wenn man nur so spielt, dann sieht man es nicht, auch auf den FX karten.
Die Frage war aber nicht an den 08/15 Gamer gerichtet sondern an aths. Und der sollte wissen worauf man achten muss ;)
Original geschrieben von LovesuckZ
Sie sagen aber auch, dass man bei der Konkurenz "trilinear" erzwingen solle, weil diese "does not offer Trilinear filtering". Stimmt ja auch :)
ATI offeriert tri, wenn sie der Meinung sind, man braucht es. Bei den FXen kannst du in D3D mit aktuellen Treibern gar kein trilinear bekommen.
LovesuckZ
2004-05-18, 10:46:47
Original geschrieben von Fadl
Die Frage war aber nicht an den 08/15 Gamer gerichtet sondern an aths. Und der sollte wissen worauf man achten muss ;)
Er ging von trilinear aus. Da kann das Gehirn einen diese Wahrnehmung dann auch geben.
LovesuckZ
2004-05-18, 10:48:18
Original geschrieben von aths
Stimmt ja auch :)
ATI offeriert tri, wenn sie der Meinung sind, man braucht es. Bei den FXen kannst du in D3D mit aktuellen Treibern gar kein trilinear bekommen.
Sie sprechen aber vom NV40, der als einzige Karte nach den FX'en über das Kaufargument "vollständige trilineare Filterung" verfügt.
Schoen, dass ATi an einigen Stellen trilinear filtert, an anderen dürfte es wahrscheinlich noch weniger sein als das "Brilinear" von Nvidia...
Original geschrieben von LovesuckZ
Sie sprechen aber vom NV40, der als einzige Karte nach den FX'en über das Kaufargument "vollständige trilineare Filterung" verfügt.
Schoen, dass ATi an einigen Stellen trilinear filtert, an anderen dürfte es wahrscheinlich noch weniger sein als das "Brilinear" von Nvidia...
Hallo Love*.*,
dürfte und müßte und könnte interessieren nicht bei diesem Thema.
Original geschrieben von Fadl
Denn wenn z.B. Aths es bisher noch nicht gesehen hat, gleichzeitig aber angibt das er SEHR empfindlich auf so etwas reagiert(zudem hatte er eine R420 Karte zum testen da!), Leo hatte sie da.
Original geschrieben von Fadl
dann kann es keine wirklichen Qualitätsunterschiede geben oder?Muss ich noch ingame nachgucken. Bei der R9600 fielen mir allgemein etas flimmerigere Texturen auf. Eingehend gespielt habe ich mit der Karte nicht, nur jeweils Dinge angetestet. Die Radeon hat texturfiltermäßig ja noch eine Reihe weiterer Probleme.
Da ATI wirklich adaptiv zu filtern scheint, ist das offenbar bei maximalen "Quality"-Settings nicht sofort wahrzunnehmen. Bei Max Payne sehe ich das mit der 5900 auch nicht überall, aber bei einigen speziellen Texturen. Dafür werde ich nun wohl noch mal die R9600 einbauen.
Original geschrieben von LovesuckZ
Er ging von trilinear aus. Da kann das Gehirn einen diese Wahrnehmung dann auch geben.
Wenn ich aths posts so verfolge scheint er SEHR sensibel zu sein was Filter betrift. Demnach könnte man meinen ihm würde ein Qualitätsunterschied sofort auffallen.
Daher meine Frage wie es mit dem Qualitätsunterschied beim ATI Algorithmus gegenüber vollem trilinear Filterung überhaupt aussieht wenn aths es nichtmal bemerkt hatte.
Original geschrieben von aths
Leo hatte sie da.
Muss ich noch ingame nachgucken. Bei der R9600 fielen mir allgemein etas flimmerigere Texturen auf. Eingehend gespielt habe ich mit der Karte nicht, nur jeweils Dinge angetestet. Die Radeon hat texturfiltermäßig ja noch eine Reihe weiterer Probleme.
Da ATI wirklich adaptiv zu filtern scheint, ist das offenbar bei maximalen "Quality"-Settings nicht sofort wahrzunnehmen. Bei Max Payne sehe ich das mit der 5900 auch nicht überall, aber bei einigen speziellen Texturen. Dafür werde ich nun wohl noch mal die R9600 einbauen.
Alles klar. Bezüglich Leo hatt ich mich dann geirrt. Ich dachte du hättest auch mal eine Karte kurz zum testen gehabt. Danke für deine Antwort. Ein weiterer Test von dir wäre da wohl sehr hilfreich.
robbitop
2004-05-18, 10:56:00
sagen die PR Heinis...
Aber überall wo colored Mipmaps an waren brachte es recht ordentlich Performance und ow schonmal sagte, BQ steht proportional zum Leistungsgewinn.
Und ~25% in allen Benches die ich mit und ohne Colored gesehen habe sagen eigentlich genug.
Original geschrieben von LovesuckZ
Sie sprechen aber vom NV40, der als einzige Karte nach den FX'en über das Kaufargument "vollständige trilineare Filterung" verfügt. Toll. Nvidia hatte damals auch 4x AA und schrieb nirgendwo "beachtet bitte, dass unser 4x schlechter als das der Konkurrenz ist". Bezüglich NV40 empfahl NV, mit 8x AF zu benchen. Damit verschaffen sie sich gegenüber den eigenen alten Produkten einen Vorteil. Nvidia ist keinen Deut besser.
Original geschrieben von Fadl
Wenn ich aths posts so verfolge scheint er SEHR sensibel zu sein was Filter betrift. Demnach könnte man meinen ihm würde ein Qualitätsunterschied sofort auffallen.
Daher meine Frage wie es mit dem Qualitätsunterschied beim ATI Algorithmus gegenüber vollem trilinear Filterung überhaupt aussieht wenn aths es nichtmal bemerkt hatte. Muss ich ingame testen. Habe gestern nur versucht, das mit synthetischen Programmen zu sehen. Das geht auch.
Original geschrieben von robbitop
sagen die PR Heinis...
Aber überall wo colored Mipmaps an waren brachte es recht ordentlich Performance und ow schonmal sagte, BQ steht proportional zum Leistungsgewinn.Hier irrt er :) Angenommen wir haben einfarbige Texturen. Die braucht man gar nicht filtern, und hat keinen Qualitätsverlust.
robbitop
2004-05-18, 11:06:40
du meinst allen Ernstes, ATi hat eine brauchbar intelligente Methode gefunden, die keinen sichtbaren BQ Verlust zur Folge hat?
Aber du hast das Banding doch gesehen...
Machst du dazu noch eine Untersuchung oder kaufst du ATi das so ab?
Original geschrieben von aths
Hier irrt er :) Angenommen wir haben einfarbige Texturen. Die braucht man gar nicht filtern, und hat keinen Qualitätsverlust.
Richtig!
Wir näher uns der Wahrheit immer mehr an !
robbitop
2004-05-18, 11:21:05
sagt wer?
LovesuckZ
2004-05-18, 11:47:55
Ich hoffe Quasar erlaubt es, dieses Bild verwenden zu koennen, wenn nicht, mache ich es raus:
http://home.arcor.de/quasat/ATi%20PDF%20on%20Benchmarking%20Section%20Texturing%20Bottlenecks.JPG
Quasar @ Beyond3d.com (http://www.beyond3d.com/forum/viewtopic.php?p=286241#286241)
Lachnummer ATi.
Original geschrieben von robbitop
du meinst allen Ernstes, ATi hat eine brauchbar intelligente Methode gefunden, die keinen sichtbaren BQ Verlust zur Folge hat?
Aber du hast das Banding doch gesehen...In synthetischen Programmen kann man es sehen, ja.
ATI opfert Qualität um Leistung zu gewinnen. Als Option gerade für Mittelklasse á la Radeon 9600 sehr schön. Als Zwang indiskutabel, genau wie Nvidia brilineare Spielereien.
Man muss fragen, was trilineare Filterung bringen soll. MIP-Banding wird mit ATIs Methode ganz gut entfernt. Für die meisten reicht das. In bestimmten Fällen möchte man Interpolation über den ganzen Bereich. Ich hab's jedenfalls so satt, mich bevormunden zu lassen. Außerdem ist es inakzeptabel, dass Begriffe aufgeweicht werden.
Original geschrieben von robbitop
Machst du dazu noch eine Untersuchung oder kaufst du ATi das so ab? Ich bräuchte Zeit ... wahrscheinlich gucke ich heute oder morgen noch mal die Stelle in Max Payne an, wo mir erstmalig das brilinear bei der 5900 auffiel.
Original geschrieben von LovesuckZ
Lachnummer ATi. Siehe http://www.forum-3dcenter.org/vbulletin/showthread.php?&threadid=143006. Dort lästerte ich über ATIs Aussagen, und schreibe gegen Ende:
Original geschrieben von aths
Was auf Seite 3 im PDF steht, ist sogar noch dreister als was ich hier gequotet habe.Auf Seite 3 vergleichen sie isotrope Filterung ...
LovesuckZ
2004-05-18, 11:53:17
Zur der Zeit wusste man aber noch nicht, wie ATi generell filtert. jetzt gibt es einen verdammt faden Beigeschmack.
Original geschrieben von ow
Sehr praxisnahes Beispiel, das muss man schon sagen.Bei sehr schwachkonstrastigen Texturen spart man mit brilinear imo mehr Leistung als Qualität geopfert wird. Bei starkkontrastigen sieht es anders aus. Du kannst nicht einfach einen linearen Zusammenhang zwischen Optimierungs-Leistungsgewinn und -Qualitätsverlust postulieren.
Original geschrieben von ow
Fuer wie sinnvoll haeltst du denn die Nutzung von mipmaps bei einfarbigen Texturen? Wie sinnvoll ist bilineare Filterung bei einfarbigen Texturen? :)
robbitop
2004-05-18, 11:53:44
finde ich sehr gut.
Bei Mittelklasse und Billigkarten kann Brilienar und meinetwegen Stagesoptimierung gern sein. Aber bevormunden ist übel.
Wozu braucht man "Optimierungen"?
Wenn der Speed nicht reicht, dreht man den AF Grad einfach zurück und gut ist. Letztendlich bleibt mehr von der Optimierung auch nicht übrig, gut man "nennt" das ganze dann 16xAF wobei es gerade mal so brauchbar ist wie das 4xAF der NV3x. Völliger Schwachsinn imo.
Original geschrieben von robbitop
Wozu braucht man "Optimierungen"?
Wenn der Speed nicht reicht, dreht man den AF Grad einfach zurück und gut ist. Oder die Auflösung. Primärleistungsverbrater ist traditionell die Auflösung.
Dank bri- und Stage-Optimierung hat man mehr Auswahl. Max Payne 1 und 2 habe ich mit der GF4 oft stage-"optimiert" gespielt, damit die Primärtextur 8x AF kriegen kann und die Leistung insgesamt noch gut ist. Hier war der Trade-Off imo gut. Genauso bin ich froh, mit der 5900 in OpenGL die Dicke des Tribandes selbst einstellen zu können. (Leider ist die userkonfigurierbare Stage-Optimierung nicht mehr drin.) Triband-Einstellung (und Stage-Optimierung) möchte ich auch für Direct3D haben. Ich hab ggü. NV schon mal anklingen lassen, für vorgefertigte Profileinstellungen zur Verfügung zu stehen, scheint aber kein Interesse da zu sein. Aufdrängeln werde ich mich nicht :)
Mr. Lolman
2004-05-18, 12:17:30
Original geschrieben von ow
Das ist jetzt aber doch SEHR subjektiv.
Der Zusammenhang ist in sofern gegeben, dass jede Leistungssteigerung mit einem Verlust an BQ verbunden ist (und umgekehrt).
Eben, deswegen kann man nicht davon ausgehen, dass die Leistungssteigerung prinzipiell linear mit dem Qualitätsverlust einergeht.
Ich formuliere die Frage um:
Machen einfarbige Texturen grosser als 1*1 Texel Sinn? :)
Scheinbar schon. Zuminmdest waren bei Tests mit der UT Engine die fps höher wenn die Texture 32x32Pixel hatte.
seahawk
2004-05-18, 12:20:27
ATI hat sich erklärt. Das sit gut. Wenn sie jetzt noch einen Button einfügen, der es ermöglicht diese Optimierung abzustelen, dann ist alles in Ordnung.
Ansonsten muss man wohl den Nv40 mit Bri gegen den R420 mit Tri vergleichen.
[WEISSBIER]Moff
2004-05-18, 12:24:39
Ansonsten muss man wohl den Nv40 mit Bri gegen den R420 mit Tri vergleichen.
... Und beim R420 die Stage-Optimierung ausschalten.
LovesuckZ
2004-05-18, 12:26:19
Original geschrieben von seahawk
[...] Wenn sie jetzt noch einen Button einfügen, der es ermöglicht diese Optimierung abzustelen,[...]
Es wird keinen geben. Sie sagen doch selbst, dass man entdeckte Fehler an ATi schicken solle...
ATI hat doch in ihrem Statement gesagt das man sich an sie wenden solle wenn man mit der momentanen implimentierung der trilinearen Filterung unzufrieden ist.
Vielleicht können diejenigen die dieses Statement erst möglich gemacht haben sich an ATI wenden und sagen das man es gerne sehen würde wenn ein "Full Trilinear" Butten im Treiber eingebaut wird. Damit wäre doch jedem geholfen.(ausser LovesuckZ natürlich, der findet immer was zu meckern ;))
Quasar
2004-05-18, 12:43:39
Gute Idee:
I find, that in almost all games the delivered quality of texture filtering, especially with AF turned on, has decreased compared to last-generation products such as Radeon 9800 XT. ATi has stated, that there is a new filtering algorithm at work. This algorithm produces almost as inadequate results as that of the Radeon 9600 series.
Please add a switch to the control panel in order to give users full trilinear filtering on all textur stages!
Bitte einfach hier (http://apps.ati.com/driverfeedback/) eintragen.
Original geschrieben von bans3i
Ich habe gestern wieder ein bisschen CounterStrike gezogt, auf meiner GF4 und hab mal mit und mal ohne AF gepspielt und ich muss sagen diese Bugwelle ist echt ein grauß!! Ein Graus.
Original geschrieben von ow
Das ist jetzt aber doch SEHR subjektiv.
Der Zusammenhang ist in sofern gegeben, dass jede Leistungssteigerung mit einem Verlust an BQ verbunden ist (und umgekehrt).AF z. B. könnte bei gleicher Qualität deutlich schneller sein. Erfordert aber aufwändige AF-Logik und Modifikationen an der TMU.
Es gibt auch treiberseitige Leistungssteigerungen, die ohne BQ-Verlust einhergehen :)
Original geschrieben von ow
Ich formuliere die Frage um:
Machen einfarbige Texturen grosser als 1*1 Texel Sinn? :) Halten sich Entwickler immer an das, was Sinn macht?
Hintergrund ist, dass sowohl TF als auch AF bei sehr schwachkonstrastigen Texturen eine schwächere Wirkung hat als bei starkkontrastigen. Daher kann man keine linearen Zusammenhänge postulieren. Anderes Beispiel: AF-Stage-"Optimierung". Hängt vom Spiel ab, wie viel das bringt.
reunion
2004-05-18, 12:46:22
Original geschrieben von Quasar
Gute Idee:
Bitte einfach hier (http://apps.ati.com/driverfeedback/) eintragen.
Auch wenn ich nicht glaube das dass was bringt hab ich es mal gemacht...
Ich auch ;)
Aber ich denke da sollten sich vielleicht direkt große Hardware Seiten wie 3Dcenter, Tomshardware etc an ATI wenden.
Vielleicht bringt es dann ja wirklich was ;)
Wenn ATI sich schon in ihrem Statement offen für Kritik zeigt.
ShadowXX
2004-05-18, 12:51:18
Original geschrieben von reunion
Auch wenn ich nicht glaube das dass was bringt hab ich es mal gemacht...
Und ich habe mich ebenfalls getraut dieses abschicken...
Vielleicht sollten wir diese "bitte" irgendwie leichter für alle zugänglich machen....(man übersieht diese gute idee sonst leicht).
Wenn ATI genug Mails bekommt, gibts ja vielleicht doch noch einen (versteckten) Full-Tri Schalter...
Exxtreme
2004-05-18, 12:53:59
Original geschrieben von reunion
Auch wenn ich nicht glaube das dass was bringt hab ich es mal gemacht...
Also ATi hört schon zu wenn man das Feedback-Formular nutzt. Die Frage ist jetzt ob sie trotzdem auf die Wünsche eingehen. Beim 16 Bit-AA haben sie es gemacht, beim SSAA leider nicht.
Mr. Lolman
2004-05-18, 12:54:18
Original geschrieben von seahawk
ATI hat sich erklärt. Das sit gut. Wenn sie jetzt noch einen Button einfügen, der es ermöglicht diese Optimierung abzustelen, dann ist alles in Ordnung.
Ansonsten muss man wohl den Nv40 mit Bri gegen den R420 mit Tri vergleichen.
Hä, den letztens Satz versteh ich nicht!!?
Beide filtern bri. NV hat die gerader gedrehte AF Blume (warum muss denn das gleichbedeutend mit besserer BQ sein?)
Ati hat eine ungenauere Lod bestimmung, während bei NV das LOD ein bisschen näher ist.
Sollte doch ungefähr gleiche BQ geben. Auch wärs mal ein Anfang, nicht diverse theoretische Erkenntnisse gegeneinander aufzuwiegen, sondern einfach mal anhand der BQ zu urteilen, in wie weit, welche Modi wirklich vergleichbar sind. (imo müssten sich beide AF Techniken auf selber Stufe ziemlich ähnlich sehen)
Warum Computerbase schreibt, das ALLE Benchmarks für die Katz sind ist mir auch nicht klar:
Leider scheinen aufgrund dieser Erkenntnisse ein Großteil der bisher im Internet veröffentlichten Benchmarks nicht vergleichbar und damit quasi nutzlos zu sein.
NV filtert doch auuch nicht tri. Das tri-Band beim 61er Treiber ist mittlerweile verdammt klein. Dadurch wird der Performanceverlust auch recht gross, wenn man die OPtimierungen abschaltet.
Das ATi bei den Colormipmaps bescheisst, ist eine Sauerei. Aber trotzdem hat der sensibilisierte aths, keinen brilinear Cheat auf seiner 9600 wahrgenommen (gottseidank hat er eine), was doch das Geschreie etwas eindämmen sollte.
Wenn ATi User sagen, dass bei manchen SZenen kein fast kein Unterschied zw. bi und tri. besteht (im GGs. zu NV ist die insgesamte Schärfe bei Performance Af ca. gleich gross wie mit Quality AF) haben sie was auf den Augen.
Wenn aths das nicht merkt, hat ATi einen Chaeat gefunden, der Performance bringt, ohne die BQ zu beeinträchtigen.
Ich schätze aths zwar sehr, aber (warum) ist er sowas wie ein Massstab? Ich könnte mich z.B. nie mit 800x600 und AA auf inem 19" Monitor wirklich anfreunden. 800x600, 4xAA ist das minimum was ich mir auf meinem 17" Monitor antun will, und selbst da teste ich vorher, ob man nicht doch irgendwie min 960x720 verwenden kann. Gut wenn aths das rv3x0 Filtering für qualitativ ok befindet*, werden es alle anderen wahrscheinlich auch.. ;)
__________________
Bei einer kaum sichtbaren Optimierung (wie gesagt, das Colormipmapversteckspiel ist übel) so ein trara zu machen,und zu behaupten, dass alle Benchmarks nicht mehr vergleichbar sind (obwohl NV die Optimierung noch viel extensiver betreibt; wenn auch nicht versteckt) würde man eher von der Computerbildecke erwarten, und ist für mich gleichzeitig keineswegs nachvollziehbar.
Also CB: Artikel informativ, aber Fazit nicht nachvollziebar!!!
*aths: Vielleicht hast du die R3x0 (bei seinen Artikel) einfach auch nur schlechter eingeschätzt, weil die von der Qualität deiner RV350 auf eine R300 geschlossen hast. Vielleicht sind ja ATi Menschen doch nicht blind, denn trotz der ungenaueren LOD Bstimmung reicht fulltri AF bis jetzt um in jedem Spiel (ko bis auf Tenebrae) ein absolut zufriedenenes Ergebnis zu erreichen.
Wenns zu grisselig wirkt kann man ja der LOD höher stellen ( ist von hausaus, scheinbar, eh niedriger als bei NV)
[/i]
reunion
2004-05-18, 12:58:55
Original geschrieben von Exxtreme
Also ATi hört schon zu wenn man das Feedback-Formular nutzt. Die Frage ist jetzt ob sie trotzdem auf die Wünsche eingehen. Beim 16 Bit-AA haben sie es gemacht, beim SSAA leider nicht.
Kann ja sein das ich mich irre, aber erzwingt der Treiber wenn man bei 16-bit AA aktiviert nicht einfach 32-bit?
(Zumindest hab ich das mal irgendwo aufgeschnappt)
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.