PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : (P)Reviews zu R520 (X1800)


Seiten : 1 2 3 4 5 6 [7] 8 9 10

deekey777
2005-10-13, 21:56:33
Mhm was gibt's da neues zu sehen in dem Artikel? Winkelunabhängiges AF ist bekannt und das sparsed grid Muster ist das gleiche wie bei R300.

Die Bilder sind die gleichen, aber der Text ist jetzt in Englisch. :)

Tarkin
2005-10-13, 22:02:51
Ich würde es eher Bodenhaftung nennen. Die verlieren manche nämlich hier gerne wenn's um neue Hardware geht. ATi kocht nämlich wie nVIDIA auch nur mit Wasser.
Ich hab mir übrigens gerade eben ne X1800XL zum testen bestellt, nur leider ist die erstmal nicht lieferbar.

Klar, die Karte hat zumindest in OpenGL anscheinend noch Potential, vor allem mit AA. Aber App-Profile hinterlassen immer einen faden Nachgeschmack, auch bei nVIDIA - da wird bei Doom 3 ja auch so einiges ausgetauscht.

Das kann man kaum beurteilen ohne das genau HW-Interface der Chips zu kennen und was genau einstellbar ist. Die Idee erfordert keinen großen Erfindergeist, deshalb denke ich dass nVIDIA ähnliche Techniken einsetzt.

solange die Bildqualität stimmt ist mir das aber ziemlich "Powidl" wie wir in Österreich so schön zu sagen pflegen :D

außerdem ... nach allem was ich gelesen habe erscheint es für mich so, als ob ATi nur durch kleine Änderungen in der Registry bereits deutliche Steigerungen bei OGL-Applikationen erzielen kann. Für die "Feinoptimierung" wären dann aber Profile nötig... ich hoffe ich hab das richtig verstanden.

Falls es so ist, finde ich das absolut in Ordnung. Diese Profile würden man sowieso nur für aktuelle Spiele erstellen (für ältere Title nicht notwendig, da diese sowieso schnell genug laufen)... wobei sich kommende OpenGL-Titel vermutlich an einer Hand werden abzählen lassen.

Coda
2005-10-13, 22:05:38
solange die Bildqualität stimmt ist mir das aber ziemlich "Powidl" wie wir in Österreich so schön zu sagen pflegenWie kommt man von der Effizienz des Speichercontrollers zur Bildqualität? Irgendwie versagt da meine Logik bei dem Zusammenhang.

außerdem ... nach allem was ich gelesen habe erscheint es für mich so, als ob ATi nur durch kleine Änderungen in der Registry bereits deutliche Steigerungen bei OGL-Applikationen erzielen kann. Für die "Feinoptimierung" wären dann aber Profile nötig... ich hoffe ich hab das richtig verstanden.Ja. Anscheinend haben sie vergessen für AA in OpenGL den Speichercontroller anderst einzustellen. Da brauchen die ROPs mehr Bandbreite logischerweise.

Falls es so ist, finde ich das absolut in Ordnung. Diese Profile würden man sowieso nur für aktuelle Spiele erstellen (für ältere Title nicht notwendig, da diese sowieso schnell genug laufen)... wobei sich neue OpenGL-Titel vermutlich an einer Hand abzählen lassen werden können.Natürlich ist es in Ordnung, aber es ist keine technisch unglaublich beeindruckende Lösung die man in den Himmel loben muss.

reunion
2005-10-13, 22:05:38
Club3D Radeon X1800XL um 429,00 € sofort lieferbar:

http://www1.atelco.de/6AUAOqD3lBtuR9/1/articledetail.jsp?aid=5706&agid=394&ref=13

Coda
2005-10-13, 22:05:59
Ist Atelco denn zuverlässig? Wobei 430€ für die Leistung eigentlich zuviel ist.

Tarkin
2005-10-13, 22:09:19
Wie kommt man von der Effizienz des Speichercontrollers zur Bildqualität? Irgendwie versagt da meine Logik bei dem Zusammenhang.

Ja. Anscheinend haben sie vergessen für AA in OpenGL den Speichercontroller anderst einzustellen. Da brauchen die ROPs mehr Bandbreite logischerweise.

Natürlich ist es in Ordnung, aber es ist keine technisch unglaublich beeindruckende Lösung die man in den Himmel loben muss.

ich beziehe mich im Ersten Absatz meiner Antwort auf diese Textpassage

"Klar, die Karte hat zumindest in OpenGL anscheinend noch Potential, vor allem mit AA. Aber App-Profile hinterlassen immer einen faden Nachgeschmack, auch bei nVIDIA - da wird bei Doom 3 ja auch so einiges ausgetauscht."

nun klar? App*Profile sind wurst solange die BQ nicht darunter leidet.

Coda
2005-10-13, 22:11:14
nun klar? App*Profile sind wurst solange die BQ nicht darunter leidet.Ach so. Naja der Speichercontroller wird kaum Auswirkungen auf die BQ haben ;)

Tarkin
2005-10-13, 22:11:32
http://img.hexus.net/v2/beanz/cat511ogl/bench-doom3-composite.png

ich glaub ich seh nicht recht... das ist eine Premiere :D

also wenn die den FIX beim X1800 launch schon gehabt hätte... ich glaub die Resonanz wäre deutlich positiver ausgefallen. Wie auch immer ... besser spät als nie! Ich besorg mir jetzt definitiv eine :)

Wechselbalg
2005-10-13, 22:11:41
Wenn generell dort Optimierungspotential vorhanden ist, so ist das ganze zu begrüßen, während ich bei speziellen Profilen auch eher skeptisch wäre. Das wäre nur ok für mich, wenn die Unterschiede nicht zu drastisch sind und man eben bei unoptimierten Dingen nicht später ein Desaster erlebt. ;)

@Atelco: Find ich persönlich schon sehr zuverlässig. Freund hat seinen ganzen PC dort zusammengesucht und ich ein Notebook bestellt und beides ist schnell und ohne Probleme angekommen. Ist ja auch eine recht große Kette.

reunion
2005-10-13, 22:18:55
Bei Riddick geht die Leistung bei niedrigen Auflösungen sogar zurück, scheint ja äußerst kompliziert zu sein, dass Teil zu optimieren:

http://img.hexus.net/v2/beanz/cat511ogl/bench-riddick.png

Eric Demers:
Our new MC has a view of all the requests for all the clients over time. The "longer" the time view, the greater the latency the clients see but the higher the BW is (due to more efficient requests re-ordering). The MC also looks at the DRAM activity and settings, and since it can "look" into the future for all clients, it can be told different algorithms and parameters to help it decide how to best make use of the available BW.

As well, the MC gets direct feedback from all clients as to their "urgency" level (which refers to different things for different client, but, simplifying, tells the MC how well they are doing and how much they need their data back), and adjusts things dynamically (following programmed algorithms) to deal with this. Get feedback from the DRAM interface to see how well it's doing too.

We are able to download new parameters and new programs to tell the MC how to service the requests, which clients's urgency is more important, basically how to arbitrate between over 50 clients to the dram requests. The amount of programming available is very high, and it will take us some time to tune things.

In fact, we can see that per application (or groups of applications), we might want different algorithms and parameters. We can change these all in the driver updates. The idea is that we, generally, want to maximize BW from the DRAM and maximize shader usage. If we find an app that does not do that, we can change things. You can imagine that AA, for example, changes significantly the pattern of access and the type of requests that the different clients make (for example, Z requests jump up drastically, so do rops). We need to re-tune for different configs. In this case, the OGL was just not tuning AA performance well at all. We did a simple fix (it's just a registry change) to improve this significantly. In future drivers, we will do a much more proper job.

http://www.hexus.net/content/item.php?item=3668

reunion
2005-10-13, 22:20:02
Ist Atelco denn zuverlässig?


Keine Ahnung, komme nicht aus D.


Wobei 430€ für die Leistung eigentlich zuviel ist.

Die ersten verfügbaren Karten sind immer überteuert.

Coda
2005-10-13, 22:20:08
Nach dem Text ist der MC sogar programmierbar, nicht nur konfigurierbar. Das ist natürlich interessant.

Die ersten verfügbaren Karten sind immer überteuert.Schon, aber da werd ich doch erstmal noch warten. Erstmal das Laptop kaufen ;)

reunion
2005-10-13, 22:21:11
http://img.hexus.net/v2/beanz/cat511ogl/bench-doom3-composite.png

ich glaub ich seh nicht recht... das ist eine Premiere :D

also wenn die den FIX beim X1800 launch schon gehabt hätte... ich glaub die Resoanz wäre deutlich positiver ausgefallen. Wie auch immer ... besser spät als nie! Ich besorg mir jetzt definitiv eine :)

Zumindest hat man nicht (nur) auf das Timedemo optimiert.

//Edit:
The tweak also shows gains similar to Riddick's in the Serious Sam 2 demo using the OpenGL version of Croteam's renderer, so OpenGL performance is generally up quite healthily across the board.

Overall the programmable nature of the new memory controller in the majority of ATI's new graphics chips means that over time and with enough analysis, per-application changes can be made to the memory controller to optimise memory access by any given application at any number of resolutions, allowing ATI to extract the most out of their hardware.

The largest single functional block on the new GPU silicon, the memory controller - chiefly architected by ATI's Director of Technology, Joe Macri - is one of the two large keys to unlocking the performance of the new hardware. Future driver releases from ATI may show other large gains in other games, not just in OpenGL.

Tarkin
2005-10-13, 22:21:39
Nach dem Text ist der MC sogar programmierbar, nicht nur konfigurierbar. Das ist natürlich interessant.

Schon, aber da werd ich doch erstmal noch warten. Erstmal das Laptop kaufen ;)

hab mich schon gewundert ;D

reunion
2005-10-13, 22:25:26
Nach dem Text ist der MC sogar programmierbar, nicht nur konfigurierbar. Das ist natürlich interessant.


Soll bei nV ebenso der Fall sein:

The memory controller on NVIDIA's latest GPUs is also programmable to some extent by the driver, to tweak certain parameters pertaining to memory access, although it remains to be seen if they have similar ranges of performance headroom to find in their own products.

Demirug
2005-10-13, 22:26:22
Nach dem Text ist der MC sogar programmierbar, nicht nur konfigurierbar. Das ist natürlich interessant.

Programmierbar hört sich einfach cooler an. Immer daran denken: Auch ein uralter Videorecorder ist schon programmierbar.

Ja, die vielen Marketingpapiere haben mich entgültig zum Sarkasmus bekehrt

Coda
2005-10-13, 22:27:38
Da muss man vorsichtig sein, sobald man ein MSR ändern kann wird gern von "programmierbar" gesprochen obwohl es eigentlich nur "konfigurierbar" ist.

Aber da der Typ da von "anderen Programmen" redet klingt das so als würde wirklich eine programmierbare Logik dahinterstecken. Wobei man das natürlich auch anders interpretieren kann.

Ich sag ja, solange man nicht das genau HW-Interface kennt sind Vergleiche da eigentlich unmöglich.

Coda
2005-10-13, 22:30:28
Programmierbar hört sich einfach cooler an. Immer daran denken: Auch ein uralter Videorecorder ist schon programmierbar.Bin ich also doch auch drauf reingefallen.

Demirug
2005-10-13, 22:43:36
Ich bin ja normalerweise nicht für das direkte kopieren aus Marketing Unterlagen. Aber in diesem Fall ist das wohl OK

http://img7.picsplace.to/img7/1/thumbs/R520_Memory_Prog.PNG (http://img7.picsplace.to/img.php?file=img7/1/R520_Memory_Prog.PNG)

Crushinator
2005-10-13, 23:32:58
Auch die Konkurrenz hat sich in der Vergangenheit und Gegenwart nicht gerade mit durchgehend guter Performance auch in nicht soo bekannten Spielen hervorgetan. Was jetzt hier so schlimm, oder sogar noch schlimmer sein soll, kann ich auch nicht erkennen.
Ist doch klar, es kommt nicht nVIDIA. Das kann gar nicht gut sein, schon gar kein technischer Fortschritt. X-D

Nein, jetzt im ernst: Schlimm ist nichts daran, denn es hat keine Auswirkungen auf die Bildqualität, wenn die internen Bandbreiten nach einer Art "Quality of Service" priorisiert werden. Der einzige Nachteil den es hat ist, daß es evtl. auf eine Situation bzw. ein Game trifft wofür es kein Profil gibt und die gerade aktiven Parameter den MC falsche Schlüsse aus den Speicheranforderungen ziehen lassen. Dann hätte man weniger Leistung als es möglich gewesen wäre.

Demirug
2005-10-13, 23:44:11
Der einzige Nachteil den es hat ist, daß es evtl. auf eine Situation bzw. ein Game trifft wofür es kein Profil gibt und die gerade aktiven Parameter den MC falsche Schlüsse aus den Speicheranforderungen ziehen lassen. Dann hätte man weniger Leistung als es möglich gewesen wäre.

Bei Riddick in 1024*768 haben wir die Situation ja schon das die neuen Einstellungen schlechter als die alten sind.

Crushinator
2005-10-13, 23:54:39
Bei Riddick in 1024*768 haben wir die Situation ja schon das die neuen Einstellungen schlechter als die alten sind.
LOL! Ja, das habe ich auch eben erst gelesen. Aber nichtsdestotrotz darf man deshalb nicht daraus ableiten, daß der Ansatz schlecht oder sonderlich schlimm ist. Immerhin ist das Spiel in den höheren Auflösungen schneller als mit der alten Einstellung.

Das beste für den User wäre natürlich, wenn er die Dynamik des MC über's CP bei Bedarf deaktivieren und damit auf's Default stellen könnte. Dann könnte er zumindest sowas verhindern wie bei Riddick passiert ist.

StefanV
2005-10-14, 00:02:55
Ist Atelco denn zuverlässig? Wobei 430€ für die Leistung eigentlich zuviel ist.
LOL?!

Machst du witze?!

PS: ich kaufe fast nur bei Atelco, auch wenn sie etwas teurer sind...
Der Grund ist, das, wenn was Hinüber ist, ich meinen hübschen Hintern nur ins Auto schwingen muss, ~100km fahren und das Problem ist keins mehr ;)

Coda
2005-10-14, 00:09:07
Ist doch klar, es kommt nicht nVIDIA. Das kann gar nicht gut sein, schon gar kein technischer Fortschritt. X-DIch weiß nicht mehr wer App-Profile zuerst eingeführt hat. Ich glaube es war sogar nVIDIA ;)

Attestierst du mir jetzt auch schon Fanboyismus oder was?

Crushinator
2005-10-14, 00:10:30
Ich weiß nicht mehr wer App-Profile zuerst eingeführt hat. Ich glaube es war sogar nVIDIA ;)
Dem Quak-Che... err... der -Optimierung err... dem Bug nach, war's ATi. X-D
Attestierst du mir jetzt auch schon Fanboyismus oder was?
Nein, Du hast da etwas mehr hineininterpretiert als es meine Intention (Klischee bedienen) hergab.

deekey777
2005-10-14, 00:15:54
Dem Quak-Che... err der -Optimierung nach, war's ATi. X-D

Nein, Du hast da etwas mehr hineininterpretiert als es meine Intention (Klischee bedienen) war.

Diesen Fehler in den Betatreibern wird man bei ATi wohl nie los.
LOL?!

Machst du witze?!

PS: ich kaufe fast nur bei Atelco, auch wenn sie etwas teurer sind...
Der Grund ist, das, wenn was Hinüber ist, ich meinen hübschen Hintern nur ins Auto schwingen muss, ~100km fahren und das Problem ist keins mehr ;)

Zum Glück hast du nicht "ins hübsche Auto" geschrieben. ;(

Crushinator
2005-10-14, 00:24:16
Diesen Fehler in den Betatreibern wird man bei ATi wohl nie los.
Das ist auch gut so! Je tiefer der Schock bei ihnen sitzt desto geringer die Wahrscheinlichkeit daß es zu weiteren solcher Bugs kommt.

deekey777
2005-10-14, 00:29:26
Das ist auch gut so! Je tiefer der Schock bei ihnen sitzt desto geringer die Wahrscheinlichkeit daß es zu weiteren solcher Bugs kommt.

OT:
Aber es war schon eine tolle Zeit, als man kramphaft versucht hatte, einen Cheat in nVidias Treiber (zB für 3D 2003) nachzuweisen, denn sofort kam einer und schrieb: "Aber damals vor 100 Jahren, da hat ATi in Quake 3 gecheatet." :biggrin:
Heutzutage ist es schwerer geworden, die pösen IHVs schummeln fast immer bei der Filterung. ;(

Demirug
2005-10-14, 07:03:24
LOL! Ja, das habe ich auch eben erst gelesen. Aber nichtsdestotrotz darf man deshalb nicht daraus ableiten, daß der Ansatz schlecht oder sonderlich schlimm ist. Immerhin ist das Spiel in den höheren Auflösungen schneller als mit der alten Einstellung.

Ich sage ja auch nicht das die Grundidee schlecht ist. Ich kritisiere nur das es nicht Selbstregulierend ist.

Das beste für den User wäre natürlich, wenn er die Dynamik des MC über's CP bei Bedarf deaktivieren und damit auf's Default stellen könnte. Dann könnte er zumindest sowas verhindern wie bei Riddick passiert ist.

Der MP braucht immer eine Einstellung und was ATI ja mit dem Registry Einstellungen verändert hat war ja eines der Default Profile.

Grestorn
2005-10-14, 07:04:03
Diesen Fehler in den Betatreibern wird man bei ATi wohl nie los.Wie kann etwas ein Bug sein, dass genau auf eine bestimmte .exe losgeht?

Ich finde App-Profile übrigens nicht negativ (überascht das jemanden?! :wink:). Nur sollte man die auch offen legen und auch für den User änderbar machen. Die Vorteile für den Anwender sind einfach zu sexy.

Und so dumm sind viele User nun auch wieder nicht, dass sie damit überfordert wären (wie ATI offenbar denkt, sonst wären die Profile bereits offen). Man muss sich ja damit nicht auseinandersetzen, wenn man nicht will.

Mr. Lolman
2005-10-14, 08:09:27
Dem Quak-Che... err... der -Optimierung err... dem Bug nach, war's ATi. X-D

Nönö, keine Sorge, das war schon NV. Nämlich mit dem S3TC Ch..Opti..BUG für die Geforce2. Und dass man davor schon auf 3dmarks optimiert hat, ist imo sehr gut möglich (und lässt sich in der Akte NVidia sicher nachlesen ;))

Odal
2005-10-14, 09:27:48
Naja, man sollte das schon kritisch sehen. Es kann z.B. sein, dass man nur auf oft gebenchte Timedemos optimiert und dabei den Rest des Spiels dann vernachlässigt. Sowas könnte ich mir in FarCry z.B. vorstellen, aber da benchen sie zum Glück ja immer Innen- und Außenlevel.

Mir wäre es lieber wenn der Chip sowas selbst kalibrieren könnte, kostet halt wieder Transistoren.


du hast es zum teil erfasst...

ich sehe die gefahr das auf bestimmte gameabschnitte optimiert wird (welche "zufällig" auch in tests verwendet werden ;) ) und das durch diese statische "hard-wired" optimierung hier und da vielleicht bis zu 30% mehrperformance herausgeholt wird, der grad des anteils zu glättender kanten aber nicht konstant ist, und somit in anderen szenen durchaus herbe performanceeinbrüche hervorgerufen werden könnten.
Wie das beim Marketing so ist, man sucht die für sich am besten passenden ergebnisse raus und präsentiert diese.

Odal
2005-10-14, 09:34:05
Ich bin ja normalerweise nicht für das direkte kopieren aus Marketing Unterlagen. Aber in diesem Fall ist das wohl OK

http://img7.picsplace.to/img7/1/thumbs/R520_Memory_Prog.PNG (http://img7.picsplace.to/img.php?file=img7/1/R520_Memory_Prog.PNG)


naja in gewisser weise ist es schon programmierbar, aber programmierbar ohne logikanweisungen :biggrin:
wenn ATI jetzt eine möglichkeit eingebaut hat (was ich für sehr unwahrscheinlich halte :D ) um bei jedem durchlauf mit dem treiber den speicherbedarf der einzelnen stationen auslesen zu können, könnte man diese logik im treiber realisieren

seahawk
2005-10-14, 09:47:52
Woosah...

Part 4: Rendering Quality, New Anti-Aliasing and Anisotropic Filtering Modes (http://www.digit-life.com/articles2/video/r520-part4-a.html)

Jo, der Unterschied bei 2xAF ist :eek:

seahawk
2005-10-14, 09:59:20
Die Verbesserung der Nutzung des MC ist natürlich ein echter Schritt. Die Performancekrone dürfte damit endgültig an ATI gehen. Respekt. Ein sehr nützliches Feature, man sollte das in den AI integrieren, so dass der Anwender nicht mit Profilen und ähnlichem genervt wird.

Demirug
2005-10-14, 10:15:22
seahawk, die Memory Controller Einstellungen sind doch schon lange Teil von A.I. so wie alles andere was auf Applikationserkennung aufbaut auch.

Xmas
2005-10-14, 10:24:42
Nönö, keine Sorge, das war schon NV. Nämlich mit dem S3TC Ch..Opti..BUG für die Geforce2.
Applikationserkennung ist sicher nichts neues, aber der "S3TC-Bug" ist eine Hardwarebeschränkung, die sich von NV1x bis (in anderer Form) NV2x hinzog.

StefanV
2005-10-14, 10:50:04
Wie kann etwas ein Bug sein, dass genau auf eine bestimmte .exe losgeht?
Den Nachfolgenden Treiber hast dir aber auch angeschaut und festgestellt, das es keine Performanceänderungen zu dem Buggy Treiber gab?!

seahawk
2005-10-14, 10:55:31
seahawk, die Memory Controller Einstellungen sind doch schon lange Teil von A.I. so wie alles andere was auf Applikationserkennung aufbaut auch.

Ich weiss. Ich war der jetzt eher ironisch. Je mehr ich mich mit A.I. beschäftige desto überraschter bin ich vom Verhalten.

Grestorn
2005-10-14, 12:31:49
Die Verbesserung der Nutzung des MC ist natürlich ein echter Schritt. Die Performancekrone dürfte damit endgültig an ATI gehen. Respekt. Ein sehr nützliches Feature, man sollte das in den AI integrieren, so dass der Anwender nicht mit Profilen und ähnlichem genervt wird.Ob ich die Profil-Tabelle im Treiber verstecke und AI nenne oder sie offen lege hat funktional keinen Unterschied.

Im letzten Falle kann sich der Anwender aber selbst mal ein Profil (für ein neues Spiel z.B.) basteln. Also gibt's da nur Vorteile.

Man kann natürlich auch verkrampft bei allem einen Nachteil sehen, wo nV draufsteht.

Grestorn
2005-10-14, 12:33:26
Den Nachfolgenden Treiber hast dir aber auch angeschaut und festgestellt, das es keine Performanceänderungen zu dem Buggy Treiber gab?!Ja und? Es war dennoch beabsichtigt speziell etwas für Quake anzupassen. Die Anpassung war fehlerhaft und konnte korrigiert werden. Eine App-Spezifische Anpassung war es natürlich dennoch.

micki
2005-10-14, 12:59:02
Ich sage ja auch nicht das die Grundidee schlecht ist. Ich kritisiere nur das es nicht Selbstregulierend ist.
du meinst, dass die hardware das alleine regelt?

Spasstiger
2005-10-14, 13:02:14
Sehe ich das richtig, dass ATi dann mit AA und AF nVidia in allen OGl Spielen überholen WÜRDE?
Mit 30% mehrleistung wäre d3, CoR usw. doch eigntlich zu holen, oder?
Das wäre ein derber Rücksclag für nVidia falls das stimmen würde........

Nvidia hat bis zu 50% Performancevorteil, man vergleiche z.b. die Radeon X800 Pro und die GeForce 6800 Non Ultra 256 MB (unter D3D ca. gleich schnell, leichter Vorteil für die X800 Pro):
http://www.digit-life.com/articles2/digest3d/0705/itogi-video-d3-wxp-aaa-1280-agp.html

Aber was vergleiche ich hier eigentlich, betrifft doch eh nur die Radeon X1K Familie.

Horimoto
2005-10-14, 13:07:52
hat sich ja schon erledigt.
Laut HExus ist die Xt in D3 schneller als die GTX, in CoR weiterhin, aber diemal knapp, hinter der GTX

Demirug
2005-10-14, 13:08:07
du meinst, dass die hardware das alleine regelt?

Von mir aus darf sie das auch in Zusammenarbeit mit dem Treiber tun aber eben ohne applikationspsezifische Profile. Denn bei dieser Lösung muss man immer warten bis sich der Hersteller dem Spiel annimt.

Coda
2005-10-14, 13:18:11
Nönö, keine Sorge, das war schon NV. Nämlich mit dem S3TC Ch..Opti..BUG für die Geforce2. Und dass man davor schon auf 3dmarks optimiert hat, ist imo sehr gut möglich (und lässt sich in der Akte NVidia sicher nachlesen ;))Das war wirklich ein HW-Bug, wurde ja auch nicht mit einem Treiber sondern erst mit der GeForce 4 behoben.

Den Nachfolgenden Treiber hast dir aber auch angeschaut und festgestellt, das es keine Performanceänderungen zu dem Buggy Treiber gab?!Also ich bitte dich. Wenn man eine exe umbenennt und dann andere Bilder bekommt ist das mit Sicherheit eine App-Detection.

Demirug
2005-10-14, 13:34:34
Das war wirklich ein HW-Bug, wurde ja auch nicht mit einem Treiber sondern erst mit der GeForce 4 behoben.

Das war nicht mal ein Bug sondern nur eine gültige, wenn auch sehr unschöne, Interpretation der S3TC Spezifikation.

Mr. Lolman
2005-10-14, 14:07:11
Das war nicht mal ein Bug sondern nur eine gültige, wenn auch sehr unschöne, Interpretation der S3TC Spezifikation.


Der CHEAT (!!!) daran war, dass man das kaputte GF2-S3TC unter Q3a forciert hat. (denn standardmässig ists ja nichtmal aktiviert)


NV wusste sehr wohl um ihre unschöne Interpretation, aber weil die Reviewer damals noch alle noch fps-geiler waren als jetzt (die Wappler benchten ja die neuesten karten mit der fastest Einstellung - nur damit die fps schön hoch sind), wars nicht so wichtig, dass die BQ damit in Arsch ging. Die TnL Engine konnte bei diesen Settings ihren Vorteil voll auspielen und deswegen wurde eine V5 (unter Q3a) von ner GF2 GTS vernichtet. Ironischerweise waren beide Karten @ maxdetail, 1280x1024 ca. gleich schnell (+/- paar Prozent) X-D

Coda
2005-10-14, 14:10:50
Der CHEAT (!!!) daran war, dass man das kaputte GF2-S3TC unter Q3a forciert hat. (denn standardmässig ists ja nichtmal aktiviert)Ich weiß es nicht mehr, aber war S3TC ach dann aktiv wenn man 32bit-Texturen ausgewählt hatte? Dann war es natürlich ein Cheat.

Mr. Lolman
2005-10-14, 14:13:05
Ich weiß es nicht mehr, aber war S3TC ach dann aktiv wenn man 32bit-Texturen ausgewählt hatte? Dann war es natürlich ein Cheat.

Keine Ahnung. Jedenfalls sollte S3TC auch mit default Einstellungen nicht aktiv sein. Bei NV gabs einen Treiber wo das plötzlich doch der Fall war...

Crushinator
2005-10-14, 14:18:29
Ich weiß es nicht mehr, aber war S3TC ach dann aktiv wenn man 32bit-Texturen ausgewählt hatte? Dann war es natürlich ein Cheat.
Es war auch mit 32 Bit und Texturdetails auf highest aktiv (http://www.3dcenter.de/artikel/2000/10-26a.php).

SKYNET
2005-10-14, 14:24:59
Ist Atelco denn zuverlässig? Wobei 430€ für die Leistung eigentlich zuviel ist.


einer der besten und zufällsigsten shops überhaupt, zwar nicht der günstigste, aber alles passt, service, garantie lieferbarkeit wie angegeben etc. :cool:

micki
2005-10-14, 14:25:44
Von mir aus darf sie das auch in Zusammenarbeit mit dem Treiber tun aber eben ohne applikationspsezifische Profile. Denn bei dieser Lösung muss man immer warten bis sich der Hersteller dem Spiel annimt.

dafür müßte man wissen, was genau programmierbar ist um zu wissen, ob diese sache automatisierbar ist. ich denke, wenn ati nicht vollautomatisch optimieren kann, aber dann per hand dennoch optimierungen nachschiebt, sollte man es nicht so sehen als ob es grundlegend erstmal schlecht läuft und dann von ati auf das erwartete niveau gebracht wird, sondern als ein bonus für die beliebten spiele. es muss ja auch nicht immer qualitätsmindernd sein, sondern eine effizienssteigerung bei gleicher qualität.

weiß denn jemand schon was das für optimierungen sein könnten?

MfG
micki

Coda
2005-10-14, 14:36:25
weiß denn jemand schon was das für optimierungen sein könnten?Wurde schon erwähnt. Anscheinend können den verschiedenen Clients unterschiedliche Prioritäten zugeteilt werden.

Blaire
2005-10-14, 15:33:51
hat sich ja schon erledigt.
Laut HExus ist die Xt in D3 schneller als die GTX, in CoR weiterhin, aber diemal knapp, hinter der GTX

Abwarten. In einen englischen Forum wird auch über Gammaprobleme berichtet...
Hier ein Test mit einer X800XL und so pralle ist das nun auch wieder nicht...
http://www.guru3d.com/news.php#3182

Coda
2005-10-14, 15:53:57
Gammaproblem? Also Gamma-Einstellung des Bilds? Das hat keine Auswirkungen auf die Framerate.

Blaire
2005-10-14, 15:58:22
Gammaproblem? Also Gamma-Einstellung des Bilds? Das hat keine Auswirkungen auf die Framerate.

Keine Ahnung was die damit genau meinen. Vieleicht meinen die auch die Beleuchtung von Objekten in den Levels ist aber nur reine Spekulation.

Coda
2005-10-14, 16:00:50
Auf sowas hat der Speichercontroller normal keinen Einfluss, und mit "Gammaproblem" würde man das auch eher nicht beschreiben.

Gaestle
2005-10-14, 16:13:20
Woosah...

Part 4: Rendering Quality, New Anti-Aliasing and Anisotropic Filtering Modes (http://www.digit-life.com/articles2/video/r520-part4-a.html)

Leider erwähnen die Reviewer mehrmals, dass das ATis "neues" HQ-AF keine Vorteile bringen würde. Erst im Fazit schränken Sie dies stärker ein und schreiben, dass es bei heutigen Games aufgrund des Leveldesigns (keine / zuwenig "ungünstigen" Flächen) keine Vorteile zu sehen sind.

Schade.

Grüße

Coda
2005-10-14, 16:44:59
Was einfach Quatsch ist. Es gibt genügend Spiele mit Terrain-Engine und da ist jede Menge schief und krumm.

Mr. Lolman
2005-10-14, 17:10:05
Keine Ahnung was die damit genau meinen. Vieleicht meinen die auch die Beleuchtung von Objekten in den Levels ist aber nur reine Spekulation.

War das nicht auf NV Karten bezogen?

http://www.beyond3d.com/forum/showthread.php?t=23195

Gaestle
2005-10-14, 17:10:07
Was einfach Quatsch ist. Es gibt genügend Spiele mit Terrain-Engine und da ist jede Menge schief und krumm.


Ja. IMHO kriegt ATi nicht den Beifall, den sie für das HQ-AF verdienen. Deswegen ja auch "Schade."

Grüße

Mr. Lolman
2005-10-14, 17:12:38
Ja. IMHO kriegt ATi nicht den Beifall, den sie für das HQ-AF verdienen. Deswegen ja auch "Schade."

Grüße

Hätt mich ja gewundert. Wenn selbst "Größen" wie Firingsquad, bei Riddick (!!) biAF besser finden als triAF... :usad:

/edit: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=211060

betasilie
2005-10-14, 17:23:44
Ja. IMHO kriegt ATi nicht den Beifall, den sie für das HQ-AF verdienen. Deswegen ja auch "Schade."

Grüße
Und gerade von den Leuten, die vorher groß übers AF gemeckert haben hört man nicht den verdienten Beifall. Ne, jetzt wird sich aufs FP-Filtering eingeschossen und versucht das ganze völlig übertrieben durch den Dreck zu ziehen. Naja, wer nicht merkt was hier abläuft, ist selber Schuld.

Blaire
2005-10-14, 17:26:10
War das nicht auf NV Karten bezogen?

http://www.beyond3d.com/forum/showthread.php?t=23195

Der Ambient Light Bug wurde mit dem 78.05 Forceware behoben. Nein die meinten schon X1800 Karten. Darum geben sie sicher diesen neuen Betatreiber noch nicht frei.

Blaire
2005-10-14, 17:37:31
In FEAR scheinen die X1800 und die 7800 richtig und falsch zu rendern. Schaut euch die ganzen Screenshots an und nicht nur einen Ausschnitt: Da sind einige Unterschiede zu sehen, ohne das es einen "Sieger" gibt.

Mit den 81.84 Beta Treibern hat Nvidia nun auch korrupte Softshadows bei der Retail Version von F.E.A.R.
Bei der Multiplayer Beta Demo war dies noch nicht der Fall...

Edit: War mein Fehler man darf FSAA nicht im ControlPanel forcen , dann gibts Fehler! Bei Application Controlled sind die Fehler behoben, also viel Rauch um nix. :D

deekey777
2005-10-14, 17:49:05
Was einfach Quatsch ist. Es gibt genügend Spiele mit Terrain-Engine und da ist jede Menge schief und krumm.

Also die Tester von [H]ardOCP hatten ein glücklichers Händchen bei der Auswahl der "Locations" für ihr Review.
http://www.hardocp.com/article.html?art=ODIyLDg=

Coda
2005-10-14, 17:51:08
Sehr gut. Ich bin so froh, dass beide jetzt endlich einsehen müssen dass optionales WU-AF einfach sein muss.

Ich hoffe wir sehen das bei nVIDIA schon mit dem G70-Refresh. Langsam glaube ich nämlich auch nicht mehr, dass NV4x es kann.

aths
2005-10-14, 18:20:00
Hätt mich ja gewundert. Wenn selbst "Größen" wie Firingsquad, bei Riddick (!!) biAF besser finden als triAF... :usad:

/edit: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=211060War es nicht mal so, dass ein Lolman das R200-Bi-AF als besser nutzbar als das GF4-AF hingestellt hat?


Ja. IMHO kriegt ATi nicht den Beifall, den sie für das HQ-AF verdienen. Deswegen ja auch "Schade."

GrüßeEigentlich sollte das neue AF in noch verbesserter Form schon längst Standard sein. Insofern sehe ich es als sinnvoller an, Nvidia Vorhaltungen zu machen, dass sie einen sinnvollen AF-Modus aus der ach so tollen SM3-Serie entfernt haben. SM3 schön und gut, aber erst mal muss die Texturfilterung vernünftig sein.

ATI hat die Zeichen der Zeit erkannt und bietet in ihrem SM3-Chip ein AF, was im 8x-Modus offenbar fast so gut wie im NV20 ist – also sehr gut.

Mr. Lolman
2005-10-14, 18:27:37
War es nicht mal so, dass ein Lolman das R200-Bi-AF als besser nutzbar als das GF4-AF hingestellt hat?

Ja schon aber immer schön im Kontext bleiben. Ich versuchte es nur gegen die Leute zu verteidigen, die es als unbrauchbar hingestellt haben. Das Bild war bspw. bei Mafia ganz ok, und man konnte problemlos 1280x1024, 16xAF eingestellt haben, wo ne GF4 sich schon mit AF>2x recht schwer tat. Ich hab aber nirgendwo behauptet, dass es besser als GF4 AF aussieht. ;)

/edit: Außer vll. im spezifischen Beispiel 2xAF vs. 16xAF. Und das auch bei gewissen Spielen wie Mafia oder Rallisportchallenge. Serious Sam war mit negativem LOD und SSAA besser spielbar. (Wobei diese Settings wieder enttäuschende Performance im vgl zur Voodoo5 ablieferten, aber das ist eh eine andere Geschichte ;))

ATI hat die Zeichen der Zeit erkannt und bietet in ihrem SM3-Chip ein AF, was im 8x-Modus offenbar fast so gut wie im NV20 ist – also sehr gut.

Wieso nicht genausogut? Lt. AF Blume sieht R520 8xAF doch genauso aus wie NV20 8xAF, oder?

aths
2005-10-14, 18:29:22
Sehr gut. Ich bin so froh, dass beide jetzt endlich einsehen müssen dass optionales WU-AF einfach sein muss.

Ich hoffe wir sehen das bei nVIDIA schon mit dem G70-Refresh. Langsam glaube ich nämlich auch nicht mehr, dass NV4x es kann.Kirk hatte mal diffuse Andeutungen gemacht, aber daraus lässt sich nichts ableiten. Als NV im Treiber der GeForce FX endlich wieder erlaubte, voll trilinear zu filtern, gabs von mir auch keinen Applaus, denn volle trilineare Filterung sollte Standard sein.

Der Entwickler kann kein brilinear anfordern, nur bi- oder trilinear. Der Treiber hat genau das zu machen, was ihm gesagt wird, also die GPU voll trilinear filtern zu lassen und nichts anderes. Leider sehen das sowohl Nvidia als auch ATI anders. Für mich ist klar dass solche Sachen ("Optimierungen") nur auf ausdrücklichen User-Wunsch aktiv sein dürfen. Es ist auch nicht mein Problem wenn die es nicht hinkriegen, ein wirklich einfach verwendbares CP zu erschaffen, welches übersichtlich und verständlich ist.

Bevor der R520 gelauncht wurde äußerte ich mich ja in die Richtung, dass ich keinen Wert darauf lege dass der R520 den G70 in Bezug auf fps-Zahlen übertrumpft, sondern dass er spürbar mehr BQ bietet. ATI hat die Chance genutzt. Im Vertrauen kann ichs ja mal sagen, dass ich Nvidia natürlich dieses Szenario mal als Möglichkeit genannt hatte, um sie aus der Reserve zu locken, wie konkurrenzfähig das G70-AF denn nun wirklich ist. Doch ich gewann nicht den Eindruck, als würde NV bezüglich BQ auf meine Haltung irgendwas geben. Ihr 16x AF erfülle den WHQL-Test und damit sei es gut.

aths
2005-10-14, 18:36:23
Ja schon aber immer schön im Kontext bleiben. Ich versuchte es nur gegen die Leute zu verteidigen, die es als unbrauchbar hingestellt haben. Das Bild war bspw. bei Mafia ganz ok, und man konnte problemlos 1280x1024, 16xAF eingestellt haben, wo ne GF4 sich schon mit AF>2x recht schwer tat. Ich hab aber nirgendwo behauptet, dass es besser als GF4 AF aussieht. ;)Ok.

Meine AF-Erfahrungen: Mein Zimmernachbar im Studentenwohnheim kaufte einen neuen Rechner mit einer Radeon DDR. Das AF machte die Texturen natürlich scharf. Den "Problem-Blick" hatte ich damals noch nicht, obwohl ich natürlich rams Artikel kannte der mit Screenshots aus Quake3 die MIP-Bänder zeigte.

Mit meiner GF4 Ti spielte ich Quake in 2x AA und 8x AF in 1152x854 (vorher: 640x480, damit die Voodoo4 im 32-Bit-Modus die benötigten 60 fps bringt.) Das war ein Sprung, sag ich dir. Texturen wirkten auf mich kristallklar, egal in welchem Winkel bzw. welcher Entfernung (damals dachte ich noch, AF würde "entfernte" Texturen schärfen.) Ich lief durch die Level, nur, um die Texturen zu genießen.

aths
2005-10-14, 18:37:17
Wieso nicht genausogut? Lt. AF Blume sieht R520 8xAF doch genauso aus wie NV20 8xAF, oder?Nein.

Und die Blume sagt auch nicht alles.

deekey777
2005-10-14, 18:38:18
...
Wieso nicht genausogut? Lt. AF Blume sieht R520 8xAF doch genauso aus wie NV20 8xAF, oder?
Ich habe so ein böses Gefühl, daß es wieder so ein adaptiver Algorithmus ist, der genau weiß, wann er "hübsch" zu sein hat.

aths
2005-10-14, 18:40:08
Das war wirklich ein HW-Bug, wurde ja auch nicht mit einem Treiber sondern erst mit der GeForce 4 behoben.Leider nein. Im NV25/28 war es nur verschlimmbessert (weiterhin 16 Bit, jedoch mit Dithering. Der Q3-Himmel sah weiterhin zum Heulen aus.) Behoben wurde diese, äh, interessante Auslegung der Spezifikation erst mit dem NV30.

Mr. Lolman
2005-10-14, 18:45:38
Ok.

Meine AF-Erfahrungen: Mein Zimmernachbar im Studentenwohnheim kaufte einen neuen Rechner mit einer Radeon DDR. Das AF machte die Texturen natürlich scharf. Den "Problem-Blick" hatte ich damals noch nicht, obwohl ich natürlich rams Artikel kannte der mit Screenshots aus Quake3 die MIP-Bänder zeigte.

Mit meiner GF4 Ti spielte ich Quake in 2x AA und 8x AF in 1152x854 (vorher: 640x480, damit die Voodoo4 im 32-Bit-Modus die benötigten 60 fps bringt.) Das war ein Sprung, sag ich dir. Texturen wirkten auf mich kristallklar, egal in welchem Winkel bzw. welcher Entfernung (damals dachte ich noch, AF würde "entfernte" Texturen schärfen.) Ich lief durch die Level, nur, um die Texturen zu genießen.

Q3a? Naja da bin ich seit der Radeon 8500 zum 125fps Kiddie mutiert. Also kein AA, und AF hab ich mir 4x angetan, aber ohne Texturefix von Kai. Nur muss ich auch dazu sagen, dass mir NV Q+alle Opts vom Flimmerfaktor viel übler auffällt als das R200 AF damals. Auf der Voodoo5 hab damals ich mit 1024x768x22 (WickedGL, FXT) gespielt. Keine Ahnung wieviele fps das waren. mal testen...

/edit: Garnichtmal so langsam: Voodoo5 5500 PCI, XP2400+@2.4GHz, Q3a 1.32, fourdm.68, 1024x768x22, max Details, WickedGL, forced FXT:

134.8fps :D

Xmas
2005-10-14, 19:29:13
Keine Ahnung. Jedenfalls sollte S3TC auch mit default Einstellungen nicht aktiv sein. Bei NV gabs einen Treiber wo das plötzlich doch der Fall war...
Soweit ich weiß ist S3TC in Q3 immer aktiv wenn es die Karte denn kann (also in OpenGL bietet) und man es nicht explizit über die Konsole/ini deaktiviert. "Ultra Quality" wie in Doom3, was dann nur unkomprimierte Texturen verwendet, gab es in Q3 im Einstellungspanel nicht.

Coda
2005-10-14, 19:31:09
Mhm eigentlich schon. Man konnte dort wenn ich mich richtig erinnere, 16bit, 32bit und Compressed einstellen.

Edit: Doch nicht, hast recht. Nur 16bit und 32bit.

Mr. Lolman
2005-10-14, 19:34:40
Soweit ich weiß ist S3TC in Q3 immer aktiv wenn es die Karte denn kann (also in OpenGL bietet) und man es nicht explizit über die Konsole/ini deaktiviert. "Ultra Quality" wie in Doom3, was dann nur unkomprimierte Texturen verwendet, gab es in Q3 im Einstellungspanel nicht.


Wir haben beide recht. S3TC ist bis 1.17 standardmässig aktiv und danach nicht mehr: Es war auch mit 32 Bit und Texturdetails auf highest aktiv (http://www.3dcenter.de/artikel/2000/10-26a.php).

Xmas
2005-10-14, 19:54:40
Aber der Treiber erzwingt es ja nicht, wenn es vom Spiel gar nicht gefordert wurde. Schaltet man S3TC im Spiel ab, sind die Qualitätsprobleme ja weg. Somit ist es auch kein Cheat.

Mr. Lolman
2005-10-14, 20:04:51
Aber der Treiber erzwingt es ja nicht, wenn es vom Spiel gar nicht gefordert wurde. Schaltet man S3TC im Spiel ab, sind die Qualitätsprobleme ja weg. Somit ist es auch kein Cheat.

Diesen kaputten Mist hätte man nie freischalten dürfen. Erzwungen wirds zwar anscheinend nicht (hab mich wohl geirrt :redface: ), aber wenn man sich die BQ anschaut, hätte man genausogut 3dfx mit eingeschalteten HSR benchen können. Bringt auch viel fps und war zum Spielen praktisch genauso unbrauchbar...

Xmas
2005-10-14, 20:16:37
In Q3, ja. Nicht in allen Spielen fiel es negativ auf.

Mr. Lolman
2005-10-14, 20:19:24
In Q3, ja. Nicht in allen Spielen fiel es negativ auf.

Was gabs denn damals für S3TC fähige Spiele? Nichtmal Unreal hatte einen S3TC Renderer zu der Zeit.

Xmas
2005-10-14, 20:22:22
Was gabs denn damals für S3TC fähige Spiele? Nichtmal Unreal hatte einen S3TC Renderer zu der Zeit.
Das weiß ich nicht. Aber Unreal (UT?) ist doch ein gutes Beispiel, warum man es nicht hätte sperren sollen.

Mr. Lolman
2005-10-14, 20:48:52
Das weiß ich nicht. Aber Unreal (UT?) ist doch ein gutes Beispiel, warum man es nicht hätte sperren sollen.
Der besagte Detonator 5.08 kam im März 2000 raus. ~1 Monat später gabs schon die 1. Voodoo5 Previews. Dann dauerte es noch 1/2 Jahr bis zum 1. Release des S3TC Renderers für Unreal. Und dann nochmal ein Monat bis zum S3TC Fix. ;)

aths
2005-10-14, 20:57:34
Diesen kaputten Mist hätte man nie freischalten dürfen. Erzwungen wirds zwar anscheinend nicht (hab mich wohl geirrt :redface: ), aber wenn man sich die BQ anschaut, hätte man genausogut 3dfx mit eingeschalteten HSR benchen können. Bringt auch viel fps und war zum Spielen praktisch genauso unbrauchbar...Es ist nicht kaputt, nur suboptimal gelöst.

DXT3 und 5 sind ja wie DXT1, nur mit einem zusätzlichen Block für Alpha. Das heißt, für DXT3 und 5 wird zur Dekodierung der Farbinformation sicherlich die gleiche Hardware verwendet wie für DXT1. Welche Formate gibt es für abgestuftes Alpha? RGBA 8888 ist am gebräuchlichsten. Für reine Farben gibts ein 16-Bit-Format RGB 565. Das heißt, DXT1 wurde nach RGB 565 dekomprimiert, DXT3 und 5 nach RGBA8888. Diese Dekomprimierung fand bei jenen Karten vor dem Schreiben in den Textur-Cache statt. Die DX-Spec schreibt nicht vor, dass die Dekomprimierung in ein Truecolor-Format zu erfolgen hat. (Allerdings impliziert die Art und Weise, wie DXT funktioniert, dass man die Farben für vernünftige Qualität immer in ein Truecolor-Format extrahieren sollte.)

Mr. Lolman
2005-10-14, 21:02:40
(Allerdings impliziert die Art und Weise, wie DXT funktioniert, dass man die Farben für vernünftige Qualität immer in ein Truecolor-Format extrahieren sollte.)

Eben ;)

BTW: Woher kommen denn die anderen Bildfehler, wenn da wirklich nix kaputt war? http://www.3dcenter.de/artikel/2000/10-26c.php

Ok, wiedermal nicht bis zum Ende gelesen (Der Patch 1.27 erschien übrigens im Jänner 2001 ;)):

Die visuellen Fehler der letzten beiden Screenshots sind ein Problem von Q3A, welches mit dem 1.27er Patch gelöst ist. Erstaunlicherweise tritt dieses Problem aber nur bei der GeForce auf.

aths
2005-10-14, 21:24:33
Eben ;)An dieser Stelle für alle: Den Ironie-Smiley mag ich nicht besonders. Wenn mir jemand zuzwinkert, empfinde ich das als aufdringlich.

(Das folgende richtet sich ebenfalls nicht speziell an dich.)


Hinterfragt man, wie bestimmte Features umgesetzt werden sollten, kommt man auch darauf, wie AF oder trilineare Filterung auszusehen hat – leider gibt es immer wieder mal von unterschiedlichen Seiten das Bestreben, Dinge kleinreden zu wollen. AF in R200, R300? Ach, nicht so schlimm, sieht doch gut aus und ist sogar 16x. Nur noch brilinear statt trilinear bei der der FX? Ach merkt man doch kaum. Das neue AF ab NV40? Endlich schön schnell ... und so weiter.

Entpackt man DXT1 in ein 16-Bit-Format, nimmt es im Cache weniger Platz weg, womit mehr Texel im Cache sein können – die Geschwindigkeit steigt ein wenig. Aber das alleine kann es ja nicht sein.

Insofern wäre ich froh, wenn alle mal bei Bewertungen von Features nicht danach gucken, von dem das Feature kommt; sondern sich fragen, bei welcher Realisierung der Nutzen am größten ist.

Xmas
2005-10-14, 21:37:40
Der besagte Detonator 5.08 kam im März 2000 raus. ~1 Monat später gabs schon die 1. Voodoo5 Previews. Dann dauerte es noch 1/2 Jahr bis zum 1. Release des S3TC Renderers für Unreal. Und dann nochmal ein Monat bis zum S3TC Fix. ;)
Ich weiß nicht inwiefern das von Relevanz sein soll. "Diesen kaputten Mist hätte man nie freischalten dürfen" - warum nicht, wenn es doch in einigen Spielen etwas gebracht hat, egal wann diese herauskamen?

Mr. Lolman
2005-10-14, 22:13:13
An dieser Stelle für alle: Den Ironie-Smiley mag ich nicht besonders. Wenn mir jemand zuzwinkert, empfinde ich das als aufdringlich.

(Das folgende richtet sich ebenfalls nicht speziell an dich.)


Hinterfragt man, wie bestimmte Features umgesetzt werden sollten, kommt man auch darauf, wie AF oder trilineare Filterung auszusehen hat – leider gibt es immer wieder mal von unterschiedlichen Seiten das Bestreben, Dinge kleinreden zu wollen. AF in R200, R300? Ach, nicht so schlimm, sieht doch gut aus und ist sogar 16x. Nur noch brilinear statt trilinear bei der der FX? Ach merkt man doch kaum. Das neue AF ab NV40? Endlich schön schnell ... und so weiter.

Genau deswegen sollte man auch bei beiden Karten gleichermassen auf die AF Qualität achten. Überhaupt dann wenn man Artikel fürs 3DCenter schreibt.

All meine GraKakaufentscheidungen wurden im Sinne, das bestmögliche P/L Verhältnis zu bekommen, getätigt. Nur war ich damals wohl einer der Wenigen, die die BQ auch zur Leistung gezählt haben. Und wenn man sich mit fehlerhafter BQ Leistung erschummelt (wo von id Software extra ein Patch erscheinen musste, damit wenigstens DXT3 fehlerfrei auf NV Karten angezeigt wurde.) und man das im nachhinein als unschöne Interpretation der S3TC Spezifikation abtut, geht mir das Geimpfte auf!

Ich habe mich auch schon immer eingesetzt, mit vergleichbarer BQ zu benchen. Gleichzeitig versuch ich falsche/pauschalisierende Aussagen möglichs ins richtige Licht zu rücken. Und wenn jemand meint, dass Ati R200-AF generell unbrauchbar war, dann ist das einfach falsch. Und wenn die ATi R200 BQ besser aussieht als NV Treiberdefault (Q+alle Opts) unter OpenGL, dann versteh ich nicht, wie man als ebenso bemühter Redakteur es ewig lang nicht sieht, was NV da mit dem NV40 verbrochen hat. Dein Artikel über Brilinearität in Ehren, aber gerade brilinear ist im vgl zu den besagten Defaulteinstellungen eine Lapalie und trotzdem wurde das flimmern die GESAMTE NV40 Generation totgeschwiegen. Erst der G70, der nochmal eine weitere Verschlechterung brachte und selbst unter HQ kein schönes Bild mehr bot, war dann Anlaß für einen Artikel.

Also reit nicht darauf rum, dass ich nachwievor behaupte, dass es manche Spiele gab, in denen das R200 AF doch ganz brauchbar war. Ich hab auch schon ein paar Mal darauf hingewiesen, dass SS:SE + negativem LOD + SSAA für meine Radeon eine Kombination war, die quasi 0 Mehrleistung (tw. sogar weniger) zur V5 brachte (bei ähnlicher BQ)

Aber zu R200-Zeiten wurde ATI ohnenhin nicht als ernsthafte Konkurrenz zu NV geshen. Dass änderte sich schlagartig mit dem R300. Und ja, zu NV30 Zeiten war ATi AF vgl zum NV AF zwar auch Beschiss, aber du wirst mir wohl zustimmen, dass mit Hinzunahme von 4xAA, der BQ wieder eindeutig auf Atis Seite lag...

Ausführungen über meine (tw. unglückliche) Entscheidung zur 6800GT und das drumherum erspar ich mir jetzt mal.

Entpackt man DXT1 in ein 16-Bit-Format, nimmt es im Cache weniger Platz weg, womit mehr Texel im Cache sein können – die Geschwindigkeit steigt ein wenig. Aber das alleine kann es ja nicht sein.


Genau. So hat man sich noch mehr Leistung aus dem S3TC Support geholt, wobei die Kompressionsrate von 6:1 vgl. zu 32bit ja eh schon nicht so schlecht ist, und ein ordentlicher Support sicher kein Beinbruch bedeutet hätte. Voodookarten lieferten 32bit Texturen und waren deswegen unterlegen. ATi Karten hatten immerhin ne vernünftige S3TC Unterstützung, boten aber trotzdem noch schlechtere BQ als Voodookarten. Trotzdem wurde damals jedem Quaker die GF2 als ideale Q3a Karte verkauft -> ironischerweise also die Karte mit der miesesten BQ.

Ob man das jetzt alles als Cheat oder weite Auslegung der Specs sieht ist mir egal. Es war sicher eher im Sinne der Rendite als des Kunden -> ganz im Gegenteil zu deinem (für NV40-User leider viel zu späten) Artikel übers AF. =)

Mr. Lolman
2005-10-14, 22:18:29
Ich weiß nicht inwiefern das von Relevanz sein soll. "Diesen kaputten Mist hätte man nie freischalten dürfen" - warum nicht, wenn es doch in einigen Spielen etwas gebracht hat, egal wann diese herauskamen?

Warum? Weil die BQ von einem Treiber zum anderen bei Q3a kaputt wurde, und die Benchmarkergebnisse in die Höhe schnellten. Bis S3TC auf NV Karten komplett fehlerfrei dargestellt wurde, verging 1 Jahr!

Lösung? Treiber erst dann rausbringen wenn die BQ auch stimmt. (und selbst das Q+Opts Geflimmere unter Q3a betracht ich im Vergleich zum S3TC Unglück als harmlos.

Außerdem wars iirc wirklich nur einzig und allein Unreal, was neben Q3a einen Nutzen aus S3TC zog.

Coda
2005-10-14, 22:39:00
Hm? Auf NV1x und NV2x wurde S3TC nie fehlerfrei dargestellt...

Mr. Lolman
2005-10-14, 22:40:11
Hm? Auf NV1x und NV2x wurde S3TC nie fehlerfrei dargestellt...

Doch, mit dem S3TC Fix (DXT1->DXT3) und Q3a Patch 1.27.

aths
2005-10-14, 23:18:07
Genau deswegen sollte man auch bei beiden Karten gleichermassen auf die AF Qualität achten.Gleichermaßen.

Überhaupt dann wenn man Artikel fürs 3DCenter schreibt.Auch, wenn man im Forum schreibt. Das bezieht sich nicht speziell auf dich.

All meine GraKakaufentscheidungen wurden im Sinne, das bestmögliche P/L Verhältnis zu bekommen, getätigt. Nur war ich damals wohl einer der Wenigen, die die BQ auch zur Leistung gezählt haben.Ich kaufte damals die veraltete Technik im NV25, um die bessere BQ zu haben (MSAA, das gute AF.)

Und wenn man sich mit fehlerhafter BQ Leistung erschummelt (wo von id Software extra ein Patch erscheinen musste, damit wenigstens DXT3 fehlerfrei auf NV Karten angezeigt wurde.) und man das im nachhinein als unschöne Interpretation der S3TC Spezifikation abtut, geht mir das Geimpfte auf!Mein Kenntnisstand ist eben, dass DXT1 auf den bewussten GeForce-Karten durchaus gemäß der Spec umgesetzt war. Da geht mir nicht der Hut hoch. Das sollte man nur wissen, dass NV10-28 DXT1-Texturen in ziemlich mieser Qualität darstellen.

ATIs R200-AF halte ich nach wie vor für eine höchst fragwürdige Textur-"Verbesserung", jedenfalls nach dem was ich bei der Radeon 9000 sah. Wenn Nvidia später auf den Gedanken kommt, zu unterfiltern, macht das das bilineare und ungenaue (bezogen aufs LOD) ATI-R200-AF nicht besser.

Genau. So hat man sich noch mehr Leistung aus dem S3TC Support geholt, wobei die Kompressionsrate von 6:1 vgl. zu 32bit ja eh schon nicht so schlecht ist, und ein ordentlicher Support sicher kein Beinbruch bedeutet hätte.Im Vergleich zu 32 Bit wäre es 8:1.

aths
2005-10-14, 23:21:46
Hm? Auf NV1x und NV2x wurde S3TC nie fehlerfrei dargestellt...Nur DXT1 ist davon betroffen.

SentinelBorg
2005-10-15, 00:10:05
Nur DXT1 ist davon betroffen.
Genau und dagegen gabs ja auch schon lange vor dem Treiberpatch einen Fix. Die Performance ist durch den kaum messbar gesunken, die Qualität war dann 1a und mit AF den anderen Karten ein gutes Stück vorraus. Und darum war die GF2 damals auch DIE Q3A Karte.

S3TC war aber sowieso damals schon genauso wie heute eine tolle Sache. So boten z.B. Ultima 9 und Unreal extra hochaufgelöst S3TC-Texturen an. Gerade in Ultima 9 sind die einem teilweise wirklich ins Auge gesprungen, soviel schärfer waren die im Vergleich zu den normalen.

Sentinel

Coda
2005-10-15, 00:11:02
Nur DXT1 ist davon betroffen.Mein ich ja, sorry.

Mr. Lolman
2005-10-15, 00:23:12
Genau und dagegen gabs ja auch schon lange vor dem Treiberpatch einen Fix. Die Performance ist durch den kaum messbar gesunken, die Qualität war dann 1a und mit AF den anderen Karten ein gutes Stück vorraus. Und darum war die GF2 damals auch DIE Q3A Karte.


Ja, erst >1/2 Jahr nachdem man den Bug eingeführt wurde, konnte man die gröbsten Fehler mittels externem Tool fixen.


S3TC war aber sowieso damals schon genauso wie heute eine tolle Sache. So boten z.B. Ultima 9 und Unreal extra hochaufgelöst S3TC-Texturen an. Gerade in Ultima 9 sind die einem teilweise wirklich ins Auge gesprungen, soviel schärfer waren die im Vergleich zu den normalen.

Sentinel

UltimaIX lief auf ner Voodoo5 um tw. fast 50% flotter als auf ner GF2.

Xmas
2005-10-15, 01:57:00
Warum? Weil die BQ von einem Treiber zum anderen bei Q3a kaputt wurde, und die Benchmarkergebnisse in die Höhe schnellten. Bis S3TC auf NV Karten komplett fehlerfrei dargestellt wurde, verging 1 Jahr!

Lösung? Treiber erst dann rausbringen wenn die BQ auch stimmt. (und selbst das Q+Opts Geflimmere unter Q3a betracht ich im Vergleich zum S3TC Unglück als harmlos.

Außerdem wars iirc wirklich nur einzig und allein Unreal, was neben Q3a einen Nutzen aus S3TC zog.
Unreal Tournament. Und es gibt eine Menge anderer Spiele, die S3TC nutzen (unter anderem auch jene, die auf der Q3-Engine aufbauen). Überhaupt, wieso sieht man eigentlich immer nur den Q3-Himmel, wenn es um die S3TC-Qualität geht? Das könnte wohl daran liegen dass es Content-abhängig ist...
Deaktiviert man S3TC im Treiber, kann es ja auch keiner nutzen, selbst dann nicht wenn es mit hochaufgelösten Texturen die Qualität steigert. Die einfachste "Lösung" war darum, es zuzulassen, aber dort zu umgehen wo es stört – also direkt in Q3. Es wurde damit ja kein Bug eingeführt, sondern ein limitiertes Hardware-Feature zugänglich gemacht.

Mrs. Lolman
2005-10-15, 10:26:35
Sie könnens ja eh einbauen. Sobalds funktioniert. Und es war nicht nur der Himmel. So ziemlich jede Textur hatte Probleme. Außerdem gabs bis zum Patch 1.27 noch andere Grafikfehler auf NV-Karten+S3TC.

3dfx häte auch HSR per default aktivieren können. Ich bin mir sicher, dass das HSR irgendwann soweit entwickelt gewesen wäre, dass man es auch nutzen konnte. Ati hätte schon längst einen Schalter für TAA (AAA) einbauen können. auch wenns noch nicht funktioniert hätte. So könnte man gegen NV benchen und gewinnt jeden fps test.

Verstehst du was ich sagen will? Features schön und gut. Aber bitte erst dann aktivieren wenn sie wirklich funktonieren und nicht wenn man Benchmarks gewinnen will.


BTW: Bei Ultima IX konnte ich keinen Vorteil für S3TC Texturen erkennen. Unreal Tournament war nie gedacht für S3TC. (Deswegen musste man auch von Unreal1 die S3TC Texturen verwenden). Das 1. Q3a Engine Spiel mit S3TC Supoort erschien AFAIK erst Ende 2001. Wieso schon Anfang 2000 die NV Nutzer mit schlechter Grafik quälen.

StefanV
2005-10-15, 10:49:28
ATIs R200-AF halte ich nach wie vor für eine höchst fragwürdige Textur-"Verbesserung", jedenfalls nach dem was ich bei der Radeon 9000 sah. Wenn Nvidia später auf den Gedanken kommt, zu unterfiltern, macht das das bilineare und ungenaue (bezogen aufs LOD) ATI-R200-AF nicht besser.
Naja, bei ATi kann man positiv sehen, das sie sich langsam rangetastet haben, an die Anisotrope Filterung...

Das sie irgendwann mal sowas wie nV bei der nV2x Serie bieten würden, könnte man eigentlich als klar wie Klosbrühe ansehen, wobei die Verbesserungen R100 R(V)2x0 -> R300 schon damals nicht unerheblich gewesen sind...

Xmas
2005-10-15, 10:50:21
Sie könnens ja eh einbauen. Sobalds funktioniert. Und es war nicht nur der Himmel. So ziemlich jede Textur hatte Probleme. Außerdem gabs bis zum Patch 1.27 noch andere Grafikfehler auf NV-Karten+S3TC.

3dfx häte auch HSR per default aktivieren können. Ich bin mir sicher, dass das HSR irgendwann soweit entwickelt gewesen wäre, dass man es auch nutzen konnte. Ati hätte schon längst einen Schalter für TAA (AAA) einbauen können. auch wenns noch nicht funktioniert hätte. So könnte man gegen NV benchen und gewinnt jeden fps test.

Verstehst du was ich sagen will? Features schön und gut. Aber bitte erst dann aktivieren wenn sie wirklich funktonieren und nicht wenn man Benchmarks gewinnen will.
Komprimierte Texturen implizieren einen Bildqualitätsverlust gegenüber unkomprimierten. Man konnte es von Anfang an nutzen, um bei gleichem Speicherverbrauch Qualität zu gewinnen.

Inwiefern hätte ein Schalter für AAA denn mehr fps gebracht?

BTW: Bei Ultima IX konnte ich keinen Vorteil für S3TC Texturen erkennen. Unreal Tournament war nie gedacht für S3TC. (Deswegen musste man auch von Unreal1 die S3TC Texturen verwenden). Das 1. Q3a Engine Spiel mit S3TC Supoort erschien AFAIK erst Ende 2001. Wieso schon Anfang 2000 die NV Nutzer mit schlechter Grafik quälen.
:confused: UT kam doch mit einer extra-CD für S3TC-Texturen?
Ohne das Feature zu aktivieren kann man auch nur schlecht dafür entwickeln. Außerdem bringt es ja nicht per se eine schlechtere Qualität.

Ailuros
2005-10-15, 11:15:09
3dfx häte auch HSR per default aktivieren können. Ich bin mir sicher, dass das HSR irgendwann soweit entwickelt gewesen wäre, dass man es auch nutzen konnte.

Nach all den Jahren und Ihr glaubt immer noch an den ueblen Witz von damals? Und ja es war ein Witz und hat ueberhaupt nichts mit legitimer Leistungs-steigerung oder einen "Tweak" zu tun. Es war ein laecherlicher interner Scherz von einem der Treiber-Kerle der die GP-Kerle ein bisschen veraeppeln wollte und war NIE fuer die Oeffentlichkeit gemeint. Dass die Idee wenn man 60Hz einhalten kann Geometrie aus dem Nichts zu verwerfen zu versuchen absoluter Bloedsinn ist, schnallt wohl keinem.

Die Quake3 engine fuehrt von sich selber software-HSR aus; wenn die Pampe Haende und Fuesse haette, waeren die KYROs in Quake3 um einiges schneller gewesen.

SentinelBorg
2005-10-15, 11:16:07
Hmm, es war doch Unreal 1 mit der extra CD für S3TC Texturen. Das wussten jedoch nur die wenigsten, da die natürlich in der Regel nicht mitraubkopiert wurde. :P

Sentinel

Xmas
2005-10-15, 11:33:08
Bei meinem UT (natürlich original, GOTY Edition) liegt definitiv eine Extra-CD bei.

Coda
2005-10-15, 11:40:11
Die Quake3 engine fuehrt von sich selber software-HSR aus; wenn die Pampe Haende und Fuesse haette, waeren die KYROs in Quake3 um einiges schneller gewesen.Und zwar ziemlich gutes. Zu gut für heutige Hardware eigentlich...

Ailuros
2005-10-15, 11:48:49
Und zwar ziemlich gutes. Zu gut für heutige Hardware eigentlich...

Ja und nein; waere es der engine jederzeit bewusst wohin die Camera des Spielers orientiert ist, waere sie um einiges naeher am Optimum.

Es gab z.B. Faelle in RtCW wo wenn man in einem lehren Gang auf die eine Wand glotzte dass die Leistung normal war und wenn man sich zur anderen Wand drehte sich die Leistung ploetzlich halbierte. Davon war selbst eine KYRO nicht immun; die Erklaerung ist auch einfach. Hinter der einen Wand gab es praktisch gar nichts und hinter der anderen zumindest ein oder mehrere Raeume die aber leider mitgerendert wurden, obwohl sie nicht sichtbar waren.

U.a. auch ein Grund warum Carmack in der naechsten engine auf portal rendering stieg.

Coda
2005-10-15, 12:07:15
Quake 3 benützt auch Portals, allerdings wird das Visibility-Set vorberechnet und die Portale werden beim kompilieren automatisch gesetzt. Wenn sowas passiert wie von dir beschrieben dann ist da was schief gelaufen, passiert aber eher selten und kann durch Hints behoben werden. Da die Hints aber überhand nahmen, hat man in D³ gleich auf von Hand plazierte Portals gesetzt.

Geometrie die hinter einem ist wird durch Frustum Culling sowieso entfernt.

Das Problem bei Q3 ist heute eher, dass die einzelnen Nodes viel zu wenig Polygone enthalten. Recht grobes Culling mit Sortierung von vorne nach hinten ist eigentlich optimal.

aths
2005-10-15, 18:56:43
Verstehst du was ich sagen will? Features schön und gut. Aber bitte erst dann aktivieren wenn sie wirklich funktonieren und nicht wenn man Benchmarks gewinnen will. Das Feature hat gemäß der Spec funktioniert.

BTW: Bei Ultima IX konnte ich keinen Vorteil für S3TC Texturen erkennen. Unreal Tournament war nie gedacht für S3TC. (Deswegen musste man auch von Unreal1 die S3TC Texturen verwenden). Das 1. Q3a Engine Spiel mit S3TC Supoort erschien AFAIK erst Ende 2001. Wieso schon Anfang 2000 die NV Nutzer mit schlechter Grafik quälen.Wieso ein Feature abschalten, dass korrekt (wenn auch suboptimal) implementiert wurde? Nvidias geniale "Optimierung" brachte dann Qualitätsprobleme, wenn derart komprimierte Texturen (stark) vergrößert werden. Eigentlich nutzt man DXT1, um Texturen in hohen Auflösungen zu speichern und sie nach Möglichkeit gar nicht erst vergrößern zu müssen.

Unreal war nicht gedacht für S3TC, da gabs nur von S3 mal so ein Test-Level. Unreal Tournament war von vornherein gedacht für S3TC, da gabs so eine Extra-CD. Die lag nicht nur meiner GOTY-Edition bei.

Bei Ultima IX bringt S3TC lediglich einen Bandbreiten-Vorteil und damit ein Geschwindigkeitsplus.

Ailuros
2005-10-15, 19:09:45
Ich hab Unreal1 erst vor einiger Zeit wieder installiert fuer einen kleinen Nostalgie-Test; da ich die zweite CD nicht mehr finden konnte hab ich die hochaufgeloesten Texturen von der 2-en CD von UT1 installiert ;)

Mr. Lolman
2005-10-15, 20:28:38
Nach all den Jahren und Ihr glaubt immer noch an den ueblen Witz von damals? Und ja es war ein Witz und hat ueberhaupt nichts mit legitimer Leistungs-steigerung oder einen "Tweak" zu tun. Es war ein laecherlicher interner Scherz von einem der Treiber-Kerle der die GP-Kerle ein bisschen veraeppeln wollte und war NIE fuer die Oeffentlichkeit gemeint. Dass die Idee wenn man 60Hz einhalten kann Geometrie aus dem Nichts zu verwerfen zu versuchen absoluter Bloedsinn ist, schnallt wohl keinem.

Die Quake3 engine fuehrt von sich selber software-HSR aus; wenn die Pampe Haende und Fuesse haette, waeren die KYROs in Quake3 um einiges schneller gewesen.

Angeblich kann man mit "gl_finish 1" die Fehler unterbinden und gewinnt trotzdem ein paar fps. :|

Mr. Lolman
2005-10-15, 20:30:46
Das Feature hat gemäß der Spec funktioniert.


Dann waren ja ATi, S3 und 3dfx damals schön blöd, dass sie S3TC nicht auf die selbe Weise integriert haben...

aths
2005-10-15, 21:30:24
Dann waren ja ATi, S3 und 3dfx damals schön blöd, dass sie S3TC nicht auf die selbe Weise integriert haben...Die haben es eben qualitätsoptimiert implementiert. Mit heutigen Pipes wäre eine noch bessere Qualität bei der Dekomprimierung denkbar (11-Bit-Genauigkeit), ich weiß aber nicht ob das genutzt wird.

Man kann sich an dieselbe Spec halten und trotzdem zu unterschiedlichen Ergebnissen gelangen, wenn die Spec in einigen Punkten keine Vorschriften macht.

StefanV
2005-10-15, 21:37:55
Das Feature hat gemäß der Spec funktioniert.
War da nicht noch irgendwas mit 4bit laut Spec und anderen Dingen bei ATi?! :rolleyes:

aths
2005-10-15, 21:42:36
Wie so oft weiß ich nicht, wovon du sprichst, SP.

StefanV
2005-10-15, 21:52:12
Hast sogar 'nen Artikel drüber geschrieben, das ATi so böse böse böse war, sich genau an die Spec zu halten :rolleyes:

U.A. Subpixelgenauigkeit (und das mit den Abstufungen bei Trilinear)

Coda
2005-10-15, 21:58:18
aths behauptet ja nicht, dass das DXT1 von NV1x und NV2x nicht böse ist.

Ich find auch nicht dass man das kleinreden sollte. Was zählt ist doch das Ergebniss. Und das war grausig und hat dazu geführt, dass z.B. UT2004 für ziemlich alles doppelt so viel Texturspeicher belegt, weil man stattdessen DXT5 verwendet hat.

betasilie
2005-10-16, 00:07:06
aths behauptet ja nicht, dass das DXT1 von NV1x und NV2x nicht böse ist.

Ich find auch nicht dass man das kleinreden sollte. Was zählt ist doch das Ergebniss. Und das war grausig und hat dazu geführt, dass z.B. UT2004 für ziemlich alles doppelt so viel Texturspeicher belegt, weil man stattdessen DXT5 verwendet hat.
Hier werden aber leider mit unterschiedlicher Motivation Fehler bei den IHVs gesucht.

Nicht das ich ATI Fan bin, aber irgendwie wird man bei dieser Disussionkultur beinahe dazu gezwungen, wenn man nicht NV Fan ist. Man könnte sogar in Versuchung kommen zu behaupten, dass SP aths´ Produkt ist. ... Oder umgekehrt. :rolleyes:

Ailuros
2005-10-16, 01:04:03
Angeblich kann man mit "gl_finish 1" die Fehler unterbinden und gewinnt trotzdem ein paar fps. :|

Es gab eine sehr ernste Idee von Tarolli die aber nie vollendet wurde fuer Q3a; dieses angebliche HSR-Zeug ist albern im besten Fall.

aths
2005-10-16, 01:57:48
Hast sogar 'nen Artikel drüber geschrieben, das ATi so böse böse böse war, sich genau an die Spec zu halten :rolleyes:

U.A. Subpixelgenauigkeit (und das mit den Abstufungen bei Trilinear)Betreffs Subpixelgenauigkeit kenne ich keine Specs, demzufolge habe ich darüber (über Specs zur Subpixelgenauigkeit) auch nichts geschrieben. Dass 8 Bit LOD-Fraction bei trilinearer Filterung besser sind als 5 Bit ist ebenso klar wie die Tatsache, dass DXT1 mit mindestens 8 Bit pro Kanal dekomprimiert werden sollte und nicht ins RGB 565-Format.

Zufällig habe ich kürzlich zum Thema Texturkomprimierung eine Arbeit geschrieben, und dafür unter anderem S3TC untersucht. Also auch die Spec zu DXT1 gelesen. Ich weiß jedoch nicht, was die trilineare Filterung der Radeon mit der fragwürdigen DXT1-Implementierung älterer GeForce-Karten zu tun hat. Bei der Radeon kritisierte ich die 5 Bit LOD-Fraction, bei den älteren GeForce-Karten kritisiere ich die DXT1-Implementierung.


Hier werden aber leider mit unterschiedlicher Motivation Fehler bei den IHVs gesucht.Wieder einmal liest du Dinge heraus, die anderen verborgen bleiben.

aths
2005-10-16, 02:00:48
aths behauptet ja nicht, dass das DXT1 von NV1x und NV2x nicht böse ist. Mit meiner TI 4600 konnte ich mich selbst davon überzeugen, wie der Himmel in Quake3 aussah: Schrecklich. Die Ditherung machte das ganze nur noch schlimmer. Die Voodoo4 4500 brachte in ganz Quake3 vernünftige Texturen.

Ich find auch nicht dass man das kleinreden sollte. Was zählt ist doch das Ergebniss. Und das war grausig und hat dazu geführt, dass z.B. UT2004 für ziemlich alles doppelt so viel Texturspeicher belegt, weil man stattdessen DXT5 verwendet hat.Ergebnis mit nur einem s am Wortende. Und ja, DXT3 und DXT5 belegen doppelt so viel RAM wie DXT1, womit die Komprimierungsrate von 4:1 auf 2:1 reduziert wird, während sich die in DXT kodierte Bildqualität rein gar nicht verbessert – eine Notlösung die nur GeForce1-4 brauchten, denn die anderen IHVs haben S3TC von vornherein vernünftig implementiert, und 3dfx steuerte noch das lizenzfreie FXT1 bei. (Leider erreichten die Komprimierungstools für FXT1 nie die Qualität von DXT-Komprimierung.)

Mr. Lolman
2005-10-16, 09:56:27
(Leider erreichten die Komprimierungstools für FXT1 nie die Qualität von DXT-Komprimierung.)

Kommt drauf an. In Q3a hab ich schon einige Texturen gesehen, die mit FXT1 besser aussehen als mit S3TC...

22bit RGBA8888 OpenGL -- 22bit S3TC OpenGL -------- 22bit FXT1 WickedGL ------ 22bit FXT1 WickedGL forced compression
http://img134.exs.cx/img134/8774/q3unk22bit22mo.th.jpg (http://img134.exs.cx/img134/8774/q3unk22bit22mo.jpg) http://img72.exs.cx/img72/1268/q3s3tc22bitapp9cm.th.jpg (http://img72.exs.cx/img72/1268/q3s3tc22bitapp9cm.jpg) http://img72.exs.cx/img72/1906/q3fxt122bitapp2gt.th.jpg (http://img72.exs.cx/img72/1906/q3fxt122bitapp2gt.jpg) http://img72.exs.cx/img72/9986/q3fxt122bit2ll.th.jpg (http://img72.exs.cx/img72/9986/q3fxt122bit2ll.jpg)

32bit RGBA8888 OpenGL -- 32bit S3TC OpenGL -------- 32bit FXT1 WickedGL
http://img134.exs.cx/img134/4171/q3unk32bit26ok.th.jpg (http://img134.exs.cx/img134/4171/q3unk32bit26ok.jpg) http://img140.exs.cx/img140/1065/q3s3tc32bit0ar.th.jpg (http://img140.exs.cx/img140/1065/q3s3tc32bit0ar.jpg) http://img140.exs.cx/img140/8349/q3fxt132bit8dw.th.jpg (http://img140.exs.cx/img140/8349/q3fxt132bit8dw.jpg)

tokugawa
2005-10-16, 21:44:51
OpenGL wird unter Windows Vista nur noch relativ halbherzig unterstützt, und es ist wichtiger daß über 90% der Spiele-Entwickler so weit wie nur möglich unterstützt werden. Daß die Nische dabei etwas leidet ist nicht unvermeidbar.

Das Problem ist dabei dass diese Nische für die Spieleentwickler sehr relevant ist...

Coda
2005-10-16, 21:59:54
Für welche? :|

Gaestle
2005-10-17, 11:26:08
Eigentlich sollte das neue AF in noch verbesserter Form schon längst Standard sein. Insofern sehe ich es als sinnvoller an, Nvidia Vorhaltungen zu machen [...]

Prinzipiell stimme ich Dir zu und sehe es genauso. Allerdings beinhaltet Zuckerbrot und Peitsche AFAIR eben zwei Komponenten.
Und ja, es sollte Standard sein, allerdings bietet ATi anscheinend derzeit die beste AF-Qualität, die sie je hatten, während nV seit NV3x (oder schon NV25?) kontinuierlich abbaut.

Grüße

aths
2005-10-18, 02:09:44
Der NV38 kann praktisch so gutes AF wie der NV20. (Es ist nicht identisch, aber fast das gleiche.)

wuzetti
2005-10-18, 08:41:55
http://www.bit-tech.net/hardware/2005/10/17/sapphire_radeon_x1800xl/1.html

up¦²
2005-10-18, 16:03:27
Der vollständigkeit halber:
http://www.bit-tech.net/hardware/2005/10/17/sapphire_radeon_x1800xl/1.html

Aber:
sehr nett gemacht mit dem "äpfel mit äpfeln vergleichen"! Klasse!

StefanV
2005-10-18, 16:18:03
Für welche? :|
Diesem ID-Fritzen, Name ist mir gerad entfallen...

Xmas
2005-10-18, 21:38:39
Diesem ID-Fritzen, Name ist mir gerad entfallen...
John Carmack? Die Firma heißt id, nicht ID.

Demirug
2005-10-18, 21:40:56
John Carmack? Die Firma heißt id, nicht ID.

Der benutzt aber derzeit primär auch DirectX wegen der XBox360.

StefanV
2005-10-18, 21:51:01
John Carmack? Die Firma heißt id, nicht ID.
Ja, genau, wie auch immer dieser jene welche heißt, der 'Hell on Earth' verbrach (und dieses verbotene Dingsda mit klötzchengrafik)...

Coda
2005-10-18, 22:22:13
Ich denke mal auf kurz oder lang wird OpenGL im Spielesektor aussterben - so leid es mir tut.

Johnny Rico
2005-10-18, 23:43:37
ICH BIN SOOOO!!!! KURZ DAVOR MIR NE 78GT ODER GTX ZU HOLEN UND DAS NUR, WEIL DIE XL PREISE SO SCHEISSE SIND UND DIE VERFÜGBARKEIT NAHEZU 0 IST.

BOAH, vor 9 Wochen dachte ich, ich könnte in meinen 2 Wochen Urlaub, die heute anfangen, schon mit ner XL zoggen -.-

Sorry for CAPS, aber es KOTZT einen nur an. Ich zuppel mit ner x700 an Quake 4 und Fear -.-

tokugawa
2005-10-18, 23:46:30
Für welche? :|

Naja, für jene die Grafik-Konferenzen besuchen und Grafik-Papers lesen (und sich die zugehörigen Demos anschauen)...

Gut, die meisten solchen Algorithmen sollten sowieso "allgemeingültig sein" und nicht von einer API abhängen.

MadManniMan
2005-10-19, 00:40:48
Der benutzt aber derzeit primär auch DirectX wegen der XBox360.

Es schmerzt zu lesen, daß JC - so verständlich und absehbar das war - nun auch OGL abgeschworen hat ... so halte ich es nun wie Coda ;(

Asmodeus
2005-10-19, 07:16:18
Bin mir nicht sicher, ob diese Frage hier schon beantwortet wurde, aber mich würde interessieren, ob die neuen Grafikchips von ATI inzwischen auch mit "non power of two" Texturen umgehen können?

Gruss, Carsten.

DrumDub
2005-10-19, 10:21:47
Bin mir nicht sicher, ob diese Frage hier schon beantwortet wurde, aber mich würde interessieren, ob die neuen Grafikchips von ATI inzwischen auch mit "non power of two" Texturen umgehen können?

Gruss, Carsten. ist das nicht voraussetzung für sm 3.0 oder reichen da schon 4096er texturen?

Raff
2005-10-19, 10:30:48
Der NV38 kann praktisch so gutes AF wie der NV20. (Es ist nicht identisch, aber fast das gleiche.)

Nicht? Mit deaktivierten Optimierungen und High-Quality im Treiber sollte es doch identisch sein, oder?

MfG,
Raff

Demirug
2005-10-19, 10:56:07
ist das nicht voraussetzung für sm 3.0 oder reichen da schon 4096er texturen?

"conditional" sind Plicht. Aber die können die Karten eigentlich schon lange. Ich denke es geht um "unconditional" und die sind nicht Plicht. Ich kann später mal nachschauen was der R520 dazu meint.

StefanV
2005-10-19, 11:59:36
Nicht? Mit deaktivierten Optimierungen und High-Quality im Treiber sollte es doch identisch sein, oder?

MfG,
Raff
Nein, der nV3x filtert weniger Texutren als der nV2x, darüber sprachen wir aber vor einiger Zeit mal ;)

Mr. Lolman
2005-10-19, 12:32:53
Bin mir nicht sicher, ob diese Frage hier schon beantwortet wurde, aber mich würde interessieren, ob die neuen Grafikchips von ATI inzwischen auch mit "non power of two" Texturen umgehen können?

Gruss, Carsten.

Sicher können sie das. Sonst würde bspw. nicht GTA-SA funktionieren...

Coda
2005-10-19, 13:10:28
Sicher können sie das. Sonst würde bspw. nicht GTA-SA funktionieren...Aber nicht mit Mipmapping, was also ziemlich unbrauchbar ist.

Mr. Lolman
2005-10-19, 15:12:05
Aber nicht mit Mipmapping, was also ziemlich unbrauchbar ist.
Naja, Atis AF funktioniert auch ohne Mipmaps relativ gut...

aths
2005-10-19, 16:50:18
Nicht? Mit deaktivierten Optimierungen und High-Quality im Treiber sollte es doch identisch sein, oder?Nein.

aths
2005-10-19, 16:51:15
Naja, Atis AF funktioniert auch ohne Mipmaps relativ gut...Bei entsprechender Texturverkleinerung dürfte es dann trotzdem stark flimmern.

aths
2005-10-19, 17:14:53
Nein, der nV3x filtert weniger Texutren als der nV2x, darüber sprachen wir aber vor einiger Zeit mal ;)Der NV30 filtert genauso viele Texturen, diese aber minimal weniger.

Demirug
2005-10-19, 17:19:29
Bin mir nicht sicher, ob diese Frage hier schon beantwortet wurde, aber mich würde interessieren, ob die neuen Grafikchips von ATI inzwischen auch mit "non power of two" Texturen umgehen können?

Gruss, Carsten.

Ist identisch mit dem was beim R3XX/R4XX möglich war. Also nur conditional Unterstützung.

aths
2005-10-19, 17:20:21
Ist identisch mit dem was beim R3XX/R4XX möglich war. Also nur conditional Unterstützung.Was heißt das? Dass dann kein MIP-Mapping unterstützt wird?

Demirug
2005-10-19, 17:32:29
Was heißt das? Dass dann kein MIP-Mapping unterstützt wird?

- Kein Mipmappig
- Nur Clamp als Adress mode. Also Texturkoodinaten ausserhalb von 0 bis 1 werden einfach bei 0 bzw 1 begrenzt.
- Keine Wrap Unterstützung (das benutzt aber wohl sowieso niemand wirklich)
- Keine DXT Formate.
- Es wird noch angegeben das man solche Texturen nicht für Dependet Reads benutzen darf. Ich bin allerdings nicht sicher in wie weit das für SM >= 2.0 noch gültig ist.

Coda
2005-10-19, 17:48:48
- Nur Clamp als Adress mode. Also Texturkoodinaten ausserhalb von 0 bis 1 werden einfach bei 0 bzw 1 begrenzt.Wie funktioniert das dann in GTA?

Oder sind die Texturen dort schon POT, haben aber einfach keine Mips?

An den TMUs scheint ATi ja wirklich gar nichts gedreht zu haben - schade.

Demirug
2005-10-19, 19:15:19
Wie funktioniert das dann in GTA?

Oder sind die Texturen dort schon POT, haben aber einfach keine Mips?

An den TMUs scheint ATi ja wirklich gar nichts gedreht zu haben - schade.

Das Clamp Problem kann man ja durch entsprechenden Geometrie umgehen.

Xmas
2005-10-20, 12:50:06
- Keine Wrap Unterstützung (das benutzt aber wohl sowieso niemand wirklich)

Wrap wird doch ständig verwendet, wieso sollte es dann bei NPOT-Texturen keiner verwenden?

Demirug
2005-10-20, 13:27:40
Wrap wird doch ständig verwendet, wieso sollte es dann bei NPOT-Texturen keiner verwenden?

Das ist sicher ein Missverständniss. Bei DX gibt es ja einen Warp Addressmode (den benutzt man natürlich) und dann noch die Wrap Renderstates welche sich auf die Interpolatoren auswirken. Diese benutzt eigentlich AFAIK niemand.

Xmas
2005-10-20, 17:05:57
Das ist sicher ein Missverständniss. Bei DX gibt es ja einen Warp Addressmode (den benutzt man natürlich) und dann noch die Wrap Renderstates welche sich auf die Interpolatoren auswirken. Diese benutzt eigentlich AFAIK niemand.
Ach so, kein Wunder also dass ich davon noch nie was gehört habe. ;)
Aber ab PS1.4 dürfte das doch keine Rolle mehr für NPOT-Support spielen, da die Interpolatoren sowieso unabhängig von den Samplern sind.

deekey777
2005-10-23, 01:57:42
Quake 4 High-end Graphics Shootout (http://firingsquad.com/hardware/quake_4_high-end_performance/default.asp)
Die Spielerein am Speichercontroller haben sich gelohnt.

mapel110
2005-10-23, 02:14:43
Quake 4 High-end Graphics Shootout (http://firingsquad.com/hardware/quake_4_high-end_performance/default.asp)
Die Spielerein am Speichercontroller haben sich gelohnt.
Wieso hat man ganz offenbar unterschiedliche Timedemos für den Treibervergleich und die anschließenden Benchmarks genommen?! :confused:

deekey777
2005-10-23, 02:28:39
Wieso hat man ganz offenbar unterschiedliche Timedemos für den Treibervergleich und die anschließenden Benchmarks genommen?! :confused:

Keine Ahnung, ich schaue mir eh nur die Performancebalken an. X-D

Wenn sich der Commentar nummero 3 auf den Test bezeiht, so wurde mit unterschiedlichen Prozessoren getestet: mit dem a64@2,4GHz bei den Performancetests vor und nach dem Treiberupdate und mit einem FX-57 bei den anderen Tests.

Mr. Lolman
2005-10-23, 02:30:39
Wieso hat man ganz offenbar unterschiedliche Timedemos für den Treibervergleich und die anschließenden Benchmarks genommen?! :confused:

:confused:

Imo passt da alles. (Beim Treibervergleich sinds D³ Benchmarks, der Rest ist Q4)

mapel110
2005-10-23, 02:32:53
:confused:

Imo passt da alles. (Beim Treibervergleich sinds D³ Benchmarks, der Rest ist Q4)
http://firingsquad.com/hardware/quake_4_high-end_performance/page3.asp
Treibervergleich auch mit Quake4
Keine Ahnung, ich schaue mir eh nur die Performancebalken an. X-D

Wenn sich der Commentar nummero 3 auf den Test bezeiht, so wurde mit unterschiedlichen Prozessoren getestet: mit dem a64@2,4GHz bei den Performancetests vor und nach dem Treiberupdate und mit einem FX-57 bei den anderen Tests.
Dann ists Krass, dass ein FX57 selbst bei 2048x1536 noch was ausmacht. 42 zu 52 fps bei der XL :O

BodyLove
2005-10-23, 10:02:38
Dann ists Krass, dass ein FX57 selbst bei 2048x1536 noch was ausmacht. 42 zu 52 fps bei der XL :O

Tja, schnell zu schlagen. Fx-57 rulez... :naughty:

up¦²
2005-10-23, 16:28:36
Quake 4 High-end Graphics Shootout (http://firingsquad.com/hardware/quake_4_high-end_performance/default.asp)
Die Spielerein am Speichercontroller haben sich gelohnt.


Interessant! :rolleyes:

This change is for the X1K family. The X1Ks have a new programmable memory controller and gfx subsystem mapping. A simple set of new memory controller programs gave a huge boost to memory BW limited cases, such as AA (need to test AF). We measured 36% performance improvements on D3 @ 4xAA/high res. This has nothing to do with the rendering (which is identical to before). X800's also have partially programmable MC's, so we might be able to do better there too (basically, discovering such a large jump, we want to revisit our previous decisions).

But It's still not optimal. The work space we have to optimize memory settings and gfx mappings is immense. It will take us some time to really get the performance closer to maximum. But that's why we designed a new programmable MC. We are only at the beginning of the tuning for the X1K's.

As well, we are determined to focus a lot more energy into OGL tuning in the coming year; shame on us for not doing it earlier.

http://gathering.tweakers.net/forum/list_messages/1077669/last

A.Wesker
2005-10-23, 17:05:27
Tja, schnell zu schlagen. Fx-57 rulez... :naughty:
das ist beim P-M + 7800 GTX nicht anders ( nur scheinen viele immernoch zu glauben, daß eine starke cpu in hohen auslösungen + AA/AF keine rolle mehr spielt...)

dargo
2005-10-23, 17:21:29
das ist beim P-M + 7800 GTX nicht anders ( nur scheinen viele immernoch zu glauben, daß eine starke cpu in hohen auslösungen + AA/AF keine rolle mehr spielt...)
Natürlich spielt die CPU eine Rolle. Auch bei hoher Auflösung plus viel AA/AF. Die CPU bestimmt doch in erster Linie wie hoch die fps sind, die Grafikkarte wie hoch man die Details dabei einstellen kann (wobei es auch Details gibt die auf die CPU gehen).

Nur, ob man dann mit bestimmter CPU 80fps und mit einer schnelleren für deutlich mehr €uros 100fps hat spielt wohl kaum eine Rolle. Beides flüssig spielbar.

A.Wesker
2005-10-23, 17:24:55
Natürlich spielt die CPU eine Rolle. Auch bei hoher Auflösung plus viel AA/AF. Die CPU bestimmt doch in erster Linie wie hoch die fps sind, die Grafikkarte wie hoch man die Details dabei einstellen kann (wobei es auch Details gibt die auf die CPU gehen).

Nur, ob man dann mit bestimmter CPU 80fps und mit einer schnelleren für deutlich mehr €uros 100fps hat spielt wohl kaum eine Rolle. Beides flüssig spielbar.

bei 1920x1200 oder 2048x1536 geht es aber net darum, ob man 80 oder 100 FPS hat, sondern ob 40 oder 60 FPS projekziert werden und das ist schon ein unterschied.

dargo
2005-10-23, 17:32:15
bei 1920x1200 oder 2048x1536 geht es aber net darum, ob man 80 oder 100 FPS hat, sondern ob 40 oder 60 FPS projekziert werden und das ist schon ein unterschied.
Ja, genau. Und bei 4096x3072 geht es um 10 oder 20fps. :hammer:

Du solltest mal vielleicht langsam an die Mehrheit denken die mit einem 17-19" CRT oder TFT unterwegs sind. ;)

A.Wesker
2005-10-23, 17:36:46
Ja, genau. Und bei 4096x3072 geht es um 10 oder 20fps. :hammer:

Du solltest mal vielleicht langsam an die Mehrheit denken die mit einem 17-19" CRT oder TFT unterwegs sind. ;)
die mehrheit startet ein spiel und klickt auf "new game" (schenken dem optionsmenü keinerlei beachtung)

BodyLove
2005-10-23, 18:16:29
das bezweifele ich allerdings. Zwar kennt die mehrheit kein AA und AF, aber das klassische Optionsmenü kennen alle.

Banshee18
2005-10-23, 18:25:52
das bezweifele ich allerdings. Zwar kennt die mehrheit kein AA und AF, aber das klassische Optionsmenü kennen alle.
Sicher? Ich zitiere mich mal aus einem anderen Fred:


Dazu eine kleine Anekdote am Rande:
Ich kam neulich zu einem Kumpel, als er gerade das neu erworbene Pariah auf seinem neuen Highend-Rechner (A64 3200+, 2 GB Ram, 7800GT) spielte -mit einer Auflösung von 640x480, und auch sonst hat er in den Optionen anscheinend nix angerührt. :eek:
Aber das Beste kommt noch: Der Bildschirm war für diese Auflösung nichteinmal eingestellt, auf jeder Seite waren sehr dicke, verschieden große Ränder. :uconf3: :ubash2: :uclap: :uhammer2: :ulol2:
Ich wusste nicht, ob ich lachen oder heulen soll.

So viel zum Thema. Viele sind einfach zu faul oder eher zu doof, irgendwelche auch noch so einfache Einstellungen vorzunehmen.

dargo
2005-10-23, 18:41:08
@Banshee18

Diese Leute sind bei Konsolen besser aufgehoben. :D

aths
2005-10-23, 18:41:31
die mehrheit startet ein spiel und klickt auf "new game" (schenken dem optionsmenü keinerlei beachtung)Sicherlich nicht die Mehrheit der 3DC-Leser.

Demirug
2005-10-23, 18:58:35
@Banshee18

Diese Leute sind bei Konsolen besser aufgehoben. :D

Im Prinzip ja. Aber es gibt Gelegenheitsspieler die sich dafür nie eine Konsole kaufen würden. Und wenn dann keine Kinder im Haus sind bleibt nur noch der PC. Und dann gibt es ja noch die Spiele die gar kein Optionsmenü haben.

mindfaq
2005-10-23, 19:57:55
Und dann gibt es ja noch die Spiele die gar kein Optionsmenü haben.Allerdings, das find ich am schlimmsten.
Man sollte schon ein Reihe an Möglichkeiten haben, das Spiel an seinen Rechner anzupassen. Wofür hat man denn sonst einen PC ? Wer einfach nur spielen will, soll sich halt eine Konsole kaufen.
Oder denken die Devs, dass ein komplexes Optionsmenü die Daus überfordert ?

Auch AA und AF sollte man meiner Meinung nach immer im Spiel einstellen können.

Demirug
2005-10-23, 20:10:23
Allerdings, das find ich am schlimmsten.
Man sollte schon ein Reihe an Möglichkeiten haben, das Spiel an seinen Rechner anzupassen. Wofür hat man denn sonst einen PC ? Wer einfach nur spielen will, soll sich halt eine Konsole kaufen.
Oder denken die Devs, dass ein komplexes Optionsmenü die Daus überfordert ?

Auch AA und AF sollte man meiner Meinung nach immer im Spiel einstellen können.

Ich hätte vielleicht noch dazu schreiben solle welche Spiele ich damit meine.

- Lernspiele für die Kleinen
- "Casual Games"

BodyLove
2005-10-23, 20:26:09
Sicher? Ich zitiere mich mal aus einem anderen Fred:


Dazu eine kleine Anekdote am Rande:
Ich kam neulich zu einem Kumpel, als er gerade das neu erworbene Pariah auf seinem neuen Highend-Rechner (A64 3200+, 2 GB Ram, 7800GT) spielte -mit einer Auflösung von 640x480, und auch sonst hat er in den Optionen anscheinend nix angerührt. :eek:
Aber das Beste kommt noch: Der Bildschirm war für diese Auflösung nichteinmal eingestellt, auf jeder Seite waren sehr dicke, verschieden große Ränder. :uconf3: :ubash2: :uclap: :uhammer2: :ulol2:
Ich wusste nicht, ob ich lachen oder heulen soll.

So viel zum Thema. Viele sind einfach zu faul oder eher zu doof, irgendwelche auch noch so einfache Einstellungen vorzunehmen.


So einer ist mir bis jetzt nicht vor die augen getreten. Die meisten haben keine Ahnung von AA und AF, aber die Details hochschrauben können viele, bzw. nahezu alle.

Auch ohne Internet und 3dc wusste ich damals, auf meiner OnboardGrafikkarte NFS zu spielen, und dabei die Details extra herabzusenken, damit es nicht mehr ruckelte.;)

mindfaq
2005-10-23, 20:54:42
Ich hätte vielleicht noch dazu schreiben solle welche Spiele ich damit meine.

- Lernspiele für die Kleinen
- "Casual Games"Ja, es gibt aber durchaus Spiele, die so gut wie keinerlei Einstellungen am Spiel erlauben. Total Overdose ist da so ein Fall.

Armaq
2005-10-24, 12:17:37
Also ich kann den Vorwurf so nicht bestätigen.
Ich habe in meiner Bekanntschaft auch ein paar semi-DAUs, aber selbst die finden den Weg ins Optionsmenü und sei es nur aus Neugier.

aths
2005-10-24, 14:41:25
@Banshee18

Diese Leute sind bei Konsolen besser aufgehoben. :DDas klingt für mich irgendwie abwertend. Ist es denn dumm, wenn man gerne darauf verzichtet, irgendwas einstellen zu müssen damit das Spiel optimal läuft? Ich genieße es, den Cube oder die PS2 einzuschalten und einfach zu spielen, anstatt installieren oder zu konfigurieren.

Ailuros
2005-10-24, 14:47:06
Das klingt für mich irgendwie abwertend. Ist es denn dumm, wenn man gerne darauf verzichtet, irgendwas einstellen zu müssen damit das Spiel optimal läuft? Ich genieße es, den Cube oder die PS2 einzuschalten und einfach zu spielen, anstatt installieren oder zu konfigurieren.

Ich will aber wetten dass Du das spielen auf einer zukuenftigen Xbox360/PS3/Revolution mehr geniessen wirst ;)

aths
2005-10-24, 15:00:21
Ich will aber wetten dass Du das spielen auf einer zukuenftigen Xbox360/PS3/Revolution mehr geniessen wirst ;)Ob und wann ich einen Nintendo Revolution oder die PS3 kaufe, steht in den Sternen – für meine beiden Konsolen habe ich noch mehr als genug Spiele.


Also ich kann den Vorwurf so nicht bestätigen.
Ich habe in meiner Bekanntschaft auch ein paar semi-DAUs, aber selbst die finden den Weg ins Optionsmenü und sei es nur aus Neugier.Ja, Einzelfälle (also Leute, die bezüglich der Konfiguration nichts anfassen) gibts immer. Die Meinung, ein Großteil der Spielgemeinschaft wüsste nicht mal, was AA und AF sei, demzufolge nutzten sie es auch nicht, halte ich auch für nicht mehr zutreffend. Wahrscheinlich sind bezüglich AA und AF mehr Missverständnisse in der Welt, als sich je wieder ausräumen lassen (AA = Postfilter, macht das Bild etwas unscharf, AF = Texturschärfung oder "Tiefenschärfe") aber die Bildverbesserung durch AA und AF scheint doch den meisten bekannt – und nützlich.

Insofern verstehe ich auch voll und ganz, dass ATI jetzt mit dem neuen HQ-AF wirbt. Sie rechnen damit, dass der User das versteht (also dass damit bessere Bildqualität geboten wird, ohne dass das Spiel irgendwie gepatcht werden muss oder so.)

mindfaq
2005-10-24, 15:30:29
Hoffentlich haben sie damit Erfolg.
Das HQ-AF rechne ich ATI hoch an, hätte ich vorher nie erwartet.

Ganz klar ein Schritt in die richtige Richtung. Mal hoffen, dass NV in der nächsten Generation nachzieht.

mapel110
2005-10-24, 15:37:05
Insofern verstehe ich auch voll und ganz, dass ATI jetzt mit dem neuen HQ-AF wirbt. Sie rechnen damit, dass der User das versteht (also dass damit bessere Bildqualität geboten wird, ohne dass das Spiel irgendwie gepatcht werden muss oder so.)
Was würdest du derzeit schwerer gewichten? Das "unvollständige" Featureset(kein Vertextexturing, kein FP16 Filtering;deshalb unvollständig in Anführungszeichen, weil ja FP16-Zeugs kein Zwang ist) oder das HQ-AF?

Dunkeltier
2005-10-24, 15:43:41
Was würdest du derzeit schwerer gewichten? Das "unvollständige" Featureset(kein Vertextexturing, kein FP16 Filtering;deshalb unvollständig in Anführungszeichen, weil ja FP16-Zeugs kein Zwang ist) oder das HQ-AF?


Könntest du mir für einen Laien verständlich erklären, was Vertextexturing genau macht? Ich steht gerade ein wenig auf'm Schlauch.

mapel110
2005-10-24, 16:32:14
Könntest du mir für einen Laien verständlich erklären, was Vertextexturing genau macht? Ich steht gerade ein wenig auf'm Schlauch.
In Pacific Fighters wirds zum Beispiel für das Wasser verwendet. Man kann damit wohl Physikdaten speichern, also Bewegungsinformationen und damit dann die CPU entlasten bei solchen Berechnungen.

p.s. bei so rythmischen wiederkehrenden Dingen wie Wellen ist das wohl optimal.

Coda
2005-10-24, 16:40:05
Könntest du mir für einen Laien verständlich erklären, was Vertextexturing genau macht? Ich steht gerade ein wenig auf'm Schlauch.Die Vertexshader können damit Texturdaten laden und damit weiterrechnen, z.B. um den Eckpunkt dann damit zu verschieben (displacement mapping). Es sind aber auch ganz andere Anwendungen möglich.

Dunkeltier
2005-10-24, 16:44:26
Danke, habs verstanden. Und das kann die Radeon X1k nicht? Hatte Ati nicht erst mit Physikberechnungen auf ihrer Karte geworben gehabt?

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=252495&page=1&highlight=physik+ati

Coda
2005-10-24, 16:50:08
Geht auch ohne. Man kann in einen Vertexbuffer rendern um Vertex-Texturing zu ersetzen. Leider ist das in D3D9 nicht vorgesehen.

Vertex-Texturing ist nun aber wirklich nicht auf Physiksimulation von Wellen beschränkt. Nicht das ein falschen Eindruck ensteht.

DrumDub
2005-10-24, 16:50:36
Danke, habs verstanden. Und das kann die Radeon X1k nicht? Hatte Ati nicht erst mit Physikberechnungen auf ihrer Karte geworben gehabt?

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=252495&page=1&highlight=physik+ati
das ist was ganz anderes. da wird die gpu für physikberechnungen, die normalerweise auf der cpu stattfinden "missbraucht".

bezüglich vertex-texturing nutzt ati aber einen trick, sodass es dennoch funktioniert: http://www.techreport.com/onearticle.x/8872

Ailuros
2005-10-24, 16:54:20
Danke, habs verstanden. Und das kann die Radeon X1k nicht? Hatte Ati nicht erst mit Physikberechnungen auf ihrer Karte geworben gehabt?

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=252495&page=1&highlight=physik+ati


Physics sind ein ganz anderes Kapitel. Bis zu den SM3.0 Architekturen konnten alle vorigen shader-faehigen GPUs durch den Pixel shader auf Texturen greifen, aber eben nicht durch den Vertex shader (womoeglich ein bisschen laienhaft ausgedrueckt aber ich hoffe dass Du es trotzdem verstehst).

ATI benutzt fuer vertex texturing ein Render2vertexbuffer verfahren, wo eben vereinfacht man die Texturen die normalerweise im VS bearbeitet werden sollten einfach von den PS bearbeitet wird. Man schleudert das Ganze in einen pixel buffer und laesst dann die fragment shader mit den Texturen fertig werden.

Coda
2005-10-24, 16:59:30
ATI benutzt fuer vertex texturing ein Render2vertexbuffer verfahrenATi benützt gar nichts, die Arbeit wird den Entwicklern zugeschoben.

Ailuros
2005-10-24, 17:03:05
ATi benützt gar nichts, die Arbeit wird den Entwicklern zugeschoben.

Nun gut. ATI empfindet einfach dass Ihr zu faul seit :P

Coda
2005-10-24, 17:34:12
ATi empfindet wohl viel eher, dass sie Transistoren auf dem Rücken der Entwickler sparen können.

Quasar
2005-10-24, 17:36:30
Was würdest du derzeit schwerer gewichten? Das "unvollständige" Featureset(kein Vertextexturing, kein FP16 Filtering;deshalb unvollständig in Anführungszeichen, weil ja FP16-Zeugs kein Zwang ist) oder das HQ-AF?
Auch wenn du mich nicht frugst: Ich würde HQ-AF erst einmal höher einschätzen, wenn es funktioniert, wie die AF-Tester-Screenshots suggerieren, da ich von den bisherigen HDR-Implementationen nur mäßig zum Staunen gebracht wurde (Ausnahme: Far Cry. Da "passt" es irgendwie.)

Quasar
2005-10-24, 17:39:40
ATI benutzt fuer vertex texturing ein Render2vertexbuffer verfahren, wo eben vereinfacht man die Texturen die normalerweise im VS bearbeitet werden sollten einfach von den PS bearbeitet wird. Man schleudert das Ganze in einen pixel buffer und laesst dann die fragment shader mit den Texturen fertig werden.
Klingt wie eine hochperformante Lösung, für Vertexarbeit auch noch die Pixelshader zu blockieren – andererseits ist nVs VTF ja auch nicht gerade ein Performance-King ;)
Aber vielleicht hat das Transistor-Budget ja wirklich nicht mehr gereicht.

seahawk
2005-10-24, 18:02:59
Was würdest du derzeit schwerer gewichten? Das "unvollständige" Featureset(kein Vertextexturing, kein FP16 Filtering;deshalb unvollständig in Anführungszeichen, weil ja FP16-Zeugs kein Zwang ist) oder das HQ-AF?

HQ-AF, funtkioniert unabhängig vom Spiel und dessen Techlevel und ist damit nutzbarer als die anderen Features. Fortschrittlicher sind hingegen FP16 Filtering und Vertextexturing.

mapel110
2005-10-24, 18:14:44
http://www.beyond3d.com/reviews/ati/r520/index2.php?p=13
Die haben jetzt auch endlich getestet. :)
Da sieht das AF sehr beeindruckend aus.

Und da sieht man auch sehr schön, dass dieses alte 16xAF bislang doch teils schlechter aussieht als das neue 2x HQ AF.
(Verdammt, ich kauf vielleicht doch ne Radeon, auch wenn ich die Gameprofile, die Treiberleaks und SuperSamplingAA vermissen werde ^^. Man hat bei nv einfach mehr zum Rumspielen :-) )

p.s. Sehr richtig, Quasar, euch hab ich nicht gefragt. Mich interessiert gerade aths Meinung dazu jetzt. :)

InsaneDruid
2005-10-24, 18:17:30
OT: Gameprofile gibts auch in Rot, im CCC und (besser, imho) mit ATI Tray Tool.

seahawk
2005-10-24, 18:21:52
@mapel

Wobeo das neue Standrard AF der Radeons imho noch sichtbar schelchter als das von NV ist.

mapel110
2005-10-24, 18:25:03
OT: Gameprofile gibts auch in Rot, im CCC und (besser, imho) mit ATI Tray Tool.
Seit wann das? Echte Verknüpfungen mit der Startdatei des Spiels, so dass man nichts weiter tun muss?

BerndJazz
2005-10-24, 18:36:21
Seit wann das? Echte Verknüpfungen mit der Startdatei des Spiels, so dass man nichts weiter tun muss?


Du kannst die *.exe eines Spieles in das Profil integrieren und dann über das Taskleistensymbol von Ati Starten:

InsaneDruid
2005-10-24, 18:36:31
Die CCC-eigene Version kann einen Link erstellen, den man ins Startmenü packen kann, das ATi Tray Tool erkennt gestartete Games/Apps selbständig, da kann man also auch die exe im Explorer direkt starten. Kann man FSAA, AF, vsync, triple buffer, AI, prerender limit, clockraten, smartshader, mipmapsettings, etc etc applikationsspezifisch zuweisen. EIgentlich alles was man irgendwie einstellen kann, kann man Appspezifisch machen.

Tomcat70
2005-10-24, 19:22:48
http://www.beyond3d.com/reviews/ati/r520/index2.php?p=13
Die haben jetzt auch endlich getestet. :)



und hier: http://www.beyond3d.com/reviews/ati/r520/index.php?p=15 (plus folgeseiten)
sind nun endlich vergleiche x1800xl zu x800xt, da sieht man schön wie es bei taktgleichheit neue zu alte generation aussieht.

Faint86
2005-10-24, 20:13:58
Warum bringt der ATI OpenGL Fix/Patch/Optimierung oder wie auch immer, nur bei 4x FSAA so richtig was und bei 2x und 6x so gut wie gar nichts??

deekey777
2005-10-24, 20:20:35
Warum bringt der ATI OpenGL Fix/Patch/Optimierung oder wie auch immer, nur bei 4x FSAA so richtig was und bei 2x und 6x so gut wie gar nichts??

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3600286&postcount=3
:)

reunion
2005-10-24, 20:21:59
Fortschrittlicher sind hingegen FP16 Filtering und Vertextexturing.


R520 kann dafür FP16-MSAA. Und den praktischen Nutzen von VT darf man doch arg bezweifeln IMHO. Tatsache ist nämlich, dass nV schon seit NV40 VT unterstützt, und dieses in keinem SM3-Spiel je eingesetzt wurde. Damals wusste selbstredend noch niemand, dass ATi dieses Feature nicht unterstützten wird, was eigentlich alles über den Stellenwert von VT aussagt. Spätestens jetzt, wo man dies weiß, wird dieses Feature höchstwarscheindlich ohnehin zum Papierfeature deklariert. Natürlich kann man sich als Entwickler über das Vorgehen von ATi aufregen, als Spieler hingegen, wird man deshalb in absehbarer Zukunft keinerlei Nachteile davontragen IMO.

Die fehlende FP-Filterung empfinde ich da schon als wesentlich kritischer, da Point-Sampling heutzutage wirklich nichts mehr zu suchen hat.

Coda
2005-10-24, 20:22:56
Tatsache ist nämlich, dass nV schon seit NV40 VT unterstützt, und dieses in keinem SM3-Spiel je eingesetzt wurde.Falsch. Pacific Fighters, q.e.d.

MikBach
2005-10-24, 20:24:50
Falsch. Pacific Fighters, q.e.d.
q.e.d.?

Coda
2005-10-24, 20:26:18
Was zu beweisen war.

reunion
2005-10-24, 20:26:26
Falsch. Pacific Fighters, q.e.d.


Ich habe durchaus bewusst "SM3-Spiel" geschrieben. :tongue:

Coda
2005-10-24, 20:26:49
Und was ändert das genau an der Tatsache, außer dass du dir es damit zurechtbiegst? Außerdem kann man darüber diskutieren ob SM3.0 jetzt nur die Software oder auch die HW betrifft und somit API-unabhängig ist.

Wenn dann in WGF wieder Vertex-Texturing für Effekte benützt wird ist es auf einmal wieder toll - ich seh's schon kommen. Solange es ATi ein Feature nicht hat ist es "unnütz" und alles was es benützt ist "böse" (SC3).

Und danach wird dann wieder damit argumentiert, dass es ja wirklich unnütz war weil es zu Lebzeiten der Karte nicht verwendet wurde - warum wohl...

deekey777
2005-10-24, 20:29:38
Falsch. Pacific Fighters, q.e.d.

Und jetzt kommt das alte Spielchen: PF ist ein OpenGL-Spiel, und das schöne Vertex-Wasser wurde mit einer NV-Extension schöner gemacht, meinte hier jemand.
Und was nun? Macht das jetzt einen Unterschied oder nicht?

€: Ach Mist, ich sollte weniger CSI: NY schauen, sondern schneller auf Antworten drücken... ;(

Coda
2005-10-24, 20:30:18
Nein, es macht keinen Unterschied, weil ATi auch diese Extension nicht unterstützen kann.

MikBach
2005-10-24, 20:34:38
Wenn dann in WGF wieder Vertex-Texturing für Effekte benützt wird ist es auf einmal wieder toll - ich seh's schon kommen. Solange es ATi ein Feature nicht hat ist es "unnütz" und alles was es benützt ist "böse" (SC3).
Kannst du bitte einen Gang zurückschalten.
Reunion hat doch Recht, wenn er sagt, dass es auch der NV40 kann und seit einem Jahr erst ein Spiel erscheinen ist, und das nichtmal SM3 ist.

Coda
2005-10-24, 20:35:17
Siehe Punkt 3 in meinem Post.

Ich sehe es einfach nicht ein ATi dafür zu loben, dass sie Transistoren sparen wo immer es geht wenn es den Kunden nicht direkt betrifft.

MikBach
2005-10-24, 20:37:25
Siehe Punkt 3 in meinem Post.
Ok, hast du per edit nachgeholt.
Da geb ich dir teilweise Recht. Es ist aber Fakt, dass es schon einige SM3-Spiele gibt und keins davon unterstütz dieses Feature.

Coda
2005-10-24, 20:38:11
Pacific Fighters. Ob das Feature jetzt über OGL oder D3D angesprochen wird ist irrelevant.

MikBach
2005-10-24, 20:41:16
Siehe Punkt 3 in meinem Post.

Ich sehe es einfach nicht ein ATi dafür zu loben, dass sie Transistoren sparen wo immer es geht wenn es den Kunden nicht direkt betrifft.
Das kann ich aus Entwicklersicht voll verstehen. Was ist aber mit dem Weg über die Pixelshader?
Sind die Entwickler zu faul oder zu schlecht?
Für den Gamer dürfte das egal sein.
ATI hat halt die Transistoren lieber in bessere BQ investiert. Willst du ihnen deswegen einen Vorwurf machen?
Für mich als Gamer ist mir dieser Weg sogar lieber. :)

MikBach
2005-10-24, 20:43:14
Pacific Fighters. Ob das Feature jetzt über OGL oder D3D angesprochen wird ist irrelevant.
Ja, habe ich doch geschrieben. Ein Spiel.
Mit dem Feature hast du natürlich Recht.

Coda
2005-10-24, 20:44:01
Sind die Entwickler zu faul oder zu schlecht?Die Emulation ist einleuchtend, aber aufwändig. Also ersteres.

Für den Gamer dürfte das egal sein.
ATI hat halt die Transistoren lieber in bessere BQ investiert. Willst du ihnen deswegen einen Vorwurf machen?Ja. Weil der Chip sehr klein ist, da hätte es sehr wohl noch Platz für solche Dinge gehabt

Für mich als Gamer ist mir dieser Weg sogar lieber. :)Du wirst Effekte die du vielleicht zu sehen bekommen hättest so nie sehen. Ich weiß nicht ob ich das auch aus Spielersicht so toll finden soll.

reunion
2005-10-24, 20:45:12
Und was ändert das genau an der Tatsache, außer dass du dir es damit zurechtbiegst?


Nichts, was ich allerdings auch nicht behauptet habe.


Außerdem kann man darüber diskuttieren ob SM3.0 jetzt nur die Software oder auch die HW betrifft und somit API-unabhängig ist.


Man könnte, ja.


Wenn dann in WGF wieder Vertex-Texturing für Effekte benützt wird ist es auf einmal wieder toll - ich seh's schon kommen. Solange es ATi ein Feature nicht hat ist es "unnütz" und alles was es benützt ist "böse" (SC3).

Und danach wird dann wieder damit argumentiert, dass es ja wirklich unnütz war weil es zu Lebzeiten der Karte nicht verwendet wurde - warum wohl...

Ich bitte dich, das grenzt schon fast an Paranoia.
Wenn ein Feature kaum Verwendung findet, dann hat das schon seine Gründe, und diese haben erstmal gar nichts mit ATi zu tun.

deekey777
2005-10-24, 20:46:38
Ja, habe ich doch geschrieben. Ein Spiel.
Mit dem Feature hast du natürlich Recht.

Wobei ich mich frage, ein Spiel von wievielen, die SM3 Features unterstützen? Wenn man dies jetzt relativiert, sieht es für das VT dann nicht so übel aus. :)

Coda
2005-10-24, 20:48:09
Ich bitte dich, das grenzt schon fast an Paranoia.
Wenn ein Feature kaum Verwendung findet, dann hat das schon seine Gründe, und diese haben erstmal gar nichts mit ATi zu tun.Das hat sehr wohl was mit ATi zu tun, weil sich die Entwickler schon seit Urzeiten am minimalen Featureset orientieren.

Wieso hat sich Truform nicht durchgesetzt, warum Matrox Env-Mapping nicht? Na?

MikBach
2005-10-24, 20:48:10
Ja. Weil der Chip sehr klein ist, da hätte es sehr wohl noch Platz für solche Dinge gehabt
Dann könnte man die GPU aber nicht mehr so hochtakten...

Du wirst Effekte die du vielleicht zu sehen bekommen hättest so nie sehen. Ich weiß nicht ob ich das auch aus Spielersicht so toll finden soll.
Irgendwann wird man es eh sehen (WGF2). Dann können wir entscheiden, wie wichtig dieses Feature war. :)

Coda
2005-10-24, 20:49:17
Dann könnte man die GPU aber nicht mehr so hochtakten...Das kannst du nicht belegen. Man kann sehr wohl auch eine sehr komplexe Logik hoch takten in 90nm (Prescott).

MikBach
2005-10-24, 20:49:48
Das hat sehr wohl was mit ATi zu tun, weil sich die Entwickler schon seit Urzeiten am minimaln Featureset orientieren.
Das war bei der GF4 und 8500 auch nicht anders. Nur war die ATI damals überlegen.
Also nix mit Urzeiten... :rolleyes:

Coda
2005-10-24, 20:51:15
Und wo ist der Widerspruch? Damals hat sich auch fast keiner um PS1.4 gekümmert, weil es nur ATi hatte. Das belegt meine Aussage ja nur noch.

Und das gleiche Geschrei von den nVIDIA-Fanboys damals bei Max Payne 2 wie bei SC3 von der ATi-Fraktion. Hört mir doch auf...

reunion
2005-10-24, 20:56:33
Das hat sehr wohl was mit ATi zu tun, weil sich die Entwickler schon seit Urzeiten am minimalen Featureset orientieren.


SM3 wird aber trotzdem eingesetzt.
Wobei ich natürlich zugebe, dass du damit nicht ganz Unrecht hast.


Wieso hat sich Truform nicht durchgesetzt, warum Matrox Env-Mapping nicht? Na?

Die beiden Firmen waren damals schlicht zu unbedeutend, um ein Feature im Alleingang zu etablieren.

StefanV
2005-10-24, 20:58:34
Das hat sehr wohl was mit ATi zu tun, weil sich die Entwickler schon seit Urzeiten am minimalen Featureset orientieren.
Aufwand/Nutzen und zu erwartende Performance??

MikBach
2005-10-24, 20:58:49
Und wo ist der Widerspruch? Damals hat sich auch fast keiner um PS1.4 gekümmert, weil es nur ATi hatte. Das belegt meine Aussage ja nur noch.

Und das gleiche Geschrei von den nVIDIA-Fanboys damals bei Max Payne 2 wie bei SC3 von der ATi-Fraktion. Hört mir doch auf...
Hast Recht, kleiner Denkfehler. :redface:

Coda
2005-10-24, 20:59:35
Mal ganz ehrlich reunion: Du glaubst doch selber nicht was du hier so von dir gibst, oder? Die Entwickler haben SM3 bisher ganz klar gemieden, weil die Hardware-Basis dafür nicht da war. Das Featureset ist viel zu verlockend um nicht genützt zu werden, weil man weniger Resourcenprobleme hat auch bei heutigen Spielen.

Genau das gleiche wie damals mit PS1.4. Da war deine Sicht der Dinge aber eine andere. Sehr komisch.

Aufwand/Nutzen und zu erwartende Performance??SM3 ist einfacher zu programmieren als SM2 wenn man den gleichen Effekt erreichen will und die Performance ist womöglich auch besser. Die gewonnene Zeit kann man dann potentiell für noch bessere Grafik einsetzen.

Tomcat70
2005-10-24, 21:52:51
Mal ganz ehrlich reunion: Du glaubst doch selber nicht was du hier so von dir gibst, oder? Die Entwickler haben SM3 bisher ganz klar gemieden, weil die Hardware-Basis dafür nicht da war. Das Featureset ist viel zu verlockend um nicht genützt zu werden, weil man weniger Resourcenprobleme hat auch bei heutigen Spielen.

Genau das gleiche wie damals mit PS1.4. Da war deine Sicht der Dinge aber eine andere. Sehr komisch.

SM3 ist einfacher zu programmieren als SM2 wenn man den gleichen Effekt erreichen will und die Performance ist womöglich auch besser. Die gewonnene Zeit kann man dann potentiell für noch bessere Grafik einsetzen.

die frage ist, was bringt das ganze rumgejammere? so ist es nun mal und damit muss man sich anfreunden.
das extremgeheule hat nichts mehr mit sinnvoller kritik zu tun.
niemand ist perfekt, nvidia nicht und ati schon erst recht nicht.

Coda
2005-10-24, 21:54:09
Klar, den Kopf in den Sand stecken und alles einfach geschehen lassen ist natürlich der richtige Weg (vor allem wenn es Kritik gegen ATi ist).

Tomcat70
2005-10-24, 21:58:13
Klar, den Kopf in den Sand stecken und alles einfach geschehen lassen ist natürlich der richtige Weg (vor allem wenn es Kritik gegen ATi ist).

du wirst keine kritik von mir an nvidia wegen features die nur ati hat finden.
beide gehen nun mal teilweise eigene wege und ich finde das im grossen und ganzen auch gut so.

Coda
2005-10-24, 22:02:46
SM3.0 ist ein vorgegebener, kein "eigener" Weg.

du wirst keine kritik von mir an nvidia wegen features die nur ati hat finden.Ich denke du hast dich schon öfters wegen dem fehlenden Multisampling auf FP16-Rendertargets geäußert bei nVIDIA. Und das auch zurecht.

aths
2005-10-24, 22:03:55
Wenn ein Feature kaum Verwendung findet, dann hat das schon seine Gründe, und diese haben erstmal gar nichts mit ATi zu tun.Warum wurde Pixelshader 1.4 kaum verwendet?

Etwa, weil man ihn nicht brauchte? Nun ganz im Gegenteil, PS.1.4 ermöglicht mehr Effekte als Version 1.3, und viele Effekte die sich mit 1.3 dann zwar doch darstellen lassen, aber nur aufwändig im Multipass-Rendering, lassen sich mit 1.4 singlepass, und – dank 16-Bit-Genauigkeit auf R200 – oft auch noch schöner berechnen.

aths
2005-10-24, 22:09:13
SM3.0 ist ein vorgegebener, kein "eigener" Weg.Ja, was mit SM3 eingeführt wurde, wird Bestand haben, während andere Features (z. B. TruForm) kommen und gehen. WGF2/DX10 bietet Shader mit einer logischen Weiterentwicklung von SM3, da wird auch von den SM3-Features nichts wieder eingestapft. SM3 war so gedacht, dem Vertexshader Texturzugriff zu bieten. ATI hat es nicht gepackt, das zu realisieren. Natürlich sind 6x sparse MSAA (auch bei FP16-Targets) oder die verbesserte anisotrope Filterung ein genauso angenehmes Features wie die sehr gute Performance beim dynamischen Branching im Pixelshader. Doch shaderfeatureseitig bietet ATI mit dem R520 nicht mal NV40-Niveau. Die fehlende Möglichkeit, Floating-Point-Formate nativ in der TMU zu filtern, sehe ich ebenfalls kritisch.

Jeder kann für sich entscheiden, dass Performance für heutige Technologien und das Plus an Bildqualität wichtiger sei, weshalb man den R520 als höherwertiger einstufen müsse. Die meisten Entwickler werden wohl dabei bleiben, auf GeForce-Basis zu entwickeln.

StefanV
2005-10-24, 22:12:19
Warum wurde Pixelshader 1.4 kaum verwendet?
zu Spät, zu hoher Aufwand?!

Coda
2005-10-24, 22:14:12
zu Spät, zu hoher Aufwand?!Auch dort gilt, dass man mit PS1.4 weniger Aufwand hat den gleichen Effekt zu realisieren und die Performance potentiell höher ist.

aths
2005-10-24, 22:17:25
zu Spät, zu hoher Aufwand?!Verstehe nicht, was du damit sagen willst.

Tomcat70
2005-10-24, 22:20:05
SM3.0 ist ein vorgegebener, kein "eigener" Weg.


gerade solche fälle zeigen ja daß die kritik eher bei MS angebracht wäre.

natürlich ziehe ich auch gern vergleiche und finde gefallen an besseren/neuen features, das steht ja denk ich außer frage.
sicher wäre es schön gewesen wenn ATI noch mehr features reingepackt hätte, dennoch sollte man immer das gesamtpaket berücksichtigen.

ehrlich gesagt bin ich froh das ATI überhaupt konkurrenzfähig ist, nach all den spekulationen die eher ein düsteres bild zeichneten.

Mr. Lolman
2005-10-24, 22:25:28
ehrlich gesagt bin ich froh das ATI überhaupt konkurrenzfähig ist, nach all den spekulationen die eher ein düsteres bild zeichneten.
Nicht nur das. Imo liegen sie vorne und je neuer die Games umso deutlicher.

Coda
2005-10-24, 22:28:53
gerade solche fälle zeigen ja daß die kritik eher bei MS angebracht wäre.Nein. Die Shaderspezifikation wurde mit Anteilnahme der IHVs entwickelt und es würde auch nicht großartig viele Möglichkeiten geben davon abzuschweifen.

Nicht nur das. Imo liegen sie vorne und je neuer die Games umso deutlicher.Gleichstand würde mal wieder viel eher passen. Mit dem üblichen verzerrten Bild je nach Sichtweise.

Mr. Lolman
2005-10-24, 22:31:54
Gleichstand würde mal wieder viel eher passen. Mit dem üblichen verzerrten Bild je nach Sichtweise.

Genau. Du hast ja bereits ne GTS, äh GTX ;)

aths
2005-10-24, 22:33:10
gerade solche fälle zeigen ja daß die kritik eher bei MS angebracht wäre.

natürlich ziehe ich auch gern vergleiche und finde gefallen an besseren/neuen features, das steht ja denk ich ausser frage."Außer" bitte mit ß schreiben.

Wieso möchtest du hier MS kritisieren? Weil sie diese Lücke in der SM3-Spec übersehen haben?

sicher wäre es schön gewesen wenn ATI noch mehr features reingepackt hätte, dennoch sollte man immer das gesamtpaket berücksichtigen.Dazu sollte man auch jede Meinung sehen und imo keine Ignoreliste haben und das in der Signatur noch groß kundtun, wenn ich mir diese Anmerkung erlauben darf.

Für den Endkunden zählt das Paket, er wird keine Graka finden die seine Bedürfnisse zu 100% erfüllt. Die Frage ist also, wo man Abstriche macht. Müsste ich jetzt eine neue PCIe-Highend-Karte kaufen, würde ich wahrscheinlich zum R520 greifen: Das HQ-AF dort ist einfach erheblich besser als das, was NV40 oder G70 anzubieten hat. Das sollte jedoch kein Argument sein, die Schwächen im Featureset des R520 kleinzureden.

ehrlich gesagt bin ich froh das ATI überhaupt konkurrenzfähig ist, nach all den spekulationen die eher ein düsteres bild zeichneten.[/QUOTE]

Coda
2005-10-24, 22:33:41
Genau. Du hast ja bereits ne GTS, äh GTX ;)Das spielt für mich keine Rolle, ich könnte mir auch locker beide leisten. Die X1800XT bringt im Moment aber keinen lohnenden Mehrwert für den Preis. Überhaupt sehe ich den Vorteil von R520 im Moment ganz klar beim schnelleren Speicher. Das ist ein halbes Jahr später etwas wenig.

Zu behaupten R520 würde in neueren Spielen einen Vorteil haben, halte ich für gewagt. Je mehr gerechnet wird, desto größer wird der Vorteil für G70. Und das nicht nur auf dem Papier. Ansonsten würde ATi nicht mit dem R580 so schnell nachlegen wollen/müssen.

Mr. Lolman
2005-10-24, 22:38:02
Je mehr gerechnet wird, desto größer wird der Vorteil für G70. Und das nicht nur auf dem Papier (weil das wieder als nächstes kommt).

Ja, solang man kein Branching braucht.

Coda
2005-10-24, 22:38:52
Soso, das Branching war doch vor ner Weile noch "absolut unwichtig", weil es ATi nicht hatte. Wendehals.

Überhaupt betrifft das nur dynamisches branching.

Mr. Lolman
2005-10-24, 22:39:51
Soso, das Branching war doch vor ner Weile noch "absolut unwichtig", weil es ATi nicht hatte. Wendehals.

Überhaupt betrifft das nur dynamisches branching.

Damals wars auch nicht wichtig. Oder kennst du ein Spiel was dynamisches Branching einsetzt.

BTW: Bin ich sehr gespannt, wie die 7800GTX sich unter Q4 mit HQ vgl zur X1800XT macht. Allem Anschein nach (Benchmarkforum) nicht so gut.

Coda
2005-10-24, 22:41:09
Damals wars auch nicht wichtig. Oder kennst du ein Spiel was dynamsiches Branching einsetzt.
Splinter Cell 3.

Überhaupt ist die Performance-Diskussion hier eh fehl am Platz und dient nur der Ablenkung.

Dynamisches Branching wird eh solange nicht in hochfrequenten situationen Verwendung finden solange nV es nicht auch performant hinbekommt. Dafür kann man nVIDIA wiederrum natürlich auch kritisieren, weil dadurch effektiv Effekte verhindert werden. G70 hat da aber auch schon etwas Besserung gebracht.

Mr. Lolman
2005-10-24, 22:53:49
Das Problem ist, dass NV es auch unterstützt. Also wirds sehr wohl verwendet werden. Nur wird man auf G70 Chips die Details wohl runterschrauben müssen.