PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Der Tagespreis für unverschämtes Marketing geht ...


Demirug
2003-12-09, 20:47:06
... heute an ATI.

Augezeichnet für fortgesetzte willentliche Kundenverarschung.

Man nehme sich ein beliebiges Produkt der R3XX Reihe und werfe einen Blick auf die Spezifikation:

9600 Pro (http://www.ati.com/products/radeon9600/radeon9600pro/specs.html)
9700 Pro (http://www.ati.com/products/radeon9700/radeon9700pro/specs.html)
9800 Pro (http://www.ati.com/products/radeon9800/radeon9800pro/specs.html)

Unter dem Abschnitt TRUFORM™ 2.0 kann man dort immer wieder folgendes finden.

TRUFORM™ 2.0
2nd generation N-Patch higher order surface support
Discrete and continuous tessellation levels per polygon
Displacement mapping

Das die ganzen TruForm Dinge bei den R3XX Chips keine sonderlich gute Leistung an den Tag legen ist ja nichts neues. Aber für schlechter Leistung verdient man diesen Preis nicht.

Das es sich bei den angesprochenen Displacement mapping nur um eine stark vereinfachte Variante handelt die mit dem Displacement mapping von Matrox nicht viel gemein hat sollte man ATI auch nicht anlasten. Immerhin nennt auch Microsoft dieses Verfahren immer noch Displacement mapping wenn auch mit dem kleinen Vorsatz "Presampled".

Aber was muss ich heute in meinem Postfach finden?

In einer öffentlichen email schreibt Jason Mitchell:

You're not going to see particularly good perf here, as there is a ton of work going on in software. We implemented support for Presampled Displacement mapping to help Microsoft validate the API when DX9 was still in Beta. It was never intended to be a performance path.

-Jason

Ich habe ja nicht unbedingt etwas gegen CPU unterstützte Features. Eine Softwareemulation eines DX-Features bei der man sich nicht einmal die Mühe gemacht sie schnell zu machen in der Produktspezifikation auf zulisten schlägt dem Fass nun wirklich den Boden aus.


Ich weiss ja das man sowas nicht zu eng sehen sollte aber als Entwickler fülle ich mich irgendwie total verarscht. Wenn ich eine Softwareemulation haben will dann nehme ich den RefRast und keine Hardware die vorgibt das sie es kann. Natürlich war mir bekannt das die gante Truform Geschichte nicht ganz koscher ist aber das es so weit geht hätte ich mir nicht vorstellen können.

OK, extra einen Thread deswegen aufzumachen war vielleicht etwas zu viel des guten aber das musste jetzt einfach raus.

Tesseract
2003-12-09, 21:03:19
abgesehen davon das es eine ziemliche verarschung ist find ich es einfach schade das ati truform einfach sterben lässt

tessellation in hardware wird sich imho früher oder später durchsetzen müssen

AlfredENeumann
2003-12-09, 21:04:46
Naja. Ist halt ein Nice-to-have. Benutzten tuts ja eh keiner, obwohl ne nette Basis an R2xx Karten da ist.
Features machen sich halt in einem Marketingpapier ganz gut.

Ich könnte auch über einige unserer Eigenamrkenprodukte etwas schreiben, aber ich darf nicht.

deekey777
2003-12-09, 22:07:37
Dass Truform 1 auf den R3xo-Karten schlecht läuft, ist nichts neues, Spiele mit Truform 2 gibt es nicht. Also was soll die Aufregung?

mapel110
2003-12-09, 22:34:25
Original geschrieben von deekey777
Dass Truform 1 auf den R3xo-Karten schlecht läuft, ist nichts neues, Spiele mit Truform 2 gibt es nicht. Also was soll die Aufregung?

weils ne reine softwarelösung ist, die aber doch irgendwie als schnell und als hardwarebeschleunigt und als produktfeature beworben wird.

dabei scheints nicht viel mehr als eine art "technologiemachbarkeitsstudie" zu sein ;(

Pirx
2003-12-09, 23:08:57
Naja ich glaube es gibt Schlimmeres, Truform hat sich nicht durchgesetzt und bei ATi hat man das Augenmerk erstmal auf eine möglichst gute Leistung bei den "Standardfeatures" gelegt, was imho vollkommen richtig war und auch gut gelungen ist.

Modulor
2003-12-09, 23:24:03
Original geschrieben von Demirug
...
Ich habe ja nicht unbedingt etwas gegen CPU unterstützte Features. Eine Softwareemulation eines DX-Features bei der man sich nicht einmal die Mühe gemacht sie schnell zu machen in der Produktspezifikation auf zulisten schlägt dem Fass nun wirklich den Boden aus.
...


Sie sind ja nicht die ersten und werden auch nicht die letzten sein:Man siehe sich dieses Bild (http://www.tilebase.de/images/PVRChips/4800.jpg) an und achte auf die letzten zwei Zeilen der auf der box befindlichen specs :D...

Winter[Raven]
2003-12-09, 23:25:12
Ich finde es wirklich sehr Interessant was so einige hier posten.
Ich mein, würde jetzt Nvidia anstelle von Ati gemeint werden, dann wäre der Tread schon mindestens 4 Seiten voll, aber hay es dreht sich doch alles nur um Ati, wenn die was "böses" machen dann ist es nicht schlimm wird tolleriert und die schuld auf die entwickler geschoben, wer hääte es gedacht, also wirklich Pfui ATI macht doch sowas nicht.

Sorry aber dies wird wirklich langsamm ein weiterer Forum der Pro Ati ist.

Sie sind ja nicht die ersten und werden auch nicht die letzten sein:Man siehe sich dieses Bild an und achte auf die letzten zwei Zeilen der auf der box befindlichen specs

Ganz schlechter Beispiel, leider unterstützte der Kyro Chip diesen aber 100%, gut nicht Hardwareseitig aber immerhin beleunigte es den chip.

Was Ati da macht ist nunmal Kundenverarschung da dort etwas angepriesen wird was SUPPA langsamm ist.

Gast
2003-12-09, 23:30:04
Und ich finds interessant, dass Demi sich zum Starten von einem Thread mit solch einem Titel hinreissen lässt. Der größte Skandal in der Hardwaregeschichte?

PS: Aussagen zu Nvidia von ihm sind zwar mitunter auch kritisch werden aber auch oft gleichzeitig relativiert.

Danke

Modulor
2003-12-09, 23:33:07
Original geschrieben von Winter[Raven]
...
Ganz schlechter Beispiel, leider unterstützte der Kyro Chip diesen aber 100%, gut nicht Hardwareseitig aber immerhin beleunigte es den chip.
...

...genau um 0% :).Die enTnL Funktion gibt es mittlerweile auch im Treiber für KYRO 1 und 2.

Riptor
2003-12-09, 23:36:40
Original geschrieben von Winter[Raven] Was Ati da macht ist nunmal Kundenverarschung da dort etwas angepriesen wird was SUPPA langsamm ist.

:zzz: Wissen wir ja eigentlich schon seit der R9700 Pro und ja, es ist scheisse, was ATI da macht, aber müssen wir hier jetzt wieder den kalten Kaffee warm machen und schauen, wie er sich wieder abkühlt? Können wir uns nicht einfach ALLE an die Hand nehmen und sagen: "Jawohl, das ist scheisse!" und gut ist? Ist nur so nen Vorschlag, weil irgendwie wars IMO grad zwischen den ATI-nVidia Fronten relativ ruhig und sogar etwas langweilig *eg* , aber müssen ja nicht wieder künstlich was hochtreiben, oder? Naja, auch egal, Zündstoff kann ja eigentlich nie schaden. :naughty:

Radeonator
2003-12-09, 23:39:13
Also Demirug ist nun wirklich einer der wenigen neutralen Poster hier, ihm irgendetwas anderes zu unterstellen ist lächerlich lieber Gast...

Jo, ich fand Truform bei der R200 goil :) und fands besch...eiden das die R3xx nur noch emulieren können. Aber das eDM in Software geregelt wird, ist ein schlechter Joke! Dann können ja alle Karten ab DX6 als DX9 HW verkauft werden, da es einige Feature Emus gibt ;)

Winter[Raven]
2003-12-09, 23:41:18
Wissen wir ja eigentlich schon seit der R9700 Pro und ja, es ist scheisse

Lese doch bitte meinen Posting nochmal durch und dann poste nochmal.

Ich sage nirgendwo der R3xx ist scheiße, jeder Chip hat seine Stärken und Schwächen, was Ati hier aber macht ist eine anpreisung von etwas das sogar ein R250 schneller berechnen kann.

Szilard
2003-12-09, 23:42:33
Original geschrieben von Winter[Raven]
Ich finde es wirklich sehr Interessant was so einige hier posten.
Ich mein, würde jetzt Nvidia anstelle von Ati gemeint werden, dann wäre der Tread schon mindestens 4 Seiten voll, aber hay es dreht sich doch alles nur um Ati, wenn die was "böses" machen dann ist es nicht schlimm wird tolleriert und die schuld auf die entwickler geschoben, wer hääte es gedacht, also wirklich Pfui ATI macht doch sowas nicht.

Sorry aber dies wird wirklich langsamm ein weiterer Forum der Pro Ati ist.

Ja... du hättest es wohl gerne, antworten ala "nieder mit ati" - "scheiss firma" - "hoch lebe nvidia" oder? Ne schon klar... :o

mapel110
2003-12-09, 23:44:54
Original geschrieben von Winter[Raven]
Lese doch bitte meinen Posting nochmal durch und dann poste nochmal.

Ich sage nirgendwo der R3xx ist scheiße, jeder Chip hat seine Stärken und Schwächen, was Ati hier aber macht ist eine anpreisung von etwas das sogar ein R250 schneller berechnen kann.

TRUFORM 2.0 kann auch ein r2x0 nicht. ausserdem gehts hier um displacement mapping.

MadManniMan
2003-12-09, 23:56:16
Original geschrieben von Winter[Raven]
Ich finde es wirklich sehr Interessant was so einige hier posten.
Ich mein, würde jetzt Nvidia anstelle von Ati gemeint werden, dann wäre der Tread schon mindestens 4 Seiten voll, aber hay es dreht sich doch alles nur um Ati, wenn die was "böses" machen dann ist es nicht schlimm wird tolleriert und die schuld auf die entwickler geschoben, wer hääte es gedacht, also wirklich Pfui ATI macht doch sowas nicht.

Auch wenn es schon andere geschrieben haben: das war schon sehr lange bekannt.

[B]Original geschrieben von Winter[Raven]
Sorry aber dies wird wirklich langsamm ein weiterer Forum der Pro Ati ist.

:kicher: Es heißt das Forum :kicher:

Ernstgemeinte Frage: was bringt es dir, diesen Satz in so vielen Posts immer und immer wieder zu bringen?

[B]Original geschrieben von Winter[Raven]
Ganz schlechter Beispiel, leider unterstützte der Kyro Chip diesen aber 100%, gut nicht Hardwareseitig aber immerhin beleunigte es den chip.

Genau das selbe ists auch beim Presampled Displacement Mapping beim R(V)3X0.

[B]Original geschrieben von Winter[Raven]
Was Ati da macht ist nunmal Kundenverarschung da dort etwas angepriesen wird was SUPPA langsamm ist.

Ich hab mir irgendwann abgewöhnt, an die karitative Ader von Graka-IHVs zu glauben, von daher würde ich dir vorschlagen, auch diese Position einzunehmen.

MadManniMan
2003-12-10, 00:00:58
Original geschrieben von Winter[Raven]
Lese doch bitte meinen Posting nochmal durch und dann poste nochmal.

Ich sage nirgendwo der R3xx ist scheiße, jeder Chip hat seine Stärken und Schwächen, was Ati hier aber macht ist eine anpreisung von etwas das sogar ein R250 schneller berechnen kann.

Lies besser seinen Kommentar nochmal. Er schreibt nicht auf zynische Weise, daß der R300 *#%§µ wäre, sondern daß das Fehlen von HW-Truform mistig ist.

Ernstgemeinte Frage: hast du Probleme mit der deutschen Sprache?

deekey777
2003-12-10, 00:17:16
Dass ATi-Fans in letzter Zeit nVidia-"Problemchen" so gerne bis zum "Schlag-Mich-Tot" diskutieren, liegt vielleicht daran, dass ATi-Grafikkarten zum ersten Mal so richtig weit vorn liegen und die ATi-Besitzer nicht mehr in der Defensive sind, sondern sie können so richtig jede nVidia-Sünde zum Elefanten machen und jede Reaktion aus dem nVidia-Lager mit dem Spruch "Dafür ist die PS 2.0-Leistung besser" zunichte machen.

Zu dem eigentlichen Thema: Na und? Das ist pures Marketing. Ob es schnell läuft oder nicht, ist doch egal. Hauptsache, die Funktion ist "an Bord". Mich als Endverbraucher interessiert das leider nicht - so lange, bis es richtig genutzt wird, dann habe ich ein Problem, welches hoffentlich mit dem nächsten GraKa-Kauf behoben wird.
Vor mehr als einem Jahr wurden die erste DX9-Generation seitens ATi vorgestellt - wo bleiben denn die Spiele dafür? Erst jetzt kamen die ersten DX8.1-Hardware only Games. Und die richtigen DX9-Hardware-Fresser wie HL2, Far Cry oder Doom 3 (da steht extra DX9-Hardware, zB Doom 3'ARB2 setzt nun mal PS 2.0 voraus) kommen ertst im nächsten Jahr, wo die nächste Generation der Garfikkarten mit ihren PS/VS 3.0 vor der Tür steht, für die diese "Killer" wohl hoffentlich keine Probleme sein werden.

Piffan
2003-12-10, 00:45:16
Das ist wirklich ein dicker Hund, was Ati da betreibt. So, dass war jetzt and Winterraven gemünzt....

Jetzt meine Meinung: Mir egal, da es eh nicht unterstützt wird...wenn ich mich aufregen sollte, dann nur, dass diese Einstellung fortschrittfeindlich ist...statt es nur zu behaupten, sollte Ati es tatsächlich tatkräftig fördern, um so eher können es die Entwickler wirklich nutzen.....

Was die viele Schelte an NV betrifft: Ist es nun ein Rückschritt oder nicht, wenn man dem Kunden Trilineares Filtern anbietet, tatsächlich aber ein Schmalspur- Tri liefert?

Der eine bewirbt etwas, was theoretisch da ist, aber nicht wirklich genutzt werden kann, der andere betreibt beim AF Etikettenschwindel.....

Den Heiligenschein verdient keiner der beiden, beide müssen gescholten werden.....Derzeit kriegt NV häufiger Haue, früher wurde Ati von den Nvidianern gerne niedergemacht....was solls, die Zeiten werden sich auch wieder ändern ;)

aths
2003-12-10, 03:39:58
Original geschrieben von Demirug
... heute an ATI.

Augezeichnet für fortgesetzte willentliche Kundenverarschung.

[...]

OK, extra einen Thread deswegen aufzumachen war vielleicht etwas zu viel des guten aber das musste jetzt einfach raus. Gut so! Ich finde es auch ziemlich frech, mit einem Feature zu werben, was die GPU gar nicht unterstützt. Wäre die Emulation via CPU halbwegs erträglich machbar, würde man das u. U. noch fast einsehen (siehe VS.1.1 bei NV17 — afaik wirbt NV damit aber nicht.)

Original geschrieben von Pirx
Naja ich glaube es gibt Schlimmeres, Truform hat sich nicht durchgesetzt und bei ATi hat man das Augenmerk erstmal auf eine möglichst gute Leistung bei den "Standardfeatures" gelegt, was imho vollkommen richtig war und auch gut gelungen ist. :eyes: R300 beherrscht nicht mal das "Standard-Feature", korrekt bilinear zu filtern...

[Persönliche Meinung]Ich halte es einer vernünftigen Diskussion für nicht zuträglich, bei ATI alles negative mit einem Hinweis auf die solide Performance wegdiskutieren zu wollen.[/Persönliche Meinung]

Original geschrieben von Modulor
...genau um 0% :).Die enTnL Funktion gibt es mittlerweile auch im Treiber für KYRO 1 und 2. Komisch: Voodoo4 wurde bei mir damals (mit dem Athlon @600 MHz) mit "Geometry Assist" (HW T&L-Emulation) im 3DMark etwas schneller.

MadManniMan
2003-12-10, 03:44:29
Original geschrieben von aths
:eyes: R300 beherrscht nicht mal das "Standard-Feature", korrekt bilinear zu filtern...

athsilein, nicht inkorrekt, sondern einfach nur nich :kicher: lehrbuchhaft :kicher: !

Original geschrieben von aths
Komisch: Voodoo4 wurde bei mir damals (mit dem Athlon @600 MHz) mit "Geometry Assist" (HW T&L-Emulation) im 3DMark etwas schneller.

CPU-Extensions.

<- jetzt schreibfaul

aths
2003-12-10, 03:52:53
Original geschrieben von MadManniMan
athsilein, nicht inkorrekt, sondern einfach nur nich :kicher: lehrbuchhaft :kicher: !Gebe er 8! aths wählt seine Worte mit Bedacht. Es wär' doch gelacht, hätten wir uns verkracht...

http://www.forum-hardtecs4u.com/3dcenter/images/2003/11-21_bf_r300.png

Wer ist es nun, der lacht? Ein kann man sagen, nicht wahr:

Das ist nur abschnittsweise bilinear.

Original geschrieben von MadManniMan
CPU-Extensions.3dnow.

MadManniMan
2003-12-10, 05:57:48
Original geschrieben von aths
http://www.forum-hardtecs4u.com/3dcenter/images/2003/11-21_bf_r300.png
Das ist nur abschnittsweise bilinear.

So verweise ich denn auf den Praxisbezug, denn dort ist es gefiltert und ja - auch genug!
Er zeige mir Stellen von optischer Pein, so halt ich mein Mäulchen und kehr in mein Heim...

Original geschrieben von aths
3dnow.

Was sagt uns das? Viel Spaß mit PDM und derlei...


Greetz vom müden Manni! :wink:

Ailuros
2003-12-10, 06:07:36
....tessellation in hardware wird sich imho früher oder später durchsetzen müssen.

Nimm das "frueher" weg und ich stimme Dir zu.

Erstmal zu den off topic Themen dieses threads: weder Geometry Assist (D3D only) noch EnTL sind HW Loesungen, nur pure Software Optimierungen wobei wie schon gesagt wurde gewisse CPU extensionen benutzt werden.

Ich werde nicht so weit jetzt in ein irrelevantes Thema gehen und erklaeren was EnTL genau ist, aber es ist nur eine Erweiterung der bisher vorhandenen Optimierungen fuer alle KYROs die nur unter Bedingungen kleine Vorteile zeigen kann.

aths,

Von mir aus kannst Du auf dem Bilinear-Zeug weiterreiten. Aber wenn Du schon Leichen aus dem Keller ausgraben willst, dann sollte es nicht wahlweise vorgehen und eher diejenigen Leichen die auch einen Unterschied machen und das gefaelligst bei allen IHVs.

Und glaub mir wenn ich mich mal entscheiden wuerde Pandora's box aufzumachen, da wuerden alle schlecht dastehen.

The cut corners in texture filtering we've been criticizing are hardly noticed in practice.

Mhmmmm....

This images display the level of Trilinear filtering LOD accuracy. If you look at the difference between the R300/Refrash and GeForce 4 images you can see that the GeForce 4 has much smoother gradients from one colour to the next. In fact GeForce 4 has 256 gradients, which equates to 8-bits precision, whereas R300 only has 32 gradients, which equates to 5-bits of precision (which is evidently what the DX reference rasteriser requires, so this is probably the minimum that DX specifies).

What you might want to pay attention to is the areas of a “pure” colour – these are the eras between mip map transitions and you are only filtering from one map. The point here is that if you are only filtering from one map for these areas you only need a bilinear sample, which means there is a lower bandwidth usage and slightly higher performance (FX uses both its texture units for Trilinear, while R300 uses two cycles – this cost is halved with Bilinear).

With the GeForce 4 there is only one step from 256 which will be sampled from just one mip layer, so less than 0.5% is Bilinear sampled; with the 5-bit filter on R300 there is 2 of only 32 steps which means about 3% of the area is Bilinear filtered. Although the FX maintains the 8-bit filter they have extended the Bilinear region to about 50%, giving roughly the same performance as a 2-bit filter!

Ich denke dazu brauche ich keinen Link oder Bilder hm? Ironischerweise kommen andere kleinere IHVs mit bemerkbarer schlechter Filterung und LOD Qualitaet schon seit 5 Jahren davon, und jedesmal wenn ich es erwaehne werde ich als voreingenommen abgestempelt. Wo genau ist der Artikel darueber?

--------------------------------------------------

Um jetzt endlich zum Thema zu kommen: wenn man das Ganze in Perspektive setzt dann hat man Einzelheiten die man bemerken und andere die man sehr schwer oder gar nicht bemerken kann. Im Falle von Demi's Thema kann man die lahmarschige Tesselation die hauptsaechlich auf die CPU verschoben wird aber bemerken als Beispiel, wenn TruForm ploetzlich schneller ist auf einer R2xx als auf einer R3xx.

Ob es schnell läuft oder nicht, ist doch egal. Hauptsache, die Funktion ist "an Bord".

Nein es ist eben nicht egal, und ich hab fundamental was gegen die Logik dass die Hauptsache dass eine Funktion im Featureset da ist. XGi behauptete auch irgendwo HOS support, aber es ist in der Zwischenzeit wohl wieder verschwunden.

Matrox hat auch am Anfang ueber ihr Displacement Mapping geworben, aber da es nicht im Treiber unterstuetzt wird, wurden die meisten Referenzen zum Feature zurueckgezogen.

Hardware Displacement Mapping
• Compact encoding of high-resolution geometry data
• Patent-pending Depth-Adaptive Tessellation for continuous
level of detail (LOD) geometry
• Vertex Texturing for dynamic generation of geometry using
texture maps
• Support for Bezier curves and N-patch (PN-triangle) evaluation

aths
2003-12-10, 07:02:19
Original geschrieben von Ailuros
aths,

Von mir aus kannst Du auf dem Bilinear-Zeug weiterreiten. Mach ich auch. Deine Zitate finde ich nicht so richtig überzeugend. Ansonsten könnte man auch damit kommen, dass brilinear ok ginge, und irgendwann landen wir bei Xabres "4x Anti-Alias". Zudem stelle ich an ATIs Highend-Hardware andere Ansprüche als an die Produkte irgendwelche rumkrepelnden Klein-IHVs.

Ailuros
2003-12-10, 07:27:52
Ich wuenschte ich meinte das AA vom Xabre; ich meinte eher die dual-bilinear Approximation die zu gunsten hoeherer Leistung implementiert wurde.

Deine Zitate finde ich nicht so richtig überzeugend.

Nicht? Ich verweise Dich erstmal auf den Thread-titel wo es klipp und klar um unverschaemtes Marketing geht.

Der Punkt ueber ATI's bilineare Praezision hat hier ganz nichts mit dem Thema zu tun und das weil:

Die Leistung durch niedrigere Praezision in keinem Fall beinflusst wird.
Man keinen oder "fast" keinen qualitativen Unterschied unter normalen Bedingungen sehen kann.
Es handelt sich dennoch um bilineare Filterung, wobei es sich in keinem Fall ueber eine falsche oder verdrehte Marketing-Angabe handelt.
Wo steht dass 5-bit Praezision ausserhalb von Spezifikationen steht?

Ich hab nichts gegen Genauigkeit; ganz im Gegenteil. Erstens ist es irrelevant zum Thema des Threads und zweitens muss man jetzt nicht unbedingt alles zusammennaehen; in dem Fall koennte ich wie schon gesagt jedem IHV - ohne Ausnahme - viel mehr an den Hut stecken.

Brilinear ist uebrigens bemerkbar, waerend 5bit Praezision nicht; nichtsdestominder sind beide Themen genauso irrelevant.

Um ganz genau zu sein hier geht es um HOS/tesselation erstmal und in dem Fall hat Matrox zwar eine wahre HW Implementation, unterstuetzte diese aber nie, waehrend ATI/NV nur pre-sampled DM Quatsch lieferten. Hier ist ATI tatsaechlich overboard gegangen wenn man ueber Displacement Mapping wirbt oder es vermarktet.

***editNr.2: Ich hab mit Absicht NVIDIA's Seite und alle verfuegbaren Dokumente ueber FX Produkte durchgekaemmt, und konnte nichts dergleichen finden.***

On chip adaptive Tesselation wird auch in der Zukunft ein heisses Thema sein und da erwarte ich wieder verschiedene IHVs das Thema entweder zu untermauern, oder sogar nochmal mit unattraktiven Implementationen zu werben. Jede Revision von DX-Next sieht in diesem speziellen Bereich immer schlechter aus. Und genau hier ist auch wieder die bloede Logik des "Hauptsache es steht in der feature-Liste" am Werk.

***edit:

Zudem stelle ich an ATIs Highend-Hardware andere Ansprüche als an die Produkte irgendwelche rumkrepelnden Klein-IHVs.

Wenn es um 150euro Produkte ginge koennte ich unter Umstaenden auch mal das Auge zudruecken. Wenn aber ueber 350 euro pro Produkt verlangt werden, da sollte man schon skeptischer werden. Und was heisst hier Klein und Gross-IHV sowieso? Gibt es irgendwo eine objektive Regel die zuweisst, dass kleine IHVs jetzt ploetzlich alles duerfen?

Oder ist eher eine besondere Behandlung weil die auch mal was verkaufen duerfen? Wenn die Kleinen aufsteigen moechten, dann sollte sie es auch gefaellig mit legitimen Methoden vornehmen. Ich erwarte genauso objektive und ausfuehrliche Kritik ueber jeden Hersteller ohne jegliche Ausnahme.

Demirug
2003-12-10, 08:06:17
Es geht mir hier nicht darum das ATI mit eine Feature wirbt das primär vom Treiber (sprich CPU) abgewickelt wird.

Was mich ärgert ist das man eine Testimplementierung eines Features die nie dazu gedacht war schnell zu sein als Feature bewirbt. Hätte man sich wenigsten darum bemüht das ganze schnell zu machen und vielleicht noch etwas von der Arbeit auf die VS zu verlagern hätte ich ja nichts gesagt.

Natürlich war bekannt das Truform 2 eine Treibersache ist. Das es sich aber zumindestens beim DM (zum Rest wurde ja nichts gesagt) dabei um eine völlig unoptimierte Lösung handelt ist ja ein neuer Aspekt in der Geschichte.

ShadowXX
2003-12-10, 08:42:20
Original geschrieben von Demirug
Es geht mir hier nicht darum das ATI mit eine Feature wirbt das primär vom Treiber (sprich CPU) abgewickelt wird.

Was mich ärgert ist das man eine Testimplementierung eines Features die nie dazu gedacht war schnell zu sein als Feature bewirbt. Hätte man sich wenigsten darum bemüht das ganze schnell zu machen und vielleicht noch etwas von der Arbeit auf die VS zu verlagern hätte ich ja nichts gesagt.

Natürlich war bekannt das Truform 2 eine Treibersache ist. Das es sich aber zumindestens beim DM (zum Rest wurde ja nichts gesagt) dabei um eine völlig unoptimierte Lösung handelt ist ja ein neuer Aspekt in der Geschichte.

Es wurde wahrscheinlich nie "verlangt", vielleicht warst du einer der ersten Entwickler der überhaupt (ernsthaft) damit arbeiten wollte??

Wenn bei uns in den Programmen ein Feature existiert, welches kaum oder gar nicht von den Kunden benutzt wird, wird es von uns meist auch sehr Stiefmütterlich behandelt.
In der Regel bleiben diese Funktionen bis zum "ableben" des Programmes unoptimiert und oft sehr langsam, teilweise sogar buggie....

Und ich glaube das fast jede HW & SW-Firma sich so oder ahnlich verhält...Teile der MS-API-Funktionalitäten sind in der MSDN so grausam beschrieben bzw. in der Anwendung völlig neben der Praxis, das man sich manchmal fragt, wieso Windows überhaupt Funktioniert.
Von Fehlern in der Rechteberechnung und ähnlichem, die Kurzerhand zu "Features" oder "this behavior is by design" erklärt werden ganz zu schweigen....

Ich habe auch eine TV-Karte, die mit Features wirbt, die Sie gar nicht beherscht...auf Nachfrage beim Hersteller:
Wird vielleicht im nächsten Treiberrealease mit Eingebaut, per SW (<- wurde extra in der e-mail erwähnt).
Davon abgesehen, das die TV-Tuner SW immer noch regelmäßig Abstürzt, obwohl es schon Versions 4 oder 5 ist...

Das könnte ich endlos weiterführen (mein Board soll auch USB 2.0 haben, hat es auch, aber nur mit USB 1.1 Geschwindigkeit..wird aber immer noch auf der Herstellerseite als voll USB2.0 fähig beschrieben)....

Das soll jetzt keine Entschuldigung für ATI sein.
Das mit einem Feature als HW(-Assisted) geworben wird, welches extrem schlecht als SW implementiert ist, ist nicht ok.
Ich wollte nur Aufzeigen, das solches gang und gebe ist, es durchaus Gründe für so etwas gibt und es nicht nur von IHVs betreiben wird.

J.S.Shadow

Pirx
2003-12-10, 08:51:31
Original geschrieben von aths
...
:eyes: R300 beherrscht nicht mal das "Standard-Feature", korrekt bilinear zu filtern...

[Persönliche Meinung]Ich halte es einer vernünftigen Diskussion für nicht zuträglich, bei ATI alles negative mit einem Hinweis auf die solide Performance wegdiskutieren zu wollen.[/Persönliche Meinung]
...

Wie du ja selbst beschrieben hast, hat ATi beim R300 alles unternommen, um eine möglichst hohe Leistung bei ihrer Ansicht nach verschmerzbaren Qualitätseinbußen und machbarer Transistormenge(0,15µm) zu gewährleisten. Sie versuchten, die Features gut zu unterstützen, die in absehbarer Zukunft die meiste Bedeutung haben würden.

Das war in der damaligen Situation von ATi wahrscheinlich auch gar nicht anders möglich.
Hätten sie sich in ein zu ehrgeiziges Projekt verrannt (R300 war wohl schon ziemlich ehrgeizig), gäbe es jetzt möglicherweise nur noch einen bedeutenden Gamer-Grafikkarten-Hersteller.

ATi schlachtet nun den R300 ziemlich lange aus und übernimmt auch seine "Schwächen", was man Ihnen ankreiden kann.
"Unverschämtes Marketing" halte ich für etwas übertrieben.

aths
2003-12-10, 09:07:43
Original geschrieben von Pirx
Wie du ja selbst beschrieben hast, hat ATi beim R300 alles unternommen, um eine möglichst hohe Leistung bei ihrer Ansicht nach verschmerzbaren Qualitätseinbußen und machbarer Transistormenge(0,15µm) zu gewährleisten. Sie versuchten, die Features gut zu unterstützen, die in absehbarer Zukunft die meiste Bedeutung haben würden.Sehr weit in die Zukunft reichen die 2.0-er Shader aber nicht. Auf der einen Seite werden 2.0-er Shader zwar wohl auf längere Zeit verwendet werden, aber nur als Mindestanforderung. Mit 2.X und erst recht 3.0 ist z. B. Passreduction möglich.

Original geschrieben von Pirx
Das war in der damaligen Situation von ATi wahrscheinlich auch gar nicht anders möglich.
Hätten sie sich in ein zu ehrgeiziges Projekt verrannt (R300 war wohl schon ziemlich ehrgeizig), gäbe es jetzt möglicherweise nur noch einen bedeutenden Gamer-Grafikkarten-Hersteller.Ich glaube nicht, dass korrekte isotrope Filterung den R300 unmöglich gemacht hätte.

Original geschrieben von Pirx
ATi schlachtet nun den R300 ziemlich lange aus und übernimmt auch seine "Schwächen", was man Ihnen ankreiden kann.
"Unverschämtes Marketing" halte ich für etwas übertrieben. Ich nicht. Das Topic ist ja die DM-Implementierung.

Ailuros
2003-12-10, 09:16:55
Original geschrieben von Demirug
Es geht mir hier nicht darum das ATI mit eine Feature wirbt das primär vom Treiber (sprich CPU) abgewickelt wird.

Was mich ärgert ist das man eine Testimplementierung eines Features die nie dazu gedacht war schnell zu sein als Feature bewirbt. Hätte man sich wenigsten darum bemüht das ganze schnell zu machen und vielleicht noch etwas von der Arbeit auf die VS zu verlagern hätte ich ja nichts gesagt.

Natürlich war bekannt das Truform 2 eine Treibersache ist. Das es sich aber zumindestens beim DM (zum Rest wurde ja nichts gesagt) dabei um eine völlig unoptimierte Lösung handelt ist ja ein neuer Aspekt in der Geschichte.

Optimiert oder unoptimiert ich sehe immer noch keinen guten Grund ueber DM zu werben in diesem Fall.

Natuerlich ist jetzt erst der Groschen gefallen, auf was Du wirklich hinaus wolltest, aber das aendert meine Meinung ueber das Thema im Grunde nicht. Denn das Ganze geht bei ATI auch ein Stueck weiter; ein anderes Beispiel waere auch das versprochene Supersampling. Ich kann in jedem einzelnen Fall Entschuldigungen der Art dass der Aufwand nicht im Vergleich zum Resultat (tradeoff) wert sei, nicht akzeptieren. Inwiefern jeder IHV den gesamten workload vor der Veroeffentlichung ueberschaetzt ist deren Problem; zu guter letzt ist es dann einfacher das Ganze konservativer zu halten und wenn dann in der Zukunft doch eine Moeglichkeit besteht, dann diese auch nachtraeglich zu unterstuetzen. Es kommt auch beim Verbraucher und beim Entwickler besser an am Ende.

Soll ich fragen wie der support auf der anderen Uferseite zum gleichen Thema aussieht, oder moechtest Du Dich nicht darueber aeussern?

aths
2003-12-10, 09:21:39
Ich fände es gut, wenn Demi sich mal zum HOS-"Support" der GF3 äußern würde :)

Ailuros
2003-12-10, 09:29:29
Sehr weit in die Zukunft reichen die 2.0-er Shader aber nicht. Auf der einen Seite werden 2.0-er Shader zwar wohl auf längere Zeit verwendet werden, aber nur als Mindestanforderung. Mit 2.X und erst recht 3.0 ist z. B. Passreduction möglich.

*ahem* *hust*

Das Topic ist ja die DM-Implementierung.

Ich glaube nicht, dass korrekte isotrope Filterung den R300 unmöglich gemacht hätte.

Sie waren so knapp an Transistoren mit 107M@150nm dass man es schwer glauben kann. Mehr als man sich vorstellen kann ging in die sparse-gamma corrected-MSAA Implementation.

Ailuros
2003-12-10, 09:32:41
Original geschrieben von aths
Ich fände es gut, wenn Demi sich mal zum HOS-"Support" der GF3 äußern würde :)

Mich wuerde der FX Fall um vieles mehr interessieren. Praktisch fehlen ja hier zum groessten Teil nur Vertex textures im VS.

Radeonator
2003-12-10, 09:55:29
Hmmm, sehr amüsant. Die Leute die sich sonst mit AF Testern und Winkelmesser vor dem Bildschirm hocken, sich über sogenannte Treiber cheatz etc. aufregen, reden plötzlich gar lieblich von solchen Optimierungen und bezeichnen diese als irrelevant...naja, immer so wie es passt :crazy:

Jasch
2003-12-10, 10:12:01
Original geschrieben von Ailuros
Sie waren so knapp an Transistoren mit 107M@150nm dass man es schwer glauben kann. Mehr als man sich vorstellen kann ging in die sparse-gamma corrected-MSAA Implementation.


Und das find ich auch gut so ich mag mein MSAA über alles;D

zum Thema, muß ich Demi zustimmen ist nicht in Ordnung Sachen zu bewerben die eigentlich nicht "brauchbar" sind, aber das scheint ja heute bei den IHV´s gang und gebe zu sein.(Wie im Wahlkampf wird um den Kunden gekämpft, es wird alles versprochen und dann, naja dann is egal hat ja schon gezahlt.)
:-(

Ailuros
2003-12-10, 10:18:48
Original geschrieben von Radeonator
Hmmm, sehr amüsant. Die Leute die sich sonst mit AF Testern und Winkelmesser vor dem Bildschirm hocken, sich über sogenannte Treiber cheatz etc. aufregen, reden plötzlich gar lieblich von solchen Optimierungen und bezeichnen diese als irrelevant...naja, immer so wie es passt :crazy:

Es geht hier um HOS-support.

Wenn Du willst kannst Du ja gerne einen relevanten Thread ueber Textur-Filterung aufmachen. Ob dann 5bit Praezision im Vergleich zu dual bilinear Approximation und verkorkster LOD schlimmer ist werden wir dann wohl schon sehen. :D

Ailuros
2003-12-10, 10:23:20
Original geschrieben von Jasch
Und das find ich auch gut so ich mag mein MSAA über alles;D

zum Thema, muß ich Demi zustimmen ist nicht in Ordnung Sachen zu bewerben die eigentlich nicht "brauchbar" sind, aber das scheint ja heute bei den IHV´s gang und gebe zu sein.(Wie im Wahlkampf wird um den Kunden gekämpft, es wird alles versprochen und dann, naja dann is egal hat ja schon gezahlt.)
:-(

Nicht unbedingt. Ich koennte mir vorstellen dass wenn die Konkurrenz - obwohl DM eigentlich nicht erwaehnt wird - nach einer Leistungsoptimierung gefragt wird, dass da anders darauf reagiert wird; deshalb frag ich auch darueber.

Demirug
2003-12-10, 10:32:38
Was soll ich zum HOS auf der FX Seite sagen? Ausser das es nicht vorhanden ist kann ich dazu auch nichts sagen. nVidia hat sich beim Thema HOS AFAIK schon vor längerem festgelegt: "Entweder programmierbar oder gar nicht"
Man hatte dort die Schnauze voll das den Entwickler das zur Verfügung gestellte HOS-Verfahren grundsätzlich nicht gepasst hat.

Die Texture im VS sind nur für das DM zuständig. Die Tesselation muss immer noch vorher gemacht werden und im Chip auch entsprechend verfügbar sein oder eben wieder per Treiber emuliert werden.

reunion
2003-12-10, 10:36:12
[B]Original geschrieben von Winter[Raven]
Was Ati da macht ist nunmal Kundenverarschung da dort etwas angepriesen wird was SUPPA langsamm ist.

:lol: Dein Argument ist einfach lächerlich...

Dann ist es aber auch eine Frechheit das NV PS 2.0 bewirbt weil ja etwas angepriesen wird was SUPPA langsam ist (nach deinen Eigenen Worten) :bonk:

Tatsache ist es wird unterstützt. In den Specs ist ja nicht vorgegeben wie schnell es sein muss...

Ailuros
2003-12-10, 11:05:43
Die Texture im VS sind nur für das DM zuständig. Die Tesselation muss immer noch vorher gemacht werden und im Chip auch entsprechend verfügbar sein oder eben wieder per Treiber emuliert werden.

Klingt ja mal wieder "vielversprechend" fuer VS3.0.....

Exxtreme
2003-12-10, 11:12:48
Original geschrieben von Demirug
Es geht mir hier nicht darum das ATI mit eine Feature wirbt das primär vom Treiber (sprich CPU) abgewickelt wird.

Was mich ärgert ist das man eine Testimplementierung eines Features die nie dazu gedacht war schnell zu sein als Feature bewirbt. Hätte man sich wenigsten darum bemüht das ganze schnell zu machen und vielleicht noch etwas von der Arbeit auf die VS zu verlagern hätte ich ja nichts gesagt.

Natürlich war bekannt das Truform 2 eine Treibersache ist. Das es sich aber zumindestens beim DM (zum Rest wurde ja nichts gesagt) dabei um eine völlig unoptimierte Lösung handelt ist ja ein neuer Aspekt in der Geschichte.
Naja, da ist ATi etwas eigen. Die Treiberprogrammierer setzen ganz klar Prioritäten. Wenn es keinen Bedarf für ein Feature gibt, dann wird es möglichst so implementiert, daß es zwar keine Renderingfehler produziert, aber optimiert wird darauf nicht. Das könnte der Grund sein warum die R300-Radeon-Serie im 3DMark200x beim T&L-Test mit 8 Lichtquellen so langsam ist. Kein Spiel braucht es und die Spieleentwickler setzen wohl eh' ausschliesslich Per-Pixel-Lighting ein.

Ich weiss nicht, wie es mit den FireGL-Treibern aussieht. Diese könnten erheblich schneller in diesem Test sein.

Radeonator
2003-12-10, 11:23:24
Original geschrieben von reunion
:lol: Dein Argument ist einfach lächerlich...

Dann ist es aber auch eine Frechheit das NV PS 2.0 bewirbt weil ja etwas angepriesen wird was SUPPA langsam ist (nach deinen Eigenen Worten) :bonk:

Tatsache ist es wird unterstützt. In den Specs ist ja nicht vorgegeben wie schnell es sein muss...

Naja, total ot

1. Der PS der FX ist nicht langsam, muss nur anders angesteuert werden.
2. Es geht um DM, im Unterschied zu den physisch vorhandenen PS der Nvidia, ist der DM emuliert

mrdigital
2003-12-10, 12:08:08
Warum neigen eigentlich manche dazu, aus jedem Thread, der mit "ich kritisiere Firma x", einen "y ist besser als x und überhaupt, die anderen sind alle doof" Thread zu machen? Ich finde es doch teilweise recht anstrengend, wenn man in einem Thread 50% der Postings streichen muss, bis man wieder die eigentliche Disskusion sieht. Könnt iht ATI und nVidia Fanboys auch mal einen Thread leben lassen und einfach mal nur mitlesen, wie andere Argumente austauschen?

aths
2003-12-10, 13:39:01
Original geschrieben von Exxtreme
Das könnte der Grund sein warum die R300-Radeon-Serie im 3DMark200x beim T&L-Test mit 8 Lichtquellen so langsam ist. Kein Spiel braucht es und die Spieleentwickler setzen wohl eh' ausschliesslich Per-Pixel-Lighting ein. Die setzen eher Vertex Lighting und Lightmapping ein.

Original geschrieben von Radeonator
Naja, total ot

1. Der PS der FX ist nicht langsam, muss nur anders angesteuert werden.
2. Es geht um DM, im Unterschied zu den physisch vorhandenen PS der Nvidia, ist der DM emuliert 1. Im Vergleich ist NV30 ggü. R300 der PS ziemlich langsam. Vom NV31/34 ganz zu schweigen :)

2. Der Treiber gehört mit zum Produkt "Radeon xxxx" :)

Gast
2003-12-10, 13:42:01
DM wird alles, aber auch wirklich alles, verändern!
Hoffentlich gibts das recht bald...

up

Demirug
2003-12-10, 13:47:26
Original geschrieben von aths
Die setzen eher Vertex Lighting und Lightmapping ein.

Wobei Lightmapping ja schon zu den PerPixel Light Effekten gehört.

@Exxtreme: Vertex Light wird schon noch genutzt. HL2 setzt es zum Beispiel auch ein. Allerdings auf maximal 2 Lichtquellen pro Objekt begrennzt.

Demirug
2003-12-10, 13:49:41
Original geschrieben von Gast
DM wird alles, aber auch wirklich alles, verändern!
Hoffentlich gibts das recht bald...

up

War das jetzt ernst gemeint oder Sarkasmus?

DM ist nett aber ohne noch ein paar andere Dinge nur begrennzt Nutzbar.

Ailuros
2003-12-10, 14:07:23
Original geschrieben von Demirug
War das jetzt ernst gemeint oder Sarkasmus?

DM ist nett aber ohne noch ein paar andere Dinge nur begrennzt Nutzbar.

*seufz* ....:ups:

Gast
2003-12-10, 14:28:42
DM ist eben wie Kommunismus:
Einfach, aber schwierig zu machen (laut Marx) =)

up

MadManniMan
2003-12-10, 14:41:41
aths, wenn du es schon schaffst, hier OT unter die Leute zu bringen ( :D ), dann antworte doch auch noch auf mich.

/...oder splitte, dann hab ich noch was für dich:
- wo steht, daß die Bilineare Implementation von nV die Referenz ist? Sie ist besser, klar. Wohl aber ist es eher ein akademischer Vorteil.
- hast du nur Angst, mit dem Wissen spielen zu müssen, daß andere Grafikkarten irgendwo weit Jenseits der sichtbaren Praxis Vorteile besitzen?

aths
2003-12-10, 16:20:07
Original geschrieben von Demirug
Wobei Lightmapping ja schon zu den PerPixel Light Effekten gehört.Wenn du Texture Mapping als "PerPixel Effect" zählst, ja. Per Pixel Lighting wäre das imo aber nicht so richtig.

Original geschrieben von MadManniMan
/...oder splitte, dann hab ich noch was für dich:
- wo steht, daß die Bilineare Implementation von nV die Referenz ist? Sie ist besser, klar. Wohl aber ist es eher ein akademischer Vorteil.
- hast du nur Angst, mit dem Wissen spielen zu müssen, daß andere Grafikkarten irgendwo weit Jenseits der sichtbaren Praxis Vorteile besitzen? Blick bitte noch mal auf das Bild. Ist das bilinear? Nein. Das ist sozusagen nur stückweise bilinear. Die "Sprünge" darin (was zu diesen "Kacheln" führt) enstehen nicht mit linearer Interpolation, du Investionsverteidigender Radeon-User. "Weit jenseits der sichtbaren Vorteile" finde ich ziemlich gewagt, ältere Spiele nutzen öfters sehr niedrig aufgelöste Lightmaps. Hier müsste man Unterschiede sehen. Und natürlich habe ich es nötig, mit meinem Wissen rumzuposen. Und ich gucke immer stur darauf, was NV macht und halte das für Lehrbuch-Qualität, weil ich von Dr. David Kirk bezahlt werde. Keineswegs mache ich mir eigene Gedanken, in welchem Rahmen die gebotene Qualität liegen sollte. Zudem sehe ich Grakas nur als Hardware, die irgendwelche Standard-Spielchen beschleunigen soll. Mir ist es doch egal, wie die Geschwindigkeit zustande kommt, und wenn es scheiße aussieht, falls man irgendwas abseits der Spiele-Grafik rendert... dafür hat ATI ja schnelle Pixelshader. Damit kann man alles entschuldigen, auch unter bestimmten Umständen fehlerhafte bilineare Filterung.

Piffan
2003-12-10, 16:27:52
Original geschrieben von mrdigital
Warum neigen eigentlich manche dazu, aus jedem Thread, der mit "ich kritisiere Firma x", einen "y ist besser als x und überhaupt, die anderen sind alle doof" Thread zu machen? Ich finde es doch teilweise recht anstrengend, wenn man in einem Thread 50% der Postings streichen muss, bis man wieder die eigentliche Disskusion sieht. Könnt iht ATI und nVidia Fanboys auch mal einen Thread leben lassen und einfach mal nur mitlesen, wie andere Argumente austauschen?

Ack. :sulkoff:

Exxtreme
2003-12-10, 16:38:17
Original geschrieben von aths
Blick bitte noch mal auf das Bild. Ist das bilinear? Nein. Das ist sozusagen nur stückweise bilinear.
Auch bei der Nvidia-Implementierung werden bei entspr. Vergrösserung Zwischenstufen auftauchen. Bedingt durch die höhere Genauigkeit, wird man eine viel höhere Vergrösserung wählen müssen um die Stufen sichtbar zu machen. Ich halte ATis Lösung für vollkommen ausreichend da ich noch nie diese Stufen in der Praxis beobachten konnte.

Piffan
2003-12-10, 16:42:39
Genau, sehe ich auch so. Es reicht aus, wenn das Bild ok ist. Ist wie das winkeladaptive AF oder der brilineare Filter, im Prinzip schnurzpiepe, wenns den Ansprüchen genügt....Netterweise sollte man den Anwendern die Wahl lassen, was ihnen genügt ;)

Problem: Die doofen Reviewer gewisser Zeitschriften, die dann wieder Äpfel mit Birnen vergleichen und "eindeutige" Sieger erkennen wollen....:bonk:

MadManniMan
2003-12-10, 17:26:24
Original geschrieben von aths
Blick bitte noch mal auf das Bild. Ist das bilinear? Nein. Das ist sozusagen nur stückweise bilinear. Die "Sprünge" darin (was zu diesen "Kacheln" führt) enstehen nicht mit linearer Interpolation, du Investionsverteidigender Radeon-User. "Weit jenseits der sichtbaren Vorteile" finde ich ziemlich gewagt, ältere Spiele nutzen öfters sehr niedrig aufgelöste Lightmaps. Hier müsste man Unterschiede sehen. Und natürlich habe ich es nötig, mit meinem Wissen rumzuposen. Und ich gucke immer stur darauf, was NV macht und halte das für Lehrbuch-Qualität, weil ich von Dr. David Kirk bezahlt werde. Keineswegs mache ich mir eigene Gedanken, in welchem Rahmen die gebotene Qualität liegen sollte. Zudem sehe ich Grakas nur als Hardware, die irgendwelche Standard-Spielchen beschleunigen soll. Mir ist es doch egal, wie die Geschwindigkeit zustande kommt, und wenn es scheiße aussieht, falls man irgendwas abseits der Spiele-Grafik rendert... dafür hat ATI ja schnelle Pixelshader. Damit kann man alles entschuldigen, auch unter bestimmten Umständen fehlerhafte bilineare Filterung.

aths, was hab ich denn davon, mir meine R95P schön zu reden? Ich beglückwünsche NV zur besseren Implementation, aber da ich offenbar keine sichtbaren Nachteile in meinen Apps erlebe.
Rein akademisch ist es richtig, ATi zu kritisieren. Aber wenn du hier den praktischen Nachteil des nicht HW-beschleunigten DMs in den Vergleich setzt, dann stimmt da irgendwas nicht!

Riptor
2003-12-10, 17:38:47
Original geschrieben von Winter[Raven] Lese doch bitte meinen Posting nochmal durch und dann poste nochmal. Ich sage nirgendwo der R3xx ist scheiße, jeder Chip hat seine Stärken und Schwächen, was Ati hier aber macht ist eine anpreisung von etwas das sogar ein R250 schneller berechnen kann.

:naughty: Bitte les DU nochmal meinen Post, nirgendwo unterstelle ich dir, dass du behauptest, ATIs R300 wär scheisse... Ich bezog mich genauso wie alle anderen auf TruForm und nix anderes. ;)

/e: Gut, wurde beantwortet (THX Manni!) und irgendwie beziehen sich immer mehr auf andere Themen. Aber auch egal jetzt.

Knoskoloz
2003-12-10, 19:12:57
also das paßt jetzt weniger zur eigentlichen marketing diskussion aber da die suchfunktion deaktiviert ist frag ich mal hier: Welche Spiele haben eigentlich alles Truform unterstützt außer SeriousSam 1 und 2 und CS?

Aquaschaf
2003-12-10, 19:44:12
Original geschrieben von Knoskoloz
also das paßt jetzt weniger zur eigentlichen marketing diskussion aber da die suchfunktion deaktiviert ist frag ich mal hier: Welche Spiele haben eigentlich alles Truform unterstützt außer SeriousSam 1 und 2 und CS?

Mir fällt sonst nur UT2003 ein, vielleicht auch weitere Spiele mit der Unreal Engine.


Was ermöglicht DM überhaupt an neuen, praktisch nutzbaren Spielereien? Viel mehr als es z.B. für animierte Flüssigkeitsoberflächen, schnell erzeugte, leichte Variationen in Geometrien zu benutzen fällt mir an Anwendungsmöglichkeiten nicht ein.

Tigerchen
2003-12-10, 20:00:13
Original geschrieben von Gast
DM wird alles, aber auch wirklich alles, verändern!
Hoffentlich gibts das recht bald...

up

John Carmack will es nicht haben.
Vielleicht doch nicht so toll das DM?

Riptor
2003-12-10, 20:58:46
Es gab IMO noch RtCW, was TF unterstützt hat... Mehr weiß ich jetzt auch nicht.

ScottManDeath
2003-12-10, 22:10:42
Original geschrieben von Tigerchen

John Carmack will es nicht haben.
Vielleicht doch nicht so toll das DM?


DM verträgt sich nicht so gut mit stencil schatten volumen da man für diese die komplette geometrie benötigt. mit shadowmaps gibts aber keine probleme

Gast
2003-12-10, 22:20:10
Die Aufregung ist doch etwas übertrieben. Für DM ist eh noch nicht der Zeitpunkt gekommen, dass es wirklich einsetzbar wäre. Das wird noch ein paar Jährchen dauern. Falsche Werbung ist in der Industrie inzwischen auch ein Kavaliersdelikt und entsteht wohl eher draus, dass die Marketingleute etwas hinschreiben, was sich gut anhört. Die Einwände der Entwickler gehen dabei meistens unter.
Wenn die Grafikkarten wirklich die Leistung haben um DM sinnvoll anzuwenden erwartet uns noch ne schöne BQ Steigerung :)



Un noch ein bisschen zum Nebenthema :)
Man kann für jede Optimierung irgendwelche Testbilder bauen die sofort Fehler sichtbar machen. Die beste Methode um eine Optimierung zu testen ist einfach mit der Lehrbuchqualität zu vergleichen, ein Optimum für sich als Entwickler herauszusuchen, welches einem auch von der Performance her gefällt und die Resulte zusammen mit den unoptimierten Bildern einfach Leuten vorzusetzen und zu fragen was sieht besser aus. ATi´s Optimierung beim bilinearen Filterung objektiv gesehen nicht feststellbar im endgültigen Resultat. Deswegen wird ATi das auch weiter einsetzen und andere Firmen wenn sie schlau sind auch. Wenn man das nicht so machen würde wären wir bei Grafik heute noch längst nicht so weit.

aths
2003-12-11, 05:28:26
Original geschrieben von Exxtreme
Auch bei der Nvidia-Implementierung werden bei entspr. Vergrösserung Zwischenstufen auftauchen. Bedingt durch die höhere Genauigkeit, wird man eine viel höhere Vergrösserung wählen müssen um die Stufen sichtbar zu machen. Ich halte ATis Lösung für vollkommen ausreichend da ich noch nie diese Stufen in der Praxis beobachten konnte. Bei GF-Karten gibt es bei Extrem-Zoom genau dann Ungenauigkeiten, wenn die Farbauflösung im Framebuffer ohnehin limitieren würde. Aber darum geht es gar nicht. Es geht um die seltsamen groben Block-Artefakte. Da stimmt bei der Radeon was mit den Textur-Koordinaten nicht. Ist auch beim R200 schon so.

Original geschrieben von MadManniMan
aths, was hab ich denn davon, mir meine R95P schön zu reden? Ich beglückwünsche NV zur besseren Implementation, aber da ich offenbar keine sichtbaren Nachteile in meinen Apps erlebe.
Rein akademisch ist es richtig, ATi zu kritisieren. Aber wenn du hier den praktischen Nachteil des nicht HW-beschleunigten DMs in den Vergleich setzt, dann stimmt da irgendwas nicht! 1. Wer entscheidet, wann etwas "praktisch" sichtbar ist? Und woran? Dürfen da nur normale Spiele gewertet werden?

2. Welchen praktischen Nachteil hast du als Gamer, wenn deine Radeon nur sehr langsames DM bietest?

Ailuros
2003-12-11, 05:49:35
Die Aufregung ist doch etwas übertrieben. Für DM ist eh noch nicht der Zeitpunkt gekommen, dass es wirklich einsetzbar wäre. Das wird noch ein paar Jährchen dauern. Falsche Werbung ist in der Industrie inzwischen auch ein Kavaliersdelikt und entsteht wohl eher draus, dass die Marketingleute etwas hinschreiben, was sich gut anhört. Die Einwände der Entwickler gehen dabei meistens unter.
Wenn die Grafikkarten wirklich die Leistung haben um DM sinnvoll anzuwenden erwartet uns noch ne schöne BQ Steigerung.

Soweit so gut was das Marketing betrifft. Was aber die Zukunft betrifft ist hier "Leistung" relativ, denn es haengt von den Prioritaeten ab die IHVs haben oder haben werden was und wie zu implementieren.

Fuer robusten HOS support waere z.B. ein voll programmierbarer primitiver Prozessor eine Loesung um Topology und Tesselation (unter jeglicher Form im naechsten API) einzubegreifen. Dieser kostet aber Transistoren und wird deshalb schon seit einiger Zeit staendig verschoben. Hier sieht es eher wahrscheinlicher aus dass womoeglich die Flexibilitaet des "unisex" ( :D ) 4.0 Shaders einfach erhoeht wird, was aber am Ende wieder heisst dass Leistung egal ist, solange man gewisse Funktionalitaeten angeben kann.

Bei robustem HOS support geht es mehr um die effizientere Benutzung von Geometrie, die weitere Entlastung der CPU und Einsparung von wertvoller Bandbreite, als nur um Bildqualitaet. Alles IMHO.

MadManniMan
2003-12-11, 06:31:56
Original geschrieben von aths
1. Wer entscheidet, wann etwas "praktisch" sichtbar ist? Und woran? Dürfen da nur normale Spiele gewertet werden?

Nicht du und nicht ich. Aber eines kann ich dir sagen: das "nicht" bilineare Filtering der R3X0 würde akzeptiert, Brilinearität dagegen nicht.

Original geschrieben von aths
2. Welchen praktischen Nachteil hast du als Gamer, wenn deine Radeon nur sehr langsames DM bietest?

Sicherlich hätte eine weiterführung des TruForm im R300 die Implementation des selben in Spiele gefördert.

aths
2003-12-11, 06:47:02
Original geschrieben von Ailuros
Bei robustem HOS support geht es mehr um die effizientere Benutzung von Geometrie, die weitere Entlastung der CPU und Einsparung von wertvoller Bandbreite, als nur um Bildqualitaet. Alles IMHO. Mit "nur" mathematisch gebogenen Flächen kann man noch nicht so viel anstellen, wie mit "echtem" DM à la Matrox, man würde wohl "nur" die CPU etwas entlasten. "Echtes" DM würde hingegen neue Effekte ermöglichen. Vielleicht könnte Demirug was dazu sagen, ob man die Render-to-Vertexbuffer-Technik auch für DM verwenden könnte.

aths
2003-12-11, 06:50:46
Original geschrieben von MadManniMan
Nicht du und nicht ich. Aber eines kann ich dir sagen: das "nicht" bilineare Filtering der R3X0 würde akzeptiert, Brilinearität dagegen nicht.Hm, gehörst du nicht zu jenen, die auf ihrer Radeon mit bi-AF spielen, oder irre ich hier?
Original geschrieben von MadManniMan
Sicherlich hätte eine weiterführung des TruForm im R300 die Implementation des selben in Spiele gefördert. TruForm ist kein DM :) TruForm hatte wohl langfristig ohnehin keine Chance. Einerseits wäre NV auf den Zug nicht aufgesprungen, andererseits bedeutet das Zusatzarbeit beim Modelling, und zu guter Letzt hat R3xx afaik T&L-Power satt, so dass man einfach mit insgesamt höher aufgelösten Models beide Schienen (Radeon, GeForce) bedienen kann. Ein Vorteil bei TruForm war z. B. die bessere Beleuchtung, was in Zukunft aber ohnehin durch Per-Pixel-Lighting ersetzt wird, und Dinge runder aussehen lassen kann.

Ailuros
2003-12-11, 07:03:54
Original geschrieben von aths
Mit "nur" mathematisch gebogenen Flächen kann man noch nicht so viel anstellen, wie mit "echtem" DM à la Matrox, man würde wohl "nur" die CPU etwas entlasten. "Echtes" DM würde hingegen neue Effekte ermöglichen. Vielleicht könnte Demirug was dazu sagen, ob man die Render-to-Vertexbuffer-Technik auch für DM verwenden könnte.

Ich meinte eine Shader 4.0 + PPP Kombination. Teufel selbst VS3.0 + PPP ist um einiges umfangreicher als Matrox's Methode.

aths
2003-12-11, 07:15:30
Original geschrieben von Ailuros
Ich meinte eine Shader 4.0 + PPP Kombination. Teufel selbst VS3.0 + PPP ist um einiges umfangreicher als Matrox's Methode. Weiß ich nicht. Matrox' DM kann ja MIP-Mapping für die DM-Texturen nutzen. Ob die TMUs im VS.3.0 auch TF beherrschen, weiß ich nicht.

ShadowXX
2003-12-11, 09:22:47
Original geschrieben von aths
Weiß ich nicht. Matrox' DM kann ja MIP-Mapping für die DM-Texturen nutzen. Ob die TMUs im VS.3.0 auch TF beherrschen, weiß ich nicht.

Also momentan kann Matrox' DM überhaupt nix, weil es nicht in den Treibern unterstützt wird.

Original geschrieben von aths
1. Wer entscheidet, wann etwas "praktisch" sichtbar ist? Und woran? Dürfen da nur normale Spiele gewertet werden?


zu a.) jeder für sich selbst
zu b.) ja, es dürfen nur Spiele gewertet werden, da die Radeon9800 ein Karte für Spiele ist....

Original geschrieben von aths
2. Welchen praktischen Nachteil hast du als Gamer, wenn deine Radeon nur sehr langsames DM bietest?


Keinen....es gibt kein Spiel welches DM unterstützt bzw. benötigt....und das wahrscheinlich (IMHO) auch in den nächsten 2 Jahren wohl nicht...

J.S.Shadow

ow
2003-12-11, 10:22:26
Original geschrieben von ShadowXX

zu b.) ja, es dürfen nur Spiele gewertet werden, da die Radeon9800 ein Karte für Spiele ist....

J.S.Shadow

Als was würdest du denn die FireZ1, FireGL1, FireX1 etc. bezeichnen?

ShadowXX
2003-12-11, 11:00:18
Original geschrieben von ow
Als was würdest du denn die FireZ1, FireGL1, FireX1 etc. bezeichnen?

Da fehlte ein Smilie....;D

Du hast natürlich recht....aber ich betrachte die r3x0-Series mehr als Gamerkarten, was man meiner persönlichen Meinung nach auch ganz gut daran sieht, dass eben trotz mit anderen Schwerpunkten versehenen Treibern, die FireXX-Karten gegenüber den nV im Profi-Bereich schlecht darstehen...

Anders gesagt...wenn ich Professionell Rendern wollte, würde ich keine ATI nehmen....eher eine nV.

J.S.Shadow

aths
2003-12-11, 11:20:36
Original geschrieben von ShadowXX
zu b.) ja, es dürfen nur Spiele gewertet werden, da die Radeon9800 ein Karte für Spiele ist....Steht das irgendwo so 'Nur für Spiele zu gebrauchen'? Afaik vermarktet ATI die 9800-er allgemein als DX9-Karten.

ShadowXX
2003-12-11, 11:29:53
Original geschrieben von aths
Steht das irgendwo so 'Nur für Spiele zu gebrauchen'? Afaik vermarktet ATI die 9800-er allgemein als DX9-Karten.

Wir können ja die HW-Entwickler bei ATI ja mal Fragen, was Sie als "Vorgabe" von Ihren Chefs bekommen haben;D

Ernsthaft, IMHO ist der r3x0 Chip als Gamerchip entwicklet worden...nicht als eierlegende Wollmichsau...

btw. steht irgendwo geschrieben das man zwingend mehr als 5Bit Genauigkeit nehmen muss, damit man es Bilinear nennen darf?? (ausserhalb von nV unterlagen...)

J.S.Shadow

aths
2003-12-11, 11:31:47
Original geschrieben von ShadowXX
Ernsthaft, IMHO ist der r3x0 Chip als Gamerchip entwicklet worden...nicht als eierlegende Wollmichsau...Toll, ein DirectX9-Chip, der schlechter isotrop filtert, als DX7-HW von NV.
Original geschrieben von ShadowXX
btw. steht irgendwo geschrieben das man zwingend mehr als 5Bit Genauigkeit nehmen muss, damit man es Bilinear nennen darf?? (ausserhalb von nV unterlagen...)HALLO!!! Dass es um diese Sache (übrigens sind es 6 Bit) nicht geht, habe ich doch schon gesagt, es geht um einen anderen BF-Artefakt. Siehe den Screenshot im Text.

Quasar
2003-12-11, 11:41:11
Original geschrieben von ShadowXX
Wir können ja die HW-Entwickler bei ATI ja mal Fragen, was Sie als "Vorgabe" von Ihren Chefs bekommen haben;D


Irgendwer behauptete mal, D. Orton habe zu seinen Mannen gesagt: "One Chip to rule them all, one Chip to find them, one Chip to drive them all and in the Darkness bind them."


Nee, im Ernst, er (diesmal der Chip) soll mit einer einzigen Vorgabe entwickelt worden sein: "Macht mir den schnellsten Chip, egal wie!".

(War es evtl. Ailuros im Speku-Forum? Ich weiß nicht mehr...)

ShadowXX
2003-12-11, 11:51:24
Original geschrieben von Quasar
Irgendwer behauptete mal, D. Orton habe zu seinen Mannen gesagt: "One Chip to rule them all, one Chip to find them, one Chip to drive them all and in the Darkness bind them."


cool....vielleicht schaffens Sie es ja mit dem ring420....ähhh r420...;D ;D

(jetzt wissen endlich wofür das "r" steht...;D )


Nee, im Ernst, er (diesmal der Chip) soll mit einer einzigen Vorgabe entwickelt worden sein: "Macht mir den schnellsten Chip, egal wie!".


Für den ersten Versuch, war es ja auch nicht schlecht...

@aths
mir ist klar das du auf den BF-Artefakt herumreitest (mich hat nur dein erster Aufhänger gestört)...die finde ich auch nicht besonders schön.
Entweder ist das ein HW-Bug oder es hat wirklich nur Transitorcount-Gründe...

Mal sehen...wenns "in den einem r420" auch noch drinne ist, ist es wohl tatsächlich "Absicht"...dann können wir uns gerne mal näher damit beschäftigen..

J.S.Shadow

reunion
2003-12-11, 12:11:08
Original geschrieben von aths
Toll, ein DirectX9-Chip, der schlechter isotrop filtert, als DX7-HW von NV.


NVs aktuelle DX9 Hardware filtert auch schlechter anistropisch als die eingene DX7 HW :naughty:

Quasar
2003-12-11, 12:59:23
Original geschrieben von reunion
NVs aktuelle DX9 Hardware filtert auch schlechter anistropisch als die eingene DX7 HW :naughty:

Nein. (und es heißt "anisotrop", hat ja schließlich nix mit den feuchtwarmen, äquatornahen Gegenden auf der Erde zu tun)

MadManniMan
2003-12-11, 14:38:22
Original geschrieben von aths
Hm, gehörst du nicht zu jenen, die auf ihrer Radeon mit bi-AF spielen, oder irre ich hier?

Sehr wahr. Und stolz drauf.
Mir ist schon klar, daß du in diesem Belang kein gutes Haar an stark differierenden Meinungen läßt (OMG, zwei 3Dfx-ler streit0rn sich... Was ist das blos für eine Welt?). Aber auch als BiAF-Spieler hab ich gewisse Anforderungen an die da vor mir rumhampelnde Filterung.
Zudem sträube ich mich dagegen, andere Meinungen different zu betrachten, von daher verlange ich von einer solchen Gamerkarte, daß derlei Basisfeatures ohne wahrnehmbare Artefakte daherkommen. Und wenn du jetzt noch 10mal sagst, daß wohl ältere Spiele mit gering aufgelösten Lightmaps Probleme zeigen könnten, dann frag ich dich...

...nach einem erlösenden Screenie!

Im Artikel kam es für mich so durch, als ob es wirklich als eine von der Praxis größtenteils unabhängige Betrachtung gelten sollte, aber du scheinst ja tatsächlich von spielepraktischen Nachteilen auszugehen :ratlos:

Original geschrieben von aths
TruForm ist kein DM :) TruForm hatte wohl langfristig ohnehin keine Chance. Einerseits wäre NV auf den Zug nicht aufgesprungen, andererseits bedeutet das Zusatzarbeit beim Modelling, und zu guter Letzt hat R3xx afaik T&L-Power satt, so dass man einfach mit insgesamt höher aufgelösten Models beide Schienen (Radeon, GeForce) bedienen kann. Ein Vorteil bei TruForm war z. B. die bessere Beleuchtung, was in Zukunft aber ohnehin durch Per-Pixel-Lighting ersetzt wird, und Dinge runder aussehen lassen kann.

Auwei, neuer Merksatz: nach dutzenden Stunden Horizons weniger überzeugt von der eigenen Wahrnehmung sein, Herr Manfred! :bonk:

Deine Ausführungen zum TruForm sind trotzdem ok :) aber ich war doch beeindruckt, wie gut in UT2k3 TruForm (Powered by SW-Decceleration ;) ) wirkt.

Und zum DM - ersetze TruForm aus meinem Satz gegen HW-PDM.

betasilie
2003-12-11, 15:43:05
Also die Ansage von ATI ist schon ein Witz, aber im Grunde doch irrelevant, da Truform tot ist.


Original geschrieben von AlfredENeumann
Ich könnte auch über einige unserer Eigenamrkenprodukte etwas schreiben, aber ich darf nicht.
Es freut mich ja, dass Du einen interessanten Job hast, aber solche Floskeln werden jetzt nicht zur Regel, oder?

Radeonator
2003-12-11, 15:48:55
Naja, damals bei der GF3 wurde die Bezier Patches aber auch gerne für PR Zwecke benutzt. Schöne bessere Welt etc. ;)

AlfredENeumann
2003-12-11, 16:00:56
Original geschrieben von betareverse
Es freut mich ja, dass Du einen interessanten Job hast, aber solche Floskeln werden jetzt nicht zur Regel, oder?

Nö. War nur so ne blöde Bemerkung am Rande.
Aber ist schon was blödes wenn das Marketing etwas schreibt was nicht unbedingt der Wahrheit entspricht, bzw. gewisse Dinge verschweigt und man weis davon, darf es aber eigentlich nicht sagen.
Daher verkaufe ich die Grafikkarten unserer Eigenmarke nicht, da Mogelpackung.

Frank
2003-12-11, 18:00:40
Original geschrieben von aths
Mit "nur" mathematisch gebogenen Flächen kann man noch nicht so viel anstellen, wie mit "echtem" DM à la Matrox, man würde wohl "nur" die CPU etwas entlasten. "Echtes" DM würde hingegen neue Effekte ermöglichen. Vielleicht könnte Demirug was dazu sagen, ob man die Render-to-Vertexbuffer-Technik auch für DM verwenden könnte. Bei HOS werden nicht einfach Flächen gebogen... man generiert da komplett neue Flächen - in x-beliebiger Form - aus einen einfachen Netz von Kontrollpunkten. Damit kann man sehr wohl sehr viel machen.

Frank
2003-12-11, 18:03:39
Original geschrieben von aths
TruForm ist kein DM :) TruForm hatte wohl langfristig ohnehin keine Chance. Einerseits wäre NV auf den Zug nicht aufgesprungen, andererseits bedeutet das Zusatzarbeit beim Modelling, und zu guter Letzt hat R3xx afaik T&L-Power satt, so dass man einfach mit insgesamt höher aufgelösten Models beide Schienen (Radeon, GeForce) bedienen kann. Ein Vorteil bei TruForm war z. B. die bessere Beleuchtung, was in Zukunft aber ohnehin durch Per-Pixel-Lighting ersetzt wird, und Dinge runder aussehen lassen kann. Zusatzarbeit beim Modelling? Die hält sich aber stark in Grenzen, da man sofort weiß, wo sogenannte Cracks entstehen.

Tigerchen
2003-12-11, 18:50:44
Original geschrieben von aths

1. Wer entscheidet, wann etwas "praktisch" sichtbar ist? Und woran? Dürfen da nur normale Spiele gewertet werden?

2. Welchen praktischen Nachteil hast du als Gamer, wenn deine Radeon nur sehr langsames DM bietest?


1.Der Endkunde entscheidet was praktisch sichtbar ist.Solange du der einzige bist der daran was auszusetzen hast kann ATI das ziemlich egal sein.Gefährlich wird es erst wenn Otto Normaluser zu maulen beginnt.Wie z.B. bei mangelhafter Shaderleistung einer gewissen Firma.

2. DM ist im Moment wohl eher eine Designstudie.Den meisten ATI-Käufern wirds egal sein.Nutzt sowieso keiner.

3. Es ist eine Kunst die Prioritäten richtig zu setzen.Matrox hat sie falsch gesetzt und ist daher am Gamermarkt gescheitert.Dein Beharren darauf daß immer alles nach Lehrbuch oder irgendwelchen DIN-Vorschriften zu gehen hat ist ziemlich kleinkariert.Wer erfolgreich sein will im Business muß auch immer nach Abkürzungen suchen.

EgonOlsen
2003-12-12, 00:22:34
Ich habe mal ein Applet gebaut, mit dem man ein bisschen mit den Genauigkeiten beim Filtern spielen kann:

http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=111553

MadManniMan
2003-12-12, 01:49:37
Original geschrieben von EgonOlsen
Ich habe mal ein Applet gebaut, mit dem man ein bisschen mit den Genauigkeiten beim Filtern spielen kann:

http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=111553

Geniale Sache :up: Ich muß sagen, daß in der höchsten Zoomstufe die Unterschiede zwischen 7 und 8 Bit kaum noch wahrzunehmen sind.
6 merkt man noch, das stimm, allerdings hätte man für Merklichkeit in der App etwa 8*6 Texel auf dem Bild. Mit hohem Kontrast wohlgemerkt.
Die zusätzliche Blockung beim R300 erklärt sich natürlich nicht.


/edit: dabei fällt mir grad ein, daß meine Kyro2 in CS unter OpelGL recht starke Blockbildung zeigte. 5bit?

Ailuros
2003-12-12, 05:21:26
Original geschrieben von Quasar
Irgendwer behauptete mal, D. Orton habe zu seinen Mannen gesagt: "One Chip to rule them all, one Chip to find them, one Chip to drive them all and in the Darkness bind them."


Nee, im Ernst, er (diesmal der Chip) soll mit einer einzigen Vorgabe entwickelt worden sein: "Macht mir den schnellsten Chip, egal wie!".

(War es evtl. Ailuros im Speku-Forum? Ich weiß nicht mehr...)

Nein. Ich hab ausserdem nie Orton zitiert.

Ailuros
2003-12-12, 05:23:35
Original geschrieben von EgonOlsen
Ich habe mal ein Applet gebaut, mit dem man ein bisschen mit den Genauigkeiten beim Filtern spielen kann:

http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=111553

Mein Herr ihre Eingabe waere des oefteren gewuenscht. Wie geht's Herr Olsen? :)

Ailuros
2003-12-12, 05:38:42
Original geschrieben von Quasar
Nein. (und es heißt "anisotrop", hat ja schließlich nix mit den feuchtwarmen, äquatornahen Gegenden auf der Erde zu tun)

Der Genauigkeits-Polizei zuliebe...

Iso = gleich
An-iso = un-gleich
Tropos = Art/Weise

Im gleichen Sinn: Idio-tropos (siehe Idiom) = whimsical, capricious, merkwuerdig :D

ShadowXX
2003-12-12, 08:27:01
Original geschrieben von MadManniMan
Geniale Sache :up: Ich muß sagen, daß in der höchsten Zoomstufe die Unterschiede zwischen 7 und 8 Bit kaum noch wahrzunehmen sind.
6 merkt man noch, das stimm, allerdings hätte man für Merklichkeit in der App etwa 8*6 Texel auf dem Bild. Mit hohem Kontrast wohlgemerkt.
Die zusätzliche Blockung beim R300 erklärt sich natürlich nicht.


/edit: dabei fällt mir grad ein, daß meine Kyro2 in CS unter OpelGL recht starke Blockbildung zeigte. 5bit?

Ich sehe sogar bis 6 runter kaum einen unterschied zu 7 oder 8 (Hängt wohl auch etwas von Monitor & Signalqualität der Karte ab, ab gewissen Zoomstufen wird es natürlich stärker sichtbar....aber Mode7 wird auf dem PC ja wenig benutzt ;D ).

Die 6 Bit wurden von ATI ziemlich klever gewählt.
Ungezoomed sieht man fast keinen Unterschied zu 7 oder 8 Bit.
Ab 5 Bit dagegen sieht sogar "Otto-Normal-Verbraucher" das "was nicht stimmt".

J.S.Shadow

/Edit:ein N gegen ein B (ehhh Maren, wo bleibt das B...)

aths
2003-12-12, 10:14:19
Original geschrieben von MadManniMan
Sehr wahr. Und stolz drauf.Dann wäre bri ja noch eine Qualitäts-Steigerung für dich :) Wenn du eh auf Radeon mit bi-AF spielst, und eh mit AF spielst, wieso kommt bri-AF für dich dann nicht infrage?
Original geschrieben von MadManniMan
Mir ist schon klar, daß du in diesem Belang kein gutes Haar an stark differierenden Meinungen läßt (OMG, zwei 3Dfx-ler streit0rn sich... Was ist das blos für eine Welt?).Eine unübersichtliche Welt, ohne richtungsführenden Mastermind...
Original geschrieben von MadManniMan
Aber auch als BiAF-Spieler hab ich gewisse Anforderungen an die da vor mir rumhampelnde Filterung.Bri ist besser als bi :) Und GeForces haben weniger LOD-Bias-Artefakte :) Natürlich haben sie auch langsamere Pixelshader, und ein im Vergleich zu ATI ziemliches mieses MSAA. Die (berechtigte) Annahme, NV würde einige Pixelshader-Berechnungen ungefragt mit FP16 "optimieren", führt in der ATI-Fraktion zu einem Aufschrei, das dürfe man doch nicht, und darunter würde die BQ leiden. Hier wird ein BQ-Verlust unterstellt, ohne einen Screen zu zeigen.
Original geschrieben von MadManniMan
Zudem sträube ich mich dagegen, andere Meinungen different zu betrachten, von daher verlange ich von einer solchen Gamerkarte, daß derlei Basisfeatures ohne wahrnehmbare Artefakte daherkommen. Und wenn du jetzt noch 10mal sagst, daß wohl ältere Spiele mit gering aufgelösten Lightmaps Probleme zeigen könnten, dann frag ich dich...

...nach einem erlösenden Screenie!Wenn du hinreichend "open-minded" bist, würdest du nach solcher "Evidence" selbst "searchen".

Angenommen ich hätte den Erlöser-Screenshot. Dann würde gemäkelt: "Ja, aber das ist ja gaaanz selten, und die schnellen 2.0-er Shader wetzen die Scharte wieder aus" und "Ja, aber bei GeForce sieht man dafür auf einem anderen Screeni, dass..." Derlei Diskussion wäre nicht das, was mir vorschwebt.

Und sind wir mal ehrlich: Als jeder vernünftige Mensch angewidert von NVs marktschreierischer T&L-Kampagne war, hieß es wie zu den TNT-32-Bit-Zeiten, das bräuchte man noch nicht. Wo braucht man schnelle 2.0-er Pixelshader? In 2 oder 3 relevanten Spielen, glaube ich, für den Spielemarkt insgesamt sind DX9-Features praktisch irrelevant. Jetzt reiten die meisten Fanatiker aber auf diesem Plus der Radeons herum. Dafür wird sich — verquere Logik — über das großzügige Instructioncount-Limit und über die FP32-Genauigkeit der NV-Implementierung lustig gemacht.

Ich versuche, die nackten Fakten zu sehen. Es gibt für jede hier angedeutete Weltsicht gute Argumente. Leider werden jene oftmals so gewichtet, dass sie die Kaufentscheidung unterstützen. Dass das Forum jetzt praktisch in Fanatiker-Hand ist, hat gute Gründe: ATIs Produkte bieten für John Doe mehr bang for the buck, inkl. "nutzbarer Bildqualität" (6x MSAA, 2-16° tri-AF vs. 4x OGMSAA und 4-8° bri-AF.)

Dus durph imo ubar nicht dazu führen, dass die Schwächen der Radeons einfach unter den Teppich gekehrt werden.
Original geschrieben von MadManniMan
Im Artikel kam es für mich so durch, als ob es wirklich als eine von der Praxis größtenteils unabhängige Betrachtung gelten sollte, aber du scheinst ja tatsächlich von spielepraktischen Nachteilen auszugehen :ratlos:Ich bin Pixelfetischist. Für übliche Spiele-Szenarien reicht die Radeon-Filterqualität bekanntlich aus. Aber meine Herangehensweise ist wohl völlig inkompatibel mit deiner. Beispielsweise sehe ich Floating-Point-Zahlen nicht mehr als diffusen Datentyp, sondern als Kombination von zwei Integer-Zahlen (mit jeweils unterschiedlicher Bedeutung) und grüble über die Konsequenzen. Bei bilinearer Filterung erwarte ich einfach, im Rahmen der Möglichkeiten, perfekte Filterung. "Linear" ist nunmal ein Terminus mit Bedeutung, und in der digitalen Welt gilt es abzuwägen, wie linear linear sein kann, und sein sollte. Das Abschneiden der LERP-Genauigkeit auf 6 Bit halte ich für lächerlich, diese seltsamen groben Block-Artefakte für peinlich. Denn — hallo — es handelt sich hier um hochspezialisierte 3D-Hardware. Wenn die so eng limitiert ist, dass man außer Max Payne spielen nicht viel anderes machen kann...

Original geschrieben von MadManniMan
Und zum DM - ersetze TruForm aus meinem Satz gegen HW-PDM. Es ist eben nicht alles Gold, was von ATI kommt. Bei den Pixelshadern sind wir ja nun eines besseren belehrt: Das Feature wird genutzt. Sogar die Radeon 8500 kann das noch nutzen!! (Mäx Payne 2). TruForm war eine nette Idee, es gibt aber andere Wege, runde Formen zu bekommen, die weniger Nachteile haben.

aths
2003-12-12, 10:29:53
Original geschrieben von reunion
NVs aktuelle DX9 Hardware filtert auch schlechter anistropisch als die eingene DX7 HW :naughty: Das wüsste ich...

DrumDub
2003-12-12, 11:49:04
Original geschrieben von ShadowXX
Ich sehe sogar bis 6 runter kaum einen unterschied zu 7 oder 8 (Hängt wohl auch etwas von Monitor & Signalqualität der Karte ab, ab gewissen Zoomstufen wird es natürlich stärker sichtbar....aber Mode7 wird auf dem PC ja wenig benutzt ;D ).

Die 6 Bit wurden von ATI ziemlich klever gewählt.
Ungezoomed sieht man fast keinen Unterschied zu 7 oder 8 Bit.
Ab 5 Bit dagegen sieht sogar "Otto-Normal-Verbraucher" das "was nicht stimmt".

J.S.Shadow

/Edit:ein N gegen ein B (ehhh Maren, wo bleibt das B...)


jupp. der unterschied zwischen 7 und 8 ist für mich nicht erkennbar. zwischen 6 und 7 seh ich einen unterschied bei der höchsten zoomstufe, der aber imho vernachlässigbar ist. zwischen 5 und 6 ist der unterschied dagegen eindeutig zu erkennen.

ShadowXX
2003-12-12, 11:56:12
Original geschrieben von aths
Bri ist besser als bi :) Und GeForces haben weniger LOD-Bias-Artefakte :) Natürlich haben sie auch langsamere Pixelshader, und ein im Vergleich zu ATI ziemliches mieses MSAA. Die (berechtigte) Annahme, NV würde einige Pixelshader-Berechnungen ungefragt mit FP16 "optimieren", führt in der ATI-Fraktion zu einem Aufschrei, das dürfe man doch nicht, und darunter würde die BQ leiden. Hier wird ein BQ-Verlust unterstellt, ohne einen Screen zu zeigen.


Siehe deinen Einwand darunter (den ich zugegebenermassen auch gleich wieder umkehre...)


Wenn du hinreichend "open-minded" bist, würdest du nach solcher "Evidence" selbst "searchen".


Warum?...der Ankläger soll bitte Beweise liefern...

Und vice versa...und wieder andersherum....
Wir drehen uns doch nur im Kreis.
Jeder sucht bei dem anderen nach dem Haar in der Suppe....das ist nicht wirklich Produktiv.

Wenn ich lange genug suche, würde ich garantiert hat Unstimmigkeiten und/oder Beschränkungen in der nV HW finden.
Das bringt doch nix....ATI hat sich für 6Bit entschieden, das ist Fakt. Ob die Blockbildung Absicht ist oder nicht, muss der r420 zeigen.

Wie ich schon mal erwähnte, geht es bei diesen Chips zumeist um Games, auch wen die offizielle Verlautbarung oft anders ist.
Die Chips sind auf Speed ausgelegt, nicht daruf möglichst Superrealistisch und Din-Genormt zu Rendern.

Wenn du soetwas von einer relativ Preiswerten Karte erwartest (und ja, gegen Profi Render Karten (und damit meine ich nicht die jeweiligen Fire bzw. Quadro-Karten)sind die Chips pratisch von Aldi), dann hast du IMHO zu hohe Ansprüche.


Angenommen ich hätte den Erlöser-Screenshot. Dann würde gemäkelt: "Ja, aber das ist ja gaaanz selten, und die schnellen 2.0-er Shader wetzen die Scharte wieder aus" und "Ja, aber bei GeForce sieht man dafür auf einem anderen Screeni, dass..." Derlei Diskussion wäre nicht das, was mir vorschwebt.


Weniger....es würde (zumindest von mir) etwa sowas kommen:
"Wie hast du das Game unter WinXP zu laufen bekommen....".

Du wirst immer den einen oder anderen Screenie bei beiden finden, wo etwas nicht "optimal" gelöst ist...warum extra danach suchen...


Und sind wir mal ehrlich: Als jeder vernünftige Mensch angewidert von NVs marktschreierischer T&L-Kampagne war, hieß es wie zu den TNT-32-Bit-Zeiten, das bräuchte man noch nicht. Wo braucht man schnelle 2.0-er Pixelshader? In 2 oder 3 relevanten Spielen, glaube ich, für den Spielemarkt insgesamt sind DX9-Features praktisch irrelevant. Jetzt reiten die meisten Fanatiker aber auf diesem Plus der Radeons herum. Dafür wird sich — verquere Logik — über das großzügige Instructioncount-Limit und über die FP32-Genauigkeit der NV-Implementierung lustig gemacht.


Ich mache micht nicht über die HW von nV Lustig...im gegenteil, das Konzept finde ich gut, die Ausführung etwas weniger. Aber das ist mir egal, ist nur Silizium.

Es ist die Art von nV die mich ank***t.
OK ATI ist da teilweise auch nicht besser, aber nV kommt sehr negativ rüber.
Es klingt bei nV immer so, als wenn nur das was Sie tun, das Richtige ist und alles was andere machen völlig falsch ist....


Ich versuche, die nackten Fakten zu sehen. Es gibt für jede hier angedeutete Weltsicht gute Argumente. Leider werden jene oftmals so gewichtet, dass sie die Kaufentscheidung unterstützen. Dass das Forum jetzt praktisch in Fanatiker-Hand ist, hat gute Gründe: ATIs Produkte bieten für John Doe mehr bang for the buck, inkl. "nutzbarer Bildqualität" (6x MSAA, 2-16° tri-AF vs. 4x OGMSAA und 4-8° bri-AF.)
Dus durph imo ubar nicht dazu führen, dass die Schwächen der Radeons einfach unter den Teppich gekehrt werden.
Ich bin Pixelfetischist. Für übliche Spiele-Szenarien reicht die Radeon-Filterqualität bekanntlich aus. Aber meine Herangehensweise ist wohl völlig inkompatibel mit deiner.


Schwächen der Radeons sollen überhaupt nicht unter den Tisch gekehrt werden....
Aber ohne deine intervention, hätte wohl niemand auch je Notiz von dem 6Bit Bi-Filter genommen, weil es niemanden vorher aufgefallen ist...
(Die Schwächen der FX'e sollen aber auch nicht verschwiegen werden.....)

Für deine Herangehensweise brauchst du andere Chips...keine IMHO Gamer-Chips.


Beispielsweise sehe ich Floating-Point-Zahlen nicht mehr als diffusen Datentyp, sondern als Kombination von zwei Integer-Zahlen (mit jeweils unterschiedlicher Bedeutung) und grüble über die Konsequenzen.


Ich frage dich jetzt mal wirklich, was das jetzt mit der Filterqualität von irgendetwas zu tun hat?

Ich habe seit ich Programmiere (knapp 20 Jahre) Float-Zahlen noch nie als "diffusen Datentyp" gesehen, sondern war mir immer darüber im klaren, was diese Bedeuten und dann dementsprechen genutzt...und unter ASM war das nicht immer das gelbe vom Ei.


Bei bilinearer Filterung erwarte ich einfach, im Rahmen der Möglichkeiten, perfekte Filterung. "Linear" ist nunmal ein Terminus mit Bedeutung, und in der digitalen Welt gilt es abzuwägen, wie linear linear sein kann, und sein sollte. Das Abschneiden der LERP-Genauigkeit auf 6 Bit halte ich für lächerlich, diese seltsamen groben Block-Artefakte für peinlich. Denn — hallo — es handelt sich hier um hochspezialisierte 3D-Hardware. Wenn die so eng limitiert ist, dass man außer Max Payne spielen nicht viel anderes machen kann...


Falsche Erwartungshaltung beim dafür falschen Chip.
Denn - hallo - es handelt sich um hochspezialisierte 3D-Spiele-Hardware (IMHO)....die auch für den Profi-Bereich angeboten wird und dort zurecht als nicht optimal empfunden wird....


Es ist eben nicht alles Gold, was von ATI kommt. Bei den Pixelshadern sind wir ja nun eines besseren belehrt: Das Feature wird genutzt. Sogar die Radeon 8500 kann das noch nutzen!! (Mäx Payne 2). TruForm war eine nette Idee, es gibt aber andere Wege, runde Formen zu bekommen, die weniger Nachteile haben.

Das hat auch glaube ich wirklich jemand ernsthaft behauptet....

J.S.Shadow

Frank
2003-12-12, 12:06:41
Original geschrieben von aths
TruForm war eine nette Idee, es gibt aber andere Wege, runde Formen zu bekommen, die weniger Nachteile haben. kaum - wenn man denn die Technologie auf bestehende Strukturen aufsetzen wollte. Bei jeweils einem einzelnen Dreieck als Ausgangsbasis, läßt sich kaum mehr als ein Bézierdreieck darüber legen. Mir fallen spontan nicht mehr - einfach zu handelnde - dreieckige Freiformflächen ein. Und mit den paar mageren Ausgangsinformationen hat es keinen Sinn über kubische Strukturen hinauszugehen - geschweige denn überhaupt den Versuch zu starten, da C-1 Übergänge hinzubekommen.

aths
2003-12-12, 12:27:21
Original geschrieben von ShadowXX
Warum?...der Ankläger soll bitte Beweise liefern...Andersherum: Ich bin kein Ankläger, nur Fakten-Lieferant.
Original geschrieben von ShadowXX
Und vice versa...und wieder andersherum....
Wir drehen uns doch nur im Kreis.
Jeder sucht bei dem anderen nach dem Haar in der Suppe....das ist nicht wirklich Produktiv.Ich suche bei allen, nicht nur beim "anderen". Imo ist das durchaus produktiv.
Original geschrieben von ShadowXX
Wenn ich lange genug suche, würde ich garantiert hat Unstimmigkeiten und/oder Beschränkungen in der nV HW finden.Natürlich würdest du das.
Original geschrieben von ShadowXX
Das bringt doch nix....ATI hat sich für 6Bit entschieden, das ist Fakt. Ob die Blockbildung Absicht ist oder nicht, muss der r420 zeigen.Jener Block-Artefakt ist mindestens seit dem R200 vorhanden. Was heißt "Absicht?" ATI hat diese Sache vermutlich billigend inkauf genommen. Es ist ja auch nicht die einzige Sache. Dazu 6 Bit LERP-Genauigkeit beim BF, 5 Bit LOD-Fraction beim TF, eine recht ungenaue LOD-Bestimmung, ein 16° AF was teilweise nur 2° AF ist... alles zusammen betrachtet ergibt für mich keinen guten Nachgeschmack. Was Texturfilter angeht, kann man ATI imo wirklich nicht gratulieren.
Original geschrieben von ShadowXX
Wie ich schon mal erwähnte, geht es bei diesen Chips zumeist um Games, auch wen die offizielle Verlautbarung oft anders ist.Woran wollen wir uns nun halten? Was gesagt wird, oder wie wir das Gesagte privat interpretieren?
Original geschrieben von ShadowXX
Die Chips sind auf Speed ausgelegt, nicht daruf möglichst Superrealistisch und Din-Genormt zu Rendern.Ich möchte schon viel Realismus für mein Geld. Sonst bräuchte man z. B. keine Pixelshader... Imo ist deine Argumentation etwas inkonsistent: 6x gamma corrected, sparsed multisampling kostet z. B. massig Transistoren. Erhöht den Realismus des Bildes. Hier haben sie die Prioritäten imo richtig gesetzt. Bei den Texturfiltern hingegen haben sie gespart, wo es nur geht. Ich persönlich halte das für unausgewogen. Es ist richtig, dass die FXe für "ihre Zeit" ein völlig unmodernes und ineffizientes AA-Subsystem haben. Das ändert aber nichts an den für sich genommenen gültigen Fakt, dass die FX-HW (bereits die GF3-HW) viel genauere Filter hat, als ATIs aktuelle Hardware. Dass man anhand dieser einen Sache kein Gesamturteil fällen kann, ist doch klar. Aber imo gibts trotzdem nichts an diesem Punkt zu relativieren.
Original geschrieben von ShadowXX
Wenn du soetwas von einer relativ Preiswerten Karte erwartest (und ja, gegen Profi Render Karten (und damit meine ich nicht die jeweiligen Fire bzw. Quadro-Karten)sind die Chips pratisch von Aldi), dann hast du IMHO zu hohe Ansprüche.Das denke ich nicht.

Die meisten Radeon-User stellen den Anspruch, dass 2.0-er Pixelshader durchgehend FP24 verwendet. FP16 ist in jedem Fall mindestens so genau wie FX12 (oft aber genauer), und FX12 ist 4x so genau wie FX9 (= übliche Farbtiefe auf GF1-4.) In diesem Kontext sehe ich meine Forderung nach "quasi-perfekten" isotropen Filtern als gerechtfertigt an. Einige Hersteller bringen die ja auch, schon in HW auf DX7-Niveau.
Original geschrieben von ShadowXX
Schwächen der Radeons sollen überhaupt nicht unter den Tisch gekehrt werden....
Aber ohne deine intervention, hätte wohl niemand auch je Notiz von dem 6Bit Bi-Filter genommen, weil es niemanden vorher aufgefallen ist...Vielen wäre Nvidias Zwang zum brilinearen Filter nie aufgefallen, hätte es da nicht Artikel drüber gegeben.
Original geschrieben von ShadowXX
(Die Schwächen der FX'e sollen aber auch nicht verschwiegen werden.....)In diesem Bereich gibt's da keine Schwäche. (Ja, der aktuelle Treiber zwingt zu "bri". Wäre das möglich, würde ATI ansonsten "volle" Filtergenauigkeit liefern? Das Mantra "Nur der Speed zählt bei Games" führt offenbar zu einer immer weiterführenden BQ-Senkung.)
Original geschrieben von ShadowXX
Für deine Herangehensweise brauchst du andere Chips...keine IMHO Gamer-Chips.Nö. Andere zeigen ja, wie es auch gehen kann.
Original geschrieben von ShadowXX
Ich frage dich jetzt mal wirklich, was das jetzt mit der Filterqualität von irgendetwas zu tun hat?Ich frage mich wirklich, wieso du auf meine Antwort an MMM so ausführlich antwortest :)
Original geschrieben von ShadowXX
Falsche Erwartungshaltung beim dafür falschen Chip.
Denn - hallo - es handelt sich um hochspezialisierte 3D-Spiele-Hardware (IMHO)....die auch für den Profi-Bereich angeboten wird und dort zurecht als nicht optimal empfunden wird....Das ist wieder ein Beispiel, wie Nachteile der Radeon kleingeredet werden sollen... :/ à la "Muss sie auch gar nicht können, was du da verlangst". Sicher _muss_ sie das nicht, dass es schade ist, dass sie es nicht besser kann, gibt leider praktisch niemand zu, der selbst eine Radeon hat. Auf der anderen Seite wird die brilineare "Optimierung" natürlich auffallen von Leuten verteidigt, die selbst eine FX haben. Aber "Fanatiker" sind offenbar nicht "besser" als NV-Freude.

aths
2003-12-12, 12:28:41
Original geschrieben von Frank
kaum - wenn man denn die Technologie auf bestehende Strukturen aufsetzen wollte. Bei jeweils einem einzelnen Dreieck als Ausgangsbasis, läßt sich kaum mehr als ein Bézierdreieck darüber legen. Mir fallen spontan nicht mehr - einfach zu handelnde - dreieckige Freiformflächen ein. Und mit den paar mageren Ausgangsinformationen hat es keinen Sinn über kubische Strukturen hinauszugehen - geschweige denn überhaupt den Versuch zu starten, da C-1 Übergänge hinzubekommen. Eben das geht ja nicht, anhand des (groben) Modelles einfach was abzurunden. Da gibt es dann Lücken etc, und das Objekt verändert auch sein Volumen.

Frank
2003-12-12, 13:20:25
Original geschrieben von aths
Eben das geht ja nicht, anhand des (groben) Modelles einfach was abzurunden. Da gibt es dann Lücken etc, und das Objekt verändert auch sein Volumen. Das Volumen des Körpers ändert sich aber nicht derart, dass es nun extrem ins Gewicht fällt. Die C-0 Stetigkeit wird auch nur dann (u.U.) verletzt, wenn man an einer schärferen Kante eben zwei Normalenvektoren (für die Beleuchtung) pro Eckpunkt ansetzt. Dort bedarf es dann eben einer Änderung in dem Modell/Engine.

ShadowXX
2003-12-12, 14:46:47
Original geschrieben von aths
...Das ist wieder ein Beispiel, wie Nachteile der Radeon kleingeredet werden sollen... :/ à la "Muss sie auch gar nicht können, was du da verlangst". Sicher _muss_ sie das nicht, dass es schade ist, dass sie es nicht besser kann, gibt leider praktisch niemand zu, der selbst eine Radeon hat. Auf der anderen Seite wird die brilineare "Optimierung" natürlich auffallen von Leuten verteidigt, die selbst eine FX haben. Aber "Fanatiker" sind offenbar nicht "besser" als NV-Freude.

Ich persönlich verlange dies auch von einer GeForceFX nicht.
Und du hast recht...auch die Brilineare Filterung wäre wahrscheinlich niemanden aufgefallen.
Und wieder kann ich nur sagen: Mich stört diese auch nicht.

Und ja..es ist ziemlich daneben, dass die "Grundfilterarten" der Radeon so "mies" sind ( gegenüber denen der FX).

Ich persönlich betrachte aber auch, wie schon erwähnt, beide Karten als Gamerkarten.

Es liegt auch viel in der subjektiven Betrachtung:
Was mich am meisten stört ist Aliasing....ATI hat gutes AA, das war meine Kaufentscheidung.

Die nicht optimale Filterung ist mir nie so aufallen...auch gegenüber der 5900fx (die ich ebenfalls besitze, für den Zweitrechner dazugekauft) nicht. (Ich kann deren AF-Varianten so gut wie nicht auseinanderhalten...zumindest ohne Zusatztools).

Beide IHV optimieren, betrügen und belügen...man sollte keinen von beiden, aus welchen Gründen auch immer, etwas "schenken".

Ich erwarte für lumpige 200Euro keinen RefRast-Renderer, du scheinbar schon...also unterscheiden sich unsere Anforderungen an die Chips enorm und dadurch sehen wir die Dinge verschieden.

Ich sage durchaus "ja" zu IQ-verlusten, wenn Sie sich in Grenzen halten (auch bei einer FX).

J.S.Shadow

MadManniMan
2003-12-12, 15:13:57
Original geschrieben von aths
Dann wäre bri ja noch eine Qualitäts-Steigerung für dich :) Wenn du eh auf Radeon mit bi-AF spielst, und eh mit AF spielst, wieso kommt bri-AF für dich dann nicht infrage?

Langsam! Eins nach dem Anderen! Ich spiele zwar meist mit 128tap BiAF, es kommt aber immer wieder vor, daß ich auf AF verzichten muß und nur mit 8tap rumrenn(manchmal auch mit Quali- oder Fulltri-AF), sprich Tri. Und das muß wirklich nicht sein.

Zudem verdrehst du hier was: ich habe im Allgemeinen angedeutet, daß man nicht zusätzlich sichtbare Artefakte in Kauf nehmen sollte, so wie sie z.B. das wirklich untaugliche Bi-Lerping der Kyro2 z.B. unter Counter Strike bot.

Aber ansonsten find ich Bri nicht scheiße, nur die grundsätzliche Beschneidung des Trifilters mistig. Wenn nV doch nur wenigstens Bri aufs AF beschränkt hätt :ratlos:

Bedenke bei all dem Eines: es braucht verdammt lange und eben Piffan und mich, bis überhaupt mal die TS-Optimierung von ATi bemerkt wurde...

Original geschrieben von aths
Eine unübersichtliche Welt, ohne richtungsführenden Mastermind...

Zumindest aber bei einem Gedanken wirst du mir kaum wied0rsprch0rn woll0rn:

3Dfx R ub0r1337, pwn0rn 0wne ande!

Original geschrieben von aths
Bri ist besser als bi :-) Und GeForces haben weniger LOD-Bias-Artefakte :-) Natürlich haben sie auch langsamere Pixelshader, und ein im Vergleich zu ATI ziemliches mieses MSAA. Die (berechtigte) Annahme, NV würde einige Pixelshader-Berechnungen ungefragt mit FP16 "optimieren", führt in der ATI-Fraktion zu einem Aufschrei, das dürfe man doch nicht, und darunter würde die BQ leiden. Hier wird ein BQ-Verlust unterstellt, ohne einen Screen zu zeigen.

Klar ist Bri besser als Bi, aber Tri ist ebenso besser als Bri :balla:
Und das LoD-Bias ist wiederum so ein Ding, was keiner Sau auffällt. Manchmal sind theoretisch bessere Dinge inder Praxis gar ungünstig: so viel besser ab 4*RG die EER dank der Gammakorrektur auch rüberkommt, das 2*RG der GF3 wirkte manchmal ehrlich einfach passender, als das aktuelle meiner R95P ;)
Und was du mir jetzt erzählst, verstehe ich als ein allgemeines Ausheulen. Was hab ich damit zu tun, wenn einige Leute nach jedem Ästchen greifen? PP ist doch OK und ich denke auch, daß nV kaum so blöd sein wird, da zu sparen, wo mans wirklich sieht.
Und ich muß dich enttäuschen - wenn ich auch einigen etwas stärker parteiischen ATi-Leutz hier im Forum näher steh als du, kann ich doch nichts an deren Aussagen rütteln :D

Aber das Beste kommt ja noch: du beschwerst dich über ausbleibende Beweise! ...

Original geschrieben von aths
Wenn du hinreichend "open-minded" bist, würdest du nach solcher "Evidence" selbst "searchen".

Mal ganz davon ab, daß mir meine Zeit dafür zu schade ist (Horizons ruft die ganze Zeit, aber ich texte hier erst zu Ende), was hätte ich davon? Gemäß dem Falle, daß ich keine "Beweise" finden würde, könntest du immernoch sagen, ich hätte nicht richtig gesucht.

Original geschrieben von aths
Angenommen ich hätte den Erlöser-Screenshot. Dann würde gemäkelt: "Ja, aber das ist ja gaaanz selten, und die schnellen 2.0-er Shader wetzen die Scharte wieder aus" und "Ja, aber bei GeForce sieht man dafür auf einem anderen Screeni, dass..." Derlei Diskussion wäre nicht das, was mir vorschwebt.

Zu Ersterem: das ist die falsche Einstellung. Ausreichend "open-mindete" Diskussionpartner würden die Sache je nach Ausmaß bewerten.
Zu Zweiterem: derlei Leute haben dann des Themas Kern verkannt und sind einer Diskussion nicht würdig.
Wenn du also diese Umstände scheust... Naja, mußte selber wissen...

Original geschrieben von aths
Und sind wir mal ehrlich: Als jeder vernünftige Mensch angewidert von NVs marktschreierischer T&L-Kampagne war, hieß es wie zu den TNT-32-Bit-Zeiten, das bräuchte man noch nicht. Wo braucht man schnelle 2.0-er Pixelshader? In 2 oder 3 relevanten Spielen, glaube ich, für den Spielemarkt insgesamt sind DX9-Features praktisch irrelevant. Jetzt reiten die meisten Fanatiker aber auf diesem Plus der Radeons herum. Dafür wird sich — verquere Logik — über das großzügige Instructioncount-Limit und über die FP32-Genauigkeit der NV-Implementierung lustig gemacht.

Was hab ich damit zu tun?

Original geschrieben von aths
Ich versuche, die nackten Fakten zu sehen. Es gibt für jede hier angedeutete Weltsicht gute Argumente. Leider werden jene oftmals so gewichtet, dass sie die Kaufentscheidung unterstützen. Dass das Forum jetzt praktisch in Fanatiker-Hand ist, hat gute Gründe: ATIs Produkte bieten für John Doe mehr bang for the buck, inkl. "nutzbarer Bildqualität" (6x MSAA, 2-16° tri-AF vs. 4x OGMSAA und 4-8° bri-AF.)

Dus durph imo ubar nicht dazu führen, dass die Schwächen der Radeons einfach unter den Teppich gekehrt werden.

Das finde ich ja auch so gut an deiner Herangehensweise, nur verkennst du meine Intention: nämlich ehre ich die Deine, auch der Artikel ist gut. Aber mir gehts einfach nur darum, daß du für dich gewiß eben jenes "Insiderwissen" zur Kaufentscheidung heranziehst, obwohl es dich vielleicht übehaupt nie tangieren würde.

Original geschrieben von aths
Ich bin Pixelfetischist. Für übliche Spiele-Szenarien reicht die Radeon-Filterqualität bekanntlich aus. Aber meine Herangehensweise ist wohl völlig inkompatibel mit deiner. Beispielsweise sehe ich Floating-Point-Zahlen nicht mehr als diffusen Datentyp, sondern als Kombination von zwei Integer-Zahlen (mit jeweils unterschiedlicher Bedeutung) und grüble über die Konsequenzen. Bei bilinearer Filterung erwarte ich einfach, im Rahmen der Möglichkeiten, perfekte Filterung. "Linear" ist nunmal ein Terminus mit Bedeutung, und in der digitalen Welt gilt es abzuwägen, wie linear linear sein kann, und sein sollte. Das Abschneiden der LERP-Genauigkeit auf 6 Bit halte ich für lächerlich, diese seltsamen groben Block-Artefakte für peinlich. Denn — hallo — es handelt sich hier um hochspezialisierte 3D-Hardware. Wenn die so eng limitiert ist, dass man außer Max Payne spielen nicht viel anderes machen kann...

aths, der Fehler von ATi ist, den R300 fast unverändert auch als Profibrett zu verkaufen. Hochspezialisiert ist die Karte natürlich: auf 3D-Gaming!
Höchstspezialisiert auf CAD und co. sind eben jene FireGLs und Quadros. Aber das ist(!) eine andere Geschichte.

Auch wenn du jetzt sagst, daß die Karte für Spielesituationen wirklich ausreicht, glaube ich dir einfach noch nicht, daß du beim Gedanken an eine in deinem Rechn0r schlummernde R98XT ruhig schlafen könntest. <- Wenn ich hier falsch liege, berichtige mich! Hier springt für mich der Punkt!

Zudem interessiert es mich doch nicht, daß du Fließpunkt als Intgerkombi siehst. Schön für dich, aber was hab a) ich jetzt davon und b) das mit dem Thema zu tun?
BTW sollten wir jetzt wirklich auf des Themas Kern zurückkommen: die Blockbildung und Praxisprobleme.

Original geschrieben von aths
Es ist eben nicht alles Gold, was von ATI kommt. Bei den Pixelshadern sind wir ja nun eines besseren belehrt: Das Feature wird genutzt. Sogar die Radeon 8500 kann das noch nutzen!! (Mäx Payne 2). TruForm war eine nette Idee, es gibt aber andere Wege, runde Formen zu bekommen, die weniger Nachteile haben.

Thema TruForm: der Nachteile sind wir uns bewußt, ganz klar. Aber du bemängelst es, weil es Mehraufwand für die Designer bedeutete, würden sie es einbauen. Hm. Genausogut könntest du Dot3 bemängeln, ist Mehraufwand? Hoher Polycount? Mehraufwand. Multitexturing? Da braucht der Designer doch mehr Zeit!

...merkst was?

ShadowXX
2003-12-12, 15:49:21
Original geschrieben von MadManniMan
...Und was du mir jetzt erzählst, verstehe ich als ein allgemeines Ausheulen. Was hab ich damit zu tun, wenn einige Leute nach jedem Ästchen greifen? PP ist doch OK und ich denke auch, daß nV kaum so blöd sein wird, da zu sparen, wo mans wirklich sieht....


Das habe ich mich nicht getraut zu schreiben...war in meinem Posting zuerst auch drin...

J.S.Shadow

MadManniMan
2003-12-12, 15:54:15
Original geschrieben von ShadowXX
Das habe ich mich nicht getraut zu schreiben...war in meinem Posting zuerst auch drin...

Ich höre ... :D

Ailuros
2003-12-12, 17:12:00
Herzlichen Glueckwunsch fuer das OT :D

Und GeForces haben weniger LOD-Bias-Artefakte.

Nur gueltig bis zu NV2x.

Imo ist deine Argumentation etwas inkonsistent: 6x gamma corrected, sparsed multisampling kostet z. B. massig Transistoren. Erhöht den Realismus des Bildes. Hier haben sie die Prioritäten imo richtig gesetzt. Bei den Texturfiltern hingegen haben sie gespart, wo es nur geht.

Stimmt auch. Ich koennte vieles ueber Feature-Vernachlaessigungen beim seligen 3dfx auflisten, aber ich bleib mal beim Vaporware-Spectre stehen:

2x/4x sparse MSAA kombiniert mit einem "quasi" Anisotropischen Filter der erstmal den Titel gar nicht verdiente und war nur in mit eingeschaltetem MSAA operativ da er durch die Multisampling buffer lief. High end haette 500$ US bei launch gekostet. Und bevor jetzt die vielen "aber aber" wieder anrennen, erstmal sah die Implementation bekloppt aus, zweitens war es ein teures high end Produkt und drittens haette es sich gegen NV20/5 schlagen muessen wo wohl der Vergleich was anisotropic betrifft wie Tag und Nacht ist. Genau die gleiche Firma die 1999 immer noch auf post filtered 16bpp reiten musste....

Wishnu
2003-12-12, 18:09:38
@Topic
Ich finde es auch nicht gut, dass mit einem Pseudofeature geworben wird, aber das hat leider schon lange Tradition. Ich erinnere mich da dunkel an 32Bit-Rendering (damals zu langsam, um in der Praxis sinnvoll einzusetzen) oder T&L (kein Nutzen mangels Software) usw. Sprich es ist eigentlich leider normal, verarscht zu werden, da dürfen sich alle Hersteller mal an die Nase fassen...