PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Inside ATIs R420


Leonidas
2004-05-04, 14:54:43
Link (http://www.3dcenter.de/artikel/r420_technik/)

Lustiger Troll
2004-05-04, 14:59:38
ähhhm braucht es dafür 2 Threads? ;)

/Edit sorry der andere sind ja die Benches :D.

ow
2004-05-04, 15:06:34
.

Leonidas
2004-05-04, 15:14:42
War online ... auf der ORG. Der DE ist der neue Server, dort ist es erst grad hin transferiert worden :-))). Und die Startseite war noch nicht angepasst ... ok, nun alles verlinkt.

Salvee
2004-05-04, 15:48:12
Erstmal überfliegen :)

Kleine Fehlerchen:

Seite 1:

'welches wegen dem Supersampling-Verfahren langsam ist und zudem aufgrund eines Bigs in der Smoothvision-Hardware'

'Ehrlich gesagt bezweifeln wir, dass das eine gute Idee ist'

'4x mit einer alternierenden Maske könnte theoretisch zwar die gleiche Qualität wie 8x "sparsed" liefern.' (ist irgendwie kein vollständiger Satz)

Seite 2:

'Man verwechlse bitte'

'wird als Version 2.x behandelt, sonfern die Hardware nicht schon'

'Die Performance vom R360 (Radeon 9600) wäre etwa 10% besser' ->RV360

'Denkbare zukünftige Chips die auf den Einstiegs- oder Mainstream-Markt abziehlen'

'was die Leistung verglichen mit dem R360 erhöht.' ->RV360

'Dabei handelt es sich eigentlich um den gelcihen Chip.'

'oder ebene eine einzelne defekte Quad-Pipe haben darf'

' 6x AA bietet eine sehr gute Glättung von Polyginkanten'

Simon Moon
2004-05-04, 15:53:20
War nicht die Parhelia vor der R9700 mit einer 256Bit Speicheranbindung auf dem Markt?

Salvee
2004-05-04, 16:00:00
Seite 3 ganz unten:

'(wobei inkauf genommen wird, dass vielleicht X einige Units ausgelastet werden können)' ->ich vermute, hier (X) fehlt ein 'nur'

Seite 4:

'genau wie für die morgigen (beispielsweise Halflife 2) ist der R420 ein natürlich trotzdem ein interessantes Produkt.' ->ein 'ein' zuviel

aths
2004-05-04, 16:01:11
Original geschrieben von El-Diablo
War nicht die Parhelia vor der R9700 mit einer 256Bit Speicheranbindung auf dem Markt? Das stimmt :bonk:

Edit: Bis hierhin sind alle Fehler Leo gemeldet. Bitte nur neue Fehler vermerken (Leo kann die Korrekturen jetzt nicht sofort einpflegen.)

BodyLove
2004-05-04, 16:12:36
im Fazit:

...so bin ich persönlich nicht davon überzeigt...

sonst, wie immer aths sehr guter und kritischer Artikel deinerseits.:up:

aths
2004-05-04, 16:16:03
Original geschrieben von BodyLove
sonst, wie immer aths sehr guter und kritischer Artikel deinerseits.:up: Kritisch?

[Kritischer aths]

Der R420 bietet an Features Bugfixing beim HyperZ und F-Buffer, einen erhöhten Instruction Count und zusätzliche Temp-Register im Pixelshader, und als einziges neues Feature 3Dc. Dieses ist aber eigentlich nur ein 2-Kanal-DXT5 und seine Nutzung belastet den Pixelshader zusätzlich, so dass das einzige wirklich neue Feature nicht wirklich ein wirklich neues Feature ist.

ATI bringt nach reichlich 1 1/2 Jahren an Neuem:

genau, nichts. Nichts außer mehr Leistung. Die gleiche, teilweise problematische Bildqualität wird jetzt als "High Definition" vermarktet. Und daraus soll man nun einen Artikel stricken.

[/kritischer aths]

BodyLove
2004-05-04, 16:33:12
Original geschrieben von aths
Kritisch?

[Kritischer aths]

Der R420 bietet an Features Bugfixing beim HyperZ und F-Buffer, einen erhöhten Instruction Count und zusätzliche Temp-Register im Pixelshader, und als einziges neues Feature 3Dc. Dieses ist aber eigentlich nur ein 2-Kanal-DXT5 und seine Nutzung belastet den Pixelshader zusätzlich, so dass das einzige wirklich neue Feature nicht wirklich ein wirklich neues Feature ist.

ATI bringt nach reichlich 1 1/2 Jahren an Neuem:

genau, nichts. Nichts außer mehr Leistung. Die gleiche, teilweise problematische Bildqualität wird jetzt als "High Definition" vermarktet. Und daraus soll man nun einen Artikel stricken.

[/kritischer aths]

Das ist nicht kritisch, sondern viel eher sarkastisch.;) Aber gut zu lesen, dass es jemand im Netz gibt, die es stark anzweifeln, dass an der BQ vom R420 nichts verändert wurde.

aths
2004-05-04, 16:38:42
Original geschrieben von BodyLove
Das ist nicht kritisch, sondern viel eher sarkastisch.;) Aber gut zu lesen, dass es jemand im Netz gibt, die es stark anzweifeln, dass an der BQ vom R420 nichts verändert wurde. Die Aussage (keine Verbesserungen bzgl. AA und AF) stammt von ATI selbst.

BubbleBoy
2004-05-04, 16:55:33
.

aths
2004-05-04, 16:58:55
Original geschrieben von BubbleBoy
Warum wird das Kind nicht beim Namen genannt? Anstatt in jedem dritten Absatz (auch in anderen Artikeln) umständliche Formulierungen zu benutzen sagt einfacht ATI/Nvidia/R420/GFX6800/... . Ich persönlich empfinde es nur als Wichtigtuerei wenn solche Phrasen ständig auftauchen. Sprachlich gesehen ist der Artikel Horror. Ich hätte zwei Tage mehr Zeit gebraucht. Umständliche Formulierungen bitte ich deshalb zu entschuldigen.

BubbleBoy
2004-05-04, 17:04:05
.

Frank
2004-05-04, 17:16:50
Original geschrieben von El-Diablo
War nicht die Parhelia vor der R9700 mit einer 256Bit Speicheranbindung auf dem Markt? Der erste 3D Chip mit 256Bit Speicherinterface war wohl eher der Neomagic MagicMedia 256XL+ (oder der Number Nine Ticket to Ride bei 32MB WRAM).

Ansonsten:
Danke aths für den sehr guten Artikel. :)

Demirug
2004-05-04, 17:18:10
Ich fang dann mal an.

3dc:

-Der Z-Wert ist sogar äussert genau (für einen Normal vektor) weil er ja berechnet wurde. Normalerweise haben die aus einer Normalmap ausgelesenen Texturen ja meist nicht die Länge 1. Die Frage ist daher eher wie genau X und Y sind? Das wiederum dürfte davon abhängen wie unregelmässig die Normalmap.

- Schade fand ich das du nicht die von ATI angegeben 4:1 Kompression kritisiert hast.

- PS: Der 2 Komponeten Trick lässt sich auf einem NV40 übrigens dafür einsetzten einen hochwertige FP16 normalmap zum gleichen Speicher und Bandbreitenverbrauch wie eine normale XYZW Normalmap mit 8 Bit Festpunkt Werten zu erhalten.

Verbesserte Pixelshader:

- Die 1536 Anweisungen ergeben sich anders. 512 Texturanweisungen, 512 Vektor3 Anweisungen und 512 Skalar Ops. Im Prinzip wurde auch schon beim R3XX so aufgeteilt 32+64+64. Das interne Anweisungsformat besteht wohl darauf das jede der 3 Einheiten (Textur, Vektor3 und Skalar) ein eigenen Programm hat.

- 32 Temps. Mit Verlaub aber die Begründung das man dadurch längere Anweisungsblöcke zwischen die Textursamples pressen kann ist Blödsinn. Man kann auch mit wenigen Temps lange Codesequenzen schreiben. ATI braucht die vielen Temps aus einem ganz anderen Grund. Da man immer noch ein Dependent Read Limit hat muss man immer so viele Textursamples wie möglich am Stück holen. Da man jedes Sample in eine Tempvariable speichern muss braucht man eben einige davon. Die 32 reichen genau aus um 512 Textursamples mit jeweils einem Skalar auszuführen.

Was geblieben ist:

- "Centroid sampling" hat natürlich was mit den Pixelshader rechnungen zu tun. Es wird ja beim festlegen der Eingangsregister benutzt und gibt an wie der Pixelshader die entsprechenden Register interpolieren soll. Deswegen kann es auch nur im Pixelshadercode gesetzt werden. Für Prozedurale Texturen braucht man ja auch Koordinaten die nicht über den Polyrand hinausgehen auch wenn diese niemals zum auslesen einer Textur benutzt werden.

Die Pipeline:

Mit der Effizienz Betrachtung habe ich ein grosses Problem, So wie es hier aufgeführt wird hätte ein Chip mit nur einer Einheit die alles kann (Texturops, Vektorops, Spezialfunktionen) aber eben nur immer eine Sache davon pro Takt eine maximale Effizienz von 100%. zum Beispiel gibt nVidia für den NV30 wenn es keine Tempprobleme gibt für den Shadercore eine Auslastung von 100% an weil er ja in jedem Takt etwas tut. Das wäre nach dem hier benutzten Model dann auch eine Effizienz von 100%.

Aber selbst wenn wir dabei bleiben müssen wir Äpfel mit Äpfel vergleichen. ATI gibt 5 Anweisungsslots pro Takt an. 1 Textur, 2 Vektor3 und 2 Skalar. Von den Vektor3 und Skalar kann jeweils ein Slot nur für eine einfache Operation genutzt werden (das hat ATI allerdings vergessen dazu zu schreiben. Wenn es dumm läuft kann man von diesen 5 Slots nur einen nutzen was dann 20% Effizienz wäre. Bei nVidia sind es nun 4 Slots (jeweils 2 in SU0 und SU1) und im schlimmsten Fall kann man ebenfalls nur einen nutzen also 25% Effizienz. Folgt man also den Beschreibungen der IHVs hat ATI ein grösseres Problem ihere 5 Slots voll zu bekommen. Da man aber mit dem IHV Beschreibungen Äpfel mit Birnen vergleicht muss man IMHO das ganze auf einer viel tieferen Eebene Untersuchen. Als dort wo die Skalaren MULs, ADDs und SFUs sind.

So jetzt habe ich aber erst mal genug kritisiert.

KingZer0
2004-05-04, 17:53:30
Was haltet ihr von der unterschiedlichen Implementierung von z resp. stencil operationen im nv40 und r420.

Bekanntermaßen sind die pipelines des nv40 in einem z/stencil only pass in der lage pro pipe 2 stencil/z werte zu berechnen während hingegen beim r420 die pipelines einen z/stencil wert berechnen können und die multisamplingansialiasing einheit des r420 ebenfalls.

In der summe sind also beide dazu inder lage 32Z/stencil werte zu berechnen aber unter völlig anderen umständen.

Beim R420 ist die Irnonie an der Sache das offensichtlich durch Hinzuschalten von AntiAliasing die Z/Stencil Power zunimmt.

Rellik327
2004-05-04, 18:06:52
Obwohl es sicherlich noch ein paar Wochen dauert, bis man ein endgültiges und vollständiges Bild der neuen Karten hat, schockiert mich die schlichte ungenauigkeit bzw Falschaussagen des Artikels. Die 3D Center Test waren eigentlich immer sehr gut und besonders genau. Aber die nicht nachvollziehbaren Kritiken der Anisotropen Qualität(in Bezug auf die GF3/4 R200/300/350/420 NV38/40 chips) machen einen stuzig.

Auch die Tatsache, das es einfach nicht stimmt das ATI in den Treibern nicht eine ähnliche Option wie NVidia anbietet, wenn es um die Aktivierung des Trilinearen Filters bei Anisotropen Filtern geht.

Ich zitiere:

"SMOOTHVISION HD anisotropic filtering supports 2, 4, 8, or 16 texture samples per pixel. Each setting can be used in a performance mode that uses bilinear samples, or a quality mode that uses trilinear samples There is also a new capability to support intermediate modes, to help strike the ideal balance between performance and quality."

Und dann noch das Thema 24bit rendering:

All operations are processed with a full 24 bits of precision for each component. The RADEON X800 driver software ensures optimal utilization of these ALUs by analyzing and reordering incoming pixel shader instructions wherever possible, without affecting the output.”

Es wird also NICHT auf 32bit umgeschaltet. Die GF Serie muß also entweder Qualität niedriger ansetzten (16bit) oder mit 32bit Leistung verschenken, da momentan DX9 mit 24 bit rendert. Das MS gerade dabei ist, IHRE EIGENE SPEC auf 32bit zu ändern (wohl ab DX9.0c) ist erst für ATI ein Problem, wenn ein Spiel dies nutzt, bzw voraussetzt.

Desweitern sind die Videofähigkeiten der X800 ebenso wie die der NV40 einen schritt weiter als die Vorgänger. Und programmierbar ist die Engine auch

VIDEOSHADER HD is a key feature of the video processing engine that allows it to tap into the power of the programmable pixel shader units of the RADEON X800 3D core. This allows shaders to be used to accelerate many different video processing tasks, including noise removal (VIDEOSOAP), de-blocking (FULLSTREAM), adaptive de-interlacing, frame rate conversion, color space conversion, and much more. VIDEOSHADER HD also provides the flexibility required to support all of the latest video formats, including MPEG1/2/4, Real, DivX, and WMV9.



Wer das adaptive deinterlacing der R350 Kerne kennt, weiß was das für DVD-Ausgabe bedeutet.

Was das Testsystem angeht, so finde ich das es absolut ok ist, mal ein System zu sehen, was eher dem Durchschnitt entspricht. Allerdings sind die neuen Karten von NVidia und ATi wohl eindeutig mit solchen Systemen nicht optimal genutzt. In Anbetracht der Tatsache, das auch Tests auf FX-53 Systemen noch CPU limitiert waren, bin ich gespannt wie weit die Karten noch skalieren werden.

Soviel erstmal von mir, mal sehen was die anderen Reviews so rauskriegen.
Infos von: http://www.ati.com/companyinfo/glossary/includes/list.html#smartshaderHD

EDIT:

Was 3Dc angeht, so verweise ich auf den legendären S3TC mod
bei UT, mit dem man die High Res Texturen der 3ten CD einsetzten konnte. Dadurch war eine deutliche Texturverbesserung zu erreichen die sogar schneller war als die normalen Texturen (jedenfalls auf meinem damaligen Radeon/PIII-700 System)

Ich denke, ähnliche Optionen stehen nun Entwicklern offen.

Demirug
2004-05-04, 18:14:05
Original geschrieben von KingZer0
Was haltet ihr von der unterschiedlichen Implementierung von z resp. stencil operationen im nv40 und r420.

Bekanntermaßen sind die pipelines des nv40 in einem z/stencil only pass in der lage pro pipe 2 stencil/z werte zu berechnen während hingegen beim r420 die pipelines einen z/stencil wert berechnen können und die multisamplingansialiasing einheit des r420 ebenfalls.

In der summe sind also beide dazu inder lage 32Z/stencil werte zu berechnen aber unter völlig anderen umständen.

Beim R420 ist die Irnonie an der Sache das offensichtlich durch Hinzuschalten von AntiAliasing die Z/Stencil Power zunimmt.

Ich fürchte da hast du was falsch verstanden.

Beide können zwar bis zu 32 Z/Stencil Ops pro Takt aber nur der NV40 kann das auch ohne AA ausnutzen. Der R420 kann ohne AA nur 16 Ops/Takt. Mit 2xAA bringen es dann beide auf 16 Pixel mit jeweils 2 Ops pro Takt.

KingZer0
2004-05-04, 18:18:00
Es ist doch schon so das im Falle des R420 die Hinzunahme von AntiAliasing die Stencil/Z RAW Power erhöht oder etwa nicht?

Will heissen ein Doom3 das nach Prognosen exessiven Gebrauch von Stencil/Z Operationen macht dürfte bei einem Z/St Only Pass auf dem NV40 gute Results bringen und beim R420 unter Hinzunahme von 2fach AA ebenfalls höher liegen als ohne oder?

Demirug
2004-05-04, 18:21:22
Original geschrieben von KingZer0
Es ist doch schon so das im Falle des R420 die Hinzunahme von AntiAliasing die Stencil/Z RAW Power erhöht oder etwa nicht?

Will heissen ein Doom3 das nach Prognosen exessiven Gebrauch von Stencil/Z Operationen macht dürfte bei einem Z/St Only Pass auf dem NV40 gute Results bringen und beim R420 unter Hinzunahme von 2fach AA ebenfalls höher liegen als ohne oder?

Beim R420 ist die Leistung (von der Bandbreite und den zusätzlichen Kantenpixel jetzt mal abgesehen) beim Z/Stencil Pass bei 2xAA identisch zu der Leistung ohne AA.

Beim NV40 dagegen ist die Leistung ohne AA doppelt so hoch wie mit 2xAA.

Burgstall
2004-05-04, 18:21:56
Wie bewertet man nun eine GPU? Für mich gilt: Leistung ist gut, und Features sind nett wenn man sie hat, doch ich bin zufrieden wenn die Performance "reicht" und die Features "brauchbar" sind; und gucke auf Bildqualität. R420 bietet ziemlich alte, aber nach wie vor beste erhälte Antialiasing-Technologie. Da ich gegenüber Aliasing-Artefakten sehr empfindlich bin, stellt mich das 6x sparsed Edge-AA weiterhin voll zufrieden.


Wo ist der Fehler (mal abgesehen von der sprachlichen Unzulänglichkeit ;))?

aths
2004-05-04, 18:23:50
Original geschrieben von Demirug
Ich fang dann mal an.

3dc:

-Der Z-Wert ist sogar äussert genau (für einen Normal vektor) weil er ja berechnet wurde. Das steht auch unter Vorbehalt.

Der Z-Wert wird berechnet in dem angenommen wird, dass die Gesamtlänge 1 ist. X und Y können aber durch das LERP verfälscht sein. Imo könnte das Auswirkungen auf Z haben, oder liegt hier ein Denkfehler vor?
Original geschrieben von Demirug
- Schade fand ich das du nicht die von ATI angegeben 4:1 Kompression kritisiert hast.Das rechne ich noch mal nach und hole es ggf. nach :)


Original geschrieben von Demirug

- Die 1536 Anweisungen ergeben sich anders. 512 Texturanweisungen, 512 Vektor3 Anweisungen und 512 Skalar Ops.Hier wurde ich anders gebrieft.


Original geschrieben von Demirug
- 32 Temps. Mit Verlaub aber die Begründung das man dadurch längere Anweisungsblöcke zwischen die Textursamples pressen kann ist Blödsinn. Man kann auch mit wenigen Temps lange Codesequenzen schreiben. ATI braucht die vielen Temps aus einem ganz anderen Grund. Da man immer noch ein Dependent Read Limit hat muss man immer so viele Textursamples wie möglich am Stück holen.Mein Ansatz war, dass der Shader-Recompiler hier besser optimieren könnte, wenn es mehr Temps gibt. Stimmt das denn nicht?

Das mit der Effizienz-Betrachtung beruht nicht auf ATIs Zählweise mit 5 Instruktionen :) NV40 holt imo trotz höherer Ineffizienz mehr aus der Pipe raus, eben weil sie mehr Recheneinheiten hat.

Original geschrieben von Demirug
So jetzt habe ich aber erst mal genug kritisiert. Danke für die Anregungen. Wenn meine Kopfschmerzen nachlassen, baue ich einiges davon noch ein, bzw. werde weiteres in einem zukünftigen Artikel einfließen lassen.

KingZer0
2004-05-04, 18:28:50
@demirug

The different approaches these architectures take mean that each will excel in different ways when dealing with z or stencil data. Under R420, z/stencil speed will be maximized when antialiasing is enabled and will only see 16 z/stencil operations per clock under non-antialiased rendering. NV40 will achieve maximum z/stencil performance when a z/stencil only pass is performed regardless of the state of antialiasing.

Zitat: anandtech

Demirug
2004-05-04, 18:35:17
Original geschrieben von aths
Das steht ja auch unter Vorbehalt.

Der Z-Wert wird berechnet in dem angenommen wird, dass die Gesamtlänge 1 ist. X und Y können aber durch das LERP verfälscht sein. Imo könnte das Auswirkungen auf Z haben, oder liegt hier ein Denkfehler vor?

X und Y sind auch bei einer nicht komprimierten Normalmap nicht genau. Bevor man einen Vektor aber in einer Normalmap speichert hatte dieser einmal genau die länge 1. Der Z Wert des Vektor passt also am Ende genau so den möglicherweise falschen X und Y Werte. Man kann also den Fehler nicht auf den Z-Wert begrenzen sondern muss von einer Abweichung des gesamten Vektors sprechen.

Das rechne ich noch mal nach und hole es ggf. nach :)

Lass dich aber nicht von der Milchmädchenrechnung von ATI täuschen.

Hier wurde ich anders gebrieft. Meine Variante steht so aber auch in den Unterlagen und so wurde eben auch schon beim R300 gezählt.

Mein Ansatz war, dass der Shader-Recompiler hier besser optimieren könnte, wenn es mehr Temps gibt. Stimmt das denn nicht?

Der Recompiler muss grosse Sampleblöcke bilden und braucht dafür die Temps.


Das mit der Effizienz-Betrachtung beruht nicht auf ATIs Zählweise mit 5 Instruktionen :) NV40 holt imo trotz höherer Ineffizienz mehr aus der Pipe raus, eben weil sie mehr Recheneinheiten hat.

Hat nVidia wirklich mehr Recheneinheiten oder nicht nur einfach das gleiche auf mehr Einheiten verteilt?

Demirug
2004-05-04, 18:36:51
Original geschrieben von KingZer0
@demirug

The different approaches these architectures take mean that each will excel in different ways when dealing with z or stencil data. Under R420, z/stencil speed will be maximized when antialiasing is enabled and will only see 16 z/stencil operations per clock under non-antialiased rendering. NV40 will achieve maximum z/stencil performance when a z/stencil only pass is performed regardless of the state of antialiasing.

Zitat: anandtech

Willst du mich ärgern?

Anand schreibt in diesem Review soviel Blödsinn das man es eigentlich sofort löschen sollte. Der gute hat einfach keine Ahnung.

KingZer0
2004-05-04, 18:40:57
Wieso schreiben die Jungs Blödsinn?
Und wenn dem so ist warum empfehlt ihr euren Rezipienten (auch) den Artikel von anandtech zu konsultieren wenn es um die Performanceevaluierung der X800 Platinum geht?

Demirug
2004-05-04, 18:50:34
Original geschrieben von KingZer0
Wieso schreiben die Jungs Blödsinn?

So hart sich das jetzt auch anhören mag: Unfähigkeit.

Und wenn dem so ist warum empfehlt ihr euren Rezipienten (auch) den Artikel von anandtech zu konsultieren wenn es um die Performanceevaluierung der X800 Platinum geht?

Ich habe mit den beiden Artikel zum R420 hier nichts zu tun. Ergo bin ich auch nicht für irgendwelche Empfehlungen verantwortlich.

KingZer0
2004-05-04, 18:55:13
Kannst Du das anhand eines konkreten Beispiels etwas präzisieren denn ich denke für viele ist anandtech eine Institution im gesamten WorldWideWeb wenn es um Recherchen rund ums IT Business geht.

Wenn Du den Artikel zum R420 schon demontierst wäre es dann nicht fair wenigstens genauer zu artikulieren was daran so graupig ist? ;)

Quasar
2004-05-04, 19:03:30
Original geschrieben von aths
Hier wurde ich anders gebrieft.


Ich nicht und es steht ausdrücklich in den PDFs so drin. :|

Demirug
2004-05-04, 19:12:00
Original geschrieben von KingZer0
Kannst Du das anhand eines konkreten Beispiels etwas präzisieren denn ich denke für viele ist anandtech eine Institution im gesamten WorldWideWeb wenn es um Recherchen rund ums IT Business geht.

Wenn Du den Artikel zum R420 schon demontierst wäre es dann nicht fair wenigstens genauer zu artikulieren was daran so graupig ist? ;)

http://www.anandtech.com/video/showdoc.html?i=2044&p=4

Die Bilder von den Pixelshadern.

Anand stellt das ganze so dar als hätte der R420 zwei identische Shadereinheiten. Schaut man sich die ATI Folien an dann will ATI auch das man das glaubt. Leider ist das aber nicht so. Nur eine der beiden Einheiten ist eine vollständige Einheit. Die zweite kann nur ganz einfache Aufgaben erledigen.

In den NV40 Einheiten hat er dann einen 4 fache Skalarsplit eingezeichnet. Denn gibt es aber gar nicht. Die Mini-FPUs beim NV40 hat er völlig unterschlagen.

Und all das endet dann in der Aussage: "The bottom line is that R420 has the potential to execute more PS 2.0 instructions per clock than NVIDIA in the pixel pipeline because of the way it handles texturing"

Diese ist aber einfach nur falsch.

Die Beweissführung dafür ist mir jetzt aber zu aufwendig weil ich dafür einen mehrseitigen Artikel schreiben müsste der die Pipelines genau auseinader nimmt.

Rellik327
2004-05-04, 19:15:50
Obwohl ich den AT Artikel noch nicht gelesen habe(THG,HArdOCP,3Dcenter,Chip,Tech Report und Gamestar/Pc Welt aber schon) finde ich auch diese Aussage sehr merkwürdig. Ich lese nun seit 1997 regelmäßig Reviews und AT hat mit wenigen Ausnahmen eine wesentlich reinere Weste als der Rest. Lediglich DigitLife ist da besser weil oft umfassender berichtet wird.

Und bis jetzt hat lediglich der 3D Center DEUTLICHE Falschaussagen in seinem Artikel. Auch der Fazit zu 3Dc ist
inakzeptabel. Besonsders bei HL2 uznd Serious SAM sind die
Screenshots (zu sehen z.B. bei HardOCP) eindeutig. 3Dc ist
natürlich nicht annähernd so gut wie die theoretischen Möglichkeiten der NV40, aber diese dürften erst in 1,2 Jahren wirkliche Resultate bringen. 3Dc kann hingegen in diesem Jahr schon angewandt werden.

kmf
2004-05-04, 19:19:08
Original geschrieben von aths
Kritisch?

[Kritischer aths]

Der R420 bietet an Features Bugfixing beim HyperZ und F-Buffer, einen erhöhten Instruction Count und zusätzliche Temp-Register im Pixelshader, und als einziges neues Feature 3Dc. Dieses ist aber eigentlich nur ein 2-Kanal-DXT5 und seine Nutzung belastet den Pixelshader zusätzlich, so dass das einzige wirklich neue Feature nicht wirklich ein wirklich neues Feature ist.

ATI bringt nach reichlich 1 1/2 Jahren an Neuem:

genau, nichts. Nichts außer mehr Leistung. Die gleiche, teilweise problematische Bildqualität wird jetzt als "High Definition" vermarktet. Und daraus soll man nun einen Artikel stricken.

[/kritischer aths]

Sehe ich genauso.

Und, denkt ihr eigentlich noch an die "Eier..." (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=1524271#post1524271) :lol:

aths
2004-05-04, 19:31:25
Original geschrieben von Demirug
X und Y sind auch bei einer nicht komprimierten Normalmap nicht genau. Bevor man einen Vektor aber in einer Normalmap speichert hatte dieser einmal genau die länge 1. Der Z Wert des Vektor passt also am Ende genau so den möglicherweise falschen X und Y Werte. Man kann also den Fehler nicht auf den Z-Wert begrenzen sondern muss von einer Abweichung des gesamten Vektors sprechen.

Lass dich aber nicht von der Milchmädchenrechnung von ATI täuschen.

Meine Variante steht so aber auch in den Unterlagen und so wurde eben auch schon beim R300 gezählt.

Der Recompiler muss grosse Sampleblöcke bilden und braucht dafür die Temps.Ok, hierfür mache ich Korrekturen.



Original geschrieben von Demirug
Hat nVidia wirklich mehr Recheneinheiten oder nicht nur einfach das gleiche auf mehr Einheiten verteilt? Zumindest mehr MUL als ATI dürfte NV haben.

Quasar
2004-05-04, 19:35:52
Original geschrieben von Rellik327
Und bis jetzt hat lediglich der 3D Center DEUTLICHE Falschaussagen in seinem Artikel.

...als da wären?

KingZer0
2004-05-04, 19:42:00
@Demirug

Welche Seite steht Deiner Meinung nach für objektiven und investigativen IT-Journalismus?

Desweiteren würde ich mich freuen wenn Du mir ne Page nennst die Dir all diese technischen Fakten aus erster Hand bietet in Form verschiedener PDFs oder was auch immer.

Quasar
2004-05-04, 20:06:27
*hint* Ich glaube nicht, daß Demirug hier PDFs wiederkäut, wie wir gemeine Sterbliche. Immerhin ist er ein mythologischer Weltenschöpfer... ;)

Keel
2004-05-04, 20:17:29
Hmm, ich kann Aths ja verstehen, dass er sich mehr Features gewünscht hätte und enttäuscht ist (auch wenn nichts anderes zu erwarten war), aber der Ton kam trotz relativ "diplomatischer" Formulierungen recht negativ rüber. Aber warum eigentlich? Was haben uns die zusätzlichen Fähigkeiten der NV3x-Linie (ich meine jetzt nur PS2.x) gebracht? Doch wohl mal praktisch gar nichts. Werden die uns in absehbarer Zukunft etwas bringen? Es sieht nicht danach aus. Bei PS3.0 könnte es anders aussehen, aber ich bezweifle das etwas.
Ich bin der Meinung, dass ATI das schon ganz gut gemacht hat. 3Dc sollte schnell und einfach einzuführen sein und dürfte demzufolge auch relativ schnell praktischen Nutzen zeigen. Ob's was bringt, sei mal dahingestellt. Dass ATI sich auf Speed konzentriert hat und auf SM3.0 verzichtet hat, finde ich eigentlich nicht so schlimm. NV wird das wahrscheinlich kaum was bringen, vielleicht schaffen sie es, ein paar Devs dazu zu bringen, das zu nutzen, aber das wird dauern und wegen ein paar Games mach ich mir keinen Kopf.

Aber mal sehen, was NV aus seinen Features machen kann. :)

aths
2004-05-04, 20:31:07
Original geschrieben von Keel
Hmm, ich kann Aths ja verstehen, dass er sich mehr Features gewünscht hätte und enttäuscht ist (auch wenn nichts anderes zu erwarten war), aber der Ton kam trotz relativ "diplomatischer" Formulierungen recht negativ rüber.Das hängt davon ab, womit man vergleicht :) Ich bin bei einigen dafür bekannt, den Marktführer nicht mit Samthandschuhen anzufassen.

Original geschrieben von Keel
Aber warum eigentlich? Was haben uns die zusätzlichen Fähigkeiten der NV3x-Linie (ich meine jetzt nur PS2.x) gebracht? Doch wohl mal praktisch gar nichts. Wieso wird immer gefragt "Was bringt mir das jetzt sofort für meine Spielchen hier?" anstatt zu überlegen: "Da wir dieses Feature haben, was wird damit möglich?"

Die 2.X-Shader von der FX brachten NV in die Lage, jetzt 3.0 vor allen anderen zu haben. Pixelshader 1.4 versetzte ATI in die Lage, als erste 2.0 offerieren zu können.

Original geschrieben von Keel
Werden die uns in absehbarer Zukunft etwas bringen? Es sieht nicht danach aus. Bei PS3.0 könnte es anders aussehen, aber ich bezweifle das etwas.Was hat und Pixelshader 1.4 außerhalb der Max Payne 2-Spiegel gebracht? Nichts? Flossen nicht viele Ideen von 1.4 in die 2.0-Definition mit ein, von der wir heute profitieren, wie man u. a. bei Far Cry sieht?

Original geschrieben von Keel
Ich bin der Meinung, dass ATI das schon ganz gut gemacht hat. 3Dc sollte schnell und einfach einzuführen sein und dürfte demzufolge auch relativ schnell praktischen Nutzen zeigen.3Dc komprimiert effektiv 2:1. Sooo viele Bumpmaps hat man kaum, als dass das der entscheidende Vorteile bringen würde. Dafür kostet die Renormalisierung und die Rekonstruierung von Z Pixelshader-Leistung.

aths
2004-05-04, 20:34:06
Original geschrieben von KingZer0
@Demirug

Welche Seite steht Deiner Meinung nach für objektiven und investigativen IT-Journalismus?

Desweiteren würde ich mich freuen wenn Du mir ne Page nennst die Dir all diese technischen Fakten aus erster Hand bietet in Form verschiedener PDFs oder was auch immer. Demirug liest Bücher und Dokumente, die ansonsten kaum noch jemand versteht.

Wir von 3DCenter (Leonidas und ich) versuchen, objektiven und investigativen IT-Journalismus zu bieten. Natürlich gibt es da eine Lernkurve, höflich gesagt. Ohne Leute wie Demirug und andere würde ich heute noch etliche Zusämmenhänge falsch sehen.

Rellik327
2004-05-04, 20:49:35
@ Quasar:

wie in meinem errsten Post bereits erläutert, sind mehrere Behauptungen schlicht falsch. Hier einige Beispiele:

ZITAT: Anfangen wollen wir hier wieder mit der Radeon 9800XT sowie der Radeon X800 Pro. Hierbei gilt zu beachten, daß wir uns dafür entschieden haben, alle Vergleiche und Benchmarks bei beiden ATi-Karten unter der Einstellung des vollen trilinearen Filters zu betreiben, welche man mit dem rTool einstellen kann, was im übrigen auch bei der X800 Pro hervorragend (und nachweislich) funktioniert. Der Grund für diese Entscheidung liegt darin begründet, daß im default-Zustand der Treiber diese unter Direct3D, sofern die Applikation nichts anderes anfordert, bei anisotroper Filterung auf den Texturenstufen 1-7 keinen trilinearen, sondern nur noch einen blanken bilinearen Filter bietet:

Diese inzwischen altbekannte Optimierung der R3x0/RV3x0-Grafikchips taucht nun auch wieder bei den R42x-Chips auf - was aufgrund der Nähe der beiden Serien allerdings kaum verwundert. Wir halten solche Sachen wie den brilinearen Filter von nVidia allerdings schon für mehr als zweifelhaft, doch diese "Arbeitserleichterung" seitens ATi geht weit über das Maß einer noch halbwegs zulässigen "Optimierung" hinaus. Durch das Weglassen des kompletten trilinearen Filters zugunsten eines reinen bilinearen Filters verschafft sich ATi hier unserer Meinung nach einen zu hohen Vorteil.

Das ist schlichtweg falsch. ATI Whitepaper:(Das vorhandensein dieser Option wurde von mehreren Seiten bestätigt)

"SMOOTHVISION HD anisotropic filtering supports 2, 4, 8, or 16 texture samples per pixel. Each setting can be used in a performance mode that uses bilinear samples, or a quality mode that uses trilinear samples There is also a new capability to support intermediate modes, to help strike the ideal balance between performance and quality."

2. Beispiel:

Mehr Performance, aber kein echtes Feature- oder Architektur-Upgrade seit Radeon 9700 ist alles, was ATI aufzubieten hat. Leider auch keine Verbesserungen betreffs Bildqualität.

-3Dc Compression
-HDTV,MPEG,DIVX,REAL decoder (auch für WMV HD, was ein Hammerfeature ist.Und NV40 kann leider mit kein WMV-HD decoding)
-Unterstüzung für HDTV modi

Es stimmt zwar, das kein neuer Kern vorgestellt wurde, aber die R420 ist deutlich erweitert gegenüber der R300/350/360.
Und die Architektur IST ein Upgrade. Nicht nur die Pipelines, sondern auch die zusätlichen VPU´s sind eindeutige Erweiterungen.

Leider gibt es auch bei fast ALLEN Reviews wieder KEINE EINDEUTIGE AUSSAGE WELCHE EINSTELLUNGEN vorgenommen wurden.
Da speziell die ATI Treiber sich sehr variabel einstellen lassen, und der unterschied zwischen "Performance/default/Quality" und Custom extrem ist, sind auch die anderen Benchmarks nicht eindeutig einzuordnen.


Es wird wohl noch etwas dauern bis ein vollständiges Bild entsteht. Aber eins ist klar: Der aktuelle Test auf 3DCenter schreit nach einer Revision. Leonidas?


-

aths
2004-05-04, 20:53:37
Original geschrieben von Rellik327
-3Dc CompressionDas verschlechtert die BQ zunächst (da die Komprimierung nicht verlustfrei ist.) 3Dc spart 50% des Speicherplatzes für Normal Maps, was wie gesagt etwas zulasten der Qualität geht.

Was die Videofeatures angeht, würde ich erst mal abwarten, was wir davon wirklich zu sehen kriegen. "Fullstream" z. B. lässt sich meines Wissens nur mit proprietärer Software nutzen. Letztenendes ist das dann ein Software-Feature.

Demirug
2004-05-04, 20:59:58
Original geschrieben von aths
Zumindest mehr MUL als ATI dürfte NV haben.

Die R420 ALU kann einen LRP in einem Takt dafür braucht man entweder 2 MULs und einen ADD oder 2 ADD und einen MUL.

aths
2004-05-04, 21:05:29
Original geschrieben von Demirug
Die R420 ALU kann einen LRP in einem Takt Interessant.
Original geschrieben von Demirug
dafür braucht man entweder 2 MULs und einen ADD oder 2 ADD und einen MUL. Welche der beiden Möglichkeiten implementiert wurde, kannst du doch leicht herausfinden, oder? :)

Rellik327
2004-05-04, 21:11:35
aths:

Natürlich ist 3Dc verlustbehaftet. Das ist mp3 auch. Hast du dir allerdings mal die Screenshots angesehen? Durch das hinzufügen von details GEWINNT man eindeutig an Bildqualität, da die Figuren bzw Texturen detailierter sind. Wie zu sehen bei den Serious Sam Figuren hier:

http://www.hardocp.com/image.html?image=MTA4MzAzNjk0NGJ3UHFVM2NZQWJfNl8yX2wuanBn

http://www.hardocp.com/image.html?image=MTA4MzAzNjk0NGJ3UHFVM2NZQWJfNl8zX2wuanBn

Mir geht es hier nicht darum, irgendjemanden vor den Kopf zu stoßen. Ich bin nur für eine gründliche Beurteilung dieser neuen Karten (das gilt für alle Karten) unter realen Bedingungen. Und das sollte ja wohl im Interesse des 3DCenters liegen, oder?

aths
2004-05-04, 21:15:22
Original geschrieben von Rellik327
aths:

Natürlich ist 3Dc verlustbehaftet. Das ist mp3 auch. Hast du dir allerdings mal die Screenshots angesehen? Durch das hinzufügen von details GEWINNT man eindeutig an Bildqualität, da die Figuren bzw Texturen detailierter sind.Das wird mit größeren (detaillierteren) Normal Maps möglich. Mit 3Dc fressen die dann weniger zusätzlichen Speicherplatz.

Original geschrieben von Rellik327
Mir geht es hier nicht darum, irgendjemanden vor den Kopf zu stoßen. Ich bin nur für eine gründliche Beurteilung dieser neuen Karten (das gilt für alle Karten) unter realen Bedingungen. Und das sollte ja wohl im Interesse des 3DCenters liegen, oder? Real sind solche hochauflösenden Bumpmapping-Effekte auch ohne 3Dc möglich.

Texturkomprimierung sehe ich per se als wünschenswerte Option an, so halte ich 3Dc für einen netten Zusatz. Aber nicht für das Mega-Feature, dass es wert wäre, auf etlichen PDF-Seiten im Presse-Material ausgebreitet zu werden.

Demirug
2004-05-04, 21:19:46
Original geschrieben von aths
Welche der beiden Möglichkeiten implementiert wurde, kannst du doch leicht herausfinden, oder? :)

Nicht wirklich. Aber ich habe da noch was im Hinterkopf das es aufgrund einer anderen Sache die 2MUL+1ADD Variante sein muss.

Quasar
2004-05-04, 21:23:08
Original geschrieben von Rellik327
@ Quasar:

wie in meinem errsten Post bereits erläutert, sind mehrere Behauptungen schlicht falsch. Hier einige Beispiele:

Das ist schlichtweg falsch. ATI Whitepaper:(Das vorhandensein dieser Option wurde von mehreren Seiten bestätigt)

Da hast du etwas schlichtweg falsch verstanden. Natürlich gibt es die Qualitäts- oder Performance-Option im Treiber. Qualität filtert trilinear-anisotrop auf der ersten und bilinear-anisotrop auf allen weiteren Texturstages.
Performance hingegen filtert auch auf der ersten Texturstage bilinear.

Original geschrieben von Rellik327
-3Dc Compression
-HDTV,MPEG,DIVX,REAL decoder (auch für WMV HD, was ein Hammerfeature ist.Und NV40 kann leider mit kein WMV-HD decoding)
-Unterstüzung für HDTV modi

-3dc ist keine Qualitätsoption, sondern ein Kompressionsfeature. Es erlaubt schlicht, Normal-Maps mit weniger Speicherplatz auszukommen. Wenn in der Folge davon dann höher aufgelöste Normal-Maps genutzt werden, hat das primär nichts mit 3dc zu tun.
Genausogut könntest du behaupten, 512MB-Onboard GDDR3-RAM seien ein Qualitätsfeature, weil sie eben auch 256MB zusätzlichen Platz z.B. für höher aufgelöste Normal-Maps bieten. 3dc verringert im Gegenteil sogar die Performance, weil die Z-Werte erst noch im Pixelshader neu errechnet werden müssen, im Gegensatz zu gleich hoch aufgelösten, unkomprimierten Normal-Maps.

-Der ganze Encoding-Krams verbesser _wie genau_ die Qualität? Ich rede jetzt schon absichtlich nicht mehr von Spielen, weil's da komplett irrelevant ist. Im Gegentum sind etliche MC und iDCT-Varianten bekannt, die durch Approximationen die Bildqualität im Gegensatz zur Software-Lösung verschlechtern...

-HDTV-Unterstützung? Unterstützt auch meine R9600SE in diesem Rechner. Was erhöht daran die Qualität, wenn die X800 jetzt statt 50% CPU-Last (laß' es meinetwegen 99% sein) nur noch 33% Last auf der CPU verursacht?

Sorry, aber deine Argumente sprechen nicht dafür, daß es wirklich Falschaussagen dieser Art im Review gibt...

Demirug
2004-05-04, 21:31:03
Original geschrieben von aths
Texturkomprimierung sehe ich per se als wünschenswerte Option an, so halte ich 3Dc für einen netten Zusatz. Aber nicht für das Mega-Feature, dass es wert wäre, auf etlichen PDF-Seiten im Presse-Material ausgebreitet zu werden.

Was hätte man sonst auswalzen können?

3dc ist nett (wie jede Kompression) aber nicht Konsequent zu Ende gedacht weil man den Entwickler zusätzliche Arbeit aufbürdet die eigentlich nicht zwingend notwendig gewesen wäre.

aths
2004-05-04, 21:33:43
Original geschrieben von Demirug
Nicht wirklich. Aber ich habe da noch was im Hinterkopf das es aufgrund einer anderen Sache die 2MUL+1ADD Variante sein muss. Das hilft schon :)

Sind folgende Behauptungen deines Wissens richtig?

- NV40 bietet grob betrachtet nicht mehr Rechenunits als R300, aber ordnet diese Units in der Pipeline so an, dass unter Berücksichtung bestimmter Abhängigkeiten 2 (volle Vector4-) Instruktionen ausgeführt werden können.

- Im Detail hat NV40 dann doch mehr Rechenkraft pro Pipe: Zwei Mini-FPUs, sowie eine spezielle Mini-FPU an der TMU.

- Außerdem belegen einige Shader Instruktionen weniger Slots und damit weniger Takte, als beim R300/R420.

Demirug
2004-05-04, 21:40:51
Original geschrieben von aths
Das hilft schon :)

Sind folgende Behauptungen deines Wissens richtig?

- NV40 bietet grob betrachtet nicht mehr Rechenunits als R300, aber ordnet diese Units in der Pipeline so an, dass unter Berücksichtung bestimmter Abhängigkeiten 2 (volle Vector4-) Instruktionen ausgeführt werden können.

- Im Detail hat NV40 dann doch mehr Rechenkraft pro Pipe: Zwei Mini-FPUs, sowie eine spezielle Mini-FPU an der TMU.

- Außerdem belegen einige Shader Instruktionen weniger Slots und damit weniger Takte, als beim R300/R420.

1. Ja
2. Eine zusätzliche Mini-FPU (eine hat der R420 ja). Was die TMU angeht so habe ich den Verdacht (ist nur ein Gefühl weil es elegant wäre) das man die Skalierung schon beim Wandeln in das Filterformat vornimmt. Ob man das dann noch als Mini-FPU sehen will oder es in der Wandelstufe untergeht müsste man entscheiden. Wobei die Exponetenspielereien ja wirklich kaum ins Gewicht fallen.
3. Ich würde es anders herum formulieren. Man kann beim NV40 teilweise mehrere Pixelshader Anweisungen in einen Slot pressen.

Rellik327
2004-05-04, 21:41:43
nun, das die Hersteller bei ihren Präsentationen zu Übertreibungen neigen, steht außer Frage. Das gilt für NVidia und ATI. :-)

Insgesamt gesehen fällt mir nun nach dem studieren vieler Reviews auf, das die Ergebnisse sehr unterschiedlich sind.
Selbst auf ähnlichen Systemen gibt es teilweise heftige Differenzen. Mal sehen wie das in den nächsten Wochen sich einpendelt.

Sehr interessant: HardOCP hat den neuen betatreiber cat 4.5 auch für die 9800XT verwendet. Die Ergebnisse sind recht interessant, schafft es doch die 9800XT bei manchen Situationen sogar die GF6800Ultra deutlich zu schlagen.

Da die ein System verwenden, das meinem PC sehr ähnelt (gleiches board,ram) bin ich gespannt wie meine Benchmarks aussehen. Allerdings werde ich mich wohl noch 1,2 Monate gedulden müssen.

deekey777
2004-05-04, 21:46:06
Upps, hab mich verklickt!!!

aths
2004-05-04, 21:46:58
Original geschrieben von Demirug
2. Eine zusätzliche Mini-FPU (eine hat der R420 ja). Was die TMU angeht so habe ich den Verdacht (ist nur ein Gefühl weil es elegant wäre) das man die Skalierung schon beim Wandeln in das Filterformat vornimmt. Ob man das dann noch als Mini-FPU sehen will oder es in der Wandelstufe untergeht müsste man entscheiden. Wobei die Exponetenspielereien ja wirklich kaum ins Gewicht fallen.Das mit der Zahl der Mini-Alus für Shader Units kläre ich noch. Wäre doch blöd, wenn man mit dual issue ein MUL und sagen wir eine SFU bündeln will, und dann nicht bei jeder Instruktion einen Modifier kostenlos hat.

LovesuckZ
2004-05-04, 21:47:09
keine Ahnung ob das wichtig ist, aber xbitlabs.com meint, dass der r420 mit "calculations" staerker sei als der NV40:

http://www.xbitlabs.com/articles/video/display/r420_29.html

Gibt es dafür eine Erklärung, die außerhalb der These liegt, dass ATi jede mathematische Anweisung/Funktion pro Pipe berechnen kann?

aths
2004-05-04, 21:50:10
Original geschrieben von LovesuckZ
keine Ahnung ob das wichtig ist, aber xbitlabs.com meint, dass der r420 mit "calculations" staerker sei als der NV40:

http://www.xbitlabs.com/articles/video/display/r420_29.html

Gibt es dafür eine Erklärung, die außerhalb der These liegt, dass ATi jede mathematische Anweisung/Funktion pro Pipe berechnen kann? Kann NV40 auch, aber nicht pro Shader Unit, dafür gibt es zwei Shader Units (die sich ergänzen.)

Quasar
2004-05-04, 21:56:17
Original geschrieben von Rellik327
Sehr interessant: HardOCP hat den neuen betatreiber cat 4.5 auch für die 9800XT verwendet. Die Ergebnisse sind recht interessant, schafft es doch die 9800XT bei manchen Situationen sogar die GF6800Ultra deutlich zu schlagen.


Meinst du den einzelnen Benchmark FarCry in 1600x1200 4xAA und 16xAF, wo sie zwei FPS mehr hat? :|

Ansonsten hast du aber bemerkt, daß die Karten jeweils in unterschiedlichen Settings liefen, oder?

Demirug
2004-05-04, 22:00:38
Original geschrieben von LovesuckZ
keine Ahnung ob das wichtig ist, aber xbitlabs.com meint, dass der r420 mit "calculations" staerker sei als der NV40:

http://www.xbitlabs.com/articles/video/display/r420_29.html

Gibt es dafür eine Erklärung, die außerhalb der These liegt, dass ATi jede mathematische Anweisung/Funktion pro Pipe berechnen kann?

Diese Ausreiser (das einer Karte+Treiber ein bestimmter Shader einfach besser schmeckt) habe ich über die ganzen 1500+x Shader gesehen die für den PCGH Vergleich benutzt wurden. Ein richtige System konnte ich dabei allerdings nicht entdecken. Da ich den R300/R420 Shadercompiler als sehr ausgereift einstufe gehe ich einfach mal davon aus das der NV40 Compiler sich manchmal einfach noch versteigt. Beim Rightmark kann nVidia dann ja auch nicht nachprüfen was falsch läuft.

KingZer0
2004-05-04, 22:41:08
@aths & Demirug

Wie beurteilt ihr den/die Artikel von x-bitlabs?

Ich finde es faszinierend in welcher Perfektion Demirug scheinbar die Materie zu beherrschen scheint dabei würde mich interessieren wie sowas angefangen hat und welche Wege er eingeschlagen hat schließlich kommt man zu solcher Virtuosität doch nicht wie die Jungfrau zum Kind oder?

ODer war vielleicht schon sehr früh eine Affinität für die Mathematik erkennbar? ;)

Demirug
2004-05-04, 22:55:05
Original geschrieben von KingZer0
@aths & Demirug

Wie beurteilt ihr den/die Artikel von x-bitlabs?

Ich finde es faszinierend in welcher Perfektion Demirug scheinbar die Materie zu beherrschen scheint dabei würde mich interessieren wie sowas angefangen hat und welche Wege er eingeschlagen hat schließlich kommt man zu solcher Virtuosität doch nicht wie die Jungfrau zum Kind oder?

ODer war vielleicht schon sehr früh eine Affinität für die Mathematik erkennbar? ;)

X-Bit labs hat sich leider auch von ATI leimen lassen. Warum schaut eigentlich niemand bei einem neuen Chip nochmal in die die Presse Unterlagen vom Vorgänger?

Von der Perfektion bin ich noch weit weg. Man sagt mir allerdings nach das ich ein gutes Gedächtniss habe und das Talent eine Vielzahl von Informationen in den richtigen Zusammenhang zu bringen. Eine gewisse Affinität im Bereich der Mathematik kann ich nicht abstreiten wobei es aber eher schon von Anfang an die Informatik war.

KingZer0
2004-05-04, 22:57:06
Ich möchte gerne angewandte Informatik auf Bachelor studieren aber wenn ich mir Deine Postings hin und wieder anschaue und mein mageres Talent in Sachen Mathematik damit vergleiche bekomme ich es echt mit der angst zu tun :-/

Quasar
2004-05-04, 22:57:51
Original geschrieben von Demirug
X-Bit labs hat sich leider auch von ATI leimen lassen. Warum schaut eigentlich niemand bei einem neuen Chip nochmal in die die Presse Unterlagen vom Vorgänger?


*hrhr* Scheint irgendwie eine echte, intellektuelle Herausforderung zu sein...

Leonidas
2004-05-04, 22:59:17
Original geschrieben von Rellik327
Auch die Tatsache, das es einfach nicht stimmt das ATI in den Treibern nicht eine ähnliche Option wie NVidia anbietet, wenn es um die Aktivierung des Trilinearen Filters bei Anisotropen Filtern geht.

Ich zitiere:

"SMOOTHVISION HD anisotropic filtering supports 2, 4, 8, or 16 texture samples per pixel. Each setting can be used in a performance mode that uses bilinear samples, or a quality mode that uses trilinear samples There is also a new capability to support intermediate modes, to help strike the ideal balance between performance and quality."




Nein. Smoothvision HD ist ein Feature, keine Funktion des Treibers. Sprich: Der Chip und der Treiber mögen einen voll-trilinearen Filter unterstützen, doch es gibt kein offizielles Setting in den Control Panels des Treiber dafür.

Nebenbei: ATi nennt seine Optimierung sowieso immer "trilinear", obwohl es eigentlich "bi/trilinear" heissen müsste. Ergo ist der ATi-Spruch "Smoothvision HD macht trilinear" glatt wertlos.

Leonidas
2004-05-04, 23:04:24
Original geschrieben von Rellik327
Es wird also NICHT auf 32bit umgeschaltet. Die GF Serie muß also entweder Qualität niedriger ansetzten (16bit) oder mit 32bit Leistung verschenken, da momentan DX9 mit 24 bit rendert. Das MS gerade dabei ist, IHRE EIGENE SPEC auf 32bit zu ändern (wohl ab DX9.0c) ist erst für ATI ein Problem, wenn ein Spiel dies nutzt, bzw voraussetzt.




???

DX9 unterstützt schon immer 16, 24 und 32 Bit, da muss MS nix ändern deswegen. Und "DX9 rendert mit 24 Bit" ist falsch. DX9 rendert mit mindestens 24 Bit und kennt zusätzlich die Ausnahme 16 Bit. Ob man DX9 mit 1024 Bit rendert, bleibt dem Chiphersteller überlassen, DX9 hebt das nicht an (ok, übertriebenes Beispiel).

Leonidas
2004-05-04, 23:07:34
Original geschrieben von Demirug
Willst du mich ärgern?

Anand schreibt in diesem Review soviel Blödsinn das man es eigentlich sofort löschen sollte. Der gute hat einfach keine Ahnung.



Hast Deinen krassen Tag, nicht?




PS: Keine Wertung Deiner Rede, nur ein Scherz.

Leonidas
2004-05-04, 23:11:54
Original geschrieben von Rellik327
@ Quasar:

wie in meinem errsten Post bereits erläutert, sind mehrere Behauptungen schlicht falsch. Hier einige Beispiele:

ZITAT: Anfangen wollen wir hier wieder mit der Radeon 9800XT sowie der Radeon X800 Pro. Hierbei gilt zu beachten, daß wir uns dafür entschieden haben, alle Vergleiche und Benchmarks bei beiden ATi-Karten unter der Einstellung des vollen trilinearen Filters zu betreiben, welche man mit dem rTool einstellen kann, was im übrigen auch bei der X800 Pro hervorragend (und nachweislich) funktioniert. Der Grund für diese Entscheidung liegt darin begründet, daß im default-Zustand der Treiber diese unter Direct3D, sofern die Applikation nichts anderes anfordert, bei anisotroper Filterung auf den Texturenstufen 1-7 keinen trilinearen, sondern nur noch einen blanken bilinearen Filter bietet:

Diese inzwischen altbekannte Optimierung der R3x0/RV3x0-Grafikchips taucht nun auch wieder bei den R42x-Chips auf - was aufgrund der Nähe der beiden Serien allerdings kaum verwundert. Wir halten solche Sachen wie den brilinearen Filter von nVidia allerdings schon für mehr als zweifelhaft, doch diese "Arbeitserleichterung" seitens ATi geht weit über das Maß einer noch halbwegs zulässigen "Optimierung" hinaus. Durch das Weglassen des kompletten trilinearen Filters zugunsten eines reinen bilinearen Filters verschafft sich ATi hier unserer Meinung nach einen zu hohen Vorteil.

Das ist schlichtweg falsch. ATI Whitepaper:(Das vorhandensein dieser Option wurde von mehreren Seiten bestätigt)

"SMOOTHVISION HD anisotropic filtering supports 2, 4, 8, or 16 texture samples per pixel. Each setting can be used in a performance mode that uses bilinear samples, or a quality mode that uses trilinear samples There is also a new capability to support intermediate modes, to help strike the ideal balance between performance and quality."



Also nochmal: Wo steht hier konkret drin, daß ATi im Treiber einen *erreichbaren* Schalter hat, mit dem man einen voll-trilinearen Filter bekommt? BEIDES steht nicht in der ATi-Aussage drin. Es sei denn, Du willst sie dahingehend intepretieren, worauf ich sage, daß diese Aussage genau für diese Fehlinterpretation so ungenau geschrieben wurde.


Klartext: Was ist an unseren oben zitieren Aussagen falsch?

Filterte der R420 im default-Zustand bi/trilinear? JA.
Gibt es einen Schalter im CP, um das zu unterbinden? NEIN.

EOD

Leonidas
2004-05-04, 23:14:42
Original geschrieben von Rellik327
Leider gibt es auch bei fast ALLEN Reviews wieder KEINE EINDEUTIGE AUSSAGE WELCHE EINSTELLUNGEN vorgenommen wurden.
Da speziell die ATI Treiber sich sehr variabel einstellen lassen, und der unterschied zwischen "Performance/default/Quality" und Custom extrem ist, sind auch die anderen Benchmarks nicht eindeutig einzuordnen.




Die Aussage, es wurde im Treiber wie im Spiel die maximal mögliche BQ genommen, reicht doch wohl, oder nicht? Zudem steht der ATi-Treiber schon auf der Max-Qualität - bis auf die nicht vorhandene Option, einen voll-trilinearen Filter einzustellen. Was wir natürlich trotzdem getan haben.

Genaues lesen des Artikels hilft. Wer natürlich nur die Benchmark-Seiten liest, der muss das natürlich überlesen.

Leonidas
2004-05-04, 23:14:55
Original geschrieben von Rellik327
Es wird wohl noch etwas dauern bis ein vollständiges Bild entsteht. Aber eins ist klar: Der aktuelle Test auf 3DCenter schreit nach einer Revision. Leonidas?



Weshalb konkret?

BBig
2004-05-05, 01:40:09
Original geschrieben von aths
Das hängt davon ab, womit man vergleicht :) Ich bin bei einigen dafür bekannt, den Marktführer nicht mit Samthandschuhen anzufassen.

Wieso wird immer gefragt "Was bringt mir das jetzt sofort für meine Spielchen hier?" anstatt zu überlegen: "Da wir dieses Feature haben, was wird damit möglich?"

Die 2.X-Shader von der FX brachten NV in die Lage, jetzt 3.0 vor allen anderen zu haben. Pixelshader 1.4 versetzte ATI in die Lage, als erste 2.0 offerieren zu können.

Was hat und Pixelshader 1.4 außerhalb der Max Payne 2-Spiegel gebracht? Nichts? Flossen nicht viele Ideen von 1.4 in die 2.0-Definition mit ein, von der wir heute profitieren, wie man u. a. bei Far Cry sieht?

3Dc komprimiert effektiv 2:1. Sooo viele Bumpmaps hat man kaum, als dass das der entscheidende Vorteile bringen würde. Dafür kostet die Renormalisierung und die Rekonstruierung von Z Pixelshader-Leistung.

- Vielleicht eines kurz vorweg: ich bin weder Nvidia-ner noch Ati-ist, noch nicht einmal ein Gamer - ich bin Linux-er und mit meiner G400 immernoch zufrieden. (Auch wenn ich zugeben muß, daß ich schon mal über ein upgrade nachgedacht habe, nachdem ich gesehen habe, was man heute schon alles live rendern kann!) -


Markting technisch ist die Karte von ATI ein Glanzleistung!
Warum? - Aus drei Gründen:
[list=1]
- das Designteam (für die neue Graka-Gen, die jetzt released wurde) hat keine "feature-mäßge"-next-gen Graka hinbekommen, die an das Lesitungsniveau der R3XX anschließen könnte. Also mußte ATI sich was einfallen lassen, das alte Design mußte "herhalten".

- Also wurde maßlos auf Speed optimiert und - das steht außer Frage - haben sie erstklassig gemacht, sodaß - wie viele ja anbringen, wenn es um eine Graka geht, die man jetzt kauft will - die R420 hier und jetzt besser als die 6800 dasteht!

- Dadruch, daß kaum neue Features hinzugekommen sind, wird die Entwicklung für zukünftige Spiele, auf den "kleinsten gemeinsamen Netter" gebracht - was wiederum ATI zum Vorteil gereicht, da sie die "bisherigen Standards" "voller" sprich besser ausschöpfen!

==> Man könnte es auch böse - *eg* - vormulieren und sagen, daß ATI nicht nur nicht die technische Weiterentwicklung fördert/ unterstützt, sondern sie sogar behindert. Das ist mein persönliches Fazit, wobei ich auch sagen muß, daß GFX außerhalb vom Gimp nicht meine Welt sind.
[/list=1]


Diesen Eindruck habe ich bekommen, "wollte" ich mal loswerden, gruß Bbig

zeckensack
2004-05-05, 04:11:44
Seite 1, vierter Absatz:

Neben solcher Rohleistung bot die Radeon 9700 als erstes Karte DirecxtX9-Beschleunigung, und gegenüber Radeon 8500 verbesserte anisotrope Filterung (verringerte Winkelabhängigkeit, trilineares AF), und spitzenmäßiges Antialiasing welches bis heute ohne Beispiel ist.

?(

Vielleicht verlässt mich so langsam mein Sprachempfinden, aber das klingt für mich etwas komisch.
"beispielhaft"? :kratz2:

aths
2004-05-05, 09:05:01
Original geschrieben von Rellik327
Es wird also NICHT auf 32bit umgeschaltet. Die GF Serie muß also entweder Qualität niedriger ansetzten (16bit) oder mit 32bit Leistung verschenken, da momentan DX9 mit 24 bit rendert. Das MS gerade dabei ist, IHRE EIGENE SPEC auf 32bit zu ändern (wohl ab DX9.0c) ist erst für ATI ein Problem, wenn ein Spiel dies nutzt, bzw voraussetzt.FP24, genauer gesagt, s16e7 ist Mindestvoraussetung für DX9, FP16 (s10e5) Mindestvoraussetzung für _PP. Genauer zu rechnen ist nur ein Vorteil. Mit FP32 wird außerdem keine Leistung verschenkt, FP32 kostet lediglich mehr Transistoren als FP24.

DX9 "rendert" nicht in 24 Bit. Die Hardware rendert.

aths
2004-05-05, 09:06:42
Original geschrieben von zeckensack
Seite 1, vierter Absatz:

Neben solcher Rohleistung bot die Radeon 9700 als erstes Karte DirecxtX9-Beschleunigung, und gegenüber Radeon 8500 verbesserte anisotrope Filterung (verringerte Winkelabhängigkeit, trilineares AF), und spitzenmäßiges Antialiasing welches bis heute ohne Beispiel ist.

?(

Vielleicht verlässt mich so langsam mein Sprachempfinden, aber das klingt für mich etwas komisch.
"beispielhaft"? :kratz2: Beispiellos :)

q@w
2004-05-05, 10:02:47
Original geschrieben von aths
Beispiellos :)

...und stimmt nichtmal.

Das SuperScene-Anti-Aliasing der Wildcat4-Serie ist in meinen Augen wohl noch einen Tick hübscher.

;Q

aths
2004-05-05, 10:20:22
Original geschrieben von q@w
...und stimmt nichtmal.

Das SuperScene-Anti-Aliasing der Wildcat4-Serie ist in meinen Augen wohl noch einen Tick hübscher.Welcher Gamer hat eine Wildcat? Aber gut, die Stelle präzisiere ich.

mboeller2
2004-05-05, 10:41:39
Original geschrieben von aths
Kritisch?

[Kritischer aths]

Der R420 bietet an Features Bugfixing beim HyperZ und F-Buffer, einen erhöhten Instruction Count und zusätzliche Temp-Register im Pixelshader, und als einziges neues Feature 3Dc. Dieses ist aber eigentlich nur ein 2-Kanal-DXT5 und seine Nutzung belastet den Pixelshader zusätzlich, so dass das einzige wirklich neue Feature nicht wirklich ein wirklich neues Feature ist.

ATI bringt nach reichlich 1 1/2 Jahren an Neuem:

genau, nichts. Nichts außer mehr Leistung. Die gleiche, teilweise problematische Bildqualität wird jetzt als "High Definition" vermarktet. Und daraus soll man nun einen Artikel stricken.

[/kritischer aths]


Unterschreib !!

So wie es aussieht hatte ATi beim R400 wirklich extreme Probleme, da sie entgegen aller früheren Generationssprünge nur einen "aufgeblasenen" R300 als Notfalllösung auf den Markt bebracht haben. Genausogut hätten sie eine 2xR360-Karte mit 512MByte auf den Markt bringen können. ATi wird also wie von nggalai oder XMas auf Beyond3D ausgesagt direkt zu SM4.0 springen.

Was mir am Artikel noch fehlt, aber vielleicht nicht ganz zu einem "Inside R420" Artikel dazu gehört ist eine Betrachtung der Bandbreite. Beide R420-Versionen sind extrem Bandbreitenbegrenzt da sie ja nicht wie der NV40 eine stark verbesserte Kompression unterstützen sondern mit einer möglicherweise geringfügig aufgebohrten RV350-Kompression +HirZ arbeiten müssen :


R9700Pro : 325 x 8 / 310 = 8,4

X800Pro : 475 x 12 / 450 = 12,67

X800XT : 520 x 16 / 560 = 14,86


Und da der R420 gegenüber einer R300 nur eine unwesentlich bessere HyperZ-Version ala RV350 hat sollte der Bandbreitenbedarf pro MPixel auch fast genauso hoch sein. Eine X800Pro würde also glatt mehr als 600MHz schnellen Speicher benötigen, eine X800XT sogar 800-900MHz schnellen Speicher. Das ist doch Schwach !

Für mich ist damit die GF6800-U das bei weitem bessere Produkt. Die höhere Geschwindigkeit der X800XT merkt man doch nur in einigen wenigen nicht CPU-begrenzten Bereichen, und dort nicht so stark (siehe sehr schön die beiden Previews bei Beyond3D ). "Speed" is also kein Kaufargument. Features imho schon.

Rellik327
2004-05-05, 11:51:05
@ Leonidas:

Nun, das Whitepaper ist da eigentlich eindeutig. Und auch in mehreren Reviews wurde erwähnt, das es eben bei der ATI
Karte wie auch bei der NV40 einen Button gibt, der eben die
"Optimierung" des Triliniaren Filters aktiviert/deaktiviert.

Frage: Da ihr die Karte ja getestet habt: Habt ihr den Button nicht gesehen. In diesem Fall denke ich ist entweder
ein unterschiedlicher Treiber schuld (bezweifel ich stark) oder die anderen Tester behaubten etwas, was nicht stimmt.
Ich gehe davon aus, das wenn jemand so einen Satz wie hier schreibt:

The Anisotropic levels are 2X, 4X, 8X and 16X with a Performance and Quality mode. Performance mode forces Bilinear Filtering with Anisotropic and the Quality mode uses Trilinear with Anisotropic.

Diesen Button habe ich jedenfalls auch in meinen 8500 Treibern, obwohl die ja leider kein Triliniaren Filter bei AF einsetzen kann. Ob diese Einstellung tatsächlich komplett triliniar filtert oder nur teilweise wie Quasar
in seinem Post sagt, ist zu überprüfen. Auf Tech Report sind MipMaps abgebildet:

http://techreport.com/reviews/2004q2/radeon-x800/index.x?pg=20


Hier wird behauptet, ATI und NVidia wäre bei ausgeschalteten Optimierungen gleich, nur die 61er Treiber
weisen einen Bug auf der die Optimierungen nicht in allen Games austellt (unter D3D)
Das Thema Bildqualität/Filtering ist wohl umstritten. Daher sind absolute Aussagen sehr schwierig.


Im übrigen ist es natürlich immer ratsam, sorgfältig zu lesen. Wenn z.Beispiel Quasar das getan hätte, würde er auch nicht davon sprechen, von ENcodern zu sprechen wenn ich von DEcodern rede. Es ging ja um die Diskussion von Bildverbesserung. Und IDCT´s adaptives deinterlacing usw sind notwendige Filter um die Bildqulität auszugeben, die eben auf DVD´s vorhanden ist.

@Quasar: Was den HardOCP Benchmark betrifft. Ich bezog mich darauf, das eine "alte" Karte durch Treiber zulegt. Natürlich sind die 2 Frames nicht doppelt so schnell. Ich schau mal nach, welchen Bench ich meinte. Und was dein Kommentar zu den verschiedene Einstellungen betrifft. Sie haben auch extgra Tests bei gleichen Einstellung gemacht, weil es gewünscht wurde. Damit ist das Kommentar wohl haltlos.

@aths:

Natürlich rendert DX nicht, sondern die Hardware. Ich entschuldige mich hiermit das ich das vereinfacht habe. Ich bezog mich hier auf folgendes: Wie schon John Carmac bei den letzten Vergleichen der ATI und NV Karten sagte, hat die Nvidia Karte durch ihr 16/32 Bit Modell einen kleinen Nachtteil bei DX9 Games, da die Spec ja 24 Bit vorschreibt.
Daher entsteht ja ein wenn man mit 32Bit rendert die Situation, das der NVidia chip zwar höher aufgelöst rendert, dies aber dann langsamer tut als ein ATI chip der "nur" 24bit rendert.

Warum kommst Du darauf, das 32Bit keine Leistung verschenkt? Ich spreche von dem Resultat, nicht dem Prozess
selbst. Wir sprechen ja von Halfprecision und Fullprecision. Und zu diesem Thema war immer die Rede davon, das eben NVidia bei 32 Bit Leistung "verschwendet".

Ich bin zwar der Meinung, das 32Bit rendering für die Zukunft wichtig ist, aber momentan ist die 24Bit Methode wohl eindeutig ausreichend. Genau auf diesen Punkt haben alle Tester auch damals bei der HL2 Diskussion den großen
Vorteil von ATI geschrieben.


Nochmal: Mir ist aufgefallen, das alle Tests sehr unterschiedlich sind. Nur wenige schreiben, welche Einstellungen sie im Treiber aktivert haben. Meistens orientiert sich die Angabe in den Benchmarks nur an AF/AA,
nicht aber ob Performance oder Quality ausgewählt wurde.
Auch die weiteren Einstellungen(bei ATI gibt es noch 2 weitere Einstellungen die unabhängig von AF/AA sind) werden oft nicht genannt. Einige Tests sind auch mit "default" Werten durchgeführt.

Auf Tech-Report haben die ebenfalls zum Thema Filtering geschrieben:
http://techreport.com/reviews/2004q2/radeon-x800/index.x?pg=6

Ich frage mich, warum einige sagen, ATI/NVidia filtern mit deaktvierten Optimierungen triliniar und einige sagen, nein, ATI verwendet kein komplettes Triliniares Filtern.

Der Tech Report nennt die NV Methode übrigens BRILINIAR, da es wohl nicht komplett Triliniar filtert. Hmmm.

Exxtreme
2004-05-05, 12:14:52
@ Rellik327

Ich glaube, du weisst nicht wie diese Optimierung überhaupt funktioniert. Nicht alle Texturen werden trilinear anisotrop gefiltert. Bei Singletexturing-Spielen wird natürlich alles trilinear anisotrop gefiltert, bei Multitexturing-Spielen nur die Textur auf Stage 0 und das ist meist die Basistextur. Detailtexturen, Bumpmap-Texturen etc. werden bilinear gefiltert. Je nach Spiel sieht man das mehr oder weniger deutlich.

Rellik327
2004-05-05, 13:07:22
Danke für die Info. Das mit den unterschiedlichen Methoden war mir bewußt. Genau das macht sorgt ja auch für die vielen unterschiedlichen Posts/Tests.

Mir ist klar, das bei so einem komplexem Thema oft etwas falsch interpretiert wird. Ich habe ja versucht, das in meinen posts auszudrücken (wenn auch nicht sehr erfolgreich).

Ich fand bis jetzt den Test von Hexus und Tech Report sehr gut. HardOCP war eigentlich auch sehr gut, solange man den Bericht ohne Vorurteile liest.

B3d hat übrigens ebenfalls den Biliniar/Triliniar Bug bestätigt, den 3D Center fand.

Leonidas
2004-05-05, 13:50:42
Original geschrieben von Rellik327
@ Leonidas:

Nun, das Whitepaper ist da eigentlich eindeutig. Und auch in mehreren Reviews wurde erwähnt, das es eben bei der ATI
Karte wie auch bei der NV40 einen Button gibt, der eben die
"Optimierung" des Triliniaren Filters aktiviert/deaktiviert.



Tut mir leid, diesen Button gibt es nicht. Die Leute, die das schreiben, haben sich dann zu sehr auf das Marketing-Material gestützt und nicht in die Praxis geschaut.

Leonidas
2004-05-05, 13:52:49
Original geschrieben von Rellik327
Frage: Da ihr die Karte ja getestet habt: Habt ihr den Button nicht gesehen. In diesem Fall denke ich ist entweder
ein unterschiedlicher Treiber schuld (bezweifel ich stark) oder die anderen Tester behaubten etwas, was nicht stimmt.
Ich gehe davon aus, das wenn jemand so einen Satz wie hier schreibt:

The Anisotropic levels are 2X, 4X, 8X and 16X with a Performance and Quality mode. Performance mode forces Bilinear Filtering with Anisotropic and the Quality mode uses Trilinear with Anisotropic.

Diesen Button habe ich jedenfalls auch in meinen 8500 Treibern, obwohl die ja leider kein Triliniaren Filter bei AF einsetzen kann. Ob diese Einstellung tatsächlich komplett triliniar filtert oder nur teilweise wie Quasar
in seinem Post sagt, ist zu überprüfen. Auf Tech Report sind MipMaps abgebildet:

http://techreport.com/reviews/2004q2/radeon-x800/index.x?pg=20



Zum 1000. Mal: Warum glaubst Du, wenn einer von "trilinear" spricht, daß damit voll-trilinear gemeint sei ??????

Zum Tech Report: Dort ist nur Texture Stage 0 zu sehen, mehr kann Serious Sam nicht anzeigen. Hat keinerlei Relevanz.

Leonidas
2004-05-05, 13:54:06
Original geschrieben von Rellik327
da die Spec ja 24 Bit vorschreibt.




Nein. Die Spec gibt die Möglichkeit zu 24 und zu 32 Bit, sowie zu einer abgesenkten Präzision mit 16 Bit. Vorschreiben tut die Spec allerhöchstens, daß mindestens 24 Bit auf dem Grafikchip vorhanden sein müssen, mehr nicht.

Leonidas
2004-05-05, 13:55:32
Original geschrieben von Rellik327
Daher entsteht ja ein wenn man mit 32Bit rendert die Situation, das der NVidia chip zwar höher aufgelöst rendert, dies aber dann langsamer tut als ein ATI chip der "nur" 24bit rendert.




Nein. Du kannst das nicht mit höheren Auflösungen vergleichen. Um 32 Bit zu realisieren, brauchst du einen anderen Grafikchip mit mehr Transistoren. Hast Du diesen, wird es keinen Leistungsunterschied zu einem ansonsten baugleichen Chip geben, der nur in 24 Bit rendert. 32 bit benötigt gegenüber 24 Bit keine leistungsfähigere Architektur, sondern eine breitere.

Leonidas
2004-05-05, 13:57:40
Original geschrieben von Rellik327
Warum kommst Du darauf, das 32Bit keine Leistung verschenkt? Ich spreche von dem Resultat, nicht dem Prozess
selbst. Wir sprechen ja von Halfprecision und Fullprecision. Und zu diesem Thema war immer die Rede davon, das eben NVidia bei 32 Bit Leistung "verschwendet".




Falschaussage. 24 und 32 Bit sind beide ""full precision". Und der Spruch, daß NV bei 32 Bit Leistung gegenüber 24 Bit verschwendet, ist einfach Müll, auch wenn er früher mal existiert haben mag.

Wie gesagt: 32 Bit benötigt schlicht eine breitere Architektur, keine schnellere.

Leonidas
2004-05-05, 13:58:37
Original geschrieben von Rellik327
Ich frage mich, warum einige sagen, ATI/NVidia filtern mit deaktvierten Optimierungen triliniar und einige sagen, nein, ATI verwendet kein komplettes Triliniares Filtern.




Weil einige offenbar die ATi-Optimierung nicht mal kennen.

q@w
2004-05-05, 14:14:58
Original geschrieben von Rellik327
@Quasar: Was den HardOCP Benchmark betrifft. Ich bezog mich darauf, das eine "alte" Karte durch Treiber zulegt. Natürlich sind die 2 Frames nicht doppelt so schnell. Ich schau mal nach, welchen Bench ich meinte. Und was dein Kommentar zu den verschiedene Einstellungen betrifft. Sie haben auch extgra Tests bei gleichen Einstellung gemacht, weil es gewünscht wurde. Damit ist das Kommentar wohl haltlos.


Nein, _der_ Kommentar ist nicht haltlos. Ich habe mir den HardOCP-Test auch angeschaut und fand ihn eigentlich ziemlich gut.
Allerdings habe ich nur in einem der Tests, wo eben beide mit _gleichen_ Auflösungen/AA-Stufen zu tun hatte (auf die du dich hier beziehst) gesehen, daß die 9800XT um eben jene 2 fps schneller war.

In den anderen Tests konnte das durchaus mal sein, daß die 980XT ein wenig fixer aussah, als die 6800U, aber dann lag es daran, daß sie mit niedrigerer Auflösung/niedrigerem FSAA/niedrigerem AF zu tun hatte.....

Gell?

;Q

Leonidas
2004-05-05, 14:15:35
Original geschrieben von Rellik327
Leider gibt es auch bei fast ALLEN Reviews wieder KEINE EINDEUTIGE AUSSAGE WELCHE EINSTELLUNGEN vorgenommen wurden.
Da speziell die ATI Treiber sich sehr variabel einstellen lassen, und der unterschied zwischen "Performance/default/Quality" und Custom extrem ist, sind auch die anderen Benchmarks nicht eindeutig einzuordnen.




Im Gegensatz zu dem was ich gestern gesagt habe, sag ich nun:

Hier hast Du wohl Recht. Diese Anmerkungen sind auch in unserem Artikel zu verstreut. Es wird also bei den nächsten Artikel ein Kapitel "benutzte Settings" geben.

Keel
2004-05-05, 15:20:31
Original geschrieben von aths
Das hängt davon ab, womit man vergleicht :) Ich bin bei einigen dafür bekannt, den Marktführer nicht mit Samthandschuhen anzufassen.
Wieso? ATI ist doch nicht der Marktführer... Die sind doch wieder auf Platz 3.
Original geschrieben von aths
Wieso wird immer gefragt "Was bringt mir das jetzt sofort für meine Spielchen hier?" anstatt zu überlegen: "Da wir dieses Feature haben, was wird damit möglich?"
Vermutlich deswegen, weil ein typischer Gamer (also z.B. ich) zuerst eine andere Frage hat: Bringt mir das überhaupt was, wird das überhaupt Anwendung finden? Und wenn etwas mit einem neuen Feature gemacht wird, dann wird er sich fragen, was man damit machen kann.
Die 2.x-Shader mögen es ja NV erleichtert haben, den Schritt von NV3x auf NV4x zu erleichtern, aber was hat mir das beim NV3x gebracht? So denkt ein Spieler. Ist ja schön für NV, nur was nützt das dem NV3x-User? Wie du es so schön in deinem Artikel geschrieben hast, hat besonders NV die Angewohnheit, erstmal ein Feature zu bieten und erst eine Generation später den Speed dafür. Also ist das Feature für den User mit der alten HW erstmal weitgehend nutzlos.

Aber hast schon Recht: Features müssen sein, sonst gäbe es keinen Fortschritt.

Rellik327
2004-05-05, 16:10:31
@ Quasar: Ok, das meinte ich im Endeffekt. Ich nehme das Kommentar mit der 9800Xt doppelte Leistung zurück. Habe da wohl gestern ein paar Balken durcheinander gebracht.
es bleibt aber dabei, das es interesant ist,zu sehen ob der beta(4.5) Treiber auf den "alten" Karten denn einen Leistungsschub bringt.

@ Leonidas:

Danke für die Einsicht bei den Einstellungen.Ich glaube hier haben wirt unglücklicherweise aneinander vobei geredet. ;-)

Mit Halfprecision meinte ich FP16, nicht FP24.

Abschließend zu Triliniar: In den Cat 3.2 Treibern gab es
im D3D Panel jeweils einen "Slider" für FSAA und AF. Beide hatten einen Radiobutton für "performance" und "Quality".
In den aktuellen Treibern (Cat 4.3, 4.4) ist dieser Button bei meiner 8500 nicht mehr da.

In den neuen Treibern sieht es so aus: http://www.hardocp.com/image.html?image=MTA4MzU2NDE4OTg4OEFkazcwdGVfMl8yX2wuZ2lm

Ob der Radiobutton für AF oder FSAA oder beides gilt, ist leider nicht eindeutig.Ich finde es merkwürdig, das es für AF zu seien scheint, wäre das doch die direkte umkehr des voherigen Treibers (Cat 4.4) Da war der alte Treiber (Cat3.2, 3.6) besser.

Für mich sind 2 Sachen getrennt zu sehen:

1. Ob ein "komplettes" triliniares Filtern stattfindet, ist nur durch Tests wie eure rauszufinden. In eurem Artikel steht das ihr ein volles TF aktivieren konntet.

Hierbei gilt zu beachten, daß wir uns dafür entschieden haben, alle Vergleiche und Benchmarks bei beiden ATi-Karten unter der Einstellung des vollen trilinearen Filters zu betreiben, welche man mit dem rTool einstellen kann, was im übrigen auch bei der X800 Pro hervorragend (und nachweislich) funktioniert.


Nun Punkt 2

Der Grund für diese Entscheidung liegt darin begründet, daß im default-Zustand der Treiber diese unter Direct3D, sofern die Applikation nichts anderes anfordert, bei anisotroper Filterung auf den Texturenstufen 1-7 keinen trilinearen, sondern nur noch einen blanken bilinearen Filter bietet:

Mein Fehler war hier, den Punkt mit den Texturstufen nicht zu beachten. Die Aussage, das man mit dem einstellen auf Quality bei AF den Triliniaren Filter aktiviert, ist wohl nur für die Texturstufe 0 gültig, wenn ich euch recht verstehe. In diesem Fall trifft es zu, das der ATI Treiber
kein komplettes TF bietet. Zufrieden?

Den Radiobutton für Quality hast du aber gesehen oder?
Merkwürdig das es nun wie bereits erwähnt bei AF den Button
gibt, aber nicht mehr bei AA.


Und um etwas konstruktives in den Raum zu werfen:

Ist euch aufgefallen, wie CPU limitiert diese neuen Karten sind? Die besten CPU´s die ich gesehen habe (P4 3.2Extreme und FX53) zeigen deutlich mehr Leistung als das 2,53Ghz single channel System von 3DCenter. Wann habt ihr eigentlich vor, aufzurüsten? Ich hoffe das bald ein CPU-Skalier Test kommt. Auf Anandtech gab es ja sowas schon mal.

x-dragon
2004-05-05, 16:36:07
Original geschrieben von Rellik327
... Ist euch aufgefallen, wie CPU limitiert diese neuen Karten sind? Die besten CPU´s die ich gesehen habe (P4 3.2Extreme und FX53) zeigen deutlich mehr Leistung als das 2,53Ghz single channel System von 3DCenter. Wann habt ihr eigentlich vor, aufzurüsten? ... Naja zumindest liegt das Test-System näher am Durchschnitt der aktuell am meisten eingesetzten Hardware, von daher spiegelt es denke ich besser die aktuelle Realität wieder. Aber ein Vergleich zum A64 oder ähnlich leistungsfähgies wäre mit Sicherheit sehr interessant.

Wobei natürlich die Frage ist ob es jetzt gerade sinnvoll wäre aufzurüsten, da ja 64 Bit-CPUs, PCI-Express, BTX, DDR2 etc. jetzt gerade erst ins Rollen kommen (naja verzeinzelnd vielleicht auch nicht).

ow
2004-05-05, 16:49:35
.

Rellik327
2004-05-05, 16:53:12
Auf dem R200 kann man eben sehrwohl zwischen Quality und Performance umstellen. Allerdings nur mit den alten Treibern, z.B. 3.2

Exxtreme
2004-05-05, 17:06:07
Original geschrieben von Rellik327
Auf dem R200 kann man eben sehrwohl zwischen Quality und Performance umstellen. Allerdings nur mit den alten Treibern, z.B. 3.2
Nicht beim AF.

ow
2004-05-05, 18:56:20
.

Pinhead
2004-05-05, 19:33:29
Falls es noch nicht gepostet wurde, kleiner Rechtschreibfehler:


Wenn das auch für "Get in the Game" reicht, so bin ich persönlich nicht davon überzeigt, dass ein Fokus darauf was Spieler lediglich heute brauchen eine gute Langzeit-Strategie ist.

ow
2004-05-05, 20:14:39
.

Rellik327
2004-05-05, 20:22:57
Ich meinte das die Treiber vor 3.8 das konnten. Vielleicht
täusche ich mich da ja.

Das hier ist bis jetzt der best Test der X800

http://www.digit-life.com/articles2/radeon/r420.html

Bin gespannt auf deren genaueren "Digest"

Demirug
2004-05-05, 21:07:34
Original geschrieben von Rellik327
Ich meinte das die Treiber vor 3.8 das konnten. Vielleicht
täusche ich mich da ja.

Das hier ist bis jetzt der best Test der X800

http://www.digit-life.com/articles2/radeon/r420.html

Bin gespannt auf deren genaueren "Digest"

Dem kann ich nicht zustimmen. Xbit-Labs muss sich leider bei denen einreihen die sich von ATI haben leimen lassen:

In this respect, the situation is the same as in the case with R3XX: there are two ALUs for each pixel, and each ALU can execute two different operations on the 3+1 scheme (R3XX had only one ALU).

Rellik327
2004-05-06, 11:10:35
Digit-life ist zwar soweit ich weiß mit den Leuten von X-bit verwand, (iXbit ist nicht X-Bit!) da die früher wohl dort waren, aber X-Bit ist ein 99 gegründete Site die ein anderes Team hat als Digitlife. Digitlife war bis dato immer für sehr kompetente
Analysen bekannt. Auch auf den Plänen erkennt man eindeutig die beiden ALU´s.

Wie kommst du zu der Annahme, das die sich "von ATI haben leimen lassen"?

aths
2004-05-06, 12:45:17
Original geschrieben von Rellik327
Digit-life ist zwar soweit ich weiß mit den Leuten von X-bit verwand, (iXbit ist nicht X-Bit!) da die früher wohl dort waren, aber X-Bit ist ein 99 gegründete Site die ein anderes Team hat als Digitlife. Digitlife war bis dato immer für sehr kompetente
Analysen bekannt. Auch auf den Plänen erkennt man eindeutig die beiden ALU´s. Bitte ohne ´, einfach ALUs schreiben :)
Original geschrieben von Rellik327
Wie kommst du zu der Annahme, das die sich "von ATI haben leimen lassen"? R420 hat 2 ALUs - eine Vector3 und eine Scalar, die zu Vector4 kombiniert werden können. R420 hat aber nicht zwei volle Vector4-ALUs, wie einige glauben. Was ATI da noch in die Paper eingemalt hat, sind die Mini-ALUs. (Die hat NV40 natürlich auch, und noch einiges mehr.)

Xmas
2004-05-06, 18:43:44
Wobei es bei ATI anscheinend ein Betriebsgeheimnis ist, was diese Mini-ALUs können. Bei NVidia gehe ich stark davon aus dass es die Modifier /2, *2, *4, *8 und bx2 (-0.5, dann *2) sind. Bei ATI könnte es noch etwas mehr sein.

Demirug
2004-05-06, 18:49:33
BX2 kannst du bei ATI wohl streichen und auch bei NV bin ich mir da nicht sicher. Bei ATI bin ich mehr deswegen relative sicher weil Shader die viele bx2 enthalten Zusatztakte brauchen.

Xmas
2004-05-07, 15:34:45
Hm, ich hab noch mal genauer nachgelesen, und es scheint wohl so dass bx2 nur mit tex funktioniert. NV30 bietet das auch, aber nur als globale Einstellung pro Texture Stage, nicht pro tex-Instruktion

http://ond.vein.hu/~rasputin/download/nv_perf3x.txt

Demirug
2004-05-07, 15:41:36
Original geschrieben von Xmas
Hm, ich hab noch mal genauer nachgelesen, und es scheint wohl so dass bx2 nur mit tex funktioniert. NV30 bietet das auch, aber nur als globale Einstellung pro Texture Stage, nicht pro tex-Instruktion

http://ond.vein.hu/~rasputin/download/nv_perf3x.txt

Ja, dieser BX2 Scale gehört zur Texunit (ich dachte ich hätte das schon mal erwähnt). Wobei die guten alten Regcombiner im NV3X das auch noch können sollten.

PS: Ich würde mich nicht darauf verlassen das dieses Dokument wirklich alles enthält.

Xmas
2004-05-07, 18:54:34
Sicher nicht, aber das was drinsteht ist ja auch schon ein Anhaltspunkt.

Ja, die RC können /2, *2, *4, bias und bx2 als Output Modifier, und sogar bias und bx2 (zudem Invert) als Input Modifier.
Möglicherweise gibts beim NV40 auch ein bisschen mehr als abs und Negate als IM.