PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nv40 und r420, werden die schwächen behoben sein?


Seiten : [1] 2

NVIDIOT
2003-12-27, 00:25:30
also, ich wollte gerne wissen, ob beide firmen mit ihrer neuen gen. karten ihre schwächen beheben werden.

die wären bei ati das af (winkel), ogl leistung in manchen ogl games und die ganzen polygaps (subpixel genauigkeit). bei nvidia die aa qualität, pixelshader und die leistung allgemein. gibts dazu schon näheres?

danke vielmals =)

Coda
2003-12-27, 00:36:57
Die Polygaps sind eigentlich nur da, wenn T-Junks nicht richtig gefixt werden, das liegt eigentlich eher am Spiel als an der Grafikkarte. Oder hast du schonmal in Quake oder Unreal nen Polygap gesehen? :)

Auch wenn die Subpixel genauigkeit bei ATi natürlich besser sein könnte :)

Demirug
2003-12-27, 00:38:41
Spekulatione *move*

NVIDIOT
2003-12-27, 00:57:00
Original geschrieben von Coda
Die Polygaps sind eigentlich nur da, wenn T-Junks nicht richtig gefixt werden, das liegt eigentlich eher am Spiel als an der Grafikkarte. Oder hast du schonmal in Quake oder Unreal nen Polygap gesehen? :)

Auch wenn die Subpixel genauigkeit bei ATi natürlich besser sein könnte :)

weisst du wieso ati karten in mehreren spielen polygaps haben, wo es mit nvidia karten keine gibt? liegt es daran, weil die spiele immernoch meist auf nv hardware programmiert werden? ich nenne dir z.b. das spiel chaser, an den türen überall weiße punkte mit ner ati karte und mit ner nvidia ist da überhaupt nix zusehen. gibt noch mehrere spiele, aber dieses jetzt mal als beispiel. =)

mit z-fehlern sieht es ähnlich aus, mit ati karten findet mann meist welche, als mit einer nv karte.

micki
2003-12-27, 01:56:09
kann es sein dass es keine dx9 ATI karte ist, bei der dir das aufgefallen ist?

dx9 karten sollten eigentlich waterproofed rendern :D

MfG
micki

NVIDIOT
2003-12-27, 02:06:33
Original geschrieben von micki
kann es sein dass es keine dx9 ATI karte ist, bei der dir das aufgefallen ist?

dx9 karten sollten eigentlich waterproofed rendern :D

MfG
micki

was aufgefallen ist, polygaps oder z-fehler? naja r9500p, r9700p und r9800p sind dx9 karten.

hier ein gutes beispiel, schau rechts die schönen poly's http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=1436744#post1436744 der user piffan hat eine 9700serie als graka (dx9).

Coda
2003-12-27, 03:27:49
Original geschrieben von NVIDIOT
weisst du wieso ati karten in mehreren spielen polygaps haben, wo es mit nvidia karten keine gibt? liegt es daran, weil die spiele immernoch meist auf nv hardware programmiert werden? ich nenne dir z.b. das spiel chaser, an den türen überall weiße punkte mit ner ati karte und mit ner nvidia ist da überhaupt nix zusehen. gibt noch mehrere spiele, aber dieses jetzt mal als beispiel. =)

mit z-fehlern sieht es ähnlich aus, mit ati karten findet mann meist welche, als mit einer nv karte.
Ob DX9 oder nich, das hat mit den Polygaps nichts zu tun, sondern mit der Sub-Pixel-Accuracy

Aber wie gesagt, selbst eine SPA von 0 würde nicht auffallen, wenn es in Spielen keine T-Junks geben würde

Das Spiele meistens auf nVidia Karten programmiert werden ist mir neu ... Ich glaub das ist grad eher 50/50, außerdem sollte jeder Spieleprogrammierer dafür sorgen, das es auf beiden gleich gut läuft

Tigerchen
2003-12-27, 09:39:21
Original geschrieben von NVIDIOT
also, ich wollte gerne wissen, ob beide firmen mit ihrer neuen gen. karten ihre schwächen beheben werden.

die wären bei ati das af (winkel), ogl leistung in manchen ogl games und die ganzen polygaps (subpixel genauigkeit). bei nvidia die aa qualität, pixelshader und die leistung allgemein. gibts dazu schon näheres?

danke vielmals =)

Kann mir nicht vorstellen daß ATI auf die Winkelabhängigkeit verzichtet wegen der paar Freaks die da was zu mäkeln haben.

Unter OpenGL ist ATI immer schneller sobald du VSync+Tripplebuffer aktivierst.Und das tu ich immer.Auf so ein tolles Feature hab ich jahrelang gewartet.OGL Speed ohne VSync und ohne AF juckt mich nicht.Da darf nVIDIA gerne schneller sein.

Quasar
2003-12-27, 10:34:04
Original geschrieben von Tigerchen
[COLOR="#000076"]
Kann mir nicht vorstellen daß ATI auf die Winkelabhängigkeit verzichtet wegen der paar Freaks die da was zu mäkeln haben.

...und bei der Speed, die es angeblich bringt. :)

Gast
2003-12-27, 11:09:56
Original geschrieben von Quasar
...und bei der Speed, die es angeblich bringt. :)

der Witz ist doch es bringt nur da Speed wo auch Qualität reduziert wird.
Wenn keine ungünstigen Winkel da sind, kan auch nichts gespart werden, wenn wir jetzt mal bei der reinen Winkelabhängigkeit bleiben und die ganzen anderen Optimierungen aus der Betrachtung weglassen.

Ich hoffe sie stellen das ab. Das Verfahren kritisiere ich genauso wie das schlechte AA von Nvidia. Zum Glück weisen wieder sehr viel mehr Reviewer auf diesen Mißstand hin als noch vor einem Jahr. Da gab es zur 9700pro keine Konkurenz und schon hat man das weitestgehend untern Tisch fallen lassen.
Mittlerweile schauen die meissten gößeren Reviewer aber wieder sehr viel genauer hin und kritisieren auch die Winkelabhängigkeit.

StefanV
2003-12-27, 12:55:33
Original geschrieben von NVIDIOT
also, ich wollte gerne wissen, ob beide firmen mit ihrer neuen gen. karten ihre schwächen beheben werden.

die wären bei ati das af (winkel), ogl leistung in manchen ogl games und die ganzen polygaps (subpixel genauigkeit). bei nvidia die aa qualität, pixelshader und die leistung allgemein. gibts dazu schon näheres?

danke vielmals =)

Sie werden es vermutlich entschärfen, ganz abstellen werden sie es aber sicher nicht.

Der Grund ist doe 'Philosophie' des Utnernehmens ATI, die nur da Transistoren raushauen, wo es wirklich sinnvoll ist bzw andersrum da Transistoren sparen, wo es möglich ist.

Das ist auch der Grund für die Winkelabhängigkeit, nicht die Leistung, die Transistoren sinds (Wurzel ist halt teuer)

Tigerchen
2003-12-27, 17:15:41
Original geschrieben von Gast
der Witz ist doch es bringt nur da Speed wo auch Qualität reduziert wird.
Wenn keine ungünstigen Winkel da sind, kan auch nichts gespart werden, wenn wir jetzt mal bei der reinen Winkelabhängigkeit bleiben und die ganzen anderen Optimierungen aus der Betrachtung weglassen.

Ich hoffe sie stellen das ab. Das Verfahren kritisiere ich genauso wie das schlechte AA von Nvidia. Zum Glück weisen wieder sehr viel mehr Reviewer auf diesen Mißstand hin als noch vor einem Jahr. Da gab es zur 9700pro keine Konkurenz und schon hat man das weitestgehend untern Tisch fallen lassen.
Mittlerweile schauen die meissten gößeren Reviewer aber wieder sehr viel genauer hin und kritisieren auch die Winkelabhängigkeit.

ATI wird das egal sein weil die überwältigende Mehrheit den Qualitätsverlust nicht wahr nimmt.Wie Stefen Payne schon sagte werden sie das Verfahren wohl noch verfeinern aber sie wären schön blöd wenn sie das aufgeben würden.

Nochmals.Die Meinung von ein paar Freaks ist irrelevant.Es wird immer erst gefährlich wenn Otto Normaluser merkt mit was für Tricks da gearbeitet wird.

NVIDIOT
2003-12-27, 18:11:19
ich will ja nichts sagen, aber bei nascar sieht man das winkel-af ganz gut, die zuschauer sind einfach nur aus matsch-texturen :(

betasilie
2003-12-27, 18:55:48
Original geschrieben von Tigerchen

ATI wird das egal sein weil die überwältigende Mehrheit den Qualitätsverlust nicht wahr nimmt.Wie Stefen Payne schon sagte werden sie das Verfahren wohl noch verfeinern aber sie wären schön blöd wenn sie das aufgeben würden.

Nochmals.Die Meinung von ein paar Freaks ist irrelevant.Es wird immer erst gefährlich wenn Otto Normaluser merkt mit was für Tricks da gearbeitet wird.

Irgendwann müssen sie aber sauberes AF bringen. *grrr*

Wenn NV beim AA aufholt, wird ATI schön blöd dastehen. NV wird Schlagzeilen machen, wenn sie gutes AF und gutes AA bieten.

Gast
2003-12-27, 18:57:58
Original geschrieben von betareverse
Irgendwann müssen sie aber sauberes AF bringen. *grrr*

Wenn NV beim AA aufholt, wird ATI schön blöd dastehen, denn NV wird dann Schlagzeilen machen, wenn sie gutes AF und gutes AA bieten.

jup und genau das hoffe ich. Wenn das der Fall sein wird und ATI bietet weiterhin nur die winkelabhängige Methode werden sie dafür sowohl vom Reviewer und daraus folgend auch vom Kunden abgestraft werden und das ist letztlich ja auch korrekt so.

Es ist einfach eine Sauerei, dass man 400 bis 500 Euro für ne High End Karte hinlegt und dann von beiden nicht das Qualitativ maximal mögliche bekommt sondern nur Variationen mit Qualitätsabstrichen.

Gast
2003-12-27, 20:27:57
Ich verwette nur meinen Arsch darauf, das ATi das gamme corrected multisampling patentiert hat

Tigerchen
2003-12-28, 05:13:37
Original geschrieben von Gast
jup und genau das hoffe ich. Wenn das der Fall sein wird und ATI bietet weiterhin nur die winkelabhängige Methode werden sie dafür sowohl vom Reviewer und daraus folgend auch vom Kunden abgestraft werden und das ist letztlich ja auch korrekt so.

Es ist einfach eine Sauerei, dass man 400 bis 500 Euro für ne High End Karte hinlegt und dann von beiden nicht das Qualitativ maximal mögliche bekommt sondern nur Variationen mit Qualitätsabstrichen.

Fast unsichtbare Qualitätsabstriche! Das nehme ich gerne in Kauf weil auf der anderen Seite eine überlegene Performance steht. Zumal du sicher sein darfst daß ATI das Verfahren noch verfeinern wird.
Ich sehe es eher so daß nVIDIA hier den Weg ATI's folgt, ja sogar fogen muß um nicht abgehängt zu werden.Ein deutliches Indiz ist der "brilineare Filter" der ja wohl eine echte Verzweiflungstat ist. Außerdem kann nVIDIA sich sowieso warm anziehen wenn Loci tatsächlich mit 8*1 Tri daherkommt während der nV40 immer noch mit 4*2 Bi auskommen muß.

Ailuros
2003-12-28, 05:34:01
Original geschrieben von Gast
Ich verwette nur meinen Arsch darauf, das ATi das gamme corrected multisampling patentiert hat

Wie MfA mal bei B3D sagte: every idea worth a damn has been already patented....twice! :D

Teure Wette uebrigens ;)

***edit: genauso patentiert wie 3dfx's T-buffer :P

Außerdem kann nVIDIA sich sowieso warm anziehen wenn Loci tatsächlich mit 8*1 Tri daherkommt während der nV40 immer noch mit 4*2 Bi auskommen muß.

*seufz*

LovesuckZ
2003-12-28, 09:31:10
Original geschrieben von Tigerchen
Fast unsichtbare Qualitätsabstriche! Das nehme ich gerne in Kauf weil auf der anderen Seite eine überlegene Performance steht. Zumal du sicher sein darfst daß ATI das Verfahren noch verfeinern wird.

Tja, beschwere dich aber nicht, wenn deine "unsichtbare[n] Qualitätsabstriche" dich mal aergern sollten...!


Ich sehe es eher so daß nVIDIA hier den Weg ATI's folgt, ja sogar fogen muß um nicht abgehängt zu werden.Ein deutliches Indiz ist der "brilineare Filter" der ja wohl eine echte Verzweiflungstat ist.


Tja, ATi's AF ist auch "eine echte Verzweiflungstat". Leider sehen es kaum welche ein, vorallen nicht Leute, die sich eien ATi karte gekauft haben. Und damit geht dieser Teufelskreis schoen weiter...

betasilie
2003-12-28, 09:55:12
Original geschrieben von Tigerchen

Fast unsichtbare Qualitätsabstriche! Das nehme ich gerne in Kauf weil auf der anderen Seite eine überlegene Performance steht. Zumal du sicher sein darfst daß ATI das Verfahren noch verfeinern wird.

Naja. Bei den meisten Games fällt ATIs AF nicht neagtiv auf, aber es gibt halt auch Games wo das anders ist. ... Schon aus diesem Grund sollte ATI qualitativ nachbessern.

Tigerchen
2003-12-28, 11:11:16
Original geschrieben von LovesuckZ
Tja, beschwere dich aber nicht, wenn deine "unsichtbare[n] Qualitätsabstriche" dich mal aergern sollten...!

Warum nicht?


Tja, ATi's AF ist auch "eine echte Verzweiflungstat". Leider sehen es kaum welche ein, vorallen nicht Leute, die sich eien ATi karte gekauft haben. Und damit geht dieser Teufelskreis schoen weiter...

Vor allem wenn man vorher eine GF3 Ti200 hatte sieht man es überhaupt nicht ein.Es zwingt dich ja auch keiner das gut zu finden.Das Volk hat sich jedenfalls entschieden.Ob dir das passt oder nicht.

aths
2003-12-28, 20:54:56
Original geschrieben von Tigerchen
Fast unsichtbare Qualitätsabstriche! Das nehme ich gerne in Kauf weil auf der anderen Seite eine überlegene Performance steht. Zumal du sicher sein darfst daß ATI das Verfahren noch verfeinern wird. "Brilineare" Filterung wird auch von den wenigsten gesehen. Oder sagen wir mal so, die Nachteile sind vor allem bei den Leuten fast unsichtbar, die selbst eine FX haben.
Original geschrieben von Tigerchen
Ich sehe es eher so daß nVIDIA hier den Weg ATI's folgt, ja sogar fogen muß um nicht abgehängt zu werden.Ein deutliches Indiz ist der "brilineare Filter" der ja wohl eine echte Verzweiflungstat ist. Ich verstehe nicht, wieso du den brilinearen Filter offensichtlich negativ bewertest, aber auf der anderen Seite die starke Winkelabhängigkeit bei ATIs AF noch als sinnvolle Maßnahme verteidigst. (Beides bewirkt, dass zulasten der Qualität Füllrate gespart wird. Die "brilineare" Filterung ist auf HW-Support angewiesen, was wohl relativ frühzeitig geplant wurde. Zu einer Zeit, als von ATI noch nicht viel zu hören war.) Es ist schade, dass NV treiberseitig den Anwender zu "brilinear" zwingt. ATI zwingt allerdings den Anwender auch zu 2x AF bei 22,5°-Winkeln, wenn man eigentlich 16x eingestellt hat.

War ATIs Spar-Chip namens R300/R350 ("Spar-Chip" hier bewusst filtertechnisch gesehen) dann nicht auch eine Verzweiflungstat?

NV folgte offensichtlich ATI durchaus beim AF — durch die Performance-Einstellungen. Die sind zwar unter dem Aspekt "Qualität pro Füllrate" Unsinn³, aber so kann man dann halt auch mal mit vorgeblichem 8x AF benchen, und dabei unter Vernachlässung der tatsächlichen Textur-Qualität hohe "Leistung" erzielen. Imo ein nicht begrüßenswerter Trend.
Original geschrieben von Tigerchen
Außerdem kann nVIDIA sich sowieso warm anziehen wenn Loci tatsächlich mit 8*1 Tri daherkommt während der nV40 immer noch mit 4*2 Bi auskommen muß. Wovon träumst du nachts? NV40 wird wahrscheinlich mit 8x2 kommen. Das ist dann flexibler als 8x1 tri.

Retour: ATI kann sich warm anziehen, wenn R420 weiterhin mit 8x1 bilinearen TMUs arbeitet...

PS. Nach Satzzeichen ein Leerzeichen folgen zi lassen, erhöht die Lesbarkeit.

PPS. Quotes ohne Color-Tags erleichtern das Quoten für den, der auf dich antwortet.

Xmas@home
2003-12-28, 20:59:18
Original geschrieben von Gast
Ich verwette nur meinen Arsch darauf, das ATi das gamme corrected multisampling patentiert hat
Ich glaube auch mal davon gehört zu haben dass dem so ist. Gehört aber wohl eher in die Kategorie "wertlose Patente".

Xmas@home
2003-12-28, 21:11:34
Original geschrieben von Tigerchen
Fast unsichtbare Qualitätsabstriche! Das nehme ich gerne in Kauf weil auf der anderen Seite eine überlegene Performance steht. Zumal du sicher sein darfst daß ATI das Verfahren noch verfeinern wird.
Dafür dass sie "fast unsichtbar" sind, fallen mir die Qualitätsabstriche recht häufig auf.
Für mich siehts eben so aus: Die Qualität einer Filterlösung ist umgekehrt proportional zur Aufdringlichkeit der entstehenden Artefakte. Da besteht bei beiden Besserungsbedarf, aber mehr bei ATI.

Ich sehe es eher so daß nVIDIA hier den Weg ATI's folgt, ja sogar fogen muß um nicht abgehängt zu werden.Ein deutliches Indiz ist der "brilineare Filter" der ja wohl eine echte Verzweiflungstat ist.
Der brilineare Filter ist höchstens in dem Sinne, dass er jetzt global angewendet wird eine Verzweiflungstat. Ansonsten war das ganze wohl schon früh in der Hardware vorgesehen.

Ich sehe nicht die Notwendigkeit, dass NVidia hier ATI folgt und das AF stark winkelabhängig macht. Eher erwarte und hoffe ich auf eine Ausnutzung besserer Algorithmen. Damit lässt sich mehr erreichen als mit Winkelabhängigkeit.

Außerdem kann nVIDIA sich sowieso warm anziehen wenn Loci tatsächlich mit 8*1 Tri daherkommt während der nV40 immer noch mit 4*2 Bi auskommen muß.

Wenn, ja, wenn... nur rechnet kaum jemand mit einer solchen Konstellation.

Ailuros
2003-12-29, 04:02:51
Mal abgesehen von den pro/contra Argumenten was jegliche Feature-Implementation betrifft, ist es mir im Grunde egal woran jeder IHV herumoptimiert. Hauptsache ist dass es ein Setting im Treiber CP gibt, wo man die hoechste Qualitaet aufrufen kann. Bisher hab ich es noch nicht weder bei ATI oder NV gesehen, und es wird so langsam Zeit dass es soweit kommt.

Was das Ganze wohl verhindert, ist dass bewusste Reviewer nur mit dieser Funktion testen werden, was aber dann den Grund der Existenz jeglicher Optimierung wieder minimalisiert.

Die "brilineare" Filterung ist auf HW-Support angewiesen, was wohl relativ frühzeitig geplant wurde. Zu einer Zeit, als von ATI noch nicht viel zu hören war.)

Das ist mir zu weit offen zu falschen Interpretierungen. ATI hatte winkel-abhaengiges AF schon seit dem R100 (wobei aber die bilineare Limitierung bei R100/200 schon Grund genug war, mich kalt zu lassen damals).

ATI zwingt allerdings den Anwender auch zu 2x AF bei 22,5°-Winkeln, wenn man eigentlich 16x eingestellt hat.

Es ist und verbleibt eine HW Design-Entscheidung, was natuerlich nicht jegliche Qualitaets-Kritik ungueltig macht, aber es ist nicht mehr oder weniger eine Design-Entscheidung wie bei NV die Ordered grid sampling patterns und dass natuerlich nur von der Transistoren-Anzahl Perspektive.

Der Verbraucher hat also in dem Sinn in der einen Hand einen AA-Spar-chip und in der anderen einen AF-Spar-chip (mal ganz laecherlich vereinfacht). To each his own.

Natuerlich haette der ideale Chip fuer 2002/3 hochqualitatives winkel-unabhaengiges adaptives 16xAF kombiniert mit 2,4,6x sparse sampled gamma corrected MSAA haben sollen, nur moechte ich liebend gerne mal hoeren wie es mit den Transistoren und dem finalen Verkaufspreis ausgesehen haette. Jeder IHV versucht das Beste zu liefern und das auch nach seinen eigenene Prioritaeten fuer jeden bestimmten Zeitraum; noch weiter was ATI/NV liefern ist das beste was auf dem Markt momentan finden kann vom Value bis zum High-End Segment.

aths
2003-12-29, 04:15:37
Original geschrieben von Ailuros
Das ist mir zu weit offen zu falschen Interpretierungen. ATI hatte winkel-abhaengiges AF schon seit dem R100 (wobei aber die bilineare Limitierung bei R100/200 schon Grund genug war, mich kalt zu lassen damals). Winkelabhängig war es entweder wegen der Unfähigkeit, die "korrekte" Formel in HW umzusetzen (die "Line of Anistotropy" ist für 90°-Winkel nunmal sehr leicht zu berechnen), oder um die AF-Berechnungen zugunsten des Transistor-Counts besonders einfach zu halten. Imo spielten Füllraten-Überlegungen da noch nicht so rein, AF war damals (wie 32 Bit) ein Feature, wo es nur auf die Qualität, nicht auf die Geschwindigkeit ankam. (Ohne DDR-RAM _und_ Crossbar-Memory-Controller macht 32-Bit-Rendering z. B. wenig Sinn, vom Leistungsaspekt her betrachtet. Trotzdem wurde die 32-Bit-Krücke namens TNT kräftig mit diesem Feature beworben.)

Die AF-Formel von S3 hat auch diese seltsamen "Ohren" bei 8x, wie man es von NV her kennt. Offenbar hieße "wirkliches Lehrbuch-AF" für 8x (und 16x) doch einen erheblichen Aufwand zu betreiben. Wir sind uns aber vermutlich einig, dass die "45°-Ohren" (die ganz leicht ja schon bei 4x auftreten) leichter zu verschmerzen sind, als die Winkelabhängigkeit à la R300.
Original geschrieben von Ailuros
Der Verbraucher hat also in dem Sinn in der einen Hand einen AA-Spar-chip und in der anderen einen AF-Spar-chip (mal ganz laecherlich vereinfacht). Da hast du es auf den Punkt gebracht :)
Original geschrieben von Ailuros
Natuerlich haette der ideale Chip fuer 2002/3 hochqualitatives winkel-unabhaengiges adaptives 16xAF kombiniert mit 2,4,6x sparse sampled gamma corrected MSAA haben sollen, nur moechte ich liebend gerne mal hoeren wie es mit den Transistoren und dem finalen Verkaufspreis ausgesehen haette.So sehr viele Transistoren mehr wären es wohl nicht geworden. Ich _schätze_, dass R300 mit "Lehrbuch-Filtern" insgesamt nur um ca. 10% "schwerer" wäre.

Ailuros
2003-12-29, 04:52:35
So sehr viele Transistoren mehr wären es wohl nicht geworden. Ich _schätze_, dass R300 mit "Lehrbuch-Filtern" insgesamt nur um ca. 10% "schwerer" wäre.

a) (von Deinem vorigen Post als Punkt abgeschlagen) Was waere mit Fuellrate geworden?

b) 10% von 107M, sind 10.7M Transistoren mehr und obwohl mir das Prozentual zu wenig erscheint (was aber hier egal ist), viel Spass beim Versuch das Ganze noch in 150nm reinzuquetschen.

Wir sind uns aber vermutlich einig, dass die "45°-Ohren" (die ganz leicht ja schon bei 4x auftreten) leichter zu verschmerzen sind, als die Winkelabhängigkeit à la R300.

Im unmoeglichen Idealfall haette ich gerne eine 8x sparse SSAA + (=/>)8x winkel-unabhaengiges AF Kombination. Alles andere sind quasi-Kompromisse, mit den verstaendlichen Vor- und Nachteilen.

Du weisst genau wieso ich MSAA bevorzuge, aber wenn Fuellrate/Leistung unwichtig waere, weiss ich wohl schon was eher in die Richtung einer besseren Loesung gehen wuerde.

Zur Winkel-abhaengigkeit hab ich mich schon des oefteren geaeussert und auch in den Faellen wo es mich am meisten stoert. Haette meine NV25 nicht den Geist aufgegeben, wuerde sie immer noch in einem zweit-System rennen fuer Spiele wie FS2002, mit 8xS + AF.

Da hast du es auf den Punkt gebracht.

Es ist ja auch wirklich nicht anders, ueberhaupt wenn es zu Fanboy-flamewars kommt. Jeder sollte sich die Loesung schnappen die im besser zuspricht. Fuer 2002/3 war es fuer mich persoenlich nun mal eine R3xx Variante, das Bild wiegte in 2001/2 fuer die NV25 ueber und fuer 2004 warte ich erstmal ab und trinke Unmengen von Tee. Etwas irrelevant zur Debatte hier, aber dieses ewige Gewaerkel ueber GPUs ist sehr langweilig durch die Jahre geworden.

Ich veraepple ja meinen Nachbarn auch nicht oder streite mich mit ihm als Beispiel weil er sich X-Karre gekauft hat, die mir ueberhaupt nicht zusagt. Und um ein bisschen "X-mas spirit" reinzuschieben: in Iran liegen tausende von Kindern verbuddelt im Dreck und wir zerbrechen uns die Koepfe ueber Grakas....(ja das war ein bisschen gemein jetzt ;) ).

aths
2003-12-29, 06:00:31
Original geschrieben von Ailuros
a) (von Deinem vorigen Post als Punkt abgeschlagen) Was waere mit Fuellrate geworden? Beim AF etwas geringer.
Original geschrieben von Ailuros
b) 10% von 107M, sind 10.7M Transistoren mehr und obwohl mir das Prozentual zu wenig erscheint (was aber hier egal ist), viel Spass beim Versuch das Ganze noch in 150nm reinzuquetschen.Das ginge sicher, aber kaum bei den gewünschen MHz-Zahlen. Stimmt schon. _Persönlich_ würde ich 20% der MHz für quasi-perfekte gerne opfern, wenn man vom hohen Niveau eines R300 ausgeht. In der Praxis wird ATI natürlich lieber mit Leistung glänzen wollen, als mit bester Bildqualität.

Original geschrieben von Ailuros
Im unmoeglichen Idealfall haette ich gerne eine 8x sparse SSAA + (=/>)8x winkel-unabhaengiges AF Kombination. Alles andere sind quasi-Kompromisse, mit den verstaendlichen Vor- und Nachteilen.Da liegen wir auf der gleichen Linie :)

Original geschrieben von Ailuros
Du weisst genau wieso ich MSAA bevorzuge, aber wenn Fuellrate/Leistung unwichtig waere, weiss ich wohl schon was eher in die Richtung einer besseren Loesung gehen wuerde.Für Uralt-Games fände ich die Alternative mit RGSSAA nett, aber das würde noch mal einige Transitoren kosten ;(

Original geschrieben von Ailuros
Es ist ja auch wirklich nicht anders, ueberhaupt wenn es zu Fanboy-flamewars kommt. Jeder sollte sich die Loesung schnappen die im besser zuspricht. Fuer 2002/3 war es fuer mich persoenlich nun mal eine R3xx Variante, das Bild wiegte in 2001/2 fuer die NV25 ueber und fuer 2004 warte ich erstmal ab und trinke Unmengen von Tee.G00d. Dass R300 dem NV25 insgesamt überlegen ist, und zwar stark, steht natürlich außer Diskussion. Für mich reicht der NV25 zum Glück noch, wenn man auch leider immer öfter an die Grenzen der Leistungsfähigkeit stößt.

Zur Iran-Debatte: Grakas sind nunmal unsere Passion. Akzeptier es einfach :kicher: wir brauchen uns darüber nicht zu schämen. Aber auch mir sind bestimmte, ewig gleiche Diskussionen zuweilen fad.

StefanV
2003-12-29, 12:10:14
Original geschrieben von aths
So sehr viele Transistoren mehr wären es wohl nicht geworden. Ich _schätze_, dass R300 mit "Lehrbuch-Filtern" insgesamt nur um ca. 10% "schwerer" wäre.

Ich deke, daß es schon ein paar mehr Transistoren sein könnten, wenn man alles addiert, was ATI bei der R300 Serie und derivaten eingespart hat...

Vermutlich würde ein RV350 ohne 'Einsparungsmaßnahmen' auf 90Mio Transis kommen können, da an anderen Dingen, die nichts mit 3D zu tun haben gespart wurden, so z.B. der 2. RAMDAC bzw TV Encoder, bei denen ATI es 'irgendwie' geschafft hat, die von einander abhängig zu designen (ergo: entweder 2. CRT oder TV Out nutzbar)...

Odal
2003-12-29, 12:10:16
Original geschrieben von Tigerchen

Fast unsichtbare Qualitätsabstriche! Das nehme ich gerne in Kauf weil auf der anderen Seite eine überlegene Performance steht. Zumal du sicher sein darfst daß ATI das Verfahren noch verfeinern wird.
Ich sehe es eher so daß nVIDIA hier den Weg ATI's folgt, ja sogar fogen muß um nicht abgehängt zu werden.Ein deutliches Indiz ist der "brilineare Filter" der ja wohl eine echte Verzweiflungstat ist. Außerdem kann nVIDIA sich sowieso warm anziehen wenn Loci tatsächlich mit 8*1 Tri daherkommt während der nV40 immer noch mit 4*2 Bi auskommen muß.



mhh..also was ich an screenies gesehen hab (auch aus games) war das schlechte AF vom Radeon schon zu sehen....

und was meinst du mit "verfeinern"? Das bild noch matschiger machen um 5 fps mehr zu bekommen? ich finde solche entwicklung traurig....
Sicher ist es gut das es Konkurenzkaempfe gibt..das schlechte ist das diese grossteils ueber Performance ausgetragen werden..und somit oft die Bildqualitaet auf der Strecke bleibt....da nehmen sich beide hersteller nichts

also ich bin am ueberlegen mir naechstes jahr ne ATI Karte zu holen..also mehr just 4 fun....fuer mein Zweitsystem...
dann kann ich endlich einen meiner alten 14" Monis verwenden...bei dem Matschbild durch die Radeons faellt die ausgebrannte Leuchtstoffschicht dann auch nichmehr ins Gewicht :)

robbitop
2003-12-29, 13:32:45
soll im NV40 nicht sogar neue Subpixelmasken enthalten sein?

Ok das mit dem Stochastic grid hörte sich etwas seltsam an aber ich denke hier sollte von nVIDIA wirklich mal etwas getan werden. Soviele Jahre lang HRAA...

@Aths
wie sicher bist du dir, dass bei 175Mio Transistoren ein 8x2 Setup "hineinpasst".
Es werden ausser der Pixelpipeline ja sicher noch andere Änderungen enthalten sein...

Tigerchen
2003-12-29, 16:10:57
Original geschrieben von aths
"Brilineare" Filterung wird auch von den wenigsten gesehen. Oder sagen wir mal so, die Nachteile sind vor allem bei den Leuten fast unsichtbar, die selbst eine FX haben.
Ich verstehe nicht, wieso du den brilinearen Filter offensichtlich negativ bewertest, aber auf der anderen Seite die starke Winkelabhängigkeit bei ATIs AF noch als sinnvolle Maßnahme verteidigst. (Beides bewirkt, dass zulasten der Qualität Füllrate gespart wird. Die "brilineare" Filterung ist auf HW-Support angewiesen, was wohl relativ frühzeitig geplant wurde. Zu einer Zeit, als von ATI noch nicht viel zu hören war.) Es ist schade, dass NV treiberseitig den Anwender zu "brilinear" zwingt. ATI zwingt allerdings den Anwender auch zu 2x AF bei 22,5°-Winkeln, wenn man eigentlich 16x eingestellt hat.

Es sieht aber aus Anwendersicht so aus daß der "brilineare" Filter nur aktiviert wurde um von der Performance her mithalten zu können. Wenn ATI jetzt anisotrop nach "Lehrbuch" filtert hat nVIDIA wieder einen Vorteil der von den üblichen Benchmarkfritzen wieder deutlich hervorgestrichen werden wird. Also denke ich daß ATI einen Teufel tun wird diesen Vorteil aufzugeben. Nimm einfach zur Kenntnis daß anisotropes Filtern nach Lehrbuch beim Volk nicht akzeptiert wird weil es zuviel Performance kostet. Und als Hersteller mußt du das bieten was das Volk will.


War ATIs Spar-Chip namens R300/R350 ("Spar-Chip" hier bewusst filtertechnisch gesehen) dann nicht auch eine Verzweiflungstat?

Auch das 256 Bit Speicherinterface war reine Verzweiflung. Bei der Hype um den nV30 damals waren sie verdammt einen Superkracher zu basteln oder unterzugehen. Ich denke mal man war auch bei ATI sehr überrascht darüber wie schwach der vielgepriesene "Wunderchip" von nV dann in der Praxis abschnitt.Von der Staubsaugerkühlung mal ganz abgesehen.


NV folgte offensichtlich ATI durchaus beim AF — durch die Performance-Einstellungen. Die sind zwar unter dem Aspekt "Qualität pro Füllrate" Unsinn³, aber so kann man dann halt auch mal mit vorgeblichem 8x AF benchen, und dabei unter Vernachlässung der tatsächlichen Textur-Qualität hohe "Leistung" erzielen. Imo ein nicht begrüßenswerter Trend.
Wovon träumst du nachts? NV40 wird wahrscheinlich mit 8x2 kommen. Das ist dann flexibler als 8x1 tri.

Schaun wir mal.


Retour: ATI kann sich warm anziehen, wenn R420 weiterhin mit 8x1 bilinearen TMUs arbeitet...

Das seh ich auch so.

Tigerchen
2003-12-29, 16:19:34
Original geschrieben von Odal
mhh..also was ich an screenies gesehen hab (auch aus games) war das schlechte AF vom Radeon schon zu sehen....

und was meinst du mit "verfeinern"? Das bild noch matschiger machen um 5 fps mehr zu bekommen? ich finde solche entwicklung traurig....
Sicher ist es gut das es Konkurenzkaempfe gibt..das schlechte ist das diese grossteils ueber Performance ausgetragen werden..und somit oft die Bildqualitaet auf der Strecke bleibt....da nehmen sich beide hersteller nichts

also ich bin am ueberlegen mir naechstes jahr ne ATI Karte zu holen..also mehr just 4 fun....fuer mein Zweitsystem...
dann kann ich endlich einen meiner alten 14" Monis verwenden...bei dem Matschbild durch die Radeons faellt die ausgebrannte Leuchtstoffschicht dann auch nichmehr ins Gewicht :)

Du glaubst ja gar nicht wie lange ich vorm Monitor gehockt habe um Unterschiede zwischen der GF3 und der R9700 Pro zu finden.Besonders viel gefunden hab ich nicht.Nur daß die Farben bei der R9700 Pro wesentlich brillanter sind.Vor allem dunkle Farbtöne und generell blau kommen wesentlich besser rüber.

Odal
2003-12-29, 17:23:43
liegt vielleicht daran das du auch einen der "guten alten" 14"ler verwendest ;)

Tigerchen
2003-12-29, 19:18:38
Original geschrieben von Odal
liegt vielleicht daran das du auch einen der "guten alten" 14"ler verwendest ;)

Meist du ich sollte mal einen neuen 14" kaufen? ;D

aths
2003-12-30, 00:00:19
Original geschrieben von robbitop
@Aths
wie sicher bist du dir, dass bei 175Mio Transistoren ein 8x2 Setup "hineinpasst".
Es werden ausser der Pixelpipeline ja sicher noch andere Änderungen enthalten sein... Ziemlich sicher.


Original geschrieben von Tigerchen
Es sieht aber aus Anwendersicht so aus daß der "brilineare" Filter nur aktiviert wurde um von der Performance her mithalten zu können. Wenn ATI jetzt anisotrop nach "Lehrbuch" filtert hat nVIDIA wieder einen Vorteil der von den üblichen Benchmarkfritzen wieder deutlich hervorgestrichen werden wird. Also denke ich daß ATI einen Teufel tun wird diesen Vorteil aufzugeben. Nimm einfach zur Kenntnis daß anisotropes Filtern nach Lehrbuch beim Volk nicht akzeptiert wird weil es zuviel Performance kostet. Und als Hersteller mußt du das bieten was das Volk will.Wieso "Wenn ATI jetzt anisotrop nach "Lehrbuch" filtert"? Radeons können es nicht, weder heute noch morgen. Bei zukünftigen Radeons kann man schlecht von "jetzt" sprechen. Zukünftige Radeons werden hoffentlich mal auf bessere AF-Qualität setzen, wobei ich das beim R420 noch nicht erwarte.

Du meinst, dass "anisotropes Filtern nach Lehrbuch beim Volk nicht akzeptiert wird weil es zuviel Performance kostet". Kannst du das belegen? "Das Volk" akzeptiert auch die vergleichsweise schlechte PS.2.0-Leistung bei der FX-Serie. Sicherlich akzeptieren sie auch besseres AF als ATI es bietet, was dann aber logischerweise auch wieder Leistung kostet. Wenn 16x oder 8x AF zuviel Leistung frisst, bleibt ja noch 4x bzw. 2x. Nicht umsonst kann man den AF-Grad abstufen. Ein 16x AF, welches in Wahrheit ein 2x-16x AF ist, könnte man streng genommen auch als Verwirrungs-Spielchen von ATI bezeichnen.

Original geschrieben von Tigerchen
Auch das 256 Bit Speicherinterface war reine Verzweiflung. Bei der Hype um den nV30 damals waren sie verdammt einen Superkracher zu basteln oder unterzugehen. Ich denke mal man war auch bei ATI sehr überrascht darüber wie schwach der vielgepriesene "Wunderchip" von nV dann in der Praxis abschnitt.Von der Staubsaugerkühlung mal ganz abgesehen.Der NV30 war — und ist — in DX8 eine Rakete. Und in DX9 werden 2.X-Features geboten, wo ATI nur 2.0 anbieten kann. Dafür ist die Leistung dann leider auch bei 2.0 langsamer, ja. Nun ATI wusste sicher auch, dass der NV35 viele Schwächen beseitigen würde. NV bringt traditionsgemäß erst die Features, und im Refresh dann auch die Leistung. (32-Bit-Rendering war ab TNT2 einigermaßen akzeptabel.)

Das 256-Bit-Interface vom R300 halte ich nicht für eine Verzweiflungstat, sondern für den folgerichtigen nächsten Schritt, den NV leider erst beim NV35 gemacht hat. (Beim NV30 waren sie diesbezüglich einfach zu selbstsicher, und zu wenig innovativ. Dafür gab's beim NV35 Verbesserungen, wohingegen ATI nur den R300 neu aufgebacken hat. Es ist zu hoffen, dass NV aus der selbstgefälligen Trägheit herauskommt, während zu befürchten ist, dass der Schritt R300 - R420 kleiner ausfällt, als vom R100 zum R200, bzw. vom R200 zum R300.)

Viele "Fanatiker" lachen über die Features vom NV30 und betonen die Wichtigkeit der Pixelshader-Leistung vom R300. Das wundert mich ehrlich gesagt, denn erst zu R350 / NV35-Zeiten hat Pixelshader-2.0-Leistung überhaupt mal eine (noch sehr kleine) Relevanz. Ich möchte das DX9-Spiel sehen, was zu R350-Zeiten erscheint, das auf NV35 wegen seiner Pixelshader-Leistung unbefriedigend läuft. Für "volle" DX9-Spiele, die durchgehend auf hochwertiges Pixelshading setzen, wird auch die 9800 XT wohl zu langsam sein.

robbitop
2003-12-30, 01:14:21
meine Meinung aths :)

aber ich habe mal in einem Interview gelesen, daß sie das 256bit Interface aus Zeitgründen nicht mehr beim NV30 implementiert haben.

Letztendlich ist der Nv30 ein zu ehrgeiziges Projekt gewesen welches nicht das geworden ist, was es werden sollte. (Pro Mhz Leistung ist nicht deutlich höher als NV25/altes HRAA). Mit dem NV40 werden sicher ein paar Dinge dazukommen, die hätten sollen sein.

PPP vermute ich allerdings noch nicht im NV40

Wenn wirklich eine 8x2 Architektur vorhanden sind und davon auch alle Pipelines FullPresciosion sind, dann sollte die Pro Mhz Leistung um mehr als 100% zum NV35 gestiegen sein, was wirklich ungewöhnlich für einen Nachfolger ist.
Denn durch die Erhöhung der Tempregister und der Änderung der Struktur der Pipeline ("kurz und breit" statt "lang und eng") werden ja die Pipelines für sich schonmal deutlich effizienter laufen, als die alten und dann eben nochmal die Verdopplung der Pipelineanzahl.

Verstehen kann ich dann nur nicht, warum der NV41 bis HJ2 auf sich warten läßt. Denn mit 8x2 ist man im Gegensatz zum Midrangeprodukt NV36 (2x2) sicherlich extrem viel schneller....

betasilie
2003-12-30, 03:16:56
Original geschrieben von aths
"Das Volk" akzeptiert auch die vergleichsweise schlechte PS.2.0-Leistung bei der FX-Serie.
Aber auch nur, weil es noch keine wichtigen Spiele gibt, bei denen die Benchmarks zu Kaufargumenten werden. Falls z.B. HL2 wirklich langsamer läuft auf den FXen, was sich wohl durch den FP16-Renderpfad für die FXe in Grenzen halten wird, bedingt durch die langsameren Shader, würde das "Volk" dies wohl nicht akzeptieren. ;)

Wenn ATI besseres AF bietet und deswegen gegen NV in Sachen Performance verliert, wird das sicherlich auf Kosten der Absatzzahlen gehen.

Ich hoffe daher, dass ein R420 genug Füllrate bietet, um vernüntiges AF bei entsrechender Performance anbieten zu können.

Ailuros
2003-12-30, 07:05:08
PPP vermute ich allerdings noch nicht im NV40.

Och es gibt viele "P"s in heutigen und zukuenftigen Loesungen; die Frage ist nur inwiefern diese auch voll programmierbar sein werden :D

***edit:

("kurz und breit" statt "lang und eng")

Beides war wohl falsch fuer jegliche Situation und wurde auch ausfuehrlich besprochen (ich bin jetzt zu faul den B3D thread zu suchen).

Odal
2003-12-30, 12:44:07
Original geschrieben von Tigerchen

Meist du ich sollte mal einen neuen 14" kaufen? ;D

der wuerde bei deiner Radeon keinen unterschied zeigen :p
selbst mit intakter Leuchtschicht ;)

was ich damit andeuten wollte ist das viele Leistung nur als Performance ansehen und nicht Qualitaet als Leistung bewerten.

ich spiele gerade wieder Morrowind und ich muss sagen ich liebe das AF meiner GeForce :)
Teppcheneffekte sind bei 2xQuinxAA (schreibt man das so? :) ) kaum zu sehen. Die Texturen wirken bei 8x AF brilliant :)

StefanV
2003-12-30, 12:52:26
Original geschrieben von aths
während zu befürchten ist, dass der Schritt R300 - R420 kleiner ausfällt, als vom R100 zum R200, bzw. vom R200 zum R300.)

Och, soo groß ist der Schritt vom R200 zum R300 auch nicht :)

Im großen und ganzen ist das ein gefixter R200 mit ein paar neuen Features, einer TMU weniger, dafür verdoppelte Pipelinnes und ein doppelt breites Speicherinterface...

Wenn der R200 doch nur einigermaßen heile gewesen wäre :-/

robbitop
2003-12-30, 12:54:32
@AiL

so ähnlich hatte es Demirug ein paar mal beschrieben

@Odal

mit Quincunx AA werden nicht nur die Treppchen verwischt (positiv) sondern leider auch die Texturen, somit ist das zwar gut gegen Treppchen, aber die resultierende Bildqualität ist schlechter als reines 2xRGMSAA

Ailuros
2003-12-30, 13:37:13
@AiL

so ähnlich hatte es Demirug ein paar mal beschrieben

Ganz einfach:

Demirug wird um Stellungsnahme gebeten. Kurz, lang, breit, duenn, bruenette, blond oder rothaarig? :D

Ailuros
2003-12-30, 13:48:48
Och, soo groß ist der Schritt vom R200 zum R300 auch nicht.

Mal angenommen der R200 waere nicht durch die paar HW-bugs geplagt gewesen; selbst in dem Fall waere der Unterschied nicht allzu kleiner wie R300 im Vergleich zu NV25.

Demirug
2003-12-30, 14:29:51
Original geschrieben von Ailuros
Ganz einfach:

Demirug wird um Stellungsnahme gebeten. Kurz, lang, breit, duenn, bruenette, blond oder rothaarig? :D

Bist du jetzt unter die Mädchenhändler gegangen? :nono:

robbitop, die Aussage kamm ursprünglich mal von Dave Baumann wobei auch er nur etwas weitergeben hat. An die genaue Quellenangabe kann ich mich jetzt nicht erinneren.

Was er aber schrieb war das NV3X schmall und lang sein. Beim R3XX dagegen hätte man auf kurz und breit gesetzt. Beim NV4X will nVidia nun auch wieder kürzer und breiter werden. Interpretieren kann man das auf alle möglichen Arten. Daher sind daraus schwer Rückschlüsse zu ziehen. Das einzige was man mit relativer Sicherheit ableiten kann (wenn die Aussage richtig ist) wäre folgendes. Eine kürzere Pipeline erreicht mit einem kleineren Registerfile das gleiche wie eine lange mit einem grossen. Kann nVidia also die Pipeline beim NV4X wesentlich verkürzen reduzieren sie damit automatisch das Tempregister Problem das sie beim NV3X haben.

Tigerchen
2003-12-30, 14:33:12
Original geschrieben von Odal
der wuerde bei deiner Radeon keinen unterschied zeigen :p
selbst mit intakter Leuchtschicht ;)

was ich damit andeuten wollte ist das viele Leistung nur als Performance ansehen und nicht Qualitaet als Leistung bewerten.

ich spiele gerade wieder Morrowind und ich muss sagen ich liebe das AF meiner GeForce :)
Teppcheneffekte sind bei 2xQuinxAA (schreibt man das so? :) ) kaum zu sehen. Die Texturen wirken bei 8x AF brilliant :)

Also wer mit diesem QAA spielt sollte lieber nicht über brillante Texturen und 14" Monitore reden.

Ailuros
2003-12-30, 14:52:20
Original geschrieben von Demirug
Bist du jetzt unter die Mädchenhändler gegangen? :nono:

robbitop, die Aussage kamm ursprünglich mal von Dave Baumann wobei auch er nur etwas weitergeben hat. An die genaue Quellenangabe kann ich mich jetzt nicht erinneren.

Was er aber schrieb war das NV3X schmall und lang sein. Beim R3XX dagegen hätte man auf kurz und breit gesetzt. Beim NV4X will nVidia nun auch wieder kürzer und breiter werden. Interpretieren kann man das auf alle möglichen Arten. Daher sind daraus schwer Rückschlüsse zu ziehen. Das einzige was man mit relativer Sicherheit ableiten kann (wenn die Aussage richtig ist) wäre folgendes. Eine kürzere Pipeline erreicht mit einem kleineren Registerfile das gleiche wie eine lange mit einem grossen. Kann nVidia also die Pipeline beim NV4X wesentlich verkürzen reduzieren sie damit automatisch das Tempregister Problem das sie beim NV3X haben.

ROFL :D Nein.

Wavey fragte einen NV Angestellten bei einer Ausstellung ob das kurz/breit/lang/duenn Dingsda Sinn machen koennte und die Antwort war ein schlichtes "Ja".

Wavey selber hat sich aber spaeter in diesem Thread:

http://www.beyond3d.com/forum/viewtopic.php?p=168630&highlight=pipeline#168630

...bezueglich beider Architekturen wohl selber teilweise korrigiert (der Link ist eher fuer robbi, da ich mir sicher bin dass Du den Thread schon seit langem kennst).

Tigerchen
2003-12-30, 14:53:31
Original geschrieben von aths

Wieso "Wenn ATI jetzt anisotrop nach "Lehrbuch" filtert"? Radeons können es nicht, weder heute noch morgen. Bei zukünftigen Radeons kann man schlecht von "jetzt" sprechen. Zukünftige Radeons werden hoffentlich mal auf bessere AF-Qualität setzen, wobei ich das beim R420 noch nicht erwarte.

Ja irgendwann mal.Das ist denkbar aber noch ein bißchen weit weg. Und unterlasse bitte das absichtliche Missverstehen meiner Statements.

Du meinst, dass "anisotropes Filtern nach Lehrbuch beim Volk nicht akzeptiert wird weil es zuviel Performance kostet". Kannst du das belegen?

Hat ATI seinen Gewinn im letzten Quartal nicht verdoppelt?

"Das Volk" akzeptiert auch die vergleichsweise schlechte PS.2.0-Leistung bei der FX-Serie.

Ach ja?Wie waren denn die Verkaufszahlen der FX5800/FX5900?
Eher schlecht nicht wahr.Ist wohl doch nicht so dolle mit der Akzeptanz.

Sicherlich akzeptieren sie auch besseres AF als ATI es bietet, was dann aber logischerweise auch wieder Leistung kostet. Wenn 16x oder 8x AF zuviel Leistung frisst, bleibt ja noch 4x bzw. 2x. Nicht umsonst kann man den AF-Grad abstufen. Ein 16x AF, welches in Wahrheit ein 2x-16x AF ist, könnte man streng genommen auch als Verwirrungs-Spielchen von ATI bezeichnen.

Du siehst das so und bemerkst gar nicht wie einsam dieser Standpunkt ist.An der Kasse haben die Leute sich in den letzten Monaten anders entschieden.

Der NV30 war — und ist — in DX8 eine Rakete. Und in DX9 werden 2.X-Features geboten, wo ATI nur 2.0 anbieten kann. Dafür ist die Leistung dann leider auch bei 2.0 langsamer, ja. Nun ATI wusste sicher auch, dass der NV35 viele Schwächen beseitigen würde. NV bringt traditionsgemäß erst die Features, und im Refresh dann auch die Leistung. (32-Bit-Rendering war ab TNT2 einigermaßen akzeptabel.)

Wieviele Einheiten wurden von der "Rakete" verkauft? 10000 ?

Das 256-Bit-Interface vom R300 halte ich nicht für eine Verzweiflungstat, sondern für den folgerichtigen nächsten Schritt, den NV leider erst beim NV35 gemacht hat. (Beim NV30 waren sie diesbezüglich einfach zu selbstsicher, und zu wenig innovativ. Dafür gab's beim NV35 Verbesserungen, wohingegen ATI nur den R300 neu aufgebacken hat. Es ist zu hoffen, dass NV aus der selbstgefälligen Trägheit herauskommt, während zu befürchten ist, dass der Schritt R300 - R420 kleiner ausfällt, als vom R100 zum R200, bzw. vom R200 zum R300.)

Die Hoffnung stirbt zuletzt.Schaun wir mal was Loci wirklich bringt.Bis dahin ist eh alles Spökenkiekerei.

Viele "Fanatiker" lachen über die Features vom NV30 und betonen die Wichtigkeit der Pixelshader-Leistung vom R300. Das wundert mich ehrlich gesagt, denn erst zu R350 / NV35-Zeiten hat Pixelshader-2.0-Leistung überhaupt mal eine (noch sehr kleine) Relevanz. Ich möchte das DX9-Spiel sehen, was zu R350-Zeiten erscheint, das auf NV35 wegen seiner Pixelshader-Leistung unbefriedigend läuft. Für "volle" DX9-Spiele, die durchgehend auf hochwertiges Pixelshading setzen, wird auch die 9800 XT wohl zu langsam sein.

Ein Ausblick in die Zukunft weil die Gegenwart so trübe für dich "Fanatiker" aussieht? Ich hab mir die R300 wegen des tollem und schnellen AF gekauft obwohl das der GF3 zwar noch ein wenig perfekter war aber eben auch so langsam daß es mir die Tränene in die Augen trieb.

StefanV
2003-12-30, 15:18:23
Original geschrieben von Ailuros
Mal angenommen der R200 waere nicht durch die paar HW-bugs geplagt gewesen; selbst in dem Fall waere der Unterschied nicht allzu kleiner wie R300 im Vergleich zu NV25.

Nö, aber wenn die R200 nicht so verbugt gewesen wäre, wie sie ist, dann wäre sie a) näher an der NV25 und b) einmal mehr vor 'ner NV20...
dun c) aths hätte jetzt ev. eine R200 anstatt einer NV25 *eg*

Odal
2003-12-30, 18:44:46
Original geschrieben von robbitop
@AiL

so ähnlich hatte es Demirug ein paar mal beschrieben

@Odal

mit Quincunx AA werden nicht nur die Treppchen verwischt (positiv) sondern leider auch die Texturen, somit ist das zwar gut gegen Treppchen, aber die resultierende Bildqualität ist schlechter als reines 2xRGMSAA

danke fuer den tipp, dann werd ich das ganze mal auf 2x oder 4x setzen, da mir die texturqualitaet und schaerfe ,wie schon erwaehnt, mit abstand am wichtigsten ist

Odal
2003-12-30, 18:48:30
Original geschrieben von Tigerchen

Also wer mit diesem QAA spielt sollte lieber nicht über brillante Texturen und 14" Monitore reden.

wie gesagt, das wusst ich nicht und bin fuer den Tipp sehr dankbar (die Texturen sahen mit 8x AF trotzdem deutlich besser aus) und das wird sofort gefixt.
2x oder 4x (eher 2x das muesste auch reichen)
da mir schoene Texturen und vorallem schaerfe ja am wichtigsten sind.


gruss Odal :-)

noch ein paar tipps fuer den atuner?

Gast
2003-12-30, 21:03:52
Original geschrieben von Stefan Payne
Nö, aber wenn die R200 nicht so verbugt gewesen wäre, wie sie ist, dann wäre sie a) näher an der NV25 und b) einmal mehr vor 'ner NV20...
dun c) aths hätte jetzt ev. eine R200 anstatt einer NV25 *eg*


Häää....

ich dachte aths legt auch Wert auf AF. Die R200 hat doch nur das ziemlich schlechte biAF das nur bei 0° und 90° gut funktioniert und dazwischen ziemlich lausig aussieht.

Wieso sollte aths also eine R200 kaufen, nur wegen des dann hoffentlich funktionierenden MSAA, das die NV25-Karten genauso gut können???

Ziemlich unwahrscheinlich also deine Theorie. Solltest du nochmal gründlich überdenken.

Oder aths?

StefanV
2003-12-30, 21:15:15
Original geschrieben von Gast
Wieso sollte aths also eine R200 kaufen, nur wegen des dann hoffentlich funktionierenden MSAA, das die NV25-Karten genauso gut können???

Ziemlich unwahrscheinlich also deine Theorie. Solltest du nochmal gründlich überdenken.

Oder aths?

Naja, ehrlich gesagt gehe ich davon aus, daß der R200 mit dem MSAA der R300 geplant gewesen ist, nur ging 'irgendwas' schief...

4x RGMSAA und 6x SSMSAA wären schon nicht soo schlecht *eg*

PS: außerdem würde die ev. R200 dann auch 'etwas' 'runder' laufen :)

Ailuros
2003-12-31, 05:49:20
Naja, ehrlich gesagt gehe ich davon aus, daß der R200 mit dem MSAA der R300 geplant gewesen ist, nur ging 'irgendwas' schief...

Sans gamma correction, colour compression, HyperZ III optimisations.

Aquaschaf
2003-12-31, 14:50:27
Nutzbar und schöner als das AA des NV20/25 wäre es aber trotzdem gewesen. Naja, es hat nicht sollen sein.

aths
2004-01-01, 06:50:03
Original geschrieben von robbitop
Wenn wirklich eine 8x2 Architektur vorhanden sind und davon auch alle Pipelines FullPresciosion sind, dann sollte die Pro Mhz Leistung um mehr als 100% zum NV35 gestiegen sein, was wirklich ungewöhnlich für einen Nachfolger ist.Der Sprung von NV5 zu NV10 war ähnlich groß. Der NV15 brachte zumindest bei bilinearer Filterung sehr viel mehr Leistung als NV10. Im 32-Bit-Modus kann NV20 einem NV15 zeigen, wo der Hammer hängt...

TNT hat gegenüber dem Riva 128 eine doppelt so breite Architektur. GeForce verdoppelte das erneut. GeForce2 erweiterte sie in die Tiefe (4x tri -> 4x 2 bi.) GeForce3 hatte den Speichercontroller, der das ausnutzen kann.

GeForceFX erweiterte nur die Z-Füllrate. NV35 brachte den Speichercontroller, um die neue Leistung umsetzen zu können. Die nächste Architektur-Verdopplung wäre jetzt wirklich langsam mal dran.
Original geschrieben von betareverse
Aber auch nur, weil es noch keine wichtigen Spiele gibt, bei denen die Benchmarks zu Kaufargumenten werden. Falls z.B. HL2 wirklich langsamer läuft auf den FXen, was sich wohl durch den FP16-Renderpfad für die FXe in Grenzen halten wird, bedingt durch die langsameren Shader, würde das "Volk" dies wohl nicht akzeptieren. ;)HL2 ist ein Spiel. Für den Markt insgesamt wenig relevant.

Wenn FP16 reicht, reicht FP16. Dafür hat CineFX auch FP32, wenn erforderlich.
Original geschrieben von betareverse
Ich hoffe daher, dass ein R420 genug Füllrate bietet, um vernüntiges AF bei entsrechender Performance anbieten zu können. Zumindest was die Füllrate angeht, habe ich keine Sorgen.

aths
2004-01-01, 06:56:36
Original geschrieben von Odal
ich spiele gerade wieder Morrowind und ich muss sagen ich liebe das AF meiner GeForce :)
Teppcheneffekte sind bei 2xQuinxAA (schreibt man das so? :) ) kaum zu sehen. Die Texturen wirken bei 8x AF brilliant :) Gleichzeitig AF und Quincunx zuschalten? OMFG. Nimm lieber 2x AA.

Original geschrieben von Stefan Payne
Och, soo groß ist der Schritt vom R200 zum R300 auch nicht :)

Im großen und ganzen ist das ein gefixter R200 mit ein paar neuen Features, einer TMU weniger, dafür verdoppelte Pipelinnes und ein doppelt breites Speicherinterface... Das sind insgesamt tief greifende Änderungen. Beim Sprung von R300 zum R420 erwarte ich weniger Änderungen (natürlich vom hohen R300-Niveau aus) als vom R200 zum R300. Mal sehen.

Original geschrieben von Aquaschaf
Nutzbar und schöner als das AA des NV20/25 wäre es aber trotzdem gewesen. Naja, es hat nicht sollen sein. Das AF des R200 finde ich indiskutabel. Ggü. NV25 kann R200 mit Pixelshader 1.4 punkten, und mit Gamma-Korrektur für's Overlay, aber das war's auch schon.

Wäre beim NV25 nicht der Transistor-Count zu kritisch geworden, gäbe es nicht die Schwäche beim Bi-AF. Wäre, hätte, würde ... das hilft uns nicht weiter :)

aths
2004-01-01, 06:58:22
Original geschrieben von Tigerchen
Und unterlasse bitte das absichtliche Missverstehen meiner Statements. Unterlasse bitte Unterstellungen.
Original geschrieben von Tigerchen
Hat ATI seinen Gewinn im letzten Quartal nicht verdoppelt?
Von welchem Niveau aus? (Ich hoffe, dass sich ATIs Kassen füllen, damit sie den Atem für einen nächsten Kracher haben.)
Original geschrieben von Tigerchen
Ach ja?Wie waren denn die Verkaufszahlen der FX5800/FX5900?
Eher schlecht nicht wahr.Ist wohl doch nicht so dolle mit der Akzeptanz.Dafür wurden (und werden) massenhaft 5200-er und viele 5600-er verkauft, trotz mieserabler DX9-Leistung. Toll finde ich das nicht, dass Nvidia damit durchkommt. Wenn du in diesem Posting ständig auf den Verkaufszahlen herumreitest, müsstest du die FX5200 für geniale DX9-Karten halten. Vermutlich ist es die meistverkaufte DX9-Karte.

Soweit ich das mitkriege, geht die FX 5900 eigentlich ziemlich gut. Dass die 5800 im Vergleich zur 9700 nicht sonderlich gut da stand, steht außer Frage.
Original geschrieben von Tigerchen
Du siehst das so und bemerkst gar nicht wie einsam dieser Standpunkt ist.An der Kasse haben die Leute sich in den letzten Monaten anders entschieden.In diesem Absatz redete ich über AF-Qualität, nicht von Kassen. Wahrscheinlich wissen die meisten Radeon-Käufer über die AF-"Qualität" genauso bescheid, wie die 5200/5600-Käufer über die DX9-Leistung jener Karten. Gar nicht.

AF-Qualität ist ja nun bei weitem nicht alles, ebenso wie weder AA-Qualität noch PS.2.0-Leistung "das wichtigste" ist. Das Produkt sollte als ganzes gesehen werden. Hier bevorzugen die meisten im Moment ATI-Produkte. Zurecht, wie ich finde. Dass die FXe MSAA-mäßig rückständig sind, ist klar. Ich frage mich, wieso sich einige so winden, wenn es um das AF à la R3xx geht. Klar ist es schneller, aber die AF-Effizienz ist (nach meinem Kenntnisstand) nicht höher als bei den FXen, und in Dingen Rohleistung sind die FXe zumeist überlegen. Woher kommt es dann, dass "16x" AF schneller ist, als 8x?

Soweit ich das richtig in Erinnerung habe, ist 4x MSAA auf NV35 schneller als mit dem R350. Hier wird von "Fanatikern" richtig argumentiert, dieser Vergleich sei sinnlos da die resultierende BQ unterschiedlich sei. Beim AF ist die tatsächliche Qualität plötzlich nicht mehr so wichtig, bzw. die Unterschiede werden als "kaum wahrnehmbar" verniedlicht. Das halte ich für genauso absurd wie Einlassungen von möglichen "Nvidioten", die meinten, 2x RGMSAA sei ausreichend, mehr bräuchte man nicht.

Imo ist deine Argumentation nicht stringent. Entweder guckst du auf die verkauften Karten, und siehst, dass viele FX 5600-er bewusst als Spiele-Karte gekauft wurde. Oder du lässt die Leute in ihrem Glauben und guckst, was die Produkte wirklich können. Dass ATI im Aufwind ist, ist ja nicht zufällig. Doch da du den Leuten "an der Kasse" offenbar genügend Sachverstand zutraust, bliebe zu klären, warum gewisse jüngere Produkte von NV überraschend erfolgreich sind.

Original geschrieben von Tigerchen
Wieviele Einheiten wurden von der "Rakete" verkauft? 10000 ?Afaik wurden 100k Ultras hergestellt. Vermutlich sind die meisten verkauft. Wäre die Winfast A300 U bei K&M etwas länger verfügbar gewesen, hätte ich mit jener meine A250 U ersetzt.
Original geschrieben von Tigerchen
Die Hoffnung stirbt zuletzt.Schaun wir mal was Loci wirklich bringt.Bis dahin ist eh alles Spökenkiekerei.Dazu ist dieses Forum gedacht.
Original geschrieben von Tigerchen
Ein Ausblick in die Zukunft weil die Gegenwart so trübe für dich "Fanatiker" aussieht? Ich hab mir die R300 wegen des tollem und schnellen AF gekauft obwohl das der GF3 zwar noch ein wenig perfekter war aber eben auch so langsam daß es mir die Tränene in die Augen trieb.Das AF der GF ist nicht sonderlich langsam, aber die Grundleistung eines R300 deutlich höher. Da AF nunmal Füllrate braucht, und ATI offenbar auch nicht den Trick anwendet, bei tri-AF aus der niedriger aufgelösten MIP die Hälfte der Samples zu sparen, ist der Leistungs/Quality-Tradeoff bei beiden Karten zwangsläufig gleich. R300 AF ist relativ zum GF3-AF schneller, da weniger gut. Letztlich kann man bei der GF den AF-Grad senken und hat ebenfalls schnelleres (und weniger gutes) AF. Nur weil du "16x" auswählen kannst beim R300, muss das insgesamt nicht besser als 8x auf NV20 sein.

Ailuros
2004-01-01, 09:06:02
Zumindest was die Füllrate angeht, habe ich keine Sorgen.

Einwand: zwischen NV3x und R3xx nutzt die hoehere theoretische Multitexturing Fuellrate auf Papier der ersten anscheinend aber auch nicht mehr viel.

Nochmal, arithmetic efficiency nimmt wohl von vielem Vorrang hier und in dem Aspekt haben wir wohl immer noch nicht ein klares Bild was beide zukuenftige Architekturen betrifft.

Tigerchen
2004-01-01, 09:48:17
@ aths
Belassen wir es dabei daß du das ATI AF für schlecht hälst. Ist deine Sache. Ich seh die Sache eben von einem ganz anderen Standpunkt aus.

aths
2004-01-01, 10:09:07
Original geschrieben von Tigerchen
@ aths
Belassen wir es dabei daß du das ATI AF für schlecht hälst. Ist deine Sache. Ich seh die Sache eben von einem ganz anderen Standpunkt aus. Jo, vom ATI-User ;)
Original geschrieben von Ailuros
Einwand: zwischen NV3x und R3xx nutzt die hoehere theoretische Multitexturing Fuellrate auf Papier der ersten anscheinend aber auch nicht mehr viel.

Nochmal, arithmetic efficiency nimmt wohl von vielem Vorrang hier und in dem Aspekt haben wir wohl immer noch nicht ein klares Bild was beide zukuenftige Architekturen betrifft. Mit der Verbreiterung der Architektur auf 8x2 erwarte ich natürlich auch, dass alle PS-Stages "mitkopiert" werden, so dass sich die arithmetische Rechenkraft mitverdoppelt.

Ailuros
2004-01-01, 13:36:35
Mit der Verbreiterung der Architektur auf 8x2 erwarte ich natürlich auch, dass alle PS-Stages "mitkopiert" werden, so dass sich die arithmetische Rechenkraft mitverdoppelt.

Hmmmmm......2*(4*2)? (mal ganz vereinfacht) :stareup:

Tigerchen
2004-01-01, 13:41:13
Original geschrieben von aths
Jo, vom ATI-User ;)
[/SIZE][/QUOTE]

Natürlich.Die Beschwerden kommen ja oft von denen die gar keine ATI nutzen oder es nur tun um kleine Texturen riesig aufzublasen um Filtertricks nachzuweisen.

robbitop
2004-01-01, 13:58:21
@aths
wenn das mit der Pipelineveränderung hinkommt (fix des Tempregisterproblems), wird sich die FP Leistung mehr als nur verdoppeln.

Xmas@home
2004-01-01, 22:45:07
Original geschrieben von Tigerchen
Natürlich.Die Beschwerden kommen ja oft von denen die gar keine ATI nutzen oder es nur tun um kleine Texturen riesig aufzublasen um Filtertricks nachzuweisen.
Und häufig auch von ATI-Nutzern.


Original geschrieben von robbitop
@aths
wenn das mit der Pipelineveränderung hinkommt (fix des Tempregisterproblems), wird sich die FP Leistung mehr als nur verdoppeln.
Das tut ja auch Not, da NVidia hier nicht wenig aufzuholen hat.

aths
2004-01-02, 05:25:43
Original geschrieben von robbitop
@aths
wenn das mit der Pipelineveränderung hinkommt (fix des Tempregisterproblems), wird sich die FP Leistung mehr als nur verdoppeln. Ja, ich betrachte PS-Leistung zunächst nur sehr vereinfacht: Ausschließlich die arithmetischen Ops (die zwar "wichtiger" als Texture-Ops sind, aber T-Ops brauchts natürlich auch) und dann nur den Spitzenwert von arithmetischen Ops. Die tatsächliche PS-Leistung ist ja von so vielen Umständen abhängig, dass man sie bei unterschiedlichen Architekturen nur schwer vergleichen kann.

Original geschrieben von Ailuros
Hmmmmm......2*(4*2)? (mal ganz vereinfacht) :stareup: Ich habe keine Ahnung, wie das machen beim PS.3.0. Vielleicht nimmt man bis einschließlich 2.0 die alten Quads, vielleicht auch noch bei 3.0, dann jedoch meine ich da Performanceprobleme zu sehen, sofern Sprünge im Shader genutzt werden.

Ailuros
2004-01-02, 06:05:54
Ich habe keine Ahnung, wie das machen beim PS.3.0. Vielleicht nimmt man bis einschließlich 2.0 die alten Quads, vielleicht auch noch bei 3.0, dann jedoch meine ich da Performanceprobleme zu sehen, sofern Sprünge im Shader genutzt werden.

Dann schau mal her....angenommen:

NV40 = NV35 * 2
R420 = RV350 * 3

(nur vom Shader-throughput angesehen, denn so soll es laut der Geruechte mehr oder weniger sein; ob es stimmt weiss wohl keiner)

Wenn das tatsaechlich der Wahrheit entsprechen sollte, dann sehe ich nicht unbedingt einen klaren Vorteil fuer NV.

Seitennotiz:

Hmm - not impossible. If you have N identical functional units, each with M pipeline steps, you can (almost) design a single functional unit with N*M pipeline steps that runs at N times the clock speed of the rest of the design, simulating the operation of the N functional units. This will reduce the needed transistor count substantially, but the price you pay is that the new N*M pipeline unit draws much more power than the N units it replaces would have done together, so you will be trading off reduced die area against higher power consumption and a very nasty hotspot.

Double pumping decreases instruction latency. A possible result of the decreased instruction latency might be that you can execute more instructions in the same amount of time. That might be the same kind of result as doubling execution units. BUT double pumping is NOT the same as double execution units.

http://www.beyond3d.com/forum/viewtopic.php?t=9611&start=40

Notiz: gilt fuer NV40 genauso wie R420, wenn es zur Frage kommt was verdoppelt oder verdreifacht wurde....

Demirug
2004-01-02, 12:19:23
Original geschrieben von Ailuros
Dann schau mal her....angenommen:

NV40 = NV35 * 2
R420 = RV350 * 3

(nur vom Shader-throughput angesehen, denn so soll es laut der Geruechte mehr oder weniger sein; ob es stimmt weiss wohl keiner)

Wenn das tatsaechlich der Wahrheit entsprechen sollte, dann sehe ich nicht unbedingt einen klaren Vorteil fuer NV.

Beim NV3X ist der Shaderoutput aber eigentlich sehr eng mit der Fillrate verbunden. Zudem ist natürlich noch die Frage an welchem Beispiel da gemessen wurde. Durchschnitt? Ein bestimmter Shader oder Befehl?

Bezieht sich das ganze am ende nur auf die Anzahl der internen Recheneinheiten lässt aber die Nutzung effizienz aussen vor?

Demirug
2004-01-02, 12:23:12
Original geschrieben von aths
Ich habe keine Ahnung, wie das machen beim PS.3.0. Vielleicht nimmt man bis einschließlich 2.0 die alten Quads, vielleicht auch noch bei 3.0, dann jedoch meine ich da Performanceprobleme zu sehen, sofern Sprünge im Shader genutzt werden.

Statische Sprünge sind ja kein Problem weil alle 4 Pixel eines Quads dem gleichen Codepfad folgen. Problematisch wird es beim dynamsichen Sprüngen. Wenn man da bei Quads bleibt gibt es einen mehr oder minder grossen einbruch.

reunion
2004-01-02, 15:05:19
Also irgendwie sind die ganzen Spekulationene hier lächerlich...

Wer sagt denn überhaupt das NV in den NV40 eine 8x2 Architektur integrieren wird??
Also meinermeinug nach wird man wohl kaum eine verdopplung der Pipes plus PS3.0 Support und die ein oder anderen verbesserungen wie AA-Qualität, PS-Leistung,... in ca. 175 mio Transistoren quetschen können. Denn immerhin hat der NV35 jetzt schon über 130 Mio Trans.

Also ich glaube das NV weiterhin eine 4x2-Architektur benutzen wird und besser die schwächen der jetztigen Chips beheben wird...

Beim R420 glaube ich entweder an ein Füllratenmonster mit 12x1 (Pixel x Textel) das allerdings dann wohl ohne PS3.0 Support auskommen muss, oder auch wieder an eine 8x1 Architektur (vielleicht tri) mit PS3.0 Support.

Naja, eben just my 0.02€

Quasar
2004-01-02, 15:24:38
Original geschrieben von reunion
Also irgendwie sind die ganzen Spekulationene hier lächerlich...
Wieso? Sind deine besser bzw. weniger lächerlich?

Original geschrieben von reunion
Wer sagt denn überhaupt das NV in den NV40 eine 8x2 Architektur integrieren wird??
Keiner, aber dazu sind wir ja im Spekulationsforum - eben um zu spekulieren.

Original geschrieben von reunion
Also meinermeinug nach wird man wohl kaum eine verdopplung der Pipes plus PS3.0 Support und die ein oder anderen verbesserungen wie AA-Qualität, PS-Leistung,... in ca. 175 mio Transistoren quetschen können. Denn immerhin hat der NV35 jetzt schon über 130 Mio Trans.
Wieso nicht? Mit 8x2 hätte man sicher genug Rohleistung, um z.B. einige Dinge, die nur der Kompatibilität wegen mitgeschleppt werden, ausreichend schnell zu emulieren, was wiederum einige Transistoren sparen dürfte.

Ausserdem weiß man bei nV ja seit spätestens 18 Monaten, woran man mit DX9 in seiner endgültigen Form ist und muss nicht mehr ins Blaue hinein designen.

Original geschrieben von reunion
Also ich glaube das NV weiterhin eine 4x2-Architektur benutzen wird und besser die schwächen der jetztigen Chips beheben wird...

Beim R420 glaube ich entweder an ein Füllratenmonster mit 12x1 (Pixel x Textel) das allerdings dann wohl ohne PS3.0 Support auskommen muss, oder auch wieder an eine 8x1 Architektur (vielleicht tri) mit PS3.0 Support.

Naja, eben just my 0.02€

Womit sich der Kreis wieder schließt. =)

Tigerchen
2004-01-02, 16:28:24
Original geschrieben von Coda
Die Polygaps sind eigentlich nur da, wenn T-Junks nicht richtig gefixt werden, das liegt eigentlich eher am Spiel als an der Grafikkarte. Oder hast du schonmal in Quake oder Unreal nen Polygap gesehen? :)

Auch wenn die Subpixel genauigkeit bei ATi natürlich besser sein könnte :)

Als ich letztens meinte sowas könnte auch am Spiel oder der Spielengine liegen bin ich fast gesteinigt worden. Egon Olson und einer der Mods wurden da sehr aggresiv.

betasilie
2004-01-02, 16:28:41
Original geschrieben von Quasar
Wieso nicht? Mit 8x2 hätte man sicher genug Rohleistung, um z.B. einige Dinge, die nur der Kompatibilität wegen mitgeschleppt werden, ausreichend schnell zu emulieren, was wiederum einige Transistoren sparen dürfte.

Ausserdem weiß man bei nV ja seit spätestens 18 Monaten, woran man mit DX9 in seiner endgültigen Form ist und muss nicht mehr ins Blaue hinein designen.
Also 8x2 wäre schon brutal, aber ich traue NV einen großen Wurf zu, daher imo nicht unmöglich.

Und die DX9-Leistung wird mit Sicherheit explodieren. Das sollte wohl jedem klar sein und die technische Umsetzung dürfte wohl auch kalr sein.

Ailuros
2004-01-02, 16:32:02
Original geschrieben von reunion
Also irgendwie sind die ganzen Spekulationene hier lächerlich...

Wer sagt denn überhaupt das NV in den NV40 eine 8x2 Architektur integrieren wird??
Also meinermeinug nach wird man wohl kaum eine verdopplung der Pipes plus PS3.0 Support und die ein oder anderen verbesserungen wie AA-Qualität, PS-Leistung,... in ca. 175 mio Transistoren quetschen können. Denn immerhin hat der NV35 jetzt schon über 130 Mio Trans.

Also ich glaube das NV weiterhin eine 4x2-Architektur benutzen wird und besser die schwächen der jetztigen Chips beheben wird...

Beim R420 glaube ich entweder an ein Füllratenmonster mit 12x1 (Pixel x Textel) das allerdings dann wohl ohne PS3.0 Support auskommen muss, oder auch wieder an eine 8x1 Architektur (vielleicht tri) mit PS3.0 Support.

Naja, eben just my 0.02€

Wieviele extra Transistoren glaubst Du braucht theoretisch NV3x um PS/VS3.0 zu erreichen? Minimal braucht man fuer 3.0 mindestens 512 instruction slots und NV3x kann schon theoretisch 1024 unterstuetzen. Natuerlich fehlen die dynamic loops/branching und das Vertex texturing im VS, sonst ist er schon verdammt nahe an 3.0 in so manchen Stellen. So einfach ist es nicht wie es klingt, aber duzente von Millionen Transistoren werden sie wohl auch nicht mehr brauchen.

Ich hab mit Absicht die Frage gestellt was man mit Verdoppelung genau meint. Eine wahre Verdoppelung von Einheiten oder nicht? Pipelines im wahren Sinn der Sache, kannst Du schon gleich nochmal bei diesen chips vergessen.

robbitop
2004-01-02, 16:34:14
habt ihr weiter vorn nicht mitgelesen?
Dort ging es um Transistorcounts von Pipelines und ich habe mich mit meinen 10Mio Transistoren pro Pipeline wohl verschätzt laut Demi/Quasar ...es sind wohl weniger.

Und wer weiss wieviel PS3 kostet?
denk mal nach, warum hat der NV35 schon 130Mio Transistoren?
Ja weil die Architektur schon für PS/VS3 ausgelegt ist. Hier sind relativ "geringe" Änderungen nötig.

Außerdem vermute ich, daß im NV3x bereits im Trisetup neue Subpixelmasken vorgesehen waren. Aber das ist eine eigene heikle Spekulation. Aber gehört habe ich, daß es neue Masken beim NV40 geben soll.
8x2 ist also nicht unbedingt unrealistisch. Es ist eine sinnvolle Erweiterung der Architektur. aber was red ich, meine Vorredner haben all dies bereits erzählt... :)

Ailuros
2004-01-02, 16:37:42
Original geschrieben von Demirug
Beim NV3X ist der Shaderoutput aber eigentlich sehr eng mit der Fillrate verbunden. Zudem ist natürlich noch die Frage an welchem Beispiel da gemessen wurde. Durchschnitt? Ein bestimmter Shader oder Befehl?

Bezieht sich das ganze am ende nur auf die Anzahl der internen Recheneinheiten lässt aber die Nutzung effizienz aussen vor?

Wie ich oben schon schrieb warf ich die paar Zeilen mit den quotes mit Absicht in die Debatte. Meine Frage war eher: double (oder triple) pumping oder double/triple execution units?

Arjan's Punkt ueber den Stromverbrauch (wenn es auch war ist) machte mir mehr Gedanken als jedes andere. Stehen wir vielleicht doch vor der Moeglichkeit =/>100W Monster zu sehen?

Demirug
2004-01-02, 17:21:41
Original geschrieben von Ailuros
Wie ich oben schon schrieb warf ich die paar Zeilen mit den quotes mit Absicht in die Debatte. Meine Frage war eher: double (oder triple) pumping oder double/triple execution units?

An unterschiedliche Taktungen zur Leistungssteigerung glaube ich eher nicht. Die Abhängigkeiten sind da einfach zu gross. Das einzige was ich mir da vorstellen könnte ist das man aus 4fachen SIMD 2 fache macht und diese doppelt taket. Da sehe ich aber gefährliche Hotspots. Man könnte das vielleicht bei Einheiten die man nicht oft braucht (z.b. Sinus/Cosinus) machen um dort Transitoren zu sparen.

Arjan's Punkt ueber den Stromverbrauch (wenn es auch war ist) machte mir mehr Gedanken als jedes andere. Stehen wir vielleicht doch vor der Moeglichkeit =/>100W Monster zu sehen?

Ja, Leakströme werden langsam immer ärgerlicher.

robbitop
2004-01-02, 17:27:16
ihr sagt die Textur Ops sind mit den Arithmetic Ops gekoppelt... wurde das nicht beim NV35 angeblich entkoppelt oder irre ich mich da?
(wurden nicht auch zum NV35 ein paar Temp register hinzugefügt?)

Demirug
2004-01-02, 17:53:47
Original geschrieben von robbitop
ihr sagt die Textur Ops sind mit den Arithmetic Ops gekoppelt... wurde das nicht beim NV35 angeblich entkoppelt oder irre ich mich da?
(wurden nicht auch zum NV35 ein paar Temp register hinzugefügt?)

Das ist alles viel komplizierter. Es gibt im NV35 eine Einheit die alles kann (Textur + Arithmetic) und eine zweite die nur bestimmte Arithmetic Ops beherscht. Was die Vergrösserung des Registerfiles angeht so bin ich mir nicht ganz sicher wie viel da wirklich vergrössert wurde und wieviel möglicherweise durch andere Veränderungen wieder aufgefressen wurde.

Demirug
2004-01-02, 19:00:50
Was ich mich natürlich auch frage ist ob nV und ATI den Wirkungsgrad iherer Shaderhardware steigern. Im Moment wird da ja massenhaft Leistung verbraten. Bei nV noch mehr als bei ATI.

reunion
2004-01-02, 21:10:31
Original geschrieben von Quasar
Wieso nicht? Mit 8x2 hätte man sicher genug Rohleistung, um z.B. einige Dinge, die nur der Kompatibilität wegen mitgeschleppt werden, ausreichend schnell zu emulieren, was wiederum einige Transistoren sparen dürfte.

Naja weil das den Chip wohl extrem aufblähen würde...

Ausserdem weiß man bei nV ja seit spätestens 18 Monaten, woran man mit DX9 in seiner endgültigen Form ist und muss nicht mehr ins Blaue hinein designen.


Schon klar das sich NV sicherlich nicht noch ein zweitesmal mit der PS-Leistung blamieren will, nur wird das auch ATI wissen wodurch die neuen Graka Generationen sicherlich eine brachiale PS-Performance bieten werden...

Demirug
2004-01-02, 21:24:46
Original geschrieben von reunion
Naja weil das den Chip wohl extrem aufblähen würde...

Nicht wirklich.

+10M für die TMUs
+15-20M Für einen zweiten Pixelprocessor (ohne TMUs)

Schon klar das sich NV sicherlich nicht noch ein zweitesmal mit der PS-Leistung blamieren will, nur wird das auch ATI wissen wodurch die neuen Graka Generationen sicherlich eine brachiale PS-Performance bieten werden...

Ja, wobei ATI wesentlich weniger Freiraum für Leistungssteigerungen hat als nVidia. Ohne eine Grundlegend andere Architektur kann ATI nur durch mehr Funktionseinheiten und mehr Takt Leistung herausholen. CineFX I und II sind dagegen so "herlich" ineffetiv was die Nutzung der Rechenleistung angeht das da noch viel Luft ist.

Ailuros
2004-01-03, 04:32:52
Also nach hoeheren Taktraten von Seiten ATI sieht es momentan nicht danach aus; eher das Gegenteil. Was man aber nicht unbedingt als negativ anbetrachten sollte. Bei der Transistoren-Anzahl und konservativerer Taktung ist das Risiko wohl um einiges kleiner.

Anfang bis Mitte 2003 wurde noch spekuliert dass R420 etliche Monate spaeter als NV40 erscheinen soll, mit dem letzteren sogar einer Vorstellung so frueh wie im November 03'. Komischerweise wird die Zeitspanne zwischen der wahren Veroeffentlichung der Beiden immer kleiner.

Odal
2004-01-03, 05:53:12
ja so is das halt, gute dinge brauchen zeit ;D

StefanV
2004-01-03, 07:36:56
Original geschrieben von Odal
ja so is das halt, gute dinge brauchen zeit ;D

So wie der nV30?? *eg*

Sorry, konnte mir den nicht verkneifen

Allerdings sollten wir nicht vergessen, daß die aktuellen Chips den Fertigungsprozess fast vollständig ausnutzen...
Ebenso sollten wir bedenken, daß eine vermeintliche Verschiebung auf ein Problem mit dem Design hindeutet...

Nagut, solang beide nicht (wieder) sowas wie 'nen S2k Konkurenten rausbringen ist auch alles im grünen Bereich *eg*

aths
2004-01-03, 11:16:24
Original geschrieben von reunion
Also irgendwie sind die ganzen Spekulationene hier lächerlich...

Wer sagt denn überhaupt das NV in den NV40 eine 8x2 Architektur integrieren wird??Ich sage das z. B. :) Weil meiner Meinung nach die Architekturbreiten-Verdopplung überfällig ist.
Original geschrieben von reunion
Also meinermeinug nach wird man wohl kaum eine verdopplung der Pipes plus PS3.0 Support und die ein oder anderen verbesserungen wie AA-Qualität, PS-Leistung,... in ca. 175 mio Transistoren quetschen können. Denn immerhin hat der NV35 jetzt schon über 130 Mio Trans.CineFX ist bereits auf halbem Wege zu PS.3.0, und wenn ich das richtig verstanden habe, braucht der VS nur noch TMUs und ist dann praktisch ein 3.0-Shader. Pixelshader nehmen zwar recht viel auf dem Die ein, aber nicht so viel, dass man nicht doppelt so viele unterbringen könnte. Was MSAA angeht, immerhin ist bereits MSAA mit Z/Color-Compression integriert, "nur" das Abtast-Grid muss verbessert werden.
Original geschrieben von reunion
Also ich glaube das NV weiterhin eine 4x2-Architektur benutzen wird und besser die schwächen der jetztigen Chips beheben wird...Mit 4x2 gegen R420? Nicht wirklich ... Mit 4x2 kann man vielleicht Doom3 annehmbar spielen, aber kaum mögliche Spiele, die auf diese Engine setzen (und wie RtCW dann mehr vom PC verlangen, als das "Original"-Spiel zur Engine.)

Ailuros
2004-01-03, 17:28:19
Was MSAA angeht, immerhin ist bereits MSAA mit Z/Color-Compression integriert, "nur" das Abtast-Grid muss verbessert werden.

Bin mir zwar nicht sicher, aber ich wuerde wagen zu schaetzen dass der HW Aufwand dafuer groesser sein koennte als vertex texturing in den VS zu implementieren...;)

Elladan
2004-01-03, 19:32:16
Ist bekannt, wie schnell die neuen Chips sein werden?
sorry, ich will nich alle sechs seiten durchlesen, aber weiss jemand, wann die neuen Midrange- und Lowkarten erscheinen?

Xmas@home
2004-01-03, 19:51:40
Original geschrieben von Elladan
Ist bekannt, wie schnell die neuen Chips sein werden?
Natürlich nicht.

sorry, ich will nich alle sechs seiten durchlesen, aber weiss jemand, wann die neuen Midrange- und Lowkarten erscheinen?
Rechne mal mit Verfügbarkeit um die Jahresmitte.

reunion
2004-01-03, 21:22:17
Original geschrieben von aths
Ich sage das z. B. :) Weil meiner Meinung nach die Architekturbreiten-Verdopplung überfällig ist.

Tja, eine Architekturverdoppelung wäre schon lange überfällig gewesen, trozdem wurde im NV30 weiterhin ein 4x2 Design eingesetzt...

CineFX ist bereits auf halbem Wege zu PS.3.0, und wenn ich das richtig verstanden habe, braucht der VS nur noch TMUs und ist dann praktisch ein 3.0-Shader. Pixelshader nehmen zwar recht viel auf dem Die ein, aber nicht so viel, dass man nicht doppelt so viele unterbringen könnte. Was MSAA angeht, immerhin ist bereits MSAA mit Z/Color-Compression integriert, "nur" das Abtast-Grid muss verbessert werden.

Kann schon sein ;)
Wie schon gesagt ich weiß nicht wieviel Transistoren man noch braucht um PS/VS 3.0 bei NV40 zu erreichen, oder wieviel eine Pipeverdoppelung kostet, allerdings kommen mir die ca. 45mio zusätzlich zum NV35 verdammt wenig vor um das alles zu integrieren...


Mit 4x2 gegen R420? Nicht wirklich ... Mit 4x2 kann man vielleicht Doom3 annehmbar spielen, aber kaum mögliche Spiele, die auf diese Engine setzen (und wie RtCW dann mehr vom PC verlangen, als das "Original"-Spiel zur Engine.)

Naja, wer sagt denn das ATI bei R420 die Pipes verdoppelt?
Könnte doch genauso bei 8x1 bleiben...

reunion
2004-01-03, 21:26:09
Original geschrieben von Demirug
Nicht wirklich.

+10M für die TMUs
+15-20M Für einen zweiten Pixelprocessor (ohne TMUs)


Wirklich nicht mehr???
Man müsste ja wohl auch die gesamten PS/VS-Einheiten usw. mitverdoppeln (zumindest sollte man das so machen wenn man nicht einer solche Krüke wie XGI abliefern will ;)), ist das in der rechnug schon drin???

aths
2004-01-03, 22:40:14
Original geschrieben von reunion
Tja, eine Architekturverdoppelung wäre schon lange überfällig gewesen, trozdem wurde im NV30 weiterhin ein 4x2 Design eingesetzt... Beim NV30 waren erst mal die Pixelshader dran.
Original geschrieben von reunion
Naja, wer sagt denn das ATI bei R420 die Pipes verdoppelt?
Könnte doch genauso bei 8x1 bleiben... Bei 8x1 bi wird es wohl nicht bleiben — ATI hat bislang mit jeder Generation die Architektur verstärkt. 8x1 ist einfach zu leistungsschwach für Nex-Gen-Games.

betasilie
2004-01-04, 00:14:49
Original geschrieben von aths
Bei 8x1 bi wird es wohl nicht bleiben — ATI hat bislang mit jeder Generation die Architektur verstärkt. 8x1 ist einfach zu leistungsschwach für Nex-Gen-Games.
Du hast wahrschienlich recht, aber im worst case könnte ATI auch einfach auf die bessere Pro-MHZ-Leistung setzen und den R420 durch hohe Taktraten in 0.13µ versuchen konkurrenzfähig zu halten. Ich hoffe zwar nicht, dass es so kommt, aber völlig unmöglich ist das imho nicht.

Demirug
2004-01-04, 02:43:42
Original geschrieben von betareverse
Du hast wahrschienlich recht, aber im worst case könnte ATI auch einfach auf die bessere Pro-MHZ-Leistung setzen und den R420 durch hohe Taktraten in 0.13µ versuchen konkurrenzfähig zu halten. Ich hoffe zwar nicht, dass es so kommt, aber völlig unmöglich ist das imho nicht.

Und wie steigert man die Pro-MHZ Leistung eines Grafikchips? Man verbaut mehr Recheneinheiten oder versucht die vorhandenen besser zu nutzten. Mehr reinzubauen ist in der Regel einfacher weil man dafür weniger am Grunddesign ändern muss. Wenn ATI bei PS 2.0 bleibt dann gehe ich nach wie vor davon aus das sie einen dritten Pixelprozessor einbauen und weiter an der Taktschraube drehen. Sollten sie PS 3.0 einbauen ist alles möglich weil man dann erst mal wissen müsste auf welcher Desinggrundlage gearbeitet wird.

Ailuros
2004-01-04, 06:12:48
Ich bin mir sicher dass es schon woanders erwaehnt wurde:

http://www.beyond3d.com/forum/viewtopic.php?t=9688

mapel110
2004-01-04, 06:56:20
http://www.tecchannel.de/hardware/1283/index.html
tecchannel hat offenbar eigene roadmaps zusammengebastelt und geht beim nv40 auch von 8x2 aus.
sonst gibts in dem artikel imo keine neuen details. achja, taktraten stehen schon fest. 600/750 core/ram :lolaway:

Ailuros
2004-01-04, 07:42:18
Original geschrieben von mapel110
http://www.tecchannel.de/hardware/1283/index.html
tecchannel hat offenbar eigene roadmaps zusammengebastelt und geht beim nv40 auch von 8x2 aus.
sonst gibts in dem artikel imo keine neuen details. achja, taktraten stehen schon fest. 600/750 core/ram :lolaway:

Nach dem Kommentar hier:

Sowohl der Pixel- als auch der Vertex-Shader in den Versionen 3.0 bieten voraussichtlich DirectX-9.1-Unterstützung.

brauch ich wohl nicht weiterlesen....

Ailuros
2004-01-04, 07:50:57
8x1 ist einfach zu leistungsschwach für Nex-Gen-Games.

Gibt es irgend eine mathematische Erlaeuterung dafuer?

mapel110
2004-01-04, 08:34:00
Original geschrieben von Ailuros
Nach dem Kommentar hier:



brauch ich wohl nicht weiterlesen....

jaja, tecchannel ist bei grafikkarten die etwas seichtere lektüre :)

Ailuros
2004-01-04, 08:38:22
Original geschrieben von mapel110
jaja, tecchannel ist bei grafikkarten die etwas seichtere lektüre :)

Die Taktraten von NV40 stammen mit hoechster Wahrscheinlichkeit von Uttar. Ob sie jetzt stimmen oder nicht, sag ich jetzt nicht, aber sie liegen nicht im Raum des unmoeglichen.

Die erste Speicher-bestellung fuer hochratiges DDR2 ist gerade mal genug fuer ~500 boards, wenn das wenigstens hilft ;)

aths
2004-01-04, 16:32:28
Original geschrieben von Ailuros
Gibt es irgend eine mathematische Erlaeuterung dafuer? - Verhältnis (hochwertig gefilterte) Texturen und arithmetische Ops

- Anzahl benötigter arithmetischer Ops pro Sekunde für anständige "PS-Füllrate".

Ailuros
2004-01-05, 06:21:04
Original geschrieben von aths
- Verhältnis (hochwertig gefilterte) Texturen und arithmetische Ops

- Anzahl benötigter arithmetischer Ops pro Sekunde für anständige "PS-Füllrate".

Errr tut mir leid aber das ist mir zu generell.

Wenn ich auf NV3x zurueckschaue sehe ich keine "anstaendigen" PS-Fuellraten mit 8 texture ops.

Gast
2004-01-05, 08:44:02
Original geschrieben von reunion
Wie schon gesagt ich weiß nicht wieviel Transistoren man noch braucht um PS/VS 3.0 bei NV40 zu erreichen, oder wieviel eine Pipeverdoppelung kostet, allerdings kommen mir die ca. 45mio zusätzlich zum NV35 verdammt wenig vor um das alles zu integrieren...

Nun, genau weiß das sicherlich kaum jemand, ich jedenfalls auch nicht.

Aber genau darum schrieb ich ja ein paar Seiten weiter vorn, daß man mit "8x2" evtl. schon genug Rohleistung hätte, um solche Dinge wie die Reg-Combiner mit einer brauchbaren Performance zu emulieren, so daß die Hardware hierfür und die Transistoren eingespart werden könnten.
Das würde sicherlich auch noch einige Millionen Transistoren einsparen.

Q

Demirug
2004-01-05, 09:20:27
Original geschrieben von Gast
Nun, genau weiß das sicherlich kaum jemand, ich jedenfalls auch nicht.

Aber genau darum schrieb ich ja ein paar Seiten weiter vorn, daß man mit "8x2" evtl. schon genug Rohleistung hätte, um solche Dinge wie die Reg-Combiner mit einer brauchbaren Performance zu emulieren, so daß die Hardware hierfür und die Transistoren eingespart werden könnten.
Das würde sicherlich auch noch einige Millionen Transistoren einsparen.

Q

Um die Reg-Combiner kommt man ja nicht wirklich herum. Im Endeffekt beherschen diese ja sowieso nur wenige Grundrechenarten.

Was nVidia nur fertig bringen müsste ist folgendes: Pro Pixelprozessor eine FP32 Einheit welche auch die Spezialitäten wie Sinus/Cosinus oder 1/sqrt(x) kann. Dazu dann noch zwei "Reg-Combiner" auf FP16 Basis welche sich aber auch zu einem FP32 Combiner zusammenschalten lassen. Das ganze dann noch splitfähig (Vec3+Skalar) und das Teil geht ab.

haifisch1896
2004-01-05, 12:27:42
Original geschrieben von Demirug
Pro Pixelprozessor eine FP32 Einheit welche auch die Spezialitäten wie Sinus/Cosinus oder 1/sqrt(x) kann.

Äh, was ist 1/sqrt (x)???

Ach, übrigens, Demi: Hab den angesprochen Artikel der PCGH vom Dez. mal lesen können. Nicht schlecht...

Aquaschaf
2004-01-05, 12:44:00
Original geschrieben von hendrikhey
Äh, was ist 1/sqrt (x)???


1 geteilt durch die Quadratwurzel von x.

haifisch1896
2004-01-05, 13:18:13
Super, danke.

aths
2004-01-05, 16:17:11
Original geschrieben von Ailuros
Errr tut mir leid aber das ist mir zu generell.

Wenn ich auf NV3x zurueckschaue sehe ich keine "anstaendigen" PS-Fuellraten mit 8 texture ops. Wie meinst du das? Ich meinte ursprünglichOriginal geschrieben von aths
8x1 ist einfach zu leistungsschwach für Nex-Gen-Games.

Quasar
2004-01-05, 19:54:09
Original geschrieben von Demirug
Um die Reg-Combiner kommt man ja nicht wirklich herum. Im Endeffekt beherschen diese ja sowieso nur wenige Grundrechenarten.

Was nVidia nur fertig bringen müsste ist folgendes: Pro Pixelprozessor eine FP32 Einheit welche auch die Spezialitäten wie Sinus/Cosinus oder 1/sqrt(x) kann. Dazu dann noch zwei "Reg-Combiner" auf FP16 Basis welche sich aber auch zu einem FP32 Combiner zusammenschalten lassen. Das ganze dann noch splitfähig (Vec3+Skalar) und das Teil geht ab.

Wie meinst du "kommt man nicht wirklich drumherum"? Irgendwann werden doch diese Appendices nicht mehr nötig sein, weil deren Funktionen von mehr generalisierten Einheiten mind. genausoschnell übernommen werden können...

Oder rede ich jetzt an dir vorbei?

Zum Rest deines Posting: Pah! Kein Problem, den floorplan bau ich dir in der GZSZ-Werbepause mit'm TI-Taschenrechner zusammen ;) ;)

Demirug
2004-01-05, 20:59:48
Original geschrieben von Quasar
Wie meinst du "kommt man nicht wirklich drumherum"? Irgendwann werden doch diese Appendices nicht mehr nötig sein, weil deren Funktionen von mehr generalisierten Einheiten mind. genausoschnell übernommen werden können...

Oder rede ich jetzt an dir vorbei?

Wir setzten vorraus das ein NV4X bei der Ausführung von DX7/8 Shading effekte nicht langsamer als ein NV3X sein darf.

Ein Reg-Combiner besteht im wesentlichen aus 3 Teilen

Input-Mapping
Function
Output Scale/Bias

jeweils für Farbe/Vector3 (RGB/XYZ) und Alpha/Skalar (A/W) Operationen

Fangen wir mit der Funktion an. Diese besteht aus 2 Multiplikations und einer Additionseinheit. Bei der Vector3 Funktion kommen dann noch 2 Additionseinheiten dazu welche in Verbindnung mit den Multiplikatoren Dot3 Produkte berechnen. Bei beiden kommt dann noch eine Mux Einheit dazu welche anstelle der Addition genutzt werden kann.

Bei den Eingängen haben gibt es nun auch noch eine Reihe von einfachen Rechenoptionen. Um es etwas zu vereinfachen sagen wir einfach mal man braucht hier ein Multiplikationswerk (das aber nur *2 kann) sowie ein Additionswerk (+1, -1, +0.5, -0.5). Da es 4 Eingänge gibt braucht man diese beiden Einheiten 4 mal.

Bei den Ausgängen kommt dann nochmal ein Multiplikator (*0.5, *2, *4) sowie eine Additionseinheit (-0.5) ins Spiel. Da es 3 Ausgänge gibt auch hier wieder mal 3.

Wird also alles genutzt kommen wir auf 4+2+3 = 9 Multiplikationen und 10 Additionswerke (2 für DOT3). Aufgrund bestimmer Regeln kann man aber maximal 8 Additionswerke gleichzeitig nutzen.

Würde man jetzt einen Reg-Combiner duch eine reguläre FPU (1*Mul+1*Add) ersetzten würde man im worst-case Fall 8 mal so viele Takte brauchen um die gleiche Arbeit zu erledigen. Dieser Fall tritt natürlich nicht ständig auf aber auch wenn nur Teile der Optionen benötigt werden braucht man zusätliche Takte wenn man Reg-Combiner 1:1 gegen normale FPUs tauscht. Aus diesem Grund halte ich es eben für Wahrscheinlich das man Reg-Combiner auf FP16 Basis Einbaut von denen man zwei zu einem eingeschränkten FP32 Reg-Combiner verschalten kann. Diese MUL/ADD Einheiten mit Konstanten sind eben wesentlich einfacher als vollwertige MUL/ADD Einheiten. Dazu dann noch der aus dem NV3X bekannte Shadercore. Dieser allerdings in einer neuen Version die einen höheren Wirkungsgrad erreicht.

Zum Rest deines Posting: Pah! Kein Problem, den floorplan bau ich dir in der GZSZ-Werbepause mit'm TI-Taschenrechner zusammen ;) ;)

Den Floorplan machen die Designtools automatisch.

Godmode
2004-01-06, 00:25:20
Nur reine Spekulation, aber haltet ihr es für möglich das sich im nv35 schon eine ps/vs 3.0 Einheit befindet, aber aus Performance Grüden oder was auch immer (zB.: Intel: Hyperthreading und Yamhill(falls es stimmt) wurden ja auch am Anfang nicht freigeschaltet, erst mit dem Northwood-Core) noch deaktiviert ist? Mit 8x2 Pipe hätte der Chip dann genug Rohleistung um der ps/vs 3.0 Einheit genug Performance zu geben!! Ich hab zwar den Artikel auf 3dcenter gelesen wie die cineFx 2.0 engine funktionieren soll, aber ob das dann wirklich so im chip drinnen ist, wie es nv beim Patentamt eintragen lassen hat oder auch nicht kann sicher niemand bestätigen.

mfg bans3i

Aquaschaf
2004-01-06, 00:58:00
Nein. Diese Spekulation ist übrigends schon ziemlich alt.

Demirug
2004-01-06, 05:25:02
Original geschrieben von bans3i
Nur reine Spekulation, aber haltet ihr es für möglich das sich im nv35 schon eine ps/vs 3.0 Einheit befindet, aber aus Performance Grüden oder was auch immer (zB.: Intel: Hyperthreading und Yamhill(falls es stimmt) wurden ja auch am Anfang nicht freigeschaltet, erst mit dem Northwood-Core) noch deaktiviert ist? Mit 8x2 Pipe hätte der Chip dann genug Rohleistung um der ps/vs 3.0 Einheit genug Performance zu geben!! Ich hab zwar den Artikel auf 3dcenter gelesen wie die cineFx 2.0 engine funktionieren soll, aber ob das dann wirklich so im chip drinnen ist, wie es nv beim Patentamt eintragen lassen hat oder auch nicht kann sicher niemand bestätigen.

mfg bans3i

Die Beschreibung bezieht sich ja weitgend auf CineFX I und nVidia hat inzwischen wenn auch nicht ganz offiziell bestätigt das es weitgehend genau so funktioniert.

Ailuros
2004-01-06, 05:40:47
Original geschrieben von aths
Wie meinst du das? Ich meinte ursprünglich

Wieso wundert es Dich dass mir "pipelines" und deren arrangement egal ist?

8 texture ops sind 8 texture ops ob es jetzt ein 8*1 oder 4*2 setup ist macht welchen Unterschied genau bei MT?

Ich frage im Grunde nur warum nach Deiner Theorie 8 texture ops nicht ausreichend sind in naechster Generation Spiele, und unter welchen Vorraussetzungen. Dabei haette ich auch noch gleich fragen sollen was genau Du mit naechster Generation Spielen und dessen Vorraussetzungen ueberhaupt meinst.

Aber ich werde trotz allem das Gefuehl nicht los, dass es sich hier um eine zu grosse Generalisierung handelt.

Um das Ganze immer noch klarer zu machen, ausser Uttar hab ich bis jetzt nirgendwo anders eine feste Bestaetigung, dass NV tatsaechlich sich fuer 16 texture ops entschieden hat. Ich schliesse es natuerlich nicht aus, aber irgendwo macht mir jegliche "Sicherheit" unter allen Umstaenden Gedanken. Teufel wir wissen nicht mal genau wo das Ding fabriziert wurde, oder?

aths
2004-01-06, 13:57:13
Original geschrieben von Ailuros
Ich frage im Grunde nur warum nach Deiner Theorie 8 texture ops nicht ausreichend sind in naechster Generation Spiele, Weil das zuwenig ist :)
Original geschrieben von Ailuros
und unter welchen Vorraussetzungen. Konkret meine ich Spiele, die z. B. auf die Doom3-Engine aufsetzen, jene aber auch ausreizen (mehr Lichtquellen etc.) mit aktiviertem AA/AF. Füllrate wird nicht unwichtig, nur weil arithmetische Leistung wichtiger wird.
Original geschrieben von Ailuros
Um das Ganze immer noch klarer zu machen, ausser Uttar hab ich bis jetzt nirgendwo anders eine feste Bestaetigung, dass NV tatsaechlich sich fuer 16 texture ops entschieden hat. Ich schliesse es natuerlich nicht aus, aber irgendwo macht mir jegliche "Sicherheit" unter allen Umstaenden Gedanken. Teufel wir wissen nicht mal genau wo das Ding fabriziert wurde, oder? Ich gehe davon aus, dass NV40 16 TMUs bekommt, und 16 T-Ops ausführen kann. Diese Spekulation beruht nicht auf Uttar oder anderen unsicheren Quellen, sondern auf der Fragestellung "was würde ich machen?" Wenn man als halbwegs sicher ansieht, dass NV40 mit 175 Mio Transistoren kommt, wäre der Platz da.

Tigerchen
2004-01-06, 14:10:40
@ ATHS

Hast du nicht den Eindruck daß die Hersteller im Moment nicht grade daß tun was du machen würdest?

Ailuros
2004-01-06, 14:13:57
Ich sehe auf keinen Fall eine absolute Notwendigkeit fuer 16 TMUs und schon gar nicht fuer Spiele wie Doom3. Was NV40 betrifft, ist meiner Meinung nach eher ein "warum nicht wenn wir koennen" Dilemma als alles andere.

Zur spekulierten Transistoren-anzahl auessere ich mich erst nach der Veroeffentlichung und der finalen Taktrate des chips.

Füllrate wird nicht unwichtig, nur weil arithmetische Leistung wichtiger wird.

Fuellrate kann man auch durch andere Methoden dazugewinnen bzw. sparen. Wieso jetzt ploetzlich 16 texture ops unbedingt eine absolute Vorraussetzung sein muessen ist mir fremd.

Weil das zuwenig ist.

Ich hoffe dass Du nicht von NV3x ausgehst. Du bist klug genug zu wissen dass die Architektur an anderen Stellen eher kraenkelt als an den texture ops.

Demirug
2004-01-06, 14:41:30
Man braucht so viele Texturops wie man Samples pro Takt erzeugen kann. Ist das nicht der Fall kann man die Fillrate nicht voll ausnutzen. Aber ehrlich gesagt mache ich mir um Textureops überhaupt keine Sorgen. Die Arithmetikops sind viel interesanter.

Verdacht: Beim NV40 sind Textureops "for free". Die Koordinate muss allerdings immer das Ergebniss einer Arithmetikop sein.

Blugrätsche
2004-01-06, 15:07:38
Original geschrieben von Demirug
Verdacht: Beim NV40 sind Textureops "for free". Die Koordinate muss allerdings immer das Ergebniss einer Arithmetikop sein.
Bitte umformulieren. Texture-Ops sind Arithmetik-Ops.

Demirug
2004-01-06, 16:12:32
Original geschrieben von Blugrätsche
Bitte umformulieren. Texture-Ops sind Arithmetik-Ops.

Nicht in meiner Anweisungsliste. Ich bezog mich auf PS >= 2.0

Blutgrätsche
2004-01-06, 16:31:36
Original geschrieben von Blugrätsche
Bitte umformulieren. Texture-Ops sind Arithmetik-Ops.
Zur Klarstellung: Ich weiss nicht, was Demirug damit eigentlich gemeint hat oder sagen wollte. Wenn ich jetzt nicht vollkommen durcheinander bin, dann sind Texture-Ops lediglich "Platzhalter" für komplexe (zusammengesetzte) Arithmetik-Ops, die vor dem Texture-Zugriff berechnet werden müssen. Wie kann es dann "for free" sein? (Was ist mit "for free" gemeint?) Mir ist ausserdem nicht klar, welche komplexen Operationen das einschliesst (insbesonders beim NV35). Perspektivkorrektur und/oder LOD-Berechnung? Was ist die derzeitige Performance des NV35. Wieviele Texture-Ops pro Takt erzielt der NV35 derzeit? Wie werden diese auf (mehrere) Arithmetik-Ops umgesetzt?

aths
2004-01-06, 17:14:54
NV35: Pro Takt entweder 8 T-Ops und 4 A-Ops. Oder alternativ 8 A-Ops, aber keine T-Ops.

aths
2004-01-06, 17:19:00
Original geschrieben von Ailuros
Bin mir zwar nicht sicher, aber ich wuerde wagen zu schaetzen dass der HW Aufwand dafuer groesser sein koennte als vertex texturing in den VS zu implementieren...;) Worauf beruht deine Schätzung?

aths
2004-01-06, 17:22:15
Original geschrieben von Tigerchen
@ ATHS

Hast du nicht den Eindruck daß die Hersteller im Moment nicht grade daß tun was du machen würdest?"aths" bitte klein schreiben :) Danke :)

Es gibt ja inzwischen ein wenig Konkurrenz. ATI wird es wohl nicht bei 8x1 bi belassen. NV weiß das lange, und wird da nicht mit 4x2 bi antanzen. Wer Hardware für Nex-Gen-Spiele bauen will, kann seine 8-TMU-Chips vielleicht noch im Mid-Range-Bereich platzieren. Dank 256-Bit-DDR-Interface ist die Bandbreite für mehr Füllrate da. (Arithmetische Ops brauchen praktisch keine Speicherbandbreite.)

aths
2004-01-06, 17:25:24
Original geschrieben von Ailuros
Ich sehe auf keinen Fall eine absolute Notwendigkeit fuer 16 TMUs und schon gar nicht fuer Spiele wie Doom3. Was NV40 betrifft, ist meiner Meinung nach eher ein "warum nicht wenn wir koennen" Dilemma als alles andere.16 bilineare TMUs sind gar nicht mal so viel. 8x tri-AF kann damit noch immer bis zu einem vollen Takt brauchen.

Original geschrieben von Ailuros
Fuellrate kann man auch durch andere Methoden dazugewinnen bzw. sparen. Wieso jetzt ploetzlich 16 texture ops unbedingt eine absolute Vorraussetzung sein muessen ist mir fremd.Bei 16 TMUs brauchst du 16 T-Ops, um die Füllrate (bilineares Multitexturing) ausnutzen zu können. Ein Blick in die DX9-SDK-Help offenbart, dass DX9-Texture-Ops nicht sonderlich aufwändig sind.

Original geschrieben von Ailuros
Ich hoffe dass Du nicht von NV3x ausgehst. Du bist klug genug zu wissen dass die Architektur an anderen Stellen eher kraenkelt als an den texture ops. In bin klug genug um zu erahnen, dass man nicht nur mehr arithemtische Power, sondern auch mehr Füllrate braucht. Schließlich will man auch hohe Auflösungen fahren, genauso wie hohe AF-Grade.

Blutgrätsche
2004-01-06, 17:43:02
Original geschrieben von aths
NV35: Pro Takt entweder 8 T-Ops und 4 A-Ops. Oder alternativ 8 A-Ops, aber keine T-Ops.
Also sind 4 A-Ops äquivalent zu 8 T-Ops, d.h. die T-Ops sind simpler als die A-Ops. Perspektivkorrektur ist nur DIV und MUL, aber LOD-Berechnung ist schon etwas komplexer, woraus ich folgere, dass die LOD-Berechnung nicht im Pixel-Shader gemacht wird?

Wie sieht es mit der Rechenverteilung aus?
1) 8 T-Ops und 4 A-Ops: T-Ops mittels erstem Rechenwerk und (einfache?) A-0ps mit Register-Combinern?
2) 8 A-Ops mit beiden Rechenwerken.

Besitzen die Register-Combiner die halbe Rechenleistung oder fehlt es ihnen nicht an komplexen Funktionen (z.B. mindestens eine Division)?

aths
2004-01-06, 17:48:56
Original geschrieben von Blutgrätsche
Also sind 4 A-Ops äquivalent zu 8 T-Ops, d.h. die T-Ops sind simpler als die A-Ops. Perspektivkorrektur ist nur DIV und MUL, aber LOD-Berechnung ist schon etwas komplexer, woraus ich folgere, dass die LOD-Berechnung nicht im Pixel-Shader gemacht wird? LOD wird dort gemacht, wo die Quads in die Pipe kommen (1 LOD-Wert pro Quad.) Man kann bei einer T-Op auch ein eigenes LOD angeben.

Wie Register Combiner abgebildet werden, weiß ich leider nicht.

Blutgrätsche
2004-01-06, 17:57:29
Original geschrieben von aths
LOD wird dort gemacht, wo die Quads in die Pipe kommen (1 LOD-Wert pro Quad.)

Wie Register Combiner abgebildet werden, weiß ich leider nicht.
Gut, LOD braucht man nicht pro Pixel zu berechnen (dafür komplexer), aber Perspektivkorrektur muss per Pixel gemacht werden. Ist beides im PS möglich? Oder was heisst "LOD wird dort gemacht, wo die Quads in die Pipe kommen"? Und was meinst du denn jetzt wieder mit "Man kann bei einer T-Op auch ein eigenes LOD angeben"?

P.S.
Habe mich übrigens gerade registriert.

aths
2004-01-06, 18:14:05
Original geschrieben von Blutgrätsche
Gut, LOD braucht man nicht pro Pixel zu berechnen (dafür komplexer), aber Perspektivkorrektur muss per Pixel gemacht werden. Ist beides im PS möglich? Ich weiß nicht, ob das im PS "möglich" ist, perspektivische Korrektur wird afaik gleich beim Triangle Setup gemacht.
Original geschrieben von Blutgrätsche
Oder was heisst "LOD wird dort gemacht, wo die Quads in die Pipe kommen"?Die Graka rendert Quad-weise. Ein Quad ist ein Block von 2x2 Pixel. Pro Quad wird ein mal das LOD besimmt. Wenn EMBM zum Einsatz kommt, kann man (durch die Kenntnis der Texturkoordinaten der Pixel "in der Nähe") überhaupt erst das LOD ausrechnen.
Original geschrieben von Blutgrätsche
Und was meinst du denn jetzt wieder mit "Man kann bei einer T-Op auch ein eigenes LOD angeben"?"texldl dst, src0, src1" wertet src0.w aus, um das als LOD zu nehmen. edit: Ich sehe gerade, das geht erst ab Pixelshader 3.0. Bei 2.0 kann man immerhin "texldb" nehmen, um src0.w als LOD-Bias zu verwenden.

Original geschrieben von Blutgrätsche
Habe mich übrigens gerade registriert. G00d :kicher:

Xmas
2004-01-06, 18:19:20
Original geschrieben von Blutgrätsche
Gut, LOD braucht man nicht pro Pixel zu berechnen (dafür komplexer), aber Perspektivkorrektur muss per Pixel gemacht werden. Ist beides im PS möglich? Oder was heisst "LOD wird dort gemacht, wo die Quads in die Pipe kommen"? Und was meinst du denn jetzt wieder mit "Man kann bei einer T-Op auch ein eigenes LOD angeben"?
Perspektivkorrektur machen die Interpolatoren, passiert also "vor" dem Pixelshader.

Der LOD wird aus du und dv innerhalb eines Quads bestimmt, und zwar pro Texop. Das entspricht weitestgehend ld(max(ddx(texcoord), ddy(texcoord))), wenn ichs recht in Erinnerung hab (nachdem die Texturkoordinaten "de-normiert" wurden). Bei 2D-Koordinaten ist das 2x pro Takt möglich.

Es gibt die Instruktionen texldb (PS2.0) und texldl (PS3.0), die LOD-Biasing bzw. LOD-Bestimmung im PS erlauben. Der LOD bzw. LOD-Bias wird dabei im src0.w übergeben.

P.S.
Habe mich übrigens gerade registriert.
Fein fein =)

Blutgrätsche
2004-01-06, 18:34:21
Original geschrieben von Xmas
Perspektivkorrektur machen die Interpolatoren, passiert also "vor" dem Pixelshader.
Gut, habe ja fälschlicherweise umgekehrt angenommen, das die Perspektivkorrektur im PS stattfindet und LOD Fixed-Function ist.

Der LOD wird aus du und dv innerhalb eines Quads bestimmt, und zwar pro Texop. Das entspricht weitestgehend ld(max(ddx(texcoord), ddy(texcoord))), wenn ichs recht in Erinnerung hab (nachdem die Texturkoordinaten "de-normiert" wurden). Bei 2D-Koordinaten ist das 2x pro Takt möglich.
Da fehlt noch die komplexe Wurzel-Funktion (die ich in meinem vorherigen Posting leider als Division ausgegeben habe). Ich will's ja nicht glauben, aber zwei Wurzel-Funktionen pro Quad im 1. Rechenwerk? Und "De-nomiert"?

Edit: Ich korrigiere mich. Ich will's doch glauben, weil gibt vermutlich mindestens 2 Divisionen (wenn nicht 4) pro Quad (1 pro Pixel).

robbitop
2004-01-06, 18:36:14
@aths

waren es nicht 8 AOps und 4Tops?

also Pro Pipeline 1Vektor 1Skalar (AOps) und 1Textur (TOps)?

so soll es zumindist beim R300 sein

Demirug
2004-01-06, 18:41:26
Rechenleistung NV35:

Die Rechenleistung verteilt sich auf 2 Stellen innerhalb der Pipeline. Da haben wir zum einen den Shadercore welcher 8T-Ops oder 4 beliebige A-OPs ausführen kann.

In dem Combiner Teil gibt es dann noch 2 vollständige FX12 Reg-Combiner oder wahlweise ein etwas verkapptes FP32 Rechenwerk. Verkappt heist hier das es lediglich aus 2 MUL und einer ADD Einheit besteht. Beides für Vector4 Operationen.

T-OPS im NV35 sind Operationen die lediglich das Auslesen einer Textur anstossen. Dies entspricht einer T-OP des PS 2.0 Models. Im Pixelshader 1.1-1.3 Model gibt es bei den T-OPS auch Makros die Rechenoperationen enthalten und dann teilweise mit einem Sampleanweisung abschliessen oder das Ergebniss als Zwischenwert für weitere Rechnungen hinterlegen. In allen Fällen muss der NV35 diese Makros aber expandieren und in einzelne T und A Ops zerlegen.

T-Ops "for free": Eine T-OP wird beim NV3X dadruch angestossen das am Endes des Shadercores an den entsprechenden Ausgängen die Koordinaten anliegen. Beim ausführen einer einfache T-OP holt sich der Shadercore dazu die Koordinaten von den Interpolatoren oder einem Loopback eingang und schiebt sie 1 zu 1 an allen Teil-Rechenwerken vorbei zu den Texturkoordinaten-Ausgängen. Rechent der Shadercore wird das Ergebniss zu einem anderen Ausgang umgeleitet. Würde man nun die letzte Crossbar im Shadercore so verändern das Rechenergebnisse auch zu den Texturkoordinaten-Ausgängen umgelegt werden können kann man im gleichen Durchlauf etwas berechnen und ein Textursample anstossen. Damit hätte man T-Ops for free. Unter bestimmten vorraussetzungen in Verbindung mit Modifikationen an allen Crossbars im Shadercore ist es auch möglich etwas zu rechnen und Syncron dazu andere Texturkoordinaten durchzuschieben.

Demirug
2004-01-06, 18:43:14
Original geschrieben von Xmas
Perspektivkorrektur machen die Interpolatoren, passiert also "vor" dem Pixelshader.

Wobei die Interpolatoren auch im Pixelprozessor selbst sein können. Zumindestens nVidia macht das so.

robbitop
2004-01-06, 18:43:51
zum NV40:
wenn die Pixelprozessoren und die TMUs dupliziert werden, werden dann auch die Z/Stencilpipelines mitdupliziert?

16 ZStencil Pipes wären wahrhaft.....nett :D

aths
2004-01-06, 18:47:20
Original geschrieben von robbitop
zum NV40:
wenn die Pixelprozessoren und die TMUs dupliziert werden, werden dann auch die Z/Stencilpipelines mitdupliziert?Das hoffe ich.
Original geschrieben von robbitop
16 ZStencil Pipes wären wahrhaft.....nett :D Und keine Verschwendung angesichts der zunehmenden Wichtigkeit.

Xmas
2004-01-06, 18:47:39
Original geschrieben von Blutgrätsche
Da fehlt noch die komplexe Wurzel-Funktion (die ich in meinem vorherigen Posting leider als Division ausgegeben habe). Ich will's ja nicht glauben, aber zwei Wurzel-Funktionen pro Quad im 1. Rechenwerk? Und "De-nomiert"?

Ja, da war noch sowas... aber wo ist das Problem? RSQ braucht laut Demirug 2 Takte für FP32-Genauigkeit. Und das ist Vec4. Also im Schnitt 2 Wurzeln pro Takt.
[edit:] Ist natürlich falsch, RSQ ist nur skalar. Hm, da gibts wohl noch was anderes ...

Normierte Texturkoordinaten gehen von 0 bis 1 von einer Seite zur anderen. Bei der LOD-Bestimmung ist aber die tatsächliche Anzahl der Texel wichtig — wenn ich in der Basistextur 8 Texel pro Pixel springe, muss ich LOD = ld(8) = 3 wählen — , also müssen die normierten Koordinaten mit der Texturgröße multipliziert werden.

aths
2004-01-06, 18:48:15
Original geschrieben von robbitop
@aths

waren es nicht 8 AOps und 4Tops?

also Pro Pipeline 1Vektor 1Skalar (AOps) und 1Textur (TOps)?

so soll es zumindist beim R300 sein Beim RV350. Wobei man teilweise nur 4 A-Ops nutzen kann.

Demirug
2004-01-06, 18:49:55
Original geschrieben von Blutgrätsche
Da fehlt noch die komplexe Wurzel-Funktion (die ich in meinem vorherigen Posting leider als Division ausgegeben habe). Ich will's ja nicht glauben, aber zwei Wurzel-Funktionen pro Quad im 1. Rechenwerk? Und "De-nomiert"?

Die Wurzel-Funktion braucht man nicht zwingend. Für das LOD wird mit Nährungen gearbeitet. Wo man eigentlich eine Wurzel braucht ist für das Berechnen des richtigen AF-Grads. Aber ATI beweisst ja das dies auch mit einer Nährung geht. ;)

nVidia benutzt eine Wurzel. Da diese Operation aber sehr aufwendig ist führte das beim NV25 zum bekannte "AF-Bug". Es waren einfach nicht genügend Transitoren übrig um zwei Wurzeln zu berechnen.

Blutgrätsche
2004-01-06, 18:52:02
Original geschrieben von Demirug
Wobei die Interpolatoren auch im Pixelprozessor selbst sein können. Zumindestens nVidia macht das so.
Hilft aber nichts, alles in einen Topf zu schmeissen. Solange die Interpolatoren nicht für A-Ops genutzt werden können, sollte man das schon trennen, weil funktional nicht zum Pixel-Prozessor=PS gehörig. (Es sei denn Pixel-Prozessor!=PS)

Demirug
2004-01-06, 18:52:36
Original geschrieben von Xmas
Ja, da war noch sowas... aber wo ist das Problem? RSQ braucht laut Demirug 2 Takte für FP32-Genauigkeit. Und das ist Vec4. Also im Schnitt 2 Wurzeln pro Takt.

Ähm das ist aber nur wenn man eine Wurzel im Shader selbst braucht. Mit den Berechnungen fürs Texturauslesen hat das nichts zu tun. Das machen alles die TMUs.

Demirug
2004-01-06, 18:56:26
Original geschrieben von Blutgrätsche
Hilft aber nichts, alles in einen Topf zu schmeissen. Solange die Interpolatoren nicht für A-Ops genutzt werden können, sollte man das schon trennen, weil funktional nicht zum Pixel-Prozessor=PS gehörig. (Es sei denn Pixel-Prozessor!=PS)

Die Interpolatoren liefern auch Eingangswerte für A-Ops wenn mann Texturkoordinaten vor der verwendung noch irgendwie verrechnen will.

Ich nennen das Teil immer Pixelprozessor um zwischen dem echten Physikalischen Aufbau und dem logischen Model (Pixelshader) zu unterscheiden.

Das man die Interpolation erst im Pixelprozessor "On the Fly" erledigt hat übrigens einen guten Grund. Man spart viele Transistoren.

Ailuros
2004-01-07, 05:29:11
Original geschrieben von aths
16 bilineare TMUs sind gar nicht mal so viel. 8x tri-AF kann damit noch immer bis zu einem vollen Takt brauchen.

Bei 16 TMUs brauchst du 16 T-Ops, um die Füllrate (bilineares Multitexturing) ausnutzen zu können. Ein Blick in die DX9-SDK-Help offenbart, dass DX9-Texture-Ops nicht sonderlich aufwändig sind.

In bin klug genug um zu erahnen, dass man nicht nur mehr arithemtische Power, sondern auch mehr Füllrate braucht. Schließlich will man auch hohe Auflösungen fahren, genauso wie hohe AF-Grade.

aths,

Wie ich schon sagte will ich mich momentan was Spekulationen betreffend Transistoren-Anzahl und Taktraten (hallo die letztere ist direkt mit Fuellraten verbunden oder?) bis zur Ankuendigung nicht aeussern, da die jeweiligen Informationen in zu starkem Widerspruch liegen und ich keine klare Antworten darauf bekommen kann.

Ein vorsichtiger Blick auf die bis jetzt spekulierten Spezifikationen und dessen merkwuerdigen Aenderungen im letzten Jahr, koennte jemand vielleicht helfen meinen Vorbehaltungen zu folgen.

Mit dem Fuellraten Punkt sagst Du mir persoenlich gar nichts; ich koennte genauso sagen dass read efficiency und daher Bandbreite auch Kopfschmerzen bringen koennte mit 16 texture ops und einem 256bit bus; gleich zum Gegensatz zeigen aber bis jetzt bekannte Spekulationen auf hoehere als notwendige Bandbreite hin.

Zwischen dem ganzen Wirrwarr von so und so vielen hypothetischen Transistoren und so und so viel dementsprechenden Platz fuer X,Y,Z, gebe ich persoenlich lieber auf und erwarte die Ankuendigung. Wenn aber meine originalen Informationen ueber Versuche die Taktrate weit ueber der Konkurrenz zu halten stimmen sollten, dann kommt es zum perfektem Widerspruch mit jeglichem Punkt der Fuellrate betrifft. Klarer kann ich es leider momentan nicht machen.

Ailuros
2004-01-07, 05:36:16
Original geschrieben von robbitop
zum NV40:
wenn die Pixelprozessoren und die TMUs dupliziert werden, werden dann auch die Z/Stencilpipelines mitdupliziert?

16 ZStencil Pipes wären wahrhaft.....nett :D

NV3x hat 16 ROPs. Wenn man von einer einfachen Verdoppelung reden wuerde, dann waeren es eher 32 ROPs theoretisch (fuer ein 2*(4*2) oder aehnliches scenario).

Was heisst "stencil pipeline"? Wenn dann eher Z/stencil units. Wieso 8*0 oder 16*0 jetzt Sinn macht es als pipeline zu definieren, ist mir fremd.

robbitop
2004-01-07, 17:58:29
der Begriff stammt nicht von mir, aber ich weiß leider nicht mehr wo ich ihn aufgeschnappt habe...

nagus
2004-01-13, 18:39:48
UT2003 1600x1200 = 190fps
UT2003 1600x1200 4xAA/8xAF = 100fps
Halo 1600x1200 = 50fps
HL2 1024x768 = 95fps


quelle: http://www.nvnews.net/vbulletin/showthread.php?threadid=23489


realistisch? ja/nein?


*UPDATE*

9800pro (466/366) hat beim ut2003 flyby bei 16x12 +4aa/8af 70 fps

Xmas
2004-01-13, 18:52:13
Original geschrieben von nagus
UT2003 1600x1200 = 190fps
UT2003 1600x1200 4xAA/8xAF = 100fps
Halo 1600x1200 = 50fps
HL2 1024x768 = 95fps


quelle: http://www.nvnews.net/vbulletin/showthread.php?threadid=23489


realistisch? ja/nein?
Ob die Zahlen echt sind oder nicht, sie sagen rein gar nichts aus. Denn es gibt keine Angabe, unter welchen Bedingungen diese Ergebnisse gemessen wurden.

Glaubwürdig sind sie IMO genauso wenig wie die Zahlen, die vor dem NV30-Start auftauchten.

nagus
2004-01-13, 18:54:11
Original geschrieben von Xmas
Ob die Zahlen echt sind oder nicht, sie sagen rein gar nichts aus. Denn es gibt keine Angabe, unter welchen Bedingungen diese Ergebnisse gemessen wurden.

Glaubwürdig sind sie IMO genauso wenig wie die Zahlen, die vor dem NV30-Start auftauchten.


stimmt natürlich... aber da wir hier im specu forum sind, können wir doch einfach mal "spekulieren", dass ut2003 auf einem 3ghz system mit dem normalen ut2003 flyby gebencht wurde :)

Demirug
2004-01-13, 18:59:07
Original geschrieben von nagus
stimmt natürlich... aber da wir hier im specu forum sind, können wir doch einfach mal "spekulieren", dass ut2003 auf einem 3ghz system mit dem normalen ut2003 flyby gebencht wurde :)

Der Rechner soll ein Athlon 64 FX51 mit 1GB DDR400 gewesen sein.

Gast
2004-01-13, 19:15:54
Original geschrieben von Demirug
Der Rechner soll ein Athlon 64 FX51 mit 1GB DDR400 gewesen sein.

womit wir aber immer noch bei dem Problem wären:

was für ein AA und was für ein AF?
Da gibts viele Möglichkeiten. Es könnte qualitativ minderwertiger gewesen sein als heutige Lösungen, gleichwertig oder aber auch höherwertig.

Da nutzen einem die Zahlen wenig bis gar nix.

Aquaschaf
2004-01-13, 21:11:37
Würde AA/AF verwendet hätte man es sicher angegeben. Es will ja niemand etwas langsamer aussehen lassen als es ist.

nagus
2004-01-13, 21:57:35
sicher ists zu früh um über dubiose benchmarkwerte zu sprechen...


btw, es häufen sich schon wieder die gerüchte, dass der NV40 sich verzögern soll... ein gutes indiz dafür ist auch, dass abit plötzlich auf ati umgestiegen ist.

Demirug
2004-01-13, 22:10:45
Original geschrieben von nagus
btw, es häufen sich schon wieder die gerüchte, dass der NV40 sich verzögern soll... ein gutes indiz dafür ist auch, dass abit plötzlich auf ati umgestiegen ist.

Ich hoffe du meinst jetzt nicht das neuste Machwerk von :cop: FUAD :cop: .

Sowohl Dave Baumann und MuFu sind beide der Meinung das die AGP Version des NV40 läuft. IMHO sind die beiden verlässlicher als Fuad.

nagus
2004-01-13, 22:12:43
Original geschrieben von Demirug
Ich hoffe du meinst jetzt nicht das neuste Machwerk von :cop: FUAD :cop: .

Sowohl Dave Baumann und MuFu sind beide der Meinung das die AGP Version des NV40 läuft. IMHO sind die beiden verlässlicher als Fuad.

nene, ich mein nix von faud.

kann ja sein dass der nv40 "läuft" ... nur wie ist die frage

Gast
2004-01-13, 22:30:05
Original geschrieben von Demirug
Ich hoffe du meinst jetzt nicht das neuste Machwerk von :cop: FUAD :cop: .

Sowohl Dave Baumann und MuFu sind beide der Meinung das die AGP Version des NV40 läuft. IMHO sind die beiden verlässlicher als Fuad.

Jop. Dave Baumman und MuFu sind der Meinung, dass der INQ Artikel über das Tape-Out im Dezember entweder die native PCI Express Variante betrifft oder aber schon ein vortgeschrittenes Stepping A2/A3 der initial AGP Variante ist.
MuFu kommentiert den INQ Artikel mit folgenden Worten:

"I think that's completely wrong; the first samples popped up ages ago. I reckon this could be the A2 (launch?) or A3 (refresh?) stepping and not a full tape out."

Die beiden sind in jedem Fall glaubwürdiger als TheInquire.
Für richtige Aussagen ist es aber noch viel zu früh.

robbitop
2004-01-13, 22:44:30
was passendes:
http://www.ttecx.de/files/news/article.php?article_file=1074033583.txt&showtopic=

LovesuckZ
2004-01-13, 23:29:10
Original geschrieben von nagus
btw, es häufen sich schon wieder die gerüchte, dass der NV40 sich verzögern soll... ein gutes indiz dafür ist auch, dass abit plötzlich auf ati umgestiegen ist.

Stimmt, deswegen fertigt nun auch Enmic Nvidiagrafikkarten, weil der NV40 bald kommt...

Gast
2004-01-13, 23:32:31
Original geschrieben von LovesuckZ
Stimmt, deswegen fertigt nun auch Enmic Nvidiagrafikkarten, weil der NV40 bald kommt...

nicht nur die.
EPOX ist auch im Nvidia Lager aufgetaucht und zwar mit einer kompletten Palette.
Gigabyte konzentriert sich mehr auf Nvidia Grakas.
ABIT ist zu ATI und Tyan bisher ATI Kunde gibt im Graka Markt auf.

Im Großen und Ganzen bewegt sich da nicht viel.
Es gibt sowieso viel zu viele Platinenhersteller.

Ailuros
2004-01-14, 04:03:27
Eine Vorstellung von NV40 im Februar ist nicht unmoeglich.

Tape-out im Dezember? ROFL :D

nagus
2004-01-14, 06:54:08
Original geschrieben von robbitop
was passendes:
http://www.ttecx.de/files/news/article.php?article_file=1074033583.txt&showtopic=


was soll das bitte? die haben doch wohl nicht 1:1 meine ut2003 werte gepostet?

ich glaubs nicht *ROFLLOL*



EDIT: Überflüssige Teile entfernt und Pünktchen aufs Konto

seahawk
2004-01-14, 07:08:34
NV40 im Februar - lol

Da würde ich was von ATI erwarten und es wird sehr schnell :D

Gast
2004-01-14, 07:40:23
Original geschrieben von nagus
was soll das bitte? die haben doch wohl nicht 1:1 meine ut2003 werte gepostet?

ich glaubs nicht *ROFLLOL*

Wenn Sie grad keine 9800pro zur Hand hatten ist das doch ok.
Was regstn dich so auf.

Außerdem könntest du mal deinen Ton mäßigen. Der lässt arg zu wünschen übrig.


EDIT: Anpassung, s. Original-Posting

DrumDub
2004-01-14, 11:10:33
Original geschrieben von Ailuros
Eine Vorstellung von NV40 im Februar ist nicht unmoeglich.

Tape-out im Dezember? ROFL :D

versteh ich jetzt nicht ganz. um auf dem ersten satz zu schließen, müsste der tapeout also früher passiert sein?

Demirug
2004-01-14, 11:25:28
Original geschrieben von DrumDub
versteh ich jetzt nicht ganz. um auf dem ersten satz zu schließen, müsste der tapeout also früher passiert sein?

Ja, laut MuFu und Dave Baumann gab es zwar einen Tape-Out im Dezember aber es war nicht der ersten NV40 Tape-Out. Entweder war es ein neues Stepping oder die PCI-X Version.

robbitop
2004-01-14, 11:30:19
@nagus
mäßige deinen Ton.

die Werte sind aus dem nv-news Forum und ich wieß explizit daruaf hin, daß diese Werte ohne jegliche Grundlage sind.
Sorry dass ich deinen Radeon Wert übernommen habe, aber dieses FORUM ist öffentlich.


wenns ein neues Stepping ist könnte es sein, daß sich NV40 etw verzögert, aber nur wenn das vorherige Stepping nicht marktreif ist. Aber 120Tage vom Tapeopt bis zur Belieferung sind nicht mehr aktuell. Laut DaveB sind es inzw. 8 Wochen, also nicht einmal 2 Monate mehr.

DrumDub
2004-01-14, 11:31:31
Original geschrieben von Demirug
Ja, laut MuFu und Dave Baumann gab es zwar einen Tape-Out im Dezember aber es war nicht der ersten NV40 Tape-Out. Entweder war es ein neues Stepping oder die PCI-X Version.

danke. habs auch grad an anderer stelle gefunden: http://80.237.203.42/vbulletin/showthread.php?s=&threadid=118290

nagus
2004-01-14, 11:40:56
Original geschrieben von robbitop
@nagus
mäßige deinen Ton.

die Werte sind aus dem nv-news Forum und ich wieß explizit daruaf hin, daß diese Werte ohne jegliche Grundlage sind.
Sorry dass ich deinen Radeon Wert übernommen habe, aber dieses FORUM ist öffentlich.


wenns ein neues Stepping ist könnte es sein, daß sich NV40 etw verzögert, aber nur wenn das vorherige Stepping nicht marktreif ist. Aber 120Tage vom Tapeopt bis zur Belieferung sind nicht mehr aktuell. Laut DaveB sind es inzw. 8 Wochen, also nicht einmal 2 Monate mehr.

ach du warst das? naja.. .hättest wenigstens dazu schreiben können, dass die radeon übertaktet war (466/366) und mit 4xfsaa und 8xaf quality gebencht wurde.. außerdem "nur" ist gut gesagt... 70fps bei 1600x1200 mit 4x/8x ist nicht gerade wenig.

ps: sorry für meinen tonfall

Gast
2004-01-14, 11:49:17
Original geschrieben von robbitop
Laut DaveB sind es inzw. 8 Wochen, also nicht einmal 2 Monate mehr.

Lesen bildet. ..;)

Dave Baumann hat nur gesagt, das jedes Stepping bei <=0,13µm - Prozeßtechnik min. 8 Wochen dauert.

Bei 2-3 Steppings (A0-A2) und der notwendigen Zeit für die Prüfungen und Änderungen zwischen den Steppings der Foundery benötigt ein komplettes Tapeout (vom ersten Tapeout bis zur Serienfertigung) im Minimum ca. 5-6 Monate.

Dave Baumann hat zum Release des NV40 nichts gesagt (außer das das erste Tapeout nicht Ende Dez. war ).

robbitop
2004-01-14, 11:53:42
das waren Schlussfolgerungen.
Außerdem lief NV35/36/38 bereits in der ersten Revision.
Also mind 1x 8 Wochen.

Ich habe das nicht auf mehrere Steppings bezogen.

@nagus

hatte ich ursprünglich hingeschrieben.
Das mit dem "nur" und ohne Angaben war mein Chefredakteur...gleich mal ausmeckern :)

€dit: gefixed

Ailuros
2004-01-14, 16:31:45
Original geschrieben von DrumDub
versteh ich jetzt nicht ganz. um auf dem ersten satz zu schließen, müsste der tapeout also früher passiert sein?

Wenn ich mich nicht irre war es irgendwann im Oktober, bin mir aber nicht mehr sicher. R420 kommt etwas spaeter.

Der Unterschied mit dem tape-out/Dezember Wirrwarr ist dass ATI PCI-E bei Vorstellung in high end graphics nicht ueberbruecken wird wenn ich den ganzen Quark richtig verstanden habe.

Ich hab immer noch ein Fragezeichen warum mich jetzt unbedingt PCI-E sooo stark jucken sollte, aber das ist nur persoenliche Meinung.

***edit: um es klarer zu machen das Dezember tape-out betrifft boards mit native PCI-E support.

Die Ankuendigung haengt von der Verfuegbarkeit der Speicher ab. Wenn's nicht Februar ist, dann ist es wohl Maerz; big deal die Konkurrenz wird ja sowieso nicht frueher ankuendigen so wie es momentan aussieht.

NV40 in Laeden ist dann ein ganz anderes Kapitel; also ein Osterei kann man da schlecht garantieren. Teuer und gering...so und jetzt genug mit dem Zeug ;)

Ailuros
2004-01-14, 16:44:43
So und jetzt mal zu den hypothetischen Benchmark Resultaten: wenn X oder Y von zukuenftigen Karten nicht wirklich faehig sind sich spielbar in UT2k3 in 1600 mit 4xAA/8xAF zu zeigen, dann koennen sich die Marketing-heinis jegliche scores an den Hut stecken und das gilt fuer alle IHVs.

Soll ich mal annehmen dass die 100fps in Flyby korrekt sind, dann muessten schon einige momentan Zweifel haben ob es sich tatsaechlich um das spekulierte Fuellraten-Monster zu guter letzt handelt. Nur 40% mehr als eine R360? hmmmmm....

DrumDub
2004-01-14, 16:46:36
ailuros

jo, danke noch mal für die erläuterung. :D

hatte durch das posting eines gastes schon die erleuchtung erfahren: http://80.237.203.42/vbulletin/showthread.php?s=&threadid=118290

Coda
2004-01-14, 22:15:06
Außerdem lief NV35/36/38 bereits in der ersten Revision.
Bei copy-and-paste Chipdesign auch kein Wunder...

robbitop
2004-01-14, 22:25:14
sagt wer?...
ich werde dazu nichts sagen, da das bis auf den NV38 imo Unfug ist.

Selbst bei ATi hat man bei R300->R350->R360
wie auch RV350->RV360 produktionstechnisch einiges geleistet trotz sehr ähnlicher Chipkonstruktion.

Dies ist beim NV35/36 nicht der Fall. Hier wurde einiges geändert...

Ailuros
2004-01-15, 01:15:55
Dies ist beim NV35/36 nicht der Fall. Hier wurde einiges geändert...

Wenn die Mehrheit so ist wie sie sein sollte, braucht man auch nicht viel aendern.

robbitop
2004-01-15, 08:51:19
du sprichst im Konjunktiv ;)
du weisst daß dort einiges verändert worden ist....so einiges um auf alle Fälle nicht als CopynPaste Design darzustehen...

Gast
2004-01-15, 13:15:26
Wie stehn die Chancen das das das AA endlich auf ATI Niveau kommt.

... Desweiteren geht man von einem 8x sparsed Anti-Aliasing aus - wie intelligent das dabei gewählte Sampleraster wird, ist natürlich die große und entscheidende Frage. Beim Speichertakt gibt man sich konservativ und schätzt diesen auf ähnlich des Chiptaktes, also um die 550 MHz. In der Tat erscheinen die neuesten Höchstleistungen der Speicherindustrie von bis zu 700 MHz Takt bei speziellem Grafikkarten-Speicher (GDDR2/GDDR3) als derzeit noch kaum für Serienkarten verwendbar - sowohl vom Preis her als auch von der derzeitigen Produktionsausbeute. Daneben haben TtecX sogar noch ein paar (angebliche) NV40-Benchmarks anzubieten, welche allerdings aufgrund der nicht bekannten Bedingungen nur sehr schwer vergleichbar sind.

Wird NV mit "8x sparsed Anti-Aliasing" die Qualität des ATI AA erreichen ?

Zur Geschwindigkeit kann man wohl keine Aussagen machen was

Coda
2004-01-16, 16:27:32
Das ist blos ein Gerücht und sehr fragwürdig. Also nicht drauf hören vorerst.
Wenn Fakten da sind kann man drüber diskuttieren. Ich glaube nicht an ein 8x sparsed AA von nVidia

Zudem hilft ATi auch die Gamma Korrektur erheblich

robbitop
2004-01-16, 16:57:18
eher nicht erheblich.
Das haben gewisse Leute selbst nach genauer Betrachtung nicht/schwer nachweisen können. Die Gammakorrektur wirkt sich weniger auf die Glättung von Polygonkanten aus als auf die Farben des Gesamtbildes (siehe 3DM03 Nature)

aths
2004-01-16, 19:59:25
Original geschrieben von Coda
Das ist blos ein Gerücht und sehr fragwürdig. Das ist nicht mal ein Gerücht, lediglich eine Spekulation.
Original geschrieben von Coda
Also nicht drauf hören vorerst.Wieso nicht? Wir sind hier im Spekulationsforum...
Original geschrieben von Coda
Wenn Fakten da sind kann man drüber diskuttieren.Hier darf man aber auch spekulieren...
Original geschrieben von Coda
Ich glaube nicht an ein 8x sparsed AA von nVidiaHm, ich hingegen vermute das schon. Entweder was richtig gutes, oder weiterhin HRAA. Aber dass die noch mal HRAA aufbacken, kann ich mir nicht vorstellen.
Original geschrieben von Coda
Zudem hilft ATi auch die Gamma Korrektur erheblich Wer sagt, dass NV40 kein Gamma-korrektes Downfiltering bekommt?

Ailuros
2004-01-17, 05:36:01
Wer sagt, dass NV40 kein Gamma-korrektes Downfiltering bekommt?

Ich hatte serioese Vorbehaltungen im guten Ganzen was NV4x betrifft und dass schon seit geraumer Zeit und werde sie auch weiterhin behalten. Nur die Ankuendigung wird zu Reaktionen der Art "oh ja so haben wir es nicht erwartet..." fuehren.

Poo auf gamma correction...

Gast
2004-01-17, 12:11:07
Original geschrieben von Ailuros
Ich hatte serioese Vorbehaltungen im guten Ganzen was NV4x betrifft und dass schon seit geraumer Zeit und werde sie auch weiterhin behalten. Nur die Ankuendigung wird zu Reaktionen der Art "oh ja so haben wir es nicht erwartet..." fuehren.

Poo auf gamma correction...


Kannst du das noch etwas konkreter/anders sagen?

Soll das heißen, der NV40 wird wieder eine (kleine) Entäuschung werden?

StefanV
2004-01-17, 12:57:51
Original geschrieben von Gast
Kannst du das noch etwas konkreter/anders sagen?

Soll das heißen, der NV40 wird wieder eine (kleine) Entäuschung werden?

Ehrlich gesagt würd ich von den kommenden Chips nicht allzuviel erwarten...


Würd eher 'getunte' Vorgänger erwarten...

betasilie
2004-01-17, 13:07:36
Original geschrieben von Stefan Payne
Ehrlich gesagt würd ich von den kommenden Chips nicht allzuviel erwarten...


Würd eher 'getunte' Vorgänger erwarten...
Ich hoffe nicht, dass Du recht hast. Ich erwarte ziemlich viel von NV40 und R420.

StefanV
2004-01-17, 14:26:46
Original geschrieben von betareverse
Ich hoffe nicht, dass Du recht hast. Ich erwarte ziemlich viel von NV40 und R420.

Naja, von nV erwarte ich ehrlich gesagt nicht allzuviel...

Der nV30 (und nV35) ist IMO nicht allzu revolutionär, die Änderungen halten sich auch in Grenzen...

Bei ATI erwarte ich allerdings etwas besseres FSAA, das Ausmerzen einiger 'Designentscheidungen' des R300 und noch ein paar andere kleinere DInge...

betasilie
2004-01-17, 14:35:04
Original geschrieben von Stefan Payne
Naja, von nV erwarte ich ehrlich gesagt nicht allzuviel...

Der nV30 (und nV35) ist IMO nicht allzu revolutionär, die Änderungen halten sich auch in Grenzen...

Bei ATI erwarte ich allerdings etwas besseres FSAA, das Ausmerzen einiger 'Designentscheidungen' des R300 und noch ein paar andere kleinere DInge...
Also NV30 und NV35 sind von der Shaderarchitektur schon revolutionär, auch wenn die Effizienz z.Zt. etwas zu wünschen übrig lässt.

Imo wird der NV40 in Sachen Shaderperformance ganz stark aufholen und Shader3.0-Funktionaltät muss ATI erstmal vernünftig hinbekommen. Dann muss NV noch beim AA aufholen und ich denke, dass sie neue AA-Modi anbieten werden. Wenn nicht, wäre das wirklich ein totaler Witz.

Beim R420 erwarte ich besseres AF und eine brachiale Leistungssteigerung in der Rohperformance. Was die Shader angeht wird ATI wohl einfach nur an Performance zulegen, aber in Sachen Funktionalität wird NV wohl vorbeiziehen. Ob das zu diesem Zeitpunkt allerdings wirklich ein Nachteil sein muss, ist fraglich.

Demirug
2004-01-17, 14:43:26
Original geschrieben von Stefan Payne Der nV30 (und nV35) ist IMO nicht allzu revolutionär, die Änderungen halten sich auch in Grenzen...

Natürlich ist er nicht besonders revolutionär aber trift das nicht auch auf den R300 zu?

StefanV
2004-01-17, 14:46:38
Original geschrieben von Demirug
Natürlich ist er nicht besonders revolutionär aber trift das nicht auch auf den R300 zu?

Für den User ist der R300 revolutionär ;)
Ist das nicht alles, was zählt?? :naughty:

Demirug
2004-01-17, 14:48:35
Original geschrieben von betareverse
Also NV30 und NV35 sind von der Shaderarchitektur schon revolutionär, auch wenn die Effizienz z.Zt. etwas zu wünschen übrig lässt.

Es mag so aussehen aber das Teil ist einfach eine neue Evolutionsstufe des NV2X. Jede Veränderung ist genau nachvollziebar.

Imo wird der NV40 in Sachen Shaderperformance ganz stark aufholen und Shader3.0-Funktionaltät muss ATI erstmal vernünftig hinbekommen. Dann muss NV noch beim AA aufholen und ich denke, dass sie neue AA-Modi anbieten werden. Wenn nicht, wäre das wirklich ein totaler Witz.

Letzten Endes mangelt es nVidia beim AA nur an einem besseren Grid.

Beim R420 erwarte ich besseres AF und eine brachiale Leistungssteigerung in der Rohperformance. Was die Shader angeht wird ATI wohl einfach nur an Performance zulegen, aber in Sachen Funktionalität wird NV wohl vorbeiziehen. Ob das zu diesem Zeitpunkt allerdings wirklich ein Nachteil sein muss, ist fraglich.

Ich weiss nicht ob ATI sich wirklich von iherem AF trennen wird. Sie haben dafür nicht genügend "Prügel" bezogen.

Funktionalität ist gut um die Entwickler zu beeindrucken. ATI profitiert im Moment sehr stark davon das sie als erste und lange als einzige DX9 Funktionalität liefern konnten

Demirug
2004-01-17, 14:51:46
Original geschrieben von Stefan Payne
Für den User ist der R300 revolutionär ;)
Ist das nicht alles, was zählt?? :naughty:

Nein. Gerade für den Benutzer sind die R3XX Karten doch in erster Linie nur eines im Vergleich zum Vorgänger. Schneller. Und schneller ist immer eine evolution.

betasilie
2004-01-17, 15:17:30
Original geschrieben von Demirug
Letzten Endes mangelt es nVidia beim AA nur an einem besseren Grid.

Ich fände es sehr interessant, wenn ATI und NV ein 8*SG anbieten würden, um dann die höchstwahrscheinlich unterschiedlichen Muster in der Praxis vergleichen zu können. Ich nehme allerdings an, dass NV das 4*OG lediglich gegen ein RG(SG) austauschen wird und höher AA-Modi erstmal beim OG bleiben.

Original geschrieben von Demirug
Ich weiss nicht ob ATI sich wirklich von iherem AF trennen wird. Sie haben dafür nicht genügend "Prügel" bezogen.

Hoffen wir auf das beste, denn wenn NV beim AA nachzieht (Gammakorrektur und SP-Grid), könnte ATIs AF das Zünglein an der Waage sein.

Original geschrieben von Demirug
Funktionalität ist gut um die Entwickler zu beeindrucken. ATI profitiert im Moment sehr stark davon das sie als erste und lange als einzige DX9 Funktionalität liefern konnten
Die Frage, die ich dir da stellen würde, ist, wieviele Anwendungsmöglichkeiten es exklusiv für Shader3.0 gibt, die man in Spielen verwenden könnte (keine Passreduktion). Vorraussetzung wäre natürlich, dass man das Game ohne großen Aufwand auf DX8-Hardware laufen lassen kann.

Demirug
2004-01-17, 15:33:15
Original geschrieben von betareverse
Die Frage, die ich dir da stellen würde, ist, wieviele Anwendungsmöglichkeiten es exklusiv für Shader3.0 gibt, die man in Spielen verwenden könnte. Vorraussetzung wäre natürlich, dass man das Game ohne großen Aufwand auf DX8-Hardware laufen lassen kann.

Abspecken kann man Effekte ja immer. Wenn es sein muss soweit das nur noch eine Textur übrig bleibt.

In erster Annäherung muss man Vertex/Pixelshader 3.0 aber erst mal als Möglichkeit sehen die Statechanges der Karte zu reduzieren. Wenn man die Statechanges reduzieren kann führt das oft dazu das man die Batchcalls reduzieren kann. Weniger Batchcalls beuteuten weniger CPU Belastung.

Um da jetzt mal ein praktisches Beispiel zu bringen. HL2 setzt ja auf wenige Grundshader mit vielen Varianten. Bei einem Effekt (Lightmapping oder Vertexlight; habe ich gerade nicht genau im Kopf) gibt es 10 mögliche Einzelvarianten die auch kombinert werden können. Daraus ergeben sich dann 1024 mögliche Shadingvarianten. Da sind aber auch unsinnige dabei. Denoch erzeugte man aus einem HLSL Code alle 1024 möglichkeiten und wählt nun bei jedem Effekt die richtige aus indem man den entsprechenden Shader aktiviert. Mit PS 3.0 kann man nun in erster Annäherung diese Entscheidungen durch statisches Branching ersetzten. Man braucht dann nur noch einen Shader und schaltet nur noch Konstanten um. Das geht in der Regel viel schneller als einen Shader komplett zu wechseln. Hat man nun Objekte deren Oberfläche unterschiedliche Varianten braucht so muss man diese Objekte bei PS <= 2.0 zerlegen und einzelen übergeben. Bei PS 3.0 kann man dank dynamischem Branching den richtigen Effekt pro Pixel bestimmen. Dadurch entfällt das zerlegen und man braucht weniger Drawcalls. Das funktioniert aber nur wenn 3.0 gut implementiert ist. Eine schlechte 3.0 Implementierung könnte sich als viel langsamer erweisen als wenn man es wie bisher macht.

betasilie
2004-01-17, 16:23:54
Original geschrieben von Demirug
Abspecken kann man Effekte ja immer. Wenn es sein muss soweit das nur noch eine Textur übrig bleibt.

In erster Annäherung muss man Vertex/Pixelshader 3.0 aber erst mal als Möglichkeit sehen die Statechanges der Karte zu reduzieren. Wenn man die Statechanges reduzieren kann führt das oft dazu das man die Batchcalls reduzieren kann. Weniger Batchcalls beuteuten weniger CPU Belastung.

Um da jetzt mal ein praktisches Beispiel zu bringen. HL2 setzt ja auf wenige Grundshader mit vielen Varianten. Bei einem Effekt (Lightmapping oder Vertexlight; habe ich gerade nicht genau im Kopf) gibt es 10 mögliche Einzelvarianten die auch kombinert werden können. Daraus ergeben sich dann 1024 mögliche Shadingvarianten. Da sind aber auch unsinnige dabei. Denoch erzeugte man aus einem HLSL Code alle 1024 möglichkeiten und wählt nun bei jedem Effekt die richtige aus indem man den entsprechenden Shader aktiviert. Mit PS 3.0 kann man nun in erster Annäherung diese Entscheidungen durch statisches Branching ersetzten. Man braucht dann nur noch einen Shader und schaltet nur noch Konstanten um. Das geht in der Regel viel schneller als einen Shader komplett zu wechseln. Hat man nun Objekte deren Oberfläche unterschiedliche Varianten braucht so muss man diese Objekte bei PS <= 2.0 zerlegen und einzelen übergeben. Bei PS 3.0 kann man dank dynamischem Branching den richtigen Effekt pro Pixel bestimmen. Dadurch entfällt das zerlegen und man braucht weniger Drawcalls. Das funktioniert aber nur wenn 3.0 gut implementiert ist. Eine schlechte 3.0 Implementierung könnte sich als viel langsamer erweisen als wenn man es wie bisher macht.
Einige Begriffe sagen mir zwar jetzt mal garnix, aber im Kern glaube ich die Vorteile verstanden zu haben.

Wie sieht es bei den VS3,0 aus?
Es gibt aber auch sicherlich Techniken, die nicht leicht durch simplere ersetzt werden können. Wenn man z.B. die VS3.0 fürs Displacement-Mapping nutzt und damit die Landschaftsgeometrie generiert, könnte man so ein Game nicht einfach auf Karten anpassen, die keine VS3.0 unterstützen.

Demirug
2004-01-17, 16:50:56
Original geschrieben von betareverse
Wie sieht es bei den VS3,0 aus?
Es gibt aber auch sicherlich Techniken, die nicht leicht durch simplere ersetzt werden können. Wenn man z.B. die VS3.0 fürs Displacement-Mapping nutzt und damit die Landschaftsgeometrie generiert, könnte man so ein Game nicht einfach auf Karten anpassen, die keine VS3.0 unterstützen.

Bei den VS verhält es sich ähnlich wie bei den PS. Der Unterschied dort ist das Statische Branching schon bei den VS 2.0 eingeführt wurde.

VS Funktionen lassen sich alle sehr gut notfalls auf die CPU verlagern.

VooDoo7mx
2004-01-17, 18:28:59
Original geschrieben von Demirug
Letzten Endes mangelt es nVidia beim AA nur an einem besseren Grid.


Besteht nicht die Möglichkeit, dass NV per Treiber dem NV3X ein rotated Grid beibringen kann?
Schließlich kamen doch in letzter Zeit immer mehr AA Modi per neuen Treiber zum vorschein...

StefanV
2004-01-17, 18:31:38
Original geschrieben von VooDoo7mx
Besteht nicht die Möglichkeit, dass NV per Treiber dem NV3X ein rotated Grid beibringen kann?
Schließlich kamen doch in letzter Zeit immer mehr AA Modi per neuen Treiber zum vorschein...

Nein, denn dafür muss das Trisetup ausgelegt sein, was es aber nicht ist.

Außerdem hätte nV das gleich genutzt, wenns denn gehen würde...

Bei diesem Feature besteht wirklich kein Grund, es zurückzuhalten.

AlfredENeumann
2004-01-17, 19:14:25
Original geschrieben von betareverse

.. und Shader3.0-Funktionaltät muss ATI erstmal vernünftig hinbekommen ...


Das hat eh bis zum R500 Zeit.
Beim R420 reicht es für den Endanwender wenn der R420 das auf dem Papier kann.
Solange der R420 wieder Brutal schnell gegenüber der Konkurenz bzw. Vorgänger ist, ist es praktisch die halbe miete.

Demirug
2004-01-17, 19:41:39
Original geschrieben von AlfredENeumann
Das hat eh bis zum R500 Zeit.
Beim R420 reicht es für den Endanwender wenn der R420 das auf dem Papier kann.
Solange der R420 wieder Brutal schnell gegenüber der Konkurenz bzw. Vorgänger ist, ist es praktisch die halbe miete.

Bist du da nicht ein bischen zu optimistisch?

Genauso hätte man dann ja auch beim NV30 argumentieren können.

Der Wechsel von 2.0 Shadern nach 3.0 Shadern ist viel einfacher als er von 1.X nach 2.0 war. Es müssen keine Engines umgeschrieben werden. Der grundsätzliche Aufbau bleibt gleich. Wenn man bereits HLSL benutzt ist es überhaupt kein Problem.

Sollte ATI PS 3.0 nur als Papier-Feature unterstützen könnte der "Tip" des ATI-Dev-Supports immer die höchste Verfügbare Shaderversion zu benutzten nach hinten losgehen.

Lost Prophet
2004-01-18, 03:30:06
hm

der r420 ist doch eine mischung aus ur-r400 und r360-refresh, glaubt ihr dass es fuer den r420 dennoch einen refresh gibt?

worauf ich hinaus will: wenn ich im juli nach hause komme, und in meinem comp immer noch eine steinzeit BBA-8500 steckt, wie lange muesste ich auf den r500 warten?

die roadmaps sagen afaik herbst/winter chip, ich wuerd trotzdem gern wissen was ihr denkt, die tendenz ist ja eindeutig zu mehr refreshes.

cya, axel

Ailuros
2004-01-18, 05:09:11
Original geschrieben von Gast
Kannst du das noch etwas konkreter/anders sagen?

Soll das heißen, der NV40 wird wieder eine (kleine) Entäuschung werden?

Nein tut mir leid. Der Grund ist dass die bisherigen Informationen (die zu besagten Vorbehaltungen fuehren) nicht von einer zuverlaessigen Quelle stammen und ich konnte es auch nicht im letzten Jahr auf irgend eine Weise bestaetigen.

Ich hab schon mal gesagt dass ich die Veroeffentlichung abwarte; ich hab nichts zu verlieren oder zu gewinnen wenn ich jetzt Spekulationen posten wuerde, die sich in der Zukunft als getroffen beweisen.

GRiNSER
2004-01-18, 09:44:29
Original geschrieben von Ailuros
Nein tut mir leid. Der Grund ist dass die bisherigen Informationen (die zu besagten Vorbehaltungen fuehren) nicht von einer zuverlaessigen Quelle stammen und ich konnte es auch nicht im letzten Jahr auf irgend eine Weise bestaetigen.

Ich hab schon mal gesagt dass ich die Veroeffentlichung abwarte; ich hab nichts zu verlieren oder zu gewinnen wenn ich jetzt Spekulationen posten wuerde, die sich in der Zukunft als getroffen beweisen.
in rätseln sprechen lag dir schon immer gut :up: :D

btw: was kommt früher? die neue graka generation oder HL2? - brauche wahrscheinlich für hl2 ne neue graka - deshalb die frage ob ich dann ne der alten generation nehmen soll oder lieber auf eine der neuen warten...

Gast
2004-01-18, 10:50:33
Original geschrieben von Demirug
Bist du da nicht ein bischen zu optimistisch?

Genauso hätte man dann ja auch beim NV30 argumentieren können.

Sollte ATI PS 3.0 nur als Papier-Feature unterstützen könnte der "Tip" des ATI-Dev-Supports immer die höchste Verfügbare Shaderversion zu benutzten nach hinten losgehen.

Allerdings, zumal nachdem NV ja nun endlich auch seit geraumer Zeit DX9 Karten im Angebot hat und durch die Low End und Mainstream Modelle diesen Markt auch gut abdeckt die Entwickler auch für die Partial Precision sensibilisiert werden.
Wenn ATI PS3.0 nur auf dem Papier anbietet und die Entwickler sich mehr mit den NV Produkten und ihren besonderen Eigenheiten im Bereich der Partial Precision beschäftigen, könnte der Schuss aber ganz gewaltig nach hinten losgehen zumal ich eigentlich erwarte, dass Futuremark einen neuen Bench früher oder später bereitstellen wird, der dann auf FP32 vielleicht sogar auf den Mixed Mode setzt.
Also nur auf dem Papier anbieten halte ich für zu gewagt. Dafür würden sie früher oder später abgestraft werden.
Ich gebe zu, dass wenn NV am AA nix ändert, dass dann vielleicht nicht so zur Geltung kommen würde.
Wenn NV aber am AA aufholt, würden auch die Reviewer ATI als Entwicklungsbremse abstrafen, wenn sie es nur auf dem Papier anbieten. Eins dürfte klar sein, wenn Nidia FP32 in einer halbwegs vernünftigen Performance anbietet, wird es dafür extra Benchmarks geben. Das Geld werden die schon investieren dafür.
10 bis 15 Mio für FM oder auch andere Studios sollten reichen. Dazu die üblichen Benchmark Guiedes. Das könnte auch ein völlig neuer Benchmark sein. Die großen Seiten würden ihn nutzen.
Ich glaube nicht, dass ATI sich das Risiko leisten möchte.

robbitop
2004-01-18, 11:54:29
R500 ist für Fall 2004/Q1 2005 angesetzt und wird im 110nm Verfahren produziert.

Gast
2004-01-18, 12:20:42
Original geschrieben von AlfredENeumann
Das hat eh bis zum R500 Zeit.
Beim R420 reicht es für den Endanwender wenn der R420 das auf dem Papier kann.
Solange der R420 wieder Brutal schnell gegenüber der Konkurenz bzw. Vorgänger ist, ist es praktisch die halbe miete.


IMHO Nein;

für den User ist DX9.1 vielleicht unwichtig; aber für ATi ist eine funktionierende und schnelle Implementierung von VS3.0 und PS3.0 _sehr_ wichtig, wenn sie mit der R3xx - Serie nicht eine Art von "One Hit Wonder" bleiben wollen und die Entwickler dauerhaft auf ihre Seite ziehen wollen.

Bei einer schlechten "DX9.1" Implementierung hat ATi IMHO sehr viel zu verlieren !! Sie werden also alles machen, damit VS3.0 und PS3.0 beim R420 gut bis sehr gut laufen (zumindest aber besser als beim NV40); wobei Nvidia natürlich das selbe versucht.

aths
2004-01-18, 14:04:02
Original geschrieben von Gast
IMHO Nein;

für den User ist DX9.1 vielleicht unwichtig;Allerdings (http://www.3dcenter.org/artikel/2004/01-10.php).

nagus
2004-01-18, 14:13:22
Original geschrieben von Gast
IMHO Nein;

für den User ist DX9.1 vielleicht unwichtig; aber für ATi ist eine funktionierende und schnelle Implementierung von VS3.0 und PS3.0 _sehr_ wichtig, wenn sie mit der R3xx - Serie nicht eine Art von "One Hit Wonder" bleiben wollen und die Entwickler dauerhaft auf ihre Seite ziehen wollen.

Bei einer schlechten "DX9.1" Implementierung hat ATi IMHO sehr viel zu verlieren !! Sie werden also alles machen, damit VS3.0 und PS3.0 beim R420 gut bis sehr gut laufen (zumindest aber besser als beim NV40); wobei Nvidia natürlich das selbe versucht.


wobei ich aber glaube, dass es für ATi wesentlich einfacher sein dürfte, gute bis sehr gute PS3/VS3 leistung zu erbringen, als für Nv. immerhin hat ATi bewiesen, was die ingeneure zu leisten vermögen (sowas hat ATi niemand zugetraut) ... und die basis die sie mit der R350 haben könnte besser nicht sein IMHO.

NV muss erst mal schaun, dass sie PS2/VS2 leistung steigern können.

Gast
2004-01-18, 14:31:48
Original geschrieben von nagus
wobei ich aber glaube, dass es für ATi wesentlich einfacher sein dürfte, gute bis sehr gute PS3/VS3 leistung zu erbringen, als für Nv. immerhin hat ATi bewiesen, was die ingeneure zu leisten vermögen (sowas hat ATi niemand zugetraut) ... und die basis die sie mit der R350 haben könnte besser nicht sein IMHO.

NV muss erst mal schaun, dass sie PS2/VS2 leistung steigern können.

Also wenn ich deine Argumentation nehme, dann muss ich mir ja bei Nvidia überhaupt keine Gedanken machen.
Die haben seit mehreren Jahren und Generationen bewiesen was sie können - nämlich den Markt total beherrschen. Davon ist ATI aber noch sehr weit weg.

So eine Argumentation ist natürlich schwachsinnig und so ist es auch deine.

LovesuckZ
2004-01-18, 14:36:09
Original geschrieben von nagus
und die basis die sie mit der R350 haben könnte besser nicht sein IMHO.

Wie denn bitte?

Ailuros
2004-01-18, 15:17:31
Original geschrieben von robbitop
R500 ist für Fall 2004/Q1 2005 angesetzt und wird im 110nm Verfahren produziert.

110nm wird von beiden IHVs dieses Jahr mit hoechster Wahrscheinlichkeit fuer refreshes benutzt werden und sollte nur eine temporaere Zwischenloesung darstellen. Wieso und woher die Sicherheit kommt dass R500 immer noch auf 110nm basieren wird, ist mir fremd.

Weder NV50 noch R500 werden es wohl dieses Jahr noch schaffen und 2005 ist eher ein 90nm Jahr IMHO.

Demirug
2004-01-18, 15:23:38
nagus, warum sollte es für ATI einfacher sein? Gute Ingeneure haben beide Seiten. Zudem weiss man bei den vielen Leuten die beide haben sowieso nicht wer sich zur Zeit womit genau beschäftigt.

Wenn ich mich an die einfachen Fakten halte dann ist es einfach so das ATI mit iherer Architektur dicht am Leistungslimit operiert. Ein mehr an Leistung geht nur über ein mehr an Takt oder indem Einheiten hinzufügt.

Bei nVidia ist der Wirkungsgrad bei PS 2.0 derzeit recht ehrbärmlich und kann mit einfachen Massnahmen leicht verdoppelt werden.

Technologisch ist nVidia dichter an PS und VS 3.0 als es ATI derzeit ist. ATI ist sich auch durchaus bewusst das die Architektur des R300 seine Grenzen hat. Fummerweise liegt diese Grenze genau auf dem Weg in Richtung PS 3.0.

betasilie
2004-01-18, 15:58:41
Original geschrieben von Demirug
Technologisch ist nVidia dichter an PS und VS 3.0 als es ATI derzeit ist. ATI ist sich auch durchaus bewusst das die Architektur des R300 seine Grenzen hat. Fummerweise liegt diese Grenze genau auf dem Weg in Richtung PS 3.0.
Daher wahrscheinlich auch die Metamorphose von R400 zu R500. Der Plan geht meiner Meinung nach auch auf, mit dem R420 auf eine schnelle Shader2.0-GPU zusetzen, wenn der R500 Ende 2004 kommt.

robbitop
2004-01-18, 16:00:18
keine Sicherheit AiL
wie lange hat 150nm als Zwischenschritt gehalten? 3 Jahre?
GPU IHVs lassen sich scheinbar immer etwas mehr Zeit und nehmen kleinere Produktionssprünge als CPU Hersteller wahr.
Vermutlich weil GPUs etwas komplexer sind als CPUs oder?
Ich habe mal irgendwann vor einiger Zeit gehört NV50/R500 sollen 90nm sein. Aber wenn die beiden Chips Q1 2005 kommen sollen,also in einem Jahr bin ich über 90nm noch sehr skeptisch...

nagus
2004-01-18, 17:42:54
Original geschrieben von Demirug
nagus, warum sollte es für ATI einfacher sein? Gute Ingeneure haben beide Seiten. Zudem weiss man bei den vielen Leuten die beide haben sowieso nicht wer sich zur Zeit womit genau beschäftigt.


1. ati hatte mehr zeit
2. R360 kann schon sehr viel und ist außerdem extrem schnell (NV35 kann etwas flexiblere shader, dafür ist die leistung grauenhaft)
3. hat ati mehr "man-power" (artx)
4. verdermen anscheinend die 3dfxler bei nvidia den brei
5. ati hat den 0,13µm prozess perfektioniert und kann jetzt ohne probleme die nex-gen linie damit produzieren. nv steigt aber nicht auf einen kleineren fertigungsprozess um (bzw. kann noch nicht umsteigen auf 0.11)

ein kleiner vergleich:

NV35 130mio transis : 0,13 >> extrem heiss, geringe ausbeute ausbeute
R360 115mio transis : 0,15 >> kühler als NV35, bessere ausbeute.

und jetzt stellen wir uns mal vor, ATI steigt auf einen fast perfekten 0,13µm prozess um (vorher lange uns ausgiebig durch RV350/RV360 getestet und optimiert).

>>> man stelle sich vor, eine R360 in 0,13µm (LowK) technik und durchaus realistischen 600Mhz core + vielleicht 500Mhz GDDR2(oder3) ram, mit 12x1 pipelines (oder startk aufgebortes 8xX design)... und diversen anderen "goodies" (verbessertes speichermanagement, HyperZ4, Smoothvision 3, etc..)

*sich-alle-10-finger-abschleck* :)

... also wenn die NV40 nicht wirklich eine revolution und keine evolution ist, wirds relativ schwer für nv IMHO.



Wenn ich mich an die einfachen Fakten halte dann ist es einfach so das ATI mit iherer Architektur dicht am Leistungslimit operiert. Ein mehr an Leistung geht nur über ein mehr an Takt oder indem Einheiten hinzufügt.

durch den umstieg auf LowK 0,13µm kann Ati aber noch eine menge rausholen. Nvidia hat diesen vorteil nicht. (nv40 in der nächst kleineren 0,11µm technik ist erst später geplant)



Bei nVidia ist der Wirkungsgrad bei PS 2.0 derzeit recht ehrbärmlich und kann mit einfachen Massnahmen leicht verdoppelt werden.


fragt sich nur, ob nvidia das auch so sieht


Technologisch ist nVidia dichter an PS und VS 3.0 als es ATI derzeit ist. ATI ist sich auch durchaus bewusst das die Architektur des R300 seine Grenzen hat. Fummerweise liegt diese Grenze genau auf dem Weg in Richtung PS 3.0.

PS3/VS3 ist auch nicht unbedingt notwendig, falls R500 im herbst kommt. falls doch nicht, ists auch zu verschmerzen wenn R420 leistungsmäßig nicht ein kompletter reinfall wird a la NV30

Aquaschaf
2004-01-18, 17:51:33
Original geschrieben von nagus
1. ati hatte mehr zeit
2. R360 kann schon sehr viel und ist außerdem extrem schnell (NV35 kann etwas flexiblere shader, dafür ist die leistung grauenhaft)
3. hat ati mehr "man-power" (artx)
4. verdermen anscheinend die 3dfxler bei nvidia den brei
5. ati hat den 0,13µm prozess perfektioniert und kann jetzt ohne probleme die nex-gen linie damit produzieren. nv steigt aber nicht auf einen kleineren fertigungsprozess um (bzw. kann noch nicht umsteigen auf 0.11)



1. Stimmt afaik nicht.
2. Ist doch eigentlich für NVidia besser. Weniger Aufwand um PS/VS 3 zu implementieren, und viel Potenzial für höhere Performance ohne höheren Takt. Wie schon gesagt wurde, ATI muss hingegen mehr Funktionseinheiten einbauen oder den Takt erhöhen um mehr Leistung zu bekommen.
3. Ob das stimmt weiß ich nicht, ich denke aber mal nicht.
4. Flame
5. 60-70Mio. Transistoren reichen also aus um einen Prozess zu "perfektioneren" und der Konkurenz die schon 135Mio. Chips in der Strukturgröße fabriziert hat einen Vorteil gegenüber zu haben?

Hauwech
2004-01-18, 17:54:50
Schwer zu sagen wer zuerst 90nm einsetzt. nVidia hat mit IBM zumindest jemanden, der es vielleicht koennte. Bei TSMC hat sich nVidia mit 130nm und lowK bei dem NV30 vergalloppiert aber Versuch macht ja bekanntlich 'kluch' ;) und von daher werden sie IBM garantiert nicht aus den Augen verlieren. Sich nur auf einen Chipbaecker zu verlassen hat ja nicht so richtig funktioniert. Machbar (90nm) ist vieles aber Kosten muessen (leider) auch noch beruecksichtigt werden.

AlfredENeumann
2004-01-18, 18:08:48
Original geschrieben von Demirug
Bist du da nicht ein bischen zu optimistisch?

Genauso hätte man dann ja auch beim NV30 argumentieren können.

Der Wechsel von 2.0 Shadern nach 3.0 Shadern ist viel einfacher als er von 1.X nach 2.0 war. Es müssen keine Engines umgeschrieben werden. Der grundsätzliche Aufbau bleibt gleich. Wenn man bereits HLSL benutzt ist es überhaupt kein Problem.

Sollte ATI PS 3.0 nur als Papier-Feature unterstützen könnte der "Tip" des ATI-Dev-Supports immer die höchste Verfügbare Shaderversion zu benutzten nach hinten losgehen.

Wer entscheidet denn das ein Chip erfolgreich wird?
Der Endkunde.
Der kauft sich was was schnell ist und womit er Zocken kann am besten mit höchster Quali. Da ist dann ein langsamer PS3.0 ansatz eh egal. Bis ne Handvoll PS3.0 Titel erhältlich sind steht der R500 vor der Türe.
Das gleiche Spiel haben wir doch beim NX3X gesehen.
Was haben ihm seine "Tollen Shader" gebracht? Nüx.

AlfredENeumann
2004-01-18, 18:10:31
Original geschrieben von Gast
Allerdings, zumal nachdem NV ja nun endlich auch seit geraumer Zeit DX9 Karten im Angebot hat und durch die Low End und Mainstream Modelle diesen Markt auch gut abdeckt die Entwickler auch für die Partial Precision sensibilisiert werden.
Wenn ATI PS3.0 nur auf dem Papier anbietet und die Entwickler sich mehr mit den NV Produkten und ihren besonderen Eigenheiten im Bereich der Partial Precision beschäftigen, könnte der Schuss aber ganz gewaltig nach hinten losgehen zumal ich eigentlich erwarte, dass Futuremark einen neuen Bench früher oder später bereitstellen wird, der dann auf FP32 vielleicht sogar auf den Mixed Mode setzt.
Also nur auf dem Papier anbieten halte ich für zu gewagt. Dafür würden sie früher oder später abgestraft werden.
Ich gebe zu, dass wenn NV am AA nix ändert, dass dann vielleicht nicht so zur Geltung kommen würde.
Wenn NV aber am AA aufholt, würden auch die Reviewer ATI als Entwicklungsbremse abstrafen, wenn sie es nur auf dem Papier anbieten. Eins dürfte klar sein, wenn Nidia FP32 in einer halbwegs vernünftigen Performance anbietet, wird es dafür extra Benchmarks geben. Das Geld werden die schon investieren dafür.
10 bis 15 Mio für FM oder auch andere Studios sollten reichen. Dazu die üblichen Benchmark Guiedes. Das könnte auch ein völlig neuer Benchmark sein. Die großen Seiten würden ihn nutzen.
Ich glaube nicht, dass ATI sich das Risiko leisten möchte.

Was hat FP32 mit PS3 zu tun?

AlfredENeumann
2004-01-18, 18:14:41
Original geschrieben von Gast
IMHO Nein;

für den User ist DX9.1 vielleicht unwichtig; aber für ATi ist eine funktionierende und schnelle Implementierung von VS3.0 und PS3.0 _sehr_ wichtig, wenn sie mit der R3xx - Serie nicht eine Art von "One Hit Wonder" bleiben wollen und die Entwickler dauerhaft auf ihre Seite ziehen wollen.

Bei einer schlechten "DX9.1" Implementierung hat ATi IMHO sehr viel zu verlieren !! Sie werden also alles machen, damit VS3.0 und PS3.0 beim R420 gut bis sehr gut laufen (zumindest aber besser als beim NV40); wobei Nvidia natürlich das selbe versucht.

Gegenfrage: Was hat PS2.0+ NV gebracht? Richtig nix.
Hatten sie im gegenzug schnelles PS2.0? Nö. Richtig. Darum wurde NV30 auch so schlecht verkauft.
Das bringt dem Endkunde alles nix.

Und jetzt fangt nicht mit Technologiebremse an. Ich hab gesagt PS3.0 auf dem Papier (spruch halt was langsamer) reicht bis ende des Jahres Vollkommen aus.
Last doch endlich mal eine Technologie ausreifen als immer nur eine halbherzig anfangen.

AlfredENeumann
2004-01-18, 18:17:22
Original geschrieben von Demirug
Technologisch ist nVidia dichter an PS und VS 3.0 als es ATI derzeit ist. ATI ist sich auch durchaus bewusst das die Architektur des R300 seine Grenzen hat. Fummerweise liegt diese Grenze genau auf dem Weg in Richtung PS 3.0.

Wer sagt den das ATI mit der Technologie die sie zur realisierung für PS3.0 benutzen werden langsam sein werden?
Nur weil NV "näher" dran ist als ATI heist es nicht das ATI es nur "langsam" hinbekommt.

AlfredENeumann
2004-01-18, 18:18:31
Original geschrieben von betareverse
Daher wahrscheinlich auch die Metamorphose von R400 zu R500. Der Plan geht meiner Meinung nach auch auf, mit dem R420 auf eine schnelle Shader2.0-GPU zusetzen, wenn der R500 Ende 2004 kommt.

So ungefähr stelle ich mir das auch vor.

Mehr wird derzeit nicht vom Spieler, der sich schließlich die KArten kauft gefordert.

nagus
2004-01-18, 18:20:17
Original geschrieben von Aquaschaf
5. 60-70Mio. Transistoren reichen also aus um einen Prozess zu "perfektioneren" und der Konkurenz die schon 135Mio. Chips in der Strukturgröße fabriziert hat einen Vorteil gegenüber zu haben?

es geht darum, dass nvidia den vorteil einer strukturverkleinerung nicht hat. ati aber schon.

die haben 400mhz OHNE dustbuster geschafft... und OHNE von ihrer 0,15µm technik abzuweichen.

wenn die in 0,15µm schon über 400mhz schaffen, bei ihren "kleinen" chips (RV360) locker 500Mhz (mit einem übertaktungspotential von über 600Mhz!) ... was glaubst du was ATi am heute schaffen kann in 0,13µm?

Demirug
2004-01-18, 18:21:26
Original geschrieben von AlfredENeumann
Wer entscheidet denn das ein Chip erfolgreich wird?
Der Endkunde.
Der kauft sich was was schnell ist und womit er Zocken kann am besten mit höchster Quali. Da ist dann ein langsamer PS3.0 ansatz eh egal. Bis ne Handvoll PS3.0 Titel erhältlich sind steht der R500 vor der Türe.
Das gleiche Spiel haben wir doch beim NX3X gesehen.
Was haben ihm seine "Tollen Shader" gebracht? Nüx.

Ja, weil sie bei DX zum lahm sind.

Der Endkunde ist in Massen leicht zu beinflussen. Wir haben doch gesehen was nach dem auftauchen der HL2 Benchmarks loss war.

Ein grosser Teil des derzeitigen Erfolgs von ATI kommt daher das sie es geschaft haben die Entwickler von ihrer Hardware zu überzeugen. Das war ja auch einfach. Sollte der R420 allerding keinen technolgischen Fortschritt darstellen wird das schwerer.

Demirug
2004-01-18, 18:36:37
nagus, nVidia kennt die Probleme der NV3X Reihe sehr genau und hat sie laut meinen Informationen beim NV4X abgestellt und zugleich heftig aufgestockt. Ob der Chip technologisch nun eine Revolution oder eine Evolution weiss ich nicht. Allerdings ist eine Revolution nicht wirklich notwendig.

Der Umstieg von 0,15 auf 0,13 wird den Yield erstmal verschlechtern. Frag TSMC wenn du mir nicht glaubst. Selbst wenn man bei gleicher Anzahl von Transitoren bleibt ist der Yield bei 0,13 schlechter als bei 0,15. 0,13 ist noch weit weg von perfekt. Der fast perfekte Zustand wird immer kurz vor dem abschalten/umbauen der Fab erreicht.

Was die Mann-Power angeht. Selbst wenn ATI mehr haben sollte darf man nicht vergessen das ATI auch an der XBox II arbeiten muss.

Was kann den der R360 was über PS 2.0 hinausgeht? Als sehr viel würde ich das nicht beziechnen.

Demirug
2004-01-18, 18:38:41
Original geschrieben von AlfredENeumann
Wer sagt den das ATI mit der Technologie die sie zur realisierung für PS3.0 benutzen werden langsam sein werden?
Nur weil NV "näher" dran ist als ATI heist es nicht das ATI es nur "langsam" hinbekommt.

Das habe ich ja nicht behauptet. Es ist aber für ATI mehr Aufwand und das bindet Kräfte. Aber du gehst ja davon aus das sie diese erst für den nächsten Chip investiert haben.

Mr. Lolman
2004-01-18, 18:40:08
Original geschrieben von AlfredENeumann
So ungefähr stelle ich mir das auch vor.

Mehr wird derzeit nicht vom Spieler, der sich schließlich die KArten kauft gefordert.


Problematisch könnts nur werden, wenn NV beim NV40 PS3.0 einbaut. Egal wie toll die Implementation ist. Die Entwickler werden sich diese Karten holen, da bei den 2-3 Jahren die ein Spiel braucht, es relativ egal ist, wie schnell die HW läuft auf der man entwickelt, und zusätzlich wird NV die Werbetrommel so geschickt rühren, dass viele Websiten sich über fehlende Features bei ATi mokieren werden.


Haben wir doch alles in ähnlicher Form schon früher mal erlebt, mit dem Effekt das ein Hersteller pleite ging.

Ok so schlimm wirds sicher nicht, aber ATi könnte es schon ziemlich böse zusetzen, technologisch so deutlich im Rückstand zu sein, dass jeder n00b am Stammtisch darüber diskutieren kann. Gut das war jetzt Schwarzmalerei, aber die Masse kauft die Karten wo möglichst tolle Dinge auf der Verpackung stehen, auch wenn man jetzt schön langsam zu verstehen beginnt, dass mehr MHZ und mehr RAM nicht gleich mehr Leistung sind.

Nur erklär mal einem , warum er sich eine PS2.0 Kart3e kaufne soll, auf der die neuen PS3.0 Demos vom Konkurrenten nicht laufen, wenns die 3.0er Karte ums fast das gleiche Geld gibt. Oder meint ihr etwa die Leute sind in den letzten Jahren soviel gescheiter worden...


(Hab schon 2 Us Foren gesehen wo in fast der Hälfte der sigs ganz gross damit geprotzt wurde, dass man auch zur Elite der 256MB FX5600 Besitzer gehört...)

LovesuckZ
2004-01-18, 18:42:51
Original geschrieben von nagus
1. ati hatte mehr zeit

Hm, und Nvidia arbeitet erst seit gestern am NV40?
Nicht zu vergessen, dass der r420 "nur" eine Notloesung darstellt, da der geplante r400 nicht zu realisieren war (warum auch immmer).

2. R360 kann schon sehr viel und ist außerdem extrem schnell (NV35 kann etwas flexiblere shader, dafür ist die leistung grauenhaft)

Auf was bezieht sich dein "sehr viel"?

3. hat ati mehr "man-power" (artx)

Dafür dass bei nvidia 4 Leute arbeiten, haben sie viel erreicht (2 zusaetzliche kamen durch den Aufkauf des größten Konkurenten aus der Nachbargarage dazu...)

5. ati hat den 0,13µm prozess perfektioniert und kann jetzt ohne probleme die nex-gen linie damit produzieren. nv steigt aber nicht auf einen kleineren fertigungsprozess um (bzw. kann noch nicht umsteigen auf 0.11)

Aehm, oeh, meinst du, Nvidia hat keine Erfahrung mit dem 0.13µm prozess gesammelt?

durch den umstieg auf LowK 0,13µm kann Ati aber noch eine menge rausholen.

Und Nvidia (da sie auch kein lowK verwenden) schaffen dies nicht? Komisch woher dann die Geruechte stammen, dass der NV40 mit 550MHZ kommen solle (es soll laut uttar sogar schon lauffaehige CAD Karten geben mit 300MHZ)...

Jedoch muss ich sagen, zum lachen war's sehr gut...

robbitop
2004-01-18, 18:50:16
wieso nagus arbeitet doch bei TSMC da weiss man eben alles gaaaaaaaanz genau :D

Demirug
2004-01-18, 18:54:14
Original geschrieben von robbitop
wieso nagus arbeitet doch bei TSMC da weiss man eben alles gaaaaaaaanz genau :D

wir wollen doch sachlich bleiben. (Das gilt für alle)

Zudem dürften TSMC Mitarbeiter recht wenig über den NV40 wissen.

betasilie
2004-01-18, 18:55:21
Original geschrieben von LovesuckZ
Hm, und Nvidia arbeitet erst seit gestern am NV40?
Nicht zu vergessen, dass der r420 "nur" eine Notloesung darstellt, da der geplante r400 nicht zu realisieren war (warum auch immmer).

Wie kommst Du darauf? Es könnte auch sein, dass ATI den R400 verschoben hat, weil sie meinen die Konkurrenz auch mit einer günstigeren GPU (R420) zu schlagen.

LovesuckZ
2004-01-18, 18:58:02
Original geschrieben von betareverse
Wie kommst Du darauf? Es könnte auch sein, dass ATI den R400 verschoben hat, weil sie meinen die Konkurrenz auch mit einer günstigeren GPU (R420) zu schlagen.

Die selbe Überlegung wie Uttar.
Ich sehe aber keinen Sinn dadrin mit meinen Konkurenten "nur" gleichzuziehen, wenn ich die Moeglichkeit habe ihn zu deklassieren.
Ausserdem musste diese Entscheidung wohl mindesten vor einem Jahr gefallen sein, da denke ich nicht, dass viel Zeit für die Spionage investiert wurde.
Man koennte nun auch gemein sein und anmerken, dass vielleicht der r400 nicht gereicht haette, da er flexibel gewesen aber, wie sagt es Nagus, die "leistung grauenhaft" waere.

Demirug
2004-01-18, 18:58:31
Original geschrieben von betareverse
Wie kommst Du darauf? Es könnte auch sein, dass ATI den R400 verschoben hat, weil sie meinen die Konkurrenz auch mit einer günstigeren GPU (R420) zu schlagen.

Dann hätte der Gewinn pro Chip beim R400 gegen 0 tendiert. ATI hat ja schon mal vorgewahrnt das dieser in diesem Jahr schlechter als im letzten Jahr ausfallen wird.

betasilie
2004-01-18, 19:03:16
Original geschrieben von Demirug
Dann hätte der Gewinn pro Chip beim R400 gegen 0 tendiert.
So kann man es auch ausdrücken. :) Ich denke aber ATI hätte im Highend-Segment lieber auf Gewinn verzichtet, wenn es denn nötig wäre. Sie glauben daher wohl, ein R420 würde reichen.

Original geschrieben von Demirug
ATI hat ja schon mal vorgewahrnt das dieser in diesem Jahr schlechter als im letzten Jahr ausfallen wird.
Das spricht für ein starkes GPU-Aufgebot. :)

robbitop
2004-01-18, 19:13:37
@Demi
sorry für diesen unsachlichen Spaß
es kam beim lesen seines Posts einfach über mich

Windi
2004-01-18, 19:32:14
Irgendwie glaube ich das PS3.0 in nächster Zeit nicht so wichtig sein wird.


Die Masse (Die Daus) haben so wie so keine Ahnung was PS3.0 sind. Die werden es warscheinlich auch nie hören, da so was wohl nie in der Computerbild stehen wird(und das sind die gebildeten Daus, die anderen haben gar keine Ahnung). Die Masse kennt nur DirectX7 ; 8 ; 9 und möglichst viel Megabyte Speicher. Mit PS3.0 bekommt man nur die selbe DirectX Nummer wie mit PS2.0 und so werden es die Daus auch nicht unterscheiden können. Einzige Möglichkeit wäre es wenn Microsoft ein DirectX 9.1 rausbringen würde wo PS3.0 PFLICHT währe, aber das hätten unsere Experten hier schon längst erfahren und somit wird es wohl auch nie kommen.


Ob PS3.0 für die Entwickler in nächster Zeit wirklich interressant wird glaube ich nicht. Die Einsteiger- und Mainstreamkarten von Nvidia und ATI werden auch in naher Zukunft wohl nur PS2.0 können. Aus dem einfachen Grund, das die zusätzlich Transistoren einfach zu teuer sind für ein Feature was die Masse gar nicht kennt.


MFG (Unplugged) Windi

Demirug
2004-01-18, 19:43:14
Original geschrieben von Windi
Irgendwie glaube ich das PS3.0 in nächster Zeit nicht so wichtig sein wird.


Die Masse (Die Daus) haben so wie so keine Ahnung was PS3.0 sind. Die werden es warscheinlich auch nie hören, da so was wohl nie in der Computerbild stehen wird(und das sind die gebildeten Daus, die anderen haben gar keine Ahnung). Die Masse kennt nur DirectX7 ; 8 ; 9 und möglichst viel Megabyte Speicher. Mit PS3.0 bekommt man nur die selbe DirectX Nummer wie mit PS2.0 und so werden es die Daus auch nicht unterscheiden können. Einzige Möglichkeit wäre es wenn Microsoft ein DirectX 9.1 rausbringen würde wo PS3.0 PFLICHT währe, aber das hätten unsere Experten hier schon längst erfahren und somit wird es wohl auch nie kommen.

Was denkst du warum S3 und XGI in iheren Roadmaps von DX 9.1 Chips sprechen. IMHO werden sich ATI und nVidia da anschliessen. Sie hatten ja auch keine Hemmungen von DX 9+ und DX 9++ zu sprechen.

Ob PS3.0 für die Entwickler in nächster Zeit wirklich interressant wird glaube ich nicht. Die Einsteiger- und Mainstreamkarten von Nvidia und ATI werden auch in naher Zukunft wohl nur PS2.0 können. Aus dem einfachen Grund, das die zusätzlich Transistoren einfach zu teuer sind für ein Feature was die Masse gar nicht kennt.


MFG (Unplugged) Windi

nVidia will soweit mir bekannt das mit dem NV30 angefangen Verfahren beibehalten.

Zudem sind die Entwicklungszeiträume für Computerspiele inzwischen sehr lang.

Exxtreme
2004-01-18, 19:58:12
Original geschrieben von Windi
Ob PS3.0 für die Entwickler in nächster Zeit wirklich interressant wird glaube ich nicht. Die Einsteiger- und Mainstreamkarten von Nvidia und ATI werden auch in naher Zukunft wohl nur PS2.0 können. Aus dem einfachen Grund, das die zusätzlich Transistoren einfach zu teuer sind für ein Feature was die Masse gar nicht kennt.


MFG (Unplugged) Windi
Neueste Technologien sind für Entwickler immer interessant. :) Man kann damit experimentieren und schauen was da taugt oder auch nicht.

Gast
2004-01-18, 23:34:06
Original geschrieben von betareverse
Wie kommst Du darauf? Es könnte auch sein, dass ATI den R400 verschoben hat, weil sie meinen die Konkurrenz auch mit einer günstigeren GPU (R420) zu schlagen.

hehe ne das ganz sicher nicht. Ich kann mich noch genau an den Conference Call vor genau einem Jahr erinnern, als ATI meldete, dass sie kurzfristig bei einer GPU etwas ändern musste. Dem Ton und der Stimme nach zu urteilen gabs ein Problem. Ich hab damals bereits vermutet, dass es der R400 ist und das hat sich ja dann kaum 3 Monate später auch so herausgestellt durch die Mufu etc.. Gerüchteküche.

Gast
2004-01-18, 23:35:01
Original geschrieben von LovesuckZ
Die selbe Überlegung wie Uttar.
Ich sehe aber keinen Sinn dadrin mit meinen Konkurenten "nur" gleichzuziehen, wenn ich die Moeglichkeit habe ihn zu deklassieren.
Ausserdem musste diese Entscheidung wohl mindesten vor einem Jahr gefallen sein, da denke ich nicht, dass viel Zeit für die Spionage investiert wurde.
Man koennte nun auch gemein sein und anmerken, dass vielleicht der r400 nicht gereicht haette, da er flexibel gewesen aber, wie sagt es Nagus, die "leistung grauenhaft" waere.

Letzteres hat Uttar mal erwähnt. Also ATI vom NV40 Wind bekomen hat haben sie die Pläne schleunigst geändert.

Ailuros
2004-01-19, 03:02:01
Original geschrieben von robbitop
keine Sicherheit AiL
wie lange hat 150nm als Zwischenschritt gehalten? 3 Jahre?
GPU IHVs lassen sich scheinbar immer etwas mehr Zeit und nehmen kleinere Produktionssprünge als CPU Hersteller wahr.
Vermutlich weil GPUs etwas komplexer sind als CPUs oder?
Ich habe mal irgendwann vor einiger Zeit gehört NV50/R500 sollen 90nm sein. Aber wenn die beiden Chips Q1 2005 kommen sollen,also in einem Jahr bin ich über 90nm noch sehr skeptisch...

150nm war in keinem Fall ein Zwischenschritt, ueberhaupt wenn man wie Du selber sagst sieht dass ein Prozess sich fuer 3 Jahre halten kann.

Leistung skaliert viel mehr bei VPUs im Vergleich zu CPUs und daher ist es wohl normal dass die Komplexitaet bei den ersten in Analogie um einiges hoeher ist. Dedicated HW vs general purpose.

Und ja beide IHVs haben schon mehr oder weniger klar gemacht dass sich Entwicklungs-zyklen verlaengern werden, was wohl zeigt dass es nicht unmoeglich ist dass wir nicht etwa jedes Jahr eine neue Generation sondern etwa jedes 1.5 Jahr sehen werden.

Nach allen Indizien sieht 90nm fuer 2005 sehr moeglich aus, was auch mit den projezierten bis jetzt Daten fuer R500/NV50 uebereinstimmt.

Ich hab erst vorher mir Stromverbrauch-raten von MBX bei verschiedenen Prozessen noch angesehen. Von 180-->130nm wurde die Taktrate um 50% gesteigert und der Stromverbrauch senkte sich um ~70%. Momentan sieht es aus als ob 90nm naechstes Jahr eine Taktsteigerung von ~70% erlauben wird. Die moeglichen Senkungen des Stromverbrauchs kannst Du Dir selber erraten.

Ailuros
2004-01-19, 03:06:24
Original geschrieben von Gast
Letzteres hat Uttar mal erwähnt. Also ATI vom NV40 Wind bekomen hat haben sie die Pläne schleunigst geändert.

Weder Uttar noch Mufu haben ein genaues Bild ueber R400 oder R420, zumindest nicht bis jetzt.

MadManniMan
2004-01-19, 05:11:49
Original geschrieben von Ailuros
(fuer ein 2*(4*2) oder aehnliches scenario)

Whua! Mich schüttelts grad... ich muß unweigerlich an AFR denken :D

Überhaupt: schrauben wir doch alle mal unsere Erwartungen etwas zurück, dann freuen wir uns mehr, ich mach das jetzt zumindest -> nur die Änderungen

R420

8*1Tri oder 12*1Bi @480/450 MHz
wiederum Nährung beim AF
S3.0 auf dem Papier :D

NV40

8*1Bri @ 600/500 MHz
HRAA mit 4*RGMSAA
Bri ersetzt Tri :D
S3.0 auf Papier und so effektiv, wie 2.0 im Mom


So. :wink:

Ailuros
2004-01-19, 05:30:25
Alles was ich mit meinem obrigen Ausschnitt oben sagen wollte, ist dass ein moegliches 2*(4*2) scenario nicht genug sein wird. Selbst heute schaetze ich dass ich nicht zu weit von der Realitaet liege.

Die obrige Spekulation ist uebrigens absoluter bogus, wenn ich mir den Ausdruck erlauben darf.

Versuch mal mehr mit arithmetic ops pro Takt zu spekulieren, lass den X*Y Quatsch beiseite und denk nach was zu viel und was zu wenig waere.

MadManniMan
2004-01-19, 05:33:42
Original geschrieben von Ailuros
Die obrige Spekulation ist uebrigens absoluter bogus, wenn ich mir den Ausdruck erlauben darf.

Versuch mal mehr mit arithmetic ops pro Takt zu spekulieren, lass den X*Y Quatsch beiseite und denk nach was zu viel und was zu wenig waere.

Och komm, nu tu nich so, als ob du nicht merktest, daß mein Post reine Satire war! ...

*stellt grad fest, daß MUSE hören wach hält*

reunion
2004-01-19, 09:34:02
Original geschrieben von MadManniMan
Whua! Mich schüttelts grad... ich muß unweigerlich an AFR denken :D

Überhaupt: schrauben wir doch alle mal unsere Erwartungen etwas zurück, dann freuen wir uns mehr, ich mach das jetzt zumindest -> nur die Änderungen

R420

8*1Tri oder 12*1Bi @480/450 MHz
wiederum Nährung beim AF
S3.0 auf dem Papier :D

NV40

8*1Bri @ 600/500 MHz
HRAA mit 4*RGMSAA
Bri ersetzt Tri :D
S3.0 auf Papier und so effektiv, wie 2.0 im Mom


So. :wink:

8x1 halte ich bei NV für extreme unrealistisch, die werden wohl höchstwarscheindlich bei 2TMUs bleiben...

robbitop
2004-01-19, 09:43:59
@AiL
150nm nenne ich einfach mal Zwischenschritt, weil nur die GPU Hersteller ihn verwandten. Ich will erstt selbst sehen dass es bei 110nm anders ist.

90nm erlaubt sehr hohe Taktraten, aber durch die extrem kleinen Strukturen werden Leckströme derzeit ein riesen großes Problem, daß selbst mit SOI nicht wirklich eingedämmt werden kann. BlackBirdSR hat mal eine Methodik erläutert die Intel bis zum 65nm Prozess hinzufügen will, um diesem Problem entgegenzutreten (afaik war es highk Materialien zw die Gates und das Substrat...ich weiss es nicht mehr genau). Man sieht es an allen möglichen 90nm CPUs. Der Stromverbrauch scheint nicht wirklich zu sinken (siehe Prescott und Dothan im Gegensatz zu NW und Banias).
Aber die Taktfreudigkeit wird natürlich gesteigert.
Und somit kann man imo den Trend des steigenden Verbrauchs wieder einmal leider bejahen :-(

aths
2004-01-19, 09:50:31
Original geschrieben von nagus
2. R360 kann schon sehr viel und ist außerdem extrem schnell (NV35 kann etwas flexiblere shader, dafür ist die leistung grauenhaft)NV30/35 hat sehr viel flexiblere Shader, nicht nur "etwas flexiblere". Von der Rechenleistung her ist R300/350 etwas im Vorteil. Allerdings wird auch nur mit FP24 gerechnet, FP24-Einheiten sind nun mal deutlich weniger komplex als FP32-Einheiten, so dass man mehr davon auf dem Chip platzieren kann. FP24 reicht für vieles, aber nicht für alles. R360 kann afaik keinen Deut mehr als R300. Während NV zuletzt mit dem NV35 verbesserte Technik herausbrachte, backt ATI seit dem R300 immer den gleichen Chip neu auf.
Original geschrieben von nagus
3. hat ati mehr "man-power" (artx)
4. verdermen anscheinend die 3dfxler bei nvidia den breiHm, ArtX ist gut, 3dfx ist schlecht? Die Spekulationen der 3dfx-Einflüsse gehen dahin, dass die 2.X-Shader entscheident mitbeeinflusst wurden. Es gibt momentan 3 große Pixelshader-Generationen: 1.0 - 1.3, 1.4 - 2.0, und 2.X. ATI hat pixelshadertechnisch mit dem R300 ggü. dem R200 einen kleineren Sprung gewagt, als der 2.X gegenüber 2.0 besser ist.
Original geschrieben von nagus
5. ati hat den 0,13µm prozess perfektioniert und kann jetzt ohne probleme die nex-gen linie damit produzieren. nv steigt aber nicht auf einen kleineren fertigungsprozess um (bzw. kann noch nicht umsteigen auf 0.11)

ein kleiner vergleich:

NV35 130mio transis : 0,13 >> extrem heiss, geringe ausbeute ausbeute
R360 115mio transis : 0,15 >> kühler als NV35, bessere ausbeute.

und jetzt stellen wir uns mal vor, ATI steigt auf einen fast perfekten 0,13µm prozess um (vorher lange uns ausgiebig durch RV350/RV360 getestet und optimiert).RV350 ist ggü. dem R420 ein ziemlich kleiner Chip. Imo kann man nicht davon ausgehen, dass ATI ein Chip-Monster à la R420 _problemlos_ in 0.13 anfertigen lassen und sehr hoch takten kann.

Original geschrieben von nagus
PS3/VS3 ist auch nicht unbedingt notwendig, falls R500 im herbst kommt. falls doch nicht, ists auch zu verschmerzen wenn R420 leistungsmäßig nicht ein kompletter reinfall wird a la NV30 Ein leistungsmäßiger Reinfall war der NV30 nur bezüglich der DX9-Leistung. Wieso sind Shader 3.0 nicht nötig? Damit ließe sich z. B. Passreduktion erreichen.

aths
2004-01-19, 09:55:41
Original geschrieben von AlfredENeumann
Gegenfrage: Was hat PS2.0+ NV gebracht? Richtig nix.Nix?

Was hat ATI Pixelshader 1.4 gebracht? Zu Zeiten des R8500: Richtig, nix.

Sorry, wenn ich das mal so krass sage: Solche Behauptungen wie "Was hat PS2.0+ NV gebracht? Richtig nix." finde ich idiotisch. Technik, die auf Software-Support angewiesen ist, bringt _immer_ erst mal nichts.

Heute wird in einigen DX9-Apps auch Pixelshader 1.4 verwendet. Auf 3.0-Hardware werden ebenso auch 2.X-Shader zum Einsatz kommen.
Original geschrieben von AlfredENeumann
Hatten sie im gegenzug schnelles PS2.0? Nö. Richtig. Darum wurde NV30 auch so schlecht verkauft.
Das bringt dem Endkunde alles nix. Der NV30 war nur kurz im Handel. Reden wir doch über relevante Chips, z. B. NV35.
Original geschrieben von AlfredENeumann
Und jetzt fangt nicht mit Technologiebremse an. Ich hab gesagt PS3.0 auf dem Papier (spruch halt was langsamer) reicht bis ende des Jahres Vollkommen aus. Wer entscheidet das? Die ersten 3.0-Implementierungen werden alle langsamer sein, ich fürchte, dass die Leistung ggü 2.* auf bis zu 25% sinkt.
Original geschrieben von AlfredENeumann
Last doch endlich mal eine Technologie ausreifen als immer nur eine halbherzig anfangen. Wie meinst du das?

Original geschrieben von AlfredENeumann
Wer sagt den das ATI mit der Technologie die sie zur realisierung für PS3.0 benutzen werden langsam sein werden?
Nur weil NV "näher" dran ist als ATI heist es nicht das ATI es nur "langsam" hinbekommt. ATI muss entweder die bisherige 2.0-Technik ganz extrem aufbohren, oder sie wegschmeißen und die 3.0-Shader neu designen. Dazu brauchen sie Zeit und Geld. Nvidia ist einen Teil dieses Weges schon gegangen, womit sie bezüglich Shader-Weiterentwicklung mehr Ressourcen frei haben.

aths
2004-01-19, 09:58:34
Original geschrieben von AlfredENeumann
Wer entscheidet denn das ein Chip erfolgreich wird?
Der Endkunde. Der NV11 war ein sehr erfolgleicher Chip :)
Original geschrieben von AlfredENeumann
Der kauft sich was was schnell ist und womit er Zocken kann am besten mit höchster Quali. Nee. Der kauft, was billig ist, und viiieeel RAM auf dem Board hat.
Original geschrieben von AlfredENeumann
Da ist dann ein langsamer PS3.0 ansatz eh egal. Bis ne Handvoll PS3.0 Titel erhältlich sind steht der R500 vor der Türe. Vermutlich wird PS.3.0 zunächst dazu eingesetzt, die CPU zu entlasten. Natürlich muss dazu die Graka-Performance bei 3.0 auch stimmen. Ob das ATI oder NV hinbekommen, werden wir sehen.
Original geschrieben von AlfredENeumann
Das gleiche Spiel haben wir doch beim NX3X gesehen.
Was haben ihm seine "Tollen Shader" gebracht? Nüx. Doch. Applaus von der Entwickler-Seite, und zufriedene Käufer.

Gast
2004-01-19, 10:03:43
Original geschrieben von betareverse
Daher wahrscheinlich auch die Metamorphose von R400 zu R500. Der Plan geht meiner Meinung nach auch auf, mit dem R420 auf eine schnelle Shader2.0-GPU zusetzen, wenn der R500 Ende 2004 kommt.

Der R500 wird über die Shader 3.0-Fähigkeiten hinausgehen, wie weit genau, weiß außer den Entwicklern und MS, keiner mit Bestimmtheit. Es ist das 2. sehr ambitionierte Projekt von ArtX, geplant ist ein Füllraten-Monster mit stark erhöhter Flexibilität bei den Shadern.

ATI hat den R420 vom ursprünglichen R500 abgespeckt. Transistorcount (geschätzte 200 Mio.) wäre im derzeitigen 0.13µm-Prozess viel zu riskant gewesen / mangelhafte Ausbeute / Gewinn praktisch 0.

ATI darf NVIDIA das PS/VS 3.0 - Feld mit deren NV40 nicht alleine überlassen, und wird es auch mit Bestimmtheit nicht. Den Entwicklern kann der Speed unter den neuen Features erst einmal komplett egal sein, wichtig ist der HW-Support.

MadManniMan
2004-01-19, 10:07:52
Original geschrieben von reunion
8x1 halte ich bei NV für extreme unrealistisch, die werden wohl höchstwarscheindlich bei 2TMUs bleiben...

Mal ganz davon ab, daß das da oben nicht ernst gemeint war... Welche "Organisation" besitzt der NV30/35? Wie "heftig" ist der Unterschied davon nach 8*1?

@robbi: Lös dich doch mal von deinem "Zwischenschritt". Der GPU-Markt baut schon sehr lang darauf und das sehr erfolgreich. Das sagt nun schon der 5.? Whatever, auf jeden Fall hat das eine doch nichts mit dem anderen zu tun. Daß der GPU dem CPU Markt in diesem Sinn etwas hinterher"hinkt", ist kein Geheimnis, aber eine feste Definition für "richtige" Stufen? Wo ist die Definiert?