PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : R420 info??


Gast
2004-02-12, 08:34:42
Rage3D hat ein Interview mit David Nalasco, ATi geführt.

Link : http://www.rage3d.gr/board/showthread.php?s=&threadid=340

Der R420 - Relevante Teil ist hier :


What can you tell us about ATI's next generation products for 2004 ?

The great thing about the graphics business is that there's always an exciting new product coming just around the corner, so it never gets boring. In the past we've generally tried to align our new architectures with new releases of DirectX that enable new features. Recently Microsoft has decided to change their strategy and is planning to stick with DirectX 9 for a couple more years until the next big update. This has given us a chance to really refine our next-generation architecture and focus more transistors on raw processing power, so we can deliver a huge leap in performance (like we did last year with the Radeon 9700 Pro). There is more, of course, but you'll have to wait just a little longer to hear about that.


Wenn das stimmt, ist der R420 in der Performance zum R300 wie der R300 zum R200...Shrug...
Es würde aber auch andeuten, das der R420 ein sehr schneller DX9.0 - Chip ist und DX9.0c nur rudimentär vorhanden ist (zumindest wenn meine Interpretation richtig ist), da keine neuen Features implementiert wurden.

Wir hätten also :

NV40 mit guter DX9.0-Speed + sehr guter DX<=8.1 Speed + ausreichender DX9.0c - Speed
+
R420 mit extremer DX9.0-Speed + sehr guter DX <=8.1 Speed + marginaler DX9.0c - Speed


Wird also in einem Monat wirklich interessant werden. Die ganzen Nvidia <-> ATi - Bashing - Diskussionen werden also verstärkt weitergehen.

Gast
2004-02-12, 08:47:08
Das glaube ich auch.

Ergänzend zu deinem Bericht:

Zitat Startseite:

Original geschrieben von 3DCENTER

Nachdem wir ab und zu mit teils schon recht kompletten Daten zu den NextGen-Grafikchips von nVidia dienen können, stellt sich natürlich die Frage, was ATi da dagegenzusetzen hat. Ehrlicherweise muß allerdings gesagt werden, daß zu den kommenden NextGen-Chips der Kanadier deutlich weniger Informationen vorliegen als zu denen der Kalifornier. Bisher bekannt ist nur, daß der R420 ein DirectX 9.0 Grafikchip mit internem AGPx8 Speicherinterface ist. Gegenüber den bisherigen R300/R350/R360 stehen als maßgebliche Veränderung die kleinere 130nm Fertigung und damit wohl deutlich höhere Taktraten, der Support der Shader 3.0 und möglicherweise auch eine Verbreiterung der Architektur (in Form von mehr Pipelines) ...

... Dazu kommt noch der R423 Grafikchip, welcher die PCI Express Version des R420 darstellen wird. Unklar ist hier allerdings noch, ob der R423 gleich ein integriertes PCI Express haben wird, oder ob man bei ATi das gleiche Spiel wie bei nVidia treibt, und einfach einem R420-Chip eine PCI Express Bridge beilegt und das ganze dann als "R423" vermarktet. Das Speicherinterface des R420/R423 beherrscht im übrigen wie bei den NV4X-Chips DDR1, GDDR2 und GDDR3, womit die volle Bandbreite an möglichen Speichertakten bei R420/R423 zum Einsatz kommen könnte - je nachdem, was die Speicherindustrie zu bezahlbaren Preisen liefern kann ...



Ich finde diesen Bericht von der Startseite sehr lustig.

1. Ein informierter Redakteur hätte gewußt das ATI auf allen IDF-Events mit Intel zusammen ein VOLLSTÄNDIGES PCI-EXPRESS DESIGN VORGESTELLT HAT. ATI ist ja keine Marketing-Firma wie der der Wettbewerb.

Bridge-Lösungen sind halbherzige PCI-Express-Varianten.

2. Wer nvidia nach der DX9.1 Lüge jetzt schon die angeblichen Features glaubt die der NV40 haben soll glaubt auch an das Knusperhaus ;-)

Ich sage; Abwarten und Tee trinken, es wird sehr spannend werden und das es vom R420 keine dubiosen Informationen gibt, spricht meiner Meinung nach für den Chip.

By the way, es ist unmöglich innerhalb von einem Jahr ein Chipdesign zu entwicklen welches dem von ATI entspricht und DX9 Compliant ist. Alle wissenden gehen davon aus das dies bei nvidia frühestens mit NV45 der Fall sein wird.

Somit ist klar wer 2004 bei DX9-Anwendungen die 100% dem DX9 Compliant entsprechen die Nase vorne hat.

Der Erinnerung halber folgender Auszug aus einem Bericht von TOMSHARDWARE:

Original geschrieben von http://www.de.tomshardware.com/column/20030702/nv_cheating-04.html

Als Cheating (deutsch: Betrügen) bezeichnet man in diesem Zusammenhang den Einsatz unfairer Mittel. Die ersten Cheating-Vorwürfe gegen NVIDIA wurden mit Einführung der GeForce FX 5800 Ultra alias NV30 laut. Dabei ging es um die Präzision, mit der Berechnungen in DirectX-9-Shadern ausgeführt werden. NVIDIAs NV30 kann diese Berechnungen in verschiedenen Präzisionsstufen durchführen: 12 Bit (Integer), 16 Bit (Floating Point) und 32 Bit (Floating Point) pro Farbkanal. Bei letzterem spricht man dann von 128 Bit Präzision oder auch "Full Floating Point Precision", mit der die Produkte - sowohl von ATI als auch NVIDIA - auch beworben werden . ATIs Radeon 9700/9800 alias R300/350 rechnet dagegen immer mit 24 Bit Präzision und rundet die Ergebnisse bei der Ausgabe praktisch auf.


Je präziser der Chip rechnen muss, umso langsamer wird er. NVIDIA sah hier ATI mit seiner 24 Bit Präzision in 3D Mark 2003 bevorteilt und reduzierte die Präzision im Treiber, der für Produkttests der Presse zugänglich gemacht wurde, in 3D Mark 2003 kurzerhand auf 16 Bit. Damit gewann der NVIDIA-Chip deutlich an Leistung und konnte ATIs Karten schlagen. Die ersten von NVIDIA offiziell verfügbaren Treiber rechneten dagegen mit voller 32-Bit-Präzision. Hier brach die Leistung stark ein und ATIs Produkt lag deutlich vorne. Der Vorwurf des Cheatens gegen NVIDIA wurde laut. Nicht zuletzt ATI sah sich benachteiligt durch die geringere Präzision, mit der NVIDIAs Treiber im Test rechnet.

Die entscheidende Frage dabei lautet, was Microsofts DirectX-9-Spezifikationen vorschreiben. Diese sagen aus, dass eine Karte, die "DX9 Compliant" ist, mindestens 24
Bit FP pro Kanal beherrschen muss.



Grüsse

seahawk
2004-02-12, 09:28:42
In der reinen Leistung, die 2004/05 relevant sein wird, sollte der R420 deutlich vor dem NV40 liegen.

-> Quelle XXXXX

Demirug
2004-02-12, 09:54:37
Original geschrieben von Gast
Ich finde diesen Bericht von der Startseite sehr lustig.

1. Ein informierter Redakteur hätte gewußt das ATI auf allen IDF-Events mit Intel zusammen ein VOLLSTÄNDIGES PCI-EXPRESS DESIGN VORGESTELLT HAT. ATI ist ja keine Marketing-Firma wie der der Wettbewerb.

Bridge-Lösungen sind halbherzige PCI-Express-Varianten.

Die einzigen Nachteile an einer Bridge die ich entdecken kann sind das etwas mehr Platz auf dem PCB gebraucht wird. Die minimale zuzätzliche Latenz ist in Anbetracht der sowieso schon vorhandenen Latenzen vernachlässigbar.

Man kann übrigens auch innerhalb eines Chips bridgen.

2. Wer nvidia nach der DX9.1 Lüge jetzt schon die angeblichen Features glaubt die der NV40 haben soll glaubt auch an das Knusperhaus ;-)

Welche DX 9.1 Lüge? nVidia hat offiziel in Verbindnung mit NV3X nie von DX 9.1 gesprochen. Es gab nur DX9+ was ATI natürlich gleich mit DX9++ toppen musste. Falls es um die 60% geht so wurde das von nV niemals in Verbidung mit DX 9.1 benutzt sondern nur in Verbindung mit den neuen Treibern.

Ich sage; Abwarten und Tee trinken, es wird sehr spannend werden und das es vom R420 keine dubiosen Informationen gibt, spricht meiner Meinung nach für den Chip.

Es gibt schon dubiosen Informationen allerdings sind diese eben noch schlechter zu validieren als die zum NV4X.

By the way, es ist unmöglich innerhalb von einem Jahr ein Chipdesign zu entwicklen welches dem von ATI entspricht und DX9 Compliant ist. Alle wissenden gehen davon aus das dies bei nvidia frühestens mit NV45 der Fall sein wird.

Somit ist klar wer 2004 bei DX9-Anwendungen die 100% dem DX9 Compliant entsprechen die Nase vorne hat.

Warum sollte nVidia ein Chipdesign entwickeln das dem von ATIs R3XX entspricht? Technologisch wäre das ein klarer Rückschritt. Vom R420 weiss nVidia wohl auch nicht viel mehr als die meisten hier. Zudem sind nVidia die Quellen der Leistungsprobleme iheres Designs bekannt und daher abstellbar.

Der NV45 wird dem NV40 Design folgen. Innerhalb der gleichen Technologiegeneration ändert nV nicht das Basisdesign.

Was bitte ist eine 100% compliante DX9 Anwendung? Eine Frage übrigens auf die auch MS keine Antwort weiss.

Aber selbst wenn wir es wüssten würde uns das wenig nützen. Von nVidia haben wir nur Leistungsangaben ohne Beweise und Angaben wie sie zustanden gekommen sind. Von ATI haben wir noch nicht einmal das. Deswegen schliesse ich mir hier dem "Abwarten und Tee trinken" an.

Der Erinnerung halber folgender Auszug aus einem Bericht von TOMSHARDWARE:



Grüsse

Bei Tom können sie vielleicht noch benchen aber von der Technik haben sie nicht allzuviel Ahnung.

Ailuros
2004-02-12, 09:58:22
Original geschrieben von Gast
Rage3D hat ein Interview mit David Nalasco, ATi geführt.

Link : http://www.rage3d.gr/board/showthread.php?s=&threadid=340

Der R420 - Relevante Teil ist hier :



Wenn das stimmt, ist der R420 in der Performance zum R300 wie der R300 zum R200...Shrug...
Es würde aber auch andeuten, das der R420 ein sehr schneller DX9.0 - Chip ist und DX9.0c nur rudimentär vorhanden ist (zumindest wenn meine Interpretation richtig ist), da keine neuen Features implementiert wurden.

Wir hätten also :

NV40 mit guter DX9.0-Speed + sehr guter DX<=8.1 Speed + ausreichender DX9.0c - Speed
+
R420 mit extremer DX9.0-Speed + sehr guter DX <=8.1 Speed + marginaler DX9.0c - Speed


Wird also in einem Monat wirklich interessant werden. Die ganzen Nvidia <-> ATi - Bashing - Diskussionen werden also verstärkt weitergehen.

Deine Interpretation ist genauso generell und farblos wie die Aussage von Nalasco.

Nochmal dx9.0 = PS/VS 2.0, 2.0extended, 3.0.

Ailuros
2004-02-12, 10:04:06
Original geschrieben von seahawk
In der reinen Leistung, die 2004/05 relevant sein wird, sollte der R420 deutlich vor dem NV40 liegen.

-> Quelle XXXXX

Egal welche Quelle diese Vorhersage ist mir persoenlich momentan immer noch zu gewagt.

nagus
2004-02-12, 10:43:24
zu diesem thema hat auch DaveBaumann noch was zu sagen: http://www.beyond3d.com/forum/viewtopic.php?t=10248


davebaumann
"The statement is meant to be read as jvd and geo are reading it."

geo
"Yowza. Could R420 be as big a leap over R9800XT as R300 was over R200? He seems to be saying so. "


jvd
"I read it as . Because we don't have heaps of new features to worry about we were able to focus more transistors on raw processing power so we can deliver a huge leap in performance like we did with the 9700pro. Meaning the r420 will have that leap. Over the 9800xt or 9700pro i dunno. But thats how i got it"



R420 wird DER monster DX9 chip :)

Quasar
2004-02-12, 10:57:34
War ja auch nicht anders zu erwarten... :eyes:


ATi müsste AFAIK richtig viel im Chip umstellen und umbauen, damit sie 3.0-Shader mit mehr als R3xx-TruForm-Geschwindigkeit hinbekommen. (*SCNR*)

Bei "normalem DirectX9", also dem, was der obige, gut informierte Gast *hust* sagte, sind sie ja schon schnell. Und für ein einziges Jahr diesen Vorsprung quasi aufgeben, nur um auch 3.0-Shader einzubauen, wäre an ATis Stelle ziemlich dämlich.


In diesem Sinn erwarte ich auch vom R420 eine DX9-Monsterkarte zu sein und seinen Vorgänger deutlich zu schlagen (hoffentlich nicht nur in 2048x1536 und 20xAA).

Vom nV40 erwarte ich, die R9800XT mehr oder weniger knapp in "DX9"-Games, wie sie jetzt so gern als Beweis der Überlegenheit rausgestellt werden, zu bezwingen und zwar ohne Tricksereien bei der Bildqualität und dazu ein 3.0-Shaderniveau equivalent zum 2.0-Shader des nV3x.

seahawk
2004-02-12, 11:13:11
Wenn Du die CPU Limitierung Mitte/Ende 2004 los wirst, dann wird der R420 den R300 auch in "normalen" Auflösungen deutlich schlagen.

Die Leistung des 9700pro Chips, wird dann auf Karten zu haben sein die preislich der 9600XT entsprechen.

-> Bei dieser Aussage bin ich ziemlich sicher.

Der Vergleich zum NV40 ist allerdings noch mehr Spekulation, da etwas Infos über den NV40 fehlen um ihn vergleichen zu können.

Gast
2004-02-12, 11:35:29
Manoman...

Ailuros will noch nicht sagen das der R420 wesentlich schneller wird als der NV40 (weil er den reinen Spec's nicht glaubt???) deutet es aber an....Seahawk ist sich schon sicher das der R420 ein sehr schneller Chip wird, der wahrscheinlich deutlich schneller wird als der NV40 und DaveBaumann sagt, der Sprung vom R300 zum R420 ist so groß wie vom R200 zum R300.
IRRE; schließlich ist der R300 wenn man ihn von der Leine lässt (sprich keine CPU-Limitierung vorhanden ist, bzw. hohe Auflösung) 3-4mal schneller als der R200 ( siehe u.a. Tomshardware UT2003 98fps <-> 40fps bei 1024x768 ohne AA+AF ). Das haut rein, wenn ATi es wieder fertig bringt das ganze in die Serie umzusetzen (beim R300 konnte man die Gerüchte ja fast nicht glauben, obwohl sie dann doch wahr waren).

Demirug
2004-02-12, 11:39:16
Performance mässig nur eine Steigerung wie vom R200 zu R300?

Das wären dann bei Kerngrössen nur zwischen 18 und 25% mehr. Oder anders ausgedrückt ein R380 bei etwas um die 510 MHz. Nach dem "3*RV350 Leistung" Gerücht hätte ich da durchaus etwas mehr erwartet.

Ailuros
2004-02-12, 11:42:31
Wenn Du die CPU Limitierung Mitte/Ende 2004 los wirst, dann wird der R420 den R300 auch in "normalen" Auflösungen deutlich schlagen.

Hoehere Fuellraten sind sowieso zu erwarten und nicht nur bei ATI. Jedoch sind mir solche Zahlen nicht genug mit so wenig bekannter Info, den R420 gleich als dx9.0-Monster chip zu bezeichnen.

Die Frage inwiefern ATI's R4xx Architektur auf R3xx quasi basiert oder ob es zu fundamentalen Aenderungen kam, bleibt offen. Im ersten Fall sieht es eher schlecht aus fuer >PS2.0.

PS3.0 heisst bei weitem nicht nur die Anzahl der Instruktions-slots zu erhoehen.

Winter[Raven]
2004-02-12, 11:43:11
Ahja, find ich lustig, wenn theinquirer irgendwas über den NV40 (NV marketing) postet wird darüber nur gelacht und für Unfug abgestempelt. :lolaway::lolaway:

Wenn jetzt aber 2 "martketing männer" von ATI irgend ein Zeug labern wird wird doch glatt alles aufgenommen ^^. :verd:

Ich hoffe mal hier machen sich einige nicht "zuviele" Hoffnungen und nicht am Ende "weinen" müssen weil diese nicht erfühlt worden sind. :arsch::bawling:

Ailuros
2004-02-12, 11:48:05
Original geschrieben von Gast
Manoman...

Ailuros will noch nicht sagen das der R420 wesentlich schneller wird als der NV40 (weil er den reinen Spec's nicht glaubt???) deutet es aber an....Seahawk ist sich schon sicher das der R420 ein sehr schneller Chip wird, der wahrscheinlich deutlich schneller wird als der NV40 und DaveBaumann sagt, der Sprung vom R300 zum R420 ist so groß wie vom R200 zum R300.
IRRE; schließlich ist der R300 wenn man ihn von der Leine lässt (sprich keine CPU-Limitierung vorhanden ist, bzw. hohe Auflösung) 3-4mal schneller als der R200 ( siehe u.a. Tomshardware UT2003 98fps <-> 40fps bei 1024x768 ohne AA+AF ). Das haut rein, wenn ATi es wieder fertig bringt das ganze in die Serie umzusetzen (beim R300 konnte man die Gerüchte ja fast nicht glauben, obwohl sie dann doch wahr waren).

Du kannst auf so eine basislose Aussage von mir persoenlich lange warten. Basislos weil man viel zu naiv sein muesste nur an Paperspecs zu glauben und ich viel lieber auf unabhaengige reale Analysen beider chips warte.

Gast
2004-02-12, 11:50:17
image-mässig könnte es von grossem nachteil für ati sein wenn sie ps/vs 3.0 nur rudimentär (mit geringem speed) unterstützen....auch wenn das in der praxis wahrscheinlich total egal wäre. ich kanns schon vorm geistigen auge lesen:

bezogen auf die zukunftsicherheit müssen wir dem nvidia chip klar den vorrang geben.

oder

mit dem r420 präsentiert sich ati als technologische innovationsbremse. wer für zukünftige spiele gut gerüstet sein will greift besser zu der nvidia alternative.

lol, wo bleiben eigentlich echte directx 8 spiele?

Ailuros
2004-02-12, 11:53:35
Original geschrieben von Winter[Raven]
Ahja, find ich lustig, wenn theinquirer irgendwas über den NV40 (NV marketing) postet wird darüber nur gelacht und für Unfug abgestempelt. :lolaway::lolaway:

Wenn jetzt aber 2 "martketing männer" von ATI irgend ein Zeug labern wird wird doch glatt alles aufgenommen ^^. :verd:

Ich hoffe mal hier machen sich einige nicht "zuviele" Hoffnungen und nicht am Ende "weinen" müssen weil diese nicht erfühlt worden sind. :arsch::bawling:

Schoen. Wenn jemand es wagen wuerde - mit den verstaendlichen negativen Folgerungen - alle Karten auf den Tisch zu legen, bin ich mir nicht so sicher ob vorzeitiger Optimismus fuer weder/noch momentan angelegt ist.

Nur zwei Kleinigkeiten ueber NV4x waeren genug, und schon waeren Deine Aussagen auch ein bisschen konservativer.

Derartige Provokationen sind IMHO nicht unbedingt notwendig egal von welcher Seite; und Du wirst auch entschuldigen dass ich diese Meinung als einfacher Benutzer hier, ausdruecke.

Bottomline: es ist immer besser Erwartungen konservativ zu halten und NUR zu Schlussvolgerungen zu kommen wenn man absolut sicher sein kann.

Demirug
2004-02-12, 11:58:37
Original geschrieben von Gast
image-mässig könnte es von grossem nachteil für ati sein wenn sie ps/vs 3.0 nur rudimentär (mit geringem speed) unterstützen....auch wenn das in der praxis wahrscheinlich total egal wäre.

Ja und Nein. Die zusätzlichen Slots bringen wenig weil man auch bei den nächsten Karten nicht genügend Power hat um so lange Programme auszuführen. Allerdings hat man ja dank dynamischem branching die Möglichkeit nur Teile des Programms ablaufen zu lassen.

Der grosse Vorteil von 3.0 gegenüber 2.0 ist das man die Shaderprogramme nicht mehr so oft umladen muss und teilweise auch viel mehr Pixel/Verticen in einem Batch durchbekommt. Das senkt die CPU Last.

lol, wo bleiben eigentlich echte directx 8 spiele?

Es gibt ein paar.

Ailuros
2004-02-12, 12:01:00
Demi,

Frage: ist dynamisches branching Deiner Meinung nach unter allen Faellen von Vorteil, oder ist es doch besser fuer den Entwickler vorsichtig zwischen constant und dynamic branching (je nach dem was auf jeglicher HW besser laeuft) zu waehlen?

***edit: typos wie immer...:(

Gast
2004-02-12, 12:05:23
@demi

das ist schon klar...ich meinte eher wann es eine so grosse verbreitung von ps/vs 3.0 spielen geben wird das es in der praxis für den gamer von bedeutung ist.

über die dx8 games: ich meinte jetzt nicht spiele die hier und da mal nen shader für wassereffekte oder so einsetzen ;)

Ailuros
2004-02-12, 12:14:32
Original geschrieben von Gast
@demi

das ist schon klar...ich meinte eher wann es eine so grosse verbreitung von ps/vs 3.0 spielen geben wird das es in der praxis für den gamer von bedeutung ist.

über die dx8 games: ich meinte jetzt nicht spiele die hier und da mal nen shader für wassereffekte oder so einsetzen ;)

Hier und da ein paar Effekte wird es genauso fuer PS2.0 oder hoehere Shader verruebergehend sein. PS2.0 wurde aber schnell von Entwicklern benutzt, ueberhaupt im Vergleich zu PS1.x durch die hoehere Flexibilitaet.

Da die Flexibilitaet aber bei PS3.0 nochmal hoeher ist als bei PS2.0, koennte man ein paar froehliche Glanz- oder Spiegelungseffekte auf Rohren oder Pfuetzen wohl schon mit PS3.0 sehr frueh erwarten. ;)

Exxtreme
2004-02-12, 12:15:36
Original geschrieben von Gast
Rage3D hat ein Interview mit David Nalasco, ATi geführt.

Link : http://www.rage3d.gr/board/showthread.php?s=&threadid=340

Der R420 - Relevante Teil ist hier :



Wenn das stimmt, ist der R420 in der Performance zum R300 wie der R300 zum R200...Shrug...

Hehe, das klingt gut. =) Mal schauen ... vlt. wird das Teil angeschafft wenn es sich als gut erweisen sollte.

seahawk
2004-02-12, 12:46:13
Wie gesagt mit dem Vergleich zum NV40 bin ich vorsichtig. Da fehlt mir zu viel Info um sicher sein zu können.

R420 wird im Vergleich zum R300 wesentlich stärker abschneiden. Wobei auch hier nicht klar ist, ob der Vergleich zu einer 9700np oder pro gemacht wurde.

Bei den Features ist mir noch nicht klar was es genau bedeuten soll.

Gast
2004-02-12, 13:08:28
Original geschrieben von seahawk
Wie gesagt mit dem Vergleich zum NV40 bin ich vorsichtig. Da fehlt mir zu viel Info um sicher sein zu können.

R420 wird im Vergleich zum R300 wesentlich stärker abschneiden. Wobei auch hier nicht klar ist, ob der Vergleich zu einer 9700np oder pro gemacht wurde.

Bei den Features ist mir noch nicht klar was es genau bedeuten soll.


Na, dann plaudere doch einfach mal aus dem Nähkästchen was du so über den R420 weist. ;)

Kannst du wenigstens sagen, wann die Vorstellung des R420 ist?

Demirug
2004-02-12, 13:11:35
Original geschrieben von Ailuros
Demi,

Frage: ist dynamisches branching Deiner Meinung nach unter allen Faellen von Vorteil, oder ist es doch besser fuer den Entwickler vorsichtig zwischen constant und dynamic branching (je nach dem was auf jeglicher HW besser laeuft) zu waehlen?

***edit: typos wie immer...:(

dynamisches kann bestenfalls genauso schnell wie statisches sein. Ist es anders hat der Chip eine echte Macke. Statisches kann wiederum maximal so schnell wie gar kein branching sein.

Man nimmt also am besten das was gerade für den Zweg reicht.

Gast
2004-02-12, 13:15:06
Original geschrieben von Winter[Raven]
Ahja, find ich lustig, wenn theinquirer irgendwas über den NV40 (NV marketing) postet wird darüber nur gelacht und für Unfug abgestempelt. :lolaway::lolaway:

Wenn jetzt aber 2 "martketing männer" von ATI irgend ein Zeug labern wird wird doch glatt alles aufgenommen ^^. :verd:

Ich hoffe mal hier machen sich einige nicht "zuviele" Hoffnungen und nicht am Ende "weinen" müssen weil diese nicht erfühlt worden sind. :arsch::bawling:


Bist du jetzt sauer? Kommt zumindest so rüber.

Als der Inquirer Infos einer Nvidia-Präsentation veröffentlicht hat warst du noch voll begeistert, aber jetzt wo ATi auch Gerüchte (und mehr ist das beiderseitige Marketing-Geblubber ja nicht) streut, die von anderen gerüchteweise bestätigt werden, da ist das alles plötzlich unnütz und voll daneben....

wir wissen ja alle, das du ein Nvidia-Fanboy bist, aber deshalb musst du doch nicht gleich so beleidigt auf Gerüchte/Marketing der anderen Seite reagieren. Nimms leicht, draußen vor dem Fenster beginnt das richtige Leben. Es sind doch nur Grafikkarten !!

Demirug
2004-02-12, 13:15:09
Original geschrieben von Gast
@demi

das ist schon klar...ich meinte eher wann es eine so grosse verbreitung von ps/vs 3.0 spielen geben wird das es in der praxis für den gamer von bedeutung ist.

Ist HL2 von Bedeutung? Die Shader dort sind schon VS und PS 3.0 prepared. Ob man den Pfad aber auch wirklich einsetzten wird wenn ATI keine (oder schlechte) 3.0 Hardware bringt ist natürlich eine andere Sache.

über die dx8 games: ich meinte jetzt nicht spiele die hier und da mal nen shader für wassereffekte oder so einsetzen ;)

Viel mehr als Spiegelungen und Verzerungen hat DX 8 an neuem doch sowieso nicht gebracht. Ich meinte Spiele die mindestens eine DX8 Karte brauchen um überhaupt zu starten.

eXistence
2004-02-12, 13:31:22
Original geschrieben von Demirug
Viel mehr als Spiegelungen und Verzerungen hat DX 8 an neuem doch sowieso nicht gebracht. Ich meinte Spiele die mindestens eine DX8 Karte brauchen um überhaupt zu starten.

genau das predige ich ja auch schon ne ganze Weile. Im Grunde bewegen sich die games immernoch auf DX7-Tech-level und selbst das wird noch nicht 100%ig ausgenutzt (z.B. massiver Einsatz von Bumpmapping). Wer die entsprechende hardware hat, kann zwar den ein oder anderen Effekt "genießen", aber das sind alles nur kleine "Verschönerungen". Ich warte immernoch auf die games, die das was die DX9-Tech-Demos gezeigt haben, wirklich anwenden (naja, tech-Demos sind halt Tech-Demos...).

back2topic:

ich bin mit Erwartungen noch seeehr vorsichtig. Vom NV40 kann ich mir gut vorstellen, dass nVidia aus seinen NV30-Fehlern gelernt hat, aber bei ATI beschleicht mich das Gefühl, dass der R420 nur ein aufgewärmter R300/R350 wird :(
Aber wie gesagt, das flüstert mir nur mein Gefühl, ich warte noch auf die ersten benches, bevor ich mir ne richtige Meinung zulege :)

Gast
2004-02-12, 13:31:27
@demi
das ist die alte diskussion über henne und ei imo, die führen wir ja schon seit seligen 3dfx zeiten :)

aber die jetzige situation bez. möglichkeiten verfügbarer gpu's und nutzung vorhandener spiele ist schon krass, oder?
naja meine motivation neue hardware zu kaufen beeinflusst das schon negativ...würde ich als dev natürlich anders sehen ;)

Demirug
2004-02-12, 14:01:05
Original geschrieben von Gast
@demi
das ist die alte diskussion über henne und ei imo, die führen wir ja schon seit seligen 3dfx zeiten :)

aber die jetzige situation bez. möglichkeiten verfügbarer gpu's und nutzung vorhandener spiele ist schon krass, oder?
naja meine motivation neue hardware zu kaufen beeinflusst das schon negativ...würde ich als dev natürlich anders sehen ;)

Neue Hardware ist für den Spieler ja in der Regel ja erst mal schneller bei "alten" Effekten.

Was die Situation angeht so muss ich sagen das der Wechsel von DX8 zu DX9 (PS 1.X zu PS 2.0) IMHO wesentlich schneller vollzogen wurde als von DX7 nach DX8. Bei 3.0 Shadern erwarte ich einen noch schnelleren Wechsel (wenn die Hardware das mitmacht) weil die Entwickler sich ja schon länger zumindestens geistig darauf einstellen konnten.

ow
2004-02-12, 14:01:14
.

DrumDub
2004-02-12, 14:21:26
Original geschrieben von ow
Zu einer 9500np natuerlich, was denn sonst.:D

tsts... dazu sag ich jezt mal nix. ;D

Godmode
2004-02-12, 14:46:25
Ich erwarte mir von Nvidia wieder einen Chip der wirklich für aufsehen sorgt. Nvidia wird doch nicht plötzlich von heute auf morgen keine guten Gpus mehr entwickeln können. Haben doch in der Vergangenheit auch verdammt gute Produkte auf den Markt gebracht. Mit der Geforce 4 Ti 4200-4600 hatten sie dann eigentlich wenig Konkurenz genau auch wie bei den ganzen Produkten die davor kamen. Dashalb glaube ich das mit dem NV30 ein bischen vernachläßigt haben alle die Situation wirklich gut zu überlegen was zu jetzigen Zeit wirklich möglich ist und was nicht. Der NV30 sollte dann auch wieder ein Hammer werden aber: Probs mit DDR2...dann viel zu laut wegen des enormen Taktes 500 MHz zu dieser Zeit war schon der Hammer schlechthin...das design war einfach nicht schnell genug und zu früh für diese zeit. Die CineFx Engine ist zwar viel fortschrittlicher als die Shader von ATI, aber bei einfachen Shadern war sie dann verdammt langsam und genau das war der Fehler von Nvidia. Die Karten werden nun mal hauptsächlich zum zoggen verwendet und da kommen halt Shader mit weniger Operationen zum einsatz. Ist ja schön und gut das ich mit CineFX zb Photon Mapping mit Shadern machen kann aber was bringt mir das wenn ich dann 0.1 FPS habe?. Also kann man so extrem lange Shader sowiso nicht bei Games verwenden. Ati hat dann mit ihrer brachialen Roh-Power die GF bei PS2.0 einfach in den Boden gestampft. Ich gehe aber davon aus das ATI mit dem R420 nur den Problemen aus dem Weg gehen will die auf Nvidia mit dem NV30 zugekommen sind. Es wären wohl gröbere Probleme entstanden die mit der heutigen Technik nich lösbar gewesen wären. Deshalb haben sie ich glaube den R500 nach hinten verschoben und den R420 eingeklemmt. Nvidia ist aber mit CineFx2.0 nicht mehr weit von der 3.0 Shader-Engine entfernt und sie werden wohl jetz mit dem NV40 extrem mehr Roh-Power haben und und die 3.0 Shader werden auch eher besser laufen als die von ATI ( nur eine Vermutung). Wenn der R420 ein R300 mit Implementierungen für 3.0 Shader wird, verspreche ich mir zwar gute 2.0 Shader-Performance aber bei den 3.0 wirds eher ein Problem. Aber es ist schwer zu sagen ob der R420 eine vollständig erneuerte Architektur ist oder eben wider nur ein stark verbesserter R300. Ich weis nicht wie es von der Technik her möglich wäre, den R300 auf Shader 3.0 upzudaten, aber ich glaube eher das eine neue Architekur nötig ist um das zu bewerkstelligen. Vielleicht kann ja Demirug kurz mal was zu R300 Architektur sagen was man da alles ändern müsste um If und Goto Anweisungen in den Shadern zu ermöglichen. Aber ich glaub das Nvidia sicher aus dem NV30 Debakel gelernt hat und ich verspreche mir einen superschnellen Chip der wieder zeigt das fähige Leute in dieser Firma arbeiten.

mfg dom

Demirug
2004-02-12, 19:18:16
Ich habe das Thema R300 und branching irgendwo schon mal angeschnitten. Das Problem ist das beim R3XX Design eine Branchunit entweder am Ende der Pipelines sitzen müsste und dann jeder Branch einen Phasenwechsel auslösst oder sie zwei Branchunits brachen welche dann aber die Phasenlänge pro Pixel verändern können. Veränderte Phasenlängen bringen die Sync durcheinader was schlecht für die Performance ist. Phasenwechsel sind auch nicht immer ganz billig und je mehr davon pro Shader nötig werden desto grösser wird ihr Anteil (in Form von Leertakten) pro Pixel. Am Ende landet man dann schnell bei Phasen die jeweils nur eine Textur und/oder eine Aritmetikop enthalten. Das ist dann echtes Gift. Nebenbei müsste ATI natürlich die Bgrenzung auf nur 4 Phasen entfernen.

Blutgrätsche
2004-02-12, 20:50:17
Original geschrieben von Demirug
Ich habe das Thema R300 und branching irgendwo schon mal angeschnitten. Das Problem ist das beim R3XX Design eine Branchunit entweder am Ende der Pipelines sitzen müsste und dann jeder Branch einen Phasenwechsel auslösst oder sie zwei Branchunits brachen welche dann aber die Phasenlänge pro Pixel verändern können. Veränderte Phasenlängen bringen die Sync durcheinader was schlecht für die Performance ist. Phasenwechsel sind auch nicht immer ganz billig und je mehr davon pro Shader nötig werden desto grösser wird ihr Anteil (in Form von Leertakten) pro Pixel. Am Ende landet man dann schnell bei Phasen die jeweils nur eine Textur und/oder eine Aritmetikop enthalten. Das ist dann echtes Gift. Nebenbei müsste ATI natürlich die Bgrenzung auf nur 4 Phasen entfernen.
Da versuche ich ja gar nicht erst mir zu überlegen, was damit nun wieder gemeint ist. Wenn nicht bald der halbwegs versprochene Technik-Artikel zum R3XX veröffentlicht wird, gibt es bereits den Nachfolger. Dann brauch ich mich wohl auch nicht mehr mit vergangenen und gelösten Problemen beschäftigen.

LovesuckZ
2004-02-12, 20:54:05
This has given us a chance to really refine our next-generation architecture and focus more transistors on raw processing power[...]

Das koennte ja bedeuten, dass die Karte vom featureset kaum besser und winkelabhaengiges AF wohl weiter bestehen werde. Nunja, wenigsten DX9 ist schnell^^

/edit: Wenn dies hinhauen sollte, lache ich über die Leute, die heute die Bildqualitaet anpreisen und spaeter den Speed kaufen!

aths
2004-02-12, 23:03:06
Original geschrieben von eXistence
genau das predige ich ja auch schon ne ganze Weile. Im Grunde bewegen sich die games immernoch auf DX7-Tech-level und selbst das wird noch nicht 100%ig ausgenutzt (z.B. massiver Einsatz von Bumpmapping). DX7- und DX8-HW hat für hochwertiges Bumpmapping nicht die erforderliche Präzision.

eXistence
2004-02-12, 23:08:06
Original geschrieben von aths
DX7- und DX8-HW hat für hochwertiges Bumpmapping nicht die erforderliche Präzision.

naja, das dot3-BM von Doom3 fand ich auf meiner Geforce2Ti schon recht beeindruckend...
Wobei ich dazu sagen muss, dass das dynamische Licht viel zur Wirkung beträgt.

Ailuros
2004-02-12, 23:56:43
Original geschrieben von LovesuckZ
Das koennte ja bedeuten, dass die Karte vom featureset kaum besser und winkelabhaengiges AF wohl weiter bestehen werde. Nunja, wenigsten DX9 ist schnell^^

/edit: Wenn dies hinhauen sollte, lache ich über die Leute, die heute die Bildqualitaet anpreisen und spaeter den Speed kaufen!

Kann ich nicht aus dem besagten Satz herauslesen:

a) Mehr Transistoren koennte auch bessere Filterung u.a. bedeuten.

b) PS/VS3.0 gehoert zu dx9.0.

Uebrigens sind die Kaufsentscheidungen der Mehrzahl doch auf Leistung konzentriert. Sehr wenige wuerden sich eine Karte kaufen die absolut optimale Bildqualitaet liefern wuerde, aber nur mit 30 fps im groben Durchschnitt. Ideal ist natuerlich eine Kombination von hoechstmoeglicher Qualitaet mit hoechstmoeglicher Leistung, wobei aber das letztere seine Wichtigkeit behaelt.

Die Vor- und Nachteile was die Bildqualitaet zwischen R3xx und NV3xx betrifft sind in der Zwischenzeit bekannt und in Sachen Leistung sind beide high end Loesungen sehr nahe.

aths
2004-02-13, 00:19:34
Original geschrieben von eXistence
naja, das dot3-BM von Doom3 fand ich auf meiner Geforce2Ti schon recht beeindruckend...
Wobei ich dazu sagen muss, dass das dynamische Licht viel zur Wirkung beträgt. Dot3 BM ansicht ist nicht schlecht. Mit FX9 wirst du da aber nicht viele Details reinkriegen. An Offset-Mapping für Texturen ist mit 8 Instruktionen und PS.1.3 (nur ein Textur-Sampling-Block) gleich gar nicht zu denken.

Ailuros
2004-02-13, 00:24:59
Original geschrieben von aths
Dot3 BM ansicht ist nicht schlecht. Mit FX9 wirst du da aber nicht viele Details reinkriegen. An Offset-Mapping für Texturen ist mit 8 Instruktionen und PS.1.3 (nur ein Textur-Sampling-Block) gleich gar nicht zu denken.

Es aendert aber trotzdem nicht viel an der Aussage dass heutige und zukuenftige Spiele eigentlich nur zu einer Art hybriden dx7/9 Aera gehoeren, wobei der Grundsatz in der Mehrzahl immer noch auf dx7.0/T&L optimierten code basiert.

eXistence
2004-02-13, 07:36:54
Original geschrieben von aths
Dot3 BM ansicht ist nicht schlecht. Mit FX9 wirst du da aber nicht viele Details reinkriegen. An Offset-Mapping für Texturen ist mit 8 Instruktionen und PS.1.3 (nur ein Textur-Sampling-Block) gleich gar nicht zu denken.

Ich sag ja nicht, dass BM mit DX7-hardware das optimum darstellt, aber meiner Meinung nach hat D3 gezeigt, dass sich die Darstellung von Umgebung und Objecten bereits mit DX7-hardware und dot3-BM erheblich verbessern lässt, nur leider macht das kaum (kein?) ein spiel, selbst von d3 existiert bis dato nur diese olle alpha.

Gast
2004-02-13, 08:03:52
Original geschrieben von Ailuros
Kann ich nicht aus dem besagten Satz herauslesen:
a) Mehr Transistoren koennte auch bessere Filterung u.a. bedeuten.


"focus more transistors on raw processing power", hm...

Gast
2004-02-13, 09:32:53
Hi; hier ein Kommentar zur Nvidia - Konferenz :

PaulS :

The nVidia Conference Call for this quarter just finished, and these were the main points that I can remember:

- Complete family of NV4x to launch in April, with a bridge chip providing PCI-E compatibility
- Bridge chip apparently isn't causing bandwidth problems (i.e. it's performing better than AGP 8x)
- Native PCI-E solutions to appear in June
- Refresh chips to appear in September (or at least, that's how I read it)
- New nForce 3's to support both 939-pin A64 and PCI-E
- Mainstream and Budget offers are unquestionably better than those from competitors. High-end is merely "competitive".
- Happy with IBM and 5700 margins/volumes
- Continuing to split manufacturing between IBM and TSMC, with 0.11 products at TSMC mentionned.
- Increased cycle times and costs are associated with Low-K, and they're not convinced it's right for high-volume parts. They say they're still looking at the possibility of using it somewhere in their line-up at sometime this year.
- Effectively confirmed they were working on an Intel chipset (when pressed, they simply issued an awkward "no comment", saying they'd only be happy commenting on their AMD chipsets at the moment)
- XBox revenues are down, and the trend is going to keep going down over the next quarter
- Q1 2004 is expected to be flat or down 5%


Wenn diese Einschätzung der Konferenz stimmt, dann

1; ist der NV40 wirklich langsamer als der R420. Schließlich gibt Nvidia selbst zu, das der NV40 "merely competitive" ist. Auf gut deutsch, er ist langsamer. Jetzt müssen wir nur noch wissen wieviel langsamer der NV40 im Vergleich zum R420 ist. Der Rest ist gegessen, denn "All evidence point in the same direction now".

2; wir werden die Treiber Cheats ein weiteres Jahr ertragen müssen, da es Nvidia natürlich wieder einmal nicht ertragen können wird die langsamere Karte zu haben. Mal sehen wie weit sie insgesamt gehen werden. XGI wird aber hoffentlich auch weiterhin die "Cheaters-Krone" behalten.


Link : http://www.beyond3d.com/forum/viewtopic.php?t=10268

Demirug
2004-02-13, 09:47:16
Original geschrieben von Gast
Hi; hier ein Kommentar zur Nvidia - Konferenz :



Wenn diese Einschätzung der Konferenz stimmt, dann

1; ist der NV40 wirklich langsamer als der R420. Schließlich gibt Nvidia selbst zu, das der NV40 "merely competitive" ist. Auf gut deutsch, er ist langsamer. Jetzt müssen wir nur noch wissen wieviel langsamer der NV40 im Vergleich zum R420 ist. Der Rest ist gegessen, denn "All evidence point in the same direction now".

2; wir werden die Treiber Cheats ein weiteres Jahr ertragen müssen, da es Nvidia natürlich wieder einmal nicht ertragen können wird die langsamere Karte zu haben. Mal sehen wie weit sie insgesamt gehen werden. XGI wird aber hoffentlich auch weiterhin die "Cheaters-Krone" behalten.


Link : http://www.beyond3d.com/forum/viewtopic.php?t=10268

Das bezieht sich nicht auf die NV4X Reihe sondern auf die NV3X Reihe.

nVidia wird sich hüten jetzt schon irgendwelche Vergleiche zwischen NV4X und R4XX zu ziehen. Würden sie das tun müssten sie sich die Frage gefallen lassen woher sie den wissen wie gut ATIs nächste Generation ist. Das darf nV aber noch gar nicht wissen.

seahawk
2004-02-13, 09:56:48
Ich denke competetive bezog sich auf das gegenwärtige Line-Up mit NV3X und nicht auf NV4X.

Ailuros
2004-02-13, 10:04:02
Original geschrieben von Gast
"focus more transistors on raw processing power", hm...

Im hypothetischen Fall von single cycle trilinear ist es auch mehr "raw processing power". Muss nicht so sein aber generelle Kommentare sind eben generell und verfallen viel zu viel IMHO zu zwei-oder mehrdeutiger Interpretation.

Ailuros
2004-02-13, 10:08:55
Original geschrieben von Demirug
Das bezieht sich nicht auf die NV4X Reihe sondern auf die NV3X Reihe.

nVidia wird sich hüten jetzt schon irgendwelche Vergleiche zwischen NV4X und R4XX zu ziehen. Würden sie das tun müssten sie sich die Frage gefallen lassen woher sie den wissen wie gut ATIs nächste Generation ist. Das darf nV aber noch gar nicht wissen.

ATI war diesmal mehr als nur streng mit leaks. Es wurden nur sehr sehr wenige eingeweiht und dann unter NDA gesetzt, wobei bisher es bis jetzt nicht der Fall war.

ShadowXX
2004-02-13, 10:10:35
Original geschrieben von Ailuros
Im hypothetischen Fall von single cycle trilinear ist es auch mehr "raw processing power". Muss nicht so sein aber generelle Kommentare sind eben generell und verfallen viel zu viel IMHO zu zwei-oder mehrdeutiger Interpretation.

Was im übrigen Absicht ist....man hat dann auch 2 bis 3 Möglichkeiten sich herauszureden.....

J.S.Shadow

Ailuros
2004-02-13, 10:11:27
Native PCI-E solutions to appear in June.

Soweit kann man jetzt wohl sagen dass hier NV45 gemeint ist und dass dieser mit hoechster Wahrscheinlichkeit sogar mit NV40 Seite an Seite vorgestellt wird.

Gast
2004-02-13, 10:38:01
Original geschrieben von Ailuros
Soweit kann man jetzt wohl sagen dass hier NV45 gemeint ist und dass dieser mit hoechster Wahrscheinlichkeit sogar mit NV40 Seite an Seite vorgestellt wird.
Den Refresh-Chip zum gleichen Zeitpunkt wie das aktuelle High-End vorzustellen würde meiner Meinung nach nicht sonderlich gut aussehen Ailuros. Die Gründe solltest du eigentlich kennen, denn dein Know-How übersteigt meines bei weitem (zumindest aus technischer Sicht).

NV wird den NV40 so schnell als möglich vorstellen wollen, das ist auch der Grund für den Bridge-Chip. Wenn Intel dann den Grantsdale/Alderwood präsentiert hat, und erste Boards kaufbar sind, werden die "alten" Kunden den Bridge-NV40 weiterhin nutzen können, und im Juni wird dann auf die native-Variante umgestellt.

Der NV45 sollte diesen Bereich möglichst nicht verletzen, da sich wohl jeder informierte High-End-Käufer eher den Refresh-Chip kaufen würde, wenn dieser wirklich im September schon erscheint.

Demirug
2004-02-13, 10:40:42
Ob NV45 wirklich ein Refreshchip im üblichen Sinn wird ist ja nicht ganz klar. Es gibt durchaus nicht wenige die glauben das NV45 = NV40 + "native" PCI-E.

Ailuros
2004-02-13, 10:42:01
Kann sein. Ich will die Moeglichkeit aber nicht ausschliessen. Jegliche Entscheidung wird sich eher nachdem richten was die unoffizielle Spionage ueber die Konkurrenz zu sagen hat.

Die Gründe solltest du eigentlich kennen, denn dein Know-How übersteigt meines bei weitem (zumindest aus technischer Sicht).

Nein; und das mit absoluter Sicherheit.

***edit: betreffend "know-how".

Gast
2004-02-13, 10:50:05
Original geschrieben von Demirug
Ob NV45 wirklich ein Refreshchip im üblichen Sinn wird ist ja nicht ganz klar. Es gibt durchaus nicht wenige die glauben das NV45 = NV40 + "native" PCI-E.
Diese Vermutung teile ich auch, allerdings wird dieser wohl nicht "nur" zusätzlich native sein, sondern gleichzeitig auch höhere Taktraten haben (um den Käufern das Upgrade schmackhaft zu machen), allerdings ist das natürlich alles pure Spekulation. Gut das es dieses Forum gibt.

Ailuros
2004-02-13, 10:56:26
Original geschrieben von Gast
Diese Vermutung teile ich auch, allerdings wird dieser wohl nicht "nur" zusätzlich native sein, sondern gleichzeitig auch höhere Taktraten haben (um den Käufern das Upgrade schmackhaft zu machen), allerdings ist das natürlich alles pure Spekulation. Gut das es dieses Forum gibt.

Das mit der hoeheren Taktrate ist eine merkwuerdige Geschichte, ueberhaupt wenn man die Zeitpunkte der tape-outs betrachtet. Nicht unmoeglich da es sich wohl um anderen Speicher bei NV45 handeln wird (und moeglicherweise kleinere Abwaerme bzw. kleinerer Stromverbrauch), aber in jedem Fall sieht es so aus als ob die Spekulationen betreffend Taktrate viel zu optimistisch waren.

NV38= bis zu ~100W und "nur" 25MHz mehr als NV35. Natuerlich haben beide auch gleichen Speicher.

eXistence
2004-02-13, 11:16:36
Original geschrieben von Gast
Diese Vermutung teile ich auch, allerdings wird dieser wohl nicht "nur" zusätzlich native sein, sondern gleichzeitig auch höhere Taktraten haben (um den Käufern das Upgrade schmackhaft zu machen), allerdings ist das natürlich alles pure Spekulation. Gut das es dieses Forum gibt.

Ich denke ebenfalls, dass dies so sein wird. Nur PCI-E statt AGP reicht nicht, um den NV45 asl Refresh vermarkten zu können.
Aber die Takterhöhung wird imo relativ gering ausfallen, ähnlich wie bei Radeon9800pro-128MB=>Radeon9800pro-256MB, evtl auch wie bei radeon9800Pro=>Radeon9800XT.

Gast
2004-02-13, 11:37:47
Wieder mal neue Infos zum R4xx

http://www.anandtech.com/video/showdoc.html?i=1966

Gast
2004-02-13, 12:01:18
Original geschrieben von Gast
Wieder mal neue Infos zum R4xx

http://www.anandtech.com/video/showdoc.html?i=1966
"...The R420/423 chips will offer twice the pixel fill rate and vertex throughput of the R350 core, as well as increases in memory bandwidth...."

Sollte das stimmen, bin ich sprachlos.

Ailuros
2004-02-13, 12:11:24
Original geschrieben von Gast
"...The R420/423 chips will offer twice the pixel fill rate and vertex throughput of the R350 core, as well as increases in memory bandwidth...."

Sollte das stimmen, bin ich sprachlos.


500MHz@256bit = 32GB/s
340MHz@256bit = 21.8GB/s

380*8= 3040MPixels/s

Nur mal spekulieren wie man 6GPixels/s erreichen koennte. ;)

Demirug
2004-02-13, 12:22:05
Original geschrieben von Ailuros
500MHz@256bit = 32GB/s
340MHz@256bit = 21.8GB/s

380*8= 3040MPixels/s

Nur mal spekulieren wie man 6GPixels/s erreichen koennte. ;)

Genau das frage ich mich auch. 8 Pipelines bei 500 MHz können maximal 4 GPixel/s erzeugen. Nutzt man einen doppelpumped Modus wären es 8 GPixel/s.

Ich könnte ja jetzt ganz kreative sein un behaupten das die ROPs und die Writeports zum Speicher nur für 6 GPixel/s ausreichen. Eine asymetrische Lösung bei denen nur einer der beiden Pixelprocessor doppelpumped ist halte ich dagegen für unwahrscheinlich.

Die Frage ist dann nur welche Shader können doppelpumped laufen?

Ailuros
2004-02-13, 12:34:49
Wavey kommentierte schon bei B3D im relevanten thead ("Salt, pinch of").

Quasar
2004-02-13, 12:59:41
Original geschrieben von Ailuros
500MHz@256bit = 32GB/s
340MHz@256bit = 21.8GB/s

380*8= 3040MPixels/s

Nur mal spekulieren wie man 6GPixels/s erreichen koennte. ;)

R9600XT*3 ;D

aths
2004-02-13, 13:00:19
Original geschrieben von eXistence
Ich sag ja nicht, dass BM mit DX7-hardware das optimum darstellt, aber meiner Meinung nach hat D3 gezeigt, dass sich die Darstellung von Umgebung und Objecten bereits mit DX7-hardware und dot3-BM erheblich verbessern lässt, nur leider macht das kaum (kein?) ein spiel, selbst von d3 existiert bis dato nur diese olle alpha. Welche DirectX7-HW (oder DX8-HW) ist leistungsfähig genug, um alles mit Bump-Maps zu verfeinern?

"DX7-Dot3-BM" hat zudem oft einen recht metallischen Look, der nicht immer gewünscht ist.

Demirug
2004-02-13, 13:22:33
Original geschrieben von Quasar
R9600XT*3 ;D

Was dann aber 12 Pipelines wären.

Quasar
2004-02-13, 13:24:34
Was spricht dagegen? Drei klitzekleine FP24-Pixelprozessoren aus dem RV360 - ergibt doch einen netten High-End Chip, der in der Entwicklung nichtmal allzu teuer gewesen sein dürfte.

P.S.:
DU hast dich auf acht Pipes beschränkt...

eXistence
2004-02-13, 13:25:34
Original geschrieben von aths
Welche DirectX7-HW (oder DX8-HW) ist leistungsfähig genug, um alles mit Bump-Maps zu verfeinern?

"DX7-Dot3-BM" hat zudem oft einen recht metallischen Look, der nicht immer gewünscht ist.

Naja, dass die games gleich bei escheinen von DX7 dieses auch voll ausnutzen verlange ich ja nicht (ist auch vollkommen unrealistisch), mich wundert nur, dass man nicht früher auf dot3 gesetzt hat (z.B. geforce3/4-Generation).
Nimmt man mal die spiele von vor 1-2 jahren, dann waren dort die texturen noch nicht so hoch aufgelöst, dynamisches licht fehlte ebenfalls weitgehend, ich könnte mir durchaus vorstellen, dass die Karten das gepackt hätten.
Aber festlegen will ich mich da nicht, da ich zugegebenermaßen nicht sooo tief in den Internas der GraKas und Engines drinstecke, könnte also duchaus sein, dass du Recht hast :)

zum metallisches look: hmmmm, das verkompliziert die Sache natürlich und schränkt die Einsatzmöglichkeiten vielleicht etwas ein, aber spricht nicht prinzipiell gegen den Einsatz von Dot3. Wie gesagt, die kommenden games (d3, hl2, stalker, farcry) werden AFAIK auch erstmal auf dot3 setzen, also scheints da schon irgendwie nen workaround zu geben.

EDIT:
Huch, ich seh grad, du hast geschrieben "DX7-Dot3-BM", heißt dass, das es einen Unterschied macht, ob Dot3 auf ner DX7-karte oder auf einer DX8/9-karte berechnet wird?
wenn ja, und du mir erklärst warum, ziehe ich alles zurück :)

Demirug
2004-02-13, 13:31:28
Original geschrieben von Quasar
Was spricht dagegen? Drei klitzekleine FP24-Pixelprozessoren aus dem RV360 - ergibt doch einen netten High-End Chip, der in der Entwicklung nichtmal allzu teuer gewesen sein dürfte.

P.S.:
DU hast dich auf acht Pipes beschränkt...

Nicht ich sondern Anand.

Gast
2004-02-13, 13:31:39
sorry hab jetz nicht alles gelese, vielleicht stehts ja shcon irgendwo, aber: wie soll der r420 denn dann heißen? radeon 10000? klingt irgendwie doof...

Gast
2004-02-13, 13:38:07
Vollkommen OT und sehr wahrscheinlich auch noch schwachsinnig, aber ich hab mir vor einiger Zeit einmal was zusammen gesponnen gehabt:

Was haltet ihr von 1.5-fachen TMU's pro Pipeline, wobei man Tri-TMU's ( Tri for free aus einer Mipmap ) nimmt und durch eine flexiblere Zusammenschaltung ähnlich wie bei den 2xAF-TMU's von Demirug und eine wesentlich höhere Cache-Bandbreite in 2 Takten 3 bilineare Pixel pro Pipeline verarbeiten kann indem man die Texel "interleaved" verarbeitet. Das wären dann für mich wirklich Extreme TMU's.

IMHO wirklich eine Spinnerei, aber...???

ShadowXX
2004-02-13, 13:38:19
Original geschrieben von Gast
sorry hab jetz nicht alles gelese, vielleicht stehts ja shcon irgendwo, aber: wie soll der r420 denn dann heißen? radeon 10000? klingt irgendwie doof...

Das weiss noch keiner...vielleicht ja Radeon9700 Pro II ;D ;D ;D

J.S.Shadow

Quasar
2004-02-13, 13:39:32
Original geschrieben von Demirug
Nicht ich sondern Anand.

Stimmt, Anand schrieb das. Hatte ich vorher nicht gelesen. Zu RV360*3 (bei gleichen Taktraten) passen aber die sechs Vertex-Engines viel besser.

Ich glaube, daß der gute Herr Shimpi noch zu sehr an Zweierpotenzen klebt.

Gast
2004-02-13, 13:40:13
Original geschrieben von Demirug
Nicht ich sondern Anand.

Nicht nur Anandtech, sondern auch MuFu und andere haben sich auf 8 Pipelines beschränkt.

Demirug
2004-02-13, 13:59:29
Original geschrieben von Gast
Vollkommen OT und sehr wahrscheinlich auch noch schwachsinnig, aber ich hab mir vor einiger Zeit einmal was zusammen gesponnen gehabt:

Was haltet ihr von 1.5-fachen TMU's pro Pipeline, wobei man Tri-TMU's ( Tri for free aus einer Mipmap ) nimmt und durch eine flexiblere Zusammenschaltung ähnlich wie bei den 2xAF-TMU's von Demirug und eine wesentlich höhere Cache-Bandbreite in 2 Takten 3 bilineare Pixel pro Pipeline verarbeiten kann indem man die Texel "interleaved" verarbeitet. Das wären dann für mich wirklich Extreme TMU's.

IMHO wirklich eine Spinnerei, aber...???

Die komplexere Steuerlogik dafür dürfte wohl die eingesparten Transitoren gegenüber zwei vollständigen TMUs wieder verbrauchen.

Quasar
2004-02-13, 14:01:47
Original geschrieben von Gast
Nicht nur Anandtech, sondern auch MuFu und andere haben sich auf 8 Pipelines beschränkt.

An 760MHz glaube ich nicht (ok, an 325MHz beim R300 habe ich auch nicht geglaubt). Ansonsten bliebe nur die Z-/Stencil-Optimierung übrig, die nV anbietet.

Damit kriegt man (zwar nur schwarze) aber immerhin doppelt soviel Pixel gerendert.

Demirug
2004-02-13, 14:04:28
Original geschrieben von Quasar
An 760MHz glaube ich nicht (ok, an 325MHz beim R300 habe ich auch nicht geglaubt). Ansonsten bliebe nur die Z-/Stencil-Optimierung übrig, die nV anbietet.

Damit kriegt man (zwar nur schwarze) aber immerhin doppelt soviel Pixel gerendert.

Zixel sind farbloss.

AlfredENeumann
2004-02-13, 14:10:22
Original geschrieben von Demirug
Was dann aber 12 Pipelines wären.

Warum nicht?
Hat Exxtreme nicht mal sowas läuten lassen, das er gehört hat, das der R420 12 Pipes haben soll?

Demirug
2004-02-13, 14:11:28
Original geschrieben von AlfredENeumann
Warum nicht?
Hat Exxtreme nicht mal sowas läuten lassen, das er gehört hat, das der R420 12 Pipes haben soll?

^^ http://80.237.203.42/vbulletin/showthread.php?s=&postid=1564654#post1564654

Quasar
2004-02-13, 14:47:47
Original geschrieben von Demirug
Zixel sind farbloss.
Schwarz ist die Abwesenheit von Farbe... ;)

Nein, schon klar....

Ailuros
2004-02-13, 14:50:36
Original geschrieben von Quasar
Schwarz ist die Abwesenheit von Farbe... ;)

Nein, schon klar....


Errrr ist es nicht eher anders rum, Schwarz = alle Farben, Weiss = keine Farben oder hab ich mich wieder selber verwirrt? Ich war nie sehr gut mit dem Zeug....

Demirug
2004-02-13, 14:55:39
Original geschrieben von Ailuros
Errrr ist es nicht eher anders rum, Schwarz = alle Farben, Weiss = keine Farben oder hab ich mich wieder selber verwirrt? Ich war nie sehr gut mit dem Zeug....

Das hängt vom verwendeten Farbmodel ab.

Beim Rendern gilt:

Schwarz = RGB (0;0;0)
Weiss = RGB (1;1;1)

Farbloss ist aber dann noch was anderes.

eXistence
2004-02-13, 14:57:34
Original geschrieben von Ailuros
Errrr ist es nicht eher anders rum, Schwarz = alle Farben, Weiss = keine Farben oder hab ich mich wieder selber verwirrt? Ich war nie sehr gut mit dem Zeug....

Nein, im Physikalischen Sinne und wenns um RGB (was beim PC meistens der Fall ist) geht, dann heißt Schwarz die Abwesenheit von Farbe/Licht

Wenns um CMYK geht, (was aber hauptsächlich im Druckerei-Berreich vorkommt) dann ist Schwarz eine extra Farbe. Man hört zwar oft, dass wenn man alle Farben (CMY) mischt, man schwarz bekommt, aber das stimmt nicht ganz, man erhält ein sehr dunkles und dreckiges Braun, deswegen hat man schwarz als vierte Farbe hinzugenommen (Cyan, Magenta, Yellow, BlacK)

Godmode
2004-02-13, 15:30:00
Was ich mich die ganze Zeit frage ist welche Taktfrequenz der R420 haben wird. Wenn sie mit dem 0,15er Prozess schon fast das Niveau von Nv erreicht haben, wieviel können sie dann mit 0,13 erreichen. Ja ok der R300 hatte nicht soviele Transistoren wie der NV30 aber es erstaunt mich immer wieder wie ATI auf eine so extrem hohe Taktfrequenz gekommen sind. Wie wirken sich eigentlich bei 0.13 die Leckströme aus? Besser gesagt wieviel erzeugen die neuen Chips an Verlustleistung? Und wie groß wird der Vorteil vom Low-K Prozess für ATI sein?

aths
2004-02-13, 15:58:45
Original geschrieben von eXistence
Naja, dass die games gleich bei escheinen von DX7 dieses auch voll ausnutzen verlange ich ja nicht (ist auch vollkommen unrealistisch), mich wundert nur, dass man nicht früher auf dot3 gesetzt hat (z.B. geforce3/4-Generation).
Original geschrieben von aths
Welche DirectX7-HW (oder DX8-HW) ist leistungsfähig genug, um alles mit Bump-Maps zu verfeinern?
Original geschrieben von eXistence
Huch, ich seh grad, du hast geschrieben "DX7-Dot3-BM", heißt dass, das es einen Unterschied macht, ob Dot3 auf ner DX7-karte oder auf einer DX8/9-karte berechnet wird?
wenn ja, und du mir erklärst warum, ziehe ich alles zurück :)
Original geschrieben von aths
"DX7-Dot3-BM" hat zudem oft einen recht metallischen Look, der nicht immer gewünscht ist. GeForce3 ist nicht leistungsfähig genug, durchgehendes Dot3-Bumpmapping zu rendern. (Doom3 wird auf GF3 wohl laufen ... halbwegs ... mit niedrigen Details und in geringer Auflösung.)

Dynamische Beleuchtung kannst du nicht so einfach in bestehende Engines integrieren. Und wie gesagt, Dot3 BM ist Effekthascherei, an der man sich schnell satt gesehen hat. Oft sehen die Effekte zu metallisch aus. Problematisch ist auch, entfernte Objekte zu "bumpmappen" — von Normal Maps kann man schlecht MIPs machen.

Mit DX8-HW (Pixelshader bis 1.3) kann man "DX7-Bumpmapping" schneller render (da 4 Texturen und 8 Instruktionen pro Pass.) Mit DX9 sind ganz neue Bumpmapping-Verfahren möglich, welche die Glaubwürdigkeit erheblich steigern.

ow
2004-02-13, 16:01:47
.

aths
2004-02-13, 16:03:49
Original geschrieben von ow
Doom3 ist da wohl kaum der Massstab dafuer.
Natuerlich ist eine GF3 leistungsfaehig genug durchgehendes DOT3 zu rendern. Wie möchtest du das belegen?

Was ist dein Maßstab? 800x600, ohne Anti-Aliasing?

Gast
2004-02-13, 16:05:11
Wenn der R420 bei sonst kaum verändertem Design die doppelte Rohleistung wie der R350 haben sollte, wären bei 12x1 Architektur 510Mhz Chiptakt und 750Mhz Speichertakt bei 256bit Interface nötig. Ich halte aber immer noch 4xRV360 für warscheinlicher da bei dieser 16x1 Architektur schon 400Mhz Chiptakt reichen würden und noch Raum für Refreshes vorhanden wäre.
R420Pro : 400Mhz 16x1 und 750Mhz 256bit
R420 : 300Mhz 16x1 und 500Mhz 256bit
RV420Pro: 400Mhz 8x1 und 400Mhz 256bit
RV420 : 300Mhz 8x1 und 300Mhz 256bit
Die Architektur wäre genau wie das Speicherinterface bei den Mainstream Karten verbreitert worden, wärend bei den High End Karte mit sehr hohen Speichertakten trumpfen. Bei den Refreshes kämen höhere Taktraten bei den Chips und den High End Karte vieleicht sogar ein 512bit breites Interface bei etwas geringerer Speichertaktung. Spätestens die Refreshes wären native PCI-Expresskarten.

Gast
2004-02-13, 16:05:43
Mit Evolva?

Kaum Anforderungen, aber Dot3 (per Patch). War Flüssig.

;Q

eXistence
2004-02-13, 16:11:15
Original geschrieben von aths
GeForce3 ist nicht leistungsfähig genug, durchgehendes Dot3-Bumpmapping zu rendern. (Doom3 wird auf GF3 wohl laufen ... halbwegs ... mit niedrigen Details und in geringer Auflösung.)

Ich rede ja nicht davon, ein aktuelle Spiel mit dot3 auf DX7-hardware laufen zu lassen, sondern von früheren Spielen wie "Return to Castle Wolfenstein", AvP2, Freelancer, etc., die damals (!) evtl. schon dot3-BM gehabt haben könnten.

aths
2004-02-13, 16:12:36
Original geschrieben von eXistence
Ich rede ja nicht davon, ein aktuelle Spiel mit dot3 auf DX7-hardware laufen zu lassen, sondern von früheren Spielen wie "Return to Castle Wolfenstein", AvP2, Freelancer, etc., die damals (!) evtl. schon dot3-BM gehabt haben könnten. X2 verliert mit Dot3 BM auf meiner GF4 massiv Leistung.

ow
2004-02-13, 16:15:19
.

ow
2004-02-13, 16:16:37
.

Godmode
2004-02-13, 16:18:30
Original geschrieben von Gast
Wenn der R420 bei sonst kaum verändertem Design die doppelte Rohleistung wie der R350 haben sollte, wären bei 12x1 Architektur 510Mhz Chiptakt und 750Mhz Speichertakt bei 256bit Interface nötig. Ich halte aber immer noch 4xRV360 für warscheinlicher da bei dieser 16x1 Architektur schon 400Mhz Chiptakt reichen würden und noch Raum für Refreshes vorhanden wäre.
R420Pro : 400Mhz 16x1 und 750Mhz 256bit
R420 : 300Mhz 16x1 und 500Mhz 256bit
RV420Pro: 400Mhz 8x1 und 400Mhz 256bit
RV420 : 300Mhz 8x1 und 300Mhz 256bit
Die Architektur wäre genau wie das Speicherinterface bei den Mainstream Karten verbreitert worden, wärend bei den High End Karte mit sehr hohen Speichertakten trumpfen. Bei den Refreshes kämen höhere Taktraten bei den Chips und den High End Karte vieleicht sogar ein 512bit breites Interface bei etwas geringerer Speichertaktung. Spätestens die Refreshes wären native PCI-Expresskarten.

wieviel Transis bräuchten sie den zusätzlich um 16x1 zu realisieren?

aths
2004-02-13, 16:22:22
Original geschrieben von bans3i
wieviel Transis bräuchten sie den zusätzlich um 16x1 zu realisieren? 16x1 ist extrem unwahrscheinlich.

aths
2004-02-13, 16:23:26
Original geschrieben von ow
Ja, zB. Evolva. War imo aber nicht sonderlich gut gelungen von den Texturen her. Dann ist das kaum ein gutes Beispiel :)
Original geschrieben von ow
X2 ist einfach Schrott.
Wie man mit so schlechter Grafik die Leistung auch noch so druecken kann ist mir ein Raetsel. Hrn, wenn die Leistung nicht reicht, ist das Spiel schlecht? Die X2-Grafik finde ich ganz gut. Kein sehr großer Sprung ggü. X, aber immerhin. Sieh doch einfach ein, dass Dot3 BM kräftig Leistung zieht :)

ironMonkey
2004-02-13, 16:53:24
Original geschrieben von Gast
Wenn der R420 bei sonst kaum verändertem Design die doppelte Rohleistung wie der R350 haben sollte, wären bei 12x1 Architektur 510Mhz Chiptakt und 750Mhz Speichertakt bei 256bit Interface nötig. Ich halte aber immer noch 4xRV360 für warscheinlicher da bei dieser 16x1 Architektur schon 400Mhz Chiptakt reichen würden und noch Raum für Refreshes vorhanden wäre.
R420Pro : 400Mhz 16x1 und 750Mhz 256bit
R420 : 300Mhz 16x1 und 500Mhz 256bit
RV420Pro: 400Mhz 8x1 und 400Mhz 256bit
RV420 : 300Mhz 8x1 und 300Mhz 256bit
Die Architektur wäre genau wie das Speicherinterface bei den Mainstream Karten verbreitert worden, wärend bei den High End Karte mit sehr hohen Speichertakten trumpfen. Bei den Refreshes kämen höhere Taktraten bei den Chips und den High End Karte vieleicht sogar ein 512bit breites Interface bei etwas geringerer Speichertaktung. Spätestens die Refreshes wären native PCI-Expresskarten.


Ich finde das etwas zuviel des guten, sicher wird der R420 schnell aber 16x1 ist da nicht drin, eher 12x1 500/500mhz, das wären dann auch schon um einiges schneller wie der R350 und noch realistisch, die non pro dürfte dann so 450/450 haben. die RV Serie wird auch wohl keine 8x1 Pipes haben mit 400mhz, das währe schneller als eine 9800XT ohne das die karte bei Kantenglättung wegbricht da wird man wohl wie bisher auf Taktraten setzten, zu schnell dürfen die ja nicht sein.



Gruß

Gast
2004-02-13, 16:58:48
Original geschrieben von bans3i
wieviel Transis bräuchten sie den zusätzlich um 16x1 zu realisieren?
Der R360 hat ca. 107 Mllionen Transistoren , Der RV360 ca. 75 Millionen. Der R420 hätte dann also 107+2x(107-75)= ca. 171Mllionen Transistoren. Da der R420 ein Transistorenmonster mit enormer Rohpower werden soll, ist es aber nicht sooo unwarscheinlich.

ironMonkey
2004-02-13, 17:11:12
Entweder 16x1 und um die 375mhz oder 12x1 und 500mhz, jetzt könnte man drum würfeln oder Wetten, ich setz 1€ auf 12x1 und 500mhz;D



Gruß

Gast
2004-02-13, 17:24:20
Original geschrieben von ironMonkey
Entweder 16x1 und um die 375mhz oder 12x1 und 500mhz, jetzt könnte man drum würfeln oder Wetten, ich setz 1€ auf 12x1 und 500mhz;D



Gruß
Es wären bei DOPPELTER Leistung 380Mhz bei 16x1 und 506,667Mhz bei 1x12

PS: Setze 0,01€ auf 1x16 bei 100-1000Mhz*eg*

BlackBirdSR
2004-02-13, 18:54:11
Original geschrieben von ow
X2 ist einfach Schrott.
Wie man mit so schlechter Grafik die Leistung auch noch so druecken kann ist mir ein Raetsel.

heute muss ein ganz spezieller Tag sein.
Ich bin mit dir einer Meinung :)

k.A was die Alle an X2 finden. Ich bin von der Grafik nicht beeindruckt. Empfinde ich irgendwie als langweilig, und nostalgisch.
Ich fühle mich dann immer wie zu POD/Final Reality/Turok Zeiten.

Gast
2004-02-13, 18:58:14
Original geschrieben von BlackBirdSR
heute muss ein ganz spezieller Tag sein.
Ich bin mit dir einer Meinung :)

k.A was die Alle an X2 finden. Ich bin von der Grafik nicht beeindruckt. Empfinde ich irgendwie als langweilig, und nostalgisch.
Ich fühle mich dann immer wie zu POD/Final Reality/Turok Zeiten. Das Gameplay!!!*eg*
Ist zwar nicht jedermanns Sache, aber für Fans unübertroffen... oder so;)

eXistence
2004-02-13, 18:58:33
Original geschrieben von aths
Sieh doch einfach ein, dass Dot3 BM kräftig Leistung zieht :)

Das sehe ich durchaus ein, aber ich denke, die Leistung hätte trotzdem gereicht um spiele mit massiven dot3-Einsatz früher rauszubringen :)
Aber ich denke, hier könnten wir ewig diskutieren, weils eben nicht so gekommen ist und es nun wirklich nur reine Spekulationen der Art "was-wäre-wenn" sind :)
(außerdem sind wir mittlerweile total OT =) )

CrazyIvan
2004-02-13, 19:03:39
Original geschrieben von BlackBirdSR
heute muss ein ganz spezieller Tag sein.


Ist es ja auch - Freitag, der 13te ;D

Mr. Lolman
2004-02-13, 19:08:21
Ich geh fest von einem 16 Pipe Design bei ~400MHz aus (am Besten OCbar bis 500MHz :naughty: ).

Wenn der R420 wieder so ein geiles Teil wie der R300 (den ich ja erst wirklich interessant fand, als die ersten Berichte, über OC-Erfolge von 400MHz und mehr, kamen) wird, dann zögere ich diesmal keine 3 Monate bis ich mir die Karte hol. ;D

Aber trotz 16 Pipes würde der R420 erst bei ~500MHz mit 512bit Speicherinterface* richtig interressant werden, sofern sonst nichts am Design geändert wird. *Oder bringt DDR/II tatsächlich einen so stark verwertbaren Vorteil, wie ein vergrössertes Speicherinterface mitsich?

Godmode
2004-02-13, 19:20:07
Original geschrieben von Mr. Lolman
Ich geh fest von einem 16 Pipe Design bei ~400MHz aus (am Besten OCbar bis 500MHz :naughty: ).

Wenn der R420 wieder so ein geiles Teil wie der R300 (den ich ja erst wirklich interessant fand, als die ersten Berichte, über OC-Erfolge von 400MHz und mehr, kamen) wird, dann zögere ich diesmal keine 3 Monate bis ich mir die Karte hol. ;D

Aber trotz 16 Pipes würde der R420 erst bei ~500MHz mit 512bit Speicherinterface* richtig interressant werden, sofern sonst nichts am Design geändert wird. *Oder bringt DDR/II tatsächlich einen so stark verwertbaren Vorteil, wie ein vergrössertes Speicherinterface mitsich?


512 bit ??? glaubst du aber nicht im ernst oder? also 16 Pipes wär ja schon extrem viel aber dann noch 512 bit Anbindung an den Speicher? Also ich bin ja optimistisch was die neuen Chips angeht, aber das ist sicher eher noch ein Traum. Ich gehe eher von ner 12x1 Architektur mit 256 bit. Was würde den ein 512 bit Speicherinterface kosten?? oder was für ein PCB braucht man dazu 20 Layer :) naja ich wäre schon sehr überrascht wenn sie wirklich 512 bit Anbindung haben würden mit 16x1 Pipes da würde echt die Post abgehn.

seahawk
2004-02-13, 19:20:47
512 Bit Speicherinterface kannst vergessen.

Sonst sage ich nur "erwartet nicht zuviel"

Demirug
2004-02-13, 19:23:48
Original geschrieben von Mr. Lolman
Ich geh fest von einem 16 Pipe Design bei ~400MHz aus (am Besten OCbar bis 500MHz :naughty: ).

Wenn der R420 wieder so ein geiles Teil wie der R300 (den ich ja erst wirklich interessant fand, als die ersten Berichte, über OC-Erfolge von 400MHz und mehr, kamen) wird, dann zögere ich diesmal keine 3 Monate bis ich mir die Karte hol. ;D

Aber trotz 16 Pipes würde der R420 erst bei ~500MHz mit 512bit Speicherinterface* richtig interressant werden, sofern sonst nichts am Design geändert wird. *Oder bringt DDR/II tatsächlich einen so stark verwertbaren Vorteil, wie ein vergrössertes Speicherinterface mitsich?

512 Bit!?

Wer soll den das bezahlen? Dafür braucht man 16 Speicherchips.

GDDR2 ist was die Effektivität angeht schlechter als GDDR1

Exxtreme
2004-02-13, 19:33:47
Original geschrieben von Demirug

Wer soll den das bezahlen?
Also den Spruch habe ich bei der Einführung der 256-Bit-Interfaces auch gehört. :gruebel:

Exxtreme
2004-02-13, 19:36:48
Lalalalala...

http://www.anandtech.com/video/showdoc.html?i=1966

;)

Godmode
2004-02-13, 19:37:00
Müsste man um mit 8 Chips auszukommen die Speicherchips selber breiter machen? Also die Datenanbindung? oder wie könnte man das lösen?

Neo69
2004-02-13, 19:40:34
also "nur" höhere taktraten, shader 3.0, mehr vertex einheiten kleinere verbesserungen - evolutionärer schritt?

ich verstehe jetzt aber nich ganz wie anand auf folgende aussage kommt:

"The R420/423 chips will offer twice the pixel fill rate and vertex throughput of the R350 core"

woher kommt die doppelte füllrate?

Demirug
2004-02-13, 19:40:55
Original geschrieben von Exxtreme
Also den Spruch habe ich bei der Einführung der 256-Bit-Interfaces auch gehört. :gruebel:

Der Unterschied ist das die 256 Bit noch mit 8 Chips machbar waren.

Demirug
2004-02-13, 19:41:47
Original geschrieben von bans3i
Müsste man um mit 8 Chips auszukommen die Speicherchips selber breiter machen? Also die Datenanbindung? oder wie könnte man das lösen?

Man müsste Chips mit 64 Datenpins haben.

Demirug
2004-02-13, 19:44:01
Original geschrieben von Exxtreme
Lalalalala...

http://www.anandtech.com/video/showdoc.html?i=1966

;)

Denn hatten wir schon auf Seite 3. :)

Mr. Lolman
2004-02-13, 19:44:26
Original geschrieben von Neo69
also "nur" höhere taktraten, shader 3.0, mehr vertex einheiten kleinere verbesserungen - evolutionärer schritt?

ich verstehe jetzt aber nich ganz wie anand auf folgende aussage kommt:

"The R420/423 chips will offer twice the pixel fill rate and vertex throughput of the R350 core"

woher kommt die doppelte füllrate?


vielleicht falsch abgeschreiben, und in Wahrheit war der R300 Core gemeint. Eine 9700np mit 275MHz. Kann auch sein...

Demirug
2004-02-13, 19:46:05
Original geschrieben von Neo69
also "nur" höhere taktraten, shader 3.0, mehr vertex einheiten kleinere verbesserungen - evolutionärer schritt?

ich verstehe jetzt aber nich ganz wie anand auf folgende aussage kommt:

"The R420/423 chips will offer twice the pixel fill rate and vertex throughput of the R350 core"

woher kommt die doppelte füllrate?

Shader 3.0? Laut den letzten Aussagen von ATI gibt es da ja gewisse Zweifel.

Das die Fillrateangabe nicht zu den 8 Pipelines und 500 MHz passt haben wir auch schon mal festgestellt.

Neo69
2004-02-13, 19:47:23
Das die Fillrateangabe nicht zu den 8 Pipelines und 500 MHz passt haben wir auch schon mal festgestellt.

*g* ja seh ich auch gerade, sorry...

seahawk
2004-02-13, 19:57:23
Original geschrieben von Mr. Lolman
vielleicht falsch abgeschreiben, und in Wahrheit war der R300 Core gemeint. Eine 9700np mit 275MHz. Kann auch sein...

:D

misterh
2004-02-13, 20:51:15
NV40
- 8*2
- ~ 600
- ~ 750 (eff 1500)
R420
- 8*1
- ~ 500
- ~ 500 (eff 1000)

Nun das wird der interessanste wettbewerb :D

Falls die daten von NV40 bzw R420 stimmt.

Demirug
2004-02-13, 21:11:57
Original geschrieben von misterh
NV40
- 8*2
- ~ 600
- ~ 750 (eff 1500)
R420
- 8*1
- ~ 500
- ~ 500 (eff 1000)

Nun das wird der interessanste wettbewerb :D

Falls die daten von NV40 bzw R420 stimmt.

In dem Fall könnte ATI einpacken.

Aber so wird es wohl nicht kommen.

Neo69
2004-02-13, 21:23:16
In dem Fall könnte ATI einpacken.

Aber so wird es wohl nicht kommen

du meinst also, die daten die anand gepostet hat stimmen nicht?

LovesuckZ
2004-02-13, 21:29:23
Original geschrieben von misterh
NV40
- 8*2
- ~ 600
- ~ 750 (eff 1500)


NV40
- 6*2
- 550
- 600 (eff. 1200)

Sollte eher hinhaun :)

aths
2004-02-13, 21:30:39
Original geschrieben von Mr. Lolman
Ich geh fest von einem 16 Pipe Design bei ~400MHz aus 16x1? Wie viele ROPs pro Pipe?

Demirug
2004-02-13, 21:31:46
Original geschrieben von Neo69
du meinst also, die daten die anand gepostet hat stimmen nicht?

anand interpretiert leider immer wieder gerne Dinge die er sieht falsch.

aths
2004-02-13, 21:33:12
Original geschrieben von Neo69
also "nur" höhere taktraten, shader 3.0, mehr vertex einheiten kleinere verbesserungen - evolutionärer schritt?

ich verstehe jetzt aber nich ganz wie anand auf folgende aussage kommt:

"The R420/423 chips will offer twice the pixel fill rate and vertex throughput of the R350 core"

woher kommt die doppelte füllrate? Entweder 8x2, oder trilineare TMUs.

LovesuckZ
2004-02-13, 21:35:09
Original geschrieben von aths
Entweder 8x2, oder trilineare TMUs.

Egal, welches besser ist, inwieweit koennte Nvidia mit 6x2 mithalten?

Winter[Raven]
2004-02-13, 21:44:45
@ Love

Wie komsta auf 6x2 ? Alles was letzens kam deutet doch ehe auf 8x2.

LovesuckZ
2004-02-13, 21:48:25
Original geschrieben von Winter[Raven]
@ Love
Wie komsta auf 6x2 ? Alles was letzens kam deutet doch ehe auf 8x2.

Nun, die "Aussichten" von Demirug und uttar lassen einen daran zweifeln :)
Auch, wenn sie nicht alles wissen koennen, klingt es doch plausibler als argumentationslose Annahmen, es werde eine 8x2 Architektur haben.
Nunja, ausserdem, wie soll man neues AA, deutlich veraendterte CineFX Unit, PS/VS3.0 und 8x2 in rund 40 Millionen Transistoren stecken?
Deswegen nehme ich auch an, dass der r420 nur ein "nv30" werden koennte. Unter PS2.0/VS2.0 Anwendungen sehr stark, aber kaum verbesserte Features.

Quasar
2004-02-13, 21:52:10
Original geschrieben von aths
Entweder 8x2, oder trilineare TMUs.
Inwieweit ist das der Pixelfüllrate dienlich?

thop
2004-02-13, 21:52:10
Was mich ja fast schon mehr als die Leistung interessiert ist die Wärementwicklung vom R420! Ich bin nämlich ein sehr großer Freund von ruhigen Grafikkarten. Am liebsten natürlich passiv, aber das ist vermutlich utopisch.

Gibs da in die Richtung irgendwelche Neuigkeiten? Ich hab nämlich nicht so große Lust den Leistungsschub nachher mit einem nVFön bezahlen zu müssen.

Den zusätzlichen Festplatten-Stecker werden wir bis PCI-X wohl auch nicht mehr los oder?

Quasar
2004-02-13, 21:53:00
thop,

sei froh, wenn du kein eigenes Netzteil für die Dinger brauchst.

ironMonkey
2004-02-13, 22:11:46
Also ich bleib bei 500/500 und 12x1 pipes, was auch hin kommen könnte, 8x1 ist zu wenig da müssten die schon mehr an der mhz Schraube drehen um was an Leistung rauszuholen und 30% sollten es schon mehr sein als die 9800XT hat, alleine ein r350 in 013 Fertigung sollte doch in die nähe der 500mhz kommen.


Stromerbrauch wird wohl so um die 90 - 100 Watt liegen.............lassen wir uns überraschen;D



Gruß

CrazyIvan
2004-02-13, 22:13:30
Wär ja auch nix neues mehr.

Wieviel "mehr" Watt kann eigentlich der PCI-Express Slot bereitstellen?
Oder unterscheidet der sich in der Hinsicht gar net vom AGP?

reunion
2004-02-13, 22:24:13
Original geschrieben von misterh
NV40
- 8*2
- ~ 600
- ~ 750 (eff 1500)
R420
- 8*1
- ~ 500
- ~ 500 (eff 1000)

Nun das wird der interessanste wettbewerb :D

Falls die daten von NV40 bzw R420 stimmt.

Unrealistisch...

ATi wird bei R420 sicherlich mehr ändern als nur die Taktraten, also ich tippe entweder auf 8x1 tri oder auf 12x1bi(oder vielleicht auch 12x1tri ;)). Also ein Füllratenmonster...(Die Frage ist nur ob mit oder ohne PS3.0)

Bei NV vermutlich 6x2(bi oder tri, 8x2 wohl eher unrealstisch, da zuviele Transitoren draufgehn würden), mit PS3.0 Support und hoffentlich konkurrenzfähigen AA...

mfg
reu

Godmode
2004-02-13, 22:24:23
Ich möcht gern wissen wie die Kühler für diese Monster ausehen werden. FxFlow2 ist ja eigentlich ein gutes Konzept aber ob es für den neuen Chips reichen wir ist ne andere Frage.

thop
2004-02-13, 22:24:25
Hab ich eben auf rage3d.com gesehen (habs hier noch nich gesehen also mea culpa wenns alte news sind), geklaut von http://www.anandtech.com/video/showdoc.html?i=1966


We have been hearing about R420 for quite some time now and recently the name R423 has been in the headlines. As you can guess, R420 is the AGP successor to the R350 (Radeon 9800) while R423 is a PCIe version of the R420. The specs on the two GPUs are as follows:

- 0.13-micron low-k manufacturing process
- 160M transistors
- ~500MHz core clock
- 8 pipe design
- 6 vertex engines
- Improvements to all of the basic architectural features (shader engines, AA, etc...)
- 256MB 256-bit GDDR3 (~1GHz data rate)
- Single slot design

The R420/423 chips will offer twice the pixel fill rate and vertex throughput of the R350 core, as well as increases in memory bandwidth. Initial indications show that there may be two versions of the R420/423 with different memory clocks; one design calls for ~1GHz GDDR3 memory while the other calls for slower DDR1 memory.


Single Slot Design bezieht sich auch auf die Kühlung nicht wahr?

Ailuros
2004-02-14, 00:15:17
Original geschrieben von LovesuckZ
Nun, die "Aussichten" von Demirug und uttar lassen einen daran zweifeln :)
Auch, wenn sie nicht alles wissen koennen, klingt es doch plausibler als argumentationslose Annahmen, es werde eine 8x2 Architektur haben.
Nunja, ausserdem, wie soll man neues AA, deutlich veraendterte CineFX Unit, PS/VS3.0 und 8x2 in rund 40 Millionen Transistoren stecken?
Deswegen nehme ich auch an, dass der r420 nur ein "nv30" werden koennte. Unter PS2.0/VS2.0 Anwendungen sehr stark, aber kaum verbesserte Features.

Wenn Uttar nicht so uebertrieben wild und kreativ ueber ein paar insider infos spekulieren wuerde, dann waere er auch nie auf den falschen Pfad gekommen.

Von dem abgesehen kann man sich leicht krumm lachen wie gross die Verwirrung so langsam mit solchen Architekturen sein kann. Jegliche Warnung dass Vorraussagen und Spekulationen zu gefaerlich sind und dass man sehr leicht damit auf die Nase fallen kann war und ist ja vergebens.

Falls es helfen sollte nicht alles stimmt in Anand's Preview, Speicher und Taktraten wohl schon; der Rest ist Quatsch.

Ich sehe FUAD hat bis jetzt noch nicht nachgeladen....schade :(

:D

Ailuros
2004-02-14, 00:19:17
Original geschrieben von Winter[Raven]
@ Love

Wie komsta auf 6x2 ? Alles was letzens kam deutet doch ehe auf 8x2.

http://www.beyond3d.com/forum/viewtopic.php?t=10163

Uebrigens ist 600/700 wohl eher ein Traumwunsch fuer NV40.

Gast
2004-02-14, 05:27:09
Original geschrieben von aths
16x1? Wie viele ROPs pro Pipe?
Soviele wie beim RV360(auch in 130nm low-k) - Ein schlichte Verbreiterung der GPU ohne grössere Änderungen in der Architektur! Daher wären die Entwicklungskosten gering und die Fertigung dank "Test" mit dem RV360 ausgereift. So sollte der Chip bezahlbar bleiben und ordentlich Leistung haben, eventuell kommt noch eine theoretische Schader 3.0 Unterstützung dazu, die aber so nutzbar ist wie ne GF5200 bei Doom3*eg*. Ein 512bit Interface käme frühstens mit den Refresches. 16 Speicherchips sind zwar schon üblich bei den 256MB Karten aber fast 20 Layer?:krank:
Sollten dann aber erste 512bit Boards escheinen, so wird beim Speichertakt gespart, was dann ja auch sinn macht.
Wenn man jetzt noch 8xMSAA "freischaltet", sollte man die Zeit bis zum R500 überbrücken können, der ja der ursprüngliche R400 ist und der R420(ursprünglich R390, wurde aber umbenannt) weitesgehend auf dem R300 basiert.

Quasar
2004-02-14, 09:27:55
Original geschrieben von Gast
[...]theoretische Schader 3.0 Unterstützung dazu, die aber so nutzbar ist wie ne GF5200 bei Doom3*eg*.
[...]Wenn man jetzt noch 8xMSAA "freischaltet",[...]
....oder so nutzbar wie TruForm in R>200? F-Buffer anyone? *eg*

Daß man 8xMSAA einfach so freischalten kann, glaube ich nicht. Dazu müsste das Setup schon vorbereitet sein, sprich, es würde entweder dem Kunden seit knapp zwei Jahren vorenthalten oder man müsste es eben doch ändern.

Demirug
2004-02-14, 09:43:44
Original geschrieben von Quasar
....oder so nutzbar wie TruForm in R>200? F-Buffer anyone? *eg*

Dann müssten sie aber auch noch was am F-Buffer tun. Im Moment scheint das ganze nicht so 100% DX konform zu sein. ATI wollte mal längere Shader (2.X) über den F-Buffer zur Verfügung stellen ist dann aber schnell wieder zurückgerudert.

Wenn PS 3.0 dann tippe ich eher auf eine Branch Unit am Ende der PS-Pipeline. Zumindestens für die statischen Branches, die wohl erst mal wichtiger sind, wäre das eine einigermassen brauchbare Lösung. Nur würde dann jeder Branch eine Phasewechsel verursachen. Phasenwechsel sind tendenziel schlecht.

Gast
2004-02-14, 10:12:51
Der R300 ist schon zu 8xMSAA fähig:
www.forum-3dcenter.org/vbulletin/showthread.php?threadid=122696&perpage=20&pagenumber=2Original geschrieben von Ailuros
Uebrigens ist 8x sparse oder sogar hoeher schon auf R3xx moeglich, technisch gesehen. Eins der Gruende warum es nicht als Option erschien war wohl Leistung und die Groesse des Framebuffer. ATI loop beim AA mit jeweils 2x samples. Anstatt 3*2xAA=6*AA, loopt man einfach mehrere Male und koennte theoretisch 4*2xAA=8*AA, 6*2xAA=12*AA usw. bekommen.
www.3dcenter.de/artikel/2003/11-06.php
Original geschrieben von Eric Demers
Es gibt immer noch keine einzige PC-Grafikkarte, die solch eine Anti-Aliasing Qualität bietet, wie wir es tun. Wir haben nicht nur ein programmierbares Muster (das momentan als "sparse" realisiert ist), wir sind auch die einzige Firma, die gammakorrigiertes Anti-Aliasing anbietet, was einen deutlichen Qualitätsanstieg bedeutet. Ehrlich, wir haben die besten 8x und sogar "16x" Samplinglösungen im kommerziellem PC-Markt angeschaut und niemand erreicht auch nur annähernd unsere Qualität. Aber wir suchen immer nach Verbesserungsmöglichkeiten. Etwas, das man dabei nicht außer Acht lassen darf ist, dass bei der Verwendung eines verlustfreien Algorithmus, wie wir es tun (verlustbehaftete können die Qualität nur senken), ein sehr hoher Speicherbedarf durch den Backbuffer entstehen kann. Bei 1600x1200 mit 6xAA benötigt unser Buffer über 100 MB des lokalen Speicherplatzes. Eine Erhöhung auf 8xAA hätte einen Bedarf von über 128MB ergeben. Folglich müssen mehr Subpixel bei einem verlustlosen Algorithmus entweder durch Änderungen des Algorithmus oder durch einen größeren lokalen Speicher ausgeglichen werden. Wir erforschten Sachen wie zufällige Änderungen des programmierbaren Musters, aber das dadurch bedingte niederfrequente Rauschen war schlimmer als die Verbesserungen in der Anordnung der Subpixel. Bevor man nicht zwischen 32 und 64 Subpixel hat, ist die Einführung zufälliger Variationen keine gute Idee. Deshalb forschen wir nach anderen Lösungen und Algorithmen. Momentane und zukünftige Benutzer werden mit unseren Lösungen glücklich sein. Bleibt dran.

Xmas
2004-02-14, 10:22:32
Original geschrieben von Gast
Der R300 ist schon zu 8xMSAA fähig:
Das Interview sagt überhaupt nichts zu einer angeblichen 8xAA-Fähigkeit des R300, und Ailuros kann es wohl kaum mit Sicherheit wissen.
Ich denke, dass dem R300 sowohl in Theorie als auch Praxis diese Fähigkeit fehlt. Das wäre nämlich reine Verschwendung von Transistoren gewesen.

LovesuckZ
2004-02-14, 10:24:11
Original geschrieben von Gast
Soviele wie beim RV360(auch in 130nm low-k)[...]

Ist das nicht der Grund, warum die Karten bei AA und sehr hohen Aufloesungen so einbrechen?
Wenn ja, waere dies keine gute Idee...

Gast
2004-02-14, 10:29:02
Wenn ja sollten sie doch "vollständige" R3x0 Pipes nehmen. Aber sind die RV3x0 nicht alles halbe R3x0 Chips?

Godmode
2004-02-14, 10:34:50
Ich frage mich ob die Shader 3.0 jetz am Anfang gleich so wichtig sind? Glaub die Software-Entwicker jetz schon Shader für VS und PS 3.0?

Demirug
2004-02-14, 10:49:19
Original geschrieben von bans3i
Ich frage mich ob die Shader 3.0 jetz am Anfang gleich so wichtig sind? Glaub die Software-Entwicker jetz schon Shader für VS und PS 3.0?

Ja, sie sind wichtig. Ob man sie allerdings auch wirklich nutzen wird hängt davon ab in wie weit sich die theoretischen Geschwidigkeitsvorteile auch in der tatsächlichen implementierung der Chips niederschlagen.

Viele der aktuellen und noch kommenden Spiele werfen mit massenhaft Shadern um sich. Dabei sind es oft nur kleine Varianten die zwei Shader unterscheiden. Wenn man schlau ist erzeugt man diese ganzen Shader aus wenigen Basisshader welche die entsprechenden Varianten enthalten. Beim Compileren wird dann entsprechend für jede mögliche Variante ein eigener Shader erstellt. PS 3.0 macht dies überflüssig weil man die Varianten per static branching zur Laufzeit auswählen kann. In der Theorie sollte das schneller sein als ständig Shader zu wechseln.

Ailuros
2004-02-14, 11:19:43
Original geschrieben von Xmas
Das Interview sagt überhaupt nichts zu einer angeblichen 8xAA-Fähigkeit des R300, und Ailuros kann es wohl kaum mit Sicherheit wissen.
Ich denke, dass dem R300 sowohl in Theorie als auch Praxis diese Fähigkeit fehlt. Das wäre nämlich reine Verschwendung von Transistoren gewesen.

Unter der seconds per frame Logik ist vieles moeglich und ich schrieb es auch nur mit dem Gedanken im Kopf.

Ist im Gegenteil 16xMSAA unmoeglich auf =/>NV25 (von der Leistung abgesehen)?

Xmas
2004-02-14, 12:51:46
Original geschrieben von Ailuros
Ist im Gegenteil 16xMSAA unmoeglich auf =/>NV25 (von der Leistung abgesehen)?
Ja, es fehlt einfach die entsprechende Logik dafür. Es muss schließlich vom Triangle Setup eine entsprechende Anzahl an Samples berechnet und die Coverage-Maske bis zum Ende der Pipeline zu den ROPs weitergegeben werden. Diese müssen entsprechend oft loopen können und schließlich muss der On-Chip Tilebuffer bzw. die FB-Kompression dafür ausgelegt sein, genauso wie die Downsampling-Logik.

reunion
2004-02-14, 13:33:19
Original geschrieben von Gast
[...] eventuell kommt noch eine theoretische Schader 3.0 Unterstützung dazu[...]

Ich glaube nicht an eine "theoretische" PS3.0 unterstützung beim R420.
Laut ATi sollte man ja immer die höchstmögliche zur verfügung stehende PS-Version verwenden. Bei einer nur über den F-Buffer und damit wohl extrem langsamen PS3.0 realisierung würde diese "Taktik" gewaltig nach hinten losgehn...

Deshalb bin ich der Meinung entweder konkurrenzfähigen PS3.0 oder gar keinen. (Und da der R420 ja größtenteils auf dem R300 basieren soll eher gar keinen)

mfg
reu

Tarkin
2004-02-14, 13:55:18
Infos bzgl. R420 von Hellbinder @ Nvnews

http://www.nvnews.net/vbulletin/showthread.php?s=&threadid=24857


"... ATi had to decide on an immidiate course of action for the next Gen part that they would need now. That project is known as Loki or R420. Which from what I understand targeted at nothing less than at *least* doubbling the Power of the R300 Series in every area and in some casses Trippling it. There is not a lot of Finesse going on in there like the R500 will have. The R420 has one goal and one goal only... having the Raw rendering power to put ATi in the performance crown for the next year. It is seriously that simple. in fact ATi is this go round willing to sacrifice Margins for Performance. Something they are not normally given to. In other words the R420 *WILL*, and there can be no doubt, be faster than the Nv40. For the Simple reason that They are only at about 160M Transistors with Low-K and a new Transistor process that doubbles transistor state speed. Thus... They will be able to Clock the Core through the Roof just like the RV360 can now. Except the process is will be in its second generation for ATi and they have improved on it. On top of that they are using some seriously fast ram and an improved memory controler.

Floating point performance will be a HUGE leap over the current crop of cards. As will Fill rate, and a considerable Jump in Bandwidth. The Pipelines of the R420 are massively powerful as it is, each one more like Two pipelines than one..."

Neo69
2004-02-14, 14:00:22
@tarkin: auch das beißt sich mit anands neuem artikel, denn 500mhz ist ja nicht gerade "through the roof"....einer lügt :-)

schon sehr spannend, wie es in den nächsten monaten weiter gehen wird.

Quasar
2004-02-14, 14:12:58
Original geschrieben von Tarkin
Infos bzgl. R420 von Hellbinder @ Nvnews

http://www.nvnews.net/vbulletin/showthread.php?s=&threadid=24857


"... ATi had to decide on an immidiate course of action for the next Gen part that they would need now. That project is known as Loki or R420. Which from what I understand targeted at nothing less than at *least* doubbling the Power of the R300 Series in every area and in some casses Trippling it. There is not a lot of Finesse going on in there like the R500 will have. The R420 has one goal and one goal only... having the Raw rendering power to put ATi in the performance crown for the next year. It is seriously that simple. in fact ATi is this go round willing to sacrifice Margins for Performance. Something they are not normally given to. In other words the R420 *WILL*, and there can be no doubt, be faster than the Nv40. For the Simple reason that They are only at about 160M Transistors with Low-K and a new Transistor process that doubbles transistor state speed. Thus... They will be able to Clock the Core through the Roof just like the RV360 can now. Except the process is will be in its second generation for ATi and they have improved on it. On top of that they are using some seriously fast ram and an improved memory controler.

Floating point performance will be a HUGE leap over the current crop of cards. As will Fill rate, and a considerable Jump in Bandwidth. The Pipelines of the R420 are massively powerful as it is, each one more like Two pipelines than one..."

Ist das c&p? Sind ja massiv viele Schreibfehler für einen Muttersprachler drin, auch so untypische, wie Großschreibung mitten im Satz....


Wie dem auch sei, da scheint ja jemand massiven Gefallen an ATis Aquisition von intrinsitec (oder wie hiessen die?) zu finden, wenn er schon eine Woche nach deren Übernahme die Hälfte von deren Technologie im R420 sehen will... =) (Oder kommt der doch erst im März 2005?)

Demirug
2004-02-14, 14:55:05
Hellbinder mal wieder. Das Loki (warum krammt er eigentlich das wieder raus) doppelt bis 3 mal so schnell wie die R300 Familie sein soll hat er ja schon damals erzählt. Nur welcher Chip der R300 Serie ist nun die Referenz?

Das gleiche mit den tollen neuen Transitoren. Doppelt so schnell wie welcher Process? RV360 wird wenn mich nicht alles täuscht mit 500MHz verkauft. Das Dach ist bei mir aber noch ein Stück höher den bei 500MHz waren wir schon mal.

Das beste sind aber die Pipelines die so Leistungsstark wie zwei sind. Ist schon blöd wenn man sich nicht von den alten Konzepten lösen kann und sich nun was einfallen lassen muss wie man einen 8 "Pipeline" Chip verteitigt nachdem man bei der vorherigen Generation alles über die Anzahl der Pipelines definiert hat.

Zu seinen Blicken in die Kristalkugel sage ich jetzt mal nichts.

@Quasar: Die Firma heisst Intrinsity und ich glaube nicht das sich Hellbinder darauf bezogen hat. Falls doch ist er mal wieder völlig abgehoben.

aths
2004-02-14, 15:32:25
Original geschrieben von Quasar
Inwieweit ist das der Pixelfüllrate dienlich? Gar nicht. Das Marketing nehme ich an dieser Stelle nicht ganz ernst. Sofern der Spruch wirklich stimmt, bliebe kaum was anderes als 3x 4x1.

aths
2004-02-14, 15:36:59
Original geschrieben von Gast
Soviele wie beim RV360(auch in 130nm low-k) - Ein schlichte Verbreiterung der GPU ohne grössere Änderungen in der Architektur! Nur 2 ROPs pro Pipe wäre etwas dürftig. Schon GF3 hat 4 derer.


Original geschrieben von reunion
Unrealistisch...

ATi wird bei R420 sicherlich mehr ändern als nur die Taktraten, also ich tippe entweder auf 8x1 tri oder auf 12x1bi(oder vielleicht auch 12x1tri ;)).Für 12x1 ist die Bandbreite nicht da.

Demirug
2004-02-14, 15:45:31
Original geschrieben von aths
Nur 2 ROPs pro Pipe wäre etwas dürftig. Schon GF3 hat 4 derer.

NV2X betreibt in dieser Beziehung auch Brute Force.

In Verbindung mit MSAA reichen 2 ROPs pro Pipeline für die meisten Pixel völlig aus. Auch bei 6xAA. Man muss nur Wissen wie man es macht und ATI weiss es.

Demirug
2004-02-14, 16:21:25
Also fassen wir mal das was inzwischen so alles aufgetaucht ist zusammen.

R420:
- TSMC 0,13 Low-K
- 160M Transitoren
- etwa 500 MHz Core
- Speichertakt entsprechend Verfügbarkeit (wohl 500-600 MHZ)
- 8 "extreme" Pixel-Pipelines

Ein Pixelprozessor mit "Extremen" Pixel-Pipelines berechnet bei gleichem Takt pro Sekunde etwa 1,5 mal so viele Pixel wie ein R300 Pixelprozessor. Dieser Wert unterliegt natürlich Schwankungen in welche von verwendeten Shaderprogramm bestimmt werden.

reunion
2004-02-14, 16:39:52
Original geschrieben von aths
Für 12x1 ist die Bandbreite nicht da.

Warum??
Der R360 taktet mit 412mhz, hat 8 Pipelines und kommt mit 365mhz Speichertakt aus, wenn der R420 jetzt 12 pipes hätte(plus etwas höherer Takt) würde das die Füllrate um nichtmal 75% erhöhen, die Speicherbandbreite könnte man allerdings locker verdoppeln...

reunion
2004-02-14, 16:43:22
Original geschrieben von Demirug
Also fassen wir mal das was inzwischen so alles aufgetaucht ist zusammen.

R420:
- TSMC 0,13 Low-K
- 160M Transitoren
- etwa 500 MHz Core
- Speichertakt entsprechend Verfügbarkeit (wohl 500-600 MHZ)
- 8 "extreme" Pixel-Pipelines

Ein Pixelprozessor mit "Extremen" Pixel-Pipelines berechnet bei gleichem Takt pro Sekunde etwa 1,5 mal so viele Pixel wie ein R300 Pixelprozessor. Dieser Wert unterliegt natürlich Schwankungen in welche von verwendeten Shaderprogramm bestimmt werden.

Hab ich was verpasst??
Was sind bitte "extreme" Pixel-Pipelines??
Was ist bei einer "extremen" Pipe anders als bei einer "normalen" damit sie 50% schneller ist???

mfg
reu

ironMonkey
2004-02-14, 16:44:12
Alles in allem mit den ganzen Gerüchten haut das dann hin, wenn die 8"aufgebohrten"pipes das 1,5 fache schaffen wie die des R300 ist das ja Theoretisch das gleiche wie 12x1 zusammen mit 500mhz takt müsste das Teil eine brachiale Leistung haben........Speichertakt wird wohl zuerst 500mhz sein und später beim refresh auf 50 mhz gesteigert oder so und vieleicht gibts dann ja nochmal ein sondermodell wie die XT.





Gruß

Demirug
2004-02-14, 16:53:38
Original geschrieben von reunion
Hab ich was verpasst??
Was sind bitte "extreme" Pixel-Pipelines??
Was ist bei einer "extremen" Pipe anders als bei einer "normalen" damit sie 50% schneller ist???

mfg
reu

Das "Extreme" kommt von Dave Baumann der ebenfalls behauptet hat das die Infos von Anand wahrscheinlich von einem Kartenbauer kommen. Den Thread musst du dir bei B3d aber selber suchen.

Nachdem man beim R300 damit geworben hat das man "echte" 8 "Pixel-Pipelines" hat muss man sich eben beim R420 was neues einfallen lassen wenn dieser auch nur 8 "Pipelines" hat.

Die Änderung besteht wahrscheinlich darin das man zusätzliche FPU-Stufen eingefügt hat. Unter Umständen auch noch Tri-TMUs.

Gast
2004-02-14, 18:33:46
@ demi

du als Entwickler auf welche Art von Graka würdest du zurückgreifen?
Einen immens schnellen r420 sagen wir mal 30% schneller als NV40
oder eben auf einen NV40 30% langsamer als ein R420 dafür aber einfach langsamer und PS3.0.

Hier ist die Frage was macht mehr Sinn?? Vermultich wird sich der grossteil der Käufer auf das schnellere Produkt werfen, weil das ja immer noch der hauptgrund beim Kauf einer Graka ist. Aber was macht eben der Entwickler?

Quasar
2004-02-14, 18:54:46
Da wir hier im Speku-Forum sind, spekuliere ich als Nicht-Entwickler mal, daß einem solchen die Speed einer Graka recht egal ist, solange seine Shader und was sonst noch, nicht als Overnight-Cronjob laufen müssen, sonder er sie zur Laufzeit auch zu Gesicht bekommt.

Godmode
2004-02-14, 19:15:44
Ich frage mich eher warum John Carmack auf der NV30 Architektur enwickelt hat. Er hat extra für die NV30 Architektur einen eigenen Renderingpfad in Doom3 implementiert, weil die FXen sonst extrem lahm gewesen wären. John Carmack arbeitet schon seit der Geforce mit Nvidia Produkten, aber warum genau beim NV30, der doch erhebliche Arbeit für den Softwareentwickler bringt? Er hätte doch einfach nur einen Renderingpfand implementieren können der für alle Grakas gleich ist, dafür hätte er dann weniger arbeit, aber Fx wär halt dann langsam. Macht er dass um eine größere Kundengruppe anzusprechen oder was sind da die Hintergründe. Oder bekommt er Geld von Nvidia? Oder gefällt ihm einfach Nvidia besser als ATI? Mit dem Nv30 kann man sicher mehr Shader implementieren oder besser gesagt komplexere als mit dem R300, aber was bringen krasse Shader die dann sowiso zu langsam sind?

Wallman
2004-02-14, 19:26:08
Original geschrieben von Gast

du als Entwickler auf welche Art von Graka würdest du zurückgreifen?
Einen immens schnellen r420 sagen wir mal 30% schneller als NV40
oder eben auf einen NV40 30% langsamer als ein R420 dafür aber einfach langsamer und PS3.0.



Also ob der NV40 30%langsamer sein wird als der r420 ist doch noch lange nicht gesagt.
Ist denn schon wirklich was über die tatsächliche Leistung bekannt? Eigentlich nicht!


Ich frage mich eher warum John Carmack auf der NV30 Architektur enwickelt hat. Er hat extra für die NV30 Architektur einen eigenen Renderingpfad in Doom3 implementiert, weil die FXen sonst extrem lahm gewesen wären. John Carmack arbeitet schon seit der Geforce mit Nvidia Produkten, aber warum genau beim NV30, der doch erhebliche Arbeit für den Softwareentwickler bringt? Er hätte doch einfach nur einen Renderingpfand implementieren können der für alle Grakas gleich ist, dafür hätte er dann weniger arbeit, aber Fx wär halt dann langsam. Macht er dass um eine größere Kundengruppe anzusprechen oder was sind da die Hintergründe. Oder bekommt er Geld von Nvidia? Oder gefällt ihm einfach Nvidia besser als ATI? Mit dem Nv30 kann man sicher mehr Shader implementieren oder besser gesagt komplexere als mit dem R300, aber was bringen krasse Shader die dann sowiso zu langsam sind?

Für den Absatz eines Spieles ist es wohl sehr schlecht,
wenn nur 50% aller potentiellen Käufer die benötigte Hardware aufweisen,die man zum spielen benötigt.

seahawk
2004-02-14, 19:28:22
Wir sind immerhin nicht die einzigen, die sich nicht sicher sind, wie sich R420 und NV40 gegeneinander schlagen werden.

500Mhz dürften beim R420 die Obergrenze makieren. Ich würde mit 450-475mhz rechnen.

Der NV40 scheint aber auch niedlich zu werden.

Demirug
2004-02-14, 19:32:26
Original geschrieben von Gast
@ demi

du als Entwickler auf welche Art von Graka würdest du zurückgreifen?
Einen immens schnellen r420 sagen wir mal 30% schneller als NV40
oder eben auf einen NV40 30% langsamer als ein R420 dafür aber einfach langsamer und PS3.0.

Hier ist die Frage was macht mehr Sinn?? Vermultich wird sich der grossteil der Käufer auf das schnellere Produkt werfen, weil das ja immer noch der hauptgrund beim Kauf einer Graka ist. Aber was macht eben der Entwickler?

Wenn der Entwickler ein Abkommen mit einem IHV hat dann wird er natürlich auch primär das Produkt seines Technologiepartner einsetzten.

Ansonsten ist natürlich ein Produkt erforderlich das den tecnischen Ansprüchen der Entwicklung genügt. Will ich 2.0 Shader einsetzten brauche ich eine Karte die 2.0 beherscht. Will ich 3.0 einsetzten brauche ich eben eine 3.0 fähige Karte.

Geschwindigkeit ist auch wieder so eine Sache. Es gibt da zwei gegensätzliche Meinungen. Die einen meinen immer das schnellste einsetzten zu müssen. Die andere Seite plädiert eher für Midrange Hardware damit die Entwickler und Designer nicht so verschwenderisch werden.

Aquaschaf
2004-02-14, 19:33:56
Original geschrieben von bans3i
Ich frage mich eher warum John Carmack auf der NV30 Architektur enwickelt hat. Er hat extra für die NV30 Architektur einen eigenen Renderingpfad in Doom3 implementiert, weil die FXen sonst extrem lahm gewesen wären. John Carmack arbeitet schon seit der Geforce mit Nvidia Produkten, aber warum genau beim NV30, der doch erhebliche Arbeit für den Softwareentwickler bringt? Er hätte doch einfach nur einen Renderingpfand implementieren können der für alle Grakas gleich ist, dafür hätte er dann weniger arbeit, aber Fx wär halt dann langsam. Macht er dass um eine größere Kundengruppe anzusprechen oder was sind da die Hintergründe. Oder bekommt er Geld von Nvidia? Oder gefällt ihm einfach Nvidia besser als ATI? Mit dem Nv30 kann man sicher mehr Shader implementieren oder besser gesagt komplexere als mit dem R300, aber was bringen krasse Shader die dann sowiso zu langsam sind?

PS Leistung ist bei Doom 3 sicher nicht erstrangig, da spielt die Stencil Leistung eine höhere Rolle. Und die FX Karten haben davon eigentlich mehr als genug.

Demirug
2004-02-14, 19:38:44
Original geschrieben von bans3i
Ich frage mich eher warum John Carmack auf der NV30 Architektur enwickelt hat. Er hat extra für die NV30 Architektur einen eigenen Renderingpfad in Doom3 implementiert, weil die FXen sonst extrem lahm gewesen wären. John Carmack arbeitet schon seit der Geforce mit Nvidia Produkten, aber warum genau beim NV30, der doch erhebliche Arbeit für den Softwareentwickler bringt? Er hätte doch einfach nur einen Renderingpfand implementieren können der für alle Grakas gleich ist, dafür hätte er dann weniger arbeit, aber Fx wär halt dann langsam. Macht er dass um eine größere Kundengruppe anzusprechen oder was sind da die Hintergründe. Oder bekommt er Geld von Nvidia? Oder gefällt ihm einfach Nvidia besser als ATI? Mit dem Nv30 kann man sicher mehr Shader implementieren oder besser gesagt komplexere als mit dem R300, aber was bringen krasse Shader die dann sowiso zu langsam sind?

JC hat auch extra einen Pfad für den R200 geschrieben und auch für den R300 hätte er es getan wenn dieser eine einige OpenGL Extension dafür zur Verfügung gestellt hätte. Angeblich gibt es sogar einen Pfad für die Parhelia und auch dem P10/P9 hat er sich angenommen.

In Summe scheinen diese Spezifischen Anpassungen auch nicht sehr aufwendig zu sein. Es gibt da eine Aussage das ein zusätzlicher Pfad die Arbeit von einem Wochenende wäre.

Um die vielen Pfade kommt er sowieso nicht herum. Das ist nun mal der Preis den man für die Freiheiten bei OpenGL zu zahlen hat.

Blutgrätsche
2004-02-14, 19:44:43
Original geschrieben von Demirug
Wenn PS 3.0 dann tippe ich eher auf eine Branch Unit am Ende der PS-Pipeline. Zumindestens für die statischen Branches, die wohl erst mal wichtiger sind, wäre das eine einigermassen brauchbare Lösung. Nur würde dann jeder Branch eine Phasewechsel verursachen. Phasenwechsel sind tendenziel schlecht.
Demirug,
du hast das Thema Branching und Phasen-Wechsel in diesem Thread bereits in Diskussion geworfen. Meine folgende "Bitte" um weitere Erklärung war vergebens, weil du vermutlich meine Frustration (was will er damit sagen, ich kapier es nicht, verdammt) als Arroganz interpetiert hast. Leider nicht ganz unbegründet, da der Stil meiner Bitte eher eine unangemessenen Forderung entsprach. Es wäre mir sehr geholfen, wenn du (oder andere) einige erklärende Sätze hierzu schreiben würden.

Das Phasen-Konzept ist meines Wissens für den R200 eingeführt worden. Die R300 Optimierungs-Doku für Entwickler erwähnt dieses nicht mehr. Leider habe ich nur sehr ungenaue Erinnerungen bzw. Wissen über das Thema (ausser dass ein dependent read gleichbedeutend ist mit einem Phasen-Wechsel).

Mir ist ebenfalls nicht klar, was an Branches so kompliziert sein soll. Es werden einfach alle Pixel-Pfade eines Quads durchlaufen. Das mag nicht gerade optimal sein, allerdings stellt sich die Frage, ob sich eine Optimierung überhaupt lohnt.

Demirug
2004-02-14, 20:36:21
Original geschrieben von Blutgrätsche
Demirug,
du hast das Thema Branching und Phasen-Wechsel in diesem Thread bereits in Diskussion geworfen. Meine folgende "Bitte" um weitere Erklärung war vergebens, weil du vermutlich meine Frustration (was will er damit sagen, ich kapier es nicht, verdammt) als Arroganz interpetiert hast. Leider nicht ganz unbegründet, da der Stil meiner Bitte eher eine unangemessenen Forderung entsprach. Es wäre mir sehr geholfen, wenn du (oder andere) einige erklärende Sätze hierzu schreiben würden.

Nein, ich habe es nicht als Arroganz interpretiert. Ich hatte es eher als einen Wink mit dem Zaunpfahl verstanden. Ich hatte im Anschluss an den CineFX Artikel aber eigentlich bereits verkündet hatte das ich in Zukunft von Texten dieses Umfangs und Schwierigkeitsgrads die Finger lasse. Deswegen hatte ich das ganze dann auch nicht weiter beachtet.

Das Phasen-Konzept ist meines Wissens für den R200 eingeführt worden. Die R300 Optimierungs-Doku für Entwickler erwähnt dieses nicht mehr. Leider habe ich nur sehr ungenaue Erinnerungen bzw. Wissen über das Thema (ausser dass ein dependent read gleichbedeutend ist mit einem Phasen-Wechsel).

Für den R300 wird das Phasenkonzept nicht mehr über die API nach aussen dargestellt. Intern ist es aber nach wie vor vorhanden. Eine Phase besteht immer aus zwei Teilen. Einem Texturteil und einem Rechenteil. Als Texturkoordinaten können dabei immer nur Werte verwendet werden welche in einem vorhergehend Rechenteil bestimmt wurden. Als Rechenteil gilt hier auch das Interpolieren der Koordinaten welche aus dem Vertexshader kommen. In der ersten Phase kann man auch nur diese als Texturkoordinaten nutzen. Ein Dependent Read erzwingt deswegen einen Phasenwechsel. Würde man nur für PS 3.0 das Phasen konzept beibehalten und eine Phase um einen dritten Teil zum Branchen erweitern müsste man um diesen zu erreichen erst die beiden anderen Teile durchlaufen. Um nun nach dem Branch wieder zu den ALUs zu kommen muss man zurück zum Anfang der Pipeline was einen Phasenwechsel erfordert.

Mir ist ebenfalls nicht klar, was an Branches so kompliziert sein soll. Es werden einfach alle Pixel-Pfade eines Quads durchlaufen. Das mag nicht gerade optimal sein, allerdings stellt sich die Frage, ob sich eine Optimierung überhaupt lohnt.

Um einfach alle Möglichkeiten zu durchlaufen braucht man viel Rechenleistung und viele Zwischenspeicher. Beides ist teuer. Zudem würde man dann auch alle Textursamples durchführen die man am Ende gar nicht braucht. Was man aber ohne Branchuint überhaupt nicht lösen kann sind Schleifen. Das sich eine Optimierung eines Branchs durchaus lohnen kann zeigt folgendes Beispiel.

Ein Gegenstand reflektiert die Umgebung. Allerdings nicht überall gleichmässig und an manchen Stellen überhaupt nicht. Diese Information speichert man nun in einer Textur. Im PS 2.0 Model berechnet man die Reflektion immer und holt sich aus der Cubemap die Farbe des entsprechenden Umgebungspunktes. Anschliessend wird dann mit dem Gewichtungsfaktor multipliziert und zum Endergebniss addiert. Im PS 3.0 Model würde man wenn der Faktor einen Mindestgrenze nicht erreicht einfach die ganze Berechung überspringen.

Kompliziert ist das ganze weil es die Sync innerhalb der Pipeline stört. Jeder Pixel kann sich nun eine Unterschiedliche Anzahl von takten innerhalb der Pipeline aufhalten. Es können sich sogar Pixel überholen. Zudem braucht man für jeden Pixel einen eigenen Instruktion Pointer weil ja nun jeder an einer anderen Anweisung im Programm sein kann. Bei einem Phasenkonzept wird das ganze noch heftiger weil sich ja nun die Länge einer Phase pro Pixel verändern kann. Einzelne Pixel können sogar ganze Phase überspringen. Wie gesagt steigt bei einer Lösung mit nur einer Branchunit als dritter Teil die Anzahl der Phasen. ATI gibt nun selbst an das die Effizienz des Phasenkonzepts mit zunehmender Anzahl der Phasen sinkt.

reunion
2004-02-14, 20:37:24
Original geschrieben von Demirug
Das "Extreme" kommt von Dave Baumann der ebenfalls behauptet hat das die Infos von Anand wahrscheinlich von einem Kartenbauer kommen. Den Thread musst du dir bei B3d aber selber suchen.

Nachdem man beim R300 damit geworben hat das man "echte" 8 "Pixel-Pipelines" hat muss man sich eben beim R420 was neues einfallen lassen wenn dieser auch nur 8 "Pipelines" hat.

Die Änderung besteht wahrscheinlich darin das man zusätzliche FPU-Stufen eingefügt hat. Unter Umständen auch noch Tri-TMUs.

Achso, thx...
Also sind dass im Grunde auch nur ganz normale Pipes und nichts weiter als ein Marketingausdruck für zusätzliche FPU-Stufen oder tri-TMUs?

Demirug
2004-02-14, 20:41:00
Original geschrieben von reunion
Achso, thx...
Also sind dass im Grunde auch nur ganz normale Pipes und nichts weiter als ein Marketingausdruck für zusätzliche FPU-Stufen oder tri-TMUs?

Ja, so verstehe ich das.

ATI muss nach der R300 Marketingkampange zu solchen Mitteln greifen.

Ailuros
2004-02-14, 21:35:51
Original geschrieben von Xmas
Ja, es fehlt einfach die entsprechende Logik dafür. Es muss schließlich vom Triangle Setup eine entsprechende Anzahl an Samples berechnet und die Coverage-Maske bis zum Ende der Pipeline zu den ROPs weitergegeben werden. Diese müssen entsprechend oft loopen können und schließlich muss der On-Chip Tilebuffer bzw. die FB-Kompression dafür ausgelegt sein, genauso wie die Downsampling-Logik.


Unter Bedingungen sind wohl schon 4 loops x 4 moeglich, aber ich treibe die Sache mal wieder OT, was ich eigentlich vermeiden sollte; ich sagte abgesehen von Geschwindigkeit. Uebrigens wieviele samples unterstuetzte die erste OGSS Implementierung bei NVIDIA?

Für 12x1 ist die Bandbreite nicht da.

Und wieso ploetzlich nicht? Was passierte mit der 16 T-ops Theorie auf einmal? ;)

aths
2004-02-14, 23:26:33
Original geschrieben von Ailuros
Unter Bedingungen sind wohl schon 4 loops x 4 moeglich, aber ich treibe die Sache mal wieder OT, was ich eigentlich vermeiden sollte; ich sagte abgesehen von Geschwindigkeit. Uebrigens wieviele samples unterstuetzte die erste OGSS Implementierung bei NVIDIA? 16. MSAA stellt allerdings ganz andere Forderungen an die HW, als OGSSAA.

Ailuros
2004-02-14, 23:38:02
Original geschrieben von aths
16. MSAA stellt allerdings ganz andere Forderungen an die HW, als OGSSAA.

4 loops sind trotzdem nicht unmoeglich unter Vorraussetzungen auf NV25/3x AFAIK.

Der 16xOGSS Teil war eher auf die 640*480*16 Begrenzung orientiert (bei GTS).

Xmas
2004-02-15, 00:27:31
Original geschrieben von Ailuros
Unter Bedingungen sind wohl schon 4 loops x 4 moeglich, aber ich treibe die Sache mal wieder OT, was ich eigentlich vermeiden sollte; ich sagte abgesehen von Geschwindigkeit. Uebrigens wieviele samples unterstuetzte die erste OGSS Implementierung bei NVIDIA?
16, das ist aber hier nicht relevant weil man OGSS mit theoretisch beliebig vielen Samples machen kann, ohne spezielle Hardwareunterstützung dafür zu haben (solange Speicherplatz und maximale Rendertarget-Größe mitspielen). Einfach in 4096x4096 rendern und mittels der Renderpipelines mit bilinearem Filter bis auf die Bildschirmgröße downsamplen, evtl. mit Multipass. Das kann auch jedes Programm von Hand zu Fuß erledigen, oder eben der Treiber macht es automatisch.

Bei Multisampling sieht die Sache ganz anders aus. Da muss das Triangle Setup mitspielen. Da müssen Informationen vom Anfang zum Ende der Pipeline übermittelt werden. Und schließlich müssen diverse Teile des Chips weitere Betriebsmodi kennen, es muss schlicht mehr Aufwand in Hardware getrieben werden. Ich weiß nicht worauf du hier mit den "4 Loops" hinauswillst. Wir sprechen doch noch von den ROPs? Es bringt nichts, diese so oft loopen zu lassen, wenn der Rest des Chips mit den zusätzlichen Samples nichts anfangen kann.

reunion
2004-02-15, 10:46:06
Original geschrieben von Demirug
Ja, so verstehe ich das.

ATI muss nach der R300 Marketingkampange zu solchen Mitteln greifen.

Hmmm, wenn man schon mit 8 extremen Pipes wirbt dann werden es wohl auch 8pipes werden...
Dann stellt sich mir natürlich die Frage für was man die zusätzlichen 53Mio Transistoren benötigt?
Für tri-TMUs wohl kaum...
Vielleicht doch PS3.0?

LovesuckZ
2004-02-15, 10:57:57
Original geschrieben von reunion
Dann stellt sich mir natürlich die Frage für was man die zusätzlichen 53Mio Transistoren benötigt?


Um die Rohperformance zu erhoehen. Tri-TMU, weitere FPU, zusaetzliche Vertexshader oder ein Vertexshaderarray etc.

MechWOLLIer
2004-02-15, 17:51:33
Ihr redet immer von 8x1 Bi, 8x1 Tri oder 12x1 Pipelines, allerdings kapier ich da nur Bahnhof. Imo haben diese Pipelines irgendwas mit der Füllrate zu tuen, aber was tuen sie genau und wie kann man sich das ungefähr Vorstellen?? Was ist an einer Bilinearen und einer Trilinearen Pipeline anders und wie bewirkt sich das aus??
MAg ja für die einige einfach sein, aber ich versteh da sogut wie nichts:D

Quasar
2004-02-15, 18:30:30
Normalerweise kann eine GPU pro Pipeline ein Pixel bearbeiten. Anzahl * Takt der Pipelines ergeben also die Pixelfüllrate.

Zusätzlich sind den Pipelines mehr oder minder fest die TMUs (Texture Mapping Units) zugeordnet, die die Pixel dann mit Texturen bekleben.
Die können meist ein bilineares Textursample pro Takt verarbeiten, zwei davon lassen entweder zwei bi-Samples zu oder können diese zu einem trilinear-gefilterten Sample verrechnen.

Damit haste dann 8x1bi, 8x2bi, 8x1tri usw...

Verständlich? (Technisch inkorrekt?)

MechWOLLIer
2004-02-15, 19:19:04
Original geschrieben von Quasar
Normalerweise kann eine GPU pro Pipeline ein Pixel bearbeiten. Anzahl * Takt der Pipelines ergeben also die Pixelfüllrate.

Zusätzlich sind den Pipelines mehr oder minder fest die TMUs (Texture Mapping Units) zugeordnet, die die Pixel dann mit Texturen bekleben.
Die können meist ein bilineares Textursample pro Takt verarbeiten, zwei davon lassen entweder zwei bi-Samples zu oder können diese zu einem trilinear-gefilterten Sample verrechnen.

Damit haste dann 8x1bi, 8x2bi, 8x1tri usw...

Verständlich? (Technisch inkorrekt?)

THX, jetzt hab ichs glaub ich kapiert=)

Blutgrätsche
2004-02-16, 11:25:46
Original geschrieben von Demirug
Für den R300 wird das Phasenkonzept nicht mehr über die API nach aussen dargestellt. Intern ist es aber nach wie vor vorhanden. Eine Phase besteht immer aus zwei Teilen. Einem Texturteil und einem Rechenteil. ... Ein Dependent Read erzwingt deswegen einen Phasenwechsel. Würde man nur für PS 3.0 das Phasen konzept beibehalten und eine Phase um einen dritten Teil zum Branchen erweitern müsste man um diesen zu erreichen erst die beiden anderen Teile durchlaufen. Um nun nach dem Branch wieder zu den ALUs zu kommen muss man zurück zum Anfang der Pipeline was einen Phasenwechsel erfordert. ... Einzelne Pixel können sogar ganze Phase überspringen. Wie gesagt steigt bei einer Lösung mit nur einer Branchunit als dritter Teil die Anzahl der Phasen. ATI gibt nun selbst an das die Effizienz des Phasenkonzepts mit zunehmender Anzahl der Phasen sinkt. ... Was man aber ohne Branchuint überhaupt nicht lösen kann sind Schleifen.
Was mir immer noch nicht klar ist: Welche Vorteile oder welchen Restriktionen betreffen das Phasen-Konzept? Sind pro Phase die maximale Anzahl der Instruktionen und/oder Temp-Register definiert bzw. reserviert? Mehr wären dann nicht machbar ohne Leertakte?
Und was meinst du mit nur einer einzigen Branch-Unit und deren vorbestimmte Position am Ende einer Phase? Impliziert die Phasen-Architektur ausserdem, dass Verzweigungen nur innerhalb einer Phase möglich sind (maximaler Pfad bestimmt Phase) und sind Schleifen ebenfalls nur innerhalb einer Phase erlaubt? Zumindest statische Schleifen lassen sich vorher im Compiler expandieren.


Um einfach alle Möglichkeiten zu durchlaufen braucht man viel Rechenleistung und viele Zwischenspeicher. Beides ist teuer. Zudem würde man dann auch alle Textursamples durchführen die man am Ende gar nicht braucht. ...
Kompliziert ist das ganze weil es die Sync innerhalb der Pipeline stört. Jeder Pixel kann sich nun eine Unterschiedliche Anzahl von takten innerhalb der Pipeline aufhalten. Es können sich sogar Pixel überholen. Zudem braucht man für jeden Pixel einen eigenen Instruktion Pointer weil ja nun jeder an einer anderen Anweisung im Programm sein kann.
Instruktion Pointer (8 Bit) und Sync sollten vom HW-Aufwand (Transistor-Kosten) nicht sonderlich ins Gewicht fallen. Sync mag vom Entwicklungs-Aufwand (Zeit und Komplexität) des Controllers schon eher eine Rolle spielen.

Das Lösung des Verzweigungen-Problem wird sich IMO irgendwo innerhalb von zwei Extremfällen abspielen. Nehmen wir 8 Pixel-Pipelines an. In der fahrlässig teuren, aber effizienten Variante ist jede Pixel-Pipeline unabhängig. Das bedeutet 8 unterschiedliche Instruktionen und 8*X Konstanten pro Takt, also z.B. 8 Instruktion-Read-Ports und 8*X Konstanten-Read-Ports, wobei natürlich diese Variante ebenfalls Thread-optimal ist (ein Thread pro Pixel). In der billigsten Variante müssen alle 8 Pipelines denselben Pfad durchlaufen. Bei Pixel-Verzweigungen innerhalb der 8 Pixel wird Rechenleistung verschenkt, Temp- und Textur-Zugriff kann allerdings maskiert werden. Ich glaube bestenfalls an eine Quad-Aufteilung, weil der Aufwand vertretbar scheint und vor allem auch, weil diese Architektur noch recht gut mit den TMUs harmoniert (lokale Koheränz: LOD-Berechnung, Cache-Misses usw.).

Ailuros
2004-02-16, 12:37:18
Original geschrieben von Quasar
Normalerweise kann eine GPU pro Pipeline ein Pixel bearbeiten. Anzahl * Takt der Pipelines ergeben also die Pixelfüllrate.

Zusätzlich sind den Pipelines mehr oder minder fest die TMUs (Texture Mapping Units) zugeordnet, die die Pixel dann mit Texturen bekleben.
Die können meist ein bilineares Textursample pro Takt verarbeiten, zwei davon lassen entweder zwei bi-Samples zu oder können diese zu einem trilinear-gefilterten Sample verrechnen.

Damit haste dann 8x1bi, 8x2bi, 8x1tri usw...

Verständlich? (Technisch inkorrekt?)

Sollte schon so stimmen. Texel Fuellrate wird man wohl auch bei den zukuenftigen Karten wie in der Vergangenheit ausrechnen, ergo Taktrate * Anzahl der TMUs.

Beispiel

wenn bi TMUs:

500*16 = 8.0 GTexels/s bilinear
500*16/2 = 4.0 GTexels/s trilinear

Gast
2004-02-16, 16:02:02
Hallo,

mich beschäftigt mal seit geraumer Zeit eine Frage.
Für wann sind denn die Grafikkarten der nächsten Generation (ATi, nVidia und eventuell auch XGI und Matrox) angesetzt? Ich habe inzwischen von sovielen Chips gelesen, dass ich nur noch R420, R500, NV45 Volario, Parhelia und PCI Express höre.
Hat jemand Anhaltspunkte zu obigen Angaben, oder kann mir mehr erzählen, Links nennen oder Details zu Fertigungsprozessen nennen, RAM und Taktungen? Oder ist da noch garnix bekannt.
Es geht mir einfach darum, zu wissen, wie lang ich noch mit meiner Ti4400 arbeiten muss/kann, da sie mir für den Moment völlig ausreicht und ich jetzt keinen Sinn sehe in eine Radeon 9800XT zu investieren. Zumal ich lieber abwarte, ob nVidia mit der nächsten GraKa-Generation nicht wieder mal ein großer Wurf gelingen wird. Die GeForceFX-Serie ist in meinen Augen nicht so der Hit.

Ich hoffe, es hagelt Antworten ;)

Gast a.k.a. Cyman

ShadowXX
2004-02-16, 16:09:16
Original geschrieben von Gast
Hallo,

mich beschäftigt mal seit geraumer Zeit eine Frage.
Für wann sind denn die Grafikkarten der nächsten Generation (ATi, nVidia und eventuell auch XGI und Matrox) angesetzt? Ich habe inzwischen von sovielen Chips gelesen, dass ich nur noch R420, R500, NV45 Volario, Parhelia und PCI Express höre.
Hat jemand Anhaltspunkte zu obigen Angaben, oder kann mir mehr erzählen, Links nennen oder Details zu Fertigungsprozessen nennen, RAM und Taktungen? Oder ist da noch garnix bekannt.
Es geht mir einfach darum, zu wissen, wie lang ich noch mit meiner Ti4400 arbeiten muss/kann, da sie mir für den Moment völlig ausreicht und ich jetzt keinen Sinn sehe in eine Radeon 9800XT zu investieren. Zumal ich lieber abwarte, ob nVidia mit der nächsten GraKa-Generation nicht wieder mal ein großer Wurf gelingen wird. Die GeForceFX-Serie ist in meinen Augen nicht so der Hit.

Ich hoffe, es hagelt Antworten ;)

Gast a.k.a. Cyman

Die neuen Karten von nV und ATI werden sehr wahrscheinlich zu CeBit vorgestellt...bzw. zumindest in/um den zeitlichen Rahmen der CeBit herum.

Zu den Technischen Daten wissen wir leider auch nix, deshalb spekulieren wir ja so fröhlich....

Man kann davon ausgehen, das beide so ca. 500MHz Coretakt und 500-600MHz MemTakt haben werden...
und wohl 256MB Grafikspeicher als Standard ;D ;D ;D

Aber sonst....keiner weiss nix genaues, und die wirklich was genaueres wissen dürfen nix sagen....

J.S.Shadow

Godmode
2004-02-16, 16:51:27
Ich würde beim Speicher eher 600-800 MHz sagen!! Siehe GDDR3 News

ShadowXX
2004-02-16, 16:55:05
Original geschrieben von bans3i
Ich würde beim Speicher eher 600-800 MHz sagen!! Siehe GDDR3 News

Zu Optimistisch...bedenke wie lange die Karten schon in den Pipelines sind. Wäre wohl auch noch zu teuer...

Vielleicht für die Refreshes...da braucht man ja auch noch mal ein Pfund was man rauflegen kann...

Aber ich lasse mich gerne Positiv überraschen...

J.S.Shadow

eXistence
2004-02-16, 16:55:41
Original geschrieben von bans3i
Ich würde beim Speicher eher 600-800 MHz sagen!! Siehe GDDR3 News

Meinst du wirklich, dass R420 und Nv40 schon GDDR3 ausnutzen werden?
Ich ehrlich gesagt nicht, das könnte ich mir eher für die refresh-Chips Mitte/Ende des Jahres vorstellen...

EDIT: Verdammt! ShadowXX war ein paar Sekunden schneller =)

ShadowXX
2004-02-16, 16:57:14
Original geschrieben von eXistence
Meinst du wirklich, dass R420 und Nv40 schon GDDR3 ausnutzen werden?
Ich ehrlich gesagt nicht, das könnte ich mir eher für die refresh-Chips Mitte/Ende des Jahres vorstellen...

hehe...2 Antworten, 1 Meinung...

Godmode
2004-02-17, 01:55:41
Original geschrieben von eXistence
Meinst du wirklich, dass R420 und Nv40 schon GDDR3 ausnutzen werden?
Ich ehrlich gesagt nicht, das könnte ich mir eher für die refresh-Chips Mitte/Ende des Jahres vorstellen...

EDIT: Verdammt! ShadowXX war ein paar Sekunden schneller =)


Ich kann mir vorstellen das Nvidia diese Bandbreite unbedingt braucht um den Chip auszulasten, bitte korrigiert mich wenn ich falsch liege. Ich weiss ja nicht wie lange man braucht um ne Grafikarte oder nen Speicherchip zu fertigen aber wenn GDDR3 jetz in die Massenfertigung geht oder schon ist, dann würen doch für ein paar Grakas genügend Chips zu Verfügung stehen. Wenn die Karten im April/Mai in die Läden kommen müsste sich das doch ausgehen.

Cpl. Dwayne Hicks
2004-02-17, 04:56:57
Original geschrieben von bans3i
Ich würde beim Speicher eher 600-800 MHz sagen!! Siehe GDDR3 News


meinst du jetzt DDR takt oder richtiger takz?

misterh
2004-02-17, 06:36:14
Original geschrieben von Odai Hussein
meinst du jetzt DDR takt oder richtiger takz? ^

er meint bestimmt sicher richtige takt also ist dann eff 1200-1600mhz gemeint

Ailuros
2004-02-17, 07:36:37
Original geschrieben von bans3i
Ich kann mir vorstellen das Nvidia diese Bandbreite unbedingt braucht um den Chip auszulasten, bitte korrigiert mich wenn ich falsch liege. Ich weiss ja nicht wie lange man braucht um ne Grafikarte oder nen Speicherchip zu fertigen aber wenn GDDR3 jetz in die Massenfertigung geht oder schon ist, dann würen doch für ein paar Grakas genügend Chips zu Verfügung stehen. Wenn die Karten im April/Mai in die Läden kommen müsste sich das doch ausgehen.

Die Verfuegbarkeit von GDDR3 ist noch viel zu gering; was es gibt reicht gerade fuer ein paar test samples aber nicht fuer Massen-Produktion. Und ich verstehe auch nicht warum fuer NV40 etwa 38GB/sec Bandbreite nicht genug sein wuerden.

mapel110
2004-02-17, 08:08:05
Original geschrieben von Ailuros
Die Verfuegbarkeit von GDDR3 ist noch viel zu gering; was es gibt reicht gerade fuer ein paar test samples aber nicht fuer Massen-Produktion. Und ich verstehe auch nicht warum fuer NV40 etwa 38GB/sec Bandbreite nicht genug sein wuerden.

Ausserdem scheint ja von der riesigen Bandbreite sowieso noch Etliches zu verpuffen, wenn man sich Benchmarks von 5800 ultra und 5950 ultra anschaut.

Also sollte das Ganze erstmal effektiver werden.

Ailuros
2004-02-17, 08:47:41
Original geschrieben von mapel110
Ausserdem scheint ja von der riesigen Bandbreite sowieso noch Etliches zu verpuffen, wenn man sich Benchmarks von 5800 ultra und 5950 ultra anschaut.

Also sollte das Ganze erstmal effektiver werden.

NV35 hat schon einen grossen Abstand von NV30 in 16*12 mit AA/AF; theoretisch natuerlich denn spielbar sind heutige high end Loesungen in der Aufloesung mit AA/AF eher selten.

Bei dem naechsten Schub von Karten wird dann 4xAA/8xAF in 16*12 schon spielbar sein in heutigen Spielen, aber fuer hoehere Settings als diese bezweifle ich es. Ausserdem sind CRTs tatsaechlich am aussterben und es wird noch einige Zeit dauern bis sich TFT Preise nach unten und deren Aufloesungen nach oben skalieren.

Ein Feld wo ich wirklich keine Ahnung habe momentan ist HDTV (HDTV out in dem Fall); ueberhaupt wie es da mit Aufloesungen und die notwendige Bandbreite aussieht....

x-dragon
2004-02-17, 09:45:21
Original geschrieben von Ailuros
...
Ein Feld wo ich wirklich keine Ahnung habe momentan ist HDTV (HDTV out in dem Fall); ueberhaupt wie es da mit Aufloesungen und die notwendige Bandbreite aussieht.... Soweit ich weiß liegt die optimale Auflösung von HDTV bei 1.920x1.080 (bzw. 1280x720), also von daher muss sich gerade im TFT-Bereich wohl noch einiges tun, wobei die Anforderungen an die CPU ja auch recht heftig sind und von daher "noch" ein wenig Zeit ist. MS empfiehlt aktuell 2,5 bzw. 3 GHz je nach Auflösung.

Demirug
2004-02-17, 11:17:20
Original geschrieben von Blutgrätsche
Was mir immer noch nicht klar ist: Welche Vorteile oder welchen Restriktionen betreffen das Phasen-Konzept? Sind pro Phase die maximale Anzahl der Instruktionen und/oder Temp-Register definiert bzw. reserviert? Mehr wären dann nicht machbar ohne Leertakte?

Die meisten beim R200 noch vorhandenen Restriktionen wurden entfernt. Was noch vorhanden ist bezieht sich eher auf den gesamten Shader und nicht auf eine einzelne Phase. Der Entwickler soll die Phasen ja nicht mehr wirklich sehen.

Der grosse Vorteil den das Phasenkonzept hat ist das man mit einem relative kleinen Registerfile auskommt. Pro Pipelinestage reicht eine maximal 2 Speicherzellen für einen RGBA/XYZW Wert aus. Der Nachteil sind eben die bekannten Probleme bei den dependent Reads.

Und was meinst du mit nur einer einzigen Branch-Unit und deren vorbestimmte Position am Ende einer Phase? Impliziert die Phasen-Architektur ausserdem, dass Verzweigungen nur innerhalb einer Phase möglich sind (maximaler Pfad bestimmt Phase) und sind Schleifen ebenfalls nur innerhalb einer Phase erlaubt? Zumindest statische Schleifen lassen sich vorher im Compiler expandieren.


Impliziert wird durch das Phasenkonzept nichts. Es gibt mehrere Varianten. Aber da ATI gerne Transitoren spart ist ist die Variante mit einer Brachunit am Ende einer Phase die günstigste. In diesem Fall springt man dann auch nicht innerhalb einer Phase sondern von Phase zu Phase. Wobei dann eben auch eine Phase übersprungen oder mehrfach ausgeführt werden kann. Das Expandieren von statischen Schleifen kann auch ganz schnell nach hinten lossgehen wenn das Programm dann sehr lang werden.


Instruktion Pointer (8 Bit) und Sync sollten vom HW-Aufwand (Transistor-Kosten) nicht sonderlich ins Gewicht fallen. Sync mag vom Entwicklungs-Aufwand (Zeit und Komplexität) des Controllers schon eher eine Rolle spielen.

Das Lösung des Verzweigungen-Problem wird sich IMO irgendwo innerhalb von zwei Extremfällen abspielen. Nehmen wir 8 Pixel-Pipelines an. In der fahrlässig teuren, aber effizienten Variante ist jede Pixel-Pipeline unabhängig. Das bedeutet 8 unterschiedliche Instruktionen und 8*X Konstanten pro Takt, also z.B. 8 Instruktion-Read-Ports und 8*X Konstanten-Read-Ports, wobei natürlich diese Variante ebenfalls Thread-optimal ist (ein Thread pro Pixel). In der billigsten Variante müssen alle 8 Pipelines denselben Pfad durchlaufen. Bei Pixel-Verzweigungen innerhalb der 8 Pixel wird Rechenleistung verschenkt, Temp- und Textur-Zugriff kann allerdings maskiert werden. Ich glaube bestenfalls an eine Quad-Aufteilung, weil der Aufwand vertretbar scheint und vor allem auch, weil diese Architektur noch recht gut mit den TMUs harmoniert (lokale Koheränz: LOD-Berechnung, Cache-Misses usw.).

Ja Quads machen durchaus Sinn. Halbquads aber auch noch.

Blutgrätsche
2004-02-17, 14:46:59
Der verfügbare Speicherplatz für Temp-Register ist (wenn nicht Video-Memory zum Swappen benutzt wird) beschränkt. Die Anzahl der Temps ist aus Sicht des Shaders auf jeder Architektur dieselbe. Das Phasen-Konzept kann daran nichts ändern (besser: ich verstehe leider leider immer noch nicht wie, vielleicht kann jemand anders als Demirug aushelfen), also muss zunächst theoretisch ATI ebenso ein Temp-Reg-Problem haben wie NV. (Read-Port-Restriktionen werden vernachlässigt.) Ein Phasen-Wechsel lässt schliesslich die Temps nicht verschwinden. Auch die Beschränkung auf 4 Dependent Reads ist irrelevant.

Eine Architektur kann nur versuchen, die benutzten Temp-Reg-Abhängigkeiten möglichst schnell aufzulösen, oder anders gesagt, die maximale Anzahl aller "in-flight" Temps pro Pixel/Pipeline und pro Thread darf den maximal verfügbare Speicherplatz nicht überschreiten. (Ich gehe davon aus, dass alle Temps in einem shared-memory pool gespeichert werden, also keine Speicher-Segmentierung). Der offensichtlichste Lösungsansatz wäre wohl die Reduzierung der Latenzen, um die Anzahl der Threads zu reduzieren. Die ALU-Latenzen sind dabei weniger interessant, da deutlich kleiner als die Latenzen eines Texture-Cache-Miss, an denen wiederum nicht wirklich gedreht werden kann (gemeint ist die Anzahl der FIFO-Stages). Zumindest vorstellbar wäre allerdings, dass Cache-Hits das Latenz-FIFO umgehen und direkt den ALUs wieder zugeführt werden. Geht natürlich nur, falls Pixel sich innerhalb ihrer Pipe nicht überholen, also kein vorhergehendes Pixel im FIFO ist. Wenn ich mich nicht irre, dann befindet sich beim NV3XX das FIFO zwischen 2 ALUs und muss immer durchlaufen werden. Wenn ein Shader allerdings viele arithmetische Ops enthält, dann erhöht das FIFO nur signifikant die Latenzen ohne jedweden Nutzen.

Bin mir nicht sicher, ob die Position eines umgehbaren, im jetzigen Fall aber erforderlichen FIFOs zwischen 2 ALUs besser ist als am Ende oder Anfang. Weiss auch nicht, ob ein irgendwie geartetes, verbessertes Scheduling das Temp-Problem reduzieren kann (also z.B. bearbeite Threads mit den meisten unaufgelösten Temps zuerst.) Mehr Ansätze fallen mir im Moment nicht ein, wobei meine genannten Argumente ebenfalls falsch sein können.

Ich bin (wie bereits geschrieben) überzeugt, dass ATI's R420 PS 3.0 (inbesonders Verzweigungen) unterstützt (weil muss, alles andere ist für mich undenkbar), glaube allerdings nicht an eine Performance-Lösung. Solange if-then-else Pfade kurz sind und selten eingesetzt werden, gibt es wenig Grund hier Aufwand zu treiben, zumal ein Performance-Einbruch ohnehin nur bei unterschiedlichen Pixelpfaden innerhalb eines Pixel-Blocks (z.B. Quads) auftritt. Die Häufigkeit dieses Falles kann ich nicht abschätzen.

Demirug
2004-02-17, 15:45:58
OK, bei nVidia sitzt auf jeder Pipelinestufe ein anderer Pixelquad. Bei 256 Stufen sind also 256 Pixelquads in der Pipeline. Die benötigte Speichermenge für die Temps errechnet sich daher aus der Anzahl der Pipelinestufen * Anzahl der zu speichernden Temps. Reicht der Speicher nicht aus müssen Stufen leer bleiben.

Bei ATI kann aufgrund des Phasenkonzepts der gleiche Pixel auf mehr als nur einer Stufe in der Pipeline sein. Die Anzahl der Pixel in der Pipeline entspricht dabei der Pipelinelänge / Anzahl der Takte welche für die aktuelle Phase benötigt werden. Diese Anzahl mal der benötigen Tempregister ergibt die benötigte Grösse des Tempfiles. Es sollte nun hoffentlich klar sein warum ATI mit einem kleineren Tempfile auskommt als nVidia.
Beim Phasenwechsel kann sich diese Anzahl der Pixel natürlich fliessend ändern. Darauf muss der Chip achten um einen möglichen Overload des Speichers zu vermeiden.

Variable Latenzen innerhalb einer Pipeline sind eigentlich Gift weil man dann auch innerhalb der Pipeline Syncs braucht und die möglichkeiten für Stalls stark erhöht.

Das Problem bei ATI mit den Branches ist das sie die Phasenlänge verkürzen. Kürzere Phasen bedeuten mehr Pixel in der Pipeline. Ein mehrphasen Shader muss sich nun aber nach der maximal benötigten Speichermenge bei einer Phase richten. Dabei sind besonders die Phasenübergänge interesant. Bei einem dynamischen Branchs können diese Übergänge nun aber von Pixel zu Pixel auftreten was das ganze nochmal komplizierter macht.

Tarkin
2004-02-18, 21:41:04
Quelle: http://www.tweakers.net/reviews/456?

Thread im Rage3D Forum:
http://www.rage3d.com/board/showthread.php?threadid=33743023

"The card will most likely use GDDR3 with frequencies as high as 500-700 mhz, resulting in 1-1,4 ghz effective.

They rendered a demo from Colin McRae Rally with the use of heavy shaders, which was 2-3 times faster with the R420 then current fastest chips."

YEAH BABY!!! ;)

und noch ein Thread im B3D Forum:
http://www.beyond3d.com/forum/viewtopic.php?t=10273&postdays=0&postorder=asc&start=140

Demirug
2004-02-18, 21:48:42
Original geschrieben von Tarkin
Quelle: http://www.tweakers.net/reviews/456?

Thread im Rage3D Forum:
http://www.rage3d.com/board/showthread.php?threadid=33743023

"The card will most likely use GDDR3 with frequencies as high as 500-700 mhz, resulting in 1-1,4 ghz effective.

They rendered a demo from Colin McRae Rally with the use of heavy shaders, which was 2-3 times faster with the R420 then current fastest chips."

YEAH BABY!!! ;)

und noch ein Thread im B3D Forum:
http://www.beyond3d.com/forum/viewtopic.php?t=10273&postdays=0&postorder=asc&start=140

Ja, und bei uns auch schon: http://ds80-237-203-42.dedicated.hosteurope.de/vbulletin/showthread.php?s=&threadid=125806