PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Die Grafikchips des Jahres 2005


Leonidas
2005-03-21, 18:06:49
Link:
http://www.3dcenter.org/artikel/2005/03-21_a.php


Note: Ich hab den RV515/530-Teil heute gegen 19 Uhr nochmal komplett überarbeitet, da war ein Gedankenfehler meinerseites drin.


Update 21 Uhr: Das mit dem neuen AA beim R520 hab ich wohl falsch aufgefasst - ein solches wird es erst mit der nachfolgenden Generation geben, sprich R6xx. Die entsprechende Passage wurde gestrichen.

tombman
2005-03-21, 19:06:31
hmm, sind 32 pipelines für R520 und NV48 eigentlich definitiv ausgeschlossen?

Leonidas
2005-03-21, 19:09:49
hmm, sind 32 pipelines für R520 und NV48 eigentlich definitiv ausgeschlossen?


Da ich an die 24 jeweils ein Fragezeichen gemacht habe: Nein!


Nun ja, bei ATi möglicherweise schon. Da die DIE-Fläche nicht größer werden soll als beim R420, würde nicht mehr als SM3 und 24P reinpassen, 32P würde diese Angabe eines ATi-Offiziellen sprengen.

robbitop
2005-03-21, 19:21:03
Aufgrund der mangelnden Bandbreite sollten 8 Quads noch wenig Sinn machen. Das Bandbreitenproblem wird sicherlich erst etwas später "gelöst" werden. Das erinnert mich an NV15 Zeiten. So ähnlich bandbreitenlimitiert ist b.s.w. auch R420.


"Denkbar sind somit beispielsweise auch neue Filter- oder Anti-Aliasing-Methoden im R520, wobei ATi uns gegenüber schon neue Anti-Aliasing Modi in einem kommenden Grafikchip bestätigt hat :)"

also Rene meinte, dass es mit neuem AA in näherer zukunft nichts wird, wenn ich mich richtig erinnere

Raff
2005-03-21, 19:30:40
Schade, dass mit "neuen Anti-Aliasing-Modi" wohl definitv keine Hybrid-Modi mit SS-Anteil gemeint sind. Oder vielleicht erwartet uns doch eine Überraschung? ;)

MfG,
Raff

mapel110
2005-03-21, 19:42:12
Schade, dass mit "neuen Anti-Aliasing-Modi" wohl definitv keine Hybrid-Modi mit SS-Anteil gemeint sind. Oder vielleicht erwartet uns doch eine Überraschung? ;)

MfG,
Raff
Vielleicht übernehmen sie ja Demirugs DX-Tweaker-Ansatz. Das wäre viel sinnvolller. :)

"nVidia NV48
Refresh-Chip zum NV40/NV45
110 oder 130nm bei TSMC, schätzungsweise Richtung 300 Millionen Transistoren"
Wieso nicht 90nm?

robbitop
2005-03-21, 20:12:57
Vielleicht übernehmen sie ja Demirugs DX-Tweaker-Ansatz. Das wäre viel sinnvolller. :)

"nVidia NV48
Refresh-Chip zum NV40/NV45
110 oder 130nm bei TSMC, schätzungsweise Richtung 300 Millionen Transistoren"
Wieso nicht 90nm?

Risiko, Geld und Zeit.

Leonidas
2005-03-21, 20:30:54
Vielleicht übernehmen sie ja Demirugs DX-Tweaker-Ansatz. Das wäre viel sinnvolller. :)

"nVidia NV48
Refresh-Chip zum NV40/NV45
110 oder 130nm bei TSMC, schätzungsweise Richtung 300 Millionen Transistoren"
Wieso nicht 90nm?


Gebranntes Kind scheut das Risiko ;)

Leonidas
2005-03-21, 20:31:48
also Rene meinte, dass es mit neuem AA in näherer zukunft nichts wird, wenn ich mich richtig erinnere


ich dachte er meinte man würde in kommenden generationen sicherlich auch am AA arbeiten, was für mich heißt, das er es nicht bestätigen will, aber das man da was hat = indirekte Bestätigung


Update 21 Uhr: Das mit dem neuen AA beim R520 hab ich wohl falsch aufgefasst - ein solches wird es erst mit der nachfolgenden Generation geben, sprich R6xx. Die entsprechende Passage wurde gestrichen.

mapel110
2005-03-21, 20:32:59
Risiko, Geld und Zeit.
Bei ATI sind 24 Pipes @90nm schon das Maximum, was man sich vorstellen kann, bei nvidia sind auf einmal 24 Pipes bei 130nm bzw 110nm kein Problem. :|

Exxtreme
2005-03-21, 20:36:54
Ich hoffe, ATi baut diesmal SSAA ein. ;(

PS3.0 verlangt IIRC 4096x4096 Texturen. Damit wäre 4x SSAA bis zu 2048x2048 möglich wenn der Speicher reicht.

Ansonsten überlege ich es mir zu den Grünen zu gehen wenn sie performancemässig nicht zu weit hinterherhinken. ;(

-e
+A

mapel110
2005-03-21, 20:40:56
Ich hoffe, ATi baut diesmal SSAA ein. ;(

Ist doch schon eingebaut, nur nicht im Windows- und Linuxtreiber verfügbar. ;(

robbitop
2005-03-21, 20:51:59
Ich hoffe, ATi baut diesmal SSAA ein. ;(



vergiss es.


Bei ATI sind 24 Pipes @90nm schon das Maximum, was man sich vorstellen kann, bei nvidia sind auf einmal 24 Pipes bei 130nm bzw 110nm kein Problem.


1. Ich gehe davon aus, dass ATI's R520 ein aufgebohrter R300 ist.
-> Pixelteil ist also pro Quad günstiger
2. Es fehlt an Bandbreite, somit macht es keinen Sinn 4 Quads zu integrieren.
Ich gehe davon aus, dass 4 Quads mit 90nm möglich wären. Aber das Limit ist nicht immer der Sinn (222Mio Transistoren @130nm geht, warum kam 2002 nur 125Mio Transistoren? verstehst du was ich meine?)
3. 6 Quads sind mit etwas Reduzierung an Redundanz auch mit ~250-260Mio Transistoren möglich im NV4x. Das sollte mit 110nm/130nm evtl noch drin sein.
4.NV hat dank 130nm lowk beim NV30 damals "keine Lust" mehr auf Risiko
5. dass der Fertigungsprozess unwichtig sein kann, zeigte schon R3xx.

Exxtreme
2005-03-21, 21:14:43
vergiss es.

Sicher? Ich meine, relativ problemlos wäre es jetzt möglich. Die alte R3xx-HW ist ja auf eine Auflösung von 2048x1536 beschränkt was die Auflösung mit SSAA auf 1024x768 beschränkt. Das würde jetzt ja quasi entfallen.

robbitop
2005-03-21, 21:21:15
ATI könnte auch jetzt ein paar gute Hybriden bringen. Warum sie es nicht tun? Es interessiert nur Randgruppen. SSAA ist bei den großen IHVs praktisch tot. NV supportet es IMO nur, da sie noch kein gleichgutes MSAA besitzen.

Demirug
2005-03-21, 21:30:53
ATI könnte auch jetzt ein paar gute Hybriden bringen. Warum sie es nicht tun? Es interessiert nur Randgruppen. SSAA ist bei den großen IHVs praktisch tot. NV supportet es IMO nur, da sie noch kein gleichgutes MSAA besitzen.

nV braucht es für Qunatum3D. In den Simulatoren brauchen sie SSAA. Da nVidia alle Treiber aus einer Basis erzeugt können die PC Treiber auch SSAA. Daran wird sich wohl so schnell auch nichts ändern.

Raff
2005-03-21, 21:32:48
Sicher? Ich meine, relativ problemlos wäre es jetzt möglich. Die alte R3xx-HW ist ja auf eine Auflösung von 2048x1536 beschränkt was die Auflösung mit SSAA auf 1024x768 beschränkt. Das würde jetzt ja quasi entfallen.

Terry Makedon hat auf meine Frage diesbezüglich mal wieder klipp und klar gesagt, dass das nichts wird. ;(


Concerning SS

No its not coming. We have other priorities we prefer to keep our resources working on. We do not agree on this one that it is a worthwile feature ;-) ps. trust me we have much better stuff coming

MfG,
Raff

reunion
2005-03-21, 21:33:57
@Leo: Warum spekulierst du bei RV515/530 unter anderem auch mit 110nm?
Wenn schon der R520 in 90nm gefertigt wird, wird man bei den kleineren Chips mit Sicherheit keinen größeren Fertigungsprozess verwenden.

Exxtreme
2005-03-21, 21:42:43
Terry Makedon hat auf meine Frage diesbezüglich mal wieder klipp und klar gesagt, dass das nichts wird. ;(



MfG,
Raff
Supertoll. ;(

Wie gesagt, wenn der NV47 nicht zu stark dem R520 hinterherhinkt... was ich aber eher bezweifle... dann hole ich mir wahrscheinlich so ein Teil.

robbitop
2005-03-21, 21:44:19
@Leo: Warum spekulierst du bei RV515/530 unter anderem auch mit 110nm?
Wenn schon der R520 in 90nm gefertigt wird, wird man bei den kleineren Chips mit Sicherheit keinen größeren Fertigungsprozess verwenden.

90nm wird teuer werden (lowk dielektrika sind es und wer weiß, wie die Ausbeuten und die Kapazitäten sind).
Damit will ich nur sagen, dass 110nm eine denkbare Option für RV5xx sein kann.

reunion
2005-03-21, 21:47:48
5. dass der Fertigungsprozess unwichtig sein kann, zeigte schon R3xx.

Naja, unwichtig war/ist der Fertigungsprozess sicherlich nicht, R300 hatte nur das Glück dass man troz des älteren Fertigungsprozesses und den damit verbundenen Komprimissen in punkto Transistorenanzahl und Taktrate mit dem in vielerlei Hinsicht verunglücktem NV30 mithalten konnte. Wäre R300 in 130nm gekommen, hätte man durch die zusätzlich zur Verfügung stehenden Transistoren vermutlich noch ein paar nette Feature integrieren- und die Taktrate deutlich anheben können. Im nachhinein betrachtet hatte man natürlich Glück dass man sich für 150nm entscheiden musste.

Was ich damit sagen will ist dass ATi nur aufgrund des verhältnismäßig schwachen Nv3x-Designs mit 150nm mithalten konnte. Wenn man sich ansieht was nV aus dem NV43 mit einer ähnlichen Transistorenanzahl wie bei NV30/35 herrausholt zeigt sich erst wie ineffizient ein NV3x-Quad ist.

Leonidas
2005-03-21, 22:19:24
@Leo: Warum spekulierst du bei RV515/530 unter anderem auch mit 110nm?
Wenn schon der R520 in 90nm gefertigt wird, wird man bei den kleineren Chips mit Sicherheit keinen größeren Fertigungsprozess verwenden.


Zwei Gründe:
- 90nm könnte teurer sein als 110nm, da TSMC am nagelneuen Prozeß sicherlich anfänglich noch mehr verdienen will
- eventuell hat TSMC anfänglich noch keine Kapazitäten für so viele Chips in 90nm


Genau genommen reicht 110nm vollkommen aus, da ATi mit 8P im LowCost und 12P/16P im Mainstream keine hohen Taktfrequenzen fahren muß.

aths
2005-03-22, 02:18:23
"# nVidia NV48 Refresh-Chip zum NV40/NV45
# 110 oder 130nm bei TSMC, schätzungsweise Richtung 300 Millionen Transistoren"

Das glaube ich nicht. Ich schätze eher 250 Millionen. Nicht mehr als 260.

NV kann aus dem NV40 einiges rauswerfen: Die nicht funktionierende Tonemapping-Unit, gewisse Schaltkreise für mobile Versionen, Denorm-Support für FP16 ... es ist auch denkbar, dass sie Schaltungen so vereinfachen dass seltene Befehle mehr Takte brauchen. Bei +50% mehr Rohleistung pro Takt fällt das nicht gleich auf.

aths
2005-03-22, 02:21:29
vergiss es.



1. Ich gehe davon aus, dass ATI's R520 ein aufgebohrter R300 ist.
-> Pixelteil ist also pro Quad günstiger
2. Es fehlt an Bandbreite, somit macht es keinen Sinn 4 Quads zu integrieren.?? Sowohl R420 als auch NV40 haben jetzt schon 4 Quadpipes. Oder meinst du 4 zusätzliche Quads?

Nehmen wir an, dass ATI keine FP-Texturfilter hat, sind die TMUs nicht so teuer im Transistorcount. Dann könnte man rein für die arithmetische Leistung durchaus 8 Quadpipes gebrauchen, ohne dass es an der Bandbreite hängt.

BTW, "ATIs", nicht "ATI's".

aths
2005-03-22, 02:23:53
Da ich an die 24 jeweils ein Fragezeichen gemacht habe: Nein!


Nun ja, bei ATi möglicherweise schon. Da die DIE-Fläche nicht größer werden soll als beim R420, würde nicht mehr als SM3 und 24P reinpassen, 32P würde diese Angabe eines ATi-Offiziellen sprengen.Wieso schreibst du "DIE"? Das ist keine Abkürzung. Richtig wäre "Die".

Bei ATI wäre interessant, wie viele Shader Units die pro Pipe haben. Die Anzahl der Pipes alleine sagt nichts. Insofern finde ich, sollte man nicht immer nur auf die Pipe-Zahl schielen.

aths
2005-03-22, 02:24:16
hmm, sind 32 pipelines für R520 und NV48 eigentlich definitiv ausgeschlossen?Natürlich nicht. Aber unwahrscheinlich.

Ich behaupte sogar: Mehr als 16 Pipes brauchen wir derzeit nicht. Was wir brauchen ist ein vernünftiger anisotroper Texturfilter und mehr Arithmetik-Power.

Gast
2005-03-22, 09:17:17
"Mittels der CeBIT waren insbesondere S3 und XGI recht offenherzig bezüglich ihrer demnächst anstehenden Grafikchip-Entwicklungen, desweiteren lagen schon immer einige kleine Informationen zu den Plänen von ATi und nVidia vor, wie auch sich dazu kürzlich ein paar neue Informations-Bruchstückchen ergaben, so daß sich dieser Artikel lohnte, welcher einen Ausblick auf die kommenden Grafikchips des Jahres 2005 geben soll."

Schwer Pulitzer-verdächtig...

:)

roman
2005-03-22, 11:22:29
"Mittels der CeBIT waren insbesondere S3 und XGI recht offenherzig bezüglich ihrer demnächst anstehenden Grafikchip-Entwicklungen, desweiteren lagen schon immer einige kleine Informationen zu den Plänen von ATi und nVidia vor, wie auch sich dazu kürzlich ein paar neue Informations-Bruchstückchen ergaben, so daß sich dieser Artikel lohnte, welcher einen Ausblick auf die kommenden Grafikchips des Jahres 2005 geben soll."

Schwer Pulitzer-verdächtig...

:)

Wollte ich auch gerade schreiben. Da vergeht einem schon beim ersten Satz die Lust weiterzulesen.

robbitop
2005-03-22, 11:41:33
Wollte ich auch gerade schreiben. Da vergeht einem schon beim ersten Satz die Lust weiterzulesen.

aha..und warum?

ATI und NV haben nicht einen Fatz an die Presse rausgegeben. Außerdem ist das Internet voll von NV und ATI. Im Westen nichts Neues derzeit :rolleyes:
Massengeschmack?

@aths
bzgl. der Quads weißt du, was ich meine.

roman
2005-03-22, 11:52:43
aha..und warum?

ATI und NV haben nicht einen Fatz an die Presse rausgegeben. Außerdem ist das Internet voll von NV und ATI. Im Westen nichts Neues derzeit :rolleyes:
Massengeschmack?

@aths
bzgl. der Quads weißt du, was ich meine.
Ich meine damit nicht den Inhalt, sondern das Satzverschachtelungs-Ungetüm, das Leonidas da wiedermal erdacht hat. Ist zwar grammatikalisch richtig (soweit ich das beurteilen kann), aber zumindest für mich recht schwierig zu entwirren. Hab den Satz 3x lesen müssen, um den Sinn herauszufiltern.

Aber keine Angst, ich les den Artikel trotzdem zu Ende ;)

brrrrr
2005-03-22, 12:10:15
aha..und warum?


"Mitells der Cebit"; das sagt man nicht und schreibt erst recht nicht. Oder ist das sächsisch? ;) :D

DrumDub
2005-03-22, 13:00:24
Ich meine damit nicht den Inhalt, sondern das Satzverschachtelungs-Ungetüm, das Leonidas da wiedermal erdacht hat. Ist zwar grammatikalisch richtig (soweit ich das beurteilen kann), aber zumindest für mich recht schwierig zu entwirren. Hab den Satz 3x lesen müssen, um den Sinn herauszufiltern.


Abgesehen davon ist die Wortwahl etwas schräg und anglophil.

Meine Version:

"Während der CeBIT waren insbesondere S3 und XGI recht offenherzig bezüglich ihrer demnächst anstehenden Grafikchip-Entwicklungen. Desweiteren lagen schon immer einige wenige Informationen zu den Plänen von ATi und nVidia vor, auch wenn sich dazu kürzlich ein paar neue Informationsbruchstückchen ergaben, so daß sich dieser Artikel lohnte, welcher einen Ausblick auf die kommenden Grafikchips des Jahres 2005 geben soll."

Informationsbruckstück ist wohl eine direkte Übersetzung des englischen Ausdrucks "snippet".

reunion
2005-03-22, 13:12:42
Zwei Gründe:
- 90nm könnte teurer sein als 110nm, da TSMC am nagelneuen Prozeß sicherlich anfänglich noch mehr verdienen will


Kann sein das eine 90nm Wafer teurer ist.
Das sollte sich aber durch die nicht unerheblich schrumpfende Die-Fläche mehr als ausgleichen.


- eventuell hat TSMC anfänglich noch keine Kapazitäten für so viele Chips in 90nm


Wäre eine Möglichkeit.
Allerdings kann ich mich noch gut an eine Aussage eines TSMC-Fuzzies erinnern wonach man bei 90nm zu Beginn wesentlich mehr Kapazitäten hat als bei 130nm.


Genau genommen reicht 110nm vollkommen aus, da ATi mit 8P im LowCost und 12P/16P im Mainstream keine hohen Taktfrequenzen fahren muß.

Irrelevant, jeder Hersteller versucht seinen Gewinn zu maximieren und der Schlüssel dazu ist der Konkurrenz möglichst weit vorraus zu sein und möglichst billig produzieren zu können. Man wird sicherlich nicht RV515/530 durch einen älteren Fertigungsprozess kunstlich ausbremsen und verteuern.

Leonidas
2005-03-22, 13:31:38
NV kann aus dem NV40 einiges rauswerfen: Die nicht funktionierende Tonemapping-Unit, gewisse Schaltkreise für mobile Versionen, Denorm-Support für FP16 ... es ist auch denkbar, dass sie Schaltungen so vereinfachen dass seltene Befehle mehr Takte brauchen. Bei +50% mehr Rohleistung pro Takt fällt das nicht gleich auf.


Möglich und wahrscheinlich. Ich hab aber erst einmal konservativ geschätzt.

Leonidas
2005-03-22, 13:32:38
Bei ATI wäre interessant, wie viele Shader Units die pro Pipe haben. Die Anzahl der Pipes alleine sagt nichts. Insofern finde ich, sollte man nicht immer nur auf die Pipe-Zahl schielen.


Das ist korrekt. Leider gibt es dazu keinerlei Vorab-Infos - wir können und diesbezüglich nur an das halten, was wir haben.

Leonidas
2005-03-22, 13:33:15
"Mittels der CeBIT waren insbesondere S3 und XGI recht offenherzig bezüglich ihrer demnächst anstehenden Grafikchip-Entwicklungen, desweiteren lagen schon immer einige kleine Informationen zu den Plänen von ATi und nVidia vor, wie auch sich dazu kürzlich ein paar neue Informations-Bruchstückchen ergaben, so daß sich dieser Artikel lohnte, welcher einen Ausblick auf die kommenden Grafikchips des Jahres 2005 geben soll."

Schwer Pulitzer-verdächtig...

:)


Definitiv. War mir am Ende auch zu lang geworden, aber da es inhaltlich passte ...

Leonidas
2005-03-22, 13:35:16
Kann sein das eine 90nm Wafer teurer ist.
Das sollte sich aber durch die nicht unerheblich schrumpfende Die-Fläche mehr als ausgleichen.


Für TSMC vielleicht (andererseits: Entwicklungskosten?). Doch auch TSMC will mehr verdienen - und für neue Prozeße kann man schonmal mehr Kohle verlangen.

Leonidas
2005-03-22, 13:37:41
Irrelevant, jeder Hersteller versucht seinen Gewinn zu maximieren und der Schlüssel dazu ist der Konkurrenz möglichst weit vorraus zu sein und möglichst billig produzieren zu können. Man wird sicherlich nicht RV515/530 durch einen älteren Fertigungsprozess kunstlich ausbremsen und verteuern.



Das sicherlich nicht. Fragt sich nur, ob 110nm gegen Herbst 2005 wirklich schon so "alt" ist.

Erinnert sei hier an die FX5200, die NV verdammt günstig anbot, obwohl nur in 150nm gefertigt und 130nm seinerzeit schon völlig normal war. Die hatten vermutlich eine super-Ausbeute und womöglich hat TSMC den 150nm Prozeß auch superbillig angeboten, um die Auslastung hoch zu halten. So gesehen kann ein bewährter älterer Prozeß doch manchmal günstiger sein als ein kleinerer und neuerer.

Exxtreme
2005-03-22, 15:17:47
nV braucht es für Qunatum3D. In den Simulatoren brauchen sie SSAA. Da nVidia alle Treiber aus einer Basis erzeugt können die PC Treiber auch SSAA. Daran wird sich wohl so schnell auch nichts ändern.
Hmmm, könnte der NV4x theoretisch auch 4x RGSSAA oder allgemein SSAA mit gedrehten Samplemuster?

DrumDub
2005-03-22, 17:23:54
Hmmm, könnte der NV4x theoretisch auch 4x RGSSAA oder allgemein SSAA mit gedrehten Samplemuster?
das denke ich nicht, tim!

Quasar
2005-03-22, 18:59:21
Erinnert sei hier an die FX5200, [...]
Da ging es allein um schiere Stückzahl. Die konnte der Zeit kein anderer Prozess liefern.

Demirug
2005-03-22, 19:01:25
Hmmm, könnte der NV4x theoretisch auch 4x RGSSAA oder allgemein SSAA mit gedrehten Samplemuster?

Theoretisch ja. Ist aber sehr aufwendig zu realisieren und auch teurer weil man am Rand eine Menge Pixel rendert die man dann gar nicht sieht.

robbitop
2005-03-22, 19:10:27
Da ging es allein um schiere Stückzahl. Die konnte der Zeit kein anderer Prozess liefern.
und um die Kosten. 150nm war reif und billig derzeit. Gut verfügbar natürlich auch. All das trifft auf 110nm zu, auf 90nm. Wer weiß...dank lowk sicher nicht mehr ganz so billig.

Quasar
2005-03-22, 19:29:12
Die Kosten waren sekundär.

Xmas
2005-03-22, 20:05:23
Theoretisch ja. Ist aber sehr aufwendig zu realisieren und auch teurer weil man am Rand eine Menge Pixel rendert die man dann gar nicht sieht.
Du meinst die S3-Methode? Das wären 44% mehr Pixel wobei man evtl. noch viel Clippen könnte, aber 5x. Sorgen mache ich mir da eher ums Downsampling.

Exxtreme
2005-03-22, 20:10:39
Theoretisch ja. Ist aber sehr aufwendig zu realisieren und auch teurer weil man am Rand eine Menge Pixel rendert die man dann gar nicht sieht.
Verstehe ich nicht. :| Welche Pixel rendert man und warum sieht man sie dann nicht?

Demirug
2005-03-22, 20:21:18
Exxtreme, man rendert dabei das Bild rotiert und nimmt diese Rotation beim Downsampling über einen Pixelshader wieder raus. Da ein Renderbuffer aber keine Rotation haben kann rendert man in den 4 Ecken zuviel.

Xmas ich weiss nicht ob S3 das auch so macht.

Gast
2005-03-22, 20:25:34
Exxtreme, man rendert dabei das Bild rotiert und nimmt diese Rotation beim Downsampling über einen Pixelshader wieder raus. Da ein Renderbuffer aber keine Rotation haben kann rendert man in den 4 Ecken zuviel.

Klingt zwar logisch, bei einer festen (bekannten) Auflösung und Samplemuster, sollte es keine Probleme geben.

mapel110
2005-03-22, 20:28:43
War die Lösung bei 3DFX damals auch so gestrickt? Das war doch Rotated Grid Supersampling?

Quasar
2005-03-22, 20:49:30
3dfx hat in verschiedene Multisample-Buffer gerendert, die um ein Subpixel versetzt waren IIRC.

Exxtreme
2005-03-22, 20:52:19
Exxtreme, man rendert dabei das Bild rotiert und nimmt diese Rotation beim Downsampling über einen Pixelshader wieder raus. Da ein Renderbuffer aber keine Rotation haben kann rendert man in den 4 Ecken zuviel.

Xmas ich weiss nicht ob S3 das auch so macht.
Hmmm, meinst du das so:

Demirug
2005-03-22, 21:17:49
Ja, Exxtreme so macht man das wenn der Chip ein RG nicht native unterstützt.

robbitop
2005-03-22, 22:10:02
ich glaube nicht, dass S3 das so macht.

@Quasar

aha und woher nimmst du dieses Wissen? (dass es bei einem low cost Chip nicht um die Kosten ging ) :|

Quasar
2005-03-22, 22:16:52
Das sagte ich nicht. Lies bitte, was ich geschrieben habe.

Es ging bei der FX5200 darum, Unmengen an OEM-Deals sowohl in Stückzahl als auch in der Zeit zu befriedigen.
Was ist nun wirtschaftlicher: 10 Millionen Stück bei einer Marge von X unters Volk zu bringen und seine Termine/Verpflichtungen einzuhalten, oder 3 Millionen Stück bei einer Marge von X*2 abzusetzen und dabei den ein oder anderen Großkunden sitzenzulassen resp. gar nicht erst dessen jeweiligem Deal zusagen zu können?


Mein Wissen nehme ich aus einer Quelle, die ich diesbezüglch für vertrauenswürdig halte. Und nein, es ist keine URL.

aths
2005-03-22, 22:17:32
Möglich und wahrscheinlich. Ich hab aber erst einmal konservativ geschätzt.Ich auch – aber andersherum :) Dass NV ein 300-Mio-Monster heute schon auf vernünftige Taktraten bringen kann, halte ich für wenig wahrscheinlich.

Angenommen, der R520 wird ein Hammer, und NV erfährt erst das sehr spät. Panisch basteln sie an einem Chip, um zumindest auf dem Papier den vorgeblich besten (lt. Marketing: schnellsten) Chip zu haben. Dann sind die Chipkosten nebensächlich.

Meiner Theorie nach will NV mit dem nächsten Chip jedochh auch Geld verdienen, und ihr NV4x-Programm lediglich nach oben erweitern. Dann darf auch die Kühlung nicht übermäßig aufwändig sein.

Das ist korrekt. Leider gibt es dazu keinerlei Vorab-Infos - wir können und diesbezüglich nur an das halten, was wir haben.Imo ist es wichtiger, wenn man schon spekuliert (da wir nichts haben) dies bezüglich der Leistung zu tun, und nicht bezüglich fast nichtssagender Zahlen wie die Anzahl der Pipes.

Ich erhoffe z. B. dass der R520 unter für den R520 guten Umständen die bis zu vierfache arithmetische Leistung eines R420 bietet. Zumindest eine Verdreifachung halte ich (aus spekulativen Erwägungen her) für wahrscheinlich.

Denn wäre das nicht der Fall, und R520 würde weiterhin nur eine volle Shader-Unit pro Pipe bieten, wäre das enttäuschend und eines SM3-Chips aus meiner Sicht unwürdig.

robbitop
2005-03-22, 22:22:20
Das sagte ich nicht. Lies bitte, was ich geschrieben habe.

Es ging bei der FX5200 darum, Unmengen an OEM-Deals sowohl in Stückzahl als auch in der Zeit zu befriedigen.
Was ist nun wirtschaftlicher: 10 Millionen Stück bei einer Marge von X unters Volk zu bringen und seine Termine/Verpflichtungen einzuhalten, oder 3 Millionen Stück bei einer Marge von X*2 abzusetzen und dabei den ein oder anderen Großkunden sitzenzulassen resp. gar nicht erst dessen jeweiligem Deal zusagen zu können?


Mein Wissen nehme ich aus einer Quelle, die ich diesbezüglch für vertrauenswürdig halte. Und nein, es ist keine URL.

Das eine muss das andere nicht ausschließen.

Ist sie so vertrauenswürdig wie die Quellen von Fuad? ;)

Quasar
2005-03-22, 22:26:22
Fuad und der Inquirer interessieren mich nicht.

robbitop
2005-03-22, 22:43:38
Fuad und der Inquirer interessieren mich nicht.
Na dann haben wir schonmal eine Analogie zu deinen Quellen ;)

Quasar
2005-03-22, 23:14:31
Na, wenn du das sagt.... (btw, was sagst du damit??)

DrumDub
2005-03-23, 00:51:47
3dfx hat in verschiedene Multisample-Buffer gerendert, die um ein Subpixel versetzt waren IIRC.
jupp. so hab ich das auch in erinnerung.

DrumDub
2005-03-23, 00:52:53
Exxtreme, man rendert dabei das Bild rotiert und nimmt diese Rotation beim Downsampling über einen Pixelshader wieder raus. Da ein Renderbuffer aber keine Rotation haben kann rendert man in den 4 Ecken zuviel.

hmm... da lag ich wohl falsch. wobei diese möglichkeit dann doch recht ineffektiv ist.

Exxtreme
2005-03-23, 01:41:09
Ja, Exxtreme so macht man das wenn der Chip ein RG nicht native unterstützt.
OK, dann wäre die rote Fläche Verschnitt...

Und den Multisample-Buffer kann Nvidia nicht nutzen, oder doch?

Xmas
2005-03-23, 03:20:56
Xmas ich weiss nicht ob S3 das auch so macht.
Ich bin zwar auch nicht 100% sicher, aber ich nehme es stark an. Denn es erklärt vor allem, warum S3 die Modi 5x und 9x anbietet sowie die Auflösungsgrenzen, die laut einem S3-Mitarbeiter durch die maximale Rendertarget-Auflösung begrenzt wird.


Und den Multisample-Buffer kann Nvidia nicht nutzen, oder doch?
Wenn man die Geometrie mehrfach rendert, schon. Leider kostet das größtenteils die Framebuffer-Kompression und sämtliche Early-Z-Optimierungen.

Leonidas
2005-03-23, 18:09:29
Da ging es allein um schiere Stückzahl. Die konnte der Zeit kein anderer Prozess liefern.


Was auch auf RV515 zutreffen dürfte.

robbitop
2005-03-23, 18:30:56
also kann das Columbia Design nicht nativ sparsed Grid SS?

Xmas
2005-03-23, 21:53:22
also kann das Columbia Design nicht nativ sparsed Grid SS?
Ich würde jedenfalls davon ausgehen, dass es ein "echtes" rotated Grid ist, also ein ordered Grid über das gesamte Bild rotiert. Das könnte man evtl. mit den Pattern-Bildern aus dem AA-Tester nachprüfen. Ein Grund warum ich die handgemalten Dinger im DeltaChrome-Artikel nicht mochte ;)
Ich kann mir kaum vorstellen, dass man für praktisch unbrauchbare Modi wie 5x oder 9x noch extra Transistoren verbaut hat.

reunion
2005-03-31, 18:01:01
ATI RV530 is an X700 replacement

ATI HAS 90 NANOMETRE plans for all of its chips.It plans to refresh its offerings with the R5xx generation and all of those chips will be built on 90 nanometres and all will be WGF 1.0 compliant. WGF 1.0 stands for Windows Graphic Foundation, the future Longhorn name for Direct 3D.
It's too early to know many details about this card but we know ATI plans to introduce it toward the end of Q3 or the beginning of Q4.

We expect that this card will feature Shader Model 3.x as this is definitely the direction Nvidia has taken and where ATI wants to be in the future. More and more games are adopting Shader Model 3.0, so ATI kind of has to go down that road.

This card should be feasible as a low profile answer as well and it will be possible to make 128MB to 512MB versions. We expect to see many SKUs (Stock Keeping Units) based on the RV530 - in other words we expect to see many different cards based on this chip.

We still don't know many chip details but this card will likely end up with more than eight pipelines as this is the current number of pipes for a mainstream card. µ

http://www.the-inquirer.net/?article=22253

Leonidas
2005-04-01, 01:36:12
ATI RV530 is an X700 replacement

ATI HAS 90 NANOMETRE plans for all of its chips.It plans to refresh its offerings with the R5xx generation and all of those chips will be built on 90 nanometres and all will be WGF 1.0 compliant. http://www.the-inquirer.net/?article=22253



Na mal schauen, ob sie Recht behalten.

robbitop
2005-04-01, 07:29:13
Ich würde jedenfalls davon ausgehen, dass es ein "echtes" rotated Grid ist, also ein ordered Grid über das gesamte Bild rotiert. Das könnte man evtl. mit den Pattern-Bildern aus dem AA-Tester nachprüfen. Ein Grund warum ich die handgemalten Dinger im DeltaChrome-Artikel nicht mochte ;)
Ich kann mir kaum vorstellen, dass man für praktisch unbrauchbare Modi wie 5x oder 9x noch extra Transistoren verbaut hat.

du kannst gerne Screenshots vom AA Tester bekommen.

Ailuros
2005-04-01, 13:15:37
Gebranntes Kind scheut das Risiko ;)

Nicht unbedingt. Die libraries zwischen 130 und 110nm sind stark "verwandt" afaik, 130nm mit low-k 90nm hingegen nicht.

Ailuros
2005-04-01, 13:32:31
Obwohl es zwischen den Linien irgendwo schon erwaehnt wurde, ATI zielt mit dem R520 eine </=700MHz Taktrate an und ueber diese Kleinigkeit bin ich mir schon >90% sicher (ultra high-end). Breiter verfuegbarere Varianten werden bei =/<650MHz schaetzungsweise liegen.

Bei 4 quads @ 700MHz haben wir dann 11.2 GPixels/sec Fuellrate und ergo eine Steigerung dieser von ~30% im Vergleich zu R480. Spekuliere ich jetzt auf maximal 700MHz GDDR3 gibt mir das eine maximale theoretische Bandbreite von 44.8 GB/sec, ergo eine Steigerung im Vergleich zu R480 von ~19%.

Rechne ich jetzt aber mit 6 quads @ 700MHz dann 16.8 GPixels/sec, ergo 2x mal die Fuellrate einer R480. Das Ganze mit einer ca. 20% hoeheren Bandbreite? Wenn ja dann muesste die Taktrate auf R480 Niveau liegen und hierbei kommt es zu Konflikten mit den Kleinigkeiten die ich ueber sign-off speeds gehoert habe.

Im Gegensatz bei NVIDIA (falls es tatsaechlich einen 6 quad Teil geben wird fuer H1 2005) sieht es eher nach einem weiterem Stromfresser aus, da alle Indizien auf 110nm@TSMC deuten. Besonders hohe Taktraten wuerde ich nicht erwarten und die Transistoren-schaetzung ist auch zu hoch. Man munkelt im Dunkeln von einem 11% groesseren die als NV40.

***edit:

was jetzt H2 2005 betrifft, kommt dann hoechstwahrscheinlich erst der erste NV-Refresh@90nm (und hoechstwahrscheinlich TSMC/low-k).

Mehr als 4 quads wohl auf jeden Fall, wieviel genau keine Ahnung, auf jeden Fall um einiges hoehere Taktraten und GDDR4.

R580 hat hingegen zu seinem R520-Vorgaenger irgendwo eine "merkwuerdige" 3 in seinen specs, die sich irgendwo auf Texturen beziehen soll (keine Ahnung was genau); auch hier duerfte man GDDR4 erwarten und natuerlich um einiges mehr Bandbreite fuer beide IHVs.

Man blubbert zwar von Zahlen zwischen 1200-1600MHz, aber konservativ eingeschaetzt sind selbst 1000MHz schon fette 64 GB/sec Bandbreite.

Alles IMHO ;)

Leonidas
2005-04-01, 20:09:37
Obwohl es zwischen den Linien irgendwo schon erwaehnt wurde, ATI zielt mit dem R520 eine </=700MHz Taktrate an und ueber diese Kleinigkeit bin ich mir schon >90% sicher (ultra high-end). Breiter verfuegbarere Varianten werden bei =/<650MHz schaetzungsweise liegen.



Da brauch ich nicht lange nachdenken: Wenn diese Angabe stimmt, sind es nur 16P.

robbitop
2005-04-01, 21:02:40
Da brauch ich nicht lange nachdenken: Wenn diese Angabe stimmt, sind es nur 16P.
ack

Ailuros
2005-04-02, 15:50:10
Da brauch ich nicht lange nachdenken: Wenn diese Angabe stimmt, sind es nur 16P.

Wer von uns kann 100% sicher sein bis zur Ankuendigung?

Die ersten zuverlaessigen Aussagen sprachen von einer vollen Ausnutzung des extra die-Platzes in low-k 90nm mit einer verrueckt hohen Takt-frequenz und man erwartete auch keine (stets relativiert) massiven Leistungsspruenge generell.

Spaeter hoerte ich von sign-off speeds die bei ~600MHz lagen und auch MuFu murmelte was vor ein paar Tagen von Zielen die verdammt nahe an die 700MHz Grenze gehen sollen fuer die ultra-high end Modelle. Das Puzzle faellt in dem Fall schon zusammen, ist aber auch keine Garantie dass es auch wirklich so sein muss/wird.

MadManniMan
2005-04-03, 02:40:25
ack

Laut Netiquette ist das Spam :usweet: ;)

Zum Thema: seht ihr irgendwo noch Luft für weitere Bandbreitenschonungsmaßnahmen? Derartige Mehrfüllrate, wie sie zu kommen scheint, würde sonst vielleicht vor allem bei anderen AF-Modi Sinn machen ... und daran glaube ich nicht so recht!
Es stellt sich natürlich die Frage, inwiefern Spiele wie Riddick oder Chaos Theory @>SM2.0 Spaß an der höheren Shaderleistung haben werden.

mapel110
2005-04-03, 02:47:06
Laut Netiquette ist das Spam :usweet: ;)

Zum Thema: seht ihr irgendwo noch Luft für weitere Bandbreitenschonungsmaßnahmen? Derartige Mehrfüllrate, wie sie zu kommen scheint, würde sonst vielleicht vor allem bei anderen AF-Modi Sinn machen ... und daran glaube ich nicht so recht!
Es stellt sich natürlich die Frage, inwiefern Spiele wie Riddick oder Chaos Theory @>SM2.0 Spaß an der höheren Shaderleistung haben werden.
Najo, die Auflösung kann man hochjagen. Vielleicht sehen wir beim nächsten Launch reihenweise 2048x1536-Benchmarkspalten. =)
Das war doch bei dem R300-Launch nicht anders und bei den Vorab-FX-Tests. 1280x1024 war da vorher kaum wirklich nutzbar, und zack kamen 1280x1024 und 1600x1200 in die Benchmarks mit rein.

MadManniMan
2005-04-03, 03:11:27
Najo, die Auflösung kann man hochjagen. Vielleicht sehen wir beim nächsten Launch reihenweise 2048x1536-Benchmarkspalten. =)
Das war doch bei dem R300-Launch nicht anders und bei den Vorab-FX-Tests. 1280x1024 war da vorher kaum wirklich nutzbar, und zack kamen 1280x1024 und 1600x1200 in die Benchmarks mit rein.

Das Doofe: der TFT-Boom war damals noch nicht absehbar, momentan manifestiert sich 1280*1024 als Zielauflösung :|

robbitop
2005-04-03, 07:04:27
Laut Netiquette ist das Spam :usweet: ;)

Zum Thema: seht ihr irgendwo noch Luft für weitere Bandbreitenschonungsmaßnahmen? Derartige Mehrfüllrate, wie sie zu kommen scheint, würde sonst vielleicht vor allem bei anderen AF-Modi Sinn machen ... und daran glaube ich nicht so recht!
Es stellt sich natürlich die Frage, inwiefern Spiele wie Riddick oder Chaos Theory @>SM2.0 Spaß an der höheren Shaderleistung haben werden.

1. Blah :-P

2. Sicher ist da noch Luft, aber IMO nicht genug um signifikante Besserung zu verschaffen. Da hilft einfach nur noch pure Rohbandbreite. Die Controller und Caches arbeiten mitlerweile schon verdammt gut. Z und Colorcompression dürften vorerst auch erschöpft sein.
Nutzen kann man das Ganze natürlich trotzdem. Seit einem Jahr geht der Bedarf an aritmetischem Output in Spielen deutlich nach oben. Das kostet kaum Bandbreite, da die Berechnung eines Pixels schon mal 10-100 Takte kosten kann. Ansonsten könnte ATI endlich mal ein für eine High End Karte gebührendes AF verbauen. Wenn man eh genug Füllrate hat, dann kann man die auch in die BQ investieren (bsw auf meinem DC kostet old school AF nur sehr wenig, da auch hier Füllrate im Überfluss vorhanden ist im Gegensatz zu allem anderen).

MadManniMan
2005-04-03, 07:14:15
1. Blah :-P

Das heißt "ack" :D


2. Sicher ist da noch Luft, aber IMO nicht genug um signifikante Besserung zu verschaffen. Da hilft einfach nur noch pure Rohbandbreite. Die Controller und Caches arbeiten mitlerweile schon verdammt gut. Z und Colorcompression dürften vorerst auch erschöpft sein.

XDR-Ram ahoi - aber darauf müssen wir wohl noch ein Weilchen warten...


Nutzen kann man das Ganze natürlich trotzdem. Seit einem Jahr geht der Bedarf an aritmetischem Output in Spielen deutlich nach oben. Das kostet kaum Bandbreite, da die Berechnung eines Pixels schon mal 10-100 Takte kosten kann. Ansonsten könnte ATI endlich mal ein für eine High End Karte gebührendes AF verbauen. Wenn man eh genug Füllrate hat, dann kann man die auch in die BQ investieren (bsw auf meinem DC kostet old school AF nur sehr wenig, da auch hier Füllrate im Überfluss vorhanden ist im Gegensatz zu allem anderen).

Du hast es heut echt mit deinen 10 - 100 Takten, nich? :D Recht hast du trotzdem, aber weißt was? Das mit dem AF hab ich doch schon geschrieben. Hier wäre also ein "ack" angebracht gewesen. :naughty:

Ailuros
2005-04-03, 15:34:20
XDR-Ram ahoi - aber darauf müssen wir wohl noch ein Weilchen warten...

GDDR4 mein Herr (nochmals danke Xmas...). R520 soll bis zu 1600MHz GDDR4 maximal tragen koennen. Zwar wird es noch einige Zeit dauern bis wir zur Verfuegbarkeit solcher Speicher kommen, aber theoretisch sind das >100GB/sec.

Eine etwas nuechterne und konservative Einschaetzung waere 1000MHz GDDR4 fuer den Refresh und ergo 64GB/sec.

Zum Thema: seht ihr irgendwo noch Luft für weitere Bandbreitenschonungsmaßnahmen?

Hoechstwahrscheinlich ein paar interne Speicherverwaltungs-optimierungen die vielleicht den Zugriff zum externen Speicher etwas vermindert. Ich wuerde zwar keine Wunder erwarten, aber mehr ist immer besser.

Uebrigens was die hypothetischen 10-100 Takte betrifft, es sollte wohl offensichtlich sein dass je weniger Takte generell desto besser. Dem staendigen Paperlapapp dass Bandbreite abnehmen soll, linke ich lieber nochmal auf das folgende Dokument aus NVIDIA's GPUGems2 Buch:

http://users.otenet.gr/~ailuros/estimate.jpg

Ja natuerlich ist es nur eine Einschaetzung aber ich sehe hier eine fast parallele Steigerung der Transistoren-Anzahl mit der verfuegbaren Bandbreite. Zwar sind die beiden Zahlen nicht direkt verbunden, aber wenn ich so manches Zeug auf dem Netz lese, habe ich stets den Eindruck dass manche bald erwarten dass GPUs sich voll ganz in CPU-aehnliche chips umwandeln koennten; zwar unter Umstaenden und unter gewissen Voraussetzungen werden sich beide naeher kommen aber wer will kann mir heute eine CPU zeigen die mit 1.9GHz getaktet ist und ~320GB/sec Bandbreite hat.

Das pdf kann man sich vom Netz runtersaugen; bin jetzt zu faul den Link zu finden aber sucht nach chapter 29.


***edit: ATI ist sich des "Bandbreiten-hungers" der ersten R520-Exemplare schon bewusst und deshalb erwartet man auch keine massiven Leistungssteigerungen. Falls das obrige Puzzle immer noch nicht zusammenfaellt - egal was fuer Speicher zu Lebzeiten der R5xx Serie verfuegbar sein wird - man wird wohl nicht so bloed sein und chips entwickeln die >100GB/sec Bandbreite selbst nur theoretisch unterstuetzen koennen.

******edit Nr.2: versucht mal auf dem graph oben einzuschaetzen wo die Bandbreite liegen koennte bei >300-350M Transistoren....

Leonidas
2005-04-03, 18:40:47
Wer von uns kann 100% sicher sein bis zur Ankuendigung?



Die gibt es natürlich nicht. Aber dem skizzierten Fall gebe ich eine Wahrscheinlichkeit von 95%.

Leonidas
2005-04-03, 18:41:43
Zum Thema: seht ihr irgendwo noch Luft für weitere Bandbreitenschonungsmaßnahmen?



Indirekt würde sicherlich eine weitere Unterteilung des Speicherinterfaces helfen.

Leonidas
2005-04-03, 18:42:27
Najo, die Auflösung kann man hochjagen. Vielleicht sehen wir beim nächsten Launch reihenweise 2048x1536-Benchmarkspalten. =)
Das war doch bei dem R300-Launch nicht anders und bei den Vorab-FX-Tests. 1280x1024 war da vorher kaum wirklich nutzbar, und zack kamen 1280x1024 und 1600x1200 in die Benchmarks mit rein.


Und ich überlege eher, 1600x1200 fallenzulassen, weil kaum jemand einen TFT besitzt, der das nativ darstellen kann.

Ailuros
2005-04-04, 00:38:42
Und ich überlege eher, 1600x1200 fallenzulassen, weil kaum jemand einen TFT besitzt, der das nativ darstellen kann.

Das dumme ist dabei aber dass man dann jeglichen CPU-Limitierungen schwer entgehen kann.

MadManniMan
2005-04-04, 00:44:31
Und ich überlege eher, 1600x1200 fallenzulassen, weil kaum jemand einen TFT besitzt, der das nativ darstellen kann.

Ergo 1024 und 1280 als Benchauflösungen?

Und du denkst an einen 8fach unterteilten Speichercontroller?

aths
2005-04-04, 12:22:28
Indirekt würde sicherlich eine weitere Unterteilung des Speicherinterfaces helfen.Das bezweifel ich.

Die GeForce3 bekam u. a. mit dem 4x unterteiltem Controller einen großen Schub. Die GeForce 6600 ist trotz nur 2x unterteiltem Controller aber noch sehr viel effizienter. Dank größeren Caches, besseren Komprimierungsverfahren, Auto-Precharge und was weiß ich was da alles gemacht wird. Den Controller noch mehr zu unterteilen bedeutet zusätzlichen Aufwand.

Ailuros
2005-04-04, 16:24:25
Das bezweifel ich.

Die GeForce3 bekam u. a. mit dem 4x unterteiltem Controller einen großen Schub. Die GeForce 6600 ist trotz nur 2x unterteiltem Controller aber noch sehr viel effizienter. Dank größeren Caches, besseren Komprimierungsverfahren, Auto-Precharge und was weiß ich was da alles gemacht wird. Den Controller noch mehr zu unterteilen bedeutet zusätzlichen Aufwand.

64bit pro Kanal arbeiten auch meistens am idealsten. Eine weitere Controller-Unterteilung wuerde unter Umstaenden bei breiteren Bussen Sinn machen, so wie etwa 8*64 z.B. und stets IMHO :)

robbitop
2005-04-04, 16:30:40
64bit pro Kanal arbeiten auch meistens am idealsten. Eine weitere Controller-Unterteilung wuerde unter Umstaenden bei breiteren Bussen Sinn machen, so wie etwa 8*64 z.B. und stets IMHO :)
korrekt, der Verschnitt ist dort zumeist sehr gering. Und die Kosten sind auch ok.
btw: "ideal" kann man wie das Attribut "optimal" oder "minimal" oder "maximal" nicht steigern ;)

Leonidas
2005-04-05, 03:42:53
Das dumme ist dabei aber dass man dann jeglichen CPU-Limitierungen schwer entgehen kann.


Ich weiss. Aber da ich zumindestens für HighEnd-Chips kein 10x7 mehr benötige, kann man 16x12 ruhig mitlaufen lassen. Mit nur einer Auflösung wäre es auch fad.

Leonidas
2005-04-05, 03:44:21
Die GeForce3 bekam u. a. mit dem 4x unterteiltem Controller einen großen Schub. Die GeForce 6600 ist trotz nur 2x unterteiltem Controller aber noch sehr viel effizienter. Dank größeren Caches, besseren Komprimierungsverfahren, Auto-Precharge und was weiß ich was da alles gemacht wird. Den Controller noch mehr zu unterteilen bedeutet zusätzlichen Aufwand.



Klar, aber mehr als einen 1x Aufwand? So lange die Sache noch Prozente bringt, lohnt es sich sicher, da der *zusätzliche* Siliziumaufwand äußerst gering sein dürfte. Natürlich nur, wenn es überhaupt noch Prozente bringt.

Ailuros
2005-04-05, 08:14:54
Klar, aber mehr als einen 1x Aufwand? So lange die Sache noch Prozente bringt, lohnt es sich sicher, da der *zusätzliche* Siliziumaufwand äußerst gering sein dürfte. Natürlich nur, wenn es überhaupt noch Prozente bringt.

Digit-Life hat einen guten relevanten Spekulations-Artikel ueber die zukuenftigen Loesungen beider IHVs (bin zu faul den link zu finden). Hier wird irgend was von MMU fuer R520 gemunkelt.

DrumDub
2005-04-05, 11:44:00
Digit-Life hat einen guten relevanten Spekulations-Artikel ueber die zukuenftigen Loesungen beider IHVs (bin zu faul den link zu finden). Hier wird irgend was von MMU fuer R520 gemunkelt.
du meinst wohl diesen artikel: http://www.digit-life.com/articles2/video/dx-update.html

robbitop
2005-04-05, 13:29:28
Digit-Life hat einen guten relevanten Spekulations-Artikel ueber die zukuenftigen Loesungen beider IHVs (bin zu faul den link zu finden). Hier wird irgend was von MMU fuer R520 gemunkelt.

Ist doch nichts großartig anderes als TurboCache/hypermemory/ExtremeCache.
So großartig finde ich den Artikel übrigens nicht.

Ailuros
2005-04-06, 01:28:32
Ist doch nichts großartig anderes als TurboCache/hypermemory/ExtremeCache.
So großartig finde ich den Artikel übrigens nicht.

Hat Dir jemand erzaehlt dass virtual memory relevantes Zeug in WGF2.0 irgend etwas um weites besseres sein wird? Nur eben mit vollem "API-Segen".

Uebrigens bezeichnete ich den Artikel als "gut" und keineswegs "grossartig" oder "ausgezeichnet"; von dem abgesehen besser als jeglicher Fuad-Quark ist es schon und es wuerde auch helfen wenn man doch nicht ZU ueberkritisch mit solchem Zeug wird.

robbitop
2005-04-06, 08:51:17
Hat Dir jemand erzaehlt dass virtual memory relevantes Zeug in WGF2.0 irgend etwas um weites besseres sein wird? Nur eben mit vollem "API-Segen".

Uebrigens bezeichnete ich den Artikel als "gut" und keineswegs "grossartig" oder "ausgezeichnet"; von dem abgesehen besser als jeglicher Fuad-Quark ist es schon und es wuerde auch helfen wenn man doch nicht ZU ueberkritisch mit solchem Zeug wird.

besser als Fuad ist ja nun wirklich kein Ruhm ;)

Mag sein, dass das VM Zeug etwas besser ist, dennoch sehe ich dahinter nichts Bedeutendes.

btw: die Theorie mit den 2 universalen Quads klingt gar nicht mal so schlecht. Denn bereits Wavey deutete mal an, dass R520 etwas vom R500 geerbt hat. So hat man gleich fertige VS3.0 und kann diese noch evtl nutzen, um die Pixelpower etw zu unterstützen. Ich nehme an für einen 4-6 universal Quad war es noch zu früh? Klingt jedenfalls nicht schlecht. Theoretisch würden diese 2 universal Quads schon reichen, um als Checklistfeature SM3 zu haben. Die restlichen 4 Quads könnten ja die aus dem R420 bleiben (geht das überhaupt?).

Ailuros
2005-04-06, 13:33:58
besser als Fuad ist ja nun wirklich kein Ruhm ;)

Mag sein, dass das VM Zeug etwas besser ist, dennoch sehe ich dahinter nichts Bedeutendes.

Besser als FUAD und schlechter als was genau? Wuerde ich jetzt einen relevanten spekulativen Artikel schreiben, haettest Du wohl genauso viele Einwaende dagegen und gleiches wuerde vielleicht auch gelten wenn Du der Author waerst. Spekulations-Artikel bewegen sich auf sehr gefaehrlichen Pfaden, wo man sich leicht verfuseln kann (und hierbei leie ich mir mich und dich nur aus als Beispiel, es geht hier nicht um merkwuerdige Vergleiche...).

btw: die Theorie mit den 2 universalen Quads klingt gar nicht mal so schlecht. Denn bereits Wavey deutete mal an, dass R520 etwas vom R500 geerbt hat. So hat man gleich fertige VS3.0 und kann diese noch evtl nutzen, um die Pixelpower etw zu unterstützen. Ich nehme an für einen 4-6 universal Quad war es noch zu früh? Klingt jedenfalls nicht schlecht. Theoretisch würden diese 2 universal Quads schon reichen, um als Checklistfeature SM3 zu haben. Die restlichen 4 Quads könnten ja die aus dem R420 bleiben (geht das überhaupt?).

Keine Ahnung ob das nun wirklich klappen koennte, mir klingt das auf jeden Fall verdammt umstaendlich von der core-Logik und von der Treiber-Entwicklung her (obwohl ich mich stets eines besseren belehren lasse).

a) VS3.0 TMUs sind immer noch IMO HW-Verschwendung (wie oft wuerden diese fuer die Lebzeiten von R520 ueberhaupt benutzt? Es reicht wenn Entwickler vertex texturing fuer zukuenftige Projekte benutzen koennen; wieso jetzt etwas schnell sein sollte was fuer die Lebzeiten des chips minimal benutzt wird kann ich nicht verstehen).

b) Der Haken fuer universale Einheiten wird wohl die fehlende API-Unterstuetzung sein (pure Spekulation); entweder man geht mit der vollen pipeline auf unified oder eben gar nicht. Und das was R520 von R500/Xenon geerbt hat ist wohl eher SM3.0 und float blending.

B3D frontpage (hast Du bestimmt schon gelesen):

Filed on 29 September 2003, ATI patent "Multi-thread graphic processing system" was granted on 31 March 2005 and although deals primarily with a multi-threaded graphics command queuing system this gives further evidence of a unified shader pipeline and also gives some potential insights into Eric Demers comments.

The patent describe one embodiment in which there are two command thread queue "Reservation Stations", one for pixel commands and another of vertex commands, these are both linked to an arbiter device that can distribute the instructions from either reservation station to either an Arithmetic Logic Unit (ALU) or a texture unit - thus distributing the specific command from each of the vertex and pixel shader command between the available processing unit types. The results from both the ALU or texture units can them be passed back to either the pixel or vertex reservation stations dependant on the resultant operations that are required. Effectively the command queues are storing multiple workload threads and storing them for execution until applicable processing elements become available.

On the face of it splitting texture units from the ALU’s appear to be what ATI’s Eric Demers was hinting at in his reply to David Kirk as effectively there is a dedicated pools of texture math processors and separate ALU processors for the actual "pixel shading" and "vertex shading" math operations. Such an arrangement would appear to answer many of the issues surrounding texture read latencies as this should be able to effectively interleave texture operations and available pixel and vertex shader instructions from other threads (that aren’t dependant on those texture reads) until the texture instruction results are performed and fed back into the command queue reservation stations, in an attempt to utilise the available math ALU processing capabilities as much of the time rather than suffering from texture latency stalls. A unified pipeline should also be able to effectively load balance the workload dependant on the number of specific pixel and vertex operations within command queues in order to ensure that stalls do not occur from one being dependant on the other, however if is not clear that the patent outline this particular aspect, unless its assumed that vertex instructions from the current thread that can be executed get priority over pixel instructions.

The patent itself is concerned with the queuing and execution of commands and itself only indicates a single ALU and texture unit, however we can extrapolate this to equate to multiple ALU’s and texture units and graphics performance can easily scale by having the arbiter unit have control over increasing numbers of texture units and ALU’s.

With the next generation DirectX WGF2.0 incarnation specifying a unified shader language for both vertex and pixel shaders within the API this type of command queuing system may be what ATI will be liking at for their WGF2.0 capable graphics processors. However, supposed leaked specifications for Microsoft’s next generation console, codenamed "Xenon", which has ATI produced the graphics at its core, have made suggestions like "The shader core has 48 Arithmetic Logic Units (ALUs) that can execute 64 simultaneous threads on groups of 64 vertices or pixels. ALUs are automatically and dynamically assigned to either pixel or vertex processing depending on load." which sounds like one of the elements this command queuing system is designed to address.

Obwohl digit-life's Theorie zwar interessant ist, sieht mir R520 immer noch eher nach einem 16p/8vs Design aus. Nichts ist natuerlich garantiert wie immer.

Nichtdestominder lies mal das fettgedruckte oben durch und denk mal an die R520: 16/1/1/1 und R580: 16/1/3/1 Zahlen die in letzter Zeit im B3D Forum erschienen sind ;)

dancerd1
2005-04-15, 16:05:42
Däne

Ich glaube nicht das nv45/48 mehr pipelines hat

zweimal 6800 vanila sli = 24 pipes, ganz neue chip sind vohl nicht sehr wahrscheinlich. Sie haben das schon mit Sli getan.

dieses mal würde es kein neues Updates entweder ATI oder Nvidia sein??

Leonidas
2005-05-02, 17:06:27
Ergo 1024 und 1280 als Benchauflösungen?

Und du denkst an einen 8fach unterteilten Speichercontroller?



1)

1024 vermutlich in Sparversion, nur mit allerhöchstens Modi.
1280 komplett
1600 vermutlich auch komplett, weil es eben doch auch welche gibt, die das nutzen - gerade bei solchen gfx


2)

Warum nicht? So lange mir jemand nicht nachweist, daß so ein Teil nichts mehr an Leistung bringt, bleibe ich auf dem Standpunkt, daß es vom Entwicklungs- und Transistoren-Aufwand her eine sehr geringfügige Sache ist.