PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: nVidia NV40, NV41, NV45 & Co. Informationen


Leonidas
2004-01-27, 19:58:30
Link (http://www.3dcenter.org/artikel/2004/01-27_a.php)


So, da habt Ihr einiges an Diskussionsstoff :-).

[dzp]Viper
2004-01-27, 20:15:32
Erstmal schöner kurzer Artikel :)

Sehr Informationsreich (wie immer) und denoch kurz und knapp gehalten!

Werde jetzt mal auf Fehlerjagd gehen :)

Raff
2004-01-27, 20:30:43
Auch von mir ein Lob, sehr informativ, wie immer! Und Fehler habe ich keine gefunden, sowas sticht mir sonst immer ins Auge.. ;)

Ich bin sehr auf das AA des NV40 gespannt...

MfG,
Raff

winter
2004-01-27, 20:35:08
Hmmmm ich kann mir ned helfen, bei den Mainstream chips hab ich ein ungutes gefühl. Ich fürchte die werden sich nicht mit einem einfachen Taktminus begnügen (etwa wie bei TI4200 oder FX5900XT). Und wie ich NV einschätze werden sie die wohl beträchtliche Füllrate mit einem 6xMSAA Modus zerstören, der ein Idiotisches Samplingmuster benutzen wird. Das mit dem AF werden wir sehen, und ich bin einer NV karte mit guter Shaderleistung durchaus nicht abgeneigt ;)

/*edit*/

Hab ich doch glatt vergessen mein Lob auszusprechen :chainsaw2 ;) wirklich informativer Artikel @ 3DCenter Team, alles wichtige schön direkt rüber gebracht, ohne viel zu schwafeln :D

deekey777
2004-01-27, 20:35:10
Wird es ab jetzt auch jeden Tag wieder News geben?
Zum Artikel: Es ist nunmal ein Artkel auf/von 3d-center, da kann man nichts schlechtes erwarten.

Gast
2004-01-27, 20:42:57
Hoffentlich wird der LMA-II-Speichercontroller überarbeitet, um mit niedrigeren Taktraten mehr zu erreichen! Aber wie es sich abzu zeichnen scheint setzt man wohl blödsinnigerweise hohe Taktraten ein!

Black-Scorpion
2004-01-27, 20:44:28
Kurzer Informativer Artikel.

Aber Radeon 9500/9700 Serie wäre richtig.
------------------------------------------------------
welche ATi seit dem R300 (Radeon 9700 /Pro) anbietet
------------------------------------------------------

LovesuckZ
2004-01-27, 20:47:46
Wie soll denn die " arithmetische Power [...] vervielfach[t]" werden?

Leonidas
2004-01-27, 20:51:25
Original geschrieben von deekey777
Wird es ab jetzt auch jeden Tag wieder News geben?




Ja. Ich hab in den letzten Tagen krankheitsbedingt nicht viel getan.

Gast
2004-01-27, 21:23:33
Wahrscheinlich enthält der NV40 außerdem mindestens doppelt so viele Recheneinheiten für den Pixelshader, als der NV38 hat.

Müsste es nicht heißen:
Wahrscheinlich enthält der NV40 außerdem mindestens doppelt so viele Recheneinheiten für den Pixelshader, wie der NV38.

...!?

betasilie
2004-01-27, 21:26:54
Toller Artikel, aber ...

...auf 600 MHz DDR2-Speicher zu setzen...

...dass es eine Ultra-Variante des NV40 mit bis zu 800 MHz Speichertakt gibt.
Ich finde es passt irgendwie nicht zu so einem tollen Text von 800Mhz zu sprechen, obwohl es natürlich keine echten 800Mhz sind. DDR2-800 oder 400Mhz DDR2 fände ich da wenig verwirrender.

...

BTW: Ich glaube, dass der NV realtiv lange auf sich warten lassen und noch einige Neuerungen bieten wird, jedenfalls wenn NV40 und R420 ungefähr gleich auf sind. ... Würde mich nicht wundern, wenn neue AA Modi erst mit dem NV45 kommen.

Denniss
2004-01-27, 21:30:27
Werden wohl eher "echte" MHz sein also 1200/1600 "Marketing" MHz

P.S. : Gute Besserung an Leonidas !

Quasar
2004-01-27, 21:30:56
Original geschrieben von Leonidas
Ja. Ich hab in den letzten Tagen krankheitsbedingt nicht viel getan.

Gute Besserung!

Raff
2004-01-27, 21:35:24
Original geschrieben von Denniss
Werden wohl eher "echte" MHz sein also 1200/1600 "Marketing" MHz

P.S. : Gute Besserung an Leonidas !

Genau. Warum sollte eine neue Karte denn weniger MHz kriegen als das Vorgängermodell? Die Taktangabe stimmt demnach.

Auch von mir gute Besserung!

MfG,
Raff

aths
2004-01-27, 21:37:13
Original geschrieben von betareverse
Würde mich nicht wundern, wenn neue AA Modi erst mit dem NV45 kommen. Ich denke nicht mehr, dass sich NV45 vom NV40 featuremäßig unterscheidet.

betasilie
2004-01-27, 21:39:36
Original geschrieben von Denniss
Werden wohl eher "echte" MHz sein also 1200/1600 "Marketing" MHz

:kratz: Stimmt. ... Also DDR2 Speicher mit 800Mhz Taktung halte ich dann aber für völlig übertrieben.

Mr. Bandit
2004-01-27, 21:45:00
Seite 2, vorletzter Absatz:
Wir halten es für praktisch sicher, dass es bis dahin eine Art "NV48" zur Überbrückung geben wird, ...

An sich ja kein Fehler, aber vorher habt ihr es immer mit 'ß' geschrieben. Fiel mir auf, weil im Satz darüber 'muss 'mit 'ß' geschrieben wurde und noch rekursiv hervorgehoben ist. Bitte etwas einheitlicher. :)

Ansonsten ein informativer und gutzulesender Artikel.

Quasar
2004-01-27, 21:45:33
Wieso?
Mit spekulierten 8x2 und hohen AA-Modi wird genügend Bandbreite verbraten, da kann man schon ein wenig mehr Bandbreite gebrauchen.

Wäre doch schließlich doof, wenn die ganze schöne Füllrate im Nichts verpufft.

betasilie
2004-01-27, 21:46:59
Original geschrieben von aths
Ich denke nicht mehr, dass sich NV45 vom NV40 featuremäßig unterscheidet.
Aber wenn der NV45 wirklich wieder so schnell kommt, wie der NV35 und featureseitig kaum nichts relevant Neues bietet, frage ich mich wie NV die Zeit bis zum NV50 überbrücken will.

Ich würde es als geschickter empfinden, wenn NV den NV schnelle (effektive) Shader und ordentlich Rohperformance verpasst und beim NV45 nochmal das eine oder andere nette Feature bietet, um den Kunden nochmal einen neuen Kaufreiz zu bieten. Somit hätte man mehr Zeit für den NV50, der ja ggf. wieder einen großen Evolutionsschritt bieten wird.

... Das ist natürlich alles nur Spekulation und vielleicht bringt nVidia den NV45 doch recht schnell, weil der NV50 recht früh und ggf. vor dem R500 kommen soll. ... *gruebel*

betasilie
2004-01-27, 21:51:11
Original geschrieben von Quasar
Wieso?
Mit spekulierten 8x2 und hohen AA-Modi wird genügend Bandbreite verbraten, da kann man schon ein wenig mehr Bandbreite gebrauchen.

Wäre doch schließlich doof, wenn die ganze schöne Füllrate im Nichts verpufft.
Dass der NV40 ordentlich Bandbreite brauchen wird mit 8*2er Architektur und modernen AA-Modi, ist klar ;), aber sind 800Mhz Chips vorraussichtlich schon im Mai in ausreichend großen Stückzahlen erhältlich? :???: Ich bin da nicht so informiert, aber 800Mhz hört sich imo etwas ilosorisch an was die Verfügbarkeit solcher Chips angeht.

Quasar
2004-01-27, 22:00:58
Wer weiß. Vielleicht gibt's wieder 'ne Kleinserie à la FX5800u, die mit den schnellsten Komponenten bestückt wird. Gut für gewonnene Benchmarks ist's allemal :)

aths
2004-01-27, 22:04:46
Original geschrieben von betareverse
Toller Artikel, aber ...

Ich finde es passt irgendwie nicht zu so einem tollen Text von 800Mhz zu sprechen, obwohl es natürlich keine echten 800Mhz sind. DDR2-800 oder 400Mhz DDR2 fände ich da wenig verwirrender. DDR2 ist intern zwar nur halb so hoch getaktet, aber die Bandbreiten-Verdopplung durch DDR rechne ich natürlich nicht in den Takt. 600 bzw. 800 MHz DDR2 sind so gemeint, wie geschrieben — FX 5800 Ultra kam mit 500 MHz, und das ist schon ein Weilchen her.

Original geschrieben von betareverse
Aber wenn der NV45 wirklich wieder so schnell kommt, wie der NV35 und featureseitig kaum nichts relevant Neues bietet, frage ich mich wie NV die Zeit bis zum NV50 überbrücken will.

Ich würde es als geschickter empfinden, wenn NV den NV schnelle (effektive) Shader und ordentlich Rohperformance verpasst und beim NV45 nochmal das eine oder andere nette Feature bietet, um den Kunden nochmal einen neuen Kaufreiz zu bieten. Somit hätte man mehr Zeit für den NV50, der ja ggf. wieder einen großen Evolutionsschritt bieten wird.

... Das ist natürlich alles nur Spekulation und vielleicht bringt nVidia den NV45 doch recht schnell, weil der NV50 recht früh und ggf. vor dem R500 kommen soll. ... *gruebel* Mit einem taktoptimierten NV48? ATI hat seit R300 nichts neues gebracht, und ist mit dem prinzipiell gleichen Chip über 1 1/2 Jahre auf dem Markt im High-End-Bereich präsent. Man ändert nicht mal über Nacht den Chip. Entweder wird das von langer Hand geplant, oder in die nächste Generation verschoben.

aths
2004-01-27, 22:05:40
Original geschrieben von Mr. Bandit
Seite 2, vorletzter Absatz:
Wir halten es für praktisch sicher, dass es bis dahin eine Art "NV48" zur Überbrückung geben wird, ...

An sich ja kein Fehler, aber vorher habt ihr es immer mit 'ß' geschrieben. Fiel mir auf, weil im Satz darüber 'muss 'mit 'ß' geschrieben wurde und noch rekursiv hervorgehoben ist. Bitte etwas einheitlicher. :)

Ansonsten ein informativer und gutzulesender Artikel. Der Rohtext kam von mir. Ich richte mich nach der aktuell gültigen und gelehrten Rechtschreibung. Vermutlich hat Leo seine Ergänzungen sturerweise in der alten Rechtschreibung gemacht.

BTW müsste es "gut zu lesender Artikel" heißen :kicher:

aths
2004-01-27, 22:08:25
Original geschrieben von Quasar
Wieso?
Mit spekulierten 8x2 und hohen AA-Modi wird genügend Bandbreite verbraten, da kann man schon ein wenig mehr Bandbreite gebrauchen.

Wäre doch schließlich doof, wenn die ganze schöne Füllrate im Nichts verpufft. So ist es. Abgesehen von Applikationen mit Shadern mit großem Arithmetik-Teil könnte NV40 langsam wieder Richtung Bandbreiten-Limitierung rudern.

Original geschrieben von betareverse
Dass der NV40 ordentlich Bandbreite brauchen wird mit 8*2er Architektur und modernen AA-Modi, ist klar ;), aber sind 800Mhz Chips vorraussichtlich schon im Mai in ausreichend großen Stückzahlen erhältlich? :???: Ich bin da nicht so informiert, aber 800Mhz hört sich imo etwas ilosorisch an was die Verfügbarkeit solcher Chips angeht. Die Zahlen im Artikel sind nicht gänzlich aus den Rippen geschnitten.

BTW, :kicher: "illusorisch" :kicher:

aths
2004-01-27, 22:11:29
Original geschrieben von Gast
Hoffentlich wird der LMA-II-Speichercontroller überarbeitet, um mit niedrigeren Taktraten mehr zu erreichen! Aber wie es sich abzu zeichnen scheint setzt man wohl blödsinnigerweise hohe Taktraten ein! Die Controller ist schon weiter, als zu LMA2-Zeiten (siehe Color-Compression bei MSAA.)

Diese Technologien sind auch mal ausgereizt, dann braucht man schlicht ein breiteres Interface mit höherem Takt. 256 Bit sind Stand der Technik (dank DDR-Verfahren logisch 512 Bit) also muss NV über den Takt gehen.

StefanV
2004-01-27, 22:19:32
Hm, in jedem 2. Satz 'wahrscheinlich'?? :|

betasilie
2004-01-27, 22:22:12
Original geschrieben von aths
BTW, :kicher: "illusorisch" :kicher:
Das habe ich direkt beim tippen bemerkt, aber habe es am Ende vergessen zu korrigieren. *peinlich berührt grinsend*

Raff
2004-01-27, 22:23:26
Also wegen der gigantischen Füllrate würde ich mir keine Sorgen machen. AF "4 free" bzw. eine Stufe höher sind doch auch ganz nett. Und dann ist da noch das Supersampling-AA, welches ja auch sehr von einer dicken Fillrate profitiert. :)

MfG,
Raff

Leonidas
2004-01-27, 22:28:24
Original geschrieben von betareverse
Toller Artikel, aber ...

Ich finde es passt irgendwie nicht zu so einem tollen Text von 800Mhz zu sprechen, obwohl es natürlich keine echten 800Mhz sind. DDR2-800 oder 400Mhz DDR2 fände ich da wenig verwirrender.




Ich meine echte 800 MHz. 3DC meint immer physikalisch korrekte Taktraten.

Leonidas
2004-01-27, 22:30:11
Original geschrieben von betareverse
aber sind 800Mhz Chips vorraussichtlich schon im Mai in ausreichend großen Stückzahlen erhältlich? :???:



Ich persönlich gehe von 600 MHz oder so für NV40/NV41 aus und von 800 MHz bei NV45.

aths
2004-01-27, 22:33:31
Original geschrieben von Stefan Payne
Hm, in jedem 2. Satz 'wahrscheinlich'?? :| Leos Revision führte an einigen Stellen zu konkreteren Aussagen als in meinem Rohtext zu finden. Nicht zuletzt wollte ich vermeiden, den NV40 im Vorhinein zu "verurteilen". Eigentlich war NV45 als meine nächste Karte vorgesehen. Jetzt guck ich aber erst mal, was die Kanadier haben.

betasilie
2004-01-27, 22:36:57
Original geschrieben von Leonidas
Ich persönlich gehe von 600 MHz oder so für NV40/NV41 aus und von 800 MHz bei NV45.
Fände ich gigantisch, daher auch mein Schnellschuss, dass es sich nicht um echte Mhz handelt, was natürlich im Nachhinein betrachtet quatsch war, denn 300Mhz DDR2 wären für den NV40 wohl ein Witz. :)

reunion
2004-01-27, 22:42:03
nVidia NV40
175 Millionen Transistoren, in 130nm gefertigt
8x2 Architektur, allerdings 16 Z/Stencil-Tests pro Takt
DirectX 9.0 Architektur, unterstützt Shader 3.0
gegenüber NV38 verdoppelte und effizientere Pixel Shader
unterstützt DDR1, GDDR2 und GDDR3
internes AGPx8 Interface
genaue Taktraten: unbekannt; geschätzt sind es 500 bis 600 MHz Chiptakt und 600 bis 800 MHz Speichertakt
Verbesserungen bei Anti-Aliasing: (mindestens) ein neue Modus; dessen Samplemuster ist allerdings unbekannt
Verbesserungen beim anisotropen Filter: unbekannt
Präsentation: GDC oder CeBIT Ende März 2004
Markteintritt: Ende April oder Anfang Mai 2004
Verkaufsname: GeForceFX 6XXX

Sind dass eigendlich reine Spekulationen oder gibt es dafür eine Quelle??

kmf
2004-01-27, 22:47:45
Original geschrieben von aths

Nicht zuletzt wollte ich vermeiden, den NV40 im Vorhinein zu "verurteilen".

Wie ist das zu verstehen. Ich stehe jetzt irgendwie auf dem Schlauch. Was da im Artikel zu lesen steht, läßt doch eine Granatenkarte erwarten oder interpretiere ich was in die falsche Richtung.

aths
2004-01-27, 22:54:13
Original geschrieben von reunion
nVidia NV40
175 Millionen Transistoren, in 130nm gefertigt
8x2 Architektur, allerdings 16 Z/Stencil-Tests pro Takt
DirectX 9.0 Architektur, unterstützt Shader 3.0
gegenüber NV38 verdoppelte und effizientere Pixel Shader
unterstützt DDR1, GDDR2 und GDDR3
internes AGPx8 Interface
genaue Taktraten: unbekannt; geschätzt sind es 500 bis 600 MHz Chiptakt und 600 bis 800 MHz Speichertakt
Verbesserungen bei Anti-Aliasing: (mindestens) ein neue Modus; dessen Samplemuster ist allerdings unbekannt
Verbesserungen beim anisotropen Filter: unbekannt
Präsentation: GDC oder CeBIT Ende März 2004
Markteintritt: Ende April oder Anfang Mai 2004
Verkaufsname: GeForceFX 6XXX

Sind dass eigendlich reine Spekulationen oder gibt es dafür eine Quelle?? Teils, teils. Bei einigen Punkten habe ich meine Bedenken, dafür trägt Leo dann die Verantwortung. Es sind echte Infos drin, dann sehr glaubwürdige Gerüchte, und einige Annahmen.

Original geschrieben von kmf
Wie ist das zu verstehen. Ich stehe jetzt irgendwie auf dem Schlauch. Was da im Artikel zu lesen steht, läßt doch eine Granatenkarte erwarten oder interpretiere ich was in die falsche Richtung. Beim R420 sind auch "granatenstarke" Features zu erwarten. Vor allem ist da 6x sparsed MSAA gesichert.

reunion
2004-01-27, 22:59:37
Original geschrieben von aths
Teils, teils. Bei einigen Punkten habe ich meine Bedenken, dafür trägt Leo dann die Verantwortung. Es sind echte Infos drin, dann sehr glaubwürdige Gerüchte, und einige Annahmen.

Geht das auch präziser?? =) :naughty:

aths
2004-01-27, 23:06:14
Original geschrieben von reunion
Geht das auch präziser?? =) :naughty: Klar: 'Beim Anti-Aliasing hätte ich derzeit Bedenken.'

reunion
2004-01-27, 23:12:48
Original geschrieben von aths
Klar: 'Beim Anti-Aliasing hätte ich derzeit Bedenken.'

Hmm, glaubst du wirklich dass NV ein weiteres mal den Fehler macht und auf das veraltete AA der Geforce 3 zurückgreift?

aths
2004-01-27, 23:18:22
Original geschrieben von reunion
Hmm, glaubst du wirklich dass NV ein weiteres mal den Fehler macht und auf das veraltete AA der Geforce 3 zurückgreift? Das glaube ich nicht. Allerdings hat das wenig zu sagen, schon bei GF4 glaubte ich das nicht, erst recht nicht bei der FX.

Quasar
2004-01-27, 23:19:30
Als der nV30 kurz vor der Verfügbarkeit stand, war man sich bei nV auch nicht zu schade, bezgl. des Abtastmusters die Wahrheit ein wenig zu strapazieren. ("non-rectangular grid" IIRC)

betasilie
2004-01-27, 23:21:06
Original geschrieben von aths
Das glaube ich nicht. Allerdings hat das wenig zu sagen, schon bei GF4 glaubte ich das nicht, erst recht nicht bei der FX.
Also spekulierst Du auf neue AA-Modi oder nicht?

aths
2004-01-27, 23:21:58
Original geschrieben von Quasar
Als der nV30 kurz vor der Verfügbarkeit stand, war man sich bei nV auch nicht zu schade, bezgl. des Abtastmusters die Wahrheit ein wenig zu strapazieren. ("non-rectangular grid" IIRC) Stimmt bei 6xS auch, bei 8xS je nach Ansicht. 6xS ist wegen der Artefakte allerdings nicht empfehlenswert, und 8xS schlugt brutale Leistung. NV aktivierte dann allerdings längere Zeit ein hässliches 8x OG-Muster für D3D.

reunion
2004-01-27, 23:25:26
Original geschrieben von aths
Das glaube ich nicht. Allerdings hat das wenig zu sagen, schon bei GF4 glaubte ich das nicht, erst recht nicht bei der FX.

Warum hast du dann beim AA "bedenken"?

Mr. Bandit
2004-01-27, 23:48:29
Original geschrieben von aths

BTW müsste es "gut zu lesender Artikel" heißen :kicher:

Peinlich, peinlich. Aber war irgendwie klar, dass das passiert.

Thowe
2004-01-27, 23:49:49
Original geschrieben von reunion
Warum hast du dann beim AA "bedenken"?

Weils manchmal klemmt und häufig riecht.

*SCNR*



Zum Thema, ich denke das nVidia diesmal was wirklich guten abliefern wird, einfach weil sie es müssen und sie auch dazu die Leute haben um es zu realisieren.

betasilie
2004-01-27, 23:59:39
Original geschrieben von Thowe
Weils manchmal klemmt und häufig riecht.

*SCNR*

Ein Spruch in dieser Art lag mir schön öfter auf der Feder, aber ich habe mich bis jetzt zurückhalten können. Jetzt kommt der Thowe und klaut mir meinen Kalauer. :(

Original geschrieben von Thowe
Zum Thema, ich denke das nVidia diesmal was wirklich guten abliefern wird, einfach weil sie es müssen und sie auch dazu die Leute haben um es zu realisieren.
Entweder so oder NV ruht sich arroganter Weise auf deren Image aus. Ohne neue AA-Modi, ist der NV40 für mich jedenfalls gestorben.

Endorphine
2004-01-28, 00:04:11
Ich bin ganz gespannt auf den NV43. Da ich immer weniger Zeit zum spielen finde und gleichzeitig gesteigerten Wert auf ein leises System mit niedriger Leistungsaufnahme lege wird das wohl meine nächste Graka werden. =)

Ich hoffe, dass das Teil nur ein halbierter NV40/NV45 wird, also 4x2 Architektur mit 128-Bit DDR2-SDRAM und schön viel Takt. Das wäre dann wenn die Taktraten stimmen immer noch mehr Power als eine R9700 und gleichzeitig ne niedrigere Leistungsaufnahme, 256 MiB RAM sowie PCI-Express x16-Interface. :up:

Und dazu noch AA auf derzeitigem ATI-Niveau mit gleichzeitig überlegenem nVidia-AF. Genau das, was ich suche. Ich hoffe, dass nVidida das so auf die Beine stellen wird, für einen Preis der Karten im Einzelhandel von um die 200 EUR für die Ultraversion. Das wär's...

p.s. Thx für den Artikel aths und Leonidas. Und gute Besserung @ Leo.

Leonidas
2004-01-28, 00:49:51
Original geschrieben von reunion
nVidia NV40
175 Millionen Transistoren, in 130nm gefertigt
8x2 Architektur, allerdings 16 Z/Stencil-Tests pro Takt
DirectX 9.0 Architektur, unterstützt Shader 3.0
gegenüber NV38 verdoppelte und effizientere Pixel Shader
unterstützt DDR1, GDDR2 und GDDR3
internes AGPx8 Interface
genaue Taktraten: unbekannt; geschätzt sind es 500 bis 600 MHz Chiptakt und 600 bis 800 MHz Speichertakt
Verbesserungen bei Anti-Aliasing: (mindestens) ein neue Modus; dessen Samplemuster ist allerdings unbekannt
Verbesserungen beim anisotropen Filter: unbekannt
Präsentation: GDC oder CeBIT Ende März 2004
Markteintritt: Ende April oder Anfang Mai 2004
Verkaufsname: GeForceFX 6XXX

Sind dass eigendlich reine Spekulationen oder gibt es dafür eine Quelle??


Speziell in dieser Tabelle stehen 98%ige Fakten, sofern kein "wahrscheinlich" oder so dazusteht. Quelle: Haben wir (mehrere), doch: Bleibt ungenannt.

Leonidas
2004-01-28, 00:50:59
Original geschrieben von aths
Klar: 'Beim Anti-Aliasing hätte ich derzeit Bedenken.'


Ähm, das weisst Du noch nicht. Da habe ich in letzter Sekunde noch eine neue, absolut sichere Info bekommen, deswegen habe ich den Dir bekannten Text noch mal geändert.

MadManniMan
2004-01-28, 00:54:03
Original geschrieben von aths
Beim R420 sind auch "granatenstarke" Features zu erwarten. Vor allem ist da 6x sparsed MSAA gesichert.

LöL! ...mehr fällt mir da grad nicht ein :| Gut gebrüllt, aths :up:

BTW geh ich ganz und gar nicht mit eurer Speku mit, daß nV 2 Refreshchips präsentieren wird, dazu ist einfach zu wenig Luft bis Longhorn und/oder DX-Next und da ist zuviel PCI-Express dabei.

Meine Meinung: NV45 = NV40 mit PCI-Exp, der NV48 = NV45 mit viel Takt


Nochwas: wo ist AiL :naughty:




PPPPPPPPS: trotzdem mal ne schöne Zusammenfassung (wobei AFAIR nichts wirklich Neues dabei war), das hat der Spekumarkt echt mal gebraucht, zumal die Einschätzungen wohl rech passend sind.
PPPPPPPPPS³: g00te Bässer00ng.




Wer hat mich eigentlich in die 3DC-Übersetzungsteam-Liste eingetragen? Ich werd wohl besoffen gewesen sein... was solls, wenns was Neues gibt, bemüh ich mich gern!

Quasar
2004-01-28, 01:13:57
nVidia NV40
175 Millionen Transistoren, in 130nm gefertigt
genaue Taktraten: geschätzt sind es 500 bis 600 MHz Chiptakt

Das fiel mir jetzt erst auf: 175Millionen Transistoren in 0,13µ mit 600MHz?

Serienmäßige Stickstoff-Kühlung?

MadManniMan
2004-01-28, 01:18:28
Original geschrieben von Quasar
Das fiel mir jetzt erst auf: 175Millionen Transistoren in 0,13µ mit 600MHz?

Serienmäßige Stickstoff-Kühlung?

Nö, wußtest du noch nicht um das neue PET-Format? :|


















:spritz: OMG, ich lach mir einen weg :lolaway: Liegt evtl. am Suff, ist aber akuter Fall von ist so... ;)

Warte einfach ab, was für eine PSU der NV40/45 benötigt. IMGO wird sich die Szene wegROFLen, h3h3.

Denniss
2004-01-28, 03:29:49
Original geschrieben von Quasar
Das fiel mir jetzt erst auf: 175Millionen Transistoren in 0,13µ mit 600MHz?

Serienmäßige Stickstoff-Kühlung?

Und ein Mini-Atomkraftwerk frei Haus .....

Also wenn da mal nicht die 100W fallen wie beim Prescott (scheint ja in Mode zu sein ..)
Unter einem 430W Antec True Power läuft dann wohl nichts mehr in einem Athlon64 System mit der Karte ....

Xmas
2004-01-28, 04:45:29
Original geschrieben von Quasar
Das fiel mir jetzt erst auf: 175Millionen Transistoren in 0,13µ mit 600MHz?

Serienmäßige Stickstoff-Kühlung?
Warum denkt eigentlich jeder "mehr Transistoren = mehr Abwärme"? Das gilt zwar wegen der Leckströme für den "Idle-Modus", aber man kann mehr Transistoren genausogut dafür einsetzten, um unter Volllast weniger Wärme zu entwickeln. Außerdem ist bei mehr Die-Fläche die Wärmeableitung einfacher.

betasilie
2004-01-28, 04:49:44
Original geschrieben von Xmas
Außerdem ist bei mehr Die-Fläche die Wärmeableitung einfacher.
Wie man es auch lange beim AMD Duron beobachten konnte. Durch den kleineren Kern gegenüber dem Athlon, hat man die Wärme schlechter abgenommen bekommen und dementsprechend wurden keine so hohen Taktungen erreicht, wie beim Athlon.

mapel110
2004-01-28, 05:07:31
seite 2, 2.absatz, letzter satz

falsch:
Bei nVidia ist dieser Chip fertig und wird anderem auch für aktuelle AGPx8 Grafikkarten eingesetzt werden, um diese nachträglich noch PCI Express fähig zu machen.

richtig:
Bei nVidia ist dieser Chip fertig und wird unter anderem auch für aktuelle AGPx8 Grafikkarten eingesetzt werden, um diese nachträglich noch PCI Express fähig zu machen.

ansonsten nett zu lesen. dass nvidia beim brilinearen filter bleibt ist wirklich mehr als wahrscheinlich. die technik zur justierung des tribands hat man ja schliesslich gerade erst eingeführt.

Quasar
2004-01-28, 06:24:27
Original geschrieben von Xmas
Warum denkt eigentlich jeder "mehr Transistoren = mehr Abwärme"? Das gilt zwar wegen der Leckströme für den "Idle-Modus", aber man kann mehr Transistoren genausogut dafür einsetzten, um unter Volllast weniger Wärme zu entwickeln. Außerdem ist bei mehr Die-Fläche die Wärmeableitung einfacher.

Weil gerade bei Grafikchips bislang die "Funktionsdichte" auf dem Die eigentlich ziemlich hoch war.

Gast
2004-01-28, 08:54:25
http://www.xbitlabs.com/news/video/display/20040127195950.html


Witzig, ihr seit jetzt also "Analysten".


Zum Artikel :

Ich finde den ganzen Artikel ziemlich schwach. Eine so geballte Aneinanderreihung von Möchte, Könnte, Wünsche, Glaube und Hoffe ist mir bei 3DCenter.de noch nicht untergekommen.


Was soll das?


Entweder habt ihr Informationen über den NV40 oder ihr habt keine, stochert im Nebel und träumt euch was zusammen.

Also was denn nun? Aus dem Artikel wird man jedenfalls nicht Schlau. Das einzige was ihr anscheinend wisst ist die Anzahl der Transistoren. Bei allen anderen Sachen hofft ihr nur das die Features kommen.

Wenn ich jetzt komplett falsch liege und ihr habt zuverlässige Informationen, warum schreibt ihr es dann nicht so rein. Die Quelle muss man ja nicht nennen, aber ein "wir wissen aus zuverlässiger Quelle, das und das und das" kann man doch ohne Probleme unterbringen. Da der NV40-Release nicht mehr so weit weg ist (Mitte März, nach "zuverlässigen" Gerüchten) sollte so ein Vorgehen auch keine Probleme machen, da bereits sehr viele Leute über den NV40 Bescheid wissen sollten. Man verbrennt seine Quelle durch so eine Notiz also nicht.

mapel110
2004-01-28, 09:06:56
Original geschrieben von Gast
http://www.xbitlabs.com/news/video/display/20040127195950.html


Witzig, ihr seit jetzt also "Analysten".


lol, was da xbit alles noch dazu dichtet, ist ja echt hammer :D
normalerweise garnicht deren art, aber sie haben sich ohnehin in letzter zeit stark zu inquirer hinorientiert. und auf den 3dcenter-artikel sind sie wohl voll abgefahren :D

nggalai
2004-01-28, 09:58:09
Original geschrieben von Denniss
Und ein Mini-Atomkraftwerk frei Haus .....

Also wenn da mal nicht die 100W fallen wie beim Prescott (scheint ja in Mode zu sein ..)
Unter einem 430W Antec True Power läuft dann wohl nichts mehr in einem Athlon64 System mit der Karte .... Ich sag's mal so--mit 100W bist Du auf der seeehr konservativen Seite, bei deiner Schätzung. Die NV45 wird wohl DEUTLICH mehr saugen. No pun intended. ;D

93,
-Sascha.rb

Exxtreme
2004-01-28, 10:18:15
Original geschrieben von mapel110
normalerweise garnicht deren art, aber sie haben sich ohnehin in letzter zeit stark zu inquirer hinorientiert. und auf den 3dcenter-artikel sind sie wohl voll abgefahren :D
Die Jungs von x-bit lesen oft die 3Dcenter-News. Und mindestens einer von denen kann sogar ziemlich gut deutsch. :)

Leonidas
2004-01-28, 11:25:13
Original geschrieben von Quasar
Das fiel mir jetzt erst auf: 175Millionen Transistoren in 0,13µ mit 600MHz?

Serienmäßige Stickstoff-Kühlung?



600 MHz ist das obere Ende. Allerdings halte ich es für eher unwahrscheinlich, daß NV bei einem neuen Chip weniger Takt bietet als beim letzten. Und es sind auch nur 35% mehr Transistoren, gegenüber anderen NextGen-Chips ist das wenig.

Leonidas
2004-01-28, 11:27:16
Original geschrieben von Gast
Entweder habt ihr Informationen über den NV40 oder ihr habt keine, stochert im Nebel und träumt euch was zusammen.




Wir haben welche, wir schreiben nur die Quellen nicht dazu. Dort wo kein "wahrscheinlich" dasteht, sind es im Prinzip sichere Sachen.

Leonidas
2004-01-28, 11:28:41
Original geschrieben von Gast
Ich finde den ganzen Artikel ziemlich schwach. Eine so geballte Aneinanderreihung von Möchte, Könnte, Wünsche, Glaube und Hoffe ist mir bei 3DCenter.de noch nicht untergekommen.



Mmh. 3DC hat eine gewisse Tradition in solchen Artikeln und wir haben früher teilweise noch viel unglaubwürdigere Gerüchte aus unverifizierbaren Quellen in dieser Art verbreitet. Dagegen ist dieser Artikel regelrecht ein "Buch der Wahrheit".

Leonidas
2004-01-28, 11:29:09
Original geschrieben von Mr. Bandit
An sich ja kein Fehler, aber vorher habt ihr es immer mit 'ß' geschrieben. Fiel mir auf, weil im Satz darüber 'muss 'mit 'ß' geschrieben wurde und noch rekursiv hervorgehoben ist. Bitte etwas einheitlicher. :)



Gefixt.




Original geschrieben von mapel110
falsch:
Bei nVidia ist dieser Chip fertig und wird anderem auch für aktuelle AGPx8 Grafikkarten eingesetzt werden, um diese nachträglich noch PCI Express fähig zu machen.




Gefixt.

Gast
2004-01-28, 11:30:25
Original geschrieben von aths
Stimmt bei 6xS auch, bei 8xS je nach Ansicht. 6xS ist wegen der Artefakte allerdings nicht empfehlenswert, und 8xS schlugt brutale Leistung. NV aktivierte dann allerdings längere Zeit ein hässliches 8x OG-Muster für D3D.


=> schluckt :D

Leonidas
2004-01-28, 11:35:25
Note am Rande:

Schon sehr lustig. Die einen bemängeln die fehlende Sicherheit/Quellenangaben des Artikels, die anderen, daß er ihnen nix neues an Informationen bietet ;-).

kmf
2004-01-28, 11:46:18
Original geschrieben von Leonidas
Note am Rande:

Schon sehr lustig. Die einen bemängeln die fehlende Sicherheit/Quellenangaben des Artikels, die anderen, daß er ihnen nix neues an Informationen bietet ;-).

Leo, mir hat er eine Menge Neues offenbart und mal ganz ehrlich, ich bin jetzt schon ganz scharf auf das Teil. Entgegen aths bin ich nämlich der Meinung, daß nV diesmal der Konkurenz gehörig in die Eier tritt. Wir werden es sehen. Noch so einen Rohrkrepierer, wie den 5800 Ultra-Chip können die sich nicht leisten.

mapel110
2004-01-28, 12:00:31
Original geschrieben von kmf
Noch so einen Rohrkrepierer, wie den 5800 Ultra-Chip können die sich nicht leisten.

wieso denn rohrkrepierer?
wenn ATI nicht mit dem R300 gekommen wäre, wäre doch alles in butter gewesen.

der enduser hätte einen nv30 mit 400 core und speichertakt bekommen, und mangels vergleichbarer hardware wäre auch die miese ps2.0 performance nicht aufgefallen.
ergo standesgemässe nextgen-grafikkarte von nvidia.

deswegen würde ich mal von nächsten nv-chip ebenfalls keine wunder erhoffen.

Exxtreme
2004-01-28, 12:04:06
Original geschrieben von mapel110
wieso denn rohrkrepierer?
wenn ATI nicht mit dem R300 gekommen wäre, wäre doch alles in butter gewesen.

der enduser hätte einen nv30 mit 400 core und speichertakt bekommen, und mangels vergleichbarer hardware wäre auch die miese ps2.0 performance nicht aufgefallen.
ergo standesgemässe nextgen-grafikkarte von nvidia.

Full Ack! Wäre der R300 nicht so stark gewesen, dann hätte jeder den NV30 voll abgefeiert. Dieser ist nämlich deutlich stärker im Bereich AA + AF als der NV25 ... nur für den R300 hat es nicht gereicht. Und dann noch der Fön ...

StefanV
2004-01-28, 12:13:47
Original geschrieben von Exxtreme
Full Ack! Wäre der R300 nicht so stark gewesen, dann hätte jeder den NV30 voll abgefeiert. Dieser ist nämlich deutlich stärker im Bereich AA + AF als der NV25 ... nur für den R300 hat es nicht gereicht. Und dann noch der Fön ...

Naja, hätte nv den NV30 mit 'standard' KÜhlung und ohne 'DDR-II Heizspeicher' gebracht, dann wäre der nV30 durchaus eine brauchbare Alternative zur Radeon 9500 PRO gewesen *eg*

Gast
2004-01-28, 12:23:52
Original geschrieben von Leonidas
Mmh. 3DC hat eine gewisse Tradition in solchen Artikeln und wir haben früher teilweise noch viel unglaubwürdigere Gerüchte aus unverifizierbaren Quellen in dieser Art verbreitet. Dagegen ist dieser Artikel regelrecht ein "Buch der Wahrheit".
OK, dann habe ich mich verändert. Sowas soll ja vorkommen. Ich bin anscheinend nicht mehr so einfach zufriedenzustellen.


Wir haben welche, wir schreiben nur die Quellen nicht dazu. Dort wo kein "wahrscheinlich" dasteht, sind es im Prinzip sichere Sachen.
Das ist ja das Problem. Auf Seite 1 steht bei jedem Feature "wahrscheinlich" "vielleicht" "Möglicherwesie" etc... dabei. Zum Schluss bleibt der Artikel damit eine Ansammlung von Wünschen und Hoffnungen aber eben nicht mehr. Seite 2 hat mich nicht interessiert, da diese Chips noch zu weit weg sind.

LovesuckZ
2004-01-28, 12:32:53
*hust*

Original geschrieben von LovesuckZ
Wie soll denn die " arithmetische Power [...] vervielfach[t]" werden?

BodyLove
2004-01-28, 12:33:03
@leo und aths guter artikel.:up:

Schade finde ich, dass ihr nichts über den R420 geschrieben habt. Ein "kleiner" vergleich wäre sicherlich gut gewesen. Ich schätze mal, dass ihr leichter an NV40-infos rangekommen seit, als an R420-Infos.

Der Nv40 bekommt also ganz sicher ein 8x2 Pipelinesetup?

Gast
2004-01-28, 12:41:03
Original geschrieben von Stefan Payne
Naja, hätte nv den NV30 mit 'standard' KÜhlung und ohne 'DDR-II Heizspeicher' gebracht, dann wäre der nV30 durchaus eine brauchbare Alternative zur Radeon 9500 PRO gewesen *eg*


Hart aber herzlich...oder wie war das.

Im Grunde stimmt das aber. Als die ersten Gerüchte über den R300 kamen hat jeder einen ultraheißen, instabilen 0,15µm Chip mit max. 250MHz erwartet. Die 256bit-Speicheranbindung hat keiner geglaubt/erwartet.

Gegenüber einem für damalige Verhältnisse "normalen" ATi-Chip ( 128bit mit <= 250MHz ) hätte ein NV30 mit 400/400MHz sicher sehr gut ausgesehen. Selbst die DX9-Fähigkeiten wären etwas ausgeglichener gewesen, Nvidia hätte beim 3DMark03 nicht cheaten "müssen" und damit wären alle zufrieden gewesen (außer ATi).

Gast
2004-01-28, 12:42:38
Original geschrieben von Leonidas
600 MHz ist das obere Ende. Allerdings halte ich es für eher unwahrscheinlich, daß NV bei einem neuen Chip weniger Takt bietet als beim letzten. Und es sind auch nur 35% mehr Transistoren, gegenüber anderen NextGen-Chips ist das wenig.

Mehr als 600MHz sehe ich ehrlich gesagt auch höchstens im Mid-Range (Sechs unabhängige Pixel, bzw. drei 2xSIMD wären toll, da könnte man Low-End, Mid-Rang und High-End super trennen ;)) oder beim Wechsel auf einen kleineren Fertigungsprozess.

nV ging ja schon beim nV30 und nV35/38 weg von reinen Füllratenangaben und bezog sich stärker auf die (für manche offenbar non-existente) Shaderpower.

Mir ist's eigentlich egal, wie hoch der Chip getaktet ist, am Ende zählt die Leistung, die "hinten" raus kommt und wenn sie es schaffen, ein 500M-Transistor-Monster zu erzeugen, daß dafür nur auf 200MHz läuft: Na und?

Zwei (bis drei) Gegenargumente gegen deine These:
- nV20 war langsamer getaktet als nV15
- 35% mehr Transistoren - ok. Aber der Prouzess blieb diesmal derselbe (nV20 bekam 0,15µ; nV30 0,13µ)
- Der Takt von nV35 und nV38 ist niedriger als der vom nV30 (ok, nur ein halbes Argument, da keine neue Generation)


;Q

kmf
2004-01-28, 12:46:28
Original geschrieben von mapel110
wieso denn rohrkrepierer?
wenn ATI nicht mit dem R300 gekommen wäre, wäre doch alles in butter gewesen.

der enduser hätte einen nv30 mit 400 core und speichertakt bekommen, und mangels vergleichbarer hardware wäre auch die miese ps2.0 performance nicht aufgefallen.
ergo standesgemässe nextgen-grafikkarte von nvidia.

deswegen würde ich mal von nächsten nv-chip ebenfalls keine wunder erhoffen.

Ich bleibe beim Rohrkrepierer. Ati hat den R300 im Herbst 2002 herausgebracht. Erst im Februar des darauffolgenden Jahres wurde das nV Produkt vorgestellt. Gibt ja einen Riesenthread darüber. Schon im Herbst wußte also nV, gegen welchen Golem sie anzutreten hatten. Daß nV das Potenzial hat schnell zu reagieren, hat man daran gesehen, wie fix sie den 5950 nachgeschoben haben.

aths
2004-01-28, 12:50:53
Original geschrieben von LovesuckZ
*hust* Steht da doch? Ziemlich an Anfang, auf Seite 1.

aths
2004-01-28, 12:52:05
Original geschrieben von BodyLove
Der Nv40 bekommt also ganz sicher ein 8x2 Pipelinesetup? Nein.
Original geschrieben von BodyLove
Schade finde ich, dass ihr nichts über den R420 geschrieben habt. Ein "kleiner" vergleich wäre sicherlich gut gewesen. Ich schätze mal, dass ihr leichter an NV40-infos rangekommen seit, als an R420-Infos. Vergleich womit? Wenn du Infos zum R420 hast, immer her damit. Ich für mein Teil habe da nicht die allergeringste Information.

mapel110
2004-01-28, 12:52:46
Original geschrieben von kmf
Ich bleibe beim Rohrkrepierer. Ati hat den R300 im Herbst 2002 herausgebracht. Erst im Februar des darauffolgenden Jahres wurde das nV Produkt vorgestellt. Gibt ja einen Riesenthread darüber. Schon im Herbst wußte also nV, gegen welchen Golem sie anzutreten hatten. Daß nV das Potenzial hat schnell zu reagieren, hat man daran gesehen, wie fix sie den 5950 nachgeschoben haben.

innerhalb von einem halben jahr werden aber keine nextgen-chips entwickelt (weiterentwickelt).
nv35 war ja nur etwas aufgebohrt (paar grössere schwachstellen bezüglich dx9power behoben, btw immernoch lange nicht konkurrenzfähig ).

LovesuckZ
2004-01-28, 12:53:08
Original geschrieben von kmf
Daß nV das Potenzial hat schnell zu reagieren, hat man daran gesehen, wie fix sie den 5950 nachgeschoben haben.

Man kann keinen Chip mal schnell umkonstruieren.
Der NV30 hat sich fast ein ganzes Jahr verspätet. Mit dem NV35 hat man die Pixelshaderschwaeche leicht entschaerft, den Fertigungsprozeß verfeinert und noch ein paar Dinge verbessert.
Man wusste um die Schwaechen des NV30, nur kann man schwiegende Dinge, wie das fehlende konkurenzfähige AA(Muster), nicht einfach mal so hinzufügen.

aths
2004-01-28, 12:55:19
Original geschrieben von kmf
Ich bleibe beim Rohrkrepierer. Ati hat den R300 im Herbst 2002 herausgebracht. Erst im Februar des darauffolgenden Jahres wurde das nV Produkt vorgestellt. Gibt ja einen Riesenthread darüber. Schon im Herbst wußte also nV, gegen welchen Golem sie anzutreten hatten. Daß nV das Potenzial hat schnell zu reagieren, hat man daran gesehen, wie fix sie den 5950 nachgeschoben haben. Ich setze ca. 16 - 20 Monate Vorlaufzeit in der Entwicklung an, vom Beginn des Designs (auf Basis eines bestehenden Chips) zum Tape-Out. NV konnte chipmäßig nur noch über den Takt reagieren. Der NV38 ist wahrscheinlich identisch mit dem NV35, so dass hier eine "schnelle Reaktion" nicht verwunderlich ist.

MadManniMan
2004-01-28, 12:57:25
Original geschrieben von Gast
- 35% mehr Transistoren - ok. Aber der Prouzess blieb diesmal derselbe (nV20 bekam 0,15µ; nV30 0,13µ)


Erinner ich mich da jetzt falsch und war es nicht so:

NV20 = 0.18µ NV20"Rev.2" = 0.15µ


:grübel:

StefanV
2004-01-28, 13:04:44
Original geschrieben von MadManniMan
Erinner ich mich da jetzt falsch und war es nicht so:

NV20 = 0.18µ NV20"Rev.2" = 0.15µ


:grübel:

Nein, das war beim NV15 so.

Der 'normale' NV15 wurde in 180nm gefertigt, die später nachgeschobene TI Version mit 0.15µ...

Der NV20 wurde AFAIK immer in 0.15µ gefertigt.

Thowe
2004-01-28, 13:04:45
Original geschrieben von Gast
...
Mir ist's eigentlich egal, wie hoch der Chip getaktet ist, am Ende zählt die Leistung, die "hinten" raus kommt und wenn sie es schaffen, ein 500M-Transistor-Monster zu erzeugen, daß dafür nur auf 200MHz läuft: Na und?

...

;Q

Im Prinzip richtig, dummerweise wird aber der Takt bei vielen schon als Leistungsindex gewertet. Würde NVIDIA den Takt meinentwegen mit 300 Mhz beginnen, dann würde es zwangsweise auch Personen geben, die der Ansicht wären, das hier die Karte vielleicht gar langsamer wäre als der Vorgänger. Irgendein "Benchmark" (meinentwegen Turok) würde das sogar unter Umständen belegen.

Interessant werden dann solche Karten, die in Zukunft mehrere Prozessoren im Chip haben. Da könnte man fein von DCR1200 Takt (double clock rate) reden oder ähnlich.

Sollte es eines Tages dann taktlose (Grafik-)Prozessoren geben, dann wird es vermutlich eine Art von virtueller Taktfrequenz Angabe geben. Einfach weils wohl fürs Marketing gebraucht wird.

kmf
2004-01-28, 13:05:08
Original geschrieben von LovesuckZ
Man kann keinen Chip mal schnell umkonstruieren.
Der NV30 hat sich fast ein ganzes Jahr verspätet. Mit dem NV35 hat man die Pixelshaderschwaeche leicht entschaerft, den Fertigungsprozeß verfeinert und noch ein paar Dinge verbessert.
Man wusste um die Schwaechen des NV30, nur kann man schwiegende Dinge, wie das fehlende konkurenzfähige AA(Muster), nicht einfach mal so hinzufügen.

Ich weiß selbst, wie lange ein Chipdessign dauert. Da aber immer zwei Entwicklungen in der Pipeline sind, wäre es m. E. möglich gewesen, mit entsprechendem Kraftakt natürlich, den NV35 vorzuziehen und den NV30 sofort als HighEnd-Lösung sterben zu lassen.

Gast
2004-01-28, 13:06:05
Original geschrieben von aths
Ich setze ca. 16 - 20 Monate Vorlaufzeit in der Entwicklung an, vom Beginn des Designs (auf Basis eines bestehenden Chips) zum Tape-Out. NV konnte chipmäßig nur noch über den Takt reagieren. Der NV38 ist wahrscheinlich identisch mit dem NV35, so dass hier eine "schnelle Reaktion" nicht verwunderlich ist.


Wenn ich jetzt nicht zu faul wäre könnte ich vielleicht die entsprechende Präsentationsfolie von Nvidia finden, die Demirug einmal gepostet hat. Laut der Präsentation ist der NV40 (soweit ich mich erinnere) seit Frühjahr 2002 ( ~ 04/02) in der Entwicklung. Allerdings sollte er ja schon im Herbst kommen. Macht also insgesamt ca. 24 Monate. Der NV35 hat allerdings nicht so lange gedauert. Den Zeitraum für den NV35 habe ich mir aber nicht gemerkt.

aths
2004-01-28, 13:11:34
Original geschrieben von kmf
Ich weiß selbst, wie lange ein Chipdessign dauert. Da aber immer zwei Entwicklungen in der Pipeline sind, wäre es m. E. möglich gewesen, mit entsprechendem Kraftakt natürlich, den NV35 vorzuziehen und den NV30 sofort als HighEnd-Lösung sterben zu lassen. Und sich weitere Monate Verzögerungen mit dem neuen Tape-Out leisten?

mapel110
2004-01-28, 13:14:06
und wenn man nicht den nv30 gebracht hätte, hätte man auch nicht mit zwei paperlauches den zeitraum überbrücken können.

erste benchmarks gabs ja im november 2002, die nächsten dann ende januar und der eigentliche launch ja dann zur cebit.

kmf
2004-01-28, 13:19:54
Original geschrieben von mapel110
und wenn man nicht den nv30 gebracht hätte, hätte man auch nicht mit zwei paperlauches den zeitraum überbrücken können.

erste benchmarks gabs ja im november 2002, die nächsten dann ende januar und der eigentliche launch ja dann zur cebit.

Ich glaube Thilo war mit einer der ersten, die eine 9800 Ultra von Terratec über Nacht getestet haben. Und das war im Februar.

mapel110
2004-01-28, 13:39:03
Original geschrieben von kmf
Ich glaube Thilo war mit einer der ersten, die eine 9800 Ultra von Terratec über Nacht getestet haben. Und das war im Februar.

es gab schon vorab einige zahlen von nvidia.
http://www.3dcenter.org/artikel/2002/11-19_b.php

DrumDub
2004-01-28, 14:34:09
Original geschrieben von kmf
Ich glaube Thilo war mit einer der ersten, die eine 5800 Ultra von Terratec über Nacht getestet haben. Und das war im Februar.

war schon etwas verwirrt durch das posting... ;)

Gast
2004-01-28, 15:57:42
Ich fänds toll von Nvidia mal nen neuen Namen auszugrübeln, denn GeForce wirkt jetzt in der 5.Generation(oder 4., wie mans nimmt/6. ja bestimmt auch noch). Die Radeon war ja damals nicht so der Renner - trotzdem sollte mit der R/RV4XX-Serie ein neuer Namen kommen, denn Radeon 10XXX oder höher find ich blöd(viel zu lang!).

Zum Chip: 800 MHz wohl erst für den NV48, und dann vielleicht auch noch nicht... Außerdem wird das eine riesige Wärmeentwicklung mit sich bringen, darum vermute ich, dass kein DDR2 für 800 MHz, sondern GDDR3 eingesetzt wird! Dass man nicht auf eine "echte" 8x2-Architektur setzt finde ich richtig, denn dann kann man mehr Features integrieren, auch wenn sie in den festen 8 Pipelines keinen Platz mehr haben...

kmf
2004-01-28, 16:32:06
Original geschrieben von DrumDub
war schon etwas verwirrt durch das posting... ;)

Danke, manchmal schreib ich schon ganz schön Müll. :D

Zu den Postings weiter oben: Ich hab nicht gesagt, daß nV den NV30 für den Mainstreammarkt hätte sterben lassen sollen, nein nur für den HighEnd-Markt. Wieviel Monate später kam der NV35 und wieviel Monate danach letztendlich der NV38? Soweit ich mich erinnere, kam der NV35 bereits im Mai. Der NV38 noch während den Sommerferien oder nur ganz kurz danach.

mapel110
es gab schon vorab einige zahlen von nvidia.
http://www.3dcenter.org/artikel/2002/11-19_b.php

Auf diese Dinge gebe ich nichts, waren Vorserienbenches, die letztendlich mit dem fertigen Produkt so gut wie nichts gemein haben.


Doch nun wieder zum neuen Chip:

Daß in den Treibern weiterhin brilineares Filtern vorhanden ist, liegt ja auf der Hand. Die alten Karten profitieren durch höhere Performance. Der neue Chip wird das nicht mehr nötig haben und wird uns mit nie gesehener Bildqualität verwöhnen. :D

Xmas
2004-01-28, 19:48:19
Original geschrieben von Quasar
Weil gerade bei Grafikchips bislang die "Funktionsdichte" auf dem Die eigentlich ziemlich hoch war.
Deswegen kann man ja mit mehr Transistoren die "Funktionsdichte" senken bzw. Hotspots vermeiden ;)

MadManniMan
2004-01-29, 01:11:00
Original geschrieben von Xmas
Deswegen kann man ja mit mehr Transistoren die "Funktionsdichte" senken bzw. Hotspots vermeiden ;)

Bingo, daher auch die paar Mio Transis mehr bei der Series3 Rev.2, sprich dem Kyro2. Andere Funktionen hatte er nicht, dafür mehr Takt.

Raff
2004-01-29, 01:37:46
Original geschrieben von MadManniMan
Bingo, daher auch die paar Mio Transis mehr bei der Series3 Rev.2, sprich dem Kyro2. Andere Funktionen hatte er nicht, dafür mehr Takt.

Apropos... war da nicht noch was? Lebt der "Kyro IV" noch?

MfG,
Raff

MadManniMan
2004-01-29, 01:45:49
Original geschrieben von Raff
Apropos... war da nicht noch was? Lebt der "Kyro IV" noch?


:ratlos:

Gott, würde ich mich über Infos über nen Series5 freuen! Aber gerade wegen dem Ausbleiben eines "Retail Series 4" kann man wohl davon ausgehen, daß ein neues Projekt kaum "Kyro" heißen wird; ich lehn mich jetzt einfach mal weit aus dem Fenster und beiß mir den Arsch ab, wenn das Teil doch Kyro3 heißen sollte. Aber wie gesagt: Kontinuität? Tja...

Bei PVR war doch nie das Problem, daß sie nicht ordentlich Ideen gehabt hätten, von daher "lebt" das Projekt bestimmt noch. Die Frage ist: kommts zu nem Paperlaunch?

:grübel:

Gast
2004-01-29, 07:40:35
Original geschrieben von MadManniMan
:ratlos:

...ich lehn mich jetzt einfach mal weit aus dem Fenster und beiß mir den Arsch ab, wenn das Teil doch Kyro3 heißen sollte. Aber wie gesagt: Kontinuität? Tja...

:grübel:


Hast du ein Glück. Die Marke "Kyro" gehört ST und nicht IMG. Selbst wenn IMG die Series5-Chips wieder KyroXYZ nennen wollte, sie könnten es gar nicht.

Quasar
2004-01-29, 07:44:27
Original geschrieben von Xmas
Deswegen kann man ja mit mehr Transistoren die "Funktionsdichte" senken bzw. Hotspots vermeiden ;)

Kann man, aber in der Situation, in der nV momentan ist, tippe ich mal, daß sie eher jeden verfügbaren Transi in Funktionseinheiten stecken, um sich mal ein bißchen zu rehabilitieren.

Auf FP24 gehen sie sicher nicht zurück und ein (paar) mehr Pixelprozessoren könnte das nV3x-Design auch vertragen. Dazu noch neues AA-Setup, eventuell verbesserte/veränderte AFilter... da wird's mit 175Millionen Transistoren schon eng.

Und wenn man noch bedenkt, was der KyroII prozentual an "Massetransistoren" lt. MMM dazubekommen hat (von 12 auf 15M, IIRC), dann glaube ich nicht, daß nV mal eben 40 Millionen edit: 25% von 130M sind natürlich nur 32,5M (im Verhältnis zum nV35/8) auf dem Die des nV4x verballern wird.

LovesuckZ
2004-01-31, 22:54:49
Aus dem NVNews.net Forum. wieviel davon der Wahrheit entspricht, muss noch bewiesen werden:

DMA: Hmm, i'm sure i saw MuFu posting something about NV40 and pipelines[...]

Uttar: Yeah, what he wrote must pretty much be what we concluded in MSN discussions, so I'd say it hopefully makes more sense than the old 8x2 crap IMO.

Mufu: Supposedly, NV40 is a 6-pipeline architecture (6x2 fundamental organisation?), although I wouldn't be suprised if it gets labelled a 12-pipe one.

Quelle (http://www.nvnews.net/vbulletin/showthread.php?threadid=24128&pagenumber=3)

Demirug
2004-01-31, 23:06:04
Original geschrieben von LovesuckZ
Aus dem NVNews.net Forum. wieviel davon der Wahrheit entspricht, muss noch bewiesen werden:

DMA: Hmm, i'm sure i saw MuFu posting something about NV40 and pipelines[...]

Uttar: Yeah, what he wrote must pretty much be what we concluded in MSN discussions, so I'd say it hopefully makes more sense than the old 8x2 crap IMO.

Mufu: Supposedly, NV40 is a 6-pipeline architecture (6x2 fundamental organisation?), although I wouldn't be suprised if it gets labelled a 12-pipe one.

Quelle (http://www.nvnews.net/vbulletin/showthread.php?threadid=24128&pagenumber=3)

MuFu ist normalerweise ganz gut informiert.

6x2 macht durchaus Sinn. Mainstream wird dann 4x2 und Low-Cost 2x2.

Wobei das ganze nur als grundsätzliche Organisationsstruktur zu verstehen ist wie es im inneren aussieht steht wieder auf einem anderen Blatt.

Exxtreme
2004-01-31, 23:08:46
Original geschrieben von Demirug
6x2 macht durchaus Sinn. Mainstream wird dann 4x2 und Low-Cost 2x2.

Andererseits hat sich NV es im Normalfall immer verkniffen so "krumme" Zahlen wie '6' einzubauen. Meist waren es Zweierpotenzen.

Endorphine
2004-01-31, 23:18:43
Original geschrieben von Exxtreme
Andererseits hat sich NV es im Normalfall immer verkniffen so "krumme" Zahlen wie '6' einzubauen. Meist waren es Zweierpotenzen. Ewigwährende Verdopplung lässt sich aber nicht durchhalten und macht in dem Fall aus meiner Sicht auch gar keinen Sinn. Das Prinzip ist doch kein Selbstzweck, welches man anwendet, weil es in vielen anderen Fällen Sinn macht...

Das ist übrigens auch der Punkt, den ich bei dem Artikel am meisten anzweifle: 8x2 würde den Transistorcount viel zu schnell viel zu extrem nach oben treiben, als dass das mit einem 130 nm Fertigungsprozess noch ansatzweise wirtschaftlich wäre. Immerhin sollen sicher Taktraten über 300 MHz und Preise unter 1000 US-$ pro NV4x-Karte mit Gewinn realisiert werden. Der Sprung ist einfach zu gross, die Dice würden dann zu viel Fläche einnehmen und die erreichbare Kerntaktrate stark limitieren.

Bis jetzt ist das einzige, was ich gegen die "6x2" Mutmaßung lesen konnte das Zweierpotenzenargument, was nicht wirklich eines ist, da es in dem Fall keine technische Grundlage hat. Wirtschaftlich erscheint es aber imho höchst fragwürdig bei 130 nm und 300 mm Wafern.

aths
2004-02-01, 00:01:05
Original geschrieben von LovesuckZ
Aus dem NVNews.net Forum. wieviel davon der Wahrheit entspricht, muss noch bewiesen werden:

DMA: Hmm, i'm sure i saw MuFu posting something about NV40 and pipelines[...]

Uttar: Yeah, what he wrote must pretty much be what we concluded in MSN discussions, so I'd say it hopefully makes more sense than the old 8x2 crap IMO.

Mufu: Supposedly, NV40 is a 6-pipeline architecture (6x2 fundamental organisation?), although I wouldn't be suprised if it gets labelled a 12-pipe one.

Quelle (http://www.nvnews.net/vbulletin/showthread.php?threadid=24128&pagenumber=3) Halte ich für unwahrscheinlich. Auch wenn PS_3_0 mit sich bringt, sich teilweise von Quads zu lösen, nehme ich an, dass weiterhin vieles Quad-weise gemacht wird. Bisher war es immer so, dass eine Technik zunächst nur so weit implementiert wurde, dass die Features da sind, die Leistung kommt eine Generation später. Ein Quad auf 2 Pipes aufzuteilen (also nacheinander zu rendern) ist sicher einfacher, als 1,5 Quads in den Pipes zu haben.

Sofern man Demirugs Orakeleien bezüglich der Transistor-Counts für zusätzliche TMUs und arithmetischen Stages glauben kann, sollte der Platz für 8x2 vorhanden sein.

So komplex die Einheiten sind, die 4x2-Struktur nimmt ja nicht die Hälfte des Dies ein. MSAA, der 2D-Core, auch RAMDAC inkl. Scanout-Downsampling etc., der CMBC, die Z-Logik und Color-Compression sind Dinge, die Transistoren kosten. Wenn ich den NV25-Floorplan richtig in Erinnerung habe, beanspruchen solche Sachen eine Menge Transistoren.


Original geschrieben von Demirug
MuFu ist normalerweise ganz gut informiert.

6x2 macht durchaus Sinn. Mainstream wird dann 4x2 und Low-Cost 2x2.

Die Skalierung 6 - 4 - 2 für Enthusiast - Mainstream - Value sehe ich skeptisch. Kleinere Chips sind meist höher taktbar. Ein hoch getakteter 2-er wird nicht so sehr viel langsamer sein wie ein mäßig getakteter 4-er, welcher über den Takt wiederum dem 6-er nicht um so vieles nachstehen dürfte.

Demirug
2004-02-01, 00:57:04
aths, nur weil man höher takten könnte muss man das ja nicht tun. Nimmt man für alle Chips die gleiche Taktrate dann kann man sehr schön die identischen Funktioneinheiten verbauen. Der Entwicklungsaufwand sinkt.

Was man natürlich auch nicht vergessen darf ist das wenn man mehr Pixel pro Takt erzeugen kann auch die ganzen Einheiten dahinter (MSAA, Compresion, ...) für diese grössere Last ausgelegt werden müssen.

Man wird einen Quad niemals auf zwei Pixelprozessoren aufteilen. Was man macht ist diesen Quad im 2 Takt verfahren durch die Pipeline pumpen. Das ist notwendig weil man sonst die dsx/dsy Anweisungen gar nicht realisieren könnte.

Als letztes bleibt dann noch die Frage ob 8 Pixel bei 16 Textursamples pro Takt überhaupt sinnvoll ist.

16 TMUs bräuchten 16*32 Bit = 512 Bit
Für die 8 Pixel gehen 8*32+8*8+8*8 (Z-Buffer Lesen/Schreiben mit 4 facher Kompression) = 384 Bit über den speicherbus.

Sind zusammen 896. Bei einem 512 Bit bus nüsste der Speicher also mit mehr als dem 1,75 fache Chiptakt laufen. Gehen wir von einem 500 MHz Chip aus bräuchten wir mindestens 875 MHz Speichertakt. Selbst 800 MHz Speicher ist derzeit schwer zu bekommen.

Mit einer 6 Pixel/12 Sample Chip kommen wir auf 672 Bit was einen Faktor von 1,3125 ergibt. Das sind bei 500 MHz Chip immer noch 656,25 MHz Speichertakt.

Wenn ich jetzt mal spekulieren darf:

NV40: 6*2 mit TriTMUs mit 475 Chiptakt und Speichermässig was man eben bekommen kann. Dadurch wird der Chip bei üblichen Spielebenchmarks 3 mal schneller als NV38. Die Rechenleistung wird vorallem im FP Bereich natürlich noch stärker gesteigert.

Quasar
2004-02-01, 00:57:49
Original geschrieben von Gast
Mehr als 600MHz sehe ich ehrlich gesagt auch höchstens im Mid-Range (Sechs unabhängige Pixel, bzw. drei 2xSIMD wären toll, da könnte man Low-End, Mid-Rang und High-End super trennen ;)) oder beim Wechsel auf einen kleineren Fertigungsprozess.
[...]
;Q
Oooops. ;)


aths,
Zufällig habe ich mich vorhin genau über das Quad-Thema mit Demirug unterhalten. Nur die großen nVs nutzen Quads, beim nV31, nV34 und nV36 ist 2xSIMD bereits enthalten.

Was läge da näher, als aus diesem vorgefertigten Baukastensystem zu schöpfen? Ein 'verdreifachter' nV36 mit mehr Takt, 256Bit Interface (vielleicht gar 192Bit, würde ja auch reichen, je nach FSAA-Implementierung) und etwas mehr ArOps/s und schon haben wir einen feinen neuen High-End Chip.

;Q

P.S.:
Wäre es evtl. sinnvoll (weil Transistoreffektiv), mit 6x1, aber dafür AF-TMUs hausieren zu gehen? Müsste man da in die TMUs quasi ein bestimmtes AF-Level fest integrieren oder wie liefe das?

aths
2004-02-01, 01:23:50
Original geschrieben von Demirug
aths, nur weil man höher takten könnte muss man das ja nicht tun.Bislang war noch jede Graka zu übertakten, nicht zuletzt dank Treiber-Patch mit dem RivaTuner.

Original geschrieben von Demirug
Man wird einen Quad niemals auf zwei Pixelprozessoren aufteilen. Was man macht ist diesen Quad im 2 Takt verfahren durch die Pipeline pumpen. Das ist notwendig weil man sonst die dsx/dsy Anweisungen gar nicht realisieren könnte.Die Pipe arbeitet also alternierend am gleichen Quad?

Original geschrieben von Demirug
Als letztes bleibt dann noch die Frage ob 8 Pixel bei 16 Textursamples pro Takt überhaupt sinnvoll ist.Das meiste an Textur-Daten kommt direkt aus dem Cache. Sofern besser als trilinear gefiltert wird, sinkt die Z/Color-Last über den Speicherbus erheblich.

Mit 128 Bit DDR bekommt man ein 4x2-Setup ganz gut versorgt, mit 256 Bit DDR sollte sich ein 8x2-Setup versorgen lassen.

Original geschrieben von Demirug
NV40: 6*2 mit TriTMUs mit 475 Chiptakt und Speichermässig was man eben bekommen kann. Dadurch wird der Chip bei üblichen Spielebenchmarks 3 mal schneller als NV38. Die Rechenleistung wird vorallem im FP Bereich natürlich noch stärker gesteigert. 6x2 mit tri-TMUs?? Das halte ich für unwahrscheinlich.

aths
2004-02-01, 01:25:21
Original geschrieben von Quasar
aths,
Zufällig habe ich mich vorhin genau über das Quad-Thema mit Demirug unterhalten. Nur die großen nVs nutzen Quads, beim nV31, nV34 und nV36 ist 2xSIMD bereits enthalten.NV30, 35 und 38 nutzen 4xSIMD.

Original geschrieben von Quasar
Ein 'verdreifachter' nV36 mit mehr Takt, 256Bit Interface (vielleicht gar 192Bit, würde ja auch reichen, je nach FSAA-Implementierung) An solche krummen Zahlen glaube ich nicht. Die Breite hat ja auch Einfluss auf die Gesamtgröße. Vermutlich werden 256-MB-Karten von 512-MB-Karten abgelöst, nicht von 384-MB-Karten.
Original geschrieben von Quasar
P.S.:
Wäre es evtl. sinnvoll (weil Transistoreffektiv), mit 6x1, aber dafür AF-TMUs hausieren zu gehen? Müsste man da in die TMUs quasi ein bestimmtes AF-Level fest integrieren oder wie liefe das? Nein. Bei ensprechend flexiblen TMUs könnte 2x tri-AF bzw. 4x bi-AF pro Takt gemacht werden. Die benötigte Bandbreite zum Cache wäre allerdings unrealistisch hoch. Zwischenschritte wie 6x AF, die lt. Demi zumindest bei GF Anwendung finden, würden erschwert. Zudem, um mal den zeckensack zu emulieren, ist feine Granularität von Vorteil und per se erstrebenswert.

mapel110
2004-02-01, 02:01:44
TRI-TMUs kann man doch schon ausschliessen. Wozu hat Nvidia sonst mit der FX-Generation eine Möglichkeit implementiert, trilineare Filterung zu justieren(zu reduzieren)?!

Demirug
2004-02-01, 10:22:02
Original geschrieben von aths
Bislang war noch jede Graka zu übertakten, nicht zuletzt dank Treiber-Patch mit dem RivaTuner.

Wenn du den kritischen Pfad ans limit bringst geht nichts mehr ohne das Fehler wahrscheinlich werden.

Die Pipe arbeitet also alternierend am gleichen Quad?

Ja

Das meiste an Textur-Daten kommt direkt aus dem Cache. Sofern besser als trilinear gefiltert wird, sinkt die Z/Color-Last über den Speicherbus erheblich.

Die 32 Bit pro Takt pro TMU sind ein Erfahrungswert von nVidia. Natürlich sinkt die benötigte Framebuffer Bandbreite wenn das Schading aufwendiger wird. Aber sie sinkt nicht weit genug. Ein 16 TMU Chip würde gandenloss an der Bandbreite verhungern. Die einzige Möglichkeit die ich noch sehe ist das nVidia ein neues transparentes Kompresionsverfahren für Texturen hat.

Mit 128 Bit DDR bekommt man ein 4x2-Setup ganz gut versorgt, mit 256 Bit DDR sollte sich ein 8x2-Setup versorgen lassen.

Ansichstsache.

Demirug
2004-02-01, 10:27:17
Original geschrieben von mapel110
TRI-TMUs kann man doch schon ausschliessen. Wozu hat Nvidia sonst mit der FX-Generation eine Möglichkeit implementiert, trilineare Filterung zu justieren(zu reduzieren)?!

Das eine muss das andere ja nicht ausschliessen. Es muss ja keine reine Tri-TMU sein. Denkbar wäre auch eine TMU die entweder ein TRI-Sample oder ein 2xAF Bi-Sample erzeugen kann. Dann könnten sie bei AF immer noch auf Brilinear setzten.

Quasar
2004-02-01, 10:47:05
Original geschrieben von aths
Mit 128 Bit DDR bekommt man ein 4x2-Setup ganz gut versorgt, mit 256 Bit DDR sollte sich ein 8x2-Setup versorgen lassen.
Ist dir FSAA auf einmal nicht mehr wichtig?

Da brachte der Schritt auf 256Bit-DDR auf dem nV35 insbesondere bei 4xAA noch einen ziemlichen Leistungsschub (wo nicht gerade hoffnungslos die Füllrate limitiert).

ATi2 R360 wird auch schon durch sein Speicherinterface in gewisser Weise gebremst - und der ist nur "8x1".

Ailuros
2004-02-01, 11:15:31
Original geschrieben von Demirug
MuFu ist normalerweise ganz gut informiert.

6x2 macht durchaus Sinn. Mainstream wird dann 4x2 und Low-Cost 2x2.

Wobei das ganze nur als grundsätzliche Organisationsstruktur zu verstehen ist wie es im inneren aussieht steht wieder auf einem anderen Blatt.

Ich wuerde eher so tippen: 6*2/12*1 und fuer mainstream 3*2/6*1 (und ja ich bin immer noch gegen besagten Zahlen-quark, bis ich effizienz sehe).

(was die vorerwaehnte Person betrifft, wuerde ich mit der Ausgabe von Lorbeeren eher vorsichtig sein.)

Die 32 Bit pro Takt pro TMU sind ein Erfahrungswert von nVidia. Natürlich sinkt die benötigte Framebuffer Bandbreite wenn das Schading aufwendiger wird. Aber sie sinkt nicht weit genug. Ein 16 TMU Chip würde gandenloss an der Bandbreite verhungern. Die einzige Möglichkeit die ich noch sehe ist das nVidia ein neues transparentes Kompresionsverfahren für Texturen hat.

War ich zu weit entfernt als ich read efficiency mit 256bit breiten Bussen und zu vielen TMUs erwaehnte?

***edit: uebrigens ist das obrige auf eine Analyse was Tendenzen in zukuenftigen Spielen betrifft basiert. Alle Anfragen bei verschiedenen Quellen kamen mehr oder weniger mit aehnlichen Antworten zurueck.

LovesuckZ
2004-02-01, 11:32:20
Kleinwenig OT:

Original geschrieben von Demirug
Dann könnten sie bei AF immer noch auf Brilinear setzten.

Im Development Bereich von Nvidia gibt es ja 2 neue Treiber (56.53/56.54), hat sich in Bezug auf "Brilinear" (ich meine, ich es dynamisch) etwas getan oder ist es alles wie bei den 53.03?

Exxtreme
2004-02-01, 11:44:03
Original geschrieben von Demirug
16 TMUs bräuchten 16*32 Bit = 512 Bit

Die Rechnung stimmt wenn man SDR-Speicher nimmt. :) Beim DDR-RAM kann man auch ein 256-Bit-Interface nehmen da DDR-Speicher die Bandbreite verdoppelt.

Demirug
2004-02-01, 11:48:16
Original geschrieben von Exxtreme
Die Rechnung stimmt wenn man SDR-Speicher nimmt. :) Beim DDR-RAM kann man auch ein 256-Bit-Interface nehmen da DDR-Speicher die Bandbreite verdoppelt.

Ich ging bei meinen Rechnungen von einem 256 Bit DDR Interface aus. Ich habe dabei aber die Breite und nicht den Takt verdoppelt. Die Berechneten Taktraten sind also für ein 256 Bit DDR Interface und physikalisch.

Ailuros
2004-02-01, 11:50:01
aths,

Mit 128 Bit DDR bekommt man ein 4x2-Setup ganz gut versorgt, mit 256 Bit DDR sollte sich ein 8x2-Setup versorgen lassen.

BS.

6x2 mit tri-TMUs?? Das halte ich für unwahrscheinlich.

Was haelst Du fuer unwahrscheinlich trilineare TMUs oder 6 PS?

Was trilineare TMUs betrifft hab ich mal vor geraumer Zeit gepostet dass ich bei mehr als nur einem IHV immer mehr ueber single-cycle trilinear hoere ohne ueber etwas sicher zu sein. Es sprach und spricht im gegebenen Fall nicht unbedingt dafuer, aber in keinem Fall dagegen.

Was das zweite betrifft wuerde ich an Deiner Stelle nicht so leicht Wetten eingehen. Rechne mal mit einem 12 arithmetic ops scenario und dann denk an die "Viertel" zurueck. *pling* ;)

Demirug
2004-02-01, 11:53:03
Original geschrieben von Ailuros
Ich wuerde eher so tippen: 6*2/12*1 und fuer mainstream 3*2/6*1 (und ja ich bin immer noch gegen besagten Zahlen-quark, bis ich effizienz sehe).

Diese "doppel pump" Sachen habe ich extra weggelassen um es vorerst nicht noch komplizierter zu machen.

War ich zu weit entfernt als ich read efficiency mit 256bit breiten Bussen und zu vielen TMUs erwaehnte?

Nein, Bandbreite ist immer noch ein grosses übel.

Ailuros
2004-02-01, 11:59:00
Double pumped PS units sind aber der letzte Schrei ;)

Nein, Bandbreite ist immer noch ein grosses übel.

http://www.forum-3dcenter.org/vbulletin/images/smilies/floet.gif :weg:

**edit: bloede fonts grrr....

Demirug
2004-02-01, 12:03:16
Original geschrieben von Ailuros
http://www.forum-3dcenter.org/vbulletin/images/smilies/floet.gif :weg:

**edit: bloede fonts grrr....

Ich glaube wir haben uns falsch verstanden. Mein "Nein" bedeutete in diesem fall Zustimmung.

Ailuros
2004-02-01, 12:04:57
Ja ich weiss und ich hab es auch so verstanden; ich floetete aus anderen Gruenden. Du kennst mich gut genug um zu wissen, an was ich genau dachte....

Ailuros
2004-02-01, 12:19:39
Original geschrieben von Quasar
Ist dir FSAA auf einmal nicht mehr wichtig?

Da brachte der Schritt auf 256Bit-DDR auf dem nV35 insbesondere bei 4xAA noch einen ziemlichen Leistungsschub (wo nicht gerade hoffnungslos die Füllrate limitiert).

ATi2 R360 wird auch schon durch sein Speicherinterface in gewisser Weise gebremst - und der ist nur "8x1".

Also das ist mir jetzt tatsaechlich neu. Wie gross ist der Unterschied zwischen NV35 und NV30 mit 4xMSAA generell ueberhaupt?

Dass an jeglichem Unterschied zur doppelten Busbreite zurueckzufuehren ist, ist nur eine Annahme oder? Nicht dass die Theorie nicht Sinn macht, aber es muss nicht unbedingt sein; es sind ja nur 4x samples.

Quasar
2004-02-01, 12:48:20
Original geschrieben von Ailuros
Also das ist mir jetzt tatsaechlich neu. Wie gross ist der Unterschied zwischen NV35 und NV30 mit 4xMSAA generell ueberhaupt?

Dass an jeglichem Unterschied zur doppelten Busbreite zurueckzufuehren ist, ist nur eine Annahme oder? Nicht dass die Theorie nicht Sinn macht, aber es muss nicht unbedingt sein; es sind ja nur 4x samples.

Nun, laß es mich abgekürzt sagen (Ich habe nur inkl. 4xAf bzw. 8xAF getestet): Bis 2xAA hält der nV30u auch aufgrund seines höheren Chiptaktes auch in sehr hohen Auflösungen exzellent mit.

Bei 4xAA tut sich dagegen des öfteren schon eine ordentlich Lücke auf - und das trotzdem der nV30u durch 8xAF mit seiner hohen Core-Taktung die Unterschied etwas verkleinern kann.

Ailuros
2004-02-01, 13:32:27
Ja aber wie gross ist der Unterschied mit nur 4xMSAA (kein AF) zwischen NV30 und NV35? Eine grobe Schaetzung reicht mir auch aus, es muss jetzt nicht zu endlosem Benchmark/Zahlen-gewaerkel kommen.

***edit:

http://www.tomshardware.de/graphic/20040105/vga-charts-12.html#unreal_tournament_2003

(und die 2 folgenden Seiten)

~10-15% Unterschied, aber es handelt sich ja auch nicht um 1600*1200*32, wo jeglicher Bandbreiten-Unterschied besser zum Vorschein kommen wuerde.

*editNr.2:

http://www.firingsquad.com/hardware/nvidia_geforce_fx_5900_ultra/page16.asp

Doch ~2x so schnell; also hattest Du recht. :)

aths
2004-02-01, 17:59:40
Original geschrieben von Demirug
Die 32 Bit pro Takt pro TMU sind ein Erfahrungswert von nVidia. Natürlich sinkt die benötigte Framebuffer Bandbreite wenn das Schading aufwendiger wird. Aber sie sinkt nicht weit genug. Ein 16 TMU Chip würde gandenloss an der Bandbreite verhungern. Die einzige Möglichkeit die ich noch sehe ist das nVidia ein neues transparentes Kompresionsverfahren für Texturen hat. Ein Chip mit 8 TMUs ist bereits mit einem 128-Bit-Interface einigermaßen ausnutzbar. 16 TMUs sollten mit einem 128-Bit-Interface zufriedengestellt werden können.

Original geschrieben von Quasar
Ist dir FSAA auf einmal nicht mehr wichtig?Darum geht es ja nicht :) sondern wie NV die Prioritäten setzt.
Original geschrieben von Quasar
ATi2 R360 wird auch schon durch sein Speicherinterface in gewisser Weise gebremst - und der ist nur "8x1". 8x2 würde afaik weniger Bandbreite kosten, als 16x1. 16x1 hielte ich für völlig unrealistisch.

aths
2004-02-01, 18:05:26
Original geschrieben von Ailuros
aths,

BS.Im 32-Bit-Modus kann z. B. ein NV20 oder NV25 nahe an seine theoretische Füllrate kommen. Zukünftig, wenn mehr auf Pixelshading gesetzt wird, nimmt die arithmetische Rechenarbeit zu, im Verhältnis sinkt die erforderliche Bandbreite.


Original geschrieben von Ailuros
Was haelst Du fuer unwahrscheinlich trilineare TMUs oder 6 PS?"6 Pipes" vielleicht im NV41. Im NV40/48 gehe ich von einem 8x2-Setup mit bilinearen TMUs aus. Für ein Quad nur 2 Pipes zu brauchen verfeinert die "Auflösung", was konditionalen Sprüngen im Shadern entgegen kommt, da die Effizienz nur noch um maximal 50% sinken kann.

Demirug
2004-02-01, 18:26:32
Original geschrieben von aths
Im 32-Bit-Modus kann z. B. ein NV20 oder NV25 nahe an seine theoretische Füllrate kommen. Zukünftig, wenn mehr auf Pixelshading gesetzt wird, nimmt die arithmetische Rechenarbeit zu, im Verhältnis sinkt die erforderliche Bandbreite.

Ja, aber nur wenn man den Z-Buffer ausgeschaltet lässt. Wenn mehr gerechnet wird braucht man doch gar nicht mehr so viele TMUs, oder? ;)

aths
2004-02-01, 19:11:22
Original geschrieben von Demirug
Ja, aber nur wenn man den Z-Buffer ausgeschaltet lässt. Wenn mehr gerechnet wird braucht man doch gar nicht mehr so viele TMUs, oder? ;) Naja doch, zum filtern. Das zieht dann auch Textur-Bandbreite, aber nur wenig Z/Stencil/Pixel-Bandbreite. Beim NV40 wird NV ja vermutlich etliche Fehler von CineFX1/2 behoben haben, und schneller arithmetisch rechnen. Da wäre vernünftige TMU-Power nicht schlecht.

Quasar
2004-02-01, 20:21:26
Original geschrieben von aths
Darum geht es ja nicht :) sondern wie NV die Prioritäten setzt.
8x2 würde afaik weniger Bandbreite kosten, als 16x1. 16x1 hielte ich für völlig unrealistisch.

Doch, genau darum geht es. Denn gesetzt den Fall, deine Annahme wäre richtig (was ich nicht glaube), dann wäre der 4x2-Chip evtl. mit 128Bit DDR versorgt - was die TMU-Auslastung angeht.

RAMDAC, Z-Buffer, MSAA - das alles kostet auch Bandbreite, wenn ich mich nicht irre.


8x2 und 16x1? Was ist mit 6x3 (bzw. 6x1tri) oder 12x1?

aths
2004-02-01, 21:25:06
Original geschrieben von Quasar
Doch, genau darum geht es. Denn gesetzt den Fall, deine Annahme wäre richtig (was ich nicht glaube), dann wäre der 4x2-Chip evtl. mit 128Bit DDR versorgt - was die TMU-Auslastung angeht.Einen 4x2 mit 128 Bit DDR zu versorgen, wird seit längerem hier und da mit einigem Erfolg gemacht.

Original geschrieben von Quasar
8x2 und 16x1? Was ist mit 6x3 (bzw. 6x1tri) oder 12x1? x3 halte ich für Quatsch.

Quasar
2004-02-01, 21:49:38
Original geschrieben von aths
Einen 4x2 mit 128 Bit DDR zu versorgen, wird seit längerem hier und da mit einigem Erfolg gemacht.


Tolles Argument.
Darf ich daran erinnern, daß genau dieselbe Firma "seit längerem" ein 4xAA anbietet, welches OG nutzt?

Wird auch seit längerem mit Erfolg gemacht - sollte das deiner Logik zufolge also nicht verbessert werden?

reunion
2004-02-01, 22:27:35
Original geschrieben von Demirug
Wenn ich jetzt mal spekulieren darf:

NV40: 6*2 mit TriTMUs mit 475 Chiptakt und Speichermässig was man eben bekommen kann. Dadurch wird der Chip bei üblichen Spielebenchmarks 3 mal schneller als NV38. Die Rechenleistung wird vorallem im FP Bereich natürlich noch stärker gesteigert.

was bringen mir 2.tri-TMUs wenn man schon mit einer tri filterung in einem Durchgang durchführen kann??
Höhere AF Leistung?

Xmas
2004-02-01, 22:42:30
Original geschrieben von reunion
was bringen mir 2.tri-TMUs wenn man schon mit einer tri filterung in einem Durchgang durchführen kann??
Höhere AF Leistung?
Unter anderem. Und Multitexturing ist dir aber auch ein Begriff? ;)

aths
2004-02-01, 22:53:12
Original geschrieben von Quasar
Tolles Argument.
Darf ich daran erinnern, daß genau dieselbe Firma "seit längerem" ein 4xAA anbietet, welches OG nutzt?

Wird auch seit längerem mit Erfolg gemacht - sollte das deiner Logik zufolge also nicht verbessert werden? Nun wirf doch nicht alles in einen Topf. Sofern der RAM-Takt etwas über dem Chiptakt liegt, kann dank einem guten Speichercontrollerm und dank Komprimierung die Karte so weit bedient werden, dass sie ihre Füllrate ausspielen kann. Ich denke nicht, dass NV die Bandbreite für "AA for free" dimensionieren wird, wenn sie die Möglichkeit haben, mit größerer Rohfüllrate auftrumpfen zu können.

zeckensack
2004-02-01, 23:13:01
Original geschrieben von aths
Ein Chip mit 8 TMUs ist bereits mit einem 128-Bit-Interface einigermaßen ausnutzbar. 16 TMUs sollten mit einem 128-Bit-Interface zufriedengestellt werden können.Es zählt nicht die schiere Anzahl, sondern die Anordnung. Stichwort: maximale Füllrate pro Takt, pro Einheit Speicherbandbreite. Untexturierte Füllrate (aka "Durchsatz") ist der Indikator für die Bandbreite die für Z-Test und MSAA verbraucht wird. TMUs alleine machen den Kohl nicht fett, schon garnicht wenn sie ineffizient organisiert sind, und deswegen oft die Däumchen drehen.

8x2 würde afaik weniger Bandbreite kosten, als 16x1.Möglicherweise ja, aber dann würde ich mal tippen, dass das an der schlechten Anordnung liegt. Die Granularität ist schlechter, deswegen stehen einige dieser 8x2 dann ab und an still (1/3/5/7 Texturen pro Pass).

edit: war nur auf die TMUs bezogen. Der insgesamte Bandbreitenverbrauch wäre natürlich höher, aber dafür ist dann auch die Rohfüllrate doppelt so hoch. Stencil shadow volumes ahoi!

16x1 hielte ich für völlig unrealistisch. Ich auch.

aths
2004-02-02, 00:58:56
Original geschrieben von zeckensack
Es zählt nicht die schiere Anzahl, sondern die Anordnung. Stichwort: maximale Füllrate pro Takt, pro Einheit Speicherbandbreite. Untexturierte Füllrate (aka "Durchsatz") ist der Indikator für die Bandbreite die für Z-Test und MSAA verbraucht wird.Ja. Ich gehe davon aus, dass die Z-Tests gar nicht mehr so die Rolle spielen, abgesehen vom Z-Pass. Dort spielen Texturen keine Rolle, und verbrauchen keine Bandbreite. Bei angenommener 4:1-Komprimierung rechnen wir pro Z/Stencil-Wert 8 Bit. Pro Takt beim 256-Bit-DDR-Interface können 64 Z-Werte gelesen (oder geschrieben) werden. Das hieße, bei 16 TMUs gibt es auch mit (2x) MSAA noch keine Füllraten-Probleme.

Original geschrieben von zeckensack
Möglicherweise ja, aber dann würde ich mal tippen, dass das an der schlechten Anordnung liegt. Die Granularität ist schlechter, deswegen stehen einige dieser 8x2 dann ab und an still (1/3/5/7 Texturen pro Pass).Ja, meine Überlegung ging davon aus, dass man bei 16x1 eine deutlich höhere Pixelfüllrate realisieren kann, als bei 8x2.

Original geschrieben von zeckensack
edit: war nur auf die TMUs bezogen. Der insgesamte Bandbreitenverbrauch wäre natürlich höher, aber dafür ist dann auch die Rohfüllrate doppelt so hoch. Stencil shadow volumes ahoi! Japp. Wobei ich bei einem angenommenen 8x MSAA von höchstens 4 ROPs pro Pipe ausgehe. Das hieße anders gesagt, 2 ROPs pro TMU. Allerdings wäre diese Z-Füllratenlimitierung ohnehin nicht so tragisch, da bei höheren MSAA-Modi dann gleich auch die Bandbreite limitiert.

Ailuros
2004-02-02, 04:43:50
Wer sagt dass unter gewissen Bedingugen 16 arithmetic ops nicht moeglich sind? Die ganze Verwirrung kommt davon dass Architekturen zu kompliziert geworden sind. Wenn jetzt irgendwo durch den Spekulations-prozess etwas falsch interpretiert wird, ist es sehr leicht dass man zu falschen Schlussvolgerungen kommt, wobei teilweise dann auch der Fehler daran liegt dass Leute mit begrenztem technischen Wissen falsche Definitionen verwenden (siehe "pipelines"; und ja es gab Spekulationen die bei R400 z.B. von angeblichen 16 pipelines sprachen. Teilweise und in sehr relativem Sinn schon quasi wahr, nur sehr sehr falsch ausgedrueckt...).

Einen 4x2 mit 128 Bit DDR zu versorgen, wird seit längerem hier und da mit einigem Erfolg gemacht.

Im Gegensatz zu NV2x wuerde ich persoenlich NV3x nicht als absoluten Erfolg ansehen; ganz im Gegenteil. Und das nicht mal intern laut NV's engineers und "off the record". Noch wichtiger ist der NV3x tatsaechlich ein 4*2 oder eher ein komplizierter chip der bis zu 8 texture ops und 4 colour/z writes faehig ist?

***edit: um es klarer zu machen: bei NV2x ist es tatsaechlich in reinem Sinn 4*2; NV3x ist dazu viel zu kompliziert und um einige Schritte weiter dass man beide Generationen ganz so einfach in den gleichen Topf wirft. Jegliche Theorie in die Richtung wuerde locker die bloede Theorie dass NV3x = NV2x + dx9.0 shader unterstuetzen, was absoluter Schwachsinn ist.

Der originale NV30 war uebrigens 6*2/12*1 :P

Japp. Wobei ich bei einem angenommenen 8x MSAA von höchstens 4 ROPs pro Pipe ausgehe. Das hieße anders gesagt, 2 ROPs pro TMU. Allerdings wäre diese Z-Füllratenlimitierung ohnehin nicht so tragisch, da bei höheren MSAA-Modi dann gleich auch die Bandbreite limitiert.

NV2x/NV3x werden bei MSAA AFAIK alle 16 ROPs von einer Pixelpipe gefuettert. Unter Umstaenden braeuchte man die Anzahl von ROPs fuer MSAA alleine gar nicht erhoehen. Mit ein paar Tricks loopt man einfach 4xMSAA x 2 und hat auch das 8x sample MSAA was man zeitig brauchen wuerde. Bandbreite ist weniger das Problem mit grosser Anzahl von samples, eher memory footprint. Fuer minimal 256MB, sind 8x oder 12x samples im schlimmsten Fall noch etwa genug.


zecki,

Es hat geheissen dass texture access in zukuenftigen Applikationen/Spielen immer zufaelliger wird. Natuerlich ergibt ein 8*2 setup Vorteile in manchen Faellen, aber das Risiko dass die Bandbreite auslaeuft ist zu gross. Ein burst von 4 ist normal fuer DDR2, also 4*256bits=1024bits; da hat man schnell zu viel data gelesen, was man eigentlich nie brauchen wird.

-----------------------------------------------

Andere Fragen:

a) Wie klangen die Aussagen betreffend 256bit Busse vor der NV30 Vorstellung?

b) Wieso ein breiterer Bus fuer einen refresh-chip (siehe NV35)?

c) Wann war in Realitaet ein 256bit Bus bei NV geplant?

Ailuros
2004-02-02, 05:00:27
"6 Pipes" vielleicht im NV41. Im NV40/48 gehe ich von einem 8x2-Setup mit bilinearen TMUs aus. Für ein Quad nur 2 Pipes zu brauchen verfeinert die "Auflösung", was konditionalen Sprüngen im Shadern entgegen kommt, da die Effizienz nur noch um maximal 50% sinken kann.

Wieviele colour/z writes fuer NV40 dann?

aths
2004-02-02, 06:32:00
Original geschrieben von Ailuros
Im Gegensatz zu NV2x wuerde ich persoenlich NV3x nicht als absoluten Erfolg ansehen; ganz im Gegenteil.In erster Linie meinte ich eigentlich NV25. Dem NV30 mangelt es eher an aritmetischer Rechenkraft und arithmetischer Rechen-Effizienz.
Original geschrieben von Ailuros
Noch wichtiger ist der NV3x tatsaechlich ein 4*2 oder eher ein komplizierter chip der bis zu 8 texture ops und 4 colour/z writes faehig ist?Der NV30 ist ein 4x2-Chip mit mehreren verschieden großen Loopback-Schleifen, der sich bei texturlosem Rendering wie 8x1 ("8x0") verhalten kann.
Original geschrieben von Ailuros
***edit: um es klarer zu machen: bei NV2x ist es tatsaechlich in reinem Sinn 4*2; NV3x ist dazu viel zu kompliziert und um einige Schritte weiter dass man beide Generationen ganz so einfach in den gleichen Topf wirft. Jegliche Theorie in die Richtung wuerde locker die bloede Theorie dass NV3x = NV2x + dx9.0 shader unterstuetzen, was absoluter Schwachsinn ist.So schwachsinnig ist das gar nicht mal. Ich sehe den NV30 als etwas umgebauten und shadertechnisch stark erweiterten NV25, und den NV35 als NV30 mit arithmetischer Verstärkung (nebst "Ultra Shadow" etc.)
Original geschrieben von Ailuros
Der originale NV30 war uebrigens 6*2/12*1 :P Das höre ich zum ersten mal.
Original geschrieben von Ailuros
NV2x/NV3x werden bei MSAA AFAIK alle 16 ROPs von einer Pixelpipe gefuettert. Wenn du 4 Pipes als eine 4x SIMD-Pipe ansiehst, hast du natürlich recht.

Original geschrieben von Ailuros
Wieviele colour/z writes fuer NV40 dann? Die Frage verstehe ich nicht ganz. Ein 8x2-Setup könnte pro Takt 8 Color- oder 16 Z-Pixel schreiben. Sofern Texturen im Spiel sind, 8 Color und 8 Z-Werte. Macht 512 Bit, würde also das Interface voll auslasten. Der RAM müsste etwas höher getaktet werden, um die Textur-Bandbreite bereitzustellen. Außerdem sind ja Z-Reads erforderlich, ebenso würde MSAA schön reinhauen. Aber maximal trilinear mit Single-Texturing oder bilineares Dual-Texturing ist doch ziemlich out. Filtert man nur 2x trilinear anisotrop, und / oder nutzt mehrere Textur-Schichten, wird die Sache erheblich entschärft.

Quasar
2004-02-02, 07:19:45
Original geschrieben von Ailuros
Der originale NV30 war uebrigens 6*2/12*1 :P


Macht irgendwie Sinn. =)
Dann sind nV31/34 keine halben nV30, sondern der der nV30 ist eher ein doppeltes statt (wie du als ursprügnlich geplant angibst) ein dreifaches des Basiselementes.

Ailuros
2004-02-02, 08:00:44
Der NV30 ist ein 4x2-Chip mit mehreren verschieden großen Loopback-Schleifen, der sich bei texturlosem Rendering wie 8x1 ("8x0") verhalten kann.

Das mit den sogenannten stencil oder zixel "pipes" ist der groesste Schwachsinn seit langem uebrigens. Kein Wunder ich sehe updates in anderen Faellen die Z32(tm) erwaehnen und das fuer uralte Produkte.

Das höre ich zum ersten mal.

ROFL :D

Wenn du 4 Pipes als eine 4x SIMD-Pipe ansiehst, hast du natürlich recht.

Wieso soll das auf jeden Fall einen Unterschied machen? Es ist wohl logischer und effizienter dass man beim MSAA mit loops arbeitet.

Die Frage verstehe ich nicht ganz.

NV3x = 8 texture ops/ 4 colour/z writes
NV4x = ?

Ein 8x2-Setup könnte pro Takt 8 Color- oder 16 Z-Pixel schreiben.

Wobei Du aber immer noch nicht sicher bist, dass die 8*2 Theorie ueberhaupt stimmt oder?

Darf ich mal ein bisschen weiter spielen? Huang hat bei einem Besuch in Taiwan ihrer Partner mal erwaehnt dass NV40 ein 16 "pipeline" design waere in der Vergangenheit.

Also wurde nach dem NV30 "Konzept" gleich auf 8*2/16*0 gewettet.

Ich sag jetzt nicht weiteres sondern deute auf das Geruecht dass R420 schon ein paar Shader4.0 Faehigkeiten haben soll; vielleicht faellt dann endlich der Groschen warum ich guten Grund habe die obrige Theorie nicht zu glauben (und auch im Zusammenhang mit dem ersten Paragraph meines vorigen Posts).

reunion
2004-02-02, 13:50:50
Original geschrieben von Xmas
Unter anderem. Und Multitexturing ist dir aber auch ein Begriff? ;)

:idea: Ahhhh, thx.. ;D

LovesuckZ
2004-02-08, 10:10:28
Uttar's Zusammenfassung der eventuellen "Pipeline" Architektur der NV4x Familie (http://www.beyond3d.com/forum/viewtopic.php?t=10163&start=0&postdays=0&postorder=asc&highlight=)

Sollte in keinen gut geführten Nv4x Thread fehlen :)

Quasar
2004-02-08, 11:43:12
Original geschrieben von aths
[6]x3 halte ich für Quatsch.

Äh... fiel mir jetzt gerade auf: Warum eigentlich?

Man verbrät zwar einige Transistoren extra, hat aber folgende, insbesonder für's Marketing nicht unerhebliche Vorteile auf einmal:

- Single-Cycle Tri
- 3xMT bei bilinearem Filter umsonst
- gegenüber 6x1 keinen Nachteil mehr in Situationen mit "ungerader" Anzahl Texturschichten
- Starken Leistungsgewinn bei reduziert-trilinearer Filterung.
(- evtl. (keine Ahnung wie flexibel das Teil dafür sein muss) steht eine TMU davon dem VS zu Verfügung und kann bei Nichtbenutzung durch diesen als normale TMU mitgebraucht werden)
Klar, kostet Transistoren, aber sonst? Flexibler als TriTMUs.

aths
2004-02-08, 11:49:24
Original geschrieben von Quasar
- gegenüber 6x1 keinen Nachteil mehr in Situationen mit "ungerader" Anzahl TexturschichtenDafür bei gerader Anzahl. Und bei 7 Schichten (7 ist ungerade) bringt x3 auch Verlust. Genau wie bei 5 Schichten.
Original geschrieben von Quasar
Klar, kostet Transistoren, aber sonst? Flexibler als TriTMUs. Weshalb es imo auf x2 bilinear hinaus laufen wird.

Demirug
2004-02-08, 11:57:27
Original geschrieben von LovesuckZ
Uttar's Zusammenfassung der eventuellen "Pipeline" Architektur der NV4x Familie (http://www.beyond3d.com/forum/viewtopic.php?t=10163&start=0&postdays=0&postorder=asc&highlight=)

Sollte in keinen gut geführten Nv4x Thread fehlen :)

Sowas und dann nicht meine schöne Zeichung posten

Quasar
2004-02-08, 12:10:20
Original geschrieben von aths
Dafür bei gerader Anzahl. Und bei 7 Schichten (7 ist ungerade) bringt x3 auch Verlust. Genau wie bei 5 Schichten.
Jop, aber man bleibt halt flexibler. Z.B. eine trilineare Basistextur und drei bilineare detail- light- und sonstwas-Map. 3 Pixel/Takt auf 6x3, "2,4"-Pixel pro Takt auf 12x1.

Original geschrieben von aths
Weshalb es imo auf x2 bilinear hinaus laufen wird.
Transistoren kostet alles mögliche - trotzdem wird nicht überall gespart.
Wenn man nicht rein mit Shaderleistung hausieren gehen will, kann man mit 6 zusätzlichen TMUs eine ganz Menge von Pseudoleistung in den 3DMarks erreichen. Ob man für dieselbe Anzahl an Transistoren eine ähnliche Verbesserung (prozentual) im Shaderbereich bekommt, da bin ich mir nicht sicher.

Demirug
2004-02-08, 12:52:46
Original geschrieben von Quasar
Äh... fiel mir jetzt gerade auf: Warum eigentlich?

Man verbrät zwar einige Transistoren extra, hat aber folgende, insbesonder für's Marketing nicht unerhebliche Vorteile auf einmal:

- Single-Cycle Tri
- 3xMT bei bilinearem Filter umsonst
- gegenüber 6x1 keinen Nachteil mehr in Situationen mit "ungerader" Anzahl Texturschichten
- Starken Leistungsgewinn bei reduziert-trilinearer Filterung.
(- evtl. (keine Ahnung wie flexibel das Teil dafür sein muss) steht eine TMU davon dem VS zu Verfügung und kann bei Nichtbenutzung durch diesen als normale TMU mitgebraucht werden)
Klar, kostet Transistoren, aber sonst? Flexibler als TriTMUs.

Ich gehe ja von einem TMU-Array aus. Angeblich hat man das schon beim NV3X versucht um die VS auf 3.0 zu bekommen. Hat aber nicht funktioniert. Die Idee mit dem TMU-Array stammt aus dem Hause 3dfx. Im Falle eines solchen Arrays sind vier wichtige Fragen zu beantworten.

-Wie viele Filtereinheiten sind vorhanden?
-Welcher Filter können in einem Takt berechnet werden?
-Wie viele Auftragsports hat das Array?
-Welche Einheit (VS/PS) ist wie breit an das Array angebunden?

Um nun 3 Samples pro Pixel zu beauftragen bräuchte zum einen das Array genügend Ports um die Aufträge entgegen zu nehmen zum anderen die Pixelprocessoren genügend Power um diese Aufträge zu erzeugen. Mit 2D Texturen könnte es funktionieren. Schon im NV3X sind 6 skalare interpolatoren für Texturkoordinaten vorhanden (da sollte nv beim NV4X sowieso ein bischen was nachlegen) und auch 6 Datenleitungen (FP32) zu den TMUs. Allerdings sind diese dort fest als 2*3 vorgesehen. Aber das könnte man ja ändern. Das Problem das ich nur sehe ist das man bei 6 Pixel schon 18 Filter in den TMUs brauchen würden. Ich denke nicht das man so viele dort haben wird. Der Datenhunger dieser Filter muss ja gestillt werden können.

Quasar
2004-02-08, 13:03:21
35-38GB/s (550-600MHz RAM) sollten da doch langsam genug sein, wenn man die Caches berücksichtig, oder?

Demirug
2004-02-08, 13:19:16
Original geschrieben von Quasar
35-38GB/s (550-600MHz RAM) sollten da doch langsam genug sein, wenn man die Caches berücksichtig, oder?

Ja und Nein. Für die TMUs zu füttern könnte es gerade noch so reichen. Aber auch andere teile des Chips wollen etwas abhaben. Ich tendiere daher auch eher zu weniger aber dafür Tri-TMUs. Da heute bei fast allen Benchmarks (die nach Ansicht von nV wirklich relevant sind) mindesten Tri gefiltert wird nützt eine hohe Bi-Fillrate nicht mehr allzu viel. Eine TriTMU hat aber nun einen viel besseren wirkungsgrad als 2 Bi-TMUs.

Ailuros
2004-02-08, 13:56:03
Demi,

Das Bild oben scheint bei mir nicht aufzutauchen...

Quasar
2004-02-08, 14:05:08
Ist 'n Attachment. Vielleicht aus versehen mal abgeschaltet? Bei mir geht's auf jeden Fall.

aths
2004-02-08, 14:58:58
Quasar, eine feinere Granularität ist per se immer besser. Insofern würde ich bei x3 nicht unbedingt von "flexibler" sprechen. "Die" Grundeinheit ist bilinear, danach kommt trilinear. Trilinear wird mit 2 bilinearen TMUs sehr gut bedient.

Quasar
2004-02-08, 15:48:10
Dann wären TriTMUs aber, soweit ich weiß, ressourcenschonender.

aths
2004-02-08, 16:36:09
Natürlich. Sofern AF aktiv ist, hat GF4 Ti z. B. 4x1 trilineare TMUs.

Gast
2004-02-09, 09:41:28
Original geschrieben von aths
Natürlich. Sofern AF aktiv ist, hat GF4 Ti z. B. 4x1 trilineare TMUs.

Und einige (hundert?)tausend Transistörchen drehen Däumchen, weil es eben nicht TriTMUs sind, sondern zwei BiTMUs, die sich zusammenschalten lassen.


Bei dem Umfang, den ein Shadercore mittlerweile annimmt, sollte man, wenn die Arithmetikleistung stimmt, kaum billiger an mehr Leistung kommen, als durch eine dritte TMU.


Du glaubst gar nicht, wie überrascht ich war, wie gut sich die R7500 mittlerweile gegen die GF2u schlägt - oft ist sie schneller.

;Q

aths
2004-02-09, 10:33:11
Original geschrieben von Gast
Und einige (hundert?)tausend Transistörchen drehen Däumchen, weil es eben nicht TriTMUs sind, sondern zwei BiTMUs, die sich zusammenschalten lassen. Dafür spart man an der AF-Logik. Zu GF4-Zeiten war BF eben noch relevant. Wenn man mit 2x bi ein tri-Sample erzeugt, dreht da nicht viel Däumchen. Eine tri-TMU ist natürlich weniger aufwändig, aber auch etwas weniger flexibel.
Original geschrieben von Gast
Bei dem Umfang, den ein Shadercore mittlerweile annimmt, sollte man, wenn die Arithmetikleistung stimmt, kaum billiger an mehr Leistung kommen, als durch eine dritte TMU.Eine 3. bilineare TMU? Ist, wie gesagt, nicht sehr sinnig. Wenn es trilineare TMUs sind, sind 2 davon pro "Pipe" schon sehr viel.
Original geschrieben von Gast
Du glaubst gar nicht, wie überrascht ich war, wie gut sich die R7500 mittlerweile gegen die GF2u schlägt - oft ist sie schneller.Radeon hat HyperZ.

Gast
2004-02-09, 16:01:53
Original geschrieben von aths
Dafür spart man an der AF-Logik. Zu GF4-Zeiten war BF eben noch relevant. Wenn man mit 2x bi ein tri-Sample erzeugt, dreht da nicht viel Däumchen. Eine tri-TMU ist natürlich weniger aufwändig, aber auch etwas weniger flexibel.
Eine 3. bilineare TMU? Ist, wie gesagt, nicht sehr sinnig. Wenn es trilineare TMUs sind, sind 2 davon pro "Pipe" schon sehr viel.
Radeon hat HyperZ.

Ja, eine dritte bilineare TMU. :) Zwei Trilineare TMUs sind IMO ein wenig viel... dafür dürfte das Budget kaum drin sein.


Radeon hat HyperZ, stimmt. Radeon hat aber auch nur zwei Pipelines. Und, und das scheinst du überlesen zu haben, schrieb ich "mittlerweile" (kursiv).

Früher war es durchaus weniger so, daß die 7500 so gut mithalten konnte, IIRC.

;Q

LovesuckZ
2004-02-09, 21:43:05
Es beginnt! (http://www.theinquirer.net/?article=14058)

Demirug
2004-02-09, 21:56:50
Original geschrieben von LovesuckZ
Es beginnt! (http://www.theinquirer.net/?article=14058)

Ach :cop: FUAD :cop:. Nicht mal richtig abschreiben kann er ;)

aths
2004-02-10, 09:52:42
Original geschrieben von Gast
Ja, eine dritte bilineare TMU. :) Zwei Trilineare TMUs sind IMO ein wenig viel... dafür dürfte das Budget kaum drin sein.Drei bilineare TMUs machen dann erst Recht nicht Sinn. Was es da für Verschnitt gibt. Entweder will man mit wenigen Tranistoren trilinear filtern, dann gleich trilineare. Oder man will bei überschaubarem Transistor-Count mehr Flexibilität. Dann 2x bi. Für mehr Füllrate würde ich lieber mehr Pipelines nehmen, als mit den TMUs weiter in die Tiefe zu gehen.
Original geschrieben von Gast
Früher war es durchaus weniger so, daß die 7500 so gut mithalten konnte, IIRC. Früher waren die Treiber noch nicht so gut, ganz früher war der 32-Bit-Modus noch nicht Quasi-Standard.

LovesuckZ
2004-02-13, 15:25:27
Hm, gehört wohl auch hier rein:

Building of all the NV4x GPUs are near complete, [...] ready for programmable shader model 3.0

Quelle: NVnews.net