PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nv40 tapeout?


mapel110
2003-09-19, 14:33:47
http://www.xbitlabs.com/news/video/display/20030918134855.html
da :)

zuverlässig waren ja solche gerüchte in letzter zeit. ich meine, bezüglich tapeouts von graka-chips.

[dzp]Viper
2003-09-19, 14:35:54
ähm


Samsung Supplies 1600MHz GDDR2 to NVIDIA...


irgendwie .. bin ich den skeptisch gegenüber ....:grübel:

Legolas
2003-09-19, 14:38:00
Original geschrieben von [dzp]Viper
ähm


Samsung Supplies 1600MHz GDDR2 to NVIDIA...


irgendwie .. bin ich den skeptisch gegenüber ....:grübel:

Naja ~800Mhz DDR2 könnte schon drin sein, wird halt dann wieder ein Abwärmekracher wie der originale NV30

LovesuckZ
2003-09-19, 14:39:21
Original geschrieben von Legolas
Naja ~800Mhz DDR2 könnte schon drin sein, wird halt dann wieder ein Abwärmekracher wie der originale NV30

Man hatte ja genug Zeit weiter zu forschen.

Winter[Raven]
2003-09-19, 14:47:33
Gut, wenn der NV40 wirlich geil wird, schmeiße ich meine NV35 raus, aber wie laut soll den die Kühlung werden ? ... bei 500 mhz war es ein heizofen aber bei 800 ?

mapel110
2003-09-19, 14:49:23
Original geschrieben von Winter[Raven]
Gut, wenn der NV40 wirlich geil wird, schmeiße ich meine NV35 raus, aber wie laut soll den die Kühlung werden ? ... bei 500 mhz war es ein heizofen aber bei 800 ?

beim nv30 wars ddr2 ram, bei nv40 sinds jetzt gddr rams =)

roman
2003-09-19, 14:51:08
800 Mhz an einem 256bit-Interface? kommt mir ein bisschen viel vor, AFAIK ist ja keiner der aktuellen High-End-Chips bandbreitenlimitiert.

Winter[Raven]
2003-09-19, 14:53:03
Da steht aber

Samsung Supplies 1600MHz GDDR2

GDDR2 ... ne weiter entwicklung von DDR II ?

LovesuckZ
2003-09-19, 14:53:54
Original geschrieben von Romanski
800 Mhz an einem 256bit-Interface? kommt mir ein bisschen viel vor, AFAIK ist ja keiner der aktuellen High-End-Chips bandbreitenlimitiert.

Bei einem 8x2 Design und einen Coretakt über 500MHZ koenne eine Bandbreitenlimitierung bei 500MHZ schon zutreffen.

Demirug
2003-09-19, 15:04:00
Original geschrieben von Winter[Raven]
Da steht aber



GDDR2 ... ne weiter entwicklung von DDR II ?

Ja und nein. Das sind Speicher-Chips die extra für Grafikkarten gebaut werden.

Winter[Raven]
2003-09-19, 15:10:50
cool .... und wieder was dazu gelernt ... :)

Weisst du auch etwas über ihre Leistungsaufnahme und deren Abwärme ?

Demirug
2003-09-19, 15:16:14
Original geschrieben von Winter[Raven]
cool .... und wieder was dazu gelernt ... :)

Weisst du auch etwas über ihre Leistungsaufnahme und deren Abwärme ?

Datenblätter zu dem Speicher gibt es noch nicht.

roman
2003-09-19, 15:20:51
gegoogelt, gefunden:

http://www.digit-life.com/archive.shtml?dl20030828


Today Samsung Electronics launched volume production of 256Mbit Graphics Double Data Rate2 (GDDR2) SDRAM chips. This memory will allow to simplify the production of new-generation graphics cards with up to 512Mb of memory.

Samsung's GDDR2 SDRAM chips meet JEDEC specs and are packaged into 144-pin Fine-pitch Ball Grid Arrays (FBGA). They support all the technical features mentioned in GDDR2 specs, including:
1.8V voltage
Differential strobe
Off-chip output driver calibration (OCD)
On-die termination (ODT)
Programmable CAS Latency: 3, 4, 5, 6 — Optional; Programmable Additive Latency: 0, 1 , 2 , 3 and 4, impulse interrupts
Write Latency(WL) = Read Latency(RL) — 1
Burst Length — 4 (Read/Write Interrupt Prohibited but only Read interrupted by Read & Write interrupted by Write are allowed), or 8 (Interleave/nibble sequential) Programmable Sequential / Interleave Burst Mode
4 words per clock with Read/Write Latency disabled (enabled in single-phase modes only)
8 words per clock with sequential alternating / interrupted phases at fully programmable switching between sequential and alternating bursts
Bidirectional strobe, (Single-ended data-strobe is an optional feature) with Off-Chip Driver(OCD) Impedance Adjustment
Auto Refresh, CBR, Self Refresh; Refesh Period 7.8ms, 8192 regeneration cycles / 64ms)

Samsung states that its 256Mbit GDDR2 SDRAM chips also support GDDR3 standard that is expected to be approved by JEDEC next month. Shipments to graphics card makers have already started.

Ailuros
2003-09-19, 16:21:58
Original geschrieben von [dzp]Viper
ähm


Samsung Supplies 1600MHz GDDR2 to NVIDIA...


irgendwie .. bin ich den skeptisch gegenüber ....:grübel:

Arbeitet die Suchfunktion jetzt? Ich hab 800MHz DDR2 schon seit einiger Zeit behauptet aber nur als Target. Kann sein dass durch Preisschwankungen der Speicher oder begrenzter Verfuegbarkeit es doch noch nur 700MHz werden.

Ailuros
2003-09-19, 16:24:59
Original geschrieben von mapel110
beim nv30 wars ddr2 ram, bei nv40 sinds jetzt gddr rams =)

Wer wo wieso warum? :D

Uttar hat mal momentan behauptet es waere DDR3; er hat es aber wieder schnell korrigiert.

Exxtreme
2003-09-19, 16:26:07
Original geschrieben von [dzp]Viper
ähm


Samsung Supplies 1600MHz GDDR2 to NVIDIA...


irgendwie .. bin ich den skeptisch gegenüber ....:grübel:
Hehe, da möchte ich die Latenzen von dem Speicher sehen. :D

Ailuros
2003-09-19, 16:32:12
Original geschrieben von LovesuckZ
Bei einem 8x2 Design und einen Coretakt über 500MHZ koenne eine Bandbreitenlimitierung bei 500MHZ schon zutreffen.

Braucht man unbedingt 16 texture ops wenn man 16 arithmetic ops annehmen wuerde? (ist ne ehrliche Frage ich hab keine Ahnung).

Was ich mir vorstellen kann ist dass 16 texture ops mit 8 arithmetic ops wohl nicht viel Sinn macht.

LovesuckZ
2003-09-19, 16:40:38
Original geschrieben von Ailuros
Was ich mir vorstellen kann ist dass 16 texture ops mit 8 arithmetic ops wohl nicht viel Sinn macht.

Weniger Sinn macht 8 texture ops oder 4 arithmetic ops...
Eventuell denkt Nvidia beim NV4x nen bissl praktischer, oder baut doch wieder eine irrsinige Konstruktion.

Ailuros
2003-09-19, 16:48:46
Original geschrieben von LovesuckZ
Weniger Sinn macht 8 texture ops oder 4 arithmetic ops...
Eventuell denkt Nvidia beim NV4x nen bissl praktischer, oder baut doch wieder eine irrsinige Konstruktion.

Genau das war auch mein Punkt; ergo (immer noch offen zur Korrigierung) waere es nicht angebrachter zuerst an die Anzahl von arithmetic ops zu denken (ie dass diese Spekulation Vorrang nimmt) als an texture ops?

Kampf Ameise
2003-09-19, 18:55:32
in zukunft sollte man sich nicht nur die preise der gpu anschauen, sondern auch noch dazurechenen was für stromkosten auf einen zukommen für 1 jahr, dann hat man den endpreis für die graka.... also bei dem kaliber wären dass dann so 800 euro oder mehr...

LovesuckZ
2003-09-19, 19:01:44
Original geschrieben von Kampf Ameise
in zukunft sollte man sich nicht nur die preise der gpu anschauen, sondern auch noch dazurechenen was für stromkosten auf einen zukommen für 1 jahr, dann hat man den endpreis für die graka.... also bei dem kaliber wären dass dann so 800 euro oder mehr...

Wer sich das neuste vom neusten kauft, wird auch für den Strom noch genug Geld haben.

Demirug
2003-09-19, 19:08:12
Um nochmal zum Thema 8 Textureops bei nur 4 arithmetic ops zu kommen. Es sieht auf den ersten Blick absolute sinnloss aus ist es aber nicht wirklich.

Wir müssen dieses Pferd von der anderen Seite her besteigen. Gehen wir davon aus das wir eine Universal FPU gebaut haben die alle PS Befehle ausführen kann. Nun kommt einer schlauer Chipdesigner daher und meint das er mit ein paar zusätzlichen Transitoren die Anzahl der ausführbaren Textureops verdoppeln kann. Das ist einfach zu verlockend um dazu nein zu sagen.

Zudem kommt ja noch hinzu das der NV30 im Mixed Mode (8 Tex oder 4 FP Arit) + 8 Int Arit ausführen kann. In Summe stehen also pro Takt genau so viele Arithmetik Ops wie Textureops zur verfügung und wenn man die Textureops nicht vraucht bekommt man sogar noch ein paar Arithmetik Ops dazu.

Beim NV40 erwarte ich aber eine etwas andere Konstruktion. Werde bei gelegenheit mal ein Bild zeichnen.

robbitop
2003-09-19, 19:34:56
@exxtreme
Speicherlatenzen sind im Grafikbereich ziemlich egal uner gewissen Vorraussetzungen.

Wenn das Designteam die Latenzen und gesamtspecs kennt, kann es die Pipeline so auslegen, dass die GPU bei den Latenzen nicht unnötig wartet und somit entfällt dieses Problem. (Man hätte sonst nie DDR2 einführen können).

Dies geht allerdings nur bei GPUs nicht bei CPUs...ein Grund warum DDR2 bei K7/8 Systemen sich nicht so schnell lohnen wird ;-)

Demirug
2003-09-19, 19:53:43
robbitop, die schönen Zeiten sind langsam aber sicher vorbei. Man kan die Latenzen zwar weiterhin ausgleichen aber der Preis wird immer höher. Liegt um den latenzanfälligen Teil ein Loopback wird die Loopbackschleife beim ausgleichen der latenzen ebenfalls länger. Und wenn man diese länge nicht richtig ausgleichen kann kommt sowas wie der NV30 raus.

Ailuros
2003-09-20, 04:49:39
Original geschrieben von Demirug
robbitop, die schönen Zeiten sind langsam aber sicher vorbei. Man kan die Latenzen zwar weiterhin ausgleichen aber der Preis wird immer höher. Liegt um den latenzanfälligen Teil ein Loopback wird die Loopbackschleife beim ausgleichen der latenzen ebenfalls länger. Und wenn man diese länge nicht richtig ausgleichen kann kommt sowas wie der NV30 raus.

Ich glaube wir haben auch read efficiency schon mal besprochen. Genau hier liegt der Punkt warum ich 8*2 vorruebergehend mal bezweifle, ueberhaupt mit DDR2 oder um genauer zu sein dass es sich mir nicht als gute Idee anhoert.

Natuerlich wird ein 8*2 setup Vorteile haben, solange aber die Nachteile nicht ueberwiegen und die Bandbreite zu stark reduziert wird (Frage ist ob ~44GB/sec als minimum doch genug sind).

Frage: Ich gehe davon aus dass NV40 ueber 2 shader ops pro Takt faehig sein wird. Wenn nicht, macht da 8*2 immer noch Sinn?

Demirug
2003-09-20, 08:54:31
Original geschrieben von Ailuros
Ich glaube wir haben auch read efficiency schon mal besprochen. Genau hier liegt der Punkt warum ich 8*2 vorruebergehend mal bezweifle, ueberhaupt mit DDR2 oder um genauer zu sein dass es sich mir nicht als gute Idee anhoert.

Natuerlich wird ein 8*2 setup Vorteile haben, solange aber die Nachteile nicht ueberwiegen und die Bandbreite zu stark reduziert wird (Frage ist ob ~44GB/sec als minimum doch genug sind).

hängt vom Takt ab. Normalerweise Kalkuliert man 4 Bytes pro TMU/Takt. Bei 16 TMUs und 600MHz wären das etwa 36 GB/sec.

Frage: Ich gehe davon aus dass NV40 ueber 2 shader ops pro Takt faehig sein wird. Wenn nicht, macht da 8*2 immer noch Sinn?

Du meinst 2 pro Pixel und Arithemetik Ops?

Letzten Endes macht es durchaus Sinn dabei zu bleiben eine Universal FPU zu nutzen. Diese sollte man aber getreu den VLIW Grundsätzen Breiter und nicht tiefer machen. Allerdings sollte man ein paar einfache Grundregeln berücksichtigen.

Es macht keinen Sinn mehr Textureops auszuführen zu können als man TMUs hat.

Man sollte pro ausgeführtem Texturebefehl auch noch mindestens einen Ariithmetik Befehl ausführen können.

zeckensack
2003-09-20, 13:32:42
Mal ausgenommen von einigen Spezialfällen* haben Shader eigentlich immer ein Verhältnis Arithmetik/Textur von >=1.

Wenn man bessere Filter verwenden will, kann eine extra TMU das beschleunigen, ansonsten ist sie mittelfristig nutzlos.

*zB auf die fußlahme NV30-Architektur handoptimierte Shader, die Berechnung durch Lookups ersetzen

Demirug
2003-09-20, 13:41:43
Original geschrieben von zeckensack
*zB auf die fußlahme NV30-Architektur handoptimierte Shader, die Berechnung durch Lookups ersetzen

Und selbst dann ist man eigentlich noch in dem Bereich >= 1 weil der Wert den man sich per Lookup besorgt hat in der Regel auch noch weiter verrechnet wird.