PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : B3D: G70 is a 32 shaders GPU???


Gast
2005-06-24, 19:51:54
http://www.beyond3d.com/forum/viewtopic.php?t=24313



With G70 now fully dissected we know have a little greater understanding of the part. Of course one element that characterises G70 is that of die size: its big.

Estimates of the die size put it in the order of around 330mm2, which on a 12" wafer would give in the order of around 150-170 full die to the wafer. Now, the issues here are one of yield - the fewer die there are on a wafer the more likely they are prone to defects. An analyst has suggested to us that there may be as many as 130-160 defects per wafer for earlier 110nm lines from TSMC (although the process is now more mature so that is likely to have decreased) which could give could potentially give very low yields for the chips should everyone need to work without any defects at all.

Now, one thing that we have been used to over the past few years releases is that of utilising defect cores in as lower performance products. The pixel pipelines, followed by the vertex pipelines, are taking the majority of the die space on products such as these and so a natural process defect is most likely to manifest itself in one of these areas; by disabling the pixel quad or vertex shader the defect has manifested itself in the IHV is then still able to recoup much of the cost of that particular piece of silicon, rather than wasting the entire die area.

The difference with G70 is that it is even larger than previous die sizes, which means that it is quite possible that full product yields may be quite small. Could it be that, in order to alleviate this, the defect rate is already built in to the current GeForce 7800 GTX and 24 fragment shaders is not the full number that G70 supports? Whilst many have speculated on an Ultra variant still to come and have been looking at the overclocks of the GTX’s to speculate where it may hit, perhaps it could be the case that there are 32 fragment pipelines in G70 and the fully working die are quietly being collected for use at a later date?
_________________

Gast
2005-06-24, 19:59:00
Demirug, dein Typ wird in dem Thread verlangt *g

reunion
2005-06-24, 20:01:49
Das würde sich alleine schon von der Transistorenanzahl nicht ausgehen IMHO.

Demirug
2005-06-24, 23:06:56
32 halte ich für sehr unwahrscheinlich. Selbst wenn die Fehlerzahl die dort angegeben wurde stimmt sagt das noch relative wenig aus weil es nur ein statistischer Wert ist.

28 oder 25 würde ich mir aber noch gefallen lassen.

Botcruscher
2005-06-24, 23:11:14
28 oder 25 würde ich mir aber noch gefallen lassen.

Sicherheits Transistoren?

Demirug
2005-06-24, 23:18:28
Sicherheits Transistoren?

Bei der Technik mit 25 Ja. Bei der mit 28 hätte man noch einen ganzen Pixelprozessor.

Xmas
2005-06-25, 02:08:54
25 kann ich mir nicht vorstellen, 28 macht mehr Sinn. Aber selbst wenn dem so wäre heißt das noch lange nicht dass die redundanten Einheiten im Falle des Nicht-Defekts überhaupt nutzbar sind.

Demirug
2005-06-25, 11:42:15
25 kann ich mir nicht vorstellen, 28 macht mehr Sinn. Aber selbst wenn dem so wäre heißt das noch lange nicht dass die redundanten Einheiten im Falle des Nicht-Defekts überhaupt nutzbar sind.

Die 25 sind ein Spezialtechnik von nVidia um mit minimalen Mehraufwand von Transitoren voll Funktionsfähoge Chips zu bekommen. Das ganze ist im Prinzip sogar so gut das man Schäden die erst nach längerer Laufzeit auftreten nachträglich kompensieren kann. Ich weiss allerdings nicht ob diese Sache schon bei G70 zum Einsatz kommt.

Dunkeltier
2005-06-25, 12:21:41
Die 25 sind ein Spezialtechnik von nVidia um mit minimalen Mehraufwand von Transitoren voll Funktionsfähoge Chips zu bekommen. Das ganze ist im Prinzip sogar so gut das man Schäden die erst nach längerer Laufzeit auftreten nachträglich kompensieren kann. Ich weiss allerdings nicht ob diese Sache schon bei G70 zum Einsatz kommt.


Könntest du den Teil mit "Schäden die erst nach längerer Laufzeit auftreten" ein wenig ausführlicher beschreiben? Das interessiert micht nämlich.

Xmas
2005-06-25, 12:50:44
Die 25 sind ein Spezialtechnik von nVidia um mit minimalen Mehraufwand von Transitoren voll Funktionsfähoge Chips zu bekommen. Das ganze ist im Prinzip sogar so gut das man Schäden die erst nach längerer Laufzeit auftreten nachträglich kompensieren kann. Ich weiss allerdings nicht ob diese Sache schon bei G70 zum Einsatz kommt.
Ich denke ich kenne das Patent das gemeint ist, nur gibt es ja in der Pipeline mehrere Quad-basierte Bausteine die dadurch nicht erfasst sind. Eine Aufteilung auf Quad-Ebene scheint mir da sinnvoller.

Demirug
2005-06-25, 12:57:58
Ich denke ich kenne das Patent das gemeint ist, nur gibt es ja in der Pipeline mehrere Quad-basierte Bausteine die dadurch nicht erfasst sind. Eine Aufteilung auf Quad-Ebene scheint mir da sinnvoller.

Wenn man die Pixelprozessoren entsprechend anordnet kann man die meisten Einheiten darin entsprechend erfassen. Irgendwo hat man letzten Endes ja immer noch Stellen im DIE die bei einem Defekt zu einem Totalverlust führen.

Gast
2005-06-25, 18:02:51
also wenn wirklich volle quads verbaut wären, wäre das doch sofort aufgefallen wenn man benchmarks g70 vs nv40 mit gleicher pipelinekonfiguration machen würde.

deekey777
2005-06-26, 22:51:26
Wenn's nach mir ginge, sollte nVidia genügend "Schrott-G70" mit nur 5 Quads produzieren und diese als 7800 Standard herausbringen. :D
Aus dem B3D Forum:

From Forceware 77.72

NVIDIA_NV35.DEV_0330.1 = "NVIDIA GeForce FX 5900 Ultra"
NVIDIA_NV35.DEV_0331.1 = "NVIDIA GeForce FX 5900"
NVIDIA_NV35.DEV_0332.1 = "NVIDIA GeForce FX 5900XT"
NVIDIA_NV35.DEV_0333.1 = "NVIDIA GeForce FX 5950 Ultra"
NVIDIA_NV35.DEV_0334.1 = "NVIDIA GeForce FX 5900ZT"

NVIDIA_NV43.DEV_0140.1 = "NVIDIA GeForce 6600 GT"
NVIDIA_NV43.DEV_0141.1 = "NVIDIA GeForce 6600"
NVIDIA_NV43.DEV_0142.1 = "NVIDIA GeForce 6600 LE"
NVIDIA_NV43.DEV_0145.1 = "NVIDIA GeForce 6610 XL"

NVIDIA_NV40.DEV_0040.1 = "NVIDIA GeForce 6800 Ultra"
NVIDIA_NV40.DEV_0041.1 = "NVIDIA GeForce 6800"
NVIDIA_NV40.DEV_0042.1 = "NVIDIA GeForce 6800 LE"
NVIDIA_NV40.DEV_0045.1 = "NVIDIA GeForce 6800 GT"

NVIDIA_G70.DEV_0091.1 = "NVIDIA GeForce 7800 GTX"


All top of the line cards end with 0.1, 7800gtx is 1.1.

From Leaked Encrypted Forceware 75.90

NVIDIA_G70.DEV_0090.1 = "NVIDIA G70"
NVIDIA_G70.DEV_0091.1 = "NVIDIA G70"
NVIDIA_G70.DEV_0092.1 = "NVIDIA G70"
NVIDIA_G70.DEV_0093.1 = "NVIDIA G70"
NVIDIA_G70.DEV_0094.1 = "NVIDIA G70"


Nach dem alten neuen Schema wäre die 7800GTX eine "Standard", was ich als Laie aber nicht glaube:
NVIDIA_G70.DEV_0090.1 = "NVIDIA G70" -> 7800 Ultra mit voller Quad-Anzahl 7 oder 8 Quads?
NVIDIA_G70.DEV_0091.1 = "NVIDIA G70" ->G70 - 1 Quad =7800GTX
NVIDIA_G70.DEV_0092.1 = "NVIDIA G70" ->G70 - 2 Quads = 7800
NVIDIA_G70.DEV_0093.1 = "NVIDIA G70" -> G70 - 3 Quads = 7800LE
NVIDIA_G70.DEV_0094.1 = "NVIDIA G70" -> ???
Irgendwie fehlt die 7800GT, denn diese wäre NVIDIA_G70.DEV_0095.1

Ach Quark... Vielleicht ein ganz neues Schema?
NVIDIA_G70.DEV_0090.1 = "NVIDIA G70" -> 7800 Ultra mit 6 Quads mit höheren Takten, insbesondere Speichertakt (oder gar Dual-Core? :biggrin: )
NVIDIA_G70.DEV_0091.1 = "NVIDIA G70" ->7800GTX <- Sie hat sich nur vorgedrängt!
NVIDIA_G70.DEV_0092.1 = "NVIDIA G70" ->G70 - 1 Quad = 7800GT
NVIDIA_G70.DEV_0093.1 = "NVIDIA G70" -> G70 - 2 Quads = 7800 Standard
NVIDIA_G70.DEV_0094.1 = "NVIDIA G70" -> G70 - 3 Quads = 7800LE

Jetzt dürft ihr mich steinigen. ;(

€: Hatte ich da nicht Recht bei der 7800GT? :biggrin:

Hellfire-Torrod
2005-06-26, 23:10:43
Nach dem Schema währe die GTX (wenn das schema so bleibt) die kleinste version.

7 quads? eher unwarscheinlich



NVIDIA_G70.DEV_0090.1 = "NVIDIA G70" 7900 Ultra 32pipes usw.
NVIDIA_G70.DEV_0091.1 = "NVIDIA G70" 7800 GTX kennen wir schon
NVIDIA_G70.DEV_0092.1 = "NVIDIA G70" 7800 Vanilla 16 pipes, weniger takt
NVIDIA_G70.DEV_0093.1 = "NVIDIA G70" 7900 GTX 32 pipes, weniger takt
NVIDIA_G70.DEV_0094.1 = "NVIDIA G70" 7900 Vanilla 24 pipes, weniger takt (unter 7800 gtx)

Von NV wirds dan heisen: mehr pipes rechtfertigen einen "neuen" namen oder zumindest eine änerung der nummer.

Hm, nun könnte jeder mal seine stats abgeben *lol*

Coda
2005-06-26, 23:20:33
Die zweitkleinste. Meiner Meinung nach heißt das nur dass es noch eine größere Version kommen wird, aber nicht das G70 so wie er verkauft wird schon 32 Pipeline hat.

Hellfire-Torrod
2005-06-26, 23:25:41
Seit wann prahlt man eigendlich, dass man viele transistoren hat ? (vor allem weil durch die news ging viele transistoren=schlecht weil viel wärme)
Das is n wink mit dem zaunfahl an alle spekulanten sich doch mal etwas näher damit zu befassen damit hype um mög. 32 pipes aufkommen. Marketing, my best friend.

Dunkeltier
2005-06-26, 23:26:49
Die zweitkleinste. Meiner Meinung nach heißt das nur dass es noch eine größere Version kommen wird, aber nicht das G70 so wie er verkauft wird schon 32 Pipeline hat.


Größere Version mit mehr Pipes oder mehr Takt? :confused:

Hellfire-Torrod
2005-06-26, 23:38:40
Größere Version mit mehr Pipes oder mehr Takt? :confused:

Das wird sich wohl zeigen wenn NV weis, was der R520 zu bieten hat !?

Coda
2005-06-26, 23:54:07
Größere Version mit mehr Pipes oder mehr Takt? :confused:Da sehe ich z.Z. nur Nebel in meiner Kristallkugel :(

SKYNET
2005-06-27, 00:07:07
Größere Version mit mehr Pipes oder mehr Takt? :confused:


meine glaskugel sagt mir 24 pipes + 550MHz core und 800Mhz speicher....
aber sie flackert leicht, darum ohne gewähr. =) ;)

Gast
2005-06-27, 00:09:36
meine glaskugel sagt mir 24 pipes + 550MHz core und 800Mhz speicher....
aber sie flackert leicht, darum ohne gewähr. =) ;)

800Mhz? von 600 auf 800mhz mit sicherheit nicht

SKYNET
2005-06-27, 00:14:18
28% mehr füllrate zu 33% mehr bandbreite... passt doch. =)

Dunkeltier
2005-06-27, 01:01:08
meine glaskugel sagt mir 24 pipes + 550MHz core und 800Mhz speicher....
aber sie flackert leicht, darum ohne gewähr. =) ;)


Da würde ich eher 480-520 Mhz Core- sowie 650-750 Mhz Speichertakt für realistischer halten. Alles andere wäre von der Ausbeute sowie den Herstellungskosten Unsinn. Allerdings halte ich selbst das für übertrieben, bezogen auf den geringen Taktunterschied der Geforce 6 Serie halte ich eher 450/700 Mhz für denkbar. Zumal der Core schon ziemlich am Anschlag läuft, und die Karte eh eher nach Bandbreite lechzt.

Ailuros
2005-06-27, 01:48:37
Also die 28p Theorie erscheint mir auch am sinnvollsten.

Natuerlich koennte man eine hypothetische "Sicherheits-massnahme" in der Zukunft mit Erfolg fuer ultra high end Modelle freischalten, aber das was die meisten als "Ultra" hier erwarten wird sowieso nicht mehr auf 110nm sein.

SKYNET
2005-06-27, 02:44:36
ok, wer schreibt das bios das alle 28 pipes zum laufen bringt?

so werden dann aus 10320M füllrate, satte 12040M füllrate. ;D

aths
2005-06-27, 05:50:14
Could it be that, in order to alleviate this, the defect rate is already built in to the current GeForce 7800 GTX and 24 fragment shaders is not the full number that G70 supports?Unterstützen wird die Architektur sicherlich mehr.

Godmode
2005-06-27, 11:27:58
Zumal der Core schon ziemlich am Anschlag läuft, und die Karte eh eher nach Bandbreite lechzt.

Wie meinst du das? Die G70 Chips lassen sich doch noch ein ganze Stück übertakten? Oder meinst du das in Bezug auf die Speicherbandbreite?

Dunkeltier
2005-06-27, 16:05:58
Wie meinst du das? Die G70 Chips lassen sich doch noch ein ganze Stück übertakten? Oder meinst du das in Bezug auf die Speicherbandbreite?


Wie ich das meine? Das die Karte in einer Ultra-Version mehr Steigerung durch schnelleren Speicher erfährt.

Godmode
2005-06-27, 16:55:03
Zumal der Core schon ziemlich am Anschlag läuft

Ich meinte wie du das gemeint hast? Die G70 GPUs lassen sich doch noch schön übertakten?

Dunkeltier
2005-06-27, 18:08:50
Ich meinte wie du das gemeint hast? Die G70 GPUs lassen sich doch noch schön übertakten?


Ja sicher. Aber es limitiert immer mehr die CPU sowie die Speicherbandbreite der Grafikkarte. Füllrate ist beinahe im Überfluß vorhanden.

Gast
2005-06-27, 19:20:42
wenn es mehr quads geben würde, würden diese doch in rivatuner angezeigt.

deLuxX`
2005-06-27, 19:56:22
Nein, nicht unbedingt. nVidia hätte da aller Wahrscheinlichkeit hardwaretechnisch einen Riegel vorgeschoben.

P.S. Wie oft wird das eigentlich noch gefragt? :rolleyes:

-deLuxX`

Kladderadatsch
2005-06-27, 20:07:48
Nein, nicht unbedingt. nVidia hätte da aller Wahrscheinlichkeit hardwaretechnisch einen Riegel vorgeschoben.

P.S. Wie oft wird das eigentlich noch gefragt? :rolleyes:

-deLuxX`
da müsste man vielleicht mal das bios inspizieren. vielleicht steht da ja sowas wie "quad7.visible := false";)

Gast
2005-06-27, 20:34:35
Nein, nicht unbedingt. nVidia hätte da aller Wahrscheinlichkeit hardwaretechnisch einen Riegel vorgeschoben.

P.S. Wie oft wird das eigentlich noch gefragt? :rolleyes:

-deLuxX`


zumindest "sehen" hätte man das/die quad(s) müssen, wenn schon ein aktivieren nicht möglich ist (so wie beim ersten rivatuner, der den hardware-lock noch nicht umgehen konnte)

dass nvidia an der prinzipiellen aktivierung/deaktivierung der quads nichts geändert hat beweist ja dass man quads deaktivieren kann.

Godmode
2005-06-27, 21:13:38
Kann mir wer erklären warum auf dem G70 Kern soviele komische Punkte drauf sind? Beim NV40 war das nähmlich nicht so!

http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2005/juni/geforce_7800_gtx_pixelprozessoren/

edit: Sieht aus wie wenn es Pins wären.