PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GF104 - Q2/2010 - und andere GF10x


Seiten : 1 2 3 4 5 6 [7] 8 9 10 11

Gast
2010-07-09, 12:11:36
Laut GPU-Z sollte das wohl auch das Nvidia Referenzdesign sein und nicht die MSI Cyclone - AIB-Kennung im BIOS.

Da wird es interessant sein, was EVGA und Co. solle alles in ihren FTW,... Versionen noch aus GF104 herausholen.

ShinyMcShine
2010-07-09, 12:32:15
Es bleibt spannend! ;) Ich hoffe wirklich, dass nVidia mit dem GF104 ein guter Wurf für das obere Performance-Segment gelingt! Dann tut sich endlich mal wieder was...

VG
Shiny

y33H@
2010-07-09, 12:33:02
EVGA bringt Gerüchten zufolge eine SSC mit 800 MHz Chip, also +19%. Das könnte fast HD5870-Level sein.

Gandharva
2010-07-09, 12:57:05
Ich rechne für die 1GB Versionen so mit 230 euro.

Mfg
Könnte sogar drunter gehen: http://geizhals.at/eu/a547631.html

Wobei mich da das GS als Zusatz stutzig macht. 192Bit mit 1024MB Ram?

ShinyMcShine
2010-07-09, 12:58:30
EVGA bringt Gerüchten zufolge eine SSC mit 800 MHz Chip, also +19%. Das könnte fast HD5870-Level sein.

DIE Karte wird auch Ihren Preis haben. :eek: Gepaart mit richtig schnellen 2048MB GDDR5 RAM bestimmt 'ne Killer-Karte. ;)
Aber bei den extrem übertakteten Karten habe ich immer kein gutes Bauchgefühl. Kaufe ich mir eine neue Grafikkarte, soll die auch ca. 2 Jahre halten ohne dass ich die ganze Zeit eine defekte Karte irgendwo einschicken muss...
Eine leichte Übertaktung auf ca. 725 MHz wäre OK.

VG
Shiny

Gast
2010-07-09, 13:07:49
Könnte sogar drunter gehen: http://geizhals.at/eu/a547631.html

Wobei mich da das GS als Zusatz stutzig macht.
Eben wohl schon eine Version mit eigenem Kühler, deshalb Golden Sample.


192Bit mit 1024MB Ram?
Die 1G Version hat natürlich ein 256-Bit SI und damit 33% mehr Bandbreite/ROP-Leistung.

V2.0
2010-07-09, 13:13:20
Ziet euch nicht an den jetzigen Geizhals-Notierung hoch, da ist wieder die typische Abzocke unterwegs. Die 768 liegt Ende nächster Woche bei 190 die 1GB bei 215-230.

Gast
2010-07-09, 13:16:02
Eine 8800 GT Situation mögen schon die anderen GTX 400 und die HD5800 zu verhinden. ;)
Jetzt sollte AMD wirklich nachziehen und die 5830 auf $189 und die 5850 auf $239/249 anpassen.

Dimon
2010-07-09, 13:45:15
Mittlerweile gibts die GTX470 schon für 280€uronen, die sollen die GTX460/465 Preise senken damit es sich auch lohnt....

http://geizhals.at/eu/a519536.html

ShinyMcShine
2010-07-09, 13:48:41
Sehr schön! ;D Damit dürfte dem Namensschema entsprechend eine GTX468 auch nicht mehr kosten! ;)

VG
Shiny

Dural
2010-07-09, 14:18:36
naja wenn man bedenkt das NV auch eine 32ROP / 1GB version zulässt könnte das bedeuten das wir nicht so schnell eine voll version des GF104 sehen werden... oder vielleicht doch nur wie schon mal vermutet auf einer GX2...

und die grösste frage für mich ist halt immer noch wie das NV mit der 470 regeln wird, die wäre dann quasi nicht mehr nötig, NV benötigt die karte aber ganz sicher für GF100 "restentsorgung"

Gast
2010-07-09, 14:27:12
naja wenn man bedenkt das NV auch eine 32ROP / 1GB version zulässt könnte das bedeuten das wir nicht so schnell eine voll version des GF104 sehen werden... oder vielleicht doch nur wie schon mal vermutet auf einer GX2...

und die grösste frage für mich ist halt immer noch wie das NV mit der 470 regeln wird, die wäre dann quasi nicht mehr nötig, NV benötigt die karte aber ganz sicher für GF100 "restentsorgung"

Wer sagt das eine volle Karte überhaupt möglich ist? Von GF100 fehlt davon auch jede Spur, nicht mal die extrem teuren Tesla-Karten haben 512SP. Ähnliche Probleme könnte auch GF104 haben, ist ja dasselbe Design.

ShinyMcShine
2010-07-09, 14:30:48
Die GTX480 ist doch schon "Restentsorgung" eines vollen GF100! Langsam sollte man die Fertigung auch mit einer bessern Yieldrate hinbekommen (so dass man eine GTX470 als Restverwertung der Restentsorgung evtl. nicht mehr braucht). Schliesslich hält sich auch hartnäckig das Gerücht, dass ein "voller" GF100 mit 512SPs als GTX485 kommen soll.
Darüber hinaus gibt es noch die Tesla-Karten die auch keinen vollen GF100 draufhaben. nVidia hat also genug Möglichkeiten einer Restentsorgung.
Irgendwann kommt auch die Wirtschaftlichkeit ins Spiel. Wenn nVidia eine GTX468 billiger herstellen kann als eine GTX470 und diese von der Leistung überflüssig wird, warum sollte man den teuren GF100 noch verbauen, wenn dessen Ausbeute langsam mehr hergibt als nur die Chips für die GTX470?

Ich glaube zwar auch nicht, dass eine GTX468 in den nächsten Wochen kommt, aber im Herbst bestimmt!

VG
Shiny

LovesuckZ
2010-07-09, 14:30:58
Ein voller GF104 wäre schneller als die GTX465 und in der Nähe der GTX470. Dadurch würden 2 Chipvarianten des GF100 wegfallen, was wiederum die Produktion des GF100 deutlich teurer macht.

Gast
2010-07-09, 14:34:19
Deshalb wird es diese Version wohl erst mit GF100-B1 geben, der dann bessere Yields für >=448SPs erlaubt.

ShinyMcShine
2010-07-09, 14:39:07
Die oben erwähnte SCC Version mit 800 MHz Chiptakt und 256 Bit Speicherinterface würde eine GTX 470 schon fast überflüssig machen!
Schauen wir mal, was alles auf den Markt kommt...

VG
Shiny

dreas
2010-07-09, 14:59:29
meine gtx460@1024 sollte morgen bei mir eintreffen. ich gebe dann bescheid wie sie sich macht.

ShinyMcShine
2010-07-09, 15:18:05
Wahnsinn! Schon geordert? Somit kriegen wir vor dem Fall des NDAs Informationen aus erster Hand! ;D Ich bin sehr gespannt.
Zu welchem Preis hast Du bestellt?

VG
Shiny

dreas
2010-07-09, 15:22:17
182€ netto + expressversand

Gast
2010-07-09, 15:24:09
Also würden die Händler bei weniger als 217€ nichts mehr verdienen.

Gast
2010-07-09, 15:25:20
Was kostet denn eine HD 5850 netto?

ShinyMcShine
2010-07-09, 15:26:02
182€ netto + expressversand

Das nenne ich einen fairen Preis! ;)

Viel Spass beim Einbau und Testen!

VG
Shiny

dreas
2010-07-09, 15:26:49
Also würden die Händler bei weniger als 217€ nichts mehr verdienen.

zumindest bei diesem modell liegts ungefähr so. sicherlich gehen nach dem launch die preise noch etwas runter (vermutung) aber aktuell werden die karten in den nächsten wochen kaum unter 220€ brutto kosten. die 768mb aber entsprechend günstiger.

Rampage 2
2010-07-09, 16:12:41
Ich glaube zwar auch nicht, dass eine GTX468 in den nächsten Wochen kommt, aber im Herbst bestimmt!

VG
Shiny

Wurde die GTX468 (384SPs, 64TMUs) schon von Nvidia offiziell angekündigt?

R2

crux2005
2010-07-09, 16:13:19
Wahnsinn! Schon geordert? Somit kriegen wir vor dem Fall des NDAs Informationen aus erster Hand! ;D Ich bin sehr gespannt.
Zu welchem Preis hast Du bestellt?

VG
Shiny

Kann mir gut vorstellen, das dieses Wochenende viele leaken werden. Die press-presentation in Europa ist ja schon eine mehr als 1 Woche her.

Gast
2010-07-09, 16:13:26
Wurde die GTX468 (384SPs, 64TMUs) schon von Nvidia offiziell angekündigt?

Nein, bisher nur eine Spekulation aus Asien.

ShinyMcShine
2010-07-09, 16:14:51
Nein, sind bisher nur Gerüchte, genauso wie die GTX485 (beide Karten benutzen die Chips im Vollausbau). Aber über kurz oder lang wird uns nVidia schon erhöhren, warum so einen Chip zurückhalten? Alles eine Frage der Zeit! :up:

VG
Shiny

Rampage 2
2010-07-09, 16:15:57
Nein, bisher nur eine Spekulation aus Asien.

Aber wahrscheinlich ist es schon, oder? Ich meine wenn die Yields gut sind, wird Nvidia auf eine volle GF104 mit 8 Clustern nicht verzichten, oder?

R2

ShinyMcShine
2010-07-09, 16:33:39
Ein Fünkchen Wahrheit ist doch immer dabei wenn die Gerüchte aus Asien rüberschwappen. Ich denke wirklich, es ist nur eine Frage der Zeit und des Abverkaufens der GTX470.

Spätestens wenn AMD mit neuen Karten rauskommt, wird es wohl den vollen GF104 geben müssen. Schliesslich ist AMD als nächstes dran, und nVidia muss dann nachlegen. Was liegt also näher als diesen potenten Chip dann mit allen 8 Clustern unter's Volk zu bringen? Schliesslich wird nVidia einen neuen Chip in dem Segment so schnell nicht bringen!

VG
Shiny

Gast
2010-07-09, 17:12:07
Gainward/Palit GTX 460 768MB Bilder: http://translate.google.de/translate?u=http%3A%2F%2Fwe.pcinlife.com%2Fthread-1463669-1-1.html&sl=zh-CN&tl=en&hl=&ie=UTF-8
Die passende Version für die, welche ihre Stromanschlüsse an der Seite haben wollen. ;)

Da ging wohl wirklich A1 in die Produktion.

LovesuckZ
2010-07-09, 17:15:29
Da ging wohl wirklich A1 in die Produktion.

Das wäre ziemlich interessant: Ca. 2 Milliarden Transistoren, >=350mm^2 und dann A1? Vielleicht kommt der komplette GF104 auch erst mit dem Respin in 3 Monaten? Wäre eine ziemlich überraschende Strategie von nVidia.

Gast
2010-07-09, 17:23:06
Vielleicht war hier wieder das G94-Team am Werk, die es mit diesen auch schon in A1 schafften.
Da wird es interessant sein, wie es mit den anderen GF10x aussieht. Nicht das, dass "6er-Team" wieder, wie bei G96 gar ein C-Stepping braucht. :D

VooDoo7mx
2010-07-09, 17:42:35
DIE Karte wird auch Ihren Preis haben. :eek: Gepaart mit richtig schnellen 2048MB GDDR5 RAM bestimmt 'ne Killer-Karte. ;)
Aber bei den extrem übertakteten Karten habe ich immer kein gutes Bauchgefühl. Kaufe ich mir eine neue Grafikkarte, soll die auch ca. 2 Jahre halten ohne dass ich die ganze Zeit eine defekte Karte irgendwo einschicken muss...
Eine leichte Übertaktung auf ca. 725 MHz wäre OK.

Killerkarte wäre es dann im Vollausbau. Ein 800MHz GF104 kommt dann schon einer GTX480 ziemlich nah. ;D

Gast
2010-07-09, 17:49:42
Dann müsste sich GF104 nur noch mit dem 0.33ns GDDR5 von Samsung kombinieren lassen. :D

LuXon
2010-07-09, 21:11:56
Die Karte wird immer interessanter.
Wollte einem Kollegen auf ende Jahr eine GTX470 empfehlen, sobald aber der GF104 im Vollausbau da ist, wird er diese Empfohlen bekommen.

Wie sieht das eigentlich aus, wenn die Vollausbauten da sind?

GTX 468 hat dann die HD 5870 fest im Griff.
GTX 485 hat dann den Nachfolger der HD 5870 im Griff.

Und wäre es möglich, dass nVidia bald eine Dualkarte (GTX 490 / GTX 495) launcht mit 2 GTX460 1024mb Chips? Oder werden sie doch erst 1 Monat nach der GTX 468 eine Dualkarte bauen mit dem Vollausbau des GF104?

ShinyMcShine
2010-07-09, 21:14:20
Und wäre es möglich, dass nVidia bald eine Dualkarte (GTX 490 / GTX 495) launcht mit 2 GTX460 1024mb Chips? Oder werden sie doch erst 1 Monat nach der GTX 468 eine Dualkarte bauen mit dem Vollausbau des GF104?

Möglich ist sicher vieles. Und vieles hängt eben auch von der Marktsituation (neue Karten von ATI) und nVidia selbst ab. Im Endeffekt kann man nur abwarten.

Beide Möglichkeiten (GTX 468 und GTX 495) sind aber bestimmt machbar!

VG
Shiny

Spasstiger
2010-07-09, 21:33:34
Ich könnte mir vorstellen, dass NV den GF104 im Vollausbau zuerst mit der GTX 495 vorstellt. Evtl. mit GTX-460-Taktraten.

LuXon
2010-07-09, 21:44:41
Leider wäre das dann wieder ein Speicherkrüppel. Sicher nur 1gb Speicher pro Chip
:freak:

ShinyMcShine
2010-07-09, 21:49:38
Naa, da kann man dann schon in die Vollen gehen und insgesamt 2x 2GB verbauen. :up: Bei der Karte kommt es dann auf die paar Euronen auch nicht an... ;)

VG
Shiny

Spasstiger
2010-07-09, 21:53:15
2*1 GiB sind bei einer Dual-GF104-Karte anzunehmen. Die HD 5970 bietet im Referenzdesign aber auch nicht mehr. Und bei der Fermi-Architektur scheint man auch ein vernünftiges Speichermanagement hinzubekommen.

Gast
2010-07-09, 23:27:05
Werden wir ja am Montag sehen, wenn die 1GB Version in 8xAA Tests schwitzen darf.

y33H@
2010-07-09, 23:42:51
Das sah man bisher auch schon. Und 8x MSAA ... *gähn*

HarryHirsch
2010-07-09, 23:46:43
2*1 GiB sind bei einer Dual-GF104-Karte anzunehmen. Die HD 5970 bietet im Referenzdesign aber auch nicht mehr. Und bei der Fermi-Architektur scheint man auch ein vernünftiges Speichermanagement hinzubekommen.

Das will ich jetzt aber genauer wissen. Was könnte denn da vernünftiger sein als bei anderen?

Coda
2010-07-09, 23:49:28
GeForce 8 bis GeForce-300-Series können nicht direkt aus dem PCIe-Aperture-Speicher texturieren. Das wurde bei Fermi offenbar wieder eingeführt.

y33H@
2010-07-09, 23:50:17
G80 bis GT200 hatten u.a. kein DMA, ergo ging die Performance total den Bach runter, wenn der VRAM voll war. Das ist seit GF100 nicht mehr der Fall - so wie bei AMD seit dem R600.

EDIT
Coda war schneller.

Coda
2010-07-09, 23:57:17
Was heißt seit dem R600? Das konnte ATi eigentlich schon seit der ersten Radeon - genauso Riva TNT bis GeForce 7.

Spasstiger
2010-07-09, 23:59:15
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8090612#post8090612
Die GTX 465 steckt ihren Mangel an VRAM deutlich besser weg als die Radeon HD 5870.

HarryHirsch
2010-07-10, 00:03:17
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8090612#post8090612
Die GTX 465 steckt ihren Mangel an VRAM deutlich besser weg als die Radeon HD 5870.

Woran könnte das liegen? Können die Radeons diese "Erweiterung" doch nicht so gut nutzen?
Ich hab keinen Plan... ich frag nur aus Interesse...

y33H@
2010-07-10, 00:07:36
@ Coda

X1k auch? Die sind als 256er so arg eingebrochen ;(

Coda
2010-07-10, 04:10:01
Eigentlich schon. Außer da war was futsch. Spielt auch keine Rolle mehr.

Gast
2010-07-10, 10:35:40
EVGA 768-P3-1362-AR GeForce GTX 460 (Fermi) Superclocked
Core Clock 763MHz
Shader Clock 1526MHz
http://www.newegg.com/Product/Product.aspx?Item=N82E16814130564

Darüber ist noch Platz für eine SSC.

dargo
2010-07-10, 11:10:59
2*1 GiB sind bei einer Dual-GF104-Karte anzunehmen. Die HD 5970 bietet im Referenzdesign aber auch nicht mehr. Und bei der Fermi-Architektur scheint man auch ein vernünftiges Speichermanagement hinzubekommen.
Speichermanagement hin oder her. Bei so einem Kaliber finde ich 2x 1GB zu wenig. In Metro 2033 kriege ich die 1280MB der GTX470 @DX11 voll, und das bereits in 1680x1050 samt 4xMSAA. X-D

Gast
2010-07-10, 11:12:02
Du meinst dann die hier ^^ http://www.newegg.com/Product/Product.aspx?Item=N82E16814261076

Palit NE5X460HF1102 GeForce GTX 460
Clocks: 800/1600/4000

dargo
2010-07-10, 11:14:22
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8090612#post8090612
Die GTX 465 steckt ihren Mangel an VRAM deutlich besser weg als die Radeon HD 5870.
Ja toll. Und was bringt das dem User in der Praxis? Genau Null komma Nix. 9-11fps sind genauso unspielbar wie 2-3fps. Vram ist durch nichts zu ersetzen, da kann das Speichermanagement noch so toll sein.

Raff
2010-07-10, 11:25:08
800/1.600 MHz anstelle von 675/1.350 entspricht einer 18,5-prozentigen GPU-Übertaktung. Werkseitig! Das ist äußerst sexy. Da kommt so langsam die GTX 470 in Bedrängnis. :naughty:

MfG,
Raff

dargo
2010-07-10, 11:27:55
800/1.600 MHz anstelle von 675/1.350 entspricht einer 18,5-prozentigen GPU-Übertaktung. Werkseitig! Das ist äußerst sexy. Da kommt so langsam die GTX 470 in Bedrängnis. :naughty:

Weil man die GTX470 auch nicht übertakten kann. :cool:
GPU-Übertaktung alleine ist auch nicht optimal. Wenn dann sollte die Speicherbandbreite im gleichen Maße steigen.

Dural
2010-07-10, 11:28:54
......und könnte noch mal drauf hin deuten das wir wohl nicht so schnell eine 468 sehen werden :(

Raff
2010-07-10, 11:32:07
Weil man die GTX470 auch nicht übertakten kann. :cool:

Klar kann man das. Aber wer sagt denn, dass die GTX 460 bei 800 MHz am Ende ist? ;) Prozentual schafft eine Standard-GTX-470 aber gewiss eine größere Steigerung. Mit einer fetten Spannungskeule wird so manche GTX 460 aber IMO die 1-GHz-Marke knacken, sofern die 800 MHz ab Werk zur Regel werden.

MfG,
Raff

Gast
2010-07-10, 11:33:40
800/1.600 MHz anstelle von 675/1.350 entspricht einer 18,5-prozentigen GPU-Übertaktung. Werkseitig! Das ist äußerst sexy. Da kommt so langsam die GTX 470 in Bedrängnis. :naughty:

Vor allem noch zu so einem Preis:

$244.99
$6.98 Shipping*

Bei den Taktraten sollte man doch die gut $80 teurere GTX 470 einholen.

Und wenn schon 800/1000MHz lieferbar sind, hat eine gute GTX 460 wohl noch mehr Potential.

dargo
2010-07-10, 11:34:09
Klar kann man das. Aber wer sagt denn, dass die GTX 460 bei 800 MHz am Ende ist? ;)
Und wer sagt, dass eine GTX470 bei 720Mhz GPU-Takt am Ende ist? Schau dir mal welche VGPU bei mir anliegt. ;) Wollen wir wirklich so weitermachen?

Dural
2010-07-10, 11:34:39
die 1000MHz sind mit WaKü und etwas mehr Spannung sicher drin ;-)

20% werks-oc und das gleich von anfang an ist schon eine hausnummer!


NV hat ein problem mit dem GF104, nämlich das problem das der GF104 alle GF100 Karten unter GTX480 sinnlos macht :freak: sogar über die berechtigung der 480er könnte man streiten... (verbrauch, kosten.) was würde wohl ein voller GF104 @ 850/1250MHz 2GB alles so anstellen und das sicher bei weniger verbrauch und kosten...

IVN
2010-07-10, 11:53:41
die 1000MHz sind mit WaKü und etwas mehr Spannung sicher drin ;-)

20% werks-oc und das gleich von anfang an ist schon eine hausnummer!


NV hat ein problem mit dem GF104, nämlich das problem das der GF104 alle GF100 Karten unter GTX480 sinnlos macht :freak: sogar über die berechtigung der 480er könnte man streiten... (verbrauch, kosten...)
Ich denke man hätte von Anfang an den 104 als den stärksten CHip rausbringen sollen. Die "480" mit dem Vollausbau und 850-900MHz und guter Kühlung, statt der jetztigen 470, dann eben einen 104 mit einem deaktiviertem "Array" und etwas niedrigerem Takt (800-850), und gut ist.

Gast
2010-07-10, 11:54:32
Warten wir erst mal die genauen Testergebnisse ab, denn da hat sich doch einiges an der Architektur geändert, sodass man auf Basis der groben Einheiten und Taktraten noch nicht 100%ig weiß wo GF104 genau steht.

dreas
2010-07-10, 12:10:03
leider ist dpd mit meiner gtx460 noch immer nicht da;(

ShinyMcShine
2010-07-10, 12:23:09
leider ist dpd mit meiner gtx460 noch immer nicht da;(

:(

ShinyMcShine
2010-07-10, 12:24:23
......und könnte noch mal drauf hin deuten das wir wohl nicht so schnell eine 468 sehen werden :(

Naja, was die Boardpartner machen ist eine Sache. Ich denke mal das ist nVidia erstmal Wurschd wenn es darum geht, wann der volle GF104 auf den Markt gebracht wird...

VG
Shiny

VooDoo7mx
2010-07-10, 16:29:41
Weil man die GTX470 auch nicht übertakten kann. :cool:
GPU-Übertaktung alleine ist auch nicht optimal. Wenn dann sollte die Speicherbandbreite im gleichen Maße steigen.
Es geht nicht um manuelle Übertaktung sondern um werksseitige. :rolleyes:
Und es gibrt auch werksseitig übertaktete GTX470, doch die sind gerade mal bei 650MHz was egrade einmal mickrige 7% sind.
GTX470 gibt es schon von Tag 1 an mit 18% höheren Takt.

Wenn man noch rational denken kann, sind diese Werksseitigen Übertakten ein sehr guter Indikator was man am Ende mit manueller Übertaktung erreichen könnte.
Aber das ist glaube ich sowieso mehr oder wneiger ein Versuch sich seine vor ein Paar Wochen gekaufte GTX470 schönzureden die von einen deutlich ausgewogeneren Produkt in den nächsten Tagen komplett canibalisiert wird.

ShinyMcShine
2010-07-10, 16:42:10
leider ist dpd mit meiner gtx460 noch immer nicht da;(

Gibt's schon Neuigkeiten? Was sagt das online Packettracking? ;)

VG
Shiny (der buchstäblich im eigenen Saft schmort) X-D

dreas
2010-07-10, 17:26:01
das tracking sagt das paket ist im depot. nur bei dpd ist samstags weder an der hotline noch an der nummer des örtlichen depots jemand erreichbar. kann ich also knicken. für diesen beschissenen service zahle ich 25€! klar bekomme ich die kohle zurück aber mein extra sturmfrei geplanter tag und den stress habe ich trotzdem. fazit: dpd samstagszustellung kannste vergessen!

ShinyMcShine
2010-07-10, 17:33:35
Schade drum... :( Mal googeln ob sonst schon jemand eine Karte gebencht hat...

VG
Shiny

Gast
2010-07-10, 20:14:13
Ich denke man hätte von Anfang an den 104 als den stärksten CHip rausbringen sollen. Die "480" mit dem Vollausbau und 850-900MHz und guter Kühlung, statt der jetztigen 470, dann eben einen 104 mit einem deaktiviertem "Array" und etwas niedrigerem Takt (800-850), und gut ist.

Wäre ein EpicFail im Hinblick auf Cuda gewesen, das Marketing hätte gekotzt für den Profi-Sektor. Fermi-Tesla Karten separat zu Grafikkarten zu entwickeln kostet noch zuviel, und GF100 ist auch nicht ganz das geworden was er sein sollte.
Dafür hat man nun GF104 anscheinend umso besser hinbekommen, GF106/108 werden im OEM Markt gut gehen, wenn sie denn mal kommen, für die Back-to-School Seasion ists leider zu spät, aber GF104 als Mainstream GPU wird gehen wie warme Semmel.

amuse
2010-07-11, 08:08:33
Ich bin gerade in den USA und ich werde mir die Karte wohl bei Newegg bestellen. Wollte nur kurz sicherstellen das die 1GB Version definitiv der 768 Version vorzuziehen ist.
Stimmt das so?
Und noch zu den Marken. Ich fuehle mich persoenlich zu EVGA hingezogen, ist Palit aber auch ok?
Danke.

ShinyMcShine
2010-07-11, 08:53:42
Die 1024MB Version hat ein größeres Speicherinterface und daher eine wesentlich höhere Bandbreite. Ist in jedem Fall der 768MB Version vorzuziehen!
Marke ist dann eher sekundär...

VG
Shiny

Gast
2010-07-11, 09:48:06
Die 800MHz Variante von Palit hat nun Bilder bekommen: http://www.newegg.ca/Product/Product.aspx?Item=N82E16814261076
Keine 2 Lüfterlösung wie bei Gigabyte, dürfte wohl hörbar werden. Oder gut selektiert.

Gast
2010-07-11, 10:14:52
Die 800MHz Variante von Palit hat nun Bilder bekommen: http://www.newegg.ca/Product/Product.aspx?Item=N82E16814261076
Keine 2 Lüfterlösung wie bei Gigabyte, dürfte wohl hörbar werden. Oder gut selektiert.


Palit hat 3 Versionen am Start. 675MHz, 725MHz + 1GB und 800MHz + 1GB. Alle scheinen den gleichen Lüfter zu haben...

http://www.newegg.ca/Product/ProductList.aspx?Submit=ENE&DEPA=0&Order=BESTMATCH&Description=GeForce+GTX+460&x=18&y=34

Gast
2010-07-11, 10:15:24
Erste Gesamtsystem-Verbrauchswerte:
http://itbbs.pconline.com.cn/diy/11602004.html

260W Kombustor, 290W FurMark
@
CPU:E8400 3G OC 3.6G
内存:KingMax DDR3 1333 2GB*2
主板:ABIT X48 GT-3
显卡:GIGA GV-N4600OC-1GI
硬盘:WD 250GB+7200.12 1GB
电源:全汉(FSP)领航者白金版 额定 400W 缝制500W 80PLUS白牌

Gast
2010-07-11, 10:25:08
Hier hat wohl schon jemand die 800MHz Palit:
http://translate.google.de/translate?u=http%3A%2F%2Fwe.pcinlife.com%2Fthread-1464647-1-1.html&sl=zh-CN&tl=en&hl=&ie=UTF-8

P14,5k Vantage und fast 30 FPS Crysis 1080p VH ohne AA. 86°C unter FurMark bei 26-27°C Raum.

Gast
2010-07-11, 10:28:06
P14,5k Vantage
= GPU-Score

Gast
2010-07-11, 10:46:34
http://translate.google.de/translate?u=http%3A%2F%2Fpctuning.tyden.cz%2Fcomponent%2Fcontent%2Farticle%2F1-aktualni-zpravy%2F18103-prvni-skutecne-testy-gtx-460-po-pretaktovani-porazi-hd-5850&sl=cs&tl=en&hl=&ie=UTF-8

Standard Extreme GPU-Scores:
768: 5872
1024: 6334
~8% Mehrleistung bei 33% mehr Bandbreite und ROP-Leistung.
Da scheint wohl die Bandbreite der 768MB-Karte nicht wirklich ein limitierender Faktor zu sein, sodass hier eventuelle 1,5GB Versionen interessant sein könnten.

OCing:
768MB: 870/1740/1138 MHz @ 75°C
1024MB: 845/1690/1045 MHz @ 85°C

Superheld
2010-07-11, 10:56:18
nich übel :smile:

Gast
2010-07-11, 11:34:53
Hmm bein HeavenBenchmark scheint man im Standard DX11 Test wohl auf HD5870OC Niveau zu sein, Tesselation sei dank :ugly:
FF14 könnte die CPU mit HT Bremsen, da wirds dann 5850 Niveau

ShinyMcShine
2010-07-11, 11:36:27
Wird sehr interessant werden, morgen die ganzen Reviews zu lesen... ;)
290W FurMark bei dem Referenzsystem mit C2D OC von 3,0 GHz auf 3,6 GHz und einer übertakteten GTX460 ist meiner Meinung nach ein respektabler Wert...

VG
Shiny

Al-CAlifAX
2010-07-11, 11:42:38
Erste Gesamtsystem-Verbrauchswerte:
http://itbbs.pconline.com.cn/diy/11602004.html

260W Kombustor, 290W FurMark
@
CPU:E8400 3G OC 3.6G
内存:KingMax DDR3 1333 2GB*2
主板:ABIT X48 GT-3
显卡:GIGA GV-N4600OC-1GI
硬盘:WD 250GB+7200.12 1GB
电源:全汉(FSP)领航者白金版 额定 400W 缝制500W 80PLUS白牌

schonmal net schlecht. nur 40 Watt mehr als mit ner 8800GT und vergleichbaren overclocktem Core 2 Duo.

Was mich interessiert sind aber die Idle und Low Profile Stromwerte. die 8800GT hatte hier 35 Watt und die 9800GT 45 Watt. Wäre schön wenn sie da auch wieder liegen würde. Die GTX280 schaffte es ja auch auf 28 Watt.

Gast
2010-07-11, 11:48:22
Laut einer NV-Folie soll der Idle-Verbrauch auf dem Niveau der 5830 liegen, also ~20W.

Spasstiger
2010-07-11, 11:50:33
Was mich interessiert sind aber die Idle und Low Profile Stromwerte. die 8800GT hatte hier 35 Watt und die 9800GT 45 Watt. Wäre schön wenn sie da auch wieder liegen würde.
Die GTX 480 benötigt im idle rund 42 Watt, was nach heutigen Maßstäben eher viel ist. 35 Watt fände ich definitiv zu viel bei der GTX 460. Die HD 5850/5870 bringen es auf rund 16 Watt im idle.
Alle Werte von http://www.xbitlabs.com/articles/video/display/gigabyte-gf-gtx400_6.html#sect0.

Laut einer NV-Folie soll der Idle-Verbrauch auf dem Niveau der 5830 liegen, also ~20W.
Das entspricht auch meiner Erwartungshaltung. Würde mich schwer wundern, wenn die GTX 460 einen höheren idle-Verbrauch als die GTX 470 hätte trotz neuer GPU mit weniger Transistoren.

Wuge
2010-07-11, 11:50:54
Selbst die GTX470 liegt unter 30W ;)

Gast
2010-07-11, 11:52:47
Die GTX 480 benötigt im idle rund 42 Watt, was nach heutigen Maßstäben eher viel ist. 35 Watt fände ich definitiv zu viel bei der GTX 460. Die HD 5850/5870 bringen es auf rund 16 Watt im idle.
Alle Werte von http://www.xbitlabs.com/articles/video/display/gigabyte-gf-gtx400_6.html#sect0.
Alles eine Frage es Kühler/der Idle-Temperatur: http://ht4u.net/reviews/2010/zotac_geforce_gtx_480_amp_limited_edition/index12.php

Gast
2010-07-11, 12:03:26
Zum einen das, zum anderen sind die Mehrkosten für 15W nicht mehr wirklich diskussionswürdig.
Selbst wenn der PC jeden Tag im Jahr 6 Std. im Idle läuft macht das jährliche Mehrkosten bei der Stromrechnung im 6 Euro Bereich aus.

Spasstiger
2010-07-11, 12:03:38
Alles eine Frage es Kühler/der Idle-Temperatur: http://ht4u.net/reviews/2010/zotac_geforce_gtx_480_amp_limited_edition/index12.php
Eine Einsparung von rund 30% kommt sicherlich nicht allein von der um 13°K reduzierten idle-Temperatur. Dafür dürften wohl eher die reduzierten Spannungen für GPU und Speicher im idle und eine bessere Selektion verantwortlich sein.

y33H@
2010-07-11, 12:04:42
Täusch dich da mal nicht, die GF100 reagieren extrem auf niedrigere Temperaturen!

Spasstiger
2010-07-11, 12:06:33
Täusch dich da mal nicht, die GF100 reagieren extrem auf niedrigere Temperaturen!
Trotzdem hat die Zotac GTX 480 AMP! reduzierte Spannungen im idle gegenüber der GTX 480 Referenz und der normalen GTX 480 von Zotac:
http://ht4u.net/reviews/2010/zotac_geforce_gtx_480_amp_limited_edition/index7.php

y33H@
2010-07-11, 12:09:59
Richtig. Wobei die normale Zotac 0,968 Volt hat und die AMP! 0,961 Volt - das reißt nichts. Das grenzt an Messungenauigkeit.

Al-CAlifAX
2010-07-11, 12:11:33
20 Watt wäre sehr schön. Mein Rechner läuft täglich 14h ca. Davon reine Spielzeit vllt 1-2h. Wenn ich da 15 Watt gegenüber meiner alten einspare ist des doch super, schliesslich ist der Spieleverbrauch ja höher. Und somit dürfte sich das im Jahr wieder ausgleichen.

Aber was ist mit dem Low Profile Modus? Hatte da mal was gelesen, das bei Spielen die nicht die voll Power der Karte brauchen, das dann auch der Stromverbrauch entsprechend niedriger ist. Sagen wir ich spiel ein Fussballmanager ohne 3D Modus, oder ein League of Legends, die dürften doch kaum die Karte beanspruchen. Wäre schön wenn die Karte dann unter 100 Watt verbraucht bei solchen Spielen. Was nett heisst das ich keine 3D Kracher spiele. Es interssiert mich nur. Demnächst kaufe ich mir Mafa 2, da wirds wohl genug Strom fressen. ;)

Vento
2010-07-11, 12:12:52
Zumal die Werte auch beim Referenzdesign varrieren.
Meine erste 480er @ Referenzdesign hatte 0,962 Volt Idle und 1,075V Load @ Default.

IVN
2010-07-11, 12:24:57
http://translate.google.de/translate?u=http%3A%2F%2Fpctuning.tyden.cz%2Fcomponent%2Fcontent%2Farticle%2F1-aktualni-zpravy%2F18103-prvni-skutecne-testy-gtx-460-po-pretaktovani-porazi-hd-5850&sl=cs&tl=en&hl=&ie=UTF-8

Standard Extreme GPU-Scores:
768: 5872
1024: 6334
~8% Mehrleistung bei 33% mehr Bandbreite und ROP-Leistung.
Da scheint wohl die Bandbreite der 768MB-Karte nicht wirklich ein limitierender Faktor zu sein, sodass hier eventuelle 1,5GB Versionen interessant sein könnten.

OCing:
768MB: 870/1740/1138 MHz @ 75°C
1024MB: 845/1690/1045 MHz @ 85°C
Ohne AA hapert es selten an der ROP-Leistung.

Spasstiger
2010-07-11, 12:30:02
Die GTX 460 kann doch eh nur 16 Pixel pro Takt rastern. 24 ROPs sind ohne AA sogar zu viel. ;)

Gast
2010-07-11, 12:35:12
Ohne AA hapert es selten an der ROP-Leistung.
Im Extreme Preset wird 4x MSAA verwendet.

IVN
2010-07-11, 12:44:55
Im Extreme Preset wird 4x MSAA verwendet.
Ach so? Wusste ich nicht.

dildo4u
2010-07-11, 14:18:29
Wird es überhaupt 1GB mit 675mhz Core geben oder sind die 1GB Specs von NV nicht festgelegt.

http://www.newegg.com/Product/ProductList.aspx?Submit=ENE&N=100007709%20600007323%20600062521%20600007779&IsNodeId=1&name=1GB

ShinyMcShine
2010-07-11, 14:38:58
So wie ich das mitbekommen habe, sind die Specs für die GTX460/1024 komplett den Boardpartnern überlassen...

VG
Shiny

Gast
2010-07-11, 14:55:00
Die $219 ~ 210€ für die leicht übertaktete 1G-Palit sind aber auch nett. =)
Für eine 5850 bezahlt man bei Newegg noch $289...

Coda
2010-07-11, 15:12:21
Die GTX 460 kann doch eh nur 16 Pixel pro Takt rastern. 24 ROPs sind ohne AA sogar zu viel. ;)
Schwachsinnsrechnung.

=Floi=
2010-07-11, 16:03:47
wie sieht der preis für den vollen g104 aus?! ksnn man da mit 250€ rechnen?

gibt es hier maleinen richtigen 2d modus?

Gast
2010-07-11, 16:15:45
Der volle GF104 steht noch in den Sternen, bis die GTX465/470 abverkauft sind wird locker 2 Monate andauern.

Nightspider
2010-07-11, 16:20:16
Sind schon 1,5-2 GB Varianten der GTX460 angekündigt?

Bin mal gespannt ob die GTX460 die P/L Nachfolge der 8800gt antritt und nach dem Release die ersten Wochen genauso schwer zu bekommen sein wird.

Gast
2010-07-11, 17:05:48
GF104 SM-Aufbau:
http://bbs.expreview.com/attachments/month_1007/1007112224fcf929d618ab57ac.jpg

http://bbs.expreview.com/thread-35717-1-1.html

8 statt 4 SFUs. Bei den CUDA-Cores gibt es nun auch zwei Dispatch Ports.
GF100: http://www.computerbase.de/bildstrecke/28115/20/

AwesomeSauce
2010-07-11, 17:23:01
Nur zwei Warp Schedulers pro SM? Das ergibt doch keinen Sinn...

Gast
2010-07-11, 17:38:06
8SM und pro SM 48CudaCores anstelle 16SM und pro SM 32CudaCores, hilft wohl Transistoren einzusparen ohne die Performance zusehr in den Keller gehen zu lassen. Darüber hinaus ists wohl Taktfreudiger, die SM laufen ja mit 1600MHz im A1 Stepping. Jetzt wo der Umbau bekannt ist, könnte auch ein 12SM/48CC Fermi als "Refresh" die GTX480 ersetzen. Wenn man schon Probleme im Layer hatte SM15 zum laufen zu bringen und SM16 quasi tot ist auf GF100.

AwesomeSauce
2010-07-11, 17:44:01
3*Vec16 in 8 SMs sind schon lange bekannt. Mir geht es nur darum, dass das Bild wahrscheinlich ein Fake ist. Wie sollen drei SIMDs von zwei Schedulern effizient gefüttert werden?

Coda
2010-07-11, 17:46:26
Spätestens mit den neuen CUDA-Docs sollte sich das klarstellen.

Pitman
2010-07-11, 18:24:24
Ein Video zur Msi GTX460, Ich hoffe es ist noch nicht gelinkt worden:

http://www.youtube.com/watch?v=Zv59dpq2oV4

Grüße
Pitman

Gast
2010-07-11, 18:52:15
Thread kann geschlossen werden, in Asien ist ja schon der 12.07.
Gibt ja einen Review Thread nun: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=487155

AnarchX
2010-07-11, 19:05:39
nVidia GF104 - Q2/2010 - und andere GF10x
;)

AwesomeSauce
2010-07-11, 19:06:17
GF104 - Q2/2010 - und andere GF10x

@Gast
Ich glaube nicht, Tim.

Edit: Zu spät :(

Spasstiger
2010-07-11, 19:07:36
nVidia GF104 - Q2/2010 - und andere GF10x
;)
GF104 musst du auch dick markieren. Der Thread hier heißt ja nicht "GTX 460". ;)

ShinyMcShine
2010-07-12, 07:01:01
Ja, ist denn heut' scho Weihnachten?

Artikel bei heise online (http://www.heise.de/newsticker/meldung/Nvidia-praesentiert-GeForce-GTX-460-1036127.html):

- 1,95 Mrd. Transistoren
- 336 SPs
- 56 TMUs
- 675 MHz Chiptakt
- 1350 MHz Shadertakt
- 192/256 Bit
- 768/1024 MB GDDR5
- TDP 150/160 Watt
- beim Testmodell liessen sich Grafikchip und Speicher ohne Spannungserhöhung 20% übertakten
- Leerlauf: 16 Watt
- 200/230 EUR

Das meiste natürlich schon bekannt. Interessant: 16 Watt im Idle-Mode und die Anzahl der Transistoren.

Laut ComputerBase (http://www.computerbase.de/artikel/grafikkarten/2010/test_nvidia_geforce_gtx_460/) gibt es jetzt von der 1GB-Version doch ebenfalls ein nVidia Referenzdesign... Hier der Architekturvergleich (http://www.computerbase.de/bildstrecke/29983/2/) von ComputerBase. Dieser zeigt auch, dass der GF104 384 SPs hat. Sonstiges zum GF104:

- zwei Graphics Processing Clusters
- pro GPC vier Streaming-Multiprocessors
- pro Streaming-Multiprocessor: 48 SPs, 4 Dispatch-Einheiten, 8 TMUs und 1 Polymorph-Engine
- Double-Precision vorhanden

Overclocking:
AnandTech (http://www.anandtech.com/show/3809/nvidias-geforce-gtx-460-the-200-king/4) konnte alle 6 verfügbaren Testkarten auf mind. 800 MHz übertakten.

VG
Shiny

Rampage 2
2010-07-12, 08:15:37
Dieser zeigt auch, dass der GF104 384 SPs hat. Sonstiges zum GF104:

VG
Shiny

Aha, also bestätigt. Wann soll das Teil (volle GF104) ungefähr rauskommen? Ist September ein realistisches Datum?

R2

ShinyMcShine
2010-07-12, 08:38:00
AnandTech spekuliert schon bezüglich des vollen GF104 Chips, aber genaueres wird dort auch nicht geschrieben. Es steht dort sinngemäß:

"Im Gegensatz zum GF100, scheint die Yieldrate kein sehr großer Faktor zu sein. Unser Eindruck bei der Erörterung der Frage mit NVIDIA war, dass sich der GF104 yieldmäßig dort befindet, wo es sich für einen Chip von dieser Größe gehört. ... In jedem Fall gibt dies NVIDIA einen gewissen Spielraum für eine Expansion in der Zukunft, wenn sie beschließen ein Produkt basierend auf einem vollen GF104 zu veröffentlichen."

VG
Shiny

ShinyMcShine
2010-07-12, 09:03:47
3*Vec16 in 8 SMs sind schon lange bekannt. Mir geht es nur darum, dass das Bild wahrscheinlich ein Fake ist. Wie sollen drei SIMDs von zwei Schedulern effizient gefüttert werden?

AnandTech schreibt (http://www.anandtech.com/show/3809/nvidias-geforce-gtx-460-the-200-king/2) auch über dieses Thema.

VG
Shiny

Dural
2010-07-12, 09:52:57
WOW der GF104 rockt ja gewaltig! :eek:

leistung top
verbrauch top
preis top
hammer OC chip
leise

was will man mehr?

und das mit einem A1!!!

wo bleiben die GF104 @ 384SP / 2GB :biggrin:

ShinyMcShine
2010-07-12, 10:22:42
WOW der GF104 rockt ja gewaltig! :eek:

leistung top
verbrauch top
preis top
hammer OC chip
leise

was will man mehr?

Einen vollen GF104 mit 750MHz! ;D

crux2005
2010-07-12, 10:49:11
einen doppelten G104 in 1 DIE :redface:

Gipsel
2010-07-12, 11:07:41
Ein SM mit 48 ALUs würde wohl eher so aussehen:

http://139.30.40.11/GF104_SM.png

Ich habe dem SM auch gleich noch die doppelte Anzahl SFUs verpaßt, das ALU:SFU Verhältnis ist ja von 4:1 bei allen vorhergehenden nv-GPUs beim GF100 auf 8:1 runtergegangen. Bei 4 zu bleiben, entspräche dann schon 12:1, da halte ich 6:1 als guten Kompromiß.

In der Summe gibt es also 3 Scheduler, die 6 Funktions-Blöcke füttern, 3 mal 16 ALUs (eigentlich dürfte immer nur ein Pfeil in so einen 16er Block reingehen, aber ich habe das Diagramm möglichst nah am Original gelassen), 1 mal 16 L/S und 2 mal 4 SFUs.
Na da lag ich doch gar nicht mal soo schlecht ;)

Okay, die Sache mit den Schedulern und der Größe des Registerfiles war nicht richtig, aber nachdem Ailuros dann was von "Quad-Issue" erzählte, habe ich schon zwei Dual-Issue Scheduler vermutet. So ein GF104-SM hat also praktisch ähnliche Scheduler wie G80 und GT200 (die waren auch dual-issue, was anandtech über erstmalig superskalar erzählt ist also ein wenig Blödsinn, die SFUs konnten bei G80/GT200 bei unabhängigen Instruktionen auch [quasi-]parallel angesprochen werden).

Der Nachteil an der Anordnung (die aber im übrigen wohl recht effizient arbeiten dürfte) ist wahrscheinlich manchmal mangelnde Registerbandbreite. So dürften die Operand Collectors öfter mal Probleme bekommen, alle Operanden heranzuschaffen, da jetzt maximal 4 statt bisher 2 Befehle pro Takt versorgt werden wollen und ich ein wenig bezweifle, daß nv die Anzahl der Ports an den Registerfiles wirklich glatt verdoppelt hat. In dieser Beziehung wäre meine Version mit weniger Problemen verbunden gewesen, da ich jedem der 3 Scheduler seine eigenen 16x1024x32Bit Register verpaßt hätte.

LovesuckZ
2010-07-12, 11:10:50
Wo hat nVidia denn die 1,1 Mrd. Transistoren gespart? Sind Setup-Engine und Geometrieeinheiten so transistorenaufwendig?

ShinyMcShine
2010-07-12, 11:34:46
Da die Specs des GF104 nun klar sind, hier mal eine kleine Gegenüberstellung der GTX 400 Familie mit spekulativen ;D GTX 468, GTX 475 und GTX 485 Daten:

Name|GTX460|GTX460|GTX465|GTX468|GTX470|GTX475|GTX480|GTX485
Chip|GF104|GF104|GF100|GF104|GF100|GF104|GF100|GF100
Chiptakt|675MHz|675MHz|607MHz|700MHz|607MHz|750MHz|700MHz|720MHz
Shadertakt|1350MHz|1350MHz|1215MHz|1400MHz|1215MHz|1500MHz|1401MHz|1440MHz
SPs|336|336|352|384|448|384|480|512
FLOPs|907 GFLOPs|907 GFLOPs|855 GFLOPs|1075 GFLOPs|1089 GFLOPs|1152 GFLOPs|1345 GFLOPs|1475 GFLOPs
ROPs|24|32|32|32|40|32|48|48
Pixelfüllrate|16200 MPix/s|18900 MPix/s|13354 MPix/s|22400 MPix/s|16996 MPix/s|24000 MPix/s|21000 MPix/s|23040 MPix/s
TMUs|56|56|44|64|56|64|60|64
Texelfüllrate|37800 MTex/s|37800 MTex/s|26708 MTex/s|44800 MTex/s|33992 MTex/s|48000 MTex/s|42000 MTex/s|46080 MTex/s
Speichermenge|768 MB|1024 MB|1024 MB|1024 MB|1280 MB|1024 MB|1536 MB|1536 MB
Speichertakt|1800 MHz|1800 MHz|1607 MHz|1900 MHz|1676 MHz|2200 MHz|1848 MHz|1950 MHz
Interface|192 Bit|256 Bit|256 Bit|256 Bit|320 Bit|256 Bit|384 Bit|384 Bit
Bandbreite|86400 MB/s|115200 MB/s|102848 MB/s|121600 MB/s|134080 MB/s|140800 MB/s|177408 MB/s|187200 MB/s


VG
Shiny

dreas
2010-07-12, 11:42:22
Da die Specs des GF104 nun klar sind, hier mal eine kleine Gegenüberstellung der GTX 400 Familie mit spekulativen ;D GTX 468, GTX 475 und GTX 485 Daten:

Name|GTX460|GTX460|GTX465|GTX468|GTX470|GTX475|GTX480|GTX485
Chip|GF104|GF104|GF100|GF104|GF100|GF104|GF100|GF100
Chiptakt|675MHz|675MHz|607MHz|700MHz|607MHz|750MHz|700MHz|720MHz
Shadertakt|1350MHz|1350MHz|1215MHz|1400MHz|1215MHz|1500MHz|1401MHz|1440MHz
SPs|336|336|352|384|448|384|480|512
FLOPs|907 GFLOPs|907 GFLOPs|855 GFLOPs|1075 GFLOPs|1089 GFLOPs|1152 GFLOPs|1345 GFLOPs|1475 GFLOPs
ROPs|24|32|32|32|40|32|48|48
Pixelfüllrate|16200 MPix/s|18900 MPix/s|13354 MPix/s|22400 MPix/s|16996 MPix/s|24000 MPix/s|21000 MPix/s|23040 MPix/s
TMUs|56|56|44|64|56|64|60|64
Texelfüllrate|37800 MTex/s|37800 MTex/s|26708 MTex/s|44800 MTex/s|33992 MTex/s|48000 MTex/s|42000 MTex/s|46080 MTex/s
Speichermenge|768 MB|1024 MB|1024 MB|1024 MB|1280 MB|1024 MB|1536 MB|1536 MB
Speichertakt|1800 MHz|1800 MHz|1607 MHz|1900 MHz|1676 MHz|2200 MHz|1848 MHz|1950 MHz
Interface|192 Bit|256 Bit|256 Bit|256 Bit|320 Bit|256 Bit|384 Bit|384 Bit
Bandbreite|86400 MB/s|115200 MB/s|102848 MB/s|121600 MB/s|134080 MB/s|140800 MB/s|177408 MB/s|187200 MB/s


VG
Shiny

schöne tabelle, ich vermute mal die 468er wird gar nicht so toll wie hier vermutet wird. der stromverbrauch und die im vergleich nur schmale technische verbreiterung der architektur werden unter last bei temperatur und spannung nicht den takt der 460er schaffen und damit nicht wirklich viel besser dastehen. die "normale" octe 460er ist imo ein guter kompromiss aus verbrauch aufwand und leistung. alle karten technisch darüber lassen das blatt ja schon wieder wenden.

Spasstiger
2010-07-12, 11:46:12
Evtl. wird die GTX 468 auch nur eine taktmäßig aufgebohrte GTX 460 und erst die GTX 475 und die GTX 495 Karten mit vollem GF104. Den GF100 beschränkt NV dann auf die GTX 480/485 und Tesla/Quadro. So frei werdende Kapazitäten kann man dann für den GF104 nutzen, der im Consumer-Segment eh höhere Gewinne einfahren dürfte als ein abgespeckter GF100.

AnarchX
2010-07-12, 12:22:24
Evtl. wird die GTX 468 auch nur eine taktmäßig aufgebohrte GTX 460
Dann hätte NV den Werks-OC auf der 460 verbieten sollen.

igg
2010-07-12, 12:40:51
Blöde Frage: Was ist eigentlich der aktuelle Stand in der Gerüchteküche bzgl. dem Erscheinungsdatum der großen GF104 Karten?

Spasstiger
2010-07-12, 12:51:28
Dann hätte NV den Werks-OC auf der 460 verbieten sollen.
Stimmt, macht so natürlich keinen Sinn. Die OC-Varianten decken ja auch schon ein breites Leistungsspektrum ab, so dass eigentlich erst eine GTX 475 auf GF104-Basis konsequent wäre. Nur scheint es gar nicht so leicht zu sein, mit dem GF104 eine GTX 470 zu schlagen: http://www.tweakpc.de/hardware/tests/grafikkarten/gainward_nvidia_geforce_gtx_460_glh/s03.php.
Trotz 800 MHz Chiptakt muss sich die Gainward GTX 460 GLH mit 1024 MiB Grafikspeicher fast immer der GTX 470 geschlagen geben. Und das nicht knapp, sondern oft mit deutlichem Abstand.

Soundwave1983
2010-07-12, 13:24:00
Pünktlich dazu kramt Charlie mal wieder seine Bumpgate-Geschichten aus.
Ein Schelm wer dabei böses denkt. :biggrin:

ShinyMcShine
2010-07-12, 13:28:04
Blöde Frage: Was ist eigentlich der aktuelle Stand in der Gerüchteküche bzgl. dem Erscheinungsdatum der großen GF104 Karten?

Da gibt es weder was Offizielles zu vermelden, noch gibt es irgendwelche Gerüchte. Aber wir hoffen alle darauf! ;D

Man reimt sich momentan einfach zusammen (siehe auch in den diversen Reviews), dass nVidia das Potential des GF104s nicht nur "verkrüppelt" ;) auf den Markt bringen wird. Auch sollte die Ausbeute beim GF104 viel besser werden/sein, als beim GF100.

Ich habe bisher auch noch nichts gelesen, ob sich evtl. was beim GF104 freischalten läßt, wie damals schon bei der GTX 465.

VG
Shiny

Spasstiger
2010-07-12, 14:04:34
Ich habe bisher auch noch nichts gelesen, ob sich evtl. was beim GF104 freischalten läßt, wie damals schon bei der GTX 465.
Die Testmuster der GTX 460 768 MiB haben auch nur 768 MiB physikalisch verbaut. Ist also nicht wie bei der GTX 465, wo die Testmuster teilweise 1280 MiB statt 1024 MiB verbaut hatten.

Gast
2010-07-12, 14:09:10
Nicht nur das, auch die ROP-Partitionen sind via Lasercut deaktiviert.
Deshalb gibt es bei der 768MB-Version auch die GF104-Kx (x= A - D je nach deaktiverter RP) Dies.

ShinyMcShine
2010-07-12, 14:15:50
Danke für die Info!

VG
Shiny

AnarchX
2010-07-12, 14:33:12
Diskussion zu Architektur von GF104: http://www.forum-3dcenter.org/vbulletin/showthread.php?&t=487189

Iruwen
2010-07-12, 14:33:58
Nur scheint es gar nicht so leicht zu sein, mit dem GF104 eine GTX 470 zu schlagen: http://www.tweakpc.de/hardware/tests/grafikkarten/gainward_nvidia_geforce_gtx_460_glh/s03.php.
Trotz 800 MHz Chiptakt muss sich die Gainward GTX 460 GLH mit 1024 MiB Grafikspeicher fast immer der GTX 470 geschlagen geben. Und das nicht knapp, sondern oft mit deutlichem Abstand.

Naja, Die GTX 460 mit 800Mhz liegt in Quake 4 (:rolleyes: ), Battleforge, Dawn of War 2 deutlich hinten, die GTX 470 dafür in HAWX, COD4, Stormrise, Tropics genauso deutlich. In Heaven Extreme liegt die GTX 460 nicht so weit zurück wie ich vermutet hätte und in Stone Giant sogar vorne.

VooDoo7mx
2010-07-12, 14:52:42
Stimmt, macht so natürlich keinen Sinn. Die OC-Varianten decken ja auch schon ein breites Leistungsspektrum ab, so dass eigentlich erst eine GTX 475 auf GF104-Basis konsequent wäre. Nur scheint es gar nicht so leicht zu sein, mit dem GF104 eine GTX 470 zu schlagen: http://www.tweakpc.de/hardware/tests/grafikkarten/gainward_nvidia_geforce_gtx_460_glh/s03.php.
Trotz 800 MHz Chiptakt muss sich die Gainward GTX 460 GLH mit 1024 MiB Grafikspeicher fast immer der GTX 470 geschlagen geben. Und das nicht knapp, sondern oft mit deutlichem Abstand.
Wenn ich mir die Durchschnittstabellen anschaue, ist die 800MHz GTX460 1024 komplett gleichauf wie eine GTX470.
Keine Ahnung was du da reinphantasierst.
Außer in 2560x1600 ist die GTX470 im Durchschnitt bei den Test 4% schneller. Doch hät sich der Verbreitungsgrad von 30" TFTs sicherlich in Grenzen und was sind schon 4%?

Spasstiger
2010-07-12, 15:14:49
Wenn ich mir die Durchschnittstabellen anschaue, ist die 800MHz GTX460 1024 komplett gleichauf wie eine GTX470.
Keine Ahnung was du da reinphantasierst.
Ich bin alle Einzelbenchmarks in 1920x1200 mit 4xAA und 16:1 AF durchgegangen, weil das das für mich interessante Setting ist. Ab und zu liegt da die GTX 460 GLH vorne, aber meist hat die GTX 470 den Vorteil und das sogar deutlich.

/EDIT: Irgendwas haben die korrigiert. Vorhin sah das ganz anders aus, als ich die Benchmarks durchgegangen bin. Z.B. 38 fps bei der GTX 460 gegen 32 fps bei der GTX 470 in Stormrise. Ich meine, dass das vorhin genau umgekehrt war.
/EDIT: In Stonegiant war die GTX 470 vorhin auch in Front.

Dural
2010-07-12, 15:34:33
das eine GTX460 @ 800MHz gleich oder sogar vor der GTX470 @ 600MHz ist dürfte ja klar sein, schon alleine wegen den technischen daten...

Ailuros
2010-07-12, 19:13:42
Soll die angebliche GTX485 auf GF100b beruhen? Wenn ja hat sich jemand um einige TMUs verzaehlt. Was wird 100b wohl von der 104 Philosophie geerbt haben? ;)

LuXon
2010-07-12, 19:40:24
Könnte es sich beim GF100b sozusagen um einen erweiterten GF104 handeln. Dann mit 576 SP's?^^

Spasstiger
2010-07-12, 19:45:36
Könnte es sich beim GF100b sozusagen um einen erweiterten GF104 handeln. Dann mit 576 SP's?^^
Ich denke nicht. So eine GPU hätte nur 3/4 der Geometrieleistung des GF100. Warum sollte sich NV von einer der größten Errungenschaften der Fermi-Architektur abwenden?

Gaestle
2010-07-12, 19:58:04
16 x (16+16+16) = 768 ?

Coda
2010-07-12, 20:22:20
Nicht in 40nm. Imho wird GF100b nur ein Bugfix-Release ;)

Spasstiger
2010-07-12, 20:48:38
Ein doppelter GF104 wäre auch zu groß für die Fertigung. Irgendwo ~600 mm² ist bei TSMC Schluss.

Gast
2010-07-13, 07:23:03
sind ja nur 50% mehr (576 / 384 ). => 325mm² x 1,5 = max. 485 mm²

Bei der Geometrieleistung vergesst ihr die GHz. Die Shader (und damit auch die Tesselation??) laufen bei der GF104 um ein "paar MHz" schneller. Ergo wäre der Rückstand nicht 25% sondern vielleicht nur 15% bei 1600MHz zu 1400MHz.

ShinyMcShine
2010-07-13, 07:28:40
Die Shader (und damit auch die Tesselation??) laufen bei der GF104 um ein "paar MHz" schneller. Ergo wäre der Rückstand nicht 25% sondern vielleicht nur 15% bei 1600MHz zu 1400MHz.

Mit welcher Frequenz laufen denn die Tesselatoren? Chiptakt oder Shadertakt?

VG
Shiny

Coda
2010-07-13, 11:46:08
Spielt doch keine Rolle.

ShinyMcShine
2010-07-13, 12:27:14
Es hat mich halt nur interessiert...

Gaestle
2010-07-13, 13:16:25
Nicht in 40nm. Imho wird GF100b nur ein Bugfix-Release ;)

Wenn der GF104 durch sein Design wirklich in der Fertigung so vorteilhaft ist (verglichen zu GF100), könnte GF100b achtitektonisch vielleicht doch etwas näher am GF104 als am GF100 liegen.
Ich bezog mich deshalb auf Ailuros' Frage, habe aber vielleicht die falsche Antwort gegeben. Vielleicht müsste die richtige Antwort 12 x (16+16+16) = 576 & 12 x 8 = 96 lauten.

Die Frage nach der Geometrieleistung von Spasstiger wäre damit aber weiter offen.

Spasstiger
2010-07-13, 13:59:33
sind ja nur 50% mehr (576 / 384 ). => 325mm² x 1,5 = max. 485 mm²
Ich hab mich mit "doppelter GF104" auf die obige Variante von Gaestle bezogen (768 SPs).

Bei der Geometrieleistung vergesst ihr die GHz. Die Shader (und damit auch die Tesselation??) laufen bei der GF104 um ein "paar MHz" schneller. Ergo wäre der Rückstand nicht 25% sondern vielleicht nur 15% bei 1600MHz zu 1400MHz.
Eine GF104-Referenzkarte mit 800 MHz Chiptakt werden wir imo nicht sehen. Die GTX 460 taktet mit 675 MHz und vielleicht kommt in Zukunft noch eine GF104-Variante mit 750 MHz.
Um mit 3 Raster-Engines und 12 Polymorph-Engines denselben Geometriedurchsatz wie bei einer GTX 480 (4 Raster-Engines, 15 Polymorph-Engines) zu erreichen, bräuchte man rund 900 MHz Chiptakt. Den Stromverbrauch dabei kannst du dir ja denken. ;)
Hier gibts übrigens Benchmarks zur theoretischen Geometrieleistung: http://www.hardware.fr/articles/795-5/dossier-nvidia-geforce-gtx-460.html.
Beim adaptiver Tessellation mit Displacement Mapping ist die GTX 480 etwas mehr als doppelt so schnell wie die GTX 460 1 GiB.

In meinen Augen spricht nicht viel dafür, dass NV jetzt das GF100-Desing über den Haufen wirft und als GF100"b" einen um 50% verbreiterten GF104 bringt. Die TMUs des GF100 arbeiten bei 16:1 Tri-AF übrigens auch um 15-20% effizienter als die TMUs des GF104: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8142628&postcount=25. D.h. eine GTX 485 mit 64 TMUs wäre bei 16:1 Tri-AF von der Texelfüllrate her vergleichbar mit einer GF104-Karte mit 74-77 TMUs.

Undertaker
2010-07-13, 14:18:49
Selbst die aktuelle GTX460 ist dabei aber immernoch locker auf HD5870 Niveau. Ich denke schon, dass ein 576SPs Modell auf GF104 Basis (rein hypothetisch, denke nicht das ein solches kommt) mit guten Taktraten eine GTX480 klar schlagen könnte - zumindest in Real-World Szenarien.

Gipsel
2010-07-13, 14:19:56
Wenn der GF104 durch sein Design wirklich in der Fertigung so vorteilhaft ist (verglichen zu GF100), könnte GF100b achtitektonisch vielleicht doch etwas näher am GF104 als am GF100 liegen.
Ich bezog mich deshalb auf Ailuros' Frage, habe aber vielleicht die falsche Antwort gegeben. Vielleicht müsste die richtige Antwort 12 x (16+16+16) = 576 & 12 x 8 = 96 lauten.

Die Frage nach der Geometrieleistung von Spasstiger wäre damit aber weiter offen.
Ja, 12 SMs mit je 48 Einheiten = 576 Shader und 96 TMUs hört sich ziemlich schlagkräftig an und müßte auch noch bei vertretbarer Diesize machbar sein. Daß das mit 3 Raster-Einheiten gemacht wird, würde ich aber bezweifeln. 4 GPCs mit je 3 SMs klingt für mich etwas logischer.

Allerdings kann man sich überlegen, daß nvidia eventuell bei 256 Bit Speicherinterface bleibt (spart Diesize und Kosten), wenn sie den Speichertakt entsprechend anheben (>1.2GHz). Denn die 32 ROPs sind eigentlich immer noch genug für die maximal 24 Pixel/Takt, die die 12 SMs liefern können. Daß die Rasterizer sogar maximal 32 Pixel/Takt an die SMs liefern können, stört da auch nicht weiter, da die Effizienz bei sehr kleinen Dreiecken auch suboptimal ist, sprich, man diesen Wert sowieso schwer erreicht.

Spasstiger
2010-07-13, 14:22:24
Selbst die aktuelle GTX460 ist dabei aber immernoch locker auf HD5870 Niveau. Ich denke schon, dass ein 576SPs Modell auf GF104 Basis (rein hypothetisch, denke nicht das ein solches kommt) mit guten Taktraten eine GTX480 klar schlagen könnte - zumindest in Real-World Szenarien.
NV hat eine Marke für die Geometrieleistung bei DX11-High-End gesetzt. Diese wird man jetzt nicht Richtung Radeon HD 5970 nach unten korrigieren. ;)
Eigentlich wollen hier doch alle nur einen größeren GF104 als GF100, weil sie meinen, der GF100 hätte zu wenig Texturleistung. Bei Nutzung von 16:1 Tri-AF hauen die 64 TMUs des GF100 soviel Texelfüllrate raus wie 96 TMUs eines RV870 mit gleichem Takt. Die GTX 480 (60 TMUs, 700 MHz) bringt es mit 16:1 Tri-AF auf 93% der Texelfüllrate einer Radeon HD 5870 (80 TMUs, 850 MHz). Eine GTX 485 mit 64 TMUs und 725 MHz hätte unter Nutzung von 16:1 Tri-AF sogar die höchste Texelfüllrate aller Single-GPU-Grafikkarten derzeit. Selbst eine Karte mit vollem GF104 (64 TMus) bräuchte rund 850 MHz, um da ranzukommen.

Gaestle
2010-07-13, 17:01:47
4 GPCs mit je 3 SMs klingt für mich etwas logischer.


Schätzt Du die Architektur so flexibel ein, dass sie einen GPC statt mit 4SMs auch mit 3SMs ausstatten können?

Gipsel
2010-07-13, 17:10:09
Schätzt Du die Architektur so flexibel ein, dass sie einen GPC statt mit 4SMs auch mit 3SMs ausstatten können?
Schau Dir mal alle bisher veröffentlichten Fermis an. Die haben alle zumindest einen GPC mit nur 3 aktiven SMs ;)

Außerdem habe ich da so ein Mantra: Es gibt gar keine GPCs. Rastereinheiten und SMs sind meiner Meinung nach wahrscheinlich entkoppelt, sprich, außer Layoutgründen spricht aus technischer Sicht nichts gegen beliebige Kombinationen von Rastereinheiten und SMs.

Reaping_Ant
2010-07-14, 13:31:10
Neues zu einer eventuellen Dual-GF104 Karte: http://www.fudzilla.com/graphics/graphics/new-high-end-card-has-two-gf104-chips

Zwar kaum etwas Konkretes, aber bei einigermaßen guter Selektion der GPUs könnte man wohl trotz GF104 Vollausbau und hohen Taktraten ein gutes Stück unter 300 W TDP landen.

Wenn man sich als Performance-Ziel schneller als HD5970 gesetzt hat (wovon ich ausgehe) wird man aber schon den vollen GF104 brauchen um dieses bei halbwegs moderaten Taktraten zu erreichen.

Ailuros
2010-07-14, 14:23:13
GF100b hat afaik weiterhin 4 GPCs bzw. 16 SMs. Die Frage ist lediglich ob das Ding 4 oder 8 TMUs/SM haben wird und wenn ja ob sie andere Logik im Vergleich zu GF100 beschnitten haben um die zusaetzlichen 64 TMUs unterzubringen.

Gast
2010-07-14, 15:27:00
Vielleicht hat GF100b auch weiterhin 64 TMUs, jedoch wie bei GF104 mit FP16 in voller Geschwindigkeit. 128 TMUs braucht ein GF100b auf Basis aktueller Benchmarks nicht wirklich.
GF104-TMUs und eine Optimierung für Taktraten >800/1600MHz wären da um einiges sinnvoller.
Weiterhin wären wohl die Dual-Issue-Sheduler auch nicht verkehrt um die Auslastung in den SMs noch etwas zu erhöhen.

LovesuckZ
2010-07-14, 15:37:12
Soweit ich es sehe ist GF104 ineffizienter als GF100. Jedoch scheint man leicht dem AMD Weg zu gehen, wo man mehr Einheiten mit einer schlechteren Effizienz baut. Laut Anandtech.com soll ein GF104-SM nur 20% größer sein als einer vom GF100 trotz 50% mehr SP, 100% mehr SFUs und TU.
Wobei ich immer noch nicht weiß, wo man gegenüber GF100 33% an Transistoren eingespart hat...

Gast
2010-07-14, 15:43:25
~60% Die-Size für SMs
~ 66% Die-Size für ROP/SI/L2
~ ??% Rest
= 65% der Transistoren von GF100

Das erscheint doch relativ passend.

ShinyMcShine
2010-07-15, 16:31:43
Die erste 2GB Version wurde von SPARKLE angekündigt!

Link (http://www.sparkle.com.tw/News/SP460/news_SP460_en.html)

VG
Shiny

Gast
2010-07-15, 16:59:41
Bleibt die Frage, ob sie die ausliefern dürfen.
Da es doch schon viele Custom-PCBs gibt, verwundert es doch das z.B. Gainward/Palit keine entsprechende Karte angekündigt haben. Da wäre es denkbar, dass hier Nvidia noch blockiert. Vielleicht weil sie die OEM GTX 460 mit 2GB exklusiv zu entsprechenden Preisen vertreiben wollen...

ShinyMcShine
2010-07-15, 17:31:32
Die OEM Version der GTX 460 tritt aber auch mit erheblich niedrigeren Taktraten an...
Und früher oder später müssen auch auf dem Retail-Markt die 2GB Versionen kommen! ;)

VG
Shiny

Dural
2010-07-15, 19:02:51
ist es eigentlich richtig das es die referenz karte nur in der 768MB version gibt?

ich finde aktuell keine einzige 1GB referenz die lieferbar ist...

Coda
2010-07-15, 19:04:53
Laut Anandtech.com soll ein GF104-SM nur 20% größer sein als einer vom GF100 trotz 50% mehr SP, 100% mehr SFUs und TU.
Das meiste davon wird wohl durch das Streichen von Halfspeed-DP gespart worden sein.

Wobei ich immer noch nicht weiß, wo man gegenüber GF100 33% an Transistoren eingespart hat...
Weniger ROPs, weniger Cache, weniger GPC, etc.

Leonidas
2010-07-16, 10:46:28
Neues zu einer eventuellen Dual-GF104 Karte: http://www.fudzilla.com/graphics/graphics/new-high-end-card-has-two-gf104-chips

Zwar kaum etwas Konkretes, aber bei einigermaßen guter Selektion der GPUs könnte man wohl trotz GF104 Vollausbau und hohen Taktraten ein gutes Stück unter 300 W TDP landen.

Wenn man sich als Performance-Ziel schneller als HD5970 gesetzt hat (wovon ich ausgehe) wird man aber schon den vollen GF104 brauchen um dieses bei halbwegs moderaten Taktraten zu erreichen.


Gegenargument:

Derweil arbeitet nVidia wie bekannt an einer DualChip-Lösung auf Basis des GF104-Chips. Dabei ist uns die inoffizielle (und somit nicht verifizierbare) Information zugeflogen, daß diese DualChip-Lösung derzeit mit einer TDP von bis zu 450 Watt geplant wird – was überaus extrem wäre, selbst die Radeon HD 5970 kommt mit 294 Watt TDP aus. Hintergrund hierfür könnte sein, daß nVidia sich nicht damit zufriedengeben will, nur die Radeon HD 5970 zu schlagen, sondern auch die höher getaktete Radeon HD 5970 4GB erreichen oder/und überfügeln will. Dafür muß gemäß den gestrigen Testergebnissen aber nicht nur der GF104-Chip im Vollausbau anrücken, sondern diesem auch noch einiges an Mehrtakt mitgegeben werden – dies könnte dann zu der besagten exorbitanten Verlustleistung führen. Ob nVidia allerdings wirklich so etwas auf die Beine stellt (bzw. stellen kann, es muß schließlich die Frage der Kühlung und der sicheren Stromzufuhr gelöst werden), ist derzeit nicht klar – eventuell muß man sich am Ende auch mit einer kleineren Lösung zufriedengeben, die "nur" die reguläre Radeon HD 5970 erreicht.

http://www.3dcenter.org/news/2010-07-15

Gast
2010-07-16, 10:50:54
Vielleicht wird es eine Karte mit zwei MCMs mit je 2 GF104, die über eine noch nicht veröffentlichte Technologie in SFR arbeiten.
Damit könnte man wohl auch einer Southern Islands Karte mit 2x 1920SPs trotzen. :D

ShinyMcShine
2010-07-16, 12:01:21
Hier die von einigen schon erhoffte GTX 460 mit Radial Lüfter (External Exhaust):

LINK (http://www.tweakpc.de/news/19000/evga-geforce-gtx-460-serie-angekuendigt/)

Stand heute in den Links unter den News!

VG
Shiny

Gast
2010-07-16, 12:02:36
GeForce GTX 490 exists! : http://www.xtremesystems.org/forums/showthread.php?t=255614

y33H@
2010-07-16, 12:37:26
Ach was? ;D

Gast
2010-07-16, 20:18:26
http://tpucdn.com/reviews/NVIDIA/GeForce_GTX_460_SLI/images/perfrel_2560.gif
http://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_460_SLI/25.html

Da sollten wohl zwei GF104 mit 384SPs @750/1100MHz schon ausreichen, um mitzuhalten.

Gast
2010-07-21, 20:42:59
GF104/GTX460 has a huge die
Economics of a failed architecture
by Charlie Demerjian

We can now tell you about GF104 die, it is 24.9mm x 14.7mm, and the die size is 367mm^2. (Note: The dimensions are rounded to one significant digit after the decimal point, they are a hair larger so multiplying those rounded numbers gets you 366mm^2. This is not an error, the 367 number is correct, some mad scientists directly measured the die.)

http://www.semiaccurate.com/2010/07/21/gf104gtx460-has-huge-die/

y33H@
2010-07-21, 21:01:37
That will let AMD waterfall the prices on the current parts, and leave Nvidia without any place to turn, financially speaking. Best case, Nvidia has a window of a few months before AMD brings down the hammer. In the mean time, the boys in green have to be very careful, poking the sleeping lion might bring that hammer down faster. No matter which way they turn, Nvidia will get squished.Man kann's auch mal wieder übertreiben. TSMC anyway?

Dural
2010-07-21, 21:38:55
hies es vor wenigen woche von ihm nicht das der DIE 405mm gross ist...

der typ kann man nicht ernst nehmen...

crux2005
2010-07-21, 21:44:25
Mit den 366mm^2 hat er wahrscheinlich recht.

Dural
2010-07-21, 21:50:28
auch egal, das beweisst nur mal wider was für müll er in die welt setzt!

und wirtschaftlich gesehen ist der GF104 sicher kein reinfall, eher ganz im gegenteil!

Bucklew
2010-07-21, 22:26:28
hies es vor wenigen woche von ihm nicht das der DIE 405mm gross ist...

der typ kann man nicht ernst nehmen...
Ja, vor genau einem Monat.

Und natürlich gilt die Ausrede TSMC nur für ATI, Nvidia ist natürlich zu 100% selbst schuld!

LuXon
2010-07-21, 22:31:14
To make matters worse, the Fermi architecture is not just wrong, it was also quarters late. About the time that Nvidia fleshes out the GF10x line with the upcoming GF106 and GF108 variants, AMD will have their next generation called Southern Islands out.

Also wenn GF106 und GF108 auf den markt kommen, ist SI schon auf dem markt? :freak:
Kann das danach jemand dem Typen auf die Nase binden?
Ich bookmarke mal den Scheiss.

Bucklew
2010-07-21, 22:32:27
Also wenn GF106 und GF108 auf den markt kommen, ist SI schon auf dem markt? :freak
Kann das danach jemand dem Typen auf die Nase binden?
Ich bookmarke mal den Scheiss.
Zumal die ersten SI-Karten sowieso in einem ganz anderen Preis- und Leistungssegment sein werden als GF106/108....

V2.0
2010-07-22, 07:02:01
Charlie hat mal wieder völlig Recht. SI kommt Ende September und AMD kann theoretische sofort die preise bei Cypreiss senken und so GF100A und GF104 völlig vernichten.

Gast
2010-07-22, 07:26:29
Charlie hat mal wieder völlig Recht. SI kommt Ende September und AMD kann theoretische sofort die preise bei Cypreiss senken und so GF100A und GF104 völlig vernichten.

ich glaub eher SI kommt Ende August. Hab ich gehoert.

LovesuckZ
2010-07-22, 10:22:24
GF104/GTX460 has a huge die
Economics of a failed architecture
by Charlie Demerjian

We can now tell you about GF104 die, it is 24.9mm x 14.7mm, and the die size is 367mm^2. (Note: The dimensions are rounded to one significant digit after the decimal point, they are a hair larger so multiplying those rounded numbers gets you 366mm^2. This is not an error, the 367 number is correct, some mad scientists directly measured the die.)

http://www.semiaccurate.com/2010/07/21/gf104gtx460-has-huge-die/

Huge. Das ist so Huge, dass man nur ca. 10% größer wäre als Cypress. ;D
Vergleicht man das mit den Abstanden von G92 zu rv670 und GT200(b) zum rv770 und rv790, hat man ganz schön aufgeholt.

Gast
2010-07-22, 10:32:13
Huge. Das ist so Huge, dass man nur ca. 10% größer wäre als Cypress. ;D
Vergleicht man das mit den Abstanden von G92 zu rv670 und GT200(b) zum rv770 und rv790, hat man ganz schön aufgeholt.

Man ist noch immer klar unterlegen. Und dabei hat Cypress Auslastungsprobleme. Gegen einen Juniper sieht es noch deutlich schwächer aus.

davidzo
2010-07-22, 11:27:25
Huge. Das ist so Huge, dass man nur ca. 10% größer wäre als Cypress. ;D
Vergleicht man das mit den Abstanden von G92 zu rv670 und GT200(b) zum rv770 und rv790, hat man ganz schön aufgeholt.

Zu nvidias schutz muss man außerem noch sagen, dass man ein sehr kompaktes referenzPCB entwickelt hat. 768mb niedrig getakteter gddr5 und nur 192bit sind deutlich billiger als alles was amd bei cypress verbaut, vom herstellungspreis dürfte das sogar billiger sein als junipers speicher. Selbst die 1Gb Karte hat immer noch den vorteil eines kompakteren PCBs und billigerem speicher (takt) als eine Cypresskarte.

Die höheren Kosten pro GPU und gleichzeitig das etwas niedrigere Marktziel des GF104 gegenüber cypress, das bedingt wohl, dass man an anderer Stelle kräftig spart. kein wunder, dass gf104 auf der speicherseite extrem konservativ versorgt wird, so kommt eben de günstige verkaufspreis zustande. Das ist auch eine plausible erklärung wieso wir in erster Linie 768mb karten sehen...


Nvidia wäre nicht so dumm ein Produkt auf den markt zu bringen dass die margen nicht wieder deutlich hebt, auch dass dies nur kurzfristig konkurrieren kann ist eine Lüge von Charlie. Man geht eben andere Wege als ATI um auf eine konkurrenzfähige BOM zu kommen, verkauft größere teurere GPUs, die aber billiger bei Speicher, PCB, Kühllösung sind.

Zudem sind charlies aussagen über gf104 yields pure spekulation. spekulation ist außerdem auch, dass gf104 derzeit nur mit 336sp kommt wegen den yields, dabei könnte das doch auch viel leichter bedeuten dass die guten gf104 gebinnt und zurückgehalten werden da man den launch einer größeren gf104 sku vorbereitet. damit hätte sich dann auch der average selling price wieder nach oben geschoben - vorrausgesetzt man hält den vollausgebauten gf104 wirklich nur zurück um erstmal stückzahlen zu sammeln.

Derzeit kann man über den billigern speicher, das billige PCB und die günstige kühllösung mit AMD konkurrieren. Fragt sich ob das möglich ist mit einem vollausgebauten GF104. Jener ist GPU-seitig schon 10% teurer als ein 5870 Cypress, wenn man dann ebensoviel für Speicher, board und Kühlung investiert wie bei der 5870 aber jene Leistung nicht erreicht wäre das eine katastrophe. Möglicherweise sehen wir deswegen noch keine vollausgebauten GF104s, weil sie einfach zu teuer wären. Dabei kann AMD noch runter, wie man bei 5830 und 5850 sieht, die fast genausoviel herestellungsaufwand bedeuten wie eine echte 5870.
Möglicherweise ist das was Charlie gemeint hat...

Gast
2010-07-22, 11:39:51
Zu nvidias schutz muss man außerem noch sagen, dass man ein sehr kompaktes referenzPCB entwickelt hat. 768mb niedrig getakteter gddr5 und nur 192bit sind deutlich billiger als alles was amd bei cypress verbaut, vom herstellungspreis dürfte das sogar billiger sein als junipers speicher. Selbst die 1Gb Karte hat immer noch den vorteil eines kompakteren PCBs und billigerem speicher (takt) als eine Cypresskarte.

Die höheren Kosten pro GPU und gleichzeitig das etwas niedrigere Marktziel des GF104 gegenüber cypress, das bedingt wohl, dass man an anderer Stelle kräftig spart. kein wunder, dass gf104 auf der speicherseite extrem konservativ versorgt wird, so kommt eben de günstige verkaufspreis zustande. Das ist auch eine plausible erklärung wieso wir in erster Linie 768mb karten sehen...


Nvidia wäre nicht so dumm ein Produkt auf den markt zu bringen dass die margen nicht wieder deutlich hebt, auch dass dies nur kurzfristig konkurrieren kann ist eine Lüge von Charlie. Man geht eben andere Wege als ATI um auf eine konkurrenzfähige BOM zu kommen, verkauft größere teurere GPUs, die aber billiger bei Speicher, PCB, Kühllösung sind.

Zudem sind charlies aussagen über gf104 yields pure spekulation. spekulation ist außerdem auch, dass gf104 derzeit nur mit 336sp kommt wegen den yields, dabei könnte das doch auch viel leichter bedeuten dass die guten gf104 gebinnt und zurückgehalten werden da man den launch einer größeren gf104 sku vorbereitet. damit hätte sich dann auch der average selling price wieder nach oben geschoben - vorrausgesetzt man hält den vollausgebauten gf104 wirklich nur zurück um erstmal stückzahlen zu sammeln.

Derzeit kann man über den billigern speicher, das billige PCB und die günstige kühllösung mit AMD konkurrieren. Fragt sich ob das möglich ist mit einem vollausgebauten GF104. Jener ist GPU-seitig schon 10% teurer als ein 5870 Cypress, wenn man dann ebensoviel für Speicher, board und Kühlung investiert wie bei der 5870 aber jene Leistung nicht erreicht wäre das eine katastrophe. Möglicherweise sehen wir deswegen noch keine vollausgebauten GF104s, weil sie einfach zu teuer wären.

Das PCB kostet im wahrsten Sinne des Wortes nichts. Das ist bei Gf104 nur so kurz weil man eine andere Kühllösung gewählt hat welche die Luft nicht mehr nach außen befördert, das bringt aber keine Kostenersparnis beim PCB. Der Speicher ist der selbe wie bei allen Cypress-Karten, man taktet ihn nur nicht so hoch, wohl um Strom zu sparen. Das Die ist der entscheidende Kostenträger einer Grafikkarte, es ist unbestreitbar das die Margen pro verkaufte Karte bei AMD höher sein werden wie bei Gf104. AMD kann die Preise nur nicht senken weil sie zu wenige Chips haben, sonst hätte NV ein Problem.

LovesuckZ
2010-07-22, 11:51:19
Zu nvidias schutz muss man außerem noch sagen, dass man ein sehr kompaktes referenzPCB entwickelt hat. 768mb niedrig getakteter gddr5 und nur 192bit sind deutlich billiger als alles was amd bei cypress verbaut, vom herstellungspreis dürfte das sogar billiger sein als junipers speicher. Selbst die 1Gb Karte hat immer noch den vorteil eines kompakteren PCBs und billigerem speicher (takt) als eine Cypresskarte.

Die höheren Kosten pro GPU und gleichzeitig das etwas niedrigere Marktziel des GF104 gegenüber cypress, das bedingt wohl, dass man an anderer Stelle kräftig spart. kein wunder, dass gf104 auf der speicherseite extrem konservativ versorgt wird, so kommt eben de günstige verkaufspreis zustande. Das ist auch eine plausible erklärung wieso wir in erster Linie 768mb karten sehen...


Nvidia wäre nicht so dumm ein Produkt auf den markt zu bringen dass die margen nicht wieder deutlich hebt, auch dass dies nur kurzfristig konkurrieren kann ist eine Lüge von Charlie. Man geht eben andere Wege als ATI um auf eine konkurrenzfähige BOM zu kommen, verkauft größere teurere GPUs, die aber billiger bei Speicher, PCB, Kühllösung sind.

Zudem sind charlies aussagen über gf104 yields pure spekulation. spekulation ist außerdem auch, dass gf104 derzeit nur mit 336sp kommt wegen den yields, dabei könnte das doch auch viel leichter bedeuten dass die guten gf104 gebinnt und zurückgehalten werden da man den launch einer größeren gf104 sku vorbereitet. damit hätte sich dann auch der average selling price wieder nach oben geschoben - vorrausgesetzt man hält den vollausgebauten gf104 wirklich nur zurück um erstmal stückzahlen zu sammeln.

Derzeit kann man über den billigern speicher, das billige PCB und die günstige kühllösung mit AMD konkurrieren. Fragt sich ob das möglich ist mit einem vollausgebauten GF104. Jener ist GPU-seitig schon 10% teurer als ein 5870 Cypress, wenn man dann ebensoviel für Speicher, board und Kühlung investiert wie bei der 5870 aber jene Leistung nicht erreicht wäre das eine katastrophe. Möglicherweise sehen wir deswegen noch keine vollausgebauten GF104s, weil sie einfach zu teuer wären. Dabei kann AMD noch runter, wie man bei 5830 und 5850 sieht, die fast genausoviel herestellungsaufwand bedeuten wie eine echte 5870.
Möglicherweise ist das was Charlie gemeint hat...

Er schreibt mist, weil es um nVidia geht. Wenn Gf104 mit 367mm^2 "huge" wäre, dann wäre es Cypress auch.
Natürlich sind AMD's Margen bei Cypress höher, da der Chip auch für mehr Geld in Form der 5850 und 5870 verkauft wird. Dafür benötigt AMD aber auch die 5830, um die Kosten senken zu können. Die Fertigungskosten sollten dagegen im selben Bereich spielen. Selbst wenn sie die 5850 auf den 200€ Spot ziehen, spricht noch soviel für die GTX460.
Auch sind höhrere Marge kein Garant für wirtschaftlichen Erfolg, da man vorallem im Gamer-Markt sehr viel über Masse gehen muss. Und die GTX460 ist eine Karte auf einem Preispunkt, der den darüberliegenden Markt fast austrocknen lässt.

Spasstiger
2010-07-22, 11:59:44
Man ist noch immer klar unterlegen. Und dabei hat Cypress Auslastungsprobleme. Gegen einen Juniper sieht es noch deutlich schwächer aus.
NV bekommt bei TSMC soweit ich gehört habe einen besseren Preis als AMD/ATI, insofern ist die größere Diesize kein Beinbruch.
Und wenn man das markttaugliche Potential des GF104 voll ausschöpft (384 SPs, 800/1600 MHz Core, 1200 MHz Speicher), dann landet man bei einer Performance in oberen Cypress-Regionen. NV kann auf GF104-Basis eine direkte Konkurrenzkarte zur HD 5870 stellen. Einziges Hindernis ist im Moment die GTX 470, die erstmal abverkauft werden muss.

Gast
2010-07-22, 12:16:15
Wie wird denn wohl bei so einer Version der Stromverbrauch aussehen?

Kommt wohl auch drauf an, wann ein voller GF104 kommen wird. Ich denke, dass wird frühesten im Oktober oder noch später sein. Und da heißt dann wohl der neue Konkurrent schon hd6850.

V2.0
2010-07-22, 12:23:38
Es gibt bis heute keinen Vollausbau GF100, warum sollte GF104 besser sein?

Aquaschaf
2010-07-22, 12:26:31
Weil der Chip viel kleiner ist?

Gast
2010-07-22, 12:48:04
Weil der Chip viel kleiner ist?

Wo ist dann der volle Gf104?

Gast
2010-07-22, 12:49:58
GF106 PCB:

http://img818.imageshack.us/img818/5762/45979961279787088435102.jpg (http://img818.imageshack.us/i/45979961279787088435102.jpg/)

http://itbbs.pconline.com.cn/diy/11645884.html

192-Bit und im Gegensatz zu GF104 offenbar ein quadratischer Die.

Spasstiger
2010-07-22, 13:14:26
192 Bit sind gut, aber dann bin ich auf gespannt, wie man die verhältnismäßig hohe Speicherbandbreite für eine Mainstream-Performance-Karte auslasten will. Um die HD 5770 schlagen zu können, bräuchte man ca. einen 2/3-GF104. Mit einem halbierten GF104 müssten die Taktraten dafür ziemlich hoch ausfallen, was der Energieeffizienz schadet.
Vielleicht geht man ja wieder auf kleinere SMs mit jeweils 32 SPs und 4 TMUs und lässt die Struktur sonst wie beim GF104, also mit zwei GPCs und acht SMs. Dazu eben das 192-Bit-SI. Damit sollte man eine HD 5770 angreifen können.

LuXon
2010-07-22, 13:15:34
sollte dann in etwa 250 mm2 sein.

Spasstiger
2010-07-22, 13:20:43
Ich denke eher weniger. Double Precision könnte man in dem Segment endgültig wegrationalisieren, außerdem kann man bei 32 SPs die Scheduler wieder vereinfachen. Dazu nur halb soviele TMUs, Load-Store-Einheiten und SFUs und weniger Cache. Wenn der GF104 367 mm² groß ist, könnte man bei einem GF106 mit 256 SPs, 32 TMUs und einem 192-Bit-SI bei 230-240 mm² landen.

Gast
2010-07-22, 13:22:28
Ja, sieht definitiv nach >200mm² aus. Vielleicht hat man hier noch etwas Transistordichte für Takt geopfert, sodass man >800MHz auf der Referenzkarte erreicht.

Wenn es >192SPs sind steht man natürlich auf der sicheren Seite. Von den Die-Kosten kann man damit eher nicht mit einem 166mm2 Juniper konkurrieren, aber dessen Nachfolger wird wohl auch bei ~200mm² liegen.

Coda
2010-07-22, 13:24:31
Wo ist dann der volle Gf104?
Es gab am Anfang auch keinen vollen G92. Einen vollen GF104 kann NVIDIA derzeit eh nicht brauchen, weil sie die GTX 470 abverkaufen müssen.

Die erste "volle" Karte die wir sehen werden ist wohl eine Dual-Karte mit zwei GF104.

ShinyMcShine
2010-07-22, 14:05:35
Hartware.net (http://www.hartware.net/news_49656.html) berichtet heute über eine GTX 475 die den vollen GF104 benutzen soll. Wäre dann wohl das Äquivalent zur hier schon öfters diskutierten GTX 468.

VG
Shiny

Ailuros
2010-07-22, 14:16:23
http://www.semiaccurate.com/2010/07/21/gf104gtx460-has-huge-die/

24.9mm x 14.7mm...nun ja man sagte mir vor geraumer Zeit 25*15mm aber die paar Haare kann man uebersehen. Ergo ein rechteckiger die als vieles andere und die insgesamte die area liegt bei 367mm2.

Nightspider
2010-07-22, 15:47:03
Hartware.net (http://www.hartware.net/news_49656.html) berichtet heute über eine GTX 475 die den vollen GF104 benutzen soll. Wäre dann wohl das Äquivalent zur hier schon öfters diskutierten GTX 468.

VG
Shiny

Würde Sinn ergeben. Fragt sich ob dann ein GF100b ausschließlich für eine GTX 485 und den Servermarkt kommt.

Dann läge der Speichervorteil nurnoch bei der GTX 485. Und Falls dann GTX 475 Karten mit 2GB VRAM erscheinen wäre die GTX 485 wieder im Nachteil.

Gast
2010-07-22, 15:52:04
Vielleicht passiert bei GF100b ähnliches, wie bei G200b, wo die Hersteller dann eigene Karte kreierten, mit doppelten Speicher. Eben dann eine 3GB GTX 485.
Der RAM sollte keine $100 kosten.

LuXon
2010-07-22, 16:02:34
Die Karte wird dann aber sicher mehr als $100 mehr kosten.

Gast
2010-07-22, 16:09:58
Performance than GTX260 exclusive specifications the first exposure GTS450

GTX460 was released, NVIDIA's DX11 graphics cards in a thousand product lines can be said to have a comprehensive renewal, the next will be Qianyuan Ji update the following product lines. NVIDIA's first DX11 graphics cards will be less than 1000 yuan a GTS450, the core based on GF106. GF106 core task is mainly to take over the current G92 core product lines, including the GTS250 and the 9800GT and so on.

From the information we receive a more accurate view, GTS450 will have 192 stream processors, it is exactly half of the core GF104 (GF104 has a full 384 stream processors). GF106 using 40nm process, operating frequency at this stage has not yet finalized, but the range will be between 700-800MHz, is a high level.

And memory, the recent Turkish media also disclosed some information, called 128Bit memory interface, using GDDR5 memory. However, yesterday the network are revealed by a group of suspected GTS450 PCB substrate map (above), the card can be seen from the graph has six memory location, then the memory interface will be 192Bit. We believe that GTS450 specifications 192Bit GDDR5 memory is more likely, while the operating frequency believe about the 3600-4000MHz.
We also got some preliminary information on the GTS450 performance, the i5-750 CPU platform environment, GTS450 open the physical acceleration in performance in 3Dmark Vantage is just breaking 10,000 points, the performance has reached GTX260/GTX260 + level will be used in place of GTS250 seemed perfect.
Barring the unexpected, then, GTS450 will be released in the end of August, most likely on August 31. Well ... sure price is lower than the GTX460 is definitely higher than the current number of GTS250.

http://vga.it168.com/a2010/0722/1081/000001081038.shtml

P10k in Vantage sieht nicht so gut im Vergleich zu einer HD 5770 aus.

LuXon
2010-07-22, 16:13:55
Ich vermute (auf CB schon geschrieben) einen 6 SM GF104 als gegner für die HD5770. Die können den dann so günstig anbieten, da es Abfallverwertung ist (die werden vllt sogar weggeschossen?) dass sie der HD5770 viele Marktanteile wegfressen könnten.

Gast
2010-07-22, 16:45:26
Ja, die GTS 455 steht auch noch zur Debatte.

Aber einen Preiskampf kann man wohl kaum mit dem GF104 bestehen, jedenfalls bei den immer noch wohl nicht wirklich guten Yield @ TSMC. Mit entsprechenden Yields kann man jedoch auch einen 300-400mm² Chip in Richtung 100€ führen, wie man damals bei G92 sah.

davidzo
2010-07-22, 16:55:51
Das PCB kostet im wahrsten Sinne des Wortes nichts. Das ist bei Gf104 nur so kurz weil man eine andere Kühllösung gewählt hat welche die Luft nicht mehr nach außen befördert, das bringt aber keine Kostenersparnis beim PCB.

Nicht ganz, ich sag da nur Layer... 192bit benötigt viel weniger layer als 256bit, da gibt es schon preisunterschiede, die gekoppelt mit der größe dannschon mal eben 5-10$ ausmachen (PCB. da charlie beim chip auch nur von 10% spricht ist das billigere PCB daher auch nicht zu unterschlagen. Größer ist der unterschied bei der Menge des speichers, bei 192bit /768mb spart man immerhin 25% und die taktung ist auch so niedrig dass der speicher im einkauf deutlich billiger sein sollte.

LovesuckZ
2010-07-22, 17:00:54
Ja, die GTS 455 steht auch noch zur Debatte.

Aber einen Preiskampf kann man wohl kaum mit dem GF104 bestehen, jedenfalls bei den immer noch wohl nicht wirklich guten Yield @ TSMC. Mit entsprechenden Yields kann man jedoch auch einen 300-400mm² Chip in Richtung 100€ führen, wie man damals bei G92 sah.

nVidia verkaufte auch einen G94 mit 240mm^2 für 150€ gegen einen rv670 mit 192mm^2. Und das zu Zeiten (2008) als die das beste Firmenergebnis der Geschichte geschrieben haben.

Gast
2010-07-22, 17:21:53
240mm2 sind aber keine 367mm2, zumal RV670 im teureren 55nm Prozess gefertigt wurde.
Der Kontrahent wäre hier nur 166mm2 groß, im gleichen Prozess.

Das sieht dann nicht ganz so wirtschaftlich für eine GTS 455 bei ~$159 aus, wenn auch man mit entsprechender Stückzahl schwarze Zahlen schreibt.

LuXon
2010-07-22, 17:33:29
Für nVidia entstehen keine grossen mehrkosten mehr. Warum auch. Die Chips würden sonst auf der Halde landen. So können die noch mehr Geld machen.

Gast
2010-07-22, 17:41:41
Laut Launchberichten soll das Yield für die 7-SM-Variante wohl entsprechend gut sein, sodass man hier wohl solche Chip für die 6SM-GTS 455 verkaufen müsste. Zumal eine $159 Karte wohl noch um einiges höhere Stückzahlen als eine $200-230 Karte aufweist.

Für den Kunden wäre so ein 288SP Chip mit ~650MHz wohl interessant, gerade wegen des OC-Potentials. :D

Nakai
2010-07-22, 21:58:56
Das sieht dann nicht ganz so wirtschaftlich für eine GTS 455 bei ~$159 aus, wenn auch man mit entsprechender Stückzahl schwarze Zahlen schreibt.

Eine Grafikkarte ist mehr als nur ein Chip. Bei 360mm² ist der GF104 schon sehr wirtschaftlich im Vergleich zu Fermi.

Gast
2010-07-23, 07:26:38
Eine Grafikkarte ist mehr als nur ein Chip. Bei 360mm² ist der GF104 schon sehr wirtschaftlich im Vergleich zu Fermi.

Wirklich?

Warum gibt es dann die "verkrüppelten" 192bit/768MB GT460?

So wie es aussieht können die Hersteller nur aufgrund dieser schlechten Speicherausstattung den anvisierten Preis auch erreichen. Also:

GPU-Preis ------>Speicher<-------Verkaufspreis.

Und weil der Druck von beiden Seiten so groß ist, bleibt nur noch wenig Geld für den Speicher übrig (der aber im Vergleich zur GPU eigentlich nur sehr wenig kostet). Deshalb eben die seltsamen 192bit/768MB obwohl der GF104 ein 256bit Speicherinterface hat. Die GT460 Preise sind also vom Marketing sozusagen "Auf Kante genäht". Die Wirtschaftlichkeit für die Hersteller und Nvidia sollte deshalb sehr gering sein. Aber die mangelnde Wirtschaftlichkeit macht man dann wahrscheinlich mit dem Umsatz wieder wett. ;)

Ailuros
2010-07-23, 09:15:45
Noch eine kurze Unterbrechung zum Thema rechteckiger die:

http://www.semiaccurate.com/forums/showpost.php?p=58202&postcount=43

I was surprised by that as well, as it appears to be general knowledge that quadratic chips are more economical than rectangular ones. Yet, I tried out the "Die Per Wafer Calculator":
http://mrhackerott.org/semiconductor...tor/Input.html

A 24.9 x 14.7 mm Die yields the following numbers of die candidates per wafer(300-mm-Wafer, other parameters left at default):
Die-centered: 149
Point-centered: 148
Top-biased: 150
Side-biased: 146

The same for 19.1 x 19.1 mm
Die-centered: 149
Point-centered: 148
Top-biased: 150
Side-biased: 150

So unless the wafers are side-biased, the numbers are identical!

Interessant.

Dural
2010-07-23, 09:16:43
findes immer wider interessant das über irgend welche herstellungskosten diskutiert wird obwohl keiner nur irgend eine ahnung hat was genau sache ist :P

der DIE ist 10% grösser also auch 10% teurer, so ein Blödsinn!


Warum gibt es dann die "verkrüppelten" 192bit/768MB GT460?


wie wär es damit: weil man noch die GF100 loswerden will in form der GTX465 und GTX470? ;)

und der speicher ist neben der GPU die teuerste komponete auf einer grafikkarte!

Gast
2010-07-23, 09:30:20
der DIE ist 10% grösser also auch 10% teurer, so ein Blödsinn!


Richtig, 10% größer bedeutet mehr als 10% teurer. Und nein, das ist kein Blödsinn.

Gast
2010-07-23, 09:39:11
der DIE ist 10% grösser also auch 10% teurer, so ein Blödsinn!


Es sind mehr als 10% (Ausschuss, Ausbeute etc.. sind nicht linear bzgl. DIE-area. )


wie wär es damit: weil man noch die GF100 loswerden will in form der GTX465 und GTX470? ;)


Wenn es stimmt ist es eine blöde Strategie!


und der speicher ist neben der GPU die teuerste komponete auf einer grafikkarte!

Nicht immer, manchmal ist die Kühlung sogar teurer. :)

Trotzdem; die GPU ist immer noch ~2-3x teurer (zumindest bei Performance bis Highend-Karten + GDDR5) als der Speicher. Die alte Tabelle von Mercury Research finde ich leider im Netz nicht mehr. Hab sie nur auf meinem Rechner. An dem hier ändert sich aber nichts:

GPU-Preis ------>Speicher<-------Verkaufspreis.
=> "verkrüppelte" 192bit/768MB GT460

svenw
2010-07-23, 09:45:14
findes immer wider interessant das über irgend welche herstellungskosten diskutiert wird obwohl keiner nur irgend eine ahnung hat was genau sache ist :P

der DIE ist 10% grösser also auch 10% teurer, so ein Blödsinn! Wieso? Die 5000$/ Wafer sind falsch, aber die Preise von AMD und NV pro Wafer dürften nicht so unterschiedlich sein, da beide im gleichen Verfahren beim gleichen Hersteller fertigen lasen. Damit steigen die Kosten nun mal linear mit der Die-Größe und ATI kann einen kleineren Chip zu einem wesentlich höheren Preispunkt verkaufen. Die 460er Karten sind nicht schlecht, nur ob sie NV den großen Gewinn bringen muß sich erst noch zeigen. Denn wenn man es genau nimmt, treten sie gegen einen Chip an, den ATI aus dem Müll der RV870 raussucht. Der 5830 ist verkaufter Restmüll genauso wie die 465. Und wenn NV den 104er voll ausfährt gefährdet das den 470er und bringt damit die Kosten der GF100 Produktion massiv unter Druck. Andererseits zahlen sie momentan für ungenutze Die-Fläche, da aktuellen 104er nicht mit allen aktivierten Einheiten kommen.

Aber ob ATI es schafft SI mit mehr Tesselation Power weiter so klein zu halten muß sich auch erst zeigen.

Was mich allerdings wundert, ist das ATI eine 20% dichtere Packung schafft als NV. Dafür hat der 104 natürlich massig Overclocking Potential.

Meine Meinung: Mit der aktuellen Graka-Serie hat sich NV ins Knie geschossen! Der GF100 bringt für seine Verlustleistung zu wenig Power dadurch liegt der 104er zu nahe am 470er. Andererseits ist der 104er aber für seine Leistung, die gut ist, zu teure zu fertigen. Ich vermute das NV die 100er Serie so schnell es geht einstampfen wird, wenn der neue Prozeß bei TSMC verfügbar ist.

Bucklew
2010-07-23, 10:15:59
der DIE ist 10% grösser also auch 10% teurer, so ein Blödsinn!
Zumal keiner mal in die Rechnung einbezieht, dass die Dies von Nvidia zwar deutlich größer als ATIs sind, dafür aber deutlich weniger Takt fahren und auch noch teilabgeschaltet sind. Das erhöht die Yields natürlich nicht unwesentlich.

Wieso? Die 5000$/ Wafer sind falsch, aber die Preise von AMD und NV pro Wafer dürften nicht so unterschiedlich sein, da beide im gleichen Verfahren beim gleichen Hersteller fertigen lasen.
Nvidia lässt deutlich mehr fertigen, das senkt natürlich die Preise.

Und dann kommen natürlich noch die R&D-Kosten dazu, die auch mit jedem verkauften Chip anteilig pro Chip sinken.

Meine Meinung: Mit der aktuellen Graka-Serie hat sich NV ins Knie geschossen!
Dazu muss man erst abwarten wie sich die Karten in anderen Bereichen (HPC etc.) beweisen. Die paar Dollar weniger Marge im GeForcebereich werden von höheren Verkaufszahlen im Teslabereich (pro Karte >2000$) locker gedeckt - so die Stückzahlen hoch genug sind.

Zumal der GF104 entsprechend ausgebaut/getaktet durchaus gegen die 5870 antreten könnte.

Gast
2010-07-23, 10:22:00
Meine Meinung: Mit der aktuellen Graka-Serie hat sich NV ins Knie geschossen! Der GF100 bringt für seine Verlustleistung zu wenig Power dadurch liegt der 104er zu nahe am 470er. Andererseits ist der 104er aber für seine Leistung, die gut ist, zu teure zu fertigen. Ich vermute das NV die 100er Serie so schnell es geht einstampfen wird, wenn der neue Prozeß bei TSMC verfügbar ist.

Sehe ich anders. Die Wirtschaftlichkeit der GT460 ist vielleicht schlecht, aber der GF104 selbst ist eine IMHO sehr gute GPU. Am GF104 sieht man IMHO auch schön wie schlecht die GF100 eigentlich sind.

Mit 367mm² ist der GF104 nur 70% so groß wie der GF100, trotzdem erreichen die gekappten GPUs (336ALUs) mit OC bereits die Leistung der "normalen" GTX470. Ein hypothetischer "Highend" GF104 mit 64TMUs/384ALUs und 850/1700MHz (mit entsprechend angepasster Kühlung) sollte selbst der GTX480 gefährlich werden können.

Selbst im Vergleich zu den RV870 GPUs hat Nvidia massiv aufgeholt. Im Vergleich zum GF100 ist der GF104 wesentlich besser positioniert (sowohl Performance/mm² als auch Performance/Watt). Der GF104 ist vielleicht nicht ganz so gut wie der RV870 (besseres Filtern, PhysX etc.. mal außen vor) aber trotzdem ist er für mich der RV870 sehr auf die Pelle gerückt (innerhalb von 10-15% der RV870).

Gast
2010-07-23, 10:23:55
Zumal keiner mal in die Rechnung einbezieht, dass die Dies von Nvidia zwar deutlich größer als ATIs sind, dafür aber deutlich weniger Takt fahren und auch noch teilabgeschaltet sind. Das erhöht die Yields natürlich nicht unwesentlich.

1400MHz - 1600MHz sind für dich also "langsamer" als die 850MHz bei AMD. :freak:

Bucklew
2010-07-23, 10:27:36
Sehe ich anders. Die Wirtschaftlichkeit der GT460 ist vielleicht schlecht, aber der GF104 selbst ist eine IMHO sehr gute GPU. Am GF104 sieht man IMHO auch schön wie schlecht die GF100 eigentlich sind.
Der GF100 ist nicht schlecht, sondern einfach nur für eine Verwendung außerhalb von Gaming mitkonzipiert. Das kostet natürlich Chipfläche und Leistung, ohne das man als Gamer was davon hat.

1400MHz - 1600MHz sind für dich also "langsamer" als die 850MHz bei AMD. :freak:
Die 600-700Mhz Chiptakt sind auf jeden Fall langsamer als bei AMD. Die Unterschiede im Shadertakt liegen auch in den unterschiedlichen Architekturen der Shader begründet.

deekey777
2010-07-23, 11:07:24
Es ist aber so, dass der hohe Shadertakt durch zusätzliche Transistoren erreicht wird. Es gleicht sich auf irgendeine Weise schon aus.

Aquaschaf
2010-07-23, 11:10:38
Zumal keiner mal in die Rechnung einbezieht, dass die Dies von Nvidia zwar deutlich größer als ATIs sind, dafür aber deutlich weniger Takt fahren und auch noch teilabgeschaltet sind. Das erhöht die Yields natürlich nicht unwesentlich.

Andere Chips und andere Architektur. Das kann man nicht vergleichen. Vor allem von den unterschiedlichen Taktraten kann man überhaupt keine Rückschlüsse darauf ziehen wie sich G104 und RV870 hinsichtlich der Yields zueinander verhalten.

deekey777
2010-07-23, 11:13:26
Andere Chips und andere Architektur. Das kann man nicht vergleichen. Vor allem von den unterschiedlichen Taktraten kann man überhaupt keine Rückschlüsse darauf ziehen wie sich G104 und RV870 hinsichtlich der Yields zueinander verhalten.
Und andere Ingenieure. Schon vor einiger Zeit wurde geäußert, dass AMD einfach bessere Leute hat.

Ailuros
2010-07-23, 11:14:58
Es ist aber so, dass der hohe Shadertakt durch zusätzliche Transistoren erreicht wird. Es gleicht sich auf irgendeine Weise schon aus.

Es gleicht sich eben nicht aus weil gerade eben das Prozentual der zusaetzlichen Transistoren um einiges maessiger ist als die Anzahl der SPs gleichwertig zu erhoehen, sonst waeren sie schoen bloed wenn sie zu dieser Loesung greifen wuerden.

Nach NV engineering evaluieren sie bei jeder Generation seit G80 bei welchen Einheiten es sich lohnt an hot clocks zu denken und bis jetzt sind und bleiben die ALUs die einzigen Einheiten bei denen es sich lohnt.

Es gab doch vor dem GF100 Release die ueppige These dass vielleicht die TMUs auch auf hot clock oder hoeheren Frequenzen laufen. Als ich bei NV nachfragte sagten sie dass es mehr als 2x Mal so viel Transistoren kosten wuerde TMUs@hotclock zu haben als 2x Mal so viel TMUs von Anfang an.

Und andere Ingenieure. Schon vor einiger Zeit wurde geäußert, dass AMD einfach bessere Leute hat.

Ich wette gutes Geld dass wenn RV870 eine >500mm2 die Groesse gehabt haette, dass AMD mehr Probleme gehabt haette als NV mit GF100. Die Entscheidung den originalen 870 zurueckzuschneiden Anfang 2008 kam definitiv NICHT vom engineering team. Wenn Du Lorbeeren verteilen willst dann faellt die insgesamte Strategie bzw. diejenigen die solche Entscheidungen treffen eher am Band.

Gast
2010-07-23, 11:24:31
Es gab doch vor dem GF100 Release die ueppige These dass vielleicht die TMUs auch auf hot clock oder hoeheren Frequenzen laufen. Als ich bei NV nachfragte sagten sie dass es mehr als 2x Mal so viel Transistoren kosten wuerde TMUs@hotclock zu haben als 2x Mal so viel TMUs von Anfang an.

Und wohl der dreifache Stromverbrauch? :D

Aquaschaf
2010-07-23, 11:25:44
Und andere Ingenieure. Schon vor einiger Zeit wurde geäußert, dass AMD einfach bessere Leute hat.

Also da würde ich mich echt nicht aus dem Fenster lehnen. Wer die besseren Leute hat ist von außen kaum zu erkennen.

Bucklew
2010-07-23, 12:28:02
Es ist aber so, dass der hohe Shadertakt durch zusätzliche Transistoren erreicht wird. Es gleicht sich auf irgendeine Weise schon aus.
Japp, nur ist es eben falsch zu sagen "GF100 größer als Cypress = schlechtere Yields" ohne meine genannten Punkte zu erwähnen, denn die höhere Transistorzahl bezieht man ja mit ein.

Andere Chips und andere Architektur. Das kann man nicht vergleichen. Vor allem von den unterschiedlichen Taktraten kann man überhaupt keine Rückschlüsse darauf ziehen wie sich G104 und RV870 hinsichtlich der Yields zueinander verhalten.
Ja, wird dennoch von einigen Leuten gern gemacht.

Coda
2010-07-23, 13:48:07
Und andere Ingenieure. Schon vor einiger Zeit wurde geäußert, dass AMD einfach bessere Leute hat.
Wer hat das gesagt? Das halte ich für ein sehr gewagtes Statement.

Dural
2010-07-23, 14:17:45
AMD und NV pro Wafer dürften nicht so unterschiedlich sein.


NV deutlich grössere menge, NV bleibt längerfristig bei ihnen, grössere mengen an 40nm Wafer wurden NV zugesichert, keiner weis wie genau die verträge ausehen / wie abgerechnet wird usw.!!!

Wer wirklich ernsthaft glaubt das AMD halbwegs das selbe bezahlt wie NV hat keine ahnung von wirtschaft...

Gast
2010-07-23, 14:23:02
Wenn man sich anschaut, wie klein der Umsatzanteil der High-End-Chips von AMD und Nvidia am Gesamtumsatz von TSMC ist, kann man wohl Zweifel haben, dass es hier besonders gute Konditionen für einen Partner gibt. Auch wenn man mit diesen Chips die Prozesse erproben kann, ist man es wohl möglich gar leid sich mit diesen Transistormonstern herumzuärgern und würde die Kapazitäten eher den aufstrebenden Markt der mobilen Geräte und den dafür benötigten ASICs bereitstellen.

Gast
2010-07-23, 14:24:38
NV deutlich grössere menge, NV bleibt längerfristig bei ihnen, grössere mengen an 40nm Wafer wurden NV zugesichert usw.

Wer wirklich ernsthaft glaubt das AMD halbwegs das selbe bezahlt wie NV hat keine ahnung von wirtschaft...

So ein Fanboybullshit. TSMC will Gewinn machen, natürlich ist es möglich das NV durch die größeren Mengen mehr Rabatte bekommt, aber wir sprechen hier mit Sicherheit nicht von exorbitanten Unterschieden, so viel weniger Chips verkauft AMD auch nicht. Und auch AMD bleibt bei ihnen, Fusion kommt in 40nm bei TSMC. Und NV fertigt zusätzlich bei UMC.

Dural
2010-07-23, 14:28:20
was hat das mit fanboy zu tun wenn ich sage das ein Kunde der 66% abnimmt sehr wahrscheinlich die bessere Preise bekommt als einer der 33% abnimmt, lächerlich! man merkt eindeutig das hier ein haufen kidis unterwegs sind die null ahnung von der wirtschaft haben...

andere frage, wie so sollten sie AMD halbwegs vernünftige preise machen wenn sie genau wissen die werden bald abspringen? ;)

und Nein ich weis es nicht! aber diese ständige diskusionen wie 10% grösser / 10% teurer nerfen langsam... weil es blödsinn ist!!!!!!!

Black-Scorpion
2010-07-23, 14:44:20
Nur gut das du als einziger den Durchblick hast. ;)
Wenn du die 66% und 33% ernst meinst kann dich keiner mehr ernst nehmen.

Coda
2010-07-23, 14:48:35
Wenn man sich anschaut, wie klein der Umsatzanteil der High-End-Chips von AMD und Nvidia am Gesamtumsatz von TSMC ist
Gibt's dafür wirklich eine Quelle, oder ist das jetzt nur fantasiert?

Sie sind wohl so ziemlich die größten Abnehmer vom High-End-Prozess, der natürlich auch am teuersten ist.

Gast
2010-07-23, 15:05:28
4% waren es für 40nm im Q3 2009 und da wurden schon Evergreen und GT21x-GPUs ausgeliefert:
http://www.xbitlabs.com/news/other/display/20091028231811_TSMC_s_40nm_Revenues_Quadruple_in_the_Third_Quarter.html

Coda
2010-07-23, 15:06:32
Das dürfte inzwischen aber auch schon wieder ganz anders aussehen. Man macht die Verträge ja nicht nur für den Anfang eines Prozesses.

Q4 2009 waren es schon 9% für 40nm: http://hothardware.com/News/TSMC-Announces-Quarterly-Earnings-40nm-Sales-Figures/

Das heißt inzwischen könnten es bei dem Wachstum fast 25% sein.

davidzo
2010-07-23, 15:12:26
Ich vermute das NV die 100er Serie so schnell es geht einstampfen wird, wenn der neue Prozeß bei TSMC verfügbar ist.
Das ist Unsinn, ein neuer Prozess ist noch lange nicht in Sicht, daher wird nv die 100er Serie behutsam weiterführen und eventuell kleinere Anpassungen machen, aber alles andere als schnell einstampfen. Einen Zwischenschieber in 40nm wie ATI hat man nämlich nicht, daher wird GF1xx entsprechend länger halten müssen. Mit ein paar respins, yieldverbesserungen hat man aber auch genügeng spielraum weitere bisher ungenutzte Einheiten freizuschalten (GTX475@GF104, GTX485@GF100b, GTX495@GF104). Das wird dann auch irgendwann zwischen Jetzt und 28nm (ende 2011) geschehen. Klar wird man dann versuchen eine schnelle Transition zu 28nm zu schaffen aber da können noch ganz andere Probleme auftreten. Solange man aber keine ALternative hat ist GF100 aber in jedem Fall das beste pferd im Stall und man wird sich hüten voreilig auf ein anderes zu setzen, die margen sind ja noch in ordnung und jedenfalls nicht schlechter als bei GT200.

Zumal keiner mal in die Rechnung einbezieht, dass die Dies von Nvidia zwar deutlich größer als ATIs sind, dafür aber deutlich weniger Takt fahren und auch noch teilabgeschaltet sind. Das erhöht die Yields natürlich nicht unwesentlich.

Blödsinn, das sind andere Architekturen, zumal nvidia zwei taktdomänen hat auch überhaupt nicht vergleichbar. Man kann allerdings spekulieren inwieweit man die Leckströme in Griff hat und hier scheint AMD trotz der dichten Packung weitere Vorteile zu haben, da man mit einem kleineren DIE trotz mehr Transistoren (Cypress vs. GF104) eine höhere Spannung fahren kann und trotzdem weniger Verlustleistung hat (idle bewusst ausgeblendet da GF104 sich besser heruntertaktet). Am OC-potential merkt man allerdings auch dass GF104 und RV870 sich auf ähnlich ausgereiftem (Yield-) Niveau befinden, beide lassen 15-20% Taktgewinn zu, ganz anders als GF100 bei dem man merkt wie weit er sich am Limit befindet und wie wenig man die Leckströme in Griff hat (daher die niedrige Spannung bei GF100, der DIE ist anscheinend echt mies dass er bei nur 30% mehr Transistoren als Gf104 gleich 100% mehr Verlustleistung hat).




Und dann kommen natürlich noch die R&D-Kosten dazu, die auch mit jedem verkauften Chip anteilig pro Chip sinken.

Da hat ATI aber einen deutlichen Vorteil, denn RV870 war nicht nur ein vergleichsweise kleiner Schritt von der vorhergehenden Architektur und noch dazu bedient man mit einem einzigen Chip nämlich Cypress sowohl Highend als auch den Performance-Markt. Zwei Chips, noch dazu unterschiedlicher neuer Architektur sind da viel teurer. Und auch nach unten hin wird es sich fortsetzen dass Nvidia mehr Chips benötigt als ATI auf der anderen Seite um ein nahtloses Angebot zu bieten, da man mit dem GF100 einen hohen anfangspunkt gefunden hat der sich so leicht nicht herunterskalieren lässt.
R&D zu reduzieren indem man eine einheitlichere Chipfertigung verfolgt schön und gut, aber auf lange Sicht ist es günstiger angepasste Chips für jedes Marktsegment zu bieten. Und da GF1xx uns bis Ende 2011 begleitet wird man diese breit gefächerte Strategie auch verfolgen.
Das sieht man schon jezt bei Cypress der sich sowohl mit GF100 als auch GF104 battlen muss im unteren Bereich und gegen GF104/192bit wohl eher die geringere marge einfährt. Ein Chip zwischen Juniper und Cypress würde zwar R&D kosten, aber GF104 im Endeffekt effizienter und auf dauer billiger den Wind aus den Segeln nehmen als die HD5830 und 5850.



Selbst im Vergleich zu den RV870 GPUs hat Nvidia massiv aufgeholt. Im Vergleich zum GF100 ist der GF104 wesentlich besser positioniert (sowohl Performance/mm² als auch Performance/Watt). Der GF104 ist vielleicht nicht ganz so gut wie der RV870 (besseres Filtern, PhysX etc.. mal außen vor) aber trotzdem ist er für mich der RV870 sehr auf die Pelle gerückt (innerhalb von 10-15% der RV870).

Trotzdem ist aufholen bzw. fast aufgeholt zu haben nicht das was man sich von einem Chip vorstellt der über ein Jahr lang (bis 28nm) halten muss während die Konkurrenz bereits mit einem Refresh in den Startlöchern steht der den Effizienzvorsprung wohl wieder ausbaut und den beinahe eingeholten Leistungsvorsprung wieder herstellt.

Wer hat das gesagt? Das halte ich für ein sehr gewagtes Statement.

Das Statement bezog sich wahrscheinlich auf die Prozessingenieure und da ist nicht zu leugnen dass die bei AMD bzw. GloFo dort nicht nur deutlich mehr fähige Köpfe haben, sondern auch Grundlagenforschung (SOI, etc.) was die Prozesse und Packungsdichten angeht) betreiben. Solche Leute, auch wenn sie bei ATI nicht hauptbeschäftigt sind und nur eher mal mit einem kleinen Tipp zur Seite stehen wenn es nötig ist, hat nvidia gar nicht erst. Nvidia kümmert sich um die IP und die Architektur, aber bei der Fertigung sind sie doch in viel höherem Maße auf die Erfahrung von TSMC angewiesen während ATI da mal eben die eigenen Leute von AMD anrufen kann die zwar immer noch nicht die Klasse wie die Intel leute haben, denen ich aber mehr zutraue als denen von TSMC.

was hat das mit fanboy zu tun wenn ich sage das ein Kunde der 66% abnimmt sehr wahrscheinlich die bessere Preise bekommt als einer der 33% abnimmt, lächerlich! man merkt eindeutig das hier ein haufen kidis unterwegs sind die null ahnung von der wirtschaft haben...

Du hast überhaupt keine Ahnung von TSMC und deren Geschäftspraktiken. 66% was für ein Schwachsinn! Nvidia ist ein Bruchteil vom gesamten Auftragsmarkt den TSMC bedient, ein Prestigekunde, einer von vielleicht 5-10 Hauptkunden der immer den neuesten teuren state-of-the-art prozess will aber lange nicht derjenige an dem die ganze Firma hängt!

Coda
2010-07-23, 15:24:21
Wer außer NVIDIA und AMD fertigt denn noch auf 40nm? Mir fällt da spontan nur Xilinx und die anderen FPGA-Hersteller ein. Die dürften vom Auftragsvolumen aber sehr viel kleiner sein.

deekey777
2010-07-23, 15:40:48
Wer hat das gesagt? Das halte ich für ein sehr gewagtes Statement.
Ich versuch's zu finden, aber nicht heute oder morgen.

davidzo
2010-07-23, 15:56:28
Wer außer NVIDIA und AMD fertigt denn noch auf 40nm? Mir fällt da spontan nur Xilinx und die anderen FPGA-Hersteller ein. Die dürften vom Auftragsvolumen aber sehr viel kleiner sein.

du vergisst, das 40nm als top-of-the-line high performance bulk prozess aber auch nur ein bruchteil von TSMCs Fertigung ist. das wird sich auch mit Ontario und künftigen nvidia teslas für den HPCbereich nicht ändern, auch nicht bei 28nm.
vor kurzem kamen doch die zahlen auf allen namhaften newsseiten, da hat man sich gewundert was für prozesse es da alles noch so gibt, das klingt richtig antik... - für bestimmte anwendungszwecke sind ältere prozesse aber von absolutem vorteil. alleine die 8bit SOCs mit denen ich fast täglich arbeite, mit ihren 16mhz, kilobytes an speicher, on-chip flash und zig input/output pins könnte man die gar nicht mehr im Gehäuse verdrahten wenn die in modernen prozessen gefertigt würden. es gibt auch so ausgereifte 65nm low poer prozesse dass sie sich immer noch für neue handychips lohnen weil neuere prozesse womöglich im anvisierten leistungsbereich nicht so ausgereift und effizient sind...

Gast
2010-07-23, 17:19:51
Das dürfte inzwischen aber auch schon wieder ganz anders aussehen. Man macht die Verträge ja nicht nur für den Anfang eines Prozesses.

Q4 2009 waren es schon 9% für 40nm: http://hothardware.com/News/TSMC-Announces-Quarterly-Earnings-40nm-Sales-Figures/

Das heißt inzwischen könnten es bei dem Wachstum fast 25% sein.

in Q1/2010 waren es schon 14%: http://www.digitimes.com/news/a20100720PB201.html

25% scheinen mir zu hoch gegriffen. Eher 20% (9%/14%/20%...pro Quartal +5-6%...)

Coda
2010-07-23, 17:56:28
Das wissen wir am 29.

Gast
2010-07-23, 19:53:38
Heise hat heute auch noch was zu GF104 beschrieben und das 128 Bit SI + 1GByte RAM bestätigt...

Ganze Nachricht: http://www.heise.de/newsticker/meldung/AMDs-neue-Grafikchips-kommen-Ende-Oktober-1044422.html

Auszug: "Die erste Grafikkarte mit GF106-GPU wird die GeForce GTS 450, die Ende August offiziell vorgestellt wird. Bestätigt wurde heise online heute aus Asien zunächst nur Speicherausbau und -anbindung. So soll auf der GTS 450 insgesamt 1 GByte Speicher sitzen, der über 128 Datenleitungen an die GF106-GPU angebunden ist. In frühen Tests entspreche die 3D-Leistung einer solchen GeForce GTS 450 ungefähr der einer Radeon HD 5770, wie ein ostasiatischer Hersteller mitteilte. Daher müsste die GeForce-Karte für weniger als 150 Euro über den Ladentisch wandern, um konkurrenzfähig zur Radeon HD 5770 zu sein. "

Konami
2010-07-23, 20:07:16
Toll, d.h. im 100€-Bereich tut sich performancemäßig weiterhin gar nichts. :ugly:

GTS 250 ≈ HD 5770 ≈ GTS 450.

:motz:

svenw
2010-07-23, 20:38:54
NV deutlich grössere menge, NV bleibt längerfristig bei ihnen, grössere mengen an 40nm Wafer wurden NV zugesichert, keiner weis wie genau die verträge ausehen / wie abgerechnet wird usw.!!!

Wer wirklich ernsthaft glaubt das AMD halbwegs das selbe bezahlt wie NV hat keine ahnung von wirtschaft...
Laß NV 15-20 % weniger zahlen, mehr wird es definitiv nicht sein, vor allem da NV bisher keine Alternative hatte. Wohin sollte NV denn abwandern? Gleiches galt bisher auch für ATI. Andererseits hätte TSMC ohne ATI und NV keinen Abnehmer für einen sauteuer entwickelten Prozeß gehabt. NV mag etwas mehr Rabatt bekommen, aber absolut miese Bedingungen wird TSMC auch ATI nicht aufgedrückt haben. Beide Seiten brauchten einander.

Gast
2010-07-23, 21:43:10
Toll, d.h. im 100€-Bereich tut sich performancemäßig weiterhin gar nichts. :ugly:

GTS 250 ≈ HD 5770 ≈ GTS 450.

:motz:
~P10k im Vantage sind schon gute 20% mehr als bei einer GTS 250. Zudem wird wohl auch GF106 in bestimmten Szenarien (PhysX, 8xAA, SGSSAA) sich deutlich von G92 abheben.
Aber natürlich bleibt es eher eine mäßige Steigerung gegenüber einer GTS 250, die vor mehr als einem Jahr vorgestellt wurde.

Bucklew
2010-07-27, 01:31:46
Wer außer NVIDIA und AMD fertigt denn noch auf 40nm? Mir fällt da spontan nur Xilinx und die anderen FPGA-Hersteller ein. Die dürften vom Auftragsvolumen aber sehr viel kleiner sein.
Teradici z.B.