PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce 200 @ 40nm - GT21x (und DX10.1?)


Seiten : [1] 2 3

AnarchX
2009-01-06, 09:39:09
Infos zu 40nm @ TSMC (http://www.tsmc.com/download/english/a05_literature/02_40_and_45_Nanometer_Process_Technology.pdf)
Analyse zu TSMCs 40nm Prozess von Altera (FPGAs) (http://www.altera.com/literature/wp/wp-01058-stratix-iv-40nm-process-node-custom-logic-devices.pdf)

weitere GeForce 200 GPUs von integriert bis High-End:GT206 iGT206 iGT209 GT212 GT214 GT216 GT218
http://forum.beyond3d.com/showpost.php?p=1163221&postcount=1073

40nm GT21x im FW185.20:
NVIDIA_DEV.06A0.01 = "NVIDIA GT214"
NVIDIA_DEV.06B0.01 = "NVIDIA GT214 "
NVIDIA_DEV.0A00.01 = "NVIDIA GT212"
NVIDIA_DEV.0A10.01 = "NVIDIA GT212 "
NVIDIA_DEV.0A30.01 = "NVIDIA GT216"
NVIDIA_DEV.0A60.01 = "NVIDIA GT218"
NVIDIA_DEV.0A70.01 = "NVIDIA GT218 "
NVIDIA_DEV.0A7D.01 = "NVIDIA GT218 "
NVIDIA_DEV.0A7F.01 = "NVIDIA GT218 "
NVIDIA_DEV.0CA0.01 = "NVIDIA GT215"
NVIDIA_DEV.0CB0.01 = "NVIDIA GT215 "



In addition to expanding its 55nm GT200b GPU outsourcing, the company will also start mass production of the 40nm entry-level GT218, high-end mobile GT215 and mainstream GT214 and GT216 GPUs in mid to late second quarter, according to the paper.
http://www.digitimes.com/news/a20090420PB205.html

geleakte Roadmap vom Q3 2008:
http://img398.imageshack.us/img398/4585/nvidiaroadmapgt212gt206wz6.jpg (http://imageshack.us)
http://en.expreview.com/2008/09/09/elsa-hints-nvidias-next-step-is-45nm-gt212/

Roadmap von VR-Zone:
http://img381.imageshack.us/img381/5720/nvgpu20091544479zn7.gif (http://imageshack.us)
http://vr-zone.com/articles/nvidia-40nm-desktop-gpus-line-up-for-2009/6359.html

GeForce GTX = Enthusiast
GeForce GT = High-end performance
GeForce GS = Mid-range performance (tentative)
GeForce G = Entry (IGP products and sharing)

GTX= 260 through 290
GT= 230 through 250
GS= 210 through 220
G= 201 through 209
http://hkepc.com/?id=1321&fs=c1hh


GeForce 200 und GDDR5:
- laut Industriequellen (http://www.bit-tech.net/news/2008/06/05/d12u-will-be-first-nvidia-gpu-with-gddr5-support/1) momentan nicht vor 2009 geplant
Zhenggang Cheng
Senior Signal Integrity Hardware Engineer
San Francisco Bay Area

Sr. Signal Integrity Engineer
NVIDIA
(Public Company; 1001-5000 employees; NVDA; Computer Hardware industry)

October 2006 — Present (2 years 3 months)
•Created package/board design guides and decap solutions for BR04, G84P, and G96; currently responsible for GT214.

•Did frame buffer simulation (DDR2/GDDR3/GDDR5) for various boards for G96 and GT214.

•Did loadline analysis and core power transient simulations for G96 and GT214.


http://www.linkedin.com/pub/3/255/6b3

DirectX10.1?:
There are sources though that state that NV is going DX10.1 with the GT21x series. Not saying they are right this time around, but some of them have been correct in the past before.
http://forum.beyond3d.com/showpost.php?p=1253728&postcount=135
(CJ = Niederländer, welcher in der Vergangenheit desöfteren vor Veröffentlichung mit korrekten Infos zu NV und AMD GPUs aufwarten konnte.)

Mobile GeForce 200/GT21x:
http://img123.imageshack.us/img123/9020/nvmobilegpu20090775116se3.gif (http://imageshack.us)
http://vr-zone.com/articles/nvidia-40nm-mobile-gpus-line-up-for-2009/6378.html?doc=6378

GT212:
Zusammenfassung diverser Spekulationen:
http://img389.imageshack.us/img389/3797/gt2120883003hk2.png (http://imageshack.us)
http://www.hardware-infos.com/news.php?news=2629

- Auf Basis der oben genannten Daten: Performance-Schätzung (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7018341&postcount=981) und Die-Size-Schätzung (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7019250&postcount=996) von User Spasstiger
- GT212: Andeutung, dass die GPU nicht auf High-End abzielt
- mögliche Dual-GPU-SKU auf Grund des kleinen Dies und dem 256-Bit SI
- Notebookvariante?: GeForce G280 1GiB GDDR5 ab Mai (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7079004#post7079004) G92b GDDR3 Basis

AnarchX
2009-01-14, 07:42:58
Charlie@INQ meint (http://www.theinquirer.net/inquirer/news/384/1050384/nvidia-delays-40nm-parts), dass NV 40nm ins Q3 verschiebt und GT212 gecancelt wurde.

Auch wenn er kein Geheimnis daraus macht dass er NV hasst, so hat Charlie durchaus seine Quellen und die aktuellen Quartalszahlen von NV sehen auch alles andere als gut aus und die Produktion wird wohl momentan schon zurückgefahren.

V2.0
2009-01-14, 08:18:06
GT212 gecancelt. Dann müssen die ja bis GT300 mit GT200b leben. Das ist aber gegen RV770 RV790 sau schwer.

Spasstiger
2009-01-14, 09:14:51
Das wäre allerdings sehr schade, wenn wir uns mit dem jetzigen High-End-Lineup von Nvidia das ganze Jahr durch begnügen müssen.
Und ATI würd wohl wieder die Leistungskrone an sich reißen.

Zudem hat Nvidia beim GT200b nicht mehr viel Spielraum für Preissenkungen, wenn sie noch Gewinne einfahren wollen. Da bleibt für die PCB-Hersteller eigentlich nur der Weg über billige PCBs.

reunion
2009-01-14, 10:06:31
Ein nochmaliger Shrink auf 40nm ist wohl das mindeste was kommt, ansonsten kann nV gleich die weiße Flagge hissen. Ich glaube auch nicht das GT212 gestrichen wurde, eine Verschiebung ist allerdings durchaus vorstellbar und deutete sich ja auch schon in der Vergangenheit an.

X.Perry_Mental
2009-01-14, 11:27:12
Ein nochmaliger Shrink auf 40nm ist wohl das mindeste was kommt, ansonsten kann nV gleich die weiße Flagge hissen. Ich glaube auch nicht das GT212 gestrichen wurde, eine Verschiebung ist allerdings durchaus vorstellbar und deutete sich ja auch schon in der Vergangenheit an.
Wenn ich mir Charlies Kommentar so duchlese, scheint mir das hier schon eine böse aber wohl nicht ganz unzutreffende Zusammenfasung zu sein:

"Other suggestions are that the chronic delays of 2008 have taken their toll, and there isn't enough engineering bandwidth to go around. Some say that the good people are now at Intel, while others say it is money savings. In the end, it is likely to be (D) All Of The Above, plus a few more."

Vielleicht hat nVidia in den letzten Monaten gemerkt, dass der 40nm-Prozess für den GT212 ähnlich problematisch ist, wie es der 55er für den GT200b war. Es kann doch durchaus sein, dass der GT212 zu teuer wird und zu spät kommt, um sich überhaupt noch zu rechnen. Vielleicht hat man lieber jetzt die Notbremse gezogen und die vorhandenen finaziellen und personellen Ressourcen in den GT300 gesteckt.

LovesuckZ
2009-01-14, 11:45:41
Oder Charlie hat überhaupt keine Ahnung.
Man könnte nun auch Fuad zitieren, aber das wäre auch kaum eine glaubwürdige Quelle.

Gast
2009-01-14, 12:07:34
wobei fuad interessanterweise vor ner woche oder so sagte dass nun ati trotzdem erster sein wird mit dem 40nm prozess.

Gast
2009-01-14, 12:21:02
Ist doch blödsinn, NV muss eine "grosse" 40nm GPU vor dem GT300 bringen, alles andere wäre für den GT300 sicher nicht Hilfreich!

Gast
2009-01-14, 12:23:57
und welche G200 55nm Probleme, die Probleme existieren ja nur beim Ihm...

Fakt ist das NV mit dem G200-B3 ja schon fast gezaubert hat, KEINER hätte vorher mit diesen Takt/Verbrauch mit 55nm gerechnet!

Der Shader Takt läuft beim B3 mit Stock Kühler und weniger Spannung schon höher als bei einem G200-A2 und vmod...

reunion
2009-01-14, 12:31:43
und welche G200 55nm Probleme, die Probleme existieren ja nur beim Ihm...


Ne, hier hat er schon Recht, das wurde ja auch schon von anderen bestätigt. Alleine schon das man für einen simplen Die-Shrink eine B3-Revision benötigt spricht Bände. Normalerweise geht hier spätestens B1 in die Massenproduktion.

LovesuckZ
2009-01-14, 12:48:27
B1 ist doch in der Massenproduktion - siehe GTX260.

deekey777
2009-01-14, 12:52:26
Ne, hier hat er schon Recht, das wurde ja auch schon von anderen bestätigt. Alleine schon das man für einen simplen Die-Shrink eine B3-Revision benötigt spricht Bände. Normalerweise geht hier spätestens B1 in die Massenproduktion.
Es ist kein simpler Shrink. 55 nm ist wie 65 nm, nur kleiner. Wäre es ein simpler Shrink, so wäre eine GTX295 unmöglich.
Ergo: Es ist kein simpler Shrink, sondern da wurde vielmehr Arbeit investiert, um den Verbrauch zu senken und die Leistung zu erhöhen. Auch fehlt da was: GT200B2 sind auch im Umlauf, die (ersten) GTX260@55nm und die Quadros basieren eben auf diesem.

B1 ist doch in der Massenproduktion - siehe GTX260.
B2.

Hugo
2009-01-14, 14:06:50
wäre es nicht von den Kosten besser den GT200 in 40nm und 512Bit Speicherinterface zu bringen und ihn Pinkompatibel zu designen um das vorhandene PCB zu verwenden?

am besten wäre 2xG92 mit 512Bit Speicherinterface ohne die DP-ALU's Pinkompatibel zu GT200.
Das müßten dann ca. 1.5Mio Transistoren sein.
Da würden die Entwicklungskosten für das PCB entfallen.

V2.0
2009-01-14, 14:10:59
Das PCB ist in dern Entwicklung sicher kein nennenswerter Faktor, aber in der Herstellung und da ist 256Bit billiger als 512Bit.

Hugo
2009-01-14, 14:13:53
ich denke die Entwicklungskosten sollte man nicht unterschätzen

Gast
2009-01-14, 14:14:00
Das PCB ist in dern Entwicklung sicher kein nennenswerter Faktor, aber in der Herstellung und da ist 256Bit billiger als 512Bit.

Nein, das hängt nur von der Anzahl an Layern ab.

KonKorT
2009-01-14, 14:34:53
Die Kosten eines PCBs hängen primär mit der Zahl der Layer zusammen.
Ob 256 oder 512 Bit breites SI genutzt wird, belastet das Transistorbudget um rund weitere 100 Millionen Transistoren. (GT200-Architektur)

V2.0
2009-01-14, 14:52:13
Und welches board braucht wohl mehr Layer? 512 oder 256.

[fu]121Ah
2009-01-14, 15:12:17
Und welches board braucht wohl mehr Layer? 512 oder 256.
grundsätzlich 512bit, allerdings kann man es mit einer hohen chipzahl und nem scheiss design auch bei 256bit schön verkacken, so dass auch dort soviele layers gebraucht werden.

Gast
2009-01-14, 15:56:53
Ne, hier hat er schon Recht, das wurde ja auch schon von anderen bestätigt. Alleine schon das man für einen simplen Die-Shrink eine B3-Revision benötigt spricht Bände. Normalerweise geht hier spätestens B1 in die Massenproduktion.

Der B3 ist eben kein simpler DIE-Shrink, da wurde noch richtig viel Arbeit investiert!

Der B2 gibt es ja schon länger (seit Sommer glaub) und die werden ja jetzt auf den GTX 260 verbaut und die haben null Vorteile gegen über dem G200-A2!

Zockerfrettchen
2009-01-14, 16:17:15
http://www.theinquirer.net/inquirer/news/399/1050399/nvidia-gt212-hasn-t-taped-out

Eben hat auch der Inquirer seine Bedenken im Bezug auf GT212 bekannt gegeben, kann man nur hoffen das da nichts dran ist nach dem Quartalseinbruch.......Konkurenz belebt das Geschäft, und macht mir meinen PC billiger, der im Sommer ansteht^^
Mfg Zockerfrettchen

aylano
2009-01-14, 16:19:41
Mal eine Frage, was wurde am B3 im Vergleich zu B2 viel gemacht???
Ich dachte mit der falschen DFM (ich hoffe es heißt so) war das 55nm-Design unbrauchbar.
Oder hatte das falsche DFM andere Auswirkungen a la Taktbarkeit, Stromverbrauch,...?????????

Gast
2009-01-14, 16:32:20
hört mir jetzt endlich mit diesem Inquirer auf, ich kann das zeug langsam nicht mehr sehen...

NV hat am B2 gar nichts falsch gemacht, der B2 hat einfach keine Vorteile gegen über dem A2-65nm! Was bei 55nm auch gar nicht anders zu erwarten war, das ist alles.

Der B1 war wohl nicht OK, aber dazu gibt es keine Infos.

AnarchX
2009-01-14, 16:40:36
Charlie nochmal:
Nvidia GT212 hasn't taped out (http://www.theinquirer.net/inquirer/news/399/1050399/nvidia-gt212-hasn-t-taped-out)

Fragt sich nur warum 185.20 schon Unterstützung für GT212 mitbringt. ;)

[fu]121Ah
2009-01-14, 16:49:41
ich liebe charlie :)

na mal schauen... wir werden bald sehen wie es da genau ausschaut...

Nakai
2009-01-14, 16:54:57
Was für ein Desaster. Ich bin zwar immer etwas mehr Pro-Ati, aber wenn NV keine Konkurrenz liefert, dann sehen wir alle in die Röhre. Nene, das will keiner. Der GT212 hat ja wirklich vielversprechend ausgesehen, hoffen wir, dass was ähnliches kommt.


mfg Nakai

Gast
2009-01-14, 18:06:28
wer sagt den das ATI überhaupt auch was bringt? So viel breiter als der RV770 kann der RV790 ja nun auch nicht sein.

und es gibt ja noch den GT214, der könnte wohl etwa die Leistung einer GTX 285 erreichen + GX2

Gast
2009-01-14, 18:11:51
GT214 = 256SP (8x32) / 64TMUs / 256Bit ???

Spasstiger
2009-01-14, 18:34:33
Da der GT216 oder der GT215 über 160 SPs und 40 TMUs verfügen soll, wären 256 SPs und 64 TMUs beim GT214 natürlich denkbar.

Mit 256 SPs, 64 TMUs und einem 256-Bit-SI @ GDDR5 wäre der GT214 jedenfalls rund 10-15% langsamer als der GT200b bei gleichen Taktraten. Der GT212 mit 384 SPs, 256-Bit-GDDR5-SI und 16 ROPs wäre nach meinem Modell um 10-15% schneller als der GT200b bei gleichen Taktraten. Und gegenüber dem GT214 wäre der GT212 um ~30% schneller.

/EDIT: Theoretisch berechnet:

http://www.abload.de/img/rating2llk8.png http://www.abload.de/img/rating1ks0r.png

Hinweise:
GT212 = 384 SPs, 96 TMUs, 256 Bit SI, 16 ROPs, GDDR5, Taktraten der GTX 285 angenommen => 648 MHz Chiptakt, 1476 MHz Shadertakt, 1242 MHz Speichertakt (ergibt bei GDDR5 knapp 5 Gbps Datenrate pro Pin)
GT214 = 256 SPs, 64 TMUs, 256 Bit SI, 16 ROPs, GDDR5, Taktraten der GTX 285 angenommen => 648 MHz Chiptakt, 1476 MHz Shadertakt, 1242 MHz Speichertakt (ergibt bei GDDR5 knapp 5 Gbps Datenrate pro Pin)
RV740 XT = 640 SPs, 32 TMUs, 128 Bit SI, 8 ROPs, GDDR5, Taktraten der HD 4870 angenommen => 750 MHz Chiptakt, 900 MHz Speichertakt (3,6 Gbps)
RV790 XT = 1280 SPs, 64 TMUs, 256 Bit SI, 16 ROPs, GDDR5, 750 MHz Chiptakt, 1250 MHz Speichertakt (5 Gbps)
Sparkle 9800 GTX+ 1024 MiB = 1000 MHz statt 1100 MHz Speichertakt

/EDIT2: RV740 und RV790 im Diagramm hinzugefügt.

V2.0
2009-01-14, 18:47:18
Kann man dafür GT214 25% höher takten....

Spasstiger
2009-01-14, 19:16:28
Kann man dafür GT214 25% höher takten....
Eventuell. Ich denke mal, dass man den GT214 so takten wird, dass er einen würdigen Ersatz für den GT200b darstellt. Mehr Taktpotential wird man dann nutzen, um dem RV790 etwas entgegenzustellen, sofern der GT212 nicht kommt.

Gast
2009-01-14, 19:39:29
Eventuell. Ich denke mal, dass man den GT214 so takten wird, dass er einen würdigen Ersatz für den GT200b darstellt. Mehr Taktpotential wird man dann nutzen, um dem RV790 etwas entgegenzustellen, sofern der GT212 nicht kommt.


Wer sagt denn, daß ein RV790 kommt?

Spasstiger
2009-01-14, 19:50:14
Wer sagt denn, daß ein RV790 kommt?
Die Spekulatius-Bäcker. Dass ATI vor dem D3D11-Chip Ende des Jahres noch was Schnelleres als den RV770 bringt, ist eigentlich schon zu erwarten. Denn zum Einen wird man definitiv auf 40 nm umsatteln und zum anderen ist der RV770 schon lange genug am Markt, dass gegen März oder April ein Refresh erscheint. Zumal ATI ja jetzt gute Chancen hat, wieder die Performancekrone an sich zu reißen, nachdem es bei NV offenbar mächtig kriselt und eine Verschiebung die nächste jagt.

aylano
2009-01-14, 20:11:41
nachdem es bei NV offenbar mächtig kriselt und eine Verschiebung die nächste jagt.
Ich habe mir vor paar Tagen die "The RV770 Story" auf AnandTech gelesen. Da stand AFAIK drinnen, dass die RV520 Verschiebung auch Auswirkungen (zusätzlich zu den R600-Tech-Problemen) auf R600 (=übernächster Chip) hatte.
Im schlimmeren Fall wird die GT200-Verschiebung wahrscheinlich auch noch Auswirkungen auf GT300 haben. Das wäre ja besonders bitter, wenn GT212 tatsächlich ausfallen würde. (oder Nvidia will das verhindern und cancelte die GT212, damit der GT300 ja nicht verschoben wird.)

Gast
2009-01-14, 20:19:06
Glaub ich kaum, da das GT300 Entwickler Team Garantiert nichts mit dem GT212 oder GT206 zutun hat/hatte.

und paralleles Arbeiten an verschiedenen Chips ist ja eigentlich Standard.

Es sei den das die 40nm Probleme machen, aber das dürfte wohl bis ende Jahr behoben sein...

Ailuros
2009-01-15, 09:18:33
Vor dem 295 launch war es auch nicht jedem klar ob das Ding letztendlich kommen wird oder nicht; Fudo berichtete kurz davor dass die AIBs ihm sagten dass die dual-GPU tot sein sollte.

NV laesst in letzter Zeit immer weniger nach aussen und man kann sich ueber wenig sicher sein heutzutage. Von dem abgesehen wenn der geplante performance 40nm chip von NV nicht bis Ende Q1 erscheinen sollte, dann kann es tatsaechlich sein dass sie irgendwelche Probleme mit 40nm haben koennten.

Auf jeden Fall bezweifle ich ernsthaft dass beide IHVs bis zu ihren fuer Q4 geplanten D3D11 Architekturen gar nichts mehr durch das Jahr vorstellen werden. Haette NV sparen wollen, haette man sich erstmal genauso die 295 sparen koennen u.a.

Gast
2009-01-15, 09:24:56
Wer sagt denn, daß ein RV790 kommt?

Es gibt auf jeden Fall einen RV790, das ist sicher. Nur wann er kommt ist noch nicht klar.

Gast
2009-01-15, 11:05:31
Es gibt auf jeden Fall einen RV790, das ist sicher. Nur wann er kommt ist noch nicht klar.

Auf welcher AMD Roadmap steht denn ein RV790?

KonKorT
2009-01-15, 13:56:06
Charlie nochmal:
Nvidia GT212 hasn't taped out (http://www.theinquirer.net/inquirer/news/399/1050399/nvidia-gt212-hasn-t-taped-out)

Fragt sich nur warum 185.20 schon Unterstützung für GT212 mitbringt. ;)

Was schreibt Charlie denn da wieder? Natürlich hat der GT212 noch kein Tape-Out gehabt, wenn er für das zweite Quartal festgehalten ist. Keiner hat bisher von Anfang des zweiten Quartals gesprochen.
Vor Mitte Februar kann man ein Tape-Out des GT212 meiner Meinung nach auch nicht erwarten.

aylano
2009-01-15, 14:43:30
Vor Mitte Februar kann man ein Tape-Out des GT212 meiner Meinung nach auch nicht erwarten.
Wenn das Tape-Out erst Mitte Februar ist, kommt der GT212 dann nicht erst frühestens Anfang 3Q???

http://www.theinquirer.net/inquirer/news/399/1050399/nvidia-gt212-hasn-t-taped-out
Given a test run/first silicon time after tapeout of ~10 weeks, and then another 12 for production, that would put it in Q3 anyway,...

Coda
2009-01-15, 16:30:14
Wer sagt, dass Inq nicht nur Scheiße schreibt?

Ailuros
2009-01-16, 09:01:19
Wenn das Tape-Out erst Mitte Februar ist, kommt der GT212 dann nicht erst frühestens Anfang 3Q???

http://www.theinquirer.net/inquirer/news/399/1050399/nvidia-gt212-hasn-t-taped-out

22 Wochen = 5.5 Monate

Mitte Februar + 5.5 Monate = Anfang August.

Q3 = ab September

Es muss nicht Mitte Februar sein, aber bis zu dem Zeitpunkt kann noch keiner wissen ob sich der chip verspaeten wird oder nicht.

reunion
2009-01-16, 09:07:51
Q3 = ab September


Achja? :D

Ailuros
2009-01-16, 09:17:18
Achja? :D

Mist ich sollte nicht bei der Arbeit posten; Quartale haben nur 3 Monate *rennt gegen die Wand*:mad:

KonKorT
2009-01-16, 14:08:26
Ich finde diese 22 Wochen sehr hoch gegriffen. Dachte eher an ~ 14-16 Wochen, was dann auch einen Launch im späten, zweiten Quartal zulassen würde.

Gast
2009-01-16, 15:33:43
Verschiebt sich dadurch nicht auch der GT300 ?? Auch wenn die mehrere Teams haben, aber Marketingtechnisch wird es doch ein wenig nach hinten geschoben oder mehr Zeit für das GT300-Team in Aussicht gestellt.

MfG

Spasstiger
2009-01-16, 15:44:12
Verschiebt sich dadurch nicht auch der GT300 ?? Auch wenn die mehrere Teams haben, aber Marketingtechnisch wird es doch ein wenig nach hinten geschoben oder mehr Zeit für das GT300-Team in Aussicht gestellt.

MfG
Wenn der GT212 dem geplanten GT300-Release zu nahe kommen sollte, lässt man den GT212 einfach fallen. Die anderen GT21x-Chips kann man ja trotzdem rausbringen. Und viel Entwicklungsarbeit hätte man auch nicht verloren, weil ja die kleineren GT21x-Chips aus den gleichen Bausteinen bestehen wie der GT212.

Sorkalm
2009-01-16, 15:52:52
Wenn der GT212 dem geplanten GT300-Release zu nahe kommen sollte, lässt man den GT212 einfach fallen. Die anderen GT21x-Chips kann man ja trotzdem rausbringen. Und viel Entwicklungsarbeit hätte man auch nicht verloren, weil ja die kleineren GT21x-Chips aus den gleichen Bausteinen bestehen wie der GT212.

Naja, du gehst davon aus, das GT212 und GT300 das gleiche Marktsegment abdecken. Ich würde die aber eher in die Kategorien Performance und High-End einordnen, ähnlich dem Verhältnis G92 und GT200 zueinander. Und dann macht das Fallen lassen nicht mehr so viel Sinn.

Psychopat
2009-01-16, 16:06:27
Wenn du G92 und G200 vergleichst, dann siehst du ja auch das sich eine GTX 260 (erst recht in alter 192 Shader Ausführung) nur bedingt von einer 9800GTX+ absetzten kann. Das Marktsegment des vollen G212 kann man durch einen teildeaktivierten G300 bedienen.

Spasstiger
2009-01-16, 16:12:34
Naja, du gehst davon aus, das GT212 und GT300 das gleiche Marktsegment abdecken. Ich würde die aber eher in die Kategorien Performance und High-End einordnen, ähnlich dem Verhältnis G92 und GT200 zueinander. Und dann macht das Fallen lassen nicht mehr so viel Sinn.
Der GT214 kommt ja auch noch und der wird wahrscheinlich (je nach Taktraten) schon auf GT200-Niveau liegen. Und der GT212 wäre auch nur rund 30% schneller. Wenn man davon ausgeht, dass der GT300 nochmal 30% schneller wird, hätte man 70% Leistungsvorteil für den GT300 gegenüber dem GT214. So ungewöhnlich wäre diese Leistungslücke imo nicht. Den GT212 würden zudem viele wegen fehlendem D3D11 meiden, wenn der GT300 schon da ist.

KonKorT
2009-01-16, 16:51:38
Wenn der GT212 dem geplanten GT300-Release zu nahe kommen sollte, lässt man den GT212 einfach fallen. Die anderen GT21x-Chips kann man ja trotzdem rausbringen. Und viel Entwicklungsarbeit hätte man auch nicht verloren, weil ja die kleineren GT21x-Chips aus den gleichen Bausteinen bestehen wie der GT212.

Wie Sorkalm schon schrieb: GT212 zu GT300 wird sich mindestens wie G92 zu GT200 verhalten. Ich bin mir ziemlich sicher, dass die Differenz sogar noch deutlich höher ausfällt. Dementsprechend wird selbst ein abgespeckter GT300 dem GT212 nur müde zulächeln.

Und bis GT300 für die kleineren Segmenten wie Performance und Mainstream da ist, wird es mindestens 1H/2010 sein.
GT212 hat definitiv seine Daseinsberechtigung und wird nach jetziger Planung im Sommer auflaufen. Und bitte macht den GT214 nicht immer stärker, als er vermutlich wird, sofern er überhaupt noch kommen wird.

Spasstiger
2009-01-16, 17:03:34
Wie Sorkalm schon schrieb: GT212 zu GT300 wird sich mindestens wie G92 zu GT200 verhalten. Ich bin mir ziemlich sicher, dass die Differenz sogar noch deutlich höher ausfällt. Dementsprechend wird selbst ein abgespeckter GT300 dem GT212 nur müde zulächeln.
Wenn wir jetzt mal nach deinen Aussagen davon ausgehen, dass der GT300 doppelt so schnell wird wie der GT200, dann bräuchte man auch ca. doppelt soviele Transistoren. Je nach Taktpotential auch etwas weniger als doppelt soviel. Zwar wird man wohl die Recheneffizienz etwas steigern können, aber man muss ja auch D3D11-Unterstützung einbauen.
Durch den Wechsel von 65 nm auf 40 nm halbiert sich der reale Flächenbedarf ungefähr (nach den Angaben von TSMC). Also wird man im Endeffekt ja wieder fast bei einer Monster-GPU wie dem GT200 in 65 nm landen. Und ich glaube nicht, dass NV das will. Der GT300 wird imo maximal 400 mm² groß, eher wird man 350 mm² anstreben. Das ist einfach wirtschaftlicher.

GeneralHanno
2009-01-16, 17:51:37
glaub ich gar nicht ;)
ich denke der GT300 wird auch wieder über 400mm² haben ...

Sorkalm
2009-01-16, 17:59:18
Wenn wir jetzt mal nach deinen Aussagen davon ausgehen, dass der GT300 doppelt so schnell wird wie der GT200, dann bräuchte man auch ca. doppelt soviele Transistoren. Je nach Taktpotential auch etwas weniger als doppelt soviel. Zwar wird man wohl die Recheneffizienz etwas steigern können, aber man muss ja auch D3D11-Unterstützung einbauen.

Naja, man muss mal schauen wie sich durch D3D11 vll. große Änderungen an der Architektur ergeben. Nur: Die dementsprechenden Entwicklungen laufen dann schon ziemlich lange...

Durch den Wechsel von 65 nm auf 40 nm halbiert sich der reale Flächenbedarf ungefähr (nach den Angaben von TSMC). Also wird man im Endeffekt ja wieder fast bei einer Monster-GPU wie dem GT200 in 65 nm landen. Und ich glaube nicht, dass NV das will. Der GT300 wird imo maximal 400 mm² groß, eher wird man 350 mm² anstreben. Das ist einfach wirtschaftlicher.

Schon der Wechsel von 55 nm zu 40 nm bringt nach den Angaben von TSMC einen Faktor von 0,5008, also ziemlich genau die Halbierung. Und wenn der GT300 als High-End-GPU ursürnglich mal geplabnt war, also irgendwas >400 mm² oder so, dann wird man wohl so kurzfristig (was jetzt oder in den letzten Monaten wäre) davon wohl nicht mehr abrücken können. Das sehen wohl erst in der Zeit nach GT300...

Spasstiger
2009-01-16, 20:22:11
Schon der Wechsel von 55 nm zu 40 nm bringt nach den Angaben von TSMC einen Faktor von 0,5008
Diese Zahl hab ich jetzt nicht gefunden, aber ich mich mit dem Faktor 2 tatsächlich geirrt. Für den Wechsel von 65 nm auf 40 nm gibt TSMC eine um den Faktor 2,35 steigende Logikdichte an. Siehe das im Startposting verlinkte Dokument (klick mich (http://www.tsmc.com/download/english/a05_literature/02_40_and_45_Nanometer_Process_Technology.pdf)).

Also würde man bei angenommenen 2,8 Mrd. Transistoren und einem ähnlichen Transistoraufbau wie beim GT200 auf eine Fläche von 490 mm² kommen. Evtl. erlaubt der 40-nm-Prozess auch höhere Taktraten, dann würde man evtl. mit 2,3 Mrd. Transistoren und 400 mm² Fläche auskommen, um auf die doppelte GT200-Leistung zu kommen.

Und wenn der GT300 als High-End-GPU ursürnglich mal geplabnt war, also irgendwas >400 mm² oder so, dann wird man wohl so kurzfristig (was jetzt oder in den letzten Monaten wäre) davon wohl nicht mehr abrücken können. Das sehen wohl erst in der Zeit nach GT300...
Das ist natürlich denkbar und wäre in der momentanen Situation eher ungünstig für NV. Zwar sind große Chips für einen gewissen Kundenkreis durchaus erfreulich, aber im Wettbewerb mit AMD/ATI sind derzeit kompaktere Chips besser für den Umsatz und den Gewinn. 400-500€ macht momentan kaum noch jemand für eine Grafikkarte locker. Zudem gibts momentan ja schon fast 2*GT200-Leistung für 400€, die GTX 295. Da darf die GT300-basierende Grafikkarte in fast erst einem Jahr auf keinen Fall 400€ kosten, wenn sie nicht wesentlich höhere Frameraten in Benchmarks raushaut (sonst gibts schlechte Presse). NV muss für schnellsten Single-GPU-Karten momentan 300€ anpeilen.

Auf eine Sache bin ich noch sehr gespannt, was den 40-nm-Prozess angeht:
AMD/ATI hat ja den 55-nm-Prozess (r)evolutioniert, indem sie beim RV770 die Logikdichte bei gleicher Fertigungstechnologie um 20% gegenüber dem RV670 steigern konnten. Gegenüber NV hat AMD/ATI dadurch selbst im 55-nm-Prozess noch einen Vorteil von 19% (vs. G92b) bzw. 23% (vs. GT200b). NV hat also noch deutliches Potential bei der Transistordichte, wenn sie die Ticks und Kniffe von AMD/ATI nachahmen können. Umgekehrt ist es unklar, ob AMD/ATI den bisherigen Vorteil vollständig in den 40-nm-Prozess mit übernehmen kann. Vielleicht hat man ja bewusst gewisse Designregeln etwas weniger streng genommen, weil der 55-nm-Prozess gut genug dafür war. Beim 40-nm-Prozess ist das möglicherweise nicht mehr der Fall.

master_blaster
2009-01-20, 14:23:42
Wie gesichert ist eigentlich, dass der GT212 mit 'nem halbierten (256er) Bus daherkommt?
S.h. auch hier (http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2009/januar/erste_details_nvidias_gt212-chip).

Ailuros
2009-01-20, 14:53:35
Wenn wir jetzt mal nach deinen Aussagen davon ausgehen, dass der GT300 doppelt so schnell wird wie der GT200, dann bräuchte man auch ca. doppelt soviele Transistoren.
Je nach Taktpotential auch etwas weniger als doppelt soviel. Zwar wird man wohl die Recheneffizienz etwas steigern können, aber man muss ja auch D3D11-Unterstützung einbauen.
Durch den Wechsel von 65 nm auf 40 nm halbiert sich der reale Flächenbedarf ungefähr (nach den Angaben von TSMC). Also wird man im Endeffekt ja wieder fast bei einer Monster-GPU wie dem GT200 in 65 nm landen. Und ich glaube nicht, dass NV das will. Der GT300 wird imo maximal 400 mm² groß, eher wird man 350 mm² anstreben. Das ist einfach wirtschaftlicher.

Jeder IHV hat mit jeder neuen Generation 2x mal die Leistung des Vorgaengers. Das Ziel ist so alt wie die Voodoo1.

Dass sich die Transistoren-anzahl verdoppeln koennte will ich nicht ausschliessen, aber irgendwelche spekulative Mathe was GT3x0 betrifft ist momentan nutzlos weil das Ding eben nicht vergleichbar mit seinen Vorgaengern ist. Ausser man sieht den G80 als eine "8-quad G70" Variante an; und ja hier ist der Unterschied in Transistoren tatsaechlich 381M (681 vs. 300), aber die 8800GTX ist um im Grund auch um einiges schneller als nur 2.27x Mal.

GT3x ist der naechste logische Schritt nach der ziemlich "einfachen" Taktungslogik von G80; es deutet aber auch wiederrum an dass erstmal die Effizienz pro Transistor um einiges steigen wird und man mit den meisten heutigen Einheiten (wie z.B. die G8x/GT2x0 TMUs) nichts mehr anfangen kann. Und ja mit dem Zeug sind wir schon wieder im falschen Thread LOL...

Auf eine Sache bin ich noch sehr gespannt, was den 40-nm-Prozess angeht:
AMD/ATI hat ja den 55-nm-Prozess (r)evolutioniert, indem sie beim RV770 die Logikdichte bei gleicher Fertigungstechnologie um 20% gegenüber dem RV670 steigern konnten. Gegenüber NV hat AMD/ATI dadurch selbst im 55-nm-Prozess noch einen Vorteil von 19% (vs. G92b) bzw. 23% (vs. GT200b). NV hat also noch deutliches Potential bei der Transistordichte, wenn sie die Ticks und Kniffe von AMD/ATI nachahmen können.

AMD war gezwungen aus einer verkorksten R600 etwas anstaendiges herzustellen und hat dieses auch ausgezeichnet erreicht. Das heisst aber nun auch nicht dass es auch so weitergehen muss und ATI's Angestellte haben auch schon mehrere Male in Interviews angedeutet dass es nicht immer so blendend sein wird.

Und nein NVIDIA wird gar nichts nachmachen IMHLO. Jeglicher Fetzen von bisheriger GT3x0 Info deutet auf etwas revolutionaeres, wobei aber wie bei jedem Versuch man nie eine absolute Garantie in der Hand hat dass das Resultat auch wirklich so imposant sein wird wie es klingen mag.

Umgekehrt ist es unklar, ob AMD/ATI den bisherigen Vorteil vollständig in den 40-nm-Prozess mit übernehmen kann. Vielleicht hat man ja bewusst gewisse Designregeln etwas weniger streng genommen, weil der 55-nm-Prozess gut genug dafür war. Beim 40-nm-Prozess ist das möglicherweise nicht mehr der Fall.

Alle Indizien deuten auf einen weiteren Vorsprung fuer diesen Sommer fuer AMD was die Transistordichte betrifft mit 40nm, aber hoechstwahrschlich nicht zum gleichen Potential wie GT200b@55nm vs. RV770@55nm.

Es bleibt aber trotz allem dabei dass irgendwelche Schaetzungen fuer GT3x0@40nm auf GT21x0@40nm basierend nichts wert sein werden.

Gast
2009-01-22, 00:32:50
Warum sind eigentlich noch Reserven in der Stromversorgung auf dem PCB der GTX 285 vorhanden? Kommt da vielleicht noch eine "GTX 285 Ultra" oder ähnliches? Oder kommt da gar ein GT21x drauf?

siehe:

http://www.abload.de/thumb/gtxc1vn.jpg (http://www.abload.de/image.php?img=gtxc1vn.jpg)

HarryHirsch
2009-01-22, 00:34:28
Warum sind eigentlich noch Reserven in der Stromversorgung auf dem PCB der GTX 285 vorhanden? Kommt da vielleicht noch eine "GTX 285 Ultra" oder ähnliches? Oder kommt da gar ein GT21x drauf?

siehe:

http://www.abload.de/thumb/gtxc1vn.jpg

Na bestimmt.

Psychopat
2009-01-22, 15:05:39
Ich könnte mir vorstellen das für Bordpartner die Möglichkeit existiert, für OC-Versionen eine bessere Stromversorgung mit 6 pin + 8 pin Stecker zu verlöten. Müsste man mal nachschauen ob eine OC Version einen 8 pin Stecker hat.

AnarchX
2009-01-23, 12:54:22
Zwei 40nm GPUs hatten ihr Tapeout und sind für das frühe Q2 geplant bzw. gar noch März:
According to our well informed sources, Nvidia's next generation 40nm chip has been taped out and is getting ready for its launch.

There will be at least two new 40nm SKUs and Nvidia is aiming for a launch in early Q2 2009. Some sources indicate that Nvidia might even make it to March, which is the last month of Q1 but this will be a tough thing to achieve.
http://www.fudzilla.com/index.php?option=com_content&task=view&id=11632&Itemid=1

deekey777
2009-01-23, 12:56:05
GT216 und noch was kleineres?

AnarchX
2009-01-23, 12:57:05
GT216 und noch was kleineres?
Warum nicht etwas größeres? GT214/215? ;)

Ailuros
2009-01-23, 13:15:58
Zwei 40nm GPUs hatten ihr Tapeout und sind für das frühe Q2 geplant bzw. gar noch März:

http://www.fudzilla.com/index.php?option=com_content&task=view&id=11632&Itemid=1

Das zeigt erstmal was fuer ein Schwachsinn die angebliche "roadmap" einer Seite (welche war es nochmal?) genau war die ueber Q3 fuer performance chips schrieb.

Da wohl anscheinend alles nach Plan gelaufen ist mit dem Performance chip, sieht es ziemlich gut aus fuer 40nm und auch NVIDIA.

KonKorT
2009-01-23, 14:03:04
Das war VRZone (http://vr-zone.com/articles/nvidia-40nm-desktop-gpus-line-up-for-2009/6359.html?doc=6359).
Und Charlie scheint mit seinen zwei Meldungen der letzten Tage auch nur Hetze gegen Nvidia betrieben zu haben...

Spasstiger
2009-01-23, 15:02:29
Warum nicht etwas größeres? GT214/215? ;)
Zusätzlich zum GT216? Dann hätte man ja zwei Mainstream-Chips.
Ich denke mal, dass eine Entry-Level-GPU und eine Mainstream-GPU den Tapeout hinter sich haben.
Z.B. GT218 und GT214/GT215. Oder der GT216 ist doch nicht so stark wie ihn die Gerüchte sehen wollen und es läuft doch auf GT216 + GT214/215 raus.

Rein von der Namensgebung her sollte man beim GT216 ja eher was aus dem Entry-Level erwarten analog zum G96. Also eher was in der Gegend von 96 SPs, 24 TMUs, 128-Bit-GDDR5 und somit ~G94-Performance.

Gast
2009-01-23, 15:13:45
Ich tippe jetzt auch auf GT214, NV muss so schnell wie möglich den GT206 ablösen und da der GT214 wohl ca. in der selben Leistungs-Klasse ist wäre das nur eine logische Entscheidung von NV...

reunion
2009-01-23, 15:14:56
Mal abwarten. Momentan steht ja Aussage gegen Aussage.

Spasstiger
2009-01-23, 15:20:26
Wenn man den bisherigen Erkenntnissen zum GT212 Glauben schenken darf, dann wäre folgendes eigentlich eine schöne und ausgewogene Staffelung:

High-End: 384 SPs, 96 TMUs, 256-Bit-SI-GDDR5
Mainstream: 192 SPs, 48 TMUs, 128-Bit-SI-GDDR5 (optional GDDR3 für abgespeckte Varianten)
Entry-Level/Budget: 96 SPs, 24 TMUs, 64-Bit-SI-GDDR5 (optional GDDR3 für abgespeckte Varianten)

Also von Segment zu Segment immer eine Verdoppelung der Performance bei gleichem Takt. Die GPUs könnten dann z.B. GT212, GT214 und GT216 heißen. Der GT218 wäre dann höchstens noch eine IGP-Variante (z.B. 32-64 SPs, 8-16 TMUs, 64-Bit-SI @ DDR2/DDR3).

dargo
2009-01-23, 16:21:24
High-End: 384 SPs, 96 TMUs, 256-Bit-SI-GDDR5

Kann man dieses 256Bit SI schon als bombensicher abstempeln? Das fände ich echt schade. Eigendlich wollte ich bei meiner nächsten Grafikkarte irgendwas mit 1,28 bzw. 1,53GB Vram haben was ja nur mit 320 bzw. 384Bit SI realisierbar wäre. Mit 256Bit ist man wieder "nur" auf 1GB Vram beschränkt. ;( 2GB werden sicherlich auch machbar sein, aber:

1. fraglich ob es solche Karten geben wird
2. dürfte ziemlich teuer sein

AnarchX
2009-01-23, 16:29:51
2GB werden sicherlich auch machbar sein, aber:

1. fraglich ob es solche Karten geben wird
2. dürfte ziemlich teuer sein
Wenn 1GiB Standard sind dann werden sicherlich einige Hersteller auch 2 verbauen. Und so teuer dürfte das ja auch nicht sein, momentan werden ja 2GiB GDDR5 zusammen mit 2 GPUs für 350€ verkauft, bei GT212 ist ja dann eine GPU und wohl auch nur acht 2048MBit Chips.

High-End wie es G80 oder G200A war würde ich eher nicht hinter GT212 erwarten, eher eine Performance-GPU bzw. Basis der Non-GX2-High-End-SKU.

dargo
2009-01-23, 16:57:37
High-End wie es G80 oder G200A war würde ich eher nicht hinter GT212 erwarten, eher eine Performance-GPU bzw. Basis der Non-GX2-High-End-SKU.
Naja, aber laut Spasstiger soll der GT212 mit:
384 SPs, 96 TMUs, 256-Bit-SI-GDDR5

kommen.

Je nachdem wie die Taktraten ausfallen ist das schon eine Verdoppelung der arithmetischen Leistung im Vergleich zu meiner GTX 260. Für mich ist das schon High-End. :D Wobei man sich hier wieder fragen muss ob eine Verdoppelung dieser Leistung auch in Games 1:1 in mehr Frames umgewandelt wird. Schließlich werden andere Teilbereiche nicht verdoppelt.

AnarchX
2009-01-23, 17:11:53
Schau mal hier:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7018341&postcount=981
... da hat Spasstiger auf Basis eines ziemlich guten Modells die Leistung von der aktuellen GT212-Spekulation simuliert.

Eine GTX 295 wird man da rein von den FPS nicht schlagen können.

Die Arithmetische Leistung würde natürlich auf dem Papier bei GT212 stark steigen, aber mit 4 Shadercores pro Cluster wäre man aber wohl etwas weniger effektiv wie GT200 mit 3.

Spasstiger
2009-01-23, 17:23:56
Schau mal hier:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7018341&postcount=981
... da hat Spasstiger auf Basis eines ziemlich guten Modells die Leistung von der aktuellen GT212-Spekulation simuliert.
Ich hatte da die Pixelfüllrate etwas zu stark gewichtet.
Mein aktuelles Modell ergibt 11% Leistungsvorteil für eine GT212 mit 16 ROPs gegenüber einer GTX 285 (32 ROPs) bei gleichen Taktraten.

Geht man optimistisch von 700 MHz Chiptakt, 1600 MHz Shadertakt und 1,25 GHz Speichertakt (5 Gbps) bei der GT212 aus, wäre sie um 18% schneller als die GTX 285.

AnarchX
2009-01-23, 17:35:34
... und damit auch nichts was nicht auch ein 1280SPs-RV790 in etwa schaffen könnte, den AMD wohl wieder für $299 anbieten würde.

LovesuckZ
2009-01-23, 17:46:24
Ich hatte da die Pixelfüllrate etwas zu stark gewichtet.
Mein aktuelles Modell ergibt 11% Leistungsvorteil für eine GT212 mit 16 ROPs gegenüber einer GTX 285 (32 ROPs) bei gleichen Taktraten.

Geht man optimistisch von 700 MHz Chiptakt, 1600 MHz Shadertakt und 1,25 GHz Speichertakt (5 Gbps) bei der GT212 aus, wäre sie um 18% schneller als die GTX 285.

Auf welcher Konfigurationbasis?

KonKorT
2009-01-23, 17:55:09
... und damit auch nichts was nicht auch ein 1280SPs-RV790 in etwa schaffen könnte, den AMD wohl wieder für $299 anbieten würde.

Hast Du eine Quelle für 1280 SPs beim RV790?

Gast
2009-01-23, 19:21:05
Glaube kaum das der GT212 nur 16ROPs haben wird, jedenfalls sicher keine gleichwertigen ROPs wie beim G200.

somit dürfte man schon von 30%+ gegenüber 285 ausgehen können.

AnarchX
2009-01-23, 19:47:49
Glaube kaum das der GT212 nur 16ROPs haben wird, jedenfalls sicher keine gleichwertigen ROPs wie beim G200.

somit dürfte man schon von 30%+ gegenüber 285 ausgehen können.
Selbst wenn man mit 32 ROPs rechnet, dann kommt man auf keine 30%, dafür sind die Steigerung im Bezug auf Bandbreite und Texelfüllrate einfach zu gering.
Und große Änderungen an der Architektureffizienz wird NV wohl auch nicht mehr machen, wenn GT300 hier einen deutlichen Sprung machen wird.

Gast
2009-01-23, 20:20:56
Selbst wenn man mit 32 ROPs rechnet, dann kommt man auf keine 30%, dafür sind die Steigerung im Bezug auf Bandbreite und Texelfüllrate einfach zu gering.
Und große Änderungen an der Architektureffizienz wird NV wohl auch nicht mehr machen, wenn GT300 hier einen deutlichen Sprung machen wird.

Es könnten sogar 40%+ sein:

20% mehr TMUs
60% mehr SPs
40% mehr Speicherbandbreite (1750Mhz)

macht im Schnitt ca 40% mehr Leistung. Wenn man die GPU dann noch höher takten könnte dank 40nm sind es sogar noch mehr!

pervert
2009-01-23, 22:35:33
Wann gab es schonmal eine neue GPU die nicht wenigstens 30+% (eher 50%) schneller war?

Wenn der GT212 die nächste High End Single GPU Lösung werden sollte (wenn vielleicht auch nur für ein halbes Jahr), wird er hier permanent unterschätzt würde ich vermuten. Man sollte nicht immer auf Basis der Leistungsfähigkeit aktueller Chips/Recheneinheiten hochrechnen. Das ist doch höchstens ein worst case scenario. ATI schläft nicht und NV weiß das. Die können sich nicht einfach bis zum GT300 ausruhen und hoffen das alles gut geht!

Meine Kristallkugel sagt mir: Mindestens 30% schneller, wenn es keine schnellere Single gibt bis zum GT300. ;)

Spasstiger
2009-01-23, 22:38:32
Wann gab es schonmal eine neue GPU die nicht wenigstens 30+% (eher 50%) schneller war?
G92 vs. G80.
Der GT212 ist nur ein Refresh des GT200, um die Kosten zu senken und die CUDA-Rechenleistung zu steigern (Stichwort Teraflops-Computing). Die Spieleleistung wird nicht so exorbitant steigen. Alles über 30% Steigerung in Spielen gegenüber der GTX 285 halte ich für unrealistisch. Man muss ja auch den Abstand zum GT300 wahren. Wenn der GT300 doppelt so schnell werden soll wie der GT200b und der GT212 ist bereits 50% schneller als der GT200b, dann wäre der GT300 nach Adam Riese nur 33% schneller als der GT300. Psychologisch kommt so eine 33%-Steigerung beim Käufer nicht gut an. Wird der GT212 dagegen nur 20% schneller als der GT200, hätten zum einen die unentschlossenen G80- und G92-Besitzer endlich einen Grund zum Upgrade und der GT300 würde mit einer Performancesteigerung von 67% gegenüber dem GT212 auch wieder attraktiv wirken.

Die bekannten GT212-Specs (384 SPs, 96 TMUs, 256 Bit SI, GDDR5) halte ich eigentlich für glaubwürdig und ich denke nicht, dass NV da noch was oben drauf setzt.

Es könnten sogar 40%+ sein:

20% mehr TMUs
60% mehr SPs
40% mehr Speicherbandbreite (1750Mhz)

macht im Schnitt ca 40% mehr Leistung. Wenn man die GPU dann noch höher takten könnte dank 40nm sind es sogar noch mehr!
Man darf nicht vergessen, dass sich die Pixelfüllrate, z-Füllrate und MSAA-Füllrate evtl. fast halbiert.
Auch an GDDR5-Speicher mit 7 Gbps glaube ich nicht, den wird man sich eher für den GT300 aufheben. Schließlich ist der GT212 ja insgesamt auf Kostenoptimierung ausgelegt und da passt der schnellste und teuerste GDDR5-Speicher nicht ganz ins Bild. Die Speicherbandbreite wird sich gegenüber dem GT200b vermutlich nicht erhöhen.

Gast
2009-01-23, 23:21:25
Man darf nicht vergessen, dass sich die Pixelfüllrate, z-Füllrate und MSAA-Füllrate evtl. fast halbiert.

ich bin mir sicher dass NV beim umstieg auf GDDR5 die ROPs überarbeitet, entweder durch eine weitere steigerung der Z/AA-fillrate oder aber indem man jede ROP-partiton an 32 statt 64bit des speicherinterfaces anschließt und damit die zahl gleich bleibt.

Gast
2009-01-24, 00:25:48
Selbst wenn man mit 32 ROPs rechnet, dann kommt man auf keine 30%, dafür sind die Steigerung im Bezug auf Bandbreite und Texelfüllrate einfach zu gering.
Und große Änderungen an der Architektureffizienz wird NV wohl auch nicht mehr machen, wenn GT300 hier einen deutlichen Sprung machen wird.

Mehr Takt dank 40nm mit eingerechnet? Also ich finde das 30% schon fast das mindeste ist, mit den Daten die bekannt sind, oder eben nicht ;)

Spasstiger
2009-01-24, 01:05:34
Mehr Takt dank 40nm mit eingerechnet? Also ich finde das 30% schon fast das mindeste ist, mit den Daten die bekannt sind, oder eben nicht ;)
Schau mal, was der G92 vs. G94 auf die Straße bringt. Der G92 hat die doppelte Shaderleistung und Texelfüllrate gegenüber dem G94. Speicherinterface und ROPs sind gleich.
Laut Computerbase (http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_nvidia_geforce_gtx_295/20/#abschnitt_performancerating_qualitaet) ist selbst die 9800 GTX+, die ja deutlich höher taktet als die 9600 GT, nur rund 50% schneller als die 9600 GT.
Der GT212 wird aber gegenüber dem GT200 nur 60% mehr Shaderleistung und 20% mehr Texelfüllrate bei gleichem Takt bieten und nicht jeweils +100% wie beim G92 vs. G94. Um da +30% in den heutigen Spielen zu erreichen, müsste man den GT212 schon extrem hoch takten. Die Stärken des GT212 werden sich erst mit CUDA und PhysX zeigen.

Bei der Abschätzung von +11% für die GT212 gegenüber dem GT200 bei gleichen Taktraten hat sich übrigens für die 9800 GTX+ 512 MiB gegenüber der 9600 GT 512 MiB ein Vorteil von über 70% ergeben, was ja laut Computerbase-Rating nicht der Realität entspricht. Jetzt habe ich mal mein Modell so angepasst, dass die 9800 GTX+ nur noch um 52% gegenüber der 9600 GT führt. Und da sieht es dann beispielsweise so aus:

http://www.abload.de/img/gt212b33m.png

Aber an die Taktraten von 750 MHz Chiptakt, 1750 MHz Shadertakt und 1750 MHz Speichertakt (7 Gbps) glaube ich nicht wirklich. Es soll nur zeigen, was im Idealfall drin wäre.

pervert
2009-01-24, 03:26:14
G92 vs. G80.
Dieser Vergleich hinkt ja wohl klar, deshalb habe ich das extra nicht dazu geschrieben. Eigetnlich war der G92 ja nur ein Shrink. Ein simpler Refresh/Shrink kommt für mich nicht mit 60% mehr Shadereinheiten + mögl. Taktvorteil usw daher, auch wenn Du im Grunde nicht ganz daneben liegst mit dieser Bezeichnung. Trotzdem wird hier ein bisschen mehr geboten als mit dem ollen G92, der im Grunde nur mit höherem Takt daher kam UND zudem aber noch mit stark kastrierter Speicherbandbreite. Der G92 war eher ein Rückschritt, das ist der GT212 nicht, trotz Sparmaßnahmen. Und wer sagt, dass nicht im Detail noch einige kleine Verbesserungen an den Recheneinheiten o. ä. durchgeführt wurden?

Mal angenommen der Takt wird beim GT212 auch noch brauchbar gesteigert, sollte sich ein ähnlich erbärmliches Schauspiel wie G80->G92 nicht wiederholen. Zudem schrieb ich auch, dass die Marktsituation eine andere ist. NV KANN sich so einen Blödsinn wie mit dem G92 nicht noch einmal erlauben. Schneller als GTX295 würde ich aber auch in keinem Fall erwarten.

Unmöglich ist natürlich nichts, aber so dumm/arrogant/blind kann man bei NV nicht sein, einen "zweiten G92" zu bringen.


Man darf nicht vergessen, dass sich die Pixelfüllrate, z-Füllrate und MSAA-Füllrate evtl. fast halbiert.
Du meinst wegen der vermutlich halben ROP-Anzahl?


Übrigens: Wie kommst Du z. B. darauf, dass eine GTX295 nur 30% schneller ist als eine GTX285?
Also in den Benchmarks die ich kenne, sieht das doch etwas freundlicher (ca. +45%) zugunsten der Dual-Karte aus!? Jedenfalls in realen Anwendungen, abseits theoretischer Hochrechnungen.

Hier ein ganz frischer Test inkl. GTX285 SLI:
http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_nvidia_geforce_gtx_285_sli/20/#abschnitt_performancerating_qualitaet

Hugo
2009-01-24, 10:41:50
Ich denke es wird keine schnellere Singelchipkarte bis GT300 von NV geben.
Es gibt keinen Platz im Namensschema zw GTX285 und GTX295. Und NV hätte sich die Mühe mit der GTX285 da auch sparen können wenn in 2 Monaten schon wieder ein schnellerer Chip kommt. Sie hätten da wie bei der GTX260 einfach den Namen beibehalten und den G200b verbauen können.

NV wird mit den GT21x @40nm die 9600GT und 9800GT/GTX ablösen und vieleicht die GTX285 mit einem 40nm Chip ersetzen.

Gast
2009-01-24, 11:16:16
Schau mal, was der G92 vs. G94 auf die Straße bringt. Der G92 hat die doppelte Shaderleistung und Texelfüllrate gegenüber dem G94. Speicherinterface und ROPs sind gleich.

und damit auch die speicherbandbreite, dank GDDR5 sollte diese aber wohl trotz 256bit-interface ordentlich sein.

dargo
2009-01-24, 13:52:09
Schau mal, was der G92 vs. G94 auf die Straße bringt. Der G92 hat die doppelte Shaderleistung und Texelfüllrate gegenüber dem G94. Speicherinterface und ROPs sind gleich.
Laut Computerbase (http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_nvidia_geforce_gtx_295/20/#abschnitt_performancerating_qualitaet) ist selbst die 9800 GTX+, die ja deutlich höher taktet als die 9600 GT, nur rund 50% schneller als die 9600 GT.
Der GT212 wird aber gegenüber dem GT200 nur 60% mehr Shaderleistung und 20% mehr Texelfüllrate bei gleichem Takt bieten und nicht jeweils +100% wie beim G92 vs. G94. Um da +30% in den heutigen Spielen zu erreichen, müsste man den GT212 schon extrem hoch takten. Die Stärken des GT212 werden sich erst mit CUDA und PhysX zeigen.

Bei der Abschätzung von +11% für die GT212 gegenüber dem GT200 bei gleichen Taktraten hat sich übrigens für die 9800 GTX+ 512 MiB gegenüber der 9600 GT 512 MiB ein Vorteil von über 70% ergeben, was ja laut Computerbase-Rating nicht der Realität entspricht.

Doch, hier musst du aufpassen. :)

Um die Leistungsfähigkeit von Grafikkarten zeigen zu können muss man mit den Auflösungen und/oder AA-Stufen hoch hinaus um CPU-Limits auszuschließen. Der Nachteil hierbei liegt im Detail beim G92 und G94. Beide GPUs haben nur 512MB Vram. Dh., die G9800GTX+ kann ihren Vorteil nicht richtig umsetzen. Man sieht aber in bestimmten Settings und Games, dass es doch geht solange wie gesagt der Vram nicht überfüllt wird. Ich habe mal das Beispiel mit Stalker: Clear Sky in 1680x1050 1xAA/1xAF ausgesucht:
http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_nvidia_geforce_gtx_295/17/

Hier schlagen die +70% voll durch.

Edit:
Bei CoD5 sieht es ähnlich aus:
http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_nvidia_geforce_gtx_295/7/

In 1680x1050 1xAA/1xAF schlagen 61% durch. Schade, dass CB die G9600GT bei 2560x1600 nicht mitaufgenommen hat. Ich bin mir sicher, dass hier ebenfalls irgendwas im Bereich von +65-70% für die G9800GTX+ drin wären.

Jericho:
http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_nvidia_geforce_gtx_295/8/

+80% in 1680x1050 1xAA/1xAF für die G9800GTX+.

Spasstiger
2009-01-24, 15:05:19
und damit auch die speicherbandbreite, dank GDDR5 sollte diese aber wohl trotz 256bit-interface ordentlich sein.
Ja, natürlich. Selbst mit 32 ROPs wäre der GT212 vom GT200 aus ein kleinerer Sprung als vom G94 zum G92.

Übrigens: Wie kommst Du z. B. darauf, dass eine GTX295 nur 30% schneller ist als eine GTX285?
Das kommt durch die Korrektur, damit G92 vs. G94 passt.

@dargo: Ich orientiere mich in der Regel an 1680x1050 mit 4xAA außer ich habe eine extrem hohe VRAM-Last in mein Modell eingegeben. Aber ok, wenn die 9800 GTX+ wirklich das eine oder andere mal diesen Leistungsvorteil bringt, sollte man das schon würdigen. Bei hoher VRAM-Last würde die 9800 GTX+ übrigens näher an die 9600 GT rücken, auch wenn man 1 GiB vs. 1 GiB vergleicht, weil man dann ja auch zwangsweise eine höhere Bandbreitenbelastung hat. Irgendwie müssen die zusätzlichen Daten ja auch ins Bild gebracht werden.

Hier mal ein Diagramm ohne die Korrektur und bei 700 MiB VRAM-Last. Es ergeben sich 70% Leistungsvorteil für die 9800 GTX+ 512 MiB gegenüber der 9600 GT 512 MiB. Die 9800 GTX+ 1024 MiB (1000 MHz Speichertakt statt 1100 MHz) liegt um 69% vor der 9600 GT 1024 MiB. Die GTX 295 liegt hier um 45% vor der GTX 285, was sich ja mit Computerbase deckt, und die GT212-Karte mit 16 ROPs wäre bei Taktgleichheit um 10% schneller als die GTX 285. Mit 32 ROPs wäre die GT212-Karte bei Taktgleichheit um 23% schneller als die GTX 285. Ich persönlich hoffe ja auch auf 32 ROPs, aber bisher gibts keine Hinweise darauf, dass NV die ROP-Partitionen überarbeitet hätte.

http://www.abload.de/img/9600gt_gt212rffk.png

Man muss immer im Hinterkop haben, dass der GT300 aus psychologischen Gründen schon 50% Leistungsvorteil gegenüber dem GT212 haben sollte. Und wenn der GT300 nicht wieder so ein Riesenchip wie der GT200 in 65 nm wird oder die Rechenleistung pro Transistor nicht deutlich gesteigert wird, sollte man beim GT300 bestenfalls 100% Leistungsvorteil gegenüber dem GT200 erwarten.
Und um von +50% (Faktor 1,5) auf +100% (Faktor 2) zu kommen, muss man die Leistung um 33% steigern. Ich persönlich denke deshalb, dass die GT212-Karte rund 30% schneller wird als die GTX 285. Das Ganze natürlich auf nur 61% der Chipfläche des GT200b und mit einem kosteneffizienten 256-Bit-SI @ vermutlich 5-Gbps-GDDR5-Speicher. So dürfte man die Kosten gegenüber einer GTX 285 wohl um 30% senken können und wäre flexibler im Preiskampf mit AMD. 30% weniger Herstellungskosten bei 30% mehr Leistung wären doch schon ganz ordentlich oder meint ihr nicht?

/EDIT: Mit 32 ROPs, 702 MHz Chiptakt, 1620 MHz Shadertakt und 1250 MHz Speichertakt (5 Gbps) wäre die GT212-basierende Karte um 31% schneller als die GTX 285.

V2.0
2009-01-24, 15:48:43
Das entscheidende ist der Markt. NV braucht nicht jemanden der seinen G200b abgibt, er braucht ejmanden der seinen G80/G92 eintauscht. Dafür muss die Karte nur auf GT285 Niveauliegen, weniger kosten und am besten nur einen 6-PIN Anschluss benötigen.

dargo
2009-01-24, 16:09:57
@dargo: Ich orientiere mich in der Regel an 1680x1050 mit 4xAA außer ich habe eine extrem hohe VRAM-Last in mein Modell eingegeben.

Und das ist eben der "Fehler". :)

Die G9600GT hat ein besseres Verhältnis zwischen Speicherbandbreite und Rohleistung als die G9800GTX+. Das sieht man auch an Benchmarks mit AA.
Wie der GT212 im Endeffekt mit AA skaliert hängt sehr davon ab wie hoch NV die Bandbreite auswählt. Schön wäre natürlich auch wenn NV es gelingen sollte die Bandbreite beim GT212 schonender zu gebrauchen. Denn, ich kann mir nicht vorstellen, dass der GT212 eine um 60% höhere Speicherbandbreite spendiert bekommt. Das müssten 226GB/s sein. :ugly:


Man muss immer im Hinterkop haben, dass der GT300 aus psychologischen Gründen schon 50% Leistungsvorteil gegenüber dem GT212 haben sollte. Und wenn der GT300 nicht wieder so ein Riesenchip wie der GT200 in 65 nm wird oder die Rechenleistung pro Transistor nicht deutlich gesteigert wird, sollte man beim GT300 bestenfalls 100% Leistungsvorteil gegenüber dem GT200 erwarten.

Wenn ich Ail richtig verstanden habe dürfte der GT300 >Faktor 2 schneller sein als der GT200. Außerdem soll die Leistung pro Watt sehr gut sein. Wer weiß, vielleicht erwartet uns eine ähnliche Leistungssteigerung wie vom G71 auf G80.

Gast
2009-01-24, 16:16:20
Wenn NV mit dem GT212 nur den G200 ersetzen möchten hätte die GPU nicht 384SP sondern 240SP und es wäre ein einfacher DIE Shrink mit GDDR5...

Man ersetzt ein Produkt nicht mit einem neuen das gut 80% mehr ALU Leistung hat um kosten zu Sparen, das macht doch keinen Sinn.

AnarchX
2009-01-24, 16:21:55
Man ersetzt ein Produkt nicht mit einem neuen das gut 80% mehr ALU Leistung hat um kosten zu Sparen, das macht doch keinen Sinn.
8800 GT verpasst? Die hat ja im Endeffekt auch die 8800 GTS 640 ersetzt.

Und wie Spasstiger schon weiter oben schrieb, die Steigerung auf 384SPs könnte eher für das Tesla bzw. Quadro-Lineup sein.

LovesuckZ
2009-01-24, 16:25:32
Das ist ein falscher Vergleich. Du vergleichst eine mögliche Konfiguration - aber nicht die Chips. Die 8800GTS-640 hätte auch 7 Cluster besitzer oder die 8800GT hätte auch 6 Cluster mit der Taktrate einer 9600gt bzw. 8800gts-512 haben können.

Spasstiger
2009-01-24, 16:26:11
Man ersetzt ein Produkt nicht mit einem neuen das gut 80% mehr ALU Leistung hat um kosten zu Sparen, das macht doch keinen Sinn.
Du vergisst CUDA, da schlägt die höhere arithmetische Leistung voll durch. Nvidia fährt halt aus Resourcengründen keine getrennten GPU-Serien für Computing und 3D-Grafik. Und für PhysX braucht ja auch die Consumerserie genug Shaderleistung. Evtl. kann der GT212 PhysX in den heutigen PhysX-Spielen ohne spürbare Performanceeinbußen berechnen.

Außerdem wäre der GT212 mit 8 Shaderclustern (256 SPs und 64 TMUs) langsamer als der GT200, selbst wenn 32 ROPs verbaut werden und die Speicherbandbreite dank GDDR5 gleich bleibt.
240 SPs sind beim GT212 aufgrund der neuen Shadercluster gar nicht möglich.

dargo
2009-01-24, 16:32:54
Außerdem wäre der GT212 mit 8 Shaderclustern (256 SPs und 64 TMUs) langsamer als der GT200, selbst wenn 32 ROPs verbaut werden und die Speicherbandbreite dank GDDR5 gleich bleibt.

Um wieviel %? :)

Spasstiger
2009-01-24, 16:46:36
Um wieviel %? :)
GTX 285: 100%
GT212 8 Cluster 16 ROPs: 87%
GT212 8 Cluster 32 ROPs: 97%
GT212 12 Cluster 16 ROPs: 111%
GT212 12 Cluster 32 ROPs: 123%

Alles bei 648 MHz Chiptakt, 1476 MHz Shadertakt und 1242 MHz Speichertakt.

dargo
2009-01-24, 16:55:16
GTX 285: 100%
GT212 8 Cluster 16 ROPs: 87%
GT212 8 Cluster 32 ROPs: 97%

Gut, ersteres wäre nicht so schön. Das würde bedeuten, dass die GTX285 15% schneller wäre. Im zweiten Fall ist das imo Peanuts. Die 3% holt man mit entsprechend höherer Taktrate mit 40nm mühelos auf.

Spasstiger
2009-01-24, 16:57:40
Gut, ersteres wäre nicht so schön. Das würde bedeuten, dass die GTX285 15% schneller wäre. Im zweiten Fall ist das imo Peanuts. Die 3% holt man mit entsprechend höherer Taktrate mit 40nm mühelos auf.
NV will aber einen schnelleren Chip anbieten, um G80- und G92-Besitzer zu einem Umstieg zu überzeugen. Außerdem muss man dem RV790 etwas entgegenstellen und für CUDA kann man mit 12 Clustern die Rechenleistung auch günstig steigern.

dargo
2009-01-24, 17:10:04
NV will aber einen schnelleren Chip anbieten, um G80- und G92-Besitzer zu einem Umstieg zu überzeugen.
Das ist mir schon bewußt. :)

Ich dachte nur zuerst, dass der GT212 mit gleichen Daten deiner Meinung nach deutlich langsamer wäre, zumindest habe ich das so verstanden. Und mit 32 ROPs sehe ich da kaum Unterschiede. 3% sind für mich nichts. Und wenn ich jetzt die 384 SPs drauf rechne - das ist schon ein starkes Stück gegenüber dem GT200/206, immerhin 60%. Ich bin nur auf die Speicherbandbreite gespannt. Hast du zufällig auch die mögliche Pixel- und Texelfüllrate vom GT212 parat?

Ailuros
2009-01-24, 17:19:32
Wenn ich Ail richtig verstanden habe dürfte der GT300 >Faktor 2 schneller sein als der GT200. Außerdem soll die Leistung pro Watt sehr gut sein. Wer weiß, vielleicht erwartet uns eine ähnliche Leistungssteigerung wie vom G71 auf G80.

Ich sagte dass unter normalen Umstaenden jeglicher IHV mit jeder neuen Generation 2x Mal so hohe Leistung anzielt.

---------------------------------------------------------

Zum Rest: dieses endlose hin und her mit den ROPs und den Z Fuellraten ist verdammt nebenwichtig wenn man einen chip plant der innerhalb X Monate in das Performance domain rutschen wird. Ihr magt zwar Recht haben was sehr hohe Aufloesungen betrifft aber ich muss auch heutzutage oefters lachen wenn ich 4870X2 oder GF295 Besitzer in diversen Foren sehe die 22-24" Bildschirme benutzen. 30" LCDs sind immer noch verdammt teuer und die potentiellen GT212 Kaeufer werden wohl eher in ihrer Mehrzahl sich auf 1680 begrenzen.

Wie dem auch sei ich bin mir persoenlich nur sicher dass GT212 GDDR5 haben wird, was alles =/<384bit bedeuten kann. 1750MHz klingt aber fuer jeglichen Fall viel zu konservativ fuer den Speicher. Etwas grosszuegiger kann man hier schon sein oder?

So und wer will jetzt einschaetzen um wieviel theoretisch ein GT212 in shader limitierten Faellen schneller waere als eine 285?

Spasstiger
2009-01-24, 17:22:27
1750MHz klingt aber fuer jeglichen Fall viel zu konservativ fuer den Speicher. Etwas grosszuegiger kann man hier schon sein oder?
1750 MHz GDDR5 bedeuten 7 Gbps Datenrate pro Datenleitung. Das ist momentan der schnellste verfügbare Grafikspeicher und den gibts auch ausschließlich von Hynix. Der Grafikspeicher der Radeon HD 4870 taktet nur mit 900 MHz (3,6 Gbps).

AnarchX
2009-01-24, 17:22:37
Wie dem auch sei ich bin mir persoenlich nur sicher dass GT212 GDDR5 haben wird, was alles =/<384bit bedeuten kann. 1750MHz klingt aber fuer jeglichen Fall viel zu konservativ fuer den Speicher. Etwas grosszuegiger kann man hier schon sein oder?

Was Spasstiger angibt ist der Commandclock, was einen Datentakt von 3500MHz macht.

Was ich doch sehr bei NVs bisheriger Speicherstrategie und der aktuellen wirtschaftlichen Lage bezweifeln mag.

Spasstiger
2009-01-24, 17:29:09
Was Spasstiger angibt ist der Commandclock
Den übrigens auch AMD/ATI auf ihrer Homepage angeben.

dargo
2009-01-24, 17:31:20
Was Spasstiger angibt ist der Commandclock, was einen Datentakt von 3500MHz macht.

Achso... und ich wundere mich schon hier warum nur 1750Mhz erwähnt werden. X-D
Mit 3500Mhz wären wir aber doch bei meinen 224Gb/s. :D

Sorkalm
2009-01-24, 17:40:31
1750 MHz GDDR5 bedeuten 7 Gbps Datenrate pro Datenleitung. Das ist momentan der schnellste verfügbare Grafikspeicher und den gibts auch ausschließlich von Hynix.

Verfügbar? Hynix hat den angekündigt, verfügbar ist er laut deren Homepage noch nicht.

Ailuros
2009-01-24, 17:43:21
1750 MHz GDDR5 bedeuten 7 Gbps Datenrate pro Datenleitung. Das ist momentan der schnellste verfügbare Grafikspeicher und den gibts auch ausschließlich von Hynix. Der Grafikspeicher der Radeon HD 4870 taktet nur mit 900 MHz (3,6 Gbps).

(ich muss mich noch an den GDDR5 Firlefanz anpassen *seufz*)

Gut denn ich wuerde eher in Richtung 1100-1200MHz Richtung denken (und nein ich hab nichts konkretes dazu) nach der 900MHz@RV770 Logik.

Du uebertreibst uebrigens ein bisschen. GT2x0 sind nach Simulationen erstmal einen kleinen Schritt schneller mit GDDR5 als mit GDDR3 bei gleicher Frequenz und ich will bezweifeln dass selbst wenn ein theoretischer GT212 die gleiche Bandbreite haben sollte wie die 285 dass er nicht einen ~30% im wahren Durchschnitt erreichen koennte. Es ist ja auch nur ein Refresh des neu aufgelegten Refreshes ;) ;D

Spasstiger
2009-01-24, 17:54:44
Du uebertreibst uebrigens ein bisschen.
Ich hab nach der Kritik im Thread die Werte nur etwas optimistischer angesetzt. ;)

aylano
2009-01-24, 18:11:58
Ich sagte dass unter normalen Umstaenden jeglicher IHV mit jeder neuen Generation 2x Mal so hohe Leistung anzielt.

Früher war es doch auch normal, dass die nachfolge Generation neue Stromverbrauchs-Rekorde knackten, wodurch höhere Performance-Sprünge möglich waren.
Diese Zeiten sind auch langsam vorbei und ATI brachte den RV770 raus, der ca. so viel verbrauchte wie der R600.
Mal sehen, ob das jetzt auch schon bei Nvidia so sein wird.

dargo
2009-01-24, 18:12:08
GT2x0 sind nach Simulationen erstmal einen kleinen Schritt schneller mit GDDR5 als mit GDDR3 bei gleicher Frequenz ...
Woran liegt das? Ist es GDDR5 ansich selbst zu verdanken oder geht der GT212 allgemein mit der Speicherbandbreite effizienter um?

pervert
2009-01-27, 11:11:26
Newsticker:

Nvidia has two entry, mainstream 40nm
http://www.fudzilla.com/index.php?option=com_content&task=view&id=11694&Itemid=34

Nvidia 40nm enthusiast card is GT212
http://www.fudzilla.com/index.php?option=com_content&task=view&id=11696&Itemid=34

Ailuros
2009-01-27, 11:51:53
Früher war es doch auch normal, dass die nachfolge Generation neue Stromverbrauchs-Rekorde knackten, wodurch höhere Performance-Sprünge möglich waren.
Diese Zeiten sind auch langsam vorbei und ATI brachte den RV770 raus, der ca. so viel verbrauchte wie der R600.
Mal sehen, ob das jetzt auch schon bei Nvidia so sein wird.

RV770 ist keine neue Generation im Vergleich zu R600 und es ist ohnehin ein miserables Beispiel da ATI hier aus einer durchschnittlichen Architektur einen echten Brummer aufgetischt hat.

Im Gegensatz war G80 eine neue (echte Generation) im Vergleich zu G70. Die Leistungssteigerung hier war um einiges hoeher als nur 2x insgesamt, aber weil man neben den fundamentalen Aenderungen das texturing von den ALUs entkoppelte und die cluster in einem MIMD Protokoll verbunden hat (welches bei ATI schon seit R300 der Fall war).

R600 war nichtmal annaehernd 2x Mal so schnell wie R580, aber in solchen Faellen laesst man generelle FLOPs wie NV30 und/oder R600 auch links liegen und konzentriert sich auf die Mehrzahl und nicht ein paar Fehlschlaege die nur (Gott sei Dank) die Ausnahme sind.

Was genau wuerde theoretisch ATI davon aufhalten einen 2x Mal so schnellen als RV770 naechster Generation D3D11 chip unter 40nm aufzutischen?

Gast
2009-01-27, 12:19:36
Eine Pleite. Auch wenn ich das mal nicht hoffen will.

Ailuros
2009-01-27, 12:31:19
Eine Pleite. Auch wenn ich das mal nicht hoffen will.

Ein hypothetischer Bankrott von AMD wuerde nicht heissen dass die gesamten ATI assets im Klo weggespuelt werden koennten. Bei dem Aufkauf von AMD aenderte sich auch nichts besonderes am R600 Release.

Einen Weltuntergang wuerden sich auch nur Verrueckte wuenschen, aber es ist als Antwort genauso sinnvoll wie die obrige; nur waeren damit tatsaechlich alle Lichter aus.

=Floi=
2009-01-27, 12:35:58
bei einer stärkeren steigerung der shaderleistung in spielen würde so ein chip aber dann weiter zurückfallen mit der zeit. Ich denke amd will hier die steigerungsrate von 2,5 aufrecht erhalten.
320->800->2000->5000

Ailuros
2009-01-27, 12:48:12
bei einer stärkeren steigerung der shaderleistung in spielen würde so ein chip aber dann weiter zurückfallen mit der zeit. Ich denke amd will hier die steigerungsrate von 2,5 aufrecht erhalten.
320->800->2000->5000

1. Wurde RV770 nicht nur um so und so viel schneller als eine R6x0 nur wegen der Steigerung der ALU Anzahl. Wir messen schon seit geraumer Zeit mit MSAA/AF und es waere angebrachter die Steigerung der TMU Anzahl bzw. die Erhoehung der ROP-Faehigkeiten mitzurechnen.

2. Die Steigerung an ALUs bzw. clusters des RV770 war zu 100% analog zu der geschaetzten Notwendigkeit an zusaetzlichen Fuellraten die dieser abbekam.

3. Beruht man zu lange auf einer Grund-Architektur und steigert blind nur die Anzahl der Einheiten, rennt man mit mathematischer Genauigkeit in ein Effizienz-Problem. Das Ganze klingt wie ein Rambo9999 Alptraum.

4. 320 bzw. 800SPs oder korrekter /5 dividiert sind jeweils 64 und 160 ALUs. Durch 16 SPs sind es 4 bzw. 10 cluster. Wie kommt man denn von 2000SPs auf 16 oder 32SPs pro ALU genau? ROFL :D

aylano
2009-01-27, 15:32:45
RV770 ist keine neue Generation im Vergleich zu R600 und es ist ohnehin ein miserables Beispiel da ATI hier aus einer durchschnittlichen Architektur einen echten Brummer aufgetischt hat.

Für mich mag es eine neue (Zwischen-)Generation sein, auch wenn es formal nicht stimmen mag, da sie derart überarbeitet wurde und mit dem Image um Ur-Design nichts mehr zu tun hat.

Und Ziel war es nicht, den RV770 doppelt so schnell wie der RV670 zu machen, sondern billig (Packdichte) und ihm auf einem Bestimmten Wattbereich runterzuarbeiten.

Soviel ich weiß, hätte der R600 mit höheren Standard-Takt noch viel mehr Strom verbrauchen sollen und hat im dann wegen niederen G80-Verbrauch auf 150 Watt (oder so) runtergewürgt.
So wie jetzt Nvidia den GT200b so runtergewürgt hat, damit er auf dem GTX295 passt.

Also hätte der R600 dann wirklich 180-200 Watt verbraucht, dann hätte RV770 per 150 Watt eine Verbrauchsreduktion statt gleichstand bekommen, was im GPU-High-End-Bereich unüblich ist.
(Und die RV770-Entwicklung bzw. Packdichte-Überlegungen begannen schon vor dem 600-Desaster)

Per 7900GTX hat Nvidia gegenüber 7800GTX trotz neuer kleinerer Fertigung (90 statt 110nm) einen neuen etwas höheren Stromverbrauchsrekord.

Dann kam der G80 welcher wieder einen deutlichen Stromverbrauchsrekord setzte.

(Klar, konnte ATI nicht die 2-Fache Leistung schaffen. Nicht nur wegen dem miesen R600, sondern weil der 1950TX schon mehr Strom verbrauchte, sowie schneller war als der G70.)

Dann kam der GT200 mit einem neuen Verbrauchsrekord in Sachen Single-GPU-Karte.

Es kein sein, dass Nvidia mit dem GT300 den üblichen alten Watt-Rekord Trend weitergeht, da diese Entwicklung vor Jahren begonnen (vor RV770-Erfolg) wurde.

Irgendwann muss das Ende sein und es kann sein, dass wieder AMD diese Ära einleitet.

(Im meine Single-GPU und nicht Grafikkarten, wo es mit X2 & 295 neue Verbrauchswerte gab.
Bei Watt-Verbrauchsrekord meine ich immer die eigenen Produkte)

(In Zukunft werden die Leute IMO Watt-Empfindlicher, da es seit "kurzem" eine Klimawandel-Diskussion werden und die Glühlampen in kürze verboten werden. Mit solchen Maßnahmen werden die Leute Watt-Empfindlicher, da sie sich mehr mit dem Thema beschäftigen.)


Was genau wuerde theoretisch ATI davon aufhalten einen 2x Mal so schnellen als RV770 naechster Generation D3D11 chip unter 40nm aufzutischen?
Einen steigenden Stromverbrauch per GPU, weil die höchste Performance bei ATI nicht die höchste Priorität hatte. Na ja, zumindestens beim RV770.

Mal sehen, wie die nächsten ATI-GPUs entwickelt werden, denn ich kann auch nicht ganz glauben, dass ATI die nächsten GPUs alle im RV7x0-Watt-Schema hindesignen.


Ich denke amd will hier die steigerungsrate von 2,5 aufrecht erhalten.
320->800->2000->5000
Welches Steigerungsrate.
Pro Generation? DX10, DX11, DX12 ... (320-> 1600? -> .... )
oder pro jeder GPU-Serie? R600, RV670, RV770, RV790, RV870 ... (320 -> 320 -> 800 -> 1280? -> 1600?

Spasstiger
2009-01-27, 16:01:48
Newsticker:

Nvidia has two entry, mainstream 40nm
http://www.fudzilla.com/index.php?option=com_content&task=view&id=11694&Itemid=34
Hm, wieder mal Verwirrung.
Also evtl. GT218 = GT100 = GeForce GT 210
und GT215 = GT120 = GeForce GT 220?
Man wollte wohl bei den Codenamen der Mainstreamchips nicht über 200 gehen, um die Leistungseinteilung aufrecht zu erhalten.

Die Produktnamen GT 210 und GT 220 lassen auch nicht gerade auf Performance-Chips schließen. Andererseits sollte ja eine GT 210 schneller sein als eine GT 130 (= 9600 GSO), wenn NV tatsächlich Transparenz im neuen Namensschema anstrebt.
Vielleicht muss man sich bei NV einfach die gewohnten Zahlenspiele abgewöhnen (1 und 2 = Low Budget oder IGP, 3,4,5 = Budget, 6 = Mainstream, 7 = Performance-Mainstream, 8,9 = High-End).

Gaestle
2009-01-27, 16:25:45
@Aylano:

Im allgemeinen definiert sich eine Generation nicht über Image und Stromverbrauch und kleine technische Änderungen am Chip (mehr ist eine Strukturverbreiterung im analytischen Sinn nicht) sondern durch den grundlegenden technischen Aufbau von Chips.
Natürlich sind RV670 und RV770 EVOLUTIONEN vom R600, diese finden aber INNERHALB der R600-Familie statt. Denn die grundsätzliche Funktionsweise und die grundsätzliche Art der Bearbeitung von Aufgaben sind bei allen drei Chips identisch. Die Entwicklung des Stromverbrauchs ist dabei völlig uninteressant.
Insofern gehören RV670 und RV770 zur R600-Generation, genauso wie G(T)200 zur G80-Generation und der G70 zur NV40-Generation gehört.

Spasstiger
2009-01-27, 16:29:30
G70 zur NV40-Generation gehört.
Wenn du schon so großzügig bist, müsstest du auch die GeForce FX in die gleiche Generation einrechnen. Sind alles CineFX-Karten. Das Featureset wurde zwar vom NV30/NV35 zum NV40 etwas aufgebohrt (SM2.0a nach SM3.0), aber das ist ja auch beim RV670 gegenüber dem R600 passiert (SM4.0 nach SM4.1).
Genauso müsste man nach dieser Betrachtungsweise auch den R580 zur gleichen Generation wie den R200 zuordnen.

Gaestle
2009-01-27, 17:05:55
AFAIK sind die Unterschiede zwischen NV3x und NV40 größer als nur der Wechsel im Shadermodel. Dabei beziehe ich mich auf aths' Artikel zum NV40: http://alt.3dcenter.org/artikel/nv40_pipeline/ Das Shadermodel ist aber auch nicht das entscheidende.

NV40 und G70 waren im Grundaufbau sehr ähnlich, G70 war lediglich breiter und hatte statt MADD + MUL zwei MADD pro Pipeline. Ich beziehe mich außerdem auf aths' Artikel zum G70: http://alt.3dcenter.org/artikel/2005/06-26_a.php

Und inwieweit man zwischen R200 und R580 eine nahezu identische Funktionsweise sehen kann, erschließt sich mir nicht ganz. Das lese ich schon zum Update des R300 (namens R420) heraus: http://alt.3dcenter.org/artikel/r420_technik/
Leider gab es vom R5xx keine Samples von Ati für 3Dcenter und leider hat aths seine Tätigkeit für das 3Dcenter offenbar eingestellt (möglicherweise sogar auf Druck einzelner User). Schade eigentlich. dann muss man z.B. auf B3D ausweichen.

Natürlich basieren neuere Chips immer auf dem Know-How von älteren Chips, von daher kann man sich über die Abgrenzung sicherlich streiten. Aber ein geringerer Stromverbrauch, ein anderes Image und ein bißchen Architekturverbreiterung ist sicherlich nicht Grund genug, um von einer neuen Architektur zu sprechen.

deekey777
2009-01-27, 17:27:55
Die CineFX-Generation zeichnet sich in erster Linie durch den Aufbau der Reneringpipeline aus.

R200+R300+R420: Phasenkonzept
R520/Xenos bis heute: Threading-Konzept.
...
Natürlich sind RV670 und RV770 EVOLUTIONEN vom R600, diese finden aber INNERHALB der R600-Familie statt. Denn die grundsätzliche Funktionsweise und die grundsätzliche Art der Bearbeitung von Aufgaben sind bei allen drei Chips identisch. ...
Irgendwie will ich daran nicht glauben. Für mich ist das in etwa so, wie es sich beim R300 und R520 verhält: Man greift auf das Vorhandene zurück (VLIW zB), aber sonst ist der RV770 doch anders. Der RV770 geht schon in Richtung G80, was erst auf GPGPU-Ebene sichtbar wird (CAL Compute Shader, LDS als Gegenstück zu Shared Memory). Der RV670 war und ist unbestritten Evolution des R600, aber der RV770 unterscheidet sich schon deutlich mehr.

Spasstiger
2009-01-27, 17:30:19
NV40 und G70 waren im Grundaufbau sehr ähnlich, G70 war lediglich breiter und hatte statt MADD + MUL zwei MADD pro Pipeline. Ich beziehe mich außerdem auf aths' Artikel zum G70: http://alt.3dcenter.org/artikel/2005/06-26_a.php
Der NV40 war auch einfach nur ein breiter angelegter NV35.
16 statt 4 Pipelines, dafür nur eine TMU pro Pipeline statt zwei.
Die Platz für temporären Register pro Pipeline wurde verdoppelt, die zweite FPU in jeder Pipeline blieb.
Beim G70 hat man dann noch die zweite FPU zu einer vollwertigen MADD-ALU aufgebohrt, die Anzahl von Pipelines von 16 auf 24 aufgestockt und die ROP-Anzahl wurde erstmals nicht analog zur Pipeline-Anzahl gesteigert (NV35: 4 Pipelines, 4 ROPs; NV40: 16 Pipelines, 16 ROPs; G70: 24 Pipelines, 16 ROPs).

Die Verbreiterung vom NV35 zum NV40 war natürlich größer als vom NV40 zum G70, aber ich sehe nicht die grundsätzlichen Unterschiede in der Funktionsweise zwischen dem NV35 und dem NV40.

Coda
2009-01-27, 17:40:45
Der NV40 war auch einfach nur ein breiter angelegter NV35.
Nein, das war er ganz sicher nicht Spasstiger. Das ist völliger Blödsinn.

Die komplette Pipelinestruktur wurde geändert. NV35 hatte noch 2 TMUs pro Pipeline und sogar noch FX12-Einheiten.

Spasstiger
2009-01-27, 17:48:45
Die komplette Pipelinestruktur wurde geändert. NV35 hatte noch 2 TMUs pro Pipeline und sogar noch FX12-Einheiten.
Der NV35 hatte im Gegensatz zum NV30 keine Integereinheit mehr, zumindest laut dem CineFX-Artikel (http://alt.3dcenter.org/artikel/cinefx/) von Demirug. Integerberechnungen wurden von der neu hinzugekommenen, zweiten ALU übernommen.
Und was die Reduzierung von 2 TMUs auf 1 TMUs angeht: Ist diese Änderung um soviel dramatischer als das was vom RV670 zum RV770 geändert wurde?

Gaestle
2009-01-28, 11:35:00
Naja, so ganz genau wissen das wohl bloß die ATi Ingenieure. Für Deine These spricht, dass im Namensschema von RV670 zu RV770 ein "Hunderter-Sprung" drin ist. Das kann auf technischen Tatsachen basieren (wie beim Sprung von R420 auf R520), kann aber auch ein Marketing-Gag sein (R360/380 => R420).
Nach dem, was ich dem CineFX-Artikel entnehme, hat NV mit dem NV35 lediglich Schwächen des NV30 beseitigt und "ein bißchen überflüssigen Krempel" über Board geworfen. Das ist aber auch "schon" alles. Allerdings gibt Demirug am Ende einen kurzen Ausblick auf NV40 und stellt dabei die Möglichkeit in den Raum, dass zum Erreichen der SM3-Kompatibilität ebenfalls geringere Änderungen genügen könnten. Aber das war ja zu dem Zeitpunkt, zu dem der Artikel entstanden ist, spekulativ. Wie spekulativ genau, kann wohl nur beurteilt werden, wenn man Demirugs Kenntnisstand zu NV40 zu diesem Zeitpunkt (ca. 9 Monate vor Release) kennen würde. Von daher würde ich mich beim Thema NV40 eher auf aths stützen.
Und dieser schreibt:

NV30 ist in erster Linie ein NV25 (GeForce4 Ti) mit zusätzlichen DirectX9-Einheiten. Beim NV35 verschwimmt die Trennung zwischen "alten" und "neuen" Shadereinheiten, was Transistoren spart, aber auch die DirectX8-Pixelshader-Leistung drückt.

aber auch:

Mehr Leistung durch zusätzliche Recheneinheiten (wie wir das im NV35 sahen) würde in einer nicht mehr handhabbaren Chipgröße resultieren. Damit war Nvidia gezwungen, ein neue Pixelshader-Pipeline zu entwickeln.

Quelle: http://alt.3dcenter.org/artikel/nv40_pipeline/ S.1, Abschnitt "Entscheidungen"

Beim NV35 ist es also vielleicht / möglicherweise / eventuell nicht 100%ig eindeutig, ob er mehr zur NV40- oder mehr zur NV30-Generation tendiert, obwohl aus meiner Sicht das Pendel deutlich stärker in Richtung NV30 ausschlägt.

Aber wie auch immer, ich denke, wir stimmen grundsätzlich darin überein, dass Generationsgrenzen NICHT durch durch Image und Stromverbrauch definiert werden.

Ailuros
2009-01-28, 12:03:51
Für mich mag es eine neue (Zwischen-)Generation sein, auch wenn es formal nicht stimmen mag, da sie derart überarbeitet wurde und mit dem Image um Ur-Design nichts mehr zu tun hat.

Und Ziel war es nicht, den RV770 doppelt so schnell wie der RV670 zu machen, sondern billig (Packdichte) und ihm auf einem Bestimmten Wattbereich runterzuarbeiten.

Die Fundamente des R6x0 Grund-designs blieben gleich und es handelt sich bei RV670 sowohl als auch bei RV770 um D3D10.1 kompliante chips. Es sind nach wie vor beim RV770 16 SPs pro ALU, wobei jegliche ueber MADD+MADD+ADD ergo 10 FLOPs/Takt faehig ist.

Soviel ich weiß, hätte der R600 mit höheren Standard-Takt noch viel mehr Strom verbrauchen sollen und hat im dann wegen niederen G80-Verbrauch auf 150 Watt (oder so) runtergewürgt.

ATI's Frequenz-Projektionen waren stets zu optimistisch und sie haben selten ihre originale Ziele einhalten koennen. 800MHz auf 80nm mit 720M Transistoren war viel zu wahnwitzig um davon anzufangen. ATI hatte neben den anderen paar HW bugs auch mit dem verkorksten 80nm zu kaempfen der ihnen anfangs ueberhaupt nicht erlaubte selbst ueber 400MHz zu kreuzen. Demzufolge waren die entgueltigen 742MHz ein ausgezeichnetes Resultat.

So wie jetzt Nvidia den GT200b so runtergewürgt hat, damit er auf dem GTX295 passt.

Nicht vergleichbar; denn die 295 ist erstmal um einen Schnitt schneller als die X2. Bei der R600 haetten sie fuer 800MHz extravagante Kuehlungsloesungen gebraucht und das Ding waere selbst dann nicht schneller gewesen als eine G80.


Per 7900GTX hat Nvidia gegenüber 7800GTX trotz neuer kleinerer Fertigung (90 statt 110nm) einen neuen etwas höheren Stromverbrauchsrekord.

Es hilft ueberhaupt nicht jegliches merkwuerdige Beispiel auszugraben nur um einen bestandlosen Punkt zu unterstuetzen. G71 wurde so klein um ATI den Schlepptopp Markt aus den Haenden zu reissen. In der Zwischenzeit hat sich das Blatt natuerlich wieder gewendet, aber zu dieser Zeit war es NV bewusst dass G7x eben nicht R5x0 im Desktop Markt eindeutig schlagen kann, ergo suchte man sich alternative Ziele aus.

Dann kam der G80 welcher wieder einen deutlichen Stromverbrauchsrekord setzte.

Bis zu 3x Mal schneller als alles G7x und das peinliche ist hier eben dass eine 8800GTX eben NICHT dreimal so viel Strom verbraucht als eine 7900GTX. Auch nicht relevant.

Dann kam der GT200 mit einem neuen Verbrauchsrekord in Sachen Single-GPU-Karte.

So lange NV bei Wucherpreisen das Zeug in Profi-Maerkten verkaufen kann und ihren enormen Marktanteil dort weiterhin einhalten kann, koennen sie es in relativem Sinn leisten. Der Nachteil ist eben dass die Gewinn-Rate entweder enorm sinken wird oder man sogar Verluste verbussen muss mit der heutigen Krise. Mit den Schulden die AMD momentan hat haben sie sowieso nicht den Luxus fuer extravagante R&D Ausgaben und ein Erfolg heisst nicht unbedingt dass es immer so gut aussehen wird.

Es kein sein, dass Nvidia mit dem GT300 den üblichen alten Watt-Rekord Trend weitergeht, da diese Entwicklung vor Jahren begonnen (vor RV770-Erfolg) wurde.

Siehe oben.

Irgendwann muss das Ende sein und es kann sein, dass wieder AMD diese Ära einleitet.

NVIDIA muss mit dem GT3x0 ueberzeugen koennen dass single chip high end auch wirklich den Unterschied macht. Mit GT2x0 ging das Ganze natuerlich ziemlich stark daneben.

Das obrige ist ebenso fuer die Muelltonne: wenn man high end/enthusiast mit multi-chip SKUs bedient dann ist AMD der Stromverbrauch gleichgueltiger als jedem andere. Ein wahrer high end RV7x0 haette IMHLO nicht mehr als sagen wir mal 300+mm2@55nm eingenommen und haette um einiges WENIGER verbraten als eine X2.

(Im meine Single-GPU und nicht Grafikkarten, wo es mit X2 & 295 neue Verbrauchswerte gab.
Bei Watt-Verbrauchsrekord meine ich immer die eigenen Produkte)

Ich sehe ein dass es ziemlich passend ist die ganze Affaere aus dieser Perspektive anzugehen, aber die X2 ist eine Realitaet und sie verbratet eine Unmenge an Strom.

Einen steigenden Stromverbrauch per GPU, weil die höchste Performance bei ATI nicht die höchste Priorität hatte. Na ja, zumindestens beim RV770.

Nein. Es handelt sich lediglich um eine dumme Ausrede weil man etwas billiges und schnell brauchte. Eine X2 bzw. 295 braucht keine besonderen R&D Unkosten. Ein sehr komplizierter high end chip dann eben schon.

Und wenn's schon sein muss, rechnet doch bitte auch Intel fuer die D3D11 Generation mit. Erst wenn alle 3 neue D3D11 Architekturen aufgetischt sind, werden wir sehen koennen ob die zusaetzlichen Transistoren fuer GPGPU auf GT2x0 eine falsche oder korrekte Investition fuer die Zukunft waren.

***edit: damit es etwas klarer wird: fuer mich ist eine neue Generation eine neue Technologie-Generation und nur so war es gemeint. Noch genauer bei jeder neuen D3D Generation.

GeneralHanno
2009-01-28, 16:42:13
NVidia rollte das Feld von hinten auf: erster 40nm chip ist der GT218.
http://www.hardware-infos.com/news.php?news=2700

Ailuros
2009-01-28, 16:48:09
NVidia rollte das Feld von hinten auf: erster 40nm chip ist der GT218.
http://www.hardware-infos.com/news.php?news=2700

IGP Material.

Spasstiger
2009-01-28, 17:24:10
IGP Material.
Das passt allerdings nicht ganz mit dem Marketingnamen GT 210 zusammen, der bei Fudzilla für die kleinere 40-nm-Mainstream-Variante genannt wurde. GT steht ja eigentlich für Mainstream und nicht für IGP (Kürzel G).
/EDIT: Hätte gründlicher lesen sollen, jetzt gibts also schon drei 40-nm-GPUs aus den unteren Segmenten (IGP: GT218, Mainstream: GT100 und GT120).

Wie groß wird denn wohl die Die-Size vom GT218 sein? Ich komme da grob geschätzt auf 30 mm². Ist das realistisch?

Gast
2009-01-28, 17:44:29
Welche Auswirkung wird denn der Weggang von David Kirk auf die nV Entwicklungen haben? G3xx Series wird ja sicher nicht mehr in der Entwicklung angefasst und G4xx Series befindet sich mitten in der Entwicklung...

KonKorT
2009-01-28, 18:05:16
Naja, ganz weg ist Kirk ja auch nicht. In der Pressemitteilung sagt Huang im O-Ton:

"Ich bedanke mich bei David Kirk für sein außergewöhnliches Engagement bei NVIDIA. Sein technisches und strategisches Verständnis hat uns entscheidend geholfen, eine gänzlich neue Welt des visuellen Computings zu realisieren. Wir werden auch weiterhin von seiner wertvollen Mitwirkung profitieren."

=Floi=
2009-01-28, 18:07:11
so positiv liest man selten von einem mitarbeiter der geht.

|MatMan|
2009-01-29, 06:32:19
Huch seit wann ist der denn weg? Und weiß man wo er hingegangen ist? Wenn er so wichtig war, kann es ja am Geld nicht gelegen haben...

Gast
2009-01-29, 10:16:09
NVidia rollte das Feld von hinten auf: erster 40nm chip ist der GT218.
http://www.hardware-infos.com/news.php?news=2700

Der G98 hat doch 16SP und nicht 8SP?!?!

Ailuros
2009-01-29, 10:41:13
Wie groß wird denn wohl die Die-Size vom GT218 sein? Ich komme da grob geschätzt auf 30 mm². Ist das realistisch?

IMHLO waere es ein ziemliches Wunder wenn das Ganze in 30mm2 passen wuerde.

G98=
16 SPs / 8 TMUs / 2 ROPs
85.5mm2@65nm (9.0*9.5mm)

85.5mm2 / 2.43 = 35.2mm2@40nm

1. Hab ich die zusaetzlichen 16 SPs nicht mitgerechnet.
2. /2.43 bedeutet auch einen (unmoeglichen) perfekten shrink.

Welche Auswirkung wird denn der Weggang von David Kirk auf die nV Entwicklungen haben? G3xx Series wird ja sicher nicht mehr in der Entwicklung angefasst und G4xx Series befindet sich mitten in der Entwicklung...

http://www.xbitlabs.com/news/video/display/20090128152904_Nvidia_May_Change_Direction_of_GPU_Development_as_It_Switches_Chi ef_Scientist.html

Xbit hat natuerlich nicht ganz den Nagel auf den Kopf getroffen was Herrn Dally betrifft, aber es ist ja auch nicht so wichtig.

Die Frage waere angebrachter im GT3x0 Thread; wir muessen zuerst sehen wie genau GT3x0 aussehen wird. Ich hab das Gefuehl dass es trotz allem ein Schritt in die richtige Richtung ist ingesamt und selbst Dally hoechstwahrscheinlich mit den existierenden Fundamenten es nicht besser geschafft haette.

IMHLO jedoch legt ein Chef in einer Kueche bestenfalls das Menu an und probiert zwischendurch das Resultat; im Grunde kochen die normalen Koeche.

reunion
2009-01-29, 10:45:44
Wie groß wird denn wohl die Die-Size vom GT218 sein? Ich komme da grob geschätzt auf 30 mm². Ist das realistisch?

Nein, da du auch beachten musst das man gewisse Dinge nicht mitskalieren kann. Weshalb die Effizienz der Chips ja auch mit der Die-Size steigt.

GeneralHanno
2009-01-29, 11:59:07
zudem stellt sich die frage, ob die 32SP so transistoren-sparsam sind wie bei der G80/9x architektur oder ob man sich nicht eher aus dem GT200 baukasten bedient ;) da belegen die SP ja fast die hälfte der die-size!

Coda
2009-01-29, 13:52:27
Nein, da du auch beachten musst das man gewisse Dinge nicht mitskalieren kann. Weshalb die Effizienz der Chips ja auch mit der Die-Size steigt.
Es gibt auch gegenteilige Effekte. Der Rasterizer skaliert z.B. nicht mit und man braucht mehr Threads um den Chip auszulasten.

KonKorT
2009-01-29, 13:59:47
Ehm, seit wann hat der G98 16 SPs? Also zumindest auf Wikipedia (http://de.wikipedia.org/wiki/Nvidia-Geforce-9-Serie) steht 8 SPs - ein halber Shadercluster.
Soweit mir bekannt, nutzen den Chip auch nur 8400 GS, 9300 GE und 9300 GS. Letzte beide trifft man gar nicht im Retail-Markt an und erstere basiert größtenteils noch auf dem veralterten G86-Kern.

Aber wie Ailuros schon sehr grob skizzierte - man sollte auch berücksichtigen, dass die GT200-Generation neben DP-Einheiten, die hier sicherlich wegfallen, durch andere Neuerungen Transistorbudget aufgeladen hat - sind 30 sqmm absolut utopisch.

Ich denke, es werden eher 45-65 sqmm.

Spasstiger
2009-01-29, 14:30:05
Ehm, seit wann hat der G98 16 SPs? Also zumindest auf Wikipedia (http://de.wikipedia.org/wiki/Nvidia-Geforce-9-Serie) steht 8 SPs - ein halber Shadercluster.
Die Wikipedia-Angabe ist falsch. /EDIT: Irrtum. Bin grad auch mit dem G86 und dem G98 durcheinandergekommen. Der G98 hat natürlich weniger Shadereinheiten als der G86, dafür taktet er höher.

Ich bin übrigens vom GT212 und vom GT200 bei der Schätzung der Diesize ausgegangen. Analog zu dem:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7019250&postcount=996
Den GT212 habe ich dort auf Basis des GT200 geschätzt.

Die Anzahl an Shadereinheiten sinkt ja beim GT218 von 384 SPs (GT212) auf 32 SPs, die 48 DP-ALUs entfallen sicherlich komplett. Die Anzahl von Textureinheiten sinkt von 96 auf 8. D.h. in diesen zwei Bereichen, die beim GT212 schätzungsweise ~190 mm² ausmachen, wird der GT218 auf weniger als 1/12 verkleinert, also auf rund 15 mm². Die Fläche der SI-ROP-Cluster sollte ja auch ganz gut mit deren Anzahl mitskalieren, also von schätzungsweise ~26-38 mm² (abhängig von der Anzahl von ROPs) auf 6,5-9,5 mm².
Fragt sich halt, was die restlichen Baugruppen (Setup/Raster, Scheduler, Interconnects, Terminierungen, evtl. Filterschaltungen) ausmachen, die beim GT212 insgesamt ja schätzungsweise 57-69 mm² ausmachen. Im ungünstigsten Fall wird wohl wie bei den ROP/SI-Partitionen geviertelt, also auf 14-17 mm², aber nötig wäre soviel Fläche eigentlich nicht relativ zur TMU-ALU-Fläche.

Also im allerungünstigsten Fall hätte man beim GT218 nach der obigen Abschätzung eine Diefläche von 15 mm² (TMU, ALU) + 9,5 mm² (ROP, SI) + 17 mm² (Setup/Rasterizer, Scheduler, Rest) = 41,5 mm².

2. /2.43 bedeutet auch einen (unmoeglichen) perfekten shrink.
Nein, 1/2,43 ist der typische Shrink bei TSMC basierend auf den Erfahrungen von Xilinx.
Ein perfekter Shrinkt wäre (40/65)^2=0,3787=1/2,64

KonKorT
2009-01-29, 14:55:43
Ein perfekter Shrinkt wäre (40/65)^2=0,3787=1/2,64

Nein, wäre es nicht mit dem Vorwissen, dass der Schritt von 45 zu 40 nm ein lediglich 8% linearer Shrink ist.

(45²/65²) * 0,92² = 0,4057
Faktor: 2,496

Die Wikipedia-Angabe ist falsch. /EDIT: Irrtum. Bin grad auch mit dem G86 und dem G98 durcheinandergekommen. Der G98 hat natürlich weniger Shadereinheiten als der G86, dafür taktet er höher.

Also liege ich mit meinen 8 SPs richtig? (Bin mir selbst nicht 100% sicher)

Spasstiger
2009-01-29, 14:58:31
Nein, wäre es nicht mit dem Vorwissen, dass der Schritt von 45 zu 40 nm ein lediglich 8% linearer Shrink ist.

(45²/65²) * 0,92² = 0,4057
Faktor: 2,496
Das war mir neu. Aber 2,50 (gerundet) ist immer noch mehr als 2,43.

PS: Ich glaube dir das gerne mit dem G98, wenn Du mir nur netterweise einen Link, der das beweist, schicken könntest.
Habe mich schon korrigiert, bin auch mit dem G86 durcheinandergekommen. Wie lautet eigentlich der Codename der IGPs im GeForce-9300/9400-Chipsatz? Diese haben ja auch 16 SPs. Hat man da einfach einen G86 verwendet?

KonKorT
2009-01-29, 15:04:11
Entweder G86 oder deaktivierter G96(b) wie auf der 9400 GT, was ich persönlich für deutlich wahrscheinlicher halte.

mictasm
2009-01-29, 21:54:40
Gab es eigentlich schon Andeutungen bezüglich des möglichen Stromverbrauchs von GT212 im Vergleich zu z.B. G200b auf einer GTX285?

Spasstiger
2009-01-29, 23:24:59
Gab es eigentlich schon Andeutungen bezüglich des möglichen Stromverbrauchs von GT212 im Vergleich zu z.B. G200b auf einer GTX285?
Nicht dass ich wüsste. Hängt auch stark von den Taktraten und der dazu erforderlichen Spannung ab. Und ich glaube nicht, dass NV jetzt schon die finalen Taktraten kennt.
Da der GT212 bis zu 1,8 Mrd. Transistoren haben wird und da auch die Taktraten wohl nicht sinken werden, schätze ich den Stromverbrauch entsprechender Karten trotz 40 nm mindestens genauso hoch ein wie bei der GTX 285. Ich würde mir da keine allzugroßen Hoffnungen machen.

Zumal NV ja auch den GT300, der ebenfalls in 40 nm gefertigt werden wird, in ein gutes Licht rücken möchte, was die Energieeffizienz angeht. Da sehe ich keinen Antrieb für NV, große Energieeffizienz-Bemühungen in den GT212 zu stecken.
Wenn natürlich AMD im Q2 doch nicht mit schnelleren Grafikkarten kommt, könnte NV die Taktraten des GT212 eher gemächlich auslegen und somit doch die Leistungsaufnahme gegenüber dem GT200b senken.

mictasm
2009-01-29, 23:33:25
Danke dir!

=Floi=
2009-01-30, 01:34:00
alleine schon wegen gddr5 dürften diese karten mind 30 watt mehr verbrauchen, als mit gddr3. Ich denke der GT212 geht gegen 200-220watt und der GT300 rauf bis ca. 250 watt. Nur bringt es im grunde nichts, da eben auch die leistung der karte seitgt und der GT212 1,8-2 tflop bieten wird!

=Floi=
2009-01-30, 02:39:12
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7067007&postcount=118
zitat
Wie kommt man denn von 2000SPs auf 16 oder 32SPs pro ALU genau?

durch 16 geht doch. 32 sp würde bei ati doch keinen sinn machen, da sie jetzt schon mit der auslastung zu tun haben. Mir ging es nur um die theoretische rechenleistng und weniger um die gesamte performance in spielen. Da das AA aber auch über die alus läuft bringt es doch mehr hier die alus weiter auszubauen. GPGPU sollte auch 1:1 skalieren.

Ailuros
2009-01-30, 10:00:02
Spasstiger,

Das wichtigste an der ganzen Sache ist dass GT218 nicht kleiner als 40 Quadratmillimeter sein kann. Selbst wenn das Ding 50mm2 sein sollte, ist es immer noch um ~40% kleiner als G98, mit zumindest doppelt so hoher arithmetischen Leistung wenn die Frequenzen natuerlich auch so moderat bleiben wie auf 65nm.

Uebrigens wieso sollte NV die double precision Einheiten loswerden? Damit waere es ein automatischer Rueckschritt fuer die workstation/server Maerkte und sie wuerden solche chips wohl nicht dort einsetzen. Das Maerchen dass die DP Einheiten eingespart werden, gab es schon vor dem GT206 Launch. Es ist zwar wahr dass NV in vorsehbarer Zeit keine dedizierten DP Einheiten mehr haben wird, dass heisst aber nicht dass die Faehigkeit entfernt wird.

Ich will ernsthaft bezweifeln dass sie Zeit hatten oder dass es Sinn machen wuerde DP in die heutigen GT200 ALUs zu integrieren. Wenn man eine Kleinigkeit hoert sollte man sie auch in die korrekte Zeitsparte kategorisieren ;)

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7067007&postcount=118
zitat
Wie kommt man denn von 2000SPs auf 16 oder 32SPs pro ALU genau?

durch 16 geht doch. 32 sp würde bei ati doch keinen sinn machen, da sie jetzt schon mit der auslastung zu tun haben. Mir ging es nur um die theoretische rechenleistng und weniger um die gesamte performance in spielen. Da das AA aber auch über die alus läuft bringt es doch mehr hier die alus weiter auszubauen. GPGPU sollte auch 1:1 skalieren.

R600 = 320SPs / 5 = 64 ALUs / 16 SIMD = 4 cluster
RV770 = 800SPs / 5 = 160 ALUs / 16 SIMD = 10 cluster

RVxxx = 2000SPs / 5 = 400 ALUs / 16 SIMD = 25 cluster (das waere der bloedeste Aufbau den es je gab, da der Abstand von cluster1 zu cluster25 viel zu gross ist).

oder:

RVxxx = 2000SPs / 5 = 400 ALUs / 32 SIMD (2*16) = 12.5 cluster errrrrr..... *kopfkratz*

Mit einer 16 SIMD Logik an der sich IMHLO bei AMD nichts aendern wird, waeren 1920SPs im gegebenen Fall wahrscheinlicher. Ich wuerde aber hier spekulieren dass man auch in diesem Fall lieber jeweils 2*16 SIMD in einen cluster schiebt. Und wenn's schon sein muss die 1920 sind eigentlich 2*960 und stehen fuer eine moegliche RV790-X2.

*****edit:

zurueck zum Thema:

http://www.fudzilla.com/index.php?option=com_content&task=view&id=11755&Itemid=1

AnarchX
2009-01-30, 12:16:42
GT216 mit <45W TDP? (http://www.fudzilla.com/index.php?option=com_content&task=view&id=11755&Itemid=34)

Fragt sich was da für eine Leistung herumkommt, bei RV740 scheint es hingegen wohl momentan Probleme mit der Leistungsaufnahme zu geben.

reunion
2009-01-30, 12:32:50
R600 = 320SPs / 5 = 64 ALUs / 16 SIMD = 4 cluster
RV770 = 800SPs / 5 = 160 ALUs / 16 SIMD = 10 cluster

RVxxx = 2000SPs / 5 = 400 ALUs / 16 SIMD = 25 cluster (das waere der bloedeste Aufbau den es je gab, da der Abstand von cluster1 zu cluster25 viel zu gross ist).

oder:

RVxxx = 2000SPs / 5 = 400 ALUs / 32 SIMD (2*16) = 12.5 cluster errrrrr..... *kopfkratz*

Mit einer 16 SIMD Logik an der sich IMHLO bei AMD nichts aendern wird, waeren 1920SPs im gegebenen Fall wahrscheinlicher. Ich wuerde aber hier spekulieren dass man auch in diesem Fall lieber jeweils 2*16 SIMD in einen cluster schiebt. Und wenn's schon sein muss die 1920 sind eigentlich 2*960 und stehen fuer eine moegliche RV790-X2.


960 SPs ist IMHO viel zu wenig, der Sprung von 55nm zu 40nm ist gewaltig. Ich würde für RV790 mindestens 1280SPs/64TMUs erwarten. Das sollte auch noch problemlos mit ~200mm² machbar sein.

...bei RV740 scheint es hingegen wohl momentan Probleme mit der Leistungsaufnahme zu geben.

Das ist deinem Link aber nicht zu entnehmen.

Gast
2009-01-30, 12:37:29
IMHO viel zu wenig, der Sprung von 55nm zu 40nm ist gewaltig. Ich würde für RV790 mindestens 1280SPs/64TMUs erwarten. Das sollte auch noch problemlos mit ~200mm² machbar sein.
Da sie beim RV770 Pad limitiert waren sind 200qmm schon sehr knapp. Dafür müsste Sideport weg und Stromverbrauch kräftig nach unten um Fläche beim Anschluß zu sparen.

wuzetti
2009-01-30, 14:00:01
960 SPs ist IMHO viel zu wenig, der Sprung von 55nm zu 40nm ist gewaltig. Ich würde für RV790 mindestens 1280SPs/64TMUs erwarten. Das sollte auch noch problemlos mit ~200mm² machbar sein.



Das ist deinem Link aber nicht zu entnehmen.

wer sagt denn eigentlich dass RV790 in 40nm daherkommt?

reunion
2009-01-30, 14:03:32
Ich. AMD bringt im Q2 2009 sicherlich keinen 55nm Chip mehr.

Gast
2009-01-30, 16:52:31
Es ist auch nirgends gesichert, daß es einen RV790 Chip überhaupt geben wird.

Spasstiger
2009-01-30, 17:18:12
Uebrigens wieso sollte NV die double precision Einheiten loswerden?
Was nützen einem denn vier fp64-MADD-Einheiten? Wenn man von 1400 MHz Shadertakt beim GT218 ausgeht, wären das 11,2 GFlops an Double-Precision-Rechenleistung.
Ein Budget-Prozessor wie der Pentium Dual-Core E5300 mit 2,66 GHz liefert auch schon 10,6 GFlops bei Double Precision.

Für CUDA-Berechnungen mit Double Precision wird wohl kaum einer den GT218 wählen, da wird man schon schwerere Geschütze wie den GT212 auffahren.

Gast
2009-01-30, 17:19:27
alleine schon wegen gddr5 dürften diese karten mind 30 watt mehr verbrauchen, als mit gddr3.

GDDR5 hat doch eine niedrigere spannung und damit auch verbrauch als GDDR3 und 30W nur für den speicher ist schon insgesamt sehr hoch gegriffen, 30W mehrverbrauch sind da mehr als nur unrealistisch.

wuzetti
2009-01-31, 08:14:32
Ich. AMD bringt im Q2 2009 sicherlich keinen 55nm Chip mehr.

im RV7xx fred und bei B3D ist aber genau davon die rede. naja, wir werden ja sehen, wer recht behält! :wink:

Ailuros
2009-01-31, 16:26:33
960 SPs ist IMHO viel zu wenig, der Sprung von 55nm zu 40nm ist gewaltig. Ich würde für RV790 mindestens 1280SPs/64TMUs erwarten. Das sollte auch noch problemlos mit ~200mm² machbar sein.

Ich suchte lediglich nach einer logischen Annaeherung fuer den 2000SP Bloedsinn.

ATI wird dafuer sorgen dass es eine logische Balance zwischen RV770 und RV870 geben wird fuer den Zwischenschieber; dabei kann RV790 nicht zu dicht an 870 liegen und der letztere muss immer noch ein performance chip bleiben der nicht zu stark ueber sagen wir mal 300mm2 steigt um einen guten Vorteil gegen die Konkurrenz zu erhalten. IMHLO sind es weder 960 noch 1280, koennte aber durchaus falsch liegen ;)

Gast
2009-01-31, 16:59:26
Ein RV790 wäre aber ideal im März/April weil Konkurent zur GTX285 und noch weit genug von der 4870 X2 weg und man könnte sich Zeit für den RV870 nehmen bis zum Q4

Gast
2009-01-31, 17:00:31
RV790@1280SPs, 64TMUs ist gemeint

Ailuros
2009-01-31, 17:04:55
Ein RV790 wäre aber ideal im März/April weil Konkurent zur GTX285 und noch weit genug von der 4870 X2 weg und man könnte sich Zeit für den RV870 nehmen bis zum Q4

RV790 wird als direkte Konkurrenz die GT214 haben und wenn eine 790/X2 dann eben die GT212. Natuerlich kommt RV790 um einen Schnitt frueher als GT212 aber auch keine tragische Zwischenzeit so wie es aussieht.

Captain Future
2009-02-01, 09:43:11
Ich. AMD bringt im Q2 2009 sicherlich keinen 55nm Chip mehr.
Und wie lange wird der dMn am Markt bleiben? Von 55 auf 40nm ist das ja kein einfacher Schrumpf mehr sondern eine komplette Hinüberbringung.

AnarchX
2009-02-02, 09:49:17
Wohlmöglich die Notebookvariante des GT212?

Launch Date May 1, 2009

Special Feature(s) Intel i7 Processor; RAID 0/1/5 support; nVidia G280 DDR5

Video and Graphics
Video Memory/Type 1GB GDDR3/GDDR5
Video Architecture/Chipset 16xPCI-E; Nvidia G280; 9800GTX; Quadro FX3700
http://www.eurocom.com/products/future/specselectfuture.cfm?model_id=201

Ailuros
2009-02-02, 09:56:11
Wohlmöglich die Notebookvariante des GT212?


http://www.eurocom.com/products/future/specselectfuture.cfm?model_id=201

Weil beim Speichertyp GDDR3/5 steht? Klingt eher nach einer stinknormalen GT200, obwohl um ehrlich zu sein GT206 hier mehr Sinn machen wuerde (und hoechstwahrscheinlich <10 aktive clusters).

AnarchX
2009-02-02, 10:01:07
Aber dann wohl auch nur 256-Bit mit GDDR5? (16 ROPs... :|) Wobei ich mir nicht so recht vorstellen kann, dass NV Mitte 2009 noch eine G200B-basierende NB-SKU vorstellt, wenn ein passender 40nm Chip in sichtlicher Nähe ist, zumal in diesem Segment die Produktzyklen nicht so kurz sind.

Oder glaubst, dass man im Mai noch keine GT212-basierenden Lösung für einen Paperlaunch hat, worauf es imo wohl hier hinauslaufen wird?

edit:
AFAIK hatte Eurocom(Clevo) ja schon 2007 auf der Cebit Infos zu den G92-basierenden 8800M geleakt gehabt.

Ailuros
2009-02-02, 10:09:26
Aber dann wohl auch nur 256-Bit mit GDDR5? (16 ROPs... :|)

Wenn diese M-GPU tatsaechlich GDDR5 haben sollte, macht wohl 512bit keinen Sinn mehr.

Wobei ich mir nicht so recht vorstellen kann, dass NV Mitte 2009 noch eine G200B-basierende NB-SKU vorstellt, wenn ein passender 40nm Chip in sichtlicher Nähe ist, zumal in diesem Segment die Produktzyklen nicht so kurz sind.

MGPUs kommen meistens um einige Zeit spaeter als desktop GPUs. Das timing fuer einen Mai 2009 fuer eine GT20x MGPU klingt um einiges wahrscheinlicher als irgend ein 40nm Ableger. Natuerlich ist das obrige keine Garantie, denn die bisherige "highest end" M9800GTX+ ist in der Zwischenzeit viel zu ausgelatscht.

Oder glaubst, dass man im Mai noch keine GT212-basierenden Lösung für einen Paperlaunch hat, worauf es imo wohl hier hinauslaufen wird?

Um Himmel's Willen. Wenn die Moeglichkeit ueberhaupt bestehen wuerde dass es eine GT21x@40nm Variante waere, dann waere eine GT214 Variante um zich Male wahrscheinlicher als jeglicher GT212 Ableger. Fuer das letztere koennte ich mir schwer etwas in Netbook-Form vorstellen vor Q4/09 oder sogar Q1/10.

***edit:

AFAIK hatte Eurocom(Clevo) ja schon 2007 auf der Cebit Infos zu den G92-basierenden 8800M geleakt gehabt.

Angenommen es ist ein GT214 Ableger (was IMHLO etwas fruehzeitig klingt), verdient diese MGPU sowieso den "280" Namen.

reunion
2009-02-02, 10:47:37
Ich kann mir aber auch kaum vorstellen das so ein GT200 in ein Notebook kommen soll. Alleine schon das Package ist riesig, dazu braucht es dann auch noch den NVIO, und wenn die Leistung nicht in den Keller gehen soll ein >256-bit SI mit bis zu 16 Speicherbausteinen. Für die 40nm Chips ist es in Notebooks im Mai noch viel zu früh, da erscheint mir eine simple Umbenennungsaktion von nV am wahrscheinlichsten. Ein voller G92 den man halt G280 nennt.

Ailuros
2009-02-02, 12:08:30
Sowohl die M9800 als auch die Quadro3700 die in den Spezifikationen als Optionen erwaehnt werden sind 112SP/256bit GPUs. Etwas mit 128SPs "280" zu nennen waere schon ziemlich uebertrieben.

Die heutigen D901 C Phantom laptops kann man auch mit 2*9800/1GB@SLi kaufen fuer ultra high end. Im Vergleich zu dem (und wahrscheinlich 2*324mm2@65nm) erscheint eine einzelne GPU bei ~480mm2@55nm gar nicht so unmoeglich.

Spasstiger
2009-02-02, 15:42:04
So langsam scheinen sich die Gerüchte zu den Namen der D3D10-Chips, die in 40 nm gefertigt werden, zu verdichten:

Entry-Level/IGP: GT218 -> Markenname vermutlich GeForce G 200
Budget: GT100 -> Markenname vermutlich GeForce GT 210
Mainstream: GT120 -> Markenname vermutlich GeForce GT 220
Performance: GT214 -> Markenname ??? (GeForce GT 260?)
High-End: GT212 -> Markenname ??? (GeForce GTX 290?)

AnarchX
2009-02-03, 19:33:31
GT218 Infos:

http://img19.imageshack.us/img19/2034/gt218p69215939556ye3.gif (http://imageshack.us)

The card we are looking at right now is based on the P692 PCB design codenamed D10M1-30. The core is clocked at 550MHz and shader clock at 1375MHz. The card comes with 512MB of DDR3 memories onboard clocked at 800MHz on 64-bit memory interface. The number of shader processors is not revealed at this moment. The card supports Dual Link DVI, DisplayPort, VGA etc.

http://vr-zone.com/articles/nvidia-gt218-card--specs-surfaced/6529.html?doc=6529

Spasstiger
2009-02-03, 20:34:36
Nach diesem Layout-Plan wäre das Die ja riesig, über 400 mm². Passt so ganz und gar nicht zu einer Low-Profile-Karte.

Die gelbe Eule
2009-02-03, 20:36:31
Oder eben nur ein überdimensionaler Heatspreader.

reunion
2009-02-03, 20:37:11
Das ist nur das Package und das darüber der Kühler IMO.

dargo
2009-02-03, 20:37:58
Nach diesem Layout-Plan wäre das Die ja riesig, über 400 mm². Passt so ganz und gar nicht zu einer Low-Profile-Karte.
Ich glaub dort ist überhaupt kein Die abgebildet sondern nur das Package.

Edit:
reunion war schneller. :D

Spasstiger
2009-02-03, 20:39:32
Ich glaub, ich habe da falsch geschaut. Der innere Rahmen, den ich für das Die gehalten habe, ist einfach nur der Träger. Das außen rum sind die Befestigungslöcher für den Kühler. Der vermeintliche Träger kam mir auch gleich viel zu groß vor. :redface:

So sehen Low-Profile-Karten typischerweise aus, wenn kein Kühler montiert ist:
http://extreme.pcgameshardware.de/attachments/36388d1222812537-bilder-der-hd4350-4350.jpg

Wäre ja auch zu schön gewesen, wenn man die Diegröße des GT218 und somit seine Einheitenzahl hätte abschätzen können. Aber was anderes als ein Shadercluster + eine ROP-SI-Partition halte ich für sehr unwahrscheinlich.

AnarchX
2009-02-05, 08:05:05
Expreview will wissen (http://en.expreview.com/2009/02/05/specs-of-gt218-graphics-card-surfaced.html), dass GT218 sich doch mehr an G9x orientiert und 2 Cluster mit je 8 TMUs und 16SPs besitzt.

Spasstiger
2009-02-05, 09:55:58
2 Cluster und somit 16 TMUs würden mich doch etwas wundern. Vor allem im Verhältnis zur Speicherbandbreite.
Dass die arithmetische Leistung im Verhältnis zur Speicherbandbreite steigt, macht ja angesichts der wachsenden Popularität von PhysX und CUDA (z.B. zwecks Videoencoding und Adobe CS4) noch Sinn, aber mehr Texturleistung wäre wie Perlen vor die Säue.
Das Texelfüllraten-zu-Speicherbandbreiten-Verhältnis läge dann bei 8800/12800 Texel/Byte ~= 0,69 Texel/Byte.
Bei der GeForce GTX 285 beträgt dieses Verhältnis nur rund 0,33 Texel/Byte und das reicht bekanntermaßen schon für 16:1 AF "for quasi free". Wer sich eine Entry-Level-GPU kauft, wird aber zuallerletzt an AF denken.

Gast
2009-02-05, 15:31:27
Am ende sind dann die GT21X alles nur G9X/G200 GPUs in 40nm...

Die gelbe Eule
2009-02-05, 17:10:04
Im Sinne schon, aber doch mit einer gravierenden Weiterentwicklung. Die Strukturbreite um mehr als 35% zu reduzieren bringt einiges an Spielraum und Leistung mit sich, da man eben 1/3 mehr Transistoren unterbringen kann, wenn man muss.

reunion
2009-02-05, 19:17:49
Nvidia's GT225, GT220 and GT210 are die shrinks
http://www.fudzilla.com/index.php?option=com_content&task=view&id=11868&Itemid=1

KonKorT
2009-02-05, 19:42:04
Expreview will wissen (http://en.expreview.com/2009/02/05/specs-of-gt218-graphics-card-surfaced.html), dass GT218 sich doch mehr an G9x orientiert und 2 Cluster mit je 8 TMUs und 16SPs besitzt.

Will wissen? Reine Vermutung.
Es heißt im Original:

"According to the GT218 card drawing leaked by VR-zone and other information around, we start to have an idea of how this card would look like." (Englisch)

"Nach den von VR-Zone gezeigten GT218-Informationen ist uns eine Idee gekommen, wie der Chip aussehen könnte." (Deutsch)

Und ich werde das Gefühl nicht los, dass sie unsere Infos gestohlen haben und als einzige Änderung das mit den TMUs reingeworfen haben, damit es einzigartig aussieht - es wäre nicht das erste Mal. :(

Hier daher der Original-Link:


Nvidia GT218-Taktraten gelüftet? (http://www.hardware-infos.com/news.php?news=2715)

Gast
2009-02-05, 22:17:13
Expreview will wissen (http://en.expreview.com/2009/02/05/specs-of-gt218-graphics-card-surfaced.html), dass GT218 sich doch mehr an G9x orientiert und 2 Cluster mit je 8 TMUs und 16SPs besitzt.

es ist eigentlich kaum zu erwarten, dass lowcost-gpus die teuren G200-cluster bekommen, von daher nicht wirklich eine überraschung.

Die gelbe Eule
2009-02-05, 22:42:02
Werde ich wohl noch länger auf einen 100€ Nachfolger meiner 8800GS warten müssen. Nicht das man gebraucht schon was besseres bekommt, aber man möchte ja Strom sparen und ein aktuelles Featureset bekommen, sonst bewegt man sich ja auf der Stelle.

Coda
2009-02-06, 03:40:33
es ist eigentlich kaum zu erwarten, dass lowcost-gpus die teuren G200-cluster bekommen, von daher nicht wirklich eine überraschung.
Das DP-Zeug wohl nicht, aber evtl. sonstige Detailverbesserungen und das größere Registerfile. Letzteres aber eher nicht im Low-End.

Sorkalm
2009-02-06, 15:08:12
Fudzilla hat mal wieder was:
http://www.fudzilla.com/index.php?option=com_content&task=view&id=11897&Itemid=1

Nvidia 40nm still not in production

The GT218 chip, Nvidia's entry level 40nm GPU, is still not ready for final graphics card production.

The chips might be finalized shortly, and TSMC should start printing them soon, but Nvidia still has to ship the chips to its partners and get first cards out. We heard that April is the earliest timeframe in which you should expect these cards out, and we can only have our fingers crossed for Nvidia and hope that they can meet their own schedule.

KonKorT
2009-02-06, 15:14:04
Ja, das kann ich bestätigen. Definitiv keine Nvidia 40 nm-GPUs zur Cebit. Dafür die Weltneuheiten GTS 250 und GTS 240. ;D

Wird aber noch in Q2 etwas mit den ersten 40 nm-Chips...

AnarchX
2009-02-10, 23:10:44
Nvidia tapes out three CPUs (http://www.theinquirer.net/inquirer/news/925/1050925/nvidia-tapes-cpus)

Nvidia tapes out three CPUs
GT212 is still dead
By Charlie Demerjian
Tuesday, 10 February 2009, 20:48

[...]
That said, the three that have taped out are the GT218, GT216, GT215, the value, mainstream and performance parts respectively. They also taped out in that order. Yawn. The 216 and 218 come out around May 1 give or take a couple of weeks, the 215 a month later.

GT212, welchen der FW185.20 kennt, soll wohl immernoch nicht in die Produktion gegangen sein, laut Charlie.

deekey777
2009-02-10, 23:43:18
Warum sollte GT212 schon in der Produktion sein? Wenn ich mich nicht irre, ist diese GPU die allerletzte und kommt irgendwann im zweiten Halbjahr (wenn überhaupt).

AnarchX
2009-02-10, 23:50:28
Naja, vor einiger Zeit sah es ja noch so aus, dass GT212 als erste 40nm GPU kommt.
Mit um einiges unter <400mm² und 256-Bit GDDR5 wäre er ja auch sinnvoll gewesen um G200B mit einer besseren Marge zu ersetzen.
Aber die Probleme mit dem 40nm Prozess haben hier wohl einen Strich durch die Rechnung gemacht.

Gast
2009-02-11, 00:25:05
Der Markt für G200 ist viel zu klein als daß es lohnen würde, diesen Chip zuerst zu ersetzen.

Ailuros
2009-02-11, 07:19:48
Naja, vor einiger Zeit sah es ja noch so aus, dass GT212 als erste 40nm GPU kommt.

Wo denn? Ich sagte meherere Male dass beide IHVs erstmal mit kleineren cores 40nm angreifen werden und dann erst mit den groesseren.

Mit um einiges unter <400mm² und 256-Bit GDDR5 wäre er ja auch sinnvoll gewesen um G200B mit einer besseren Marge zu ersetzen.
Aber die Probleme mit dem 40nm Prozess haben hier wohl einen Strich durch die Rechnung gemacht.

Wenn ich mir nur NV ansehe, liegen die 40nm Veroeffentlichungen noch in einem logischen Rahmen im Vergleich zu ihrer ersten 55nm Verfuegbarkeit. Natuerlich gab es eine sehr kleine Verspaetung generell, aber es handelt sich IMHLO um mehr als eine handvoll Wochen und nicht mehr. Neben dem Scheiss der Charlie ab und zu zusammenreimt muss er natuerlich auch stets alles zum absoluten Drama treiben.

Ailuros
2009-02-11, 07:22:32
Der Markt für G200 ist viel zu klein als daß es lohnen würde, diesen Chip zuerst zu ersetzen.

Dann erzaehl mir mal wieviele Stueckzahlen in die Profi-Maerkte geschleusst werden, wieviel Gewinn sie an den Dingern machen und wieviel sie machen wuerden bei gleichen Verkaufspreisen mit einem halb so grossen die.

V2.0
2009-02-11, 07:43:19
Keine GT212. Naja wahrscheinlich läuft der 40nm Prozess nicht wirklich und NV hat ja in der letzten Zeit fast jedes Design mehrfach versemmlt und viele Revisionen gebraucht bis was Brauchbares rauskam. GT212 noch in 2009?

Ailuros
2009-02-11, 08:29:05
Keine GT212. Naja wahrscheinlich läuft der 40nm Prozess nicht wirklich und NV hat ja in der letzten Zeit fast jedes Design mehrfach versemmlt und viele Revisionen gebraucht bis was Brauchbares rauskam. GT212 noch in 2009?

Dass es keine GT212 geben soll behauptet nur Charlie bis jetzt. Was den Rest betrifft siehe oben. Ausser Du willst blindlings jeden Mist von Charlie glauben.

Gast
2009-02-11, 11:19:38
Dann erzaehl mir mal wieviele Stueckzahlen in die Profi-Maerkte geschleusst werden, wieviel Gewinn sie an den Dingern machen und wieviel sie machen wuerden bei gleichen Verkaufspreisen mit einem halb so grossen die.

Der Profi-Markt wird nicht nur mit G200 Chips bedient.

Ailuros
2009-02-11, 11:49:12
Der Profi-Markt wird nicht nur mit G200 Chips bedient.

Der high end Profi-Markt schon; kann ich jetzt freundlicherweise eine Antwort auf meine vorige Frage haben oder nicht?

GeneralHanno
2009-02-11, 16:17:37
GT215,216,218 haben angeblich tape-out hinter sich!
http://www.hardware-infos.com/news.php?news=2736

=Floi=
2009-02-11, 16:23:38
die schreiben auch viel, wenn der tag lang ist. Von der seite halte ich mal noch garnichts.

X.Perry_Mental
2009-02-11, 19:28:50
die schreiben auch viel, wenn der tag lang ist. Von der seite halte ich mal noch garnichts.
Zumal das ja auch nur eine eingedeutschte Inq-Meldung ist (wie man ja auch offen zugibt).

aylano
2009-02-12, 04:25:22
Also, ich bin echt gespannt, wie und ob der GT212 eigentlich kommt.

Für mich war der RV770 nicht so wirklich ein auf Energie-Spar getrimmter GPU, da dieser auch 1,26 Volt und fast 50 Watt mehr als sein kleiner Bruder hatte.

Also, wenn AMD schon "solche" Prolbeme per 40nm-TSMC hat und etwas mehr strom verbraucht, dann denke ich, dass es mit dem GT212 schwieriger wird.

Denn der GT200 hatte AFAIK 1,18 Volt (GT200b AFAIK 1,15 Volt).
Naiv gedacht, das 40nm-Problem wird "größer", je tiefer man mit volts gehen will.
Vielleicht kann dann Nvidia per GT212 dann nur mehr auf 1,23-1,25 hinunter, wodurch die Relative Volts-Erhöhung im Vergleich mit dem ATI-GPU deutlich größer wäre (als die absolute-Volterhöhung)

Also, wenn der GT212 auch mehr Strom verbraucht. Mehr als der GT200 (236Watt-TDP) oder GT200b (190watt-TDP)ß???????ß.
Eher würde ich fast den GT200 als bezugspunkt nehmen, da dieser nicht nochmals 3 mal refresht wurde, trotz unproplematischerer Fertigung.

Also, ein 250+ Watt-TDP für GT212, wenn die Fertigung wirklich schlecht geht??????????

Und beim R600 hatten wir ja eh gesehen, welche katastrophalen Auswirkungen es hat, wenn die Architektur & Fertigung überhaupt nicht zusammenpassen.

AFAIK hatte der R600 von Sept 2006 bis März 2007 noch einige Refreshes (& Bugsentfernungen). Aber so viel Zeit hätte Nvidia mit dem GT212 nicht, falls dieser Probleme bereitet. der gt300 grüßt dann

Was meint ihr????????!!!!??

Ailuros
2009-02-12, 07:47:15
Also, ich bin echt gespannt, wie und ob der GT212 eigentlich kommt.

Interessant ist es zwar schon, aber dann nur eher im Anhang zur naechsten Generation.

Für mich war der RV770 nicht so wirklich ein auf Energie-Spar getrimmter GPU, da dieser auch 1,26 Volt und fast 50 Watt mehr als sein kleiner Bruder hatte.

Aber 55nm und ich komm nochmal darauf zurueck; uebrigens hat Dave Baumann sich bei B3D darueber geaeussert. Das Ganze hoert auf die Beschreibung "Power virus".

Also, wenn AMD schon "solche" Prolbeme per 40nm-TSMC hat und etwas mehr strom verbraucht, dann denke ich, dass es mit dem GT212 schwieriger wird.

Was fuer Probleme soll AMD genau haben?

Denn der GT200 hatte AFAIK 1,18 Volt (GT200b AFAIK 1,15 Volt).
Naiv gedacht, das 40nm-Problem wird "größer", je tiefer man mit volts gehen will.
Vielleicht kann dann Nvidia per GT212 dann nur mehr auf 1,23-1,25 hinunter, wodurch die Relative Volts-Erhöhung im Vergleich mit dem ATI-GPU deutlich größer wäre (als die absolute-Volterhöhung)

Also, wenn der GT212 auch mehr Strom verbraucht. Mehr als der GT200 (236Watt-TDP) oder GT200b (190watt-TDP)ß???????ß.
Eher würde ich fast den GT200 als bezugspunkt nehmen, da dieser nicht nochmals 3 mal refresht wurde, trotz unproplematischerer Fertigung.

Also, ein 250+ Watt-TDP für GT212, wenn die Fertigung wirklich schlecht geht??????????

Wo zum Henker kommt jetzt ploetzlich wieder die Schaetzung her dass GT212 um so viel mehr Strom verbrauchen wuerde? Dafuer muesste erstmal GDDR5 verdammt auf die Pauke hauen damit so ein Unterschied zustande kommt.

Um auf 55nm zurueckzukommen, es hiess ja konstant bis zur GT200b Veroeffentlichung dass 55nm keine Vorteile bringen wuerde im Bereich Stromverbrauch, sieht es trotzdem nicht so miserabel aus am Ende wie jeder zu schaetzen vermochte aber auch nur basiert auf RV770@55nm.

Unter der Vorraussetzung dass GT212 tatsaechlich ein 12 cluster/ 4 ROP partitions + GDDR5 chip ist, sehe ich nicht ein warum das Ding mehr als GT200b verbrauchen sollte; ausser natuerlich NV erhoeht zu stark die Frequenzen.

Und beim R600 hatten wir ja eh gesehen, welche katastrophalen Auswirkungen es hat, wenn die Architektur & Fertigung überhaupt nicht zusammenpassen.

Nettes Beispiel; nur kaempften sie laenger mit diversen hw bugs herum als mit dem Herstellungsprozess selber. Wie waere es als Abwechslung daran zu denken wie der Stromverbrauch theoretisch aussehen wuerde wenn RV770 ebenso an die 480mm2 wie GT200b haette?

AFAIK hatte der R600 von Sept 2006 bis März 2007 noch einige Refreshes (& Bugsentfernungen). Aber so viel Zeit hätte Nvidia mit dem GT212 nicht, falls dieser Probleme bereitet. der gt300 grüßt dann

Was meint ihr????????!!!!??

Durch die Zeitspanne die Du erwaehnst kaempfte AMD hauptsaechlich die Frequenz des chips unter Kontrolle zu bekommen. Ende Sommer 2006 lief der R600 auf knapp unter 400MHz mit einem Stromverbrauch der ueber 300W knallte.

NVIDIA wird einen mainstream chip@40nm brauchen um die Luecke unter GT3x0 vor oder ab Ende 09' auszufuellen. Die Schaetzung diverser Webseiten dass die mainstream 40nm chips nach dem GT212 kommen sollen war falsch. AMD beruehrte 40nm zuerst mit RV740 und dann mit RV790 und dementsprechend fing NV zuerst mit dem bescheideneren Zeug an um mit dem komplizierteren zu folgen.

Als zuerst die ersten Probleme seitens TSMC oeffentlich wurden, wurde spekuliert dass vor Q3 nichts mehr von 40nm ankommen soll. Jedoch wird es wohl doch die ersten 40nm in Q2 geben. Es gibt tatsaechlich eine generelle kleine Verspaetung fuer 40nm, aber so gross wie sie stets illustriert wird ist sie nun auch wieder nicht. Verspaetungen eines chips koennen auch ohne fab Probleme zu diesem Massstab bei jeglichem IHV vorkommen.

***edit: damit ich nicht falsch verstanden werde...das Stromverbrauchs-Gewarkel aendert kein bisschen etwas an dem Leistungs/mm2 Vorteil des RV770. Man darf nur nicht vergessen dass alles nicht nur Vorteile haben kann. Haette AMD noch etwas zusaetzliche Zeit fuer RV770 opfern koennen, haette dessen Stromverbrauch gegen eine GT200 wie bei einem IGP ausgesehen.

V2.0
2009-02-12, 08:09:45
Dann dürfte RV790 aber gaz schön aufräumen, denn er behält die grundsätzlichen Vorteile von RV770.

Ailuros
2009-02-12, 08:37:38
Dann dürfte RV790 aber gaz schön aufräumen, denn er behält die grundsätzlichen Vorteile von RV770.

...und auch die grundsaetzlichen Nachteile. Und was nun?

Gast
2009-02-12, 09:43:44
Dann dürfte RV790 aber gaz schön aufräumen, denn er behält die grundsätzlichen Vorteile von RV770.

Welche Vorteile und womit verglichen?

Ailuros
2009-02-12, 10:24:41
Welche Vorteile und womit verglichen?

Ich denke er meinte das Leistungs/mm2 ratio. Unter 40nm mit nur einem theoretischen die shrink waere ein GT21x in etwas so gross wie ein RV770@55nm und ein RV7x0@40nm shrink waere irgendwo um die 160mm2. Das dumme ist natuerlich dass kein GT21x chip 8 ROP partitions bzw. einen 512bit Bus hat ;)

Gast
2009-02-12, 12:01:49
Um auf 55nm zurueckzukommen, es hiess ja konstant bis zur GT200b Veroeffentlichung dass 55nm keine Vorteile bringen wuerde im Bereich Stromverbrauch,


bringt er es wirklich? oder hat NV jetzt nur genug erfahrung mit dem G200-design und kann es jetzt einfach mit niedrigeren spannungen betreiben. hätte man diese spannungen nicht vielleicht auch in 65nm realisieren können?

Gast
2009-02-12, 12:15:03
Ich denke er meinte das Leistungs/mm2 ratio.

Wenn schon, dann Performance/mm², denn bei der Leistung(saufnahme) in W/mm² sehen die ATIs ja richtig alt aus.

Gast
2009-02-12, 12:16:37
bringt er es wirklich? oder hat NV jetzt nur genug erfahrung mit dem G200-design und kann es jetzt einfach mit niedrigeren spannungen betreiben. hätte man diese spannungen nicht vielleicht auch in 65nm realisieren können?

Die Betriebsspannung ist weniger eine Frage des Designs sondern vielmehr des Fertigungsprozesses (und der Takte die man erreichen will).

reunion
2009-02-12, 12:38:47
Ich denke er meinte das Leistungs/mm2 ratio. Unter 40nm mit nur einem theoretischen die shrink waere ein GT21x in etwas so gross wie ein RV770@55nm und ein RV7x0@40nm shrink waere irgendwo um die 160mm2. Das dumme ist natuerlich dass kein GT21x chip 8 ROP partitions bzw. einen 512bit Bus hat ;)

Mit weniger ROPs-Partitions geht das Design aber baden. Und der Bus alleine macht das Kraut auch nicht fett. Nv wird wohl den Nachteil ganz einfach wieder mit dem größeren Die ausgleichen, AMD geht bei RV790 ja anscheinend nur auf 205mm².

Ailuros
2009-02-20, 08:17:30
Mit weniger ROPs-Partitions geht das Design aber baden. Und der Bus alleine macht das Kraut auch nicht fett. Nv wird wohl den Nachteil ganz einfach wieder mit dem größeren Die ausgleichen, AMD geht bei RV790 ja anscheinend nur auf 205mm².

Wenn GT212 baden gehen wuerde dann eher weil irgend etwas mit 40nm nicht stimmt und sie keine anstaendigen Frequenzen erreichen koennen und nicht wegen den ROP partitions. Dieser alberne Mythos dass die G8x ROPs zu kurz geraten sind koennte so langsam sterben; 8xMSAA war selbst auf der R600/RV670 effizienter. Anscheinend haben sie erst vor kurzem angefangen die Leistung fuer 8xMSAA zu optimieren, was durchaus laecherlich klingt wenn man 2.5 Jahre eine Produkt-familie auf dem Markt hat, aber es ist nicht das erste Mal dass ich aehnlichen Bloedsinn sehe.

Der eigentliche Grund warum ich den Thread wieder etwas belebe, ist das merkwuerdige Kapitel GT212. Dass die gesamte GT21x Linie nicht mehr als 4*64 haben wird ist garantiert. Die eigentliche Frage ist jetzt ob das Zeug nun doch nicht nur ein quasi shrink des GT200b auf 40nm ist mit einem schmaleren Bus (und nein ich hab nichts konkretes ich spekuliere tatsaechlich hier).

Da RV790 anscheinend nun doch nur eine 55nm Neuauflage ist, aendert sich das Bild natuerlich wieder um einiges. Der Unterschied zwischen AMD/NVIDIA bleibt wohl irgendwo in der 260<->480 Marge was die Performance GPUs betrifft und dieses koennte sich lediglich ab Q3 aendern wo es sich zu 260<->250-300 aendern koennte.

Ob jetzt RV870 schon in Q3 kommt oder in Q4 ist weniger wichtig fuer das obrige Gewarkel, da ich immer noch sehr ernsthafte Zweifel habe dass das Ding nur 205mm2 wiegt.

GeneralHanno
2009-02-20, 11:02:18
nvidia lässt boardpartnern wieder mehr gestaltungsspielraum:
http://www.hardware-infos.com/news.php?news=2755

Ailuros
2009-02-21, 07:16:36
nvidia lässt boardpartnern wieder mehr gestaltungsspielraum:
http://www.hardware-infos.com/news.php?news=2755

Ja zu den Vermarktungs-argumenten im Artikel und nein zur Board-Qualitaet.Tut mir leid aber ich fuehle mich in jeglichem IHVs Haenden sicherer als jeglichem 0815 Hersteller.

KonKorT
2009-02-21, 13:03:03
Im Artikel steht doch auch, dass die Board-Qualität vermutlich besser ist, wenn sie direkt vom IHV kommt.

"[...] Dass Nvidia schon alles in einem Guss liefert und somit die Partner fast zu Zwischenhändlern avancieren, hat zum einen den Vorteil, dass einheitliche Komponenten ausgeliefert werden, die im vorhinein streng auf Qualität überprüft werden können, und zum anderen [...]"

PS: Anstelle dieser dubiosen VR-Zone-Roadmap könnte man in den ersten Post jetzt folgendes festhalten:

Q2/2009: GT216, GT218
Q3/2009: GT212

Ailuros
2009-02-21, 13:10:33
Entweder wurde die GT212 gestrichen und mit etwas anderem ersetzt oder das Ding war tatsaechlich nie als high end chip gedacht.

Nachdem RV790 eher nach 55nm aussieht, hab ich so manchen Zweifel was kompliziertere als mainstream chips betrifft fuer 40nm.

Hugo
2009-02-28, 19:09:10
is vielleicht nicht die aller beste Quelle.
Ich hab grad in der neuen Gamestar gelesen, dass die neuen HighEnd DT2xx 480 Shader haben sollen in Klammern steht GT214.

Was meint ihr?
Ich dacht GT214 is Mainstream und GT212 Highend?

Spasstiger
2009-02-28, 19:24:45
Ich hab grad in der neuen Gamestar gelesen, dass die neuen HighEnd DT2xx 480 Shader haben sollen in Klammern steht GT214.

Was meint ihr?
480 Shaderunits passen in überhaupt kein Refresh-Konzept.

Gast
2009-02-28, 20:02:57
Es sind bestimmt 480 DP-Units *psssst*

Spasstiger
2009-02-28, 20:07:01
Es sind bestimmt 480 DP-Units *psssst*
Das wäre noch bekloppter. Der GT200 hat nur 30 davon.

Gast
2009-02-28, 20:14:55
480 Shaderunits passen in überhaupt kein Refresh-Konzept.

wenn NV tatsächlich auf 32SPs/cluster aufstockt bräuchte man dafür "nur" 15 cluster, ganz unmöglich dürfte das nicht sein.

Der_Korken
2009-02-28, 20:26:42
wenn NV tatsächlich auf 32SPs/cluster aufstockt bräuchte man dafür "nur" 15 cluster, ganz unmöglich dürfte das nicht sein.
Aber 15 ist in dem Bereich eine sehr "krumme" Zahl. Viel wahrscheinlicher wären dann schon 16 Cluster (=512 Shader), falls es überhaupt annähernd so viele werden.

deekey777
2009-02-28, 20:53:16
Kreatives Zählen: 480 SPs = 12*32 SP-SPs + 12*8 DP-SPs

Gast
2009-03-01, 00:05:22
Aber 15 ist in dem Bereich eine sehr "krumme" Zahl. Viel wahrscheinlicher wären dann schon 16 Cluster (=512 Shader), falls es überhaupt annähernd so viele werden.

10 ist auch eine ziemlich "krumme" zahl, trotzdem hat der G200 10 cluster ;)

=Floi=
2009-03-01, 00:23:45
kann man diese 96DP-Sps nicht einfach auch normal als SP mitrechnen lassen? Das ist sicherlich verschwendung, aber man würde nochmal 1/4 mehr shaderleistung für spiele zur verfügung haben.

deekey777
2009-03-01, 01:14:19
kann man diese 96DP-Sps nicht einfach auch normal als SP mitrechnen lassen? Das ist sicherlich verschwendung, aber man würde nochmal 1/4 mehr shaderleistung für spiele zur verfügung haben.
Wenn man von den aktuellen Cores ausgeht, dann nein, denn die DP-ALUs und die SP-ALUs nutzen die gleichen Datenleitungen, das gleiche Register-File sowie das gleiche Shared-Memory. Also können entweder DP-ALUs oder SP-ALUs "arbeiten".

PCGH_Carsten
2009-03-01, 08:08:35
Dual-Issue -> Triple-Issue.
Das Konzept ist nicht neu, müsste 'bloß' erweitert werden. Natürlich entstehen dadurch andere Probleme, bsw. läge der Register-Sweet-Spot dann nach ~10-11 (G80), ~20 (GT200) wieder nur bei ~13 und das geht sich für den Zeitrahmen und die entstehenden Vorteile IMO nicht aus. Sinnvoller wäre es vielleicht, die SFUs (Transcendentals) aufzubohren, sodass diese DP-Berechnungen machen könnten, wobei - wenn es so einfach wäre, hätten sie's vermutlich so gemacht.

Gast
2009-03-01, 11:26:12
An den DPs werden sie nichts schrauben und sie auch keinesfalls weglassen, damit fällt schließlich CUDA ja auch teilweise flach und das ist ja gut promotet. Also wird jede GPU von nV DPs beinhalten müssen, die auf GT200 basiert.
Vieleicht setzt man auch das namenswirrwar fort, und wirft einen G92@40nm auf den Markt. Über die Taktrate ließe sich ja was machen, was aber bisher bei der GT200 Serie eher in die Hose ging. Die Custom ALUs lassen sich immer noch nicht richtig auf gewünschte Taktraten bringen.

2GHz waren schon vor über einem Jahr das Ziel, erreicht wurde es nicht, und in die Breite gehen ist aktuell schlecht, sonst gibts Monsterchips (selbst in 40nm).

Ailuros
2009-03-01, 19:09:45
...und ich hab in der Borgo Sphinxter Zeitschrift gelesen dass GTX295 bis zum GT3x0 die einzige high end GPU bleiben wird....*seufz*

=Floi=
2009-03-01, 20:18:14
soso ;D
http://www.google.de/search?q=Borgo+Sphinxter&hl=de&safe=off&filter=0

Ailuros
2009-03-01, 20:29:35
soso ;D
http://www.google.de/search?q=Borgo+Sphinxter&hl=de&safe=off&filter=0

Der Scherz ist so alt dass er aus den 3dfxgamer Foren stammt; es war aber auch nur der einzige Scherz in meinem vorigen Beitrag. Der Rest ist ernst gemeint.

GeneralHanno
2009-03-01, 21:50:02
dann scheint ja sicher zu sein, dass es keinen GT212 geben wird. der GT218 und GT216 sollen ja angeblich schon ihr tapeout hinter sich haben.

bleibt als letzte frage: wird nvidia einen GT214/15 für den performencesektor präsentieren?

KonKorT
2009-03-01, 23:10:57
Nein, sicher ist das noch nicht. Sicher ist nur, dass nicht mehr sicher ist, dass GT212 noch kommt.

Ja, GT216 und GT218 sind schon unterwegs.

GeneralHanno
2009-03-01, 23:26:00
das letzte mal das es "positive" andeutungen zum GT212 gab liegt imo schon monate zurück. seitdem gibt es immer mehr zweifen ... :frown:

LovesuckZ
2009-03-01, 23:29:11
das letzte mal das es "positive" andeutungen zum GT212 gab liegt imo schon monate zurück. seitdem gibt es immer mehr zweifen ... :frown:

Naja, du hast jetzt eine der schlimmsten Wirtschaftskrise. nVidia's Lager ist voll von G92(b) und GT200(b) Chips. Es ist unsinnig in dieser Zeit solch einen GT212 auf den Markt zu bringen, der deine jetzigen Chips nicht absetzbar macht. Und mit den Preisen kann man nicht weiter runter, da man sonst neben dem Low-End auch kein Mid-range mehr hat.

Spasstiger
2009-03-01, 23:29:41
Der GT215 soll ja sein Tapeout angeblich auch schon hinter sich gebracht haben: http://www.theinquirer.net/inquirer/news/925/1050925/nvidia-tapes-cpus

Und der GT215 wird wohl der Performancechip, also der G92-Nachfolger. Das muss aber nicht unbedingt ein 256-Bit-SI bedeuten. ;)

/EDIT: Momentan glaube ich, dass der GT215 das wird, was vor einiger Zeit über den GT216 spekuliert wurde.
160 SPs, 40 TMUs und ein 192-Bit-SI. Allerdings ein GDDR5-fähiges SI und evtl. gekoppelt an 24 ROPs statt 12 ROPs. Die schnellsten GT215-Ableger würden sich dann nach meiner Abschätzung zwischen der GTS 250 und der GTX 260 platzieren, so dass der Name GT 260 oder GTS 260 recht passend wäre. Eine abgespeckte Variante mit GDDR3-Speicher könnte dann z.B. GT 240 heißen.

GeneralHanno
2009-03-01, 23:30:17
mit diesen dumpingpreisen hat imo aber ATi angefangen ... (seit RV570)

Sorkalm
2009-03-02, 01:00:31
mit diesen dumpingpreisen hat imo aber ATi angefangen ... (seit RV570)

Die "Dumpingpreise" fallen aber auch in etwa auf den Umstieg von 200mm- auf 300mm-Wafer bei TSMC. Ob es da einen Zusammenhang gibt? ;)
Ich denke mal schon.

AnarchX
2009-03-04, 17:23:45
According to our sources, NVIDIA's attempts to produce a die-shrunk 40nm GT200 chip were "disastrous at best". Design problems became evident, since the GT200 was originally designed for the 65nm node. Two shrinks in a row without a major redesign was just too much for NVIDIA, and our most recent information from Taiwan is that the first 40nm chips from NVIDIA will be in the GeForce 300 series.
http://www.dailytech.com/article.aspx?newsid=14480

Keine 40nm GPUs vor GT3xx? Wobei GeForce 300 für GT21x GPUs auch nicht so abwägig wäre bei NVs Namenpolitik, aber jedenfalls bestätigt dies auch die Gerüchte, dass G200b bis G300 High-End bleiben könnte und GT212 wohl gecancelt wurde.

deekey777
2009-03-04, 17:37:42
http://www.dailytech.com/article.aspx?newsid=14480

Keine 40nm GPUs vor GT3xx? Wobei GeForce 300 für GT21x GPUs auch nicht so abwägig wäre bei NVs Namenpolitik, aber jedenfalls bestätigt dies auch die Gerüchte, dass G200b bis G300 High-End bleiben könnte und GT212 wohl gecancelt wurde.
GeForce 300 series = GT21x :biggrin:

GeneralHanno
2009-03-04, 17:47:32
oder 40nm nur für ultra-low-end, sprich GT218, GT216 ...

LovesuckZ
2009-03-04, 17:47:56
Dort spricht man nur vom GT200. Und das 1,4 Milliarden Transistoren Probleme bereiten können, bezweifel ich nichtmal. Aber wenn man selbst nichtmal einen G92 vor dem 3.Q in 40nm bringt, hat nVidia doch ein ziemliches Problem.
Wobei das wiederum widersprüchlich zu einigen Aussagen zum GT300 steht: Immerhin spricht man dort von "guter Entwicklung".

reunion
2009-03-04, 17:49:47
http://www.dailytech.com/article.aspx?newsid=14480

Keine 40nm GPUs vor GT3xx? Wobei GeForce 300 für GT21x GPUs auch nicht so abwägig wäre bei NVs Namenpolitik, aber jedenfalls bestätigt dies auch die Gerüchte, dass G200b bis G300 High-End bleiben könnte und GT212 wohl gecancelt wurde.

Kann ich mir kaum vorstellen. Der erste 40nm Chip wird sicher kein Monster. Man fängt normalerweise immer mit simplen Chips an.

Wobei das wiederum widersprüchlich zu einigen Aussagen zum GT300 steht: Immerhin spricht man dort von "guter Entwicklung".

GT300 existiert doch noch nichtmal als Silizium. Das erste Tapeout wird frühestens für das zweite Quartal erwartet.

LovesuckZ
2009-03-04, 17:52:55
GT300 existiert doch noch nichtmal als Silizium. Das erste Tapeout wird frühestens für das zweite Quartal erwartet.

Wenn man schlechte Erfahrung mit 1,4Mrd Transisotren gemacht hätte, dann würde man nicht positiv über den GT300 reden. Natürlich beruht dies nur auf Spekulationen, aber imo wäre man wesentlich vorsichtiger mit Aussagen an Dritte.

reunion
2009-03-04, 17:55:25
Wenn man schlechte Erfahrung mit 1,4Mrd Transisotren gemacht hätte, dann würde man nicht positiv über den GT300 reden. Natürlich beruht dies nur auf Spekulationen, aber imo wäre man wesentlich vorsichtiger mit Aussagen an Dritte.

Da es noch nicht mal ein Tapeout gab sehe ich hier keinen Widerspruch. Eine "gute Entwicklung" kann es ja bis dato trotzdem geben. Wo wird denn überhaupt positiv über GT300 gerade auch im Zusammenhang mit der Fertigung geredet?

LovesuckZ
2009-03-04, 17:56:35
Wo wird denn positiv über GT300 gerade auch im Zusammenhang mit der Fertigung geredet?

Wenn man sich positiv über einen Chip äußert, muss wohl auch die Fertigung und jegliche Probleme mt in Betracht gezogen werden. Außer die freuen sich so doll über ihre Reizbrettnotizen. ;)

reunion
2009-03-04, 17:59:22
Nochmal: Wo wird darüber positiv geredet? Ich habe bis dato nichts der gleichen gesehen.

Ailuros
2009-03-05, 07:44:05
Nochmal: Wo wird darüber positiv geredet? Ich habe bis dato nichts der gleichen gesehen.

Es ist die gleiche Firma die sich schwer oder wenn dann nur pessimistisch ueber GT212 auessert aber zur gleichen Zeit ziemlich euphorisch mit allem was GT3x0 betrifft klingt; alles natuerlich hinter den Kulissen.

GT300 existiert doch noch nichtmal als Silizium. Das erste Tapeout wird frühestens für das zweite Quartal erwartet.

Zwar stimmt der zweite Satz, aber den ersten wuerde ich mir etwas besser ueberdenken an Deiner Stelle.