PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Kommende GeForce 200


Seiten : 1 2 3 [4]

igg
2008-09-09, 18:18:11
lol und das sind keine zwei Single Chips? Was ist es den dann? Eine Multi GPU Chip der aus zwei einzel Chip Besteht lol
Es gibt einen kleinen Unterschied zwischen Chip und Karte, der dir hoffentlich bewusst ist. Bisher hat Nvidia für GX2 immer 2 via SLI verbundenen Karten/Platinen in einem Gehäuse verbaut (siehe Bilder (http://www.techpowerup.com/reviews/Zotac/GeForce_9800_GX2/4.html)), nicht 2 Chips auf einer Platine (oder 2 Chips in einem Chip).

Aber vielleicht wolltest du auch genau das sagen und ich habe dich einfach falsch verstanden? Dann sorry!

Was Nvidia bei der nächsten Karte machen wird wissen aktuell vermutlich nur die wenigsten.

Gast
2008-09-09, 18:18:43
Ich wusste, dass jetzt dieser Einwand käme. Ob das wirtschaftlich ist, sei aber auch mal dahingestellt. ;)
Ist es wirklich nötig, diesen Zwischenschritt mit 384 Bit zu gehen?
Dass man 48 ROPs verbaut, glaube ich übringens nicht. ROPs sind nämlich in der Herstellung relativ teuer und der Nutzen hebt das in diesem Beispiel in keinem Fall auf.

Coda
2008-09-09, 18:28:51
Es gibt einen kleinen Unterschied zwischen Chip und Karte, der dir hoffentlich bewusst ist. Bisher hat Nvidia für GX2 immer 2 via SLI verbundenen Karten/Platinen in einem Gehäuse verbaut (siehe Bilder (http://www.techpowerup.com/reviews/Zotac/GeForce_9800_GX2/4.html)), nicht 2 Chips auf einer Platine (oder 2 Chips in einem Chip).
Was spielt das für eine Rolle?

AnarchX
2008-09-09, 18:42:30
Dass man 48 ROPs verbaut, glaube ich übringens nicht. ROPs sind nämlich in der Herstellung relativ teuer und der Nutzen hebt das in diesem Beispiel in keinem Fall auf.
ROPs teuer? Bei GT200 benötigen die 32 fetten ROPs ca. 6,25% der Gesamtfläche.

centurio81
2008-09-09, 20:38:37
Wie das?
Bei Vollauslastung im Furmark sind 430 ALUs der 4870 aktiv: 645 GFLOPs.

Jetzt bin ich gespannt woher du die Aussage hast?

Gast
2008-09-09, 20:40:12
ROPs teuer? Bei GT200 benötigen die 32 fetten ROPs ca. 6,25% der Gesamtfläche.

Woher beziehst Du diese Info? Kann sie nicht ganz glauben.

Gast
2008-09-10, 00:07:41
Wenn das ding wirklich 384ALUs und 92TMUs haben wird kommt der zu 100% mit 32ROPs und 512Bit GDDR5, oder wenn es nötig wäre sogar mit 64ROPs 512Bit, je nach dem ob die ROPs limitieren? Denke aber nicht...

Schon der aktuelle G200 limitiert doch recht schnell beim Speicher!

LovesuckZ
2008-09-10, 00:24:07
ROPs und Speicherinterface sind zusammen gekoppelt. Mehr ROPs bedeuten auch ein breiteres Speicherinterface.

Gast
2008-09-10, 00:36:19
Ich weiß nicht, wie Du rechnest, aus meiner Sicht jedoch sehr, sehr optimistisch.

Vor dem Hintergrund, dass der GT200b (55 nm) rund 470 mm^2 wird, würde ein 40 nm-Chip rechnerisch auf.

470*0,53 = 249,1 mm^2 kommen. In der Praxis könnte man so einen Chip dann in etwa 290 mm^2 erwarten.

Jetzt sag Du mir mal, wie Nvidia 16 weitere TMUs und 144 weitere SPs auf 290 mm^2 packen soll? Dann müsste man die Packdichte - ähnlich wie AMD beim RV770 - schon stark verändern. Ich erwarte den möglichen GT212 mit eben genannten Spezifikationen in 40 nm bei rund 400 mm^2.

Ein G200b wäre so ziemlich genau 400mm² gross

Kannst es dir selber ausrechnen, G92 vs G92b

AnarchX
2008-09-10, 08:26:36
Ein G200b wäre so ziemlich genau 400mm² gross

575 * 0.81 = 466mm².
55nm ist ein 90% linearer Shrink von 65nm.

Ich weiß nicht, wie Du rechnest, aus meiner Sicht jedoch sehr, sehr optimistisch.

Vor dem Hintergrund, dass der GT200b (55 nm) rund 470 mm^2 wird, würde ein 40 nm-Chip rechnerisch auf.

470*0,53 = 249,1 mm^2 kommen. In der Praxis könnte man so einen Chip dann in etwa 290 mm^2 erwarten.

Jetzt sag Du mir mal, wie Nvidia 16 weitere TMUs und 144 weitere SPs auf 290 mm^2 packen soll? Dann müsste man die Packdichte - ähnlich wie AMD beim RV770 - schon stark verändern. Ich erwarte den möglichen GT212 mit eben genannten Spezifikationen in 40 nm bei rund 400 mm^2.
Wie schon gesagt auf dieser Basis:
This is also based on a die shot, although a better one so if you can't corroborate it, you'll just have to believe me:
~26.5% SMs, ~26% Non-SM Clusters (TMUs etc.), ~14.25% memory I/O, ~13.25% unique, ~8% MCs, ~6.25% ROPs, ~2% Misc. I/O, 4%+ Misc. (intrachip I/O, rounding errors, unidentifiable units, etc.)
SMs * 1,6, Non-SMs* 1,2 = ~700mm² @65nm /2,43 (Packdichte von 40nm gegenüber 65nm laut TSMC) = ~290mm².
Man darf nicht vergessen, dass bei GT200 ziemlich viele Transitoren in anderes als die reinen Einheiten fließen.

Ailuros
2008-09-10, 09:22:03
reunion,

Ueber 40/45nm fragte ich schon bei B3D; es sieht mir auch eher nach 45nm aus obwohl ich mir auch nicht ganz sicher bin.


Ich denke schon. 256 Bit wäre zu schmall und 384 Bit hätte man wieder das Problem mit der Speicherbestückung. 768 MiB wären zu knapp bemessen für so einen Monster-Chip und 1536 MiB GDDR5-Speicher - das wird teuer.

Wieso sollte 1.5GB Speicher zu teuer fuer eine high end GPU sein? Vorraussetzung ist natuerlich dass es sich um single chip handelt sonst waere das Ganze schon ziemlich daemlich.

Zudem würde die Anzahl der ROPs von 32 auf 24 fallen, es sei denn man verbaut pro ROP-Partition mehr ROPs. Diese sind doch gerade unter 8-fachem Anti-Aliasing gefordert, wo Nvidia gehörig Nachholfbedarf hat.

Wer sagt dass ein solcher chip mit 24 ROPs theoretisch von der Pixel oder Z Fuellrate unterfuettert waere? Und nein die Anzahl der ROPs hat ueberhaupt nichts mit 8xMSAA zu tun. AMD hat nur 16 auf RV770, hat aber anscheinend ein weit effizientere Kompression fuer 8xMSAA und wohl um einiges weniger Speicher- und/oder Bandbreiten-Verbrauch.

AnarchX
2008-09-10, 09:47:25
Ueber 40/45nm fragte ich schon bei B3D; es sieht mir auch eher nach 45nm aus obwohl ich mir auch nicht ganz sicher bin.

Wenn man die 55nm der GT206 sich anschaut, dann sieht es nicht unbedingt nach 45nm aus.

Zudem ist ja 45nm ein reiner Low-Power-Prozess der wohl kaum für (High-End-)GPUs zum Einsatz kommt.

reunion@work
2008-09-10, 10:10:33
Wenn man die 55nm der GT206 sich anschaut, dann sieht es nicht unbedingt nach 45nm aus.

Das Bild ist oben wesentlich unschärfer. Nach einer durchgezogenen Null sieht es für mich jedenfalls nicht aus, man erkennt deutliche Einkerbungen an den Stellen wo eine 5 "Löcher" hat. Auch bilde ich mir ein das man in der Mitte einen "Querstrich" erkennt.


Zudem ist ja 45nm ein reiner Low-Power-Prozess der wohl kaum für (High-End-)GPUs zum Einsatz kommt.

Und eine 40nm High-End-GPU soll schon im Q1 kommen? Das wäre dann eine verdammt aggresiver Strategie. Gerade von nV würde ich das kaum erwarten. Aber abwarten.

Ailuros
2008-09-10, 10:33:42
Und eine 40nm High-End-GPU soll schon im Q1 kommen? Das wäre dann eine verdammt aggresiver Strategie. Gerade von nV würde ich das kaum erwarten. Aber abwarten.

Dreimal bis jetzt bestaetigt; in anderen Worten Q1 wenn alles nach Plan laeuft...das Lied kennt schon fast jeder heutzutage ;)

***edit: falls die 212 ein dual-wasauchimmer Dingsbums sein sollte, dann ist es auch kein besonderes Problem, denn man shrinkt eigentlich nur einen 206 auf 4xnm. Bei einem single chip Monstrum ist das Risiko aber zugegeben ziemlich gross, ueberhaupt wenn man auf hohe Frequenzen hoffen sollte.

Gast
2008-09-10, 18:59:08
192SPs sind aber wenig... über 1,5GHz kommen sie ja nur sehr schwer bei hohen Stromverbrauch.
Ich hoffe das sie was am Grund Design geändert haben, z.b. die neuen Einheiten beim G200 weglassen für "nicht professionelle Mainstream" Karten die auf GPGPU einen feuchten geben.

Am SI hängt der G200 sowieso in den seltesten Fällen. Aktuell weiß ich leider auch nicht genau wo es etwas an Power fehlt, auser eben bei den ALUs die ein wenig in fahrt kommen könnten. Außer dem Stromvebrauch kann ich meiner GTX260 auch aktuell nichts ankreiden, AA Leistung könnte besser sein bei TSSAA Verwendung ^^. Wer brauch schon 8xAA bei Full HD Auflösung.

Gast
2008-09-10, 21:09:39
Blödsinn, der G200 limitiert ganz sicher nicht bei den ALUs, Aktuell gibt es so wie so kein Game das wirklich ALU lastig ist.

Die Anwendung mit der grössten ALU Belastung ist ganz klar 3DMark Vantage und da stehen die G200 komischer weise richtig gut da...

Coda
2008-09-10, 21:12:42
Vor allem wurde ALU:Tex bei G200 um 50% erhöht. ATi ist beim gleichen Verhältnis geblieben.

Gast
2008-09-10, 21:13:30
Der G212 ist sicher kein Dual Chip, erstes gab es das von NV noch nie und eine separate Chip Bezeichnung gab es dafür bei NV auch noch nir und zweites ist die Meinung von NV gegen über diesem Multi GPU Zeug ganz klar:

Grösser ist Besser

reunion
2008-09-10, 21:16:18
Vor allem wurde ALU:Tex bei G200 um 50% erhöht. ATi ist beim gleichen Verhältnis geblieben.

Das ALU/TEX-Verhältnis ist trotzdem fast gleich geblieben, da die ALU-Taktraten deutlich sanken.

Der G212 ist sicher kein Dual Chip, erstes gab es das von NV noch nie und eine separate Chip Bezeichnung gab es dafür bei NV auch noch nir und zweites ist die Meinung von NV gegen über diesem Multi GPU Zeug ganz klar:

Grösser ist Besser

Huang sagte Anfang des Jahres in einem Interview das nV bei einer neuen Generation immer zuerst einen großen Single Chip und dann einen Shrink mit Dual-Chip-Karte anstrebe. Demnach wäre jetzt der Shrink als GX2 dran.

Coda
2008-09-10, 21:17:37
Haste recht. Hab ich ganz vergessen. Das war aber wohl nicht so geplant ;)

Gast
2008-09-10, 21:21:30
Das ALU/TEX-Verhältnis ist trotzdem fast gleich geblieben, da die ALU-Taktraten deutlich sanken.



Huang sagte Anfang des Jahre in einem Interview das nV bei einer neuen Generation immer zuerst einen großen Single Chip und dann ein Shrink mit Dual-Chip-Karte anstrebe. Demnach wäre jetzt der Shrink als GX2 dran.

Die GX2 werden wir zu 99% mit dem G206 sehen, nicht vergessen, NV hat ganz klar gesagt das sie im Q4 eine neue High-End Karte bringen!

AnarchX
2008-09-10, 22:36:46
Ja, da gab es ja noch die eine Aussage:
NVIDIA says it will win back performance leadership this year (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6727226#post6727226)

diedl
2008-09-11, 02:50:16
reunion,

Ueber 40/45nm fragte ich schon bei B3D; es sieht mir auch eher nach 45nm aus obwohl ich mir auch nicht ganz sicher bin.


Habe das Bild mal mit einem trainierten neuralen Filter vergrößert.
(Genauigkeit 64 bit, Fließkomma, je Farbkanal)
Eindeutig ist es zwar nicht, sieht aber wirklich eher nach 45 nm aus.

mfg diedl

reunion@work
2008-09-11, 07:54:06
Habe das Bild mal mit einem trainierten neuralen Filter vergrößert.
(Genauigkeit 64 bit, Fließkomma, je Farbkanal)
Eindeutig ist es zwar nicht, sieht aber wirklich eher nach 45 nm aus.

mfg diedl

Danke. Wenn das keine 5 ist dann weiß ich auch nicht. Damit geht nV zuerst noch auf 45nm und nicht gleich auf 40nm wie AMD. Das erklärt dann auch etwas besser wie man einen solchen High-End-Chip so früh starten kann. Allerdings ist 45nm dem 40nm Prozess von TSMC doch ziemlich stark unterlegen.

robbitop@work
2008-09-11, 08:57:39
Diese sind doch gerade unter 8-fachem Anti-Aliasing gefordert, wo Nvidia gehörig Nachholfbedarf hat.
Wie oft wird dieses blöde Märchen noch erzählt? Seit G80 ist mehr als genug Z/Stencil Leistung da. Der Einbruch hat andere Gründe. Einer ist das sehr beengte Tri-Setup.

Ailuros
2008-09-11, 09:11:22
Danke. Wenn das keine 5 ist dann weiß ich auch nicht. Damit geht nV zuerst noch auf 45nm und nicht gleich auf 40nm wie AMD. Das erklärt dann auch etwas besser wie man einen solchen High-End-Chip so früh starten kann. Allerdings ist 45nm dem 40nm Prozess von TSMC doch ziemlich stark unterlegen.

Es gibt aber eine (zugegeben geringe) Chance dass sich ELSA etwas hier verzettelt hat, denn wie schon woanders erwaehnt 45LP= 45nm waehrend 45GS= 40nm. 45nm macht aus vielen Gruenden keinen besonderen Sinn aber ich leg meine Hand auch nicht mehr ins Feur (so frueh).

robbitop@work
2008-09-11, 09:24:02
Das wär' das erste Mal, dass TSMC bei einem Full-Node keinen Performance Prozess anbietet.
Ein LowCost Prozess muss im Übrigen nichts Schlechtes bedeuten. Für 110nm existierte IIRC auch keine HP Variante.

Die Übersicht bei TSMC spricht von den gleichen Auswahlvarianten wie bei 65 nm: GS, LP und LPG
http://www.tsmc.com/english/b_technology/b01_platform/b010101_45nm.htm

40nm ist im Portfolio von TSMC auf der Page noch nicht erwähnt.

Ailuros
2008-09-11, 09:41:36
Das wär' das erste Mal, dass TSMC bei einem Full-Node keinen Performance Prozess anbietet.
Ein LowCost Prozess muss im Übrigen nichts Schlechtes bedeuten. Für 110nm existierte IIRC auch keine HP Variante.

Die Übersicht bei TSMC spricht von den gleichen Auswahlvarianten wie bei 65 nm: GS, LP und LPG
http://www.tsmc.com/english/b_technology/b01_platform/b010101_45nm.htm

40nm ist im Portfolio von TSMC auf der Page noch nicht erwähnt.

*ahem*

There's one tiny bit of information in there that is especially noteworthy, and which confirms 45GS is essentially a 40nm node: the gate density is 2.43x 65nm's. This has also been implied by TSMC's management in recent conference calls.

http://www.beyond3d.com/content/news/568

robbitop@work
2008-09-11, 12:08:17
Wie unlogisch.

aylano
2008-09-11, 15:47:42
Komisch finde ich die Dimension 45NM. Die heißt korrekt 45nm.
Ein Weltkonzern sollte schon fähig sein, in Präsentationen richtige Dimensionen zu schreiben. Rechtschreib-Fehler im Marketing & in Präsentationen sehen ja auch doof/unglaubwürdig aus.

Oder vielleicht ist 45NM eine Bezeichnung wie 45GS???

Ja, da gab es ja noch die eine Aussage:
NVIDIA says it will win back performance leadership this year
Wäre das etwas mit einer einer GX2 a la 2x192 in 55nm (=GT206?) nicht möglich?

Der G212 ist sicher kein Dual Chip, erstes gab es das von NV noch nie und eine separate Chip Bezeichnung gab es dafür bei NV auch noch nir und zweites ist die Meinung von NV gegen über diesem Multi GPU Zeug ganz klar:

Grösser ist Besser
Nvidia war der Meinung bzw. hatte den Einführungszeit-Punkt RV670 und die Performance des RV770 auch anders eingeschätzt.

Dazu ist es bei Nvidia unüblich, einen High-End-Chip als erstes in der neusten Fertigungstechnologie zu fertigen.
AFAIK war es bisher nicht üblich, den Vorgänger High-End-Chip nicht zu Shrinken a la Non-GT200 in 45/40nm), sondern es sollten angeblich wieder neue Chips mit 192 SP und 384 SP in Wasauchimmer-nm rauskommen.

Also, wenn es keinen GT200 in 45/40nm-Shrink rauskommt, zeigt ja schon, wie Nvidia mit den 240 SP danebengeriffen hat. (Und warum sollten es 382 SP in 45/40nm per Ende Januar dann besser gehen?)
Vielleicht wäre ein GT200 mit 192 SP, aber mit höheren Takten besser (Yielrate?, weiter-Shrink-Nutzbarkeit, GX2 wäre früher Möglich gewesen?) besser gewesen. Das nehme ich mal blind an.

Also, einen High-End-chip in 40/45nm mit 200-300mm² und halbwegs gute Yieldraten halte ich für Ende-Januar & Nvidia (=Unübliche Fertigungseinführung) nicht so ganz möglich, außer ATI kann mit einer 45/40nm-Performance-Chip-Version früher kontern.

Vor allem finde ich komisch, dass Nvidia zuerst eine "Performcne-GPU mit 192 SP in 55nm" einführen will und so kurz danach noch eine High-End-GPU in 45/40nm-Fertigung (neue Fertigung und noch viel mehr SP a la 384), obwohl Nvidia eh schon so Probleme mit GT200 hat.
Vor allem, wenn man sieht, was Nvidia in den letzten 2 Jahren gemacht hat

Und jetzt soll Nvidia ganze Berge versetzten, obwohl man/viele dachten, dass der Große Sprung eigentlich mit dem GT200 hätte kommen sollen und etwas länger lebt als nur 6 Monate a la G80, G92, G92+ ????

Gast
2008-09-11, 16:35:39
Danke. Wenn das keine 5 ist dann weiß ich auch nicht. Damit geht nV zuerst noch auf 45nm und nicht gleich auf 40nm wie AMD. Das erklärt dann auch etwas besser wie man einen solchen High-End-Chip so früh starten kann. Allerdings ist 45nm dem 40nm Prozess von TSMC doch ziemlich stark unterlegen.

Es gibt doch gar keinen eigenen 45nm Prozess, TSMC hat von Anfang an auf 40nm gesetzt!

Genau deswegen verstehe ich auch nicht was an den 40nm so unglaubwürdig sein soll.

aylano
2008-09-11, 20:00:44
Es gibt doch gar keinen eigenen 45nm Prozess, TSMC hat von Anfang an auf 40nm gesetzt!
Genau deswegen verstehe ich auch nicht was an den 40nm so unglaubwürdig sein soll.
Der 40nm-Prozess an sich ist ja nicht unmöglich. Sondern der Zeitpunkt der Einführung. TSMC sagte ja selber, dass AFAIK es die ersten GPUs in 45/40nm erst Ende 1Q geben wird.

Und auf einmal will Nvidia eine 45/40nm-GPU (so wie es auf der Grafik-Roadmap aussah) schon Mitte Januar bringen. Und das noch mit High-End-GPUs und nicht wie normal mit den Pimperl-Low-End-GPUs bzw. Mainstream-GPUs.

Klar, die TSMC-Aussage war "schon länger" her und die 45/40nm-Fertigung kann überraschenderweise besser laufen als damals geplant a la RV670, der ja auch eine Revision (=3 Monate) früher als geplant kam. Tja, 3 Monate früher und diese GT212 in Mitte 1Q könnte stimmen.

Aber wie oft kommen solche Überraschungen vor?

Somit ist es ja nicht unmöglich, aber viel würde ich persönlich nicht drauf wetten, vorallem wenn es bei Nvidia in den letzten Monaten eher schlechter- als besser-als-erwartet (Yieldrate, AFAIK GT200-Taktraten, Konkurrenz-Einschätzung, Material-Probleme, usw usw) lief.

Im Grunde ist es IMO nicht so entscheidend, ob Nvidia den GT212 Ende Januar oder Ende 1Q raus bringt. Viel interessanter ist der Zeitunterschied ("positiv oder negativ") zur ATI-45nm-Performance/"High-End"-Version.

AnarchX
2008-09-11, 20:26:38
Ist es denn so schwierig zu verstehen, dass 45GS = 40nm (40G) ist und ATi und NV auch keinen anderen Prozess nutzen werden?

Furthermore, TSMC's 40nm General Purpose (40G, also known as 45GS) process is positioned as a full-node technology, although using half-node design rules, with IP ecosystem support. It provides 2.35 times the standard cell raw gate density of the 65nm process. TSMC's 40nm Low Power process (40LP) is also supported with a comprehensive IP infrastructure.
[...]
The 40nm General Purpose (40G, also known as 45GS) process is based on 40nm design rules that leverage the yield experience from 45LP. It will enter initial production in the middle of 2008.

http://www.tsmc.com/download/english/a05_literature/02_40_and_45_Nanometer_Process_Technology.pdf (ist neuer als der Artikel bei B3D/RWT) ;)

NV ist hier mutig, aber auch nicht übermütig...

Gast
2008-09-11, 23:09:55
und wenn was schief geht hat man ja immer noch einen G206 in 55nm der für eine GX2 gut genug wäre, wenn die nicht sogar schon fest geplant ist...

Leonidas
2008-09-12, 07:02:37
Komisch finde ich die Dimension 45NM. Die heißt korrekt 45nm.
Ein Weltkonzern sollte schon fähig sein, in Präsentationen richtige Dimensionen zu schreiben. Rechtschreib-Fehler im Marketing & in Präsentationen sehen ja auch doof/unglaubwürdig aus.



Manchmal gibt es für solche seltsamen Fälle einfache Erklärungen:

Die Jungs sind Asiaten und schreiben in ihren eigenen Schriftzeichen (koreanisch, chinesisch, japanisch), unsere Schriftzeichen sind denen also genauso fremd wie uns asiatische. Demzufolge werden dann, wenn aus der Not wirklich westliche Schrift benutzt wird, sehr sehr oft nur Großbuchstaben verwendet - es ist einfacher für Leute zu merken, die nur selten damit zu tun haben. Alles noch nach Groß/Kleinschreibung zu trennen, würde die Leute überfordern. Deswegen wird in Asien vieles westliches Zeugs, was nicht übersetzt wird, generell in Großbuchstaben geschrieben. Nur wenn es für Westler geschrieben wird, wird nach Groß/Kleinschreibung getrennt, für Asiaten aber alles groß.

reunion@work
2008-09-12, 07:33:57
NV ist hier mutig, aber auch nicht übermütig...

Ob sie nicht übermütig sind muss sich erst noch herausstellen.

aylano
2008-09-12, 10:08:26
Manchmal gibt es für solche seltsamen Fälle einfache Erklärungen:
Nun ja, jetzt hört sich das nicht mehr seltsam an. Gut zu wissen.

Ailuros
2008-09-12, 20:42:18
Nun ja, jetzt hört sich das nicht mehr seltsam an. Gut zu wissen.

Eigentlich waere es ja 40μ, aber wie oft benutzt man schon solche Buchstaben? *grins*

Zum Rest irgendwo muessen die Unkosten fuer die GT200 Entwicklung wieder reinfliessen; und natuerlich hat man das Zeug von Anfang an nicht fuer nur 65 bzw. 55nm geplant.

Beide IHVs werden versuchen die D3D10 bzw. 10.1 Kuh (nur AMD momentan) bis zum geht nicht mehr auszumelken. Und ja NVIDIA hat nach allen Angaben ihre Strategie was die Herstellungsprozesse betrifft geaendert.

igg
2008-09-12, 21:35:42
Gibts eigentlich noch Infos zu dem 55 nm (bisher unter GT200b gehandelt) Refresh der 260/280 oder ist das mit der 206/212 erstmal gestorben?

Gast
2008-09-14, 20:14:19
This is also based on a die shot, although a better one so if you can't corroborate it, you'll just have to believe me:
~26.5% SMs, ~26% Non-SM Clusters (TMUs etc.), ~14.25% memory I/O, ~13.25% unique, ~8% MCs, ~6.25% ROPs, ~2% Misc. I/O, 4%+ Misc. (intrachip I/O, rounding errors, unidentifiable units, etc.)

Schon etwas älter, aber hast Du vielleicht auch so eine ähnliche Aufstellung zum RV770? Wäre jedenfalls interessant.

Ailuros
2008-09-15, 11:27:12
Gibts eigentlich noch Infos zu dem 55 nm (bisher unter GT200b gehandelt) Refresh der 260/280 oder ist das mit der 206/212 erstmal gestorben?

Wenn GT206 das ist nach dem es aussieht, hat er wohl doch vielleicht GT200b ersetzt.

Snoopy1978
2008-09-15, 11:34:00
http://forums.vr-zone.com/showthread.php?t=327564


Sieht so aus als dauert es nicht mehr lange..

Ailuros
2008-09-15, 11:37:31
http://forums.vr-zone.com/showthread.php?t=327564


Sieht so aus als dauert es nicht mehr lange..

Das ist doch lediglich eine GT200@65nm mit 9 clusters.

igg
2008-09-15, 12:09:13
http://forums.vr-zone.com/showthread.php?t=327564


Sieht so aus als dauert es nicht mehr lange..
Läuft der NDA dafür nicht morgen aus? Ist aber wohl immer noch der 65 nm Chip, kein GT200b (falls der überhaupt noch kommt und nicht gleich zu GT206 usw. gewechselt wird).

Gast
2008-09-16, 11:12:01
Eigentlich waere es ja 40μ, aber wie oft benutzt man schon solche Buchstaben?
hab ich was verpasst?

mictasm
2008-09-16, 12:04:58
hab ich was verpasst?

Nein, nur leichte Verwirrungen hier und da. ;)

Gast
2008-09-16, 15:14:51
Haben es nun schwarz auf weiss: Hardware-Infos schreibt, dass die neue GTX 260 in 65 nm gefertigt wird und auch denselben Namen behält. ComputerBase wollte anscheinend einen Artikel bringen, Exemplar steht angeblich aber beim Zoll.

http://www.hardware-infos.com/news.php?news=2397

http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2008/september/die_geforce_gtx_260_start/

igg
2008-09-16, 15:17:01
Hier gibt es zur neuen 65nm 55nm GTX260 einen ausführlichen Testbericht: HardOCP (http://enthusiast.hardocp.com/article.html?art=MTU1NiwxLCxoZW50aHVzaWFzdA==) inkl. Vergleich zur alten GTX260 sowie 4870.

Update: Laut HardOCP sind es 55 nm! There are two big changes in this new GPU, first it has undergone a die shrink to 55nm, and second there are 24 more streaming processors enabled for a total of 216.

Sorkalm
2008-09-16, 15:49:04
Hmm, laut PCGH aber nicht, deren Ding zeigt auch die erwartete Leistungsaufnahme für 65nm...
Und ich glaube die unter NDA standen dürften das wissen, wenn es so wäre. ;)

=Floi=
2008-09-16, 18:43:02
welchen sinn macht es eigentlich, zwei chips zu produzieren?
1. wäre ein 40nm GT260 noch günstiger herzustellen und
2. was macht man mit den defekten 280iger chips?

das ergibt doch so garkeinen sinn

wie sieht es eigentlich mit den taktraten aus und wie will man dann den 222mm² kleinen chip kühlen?
wie sieht es mit dem nachfolger des GT280 aus?

AnarchX
2008-09-16, 19:23:26
Hmm, laut PCGH aber nicht, deren Ding zeigt auch die erwartete Leistungsaufnahme für 65nm...
Und ich glaube die unter NDA standen dürften das wissen, wenn es so wäre. ;)
Bei HKEPC ist jedenfalls ein G200-103-A2: http://www.hkepc.com/?id=1684&page=1&fs=idn#view

HardOCP zeigt ja leider nicht den HS, ich bezweifele aber auch dass sie einen B1/B2-Die haben, sofern es G200 @ 55nm überhaupt gibt.

Gast
2008-09-16, 21:29:32
Einen 1:1 40/45nm GT200 wirds nicht geben. Wenn der 55nm Shrink schon sein Tapeout brachte, wird er wohl flüsterleise im Markt auftauchen und die 65nm GPUs ablösen, ohne das man es groß mitbekommt.

Den echte "Refresh" in Form einer 45nm GT20x wirds ja nicht vor dem 1.Quartal 09 geben. Auch nV kann nicht zaubern, und die Shrinks der G9x Derivate zeigt ja, das die GT200er nicht für den Midrange gedacht sind. Die "CUDA Einheiten" fressen da zuviele Transistoren.
Bis DX11 vermute ich, und das ließt man bei B3D ja auch zwischen den Zeilen, bleibt nV bei der G9x Architektur und Shrinkt einfach auf 45nm. Highend wird weiterentwickelt und für 2009 sind 2 Highend GPUs in 45nm geplant.

Ailuros
2008-09-17, 11:58:16
Hier gibt es zur neuen 65nm 55nm GTX260 einen ausführlichen Testbericht: HardOCP (http://enthusiast.hardocp.com/article.html?art=MTU1NiwxLCxoZW50aHVzaWFzdA==) inkl. Vergleich zur alten GTX260 sowie 4870.

Update: Laut HardOCP sind es 55 nm!

*ahem*

Originally, we had stated the new GTX 260 was 55nm as told to us by BFGTech. This has proven to be innacurate. BFGTech's Associate Product Manager had this to say: "Sorry about the confusion this may or will create, but the GTX 260 “MAXCORE” product from us does in fact feature a GPU made using 65nm process technology. No D10U GPU to date has been 55nm." So the new GTX 260 is still 65nm, even though it has more streaming processors and more texture units.

http://enthusiast.hardocp.com/article.html?art=MTU1NiwxLCxoZW50aHVzaWFzdA==

Einen 1:1 40/45nm GT200 wirds nicht geben. Wenn der 55nm Shrink schon sein Tapeout brachte, wird er wohl flüsterleise im Markt auftauchen und die 65nm GPUs ablösen, ohne das man es groß mitbekommt.

Den echte "Refresh" in Form einer 45nm GT20x wirds ja nicht vor dem 1.Quartal 09 geben. Auch nV kann nicht zaubern, und die Shrinks der G9x Derivate zeigt ja, das die GT200er nicht für den Midrange gedacht sind. Die "CUDA Einheiten" fressen da zuviele Transistoren.
Bis DX11 vermute ich, und das ließt man bei B3D ja auch zwischen den Zeilen, bleibt nV bei der G9x Architektur und Shrinkt einfach auf 45nm. Highend wird weiterentwickelt und für 2009 sind 2 Highend GPUs in 45nm geplant.

40μ

mictasm
2008-09-17, 13:05:41
40μ

µ?

Sorkalm
2008-09-17, 13:08:11
Er meint sicher 40 nm. 40 µm wären etwas sehr groß. ;)

mictasm
2008-09-17, 13:21:49
Er meint sicher 40 nm. 40 µm wären etwas sehr groß. ;)

Dass er das meint ist klar, ich mache mir nur Sorgen um seinen Gemütszustand, da er es auf der letzten Seite auch schon geschrieben hatte. :wink:

Vielleicht ist er nur überarbeitet.

Sorkalm
2008-09-17, 13:29:14
Hmm, stimmt du hast Recht:

Eigentlich waere es ja 40μ, aber wie oft benutzt man schon solche Buchstaben? *grins*

Aber naja, das ist nun nichts weltbewegendes, wir verstehen ihn ja. Und stressig ist es wohl bei jedem mal. ;)

Gast
2008-09-17, 14:34:34
Ich denke das es keinen G200b mehr gibt, macht doch neben dem G206 und G212 gar keinen sinn!

Oder vieleicht ist der G206 auch einfach ein G200b...

Gast
2008-09-17, 17:28:05
40μ

µ = Kurzzeichen des Präfixes „Mikro“ im SI-Einheitensystem (10−6)

nm = Nano bezeichnet den milliardsten (10-9) Teil

:)

igg
2008-09-17, 17:40:13
Meine Vermutung ist: Die G200b Variante kommt still und leise und wird einfach die 65 nm Chips ersetzen und das wars. Die großen Sprünge kommen dann mit G206 und G212.

Gast
2008-09-17, 18:13:30
Dafür spricht, das es um die G9xb auch keinen großen Wind und erst Recht keine neuen Namen gab.

aylano
2008-09-17, 19:10:54
Immerhin gabs ein Plus ala 9800GTX+

AnarchX
2008-09-17, 19:38:29
Immerhin gabs ein Plus ala 9800GTX+

Die 9800GXT+ gibt es auch mit 65nm G92A.

Gast
2008-09-18, 10:01:06
Die 9800GTX+ gibt es nur mit G92b von NVIDIA aus...

Gast
2008-09-18, 10:04:39
Die 9800GTX+ gibt es nur mit G92b von NVIDIA aus...
Beweiß?

aylano
2008-09-18, 14:52:56
Die 9800GXT+ gibt es auch mit 65nm G92A.
Wusste ich garnicht.
Gibts dazu einen link, der das genauer beschreibt?
Was ist eigentlich eine G92A (eine neue Revision?)

AnarchX
2008-09-18, 15:18:44
Wusste ich garnicht.
Gibts dazu einen link, der das genauer beschreibt?
Selbst im 3DC hat es einen "erwischt":
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=431495
Nicht umsonst nennt der Treiber die 9800GTX mittlerweile 9800GTX/9800GTX+ und führt die 55nm GTX+ nochmal einzeln.


Was ist eigentlich eine G92A (eine neue Revision?)
Nein, die Ursprungsrevision A2 mit der G92 auf dem Markt kam, der optische Shrink ist dann meist die B bzw. gar C-Revision.

Gast
2008-09-18, 15:29:30
Nochmal, die 9800GTX+ gibt es nur mit G92b, ich habe bis heute noch keinen Beweis (DIE Foto) gesehen der was anderes sagt.

Ich habe selber eine 9800GTX+ mit einem 9800GTX Bios und trotzdem ist ein G92b verbaut.

Gast
2008-09-18, 15:35:24
Meine 9800GTX+

http://img516.imageshack.us/img516/8946/dsc04648pg8.jpg

http://img516.imageshack.us/img516/1250/865ay3.jpg

Auf der Karte selber steht auch nur 9800GTX, noch fragen?

Gast
2008-09-18, 15:36:58
noch mal ich...

Die Karte stammt übrigens aus der erst Lieferung der 9800GTX+ Serie, hatte die schon im July.

aylano
2008-09-18, 19:00:29
Nicht umsonst nennt der Treiber die 9800GTX mittlerweile 9800GTX/9800GTX+ und führt die 55nm GTX+ nochmal einzeln.
Und wie Groß ist der Stromverbrauchs-Unterschied zwischen einer G92-65nm & G92-55, die als 9800GTX+ verkauft werden?? Oder ist der ca. gleichhoch.
Und wie sieht es mit den Volts aus??

Also, wenn ersten 9800GTX+ mit 65nm-Stücke ausgestattet waren, dann sind die 55nm-Versionen später gekommen.
Da wundert es mich ja nicht, dass die GT200-55nm so lange braucht, wenn der 65-->55nm Umstieg bei der G92 schon fast 8 Monate -oder so- dauerte.

Gast
2008-09-18, 19:39:32
Die Produktion dürfte schon längst angelaufen sein, schließlich war G200 schon lange fertig, hat eben etwas Probleme in 65nm gemacht. Der Shrink auf 55nm müsste demnach schon im März in die Testläufe gegangen sein.
Oder nV hat nach einsehen, das G200 nicht das erwartete Margenziel erreicht, einfach die Pläne etwas umgestrikt.
Müssen wir mal abwarten, was AIL und die Jungs vom B3D uns so erzählen.

Gast
2008-09-18, 19:42:53
noch mal ich...

Die Karte stammt übrigens aus der erst Lieferung der 9800GTX+ Serie, hatte die schon im July.

Sind halt selektierte G92 GPUs die sehr hohte Taktraten schaffen, die werden als + einfach abverkauft und dürften deswegen noch etwas im Handel sein, bis die 65nm Produktion komplett eingestellt wird.

Gast
2008-09-18, 19:42:59
In 34 Tagen ist es soweit

http://www.nvnews.net/vbulletin/showthread.php?p=1780841#post1780841

Gast
2008-09-18, 23:17:53
Fragt sich nur ob GT200b oder GT206 gemeint ist.

Gast
2008-09-18, 23:35:58
Sind halt selektierte G92 GPUs die sehr hohte Taktraten schaffen, die werden als + einfach abverkauft und dürften deswegen noch etwas im Handel sein, bis die 65nm Produktion komplett eingestellt wird.

Meine hat eben einen G92b wie man klar auf dem Foto sieht, wie oft soll ich den eigentlich noch schreiben das es keine 9800GTX+ mit G92a gibt????

Die G92a die noch übrig waren wurde auf den 9800GT und 9600GSO verbaut...

igg
2008-09-19, 10:06:04
Fragt sich nur ob GT200b oder GT206 gemeint ist.
Gute Frage. Wenn in Q4 ein GT206 könnte es sich dabei ja um besagten GT200b handeln? Kann mir nur schwer Vorstellen, dass Nvidia im Q4 ein GT200b, GT2006 und GT212 launcht (alle im Performance/Enthusiast Segment).

Ailuros
2008-09-19, 11:15:35
Die Produktion dürfte schon längst angelaufen sein, schließlich war G200 schon lange fertig, hat eben etwas Probleme in 65nm gemacht.

Das einzige Problem dass GT200 hatte war dass NV intern zu lange verhandelte ob man das Ding veroeffentlichen soll oder nicht.

Der Shrink auf 55nm müsste demnach schon im März in die Testläufe gegangen sein.
Oder nV hat nach einsehen, das G200 nicht das erwartete Margenziel erreicht, einfach die Pläne etwas umgestrikt.
Müssen wir mal abwarten, was AIL und die Jungs vom B3D uns so erzählen.

Nochmal es sieht danach aus als ob GT200b fuer GT206 storniert wurde. Und ja das letztere erreicht knapp ueber 1 TFLOP, hat aber nichts mit den Tesla slides von NV zu tun.

Gast
2008-09-19, 14:02:01
1 Teraflops? Danach sieht es aber doch nicht aus, Ailuros. Die Roadmap von Elsa zeigte, dass sich der GT206 hinter die GTX 280 postiert. Nun ist Shaderleistung nicht alles, trotzdem aber denke ich, dass der GT206 eher die Rolle der GTX 260 übernimmt und wie hier schon erwähnt mit 192 SPs, 48 TMUs und 256 Bit-Interface daherkommt.

Sorkalm
2008-09-19, 14:05:14
Mit 700/1750 hätte man auch bei 192 SPs den TFLOP. Sollte bei einem kleineren Chip in 55 nm auch mal möglich sein, wenn man das Problem mit dem Shadertakt gefixt hat.

AnarchX
2008-09-19, 14:06:57
@Gast
Würde ja trotzdem nicht dagegen sprechen, dass GT206 1 TFLOPs erreicht, aber mangels Tex/Pix-Leistung sich im Durchschnitt unter der GTX 280 einordnet und von der Leistungscharacteristik eher der 4870 entspricht.

Sorkalm
2008-09-19, 14:13:39
Vmtl. hätten sie dann bei einem 256 Bit Interface nur 16 ROPs und auch insgesamt etwas niedrigere Speicherbandbreite.

Ailuros
2008-09-19, 14:22:31
1 Teraflops? Danach sieht es aber doch nicht aus, Ailuros. Die Roadmap von Elsa zeigte, dass sich der GT206 hinter die GTX 280 postiert. Nun ist Shaderleistung nicht alles, trotzdem aber denke ich, dass der GT206 eher die Rolle der GTX 260 übernimmt und wie hier schon erwähnt mit 192 SPs, 48 TMUs und 256 Bit-Interface daherkommt.

Sie zeigte ebenso dass die "neue" 9800GTX++ einen guten Schnitt ueber der heutigen 9800GTX+ liegt. Wuerde ich den Abstand hier interpretieren, muesste die erste fast 2x mal so schneller sein als die erste.

Wie schon von anderen erwaehnt, ist die ALU-Leistung nicht der einzige Faktor der die Leistung bestimmt. Ergo ein paar Prozent mehr FLOPs heisst nicht automatisch um soviel mehr Leistung. Wenn NV ein bisschen Grips hat werden sie genau an den Stellen Transistoren sparen wo es fuer die Leistung weniger wichtig ist und etwas mehr an den Stellen (ALUs) wo es fuer die Leistung etwas wichtiger ist. Eine Platzierung zwischen der heutigen 260 und 280 ist daher durchaus moeglich. Das wichtigste an der ganzen Geschichte ist sowieso der finale Preis einer 206, denn keiner hat je angedeutet dass das Ding in irgend einer Art schneller sein soll als eine 280.

***edit: die 9800GTX hat uebrigens auch mehr GFLOPs als selbst eine 8800Ultra. Na und?

Gast
2008-09-19, 16:12:06
Ja, ich schrieb ja bereits, dass die ALU-Leistung nur ein Kriterium ist. Trotzdem vielen Dank, dass meine Aussage in den darauffolgenden Posts noch einmal kräftig wiederholt wurde. ;)

Wie Sorkalm schon schrieb, würden knapp 1750 MHz benötigt, um die 1-Teraflop-Marke bei 192 SPs zu erreichen.
Dass der Chip mehr SPs hat, würde klar gegen die aktuellen Gerüchte sprechen und für Nvidia auch aus wirtschaftlicher Sicht nicht gut tun, schließlich will man mit diesem Chip ja HD 4870 und HD 4850 endgültig den Kampf ansagen. Und dass der Chip einen so hohen Shadertakt hat, davon will ich auch einfach mal Abstand nehmen.

Ich glaube schon, dass der Chip schnell sein wird und auch hinsichtlich des TMU-ALU-Verhältnisses wahrscheinlich von 1:3 auf 1:4 korrigiert wird, gegen die mehr als 1 Teraflop wehre ich mich jedoch wie gehabt. :)

Es werden maximal 900 Gflops.

igg
2008-09-19, 23:17:48
Gabs eigentlich irgendwo Andeutungen wo der Unterschied zwischen GT200b und GT206 sein soll?

GeneralHanno
2008-09-20, 16:22:34
kann man sagen:
GT206 zu GT200 ist vergleichbar mit G92 zu G80 ?!?

Gast
2008-09-20, 21:25:38
Wenn man das hier so liest, ja.

Die GTX280 zu übertreffen ist wohl aktuell sehr schwer, da die Architektur nicht höher getaktet werden kann und aufgrund der Größe auch nicht noch weiter verbreitert werden wird. Früher waren Refreshers immer ein Boost, aber heute sieht es eher nach gesteigerter Marge aus (R600-RV670 / RV770-?).

VooDoo7mx
2008-09-21, 03:38:38
kann man sagen:
GT206 zu GT200 ist vergleichbar mit G92 zu G80 ?!?

Nein, da diesmal deutlich Hardwareeinheiten wegfallen.

Die GTX280 zu übertreffen ist wohl aktuell sehr schwer, da die Architektur nicht höher getaktet werden kann und aufgrund der Größe auch nicht noch weiter verbreitert werden wird.

Das ist beides falsch. nVidia hat den G200 warscheinlich so konserativ getaktet, weil sie nicht mit so einen "starken" RV770 gerechnet haben. Das im Takt deutlich mehr drin ist zeigen ja die Übertaktungserfolge und reihenweise ab Werk übertakteten Karten.
Und auch die Architektur kann man noch weiter verbreitern. genau das geschieht ja mit dem G212 welcher nochmal ne ordentliche Schippe Hardwareeinheiten draufgelegt bekommt.

Meine Spekulation:

Ende Oktober holt sich nVidia im Balkenwettkampf die Krone wieder zurück.
Erreicht wird dies durch eine Dual Chip G206 Karte. Vielleicht gibt es den G206 sogar nur erstmal als Dual Karte.
Ohne großes Aufsehen wird der G200B den G200 ersetzen.

Im 1. Quartal kommt der G212 in 40nm und wird die G206 GX2 und den G200B obsolet machen. Die neue Leistungslücke schließt dann eine Single Chip G206 der auch schon in 40nm gefertigt wird, quasi die neue Performance Karte. Im weiteren verlauf kommen dann immer kleinere Abkömmlinge der G200 Architektur in 40nm zum Vorschein.

mictasm
2008-09-21, 05:44:17
Deine Spekulation hört sich für mich stimmig an. Über die einzelnen Wochen muss man ja nicht streiten, der Ablauf könnte aber wirklich so hinkommen.
Aber ob die wirklich den 40nm-Prozess so schnell im Griff haben?

Nightspider
2008-09-21, 05:59:42
Ob ein so breiter Chip wieder der G212 schon so "zeitig" in 40nm erscheinen wird ist bzw. kann ist eine andere Frage...

VooDoo7mx
2008-09-21, 06:10:08
Also das mit der Fertigung wurde hier schon ausgiebig diskutiert. Und es ist bei rausgekommen, dass 40nm in Q1 2009 absolut im Bereich des machbaren sind.
Ob es nun wirklich so kommt sei dahingestellt.

Und es kann auch so sein wie Ailuros vermutet, das zu Gunsten des G206 der G200B fallengelassen wurde.
Wenn der G206 tatsächlich solche Einsparungen an Hardwareeinheiten hat wie vermutet, sollte auch die Transistorzahl dementsprechend abnehmen, dazu kommt noch die günstigere 55nm Fertigung. Vielleicht kommt ja nVidia mit dem G206 sogar auf ca ~400mm²?
Man muss ja nur ungefähr die Leistung einer GTX 260 erreichen, dies ist eigentlich auch schon ausreichend. So kann man die alten G200 GTX 260 und GTX 280 auslaufen lassen und kann auch eine G206 Dual Chip Karte basteln.
Man erreicht dann zwar Single Chip nicht mehr die GTX 280 aber das braucht man eigentlich auch gar nicht. Man ist ja sowohl als Single als auch Dual Konfiguration schneller. (G206 vs 4870, G206 X2 vs 4870X2)

Eigentlich macht dieses Szenario sogar mehr Sinn. nVidia spart einerseits deutlich Kosten mit dem G206 gegenüber einen imaginären G200B, kann die relativ teuren GTX 260 und 280 Boards durch kostengünstigere G206 Boards aber zum gleichen Preis anbieten, hat die Möglichkeit mit dem G206 eine Dual Chip Karte zu bauen und behält trotz alledem noch die Balkenkrone wowohl im Single Chip als auch Dual Chip Markt.

Man weißt eiegntlich nur 3 Sachen sicher:

- G206, 55nm noch dieses Jahr
- G212, 40nm Q1 2009
- nVidia holt sich dieses Jahr noch die Balkenkrone zurück
:ugly:

Gast
2008-09-21, 10:14:24
- nVidia holt sich dieses Jahr noch die Balkenkrone zurück
:ugly:
Warum zurück?
3 GTX 280 sind immer noch schneller als 2 4870 X2. ;)

Gast
2008-09-21, 11:00:24
Das ist beides falsch. nVidia hat den G200 warscheinlich so konserativ getaktet, weil sie nicht mit so einen "starken" RV770 gerechnet haben. Das im Takt deutlich mehr drin ist zeigen ja die Übertaktungserfolge und reihenweise ab Werk übertakteten Karten.

Wenn dem so wäre, hätte man eine Ultra released...
Fakt ist, das Design wird zu warm und verbraucht zuviel Strom, wenn die Shadereinheiten über 1,5GHz gehen.
Also macht man das selbe wie beim G92, man reduziert die Transitoren und erhöht die Taktrate, dazu kommt noch der Shrink.

Ob die CUDA Einheiten wegfallen wäre noch interessant zu wissen, auf der NVision sagte ja der CEO, das man ein Opfer für CUDA gebracht hat, G200. Denn als Spiele GPU hätte er die Einheiten nicht gebraucht.

Gast
2008-09-21, 12:31:36
Hmm
http://img401.imageshack.us/img401/5019/newcardsai9.jpg

Gast
2008-09-21, 13:10:43
Netter Photoshop, das ist eigentlich schon Spam...

VooDoo7mx
2008-09-21, 17:44:09
Warum zurück?
3 GTX 280 sind immer noch schneller als 2 4870 X2. ;)

Das ist mir auch klar, nur ist im Moment die 4870 im Balkentest die schnellste Einzelkarte zur Zeit und nur das zählt für die Presse.
Ich selber finde es auch idiotisch so eine Dual Chip Karte mit einer EInzelkarte zu vergleichen.

Wenn dem so wäre, hätte man eine Ultra released...
Fakt ist, das Design wird zu warm und verbraucht zuviel Strom, wenn die Shadereinheiten über 1,5GHz gehen.
Also macht man das selbe wie beim G92, man reduziert die Transitoren und erhöht die Taktrate, dazu kommt noch der Shrink.


Allein marktpolitisch macht es keinen Sinn eine Ultra (oder ähnliches) aufzustellen.
Gegen was sollte denn sich eine Ultra gegenüber der GTX 280 besser positionieren? Man wäre im Balkentest immer noch weit hinter einer 4870X2 und müsste eine Ultra teurer als die GTX 280 verkaufen was aber schon ins Preisgefüge der 4870X2 geht oder man macht sich die Margen selber noch mehr kaputt indem man die Ultra an die Position der GTX 280 bringt und ebendiese dann günstiger anbietet.
Alles würde keinen Sinn machen, weil man damit im Balkenkampf nicht ebsser dasteht. Eine Ultra würde erst Sinn machen, wenn man damit eine 4870X2 schlagen kann.

Und woher nimmst du den Zusammenhang Shadertakt und Temperatur? Ich kann da nämlich keinen Zusammenhang auf meiner G200 Karte erkennen.

GeneralHanno
2008-09-21, 17:49:22
nvidias hauptproblem ist imo die marge bzw. der gewinn. ati hat in allen marktsekmenten relativ günstige karten, die sich gut verkaufen. nvidia hat dagegen nur sehr große dice (G92 ist GRÖßer ! als RV770, zum G200 brauche ich nix zu sagen), die zu relativ schwachen preisen (G92 ~100€, G200 ab 200€) verkauft werden müssen und leistungstechnisch zu Atis RV770 recht schwach dastehen ...

nvidia braucht wieder einen "preis-leistungs-chip" wie den G92, nur eben mit "neuer" architektur um auch dem RV770 paroli bieten zu können ...

VooDoo7mx
2008-09-21, 18:14:56
Also ein G92B ist nicht größer als der RV770. Und eine 9800GTX+ ist auch imemr noch schneller als eine 4850. (aber auch teurer)

_DrillSarge]I[
2008-09-21, 18:22:37
Also ein G92B ist nicht größer als der RV770. Und eine 9800GTX+ ist auch imemr noch schneller als eine 4850. (aber auch teurer)
ich würde eher sagen, eine 4850 ist in etwa gleich schnell (ich streite mich jetzt nicht um +/- paar prozent) und unter extremen settings (besonders 8xmsaa) schneller.
ausserdem kostet die gtx+ eine ganze ecke mehr als eine 4850 ;).

Gast
2008-09-21, 18:26:48
klar mit AI off ..ihr verarscht euch doch selbt mit eurem ATI gecheate

VooDoo7mx
2008-09-21, 18:43:58
I[;6798305']ich würde eher sagen, eine 4850 ist in etwa gleich schnell (ich streite mich jetzt nicht um +/- paar prozent) und unter extremen settings (besonders 8xmsaa) schneller.
ausserdem kostet die gtx+ eine ganze ecke mehr als eine 4850 ;).

Selbst wenn ein Auto 105km/h schafft ist es trotzdem schneller als eines was nur 100km/h schafft. Die 9800GTX+ ist eben etwas schneller, Punkt.

Hast du auch mal ein paar vergleiche mit 8xMSAA zur Hand?

Desweietren erkauft sich auch ATi seine Balken durch schlechtere Bildqualität.

Wenn ich mich persönlich zwischen 9800GTX+ und 4850 entscheiden müsste, würde ich ganz ehrlich auf die 20€ scheißen und mir die teuere NV Karte holen.
Das gleiche hab ich auch bei meiner Entscheidung 4870 vs GTX 260 getan
Allein schon weil ich damit eine Bildqualität erreichen kann, die auf ATi Karten einfach nicht möglich ist.
Persönlich finde ich auch den Kühler auf der HD 4850 schlecht, welcher gut das Gehäuse mit aufheizt und wo die Grafikkarte in 2D schön auf 80°C vor sich hinkocht, da gefällt mir der 9800GTX/+ Kühler deutlich besser.

Und bevor jetzt wieder jemand hier kommt und mir nen Fanboy unterstellt. Ich hab mir selber eine 4850 gekauft udn hab auch in den letzten 5 Jahren mehrere ATi Karten genutzt. (9500, X800Pro, mobility X1600, X1950Pro usw)

_DrillSarge]I[
2008-09-21, 18:49:22
Hast du auch mal ein paar vergleiche mit 8xMSAA zur Hand?
auf die schnelle:
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/kurztest_ati_radeon_hd_4850_rv770/#abschnitt_prolog (leider schon etwas alt)
^^da sind ganz paar 8xaa benches dabei
die übrigen benchseiten pcgh&co kommen auch zu dem selben ergebnis.
musste dort ggf. mal selber nachschauen.

€: http://www.pcgameshardware.de/aid,653996/Test/Benchmark/Geforce_9800_GTX_im_Benchmark-Test/?page=1

VooDoo7mx
2008-09-21, 18:56:50
Also bei 1600x1200 mit 8xMSAA dürfte einer 9800GTX+ der Speicher ausgehen wenn ich mir den CB Benchmark betrachte. Für das Setting dürfte die 4850 schon die bessere Wahl sein. Nur wird selbst bei den Settings die 4850 bei aktuellen Titeln keine gut spielbaren Werte erzielen.

Für aktuelle Titel + 1600x1200 und 8xMSAA halte ich beide Karten für zu langsam.

Black-Scorpion
2008-09-21, 19:06:05
Hast du auch mal ein paar vergleiche mit 8xMSAA zur Hand?
Sorry, aber das wurde schon so oft durchgekaut.
NV ist damit nicht nur ein wenig langsamer sondern bricht damit komplett ein.

Aber es kommen bestimmt gleich wieder Kommentare das man es ja nicht nutzen muss und es andere Modi gibt.

igg
2008-09-21, 19:23:31
Hmm
http://img401.imageshack.us/img401/5019/newcardsai9.jpg
Das ist nicht mal Photoshop, sondern wird im Webshop tatsächlich so gelistet:
http://austin.net.au/ProductList/tabid/103/Default.aspx?Category=GRAPHICS+CARDS

Erlaubt sich aber vermutlich einfach nur jemand ein Spaß...

AnarchX
2008-09-21, 19:27:07
Erlaubt sich aber vermutlich einfach nur jemand ein Spaß...
Wohl eher Werbung für das übrige Angebot, die GTX 350 ist ja eher ein altes Produkt der Gerüchteküche und mit ihren Daten mittlerweile nicht mehr wirklich glaubwürdig. ;)

igg
2008-09-21, 19:49:43
Wohl eher Werbung für das übrige Angebot, die GTX 350 ist ja eher ein altes Produkt der Gerüchteküche und mit ihren Daten mittlerweile nicht mehr wirklich glaubwürdig. ;)
Abgesehen davon: Ich glaube schon, dass die nächsten zwei Produkte von Nvidia extrem erfolgreich sein müssen. Sonst wird in 2 Jahren die Luft zwischen Fusion, Larabee und wie sie alle heißen sehr dünn für Nvidia.

Gast
2008-09-21, 21:07:44
Nur weil nun der Umsatz mal eingebrochen ist? Würd mir da nicht ins Hemd machen, die haben Jahrelang gut Gewinn eingefahren. Muss man eben kleinere Brötchen backen.
Außerdem sind alle Produkte Konkurrenzfähig, wenn halt die Marge nicht gut is, wird sie es eben mit dem nächsten Produkt.

Von mir aus können sie die G9800+ Ultra bringen oder endlich die 9900GTX für den Mainstream. In 40nm mit GDDR5 bügelt die sicher eine GTX260 bei weniger Stromverbrauch unter Last.
Auf die G200 Architektur kann man hier getrost verzichten, sollen gleich einen Schritt weitergehen.

LovesuckZ
2008-09-21, 21:13:34
Abgesehen davon: Ich glaube schon, dass die nächsten zwei Produkte von Nvidia extrem erfolgreich sein müssen. Sonst wird in 2 Jahren die Luft zwischen Fusion, Larabee und wie sie alle heißen sehr dünn für Nvidia.

Den selben Quatsch hat man auch schon zu NV30 Zeiten erzählt.

reunion
2008-09-21, 21:15:39
Also ein G92B ist nicht größer als der RV770.

Doch.


Und eine 9800GTX+ ist auch imemr noch schneller als eine 4850. (aber auch teurer)

RV770 wird auch auf der 4870 verbaut.

Selbst wenn ein Auto 105km/h schafft ist es trotzdem schneller als eines was nur 100km/h schafft. Die 9800GTX+ ist eben etwas schneller, Punkt.


Alles eine Frage der verwendeten Benchs. Fakt ist da gar nichts, dein Vergleich hinkt. Sie sind ungefähr gleich schnell.


Desweietren erkauft sich auch ATi seine Balken durch schlechtere Bildqualität.


Q vs. AI_low ist absolut vergleichbar und so wird auch gebencht.


Und bevor jetzt wieder jemand hier kommt und mir nen Fanboy unterstellt. Ich hab mir selber eine 4850 gekauft udn hab auch in den letzten 5 Jahren mehrere ATi Karten genutzt. (9500, X800Pro, mobility X1600, X1950Pro usw)

Darf ein "Fanboy" keine anderen Karten kaufen?

Undertaker
2008-09-21, 21:16:15
Sorry, aber das wurde schon so oft durchgekaut.
NV ist damit nicht nur ein wenig langsamer sondern bricht damit komplett ein.

Aber es kommen bestimmt gleich wieder Kommentare das man es ja nicht nutzen muss und es andere Modi gibt.

Naja, selbst wenn er praktisch gar nix kostet, schon im Standbild habe ich Probleme, ohne Lupe wirkliche Unterschiede zu entdecken... Bilder stammen von einer 4870:

4xAA http://www.abload.de/img/4aa34x.png
8xAA http://www.abload.de/img/8aaalb.png

Ich mein, gibt es wirklich Leute hier die darin einen echten Mehrwert sehen? :confused: Und da ist das schon eine extra gewählte Stelle, die noch recht große Chancen für eine Unterscheidung ermöglicht. Wenn eine Karte optimal mit 4xAA läuft, wäre ich absolut zufrieden. :)

LovesuckZ
2008-09-21, 21:18:09
Q vs. AI_low ist absolut vergleichbar und so wird auch gebencht.


HQ gegen AI_Off auch.

reunion
2008-09-21, 21:24:36
Also bei 1600x1200 mit 8xMSAA dürfte einer 9800GTX+ der Speicher ausgehen wenn ich mir den CB Benchmark betrachte. Für das Setting dürfte die 4850 schon die bessere Wahl sein. Nur wird selbst bei den Settings die 4850 bei aktuellen Titeln keine gut spielbaren Werte erzielen.

Für aktuelle Titel + 1600x1200 und 8xMSAA halte ich beide Karten für zu langsam.

Dann mach mal die Augen auf. Man kann sehr viele Spiele mit einer 4850 in diesen Settings flüssig spielen.

Sorkalm
2008-09-21, 22:05:46
HQ gegen AI_Off auch.

Aktuell nicht so sinnvoll, da AI_Off auch wirklich alle sinnvollen Optimierungen abschaltet.

LovesuckZ
2008-09-21, 22:38:57
Aktuell nicht so sinnvoll, da AI_Off auch wirklich alle sinnvollen Optimierungen abschaltet.

Das spielt nochmal welche Rolle für die Bildqualität?

Sorkalm
2008-09-21, 22:42:23
Das spielt nochmal welche Rolle für die Bildqualität?

Wenn man kaum Verbesserungen an der Bildqualität hat relativ viel, dann schaltet man das nämlich praktisch nicht an. Womit ich auch keine Benchmarks damit brauche.

LovesuckZ
2008-09-21, 22:53:08
Dann brauchen wir auch keine Benchmarks mit 8xMSAA. Ich hoffe, dass wirst du auch jetzt immer schön schreiben, wenn man jemand mit 8xMSAA Werte ankommt.

Sorkalm
2008-09-21, 23:00:26
Der Unterschied zwischen AI. Off und 8x MSAA ist halt, das man bei 8x MSAA nicht noch einen Haufen anderes Zeug dazubestellt sondern man es bei beiden ohne Probleme bekommt.
Wirklich brauchen tue ich das auch nicht, aber das kann man noch sinnvoll testen.

Gast
2008-09-21, 23:03:41
Die 9800GTX+ ist eben etwas schneller, Punkt.



Auch wenn Du es noch 10x bringst, bleibt es eine falsche Behauptung, da es 1. aufs Spiel ankommt und 2. auf den Treiber. Diese Karten nehmen sich gar nichts. Die Ati ist moderner und könnte (man beachte den Konjunktiv) da eventuell einmal von profitieren. Ach ja: Punkt.

deekey777
2008-09-21, 23:07:13
Das Thema ist eigentlich "Kommende Geforce 200". Punkt.

Gast
2008-09-22, 11:21:06
http://en.hardspell.com/doc/showcont.asp?news_id=3764
na dann mal warm anziehen... :lol:

igg
2008-09-22, 11:58:43
http://en.hardspell.com/doc/showcont.asp?news_id=3764
na dann mal warm anziehen... :lol:
Das ist doch die gleiche News wie vom Juli (siehe Datum)?

mictasm
2008-09-22, 12:40:55
Da hat einer im EVGA Forum gewühlt... Oh man...

igg
2008-09-22, 14:10:40
Bei techpowerup schreiben sie, dass die GTX350 evtl. eine Dual GTX2xx ist. Dann würden auch die 512 Bit SI Sinn machen, allerdings vermutlich GDDR3.

Abgesehen davon finde ich lesen sich diese GTX3xxx Gerüchte ungefähr genauso wie die der ursprünglichen 9800 GTX (die Überkarte, die nie kam).

Moralelastix
2008-09-22, 16:25:33
GeForce GTX 280+ (GT200-b) in September? GTX 350 (GT300) in Q4 08?
http://forums.vr-zone.com/showthread.php?t=330157

Gast
2008-09-22, 16:38:58
Habe gerade die Nachricht von einem bekannten erhalten der einer kennt der bei einem Distributor arbeitet und dort für den Einkauf der Grafikkarten verantwortlich ist, hört sich komisch an ist aber so...

Nach seiner Aussage gibt es derzeit keinen Termin für neue Grafikkarten, ob wohl ich jetzt nicht weis wie früh ein Distributor über so was Informiert wird, aber ein Monat ist das doch sicher?

mictasm
2008-09-22, 16:39:08
GeForce GTX 280+ (GT200-b) in September? GTX 350 (GT300) in Q4 08?
http://forums.vr-zone.com/showthread.php?t=330157
Ähm, es dürfte doch nicht zuviel verlangt sein, wenigstens eine Seite im Thread zurückzublättern.

Moralelastix
2008-09-22, 16:50:50
Jo stimmt schon aber ich hab den Link in der Suchfunktion nicht gefunden und kann mir nicht die Zeit nehmen hier alles durchzulesen und jeden Link anzuklicken.

Sascha1971
2008-09-23, 06:46:16
Bei techpowerup schreiben sie, dass die GTX350 evtl. eine Dual GTX2xx ist. Dann würden auch die 512 Bit SI Sinn machen, allerdings vermutlich GDDR3.

Abgesehen davon finde ich lesen sich diese GTX3xxx Gerüchte ungefähr genauso wie die der ursprünglichen 9800 GTX (die Überkarte, die nie kam).


Wenn es eine doppelkarte ist, hoffe ich mal, das die das mit Stromsparen hin bekommen. Denn 2x ne GTX280 ist alles andere als Umweltfreundlich und leise.

Knacki99
2008-09-23, 08:56:31
Was ist eigentlich aus dem "Big Bang II" geworden der für September erwartet wurde?

Gast
2008-09-23, 14:07:58
Was ist eigentlich aus dem "Big Bang II" geworden der für September erwartet wurde?
wir haben ja noch eine woche... aber vielleicht waren damit auch die kündigungen gemeint?

mictasm
2008-09-23, 14:34:34
Jo stimmt schon aber ich hab den Link in der Suchfunktion nicht gefunden und kann mir nicht die Zeit nehmen hier alles durchzulesen und jeden Link anzuklicken.

Dann ist dein Beitrag Spam.

MuLuNGuS
2008-09-23, 17:11:19
Dann ist dein Beitrag Spam.

und deiner nicht oder was?

wollen wir jetzt anfangen kleinlich zu werden?

weiter im text...

mictasm
2008-09-23, 23:00:43
Ja weiter im Text. Nur ist es etwas unglücklich, wenn ständig dieselben Links und Beiträge immer wieder und wieder und wieder gepostet werden. Und seiner war nun zusammen mit seiner Antwort ein Paradebeispiel dafür. Für jemanden, der nur einmal in seinem Leben in den Thread schaut, ist es bestimmt toll. Wenn man einen Thread aber regelmäßig verfolgt, ist es nicht mehr besonders lustig, alles drei, fünf oder zwanzig Mal zu lesen.

Wäre gut, wenn mal ein Moderator den Thread aufräumt oder zumindest schließt und neu startet.

Gast
2008-09-24, 22:08:05
Ich hab mir mal was überlegt, viele sagen ja das ein 45nm Chip für Anfang 2009 zu früh sei und TSMC noch nicht so weit sei. OK kann sein, aber wer sagt den das der Chip überhaupt von TSMC kommt? Gibt es nicht andere Firmen (IBM) die nicht schon in 45nm Herstellen...

Wäre nicht der erste NVIDIA Chip der von IBM kommt...

AnarchX
2008-09-24, 22:17:47
Wäre nicht der erste NVIDIA Chip der von IBM kommt...
Ja, aber NV40 war seit 2005 die letzte GPU die man bei IBM gefertigt hat und da gab es AFAIR Gerüchte über Qualitätsprobleme.
UMC gibt es zwar noch, aber das ist eher ein Low-End-Fertiger.

40nm sind für TSMC für Anfang 2009 aber wie schon gezeigt kein Problem, laut deren aktuellen Dokumenten (siehe #1).

Ailuros
2008-09-25, 09:02:26
Naja, selbst wenn er praktisch gar nix kostet, schon im Standbild habe ich Probleme, ohne Lupe wirkliche Unterschiede zu entdecken... Bilder stammen von einer 4870:

4xAA http://www.abload.de/img/4aa34x.png
8xAA http://www.abload.de/img/8aaalb.png

Ich mein, gibt es wirklich Leute hier die darin einen echten Mehrwert sehen? :confused: Und da ist das schon eine extra gewählte Stelle, die noch recht große Chancen für eine Unterscheidung ermöglicht. Wenn eine Karte optimal mit 4xAA läuft, wäre ich absolut zufrieden. :)

Obwohl es natuerlich total OT ist, fehlt beiden screenshots erstmal Transparenz-AA. Wenn ich solch beschissenes AA auf meinem Bildschirm bekomme, ist es mir gleichgueltig ob 4x oder 8xMSAA samples theoretisch benutzt werden, wenn nicht alle Kanten geglaettet sind.

Versuch das gleiche Experiment nochmal, aber diesmal bitte mit der Transparenz-AA Methode die auch wirklich laeuft und dann kannst Du schon den Unterschied zwischen 4x und 8x MSAA sehen. Nebenbei (und ich bin mir sicher dass es schonmal erwaehnt wurde) angenommen der Unterschied zwischen 2x sparse und 4x sparse MSAA ist beim zweiten 2x mal so hoch was die geglaetteten "Kanten" betrifft, gilt das gleiche eben nicht zwischen 4x und 8x sparse MSAA. 4x MSAA glaettet unter normalen Umstaenden schon die groesste Mehrzahl an Kanten; 8x, 16x usw. glaetten dann eher die feineren Details besser, was aber wiederum nicht heissen sollte dass je mehr samples (Vorraussetzung sinnvoll sample-Platzierung) desto besser.

Bei Transparenz-AA jedoch und ueberhaupt bei Stromseilen die sich sogar bewegen wie in HL2 macht 8x TSAA/TMAA einen sehr deutlichen Unterschied im Vergleich zu 4xTSAA/TMAA, egal wie hoch die Aufloesung.

Zurueck zum Thema:

Jegliche "Angabe" fuer GT3xx und dergleichen fuer 2008 sind absoluter Unsinn.

Ailuros
2008-09-25, 09:05:39
wir haben ja noch eine woche... aber vielleicht waren damit auch die kündigungen gemeint?

Wenn ich mich nicht irre fragte ich mich selber in diesem Thread ob das Publikum es mitbekommen wird dass einige Koepfe bei NV rollen werden. Es ist eben marketing-technisch etwas "eleganter" es als "Personals-Reduktion" zu praesentieren. Realistisch gesehen ist der eigentliche Grund "sie haben Mist gebaut, dort ist die Tuer, merci bien...".

Gast
2008-09-25, 09:13:18
Wenn ich mich nicht irre fragte ich mich selber in diesem Thread ob das Publikum es mitbekommen wird dass einige Koepfe bei NV rollen werden. Es ist eben marketing-technisch etwas "eleganter" es als "Personals-Reduktion" zu praesentieren. Realistisch gesehen ist der eigentliche Grund "sie haben Mist gebaut, dort ist die Tuer, merci bien...".
wollte ja schon ewig wieder mal auf deine informativen und trotzdem spekulativen posts (danke für die arbeit!) antworten - hatte leider ein wenig stress.

ich hab mir das auch so gedacht. wenn ich hier scheisse bauen würde in diesem ausmass, würde ich keine 5 monate mehr da sein - das geht dir sicher nicht anders ;)

so gesehen ist es möglich und von dir ja schon vorher angekündigt (du hast vor ca. 1 bis 2 monaten darauf hingewiesen). sind in dem falle die tawainesen schuld? dort sollen ja massig köpfe rollen....

Ailuros
2008-09-25, 09:57:15
so gesehen ist es möglich und von dir ja schon vorher angekündigt (du hast vor ca. 1 bis 2 monaten darauf hingewiesen). sind in dem falle die tawainesen schuld? dort sollen ja massig köpfe rollen....

Ich finde es ebenso laecherlich die Schuld nur auf TSMC zu werfen. Mir wird kein Mensch einreden dass eine fab irgendwelches Material ohne die Zusage eines jeglichen IHV benutzen wird.

Was den Rest betrifft den ich nicht gequotet habe: wenn man nichts besonderes zu sagen hat, haelt man auch lieber die Klappe oder ;)

Gast
2008-09-25, 10:43:03
Ich finde es ebenso laecherlich die Schuld nur auf TSMC zu werfen. Mir wird kein Mensch einreden dass eine fab irgendwelches Material ohne die Zusage eines jeglichen IHV benutzen wird.

Was den Rest betrifft den ich nicht gequotet habe: wenn man nichts besonderes zu sagen hat, haelt man auch lieber die Klappe oder ;)
mit taiwanesen meine ich die NV angestellten und nicht TSMC ;) bezüglich fab und IHV ist dem sicher so. die qualitätssicherung dreht ausserdem ganz sicher auch nicht nur däumchen.

aylano
2008-09-25, 12:56:00
40nm sind für TSMC für Anfang 2009 aber wie schon gezeigt kein Problem, laut deren aktuellen Dokumenten (siehe #1).

Hat nicht TSMC vor paar Wochen gesagt, die ersten 40nm-GPUs werden erst Ende 1Q 2009 fertig?
Das Dokument ist aber von April 2008.

AnarchX
2008-09-25, 12:59:49
Hat nicht TSMC vor paar Wochen gesagt, die ersten 40nm-GPUs werden erst Ende 1Q 2009 fertig?

Link?

aylano
2008-09-25, 13:32:59
Link?
Ich habe jetzt keinen besseren gefunden, wo explizit Ende 1Q 2009 dasteht.
http://www.3dcenter.org/news/2008-07-07
Für mich hört sich diese Aussage eher nach Ende 1Q als Anfang 1Q.

55nm wurde fürs AMDs "Performance"-CPU AFAIK erst Mitte Nov sehr zögerlich Eingeführt.

Gast
2008-09-25, 14:23:25
Das ding kommt am ende von IBM, dann würden nämlich auch die Gerücht mit den 45nm stimmen ;)

Ailuros
2008-09-25, 20:29:43
Das ding kommt am ende von IBM, dann würden nämlich auch die Gerücht mit den 45nm stimmen ;)

Es ist schon ein starkes Stueck dass ein IHV wie NV sich fuer einen naechsten high end chip auf den kleinsten oder fast kleinsten Herstellungsprozess "zwingt" und dieses Risiko eingeht. Dann dazu noch zu IBM zu gehen - wo man sowieso nicht so toll zufrieden war in der Vergangenheit - klingt mir zuviel des Guten was jegliches Risiko betrifft.

***edit: dass soll nicht heissen dass ich es ausschliessen will; es klingt aber schon ziemlich nahe an Selbstmord.

Gast
2008-09-25, 21:48:16
Hardware-Infos und TG-Daily schreiben, dass Nvidia jetzt die älteren Modelle Geforce 8 und 9 in Geforce GT 1xx umändern möchte. GT = Mainstream; GTX = High-End.

Hoffe, hiermit keinen Flame losgetreten zu haben. ;) Achja, am 15. Oktober soll es schon soweit sein:

http://www.hardware-infos.com/news.php?news=2419

http://www.tgdaily.com/content/view/39482/135/

reunion
2008-09-25, 22:02:39
Wie oft will man denn die gleichen Chips noch umbenennen?

igg
2008-09-25, 22:04:09
Das Interessante daran ist, dass am 15.10. weitere Karten der GT200 vorgestellt werden sollen :). Schätze mal, das wird die GT206 sein.
Rumor has it that the company will be announcing additional graphics cards in the GT200 series on October 15.

AnarchX
2008-09-25, 22:12:07
Das Interessante daran ist, dass am 15.10. weitere Karten der GT200 vorgestellt werden sollen :). Schätze mal, das wird die GT206 sein.

Eine neue GPU in 19 Tagen und noch keine Infos außer dem Namen dazu?;)

Was ich in naher Zukunft sehen würde ist der schon lange herumgeisternde GT200-400, was aber wohl nur eine GTX 280 mit etwas mehr Takt sein könnte.

Sorkalm
2008-09-25, 22:26:50
GT200-Series muss ja auch ein GT200-basierendes Modell sein. ;)
Der 55nm-Chip (GT200b) auf den gleichen Karten ist das wohl eher nicht...

=Floi=
2008-09-25, 22:56:58
von nv gab es auch schon mal interessanteres. Den shrink sollten sie eher dazu nützen noch mehr transistoren zu verbauen...

Gast
2008-09-25, 23:54:45
entweder kommt garnix, was ich glaube oder es kommt ne Mörder GX2 in 55 auf 280er Basis, aber nix neues, weltbewegendes, das wird wohl nächstes Jahr kommen 40 oder 45 oder was auch immer mit GDDR5.

Ailuros
2008-09-26, 11:59:50
http://www.fudzilla.com/index.php?option=com_content&task=view&id=9635&Itemid=1

aylano
2008-09-26, 12:59:00
Es hätte mich gewundert, wenn die frühe Einführung der 40nm-Produktion vorallem für (Performance- oder) High-End-GPUs, so problemlos gelaufen wäre.
Geschweige denn gleich mit 392SPs a la GT212
Mal sehen, ob es so kommt. Ist ja auch nur ein "Fudzilla-Gerücht".

reunion
2008-09-26, 13:17:44
http://www.fudzilla.com/index.php?option=com_content&task=view&id=9635&Itemid=1

Tja, hätte mich auch gewundert wenn das mit dem Q1 für neue High-End-GPUs in 40nm haltbar gewesen wäre. Für nV ist das natürlich bitter, da man eindeutig unter Zugzwang steht und dazu auf 40nm angewiesen ist.

Mal sehen, ob es so kommt. Ist ja auch nur ein "Fudzilla-Gerücht".

Wenn AiL eine Fuadzille-News postet kannst du davon ausgehen, dass da was dran ist. Zumal FUAD ja schon öfter seine guten Konatkte nach Taiwan bewiesen hat.

Gast
2008-09-26, 13:27:49
hmmm wenn tsmc wirklich solche probleme hat mit dem 40nm prozess, könnte an der speku, dass nvidia wieder bei ibm fertigen lässt ja doch irgendwie was dran sein...

AnarchX
2008-09-26, 13:53:30
hmmm wenn tsmc wirklich solche probleme hat mit dem 40nm prozess, könnte an der speku, dass nvidia wieder bei ibm fertigen lässt ja doch irgendwie was dran sein...
Und welche halbwegs ernsthafte Quelle spekuliert das?
Es sieht doch nicht wirklich danach aus, als dass IBM 45nm eher liefern könnte als TSMC 40nm und wie schon gesagt hat IBM seit 2005 keine High-End-GPU gefertig und mit IBMs NV40 war man damals wohl nicht ganz zufrieden bei NV.

Mit der 40nm Verschiebung wird NV wohl halt noch etwas mit dem 55nm GT206, GDDR5 und einer möglichen GX2 bis ca. Q2 haushalten müssen.

aylano
2008-09-26, 14:47:46
hmmm wenn tsmc wirklich solche probleme hat mit dem 40nm prozess, ...
Das Problematische dürfte nicht der Prozess selber sein, sondern eher vielleicht die Größe des Dies a la RV770-Technik mit deutlich besserer Performance/mm².

Momentan bedeuten die kleinen Die-Größen für ATI bessere Margen, aber ATI kann später den 40nm-Shrink nicht nur umproblematischer sondern (bei gleicher Konkurrenz-Performance) auch eher früher am Markt werfen, als die Konkurrenz.
Außerdem hat ATI mehr Erfahrung sehr früh Shrinks einzuführen.

Für nV ist das natürlich bitter, da man eindeutig unter Zugzwang steht und dazu auf 40nm angewiesen ist.
Wie soll es für Nvidia besser gehen, wenn ATI dann auch auf 40nm umstellt?
Ich denke, Nvidia wird so lange dieses Problem haben, bis sie die Die bei gleicher/ähnlicher Performance (deutlich) verkleinern können.
Momentan warte ich mal ob, wie groß die GT206 wird, die vielleicht keinen Cuba-Transistor-Speck hat.

Dural
2008-09-26, 19:21:18
Die müssen gar nicht verkleinern sonder nur schauen das der G200 endlich mal mehr Takt mit macht wie zb. der G92! Genau das ist ja das Problem des G200, er ist schlicht einfach zu Gross für 65nm, die Probleme wird NV aber mit 40nm nicht mehr haben und wir werden dann vielleicht 800/2000MHz bei einem G200 sehen. Mit Einsatz von GDDR5 wäre das ja dann schon gut 40%+ mehr Leistung mit dem selben Chip!

ATI kann hingegen wohl kaum deutlich mehr Takt bei einem RV770 @ 40nm rausholen, da der Chip dann wohl einfach schon zu klein ist. Schon heute hat der RV770
in 55nm gewisse Probleme mit Hot Spots und ATI musste da ja sogar schon drauf reagieren in dem sie die Karten in Furmark etwas ein bremsen.

Gast
2008-09-26, 20:09:09
Die müssen gar nicht verkleinern sonder nur schauen das der G200 endlich mal mehr Takt mit macht wie zb. der G92! Genau das ist ja das Problem des G200, er ist schlicht einfach zu Gross für 65nm, die Probleme wird NV aber mit 40nm nicht mehr haben und wir werden dann vielleicht 800/2000MHz bei einem G200 sehen. Mit Einsatz von GDDR5 wäre das ja dann schon gut 40%+ mehr Leistung mit dem selben Chip!

ATI kann hingegen wohl kaum deutlich mehr Takt bei einem RV770 @ 40nm rausholen, da der Chip dann wohl einfach schon zu klein ist. Schon heute hat der RV770
in 55nm gewisse Probleme mit Hot Spots und ATI musste da ja sogar schon drauf reagieren in dem sie die Karten in Furmark etwas ein bremsen.

Besser als garnicht darauf zu reagieren. Ich will nicht wissen wie viele G200 schon beim FUR abgeraucht sind.

Dural
2008-09-26, 20:16:51
Das eine hat nichts mit dem anderen zu tun...
Das Problem liegt ja am schlechten Kontakt zwischen HS und DIE :rolleyes:

Gast
2008-09-26, 20:50:20
Ich halte die 40nm Gerüchte nach wie vor für gefakte oder absichtlich falsch geleakte Infos. Wenn man sich ansieht, bis wann die GT200b @ 55nm Gerüchte aktiv blieben (afaik bis Anfang August) und dann auf einmal ein 40nm im Januar vermutet wurde... 4 Wochen später ists dann auf einmal doch nicht so und der alte Plan, 40mn + G10x @ 1.-2.Q09 ist wieder das Ziel.

Die 40mn waren einfach zu konstruiert, geleakt und dann lapidar wiederrufen, aber richtig gemerkt hats keiner. Als ob TSMC vor 4 Wochen noch wusste, das man 40mn zum Jahreswechsel hinbekommt und nun weiß man, das es sich eher auf April-Mai 09 verschiebt... wers glaubt...

Gast
2008-09-26, 21:02:28
April-Mai 09 ist doch in Ordnung, da haben die jetztigen Karten wenigstens eine gewisse Langlebigkeit.
Und ne GX2 in 55 hauen die sowieso raus, und dann ist auch wieder alles beim alten was die ach so wichtige Balkenlänge angeht.

igg
2008-09-26, 21:12:59
Hauptsache ein guter GT206 kommt im Oktober...

Gast
2008-09-26, 22:47:25
[...]ATI kann hingegen wohl kaum deutlich mehr Takt bei einem RV770 @ 40nm rausholen, da der Chip dann wohl einfach schon zu klein ist. Schon heute hat der RV770
in 55nm gewisse Probleme mit Hot Spots und ATI musste da ja sogar schon drauf reagieren in dem sie die Karten in Furmark etwas ein bremsen.

ATI braucht auch gar nicht großartig an der Taktschraube drehen. Das steht gar nicht zur Debatte. Man hat doch eine schöne, skalierbare Architektur, die mit ein paar Detailveränderungen und mehr Einheiten als RV870 in 40nm im Q1/09 vor der Türe stehen wird.

=Floi=
2008-09-27, 02:34:50
und warum sollte ausgerechnet da noch viell eistung rauskommen? Ati hat übrigends schon jetzt probleme die shaderleistung die der chip hätte zu nutzen

reunion
2008-09-27, 09:17:08
und warum sollte ausgerechnet da noch viell eistung rauskommen?

Weil eine GPU linear mit der Anzahl der Funktionseinheiten skaliert, und 40nm bietet hier enorm viel mehr Platz. Und da RV770 schon in 55nm sehr klein ist, wäre nichts nahe liegender als eine Verbreiterung der Architektur. NV muss hingegen erstmal schauen das sie ihr Die kleiner bekommen.

igg
2008-09-27, 10:05:53
@reunion: Ich finde du siehst das im Hinblick auf Nvidia etwas zu pessimistisch. Laut diesem Post (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6655113&postcount=315) hat sich Nvidia beim RV670 derbe verschätzt. Spätestens da wussten sie dann, dass ihre bisherige Planung schief geht.

Ich kann mir nicht vorstellen, dass man sich bei Nvidia dann nicht überlegt hat, wohin die Reise mit dem RV670 (770, 870) gehen kann und was in Best/worst cases möglich ist. Insofern gehe ich schon davon aus, dass sie konkurrenzfähige Produkte bringen. Richtig ausgleichen lässt sich der Fehler wohl erst beim neuen (DX11) Chip.

Eins wundert mich allerdings: Als Nvidia wusste, dass der RV670 anders kommt als erwartet - wieso haben sie dann den GT200 zurückgehalten? Klar, sie hatten die Konkurrenz auch mit dem G92 gut im Griff, aber sie hätten 6 Monate lang ohne Probleme den Highend-Markt abgrasen können.

LovesuckZ
2008-09-27, 10:07:49
Wie kann sich nVidia derbe verschätzt haben, wenn man mit dem G92 deutlich schneller war? :rolleyes:
Man sollte nicht alles glauben, was jemand im Internet schreibt.

r@h
2008-09-27, 10:28:26
von nv gab es auch schon mal interessanteres. Den shrink sollten sie eher dazu nützen noch mehr transistoren zu verbauen...
Also ich warte eigentlich darauf!

Die jetzigen GTX-Modelle sind "unvernünftig" und in Sachen Geräuschkulisse unerträglich.
Wenn sich das mit den "Neuen" ändern sollte, werde ich wohl zuschlagen...
...vermutlich wirds dann auch wieder viele Custom-Designs und alternative Kühllösungen geben.

So wie der G92 damals der "bessere" G80 war, könnte sich dies bei GT200 und GT206 analog verhalten.
Wir werden sehen... wir sind ja nicht blind.

Razor

Ailuros
2008-09-27, 10:28:29
Außerdem hat ATI mehr Erfahrung sehr früh Shrinks einzuführen.

Bei sehr komplizierten chips hat ATI jedesmal versagt; nun hat es AMD/ATI natuerlich um einiges leichter da sie keine komplizierten monolithische high end chips mehr produzieren. Das heisst aber wiederrum nicht dass das gleiche auch fuer NVIDIA gilt wenn GT212 ein single chip sein sollte. Und ja haette ich ein Dilemma welchem IHV einen sehr komplizierten chip zu beauftragen wuerde ich mit Sicherheit an NVIDIA zuerst denken.

Im gegebenen Fall gibt es keine chips unter 40nm bis die Foundry damit an die Produktion gehen kann; egal wie die Komplexitaet eines chips aussieht und egal welcher IHV. Und ja zugegeben ist NVIDIA damit am meisten betroffen, denn es war geplant wieder ein paar Wochen frueher als die Konkurrenz damit anzutanzen.

Wie kann sich nVidia derbe verschätzt haben, wenn man mit dem G92 deutlich schneller war? :rolleyes:
Man sollte nicht alles glauben, was jemand im Internet schreibt.

NVIDIA schaetzte dass RV670 ein quasi 3-cluster RV6x0 sein wird; deshalb war die originale 8800GT auch nur mit 6 cluster anfangs geplant, erschien aber doch noch zeitig mit 7 am Ende. Und ja es war nur der Anfang einer gesamten Reihe von falschen Einschaetzungen. Im Herbst 2007 begannen die Verhandlungen intern was zum Teufel sie mit GT200 anstellen sollen und wurde IMHLO die gesamte GT2x0 roadmap fuer 2008/9 total umgekrempelt.

Das grosse "aber" zum gesamten Bild kommt gleich noch....

Weil eine GPU linear mit der Anzahl der Funktionseinheiten skaliert, und 40nm bietet hier enorm viel mehr Platz. Und da RV770 schon in 55nm sehr klein ist, wäre nichts nahe liegender als eine Verbreiterung der Architektur. NV muss hingegen erstmal schauen das sie ihr Die kleiner bekommen.

Nuechtern gesehen ist 40nm NVIDIA's Rettungsplanke gegen AMD's heutige Produktlinie. NVIDIA kann ihre Architektur noch um einiges erweitern und zur gleichen Zeit nutzlose "Schlepplast" (siehe R600->RV670->RV770) loswerden. Hauptsaechliches Ziel sollte hier tatsaechlich sein die Herstellungs-unkosten so stark wie moeglich zu reduzieren. Schaffen sie es jetzt so etwas auf die Beine zu stellen und am anderen Ende schiesst ein Dingsbums heraus mit einer anstaendigen arithmetischen Leistungserhoehung, heisst es dann nun auch wieder nicht dass es fuer AMD ein Spaziergang a la RV770 sein wird.

Ehrlich gesagt ist das Ganze sowieso irgendwo nebensaechlich; es gibt wichtigere Kopfschmerzen momentan bei NVIDIA unter anderem die Chip-Probleme und die kommende D3D11 Generation.


Eins wundert mich allerdings: Als Nvidia wusste, dass der RV670 anders kommt als erwartet - wieso haben sie dann den GT200 zurückgehalten? Klar, sie hatten die Konkurrenz auch mit dem G92 gut im Griff, aber sie hätten 6 Monate lang ohne Probleme den Highend-Markt abgrasen können.

Weil man zu diesem Zeitpunkt eingesehen hat dass das Ganze nicht gut gehen; der treibende Faktor fuer den GT200 release war dass man sonst ueberhaupt keine Antwort gegen die X2 gehabt haette. Was ich mir persoenlich nicht erklaeren kann ist warum man das Ding von Anfang an nicht mit reduzierten Preisen auf den Markt geschickt hat. Hier nehme ich AMD den Hut ab, denn mit dem R600 hatten sie zumindest den Anstand den Preis der relativen Leistung anzupassen.

reunion
2008-09-27, 10:34:19
Bei sehr komplizierten chips hat ATI jedesmal versagt;

Mal sehen wie es nV diesmal gehen wird falls GT212 ein großer Single-Chip wird. Denn bis jetzt hat nV ja immer gewartet bis der Fertigungsprozess ausgereift war bevor man die Umstellung gewagt hat. Da war es nicht schwer nicht zu versagen.

Ailuros
2008-09-27, 10:59:08
Mal sehen wie es nV diesmal gehen wird falls GT212 ein großer Single-Chip wird. Denn bis jetzt hat nV ja immer gewartet bis der Fertigungsprozess ausgereift war bevor man die Umstellung gewagt hat. Da war es nicht schwer nicht zu versagen.

Ich zaehle einen NV30 in der NVIDIA Geschichte die diesem zutrifft; soll ich bei ATI nur R600 als Gegenbeispiel mitzaehlen oder gab es zufaelligerweise noch mehr Faelle in ATI's Geschichte?

Nebenbei verlaengt die 40nm Verspaetung nur AMD's momentanen Vorsprung; ihre eigene roadmap fuer 2009 wird durch diese Verspaetung genauso beinflusst wie NVIDIA's. Und damit wir es auf die richtige Basis legen, es ist zum kotzen; denn es heisst nur fuer den Verbraucher dass er um X Monate mehr den gleichen heutigen lauwarmen Brei unter die Nase geschoben bekommt. Ausser hier denkt jemand dass jegliche GT212/RV870 nicht besser sein wird als jegliche heute GT200/RV770.

reunion
2008-09-27, 11:09:10
Ich zaehle einen NV30 in der NVIDIA Geschichte die diesem zutrifft; soll ich bei ATI nur R600 als Gegenbeispiel mitzaehlen oder gab es zufaelligerweise noch mehr Faelle in ATI's Geschichte?


Wie schon gesagt, nach NV30 war nV auch sehr vorsichtig was neue Fertigungsprozesse betrifft. ATi war da wesentlich aggressiver. Mit GT212 scheint sich das aber wieder zu ändern.

Ailuros
2008-09-27, 11:25:49
Wie schon gesagt, nach NV30 war nV auch sehr vorsichtig was neue Fertigungsprozesse betrifft. ATi war da wesentlich aggressiver. Mit GT212 scheint sich das aber wieder zu ändern.

Unter der Vorraussetzung dass 212 auch wirklich single chip ist. Und nein ich will gar nichts damit andeuten, ich hab ehrlich noch keine Ahnung. Was am idealsten waere (IMHLO) habe ich Dir schon gesagt; ob sie dann in diesem Fall ein groesseres oder kleineres Risiko eingehen kann ich als layman momentan nicht wissen.

die gina@work
2008-09-29, 12:37:31
So wie der G92 damals der "bessere" G80 war, könnte sich dies bei GT200 und GT206 analog verhalten.
Wir werden sehen... wir sind ja nicht blind.
Naja, ich hoffe nicht, dass er auf die gleiche Weise "besser" wird, wie der G92 gegenüber dem G80, denn die Kastration der Speicharanbindung war kein echter Fortschritt ...

igg
2008-09-29, 12:46:54
wie der G92 gegenüber dem G80, denn die Kastration der Speicharanbindung war kein echter Fortschritt ...
Wenn sie von 512->256 gehen und GDDR5 nehmen wäre es vermutlich kein Problem?

Bei beyond3d schreibt jemand (http://forum.beyond3d.com/showpost.php?p=1221633&postcount=141), dass der GT200b ausgeliefert wird?

Ailuros
2008-09-29, 12:56:20
Bei beyond3d schreibt jemand (http://forum.beyond3d.com/showpost.php?p=1221633&postcount=141), dass der GT200b ausgeliefert wird?

Rys ist der Administrator von B3D; wenn er es sagt dann wird es auch stimmen.

igg
2008-09-29, 14:09:35
Rys ist der Administrator von B3D; wenn er es sagt dann wird es auch stimmen.
Dann bin ich mal auf die Einordnung von GT200b und GT206 in der Produktpalette gespannt... laut TGDaily will Nvidia am 15.10. neue Produkte ankündigen.

So ruhig wie es um den GT200b geworden ist hätte ich jetzt eine unspektakuläre/stille Einführung erwartet, um einfach die Margen zu optimieren.

pervert
2008-09-29, 14:57:26
Die jetzigen GTX-Modelle sind "unvernünftig" und in Sachen Geräuschkulisse unerträglich.
Razor
Die Geräuschkulisse ist eigentlich ganz hervorragend und der Verbrauch ebenso, man muss nur wissen wie!
Ich habe selbst eine GTX280 und man muss die Karte nur undervolten, was einfach per BIOS-flash möglich ist. Eine Veränderung/Herabsetzung der Takte ist nicht notwendig!

Danach verbraucht die Karte deutlich weniger Strom und ist leiser als alle anderen High End Modelle und die insgesamt beste Grafikkarte am Markt.

InsaneDruid
2008-09-29, 15:49:31
Du weißt doch das Razor immer über die höherwertigen Grakas mäkelt, wenn er noch ne alte Karte hat.

Gaestle
2008-09-29, 16:17:09
So ruhig wie es um den GT200b geworden ist hätte ich jetzt eine unspektakuläre/stille Einführung erwartet, um einfach die Margen zu optimieren.

Vielleich meint das Rys ja auch?

Raff
2008-09-29, 16:57:07
Du weißt doch das Razor immer über die höherwertigen Grakas mäkelt, wenn er noch ne alte Karte hat.

Eine 8800 GT ist im Referenzdesign auch alles andere als leise und kühl. Bei den GTX-en ist das einfach eine Nummer größer. Aber die Wärme kriegt man in Form von Fps auch auf den Schirm ... um das mal so auszudrücken.

MfG,
Raff

Sorkalm
2008-09-29, 21:29:00
Hmm, am 15.10 jetzt neue Karten mit dem GT200b? Dafür hört man wirklich erstaunlicherweise sehr wenig...

LovesuckZ
2008-09-29, 21:40:57
NVIDIA schaetzte dass RV670 ein quasi 3-cluster RV6x0 sein wird; deshalb war die originale 8800GT auch nur mit 6 cluster anfangs geplant, erschien aber doch noch zeitig mit 7 am Ende. Und ja es war nur der Anfang einer gesamten Reihe von falschen Einschaetzungen. Im Herbst 2007 begannen die Verhandlungen intern was zum Teufel sie mit GT200 anstellen sollen und wurde IMHLO die gesamte GT2x0 roadmap fuer 2008/9 total umgekrempelt.


Selbst mit 6 Cluster wäre man schneller gewesen, da die Taktrate der 9600GT/8800GTS512 locker erreicht worden wäre.
Nein, nVidia hat AMD nur in einem unterschätzt und das war der Veröffentlichungstermin. Leistungstechnisch ist der G92 viel zu stark gewesen, um zu sehen, dass nVidia AMD unterschätzt hätte.

Schlammsau
2008-09-29, 22:00:21
Selbst mit 6 Cluster wäre man schneller gewesen, da die Taktrate der 9600GT/8800GTS512 locker erreicht worden wäre.
Nein, nVidia hat AMD nur in einem unterschätzt und das war der Veröffentlichungstermin. Leistungstechnisch ist der G92 viel zu stark gewesen, um zu sehen, dass nVidia AMD unterschätzt hätte.

Da hast du recht! ATi hätte auf jeden Fall schnelle Hardware released. Nur dachte nVidia, nicht so schnell! Stattdessen haben sie einen nur im Schnitt 30% schnelleren Chip gefertigt, der fast doppelt so gross wie der RV770 ist.

deekey777
2008-09-29, 22:21:46
NVIDIA's Huang admits to underestimating ATI (http://www.beyond3d.com/content/news/682)
"We underestimated the price performance of our competitor’s most recent GPU, which led us to mis-position our fall lineup. The first step of our response was to reset our price to reflect competitive realities. Our action put us again in a strong competitive position but we took hard hits with respect to our overall GPU ASPs and ultimately to our gross margins. The price action was particularly difficult since we are just ramping 55-nanometer and the weak market resulted in taking longer than expected to work through our 65-nanometer inventory."

Es geht doch nicht darum, ob man schneller ist oder nicht. Sondern einzig und allein darum, das Produkt an den Kunden zu bringen.
Nur ist es sehr schwer ein Produkt einem Kunden schmackhaft zu machen, das zwar deutlich schneller ist, aber auch deutlich mehr kostet (nicht nur auf der Straße, sondern auch in der Herstellung).

Idee:
Mit einer GPU, die vier "Streaming-Multiprozessoren" in einem Cluster hat (beim G200 sind es 3, beim G80 zwei) könnten Transistoren eingespart werden, da bei einer GPU mit 4 solchen Clustern die Zahl der Dispatcher für die einzelnen Cluster sinkt. Der G200@GTX260 hat 24 "SMPs" (8x3), auf die 24 SMPs kommt man auch mit 6x4-GPU (also 6 Cluter mit je vier SMPs).

Da hast du recht! ATi hätte auf jeden Fall schnelle Hardware released. Nur dachte nVidia, nicht so schnell! Stattdessen haben sie einen nur im Schnitt 30% schnelleren Chip gefertigt, der fast doppelt so gross wie der RV770 ist.
Du bist im falschen Film. Es geht um den Herbst 2007 (bzs. Spätsommer).

Gast
2008-09-29, 22:39:01
Hmm, am 15.10 jetzt neue Karten mit dem GT200b? Dafür hört man wirklich erstaunlicherweise sehr wenig...

Es wäre ja auch kontraproduktiv, so einen Wirbel um einen Refresh zu machen, um den Absatz der noch aktuellen Karten damit negativ zu beeinflussen.

Gast
2008-09-29, 22:53:49
Ich denke mal das man die komplette Produktpalette auf 55nm umgestellt hat bis zum Oktober und dann das neue Namensschema eingeführt wird. Damit werden alte Karten endlich abgetrennt von den neuen, ein gescheiter Schlußstrich unter die 65-55nm Shrinks dieser Monate.

Alle GF9400 sind schon 55nm, die GF9500 sollen bis Ende September ebenfalls komplett in 55nm ausgeliefert werden. Die ersten GF9600 in 55nm sind gesichtet, fehlt nur noch das Highend auf 55nm und man kann endlich aufräumen. Wobei das G1x0/GT1x0 Namensschema auch gleich die Generation abtrennt, da GTX2x0 quasi Next-Gen zu der alten GF9 Serie ist.

Also gibts 2009 die GTX3x0 und die G/GT2x0 Series :) Wobei man bisher rein garnichts zu einem Mainstream/Lowend G200 gehört hat. Evtl. werden die sogar ausgelassen (sinnvoll) und man setzt mit der nächsten Generation G300 eine komplette Produktfamilie auf den Markt.
Aber hoffentlich nicht erst in 55nm und dann in 40nm... sonst gibts doch wieder Nameschaos *g

Sorkalm
2008-09-29, 22:55:38
Es wäre ja auch kontraproduktiv, so einen Wirbel um einen Refresh zu machen, um den Absatz der noch aktuellen Karten damit negativ zu beeinflussen.

Solche Informationen verteilen sich üblicherweise aber trotzdem früher übers Netz, weil man jetzt nicht mehr alles dicht halten kann (wenns kein Paperlaunch wird).

igg
2008-09-30, 08:33:05
Hmm, am 15.10 jetzt neue Karten mit dem GT200b? Dafür hört man wirklich erstaunlicherweise sehr wenig...
Man weiß ja noch nicht mal ob sie dann verfügbar sind oder nur angekündigt werden. Bei der 9800 GTX+ gabs die ersten "echten" Infos auch erst wenige Tage vor dem Paperlaunch.

Ailuros
2008-09-30, 10:55:49
Selbst mit 6 Cluster wäre man schneller gewesen, da die Taktrate der 9600GT/8800GTS512 locker erreicht worden wäre.

Wenn man zuerst mit 6 clusters plant und dabei erwartet dass man um X Prozent nur mit den 6 clusters schneller sein wird als die Konkurrenz, schaltet aber am Ende noch einen cluster dazu um dieses "X Prozentual" zu erreichen, dann ist es das erste Anzeichen dass man die Konkurrenz und deren gesamte roadmap bis zu RV770 unterschaetzt hat. Hier gibt es keine aber.

Nein, nVidia hat AMD nur in einem unterschätzt und das war der Veröffentlichungstermin. Leistungstechnisch ist der G92 viel zu stark gewesen, um zu sehen, dass nVidia AMD unterschätzt hätte.

Die gesamte Unterschaetzung hat mit der 8800GT vs. RV670 angefangen und die wahren Folgen kann man heutzutage nach dem RV770 Release sehen.

Huang selber:

http://www.beyond3d.com/content/news/682

Dann bin ich mal auf die Einordnung von GT200b und GT206 in der Produktpalette gespannt... laut TGDaily will Nvidia am 15.10. neue Produkte ankündigen.

So ruhig wie es um den GT200b geworden ist hätte ich jetzt eine unspektakuläre/stille Einführung erwartet, um einfach die Margen zu optimieren.

Ich hab den Durchblick total verloren, denn ich verstand bis jetzt unter GT200b einen einfachen shrink und unter GT206 ein 6 cluster Dingsbums. Ob jetzt GT200b oder 206 sie haetten sowieso keinen besonderen Trubel darueber gemacht und wenn ich Rys' Ton richtig interpretiere haben sie es sowieso nicht besonders leicht ihre Kunden mit dem Ding zu "begeistern".

Gast
2008-09-30, 13:24:39
Ich blicke nicht mehr durch.
Kürzlich wurde der GTX260 mit >192 Shaderdomains vorgestellt, der wohl auch schon bei einigen Reseller als GTX260² verkauft wird. Jetzt gibt es aber noch eine Pressemitteilung, dass am 15. Oktober die GT206 offziell gelauncht wird, die auf GT200b basiert.

Was heisst das nun? Ist die jetzige GTX260² nur ein aufgebohrter GT200 im alten Verfahren und die am 15.10. wird auf GT200b aufbauen und wieder GTX260 heissen? Wenn ja, dann gibt es 3 Varianten des GTX260 und man muss mehr als aufpassen, um nicht einen der Ladenhüter zu kaufen.

igg
2008-09-30, 13:30:38
Ich blicke nicht mehr durch.
Kürzlich wurde der GTX260 mit >192 Shaderdomains vorgestellt, der wohl auch schon bei einigen Reseller als GTX260² verkauft wird. Jetzt gibt es aber noch eine Pressemitteilung, dass am 15. Oktober die GT206 offziell gelauncht wird, die auf GT200b basiert.
Blöde Frage: Wo ist die Pressemitteilung?

und wenn ich Rys' Ton richtig interpretiere haben sie es sowieso nicht besonders leicht ihre Kunden mit dem Ding zu "begeistern".
Eigentlich sollten die ja schon über niedrigere Kosten begeistert sein. Aber die Grafikkartenhersteller sind vermutlich mittlerweile etwas angefressen bei den halben Refreshs.

Ailuros
2008-09-30, 14:14:17
Blöde Frage: Wo ist die Pressemitteilung?

Es gibt keine ;)

Eigentlich sollten die ja schon über niedrigere Kosten begeistert sein. Aber die Grafikkartenhersteller sind vermutlich mittlerweile etwas angefressen bei den halben Refreshs.

So wie es aussieht wird das 55nm Dingsbums nichts anderes als eine 216/GTX260@55nm sein; zurueck zu meinem Schoenheitsschlaf *gaehn*

dargo
2008-09-30, 14:19:34
So wie es aussieht wird das 55nm Dingsbums nichts anderes als eine 216/GTX260@55nm sein; zurueck zu meinem Schoenheitsschlaf *gaehn*
Oh man, das wird echt langsam langweilig. Wann ist denn mit einem richtigen "Big Bang;)" zu rechnen? Ich denke da eher in Richtung GTX 260 x2, natürlich als Single-GPU-Lösung. Meinst du das wird noch was in Q3/Q4 2009?

Ailuros
2008-09-30, 14:32:27
Oh man, das wird echt langsam langweilig. Wann ist denn mit einem richtigen "Big Bang;)" zu rechnen? Ich denke da eher in Richtung GTX 260 x2, natürlich als Single-GPU-Lösung. Meinst du das wird noch was in Q3/Q4 2009?

Also ich will hoffen dass wir wichtigeres zum spekulieren haben fuer H2 2009 als irgend eine langweilige GT2xx/GX2.

|MatMan|
2008-09-30, 16:00:44
Die Frage die sich mir stellt ist, was nVidia mit dem ganzen R&D Budget gemacht hat, das sie Jahr für Jahr investieren. GT200 soll Ende 2007 fertig gewesen sein - Ailuros sagt die Verzögerung bis zum Launch wäre vor allem durch nVidia-interne Diskussionen zustande gekommen, d.h. die Masse der GT200 Entwickler konnte sich anderen Projekten widmen?!

Jetzt ist so ziemlich Ende 2008, also muß doch in dem knappen Jahr seit dem GT200 fertig ist, was passiert sein. Und damit meine ich mehr als die abgespeckte Performance-Variante, die GT206 wohl werden wird. 1 Jahr nach dem geplanten GT200 muß doch noch mehr in Pipeline gewesen sein. Oder hat man alles wegen RV770 (und Larabee?) dermaßen über den Haufen geworfen? :confused:

Irgendwie hab ich das Gefühl nVidia macht nur das Nötigste für die aktuelle Marktlage und entwickelt derweil an einem anderen "Großprojekt" um zukünftig gegen Intel gut aufgestellt zu sein. Oder es liegt doch an einer Reihe von Fehlentscheidungen und "Ausruhen auf G80"...

igg
2008-09-30, 16:03:29
@MatMan: Ich schätze mal, dass R&D eher auf den Nextgen DX11 Chip verwendet wird. Bis dahin fährt Nvidia vermutlich Schadensbegrenzung.

Gast
2008-09-30, 16:34:33
Es gibt keine ;)


Stell dich nicht so schlau dahin, denn genau DU warst es der hier vor 1 Jahr hier sagte, was für "dolle" Sachen Nvidia noch in der Schublade hat und der GT200 nur ein Anfnag ist.

Ich sehe nichts - gar nichts. Selbst nach einer totalen Unterschätzung des Konkurrenten ATI ist nichts mit den "dollen Sachen" in der Pipeline. Stattdessen wird gehudelt um den Boden unter den Füssen nicht verlieren.

Und unter "dolle Sachen" versteh ich nicht die 1-Cent-Ersparnis beim Lötmittel.

Nunja ich bleibe bei meinen 88er GTXn und erspare mir die faulen GTX280er zu kaufen. Bei meinen Glück erwische ich einen mit Heatbug. Wenn sich nix tut, werde ich nach langer Zeit (seit XT800) wieder zu ATI zurückwechslen.

aylano
2008-09-30, 18:37:50
Die Frage die sich mir stellt ist, was nVidia mit dem ganzen R&D Budget gemacht hat, das sie Jahr für Jahr investieren. GT200 soll Ende 2007 fertig gewesen sein - Ailuros sagt die Verzögerung bis zum Launch wäre vor allem durch nVidia-interne Diskussionen zustande gekommen, d.h. die Masse der GT200 Entwickler konnte sich anderen Projekten widmen?!

Jetzt ist so ziemlich Ende 2008, also muß doch in dem knappen Jahr seit dem GT200 fertig ist, was passiert sein. Und damit meine ich mehr als die abgespeckte Performance-Variante, die GT206 wohl werden wird. 1 Jahr nach dem geplanten GT200 muß doch noch mehr in Pipeline gewesen sein.

Irgendwie hab ich das Gefühl nVidia macht nur das Nötigste für die aktuelle Marktlage und entwickelt derweil an einem anderen "Großprojekt" um zukünftig gegen Intel gut aufgestellt zu sein. Oder es liegt doch an einer Reihe von Fehlentscheidungen und "Ausruhen auf G80"...
Ich könnte mir auch vorstellen, dass der GT200 eine Server-GPU ist, welches von einem Entwickler-Team aus der G80-DX10-Architektur entwickelt wurde.
Und jenes Team, welches die DX10-Architektur machte, entwickelt jetzt die DX11-Architektur a la insgesamt 2-Architektur-Teams

Bei AMD/ATI hat AFAIK auch das eine Team damals die DX10-Architektur entwickelt und arbeitet jetzt am DX11er.
Aber hingegen zum 2.Nvidia-Team arbeitete das 2xATI.Architektur-Team an die Verbesserung der DX10-Architektur.

Zwar ist der RV770-Technik nicht soooo gut bei Cuba (falls es überhaupt geht), aber AFAIK setzt ATI per DX11 dann auf Open-CL - Technik, was AFAIK breitflächiger einzusetzen ist und dem Cuba voraus sein soll.
(Na ja, im Notfalls kann man immer noch Cuba eingefügen).

Ich denke deshalb so, weil die Performance-GPU a la GT206 -falls die wirklich so kommt, wie jetzt gedacht- neben der GT200 mir absolut unlogisch erscheint.

In den letzten paar Jahren wurde diese (Peformance)-GPU immer durch die Teil-Deaktivierung der High-End-GPU gemacht.
Und jetzt soll man eigens eine neue Performance-GPU (=3/4 von High-End) statt Teildeaktivierung rausbringen, wenn Nvidia ganze 15 Monate brauchte, die Lücke zwischen G80/92 mit 128 SP und G84/96nach mit 32SP mit einer G94 a la 64SP zu schließen???!!!!!!!!!!!!!!

Das erscheint mir unlogisch (, oder bei Nvidia herscht Chaos).
Somit glaube ich, die GT206 ist nicht mit der GT200 zu vergleichen und basiert auf der G80/92-Architektur mit 192SPs.

Wie es wirklich aussieht, werden wir ja in einigen Monaten sehen.

Wenn das so kommt, dann kann man diese Situation mit AMD K8/K10 (den Bug-Ignorieren) vergleichen.
Da wollte AMD auch den großen Sprung gleich mit Quad-K10, welche durch den großen Konkurrenz-Druck recht billig verkauft werden müssen.
Aber man "vergaß" auf die normalen K10-Desktop-CPUs und somit müssen sich jetzt die Dual-K8 noch bis Mitte 2009 durchschlagen, bis der Dual-K10 kommt.

|MatMan|
2008-09-30, 18:56:03
Das erscheint mir unlogisch (, oder bei Nvidia herscht Chaos).
Somit glaube ich, die GT206 ist nicht mit der GT200 zu vergleichen und basiert auf der G80/92-Architektur mit 192SPs.
Naja ich finde das gar nicht so unlogisch. Wenn GT206 wirklich ein 6 Cluster Chip wird, dann füllt der genau die Lücke zwischen G92 und GT200, gerade da wo nVidia Preis- und Performance-mäßig nicht viel anzubieten hat. G92 läßt sich nicht weit genug aufpumpen, ne 9800+ gibts ja schon für unter 150 Euro. Die alte GTX 260 für knapp 200 Euro ist einfach zu billig für den verbauten GT200.

Klar zu G80 Zeiten ging das, wie du es beschrieben hast. Da hat die 8800 GTX auch 450-500 Euro gekostet und die GTS 350 Euro. Momentan sind wir bei 330/200 Euro für GTX 280/260...

GT206 wird dann sozusagen nVidia RV770 Antwort IMO (wenn es 6 Cluster werden).

aylano
2008-09-30, 19:42:04
Naja ich finde das gar nicht so unlogisch. Wenn GT206 wirklich ein 6 Cluster Chip wird, dann füllt der genau die Lücke zwischen G92 und GT200, gerade da wo nVidia Preis- und Performance-mäßig nicht viel anzubieten hat.
Sicher würde er da gut hinpassen. Die Realität ist, es gab nie eine Native GPU mit 96SP, was in der G80 & G90-Ära dann auch eine Performance-GPU (=3/4 von High-End) gewesen wäre.
Und jetzt soll extra eine Performance-GPU gemacht werden??

Sogar eine native mainstream-GPU mit 64SP brauchte 15 Monate. Und die Lücke zwischen 32SP und 128SP war für 15 Monate ziehmlich Groß.
Und jetzt soll auf einmal nach 4-5 Monaten eine Performance-GPU erscheinen??

Es klingt für mich sehr unlogisch. Daher, entweder es herscht bei Nvidia Chaos oder es sind zwei verschiedene Architekturen a la G80 & GT200.


G92 läßt sich nicht weit genug aufpumpen, ne 9800+ gibts ja schon für unter 150 Euro. Die alte GTX 260 für knapp 200 Euro ist einfach zu billig für den verbauten GT200.

Klar zu G80 Zeiten ging das, wie du es beschrieben hast. Da hat die 8800 GTX auch 450-500 Euro gekostet und die GTS 350 Euro. Momentan sind wir bei 330/200 Euro für GTX 280/260...

Nvidia kann eine GPU nicht in 4-5 Monaten Zaubern, wobei davon schon 3 Monate für die Herstellung draufgeht. Denn das alles wissen sie erst seit Juni/Juli 2008.
Die Performance-GPU war schon viel länger geplant, wo Nvidia nicht wusste, wie stark die RV770-Technik ist.
Aber Nvidia wusste, ATI macht die HD 48x0 X2-Versionen und wird höchstwahrscheinlich dann an den 300 Watt-TDP kratzen.
Vielleicht war das der Grund, warum Nvidia eine Performance-GPU machte, welche man womöglich dann als GX2 genutzt werden kann, was mit 2 GT200 nicht gegangen wäre.

Andererseits hätte laut Nvidias-Erwartungen die Performance der HD 4x80-X2 nicht gereicht, um die GT200 zu schlagen.
Also, wozu eine Nvidia-Performance-GPU für GX2, wenn sie nicht nötig ist???

Variante 3 (neben dem Nvidia-Chaso oder 2 unterschiedlichen Architekturen)
Vielleicht hat Nvidia nach der HD38x0-X2-Einführung auch ihre Strategie/Konzept geändert und baut statt der High-End-GPU eine Performance-GPU, die dann mit GX2 als High-End verkauft wird.
Und da GT200 schon das Tape-Out hatte bzw. fast fertig war, brachte Nvidia halt auch diese GPU raus, da schon so viel in diese GPU investiert wurde.

Ich finde, ATIs Strategie ziehmlich genial
Low-End - 64Bit-SI - Passiv-Kühler
mainstream - 128bit-SI - Single-Slot-Kühler, wobei die langsameren auch passiv gekühlt werden können.
Performance - 256Bit-SI - Dual-Slot-Kühler, wobei die HD 4850-Version Single-Slot ist.
High-End - 2x256Bit. Bei normalen Einstellungen kaum schneller, als Single-Version. Aber bei extremen Auflösungen spielt die X2-Version die Stärke aus.

Ich finde diese Konzept sehr Interessant, da sich ATI an gewisse Grenzen orientiert hat und somit gewisse Bereiche perfekt ausnutzt a la 100% 64Bit-SI als 60%-128Bit-SI, wodurch ATI dann die Karten noch billiger herstellen kann.
Und vielleicht hat das Nvidia auch überzeugt und ihre Strategie bzw. Planungen dann etwas über den Haufen geworfen.


GT206 wird dann sozusagen nVidia RV770 Antwort IMO (wenn es 6 Cluster werden).
Jetzt ja, aber ob das so von Anfang an Geplant war?[/QUOTE]

|MatMan|
2008-09-30, 21:29:18
Sogar eine native mainstream-GPU mit 64SP brauchte 15 Monate. Und die Lücke zwischen 32SP und 128SP war für 15 Monate ziehmlich Groß.
Die Idee der 64SP GPU ist eigentlich gut, 96SPs kann man mit Teildefekten gut bedienen. Von der Performance her kommt G94 gut an die 96SP Karten heran, er ist IMO nur leider etwas zu groß geworden. Außerdem war wie oben schon geschrieben das Preisgefüge zu G80 zeiten ganz anders!


Und jetzt soll auf einmal nach 4-5 Monaten eine Performance-GPU erscheinen??

Es klingt für mich sehr unlogisch. Daher, entweder es herscht bei Nvidia Chaos oder es sind zwei verschiedene Architekturen a la G80 & GT200.
Wenn laut Ailuros GT200 für Ende 2007 geplant war, dann ist es ca. ein Jahr, die Entwicklung startet aber mit Sicherheit noch früher.
Der Unterschied von GT200 zu G80 ist, dass man es sich bei letzterem erlauben konnte, auf den nächsten full-node zu warten und diesen dann als Performance-Chip zu verkaufen.
Bei GT200 war es wohl absehbar, dass es mit 45/40nm so schnell nix wird bzw. GT200 nicht stark genug wird, um à la G80 so lange durchzuhalten.
Oder man hat sich gleich für den "sicheren" Weg entschieden: half-node und dafür kleinerer Chip.
Das weiß aber das ohnehin nur nVidia und am Ende ist es auch egal.
Sicher ist IMHO dass GT206 kein Aufguß der G80 Architektur wird, das wäre wirklich "neu" und vor allem unlogisch. Wahrscheinlich fliegen die double-ALUs raus und man nimmt ansonsten das GT200 Design.

Die Frage ist eher, ob man als Besitzer eines großen Displays mit der GTX 260 oder ner GT206 Karte besser fährt. Ich würde ja fast schätzen, dass die GTX 260 doch noch ein wenig mehr Rohpower und besonders Speicherbandbreite und -Menge hat.

Ich finde, ATIs Strategie ziehmlich genial
Naja ich finde es eher ein bißchen stagnierend, gerade die 256 Bit beim G94 fand ich eigentlich einen Schritt in die richtige Richtung (wenn auch mit GDDR5 aktuell nicht benötigt).
Mit einer Multi-GPU Lösung als High-End kann ich mich einfach noch nicht anfreunden, da überwiegen mir eindeutig noch die Nachteile.
Allerdings müßte nVidia sein Lineup dringend mal aufräumen, was wohl demnächst auch passiert.

igg
2008-10-01, 10:01:29
Rys hat noch ein paar weitere Infos rausgegeben:
It seems like one revision of the chip is shipping now with Tesla, with the last revision they taped out set for GeForce soon. My sources say it's just come back from packaging in Taiwan, so MP clearance should happen soon all going well.

That they needed another spin for GeForce should give a couple of hint as to what they plan to do with it, that they couldn't do with a revision that was OK for Tesla.
Quelle (http://forum.beyond3d.com/showpost.php?p=1222881&postcount=161)

Das bedeutet wohl:

Es gibt zwei GT200b Varianten, für tesla und für GeForce
Die für Tesla wird bereits ausgeliefert
Die für GeForce noch nicht, da sie weitere Modifikationen enthält

Ich bin mal gespannt, was sie für die GeForce Variante optimiert haben. Vor ein paar Wochen gab es Gerüchte, dass sie einige eher für Tesla relevante Einheiten deaktiviert haben.

aylano
2008-10-01, 12:53:28
Der Unterschied von GT200 zu G80 ist, dass man es sich bei letzterem erlauben konnte, auf den nächsten full-node zu warten und diesen dann als Performance-Chip zu verkaufen.
Bei GT200 war es wohl absehbar, dass es mit 45/40nm so schnell nix wird bzw. GT200 nicht stark genug wird, um à la G80 so lange durchzuhalten.
Die Sache ist, Nvidia wusste ja Ende 2007 ja nicht, dass sie sooo "Probleme" mit der GT200 haben werden, weil sie die Performance von RV770 nicht wussten.
Und somit dachte Nvidia, sie können so lange und gemütlich auf einen 45/40nm-Shrink warten, wie es bei der G80 der Fall war, weil die Konkurrenz es so zugelassen hätte sollen.

Klar, war die Performance-GPU a la Gt206 schon seit spätenstens Ende 2007 in Entwicklung, aber ich frage mich, wozu.
Denn HD4870-X2 (300Watt) (bzw. die HD4870) hätte den GT200 (230Watt?) nicht gefährden dürfe, da man Nvidia auch eine GT200 Ultra mit 300Watt rausbringen hätte konnen.

Eine Ultra-Version und keine native Performance-GPU (3/4 von High-End) war die G80-Strategie.

Und daher musste Nvidia die Strategie geändert haben,
oder vielleicht wusste Nvidia schon länger über die RV770-Performance und entwickelte schnell eine Performance-GPU, aus der sie dann eine GX2 zaubern kann.

Gast
2008-10-01, 16:48:24
mein blöder gedanke, mehr rohpower, deaktivierte chipbereiche welche für "gamer" eh uninteressant sind. dadurch tiefere tdp und mehr takt möglich.

Gast
2008-10-01, 19:58:10
Rys hat noch ein paar weitere Infos rausgegeben:

Quelle (http://forum.beyond3d.com/showpost.php?p=1222881&postcount=161)

Das bedeutet wohl:

Es gibt zwei GT200b Varianten, für tesla und für GeForce
Die für Tesla wird bereits ausgeliefert
Die für GeForce noch nicht, da sie weitere Modifikationen enthält

Ich bin mal gespannt, was sie für die GeForce Variante optimiert haben. Vor ein paar Wochen gab es Gerüchte, dass sie einige eher für Tesla relevante Einheiten deaktiviert haben.

Das bedeutet nur eins, die Taktrate genügt für Tesla, im Desktop Bereich aber nicht. Also gibts noch einen Respin und dann hofft man, dass die Taktrate der Shadereinheiten hoch genug gezogen werden kann.
Denn ob die "Tesla" Einheiten aktiv oder inaktiv sind ist irrelevant, erst wenn man sie weglässt, wird der Chip schlanker.

Dural
2008-10-02, 00:48:01
Rys hat noch ein paar weitere Infos rausgegeben:

Quelle (http://forum.beyond3d.com/showpost.php?p=1222881&postcount=161)

Das bedeutet wohl:

Es gibt zwei GT200b Varianten, für tesla und für GeForce
Die für Tesla wird bereits ausgeliefert
Die für GeForce noch nicht, da sie weitere Modifikationen enthält

Ich bin mal gespannt, was sie für die GeForce Variante optimiert haben. Vor ein paar Wochen gab es Gerüchte, dass sie einige eher für Tesla relevante Einheiten deaktiviert haben.

Glaub ich nicht, den ein extra Chip für Tesla würde wohl nie und nimmer rentabel sein und der Aufwand wäre einfach zu gross.

Und es macht auch keinen Sinn eine 55nm GPU zuerst für Tesla zubringen wo die Herstellungs-Kosten nahe zu egal sind, im GeForce Bereich aber dringend billigere GPU her müssen...

Ailuros
2008-10-02, 10:08:19
Stell dich nicht so schlau dahin, denn genau DU warst es der hier vor 1 Jahr hier sagte, was für "dolle" Sachen Nvidia noch in der Schublade hat und der GT200 nur ein Anfnag ist.

GT200 haette auch nie so ausgesehen wie heute, wenn AMD nicht einen RV770 auf die Beine gestellt haette.

Falls Du nicht das Konzept einer offiziellen Pressemitteilung verstehen solltest, die es fuer die vorerwaehnten Faelle nie gab, dann ist auch keiner daran Schuld. Und nein irgendwelche Aussage/Spekulation was auch immer von mir oder irgend jemand anders hat nichtsdergleichen damit zu tun. Daher war mein "es gibt keine" Antwort nicht fehl am Platz und es bleiben Deine eigenen persoenlichen Auseinandersetzungen zu denen ich Dir auch guten Appetit wuensche.

Ich sehe nichts - gar nichts. Selbst nach einer totalen Unterschätzung des Konkurrenten ATI ist nichts mit den "dollen Sachen" in der Pipeline. Stattdessen wird gehudelt um den Boden unter den Füssen nicht verlieren.

Am einfachsten waere es Deinen anonymen Beitrag einfach zu loeschen und mich tatsaechlich wie Du hinter meinem Finger bzw. Anonymitaet zu verstecken. Ich hab weder etwas zu verlieren oder zu gewinnen am Ende.

Nunja ich bleibe bei meinen 88er GTXn und erspare mir die faulen GTX280er zu kaufen. Bei meinen Glück erwische ich einen mit Heatbug. Wenn sich nix tut, werde ich nach langer Zeit (seit XT800) wieder zu ATI zurückwechslen.

Komischerweise hab ich persoenlich genau das gleiche vor, was aber ueberhaupt nichts mit der Diskussion hier und/oder Deinen Sticheleien zu hat. Mit ~370 Euro heutzutage ist die GTX280 bei weitem kein schlechtes Produkt. Limitiert die Shader-Fuellrate bzw. Geometrie nicht (wie z.B. in Crysis) und es limitiert eher die CPU ist selbst 16xQ in 1920 fast umsonst, waehrend G8x/9x gute 50+% damit verlieren. NVIDIA hat ausser ihren falschen Einschaetzungen gleichzeitig den grossen Fehler gemacht das Ding am Anfang mit $599 MSRP verkaufen zu wollen; dass AMD zumindest den Anstand hatte den R600 Preis der Leistung anzupassen hab ich nicht verfehlt zu erwaehnen.

So und jetzt zurueck zum Thema: da es jemand gerade bei B3D richtig getroffen hat, GT200b soll in Tesla Systemen schon erscheint sein. Auf der NV Hauptseite steht fuer die high end Tesla configs "available in fall 2008".

Und es macht auch keinen Sinn eine 55nm GPU zuerst für Tesla zubringen wo die Herstellungs-Kosten nahe zu egal sind, im GeForce Bereich aber dringend billigere GPU her müssen...

So egal sind die Herstellungs-Kosten nun auch wieder nicht wenn man fuer das groesste Ding 4*576mm^2 chips einlegen muesste. Eben weil die Dinger suendhaft teuer sind, bringt selbst ein 55nm mehr Gewinn in den Laden denn man momentan auch ziemlich noetig hat. Such mal nach was so ein Ding kostet und rechen aus wieviele 55nm high end GFs NVIDIA normalerweise verkaufen muesste um auf die gleiche Gewinnsrate zu kommen.

Gast
2008-10-02, 10:32:35
Glaub ich nicht, den ein extra Chip für Tesla würde wohl nie und nimmer rentabel sein und der Aufwand wäre einfach zu gross.

Und es macht auch keinen Sinn eine 55nm GPU zuerst für Tesla zubringen wo die Herstellungs-Kosten nahe zu egal sind, im GeForce Bereich aber dringend billigere GPU her müssen...
ausser man verwendet den "abfall" als gpu weiter.

Ailuros
2008-10-02, 11:46:11
http://www.fudzilla.com/index.php?option=com_content&task=view&id=9714&Itemid=1

Gast
2008-10-02, 12:20:31
http://www.fudzilla.com/index.php?option=com_content&task=view&id=9714&Itemid=1

zumindest bei uns genau umgekehrt, HP Systeme haben/hatten meistens ne fireGL drin...

Ailuros
2008-10-02, 13:34:52
zumindest bei uns genau umgekehrt, HP Systeme haben/hatten meistens ne fireGL drin...

Der Sinn des Links ist eigentlich dass NVIDIA ein ziemlich grosse Summe aus diesem Markt kassiert. Wer jetzt hier am meisten verkauft oder nicht kann man leicht bei jedem IHVs finanziellen Resultaten nachschlagen.

igg
2008-10-02, 13:42:39
Das hört sich doch alles ziemlich düster an, was Nvidias Roadmap bis zum DX11 Chip betrifft.

aylano
2008-10-02, 14:29:06
http://www.fudzilla.com/index.php?option=com_content&task=view&id=9714&Itemid=1
Ein Grund mehr, den GT200 für die Server zu optimieren.

Das hört sich doch alles ziemlich düster an, was Nvidias Roadmap bis zum DX11 Chip betrifft.
Richtig, Durststrecken läufen meist über einen längeren Zeitraum , wenn man sonst keine Basis hat a la Siehe AMD
Intel-Netburst hatte ja noch andere gute Verkaufssekmente.

Wobei es DX11 auch nicht die große Hilfe für Nvidia sein kann.
Denn wenn sich OpenCL durchsetzt und Cuba etwas in die Nische drängt, dann wird es neben den Fusion-CPUs (Chipsatz-Markt) auch der Server-GPU-Markt ziehmlich bekämpft.
Wobei dann auch noch Intels-GPU ein Wörtchen mitreden wird.

Sorkalm
2008-10-02, 17:55:54
Hardware-Infos und TG-Daily schreiben, dass Nvidia jetzt die älteren Modelle Geforce 8 und 9 in Geforce GT 1xx umändern möchte. GT = Mainstream; GTX = High-End.

Hmm, GTS kommt wohl auch noch:

NVIDIA_G92.DEV_0615.1 = "NVIDIA GeForce GTS 150"
NVIDIA_G94.DEV_0626.1 = "NVIDIA GeForce GT 130"
NVIDIA_G96.DEV_0646.1 = "NVIDIA GeForce GT 120"

Geforce 178.15 laut TCMagazine (http://www.tcmagazine.com/comments.php?shownews=22074&catid=3).

Dural
2008-10-02, 18:40:53
Viel Interessanter finde ich aber der Eintrag:

NVIDIA_G92.DEV_060E.1 = "NVIDIA GeForce 9850 X"

Gast
2008-10-02, 18:54:40
Was an einem weiteren G92 abkömmling interessant sein soll weiß ich wirklich nicht, nur eins, es hat nichts mit diesem Thread zu tun :)

Megamember
2008-10-06, 15:56:48
Gibts eigendlich schon genaueres in Sachen 15. Oktober und die Vorstellung neuer Nvidia Produkte/Refreshes? Oder waren das einfach nur Spekulationen?

Sorkalm
2008-10-06, 16:01:57
Es könnten vielleicht auch einfach nur die neuen Intel-IGPs sein, die dann kommen...

Dural
2008-10-06, 16:02:44
Kommt am 15. nicht nur der neue nForce C79?

Also der Distributor von hier weis nichts von neuen Karten...

Was an einem weiteren G92 abkömmling interessant sein soll weiß ich wirklich nicht, nur eins, es hat nichts mit diesem Thread zu tun :)

Weil es anscheinend eine neue High End Version ist und das ist wohl Interessanter als unbennante G92 Karten in die G1xx Serie...
Besonders das X hinter dem Namen verunsichert doch sehr, neue GX2 gegen 4850X2, wer weis...

Ailuros
2008-10-06, 20:16:43
Weil es anscheinend eine neue High End Version ist und das ist wohl Interessanter als unbennante G92 Karten in die G1xx Serie...
Besonders das X hinter dem Namen verunsichert doch sehr, neue GX2 gegen 4850X2, wer weis...

Eine GX2 aus 2*GF9? LOL :biggrin:

Dural
2008-10-07, 13:50:02
Glaube kaum das die neue "9600GSO" unter diesem Namen auf den Markt kommt, da NV ja jetzt alle GF9xxx Produkte in die G1xx Serie einführen möchte.

Eine GX2 aus 2*GF9? LOL :biggrin:

? gibt es schon seit einigen Monaten im form der 9800GX2, oder was willst du damit genau sagen?

Eine GX2 mit zwei GT206 oder G200b oder was auch immer wird wohl nicht gegen die 4850X2 aufgestellt sonder viel eher gegen die 4870X2 ;)

AnarchX
2008-10-07, 23:35:16
G200B?

You want to see something amazing? =)
That's supposedly GT200 die...

http://i33.tinypic.com/o794c8.jpg

http://i33.tinypic.com/o5nsbt.jpg

...But it doesn't look like GT200 die and it's size is much smaller (G80 die is different too although the size is more or less comparable).
Any ideas what this is?

So the result is that this is GT200b? =)

Here's another picture, with broken G80 side by side:

http://i36.tinypic.com/2rqy8uv.jpg



http://forum.beyond3d.com/showthread.php?t=47604&page=3

Gast
2008-10-08, 00:41:12
etwas gross für ein G200b mit ca. 500mm² meinst du nicht auch?

Vielleicht wurden ja noch etwas Transistoren rein gesteckt...

Sorkalm
2008-10-08, 08:55:12
etwas gross für ein G200b mit ca. 500mm² meinst du nicht auch?

G(T)200b wäre:
576 mm² * 0,9² ~ 467 mm²

(55 nm ist ein 10-Prozent linearer Shrink von 65 nm)

22 mm * 22 mm = 484 mm²

Das haut schon ungefähr hin.

reunion
2008-10-08, 09:02:58
Eben. Und einen perfekten Shrink gibt es kaum in der Praxis.

Gast
2008-10-08, 10:55:02
Abgesehen davon, dass der Verschnitt beim Aussägen der Dice aus dem Wafer nicht beliebig verkleinert werden kann, ist ein optischer Shrink IMMER perfekt.

Dural
2008-10-08, 14:06:59
lasst doch mal die rechen beispiele, Fakt ist:

G92 330mm²
G92b 230mm²

gibt -30% beim G94 sieht es glaub recht änlich aus.

G200 575mm²
G200b müsste also ca. 400mm² haben, aber sicher nicht 500mm² :eek:

Mit ca. 450mm² wäre ich einverstanden, aber mit fast 500mm² nicht!
Wenn der G200b wirklich so gross ist muss der ja fast überarbeitet worden sein, um vielleicht auch endlich etwas mehr Takt aus den Shader zuhohlen...

igg
2008-10-08, 14:21:07
Wenn der G200b wirklich so gross ist muss der ja fast überarbeitet worden sein, um vielleicht auch endlich etwas mehr Takt aus den Shader zuhohlen...
Dazu gabs auch schon Gerüchte (evtl. resultieren aber auch aus einer Verwechslung mit GT200b?).

AnarchX
2008-10-08, 14:32:13
lasst doch mal die rechen beispiele, Fakt ist:

G92 330mm²
G92b 230mm²


G92B ist 264mm² groß:
http://www.hardware.fr/articles/724-2/b-maj-b-preview-radeon-hd-4850-geforce-9800-gtx-v2.html

Wie schon gesagt, optische Shrink von 65nm auf 55nm haben bei TSMC ~81% der Größe des 65nm Dies.

Dural
2008-10-08, 15:38:18
OK, wusste ich nicht, es hiess ja immer 231mm² :confused:

Habe gerade selber nachgemessen, der G92b ist wirklich ca. 16x16mm gross

Sorkalm
2008-10-08, 16:12:01
Und das haut dann mathematisch ausgehend von 330 mm² wieder gut hin, 330 * 0,81 sind ja rund 267 mm². ;)

Ailuros
2008-10-09, 11:59:00
? gibt es schon seit einigen Monaten im form der 9800GX2, oder was willst du damit genau sagen?

Eben. Wieso sollte man eine SKU die beim Auslauf liegt wieder beleben und ueberhaupt wenn man GT2x0 als high end anbietet?

Eine GX2 mit zwei GT206 oder G200b oder was auch immer wird wohl nicht gegen die 4850X2 aufgestellt sonder viel eher gegen die 4870X2 ;)

Ohne 40nm geht so etwas nicht. Schau Dir die shrink Moeglichkeiten von 55nm genauer an und denk nach was so ein dual chip 55nm config kosten wuerde. Vor Ende Q2 sehe ich momentan fuer 40nm leider nichts fuer 2009 und das von beiden IHVs.

***edit: oder NV hat tatsaechlich nicht alle Tassen im Schrank:

http://www.theinquirer.net/gb/inquirer/news/2008/10/08/nvidia-270-290-gx2-roll

igg
2008-10-09, 13:36:50
@Ailuros: Glaubst du das? Charly schreibt öfters mal seltsame Sachen (http://www.theinquirer.net/gb/inquirer/news/2008/05/29/nvidia-gt200-sucessor-tapes).

VooDoo7mx
2008-10-09, 14:01:13
@Ailuros

Wieso soll das nicht gehen? Eine GTX 260 hat eine ähnliche Verbraucharakteristik wie eine HD 4870 und 2 davon sind schneller als eine HD4870.

Wenn der G206 wirklich 8 G200 Cluster ist mit hier und da ein paar Einsparungen am Chip könnte ich mir durchaus eine Dual Karte damit vorstellen.
Wenn NV ganz verzweifelt ist, könnten sie ja auch wie ATi an der Bildqualität drehen. Dadurch wird der Balken so einer Dual Karte auch nochmal länger.

AnarchX
2008-10-09, 14:05:51
Teil 2: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6836768#post6836768