PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Kommende GeForce 200


Seiten : 1 [2] 3 4

reunion
2008-07-08, 16:47:23
Scheint wohl etwas tief gegriffen:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6641429&postcount=228

Bei kaum sinkender Leistungsaufnahme durch 55nm ist das IMHO nicht tief gegriffen. Alles über 700Mhz würde mich doch sehr überraschen. Aber wichtiger wäre wohl ohnehin ein höherer Shadertakt.

Gast
2008-07-08, 16:53:56
Wenn Nvidia über 710 MHz hinausgeht, knackt man sehr wahrscheinlich erneut die eigene Negativmarke von 236 W TDP. Das ist die Frage, ob Nvidia dies riskiert.
AMD wird ja wahrscheinlich bei sogar 275 W TDP landen, aber es ist eben auch eine Dual-Karte...

Um mit der HD 4870 X2 zu gehen, müsste Nvidia den Chip mit mehr als 800 MHz befeuern. Dies dürfte zwar auch funktionieren - die Lautstärke der Karte wäre dann auch so ein Thema für sich -, aber nur mit Selektion. Und warum sich in Lieferengpässe stürzen?

san.salvador
2008-07-08, 16:56:13
AMD bekommt ja nicht mal eine 4870 leise gekühlt, das wird mit zweien sicher ein großer Spaß. :D

centurio81
2008-07-08, 17:39:22
AMD bekommt ja nicht mal eine 4870 leise gekühlt, das wird mit zweien sicher ein großer Spaß. :D

Ich versteh nicht, was damit gemeint sein soll..
Man hört es immer wieder aber meine ist leise!
Im Idle is die neben den Gehäuselüftern kaum wahrnehmbar..
Und ich hab nur meinen Zalman 9700 auf 1300 RPM und 2 Gehäuselüfter ala 1000RPM im gehäuse.. Und da hört von der Grafikkarte so gut wie nix..
ich hatte vorher ne GTS G80 640 MB drinne und damals wurde der leise Lüfter ja sehr hervorgehoben, bei der Leistung der Karte..
Und ich würde behaupten dass sich an der Geräuschkullisse höchstens unter Last Gering was geändert hat..
Aber wie man dazu kommen kann, von Laut zu reden..keine Ahnung..

san.salvador
2008-07-08, 17:43:44
Lesen!

Ich hab nie was von laut gesagt - wird aber ohnehin zu OT. :)

centurio81
2008-07-08, 17:45:54
Lesen!

Ich hab nie was von laut gesagt - wird aber ohnehin zu OT. :)

Naja, aber du hast schon gesagt dass eine Karte nicht leise wäre.. ^^
Was solltest du sonst gemeint haben.^^ Aber hast recht ot.. :)

Anarchy-HWLUXX
2008-07-08, 23:45:36
Man könnte doch die alten Quadro-Plex-Boxen, die bei Tesla 10 eh nicht mehr zum Einsatz kommen, mit je 2 GTX 280 bestücken und dann für 500€ verkaufen. X-D ;D

Quadroplex ist IMMERNOCH aktuell - dafür gibt es aber noch keine Quadros auf GT200 basis und Tesla kommen bisher nur als 4-Karten 1HE Rackgehäuse daher - die 2-fach Lösung kann immernoch kommen, evtl. ist die nachfrage zu gering da 2 Karten im Tower wohl eher selten ein Problem sind.


PS : Ich würd mir so nen Teil zulegen - die sind endgeil :ucatch: sollten auch kompatibel mit anderen GraKas sein :|

master_blaster
2008-07-10, 09:11:41
Kann man noch mit 'ner Ultra rechnen? Ich will mal wieder was neues und "Ultra" klingt einfach geiler als "GTX", :tongue:.

igg
2008-07-10, 10:00:40
Kann man noch mit 'ner Ultra rechnen? Ich will mal wieder was neues und "Ultra" klingt einfach geiler als "GTX", :tongue:.
Ich denke eher dass eine GTX 290 kommt als eine Ultra, da Nvidia das namensschema vereinfachen will und die "GTS" schon als GTX260 kam

Gast
2008-07-10, 10:34:58
Lesen!

Ich hab nie was von laut gesagt - wird aber ohnehin zu OT. :)

Dummfug. Die 4870 ist unter Last wie unter Idle leiser als eine GTX260/GTX280.

Gast
2008-07-10, 11:17:58
"We also advise you not to underestimate Nvidia as 55nm GT200 is around the corner and this one might surprise us."

http://www.fudzilla.com/index.php?option=com_content&task=view&id=8368&Itemid=1

igg
2008-07-10, 11:42:04
"We also advise you not to underestimate Nvidia as 55nm GT200 is around the corner and this one might surprise us."

http://www.fudzilla.com/index.php?option=com_content&task=view&id=8368&Itemid=1
Nachdem sich jetzt alle 3 Gerüchteküchen (Inq, NordicaHardware, Fudzilla) einig sind besteht hoffentlich berechtigt Grund zur Vorfreude :)

Gast
2008-07-10, 11:53:14
Aber ein neuer Chip ist wirklich unwahrscheinlich. Dann hat man vielleicht tatsächlich den Chip auf 750+ MHz getaktet und möglicherweise das Shader-Ratio noch verändert, damit der Shadertakt noch höher ausfällt. :)

robbitop
2008-07-10, 12:02:29
Das will ich erst einmal sehen. Bisher waren die wesentlichen Eigenschaften (Leistungsaufnahme und Taktbarkeit) des 55 nm Prozesses nicht besser als die des 65 nm Prozesses. Er ist vor allem eines: günstiger.

Ailuros
2008-07-10, 12:49:58
Bei kaum sinkender Leistungsaufnahme durch 55nm ist das IMHO nicht tief gegriffen. Alles über 700Mhz würde mich doch sehr überraschen. Aber wichtiger wäre wohl ohnehin ein höherer Shadertakt.

Genau. Der erste sinnvolle Schritt waere selbstverstaendlich erstmal das TMU:ALU Takt-Verhaeltnis wieder auf 2.5x zu treiben. Die Frage ist dann eben ob es die Chip-komplexitaet auch wirklich am Ende erlaubt. Wie dem auch sei hinter den Kulissen kursiert eine theoretische TFLOP Rate die knapp unter der einer 4870 liegt.

Adam D.
2008-07-10, 13:19:25
Das wären dann wohl knapp 15% mehr als beim G200. Nicht die Welt, aber ein Anfang.

igg
2008-07-10, 13:22:32
Wie dem auch sei hinter den Kulissen kursiert eine theoretische TFLOP Rate die knapp unter der einer 4870 liegt.
Im Hinblick auf die FLOP!=FLOP Diskussiion wäre das dann eine recht ordentliche Leistung für eine Nvidia Grafikkarte. Aber ob das gegen einen R700 / 4870CF ausreicht? Könnte mir das nur vorstellen mit einem korrigierten TMU:ALU Takt-Verhaeltnis, was ich mir für einen schnellen Refresh aber eher schwierig vorstelle.

Gast
2008-07-10, 13:59:21
Wenn ich so unseren Kenner Ailuros sprechen höre, ergibt sich folgendes Bild: ;)

Ausgehend davon, dass der Chiptakt immer in 27 MHz-Schritten gestaffelt ist und dass das Verhältnis Chiptakt/Shadertakt 1:2,5 beträgt sowie die Shaderleistung knapp unter 1,2 Teraflops ist, ist folgende Taktkombination am Wahrscheinlichsten.

656/1640/1100(?) MHz

Damit käme der Chip auf 1177 Gigaflops. Muss Ailuros nur noch unauffällig bestätigen und wir könnten uns über eine Sache weniger Gedanken machen. ;)

AnarchX
2008-07-10, 14:19:47
It is said that NVIDIA possible cancel G200b and to release new G3x0. It will integrate 384SP and it will use 45nm technology. Its power consumption will cut a lot than G200. Its clocks will be improved to 850/2000MHz. It will match 1GB 256bit GDDR5 memory and the clock will be more than 4000MHz. It will defeat 4870X2.
http://en.hardspell.com/doc/showcont.asp?news_id=3710
;D

igg
2008-07-10, 14:26:56
http://en.hardspell.com/doc/showcont.asp?news_id=3710
:D
Das wäre dann frühestens Nov/Dez (im Hinblick auf den 45 nm Prozess) und ich finde eher unwahrscheinlich (auch weil zu schön um wahr zu sein).

Der GT200b hatte sein Tape-out Ende Mai, Nvidia will Kosten sparen und der X2 sicher nicht bis Dezember das Feld überlassen.

Besagten Chip würde ich eher Q109 erwarten.

Anarchy-HWLUXX
2008-07-10, 14:27:57
http://en.hardspell.com/doc/showcont.asp?news_id=3710
;D
Ähem ... Drogen ? ;D

reunion@work
2008-07-10, 14:31:20
http://en.hardspell.com/doc/showcont.asp?news_id=3710
;D

Jeder Wette das wir keinen 45/40nm High-End-Chip von NV vor Ende 2009/Anfang 2010 sehen werden.

AnarchX
2008-07-10, 14:34:50
Jeder Wette das wir keinen 45/40nm High-End-Chip von NV vor Ende 2009/Anfang 2010 sehen werden.
Naja, ganz so ernst sollte man diesen Artikel, der offenbar von einem Chiphell-Thread abgeschrieben wurde, wohl auch nicht nehmen.

igg
2008-07-10, 14:39:39
Ausgehend davon, dass der Chiptakt immer in 27 MHz-Schritten gestaffelt ist und dass das Verhältnis Chiptakt/Shadertakt 1:2,5 beträgt sowie die Shaderleistung knapp unter 1,2 Teraflops ist, ist folgende Taktkombination am Wahrscheinlichsten.

656/1640/1100(?) MHz

Damit käme der Chip auf 1177 Gigaflops.
Ich vermute mal, dass kurze Zeit nach den Performance-Reviews des R700 (voraussichtlich 14.7.) oder dem offiziellen Launch Nvidia die Katze aus dem Sack lässt, so dass die Leute lieber warten als kaufen. Sehr lange müssen wir mit etwas Glück vermutlich nicht mehr warten.

Ailuros
2008-07-10, 15:00:20
http://en.hardspell.com/doc/showcont.asp?news_id=3710
;D

2009 ^^^

Wenn ich so unseren Kenner Ailuros sprechen höre, ergibt sich folgendes Bild: ;)

Ausgehend davon, dass der Chiptakt immer in 27 MHz-Schritten gestaffelt ist und dass das Verhältnis Chiptakt/Shadertakt 1:2,5 beträgt sowie die Shaderleistung knapp unter 1,2 Teraflops ist, ist folgende Taktkombination am Wahrscheinlichsten.

656/1640/1100(?) MHz

Damit käme der Chip auf 1177 Gigaflops. Muss Ailuros nur noch unauffällig bestätigen und wir könnten uns über eine Sache weniger Gedanken machen. ;)

Ich sagte lediglich dass es der sinnvollste Schritt waere; nicht mehr und nicht weniger.

Im Hinblick auf die FLOP!=FLOP Diskussiion wäre das dann eine recht ordentliche Leistung für eine Nvidia Grafikkarte. Aber ob das gegen einen R700 / 4870CF ausreicht? Könnte mir das nur vorstellen mit einem korrigierten TMU:ALU Takt-Verhaeltnis, was ich mir für einen schnellen Refresh aber eher schwierig vorstelle.

Es gibt andere Moeglichkeiten fuer GT200b die generell umstaendlicher sind als das Takt-Verhaeltnis.

Gast
2008-07-10, 18:31:50
Das mit den 384 SPs hatten wir doch schon mal, und zwar beim so genannten G100. ;)

p://www.hardware-aktuell.com/viewnews.php?article=707

Obwohl die News von Anfang Januar ist, hieß es bereits damals:

"Sie verfügt über 384 Shadereinheiten, die gegenüber denen der GeForce-8-Generation 10-15 Prozent leistungsstärker sein sollen."

Wusste man da etwa schon etwas über die zweite MUL-Einheit, die nun vollständig General Shading ausführen kann?

Ebenfalls wusste man bereits damals, dass Nvidia nicht mehr allzu sehr Hand an den Textureinheiten anlegt. Es ist von "nur" 96 TMUs die Rede, die bei einer etwaigen 384 SP-Lösung auch am Realischtisten erscheinen (8 Texturcluster, 12 Shadercluster, 32 Streamprozessoren).

Am Ende heißt es:
"Abschließend wollen wir darauf hinweisen, dass die Infos von einer glaubhaften Quelle aus der Industrie stammen, diese vermutlich aber nur die derzeitige Entwicklung des Chips widerspiegelt."

Als Launchtermin wurde bereits damals Ende 2008 ausgerufen.

Ich kann mir ehrlich gesagt nicht vorstellen, dass es noch diesen Jahr einen 45 nm-High-End-Chip von Nvidia gibt, ich halt es anders gesagt sogar für nicht möglich. Aber der Bezug von der damaligen Meldung zur Aktuellen ist irgendwie schon gegeben...

Gast
2008-07-10, 21:16:18
Falsch ;) G200 für 2008 projeziert, das wird nur durcheinander geworfen, da G1xx nicht VOR sondern NACH G2xx kommt.

igg
2008-07-10, 22:13:39
Es wäre manchmal schön, wenn man die Zeit etwas beschleunigen könnte...

seahawk
2008-07-11, 07:45:56
Ist schon ne geile Vorstellung, dass NV erst irgendwann in 2009 einen Chip haben wird, der 4870x2 gefährden kann.

MEDIC-on-DUTY
2008-07-11, 07:47:31
Es wäre manchmal schön, wenn man die Zeit etwas beschleunigen könnte...

Aber nur im Gamemarkt. Denn was bringt mir die G200, wenn gerade mal ein oder zwei Games diese wirklich ins Schwitzen bringen. Auch für dieses Jahr sehe ich noch keine Blockbuster, die die Karte richtig fordern werden. Warum also die Zeit bei der HW-Entwicklung beschleunigen?

Viel interessanter wird die Frage sein, wie steht es in Zukunft mit der Effizienz. Die GPUs sind zwar heute schon ein sehr komplexes und kompaktes Gebilde mit einer hohen Ausbeute, aber dem gegenüber steht der immer setig steigende Stromverbrauch - obwohl die Leistung pro Watt noch nie so hoch war wie heute.

Darüber hinaus würde mich ein Blick in die Glaskugel für Raytracing ab dem Jahr 201x interessieren. Wird es das Rasterverfahren wirklich ablösen?


Zum G200: Ich denke, dass diese Chipbasis schneller von nV über den Haufen geworfen wird als eigentlich gedacht. Kommt natürlich ein wenig darauf an wie sie ATI mit den neuen Karten schlägt. Ein G200b (Refresh) wird es sicherlich noch geben, aber evtl. noch ohne DX10.1 und mit der neuen Generation (G100) gleich DX11.

igg
2008-07-11, 09:26:35
Der Nachteil von diesem Wettbewerb ist der sinkende Werterhalt.

Wenn dann im September die GT200b kommt, haben die GTX280 Käufer viel Geld verloren. Q109 oder Q209 kommt der GTX3xx, was (insbesondere wenn dieser DX10.1 unterstützt) wiederum das gleiche für die GT200b Käufer bedeutet. Mit dem Unterschied, dass wenn der GT200b schneller als eine R700 ist, Crysis VH 1920 spielbar ist und daher DX10.1 bis zum Erscheinen der echten Nextgen Ende 09 (DX11) der einzige Kaufgrund sein sollte.

Grestorn
2008-07-11, 09:49:00
Ist schon ne geile Vorstellung, dass NV erst irgendwann in 2009 einen Chip haben wird, der 4870x2 gefährden kann.

Ich habe echt ein Problem damit, diese Häme nachzuvollziehen - bei GPU Herstellern erst recht. Ich habe mich z.B. kein bisschen gefreut, als der R600 so floppte, ganz im Gegenteil, ich fand das ziemlich schade.

Und dann noch etwas... Es ist ja immer noch so, dass ATI 2 Chips braucht, um nVidia's Top-GPU Paroli zu bieten. Wenn nVidia die Fertigungskosten in den Griff kriegt, dann hindert sie doch niemand daran, eine GTX280 GX2 zu bezahlbaren Preisen anzubieten.

Ich hoffe nur, dass nVidia die aktuelle Situation nicht zum Anlass nimmt, auch wieder so schlecht zu filtern und so viel nicht abschaltbar und sichtbar zu "optimieren" wie es ja die Konkurrenz seit einiger Zeit macht. Die Gefahr besteht aber leider durchaus. Und ihr freut Euch alle auch noch darüber.

Adam D.
2008-07-11, 10:09:27
Schon lustig, was hier für Leute schreiben... :)
a) Du gibst was auf Aussagen von seahawk?
b) Gäste im Spekulationsforum sind für den Arsch.

Dieses ganze biased-Gelaber ist einfach nur dämlich. Profitiert irgendjemand wirklich davon, wenn einer der IHVs absackt? Natürlich nicht. Man kann sich freuen, dass "seine" Firma "gewonnen" hat. Aber das war's auch. Wir haben ja gesehen, was passierte, als der R600 floppte, die Marktsituation später wurde dann nur erzwungenermaßen besser.

Ständige harte Konkurrenz ist das, was wir am meisten brauchen, auch wenn das die ganzen süßen Fanboys ja nicht wahr haben wollen. Ich gratuliere ATi zu diesem meisterhaften Schachzug, aber dass hier dann 5 Tage später über den Untergang von Nvidia diskutiert wird, zeigt IMO sehr gut, was aus dem Forum geworden ist.

So, sorry für OT.

igg
2008-07-11, 10:18:31
dass hier dann 5 Tage später über den Untergang von Nvidia diskutiert wird, zeigt IMO sehr gut, was aus dem Forum geworden ist.
Wegen solchen Leuten treibe ich mich lieber hier rum als auf CB. Dort ists noch vieeeel schlimmer.

igg
2008-07-11, 10:44:15
We've learned that Nvidia might be ready with its 55nm version of GT200 sooner than we expected. GT200 55nm might come out weeks after Radeon HD 4870 X2 aka R700 dual chip card.


Nvidia taped out the 55nm GT200 a few months back and we believe that launching 65nm version first made more financial sense for them as they wanted to probe the market and see if ATI actually has a decent chip to compare.

We don’t have any fixed dates but the GT200 55nm might show up very soon. GT200 with some higher clock and especially higher Shader clock could easily give much more performance compared to a standard 65nm GT200. Let's wait and see.
Quelle (http://www.fudzilla.com/index.php?option=com_content&task=view&id=8391&Itemid=34)

Aber ob es so klug war den GT200 zu launchen? Hat dem Ruf schon etwas geschadet. Andererseits hat man so den Markt nicht völlig ATI überlassen.

seahawk
2008-07-11, 10:52:16
a) Du gibst was auf Aussagen von seahawk?
.

Warum sollte er ? Neutral oder sachlich abgewogen sind die sicher nicht.

Sorkalm
2008-07-11, 10:53:25
Aber ob es so klug war den GT200 zu launchen? Hat dem Ruf schon etwas geschadet. Andererseits hat man so den Markt nicht völlig ATI überlassen.

Alles andere wäre doch eine krasse Fehlentscheidung gewesen. Ein 55nm-GT200 wird am ungefähren Leistungsverhältnis nichts ändern, aber der GT200 hat auch seine Käufer gefunden. ;)

igg
2008-07-11, 11:03:35
Alles andere wäre doch eine krasse Fehlentscheidung gewesen. Ein 55nm-GT200 wird am ungefähren Leistungsverhältnis nichts ändern, aber der GT200 hat auch seine Käufer gefunden. ;)
Da die Highend-Variante des Chips schneller als der R700 sein soll wird soch dcoh was ändern

Adam D.
2008-07-11, 11:03:36
Warum sollte er ? Neutral oder sachlich abgewogen sind die sicher nicht.
Ich halte dich nicht für dumm, trotz alledem frag ich mich jedes mal, warum deine Posts generell von einem Charakter geprägt sind, der nur zum Anheizen des Diskussionsklimas beiträgt.

Topic: Nvidia musste den G200 launchen, keine Frage. Kampflos das Feld überlassen ist sicher keine gute Entscheidung und momentan steht der G200 doch gut da. Ein bisschen zu teuer noch, aber das sind ja nichts destotrotz tolle Karten.
Der G200b wird nur geringfügig schneller sein, hauptsächlicher Vorteil ist der "nur" noch 470mm² große Die. ATi wird trotzdem mit dem R700 lange an der Spitze bleiben.

reunion@work
2008-07-11, 11:05:50
Da die Highend-Variante des Chips schneller als der R700 sein soll wird soch dcoh was ändern

Träum weiter, dazu müsste nV an die 50% mehr Takt rausholen.

Adam D.
2008-07-11, 11:08:09
Träum weiter, dazu müsste nV an die 50% mehr Takt rausholen.
Die Frage ist, wie unrealistisch die Spekulation über den Chip mit 192SPs und 256-bit SI + GDDR5 sind.

reunion@work
2008-07-11, 11:09:03
Wenn nVidia die Fertigungskosten in den Griff kriegt, dann hindert sie doch niemand daran, eine GTX280 GX2 zu bezahlbaren Preisen anzubieten.


Vor 45nm kannst du das vergessen und da kommt dann auch von AMD etwas neues.

a) Du gibst was auf Aussagen von seahawk?
b) Gäste im Spekulationsforum sind für den Arsch.

Dieses ganze biased-Gelaber ist einfach nur dämlich. Profitiert irgendjemand wirklich davon, wenn einer der IHVs absackt? Natürlich nicht. Man kann sich freuen, dass "seine" Firma "gewonnen" hat. Aber das war's auch. Wir haben ja gesehen, was passierte, als der R600 floppte, die Marktsituation später wurde dann nur erzwungenermaßen besser.

Ständige harte Konkurrenz ist das, was wir am meisten brauchen, auch wenn das die ganzen süßen Fanboys ja nicht wahr haben wollen. Ich gratuliere ATi zu diesem meisterhaften Schachzug, aber dass hier dann 5 Tage später über den Untergang von Nvidia diskutiert wird, zeigt IMO sehr gut, was aus dem Forum geworden ist.

So, sorry für OT.

Gerade da AMD in der Vergangenheit weit zurück lag und jetzt schon über Jahre hinweg große Verluste zu verzeichnen hat, sollte jedem, der an Wettbewerb interessiert ist, etwas daran liegen, dass AMD wieder Boden gut macht.

reunion@work
2008-07-11, 11:10:12
Die Frage ist, wie unrealistisch die Spekulation über den Chip mit 192SPs und 256-bit SI + GDDR5 sind.

Der Chip wäre noch immer um die 380mm² groß. Noch immer zu viel für eine bezahlbare Dual-GPU-Karten IMHO.

Adam D.
2008-07-11, 11:11:28
Gerade da AMD in der Vergangenheit weit zurück lag und jetzt schon über Jahre hinweg große Verluste zu verzeichnen hat, sollte jedem, der an Wettbewerb interessiert ist, etwas daran liegen, dass AMD wieder Boden gut macht.
Klar, aber die Grafikkartensparte hat auch vorher schon zumindest schwarze Zahlen geschrieben, da liegt der Hund nicht begraben.

Der Chip wäre noch immer um die 380mm² groß. Noch immer zu viel für eine bezahlbare Dual-GPU-Karten IMHO.
Naja, wenn's etwas weniger wären, ist ja man ja nicht mehr so weit von einem G92 entfernt und da hat's auch geklappt. Ich glaub aber persönlich auch nicht, dass sowas kommt. IMO kommt ein G200b, damit eine GTX270 und GTX290 und dann sehen wir erst wieder Mitte-Ende nächstes Jahr was neues, was wohl der D3D11-Chip wird.

AnarchX
2008-07-11, 11:12:00
Der Chip wäre noch immer um die 380mm² groß. Noch immer zu viel für eine bezahlbare Dual-GPU-Karten IMHO.
Packdichte wird wohl etwas sein, was Nvidia versuchen wird bei kommenden Derivaten zu optimieren.

igg
2008-07-11, 11:44:46
Träum weiter, dazu müsste nV an die 50% mehr Takt rausholen.
Diesen Post (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6648643&postcount=275) könnte man so deuten, dass die noch was anderes gemacht haben. Wenn Fud und NH beide schreiben, dass er schneller ist, ist die Wahrscheinlichkeit hoch, dass was dran ist.

Und Charly vom Inq hat auch schon früh auf den kommenden angeblich viel besseren GT200b hingewiesen.

seahawk
2008-07-11, 11:49:14
Es ist ebenso möglich, das irgendwo im G200 @ 65nm ein Problemchen versteckt ist, dass im G200b nicht mehr da ist.

AnarchX
2008-07-11, 12:22:37
Es ist ebenso möglich, das irgendwo im G200 @ 65nm ein Problemchen versteckt ist, dass im G200b nicht mehr da ist.
Eher nicht möglich, da man ja für einen optischen Shrink auf 55nm nichts an den Masken ändert.

seahawk
2008-07-11, 12:40:54
Wenn es wirklich ein 100% reiner Shrink ist.

Gast
2008-07-11, 13:42:09
Auf jeden Fall würde ich mich ziemlich ärgern, wenn ich mir eine GTX280 gekauft hätte und schon in ein paar Wochen ein viel besseres Modell kommt.

igg
2008-07-11, 13:58:02
Auf jeden Fall würde ich mich ziemlich ärgern, wenn ich mir eine GTX280 gekauft hätte und schon in ein paar Wochen ein viel besseres Modell kommt.
Nun, am 30. Mai konnte man lesen, dass der GT200b sein Tape-out hinter sich hat. Insofern...

Grestorn
2008-07-11, 14:03:18
Auf jeden Fall würde ich mich ziemlich ärgern, wenn ich mir eine GTX280 gekauft hätte und schon in ein paar Wochen ein viel besseres Modell kommt.

Es rentiert sich nie, sich über so etwas zu ärgern.

Ich habe fast 20 Monate mit meinen 8800GTXen sehr gut gelebt (die zusammen knapp 300€ teurer waren als die 2 GTX280) und ich werde auch mit den GTX280en ne Weile gut leben. Auch wenn ein Nachfolger kommen sollte, der vermutlich vorallem billiger ist und ggf. ermöglicht dass man 2 GPUs auf einer Karte integriert.

Also nein, ich glaube nicht, dass ich mich wirklich ärgern muss.

PHuV
2008-07-11, 14:10:18
Es rentiert sich nie, sich über so etwas zu ärgern.
:
Also nein, ich glaube nicht, dass ich mich wirklich ärgern muss.

Du hast ja auch keine andere Wahl ;), tja schon blöd wenn man so ein teueres Hobby wie Computerei hat. Ich darf gar nicht daran denken, was ich hier schon alles verbraten habe.

Gast
2008-07-11, 14:43:05
Du hast ja auch keine andere Wahl ;), tja schon blöd wenn man so ein teueres Hobby wie Computerei hat.


Eben. Ärgern tun sich nur die, die es sich eigentlich nicht leisten können.

igg
2008-07-11, 14:46:33
Eben. Ärgern tun sich nur die, die es sich eigentlich nicht leisten können.
Und dann sollte man auch keine Hardware kaufen sondern sein Geld auf ein Tagesgeldkonto mit 4+ Zinsen ablegen...

HOT
2008-07-11, 15:49:03
Nun, am 30. Mai konnte man lesen, dass der GT200b sein Tape-out hinter sich hat. Insofern...
Dann dauerts ja noch bis Ende des Jahres bis der Chip kommt :|. 1/2 Jahr Vorlauf muss man auf jeden Fall einplanen.

Sorkalm
2008-07-11, 15:50:31
Naja, G200b ist nur ein optischer Shrink, da muss man nicht so viel einplanen.

seahawk
2008-07-11, 17:12:27
Das verkürzt nur die Zeit zum Tape-Out, nicht die Zeit zum Anlauf des Massenproduktion.

Gast
2008-07-11, 19:31:38
Dann dauerts ja noch bis Ende des Jahres bis der Chip kommt :|. 1/2 Jahr Vorlauf muss man auf jeden Fall einplanen.

Nope, war bisher Tapeout = ok? -> 3Monate bis VK

Gast
2008-07-11, 21:56:46
Nope, war bisher Tapeout = ok? -> 3Monate bis VK
Also 3 Monate wird Nv nichts verkaufen.

Gast
2008-07-12, 01:40:56
GT200b wird voraussichtlich am 1. September gelaunched.

Gast
2008-07-12, 01:49:59
Also 3 Monate wird Nv nichts verkaufen.

Der Satz ergibt keinen Sinn... Bisher war es die Regel, das nach einem Tapeout es 3 Monate Zeit brauchte, bis die fertigen Karten beim Händler verfügbar waren. Min. 4 Wochen davon lungern die Karten auf dem Meer sowieso herum.

Nightspider
2008-07-12, 05:16:58
GT200b wird voraussichtlich am 1. September gelaunched.

Quelle ?

igg
2008-07-12, 11:18:43
Quelle ?
NordicHardware (http://www.nordichardware.com/news,7921.html)
Fudzilla (http://www.fudzilla.com/index.php?option=com_content&task=view&id=8391&Itemid=34)
Inquirer (diese Quelle verdient es nicht verlinkt zu werden)

Ailuros
2008-07-13, 15:33:30
Packdichte wird wohl etwas sein, was Nvidia versuchen wird bei kommenden Derivaten zu optimieren.

Eine ziemlich schlechte Idee fuer den Stromverbrauch den man wohl nicht erhoehen will.

Nun, am 30. Mai konnte man lesen, dass der GT200b sein Tape-out hinter sich hat. Insofern...

Zwischen dem was man lesen konnte und wann es wirklich stattfand gibt es einen guten Unterschied, aber momentan total unwichtig.

-----------------------------------------

Wie manche sich vorstellen koennen ist es unheimlich schwierig etwas herauszuquetschen wenn etwas schief geht. CJ hatte wohl wieder recht als er irgendwo erwaehnte dass irgendwelche Deppen bei NV erwarteten dass RV670 nur 3 R600 cluster haben wird. Und ja es macht auch so mehr Sinn dass die 8800GT relativ kurzfristig noch einen cluster zugeschaltet bekam und dass man generell und kurzfristig zu moderat auf der roadmap ankam. Es gab unendliche interne Verhandlungen ob GT200 das Tageslicht sehen sollte und sie haben natuerlich von da ab ihre roadmap neu angepasst und nein dieses passierte auch nicht gestern.

Wenn alles nach Plan laeuft werden R700 und GT200b nur einen kleinen Abstand fuer ihre Veroeffentlichung haben und nein so miserabel wie sich manche erhoffen steht das letztere auch nicht da. Das heisst jetzt natuerlich nicht dass es nicht fast Nacken an Nacken laufen wird IMHLO, aber es bleibt auch dabei dass zu viele immer noch nicht von dual-wasauchimmer configs ueberzeugt werden konnten. Langfristig mag sich dieses schon aendern aber auch unter besseren Voraussetzungen als heute.

http://www.fudzilla.com/index.php?option=com_content&task=view&id=8392&Itemid=1

Sinn oder Unsinn fuer den Artikel oben ist gleichgueltig; wichtiger ist dass sich NV in absehbarer Zeit ein schweres Dilemma angetan hat und dass AMD immer noch nicht ganz ueber den Berg ist so oder so. Ich hab zwar nichts zuverlaessiges gehoert, aber wehe wenn Intel auch SGX555 fuer IGPs lizensiert haben sollte.

igg
2008-07-13, 16:07:40
Wenn alles nach Plan laeuft werden R700 und GT200b nur einen kleinen Abstand fuer ihre Veroeffentlichung haben und nein so miserabel wie sich manche erhoffen steht das letztere auch nicht da. Das heisst jetzt natuerlich nicht dass es nicht fast Nacken an Nacken laufen wird IMHLO, aber es bleibt auch dabei dass zu viele immer noch nicht von dual-wasauchimmer configs ueberzeugt werden konnten. Langfristig mag sich dieses schon aendern aber auch unter besseren Voraussetzungen als heute.
Bisher dachte ich immer, komplizierte Sätze wären für mich kein Problem ;)

Gast
2008-07-13, 16:22:35
GeForce GTX 280 Extreme

- Memory: 1GB (1024MB) GDDR3
- Core Clock: 738MHz
- Shader Clock: 1666MHz
- Memory Data Rate: 2520MHz
- Processor Cores: 240
- Shader Model: 4.0
- Texture Fill Rate: 49.2 Billion/sec.
- Memory Interface: 512-bit
- Memory Bandwidth: 151.7GB/sec

http://www.overclockers.co.uk/showproduct.php?prodid=GX-144-LT&groupid=701&catid=56&subcat=1176&name=Leadtek%20GeForce%20GTX%20280%20Extreme%201024MB%20GDDR3%20TV-Out/Dual%20DVI%20(PCI-Express)%20-%20Retail

Gast
2008-07-13, 16:25:29
so viel zu Thema das 55nm nicht mehr Takt bringt ;)

igg
2008-07-13, 16:32:22
GeForce GTX 280 Extreme

- Memory: 1GB (1024MB) GDDR3
- Core Clock: 738MHz
- Shader Clock: 1666MHz
- Memory Data Rate: 2520MHz
- Processor Cores: 240
- Shader Model: 4.0
- Texture Fill Rate: 49.2 Billion/sec.
- Memory Interface: 512-bit
- Memory Bandwidth: 151.7GB/sec

http://www.overclockers.co.uk/showproduct.php?prodid=GX-144-LT&groupid=701&catid=56&subcat=1176&name=Leadtek%20GeForce%20GTX%20280%20Extreme%201024MB%20GDDR3%20TV-Out/Dual%20DVI%20(PCI-Express)%20-%20Retail
Ob das der GT200b wirklich ist?

Im Vergleich zur Asus GTX280 Top (http://www.overclockers.co.uk/showproduct.php?prodid=GX-166-AS&groupid=701&catid=56&subcat=1176&name=Asus%20GeForce%20GTX%20280%20TOP%201024MB%20GDDR3%20TV-Out/Dual%20DVI%20(PCI-Express)%20-%20Retail) sind Daten nicht groß verändert (ok, ein bisschen nach oben). Die Shader Clock mit 1666MHz finde ich etwas merkwürdig.

Im beyond3d Forum schrieb jemand hierzu:
If Nvidia's in for a significant speed bump with GT200b, I'd expect more than 738 core (shader's not bad though), because there already are some pre-OCed versions of plain GTX280 at 700/1400 MHz. If the 55nm shrink is planned primarily for yield reasons - ok. But then they'll have to lower the price again to compete with OCed 4870s.

I wonder what premium tag the 1G versions of HD4870 will be carrying - as GDDR5 supposedly is not cheaper than GDDR3.

LovesuckZ
2008-07-13, 16:36:58
Man sollte nicht alles glauben, was Leute in Foren schreiben. 738MHz lägen auf 9800GTX+. Und das bei fast doppelten sovielen Transistoren. Hier schreckt doch eher der Stromverbrauch ab.

Gast
2008-07-13, 16:48:56
schon für den G200 sind 700MHz kein Problem, die 600MHz standart Takt wurden wohl bewusst so nidrig gehalten!

Das grosse Problem ist wohl der Shader Takt, 1666MHz wären extrem gut und mit einem G200 unter LuKü so gut wie nicht möglich

Stromverbrach dürfte kein Thema sein, den der G200 bracht nur 20Watt mehr als ein G80 und ATI kommt mit der X2 an die 300Watt TDP!

igg
2008-07-13, 17:04:01
schon für den G200 sind 700MHz kein Problem, die 600MHz standart Takt wurden wohl bewusst so nidrig gehalten!

Das grosse Problem ist wohl der Shader Takt, 1666MHz wären extrem gut und mit einem G200 unter LuKü so gut wie nicht möglich
Da es die Karte wohl zu kaufen gibt/geben wird ist das wohl auch möglich. Aber ich glaub (auch im Hinblick auf den Post von Ailuroes und die News auf Fud/Inq) nicht, dass das die Karte ist mit der Nvidia den R700 angreifen will und wird.

Gast
2008-07-13, 18:10:28
Man sollte nicht alles glauben, was Leute in Foren schreiben. 738MHz lägen auf 9800GTX+. Und das bei fast doppelten sovielen Transistoren. Hier schreckt doch eher der Stromverbrauch ab.

Das teil hängt auch am SI mittlerweile, 1275MHz auf dem Speicher is über dem was die Teile eigentlich hergeben.
Vieleicht wurden vom G200 nicht viele Produziert, und man stellt "nur" die Produktion auf 55nm um, damit mehr Yield erreicht wird. Das es eine "Extreme - Ultra" Version dabei gibt, ist glaube ich nur Abfallprodukt. Die Mainstream Karten mit GDDR5 werden hoffentlich zur Jahreswende kommen und G92b ablösen. An einen G20x in 45nm glaube ich nicht, da wird man einen echten Refresh dann präsentieren mit 256SI und GDDR5.

igg
2008-07-14, 09:44:13
Der GTX280 Preis rutscht weiter nach unten (http://geizhals.at/deutschland/?cat=gra16_512;asuch=gtx+280&xf=133_NVIDIA+GeForce+GTX+200+Serie&sort=p), der R700 ist da (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=424872). Lange wird die Ankündigung wohl nicht auf sich warten lassen...

Anarchy-HWLUXX
2008-07-14, 10:28:47
Dalso wenn dann "die" R700 ;)

PS : Was hat das mit kommenden G200 zu tun ? Ääääääh, garnix.

igg
2008-07-14, 11:46:50
Dalso wenn dann "die" R700 ;)

PS : Was hat das mit kommenden G200 zu tun ? Ääääääh, garnix.

Der R700 Chip (die 4870 X2 Grafikkarte)
Ich glaube beide Links haben viel mit dem GT200b zu tun: Die Kostensenkung beim GT200 hat vermutlich nicht nur mit der Konkurrenz zu tun sondern auch weil man die Karten vor dem GT200b abverkaufen will, und durch den R700 hat ATI die schnellste Karte auf dem Markt, was Nvidia sicher nicht gefällt

Schlammsau
2008-07-14, 12:00:13
Ich glaube nicht, dass 1 Monat nach Markteinführung schon ein Ausverkauf stattfindet.
Es dauert noch ein bisschen bis der G200b das Licht der Welt erblickt.

igg
2008-07-15, 09:51:55
Die Frage ist ohnehin, wie der GT200b platziert wird: Wird er die aktuelle Reihe ersetzen (GTX260+, GTX280+) oder ergänzen (GTX270, GTX290).

Ich vermute eher ersteres, da Nvidia vermutlich auch die Yield-Rate verbessern will und deshalb den alten GT200 nicht mehr in 65nm produzieren wird. Allerdings würden dann vermutlich auch die Preise wieder steigen, zumindest wenn Fudzilla und NordicHardware (Leistung wie R700) Recht behalten.

Gast
2008-07-15, 10:02:00
Yielddiskussionen sind gefährlich, da NV schon mehr als einmal Verträge hatte bei denen sie pro lauffähigem Die zahlten und nicht per Waffer.

Adam D.
2008-07-15, 10:14:18
Die Frage ist ohnehin, wie der GT200b platziert wird: Wird er die aktuelle Reihe ersetzen (GTX260+, GTX280+) oder ergänzen (GTX270, GTX290).

Ablösen ist das richtige Wort. GTX260 und GTX280 werden nicht mehr hergestellt, wenn man den G200b fertig hat - wieso auch? Die Restbestände werden abverkauft und man positioniert sich mit dem G200b-Die etwas über den älteren Modellen.

PS: Ich halte nichts von den Gerüchten, dass der G200b so mächtig wird.

igg
2008-07-16, 11:47:25
Es sieht so aus, als wird es auch der GT200b nicht leicht haben:
We have learned that some major publishers including Electronic Arts, Sega and Vivendi (Blizzard) plan to release DirectX 10.1 games.
Quelle (http://www.fudzilla.com/index.php?option=com_content&task=view&id=8463&Itemid=34)

DX10.1 wird wohl immer mehr ein Kaufargument und die Leistung des GT200b muss schon ordentlich besser sein um das aufzuwiegen.

Gast
2008-07-16, 11:54:10
Bis diese Spiele rauskommen, hat nVidia noch genug Zeit ihr Design umzutsellen. Im Q1/09 kommen ja schon IGPs mit DX10.1. Falls jetzt wirklich auf DX10.1 gesetzt wird, werden auch die großen Brüder der IGPs DX10.1 abbekommen müssen.

Gast
2008-07-16, 11:54:42
Nö. Für mich ist DX11 ein Kaufargument. Und wir werden ja sehen welche Karten besser performen. Ich tippe mal auf Nvidia.

centurio81
2008-07-16, 11:59:36
Nö. Für mich ist DX11 ein Kaufargument. Und wir werden ja sehen welche Karten besser performen. Ich tippe mal auf Nvidia.

Wenn man neue Effekte zu sehen bekäme würde ich mich um DX auch mal wieder scheren.. Aber da DX10 im Moment nicht mal so richtig einschlägt..Und Vista ist jetzt 1,5 jahre draußen..
Wage ich zu bezweifeln, dass DX11 groß was ändern wird..
Da ja auch im Moment vieles gebremst wird, weil alle sich so vehement sträuben auf Vista zu wechseln, und den Traum eines "würdigen" nachfolgeres weiter tapfer träumen..

Aber nachdem was ATI/AMD jetzt abgeliefert hat, wäre ich mir mit der Performance Krone bei nVidia nicht mal so sicher..
ATI hat getan was nötig war und sich auf den Hintern gesetzt und was getan..
Das Ergebniss sieht man.

Gast
2008-07-16, 12:11:40
Bis diese Spiele rauskommen, hat nVidia noch genug Zeit ihr Design umzutsellen. Im Q1/09 kommen ja schon IGPs mit DX10.1. Falls jetzt wirklich auf DX10.1 gesetzt wird, werden auch die großen Brüder der IGPs DX10.1 abbekommen müssen.

An die IPGs mit DX10.1 glaubst du doch hoffentlich selbst nicht.

MEDIC-on-DUTY
2008-07-16, 12:49:57
DX10.1 wird wohl immer mehr ein Kaufargument und die Leistung des GT200b muss schon ordentlich besser sein um das aufzuwiegen.

Als Kaufargument sehe ich 10.1 noch lange nicht, da wir bis dato keinerlei Titel dazu gesehen haben, von AC mit fehlerhafter 10.1 Umsetzung mal abgesehen. Selbst für DX10, welches von beiden Herstellern schon seit gut 2 Jahren auch in der Masse unterstützt wird, haben wir heute gerade mal eine handvoll Games, die die zusätzlichen Möglichkeiten ausnutzen. Das mag u.a. an der aktuellen Modewelle der Konsolen liegen, die bekanntlich nur mit DX9 arbeiten, aber auch reine PC-Titel = Fehlanzeige.

Klar werden die von ATI unterstützen Titel mit 10.1 kommen, doch das wird im Verhältnis zu den mehrheitlich von nV unterstützen Games ein geringer Teil bleiben. Erst DX11 wird das wirklich Kaufargument für die nächste Kartengeneration darstellen. Den PR-War dazu hat M$ bereits eingeläutet.

Wenn man dazu noch bedenkt, dass ein Rechner ca. alle 3 - 4 Jahre ausgewechelt wird, dann würde das Überspringen von DX10.1 nicht weiter auffallen.

G200b wird als Review kommen und man sollte an dieser Stelle keine Wunder erwarten, wenn man auf die letzten Shrinks von nV zurückblickt. Vielleicht kann nV mit der 4780X2 gleichzeihen, aber auch dass wäre schon fast ein Wunder. Wohl schon eher mit der kleinen Schwesterkarte, der 4750X2.

Gast
2008-07-16, 12:53:57
Es sieht so aus, als wird es auch der GT200b nicht leicht haben:

Quelle (http://www.fudzilla.com/index.php?option=com_content&task=view&id=8463&Itemid=34)

DX10.1 wird wohl immer mehr ein Kaufargument und die Leistung des GT200b muss schon ordentlich besser sein um das aufzuwiegen.

Das wird nur relevatn wie nah an Windows 7 und DX11 diese Titel die Welt erblicken.

igg
2008-07-16, 13:18:48
Das wird nur relevatn wie nah an Windows 7 und DX11 diese Titel die Welt erblicken.
Stimmt auch wieder. Habe gerade gelesen, dass Rage und Doom 4 auch mit OpenGL (bzw. DX9 für X360) arbeiten werden...

Bin mal gespannt, wass die ersten Daten/Benchmarks zum GT200b kommen. befürchte allerdings, dass wir bis zum Launch des R700 (14.8.) warten müssen...

Werewolf
2008-07-16, 13:36:10
Lässt sich über die Reduktion des Stromverbrauchs eines Geforce 200B zum Geforce 200 bereits spekulieren? Wie hoch würde der Unterschied ausfallen?

Ailuros
2008-07-16, 14:39:33
An die IPGs mit DX10.1 glaubst du doch hoffentlich selbst nicht.

Intel baut momentan SoCs fuer UMPCs mit 10.1 Komplianz die in 2009 erscheinen sollten.

AnarchX
2008-07-18, 08:16:56
http://img156.imageshack.us/img156/7361/20080718cc58b8ddb910a08qo3.jpg
http://we.pcinlife.com/thread-969262-1-1.html

Naja, da wird sich wohl eher jemand mal kurz an PS gesetzt haben.

Gast
2008-07-18, 08:51:50
http://en.hardspell.com/doc/showcont.asp?news_id=3764

centurio81
2008-07-18, 08:58:15
glaube ich nicht dranne..
Aber wenns so wäre, dann wärs natürlich der Hammer.. ^^
So mir nix dir nix ma eben doppelte gtx Leistung..
ne das glaube ich nie.. ^^ Unmöglich..

James Ryan
2008-07-18, 09:09:36
Ist doch eh ein Fake, das sollte doch klar sein!
480 SPs in 55nm? 2 GB GDDR5 VRAM?
Wieviel Watt braucht das Ding dann? 400 unter Vollast?

MfG :cool:

igg
2008-07-18, 09:10:47
Das scheint mir für einen Refresh des GT200 auch ein bisschen hoch gegriffen.

Adam D.
2008-07-18, 09:45:33
Ein bisschen? ;D

igg
2008-07-18, 10:30:25
Ein bisschen? ;D
Nur eine Redewendung :)

Wobei ich immer noch erstaunt bin, wie gut Nvidia diesmal den Informationsfluss im Griff hat. Obwohl der GT200b wohl nicht mehr weit weg ist, wenn man den Gerüchteseiten Fud und NH glaubt, gibt es faktisch keine nennenswerten Infos (außer 55nm).

mekakic
2008-07-18, 10:37:02
Vielleicht ist es ja das einzig neue? Den G200 etwas billiger machen...

Adam D.
2008-07-18, 10:43:37
Wobei ich immer noch erstaunt bin, wie gut Nvidia diesmal den Informationsfluss im Griff hat. Obwohl der GT200b wohl nicht mehr weit weg ist, wenn man den Gerüchteseiten Fud und NH glaubt, gibt es faktisch keine nennenswerten Infos (außer 55nm).
Hmm, was wäre denn, wenn hinter dem G200b überhaupt nichts steckt - außer 55nm?

Vielleicht ist es ja das einzig neue? Den G200 etwas billiger machen...
S.o. ;)

igg
2008-07-18, 11:20:56
Kaum redet man davon:
Our sources are telling us that 55nm version of the chip should be ready either in late August or in September which means that Radeon HD 4870 X2 will get some competition.

We believe that Shaders and clock of 55nm GT200 are definitely going to be higher than the 65nm and the chip itself should be a bit cooler.

This means R700 will get some better competition and the fact that this ATI’s dual card is going to end of faster than GTX 280, doesn’t mean ATI has already won the war.

Quelle (http://www.fudzilla.com/index.php?option=com_content&task=view&id=8515&Itemid=34)

Zumindest ein paar Hinweise:

Die Einsparungen in 55 nm werden für die Taktraten verwendet
Er wird wohl deutlich schneller
Veröffentlichung Ende August/Anfang September

reunion@work
2008-07-18, 11:28:31
Kaum redet man davon:

Quelle (http://www.fudzilla.com/index.php?option=com_content&task=view&id=8515&Itemid=34)

Zumindest ein paar Hinweise:

Die Einsparungen in 55 nm werden für die Taktraten verwendet
Er wird wohl deutlich schneller
Veröffentlichung Ende August/Anfang September


Das Ding ist zu 99.9% ein stinkt normaler Shrink mit etwas höheren Taktraten. Der Codename laute nicht umsonst GT200b. Keine Ahnung was dieser Hype soll.

Gast
2008-07-18, 11:28:47
naja um den 4870X2 zu schlagen muss die Karte wohl um 30-40% zulegen.
Das ist mit einem reinen DIE Shrink nicht drinn! Der Stromverbrauch bleibt bei einem reinen Shrink gleich. Sieht man ja an der 9800GTX und 9800GTX+!

Gast
2008-07-18, 11:31:15
Der GT200b wird genauso wie der G92b ein reiner DIE Shrink mit leicht erhöhten (~10%) Taktraten werden. Sie wird dann einfach billiger werden.....

Adam D.
2008-07-18, 11:36:14
Der GT200b wird genauso wie der G92b ein reiner DIE Shrink mit leicht erhöhten (~10%) Taktraten werden. Sie wird dann einfach billiger werden.....
...und in keiner Konkurrenz (Preis u. Leistung) zum R700 stehen.

Gast
2008-07-18, 11:40:44
...und in keiner Konkurrenz (Preis u. Leistung) zum R700 stehen.

ich meinte sie wird billiger zum herstellen für nVidia.
Wie meinst du das?

Adam D.
2008-07-18, 12:00:35
ich meinte sie wird billiger zum herstellen für nVidia.
Wie meinst du das?
Ich wollte dir nur zustimmen und hab die Folgen erörtert. Der Die verliert erstmal knapp 100mm² an Fläche, also wird das Ding deutlich günstiger in der Herstellung und da ich nicht glaube, dass der G200b leistungstechnisch an den R700 ran kommt, denke ich, dass das Modell "GTX270 und GTX290" (--> ersetzt den G200 komplett, leicht höhere Taktfrequenzen, "Kampfpreise") realistisch erscheint.

Gast
2008-07-18, 12:33:50
das ist hier ja fast schon so ein Hype wie um den GT200.
Ihr erwartet zu viel Leute.....
10% Mehrleistung bei 5% höherem Stromverbrauch. Mehr dürft ihr nicht erwarten!

Psychopat
2008-07-18, 13:31:39
Mit dem G200b kommt evtl. eine GX2...

Wobei... Die Chips einer GX2 müssten einzeln schon auf GTX 280 Niveau liegen, sonst wirds eng mit der Leistungskrone. Wenn ich mir so die GTX 2xx SLI vs. 4xxx Crossfire Benchmarks anschaue, sind die mehr oder weniger gleichwertig. Da macht das getestete Spiel (+Settings) mehr aus wer vorne liegt als was für eine Karte man bencht (also ob man eine 260 oder 280 bzw. 4870 oder 4850 nimmt)! Einen absoluten Benchmarksieg wie ihn die 8800GTX damals hatte, wird es wohl so schnell von keinem der beiden Hersteller geben.

Die Frage ob es eine GX2 geben wird oder nicht, hängt wohl davon ab wie weit man einen G200b untertakten muss, um auf akzeptable Verbrauchswerte zu kommen. Ob dann noch genug Leistung übrig bleibt, dass sich eine GX2 lohnt.

igg
2008-07-18, 14:03:49
Mit dem G200b kommt evtl. eine GX2...
Wenn du das in den Raum wirfst darf natürlich dieser Thread (http://www.computerbase.de/forum/showthread.php?t=416410) nicht fehlen ;).

Das würde vermutlich bedeuten:

GTX280 wird mit 55nm neu aufgelegt
GTX260 ebenfalls
Zum Angriff auf den R700 kommt eine GX2, in 55nm, kleineres SI

Das würde auch zu dem etwas kryptisch geschrieben 2. Absatz von Ailuros (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6655113&postcount=315) passen:
Wenn alles nach Plan laeuft werden R700 und GT200b nur einen kleinen Abstand fuer ihre Veroeffentlichung haben und nein so miserabel wie sich manche erhoffen steht das letztere auch nicht da. Das heisst jetzt natuerlich nicht dass es nicht fast Nacken an Nacken laufen wird IMHLO, aber es bleibt auch dabei dass zu viele immer noch nicht von dual-wasauchimmer configs ueberzeugt werden konnten. Langfristig mag sich dieses schon aendern aber auch unter besseren Voraussetzungen als heute.

Nightspider
2008-07-18, 18:25:41
Man muss aber beachten, dass das Die bei der Verdopplung der Shader auf 480 nicht doppelt so groß wird.

Das Speicherinterface bleibt gleich groß.
Die GPGPU-Features bleiben gleich groß.

Der G200 Chip ist wesentlich größer im Verhältnis zum G80 unter Beachtung der Shadereinheiten (128 zu 240) zur Tranistorzahl.

Vielleicht könnte man mit 30% mehr Platz 480 Shadereinheiten unterbringen.

Beachtet doch einfach, was ATI geschafft hat.

mit 55nm spart man im Gegensatz zum 65nm Prozess ~30 an Platz.

Mit leichten Optimierungen könnte man auch mehr Platz sparen.



Ich will damit nicht sagen, das dies kein Fake ist aber ich will verdeutlichen, das es nicht unmöglich wäre.

Und 2 GB GDDR5 wären für ein wahres Monster nicht unbezahlbar.

Wobei ich wenn dann auch von "nur" 1 GB GDDR5 ausgehen würde.

Unterm Strich ist es sicherlich ein Fake.

Aber cool wäre es trotzdem ;D

Gast
2008-07-18, 18:50:05
Solche Fakes wecken bei mir unerfüllbare Erwartungshaltung die bewirkt das ich das wahre Produkt nicht gut genug finde. Rate wer hinter solchen Fakes stehen könnte ....

tyrol
2008-07-18, 22:27:02
Und was soll das Ding an Energie schlucken? 300W? :rolleyes:

Gast
2008-07-18, 22:29:51
Woher soll man wissen was dies und jenes schluckt? Alles Speku und ich glaube nicht das es unglaublich viel im Verhältnis zum Vorgänger schluckt. Wer hätte gedacht das Nvidia einen funktionierenden 2D-Modus schafft und ATI bei den neuen nicht? Also, abwarten. We`ll see.

|MatMan|
2008-07-19, 11:26:08
Vielleicht könnte man mit 30% mehr Platz 480 Shadereinheiten unterbringen.

Beachtet doch einfach, was ATI geschafft hat.

mit 55nm spart man im Gegensatz zum 65nm Prozess ~30 an Platz.

Mit leichten Optimierungen könnte man auch mehr Platz sparen.
Sorry der letzte Satz ist echt zum brüllen komisch. Du glaubst doch nicht im Ernst, dass man da "mal eben" Die-Fläche einsparen kann? Wenn es so einfach wäre hatte es nVidia getan, die Entwickler sind doch nicht blöd. Wie manche Leute meinen können schlauer als ein ganzes Entwicklungsteam zu sein und dabei nichtmal die leiseste Ahnung von Chipdesign haben ;D (war jetzt nicht speziell gegen dich, sondern gegen solche Pauschalaussagen, die man hier öfter liest)

Beim RV770 ist alles rausgeflogen, was man nicht unbedingt brauchte, da kommen die Einsparungen größtenteils her, was trotzdem noch beeindruckend ist. Das hatte man auch dringend nötig um im Kerngeschäft (Grafikkarten für die Masse) wieder Marktanteile zurückzubekommen.

Würde man ähnliches beim G200 machen, würde massig GPGPUZeugs rausfliegen, was man vorher erst mühsam entwickelt hat und ich auch einen Schritt in die absolut richtige Richtung finde (Intel is coming). Nur leider ist, aus welchen Gründen auch immer (Taktrate?!), die Spiele-Leistung etwas zu kurz gekommen.

Ailuros
2008-07-19, 16:21:47
Wenn du das in den Raum wirfst darf natürlich dieser Thread (http://www.computerbase.de/forum/showthread.php?t=416410) nicht fehlen ;).

Das würde vermutlich bedeuten:

GTX280 wird mit 55nm neu aufgelegt
GTX260 ebenfalls
Zum Angriff auf den R700 kommt eine GX2, in 55nm, kleineres SI

Das würde auch zu dem etwas kryptisch geschrieben 2. Absatz von Ailuros (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6655113&postcount=315) passen:

Ich hab damit aber nicht gemeint dass NVIDIA mit einem dual-Dingsbums ankommen wird. Wenn sie's machen gewinnen sie zwar dann hoechstwahrscheinlich die Benchmarks, aber wohl doch nicht in Margen.

Gast
2008-07-19, 17:10:53
Die Infos von Hardwarespell sind falsch!

1.) Produktbezeichnung GTX 350 - klingt nicht nur komisch, für gewöhnlich werden gerade solchen Namen erst wenige Tage vor dem Launch veröffentlicht.

2.) Taktraten - so genau und dann der Launch in so weiter Ferne? Zudem sind 830 MHz im 55 nm-Prozess sehr, sehr hoch gegriffen

3.) Taktraten und Füllrate - wenn denn der Chiptakt 830 MHz beträgt, kann nie und nimmer die Texelfüllrate 84,4 GTexel/s betragen. Also 101,68 TMUs müssten es dafür sein; finde ich nicht wirklich realistisch. ;)

4.) Chipgröße - obwohl der Chip in 55 statt 65 nm gefertigt sein soll, bleibt die Chipgröße bei 576 mm^2. Das wäre ja ein sehr lohnenswerter Schritt für Nvidia...


Sorry, aber das hier ist der mitunter mieseste Fake, der mir seit langem untergekommen ist. Man sollte diese Infos nicht weiter als Diskussionsgrundlage nehmen.

Nightspider
2008-07-19, 17:59:19
Sorry der letzte Satz ist echt zum brüllen komisch. Du glaubst doch nicht im Ernst, dass man da "mal eben" Die-Fläche einsparen kann? Wenn es so einfach wäre hatte es nVidia getan, die Entwickler sind doch nicht blöd. Wie manche Leute meinen können schlauer als ein ganzes Entwicklungsteam zu sein und dabei nichtmal die leiseste Ahnung von Chipdesign haben ;D (war jetzt nicht speziell gegen dich, sondern gegen solche Pauschalaussagen, die man hier öfter liest)


Ich erinnere mich daran, das frühere Nvidia Chips geshrinked wurden, höhere Mhz, damit höhere Leistung und sogar WENIGER Tranistoren besaßen.

Denn manchmal fallen Transistoren weg, da man durch den Shrink an bestimmten Stellen sparen oder etwas "kürzen" kann, wenn es das Design erlaubt.

;)

|MatMan|
2008-07-19, 20:16:10
Ich erinnere mich daran, das frühere Nvidia Chips geshrinked wurden, höhere Mhz, damit höhere Leistung und sogar WENIGER Tranistoren besaßen.

Denn manchmal fallen Transistoren weg, da man durch den Shrink an bestimmten Stellen sparen oder etwas "kürzen" kann, wenn es das Design erlaubt.

;)
das ist schon richtig, keine Frage. Bei G71 war das schon ziemlich eindrucksvoll, aber das war auch der x-te Aufguß des NV3x / NV4x Grunddesigns.

Mir ging es um deine "leichten Optimierungen". Es gibt mit Sicherheit keine GPU auf dem Markt, wo man leicht was optimieren kann, besonders nicht als Laie. Die Dinger werden zu Millionen verkauft und sind deshalb im Zeit- und Budgetrahmen von vorne bis hinten durchoptimiert (natürlich in den Grenzen des Grunddesigns).

Gaestle
2008-07-19, 20:38:32
Soweit ich weiß, gibt es in jedem Chip sogenannte "Massetransistoren" die notwendig sind, um bestimmte Taktraten zu erreichen (warum auch immer). Wenn der Prozess besser ist, kann man diese Transistoren unter Umständen zumindest teilweise einsparen.
Power VR brauchte z.B. 3 Mio. Transistoren (das waren 20% der überhaupt verwendeten Transistoren), um die Kyro II trotz kleinerer Fertigungstechnologie von den 125MHz des Kyro I auf die 175MHz des Kyro II zu bringen. Ansonsen sind die Chips (AFAIK) identisch.

Außerdem wird vermutet, dass NV sehr viel Handarbeit (was auch immer das heißt) in G200 (und auch in G80) stecken musste, um die Taktraten zu erreichen, die man jetzt sieht. Möglicherweise sind da einige Schaltungen nicht sehr effizient, was die Anzahl der benötigten Transistoren angeht. Auch hier könnte (KONJUNKTIV) ein besserer Prozess eine effizientere Nutzung/Anordnung der Transistoren ermöglichen (das wären dann die leichten - im Sinne von "kleineren / nicht tief in die Architektur eingreifenden" - Optimierungen), so dass es durchaus zu einer leichten (im Sinne von "kleinen") Senkung der Anzahl der benötigten Transistoren kommen kann, vorausgesetzt, die Architektur wird ansonsten nicht verändert oder verbreitert.

Ailuros
2008-07-19, 23:34:00
Soweit ich weiß, gibt es in jedem Chip sogenannte "Massetransistoren" die notwendig sind, um bestimmte Taktraten zu erreichen (warum auch immer). Wenn der Prozess besser ist, kann man diese Transistoren unter Umständen zumindest teilweise einsparen.
Power VR brauchte z.B. 3 Mio. Transistoren (das waren 20% der überhaupt verwendeten Transistoren), um die Kyro II trotz kleinerer Fertigungstechnologie von den 125MHz des Kyro I auf die 175MHz des Kyro II zu bringen. Ansonsen sind die Chips (AFAIK) identisch.

Erstens handelt sich um eine budget GPU (d.h. dass ein high end chip um die doppelten Transistoren zu der Zeit hatte) und zweitens ist der Unterschied zwischen 250 und 180nm um einiges groesser als zwischen 65 und 55nm.

Außerdem wird vermutet, dass NV sehr viel Handarbeit (was auch immer das heißt) in G200 (und auch in G80) stecken musste, um die Taktraten zu erreichen, die man jetzt sieht. Möglicherweise sind da einige Schaltungen nicht sehr effizient, was die Anzahl der benötigten Transistoren angeht. Auch hier könnte (KONJUNKTIV) ein besserer Prozess eine effizientere Nutzung/Anordnung der Transistoren ermöglichen (das wären dann die leichten - im Sinne von "kleineren / nicht tief in die Architektur eingreifenden" - Optimierungen), so dass es durchaus zu einer leichten (im Sinne von "kleinen") Senkung der Anzahl der benötigten Transistoren kommen kann, vorausgesetzt, die Architektur wird ansonsten nicht verändert oder verbreitert.

Diese "Handarbeit" bei der ziemlich hohen Komplexitaet der 240SPs des GT200 ist eben genau der Grund warum ihnen das Ganze ins Gesicht geknallt ist und leider nicht die ALU Frequenzen erlaubten die sie gerne gehabt haetten. Das heisst aber wiederrum auch nicht dass selbst wenn sie z.B. ein 2.5x:1 ALU:TMU Frequenz-Verhaeltnis gehabt haetten dass es den Tag gerrettet haette. Aus einer rein technischen Perspektive bin ich momentan eher neugierig was Intel Larabee auf die Beine stellen kann, als alles andere. Nur dann wird das Bild etwas klarer und wir werden dann sehen ob sich die gesamte Investition ins GPGPU-Zeug auch eigentlich gelohnt hat.

Gaestle
2008-07-19, 23:44:40
Sorry, aber ich verstehe nicht, warum Du mich zitierst. Es ging doch nur darum, ob es (theoretisch) denkbar wäre, dass ein Shrink von G200 durch den besseren Prozess (etwas) weniger Transistoren haben könnte als G200 selbst, wenn NV sonst nichts weiter am Chip ändern würde.

Gast
2008-07-19, 23:55:27
http://img156.imageshack.us/img156/7361/20080718cc58b8ddb910a08qo3.jpg
http://we.pcinlife.com/thread-969262-1-1.html

Naja, da wird sich wohl eher jemand mal kurz an PS gesetzt haben.
Ist daß die 280GX2?

Ailuros
2008-07-20, 00:16:18
Sorry, aber ich verstehe nicht, warum Du mich zitierst. Es ging doch nur darum, ob es (theoretisch) denkbar wäre, dass ein Shrink von G200 durch den besseren Prozess (etwas) weniger Transistoren haben könnte als G200 selbst, wenn NV sonst nichts weiter am Chip ändern würde.

Ich zitiere Dich eben weil das vorige und dieses keinen besonderen Sinn macht. Wieso soll ein shrink ohne Aenderungen Dir ploetzlich weniger Transistoren fuer einen chip geben?

A. Wird der chip zu 100% unveraendert einfach nur auf 55nm geshrinkt dann aendert sich an der Transistoren-Anzahl nichts.

B. Erhoehen sie die ALU Frequenz um einen Schritt hoeher als bei GT200, heisst es auch mehr Transistoren. Die "Handarbeit" in den ALUs die Du selber erwaehnst ist alles andere als umsonst; eher das Gegenteil.

C. Um weniger Transistoren zu erreichen muesste eine gewisse Anzahl an redundanten Transistoren rausfliegen wie beim G71 im Vergleich zu G70. Das ist dann aber weder ein einfacher shrink und schon gar irgend etwas das "unveraendert" ins Labor geschickt wurde.

D. STG4500 brauchte 25% mehr Transistoren fuer ca. 40% Frequenz (Dein Beispiel) im Vergleich zu STG4000. Dabei handelte es sich nochmal um einen budget chip bei dem es uebrigens nur eine Frequenz fuer core und Speicher gab (irrelevant wie viele interne domains der chip eigentlich hatte). So etwas ist um einige Male einfacher zu behandeln als ein 1.4 Milliarden Transistoren Monstrum mit ALU domains die ueber 1.5GHz getaktet sind. Nichtdestominder waere es die "nur" 25% mehr Transistoren von KYRO auf KYRO2 sind es laut Milchmaedchen-Rechnung dann 1.75 Milliarden Transistoren wenn man theoretisch die Taktrate um 40% erhoehen wuerde.

Gaestle
2008-07-20, 01:20:30
Meine Rechnung war wie folgt:
Man braucht eine Anzahl x an Transitoren, um die gewünschten Features / Funktionen zu erreichen.
Man braucht außerdem eine Anzahl y an Tranistoren, um bestimmte Frequenzen z zu erreichen (warum auch immer, sogenannte "Massetransistoren").
Vieleicht kann man mit einem besseren Prozess auch z erreichen und dafür weniger y brauchen. Dann könnte man y verringern, hätte eine geringere Summe von x und y und hätte trotzdem x nicht angerührt.
Das war die Idee, mehr nicht.
Deswegen ja auch " wenn NV sonst nichts weiter am Chip ändern würde. "

Nightspider
2008-07-20, 03:14:36
das ist schon richtig, keine Frage. Bei G71 war das schon ziemlich eindrucksvoll, aber das war auch der x-te Aufguß des NV3x / NV4x Grunddesigns.

Mir ging es um deine "leichten Optimierungen". Es gibt mit Sicherheit keine GPU auf dem Markt, wo man leicht was optimieren kann, besonders nicht als Laie. Die Dinger werden zu Millionen verkauft und sind deshalb im Zeit- und Budgetrahmen von vorne bis hinten durchoptimiert (natürlich in den Grenzen des Grunddesigns).

Mir du hast mich etwas missverständen, vielleicht habe ich mich schlecht ausgedrückt. Mit leichten Optimierungen meinte ich eher "kleine" bzw. Optimierungen im Detail, nicht das Optimierungen leicht zu realisieren wären :)

Ailuros
2008-07-20, 14:18:27
Meine Rechnung war wie folgt:
Man braucht eine Anzahl x an Transitoren, um die gewünschten Features / Funktionen zu erreichen.

Schoen.

Man braucht außerdem eine Anzahl y an Tranistoren, um bestimmte Frequenzen z zu erreichen (warum auch immer, sogenannte "Massetransistoren").

Ja und nein. Mit der Frequenz ist bis fast zum letzten Stadium einer Chip-Entwicklung nie etwas sicher. Man projeziert natuerlich fuer Frequenz X, folgt den Sicherheitsmassnahmen der Foundry und zielt eine so konservativ wie moeglich Frequenz an und man taktet auch am Ende das Resultat um einen Zug weniger um auf Nummer Sicher zu gehen.

Im Fall von G8x/9x/GT2x0 wird das Ganze noch komplizierter, weil die handangepassten ALU Frequenzen weitere Probleme mit sich fuehren koennen. Damit GT200 mit 600MHz Taktrate ankam duerfte das Ding locker im Labor die 675MHz oder sogar mehr erreicht haben. Stets aber mit der 2.1x ALU:TMU Relation denn die ALUs haben wohl diesmal nicht mitgespielt. Sie haetten mitspielen koennen aber es haette trotz allem mehr Transistoren gekostet. Bei 1.4 Mrd ist es schon zuviel des Guten.

Vieleicht kann man mit einem besseren Prozess auch z erreichen und dafür weniger y brauchen.

Was heisst "besserer" Prozess? Erstens ist 65nm nicht problematisch und zweitens nochmal ist der Unterschied zwischen 65 und 55nm relativ klein.

Dann könnte man y verringern, hätte eine geringere Summe von x und y und hätte trotzdem x nicht angerührt.
Das war die Idee, mehr nicht.
Deswegen ja auch " wenn NV sonst nichts weiter am Chip ändern würde. "

Gut und damit Du anders verstehst was ich meine: ist GT200b@55nm nur ein einfacher shrink gegenueber GT200 braucht er trotzdem mehr Transistoren wenn man den Shadertakt weiterhin erhoehen will (und auch sollte denn das 2.1x Verhaeltnis des GT200 ist zu niedrig).

Gaestle
2008-07-20, 14:31:07
Danke. Endlich habe ich mal verstanden, worauf Du genau hinaus willst und wie Du meinen Post gelesen hast.

Es ist ja schon länger klar bzw. wahrscheinlich, dass NV für G200b mindestens genauso viele Transitoren brauchen wird wie für G200, wenn Sie nur eine Shrink bauen und die Taktraten weiter erhöhen. Alles andere war ja nur ein rein hypothetisches Gedankenspiel, ohne Praxisrelevanz, wenn Du so willst.

igg
2008-07-20, 22:10:08
Apparently, GT200b will remove the FP64 shaders in order to decrease die size and allow for higher clocks.

http://www.diskusjon.no/index.php?sh...#entry11526561
http://www.diskusjon.no/index.php?sh...#entry11527080
Quelle (http://forum.beyond3d.com/showpost.php?p=1192549&postcount=76)

Kombiniert mit 55 nm (und damit bedingt auch höhere Taktraten) sollte das doch etwas an Potenzial freisetzen?

LovesuckZ
2008-07-20, 22:13:04
Und wer behauptet, dass derjenige etwas weiß?
Ich kann auch schreiben, dass nVidia die diskreten FP64 Recheneinheiten entfernen wird.

igg
2008-07-21, 11:09:33
Und wer behauptet, dass derjenige etwas weiß?
Ich kann auch schreiben, dass nVidia die diskreten FP64 Recheneinheiten entfernen wird.
Das behauptet niemand, ich wollte es nur hinzugefügt haben. Im beyond3d-Forum ist allerdings die Mehrheit der Antworten der Meinung, dass die Quelle zuverlässig ist.

Fudzilla hat übrigens einen Namen gefunden:
With this launch, AMD should officially dethrone Nvidia from the performance leader place but we are sure that Nvidia works night and day to launch its 55nm reaction to this dual chip beast.

From all we know, Radeon HD 4870 X2 is faster than Geforce GTX 280+ in most scenarios.

AnarchX
2008-07-21, 11:27:49
Eine B-Revision mit elementaren Eingriffen in der Chiparchitektur, naja wers glaubt...

Arun glaubt hingegen eher, dass kommenden Derivate, also wohl eher kein B-Revs. wohlmöglich gar noch mehr von den DP-ALUs pro Cluster haben könnten pro Shadercluster.

Aber relevanter für die nahe Zukunft wird erstmal GT200-400 sein und eben wann G200B erhätlich sein wird und wiefern er NV Mehrleistung bzw. eine bessere Position im Preiskampf bieten kann.

MEDIC-on-DUTY
2008-07-21, 14:56:28
Eine B-Revision mit elementaren Eingriffen in der Chiparchitektur, naja wers glaubt...

Arun glaubt hingegen eher, dass kommenden Derivate, also wohl eher kein B-Revs. wohlmöglich gar noch mehr von den DP-ALUs pro Cluster haben könnten pro Shadercluster.

Aber relevanter für die nahe Zukunft wird erstmal GT200-400 sein und eben wann G200B erhätlich sein wird und wiefern er NV Mehrleistung bzw. eine bessere Position im Preiskampf bieten kann.

Da bekommt die Bezeichnung "B-Klasse" eine ganz neue Bedeutung ;)

=Floi=
2008-07-21, 15:04:32
wo würden die dp-alus sinn machen?
ich bin gespannt wo nv hin will und ob sie bei so großen chips bleiben.

Coda
2008-07-21, 15:27:20
wo würden die dp-alus sinn machen?
Ausschließlich GPGPU. Und selbst dort nur in manchen Fällen.

Gast
2008-07-23, 12:35:40
Nvidia GT200b Ende August auf der Nvision?

http://www.hardware-infos.com/news.php?news=2238

igg
2008-07-23, 13:55:10
Nvidia GT200b Ende August auf der Nvision?

http://www.hardware-infos.com/news.php?news=2238
Seufz, noch so lange :(. Meine 6800 GT schreit nach Ersatz.

Adam D.
2008-07-23, 14:00:37
Seufz, noch so lange :(. Meine 6800 GT schreit nach Ersatz.
War doch zu erwarten, klingt IMO nach 'nem sehr realistischen Zeitraum. Ich hoffe, es kommen vorher noch ein paar Infos raus, würd mich jetzt doch echt mal interessieren, was wir beim 55nm-Die zu erwarten haben.

igg
2008-07-23, 14:38:47
War doch zu erwarten, klingt IMO nach 'nem sehr realistischen Zeitraum. Ich hoffe, es kommen vorher noch ein paar Infos raus, würd mich jetzt doch echt mal interessieren, was wir beim 55nm-Die zu erwarten haben.
Wenn man bedenkt, dass der Launch nur noch 1 Monat entfernt ist, sind diesmal extrem wenig Infos bekannt. Ob Nvidia seine Quellen diesmal besser im Griff hat?

Ich frage mich ja, woher manche Leute die Karten hatten (2+ Monate vor dem GT200 oder RV770 Launch) für Benchmarks.

Wenn ich noch bis September warten muss kann ich gleich noch auf Nehalem mitwarten ;)

Gast
2008-07-25, 21:02:28
Hmm, das läge unter den Erwartungen: :(

http://www.hardware-infos.com/news.php?news=2244

GT200b @ 648/1620 MHz.

dargo
2008-07-25, 21:18:13
Hmm, das läge unter den Erwartungen: :(

http://www.hardware-infos.com/news.php?news=2244

GT200b @ 648/1620 MHz.
Was hast du denn von 55nm erwartet? Es dürfte schon lange bekannt sein, dass NV durch den 55nm Fertigungsprozess in erster Linie nur die Kosten senken will. Immerhin erhöht man angeblich die arithmetische Leistung um ~29%.

AnarchX
2008-07-25, 21:34:50
Zudem soll der Chip nochmals mehr Transistoren als GT200 besitzen. Diese sollen jedoch anscheinend lediglich dazu dienen, die internen Taktfrequenzen höherzusetzen, insbesondere den Shadertakt, und ansonsten keine weitere, neue Funktion in den Chip holen.
Die zusätzlichen Transistoren würden sich auch prima mit den letzten Gerüchten decken, der Chip verfüge über 470 mm², was seinerzeit als etwas hochgegriffen galt, weil mit einem guten Shrink rund 420-440 mm² möglich gewesen wären.
So ein Blödsinn, 55nm ist ein 90% linearer Shrink von 65nm.
Die Taktraten sind wohl ebenso erfunden, um halt wiedermal eine Meldung im Netz zu verteilen, die dann ein paar Pagehits generieren sollen...

Wenn NV die Leistung steigern will, dann muss die ROP/TMU-Domain auf jeden Fall auch deutlich angehoben werden, was wohl auch gehen wird, wenn man sich die bis zu 700MHz der OC-Versionen und die OC-Ergebnisse anschaut, denn die ALU-Leistung ist wohl meist nicht das Problem gegenüber G80 und G92.

Gast
2008-07-25, 21:48:14
Wer redet hier von G80 und G92? Der Chip wird sich mit dem RV770 bzw. sogar zwei davon messen müssen und da ist man allen voran auf eine hohe ALU-Leistung angewiesen.
Warum glaubst Du hat Nvidia beim GT200 die TMUs nur um 25% erweitert, die Shadereinheiten aber gleich um 87,5%?

Die Textur- und ROP-Performance des GT200 ist mehr als genügend!

AnarchX
2008-07-25, 22:16:52
Wer redet hier von G80 und G92? Der Chip wird sich mit dem RV770 bzw. sogar zwei davon messen müssen und da ist man allen voran auf eine hohe ALU-Leistung angewiesen.
2xRV770 sind ja nicht nur 2.4TFLOPs, sondern eben auch 2x40TMUs@750MHz, deren Filterung entsprechend optimiert ist und eben zudem 2x16 ROPs, wo es schon die nur 16 der 4870 doch ziemlich gut mit der GTX 280 aufnehmen, sobald man in entsprechend ROP-lastige-Szenarien kommt.


Warum glaubst Du hat Nvidia beim GT200 die TMUs nur um 25% erweitert, die Shadereinheiten aber gleich um 87,5%?
GPGPU/Tesla, was aber wohl die meisten Kunden die eine GeForce kaufen weniger interessiert, wie auch die DP-ALUs.


Die Textur- und ROP-Performance des GT200 ist mehr als genügend!
Nein, weder im Vergleich zu G9x/G8x noch im Vergleich zu R700.

Zudem ist ja der TMU/ROP-Takt auch der Takt in dem die nicht ganz unwichtige Verwaltunglogik arbeitet, wie auch das Tri-Setup.

Gast
2008-07-26, 01:03:07
Nein, weder im Vergleich zu G9x/G8x noch im Vergleich zu R700.

Zudem ist ja der TMU/ROP-Takt auch der Takt in dem die nicht ganz unwichtige Verwaltunglogik arbeitet, wie auch das Tri-Setup.

Das wäre mir sehr neu. Kannst Du eventuell Links posten, die deine These stützen?

Gast
2008-07-26, 03:56:27
Die ALU Leistung eines G200 ist höher als die eines RV770, hört doch auf mit den blöden FLOPS Zahlen die über die Leistung eigentlich nicht wirklich viel aussagen!

Ich sehe das Problem des G200 auch viel mehr im ROP/TMU Bereich, das ist die schwachstelle!

Fetza
2008-07-26, 07:01:07
Die ALU Leistung eines G200 ist höher als die eines RV770, hört doch auf mit den blöden FLOPS Zahlen die über die Leistung eigentlich nicht wirklich viel aussagen!

Ich sehe das Problem des G200 auch viel mehr im ROP/TMU Bereich, das ist die schwachstelle!

Insgesamt ist die leistung einer gtx 280 nicht viel größer als die einer hd4870. Das einzige spiel, wo es deutlich für die 280 auschlägt ist crysis.

Nur kurz angemerkt, weil du die leistung angesprochen hast.;)

reunion
2008-07-28, 10:40:44
Wenn NV die Leistung steigern will, dann muss die ROP/TMU-Domain auf jeden Fall auch deutlich angehoben werden, was wohl auch gehen wird, wenn man sich die bis zu 700MHz der OC-Versionen und die OC-Ergebnisse anschaut, denn die ALU-Leistung ist wohl meist nicht das Problem gegenüber G80 und G92.

Man muss den Chip auch noch kühlen können. Die Fläche sinkt, die Verlustleistung wenig bis gar nicht. Stark erhöhte Taktfrequenzen und die 300W TDP sind schneller erreicht als so mancher glaubt.

Anarchy-HWLUXX
2008-07-28, 10:55:08
Man muss den Chip auch noch kühlen können. Die Fläche sinkt, die Verlustleistung wenig bis gar nicht. Stark erhöhte Taktfrequenzen und die 300W TDP sind schneller erreicht als so mancher glaubt.
Man kann ja das "Gehäuse" - also das Material was um den eigentlichen Silizium Kern drum herum ist doch größer machen um die Hitze besser zu verteilen :|

Black-Scorpion
2008-07-28, 11:12:53
Deswegen ändert sich der Hotspot trotzdem nicht. Der wird kleiner.

Gast
2008-07-28, 11:45:22
9800 GTX+ (55nm) würde mit den Taktraten einer 9800 GTX (65nm) rund 7 Prozent weniger Energie benötigen (CB-Werte als Referenz).

648 MHz Chiptakt wäre gegenüber 602 MHz Chiptakt jene 7 Prozent mehr. Aber wie wirkt sich die sehr hohe Shaderdomain auf die Leistungsaufnahme aus? Gibt es da Erfahrungswerte?

Black-Scorpion
2008-07-28, 11:51:24
Hat die Plus nicht eine höhere Spannung?

Anarchy-HWLUXX
2008-07-28, 11:54:24
Deswegen ändert sich der Hotspot trotzdem nicht. Der wird kleiner.
Also für mich ist kleiner werden eine Änderung ;)

Black-Scorpion
2008-07-28, 12:20:28
Also für mich ist kleiner werden eine Änderung ;)
Blöd geschrieben.
Man kann ja das "Gehäuse" - also das Material was um den eigentlichen Silizium Kern drum herum ist doch größer machen um die Hitze besser zu verteilen :|
Darauf bezog sich der Hinweis mit dem Hotspot. Und der wird kleiner, ganz egal wie groß das "Gehäuse" drumherum wird.

Anarchy-HWLUXX
2008-07-28, 12:42:28
Gibt es eigentlich wo infos / pics wie es im "Gehäuse" aussieht - jetzt wo ich mir das genau überlege hat die äusserliche Größe des DIE nicht zwangsweise die größe des Silizium Teils ... folglich ist jede angabe zur Fläche des eigentlichen Silizium-Kerns reine Spekulation solang die Hersteller diese daten nicht veröffentlichen.

Beim GT200 kann man aber z.B. den Wafer Shot hernehmen (gab es ja in vielen Reviews), und daraus die Fläche jedes Kerns ohne Package errechnen ...

Wafer : http://www.computerbase.de/bild/article/825/5/

Weiss einer was für nen Durchmesser die Wafer haben ?

san.salvador
2008-07-28, 13:14:03
Im Normalfall sollten sie 300mm haben.

Ailuros
2008-08-01, 14:37:56
Hmm, das läge unter den Erwartungen: :(

http://www.hardware-infos.com/news.php?news=2244

GT200b @ 648/1620 MHz.


1620 / 648 = 2.5x und nicht 2.1x (GT200)

***edit:

Im Normalfall sollten sie 300mm haben.

Wie man 1.4B Transistoren mit einer ALU Frequenz von 1.6GHz in nur 300mm^2 sonst quetschen kann ohne dass der Stromverbrauch zur Decke hinaushaut moechte ich ehrlich gesagt erstmal sehen. Falls Du den RV770 als hypothetischen Massstab nehmen solltest, ist in dem Fall sowohl die Transistoren-Anzahl als auch die Frequenz um einiges niedriger und trotz relativ kleinem die ist der Stromverbrauch auf der RV770 auch nicht gerade moderat.

Gashahn
2008-08-01, 14:50:31
na toll, noch höherer Verbrauch, muss jetzt schon befürchten, daß die Tapete Feuer fängt^^
wäre mir lieber, die würden 55nm nutzen, um den Verbrauch in erträgliche Regionen zu rücken

Black-Scorpion
2008-08-01, 14:51:51
1620 / 648 = 2.5x und nicht 2.1x (GT200)

***edit:



Wie man 1.4B Transistoren mit einer ALU Frequenz von 1.6GHz in nur 300mm^2 sonst quetschen kann ohne dass der Stromverbrauch zur Decke hinaushaut moechte ich ehrlich gesagt erstmal sehen. Falls Du den RV770 als hypothetischen Massstab nehmen solltest, ist in dem Fall sowohl die Transistoren-Anzahl als auch die Frequenz um einiges niedriger und trotz relativ kleinem die ist der Stromverbrauch auf der RV770 auch nicht gerade moderat.
Die 300mm beziehen sich auf die Frage nach dem Durchmesser der Wafer.
Und nicht nach der Chipgröße. ;)

Ailuros
2008-08-01, 15:02:35
Die 300mm beziehen sich auf die Frage nach dem Durchmesser der Wafer.
Und nicht nach der Chipgröße. ;)

Tschuldigung; hab mich verlesen :(

na toll, noch höherer Verbrauch, muss jetzt schon befürchten, daß die Tapete Feuer fängt^^
wäre mir lieber, die würden 55nm nutzen, um den Verbrauch in erträgliche Regionen zu rücken

GT200b wird auf 55nm hergestellt.

igg
2008-08-01, 15:13:15
Hmm, das läge unter den Erwartungen: :(

http://www.hardware-infos.com/news.php?news=2244

GT200b @ 648/1620 MHz.
1166 Gflops, das wären deutlich mehr als beim GT200 (922 Gflops).

Allerdings frage ich mich bei diesen Taktraten, ob sie sich (leistungsmäßig) gegen Karten wie die Zocat AMP (http://www.overclockers.co.uk/showproduct.php?prodid=GX-006-ZT&groupid=701&catid=56&subcat=1176&name=Zotac%20GeForce%20GTX%20280%20AMP%201024MB%20GDDR3%20TV-Out/Dual%20DVI%20(PCI-Express)%20-%20Retail), EVGA SSC (http://www.overclockers.co.uk/showproduct.php?prodid=GX-068-EA&groupid=701&catid=56&subcat=1176&name=EVGA%20GeForce%20GTX%20280%201024MB%20SSC%20Edition%20GDDR3%20TV-Out/Dual%20DVI%20(PCI-Express)%20-%20Retail) oder Leadtek Extreme (http://www.pcgameshardware.de/aid,651285/News/Leadtek_GeForce_GTX_280_Extreme_Neues_Lebenszeichen_des_GT200b_aufgetaucht/) absetzen kann.

Gashahn
2008-08-01, 15:17:08
GT200b wird auf 55nm hergestellt.

hast mich Mist-Verstanden :biggrin:

scheinbar wird der g200b mit 55nm etwas höher getaktet lt. dem verlinkten Bericht und dadurch sogar noch mehr verbrauchen als die g200-Lötlampe

hatte eher darauf gebaut, daß sie die Frequenzen in Ruhe lassen und min10% weniger Verbrauch realisieren aber hey man muss ja auf Biegen und Brechen unbedingt 2fps schneller sein als die Konkurrenz

AffenJack
2008-08-01, 15:26:00
naja,gewisserweise wird das doch auch gemacht werden. Die gtx260 wird ja auch geshrinkt, wennse dann bissl höherere taktraten hat haste fast gtx280 leistung mit gtx260 stromverbrauch;)

Ailuros
2008-08-02, 08:38:39
hast mich Mist-Verstanden :biggrin:

scheinbar wird der g200b mit 55nm etwas höher getaktet lt. dem verlinkten Bericht und dadurch sogar noch mehr verbrauchen als die g200-Lötlampe

Der groesste Mehrverbrauch auf gleichem theoretischen Herstellungsprozess kaeme vom TMU/ROP domain. Wenn die ~650MHz stimmen dann sind es 8% mehr Taktrate aber auf 55nm, dass man schon theoretisch abdecken koennte.

hatte eher darauf gebaut, daß sie die Frequenzen in Ruhe lassen und min10% weniger Verbrauch realisieren aber hey man muss ja auf Biegen und Brechen unbedingt 2fps schneller sein als die Konkurrenz

Tut mir leid dass ich es so sagen muss, aber wenn Dir der Unterschied gleichgueltig ist wird es nicht nur eine GT200b Variante geben und im Notfall dann sogar eben G92b. Der Unterschied der letzteren zu einer heutigen 260 ist ja auch nicht mehr so phaenomenal insgesamt.

Selbst wenn der Stromverbrauch von der hoechsten GT200b groesser sein sollte als die der GTX280, wird sie immer noch um einiges niedriger als dieser des R700 liegen; und ja leider denken IHVs eben so.

NV hat momentan wichtigere Kopfschmerzen und Zeit fuer besondere Aenderungen innerhalb des Jahres gab es sowieso nicht. Ihr eigentliches Ziel duerfte momentan sein so wenig wie moeglich Marktanteil an AMD zu verlieren.

Gast
2008-08-02, 11:10:29
@ igg

Also die Leadtek Extreme von Overclockers.UK hat es meines Wissens nie gegeben oder zumindest nicht mit den Taktfrequenzen. Der Eintrag ist inzwischen aus dem Shop verschwunden und die Taktfrequenzen stinken zum Himmel.

Bekanntermaßen kann die Shaderdomain des GT200 den Takt nur in 54-Megahertz-Schritten regulieren, somit wären 1620 oder 1674 MHz möglich, aber nicht 1666 MHz.

Einzig und allein die Zotac-Karte könnte die gemutmaßte GT200b in einigen Applikationen ausstehen. Die wird mit 700/1400/1150 MHz getaktet.
Mal angenommen, die Specs auf Hardware-Infos stimmen, der Chip taktet mit 650/1620 MHz (Speichertakt mal außen vor gelassen), wie würdet ihr einschätzen schlägt sich die Karte gegen das Zotac-Modell. Das könnte man mal diskutieren...

Zotac hat 8 Prozent mehr TMU/ROP-Domain, GT200b 16 Prozent mehr Shaderdomain.

Ailuros
2008-08-02, 12:15:33
Ich waere sehr ueberrascht wenn GT200b mehr als ~15% schneller sein sollte insgesamt als GT200.

Gast
2008-08-02, 15:16:54
Mit 8 Prozent mehr Chiptakt und 16 Prozent mehr Shadertakt sind 10-15 Prozent Leistungssteigerung realistisch.

Stromverbrauch würde damit aber vermutlich leicht ansteigen. Denke zwischen den 236 W der GT200 und 250 W.

igg
2008-08-06, 14:24:57
GT200 55nm confirmed
...

Nvidia is currently finalizing the clocks on the chip and it is waiting to see the final performance of R700. Nvidia's chip is likely to be slightly faster than ATI's dual chip offering, but we suspect that the performance will be quite close.

Nvidia is certainly not giving up without a fight, as Nvidia's entire marketing was based on the fact that Nvidia was a performance leader. Nvidia simply cannot let the crown slip out of its hands and that is why Nvidia works so hard to maintain its performance dominance.
Quelle (http://www.fudzilla.com/index.php?option=com_content&task=view&id=8773&Itemid=34)

Das sieht aber danach aus, als wäre die Leistungssteigerung mehr als 10-15 %?

AnarchX
2008-08-06, 14:34:23
Wenn dann müsste NV wohl auch einiges an Performance über den Treiber holen, denn die 30%+ des R700 gegenüber der GTX 280 kann wohl kaum aus einen reinen optischen Shrink holen.

reunion
2008-08-06, 14:36:51
Fuad hat doch wie immer schlicht keine Ahnung wovon er spricht.

Gast
2008-08-06, 15:00:39
ich denke die treiberoptimierungen werden sich auf rot oder grün seite nicht viel nehmen. mitm 8.8er um die 10% bei den roten, mitm big bang wohl auch ähnlich viel bei den gt200er und den grünen.

Sorkalm
2008-08-06, 15:27:08
Ist denn eigentlich mal sicher, dass das ein GT200b ist, oder ist nur bekannt, dass das ein GT200-Technologiechip @ 55 nm ist?

Irgendwo müssen die Gerüchte mit dem ähnlich so schnell wie R700 doch herkommen.

igg
2008-08-06, 15:39:19
Ist denn eigentlich mal sicher, dass das ein GT200b ist, oder ist nur bekannt, dass das ein GT200-Technologiechip @ 55 nm ist?
Das ist eine gute Frage. Wenn es ein reiner Shrink ist sind die Aussagen von Fud wohl falsch bzw. treffen nur auf Bereiche zu, in denen der R700 ohnehin schon schwächelt (z.B. Crysis).

Falls Fehler ausgemerzt bzw. Optimierung für GPGPU durchgeführt wurden ist evtl. mehr drin?

reunion
2008-08-06, 15:47:28
Ist denn eigentlich mal sicher, dass das ein GT200b ist, oder ist nur bekannt, dass das ein GT200-Technologiechip @ 55 nm ist?

Irgendwo müssen die Gerüchte mit dem ähnlich so schnell wie R700 doch herkommen.

Der Chip ist schon fett genug. NV wird froh sein, wenn man dank 55nm wenigstens etwas kleiner wird. Kaum vorstellbar das man hier noch mehr in die Breite geht.

=Floi=
2008-08-06, 16:14:03
mit 512bit breitem Si und ca. 800mhz chiptakt könnte man aber nahe rankommen. Die karte skaliert ja noch immer mit mehr ramtakt und deshalb könnte man über diesem weg noch etwas performance locker machen.

derwalde
2008-08-06, 20:35:42
also 800 mhz wär schon pervers. ich bin ja mal gespannt. was mich viel mehr interessiert: WANN kommt die genau. hab gerade ne gtx 280 bestellt....kann aber noch stonieren da nicht lieferbar :)

Coda
2008-08-06, 21:26:31
Im wesentlichen würden sie gut daran tun den Shadertakt anzuheben. Ich vermute dass wird die Hauptänderung sein. Texturpower ist genug vorhanden.

AnarchX
2008-08-06, 21:46:14
Im wesentlichen würden sie gut daran tun den Shadertakt anzuheben. Ich vermute dass wird die Hauptänderung sein. Texturpower ist genug vorhanden.
Eine Erhöhung der ROP-(wo es RV770XT schon mit der GTX 280 aufnehmen kann), TMU-(R700 hat immerhin gut optimierte 60GTex/s) und eben auch Setup-Leistung(Tri-Setup) ist imo doch genauso wichtig.

Ailuros
2008-08-07, 11:57:18
Eine Erhöhung der ROP-(wo es RV770XT schon mit der GTX 280 aufnehmen kann)

Waere es so leicht gewesen, haetten sie es schon beim GT200 eingefuehrt. Nur an der 8xMSAA Leistung haperts reichlich, aber mit den zwielichtigen Antworten die sie abgeben scheint sich nichts daran aendern zu koennen ohne andere modi zu gefaerden.

TMU-(R700 hat immerhin gut optimierte 60GTex/s)

Selbst die agressivsten AF-Optimierungen aendern nichts ab G8x was die Leistung betrifft.

... und eben auch Setup-Leistung(Tri-Setup) ist imo doch genauso wichtig.

Insgesamt koennten sie auch die gesamte Architektur neu entwickeln, aber man spart sich wohl eher die Resourcen fuer die naechste Generation. Am tri-setup zu drehen ist mehr als nur aufwendig.

AnarchX
2008-08-07, 12:01:48
Mein Posting sollte nicht auf HW-Änderungen hindeuten, sondern dass man eben auch die TMU/ROP-Domain doch etwas erhöhen sollte, sodass die Leistung in diese Bereichen auch etwas steigt.

Gast
2008-08-07, 12:09:17
@ AnarchX

Den Chiptakt wird man schon anheben, keine Sorge. Nur darfst Du allein schon wegen der Verlustleistung keine Taktraten über 700 MHz erwarten. Die hier genannten 650 MHz klingen realistisch bzw. lassen sich auch gut thermisch managen.

Ailuros
2008-08-07, 12:13:43
Mein Posting sollte nicht auf HW-Änderungen hindeuten, sondern dass man eben auch die TMU/ROP-Domain doch etwas erhöhen sollte, sodass die Leistung in diese Bereichen auch etwas steigt.

Damit donnert dann aber entgueltig der Stromverbrauch durch die Decke und ich bin mir nichtmal sicher ob es so leicht moeglich ist. Nochmals TMU/ROPs sind die empflindlichsten Teile von GPUs was die Frequenz betrifft.

Erste und wichtigste Prioritaet waere das ALU:TMU ratio zu erhoehen. Bei theoretischen 700MHz geht dann die ALU Frequenz auf 1750MHz. Natuerlich wuerde es mich nicht ueberraschen wenn einige Partner mit solchen oder etwas kleineren Frequenzen ankommen, aber es handelt sich dann auch um handausgesuchte chips.

Ich hab ernsthafte Zweifel dass NV ueber ~650MHz so leicht steigen kann, ohne jegliche Sicherheitsmassnahmen zu gefarden. Krepieren dann etliche GPUs mit der Zeit ab, ist der Schaden groesser als jeglicher Gewinn.

derwalde
2008-08-07, 12:38:04
Ich hab ernsthafte Zweifel dass NV ueber ~650MHz so leicht steigen kann, ohne jegliche Sicherheitsmassnahmen zu gefarden. Krepieren dann etliche GPUs mit der Zeit ab, ist der Schaden groesser als jeglicher Gewinn.

das wäre aber schon unter meinen erwartungen. der peformancegewinn dürfte somit minimal sein. ich mein wirklich jede gtx 280 macht die 650 ohne murren mit.

AnarchX
2008-08-07, 12:42:10
das wäre aber schon unter meinen erwartungen. der peformancegewinn dürfte somit minimal sein. ich mein wirklich jede gtx 280 macht die 650 ohne murren mit.
Meist ja sogar mit Undervolting von den 1.18V Standard auf 1.06/1.03V, wobei natürlich im Verkauf andere Qualitätsanforderung gelten.

Um die Performance-Krone zu halten bleibt NV wohl wirklich nur eine GT200B-GX2, deren BOM wohl ziemlich übel wäre.

Ailuros
2008-08-07, 12:50:31
das wäre aber schon unter meinen erwartungen. der peformancegewinn dürfte somit minimal sein. ich mein wirklich jede gtx 280 macht die 650 ohne murren mit.

Jede GTX280 hat aber auch nur ein 2.1x ALU:TMU ratio. Bei 650MHz steigt bei einer 280 die ALU Frequenz auf ~1360MHz. GT200 fehlt eher Shader-Leistung und am wenigsten jegliche Fuellraten.

derwalde
2008-08-07, 12:59:50
Um die Performance-Krone zu halten bleibt NV wohl wirklich nur eine GT200B-GX2, deren BOM wohl ziemlich übel wäre.

die gx2 will ich sehen. dass muss ein mörderteil sein :)

Gast
2008-08-07, 13:33:22
670/1674 MHz wären das höchste der Gefühle, 648/1620 MHz sind aber am Realistischten, wie Hardware-Infos schon vor einigen Wochen schrieb.

Gast
2008-08-07, 13:41:38
Naja schau dir an, was aus der G92b rausgequetscht wird, Shadertakt von 1,8GHz+ sind da möglich, und viel Kosten die Karten nicht mehr.

Sorkalm
2008-08-07, 13:54:20
Der G92(b) ist aber nunmal nicht der GT200(b), da wurde intern schon manches umstrukturiert was auf die maximal erreichbaren Taktfrequenzen durchschlagen kann.

igg
2008-08-07, 14:25:08
Der G92(b) ist aber nunmal nicht der GT200(b), da wurde intern schon manches umstrukturiert was auf die maximal erreichbaren Taktfrequenzen durchschlagen kann.
Was ist deine Quelle, dass noch weitere Dinge außer die Fertigungsgröße geändert wurden?

Mal eine (vermutlich) dumme Frage: Sind GPU und Shader-Takt aneinander gekoppelt? Sonst kann doch jeder Benutzer selbst den Shader-Takt nach oben setzen, dass das 2.5:1 Verhältnis wieder da ist.

mictasm
2008-08-07, 14:34:38
Mal eine (vermutlich) dumme Frage: Sind GPU und Shader-Takt aneinander gekoppelt? Sonst kann doch jeder Benutzer selbst den Shader-Takt nach oben setzen, dass das 2.5:1 Verhältnis wieder da ist.

Der Chip macht es aber nicht unbedingt mit. Es müsste also etwas "optimiert" werden, damit der Takt so gewählt werden könnte.

derwalde
2008-08-07, 15:21:10
670/1674 MHz wären das höchste der Gefühle, 648/1620 MHz sind aber am Realistischten, wie Hardware-Infos schon vor einigen Wochen schrieb.

wenn der release doch angeblich schon nah ist, wann nennen die endlich zumindest mal wenigstens die offiziellen taktraten. oder wartet man erst noch auf amd/ati mit dem release der x2?

noch ne frage: wird die karte in ihren absoluten ausmaßen ebenfalls kleiner, also von der reinen abmessung?

igg
2008-08-07, 15:35:24
wenn der release doch angeblich schon nah ist, wann nennen die endlich zumindest mal wenigstens die offiziellen taktraten. oder wartet man erst noch auf amd/ati mit dem release der x2?
Die sagen vermutlich nichts bis zum Release :(.

Die Performance der X2 ist ja bereits bekannt (Performance Reviews vergangenen Monat).

Sorkalm
2008-08-07, 15:46:43
Was ist deine Quelle, dass noch weitere Dinge außer die Fertigungsgröße geändert wurden?

Die hab ich nicht, ich hab ja oben auch gefragt ob das jetzt sicher ist, dass der 55nm-Chip ein GT200b ist.
Was ich mit der Aussage da verdeutlichen wollte ist die Tatsache, dass man nicht die Shadereinheiten der G8x- und G9x-Chips mit denen der GT200-Karten gleichsetzen kann.

Gast
2008-08-07, 15:51:51
Im wesentlichen würden sie gut daran tun den Shadertakt anzuheben. Ich vermute dass wird die Hauptänderung sein. Texturpower ist genug vorhanden.

wozu?

Gast
2008-08-07, 17:29:58
Ich finde es noch lustig das hier einige von 1700MHz+ Shader Takt sprechen was für einen Aktuellen G200 aber unmöglich ist, aber im gleichem Satz davon Sprechen das 700MHz+ ROP unmöglich sind wegen Strom/Wärme obwohl so gut wie jede GTX 280 diesen Takt ohne Problem mit macht...

Ich Tippe beim G200b (GTX 300?) auf ca. 700MHz ROP und 1500MHz Shader...

Gast
2008-08-07, 20:46:09
Was macht nV, außer seit Dezember den G200 auf 55nm zu Shrinken und G1x0bzw. nv70 vorzubereiten. Fresen die ganzen "unteren" Chips des G200 soviel Manpower? An der G9x Serie wird ja nicht mehr gearbeitet.

Sorkalm
2008-08-08, 00:30:35
An der G9x Serie wird ja nicht mehr gearbeitet.

G92 bis G98, alle werden auf 55nm geshrinkt. Das ist doch was anderes als daran wird nicht mehr gearbeitet.

Gast
2008-08-08, 00:34:25
Nvidia hat sicherlich schon weit über den Nachfolger des GT200 hinaus geplant. Der G80 befand sich beispielsweise sechs Jahre in der Entwicklung.

Und seit Dezember hat man sicherlich nicht angefangen, den GT200 auf 55 nm zu shrinken. Dessen Tape-Out war nach unbestätigten Informationen zufolge erst Ende April dieses Jahres.

----

Und wer spricht hier von 1700+ MHz Shadertakt? Falls Du dich auf Ailuros Beispiel beziehst, das war rein hypothetischer Natur.

----

Und was soll bitteschön der Kommentar, "wozu?". Sowas ist nicht unbedingt fördernd, sondern lahmt nur einen solchen Thread wie diesen.

In der Tat ist es so, dass die Texturpower im Verhältnis zur Shaderpower "genügend" - ein sehr subjektives Adjektiv - vorhanden ist und die Shaderpower der der HD 4870 nachsieht, wie man dem fortfolgenden Link (insbesondere Xbitmark Pixel Shader Performance) entnehmen kann:

http://xbitlabs.com/articles/video/display/geforce-gtx200-theory_15.html

Gast
2008-08-08, 19:02:59
Der Shadertakt alleine reißt aber auch keine Bäume aus. Die G92b Varianten gehen bis fast 2GHz in der Shaderdomain. Hab leider noch kein Review zu den dicksten Varianten gesehen, aber die müssten eine HD4850 förmlich stehen lassen. Nur ist "stehen lassen" bei den ganzen Faktoren die in die Spieleperformance einfließen nunmal nicht so einfach.
Kommt natürlich auf die Spiele an, bis auf Crysis, kann sich eine GTX260 ja stets von einer HD4870 absetzen.
Aber ausgerechnet im "fortschritlichsten" Spiel, gehts irgendwie auf keiner Architektur gescheit vorwärts, auch wenn der Shadertakt hochgeprügelt wird...

Gast
2008-08-09, 01:24:36
Warum bis auf Crysis? Unter Crysis schneidet die GTX 260 mindestens genauso gut wie die HD 4870 ab, wenn nicht noch besser.

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_radeon_hd_4870_cf_geforce_gtx_260_sli/20/#abschnitt_crysis

Und dass das "Raufprügeln" des Shadertakts nichts bringt, woher nimmst Du diese Information? Es ist das einzig Richtige, wenn Nvidia versucht, das TMU:Shader-Taktverhältnis wieder auf 1:2,5 zu setzen.

Gast
2008-08-09, 09:05:35
?
http://xbitlabs.com/articles/video/display/geforce-gtx200-theory_15.html
du solltest NV mit NV vergleichen...für mich sieht das so aus ,das der normal Takt des G200 gleich ist mit knappen 1650 des G92...allso wozu was ändern?
Das der ATI ,der irre shader nix bringt sieht man in jedem game....

Ailuros
2008-08-09, 09:14:29
Nvidia hat sicherlich schon weit über den Nachfolger des GT200 hinaus geplant. Der G80 befand sich beispielsweise sechs Jahre in der Entwicklung.

6 Jahre? Wenn NV solches behauptet hat dann ist es IMO gelogen. G80 war ein sogenannter "clean sheet design" und brauchte knapp an die 4 Jahre und nicht mehr. Jegliche Kritzelei auf einer Kreidetafel mitzuzaehlen grenzt ans laecherliche.

Seitdem der PPP oder programmierbare Tesselation aus D3D10 gestrichen wurde, wissen wir heute dass dieser Teil der pipeline in D3D11 um einiges fortschrittlicher "abgebildet" wurde. Was wohl auch heisst dass jegliche alte Kreidetafel-Kritzelei geloescht und wieder entwickelt wurde.


Und seit Dezember hat man sicherlich nicht angefangen, den GT200 auf 55 nm zu shrinken. Dessen Tape-Out war nach unbestätigten Informationen zufolge erst Ende April dieses Jahres.

Herbst 2007; es gab unendliche lange interne Verhandlungen ob GT200@65nm ueberhaupt das Tageslicht sehen sollte.

Und wer spricht hier von 1700+ MHz Shadertakt? Falls Du dich auf Ailuros Beispiel beziehst, das war rein hypothetischer Natur.

Korrekt. Behalt aber bitte dass NV nachdem es klar wurde dass GT200 Probleme mit der Shaderfrequenz hat es als erste Prioritaet unter ihren Notizen gesetzt hat das ALU:TMU Verhaeltnis wieder zu erhoehen fuer den Nachfolger.


In der Tat ist es so, dass die Texturpower im Verhältnis zur Shaderpower "genügend" - ein sehr subjektives Adjektiv - vorhanden ist und die Shaderpower der der HD 4870 nachsieht, wie man dem fortfolgenden Link (insbesondere Xbitmark Pixel Shader Performance) entnehmen kann:

http://xbitlabs.com/articles/video/display/geforce-gtx200-theory_15.html

Genau; man sollte aber auch noch notieren dass diese synthetischen Benchmarks hauptsaechlich arithmetische Tests sind.

igg
2008-08-09, 10:08:16
Herbst 2007; es gab unendliche lange interne Verhandlungen ob GT200@65nm ueberhaupt das Tageslicht sehen sollte.
Wow, da frägt man sich ja wirklich, wieso der Chip so lange gebraucht hat...

Gast
2008-08-09, 18:34:08
Was mich im Bezug auf GT200b noch einmal brennend interessieren würde: Nimmt man für die kleinere Version, also GTX 260+ oder GTX 270, erneut einen teildefekten Chip mit 192 SPs, 64 TMUs, 28 ROPs, 448 Bit oder nimmt man die Vollausstattung (240 SPs, 80 TMUs, 32 ROPs, 512 Bit) und taktet den Chip entsprechend geringer?

BiG OnE
2008-08-09, 20:57:42
Ich sag mal, es kommt auf die Chip Ausbeute an. Wenn zuviel teildefekte dabei sind, werden die bei Neuauflage der GTX 260 verbaut.

Bis denne ...

Gast
2008-08-09, 23:01:25
Jo, die Yield-Rate soll ja eigentlich beim GT200b verbessert worden sein. Ich bin mal gespannt. Vielleicht weiß ja Ailuros näheres. ;)

derwalde
2008-08-11, 13:04:11
boah langsam dreh ich am rad. ich will taktraten sehen! :mad: ;)

igg
2008-08-11, 14:24:05
boah langsam dreh ich am rad. ich will taktraten sehen! :mad: ;)
Es ist der 11. August. Die Karte(n) soll(en) Ende August erscheinen. Es sollte nicht mehr alzulange dauern, bis die Leaks immer mehr zunehmen.

Immerhin wollen ja Verpackungen, Banner, Flyer, usw. produziert werden... und NDAs mit Einzelheiten gehen vermutlich auch raus (bzw. sind schon draußen?).

Gast
2008-08-11, 15:26:03
ich denke die karte wird sich bis anfang/mitte september verzögern.

=Floi=
2008-08-11, 15:49:12
zitat
Wow, da frägt man sich ja wirklich, wieso der Chip so lange gebraucht hat...

das lag wohl auch an der yield rate des 65nm prozesses. Ich denke hier wartete man einfach bis dieser in einem vertretbar guten bereich angekommen war.

zitat
es gab unendliche lange interne Verhandlungen ob GT200@65nm ueberhaupt das Tageslicht sehen sollte.

gab dann gpgpu den ausschlag, oder wollte man einfach ati etwas entgegensetzen? Im grunde ist der chip ja ganz gut geworden und er wird ja nur als schlecht angesehen, weil die 4X00 serie so stark geworden ist. :rolleyes:

auf welchen nachfolger beziehst du dich denn? G200b oder dessen nachfolger?


Zumindest wird nv jetzt wieder richtig gute chips raushaun und die leistungssteigerungen werden auch größer und schneller sein. Die 4X00 serie hat zumindest positiven einfluss auf nv.

igg
2008-08-12, 08:51:08
ich denke die karte wird sich bis anfang/mitte september verzögern.
Die offizielle Ankündigung/Vorstellung der 4870 X2 und 4850 X2 (http://www.fudzilla.com/index.php?option=com_content&task=view&id=8836&Itemid=34) (Überraschung!) ist wohl heute (http://www.computerbase.de/news/hardware/grafikkarten/ati/2008/august/zwei_radeon_hd_4870_x2_msi/) (Update: Hier ist der volle CB Test (http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_4870_x2/30/#abschnitt_fazit)).

Ich vermute mal:

Wenn der GT200b ohne alzu großen Abstand mit der 4870 X2 aufnehmen kann, wird Nvidia den Chip diese Woche ankündigen, um den Launch der ATI Karten zu vermiesen
Wenn nicht, wird es Ende des Monats ein relativ ruhiger Launch werden, hauptsächlich um sich im Markt besser zu positionieren

Gast
2008-08-12, 14:02:03
Wie wollen die mit einem G200b gegen zwei RV770 aufnehmen, der müsste ja locker 800MHz+ und 2000MHz+ Takt haben! Aber auch dies würde nicht reichen, da dem G200b dann schlicht und einfach die nötige Bandbreite fehlen würde. Das verwenden von GDDR5 wäre dann auch Pflicht, ob der G200b aber schon ein GDDR5 Memory Kontroller hat ist fraglich.

Das einzige was hier derzeit helfen kann ist eine GX2 mit zwei G200b, aber uach das kommt wohl nicht in Frage...

Gast
2008-08-12, 15:27:12
Nein, gegen die HD 4870 X2 wird der GT200b nichts ausrichten können. Gegen die HD 4850 X2 erwarte ich aber schon mindestens ein Remis. Mal schauen. ;)

Grestorn
2008-08-12, 15:32:15
Nein, gegen die HD 4870 X2 wird der GT200b nichts ausrichten können. Gegen die HD 4850 X2 erwarte ich aber schon mindestens ein Remis. Mal schauen. ;)

Ich kann mir auch beim besten Willen nicht vorstellen, dass nVidia ATI derart deklassiert, dass sie mit einer GPU gegen deren zwei etwas ausrichten können werden.

reunion@work
2008-08-12, 15:47:34
Ich kann mir auch beim besten Willen nicht vorstellen, dass nVidia ATI derart deklassiert, dass sie mit einer GPU gegen deren zwei etwas ausrichten können werden.

Das schafft nV ja auch gegen die eigenen Chips im selben Größenbereich wie RV770. Zumindest hat eine GTX280 kaum Probleme gegen eine 9800GX2. SLi/CF ist in dieser Hinsicht sicherlich kein Vorteil, da es nur in den seltensten Fällen perfekt skaliert. Oder Vergleichen wir jetzt nur noch stur die GPU-Anzahl und alles andere ist egal? Warum wohl bringt nV keine GX2?

Grestorn
2008-08-12, 17:40:22
Vermutlich weil sich das für die G200 nicht mehr lohnt sondern evtl. der G200b vorbehalten bleibt.

Vom ersten Chip einer Generation gabs von nV eigentlich noch nie ne GX2.

SLI skaliert in 90% gut und in 40% nahezu perfekt. CPU Limits und Frameversatz mal außen vor gelassen.

P.S.: Ich hoffe ich finde am Wochenende endlich mal die Zeit mich um tb's SLI Harmonizer zu kümmern...

reunion
2008-08-12, 17:52:58
Vermutlich weil sich das für die G200 nicht mehr lohnt sondern evtl. der G200b vorbehalten bleibt.

Vom ersten Chip einer Generation gabs von nV eigentlich noch nie ne GX2.


Ja, weil der Chip immer zu groß war, so auch GT200. GT200b wird ebenfalls zu teuer sein für eine GX2 IMHO. nVs Problem ist jetzt nur das AMD einen Chip gebaut hat der nicht mal halb so groß ist und nur ein halb so breites SI hat wie GT200 aber 80% der Leistung bringt. Die X2 ist die logische Folge. Deine Aussage von wegen ein gegen zwei Chips ist deshalb ziemlich fehl am Platz. Eigentlich ist es traurig das GT200 mit den Ausmaßen keine Chance gegen die X2 hat trotz des CF-Nachteils.


SLI skaliert in 90% gut und in 40% nahezu perfekt. CPU Limits und Frameversatz mal außen vor gelassen.


Ein doppelt so breiter Single-Chip skaliert immer zu 100% ohne CPU-Limit und braucht dabei kein doppelt so großes Die.

Gast
2008-08-12, 17:57:36
Habe gerade gelesen, dass ein neuer Treiber raus ist, Geforce 177.83. Könnte dort nicht schon der GT200b gelistet sein?

http://www.hardware-infos.com/news.php?news=2301

igg
2008-08-12, 18:07:30
Habe gerade gelesen, dass ein neuer Treiber raus ist, Geforce 177.83. Könnte dort nicht schon der GT200b gelistet sein?

http://www.hardware-infos.com/news.php?news=2301
Einen Hinweis darauf gabs bereits Ende Juli (http://www.nvnews.net/vbulletin/showthread.php?t=116699):
NVIDIA_GT200.DEV_05E0.1 = "NVIDIA GeForce GT200-400"
NVIDIA_GT200.DEV_05E1.1 = "NVIDIA GeForce GTX 280"
NVIDIA_GT200.DEV_05E2.1 = "NVIDIA GeForce GTX 260"
NVIDIA_GT200.DEV_05E3.1 = "NVIDIA GT200"
NVIDIA_GT200.DEV_05E4.1 = "NVIDIA GT200 "
...
NVIDIA_GT200.DEV_05FC.1 = "NVIDIA GT200 "
NVIDIA_GT200.DEV_05FD.1 = "NVIDIA GT200-875-GL"
NVIDIA_GT200.DEV_05FE.1 = "NVIDIA GT200-850-GL"
NVIDIA_GT200.DEV_05FF.1 = "NVIDIA GT200 "

Fetza
2008-08-12, 21:27:34
Eigentlich ist es traurig das GT200 mit den Ausmaßen keine Chance gegen die X2 hat trotz des CF-Nachteils.


Wenn ati bei der filterung nicht schummeln würde, sähe es vermutlich anders aus. Das ati aber bei einer guten karte, trotzdem noch bildqualität mutwillig ruinieren muss, finde ich warhlich traurig, ansonsten wäre nämlich schon eine hd4870 in meinem rechner.

Gast
2008-08-12, 23:47:52
Eigentlich ist es traurig das GT200 mit den Ausmaßen keine Chance gegen die X2 hat trotz des CF-Nachteils.



Eigentlich ist es traurig, dass AMD eine X2 benötigt wird um eine Chance gegen eine GT200 zu haben.

Dein hinten herum Fähnchen schwenken ist einfach nur noch nervig in letzter Zeit. Bedenke mal deine Diskussionskultur, unter den Fans warst du bisher immer sehr gemäßigt und sachlich.

centurio81
2008-08-12, 23:50:45
Eigentlich ist es traurig, dass AMD eine X2 benötigt wird um eine Chance gegen eine GT200 zu haben.


Hä?
Ist dir was entgangen?
Oder mir?? ^^
Der RV770 hat doch absolut ne Chance gegen GT200..
Und mal sehen wie sich die 1 Gb Version so schlägt.

Gast
2008-08-13, 00:05:03
Bitte bleibt beim Thema und schweift jetzt nicht in unnötige Diskussionen ab, die schon seit Wochen geklärt worden sind. Es gibt inzwischen genügend Benchmarks von HD 4850, HD 4870, HD 4870 X2, GTX 260 und GTX 280.

Gegenstand dieses Threads soll es sein, den kommenden G200, ergo den G200b, zu durchleuchten!

Gast
2008-08-13, 14:59:40
Es riecht schon nach GT200b, Geforce GTX 260 und 280 sind jedenfalls krass gefallen und schon ab 199 respektive 319 Euro (http://www.hardware-infos.com/news.php?news=2304) erhältlich.

Adam D.
2008-08-13, 15:17:18
Man, da muss ich mich echt zurückhalten, um nicht zuzuschlagen. Eine GTX260 für unter 200€ ist schon ein verdammt guter Preis.

AnarchX
2008-08-13, 15:22:38
Es riecht schon nach GT200b, Geforce GTX 260 und 280 sind jedenfalls krass gefallen und schon ab 199 respektive 319 Euro (http://www.hardware-infos.com/news.php?news=2304) erhältlich.
Dass ist doch der allgemeine Preisverfall der sich seit dem RV770-Launch abgezeichnet hat und wohl auch in den kommenden Monaten weitergehen wird.
G200B mag hier eine später wichtige Komponente für NV sein, aber auch ohne ihn müsste NV die Preise senken und eben entsprechende Einschnitte in den Margen hinnehmen.

btw.
Ich rieche hier eher, dass jemand für seine Seite ein paar Postings generieren will.;)

AnarchX
2008-08-13, 16:56:37
Nvidia scheint sich zur 4870X2 geäußert zu haben und macht dabei eine Andeutung:
So meint man, dass der Vergleich GTX 280 mit X2 nicht fair wäre, da letzere auf 2 GPUs setzt und wenn dies Nvidia ebenfalls machen würde, dann wäre die Leistung höher als bei der X2.
Wenn der Markt es verlangt dann wird Nvidia auch eine Dual-GPU-SKU vorstellen, zumal Nvidia die bessere Bildqualität und das bessere MGPU-Konzept bietet.

Quelle (http://news.ccw.com.cn/chipProduce/htm2008/20080813_482654.shtml)

reunion
2008-08-13, 17:01:37
Nvidia scheint sich zur 4870X2 geäußert zu haben und macht dabei eine Andeutung:
So meint man, dass der Vergleich GTX 280 mit X2 nicht fair wäre, da letzere auf 2 GPUs setzt und wenn dies Nvidia ebenfalls machen würde, dann wäre die Leistung höher als bei der X2.

Das hat nV bei der 7950GX2 seltsamerweise auch nicht gestört. Zumal der Vergleich so ohnehin Hirnrissig ist.


Wenn der Markt es verlangt dann wird Nvidia auch eine Dual-GPU-SKU vorstellen, zumal Nvidia die bessere Bildqualität und das bessere MGPU-Konzept bietet.

Quelle (http://news.ccw.com.cn/chipProduce/htm2008/20080813_482654.shtml)

Wohl eher wenn man bereit ist noch weiteren Einschnitte in die Margen hinzunehmen und einen Kühler entwicklelt hat der 400W TDP abführen kann.

Gast
2008-08-13, 17:04:12
Nvidia hat schon recht: Wenn der Markt es verlangt.

Schaut man sich mal die HD 4870 X2-Reviews an, so wird quasi überall die gewaltige Performance in den Vordergrund gerückt. Dass die Karte trotz 270 W TDP in den Realmessungen aber über 300 W aus der Steckdose gezogen hat, ist dabei eher sekundär bzw. fließt in die Fazits kaum ein.

Da kann ich mir Nvidia gut vorstellen. Warum dann nicht den GT200b doppeln. Können ja dann auch ruhig 350 W werden. Der Öffentlichkeit scheint es ja wenig zu jucken.

dildo4u
2008-08-13, 17:05:04
Wohl eher wenn man bereit ist noch weiteren Einschnitte in die Margen hinzunehmen und einen Kühler entwicklelt hat der 400W TDP abführen kann.
Zwei GTX 260 in 55nm mit leicht höheren Taktraten brauchen sicherlich keine 400Watt und mher brauchts für die X2 4870 sicher nicht.

Gast
2008-08-13, 17:06:59
Zwei GTX 260 in 55nm mit leicht höheren Taktraten brauchen sicherlich keine 400Watt und mher brauchts für die X2 4870 sicher nicht.

Nur würde man damit leistungsmäßig nur gleichziehen +-5%.

dildo4u
2008-08-13, 17:08:01
Wohl eher wenn man bereit ist noch weiteren Einschnitte in die Margen hinzunehmen und einen Kühler entwicklelt hat der 400W TDP abführen kann.
Zwei GTX 260 in 55nm mit leicht höheren Taktraten brauchen sicherlich keine 400Watt und mher brauchts für die X2 4870 sicher nicht.Selbst mit den Heutigen 65nm Chips wäre man unter dem Verbrauch der X2.

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_4870_x2/27/#abschnitt_leistungsaufnahme

reunion
2008-08-13, 17:08:46
Zwei GTX 260 in 55nm mit leicht höheren Taktraten brauchen sicherlich keine 400Watt und mher brauchts für die X2 4870 sicher nicht.

Eine GTX260 verbraucht bereits minimal mehr als eine 4870 und ist im Schnitt sicher nicht schneller. 55nm bringt kaum Vorteile was die Leistungsaufnahme betrifft. Wobei ich das ohnehin für unrealistisch halte. Das Die ist auch in 55nm noch verdammt groß für eine MGPU-Karte. Dazu bräuchte man für die zwei 448-bit SIs ein enorm aufwändiges PCB mit 28(!) Speicherbausteine plus NVIO.

Selbst mit den Heutigen 65nm Chips wäre man unter dem Verbrauch der X2.

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_4870_x2/27/#abschnitt_leistungsaufnahme

Messungen hinter dem Netzteil sind wertlos. Das einzig brachbare sind hier die Werte von xbitlabs.

dildo4u
2008-08-13, 17:13:53
80% der Reviewseiten bescheinigen der GTX 260 ein geringer Verbrauch und wenn kommen ja 55nm Chips zum Einsatz auf einer möglichen Dual Karte.

Gast
2008-08-13, 17:18:59
Zwei GTX 260 in 55nm mit leicht höheren Taktraten brauchen sicherlich keine 400Watt und mher brauchts für die X2 4870 sicher nicht.Selbst mit den Heutigen 65nm Chips wäre man unter dem Verbrauch der X2.

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_4870_x2/27/#abschnitt_leistungsaufnahme

Wie gesagt: 65nm-55nm bringt sehr wenig - siehe 9800GTX --> 9800GTX+ oder HD2600XT --> HD3650.

Zu den Verbrauchsmessungen: Ich vertraue hier lieber xbitlabs anstatt verfälschende Messungen des Gesamtsystems hinter dem Netzteil:

http://www.pcgameshardware.de/screenshots/original/2008/08/gtx200_power.gif

Fakt: Die 260GTX verbraucht jetzt schon leicht mehr als die HD4870 unter Last. Von den versprochenen 25W im Idle ist der GT200 übrigens auch weit entfernt.

AnarchX
2008-08-13, 17:20:31
Naja, nachdem Nvidia schon eine GX2 mit 330mm² Dies vorgestellt hat, wo wir uns schon an den Kopf gegriffen haben, und eine GTX 260 mittlerweile für unter 200€ gehandelt wird, sehe ich von der Kostenseite keine Probleme.

Immerhin brauch man ja auch für kommende, kleinere GeForce 200 SKUs ein Zugpferd und das kostet halt nun mal etwas.

Zudem dürfte man dank 55nm GT200 und vielleicht dem cleveren Einsatz von GDDR5, falls möglich, noch die Kosten etwas optimieren können.

dildo4u
2008-08-13, 17:23:56
Wie gesagt: 65nm-55nm bringt sehr wenig - siehe 9800GTX --> 9800GTX+ oder HD2600XT --> HD3650.


Ich sehe hier deutliche Vorteile für die 55nm GTX 9800+ gegenüber der 65nm Version das trotz höherer Taktraten.

http://www.pcgameshardware.de/screenshots/original/2008/07/x_Power.PNG

http://www.pcgameshardware.de/aid,653996/Test/Benchmark/Geforce_9800_GTX_im_Benchmark-Test/&menu=browser&image_id=867033&article_id=653996&page=1&show=original

AnarchX
2008-08-13, 17:31:08
Das scheint wohl die originale Quelle zu sein, nämlich "Jensen":
So you just have to take it case by case and -- but we think our approach is the right approach. The best approach is to do both. If we could offer a single chip solution at 399, it certainly doesn’t preclude us from building a two-chip solution at something higher. So I think that having the right price, right product at each price point and the best-performing product at each price point is the most important thing.
http://seekingalpha.com/article/90644-nvidia-f2q09-qtr-end-7-27-08-earnings-call-transcript?page=-1

reunion
2008-08-13, 17:39:07
Naja, nachdem Nvidia schon eine GX2 mit 330mm² Dies vorgestellt hat, wo wir uns schon an den Kopf gegriffen haben, und eine GTX 260 mittlerweile für unter 200€ gehandelt wird, sehe ich von der Kostenseite keine Probleme.

Immerhin brauch man ja auch für kommende, kleinere GeForce 200 SKUs ein Zugpferd und das kostet halt nun mal etwas.

Ich glaube ich brauche dir nicht zu sagen das die GTX260 um 200€ eine Notlösung ist um etwas gegen die 4870 zu haben. Das Ding wurde nicht zum Spaß enorm im Preis gesenkt. Zumal man bei einer möglichen GX2 wie schon gesagt vorallem auch auf physikalische Probleme stoßen würde. Das Chippackage ist verdammt groß, der NVIO, die 28 (oder bei einem vollen GT200 gar 32) Speicherbausteine, das PCB wäre enorm komplex (2x 512bit SI), die Kühlung. Das Monster will ich erstmal sehen.


Zudem dürfte man dank 55nm GT200 und vielleicht dem cleveren Einsatz von GDDR5, falls möglich, noch die Kosten etwas optimieren können.

Da ROPs und SI zusammenhängen würde es hier auf jeden Fall Umbauarbeiten Bedürfen um am SI sparen zu können.

Das scheint wohl die originale Quelle zu sein, nämlich "Jensen":

http://seekingalpha.com/article/90644-nvidia-f2q09-qtr-end-7-27-08-earnings-call-transcript?page=-1

Der geht mit den AMD-Sprüchen hausieren.

Gast
2008-08-13, 18:04:32
Ich habe hier nicht das erste Mal geschrieben, dass der Lösungsweg ein gedoppelter Performance-Chip zum Ende dieses oder Anfang nächsten Jahres sein wird, und zwar mit 2x 192 SPs, 2x 64 TMUs, 2x 16 ROPs, 2x 256 Bit @ GDDR5 in 55 nm.

Stimmen meine Rechnungen, so wird dieser Chip rund 2x 360-380 mm^2 groß.
Leistungstechnisch erwarte ich selbst einen Chip bereits oberhalb der GTX 260, denn die Taktfrequenzen sollten aufgrund des deutlich abgespeckten Chips sowie der 55 nm-Bauweise merkbar höher ausfallen. Keine Wunder, aber 650-700 MHz Chiptakt bei 1600-1750 MHz Shadertakt vermute ich schon.

Einziger Nachteil: Ein solch neuer Chip ist nicht mal eben aus dem Boden gestampft. Das bedarf noch gut und gerne vier bis fünf Monate. Bis dahin wird AMD die Performancekrone halten.

hardtech
2008-08-13, 19:19:39
Ich sehe hier deutliche Vorteile für die 55nm GTX 9800+ gegenüber der 65nm Version das trotz höherer Taktraten.

http://www.pcgameshardware.de/screenshots/original/2008/07/x_Power.PNG

http://www.pcgameshardware.de/aid,653996/Test/Benchmark/Geforce_9800_GTX_im_Benchmark-Test/&menu=browser&image_id=867033&article_id=653996&page=1&show=original


wo genau sollen die vorteile liegen?

dildo4u
2008-08-13, 20:17:12
wo genau sollen die vorteile liegen?
20-25 Watt weniger Verbrauch unter Last bei 10% höheren Taktraten.

reunion
2008-08-13, 20:18:20
15-20 Watt weniger Verbrauch unter Last bei 15% höheren Taktraten.

Im schamlosen Rosinenpicken warst du schon immer gut.

dildo4u
2008-08-13, 20:23:04
Im schamlosen Rosinenpicken warst du schon immer gut.
Es ging darum ob der 55nm Prozess bei NV was bringt und da gibts zum Vergleichen bis jetzt nur die 9800GTX +.Leider hat X-Bit labs ein 55nm G92 noch nicht auf den Verbrauch getestet.

reunion
2008-08-13, 20:25:11
Es ging darum ob der 55nm Prozess bei NV was bringt und da gibts zum Vergleichen bis jetzt nur die 9800GTX +.Leider hat X-Bit labs ein 55nm G92 noch nicht auf den Verbrauch getestet.

Ja darum ging es. Nur nützen deine Rosinen niemanden. Ich könnte jetzt genau so gut damit kommen:

http://img411.imageshack.us/img411/1296/powerax0.jpg

7W mehr für 9% mehr Takt.

Gast
2008-08-14, 16:01:11
kann natürlich auch sein das noch ein alter G92 verbaut wurde, oder es einfach um eine 9800GTX handelt die Übertaktet wurde.

Ich hab selber eine 9800GTX+ mit G92b und kann bestätigen das der Verbrauch etwas nach unten ging und der Chip besser zum Takten geht als der alte G92! Meine läuf mit Luftkühlung mit satten 865MHz ROP und 2200MHz Shader!
Es ist sogar so deutlich das es mich schon etwas überrascht wie so NV die 55nm Herstellung so Komplett vernachlässigt hat!

NV hätte von Anfang an auf 55nm setzten sollen, genug zeit hatten die ja, der G92 war ja schon im Sommer 2007 Fertig...

Übrigens wie so wir mit der GX2 nur ein voller G200b in Verbindung gebracht, ich sehe da noch andere möglichkeiten und das nicht nur mit einem G200b...

Fetza
2008-08-14, 17:47:47
kann natürlich auch sein das noch ein alter G92 verbaut wurde, oder es einfach um eine 9800GTX handelt die Übertaktet wurde.

Ich hab selber eine 9800GTX+ mit G92b und kann bestätigen das der Verbrauch etwas nach unten ging und der Chip besser zum Takten geht als der alte G92! Meine läuf mit Luftkühlung mit satten 865MHz ROP und 2200MHz Shader!
Es ist sogar so deutlich das es mich schon etwas überrascht wie so NV die 55nm Herstellung so Komplett vernachlässigt hat!

NV hätte von Anfang an auf 55nm setzten sollen, genug zeit hatten die ja, der G92 war ja schon im Sommer 2007 Fertig...

Übrigens wie so wir mit der GX2 nur ein voller G200b in Verbindung gebracht, ich sehe da noch andere möglichkeiten und das nicht nur mit einem G200b...

Was den + karten fehlt, ist aber gddr5 ram, oder aber ein altes g80 speicherinterface zumindest. So bleibt die karte nur für moderate auflösungen geeignet. Eigentlich schade, bei dem taktungspotential!

Unyu
2008-08-14, 18:16:53
Der kleine VRAM ist viel schlimmer. ;)

Im Vergleich zum G80 fehlts vor allem an Chiptakt und Speichertakt, um gleich zu ziehen.

Gast
2008-08-15, 16:03:33
Eine G200, zurechtgestutzt auf das SI einer G80 würde höhere Taktraten der Shaderdomain erlauben bei niedrigerem "Wattage". Was zu einer neuen GX2 führen könnte, was aber vorrausetzt, nV will die G92b vom Markt haben. Denn diese GPU, G200 auf G80 SI reduziert, wäre oder ist sogar der Nachfolger des G92b...

Vieleicht optimiert ja nV den G200 noch, wie AMD es beim RV770 geschafft hat. Warum sollte man nicht mehr Performance und Taktrate aus dem Design kitzeln können?

Aber die Antwort geht glaube ich, start in Richtung GDDR5, was wiederum das SI erheblich verkleinert. Ein 256Bit SI spricht nicht gegen das beibehalten des großen Shadercores. Textureleistung hat man ja "eigentlich" genug, warum nV das sowieso dermaßen hoch skaliert ist aktuell nur auf das Verhältnis zu den ROPs/TMUs zurückzuführen. Und da man für DX10.1 compilance daran schrauben müsste und es nicht getan hat, dürfte nV den Nachfolger des G200 schon in der Pipe haben (nicht den Shrink/Refresh, den Nachfolger NV60/G100 oder wie auch immer).

Gast
2008-08-15, 18:37:18
Ja, gibt es über den Nachfolger, GT300, noch keinen Thread?

Denke, dass er aufgrund des vorgezogenen RV870 auch schon Anfang Q3 09, wenn nicht gar Q2 09 kommt...