PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GT400/GF100 - Q1/2010, DX11, CUDA 3.0


Seiten : 1 2 3 [4] 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75

Coda
2009-05-18, 14:16:14
Bisher gab es bei neuen Architekturen eigentlich immer relativ schnell Mainstream. G70 ist ja auch nur ein NV40-Ableger gewesen.

Ailuros
2009-05-18, 14:26:44
Bisher gab es bei neuen Architekturen eigentlich immer relativ schnell Mainstream. G70 ist ja auch nur ein NV40-Ableger gewesen.

Kommt drauf an auf welchem Prozess sie hergestellt werden und bei welcher foundry. Wenn TSMC nicht bald ihr 40nm-Schlammassel aufraeumen kann werden sich foundries wie UMC oder sogar Globalfoundries bald die Haende reiben (fuer beide IHVs). Falls NV jetzt auf 40nm TSMC ausgelegt hat bis zu Zeitpunkt X und eine andere foundry am Ende benutzt wird, dauert die Umstellung der libraries auch wohl ein paar Monate.

igg
2009-05-18, 16:06:16
Wäre es in diesem Fall nicht besser, im Q4 09 Highend-Parts mit schlechten Margen zu produzieren und parallel den Wechsel zu betreiben?

Falls Sich ein IHV für ein Wechsel entscheidet und TSMC es doch noch hinbekommt, hat der gebliebene Konkurrenz sicher einen enormen Zeitvorteil (1-2 Quartale?).

Gast
2009-05-18, 17:24:49
Nanu, KonKort noch gar nicht hier ;) ?


Nvidia G300-Samples mit 700/1600/1100 MHz ->>
http://www.hardware-infos.com/news.php?news=2954

KonKorT
2009-05-18, 17:32:28
Doch, doch, nur noch gerade nach normalen News geguckt. Notfalls hätte ich es schon noch gepostet. ;D

Ja, was sagt ihr? 2,46 Teraflops, 281,6 GB/s. Zumindest die nackten Zahlen lesen sich, wie ich finde, sehr viel versprechend.

Gast
2009-05-18, 17:54:51
Liegen denn die Retail-Frequenzen normalerweise über oder unter denen der samples ?

Spasstiger
2009-05-18, 17:57:55
Ja, was sagt ihr? 2,46 Teraflops, 281,6 GB/s. Zumindest die nackten Zahlen lesen sich, wie ich finde, sehr viel versprechend.
Wenn die Architektur sich ähnlich wie der GT200 verhält, wäre diese Karte im Mittel um 70% schneller als eine GTX 285 und um rund 15% schneller als die GTX 295.

AnarchX
2009-05-18, 17:58:41
Liegen denn die Retail-Frequenzen normalerweise über oder unter denen der samples ?

Kommt ganz auf das Sample drauf an, Samples für Intern und Herstellungspartner können auch höhere Taktraten aufweisen (z.B. die ursprüngliche HD3870 mit 825/1200MHz), während Samples für Entwickler meist nur Funktionalität bieten, aber die Leistung noch verschleiert wird (z.B. G80-Samples mit nur aktiven 64SPs-384MiB@192Bit).

Wenn die Architektur sich ähnlich wie der GT200 verhält, wäre diese Karte im Mittel um 70% schneller als eine GTX 285 und um rund 15% schneller als die GTX 295.
Wie kommst du auf 70%?

Tex-Fill: +73% (bei 128 TMUs)
ALU-Peak: +130%
Bandbreite: +75%

Bei der Rasterleistung und der Z-Leistung würde ich noch eine Verdopplung annehmen, da zu ersterem diverse neue Patente gibt und bei einer Bandbreite von 280GB/s die Z-Fill definitiv steigen muss.

Ergibt mit dem geometrischen Mittel +93% gegenüber der GTX 285.


Ja, was sagt ihr? 2,46 Teraflops, 281,6 GB/s. Zumindest die nackten Zahlen lesen sich, wie ich finde, sehr viel versprechend.
Kommt auf die anderen Parameter an, nicht das NV noch auf die Idee kommt die TMUs auf 64 zu reduzieren und ATi noch beim Sparfilter toppt. X-D

Spasstiger
2009-05-18, 18:14:26
Wie kommst du auf 70%?

Tex-Fill: +73% (bei 128 TMUs)
ALU-Peak: +130%
Bandbreite: +75%

Bei der Rasterleistung und der Z-Leistung würde ich noch eine Verdopplung annehmen, da zu ersterem diverse neue Patente gibt und bei einer Bandbreite von 280GB/s die Z-Fill definitiv steigen muss.

Ergibt mit dem geometrischen Mittel +93% gegenüber der GTX 285.
Pixel- und z-Füllrate hab ich wie beim GT200 angesetzt (also 4 pix + 32 zix pro ROP-Partition und Takt).
Mit verdoppelter Pixel- und z-Füllrate komme ich auf eine Leistungssteigerung gegenüber der GTX 285 von 99%. Und wenn ich nur die z-Füllrate verdopple, komme ich auf eine Steigerung von 79%.

Wenn ich von verdoppelter ROP-Leistung und zusätzlich noch davon ausgehe, dass durch Compute-Shader und Co. die Shadereinheiten relativ zu den anderen Einheiten doppelt so stark gefordert werden wie heute, dann komme ich sogar auf eine Steigerung von 111%. Aber das ist dann eher ein Best-Case-Szenario.

AnarchX
2009-05-18, 18:21:07
Wird sich zeigen müssen, wie der praktische Zuwachs bei der ALU-Leistung ausfallen wird, da könnten wohl auch noch ein paar extremere Fälle existieren, wie bei G70 -> G80.

Auch etwas was man nicht vergessen sollte, ist dass GT300 die D3D10.1-Pfade mancher Titel nutzen darf und so noch einmal 10-20% (http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_5_spiele_direct3d_101_test/9/#abschnitt_direct3d_10_vs_direct3d_101) Zugewinn gegenüber GT200 erzielen könnte.;)

igg
2009-05-18, 18:52:59
Sowas, hätte jetzt einen Tick mehr als die Verdoppelung erwartet

KonKorT
2009-05-18, 18:56:15
Man kann offen sagen, dass die Leistungssteigerung wohl >= 100% gegenüber GT200 ausfallen wird und das bei einem sehr ansprechenden Verbrauch, wie Ailuros schon durchblicken ließ.

Unter Extrem-Situationen dürften wie üblich auch deutlich mehr drin sein.

Nvidia hat mit dem G300 ganze Arbeit geleistet, das lässt sich jetzt schon festhalten. Wie gut sie ganz genau wird, muss man noch ein paar Monate abwarten, wobei so ein 3DMark-Durchlauf auf einem G300-Sample auch was ganz schönes wäre, oder? ;)
Ich werde mal schauen, was sich machen lässt.

=Floi=
2009-05-18, 19:58:09
ein geschätzter preis für eine GTX und GTS wäre fast wichtiger. Wie stark wird eine "GTS" abgespeckt?

2d stromsparmodus?
brauchbarer kühler?

Spasstiger
2009-05-18, 20:03:00
Nvidia hat mit dem G300 ganze Arbeit geleistet, das lässt sich jetzt schon festhalten.
Liegen dir schon Benchmarks vor? Ohne die Details zu kennen weiß man nur, dass sie gegenüber dem GT200 einfach die durch 40 nm frei werdende Diefläche mit entsprechend mehr Transistoren auffüllen, dass der Chip wohl DX11-konform wird und dass man zumindest mit dem üblichen Leistungssprung beim Generationenwechsel rechnen kann.
Ob die neue Struktur der Shadereinheiten deutliche Effizienzvorteile bringt, kann ich nicht abschätzen, aber der GT200 ist ja auch nicht gerade ineffizient. In erster Linie krankt der GT200 an niedrigen Taktraten im Vergleich zum G92.

Coda
2009-05-18, 20:13:53
GT200 ist schon relativ ineffizient was das Rasterizing angeht. Da besteht eindeutig ein Bottleneck, das mit GT300 wohl behoben wird.

Man kann die Rechenleistung leider nicht mehr einfach so skalieren ohne diesen Punkt zu beachten.

Gast
2009-05-18, 20:22:06
Nochmal Gamestar http://www.gamestar.de/hardware/news/grafikkarten/1956146/der_directx_11_chip_gt300_ist_fertig.html. Es sieht gut aus. Kann sogar sein das Nvidia vor ATI auf dem DX11 Sektor zuschlägt...

Gast
2009-05-18, 20:35:49
Wie groß ist denn die Möglichkeit, dass es G(T)300 diesmal in zwei Varianten gibt ? Also (möglicherweise beschnittene) Desktop & Workstation variante

OgrEGT
2009-05-18, 20:35:53
Nochmal Gamestar http://www.gamestar.de/hardware/news/grafikkarten/1956146/der_directx_11_chip_gt300_ist_fertig.html. Es sieht gut aus. Kann sogar sein das Nvidia vor ATI auf dem DX11 Sektor zuschlägt...

Die Quelle ist aber auch die gleiche wie beim computerbase Artikel, eben "Bright Side of News". Somit ist dies wohl die einzige Quelle, die dies bestätigt.

Mal abwarten, ob noch andere unabhängige Meldungen auftauchen...

nagus
2009-05-18, 20:47:03
ich will ja nicht due gute stimmung kaputt machen... aber kommt euch das nicht ein bisschen komisch vor? zuerst heißts, dass der GT300 das tapeout im juni/juli hat, dann heißts, er verspätet sich auf 1Q2010 und urplötzlich ist das tapeout da und das sample läuft anscheinend auch noch extrem gut... fragt sich da niemand ob das nicht vielleicht möglicherweise eine fake-meldung ist? ... nur so ein gedanke ...

KonKorT
2009-05-18, 21:06:17
Die Quelle ist aber auch die gleiche wie beim computerbase Artikel, eben "Bright Side of News". Somit ist dies wohl die einzige Quelle, die dies bestätigt.
Nein, ich kann es auch bestätigen.

ich will ja nicht due gute stimmung kaputt machen... aber kommt euch das nicht ein bisschen komisch vor? zuerst heißts, dass der GT300 das tapeout im juni/juli hat, dann heißts, er verspätet sich auf 1Q2010 und urplötzlich ist das tapeout da und das sample läuft anscheinend auch noch extrem gut... fragt sich da niemand ob das nicht vielleicht möglicherweise eine fake-meldung ist? ... nur so ein gedanke ...
Wer hat denn geschrieben, dass das Tape-Out im Juni sei und er auf Q1/2010 verschoben sei? Auch nur immer eine Quelle, und zwar Charlie.
Ailuros hatte ja schon angedeutet, dass er vielleicht den GT300 statt G300 meint - dass es hier eine Tesla- und Desktop-Karte geben könnte.

Fest steht jedenfalls, dass die kommende Nvidia-High-End-Desktop-Version G300 bereits lauffähig ist (übringens nicht erst seit vorgestern).

LovesuckZ
2009-05-18, 21:07:34
Charlie war der einzige, der was von Juni faselte. Alle anderen hatten zum damaligen Zeitpunkt keine Aussagen über das Tape-Out gemacht.

OgrEGT
2009-05-18, 21:14:54
Nein, ich kann es auch bestätigen.


Wer hat denn geschrieben, dass das Tape-Out im Juni sei und er auf Q1/2010 verschoben sei? Auch nur immer eine Quelle, und zwar Charlie.
Ailuros hatte ja schon angedeutet, dass er vielleicht den GT300 statt G300 meint - dass es hier eine Tesla- und Desktop-Karte geben könnte.

Fest steht jedenfalls, dass die kommende Nvidia-High-End-Desktop-Version G300 bereits lauffähig ist (übringens nicht erst seit vorgestern).

OK, dann sind es 2.

Gast
2009-05-18, 21:45:23
Den einen Hansel von Inquire bitte streichen. Der führt nen Privatkrieg gegen Nvidia. Schrecklich solcher "Journalismus".

crux2005
2009-05-18, 21:54:28
samples von G300 Karten gibt es auch in Europa ;) von daher ...

Gast
2009-05-18, 22:01:54
Charlie hat doch eh nicht mehr alle beisammen. GPGPU unwichtig...ahahahahaaaa. Ahnung Null, Braindead joah

dargo
2009-05-18, 22:53:45
ein geschätzter preis für eine GTX und GTS wäre fast wichtiger.
Ich befürchte, dass sich NV bzw. die Graka-Hersteller den GT300 am Anfang gut bezahlen lassen werden. Der RV870 scheint später zu kommen, also erstmal keine Konkurrenz. Und das wird sicherlich genutzt um den Preis hochzuhalten. Ich warte auf jeden Fall erst den RV870 ab und dann werden wir sehen was mit den Preisen passiert. ;)

Gast
2009-05-18, 23:05:55
Nvidia wird auch hier wieder Masstäbe hinsichtlich BQ hinlegen. ATI wird nicht kontern können. Auch bei GPGPU ist ATI hintendran. Ich bezahle gerne mehr dafür:) ATI wird versuchen die Leute die keinen Geschmack für BQ und GPGPU haben zu ködern;)

Der_Korken
2009-05-18, 23:33:21
ATI wird versuchen die Leute die keinen Geschmack für BQ und GPGPU haben zu ködern;)

Bildqualität ist ein Punkt, aber inwiefern interessieren einen Privatanwender denn die GPGPU-Fähigkeiten einer Karte?

Coda
2009-05-18, 23:36:58
Momentan noch eher wenig, aber das kann sich zu Lebenszeit der GT300 massiv ändern. Apple hat z.B. mit Snow Leopard eine umfassende OpenCL-Integration in vielen Bereichen des Betriebssystems vorgesehen.

Gast
2009-05-18, 23:39:31
Jep das nur als ein Beispiel. Alle Anwendungen etc. will ich garnet erst aufzählen. Ich finde den Weg seitens Nvidia richtig.

KonKorT
2009-05-18, 23:41:53
Nvidia wird auch hier wieder Masstäbe hinsichtlich BQ hinlegen. ATI wird nicht kontern können. Auch bei GPGPU ist ATI hintendran.[...]
Weißt Du genaueres, dann bin ich ganz Ohr. Oder ist es bloß deine persönliche Spekulation auf Basis bisher veröffentlichter Berichte?

Gast
2009-05-18, 23:43:45
Das ist eine Speku meinerseits. Laut ATI Specs wird da nicht viel kommen. Und bei GPGPU ist Nvidia eh meilenweit voraus;)

deekey777
2009-05-18, 23:46:18
Das ist eine Speku meinerseits. Laut ATI Specs wird da nicht viel kommen. Und bei GPGPU ist Nvidia eh meilenweit voraus;)
Bei GPGPU hat ATi mit dem RV770 kräftig aufgeholt. Wäre da nicht eine Kleinigkeit nammens CUDA, da ist Nvidia mehr als meilenweit voraus (nicht unbedingt bei der Fähigkeit der Software, sondern bei deren Verbreitung un Durchsetzung).

Gast
2009-05-18, 23:50:06
Da ist aber eine "Kleinigkeit" Namens CUDA: ATI kann da nicht gegenhalten und bei den Textureinheiten erst recht nicht:)

Gast
2009-05-18, 23:51:27
Und das Beste kommt noch, Nvidia hat jetzt auch GDDR5 und sogar ein fettes 512-Bit Interface. Ich wüsste nicht was ATI da gegenhalten sollte...

deekey777
2009-05-18, 23:51:47
Da ist aber eine "Kleinigkeit" Namens CUDA: ATI kann da nicht gegenhalten und bei den Textureinheiten erst recht nicht:)
Ganz wie du meinst.

Gast
2009-05-18, 23:52:46
Ja Deekay ich sehe das so:)

deekey777
2009-05-18, 23:54:59
Ja Deekay ich sehe das so:)
Es gibt zwei Möglichkeiten: Du besinnst dich wieder, dass es 3DC ist und gerade in eines Spekulationsthread Postings irgendwie Sinn ergeben sollen (insbesondere aus dem Technologie-Blickwinkel), oder ich lösche sie einfach.

Gast
2009-05-18, 23:57:03
Aha, soso war das falsch was ich gepostet habe? Ich glaube nicht. Auch wenn du das löscht wischst du nicht die Wahrheit weg.

reallord
2009-05-19, 00:00:41
Worauf Deekey glaub ich hinaus möchte, ist dass man hier zwar schön Spekulieren kann, dies jedoch mit Fakten oder Links belegen sollte...

Zu Cuda vs Stream: In der aktuellen CT ist da ein interessanter Artikel drin.

Gast
2009-05-19, 00:02:31
Ich gehe ganz klar von einem 512 Bit Interface aus Inklusive GDDR5. Und von einem Niveau über der schnellsten aktuellen Dualkarte. Ganz einfach.

Gast
2009-05-19, 00:03:23
Nebenbei ist CUDA ein ganz ganz wichtiger Schritt im Grafikbereich deswegen sollte das auch erwähnt werden!

nochn Gast
2009-05-19, 01:00:46
OMG geht's noch fanboiisher??? :rolleyes:
Sorry, musste mir einfach mal Luft machen ...

Nightspider
2009-05-19, 01:28:16
Durch hohe Bandbreite (512Bit SI + GDDR5) steigt automatisch die Leistung stark bei hohem AA oder ?

Wollte NV nicht mal programmierbares AA rausbringen ???

Könnte man dann einen AA Modus für GTA4 zaubern (mit DX11) ?

Coda
2009-05-19, 01:57:42
Wollte NV nicht mal programmierbares AA rausbringen ???
Das kann auch jede D3D10-GPU !!!

Nightspider
2009-05-19, 02:27:33
Das kann auch jede D3D10-GPU !!!

Achso. Da hat sich aber noch nichts getan oder ?

Coda
2009-05-19, 02:48:22
Das Edge-Detect-AA von ATI ist bereits programmiert. Ansonsten muss es die App machen und das wird auch so bleiben.

reunion
2009-05-19, 07:00:06
Das ist eine Speku meinerseits. Laut ATI Specs wird da nicht viel kommen.

Nichtmal einen Monat vor den RV770-Launch schien da auch nicht viel zu kommen. Was ich damit sagen will: Solche schon so bald vor dem Launch veröffentlichen Daten sind nicht unbedingt für voll zu nehmen.


Und bei GPGPU ist Nvidia eh meilenweit voraus;)

Bei GPGPU hat nV die bessere Software. Aber solange ATi zumindest ihre 33% Marktanteil bei diskreten Desktop-Chips halten kann wird das nicht lange was nützen IMO.

AnarchX
2009-05-19, 07:02:20
Durch hohe Bandbreite (512Bit SI + GDDR5) steigt automatisch die Leistung stark bei hohem AA oder ?

Natürlich nicht, siehe die 2900XT mit ihren bis zu 128GB/s und dann langsamer war unter MSAA als eine 64GB/s-X1950XTX.
Die ROPs müssen entsprechend leistungsfähig sein um die Bandbreite auszunutzen.

Und um diese 280GB/s entsprechend ausnutzen sollte GT300 die MSAA-Leistung (vor allem Z-Fill) gegenüber GT200 doch verdoppeln, da letzerer wohl schon sehr gut balanciert ist bei der Bandbreite und laut B3D interne GT200-Samples mit GDDR5 nur ~10% Leistungszuwachs hatten.

Ich befürchte, dass sich NV bzw. die Graka-Hersteller den GT300 am Anfang gut bezahlen lassen werden.
Naja, man solllte nicht vergessen, was es heute schon im Preisbereich <300€ an Leistung gibt.

Wenn man davon ausgeht dass die "GTX-Version" etwa 2x GTX 285 sein wird, dann könnte eine "GTS-Version" unter der Betrachtung der Vergangenheit wohl irgendwo bei 1,35-1,6x GTX 285 liegen, wo im unteren Bereich dieses Spektrum wohl auch ein RV870XT für $299 liegen könnte, sodass NV nicht großartig über 300€ gehen kann.

Und langfristig muss die "GTS-Version" bzw. eine vergleichbare Karte, mit 2x GTX260-192-Leistung, im April bei etwa 150€ ankommen:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7199286#post7199286

V2.0
2009-05-19, 08:12:52
Der Preis wird davon abhängen wie nah ATI dem GT300 kommt. Sollte ATI einen X850 anbieten, der bei 1,5x GTX275 liegt und für <200$ kommt, dann wird NV mit ihrer DX11 Variante nicht über 250$ liegen können.

Imho ist es gerade für NV entscheidend die Performancekarte schnellstens auf den Markt zu bringen.

robbitop@work
2009-05-19, 09:12:53
Wenn die Architektur sich ähnlich wie der GT200 verhält, wäre diese Karte im Mittel um 70% schneller als eine GTX 285 und um rund 15% schneller als die GTX 295.
Wenn sie den Rasterizer schneller gemacht haben (was endlich mal anzuraten wäre, wenn man teuer bezahlte Rohleistung nicht verpuffen lassen will!), dann wird das Ding sicher Faktor 2 vom GT200 haben. Wenn die arithmetische Leistung limitiert sogar eher mehr. Auch mit 8x MSAA erwarte ich deutliche Fortschritte.

Dem GT300 wurde doch vor einer Weile eine deutlich bessere Branching Performance nachgesagt. Dann wären MIMD ALUs IMO schon denkbar. Die Frage ist nur, ob das "bezahlbar" (Transistorcount) ist. Man könnte ja auch die SIMDs verkleinern und dafür mehr pro Cluster einbauen.

robbitop@work
2009-05-19, 09:23:21
Und um diese 280GB/s entsprechend ausnutzen sollte GT300 die MSAA-Leistung (vor allem Z-Fill) gegenüber GT200 doch verdoppeln
GT200 hat 256x Z-Tester. G80 hat 192x. Die Z-Fill reicht. Die ist eher überdimensioniert. Schon seit G80. Der Flaschenhals liegt woanders. Ich vermute bis heute im Trisetup. Und genau das scheint ja nun auch aufgebohrt zu werden.


, da letzerer wohl schon sehr gut balanciert ist bei der Bandbreite und laut B3D interne GT200-Samples mit GDDR5 nur ~10% Leistungszuwachs hatten.

Untersützt das SI vom GT200 denn GDDR5? Wenn nicht, müßte man ja ein extra Tapeout machen, um so ein internes Sample zu bauen. Das lohnt sich wohl kaum.
Ich könnte mir vorstellen, dass man das simuliert hat. (Spielereien mit Latenzen und Taktraten vom GDDR3)

Gast
2009-05-19, 11:06:31
Bei GPGPU hat nV die bessere Software. Aber solange ATi zumindest ihre 33% Marktanteil bei diskreten Desktop-Chips halten kann wird das nicht lange was nützen IMO.

GPGPU ist bei Desktop Chips nicht wirklich von Interesse, dafür sind die Tesla bzw. Firestream Karten da.

dargo
2009-05-19, 11:12:25
Der Preis wird davon abhängen wie nah ATI dem GT300 kommt. Sollte ATI einen X850 anbieten, der bei 1,5x GTX275 liegt und für <200$ kommt, dann wird NV mit ihrer DX11 Variante nicht über 250$ liegen können.

Imho ist es gerade für NV entscheidend die Performancekarte schnellstens auf den Markt zu bringen.
Jep, so sehe ich das auch. Wir wissen alle was mit den G80-Preisen passiert ist als die Konkurrenz ankam.


Naja, man solllte nicht vergessen, was es heute schon im Preisbereich <300€ an Leistung gibt.

Wenn man davon ausgeht dass die "GTX-Version" etwa 2x GTX 285 sein wird, dann könnte eine "GTS-Version" unter der Betrachtung der Vergangenheit wohl irgendwo bei 1,35-1,6x GTX 285 liegen, wo im unteren Bereich dieses Spektrum wohl auch ein RV870XT für $299 liegen könnte, sodass NV nicht großartig über 300€ gehen kann.

Schön wärs ja. :) Wobei ich mich nur auf ein 2GB Vram Modell konzentriere was wiederum etwas mehr kosten wird. Naja... schauen wir mal.

Spasstiger
2009-05-19, 11:22:49
Wo findet eigentlich das Tonemapping statt, in den ROPs?

Und welche Pixelfüllrate wird im Worst-Case bei gegebener Speicherbandbreite benötigt? Kann man das wie folgt ausrechnen?
Pro ROP-Partition und ROP-Takt kann das Speicherinterface 64 * Datenrate/ROP-Takt [bit] wegschreiben. Wenn die ROPs fp32-Werte schreiben, fallen bei x Pixeln pro ROP-Einheit und ROP-Takt x*4*32 bit = x*128 bits an.
Das optimale Verhältnis wäre ja da dann x=Datenrate/ROP-Takt, im Falle des GT300-Samples also 4400/700=6,3. D.h. 4 Pixel pro ROP-Einheit und Takt wären etwas unterdimensioniert für den Worstcase, 8 Pixel pro ROP-Einheit und Takt aber eher überdimensioniert.

reunion
2009-05-19, 12:33:08
GT200 hat 256x Z-Tester. G80 hat 192x. Die Z-Fill reicht. Die ist eher überdimensioniert. Schon seit G80. Der Flaschenhals liegt woanders. Ich vermute bis heute im Trisetup. Und genau das scheint ja nun auch aufgebohrt zu werden.

Die Z-Füllrate liegt in der Praxis mit MSAA nicht sonderlich über dem einer AMD-Karte, mit 8xMSAA sogar darunter AFAIK.

robbitop@work
2009-05-19, 12:56:40
Die Z-Füllrate liegt in der Praxis mit MSAA nicht sonderlich über dem einer AMD-Karte, mit 8xMSAA sogar darunter AFAIK.
Dass die Rohleistung nicht auf die Straße kommt, liegt nicht an der Rohleistung selbst sondern an etwas anderem. Die Rohleistung stumpf weiter zu erhöhen wäre sinnfrei. Man sollte den Flaschenhals an dem es liegt eliminieren. Und genau das wird man mit GT300 wohl auch tun.

Ailuros
2009-05-19, 13:31:00
GT200 hat 256x Z-Tester. G80 hat 192x. Die Z-Fill reicht. Die ist eher überdimensioniert. Schon seit G80. Der Flaschenhals liegt woanders. Ich vermute bis heute im Trisetup. Und genau das scheint ja nun auch aufgebohrt zu werden.

Nur hat sich die 8xMSAA Leistung in letzter Zeit um einiges gesteigert was eher auf beschissene Treiber-Optimierungen deutet fuer diesen Bereich als alles andere. Die These mit dem tri-setup wurde von NV off the record deutlich niedergeschlagen und das zu einem Zeitpunkt wo die es noch keine sichtbaren 8xMSAA Leistungssteigerungen gab. Demzufolge hab ich guten Grund ihnen auch zu glauben.

Um auf die ROPs zurueckzukommen da Arun's Reaktion auf die These einer Entbehrung der ff ROPs ziemlich negativ war auf B3D bleiben diese wohl stehen und es wuerde mich nicht wundern wenn sie gleichzeitig (je nach Fall) auch shader resolve benutzen werden.

Die Z-Füllrate liegt in der Praxis mit MSAA nicht sonderlich über dem einer AMD-Karte, mit 8xMSAA sogar darunter AFAIK.

Gibt es z-fill benchmarks mit den neuesten Treibern? (ehrliche Frage)

robbitop@work
2009-05-19, 13:37:33
Die These mit dem tri-setup wurde von NV off the record deutlich niedergeschlagen und das zu einem Zeitpunkt wo die es noch keine sichtbaren 8xMSAA Leistungssteigerungen gab. Demzufolge hab ich guten Grund ihnen auch zu glauben.
Dass das Rasterizing derzeit ein Flaschenhals ist, ist so klar wie Klosbrühe. :) Man schaue sich nur die Skalierungen zwischen G84, G94 und G80/92/GT200 an. Die Skalierung der Leistung mit der Anzahl der Cluster ist ab einem bestimmten Punkt unbefriedigend.

Warum man gerade soetwas Triviales soviel teuer erkaufte Rechenleistung kaputt machen lässt, ist mir jedoch unklar.

Ailuros
2009-05-19, 14:02:30
Dass das Rasterizing derzeit ein Flaschenhals ist, ist so klar wie Klosbrühe. :) Man schaue sich nur die Skalierungen zwischen G84, G94 und G80/92/GT200 an. Die Skalierung der Leistung mit der Anzahl der Cluster ist ab einem bestimmten Punkt unbefriedigend.

Und bei den Radeons ist der rasterizer heutzutage weniger oder mehr ein Flaschenhals so dass sich die Radeons eher mit 8x als mit 4xMSAA von den konkurrierenden GFs absetzen koennen?

Dass das rasterizing ein heutiger Flaschenhals fuer alle GPUs ist ist tatsaechlich nichts Neues; nur muessten auch Radeons ziemlich miserabel abschlagen mit 8xMSAA.

crux2005
2009-05-19, 14:09:53
Gibt es z-fill benchmarks mit den neuesten Treibern? (ehrliche Frage)

reichen die z-fill Ergebnisse aus dem Fillratetester?

Coda
2009-05-19, 14:27:46
GT200 hat 256x Z-Tester. G80 hat 192x. Die Z-Fill reicht. Die ist eher überdimensioniert. Schon seit G80. Der Flaschenhals liegt woanders. Ich vermute bis heute im Trisetup. Und genau das scheint ja nun auch aufgebohrt zu werden.
Ne das ist es nicht. Das Trisetup limitiert erst wenn du weniger als 1 Pixel pro Dreieck zeichnest.

Ich denke nach wie vor es ist das Datenformat bei 8xMSAA. Aber das habe ich ja schon mehrmals erzählt. Einfach zweimal über den Kompressor loopen und jeweils 4 Samples speichern. Würde vieles erklären.

Ailuros
2009-05-19, 14:42:35
reichen die z-fill Ergebnisse aus dem Fillratetester?

Welchen Fillrate-tester genau? Es reicht Resultate von den neuesten Treibern (mit 8xMSAA) zu haben die man mit oeffentlich erhaeltlichen aelteren Treiber-Resultaten vergleichen kann.

Gast
2009-05-19, 14:55:00
was haltet ihr von den aktuellen "fakten" oder besser gesagt gerüchte?

http://www.pcgameshardware.de/aid,684826/GT300-Erste-Details-zu-Takt-Speicherbandbreite-und-Shadereinheiten-der-Geforce-GTX-380/Grafikkarte/News/

das ist doch alles nur erfunden, vieleicht kommt es so oder es kommt halt eben nicht so...

gerade die taktraten halte ich doch für sehr unwahrscheinlich...

robbitop@work
2009-05-19, 14:58:48
Und bei den Radeons ist der rasterizer heutzutage weniger oder mehr ein Flaschenhals so dass sich die Radeons eher mit 8x als mit 4xMSAA von den konkurrierenden GFs absetzen koennen?

Dass das rasterizing ein heutiger Flaschenhals fuer alle GPUs ist ist tatsaechlich nichts Neues; nur muessten auch Radeons ziemlich miserabel abschlagen mit 8xMSAA.
Die Radeons haben in der Tat mehr Rasterleistung.

Ailuros
2009-05-19, 15:04:44
Die Radeons haben in der Tat mehr Rasterleistung.

Muss der Grund sein warum die Geruechte 32 Pixel/Takt fuer die naechste Generation vorsehen gell? Und nein direkt ist es nicht damit verbunden, aber indirekt dann schon. Denn wenn man die Pixel-Anzahl pro Takt auch verdoppelt stinkt es auch nach um einiges hoehere Raster-leistung wobei die momentanen 1Tri/Takt scheissegal sind.

crux2005
2009-05-19, 15:16:37
Welchen Fillrate-tester genau? Es reicht Resultate von den neuesten Treibern (mit 8xMSAA) zu haben die man mit oeffentlich erhaeltlichen aelteren Treiber-Resultaten vergleichen kann.

habe nur den, den CB.de auch benutzt (hatte), kp was für einen Namen er hat:
http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_nvidia_geforce_gtx_295/5/#abschnitt_theoretische_benchmarks

könnte aber benchs mit 8xMSAA machen - alte vs. neue Driver

ShadowXX
2009-05-19, 15:18:36
was haltet ihr von den aktuellen "fakten" oder besser gesagt gerüchte?

http://www.pcgameshardware.de/aid,684826/GT300-Erste-Details-zu-Takt-Speicherbandbreite-und-Shadereinheiten-der-Geforce-GTX-380/Grafikkarte/News/

das ist doch alles nur erfunden, vieleicht kommt es so oder es kommt halt eben nicht so...

gerade die taktraten halte ich doch für sehr unwahrscheinlich...
Wurde schon vor X-Seiten (und dazu auch noch gestern) gepostet: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7307825&postcount=754

robbitop@work
2009-05-19, 15:19:05
Muss der Grund sein warum die Geruechte 32 Pixel/Takt fuer die naechste Generation vorsehen gell?
Vieleicht missverstehen wir uns ja. Für mich ist Rasterleistung, wieviele Dreiecke ich pro Takt auf das Pixelraster übertragen kann. Nicht wieiviele Pixel ich pro Takt in den Framebuffer lesen oder schreiben kann. 32 Pixel pro Takt sagt ja auch noch nicht so viel aus. G80 kann z.B. nur 16x Alphablendings pro Takt oder 24 Colorsamples pro Takt in den Framebuffer schieben. Das allerdings (zumindest seitens der ROPs) für bis zu 8x MSAA. Und da das nur 1x Takt kostet, ist das auch nie und nimmer ein Bottleneck. Die Berechnung eines Pixels der dann mal in den Framebuffer geschoben wird, kostet um Größenordnungen mehr Takte.

Und nein direkt ist es nicht damit verbunden, aber indirekt dann schon. Denn wenn man die Pixel-Anzahl pro Takt auch verdoppelt stinkt es auch nach um einiges hoehere Raster-leistung wobei die momentanen 1Tri/Takt scheissegal sind.
Wenn man den Gesamtdurchsatz erhöhen will, muss man natürlich auch alle Bottlenecks entsprechend mitskalieren.

Ailuros
2009-05-19, 15:28:35
Natuerlich verstehen wir beide uns wieder nicht. Um beim eigentlichen Thema zu bleiben, das tri-setup limitiert bei G8x/Gt200 nicht fuer 8xMSAA.

robbitop@work
2009-05-19, 16:53:19
Natuerlich verstehen wir beide uns wieder nicht. Um beim eigentlichen Thema zu bleiben, das tri-setup limitiert bei G8x/Gt200 nicht fuer 8xMSAA.
Im Allgemeinen: Was limitiert sonst die Rasterleistung?
Im 8xMSAA Fall: Kann gut sein, dass meine Schätzung da daneben liegt. Aber der Hund liegt sicher nicht in der Z-Rohleistung begraben. :)

Coda
2009-05-19, 17:03:58
Im Allgemeinen: Was limitiert sonst die Rasterleistung?
Der Rasterizer. Es ist aber nicht die Rasterleistung die limitiert.

igg
2009-05-19, 17:31:07
Es ist aber nicht die Rasterleistung die limitiert.
Sondern?

Coda
2009-05-19, 18:03:37
Etwas anderes, wie gesagt glaube ich dass das Framebufferformat nicht so effizient ist wie bei ATI.

Ailuros
2009-05-19, 19:10:23
Im 8xMSAA Fall: Kann gut sein, dass meine Schätzung da daneben liegt. Aber der Hund liegt sicher nicht in der Z-Rohleistung begraben. :)


17/11/2007

8800GTX/163.75

Fear = 2560*1600/8xAA/16xAF = 10 fps

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_3870_rv670/16/#abschnitt_fear

29/07/2008

8800GTX/174.16

Fear = 2560*1600/8xAA/16xAF = 15 fps

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9500_gt_9800_gt/11/#abschnitt_fear

Und bevor jemand unspielbar schreit, auf den links oben in Fear fuer die 8800GTX:

17/11/07 = 1600/8xAA = 37 fps
29/07/08 = 1600/8xAA = 54 fps

Es muss erstmal eine logische Erklaerung geben fuer die Leistungssteigerungen durch Treiber die fast niemand wargenommen hat durch die Zeit.

Uebrigens war nur die 4xMSAA quasi miserabel auf der 2900XT, hingegen deren 8xMSAA war stets mehr als nur konkurrenzfaehig. Ich hab nicht die blasseste Ahnung was ATI angestellt hat seither, aber mir als Laie riecht es eher danach als ob ATI stets mit shader resolve unter 8xMSAA herumfuchteln koennte als alles andere.

Es wuerde mich kein bisschen wundern wenn auch NV bei ihrer D3D11 Generation shader resolve da benutzt wo es am meisten Sinn macht.

robbitop
2009-05-19, 21:24:23
Etwas anderes, wie gesagt glaube ich dass das Framebufferformat nicht so effizient ist wie bei ATI.
Ich meine ja auch nicht unbedingt die 8xMSAA Limitierung. Sondern dass die Skalierung mit den Einheiten ab G94 stark abnimmt.

LovesuckZ
2009-05-19, 21:32:58
Es hat sich "auch" nur die Rechen- und Texturleistung verdoppelt. Der Rest ist auf dem selben Niveau wie bei einer 8800GTS-512 Karte.
Sollten die Spekulationen stimmen, verdoppelt der GT300 auch die Pixel-Fillrate und die Bandbreite. Demnach hat man hier schonmal zwei Hälse stark erweitert, die beim G92 -> G94 gleichgeblieben sind.

crux2005
2009-05-19, 22:36:59
Intel Core i7 920 @ 3,8GHz
6GiB RAM
Vista 64bit Ultimate
habe die GeForce GTX 280 benutzt, da der GF 178.13 WHQL die GTX 295 nicht offiziel ünterschtützt

settings im Treiber waren gleich - Quality, clamp, force-tri etc.

185.85 WHQL:

Fillrate Tester
--------------------------
Display adapter: NVIDIA GeForce GTX 280
Driver version: 8.15.11.8585
Display mode: 1920x1200 A8R8G8B8 60Hz
Z-Buffer format: D24S8
--------------------------

FFP - Pure fillrate - 16657.580078M pixels/sec
FFP - Z pixel rate - 8656.762695M pixels/sec
FFP - Single texture - 16609.466797M pixels/sec
FFP - Dual texture - 16443.251953M pixels/sec
FFP - Triple texture - 13129.007813M pixels/sec
FFP - Quad texture - 10135.908203M pixels/sec
PS 1.1 - Simple - 16677.439453M pixels/sec
PS 1.4 - Simple - 16686.304688M pixels/sec
PS 2.0 - Simple - 16656.761719M pixels/sec
PS 2.0 PP - Simple - 16656.976563M pixels/sec
PS 2.0 - Longer - 15186.095703M pixels/sec
PS 2.0 PP - Longer - 15185.977539M pixels/sec
PS 2.0 - Longer 4 Registers - 14862.931641M pixels/sec
PS 2.0 PP - Longer 4 Registers - 14861.430664M pixels/sec
PS 2.0 - Per Pixel Lighting - 5819.579590M pixels/sec
PS 2.0 PP - Per Pixel Lighting - 5819.355469M pixels/sec


178.13 WHQL:

Fillrate Tester
--------------------------
Display adapter: NVIDIA GeForce GTX 280
Driver version: 7.15.11.7813
Display mode: 1920x1200 A8R8G8B8 60Hz
Z-Buffer format: D24S8
--------------------------

FFP - Pure fillrate - 15782.054688M pixels/sec
FFP - Z pixel rate - 8518.432617M pixels/sec
FFP - Single texture - 15725.149414M pixels/sec
FFP - Dual texture - 15584.123047M pixels/sec
FFP - Triple texture - 12547.565430M pixels/sec
FFP - Quad texture - 9788.812500M pixels/sec
PS 1.1 - Simple - 15781.451172M pixels/sec
PS 1.4 - Simple - 15781.962891M pixels/sec
PS 2.0 - Simple - 15782.487305M pixels/sec
PS 2.0 PP - Simple - 15782.200195M pixels/sec
PS 2.0 - Longer - 14444.184570M pixels/sec
PS 2.0 PP - Longer - 14442.952148M pixels/sec
PS 2.0 - Longer 4 Registers - 14124.010742M pixels/sec
PS 2.0 PP - Longer 4 Registers - 14124.032227M pixels/sec
PS 2.0 - Per Pixel Lighting - 5674.130371M pixels/sec
PS 2.0 PP - Per Pixel Lighting - 5672.453613M pixels/sec


also kein so großer unterschied
bei Fablemark @ 1920x1200, 8xMSAA war kein unterschied (63,9 FPS) zwischen 178.13 WHQL vs. 185.85 WHQL

Spasstiger
2009-05-20, 00:11:25
@crux2005: Die "Z pixel rate" ist bei meiner Radeon HD 2900 Pro bei gleichen Einstellungen mehr als doppelt so hoch wie bei deiner GeForce GTX 280, habe dort 19775 MPixel/s. Kann das wirklich sein?

mapel110
2009-05-20, 00:16:35
Kommt wohl hin, Spasstiger. Ich hab bei meiner GTX 260 ca. 50000 MTexel/s bei 1680x1050.

Spasstiger
2009-05-20, 00:26:11
Kommt wohl hin, Spasstiger. Ich hab bei meiner GTX 260 ca. 50000 MTexel/s bei 1680x1050.
Auch mit 8xMSAA?
Mich wundert, dass die Füllraten bei mir mit jeder AA-Stufe gleich bleiben. Dabei sind die ROPs des R600 doch nur bis 4xMSAA optimiert.
Übrigens läuft meine Radeon HD 2900 Pro mit 700 MHz Chiptakt, das macht eine theoretische maximale z-Füllrate von 22400 MZixel/s.

ShadowXX
2009-05-20, 00:26:40
Ich hab mit ner 260GTX (ab Werk-OCed) als Z pixel rate 9426.377930M pixels/sec @1920x1080 mit 8xMSAA (HQ. Treiber ist 185.85).

Ohne MSAA sind es 74675.664063M pixels/sec.....was fast genau dem 8fachen entspricht.

mapel110
2009-05-20, 00:29:39
Auch mit 8xMSAA?

Mit 8xAA sinds nur noch 6500. Aber auch alle anderen Werte sacken dann ab und es kommt ein Bruchteil der Ergebnisse raus, die crux2005 hat.

ShadowXX, sicher, dass du 8xQ angewählt hast? Also reines 8xMSAA?


Fillrate Tester
--------------------------
Display adapter: NVIDIA GeForce GTX 260
Driver version: 7.15.11.8581
Display mode: 1680x1050 R5G6B5 60Hz
Z-Buffer format: D24S8
--------------------------

FFP - Pure fillrate - 11387.991211M pixels/sec
FFP - Z pixel rate - 50051.945313M pixels/sec
FFP - Single texture - 11159.743164M pixels/sec
FFP - Dual texture - 11148.667969M pixels/sec
FFP - Triple texture - 10488.915039M pixels/sec
FFP - Quad texture - 7924.590332M pixels/sec
PS 1.1 - Simple - 11154.642578M pixels/sec
PS 1.4 - Simple - 11157.196289M pixels/sec
PS 2.0 - Simple - 11152.584961M pixels/sec
PS 2.0 PP - Simple - 11154.898438M pixels/sec
PS 2.0 - Longer - 11155.722656M pixels/sec
PS 2.0 PP - Longer - 11156.245117M pixels/sec
PS 2.0 - Longer 4 Registers - 11179.093750M pixels/sec
PS 2.0 PP - Longer 4 Registers - 11156.268555M pixels/sec
PS 2.0 - Per Pixel Lighting - 4302.731934M pixels/sec
PS 2.0 PP - Per Pixel Lighting - 4302.229492M pixels/sec





Fillrate Tester
--------------------------
Display adapter: NVIDIA GeForce GTX 260
Driver version: 7.15.11.8581
Display mode: 1680x1050 R5G6B5 60Hz
Z-Buffer format: D24S8
--------------------------

FFP - Pure fillrate - 3134.038086M pixels/sec
FFP - Z pixel rate - 6319.944336M pixels/sec
FFP - Single texture - 2550.713379M pixels/sec
FFP - Dual texture - 2551.047119M pixels/sec
FFP - Triple texture - 2551.438477M pixels/sec
FFP - Quad texture - 2550.024902M pixels/sec
PS 1.1 - Simple - 2550.777344M pixels/sec
PS 1.4 - Simple - 2552.016357M pixels/sec
PS 2.0 - Simple - 2551.321045M pixels/sec
PS 2.0 PP - Simple - 2550.121338M pixels/sec
PS 2.0 - Longer - 2550.151367M pixels/sec
PS 2.0 PP - Longer - 2551.968506M pixels/sec
PS 2.0 - Longer 4 Registers - 2551.848877M pixels/sec
PS 2.0 PP - Longer 4 Registers - 2550.236816M pixels/sec
PS 2.0 - Per Pixel Lighting - 2429.092529M pixels/sec
PS 2.0 PP - Per Pixel Lighting - 2428.734619M pixels/sec





Fillrate Tester
--------------------------
Display adapter: NVIDIA GeForce GTX 260
Driver version: 7.15.11.8581
Display mode: 1680x1050 R5G6B5 60Hz
Z-Buffer format: D24S8
--------------------------

FFP - Pure fillrate - 15216.906250M pixels/sec
FFP - Z pixel rate - 65483.257813M pixels/sec
FFP - Single texture - 14844.549805M pixels/sec
FFP - Dual texture - 14814.304688M pixels/sec
FFP - Triple texture - 13945.378906M pixels/sec
FFP - Quad texture - 10559.803711M pixels/sec
PS 1.1 - Simple - 14830.447266M pixels/sec
PS 1.4 - Simple - 14833.473633M pixels/sec
PS 2.0 - Simple - 14833.700195M pixels/sec
PS 2.0 PP - Simple - 14831.797852M pixels/sec
PS 2.0 - Longer - 14822.904297M pixels/sec
PS 2.0 PP - Longer - 14834.044922M pixels/sec
PS 2.0 - Longer 4 Registers - 14830.148438M pixels/sec
PS 2.0 PP - Longer 4 Registers - 14832.171875M pixels/sec
PS 2.0 - Per Pixel Lighting - 5630.554199M pixels/sec
PS 2.0 PP - Per Pixel Lighting - 5632.507324M pixels/sec




Fillrate Tester
--------------------------
Display adapter: NVIDIA GeForce GTX 260
Driver version: 7.15.11.8581
Display mode: 1680x1050 R5G6B5 60Hz
Z-Buffer format: D24S8
--------------------------

FFP - Pure fillrate - 4004.738281M pixels/sec
FFP - Z pixel rate - 8448.690430M pixels/sec
FFP - Single texture - 3411.603516M pixels/sec
FFP - Dual texture - 3408.073730M pixels/sec
FFP - Triple texture - 3408.436768M pixels/sec
FFP - Quad texture - 3410.051514M pixels/sec
PS 1.1 - Simple - 3410.601074M pixels/sec
PS 1.4 - Simple - 3410.424072M pixels/sec
PS 2.0 - Simple - 3405.826660M pixels/sec
PS 2.0 PP - Simple - 3409.399902M pixels/sec
PS 2.0 - Longer - 3406.069092M pixels/sec
PS 2.0 PP - Longer - 3408.396484M pixels/sec
PS 2.0 - Longer 4 Registers - 3407.810547M pixels/sec
PS 2.0 PP - Longer 4 Registers - 3408.096924M pixels/sec
PS 2.0 - Per Pixel Lighting - 3239.602783M pixels/sec
PS 2.0 PP - Per Pixel Lighting - 3240.236084M pixels/sec

Spasstiger
2009-05-20, 00:34:07
Wenn ich den R600 richtig verstanden habe, sollte er bei 8xMSAA eigentlich nur noch eine z-Füllrate von maximal 11200 MPixel/s @ 700 MHz schaffen /EDIT: Ne, müssten eigentlich 64/8*700=5600 MPixel/s sein.
Da bei mir auch die Color-Füllrate nicht absackt beim Zuschalten von 8xMSAA, scheint da wohl was schiefzulaufen.

Die realen Füllraten des GT200 sind aber so oder so nicht der Hit, wenn man mit den theoretischen Werten vergleicht. Mit 8xMSAA sollte eine GTX 260 theoretisch immer noch eine z-Füllrate von 28*576 MPixel/s = 16128 MPixel/s erreichen. Praktisch sinds nur 6320 MPixel/s.

Ohne MSAA sind es 74675.664063M pixels/sec.....was fast genau dem 8fachen entspricht.
Theoretisch könnte die GTX 260 mit Standardtakt bis zu 129 GPixel/s an z-Füllrate raushauen, wenn die Speicherbandbreite nicht limitiert.

Ailuros
2009-05-20, 08:29:01
Auch mit 8xMSAA?
Mich wundert, dass die Füllraten bei mir mit jeder AA-Stufe gleich bleiben. Dabei sind die ROPs des R600 doch nur bis 4xMSAA optimiert.
Übrigens läuft meine Radeon HD 2900 Pro mit 700 MHz Chiptakt, das macht eine theoretische maximale z-Füllrate von 22400 MZixel/s.

Single cycle 2xMSAA.

***edit: uebrigens nachdem Demirug sagte dass MDolenc's Fillrate Tester einen Overdraw Faktor von 32.0 benutzt, bin ich mir gar nicht so sicher dass das Ding ueberhaupt aussagekraeftig ist fuer solche Faelle. Der insgesamte Overdraw Faktor in heutigen Spielen duerfte auesserst selten auf Faktor 7.0 reichen, wobei afaik opague overdraw aus verstaendlichen Gruenden nie die 2.0-2.5x Grenze ueberschreiten duerfte.


Sollten die Spekulationen stimmen, verdoppelt der GT300 auch die Pixel-Fillrate und die Bandbreite. Demnach hat man hier schonmal zwei Hälse stark erweitert, die beim G92 -> G94 gleichgeblieben sind.

Ueber die Bandbreite bin ich mir ziemlich sicher, die Pixelfuellrate ist immer noch mit Fragezeichen. Jegliche Erweiterungen der beiden haben aber nichts direkt mit MSAA-Leistung zu tun, sondern werden hoechstwahrscheinlich ein quasi logisches Ergebnis der Erhoehung des Parallelismus beim rasterizing sein. Performance GPUs wie G92 haben verstaendlicherweise einen kastrierten MC welches aber auch nicht in Zukunft fuer die G3x0 mainstream GPUs aendern wird stets im Vergleich zu high end G300.

robbitop@work
2009-05-20, 09:07:11
Auch mit 8xMSAA?
Mich wundert, dass die Füllraten bei mir mit jeder AA-Stufe gleich bleiben. Dabei sind die ROPs des R600 doch nur bis 4xMSAA optimiert.
So war es geplant. Real waren sie dann aber doch nur bis 2xMSAA optimiert. Es sind 32x Z-Tester statt 64x.

G80 hat 192x Z-Tester. Allerdings nur 24x ROPs. Möglich ist 24x Alphablending, 24x Color, 192x Z (only - abfallend mit AA)

Warum er das nicht auf die Straße bringt, ist bei diesem hohen Transistoraufwand ziemlich seltsam.


Übrigens läuft meine Radeon HD 2900 Pro mit 700 MHz Chiptakt, das macht eine theoretische maximale z-Füllrate von 22400 MZixel/s.
R600 hat 16x ROPs. Kann also 16x Z + 16x Color (1xAA und 2xAA) fahren. Es kann auch sein, dass R600 diese Optimierung hat, dass 32x Z + 0x Color gehen. In dem Falle wären es wirklich 22400 MZ/s.

crux2005
2009-05-20, 11:44:42
***edit: uebrigens nachdem Demirug sagte dass MDolenc's Fillrate Tester einen Overdraw Faktor von 32.0 benutzt, bin ich mir gar nicht so sicher dass das Ding ueberhaupt aussagekraeftig ist fuer solche Faelle. Der insgesamte Overdraw Faktor in heutigen Spielen duerfte auesserst selten auf Faktor 7.0 reichen, wobei afaik opague overdraw aus verstaendlichen Gruenden nie die 2.0-2.5x Grenze ueberschreiten duerfte.

eine bessere Alternative? (ehrliche Frage)

Ailuros
2009-05-20, 11:53:01
eine bessere alternative? (erliche frage)

Deine Lust Treiber rein und rauszuschmeissen ist bemerkenswert; ich waere viel zu faul dazu. Probier es mal mit FEAR obwohl ich mir nicht sicher bin, ob sie irgend etwas fuer dieses angestellt haben. Es reicht ein Spiel mit enormer Z Last dass heute noch gebencht wird, das aber auch 8xMSAA erlaubt. Momentan faellt mir keines ein. Fuer aeltere Spiele wie FEAR haben sie wohl schwer etwas im Treiber fuer GT200 geaendert. Auf jeden Fall war die bis zu 50% Steigerung auf G80 in Fear schwer zu uebersehen, obwohl unspielbar.

Spasstiger
2009-05-20, 14:16:13
So war es geplant. Real waren sie dann aber doch nur bis 2xMSAA optimiert. Es sind 32x Z-Tester statt 64x.
In den 2900-XT-Reviews liest man überall, dass es 64 Z-Tester sein sollen, wobei nur maximal 32 Z-Werte in einem Takt geschrieben werden können. Das entspricht ja dann auch einer Optimierung auf 2xMSAA. Leider scheint der Fillrate-Tester bei meiner HD 2900 Pro das MSAA nicht zu übernehmen, deshalb kann ich das nicht selbst nachprüfen. Die 19,x MPixel/s beim Z-Füllratentest sprechen aber ganz klar für max. 32 Z-Writes pro Takt.

/EDIT: Warum bricht die GTX 285 in Stalker Clear Sky @2560x1600 mit 4xMSAA so stark gegenüber der HD 4870 1 GiB bzw. HD 4890 ein?
http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_ati_radeon_hd_4890_nvidia_geforce_gtx_275/19/#abschnitt_stalker_clear_sky
Liegt das einzig und allein am Speichermanagement? Und wenn ja, ist zu erwarten, dass das Problem beim GT300 beseitigt wurde? Oder wird sich NV da einfach auf die VRAM-Keule (2 GiB) verlassen?

robbitop@work
2009-05-20, 14:42:55
In den 2900-XT-Reviews liest man überall, dass es 64 Z-Tester sein sollen,
Ja inklusive meinem eigenen. ATI hat damals die Katze erst später aus dem Sack gelassen.

AnarchX
2009-05-20, 19:15:03
Die Quellen von Digitimes bestätigen nun auch das Tape-Out von GT300:
[...]Nvidia has recently completed the tape-out of its next-generation (GT300) GPU on TSMC's 40nm process, indicated the sources.

Nvidia has also expressed interest in becoming an initial client of TSMC's 28nm process, which will start initial production in first-quarter 2010, the sources noted.[...]
http://www.digitimes.com/news/a20090520PD211/nvidia_to_increase_40nm_orders_with_tsmc_for_2009.html

Letzeres könnte dann wohl auf einen 28nm GT300-Refresh im H2 hindeuten, wo dann High-K interessantes Potential bieten könnte.
Ansonsten wird man wohl für den ersten Schwung an kleineren GT3x0 eher auf TSMCs "40nm Upgrade" 32nm setzen.

KonKorT
2009-05-20, 19:24:57
Kann man denn schon gänzlich ausschließen, dass Nvidia bei 32 Nanometer nicht bereits zu Globalfoundries schielt?

AnarchX
2009-05-20, 19:52:25
Kann man denn schon gänzlich ausschließen, dass Nvidia bei 32 Nanometer nicht bereits zu Globalfoundries schielt?
Ausschließen sollte man das wohl nicht, fraglich nur ob man da Chips fertigen lässt, die in direkter Konkurrenz zu Produkten vom zweitgrößten Anteileigner stehen. Interessant ist GF 32nm ja, da hier schon High-K angeboten wird.

Gipsel
2009-05-21, 00:42:00
Ausschließen sollte man das wohl nicht, fraglich nur ob man da Chips fertigen lässt, die in direkter Konkurrenz zu Produkten vom zweitgrößten Anteileigner stehen. Interessant ist GF 32nm ja, da hier schon High-K angeboten wird.
Sind die Daten von GFs bulk Prozeß wirklich schon bekannt?
Gerade mal gesucht, also zumindest haben sie verlauten lassen, high-K metal gates zu benutzen. Aber irgendwelche vergleichbare Performance-Daten habe ich auf die Schnelle nicht gefunden. Weiß irgendwer da was?

KonKorT
2009-05-21, 02:55:05
Ausschließen sollte man das wohl nicht, fraglich nur ob man da Chips fertigen lässt, die in direkter Konkurrenz zu Produkten vom zweitgrößten Anteileigner stehen. Interessant ist GF 32nm ja, da hier schon High-K angeboten wird.
Genau das habe ich letztens einen AMD-Mitarbeiter gefragt. Er sieht da keinerlei Probleme und verweist darauf, dass AMD- und Nvidia-Chips zurzeit auch beim selben Auftragsfertiger vom Band laufen, nämlich TSMC, und dass hier eh schon jeder alles vom anderen weiß.
Nachdem TSMC 40 nm in den Sand gesetzt hat, kann ich mir gut vorstellen, dass Nvidia zumindest mal Globalfoundries testet und somit möglicherweise auch kurzzeitig zweigleisig fährt, wie man es in der Vergangenheit auch schön öfters mit UMC getan hat. Aber gut, Beweise kann ich dafür keine hervorbringen.

igg
2009-05-21, 08:28:33
Es mag zwar stimmen, dass bei TSMC jeder was vom anderen weiß - bei GF sehe ich aber die Gefahr, dass nur AMD von NV weiß.

crux2005
2009-05-21, 13:47:41
Deine Lust Treiber rein und rauszuschmeissen ist bemerkenswert; ich waere viel zu faul dazu. Probier es mal mit FEAR obwohl ich mir nicht sicher bin, ob sie irgend etwas fuer dieses angestellt haben. Es reicht ein Spiel mit enormer Z Last dass heute noch gebencht wird, das aber auch 8xMSAA erlaubt. Momentan faellt mir keines ein. Fuer aeltere Spiele wie FEAR haben sie wohl schwer etwas im Treiber fuer GT200 geaendert. Auf jeden Fall war die bis zu 50% Steigerung auf G80 in Fear schwer zu uebersehen, obwohl unspielbar.

FEAR habe ich jetzt nicht auf dem Rechner... und war anderes ist auch mir nicht eingefallen ;)

du glaubst also, das es nur Gamebedingte 8xMSAA "optimierungen" sind?

Ailuros
2009-05-21, 14:17:03
FEAR habe ich jetzt nicht auf dem Rechner ... und war anderes ist auch mir nicht eingefallen ;)

du glaubst also, das es nur Gamebedigte 8xMSAA "optimierungen" sind?

Kann durchaus sein obwohl ich mir darueber natuerlich nicht sicher bin.

Ailuros
2009-05-22, 10:13:35
http://www.brightsideofnews.com/news/2009/5/18/nvidia-geforce-gtx380-clocks-leak-out.aspx

Stimmt zwar nicht alles, aber einiges schon.

dargo
2009-05-22, 10:27:37
Ich hätte echt nicht gedacht, dass wir 2009 schon an die 300GB/s Bandbreite kommen. Mit einer OC GTX380 wird das sicherlich der Fall sein.

KonKorT
2009-05-22, 10:34:29
Stimmt zwar nicht alles, aber einiges schon.
Was soll denn nicht stimmen? 7 bis 10-mal so hohe Double-Precision-Performance?

igg
2009-05-22, 10:51:19
Die Taktraten klingen etwas enttäuschend - bleibt zu hoffen, dass die nicht den gesamten G300 ausbremsen und den Abstand zum RV870 verkleinern

reunion
2009-05-22, 10:52:38
Das Ding ist eben auf Verbrauch optimiert.

Spasstiger
2009-05-22, 10:54:10
Eine 7-10-mal so hohe DP-Performance wie bei der GTX 280 würde ja bedeuten, dass man bei 1600 MHz rund 170-240 DP-MADD-Einheiten bräuchte.
Erreichen könnte man das dadurch, dass man 256-DP-MADDs verbaut, die auch wie 512 SP-MADDs fungieren können. Aber bei 2,4 Mrd. Transistoren kann ich mir das nur schwer vorstellen zumal 3D-Spiele keinerlei Nutzen von der DP-Fähigkeit haben.
Evtl. ist auch nur eine Performancesteigerung bei einem bestimmten Szenario gemeint, wo der GT200 aufgrund irgendwelcher Flaschenhälse z.B. nur auf 20 GFlops kommt und der GT300 dann auf 200 GFlops.

Die Taktraten klingen etwas enttäuschend
Die Taktraten entsprechen genau dem, was ich erwartet habe (Chip- und Shadertakt = 100% Übereinstimmung, den Speichertakt hatte ich 100 MHz niedriger angesetzt).

LovesuckZ
2009-05-22, 10:57:46
Die Taktraten klingen etwas enttäuschend - bleibt zu hoffen, dass die nicht den gesamten G300 ausbremsen und den Abstand zum RV870 verkleinern

Das Ding hat eine Milliarde Transistoren zusätzlich und dabei selbst höhrere Taktraten als eine GTX285.
Die 8800GTX war deutlich niedriger getaktet als die 7900GTX, die GTX280 ist deutlich niedriger getaktet als die 9800gtx. Das ist das erste Mal seit langen, das ein "nicht refresh Chip" mit höhreren Taktraten von nVidia erscheint.

dargo
2009-05-22, 11:06:16
Die Taktraten klingen etwas enttäuschend - bleibt zu hoffen, dass die nicht den gesamten G300 ausbremsen und den Abstand zum RV870 verkleinern
Was soll denn daran enttäuschend sein?

Die Speicherbandbreite hat man gegenüber dem GT200 verdoppelt. Daraus kann ich ungefähr schon erahnen in welche Richtung es geht (ich tippe auf mindestens GT200 *2). Aus Spaß an der Freude wird NV sicherlich keinen 1,1Ghz GDDR5 vorsehen. Die Alu-Leistung hat man gegenüber dem GT200 um einen Faktor von ~2,6 erhöht wenn man jetzt mal von den nackten Zahlen ausgeht. In der Praxis würde ich hier auf Faktor ~3 tippen. Wenn das ungefähr zutrifft und der Stromverbrauch wirklich moderat ausfallen wird wie Ail angedeutet hat dann hat NV hier hervorragende Arbeit geleistet.

reunion
2009-05-22, 11:10:55
Eine 7-10-mal so hohe DP-Performance wie bei der GTX 280 würde ja bedeuten, dass man bei 1600 MHz rund 170-240 DP-MADD-Einheiten bräuchte.
Erreichen könnte man das dadurch, dass man 256-DP-MADDs verbaut, die auch wie 512 SP-MADDs fungieren können. Aber bei 2,4 Mrd. Transistoren kann ich mir das nur schwer vorstellen zumal 3D-Spiele keinerlei Nutzen von der DP-Fähigkeit haben.
Evtl. ist auch nur eine Performancesteigerung bei einem bestimmten Szenario gemeint, wo der GT200 aufgrund irgendwelcher Flaschenhälse z.B. nur auf 20 GFlops kommt und der GT300 dann auf 200 GFlops.

NV wird mit an Sicherheit grenzender Wahrscheinlichkeit keine separaten DP-Einheiten mehr verbauen. Das war bei GT200 bestenfalls eine Husch-Pfusch-Aktion, mehr nicht.

Ailuros
2009-05-22, 11:21:28
Was soll denn nicht stimmen? 7 bis 10-mal so hohe Double-Precision-Performance?

According to information we had, nVidia firstly clocked the at 1:1 ratio with GeForce GTX280 for a baseline comparison. If the leaked informationis true and those clocks remain final, that would mean GTX380 missed it targeted clock by a double-digit percentage.

Bloedsinn.

Was die DP Leistung betrifft eine solche Steigerung waere nur moeglich wenn es keine getrennte Einheiten mehr gibt und fuer DP generell ist mir momentan rein gar nichts bekannt.

Die Taktraten klingen etwas enttäuschend - bleibt zu hoffen, dass die nicht den gesamten G300 ausbremsen und den Abstand zum RV870 verkleinern

Unter normalen Umstaenden bei jeder neuen Generation und hoeherer Chip-komplexitaet sind die Frequenzen entweder gleich so gross wie beim Vorgaenger oder manchmal sogar niedriger. Diesmal sind die Frequenzen um einiges hoeher; ich kann bei bestem Willen nicht verstehen was daran enttaeuschend sein soll.

Sammlung der bisherigen Geruechte:

495mm2@40nm
~2.4 Mrd. Transistoren
512 SPs (MADD+MUL/SP?)@1600MHz = 2.458 TFLOPs/s
128 TMUs (?) * 700MHz = 89.6 GTexels/s
1100MHz GDDR5@512bit = 281.6 GB/s
Stromverbrauch bis zu ~15% weniger als 285

NV wird mit an Sicherheit grenzender Wahrscheinlichkeit keine separaten DP-Einheiten mehr verbauen. Das war bei GT200 bestenfalls eine Husch-Pfusch-Aktion, mehr nicht.

IMHLO waere es eher logisch wenn sie keine getrennten DP Einheiten mehr haben. Bis jetzt beharren sie stur dass die getrennten Einheiten insgesamt effizienter sind, wobei ich mir aber nicht im klaren bin ob es sich hier lediglich um eine Verteidigung der heutigen GT200 handelt.

LovesuckZ
2009-05-22, 11:23:44
Das kann auch garnicht richtig sein, da bei 2,64 facher ALU-Zahl, doppelter Brandbreite und eventuell doppelter ROP Anzahl 3/4 der Limitierungsfaktoren sich verdoppelt haben.

KonKorT
2009-05-22, 11:26:26
Was ist deiner Meinung nach das andere Viertel?

LovesuckZ
2009-05-22, 11:30:46
Texturleistung.

KonKorT
2009-05-22, 11:39:01
Achso, du meintest generell potentielle Limitierungsfaktoren, ja? Dachte, dass dies auf die heutige GT200-Architektur bezogen wäre, deswegen hatte mich auch schon gewundert, dass Du die Speicherbandbreite als "Limitierungsfaktor" anführst.

Ailuros
2009-05-22, 11:41:12
Texturleistung.

Tatsaechlich; nur sind eben TMUs (angenommen zumindest auf GT200 Nivaeu + fetch4) verdammt teuer.

Teil Dir selber die 512SPs auf cluster auf und sag mir ob sich die Anzahl durch etwas anderes als 8, 16, 32 usw. teilen laesst. Eventuell waeren hypothetisch 32 cluster erstmal 256 TMUs und auch ein Rueckschritt auf 2*8 pro cluster.

Wie waere es mit einem halbwegs logischen Gegenvorschlag?

Gast
2009-05-22, 11:45:06
Unter normalen Umstaenden bei jeder neuen Generation und hoeherer Chip-komplexitaet sind die Frequenzen entweder gleich so gross wie beim Vorgaenger oder manchmal sogar niedriger. Diesmal sind die Frequenzen um einiges hoeher; ich kann bei bestem Willen nicht verstehen was daran enttaeuschend sein soll.


dito

AnarchX
2009-05-22, 11:47:30
Wer mit den Referenztaktraten unzufrieden ist, kann ja immernoch zur Werks-OC-Version des Herstellers seines Vertrauens greifen.

Bei dem eher niedrigen Verbrauch und dem 0.4ns Speicher @1.1GHz dürfte hier wohl noch einiges an Potential bestehen: ~780/1800/1200MHz.
Damit kommen dann nochmal gute 10% hinzu.

Womit dann sicherlich 3-fache Leistung in einigen (D3D10.1)-Titeln möglich sein könnte, gegenüber einer GTX 28x.

LovesuckZ
2009-05-22, 11:50:29
Tatsaechlich; nur sind eben TMUs (angenommen zumindest auf GT200 Nivaeu + fetch4) verdammt teuer.

Teil Dir selber die 512SPs auf cluster auf und sag mir ob sich die Anzahl durch etwas anderes als 8, 16, 32 usw. teilen laesst. Eventuell waeren hypothetisch 32 cluster erstmal 256 TMUs und auch ein Rueckschritt auf 2*8 pro cluster.

Wie waere es mit einem halbwegs logischen Gegenvorschlag?

Wenn es wirklich 512 SP sind, dann bleibt nur der Weg über 16 Cluster mit je 4x8 SP und 1x8 TF/TA übrig. Und dann sind 128 TMUs sehr überraschend, da dies doch eine sehr erhebliche Steigerung der Texturleistung ist - immerhin erhöhte man beim GT200 die ALU-Einheiten um 1,875 und die Textureinheiten nur um 1,25. Jetzt wäre man bei 2,1 und 1,6.

AnarchX
2009-05-22, 11:56:08
Die absolute Texturleistung mag zwar stark steigen, aber die relative Texturleistung pro ALU-Leistung sinkt jedoch.

Gegenüber G80 ist es ja fast eine Verdopplung von 14 FLOPs/Tex auf 27,5 FLOPs/Tex und gegenüber den 20,5 FLOPs/Tex eines G200b immernoch eine erhebliche Steigerung.
Und hier reden wir ja rein von der Peak-Werten, wo G300 wohl in der Praxis noch näher am Peak liegen könnte als seine Vorgänger.

dargo
2009-05-22, 11:58:16
Womit dann sicherlich 3-fache Leistung in einigen (D3D10.1)-Titeln möglich sein könnte, gegenüber einer GTX 28x.
Stimmt... diesen Vorteil habe ich noch gar nicht bedacht.

Ailuros
2009-05-22, 11:58:39
Wenn es wirklich 512 SP sind, dann bleibt nur der Weg über 16 Cluster mit je 4x8 SP und 1x8 TF/TA übrig.

Es sind 512 SPs.

Und dann sind 128 TMUs sehr überraschend, da dies doch eine sehr erhebliche Steigerung der Texturleistung ist - immerhin erhöhte man beim GT200 die ALU-Einheiten um 1,875 und die Textureinheiten nur um 1,25. Jetzt wäre man bei 2,1 und 1,6.

G80 vs GT200 vs. "G300"=

518 vs. 933 vs. 2458
G80->GT200 = 1.8x GT200->"G300" = 2.63x

36800 vs. 48000 vs. 89600
G80->GT200 = 1.3x GT200->"G300" = 1.86x

Ausser der Tatsache dass es sich um eine neue Generation handelt, wo siehst Du das merkwuerdige wenn Du's wie oben berechnest?

---------------------------------------------------------------------------------------------------------------------------------

***edit: uebrigens um auf DP zurueckzukommen....

GT200 = 78 GFLOPs DP

"G300" = 2.46 TFLOPs SP / 4 = 614 GFLOPs DP

614 / 78 = Faktor 7.8x

Gaestle
2009-05-22, 12:07:55
Wenn so viele Infos draußen sind, sollte es ja nicht mehr lange dauern, oder? Doch noch im Juli, oder warten sie auf bessere Yields?

Gast
2009-05-22, 12:22:56
Oktober/November.

Ailuros
2009-05-22, 12:38:58
Wenn so viele Infos draußen sind, sollte es ja nicht mehr lange dauern, oder? Doch noch im Juli, oder warten sie auf bessere Yields?

Auf bessere yields und bessere Speicherverfuegbarkeit warten beide IHVs.

deekey777
2009-05-22, 13:01:20
Tatsaechlich; nur sind eben TMUs (angenommen zumindest auf GT200 Nivaeu + fetch4) verdammt teuer.

Teil Dir selber die 512SPs auf cluster auf und sag mir ob sich die Anzahl durch etwas anderes als 8, 16, 32 usw. teilen laesst. Eventuell waeren hypothetisch 32 cluster erstmal 256 TMUs und auch ein Rueckschritt auf 2*8 pro cluster.

Wie waere es mit einem halbwegs logischen Gegenvorschlag?

Eigentlich gather4 und da es ein DX11-Chip sein wird, gather ().

crux2005
2009-05-22, 13:01:25
dann hoffe ich nur, das auch beim launch 2GiB Karten verfügbar sind... 1GiB ist dann doch zu wenig für eine GTX 380

Auf bessere yields und bessere Speicherverfuegbarkeit warten beide IHVs.

GDDR5?

reunion
2009-05-22, 13:13:51
Eigentlich gather4 und da es ein DX11-Chip sein wird, gather ().

Fetch4 und Gather4 ist eh das gleiche.

Ailuros
2009-05-22, 13:19:50
Danke fuer die Haarspalterei deekey :P

dann hoffe ich nur, das auch beim launch 2GiB Karten verfügbar sind... 1GiB ist dann doch zu wenig für eine GTX 380

Ich kann mir sehr schwer vorstellen dass zumindest bis 2011 mehr als 1GB in Spielen wirklich einen deutlichen Unterschied machen werden fuer <30" Bildschirme.

GDDR5?

Wenn ich mich nicht irre werden beide IHVs 1100MHz GDDR5 fuer ihre kommenden GPUs benutzen.

deekey777
2009-05-22, 13:54:28
Fetch4 und Gather4 ist eh das gleiche.
Das eine ist nur unter DX9 verfügbar, das andere nur unter DX10.1.

Coda
2009-05-22, 16:41:07
Das ist reine Nomenklatur. Es ist in der Tat exakt das gleiche.

Spasstiger
2009-05-22, 16:50:19
***edit: uebrigens um auf DP zurueckzukommen....

GT200 = 78 GFLOPs DP

"G300" = 2.46 TFLOPs SP / 4 = 614 GFLOPs DP

614 / 78 = Faktor 7.8x
Dann müssten aber auch die MUL-Einheiten (falls vorhanden) zu DP-ALUs zusammengeschaltet werden.

crux2005
2009-05-22, 17:23:52
Ich kann mir sehr schwer vorstellen dass zumindest bis 2011 mehr als 1GB in Spielen wirklich einen deutlichen Unterschied machen werden fuer <30" Bildschirme.

Aber auf einem 30" sieht man es schon heute. Spasstiger hat vor 3 Seiten auch ein Beispiel gezeigt: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7311643&postcount=839
Stalker CS, 2560x1600 mit 4x/(2x)MSAA was von der reinen Leistung noch auf der "GTX 380" spielbar sein sollte, wenn der VRAM nicht limitiert. Wenn nV also nichts am VRAM management gemacht hat, ist 1GiB zu wenig. Ich zocke auf einem 30" oder 26" (unter anderem auch GTA4 ;D was ja der VRAM killer ist) und da muss die Karte ihre Leistung zeigen, nicht in 1680x1050.

Wenn ich mich nicht irre werden beide IHVs 1100MHz GDDR5 fuer ihre kommenden GPUs benutzen.

schon, aber bislang sah es nicht so aus, als hätte AMD/ATi probleme mit der GDDR5 Verfügbakeit, denn er wird auf der HD 4870 (X2), 4890 und neuestens HD 4770 eingesetzt. Meistens sogar 128MiB Bausteine.

KonKorT
2009-05-22, 18:25:09
Wenn nV also nichts am VRAM management gemacht hat, ist 1GiB zu wenig.
Haben sie aber. Trotzdem wird es garantiert auch 2 GiB geben.

schon, aber bislang sah es nicht so aus, als hätte AMD/ATi probleme mit der GDDR5 Verfügbakeit, denn er wird auf der HD 4870 (X2), 4890 und neuestens HD 4770 eingesetzt. Meistens sogar 128MiB Bausteine.
Es sind aber nur vier Karten und vor zwei Monaten waren es nur zwei. Zudem hat man bislang stets 0,5 ns schnellen GDDR5-Speicher verwendet; beide IHVs wollen aber auf ihren Next-Generation-Chips schnelleren Speicher verbauen.
Es gibt, wie Ailuros schon schrieb, zwei Probleme, mit denen sich beide aktuell herumschlagen. Das des GDDR5-Speichers ist - soweit ich das überblicken kann - aber eher ein Nebenkriegsschauplatz. TSMC verursacht deutlich mehr Kopfschmerzen.

Ailuros
2009-05-22, 18:28:57
Dann müssten aber auch die MUL-Einheiten (falls vorhanden) zu DP-ALUs zusammengeschaltet werden.

Stimmt; im Fall wo sich nur die MADD FLOPs durch ein theoretisches 4 teilen wuerde schrumpft dann der Unterschied auf Faktor 5.0x. Mir sitzt das Ganze mit der DP Geschichte ueberhaupt nicht. Schon gar nicht eine Steigerung bis zu Faktor 10x.

Aber auf einem 30" sieht man es schon heute. Spasstiger hat vor 3 Seiten auch ein Beispiel gezeigt: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7311643&postcount=839
Stalker CS, 2560x1600 mit 4x/(2x)MSAA was von der reinen Leistung noch auf der "GTX 380" spielbar sein sollte, wenn der VRAM nicht limitiert. Wenn nV also nichts am VRAM management gemacht hat, ist 1GiB zu wenig. Ich zocke auf einem 30" oder 26" (unter anderem auch GTA4 ;D was ja der VRAM killer ist) und da muss die Karte ihre Leistung zeigen, nicht in 1680x1050.

Wie sicher bist Du Dir dass nur der Speicher in solchen Faellen limitiert? (ehrliche Frage)

schon, aber bislang sah es nicht so aus, als hätte AMD/ATi probleme mit der GDDR5 Verfügbakeit, denn er wird auf der HD 4870 (X2), 4890 und neuestens HD 4770 eingesetzt. Meistens sogar 128MiB Bausteine.

900MHz GDDR5 != 1100MHz GDDR5 und es gab auch keine NV GPU bis jetzt mit GDDR5.

crux2005
2009-05-22, 18:47:48
Wie sicher bist Du Dir dass nur der Speicher in solchen Faellen limitiert? (ehrliche Frage)

Nur zu 50%. Ich ging ja davon aus, das die GeForce auch mehr FPS hätten, wenn der VRAM nicht ausgehen würde - einen anderen Grund, wieso sie so wenig FPS haben im vergleich zu den Radeons sehe ich nicht. Da beim G300 die meisten Flaschenhälse erweitert wurden (nachdem was du schreibst), bliebe ja nur noch der VRAM.

Testen kann ich es leider nicht, da ich z.Z. keine 2GiB Karte bei Hand habe, aber wenn die MSI GTX 285 xy kommt, werde ich an STALKER denken ;)

900MHz GDDR5 != 1100MHz GDDR5 und es gab auch keine NV GPU bis jetzt mit GDDR5.

beim launch des RV770 war es mir schon klar, dass es keine gute Verfügbarkeit von Anfang an geben wird, aber nach ~1 Jahr sollte es doch schon besser sein (imho). Auch bei schnelleren GDDR5 chips. Wenn es also noch immer schlecht mit GDDR5 aussieht, ist es traurig :( und ich lies mich von einigen Leuten desinformieren...

Spasstiger
2009-05-22, 19:39:51
Stimmt; im Fall wo sich nur die MADD FLOPs durch ein theoretisches 4 teilen wuerde schrumpft dann der Unterschied auf Faktor 5.0x. Mir sitzt das Ganze mit der DP Geschichte ueberhaupt nicht. Schon gar nicht eine Steigerung bis zu Faktor 10x.
Gelten die 2,5 TFlops aber schon als sicher bei 1600 MHz Shadertakt?
Über den genauen Aufbau der Streamprozessoren ist ja eigentlich noch gar nix bekannt. Oder weiß man schon, dass ein Streamprozessor in jedem Fall ein MADD und ein MUL bzw. eine SF gleichzeitig berechnen kann?

=Floi=
2009-05-22, 19:45:20
weniger wird es sicherlich nicht!

eigentlich sollte ein GT300 eher 4gb vram haben und nicht nur 2GB. Das klingt zwar ein wenig verrückt, aber er hätte ja die leistung dafür und bei SLI kommt man sicher ganz schnell an die 2gb grenze pro karte. So wird das ganze doch wieder nur verzögert und bei neuen games scheitert es dann wieder am vram, obwohl die karte noch genug leistung hat.

Spasstiger
2009-05-22, 19:53:25
eigentlich sollte ein GT300 eher 4gb vram haben und nicht nur 2GB. Das klingt zwar ein wenig verrückt, aber er hätte ja die leistung dafür und bei SLI kommt man sicher ganz schnell an die 2gb grenze pro karte. So wird das ganze doch wieder nur verzögert und bei neuen games scheitert es dann wieder am vram, obwohl die karte noch genug leistung hat.
Bei 4 GiB VRAM müsste man 32 Speicherchips verlöten, da es noch keine GDDR5-Chips mit mehr als 1024 Mbit gibt.

Black-Scorpion
2009-05-22, 19:56:34
4GB VRam auf einer Consumerkarte?
Wieviel bist du bereit auf den Tisch zu legen?

Schnellster verfügbarer Speicher (eher schlecht verfügbar)
Sauteures PCB
Und dazu noch ein Monster von GPU

Über den Preis will ich lieber nicht nachdenken.

Der_Korken
2009-05-22, 20:18:50
4 GB VRAM ist der absolute Overkill. Ich sehe ja ein, dass 1GB vor allem bei der Rohleistung eng werden könnten, aber selbst das sind nur Ausnahmen. Ich glaube nicht, dass es heute schon möglich ist 2GB VRAM sinnvoll auszureizen. 1GB hat sich doch vor etwa einem Jahr erst langsam durchgesetzt, 2 Jahre nachdem sich 512MB durchgesetzt haben. Bis 4GB gebraucht werden, vergehen auch locker noch 2 bis 3 Jahre.

Spasstiger
2009-05-22, 20:49:11
Die Quadro FX GT300 mit 4 GiB VRAM kommt bestimmt. Enthusiasten können ja zuschlagen, die Spieleperformance der Quadro-Karten soll nicht schlechter sein als bei einer gleichgetakteten GeForce mit gleicher GPU.

MuLuNGuS
2009-05-22, 20:57:30
hab ich gerade hier nicht finden können, falls es schon war ignorieren:

http://www.brightsideofnews.com/news/2009/4/22/nvidias-gt300-specifications-revealed---its-a-cgpu!.aspx

lol,
...But the point in question is that now you can do it. It looks like Tim Sweeney's prophecy is slowly, but certainly - coming to life.

Gast
2009-05-22, 21:39:57
Die Quadro FX GT300 mit 4 GiB VRAM kommt bestimmt.
Ausgehend von jetztigen Quadros dafür lediglich mit 900 Mhz GDDR5.

Imho wirds es (frühestens) mit einem GT300 Refresh 4GiB auf Sondermodellen geben, so wie es jetzt 2GiB gibt.

=Floi=
2009-05-22, 21:41:28
2gb sind irgendwo zu wenig und 4gb sehe ich ja selbst auch als sehr viel. 3gb wären ideal. zB zeigt aber GTA4 was mit zu wenig vram eben passiert und so eine starke karte sollte hier sicherlich nicht am vram kränkeln.
für solch eine 4gb "GTX" version mit ordentlichem kühler und 2d sparmodus wäre ich bereit ca. 400+€ hinzugen. ich habe damit kein problem für gute hardware auch gutes geld zu zahlen. Der preis sollte nur nicht 2 wochen später nur noch 50% betragen und es sollte auch ein rundes paket sein. Die 8800GTX war zwar auch teuer aber auch sehr gut!

mit sli und zukünftigen blockbustern sehe ich eben diese 2gb wieder als grenze. Der vram ist bisher einer der größten flaschenhälse bei nv.

Gast
2009-05-22, 22:14:52
für solch eine 4gb "GTX" version mit ordentlichem kühler und 2d sparmodus wäre ich bereit ca. 400+€ hinzugen.
Das halte ich für sehr sehr abwegig, zumindest Ende 2009.

Spasstiger
2009-05-22, 22:22:27
Das halte ich für sehr sehr abwegig, zumindest Ende 2009.
Es ist alleine schon deshalb abwegig, weil bislang keine GDDR5-Chips mit 2 Gbit Kapazität gefertigt werden. Und 32 Speicherchips auf einer Consumer-Grafikkarte halte ich auch für abwegig.

/EDIT: Wurden denn schon GDDR5-Chips in 64Mx32-Konfiguration von Samsung, Hynix oder Qimonda angekündigt? Ich kann bei Google nix finden.

Black-Scorpion
2009-05-22, 22:38:08
400,00€?
Dein Realitätssinn lässt arg zu wünschen übrig.
Da haben die Vorgänger mit weniger (GDDR3) Speicher schon mehr gekostet.

Gast
2009-05-22, 22:42:41
für solch eine 4gb "GTX" version mit ordentlichem kühler und 2d sparmodus wäre ich bereit ca. 400+€ hinzugen.Du wirst die erste Zeit nach dem Launch mit Sicherheit deutlich über 500 € für eine 2-GiB-Version einer GT300GTX hinblättern müssen. Deine äußerst gütige Bereitschaft auch 400 für eine Variante mit doppeltem Speicher bezahlen zu wollen, wirkt daher schon etwas seltsam.

Du kannst nicht Launchpreise von konkurrenzlosen Super-Highendkarten einer neuen Generation mit aktuellen Preisen für die besten Single-GPU-Produkte vergleichen. Überlege mal, was ein NV40 in der Ultra-Variante anfangs gekostet hat oder natürlich auch ein G80GTX. Wenn der schnelle Speicher wirklich teuer und knapp sein sollte, können wir froh sein, wenn es keine 7800GTX/512-Preise gibt. Nichtsdestotrotz denke ich, dass ein GT300 dieses Geld wert sein wird.

Gast
2009-05-22, 22:43:01
Und 32 Speicherchips auf einer Consumer-Grafikkarte halte ich auch für abwegig.
Eine GTX 285 verreint auf engstem Raum 16 Chips, die Rückseite ist vollkommen leer.
Eine GTX 295 mit 2 GPUs samt gewaltigen Heatspreader, 2 NVIOs, einem NF200 und 28 Chips auf einem einzelnen 26,7cm PCB wurde bereits gesichtet.

Imho ist es in dem Fall der Kostenfrage egal ob 16 oder 32 Chips, 4GiB 1100Mhz GDDR5 ist dieses Jahr zu teuer.

dargo
2009-05-22, 22:46:18
Ich kann mir sehr schwer vorstellen dass zumindest bis 2011 mehr als 1GB in Spielen wirklich einen deutlichen Unterschied machen werden fuer <30" Bildschirme.

Kleiner 30" war gestern, heute wird downsampled. :devil:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=454129


900MHz GDDR5 != 1100MHz GDDR5 und es gab auch keine NV GPU bis jetzt mit GDDR5.
Naja, wir müssen nicht gleich von der schnellsten Sorte ausgehen. Der kleinere Ableger (GTX 360?) wird sicherlich irgendwas mit 900-1000Mhz GDDR5 an einem 448Bit SI (?) haben. :)

Gast
2009-05-22, 22:49:55
Kleiner 30" war gestern, heute wird downsampled. :devil:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=454129
Das bringt mich zu einer Frage:
Wann gibts ein 16384x16384 Rendertarget und entsprechend mehr als 4x4SS? ;)

Spasstiger
2009-05-22, 22:54:08
Eine GTX 285 verreint auf engstem Raum 16 Chips, die Rückseite ist vollkommen leer.
Da bekommst auch nix mehr auf die Rückseite ohne ein PCB mit mehr Layern zu verwenden. Das GTX-295-Argument lass ich aber gelten.

dargo
2009-05-22, 22:55:19
2gb sind irgendwo zu wenig und 4gb sehe ich ja selbst auch als sehr viel. 3gb wären ideal. zB zeigt aber GTA4 was mit zu wenig vram eben passiert und so eine starke karte sollte hier sicherlich nicht am vram kränkeln.

In GTA IV reichen selbst in 2988x2100 @Full Details 1,8GB Vram aus. Würde GTA IV allerdings MSAA bieten könnte es eng werden. :biggrin:

Gast
2009-05-22, 23:02:03
Da bekommst auch nix mehr auf die Rückseite ohne ein PCB mit mehr Layern zu verwenden.
Ok.
Wie viele zusätzliche Layer viele würdest du für so eine Karte schätzen?

=Floi=
2009-05-22, 23:05:44
ich bekomme mit 1280X1024 schon die 512mb fast voll und das sind normale sachen wie Q4.
Der R8XX sollte ja wieder nur um die 250€ kosten und dadurch wird nv von anfang an wohl nicht mehr so eine hochpreispolitik fahren wie sie es gerne möchten. 400+€ für eine normale gtx halte ich da doch realistisch. (nach ca. 2 monaten als "festen" preis)
Eine 285GTX kostet auch nur noch 277€ eine 275er kostet unter 200€!

warten wir mal ab welche produkte nv bringen wird. eine GTX alleine an der spitze wird sicherlich nicht für diesen preis zu haben sein, aber uu gibt es wieder mal 3 abgestufte karten. das sollte man sicherlich auch bedenken.


ich verstehe auch das problem mit den chips nicht. ati hat zum launch der 4870(!) karten schon speicher verbaut der auch mit 1100mhz lief.
diese karten kosteten 250€ und waren auch verfügbar.

Spasstiger
2009-05-22, 23:09:02
Ok.
Wie viele zusätzliche Layer viele würdest du für so eine Karte schätzen?
Keine Ahnung, aber ich glaube, die 14 Layer der GTX 280 werden bei 32 GDDR5-Chips @ 1,1 GHz (4,4 Gbps) nicht reichen. Und für ein derartiges Nischenprodukt wird auch kein Hersteller eine Eigenentwicklung starten.
Imo werden Consumer-Grafikkarten mit 4 GiB GDDR5 erst kommen, wenn Chips in einer 64Mx32-Konfiguration verfügbar sind.

Gast
2009-05-22, 23:25:26
Der R8XX sollte ja wieder nur um die 250€ kosten
Werden wir sehen.
Ein RV8xx Singletopmodell wird jedenfalls nicht billig in der Produktion. Ich würde eher 300€ zum Start ansetzen, der einem abgespeckten GT300 entgegnen gestellt wird.
Für die Wunsch 250€ spricht ein wieder mal winziger 1GiB Ausbau zum Start.

Jedenfalls wird das RV870 X2 Schiff zum Glück erstsmal recht teuer werden, (wenn es den überhaupt zeitnah zum RV870 Start kommt), bis dahin hat das GT300 Topmodell freie Bahn.


ich verstehe auch das problem mit den chips nicht. ati hat zum launch der 4870(!) karten schon speicher verbaut der auch mit 1100mhz lief.
diese karten kosteten 250€ und waren auch verfügbar. Link, wo gabs solche Karten zu kaufen, besonders zu dem Preis?

Gast
2009-05-23, 11:59:38
Wenn die Karten fertig sind und nur noch auf TSMC für Massenfertigung gewartet wird, würde es mich nicht wundern, wenn wir diesmal bereits einige Monate vor dem Launch 3dMark Punkte usw. sehen

Wurden eigentlich schon NDAs mit der Presse unterzeichnet?

Ailuros
2009-05-23, 12:52:57
Gelten die 2,5 TFlops aber schon als sicher bei 1600 MHz Shadertakt?
Über den genauen Aufbau der Streamprozessoren ist ja eigentlich noch gar nix bekannt. Oder weiß man schon, dass ein Streamprozessor in jedem Fall ein MADD und ein MUL bzw. eine SF gleichzeitig berechnen kann?

Wenn Dir jemand sagt dass etwas 512SPs hat und ca. 2.5 TFLOPs bei 1600MHz erreicht was miaut dann auf dem Ziegeldach? Wenn die Einzelheiten nicht stimmen sollten, dann ist es ein anderes Kapitel.

Auf jeden Fall sind es garantiert 1D ALUs auch fuer CUDA backwards compatibility u.a.

Ailuros
2009-05-23, 12:59:29
ich bekomme mit 1280X1024 schon die 512mb fast voll und das sind normale sachen wie Q4.

Falls Q4 fuer Quake4 stets dann schalt gefaelligst TC wieder an anstatt Speicher unnoetig zu verplempern.


ich verstehe auch das problem mit den chips nicht. ati hat zum launch der 4870(!) karten schon speicher verbaut der auch mit 1100mhz lief.
diese karten kosteten 250€ und waren auch verfügbar.

Wir reden hier nicht um eine GPU die stellenweise mal von einem Hersteller mal verkauft wird sondern der Wahrscheinlichkeit dass beide IHVs den gleichen Speicher zum gleichen Zeitpunkt brauchen koennten. Da die Mengen im einen und im anderen Fall keineswegs vergleichbar sind, frage ich mich was hier so schwer zu verstehen sein soll.

weniger wird es sicherlich nicht!

eigentlich sollte ein GT300 eher 4gb vram haben und nicht nur 2GB. Das klingt zwar ein wenig verrückt, aber er hätte ja die leistung dafür und bei SLI kommt man sicher ganz schnell an die 2gb grenze pro karte. So wird das ganze doch wieder nur verzögert und bei neuen games scheitert es dann wieder am vram, obwohl die karte noch genug leistung hat.


Es gibt auch heute schon GT200 Quadros mit 4GB Speicher da Du diesen ja anscheinend in Unmengen brauchst fuer professionelle Anwendungen *kopfschuettel*....

Kleiner 30" war gestern, heute wird downsampled. :devil:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=454129

Ich kann das Zeug bis zum Punkt wo es offiziell unterstuetzt wird leider nicht ernst nehmen und nein irgendwelche halbgahre Experimente sind kein Argument fuer solche Faelle. Aber wenn wir schon so OT sind, es gibt guten Grund warum ich immer noch auf dem 21" CRT zocke.

Naja, wir müssen nicht gleich von der schnellsten Sorte ausgehen. Der kleinere Ableger (GTX 360?) wird sicherlich irgendwas mit 900-1000Mhz GDDR5 an einem 448Bit SI (?) haben. :)

*seufz*

-------------------------------------------------------

Anstatt Euch den Schaedel ueber die Speichermengen zu zerbrechen wartet erstmal ab wie sich chip X oder Y genau unter den meisten Faellen verhaelt. IMHLO werden 2GB nur fuer merkwuerdige Grenzfaelle ihre Nutzbarkeit haben und eine
1GB GPU koennte die Mehrzahl der Faelle problemlos behandeln. Spart mir die verrueckten "ja aber" Ausnahmsfaelle NVIDIA oder jegliche IHV lassen etliche Simulationen laufen bevor man sich fuer so und so viel Speicher entscheidet. 4GB sind workstation/server GPU Material.

=Floi=
2009-05-23, 13:43:22
zumindest sollte die breite verfügbarkeit von gddr5 nach über einem jahr schon gegeben sein. Die anderen hersteller schlafen ja auch nicht und in der zeit hat sich auch wieder einiges getan. Noch dazu sind das keine karten die für die breite masse bestimmt sind.

dargo
2009-05-23, 13:59:58
Ich kann das Zeug bis zum Punkt wo es offiziell unterstuetzt wird leider nicht ernst nehmen und nein irgendwelche halbgahre Experimente sind kein Argument fuer solche Faelle.

Nun, eigentlich ist es offiziell. Ohne den NV-Treiber ginge es nicht. ;)
Und genau dafür hat NV scheinbar die Timings in die benutzerdefinierten Auflösungen intergriert, gott sei dank muss man sagen.


Anstatt Euch den Schaedel ueber die Speichermengen zu zerbrechen wartet erstmal ab wie sich chip X oder Y genau unter den meisten Faellen verhaelt. IMHLO werden 2GB nur fuer merkwuerdige Grenzfaelle ihre Nutzbarkeit haben und eine
1GB GPU koennte die Mehrzahl der Faelle problemlos behandeln. Spart mir die verrueckten "ja aber" Ausnahmsfaelle NVIDIA oder jegliche IHV lassen etliche Simulationen laufen bevor man sich fuer so und so viel Speicher entscheidet. 4GB sind workstation/server GPU Material.
Ich habe nirgendwo 4GB Vram erwähnt, das wäre aus meiner Sicht auch Overkill. 1,8-2GB Vram muss aber meine GTX3x0 auf jeden Fall haben da ich:

1. In GTA IV noch nicht mal eine hohe Auflösung brauche um 1GB zu überfüllen.
2. Ich nicht mehr vom Downsampling weg will wenn man erstmal die Bildqualität gesehen hat und dementsprechend Auflösungen bis zu 3024x2100, mit dann auch wenn Leistung vorhanden bis zu 4xMSAA fahren will.

Der_Korken
2009-05-23, 14:44:28
@dargo: GTA4 ist trotzdem eine extreme Ausnahme. Hast du diesen Speicherverbrauch wirklich gemessen (zB mit Rivatuner) oder sagt dir einfach das Spiel, dass deine Einstellung so viel Speicher brauchen wird? Ich habe nämlich vor längerer Zeit mal gesehen, wie jemand auf ner 512MB-Karte mit ein paar Handgriffen eine Einstellung zum laufen gebracht hat, für die das Spiel selbst über 1GB VRAM gefordert hat. Vielleicht finde ich den Link nochmal ...

Und selbst wenn, nach GTA4 kommt lange nichts, 2GB werden auch für GTX380 SLI reichen.

AnarchX
2009-05-23, 14:52:48
Ob ein GT300 wirklich 2GiB VRAM benötigt mag man bezweifeln können, aber mehr als 1GiB wären wohl auf jeden Fall ratsam und da ist eben für einen 512-Bit G300 die nächsten Stufe nun einmal 2GiB.

Bleibt natürlich die Frage, wie teuer 0.4ns Speicher ist.

Aber bei 0.5ns Speicher würde ich eher wenige Probleme sehen, eine 4870X2 mit 2GiB davon wird für 330€ gehandelt und dieser Speicher wird wohl auch bald auf $79 Karten eingesetzt - HD4730.
Da dürften bei einer potentiellen 448-Bit 900MHz GTX 360 wohl 1.8GiB Version recht schnell folgen, immerhin werden momentan ja auch schon so einige 1.8GiB GTX 260/275 in den Markt geschoben.

dargo
2009-05-23, 15:03:35
@dargo: GTA4 ist trotzdem eine extreme Ausnahme.

Ja natürlich, ich will aber den G300 auch für ca. 1 Jahr behalten. Und wer garantiert mir, dass bis Ende 2010 nichts mehr kommt was in 3024x2100 4xMSAA 1GB Vram sprengt?


Hast du diesen Speicherverbrauch wirklich gemessen (zB mit Rivatuner) oder sagt dir einfach das Spiel, dass deine Einstellung so viel Speicher brauchen wird?

Unter Win7 kann man den Vram nicht messen. Das Spiel sagt einfach, dass die Resourcen erschöpft sind. Ich täusche zwar jetzt schon dem Game 1,2GB vor, bei schnellen Drehungen fällt es aber trotzdem auf, dass die 896MB zu wenig sind. Manche Texturen werden einfach zu langsam geladen.


Und selbst wenn, nach GTA4 kommt lange nichts, 2GB werden auch für GTX380 SLI reichen.
Je GPU auf jeden Fall. :)

Ailuros
2009-05-23, 15:53:08
zumindest sollte die breite verfügbarkeit von gddr5 nach über einem jahr schon gegeben sein. Die anderen hersteller schlafen ja auch nicht und in der zeit hat sich auch wieder einiges getan. Noch dazu sind das keine karten die für die breite masse bestimmt sind.

Wenn ATI mit ihren Performance GPUs fast im gleichen Zeitraum wie NV's high end GPU ankommen sollte, braucht man schon etliche Speicher-anzahl ob Du das jetzt verdauen kannst oder nicht. Der "Underberg" der Geschichte heisst sowieso TSMC 40nm und bis die yields dort besser werden werden auch beide IHVs die notwendigen Speichermengen gesichert haben. Vor Oktober wird es nichts mit weder noch; klar genug so?

Nun, eigentlich ist es offiziell. Ohne den NV-Treiber ginge es nicht. ;)
Und genau dafür hat NV scheinbar die Timings in die benutzerdefinierten Auflösungen intergriert, gott sei dank muss man sagen.

Und es laeuft auch in allen Faellen problemlos?

Ich habe nirgendwo 4GB Vram erwähnt, das wäre aus meiner Sicht auch Overkill. 1,8-2GB Vram muss aber meine GTX3x0 auf jeden Fall haben da ich:

Wenn ich einen Strich in einem Post ziehe und mich so ausdruecke dass ich mich an mehr als einen Leser wende, braucht man unter normalen Umstaenden keine Gebrauchsanweisung wie man was verstehen sollte.

1. In GTA IV noch nicht mal eine hohe Auflösung brauche um 1GB zu überfüllen.
2. Ich nicht mehr vom Downsampling weg will wenn man erstmal die Bildqualität gesehen hat und dementsprechend Auflösungen bis zu 3024x2100, mit dann auch wenn Leistung vorhanden bis zu 4xMSAA fahren will.

Es wird bis zu 2GB desktop G3x0 GPUs geben, ergo betrifft Dich auch selbstverstaendlich der 4GB Teil nicht.

Unter Win7 kann man den Vram nicht messen. Das Spiel sagt einfach, dass die Resourcen erschöpft sind. Ich täusche zwar jetzt schon dem Game 1,2GB vor, bei schnellen Drehungen fällt es aber trotzdem auf, dass die 896MB zu wenig sind. Manche Texturen werden einfach zu langsam geladen.

Und ich will hoffen dass man daran auch nichts aendern werden kann unter Win7 damit das Thema ein fuer alle mal begraben wird.

dargo
2009-05-23, 16:11:38
Und es laeuft auch in allen Faellen problemlos?

Jo. =)

Gut, wenn du "krumme" Auflösungen nimmst die dem Standard @16:9, 16:10, 4:3 etc. nicht entsprechen könnte es passieren, dass man FoV anpassen muss. Bisher ist mir das aber nur in UT3 aufgefallen. Bei UT3 kann man aber FoV problemlos Ingame anpassen. Bei Crysis, GTA IV, Dead Space, Timeshift (um mal paar zu nennen) wird FoV automatisch angepasst.

Gast
2009-05-23, 21:03:32
Shaderleistung is ja gut und schön, wichtiger wäre mir aber zu wissen, ob hohe AA Modi verbessert wurden und ob die Füllrate/verbesserten ROPs jetzt mit TSSAA (also dem Transparency Super Sampling) besser umgehen können.

Da bricht die Leistung ja immer wieder je nach Spiel heftig ein, über die Arithemtik Power wird sich aber jedes PhysX Spiel freuen ;) [Grade wieder in Mirrors Edge erlebt, PhysX an, aber im Graka Treiber deaktiviert... sobald ein Fenster kaputt geschossen wird Ruckelorgie, Graka Treiber aktiviert, läuft).

LovesuckZ
2009-05-23, 21:06:24
TSAA benötigt Texturleistung. Was erwartest du für Wunder von einer Methode, die je nach Bedarf die Texturleistung auf einer GTX285 auf 1/8 reduzieren kann?

Gast
2009-05-23, 21:38:33
Eben "mehr" an Recheneinheiten dafür oder Verbesserungen, damit die Leistung nicht einbricht, ist das so schwer zu verstehen?

=Floi=
2009-05-23, 22:26:45
bei den anderen punkten wiederspreche ich dir ja garnicht. :) Da hast du ja auch mehr einblick und es klingt auch nachvollziehbar. über das datum habe ich ja nichts geschrieben und solange die technik gut ist, kann ich auch locker dafür ein paar monate warten.


warum bitte findest DU das gut, wenn man den vram-verbrauch nicht mehr messen kann? warum ausgerechnet das?
jedes tool und jeder messwert trägt zu optimalen einstellungen bei!
Erst dadurch wird das ganze durchsichtig und man kann bestimmte flschenhälse sichtbar machen und ggf. abstellen.

Ailuros
2009-05-23, 22:33:33
Shaderleistung is ja gut und schön, wichtiger wäre mir aber zu wissen, ob hohe AA Modi verbessert wurden und ob die Füllrate/verbesserten ROPs jetzt mit TSSAA (also dem Transparency Super Sampling) besser umgehen können.

Was sollen da jegliche ROPs tolles anstellen koennen? Wenn eine Szene mit Transparenzen vollgepumpt ist dann liegt der Leistungsverlust stets nicht allzu weit entfernt von Vollbild SSAA. Bei FSAA ist es eben leider so dass fuer N samples man 1/N Fuellrate einbussen muss.

Eben "mehr" an Recheneinheiten dafür oder Verbesserungen, damit die Leistung nicht einbricht, ist das so schwer zu verstehen?

Wie schon oefters erwaehnt TMUs sind relativ sehr teure Einheiten. Wer Unmengen von zusaetzlicher brauchbarer Fuellrate durch mehr TMUs haben will kann stets zu SLi greifen, ohne dass wir restlichen die Rechnung mitbezahlen muessen. Das wird wohl leichter zu verstehen sein.

Spasstiger
2009-05-23, 22:36:13
Wenn Dir jemand sagt dass etwas 512SPs hat und ca. 2.5 TFLOPs bei 1600MHz erreicht was miaut dann auf dem Ziegeldach?
Ich dachte, die 2,5 TFlops hätte KonKorT (Hardware-Infos) ausgehend vom Design der SPs des G80/GT200 berechnet.

Ailuros
2009-05-23, 22:50:57
warum bitte findest DU das gut, wenn man den vram-verbrauch nicht mehr messen kann? warum ausgerechnet das?

Weil ich die Uebertreibungen die durch die Messungen entstehen nicht mehr lesen kann. Wir reden hier nicht von den Aussnahmen sondern von den Normal-faellen die zufaelligerweise die Mehrzahl sind.

jedes tool und jeder messwert trägt zu optimalen einstellungen bei!

Misst Du auch die arithmetische Leistung eines jeglichen Spiels ab?

Es wird stets zich Stellen in diversen Applikationen geben wo mal das eine oder das andere limitiert. Trotzdem sorgen alle IHVs in der Mehrzahl der Faelle eine jegliche GPU mit so und so viel Speicher, Bandbreite, Rechenleistung usw auszustatten dass in der Mehrzahl der Faelle die GPU sich fuer ihre Lebenszeit durchpruegeln kann.

Speicher ist wie schon erwaehnt der teuerste Teil einer GPU. Bis zu 2GB koennte ich die Kosten einer solchen kommenden high end GPU noch tolerieren; alles darueber ist nicht nur Uebertreibung sondern bedeutet auch eine heftige Kosten-steigerung die man dem Normalverbraucher nicht gerechtfertigen kann. Bei einer Quadro ist ein anderes Bier (die es schon heute mit bis zu 4GB pro GPU gibt) erstens weil der Preis hier weniger eine Rolle spielt da es sich um professionelles Werkzeug handelt und in professionellen Anwendungen auch tatsaechlich so viel Speicher brauchen kann.

Erst dadurch wird das ganze durchsichtig und man kann bestimmte flschenhälse sichtbar machen und ggf. abstellen.

Bei einem sw basierenden Flaschenhals wartet der Verbraucher einfach darauf bis ein zukuenftiger Treiber jegliche moegliche Treiberblase einfach beseitigt. Bei hw Flaschenhaelsen laesst sich natuerlich nichts anstellen, aber es kommt dann auch zur Frage ob es wirklich GPUs gibt die fuer ihre jeweilige Preisklasse solche Flaschenhaelse zeigen.

Anders es gibt schon GT200b GPUs mit 2GB Speicher; will jemand eine solche durch ein normales Benchmark-parkour laufen lassen und mir beweisen dass der Speicher wirklich einen anstaendigen Unterschied machen kann?

Ailuros
2009-05-23, 22:59:14
Ich dachte, die 2,5 TFlops hätte KonKorT (Hardware-Infos) ausgehend vom Design der SPs des G80/GT200 berechnet.

Ich kann Dir lediglich sagen dass 700/1600 MHz das eigentliche Ziel ist; bevor ein chip wirklich in Produktion geschickt wird ist noch gar nichts in Stein gemetzelt.

Auf jeden Fall duerften bei diesen Frequenzen die fast 2.5 TFLOPs auch stimmen.

=Floi=
2009-05-23, 23:51:30
heute kommen wir nicht zusammen. uu kommt tombman noch hier in den thread. ich lasse es mal für heute. ;)

Der_Korken
2009-05-24, 02:34:07
Unter Win7 kann man den Vram nicht messen. Das Spiel sagt einfach, dass die Resourcen erschöpft sind. Ich täusche zwar jetzt schon dem Game 1,2GB vor, bei schnellen Drehungen fällt es aber trotzdem auf, dass die 896MB zu wenig sind. Manche Texturen werden einfach zu langsam geladen.


Oh, dann ist es was anderes. Ich besitze das Spiel nicht, deswegen kann ich nicht mitreden. Was ich geschrieben habe, war eher so Hören-Sagen.

@VRAM auslesen: Ich finde sowas generell sehr hilfreich. Ich hatte vor meiner GTX260 eine 8800GTS mit 320MB, dennoch konnte ich mithilfe der Funktion im Rivatuner noch richtig was rausholen. Speicherfressende Optionen konnte man damit sehr gut ausfindig machen und durch abschalten von ein, zwei Optionen lief plötzlich eine stark ruckelnde Stelle völlig flüssig. Schaden kann es definitiv nicht, die ausgelesenen Werte waren sehr brauchbar.

Nightspider
2009-05-25, 22:06:03
Mal betreffend der VRAM-Disskussion:

Wie hoch stehen die Chancen auf Shared-Video-Memory ?
AMD und NV forschen doch schon seit Jahren daran und wenn ich mich richtig erinnerte forschte man auch Daran die Kommunikation beider Grafikchips über den Speicher bzw. die Speicheranbindung zu realisieren.

So könnte NV zum Beispiel stark vom 512 Bit SI profitieren.

Falls Shared-VRAM mit der GT300 Generation wirklich einzug halten sollte sehe ich den Refresh als DualKarte definitiv mit 4 GB VRAM kommen.

LovesuckZ
2009-05-25, 22:13:10
Wie kann nVIdia bei einem 512bit Bus mit Shared Memory stärker profitieren als bei 2x Speicher und 2x Bussystem? Shared Memory hat den Vorteil, dass man nicht mehr die doppelte Anzahl an Speicher benötigt - gleichzeitig verliert man aber die diskreten Bussysteme, wodurch die Bandbreite sich halbbiert.

Nightspider
2009-05-25, 22:30:03
Wie kann nVIdia bei einem 512bit Bus mit Shared Memory stärker profitieren als bei 2x Speicher und 2x Bussystem? Shared Memory hat den Vorteil, dass man nicht mehr die doppelte Anzahl an Speicher benötigt - gleichzeitig verliert man aber die diskreten Bussysteme, wodurch die Bandbreite sich halbbiert.

Ich meinte das man in diesem Fall gegenüber einem 256 Bit SI profitieren würde, weil ja viele Spekulanten vor Wochen noch meinten 256 BI SI+ schnellem GDDR5.

Man muss ja auch nicht 100% des VRAMs sharen, sondern nur das wichtigste.

Inwiefern würde man auch Bandbreite verlieren ?

Beide Chips würden doch dann mit der selben Geschwindigkeite auf den VRAM zugreifen können oder ? Vllt ließe es realisieren das beide Chips gleichzeitig dasselbe aus dem VRAM auslesen bzw. schreiben, dann verliert man keine Bandbreite.

Ich bin was das Speichermanagement angeht kein Guru also steinigt mich nicht wenn ich mir etwas unmögliches vorstelle sondern berichtigt mich ;)

=Floi=
2009-05-26, 00:13:06
du hast da einen denkfehler. bei 2 chips wird der maximale durchfluss für einen chip geringer, weil eben der andere auch etwas braucht, auch wenn beide die gleichen informationen bekommen würden, so würde nicht 2x das gleiche benötigt.

Spasstiger
2009-05-26, 00:23:47
Multi-GPU mit dediziertem Speicher für jede GPU ist aus Performancesicht in jedem Fall die beste Lösung. Man braucht halt mehr Speicher.

LovesuckZ
2009-05-26, 00:45:07
Multi-GPU mit dediziertem Speicher für jede GPU ist aus Performancesicht in jedem Fall die beste Lösung. Man braucht halt mehr Speicher.

Was bringt dir mehr Speicher, wenn die Speicherbandbreite sich halbiert?

Spasstiger
2009-05-26, 00:48:51
Was bringt dir mehr Speicher, wenn die Speicherbandbreite sich halbiert?
:confused:
Wo halbiert sich die Speicherbandbreite? Jede GPU bekommt ihren eigenen Speicher und greift auf diesen mit voller Speicherbandbreite zu. Das ist optimal aus Performancesicht. Bei dieser Lösung braucht man aber halt wie gesagt mehr Speicher als bei einer shared-memory-Lösung.

Gast
2009-05-26, 01:14:46
Jede GPU bekommt ihren eigenen Speicher und greift auf diesen mit voller Speicherbandbreite zu. Das ist optimal aus Performancesicht.
Bei getrennten Speicher muss man die Speicherinhalte synchronisieren. Das ist aus Performancesicht für dynamisch generierte Daten alles andere als optimal.
In der Serverwelt hat sich NUMA nicht umsonst durchgesetzt.

Spasstiger
2009-05-26, 01:19:41
Bei getrennten Speicher muss man die Speicherinhalte synchronisieren.
Wieso denn das? Jede GPU verwaltet ihren Speicher selbst und lädt genau das rein, was sie selbst braucht. Dafür ist keinerlei Synchronisierung erforderlich.

Coda
2009-05-26, 02:03:21
Der Gast hat recht. Innerhalb einer Szene generierte Daten müssen natürlich synchronisiert werden.

Gast
2009-05-26, 04:05:09
Das bringt mich zu einer Frage:
Wann gibts ein 16384x16384 Rendertarget und entsprechend mehr als 4x4SS? ;)Unterstützung für 16k x 16k wird für SM5 benötigt, kommt als mit R(V)8x0 und G(T)3x0 garantiert.
Mehr als 4x4 SSAA kannst du schon heute haben, halt 4x4 SSAA mit Downsampling kombinieren. Bei einer horizontal und vertikal 1,5fach höheren Renderauflösung hast du 6x6 SSAA :D

=Floi=
2009-05-26, 05:00:23
downsampling und aa funktioniert aber höchstens bei 1280x1024, da man sonst aus dem 8k rentertarget fällt mit SSAA und downsampling. die performance sollte ebenfalls NICHT ausreichen.

Gast
2009-05-26, 05:27:51
downsampling und aa funktioniert aber höchstens bei 1280x1024, da man sonst aus dem 8k rentertarget fällt mit SSAA und downsampling.Für 720p HDTVs/Beamer jedenfalls ausreichend. Da wird das Downsampling von 1920x1080 ja vom Darstellungsgerät vorgenommen, funzt also problemloser. Außerdem war die Frage ja auch nach der kommenden Generation, bei der sich das Limit mal wieder verdoppelt. Dann wird das VRAM aber definitiv der begrenzende Faktor. :uponder: 4GB Ultra! :uhippie:
die performance sollte ebenfalls NICHT ausreichen.4x4 SSAA ist immer noch schneller als 32xS und bringt meist mehr. In Kombination mit Downsampling fällt dann auch das letzte Argument pro 32xS weg: Dann ist auch mit reinem SSAA die Geometrieglättung ausreichend.

Chris Lux
2009-05-26, 08:21:09
... :uponder: 4GB Ultra! :uhippie:
jedesmal wieder kommt diese ultra diskussion. die letzte ultra ist x generationen her. bei der aktuellen spiele lage wird niemals eine 4gb geforce karte kommen!

Ailuros
2009-05-26, 08:42:46
jedesmal wieder kommt diese ultra diskussion. die letzte ultra ist x generationen her. bei der aktuellen spiele lage wird niemals eine 4gb geforce karte kommen!

Man kann es NIE allen recht machen; kommt eine GPU mit "nur" 2GB Speicher an meckert man dass es zu wenig ist. Kommt sie hingegen mit 4GB an meckern andere wieder dass die GPU suendhaft teuer ist und der Teufelskreis dreht sich weiter wie ein perputuum mobile.

Noch schlimmer ist die ewige SSAA-Nostalgie. Ein jeglicher IHV hat stets Begrenzungen und er muss zusehen dass innerhalb aller Begrenzungen die best moegliche Balance erreichen kann.

Multisampling koennte theoretisch seine Effizienz in der weiteren Zukunft verlieren gegenueber Supersampling mit extremer Tesselation (sprich eine Unzahl von vielen sehr kleinen Dreiecken), aber bis es soweit kommt ist es einfacher an MIMD Einheiten zu denken als die Fuellrate unnoetig zu verplempern.

Gast
2009-05-26, 08:54:27
jedesmal wieder kommt diese ultra diskussion. die letzte ultra ist x generationen her. bei der aktuellen spiele lage wird niemals eine 4gb geforce karte kommen!Wieso nicht? 4GB für eine normale Karte sind kaum rechtfertigbar, da kann ich den bisherigen Argumenten nur beipflichten. Quadros/Teslas sind keine Spielekarten und tauchen daher auch in keinen Spielebenchmarks auf, können also die marketingwirksame Leistungskrone nicht erobern. Aber eine Ultra? Die waren immer unverhältnismäßig teuer, kaum verfügbar - und dennoch eine prima Werbung, da sie auf den Rest des Sortiments "ausstrahlen". Warum also nicht eine mit der doppelten Menge VRAM?
Hat mehrere Vorteile:
In extremen Settings, die meist als Vorwegnahme zukünftiger Leistungsanforderungen dargestellt werden, kann man durchs zusätzliche VRAM höchstwahrscheinlich auch ein saftiges Leistungsplus erwarten.
Weil sie nochmal deutlich teurer ausfällt als übliches Highend braucht man geringere Stückzahlen - wodurch man die Chips pingeliger selektieren kann und noch ein paar % mehr Takt rausquetscht.
Und im Vergleich zu X2-Karten hat man ein Flaggschiff, gegen das nur der Preis spricht, keine Negativaspekte wie Mikroruckler, effektiv nur halb nutzbares VRAM, Latenzen, Abhängigkeit von Profilen uswusf.

Was bestimmt nicht wieder kommt ist eine Ultra, die nur ein wenig mehr Takt hat und ansonsten dem normalen Highend gleicht. Übertaktete Karten gibt es doch wie Sand am Meer...

Chris Lux
2009-05-26, 09:02:13
es ist aber ein unterschied zwischen wunschdenken und realität.

Gast
2009-05-26, 09:49:16
Stimmt. Von NV30 gab's eine Ultra, von NV40 gab's eine Ultra, von NV50 aka G80 gab es auch eine. Warum du dir wünschst, dass es von NV60 aka G(T)300 keine Ultra gibt ist mir nicht so ganz klar. Brauchst sie ja nicht zu kaufen. :uhippie:

Um neben dem Geschichtsexkurs noch ein weiteres Argument anzubringen:
Laut PCGHW bringen die 2GB-285er teilweise das dreifache Tempo der 1GB-285er, laut den aktuell kursierenden Spekus soll G(T)300 die doppelte bis dreifache Leistung auf den Schirm bringen. Demnach sollte sie von einem weiter verdoppelten VRAM auf 4GB deutlich profitieren können.

Damit mich keiner falsch versteht:
Ich halte es für wahrscheinlicher, dass erst im Refresh mehr als 2GB angeboten werden. Eine 4GB-Karte ist aber weder sinnlos noch unmöglich.

Gast
2009-05-26, 10:05:33
Die 7800GTX/512 war von den Eigenschaften her ebenfalls eine Ultra (Verfügbarkeit, Preis, Ultra-Highend-Flair ;)), auch wenn sie nicht so hieß. Hier waren die Unterschiede zwischen stärkstem und zweitstärkstem Produkt sogar noch deutlich größer als bei NV40- oder später G80-Ultras.

Ailuros
2009-05-26, 10:07:53
Stimmt. Von NV30 gab's eine Ultra, von NV40 gab's eine Ultra, von NV50 aka G80 gab es auch eine. Warum du dir wünschst, dass es von NV60 aka G(T)300 keine Ultra gibt ist mir nicht so ganz klar. Brauchst sie ja nicht zu kaufen. :uhippie:

Haarspalterei: "NV70".

***edit: und damit es etwas genauer wird:

G80 = NV50
G92 = NV55
GT200 = NV60
GT200b = NV65
G300 = NV70


Um neben dem Geschichtsexkurs noch ein weiteres Argument anzubringen:
Laut PCGHW bringen die 2GB-285er teilweise das dreifache Tempo der 1GB-285er, laut den aktuell kursierenden Spekus soll G(T)300 die doppelte bis dreifache Leistung auf den Schirm bringen. Demnach sollte sie von einem weiter verdoppelten VRAM auf 4GB deutlich profitieren können.

Link bitte.

Damit mich keiner falsch versteht:
Ich halte es für wahrscheinlicher, dass erst im Refresh mehr als 2GB angeboten werden. Eine 4GB-Karte ist aber weder sinnlos noch unmöglich.

Ein Refresh koennte durchaus mehr als 3GB Speicher haben aber dann wohl nicht pro chip.

Gast
2009-05-26, 10:58:09
Haarspalterei: "NV70".

***edit: und damit es etwas genauer wird:

G80 = NV50
G92 = NV55
GT200 = NV60
GT200b = NV65
G300 = NV70Ohne neues SM hat's IMHO keinen vollen Zehnersprung verdient. Aber gut, durch CUDA ist's dann doch ein wenig durcheinander geraten...
Link bitte.Finde es momentan nicht, war aber IIRC y33h@, der es hier in einem Nebensatz fallen ließ.
Ein Refresh koennte durchaus mehr als 3GB Speicher haben aber dann wohl nicht pro chip.Wenn es nur um Grafik gehen würde und nur um Mainstream OK. Weil aber speziell Physik und allgemein Compute Shader dazukommen glaube ich da nicht wirklich dran. Nur 1,5GB pro Chip für DX11-Grafik, Physik und... tja, was weiß ich... KI? Sound? Pathfinding? Bischen knapp, oder?

Ailuros
2009-05-26, 11:06:55
Ohne neues SM hat's IMHO keinen vollen Zehnersprung verdient. Aber gut, durch CUDA ist's dann doch ein wenig durcheinander geraten...

Aenderungen an internen oder breiter bekannten Codenamen kommen normalerweise mit jeglichem neuen Herstellungsprozess der benutzt wird.

Finde es momentan nicht, war aber IIRC y33h@, der es hier in einem Nebensatz fallen ließ.

Ich wuerde den Grenzfall trotzdem gerne sehen der eine Steigerung von bis zu 3x Mal liefern soll.

Wenn es nur um Grafik gehen würde und nur um Mainstream OK. Weil aber speziell Physik und allgemein Compute Shader dazukommen glaube ich da nicht wirklich dran. Nur 1,5GB pro Chip für DX11-Grafik, Physik und... tja, was weiß ich... KI? Sound? Pathfinding? Bischen knapp, oder?

1,792GB pro chip waeren zwei Mal so viel Speicher wie auf der heutigen GTX295.

Gast
2009-05-26, 11:42:51
Ich wuerde den Grenzfall trotzdem gerne sehen der eine Steigerung von bis zu 3x Mal liefern soll.Auch wenn es nicht das Gesuchte ist:
Zieh zu diesem Beitrag (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7316097&postcount=663) mal noch einen Taschenrechner hinzu und dir wird klar, dass 3xFPS bei weitem nicht der extremste Grenzfall bei verdoppeltem VRAM ist.
Denn Backbuffer + Zbuffer > VRAM = Autsch!
Dürfte auf ner 2G noch flutschen. Was von beidem wohl ausgelagert wird ;D

Ja, so ziemlich übelstmögliches Beispiel und ich kann mir deinen Kommentar dazu schon denken. Gibt aber sicher auch aktuellere Praxisbeispiele. Hoffentlich nicht erst in der nächsten PCGH-Print...

robbitop@work
2009-05-26, 11:46:10
Aenderungen an internen oder breiter bekannten Codenamen kommen normalerweise mit jeglichem neuen Herstellungsprozess der benutzt wird.

NV hat bisher nur volle neue 10 Zahlen bei neuen Architekturen vergeben. IMO wäre GT300 ein NV60. GT200 wäre so eine Art NV55 oder 58, G92 ein NV55 oder NV51. G92 war ja nur ein Shrink mit mildesten Upgrades und zusätzlich noch eine Beschneidung des SIs. GT200b hätte sicher auch noch eine Zahl übrig. Aber was soll's? NV ist ja nicht grundlos vom NVxx Schema abgewichen. Es waren pro Arch einfach nicht genug Zahlen verfügbar.

Ailuros
2009-05-26, 12:13:58
NV hat bisher nur volle neue 10 Zahlen bei neuen Architekturen vergeben. IMO wäre GT300 ein NV60. GT200 wäre so eine Art NV55 oder 58, G92 ein NV55 oder NV51. G92 war ja nur ein Shrink mit mildesten Upgrades und zusätzlich noch eine Beschneidung des SIs. GT200b hätte sicher auch noch eine Zahl übrig. Aber was soll's? NV ist ja nicht grundlos vom NVxx Schema abgewichen. Es waren pro Arch einfach nicht genug Zahlen verfügbar.

http://www.brightsideofnews.com/news/2009/5/18/nvidia-geforce-gtx380-clocks-leak-out.aspx

Auch wenn es nicht das Gesuchte ist:
Zieh zu diesem Beitrag (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7316097&postcount=663) mal noch einen Taschenrechner hinzu und dir wird klar, dass 3xFPS bei weitem nicht der extremste Grenzfall bei verdoppeltem VRAM ist.
Denn Backbuffer + Zbuffer > VRAM = Autsch!
Dürfte auf ner 2G noch flutschen. Was von beidem wohl ausgelagert wird ;D

Ja, so ziemlich übelstmögliches Beispiel und ich kann mir deinen Kommentar dazu schon denken. Gibt aber sicher auch aktuellere Praxisbeispiele. Hoffentlich nicht erst in der nächsten PCGH-Print...

Ich konnte schon in 2006 mit extremen Grenzfaellen den VRAM einer 8800GTX/768MB lehrlaufen lassen und das sogar mit nur 16xQ in 2048*1536 in Serious Sam2. Es aenderte aber trotzdem nichts daran dass fuer die Lebenszeit der GPU und ihren Faehigkeiten der Speicher fuer normale Situationen ausreichte.

Wie gesagt fuer extreme hybride MSAA+SSAA Faelle und/oder hohe SSAA Sample Anzahlen gibt es stets SLi configs wo Ihr Euch damit austoben koennte. Mit SLi skaliert die SSAA Leistung sowieso ziemlich gut selbst unter SFR.

AnarchX
2009-05-26, 18:49:29
1GiB VRAM Referenz wäre doch in der Tat etwas schwach.
Das wären von 2006 aus gesehen gerade mal eine Steigerung von 33%, wo hingegen von 2003 zu 2006 der VRAM um 200% gewachsen ist. Geschwindigkeit des Speichers hat sich in beiden Fällen etwa verdoppelt.

Einziger Vorteil könnte hier wohl sein, dass NV so sich die Speicherversorgung sichert, denn AMD wird wohl auf seinen Karten eher die 1024Mbit 0.4ns Chips einsetzen und nicht die 512Mbit wie NV.
Auf Karten in niedrigeren Preisbereichen wird wohl noch primär 0.5ns Speicher eingesetzt werden.

Spasstiger
2009-05-26, 18:50:37
Der Gast hat recht. Innerhalb einer Szene generierte Daten müssen natürlich synchronisiert werden.
Ok, GPU-seitig generierte Geometrie- und Texturdaten hatte ich jetzt nicht auf meiner Rechnung.

1GiB VRAM Referenz wäre doch in der Tat etwas schwach.
Vielleicht gibts auch zwei Referenzspecs, einmal mit 1 GiB und einmal mit 2 GiB.
Allerdings könnte NV mehr Käufer für ein teures Modell begeistern, wenn der Unterschied zur abgespeckten Version groß ist. Und das könnte man z.B. erreichen, wenn man die GTX 380 ausschließlich mit 2 GiB VRAM anbietet und die GTX 360 ausschließlich mit 896 MiB VRAM.

Gast
2009-05-26, 19:06:41
Ok, GPU-seitig generierte Geometrie- und Texturdaten hatte ich jetzt nicht auf meiner Rechnung.
Dann schau mal in die Programming Guids für SLI.

Die Synchronisation der dynamischen Daten ist eines der Hauptprobleme bei heutigen MultiGPU Systemen. Das fängt bei Postscreeneffekten an, geht über dynamisch generierte Texturen bis zu grundlegenden Systemen wie Reprojectioncache.
Jedesmal wenn man mit AFR Daten vom letzten Frame nutzen will, muss man sie doppelt berechnen oder stallt die GPU wegen der Synchronisation.

Der_Korken
2009-05-26, 23:34:02
Allerdings könnte NV mehr Käufer für ein teures Modell begeistern, wenn der Unterschied zur abgespeckten Version groß ist. Und das könnte man z.B. erreichen, wenn man die GTX 380 ausschließlich mit 2 GiB VRAM anbietet und die GTX 360 ausschließlich mit 896 MiB VRAM.

Das wäre doch totaler Unsinn. Je nachdem wie schnell der RV870 wird, muss man die GTX360 dann zu Dumpingpreisen verkaufen, da sie mit dem kleinen Speicher gegen eine mögliche HD5870 verliert. Da wäre es schon besser, wenn man das SI auf 384bit senkt, statt auf 448bit. Damit würde man für Highend-User, die viel AA nutzen, auch Anreiz schaffen. Speicher- und PCB-Kosten sinken trotzdem.

Spasstiger
2009-05-27, 00:07:45
Das wäre doch totaler Unsinn. Je nachdem wie schnell der RV870 wird, muss man die GTX360 dann zu Dumpingpreisen verkaufen, da sie mit dem kleinen Speicher gegen eine mögliche HD5870 verliert. Da wäre es schon besser, wenn man das SI auf 384bit senkt, statt auf 448bit. Damit würde man für Highend-User, die viel AA nutzen, auch Anreiz schaffen. Speicher- und PCB-Kosten sinken trotzdem.
Wenn GTX-380-Samples schon nur 1 GiB VRAM haben, wird die GTX 360 wohl kaum mit 1,5 GiB VRAM kommen wie du das hier implizierst.
Außerdem weiß kein Mensch wie schnell die HD 5870 wird. Und es weiß auch niemand, wie schnell die GTX 360 wird.

V2.0
2009-05-27, 07:00:26
Bei 2GiB GDDR5 hat masn aber schnell einen Interessenkonflikt zwischen mehr Leistung (in wenig benchmarkrelevanten Settings) und wahrscheinleich einem spürbare größeren Idleverbrauch. Ich erwarte 1GB auf dem Referenzdesign zum Launch und 2GB auf Herstellerkarten.

AnarchX
2009-05-27, 07:05:39
Ob nun 1024Mbit oder 512Mbit Speicherchips hat keinen großen Einfluss auf den Idleverbrauch (siehe HD4870).

Und ob Nvidia GDDR5 bzw. den MC im Idle besser unter Kontrolle hat wird sich noch zeigen müssen. Auf einer High-End-Karte könnte man das wohl annehmen, auf den teureren Mobility HD4800 hat AMD es wohl auch unter Kontrolle.

BlackBirdSR
2009-05-27, 07:20:55
Liegts wirklich am DRAM-Controller? Gibts da ofizielle Aussagen die haltbar sind?

Ailuros
2009-05-27, 08:13:36
Bei 2GiB GDDR5 hat masn aber schnell einen Interessenkonflikt zwischen mehr Leistung (in wenig benchmarkrelevanten Settings) und wahrscheinleich einem spürbare größeren Idleverbrauch. Ich erwarte 1GB auf dem Referenzdesign zum Launch und 2GB auf Herstellerkarten.


Ueber den Idle-Verbrauch wuerde ich mir keine besondere Sorgen machen. Es soll ja powergating in dem Ding stecken.

Der_Korken
2009-05-27, 11:33:04
Und das könnte man z.B. erreichen, wenn man die GTX 380 ausschließlich mit 2 GiB VRAM anbietet und die GTX 360 ausschließlich mit 896 MiB VRAM.
Wenn GTX-380-Samples schon nur 1 GiB VRAM haben, ...

Ja was denn nun? Ausgehend davon, dass die GTX380 2GB VRAM bekommt, wären 896MB für die GTX360 imho Schwachsinn. Dann lieber ein kleineres SI und 1,5GB VRAM, das würde als Abgrenzung genügen. Wenn die GTX380 nur 1GB VRAM hat, dann sind für mich auch 896MB für die GTX360 in Ordnung.

LovesuckZ
2009-05-27, 11:46:32
Wenn man als Defaultbausteine 1024bit verwendet, dann wird eine GTX360 ebenfalls über 1024bit vefügen und eine noch abgespecktere eben nur über 512bit. Es macht kein Sinn die Speichersteine zu sortieren. Man kauft eine Menge ein und verwendet diese dann.

Spasstiger
2009-05-27, 14:14:53
Ja was denn nun? Ausgehend davon, dass die GTX380 2GB VRAM bekommt, wären 896MB für die GTX360 imho Schwachsinn. Dann lieber ein kleineres SI und 1,5GB VRAM, das würde als Abgrenzung genügen.
Ich kann mir auch vorstellen, dass die GTX 380 mit 1 GiB als Referenz und mit 2 GiB als Option für die AIB-Partner kommt. Und die GTX 360 ebenfalls mit einem 512-Bit-SI und 1 GiB VRAM (Referenz), aber dafür nur GDDR3-Speicher. So wäre man zumindest unabhängig von der Verfügbarkeit schneller 1024-Mbit-GDDR5-Chips.

/EDIT: Eine GTX 395 (GX2) kann ich mir mit 2*1,75 GiB GDDR5 an zwei 448-Bit-SIs vorstellen. Das wären dann 28 Speicherchips wie bei der GTX 295.

Gast
2009-05-27, 14:18:46
Lässt sich doch Marketingtechnisch auch sehr gut ausschlachten.
GTX380 mit 1GiB, GTX380 Ultra mit 2GiB mit bissl mehr Taktrate und ordentlich Aufpreis, und zum abrunden die GTS360 mit 896 MiB.

Und den Herstellern überlässt man es einfach, wie auch jetzt, ob sie 2GiB bzw. 1792MiB auf den kleineren Karten verbauen, damit ist man bisher gut gefahren.

AnarchX
2009-05-27, 17:17:16
I. Und die GTX 360 ebenfalls mit einem 512-Bit-SI und 1 GiB VRAM (Referenz), aber dafür nur GDDR3-Speicher. So wäre man zumindest unabhängig von der Verfügbarkeit schneller 1024-Mbit-GDDR5-Chips.


Und hätte nur die halbe Bandbreite der größeren GT300-SKU.

Um die 200GB/s sollte doch die nächst kleinere SKU haben, um nicht die GPU-Leistung zu limitieren und das kann mit dem 0.5ns Massenware-GDDR5 auch an einem 448-Bit MC erreichen.

Liegts wirklich am DRAM-Controller? Gibts da ofizielle Aussagen die haltbar sind?
Wenn man 4770 und 4870 untertaktet, spart erstere AFAIK doch weniger ein, obwohl die gleiche Speicherausstattung vorliegt.

Gast
2009-05-27, 20:13:25
Mal ab von der Leistung.Ich hoffe,dass die Karten endlich mal ne gute Lüftersteuerung bekommen.Bei der GTX280 wird der Lüfter selbst bei unerklärlichen Situationen laut wie die Höhle.

LovesuckZ
2009-05-27, 20:19:24
Mal ab von der Leistung.Ich hoffe,dass die Karten endlich mal ne gute Lüftersteuerung bekommen.Bei der GTX280 wird der Lüfter selbst bei unerklärlichen Situationen laut wie die Höhle.

Der Lüfter wird laut, weil deine Karte zuviel Wärme aufgrund des Stromverbrauches produziert. ;)

Spasstiger
2009-05-27, 20:29:17
Und hätte nur die halbe Bandbreite der größeren GT300-SKU.
Es wäre die gleiche Situation wie bei der Radeon HD 4850 und der HD 4870 und auch die Verhältnisse von Shaderleistung zu Speicherbandbreite wären ähnlich. Ich würde diesen Weg nicht direkt ausschließen. Zumal es GDDR3-Speicher bis 2,8 Gbps gibt

AnarchX
2009-05-27, 21:44:38
Es wäre die gleiche Situation wie bei der Radeon HD 4850 und der HD 4870 und auch die Verhältnisse von Shaderleistung zu Speicherbandbreite wären ähnlich.
Bei einer $199 Karte ist eben der Speicher ein größerer Posten in der BOM, als bei einer >$300-Karte.

Nicht ohne Grund hat NV in der nahen Vergangenheit die kleinere Version stets mit 70-80% der Speicherbandbreite der größten SKU ausgestattet, im Endeffekt würde doch die teure GPU der "GTX 360" unter dieser niedrigen Bandbreite unnötig limitiert werden und man würde der RV870XT ein zu leichtes Spiel lassen.;)


Ich würde diesen Weg nicht direkt ausschließen. Zumal es GDDR3-Speicher bis 2,8 Gbps gibt
Fraglich nur ob dieser günstiger ist als 0.5ns GDDR5, natürlich hätte man den Vorteil der Verfügbarkeit, da wohl sonst niemand diesen einsetzt. :D

=Floi=
2009-05-28, 04:33:27
da die ROPs aber mit dem speicherbus zusammenhängen ergibt sich die speichermenge von selbst. imho ist das ein nebeneffekt, aber kein wirklicher grund, zumal das pcb damals das gleiche war und eher die rops defekt waren!

Dimon
2009-05-28, 16:48:43
Apropo 4 GB Grafikspeicher, hier das kleine Dual Monster von Asus :eek:

http://www.computerbase.de/news/hardware/grafikkarten/2009/mai/asus_monster-dual-gtx_285_4_gb/

zwar ist eine GTX285 mit "nur" 2GB ausgestattet, trotzdem ist das teil bestimmt ein wahrer Renner, und verheizt sicherlich jede "Original" GTX295 :biggrin:


Gruß

Mayk-Freak
2009-05-28, 17:27:12
Krasses teil, will 2 davon haben!:smile:

Der_Korken
2009-05-28, 17:29:13
Die Belüftung sieht aber sehr spärlich aus. Das wird wohl ein ziemlicher Fön werden, denn dieses Monstrum wird die 300Watt-Grenze sehr deutlich sprengen.

Edit: Ähm, sehe ich nicht richtig, oder haben beide PCBs zusammen nur einen 6pin- und einen 8-pin Anschluss? Ist dsa nicht etwas wenig für GTX285 im Vollausbau?
Und im GT200-Thread wäre das hier sicher auch besser aufgehoben.

Gast
2009-05-28, 17:37:01
Was hat das jetzt mit dem GT300 zu tun ??

AnarchX
2009-05-28, 18:03:52
Was hat das jetzt mit dem GT300 zu tun ??
Darum geht es hier weiter: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7327553#post7327553

Tarkin
2009-06-04, 17:01:52
"CJ" zum Thema G300 vs "Evergreen"

"Evergreen is the entire DX11 family name according to my source at Computex. He also had some juicy bits about GT300... pushed back to 2010 supposedly.. confirmed by a major AIC. Let me see if I can find out more."

http://forum.beyond3d.com/showpost.php?p=1300053&postcount=829

"All I've been told is that it was pushed back to 'next year'. Could be a smokescreen, but somehow I doubt it... I wouldn't be suprised to see a (paper)launch at the end of Q4 09 though... maybe they'll do a similar "Are You Ready?" campaign... trying to keep people from buying competing products already on the market. :P"

http://forum.beyond3d.com/showpost.php?p=1300110&postcount=842

Zur Erinnerung an die guten alten Zeiten: http://www.nvidia.com/content/areyouready/index.html

;)

reunion
2009-06-04, 17:12:23
CJ ist schon wesentlich glaubwürdiger wie Charlie, mal sehen wie es weiter geht. Wird natürlich auch immer viel FUD erzählt.

Gast
2009-06-04, 17:23:02
He also had some juicy bits about GT300... pushed back to 2010 supposedly.. confirmed by a major AIC. Das wäre natürlich brutal. Sieht es bei TSMC wirklich so schlecht aus? Oder könnte dieser Informationshappen aufgrund einer Unaufgeklärtheit in der Terminologie des Chips (G300 vs. GT300) falsch aufgenommen worden sein?

Gast
2009-06-04, 18:11:32
Naja wenn sich GT300 verzögert ist es diesmal ein fast sicheres anzeichen, das sich auch AMD Derivate verzögern, da es am Prozess von TMSC liegt.

LovesuckZ
2009-06-04, 18:27:09
"CJ" zum Thema G300 vs "Evergreen"

"Evergreen is the entire DX11 family name according to my source at Computex. He also had some juicy bits about GT300... pushed back to 2010 supposedly.. confirmed by a major AIC. Let me see if I can find out more."

http://forum.beyond3d.com/showpost.php?p=1300053&postcount=829

"All I've been told is that it was pushed back to 'next year'. Could be a smokescreen, but somehow I doubt it... I wouldn't be suprised to see a (paper)launch at the end of Q4 09 though... maybe they'll do a similar "Are You Ready?" campaign... trying to keep people from buying competing products already on the market. :P"

http://forum.beyond3d.com/showpost.php?p=1300110&postcount=842

Zur Erinnerung an die guten alten Zeiten: http://www.nvidia.com/content/areyouready/index.html

;)

Cool, du klaust sogar schon Witze von anderen. Ich hab im Beyond3d.com Forum gelacht. :P

mictasm
2009-06-04, 21:11:59
"CJ" zum Thema G300 vs "Evergreen"

"Evergreen is the entire DX11 family name according to my source at Computex. He also had some juicy bits about GT300... pushed back to 2010 supposedly.. confirmed by a major AIC. Let me see if I can find out more."

http://forum.beyond3d.com/showpost.php?p=1300053&postcount=829

"All I've been told is that it was pushed back to 'next year'. Could be a smokescreen, but somehow I doubt it... I wouldn't be suprised to see a (paper)launch at the end of Q4 09 though... maybe they'll do a similar "Are You Ready?" campaign... trying to keep people from buying competing products already on the market. :P"

http://forum.beyond3d.com/showpost.php?p=1300110&postcount=842

Zur Erinnerung an die guten alten Zeiten: http://www.nvidia.com/content/areyouready/index.html

;)

Ist G300=GT300 oder sind es zwei Chips?

AnarchX
2009-06-04, 21:18:44
Das ist momentan die Frage. GT200 ist laut Heatspreader auch ein G200.
Interessant wäre für NV sicherlich ein Workstation/Server-Die mit mehr SPs bzw. mehr Cache, den man gegen den LRB-XE stellt.
Aber ob so ein zusätzlicher Die wirtschaftlich wäre, ist eine andere Frage.

LovesuckZ
2009-06-04, 21:22:40
Ist G300=GT300 oder sind es zwei Chips?

Man weiß es nicht. Wahrscheinlich gibt es viel zu viel Müll, dass sich im Umlauf befindet. Ich würde da nicht jedes Gerücht für voll nehmen.
Dazu kommt noch, wenn AMD Chips produzieren kann, dann gilt dies natürlich auch für nVidia. Und im >500$ Bereich benötigt man auch kein großes Volumen.

reunion
2009-06-04, 21:30:33
Aber man wird naturgemäß von einem schlechten Prozess härter getroffen. Außerdem muss es ja nicht zwangsläufig am Prozess liegen.

LovesuckZ
2009-06-04, 21:38:55
Aber man wird naturgemäß von einem schlechten Prozess härter getroffen.

Ändert nichts daran, dass man produzieren könnte. Selbst wenn die Ausbeute nur bei <10% läge, würde dies vollkommen ausreichen, um ein paar Karten in den Verkauf zu bringen und einen Launch abzuhalten.

reunion
2009-06-04, 21:44:14
Bleibt die Frage ob man es sich leisten könnte bei einem Die welches selbst bei guten Yields schon >100$ kosten würde mit <10% Yieldrate leben zu können.

Gast
2009-06-04, 21:57:01
Bleibt die Frage ob man es sich leisten könnte bei einem Die welches selbst bei guten Yields schon >100$ kosten würde mit <10% Yieldrate leben zu können.
Könnte man. Ob 100 oder 200$, daran soll eine knapp verfügbare 600$ Karte nicht scheitern.

Ailuros
2009-06-05, 10:50:49
Leute wie Charlie und CJ haben hoechstwahrscheinlich ihre Quellen nahe an Microsoft wenn es zu G300 kommt.

Das TSMC 40G Problem wurde immer noch nicht behoben und GDDR5 wurde in grosser Anzahl von zwei grossen Herstellern vorbestellt (ergo ein Problem weniger). Ich weiss zwar von welchen Semis der Speicher kommen wird, aber ich hab keine Lust morgen wieder das Zeug auf etlichen Seiten zu sehen.

igg
2009-06-05, 10:59:09
TSMC 40G Problem wurde immer noch nicht behoben
Es wäre bitter wenn Nvidia diese Runde wegen TSMC verliert... insbesondere wenn der Chip selbst einiges hergibt.

Gast
2009-06-05, 11:03:55
Das wäre auch für uns bitter. Gerade bei der sich anbahnenden Kreditklemme ist Liquidität und Einnahmen das a und o. Einen Absatzeinbruch, welcher noch über das aktuelle Maß hinausgeht, ist wohl schwer zu verkraften. Hoffen wir mal, dass NVidia nur seine Marketingstrategie geändert hat und uns alle positiv überrascht.

Ailuros
2009-06-05, 11:24:11
Es wäre bitter wenn Nvidia diese Runde wegen TSMC verliert... insbesondere wenn der Chip selbst einiges hergibt.

Wo stellt AMD her?

igg
2009-06-05, 11:35:28
Wo stellt AMD her?
Ich denke AMD profitiert indirekt

RV840 usw. dürften sehr kleine Chips sein,als Laie vermute ich: Je größer und komplexer ein Chip, desto höher die Ausfallraten bei fehlerhaftem Prozess
RV870 ist evtl. auch klein genug um größere Margen als ein wesentlich komplexerer Chip zu erreichen
Gerüchten zu Folge geht AMD nächstes Jahr beireits zu GF

Ailuros
2009-06-05, 11:57:33
Ich denke AMD profitiert indirekt

Alle bisherigen 40nm Prozesse scheinen yield Probleme zu haben.


]RV840 usw. dürften sehr kleine Chips sein,als Laie vermute ich: Je größer und komplexer ein Chip, desto höher die Ausfallraten bei fehlerhaftem Prozess

RV740 kommt in zu geringen Quantitaeten selbst heute noch aus der Schmiede. Wieviele OEM Vertraege konnte dieser bisher landen und was hat NV im Vergleich angestellt, obwohl im Grund NV spaeter ihre GT21x@40nm veroeffentlicht? Hat hier vielleicht ein IHV eine gesunde Anzahl an Quantitaeten sammeln koennen um X OEM Vertraege decken zu koennen?

RV870 ist evtl. auch klein genug um größere Margen als ein wesentlich komplexerer Chip zu erreichen

Du kannst mich aber nicht versichern dass das vorgezeigte ~180mm2 Silizium erstmal RV870 (welches es wohl NICHT ist) und schon gar nicht dass dieses 180mm2 Exemplar vor ca. Oktober erhaeltlich sein wird oder? Wird es irgendwie waermer in der Zwischenzeit?

Gerüchten zu Folge geht AMD nächstes Jahr beireits zu GF
[/LIST]

Was hat das jetzt mit RV870/G300, TSMC@40nm genau zu tun? GF leckt momentan jeden moeglichen Boden um Kunden wie NV auf den Ball zu bekommen, was theoretisch NV nicht aufhaelt auch mit GF einen Vertrag abzuschliessen.

Gast
2009-06-05, 13:34:06
wie so wird eigentlich immer auf diese 40nm TSMC probleme hingewissen und das der G300 somit viel zuteuer sei usw.

glaube kaum das es NV interessieren sollte wie viele gute GPUs TSMC von einem Wafer herstellen kann, wie so sollte NV nur einen cent pro GPU mehr zahlen wenn das problem doch eindeutig bei TSMC liegt, blöd sind die ja nicht...

das grösste problem dürfte für NV wohl sein das man wegen den problemen schlicht einfach zu wenig GPUs bekommen wird und somit nicht liefern kann

reunion
2009-06-05, 13:38:15
wie so wird eigentlich immer auf diese 40nm TSMC probleme hingewissen und das der G300 somit viel zuteuer sei usw.

glaube kaum das es NV interessieren sollte wie viele gute GPUs TSMC von einem Wafer herstellen kann, wie so sollte NV nur einen cent pro GPU mehr zahlen wenn das problem doch eindeutig bei TSMC liegt, blöd sind die ja nicht...

das grösste problem dürfte für NV wohl sein das man wegen den problemen schlicht einfach zu wenig GPUs bekommen wird und somit nicht liefern kann

Weil sämtliche Aussagen das ein Kunde nur pro funktionierendem Die zahlt bestenfalls Spekulationen sind. Das kommt zwar immer wieder gerne auf, Fakten dazu gibt es aber nicht. Umsonst hört man die IHVs nicht immer wieder jammern wenn die Yields schlecht sind. Wenn ich eine Foundry wie TSMC wäre würde ich einen Dreck tun und Fertigungsrisiken selbst tragen. NV ist von TSMC sicher mehr abhängig wie TSMC von nV, denn die haben auch noch dutzende andere Kunden. Und eine wirkliche Alternative zu TSMC gibt es zumindest bis Globalfoundies aufkam nicht. UMC ist bestenfalls für Lowend-Chips zu gebrauchen.

Ailuros
2009-06-05, 13:55:40
Weil sämtliche Aussagen das ein Kunde nur pro funktionierendem Die zahlt bestenfalls Spekulationen sind. Das kommt zwar immer wieder gerne auf, Fakten dazu gibt es aber nicht. Umsonst hört man die IHVs nicht immer wieder jammern wenn die Yields schlecht sind.

Dass die IHVs aber ueber schlechte yields jammern deutet aber auch nicht unbedingt auf jegliche Kosten. Dass ein jegliches Projekt um X Zeitraum verspaetet wird in solch einem Fall kostet einem jeglichem IHV schon genug um sich darueber zu beschweren.

Anders Produkte wie RV8x0 und G300 koennten in einer anderen Situation schon Mitte Sommer auf Ladentischen hocken.

Wenn ich eine Foundry wie TSMC wäre würde ich einen Dreck tun und Fertigungsrisiken selbst tragen. NV ist von TSMC sicher mehr abhängig wie TSMC von nV, denn die haben auch noch dutzende andere Kunden. Und eine wirkliche Alternative zu TSMC gibt es zumindest bis Globalfoundies aufkam nicht. UMC ist bestenfalls für Lowend-Chips zu gebrauchen.

Du denkst doch nicht ernsthaft dass NV sich alles gefaellen laesst so lange es stets Alternativen gibt. Natuerlich ist eine foundry wie GF gerade am Anfang aber NV kann selbst nur mit der Moeglicheit eines Vertrags mit GF als Beispiel drohen. Benutzte NV TSMC fuer NV40? Was war der Grund nochmal?

=Floi=
2009-06-05, 14:09:24
entweder man zahlt für gute und schlechte chips, oder man zahlt einen höheren preis nur für gute chips. Es sollte unterm strich auf das gleiche hinauslaufen und bei einer längeren lebensdauer und besseren yields optimaler für nv sein. Die kosten müssen so oder so getragen werden und da ist es eigentlich egal wer das genau macht.

Gast
2009-06-05, 14:41:26
NV ist von TSMC sicher mehr abhängig wie TSMC von nV,

Ganz im Gegenteil, denn wie soll TSMC den Fertigungsprozess denn auf Tauglichkeit überprüfen, da sie ja selbst keine Chips designen?

Godmode
2009-06-05, 21:59:23
In der aktuellen PCGH steht auf Seite 10 folgendes:

PCGH: "Angeblich ist die 40-nm-Ausbeute bei einer Takfrequenz bis 700 MHz sehr gut - genau diese Frequenz wird dem G300-Chip - ohne das "T" für Tesla unterstellt. (cs)"

AnarchX
2009-06-05, 22:55:46
Und dann frag dich mal, wo Carsten das her hat. ;)

Die 700MHz Meldung hatte Fudo sogar von seiner Seite wieder entfernt:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7313835#post7313835
... denn die 20% Yield des RV740 haben wohl kaum etwas mit der Taktrate zu tun, die man für die HD4770 auch ohne Probleme hätte niedrigen ansetzen können.

h'lore
2009-06-06, 02:39:37
NV ist von TSMC sicher mehr abhängig wie TSMC von nV, denn die haben auch noch dutzende andere Kunden. Und eine wirkliche Alternative zu TSMC gibt es zumindest bis Globalfoundies aufkam nicht. UMC ist bestenfalls für Lowend-Chips zu gebrauchen.Mit solchen Aussagen wäre ich immer etwas vorsichtig. Nvidia und auch AMD/ATI sind sehr wichtige Kunden für TSMC. Ich kann mir vorstellen, dass ein schlechtes Verhältnis der Partner auf längere Sicht dazu führt, dass der IHV die Abhängigkeiten vom Fertiger schrittweise abbaut. Auch das Auslagern von weniger anspruchsvollen ASICs zu UMC war wohl ein solcher Schritt, der aber auch durchaus zum Ergebnis haben mag, dass sich TSMC in Zukunft etwas mehr "anstrengt". Genaues wissen aber weder du, noch ich.

edit: Gerüchten zu Folge geht AMD nächstes Jahr beireits zu GFEben solche lauten Überlegungen oder eben "Gerüchte" sind das, wodurch TSMC veranlasst wird, sich mehr Mühe zu geben.Wenn ich eine Foundry wie TSMC wäre würde ich einen Dreck tun und Fertigungsrisiken selbst tragen.Beim Lesen deiner Texte bekommt man ja fast schon den Eindruck, dass es sich bei Nvidia um einen nebensächlichen Kunden handeln würde, der vom Rest der Industrie ausgelacht und mit einem Tritt vor die Tür gesetzt werden würde, wenn man bei TSMC die ausschließlich auf Mitleid basierende Partnerschaft beenden würde. Ist schon sehr gnädig von den Taiwanern, dass sie die misslungenen Hinterhof-Designs von Nvidia in alten Anlagen fertigen, die man ansonsten ausmustern würde, um sie bei Ebay an Produktfälscher zu verticken. Für mich sieht es eher danach aus, als arbeitet man bei NV und TSMC eng zusammen, da Misserfolge eben nicht so einfach auf eins der Unternehmen beschränkt werden können. Ohne den jeweils anderen kann man eben kein Geld machen.

Eher noch ist TSMC daran gelegen, dass die aktuellen Probleme bei 40 nm nicht zuviel Schaden für die zukünftigen Geschäftsbeziehungen mit den betroffenen High-Performance-Kunden bedeuten.