Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GT400/GF100 - Q1/2010, DX11, CUDA 3.0


Seiten : 1 2 [3] 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75

Coda
2009-04-27, 19:41:23
NVidia ist mit dem GT200 bei der Erfüllung der Standards für double precision im Prinzip schon jetzt auf dem Stand von Larrabee.
Nö. Es fehlen Flags und Exceptions. Vor allem letzteres ist in eine GPU-Architektur sehr schwer zu integrieren. Man müsste pro Shader einen Exception-Handler mitgeben.

reunion
2009-04-27, 19:57:03
Und was den Vergleich zu Larrabee angeht, warte doch erstmal ab, ob die Vektorpipelines bei double precision wirklich die Hälfte des single precision Durchsatzes machen, wie viele stillschweigend voraussetzen. Intel hat sich bisher mit Aussagen zu double precision auffällig zurückgehalten. Vielleicht viertelt sich ja auch der Durchsatz bei DP (wie im Prinzip bei ATI)? Dann wären von den 2TFlops single precision bei DP auch nur noch 0,5T übrig. Und da könnte schon der RV870 auch fast hinkommen und der GT300 wahrscheinlich erst recht.


Es sind schon Intel-Folien durchgesickert welche Larrabee bis zu 1 TFLOP DP-Leistung zusprechend, man kann also davon ausgehen das die DP-Leistung nicht von schlechten Eltern sein wird. Und das selbst bei sehr alten Folien und einer wohl schon überholten Annahme von max. 24 Kernen:

http://img70.imageshack.us/img70/9112/geshervslarabeear9.jpg

Gipsel
2009-04-27, 20:08:51
Nö. Es fehlen Flags und Exceptions. Vor allem letzteres ist in eine GPU-Architektur sehr schwer zu integrieren. Man müsste pro Shader einen Exception-Handler mitgeben.
Und genau deswegen kann Larrabee wohl auch keine Exceptions. Das wird zwar unterstützt, allerdings wohl nur von der skalaren Pipeline (oder ich habe das jetzt falsch im Kopf).

Aber mit den Flags hast Du recht. Obwohl das auch bei den GPUs ähnlich wie bei Larrabees Maskenregister recht einfach umzusetzen wäre. Na warten wir mal ab, was der GT300 als direkter Konkurrent von Larrabee auf dem Gebiet mitbringt ;)

Ailuros
2009-04-27, 20:13:30
Es sind schon Intel-Folien durchgesickert welche Larrabee bis zu 1 TFLOP DP-Leistung zusprechend, man kann also davon ausgehen das die DP-Leistung nicht von schlechten Eltern sein wird. Und das selbst bei sehr alten Folien und einer wohl schon überholten Annahme von max. 24 Kernen:


Nun ja das angegebene SP=1/2DP wird es wohl nicht in Echtzeit erreichen koennen, aber wenn es zu BS marketing kommt ist kein IHV unschuldig.

Gipsel
2009-04-27, 20:14:32
Es sind schon Intel-Folien durchgesickert welche Larrabee bis zu 1 TFLOP DP-Leistung zusprechend, man kann also davon ausgehen das die DP-Leistung nicht von schlechten Eltern sein wird. Und das selbst bei sehr alten Folien und einer wohl schon überholten Annahme von max. 24 Kernen:
Vielleicht ist auf einer 3 Jahre alten Folie noch mehr inzwischen überholt ;)

Ich meinte Verlautbarungen in jüngerer Zeit. Und da verweist Intel momentan immer auf später und redet nur über single precision. Wie man das interpretieren will, bleibt jedem selbst überlassen.

Coda
2009-04-27, 20:14:36
Und genau deswegen kann Larrabee wohl auch keine Exceptions. Das wird zwar unterstützt, allerdings wohl nur von der skalaren Pipeline (oder ich habe das jetzt falsch im Kopf).
Da hast du recht. Auch SSE kann das schon nicht.

Ailuros
2009-04-27, 20:18:14
Vielleicht ist auf einer 3 Jahre alten Folie noch mehr inzwischen überholt ;)

Die Folie ist relativ neu im Vergleich zum anderen Zeug dass herumschwirrt.

Gipsel
2009-04-27, 20:23:55
Die Folie ist relativ neu im Vergleich zum anderen Zeug dass herumschwirrt.
Nee, die ist von 2006. Es gibt aber auch ein paar Präsentationen von 2008 und 2009. Da liest man bloß nichts mehr zur double precision Leistung. Vielleicht will man sich ja noch was aufheben?

Nightspider
2009-04-28, 04:28:20
Wie siehts aus ? Bringt die neue Generation Technologien mit um bishere No-AA-Games wie GTA4 zum AA zwingen zu können ?

Ailuros
2009-04-28, 08:38:03
Nee, die ist von 2006. Es gibt aber auch ein paar Präsentationen von 2008 und 2009. Da liest man bloß nichts mehr zur double precision Leistung. Vielleicht will man sich ja noch was aufheben?

Kann sein. Es ist aber trotz allem normal dass solche Angaben von den IHVs meistens sowieso nur theoretisches Marketing-Geblubber betrifft. Eine RV770 schafft auf Papier 1.2TFLOPs SP und 0.3 TFLOPs DP; Realitaet wird Dir zeigen dass sich die echten DP Werte eher in der =/>0.2 TFLOP DP Region bewegen.

FLOPs sind so oder so der albernste Massstab fuer jegliche Architektur da sie als theoretische Zahl die bedeutungsloseste ist IMHLO.

Ein interessantes Thema wenn es zu LRB und GPGPU kommt ist eher Ct; Intel muss hier bei dessen Unterstuetzung und updates zumindest genauso aggressiv sein wie NV mit CUDA. Und ich will natuerlich auch hoffen dass Ct einen eigentlichen Zweck bzw. gute Vorteile gegenueber OpenCL hat.

Wie siehts aus ? Bringt die neue Generation Technologien mit um bishere No-AA-Games wie GTA4 zum AA zwingen zu können ?

Wenn die Applikation nicht mitmacht, sieht es nicht danach aus als ob man daran etwas aendern koennte IMO. Ich lasse mich aber gerne eines anderen belehren.

Gast
2009-04-28, 09:07:20
FLOPs sind so oder so der albernste Massstab fuer jegliche Architektur da sie als theoretische Zahl die bedeutungsloseste ist IMHLO.

FLOPS ist nicht zwingend eine theoretische Angabe und eben genau der Maßstab, nach dem die Supercomputer in der Top500 geordnet werden. Die Anzahl der FLOPS ist ein recht aussagekräftiger Wert, solange sie eben praktisch gemessen wurden, also unter tatsächlich in der Praxis genutzter Software.

BlackBirdSR
2009-04-28, 09:48:16
Nur was misst diese "praktische" Messung?
Gerade SpecFP ist hochgradig abhängig von Cache- und Speichersubsystem. FLOPs-Messungen nach Linepack sind wiederum alles andere Aussagekräftig für Spiele. FLOPs nach SiSoft Sandra sind sinnlos für alles ausser Sandra.

Darum ging es AIL. Man kann die allermeisten FLOPs-Angaben nicht auf andere Anwendungen übertragen.

Gast
2009-04-28, 10:18:20
Wenn die Applikation nicht mitmacht, sieht es nicht danach aus als ob man daran etwas aendern koennte IMO. Ich lasse mich aber gerne eines anderen belehren.Die einzige 100% kompatible Option wäre die komplette Entkoppelung der berechneten von der ausgegebenen Auflösung, also im Grunde eine Erweiterung der GPU-Skalierung für digital angeschlossene Displays vom reinen Hochskalieren niedrigerer Auflösungen zum wahlfreien Skalieren einer beliebigen berechneten Auflösung auf die Displayauflösung. Bekommt man halt nur oft Probleme mit unlesbaren HUDs u.ä., aber prinzipiell möglich ist es - bei nahezu 0,0 Implementationsaufwand.

Ailuros
2009-04-28, 16:02:45
Die einzige 100% kompatible Option wäre die komplette Entkoppelung der berechneten von der ausgegebenen Auflösung, also im Grunde eine Erweiterung der GPU-Skalierung für digital angeschlossene Displays vom reinen Hochskalieren niedrigerer Auflösungen zum wahlfreien Skalieren einer beliebigen berechneten Auflösung auf die Displayauflösung. Bekommt man halt nur oft Probleme mit unlesbaren HUDs u.ä., aber prinzipiell möglich ist es - bei nahezu 0,0 Implementationsaufwand.

Ausser den unlesbaren HUDs hab ich Bahnhof verstanden. Eine etwas vereinfachte Erklaerung fuer den Laien hier vielleicht?

Coda
2009-04-28, 16:07:37
Er meint, dass man in der Applikation einfach z.B. 3840x2400 auswählen kann obwohl das Display nur 1920x1200 schafft. Dann wäre es transparent für die Anwendung und man hätte Supersampling.

Gast
2009-04-28, 16:26:25
FLOPS ist nicht zwingend eine theoretische Angabe und eben genau der Maßstab, nach dem die Supercomputer in der Top500 geordnet werden.
Ja, nach praktisch erreichter FLOP-Leistung im totoptimierten Linpack.

dargo
2009-04-28, 16:29:33
Er meint, dass man in der Applikation einfach z.B. 3840x2400 auswählen kann obwohl das Display nur 1920x1200 schafft. Dann wäre es transparent für die Anwendung und man hätte Supersampling.
Man, das wäre der Traum schlecht hin. Es gibt leider so viele Games die von Haus aus kein AA bieten. Ist sowas über den Treiber überhaupt machbar?

Mr. Lolman
2009-04-28, 16:49:48
Man, das wäre der Traum schlecht hin. Es gibt leider so viele Games die von Haus aus kein AA bieten. Ist sowas über den Treiber überhaupt machbar?


Klar. Mittels EDID, weiss der Treiber über die maximal mögliche Auflösung des Ausgabegeräts bescheid. Dementsprechend könnte man locker höhere Auflösungen zulassen und vor der Ausgabe die auf die in den EDID hinterlegte Auflösung runterskalieren.

Und das wär sowas von geil, denn dann könnte man auch das Downsampling ggf mit normalen MSAA(A) kombinieren und hätte damit unzählige Möglichkeiten für Hybridmodi, ohne dabei gleich ein ganzzahlig Vielfaches der Ursprungs-Auflösung berechnen zu müssen.

dargo
2009-04-28, 17:02:05
Klar. Mittels EDID, weiss der Treiber über die maximal mögliche Auflösung des Ausgabegeräts bescheid. Dementsprechend könnte man locker höhere Auflösungen zulassen und vor der Ausgabe die auf die in den EDID hinterlegten Auflösung runterskalieren.

Und das wär sowas von geil, denn dann könnte man auch das Downsampling ggf mit normalen MSAA(A) kombinieren und hätte damit unzählige Möglichkeiten für Hybridmodi, ohne dabei gleich ein ganzzahlig vielfaches der Ursprungs-Auflösung berechnen zu müssen.
Dann stelle ich mal die berechtigte Frage warum zum Teufel bieten die IHVs das nicht schon lange an? :confused:
Manno, darauf warte ich schon ewig. :usad: Ich stelle mir gerade GTA IV mit 3360x2100 auf meinem 22" TFT vor. Das wäre zu geil. Man bräuchte zwar dann eine 2GB Graka für hohe Texturen, aber Sche... was drauf, die kommt eh. :D

Edit:
Oder die ganzen UE2.5 oder 3 Spiele. Da gibt es auch einige Kandidaten die kein Antialiasing bieten. Aktuell zb. Dark Sector - das Ding läuft in 1680x1050 bei mir teilweise mit bis zu ~300fps. Da wäre locker Spielraum für 3360x2100. Um ehrlich zu sein wäre so eine Option der beste Kaufanreiz für mich schnellere Grafikkarten zu kaufen.

moBi
2009-04-28, 17:09:40
Könnte man nicht ein Tool schreiben, dass einen virtuellen Monitor mit beliebiger Auflösung simuliert und das ganze dann auf die gewünschte Zielauflösung skaliert/downsampled?

dargo
2009-04-28, 17:11:16
Könnte man nicht ein Tool schreiben, dass einen virtuellen Monitor mit beliebiger Auflösung simuliert und das ganze dann auf die gewünschte Zielauflösung skaliert/downsampled?
Das wäre mal eine Idee. Vielleicht sollten wir diesbezüglich einen extra Thread aufmachen? Gibt ja genug Gurus hier im Forum. Ich meine Stalker lässt sich auch "austricksen".

Edit:
Ich verweise mal hier drauf. :)
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7264390#post7264390

Coda
2009-04-28, 17:36:13
Könnte man nicht ein Tool schreiben, dass einen virtuellen Monitor mit beliebiger Auflösung simuliert und das ganze dann auf die gewünschte Zielauflösung skaliert/downsampled?
Ne, das muss wirklich der Treiber machen leider.

Gast
2009-04-28, 17:38:58
Ne, das muss wirklich der Treiber machen leider.

Also sollte es auf ATI-Karten doch funktionieren?

Coda
2009-04-28, 17:48:23
Also sollte es auf ATI-Karten doch funktionieren?
Nö, weil er es nicht kann.

Gipsel
2009-04-28, 18:34:16
Nö, weil er es nicht kann.
Können könnte er es im Prinzip schon ;)
Es gibt da so eine Option zur Monitor- bzw. GPU-Skalierung der GraKa-Auflösung auf den Monitor. Leider funktioniert das meist nur in der Richtung, daß eine kleine GraKa-Auflösung auf die Monitorauflösung aufgeblasen wird. Das ist aber eine reine Software-Sperre. Mit irgendeiner Treiberversion ging das glaube ich auch mal andersrum. Diese Möglichkeit zum Supersampling wurde dann aber sehr schnell gefixed.

KonKorT
2009-05-05, 14:41:21
In erneuter Kooperation BSON wie versprochen ein weiterer Informationshappen zu GT300: 512 Bit-Speicherinterface.


Hardware-Infos (http://www.hardware-infos.com/news.php?news=2930)

BSON (http://www.brightsideofnews.com/news/2009/5/5/gt300-to-feature-512-bit-interface---nvidia-set-to-continue-with-complicated-controllers.aspx)

igg
2009-05-05, 14:52:03
If that unconfirmed information is true, this would mean that nVidia has a playing field of eight 32-bit memory controllers connecting to multiple 32-core clusters for a total of 512-cores

...

512-bit GPU connected to 1 or 2 GB of GDDR5 memory at around 1000 MHz - we are looking at memory bandwidth of 256GB/s, or almost 300GB/s of bandwidth per single GPU! If GT300 ends up connected to 1GB of GDDR5 memory at 1050 or 1150 [alleged 5870/5870X2 clocks] - we are looking at memory bandwidth from 268.8-294.4 GB/s
...
512-bit GPU with 512 cores… if these numbers are true, we're looking at one beast of a GPU.
Entweder will Nvidia ein Exempel statuieren oder diese Gerüchte sind mit den damals falschen G90 Gerüchten gleichzusetzen

N0Thing
2009-05-05, 14:54:15
Kann man anhand des GT200(b) abschätzen, wie stark die Rechenleistung des GT300 steigen müßte, damit eine Speicherbandbreite von 256GB/s bis 300GB/s Sinn machen würde?

KonKorT
2009-05-05, 14:57:36
Also der GT200 war mit seiner Bandbreite recht gut bedient bzw. lag hier nicht ansatzweise ein Flaschenhals vor. Aber man weiß natürlich auch noch noch, wie bandbreitenhungrig GT300 wird. Es ist ja auch von Änderungen im Speichermanagement die Rede.

Man kann hierzu noch keine eindeutige Aussage treffen. Aber anhand der 512 statt 240 SPs kannst du ja auch schon grob rechnen, wie stark die Rechenleistung steigt, wobei die Leistung pro SP (Effizienz) eher besser als schlechter ausfallen wird.

aylano
2009-05-05, 15:23:39
Aber anhand der 512 statt 240 SPs kannst du ja auch schon grob rechnen, wie stark die Rechenleistung steigt, wobei die Leistung pro SP (Effizienz) eher besser als schlechter ausfallen wird.
Welche Leistungssteigerung schätzt du im Schnitt, wenn die 512 vs. 240 SPs stimmen sollten?
Der Zuwachs von G80 (oder G92) vs. G200 war AFAIK 60% im Schnitt (und in hohen Auflösungen 100 bis 200%) bei 88% mehr SP

KonKorT
2009-05-05, 15:30:34
Da kann ich nur raten, weil es wirklich auch architekturell diverse Änderungen gegeben hat.
Aber anstatt den dir genannten 60% zwischen G80 und GT200 sollten hier bei GT200 und GT300 schon mindestens 100% stehen.

AnarchX
2009-05-05, 17:44:49
Das "mindestens" sollte man hier wohl besonders hervorheben, denn mit weniger als 100% Leistungszuwachs würde man wohl wieder Gefahr laufen zu nah an RV870 zu kommen und der X2 entsprechend zu unterliegen.

Auf der anderen Seite sind in GT300 seit G80 wohl die größten RnD-Gelder gefloßen, sodass man hier entsprechende Resultate erwartet. Und zu guter Letzt sprechen wir hier wohl über eine GPU mit deutlich mehr als 2 Mrd. Transistoren.

Gipsel
2009-05-05, 18:01:32
Und zu guter Letzt sprechen wir hier wohl über eine GPU mit deutlich mehr als 2 Mrd. Transistoren.
Wobei ich aber auch überrascht wäre, wenn RV870 mit weniger als etwa 1,5 Mrd. daherkommen wird (etwa doppelter RV740). Es sind zwar noch nicht wirklich verläßliche Daten durchgesickert, aber alles mit weniger Transistoren wäre doch ziemlich konservativ (oder da kommt doch überraschenderweise irgend so ein abgefahrenes Multi-Chip-Design oder etwas in der Preislage).

AnarchX
2009-05-05, 18:03:33
Charlie: GT300 verschoben auf 2010 (http://www.theinquirer.net/inquirer/news/1052025/gt300-delayed-till-2010)

Da kann man wohl für NV nur hoffen, dass es eine der News ist, wo er mehr phantasiert bzw. ungenauere Quellen hat. :|

Nakai
2009-05-05, 18:11:27
Ich glaube nicht, dass wir den GT300 erst in 2010 sehn werden. Der Rückstand wäre zu groß im Vergleich zur Konkurrenz. Vor allem wenn dann mit einem RV870-Refresh kämpfen müsste. Das darf sich NV nicht leisten.


mfg Nakai

Gipsel
2009-05-05, 18:19:16
Ich glaube nicht, dass wir den GT300 erst in 2010 sehn werden. Der Rückstand wäre zu groß im Vergleich zur Konkurrenz. Vor allem wenn dann mit einem RV870-Refresh kämpfen müsste. Das darf sich NV nicht leisten.
Hoffen kann man das. Wieviel von der Meldung Realität ist, wird man aber erst später sehen. Es wäre allerdings nicht das erste Mal, daß ein zu ambitioniert angelegtes Projekt sich erst verspätet und dann, wenn es endlich am Markt ankommt, trotzdem noch von der Performance enttäuscht.
Wie gesagt, hoffen wir mal darauf, daß die Meldung eher gezielte Desinformation von nvidia ist ;)

Gast
2009-05-05, 18:22:00
Warten wir mal ab. Morgen oder übermorgen steht wieder was anderes in den News:)

LovesuckZ
2009-05-05, 18:39:59
Ich glaube nicht, dass wir den GT300 erst in 2010 sehn werden. Der Rückstand wäre zu groß im Vergleich zur Konkurrenz. Vor allem wenn dann mit einem RV870-Refresh kämpfen müsste. Das darf sich NV nicht leisten.
mfg Nakai

Immer wieder interessant, wie man mit nichts soviel unsinn erzählen kann. Weder gibt es von AMD noch von nVidia irgendwelche Argumente, dass deren Produkte dieses Jahr erscheinen oder nicht.
Woher du also annimmst, dass AMD deutlichst vor nVidia mit ihren 40nm D3D11 Produkt auf den Markt sein würde, ist mit schleierhaft.
Laut TMSC hat man jetzt immer noch massig Probleme mit dem 40nm Prozeß und wenn selbst solch ein rv740 Probleme bereitet, wird alles, was darüber liegt, wohl noch sehr lange ein ziemliches NO-GO sein.

AnarchX
2009-05-05, 18:55:24
Woher du also annimmst, dass AMD deutlichst vor nVidia mit ihren 40nm D3D11 Produkt auf den Markt sein würde, ist mit schleierhaft.

Naja, heise ist nicht unbedingt eine Trash-Tabloid-Seite:
Im Gespräch mit Heise Online behauptete ein Brancheninsider mit Kontakten zu Entwicklern, dass das Tape-Out des RV870 längst vollzogen sei und AMD bereits über Testboards verfüge. Selbst in Europa sollen bereits zwei herumschwirren. Dies würde das Gerücht um die Auslieferung erster Grafikkarten mit RV870-GPUs Ende Juli/Anfang August erneut untermauern.
http://www.heise.de/newsticker/Grafik-Geruechte-AMDs-DirectX-11-Chip-nur-verbesserter-RV770--/meldung/136782

Gast
2009-05-05, 19:00:18
ATI`s DX11-Karten kommen (vielleicht) früher. Aber warten wir mal ab, Nvidia zündet vielleicht extra Nebelkerzen;) We`ll see..

reunion
2009-05-05, 19:05:01
Vorallem gab es von AMD am Analyst Day schon sehr deutlich Aussagen wonach man noch einige DX11-Chips in 2009 bringen will.

Nakai
2009-05-05, 19:07:41
Immer wieder interessant, wie man mit nichts soviel unsinn erzählen kann. Weder gibt es von AMD noch von nVidia irgendwelche Argumente, dass deren Produkte dieses Jahr erscheinen oder nicht.
Woher du also annimmst, dass AMD deutlichst vor nVidia mit ihren 40nm D3D11 Produkt auf den Markt sein würde, ist mit schleierhaft.
Laut TMSC hat man jetzt immer noch massig Probleme mit dem 40nm Prozeß und wenn selbst solch ein rv740 Probleme bereitet, wird alles, was darüber liegt, wohl noch sehr lange ein ziemliches NO-GO sein.

Die Gerüchte sprechen von Anfang August für den RV870. Wenn AMD alle halbe Jahre(eher 7 bis 8 Monate) einen Refresh bringt und der GT300 ins Jahre 2010 verschoben wird, dann ist es sehr gut wahrscheinlich, dass NV mit einem RV890 relativ bald konfrontiert wird. Aber warten wir es ab. ;)


mfg Nakai

y33H@
2009-05-05, 19:16:45
Also der GT200 war mit seiner Bandbreite recht gut bedient bzw. lag hier nicht ansatzweise ein Flaschenhals vor.Sehe ich anders. Eine GTX280 ist nicht umsonst einen Tick vor einer GTX275, mit hohen Auflösungen und viel FSAA sowieso.

Raff
2009-05-05, 19:21:50
Nuja, ein "Flaschenhals" ist das trotzdem nicht. Die GTX 275 ist ohne AA eigentlich immer vor der GTX 280.

MfG,
Raff

Gast
2009-05-05, 19:27:00
512 Bit-Speicherinterface mit DDR5? Ich sag mal so, das glaub ich nicht:) Die Karten werden dann sehr teuer selbst für Enthusiasten. Aber immer wieder herrlich das Spekulieren:) Ich wünsche mir anstatt der ultrafetten Bandbreite lieber 2 Gigabyte Ram Serienmässig auf den GT300.

LovesuckZ
2009-05-05, 19:31:26
Naja, heise ist nicht unbedingt eine Trash-Tabloid-Seite:

http://www.heise.de/newsticker/Grafik-Geruechte-AMDs-DirectX-11-Chip-nur-verbesserter-RV770--/meldung/136782

Wo sind die Gerüchte zum Tape-Out? Selbst TMSC gibt sich sehr pessimistisch bezüglich des 40nm Prozesses.

reunion
2009-05-05, 19:36:25
Sehe ich anders. Eine GTX280 ist nicht umsonst einen Tick vor einer GTX275, mit hohen Auflösungen und viel FSAA sowieso.

Vergiss nicht die ROPs. Speziell bei nV nicht ganz unwichtig.

AnarchX
2009-05-05, 19:44:02
Wo sind die Gerüchte zum Tape-Out? Selbst TMSC gibt sich sehr pessimistisch bezüglich des 40nm Prozesses.
Hier (http://www.eetimes.com/rss/showArticle.jhtml?articleID=217201043&cid=RSSfeed_eetimes_newsRSS) klingt es doch eher danach, dass es Probleme gab und man mittlerweile die Ursache kennt.

Dass es RV870-Samples im Q2 geben soll, verkündete auch CJ Anfang des Jahres.

Gast
2009-05-05, 19:46:07
Die Gerüchte sprechen von Anfang August für den RV870. Wenn AMD alle halbe Jahre(eher 7 bis 8 Monate) einen Refresh bringt und der GT300 ins Jahre 2010 verschoben wird, dann ist es sehr gut wahrscheinlich, dass NV mit einem RV890 relativ bald konfrontiert wird. Aber warten wir es ab. ;)

Selbst wenn, ein Refresh muss keine Wunder bewirken.
Die 10% die uns RV790 bei mehr Stromverbrauch gebracht hat sind kein Grund zur Sorge.

Vergiss nicht, das wird kein G70 nach G71 Refresh mit seinen 50%.
Das wird ein Refresh ohne Shrink, ohne neuen GDDR, ...

LovesuckZ
2009-05-05, 19:47:58
Hier (http://www.eetimes.com/rss/showArticle.jhtml?articleID=217201043&cid=RSSfeed_eetimes_newsRSS) klingt es doch eher danach, dass es Probleme gab und man mittlerweile die Ursache kennt.

Dass es RV870-Samples im Q2 geben soll, verkündete auch CJ Anfang des Jahres.

The TSMC CEO said the company has or is fixing the problem, but he did not elaborate.

Das klingt nicht danach, dass man die Probleme gelöst hat. Und damit sind auch Aussagen von vor 5 Monaten nicht mehr wirklich 100% richtig. ;)

Gipsel
2009-05-05, 19:53:37
Selbst wenn, ein Refresh muss keine Wunder bewirken.
Die 10% die uns RV790 bei mehr Stromverbrauch gebracht hat sind kein Grund zur Sorge.

Vergiss nicht, das wird kein G70 nach G71 Refresh mit seinen 50%.
Das wird ein Refresh ohne Shrink, ohne neuen GDDR, ...
Nur mal so als Gedanke, Global Foundries hat angekündigt, ab Ende 2009 Aufträge für einen 32nm bulk Prozeß annehmen und die dann in Dresden fertigen zu wollen.
Würde zwar vermuten, daß das frühestens Mitte 2010 für etwas aufwendigere Chips wie GPUs einsatzfähig wird, aber wer weiß ;) Außerdem will TMSC auch schon ab 1H 2010 (d.h. wohl Mitte 2010) in 28nm fertigen.

=Floi=
2009-05-05, 19:53:57
die zusätzliche bandbreite wäre durchaus sinnvoll und man sollte ja auch auf 2 GT300 @ sli spekulieren, denn da braucht man dann auch wirklich die größere bandbreite.

reunion
2009-05-05, 19:54:49
Das klingt nicht danach, dass man die Probleme gelöst hat. Und damit sind auch Aussagen von vor 5 Monaten nicht mehr wirklich 100% richtig. ;)

Sorry, aber du weißt schon das ich 40nm Karten von AMD bereits kaufen kann? RV870 wird auch kein Monsterchip, sondern wohl höchstens doppelt so groß wie ein RV740. Die Aussagen von CJ, von Heise, von AMD selbst und von anderen sprechen eine deutliche Sprache.

Coda
2009-05-05, 19:54:56
die zusätzliche bandbreite wäre durchaus sinnvoll und man sollte ja auch auf 2 GT300 @ sli spekulieren, denn da braucht man dann auch wirklich die größere bandbreite.
Bitte?

Gast
2009-05-05, 19:56:18
Trotzdem sollte die Rambestückung am Besten 2 Gigabyte betragen. Sicher ist sicher und GTA4 hats vorgemacht was durch schlechte Programmierung verbraucht wird;)

AnarchX
2009-05-05, 19:57:43
Das klingt nicht danach, dass man die Probleme gelöst hat. Und damit sind auch Aussagen von vor 5 Monaten nicht mehr wirklich 100% richtig. ;)
Was aber noch lange nicht heißen muss, dass AMD größere Probleme mit RV870 hat.
So schlecht sieht ein RV740 mit seinen 826M Transitoren @140mm², ~80W FurMark und OC-Ergebnissen bis ~900MHz nun auch nicht aus.

Zumal die aktuellen Gerüchte zu RV870 nicht unbedingt nach einer Wiederholung von RV670->RV770 im Bezug auf die Einheitenzahlen/Leistung aussehen.

Einzig Ailuros 40% Unterschied beim Die zwischen GT3x0 und RV870 gehen in eine etwas andere Richtung.

Selbst wenn, ein Refresh muss keine Wunder bewirken.
Die 10% die uns RV790 bei mehr Stromverbrauch gebracht hat sind kein Grund zur Sorge.

Vergiss nicht, das wird kein G70 nach G71 Refresh mit seinen 50%.
Das wird ein Refresh ohne Shrink, ohne neuen GDDR, ...
Bleibt die Frage was der 6-Monate-Refresh von RV870 sein wird, vielleicht ist er das ambitioniertere D3D11-Design auf einem bis dahin besser kontrollierbaren 40nm Prozess, während RV870 ein RV770+D3D11 ist?

LovesuckZ
2009-05-05, 19:58:18
Sorry, aber du weißt schon das ich 40nm Karten von AMD bereits kaufen kann? RV870 wird auch kein Monsterchip, sondern wohl höchstens doppelt so groß wie ein RV740.

Ich kann einen 135mm^2 Chip in geringen Mengen kaufen. Das ist natürlich ein schlagendes Argument, dass der Prozeß gut ist. :rolleyes:
Selbst die Verfügbarkeit der 8800GTX war zum Launch genauso gut und der war mehr als 3mal so groß.

dargo
2009-05-05, 20:01:34
die zusätzliche bandbreite wäre durchaus sinnvoll und man sollte ja auch auf 2 GT300 @ sli spekulieren, denn da braucht man dann auch wirklich die größere bandbreite.
Öhm, die Speicherbanbreite wird bei SLI verdoppelt. ;) Jede GPU hat ihre eigene Bandbreite.

Wenn da aber wirklich =>256GB/s spekuliert werden deutet das auf eine echt fette GPU.

Trotzdem sollte die Rambestückung am Besten 2 Gigabyte betragen.

Die wird es eh geben. Selbst der Vorgänger bietet das schon.


Sicher ist sicher und GTA4 hats vorgemacht was durch schlechte Programmierung verbraucht wird;)
Du kannst mir das sicherlich auch begründen, oder?

reunion
2009-05-05, 20:05:11
Ich kann einen 135mm^2 Chip in geringen Mengen kaufen. Das ist natürlich ein schlagendes Argument, dass der Prozeß gut ist. :rolleyes:
Selbst die Verfügbarkeit der 8800GTX war zum Launch genauso gut und der war mehr als 3mal so groß.

Niemand behauptet das die Yieldraten schon auf 55nm Niveau liegen. Sie sind aber offenbar gut genug für RV740, bis RV870 kommen soll vergeht auch noch ein Quartal. Der Prozess selbst ist aber IMO sehr gut, wenn man sich die Ergebnisse im Vergleich zu den 55nm Chips in punkto Leistung/Watt ansieht.

Gast
2009-05-05, 20:12:12
@Dargo

Klar GTA4 ist schlecht programmiert denn wenn der Speicher voll läuft gibts nen kick auf den Desktop:) Spiele das wie ein irrer online ich weiss wovon ich spreche;)

dargo
2009-05-05, 20:15:26
@Dargo

Klar GTA4 ist schlecht programmiert denn wenn der Speicher voll läuft gibts nen kick auf den Desktop:) Spiele das wie ein irrer online ich weiss wovon ich spreche;)
Dann ist höchstens der MP verbugt (habe noch nicht Online gespielt). Im SP läuft bei mir nichts voll. Ich hatte dich aber so verstanden, GTA IV wäre schlecht programmiert weil es 2GB Vram vorraussetzt.

BlackBirdSR
2009-05-05, 20:18:14
Ich kann einen 135mm^2 Chip in geringen Mengen kaufen. Das ist natürlich ein schlagendes Argument, dass der Prozeß gut ist. :rolleyes:


Die Lernkurve für neue Prozesse wird immer steiler und dementsprechend erreichen diese Prozesse schon nach relativ kurzer Zeit ein hohes Niveau. Vorausgesetzt, es gibt keine fundamentalen Probleme.

Gast
2009-05-05, 20:22:33
@Dargo

Mit 2 Gigabyte kannst du höhere Details einstellen. Und ja, ich meine GTA4 ist schlecht programmiert wenn selbst meine 896MB net ausreichen (GTX269);) Deswegen vote for 2 Gigabyte serienmässig (Weil man weiss ja nie)

AnarchX
2009-05-05, 20:25:22
@ BlackBirdSR
Stellt sich dann nur die Frage, warum NV solche Probleme mit GT300 hat, dass dieser sich möglicherweise um ein Quartal verschiebt.
Vielleicht ist das neue, erweiterter Powermanagement schon so problematisch, dass die 40nm Probleme bei TSMC nur den letzen Ausschlag gegeben haben?

y33H@
2009-05-05, 20:25:32
896M? Schäbig ;D Ne gescheite Karte hat 2G *g*

Gast
2009-05-05, 20:26:52
@Dargo
Solltest du mal Online zocken du verpasst was!

aber btt hier gehts ja net um GTA4 ;)

dargo
2009-05-05, 20:29:12
@Dargo

Mit 2 Gigabyte kannst du höhere Details einstellen. Und ja, ich meine GTA4 ist schlecht programmiert wenn selbst meine 896MB net ausreichen (GTX269);)
Wenn du die Texturen auf "mittel" setzst dann reichen die locker. ;)
Aber ich bin natürlich ebenfalls für 2GB, durch Downsampling fahre ich jetzt oft 2988x2100 wo schon 896MB eng werden. Die nächste Graka muss auf jeden Fall 2GB haben. :)

reunion
2009-05-05, 20:30:46
@ BlackBirdSR
Stellt sich dann nur die Frage, warum NV solche Probleme mit GT300 hat, dass dieser sich möglicherweise um ein Quartal verschiebt.
Vielleicht ist das neue, erweiterter Powermanagement schon so problematisch, dass die 40nm Probleme bei TSMC nur den letzen Ausschlag gegeben haben?

In der jetzigen Phase würde ich nicht auf den Prozess sondern auf das Design tippen, ist ja nicht so das es schon haufenweise Samples gibt und nur die Yieldrate nicht stimmt.

KonKorT
2009-05-05, 20:56:17
Sehe ich anders. Eine GTX280 ist nicht umsonst einen Tick vor einer GTX275, mit hohen Auflösungen und viel FSAA sowieso.
Das lässt sich primär darauf zurückführen, dass die GTX 280 128 MiB mehr VRAM hat. Ein weiteres Argument könnte die bessere ROP-Leistung sein.

GT200 war keinesfalls bandbreitenlimitiert. Siehe hierzu den Test GT200/RV770: Taktskalierung (http://www.hardware-infos.com/tests.php?test=58&seite=12). Eine 20 prozentige Speichertaktsteigerung hat hier in ~ 3,5% Mehrperformance umgeschlagen.

y33H@
2009-05-05, 21:03:07
Das lässt sich primär darauf zurückführen, dass die GTX 280 128 MiB mehr VRAM hatIn den meisten Fällen nicht. Es ist die Bandbreite und es sind die ROPs.

Coda
2009-05-05, 21:08:23
@Dargo

Mit 2 Gigabyte kannst du höhere Details einstellen. Und ja, ich meine GTA4 ist schlecht programmiert wenn selbst meine 896MB net ausreichen (GTX269);) Deswegen vote for 2 Gigabyte serienmässig (Weil man weiss ja nie)
Was sollte die Engine denn anders machen? Wenn die Texturen im Content da sind muss sie sie zwangsläufig auch laden. Das ist sonst auch nicht anders.

KonKorT
2009-05-05, 21:16:14
In den meisten Fällen nicht. Es ist die Bandbreite und es sind die ROPs.
Dass es nicht die Bandbreite ist, solltest Du gesehen haben, wenn Du dir den von mir verlinkten Artikel angeschaut hast.
Ich warte auf das Pendant. Zeig mir einen Artikel, der dem GT200 Bandbreitenlimitierung attestiert.

deekey777
2009-05-05, 21:44:37
Das klingt nicht danach, dass man die Probleme gelöst hat. Und damit sind auch Aussagen von vor 5 Monaten nicht mehr wirklich 100% richtig. ;)
Hatte wirklich TMSC Probleme mit dem Fertigungsprozess, oder hatte zB AMD damit ein Problem, weil sie ihre Ziele nicht erreichen konnten? Kleinere Wehwehchen kann jeder haben.

LovesuckZ
2009-05-05, 21:58:21
Hatte wirklich TMSC Probleme mit dem Fertigungsprozess, oder hatte zB AMD damit ein Problem, weil sie ihre Ziele nicht erreichen konnten? Kleinere Wehwehchen kann jeder haben.

Dort steht, dass TMSC Probleme hat(te) und das man sogar mit noch geringeren Fertigungen gerechnet habe. Die 40nm Fertigung machte im 1.Q ganze 1% von 65% aller Fertigungen unter bzw. auf 130nm aus.

N0Thing
2009-05-06, 01:00:05
Ich kann einen 135mm^2 Chip in geringen Mengen kaufen. Das ist natürlich ein schlagendes Argument, dass der Prozeß gut ist. :rolleyes:
Selbst die Verfügbarkeit der 8800GTX war zum Launch genauso gut und der war mehr als 3mal so groß.

Und wurde nicht in einem neuen Fertigungsverfahren hergestellt, sondern im bekannten und vorher schon verwendeten 90nm Ferfahren.
Klar, der Rv740 ist deutlich kleiner, der G80 ist aber definitiv kein passendes Gegenbeispiel. G92 und GT200b sind im Prinzip auch keine guten Beispiele, auch wenn sie zu dem Zeitpunkt ein neues Verfahren für Nvidia bedeutet haben, da die zu Beginn auch nur sehr dünn im Markt vertreten waren, bzw. nicht großflächig auf den Markt gekommen sind.


Dort steht, dass TMSC Probleme hat(te) und das man sogar mit noch geringeren Fertigungen gerechnet habe. Die 40nm Fertigung machte im 1.Q ganze 1% von 65% aller Fertigungen unter bzw. auf 130nm aus.

Daß die 40nm Fertigung nur 1% ausmacht sollte doch nicht verwundern, wenn es nur ein Produkt gibt, daß in diesem Prozess gefertigt wird, aber alle anderen Chips von Nvidia und ATI in 55nm oder vielleicht noch 65nm gefertigt werden, von den Aufträgen anderer Firmen mal ganz zu schweigen.
Ein Paperlaunch ist die 4770 nun auch nicht und solange man ohne unpassenden Aufpreis eine 4770 bekommen kann, gibt es doch auch kein Problem, oder siehst du das anders? :wink:


Dennoch sind alle Meldungen bezüglich der neuen Chips Spekulation und man wird sich überraschen lassen müssen.

V2.0
2009-05-06, 07:54:01
@ BlackBirdSR
Stellt sich dann nur die Frage, warum NV solche Probleme mit GT300 hat, dass dieser sich möglicherweise um ein Quartal verschiebt.
Vielleicht ist das neue, erweiterter Powermanagement schon so problematisch, dass die 40nm Probleme bei TSMC nur den letzen Ausschlag gegeben haben?

Es ist guit möglich, dass das Chipdesign einfach schlecht ist.

Ailuros
2009-05-06, 08:06:22
Also der GT200 war mit seiner Bandbreite recht gut bedient bzw. lag hier nicht ansatzweise ein Flaschenhals vor. Aber man weiß natürlich auch noch noch, wie bandbreitenhungrig GT300 wird. Es ist ja auch von Änderungen im Speichermanagement die Rede.

Mehr als eine Geometrie-Einheit waere eine These die mit den logischen weiteren Vorraussetzungen dafuer vielleicht mehr Bandbreite gerechtfertigen koennten. Wenn die 512bit These stimmt wuerde mich auch eine enorme Pixel Fuellrate Steigerung kein bisschen wundern.

Man kann hierzu noch keine eindeutige Aussage treffen. Aber anhand der 512 statt 240 SPs kannst du ja auch schon grob rechnen, wie stark die Rechenleistung steigt, wobei die Leistung pro SP (Effizienz) eher besser als schlechter ausfallen wird.

Obwohl ich gegen solche Vergleiche bin denn SP != SP, wenn sich die Bandbreite auf GT3x0 um etwa so viel steigern wuerde wie von G80 auf GT200 sind es etwa 230GB/s.

Gast
2009-05-06, 21:30:35
G92 und GT200b sind im Prinzip auch keine guten Beispiele, auch wenn sie zu dem Zeitpunkt ein neues Verfahren für Nvidia bedeutet haben
Beides mal falsch.

Ailuros
2009-05-07, 07:31:17
Ich hab natuerlich vergessen zu erwaehnen dass Charlie mal wieder Mist erzaehlt; es kann natuerlich auch sein dass er sich um ein "T" verziffert hat.

bakalu
2009-05-07, 10:41:50
GeForce GTX 380 (GT300)

http://forum.amtech.com.vn/attachments/card-do-hoa-video-cards/15902d1105212697-ati-nvidia-cuoc-chien-khong-bao-gio-co-hoi-ket-geforce_380gtx_specification.png

http://forum.amtech.com.vn/attachments/card-do-hoa-video-cards/15899d1105212697-ati-nvidia-cuoc-chien-khong-bao-gio-co-hoi-ket-gtx380.jpg

http://forum.amtech.com.vn/attachments/card-do-hoa-video-cards/15900d1105212697-ati-nvidia-cuoc-chien-khong-bao-gio-co-hoi-ket-gtx380-2.jpg

http://forum.amtech.com.vn/attachments/card-do-hoa-video-cards/15901d1105212697-ati-nvidia-cuoc-chien-khong-bao-gio-co-hoi-ket-gtx380-3.jpg

Source : http://videocardz.com/25086/geforce-380-gtx-specification/

Nakai
2009-05-07, 10:44:26
Schade das das Fakes sind. Vor allem das letzte Bild ist mehr als schlecht gemacht. Eine Grafikkarte ohne RAM bzw. mit nur halben Rambausteinen will ich auch haben...;D


mfg Nakai

Gast
2009-05-07, 10:46:34
lol, wer macht sich sone Arbeit für nix ?

Hugo
2009-05-07, 10:53:34
sieht mir ganz nach nem Fake aus. Müsste beim DX11.0 nicht SM5.0 stehen?
Mal abgesehen von dem schlecht zusammen gepappten Bild ;-)

bakalu
2009-05-07, 11:02:36
sieht mir ganz nach nem Fake aus. Müsste beim DX11.0 nicht SM5.0 stehen?
Mal abgesehen von dem schlecht zusammen gepappten Bild ;-)Bug GPU-Z

Nakai
2009-05-07, 11:05:16
Geh auf die verlinkte Seite und guck dir das Video an. Die letzte 5 Sekunden sind sehr interessant. ;)


mfg Nakai

Hugo
2009-05-07, 11:05:38
Bug GPU-Z

und der halbe Speicherchip?
Bug in der Karte ;-)

dargo
2009-05-07, 11:18:35
GeForce GTX 380 (GT300)

http://forum.amtech.com.vn/attachments/card-do-hoa-video-cards/15902d1105212697-ati-nvidia-cuoc-chien-khong-bao-gio-co-hoi-ket-geforce_380gtx_specification.png

http://forum.amtech.com.vn/attachments/card-do-hoa-video-cards/15899d1105212697-ati-nvidia-cuoc-chien-khong-bao-gio-co-hoi-ket-gtx380.jpg

http://forum.amtech.com.vn/attachments/card-do-hoa-video-cards/15900d1105212697-ati-nvidia-cuoc-chien-khong-bao-gio-co-hoi-ket-gtx380-2.jpg

http://forum.amtech.com.vn/attachments/card-do-hoa-video-cards/15901d1105212697-ati-nvidia-cuoc-chien-khong-bao-gio-co-hoi-ket-gtx380-3.jpg

Source : http://videocardz.com/25086/geforce-380-gtx-specification/
Schlechter Fake. ;)
Wie zum Geier kommt man bei einem 512Bit SI und 1030Mhz GDDR5 auf 226,3GB/s Bandbreite? :|

Ailuros
2009-05-07, 11:22:28
Texel und Pixelfuellraten stimmen auch nicht. Behaltet mal vorlaeufig den G300 Codenamen im Hinterkopf. Selbst wenn das Zeug echt waere wuerde GPU-z nicht richtig die Daten herauslesen. Interessant sind uebrigens die 64 ROPs ;)

bakalu
2009-05-07, 11:25:22
Schlechter Fake. ;)
Wie zum Geier kommt man bei einem 512Bit SI und 1030Mhz GDDR5 auf 226,3GB/s Bandbreite? :|Bug GPU-Z

Ailuros
2009-05-07, 11:45:05
Bug GPU-Z

Bug hin und her G300 ist ein high end single chip Design unter 40nm. Das Zeug ist fuer die Muelltonne.

dargo
2009-05-07, 11:51:28
Bug GPU-Z
Warum denn Bug? Der Entwickler von GPU-Z verwendet nichts weiter als eine Formel die aus der Taktrate und dem SI die Speicherbandbreite errechnet. Bei anderen GPUs funktioniert es doch auch. Das ist nichts weiter als ein schlechter Fake. Zumindest rechnen sollte der Faker können.

crux2005
2009-05-07, 11:53:21
lol, ein sehr biliger fake
da hätten sie lieber schon die neue GTX 295 als Vorlage nehmen können ;)

igg
2009-05-07, 12:52:49
G300, GT300? Sind das unterschiedliche Chips oder hat Nvidia das Schema wieder geändert?

Ailuros
2009-05-07, 15:14:00
G300, GT300? Sind das unterschiedliche Chips oder hat Nvidia das Schema wieder geändert?

Es gab in der Vergangenheit Plaene fuer einen desktop G200 und einen GT200 (T fuer Tesla). Am Ende erschien nur der letztere.

Ailuros
2009-05-07, 15:15:22
Warum denn Bug? Der Entwickler von GPU-Z verwendet nichts weiter als eine Formel die aus der Taktrate und dem SI die Speicherbandbreite errechnet. Bei anderen GPUs funktioniert es doch auch. Das ist nichts weiter als ein schlechter Fake. Zumindest rechnen sollte der Faker können.

Dargo Du kannst in GPU-Z selber nett eingreifen und von mir aus 17000 SPs oder weiss der Geier was noch erscheinen lassen ;)

Hugo
2009-05-07, 15:43:58
Texel und Pixelfuellraten stimmen auch nicht. Behaltet mal vorlaeufig den G300 Codenamen im Hinterkopf. Selbst wenn das Zeug echt waere wuerde GPU-z nicht richtig die Daten herauslesen. Interessant sind uebrigens die 64 ROPs ;)


64 ROP's wären bei 512BIT Si ein 16-fach 32Bit unterteilter Crossbar?

Hugo
2009-05-07, 15:45:36
Es gab in der Vergangenheit Plaene fuer einen desktop G200 und einen GT200 (T fuer Tesla). Am Ende erschien nur der letztere.


Was ist da aus dem orginalen G200 geworden? Wie sollte der denn aussehen?

Coda
2009-05-07, 15:46:05
Vermutlich keine DP-Einheiten.

robbitop@work
2009-05-07, 16:41:32
Wenn man eine übliche Leistungssteigerung von Faktor 2 zwischen den Generationen erreichen will, ergeben die bisher erschienen Daten schon einigermaßen Sinn. Bandbreite braucht man auf jeden Fall in etwa Faktor 2, also dürfte 512 bit bei GDDR5 ziemlich wahrscheinlich werden. Shaderleistung sollte auch in etwa auf Faktor 2 von der Rohleistung her kommen. Das wären als nächste sinnvolle Variante tatsächlich bei etwas um die 512 SPs. So hätte man (sofern man bei einer ähnlichen Aufteilung bliebe) 16x Cluster mit je 8 TMUs und 4x SIMDs a 8 Kanäle. (ALU:TEX Rate steigt natürlich). TMUs wären es dann 128. Taktraten dürften auch nicht so sehr vom üblichen abweichen.
Hinzu kommen Effizienzverbesserungen, Gather4 und die Fähigkeiten um Computeshader und wie sie alle heißen auszuführen usw. Ich kann mir schon vorstellen, dass man bei einem ähnlichen Grundgerüst bleibt. Ist aber wirklich pure Spekulation.

Ailuros
2009-05-07, 17:42:30
64 ROP's wären bei 512BIT Si ein 16-fach 32Bit unterteilter Crossbar?

Koennte sein ja, aber das mit den 32bit SCs hat wohl bis jetzt nirgends auf GPUs richtig hingehauen. Wahrscheinlicher waeren doppelt so hohe Effizienz pro ROP oder eben einfacher 8 ROP partitions mit jeweils 8 ROPs/partition.

Wenn man eine übliche Leistungssteigerung von Faktor 2 zwischen den Generationen erreichen will, ergeben die bisher erschienen Daten schon einigermaßen Sinn. Bandbreite braucht man auf jeden Fall in etwa Faktor 2, also dürfte 512 bit bei GDDR5 ziemlich wahrscheinlich werden.

Waere es ein einfacher GT2x0-Refresh mit den bisherigen Grundlagen, braeuchte man IMHLO nicht so viel Bandbreite. Ich vermute weiterhin wichtige Effizienz-Steigerungen im primitiven Geometrie-Bereich (rasterizing, tri-setup usw.) und vielleicht sogar eine ziemlich radikele Steigerung was die Pixel/Z Fuellraten betrifft.

Shaderleistung sollte auch in etwa auf Faktor 2 von der Rohleistung her kommen.

Sei nicht so geizig. Alleine wenn ich auf GT200 Basis rechnen wuerde (ohne jegliche Effizienz-Steigerungen) klingt ein >2.5x Faktor ziemlich logisch.


Hinzu kommen Effizienzverbesserungen, Gather4 und die Fähigkeiten um Computeshader und wie sie alle heißen auszuführen usw. Ich kann mir schon vorstellen, dass man bei einem ähnlichen Grundgerüst bleibt. Ist aber wirklich pure Spekulation.

Ich hab das Gefuehl wir sollten langsam eher von "cores" als von clusters in diesem Fall reden.

http://www.ece.neu.edu/groups/nucar/GPGPU/GPGPU-2/Luebke.pdf

Hugo
2009-05-07, 19:01:44
Koennte sein ja, aber das mit den 32bit SCs hat wohl bis jetzt nirgends auf GPUs richtig hingehauen. Wahrscheinlicher waeren doppelt so hohe Effizienz pro ROP oder eben einfacher 8 ROP partitions mit jeweils 8 ROPs/partition.
]


Der einzige mit 32bit SCs der mir einfällt is der R520 richtig?
Ich denk der Speichercontroller war da nicht das Problem. :wink:

Sollte die Effizienz nicht steigen wenn man den Sc in kleinere SCs unterteilt?

Coda
2009-05-07, 19:02:50
Q: What workloads will drive future GPUs?
A: DXn-1 performance

Sehr geil :D

reunion
2009-05-07, 19:04:34
Der einzige mit 32bit SCs der mir einfällt is der R520 richtig?
Ich denk der Speichercontroller war da nicht das Problem. :wink:

Sollte die Effizienz nicht steigen wenn man den Sc in kleinere SCs unterteilt?

Ja, nur wie kommst du darauf das man diese kleiner unterteilen sollte? 64-bit hat sich wohl als optimal erwiesen.

Nightspider
2009-05-07, 19:05:05
Eines steht jedenfalls fest: Wenn AMD schon im nächsten Monat die neue HighEnd-Serie rausbringen wird, muss Nvidia anfangen "Hype-Gerüchte" in den Umlauf zu bringen bzw. selbst erste Eigenschaften preiszugeben um die potentiellen AMD Käufer zum abwarten zu bewegen.

Coda
2009-05-07, 19:20:17
Ja, nur wie kommst du darauf das man diese kleiner unterteilen sollte? 64-bit hat sich wohl als optimal erwiesen.
Ja. Das ist einfach die übliche Cacheline-Size und es ergibt keinen Sinn weniger als eine Cacheline aus dem RAM zu lesen.

Hugo
2009-05-07, 20:18:17
Ja, nur wie kommst du darauf das man diese kleiner unterteilen sollte? 64-bit hat sich wohl als optimal erwiesen.

irgednwo hab ich mal nen Bericht zu solchen Crossbar's gelesen.
Da war das Fazit das ne kleinere Unterteilung optimaler wäre

Ailuros
2009-05-08, 08:09:15
Der einzige mit 32bit SCs der mir einfällt is der R520 richtig?
Ich denk der Speichercontroller war da nicht das Problem. :wink:

Und warum ist ATI bei 32bit nicht geblieben?

Sollte die Effizienz nicht steigen wenn man den Sc in kleinere SCs unterteilt?

Es gibt IMHLO keine absolute Regel die dieses beantworten wuerde. Wie aber reunion schon erwaehnte bis jetzt haben sich 64bit SCs als die bessere Loesung bewiesen.

Q: What workloads will drive future GPUs?
A: DXn-1 performance

Sehr geil :D

Es ist eine Schlussfolgerung auf die Frage warum G80 so erfolgreich war. Und ja es war tatsaechlich die schnellste GPU in D3D9.0 damals. Was wir fuer die ersten D3D11 GPUs wirklich brauchen sind die pflichtmaessige Unterstuetzung von Features fuer D3D11 Komplianz und um einiges schnellere GPUs unter D3D10. Zwar verdammt offensichtlich, aber mich persoenlich als Verbraucher freut mich solches zu lesen. Unendlicher feature-creap bringt mir als Verbraucher rein gar nichts.

Gast
2009-05-08, 17:36:36
News von PCGH http://www.pcgameshardware.de/aid,683702/Nvidia-spricht-ueber-40nm-Fertigung-fuer-Grafikchips-GT300-Ion-Tegra-und-den-Workstation-Markt/Grafikkarte/News/

Hugo
2009-05-08, 18:43:57
Und warum ist ATI bei 32bit nicht geblieben?



Wenn ich das wüßte :rolleyes:

Gast
2009-05-08, 23:23:26
Hoffentlich kommt der auch so wie er auf dem Papier steht. Wird sofort geordet. Wird nen Sprung wie der G80 seinerzeit werden!

Gast
2009-05-08, 23:37:12
Hoffentlich kommt der auch so wie er auf dem Papier steht. Wird sofort geordet. Wird nen Sprung wie der G80 seinerzeit werden!

Die Daten sagen nichts aus.Gab schon oft Karte die auf dem Papier umhauen und in der Realität enttäuschen.

Der einzige echte gute Sprung war der R300 9700pro

Gast
2009-05-08, 23:43:06
Na dann warten wir mal ab. Ich sage der Chip wird der Kracher;) Mir kommts net auf DX11 an, aber alle DX10 Titel werden absolut flüssig laufen (Jaaaaa auch Crysis) da verwette ich jetzt mal Haus und Hof drauf. Ich freue mich die Karte wird ne neue Dimension!

Gast
2009-05-08, 23:48:30
Der einzige echte gute Sprung war der R300 9700pro
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=437669&highlight=9700
;)

Gast
2009-05-08, 23:56:23
Es wird doch wohl nicht bezweifelt das der G80 Rekorde in BQ und Geschwindigkeit aufgestellt hat? Der G80 war DER Meilenstein seit bestehen der Grafikkarten.

Hatte selbst ne Radeon 9800 aber die 8800 war doch der Kracher. Da wird mir wohl keiner widersprechen.

Wie dem auch sei, der G300 ist schon so gut wie gekauft. Aber diesmal nicht gleich zum Release, der 260(192) Kauf tut noch zu weh.

LovesuckZ
2009-05-09, 00:07:45
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=437669&highlight=9700
;)

Es zeigt, dass ältere Meilensteine besser angesehen, als neuere.
Dass die 9700pro der größere Wurf gewesen sein sollte, ist natürlich höchst diskutabel und faktisch schlussendlich falsch.
Die 8800GTX ist selbst 2 1/2 Jahre nach dem Erscheinen immer noch so stark, dass selbst die Midrange Produkte kaum besser sind. Wir müssen fast 3 Jahre warten bis es zu einer Verdopplung der Leistung kommen wird, dass war schon 1 1/2 nach dem r300 Launch erreicht. Wie hier die 9700pro vor der 8800GTX stehen kann, lässt sich wohl nur aus den Kindheitserrinnerungen der User erklären. ;)

reunion
2009-05-09, 08:00:13
nVidia first to market with a DirectX 11 GPU?
http://www.brightsideofnews.com/news/2009/5/8/nvidia-first-to-market-with-a-directx-11-gpu.aspx

Es ist noch alles offen....

V2.0
2009-05-09, 11:09:00
nVidia first to market with a DirectX 11 GPU?
http://www.brightsideofnews.com/news/2009/5/8/nvidia-first-to-market-with-a-directx-11-gpu.aspx

Es ist noch alles offen....

Sehr unwahrscheinlich, da beide bei TSMC fertigen lassen und ATI den kleineren Chip hat.

LovesuckZ
2009-05-09, 11:22:23
Sehr unwahrscheinlich, da beide bei TSMC fertigen lassen und ATI den kleineren Chip hat.

Und du weißt, wieviel Energie in den 40nm Prozeß investiert? Sie wollen am Ende des Jahres zwischen 20-25% aller Produkte in 40nm fertigen - und das sind zum Größteil die Grafikkarten.


David, obviously we are ramping 40-nanometer very aggressively


Hans Mosesmann - Raymond James

Thanks. Jen-Hsun, on the 40-nanometer, since you brought it up, I know you are not going to talk about new products that are not announced but can you give us an update on how the ramp is going relative to previous process nodes in terms of the ramp, the volumes, and can you give us an update on what percentage of the mix by the end of the year could be coming through that process node? Thanks.

Jen-Hsun Huang

Let’s see -- the ramp is going fine. It’s during the -- you know, we are ramping 40-nanometer probably harder than anybody and so we have three products in line now in 40-nanometer and more going shortly. So there’s -- this is a very important node. TSMC is working very hard. We have a vast majority of their line cranking right now with new products, and so we are monitoring yields and they are improving nicely week-to-week-to-week, and so at this point, there’s really not much to report.

In terms of the mix towards the end of the year, let’s see -- I haven’t -- my rough math would suggest about 25%, is my guess. I mean, there’s still going to be a lot of 55-nanometer products. A lot of our MCP products, ION, for example, is still based on 55-nanometer and ION is going to be running pretty hard. I think you heard in David’s comments earlier that our Intel chipset product line is our fastest growing business and so my sense is that that’s going to continue to be successful and that is still in 55-nanometer. So I would say roughly 25% to 30% is my rough estimate going into the end of the year.

Beides: http://seekingalpha.com/article/136355-nvidia-f1q10-qtr-end-4-26-09-earnings-call-transcript?page=-1

Ailuros
2009-05-09, 14:06:45
Die Daten sagen nichts aus.Gab schon oft Karte die auf dem Papier umhauen und in der Realität enttäuschen.

Der einzige echte gute Sprung war der R300 9700pro

Ich hatte sowohl eine R300 als auch G80 und beide waren ein gesunder Sprung und dazu nicht nur was Leistung betrifft sondern auch Bildqualitaet.

nVidia first to market with a DirectX 11 GPU?
http://www.brightsideofnews.com/news/2009/5/8/nvidia-first-to-market-with-a-directx-11-gpu.aspx

Es ist noch alles offen....

Was zum Teufel heisst "delayed"? CJ erwaehnte irgendwann bei B3D dass die ersten RV870 samples im Mai-Juni erscheinen sollten und schon strickten seither die jeweiligen Trash tabloid Seiten ein merkwuerdiges Geruecht dass das Ding in August wenn nicht schon Juli erscheinen sollte. Es ist keiner daran Schuld wenn manche nicht die Realitaet zu deuten wissen. IMHLO gab es zwischen den finalen tape outs der beiden chips lediglich Wochen-Unterschiede. Falls es irgendwelche "Verspaetungen" geben sollte dann fuer beide IHVs bitteschoen denn beide sind schon produktionsreif.

Sehr unwahrscheinlich, da beide bei TSMC fertigen lassen und ATI den kleineren Chip hat.

Wenn Du mir sagen kannst auf welchem genau 40nm RV870 herstellt, kann ich Dir diese aus dem Klo gegriffene Schlussfolgerung schnell beantworten.

igg
2009-05-09, 16:37:21
Wenn ich das richtig verstanden habe: GT300 (Tesla) im Q4 09, G300 (Desktop) im Q1 10?

Ailuros
2009-05-09, 17:05:37
Wenn ich das richtig verstanden habe: GT300 (Tesla) im Q4 09, G300 (Desktop) im Q1 10?

Da eine Tesla GPU logischerweise auch groesser sein wuerde, glaubst Du nicht eher dass Du erstmal das ganze verkehrt einschaetzt?

KonKorT
2009-05-09, 18:39:24
Ich bin mir nicht sicher, ob hier überhaupt ein Unterschied besteht. Diesen gab es bei GT200 und G200 auch nicht. Auf dem Die des Chips stand zwar G200, überall war aber von GT200 die Rede. ;)
Auch jetzt hört man nur von GT300 und gar nichts von G300.

PS: Im Rahmen der Bekanntgabe der Geschäftszahlen sprach man ausschließlich von GT300 und nicht G300.

Ailuros
2009-05-09, 18:54:21
Ich bin mir nicht sicher, ob hier überhaupt ein Unterschied besteht. Diesen gab es bei GT200 und G200 auch nicht. Auf dem Die des Chips stand zwar G200, überall war aber von GT200 die Rede. ;)

Der chip existierte nur bin ich mir nicht mehr sicher mit dem ganzen Wirrwarr ob er jetzt G200 oder G100 intern bezeichnet wurde. T steht fuer Tesla.

Auch jetzt hört man nur von GT300 und gar nichts von G300.

Wer ist "man" genau?

PS: Im Rahmen der Bekanntgabe der Geschäftszahlen sprach man ausschließlich von GT300 und nicht G300.

Dann frag doch einfach "man" ob fuer den HPC Markt bzw. Tesla etwas anderes geplant ist. Bei der angeblichen Transistoren-Menge von "man" passen keineswegs genug DP Einheiten rein die sich gegen das 600mm2 HPC LRB Monstrum stellen koennte. Ergo beweise mir hier und jetzt dass NV den Profi-Markt kampflos an Intel verschenken will.

LovesuckZ
2009-05-09, 18:58:35
PS: Im Rahmen der Bekanntgabe der Geschäftszahlen sprach man ausschließlich von GT300 und nicht G300.

nVidia spricht nicht über nicht präsentierte Produkte.

AnarchX
2009-05-09, 19:10:01
nVidia spricht nicht über nicht präsentierte Produkte.
Natürlich tut man das - "near 1 TFLOP" und je näher man am Launch ist, so mehr lässt man auch gewisse etwas ungenaue Daten (http://www.golem.de/0804/58955.html) in die Öffentlichkeit.

Der chip existierte nur bin ich mir nicht mehr sicher mit dem ganzen Wirrwarr ob er jetzt G200 oder G100 intern bezeichnet wurde. T steht fuer Tesla.
Wohlmöglich dieser knapp unter 500mm² große 65nm Die, der mal im B3DF gezeigt wurde?


Dann frag doch einfach "man" ob fuer den HPC Markt bzw. Tesla etwas anderes geplant ist. Bei der angeblichen Transistoren-Menge von "man" passen keineswegs genug DP Einheiten rein die sich gegen das 600mm2 HPC LRB Monstrum stellen koennte.
Was spräche gegen DP-Support durch die normalen ALUs?

KonKorT
2009-05-09, 19:11:28
Wer ist "man" genau?
Man ist die Allgemeinheit. Die Suche nach "nvidia g300" ergibt in Google 15.900 Treffer (http://www.google.de/search?hl=de&q=nvidia+g300&btnG=Suche&meta=), bei "nvidia gt300" sind es 344.000 Treffer (http://www.google.de/search?hl=de&q=nvidia+gt300&btnG=Suche&meta=) und somit mehr als 20-mal so viel.

Bei der angeblichen Transistoren-Menge von "man" passen keineswegs genug DP Einheiten rein die sich gegen das 600mm2 HPC LRB Monstrum stellen koennte. Ergo beweise mir hier und jetzt dass NV den Profi-Markt kampflos an Intel verschenken will.
Das muss nicht gesagt sein; vielleicht macht man es wie AMD. Aber auch die Double-Precision-Performance des GT200 war schon nicht berauschend...
Sicherlich ist es möglich, dass es noch einen extra Tesla-Chip gibt. Für mich stellen sich dann aber die Fragen:
- Für welchen Zeitraum?
- Unter welchem Codenamen?

Oder um es anders zu formulieren: Überall, wo im Netz von GT300 die Rede war, wäre nach deiner Definition G300 mit gemeint gewesen. Wenn Du dir sicher bist, Ailuros, dann kannst du aber auch gerne den Titel dieses Threads anpassen :wink:

LovesuckZ
2009-05-09, 19:24:44
Natürlich tut man das - "near 1 TFLOP" und je näher man am Launch ist, so mehr lässt man auch gewisse etwas ungenaue Daten (http://www.golem.de/0804/58955.html) in die Öffentlichkeit.


Das ist keine Conference Call. Und mehr die Ausnahme als die Regel. Fakt ist, dass nVidia in gesprächen bezüglich von Geschäftsberichten über keine unangekündigten Produkte spricht. Und das haben sie auch diesmal getan.

AnarchX
2009-05-09, 19:50:06
Das ist keine Conference Call. Und mehr die Ausnahme als die Regel. Fakt ist, dass nVidia in gesprächen bezüglich von Geschäftsberichten über keine unangekündigten Produkte spricht. Und das haben sie auch diesmal getan.
In recent analyst conferences that were publicly webcast on NVIDIA's website, Michael Hara (VP of Investor Relations) has claimed that their next-generation chip, also known as G92 in the rumour mill, will deliver close to one teraflop of performance
http://www.beyond3d.com/content/news/230

LovesuckZ
2009-05-09, 19:54:40
Und, hatte er recht? ;)
Wie gesagt, mit dem GT200 war wohl mehr eine Ausnahme - darüber hinaus hat nVidia noch nie explizit im engeren Sinne über unangekündigte Produkte geredet.
Und über dem GT300 haben sie kein Wort verloren.

reunion
2009-05-09, 22:26:20
Was spräche gegen DP-Support durch die normalen ALUs?

Weil sie dann loopen müssten.

AnarchX
2009-05-09, 22:36:26
Weil sie dann loopen müssten.
Das muss auch LRB und anders kommt man auch auf keine vernünftige DP-Performance.

reunion
2009-05-09, 22:43:55
Das muss auch LRB und anders kommt man auch auf keine vernünftige DP-Performance.

Wie das LRB löst weiß ich nicht. Was allerdings aktuelle CPUs oder auch AMD macht ist nichts anderes als das mehrere ALUs pro Takt an einen DP zusammenarbeiten. Es wird nicht geloopt, es werden trotzdem jeden Takt DP-Berechnungen fertig, nur halt weniger als bei SP. NV hat hier wohl mit ihren skalaren ALUs Probleme das nachzustellen, anders kann ich mir die extra DP-Einheiten in GT200 nicht erklären.

AnarchX
2009-05-09, 22:50:14
Oder eben so, auf jeden Fall wird NV wohl dazu übergehen müssen die DP-Berechnungen durch die normalen ALU-Cluster durchzuführen, denn die Transitoren für 150 DP-ALUs, die dann bei optimistischen 1.75GHz auf doch geringe 500GFLOPs kämen, hat man wohl kaum im Budget.

=Floi=
2009-05-09, 23:06:36
dafür könnte man diese auch bei normalen rechnungen mitrechnen lassen und ggf. diese auch bei der grafik nutzen. Das ganze spiel kann man auch umdrehen und so die grafikperformance steigern. Wenn ich mal die idee von reunion zuende spinne, dann wären 128 DP alus auch im stande sich in 256 SP alus zu verwandeln.

warum sollten bei ~3mrd transistoren das budget ausgehen, wenn ein GT200 schon 60DP alus besitzt?

Nakai
2009-05-09, 23:08:58
warum sollten bei ~3mrd transistoren das budget ausgehen, wenn ein GT200 schon 60DP alus besitzt?

GT200 konnte nicht beides gleichzeitig.

Außerdem braucht ne SP-ALU mehr als 2 Takte um einen DP-Wert auszuspucken.


mfg Nakai

reunion
2009-05-09, 23:11:55
dafür könnte man diese auch bei normalen rechnungen mitrechnen lassen und ggf. diese auch bei der grafik nutzen.

Nein das konnte man eben nicht. Da alle Register, etc. nur einmal vorhanden sind.


Das ganze spiel kann man auch umdrehen und so die grafikperformance steigern. Wenn ich mal die idee von reunion zuende spinne, dann wären 128 DP alus auch im stande sich in 256 SP alus zu verwandeln.


Auch das ist Humbug.

Gast
2009-05-09, 23:37:30
PS: Im Rahmen der Bekanntgabe der Geschäftszahlen sprach man ausschließlich von GT300 und nicht G300.
LOL - Ja, der liebe Analyst fragte nach GT300 und Jensen antwortete, dass man keine unangekündigten Produkte kommentiere.

Coda
2009-05-10, 02:55:29
Nein das konnte man eben nicht. Da alle Register, etc. nur einmal vorhanden sind.



Auch das ist Humbug.
32 bit braucht den halben registerspace und auch das letztere ist bei SSE usw. üblich

igg
2009-05-10, 19:58:44
Da eine Tesla GPU logischerweise auch groesser sein wuerde, glaubst Du nicht eher dass Du erstmal das ganze verkehrt einschaetzt?
Nach deinem Kommentar schon ;)

Spasstiger
2009-05-10, 21:34:52
Das vernünftigste wären ausschließlich SP-Alus, die in 5 Takten auch eine DP-Operation durchführen können. So funktioniert das bei AMD/ATI und so findet man auch IPs von IEEE-754-konformen Floating-Point-ALUs.

reunion
2009-05-10, 21:50:19
32 bit braucht den halben registerspace und auch das letztere ist bei SSE usw. üblich

Ach doch. Mhm, na dann. Irgendwie so wird man das wohl lösen.

Das vernünftigste wären ausschließlich SP-Alus, die in 5 Takten auch eine DP-Operation durchführen können. So funktioniert das bei AMD/ATI und so findet man auch IPs von IEEE-754-konformen Floating-Point-ALUs.

5 Takte ist lange. AMD schafft pro Takt mit einer Vec5 ALU ein DP MAD. Das ist ein Unterschied.

Coda
2009-05-10, 22:12:47
5 Takte ist lange. AMD schafft pro Takt mit einer Vec5 ALU ein DP MAD. Das ist ein Unterschied.
Das ist im Endeffekt doch der gleiche Durchsatz. Bei NVIDIA wäre es ja pro SP. ATI muss gleich alle 5 blocken dafür.

Spasstiger
2009-05-10, 22:20:00
5 Takte ist lange. AMD schafft pro Takt mit einer Vec5 ALU ein DP MAD. Das ist ein Unterschied.
Stimmt, AMD macht das in einem Takt durch Zusammenschalten mehrerer ALUs.
Aber auch das ist natürlich eine Lösung für NV, wenn es die neuen Recheneinheiten zulassen. Ich weiß gerade nicht, wie fett eine DP-ALU ist, aber fetter als zwei SP-ALUs ist sie sicherlich. Wie führt man überhaupt zwei 32-Bit-FP-Operationen auf einer 64-Bit-FP-ALU durch? Kann mir das gerade nicht vorstellen. Allerdings hab ich mich bisher auch nicht mit der Implementierung von Floating-Point-ALUs beschäftigt. An der Uni hatte ich immer nur mit Integer-ALUs zu tun.

Gipsel
2009-05-11, 00:41:36
Das vernünftigste wären ausschließlich SP-Alus, die in 5 Takten auch eine DP-Operation durchführen können. So funktioniert das bei AMD/ATI
ATI muss gleich alle 5 blocken dafür.
Stimmt, AMD macht das in einem Takt durch Zusammenschalten mehrerer ALUs.
Aber auch das ist natürlich eine Lösung für NV, wenn es die neuen Recheneinheiten zulassen.
Die ATIs schalten maximal 4 der 5 ALUs einer VLIW-Einheit für DP zusammen und zwar für MULs und MADDs. Die fünfte kann immer noch eine 32bit Instruktion parallel abarbeiten. Für Additionen (sind einfacher) reichen auch zwei Slots, so daß im Prinzip zwei DP Additionen pro VLIW-Einheit ausgeführt werden können (Peak-Leistung kann sowohl mit MADDs als auch mit ADDs erreicht werden). Mit mehr Transistoraufwand kann man das bestimmt für die Multiplikationen und MADDs auch erreichen. Frage ist, ob sich das wirklich lohnt, da so ein Multiplier im Verhältnis doch ziemlich viele Transistoren benötigt.

Wie wäre das eigentlich, wenn der GT300 128 VLIW-Einheiten mit jeweils 4 Slots verbaut (ähnlich wie ATI jetzt) und das ganze als MIMD verkauft ;)
Würde die DP-Geschichte erheblich vereinfachen und man käme auch auf die 512 Shadereinheiten. Aber das wäre wohl zu transistorsparend, so daß dann wohl eher 256 dual-issue-Einheiten (die zusammengelegt DP können) werden (wird nv dann wohl triple issue nennen, dual issue haben sie mit den SFUs ja jetzt schon). Wenn man sich die Auslastung von ATIs 5 Slots anschaut, sollten 2 Slots absolut problemlos sein.

Ailuros
2009-05-11, 10:12:32
Wohlmöglich dieser knapp unter 500mm² große 65nm Die, der mal im B3DF gezeigt wurde?

Ich hab das Ding nicht gesehen, aber irgendwo in der Region muesste das Ding liegen.

Was spräche gegen DP-Support durch die normalen ALUs?

NV bestand bis jetzt darauf dass getrennte Einheiten hoehere Effizienz garantieren. Es muss nicht so sein fuer GT3x0, aber die Moeglichkeit besteht schon dass es getrennte Einheiten sind.

Man ist die Allgemeinheit. Die Suche nach "nvidia g300" ergibt in Google 15.900 Treffer (http://www.google.de/search?hl=de&q=nvidia+g300&btnG=Suche&meta=), bei "nvidia gt300" sind es 344.000 Treffer (http://www.google.de/search?hl=de&q=nvidia+gt300&btnG=Suche&meta=) und somit mehr als 20-mal so viel.

Fuer was genau soll dieses ein logisches Argument sein? Jegliches zukuenftige Produkt steht unter NDA.

Das muss nicht gesagt sein; vielleicht macht man es wie AMD. Aber auch die Double-Precision-Performance des GT200 war schon nicht berauschend...

Dann wende Dich einfach an einen echten NV engineer und frage Ihn ueber seine Meinung darueber.

Sicherlich ist es möglich, dass es noch einen extra Tesla-Chip gibt. Für mich stellen sich dann aber die Fragen:
- Für welchen Zeitraum?
- Unter welchem Codenamen?

http://www.theinquirer.net/inquirer/news/1052025/gt300-delayed-till-2010

Ein getrennter HPC chip erklaert auf jeden Fall das obrige und auch Intel's Plaene ihren HPC LRB spaeter als das mainstream zu veroeffentlichen.

***edit: http://forum.beyond3d.com/showpost.php?p=1292159&postcount=1003

KonKorT
2009-05-12, 21:51:26
Neue GT300-Infos: Rund 2,4 Millarden Transistoren und kleiner als GT200b.

GT300 mit rund 2,4 Millarden Transistoren

Quelle: Hardware-Infos (http://www.hardware-infos.com/news.php?news=2944)

mapel110
2009-05-12, 22:08:30
Ich frag mich, wie das gehen soll. Mehr als doppelt so viele Shader-Einheiten plus noch D3D11-Features, wie kommt man da mit 2.4 Milliarden Transistoren hin?!

Der_Korken
2009-05-12, 22:19:15
Ich frag mich, wie das gehen soll. Mehr als doppelt so viele Shader-Einheiten plus noch D3D11-Features, wie kommt man da mit 2.4 Milliarden Transistoren hin?!

Als man den G80 gesehen hat, dachte man auch nicht, dass Nvidia für 87,5% mehr ALUS und 50% mehr TMUs gleich 1,4Mrd Transistoren verbraten würde. Ich würde sagen, dass der GT200 einfach so viele Transistoren braucht, statt der GT300 so wenige.

Gipsel
2009-05-12, 23:27:16
Ich frag mich, wie das gehen soll. Mehr als doppelt so viele Shader-Einheiten plus noch D3D11-Features, wie kommt man da mit 2.4 Milliarden Transistoren hin?!
Das wären immerhin über 70% mehr Transistoren als GT200. Das Speicherinterface behält ja die gleiche Breite. Und falls die extra DP-Einheiten gekickt werden, könnte das schon locker hinkommen.
Selbst wenn die DP-Einheiten erhalten bleiben sollten, schau Dir doch mal an, wieviel Hardware vom RV670 zum RV770 dazugekommen ist und wieviele Transistoren das gekostet hat (nur 44% mehr Transistoren). Mit entsprechenden Design-Entscheidungen (und Kompromissen) geht so Einiges.

Gast
2009-05-13, 06:27:11
Mit entsprechenden Design-Entscheidungen (und Kompromissen) geht so Einiges.
Eben. Es müssen zb nicht gleich doppelt so viele TMUs sein, der aktuellen Situation angepasst reichen auch ~ 96-112 TMUs.
Muss das Treiberteam mit "Optimierungen" ausgleichen, geht schon. ;)

Nakai
2009-05-13, 08:37:23
Sieht eher so aus, als wäre der Chip groß genug für eine Single-Chip-Karte und sogar noch vertretbar klein für eine Dual-Chip-Karte. Vll hat NV wieder alle verarscht.


mfg Nakai

Ailuros
2009-05-13, 16:16:47
Ich frag mich, wie das gehen soll. Mehr als doppelt so viele Shader-Einheiten plus noch D3D11-Features, wie kommt man da mit 2.4 Milliarden Transistoren hin?!

Obwohl es hoechstwahrscheinlich fundamentale Unterschiede zwischen der D3D10 und D3D11 Generation geben wird, solltest Du nicht vergessen dass auf GT200 die ALUs in etwa 1/4 des dies betragen.

Ailuros
2009-05-13, 16:22:01
Eben. Es müssen zb nicht gleich doppelt so viele TMUs sein, der aktuellen Situation angepasst reichen auch ~ 96-112 TMUs.
Muss das Treiberteam mit "Optimierungen" ausgleichen, geht schon. ;)

512/8 = 64 (aber dann auch nur Vec4 16 SIMDs)
512/10 = 51.2
512/12 = 42.66
512/14 = 36.57
512/16 = 32 (4*8/cluster)

Dementsprechend klingt das letzte am wahrscheinlichsten, wobei ich an 4-TMU cluster pro ALU cluster nicht glaube, weil es sonst 64 insgesamt waeren und ergo weniger als auf GT200. 16*8= 128

robbitop@work
2009-05-13, 16:53:09
Am wahrscheinlichsten erscheint mir 16x Cluster a 4x Vec8 ALUs mit je 8 TMUs.
Man würde konsequent die ALU:TEX Rate weiterhin erhöhen und bei ähnlich gelagerten Clustern bleiben. Es wäre eine Konsequente Folge aus G80 -> GT200.
IMO nicht all zu unwahrscheinlich. Das Ding dürfte knapp 2x GT200 Leistung bringen und bleibt damit im erwarteten Rahmen. Je nach Taktrate vieleicht ein wenig mehr oher eher ein wenig weniger.
GT200 war ja relativ zu G80/G92 auch aufgrund der konservaten Taktraten etwas enttäuschend (1400 MHz Shaderclock :-/).

Gast
2009-05-13, 16:54:53
Neues "Material" http://www.hardware-infos.com/news.php?news=2944 :)

mapel110
2009-05-13, 17:23:42
Neues "Material" http://www.hardware-infos.com/news.php?news=2944 :)
Nö, altes Material. :tongue: siehe Posting von KonKorT vom 12.05.2009 21:51:26

Spasstiger
2009-05-13, 19:35:23
2,4 Mio. Transistoren klingen dann doch eher nach einem Vernunftschip. Schade für die, die sich einen zweiten G80 erhofft haben, aber hoffentlich gut für den Preiskampf und somit für den nicht ganz so betuchten Käufer.

Gast
2009-05-13, 20:17:31
2,4 Mio. Transistoren klingen dann doch eher nach einem Vernunftschip.
Es klingt auch danach, das es diesmal von Anfang an eine GX2 gibt.

Spasstiger
2009-05-13, 22:23:55
Es klingt auch danach, das es diesmal von Anfang an eine GX2 gibt.
Ich denke mal, dass man die GX2 dann bringen wird, wenn sie gegen AMD notwendig wird oder wenn die "GTX 380" in den Benchmarks nicht schneller ist als die GTX 295. Bei 2,4 Mio. Transistoren kann ich mir auch vorstellen, dass NV auf die dedizierten Double-Precision-Einheiten verzichtet und eher was über die Single-Precision-Einheiten hinbiegt wie AMD.

dildo4u
2009-05-13, 22:28:55
Glaub nicht das NV dort zurückrüstet.Ich denke eher das NV plant mit mher Alu Takt als beim G200 anzutreten eher auf G92 Level also ca 1.8-2Ghz.

Spasstiger
2009-05-13, 22:42:39
Ich denke eher das NV plant mit mher Alu Takt als beim G200 anzutreten eher auf G92 Level also ca 1.8-2Ghz.
Das ginge am Einfachsten, wenn sie die Double-Precision-Einheiten weglassen. Zudem könnten sie auch mehr maximale Rechenleistung für Double Precision bereitstellen, wenn sie nur die Single-Precision-Einheiten dafür verwenden. Beim GT200 beträgt die Peak-DP-Leistung gerade mal ein Achtel der Peak-SP-Leistung. Wenn NV über die SP-Einheiten gehen würde, könnten sie als Peak-DP-Leistung auch ein Viertel bis ein Fünftel der Peak-SP-Leistung erreichen. Hinzu kommen dann noch die höheren Taktraten.
Aber das gilt natürlich alles nur, wenn der GT300 ähnliche Einheiten wie der GT200 besitzt.

Mein persönlicher Eindruck der DP-Einheiten beim GT200: Resourcenverschwendung.

Gast
2009-05-13, 23:19:45
Mein persönlicher Eindruck: Aufgrund des Feature-Sets prima zum Developer-Anfixen. Und je früher man damit ankommt, desto eher werden andere genötigt, dasselbe Featureset anzubieten und man hat einen Vorsprung.

Spasstiger
2009-05-13, 23:50:24
Mein persönlicher Eindruck: Aufgrund des Feature-Sets prima zum Developer-Anfixen. Und je früher man damit ankommt, desto eher werden andere genötigt, dasselbe Featureset anzubieten und man hat einen Vorsprung.
AMD hatte Double Precision schon vorher, NV musste nachziehen.

Coda
2009-05-14, 03:02:38
Evtl. sind die DP-Einheiten bei GT200 auch gar nicht so groß wie wir bisher gedacht haben. Auf B3D wurde mal angesprochen, dass IEEE754-Div, Sin usw. alles über Befehlssequenzen erzeugt werden und nicht in Hardware. Angeblich soll es einfach nur ein MADD+RCP sein.

=Floi=
2009-05-14, 06:44:33
die DP eiheien werden schon ihren sinn gehabt haben. sie als resourcenverschwendung abzustempeln halte ich für falsch. die sind ja auch nicht dumm.

nagus
2009-05-14, 08:05:57
theinquirer hat eine neue geschichte parat: http://www.theinquirer.net/inquirer/news/1137331/a-look-nvidia-gt300-architecture

"GT300 will be quarters late, and without a miracle, miss back to school, the Windows 7 launch, and Christmas. It won't come close to R870 in graphics performance, and it will cost much more to make. This is not an architecture that will dig Nvidia out of its hole, but instead will dig it deeper. It made a Laughabee."

reunion
2009-05-14, 08:34:28
theinquirer hat eine neue geschichte parat: http://www.theinquirer.net/inquirer/news/1137331/a-look-nvidia-gt300-architecture

"GT300 will be quarters late, and without a miracle, miss back to school, the Windows 7 launch, and Christmas. It won't come close to R870 in graphics performance, and it will cost much more to make. This is not an architecture that will dig Nvidia out of its hole, but instead will dig it deeper. It made a Laughabee."

Schön langsam wird es albern.

igg
2009-05-14, 09:04:47
Die Inq Meldung liest sich eher wie damals seine Posts vor dem G80 Launch. Insofern: Macht Hoffnung auf einen tollen Chip :).

MuLuNGuS
2009-05-14, 09:05:14
theinquirer hat eine neue geschichte parat: http://www.theinquirer.net/inquirer/news/1137331/a-look-nvidia-gt300-architecture

"GT300 will be quarters late, and without a miracle, miss back to school, the Windows 7 launch, and Christmas. It won't come close to R870 in graphics performance, and it will cost much more to make. This is not an architecture that will dig Nvidia out of its hole, but instead will dig it deeper. It made a Laughabee."

wird zeit das sie den typen mal feuern, ist ja lächerlich³

Gast
2009-05-14, 09:09:13
wird zeit das sie den typen mal feuern, ist ja lächerlich³

Der Fettsack ist afaik leider der Chef des Witzvereins.. Also ich lese zur Unterhaltung ja gerne mal die NV-Rants von ihm, der da schiesst aber echt den Vogel ab

Ailuros
2009-05-14, 09:10:51
Schön langsam wird es albern.

Die einzige Frage ist wer fuettert wen und warum mit all dem Unsinn und das fuer beide Seiten.

***edit: der newsblurb hat uebrigens so viele Fehler dass ich nichtmal drueber lachen kann. Just for the record es gab fuer Tesselation fuer D3D10 lediglich zwei positive Stimmen; die Liste an negativen Stimmen ist laenger als nur die von NV.

BlackBirdSR
2009-05-14, 09:14:47
Bunte Mischung aus Schmarn, Eigeninterpretation und bestehenden gerüchten (ROPs nicht mehr als dedizierte HW-Einheit)...

irgendjemand hat sich wieder einen Spass daraus gemacht, charlie auflaufen zu lassen. Mal sehen wann Fuad nachzieht.
Aber eines muss man Charlie ja lassen, er hat sich ganz viel Mühe mit all dem Text gegeben

Ailuros
2009-05-14, 09:21:09
Bunte Mischung aus Schmarn, Eigeninterpretation und bestehenden gerüchten (ROPs nicht mehr als dedizierte HW-Einheit)...

irgendjemand hat sich wieder einen Spass daraus gemacht, charlie auflaufen zu lassen. Mal sehen wann Fuad nachzieht.
Aber eines muss man Charlie ja lassen, er hat sich ganz viel Mühe mit all dem Text gegeben

Da sie den Speichercontroller fundamental umgekrempelt haben, bleibt das Thema ROPs IMHLO noch offen. Sonst erwaehnen sie so oft in ihren neuesten Praesentationen dass ff hw noch fuer einige Zeit bleiben wird, dass es mir schwer nach einer absichtlichen Irrefuehrung klingt. Wie schon oefters erwaehnt ich erwarte sowohl auf G300 als auch auf RV870 entweder mehr als eine Geometrie-Einheit (rasterizer etc.) oder eben ziemlich hoeheren Parallelismums in diesem Bereich der die Effizienz um einiges erhoeht.

LovesuckZ
2009-05-14, 09:29:20
irgendjemand hat sich wieder einen Spass daraus gemacht, charlie auflaufen zu lassen. Mal sehen wann Fuad nachzieht.


Er zieht nicht nach. Man kann zwar einiges über ihn sagen, aber gezielte Attacken gegenüber einem Hersteller hat er mindesten seit seinem Weggang von Theinq nicht gemacht. Auch schreibt er keinen wirklichen kompletten Mist. Imo ist Fuad wesentlich glaubwürdiger und vertrauensvoller als Charlie.

BlackBirdSR
2009-05-14, 09:34:50
Er zieht nicht nach. Man kann zwar einiges über ihn sagen, aber gezielte Attacken gegenüber einem Hersteller hat er mindesten seit seinem Weggang von Theinq nicht gemacht. Auch schreibt er keinen wirklichen kompletten Mist. Imo ist Fuad wesentlich glaubwürdiger und vertrauensvoller als Charlie.


Es war schon immer so:
Charlie = CPU
Fuad = GPU

Innerhalb ihres "Spezialgebiets" kann man schon mal daran glauben. Wenn einer der beiden aber über das andere Thema schreibt, sollte man sehr vorsichtig sein.

Gipsel
2009-05-14, 11:42:18
Beim GT200 beträgt die Peak-DP-Leistung gerade mal ein Achtel der Peak-SP-Leistung.Sie beträgt sogar nur ein Zwölftel. Zumindest wenn man die SP-Peakleistung als kombinierte MADD + MUL Leistung betrachtet.

Spasstiger
2009-05-14, 11:55:08
Sie beträgt sogar nur ein Zwölftel. Zumindest wenn man die SP-Peakleistung als kombinierte MADD + MUL Leistung betrachtet.
Stimmt, sollte man bei Peak-Werten auf jeden Fall so rechnen.
In GFlops ausgedrückt:
DP-MADD-Leistung bei der HD 4890: 272 GFlops
DP-MADD-Leistung bei der GTX 285: 89 GFlops

Die dedizierten Double-Precision-Einheiten des GT200 müssten also schon extrem viel effizienter sein als die Lösung beim RV790, damit der Aufwand gerechtfertigt ist.

Ailuros
2009-05-14, 15:24:21
Die dedizierten Double-Precision-Einheiten des GT200 müssten also schon extrem viel effizienter sein als die Lösung beim RV790, damit der Aufwand gerechtfertigt ist.

Definiert hier die Anzahl der theoretischen FLOPs die Effizienz oder eher X FLOPs fuer N Faehigkeiten?

Spasstiger
2009-05-14, 15:29:55
Definiert hier die Anzahl der theoretischen FLOPs die Effizienz oder eher X FLOPs fuer N Faehigkeiten?
:confused:
Ich finde deine Frage seltsam. Die theoretischen Peak-Flops definieren natürlich nicht die Effizienz, da die Effizienz keine Leistungsangabe darstellt.
NV muss beim GT200b auf jeden Fall die dreifache Auslastung der Einheiten wie AMD mit dem RV790 erreichen, um auf die gleiche DP-Leistung zu kommen. Oder besitzen die DP-ALUs bei NV Fähigkeiten, die über MADD hinausgehen?

deekey777
2009-05-14, 15:38:59
Denorms sollen sie in HW beherrschen.

So oder so: Wie soll man die Grafikkarten miteinander vergleichen, wenn nicht über die theoretische Zahlen? Dieser Einwand, dass die SPs der G80 deutlich effizienter seien, ist nunmal theoretisch, da die Entwickler, die Software für die Radeons schreiben, fähige Leute sind, um eine hohe Auslastung zu erreichen.
Aber das ist Kinderkacke, denn es gibt weitere Flaschenhälse, die die Rechenleistung nur so killen können (zB wenn die GPU auf Daten warten muss).

mekakic
2009-05-14, 16:15:11
Gibt es schon genauere Infos wann der GT300 im Markt erscheinen wird?

Gipsel
2009-05-14, 16:51:24
Dieser Einwand, dass die SPs der G80 deutlich effizienter seien, ist nunmal theoretisch, da die Entwickler, die Software für die Radeons schreiben, fähige Leute sind, um eine hohe Auslastung zu erreichen.
Dazu kommt, daß die Shader-Rohleistung bei den ATIs einfach höher ist. Selbst wenn davon nur 50% rüberkommen sollten, liegt man immer noch praktisch gleichauf mit nvidia (solange die MULs der SFUs nicht genutzt werden können).
Beispiel:
HD4890 hat 1360 GFlops theoretische MADD-Leistung, 50% davon sind 680 GFlops
GTX285 hat 708 GFlops theoretische MADD-Leistung

Und in der Realität ist die Auslastung im Allgemeinen höher als 50%. Bei den ATIs ist der Flaschenhals im Moment wirklich nicht die Shaderleistung.

deekey777
2009-05-14, 22:16:54
Dazu kommt, daß die Shader-Rohleistung bei den ATIs einfach höher ist. Selbst wenn davon nur 50% rüberkommen sollten, liegt man immer noch praktisch gleichauf mit nvidia (solange die MULs der SFUs nicht genutzt werden können).
Beispiel:
HD4890 hat 1360 GFlops theoretische MADD-Leistung, 50% davon sind 680 GFlops
GTX285 hat 708 GFlops theoretische MADD-Leistung

Und in der Realität ist die Auslastung im Allgemeinen höher als 50%. Bei den ATIs ist der Flaschenhals im Moment wirklich nicht die Shaderleistung.
Hast du die aktuelle c't? Dort geht es um GPGPU und es werden mehrere Flaschenhälse genannt. Einmal ist es der lahme Transport vom Host zur GPU selbst und dann zwischen der GPU und dem Grafikspeicher. Wenn ich den Artikel richtig verstanden habe, dann leiden die Radeons am zweiten Flaschenhals wegen deren Rechenleistung viel stärker.
Nvidia war schon clever genug, zumindest Shared Memory in die einzelnen Cores zu packen, um die Latenzen zu senken.

Coda
2009-05-15, 00:08:14
RV770 hat doch auch shared memory - zumindest laut Blockdiagrammen.

Gipsel
2009-05-15, 00:23:19
Hast du die aktuelle c't? Dort geht es um GPGPU und es werden mehrere Flaschenhälse genannt. Einmal ist es der lahme Transport vom Host zur GPU selbst und dann zwischen der GPU und dem Grafikspeicher. Wenn ich den Artikel richtig verstanden habe, dann leiden die Radeons am zweiten Flaschenhals wegen deren Rechenleistung viel stärker.
Nvidia war schon clever genug, zumindest Shared Memory in die einzelnen Cores zu packen, um die Latenzen zu senken.
Habe den Artikel mal kurz gesehen, aber nicht wirklich gelesen.
Mit der relativ langsamen Anbindung über PCI-Express haben alle zu kämpfen, obwohl das mit dem Stream-SDK 1.4 angeblich etwas besser geworden ist (habe ich nie vermessen). Und die nutzbare Speicherbandbreite ist eigentlich für ATI und nvidia Karten in der gleichen Größenordnung und mit über 100GB/s auch im Rahmen des momentan jeweils technisch Möglichen. Was ziemlich übel ist, sind die Speicherlatenzen. Die können nur mit einer Unmenge an gleichzeitig laufenden Warps/Wavefronts versteckt werden, das trifft aber auf beide Hersteller zu. Wo die ATIs einen gewissen Nachteil haben, ist die Anzahl der TMUs. Die limitieren ja die Anzahl der möglichen Speicherzugriffe, und da benötigen die ATIs schon ein paar mehr ALU-Operationen pro Speicherzugriff, damit die nicht auf die TMUs warten müssen. Insofern stimmt es, daß die hohe Rohleistung der Shader das Problem noch verschärft. Die nvidia-Karten sind natürlich aufgrund ihrer ALU:Tex-Rate unempfindlicher dem gegenüber.

Jeder der zehn SIMD-Kerne des RV770/790 besitzt ja nur 4 TMUs (die zusammen theoretisch maximal 16 Werte pro Takt lesen können) für 5 x 16 ALUS. Praktisch wird alles mit weniger als 4 VLIW-Instruktionen (bis zu 20 skalare ALU-Ops!) pro Speicherzugriff brutal ausgebremst, selbst wenn alles im Cache liegt. Optimal sind ALU(VLIW):Tex-Raten näher an 8:1 oder so (was aber bei compute-intensiven Shadern durchaus mal vorkommen kann).

Das shared Memory hilft in dem Zusammenhang auch nicht. Außerdem haben die ATIs ab der RV7x0-Generation das auch (nennt sich da Local Data Share und ist genau wie bei nvidia jeweils 16kB groß). Das ist wirklich nur zum Datenaustausch zwischen den einzelnen Threads auf einem Kern gedacht. In dem Bezug ist man bei den ATIs im Prinzip inzwischen sogar etwas flexibler, glaube ich. Außer dem Local Data Share pro Kern besteht noch ein Global Data Share (pro Chip, nvidia macht das über den RAM, ist also langsamer), der sich aber bisher leider nicht programmiertechnisch ansprechen läßt. Weiterhin besteht bei ATI noch die Möglichkeit Register von verschiedenen Wavefronts auf einem SIMD gemeinsam benutzen zu lassen (ist mir nicht bekannt, daß das bei nv geht). Dies stellt eine Möglichkeit zum Datenaustausch mit extrem geringer Latenz (praktisch gar keiner) dar, ist aber in der Anwendung auf einige Spezialfälle beschränkt, da nicht beliebige Threads ihre Register sharen können.

Gipsel
2009-05-15, 00:24:49
RV770 hat doch auch shared memory - zumindest laut Blockdiagrammen.Das ist auch wirklich da und läßt sich inzwischen (ab StreamSDK 1.4) sogar über Brook+ (und nicht mehr nur mit IL Assembler) nutzen.

deekey777
2009-05-15, 00:35:34
RV770 hat doch auch shared memory - zumindest laut Blockdiagrammen.
Argh, das passiert, wenn man viel sagen will, während des Schreibens aber vergisst und das eigentlich Gedachte anders formuliert.
Das müsste eigentlich so heißen:
Nvidia war schon beim G80 clever genug, zumindest Shared Memory in die einzelnen Cores zu packen, um die Latenzen zu senken
Dass der RV770 über LDS verfügt, weiß ich. ;(

Ailuros
2009-05-15, 14:06:55
:confused:
Ich finde deine Frage seltsam. Die theoretischen Peak-Flops definieren natürlich nicht die Effizienz, da die Effizienz keine Leistungsangabe darstellt.
NV muss beim GT200b auf jeden Fall die dreifache Auslastung der Einheiten wie AMD mit dem RV790 erreichen, um auf die gleiche DP-Leistung zu kommen. Oder besitzen die DP-ALUs bei NV Fähigkeiten, die über MADD hinausgehen?

Was soll an der Frage merkwuerdig sein? Die jeweiligen Faehigkeiten was DP betrifft auf beiden Seiten sind oeffentlich erhaeltlich. NV hat eben mehr Transistoren in zusaetzliche Faehigkeiten investiert als Leistung. Ob diese jetzt ein Profi gebrauchen kann oder nicht ist natuerlich eine andere Frage; nichtdestominder aber bei fehlender Faehigkeit X auf GPU A ist der Leistungsvergleich dann X vs. Null.

reunion
2009-05-15, 14:32:32
Was soll an der Frage merkwuerdig sein? Die jeweiligen Faehigkeiten was DP betrifft auf beiden Seiten sind oeffentlich erhaeltlich. NV hat eben mehr Transistoren in zusaetzliche Faehigkeiten investiert als Leistung. Ob diese jetzt ein Profi gebrauchen kann oder nicht ist natuerlich eine andere Frage; nichtdestominder aber bei fehlender Faehigkeit X auf GPU A ist der Leistungsvergleich dann X vs. Null.

In welche zusätzlichen Fähigkeiten denn genau? Außer das Denorms unter FP64 nicht automatisch auf 0 gesetzt werden kenne ich keine.

Ailuros
2009-05-15, 15:09:21
Da Carsten es noch nicht hier gepostet hat:

Guys, did we arrive at those two Nvidia patents yet? They could relate to GT300, with one of them dealing with a two-fold rasterizer stage utilizing a coarse grained one for generating a non-rectangular field for primitives and "finer grained stage" with a "boustrophedonic" scheme for traversing pixels. The other deals with a method for each of a multitude of clusters to be able to generate pixel data from coverage data.

In short: this could be the G(T)300's scheme of parallelizing rasterization.

"METHOD FOR RASTERIZING NON-RECTANGULAR TILE GROUPS IN A RASTER STAGE OF A GRAPHICS PIPELINE "
http://www.google.com/patents?id=kG2hAAAAEBAJ

"Parallel Array Architecture for a Graphics Processor"
http://www.google.com/patents?id=B_-BAAAAEBAJ

http://forum.beyond3d.com/showpost.php?p=1293047&postcount=1130

=Floi=
2009-05-15, 15:58:18
wo wäre denn der tifere sinn in mehreren rasterrizizer? würde man so vor allem eine bessere auslastung erreichen?

Ailuros
2009-05-15, 16:14:28
wo wäre denn der tifere sinn in mehreren rasterrizizer? würde man so vor allem eine bessere auslastung erreichen?

Anstatt nur steril und konstant die Anzahl der ALUs bzw. deren Faehigkeiten zu steigern glaubst Du nicht auch dass es so langsam Zeit wird dass auch andere Aspekte einer GPU sich steigern koennten? Ausser Du glaubst dass >2x Mal so viel ALUs von sich alleine auch gleich >2x Mal so viel Endleistung insgesamt bedeuten wuerde.

Gipsel
2009-05-15, 19:20:49
In welche zusätzlichen Fähigkeiten denn genau? Außer das Denorms unter FP64 nicht automatisch auf 0 gesetzt werden kenne ich keine.
Außer den schnellen Denorms (selbst CPUs können das nicht schnell, das ist schweinelangsam) kommt der Support für alle IEEE754 Rundungsmodi dazu, außerdem ein echtes FMA mit nur einer Rundung am Ende (und nicht noch einer zwischendurch). Letzteres werden erst x86er-CPUs können, die man 2011 kaufen kann. Das kann ziemlich nützlich für einige mathematische Funktionen (die man in einer Bibliothek in Software nachbildet) sein.

Und wie Ailuros schon meinte, kann man sich über den Sinn mancher Sachen streiten (z.B. meidet man normalerweise Denorms wie der Teufel das Weihwasser, da das eben auf CPUs sehr langsam wird und außerdem trotzdem Präzision verloren geht), aber bei anderen kann ich mir schon vorstellen, daß das Anwendungen findet, die ohne diesen Support umständlicher umzusetzen wären. Nvidia hat einfach eine praktisch vollständige Unterstützung der IEEE754-Norm eingebaut.

Ailuros
2009-05-16, 06:39:54
Uebrigens soll das ALU:TMU Frequenz-Verhaeltnis um einen kleinen Tick steigen. Core-Frequenz hoeher als auf GT200b.

***edit: Stromverbrauch schaetzungsweise auf 275 Niveau.

KonKorT
2009-05-16, 15:58:51
G300 hatte bereits sein Tape-Out, liegt jetzt im A1-Stepping vor und ist damit bereits lauffähig. Der GDDR5-Speicher wird mit mehr als 1 GHz takten.

Quelle: Hardware-Infos (http://www.hardware-infos.com/news.php?news=2952)

AnarchX
2009-05-16, 16:03:14
***edit: Stromverbrauch schaetzungsweise auf 275 Niveau.
Eine GTX 275 hat eine höhere TDP/Verbrauch als eine GTX 285, da hier minderwertigere Dies mit 1.18V im Einsatz sind.
"Maximum Graphics Card Power (W) 219 W" -> 275 (http://www.nvidia.com/object/product_geforce_gtx_275_us.html)
"Maximum Graphics Card Power (W) 204 W" -> 285 (http://www.nvidia.com/object/product_geforce_gtx_285_us.html)
;)

Ailuros
2009-05-16, 16:11:24
Eine GTX 275 hat eine höhere TDP/Verbrauch als eine GTX 285, da hier minderwertigere Dies mit 1.18V im Einsatz sind.
"Maximum Graphics Card Power (W) 219 W" -> 275 (http://www.nvidia.com/object/product_geforce_gtx_275_us.html)
"Maximum Graphics Card Power (W) 204 W" -> 285 (http://www.nvidia.com/object/product_geforce_gtx_285_us.html)
;)

Ich hab eigentlich den gemessenen Stromverbrauch pro GPU auf xbit nachgeschlagen und dieser liegt auf ihren (3dmark?) Messungen um einiges niedriger fuer die 275 als bei der 285.

Ailuros
2009-05-16, 16:17:48
G300 hatte bereits sein Tape-Out, liegt jetzt im A1-Stepping vor und ist damit bereits lauffähig. Der GDDR5-Speicher wird mit mehr als 1 GHz takten.

Quelle: Hardware-Infos (http://www.hardware-infos.com/news.php?news=2952)

Ich hab da etwas mehr Geduld (Unabhaengigkeit ist eine schoene Sache :biggrin: ). Ich pinkle erst nach dem Launch in die Suppe eines gewissen Herren :P (oder ich esse eben selber fuer meine Lebtage keine Suppe mehr LOL).

V2.0
2009-05-16, 16:20:51
Spannender ist ja wie wiet die kleinen Ableger sind. Auch G92 braucht einen DX11 nachfolger.

KonKorT
2009-05-16, 16:23:32
Step by step. Ein Tape-Out gibt es von denen jedenfalls noch nicht. :smile:

AnarchX
2009-05-16, 16:27:00
Ich hab eigentlich den gemessenen Stromverbrauch pro GPU auf xbit nachgeschlagen und dieser liegt auf ihren (3dmark?) Messungen um einiges niedriger fuer die 275 als bei der 285.
Vielleicht eine Version mit besserem Die.
PCGH (GRID und FurMark) und HT4u(FurMark) sehen die 275 unter Last jedenfalls vor einer 285:
http://www.pcgameshardware.de/aid,680242/Test-Ati-Radeon-HD-4890-gegen-Nvidia-Geforce-GTX-275/Grafikkarte/Test/?page=3
http://ht4u.net/reviews/2009/zotac_geforce_gtx_275/index13.php
(Generell sind die Messungen bei Xbit-Labs in letzter Zeit etwas fraglich, sodass dort vielleicht etwas nicht mit dem Equipment stimmt.)
Und die maximum power Angabe direkt bei NV spricht ja auch eine eindeutige Sprache.


Also siehst du GT300 wohl eher unterhalb einer 285 beim Verbrauch?;)

Bleibt natürlich hier die Frage: Wozu?, ob nun 140W Last oder 200W+ interessiert wohl den Enthusiasten, der sich eine GT300-Karte für >$500 kaufen will wohl eher weniger, immerhin haben GTX 295 und 4870X2 diese schon für Verbrauchswerte in Richtung 300W sensibilisiert. Worauf es imo eher ankommt ist der Leistungsschub gegenüber erhältlichen Lösungen.

Auf der anderen Seite wäre der Weg bei so einem Verbrauch zu einer GT300GX2 natürlich nicht weit, immerhin sieht mancher in der Single-PCB GTX 295 schon eine Art Machbarkeitsstudie für eine solche Lösung.:D

Ailuros
2009-05-16, 16:27:44
Spannender ist ja wie wiet die kleinen Ableger sind. Auch G92 braucht einen DX11 nachfolger.

Dafuer wird es die GT21x@40nm Dinger geben. GT215 und abwaerts.

Ailuros
2009-05-16, 16:33:36
Also siehst du GT300 wohl eher unterhalb einer 285 beim Verbrauch?;)

Ja.

Bleibt natürlich hier die Frage: Wozu?, ob nun 140W Last oder 200W+ interessiert wohl den Enthusiasten, der sich eine GT300-Karte für >$500 kaufen will wohl eher weniger, immerhin haben GTX 295 und 4870X2 diese schon für Verbrauchswerte in Richtung 300W sensibilisiert. Worauf es imo eher ankommt ist der Leistungsschub gegenüber erhältlichen Lösungen.

Was heisst wozu? Wie sieht der Stromverbrauch einer 4890 genau aus?

Auf der anderen Seite wäre der Weg bei so einem Verbrauch zu einer GT300GX2 natürlich nicht weit, immerhin sieht mancher in der Single-PCB GTX 295 schon eine Art Machbarkeitsstudie für eine solche Lösung.:D

Aechz...um Himmel's Willen nicht. Ich persoenlich will nichts davon hoeren. Eine schnellere und bessere Skalierbarkeit der Architektur in kleinere Maerkte waere fuer mich das beste Argument ueberhaupt. Man sollte Loesungen wie Ion (Generation N) nicht als Melkkuh fuer zukuenftige Gewinne ausschliessen.

AnarchX
2009-05-16, 17:02:48
Dafuer wird es die GT21x@40nm Dinger geben. GT215 und abwaerts.
Nur wird man sich auf diesen 40nm G9x(+GDDR5)-Lösungen (wonach es momentan aussieht) auch nicht ewig ausruhen können, denn sonst wird man von AMDs Welle weggespült. ;)
Dirk Meyer
We did and what we said is we launched notebook GPUs in Q1. We’ll launch another product here soon and follow that up with I’ll say a wave of DX11 compatible products in the back half of the year on 40 nanometer.
http://seekingalpha.com/article/132172-advanced-micro-devices-inc-q1-2009-earnings-call-transcript?page=-1

Und langfristig auf Basis der Vergangenheitsstatistik erwarte ich für Anfang April 2010:
@150€ GT3x0 mit 2x GTX260-192 Leistung (~ wohlmöglich eine kleinere Version des GT300)
@80-100€: GT3x0 mit 2x 98/88 GT Leistung (~GTX 285)
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7199286#post7199286
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7237731#post7237731


Was heisst wozu? Wie sieht der Stromverbrauch einer 4890 genau aus?

Also wohl eher Luft für böse ALU-Power-Virus-Workloads, die dann die 200W deutlich überschreiten? ;)

dargo
2009-05-16, 17:08:12
***edit: Stromverbrauch schaetzungsweise auf 275 Niveau.
Mehr nicht? Ich hatte eigentlich Einiges mehr erwartet. Jetzt gibts zwei Möglichkeiten:

1. Der GT300 wird doch nicht so ein Performance-Monster wie ich es erwarte.
2. NV hat die Performance pro Watt deutlich gesteigert.

Ich hoffe auf Zweiteres.

KonKorT
2009-05-16, 17:58:53
2.

=Floi=
2009-05-16, 19:14:34
wenn in serie die karte 220 watt hat, dann geht da sicherlich noch etwas durch einen voltmod und durch normales übertakten. So ist die karte dann auch nicht so extrem laut und trotzdem schnell. Bei ati sieht man ja leider was ein ausgereiztes design an hitze produziert. Ich sehe das eher positiv wie negativ! Auch nach oben ist dann noch platz für eine ultra

LovesuckZ
2009-05-16, 19:14:38
Ich tipp auf 1.

=Floi=
2009-05-16, 19:26:59
ein wunder dass DU nicht auf 3 tippst ;D

AnarchX
2009-05-16, 19:31:21
Die Pro-Watt-Leistung steigt natürlich auf jeden Fall, bleibt nur die Frage um wie viel.

Im Endeffekt hat =Floi= natürlich recht, dass bei einer konservativeren Referenz-Version hier auch Potential für einen Mini-Refresh oder OC-SKUs gleich zum Start besteht.

V2.0
2009-05-16, 19:34:20
Problem ist jahlt auch, dass auch im Profisegment die Karten immer mehr in Arbeitsplatzrechnern landen und dort ist Lautstärke (schon wg. Arebitschutz) ein Thema.

pervert
2009-05-16, 23:26:32
1. Der GT300 wird doch nicht so ein Performance-Monster wie ich es erwarte.
2. NV hat die Performance pro Watt deutlich gesteigert.

Ich bin so frech und tippe auf beides ;)

Wenn ATI erst mit einer DUAL GPU DX11 Lösung kommt, dürfte es eng werden für NV, in dem Lichte sieht der GT300 dann gar nicht mehr so schön aus. Außerdem rechne ich bei den viel zu hohen Erwartungen sowieso damit, dass viele eher etwas enttäuscht sein werden, auch wenn nicht in dem Maße wie beim R600 ;). Und daher wird auch NV wieder damit planen eine Dual Karte nach Möglichkeit hinzubekommen, selbst wenn es wieder etwas dauert, ähnlich wie bei G200.

=Floi=
2009-05-17, 00:02:46
vom GT300 kann man auch 2 karten einbauen... :rolleyes:

der GT300 wird schon der bringer. Es spricht einfach zu vieles dafür! Doppelte leistung eines GT200 ist ja auch nicht schlecht und doch ein schöner sprung. in bestimmten situationen wird sich die performance auch sicherlich noch weiter steigern.

OgrEGT
2009-05-17, 08:59:05
Ich würde doch noch mal kurz auf den Beitrag von Theinquirer zurückkommen.

http://www.theinquirer.net/inquirer/news/1137331/a-look-nvidia-gt300-architecture

Hier im Thread ist man doch sehr oberflächlich und schnell darüber hinweg gegangen nach dem Motto "Ist eh alles Käse was da geschrieben wird".

Es ist ja richtig, ein derart negativ auf einen Hersteller ausgerichteten Artikel sollte man immer mit Vorsicht geniesen, da möglicherweise ein andere Motivation dahintersteht als die reine Diskussion von Fakten.

Es werden aber schon einige Argumente gebracht, so dass ich mir wünschen würde, dass die Experten hier für uns Laien genauer darauf eingehen würden:

1. GT300 = High risk part (Neuer Herstellprozess, Neue Architektur, gesteigerte Chipgröße, DX11)

2. Die Story mit der Implementierung der ursprünglichen DX10 Features seitens Nvidia (von denen jetzt viele in DX11 wiederkommen), und der daraus folgenden geringen Erfahrung in der Umsetzung. Im Gegensatz dazu ATI, die offensichtlich mehr Erfahrung haben, da bereits seit längerem einige Features (bsp. Tesselator unit) umgesetzt werden.

3. Fokussierung mit GT300 auf general compute shaders i.G. zu RV870's dedicated hardware und der damit verbundene gesteigerte Rechenaufwand bei best. Szenarien wenn bsp. die Tesselator unit verwendet werden kann.

4. Gründe für Nvidias Probleme bei der Entwicklung der GT200(b) Ableger, von denen bisher kein einziger am Markt ist.

Selbst wenn man nicht alles glaubt, was man liest, so bin ich persönlich eher skeptisch vor allem vor dem Hintergrund des riesigen Hype, der um GT300 gemacht wird. Kann es nicht sein, dass da auch nur viel geglaubt und dann auch geschrieben wird, was auch geglaubt werden will?

LovesuckZ
2009-05-17, 10:03:29
Das ist Charlie - das ist nicht ernst zu nehmen. Aus irgendeinen Grund mag er nVidia.

OgrEGT
2009-05-17, 10:47:45
Grundsätzlich glaube ich weder den Stimmen, die entweder extrem negativ oder extrem positiv über etwas berichten. Im Zweifelsfall immer vom etwas Schlechteren ausgehen, um dann angenehm überrascht zu werden.

Sorry for OT:

Was ist das eigentlich genau für eine Geschichte zwischen Charlie und Nvidia?

Gast
2009-05-17, 11:01:18
Man hofft ja, das mit GT300 eine neue Idee Einzug bezieht. Zwar Monster GPU aber doch leichter zu unterteilen, damit die Mainstream Produkte schneller präsentiert werden können.
Ich warte auf den Tag an den man ein "neues" SLI zeigen kann, das überall greift, ohne Profile, auf Hardwarebasis 2 GPUs zusammengeschaltet, evtl. über CUDA gesteuert.

AnarchX
2009-05-17, 13:45:57
Es ist halt ganz die Frage, was man von GT300 erwartet.

Die momentanen Gerüchte, die ihn bei 512SPs (in optimierter Organisation) und daraus folgend wohlmöglich 128 TMUs, 512-Bit@~1GHz GDDR5 und Optimierungen im Bezug auf Raster und Geometrieleistung (Patente) sehen, versprechen doch den größten Single-GPU-Sprung seit längerer Zeit bei NV.

Nehmen wir mal GTX 285 Taktraten an, die für einen 40nm Chip gegen Ende des Jahres doch etwas zu pessimistisch sein könnten dann gäbe es gegenüber einer GTX 285 folgende Steigerungen:

Tex-Fill: +60%
ALU-Peak: +110%
Bandbreite: +60-80%
Z/Pixel: + 100%?
Rasterleistung: +100%?

Mit dem geometrischen Mittel käme man dann wohl auf eine Gesamtsteigerung von um die 90%, mit etwas höheren Taktraten vielleicht auch >=100% und gerade bei ALU-lastigen Workloads könnten die Steigerung wohl deutlich größer ausfallen.

Und vielleicht hat ja NV auch sich die Texturfilterung vorgenommen, sodass die GT3x0-TMUs gegenüber GT2x0-TMUs auch noch ein paar Prozente drauflegen, ohne das die Qualität sichtbar leidet oder man geht in Richtung ATi und erhält so eine deutliche Steigerung, sodass es in der Praxis sich die 128 TMUs bei ~2x GTX285 bewegen.

Zu guter Letzt sollte man auch Ailuros letzte Aussage beachten, dass sich diese Leistungsteigerung wohlmöglich im Durchschnitt irgendwo im Bereich von 150W realer Verbrauch abspielen könnte, was eine deutlicher Erhöhung der Pro-Watt-Leistung wäre.

Wo wir wieder bei der Idee wären, dass NV hier Anfang 2010 auf Basis dieses niedrigen Verbrauchs eine Dual-GT300-Karte nachschieben könnte, die sich im Durchschnitt irgendwo bei ~3x GTX 285 bewegen könnte und somit doppelt so schnell wie die GTX 295 wäre.

Und aber auch die niedrigeren Bereich könnten auf dieser Basis adäquat bedient werden, wo wie schon weiter oben dargestellt (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7303867#post7303867) gewisse Ansprüche bestehen.

Mögliche Ableger für das H1 2010:
GT302: 384SPs, 96 TMUs, ~384-Bit GDDR5 @>GTX 285-Taktraten -> 2x GTX 260-192 @ 150€ April 2010
GT304: 256SPs, 64 TMUs, ~256-Bit GDDR5 @~800/1800/1000MHz -> ~ GTX 285 @ 100€ April 2010


Und die Frage, was bei ATi passieren wird. ;)

deekey777
2009-05-17, 14:21:40
Man muss sich auch im Klaren sein, dass 512 SPs nichts sagen, selbst wenn diese Zahl stimmt. Der GT200 hat zwar auch 240 "SPs", aber das sind ja nur die "normalen" MAD-ALUs, daneben sind noch spezielle Einheiten (SFU), die parallel eine weitere Warp-Instruction ausführen können (Dual-Issue). Noch ist das Ganze etwas eingeschränkt, aber wenn Nvidia so wahnsinnig ist und die SFU zur fetten ALU a la T-Unit der Radeons aufmotzt, dann haben wir eine deutliche Steigerung der Rechenleistung.

Ailuros
2009-05-17, 15:02:14
Mehr nicht? Ich hatte eigentlich Einiges mehr erwartet. Jetzt gibts zwei Möglichkeiten:

1. Der GT300 wird doch nicht so ein Performance-Monster wie ich es erwarte.
2. NV hat die Performance pro Watt deutlich gesteigert.

Ich hoffe auf Zweiteres.

Und was genau hast Du erwartet? Dass ein chip mit ueber 70% hoeherer Chipkomplexitaet und leicht hoeheren Frequenzen (zum Speicher sag ich lieber noch nichts....) in etwa die Haelfte verbraucht als eine 285?

In welcher Realitaet wohnt Ihr Kerle ueberhaupt? Ja ich weiss dass sich manche 3x Mal GT200 Leistung mit IGP Stromverbrauch wuenschen, aber mit Realitaet hat das gar nichts zu tun.

Ich bin so frech und tippe auf beides ;)

Wenn ATI erst mit einer DUAL GPU DX11 Lösung kommt, dürfte es eng werden für NV, in dem Lichte sieht der GT300 dann gar nicht mehr so schön aus. Außerdem rechne ich bei den viel zu hohen Erwartungen sowieso damit, dass viele eher etwas enttäuscht sein werden, auch wenn nicht in dem Maße wie beim R600 ;). Und daher wird auch NV wieder damit planen eine Dual Karte nach Möglichkeit hinzubekommen, selbst wenn es wieder etwas dauert, ähnlich wie bei G200.

Jeglicher IHV hat seine gute und schlechte Architekturen stets im Vergleich zu dem was die Konkurrenz hat. Die Chancen dass der Abstand zwischen G300 und RV870 genauso gross sein koennte wie zwischen GT200 und RV770 sind geringer weil rein zufaellig beide auf 40nm herstellen und beide GDDR5 benutzen werden u.a.

Was jetzt ein dual-chip Gespann von NV betrifft, NV hat stets nur behauptet dass sie ein solches nur veroeffentlichen wenn es der jeweilige zukuenftige Herstellungsprozess auch erlaubt. So wie es aussieht ist G300 ein single high end chip, ergo kann man durchaus unter <40nm ein dual chip Dingsbums in der Zukunft erwarten.

Man muss sich auch im Klaren sein, dass 512 SPs nichts sagen, selbst wenn diese Zahl stimmt. Der GT200 hat zwar auch 240 "SPs", aber das sind ja nur die "normalen" MAD-ALUs, daneben sind noch spezielle Einheiten (SFU), die parallel eine weitere Warp-Instruction ausführen können (Dual-Issue). Noch ist das Ganze etwas eingeschränkt, aber wenn Nvidia so wahnsinnig ist und die SFU zur fetten ALU a la T-Unit der Radeons aufmotzt, dann haben wir eine deutliche Steigerung der Rechenleistung.

Die Anzahl der SPs sagen genauso wenig aus wie FLOP Raten. Wenn ich nach diesen ausschliesslich gehen wuerde dann waere G300 512/240= 2.13x bei theoretisch gleicher Frequenz. Bekommt man dadurch (und sagen wir mal hypothetisch ~70% mehr Texelfuellrate) ungefaehr (und zumindest) 2x Mal GT200 Leistung?

Es gibt andere Stellen an denen ich fuer beide D3D11 GPUs eine um einiges hoehere Effizienz erwarte (wie schon oefters erwaehnt). Es gab nicht nur oeffentliche Developer Aussagen die ueber hoeheren Parallelismus beim rasterizing erwarten, sondern ich hoere von dem Zeug schon so oft und so lange dass etwas daran liegen sollte. Und da sich einige mit dem Zeug zu verzetteln scheinen, es ist scheissegal ob eine GPU einen oder zwei Takte pro Dreieck im trisetup braucht.

Ich würde doch noch mal kurz auf den Beitrag von Theinquirer zurückkommen.

http://www.theinquirer.net/inquirer/news/1137331/a-look-nvidia-gt300-architecture

Hier im Thread ist man doch sehr oberflächlich und schnell darüber hinweg gegangen nach dem Motto "Ist eh alles Käse was da geschrieben wird".

Ich werde es mal versuchen, aber kann keinen Erfolg garantieren ;)

Es ist ja richtig, ein derart negativ auf einen Hersteller ausgerichteten Artikel sollte man immer mit Vorsicht geniesen, da möglicherweise ein andere Motivation dahintersteht als die reine Diskussion von Fakten.

Ich versuche auch stets persoenlich diese zu uebersehen, aber diesmal scheint er so brutal daneben zu liegen dass es nicht mehr schoen ist. Fangen wir damit an dass er stur und steif ueber etliche newsblurbs behauptet dass der finale tapeout erst im Juni kommen soll, wobei manche schon von A1 silicon reden. Und ja bewusst dass ich als einfacher Leser ein kleines Risiko eingehe, bestaetige ich dieses von dem was ich von mehr als einer Quelle persoenlich gehoert habe.

Ich schliesse aber trotzdem nicht aus dass er mit dem Juni tapeout recht haben koennte, nur aber unter der Vorraussetzung dass NV an zwei verschiedenen chip-Varianten arbeitet. Eines dass schon produktionsreif theoretisch ist und eines fuer den Profi-Markt dass tatsaechlich erst im Juni zum tapeout kommen koennte. So stark spinnt Charlie nun auch wieder nicht.


1. GT300 = High risk part (Neuer Herstellprozess, Neue Architektur, gesteigerte Chipgröße, DX11)

Stimmt schon ganz grob vereinfacht. Dass NV auf 40nm diesmal arbeitet und afaik 40G@TSMC ist kein besonderes Geheimnis. Dass das Resultat in etwa auf GT200b die area liegen koennte auch nicht und D3D11 ist wohl selbstverstaendlich.

Da afaik die yields fuer 40G noch ziemlich beschissen sind bei TSMC, wenn beide IHVs auf diesem herstellen sollten sind auch beide IHVs logischerweise davon betroffen und das unabhaengig von der Chipkomplexitaet.

2. Die Story mit der Implementierung der ursprünglichen DX10 Features seitens Nvidia (von denen jetzt viele in DX11 wiederkommen), und der daraus folgenden geringen Erfahrung in der Umsetzung. Im Gegensatz dazu ATI, die offensichtlich mehr Erfahrung haben, da bereits seit längerem einige Features (bsp. Tesselator unit) umgesetzt werden.

Es gab vor etlichen Jahren einen "originalen NV30" in Planung der nie realisiert wurde de einen programmierbaren primitiven processor hatte. Das Ding wurde umgekrempelt und es enstied der eher merkwuerdige NV30 so wie wir ihn kennen. Die Schreierei gegen Tesselation und co fuer D3D10 hat erstmal ueberhaupt nichts direkt mit NVIDIA zu tun denn im D3D Board hocken auch etliche andere IHVs wie Intel die bis jetzt konstant bruellten dass X oder Y zu viel waere es in Silizium sinnvoll umzusetzen. Intel hatte nichtmal VS (weder eine ff T&L Einheit) in ihren DX9.0 Designs von programmierbarer Tesselation sollte noch gar nicht die Rede sein in D3D10. Und nein es muss nicht Intel alleine sein denn es gab damals auch etliche andere IHVs die eine Stimme im Board hatten.

Heutzutage haben nur zwei IHVs Tesselation's Faehigkeiten in ihren Desings: ATI und Imagination Technologies im eingebetteten SGX.

Was den Punkt Erfahrung mit Tesselation betrifft fuer AMD:

1. D3D11 setzt noch einen domain und hull shader fuer Tesselation vor der auf RV7x0 und co nicht vorhanden ist.
2. Wie gross ist denn die Liste genau von Spielen die Tesselation benutzen? Mir ist nur ein einziges Spiel fuer XBox360 bewusst und das war ja auch nichts besonderes.

3. Fokussierung mit GT300 auf general compute shaders i.G. zu RV870's dedicated hardware und der damit verbundene gesteigerte Rechenaufwand bei best. Szenarien wenn bsp. die Tesselator unit verwendet werden kann.

Ich verstehe zwar nicht genau was Du hier meinst, aber falls Du damit meinen solltest dass NV keine ff hw fuer Tesselation haben sollte, stell ich Dir die ganz einfache Frage: wenn NV immer noch ff hw fuer rasterizing hat macht es wieviel genau Sinn Tesselation aus einer programmierbaren GP Einheit aufzurufen? Nur so nebenbei das ganze Drum und Dran von ff hw fuer rasterizing, tri-setup betraegt auf heutigen chips weniger als ca. 5% der die area. Deshalb hat Intel auch IMHLO einen Vogel diesen wegzulassen.

4. Gründe für Nvidias Probleme bei der Entwicklung der GT200(b) Ableger, von denen bisher kein einziger am Markt ist.

Dabei sollte man Charlie eher fragen bei welcher FAB diese genau hergestellt werden.

Selbst wenn man nicht alles glaubt, was man liest, so bin ich persönlich eher skeptisch vor allem vor dem Hintergrund des riesigen Hype, der um GT300 gemacht wird. Kann es nicht sein, dass da auch nur viel geglaubt und dann auch geschrieben wird, was auch geglaubt werden will?

Charlie hilft diesem Hype aber eigentlich. Egal ob der Hype negativ oder positiv ist, er belebt das Interesse auf seine eigene Art. Ehrlich gesagt bezweifle ich dass er irgendwelche persoenliche Interessen haben koennte. Er traegt lediglich nur das weiter was er gefuettert wird. Und hier bleibt der Frage wer was genau wem fuettert. Denn beide IHVs haben es besonders gerne etlichen Mist ueber die Konkurrenz nach aussen zu schleussen. Wenn man allen glauben wuerde, wuerde man denken dass sowohl AMD als auch NVIDIA enorme Probleme mit ihren D3D11 GPUs haben.

Ich tippe eher auf beschissene yields bei TSMC; pick your poison and my 2 cents.

Coda
2009-05-17, 15:44:01
Ja, dass Rasterizing das Bottleneck ist, ist tatsächlich nichts neues. Da gab es auch einiges auf den letzten Siggraphs zu hören.

AnarchX
2009-05-17, 15:53:31
Am sinnvollsten wäre es wohl wirklich, wenn die Rasterleistung mit der Anzahl der Cluster skaliert, womit man auch eine bessere Transitorskalierung bei den kleineren Ablegern hätte.
Und das scheint wohl auch so in einigen aktuell veröffentlichten NV-Patenten dargestellt zu sein.

][immy
2009-05-17, 16:24:11
Ich würde doch noch mal kurz auf den Beitrag von Theinquirer zurückkommen.

http://www.theinquirer.net/inquirer/news/1137331/a-look-nvidia-gt300-architecture

Hier im Thread ist man doch sehr oberflächlich und schnell darüber hinweg gegangen nach dem Motto "Ist eh alles Käse was da geschrieben wird".

Es ist ja richtig, ein derart negativ auf einen Hersteller ausgerichteten Artikel sollte man immer mit Vorsicht geniesen, da möglicherweise ein andere Motivation dahintersteht als die reine Diskussion von Fakten.

Es werden aber schon einige Argumente gebracht, so dass ich mir wünschen würde, dass die Experten hier für uns Laien genauer darauf eingehen würden:

1. GT300 = High risk part (Neuer Herstellprozess, Neue Architektur, gesteigerte Chipgröße, DX11)

2. Die Story mit der Implementierung der ursprünglichen DX10 Features seitens Nvidia (von denen jetzt viele in DX11 wiederkommen), und der daraus folgenden geringen Erfahrung in der Umsetzung. Im Gegensatz dazu ATI, die offensichtlich mehr Erfahrung haben, da bereits seit längerem einige Features (bsp. Tesselator unit) umgesetzt werden.

3. Fokussierung mit GT300 auf general compute shaders i.G. zu RV870's dedicated hardware und der damit verbundene gesteigerte Rechenaufwand bei best. Szenarien wenn bsp. die Tesselator unit verwendet werden kann.

4. Gründe für Nvidias Probleme bei der Entwicklung der GT200(b) Ableger, von denen bisher kein einziger am Markt ist.

Selbst wenn man nicht alles glaubt, was man liest, so bin ich persönlich eher skeptisch vor allem vor dem Hintergrund des riesigen Hype, der um GT300 gemacht wird. Kann es nicht sein, dass da auch nur viel geglaubt und dann auch geschrieben wird, was auch geglaubt werden will?

Es stimmt schon, nvidia hat sich viel vorgenommen mit einer Chip-Generation. ATi ist schonmal daran gescheitert (neues DX, neue architektur, neue fertigung). Ich glaube auch nicht wirklich daran das nvidia es noch schafft, dieses Jahr den Chip "wirklich" auf den Markt zu bringen, sondern höchstens ein paar Exemplare.

Allerdings glaube ich auch nicht, das Microsoft wirklich am Windows 7 Launch in diesem Jahr fest hällt. ich denke eher das Windows 7 vielleicht im Oktober an MS-Partner gegeben wird und die wirkliche Veröffentlichung erst im ersten Quartal 2010 erfolgen wird. Von daher hätte nVidia noch ein wenig Zeit.

dargo
2009-05-17, 16:27:14
Und was genau hast Du erwartet? Dass ein chip mit ueber 70% hoeherer Chipkomplexitaet und leicht hoeheren Frequenzen (zum Speicher sag ich lieber noch nichts....) in etwa die Haelfte verbraucht als eine 285?

In welcher Realitaet wohnt Ihr Kerle ueberhaupt? Ja ich weiss dass sich manche 3x Mal GT200 Leistung mit IGP Stromverbrauch wuenschen, aber mit Realitaet hat das gar nichts zu tun.

Jetzt atme mal tief durch und lese dir meinen letzten Beitrag nochmal. Erwartet habe ich 2,5-3x GTX280 und dementprechend auch irgendwas in Richtung 220-240W real, bei dem schnellsten GT300 selbstverständlich. Erwartet hatte ich außerdem am Anfang um die 3 Milliarden Transistoren. Nun, wenn die neue Generation jetzt mindestens 2x GTX280 liefert bin ich auch noch zufrieden, bei +60-70% aber eher enttäuscht. Zu deinem letzten Satz - lass mal den Kasperle stecken, vom IGP Stromverbrauch hat hier niemand gesprochen.

Ailuros
2009-05-17, 16:41:43
Jetzt atme mal tief durch und lese dir meinen letzten Beitrag nochmal.

Klingt immer noch als Unsinn.

Erwartet habe ich 2,5-3x GTX280 und dementprechend auch irgendwas in Richtung 220-240W real, bei dem schnellsten GT300 selbstverständlich.

Eine bis zu (und ja diese "bis zu" Kleinigkeit ist verdammt wichtig) >2.5x Leistungssteigerung gegenueber GT200 waere ideal fuer NV weil sie hiermit auch beweisen wuerden dass single chip high end die bessere Loesung ist.

Hab ich irgendwo behauptet um wieviel G300 schneller sein koennte? Nein. Ich hab lediglich das obrige etliche Male wiederholt, was aber keinesfalls eine Andeutung auf die echte Leistung des Resultats war weil es eben selbst heute noch keiner wissen kann.

Momentan kann nichtdestominder jemand selbst ein bis zu 3.0x Mal die Leistung ausschliessen. Ebenso auch nicht eine um einiges bescheidenere Steigerung. Von rein technischer Perspektive aber bleibt es imposant wenn ein chip mit ~1Mrd mehr Transistoren und leicht hoeheren Frequenzen um bis zu 15% weniger verbraucht als das heutige Exemplar, ob Du das jetzt verdauen kannst oder nicht..

Und nein ueber 200W Stromverbrauch wenn Du in der Vergangenheit nachschlaegst hab ich persoenlich nie geredet. Die Aenderungen was die Frequenz-Verwaltung betrifft deuteten von Anfang an auf sehr konservativen Stromverbrauch im Vergleich zur Chip-Komplezitaet.

LovesuckZ
2009-05-17, 16:45:18
Beim GT200 war nicht die größe das Problem, sondern die fehlende Leistungssteigerung zum G92. 85% mehr Transistoren, 76% größer und dann ein Leistungsgewinn von <60% im Durchschnitt ist katastrophal.
Das bedeutet im Umkehrschluss, dass eine Strategie mit einem kleineren Chip und der GT200 Vorgehensweise nicht schneller gewesen wäre. Wirtschaftlich gesehen, konnte man nicht anders.

=Floi=
2009-05-17, 16:51:46
du kannst den GT200b nicht als referenz nehmen. Da wurde eben viel für gpgpu gemacht und das hat sich auch an den taktfrequenzen niedergeschlagen. Mitlerweile sind auch die treiber besser geworden und mit dem 55nm prozess kann man zB eine 285er ebenfalls ähnlich schnell takten. Die GTX2XX baureihe hat mitlerweile schon aufgeholt und auch ihre berechtigung.

bei ati ist es doch ähnlich, da hier ebenfalls die unteren karten die langsameren highend karten kanibalisieren...

Ailuros
2009-05-17, 16:54:57
Beim GT200 war nicht die größe das Problem, sondern die fehlende Leistungssteigerung zum G92. 85% mehr Transistoren, 76% größer und dann ein Leistungsgewinn von <60% im Durchschnitt ist katastrophal.
Das bedeutet im Umkehrschluss, dass eine Strategie mit einem kleineren Chip und der GT200 Vorgehensweise nicht schneller gewesen wäre. Wirtschaftlich gesehen, konnte man nicht anders.

Um das geht es doch ueberhaupt nicht. Es ging hier um Stromverbrauch im Vergleich zur Chip-komplexitaet und es gilt hier ebenso auch fuer GT200 vs. G92 oder GT200 vs. G80. Ich hab im zweiten Fall ueber 2x Mal so viel Transistoren, jedoch steigerte sich der Stromverbrauch keinesfalls um 2x Mal pro GPU. Im Gegensatz liegt die GTX285 nur einen kleinen Strich ueber dem Stromverbrauch einer 8800GTX.

LovesuckZ
2009-05-17, 16:55:20
du kannst den GT200b nicht als referenz nehmen. Da wurde eben viel für gpgpu gemacht und das hat sich auch an den taktfrequenzen niedergeschlagen. Mitlerweile sind auch die treiber besser geworden und mit dem 55nm prozess kann man zB eine 285er ebenfalls ähnlich schnell takten. Die GTX2XX baureihe hat mitlerweile schon aufgeholt und auch ihre berechtigung.

Du musst auch den GT200b mit dem G92b vergleichen. Und dort hat sich nicht viel verändert - immerhin taktet die 9800gtx+ auch höher. Der Abstand zwischen GTS250 und GTX285 bleibt also gleich.
nVidia's Problem ist, dass sie zu 55% am Dekstopmarkt vom Umsatz hängen. gleichzeitig wollten sie wohl verstärkt neue Märkte erobern. Imo ist das ziemlich in die Hose gegangen, da der Wegbruch des Umsatzes im Dekstopmarkt nicht von dem bisschen im Workstationbereich aufgefangen werden konnte.
Eine 2 Chip Strategie ist vielleicht nicht die schlechteste Entscheidung, solange wie der Desktopmarkt noch so gewichtig für nVidia ist.

Um das geht es doch ueberhaupt nicht. Es ging hier um Stromverbrauch im Vergleich zur Chip-komplexitaet und es gilt hier ebenso auch fuer GT200 vs. G92 oder GT200 vs. G80. Ich hab im zweiten Fall ueber 2x Mal so viel Transistoren, jedoch steigerte sich der Stromverbrauch keinesfalls um 2x Mal pro GPU. Im Gegensatz liegt die GTX285 nur einen kleinen Strich ueber dem Stromverbrauch einer 8800GTX.

Das liegt aber an der Verfügbarkeit eines kleineren Fertigungsprozesses. Viel interessanter ist hier der Vergleich einer 8800GTX gegenüber dem G71 (7900GTX) bzw. dem r570 (1900XTX). Hier erkennt man, wie stark sich eine deutlich veränderte Herangehensweise auf den Stromverbrauch auswirken kann.

Ailuros
2009-05-17, 17:01:03
Eine 2 Chip Strategie ist vielleicht nicht die schlechteste Entscheidung, solange wie der Desktopmarkt noch so gewichtig für nVidia ist.

Mir steht die These persoenlich auch absolut zu, obwohl die 2-schienige Entwicklung NV am Ende auch ziemlich mehr kosten wird, was die ganze These auch etwas als unwirtschaftlich erscheinen laesst.

Halt mich nicht fuer verrueckt aber es kann durchaus sein dass es auch so fuer diese Generation geplant war. Ich kann die These zwar nicht bestaetigen aber es gibt Leute die behaupten dass GT200 der eigentliche HPC chip war und NV den schwaecheren G200 oder G100 einfach stornierte als sie von den 800SPs von AMD Wind bekamen.

Hugo
2009-05-17, 17:06:23
Mir steht die These persoenlich auch absolut zu, obwohl die 2-schienige Entwicklung NV am Ende auch ziemlich mehr kosten wird, was die ganze These auch etwas als unwirtschaftlich erscheinen laesst.

Halt mich nicht fuer verrueckt aber es kann durchaus sein dass es auch so fuer diese Generation geplant war. Ich kann die These zwar nicht bestaetigen aber es gibt Leute die behaupten dass GT200 der eigentliche HPC chip war und NV den schwaecheren G200 oder G100 einfach stornierte als sie von den 800SPs von AMD Wind bekamen.


NV hätte ja den orginalen G100 oder G200, egal wie wir ihn nun nennen mögen, als Performancechip bringen können. Die Entwicklung hätte ja eigentlich weit fortgeschritten sein müssen. Oder etwa nicht?
Wie er aussehen sollte weiß man nicht oder?

dargo
2009-05-17, 17:09:45
Klingt immer noch als Unsinn.

Klingt eher, dass du nicht verstehst was ich damit ausdrücken wollte.


Eine bis zu (und ja diese "bis zu" Kleinigkeit ist verdammt wichtig) >2.5x Leistungssteigerung gegenueber GT200 waere ideal fuer NV weil sie hiermit auch beweisen wuerden dass single chip high end die bessere Loesung ist.

Hab ich irgendwo behauptet um wieviel G300 schneller sein koennte? Nein. Ich hab lediglich das obrige etliche Male wiederholt, was aber keinesfalls eine Andeutung auf die echte Leistung des Resultats war weil es eben selbst heute noch keiner wissen kann.

Momentan kann nichtdestominder jemand selbst ein bis zu 3.0x Mal die Leistung ausschliessen. Ebenso auch nicht eine um einiges bescheidenere Steigerung. Von rein technischer Perspektive aber bleibt es imposant wenn ein chip mit ~1Mrd mehr Transistoren und leicht hoeheren Frequenzen um bis zu 15% weniger verbraucht als das heutige Exemplar, ob Du das jetzt verdauen kannst oder nicht..

Und nein ueber 200W Stromverbrauch wenn Du in der Vergangenheit nachschlaegst hab ich persoenlich nie geredet. Die Aenderungen was die Frequenz-Verwaltung betrifft deuteten von Anfang an auf sehr konservativen Stromverbrauch im Vergleich zur Chip-Komplezitaet.
Warum gehst du immer davon aus, dass meine Erwartungen auf deinen Äußerungen basieren? Wie gesagt ging ich vorher von 3 Milliarden Transistoren aus. Das wäre etwas mehr als Faktor 2 beim GT200. Mit einigen Effizienzsteigerungen wäre also bis Faktor 3 (überwiegend in shaderlastigen Games) wohl machbar gewesen. Wenn jetzt aber die 2,4 Milliarden Transistoren bestätigt sind ist es wohl klar, dass man sich vom "bis Faktor 3" verabschieden kann.

Ailuros
2009-05-17, 17:12:38
NV hätte ja den orginalen G100 oder G200, egal wie wir ihn nun nennen mögen, als Performancechip bringen können. Die Entwicklung hätte ja eigentlich weit fortgeschritten sein müssen. Oder etwa nicht?
Wie er aussehen sollte weiß man nicht oder?

Wenn so ein chip ueberhaupt existierte, haben sie ihn wohl schon vor dem tapeout storniert ebenso wie GT212.

Ailuros
2009-05-17, 17:27:15
Warum gehst du immer davon aus, dass meine Erwartungen auf deinen Äußerungen basieren?

Gut dann bleib gefaelligst dabei dass traditionell jeglicher IHV mit jeder neuen Generation auf bis zu 2x Mal die Leistung des Vorgaengers zielt. Je mehr dabei rauskommt desto besser fuer uns alle; in jeglichem anderen Fall reicht das Resultat dann eher in die NV30/R600 Region und wird gerechtfertigt als FLOP bezeichnet.

Wie gesagt ging ich vorher von 3 Milliarden Transistoren aus.

Wobei theoretisch 3 Mrd. Transistoren genau was garantieren? Sie haetten von mir aus so verrueckt sein koennen und haben die Mehrzahl der zusaetzlichen Transistoren in GPGPU Features investiert. Seit wann definiert die Anzahl der Transistoren von sich aus ohne jeglichen zusaetzliche Einzelheiten die Leistung von einem chip?

Das wäre etwas mehr als Faktor 2 beim GT200. Mit einigen Effizienzsteigerungen wäre also bis Faktor 3 (überwiegend in shaderlastigen Games) wohl machbar gewesen. Wenn jetzt aber die 2,4 Milliarden Transistoren bestätigt sind ist es wohl klar, dass man sich vom "bis Faktor 3" verabschieden kann.

Schoen. Und um auf das obrige zurueckzukommen aber diesmal anders rum: woher willst Du genau wissen wozu jeglicher Transistor ueberhaupt steht?

Nochmal die heutigen GPUs schwaecheln ziemlich schoen im rasterizing Bereich; die insgesamte ff hw dafuer betraegt weniger als 5% der insgesamten die area eines chips.

robbitop
2009-05-17, 17:34:12
Am sinnvollsten wäre es wohl wirklich, wenn die Rasterleistung mit der Anzahl der Cluster skaliert, womit man auch eine bessere Transitorskalierung bei den kleineren Ablegern hätte.
Und das scheint wohl auch so in einigen aktuell veröffentlichten NV-Patenten dargestellt zu sein.
Das wäre aber ohne TBDR nicht so einfach möglich. SGX543MP hat genau das gelöst. (und nebenher quasi perfekte Skalierung für einen 1x entwickelten Kern)

dargo
2009-05-17, 17:36:09
Wobei theoretisch 3 Mrd. Transistoren genau was garantieren?
Von garantieren habe ich nichts gesagt. Mit 3 Milliarden Transistoren ist die Wahrscheinlichkeit mehr Leistung zu bieten wohl höher als mit 2,4. Findest du nicht?

Coda
2009-05-17, 17:51:14
Das wäre aber ohne TBDR nicht so einfach möglich. SGX543MP hat genau das gelöst. (und nebenher quasi perfekte Skalierung für einen 1x entwickelten Kern)
Ich habe mir das letztens nochmal angeschaut. Das kannst du bitte nicht mit normalen Multi-GPU-Lösungen vergleichen, weil alles auf ein Die kommt und der Speichercontroller shared ist.

Im Endeffekt spart man sich dadurch vor allem Entwicklungskosten, weil man einfach ganze Kerne kopiert.

Ailuros
2009-05-17, 17:56:08
Von garantieren habe ich nichts gesagt. Mit 3 Milliarden Transistoren ist die Wahrscheinlichkeit mehr Leistung zu bieten wohl höher als mit 2,4. Findest du nicht?

Nein. GT200 hat DP Einheiten; was ist jetzt wenn meine These stimmt und NV veroeffentlicht eine desktop GPU in Q3 dieses Jahres und eine groessere HPC Profi-GPU irgendwo Anfang 2010 mit um einiges mehr Transistoren?

Garantiert Dir jemand dass die zweite GPU schneller sein wuerde als die desktop Variante obwohl X Millionen mehr Transistoren?

dargo
2009-05-17, 17:59:07
Nein. GT200 hat DP Einheiten; was ist jetzt wenn meine These stimmt und NV veroeffentlicht eine desktop GPU in Q3 dieses Jahres und eine groessere HPC Profi-GPU irgendwo Anfang 2010 mit um einiges mehr Transistoren?

Garantiert Dir jemand dass die zweite GPU schneller sein wuerde als die desktop Variante obwohl X Millionen mehr Transistoren?
Ich beschränke mich hier wie die meisten auf Desktop-(Gamer)GPUs. Dieser Vergleich ist also eher unpassend.

Ailuros
2009-05-17, 18:00:06
Ich habe mir das letztens nochmal angeschaut. Das kannst du bitte nicht mit normalen Multi-GPU-Lösungen vergleichen, weil alles auf ein Die kommt und der Speichercontroller shared ist.

Stimmt auch so. SGX - selbst SGX543MP - ist und bleibt SoC Material. Die Skalierung der chips bis auf 16 beantragt zwar nicht mehr Bandbreite, aber das ewige Problem eines SoCs dass CPU(s) und GPU(s) sich um die gleiche Bandbreite die Haare ausreissen bleibt (aber verdammt OT...).

Ailuros
2009-05-17, 18:01:53
Ich beschränke mich hier wie die meisten auf Desktop-(Gamer)GPUs. Dieser Vergleich ist also eher unpassend.

Es bleibt dabei dass eine sterile Anzahl von Transistoren nicht jegliche Leistung eines chips definieren kann wenn man nicht weiss wofuer jeglicher Transistor steht. Klar genug?

OgrEGT
2009-05-17, 19:19:47
Neues auf computerbase:

http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2009/mai/nvidia_gt300_designphase/

Zitat:
Neuesten Gerüchten zufolge hat Nvidias nächster High-End-Chip GT300 sein Tape-Out bereits im ersten Quartal hinter sich gebracht. Beim Tape-Out handelt es sich um den letzten Schritt im Entwicklungszyklus, dessen Ergebnis ein fertiges Design für die Serienproduktion ist.

Ob der Chip in dieser Version (A1) in den Handel gelangen wird, hängt von den Tests des aktuellen Designs ab. Sollten bei der Überprüfung keine Fehler gefunden werden, die ein Re-Design (A2) erfordern, könnte Nvidia in den nächsten Monaten mit der Produktion des Chips beginnen. Der GT300 wird voraussichtlich im 4. Quartal auf den Markt kommen und von TSMC im 40-nm-Verfahren hergestellt. Ob der Auftragsfertiger die Probleme mit dem aktuellen Herstellungsverfahren ausräumen konnte, ist bisher nicht bekannt.

Ailuros
2009-05-17, 19:29:17
Wurde ja schon von anderen Seiten erwaehnt. Es gibt schon ziemlich genaue Details ueber den chip die jeglichen Zweifel verringern.

Es gibt noch ein paar mehr Einzelheiten die schon bekannt sind aber die jeweiligen Herren von diversen Seiten haben auch quasi eine Pflicht diese als erste zu veroeffentlichen.

LovesuckZ
2009-05-17, 19:31:21
Neues auf computerbase:

http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2009/mai/nvidia_gt300_designphase/

Zitat:
Neuesten Gerüchten zufolge hat Nvidias nächster High-End-Chip GT300 sein Tape-Out bereits im ersten Quartal hinter sich gebracht. Beim Tape-Out handelt es sich um den letzten Schritt im Entwicklungszyklus, dessen Ergebnis ein fertiges Design für die Serienproduktion ist.

Ob der Chip in dieser Version (A1) in den Handel gelangen wird, hängt von den Tests des aktuellen Designs ab. Sollten bei der Überprüfung keine Fehler gefunden werden, die ein Re-Design (A2) erfordern, könnte Nvidia in den nächsten Monaten mit der Produktion des Chips beginnen. Der GT300 wird voraussichtlich im 4. Quartal auf den Markt kommen und von TSMC im 40-nm-Verfahren hergestellt. Ob der Auftragsfertiger die Probleme mit dem aktuellen Herstellungsverfahren ausräumen konnte, ist bisher nicht bekannt.

Sie sind die ersten, die vom 1.Q reden. Sollte dies stimmen, dann wäre man ja noch früher im Zeitplan als bis jetzt angenommen wurde.

Ailuros
2009-05-17, 19:50:47
Sie sind die ersten, die vom 1.Q reden. Sollte dies stimmen, dann wäre man ja noch früher im Zeitplan als bis jetzt angenommen wurde.

http://www.brightsideofnews.com/news/2009/5/16/nvidia-g(t)300-already-taped-out2c-a1-silicon-in-santa-clara.aspx

Spasstiger
2009-05-17, 22:59:40
Kann man eigentlich davon ausgehen, dass man auf den GT300 aufgrund seiner flexibleren Shadereinheiten besser optimieren kann als auf den GT200? Die Anzahl der Shadereinheiten erhöht sich ja deutlich, was eine Optimierung wieder erschwert. Mit Optimierung meine ich übrigens eine Annäherung der Einheitenauslastung an das theoretische Maximum bei gegebener Last.
Müssen das Treiber- und das TWIMTBP-Team beim GT300 eher mehr oder eher weniger schuften als beim GT200?

Aquaschaf
2009-05-17, 23:17:52
Wenn die Einheiten flexibler sind doch wohl eher weniger..

Nakai
2009-05-17, 23:23:42
Wenn man ein paar FFUs eingebaut hat, ähnlich den SFUs beim G80 sollte die Effizienz nicht so sinken. Wir alle wissen, dass zusätzliche Recheneinheiten eigentlich nicht so teuer sind. Mit 2,4 Milliarden Transistoren sind 512 Einheiten relativ wahrscheinlich. Ich trau dem Braten aber eher noch nicht.


mfg Nakai

V2.0
2009-05-18, 07:02:39
Einzelne Teile des Chips sagen wenig über die endgültige Effinzienz des gesamten Chips. Es gibt Hinweise, aber man muss eben auch FUD und Marketingblabla rausfiltern.

h'lore
2009-05-18, 11:11:35
Mich würde mal interessieren, ob NV entsprechende Mainstream-SKUs zeitnah nach dem High-End bringen will oder man wie bei G7x (Mainstream erst lange Zeit nach 7800GTX bzw. erst mit dem Refresh) viel Raum dazwischen lässt. Ich würde ja mal auf letzteres tippen. Wobei bei den G7x-Teilen auch kaum Bedarf bestand, da man die alten NV4x-Karten mit praktisch gleichem Techlevel problemlos in den unteren und mittleren Marktsegmenten abverkaufen konnte.

High-End-G(T)300 in Q3 wäre aber schon was feines.