PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GT200 - Neues Highend von NV im Q3 2008?


Seiten : 1 2 3 4 [5]

Die gelbe Eule
2008-04-11, 13:42:00
Bei nur ca. 33% mehr Transistoren als bei G92 muss man fraoh sein wenn man das inkl. 512-bit SI überhaupt unterbringt.

Kommt doch eher darauf an was man erhöht unterbringen möchte. Dreht man deutlich an der Taktschraube, kommt so einiges dabei rum.

deekey777
2008-04-11, 13:48:04
Nvidia bestätigt: "GT-200" mit 1 Milliarde Transistoren (http://www.golem.de/0804/58955.html)
Was mich stört:
Jeff Brown erklärte freimütig und ohne danach gefragt worden zu sein, dass die nächste Architektur tatsächlich "GT-200" heißt.

Moralelastix
2008-04-11, 13:53:45
Was willste denn da reindeuten? Das der Chip nicht der Brüller wird?

(Irgendwie kommen mir die 1 Milliarde Transistoren auch zu knapp vor)

dildo4u
2008-04-11, 13:54:15
AMD/ATI spielt für Nvidia whol keine große Rolle mher man hat sich auf Intel eingeschossen.(Vermutlich Angst das Intel mit Larrabee und Co den Teil der Industrie einstampft wo NV grad Marktfüher ist.)

NVIDIA CEO: "We're Going to Open a Can of Whoop Ass"

"NVIDIA CEO Jen-Hsun Huang lets everyone know his company is spending nearly a billion dollars each year ready to take on Intel's graphics offerings"

..Intel slide decks presented to media argue that spending money on CPUs and more CPU cores makes more sense than spending money on GPUs. Intel presentations go on to detail that its integrated graphics will still satisfy consumers for years, adding that its upcoming Nehalem architecture will come in variants that integrate GMA 4500 (G45) graphics directly onto the CPU package.

NVIDIA's slide shows almost completely ignore Intel's Larrabee, and focus on IGP claims. One of Intel's slide decks states GMA 3100 (G33) is more than enough to watch high definition videos. NVIDIA counters by citing my previous publication, AnandTech. "While the video capabilities of the [GMA 3100] will suffice for running Vista Aero, just about any office application, and a wide variety of non-3D based games, it is not up to the task of running the latest games, decoding 1080P HD content, or even providing decent video capabilities for a media station," AnandTech's Gary Key writes.

Huang argues that not only are Intel's integrated offerings "a joke," but that even if Intel manages increase graphics performance by ten times by 2010, that's barely up to par with current NVIDIA offerings. He claims what passes for average graphics outside of the tech enthusiast crowd should be consider abysmal in the visual computing world.

Throughout the bulk of the conference call, Huang continued to lament Intel for poor graphics performance. He hints at another Intel slide deck that claims Intel GMA 3100 is Windows Vista Premium compatible -- a claim which was debunked by Microsoft employees in a recent lawsuit...

http://www.dailytech.com/NVIDIA+CEO+Were+Going+to+Open+a+Can+of+Whoop+Ass/article11448.htm

g0ldmund
2008-04-11, 13:55:16
ein 384bit Speicherinterface würde doch den neuen Chip nicht limitieren. Wozu sollte man da zum jetzigen Zeitpunkt ein 512bit entwickeln/einführen. Schon alleine die Kosten!?

deekey777
2008-04-11, 13:56:17
Was willste denn da reindeuten? Das der Chip nicht der Brüller wird?
Nein, ich will nur andeuten, dass laut Golem niemand ihn nach dem GT-200 gefragt hat. Das stinkt irgendwie nach etwas "Täuschen und Tarnen".

AnarchX
2008-04-11, 13:57:45
@ g0ldmund
Weil man eben deutlich mehr als 100GB/s benötigt, GDDR4 keine Alternative für NV ist und die Verfügbarkeit von GDDR5 unsicher ist.

Nein, ich will nur andeuten, dass laut Golem niemand ihn nach dem GT-200 gefragt hat. Das stinkt irgendwie nach etwas "Täuschen und Tarnen".
Aber ob man Fachpublikum täuschen will?

deekey777
2008-04-11, 14:24:27
Aber ob man Fachpublikum täuschen will?
Das richtet sich nicht nur an das anwesende Fachpublikum. Überhaupt sind für sie solche Daten wie 1.000.000.000 Logiktransistoren eher langweilig, für das normale Publikum ist das "Boah, ist das geil!".
Ich hoffe nicht, dass das so gedacht war, Aufmerksamkeit auf den GT-200 zu ziehen, weil er nicht der erwartete Kracher ist. Eher klingt die Äußerung für mich nach wie "Wir werden auf US-Architektur umsteigen, wenn die Zeit reif ist".
Eine Milliarde Transistoren ist im Vergleich zu den 754 Mio Transistoren des G92 alles andere als aussagekräftig, wenn man nicht weiß, ob die Architektur Änderungen erfuhr. Wenn es bloß eine Erweiterung von Clustern ist, kann der GT-200 nur schlecht werden.

Ich glaub, ich widerspreche mir selbst gerade.

Gast
2008-04-11, 14:42:54
AMD/ATI spielt für Nvidia whol keine große Rolle mher man hat sich auf Intel eingeschossen.(Vermutlich Angst das Intel mit Larrabee und Co den Teil der Industrie einstampft wo NV grad Marktfüher ist.)

NVIDIA CEO: "We're Going to Open a Can of Whoop Ass"



http://www.dailytech.com/NVIDIA+CEO+Were+Going+to+Open+a+Can+of+Whoop+Ass/article11448.htm

Ist ja auch nachvollziehbar. Intel will mit allen Mitteln (und davon hat man bekanntlich genug) "many-core-CPUs" in den Markt drücken und damit direkt gegen die GPUs konkurrieren. AMD ist in der glücklichen Lage sowohl GPUs als auch CPUs anzubieten und so mehr oder weniger abwarten zu können was sich durchsetzt. Für nV steht allerdings verdammt viel auf dem Spiel, denn ohne GPUs ist von nV nicht mehr viel übrig. Über eine Milliarde im Jahr kann man bei Intel allerdings wohl nur müde lächeln.

reunion

Gast
2008-04-11, 14:49:43
Und wieder mal hatte Fudo recht :)
Natürlich - er läßt ja auch kaum eine mögliche Zahlenkombination aus.

Gast
2008-04-11, 14:53:23
Zudem, wenn man von G9x ausgeht (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6310721&postcount=619), läge eine 10 Cluster/512-Bit SKU ja schon bei knapp über 1 Mrd. Transistoren, da bleibt dann auch nicht mehr viel übrig für zusätzliche Einheiten/Optimierungen.
Marketing-Speak, Lesson 4.

Bitte kreuzen Sie das zutreffende an
[ ] G80 verfügt über 2 Millionen Transistoren
[ ] G80 verfügt über 20 Millionen Transistoren
[ ] G80 verfügt über 200 Millionen Transistoren
[ ] G80 verfügt über 400 Millionen Transistoren
[ ] G80 verfügt über 600 Millionen Transistoren
[ ] G80 verfügt über 681 Millionen Transistoren

Lösung:
[x] G80 verfügt über 2 Millionen Transistoren
[x] G80 verfügt über 20 Millionen Transistoren
[x] G80 verfügt über 200 Millionen Transistoren
[x] G80 verfügt über 400 Millionen Transistoren
[x] G80 verfügt über 600 Millionen Transistoren
[x] G80 verfügt über 681 Millionen Transistoren

Nur so eine Idee. ;)

AnarchX
2008-04-11, 14:59:46
Laut Golem kaum aber diese Aussage über GT-200's Exitenz und Transistorcount aber völlig ungefragt von Brown.;)

dreas
2008-04-11, 15:18:13
Laut Golem kaum aber diese Aussage über GT-200's Exitenz und Transistorcount aber völlig ungefragt von Brown.;)

Daher wirds wohl mehr Politik und Taktik als Realität sein!

GeneralHanno
2008-04-11, 15:45:38
GT200 is tapped out:
http://www.fudzilla.com/index.php?option=com_content&task=view&id=6786&Itemid=1

€dit: es wäre doch auch möglich, dass der GT200 "nur" 8 cluster hat. 24SP je cluster und (überarbeitete) octo-TMU. dazu ein 512bit SI ...

LovesuckZ
2008-04-11, 15:55:20
Wenn aber die herumschwirrenden Die-Sizes stimmen, dann wäre aber die Packdichte bei GT-200 wohl ziemlich schlecht oder liegt es an den Pads für das 512-Bit SI.:|


Es muss daran liegen.
G92 ist auch nur ca. 37% größer als der G94. Dagegen ist letztere ca. 85% größer als der G96 (9500GT - 130mm²). Cluster benötigen kaum Platz, anscheinend geht ein Größteil auf die ROPs und Speicherverbindung drauf.

GeneralHanno
2008-04-11, 16:11:12
und wie sich am G94 vs G92 vergleich zeigt, sind die kostspieligen ROPs auch ihr "geld" wert ;)

Gast
2008-04-11, 16:16:14
Laut Golem kaum aber diese Aussage über GT-200's Exitenz und Transistorcount aber völlig ungefragt von Brown.;)
Ja, das macht's eben umso merkwürdiger.

Gast
2008-04-11, 16:37:50
GT200 is tapped out:
http://www.fudzilla.com/index.php?option=com_content&task=view&id=6786&Itemid=1

€dit: es wäre doch auch möglich, dass der GT200 "nur" 8 cluster hat. 24SP je cluster und (überarbeitete) octo-TMU. dazu ein 512bit SI ...

wie lange dauert es vom tape-out zur verfügbarkeit in läden ?

dildo4u
2008-04-11, 16:45:37
wie lange dauert es vom tape-out zur verfügbarkeit in läden ?
Wenn keine Probleme mher auftreten also im Optimalfall 3-4 Monate.

Gast
2008-04-11, 16:49:22
Wenn keine Probleme mher auftreten also im Optimalfall 3-4 Monate.

wäre das dann nicht Q3, da stand doch was von Q2 :confused:

LovesuckZ
2008-04-11, 16:49:54
Wenn es funktioniert, geisterten Mal 6 Wochen zur Produktion herum.

GeneralHanno
2008-04-11, 16:52:06
also im q2 wird man höchstens samples sehen ...

Nakai
2008-04-11, 17:15:48
Wenn keine Probleme mher auftreten also im Optimalfall 3-4 Monate.

NV hält sich immer an die Monatsregel, ergo 3.Quartal...yes!^^:D


mfg Nakai

Hvoralek
2008-04-11, 17:21:29
Wenn es funktioniert, geisterten Mal 6 Wochen zur Produktion herum.Und vom Beginn der Chipproduktion noch einmal 1 1/2 - 2 Monate bis zum (Hard-) Launch.

GeneralHanno
2008-04-11, 17:22:07
das wird alle Gf9800-frustrierten freuhen ;)

Nightspider
2008-04-11, 18:43:40
Dann fang ich mal an mit sparen ;D

reunion
2008-04-11, 18:48:58
Normal nimmt man als Richtwert ca. 6 Monate vom A0 Silizium bis zum Regal. Aber natürlich auch vom Chip abhängig.

mapel110
2008-04-11, 18:51:08
Normal sind es ca. 6 Monate vom A0 Silizium bis zum Regal.
Waren es nicht mal 3 Monate vom ersten (fehlerfreien, kann ja A0 sein) TapeOut bis zur MassProduction?!

reunion
2008-04-11, 18:57:12
Waren es nicht mal 3 Monate vom ersten (fehlerfreien, kann ja A0 sein) TapeOut bis zur MassProduction?!

Das A0 Silizium wird in aller Regel nicht zur Massenproduktion verwendet. Schon gar nicht bei einem so hochkomplexen Chip wie den GT200. Bei nV ist fast immer A2 der Serienchip.

AnarchX
2008-04-11, 19:10:41
Bei nV ist fast immer A2 der Serienchip.
Wobei die letzten 65nm GPUs es alle schon mit A1 schafften.
Wenn nichts mehr großartig schief geht sollte GT200 wohl seinen Termin halten können: Mitte 2008.

reunion
2008-04-11, 19:20:40
Wobei die letzten 65nm GPUs es alle schon mit A1 schafften.
Wenn nichts mehr großartig schief geht sollte GT200 wohl seinen Termin halten können: Mitte 2008.

Ja, das waren auch nur einfache Shrinks. Ich ging natürlich von neuen Generationen aus.

Die gelbe Eule
2008-04-11, 19:31:01
Ich glaub eher das NV wieder Fehlinfos streut, damit man die NDA Brecher ausinfidg machen kann. Läuft ja schon monatelang so.

Ailuros
2008-04-11, 20:02:57
Afaik >1 Mrd & ~20% die size als G80 @65nm.

Normal nimmt man als Richtwert ca. 6 Monate vom A0 Silizium bis zum Regal. Aber natürlich auch vom Chip abhängig.

Und wer von Euch weiss wann es A0 Silizium gab?

LovesuckZ
2008-04-11, 20:04:32
Afaik >1 Mrd & ~20% die size als G80 @65nm.

Ha, war wohl nichts mit dem ÜberDie. ;D
<400mm² und dafür fast doppelte 8800GTX Leistung?

Ailuros
2008-04-11, 20:06:45
Ha, war wohl nichts mit dem ÜberDie. ;D
<400mm² und dafür fast doppelte 8800GTX Leistung?


Errrr ich hab mich falsch ausgedrueckt. 484*20% = X und das auf 65nm.

LovesuckZ
2008-04-11, 20:11:31
Hm, und das bei nur 1 Milliarden Transistoren?
Klingt irgendwie unglaubwürdig.

crux2005
2008-04-11, 20:13:32
also ~ 430mm^2 hmm zu klein :biggrin:

reunion
2008-04-11, 20:17:40
Und wer von Euch weiss wann es A0 Silizium gab?

Ich jedenfalls nicht.

Errrr ich hab mich falsch ausgedrueckt. 484*20% = X und das auf 65nm.

580mm² ist schon beachtlich in 65nm. Das wären auf jeden Fall deutlich mehr als 1Mrd Transistoren.

Hvoralek
2008-04-11, 20:24:47
580mm² ist schon beachtlich in 65nm. Das wären auf jeden Fall deutlich mehr als 1Mrd Transistoren.Bei ähnlicher Packdichte wie G80 und einem idealen Shrink rechnerisch 1,56 Mrd, hochgerechnet von G92 gut 1,3 Mrd. Ich würde irgendetwas um 1,4 Mrd. erwarten. Selbst damit wird man an einem Doppel- RV770 womöglich mehr zu knabbern haben als bisher erwartet.

AnarchX
2008-04-11, 20:25:07
Hm, und das bei nur 1 Milliarden Transistoren?
Klingt irgendwie unglaubwürdig.
Hatte ich ja auch schon darauf hingewiesen:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6423727&postcount=1000
... wenn die Pads soviel an Die-Size fressen, wäre das 512-Bit ziemlicher Unsinn, und man hätte wirklich auf GDDR5 warten sollen.

Zudem:
G92: 8*A + 4*B + C = 754
G94: 4*A + 4*B + C = 505
G84: 2*A + 2*B + C = 289
=> A=62,25; B=45,75; C=73
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6310721&postcount=619
-> GT-200: 1062 (10 Cluster + 512-Bit SI) + 80 ALUs + D3D10.1(?) + weitere Optimierungen = ?

Wohlmöglich war die Angabe von Brown etwas ungenau bzw. wusste er es nicht genauer, 1.2-1.3Mrd. würden auch im Bezug auf die Die-Size realistischer erscheinen.

Ailuros
2008-04-11, 20:37:18
Etwas Geduld. Es ist nur eine Frage der Zeit bis konkretere Infos erscheinen.

Lovesuck,

Offiziell hat NV bis jetzt ueber 200SPs und rund um 1Mrd. Transistoren angeben. Frage sind es 200 oder zufaelligerweise 20% mehr?

reunion
2008-04-11, 20:37:47
... wenn die Pads soviel an Die-Size fressen, wäre das 512-Bit ziemlicher Unsinn, und man hätte wirklich auf GDDR5 warten sollen.


Natürlich ist das Unsinn. Selbst wenn das Die wegen dem 512-bit SI so groß werden muss (was ich bezweifle, denn ein R600 hatte auch nur 420mm²), nützt man die Fläche gerade dann sicher auch aus und lässt sie nicht einfach blank vergammeln.

LovesuckZ
2008-04-11, 20:41:52
nVidia muss auf jedenfall die Rechenleistung erhöhen. 10 Cluster mit je 24 ALUs wäre eine starke Verbesserung. 12,5% mehr Takt und man hätte eine Verdopplung erreicht.

Natürlich ist das Unsinn. Selbst wenn das Die wegen dem 512-bit SI so groß werden muss (was ich bezweifle, denn ein R600 hatte auch nur 420mm²), nützt man die Fläche gerade dann sicher auch aus und lässt sie nicht einfach blank vergammeln.

nVidia hat wesentlich leistungsfähigere ROPs.
Der Anstieg der Die-Fläche vom G96 mit ca. 130mm² auf G94 mit 240mm² ist verdammt groß.

Ailuros
2008-04-11, 20:52:53
Es steht nirgends ueber was jegliche Einheit faehig ist auch nicht was die ROPs betrifft.

Nightspider
2008-04-11, 21:00:06
Wurde 2007 nicht 2 mal offiziell gesagt, da Nvidias echter G80 Nachfolger 3 Teraflopp leisten soll ?

Gast
2008-04-11, 21:00:31
wenn die ROPs wirklich so groß wären, warum hat dann der G92 so viele transistoren, schließlich hat er nur 2/3 vom G80?

Ailuros
2008-04-11, 21:04:03
wenn die ROPs wirklich so groß wären, warum hat dann der G92 so viele transistoren, schließlich hat er nur 2/3 vom G80?

Weil u.a. die zusaetzlichen 32TAs auch nicht gerade billig sind?

Wurde 2007 nicht 2 mal offiziell gesagt, da Nvidias echter G80 Nachfolger 3 Teraflopp leisten soll ?

Ja in einem System. Wenn man von SLi etwas haelt dann haut es schon hin.

AnarchX
2008-04-11, 21:04:34
Wurde 2007 nicht 2 mal offiziell gesagt, da Nvidias echter G80 Nachfolger 3 Teraflopp leisten soll ?
AFAIK bezog sich das auf Tri-SLI, was dann wiederum dafür sprechen würde, dass GT-200 nicht großartig über 1 TFLOP liegt.

Winter[Raven]
2008-04-11, 21:11:44
Weil u.a. die zusaetzlichen 32TAs auch nicht gerade billig sind?



Ja in einem System. Wenn man von SLi etwas haelt dann haut es schon hin.


nehmen wir die 3 Terra durch 2 beleiben 1.5 Terraflopps.

deekey777
2008-04-11, 21:14:13
;6424939']nehmen wir die 3 Terra durch 2 beleiben 1.5 Terraflopps.
Ist ja alles terra incognito.

Gast
2008-04-11, 21:30:46
Weil u.a. die zusaetzlichen 32TAs auch nicht gerade billig sind?

was soll an denen im verhältnis so teuer sein? so "nebenbei" hat man ja auch nochmal schön 1/3 des speicherinterfaces eingespart und dafür "nur" 32TAs+VP2 implementiert.

LovesuckZ
2008-04-11, 21:38:02
wenn die ROPs wirklich so groß wären, warum hat dann der G92 so viele transistoren, schließlich hat er nur 2/3 vom G80?

Die Die-Fläche ist der Punkt, nicht das Transistorbudget.
So ist der G94 ca. 85% größer als ein G96 (130mm²), hat aber nur 75% mehr Transistoren - sowie eigentlich eine bessere Packdichte!
Ein G92 hat ca. 50% mehr Tranistoren und ist nur ca. 35% größer. Die Speicheranbindung scheint beim G8x Design sehr stark die Fläche in Anspruch nehmen.

Ailuros
2008-04-12, 09:12:53
was soll an denen im verhältnis so teuer sein? so "nebenbei" hat man ja auch nochmal schön 1/3 des speicherinterfaces eingespart und dafür "nur" 32TAs+VP2 implementiert.

Erstens sagte ich u.a. Zweitens wenn Du's schon so schoen vereinfachen willst, eine TA entspricht schon fast 1/2 TMU, 32 mehr davon und es sind nur 8 ROPs weniger. Direkt danach kommt die leicht hoehere ALU Frequenz die auch nicht umsonst ist und zu guter letzt neben VP2 auch noch NVIO.

nVidia muss auf jedenfall die Rechenleistung erhöhen. 10 Cluster mit je 24 ALUs wäre eine starke Verbesserung. 12,5% mehr Takt und man hätte eine Verdopplung erreicht.

Die Faehigkeiten der ALUs sind nach wie vor das grosse Fragezeichen. Wie schon mal erwaehnt es gibt diverse Thesen die sich zwischen 2 und 6 FLOPs/ALU bewegen. Persoenlich sind mir die Thesen die ueber 2 oder 3 FLOPs (MADD+MUL) reden lieber.

GeneralHanno
2008-04-12, 09:46:37
wenn man die ALUs verbreitern würde, könnte man sie (tendenziell) nicht mehr so hoch takten, richitg?

AnarchX
2008-04-12, 09:54:19
War an dieser Folie wohlmöglich doch mehr dran?

http://img174.imageshack.us/img174/1243/20080215968b45f8381414dwe9.jpg (http://imageshack.us)
http://www.crhc.uiuc.edu/IMPACT/ftp/talks/toronto-11-29-2007.pdf

1 GPU = 1050 GFLOPs = 240*3 FLOPs*1.46GHz = GT-200?

Hoffentlich basiert diese Zahl auf eine konservativen Projektion der Taktrate...

AnarchX
2008-04-12, 10:12:11
http://img530.imageshack.us/img530/2010/helpfularchitecturea521ao8.png (http://imageshack.us)
http://www.xtremesystems.org/forums/showpost.php?p=2913169&postcount=41

12 TMUs+24SPs pro Cluster? :|
Wobei es mich doch wundern würde, wenn NV weiterhin bei diesem ALU:Tex-Verhältnis bleibt.

Hauwech
2008-04-12, 12:46:58
War an dieser Folie wohlmöglich doch mehr dran?

http://img174.imageshack.us/img174/1243/20080215968b45f8381414dwe9.jpg (http://imageshack.us)
http://www.crhc.uiuc.edu/IMPACT/ftp/talks/toronto-11-29-2007.pdf

1 GPU = 1050 GFLOPs = 240*3 FLOPs*1.46GHz = GT-200?

Hoffentlich basiert diese Zahl auf eine konservativen Projektion der Taktrate...

Was mich bei den Angaben verwundert, sind die doch recht niedrigen DP Werte.

AnarchX
2008-04-12, 12:54:32
Wenn nur die MADDs DP-fähig sind bzw. mit diesen hier gerechnet wurde, sind die Zahlen gar nichtmal so unrealistisch:
1050 * 2/3 * 1/5* = ~140GFLOPs (Folie: 125)


* RV670: SP: 512GFLOPs, DP: 102GFLOPs (http://www.computerbase.de/news/treiber/grafikkarten/ati/2008/maerz/dp-performance_amd_firestream/)

deekey777
2008-04-12, 12:59:23
Wenn nur die MADDs DP-fähig sind bzw. mit diesen hier gerechnet wurde, sind die Zahlen gar nichtmal so unrealistisch:
1050 * 2/3 * 1/5* = ~140GFLOPs (Folie: 125)


* RV670: SP: 512GFLOPs, DP: 102GFLOPs (http://www.computerbase.de/news/treiber/grafikkarten/ati/2008/maerz/dp-performance_amd_firestream/)
Wie ich schon mehrmals angedeutet habe: Die DP-Performance ist nur reinrechnerisch 1/5 der SP-Performance, aber tatsächlich in worst case 1/4 der SP-Performance, da die "fette" ALU an den DP-Rechnungen nicht teilnimmt. Dieser worst case ist die DP-MADD-Leistung, die ADD-Leistung ist doppelt so hoch. Bei einer Kombination aus SP und DP ist eine Leistung bis zu 350 GFLOP möglich.
NV bietet aktuell keine Hardware, die DP unterstützt.

Spasstiger
2008-04-12, 13:24:33
Ich frage mich, wie man aus 1 Mrd. Transistoren bei relativ ähnlicher Architektur eine doppelt Performance gegenüber 754 Mio. Transistoren hinbekommen will. Das deutet doch eigentlich auf starke Takterhöhungen hin, aber nur eine geringe Verbreiterung der Architektur. Maßnahmen, die die Effizienz pro Takt bei gleicher Architekturbreite steigern, bräuchten auch massenhaft Transistoren.
Gut, beim Blick auf den G80 mit seine 681 Mio. Transistoren relativiert sich das wieder, denn der ist ja auch schon teilweise schneller als zwei G92 mit 1,5 Mrd. Transistoren. ;)
Ist alles eine Frage der Benchmarks. Und Nvidia wählt Benchmarks schon so aus, dass die Vorteile einer neuen Generation in besonders glänzendem Licht erstrahlen.

AnarchX
2008-04-12, 13:31:45
Maßnahmen, die die Effizienz pro Takt bei gleicher Architekturbreite steigern, bräuchten auch massenhaft Transistoren.

Wenn man NV40 auf G70 bzw. G71 betrachtet, war das dort nicht der Fall.

Wenn GT-200 seine Rohleistung in etwa so effizient wie G94 ausnutzen kann, wäre man schon entsprechend weiter.

Und, wie geklärt wird wohl GT-200 doch ein gutes Stück über 1Mrd. Transistoren liegen, bei der wohl ziemlich sicheren Die-Size.

Captain Future
2008-04-12, 13:32:06
Ich glaube nicht an nur eine Mrd. Transistoren.

Die Anzahl der TUs pro Cluster wird gleichbleiben, die MADDs werden um 50% erhöht.

http://extreme.pcgameshardware.de/attachment.php?attachmentid=12146&d=1207814269

deekey777
2008-04-12, 13:37:23
Ich frage mich, wie man aus 1 Mrd. Transistoren bei relativ ähnlicher Architektur eine doppelt Performance gegenüber 754 Mio. Transistoren hinbekommen will. Das deutet doch eigentlich auf starke Takterhöhungen hin, aber nur eine geringe Verbreiterung der Architektur. Maßnahmen, die die Effizienz pro Takt bei gleicher Architekturbreite steigern, bräuchten auch massenhaft Transistoren.
Gut, beim Blick auf den G80 mit seine 681 Mio. Transistoren relativiert sich das wieder, denn der ist ja auch schon teilweise schneller als zwei G92 mit 1,5 Mrd. Transistoren. ;)
Ist alles eine Frage der Benchmarks. Und Nvidia wählt Benchmarks schon so aus, dass die Vorteile einer neuen Generation in besonders glänzendem Licht erstrahlen.
Die 1 Mrd Transistoren sollen nur Logiktransistoren sein.

Hvoralek
2008-04-12, 14:24:30
1 GPU = 1050 GFLOPs = 240*3 FLOPs*1.46GHz = GT-200?

Hoffentlich basiert diese Zahl auf eine konservativen Projektion der Taktrate...Ich fürchte schon, dass man bei einem Chip der Größe mit den Taktraten/ Spannung gegenüber G92 ein bisschen wird runtergehen müssen. 600/1500/1000 mit 80 TMUs, 240 SPs 32 ROPs/ 512- bit- SI + ein paar Umbauten klingt doch ganz ordentlich.

Hauwech
2008-04-12, 18:11:03
Wie ich schon mehrmals angedeutet habe: Die DP-Performance ist nur reinrechnerisch 1/5 der SP-Performance, aber tatsächlich in worst case 1/4 der SP-Performance, da die "fette" ALU an den DP-Rechnungen nicht teilnimmt. Dieser worst case ist die DP-MADD-Leistung, die ADD-Leistung ist doppelt so hoch. Bei einer Kombination aus SP und DP ist eine Leistung bis zu 350 GFLOP möglich.
NV bietet aktuell keine Hardware, die DP unterstützt.

Meinst du jetzt "nativ"? Wenn ich mich nicht ganz doll irre, hiess es doch im Zusammenhang mit CUDA und GPUs >G80 das zum Ende letzten Jahres Unterstützung für DP gegeben sein sollte.

deekey777
2008-04-12, 19:32:45
Meinst du jetzt "nativ"? Wenn ich mich nicht ganz doll irre, hiess es doch im Zusammenhang mit CUDA und GPUs >G80 das zum Ende letzten Jahres Unterstützung für DP gegeben sein sollte.
Es hieß, tut es aber nicht.
Darum finde ich den G92 auch als eine schnell zusammengeschusterte GPU, da man die eigentliche GPU als G80-Nachfolger zurückhielt.

Gast
2008-04-12, 19:39:00
Darum finde ich den G92 auch als eine schnell zusammengeschusterte GPU
Ich nicht.
Man sieht, das es die würdige GF9 Mittelklasse/Performance Karte werden sollte.
Man hält eben nur den G90 zurück.

Ailuros
2008-04-12, 21:26:29
GT200 ist nicht G90, falls Du etwas aehnliches meinen solltest.

Gast
2008-04-12, 21:51:47
GT200 ist nicht G90, falls Du etwas aehnliches meinen solltest.

Gab es jemals einen G90? Warum ist dieser nicht erschienen?

Nakai
2008-04-12, 21:57:58
Gab es jemals einen G90? Warum ist dieser nicht erschienen?

Möglich, dass ATI nicht stark genug war und weil der GT200 schon anstand?

Wieso Geld für eine Highendkarte entwickeln, wenn man keine zu diesem Zeitpunkt gebraucht hat?
Da hat man wohl gleich alle Ressourcen in den GT200 gesteckt.


mfg Nakai

AnarchX
2008-04-12, 22:00:23
Bleibt die Frage offen, was die DP-fähige GPU war, die im CUDA-FAQ für Ende 2007 angekündigt wurde, wenn es G92 nicht war. :uponder:

deekey777
2008-04-12, 22:03:46
Bleibt die Frage offen, was die DP-fähige GPU war, die im CUDA-FAQ für Ende 2007 angekündigt wurde, wenn es G92 nicht war. :uponder:
In der CUDA-Dokumentation gibt es viele Infos, die einen Ausblick auf die künftigen GPUs andeuten.

Ailuros
2008-04-12, 22:26:24
Gab es jemals einen G90? Warum ist dieser nicht erschienen?

G90= G92 und G200=GT200

NV hat erst vor kurzem angegeben dass wenn es die jeweiligen die shrinks bzw. Stromverbrauch erlauben sie weiterhin zu GX2 Loesungen greifen werden. Wir wissen alle dass es sich eher um Lueckenfueller handelt, meistens wenn ein grosses Projekt wie G80 oder GT200 seine Zeit braucht Produktionsreife zu erreichen.

In der CUDA-Dokumentation gibt es viele Infos, die einen Ausblick auf die künftigen GPUs andeuten.

Es handelt sich lediglich meistens um vorzeitige Projektionen. IHVs koennen heutzutage schwer den Nagel auf den Kopf treffen wenn es um zukuenftige "Generationen" geht. Wo ist denn sonst der "echte" R700? Oder hat man sich auch nicht hier falsch eingeschaetzt was 45nm betrifft?

Gast
2008-04-12, 23:17:04
In der CUDA-Dokumentation gibt es viele Infos, die einen Ausblick auf die künftigen GPUs andeuten.
nicht schon wieder die b3d-links.....

deekey777
2008-04-12, 23:19:33
nicht schon wieder die b3d-links.....
Hä? Es steht alles im Programming Guide für CUDA.

=Floi=
2008-04-13, 09:25:34
so schlecht ist der g92 auch nicht und nebenbei ist der billigheim auch für den kunden relativ günstig zu haben. Ich freue mich zwar auch auf den GT200 und einem "perfekten" design, aber dies kostet eben auch entsprechend geld. Beim G92 bekomme ich bis 1600X1200 4XAA die performance einer GTX/ultra +-10% und das ist doch schon viel für solche karten.

GeneralHanno
2008-04-13, 10:01:42
auch wenns sich auf die RV770 bezieht, so gilt es auch für den GT200:
GDDR5 im juni noch nicht verfügbar ...
http://www.nordichardware.com/news,7623.html

Gast
2008-04-13, 10:32:00
Für nv irrelevant beim 512bit SI, es bestätigt die SI Angabe soagar.

GeneralHanno
2008-04-13, 10:39:28
Für nv irrelevant beim 512bit SI, es bestätigt die SI Angabe soagar.

exakt. die news fügt sich nahtlos in das 512bit@GDDR3 konzept ein!

Gast
2008-04-14, 09:20:58
genau die Leutchen werden den Mist wie blöde kaufen und 2 Monate später kommt das Monster,ich hoffe das der Käufer bis dato schlau geworden ist und nicht kauft,das letzte halbe Jahr wurden sie ja genug verarscht.

Gast
2008-04-14, 10:42:11
Wie meinst du das?

Wer wurde verarscht? Ja meine Karte ist seit Januar um 80€/ um 47% billiger geworden, verarscht fühle ich mich nicht.

Im Teil 2 (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=412181) geht es weiter.