PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GT400/GF100 - Q1/2010, DX11, CUDA 3.0


Seiten : 1 2 3 4 [5] 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75

reunion
2009-06-06, 12:09:12
Ganz im Gegenteil, denn wie soll TSMC den Fertigungsprozess denn auf Tauglichkeit überprüfen, da sie ja selbst keine Chips designen?

TSMC hat auch noch andere Kunden, zu TSMC gibt es aber für NV aktuell nicht wirklich eine gleichwertigen Ersatz. Aber natürlich wäre das auch für TSMC nicht toll, keine Frage. Die genauen Verträge wird man ohnehin nicht erfahren.

AffenJack
2009-06-06, 12:26:30
TSMCs andere Kunden brauchen aber größtenteils keinen 40nm Prozess und würden nach den problemen erst recht nicht darauf wechseln. Wenn amd und ati nicht wollen, hat tsmc 40nm fabriken die stillstehen und die verursachen nicht gerade geringe Kosten. TSMC ist fast genauso abhängig von Nv und Ati wie andersrum im Moment.

LovesuckZ
2009-06-06, 12:37:31
65% aller Produkte werden <= 130nm gefertigt. Sollte nVidia komplett abspringen - auf welchen Satz würde dies wohl fallen? Fakt ist, nVidia ist ein riesiger Kunde für TSMC und sollten nVidia ihre Produkte größenteils bei jemanden anderen fertigen lassen, wird TSMC ziemlich Probleme bekommen ihre Anlagen noch voll auslasten zu können.

Gast
2009-06-06, 14:08:49
TSMC hat auch noch andere Kunden,

die weder 40nm nutzen noch entsprechend komplexe Chips designen.
NV und ATI sind quasi die Beta-Tester für neue TSMC-Prozesse. Und die kann man nicht einfach finanziell abzocken.

Ailuros
2009-06-07, 06:41:34
TSMC hat auch noch andere Kunden, zu TSMC gibt es aber für NV aktuell nicht wirklich eine gleichwertigen Ersatz.

Fuer bis 40nm hat keiner der beide IHVs einen gleichwertigen Ersatz.

Aber natürlich wäre das auch für TSMC nicht toll, keine Frage. Die genauen Verträge wird man ohnehin nicht erfahren.

Man verliert (quasi) in der absehbaren Zukunft einen sehr grossen Kunden (sprich AMD); ergo ist es wohl logisch einem noch groesseren Pferd im Stall seine Freiheit zu schenken oder?

Frag mal jemand bei TSMC der ein bisschen Ahnung hat was dort losgeht ob die Entlassungen der letzten Zeit irgend etwas mit den Problemen zu tun haben koennte und wieso die Mehrzahl der Angestellten wieder eingestellt wurden.

X.Perry_Mental
2009-06-08, 12:07:00
Nvidia won't have DX11 cards until H1 '10 (http://www.fudzilla.com/content/view/14104/65/)
Der vermutliche Grund soll dabei folgender sein: "Nvidia is busy re-working a lot of its planned GPUs". Anpassungen an den problematischen 40nm-Prozess oder andere Gründe?

reunion
2009-06-08, 12:15:31
Vorallem das wäre doch ziemlich überraschend:
"From what we were told, TSMC is the source of this leak, as they've been talking to various people in the business and said that Nvidia won't have any DirectX 11 parts this year and not even early next year."

Da machen dann auch die DX10.1-Karten wieder Sinn. Bis zu den kleineren DX11-Karten könnte es dann durchaus noch bis ins H2 dauern und damit hätten die Dinger immerhin ein Jahr Lebenszyklus.

igg
2009-06-08, 12:19:10
We wouldn't even expect it to happen all that soon, as our understanding is that Nvidia is busy re-working a lot of its planned GPUs. From what we were told, TSMC is the source of this leak, as they've been talking to various people in the business and said that Nvidia won't have any DirectX 11 parts this year and not even early next year.
Wenn Fudzilla Recht hat, und TSMC den 40 nm verbockt hat, TSMC nun auch noch die Verspätung von NV verkündet (was den Grünen sicher nicht passt) und Nvidia die Chips überarbeiten muss, wäre ich an NVs Stelle extrem verärgert und würde mehr als nur flirten mit GF.

Edit: Eine neuere Meldung auf Fudzilla
The next in the line of big conceptual changes and rethinking the graphics world as we know it is GT300. We don’t even know if the codename is right, it is at least to some people, but the chip is real and it should be coming either in late 2009 or early 2010. No-one, even at Nvidia, knows exactly when this should happen, but they all have high hopes it will be this rather than next year.
Quelle (http://www.fudzilla.com/content/view/14109/34/)

mboeller
2009-06-08, 12:23:00
Vorallem das wäre doch ziemlich überraschend:


Da machen dann auch die DX10.1-Karten wieder Sinn. Bis zu den kleineren DX11-Karten könnte es dann durchaus noch bis ins H2 dauern und damit hätten die Dinger immerhin ein Jahr Lebenszyklus.

Und wer kauft die dann noch? Für einen Win7 Rechner will zumindest ich eine DX11-Karte und keine DX10.x Karte. Hoffentlich gibt es (IMHO) genügend DAUs die von DX10<->DX11 keine Ahnung haben.

Gast
2009-06-08, 12:47:09
um auch mal zu spekulieren. nv hatte ja mit der grösse des DIE in letzter zeit einen nicht unerheblichen nachteil. ich vermute, dass ein shrink dieses DIEs nicht so einfach ist wie ursprünglich erhofft und der 40nm prozess doch etwas andere anforderungen stellt. um ressourcen zu bündeln hat man auf eine implementierung von dx10.1 verzichtet und fieberhaft an einem redesing gearbeitet. dass jetzt plötzlich doch dx10.1 in den chip soll zeigt, dass da etwas anderes im argen liegt. denn die paar samples die amd auf der computex gezeigt hat, hätte man, wenn man einen fertig "designten" chip gehabt hätte auch zeigen können.

Coda
2009-06-08, 13:41:36
Jeglicher Chip G3xx wird ganz sicher nicht 10.1 sein.

Es gibt schon A1-Silizium von G300 und was ich bisher gehört hatte war optimistisch. Ich würde mich wirklich extrem wundern, wenn man den Chip wirklich auf 2H (!) 2010 verlegen müsste. Vorher würde man eher einen auf R600 machen und lieber ein schlechtes als gar kein Produkt anzubieten das D3D11 kann.

Imho sind das einfach Wunschträume irgend eines Fanboys. Meine Vorhersage ist, dass G300 und RV870 ungefähr im gleichen Zeitrahmen erscheinen - nämlich wenn TSMC die Yields im Griff hat. AMD hat evtl. ein wenig einen Zeitvorteil durch den kleineren Chip, aber ganz sicher nicht fast ein Jahr. Das ist doch total utopisch.

reunion
2009-06-08, 13:46:48
Hm? DX10.1 werden wohl die GT21X-Chips und natürlich nicht G3xx, das es A1-Silizium gibt ist richtig und FUAD schreibt H1/2010 nicht H2.

Coda
2009-06-08, 13:47:34
Der Gast ging aber offensichtlich von G300 aus. 2010 halte ich trotzdem für unrealistisch, egal welcher Zeitrahmen. Vor allem gibt's sicher kein "Redesign". Das Ding ist fertig.

reunion
2009-06-08, 13:51:01
Solche Aussagen häufen sich jedenfalls mittlerweile. Nicht mehr nur Charly, auch CJ und jetzt Fuad behaupten 2010. Aber mal sehen. Das man jetzt anscheinend doch noch DX10.1-Chips bringt ist jedenfalls seltsam und ein A1 Silizium bedeutet erstmal nicht viel. Auch wenn andere Stimmen von produktionsreife sprechen. Wie immer heißt es abwarten.

igg
2009-06-08, 13:52:42
Vermutlich nicht ganz uninteressant:
The source went onto tell us that TSMC expects to start shipping GPUs based on its ‘remixed’ 40nm process later this quarter, which suggests that the 4770’s current availability woes are unlikely to disappear in a matter of weeks – the pressures may not disappear until September at a worst case based on the information we’ve received.

It also puts our minds at rest regarding both AMD’s and Nvidia’s next-generation GPU launch schedules, as the two rivals are both planning to release their new products in late October to coincide with the Windows 7 launch.
Quelle (http://www.bit-tech.net/news/hardware/2009/06/03/tsmc-40nm-problems-have-been-solved-sources/1)

Im Hinblick auf die Fudzilla-Meldung (DX11 NV erst im H1 2010) allerdings etwas verwunderlich. Oder nur ATI profitiert von dieser Maßnahme und NV muss die Chips umgestalten?

@reunion: In einer neueren meldung (http://www.fudzilla.com/content/view/14109/34/) behauptet Fud wieder Q409/Q110.

Coda
2009-06-08, 13:54:02
Solche Aussagen häufen sich jedenfalls mittlerweile. Nicht mehr nur Charly, auch CJ und jetzt Fuad behaupten 2010. Aber mal sehen. Das man jetzt anscheinend doch noch DX10.1-Chips bringt ist jedenfalls seltsam und ein A1 Silizium bedeutet erstmal nicht viel. Auch wenn andere Stimmen von produktionsreife sprechen. Wie immer heißt es abwarten.
Was natürlich sein könnte ist, dass TSMC 40nm wirklich komplett überarbeiten muss und NVIDIA durch den größeren Chip entsprechend im Zeitplan weiter nach hinten rückt als AMD.

Möglicherweise. Ich gehe bisher trotzdem von spätestens Dezember aus.

reunion
2009-06-08, 13:54:55
Vermutlich nicht ganz uninteressant:

Quelle (http://www.bit-tech.net/news/hardware/2009/06/03/tsmc-40nm-problems-have-been-solved-sources/1)

Im Hinblick auf die Fudzilla-Meldung (DX11 NV erst im H1 2010) allerdings etwas verwunderlich. Oder nur ATI profitiert von dieser Maßnahme und NV muss die Chips umgestalten?

Man kann momentan ohnehin nichts genaueres sagen. Wenn es wirklich nur am Prozess liegt sollten beide relativ zeitgleich kommen. Wenn einer doch noch andere Probleme hat kann es natürlich auch zu weiteren Verschiebungen kommen.

Was natürlich sein könnte ist, dass TSMC 40nm wirklich komplett überarbeiten muss und NVIDIA durch den größeren Chip entsprechend im Zeitplan weiter nach hinten rückt als AMD.

Möglicherweise. Ich gehe bisher trotzdem von spätestens Dezember aus.

Ich sage mal so: Ein A1-Silizium ging bei nV noch selten in Massenproduktion, schon gar nicht bei einer neuen Generation.

Ailuros
2009-06-08, 14:04:48
Solche Aussagen häufen sich jedenfalls mittlerweile. Nicht mehr nur Charly, auch CJ und jetzt Fuad behaupten 2010. Aber mal sehen. Das man jetzt anscheinend doch noch DX10.1-Chips bringt ist jedenfalls seltsam und ein A1 Silizium bedeutet erstmal nicht viel. Auch wenn andere Stimmen von produktionsreife sprechen. Wie immer heißt es abwarten.

NV A1 = ATI A10

Soll ich weiterschreiben oder kannst Du einsehen dass Du hier Unsinn zusammenreimst?

***edit: nochmal Leute wie CJ haben Microsoft als eigentliche Quelle. Obwohl er hinter den Kulissen besteht dass Microsoft es wissen "muesste" dass NV schon produktionsreife hw hat, denkt er dass wenn Microsoft nichts dazu zu sagen hat, dann wird es auch nichts geben. Wenn Ihr alle dieser Logik folgen koennt von mir aus. Und nein keiner von uns weiss mit Sicherheit was genau los ist bei NVIDIA. Aber trotz allem entschuldigt wenn ich X Info direkt vom Maul des Loewen habe und diese steht im Gegensatz zu zwei fanatischen Fanboys soll mir jemand eine halbwegs logische Erklaerung geben wem ich genau glauben sollte.

Im Gegensatz plapperten auch etliche Seiten von "Verspaetungen" seitens ATI was X11 GPUs betrifft. Hab ich oder hab ich nicht diese sofort bestritten da ich wusste in welchem Stadium sich ATI mit der X11 Entwicklung befindet?

Ich sage mal so: Ein A1-Silizium ging bei nV noch selten in Massenproduktion, schon gar nicht bei einer neuen Generation.

Bei ATI aber auch nicht (bei A10). Und bevor Du es sagt, zeig mir wann je NVIDIA irgend einen die oeffentlich vorgezeigt hat vor der Veroeffentlichung einer neuen Architektur.

reunion
2009-06-08, 14:06:12
NV A1 = ATI A10

Soll ich weiterschreiben oder kannst Du einsehen dass Du hier Unsinn zusammenreimst?

ATi A10 = RV870 oder nicht doch irgend ein RV840/830?

BlackBirdSR
2009-06-08, 14:10:15
Man sollte auch aufpassen mit den vermehrten Berichten. Oftmals haben die alle die gleiche Quelle und wer lang genug das gleiche zu hören bekommt, der glaubt es dann auch irgendwann. So hast du dann 5 anscheinend unabhängige Berichte, die alle von der gleichen Quelle abschreiben oder "unterrichtet" wurden. Das macht die Sache dann nicht 5x so glaubwürdig.

Schon gar nicht in unseren Tagen, wo jeder so schnell wie möglich die News der Kollegen übernimmt/abschreibt um sich einen Teil der Clicks zu sichern.

V2.0
2009-06-08, 14:10:16
Es ist doch denkbar, dass NV mehr ändern muss, weil der Chip größer ist. Außerdem haben sie sehr sleten eine erste Revision im Verkauf gehabt. Rechnet man nun Verfügbarkeit 40nm TSMC Sept.09 und rechnet für NV 2 Re-Spins dann wird die Massenverfügbarkeit frühstens im 1Q10 erreicht.

Ein toller Erfolg, falls ATI schon im Q3/09 mit DX11 Karten am Markt wäre.

BlackBirdSR
2009-06-08, 14:15:46
Es ist doch denkbar, dass NV mehr ändern muss, weil der Chip größer ist.

Aber alles nur Spekulation. Ohne genaue Details, wo es am Prozess mangelt, sind alle Aussagen dazu nahezu sinnlos. Es gibt mehr als genug Verfahrensschritte, die schlecht laufen können, mit dem ASIC-Design aber nahezu nichts zu tun haben. Verbesserungen wirken sich hier sofort auf das Produkt aus. Alles was ein Redesign oder umfangreichere Anpassungen der Chips nötig macht, ist dann schon in die Kategorie: "Grundsätzliches (Design, Konzept)Problem im Gesamtprozess" einzustufen.

Am Ende kommt es auch darauf an, ob die Verbesserung des Prozesses von seiten TSMC kommen oder die ganze Verbesserung auf Anweisungen für ATI/Nvidia basiert, wie sie z.B. ihr Layout/Metallisierung anzupassen haben. Das wäre dann natürlich ärgerlich und dauert länger.

Ailuros
2009-06-08, 14:16:22
Es ist doch denkbar, dass NV mehr ändern muss, weil der Chip größer ist. Außerdem haben sie sehr sleten eine erste Revision im Verkauf gehabt. Rechnet man nun Verfügbarkeit 40nm TSMC Sept.09 und rechnet für NV 2 Re-Spins dann wird die Massenverfügbarkeit frühstens im 1Q10 erreicht.

Ein toller Erfolg, falls ATI schon im Q3/09 mit DX11 Karten am Markt wäre.

ATI's vorgezeigte RV8x0 Silizium ist auch A10.

Gast
2009-06-08, 14:23:08
ATI's vorgezeigte RV8x0 Silizium ist auch A10.

Wenn hier Vergleichbarkeit zw. Nvidia und ATI herrschen sollte, warum hat dann Nvidia nicht das A1 Silizium des GT300 auf der Computex gezeigt? Strategische Entscheidung oder doch noch nicht soweit?

Ailuros
2009-06-08, 14:25:57
Wenn hier Vergleichbarkeit zw. Nvidia und ATI herrschen sollte, warum hat dann Nvidia nicht das A1 Silizium des GT300 auf der Computex gezeigt? Strategische Entscheidung oder doch noch nicht soweit?

Wie ich schon weiter oben schrieb NVIDIA hat bis jetzt nie Silizium so vorzeitig vorgezeigt.

Gast
2009-06-08, 14:26:34
http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?id=1244456211

Die 40nm Situation ... NVIDIA 2009 ohne DirectX 11 ... ATI direkt von 40nm zu 28nm? ... Kleine oder große Dies?

Gast
2009-06-08, 14:30:45
Der Post #1010 von mir als Gast bezog sich nicht direkt auf den GT300 sondern auf den Zwischenschritt den nVidia wohl gehen muss/wird, wenn es ATI tatsächlich gelingt zum Launch von Windows 7 DX11-fähige Hardware in 40nm zu liefern. Denn wer ist schon so bescheuert und spendiert am Ende des Lebenszyklus einer Technologie (also dem Vorgänger des GT300) dieser nochmals ein Extrafeature wie DX10.1!? Vor allem wenn der neue Chip rechtzeitig fertig gestellt werden kann. Dann kann man weiterhin auf dem Standpunkt stehen bleiben und so wie bisher verbreiten, dass DX10.1 niemand braucht.
Das ist IMO eine reine "Verzweiflungstat". Alles natürlich im Hinblick darauf, dass die Quellen mit dem DX10.1-Chipe recht haben. Was natürlich niemand von uns weiß. ;)

Ailuros
2009-06-08, 14:46:35
Der Post #1010 von mir als Gast bezog sich nicht direkt auf den GT300 sondern auf den Zwischenschritt den nVidia wohl gehen muss/wird, wenn es ATI tatsächlich gelingt zum Launch von Windows 7 DX11-fähige Hardware in 40nm zu liefern. Denn wer ist schon so bescheuert und spendiert am Ende des Lebenszyklus einer Technologie (also dem Vorgänger des GT300) dieser nochmals ein Extrafeature wie DX10.1!? Vor allem wenn der neue Chip rechtzeitig fertig gestellt werden kann. Dann kann man weiterhin auf dem Standpunkt stehen bleiben und so wie bisher verbreiten, dass DX10.1 niemand braucht.
Das ist IMO eine reine "Verzweiflungstat". Alles natürlich im Hinblick darauf, dass die Quellen mit dem DX10.1-Chipe recht haben. Was natürlich niemand von uns weiß. ;)

Das 10.1 Zeug ist lediglich mainstream Schlepptopp OEM Material. Es wird keine Performance und schon gar nicht 10.1 high end GPU von NV geben.

Ailuros
2009-06-08, 14:48:48
ATi A10 = RV870 oder nicht doch irgend ein RV840/830?

Ich sagte nirgends RV870; RV870 A10 ist spaeter dran als das vorgezeigte Zeug afaik.

BlackBirdSR
2009-06-08, 14:55:48
http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?id=1244456211

Die 40nm Situation ... NVIDIA 2009 ohne DirectX 11 ... ATI direkt von 40nm zu 28nm? ... Kleine oder große Dies?

Und wieder mit den gleichen infos von den üblichen Verdächtigen. Nur wiederholt aber ke9ine zusätzliche Stimme. Vorsicht!

Coda
2009-06-08, 15:23:04
ATi A10 = RV870 oder nicht doch irgend ein RV840/830?
Er meint, dass ATI bei A10 mit der Zählung anfängt, nicht bei A1.

Sorkalm
2009-06-08, 15:25:38
Fängt Nvidia denn wirklich bei A1 an, und nicht bei A0?

Coda
2009-06-08, 15:27:12
A0 ist soweit ich weiß normal der Prototyp. Produktionsreif ist frühstens A1.

KonKorT
2009-06-08, 21:47:01
Nvidia G300 mit unter 225 Watt TDP

http://www.hardware-infos.com/news.php?news=2997

http://www.brightsideofnews.com/news/2009/6/8/nvidia-gt300-targets-225w-tdp.aspx

crux2005
2009-06-08, 21:58:48
ach, ne echt? hätte ich nicht gedacht...
das Witzige ist, das mir "den Stromverbrauch unter GTX 285" sogar ein nVidia Angestelter bestätigt hat

Ailuros
2009-06-09, 12:08:57
ach, ne echt? hätte ich nicht gedacht...
das Witzige ist, das mir "den Stromverbrauch unter GTX 285" sogar ein nVidia Angestelter bestätigt hat

Echt? ;D

y33H@
2009-06-09, 18:52:45
Langsam wirds lächerlich. Entweder geile Quelle oder Bullshit³.

Ailuros
2009-06-09, 19:34:18
Also ich persoenlich wuerde meine Quellen alles andere als geil bezeichnen; eher das Gegenteil :biggrin:

crux2005
2009-06-09, 20:53:41
Echt? ;D

nicht den, den du Meinst :biggrin:
btw: trotzdem muss der Wert nicht stimmen, nVidia kann auch ein wenig übertreiben...

KonKorT
2009-06-10, 00:17:19
[...] das Witzige ist, das mir "den Stromverbrauch unter GTX 285" sogar ein nVidia Angestelter bestätigt hat
Echt? Dann bist du schon einen Schritt weiter als ich. Das hat mir nämlich noch kein Nvidia-Angestellter bestätigt, andernfalls wäre es entsprechend vermerkt.

Langsam wirds lächerlich. Entweder geile Quelle oder Bullshit³.
Lächerlich finde ich es nicht. Und es ist keines von beiden. Es sind viele, verschiende Quellen, da muss man nicht lange warten, wer Stuss erzählt und wer wirklich mehr weiß.

Sorkalm
2009-06-18, 13:41:49
Xbitlabs:
Nvidia in Discussions with Globalfoundries over Manufacturing (http://www.xbitlabs.com/news/other/display/20090617070941_Nvidia_in_Discussions_with_Globalfoundries_over_Manufacturing__Ch ief_Executive_Officer.html)


Direkt aus einem Interview zwischen Jen Hsun Huang und Expreview:

Q: You said that NVIDIA was working on three models based on 40nm processing, and it seems that TSMC is having some problems on 40nm yield issue. Is NVIDIA planning to seek for another OEM just like Globalfoundries?

Jen Hsun: Globalfoundries is a leading silicon foundry with advanced and outstanding processing technology. We’re seriously evaluating and discussing about the possibilities of working with them.

http://en.expreview.com/2009/06/17/an-interview-with-jen-hsun-huang-ceo-of-china.html


Mal schauen, ob das was wird.

darkvader
2009-06-18, 14:11:14
Ach - vielleicht hat er das auch nur so dahergesagt um TSMC eine "vor den Bug zu knallen"

igg
2009-06-18, 14:13:11
Ich denke auch, dass das strategische Gründe hat. Klar weiß bei TSMC jeder schon was der andere wann produziert, es könnte aber bei GF so sein, dass es nur noch ATI von NV weiß...

Ailuros
2009-06-19, 20:49:33
http://www.xbitlabs.com/news/video/display/20090618122705_GPUs_Will_Have_20_Teraflops_of_Performance_by_2015__Nvidia_Chief_ Scientist.html

In addition, Mr. Dally emphasized importance of further parallelism in graphics processors and implied that in future graphics processing units should transit to MIMD architecture.

In addition, Mr. Dally expects future GPUs to be more effective at the level of parallelism: they will be able to execute multiple instructions at once asynchronously, a feature that is not available on today’s GPUs, but is supported by Intel's forthcoming Larrabee. In fact, there were reports that Nvidia’s next-generation graphics chips (NV60, GT300, etc) already feature MIMD (Multiple Instruction stream, Multiple Data stream) architecture.

Echte MIMD Einheiten? :confused:

Gast
2009-06-19, 21:25:04
MIMD Einheiten... was würde das bedeuten?

crux2005
2009-06-19, 21:42:18
mehr Arbeit für die nV engineers und bessere Auslastung der ALUs

Ailuros
2009-06-20, 06:34:45
MIMD Einheiten... was würde das bedeuten?

Heutige GPUs haben SIMD Einheiten (single instruction multiple data) die untereinander in einer MIMD (multiple instructions multiple data) verbunden sind. Verdammt vereinfacht man kann in solch einem Fall stets nur einen Befehl bzw. Instruktion pro SIMD ausfuehren, wobei Gott sei Dank heutzutage diese Instruktionen unterschiedlich sein koennen zwischen den mehreren SIMDs einer GPU.

Bei MIMD ALUs hat man den Luxus die Freiheit der heutigen Verbindung der SIMD Einheiten von GPUs in jeder einzelnen ALU zu haben; ergo man kann verschiedene Instruktionen pro Einheit und total asynchron ausfuehren. Bei einer guten Implementierung kann man fuer eine weit bessere Auslastung der Einheiten sorgen u.a. auch mit Null Kosten fuer jeglichen Instruktions-Wechsel.

Bisher soll "G300" eigentlich optimierte SIMD Einheiten haben (in anderen Worten stellenweise Optimierungen die der Effizienz von MIMD naeher kommen); dass jetzt der Ober-engineer von NV ploetzlich ueber MIMD blubbert ist merkwuerdig. Ich koennte mir auch vorstellen dass NV ihre "G300" ALUs etwas in der Richtung MPMD (multiple program multiple data) nennen koennte, aber wir muessen wohl abwarten ob es sich hier um Marketing-Gefusel handelt oder waschreine MIMD Einheiten.

Ailuros
2009-06-22, 14:29:18
Damien Triolet hat es aufgeklaert:

Bill Dally didn't mention MIMD directly. I asked him what he likes and dislikes about current GPUs. On the dislike part he said everybody would like better efficiency with only a few threads (instead of thousands of them). I asked him more specicifally about increasing instruction parallelism inside threads. He wouldn't be too specific but insisted again that increasing single thread performance was a priority. Asked about the timeframe for such changes he said it was a many-years work.
It was of course a way to ask if it refers to "GT300" without falling in the "can't comment on unannouced products" trap.

http://forum.beyond3d.com/showpost.php?p=1306040&postcount=1372

Klar genug fuer mich als Laie; erstens meinte Herr Dally nicht unbedingt MIMD und zweitens handelt es sich um einen jahrelangen Entwicklungsprozess.

mapel110
2009-06-22, 14:39:51
Jahrelang dauert doch ohnehin die Chip-Entwicklung. Könnte doch also drin sein?! Bei USC sind wir ja von nvidia auch gut an der Nase herumgeführt worden.

Ailuros
2009-06-22, 14:41:58
Jahrelang dauert doch ohnehin die Chip-Entwicklung. Könnte doch also drin sein?! Bei USC sind wir ja von nvidia auch gut an der Nase herumgeführt worden.

Dally sprach nach Damien's Angaben ueber wenige wenn nicht gleich einen einzelnen Thread. Theoretisch bringt Dir MIMD erstmal gar nicht bei single threading und der Abstand zwischen einer GPU und einer CPU fuer single threading ist Lichtjahre momentan entfernt.

Coda
2009-06-22, 16:41:00
Larrabee ist nicht MIMD sondern SIMD.

Ailuros
2009-06-23, 07:59:32
Larrabee ist nicht MIMD sondern SIMD.

Eine nebensaechliche Selbstverstaendlichkeit :biggrin:

Gaestle
2009-06-23, 11:01:02
[edit:] Post in den Rx8xx-Thread verschoben...

KonKorT
2009-06-23, 14:57:59
Einfach herrlich :)

Contrary to popular fantasies, the Nvidia GT300 GPU has not taped out, but the preparations to do so have started, so think July 1 if all goes well. A little math says that they can't have production parts out before mid-November, assuming they don't need a single respin. That is uheard of, so think February for a green response, at the very least, press stunts aside.

http://www.semiaccurate.com/2009/06/22/ati-have-4-dx11-cards-october/
(22.06.2009)

Our sources have confirmed that Nvidia is working hard to launch its first DirectX 11 in this year. Well informed sources are telling us that the plan is to launch in late Q4 2009, but they can still make it before the end of the year.

Many people were reporting that Nvidia's high end GPU, something that we all call GT300, might be delayed for early 2010. Well we can tell you that this won’t happen, but we strongly believe that Nvidia cannot make it in time for the Windows 7 launch.

ATI has every chance to launch its DirectX 11 before Nvidia. Nvidia will come just a month or two later, but still in 2009.

http://www.fudzilla.com/content/view/14350/1/
(23.06.2009)

igg
2009-06-23, 15:05:22
Wenn Fud von G300 und Charlie (eigentlich übrigens korrekt) von GT300 sprechen würde, wäre es nicht mal ein Widerspruch

Ailuros
2009-06-23, 15:20:09
Wenn Fud von G300 und Charlie (eigentlich übrigens korrekt) von GT300 sprechen würde, wäre es nicht mal ein Widerspruch

So lange er "something that we all call GT300" erwaehnt sehe ich nichts merkwuerdiges dran. Keiner der bisherigen Codenamen stimmt, genausowenig wie "RV870".

Late Q4 klingt mir verdammt pessimistisch uebrigens.

deekey777
2009-06-23, 15:29:51
Wieviele Monate vergehen gewöhnlich zwischen dem Tapeout und der absoluten Fertigstellung oder gar Veröffentlichung? Drei?

reunion
2009-06-23, 15:31:29
Wieviele Monate vergehen gewöhnlich zwischen dem Tapeout und der absoluten Fertigstellung oder gar Veröffentlichung? Drei?

Wenn man vom ersten Tapeout bis zur Verfügbarkeit im Handel bei einem üblichen A2 Silizium für die Massenproduktion rechnet eher sechs.

KonKorT
2009-06-23, 15:32:03
Wieviele Monate vergehen gewöhnlich zwischen dem Tapeout und der absoluten Fertigstellung oder gar Veröffentlichung? Drei?

"Die Übergangsphase zwischen Tape-Out und fertigem Produkt wird zunächst mit dem Vorbereiten von Testplatinen, Prüfsoftware schreiben und Fehlersuche verbracht. Denn nur in den aller seltensten Fällen ist der Chip sofort funktionstüchtig. Man setzt durchschnittlich gut zwei Wochen an, bis der gesamte Chip erstmals zu Leben erweckt wird.
Wenn er dann erst einmal lauffähig ist, beginnt die erneute Fehlersuche. Nur selten gelangt der erste, lauffähige Chip so auch später zum Käufer. Es müssen oftmals Redesigns durchgeführt werden, die in einem neuen Stepping münden. Manchmal genügt ein Redesign, es können aber auch schnell zwei oder gar drei werden.

Ist der Chip in einem Stadium, in dem er auch an den Kunden überführt werden kann, wird er an die Halbleiterhersteller, hier TSMC, geschickt. Dort werden zunächst anhand der Layoutdaten so genannte Masken erstellt. Es folgen etliche weitere - teilweise auch prozessabhängige - Fertigungsschritte, bis schließlich die Massenfertigung gestartet werden kann. Alles in allem verbringt der Chip hier noch mal gut zwei Monate, ehe er auf den Ladentisch landet."

http://www.hardware-infos.com/news.php?news=2871

Ailuros
2009-06-23, 15:39:47
Wenn man vom ersten Tapeout bis zur Verfügbarkeit im Handel bei einem üblichen A2 Silizium für die Massenproduktion rechnet eher sechs.

Und vom sogenannten finalen tapeout? (denn tapeouts hat ein chip ja etliche)...

[fu]121ah@work
2009-06-24, 11:36:07
Und vom sogenannten finalen tapeout? (denn tapeouts hat ein chip ja etliche)...
irgendwo las ich mal, dass der schnellste wechsel bei NV (?) vom letzten redesign zum finalen tapeout (also produktions-rdy-chip) 3 wochen gedauert hat. war aber vor jahren, ich glaub das war damals sogar noch bei 3dconcept (R.I.P).

Ailuros
2009-06-24, 12:30:03
121ah@work;7376966']irgendwo las ich mal, dass der schnellste wechsel bei NV (?) vom letzten redesign zum finalen tapeout (also produktions-rdy-chip) 3 wochen gedauert hat. war aber vor jahren, ich glaub das war damals sogar noch bei 3dconcept (R.I.P).

Solch eine Rekordzeit wuerde ich auf keinen Fall auf 40nm momentan erwarten und schon gar nicht bei einem hypothetischen 495mm2 die.

Gipsel
2009-06-24, 16:44:16
Schon das hier von Theo (http://www.brightsideofnews.com/news/2009/6/24/nvidia-gt300---geforce-gtx-380-yields-are-sub-3025.aspx) gesehen?

Also falls das Photo wirklich ein GT300 zeigen sollte, würden um die 500mm² Die-Größe (oder knapp darunter) hinkommen. Und er schreibt, daß wohl noch ein Respin nötig ist.

Coda
2009-06-24, 17:08:00
Das Foto zeigt keinen GT300.

[fu]121ah@home
2009-06-24, 19:01:53
Solch eine Rekordzeit wuerde ich auf keinen Fall auf 40nm momentan erwarten und schon gar nicht bei einem hypothetischen 495mm2 die.
hehe, tu ich auch nicht. wäre ne riesen illusion - also wenns die engineers schaffen würden, dann hättens ein paar runden bier verdient... aber...

ich glaube das war zu zeiten von riva irgendwas... also anno 1996 bis 1999 (eben, 3dconcept ist ja etwa auch seit 99 offline).

Ailuros
2009-06-25, 01:14:48
Schon das hier von Theo (http://www.brightsideofnews.com/news/2009/6/24/nvidia-gt300---geforce-gtx-380-yields-are-sub-3025.aspx) gesehen?

Also falls das Photo wirklich ein GT300 zeigen sollte, würden um die 500mm² Die-Größe (oder knapp darunter) hinkommen. Und er schreibt, daß wohl noch ein Respin nötig ist.

Ein respin braucht wieviel? 2 Monate? Es sagt mir zwar nichts da ich nicht genau weiss wann der chip Stadium X erreichte, aber falls es 2 Monate sein sollten, ist es genau der Zeitraum in dem TSMC die yields verbessern soll fuer 40nm.

AnarchX
2009-06-25, 17:39:56
Fermi?

http://img520.imageshack.us/img520/9764/fermi4351214.jpg (http://img520.imageshack.us/i/fermi4351214.jpg/)
http://www.extrahardware.cz/next-gen-gpu-nvidia-vyvijena-jako-fermi

Kernphysiker gegen mediterranes Gehölz... ;)

Ailuros
2009-06-25, 19:48:09
Fermi?

http://img520.imageshack.us/img520/9764/fermi4351214.jpg (http://img520.imageshack.us/i/fermi4351214.jpg/)
http://www.extrahardware.cz/next-gen-gpu-nvidia-vyvijena-jako-fermi

Kernphysiker gegen mediterranes Gehölz... ;)

Pffff Ihr Kerle habt einfach keine Phantasie:

The Fermi paradox is the apparent contradiction between high estimates of the probability of the existence of extraterrestrial civilizations and the lack of evidence for, or contact with, such civilizations.

http://en.wikipedia.org/wiki/Fermi_paradox


:devil:

=Floi=
2009-06-28, 18:31:19
warum gehen die linien eigentlich von unten nach oben ineinander über?
ist das nur für die optik, oder ist da auch ein echter sinn dahinter?

igg
2009-06-28, 18:58:05
@=Floi=: Ich verstehe die grünen Linien als primäre Anwendungsgebiete auf Basis der zugrunde liegenden Technologien und da gibt es ja schon Übergangsphasen.

Ailuros
2009-06-28, 19:43:43
Ich sehe keine Grade an Evolution vor NV20 genauso wenig wie vor G80. Unter einem sehr freien Perspektive hatte dann natuerlich ein G71 96 SPs :|

robbitop@work
2009-06-29, 09:10:10
Ich sehe keine Grade an Evolution vor NV20 genauso wenig wie vor G80. Unter einem sehr freien Perspektive hatte dann natuerlich ein G71 96 SPs :|
G71 hatte 24 Pipes mit je 2 MAD Vec4 ALUs. Das sind also 192 SPs. Dazu kommen noch die 6x Vec4 VS. Sind dann 216 SPs.
Nur die Effizienz war natürlich eine völlig andere.

Nakai
2009-06-29, 12:40:56
G71 hatte 24 Pipes mit je 2 MAD Vec4 ALUs. Das sind also 192 SPs. Dazu kommen noch die 6x Vec4 VS. Sind dann 216 SPs.
Nur die Effizienz war natürlich eine völlig andere.

Naja, die Vec4-Dinger jeweils als 4 SPs zu zählen, ist gewagt. Die Dinger konnten sich entweder zu 2+2 oder 3+1 splitten. Außerdem gibts noch die ganzen anderen ALUs in der Pipeline, wie die Fog-ALU. DIe PS3-GPU ist ja nur ein G71. Anscheinend sollen es 5 Ops pro Takt pro Pipe sein.


mfg Nakai

Ailuros
2009-06-29, 13:28:15
G71 hatte 24 Pipes mit je 2 MAD Vec4 ALUs. Das sind also 192 SPs. Dazu kommen noch die 6x Vec4 VS. Sind dann 216 SPs.
Nur die Effizienz war natürlich eine völlig andere.

Warum muesst Ihr Kerle stets einer meiner verkorksten Beispiele nehmen und diese weiterverkorksen? GPUs sind keine sturen Rechenapparate wie CPUs und behandeln u.a. auch Texturen....:|

Naja, die Vec4-Dinger jeweils als 4 SPs zu zählen, ist gewagt. Die Dinger konnten sich entweder zu 2+2 oder 3+1 splitten. Außerdem gibts noch die ganzen anderen ALUs in der Pipeline, wie die Fog-ALU. DIe PS3-GPU ist ja nur ein G71. Anscheinend sollen es 5 Ops pro Takt pro Pipe sein.


mfg Nakai

RSX ist zwar mit G7x stark verwandt aber auch kein G71 im strengen Sinn. Ein wesentlicher Unterschied im RSX den man nur im G80 findet ist in den ROPs versteckt.

AnarchX
2009-06-30, 19:00:58
http://img87.imageshack.us/img87/4567/090630162719674ac13cf99.jpg (http://img87.imageshack.us/i/090630162719674ac13cf99.jpg/)
http://bbs.chiphell.com/viewthread.php?tid=48108&extra=page%3D1&page=8

Da hat man wohl bei der Speichermenge doch eine vernünftige Wahl getroffen.

reunion
2009-06-30, 19:11:20
http://img87.imageshack.us/img87/4567/090630162719674ac13cf99.jpg (http://img87.imageshack.us/i/090630162719674ac13cf99.jpg/)
http://bbs.chiphell.com/viewthread.php?tid=48108&extra=page%3D1&page=8

Da hat man wohl bei der Speichermenge doch eine vernünftige Wahl getroffen.

Ähm ja, das in den weiß überstrichenen Zeilen nichts stand ist offensichtlich. Sieht sehr nach Fake aus.

Coda
2009-06-30, 19:16:49
Wenn derjenige eine Elipse verwendet hat zum killen nicht unbedingt ;)

AnarchX
2009-06-30, 19:16:54
Oder eben "N/A", wie es auch im dazugehörigen Post steht.

dargo
2009-06-30, 19:17:59
2x 400Mhz RAMDAC? :confused:


Da hat man wohl bei der Speichermenge doch eine vernünftige Wahl getroffen.
Bezieht sich dieses Bild überhaupt auf das Referenzdesign? Sollte bei ersten Bildern eigentlich der Fall sein, oder? Würde mich freuen wenn es keine GTX380 mit 1GB Vram geben wird. Auf der anderen Seite könnte sich der Eintrag auch auf den maximalen Ausbau im Desktop-Bereich beziehen.

Gast
2009-06-30, 19:21:45
naja nach 768MB bei G80 (2006) und 1GB / 2GB (2008) bei den G200 Karten war ja fast klar das der G300 mit 2GB ankommt.

Ronny145
2009-06-30, 19:34:10
Oder eben "N/A", wie es auch im dazugehörigen Post steht.


Wozu hätte man das N/A dann löschen sollen? Infos gibts dadurch keine.

reunion
2009-06-30, 19:34:47
Wenn derjenige eine Elipse verwendet hat zum killen nicht unbedingt ;)

Hat man nicht. Sieht man deutlich an den Komprimierungsartefakten.

Oder eben "N/A", wie es auch im dazugehörigen Post steht.

Selbst N/A ergibt keinen Sinn. Erstens hätte man es dann nicht löschen brauchen und zweitens hätte man dann bei mittiger Ausrichtung wie beim restlichen Text mit dieser seltsamen Kurve nicht alles löschen können.

Spasstiger
2009-06-30, 20:16:32
2x 400Mhz RAMDAC? :confused:
Das sind die Dinger, die dein analoges Signal bereitstellen. Du kannst zwei CRTs anschließen.

dargo
2009-06-30, 20:28:48
Das sind die Dinger, die dein analoges Signal bereitstellen. Du kannst zwei CRTs anschließen.
Ups, dann war das wohl ein Eigentor. Ich dachte immer der RAMDAC wäre nur einmal vorhanden. :redface:

Gast
2009-07-01, 13:08:34
glaube auch das es ein Fake ist, denke kaum das schon so früh so detailierte Daten im umlauf sind (takt usw.)

Ailuros
2009-07-01, 13:32:33
glaube auch das es ein Fake ist, denke kaum das schon so früh so detailierte Daten im umlauf sind (takt usw.)

http://www.brightsideofnews.com/news/2009/6/8/nvidia-gt300-targets-225w-tdp.aspx

Nakai
2009-07-01, 14:03:43
Mhh, nur mal ne dumme Milchmädchenrechnung(bitte nicht deswegen kritisieren.)

Ein GT200b hat in der höchsten Ausbaustufe etwa 220W TDP.
40nm sollte ungefähr 40% bis 50% Einsparung im Stromverbrauch bringen.
Der GT300 hat mehr als 200% theoretische Recheneinheiten, ebenso einen ähnlichen Takt.
Man würde etwa bei ~270W TDP landen, wenn man DX11 und ähnliche Strukturen berücksichtigt.

Ergo sind die 225W TDP ein Indikator, dass NV die Effektivität deutlich gesteigert hat. Da kann man sich auf die Midrange-Parts des GT300 freuen.


mfg Nakai

mapel110
2009-07-01, 14:09:40
Beim GT300 hat nvidia offenbar nicht die Transistoren verdoppelt gegenüber GT200. Ergo ist der Verbrauch wohl im ganz normalen Rahmen.

dargo
2009-07-01, 14:11:47
Natürlich sollte die Effizienz bei einer neuen Generation pro Watt gesteigert werden. Sonst wären wir schon lange in TDP-Bereichen die nicht mehr mit Luft kühlbar sind. :)

Nakai
2009-07-01, 14:24:51
Beim GT300 hat nvidia offenbar nicht die Transistoren verdoppelt gegenüber GT200. Ergo ist der Verbrauch wohl im ganz normalen Rahmen.

Es war noch nie der Fall, dass bei doppelt sovielen Einheiten die Transistoren auch verdoppelt werden.


mfg Nakai

Ailuros
2009-07-01, 14:26:43
G300 soll etwa 15% weniger als eine 285 unter Last verbrauchen. Ich bezweifle dass 40nm irgendwelche besondere Einsparungen bei solcher Komplexitaet und den angegeben Frequenzen mit sich bringen wird.

G300 soll architekturelle Aenderungen mit sich bringen die eine flexiblere Taktverwaltung je nach Bedarf betreffen. Die angegebenen Frequenzen waren uebrigens das eingetliche Ziel nachdem der chip angeblich sein A1 Stadium erreicht hat. Ob er wirklich mit diesen Frequenzen ankommen wird steht in den Sternen.

Beim GT300 hat nvidia offenbar nicht die Transistoren verdoppelt gegenüber GT200. Ergo ist der Verbrauch wohl im ganz normalen Rahmen.

Wenn die bisherigen Angaben stimmen, dann wuerde bei einer Transistoren-Verdoppelung ein G300 zumindest genauso viel verbrauchen wie eine GT200b. Die bisherigen Angaben sprechen aber von 70+% mehr Transistoren und bis zu 17% hoehere ALU-Frequenzen. Bist Du sicher dass es "normal" ist? Sonst haben sich eigentlich die engineers umsonst die Finger wund geschuftet um den Stromverbrauch so stark wie moeglich zu reduzieren.

Es war noch nie der Fall, dass bei doppelt sovielen Einheiten die Transistoren auch verdoppelt werden.


mfg Nakai

Hmmm es werden auf jeden Fall die TMUs die viel mehr die area schlucken als ALUs erstmal NICHT verdoppelt auf G300.

BlackBirdSR
2009-07-01, 14:31:54
G300 soll etwa 15% weniger als eine 285 unter Last verbrauchen. Ich bezweifle dass 40nm irgendwelche besondere Einsparungen bei solcher Komplexitaet und den angegeben Frequenzen mit sich bringen wird.

G300 soll architekturelle Aenderungen mit sich bringen die eine flexiblere Taktverwaltung je nach Bedarf betreffen. Die angegebenen Frequenzen waren uebrigens das eingetliche Ziel nachdem der chip angeblich sein A1 Stadium erreicht hat. Ob er wirklich mit diesen Frequenzen ankommen wird steht in den Sternen.

Und wissen wir schon, ob Nvidia Probleme mit diesen Taktraten bekommen wird/hat? Oder waren diese ganzen Meldungen nur immer Wunschdenken vieler Seiten, die NV anscheinend nicht ausstehen können, oder sich gerne von jedem "angebliche" infos zustecken lassen?

igg
2009-07-01, 14:42:16
Die angegebenen Frequenzen waren uebrigens das eingetliche Ziel nachdem der chip angeblich sein A1 Stadium erreicht hat.
Wenn der Chip schno im A1 Stadium war müsste NV ja einen guten Eindruck haben, was man mindestens rausholen kann. Es würde mich wundern, wenn sie ein Ziel, das auf Basis eines A1 formuliert wurde, nicht erreichen.

Gast
2009-07-01, 14:50:31
Ups, dann war das wohl ein Eigentor. Ich dachte immer der RAMDAC wäre nur einmal vorhanden. :redface:
also es gibt auch ramdacs die zwei signale gleichzeitig ausgeben/bearbeiten können. das stimmt schon.

DAC = digital analog converter

Ailuros
2009-07-01, 14:52:10
Und wissen wir schon, ob Nvidia Probleme mit diesen Taktraten bekommen wird/hat? Oder waren diese ganzen Meldungen nur immer Wunschdenken vieler Seiten, die NV anscheinend nicht ausstehen können, oder sich gerne von jedem "angebliche" infos zustecken lassen?

Meine Infos decken sich momentan mit dem bis jetzt berichteten Zeug fast zu 100%.

Auch das hier duerfte stimmen:

http://www.brightsideofnews.com/news/2009/6/24/nvidia-gt300---geforce-gtx-380-yields-are-sub-3025.aspx

Sonst sind mir keine anderen Probleme bekannt, aber das obrige ist von sich aus ein schwer zu bewaeltigendes Problem wenn TSMC den Saustall nicht bald aufraeumt. Sind yields total unabhaengig von Frequenzen?

Wenn der Chip schno im A1 Stadium war müsste NV ja einen guten Eindruck haben, was man mindestens rausholen kann. Es würde mich wundern, wenn sie ein Ziel, das auf Basis eines A1 formuliert wurde, nicht erreichen.

A1 ist nicht produktionsreifes Silizium fuer NV oder besser es war bis jetzt NIE fuer NVIDIA. Eher A2 oder B2 je nach Markt. Nochmal die gleiche Frage sind yields total unabhaengig von Frequenzen?

BlackBirdSR
2009-07-01, 15:01:51
Sonst sind mir keine anderen Probleme bekannt, aber das obrige ist von sich aus ein schwer zu bewaeltigendes Problem wenn TSMC den Saustall nicht bald aufraeumt. Sind yields total unabhaengig von Frequenzen?


Meinst du damit, ob die Yields generell unabhängig von der Frequenz sind, oder die absolute Yieldzahl?

Natürlich bestimmt die Taktrate die Anzahl an Yield für ein bestimmtes Taktsegment. Wenn man mit 30% allerdings die absolute Yieldzahl für schlicht funktionsfähige Chips im Bereich Target +- "X" meint, dann ist das wirklich schlimm.

[fu]121Ah@work
2009-07-01, 15:09:01
in diesem zusammenhang sind die taktraten wohl egal - wenn NV bullshit gebaut hätte, wäre es - ebenso wie bei r600 damals - wohl möglich dass die yields scheisse sind wegen zu hohen takterwartungen.

Ailuros
2009-07-01, 15:12:00
Meinst du damit, ob die Yields generell unabhängig von der Frequenz sind, oder die absolute Yieldzahl?

Natürlich bestimmt die Taktrate die Anzahl an Yield für ein bestimmtes Taktsegment. Wenn man mit 30% allerdings die absolute Yieldzahl für schlicht funktionsfähige Chips im Bereich Target +- "X" meint, dann ist das wirklich schlimm.

Wie Du selber siehst kann man bei solch miserablen yields momentan ueber gar nichts sicher sein.

Gast
2009-07-02, 12:05:23
TSMC weiterhin mit dicken Problemen beim 40nm-Prozess, 20-30% Yields
http://www.eetimes.com/rss/showArticle.jhtml?articleID=218102274&cid=RSSfeed_eetimes_newsRSS

dargo
2009-07-02, 12:16:21
So ein Mist aber auch, alles nur unnötige Verzögerungen. ;(

Spasstiger
2009-07-02, 12:27:49
TSMC weiterhin mit dicken Problemen beim 40nm-Prozess, 20-30% Yields
http://www.eetimes.com/rss/showArticle.jhtml?articleID=218102274&cid=RSSfeed_eetimes_newsRSS
Auf welchen Chip sind denn die 20-30% bezogen, immer noch RV740?

KonKorT
2009-07-02, 12:41:01
Ja.

igg
2009-07-02, 12:46:23
Naja, so gesehen steht der GT300 ja mit seinen 20-30 % yields ganz gut da (laut http://www.brightsideofnews.com/news/2009/6/24/nvidia-gt300---geforce-gtx-380-yields-are-sub-3025.aspx), ist schließlich wesentlicher komplexer als ein rv740.

Ailuros
2009-07-02, 13:07:11
Naja, so gesehen steht der GT300 ja mit seinen 20-30 % yields ganz gut da (laut http://www.brightsideofnews.com/news/2009/6/24/nvidia-gt300---geforce-gtx-380-yields-are-sub-3025.aspx), ist schließlich wesentlicher komplexer als ein rv740.

Was soll daran gut sein? Wenn nur ein von drei chips brauchbar ist spinnt kein IHV mit solchen yields in Massenproduktion zu gehen.

igg
2009-07-02, 14:07:08
Gut daran ist, dass die Komplexität des Gt300 auf die Yield-Rate wohl eher geringen Einfluss hat. Das macht NV weniger anfällig gegenüber den kleineren AMD Chips.

reunion
2009-07-02, 14:18:26
Gut daran ist, dass die Komplexität des Gt300 auf die Yield-Rate wohl eher geringen Einfluss hat. Das macht NV weniger anfällig gegenüber den kleineren AMD Chips.

Der Punkt ist das man solche Angaben vergessen kann, bzw. bestenfalls als groben Richtwert verstehen darf. Natürlich hat die Größe des Chips massive Auswirkungen auf die Yieldrate. Dinge die völlig offen bleiben sind die Yieldraten bei welchen Taktraten, mit oder ohne deaktivierten Einheiten, zu welchem Zeitpunkt, wie genau die Angaben überhaupt sind etc. pp.

Ailuros
2009-07-02, 14:26:24
Gut daran ist, dass die Komplexität des Gt300 auf die Yield-Rate wohl eher geringen Einfluss hat. Das macht NV weniger anfällig gegenüber den kleineren AMD Chips.

AMD's yields sind offensichtlich nicht so miserabel sonst haetten sie bis jetzt den RV740 noch nicht veroeffentlicht.

Der Punkt ist das man solche Angaben vergessen kann, bzw. bestenfalls als groben Richtwert verstehen darf. Natürlich hat die Größe des Chips massive Auswirkungen auf die Yieldrate. Dinge die völlig offen bleiben sind die Yieldraten bei welchen Taktraten, mit oder ohne deaktivierten Einheiten, zu welchem Zeitpunkt, wie genau die Angaben überhaupt sind etc. pp.

reunion,

Yields sind 3:1 momentan fuer die bisher angegebene Anzahl von Einheiten und Frequenzen.

Gast
2009-07-02, 14:31:05
Was soll daran gut sein? Wenn nur ein von drei chips brauchbar ist spinnt kein IHV mit solchen yields in Massenproduktion zu gehen.

hat letztes jahr nicht immer einer (der typ der NV überalles liebt...) behauptet das die yields bei dem GT200 um die 30% läge und somit ein GT200 in der Herstellung ca. 150.- Doller kostete?

kam mir nur gerade so in den sinn...

Gast
2009-07-02, 14:34:40
Yields sind 3:1 momentan fuer die bisher angegebene Anzahl von Einheiten und Frequenzen.

der wert ist doch mit den teildeaktivierten Chips eingerechnet doch gar nicht mal so schlecht, da dürfte man vieleicht auf ca. 50% kommen, sicher nicht ideal aber auch nichts unmögliches wenn es sein muss! oder sehe ich das jetzt komplett falsch?

Ailuros
2009-07-02, 14:41:44
der wert ist doch mit den teildeaktivierten Chips eingerechnet doch gar nicht mal so schlecht, da dürfte man vieleicht auf ca. 50% kommen, sicher nicht ideal aber auch nichts unmögliches wenn es sein muss! oder sehe ich das jetzt komplett falsch?

Theo ist hier etwas genauer; er sagt dass die 2 nicht voll operativen chips auch nicht als GTX360 taugen wuerden, welches eher bedeutet dass man viel mehr als nur 1/3 der insgesamten Einheiten deaktivieren muesste oder anders =/> als 1/2 der Einheiten.

Die Frage ist wann sich die TSMC zum besseren wenden werden und falls nicht mit welchen Opfer NV genau X% (>>30%) an yields erreichen koennte.

reunion
2009-07-02, 14:43:56
Theo ist hier etwas genauer; er sagt dass die 2 nicht voll operativen chips auch nicht als GTX360 taugen wuerden, welches eher bedeutet dass man viel mehr als nur 1/3 der insgesamten Einheiten deaktivieren muesste oder anders =/> als 1/2 der Einheiten.

Die Frage ist wann sich die TSMC zum besseren wenden werden und falls nicht mit welchen Opfer NV genau X% (>>30%) an yields erreichen koennte.

Das bedeutet also im Umkehrschluss das diese 25% schon inkl. teildeaktivierten Chips zu betrachten sind.

Spasstiger
2009-07-02, 14:45:20
der wert ist doch mit den teildeaktivierten Chips eingerechnet doch gar nicht mal so schlecht, da dürfte man vieleicht auf ca. 50% kommen, sicher nicht ideal aber auch nichts unmögliches wenn es sein muss! oder sehe ich das jetzt komplett falsch?
Wenn der RV740 und der 3,5-mal so große GT300 auf die gleiche Yieldrate im gleichen Prozess kommen, dann kann das nur bedeuten, dass Nvidia deutlich mehr redundante Bereiche vorgesehen hat und Teildeaktivierung schon in die Yieldrate mit einrechnet.

Ailuros
2009-07-02, 14:45:59
Das bedeutet also im Umkehrschluss das diese 25% schon abzüglich teildeaktivierten Chips zu betrachten sind.

Nein ein chip voll operativ; die anderen zwei bei =/< 1/2 Einheiten. Die 2 letzteren sind offensichtlich nutzlos; man waere verrueckt wenn man einen <500mm2 die mit nur der Haelfte der Einheiten verkaufen wuerde.

reunion
2009-07-02, 14:58:50
Es ist mehr als Unwahrscheinlich das 1/3 der Chips absolut fehlerfrei sind und die anderen derart kaputt sind das man die Hälfte des Chips deaktivieren muss. IMO meint man hier ganz klar inkl. teildeaktivierter Chips die man noch als GTX360 oder wie auch immer verwenden kann.

Ailuros
2009-07-02, 15:18:26
Es ist mehr als Unwahrscheinlich das 1/3 der Chips absolut fehlerfrei sind und die anderen derart kaputt sind das man die Hälfte des Chips deaktivieren muss. IMO meint man hier ganz klar inkl. teildeaktivierter Chips die man noch als GTX360 oder wie auch immer verwenden kann.


The current situation is that three faulty chips are made in the process to yeild one working one and that is much too much, since those faulty chips aren't exactly "GTX 360" or "slower Quadro FX" grade material

...und ja ich haette eins aus vier sagen sollen denn die yields sind ja nichtmal bei 30%.

KonKorT
2009-07-02, 16:59:17
AMD's yields sind offensichtlich nicht so miserabel sonst haetten sie bis jetzt den RV740 noch nicht veroeffentlicht.
Wer sagt, dass diese Entscheidung rückblickend richtig war?

V2.0
2009-07-02, 17:26:01
Es ist wohl eine "ganz oder gar nicht Problem". Man sieht es ja an RV740 auch da git bes weder niedrig getaktete Chips oder teildeaktivierte.

Nakai
2009-07-02, 18:13:25
Der RV740 war früher geplant. Ich wette, man hat ein haufen Dies gehortet und gehofft es wird bis dato besser. Anscheinend doch eher nicht...

Wie dem auch sei, es gab einen Grund wieso man noch keine Notebookparts sieht. Miserable Yields, gerade mal möglich den Desktopmarkt zu bedienen.


mfg Nakai

Gast
2009-07-02, 19:06:02
Wie dem auch sei, es gab einen Grund wieso man noch keine Notebookparts sieht. Miserable Yields, gerade mal möglich den Desktopmarkt zu bedienen.


mfg Nakai


Die Begründung erschließt sich mir nicht. Wenn zu wenige Dice vorhanden wären würde man wohl vorzugsweisen den Notebook-Markt bedienen, die Margen dort sind um einiges höher.

Spasstiger
2009-07-02, 19:14:44
Die Begründung erschließt sich mir nicht. Wenn zu wenige Dice vorhanden wären würde man wohl vorzugsweisen den Notebook-Markt bedienen, die Margen dort sind um einiges höher.
Die Margen im Notebook-Highend sollen größer sein als im Desktop-Mainstream? Hast du dafür Belege?

Nakai
2009-07-02, 19:53:05
Die Begründung erschließt sich mir nicht. Wenn zu wenige Dice vorhanden wären würde man wohl vorzugsweisen den Notebook-Markt bedienen, die Margen dort sind um einiges höher.

Die Anforderungen am Notebookmarkt sind ja wohl deutlich höher als am Desktopmarkt. Wenn man nur 30% Yields hat, dann kann man davon ausgehen, dass noch weniger Chips die Anforderungen für ein Notebook gerechtwerden.


mfg Nakai

YfOrU
2009-07-02, 19:58:37
Die Margen im Notebook-Highend sollen größer sein als im Desktop-Mainstream? Hast du dafür Belege?

Erschließt sich das nicht bereits aus den Differenzen der Gerätepreise ?

btw liegt die Antwort in der Fragestellung begraben Highend > Mainstream ;)

Spasstiger
2009-07-02, 21:07:58
Erschließt sich das nicht bereits aus den Differenzen der Gerätepreise ?

btw liegt die Antwort in der Fragestellung begraben Highend > Mainstream ;)
Kennst du Jemanden, der sich ein Notebook mit High-End-Grafik kaufen würde? Außer ein paar Leute hier im Forum weiß ich von Niemanden, der sich ein Notebook mit High-End-Grafik kaufen würde.
Die Radeon HD 4770 schlägt dagegen voll in die Kerbe, die in meinem Umfeld ankommt. Günstig, schnell genug zum Zocken, sparsam.

man waere verrueckt wenn man einen <500mm2 die mit nur der Haelfte der Einheiten verkaufen wuerde.
Ich hab das mal überschlagsweise berechnet. Und wenn die aktuellen Yieldraten stimmen, bekäme man nach Beschneidung auf die halbe Einheitenzahl immer noch mehr als 4-mal soviele Chips raus als wenn man Chips mit der halben Einheitenzahl nativ fertigen lässt.
Sofern Nvidia auf 75% der Einheitenzahl beschneidet, komme ich auf die gleiche Yieldrate wie beim RV740 ohne Beschneidung (jeweils 25% bei der von mir angesetzten Defektdichte von 0,9/cm²). Allerdings komme ich bei voller Einheitenzahl nur auf eine erbärmliche Yieldrate von 1% sofern die ~25% beim RV740 stimmen und beide GPUs keine zusätzlichen Redundanzen aufweisen.
AMD müsste theoretisch sogar auf über 50% Yieldrate mit dem RV740 kommen, wenn sie sich zu einer abgespeckten Variante mit 560 statt 640 SPs und 28 statt 32 TMUs hinreißen lassen.

YfOrU
2009-07-02, 21:47:07
Die 4770 im Notebook würde ich als High-End Lösung bezeichnen denn ein großer Unterschied zu 4850 und 9800 mobile besteht auf der Leistungsseite nicht. Vorteil ist klar der geringer Energiebedarf und damit auch eine geringere Abwärme.

Das die 4770 in der Mobilvariante ähnlich günstig wie das Desktopprodukt wird glaube ich aber ehrlich gesagt weniger. Gerade deshalb ist es etwas verwunderlich das kein Endprodukt am Markt verfügbar ist.


Problematisch bei derart großen Chips wie dem GT300 und einem Prozess mit vielen Defekten ist doch das viele Dice damit gleich mehrere aufweisen und komplett unbrauchbar sind.

Spasstiger
2009-07-02, 22:48:30
Die 4770 im Notebook würde ich als High-End Lösung bezeichnen denn ein großer Unterschied zu 4850 und 9800 mobile besteht auf der Leistungsseite nicht. Vorteil ist klar der geringer Energiebedarf und damit auch eine geringere Abwärme.

Das die 4770 in der Mobilvariante ähnlich günstig wie das Desktopprodukt wird glaube ich aber ehrlich gesagt weniger. Gerade deshalb ist es etwas verwunderlich das kein Endprodukt am Markt verfügbar ist.
Wir reden wohl aneinander vorbei. Ich sage: Der RV740 im Notebook ist High-End und High-End-Grafik im Notebook findet nicht gerade reißenden Absatz. Eine gute Mainstream-Karte für den Desktop verkauft sich dagegen wie warme Semmeln. Ergo ist es logisch, dass AMD erstmal den Desktopmarkt angepeilt hat in der Hoffnung, dass die Yields rasch besser werden.

Ich habe übrigens mal eine kleine Rechnung angestellt zur Yieldrate und den Dice pro Wafer beim RV740 und beim GT300:

http://www.abload.de/img/yield_gt3001vqi.png

http://www.abload.de/img/yield_gt300_2fwk6.png

Unter TPC verstehe ich einen Cluster aus SPs und TMUs. Im Fall des GT300 sind es 32 SPs und 8 TMUs pro TPC. Bei AMD 80 SPs und 4 TMUs. ROP/SI dürfte klar sein. Ich gehe davon aus, dass man jeden TPC und jede ROP-SI-Partition beim GT300 im Fall von Defekten einzeln deaktivieren kann. Bei der Anzahl von Dice pro Wafer berücksichtige ich zusätzlich noch den Randverschnitt (300-mm-Wafer).

/EDIT: Grafiken korrigiert.

Gast
2009-07-03, 00:34:09
Die Graphen sind unrealistisch, da sie afaik noch nie bestätigt wurden. Da sie ein Firmengeheimnis darstellen hat bisher noch kein normal sterblicher eine echte GPU-Wafer Chart gesehen, geschweige denn Jemals den Yield von Intel auch nur erraten ;)
Außerdem weiß niemand, wieviele ROPs (wenn man sie noch so nennen wird) ein GT300 haben wird.

turboschlumpf
2009-07-03, 02:29:20
Der RV740 im Notebook ist High-End und High-End-Grafik im Notebook findet nicht gerade reißenden Absatz.High-End erzielt aber eine höhere Marge, was auch aufgrund des schlechten Yields sicher nicht verkehrt wäre.

Eine gute Mainstream-Karte für den Desktop verkauft sich dagegen wie warme Semmeln.Die hohe Nachfrage erkauft sich AMD durch eine geringere Marge, kann diese Nachfrage aufgrund des schlechten Yields aber gar nicht bedienen.

KonKorT
2009-07-03, 03:31:17
Kennst du Jemanden, der sich ein Notebook mit High-End-Grafik kaufen würde? Außer ein paar Leute hier im Forum weiß ich von Niemanden, der sich ein Notebook mit High-End-Grafik kaufen würde.
Ich war heute seit längerer Zeit mal wieder bei Media Markt und ich war stark überrascht. Von den etwa 30 ausgestellten Notebooks kosteten mindestens die Hälfte mehr als 1000 EUR und waren dementsprechend ausgestattet. Sie hatten sogar ein Modell mit HD 4870 X2.

Das soll nur zeigen, dass offenbar der potentielle Kundenkreis doch etwas höher ist als hier im Forum, wenngleich wir natürlich unbestritten von einer Nische sprechen.
Im Desktop-Segment findet so eine Mainstream-Lösung deutlich mehr Absatz, dafür sind aber auch die Gewinnmargen geringer, wie turboschlumpf bereits richtigerweise anmerkte.

Und um zum Thema des Threads zurückzukommen: Es sieht wirklich so aus, als steckte TSMC noch tiefer im Sumpf als gedacht. Das fällt natürlich auch auf die beiden Next-Generation-Chips zurück. So wie es jetzt aussieht, will ich für keinen DirectX 11-Chip mehr garantieren, dass er zeitig kommt. Wenn TSMC so weitermacht, können AMD und Nvidia ihre Roadmaps abändern.

Coda
2009-07-03, 03:31:35
Die Graphen sind unrealistisch, da sie afaik noch nie bestätigt wurden.
Was gibt's da zu bestätigen? Es geht darum wieviele Chips einer bestimmten Größe statistisch funktionsfähig auf einem Wafer herauskommen abhängig von der Anzahl der Punktdefekte (z.B. bei angenommener Poisson-Verteilung).

Da braucht man keine "Industriegeheimnisse" dafür. Das ist reine Mathematik.

Ailuros
2009-07-03, 07:44:16
Ich muss Spasstiger gratulieren fuer die Muehe die er sich gegeben hat, nur leider verstehe ich als Laie erstmal nur Bahnhof von den huebschen Graphen.

Kann jemand ein bisschen Zeit verschwenden und ein bisschen etwas erlaeutern?

Spasstiger
2009-07-03, 08:29:52
Die Graphen sind unrealistisch, da sie afaik noch nie bestätigt wurden.
Es ist eine pessimistische Abschätzung von mir auf Basis der Formeln, die ich an der Uni gelernt hab (Poisson-Verteilung der Defekte). Ich berücksichtige nur einen Defekt pro Baugruppe, weil mehrere Defekte die Rechnung extrem verkomplizieren und am Ergebniss nicht viel ändern. Dadurch, dass ich nur max. einen Defekt pro Baugruppe berücksichtige, ist die Abschätzung pessimistisch (wenn ich mehrere Defekte pro Baugrupppe zulasse, ist die Wahrscheinlichkeit für funktionierende benachbarate Baugruppen größer => Poisson-Verteilung).
Außerdem gehe ich davon aus, dass außer den möglichen Beschneidungen keinerlei Redundanzen vorgesehen sind, was die Schätzung auch pessimistisch macht.
Und ich mache keinerlei Abschätzung bezüglich der Tauglichkeit für bestimmte Taktraten, weil mir dazu das theoretische Wissen fehlt.

@Ailuros: Die Achsenbeschriftungen und die Legende sind doch selbsterklärend. Defektdichte heißt, wieviele Defekte auf dem Wafer im Mittel pro cm² bei Annahme einer Poisson-Verteilung auftreten. Das ist eine der wichtigsten Kenngrößen von Fertigungsprozessen.

pest
2009-07-03, 08:47:18
wie ist denn der Erwartungswert deiner Verteilung?

Spasstiger
2009-07-03, 09:01:31
wie ist denn der Erwartungswert deiner Verteilung?
Defektdichte * Chipfläche.
Beispiel: Ein Chip ist 500 mm² = 5 cm² groß und die Defektdichte liegt bei 1 Defekt/cm². Dann ist der Erwartungswert 5 Defekte.

AffenJack
2009-07-03, 09:05:11
Nen Grafikchip hat aber auch noch Teile, die sich nicht deaktivieren lassen, wo dann der ganze chip im Müll landet oder nicht? Da biste zwar mit der Verteilung etwas pessimistisch, aber mit der Flexibilität dafür etwas zu optimistisch. Weiß nicht, wie schwer es ist das noch in den Graphen einzubringen ist, aber das müsste die Yield auch nochn gutes stück drücken.

Spasstiger
2009-07-03, 09:07:55
Nen Grafikchip hat aber auch noch Teile, die sich nicht deaktivieren lassen, wo dann der ganze chip im Müll landet oder nicht?
Das ist schon berücksichtigt. TPCs + ROP/SI-Partitionen machen bei mir nicht die gesamte Chipfläche aus. Im Restbereich darf in meiner Rechnung nie ein Defekt auftreten.

BlackBirdSR
2009-07-03, 09:39:24
hmm jetzt reden wir aber nur von fatalen Punktdefekten oder?
Von Signalführung, Rauschen, Schichtdicken unter Spec und Schwachstellen ist der Graph nicht berührt richtig?
Wir wissen ja immernoch nicht, wo das Problem wirklich liegt.

Spasstiger
2009-07-03, 11:31:31
hmm jetzt reden wir aber nur von fatalen Punktdefekten oder?
Richtig, Staubkörnchen oder punktuelle Materialfehler. Mehr kann ich mit meinem Wissen auch nicht theoretisch analysieren.

AffenJack
2009-07-03, 12:14:31
Aber auch die anderen Fehler sollten solch einen Graphen nicht so stark verändern. Es wären am Ende auch nur Wahrscheinlichkeiten für verschiedene Fehler. Der Verlauf sollte da ähnlich sein, hauptsächlich sollte es Verschiebungen geben. Aber genau soll der Graph sowas auch nicht darstellen. Er ist gut genug um zu zeigen, dass auch ein großer Chip, wenn er flexibel und in verschiedenen Teilen Teildeaktivierbar ist, nicht unbedingt eine viel geringere Yield als nen kleiner Chip haben muss.

reunion
2009-07-03, 12:33:17
Aber auch die anderen Fehler sollten solch einen Graphen nicht so stark verändern. Es wären am Ende auch nur Wahrscheinlichkeiten für verschiedene Fehler. Der Verlauf sollte da ähnlich sein, hauptsächlich sollte es Verschiebungen geben. Aber genau soll der Graph sowas auch nicht darstellen. Er ist gut genug um zu zeigen, dass auch ein großer Chip, wenn er flexibel und in verschiedenen Teilen Teildeaktivierbar ist, nicht unbedingt eine viel geringere Yield als nen kleiner Chip haben muss.

Naja, man sollte nicht vergessen das auch ein kleiner Chip Redundanz haben kann und Teildeaktivierbar ist, das wird in dem Graph ja nicht dargestellt wie es sich bei RV740 dann verhalten würde.

Gast
2009-07-03, 12:47:20
Weil es keine Karte mit teildeaktiviertem RV740 gibt.

reunion
2009-07-03, 13:09:04
Weil es keine Karte mit teildeaktiviertem RV740 gibt.

Ja, das wäre aber allemal eine Option wenn es die Yields merklich verbessern würde. Auch wird dabei ja keine Redundanz berücksichtigt, welche vielleicht hoch genug ist um auf deaktivierungen zu verzichten.

BlackBirdSR
2009-07-03, 13:15:30
Ja, das wäre aber allemal eine Option wenn es die Yields merklich verbessern würde. Auch wird dabei ja keine Redundanz berücksichtigt, welche vielleicht hoch genug ist um auf deaktivierungen zu verzichten.


Wenn ich z.B. ein Schickdickenproblem oder ein Problem mit nicht ausreichend widerstandsfähigen Oxidschichten etc habe, dann fallen mir die Chips reihenweise aus, egal wieviel ich davon deaktiviere.

Ein einziger Tipp, an welcher Stelle oder bei welche Verfahrensschritt das Problem festgemacht werden kann, würde uns schon etwas weiter bringen.

Spasstiger
2009-07-03, 13:20:44
@BlackBirdSR: Hast du denn einen groben Anhaltspunkt für die Defektdichte (Punktdefekte) bei TSMC in verschiedenen Prozessen? Ist diese im 40-nm-Prozess deutlich höher als bei den vorigen Prozessen?
Meine Grafiken legen ja nahe, dass die Defektdichte momentan im Bereich von 1 Defekt/cm² liegen könnte. Intel fertigt soweit ich weiß üblicherweise mit Defektdichten unter 0,1 Defekten/cm². Das wäre eine Größenordnung weniger. In der Vorlesung haben wir für einen 65-nm-Prozess immer 0,5/cm² angenommen. Wenn man ein paar Anhaltspunkte für die Defektdichten bei TSMC hätte, wäre einem schon sehr geholfen. Aber vermutlich sind das Daten, die unter keinen Umständen an die Öffentlichkeit gelangen dürfen.

V2.0
2009-07-03, 13:35:17
Wenn ich z.B. ein Schickdickenproblem oder ein Problem mit nicht ausreichend widerstandsfähigen Oxidschichten etc habe, dann fallen mir die Chips reihenweise aus, egal wieviel ich davon deaktiviere.

Ein einziger Tipp, an welcher Stelle oder bei welche Verfahrensschritt das Problem festgemacht werden kann, würde uns schon etwas weiter bringen.

Alle Reports deuten ja daraufhin, dass die defekten Chips praktisch tot sind, während die funktionalen wohl meist gut funktionieren.

Grestorn
2009-07-03, 14:20:16
Alle Reports deuten ja daraufhin, dass die defekten Chips praktisch tot sind, während die funktionalen wohl meist gut funktionieren.;D

Darf ich das in meine Signatur packen?

(Weiß schon, was Du meintest, der Satz ist nur einfach klasse aus dem Kontext genommen...)

BlackBirdSR
2009-07-03, 16:10:51
@BlackBirdSR: Hast du denn einen groben Anhaltspunkt für die Defektdichte (Punktdefekte) bei TSMC in verschiedenen Prozessen? Ist diese im 40-nm-Prozess deutlich höher als bei den vorigen Prozessen?



Nein leider nicht - und selbst wenn ich hätte... wie du schon sagtest.
Es wäre hat wirklich interessant zu erfahren, wo im Fertigungsprozess das Problem liegt. Erzeugt die Abscheidung das Problem, werden die Wafer beim Polieren beschädigt oder erzeugen jetzt plötzlich Slurry-Reste Defekte, die vorher nie ein Problem waren? Ist vielleicht in der Library bereits ein Fehler enthalten, der generell zu stark erhöhter Ausfallrate im Burn-In sorgt?
TSMC hat ja bereits ICs gefertigt und dabei Yields erreicht, die eine generelle Kontamination der Oberflächen durch was auch immer ausschließt. Der neue Prozess wird nicht plötzlich massiv Punktdefekte durch ungewollten Partikeleintrag erzeugen, der bisher einfach nicht vorhanden war. Darum bin ich so versteift auf Probleme mit den einzelnen Fertigungsschritten oder einer bestehenden Defektquelle, die so vorher keinerlei definierbare Auswirkung gezeigt hat.
Ich kenne auch 200nm Prozesse wo es heißt: Uh hab ich doch glatt 20.000 Defekte gemessen, Auswirkungen sehe ich für die Chips aber keine. Passe ich meine Messung eben so an, dass es 100 Defekte sind und gut ists. Aber dann, wenn man auf 150nm umgestellt hat....

Ailuros
2009-07-04, 06:36:44
Solche Einzelheiten sind mir persoenlich nicht bewusst, aber es wuerde mich kein bisschen wundern wenn TSMC am Ende doch ein ernsthaftes Prozentual an z.B. Globalfoundries verliert.

Ich glaube zwar nicht dass jegliche Probleme etwas miteinander zu tun haben aber die Intervalle wo ein jeglicher full oder half node abkackt sind nicht gerade klein (130, 80, 40nm) und die IHVs koennen auch nicht jedesmal Lotterie spielen auf welchen zukuenftigen Prozess man setzen will und welchen nicht um jeglichem Risiko zu entgehen.

Unter anderen Umstaenden haette momentan ATI ihre gesamte RV7x0 Produkt-palette (RV790 inklusive) auf 40nm auf den Regalen haben koennen und auch Mitte Sommer einige X11 Produkte und NV muesste sich auch nicht die Finger wundbluten um nur ein paar mobile chips auf den Markt druecken zu koennen. Hingegen hat man die GT21x@40nm Familie serioes kastrieren muessen und man dreht Daeumchen wann man einen sonst fertigen X11 chip endlich in Massenproduktion schicken kann.

Komischerweise sind Aspekte wie die area und Stromverbrauch um einiges wichtiger in den eingebetteten Maerkten aber die Mehrzahl der integrierten ultra-mini Grafikcores fuer 2009 werden immer noch unter 65nm hergestellt und erst 2010 wird hier das 45nm Jahr sein.

Alles zusammengefasst wundere ich mich wie sicher sich beide IHVs ueber jegliches moegliche Risiko mit sehr neuen Herstellungsprozessen genau sind. GF wird auch keinen Zauberstab haben und ich kann mir nicht vorstellen dass auch bei diesen in der Zukunft nicht alle 2-3 Prozesse einmal ein full oder half node Probleme aufweisen koennte.

Wuge
2009-07-04, 12:29:10
Mal ne Frage, hier kennen sich ja einige ganz gut aus.

In welcher Hinsicht ist z.B. Intels 45nm Prozess für GPUs ungeeignet? Damit meine ich grundsätzlich, physikalische Eigenschaften oder wie man das nennen mag. Dass man Anpassungen vornehmen müsste ist klar.

Weiß hier jemand, wie sich die aktuellen Porzesse von TSMC (vom derzeitigen Problem abgesehen), GF, Intel im Hinblick auf Leckströme, Schaltgeschwindigkeiten, Kosten und Yields unterscheiden und wo die jeweiligen Stärken und Schwächen liegen?

Würde mich mal interessieren.

=Floi=
2009-07-04, 13:38:42
aufträge von ati an GF könnten auch eine forderung der araber sein, damit diese eben auch eine gewisse grundlast der FABs haben und dadurch die ganze sache rentabler für diese leute wird. Ati wäre damit auch der tester und vorläuder für die anderen bulk prozesse.
ist eine reine spekulation, aber eben auch eine möglichkeit. Oder TSMC für das teure zeug und mit GF werden die ganzen billigchips gefertigt.


---
noch eine andere frage
war auch ein schlechter prozess der grund für die verspätung der X1800 und deren hoher stromverbrauch? kann noch jemand sagen, wann noch der prozess grund für eine verzögerung war? Ich dachte immer nur die IHVs hätten probleme mit dem entwickeln des chips.

Hugo
2009-07-04, 13:55:15
---
noch eine andere frage
war auch ein schlechter prozess der grund für die verspätung der X1800 und deren hoher stromverbrauch? kann noch jemand sagen, wann noch der prozess grund für eine verzögerung war? Ich dachte immer nur die IHVs hätten probleme mit dem entwickeln des chips.


Wenn mich nicht alles täuscht war doch der 130nm Prozess für die Verspätung des NV30 mit verantwortlich.
Seit dem Debakel is NV doch vorsichtiger mit dem Prozess geworden und hat High-End im bewärten "alten" Prozess gefertigt und erst mit Low-End den "neuen" Prozess angetestet.

Triskaine
2009-07-04, 14:59:58
aufträge von ati an GF könnten auch eine forderung der araber sein, damit diese eben auch eine gewisse grundlast der FABs haben und dadurch die ganze sache rentabler für diese leute wird. Ati wäre damit auch der tester und vorläuder für die anderen bulk prozesse.
ist eine reine spekulation, aber eben auch eine möglichkeit. Oder TSMC für das teure zeug und mit GF werden die ganzen billigchips gefertigt.


---
noch eine andere frage
war auch ein schlechter prozess der grund für die verspätung der X1800 und deren hoher stromverbrauch? kann noch jemand sagen, wann noch der prozess grund für eine verzögerung war? Ich dachte immer nur die IHVs hätten probleme mit dem entwickeln des chips.

Zum Oberen:

Es ist vertraglich festgelegt das ATi einen unbekannten (da im Vertrag ausgeschwärzt) Anteil ihrer GPUs bei GF fertigen werden MUSS. Auch als ihr Asset Smart Plan bekanntgegeben haben war deutlich davon die Rede das der Anteil der bei TSMC gefertigten Produkte zurückgehen würde.

Zum Unteren:

Die Ursache für die Verspätung des R520 bzw. der X1800XT war ein Bug in einer der 90nm Programmbibliotheken die ATi lizensiert hatte und der sehr schwer aufzuspüren war, da er erst ab einem bestimten Takt auftrat. Das Beheben das Bugs hat dann nur ein paar Stunden gebraucht. Das er relativ viel Strom gesoffen hat hing damit zusammen das es einfach ein komplexer und großer Chip war.

BlackBirdSR
2009-07-04, 15:04:07
Mal ne Frage, hier kennen sich ja einige ganz gut aus.

In welcher Hinsicht ist z.B. Intels 45nm Prozess für GPUs ungeeignet? Damit meine ich grundsätzlich, physikalische Eigenschaften oder wie man das nennen mag. Dass man Anpassungen vornehmen müsste ist klar.




Warum soll er ungeeignet sein? Intel nutzt seine alten Prozesse auch für Chipsätze mit integrierten Grafikchips. Intel hat wahrscheinlich den besten Prozess in der Industrie, dicht gefolgt von AMD (jetzt GF) und IBM. Würde Intel Aufträge von Fremdkunden annehmen, man würde ihnen sicherlich die Bude einrennen.

Allerdings liegt das Problem bei den Anpassungen. Das kostet, Intel wird auch nicht so viele Kapazitäten frei geben wollen und Intels Prozesse sind immer auf ihre CPUs hin optimiert. Da wird man für den Kunden XY nicht eine Ausnahme machen oder sich 5% Leistung nehmen lassen, damit die Kunden bessere Ergebnisse erzielen.

turboschlumpf
2009-07-04, 15:37:12
TSMC 40nm process is good to go

[...]

Quelle: http://www.semiaccurate.com/2009/07/03/tsmc-40nm-process-good-go/..

V2.0
2009-07-04, 16:53:15
Relevant is eher das: "If all goes well, we could see Juniper and Cypress at retail in September, easily beating the promised Windows Me II SP7 launch date. GT300 is currently slated for a mid-July tapeout, but unless the stars align, no less than 16 mid-level miracles occur, and most of the luck in Silicon Valley converges on NV HQ, you won't see it this year."

Und ich hoffe stark, dass es so eintritt. AMD kann den Boost brauchen.

turboschlumpf
2009-07-04, 16:56:47
Ich habe absichtlich nicht aus der langen Meldung zitiert, damit sich der interessierte Leser die Meldung selbst komplett durchliest. ;)

Gast
2009-07-04, 17:01:26
Schwachsinniger Post... hier brauch keiner der beiden IHVs "einen Boost" sondern gescheite Produkte. Mit denen kann man sich über Wasser halten bis die Nachfrage wieder steigt in 2010.
Bei nur 30% Yield über alle Produkte hinweg (IHV unabhängig?) ist das mal deftig in die Hose gegangen und da kann TSMC es sicher nicht "deixeln" wie es AMD in den Kram passt. Wenn GT300 später kommt, dann Garantiert auch RV870.

Ailuros
2009-07-05, 09:11:04
Beide IHVs kommen spaeter an als sie es gern haetten dank TSMC's 40nm. Die Frage ist lediglich ob es NV dieses Jahr noch schafft; hier teilen sich die Meinungen zwischen den diversen trash-tabloid Seiten.

Gast
2009-07-05, 09:25:06
Da werden wir wohl wieder einen Paperlaunch von NV sehen.

Ailuros
2009-07-05, 09:29:25
Warum soll er ungeeignet sein? Intel nutzt seine alten Prozesse auch für Chipsätze mit integrierten Grafikchips. Intel hat wahrscheinlich den besten Prozess in der Industrie, dicht gefolgt von AMD (jetzt GF) und IBM. Würde Intel Aufträge von Fremdkunden annehmen, man würde ihnen sicherlich die Bude einrennen.

Allerdings liegt das Problem bei den Anpassungen. Das kostet, Intel wird auch nicht so viele Kapazitäten frei geben wollen und Intels Prozesse sind immer auf ihre CPUs hin optimiert. Da wird man für den Kunden XY nicht eine Ausnahme machen oder sich 5% Leistung nehmen lassen, damit die Kunden bessere Ergebnisse erzielen.

Wenn ich mich nicht irre sind Intel's SoCs mit 32nm CPU + 45nm GPU fuer H2 vorgesehen?

Wenn ja aendert sich nicht besonders viel was die eigentlichen Veroeffentlichungszeiten betrifft zwischen 45nm Intel und 40nm TSMC und Intel hat bis jetzt nur LRB als GPU in der Planung wo wir immer noch nicht im Klaren sind ob dieses letztendes auf 45nm oder spaeter auf 32nm erscheinen wird. Ebenso soll LRB nach Angaben Probleme auf HW-Niveau haben, wo es auch nirgends klar ist ob diese Architektur- oder Herstellungs-Prozess bedingt sind.

Es koennte auch eine Mischung von beiden sein, denn es gibt schon einen Unterschied zwischen einer sagen wir mal 8mm2 eingebetten GPU und einem bis zu 600mm2 Grafik-chip.

Generell stimmt es aber dass Intel im Vergleich zu den anderen Semis die besten Herstellungsprozesse hat; dieses ist aber bis jetzt auch nur auf CPUs, chipsets und SoCs bis jetzt begrenzt. Ich hab jetzt keine genau Daten mehr Erinnerung aber Texas Instruments 65nm als Beispiel schluckt ziemlich mehr die area als bei Intel oder anderen Semis, es hat aber trotzdem TI nicht davon aufgehalten die groessten Verkaeufe im eingebetteten/mobile Markt zu landen. Klar hat NOKIA (TI's groesster Kunde) eine Vereinbarung mit Intel abgeschlossen, aber dieser heisst auch wieder nicht dass sie nicht weiterhin von TI einkaufen werden.

Intel versucht schon seit etlichen Jahren einen groesseren Durchbruch in diesen Maerkten zu machen, aber jeglicher Herstellungsprozess-Vorsprung scheint bis jetzt wohl doch nichts besonderes zu bringen.

Da werden wir wohl wieder einen Paperlaunch von NV sehen.

Wieder weil es generell ein Trend bei NV der sich ueber die Jahre immer wieder wiederholt?

Gast
2009-07-05, 12:25:05
Naja TIs Prozesse für die OMAPs & Co sind ja LowPower-Prozesse, da ist es normal das die Packdichte nicht so hoch ist wie bei Intels HighPerformance-Prozess.

Gast
2009-07-05, 14:52:43
Da werden wir wohl wieder einen Paperlaunch von NV sehen.
Wenn der Markt damit zufrieden ist.
Liegt auch gerade heftig im Trend.

Für NV wird es sich durchaus lohnen:
- Gute Presse für schnellste Karte
- hohe Preise für die paar Karten, statt ewig abzuwarrten und dann gleich in den nächsten heftigen Preiskampf einzusteigen

Gast
2009-07-05, 19:18:56
- hohe Preise für die paar Karten, statt ewig abzuwarrten und dann gleich in den nächsten heftigen Preiskampf einzusteigen
Das wird dann aber evil, wenn AMD mit der kompletten Produktlinie ankommt.

Huhamamba
2009-07-05, 22:11:00
Das wird dann aber evil, wenn AMD mit der kompletten Produktlinie ankommt.
Irrelevant. Für die wirklichen Hardcore-Enthuisiasten führt so oder so kein Weg an Nvidia vorbei, und nur die wird Nv zum Launch auch bedienen können.

Gast
2009-07-05, 22:36:39
Das wird dann aber evil, wenn AMD mit der kompletten Produktlinie ankommt.
Unfug. AMD kann keinen Hardlaunch präsentieren, wenn Nvidia nur Papier von TSMC bekommt.

Entweder machen beide einen Paperlaunch oder nur einer oder keiner.
Macht nur einer einen Paperlaunch und der andere wartet, so hat er Vorteile.

Gast
2009-07-06, 00:16:30
Mal so spekulativ: sollte es sich bewahrheiten, dass AMD/ATI TSMC bei der Verbesserung des Fertigungsprozesses ernsthaft geholfen hat, dann dürfte man TSMC im Gegenzug dafür schon ein paar Zugeständnisse abgerungen haben. Wie diese nun aussehen können...

LovesuckZ
2009-07-06, 00:22:25
Auch nVidia arbeitet eng mit TSMC zusammen.

Gast
2009-07-06, 00:22:41
Kann gern länger warten aber es ist längst Zeit für einen großen Performancesprung,denn es seit der 8800GTX nicht mehr gab.

Der_Korken
2009-07-06, 00:30:45
Kann gern länger warten aber es ist längst Zeit für einen großen Performancesprung,denn es seit der 8800GTX nicht mehr gab.

Und was war mit der GTX280? Die war immerhin 60-70% schneller als die 8800GTX. Große Sprünge wie die 8800GTX (oder die Radeon 9700 Pro) gibt es nunmal sehr selten.

BlackBirdSR
2009-07-06, 01:17:59
Auch nVidia arbeitet eng mit TSMC zusammen.

Ja natürlich und keiner wollte das Gegenteil unterstellen und dir damit auf die Füße treten. Man sprach nur von dem wenig interessanten Detail, dass AMD sehr viele Leute besaß (hoffentlich noch besitzt) die von Prozesstechnik weit mehr Ahnung haben, also die meisten ATi/Nvidia Mitarbeiter.

Eventuell konnte man hier den ein oder anderen Pluspunkt ergattern. Nicht mehr nicht weniger war gefragt, nicht im geringsten wurde NV hier schlecht gemacht. Kannst beruhigt sein.

LovesuckZ
2009-07-06, 01:46:03
Ja natürlich und keiner wollte das Gegenteil unterstellen und dir damit auf die Füße treten. Man sprach nur von dem wenig interessanten Detail, dass AMD sehr viele Leute besaß (hoffentlich noch besitzt) die von Prozesstechnik weit mehr Ahnung haben, also die meisten ATi/Nvidia Mitarbeiter.

Eventuell konnte man hier den ein oder anderen Pluspunkt ergattern. Nicht mehr nicht weniger war gefragt, nicht im geringsten wurde NV hier schlecht gemacht. Kannst beruhigt sein.

Ach wir schön, wenn ein Moderator blödsinn erzählt. Deckt dich Deekay? ;)
Wenn AMD soviel Erfahrung in der Prozeßtechnik für GPUs hätte - nunja, wieso lassen sie dann Fremdfertigen? :|
Aber hey, ist natürlich logisch, dass bei AMD mehr Leute arbeiten, die von der Fertigung bei TSMC Ahnung haben als nVidia. Muss wohl so sein, wenn man weniger als nVidia dort produziert, hat man dementsprechend auch mehr Zeit sich um die Fertigung zu kümmern.
Wie wäre es einfach auch als Moderator zu überlegen, was man schreibt? nVidia will am Ende des Jahres 1/4 aller Produkte in 40nm fertigen und arbeitet sehr eng mit TSMC zusammen.
Und nun gute Nacht - nicht jeder kann in diesem Forum zu dieser Zeit durch die Gegend trollen wie manche Moderatoren.

=Floi=
2009-07-06, 01:53:36
er redet von reiner prozesstechnik und da sollte amd eben noch ein paar fähige urgesteine haben. Das ist ja nicht schlecht, wenn man so einen fähigen mitarbeiter hier auch noch einsetzen kann und dieser seine erfahrung auch beim "neuen" GPU-bereich einbringt.

ansonsten werden eher die leute von TSMC bei ATI und NV tatkräftik mithelfen und hier support leisten. spart wieder kosten und die geheimnisse bleiben in der firma bzw. haben diese leute tieferen einblick in die eigenen przesse bei TSMC.

BlackBirdSR
2009-07-06, 02:14:28
Wenn AMD soviel Erfahrung in der Prozeßtechnik für GPUs hätte - nunja, wieso lassen sie dann Fremdfertigen? :|

Ich denke, jeder kann diese Frage beantworten. Ich finde es schade, dass du sie erst überhaupt stellst. In der Hand von AMD hatte man keine Kapazitäten (HW und Personal) für eine Umstellung, als GF hat man noch nicht genug Zeit und keinen Prozess (Stichwort SOI).


Aber hey, ist natürlich logisch, dass bei AMD mehr Leute arbeiten, die von der Fertigung bei TSMC Ahnung haben als nVidia. Muss wohl so sein, wenn man weniger als nVidia dort produziert, hat man dementsprechend auch mehr Zeit sich um die Fertigung zu kümmern.

Gut, dass mit AMD auch die Leute gemeint sind, die lange Zeit für den 2./3. besten Halbleiterprozess auf diesem Planeten verantwortlich waren.

Hugo
2009-07-06, 06:16:27
@BlackBirdSR, LovesuckZ
Ich weiß garnicht warum ihr streitet.
Jeder, egal ob NV oder AMD/ATI, wird fähige Prozess-Ing haben die versuchen ihr bestes zu geben.
Keiner hat genaue Zahlen wer wieviele Ing's bei TSMC hat also cool down ;) bei der Hitze

V2.0
2009-07-06, 07:16:57
NV hat aber, da sie nie eigene Fabs hatten, sicher kaum Erfahrungen bei der Umsetzung in die Massenproduktion gesammelt.
Es ist daher durchaus möglich dass AMD/ATI ihre Chips schneller an die Bedingungen des Prozesses anpassen konnten (auch weil sie kleiner sind) und dass man ihnen gewissen Vorteile gewährt.

Gast
2009-07-06, 18:07:38
Ati hatte auch keine tieferen Erfahrungen im Fertigungsprozess, schließlich wurden sie erst vor kurzem von AMD übernommen. Und da AMD seine Fertigungsstätten aus Kostengründen ausgegliedert hat, werden wohl auch die Ingenieure zu GF gewechselt sein. Zumal es ja auch größere Unterschiede in der GPU- bzw. CPU-Herstellung geben soll. Ich für meinen Teil würde mich freuen, wenn man bei GF in Zukunft auch für Ati und NV Chips herstellen würde, schließlich hängen dort auch deutsche Arbeitsplätze dran.

Gast
2009-07-06, 20:22:20
er redet von reiner prozesstechnik und da sollte amd eben noch ein paar fähige urgesteine haben.

Nein, die gehören jetzt zu GF und die sind nunmal Konkurrent von TSMC, da wird ganz sicher keiner dem TSMC Prozess auf die Sprünge helfen.

BlackBirdSR
2009-07-06, 20:41:14
Nein, die gehören jetzt zu GF und die sind nunmal Konkurrent von TSMC, da wird ganz sicher keiner dem TSMC Prozess auf die Sprünge helfen.

Nicht alle... wäre ja auch verrückt von AMD

Gast
2009-07-06, 21:36:03
Ich werf hier mal wieder ne andere These in den Raum : ATI und GF sind womöglich schon ein gutes Stück weiter in Sachen Przoess als man offiziel zugibt. Wie man in der kürze der Zeit an das Wissen gekommen ist, kann ich nicht sagen, jedoch dürfte es bei solchen Unternehmen und in der heutigen Zeit durchaus möglich sein größere Mengen an Know-how sich von anderen Unternehmen zu "holen".
Vll. schaffen sie es ja nicht für diese Generation, aber für die nächste könnte ich es mir gut vorstellen...
Denn ich könnte mir auch gut vorstellen, dass Intel ordentlich Interesse hätte NVIDIA eins ordentlich auf den Deckel zu geben, sollten sie versuchen Larabree im Profi-Segment Konkurrenz zu machen. Da könnte etwas Schützehilfe für ATI und GF seine gewünschte Wirkung nicht verfehlen, vor allem wenn TSMC auch bei den nächsten Prozessen Probleme bekommen sollte...
Außerdem gab es da doch mal Differenzen in Sachen SLI und Intel-Chipsätze. Vll. könnte man hiermit auch noch die ein oder andere Rechnung begleichen.

Man würde durch die Hilfe zwar AMD auch indirekt helfen, aber INTEL dürfte genügend Marktmacht haben, damit man das "ausbügeln" kann.

Alles ist nur mal als kleiner Denkanstoß gedacht, was so alles im Hintergrund laufen KÖNNTE.

deekey777
2009-07-06, 22:02:57
Ati hatte auch keine tieferen Erfahrungen im Fertigungsprozess, schließlich wurden sie erst vor kurzem von AMD übernommen. Und da AMD seine Fertigungsstätten aus Kostengründen ausgegliedert hat, werden wohl auch die Ingenieure zu GF gewechselt sein. Zumal es ja auch größere Unterschiede in der GPU- bzw. CPU-Herstellung geben soll. Ich für meinen Teil würde mich freuen, wenn man bei GF in Zukunft auch für Ati und NV Chips herstellen würde, schließlich hängen dort auch deutsche Arbeitsplätze dran.
Da weder ATi noch Nvidia selbst was fertigen, haben sie auch keine Erfahrung, was eigene Fertigungsprozesse angeht. Wo sie aber Erfahrung hätten, ist, wie man eigene Chips für fremde Prozesse konstruiert. Oder irre ich mich?

Gast
2009-07-06, 22:18:40
@anderer Gast:
Meinst du wirklich, Multi-Milliarden-Dollar-AGs lassen sich von so niederen Motiven wie Rachegelüsten leiten?

=Floi=
2009-07-06, 23:25:15
Ja

BlackBirdSR
2009-07-06, 23:29:41
@anderer Gast:
Meinst du wirklich, Multi-Milliarden-Dollar-AGs lassen sich von so niederen Motiven wie Rachegelüsten leiten?

Man sollte meinen, dass sich so "Multi-Milliarden-AGs" wie Intel nicht selbst intern in die Quere kommen und die Entwicklungsteams aktiv behindern. Aber genau das (ist) passiert. Bestes Beispiel sind die Aktionen um PentiumPro, P7, Pentium4 und IA64.

Man sollte es nicht glauben müssen, aber nicht immer läuft alles so rational ab...

Gast
2009-07-07, 10:23:43
Naja, es wurde ja auch geschrieben, dass es nicht nur Rache einer dieser Gründe wäre.

Gast
2009-07-14, 23:10:56
Da weder ATi noch Nvidia selbst was fertigen, haben sie auch keine Erfahrung, was eigene Fertigungsprozesse angeht. Wo sie aber Erfahrung hätten, ist, wie man eigene Chips für fremde Prozesse konstruiert. Oder irre ich mich?

Viele meinen das durch die Übernahme ATIs durch AMD jetzt endlich das "Know-How" der Fertigung da auch mit reinspielt. Das CPUs und GPUs sich dann doch etwas mehr unterscheiden als dem Laien lieb ist, wird hier alle 4 Wochen vergessen.

igg
2009-07-21, 08:41:26
Zum RV870 kursieren derzeit Meldungen, dass der Hardlaunch im November stattfinden soll (Verschiebung um 1 Monat).

Ist beim G300 bekannt, ob er sich ebenfalls verzögert? Wäre schon schön, wenn er dieses Jahr noch käme...

Gast
2009-07-21, 10:37:59
Hoffe kaum länger,damit man weiß welcher Firma man sein Vermögen überweist :)

LovesuckZ
2009-07-24, 20:30:23
Okay Guys, Fake oder kein fake?

http://pctuning.tyden.cz/images/stories/g300.png

http://translate.google.com/translate?u=http%3A%2F%2Fpctuning.tyden.cz%2Fcomponent%2Fcontent%2Farticle%2F1-aktualni-zpravy%2F14552-geforce-g300-jiz-za-par-tydnu&sl=cs&tl=en&hl=en&ie=UTF-8

Hm, niedriger Stromverbrauch, Launch am 1.10.2009 und Leistung auf dem Niveau einer übertakteten GTX295.

Nunja, ich schätze: Fake.

/edit: Das Bild entspricht wohl eher einer GTX280 und somit Fake.

Coda
2009-07-24, 20:33:01
Mal rein angenommen das stimmt:

480 ALUs würde bedeuten, dass sie einen Cluster abgeschalten haben. Das würde die Yields natürlich verbessern.

Aber ich gehe auch stark davon aus, dass es Bullshit ist. Weil 2x240 (GTX 280/285) = 480 und "Texture Fill Rate (billion/sec)" als Einheit ist Hirnmatsch ;)

Zudem zeigt das Bild eindeutig eine GTX 280.

AnarchX
2009-07-24, 20:37:08
Eine geringere Texelfüllrate als bei einer GTX 285 sieht doch absolut unglaubwürdig aus.
Zudem soll der Verbrauch unter dieser liegen, sodass 2x 6-Pin hier ausreichen sollte.

LovesuckZ
2009-07-24, 20:37:17
Zwischen dem 30.09 und 2.10 hält nVidia die GPU Technologie Konferenz. Hm, könnte ein guter Zeitpunkt sein, um die Karten zu präsentieren.

/edit: Ja, nVidia wird wohl kaum die Recheneinheiten verdoppelt, aber nicht die Texturleistung in Ruhe lassen.

crux2005
2009-07-24, 20:42:15
das Bild dient imho nur zur ilustration und wurde zu 100% aus diesem hier gemacht:
http://s4.directupload.net/images/090724/e7ttg4h2.jpg

btw: habe die News schon Heute morgen gelesen, weil mich ein Freund darauf hingewiesen hat. Er glaubt das gleiche was ich - die News ist ein fake, nur damit sie Pageviews haben. OBR hat auch letztes Jahr solche fake-news ueber GT200 geschrieben und eine News mit richtigen infos kam erst kurz vor dem Launch.

wozu eigentlich Translator? ;D

LovesuckZ
2009-07-24, 20:43:24
ich war zu faul, den richtigen Link anzugeben. Copy und Paste. ;)

Ailuros
2009-07-25, 06:42:05
Okay Guys, Fake oder kein fake?

http://pctuning.tyden.cz/images/stories/g300.png

http://translate.google.com/translate?u=http%3A%2F%2Fpctuning.tyden.cz%2Fcomponent%2Fcontent%2Farticle%2F1-aktualni-zpravy%2F14552-geforce-g300-jiz-za-par-tydnu&sl=cs&tl=en&hl=en&ie=UTF-8

Hm, niedriger Stromverbrauch, Launch am 1.10.2009 und Leistung auf dem Niveau einer übertakteten GTX295.

Nunja, ich schätze: Fake.

/edit: Das Bild entspricht wohl eher einer GTX280 und somit Fake.


1. 480 / 32 = 15
2. Der restliche Unsinn
3. Der Author ist der Kerl der stets vor jedem X Launch behauptet Benchmarks von pre-release hw hat aber nie bis jetzt etwas zeigen koennte.

....

Er hat lediglich den Nagel auf den Kopf getroffen was den Stromverbrauch betrifft, aber dieses klingt eher als dass er abgeschrieben hat als alles andere.

AnarchX
2009-07-27, 08:53:38
Performance of GTX 300

Following the RV870 gossip, the GTX 300 look at the latest rumors.

1. GTX 300 will certainly greatly exceed the performance of RV870, compared with the R800 also draw a question mark
2. GTX 300 will be invincible GX2 version of the universe, similar to GTX295, and draws a large extent, the new version of the GTX295 type
3. GTX 300 architecture G8x called for a thorough reform, "real DX11", no less than G80 to G70 Range
4. GTX 300 will definitely be there this year
After RV870 hearsay, has a look at the GTX 300 newest hearsays.

1. The GTX 300 performance will affirm that surmounts RV870 large scale, compares with R800 must mark a question mark
2. GTX 300 will have the universe invincible GX2 edition, will be similar in GTX295, and the very great degree has profited from the update GTX295 version
3. The GTX 300 constructions are known as to the G8x thorough innovation, “DX11, the scope is not inferior to G80 really” to G70 4. GTX 300 definitely will appear in the year
http://bbs.chiphell.com/viewthread.php?tid=50229&extra=page%3D1

igg
2009-07-27, 09:21:16
2. GTX 300 will be invincible GX2 version of the universe, similar to GTX295, and draws a large extent, the new version of the GTX295 type
Das versteh ich nicht...

AnarchX
2009-07-27, 09:30:35
Nochmal via Babelfish:
2. GTX 300 will have the universe invincible GX2 edition, will be similar in GTX295, and the very great degree has profited from the update GTX295 version

Eben wohl eine unbesiegbare GX2-Version, die von der Single-PCB-Bauweise profitiert hat/profitieren wird.
Aber das könnte wohl eher eine langfristige Planung sein bzw. der Notfallplan bei einem zu starken R800.

igg
2009-07-27, 10:08:52
Wenn sie die R800 nicht schlägt wäre es vermutlich ein (für Nvidia) ähnlich ungünstiges Kräfteverhältnis wie bei RV770/GT200, insb. im Hinblick auf Diesize.

AnarchX
2009-07-27, 10:26:20
Wenn R800 = 4x RV8x0(~180mm²) ist, dann wäre eine "Niederlage" mit einem 500mm² Die nicht so verwunderlich.

LovesuckZ
2009-07-27, 10:33:52
Man sollte bitte bedenken, dass AMD weitaus höhrere Hürden zu absolvieren hat, um ein konkurrenzfähiges Produkt zum GT300 zu haben als nVidia zum r800.
Sollte der GT300 so schnell wie der r800 sein und AMD hat kein anderes mGPU Konzept, dann haben sie verloren. Niemand kauft sich ein AFR mGPU produkt, wenn man vergleichbare Leistung mit einer sGPU erhalten kann. Und sollte der GT300 nur so schnell wie eine GTX295 sein, dann kann auch AMD einpacken, da dann selbst die sGPU Karten keine akzeptable Leistung erreichen.

Nakai
2009-07-27, 10:47:29
Und sollte der GT300 nur so schnell wie eine GTX295 sein, dann kann auch AMD einpacken, da dann selbst die sGPU Karten keine akzeptable Leistung erreichen.

Achso wie beim GT200? Der war ja auch etwa so schnell wie eine 9800GX2.

Wir wissen nicht, was NV noch bringen wird. Evtl sehen wir sehr bald noch eine DX11-Midrangelösung, welche dann direkt gegen ATIs Performancechips gerichtet sein muss.

Wir wissen auch nicht, wie schnell die ATI-Chips sein werden. Falls der GT300 mindestens 2.5fach so schnell wird, wie eine GTX285, wovon ich ausgehe, dann muss der RV870 um die GTX295 punkten um im Dualverband gegen den GT300 konkurrieren zu können.
Und dann wäre da noch das MGPU-Konzept, welche eventuell bei AMD verbessert sein könnte.

AMD müsste mit ihrem neuen Konzept mehr als die 3fache Leistung einer HD4890 bringen um einen theoretischen GT300 zu schlagen.


mfg Nakai

LovesuckZ
2009-07-27, 11:09:02
Achso wie beim GT200? Der war ja auch etwa so schnell wie eine 9800GX2.

So siehst aus. AMD's Erfolg lag an den niedrigen Preisen und nicht an der tollen Leistung. Diesen "Vorteil" werden sie jetzt nicht mehr haben. Sollte ihre beste sGPU nicht mindesten auf dem Niveau der GTX295/4870x2 liegen, dann haben sie ein riesiges Problem. Denn D3D11 hilft nicht, wenn viele Spiele unspielbar sind. Und wenn man mit der neuen Generation nicht Crysis mit AA und AF vernünftig spielen kann, dann verblasst D3D11 ziemlich schnell.

reunion
2009-07-27, 11:19:14
Und sollte der GT300 nur so schnell wie eine GTX295 sein, dann kann auch AMD einpacken, da dann selbst die sGPU Karten keine akzeptable Leistung erreichen.

Kannst du das auch so schreiben das dir auch ein Normalsterblicher Folgen kann? Aber vermutlich willst du das gar nicht. Wenn GT300 tatsächlich nur so schnell sein sollte wie eine GTX295 hat das auf RV870 genau was für einen Einfluss?

reunion
2009-07-27, 11:20:37
So siehst aus. AMD's Erfolg lag an den niedrigen Preisen und nicht an der tollen Leistung. Diesen "Vorteil" werden sie jetzt nicht mehr haben.

Warum?

V2.0
2009-07-27, 11:20:47
Einen sehr positiven, denn RV870 dürfte schneller sein.

LovesuckZ
2009-07-27, 11:24:40
Kannst du das auch so schreiben das dir auch ein Normalsterblicher Folgen kann? Wenn GT300 tatsächlich nur so schnell sein sollte wie eine GTX295 hat das auf RV870 genau was für einen Einfluss?

Das steht doch. Einfach nur lesen. Und wenn du es nicht kannst, dann lasse mich bitte in ruhe. :mad:

reunion
2009-07-27, 11:28:31
Einen sehr positiven, denn RV870 dürfte schneller sein.

Eben. Wenn einer verkackt ist das höchstens die Chance für den anderen davon zu ziehen.

Das steht doch. Einfach nur lesen. Und wenn du es nicht kannst, dann lasse mich bitte in ruhe. :mad:

Das ergibt leider keinen Sinn.

LovesuckZ
2009-07-27, 11:38:40
Das ergibt leider keinen Sinn.

Natürlich, wenn man mehr als nur ein Posting lesen würde. =)

BlackBirdSR
2009-07-27, 11:45:31
Ich bin immernoch skeptisch, was Multi-GPU betrifft. Wenn das jetzt nicht mehr als "geek", sondern als primäre Performance/High-Ende Variante antreten muss, dann führt das weitere Faktoren ein, die man eigentlich ungern hat.

Plötzlich sind Treiber wieder ein größeres Problem, Optimierungen der Spiele und dann hat Microsoft mit DX noch was mit zu reden.

Wenn die Sache dagegen weitgehend Kundentransparent ist, der also davon gar nichts mitbekommt, dann hat ATI gute Karten.

reunion
2009-07-27, 11:54:28
Ich bin immernoch skeptisch, was Multi-GPU betrifft. Wenn das jetzt nicht mehr als "geek", sondern als primäre Performance/High-Ende Variante antreten muss, dann führt das weitere Faktoren ein, die man eigentlich ungern hat.

Plötzlich sind Treiber wieder ein größeres Problem, Optimierungen der Spiele und dann hat Microsoft mit DX noch was mit zu reden.

Wenn die Sache dagegen weitgehend Kundentransparent ist, der also davon gar nichts mitbekommt, dann hat ATI gute Karten.

Die primäre Frage ist ohnehin nicht wie, sondern ob. Spekuliert wird schon lange darüber, bisher blieb es beim klassischen Performancechip plus X2. Allerdings gibt es neben den ganzen Spekus natürlich schon auch Anzeichen wie den Sideport, welche in diese Richtung deuten. Mal sehen.

BlackBirdSR
2009-07-27, 12:30:59
Die primäre Frage ist ohnehin nicht wie, sondern ob. Spekuliert wird schon lange darüber, bisher blieb es beim klassischen Performancechip plus X2. Allerdings gibt es neben den ganzen Spekus natürlich schon auch Anzeichen wie den Sideport, welche in diese Richtung deuten. Mal sehen.

Ist denn über den Sideport etwas bekannt? Bisher nahm ich das Ding als eine Designentscheidung wahr, die in eine Sackgasse lief und am Ende doch nicht das gebracht hat, was man sich erhofft hatte. Quasi ein Relikt einer früheren Entwicklungsstufe, deren Entfernen einfach mehr kostet als das Behalten. Hmm erinnert mich an den bestimmte andere Einheiten im ATI-Chip, die eigentlich nutzlos sind *hint hint*

Also um beim Thema zu bleiben. Warum hat Nvidia noch keineoffensichtlichen Ambitionen in diese Richtung gezeigt? Jedem ist ja klar, dass man nicht ewig beim monolithischen Design bleiben kann.

V2.0
2009-07-27, 13:07:46
Andere Ausrichtung.. Schaue ich in den Quadro-Bereich, dann dürfte ein 4-GPU-System auf GT300 Basis doch erhebliche Vorteile gegenüber einem theoretischem 16-Chip-System aus ATI GPUs haben.

Gast
2009-07-27, 13:22:14
Und dann wäre da noch das MGPU-Konzept, welche eventuell bei AMD verbessert sein könnte.
Achja, das selbe haben die etliche AMD Fans bis kurz vorm 4870 X2 Launch auch behauptet.
Selbst als die Bilder der Karte samt Bridge schon auf dem Tisch lagen wurde es behauptet.

Nakai
2009-07-27, 13:25:35
Achja, das selbe haben die etliche AMD Fans bis kurz vorm 4870 X2 Launch auch behauptet.
Selbst als die Bilder der Karte samt Bridge schon auf dem Tisch lagen wurde es behauptet.

Mhh, welches Datum ist heute? Und wann ist der Launch?
Mal schaun was kommt, wenn man mehr auf MGPU setzt, dann sollte dieses Konzept nicht unverbessert gelassen werden.


mfg Nakai

LovesuckZ
2009-07-27, 13:27:56
Also um beim Thema zu bleiben. Warum hat Nvidia noch keineoffensichtlichen Ambitionen in diese Richtung gezeigt? Jedem ist ja klar, dass man nicht ewig beim monolithischen Design bleiben kann.

Kannst du das erklären? Wieso sollte dieser Weg nicht ewig möglich sein?

Ailuros
2009-07-27, 13:29:44
Kannst du das auch so schreiben das dir auch ein Normalsterblicher Folgen kann? Aber vermutlich willst du das gar nicht. Wenn GT300 tatsächlich nur so schnell sein sollte wie eine GTX295 hat das auf RV870 genau was für einen Einfluss?

Falls die bisherigen G300 Spezifikationen stimmen sollten kann diese nicht gleich so schnell sein wie eine GTX295. Wenn man davon ausgehen wuerde dass sich gar nichts im Bereich der Effizienz geaendert hat ist selbst dann eine hypothetische G300 um >20% schneller als eine 295.

BlackBirdSR
2009-07-27, 13:29:58
Kannst du das erklären? Wieso sollte dieser Weg nicht ewig möglich sein?

Hab ich doch nicht gesagt. Falsch gelesen?

LovesuckZ
2009-07-27, 13:34:40
Hab ich doch nicht gesagt. Falsch gelesen?

Doch, habe:


Also um beim Thema zu bleiben. Warum hat Nvidia noch keineoffensichtlichen Ambitionen in diese Richtung gezeigt? Jedem ist ja klar, dass man nicht ewig beim monolithischen Design bleiben kann.

Ailuros
2009-07-27, 13:49:07
PowerVR hat sich fuer echtes multi-core mit ihrem MP entschieden in letzter Zeit fuer den eingebetteten Markt, aber auch nur IMO um den Abstand vom groessten single-chip bis zur naechsten Generation an chips decken zu koennen. Der quasi "Nachteil" ist dass man etwas mehr die area verbrutzelt bei einem MP (was aber auch nicht der Rede wert ist wenn die Konkurrenz ohnehin mehr die area bei weniger Faehigkeiten hat) und der grosse Vorteil dass die Leistung nahezu linear skaliert ohne jeglichen Treiber- oder SW-overhead. Sie bleiben aber trotz allem nach Konzept pro Generation zuerst auf single chip, welches NV aber parallelisiert auch macht; zuerst high end single chip und dann spaeter wenn es ein zukuenftiger Herstellungsprozess erlaubt multi-chip/GPU-wasauchimmer.

Theoretisch koennte NV sogar unter 40nm auf multi-chip gehen.

Gast
2009-07-27, 14:00:43
Mal schaun was kommt, wenn man mehr auf MGPU setzt, dann sollte dieses Konzept nicht unverbessert gelassen werden.

Für AMD ist die Skalierung der wichtigste Punkt.
Deshalb wird man sehen, das es für die "wichtigen" Anwendungen immer rechtzeitig gescheite Profile(d.h. Treiber) gibt.

Ob was anderes verbessert wird kann man daraus nicht ableiten.
Aber anhand der unschönen Eigenheit doppelt soviel VRAM verbauen zu müssen besteht auch hier ein gewiesser Handlungsbedarf.

Gast
2009-07-27, 14:46:12
eine hypothetische G300 um >20% schneller als eine 295.

Dass wäre wirklich enttäuschend,nach der langen Zeit wäre min 50% angesagt.

Gipsel
2009-07-27, 15:01:43
Wenn man davon ausgehen wuerde dass sich gar nichts im Bereich der Effizienz geaendert hat ist selbst dann eine hypothetische G300 um >20% schneller als eine 295.
Aber ein GT300 besitzt 20% weniger TMUs als eine GTX295. In nicht shaderlimitierten Szenarien (bei 4:1 ALU:TEX momentan halbwegs häufig) könnte das also schwierig werden. Und die Bandbreite sinkt im Vergleich zur GTX295 auch leicht. Da müssen also auch schon Verbesserungen her, um konsistente 20% Zuwachs zu erreichen.

Nightspider
2009-07-27, 15:04:31
Wo sinkt die Bandbreite ?

Denk 512 BIT SI und GDDR5 sollte der G300 doch ~doppelt soviel Speicherbandbreite haben wie die Gx2.

V2.0
2009-07-27, 15:04:39
Echt, wieviel TMUs hat denn ein GT300?

crux2005
2009-07-27, 15:12:36
joa, das ist noch offen... mehr oder weniger

Gipsel
2009-07-27, 15:13:05
Wo sinkt die Bandbreite ?

Denk 512 BIT SI und GDDR5 sollte der G300 doch ~doppelt soviel Speicherbandbreite haben wie die Gx2.
Der GDDR5 wird aber niedriger getaktet. Und die GTX295 hat 2 x 448 = 896 Bit. Bzw. gibt es auch diese inoffizielle Version mit 2 * 512 Bit.

Edit:
Ups, gerade gesehen, daß die GTX295 üblicherweise mit nur 1000MHz GDDR3, also deutlich niedriger als die single GPU-Karten ausgeliefert werden. Dann ist die Bandbreite bei GT300 (ich würde einfach mal 1GHz annehmen) doch ein klein wenig höher.
Echt, wieviel TMUs hat denn ein GT300?
128
16 TPCs mit je 4 SMs (je 8 Shader) und 8 TMUs
16 * 4 * 8 = 512 Shader
16 * 8 = 128 TMUs

Zumindest sind das die rumorierten Spezifikationen.

LovesuckZ
2009-07-27, 15:15:03
Bei durchschnittlichen 80% Skalierung hat der G(T)300 eine genauso hohe Texturleistung wie die GTX295. Die Bandbreite ist höher sowie die Rechenleistung. Ansonsten könnte er 64 ROPs haben - was wiederum mehr sind als 2x28.

/edit: Der G(T)300 wird in der besten Ausführung bestimmt keinen GDDR5 mit weniger als 1000MHz erhalten.

crux2005
2009-07-27, 15:18:01
Der GDDR5 wird aber niedriger getaktet. Und die GTX295 hat 2 x 448 = 896 Bit.

223 GB/s vs. 281 GB/s
welche Bandbreite hat die GTX 295 und welche die "GTX 380"?

und das ist sowieso nur der theoretische Wert... kann der G(T)300 nicht besser mit der Bandbreite umgehen?

Gipsel
2009-07-27, 15:21:14
Bei durchschnittlichen 80% Skalierung hat der G(T)300 eine genauso hohe Texturleistung wie die GTX295.Und bei 100% Skalierung eben 80%. Genau das habe ich gesagt.

Und jetzt komme nicht damit, daß man 100% Skalierung nicht erreicht. Das gilt genauso auch für eine Erhöhung der TMU-Anzahl.

Gipsel
2009-07-27, 15:22:29
und das ist sowieso nur der Teoretische Wert... kann der G(T)300 nicht besser mit der Bandbreite umgehen?
Das fällt schon unter Effizienzsteigerung ;)

LovesuckZ
2009-07-27, 15:22:33
Und bei 100% Skalierung eben 80%. Genau das habe ich gesagt.

100% Skalierung ist unsinnig und somit nichtmal als theoretischer Wert von Bedeutung.


Und jetzt komme nicht damit, daß man 100% Skalierung nicht erreicht. Das gilt genauso auch für eine Erhöhung der TMU-Anzahl.

mGPU auf AFR ist wesentlich ineffizienter als die Erweiterung einer sGPU. Bei zweiterer kann man von theoretischen Werten ausgehen, bei erster nicht. Es ist unsinnig hier zu behaupten, der G(T)300 hätte bei Annahme von 16x8 eine geringere Texturleistung, da AFR nur in ganz wenigen Anwendungen zu 100% skaliert.

crux2005
2009-07-27, 15:25:51
im Endefekt ist der MTexel/s Unterschied noch kleiner, weil die TOP G(T)300 Grafikkarte auch einen höheren TMU-Takt haben soll

Gipsel
2009-07-27, 15:26:37
100% Skalierung ist unsinnig und somit nichtmal als theoretischer Wert von Bedeutung.
Die Antwort habe ich doch mal glatt antizipiert und oben schon vorsorglich eine Erwiderung reineditiert ;)

Ailuros
2009-07-27, 15:34:53
Dass wäre wirklich enttäuschend,nach der langen Zeit wäre min 50% angesagt.

Nochmal vorsichtig durchlesen; ich sagte wenn es KEINE Effizienz-Steigerungen im "G300" geben wuerde.

Aber ein GT300 besitzt 20% weniger TMUs als eine GTX295. In nicht shaderlimitierten Szenarien (bei 4:1 ALU:TEX momentan halbwegs häufig) könnte das also schwierig werden. Und die Bandbreite sinkt im Vergleich zur GTX295 auch leicht. Da müssen also auch schon Verbesserungen her, um konsistente 20% Zuwachs zu erreichen.

Ich kann mir schwer vorstellen dass selbst die 80 TMUs einer 285 in heutigen Spielen limitieren koennten. Was jetzt die Bandbreite betrifft sind es wirklich X GB/s insgesamt oder eher pro Frame?


128
16 TPCs mit je 4 SMs (je 8 Shader) und 8 TMUs
16 * 4 * 8 = 512 Shader
16 * 8 = 128 TMUs

Zumindest sind das die rumorierten Spezifikationen.

Kannst Du Dir unter angeblichen 512SPs etwas anderes vorstellen?

Gipsel
2009-07-27, 15:37:58
mGPU auf AFR ist wesentlich ineffizienter als die Erweiterung einer sGPU. Bei zweiterer kann man von theoretischen Werten ausgehen, bei erster nicht. Es ist unsinnig hier zu behaupten, der G(T)300 hätte bei Annahme von 16x8 eine geringere Texturleistung, da AFR nur in ganz wenigen Anwendungen zu 100% skaliert.
Also nochmal für Dich. Ich habe (im Gegensatz zu Dir) explizit von der Anzahl der TMUs gesprochen. Du kannst ja gerne Deine Schlüsse für die Texturierleistung ziehen, aber dann mußt Du auch noch den Takt und eventuelle Verbesserungen beim Design einbeziehen ;)

Und das AFR nur in sehr wenigen Fällen zu 100% skaliert ist genauso eine wahre Aussage wie z.B. daß auch längst nicht alle Szenarien durch die TMUs limitiert werden und damit eine Steigerung der Frameraten nicht linear zur Anzahl der TMUs erfolgt.
In anderen Worten, in Füllratentests mag ja die gemessene Texturierleistung linear mit der TMU-Anzahl skalieren (genau wie AFR übrigens), in realen Spielen allerdings nicht mehr, auch (oder gerade!) bei einem monolithischem Design.

LovesuckZ
2009-07-27, 15:54:20
Also nochmal für Dich. Ich habe (im Gegensatz zu Dir) explizit von der Anzahl der TMUs gesprochen. Du kannst ja gerne Deine Schlüsse für die Texturierleistung ziehen, aber dann mußt Du auch noch den Takt und eventuelle Verbesserungen beim Design einbeziehen ;)

Ein mGPU System auf Basis von AFR hat eben nicht die doppelte Anzahl an Einheiten. Nur das Profil entscheidet, wie hoch die Skalierung sein wird - und das liegt zwischen 0 - 100%. 100% ist wesentlich utopischer als 0%.


Und das AFR nur in sehr wenigen Fällen zu 100% skaliert ist genauso eine wahre Aussage wie z.B. daß auch längst nicht alle Szenarien durch die TMUs limitiert werden und damit eine Steigerung der Frameraten nicht linear zur Anzahl der TMUs erfolgt.
In anderen Worten, in Füllratentests mag ja die gemessene Texturierleistung linear mit der TMU-Anzahl skalieren (genau wie AFR übrigens), in realen Spielen allerdings nicht mehr, auch (oder gerade!) bei einem monolithischem Design.

Du nimmst eine vollständige Limitierung der Texturleistung in deiner Behauptung an, um zu belegen, dass eine G(T)300 nur ca. 20% schneller sein könnte. Gleichzeitig negierst du den fakt einer immer vorhandenen Texturlimitierung.

crux2005
2009-07-27, 15:59:10
Kannst Du Dir unter angeblichen 512SPs etwas anderes vorstellen?

da die neue Architektur sehr sexi sein soll (:biggrin:), ja

Gipsel
2009-07-27, 16:02:34
Du nimmst eine vollständige Limitierung der Texturleistung in deiner Behauptung an, um zu belegen, dass eine G(T)300 nur ca. 20% schneller sein könnte.
Nein. Lesen und verstehen.
Gleichzeitig negierst du den fakt einer immer vorhandenen Texturlimitierung.Das ist die Realität, daß die Textureinheiten nicht immer limitieren. Ich negiere keinen Fakt, Du tust es ;)

LovesuckZ
2009-07-27, 16:08:35
Nein. Lesen und verstehen.
Das ist die Realität, daß die Textureinheiten nicht immer limitieren. Ich negiere keinen Fakt, Du tust es ;)

So wie das Profik limtiert. Du negierst das Profil als limtierenden Faktor bei der GTX295 genauso, wie du auf "nicht shaderlimitierende Szenarium" herumreitest.
Bei der GTX295 ist das Profil die Limitierung. Und dies kann man nicht mit "theoretischen Werten" aus der Betrachtrung herausziehen.

Ailuros
2009-07-27, 16:17:18
Absichtlicher Ablenker: will sich jemand wagen zu spekulieren wie viele ROPs?

LovesuckZ
2009-07-27, 16:21:56
64, wenn sie die Speicherbandbreite verdoppeln. Weiterhin 8 ROP-Partitionen, aber mit doppelt sovielen ROPs.

Gipsel
2009-07-27, 16:22:08
So wie das Profik limtiert. Du negierst das Profil als limtierenden Faktor bei der GTX295 genauso, wie du auf "nicht shaderlimitierende Szenarium" herumreitest.
Bei der GTX295 ist das Profil die Limitierung. Und dies kann man nicht mit "theoretischen Werten" aus der Betrachtrung herausziehen.
Noch ein paar mal nein.

Also wenn ich Dich richtig verstehe, willst Du bei Multi-GPU-Lösungen eine realistische Betrachtung der Skalierung der Performance mit der Einheitenzahl haben, aber für ein monolithisches Design betrachtest Du einen höchsttheoretischen Füllratentest um 100% Skalierung mit der TMU-Zahl zu belegen? Interessant! In so einem Test skaliert auch AFR zu 100%.

Mal ganz allgemein, um irgendwas zu verstehen, kann, ja muß man auch mal einzelne Aspekte unter Grenzfällen betrachten, damit am Ende allgemeingültige Aussagen rauskommen.

Nochmal btt, um Dir meine Eingangsthese ein wenig klarer zu machen, ich sprach davon, daß es ein GT300 mit den berichteten Spezifikationen schwer haben wird in allen Szenarien 20% schneller zu sein als eine GTX295, ohne das bisher unbekannte Änderungen am Design die Effizienz entsprechend steigern.

Gipsel
2009-07-27, 16:26:58
64, wenn sie die Speicherbandbreite verdoppeln. Weiterhin 8 ROP-Partitionen, aber mit doppelt sovielen ROPs.Das würde ich auch als eine Areal für eine angestrebte Effizienzsteigerung sehen. Für die Anzahl der ROPs performt eine GT200 bisher eher mittelprächtig.

LovesuckZ
2009-07-27, 16:27:43
Noch ein paar mal nein.

Also wenn ich Dich richtig verstehe, willst Du bei Multi-GPU-Lösungen eine realistische Betrachtung der Skalierung der Performance mit der Einheitenzahl haben, aber für ein monolithisches Design betrachtest Du einen höchsttheoretischen Füllratentest um 100% Skalierung mit der TMU-Zahl zu belegen? Interessant! In so einem Test skaliert auch AFR zu 100%.

Das Profil ist der limitierende Faktor. Eine texturleistungslimiterende Situation muss bei einem mGPU System auf Basis von AFR nicht zu 100% skalieren - im Gegensatz zu einem sGPU System mit 80% mehr Texturleistung und 100% mehr Speicherbandbreite.
Aussagen von theoretischer Natur für mGPU sind höchst gefährlich, da das Profil nie berücksichtig wird.


Mal ganz allgemein, um irgendwas zu verstehen, kann, ja muß man auch mal einzelne Aspekte unter Grenzfällen betrachten, damit am Ende allgemeingültige Aussagen rauskommen.

Abstraktion funktioniert bei AFR nicht, da es sich weiterhin um zwei einzelne Grafikkarten handelt.


Nochmal btt, um Dir meine Eingangsthese ein wenig klarer zu machen, ich sprach davon, daß es ein GT300 mit den berichteten Spezifikationen schwer haben wird in allen Szenarien 20% schneller zu sein als eine GTX295, ohne das bisher unbekannte Änderungen am Design die Effizienz entsprechend steigern.

Oh, ich glaube, viele können es verkraften, wenn es in einigen zwischen -10% und 20% schwankt und in anderen bei 50 oder 60% liegt. ;)

Das würde ich auch als eine Areal für eine angestrebte Effizienzsteigerung sehen. Für die Anzahl der ROPs performt eine GT200 bisher eher mittelprächtig.

Die Annahmen basieren auf was?

AnarchX
2009-07-27, 16:29:15
64, wenn sie die Speicherbandbreite verdoppeln. Weiterhin 8 ROP-Partitionen, aber mit doppelt sovielen ROPs.
Das wäre natürlich der einfachste Weg.
2013 will man jedoch bei 10 TeraZixel ankommen, sodass man vielleicht hier im Z-Tester-Bereich noch weiter erhöht oder eben eine höheren Takt als bei den restlichen ROPs ansetzt.

Ailuros
2009-07-27, 16:41:02
Nochmal btt, um Dir meine Eingangsthese ein wenig klarer zu machen, ich sprach davon, daß es ein GT300 mit den berichteten Spezifikationen schwer haben wird in allen Szenarien 20% schneller zu sein als eine GTX295, ohne das bisher unbekannte Änderungen am Design die Effizienz entsprechend steigern.

Nur wenn jemand andeutet dass Loesung A um X% schneller ist als Loesung B wird es stets Grenzfaelle geben wo das X Prozentual nicht eingehalten werden kann; und dieses kann sogar zu X=0 fuehren oder um einen um einiges groesseren Unterschied als X=20.

Ich versteh bei bestem Willen Eure Zankerei nicht, denn solche Einzelheiten wie oben sind meistens selbstverstaendlich. Nichtdestominder bewegt sich die ganze sinnlose Debatte lediglich rund um eine rein hypothetische "GTX285" mit 512SPs. Ich bestuecke nun diese auf rein theoretisches Basis mit 2GB GDDR5 ram@512bit und zaehle dann die Grenzfaelle wo ich den Speicher einer 295 vollstopfen kann oder all die moeglichen Faelle wo SLi nur maessiges oder fast gar nichts bringt, ohne jegliche "Effizienz-Steigerungen".

Gipsel
2009-07-27, 16:41:48
Das Profil ist der limitierende Faktor. Eine texturleistungslimiterende Situation muss bei einem mGPU System auf Basis von AFR nicht zu 100% skalieren - im Gegensatz zu einem sGPU System mit 80% mehr Texturleistung und 100% mehr Speicherbandbreite.
Aussagen von theoretischer Natur für mGPU sind höchst gefährlich, da das Profil nie berücksichtig wird.
Die Profile sind aber Software und damit bei Betrachtung der prinzipiellen Leistung (das ist auch im Selbstverständnis eine theoretische Betrachtung) der Hardware irrelevant ;) In der Praxis sieht es doch so aus, daß man ein Treiberupdate weiter durchaus deutliche Unterschiede beobachten kann.
Aber um bei Deinem Beispiel zu bleiben, ich würde es als höchst mutig bezeichnen, wenn Du für einer AFR Lösung in einem texturlimitiertem Szenario eine schlechtere Performance vorhersagst als einer Single-GPU Lösung mit 80% mehr Texturleistung einer Einzelkarte. Das kann durchaus auch auf etwa Gleichstand hinauslaufen. Und eine GT300 hat nur 60% mehr als eine GT200 bei gleichem Takt ;)
Abstraktion funktioniert bei AFR nicht, da es sich weiterhin um zwei einzelne Grafikkarten handelt.Abstraktion funktioniert immer, wenn man sich der Grenzen der Abstraktion bewußt ist ;)
Oh, ich glaube, viele können es verkraften, wenn es in einigen zwischen -10% und 20% schwankt und in anderen bei 50 oder 60% liegt. ;)Da stimmen wir überein. Allerdings war das nicht die Aussage meines Posts ;)
Die Annahmen basieren auf was?Performance-Vergleich mit anderen Karten mit weniger ROPs?

Gipsel
2009-07-27, 16:45:22
Ich versteh bei bestem Willen Eure Zankerei nicht, denn solche Einzelheiten wie oben sind meistens selbstverstaendlich.Da hast Du Recht. Eigentlich war meine Aussage völlig harmlos und wollte auch nicht die Performance der GT300 in Frage stellen.
Ich bin ja nur darauf eingegangen, weil LovesuckZ irgendwie daran vorbei argumentiert hat.

Ailuros
2009-07-27, 16:51:02
Koennt ich trotz allem bitten dass die eher alberne Meinungsverschiedenheit nachlaesst und wir zurueck auf's Thema kommen?

***edit: ....und als verantwortungloser Mod aendere ich meine vorrige Aussage und sage einfach dass eine hypothetische "G300" (falls die bisher angegebenen Specs stimmen blah blah blah) ohne jeglichen Effizienz-Steigerungen von sich aus zumindest gleich so schnell waere wie eine GTX295....

LovesuckZ
2009-07-27, 17:17:49
Die Profile sind aber Software und damit bei Betrachtung der prinzipiellen Leistung (das ist auch im Selbstverständnis eine theoretische Betrachtung) der Hardware irrelevant ;) In der Praxis sieht es doch so aus, daß man ein Treiberupdate weiter durchaus deutliche Unterschiede beobachten kann.

GTX295 ist AFR basierend und somit unterliegen theoretischen Betratungen auch immer der Profilproblematik.


Aber um bei Deinem Beispiel zu bleiben, ich würde es als höchst mutig bezeichnen, wenn Du für einer AFR Lösung in einem texturlimitiertem Szenario eine schlechtere Performance vorhersagst als einer Single-GPU Lösung mit 80% mehr Texturleistung einer Einzelkarte. Das kann durchaus auch auf etwa Gleichstand hinauslaufen.

Und wieso? Ich kann nicht davon ausgehen, dass das Profil hier zu 100% skaliert. Das wäre einfach falsch.


Abstraktion funktioniert immer, wenn man sich der Grenzen der Abstraktion bewußt ist ;)

Und endet bei AFR an den Profilen. Man kann AFR basierte mGPUs nicht soweit abstrahieren, dass sie zu jeder Zeit um 100% skalieren. Wer das macht, der ist sich nicht im Geringsten im Klaren, was diese Problem überhaupt bedeutet.


Performance-Vergleich mit anderen Karten mit weniger ROPs?

Die natürlich die selbe Architektur besitzen?

Gipsel
2009-07-27, 17:31:48
***edit: ....und als verantwortungloser Mod aendere ich meine vorrige Aussage und sage einfach dass eine hypothetische "G300" (falls die bisher angegebenen Specs stimmen blah blah blah) ohne jeglichen Effizienz-Steigerungen von sich aus zumindest gleich so schnell waere wie eine GTX295....
Wieso verantwortungslos? Das ist doch eine Friede, Freude, Eierkuchen Aussage ;)
Da könnte es dann (abhängig vom endgültigen Takt) wohl wirklich nur noch ein paar pathologische Grenzfälle geben.