Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GT400/GF100 - Q1/2010, DX11, CUDA 3.0
Oder die 60-70% der 448SPs-Version gegenüber einer GTX 285, sind schon so beindruckend genug für ein kurze Demonstration und das gesamte Potential, sofern es für 512SPs vernünftige Yields geben wird, hebt man sich für den finalen Launch auf.
In der Raytracing-Demo erreicht man auch "nur" einen Faktor 2,7, wo das Whitepaper von 3,5 bzw. Faktor 4 spricht.
Das könnte durchaus sein. Evtl. erlaubt sich nVidia tatsächlich den Spaß, erst einmal zu zeigen, dass man schneller als eine HD 5870 wird und lässt zum Release noch den wahren Hammer raus: "... bereits mit einer GTX 360 :tongue:." Sie hätten so keinerlei Nachteile, aber mal wieder einen enormen Überraschungsmoment auf ihrer Seite.
Bucklew
2010-01-20, 21:51:16
Nö, tut Fudzilla nicht. Sie wiederholen nur, dass es Gerüchte darum gibt und vermuten, dass die gezeigten Werte, davon unabhängig, trotzdem verbesserungswürdig sind, wegen: "as with driver and clock tweaking, Nvidia could pull few more frames per second from this beast."
Doch, lesen bildet:
"[...]there are rumours that the benchmarked card which everyone saw was either a cut-down version with 448 Stream Processors, or the underclocked 512SP version, while the retail version should end up with 512SP."
das glaub ich nicht, das würde heissen das die GTX3x0 wahre Overclock Krüppel werden, wenn es nvidia nichtmal schafft für kontrollierte Techsessions "kurz" vorher selektierte chips zu verteilen welche die geplanten final takte schaffen
Warum sollten sie? Es ist wohl besser alle erwarten nichts und dann gibt es einen Riesenknall (man errinnere sich an G80), als das alle unheimlich viel erwarten und dann kommt nichts. Die Karten sollen schnellstmöglich fertig werden und da sind Samples (gerade gute) besser im Labor aufgehoben als auf irgendwelchen Marketingshows.
naja währenddessen könnte der ein oder andere potentielle käufer aber schon die geduld verlieren und zum RV870 greifen
ausserdem gab es ja eh kaum realworld ergebnisse von daher wäre es egal ob das ding nun 448 oder 512 shader hätte
im endeffekt hast du recht wir wissen im prinzip nichts was das ding von der architektur auf die strasse bringt
der
g80 war eher nachhaotig, gegen die vorgänger GPUs aus eigenem Haus war es eine Rakete das stimmt, aber auch nur weil der G71 nicht gerade der bringer war und R580 diesem weit überlegen
daher wirkte bei relase om Leistungsniveau der G80 zwar gut aber nicht herrausragend auf mich
die trümpfe hat er aber dann nach und nach noch ausgesspielt
vielleicht schafft fermi das auch und wir würden den sogar mit ausfürlichen releasebenches unterbewerten
naja währenddessen könnte der ein oder andere potentielle käufer aber schon die geduld verlieren und zum RV870 greifen
ausserdem gab es ja eh kaum realworld ergebnisse von daher wäre es egal ob das ding nun 448 oder 512 shader hätte
Das beste was sie machen konnten ist den Vorsprung zu zeigen den sie gezeigt haben, egal wie schnell das Endprodukt nun wird. Der gezeigte Vorsprung vor der 5870 ist ja ganz ordentlich.
Wenn sie jetzt noch mehr gezeigt hätten würden alle schreien, dass es doch nicht stimmen kann.
NV kommt natürlich auch entgegen, dass es sicher recht viele GTX28x-Besitzer gibt die auf ein Upgrade warten, für die bietet die 5870 einfach zu wenig Vorsprung um ein Upgrade zu rechtfertigen. Diejenigen die bereits eine 58xx haben sind bereits so gut wie verloren.
Der gezeigte Vorsprung vor der 5870 ist ja ganz ordentlich.
wo siehst du den denn?
Oder die 60-70% der 448SPs-Version gegenüber einer GTX 285, sind schon so beindruckend genug für ein kurze Demonstration und das gesamte Potential, sofern es für 512SPs vernünftige Yields geben wird, hebt man sich für den finalen Launch auf.
In der Raytracing-Demo erreicht man auch "nur" einen Faktor 2,7, wo das Whitepaper von 3,5 bzw. Faktor 4 spricht.
Damit sprechen sie aber nur NV Besitzen an....
Bucklew
2010-01-20, 22:47:41
Du hast gesagt: "Fudzilla behauptet ..." Fudzilla behauptet sowas aber nicht. Fudzilla sagt, dass solche Gerüchte im Umlauf sind. Wenn ich sage: "Der Wetterdienst behauptet, morgen wird es schneien", und du erzählst einer dritten Person, ich würde behaupten, dass es morgen schneien wird, ist das einfach falsch.
Da es (wie eigentlich immer) Gerüchte in beiden Richtungen gibt, kann man es sich defakto aussuchen was man auf die Seite schreibt. Man wird sowohl Gerüchte finden, dass die Benchkarten superhochgezüchtete Superkarten, als auch langsamere als später veröffentlichte Karten sind. Von daher macht sich Fudzilla mit dieser Aussage natürlich diese zueigen.
Träum weiter. Kaum ein anderes Unternehmen steht so wenig für Understatement wie Nvidia.
Was glaubst du wo die ganzen Gerüchten ala "Software-Tessellator" oder auch mit den 7 Chips aus der ersten Charge herkommen? ;)
Besonders geil war es ja dann auch noch auf den bei der CES gezeigten Chip eine "7" zu schreiben, damit der Charlie laut jubilierend auf seiner Seite erklären konnte, er hatte ja mal wieder Recht. Nach der News lagen wohl sicher ein paar Leute in Santa Clara mit Bauchkrämpfen vor Lachen auf dem Boden :D
Wenn das wirklich ne GTX360 war die im FC2 Benchmark lief, dann wirkt eine HD5870 ja fast wieder Kinderspielzeug dagegen.
Das beste was sie machen konnten ist den Vorsprung zu zeigen den sie gezeigt haben, egal wie schnell das Endprodukt nun wird. Der gezeigte Vorsprung vor der 5870 ist ja ganz ordentlich.
Wenn sie jetzt noch mehr gezeigt hätten würden alle schreien, dass es doch nicht stimmen kann.
NV kommt natürlich auch entgegen, dass es sicher recht viele GTX28x-Besitzer gibt die auf ein Upgrade warten, für die bietet die 5870 einfach zu wenig Vorsprung um ein Upgrade zu rechtfertigen. Diejenigen die bereits eine 58xx haben sind bereits so gut wie verloren.
Ja richtig, wir sind verloren ... Ich werde meine Spaß schon Monate lang gehabt haben, während du gutgläubig darauf warten! Coole Jungs hier :-)
ich glaube er meinte verloren im sinne von verloren als kunde für nvidia da sich 5870->GF100 wohl kaum lohnen wird
Ailuros
2010-01-21, 06:00:58
Ich muss nochmals bitten dass der Inhalt so sachlich gehalten wird wie moeglich.
Aktuell wäre es besser den Thread zu schließen um die an den Haaren herbeigezogenen Faktoren und Wünsche zu unterbinden. Bis endlich das Finale Produkt vorliegt, macht es gar keinen Sinn irgend etwas zu vermuten, da nichtmal gewiss ist, worauf die Zahlen die gegeben wurden basieren.
Siehe Beyond3D Haupt-Fermi Thread...
Mit allem Respekt aber B3D hat nicht einen Schwarm von Gast-beitraegen zu bekaempfen und leider kommt die Mehrzahl von sinnlosem spam, OT, trolling hauptsaechlich von Gaesten.
Wirklich amüsant wie einige hier meinen Yields wären völlig irrelevant, nur weil angeblich Nvidia pro funktionierendem Chip bezahlt und nicht pro Wafer.
Einer der einigen hier glaubt aber dass die yields nur bis zu einem Punkt irrelevant sind und dafuer hat Gipsel enorm weitergeholfen mit seinen Erlaeuterungen wie es in etwas aussehen koennte. Genauso wie TSMC nicht etliches an NV verschenken wird, wird auch NV nicht so daemlich sein und bei extrem beschissenen yields/wafer ploetzlich ueber $1000 pro chip bezahlen. Die Wahrheit liegt stets irgendwo in der Mitte und danach kommen die persoenlichen fanatischen Bevorzugungen die zu Uebertreibungen in jegliche Richtung fuehren.
Glaubt Ihr eigentlich das TSMC dämlich ist? Natürlich werden die pro Chip Preise wiederspiegeln das Fermi ein riesiger und damit schwierig mit guten Yields zu fertigender Chip ist!
Glaubst Du vielleicht dass wir so daemlich sind nicht einzusehen dass man einen ~550mm2 die nicht umsonst herstellen kann? Natuerlich kostet es eine ansehende Summe nur gilt nach wie vor dass eine schuetzende Grenze fuer beide Beteiligten im Vertragsabschluss gibt.
Desweiteren wird keineswegs ATI sofort und komplett zu GF wechseln, genauso wenig wie NV darauf verzichten wird zu GF zu gehen, nachdem AMD die letzten Reste an GF an die Araber verkauft hat.
Ich sehe nicht ein was das mit den yields und Herstellungskosten zu tun haben koennte momentan.
Es ist also Blödsinn anzunehmen das hier NV gegenüber ATI in irgendeiner weise bevorteilt würde. TSMC hat keinerlei Interesse die Produktion von NV mit der von ATI querzusubventionieren. Wenn sich die Fermi Produktion nicht lohnt dann bekommt halt NV auch keine Wafer, so einfach ist das.
Nochmal wer sagt dass AMD in allen Faellen streng pro wafer bezahlt?
Die wirtschaftliche Realität ist nunmal ganz einfach Chipgrösse und Yield = Produktionskosten. Die Suppe muss NV alleine auslöffeln.
Ein Wafer, egal was drauf ist, kostet TSMC so ziemlich das gleiche. Somit ist es auch sinnvoll das letztlich der Kunde für jeden Wafer zahlt und nicht für funktionierende Chips. Wenn schlechte Yields aber rein auf das Konto von TSMC gehen, müssen die natürlich das ganze ausgleichen, läuft bei AMD aber auch sicherlich nicht anders.
Prozess-bedingte Fehler bedeutet dass jeglicher toter chip TSMC's Verantwortung ist und nicht den IHVs. Und es war bei 40G eben leider so im letzten Oktober/November dass die yields fuer beide IHVs zwischen einstelligen Prozentualen und <45% maximal schwankten.
Afaik kamen fuer AMD im ersten Produktions-monat ca. 50,000 Cypress chips aus dem Ofen. Heute duerften es insgesamt seit dem Anfang ueber 750.000 chips sein. Es sind knapp 4 Monate bis jetzt und man kann leicht sehen wie miserabel es am Anfang war.
Und ich bin jetzt mal grosszuegig und sage dass AMD am Anfang minimale 10% yields pro wafer hatte, ergo 13 operative chips und 117 tote chips dank Herstellungsfehlern. Jetzt versuche mich zu ueberzeugen dass AMD $5000 / 13 chips = $385 pro chip bezahlt hat. Faellt der Groschen endlich oder muss man jede Einzelheit etliche Male wiederholen bis manche endlich verstehen was genau gemeint ist?.
Ailuros
2010-01-21, 06:11:44
Das wären aber teil deaktvierte Chips.
Ja natuerlich. Verfolg mal bitte hier den Gedankenfluss:
1 raster pro 4SMs = 1 GPC
Gipsel sagte dass die Aufteilung fuer 4 GPCs eher virtuell ist ergo hab ich verstanden dass es wohl schnuppe ist was man genau pro GPC deaktiviert.
Ich fragte danach ob man bei der Deaktivierung von sagen wir nur 2 SMs aus dem vierten GPC den vierten rasterizer deaktiviert oder stehen laesst und Gipsel sagte dass es besser waere wenn dieser stehen bleibt. Wenn er aber dann stehen bleibt, dann heisst es auch fuer mich dass die GPCs doch nicht eigentlich nur im virtuellen Sinn den chip auf 4 Bloecke aufteilen, sondern dass die Aufteilung dank der 4 rasters fuer 4 Bloecke nicht nur einen theoretischen Zweck hat.
Irgendwo am Ende kamst Du mit den 1/2,1/4, 1/8 an und da wir die ganze Zeite ueber teildeaktivierte GPCs plauderten war es ein ganz anderes Thema. Besser jetzt?
(Tschuldige Gipsel aber ich bin bei der obrigen Summe irgendwo auf dem Zeug steckengeblieben. Man kann mit all dem "noise" auch nicht eine anstaendige Debatte halten.)
mapel110
2010-01-21, 08:29:07
http://techreport.com/articles.x/18332/5
Nächste Einschätzung
Hat mal einer Dark Void in Real gesehen ?
Das Spiel mit dem Nvidia die enorme Leitung ihres neuen Chips dokumentiert in Folien.
Es ist grausam, wenn man "DAS" Spiel zur Demonstration nutzt, muss man wirklich Angst bekommen.
Vor allem die unglaublich Gigantischen Physix Effekte, Hammer :)
Ja natuerlich. Verfolg mal bitte hier den Gedankenfluss:
1 raster pro 4SMs = 1 GPC
Gipsel sagte dass die Aufteilung fuer 4 GPCs eher virtuell ist ergo hab ich verstanden dass es wohl schnuppe ist was man genau pro GPC deaktiviert.
Ich fragte danach ob man bei der Deaktivierung von sagen wir nur 2 SMs aus dem vierten GPC den vierten rasterizer deaktiviert oder stehen laesst und Gipsel sagte dass es besser waere wenn dieser stehen bleibt. Wenn er aber dann stehen bleibt, dann heisst es auch fuer mich dass die GPCs doch nicht eigentlich nur im virtuellen Sinn den chip auf 4 Bloecke aufteilen, sondern dass die Aufteilung dank der 4 rasters fuer 4 Bloecke nicht nur einen theoretischen Zweck hat.
Irgendwo am Ende kamst Du mit den 1/2,1/4, 1/8 an und da wir die ganze Zeite ueber teildeaktivierte GPCs plauderten war es ein ganz anderes Thema. Besser jetzt?
(Tschuldige Gipsel aber ich bin bei der obrigen Summe irgendwo auf dem Zeug steckengeblieben. Man kann mit all dem "noise" auch nicht eine anstaendige Debatte halten.)
Naja, die Frage ist halt ob sie GPCs mit weniger SMs fahren können. Ich denke sie können. http://techreport.com/articles.x/18332
Bucklew
2010-01-21, 08:40:58
http://techreport.com/articles.x/18332/5
Nächste Einschätzung
Was der Charlie wohl schreibt, wenn die Taktrate des Fermi wirklich bei 725Mhz endet? ;D
Ailuros
2010-01-21, 08:58:20
Was der Charlie wohl schreibt, wenn die Taktrate des Fermi wirklich bei 725Mhz endet? ;D
Keiner von uns wusste mit Sicherheit dass mehr Einheiten diesmal auf 1/2 hot clock laufen. Demzufolge ist die obrige Tabelle auch ziemlich zweifelhaft.
Es schwirrt zwar eine 725MHz Frequenz fuer die 380 herum nur kann diese erstmal nicht "core clock" sein wenn man schon fuer ALUs 1450MHz angibt. Im letzteren Fall sind dann TMUs z.B. bei 1/2 hot clock ergo 725MHz und der eigentliche core clock fuer ROPs/L2 cache waere dann auf einer Frequenz niedriger als 725MHz. Und dieses ist auch insgesamt eine realistische These.
Die um einiges optimistischere These waere dass 725MHz tatsaechlich core clock fuer ROPs/L2 ist und auf Gipsel's reverse math basierend dann 875MHz TMUs und 1750MHz hot clock. Glaube ich aber erst wenn ich es sehe.
Naja, die Frage ist halt ob sie GPCs mit weniger SMs fahren können. Ich denke sie können. http://techreport.com/articles.x/18332
Die eigentliche Frage ist welche Loesung die optimalere insgesamt ist. Wenn es optimaler ist bei der Deaktivierung von nur 2SMs den vierten raster nicht zu deaktivieren, dann ist es IMHLO wohl nicht nur eine virtuelle Aufteilung in 4 GPCs.
tombman
2010-01-21, 09:07:24
Na geh :mad:
However, Nvidia has made the decision to limit DP performance in the GeForce versions of the GF100 to 64 FMA ops per clock—one fourth of what the chip can do. This is presumably a product positioning decision intended to encourage serious compute customers to purchase a Tesla version of the GPU instead.
Für games wahrscheinlich unwichtig, trotzdem hätt ichs gern gehabt :(
Dh, Hobby-Projekte werden ATI nehmen müssen, wenn sie nicht Unsummen für Tesla ausgeben wollen...
Also, eigentlich kackt Fermi von den reinen Zahlen her fast überall ab- ob das mit der Spieleleistung noch was wird?
Wieso kommt mir Fermi vor wie ne Frau, die geschminkt gut aussah, und jetzt, wo immer mehr Schminke fällt, einfach nur fette Bitch ist?
Na geh :mad:
Für games wahrscheinlich unwichtig, trotzdem hätt ichs gern gehabt :(
Dh, Hobby-Projekte werden ATI nehmen müssen, wenn sie nicht Unsummen für Tesla ausgeben wollen...
Also, eigentlich kackt Fermi von den reinen Zahlen her fast überall ab- ob das mit der Spieleleistung noch was wird?
Wenn du sicher gehen willst, dann holst du dir 2 5870 im Crossfire und steckst eine alte NV von dir für Physix dazu. Wird auf den selben Preis hinauslaufen wie eine GF100 und du hast wirklich Dampf :)
Die um einiges optimistischere These waere dass 725MHz tatsaechlich core clock fuer ROPs/L2 ist und auf Gipsel's reverse math basierend dann 875MHz TMUs und 1750MHz hot clock. Glaube ich aber erst wenn ich es sehe.
Kenn jetzt Gipsels Rechenweg nit, aber das ist auf jeden Fall die ursprünglich avisierte Frequenz ^^
Aber wenn TSMC nicht jüngst eine Menge international erfolgreicher Voodoozauberer eingestellt hat, liegt die Ausbeute bei diesen Teilen deutlich unter den 4% die mal in etwas anderem Zusammenhang rumgegeistert sind.
Da wird man noch eine gute Weile drauf warten müssen ... wenn so ein claim von nv käme, würde ich sagen: Vapor Ware.
Ailuros
2010-01-21, 09:24:37
Tombman,
Wenn ich schadenfreudig waere wuerde es mir Spass machen dass Deine originale Euphorie zerquetscht wird aber jetzt ernsthaft (falls es stimmen sollte) was wuerdest Du mit double precision genau anrichten?
Kenn jetzt Gipsels Rechenweg nit, aber das ist auf jeden Fall die ursprünglich avisierte Frequenz ^^
Aber wenn TSMC nicht jüngst eine Menge international erfolgreicher Voodoozauberer eingestellt hat, liegt die Ausbeute bei diesen Teilen deutlich unter den 4% die mal in etwas anderem Zusammenhang rumgegeistert sind.
Da wird man noch eine gute Weile drauf warten müssen ... wenn so ein claim von nv käme, würde ich sagen: Vapor Ware.
1. Seit wann ist Frequenz eine foundry Angelegenheit?
2. 4% minimal waren fuer A1 und da man in dem Fall nichts imposantes mit Frequenzen anstellt duerfte es bei 495/1100 gewesen sein. Nochmal zum gemeinen Gegenvergleich R600@80nm A11 (tape out) = ~375MHz, A13 (1 metal spin) = 725MHz.
3. Ich sagte ich glaube es wenn ich es sehe weil es sogar ueber den originalen Zielfrequenzen liegt.
4. Gipsel nahm die theoretische ~3.3x gather4 Leistung eines GF100 gegen 5870. Wenn es nur auf theoretischem Papierfirlefanz basiert dann hat er sich wohl nicht verrechnet.
5. Techreport rechnet mit dem TMU state bucket Zeug im Vergleich zu GT200 auf 725MHz TMU Frequenz. NV's Tabelle gibt reale 1.4x-1.7x mehr texturing Leistung gegenueber GT200 an. Wie sie aber auf 725MHz kommen zerbreche ich mir gerade den Kopf.
***edit:
hmmmm....
64 * 725MHz = 46400
46400 + 70% = 78800
GT200 = 80*648 = 51480 (Unterschied zu 78800 ca. 52% welches nur einen Schnitt unter 57,5% unter den vier Prozentualen von NV's Tabelle liegen - 40/70/60/60%)
Irgendwas stimmt hier nicht, denn es gibt einen Unterschied zwischem theoretischen peak und Echtzeit Leistungssteigerungen.
ich glaube er meinte verloren im sinne von verloren als kunde für nvidia da sich 5870->GF100 wohl kaum lohnen wird
Und für GTX 28x Besitzer lohnt sich die 5870 nicht.
Was bringt uns jetzt diese Erkenntnis?
Es gibt immer welche, die keinen Umstiegsgrund haben und es gibt immer welche, die einen Umstiegsgrund haben.
tombman
2010-01-21, 09:33:16
Wenn ich schadenfreudig waere wuerde es mir Spass machen dass Deine originale Euphorie zerquetscht wird aber jetzt ernsthaft (falls es stimmen sollte) was genau wuerdest Du mit double precision genau anrichten?
Solange ich kaufen kann was ich will, ist es irrellevant was mit temporärer Euphorie passiert :ufinger:
"Wir werden uns anpassen" (TM, Borg) :cool:
Btw, gut daß du nicht schadenfroh bist, ist nur was für primitive Menschen...
Aquaschaf
2010-01-21, 09:35:14
Für games wahrscheinlich unwichtig, trotzdem hätt ichs gern gehabt :(
Dh, Hobby-Projekte werden ATI nehmen müssen, wenn sie nicht Unsummen für Tesla ausgeben wollen...
Wenn nur die DP-Leistung beschnitten ist, dann ist das für die meisten Sachen egal.
Die eigentliche Frage ist welche Loesung die optimalere insgesamt ist. Wenn es optimaler ist bei der Deaktivierung von nur 2SMs den vierten raster nicht zu deaktivieren, dann ist es IMHLO wohl nicht nur eine virtuelle Aufteilung in 4 GPCs.
Optimal ist imho wenn man SMs in unterscheidlichen GPCs deaktivieren kann und trotzdem 4 Raster behält. So kann man imho Fehler in einer größeren Diefläche flexibel abschalten und erhält im Ergebnis immer ide gleiche Leistung.
Ob die Raster virtuelle sind oder nicht kann ich überhaupt nicht abschätzen, dafür fehlte mir die Zeit mich in den Chip reinzudenken. Sieht erstmal nicht virtuell aus, ich bin mir da aber nicht so sicher.
Ailuros
2010-01-21, 09:42:43
Solange ich kaufen kann was ich will, ist es irrellevant was mit temporärer Euphorie passiert :ufinger:
"Wir werden uns anpassen" (TM, Borg) :cool:
Btw, gut daß du nicht schadenfroh bist, ist nur was für primitive Menschen...
Da ich fuehlen kann was Dir so manche unter die Nase reiben koennte, hab ich mir auch den Scherz erlaubt. Wie dem auch sei ich frage mich immer noch was Du mit double precision genau anrichten wuerdest. Es ist fuer den Normalverbraucher ziemlich scheissegal.
PS: auf Papier sieht GF100 nach 4 Tris/clock aus. NV gibt aber einen immer noch uebertriebenen Wert (IMO) von 3.2 Tris/clock an (siehe techreport Artikel). Ich persoenlich waere froh wenn das Ding unter allen Bedingungen zumindest 2 Tris/clock von sich spucken kann. Und das ist eben genau der Punkt wo man marketing herausfiltering sollte.
Ebenso behauptet NV dass die TMUs bis zu der 4x fachen Leistung von GT200 TMUs erreicht. Ihre Graph ueber Echtzeit-beispiele ist der Realitaet dann wohl am naehesten wie moeglich so wie es aussieht.
Etwas mehr zusammengefasst: ihre letzte GF100 Praesentation ist mit Absicht so irrefuehrend wie moeglich gestaltet was aber generell fuer solche Praesentationen normal ist. Es ist die eigentliche Aufgabe von PR/marketing die Realitaet so gut wie moeglich verdrehen zu koennen.
Nakai
2010-01-21, 10:12:37
Sieht so aus, als hätte Fermi ordentlich Power, solange ihm die Rohleistung nicht ausgeht. IMO hat Fermi etwa 50 bis 80% Mehrperformance gegenüber der GTX285. Bei speziellen "PhysX"-Anwendungen könnten es mehr sein.
Solange ich kaufen kann was ich will, ist es irrellevant was mit temporärer Euphorie passiert
Man hat wohl mit mehr Takt gerechnet, aber von nix kommt nix. Fermi wird schon reinhauen. ;)
Ich hoffe es wird wieder ähnlich, wie bei der letzten Gen sein.
mfg
Don Vito
2010-01-21, 10:15:43
Usertests sind nunmal gefragt.
und das von unabhängigen Usern, unverfälschte Benches und Ingameszenes, welche nicht künstlich verschönert wurden.
Würd Sagen es wird langsam Zeit, Daß die Katze aus dem Sack kommt:(
2. 4% minimal waren fuer A1 und da man in dem Fall nichts imposantes mit Frequenzen anstellt duerfte es bei 495/1100 gewesen sein. Nochmal zum gemeinen Gegenvergleich R600@80nm A11 (tape out) = ~375MHz, A13 (1 metal spin) = 725MHz.
480-495 MHz kommen aber gut hin mit 725 MHz TMU- und 1.450 MHz hotclock, wenn man noch so Sachen wir ROP/Raster-Verhältnis mit reinrechnet.
-carsten
tombman
2010-01-21, 10:26:49
Man hat wohl mit mehr Takt gerechnet, aber von nix kommt nix. Fermi wird schon reinhauen. ;)
Ich hoffe es wird wieder ähnlich, wie bei der letzten Gen sein.
Taktmäßig habe ich nie viel erwartet, nicht bei einem 3 Mrd. Trans. Chip. und neuer Architektur. NV krebst doch bei fetten Chips immer bei 600-700 core und 1300-1500 shader herum :)
Ich hoffe, die Karten werden vcore adjust supporten- dann gehts ab :)
Ich will nur einfach nicht 3 Stück Fermis nehmen, was ich müßte, falls Fermi saugt :mad:
Auf Crossfire habe ich einfach keinen Bock ...
Sieht so aus, als hätte Fermi ordentlich Power, solange ihm die Rohleistung nicht ausgeht. IMO hat Fermi etwa 50 bis 80% Mehrperformance gegenüber der GTX285. Bei speziellen "PhysX"-Anwendungen könnten es mehr sein.
Mein Tipp für aktuelle Spiele liegt bei ~50% im Schnitt (wenn's nicht gerade 8x MSAA ist).
-carsten
Ailuros
2010-01-21, 10:30:54
480-495 MHz kommen aber gut hin mit 725 MHz TMU- und 1.450 MHz hotclock, wenn man noch so Sachen wir ROP/Raster-Verhältnis mit reinrechnet.
-carsten
Nicht direkt vergleichbar da hotclocks andere Tiere sind. Das einzige wirklich anstaendige im techreport Artikel ist der hint dass core clock und 1/2 hot clock ca. 12-14% auseinander liegen.
IMO
worst case = 640/725/1450
best case = 725/825/1650
Im besten Fall 14% Leistungs-Unterschied zwischen den beiden (was aber auch eine um 14% hoehere Speicherfrequenz fuer's zweite vorraussetzen wuerde).
Undertaker
2010-01-21, 10:46:09
Mein Tipp für aktuelle Spiele liegt bei ~50% im Schnitt (wenn's nicht gerade 8x MSAA ist).
-carsten
Das wäre aber nicht mal GTX295 Niveau und damit sehr enttäuschend... Wenn SLI geht, liegt die GTX295 etwa 60% vor der GTX285...
Das wäre aber nicht mal GTX295 Niveau und damit sehr enttäuschend... Wenn SLI geht, liegt die GTX295 etwa 60% vor der GTX285...
Die 295 hat ja auch viel mehr Speicherbandbreite und Rohpower. Mit ne Single-GPU auf 10% and die Vorgänger Dual-GPU zu kommen ist imho ein realistisches und gutes Ergebnis.
Gerade in heutigen Spielen (ohne Tesselation, DX11) und mit 4XMSAA + 16xAF.
Ailuros
2010-01-21, 11:01:02
Das wäre aber nicht mal GTX295 Niveau und damit sehr enttäuschend... Wenn SLI geht, liegt die GTX295 etwa 60% vor der GTX285...
Ausserhalb von 8xMSAA liegt die 295 irgendwo auf oder leicht unter 5870 Nivaeu im Durchschnitt.
Wo immer SLi geht hat auf Papier nur einen sehr guten theoretischen Texelfuellraten Vorteil; bei der Mehrzahl der Faktoren kannst Du von mir aus nur 20% von den theoretischen Werten der 295 abrechnen.
Undertaker
2010-01-21, 11:04:53
Die 295 hat ja auch viel mehr Speicherbandbreite und Rohpower. Mit ne Single-GPU auf 10% and die Vorgänger Dual-GPU zu kommen ist imho ein realistisches und gutes Ergebnis.
Gerade in heutigen Spielen (ohne Tesselation, DX11) und mit 4XMSAA + 16xAF.
Das schafft aber auch schon eine HD5870 und die kann nicht wirklich der Maßstab für die GF100 (in Vollausbau) sein. ;)
Ailuros
2010-01-21, 11:17:38
Das schafft aber auch schon eine HD5870 und die kann nicht wirklich der Maßstab für die GF100 (in Vollausbau) sein. ;)
Nur ist die 5870 auch um ca. 40% im Durchschnitt schneller als eine 285. Bei nur GF100 = 295+10% sind es dann schon 80-90% ueber der 285.
Milchmaedchenrechnung=
GTX295 =
1192 GFLOPs - 20% = 954GFLOPs/s
92.2 GTexels/s - 20% = 74 GTexels/s
223,9 GB/s -20% = 179GB/s
Ergo jegliche Effizienz-Erweiterung von Fermi zur Seite, koennten folgende Frequenzen fuer GF100 ausreichen:
ROPs/L2 = 500MHz
TMUs/raster etc = 578MHz
ALUs = 1156MHz
RAM = 950MHz GDDR5
Burgard
2010-01-21, 11:21:24
Das schafft aber auch schon eine HD5870 und die kann nicht wirklich der Maßstab für die GF100 (in Vollausbau) sein. ;)
Und warum nicht?
Man sollte immer im Hinterkopf behalten, dass NV den Fermi primär als Tesla-Karte entwickelt hat und die Geforce quasi als "Abfallprodukt" behandelt.
Überspitzt formuliert.
Und warum nicht?
Man sollte immer im Hinterkopf behalten, dass NV den Fermi primär als Tesla-Karte entwickelt hat und die Geforce quasi als "Abfallprodukt" behandelt.
Überspitzt formuliert.
Stimmt, 16 Geometrieeinheiten mit 16 dedizierten Tessellationunits und 4 Setup-engines, die in Out-of-Order weise arbeiten.
Aber heute gilt wohl: Tessellation? Lass mi in ruh mi dis GPGPU Zeuch.
Ailuros
2010-01-21, 11:38:21
Stimmt, 16 Geometrieeinheiten mit 16 dedizierten Tessellationunits und 4 Setup-engines, die in Out-of-Order weise arbeiten.
Aber heute gilt wohl: Tessellation? Lass mi in ruh mi dis GPGPU Zeuch.
Sarkasmus im letzten Satz? Tesselation ist zwar heute von noch ziemlich maessiger Bedeutung aber hat wohl nichts mit GPGPU zu tun.
MorPheuZ
2010-01-21, 11:40:37
Und warum nicht?
Man sollte immer im Hinterkopf behalten, dass NV den Fermi primär als Tesla-Karte entwickelt hat und die Geforce quasi als "Abfallprodukt" behandelt.
Überspitzt formuliert.
Ich kanns irgendwie doch nicht so recht glauben dass nv die Spielerfraktion egal ist, auch wenns letztens so tönt. Warum sollten sie denn an der E3 antreten und ATI dann nicht? Gut ist sicher noch nicht final die Liste:
http://www.computerbase.de/news/software/spiele/2010/januar/aussteller_e3/
Burgard
2010-01-21, 11:47:26
Ich kanns irgendwie doch nicht so recht glauben dass nv die Spielerfraktion egal ist, auch wenns letztens so tönt. Warum sollten sie denn an der E3 antreten und ATI dann nicht? Gut ist sicher noch nicht final die Liste:
http://www.computerbase.de/news/software/spiele/2010/januar/aussteller_e3/
Das wäre echt ein Supergau, aber dass AMD/ATI nicht gerade die Marketing-Asse sind, dass beweisen sie doch immer wieder recht eindrucksvoll.
Ailuros
2010-01-21, 11:54:10
Es ist noch zu frueh fuer Juni. Auf jeden Fall ist AMD auf der GDC im Maerz vertreten: https://www.cmpevents.com/GD10/a.asp?option=H&V=1&Sortby=3&Psel=0&FLtr=A
...aber ich sehe auch nicht wie das mit dem Thema hier relevant sein sollte.
Aber wenn es schon OT sein muss:
http://www.techreport.com/discussions.x/18333
Gipsel
2010-01-21, 12:21:37
1 raster pro 4SMs = 1 GPC
Gipsel sagte dass die Aufteilung fuer 4 GPCs eher virtuell ist ergo hab ich verstanden dass es wohl schnuppe ist was man genau pro GPC deaktiviert.
Ich fragte danach ob man bei der Deaktivierung von sagen wir nur 2 SMs aus dem vierten GPC den vierten rasterizer deaktiviert oder stehen laesst und Gipsel sagte dass es besser waere wenn dieser stehen bleibt.Besser für die Performance. Eine Rasterleistung von 24pixel/Takt ist für den angestrebten Leistungsbereich vielleicht ein wenig mager, insbesondere wenn das mit 40 oder gar den vollen 48 ROPs kombiniert wird.
Naja, die Frage ist halt ob sie GPCs mit weniger SMs fahren können. Ich denke sie können. http://techreport.com/articles.x/18332
Die Frage ist, ob die Einteilung in GPCs überhaupt technisch vorhanden ist, oder lediglich auf den Folien. Vielleicht gibt es 4 Raster Engines, dann eine Crossbar und dann die 16 SMs.
Die um einiges optimistischere These waere dass 725MHz tatsaechlich core clock fuer ROPs/L2 ist und auf Gipsel's reverse math basierend dann 875MHz TMUs und 1750MHz hot clock. Glaube ich aber erst wenn ich es sehe.Ich auch. Das war aus meiner Sicht ein Hinweis, daß ein paar Zahlen von nvidia eher den Charakter einer Projektion hatten (wobei sie natürlich nicht erwähnt haben, wie sie zu denen gekommen sind). 1,75GHz wäre als Taktziel aus heutiger Sicht doch arg optimistisch und kommt vielleicht mit irgendeinem späteren B-Stepping oder so.
in erster Linie lieben die Firmen ihre Existenz und dazu gehört primär der Gewinn :) kann mich aber auch irren.
Der "ich wünsche mir zu Weinachten 1000 FPS im Unigine Bench" Auftrag ist aber schon mal abgeschickt ;)
in erster Linie lieben die Firmen ihre Existenz und dazu gehört primär der Gewinn :) kann mich aber auch irren.
Der "ich wünsche mir zu Weinachten 1000 FPS im Unigine Bench" Auftrag ist aber schon mal abgeschickt ;)
Der Beitrag auf das sich dies bezog ist verschwunden :), sorry falls der Zusammenhang nicht erkennbar ist.
Ailuros
2010-01-21, 12:42:18
Besser für die Performance. Eine Rasterleistung von 24pixel/Takt ist für den angestrebten Leistungsbereich vielleicht ein wenig mager, insbesondere wenn das mit 40 oder gar den vollen 48 ROPs kombiniert wird.
Es werden wohl hoechstwahrscheinlich 40ROPs auf einem 320bit Bus sein IMO. Aber zwischen 3 und 4 rasters hast Du dann auch vielleicht folgendes Dilemma:
3 rasters <-> 24 pixels/clock, bleiben 16 ROPs uebrig fuer kleinere MSAA Leistunseinbrueche im Vergleich zum 16 SM chip.
4 rasters <-> 32 pixels/clock, bleiben 8 ROPs uebrig wodurch vielleicht MSAA Leistung mehr leidet als oben.
Falls ja muessen sie sich hingesetzt haben und die genaue Vor- und Nachteile jeglicher Loesung auszurechnen.
Die Frage ist, ob die Einteilung in GPCs überhaupt technisch vorhanden ist, oder lediglich auf den Folien. Vielleicht gibt es 4 Raster Engines, dann eine Crossbar und dann die 16 SMs.
Kann man momentan leider nicht wissen. Mir geht es eher darum wie genau theoretisch sie beschneiden koennen und mit welchen Vor- und Nachteilen.
Ich auch. Das war aus meiner Sicht ein Hinweis, daß ein paar Zahlen von nvidia eher den Charakter einer Projektion hatten (wobei sie natürlich nicht erwähnt haben, wie sie zu denen gekommen sind). 1,75GHz wäre als Taktziel aus heutiger Sicht doch arg optimistisch und kommt vielleicht mit irgendeinem späteren B-Stepping oder so.
So oder so hat es NV wieder mal geschafft sehr gute Verwirrung zu stiften. Reale hw in PCs war wohl auf irgend eine Art reduziert. Was genau sie in whitepapers gesteckt oder sogar vermischt haben kann wohl keiner so leicht sagen. Das texturing state bucket Diagramm passt mir persoenlich erstmal nicht zu der gather4 Angabe.
Das könnte durchaus sein. Evtl. erlaubt sich nVidia tatsächlich den Spaß, erst einmal zu zeigen, dass man schneller als eine HD 5870 wird und lässt zum Release noch den wahren Hammer raus: "... bereits mit einer GTX 360 :tongue:." Sie hätten so keinerlei Nachteile, aber mal wieder einen enormen Überraschungsmoment auf ihrer Seite.
Oder bei der Vorführung hat ein SLI GT380 Gespann gearbeitet und der Fermi ist grottig langsam in Spielen.................
Spekulation,Spekulation. Mehr machen wir hier nicht.
Wobei ich natürlich zugebe,das mein Beispiel die Unwahrscheinlichere ist :D
Ailuros
2010-01-21, 13:11:20
Oder bei der Vorführung hat ein SLI GT380 Gespann gearbeitet und der Fermi ist grottig langsam in Spielen.................
Spekulation,Spekulation. Mehr machen wir hier nicht.
Wobei ich natürlich zugebe,das mein Beispiel die Unwahrscheinlichere ist :D
Die PCs hatten Fenster :P ;D
Die PCs hatten Fenster :P ;D
würde doch keiner merken wenn unter dem Lüfter 4 GPUs gearbeitet hätten :)
darkvader
2010-01-21, 13:17:37
Das wäre echt ein Supergau, aber dass AMD/ATI nicht gerade die Marketing-Asse sind, dass beweisen sie doch immer wieder recht eindrucksvoll.
Wenn man sich mal kurz die Mühe macht das zu hinterfragen, dann wird man feststellen, dass Nvidia erstmal "nur" einen Meeting Raum hat.
http://www.e3expo.com/exhibitors/92/exhibitor-list/
deekey777
2010-01-21, 14:04:27
Unneu?
http://www.techreport.com/articles.x/18332/5
I should pause to explain the asterisk next to the unexpectedly low estimate for the GF100's double-precision performance. By all rights, in this architecture, double-precision math should happen at half the speed of single-precision, clean and simple. However, Nvidia has made the decision to limit DP performance in the GeForce versions of the GF100 to 64 FMA ops per clock—one fourth of what the chip can do. This is presumably a product positioning decision intended to encourage serious compute customers to purchase a Tesla version of the GPU instead. Double-precision support doesn't appear to be of any use for real-time graphics, and I doubt many serious GPU-computing customers will want the peak DP rates without the ECC memory that the Tesla cards will provide. But a few poor hackers in Eastern Europe are going to be seriously bummed, and this does mean the Radeon HD 5870 will be substantially faster than any GeForce card at double-precision math, at least in terms of peak rates.
Geil!
mapel110
2010-01-21, 14:06:44
Ja, unneu. ;(
Sorkalm
2010-01-21, 14:09:47
Soviel wie man in die "Tesla-Rechenwerke" (halt alles was man für GPGPU so braucht) investiert hat, kann man sich den Markt halt nicht durch zu "billig" angebotene Geforce-Karten abgrasen lassen. Das muss ja auch finanziert werden, eben über Tesla-Modelle.
mapel110
2010-01-21, 14:13:11
Uns Gamers kanns eh egal sein, kann nur positiv fürs Overclocking sein. :)
Ist ja auch ein bisschen doof wenn man nnur wegen ECC den vierfachen Preis verlangen will. Dann kauf ich mir halt 3 Consumerkarten wg. Ergebniskontrolle und spar immer noch ^^
Und ich bin jetzt mal grosszuegig und sage dass AMD am Anfang minimale 10% yields pro wafer hatte, ergo 13 operative chips und 117 tote chips dank Herstellungsfehlern. Jetzt versuche mich zu ueberzeugen dass AMD $5000 / 13 chips = $385 pro chip bezahlt hat. Faellt der Groschen endlich oder muss man jede Einzelheit etliche Male wiederholen bis manche endlich verstehen was genau gemeint ist?.
Scheinbar fällt bei dir der Groschen nicht. Ich habe nur argumentiert das NV keinen Vorteil gegenüber ATI hat weil sie angeblich pro funktionierendem Die und ATI pro Wafer bezahlt.
Hier war des öfteren zu lesen es sei völlig egal das fermi miserabel yielded, weil tsmc eh alle Kosten trägt und das ist nunmal absoluter bullshit. Es bleibt weiterhin dabei das ein Fermi mehr als das doppelte eines Cypress in der Herstellung kosten wird.
Für prozessbedingte Fehler werden beide Rabatte bekommen, es ist aber lächerlich zu glauben das TSMC den designbedingten (grösse) yieldnachteil eines Fermi gegenüber einem Cypress auf eigene Kappe ausgleichen wird.
mapel110
2010-01-21, 14:38:36
Für prozessbedingte Fehler werden beide Rabatte bekommen, es ist aber lächerlich zu glauben das TSMC den designbedingten (grösse) yieldnachteil eines Fermi gegenüber einem Cypress auf eigene Kappe ausgleichen wird.
Es wird für so große Chips sicher nicht die gleichen Vertragsbedingungen geben wir für kleine, leichter zu produzierende Chips. Das sollte auch klar sein.
Ailuros
2010-01-21, 14:44:07
Scheinbar fällt bei dir der Groschen nicht. Ich habe nur argumentiert das NV keinen Vorteil gegenüber ATI hat weil sie angeblich pro funktionierendem Die und ATI pro Wafer bezahlt.
Dann haette ATI nie mit dem miserablen 40G yields in Q3 09' veroeffentlicht.
Hier war des öfteren zu lesen es sei völlig egal das fermi miserabel yielded, weil tsmc eh alle Kosten trägt und das ist nunmal absoluter bullshit.
Dann haette NVIDIA schon in Q4 09' vereoeffentlicht.
Es bleibt weiterhin dabei das ein Fermi mehr als das doppelte eines Cypress in der Herstellung kosten wird.
Nach Dir. Siehe oben und nicht einmal sondern zweimal. GF100 ging NICHT in Massenproduktion am Ende 2009 sondern Anfang 2010. Komischerweise kam kurz danach von TSMC die oeffentliche Meldung dass die yields nicht mehr problematisch sind. Jetzt kann man natuerlich TSMC's Angabe unterschiedlich deuten, aber wenn pro 300mm wafer ca. 130+ Cypress chips maximal herauskommen und bei GF100 ca. 104 (maximal) dann hat der letztere immer noch enormen Luftraum an schlechteren yields um wirklich 2x Mal so in der Herstellung zu kosten als Cypress, was wohl so manchem seinem Wunschdenken entspricht, es aber trotz allem eine Uebertreibung ist.
Für prozessbedingte Fehler werden beide Rabatte bekommen, es ist aber lächerlich zu glauben das TSMC den designbedingten (grösse) yieldnachteil eines Fermi gegenüber einem Cypress auf eigene Kappe ausgleichen wird.
Hat auch keiner behauptet.
MorPheuZ
2010-01-21, 14:49:48
Aha, jetzt beherrschen sie die Fertigung schon;D
Dann aber mal los mit GF100!!
http://www.computerbase.de/news/hardware/grafikkarten/2010/januar/tsmc_unsere_40-nm-probleme/
Jetzt kann man natuerlich TSMC's Angabe unterschiedlich deuten, aber wenn pro 300mm wafer ca. 130+ Cypress chips maximal herauskommen und bei GF100 ca. 104 (maximal) dann hat der letztere immer noch enormen Luftraum an schlechteren yields um wirklich 2x Mal so in der Herstellung zu kosten als Cypress, was wohl so manchem seinem Wunschdenken entspricht, es aber trotz allem eine Uebertreibung ist.
Cypress hat über 160 die candidates pro Wafer......
104 die candidates sind es auch nur für fermi, wenn man jegliche scribe lines weg lässt. Realistisch gesehen sind es unter 100 pro Wafer. Jetzt gehe von Yields um die 60-70% für Cypress aus, dann kommst du locker auf deinen Faktor 2.
Die harte Realität ist, dass ein Fermi verdammt teuer in der Herstellung sein wird und deshalb die Kartenpreise jenseits von gut und böse liegen werden und sollte Fermi nicht den Vorsprung gegenüber einem Cypress erreichen, den NV gerne hätte, so werden die Karten trotzdem nicht billiger werden sondern es werden einfach weniger produziert, die Hardcorefans abgegrast und auf besseres Wetter, ergo 28nm Shrink gewartet.
GF100 Chip kostet ca. doppelt soviel - das macht also irgendwas um die 60-70$. 4 gleichteure Speichersteine und eine bissl aufwendige Platine: Macht am Ende einen Unterschied von ca. 80$. Cypress gibt es für 399$, GF100 muss also nur 479$ kosten, um die selben Marge einzuspielen.
MorPheuZ
2010-01-21, 15:01:09
NV und ATI werden niemals dieselben Margen auf die Produkte draufhauen (Proportional). Die Vertragspartner / Kartenabnehmer Menge spielt da sicher auch ne Rolle (Marktanteile und Einschätzung).
Übrigens wären 479$ sehr low für 380er.
Ailuros
2010-01-21, 15:06:19
Cypress hat über 160 die candidates pro Wafer......
104 die candidates sind es auch nur für fermi, wenn man jegliche scribe lines weg lässt. Realistisch gesehen sind es unter 100 pro Wafer. Jetzt gehe von Yields um die 60-70% für Cypress aus, dann kommst du locker auf deinen Faktor 2.
Ja tatsaechlich 160+ dank meinem Tippfehler. Ich gehe aber nicht von 60-70% fuer Cypress aus denn dort liegen eigentlich AMD's insgesamte 40G yields fuer die gesamte Evergreen Familie.
Seid ihr alle Banane, was die Fertigungskosten angeht???
Es ist doch total klar, dass nv genau wie AMD und alle anderen je Chip bezahlen. Da werden zu nem bestimmten Termin x Tausend Chips bestellt, und TSMC macht ihnen dafür (und für nix anderes!) einen Preis.
Wenn TSMC für die bestellte Menge die 10fache durch den Ofen schicken muss, ist das bitter für TSMC. Wenn TSMC zum vereinbarten Termin nicht die vereinbarte Menge liefern kann, ist das bitter für den Auftraggeber, aber auch wieder v.a. für TSMC (je nachdem wie fähig der Auftraggeber im Verträge schreiben ist).
Hier scheinen die meisten zu denken: Wenn bei TSMC im Reinraum ein Affe auf den Wafer pinkelt (was bei TSMC durchaus mal vorkommen kann, natürlich nicht oft, aber so jeden 2. Tag schon) hat der Auftraggeber aber echt Pech gehabt ... nein, hat er nicht!! TSMC hat!
Überlegt doch mal, ihr bezahlt beim Bäcker doch auch die Brötchen und nicht die Teigmenge, die er dafür gebraucht hat. Wenn dem die Kippe in den Bottich fällt und er deshalb nen Zentner Teig wegschmeißen muss, musst du an dem Tag trotzdem nit das doppelte fürs Brötchen hinlegen.
Und bei TSMC isses genau dasselbe.
Bucklew
2010-01-21, 15:16:59
GF100 Chip kostet ca. doppelt soviel - das macht also irgendwas um die 60-70$. 4 gleichteure Speichersteine und eine bissl aufwendige Platine: Macht am Ende einen Unterschied von ca. 80$. Cypress gibt es für 399$, GF100 muss also nur 479$ kosten, um die selben Marge einzuspielen.
Und machen dick Reibach bei den Quadro + Tesla Produkten ;)
NV und ATI werden niemals dieselben Margen auf die Produkte draufhauen (Proportional). Die Vertragspartner / Kartenabnehmer Menge spielt da sicher auch ne Rolle (Marktanteile und Einschätzung).
Übrigens wären 479$ sehr low für 380er.
Niemals wird das der Preis sein, obwohl, bei der Performance :)
tombman
2010-01-21, 15:22:36
Seid ihr alle Banane, was die Fertigungskosten angeht???
Es ist doch total klar, dass nv genau wie AMD und alle anderen je Chip bezahlen. Da werden zu nem bestimmten Termin x Tausend Chips bestellt, und TSMC macht ihnen dafür (und für nix anderes!) einen Preis.
Wenn TSMC für die bestellte Menge die 10fache durch den Ofen schicken muss, ist das bitter für TSMC. Wenn TSMC zum vereinbarten Termin nicht die vereinbarte Menge liefern kann, ist das bitter für den Auftraggeber, aber auch wieder v.a. für TSMC (je nachdem wie fähig der Auftraggeber im Verträge schreiben ist).
Hier scheinen die meisten zu denken: Wenn bei TSMC im Reinraum ein Affe auf den Wafer pinkelt (was bei TSMC durchaus mal vorkommen kann, natürlich nicht oft, aber so jeden 2. Tag schon) hat der Auftraggeber aber echt Pech gehabt ... nein, hat er nicht!! TSMC hat!
Überlegt doch mal, ihr bezahlt beim Bäcker doch auch die Brötchen und nicht die Teigmenge, die er dafür gebraucht hat. Wenn dem die Kippe in den Bottich fällt und er deshalb nen Zentner Teig wegschmeißen muss, musst du an dem Tag trotzdem nit das doppelte fürs Brötchen hinlegen.
Und bei TSMC isses genau dasselbe.
Da du offenbar so genau Bescheid weißt bei TSMC: bist du besagter Pinkel-Affe?
SCNR ;D;D (nicht ernst nehmen, aber der war aufgelegt ;))
Seid ihr alle Banane, was die Fertigungskosten angeht???
Es ist doch total klar, dass nv genau wie AMD und alle anderen je Chip bezahlen. Da werden zu nem bestimmten Termin x Tausend Chips bestellt, und TSMC macht ihnen dafür (und für nix anderes!) einen Preis.
Wenn TSMC für die bestellte Menge die 10fache durch den Ofen schicken muss, ist das bitter für TSMC. Wenn TSMC zum vereinbarten Termin nicht die vereinbarte Menge liefern kann, ist das bitter für den Auftraggeber, aber auch wieder v.a. für TSMC (je nachdem wie fähig der Auftraggeber im Verträge schreiben ist).
Hier scheinen die meisten zu denken: Wenn bei TSMC im Reinraum ein Affe auf den Wafer pinkelt (was bei TSMC durchaus mal vorkommen kann, natürlich nicht oft, aber so jeden 2. Tag schon) hat der Auftraggeber aber echt Pech gehabt ... nein, hat er nicht!! TSMC hat!
Überlegt doch mal, ihr bezahlt beim Bäcker doch auch die Brötchen und nicht die Teigmenge, die er dafür gebraucht hat. Wenn dem die Kippe in den Bottich fällt und er deshalb nen Zentner Teig wegschmeißen muss, musst du an dem Tag trotzdem nit das doppelte fürs Brötchen hinlegen.
Und bei TSMC isses genau dasselbe.
oh mein gott, ich hoffe du bist der gast mit dem kino spruch, wenn das so weiter geht les ich hier stündlich. hahahaha !
Da du offenbar so genau Bescheid weißt bei TSMC: bist du besagter Pinkel-Affe?
sorry, aber die Info fällt unter NDA ^^
mapel110
2010-01-21, 15:28:07
http://www.brightsideofnews.com/news/2010/1/21/nvidia-gf100-fermi-silicon-cost-analysis.aspx
Noch ein Rechenkünstler. :ugly:
Ja tatsaechlich 160+ dank meinem Tippfehler. Ich gehe aber nicht von 60-70% fuer Cypress aus denn dort liegen eigentlich AMD's insgesamte 40G yields fuer die gesamte Evergreen Familie.
Na prima, da wirds noch ungünstiger für Fermi. Dann interpoliere einfach mal das yield über die größenfunktion (quadratisch) und du landest bei einem angenommenen yield von 50% zu Cypress bei schlappen 32% yield für fermi, angenommen die designs sind beide gleichkritisch, wobei eigentlich anzunehmen ist, das fermi labiler ist.
5000 $ pro Wafer
selber rechnen:
http://mrhackerott.org/semiconductor-informatics/informatics/toolz/DPWCalculator/Input.html
oder nehmen wir die 94 von hier:
http://www.hardware-infos.com/news.php?news=3384
Ergo kostet ein Cypress 62.5$ und ein Fermi 166$, da liegt Faktor 2.64 dazwischen!!!
Sobald sich das Yield von Cyress und damit auch das von Fermi verbessert (prozessbedingt) wird dieser Faktor sinken. Realistisch gesehen wird er aber weiterhin bei über 2 bleiben.
Deshalb hier meine Prognose: Fermi wird in Minimalstückzahlen als geforce verkauft werden zu abartig hohen Preisen verkauft werden damit bei minimalstückzahlen trotzdem der anschein einer zumindestens teilweisen Lieferbarkeit erzeugt wird. Die meisten Parts werden in den tesla und quadro markt wandern. Richtige Stückzahlen und konkurrenzfähige Preise wird es frühestens mit einem Shrink geben.
lol @ Bananen Gast, keine Ahnung von Chipfertigung aber mal alle beschimpfen ^^
Was hat die Größe eines Dies mit den Yields zu tun? Ohne zu wissen wie Modular GF100 ist, ist die ganze Diskussion für die Katz. Nur weil ein Die einen Fehler aufzeigt, ist er noch lange nicht unbrauchbar. Je modularer, um so mehr Dies lassen sich verwenden, weil defekte Bereiche einfach deaktiviert werden können.
LOL
Yield ist der prozentuale Anteil an Chips die funktionieren gegenüber der Gesamtanzahl auf einem Wafer. Mir verwendbarem Ausschuss hat das mal gar nix zu tun.
Bucklew
2010-01-21, 16:09:03
5000 $ pro Wafer
NVidia zahlt immer noch nicht pro Wafer, egal wie oft man die Lüge noch postet :rolleyes:
SavageX
2010-01-21, 16:10:53
Je größer das Die, desto größer die Chancen, von einem Fertigungsdefekt getroffen zu werden. Die verteilen sich halbwegs gleichmäßig und zufällig über den Wafer.
Wenn der Wafer 10 Defekte hat, Du aber hundert Chips draufpackst, dann sind immer noch ~90 (oder mehrere, da ja ein kaputter Chip von mehreren Defekten getroffen werden kann) in Ordnung.
Wenn pro Wafer nur ein Chip draufpasst kriegst Du hingegen praktisch nie einen funktionsfähigen Chip.
Die Grenzen dazwischen sind halt ganz normal nach W'keitsrechnung fließend.
Kommst du vielleicht mal auf die Idee, dich selber zu hinterfragen bevor du dich weiter lächerlich machst?
http://en.wikipedia.org/wiki/Yield
Semiconductor fabrication yield, the proportion of devices produced which function correctly
Was du scheinbar meinst ist "harvesting". Yield ist definiert als prozentualer anteil von funktionierenden Bauteilen zur Gesamtanzahl, punkt aus. Du kannst natürlich jetzt ein yield für komplette Parts mit voller Geschwindigkeit angeben und halt alternativ ein yield wo noch alle parts die durch abschalten funktionieren mit einbeziehen.
Da aber auch ATI "harvesting" betreiben kann, ändert sich daran nicht viel an den Relationen. Komplette Parts ATI vs. NV ist ähnlich wie Parts incl. harvesting ATI vs. NV
Bucklew
2010-01-21, 16:14:50
http://www.brightsideofnews.com/news/2010/1/21/nvidia-gf100-fermi-silicon-cost-analysis.aspx
Noch ein Rechenkünstler. :ugly:
Eieiei, da sind aber einige Fehler drin....
mapel110
2010-01-21, 16:15:19
Die Grenzen dazwischen sind halt ganz normal nach W'keitsrechnung fließend.
Nein, sind sie eben nicht, weil sie auch noch Design-Abhängig sind. Aber das ist hier auch schon mehr als 1x durchgekaut worden. RV870 und GF100 sind sicherlich unterschiedlich genug, um einen direkten Vergleich anhand der Transistorzahl unmöglich zu machen.
Eieiei, da sind aber einige Fehler drin....
Ja, Seite ist zwar gerade down, aber kann mich noch daran erinnern, dass da sinngemäß stand "ATI hat 40nm-Erfahrung, nvidia nicht blabla". Schon sehr peinlich für so eine Seite mit angeblichen Insiderinfos, wenn man noch nicht mal die öffentlichen Infos auf die Kette bekommt.
/edit
Seite geht wieder:
We know that mass production of GF100 boards will initialize in first week of February, with other AIB partners following in second, third and fourth week of February.
Theo ist also optimistischer als Charlie, aber wen wunderts.
Ich kann mir auch nicht vorstellen, dass irgendjemand für defekte Wafer zahlen muss die auf TSMCs Mist gewachsen sind.
Übliche und unvermeidbare Yield-Probleme (Verunreinigungen im Silizium und Staub) muss man wohl aber hinnehmen.
Ailuros
2010-01-21, 17:52:10
Na prima, da wirds noch ungünstiger für Fermi. Dann interpoliere einfach mal das yield über die größenfunktion (quadratisch) und du landest bei einem angenommenen yield von 50% zu Cypress bei schlappen 32% yield für fermi, angenommen die designs sind beide gleichkritisch, wobei eigentlich anzunehmen ist, das fermi labiler ist...............
blah blah blubber blubber blah
50%? Du Optimist. Dir alle Einzelheiten zu geben wuerde mir den Spass verderben. Obwohl ich eigentlich vorhabe den Thread temporaer zu schliessen weil die restliche Gastschaft anscheinend sich nicht anstaendig benehmen will. Ich behalt aber die Debatte im Hinterkopf.
So und jetzt heisst es mal vorruebergehend Feirabend mit dem Thread hier. Wer will kann seine sachlichen Bemerkungen, Fragen sammeln und sie dann posten wenn der Thread wieder geoeffnet wird. Fuer den Rest gibt es die Spielwiese.
Ailuros
2010-01-22, 15:43:27
Obwohl mir vollkommen bewusst ist dass es weiterhin hitzige Argumentationen geben wird hier ein paar "afaik" Einzelheiten zu yields und ja ich gehe hier ueber den Strich da ich eigentlich nichts erwaehnen sollte.
Es gab tatsaechlich minimale einstellige Prozentuale fuer beide IHVs im dritten Quartal aber es war nur fuer eine sehr kleine Anzahl von wafers. Haette NV im vierten Quartal hergestellt waere der Unterschied in Herstellungskosten zwischen Cypress und GF100 ~50% pro die gewesen. Wie es heute wirklich aussieht will ich noch nicht sagen, aber der Unterschied in Herstellungskosten zwischen den beiden ist sogar um einen kleinen Schnitt niedriger als Ende letzten Jahres.
Die Schaetzung dass Cypress radikal hoehere yields pro wafer landet hinkt in Realitaet an der wichtigen Kleinigkeit dass dieser eine groessere Packdichte hat und es somit hoehere Defektraten pro Quadratmillimeter vorzeigt als man erwarten wuerde.
Nebenbei wuerde es mich nicht wundern wenn es bald eine "5830" geben koennte mit niedrigeren Frequenzen als 5850.
tombman
2010-01-22, 15:47:37
Also, ich hab gelesen, daß man bei TSMC beides "buchen" kann:
1.) Entweder pro Wafer mit eigenem Risiko = günstiger
2.) oder pro Chip, dann aber deutlich teurer
Labberlippe
2010-01-22, 15:49:38
Also, ich hab gelesen, daß man bei TSMC beides "buchen" kann:
1.) Entweder pro Wafer mit eigenem Risiko = günstiger
2.) oder pro Chip, dann aber deutlich teurer
Hi
Ich glaube das dies auch eher den Nagel auf den Kopf trifft.
Vorallem wenn ich bedenke was ja hier mal über Risk Waffer geredet wurde.
Gruss Labberlippe
@ Ail
5830 kommt doch eh im Februar ;)
Knapp 50% höhere Herstellungskosten sind doch recht viel, denn so günstig ist RV870 auch nicht.
@ Tombman
Natürlich bekommt man beides, ist eh alles reine Verhandlungssache. TSMC haftet aber für Fehler sie verursachen.
Ailuros
2010-01-22, 16:01:57
@ Ail
5830 kommt doch eh im Februar ;)
Aus gutem Grund. Anscheinend gibt es eine gute Anzahl an chips mit allen clusters voll operativ die aber nicht 5850 Frequenzen erreichen koennen.
Knapp 50% höhere Herstellungskosten sind doch recht viel, denn so günstig ist RV870 auch nicht.
Wie wird der Preisunterschied zwischen einer 5870 und einer 380 wohl aussehen?
Es gab tatsaechlich minimale einstellige Prozentuale fuer beide IHVs im dritten Quartal aber es war nur fuer eine sehr kleine Anzahl von wafers. Haette NV im vierten Quartal hergestellt waere der Unterschied in Herstellungskosten zwischen Cypress und GF100 ~50% pro die gewesen. Wie es heute wirklich aussieht will ich noch nicht sagen, aber der Unterschied in Herstellungskosten zwischen den beiden ist sogar um einen kleinen Schnitt niedriger als Ende letzten Jahres.
Die Schaetzung dass Cypress radikal hoehere yields pro wafer landet hinkt in Realitaet an der wichtigen Kleinigkeit dass dieser eine groessere Packdichte hat und es somit hoehere Defektraten pro Quadratmillimeter vorzeigt als man erwarten wuerde.
Ich nehme an die Quelle ist NV. :rolleyes:
Das kann nur Blödsinn sein, schon das Die ist >50% größer, die Yields werden mit Sicherheit schlechter sein. Mit der Packdichte hat das erstmal gar nichts zu tun, es zählt die Die-Größe.
Ailuros
2010-01-22, 16:23:02
Ich nehme an die Quelle ist NV. :rolleyes:
Keiner der beiden IHVs.
Das kann nur Blödsinn sein, schon das Die ist >50% größer, die Yields werden mit Sicherheit schlechter sein. Mit der Packdichte hat das erstmal gar nichts zu tun, es zählt die Die-Größe.
Die Schaetzung dass Cypress radikal hoehere yields pro wafer landet...
Uebrigens (nichts Neues aber wenn es schon von Charlie kommt muss es ja auch stimmen...):
TSMC HAS REPORTEDLY fixed its yield issues with its 40nm manufacturing process, you know the one that all the new GPUs from AMD and Nvidia rely on. This should hopefully mean that there won’t be any more shortages of GPUs, at least for the ones that are already in production.
The Digitimes story suggests that TSMC has gotten the yields for its 40nm parts up to the same level as its 65nm parts, which if true is great news as the 65nm manufacturing process is quite mature by now. This is all according to TSMC's senior VP of operations, Mark Liu and hopefully we can take his word for it.
In related news, TSMC has just completed its new factory building, which is known as Phase 5 and will house TSMC’s 28nm manufacturing node. It’s part of TSMC’s Fab 12 located in Hsinchu Science Park in Taiwan. Phase 5 is set to start volume production of 28nm wafers in the third quarter of this year. Hopefully TSMC will have fewer issues with its 28nm manufacturing process than it has had with the 40nm process.
The company is also planning its next step, which predictably is called Phase 6. This fab is said to be for 22nm products, although this is most likely a couple of years away since construction hasn’t started as yet. So, who will be first with 28nm products? Well, Nvidia could do with having Fermi re-spun at 28nm if nothing else, but by the looks of things it can’t afford to wait until TSMC has gotten its production lines up and running.S|A
http://www.semiaccurate.com/2010/01/20/tsmc-fixes-40nm-yield-issues/
***edit:
http://www.fudzilla.com/content/view/17357/1/
Our sources are whispering that Nvidia has promised Fermi chips and Fermi boards in February. The final specification should be closed one of these days if it wasn't closed already, and the partners can start planning the final cards.
The first batch is naturally controlled by Nvidia and partners will only get to buy cards, but at later date someone might even dare to make its own design. This is naturally very unlikely due to big cost and the fact that Nvidia gets too scared that something might go wrong.
Stimmt denn sample press = Februar
http://www.fudzilla.com/content/view/17356/1/
280W laut AMD.
Botcruscher
2010-01-22, 16:57:34
Aus gutem Grund. Anscheinend gibt es eine gute Anzahl an chips mit allen clusters voll operativ die aber nicht 5850 Frequenzen erreichen koennen.
Mit voller Einheitenzahl werden wir das Ding ganz sicher nicht sehen. Das wäre sonst die perfekte OC Karte. Wenn man nur die Geschwindigkeit der 4890 erreichen will muss man schon gut kastrieren.
Ailuros
2010-01-22, 17:00:13
Mit voller Einheitenzahl werden wir das Ding ganz sicher nicht sehen. Das wäre sonst die perfekte OC Karte. Wenn man nur die Geschwindigkeit der 4890 erreichen will muss man schon gut kastrieren.
So meinte ich es auch nicht. Aber wegwerfen als ein paar Einheiten zu deaktivieren waere um einiges doofer oder?
Bucklew
2010-01-22, 17:01:18
Das kann nur Blödsinn sein, schon das Die ist >50% größer, die Yields werden mit Sicherheit schlechter sein. Mit der Packdichte hat das erstmal gar nichts zu tun, es zählt die Die-Größe.
Natürlich steigt mit höherer Packungsdichte auch die Chance eines Defektes. Wenn ich 100 Porzellanvasen auf 2m² verteile und nen Ball reinwerfe ist die Chance das was kaputt geht deutlich größer als bei nur 10 Vasen auf derselben Fläche.
Aus gutem Grund. Anscheinend gibt es eine gute Anzahl an chips mit allen clusters voll operativ die aber nicht 5850 Frequenzen erreichen koennen.
Wie wird der Preisunterschied zwischen einer 5870 und einer 380 wohl aussehen?
Die Packdichte mal wieder für den Prozess zu hoch (die Packdichte schlägt auf den Takt/Verbrauch)?
Die 380 hat einen klar höheren Preis, aber nicht nur der Chip selber sondern auch die Platine mit allem drum und dran sowie die Kosten für F&E sind höher. Nvidia braucht dann auch ein entsprechendes Volumen, AMD hat schon gut Chips verkauft.
mictasm
2010-01-22, 17:03:01
Wieso sollte es eine perfekte OC-Karte sein, wenn die GPU keine höheren Frequenzen aushält?
Weil der Markt mehr solcher Karten verlangt als abfallen und AMD dann auch vollwertige Chips auf die Karten löten müssen.
Botcruscher
2010-01-22, 17:05:08
Wieso sollte es eine perfekte OC-Karte sein, wenn die GPU keine höheren Frequenzen aushält?
Weil das nur eine Frage der Kühlung und Spannung ist.
So meinte ich es auch nicht.
Es wäre trotzdem blöde die Karte massiv beschnitten zu verkaufen. Dann sollte man lieber einem Kartenhersteller die Chips exklusiv für eine Kleinserie anbieten und beispielsweise als 5855 mit vollen Einheiten verscherbeln.
Gipsel
2010-01-22, 17:08:13
Das kann nur Blödsinn sein, schon das Die ist >50% größer, die Yields werden mit Sicherheit schlechter sein. Mit der Packdichte hat das erstmal gar nichts zu tun, es zählt die Die-Größe.
Das kommt auf die Art des Problems an. Sind es Punktdefekte, bestimmt die Fläche schon ganz gut den yield.
Wie ich die Probleme bei TSMC verstehe, haben die aber nicht nur Probleme mit einem niedrigen Yield allgemein, sondern auch den Prozeß an sich nicht richtig im Griff. D.h. es versagt die präzise Kontrolle relevanter Parameter, wodurch sich eine sehr hohe Variabilität der Eigenschaften der Transistoren ergibt. Dies skaliert dann schon mit der Anzahl der Transistoren, ist allerdings auch extrem vom Design des Chips abhängig, d.h. in welchem Maße toleriert es das Design, wenn ein paar Transistoren mit einem mal 20% weniger Strom schalten, als sie es sollten. Oft läuft es dann mit einem niedrigerem Takt (oder höherer Spannung) trotzdem irgendwie. Bei speziellen Schaltungen, bei denes es sehr auf die Synchronisation/Timing ankommt, kann das aber schon zu noch größeren Problemen führen.
Was genau bei TSMC und dessen Kunden ATI bzw. nvidia das Problem ist und wie es sich im Detail auswirkt, wird wohl keiner der Beteiligten rausrücken.
Aus gutem Grund. Anscheinend gibt es eine gute Anzahl an chips mit allen clusters voll operativ die aber nicht 5850 Frequenzen erreichen koennen.Allerdings wird die 5830 ja wohl niedrigere Frequenzen und mehr deaktivierte SIMD Engines haben als die 5850 (ich würde auf nur noch 12, d.h. 1280 Shader, tippen, bei einem Takt von 650MHz oder so). Von den Übertaktungsergebnissen der 5850 (gehen oft ähnlich hoch wie die 5870), würde ich jetzt mal sagen, daß Defekte wohl nicht weniger schwer wiegen im Vergleich zu den Frequenzen (5850 läuft ja auch nur mit 725MHz statt 850 MHz).
Natürlich steigt mit höherer Packungsdichte auch die Chance eines Defektes. Wenn ich 100 Porzellanvasen auf 2m² verteile und nen Ball reinwerfe ist die Chance das was kaputt geht deutlich größer als bei nur 10 Vasen auf derselben Fläche.
Was für ein blösinniger Vergleich. Hast du schon mal ein Loch in einem Siliziumdie gesehen?
Gipsel
2010-01-22, 17:11:32
Natürlich steigt mit höherer Packungsdichte auch die Chance eines Defektes. Wenn ich 100 Porzellanvasen auf 2m² verteile und nen Ball reinwerfe ist die Chance das was kaputt geht deutlich größer als bei nur 10 Vasen auf derselben Fläche.
Wenn Dein Ball (Punktdefekt) aber 1 m Durchmesser hat, ist aber in jedem Fall was kaputt ;)
Bucklew
2010-01-22, 17:15:17
Wenn Dein Ball (Punktdefekt) aber 1 m Durchmesser hat, ist aber in jedem Fall was kaputt ;)
Bei den 100 Vasen aber auch wieder mehr als bei den 10 ;)
Gipsel
2010-01-22, 17:19:11
Bei den 100 Vasen aber auch wieder mehr als bei den 10 ;)
Was vollkommen egal ist, da sobald 1 Vase zerbricht, die jeweilige SIMD-Engine, der Memory-Controller, der ROP, die TMU oder der Rasterizer in dem diese Vase steht, einfach nicht mehr funktioniert ;D
Die Anzahl der kaputten Transistoren in einer Einheit ist total egal, sie muß danach deaktiviert werden oder man kann den Chip wegwerfen. Nur bei den Caches ist das etwas anders, da die meist eine gewisse Redundanz besitzen.
Edit:
Und bevor Du anfängst "Fermi hat aber mehr Caches", möchte ich das auf SRAM-Arrays verallgemeinern und mal kurz überschlagen, was es da Bekanntes gibt (zusätzlich gibt es noch jede Menger kleiner Puffer, die aber nirgendwo genau beschrieben sind).
RV870:
20 * 256 kB Register = 5 MB
20 * 32 kB local memory = 640 kB
20 * 8 kB L1 Texture Cache = 160 kB
8 * 4 kB Write Combining Puffer = 32 kB
8 * 16 kB Cache für global memory = 128 kB
8 * 64 kB L2 Texture Cache = 512 kB
64 kB global data share
Summa summarum macht das 6656 kB für bekannte SRAM Arrays
Fermi:
16 * 128 kB Register = 2 MB
16 * 64 kB L1/local memory = 1 MB
16 * 12 kB L1 Texture Cache = 192 kB
6 * 128 kB L2 Cache = 768 kB
Summa summarum macht das bei mir 4032 kB SRAM Arrays. Fermi spart sich ein paar der extra Caches durch den allgemeinen L2, der nicht nur für Texturen da ist. Selbst wenn man den 3MB Unterschied bei den Registern rausrechnet, hat Fermi pro Fläche weniger SRAM.
Ailuros
2010-01-22, 18:20:04
Summa summarum macht das bei mir 4032 kB SRAM Arrays. Fermi spart sich ein paar der extra Caches durch den allgemeinen L2, der nicht nur für Texturen da ist. Selbst wenn man den 3MB Unterschied bei den Registern rausrechnet, hat Fermi pro Fläche weniger SRAM.
Zwar verdammt OT aber im eingebetteten Bereich brechen sie jeden SRAM Menge Rekord.
Bucklew
2010-01-22, 18:30:11
Was vollkommen egal ist, da sobald 1 Vase zerbricht, die jeweilige SIMD-Engine, der Memory-Controller, der ROP, die TMU oder der Rasterizer in dem diese Vase steht, einfach nicht mehr funktioniert ;D
Die Vase ist aber ein SIMD-Engine, Memorycontroller oder ROP :tongue:
Gipsel
2010-01-22, 18:33:44
Die Vase ist aber ein SIMD-Engine, Memorycontroller oder ROP :tongue:
Natürlich steigt mit höherer Packungsdichte [der Transistoren] auch die Chance eines Defektes. Wenn ich 100 Porzellanvasen auf 2m² verteile und nen Ball reinwerfe ist die Chance das was kaputt geht deutlich größer als bei nur 10 Vasen auf derselben Fläche.
;D
Edit:
Und ich vermute auch, Du kannst mir nicht erklären, wie ein einziger Punktdefekt eine SIMD-Engine und einen ROP und einen Speichercontroller außer Gefecht setzt, oder? :rolleyes:
Bucklew
2010-01-22, 18:42:15
;D
Edit:
Und ich vermute auch, Du kannst mir nicht erklären, wie ein einziger Punktdefekt eine SIMD-Engine und einen ROP und einen Speichercontroller außer Gefecht setzt, oder? :rolleyes:
Ich weiß grad nicht wo dein Problem sitzt, beim lesen oder beim verstehen. Verrat mir das kurz, dann kann ich auch ne sinnvolle Antwort schreiben, aktuell könnt ich mich einfach nur wiederholen ;)
mapel110
2010-01-22, 20:03:11
http://www.youtube.com/watch?v=UYIPg8TEMmU&feature=channel
Das Fluids-Video neu?!
http://www.youtube.com/watch?v=UYIPg8TEMmU&feature=channel
Das Fluids-Video neu?!
Gabs die nicht schon auf der Fermi Fake Präsentation?
Gipsel
2010-01-22, 20:29:54
Ich weiß grad nicht wo dein Problem sitzt, beim lesen oder beim verstehen. Verrat mir das kurz, dann kann ich auch ne sinnvolle Antwort schreiben, aktuell könnt ich mich einfach nur wiederholen ;)
Beides (allerdings bei Dir)? Kleiner Tipp, vergleiche mal die beiden von mir zitierten Aussagen von Dir (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7797880#post7797880)! Wenn Dir da kein Widerspruch auffällt, dann kann ich Dir auch nicht helfen.
Der Gipser mal wieder ... wenn ihm die Argumente ausgehen, fängt er an mit spöttischen Smileys um sich zu werfen :rolleyes:
Andere haben für sowas schon Boardurlaub bekommen. Aber die AMD Fanboys dürfen ja hier eh alles :(
*seufz* Der Punktdefekt heißt nur so, tatsächlich hat er natürlich schon eine räumliche Ausdehnung (mind. 1 Quadratplancklänge).
Bevor ich Boardurlaub bekomme, müßte ich viel Schlimmeres tun, als fundiert zu argumentieren. Und mir sind noch nie die Argumente ausgegangen ;)
Und natürlich hat ein Punktdefekt auch eine gewisse Ausdehnung. Ich empfehle Dir, nochmal die Analogie mit den Vasen und dem Ball (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7797706#post7797706) zu lesen! :rolleyes:
Edit:
Und jetzt komme mir keiner mit einem Punktdefekt aus der Festkörperphysik. Ich bin zufällig Physiker. Insofern geht auch das (der Trollversuch?) mit der Planck-Länge ins Leere.
y33H@
2010-01-22, 20:34:49
Das Fluids-Video neu?!*drin baden will*
Nightspider
2010-01-22, 20:35:36
Was vollkommen egal ist, da sobald 1 Vase zerbricht, die jeweilige SIMD-Engine, der Memory-Controller, der ROP, die TMU oder der Rasterizer in dem diese Vase steht, einfach nicht mehr funktioniert ;D
Die Anzahl der kaputten Transistoren in einer Einheit ist total egal, sie muß danach deaktiviert werden oder man kann den Chip wegwerfen. Nur bei den Caches ist das etwas anders, da die meist eine gewisse Redundanz besitzen.
Edit:
Und bevor Du anfängst "Fermi hat aber mehr Caches", möchte ich das auf SRAM-Arrays verallgemeinern und mal kurz überschlagen, was es da Bekanntes gibt (zusätzlich gibt es noch jede Menger kleiner Puffer, die aber nirgendwo genau beschrieben sind).
RV870:
20 * 256 kB Register = 5 MB
20 * 32 kB local memory = 640 kB
20 * 8 kB L1 Texture Cache = 160 kB
8 * 4 kB Write Combining Puffer = 32 kB
8 * 16 kB Cache für global memory = 128 kB
8 * 64 kB L2 Texture Cache = 512 kB
64 kB global data share
Summa summarum macht das 6656 kB für bekannte SRAM Arrays
Fermi:
16 * 128 kB Register = 2 MB
16 * 64 kB L1/local memory = 1 MB
16 * 12 kB L1 Texture Cache = 192 kB
6 * 128 kB L2 Cache = 768 kB
Summa summarum macht das bei mir 4032 kB SRAM Arrays. Fermi spart sich ein paar der extra Caches durch den allgemeinen L2, der nicht nur für Texturen da ist. Selbst wenn man den 3MB Unterschied bei den Registern rausrechnet, hat Fermi pro Fläche weniger SRAM.
Machen die ATI Karten deswegen nicht so schnell schlapp, wenn der VRAM ausgeht oder hat das gar nix damit zu tun?
Gipsel
2010-01-22, 20:39:47
Machen die ATI Karten deswegen nicht so schnell schlapp, wenn der VRAM ausgeht oder hat das gar nix damit zu tun?
Nein, das hat nichts damit zu tun. Das liegt eher am Handling der verschiedenen Daten (z.B. Texturen) durch den Treiber.
Bucklew
2010-01-22, 21:53:03
Beides (allerdings bei Dir)? Kleiner Tipp, vergleiche mal die beiden von mir zitierten Aussagen von Dir (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7797880#post7797880)! Wenn Dir da kein Widerspruch auffällt, dann kann ich Dir auch nicht helfen.
Nö, wo ist da ein Widerspruch?
Wenn so ein Punktdefekt zufällig genau zwischen zwei unterschiedlichen Clustern ist (egal ob Shadereinheit, ROP oder sonstwas), dann ist natürlich die Wahrscheinlichkeit, dass beide kaputt sind mit höhere Packungsdichte größer. Wo ist das jetzt ein Widerspruch?
Durch 5MiB kann man kaum 500MiB ausgleichen.
Man kann höchstens die geringe Bandbreite ausgleichen.
Aber wenn ich das so anschaue, sieht es nicht gerade so aus, als ob RV870 mehr Cache hätte, im Gegenteil.
Einzig und allein die doppelt so großen Register machen diesen Eindruck.
Wenn so ein Punktdefekt zufällig genau zwischen zwei unterschiedlichen Clustern ist (egal ob Shadereinheit, ROP oder sonstwas), dann ist natürlich die Wahrscheinlichkeit, dass beide kaputt sind mit höhere Packungsdichte größer. Wo ist das jetzt ein Widerspruch?
Und was juckt GF100 ein Defekt zweier Cluster?
Das Ding läuft immer noch, gerade dafür gibts die kleinen mit der größeren Nachfrage.
Gipsel
2010-01-22, 23:58:29
Nö, wo ist da ein Widerspruch?
Okay, zuerst hast Du die Vasen und ihre Packdichte mit Transistoren gleichgesetzt, dann sollten sie mit einem Mal ganze Einheiten sein. War das so schwer? Und jetzt sage mir nicht, daß Du nicht verstehst, was Du geschrieben hast.
Wenn so ein Punktdefekt zufällig genau zwischen zwei unterschiedlichen Clustern ist (egal ob Shadereinheit, ROP oder sonstwas), dann ist natürlich die Wahrscheinlichkeit, dass beide kaputt sind mit höhere Packungsdichte größer. Wo ist das jetzt ein Widerspruch?
Erstmal ist zwischen zwei Einheiten normalerweise kein Transistor (da wird schon mal ein halber Mikrometer Platz gelassen, bzw. ergibt sich das oft so durch das Layout), der irgendwie nicht funktionieren könnte und selbst wenn, ist die Wahrscheinlichkeit, daß so ein Defekt direkt an der Grenze zweier Einheiten auftritt und gerade zwei Transistoren benachbarter Einheiten betrifft und so beide ins Grab reißt praktisch vernachlässigbar. Anders gesagt, die Fläche der Grenzen ist verschwindend gering zur Fläche der Einheiten.
So, und jetzt Schluß mit dieser blödsinnigen Yield-Diskussion. Es ist alles Wesentliche dazu gesagt worden (und damit meine ich nicht die Vasenvergleiche).
Aber wenn ich das so anschaue, sieht es nicht gerade so aus, als ob RV870 mehr Cache hätte, im Gegenteil.
Einzig und allein die doppelt so großen Register machen diesen Eindruck.
Hmm, bei mir bleiben beim Cypress nach Abzug der Register genau 1536 kB (1,5MB) übrig, bei Fermi 1984 kB. Selbst wenn ich das großzügig auf 2 MB aufrunde, ist das 4:3 Verhältnis von Fermi zu Cypress kleiner als das der der jeweiligen Diegrößen (~550mm² : 334 mm²). Also Fermi hat auch ohne die Register (genau wie ich schrieb) weniger SRAM pro Fläche, sprich, die Redundanz dort wird den Yields auch nicht helfen.
Hmm, bei mir bleiben beim Cypress nach Abzug der Register genau 1536 kB (1,5MB) übrig, bei Fermi 1984 kB. Selbst wenn ich das großzügig auf 2 MB aufrunde, ist das 4:3 Verhältnis von Fermi zu Cypress kleiner als das der der jeweiligen Diegrößen (~550mm² : 334 mm²). Also Fermi hat auch ohne die Register (genau wie ich schrieb) weniger SRAM pro Fläche, sprich, die Redundanz dort wird den Yields auch nicht helfen.
Stimmt, aber darauf wollte ich gar nicht hinaus. :redface:
Ich dachte eben nur an den Leistungsaspekt. Diese Aufschlüsselung der Caches ist schonmal sehr interessant.
Gipsel
2010-01-23, 01:08:04
Ich dachte eben nur an den Leistungsaspekt. Diese Aufschlüsselung der Caches ist schonmal sehr interessant.
Ist eben das, was dazu öffentlich bekannt ist. Wie gesagt, kleinere Puffer irgendwo und vor allem auch der Instruktionscache fehlen bei beiden noch. Dazu existieren bloß keine Angaben irgendwo (außer, daß einen I-Cache gibt).
Obwohl, da fällt mir ein, daß ich irgendwo mal gelesen habe, ab welcher Programmgröße (des nativen Codes für die GPU) die Leistung auf ATIs einbricht. Das war doch ziemlich viel, also mehr als ich ursprünglich gedacht habe (aber so ein VLIW-Bundle ist auch ziemlich groß, 40 bis 56 Bytes um genau zu sein). Mal sehen, ob ich das noch irgendwo finde.
Edit:
Also angeblich hat das mal wer ausgetestet und kommt sowohl für Juniper als auch RV740 (er hat eine HD5770 und eine HD4770 verglichen) auf 48kB (hatte mehr in Erinnerung). Zumindest interpretiert er die Ergebnisse so, allerdings ist das ein wenig schwierig ohne weitere Kenntnisse. Eventuell ist das auch nur das Fassungsvermögen des Schedulers oder sowas in der Art. Was er noch bemerkt hat, ist daß eine HD5770 viel weniger einbricht als eine HD4770, wenn diese Grenze überschritten wird.
OgrEGT
2010-01-23, 08:46:13
http://www.brightsideofnews.com/news/2010/1/21/nvidia-gf100-fermi-silicon-cost-analysis.aspx
Noch ein Rechenkünstler. :ugly:
@Ail:
Na da war doch auch meine "Milchmädchenrechnung" gar nicht so schlecht :)
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7752665#post7752665
Ailuros
2010-01-23, 09:16:45
@Ail:
Na da war doch auch meine "Milchmädchenrechnung" gar nicht so schlecht :)
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7752665#post7752665
Obwohl es eine Unzahl an Fehlern in Theo's Artikel gibt, liegt er in seiner Kost-schaetzung fuer Fermi gar nicht so weit von der Realitaet (nur einen Schnitt zu hoch angeschlagen): Realistic goal is 40% and nVidia is going to end up with 24x24mm die costing $131 [40% yield] and in fairy tale land, nVidia is going to pay only $87 per chip
Fairy tale land ist tatsaechlich nicht realistisch. Theo's Fehler liegen erstmal im echten die size von gf100 und von da an verbreiten sich die Fehler auch auf seine Cypress Schaetzungen (nicht direkt mit die area verbunden da 334mm2 zweifellos stimmt).
Lange Geschichte kurz: es gibt fuer beide IHVs Preisanpassungen fuer beschissene yields (prozessbedingte Fehler).
Now, if nVidia would have to pay $131 for a single GF100 - that would not be that bad, given the current cost of single AMD Cypress die is $96. For as long as you're under $100 per die, you can count your blessings with TSMC's 40nm process. Reality is that AMD can easily reach 60-70% yields with Cypress and they will drive the cost of a single Cypress ASIC to anywhere between $54-64 [70 to 60% yield]. Thus, cost advantage AMD, no matter what happens.
Wenn man den insgesamt durchschnittlichen yield von 40G@TSMC nimmt und diesen stur auf Cypress uebertraegt dann hapert es irgendwo in der Mathe. Ich hab seine 2 Kost-schaetzungen fuer Cypress fettgedruckt; das erste ist zu hoch, das zweite viel zu niedrig.
Du solltest nicht vergessen dass NV aus gutem Grund im Q3 09' nicht unter Produktion lag mit GF100. Zu diesem Zeitpunkt bei den ultra beschissenen yields lagen die Kosten (yield Rabbatt seitens TSMC inklusive) fuer einen einzelnen Cypress ungefaehr auf dem Nivaeu wo die Kosten eines heutigen GF100 liegen. Fuer AMD war es auch praktisch wurscht da die yields am Anfang fuer Cypress sowieso ziemlich beschissen waren, aber sie sahen sich auch gezwungen den 5850 um ein bisschen zu erhoehen damit man nicht im roten Bereich ankommt (fuer diese).
Ich weiss ich mach es niemand leicht sich etwas ausrechnen zu koennen, aber wenn NV in Q3 09' hergestellt haette (denk Cypress damals auf ~ heutigen GF100 Herstellungskosten + <50%) dann waeren NV's 360 SKUs garantiert im roten Bereich gewesen.
Es gab tatsaechlich minimale einstellige Prozentuale fuer beide IHVs im dritten Quartal aber es war nur fuer eine sehr kleine Anzahl von wafers. Haette NV im vierten Quartal hergestellt waere der Unterschied in Herstellungskosten zwischen Cypress und GF100 ~50% pro die gewesen. Wie es heute wirklich aussieht will ich noch nicht sagen, aber der Unterschied in Herstellungskosten zwischen den beiden ist sogar um einen kleinen Schnitt niedriger als Ende letzten Jahres.
Nun lieber Ail, um an yield zahlen zu kommen muss man schon sehr sehr gute Verbindungen haben. Ich nehme es dir gerade so noch ab das du solche zu jemanden von NV unterhältst, jedoch bezweifle ich, das du auch solche zu ATI hast was folglich bedeutet, das du alle ATI Zahlen aus dem Dunstkreis von NV bekommst.
TSMC erzählt aber NV nicht was ATI für yields hat und ATI nicht was NV für yields hat. Somit frage ich mich wie NV an die ATI yields kommen will? Natürlich über irgendjemand unter der Hand. Genauso gut kann das ganze jemand erfunden haben um seinen Arsch zu retten, denn gute Laune und sichere Arbeitsplätze dürfte es bei NV zur Zeit nicht gerade geben, denn irgendwann müssen Köpfe rollen nach diesem Desaster. Da ist es doch schön zu glauben, um vom eigenen Unvermögen abzulenken, das ATI angeblich relativ auf die Größe gesehen sogar schlechtere yields hätte.
Desweiteren ist yield nicht nur funktionieren sondern auch das target zu treffen. Sonst hätte nämlich NV auch im Q4 schon ohne mit der Wimper zu zucken gelauncht. Was uns zu dem Thema Taktraten führt. Selbst wenn NV tatsächlich pro funktionierendem chip nur knapp das doppelte zahlt ist weiterhin fraglich wie die bin Verteilung aussieht.
aha, deine Quelle arbeitet also bei TSMC und du willst uns erzählen ein Cypress kostet aktuell 80$ und ein GF100 120$?
Sorry, aber das ist absolut lächerlich!
crux2005
2010-01-23, 13:12:54
Eine Sache fällt mir auf - hat nVidia nichts am MC/Crossbar gemacht oder wird darüber nur nicht geschrieben? Laut Ail und anderen ist das ja gerade eine Schwäche von GT200. Die sollte bei GF100 doch entfernt worden sein.
Ailuros
2010-01-23, 13:26:35
Nun lieber Ail, um an yield zahlen zu kommen muss man schon sehr sehr gute Verbindungen haben. Ich nehme es dir gerade so noch ab das du solche zu jemanden von NV unterhältst, jedoch bezweifle ich, das du auch solche zu ATI hast was folglich bedeutet, das du alle ATI Zahlen aus dem Dunstkreis von NV bekommst.
Charlie ist auf payroll von einem der beiden IHVs ich war es nie und werde es auch nicht sein. Deine laecherlichen Versuche einen guten Grund zu finden weil Dir der Inhalt nicht passt kannst Du Dir sparen. Ich zumindest hab den Anstand mich nicht hinter der Anonymitaet eines Gasts zu verstecken. Zu wo ich Beziehungen habe oder nicht geht Dich eine feuchten Dreck an und noch mehr da ich mich nicht als Pseudojournalist wie andere praesentiere, was mich eben (ziemlich praktisch als persoenliche Entschuldigung) erstmal nicht verantwortlich macht fuer das was ich weitertrage.
TSMC erzählt aber NV nicht was ATI für yields hat und ATI nicht was NV für yields hat. Somit frage ich mich wie NV an die ATI yields kommen will? Natürlich über irgendjemand unter der Hand. Genauso gut kann das ganze jemand erfunden haben um seinen Arsch zu retten, denn gute Laune und sichere Arbeitsplätze dürfte es bei NV zur Zeit nicht gerade geben, denn irgendwann müssen Köpfe rollen nach diesem Desaster. Da ist es doch schön zu glauben, um vom eigenen Unvermögen abzulenken, das ATI angeblich relativ auf die Größe gesehen sogar schlechtere yields hätte.
Damit es zwischen den IHVs erstmal Spionage gibt, muss es erstmal eine Spion geben.
Desweiteren ist yield nicht nur funktionieren sondern auch das target zu treffen. Sonst hätte nämlich NV auch im Q4 schon ohne mit der Wimper zu zucken gelauncht. Was uns zu dem Thema Taktraten führt. Selbst wenn NV tatsächlich pro funktionierendem chip nur knapp das doppelte zahlt ist weiterhin fraglich wie die bin Verteilung aussieht.
Jeder hat das Recht zu glauben was er will.
aha, deine Quelle arbeitet also bei TSMC und du willst uns erzählen ein Cypress kostet aktuell 80$ und ein GF100 120$?
Sorry, aber das ist absolut lächerlich!
Nein zu allem. Fang nochmal von vorne an obwohl es Dir sowieso nicht weiterhelfen wird.
Die Trolle kommen wieder aus ihren Höhlen, der Thread muss vermutlich wieder vorübergehend geschlossen werden...
Gestrandet
2010-01-23, 13:45:42
Charlie ist auf payroll von einem der beiden IHVs
Weiß nit was so ne Behauptung soll :rolleyes:
Sry aber das ist unterstes Niveau, sowas sollte man IMHO Gästen überlassen.
Ehrlicher Hass und Bestechlichkeit sind schon noch zwei Paar Schuhe.
Es denkt ja auch keiner, Phillip Rösler hasst Kassenpatienten ;)
Ehrlicher Hass und Bestechlichkeit sind schon noch zwei Paar Schuhe.
Ehrlicher Hass? Worauf begründet?
Das ist also der Grund, das er immer schön nach Fehlern bei Nvidia sucht, bzw notfalls welche erfindet.
Bei AMD z.b. macht er niemals soetwas. Zeugt von Objektivität. :rolleyes:
Ehrlicher Hass, also bitte, das kann eine Privatperson noch haben, das nennt man dann Fanboy, aber als Redakteur ist das nicht in Ordnung.
Ailuros
2010-01-23, 14:03:34
Weiß nit was so ne Behauptung soll :rolleyes:
Weil sich AMD's PR Quark ueber angeblich enorme Kosten fuer NV bis zum Komma mit dessen Behauptungen deckt?
Sry aber das ist unterstes Niveau, sowas sollte man IMHO Gästen überlassen.
Ich gehoere aber zu den Benutztern hier dazu die den jeweiligen Dreck auch aufraeumen muessen. Und wenn dazu noch jemand versucht mich indirekt an die Wand zu nageln, geht mir meine Geduld auch aus (und nein ich mein natuerlich nicht Dich). Und ich erklaer noch ein bisschen dazu....
Ehrlicher Hass und Bestechlichkeit sind schon noch zwei Paar Schuhe.
Glaubst Du eigentlich dass ich so naiv bin und glaube dass Charlie's Problem nur ein einfacher Hass-kreuzzug ist? Bis zu einem Punkt ist es auch so, nur traegt er den Kreuzzug fuer jemand anders aus.
Wenn ich lediglich 3 Tage bevor Charlie jeglichen Artikel veroeffentlicht weiss dass der Inhalt sich zu 100% mit dem Quark von AMD's PR decken wird muss zwar nicht unbedingt Geld unterm Tisch fliessen, aber es war natuerlich jemand so dumm in der Zwischenzeit und hat es bestaetigt zu jemand dem er vertraute.
Dass das Ganze ein unendlicher Saustall ist weiss wohl jeder in der Zwischenzeit. Ich hab aber persoenlich jedes Recht zu meckern als ich von den gleichen Personen in der Vergangenheit eine Hexenjagd auf meinem Fell erleben musste (obwohl ich keinen einzigen Gewissensbiss habe fuer das was ich eingentlich machte) und heute erlebe ich von meinen vorigen Inquisitions-Heinis das ekelhafteteste virale FUD marketing ueberhaupt. Und jetzt komm mir nicht Du und erzaehl mir irgendwelchen Scheiss ueber "Niveau" oder warum ich mit manchen Sachen etwas zu empfindlich bin.
***edit: und nein ich mecker hier auch nicht; haette ich Bock einen wirklichen Skandal zu "generieren" gibt es bessere Wege als sich bei 3DC hinter der deutschen Sprache zu verstecken.
igg,
Die Trolle kommen wieder aus ihren Höhlen, der Thread muss vermutlich wieder vorübergehend geschlossen werden...
Ich hab die Geschichte mit den yields dort wieder angepackt wo ich sie gelassen hatte bevor ich den Thread fuer einen Tag geschlossen hatte und er wird von mir zumindest diesmal auch nicht geschlossen weil mir ein paar Herren glauben sie koennen Eindruecke gewinnen. Den Luxus goenn ich ihnen erstmal nicht.
Gestrandet
2010-01-23, 14:09:04
Und jetzt komm mir nicht Du und erzaehl mir irgendwelchen Scheiss ueber "Niveau" oder warum ich micht manchen Sachen etwas zu empfindlich bin.
öhm ... ich glaube, du verwechselst mich?!? :confused:
Ailuros
2010-01-23, 14:11:36
öhm ... ich glaube, du verwechselst mich?!? :confused:
Nein. Nichts war an Dich direkt gerichtet. Ich hab ein paar weitere Erlaeuterungen im vorigen Post zugeschoben.
redfirediablo
2010-01-23, 14:38:46
Obwohl es eine Unzahl an Fehlern in Theo's Artikel gibt, liegt er in seiner Kost-schaetzung fuer Fermi gar nicht so weit von der Realitaet (nur einen Schnitt zu hoch angeschlagen)
Wenn man den insgesamt durchschnittlichen yield von 40G@TSMC nimmt und diesen stur auf Cypress uebertraegt dann hapert es irgendwo in der Mathe. Ich hab seine 2 Kost-schaetzungen fuer Cypress fettgedruckt; das erste ist zu hoch, das zweite viel zu niedrig.
Zu Ergänzung: Du hast dich auf die Zahl 131$ von Theo bezogen und bezeichnest diese als einen Schnitt zu hoch angeschlagen, ergo behauptest du so um die 120$ rum für einen gf100. Jedenfalls weniger als 131$.
Bei Cypress bezeichnest du 60$ für viel zu niedrig, 96$ als zu hoch.
Aufgrund deiner Formulierung müsste der Preis also näher an 96$ liegen als an 60$, ergo 80$ oder sogar noch etwas mehr.
Das sind deine Aussagen und ich habe Sie nur zusammengefasst.
In Anbetracht dessen, dass fermi mehr als 1.5X größer ist und 1.4X mehr Transistoren hat, halte ich es jedenfalls für ziemlich lächerlich zu verbreiten, ein gf100 koste nur 50% mehr als ein Cypress. Letztlich weißt du also wahrscheinlich gar nichts und spielst dich nur auf.
In Anbetracht dessen, dass fermi mehr als 1.5X größer ist und 1.4X mehr Transistoren hat, halte ich es jedenfalls für ziemlich lächerlich zu verbreiten, ein gf100 koste nur 50% mehr als ein Cypress. Letztlich weißt du also wahrscheinlich gar nichts und spielst dich nur auf.
Warum, 50% mehr Silizium und 50% teurer passen doch.
In Anbetracht der Tatsache, das der Wafer nur ein Teil der Kosten ausmacht und in Anbetracht der Tatsache, das Teildefekte dennoch genutzt werden können.
mapel110
2010-01-23, 14:48:44
Warum, 50% mehr Silizium und 50% teurer passen doch.
In Anbetracht der Tatsache, das der Wafer nur ein Teil der Kosten ausmacht und in Anbetracht der Tatsache, das Teildefekte dennoch genutzt werden können.
UND in Anbetracht der Tatsache, dass es andere Vertrags-Konditionen geben dürfte bei unterschiedlichen Chipgrößen.
Gestrandet
2010-01-23, 14:55:33
UND in Anbetracht der Tatsache, dass es andere Vertrags-Konditionen geben dürfte bei unterschiedlichen Chipgrößen.
:confused:
Unterschiedliche Konditionen je nach Volumen kann ich ja nachvollziehen, aber wie soll ich mir DAS vorstellen? "Uiii, das ist aber ein Riesenchip, wollen Sie den wirklich bei uns fertigen lassen? Soviel Mut muss belohnt werden - 20% Rabatt!" oder wie? :D
redfirediablo
2010-01-23, 15:04:05
Warum, 50% mehr Silizium und 50% teurer passen doch.
In Anbetracht der Tatsache, das der Wafer nur ein Teil der Kosten ausmacht und in Anbetracht der Tatsache, das Teildefekte dennoch genutzt werden können.
Passen eben nicht. Das geht nur, wenn man annimmt das Fermi die gleichen yields erreicht wie Cypress, was ich aufgrund der deutlich kleineren die fläche und der deutlich geringeren Chipkomplexität arg bezweifele.
Das yield ist, Sondereffekte mal unbeachtet, abhängig von einer e funktion bezogen auf die Fläche. Das heißt, je größer das die, desto schlechter das yield, wobei es ab einer bestimmten die Größe bei konstanter Defektdichte dann ins Bodenlose stürzt.
Dural
2010-01-23, 15:04:26
könnt ihr jetzt endlich mal mit diesem thema aufhören, es ist so extrem mühsam! und bringen wird es rein gar nichts da 1. nimand weis wie die verträge/preise genau aussehen und 2. der herstellungspreis so gut wie keinen einfluss auf den verkaufspreis hat... zb. schon mal auf die idee gekommen das die kleinen chips die grossen mit finanzieren? ......
charli hat ja auch felsenfest behaubtet das ein GT200 150.- US Doller kostet und für welchen preis die am ende rausgingen wissen wir ja...
redfirediablo
2010-01-23, 15:10:48
und, weißt du auch wieviel Gewinn Nvidia und die Kartenhersteller dann noch gemacht habe? Nein, weißt du nicht.
Ich erklär dir nochmal warum die Diskussion sehr wohl wichtig ist:
Wenn Fermi im vergleich zur gebotenen Leistung in der Herstellung zu teuer ist, wird es dazu führen das die geforce Karten zum einen deutlich überteuert gegenüber der ATI Konkurrenz gepreist werden und zum anderen nur geringe Stückzahlen überhaupt in den Markt kommen, denn Nvidia würde dann nichts an den Karten verdienen. Das hätte zusätzliche Preisaufschläge zur folge und eine miserable Verfügbarkeit.
Warum ist das also wichtig? Wenn es so kommt wie ich annehme kann man davon ausgehen auch Monate nach Release keine Fermi basierte Geforce zu einem vernünftigen Preis zu bekommen. Gleichzeitig würde das dazu führen das auch ATI nicht dazu genötigt wird großartig die Preise zu senken.
Fazit für jemanden der jetzt eine Karte brauch: auf fermi warten lohnt nicht! Denn weder wird fermi bezahlbar, noch werden zu dem Zeitpunkt die Preise der ATI Karten in den Keller rauschen.
tombman
2010-01-23, 15:15:53
Ich glaube, daß der GTX380-Zielgruppe fast egal ist, ob das Teil 500€ oder 600€ kostet ;)
Und mehr als 600€ wird er kaum kosten, nachdem HD5870 preislich so weit unten ist- egal was Fermi in der Produktion kostet :)
Es gibt daher nur eine Sorge: ob man schnell genug beim release ist und noch einen bekommt ;D
Zatoichi
2010-01-23, 15:20:35
Ich glaube, daß der GTX380-Zielgruppe fast egal ist, ob das Teil 500€ oder 600€ kostet ;)
Und mehr als 600€ wird er kaum kosten, nachdem HD5870 preislich so weit unten ist- egal was Fermi in der Produktion kostet :)
Es gibt daher nur eine Sorge: ob man schnell genug beim release ist und noch einen bekommt ;D
Echt, das gleich habe ich auch gedacht:biggrin: Auf diese Karte bin ich unerklärlicher Weise scharf. Komisch ist aber so.
Das ganze Gebabbel ist mir eh zu technisch (sorry) und das gebashe einiger sowas von billig. Ich will eine Release Datum und eventuell einen Preis. Wie hoch wohl die erste Auslieferung ausfällt?
Passen eben nicht. Das geht nur, wenn man annimmt das Fermi die gleichen yields erreicht wie Cypress, was ich aufgrund der deutlich kleineren die fläche und der deutlich geringeren Chipkomplexität arg bezweifele.Teildefekte sind nutzbar. Das einer der GPCs kaputt geht ist sehr wahrscheinlich, die GPU ist dannach weiterhin voll nutzbar, auf der GTX 360, die eine höhere Nachfrage befriedigen muss.
Takt an sich könntest du auch bringen, Cypress taktet höher, ist aber schwer weils verschiedene Designs sind.
Teildefekte sind nutzbar. Das einer der GPCs kaputt geht ist sehr wahrscheinlich, die GPU ist dannach weiterhin voll nutzbar, auf der GTX 360, die eine höhere Nachfrage befriedigen muss.
Takt an sich könntest du auch bringen, Cypress taktet höher, ist aber schwer weils verschiedene Designs sind.
Ist auch nur teilweise richtig, da die TMUs und die ALUs einen höheren Takt als Cypress haben.
Fazit für jemanden der jetzt eine Karte brauch: auf fermi warten lohnt nicht! Denn weder wird fermi bezahlbar, noch werden zu dem Zeitpunkt die Preise der ATI Karten in den Keller rauschen.
Was ist die Alternative?
Als GTX 280 Nutzer interessiert mich die 5870 herzlich wenig, obwohl mich Mehrleistung interessiert.
Ist auch nur teilweise richtig, da die TMUs und die ALUs einen höheren Takt als Cypress haben.
TMUs sind nach Ailuros bei 725-825Mhz, also unter Cypress Niveau.
ALUs waren schon früher deutlich höher, aber du willst doch nicht ALU Takt mit ROP Takt gleichsetzten.
Was ist die Alternative?
Als GTX 280 Nutzer interessiert mich die 5870 herzlich wenig, obwohl mich Mehrleistung interessiert.
Wenn einen wirklich nur die Leistung interessiert und nicht was neues tolles im Rechner zu haben empfiehlt es sich oft eine Generation zu überspringen.
und, weißt du auch wieviel Gewinn Nvidia und die Kartenhersteller dann noch gemacht habe? Nein, weißt du nicht.
Du doch auch nicht. :lol:
Wenn Fermi im vergleich zur gebotenen Leistung in der Herstellung zu teuer ist, wird es dazu führen das die geforce Karten zum einen deutlich überteuert gegenüber der ATI Konkurrenz gepreist werden und zum anderen nur geringe Stückzahlen überhaupt in den Markt kommen, denn Nvidia würde dann nichts an den Karten verdienen. Das hätte zusätzliche Preisaufschläge zur folge und eine miserable Verfügbarkeit.
Oder es kommt ganz anders. Warte mal, konnte nicht Millionen von Menschen einen GT200 kaufen? Ach nein, das muss wohl in einer anderen Parallelwelt gewesen sein.
Warum ist das also wichtig? Wenn es so kommt wie ich annehme kann man davon ausgehen auch Monate nach Release keine Fermi basierte Geforce zu einem vernünftigen Preis zu bekommen. Gleichzeitig würde das dazu führen das auch ATI nicht dazu genötigt wird großartig die Preise zu senken.
Lol, selbst wenn GF100 nicht schneller wäre, wird man genug Karten für einen konkurrenzfähigen Preis erhalten. Was soll nVidia sonst machen? GT200b weiter produzieren, die in der Fertigung kaum bis nicht billiger und deutlich langsamer wäre?
Man, wie wäre es mal mit nachdenken. Nur ein bisschen. Für ein paar Sekunden. Dann würde man merken, dass man vielleicht nicht jeden Unsinn schreiben sollte.
Fazit für jemanden der jetzt eine Karte brauch: auf fermi warten lohnt nicht! Denn weder wird fermi bezahlbar, noch werden zu dem Zeitpunkt die Preise der ATI Karten in den Keller rauschen.
Soso und wenn man jetzt eine Karte will, die vielleicht deutlich schneller als Cypress ist?
TMUs sind nach Ailuros bei 725-825Mhz, also unter Cypress Niveau.
ALUs waren schon früher deutlich höher, aber du willst doch nicht ALU Takt mit ROP Takt gleichsetzten.
Nein.
Aber wenn es nur ~800Mhz sind bedeutet das ja keine sonderliche Texfill steigerung.
Die ALUs takten nicht höher weil es schlich nicht geht.
Könnte man die ALUs so hoch wie im G92 takten wäre das sicher das ultimative Design.
Aber es ist ja auch nicht das erste mal, dass man mit hohem Takt aufs falsche Pferd setzt;)
Wenn einen wirklich nur die Leistung interessiert und nicht was neues tolles im Rechner zu haben empfiehlt es sich oft eine Generation zu überspringen.
Eben, deshalb kotzen mich die Kommentare wie "warten sei sinnlos" oder "es gibt keine GF100 Kunden mehr" an.
Es gibt viele verschiedene Ausgangspunkte.
Soso und wenn man jetzt eine Karte will, die vielleicht deutlich schneller als Cypress ist?
Dann musst du DIr die selber im Keller bauen;D;D
Aber wenn es nur ~800Mhz sind bedeutet das ja keine sonderliche Texfill steigerung.
Die ALUs takten nicht höher weil es schlich nicht geht.
Könnte man die ALUs so hoch wie im G92 takten wäre das sicher das ultimative Design.
Aber es ist ja auch nicht das erste mal, dass man mit hohem Takt aufs falsche Pferd setzt;)Wie kommst du darauf, das es keine Texelfüllratensteigerung gibt?
In wie weit reiner ALU Takt mehr bringen würde? Dann fehlts wieder an anderer Stelle.
Wie kommst du darauf, das es keine Texelfüllratensteigerung gibt?
In wie weit reiner ALU Takt mehr bringen würde? Dann fehlts wieder an anderer Stelle.
Weil er nur 64 TMUs haben soll?
Weil er nur 64 TMUs haben soll?
Bei höherer Effizienz.
64 TA und 256 TF.
Spasstiger
2010-01-23, 16:02:41
Die bilineare Füllrate wird nur auf Niveau des GT200 liegen (je nach Taktraten), aber die trilineare Füllrate und die Füllrate mit AF wird vermutlich 70% über dem GT200 liegen.
mapel110
2010-01-23, 16:04:50
Kann man eigentlich Vermutungen anstellen, wie sich diese neuen TMUs mit SuperSamplingAA vertragen? Besser oder schlechter gegenüber GT200? Oder keine Änderungen?!
Interessant.
Wird dann eine TMU deutlich größer sein als die Vorgänger?
Spasstiger
2010-01-23, 17:12:26
Die GF100-TMUs werden sich vermutlich nicht wesentlich von den GT200-TMUs unterscheiden, aber die Filtereinheiten laufen wahrscheinlich mit dem Hot-Clock (Shadertakt). Somit lassen sich zwar nicht mehr Texel pro Sekunde als mit dem GT200 addressieren, aber eben deutlich mehr filtern.
Ailuros
2010-01-23, 17:25:19
Zu Ergänzung: Du hast dich auf die Zahl 131$ von Theo bezogen und bezeichnest diese als einen Schnitt zu hoch angeschlagen, ergo behauptest du so um die 120$ rum für einen gf100. Jedenfalls weniger als 131$.
Bei Cypress bezeichnest du 60$ für viel zu niedrig, 96$ als zu hoch.
Aufgrund deiner Formulierung müsste der Preis also näher an 96$ liegen als an 60$, ergo 80$ oder sogar noch etwas mehr.
Das sind deine Aussagen und ich habe Sie nur zusammengefasst.
In Anbetracht dessen, dass fermi mehr als 1.5X größer ist und 1.4X mehr Transistoren hat, halte ich es jedenfalls für ziemlich lächerlich zu verbreiten, ein gf100 koste nur 50% mehr als ein Cypress.
Es klingt jegliche moegliche Naeherung zum obrigen als laecherlich, weil Du es nicht glauben willst oder kannst.
Letztlich weißt du also wahrscheinlich gar nichts und spielst dich nur auf.
Ich brauch Dir gar nichts beweisen; wie gesagt jeder sollte glauben was er will. Herzlich willkommen im Forum nebenbei und ja es ist durchaus ehrlich gemeint.
Die GF100-TMUs werden sich vermutlich nicht wesentlich von den GT200-TMUs unterscheiden, aber die Filtereinheiten laufen wahrscheinlich mit dem Hot-Clock (Shadertakt). Somit lassen sich zwar nicht mehr Texel pro Sekunde als mit dem GT200 addressieren, aber eben deutlich mehr filtern.
4 offset gather4 ist wohl nicht umsonst, ergo musst Du das Zeug auch noch mitberechnen u.a. was DX11 noch vorschreibt und dann 4 TA/TFs abziehen pro TMU. Es ist uebrigens 1/2 hot clock fuer TMUs.
4 offset gather4 ist wohl nicht umsonst, ergo musst Du das Zeug auch noch mitberechnen u.a. was DX11 noch vorschreibt und dann 4 TA/TFs abziehen pro TMU. Es ist uebrigens 1/2 hot clock fuer TMUs.
Also mittlerweile bin ich total verwirrt!
Nur für mein Verständnis nochmal nachgefragt: GF100 hat 64 TAs und 256TUs und beide laufen mit halbem Hot Clock? Oder befinden sich TAs und TUs in verschiedenen Clock-Domains?
Ailuros
2010-01-23, 17:54:17
64 TA und 64 TFs bei 1/2 hot clock fuer den groessten 512SP chip.
In jedem SM 4 TMUs ergo 4*16SMs= 64 TMUs.
64 TA und 64 TFs bei 1/2 hot clock fuer den groessten 512SP chip.
In jedem SM 4 TMUs ergo 4*16SMs= 64 TMUs.
Hm, aber wir waren doch vor ein paar Seiten schon mal soweit, dass das dann schwer reichen kann für +70% in bestimmten Szenarien gegenüber GT200, wenn nicht wenigstens die 64 TFs mit Hot Clock laufen (oder 128 TFs mit halbem Hot Clock)?
64 TA und 64 TFs bei 1/2 hot clock fuer den groessten 512SP chip.
Dann verschwenden sie ihre Load-Leistung. Irgendwas stimmt da nicht Ail ;)
Handelt es sich bei der künstlichen Beschneidung der Leistung bei doppelter Präzision für die Geforce-Modelle eigentlich um einen Fakt? Kommt das direkt von Nvidia oder aus der stillen Post?
redfirediablo
2010-01-23, 19:17:46
Lol, selbst wenn GF100 nicht schneller wäre, wird man genug Karten für einen konkurrenzfähigen Preis erhalten. Was soll nVidia sonst machen? GT200b weiter produzieren, die in der Fertigung kaum bis nicht billiger und deutlich langsamer wäre?
Man, wie wäre es mal mit nachdenken. Nur ein bisschen. Für ein paar Sekunden. Dann würde man merken, dass man vielleicht nicht jeden Unsinn schreiben sollte.
Du solltest mal lieber nachdenken aber da du anscheinend keine Ahnung von Wirtschaft hast, wird das wohl auch nicht viel helfen. Keine Firma produziert freiwillig ein Produkt bei dem die variablen Herstellungskosten den Verkaufspreis übersteigen. Das macht man nur kurzfristig um nicht die Stammkundschaft zu verlieren, während man auf besseres Wetter hofft.
Deine Annahme
GT200b weiter produzieren, die in der Fertigung kaum bis nicht billiger und deutlich langsamer wäre?
ist schonmal komplett falsch.
gt200b ist kleiner als fermi, beruht auf einem billigerem Prozess (55nm) und erreicht noch dazu meilenweit bessere yields. Ein gt200b wird nichtmal die Hälfte eines fermi kosten.
Obwohl der gt200b vergleichsweise billig ist und NV schon deutlich früher intern absehen konnte das erste kleine Stückzahlen von fermi frühestens im März verkauft werden können, haben sie für den gt200b keine neuen orders aufgegeben. Warum wohl? Weil Sie mit dem kein Geld mehr verdienen können! Das überhaupt soviel gt200 Karten ausgeliefert wurden, liegt nur daran das hier Nvidia quersubventioniert hat um nicht zuviel Marktanteil im meinungsbildenden Highendmarkt zu verlieren, mit der Hoffnung später dort wieder Geld verdienen zu können. Aber irgendwann kann man dann halt nicht mehr das Geld im Kamin hochjagen.
Das kannst du wunderbar an der aktuellen Preissituation erkennen. GTX 260 275 und 285 sind zwar alle lieferbar aber nur zu viel zu hohen Preisen, zu denen defakto eh nichts mehr verkauft wird.
Nvidia hat also quasi schon seit Monaten die Produktion so gut wie eingestellt, weil sie mit dem gt200b kein Geld mehr verdienen können.
Soso und wenn man jetzt eine Karte will, die vielleicht deutlich schneller als Cypress ist?
Der kauft sich eine 5970 die es schon heute zu kaufen gibt und zudem mit sehr großer Wahrscheinlichkeit schneller als fermi sein wird. Desweiteren dürfte sich Lautstärke und Abwärme auch kaum was geben.
Der einzigste Vorteil von fermi ist single gpu. Alles andere, was performance, Stromaufnahme, Lautstärke und Preis angeht, kann man heute schon als 5970 kaufen. Selbst bei Tesselation ist eine 5970 fermi überlegen und man kommt als Bonus Eyefinity, für das man bei Nvidia mindestens 2 Karten kaufen muss.
Noch bevor fermi überhaupt vernünftig zu einem angemessenen Preis lieferbar ist, wird er eh durch 1ghz 5870 bzw. die 5890 zu einer NV Fankarte degradiert. Niemand anderes wird sonst den zu erwartenden Preisunterschied für ein paar % Extraleistung bezahlen.
Eine Sache fällt mir auf - hat nVidia nichts am MC/Crossbar gemacht oder wird darüber nur nicht geschrieben? Laut Ail und anderen ist das ja gerade eine Schwäche von GT200. Die sollte bei GF100 doch entfernt worden sein.NV hat das Memorysystem überarbeitet. Im Zuge des Wunsches, C++-Cuda laufen zu lassen war das sowieso notwendig. Trotzdem bleibt GF100 auch auch hohe Rohbandbreite angewiesen. Es würde mich nicht wundern, wenn ein Refresh-Chip später wieder auf 512 Bit setzt (wie damals bei G80-GT200.)
Der kauft sich eine 5970 die es schon heute zu kaufen gibt und zudem mit sehr großer Wahrscheinlichkeit schneller als fermi sein wird.Aber nicht wenn die Mikroruckel-Nachteile eingerechnet werden.
Du solltest mal lieber nachdenken aber da du anscheinend keine Ahnung von Wirtschaft hast, wird das wohl auch nicht viel helfen. Keine Firma produziert freiwillig ein Produkt bei dem die variablen Herstellungskosten den Verkaufspreis übersteigen. Das macht man nur kurzfristig um nicht die Stammkundschaft zu verlieren, während man auf besseres Wetter hofft.
Guck an, jemand mit Insiderinformationen. Komisch, dass die, die Insiderinformationen haben, immer AMD Fanboys sind.
gt200b ist kleiner als fermi, beruht auf einem billigerem Prozess (55nm) und erreicht noch dazu meilenweit bessere yields. Ein gt200b wird nichtmal die Hälfte eines fermi kosten.
Und niemand kauft den GT200b, weil er nicht richtig konkurrenzfähig ist. Also darf nVidia den Preis bis ins unendliche senken. Und würden sie laut dir den GT200b nicht mehr produzieren, da nicht kostendeckend. Jaja, diese Logik, voll die Bitch.
Abgesehen davon ist der Verkaufspreis von GF100 knapp dreimal so hoch wie vom GT200b: 130€ <> 300€+. Selbst wenn der Chip doppelt soviel kosten würde, das wären dann ein Unterschied von 30-50€.
Obwohl der gt200b vergleichsweise billig ist und NV schon deutlich früher intern absehen konnte das erste kleine Stückzahlen von fermi frühestens im März verkauft werden können, haben sie für den gt200b keine neuen orders aufgegeben. Warum wohl? Weil Sie mit dem kein Geld mehr verdienen können! Das überhaupt soviel gt200 Karten ausgeliefert wurden, liegt nur daran das hier Nvidia quersubventioniert hat um nicht zuviel Marktanteil im meinungsbildenden Highendmarkt zu verlieren, mit der Hoffnung später dort wieder Geld verdienen zu können. Aber irgendwann kann man dann halt nicht mehr das Geld im Kamin hochjagen.
Das kannst du wunderbar an der aktuellen Preissituation erkennen. GTX 260 275 und 285 sind zwar alle lieferbar aber nur zu viel zu hohen Preisen, zu denen defakto eh nichts mehr verkauft wird.
Nvidia hat also quasi schon seit Monaten die Produktion so gut wie eingestellt, weil sie mit dem gt200b kein Geld mehr verdienen können.
Aha. Ich dachte der GT200 wäre so billig zu fertigen. Wieso sollte man dann die Fertigung einstellen? Suspekt, suspekt.
[qupte]
Der kauft sich eine 5970 die es schon heute zu kaufen gibt und zudem mit sehr großer Wahrscheinlichkeit schneller als fermi sein wird. Desweiteren dürfte sich Lautstärke und Abwärme auch kaum was geben.[/Quote]
Oh und wieso sollte jemand, der Single-GPU hat, auf lächerliches AFR mGPU wechseln?
Also nochmal die Frage: Auf was kann heute jemand wechseln, der mehr Leistung als Cypress will?
Der einzigste Vorteil von fermi ist single gpu. Alles andere, was performance, Stromaufnahme, Lautstärke und Preis angeht, kann man heute schon als 5970 kaufen. Selbst bei Tesselation ist eine 5970 fermi überlegen und man kommt als Bonus Eyefinity, für das man bei Nvidia mindestens 2 Karten kaufen muss.
Soso, heute spielt man schon mit "Stromaufnahme, Lautstärke und Preis" die Spiele. Eine 5970 ist bestimmt keine Empfehlung, wenn man vorher nur Single-GPUs gekauft hat.
Noch bevor fermi überhaupt vernünftig zu einem angemessenen Preis lieferbar ist, wird er eh durch 1ghz 5870 bzw. die 5890 zu einer NV Fankarte degradiert. Niemand anderes wird sonst den zu erwartenden Preisunterschied für ein paar % Extraleistung bezahlen.
Haha, du hast weder ein Plan wie schnell GF100 wird, noch den Preis. Aber du weißt jetzt schon, dass eine 17% höher getaktete Karte gleichschnell und preislich besser liegen würde. Das ist so lustig.
pervert
2010-01-23, 20:21:15
Ich glaube, daß der GTX380-Zielgruppe fast egal ist, ob das Teil 500€ oder 600€ kostet ;)
Und mehr als 600€ wird er kaum kosten, nachdem HD5870 preislich so weit unten ist- egal was Fermi in der Produktion kostet :)
Es gibt daher nur eine Sorge: ob man schnell genug beim release ist und noch einen bekommt ;D
Sehe ich auch so ;)
Ich interessiere mich für die GTX380 weil ich QUALITÄT will und sonst nichts. Und diese Karte wird die qualitativ beste Gaming Lösung sein, komme was wolle! Der Preis ist zweitrangig.
Und umso mehr ATI Fanboys hier rumspammen und immer wieder irgendwie NV/Fermi schlecht machen wollen, weil es eben nicht in ihr Billigheimer ATI-Konzept passt, umso unsympathischer wird mir ATI Tag für Tag und ich möchte mich immer weniger mit deren Zielgruppe identifizieren... :uconf3:
(Und das ganz unabhängig/zusätzlich aller bekannten Qualitätsnachteile/technischen Defizite die ATI hat)
Was ist die Alternative?
Als GTX 280 Nutzer interessiert mich die 5870 herzlich wenig, obwohl mich Mehrleistung interessiert.
AMEN!
Ailuros
2010-01-23, 20:26:58
Komisch, dass die, die Insiderinformationen haben, immer AMD Fanboys sind.
Solche Sticheleien tragen zu nichts bei und sind hier auch nicht willkommen.
Sehe ich auch so ;)
Und umso mehr ATI Fanboys hier rumspammen und immer wieder irgendwie NV/Fermi schlecht machen wollen, weil es eben nicht in ihr Billigheimer ATI-Konzept passt, umso unsympathischer wird mir ATI Tag für Tag und ich möchte mich immer weniger mit deren Zielgruppe identifizieren... :uconf3:
(Und das ganz unabhängig/zusätzlich aller bekannten Qualitätsnachteile/technischen Defizite die ATI hat)
AMEN!
Meine vorige Notiz gilt fuer alle ohne jegliche Ausnahme. Je mehr Provokationen erscheinen egal von welcher Seite desto strengere Massnahmen.
pervert
2010-01-23, 20:32:43
Das sollte weniger Provokation als umso mehr ein öffentlicher Hinweis darauf sein, dass hier mal wieder mindestens 1/4 aller Beiträge gelöscht werden könnten und ENDLICH mal regpflicht eingeführt werden sollte...
Ailuros
2010-01-23, 20:34:37
Dann verschwenden sie ihre Load-Leistung. Irgendwas stimmt da nicht Ail ;)
Die 1/2 hot clock steht fast in jedem Artikel drin wo die Authoren mit NV Kerlen geplaudert haben. Siehe auch techreport u.a.
Sonst hab ich es schwarz auf weiss von einem engineer dass GF100 weniger TA/TF (und ja er erwaehnte beide) als GT200 insgesamt hat. Die Effizienz soll aber nach ihm bis zu 4x Mal so hoch sein. Da sie aber fast 3.3x im PR Quark mit gather4 gegen 5870 behaupten macht mir dieses 4x im Vergleich zu GT200 keinen besonderen Eindruck.
Und damit ich wieder nett viel zum aufraeumen habe: der GF100 Treiber hat mehr AF settings als heutige GPUs. Mehr sag ich noch nicht sonst wird es zu langweilig.
Die 1/2 hot clock steht fast in jedem Artikel drin wo die Authoren mit NV Kerlen geplaudert haben. Siehe auch techreport u.a.
Das ist schön, aber ich glaube sie Schlussfolgern einfach alle falsch ;)
Sonst hab ich es schwarz auf weiss von einem engineer dass GF100 weniger TA/TF (und ja er erwaehnte beide) als GT200 insgesamt hat.
Der Textur-Filter könnte ja auch "Trilinear" sein wie Gipsel schon gesagt hat.
Vergiss es Ail. Die geben nicht 50% Tex-Leistung her weil sie nur um ein bisschen an LERPs zu sparen, vor allem wenn sie die Load-Logik dafür schon drin haben.
Es ist auch unmöglich 70% mehr Tex-Leistung zu haben mit weniger Sample-Leistung. Egal wie optimiert es ist.
Ailuros
2010-01-23, 20:37:05
Das sollte weniger Provokation als umso mehr ein öffentlicher Hinweis darauf sein, dass hier mal wieder mindestens 1/4 aller Beiträge gelöscht werden könnten und ENDLICH mal regpflicht eingeführt werden sollte...
Mit der Regpflicht stehe ich Dir zu 100% zur Seite, nur liegt es nicht in meiner Hand und es ist auch nicht meine Angelegenheit mich weiter mit dem Thema zu beschaeftigen.
Wir Mods loeschen den Dreck raus und nicht die restlichen User. Falls es Dir nicht bewusst sein sollte: geh in Dein User-CP und schalte Gast-beitraege pro Forum einfach aus. Ich kann's leider nicht machen aber schoen waere es schon :D
pervert
2010-01-23, 20:40:15
Danke für den Tipp und auch für die Info zu den erweiterten AF-Settings!
Das wird bestimmt interessant.
Aber nicht wenn die Mikroruckel-Nachteile eingerechnet werden.
Dafür gibts im Catalyst eh Code, das Problem ist halt nur, dass sobald irgendein Tool oder der Nutzer per Hand etwas ändert, also das CCC umgeht, man in den alten Codepfad gezwungen wird, zudem funktioniert es nicht bei jedem Spiel (da gibts halt auch viel Code der nicht so prickelnd ist). Ganz weg bekommt mans nicht, aber auf ein Niveau was nicht weit über einer Einzelkarte ist (die stottern ja auch).
AFAIK brauchts vsync dafür, bin mir aber grad nicht sicher.
(Und das ganz unabhängig/zusätzlich aller bekannten Qualitätsnachteile/technischen Defizite die ATI hat)
Ich will dafür entlich objektive Beweise sehn, wenn du die nicht hast, dann lass diese Sticheleien sein. (und freu dich auf deine nächste Nvidia)
mapel110
2010-01-23, 20:46:25
Und damit ich wieder nett viel zum aufraeumen habe: der GF100 Treiber hat mehr AF settings als heutige GPUs. Mehr sag ich noch nicht sonst wird es zu langweilig.
Ohje, ich ahne Sparmaßnahmen. Welchen Grund hat sonst ein zusätzlicher Schalter?! 32xAF wirds ja nicht geben, sonst hätte nvidia damit schon gewedelt über Twitter.
Ailuros
2010-01-23, 20:50:13
Das ist schön, aber glauben tue ich es trotzdem nicht ;)
Als ich den Rest der Fragen stellte erwaehnte ich 1/2 hot clock fuer TMUs und ausser er hat es ueberlesen hat er es nicht bestritten.
Der Textur-Filter könnte ja auch "Trilinear" sein wie Gipsel schon gesagt hat.
Ich dachte es hiess bisher dass tri-TMUs Verschwendung waere fuer die durchschnittliche Anzahl an trilinearen samples pro Szene?
Kann natuerlich sein aber wenn trilinear dann vielleicht fast trilinear aber warum erwaehnen sie es dann auch nicht?
Vergiss es Ail. Die geben nicht 50% Tex-Leistung her weil sie nur um ein bisschen an LERPs zu sparen.
Ich bin auch der gleichen Ansicht aber irgend etwas stimmt hier tatsaechlich nicht. Hast Du die zusaetzlichen AF settings nur so ueberflogen? Wenn jemand superset sagt dann heisst dass set B alles von set A beinhaltet + Zusatz. .
Ohje, ich ahne Sparmaßnahmen. Welchen Grund hat sonst ein zusätzlicher Schalter?! 32xAF wirds ja nicht geben, sonst hätte nvidia damit schon gewedelt über Twitter.
Sie können soviel sparen wie sie wollen, solange HQ im Treiber bleibt. Und das tut es ja schon seit bald 6 Jahren.
Und AMD User spielten die letzten Jahre sowieso immer mit A.I On/default/whatever. Das wäre die letzte Usergruppe, die sich über schlechtere Defaulteinstellungen beschweren sollte.
pervert
2010-01-23, 20:51:02
Ich will dafür entlich objektive Beweise sehn, wenn du die nicht hast, dann lass diese Sticheleien sein. (und freu dich auf deine nächste Nvidia)
Das sind keine Sticheleien sondern ganz objektive Fakten. Die gibt es wie Sand am Meer und bei jeder zweiten Spieleneuerscheinung sowieso. Reicht bereits völlig die Newseinträge zu Spieleneuerscheinungen von PCGH oder PCGames/Gamestar durchzublättern. Ich war selbst jahrelang ATI-Nutzer (habe zugleich aber auch NV Systeme gebaut und somit einen guten Vergleich gehabt), bis ich das Trauerspiel nicht mehr ausgehalten habe (und die 8800GTX sowieso übermächtig war). Aber das ist nicht Thema dieses Threads hier. Wenn Du das willst, dann mach bitte einen eigenen Thread dafür auf.
End Offtopic.
Danke für den Tipp[...]
Welche Art von User hast du gleich nochmal in Post #10413 gequotet? ;)
@pervert
Gibts viele Beispiele auch bei Nvidia, die schenken sich unter Windows nicht viel. Gut das du erkannt hast, dass das hier nichts verloren hat :)
@Gast
Ich glaub kaum dass Nvidia HQ opfern wird, da stimmt einfach was an den bisher ans Licht gekommen Spezifikationen nicht. Beschweren kann sich übrigens jeder, tu ich auch bei meiner HD4870. ;)
redfirediablo
2010-01-23, 21:02:36
Aha. Ich dachte der GT200 wäre so billig zu fertigen. Wieso sollte man dann die Fertigung einstellen? Suspekt, suspekt.
An diesem Kommentar merkt man, das du gar nicht denken willst denn die Lösung wäre sehr einfach herauszubekommen gewesen:
Selbst mit dem günstig herzustellenden gt200b kann Nvidia kein Geld mehr verdienen, wie soll das dann mit fermi funktionieren?
Desweiteren bezweifle ich das mit einer 130 Euro gtx 260 Geld verdient wird. Das ist nur Resteverwertung da nicht alle Chips so funktionieren das man sie als GTX 275 und GTX 285 verkaufen kann. Zudem verkauft man die Karte lieber zu 130 Euro mit etwas Verlust und stellt keine mehr her, als das man sie gar nicht verkauft und nichts einnimmt.
pervert
2010-01-23, 21:03:49
@pervert
Gibts viele Beispiele auch bei Nvidia, die schenken sich unter Windows nicht viel. Gut das du erkannt hast, dass das hier nichts verloren hat :)
Klar. Nvidia ist nicht perfekt. Besser reicht mir aber schon :devil:
Was soll man sagen: TWIMTBP vielleicht ;)
Da es offtopic ist werde ich auch nichts weiter dazu schreiben. Will mich nicht weiter in dieses Gespamme mit reinziehen lassen. Wird hoffentlich eh alles gelöscht...
Edit: @redfirediablo (reunion bist DUs?)
Mal ein aktuelles nicht-TWIMTBP Spiel als Beispiel:
http://www.tweakpc.de/forum/news/73940-saboteur-bug-freezes-radeon-karten-windows.html#post652992
redfirediablo
2010-01-23, 21:09:34
Nichtmal das stimmt.
Was Treiberstabilität angeht hat Nvidia ordentlich das nachsehen gegenüber ATI. Nvidia produziert nachgewiesenermaßen deutlich mehr Abstürze und das auch, wenn man den höheren Marktanteil mit einrechnet.
http://www.downloadsquad.com/2008/03/28/29-of-windows-vista-crashes-caused-by-nvidia-drivers/
Das einzigste was Nvidia "besser" kann betrifft TWIMTBP Titel bei denen kurzfristig vor Release noch kleine Details geändert werden und diese Änderungen natürlich nur Nvidia und nicht ATI rechtzeitig mitgeteilt werden.
Je größer das Die, desto größer die Chancen, von einem Fertigungsdefekt getroffen zu werden. Die verteilen sich halbwegs gleichmäßig und zufällig über den Wafer.
Nicht wirklich. Randbereiche des Wafers sind anfälliger für Defekte als die Mitte.
Bei großen DIEs ist aber ein erheblicher Teil der Randfläche Verschnitt. Die Wahrscheinlichkeit, dass ein defekt auf ein potentiell funktionsfähiges DIE fällt ist also deutlich geringer.
redfirediablo
2010-01-23, 21:19:32
Du wirst regelrecht gesteinigt, wenn du nur erwähnst das AMDs AF seit 4 Generationen mies ist.
Zurecht, denn diese Aussage ist Blödsinn. Es wurde von mehreren Redaktionen unterstrichen das das AF der 5er Serie deutlich besser ist als das noch bei der 4er Serie der Fall war. Noch kein NV HQ Niveau aber deine Verallgemeinerung stimmt einfach nicht.
Nicht wirklich. Randbereiche des Wafers sind anfälliger für Defekte als die Mitte.
Bei großen DIEs ist aber ein erheblicher Teil der Randfläche Verschnitt. Die Wahrscheinlichkeit, dass ein defekt auf ein potentiell funktionsfähiges DIE fällt ist also deutlich geringer.
Die Wahrscheinlichkeit ob ein Defekt auf ein Die fällt ist abhängig von der Defektdichte und der Die Größe. Mit Randfläche und Verschnitt hat das null komma nix zu tun.
Das die Randbereiche durchgehend eine höhere Defektdichte aufweisen stimmt auch nicht. Genauso kann auch die Mitte des Wafers schlechter abschneiden, das hängt einfach davon ab von welchem Prozesschritt diese Fehler stammen und was genau bei dem Schritt falsch läuft.
Zurecht, denn diese Aussage ist Blödsinn. Es wurde von mehreren Redaktionen unterstrichen das das AF der 5er Serie deutlich besser ist als das noch bei der 4er Serie der Fall war. Noch kein NV HQ Niveau aber deine Verallgemeinerung stimmt einfach nicht.
Achso, das HD2-HD4 Schönreden ignorieren wir. Den wer dagegen etwas in genannten Foren geschrieben hat wurde zur Sau gemacht, auch von dir.
Gut, den die HD5 wurde vor allem wegen ihrer Blume gelobt. Dann wurde die minimale Verbesserung gelobt.
Immer noch kein NV HQ Niveau und an die glanzvolle X1000 knüpft man immer noch nicht recht an.
Im Gegenzug wird Nvidia für ihr HQ, das sie seit 4 Jahren halten nicht gelobt. Im Gegenteil, die minimale, geradezu lächerliche Verbesserung der HD5 im Gegenzug zur HD2-4 wird als Pluspunkt dargestellt.
Kann man eigentlich Vermutungen anstellen, wie sich diese neuen TMUs mit SuperSamplingAA vertragen? Besser oder schlechter gegenüber GT200? Oder keine Änderungen?!
TMUs ist Supersampling immer egal, es wird immer um den Faktor der Sampleanzahl an Leistung kosten. Wenn es weniger ist, dann nur wenn man nicht Pixel-Limitiert (egal ob durch Shader oder TMU-Leistung) ist.
An diesem Kommentar merkt man, das du gar nicht denken willst denn die Lösung wäre sehr einfach herauszubekommen gewesen:
Selbst mit dem günstig herzustellenden gt200b kann Nvidia kein Geld mehr verdienen, wie soll das dann mit fermi funktionieren?
Wie soll das gehen, wenn GT200b nicht mehr zum vernünftigen Preis konkurrenzfähig ist?
Du hast wohl nicht verstanden, wie ein Unternehmen Gewinn macht, oder?
Desweiteren bezweifle ich das mit einer 130 Euro gtx 260 Geld verdient wird. Das ist nur Resteverwertung da nicht alle Chips so funktionieren das man sie als GTX 275 und GTX 285 verkaufen kann. Zudem verkauft man die Karte lieber zu 130 Euro mit etwas Verlust und stellt keine mehr her, als das man sie gar nicht verkauft und nichts einnimmt.
Die GTX260 war über mehr als 6 Monate ein aktiv beworbenes Angebot, dass zwischen 130-160€ lag. Es handelte sich hier nicht um Resteverwertung, sondern man produzierte diese Karten in großen Stückzahlen. Die GTX260 ist wahrscheinlich die meistverkaufste GT200 Karte. Die haben damit Gewinn gemacht. Egal ob du es glauben magst, oder nicht.
Und du willst jetzt behaupten, dass nVidia einen GF100 nicht gewinnbringen für 200€+ verkaufen kann?
Nur mal eine Beispielrechnung ohne reale Information: Ein GT200b kostet bei 80% verwendbarem Ausschuss $44,64 (4000€ / (112*0,8). Ein GF100 bei 40% ca. $130,21 (5000 / (96*0,4). Ein Aufpreis von $85,57. Bei 50% sind es nur noch $59,52. Du siehst, deine komplette Argumentation verläuft sich im Sand, da du anscheinend denkst, dass nVidia den GF100 vom Startweg für $199 in den Markt bringen muss.
"Du wirst regelrecht gesteinigt, wenn du nur erwähnst das AMDs AF seit 4 Generationen mies ist."
Ja sicher und das völlig zurecht, weil es einfach maßlos übertrieben ist.
Quatsch.
Man wird gesteinigt, wenn man es bloß erwähnt!
Nichts weitet, ohne mehr zu sagen.
Das bloße Erwähnen der Tatsachen ist Unerwünscht.
Übrigens, zu X1000 Zeiten wars nicht so. Nebenbei, die X1000 bot ja eine höhere Qualität als die HDX.
Ich finde das beachtlich, wie man sich so wandeln kann, etwas was man gelobt hat (X1000) ist im Nächsten Augenblick so unwichtig, das man gleich mal eine schlechtere Qualität als die zuvor gelobte als unantastbar ansieht (HDX).
Ja unantastbar ist der richtige Begriff, den Kritik ist unerwünscht.
Es ist eine Sache ob AMD cheatet, oder ob die User das sogar noch als nicht existent darlegen.
Wir lernen: Etwas das existiert, darf es kritisiert werden, ob du willst oder nicht.
Beschwer dich mal in gängigen Foren wie Computerbase oder dem Luxx.
Du wirst regelrecht gesteinigt, wenn du nur erwähnst das AMDs AF seit 4 Generationen mies ist.
Er ist ja auch nicht mies, er ist stark verbesserungswürdig, keine Frage, aber eben nicht mies. Erinner dich mal was uns früher so alles an "Filterqualität" gezeigt wurde, dagegen ist AMDs Filter ja noch halbwegs passabel. Auch wird bei den Diskussionen immer vergessen, dass vele Nutz die Optimierungen nicht zu Gesicht bekommen, schlicht weil sie nur RTS und third-person Spiele mit Isoansicht spielen. Nicht falsch verstehn, ich will damit nicht sagen, dass wir keinen besseren Filter brauchen, ganz im Gegenteil, ich sag nur ,dass es schon schlimmer war und daher die Bezeichnung mies nicht richtig ist.
Nebenbei, die X1000 bot ja eine höhere Qualität als die HDX.
Das ist sowieso ne Schweinerei seitens ATI.
Tomahawk
2010-01-23, 22:05:12
Huch... Mafia ... Gott ... alles Begriffe die natürlich bei IT-Unternehmen fallen müssen. Geht draußen spielen, Kinder
Bei Intels Machenschafften ist Mafia durchaus angebracht (Bestechung,Schmiergelder in Milliardenhöhe,Erpressung), aber Hauptsache einen arroganten Spruch bringen.
Tomahawk
2010-01-23, 22:13:48
Ach, ein Insider? Oder Wirtschaftsjournalist? Oder nur ein kleiner Bubi, der einige Schlagzeilen in den Medien aufgefasst hat?
Ich vermute letzteres :)
Er ist ja auch nicht mies, er ist stark verbesserungswürdig, keine Frage, aber eben nicht mies.
Nenn es wie du willst, mir egal, ich werde dich nicht aufhalten, solange du nicht gleichgut oder perfekst schreibst.
Ich habe mies gewählt. Auch weil AMD früher besser war und das damals gelobt wurde. Auch weil AMDs minimale Verbesserung gelobt wurde, während Nvidias gleichbleibende Qualität kaum beachtet wird.
Tatsache ist, das es schlechter ist. Etwas was schlechter ist, darf erwähnt werden.
Auch wird bei den Diskussionen immer vergessen, dass vele Nutz die Optimierungen nicht zu Gesicht bekommen, schlicht weil sie nur RTS und third-person Spiele mit Isoansicht spielen. Nicht falsch verstehn, ich will damit nicht sagen, dass wir keinen besseren Filter brauchen, ganz im Gegenteil, ich sag nur ,dass es schon schlimmer war und daher die Bezeichnung mies nicht richtig ist.
Jeder bekommt es zu sehen.
Wie es bei den Unwissenden, die auch dank dieser Propaganda Unwissend sind ankommt ist vollkommen bedeutungslos.
Das ist sowieso ne Schweinerei seitens ATI.Und darf erwähnt werden.
Nur eben nicht, wenns nach redfirediabolo oder dem Gast geht.
Tja das wirst du wohl nie rausfinden, aber wenn man so ignorant ist und das alles abstreitet, hatt man wohl sowieso den Bezug zu Realität verloren. Warum hat Intel AMD gerade nochmal 1,25 Milliarden gezahlt und wird weltweit verklagt?
Tomahawk
2010-01-23, 22:24:57
abstreiten? Selbstredend nicht. Dennoch Maße ich mir kein Urteil über etwas an, was ich beim besten Willen nur sehr unzureichend beurteilen kann.
Zum Glück weiß ein schlaues Kerlchen wie du es bist so gut Bescheid. Die ganzen Schlägertrups die Intel der Metro-AG geschickt hat, nicht? Du kleiner Insider, du ;)
redfirediablo
2010-01-23, 23:08:09
Wie soll das gehen, wenn GT200b nicht mehr zum vernünftigen Preis konkurrenzfähig ist?
Du hast wohl nicht verstanden, wie ein Unternehmen Gewinn macht, oder?
Nur mal eine Beispielrechnung ohne reale Information: Ein GT200b kostet bei 80% verwendbarem Ausschuss $44,64 (4000€ / (112*0,8). Ein GF100 bei 40% ca. $130,21 (5000 / (96*0,4). Ein Aufpreis von $85,57. Bei 50% sind es nur noch $59,52. Du siehst, deine komplette Argumentation verläuft sich im Sand, da du anscheinend denkst, dass nVidia den GF100 vom Startweg für $199 in den Markt bringen muss.
1. Nvidia hat noch viele andere Geschäftsbereiche abseits des Highends um GTX 260 und aufwärts. Der alte G92 ist ne cashcow, auch im notebook und es gibt noch den professionellen Bereich, bei dem ordentlich Kohle abfällt, auch wenn die Produktionskosten etwas höher sind.
2. GTX 260 fallen zwangsläufig bei der Produktion ab, also kann man sie auch verkaufen. Das Geld wird mit den Professionellen Produkten (Tesla, Quadro) und GTX 275 aufwärts gemacht. Die GTX 260 sind Resteverwertung und Imagepflege. Da man mittlerweile aber so einen Haufen GTX 260 gebaut hat, ging die Rechnung nicht mehr auf. Wenn man wieder ein paar GTX 275 und GTX 285 verkaufen wollte, müsste man sich ja noch mehr GTX 260 auf Halde legen.
3. Deine Rechnung bezüglich gf100 stimmt einfach nicht. 40% yield sind schon illusorisch, 50% lächerlich, 20-30% realistisch. Des weiteren stimmt meine Aussage vollkommen das ein gt200b nichtmal die Hälfte eines fermi kostet.
4. Du vergisst das neben der CPU noch diverse andere "Kleinigkeiten" dazukommen bevor das ganze eine Karte wird. Dann kommen auch noch Steuern, Versand und Händlermargen dazu und schwups potentieren sich ein paar Dollar.
5. Wie sieht das Nvidia Portfolio eigentlich momentan überhaupt aus? Nachdem die GTX 260 bis 285 praktisch nicht mehr existent sind, gibt es eigentlich nur noch die GTS 250 mit dem G92. Die abgespeckten fermi Karten für den Bereich wo aktuell die GTX Reihe liegt, sollen erst ein Quartal nach big fermi kommen. Also ist es nur umso deutlicher das NV bewußt entschieden hat die GTX Reihe einzustellen aufgrund zu hoher Kosten, obwohl sie selber wissen das noch auf Monate hinaus in diesem Preisbereich keine neuen Produkte kommen werden....
Du wirst sehen, im März gibt es A3 Reviewkarten und ganz vereinzelt welche im Channel zu abartigen Preisen. Offiziell wird die GTX 360 (5870 Niveau) zu ca. 449$ und die GTX 380 zu 599$ kommen, real deutlich darüber.
Echte Stückzahlen wird es erst mit B1 bzw. B2 geben.
lastshady
2010-01-23, 23:12:13
Es ist so ähnlich wie bei Sony und ps3 Wahrscheinlich mit der Karte machen sie kein Gewinn aber mit den vertägen und anderen bereichen wirds wieder gerade gebogen.
3. Deine Rechnung bezüglich gf100 stimmt einfach nicht. 40% yield sind schon illusorisch, 50% lächerlich, 20-30% realistisch. Des weiteren stimmt meine Aussage vollkommen das ein gt200b nichtmal die Hälfte eines fermi kostet.
Erzähl kein Blech.
Bei 20% Yield würde GF100 nicht produziert werden. Punkt.
5. Wie sieht das Nvidia Portfolio eigentlich momentan überhaupt aus? Nachdem die GTX 260 bis 285 praktisch nicht mehr existent sind
Lüg nicht.
Nur weil Charlie das vor Monaten bereits geschrieben hat musst du es nicht wiederholen.
Wie gesagt, vor Monaten. Und heute gibts immer noch welche im Laden.
Er hat seine These auch mit dem Rückzug aus dem High-End Sektor verbunden, ganz wie du jetzt. GF100 passt da leider nicht ins Bild, nunja.
Wie kann man nur so blind Charlie, 1zu1 kopieren, nachdem er nachweißlich falsch lag. Charlie kopiert nunmal auch nur von AMDs PR, aber eine Kopie der Kopie wird nicht besser, besonders wenn sie schon längst schimmelt, so alt wie sie ist.
1. Nvidia hat noch viele andere Geschäftsbereiche abseits des Highends um GTX 260 und aufwärts. Der alte G92 ist ne cashcow, auch im notebook und es gibt noch den professionellen Bereich, bei dem ordentlich Kohle abfällt, auch wenn die Produktionskosten etwas höher sind.
Das heißt der Markt für Karten > 100€ bzw. $150 ist nicht existent. Auch eine logische Begründung, wenn man keine Ahnung hat, wieso die GTX260 Gewinn gemacht hat.
2. GTX 260 fallen zwangsläufig bei der Produktion ab, also kann man sie auch verkaufen. Das Geld wird mit den Professionellen Produkten (Tesla, Quadro) und GTX 275 aufwärts gemacht. Die GTX 260 sind Resteverwertung und Imagepflege. Da man mittlerweile aber so einen Haufen GTX 260 gebaut hat, ging die Rechnung nicht mehr auf. Wenn man wieder ein paar GTX 275 und GTX 285 verkaufen wollte, müsste man sich ja noch mehr GTX 260 auf Halde legen.
Je mehr Chips man von einem Wafer verwenden kann, umso billiger werden sie. Die GTX260 war ein Produkt, um mehr Chips nutzen zu können. Hätte man nur vollwertige GT200 in den markt gebracht, wären die Herstellungskosten wesentlich höher. Es handelt sich also hier um einen bewussten Produktionsweg.
Abgesehen davon war die GTX260 die meist verbreiteste und gekaufste GT200 Variante. Wie nVidia die Karten mit GTX275, GTX280 und GTX285 subventionieren konnte, ist mir gerade mehr als schleiferhaft. In Steam gibt es mehr GTX260 Einträge als GTX275/280/285 zusammen.
3. Deine Rechnung bezüglich gf100 stimmt einfach nicht. 40% yield sind schon illusorisch, 50% lächerlich, 20-30% realistisch. Des weiteren stimmt meine Aussage vollkommen das ein gt200b nichtmal die Hälfte eines fermi kostet.
Beweise bitte, dass die Ausbeute nicht bei 40-50% liegen würde. Solltest du es nicht können, bitte ich dich niemals mehr mit absoluten Aussagen hier deinen Unsinn zu verbreiten.
4. Du vergisst das neben der CPU noch diverse andere "Kleinigkeiten" dazukommen bevor das ganze eine Karte wird. Dann kommen auch noch Steuern, Versand und Händlermargen dazu und schwups potentieren sich ein paar Dollar.
Ach und das gab es beim GT200 nicht? :rolleyes:
5. Wie sieht das Nvidia Portfolio eigentlich momentan überhaupt aus? Nachdem die GTX 260 bis 285 praktisch nicht mehr existent sind, gibt es eigentlich nur noch die GTS 250 mit dem G92. Die abgespeckten fermi Karten für den Bereich wo aktuell die GTX Reihe liegt, sollen erst ein Quartal nach big fermi kommen. Also ist es nur umso deutlicher das NV bewußt entschieden hat die GTX Reihe einzustellen aufgrund zu hoher Kosten, obwohl sie selber wissen das noch auf Monate hinaus in diesem Preisbereich keine neuen Produkte kommen werden....
Und das hat jetzt genau was mit GF100 und den Herstellungspreis zu tun?
Du wirst sehen, im März gibt es A3 Reviewkarten und ganz vereinzelt welche im Channel zu abartigen Preisen. Offiziell wird die GTX 360 (5870 Niveau) zu ca. 449$ und die GTX 380 zu 599$ kommen, real deutlich darüber.
Es kluger Mann sagte mal: Die physikalischen Gesetze verhinderten eine GTX295, die schneller als eine 4870x2 wäre und dabei gleichzeitig weniger als 300 Watt verbrauchen werde.
Heute ist dieser kluge Mann nur noch ein Internettroll.
Echte Stückzahlen wird es erst mit B1 bzw. B2 geben.
Das möchte ich jetzt gerne ausführlich erklärt haben. Wieso sollte sich durch ein neues Tape-Out etwas an der Verfügbarkeit ändern.
Das ist jetzt deine Königsdisplizin: Entweder du hast eine nachvollziehbare Begründung oder du spammst hier nur rum.
Es ist so ähnlich wie bei Sony und ps3 Wahrscheinlich mit der Karte machen sie kein Gewinn aber mit den vertägen und anderen bereichen wirds wieder gerade gebogen.
Jetzt aber bitte nicht noch die Konsolen hier mit rein ziehen, die PS3 kann nix dafür :D
Zudem hat diese einen "voraussichtlichen" Lebenszyklus von 10 Jahren..
Ich gucke nicht in die Vergangenheit um mir Dinge schön- oder schlechtzureden. Die jetzige Situation zählt und nicht die Lorbeeren von gestern.
lastshady
2010-01-24, 00:42:37
Jetzt aber bitte nicht noch die Konsolen hier mit rein ziehen, die PS3 kann nix dafür :D
Zudem hat diese einen "voraussichtlichen" Lebenszyklus von 10 Jahren..
Hoffentlich nicht aber aber ich denke nicht, dass man da groß was ändern könnte dass man plötzlich viel geld pro karte/konsole verdient
Ich finde es ziemlich erheiternd wie die ganzen grünen hier selbstverständlich davon ausgehen das GF100 mit A3 sofort gute Yieldraten haben wird :lol:
Wenn man mal sein Gehirn einschaltet und das ganze rational betrachtet kommt man auf folgendes Ergebnis:
GF100 ist das bisher komplizierteste Stück Silizium, welchem eine neue Architektur zu Grunde liegt und in einem neuen, noch fehlerbehafteten Herstellungsverfahren hergestellt wird.
Na merkt ihr was?
Ich hab auch noch von keinem irgendwo gehört das Fermi mit A3 mehr als 40% Yield hat, egal ob Charlie, Fuad, Theo oder anderen Foren wie beyond3D, wo sich ja auch einige aus diesem Forum rumtreiben wie Ailuros oder andere mit vielen Insiderinfos wie z. B. neliz.
Und ja, 40% ist und bleibt ne beschissene Yieldrate, egal wie man es dreht und wendet. Daher wird es mit Sicherheit noch ein oder mehrere neue Steppings geben, solange bis man ne vernünftige Yield einfahren wird! Ob es A4, A5 usw. sein wird oder man sogar nen Respin hinlegt wird sich noch zeigen.
In diesem Sinne wünsche ich euch (den grünen) noch ein paar fröhliche Illusionen http://www.smiliemania.de/smilie.php?smile_ID=7771 (http://www.smiliemania.de/)
tombman
2010-01-24, 04:35:20
Scheiß auf den Yield. Spätestens Anfang April muß das Ding beim Händler sein und max 600€ kosten, sonst ist es nicht verkaufbar :)
Schneller als eine HD5970 wird man nicht sein, und diese wird zum Fermi release sicher 500€ oder weniger kosten- damit hat Fermi ein logisches Abzocklimit ;)
Fazit:
1.) Er MUSS raus
2.) Er MUSS unter 600€
3.) Aus 1.) und 2.) folgt: auf den Yield wird gepißt ;D
Ailuros
2010-01-24, 09:21:11
Wenn ich sehe was die anderen Mods ueber die letzten paar Seiten wieder loeschen mussten, sollten wir so langsam doch ueber das Schicksal des Threads denken.
Ich finde es ziemlich erheiternd wie die ganzen grünen hier selbstverständlich davon ausgehen das GF100 mit A3 sofort gute Yieldraten haben wird :lol:
Ich dachte es wurde vor Seiten in diesem Thread etabliert dass ein metal spin gar keine bis zu maximal 1% Chancen hat etwas die yields zu beinflussen. Ein voller respin koennte etwas mehr helfen aber da yields ausschliesslich eine Angelegenheit der foundry sind kann man nur von diese grosse Aenderungen erwarten. TSMC behauptet nun dass 40G yields auf 65nm Nivaeu liegen und wer will kann es bezweifeln.
GF100 ist das bisher komplizierteste Stück Silizium, welchem eine neue Architektur zu Grunde liegt und in einem neuen, noch fehlerbehafteten Herstellungsverfahren hergestellt wird.
Na merkt ihr was?
Was soll ich im Zusammenhang zum obrigen merken?
Ich hab auch noch von keinem irgendwo gehört das Fermi mit A3 mehr als 40% Yield hat, egal ob Charlie, Fuad, Theo oder anderen Foren wie beyond3D, wo sich ja auch einige aus diesem Forum rumtreiben wie Ailuros oder andere mit vielen Insiderinfos wie z. B. neliz.
Nochmal der metal spin spielt keine Rolle bei den yields und wenn es tatsaechlich 40% als durchschnittlicher yield sind wer sagt dass dieses schlecht ist im Vergleich zum 40G Zustand in Q3 2009?
Der Durschnitt kann wohl nicht bei TSMC's 60-70% yields liegen welches ein von TSMC eingeschaetzter Durchschnitt von der gesamten 40G Produktion ist.
Und ja, 40% ist und bleibt ne beschissene Yieldrate, egal wie man es dreht und wendet. Daher wird es mit Sicherheit noch ein oder mehrere neue Steppings geben, solange bis man ne vernünftige Yield einfahren wird! Ob es A4, A5 usw. sein wird oder man sogar nen Respin hinlegt wird sich noch zeigen.
Soll ich Dir zeigen wo ich mit Charlie oeffentlich bei B3D einig wurden dass ein metal spin nichts fuer yields anrichten wird? Fuer einen vollen respin nochmal oben durchlesen. So lange hier manche nicht verstehen koennen dass erstmal yields = prozessbendigte Fehler sind und dass IHVs relativ wenig bis gar nichts mit spins und respins aendern koennen geht es hier nicht weiter.
Wenn NV tatsaechlich zu einem vollen respin geht (Bx), dann heisst es fuer sie dass irgendwelche bugs entfernt werden mussten die man durch einen metal spin (sprich A3 oder jegliches A4,A5 etc) nicht entfernen konnte oder um hoehere Frequenzen zu erreichen. Und das letztere koennte eine Massnahme sein fuer leicht hoeher getaktete GF100 als beim launch oder auch die Anzahl von chips mit X maximaler Frequenz pro wafer zu erhoehen. All dieses hat aber trotzdem nichts mit TSMC 40G yields direkt zu tun.
GF100 chips gehen afaik Anfang Februar zum pressen. Im Vergleich zu A3 welches Anfang Dezember zu TSMC geschickt wurde sind es ungefaehr 8 Wochen was normal fuer einen metal spin ist und auf keinen Fall etwas >A3 sein kann. Ein voller Bx respin bedeutet dass dieser vor ~Juni auf keinen Fall aus dem Ofen kommt.
***edit: uebrigens hab ich momentan als Verbraucher echte Kopfschmerzen und nicht wie jeglicher IHV mit seinen Finanzen umgeht: http://forum.beyond3d.com/showpost.php?p=1385116&postcount=3707
Ich bin in diesem Fall nicht rein zufaellig unruhig und das Resultat hier ist mir um zich Male wichtiger als nebensaechlicher Quark wie foundry yields und Herstellungskosten. Die letzteren kann mir NV praktisch schwer andrehen als Verbraucher weil es dann im Preis-/Leistungsverhaeltnis zur Konkurrenz wohl verdammt hinken wird.
Grestorn
2010-01-24, 09:57:28
*gelöscht*. Ich sollte mich aus diesem Thread raushalten. Der ist Realsatire pur.
*gelöscht*. Ich sollte mich aus diesem Thread raushalten. Der ist Realsatire pur.
Stand ja auch nur "Word" da.....
Wie sieht's denn eigentlich bei NVs Partnern aus, die deren Karten fertigen? Gainward und Konsorten? Wovon leben die zur Zeit eigentlich?
Wie sieht's denn eigentlich bei NVs Partnern aus, die deren Karten fertigen? Gainward und Konsorten? Wovon leben die zur Zeit eigentlich?
Mit dem Verkauf von Geforces?
http://geizhals.at/deutschland/?cat=gra16_512&xf=653_nVIDIA&sort=p
Bedeutet die stätige Weiterentwicklung, damit sind auch Sprünge inkludiert.
Bei einer Revolution verwirft man die alten Konzepte und (teilweise) auch deren Implementierungen und fängt bei (fast) Null an. Sowas ist selten und das nicht ohne Grund.
NV40 ist "CineFX" genauso wie G70, NV30 hat auch noch so einges von NV2x und so weiter, wie gesagt, komplette Brüche sind selten (und das ist auch gut so).
Revolution ist ein radikaler Wandler, kein Neuanfang bei Null.
Die G80 Rechenarchitektur war eine radikale Abkehr der vorigen Architekturen. Das ist eine Revolution gewesen.
GF100's Abkehr von einer großen, dicken einmal vorhandenen Setup-Engine mit u.a. einer Tessellation- und Geometrie-Unit ist ein genauso radikaler Weg. Jetzt hat jeder SM seine eigene Geometrie-Einheit. Das ist komplett anders als früher. Das ist auch keine Evolution gewesen, da Zwischenschritte komplett fehlen.
GF100 hat soviele Änderungen, dass man die GPU in die selbe Liga wie den G80 stellen kann.
Die Wahrscheinlichkeit ob ein Defekt auf ein Die fällt ist abhängig von der Defektdichte und der Die Größe. Mit Randfläche und Verschnitt hat das null komma nix zu tun.
Das die Randbereiche durchgehend eine höhere Defektdichte aufweisen stimmt auch nicht. Genauso kann auch die Mitte des Wafers schlechter abschneiden, das hängt einfach davon ab von welchem Prozesschritt diese Fehler stammen und was genau bei dem Schritt falsch läuft.[/QUOTE]
=> Laut meiner Erinnerung bei einem AMD Fab Besuch in Dresden sagte der Leiter des Qualitätslabors, dass sehr wohl in einer höheren Wahrscheinlichkeit als der normalen Gausschen Verteilung die besten Dies in der Mitte des Wafers liegen. Auch ganz interessant war, dass man auch etwas Einfluss auf die Wafer haben kann, bezüglich was man mehr haben will, schnellere Dies oder höheren Yield.
Armaq
2010-01-24, 14:13:40
Ich habe selten so aktive Gäste erlebt, mir kommt irgendwie in den Sinn, dass es vll. keine Gäste sind...
Hat man inzwischen rausgefunden, was die tollen Verbesserung bei der Textureinheit sein sollen?
tombman
2010-01-24, 14:24:16
GF100 hat soviele Änderungen, dass man die GPU in die selbe Liga wie den G80 stellen kann.
Ich stimme zu :)
Jetzt müßte er halt nur noch relativ so gut performen wie G80- dann wäre es Killerchip 2.0 :)
G80 hat neben seinen fundamentalen Arch-Verbesserungen aber auch deutlich mehr Rohleistung, gegenüber G71/R580, mitgebracht.
Wenn man nun hört, dass es nur 64 Filtereinheiten mit halbem Shadertakt sind, liegt man in diesem Bereich gar unter GT200.
Eher erinnert GF100 doch etwas an R520 - verspätet, geringe Rohleistung, aber ein überzeugendes und effezientes Featureset für die aufkommende D3D-Version.
Gipsel
2010-01-24, 15:01:58
Laut meiner Erinnerung bei einem AMD Fab Besuch in Dresden sagte der Leiter des Qualitätslabors, dass sehr wohl in einer höheren Wahrscheinlichkeit als der normalen Gausschen Verteilung die besten Dies in der Mitte des Wafers liegen.Das mit den besseren Dies in der Mitte liegt an Verspannungen im Kristallgitter des Siliziums, die durch die Herstellungsmethode der vergleichweise riesigen Einkristalle, aus denen die Wafer gesägt werden, verursacht werden. Das war vor allem in der Anfangszeit der 300mm Wafer ein größeres Problem als es das jetzt noch ist (größere Wafer, tendenziell größere Verspannungen). Insgesamt spielt das bei einem offensichtlich so schlecht laufendem Prozeß wie den 40nm von TSMC eine eher untergeordnete Rolle, da prozeßbedingte Fehler und Variabilität um einiges größer sein kann als jeglicher Einfluß der Position auf dem Wafer.
Auch ganz interessant war, dass man auch etwas Einfluss auf die Wafer haben kann, bezüglich was man mehr haben will, schnellere Dies oder höheren Yield.
Das liegt ganz einfach am Tuning von Parametern des Prozesses. Man kann beispielsweise die Gateoxid-Schicht etwas dünner machen. Dadurch werden die Transistoren schneller (aber auch leakiger) und der Yield geht tendenziell nach unten, da dann ein Transistor bei dem kleinsten Fehler nicht mehr funktioniert. So gibt es mehrere Stellschrauben, mit denen man Stromverbrauch, Geschwindigkeit und Ausbeute gegeneinander abwägen kann. Mit besserer Kontrolle des Prozesses, kann man diese Parameter dann immer besser einstellen, so daß selbst bei gleichem Stromverbrauch und gleichem oder gar besserem Yield schnellere Chips herauskommen. Zumindest ist das bei den Fabs so, die eine ausgefeilte Kontrolle und Rückkopplung auf den Prozeß betreiben. Das dürften so ziemlich alle sein. Allerdings rühmen sich AMD/Globalfoundries traditionell immer dafür, wie gut das bei Ihnen funktioniert (sprich, besser als bei den anderen), Stichwort APM.
Dural
2010-01-24, 15:09:17
laut TSMC läuft 40nm jetzt so gut wie 65nm, nur so als info...
also kann man mit Fermi wohl bald rechnen, passt also genau zur aussage von NV das fermi in der Herstellung ist und ich glaube kaum das die nur unter 50% brauchbare DIEs pro Wafer haben...
und somit sind wir ganz sicher etwas auf dem Herstellungspreis wie die GTX280 damals, wenn nicht sogar drunter... plus/minus gleich würd ich jetzt mal sagen!
also scheinen die 400-500.- US Doller für die GTX380 sehr realistisch, strassenpreise wie immer nach verfügbarkeit und nachfrage...
Gipsel
2010-01-24, 15:53:24
laut TSMC läuft 40nm jetzt so gut wie 65nm, nur so als info...Bei 60-70% durchschnittlichen Yields kann man über diese Aussage eigentlich nur herzhaft lachen. Vielleicht meinen sie ja so gut wie 65nm Anfang 2008 :rolleyes:
Schlammsau
2010-01-24, 15:57:18
laut TSMC läuft 40nm jetzt so gut wie 65nm, nur so als info...
also kann man mit Fermi wohl bald rechnen, passt also genau zur aussage von NV das fermi in der Herstellung ist und ich glaube kaum das die nur unter 50% brauchbare DIEs pro Wafer haben...
und somit sind wir ganz sicher etwas auf dem Herstellungspreis wie die GTX280 damals, wenn nicht sogar drunter... plus/minus gleich würd ich jetzt mal sagen!
also scheinen die 400-500.- US Doller für die GTX380 sehr realistisch, strassenpreise wie immer nach verfügbarkeit und nachfrage...
Glaub ich weniger....dafür sprechen das mehr an VRAM (Speicher ist nicht gerade günstiger geworden) und der etwas grössere Die.
Ich schätze das sie für ab 500€ bei uns angeboten wird, und gerade am Anfang wird das auch notwendig sein, um auch was an der GTX380 zu verdienen.
Das Problem ist so oder so, Fermi ist deutlich zu spät. Zwar nicht ganz so wie ATi damals mit ihrem verkacktem R600 aber dennoch viel zu spät.
Wenn Fermi aufschlägt, egal wie schnell er sein wird, haben sehr viele schon eine DX11 Karte von ATi, noch dazu kommt das nur vielleicht 1% der Spielergemeinde mehr als 250€ für eine Grafikkarte ausgeben (3DCenter Member mal aussen vor gelassen).
Ein weiterer Punkt ist, dass ATi bereits an einem Refresh R8xx arbeitet, der vorraussichtlich im 3Q 2010 erscheinen wird. Was macht nVidia dagegen?
Dural
2010-01-24, 16:03:36
grössere DIE??? glaube kaum das GF100 über 570mm2 ist!
16 vs 12 Speicher Chips / war damals der schnellste GDDR3 Speicher den es gab! der war damals richtig teuer!
Vollverkleidete GTX280 mit metall backplatte
beide Karten haben 6-Phasen
kein NVIO Chip
mehr kosten auf keinen fall!!!
Glaub ich weniger....dafür sprechen das mehr an VRAM (Speicher ist nicht gerade günstiger geworden) und der etwas grössere Die.
Kennst du noch die Tabelle, in der der VRAM der 4980 für 20$ und der VRAM der GTX 285 für 33$ aufgeführt war?
Beides Mal waren es 1GiB.
Inzwischen ist einige Zeit Vergangen, ziehe etwas von den 20$ ab, addiere etwas wegem dem höheren Takt, multipliziere es mit 1,5 und du hast den Preis für die Hersteller.
Ich schätze es werden nicht wesentlich über 30$ sein. Und lass es 40$ sein, das ist immer noch ein Klacks.
Schlammsau
2010-01-24, 16:07:15
grössere DIE??? glaube kaum das GF100 über 570mm2 ist!
16 vs 12 Speicher Chips / war damals der schnellste GDDR3 Speicher den es gab!
Vollverkleidete GTX280 mit metall backplatte
beide Karten haben 6-Phasen
kein NIVO Chip
mehr kosten auf keinen fall!!!
Wie gross ist der GT200b (GTX285) und wie gross soll Fermi werden?
Weisst du wie teuer GDDR5 VRAM ist?
Dural
2010-01-24, 16:09:01
seit wann hatten die GTX280 einen GT200b???
der wahrscheinlich verwendete GDDR5 Speicher (bis 1200MHz) ist sogar billiger als der schnellste GDDR3 Speicher auf der GTX285
Schlammsau
2010-01-24, 16:10:06
Kennst du noch die Tabelle, in der der VRAM der 4980 für 20$ und der VRAM der GTX 285 für 33$ aufgeführt war?
Beides Mal waren es 1GiB.
Inzwischen ist einige Zeit Vergangen, ziehe etwas von den 20$ ab, addiere etwas wegem dem höheren Takt, multipliziere es mit 1,5 und du hast den Preis für die Hersteller.
Ich schätze es werden nicht wesentlich über 30$ sein. Und lass es 40$ sein, das ist immer noch ein Klacks.
Oh ja, die Tabelle kenn ich. :)
Und die Tabelle stellt nur leider nicht die Produktionskosten dar, sondern nur für wieviel sie verkauft wurden.
Weisst du wie teuer GDDR5 VRAM ist?
20$ das 1000Mhz GiB vor einem halben Jahr?
http://www1.investorvillage.com/smbd.asp?mb=476&mn=153614&pt=msg&mid=7721873
Schlammsau
2010-01-24, 16:11:21
seit wann hatten die GTX280 einen GT200b???
GDDR5 ist sogar billiger als der schnellste GDDR3 Speicher auf der GTX285
Aso die GTX280....warum glaubst du, wurde sie so schnell EOL?
Oh ja, die Tabelle kenn ich. :)
Und die Tabelle stellt nur leider nicht die Produktionskosten dar, sondern nur für wieviel sie verkauft wurden.
Eben, die Produktionkosten liegen nochmal darunter.
Es sei denn jemand hat zuviel GDDR5, das er die Dinger für 20$ verscherbelt.
Kann den Herstellern auch egal sein, wie die 20$ zustande kommen.
Aso die GTX280....warum glaubst du, wurde sie so schnell EOL?
Über ein halbes Jahr bis zum GTX 285 Launch ist nicht schnell.
Ist übrigens auch üblich, das dann die alten Produkte EOL gehen.
Schlammsau
2010-01-24, 16:15:34
20$ das 1000Mhz GiB vor einem halben Jahr?
http://www1.investorvillage.com/smbd.asp?mb=476&mn=153614&pt=msg&mid=7721873
Sorry die Tabelle ist mit Vorsicht zu geniessen....hat schon Leo auf der Main angedeutet.
Laut der Liste ist ein RV790 (4980) genauso teuer in der Herstellung wie ein GT200b einer GTX275. Das sind wenn dann nur Preise, die von den einzelnen Herstellern verlangt werden, und nicht was sie real kosten. Ob und wieviel mit der einzelnen Komponente verdient wird, geht aus der Liste nnicht hervor!
Dural
2010-01-24, 16:15:41
was willst du eigentlich genau? Meine Aussage ist die GTX380 wird in der Herstellung etwa gleich viel kosten wie die GTX280 damals wenn nicht sogar etwas weniger punkt! Bei gleicher ausbeute sogar sicher weniger als damals GT200/GTX280
Schlammsau
2010-01-24, 16:19:17
Über ein halbes Jahr bis zum GTX 285 Launch ist nicht schnell.
Ist übrigens auch üblich, das dann die alten Produkte EOL gehen.
Wieso alt, eine GTX285 war doch eine Sinnvolle Ergänzung zur GTX280.
Aber die GTX wurde ein halbes Jahr nach release eingestampft. Ist mMn nicht üblich! Oder wurde auch die 4870/1024MB eingestampft als die 4890 released wurde? Die GTX280 war einfach zu teuer in der Herstellung und konnte zu dem Preis, der ATi ihnen "aufgezwungen" hat, nicht verkauft werden.
..... wenn nicht sogar etwas weniger punkt! Bei gleicher ausbeute sogar sicher weniger als damals GT200/GTX280
Und genau das bezweifle ich!
mictasm
2010-01-24, 16:23:57
Wieso alt, eine GTX285 war doch eine Sinnvolle Ergänzung zur GTX280.
Aber die GTX wurde ein halbes Jahr nach release eingestampft. Ist mMn nicht üblich! Oder wurde auch die 4870/1024MB eingestampft als die 4890 released wurde? Die GTX280 war einfach zu teuer in der Herstellung und konnte zu dem Preis, der ATi ihnen "aufgezwungen" hat, nicht verkauft werden.
Und genau das bezweifle ich!
die 285 war doch keine Ergänzung zur 280, das war die Ablösung...
Wieso alt, eine GTX285 war doch eine Sinnvolle Ergänzung zur GTX280.
Aber die GTX wurde ein halbes Jahr nach release eingestampft. Ist mMn nicht üblich! Oder wurde auch die 4870/1024MB eingestampft als die 4890 released wurde? Die GTX280 war einfach zu teuer in der Herstellung und konnte zu dem Preis, der ATi ihnen "aufgezwungen" hat, nicht verkauft werden.
Quatsch, die 280 ist keine sinnvolle Ergänzung. 2 vollausgestatte Karten, nur durch Takt unterschieden machen in dem Segment keinen Sinn.
Es war von Anfang an geplant, das das Topmodell vollbestückt und ein anderes Modell teilbestückt sein wird.
Die sinnvole Ergänzung ist die 275.
Schau mal auf die X1800, hat die mit der X1900 noch Sinn gemacht?
AMD hat bewusst die 4870 weiterlaufen lassen, das ist richtig. Auch weil sie billiger als die 4890 zu produzieren ist. Auch weil die Nachfrage nach kleinen RV770 Karten die Zahl der defekten RV790 weit übertreffen würde.
Sorry die Tabelle ist mit Vorsicht zu geniessen....hat schon Leo auf der Main angedeutet.
Laut der Liste ist ein RV790 (4980) genauso teuer in der Herstellung wie ein GT200b einer GTX275. Das sind wenn dann nur Preise, die von den einzelnen Herstellern verlangt werden, und nicht was sie real kosten. Ob und wieviel mit der einzelnen Komponente verdient wird, geht aus der Liste nnicht hervor!Der GT200b auf der GTX 275 würde im Müll landen, wenn nicht auf der abgespeckten Karte.
Wo würde der 1000Mhz GDDR5 landen? Der ist damals kein Abfall gewesen, im Gegenteil.
die 285 war doch keine Ergänzung zur 280, das war die Ablösung...
Bingo. Wieso sollte nVidia auch einen 576mm^2 Core weiter produzieren, wenn sie die selbe Leistung mit einem 484mm^2 Core erreichen?
Manchmal frage ich mich, ob einige sich nicht ein anderes Forum für solche Sachen suchen sollten. Wenn schon die kleinste Logik ignoriert wird, dann ist eigentlich schon alles verloren.
Schlammsau
2010-01-24, 16:26:19
die 285 war doch keine Ergänzung zur 280, das war die Ablösung...
Musste sie ja auch, der GT200 war einfach zu gross und zu teuer in der Herstellung im Vergleich zur Konkurrenz.
Und genau das bezweifle ich!
Billigeres PCB, billigerer VRAM der GTX 380 sind schonmal 2 Punkte.
Die GPU wird etwas teurer. Vergiss nicht das er GT200a meint.
Das mit den besseren Dies in der Mitte liegt an Verspannungen im Kristallgitter des Siliziums, die durch die Herstellungsmethode der vergleichweise riesigen Einkristalle, aus denen die Wafer gesägt werden, verursacht werden. Das war vor ..........
Schön, dass es hier noch Leute gibt, die allem Anschein nach auch wissen wovon Sie reden ...
Schlammsau
2010-01-24, 16:29:17
Billigeres PCB, billigerer VRAM der GTX 380 sind schonmal 2 Punkte.
Die GPU wird etwas teurer. Vergiss nicht das er GT200a meint.
Wir wissen doch gar nicht ob das PCB und der VRAM günstiger sind. Das geht leider aus keiner Liste hervor.
Musste sie ja auch, der GT200 war einfach zu gross und zu teuer in der Herstellung im Vergleich zur Konkurrenz.
Das ist ein normaler Prozess, die Unternehmen arbeiten auf geringere Kosten hin.
AMD konnte RV770 nicht mehr shrinken, stattdessen haben sie eine Möglichkeit gesucht ihr Produkt aufzuwerten, um es teurer verkaufen zu können.
Wir wissen doch gar nicht ob das PCB und der VRAM günstiger sind. Das geht leider aus keiner Liste hervor.
GDDR5 ist billiger, das haben wir doch jetzt geklärt? Was meinst du, warum die neuen GT2xx oder die HD4-5 auf GDDR5 bei kleinerem SI setzten?
Das PCB muss ein deutlich kleineres SI beherbergen.
Ja leider gibt hier nur wenige, die wirklich was wissen und es auch teilweise mitteilen. Schade ist es allerdings, dass die auch dann auch noch angefeindet werden. Eine Thread ohne Beiträge wird zwar auch nicht häufig besucht, also kann man Mods schon verstehen, warum diese einige, auch sehr fragwürdige Beiträge stehen lassen, aber manchmal...
Naja, wer sich dann noch behaupten kann, wächst daran.
Schlammsau
2010-01-24, 16:38:28
GDDR5 ist billiger, das haben wir doch jetzt geklärt? Was meinst du, warum die neuen GT2xx oder die HD4-5 auf GDDR5 bei kleinerem SI setzten?
Das PCB muss ein deutlich kleineres SI beherbergen.
ABer wir wissen trotzdem nicht die genauen Preise....sind es 5$ oder 10$ unterschied? Welche Preise zahlt nVidia für diese Komponenten? Welche Yield hat die GPU?
Wie ihr sicher alle wisst, bestimmt auch die Abnahmemenge den Preis. Ist bei uns in der Firma zB so.....
Und das nVidia extrem hohe Stückzahlen des GT300 bestellt, kann ich mir nicht vorstellen.
Wir reden hier von 500€+ teurer Hardware!
Musste sie ja auch, der GT200 war einfach zu gross und zu teuer in der Herstellung im Vergleich zur Konkurrenz.GT200 war größenwahnsinnig, nach dem G80 (in 90 nm) dachten die wohl, dass sie ein vergleichbares Spielchen noch mal bringen könnten. Zum Glück kam ATI dann mit vernünftigen Preisen so dass Nvidia nachziehen musste.
1. Nvidia hat noch viele andere Geschäftsbereiche abseits des Highends um GTX 260 und aufwärts. Der alte G92 ist ne cashcow, auch im notebook und es gibt noch den professionellen Bereich, bei dem ordentlich Kohle abfällt, auch wenn die Produktionskosten etwas höher sind.
2. GTX 260 fallen zwangsläufig bei der Produktion ab, also kann man sie auch verkaufen. Das Geld wird mit den Professionellen Produkten (Tesla, Quadro) und GTX 275 aufwärts gemacht. Die GTX 260 sind Resteverwertung und Imagepflege. Da man mittlerweile aber so einen Haufen GTX 260 gebaut hat, ging die Rechnung nicht mehr auf. Wenn man wieder ein paar GTX 275 und GTX 285 verkaufen wollte, müsste man sich ja noch mehr GTX 260 auf Halde legen.Wieso auf Halde? Aufgrund des besseren Preisleistungsverhältnisses besteht Bedarf nach der GTX 260.
Nvidia führte extra die GTX 275 ein, um praktisch eine 285-er GPU auf ein 260-er PCB packen zu können. Weil der Yield so gut ist, dass es mehr "volle" GPUs gibt als der Markt verlangt, aber nicht jeder das Geld für eine GTX 285 hat. Nvidia macht auch mit der 260-er Geld, will aber die guten GPUs nach Möglichkeit teurer verkaufen.
5. Wie sieht das Nvidia Portfolio eigentlich momentan überhaupt aus? Nachdem die GTX 260 bis 285 praktisch nicht mehr existent sind, gibt es eigentlich nur noch die GTS 250 mit dem G92. Die abgespeckten fermi Karten für den Bereich wo aktuell die GTX Reihe liegt, sollen erst ein Quartal nach big fermi kommen. Also ist es nur umso deutlicher das NV bewußt entschieden hat die GTX Reihe einzustellen aufgrund zu hoher Kosten, obwohl sie selber wissen das noch auf Monate hinaus in diesem Preisbereich keine neuen Produkte kommen werden....Da verstehe ich die Logik nicht. Wenn Nvidia den GeForce-Highendmarkt bis zum Erscheinen von GF100 bewusst austrocknen würde, würden sie die Kunden mit Absicht in die Arme von ATI treiben. Nvidias Portfolio ist Folge der Entscheidung in Annahme eines frühren GF100-Launches und stark gesunkener Highend-Nachfrage bis dahin durch die Wirtschaftskrise, die GT200b-Produktion zu drosseln. Haben sicherlich erst mal etwas Geld gespart da sie die GPUs nicht bezahlen mussten. Jetzt werden die sich in den Allerwertesten beißen. Ansonsten hätten die zum Beispiel nach unten mit einer GTX 250 nachlegen können, praktisch eine GTX 260-192 aber mit 384-Bit-SI, dafür 1536 MiB Speicher.
Gerade durch den Mange an GT200-Chips sind die Endkundenpreise für die GTXe recht hoch, was die Attraktivität (nach dem Punkt dass sie kein DX11 können) weiter senkt. Mit Verfügbarkeit würden auch jetzt noch einige Leute auf GTX upgraden, selbst wenn die Karte in wenigen Monaten nur noch als dedizierte PhysX-GPU genutzt wird.
Chris Lux
2010-01-24, 19:28:38
GT200 war größenwahnsinnig, nach dem G80 (in 90 nm) dachten die wohl, dass sie ein vergleichbares Spielchen noch mal bringen könnten. Zum Glück kam ATI dann mit vernünftigen Preisen so dass Nvidia nachziehen musste.
...und wegen dem Größenwahn liebe ich diesen Chip. Ich arbeite an einem speziellen Feld der Computergraphik, Volume Rendering, und hier braucht man an erster Stelle Bandbreite. Der GT200 mit seinem 512bit breiten Speicherinterface hat mir damals die Tränen in die Augen getrieben. Jetzt bin ich ein wenig skeptisch wegen dem geschrumpften Interface und der geschrumpften Anzahl der Textur-Einheiten beim Fermi. Klar wird er schneller sein (DDR5, effizientere TUs etc.), nur werde ich wie andere Anwendungen vergleichbare Zuwächse sehen? Ich freue mich das, hoffentlich bald, herauszufinden...
=Floi=
2010-01-24, 22:09:22
zitat:
Weil der Yield so gut ist, dass es mehr "volle" GPUs gibt als der Markt verlangt, aber nicht jeder das Geld für eine GTX 285 hat.
never!
das haut so nicht hin, weil sonst (die 285er und) die 275er nicht so teuer wäre(n). die 260er wurde dagegen geradezu verramscht und da gibt es wohl eine ganze menge an defekten chips die raus müssen...
die 275 war die antwort auf die 4890er.
ich stimme dural übrigens zu. die 380er dürfte in der produktion günstiger wie die die 280er sein. NV hat hier ein paar (kleine) nachteile ausgemerzt und details verbessert. kostensenkung war aber sicherlich nie das wichtigste thema bei diesen karten.
Bucklew
2010-01-24, 22:14:33
Musste sie ja auch, der GT200 war einfach zu gross und zu teuer in der Herstellung im Vergleich zur Konkurrenz.
Komisch, dass die Finanzzahlen der Konkurrenz das Gegenteil zeigen.
mapel110
2010-01-24, 22:18:07
Quelle: HWL
Kompletter Deep Dive, wie es scheint.
http://www.youtube.com/watch?v=-XfbUiRTwOI&feature=channel
http://www.youtube.com/watch?v=_734dExo1ec&feature=channel
http://www.youtube.com/watch?v=rqW2JRnvW8U&feature=channel
Tessellation u Hair Demo
http://www.youtube.com/watch?v=_So-0mr_uf0&NR=1
http://www.youtube.com/watch?v=ygzWJLPByQY&feature=channel
http://www.youtube.com/watch?v=jf-rHQbrayw&feature=channel
http://www.youtube.com/watch?v=7nWJpuTZ5XY&feature=channel
http://www.youtube.com/watch?v=f9Hk3q8_dKQ&feature=channel
http://www.youtube.com/watch?v=Qj9ol5k70CU&feature=channel
http://www.youtube.com/watch?v=v8_HQKTCBAI&feature=channel
http://www.youtube.com/watch?v=E1-_eaNz1Pw&feature=channel
http://www.youtube.com/watch?v=ktmvbqfiDDQ&feature=channel
Dark Void
http://www.youtube.com/watch?v=A9OxrY7ZZCY&feature=channel
http://www.youtube.com/watch?v=Tj1x8krKqtA&feature=channel
Rocket Sleed
http://www.youtube.com/watch?v=asGFMkhWcoA&feature=channel
BlackFog
2010-01-24, 23:29:35
@mapel110
Danke für die Vids
Was ist dieses Dark Void denn für ne gay Kagge? Ich hab mich auf den Titel gefreut und dann sowas :(
Das schaut ja aus wie MDK 2, selten so ne arme Optik in den letzten 5 Jahren gesehen. Stehen die alle bei Crytek auf der Gehaltsliste oder warum will keiner dafür sorgen dass Crysis endlich seinen alten, runzligen Arsch vom Grafikthron hieven muss?
redfirediablo
2010-01-25, 00:23:30
Wieso auf Halde? Aufgrund des besseren Preisleistungsverhältnisses besteht Bedarf nach der GTX 260.
Nvidia führte extra die GTX 275 ein, um praktisch eine 285-er GPU auf ein 260-er PCB packen zu können. Weil der Yield so gut ist, dass es mehr "volle" GPUs gibt als der Markt verlangt, aber nicht jeder das Geld für eine GTX 285 hat. Nvidia macht auch mit der 260-er Geld, will aber die guten GPUs nach Möglichkeit teurer verkaufen.
Ich hoffe mal, dass zumindest bei einigen mittlerweile ankommt das Lieferbarkeit zu deutlich höheren Preisen als vorher üblich nur durch eine extreme Verknappung des Angebotes zustandekommen, Nvidia produziert quasi nichts mehr. Nur weil überhaupt noch Karten lieferbar sind, ist das kein Gegenbeweis das Nvidia die Produktion nicht defakto eingestellt hätte. Klar, es könnten noch vielleicht 100 alibi wafer im Monat sein, mehr aber auch nicht.
Wenn wir uns jetzt die aktuelle Lieferbarkeit und die entsprechenden Preise ansehen, stellen wir schnell fest das GTX 275 und GTX 285 zwar lieferbar sind aber nur mit absolut idiotischen Preisaufschlägen, zu denen praktisch niemand mehr diese Karten kauft.
Anders sieht es bei der GTX 260 aus, diese ist zwar mittlerweile auch im Preis gestiegen und überteuert gegenüber der ATI Konkurrenz aber es ist noch nicht ganz so schlimm, ergo gibt es noch deutlich mehr GTX 260 Karten im Umlauf.
Jetzt frage ich dich, warum Nvidia auf die Idee kommen sollte die wenigen Chips die es noch gibt ausgerechnet als GTX 260 und nicht als GTX 275 oder GTX 285 zu verkaufen? Ganz einfach: weil Sie es scheinbar nicht können aus technischen Gründen (defekte, bins)
Fazit: Nvidia hat vor allem noch minderwertige GTX 260 auf Halde liegen die sich nicht mit Gewinn loswerden. Neue Produktion würde noch mehr davon bedeuten bei trotzdem relativ hohen Kosten, wenn man mal an einen gleichwertigen aber deutlich billigeren Juniper denkt.
Da verstehe ich die Logik nicht. Wenn Nvidia den GeForce-Highendmarkt bis zum Erscheinen von GF100 bewusst austrocknen würde, würden sie die Kunden mit Absicht in die Arme von ATI treiben. Nvidias Portfolio ist Folge der Entscheidung in Annahme eines frühren GF100-Launches und stark gesunkener Highend-Nachfrage bis dahin durch die Wirtschaftskrise, die GT200b-Produktion zu drosseln. Haben sicherlich erst mal etwas Geld gespart da sie die GPUs nicht bezahlen mussten. Jetzt werden die sich in den Allerwertesten beißen. Ansonsten hätten die zum Beispiel nach unten mit einer GTX 250 nachlegen können, praktisch eine GTX 260-192 aber mit 384-Bit-SI, dafür 1536 MiB Speicher.
Falsch, Nvidia ist seit MONATEN bekannt das sich fermi ewig verzögern wird. Wenn sie gewollt hätten, dann wäre es ein Kinderspiel gewesen im Herbst 2009 nochmal ordentlich bei TSMC nachzuordern und Sie hätten mittlerweile wieder dick Karten in den Regalen. Die 55nm Kapazitäten waren frei und deshalb wären die Karten sehr schnell im Laden gelandet und Sie würden jetzt nicht auf dem trockenen Sitzen.
Wenn man mal nachdenkt ist es einfach logisch das man mittlerweile bei Nvidia und der GTX Serie nicht mehr von "Weltwirtschaft hat uns überrascht" sprechen kann sondern das es sich hier offenkundig um eine bewußte Entscheidung gehandelt hat, die Serie nicht mehr weiterzuführen. Diese Entscheidung trifft man nur, wenn man quasi kein Geld mehr damit verdienen kann bzw. sogar Verluste einfahren würde.
Ich betone nochmal: Nvidia wußte seit Monaten wie sich Fermi verspäten würde, es wäre mehrfach möglich gewesen gt200b nachzuordern und zeitnah neue Kontingente in die Läden zu bringen. Sie haben sich aber bewußt dazu entschlossen diesen Markt komplett ATI zu überlassen und die einzigste logische Begründung dafür ist, das die Kosten zu hoch gegenüber dem Verkaufspreis waren und sind.
mapel110
2010-01-25, 00:26:47
Blödsinn, die Kunden(hier Boardhersteller) haben schlicht mehr GTX260 und mehr GTX285 bestellt, weil von denen mehr verkauft werden als von GTX 275. Es gibt keinen Grund, warum die Ausbeute auf einmal zu niedrig sein sollte. Aber das ist hier eh offtopic.
Tolle Theorie:
- Keine Produktion mehr.
- teildefekte GT200b liegen auf Halde rum, sie werden die einfach nicht los
- Preise der GTX 260 und GTX 275 sind gestiegen
Das passt hinten und vorne nicht, so viele Wiedersprüche in sowenigen Sätzen, versuch es besser gleich nochmal.
Pino_Caliente
2010-01-25, 00:35:13
Was ist dieses Dark Void denn für ne gay Kagge? Ich hab mich auf den Titel gefreut und dann sowas :(
Das schaut ja aus wie MDK 2, selten so ne arme Optik in den letzten 5 Jahren gesehen. Stehen die alle bei Crytek auf der Gehaltsliste oder warum will keiner dafür sorgen dass Crysis endlich seinen alten, runzligen Arsch vom Grafikthron hieven muss?
The Saboteur ist z.B von Style und Impression viel besser als dieses eintoenige, wiederholende und stumpfes gerattete von Crysis. Crysis war kein schlechtes Spiel[60% Titel fuer mich], trotzdem sollte man irgedwann damit aufhoeren Crysis als das non plus Ultra der Grafik zu hieven.
Ist schon lustig, ein Insel im Pazifik? und man hat nur ein einziges Tier im ganzen Spiel eingefuegt. Alles andere ist bloss textur,Fassade...am Ende war es doch nur ein lineares Intermezzo/Quickie....mehr aber auch nicht.
The Saboteur ist z.B von Style und Impression viel besser als dieses eintoenige, wiederholende und stumpfes gerattete von Crysis.
Stimmt - nur eben von der Grafik her nicht :D
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.