PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GT400/GF100 - Q1/2010, DX11, CUDA 3.0


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 [47] 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75

Gast
2010-02-14, 17:49:15
Es wird bald keine CPUs mehr ohne integrierte GPU geben. Da wäre es mehr als blöd, die in 2D effizientere Hardware nicht zu nutzen.


Ja, in dem Falle dass die neue Fermi Generation im Bezug auf die 2D Leistungsaufnahme keine Fortschritte gegenüber der Vorgängerversion beinhalten sollte. Mit einer GT210/220 oder aktuellen ATI sehe ich keinen Handlungsbedarf. Die dann eventuell noch zu erzielenden 5 Watt Differenz wären lächerlich mit Hinblick auf auftretenden Schwankungen der Leistungsaufnahme unterschiedlicher Mainboards (bis zu 30 Watt). Da würde ich bei meinem Kaufverhalten eher mal dort ansetzen. Ganz abgesehen von den ganzen Problemen die mit solch einer Technik noch einhergehen würden.

Um es kurz zu machen, mitunter könnte es eine gute Lösung sein um eines hohen Idle Verbrauches der Graka Herr zu werden, es als Vorteil herauszustellen halte ich allerdings für gewagt.

=Floi=
2010-02-14, 22:11:12
optimus und die intel igp sind doch einfach müll. ein richtiger 2d modus ist dagegen eine wirkliche verbesserung. Zum glück kann man auch noch genuig cpus ohne igp kaufen.
optimus wird genau so versagen wie hybrid sli. vergesst die technik.

Deinorius
2010-02-14, 22:34:48
Begründung bitte. Das Wichtigste daran ist Windows 7. Der Rest scheint nicht so kompliziert zu sein, wenn jetzt schon Notebooks mit Optimus auf den Markt kommen.

Armaq
2010-02-14, 23:27:04
Wenn die Karte nur 15W im Idle verbaucht (HighEnd), dann brauche ich keine aktive IGP-Lösung. Eine Verschmelzung auf der CPU hingegen ist sicherlich anzustreben.

Gast
2010-02-14, 23:31:38
Wenn die Karte nur 15W im Idle verbaucht (HighEnd), dann brauche ich keine aktive IGP-Lösung. Eine Verschmelzung auf der CPU hingegen ist sicherlich anzustreben.

Die IGP wird immer weniger Strom benötigen als die diskrete Karte. Ansonsten würde Optimus im Notebookmarkt ebenso keinen Sinn ergeben.

Deinorius
2010-02-15, 00:36:36
Wenn die Karte nur 15W im Idle verbaucht (HighEnd), dann brauche ich keine aktive IGP-Lösung. Eine Verschmelzung auf der CPU hingegen ist sicherlich anzustreben.


Da Optimus derzeit vorwiegend auf den mobilen Markt zustrebt, ist es völlig naiv zu glauben, es würde sich nicht durchsetzen, oder noch schlimmer, es wäre Blödsinn. ;D
Was man davon halten mag, Notebooks mit IGP und schwacher GPU auf den Markt zu werfen, sei einerlei, ich halte selber auch nicht allzu viel davon. Aber mit den Arrandales ist der Anfang eingeläutet worden, wo IGPs immer häufer verbaut vorzufinden sein werden. Die IGP ist von vornherein dabei, daran wird auch Apple nichts ändern. Die können vielleicht die IGP deaktiviert kaufen und wieder was von nvidia nehmen (ich hoffe es selber und gewisse Gerüchte deuten es wohl an), aber den restlichen Markt können sie ja auch nicht umkrempeln. Hier überschätzt jemand Apple etwas zu sehr.

Und um ehrlich zu sein, erhoffe ich mir noch zusätzlich, dass durch Optimus oder zumindest durch eine Erweiterung bzw. 2.0 Notebooks auch per Standard externe Grafik erleben können. Verbunden durch externes PCIe, was ja schon standardisiert ist und das notebookeigene Display ist dann ebenfalls im Betrieb, vielleicht sogar mit Hot Swap. :)

Armaq
2010-02-15, 07:40:08
Sicherlich richtig, aber wenn ich für mein Notebook wieder eine "Spielbox" mit mir schleife, wird dann das Konzept Notebook nicht wieder obsolet? Die Idee klingt erst einmal gut, aber wer sich ein NB kauft, verzichtet willentlich auf Rechenleistung um die Vorteile dafür einzukaufen.

Ailuros
2010-02-15, 07:59:20
Aha. Toll. Eine PR Story von AMD mit AMD.
Was soll nVidia lernen? Das ergeizige Projekte mal im Sand verlaufen? Aber wir wollen ja alle die superdolle AMD Execution-Welt. Wo wir Jahre warten, bis wir Profile erhalten, oder SSAA, oder HQ-AF, oder Optimus, oder GPU-Physik, oder Stereo3D, oder OpenCL im normalen Treiber...
AMD hat eben diesmal den Vorteil. Das hat nichts mit ihrer "Execution" zu tun. Oder wieso war der GT200 gleichzeitig am Markt? Muss wohl schlechte "Execution" von AMD gewesen sein.

Ja LS es ist eine PR story fuer AMD von AMD. Was genau aendert es an der Realitaet dass AMD schon seit Q3 2009 DX11 Produkte auf Ladentischen hat? Gar nichts.

AMD hat nicht diesmal nur den Vorteil sondern seit RV670 wenn es zu execution kommt. Von mir aus verdreh es so stark zu glauben dass AMD eine Gluecksstraene ueber mehrere Produkt-generationen hat und NVIDIA eine Pechstraene im Gegensatz. Es bringt mir immer noch keine DX11 SKUs rechtzeitig auf den Markt und NV rennt AMD nach wie vor hinterher und es sieht auch nicht anders aus fuer's gesamte 2010 weil eben die Kleinen GF10x auch ihre Zeit brauchen werden.

Bezueglich GT200 es waren NV Angestellte die eingestanden haben dass es das Ding nie auf 65nm haette geben sollen und dass der originale MSRP fuer diesen u.a. zu ihren eigenen Fehlern zaehlte.

svenw
2010-02-15, 09:24:21
Nvidia kann 2010 abhaken, denn viel vor juni/Juli wird es wohl ncihts mit der Volumenauslieferung des Fermi werden. DA auch die anderen Chips aktuell nciht die Renner sind bzw. gar nicht zu bekommen sind wird dieses Jahr für Nvida grottenschlecht werden. Mehr oder weniger 6 Monate Nichtverkauf übersteht keine Bilanz!

Die Frage ist: wie geht es weiter? Wenn Fermi wirklich gut wird, könnte es gut gehen, wird Fermi nur mau wird es wohl eng. Dann muß man sich fragen ob Nvidia nicht zum Übernahmekandidaten wird. Als Bewerber fiele mir da eine Firma ein die massig Geld hat und erst letztens ein Graka-Projekt beerdigen mußt. Vor allem da AMD sich auch eine Graka-Sparte zugelegt hat.

Allerdings verwundert mich der NV Aktienkurs hier (http://www.finanzen.net/aktien/NVIDIA-Aktie) angesichts der massiven Probleme. Wissen die mehr als wir?

Ailuros
2010-02-15, 09:34:15
Nvidia kann 2010 abhaken, denn viel vor juni/Juli wird es wohl ncihts mit der Volumenauslieferung des Fermi werden.

Wenn dann ist nur die GTX480 betroffen.

DA auch die anderen Chips aktuell nciht die Renner sind bzw. gar nicht zu bekommen sind wird dieses Jahr für Nvida grottenschlecht werden. Mehr oder weniger 6 Monate Nichtverkauf übersteht keine Bilanz!

GF100's Derivate muessen eben so schnell wie moeglich ankommen.

Die Frage ist: wie geht es weiter? Wenn Fermi wirklich gut wird, könnte es gut gehen, wird Fermi nur mau wird es wohl eng. Dann muß man sich fragen ob Nvidia nicht zum Übernahmekandidaten wird. Als Bewerber fiele mir da eine Firma ein die massig Geld hat und erst letztens ein Graka-Projekt beerdigen mußt. Vor allem da AMD sich auch eine Graka-Sparte zugelegt hat.

Ach immer der Quark ueber die Uebernahme- bzw. Doom & Gloom Konspirations-thesen. Erstens hat es gleich Null mit dem Thema hier zu tun und zweiten besteht kein einziger Grund daran momentan zu denken. Es geht hier lediglich darum dass NV endlich ihre Augen aufmacht und sich fuer 2011 besser aufruestet bzw. die Fehler der Vergangenheit vermeidet.

Allerdings verwundert mich der NV Aktienkurs hier (http://www.finanzen.net/aktien/NVIDIA-Aktie) angesichts der massiven Probleme. Wissen die mehr als wir?

Mach Dir gefaelligst einen anderen Thread auf fuer dieses Zeug. Moechtegern armchair Finanz-analysen haben wir genug und in 99% der Faelle haben die moechtegern Analysten nicht mal einen Schimmer Ahnung ueber solche Affaeren.

mapel110
2010-02-15, 09:35:45
Allerdings verwundert mich der NV Aktienkurs hier (http://www.finanzen.net/aktien/NVIDIA-Aktie) angesichts der massiven Probleme. Wissen die mehr als wir?
nvidia besteht zum Glück aus mehr als nur ein paar Desktop-Grafikkarten. Und wie "übertoll" sich das aktuelle Line-Up bei AMD ausgewirkt hat auf die Quartalszahlen sollte auch zu denken geben.

Ailuros
2010-02-15, 09:39:55
nvidia besteht zum Glück aus mehr als nur ein paar Desktop-Grafikkarten. Und wie "übertoll" sich das aktuelle Line-Up bei AMD ausgewirkt hat auf die Quartalszahlen sollte auch zu denken geben.

Strich und Punkt fuer das Thema bitte. Jeglicher weiterer Post der das Thema beruehrt von jetzt ab kommt in die Spielwiese.

Gast
2010-02-15, 11:48:35
Ja LS es ist eine PR story fuer AMD von AMD. Was genau aendert es an der Realitaet dass AMD schon seit Q3 2009 DX11 Produkte auf Ladentischen hat? Gar nichts.

Es war eine Entscheidung von nVidia den Flaschenhals "Geometrie" mit einem Schlag zu beseitigen. Es hätte genauso gut auch funktionieren können.


AMD hat nicht diesmal nur den Vorteil sondern seit RV670 wenn es zu execution kommt. Von mir aus verdreh es so stark zu glauben dass AMD eine Gluecksstraene ueber mehrere Produkt-generationen hat und NVIDIA eine Pechstraene im Gegensatz.

Wo war bitte die Ausführung bis zum rv870 besser? Wie wäre es mit einem Realitätsvergleich:
November 2007: G92 - rv670
Januar 2008: rv630
Februar 2008: G94
März 2008: RV610
Juni 2008: G92b, GT200 - rv770
Juli 2008: G96b
September 2008: RV710, RV730
November 2008: G94b
Januar 2009: GT200b
März 2009: rv740 (Papier)
Juni 2009: GT215, GT216, GT218 (Alles Papier).


Ich zähle 10 Chips bei nVidia und 7 bei AMD bis der rv870 veröffentlicht wurde. Und dabei sollte man hier bitte im Hinterkopf haben, dass AMD's neue Chips meistens nichtmal den alten nVidia-Lösungen gleichwertig waren. Eine 4670 ist langsamer als eine 9600gt aus dem Februar, ein rv630 schaffte es nichtmal einen G84 zu besiegen.


Bezueglich GT200 es waren NV Angestellte die eingestanden haben dass es das Ding nie auf 65nm haette geben sollen und dass der originale MSRP fuer diesen u.a. zu ihren eigenen Fehlern zaehlte.

Der Chip kam auf 65nm. Das war geplant. Wenn, dann müsste nVidia ihre gesamte 65nm Strategie heute ablehnend gegenüber stehend. Einen 480mm^2 Chips aus dem nichts auf 55nm fertigen, dass wird wohl niemand machen.

Nakai
2010-02-15, 12:11:00
AMD ist derzeit vorne. Und so wie Ail die Situation beurteilt, dann bleibt das noch eine Zeit so.
Was hat AMD getan? Die Performance ist zwar nicht so stark angestiegen, was enttäuschend ist. Dafür scheint AMD endlich mal auf die User zu hören.
SSAA, besseres AF, bald Profile für CF, Surround etc.

AMD hat vieles richtig gemacht und wenig falsch, Punkt.

NV dagegen hat einfach gar nichts gemacht, außer Chips neu aufgelegt. Und man sieht, wie es derzeit aussieht. Mehr braucht man nicht erklären.

Wenn NV endlich mal ihre Serie launcht, dann kann es wieder anders aussehen. Eigentlich sollte jeder wirklich darauf hoffen, dass es bald geschieht. Dann sollte die Situation aber nur so sein, wie bei RV770 vs. GT200. Das wär das Beste für den Kunden.



mfg

aylano
2010-02-15, 12:27:37
NV dagegen hat einfach gar nichts gemacht, außer Chips neu aufgelegt.
Gar nichts gemacht ist auch etwas übertrieben. IMO Eher machen sie (zu) viel und (zu) langsam (=erst bei reife Prozesse umstellen = sicherer)

AMD hat halt schon seit RV670 ein schnelles Tempo vorgelegt und mit den höheren Risiko verzockt. Dass ATI/AMD schnell auf neue Prozesse setzt, ist länger so, aber seit RV7x0 hat AMD auch die Architektur & Die-Größer auf schnelle & problemloser und somit auch pünktliche Wechsel angepasst. Und das ist jetzt der große Vorteil von ATI, weil das jetzt (und eigentlich schon seit RV6x0) alles zusammen gut funktioniert.

Und die Vorbereitungen gehen dabei teils Jahre voraus und deshalb wird Nvidia noch lange Zeit daran zu knappern haben.

Wo war bitte die Ausführung bis zum rv870 besser? Wie wäre es mit einem Realitätsvergleich:
Interessanter ist, welche Dies gecancelt wurde und da steht es 2:0 für Nivida.
Und das ist viel wichtiger als die ganzen Shrinks aufzuzählen, dann Nvidia fehlt jetzt eben der GT212 gegen RV870.

Außerdem ist es noch ein Unterschied, ob ATI sehr früh den Prozess wechselt, was riskanter & teurer ist, oder ob man bei einem reifen Prozess wechselt.

So wie es aussieht, war RV740 ein voller Erfolg. Denn jetzt erntet AMD beim RV870 die Früchte.

Nakai
2010-02-15, 12:51:32
Gar nichts gemacht ist auch etwas übertrieben. IMO Eher machen sie (zu) viel und (zu) langsam (=erst bei reife Prozesse umstellen = sicherer)

AMD hat halt schon seit RV670 ein schnelles Tempo vorgelegt und mit den höheren Risiko verzockt. Dass ATI/AMD schnell auf neue Prozesse setzt, ist länger so, aber seit RV7x0 hat AMD auch die Architektur & Die-Größer auf schnelle & problemloser und somit auch pünktliche Wechsel angepasst. Und das ist jetzt der große Vorteil von ATI, weil das jetzt (und eigentlich schon seit RV6x0) alles zusammen gut funktioniert.

Und die Vorbereitungen gehen dabei teils Jahre voraus und deshalb wird Nvidia noch lange Zeit daran zu knappern haben.


Bei G94b, G92b, GT200b gab es keinen Designaufwand. Die Chips wurden von 65nm auf 55nm geshrinkt. Die neue DX10.1 ist tatsächlich komplett neu. Ich gehe davon aus, dass eigentlich eine komplette Serie damit geplant war. Leider haben sich dann die großen Chips verzögert und sind damit relativ nahe an Fermi gekommen, weswegen diese gecancelt wurden. Schade eigentlich, jetzt wo sich Fermi ebenso verspätet.

Es ist einfach, dass NV wirklich ein paar Probleme derzeit hat. Ob es ein Disaster wie NV30 wird, wird sich noch zeigen. Aber gewiss so wird es nicht ablaufen. Eher wird der Chip einfach sehr teuer für das Gebotene werden, was einige Leute sehr gefallen wird.

So wie es aussieht, war RV740 ein voller Erfolg. Denn jetzt erntet AMD beim RV870 die Früchte.

Warum NV nichts daraus ziehen kann, wundert mich doch. Die haben ebenso früh 40nm-Chips geliefert. Anscheinend ist AMD vom RV740 in der Lage auf den RV8xx zu schließen. Es könnte sein, das Fermi einfach deutlich anders ist als jeder Vorgänger.


mfg

Kalmar
2010-02-15, 13:40:24
bei der ganzen überlegung sollte man aber auch net vergessen das sich bei der nächsten generation wieder alles drehen kann .. wenn nv den refresh oder die aufbohrung gut raus bringen kann und ati an ihrem neuen degsin zu knappern hat ..

was mich eher verwundert ist das ati net so wirklich kapital draus schlagen kann, was vermutlich auch an der semioptimalen lieferbarkeit liegt .. obwohl man hier bestimmt auch sagen muss das ati nicht mit diesen absatzmengen kalkuliert haben wird ..

Ailuros
2010-02-15, 14:43:03
Es war eine Entscheidung von nVidia den Flaschenhals "Geometrie" mit einem Schlag zu beseitigen. Es hätte genauso gut auch funktionieren können.

Was hat das mit der Tatsache zu tun dass es keine DX11 Produkte von NV auf Regalen gibt? Genau wieder gar nichts. Und der Laecherlichkeit zu Liebe der Kreideboard Design war Q2 2005 fertig.



Ich zähle 10 Chips bei nVidia und 7 bei AMD bis der rv870 veröffentlicht wurde. Und dabei sollte man hier bitte im Hinterkopf haben, dass AMD's neue Chips meistens nichtmal den alten nVidia-Lösungen gleichwertig waren. Eine 4670 ist langsamer als eine 9600gt aus dem Februar, ein rv630 schaffte es nichtmal einen G84 zu besiegen.

NVIDIA's execution stinkt seit G92.


Der Chip kam auf 65nm. Das war geplant. Wenn, dann müsste nVidia ihre gesamte 65nm Strategie heute ablehnend gegenüber stehend. Einen 480mm^2 Chips aus dem nichts auf 55nm fertigen, dass wird wohl niemand machen.

NV eigene Angestellte haben sich fuer den Fehler oeffentlich entschuldigt nicht ich. Aber Du weisst es ja selber besser als diese oder?

Uebrigens ist es mir gleichgueltig ob Du als Gast oder offiziell postest. Das Resultat ist immer das Gleiche und Du hast so oder so nicht besonders viel beizutragen ausser zu provozieren und fuer Unruhe zu sorgen.

Bei G94b, G92b, GT200b gab es keinen Designaufwand. Die Chips wurden von 65nm auf 55nm geshrinkt. Die neue DX10.1 ist tatsächlich komplett neu. Ich gehe davon aus, dass eigentlich eine komplette Serie damit geplant war. Leider haben sich dann die großen Chips verzögert und sind damit relativ nahe an Fermi gekommen, weswegen diese gecancelt wurden. Schade eigentlich, jetzt wo sich Fermi ebenso verspätet.

GT21x@40G hatten alle DX10.1. Zu nahe an GF100 oder enttaeuschend nahe an GT200b wohl eher?

Es ist einfach, dass NV wirklich ein paar Probleme derzeit hat. Ob es ein Disaster wie NV30 wird, wird sich noch zeigen. Aber gewiss so wird es nicht ablaufen. Eher wird der Chip einfach sehr teuer für das Gebotene werden, was einige Leute sehr gefallen wird.

NV30 war ein Paket von falschen Design-Entscheidungen die ich beim GF100 noch nicht sehen kann. Mein Problem ist dass NV genau seit Mitte 2008 wusste dass 40G problematisch ist und keinen einzigen "Plan B" aufweissen konnten um die TSMC Krise zu ueberwaeltigen.

Warum NV nichts daraus ziehen kann, wundert mich doch. Die haben ebenso früh 40nm-Chips geliefert. Anscheinend ist AMD vom RV740 in der Lage auf den RV8xx zu schließen. Es könnte sein, das Fermi einfach deutlich anders ist als jeder Vorgänger.


mfg

Das entschuldigt gar nichts.

aylano
2010-02-15, 14:44:45
Warum NV nichts daraus ziehen kann, wundert mich doch. Die haben ebenso früh 40nm-Chips geliefert. Anscheinend ist AMD vom RV740 in der Lage auf den RV8xx zu schließen. Es könnte sein, das Fermi einfach deutlich anders ist als jeder Vorgänger.

Vielleicht war RV740 wirklich sowas wie ein Probe-Chip, wo AMD je nach Problem wieder massive/deutilche Änderungen durchführte/"probierte", um mehr Erfahrung mit der 40er-Fertigung zu bekommen, während Nvidia da mit 3 Chips "eher" normal, also eher mit geringen Änderungen, den Shrink auf 40nm durchführte, weil GT218 & GT216 & GT215 wichtig für den Massenmarkt war, wo ATI mit der RV710 & RV710 (zu) stark war.

bei der ganzen überlegung sollte man aber auch net vergessen das sich bei der nächsten generation wieder alles drehen kann ..
Natürlich kann Nvidia so überraschen, wie ATI per RV770.
Aber da hatte eben seine Vorlaufzeit(, über die wir nichts wussten.)

Und da reden wir von Jahren und nicht Monate. Vorallem, weil AMD seine Architektur ebenfalls drauf ausgerichtet hat und Fermi ist erst ganz neu.

Nvidia ist sich AMDs Stärke erst seit 1,5 Jahren bewusst, was die Masse eben erst jetzt beim RV870 sieht. Bis dahin hatten sie voll auf ihre Monster-Strategie gesetzt, die bis dahin sehr erfolgreich war.

was mich eher verwundert ist das ati net so wirklich kapital draus schlagen kann, was vermutlich auch an der semioptimalen lieferbarkeit liegt .. obwohl man hier bestimmt auch sagen muss das ati nicht mit diesen absatzmengen kalkuliert haben wird ..
AMD/ATI-Grafikabteilung hat bisher das beste Finanzergebnis je erreicht.
Ist das nicht gut genug?

Vor allem, gibts RV810 & RV830 sowie bessere RV870 Verfügbarkeit erst seit einem Monat und nicht seit 6 Monaten.
Somit werden die nächsten Monate/Quartale noch besser aussehen und Nvidia hatte sein bestes Finanz-GPU-Ergebnis auch erst ein Jahr nach G80-Einführung und nicht im ersten Quartal.

Also, es war okay, aber Mehr schadet nie.

Ailuros
2010-02-15, 14:46:41
was mich eher verwundert ist das ati net so wirklich kapital draus schlagen kann, was vermutlich auch an der semioptimalen lieferbarkeit liegt .. obwohl man hier bestimmt auch sagen muss das ati nicht mit diesen absatzmengen kalkuliert haben wird ..

Weil eben die yields selbst heute fuer Cypress nicht auf einem magischen 80-90 Prozentual liegen sondern um einiges weiter unten. Cypress ist auch nicht besonders einfach herzustellen und alles andere als spottbillig. IMHO haetten sie die Transistoren etwas grosszuegiger anlegen koennen, aber diese Kleinigkeit ist so laecherlich im Vergleich zu NV's Problemen dass man AMD tatsaechlich nur applaudieren kann fuer ihre Leistung der letzten Jahre.

Nakai
2010-02-15, 15:06:26
Das entschuldigt gar nichts.

Aber es wäre eine Erklärung. Man muss eben die Fettnäpfchen erkennen, welche man selber aufstellt. Wie bei der RV870-Story angemerkt. Ein neuer Prozess ist ein völlig neues Ding. Man kann nicht viel steuern, sondern erahnen und vorplanen.

Nvidia ist sich AMDs Stärke erst seit 1,5 Jahren bewusst, was die Masse eben erst jetzt beim RV870 sieht. Bis dahin hatten sie voll auf ihre Monster-Strategie gesetzt, die bis dahin sehr erfolgreich war.

Die lief auch nicht schlecht, jedenfalls bis zum GT200(schon zu groß, zu komplex und zu teuer). Seit dem G92, wie Ail angemerkt hat, läufts für NV schief. GT200 war vom Ziel und vom Design einfach ineffizient. Wieso hat man extra DP-Einheiten verbaut? Wieso ein 512Bit-SI? Wieso eine so geringe Texturleistungssteigerung?
NV hätte ruhig einen fetten Chip bauen können, aber sie hätten Abstriche machen sollen.

Ein größerer G92 mit DP-fähigen Einheiten und einem 384Bit-SI...das hätte gereicht.
(Nicht fragen wie man das geschafft hätte, da hab ich keine Ahnung...)

GT21x@40G hatten alle DX10.1. Zu nahe an GF100 oder enttaeuschend nahe an GT200b wohl eher?

GT212 hat sich verzögert und beim GF100 hat man noch nicht erkannt, dass er sich verspäten würden. Dann hat man den GT212 gecancelt, da er wohl zu nahe am GF100-Launch gekommen wäre und weil der GF100 gegenüber dem GT212 nichtmal so gut aussah. Jedenfalls sehe ich das als eine sehr gute Erklärung.



mfg

Gast
2010-02-15, 15:14:55
"Warum NV nichts daraus ziehen kann, wundert mich doch. Die haben ebenso früh 40nm-Chips geliefert. Anscheinend ist AMD vom RV740 in der Lage auf den RV8xx zu schließen."

Der RV740 war um einiges größer als die von nVidia in 40nm produzierten Chips. Daher hatte ATi die Option, bestimmte Probleme schon früher zu erkennen und zu umschiffen, da sich meines Wissens nach auf einem größeren Chip zwar prozentuell mehr Fehler finden als bei der Verwendung von kleineren, dafür hat man dann aber genügend Erfahrung bei der Gestaltung eines "Flaggschiffchips" wie den RV870. nVidia scheint dieses Wissen erst gerade zu erarbeiten.

Gast
2010-02-15, 15:20:23
"Warum NV nichts daraus ziehen kann, wundert mich doch. Die haben ebenso früh 40nm-Chips geliefert. Anscheinend ist AMD vom RV740 in der Lage auf den RV8xx zu schließen."

Der RV740 war um einiges größer als die von nVidia in 40nm produzierten Chips. Daher hatte ATi die Option, bestimmte Probleme schon früher zu erkennen und zu umschiffen, da sich meines Wissens nach auf einem größeren Chip zwar prozentuell mehr Fehler finden als bei der Verwendung von kleineren, dafür hat man dann aber genügend Erfahrung bei der Gestaltung eines "Flaggschiffchips" wie den RV870. nVidia scheint dieses Wissen erst gerade zu erarbeiten.

Ich denke es lohnt sich druchaus einen Testchip sobald der neue Prozess verfügbar ist zu machen.
Durch die Arbeit am Testchip kann man die Kosequenzen für größere Chips schon sehr früh einschätzen und scheinbar das Design noch rechtzeitig anpassen.

mboeller
2010-02-15, 16:00:24
Der RV740 war um einiges größer als die von nVidia in 40nm produzierten Chips. Daher hatte ATi die Option, bestimmte Probleme schon früher zu erkennen und zu umschiffen, da sich meines Wissens nach auf einem größeren Chip zwar prozentuell mehr Fehler finden als bei der Verwendung von kleineren, dafür hat man dann aber genügend Erfahrung bei der Gestaltung eines "Flaggschiffchips" wie den RV870. nVidia scheint dieses Wissen erst gerade zu erarbeiten.

Das ist zwar eine der Antworten die von Anandtech in dem Artikel angeführt wird, aber IMHO ist die 2. Antwort viel näher an der Wahrheit und wichtiger:

AMD/ATi hat viele Prozessingenieure die in den letzten Jahren immer mit den neuesten und damit defektanfälligsten Prozessen bei TSMC gearbeitet haben. Die haben deshalb ein "Näschen" für die Probleme die bei einem neuen Prozess auftreten können.

Nvidia hat (laut Artikel) im Vergleich viele Architektur-Ingenieure und nur wenige Prozessingenieure und diese Prozessingenieure haben außerdem nur eine geringe Erfahrung mit den neuesten Herstellprozessen bei TSMC. Nvidia hatte bisher ja immer (seit dem NV30-Debakel) auf erprobte Prozesse bei TSMC gesetzt. Erst mit den 40nm GT2xx haben sie wieder auf den neuesten Herstellprozess bei TSMC gesetzt und aufgrund ihrer geringen Erfahrung ziemlich Schiffbruch erlitten. Bei den kleinen GPUs konnte man das anscheinend noch überspielen, bei dem Fermi scheint aber endgültig die Erfahrung gefehlt zu haben (große GPU, geringe Erfahrung, Schexx Herstellprozess). Da kommt jetzt vieles zusammen.

Dural
2010-02-15, 16:38:36
haha die begründung ist so lächerlich... :freak:

man könnte ja fast meine das/als 40nm bei AMD perfekt lief... ;D

gerade in anbetracht der tatsache das NV bis heute sehr wahrscheilich mehr 40nm GPUs als AMD ausgeliefert hat...

wo waren den die wunder leute bei AMD als es um den R600 / 80nm ging? ;)

der einzige Vorteil der AMD hat ist ihre bekannte R600 architektur und der tatsache das NVs neue custom architektur mit dem hohem Shader Takt deutlich anfälliger ist... und die tatsache das GF100 gut 50% grüsser ist macht es sicher nicht einfacher...

Gast
2010-02-15, 16:42:28
haha die begründung ist so lächerlich... :freak:

man könnte ja fast meine das/als 40nm bei AMD perfekt lief... ;D


Haha, Dural ist so lächerlich. Man könnte fast meinen das er ein NV-Fanboy ist.



gerade in anbetracht der tatsache das NV bis heute sehr wahrscheilich mehr 40nm GPUs als AMD ausgeliefert hat...

Mehr GPUs sicher, mehr Wafer: Never. Zumal keiner der Chips auch nur die Größe eines Juniper hat. Und genau das wird ihnen jetzt zum Verhängnis.

Sorkalm
2010-02-15, 16:49:27
wo waren den die wunder leute bei AMD als es um den R600 / 80nm ging? ;)

Einerseits kann man natürlich nicht jede Aussage in jede Zeit legen...
... aber anderrerseits, eine X1950 Pro lief bei ATI im Herbst 06 relativ problemlos - und das war nen 80 nm Chip, der auch schon > 200 mm² war. Nen ungünstiges Design wie am R600 kann man so natürlich nicht reparieren.

Nvidias erste 80 nm-GPUs kamen ein halbes Jahr später und waren trotzdem kleiner. Wo spricht das dagegen?

Dural
2010-02-15, 16:59:03
Nvidias erste 80 nm-GPUs kamen ein halbes Jahr später und waren trotzdem kleiner. Wo spricht das dagegen?

Der Satz ist gut, den genau der bestätigt ja grad meine Aussage! oder mir wäre es neu das NV mit 80nm in irgend einer weisse Probleme hatte... die G84 liefen Super!

und wie der GT215 deutlich keiner als der RV740 ist...

Einige vergessen wohl das die GT21x für den OEM Markt deutlich früher ausgelifert wurden als im Retail Markt, beim RV740 war es genau anders rum, zuerst Retail und in den grossen OEM Markt kamm die GPU nie wirklich an!

Gast
2010-02-15, 16:59:59
Nvidias erste 80 nm-GPUs kamen ein halbes Jahr später und waren trotzdem kleiner. Wo spricht das dagegen?

80nm war für nVidia nur ein Mittelding, da 65nm noch zu früh war. Aber ihr erster 65nm Chip war der g92 mit 323mm^2 im Gegensatz zu AMD mit 155mm^2.
Ansonsten hat nVidia mit dem GT215 ebenfalls ein "pipe cleaner". Und in bezug auf Cypress hat der rv740 auch nichts gebracht. Also liegt die Verzögerung für den verspäteten Tape-Out nicht am Prozess.

aylano
2010-02-15, 17:18:25
Die lief auch nicht schlecht, jedenfalls bis zum GT200(schon zu groß, zu komplex und zu teuer). Seit dem G92, wie Ail angemerkt hat, läufts für NV schief. GT200 war vom Ziel und vom Design einfach ineffizient. Wieso hat man extra DP-Einheiten verbaut? Wieso ein 512Bit-SI? Wieso eine so geringe Texturleistungssteigerung?
NV hätte ruhig einen fetten Chip bauen können, aber sie hätten Abstriche machen sollen.

Ein größerer G92 mit DP-fähigen Einheiten und einem 384Bit-SI...das hätte gereicht.
(Nicht fragen wie man das geschafft hätte, da hab ich keine Ahnung...)

Soviel ich weiß,
war der Strom-Effizienz-Rückschritt von G80 --> G92 größer als von G92 --> GT200, weswegen ist das Problem eher beim G92 sehe. GT200 war AFAIK sogar ein lineare Erweiterung von G92 alias +60% Performance & +60% Stromverbrauch.
Aber das könnte ich erst am WochenEnde "genau" nachsehen.

Nvidia ist ja auch erst "schlecht" seitdem es Rv7x0 gibt und der Hauptfehler dürfte wahrscheinlich gewesen sein, die RV6x0-Architektur von Nvidia als schon ausgereifte & kaum zu verbesserbare Architektur angenommen, was eben dazugeführt hat, dass Nvidia die Priorität mehr in Features & Co als Strom-Effizienz zu setzten.

Wobei das größere Übel für Nvidia vielleicht doch die schnelle & problemloser Umsetzbarkeit von GPUs ist. Man stelle sich vor, AMD könnte seine Chips (RV6x0, RV7x0, RV8x0) 3-6 Monate später am Markt bringen, denn dann sieht die Welt auch wieder etwas anders aus.

Mein Problem ist dass NV genau seit Mitte 2008 wusste dass 40G problematisch ist und keinen einzigen "Plan B" aufweissen konnten um die TSMC Krise zu ueberwaeltigen.
Umso erstaunlicher, falls die RV870-Story wirklich stimmt, dass AMD da reagieren konnte.
Fast noch zu einer Zeit, wo viele an massive R&D-Einsparungen bei ATI/AMD glaubten.

kleinerer RV870 sowie RV790-ZwischenEinführung sowie RV740-Probechip, während Nvidia da nach Plan weiterarbeiten wollte.

AnarchX
2010-02-15, 17:18:57
GTX 480/ 470 für 299/199€? (http://gathering.tweakers.net/forum/list_message/33471740#33471740)


Entweder GF100 geht völlig daneben und die SKUs mussten massiv beschnitten werden oder das sind Einkaufspreise für die Distributoren oder lltech4, der zwar Folien zu HD 5000 leakte, liegt hier einfach falsch.

Oder NV hält sich hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7199286#post7199286)dran und bringt mit der 199€ GTX 470 die von den Kunden erwartete Leistungssteigerung. :D

edit:
Ik kan het verder ook niet helpen, deze informatie komt rechstreeks uit de prijslijst van een nVidia partner.
http://gathering.tweakers.net/forum/list_message/33471807#33471807
Soll wohl von einer Preisliste eines NV-Partners kommen.

Sorkalm
2010-02-15, 17:19:29
Der Satz ist gut, den genau der bestätigt ja grad meine Aussage! oder mir wäre es neu das NV mit 80nm in irgend einer weisse Probleme hatte... die G84 liefen Super!

Schon, ja. Die kleinen 40er-GPUs laufen ja auch super. Heißt aber nicht, dass man den Prozess insgesamt entsprechend ausführt...

Was die restlichen Prozesse angeht, ich bin kein Experte - ich sehr nur auch, dass AMD auch die als schwierig bezeichnenden Prozesse eher benutzt hat - eben auch 80 nm. Gilt für 65 & 55 nm aber genauso. Bei denen ists nur insofern schwieriger zu zeigen, als sie da generell keine wirklich großen Chips gebaut haben; insbesondere war der RV630 der erste und letzte 65-nm-Chip zusammen mit RV610 (kam aber auch noch dtl. vor G92).

@Gast: Da spielt jemand auf die schlechte Verfügbarkeit des Cypress an ... also so schlecht sind die Yields garantiert nicht, wenn man monatelang massenfertigt! Die Nachfrage ist eben auch hoch.


Edit: @AnarchX: Wenns Einkaufpreise für Distributoren sind - 299€ + 19% + Händleraufschlag wird wohl < 400€ sein. Ist auch nicht weit von der 5870 weg - aber gut, das kann man sich wohl auch nicht leisten, selbst wenn man 20-30% schneller ist, man dürfte Marktanteile mit der neuen Architektur brauchen, sonst optimieren zuviele auf ATI-Karten.

Dural
2010-02-15, 17:23:07
kleinerer RV870 sowie RV790-ZwischenEinführung sowie RV740-Probechip, während Nvidia da nach Plan weiterarbeiten wollte.

weiter nach plan? GT200b, GT212, GT214 vergessen?

GF100 war immer für Q4 2009 vorgesehen, jetzt haben wir halt Q1 2010 also nur ein Q verspätung bis jetzt

Und ich bin mir ganz sicher das wir bald einen GT104 (ca. halber GF100) sehen werden, der wird nicht mehr lange auf sich warten lassen!

Gast
2010-02-15, 17:31:45
GF100 war immer für Q4 2009 vorgesehen, jetzt haben wir halt Q1 2010 also nur ein Q verspätung bis jetzt
Also ich kann mir nichts anderes vorstellen, als das Fermi in der ganz ursprünglichen Planung für w7 vorgesehen war. Sprich: Ende Okt./Anf. Nov. 09 hätte kommen sollen. Wann NV erkannt hat, daß es nix wird, kann ich natürlich von außen nicht beurteilen.
Ingesamt halte ich eine Aussage "nur ein Q verspätung bis jetzt" für eine sehr nv-freundliche Sicht der Dinge. Und noch ist ja von Fermi auch weit und breit nichts handfestes zu sehen, wie weit es noch nach hinten geht wird sich auch erst noch zeigen müssen.

Und ich bin mir ganz sicher das wir bald einen GT104 (ca. halber GF100) sehen werden, der wird nicht mehr lange auf sich warten lassen!
Wünschen würde man es sich. Alleine schon deswegen, damit Cypress mal in etwas freundlichere Preisregionen bewegt. Über 300 Eu wollte ich für meine 5870 eigentlich nicht ausgeben, je weiter Richtung 250 sie geht, umso besser.

Cherry

Gast
2010-02-15, 17:33:31
GTX 480/ 470 für 299/199€? (http://gathering.tweakers.net/forum/list_message/33471740#33471740)


Entweder GF100 geht völlig daneben und die SKUs mussten massiv beschnitten werden oder das sind Einkaufspreise für die Distributoren oder lltech4, der zwar Folien zu HD 5000 leakte, liegt hier einfach falsch.

Oder NV hält sich hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7199286#post7199286)dran und bringt mit der 199€ GTX 470 die von den Kunden erwartete Leistungssteigerung. :D

edit:

http://gathering.tweakers.net/forum/list_message/33471807#33471807
Soll wohl von ein Preisliste eines NV-Partners kommen.

"Von der Preisliste eines NV-Partners". Na Prost Mahlzeit! Wenn das stimmt wird Fermi mit einer 5870 bestenfalls gleichziehen, ansonsten würde man für einen solchen Monsterchip niemals solche Preise nehmen.

Dural
2010-02-15, 17:34:43
@gast

hab ja extra geschriben bis JETZT ;)

und NV sagt ja immer wieder das wir noch in diesem Q Karten sehen werden.

Gast
2010-02-15, 18:00:35
"Von der Preisliste eines NV-Partners". Na Prost Mahlzeit! Wenn das stimmt wird Fermi mit einer 5870 bestenfalls gleichziehen, ansonsten würde man für einen solchen Monsterchip niemals solche Preise nehmen.

Ujesh is wiling to take total blame for GT200. As manager of GeForce at the time, Ujesh admitted that he priced GT200 wrong. NVIDIA looked at RV670 (Radeon HD 3870) and extrapolated from that to predict what RV770's performance would be. Obviously, RV770 caught NVIDIA off guard and GT200 was priced much too high.

Ujesh doesn't believe NVIDIA will make the same mistake with Fermi.
http://www.anandtech.com/video/showdoc.aspx?i=3651&p=7

AMD wird den Preis von Cypress im Zuge von GF100 senken. Also kommt nVidia gleich mit einem relativ niedrigen Preis in den Markt. Eine GTX285 kostete in ihrer Hochzeit 250€ für den Endkunden, also deutlich weniger als 199€ beim Einkauf.

Botcruscher
2010-02-15, 18:06:42
Das ergibt alles keinen Sinn. Womöglich sind es ja die Bruttopreise vom Band. Rechnet mal großzügig noch 100€ und die Steuern zu.

igg
2010-02-15, 18:12:48
Ein paar Leaks wären so langsam mal an der Zeit...

Dural
2010-02-15, 18:18:55
Ich hoffe das die Preise stimmen, aber nur wegen den ganzen User die immer wieder behauptet habe das GTX480 sicher 600.- und mehr kosten wird weil sie so teuer in der Herstellung ist ;)

Gast
2010-02-15, 18:24:33
Ich hoffe das die Preise stimmen, aber nur wegen den ganzen User die immer wieder behauptet habe das GTX480 sicher 600.- und mehr kosten wird weil sie so teuer in der Herstellung ist ;)

Was ändert das an dieser zweifellos richtigen Aussage? Wenn Fermi wirklich zu den Preisen kommt ist das zweifellos kein gutes Zeichen.

Black-Scorpion
2010-02-15, 18:24:48
Wenn du glaubst das diese Preise auch nur annähernd Endkundenpreise sind, ist dein Realitätssinn aber völlig im Eimer. ;)

Gast
2010-02-15, 18:26:11
Was ändert das an dieser zweifellos richtigen Aussage? Wenn Fermi wirklich zu den Preisen kommt ist das zweifellos kein gutes Zeichen.

So wie beim rv770?

Gast
2010-02-15, 18:32:50
So wie beim rv770?

Ja. Wenn es NVs Ambitionen sind mit Fermi über den Preis zu gehen dann ist das sicherlich kein gutes Zeichen was die Leistungskrone betrifft. Der Unterschied zu RV770 ist halt das es sich NV mit Fermi sicher nicht leisten kann solche Preise zu fahren.

Gast
2010-02-15, 18:40:23
Ja. Wenn es NVs Ambitionen sind mit Fermi über den Preis zu gehen dann ist das sicherlich kein gutes Zeichen was die Leistungskrone betrifft. Der Unterschied zu RV770 ist halt das es sich NV mit Fermi sicher nicht leisten kann solche Preise zu fahren.

Woher kommen diese Aussagen? GT200b wurde für deutlich weniger verkauft. Mit 300€/450€ zum Start wäre man auf GT200 Niveau und deutlich über dem, was man vor 6 Monaten für den GT200b nahm.

igg
2010-02-15, 18:40:24
Der Unterschied zu RV770 ist halt das es sich NV mit Fermi sicher nicht leisten kann solche Preise zu fahren.
Wenn man es 1000 x schreibt wird es auch nicht wahrer...

Sorkalm
2010-02-15, 18:53:00
Ja dann korrigier halt, Nvidia könnte es sich schon leisten, aber so dolle ist das für die Unternehmensgesundheit nicht, wenn man mit solchen Chips schon so startet...

Werden aber eh, wenns überhaupt korrekt ist, Distributorpreise sein, dann ist man bei vll. 380€ Marktpreis bei Verfügbarkeit (und vielleicht 399 UVP) für ne GTX 480 - das wäre dann schon was anderes.

Gast
2010-02-15, 18:56:26
Ja dann korrigier halt, Nvidia könnte es sich schon leisten, aber so dolle ist das für die Unternehmensgesundheit nicht, wenn man mit solchen Chips schon so startet...


Und es wäre besser, wenn der Konkurrent seine Preise um 100$ senkt und man dann mit 399$/499$ darsteht?
Es ist der einzig richtige Weg, gleich mit einem geringeren Preis in den Markt zu kommen - 299$/399$ übt auch Druck auf AMD aus und nimmt den Impact einer AMD Preissenkung.

AnarchX
2010-02-15, 19:02:25
Vielleicht konnte NV mit TSMC, in Anbetracht dass AMD nächstes Jahr zu GF gehen wird, entsprechende Preise aushandeln.

Aber möglich wäre eine GTX 480 für 300-350€ sicherlich, immerhin war dies auch der Preis einer GTX 280 mit ~600mm² GT200 im Juli 2008 und 65nm war damals ähnlich alt wie es 40nm im März sein wird.

Ob dieser MSRP dann beim Endkunden ankommt, ist natürlich eine andere Frage.

Gast
2010-02-15, 19:11:29
Aber möglich wäre eine GTX 480 für 300-350€ sicherlich, immerhin war dies auch der Preis einer GTX 280 mit ~600mm² GT200 im Juli 2008 und 65nm war damals ähnlich alt wie es 40nm im März sein wird.


Entscheidend ist nicht wie alt, sondern wie reif ein Prozess ist. Und da hat 40nm klare Defizite. Selbst heute gibt es noch immer Lieferprobleme.

Gast
2010-02-15, 19:13:44
Und es wäre besser, wenn der Konkurrent seine Preise um 100$ senkt und man dann mit 399$/499$ darsteht?
Es ist der einzig richtige Weg, gleich mit einem geringeren Preis in den Markt zu kommen - 299$/399$ übt auch Druck auf AMD aus und nimmt den Impact einer AMD Preissenkung.

Nochmal: 199/299 sind genannt, weiß nicht woher du dir immer deine Preise heraus ziehst.

Gast
2010-02-15, 19:27:34
Nochmal: 199/299 sind genannt, weiß nicht woher du dir immer deine Preise heraus ziehst.

Genannt von wem? Ist dieser Forenuser vertrauenswürdig? Meint er damit auch den Endpreis? Ich kann doch hier auch einfach irgendwelche Behauptungen aufstellen. Warum sollte eine GTX 480 am Ende 299 € kosten, wenn sie leistungsmäßig nicht absolut failed?

Gast
2010-02-15, 19:30:34
Ich würde mich aber auch sehr freuen, wenn eine GTX 470 für 250 € erhältlich wäre und leistungsmäßig etwa auf HD 5850-Niveau. Zusätzlich ordentliches AF, PhysX, CUDA und vernünftige Treiber. :sabber:

fdk
2010-02-15, 19:34:55
Edit: @AnarchX: Wenns Einkaufpreise für Distributoren sind - 299€ + 19% + Händleraufschlag wird wohl < 400€ sein. Ist auch nicht weit von der 5870 weg - aber gut, das kann man sich wohl auch nicht leisten, selbst wenn man 20-30% schneller ist, man dürfte Marktanteile mit der neuen Architektur brauchen, sonst optimieren zuviele auf ATI-Karten.

Wer orientiert sich denn bitte beim "Optimieren" an Marktanteilen vpn IHV X? Der Wind weht da eher aus Richtung der Konsolen, bzw bei pc-only Titeln welche Farbe gerade mehr know how und support im gegenzug für ein "twimtbp" oÄ. anträgt.

Btw glaube ich mittlerweile das PhysX den Weg von EAX gehen wird. Nach dem Kaltstart und den halbherzigen Umsetzungen die darauf folgten kommt da einfach keine kritische Masse zusammen. Von der künstlichen Beschränkung auf Grünkarten ganz zu schweigen. Mit Optimus steht ja schon der Nachfolger für die Lücke in den Buzzwordfeatures an.

AnarchX
2010-02-15, 19:35:50
Entscheidend ist nicht wie alt, sondern wie reif ein Prozess ist. Und da hat 40nm klare Defizite. Selbst heute gibt es noch immer Lieferprobleme.
Dass diese eventuellen 299€ nicht beim Endkunden ankommen werden, hatte ich gesagt. Ob es sich für NV lohnt, ist dann eher die Frage der Preisverhandlung mit TSMC. Und vielleicht verzichtet man hier einfach aus PR-Gründen auf eine gewisse Marge bei diesen geringen Stückzahlen, um nicht wieder ein Preisdebakel wie bei GTX 280/260 zu erleben, wo die Kunden Rückzahlungen erhielten.

Hier noch etwas vom Chinesen, der den Deep Dive im voraus angekündigt hatte:
NV finally found final CLOCKS of GTX 470/480. Cards are ready to launch, will be in second half of March in reviews. There is one word: Gemini, when GF100 will be launched, remember for that word! Bye fans!
http://www.xtremesystems.org/forums/showpost.php?p=4243892&postcount=458

Gast
2010-02-15, 19:40:55
@AnarchX

Im welchem thread hast du das denn gefunden? würde da gerne mitlesen;)

fdk
2010-02-15, 19:53:02
Na wenn Gemini seinem Namen gerecht wird dann gehts heiß her ;). Und die Performancekrone dürfte damit auch sicher sein.

Gast
2010-02-15, 19:56:14
Wenn das mit dem Preis stimmen sollte wäre das ein feiner Zug seitens NVidia. Dann haben die aus dem GT200 Desaster gelernt. Die Performance liegt trotzdem über 5870 Niveau und das zu dem Preis! Mal überlegen, dann hole ich mir gleich 2.

tombman
2010-02-15, 20:19:01
Vielleicht konnte NV mit TSMC, in Anbetracht dass AMD nächstes Jahr zu GF gehen wird, entsprechende Preise aushandeln.

Aber möglich wäre eine GTX 480 für 300-350€ sicherlich, immerhin war dies auch der Preis einer GTX 280 mit ~600mm² GT200 im Juli 2008 und 65nm war damals ähnlich alt wie es 40nm im März sein wird.

Ob dieser MSRP dann beim Endkunden ankommt, ist natürlich eine andere Frage.
WTF? Unter 400€ für die 480er?

"Gems ma gleich 3- ja, ich ess die gleich- danke, wiedersehen" ;D

p.s.: das glaub ich nie- oder 480 ist so schnell wie 5870...

Malabolge
2010-02-15, 20:23:15
Wenn das mit dem Preis stimmen sollte wäre das ein feiner Zug seitens NVidia. Dann haben die aus dem GT200 Desaster gelernt. Die Performance liegt trotzdem über 5870 Niveau und das zu dem Preis! Mal überlegen, dann hole ich mir gleich 2.

Das Ich das noch erleben darph, Verzweifeifele F.....:biggrin::biggrin::biggrin:

Jetzt ist es für Nvidia erst mal an der zeit "Butter bei die Fische" zu bringen.
Außer ankünfigungen gibts bisher nix zu sehen. Und selbst NVIDIA kann es sich nicht leisten
ein ganzes Jahr zu "verpennen".

Gast
2010-02-15, 20:59:01
Das Ich das noch erleben darph, Verzweifeifele F.....:biggrin::biggrin::biggrin:

Jetzt ist es für Nvidia erst mal an der zeit "Butter bei die Fische" zu bringen.
Außer ankünfigungen gibts bisher nix zu sehen. Und selbst NVIDIA kann es sich nicht leisten
ein ganzes Jahr zu "verpennen".


Verpennen? Sagten das nicht beim G80 damals auch alle?! Was raus kam wissen, wir ja alle...


mfg

aylano
2010-02-15, 21:15:18
Ich darf wohl die Unterhaltung kurz unterbrechen....so wie es aussieht pro wafer nur ein 512SP chip. Das schreit dann tatsaechlich an Design-bedingten Problemen und wenn XMAN26 recht hat und ein B respin kommt erst im April zur fab verschickt, gute Nacht fuer anstaendige Verfuegbarkeit fuer diese fuer zumindest bis Mitte Sommer.
Wie ich vor 1-2 Monate sagte.
Für mich ist ein Tesla mit 448Shader & Co schon worst case.
Was ich damit meinte, sieht man halt erst jetzt in der Geforce-Reihe a la Miese Yieldrate & hoher Stromverbrauch/Spannung.

Das Bauchgefühlt sagte eigentlich, dass ein A4-Stepping her muss.
Dazu war für mich damals eine 448 Shader & Co Massen-Fermi logisch, sowie die 512er in Ultra-Version, wenn man die 512er schon nicht in Telsa unterkriegt, aber da ist halt die Einhaltung des TDP-Wertes verdammt wichtig.

Eine Veröffentlichung in März/April stelle ich am ehesten vor, da die Produkte halt wegen den Nachfolger irgendwann raus müssen.

Unter anderem, weil Nvidia mit dem B1-Stepping kommt, wäre ich über Fermi II im Jahr 2010 schon etwas überrascht.

Je länger das sich hinzieht, desto übler sieht es für Fermi aus.
Aber es ist ja nicht überraschend, da AMD eben mit RV740-Erfahrungen trotzdem noch so lange & solche Probleme beim RV870 hatte.

Mal sehen, wie es mit Fermi weitergeht, aber die Sterne stehen ja nicht allzu gut.

Alleine bei gleicher Die-größe dürfte sich Nvidia schwerer tun, da RV740 in September gut Verfügbar war und GT215 erst im Nov 2009 mit (ich sage/vermute mal) guter Verfügbarkeit veröffentlich wurde.

Vielleicht konnte NV mit TSMC, in Anbetracht dass AMD nächstes Jahr zu GF gehen wird, entsprechende Preise aushandeln.

Aber möglich wäre eine GTX 480 für 300-350€ sicherlich, immerhin war dies auch der Preis einer GTX 280 mit ~600mm² GT200 im Juli 2008 und 65nm war damals ähnlich alt wie es 40nm im März sein wird.

Ein so niedriger Preis könnte nur funktionieren, wenn der erste Satz zutrifft.
Warum nicht, Nvidia fertigt dort ja nicht nur GPUs sondern auch Chipsätze und vorallem Tegra II.

GT200 hatte AFAIK eine 60% Yieldrate und trotzdem hatte Nvidia damit nichts verdient.
Bis vor kurzem dachte ich immer, GT200 hatte eine 40%-Yieldrate.
Wie sich das mit AFAIK 20%-Yieldrate ausgehen soll, wäre mir sonst ein Rätsel.

Aber je später es wird, desto konteniuierlich übel sieht es für Fermi aus bzw. werden die Anzeichen der letzten Monate logisch a la RV870-Lieferbarkeit & Spannungserhöhung & 448-Shader&Co-Telsa

Gast
2010-02-15, 21:31:01
Verpennen? Sagten das nicht beim G80 damals auch alle?! Was raus kam wissen, wir ja alle...


mfg
Wie konnte das damals jemand sagen?
Der G80 kam ein halbes Jahr vor dem R600 auf den Markt...

Gast
2010-02-15, 21:39:56
Wie konnte das damals jemand sagen?
Der G80 kam ein halbes Jahr vor dem R600 auf den Markt...


Ich meine damit die Architekturspekus;) Man meinte damals, dass Nvidia immer noch auf Pixel-Shader und Vertex-Shader anstatt auf US setzt;)


mfg

Black-Scorpion
2010-02-15, 21:45:05
Und was hat eine gestreute Fehlinfo mit dem GF100 zu tun?
Von dem gibt es bis jetzt nichts, nada.
Da würden selbst Seitenlange Fehlinfos nichts bringen.

igg
2010-02-15, 21:53:33
Hier noch etwas vom Chinesen, der den Deep Dive im voraus angekündigt hatte:
NV finally found final CLOCKS of GTX 470/480. Cards are ready to launch, will be in second half of March in reviews. There is one word: Gemini, when GF100 will be launched, remember for that word! Bye fans!
http://www.xtremesystems.org/forums/showpost.php?p=4243892&postcount=458
Gemini? Gemini?

Und wieso erst in der zweiten Märzhälfte? Das ist ja noch über einen Monat :(

Edit: Gemini... Sternbild Zwillinge... DualGPU?

Gast
2010-02-15, 22:13:09
Hat niemand daran gedacht dass das auch gewollte falschinfos sind um potentielle käufer bei der stange zu halten? den preis mein ich?

Gast
2010-02-15, 23:02:29
Unter anderem, weil Nvidia mit dem B1-Stepping kommt, wäre ich über Fermi II im Jahr 2010 schon etwas überrascht.

Hängt vor allem vom 28nm Prozess ab.
Wenn da nicht innerhalb der nächsten Monate kleine GPUs auftauchen, wird keiner der IHVs noch in diesem Jahr eine wesentliche Veränderung im High-End Breich aufweisen können.


Das Bauchgefühlt sagte eigentlich, dass ein A4-Stepping her muss.
Dazu war für mich damals eine 448 Shader & Co Massen-Fermi logisch, sowie die 512er in Ultra-Version, wenn man die 512er schon nicht in Telsa unterkriegt, aber da ist halt die Einhaltung des TDP-Wertes verdammt wichtig.
Wie damals stellt sich dir Frage, wozu A4 dienen soll.

Aber es ist ja nicht überraschend, da AMD eben mit RV740-Erfahrungen trotzdem noch so lange & solche Probleme beim RV870 hatte.
Was bringt die ach so tolle Erfahrung, wenns an Prozess bedingten Problemen scheitert.


Alleine bei gleicher Die-größe dürfte sich Nvidia schwerer tun, da RV740 in September gut Verfügbar war und GT215 erst im Nov 2009 mit (ich sage/vermute mal) guter Verfügbarkeit veröffentlich wurde.
Hat damit überhaupt nichts zu tun, aber dir sei gesagt das GT2xx im Sommer herausgekommen sind.
Bis Ende Herbst hat Nvidia wohl zig fach so viele 40nm GPUs verkauft als AMD. Jetzt so langsam gibt AMD Gas, mit den kleinen RV8xx.


Was ich damit meinte, sieht man halt erst jetzt in der Geforce-Reihe a la Miese Yieldrate & hoher Stromverbrauch/Spannung.Wo hast du diese Infos her?
Kennst wohl auch die BQ und Performance?

Zauberer
2010-02-15, 23:26:44
WTF? Unter 400€ für die 480er?

"Gems ma gleich 3- ja, ich ess die gleich- danke, wiedersehen" ;D

p.s.: das glaub ich nie- oder 480 ist so schnell wie 5870...
Schon interessant wie hier spekuliert wird.
Gehen wir mal davon aus die NVIDIA Geforce GTX 470 ist ca. (+--) so schnell wie die ATI Radeon HD 5870.

Die NVIDIA Geforce GTX 480 wird wohl ca. (+--) so schnell wie die ATI Radeon HD 5970, je wie gut CF gerade skaliert.

Wenn die GTX 470 dann 199 € und die GTX 480 299 € kosten soll, müsste ATi die Preise um ca. 150 € senken.

Also ehrlich, das glaube ich auch nicht.
Es sei den die Menge ist so gering, das NVIDIA verhindern will das sich noch einer eine ATi Karte kauft.
Evtl. hat man damit sogar Erfolg, weil die 5850/5870 Käufer werden sich in den Arsch beißen, wenn die Karte auf einmal nur noch die Hälfte wert ist, ist allerdings nichts neues bei Grafikkarten.
Entweder sie steigen im Preis über einen Zeitraum von 6 Monaten, oder halten den Preis über einen Zeitraum von 12 Monaten, oder der Preis kracht auf einmal in die Tiefe.

Falls die Preise (199 € / 299 €) stimmen, stimme ich Tombman zu, dann müsste die 480 ca. (+-) so schnell sein wie die 5870.

Dies wäre aber eine ganz große Enttäuschung!
Monate warten und dann kommt ein Papiertiger daraus, ok die Preise würden wohl gedrückt werden (ca. 50-100 €), immerhin kostet die 5850 (nach ATi Preiserhöhung) offiziell 299 $ Listenpreis.
Leistungsbezogen genau wie ATi, tolle Leistung NVIDIA wenigstes werden die Preise gedrückt.

Ich denke aber GTX 470 / 299 € und GTX 480 / 399 € sind wohl realistischer, falls die Leistung des Fermi wirklich so gut (die GTX 480 ist bei GPU belastenden Spielen mindestens 30% schneller als die 5870) sein soll.

Gipsel
2010-02-15, 23:35:27
Bin übrigens gerade nochmal dank deekey777 über den Artikel von Damien Triolet zum GF100 (http://www.behardware.com/articles/782-3/nvidia-geforce-gf100-the-geometry-revolution.html) gestolpert. Für ein paar Leute hat nv da ja ein wenig mehr Informationen rausgerückt und die durften sogar mal nachfragen ;).

Aber zum Punkt, Damien sagt dort, daß der L2-Cache nur eine Bandbreite von 64 Byte (eine Cacheline) pro Partition hat. Bei 6 Partitionen (zu je 128kB) macht daß dann 384 Byte/Takt. Der Takt dort ist übrigens der langsame der ROPs, also nicht halbe hot clock. Zusammen ergibt daß dann nur 384 Byte/ROP-Takt.
Zum Vergleich, Cypress hat 8 Partitionen (je 64kB, zusammen dann 512kB), die auch jeweils 64 Byte pro Takt liefern können. Das sind dann zusammen 512 Byte pro Takt, hier sind das allerdings 850MHz, macht also 435GB/s Bandbreite.

Das Interessante ist, daß dies bei Cypress als eine Quelle der etwas schlechteren Skalierung zum RV770/790 angenommen wird, denn dort konnte die Hälfte der Einheiten praktisch auf die gleiche Bandbreite zum L2 (auch 512Bytes/Takt, RV790 hat also gleiche L2-Bandbreite wie Cypress) zurückgreifen. Daß Fermi nur 384Bytes/Takt bei voraussichtlich deutlich niedrigerem Takt anbietet (bei 650MHz wären es nur 250GB/s), spricht entweder dafür, daß das bei Cypress keine Flaschenhals ist, daß Fermi bei texturlimitierten Sachen darunter noch stärker leiden könnte als Cypress oder daß alles ganz anders ist (bzw. bei beiden Herstellern deutlich anders funktioniert, so daß die Bandbreiten nicht vergleichbar sind).

mapel110
2010-02-16, 02:15:10
dich und deinesgleichen zuerst.

(die GTX 480 ist bei GPU belastenden Spielen mindestens 30% schneller als die 5870)
damit wird man aber keinen 5870 Besitzer zum Umsteigen bewegen können, die Karten gehen alle 20-30% zu ocen und ob das Fermi kann.....
5870-User sind doch wegen 30% von einer GTX285 umgestiegen. Dann werden sie es wegen weiteren 30% sicher nochmal machen.

derguru
2010-02-16, 02:22:10
gerne wenn die preisdifferenz im selben bereich liegt wie von 285gtx zu 5870.:rolleyes:

Blaire
2010-02-16, 02:52:13
gerne wenn die preisdifferenz im selben bereich liegt wie von 285gtx zu 5870.:rolleyes:

Bissl mehr sind schon angebracht, etwas mehr VRAM ist ja auch verbaut.

=Floi=
2010-02-16, 03:47:32
also die 285er war eigentlich immer bei ~300€.
http://geizhals.at/deutschland/?phist=394442&age=365
die war eigentlich nie wirklich bei 250€ und im vergleich war sie überteuert, wenn ich für 100-150€ weniger eine 260²/270er bekomme.

tombman
2010-02-16, 03:59:45
Die kommen 100% mit der Eyef. 2GB Version sobald F. da ist.
Wenn sie langsamer sind, hätten sie so noch ein paar Argumente:
a.) Aber wir können seeeeeeechs TFTs anschließen
b.) Aber wir haben meeeeeehr Speicher (2Gb vs 1.5Gb)

Gast
2010-02-16, 04:58:33
a.) Aber wir können seeeeeeechs TFTs anschließenOder 18 mit 6 th2go MUAHAHA
Wahnwitz beiseite, gerade Zahl an Monitorausgängen ist zum Zocken sinnlos. Naja, 5 im Porträt-Horizontal-Span + 1 für Chatfenster oder so könnte für MMOs nicht übel sein :D
b.) Aber wir haben meeeeeehr Speicher (2Gb vs 1.5Gb)Wenn die 512er wirklich so selten werden wie behauptet würde mich auch eine 3GB Ultra nicht wundern.

Gast
2010-02-16, 05:02:04
Die kommen 100% mit der Eyef. 2GB Version sobald F. da ist.
Wenn sie langsamer sind, hätten sie so noch ein paar Argumente:
a.) Aber wir können seeeeeeechs TFTs anschließen
b.) Aber wir haben meeeeeehr Speicher (2Gb vs 1.5Gb)

Du tust geradezu so, als müsste AMD sich irgendwie rechtfertigen, falls Fermi schneller wird. AMD liefert schon seit 6 Monaten. Was Fermi kann oder nicht kann, ist nicht einmal ansatzweise bekannt.

tombman
2010-02-16, 05:02:46
3Gb kommt sicher nur bei Quadro/Tesla.

@anderer Gast: Was seit 6 Mon. passiert ist dem Jetztkäufer aber herzlich egal.
Und natürlich ist schon einiges über F. bekannt- ansonsten würden die meisten auch nicht von +X% mehr speed ausgehen...

Gast
2010-02-16, 05:15:47
Ultras sind schon oft recht spezielle Bestien, auch wenn nicht so benannt (wie die 512MB 7800). Soo pauschal würde ich das nicht für unmöglich halten, gerade auch, da neuerdings die DP-Leistung als Unterschied zwischen professioneller HW und der für Normalsterbliche eingeführt wurde. Kommt imho halt drauf an, wie selten die 512er wirklich im Endeffekt werden.

Gast
2010-02-16, 05:25:34
@anderer Gast: Was seit 6 Mon. passiert ist dem Jetztkäufer aber herzlich egal.

Du weißt, wie das gemeint war. Wenn Fermi schneller wird, muss AMD nicht mit Media Markt-Sprüchen auf Kundenfang gehen ("2 GB vs. 1,5 GB"). Dass ein 6 Monate später erscheinender Chip in seiner Top-Ausführung schneller ist, würde ich als normal ansehen. Wichtiger ist ohnehin die Preis-Leistung der einzelnen Ausführungen. Wenn eine GTX 480 15 % schneller als eine HD 5870 sein sollte, aber 400 € kostet, kann AMD ihre HD 5870 trotzdem für 300 € absetzen (sie verlangen ja jetzt schon, trotz "Monopol"-Stellung, nicht wesentlich mehr). Dass die GTX 285 15 % schneller als die HD 4890 ist, hat der HD4xxx-Reihe ja auch nicht geschadet. Siehe hier: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=473946

tombman
2010-02-16, 05:35:57
1.) im MM Highend? Seit wann? (und wenn, dann zu €€€€€€€€€€€€€ Preisen)
2.) DAU hat keine Ahnung von diesen 6 Mon. Der sieht nur was da ist- und rennt weg wegen dem Preisschild ;D
3.) Die Schilder stellt, wenn überhaupt, MM auf und nicht AMD.
4.) Sie können nicht mehr verlangen, weil die 5870 nicht schnell genug im Vergleich zur 285er ist, nicht weil sie so nett sind und ihr Monopol nicht ausnutzen ;) Außerdem haben sie ja ein HighEnd Produkt, nämlich die 5970er...
Außerdem wußten sie ja nicht, daß sich F. so lange verspätet, und da waren die Preise ja schon gesetzt. Sie können ja nicht nachher hergehen und drastisch erhöhen. Mit der Anhebung des 5850er Preises haben sie es eh im Kleinen getan, aber mal locker 100€ auf die 5870 draufhauen kommt nicht so gut. Und wer Kunden verarscht muß eventuell noch Rabatte geben, um die Gemüter zu beruhigen, siehe Nvidia bei der GTX280 (ich hab damals auch Geld zurückbekommen ;D)

Ailuros
2010-02-16, 06:01:32
Aber es wäre eine Erklärung. Man muss eben die Fettnäpfchen erkennen, welche man selber aufstellt. Wie bei der RV870-Story angemerkt. Ein neuer Prozess ist ein völlig neues Ding. Man kann nicht viel steuern, sondern erahnen und vorplanen.

Schlechte Erahnung und Vorplanung dann seitens NV.

Die lief auch nicht schlecht, jedenfalls bis zum GT200(schon zu groß, zu komplex und zu teuer). Seit dem G92, wie Ail angemerkt hat, läufts für NV schief. GT200 war vom Ziel und vom Design einfach ineffizient. Wieso hat man extra DP-Einheiten verbaut? Wieso ein 512Bit-SI? Wieso eine so geringe Texturleistungssteigerung?
NV hätte ruhig einen fetten Chip bauen können, aber sie hätten Abstriche machen sollen.

Ein größerer G92 mit DP-fähigen Einheiten und einem 384Bit-SI...das hätte gereicht.
(Nicht fragen wie man das geschafft hätte, da hab ich keine Ahnung...)

Die DP Einheiten nehmen ein einstelliges Prozentual an die area ein; zwar sind dedizierte Einheiten nicht das gelbe vom Ei aber auch nicht der unmittelbare Grund der Wehwehchen der GT200 relativen Design-Entscheidungen. Engineering wollte 55nm die Direktion wollte das Risiko nicht eingehen.

Noch weiter zurueck wollte engineering 10.1 aber nein laut Marketing war es ueberfluessig...

GT212 hat sich verzögert und beim GF100 hat man noch nicht erkannt, dass er sich verspäten würden. Dann hat man den GT212 gecancelt, da er wohl zu nahe am GF100-Launch gekommen wäre und weil der GF100 gegenüber dem GT212 nichtmal so gut aussah. Jedenfalls sehe ich das als eine sehr gute Erklärung.

212 wurde noch vor seinem tape out gestrichen. Wenn AMD noch Zeit hatte 1.5 Jahr vor dem Cypress launch den Design zu reduzieren dann war es auch NV bewusst dass 40G problematisch sein wird denn die Warnung seitens TSMC ging wohl nicht nur zu AMD.

Wie gut wirklich die 212 ausgesehen haette kannst Du an den heutigen kleinen GT21x@40nm im Vergleich zu seinen DX10 55nm Bruedern sehen. Der 10.1 + multimedia Schnickschnack "featurecreap" haette IMO ohne fundamentale Aenderungen in der Architektur nicht besonders grosse Leistungsunterschiede gebracht.

Das ist zwar eine der Antworten die von Anandtech in dem Artikel angeführt wird, aber IMHO ist die 2. Antwort viel näher an der Wahrheit und wichtiger:

AMD/ATi hat viele Prozessingenieure die in den letzten Jahren immer mit den neuesten und damit defektanfälligsten Prozessen bei TSMC gearbeitet haben. Die haben deshalb ein "Näschen" für die Probleme die bei einem neuen Prozess auftreten können.

Nvidia hat (laut Artikel) im Vergleich viele Architektur-Ingenieure und nur wenige Prozessingenieure und diese Prozessingenieure haben außerdem nur eine geringe Erfahrung mit den neuesten Herstellprozessen bei TSMC. Nvidia hatte bisher ja immer (seit dem NV30-Debakel) auf erprobte Prozesse bei TSMC gesetzt. Erst mit den 40nm GT2xx haben sie wieder auf den neuesten Herstellprozess bei TSMC gesetzt und aufgrund ihrer geringen Erfahrung ziemlich Schiffbruch erlitten. Bei den kleinen GPUs konnte man das anscheinend noch überspielen, bei dem Fermi scheint aber endgültig die Erfahrung gefehlt zu haben (große GPU, geringe Erfahrung, Schexx Herstellprozess). Da kommt jetzt vieles zusammen.

Definitiv nein. Die Herstellungskosten fuer GF100 machten dank problematischer yields in 2009 fuer einen so komplizierten die Herstellung unmoeglich.

Das hat nichts mit Erfahrung zu tun.

GTX 480/ 470 für 299/199€? (http://gathering.tweakers.net/forum/list_message/33471740#33471740)


Entweder GF100 geht völlig daneben und die SKUs mussten massiv beschnitten werden oder das sind Einkaufspreise für die Distributoren oder lltech4, der zwar Folien zu HD 5000 leakte, liegt hier einfach falsch.

Oder NV hält sich hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7199286#post7199286)dran und bringt mit der 199€ GTX 470 die von den Kunden erwartete Leistungssteigerung. :D

edit:

http://gathering.tweakers.net/forum/list_message/33471807#33471807
Soll wohl von einer Preisliste eines NV-Partners kommen.

Glaube ich erst wenn ich es sehe. In solch einem Fall wuerde NV die chips verschenken.

Wie ich vor 1-2 Monate sagte.
Für mich ist ein Tesla mit 448Shader & Co schon worst case.
Was ich damit meinte, sieht man halt erst jetzt in der Geforce-Reihe a la Miese Yieldrate & hoher Stromverbrauch/Spannung.

GF100 ging erst diesen Monat zur Presse (anders drucken) und das angebliche 512SP Problem soll erst da aufgetaucht sein. Wenn es stimmt dann hat es nichts mit yields zu tun, wenn Du natuerlich erstmal den eigentlichen Sinn von yields verstehst welcher fuer prozessbedingte Fehler steht. In dem Fall ist es irrelevant da Design-bedingt.

Das Bauchgefühlt sagte eigentlich, dass ein A4-Stepping her muss.

Dann informier Dich besser ueber Chip-Herstellung und was ein einfacher metal spin anrichten kann oder eventuell nicht.

Dazu war für mich damals eine 448 Shader & Co Massen-Fermi logisch, sowie die 512er in Ultra-Version, wenn man die 512er schon nicht in Telsa unterkriegt, aber da ist halt die Einhaltung des TDP-Wertes verdammt wichtig.

*Kopfschuettel* Die 480 ist mit ihren 240W maximalem Stromverbrauch nur einen Schnitt ueber der GTX280 und dazu mit um einiges hoeheren Frequenzen bei ueber doppelter Komplexitaet oder anders ~548mm2@40nm vs. 583mm2@65nm. Was hier schiefgelaufen ist dass die letzten 2 SMs abkacken muss wohl NV noch selber herausfinden.

Eine Veröffentlichung in März/April stelle ich am ehesten vor, da die Produkte halt wegen den Nachfolger irgendwann raus müssen.

Maerz.

Unter anderem, weil Nvidia mit dem B1-Stepping kommt, wäre ich über Fermi II im Jahr 2010 schon etwas überrascht.

B1 ist angeblich ein Testrennen (ie alle layers werden ueberrant und kein einfacher NUTZLOSER fuer diesen Zweck metal spin) um zu sehen wo das Wehwechen der 2SMs liegt. Welcher Fermi2?


GT200 hatte AFAIK eine 60% Yieldrate und trotzdem hatte Nvidia damit nichts verdient.

62.5% am Anfang und sie haben sehr wohl davon verdient.

Bis vor kurzem dachte ich immer, GT200 hatte eine 40%-Yieldrate.
Wie sich das mit AFAIK 20%-Yieldrate ausgehen soll, wäre mir sonst ein Rätsel.

Und wer hat Dich ueber die angeblichen 20% versichert? Mach 2.5x so viel daraus und wunder Dich warum die yields kein Problem mehr sind.

Aber je später es wird, desto konteniuierlich übel sieht es für Fermi aus bzw. werden die Anzeichen der letzten Monate logisch a la RV870-Lieferbarkeit & Spannungserhöhung & 448-Shader&Co-Telsa

Es bleibt dabei dass Schlussfolgerungen aus der Tesla Linie zu ziehen Humbug ist. Erstens sind es stets handselektierte chips mit extrem hoher Toleranz was Hitze und Stromverbrauch betrifft und zweitens kam die erste Generation an Tesla's erst unter GT200b@55nm.

V2.0
2010-02-16, 07:07:56
Die 299/199 Euro SKUs könnte GF104 sein.

Ailuros
2010-02-16, 07:14:05
Die 299/199 Euro SKUs könnte GF104 sein.

Hat dann aber nichts mit 470 bzw. 480 zu tun erstens und zweitens sind die 2 vorerwaehnten zuerst angeschlagen. Im April soll dann (nach AMD LOL) die 1/2 GF100 kommen und auch das Dual-dingsda.

***edit: Schnappsidee...fuer das letztere wuerde XMAN's niedrige core clock erstmal Sinn machen.

Hochspekulativ:

GTX480 (6pin + 8pin) = 512SPs, 384bit GDDR5 640/725/1450MHz
GTX470 (2*6pin) = 448SPs, 320bit GDDR5 570/650/1300MHz

"GTX460" (2*6pin) = 256SPs, 192bit GDDR5, 660/750/1500MHz
"GTX495" (6pin + 8pin) = 2*448SPs, 2*320bit GDDR5 475/600/1200MHz

V2.0
2010-02-16, 08:10:14
Meinst Du nicht, dass sie Deiner 460 256Bit spendieren werden?

Wobei ich die geringe Tasktung durchaus für die X2 erwarte. Und wenn das Problem der 512SP Version wirklich so extrem ist, dann bekommt diese Version plötzlich einen relativen Sinn.

tombman
2010-02-16, 08:21:16
495 noch im April? Das bezweifle ich mal stärkstens....

huch
2010-02-16, 08:35:29
B1 ist angeblich ein Testrennen (ie alle layers werden ueberrant und kein einfacher NUTZLOSER fuer diesen Zweck metal spin) um zu sehen wo das Wehwechen der 2SMs liegt.


was bedeuten "überrannte" layers? heißt das einfach, daß alle layers neu erzeugt werden mit veränderten parametern? ATI hat ja angeblich bei RV870 auch am Ende an den Transistordimensionen gedreht...
Oder ist ein "Testrennen" ein speziellerer Vorgang?

Und sind das immer dieselben 2SM? Oder ist es so, daß bei fast allen DIEs ein oder zwei SM's nicht akzeptabel laufen, der Rest aber schon?

Ailuros
2010-02-16, 09:06:49
was bedeuten "überrannte" layers? heißt das einfach, daß alle layers neu erzeugt werden mit veränderten parametern?

Hoechstwahrscheinlich ja.

ATI hat ja angeblich bei RV870 auch am Ende an den Transistordimensionen gedreht...

Ich bezweifle dass ATI etwas an der Packdichte geaendert hat, sondern eher Zeug wie sideport als Beispiel entfernt.

Oder ist ein "Testrennen" ein speziellerer Vorgang?

Wenn B1 zeigt wo der Haken der Geschichte liegt, dann bezweifle ich dass damit produziert wird. Deshalb womoeglich auch die Bezeichnung "test run". In dem Fall dann wohl eben B2.

Und sind das immer dieselben 2SM? Oder ist es so, daß bei fast allen DIEs ein oder zwei SM's nicht akzeptabel laufen, der Rest aber schon?

Gute Frage nur weiss ich leider nicht die Antwort. Gegenfrage: wenn es stets dieselben 2SMs waeren die hypothetisch abkacken waere es dann nicht um einiges leichter das Problem zu indentifizieren und sich den ganzen re spin Radau zu sparen? So wie ich das sehe sind random errors normalerweise die schwersten um den eigentlichen Grund der Defekte zu indentifizieren oder?

Meinst Du nicht, dass sie Deiner 460 256Bit spendieren werden?

Wuerde aber 32ROPs bedeuten und dafuer ist dann die bisher eingeschaetzte die area zu wenig.

495 noch im April? Das bezweifle ich mal stärkstens....

Wenn's AMD schon erwartet hab ich weniger Gruende es zu bezweifeln.

V2.0
2010-02-16, 09:25:48
Wuerde aber 32ROPs bedeuten und dafuer ist dann die bisher eingeschaetzte die area zu wenig..

Oder sie haben die ROPs verändert. Da sie ja sehr unabhängig sind, sollte der Aufwand überschaubar sein. 192Bit kann natürlich aber auch ein Sweetspot zwischen dem 256Bit der 5850/30 und der 5770 sein.

Ailuros
2010-02-16, 09:30:48
Oder sie haben die ROPs verändert. Da sie ja sehr unabhängig sind, sollte der Aufwand überschaubar sein. 192Bit kann natürlich aber auch ein Sweetspot zwischen dem 256Bit der 5850/30 und der 5770 sein.

Einfach nach der Logik dass GF1xx pro raster 8 pixels/Takt bearbeiten kann. Bloed vereinfacht: 16 pixels fuer die rasters und 8 ROPs im "Ueberfluss" fuer zusaetzliche AA Effizienz.

480 = 32+16
470 = 32+8
460 = 16+8

aylano
2010-02-16, 12:54:34
Dann informier Dich besser ueber Chip-Herstellung und was ein einfacher metal spin anrichten kann oder eventuell nicht.
Mittlerweile weiß ich den Unterschied zwischen A4-Stepping & B1-Stepping.
Aber das ist mir trotzdem wurscht, da sich eben mein Bauchgefühl höchstwahrscheinlich trotzdem bestätigt.


*Kopfschuettel* Die 480 ist mit ihren 240W maximalem Stromverbrauch nur einen Schnitt ueber der GTX280 und dazu mit um einiges hoeheren Frequenzen bei ueber doppelter Komplexitaet oder anders ~548mm2@40nm vs. 583mm2@65nm. Was hier schiefgelaufen ist dass die letzten 2 SMs abkacken muss wohl NV noch selber herausfinden.
Na was jetzt.
Hat der jetzt 280 oder 240 watt.
Letztens schriebst du von 240Watt unter Last und 280 Watt unter TDP.
Und dann ist es nicht mehr nur ein bischen über GTX280.
Vorallem, verbrauchte GTX280 dementsprechend mehr Strom unter Games wie sie von der Performance her schneller waren.
Und somit war der Stromverbrauch kein Thema. Anders könnte es eben bei 480er-Fermi aussehen.


62.5% am Anfang und sie haben sehr wohl davon verdient.
Pro Stück bezweifel ich ja nicht, nur spricht das Gesamt-GPU-Umsatz & Gewinn eine deutliche Sprache.
Wobei ich eben auch R&D-Kosten & sonstige Konzern-Kosten im Auge habe und nicht nur Stückkosten.


Es bleibt dabei dass Schlussfolgerungen aus der Tesla Linie zu ziehen Humbug ist. Erstens sind es stets handselektierte chips mit extrem hoher Toleranz was Hitze und Stromverbrauch betrifft und zweitens kam die erste Generation an Tesla's erst unter GT200b@55nm.
Was wisst damit sagen.
Unter Fermi werden die Toleranzen bei Hitze & Stromverbrauch im Vergleich zu den vorigen Tesla-Generationen geändert?

Ailuros
2010-02-16, 13:11:28
Mittlerweile weiß ich den Unterschied zwischen A4-Stepping & B1-Stepping.

Na Gott sei Dank.

Aber das ist mir trotzdem wurscht, da sich eben mein Bauchgefühl höchstwahrscheinlich trotzdem bestätigt.

Nur weil es gerade zufaellig passt und dann selbst nicht in allen Aspekten? Wenn wir alles so schoen vereinfachen koennten dann brauchen wir das Forum erstmal hier gar nicht und unser Leben wird auch leichter. Es wird ja sowieso nur alles schwarz oder weiss sein.


Na was jetzt.
Hat der jetzt 280 oder 240 watt.
Letztens schriebst du von 240Watt unter Last und 280 Watt unter TDP.
Und dann ist es nicht mehr nur ein bischen über GTX280.


280W TDP ist != maximaler Stromverbrauch. Aber warte da Dir wichtige Einzelheiten sowieso egal sind koennen wir das auch mit allem anderen einfach nur so ueberfliegen. Die TDP der 280 war auf keinen Fall auf nur 236W.

Vorallem, verbrauchte GTX280 dementsprechend mehr Strom unter Games wie sie von der Performance her schneller waren.
Und somit war der Stromverbrauch kein Thema. Anders könnte es eben bei 480er-Fermi aussehen.

Passt sehr schoen ins obrige.

Pro Stück bezweifel ich ja nicht, nur spricht das Gesamt-GPU-Umsatz & Gewinn eine deutliche Sprache.

Nur fuer Dich. Da Du anscheinend den Zauberstab hast jegliche finanzielle Angaben von NV auf den Punkt ohne weitere Infos entziffern zu koennen.

Wobei ich eben auch R&D-Kosten & sonstige Konzern-Kosten im Auge habe und nicht nur Stückkosten.

Ach und Dir ist ploetzlich deutlich dass wenn XXX R&D Kosten angegeben werde so und so viel fuer A, B, C, D oder E Generation zustehen. Herzlichen Glueckwunsch besser kann wohl keiner den Kaffesatz lesen. GT200@65nm kostete am Anfang seiner Herstellung $120 pro chip und dieser senkte sich weiter durch steigende yields.

Was wisst damit sagen.
Unter Fermi werden die Toleranzen bei Hitze & Stromverbrauch im Vergleich zu den vorigen Tesla-Generationen geändert?

Nein. Tesla chips (egal welche Generation) werden vorsichtig mit der Hand ausgesucht fuer die maximalste Toleranz fuer Hitze und Stromverbrauch weil die rack mounts zufaelligerweise 24/7 laufen muessen.

Tesla1 ergo C1070 welches das groesste Modell der vorigen Linie war, war ein GT200b@55nm chip auf 1.44GHz maximal getaktet gegen GTX285 bei 1.476GHz. Von den originalen GT200@65nm gab es nichts im Tesla Markt.

NV haette sowieso nie hoeher getaktete als 1.4GHz Tesla 20x0 configs verkauft und dazu bei maximal 6GB GDDR5 (der auch noch sein Stueckchen an Stromverbrauch zulegt trotz niedrigerer Speicherfrequenz als bei desktop) und maximalem Stromverbrauch von 225W. Was willst Du hier genau vergleichen?

Und damit das letztere etwas besser dokumentiert ist:

way to not know how to read a data sheet. One might like to actually use a IDD value that has some relation to actually doing something like IDD4 or IDD7. Since we are looking for an effective TDP in use, IDD4R was chosen as it has the highest current. These number should actually be the low side of actual TDP because they are primarily active current, add in static currents, associated ref voltages and currents, etc, and the TDP values are higher, so my ~3W is a good rough estimate.

http://forum.beyond3d.com/showpost.php?p=1389760&postcount=1137

Depending on grade and static power, you are between 2.5-3W per GDDR5 chip according to datasheets. So yes, 24 chips at full power is WELL over 20 watts.

http://forum.beyond3d.com/showpost.php?p=1389870&postcount=1145

No, GDDR5 isn't multidrop. 24 chips would require a 12x2 T configuration for the CMD/ADDR and x16 data interface.

http://forum.beyond3d.com/showpost.php?p=1389909&postcount=1148

...und falls es Dir entgehen sollte aaronspink arbeitet bei einem IHV der mit "A" anfaengt und mit "D" aufhoert; in der GDP sogar.

AnarchX
2010-02-16, 13:26:11
280W TDP ist != maximaler Stromverbrauch. Aber warte da Dir wichtige Einzelheiten sowieso egal sind koennen wir das auch mit allem anderen einfach nur so ueberfliegen. Die TDP der 280 war auf keinen Fall auf nur 236W.

Und warum sollte eine TDP höher liegen als der maximale Verbrauch?
Wenn dann ist der maximale Verbrauch vielleicht 240W, die TDP entsprechend niedriger, jedoch das Kühlsystem für bis zu 280W ausgelegt, wie bei der 5970 mit ihrer 400W Vapor Chamber.

Gast
2010-02-16, 13:33:36
Die TDP der 280 war auf keinen Fall auf nur 236W.


Doch, sie lag exakt bei 236W.

Psychopat
2010-02-16, 14:04:18
In der RV870 Story steht das der 40nm Prozess Probleme bei den Vias macht. Vias sind die Durchkontaktierungen zwischen den einzelnen Schichten. Der RV740 wurde deswegen mit doppelten Vias designed.
Wenn nVidia beim Fermi dieses Problem auch hatte und zu spät erkannte, kann man es durch einen Metal Spin bedingt lösen (sofern Platz da ist zusätzliche Vias einzubauen. An den Stellen wo es zu eng ist hilft dann halt doch nur ein Silizium Respin um mehr Platz zu schaffen.).

Prinzipiell passt das Via Problem auch zu den ein-512er-pro Wafer Gerüchten. Das würde sich erklären lassen durch ein paar kritische Vias pro Cluster (per Design) die durch den Respin nicht verstärkt werden konnten und eine gewisse Ausfallwahrscheinlichkeit haben. Hat jeder Cluster dadurch eine 10% Ausfallwahrscheinlichkeit, bekommt man signifikant mehr Chips die 80% ok sind als Chips die 100% ok sind (Poisson halt).

PS: Zahlen sind willkürlich gewählt und nur zum besseren Verständnis gedacht.

Gast
2010-02-16, 14:45:06
5870-User sind doch wegen 30% von einer GTX285 umgestiegen. Dann werden sie es wegen weiteren 30% sicher nochmal machen.

Die sind wegen der SSAA Power umgestiegen, behandelt das doch endlich mal getrennt!
Wegen +30% MSAA ist kein Mensch umgestiegen, außer er hat einen an der Waffel.
Das selbe gilt für 5870 vis 480 bei denkenden Käufern.

Gast
2010-02-16, 16:48:01
Pro Stück bezweifel ich ja nicht, nur spricht das Gesamt-GPU-Umsatz & Gewinn eine deutliche Sprache.
Wobei ich eben auch R&D-Kosten & sonstige Konzern-Kosten im Auge habe und nicht nur Stückkosten.


"Gesamt-GPU-Umsatz $ Gewinn"? Zählst du auch den Workstationbereich dazu?

Die sind wegen der SSAA Power umgestiegen, behandelt das doch endlich mal getrennt!
Wegen +30% MSAA ist kein Mensch umgestiegen, außer er hat einen an der Waffel.
Das selbe gilt für 5870 vis 480 bei denkenden Käufern.
In der RV870 Story steht das der 40nm Prozess Probleme bei den Vias macht. Vias sind die Durchkontaktierungen zwischen den einzelnen Schichten. Der RV740 wurde deswegen mit doppelten Vias designed.
Wenn nVidia beim Fermi dieses Problem auch hatte und zu spät erkannte, kann man es durch einen Metal Spin bedingt lösen (sofern Platz da ist zusätzliche Vias einzubauen. An den Stellen wo es zu eng ist hilft dann halt doch nur ein Silizium Respin um mehr Platz zu schaffen.).

Prinzipiell passt das Via Problem auch zu den ein-512er-pro Wafer Gerüchten. Das würde sich erklären lassen durch ein paar kritische Vias pro Cluster (per Design) die durch den Respin nicht verstärkt werden konnten und eine gewisse Ausfallwahrscheinlichkeit haben. Hat jeder Cluster dadurch eine 10% Ausfallwahrscheinlichkeit, bekommt man signifikant mehr Chips die 80% ok sind als Chips die 100% ok sind (Poisson halt).

PS: Zahlen sind willkürlich gewählt und nur zum besseren Verständnis gedacht.

nVidia hatte mit GT215, GT216 und GT218 drei verschiedene Chips produktionsbereit bevor Fermi zum Tape-Out ging. Das Problem sollte für GF100 überhaupt keine Rolle spielen.
Das "512-Problem" wäre ein klares Designproblem. 1 aus 200 möglichen Chips ist nur dann ein Prozessproblem, wenn die Ausbeute der nicht 512 Chips bei 3 läge...

aylano
2010-02-16, 18:16:39
Nur weil es gerade zufaellig passt und dann selbst nicht in allen Aspekten? Wenn wir alles so schoen vereinfachen koennten dann brauchen wir das Forum erstmal hier gar nicht und unser Leben wird auch leichter. Es wird ja sowieso nur alles schwarz oder weiss sein.
Was du vielleicht nicht verstehts ist, dass ich bewusst vereinfache, damit ich mich nicht in den ganzen Details verstricke.

Alleine beim GT300 behaupte ich schon lange. Wenn wenn wenn was auch immer, wieder & oder ähnliches solche Probleme wie beim GT200 & GT200b macht, dann wird es beim GT300 wegen 40nm-Problemen noch schlimmer und da sind wir eben jetzt.

Hingegen ist mir bei AMD die schnelle & problemlose (=pünktliche) Einführung von GPUs (seit RV6x0) schon länger aufgefallen.
Details wusste ich keine, aber durch die RV870-Story sieht man eben, dass das bei AMD kein Zufall war, weil das für AMD wichtig ist und dementsprechend hingearbeitet.

Und bei Nvidia dürfte es eben auch kein Zufall sein, weil sie eben auf die neuen Rahmenbedingungen alias Desing und/oder 40nm nicht reagiert hatten.

280W TDP ist != maximaler Stromverbrauch. Aber warte da Dir wichtige Einzelheiten sowieso egal sind koennen wir das auch mit allem anderen einfach nur so ueberfliegen. Die TDP der 280 war auf keinen Fall auf nur 236W.
Ich weiß nicht was du für ein Problem hast. Du hast letztens von 240Watt unter Game-Last & 280 Watt-TDP gesprochen. Ist das jetzt irgendwo ein Verschreiber gewesen/drinnen?
Beim GTX280 weiß ich es nicht, aber beim GTX285 ist Furmark vielleicht schon zu nah am dem TDP-Wert.
http://www.nvidia.de/object/product_geforce_gtx_285_de.html
http://ht4u.net/reviews/2009/leistungsaufnahme_graka/index7.php
Wobei beim GTX280 der TDP-Wert nicht so knapp waren, falls die 236 stimmen.
(Aber beim GTX280 könnte man naive Behaupten, damals war noch kein AMD-Druck vorhanden, wo solche Zahlen keinen interessiert hätten, wäre alles nach Nvidia-Plan verlaufen.)

Nur fuer Dich. Da Du anscheinend den Zauberstab hast jegliche finanzielle Angaben von NV auf den Punkt ohne weitere Infos entziffern zu koennen.
Man kann sehrwohl die Umsätze & Gewinn-Quartals-Berichte von den GPUs und/oder von den Profi-GPUs ansehen.
Und das die letzten Jahre (bis auf das 4.Quartal)

Man kann natürlich der Diskussion entgehen, indem man noch nähere Infos verlangt, da dies so gesehen ja völlig ungenau ist.

Ach und Dir ist ploetzlich deutlich dass wenn XXX R&D Kosten angegeben werde so und so viel fuer A, B, C, D oder E Generation zustehen. Herzlichen Glueckwunsch besser kann wohl keiner den Kaffesatz lesen. GT200@65nm kostete am Anfang seiner Herstellung $120 pro chip und dieser senkte sich weiter durch steigende yields.
Man kann immer weiter ins Detail gehen und so meine Aussagen in Frage stellen.

Wichtig ist, was Gesamt rauskommt. Natürlich kann man immer den Preis so anlegen, dass ein Gewinn pro Stück rausschaut
Damals hatte Nvidia noch eine Hohe Stückzahl alias hohen Marktanteil und somit konnte man das R&D-Abschreibung besser verteilen.
Problem ist nur, wenn das P/L im Vergleich zur Konkurrenz zu hoch ansetzt, gehen mit der Zeit die Stückzahlen zurück und dann ist es später nicht nur schwerer die Marktanteile zurück zu holen, sondern die Gewichtung von R&D-Abschreibung ist höher.

Und so lief es auch so.

Nein.
Also, man kann doch Rückschlüssen von Tesla auf Geforce schließen, wenn man die Toleranzen berücksichtigen kann bzw. die Chance ist groß, dass es wieder vorkommt.

Sonyfreak
2010-02-16, 18:30:53
280W TDP ist != maximaler Stromverbrauch. Aber warte da Dir wichtige Einzelheiten sowieso egal sind koennen wir das auch mit allem anderen einfach nur so ueberfliegen. Die TDP der 280 war auf keinen Fall auf nur 236W..Die TDP der GTX 280 liegt bei genau 236W. Kannst du hier in den offiziellen technischen Spezifikationen (http://www.nvidia.com/docs/IO/55506/GeForce_GTX_200_GPU_Technical_Brief.pdf) nachlesen.

http://www.bilderkiste.org/show/original/079b314b3877912f6dbe8bd6f908f29b/Bildschirmfoto_2010-02-16_um_18.30.00.png

mfg.

Sonyfreak

Bucklew
2010-02-16, 18:39:52
Doch, sie lag exakt bei 236W.
Wobei beim GTX280 der TDP-Wert nicht so knapp waren, falls die 236 stimmen.
(Aber beim GTX280 könnte man naive Behaupten, damals war noch kein AMD-Druck vorhanden, wo solche Zahlen keinen interessiert hätten, wäre alles nach Nvidia-Plan verlaufen.)
Die 236W der GTX280 sind KEINE TDP-Werte, sondern MGCP:
http://de.wikipedia.org/wiki/Geforce_200#Leistungsaufnahmedaten

Abgesehen davon war die GT200-Reihe in Sachen Leistungsverbrauch deutlich besser als die ATI-Pendants der RV700-Reihe, gerade was das idle angeht.

Man kann sehrwohl die Umsätze & Gewinn-Quartals-Berichte von den GPUs und/oder von den Profi-GPUs ansehen.
Und das die letzten Jahre (bis auf das 4.Quartal)
Bereinigt von der Finanzkrise? Oder sagst du "guck, 2008 war es noch doppelt soviel Gewinn wie 2009, scheinen sich wohl die Karten nicht gut verkauft zu haben"?

Wenn man die Zahlen mal mit ATI vergleicht, geht es Nvidia deutlich besser.

Problem ist nur, wenn das P/L im Vergleich zur Konkurrenz zu hoch ansetzt, gehen mit der Zeit die Stückzahlen zurück und dann ist es später nicht nur schwerer die Marktanteile zurück zu holen, sondern die Gewichtung von R&D-Abschreibung ist höher.

Und so lief es auch so.
Falsch, bereits ein halbes Jahr nach Einführung von GT200/RV700 war man wieder bei der alten 75%/25% Staffelung (Nvidia/ATI).

Die TDP der GTX 280 liegt bei genau 236W. Kannst du hier in den offiziellen technischen Spezifikationen (http://www.nvidia.com/docs/IO/55506/GeForce_GTX_200_GPU_Technical_Brief.pdf) nachlesen.
s.o., das ist der MGCP-Wert und nicht TDP.

Sonyfreak
2010-02-16, 18:46:44
Die 236W der GTX280 sind KEINE TDP-Werte, sondern MGCPGibt es dafür auch eine richtige Quelle? In dem Dokument finde ich jedenfalls nichts dazu, und auch im englischen Wiki ist nichts davon zu lesen. Nicht dass ich es dir nicht glaube. Es interessiert mich einfach. :smile:

mfg.

Sonyfreak

Sorkalm
2010-02-16, 18:49:19
Worst Case 236 W klingt jetzt auch nicht so, als ob da noch was drüber geht.

Gast
2010-02-16, 18:51:16
Thema? Oder wie so oft NV-Werbung von dir? Ich hoffe du wirst dafür wenigstens entlohnt.


Naja er sagt ja klar, dass ihn technische Details nicht interessieren.
Er will wissen wer "besser" ist und Das dann jedem ausführlich mitteilen.;)

Gast
2010-02-16, 18:55:57
Worst Case 236 W klingt jetzt auch nicht so, als ob da noch was drüber geht.

Es steht ja sogar TDP direkt daneben - in einem offiziellem NV-Dokument. Alleine die Diskussion darüber ist lächerlich.

Dural
2010-02-16, 19:39:31
Maximum Graphics Card Power und TDP ist bei NV das gleiche, somit stimmen die 236Watt für beide Werte. Das die Kühler für mehr ausgelegt werden ist druchaus möglich... weis ich aber nicht und davon hab ich noch nie was gehört!

Die Tesla Fermi Karten sollen bei 190Watt sein und ein maximum von 225Watt (mehr geht auch nicht mit 8-Pin oder 2x6-Pin) zulassen. Ein Fixer Wert gibt es bis heute aber NICHT!

Bucklew
2010-02-16, 19:49:21
Gibt es dafür auch eine richtige Quelle? In dem Dokument finde ich jedenfalls nichts dazu, und auch im englischen Wiki ist nichts davon zu lesen. Nicht dass ich es dir nicht glaube. Es interessiert mich einfach. :smile:
Das "Maximum Graphics Card Power" was andere ist als "Thermal Design Power" sollte wohl klar sein. Der erste Wert ist halt ein "realistischer" Wert im Normalbetrieb (speziell Netzteil und natürlich Leistungsverbrauch), während letzterer ein Wert für den Kühlerhersteller ist, um seinen Kühler zu dimensionieren. Für den normalen Benutzer ist TDP eigentlich völlig egal.

Maximum Graphics Card Power und TDP ist bei NV das gleiche, somit stimmen die 236Watt für beide Werte.
Nö.

"↑ „MGCP“ steht kurz für „Maximum Graphics Card Power“ und bezeichnet die offiziell von nVidia angegebene, unter Normalbetrieb zu erwartende maximale Leistungsaufnahme einer Grafikkarte. Unter speziellen Bedingungen lässt sich unter Umständen aber eine noch höhere Leistungsaufnahme erreichen. Daher ist die Maximum Graphics Card Power nicht mit der TDP gleichzusetzen."

Gast
2010-02-16, 19:55:32
Das "Maximum Graphics Card Power" was andere ist als "Thermal Design Power" sollte wohl klar sein. Der erste Wert ist halt ein "realistischer" Wert im Normalbetrieb (speziell Netzteil und natürlich Leistungsverbrauch), während letzterer ein Wert für den Kühlerhersteller ist, um seinen Kühler zu dimensionieren. Für den normalen Benutzer ist TDP eigentlich völlig egal.


Nö.

"↑ „MGCP“ steht kurz für „Maximum Graphics Card Power“ und bezeichnet die offiziell von nVidia angegebene, unter Normalbetrieb zu erwartende maximale Leistungsaufnahme einer Grafikkarte. Unter speziellen Bedingungen lässt sich unter Umständen aber eine noch höhere Leistungsaufnahme erreichen. Daher ist die Maximum Graphics Card Power nicht mit der TDP gleichzusetzen."

Na eh wen interessieren schon Angaben von NV wenn man Wikipedia hat? Erbärmlich.

Dural
2010-02-16, 20:03:41
Maximum Graphics Card Power (W) 236 W

http://www.nvidia.com/object/product_geforce_gtx_280_us.html


Full 3D performance mode (varies—worst case TDP 236 W)

http://www.nvidia.com/docs/IO/55506/GeForce_GTX_200_GPU_Technical_Brief.pdf

V2.0
2010-02-16, 20:12:37
Einfach nach der Logik dass GF1xx pro raster 8 pixels/Takt bearbeiten kann. Bloed vereinfacht: 16 pixels fuer die rasters und 8 ROPs im "Ueberfluss" fuer zusaetzliche AA Effizienz.

480 = 32+16
470 = 32+8
460 = 16+8

Wenn ich darüber nachdenke, dann erscheint mir es durchaus denkbar dass, sie durchaus 32 ROPs haben könnten. natürlich mir einer Reduktion der SP von 32 auf 24 und der SFUs von 4 auf 3.

Das würde noch besser skalieren wenn man davon halbe und viertel Versionen baut.

Gipsel
2010-02-16, 20:15:40
Wenn ich darüber nachdenke, dann erscheint mir es durchaus denkbar dass, sie durchaus 32 ROPs haben könnten. natürlich mir einer Reduktion der SP von 32 auf 24 und der SFUs von 4 auf 3.Und wie will der/die Scheduler dann Warps mit 32 Threads darauf verteilen?

V2.0
2010-02-16, 21:30:42
Dann verteilt er nur auf 24.

deekey777
2010-02-16, 22:02:39
Dann verteilt er nur auf 24.
Das geht nicht.

Psychopat
2010-02-17, 00:28:47
nVidia hatte mit GT215, GT216 und GT218 drei verschiedene Chips produktionsbereit bevor Fermi zum Tape-Out ging. Das Problem sollte für GF100 überhaupt keine Rolle spielen.
Das "512-Problem" wäre ein klares Designproblem. 1 aus 200 möglichen Chips ist nur dann ein Prozessproblem, wenn die Ausbeute der nicht 512 Chips bei 3 läge...

Gerade das meine ich ja, das Problem mit den Vias ist ein Designproblem. Die anderen Chips sprechen ja nicht dagegen, sondern eher dafür.
Die Vias sind die Durchkontaktierungen. Im 40nm Prozess von TSMC haben sie halt eine gewisse Schwankung was die Qualität betrifft (also wie gut der Strom durch kann). Das ist kein Prozessfehler oder Defekt, das ist einfach nicht genauer machbar. Hat ein Via eine schlechte Qualität (ist z.B. etwas dünner als geplant oder nicht sauber durchgeätzt, Rückstände nach dem Ätzen etc.) ist der elektrische Widerstand größer als gewollt. Dadurch braucht man mehr Spannung um die gewünschten Frequenzen zu erreichen.

Ein Problem mit den Vias senkt also die erreichbare Frequenz oder erhöht die Spannung. Die bisherigen 40nm Chips von nVidia takten doch alle schlechter als man vorher vermutet hatte. Passt doch.

Man kann das mit den raren 512ern auch so sehen: Es gibt kaum Chips die 512 Shadercores haben die auch auf der gewünschten Frequenz laufen.
Ein Via Problem macht nicht notwendigerweise den Chip kaputt, ruiniert aber Frequenzen und Stromverbrauch. Und welche Probleme hat Fermi gerade den Gerüchten nach?

Spasstiger
2010-02-17, 00:37:42
Das Problem mit den Vias war etwas komplexer. Es ging dabei um sich aufbauende statische Ladungen, die im Laufe der Zeit zur Zerstörung des Chips führen, wenn man bestimmte Vias weglässt. Deshalb sind diese Vias in den Designregeln vorgeschrieben. TSMC hatte aber Probleme, diese Vias sauber zu fertigen, weshalb grundsätzlich funktionsfähige Chips dennoch als defekt deklariert werden mussten.
Angeblich hat TSMC aber die 40-nm-Probleme behoben, wozu ich auch das Via-Problem zählen.

V2.0
2010-02-17, 07:05:44
Das geht nicht.

Kannst Du das erklären?

Ailuros
2010-02-17, 07:49:37
Was du vielleicht nicht verstehts ist, dass ich bewusst vereinfache, damit ich mich nicht in den ganzen Details verstricke.

Muss der Grund sein warum Du im Gegensatz so schreibfreudig bist :rolleyes:

Alleine beim GT300 behaupte ich schon lange. Wenn wenn wenn was auch immer, wieder & oder ähnliches solche Probleme wie beim GT200 & GT200b macht, dann wird es beim GT300 wegen 40nm-Problemen noch schlimmer und da sind wir eben jetzt.

Was fuer Herstellungsprobleme hatten denn GT200 bzw. GT200b genau die man eventuell mit GF100 vergleichen koennte? Es gab bei weder noch Probleme mit den 10SM Varianten und GF100 hat nicht nur eine total andere Frequenzverwaltung sondern kommt auch mit hoeheren Frequenzen an als GT200.

Hingegen ist mir bei AMD die schnelle & problemlose (=pünktliche) Einführung von GPUs (seit RV6x0) schon länger aufgefallen.
Details wusste ich keine, aber durch die RV870-Story sieht man eben, dass das bei AMD kein Zufall war, weil das für AMD wichtig ist und dementsprechend hingearbeitet.

Ich weiss die Tatsache dass RV870 1.5 Jahre vor seiner Erscheinung radikal beschnitten wurde ist nur eine nebenwichtige Einzelheit die man auch ignorieren kann...

Und bei Nvidia dürfte es eben auch kein Zufall sein, weil sie eben auf die neuen Rahmenbedingungen alias Desing und/oder 40nm nicht reagiert hatten.

Bezweifelt ja auch keiner und gerade das behaupte ich auch. Momentan hat hoechstwahrscheinlich NVIDIA mit einem Design-bedingten Problem zu kaempfen (16SP) dass:

1. Ueberhaupt nichts mit GT200/GT200b/RV770 oder RV870 zu tun oder gemeinsam hat.
2. Es ist ein Problem dass niemand und nichtmal NV selber vor dem Start der Massenproduktion wissen konnte.

Und hier ist es Dir natuerlich egal weil es durch Vereinfachungen eben in Dein Bild passt. Bloedsinn.

Ich weiß nicht was du für ein Problem hast. Du hast letztens von 240Watt unter Game-Last & 280 Watt-TDP gesprochen. Ist das jetzt irgendwo ein Verschreiber gewesen/drinnen?
Beim GTX280 weiß ich es nicht, aber beim GTX285 ist Furmark vielleicht schon zu nah am dem TDP-Wert.
http://www.nvidia.de/object/product_geforce_gtx_285_de.html
http://ht4u.net/reviews/2009/leistungsaufnahme_graka/index7.php
Wobei beim GTX280 der TDP-Wert nicht so knapp waren, falls die 236 stimmen.
(Aber beim GTX280 könnte man naive Behaupten, damals war noch kein AMD-Druck vorhanden, wo solche Zahlen keinen interessiert hätten, wäre alles nach Nvidia-Plan verlaufen.)

Nach NV selber sind die 236W kein TDP und ja sie luegen gelegentlich auch wenn es ihnen gerade passt ueberhaupt wenn sie in der Zukunft in Engpasse kommen. Da Du aber auf Vereinfachungen stehst: GTX280 hat 1-8pin + 6-pin genauso wie die kommende GTX480, waehrend die GTX285 mit 2*6pin auskam.

Man kann sehrwohl die Umsätze & Gewinn-Quartals-Berichte von den GPUs und/oder von den Profi-GPUs ansehen.
Und das die letzten Jahre (bis auf das 4.Quartal)

Man kann natürlich der Diskussion entgehen, indem man noch nähere Infos verlangt, da dies so gesehen ja völlig ungenau ist.

Es wird Dir KEIN IHV naehere diesbezuegliche Details freistellen. Deshalb ist es auch viel zu gefaehrlich jegliche Schlussfolgerungen zu ziehen. Aber da es perfekt in die schwarz/weiss Logik passt kann man wohl auch hier nichts einwenden.

Man kann immer weiter ins Detail gehen und so meine Aussagen in Frage stellen.

Dann leg mal los und erzaehl mir wie viel R&D Kosten durch 2009 auf welches genau Projekt bestimmt waren. Ich weiss es selber nicht aber ich bin neugierig wie die Kaffeesatz-Leserei generell bringen kann damit ich auch mehr Grund habe mich zu amuesieren. Ich wette sogar dass Du nichtmal einen Schimmer an Ahnung hast an wie vielen und welchen genau Projekten NV durch 2009 (beispielsweise; ersetze es mit jeglichem beliebigem Jahr) arbeitete.

Wichtig ist, was Gesamt rauskommt.

Das laesst Dir aber trotzdem keinen Luftraum auf alle unbekannten Faktoren/Aspekte zu schliessen. Du hast nichts weiter als sterile Zahlen.

Natürlich kann man immer den Preis so anlegen, dass ein Gewinn pro Stück rausschaut
Damals hatte Nvidia noch eine Hohe Stückzahl alias hohen Marktanteil und somit konnte man das R&D-Abschreibung besser verteilen.
Problem ist nur, wenn das P/L im Vergleich zur Konkurrenz zu hoch ansetzt, gehen mit der Zeit die Stückzahlen zurück und dann ist es später nicht nur schwerer die Marktanteile zurück zu holen, sondern die Gewichtung von R&D-Abschreibung ist höher.

Soll ich noch mehr Fragen stellen Die Du mit Sicherheit nicht beantworten kannst?

Und so lief es auch so.

Wie viel hat denn Fermi insgesamt als Projekt gekostet?

Also, man kann doch Rückschlüssen von Tesla auf Geforce schließen, wenn man die Toleranzen berücksichtigen kann bzw. die Chance ist groß, dass es wieder vorkommt.

Sag mal an welche Wand soll ich genau jetzt rennen? Es wird ab Q2 C2050 mit nur 3GB framebuffer von 1.2-1.4GHz geben und ab Q3 dann die C2070 mit der gleichen Frequenzspanne und 6GB framebuffer. Warum das letztere spaeter ankommt steht in meinem vorigen Post von einem ATI engineer bestaetigt.

Es steht ja sogar TDP direkt daneben - in einem offiziellem NV-Dokument. Alleine die Diskussion darüber ist lächerlich.

Genauso laecherlich wie die angegebenen GFLOPs vom selben Dokument. Wenn's passt rechnet man die MUL mit (damit die FLOPs nicht zu elendig gegen die der Konkurrenz aussehen) und heute da die MUL weg vom Fenster ist rechnet man wohl nur noch mit MADD FLOPs oder?

Dank anderer Frequenzverwaltung bei GF100 sind erstmal jegliche Uebertaktungs-uebungen ein ganz anderes Kapitel mit total verschiedenen Resultaten. Im Fall von GF100 sind jegliche moegliche overvolting/overclocking Uebungen in den 280W TDP mitberechnet und nein es heisst nicht dass GF100 nicht einen fetten Batzen an Strom generell verbraucht. Das Ding ist und bleibt in der Stromverbrauch-Kategorie einer 5970.

Kannst Du das erklären?

Womoeglich weil Du diesmal 2*16 hast und nicht 3*8 wie in der Vergangenheit. Der eine SIMD block soll voll durchlaufen und der zweite soll wie und wo genau Daumen druecken dass nur die Haelfte rausschiesst?

Das Problem mit den Vias war etwas komplexer. Es ging dabei um sich aufbauende statische Ladungen, die im Laufe der Zeit zur Zerstörung des Chips führen, wenn man bestimmte Vias weglässt. Deshalb sind diese Vias in den Designregeln vorgeschrieben. TSMC hatte aber Probleme, diese Vias sauber zu fertigen, weshalb grundsätzlich funktionsfähige Chips dennoch als defekt deklariert werden mussten.
Angeblich hat TSMC aber die 40-nm-Probleme behoben, wozu ich auch das Via-Problem zählen.

TSMC hat lediglich angegeben dass die 40G yields heute irgendwo auf 65nm Nivaeu liegen. Und ja es kann durchaus sein dass sie fuer beide insgesamt im Durchschnitt Recht haben. Afaik erreicht weder Cypress noch GF100 die 62.5% yields des 583mm2 GT200@65nm an dessen Produktionsstart momentan.

Falls einiges tatsaechlich am via Problem lag, dann bin ich mir gar nicht so sicher dass es heute zu 100% beseitigt wurde. Weiss der Geier natuerlich was die eigentlichen Probleme von 40G wahren. Es klingt mir eher nach einer merkwuerdigen Kombination von Problemen, denn die yield Schwankungen im letzten Jahr waren ziemlich radikal.

mapel110
2010-02-17, 08:42:49
AnarchX, auch wenn der Post gelöscht wurde. Das Pic ist ein Fake. Es soll eine GTX 295 Single PCB sein. War gestern ganz lustig im Overclockers.net-Forum mit dem Troll, der das gepostet hat. 40 Postings absoluter Nonsense und die Moderation guckte zu. :rolleyes:

crux2005
2010-02-17, 08:47:19
Noch ein Indikator, das auf der Cebit was gezeigt wird:

* Experience next-generation GeForce with NVIDIA 3D Vision Surround

aber Ail hat es ja auch bestätigt.

edit: *Visit the ZOTAC booth to get a taste of our
next-generation graphics cards and motherboards.

AnarchX
2010-02-17, 08:48:02
Damit dann 4-5 Wochen vor dem Launch immernoch kein Leak aus der Produktion, was dann wohl darauf hindeutet, dass diese so überschaubar ist, dass NV sie vollständig überwachen kann.

Gast
2010-02-17, 08:56:14
Damit dann 4-5 Wochen vor dem Launch immernoch kein Leak aus der Produktion, was dann wohl darauf hindeutet, dass diese so überschaubar ist, dass NV sie vollständig überwachen kann.

Die Produktion hat laut Ailuros erst im Februar angefangen, also vor wenigen Tagen und damit kann man zum Launch wohl höchstens eine äußerst kleine Menge an Karten erwarten.

Grestorn
2010-02-17, 09:29:55
Damit dann 4-5 Wochen vor dem Launch immernoch kein Leak aus der Produktion, was dann wohl darauf hindeutet, dass diese so überschaubar ist, dass NV sie vollständig überwachen kann.

War das beim G80 denn nicht ganz genauso?

AnarchX
2010-02-17, 09:44:25
War das beim G80 denn nicht ganz genauso?
Da gab es immerhin Anfang Oktober die Bilder vom Prototyp, der das 384-Bit SI enthüllte.
Sicherlich haben wir zu GF100 deutlich mehr Infos, aber alles bisher nur von Nvidia.

Gast
2010-02-17, 09:48:14
Da gab es immerhin Anfang Oktober die Bilder vom Prototyp der das 384-Bit SI enthüllte.
Sicherlich haben wir zu GF100 deutlich mehr Infos, aber alles bisher nur von Nvidia.

Prototypen von nVidia. Reale Zahlen gab es knapp eine Woche vor dem Launch. Wir sind maximal 6 Wochen vom Launch entfernt - zum selben Zeitpunkt beim G80 wussten nichts.

LovesuckZ

Gast
2010-02-17, 10:33:38
Ich empfehle mal ab diesem Posting zu lesen, wenn ein bisschen ein Gedächtnis bezüglich G80 auffrischen will: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=4791143#post4791143

6 Wochen vor der Veröffentlichung.

LovesuckZ

AnarchX
2010-02-17, 11:01:23
G80 lag aber auch im Zeitplan, sodass hier die Leaks/Previews nicht offiziell von Nvidia kamen und 4 Wochen vor Launch kannte man immerhin die finalen Taktraten:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=4843863&postcount=1223
... da hat GF100 zwar noch ein paar Wochen Zeit, aber generell wirkt die Stille von Seiten dritter doch etwas seltsam.
Entweder ist man noch fern von einer ernsthaften Massenprodukt oder NV hat hier entsprechende Lücken über die Jahre besser geschlossen.

Gast
2010-02-17, 11:27:30
G80 war auch ein Spiele Beschleuniger :D der letzte von NV, alles was danach gekommen ist.....

Gast
2010-02-17, 11:32:09
G80 lag aber auch im Zeitplan, sodass hier die Leaks/Previews nicht offiziell von Nvidia kamen

Das ändert genau was? Du beschwerst dich, dass wir keine Zahlen haben - dafür wissen wir deutlich mehr als beim G80. Selbst Bilder der Karte gab es 6 Monate früher...


und 4 Wochen vor Launch kannte man immerhin die finalen Taktraten:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=4843863&postcount=1223
... da hat GF100 zwar noch ein paar Wochen Zeit, aber generell wirkt die Stille von Seiten dritter doch etwas seltsam.
Entweder ist man noch fern von einer ernsthaften Massenprodukt oder NV hat hier entsprechende Lücken über die Jahre besser geschlossen.

Beim GT200 hat erst CJ die Taktrate 2-3 Wochen vor der Veröffentlichung geleaket. Gehen wir davon aus, dass nVidia die letzten Details auf der Cebit unter NDA stellt und die Karten in der letzten März Woche veröffentlicht wird, dann werden wir leaks ab der 1. Woche sehen - also in zwei Wochen.

LovesuckZ

AnarchX
2010-02-17, 11:41:26
Das ändert genau was? Du beschwerst dich, dass wir keine Zahlen haben - dafür wissen wir deutlich mehr als beim G80. Selbst Bilder der Karte gab es 6 Monate früher...

Darum ging es mir:
aber generell wirkt die Stille von Seiten dritter doch etwas seltsam.
Entweder ist man noch fern von einer ernsthaften Massenprodukt oder NV hat hier entsprechende Lücken über die Jahre besser geschlossen.

Ailuros
2010-02-17, 11:46:26
CJ arbeitet heute bei MSI; damals schoepfte er seine Infos von der gleichen Quelle wie Charlie heute (nur so nebenbei). Ergo weiss er heute im Grund mehr als in der Vergangenheit, darf aber dank NDA nicht mehr viel oeffentlich sagen.

Was jetzt die GTX480 Frequenzen betrifft bleibe ich bei meinen (+/- 50MHz)

640/725/1450/1050MHz

AnarchX,

Es wuerde reichen wenn nur eine der grossen Seiten schon eine GF100 in der Hand haette um mehr herauszufinden.

Gast
2010-02-17, 11:46:42
Darum ging es mir:

Was fehlt dir - außer Taktraten?
Seit dem G80 sind drei Jahre vergangen und nVidia ist wesentlich aggressiver geworden, was Einhaltung von NDAs und Informationen angeht. Leaks nach außen gibt es kaum noch und zZ haben eben die Partner auch noch keine Karten bekommen. Zur Cebit sieht es dann anders aus.

LovesuckZ

aylano
2010-02-17, 12:30:44
Was fuer Herstellungsprobleme hatten denn GT200 bzw. GT200b genau die man eventuell mit GF100 vergleichen koennte? Es gab bei weder noch Probleme mit den 10SM Varianten und GF100 hat nicht nur eine total andere Frequenzverwaltung sondern kommt auch mit hoeheren Frequenzen an als GT200.
Der Fehler ist/war eben mehr im NV-Team als in der Technik.;-)

Details sind mir oft wurscht, wenn sie (=können auch unterschiedliche Fehler sein;-)) eben öfters vorkommen. Und die 600m/1300 Mhz (225Watt-TDP) Spekulation machte ich erst nach GT200, weil Probleme eben wieder eintraten.


Ich weiss die Tatsache dass RV870 1.5 Jahre vor seiner Erscheinung radikal beschnitten wurde ist nur eine nebenwichtige Einzelheit die man auch ignorieren kann...
Da wundere ich mich erst recht, warum du an einem 25-Cluster RV870 spekuliertest.

Bezweifelt ja auch keiner und gerade das behaupte ich auch.
Jetzt sieht das auch fast jeder Blinde und jetzt kann man ja besonders gscheit reden.
Schwieriger ist es, das früher zu erkennen. Vorallem, wenn man keine Kontakte oder sonstige Infos hat.

2. Es ist ein Problem dass niemand und nichtmal NV selber vor dem Start der Massenproduktion wissen konnte.
So wie damals AMD 4 unvorhergesehene Bugs hatte, bevor sie den K10 in den Massen-Markt schickten.
Oft sind die Fehler eben nur Symtomen/Auswirkungen von uneffizienten Teams/Konzepte/Prüfskonzepte-systemen

Danach gabs große Änderungen und seitdem gabs keine Verspätungen (&Bugs) mehr sondern wenn schon vorgezogene Produkte

Na ja, Propus verspätete sich, aber der war im Vergleich zum Regor eben viel unwichtiger und somit war es wichtig sich auf den Regor zu konzentrieren und Propus später rauszubringen.

Somit reagierten sie Richtig, was früher bei AMD auch nicht selbstverständlich war.

Und hier ist es Dir natuerlich egal weil es durch Vereinfachungen eben in Dein Bild passt. Blödsinn
Natürlich passt es mir im Bild, da eben die Probleme da sind, wie ich mir es ungefähr vorstellte, falls Nvidia wieder wieder diese Probleme.
Zu einer Zeit, wo es noch massive 40nm-Probleme (RV740-Verfügbarkeit) gibt dachtest/träumtest ja du an, wie war das noch? 700-750 @ 1700 Mhz mit nur 170 Watt oder so.

Wenn dir wer was sagt, dann solltest du auch mal das hinterfragen.

Übrigend, beim RV790 sagte ich ja auch am Anfang der RV790-Spekulationen, die AFAIK im Herbst waren, wenn RV790 mit 800-Shader kommt, dann eben nur einer neuen Technologie. Und damals ist mir nur die Verbingungstechnologie eingefallen, die aus 2-Die wie Ein-Die arbeiten lies.

Im Grunde spekulierte ich zuerst richtig, nur im Detail falsch, da es eine anderen Technologie war.
Abgesehen davon, dass ich mich dann von der monatelangen Masse an Gerüchten über 1200Shader & Co (oder so) beeinflussen lies und dann in eine andere Richtung spekulierte.

Außerdem gehts beim Spekulieren nicht nur drumm, 100% richtig zu liegen, sondern oft darum, was (eher) möglich ist und was nicht und welche Richtung es (ungefähr) geht.

Lustig waren ja auch die generellen Aussagen nach dem Dummy-Board über die GT300-Einführung in Nov & Verfügbarkeit im Dezember.
Und das zu einer Zeit, wo Nvidia nicht mal den GT215-140mm² pünktlich rausbrachten konnte.

Nach NV selber sind die 236W kein TDP und ja sie luegen gelegentlich auch wenn es ihnen gerade passt ueberhaupt wenn sie in der Zukunft in Engpasse kommen.
Ich weiß zwar nicht, was das jetzt genau mit deinen angegebenen 236 / 240 / 280 Watt Tut, aber okay.

Da Du aber auf Vereinfachungen stehst: GTX280 hat 1-8pin + 6-pin genauso wie die kommende GTX480, waehrend die GTX285 mit 2*6pin auskam.

Vereinfachungen gehen nur, wenn sie eine Aussagekraft haben.
Das sagt mir nur, eine GTX285 verbraucht unter Furmarkt weniger Strom als GTX280 & GTX480.
Da dieser Wert in der nähe von 225Watt ist, sind andere Stecker jetzt nicht ganz überraschend.

Das laesst Dir aber trotzdem keinen Luftraum auf alle unbekannten Faktoren/Aspekte zu schliessen. Du hast nichts weiter als sterile Zahlen.
Jetzt weißt du, wie schwer es ist zu spekulieren, wenn man keine Kontakte & Infos hat.
Da muss halt ein Gefühl bekommen, welche Auswirkungen welche GPU auf Umsatz & Gewinn haben.
Da muss man nicht nur wissen, wann die kommen sondern ungefähr erahnen, wie lange sie in die Märkte brauchen.
Und da ist die Auswirkungen im Retail-Markt ganz anders als im OEM-Markt, der wieder anders ist alias pünktlich zu Meilensteine oder gerade verpasst.
Dazu sind Daten über Marktanteile & Preise & generelles Image & usw usw usw auch wichtig & hilfreich.

Und wenn man mal auch öfters Geschäftsberichte liest, weiß man mit der Zeit einige Tricks wie man Geschäftsberichte legal schönen kann, indem man die Abrechnungen ändert.

Wenn man das nie tut, dann verstehe ich dich, dass man nichts herauslesen kann.

Ailuros
2010-02-17, 13:14:58
Der Fehler ist/war eben mehr im NV-Team als in der Technik.;-)

Details sind mir oft wurscht, wenn sie (=können auch unterschiedliche Fehler sein;-)) eben öfters vorkommen. Und die 600m/1300 Mhz (225Watt-TDP) Spekulation machte ich erst nach GT200, weil Probleme eben wieder eintraten.

Dir sind die Einzelheiten lediglich wurscht weil es eben gerade hilft Deine Thesen zu unterstuetzen.

Da wundere ich mich erst recht, warum du an einem 25-Cluster RV870 spekuliertest.

NV erwartet ~2000SPs, AMD behauptet dass der Refresh schneller ist als ein typischer Refresh der Vergangenheit und ich wuerde sagen dass es sich um 384 ALUs@875MHz handelt. Was hat es nochmal mit der Tatsache zu tun dass AMD 1.5 Jahr vor der Cypress Erscheinung den die von ca. 450-480 auf 334mm2 reduzierte? Gar nichts; denn es wurden erstmal keine cluster entfernt, aber so weit kommt wohl die schwarz/weiss Logik auch nicht.

Jetzt sieht das auch fast jeder Blinde und jetzt kann man ja besonders gscheit reden.
Schwieriger ist es, das früher zu erkennen. Vorallem, wenn man keine Kontakte oder sonstige Infos hat.

Mich interessieren Deine Gluecksstraenen nicht bei der Kaffeesatzleserei; denn wenn ich anfange die Pechstraenen zu zaehlen aendert sich das Bild auch um einiges.

So wie damals AMD 4 unvorhergesehene Bugs hatte, bevor sie den K10 in den Massen-Markt schickten.
Oft sind die Fehler eben nur Symtomen/Auswirkungen von uneffizienten Teams/Konzepte/Prüfskonzepte-systemen.

Koennen wir bitte beim Thema oder zumindest bei GPUs bleiben?


Natürlich passt es mir im Bild, da eben die Probleme da sind, wie ich mir es ungefähr vorstellte, falls Nvidia wieder wieder diese Probleme.
Zu einer Zeit, wo es noch massive 40nm-Probleme (RV740-Verfügbarkeit) gibt dachtest/träumtest ja du an, wie war das noch? 700-750 @ 1700 Mhz mit nur 170 Watt oder so.

Ich traeumte von gar nichts; es wurde von NV selber vermittelt dass der chip bis zu 736/1620 bei 0.95V reichen kann bei vergleichbarem Stromverbrauch zu GT200. Es war ein A1 Testrennen und da Du sowieso nichts von Details haelst ist fuer Dich sowieso irrelevant.

Wenn dir wer was sagt, dann solltest du auch mal das hinterfragen.

Fragen bringen nicht immer Antworten. Was ich sollte oder nicht sollte ist meine Angelegenheit und nicht Deine.


Im Grunde spekulierte ich zuerst richtig, nur im Detail falsch, da es eine anderen Technologie war.
Abgesehen davon, dass ich mich dann von der monatelangen Masse an Gerüchten über 1200Shader & Co (oder so) beeinflussen lies und dann in eine andere Richtung spekulierte.

Sollen wir ein Punktesystem einrichten hier im Spekuforum damit jeder Plus oder Minuspunkte fuer gelegentliche Treffer bekommt oder was? Glaubst Du die Besucher solcher Threads interessiert so etwas oder wie?


Ich weiß zwar nicht, was das jetzt genau mit deinen angegebenen 236 / 240 / 280 Watt Tut, aber okay.

Brauchst Du auch nicht. Der generellen Vereinfachung zu Liebe reicht es wenn Du weisst dass die 480 genau die gleichen Stecker wie eine 295 bzw. 280 hat.

Vereinfachungen gehen nur, wenn sie eine Aussagekraft haben.

Nein es ist kein multiple choice wenn es DIR gerade passt. Wenn Du Dir erlaubst wahlweise irrelevante Einzelheiten zu uebersehen, dann erlaube ich mir es im Gegenwort genauso.


Jetzt weißt du, wie schwer es ist zu spekulieren, wenn man keine Kontakte & Infos hat. Da muss halt ein Gefühl bekommen, welche Auswirkungen welche GPU auf Umsatz & Gewinn haben.

Da Dir Dein Kaffeesatz Dich versichert hat dass NV keinen cent an Gewinn von den GT200-ern gemacht hat, gibt es auch nichts einzuwenden. Anstatt nur sinnlose Entschuldigungen zu suchen setzt Dich hin und schreib eine langwierige Finanz-analyse in einem diesbezueglichen Thread hier im Spekulationsforum. Ich wette dass Du mit mathematischer Genauigkeit auf der Nase landest.

Da muss man nicht nur wissen, wann die kommen sondern ungefähr erahnen, wie lange sie in die Märkte brauchen.

Und da ist die Auswirkungen im Retail-Markt ganz anders als im OEM-Markt, der wieder anders ist alias pünktlich zu Meilensteine oder gerade verpasst.
Dazu sind Daten über Marktanteile & Preise & generelles Image & usw usw usw auch wichtig & hilfreich.

Und wenn man mal auch öfters Geschäftsberichte liest, weiß man mit der Zeit einige Tricks wie man Geschäftsberichte legal schönen kann, indem man die Abrechnungen ändert.

Wenn man das nie tut, dann verstehe ich dich, dass man nichts herauslesen kann.

Wie gesagt Dir fehlen nach wie vor wichtige Einzelheiten und da gibt es keinen Luftraum sich um den gleichen Brei zu drehen. Mach aus Deiner Schreibfreudigkeit etwas nutzvolleres und oeffne eine Thread darueber wie vorgeschlagen. Als Tip fang an zu spekulieren bis in welches Jahr die G8x Milchkuh noch weiter gemolken wird.

Dural
2010-02-17, 13:43:06
Ich empfehle mal ab diesem Posting zu lesen, wenn ein bisschen ein Gedächtnis bezüglich G80 auffrischen will: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=4791143#post4791143

6 Wochen vor der Veröffentlichung.

LovesuckZ

das ja der hammer, schaut euch mal die Komentare an ;D

Mit... Stickstoff? Spekuliert: Selbst bei realistischen 450-550mio Transen werden es max 800Mhz.

Rofl. 1.5 GHz bei 700Mio Transen Dazu noch dieses lustige Speicherinterface. Wer streut bitte solche Informationen? Wenn man jemanden wirklich verarschen will, dann doch bitte mit realistischen Daten.

LoL, "700mio.Trans."+++ "Core clock scalable up to 1.5GHz"
Ich melde meinen Backofen-Aufsatz schonmal zum Patent an!

Diese Specs sind in meinen Augen ziemlicher Unsinn.

Das sind die G90-Specs!

Botcruscher
2010-02-17, 13:47:26
Da war auch noch keine Rede von clock domains. Bei vollem Kerntakt wären die Kommentare berechtigt. Überraschungen fallen manchmal eben auch positiv aus.

Ailuros
2010-02-17, 13:48:03
das ja der hammer, schaut euch mal die Komentare an ;D

Ich hab mir sogar beide G80 Threads mal schnell durchgelesen. Im September 2006 hatte ich aber meine Kaufsentscheidung schon getroffen; heute noch nicht.

VooDoo7mx
2010-02-17, 13:50:18
Da gab es immerhin Anfang Oktober die Bilder vom Prototyp, der das 384-Bit SI enthüllte.
Sicherlich haben wir zu GF100 deutlich mehr Infos, aber alles bisher nur von Nvidia.

Bidler von Fermi Boards gibt es schon seit Monaten.

Botcruscher
2010-02-17, 13:56:17
Bidler von Fermi Boards gibt es schon seit Monaten.

Aber nur von NV, mit und ohne Holzschrauben, keine leaks.

Dural
2010-02-17, 13:58:46
ist doch immer das gleiche...

die ganzen gerüchte kommen doch immer von NV oder AMD selber, je nach dem von welcher seite halt positiv oder negativ und natürlich immer etwas übertriben...

wirkliche "insider" infos gibt es so gut wie gar nicht, ich meine welcher angestellter blabert schon über solchen sachen wenn er genau weis wenn es raus kommt er einen haufen ärger bekommt...

Kalmar
2010-02-17, 14:12:15
wo nichts ist kann man auch nix leaken .. und nv sollte ja ein interesse daran haben infos zu verbreiten, damit die leute net bei ati kaufen sondern wenigstens abwarten ... daher denke ich auch die stille die man hier hat bedeutet wohl nix gutes ..

V2.0
2010-02-17, 14:15:18
Bevor die Dinger in Asien nicht in Zwischenlagern liegen gibt es heute kien Leaks mehr. Weder bei ATI noch bei NV. Was vorher rauskommt ist absichtlich.

Ailuros
2010-02-17, 14:27:21
http://www.metro2033game.com/en/news/9764

*yawn*

Gast
2010-02-17, 14:34:16
http://www.metro2033game.com/en/news/9764

*yawn*

Metro2033 soll am 16.03 veröffentlicht werden. Es wäre schon ziemlich absurd, wenn es bis dahin nicht wenigsten den Launch mit den GF100 Karten geben sollte...

LovesuckZ

Gast
2010-02-17, 14:43:32
metro2033. Wenn das Spiel genauso gut wird wie das Buch Haleluja. Ich gehe auch davon aus das der Fermi dann da ist:) Nvidia arbeitet ja mit den Entwicklern zusammen. Und wäre schon blöd wenn nur ATI-Besitzer die DX11 Effekte geniessen könnten.

Gast
2010-02-17, 15:22:10
metro2033. Wenn das Spiel genauso gut wird wie das Buch Haleluja. Ich gehe auch davon aus das der Fermi dann da ist:) Nvidia arbeitet ja mit den Entwicklern zusammen. Und wäre schon blöd wenn nur ATI-Besitzer die DX11 Effekte geniessen könnten.


genießen? das spiel wird so hart optimiert sein das ati-user da bestimmt nichts genießen werden.

Gast
2010-02-17, 15:37:42
genießen? das spiel wird so hart optimiert sein das ati-user da bestimmt nichts genießen werden.

Tja, und daran ist nur Nvidia schuld, wie jedesmal wenn ein neues Game mit Ati Karten Probleme macht. Der Ati Treiber ist über jeden Zweifel erhaben. ;)

AwesomeSauce
2010-02-17, 15:58:11
genießen? das spiel wird so hart optimiert sein das ati-user da bestimmt nichts genießen werden.
http://www.youtube.com/watch?v=uBl1Vpy6p8k&feature=channel [2:51]
Wie war das noch mal mit den "Nvidia only"-Optimierungen?:rolleyes:

igg
2010-02-17, 16:04:19
http://www.metro2033game.com/en/news/9764

*yawn*
Wenn Metro am 16.3. kommt, ist dir das was bekannt? Der 16.3. ist zufälligerweise auch ein Dienstag...

Dural
2010-02-17, 16:23:57
Mal schauen, endlich neue GPUs... die 5870 ist mir schon lange verleidet...

Gestrandet
2010-02-17, 17:05:43
die 5870 ist mir schon lange verleidet...
Lass mich raten - ca. seit dem Tag, als sie mit einem ATI-Aufkleber auf die Welt kam??? :D

Ailuros
2010-02-17, 17:06:21
Wenn Metro am 16.3. kommt, ist dir das was bekannt? Der 16.3. ist zufälligerweise auch ein Dienstag...

LOL@Dienstag. Hoechstwahrscheinlich nicht an diesem Dienstag.

mapel110
2010-02-17, 17:10:36
Joah, wenn sie schon die Cebit sausen lassen, werden sie wohl den März noch ausreizen.

G!ZMo
2010-02-17, 17:10:53
Also vielleicht einen Dienstag vorher. Wäre ja sonst blöd, wenn der Hersteller mit DX11 und Nvidia wirbt. :biggrin:

AwesomeSauce
2010-02-17, 17:17:38
Joah, wenn sie schon die Cebit sausen lassen, werden sie wohl den März noch ausreizen.
CeBit sausen lassen? Wer sagt sowas? Zotac sagt was anderes:
Experience next-generation GeForce® with NVIDIA® 3D Vision™ Surround
http://zotac.com/index.php?option=com_content&view=article&id=484:join-zotac-at-cebit-2010&catid=1&Itemid=268&lang=un

EDIT: @crux2005 Sorry:)

crux2005
2010-02-17, 17:21:25
schon gepostet ^^
ehm, wer fährt zur Cebit und hat noch n Platz frei? :biggrin:

dildo4u
2010-02-17, 17:23:03
CeBit sausen lassen? Wer sagt sowas? Zotac sagt was anderes:

http://zotac.com/index.php?option=com_content&view=article&id=484:join-zotac-at-cebit-2010&catid=1&Itemid=268&lang=un
Imo das Selbe was sie auf der CES gezeigt haben.

MoC
2010-02-17, 17:24:16
http://www.metro2033game.com/en/news/9764

*yawn*

Also irgendwie hab ich so das Gefühl, dass

a) es zu den Zeitpunkt keine Fermi geben

b) der Dx11 Pfad auf der HD5k-Serie nicht funktionieren wird

und somit

c) keiner in den Genuss von Metro2033 unter DX11 kommt :freak:

edit: Am Anfang, trotzdem geil das Metro2033 nen DX11-fad bekommt :uup:

mapel110
2010-02-17, 18:14:32
http://www.semiaccurate.com/2010/02/17/nvidias-fermigtx480-broken-and-unfixable/
"Neues" von Charlie.

the short answer is that the top bin as it stands now is about 600MHz for the half hot clock, and 1200MHz for the hot clock, and the initial top part will have 448 shaders. On top of that, the fab wafer yields are still in single digit percentages.

/edit
Kann es sein, dass er kein einziges Wort über Dual-Fermi verliert?! Ich konnte im Text nichts finden. Das würde wohl seine Aussagen etwas widerlegen. ^^

/edit2
The derivative parts for Fermi exist only on paper, they haven't taped out yet. If Nvidia does tape them out, they will have the same size, yield and power problems as Fermi GF100.
:ugly:

Bucklew
2010-02-17, 18:28:02
http://www.semiaccurate.com/2010/02/17/nvidias-fermigtx480-broken-and-unfixable/
"Neues" von Charlie.
Naja das übliche Gelaber. Nvidia ist zu blöd für alles und die einzigen die es können sind ATI. Muss man wohl sonst nicht mehr zu sagen.

mapel110
2010-02-17, 18:30:01
Ein bisschen Wahrheit steckt da sicher drin. 600/1200 könnten Taktraten von Dual-Fermi sein und er bringt sie nur in falschen Zusammenhang. Mal schauen.
/edit
Oder sie verzichten wirklich auf 512SPs am Anfang und sie bringen
448SPs 725/1450 GTX 480
448SPs 600/1200 GTX 470

Gast
2010-02-17, 18:38:03
Ein bisschen Wahrheit steckt da sicher drin. 600/1200 könnten Taktraten von Dual-Fermi sein und er bringt sie nur in falschen Zusammenhang. Mal schauen.
/edit
Oder sie verzichten wirklich auf 512SPs am Anfang und sie bringen
448SPs 725/1450 GTX 480
448SPs 600/1200 GTX 470

Müssen sie, wenn nur 1 512 Chip aus 200 produzierten hervorgeht.
Abgesehen davon tut mir Charlie leid. Er hat keine Informationen und lügt sich einen zurecht. Traurig, dass ist wirklich traurig.

LovesuckZ

Bucklew
2010-02-17, 18:41:30
Ein bisschen Wahrheit steckt da sicher drin. 600/1200 könnten Taktraten von Dual-Fermi sein und er bringt sie nur in falschen Zusammenhang. Mal schauen.
Soviel Wahrheit wie in den "nur 7 funktionerende Chips" und "Fermi hat nur Software-Tessellation"? ;)

Oder sie verzichten wirklich auf 512SPs am Anfang und sie bringen
448SPs 725/1450 GTX 480
448SPs 600/1200 GTX 470
Oder Nvidia führt mal wieder alle an der Nase herum....

Gast
2010-02-17, 18:42:25
http://www.semiaccurate.com/2010/02/17/nvidias-fermigtx480-broken-and-unfixable/
"Neues" von Charlie.

the short answer is that the top bin as it stands now is about 600MHz for the half hot clock, and 1200MHz for the hot clock, and the initial top part will have 448 shaders. On top of that, the fab wafer yields are still in single digit percentages.

/edit
Kann es sein, dass er kein einziges Wort über Dual-Fermi verliert?! Ich konnte im Text nichts finden. Das würde wohl seine Aussagen etwas widerlegen. ^^

Die Kernaussage ist das jetzt schon von mehreren Quellen verlautbarte via-Problem:
Last spring and summer, ATI was not shy about telling people that the lessons learned from the RV740 were fed back into the Evergreen 5000 series chips, and it was a very productive learning experience. One of the deep, dark secrets was that there were via (interconnects between the metal layers on the chip) problems. The other was that the TSMC 40nm transistors were quite variable in transistor construction, specifically in the channel length.

Since Anand talked about both problems in his excellent Evergreen history article, any promises to keep this secret are now a moot point. What ATI did with Evergreen was to put two vias in instead of one. It also changed transistor designs and layout to mitigate the variances. Both of these cost a lot of area, and likely burn a more than negligible amount of energy, but they are necessary.
[...]
By the time Nvidia found out about the problems, it was far too late to implement them in Fermi GF100. Unless TSMC pulled off a miracle, the design was basically doomed.
[..]
Fixing these problems requires Nvidia to do what ATI did for Evergreen, that is, double up on the vias and also change the circuits in a non-trivial way. This process requires a lot of engineering time, a base layer respin, and probably at least one metal spin on top of that. If everything goes perfectly, it will still be more than six months before it can bring a fix to market.



Und wenn das stimmt (und danach sieht es immer mehr aus) hat NV ein ziemliches Problem und wir werden wohl bis zu einem B-Stepping irgend wann im Sommer nur max 448-SP Parts mit niedrigen Taktraten sehen.

Gast
2010-02-17, 18:46:43
Abgesehen davon tut mir Charlie leid. Er hat keine Informationen und lügt sich einen zurecht. Traurig, dass ist wirklich traurig.

LovesuckZ

Oh, er hat eine sehr gute Quelle mit AMD.

mapel110
2010-02-17, 18:48:36
Oh, er hat eine sehr gute Quelle mit AMD.
Eine Geldquelle. ^^

Gast
2010-02-17, 18:49:52
/edit
Oder sie verzichten wirklich auf 512SPs am Anfang und sie bringen
448SPs 725/1450 GTX 480
448SPs 600/1200 GTX 470

Das würde dann auch den sehr kleinen Namensunterschied zwischen 470 und dem Topmodell 480 erklären und warum diese nicht 460 heißt. Ich erwarte die 470 auf 5870-Niveau und die GTX480 dementsprechend 10-20% darüber.

Gast
2010-02-17, 18:51:40
Ich finde es erstaunlich, dass man AMD es zuspricht aus dem rv740 ihre Erfahrungen mit nach Cypress genommen zu haben, aber bei nVidia man es strikt ablehnt. Dabei stellt sich mir die Frage, wie AMD denn die Probleme mit ihrer A Version lösen konnten, wo es doch nur durch ein neues Siliizium-Taput-Out gehen würde...
Alle drei 40nm Chips lagen vor dem Tape-Out von GF100 in A2 vor. Jegliche Problemlösungen gehen natürlich mit in GF100 ein.

Oh, er hat eine sehr gute Quelle mit AMD.

Nunja, neben der fehlenden Vertrauenswürdigkeit, werden sie Charlie nur hinten und vorne verarschen.

LovesuckZ

Nakai
2010-02-17, 18:57:19
http://www.semiaccurate.com/2010/02/17/nvidias-fermigtx480-broken-and-unfixable/
"Neues" von Charlie.

the short answer is that the top bin as it stands now is about 600MHz for the half hot clock, and 1200MHz for the hot clock, and the initial top part will have 448 shaders. On top of that, the fab wafer yields are still in single digit percentages.

/edit
Kann es sein, dass er kein einziges Wort über Dual-Fermi verliert?! Ich konnte im Text nichts finden. Das würde wohl seine Aussagen etwas widerlegen. ^^

/edit2
The derivative parts for Fermi exist only on paper, they haven't taped out yet. If Nvidia does tape them out, they will have the same size, yield and power problems as Fermi GF100.
:ugly:

Wenn man seinen NV-Hass weglässt und ihm die ATI-Brille runterreisst, dann sagt sein Text folgendes aus:

NVs restliche Karten kommen später. Fermi kommt im März mit 448SPs. Eine neue Revision kommt evtl mit 512SPs.

Oh mann, im Ernst das ist nicht toll. Ich erinnere mal an den G80-Launch, wo eine riesige Bombe geplatzt ist. Davor hat man nichts gehört oder gesehen.

Entweder wird Fermi das was NV verspricht oder eher nicht so toll. Ich hoffe auf Ersteres, da Fermi sowieso schon spät kommt.


mfg

AwesomeSauce
2010-02-17, 18:59:08
Ich vermute 300€ für GTX470 (welche in Konkurrenz zur HD5870 aufgestellt wird) und 450€ für GTX480 (wird die HD5970 zwar nicht erreichen, dafür deutlich billiger sein). Aufgrund einiger Aussagen von Nvidia gehe ich davon aus, dass wir zunächst nur 448-Core-Varianten sehen werden, 512 Cores-Karten werden eine B-Revision brauchen, um anständige Yields zu erzielen. Demnach hätte eine GTX470 nur weniger Takt als eine GTX480, deswegen auch die geringe Abstufung von 70 zu 80.
http://www.computerbase.de/forum/showpost.php?p=7336142&postcount=165 Post vom 03.02.2010.
Zwar reichlich unspezifisch:smile: Macht mich das zu einem besseren Propheten als Charlie?:wink: Ich war immerhin 2 Wochen früher;D

Burgard
2010-02-17, 19:01:59
DIe Geforce 480 GTX/512SP, der Maybach unter den Grafikkarten.

Gast
2010-02-17, 19:03:23
Ich finde es erstaunlich, dass man AMD es zuspricht aus dem rv740 ihre Erfahrungen mit nach Cypress genommen zu haben, aber bei nVidia man es strikt ablehnt.
Daran ist genau garnichts erstaunlich, wenn man nur einen Funken Ahnung von beiden Unternehmen hat und die Fanbrille mal kurz absetzt.
AMD ist nicht mehr ATI und auch nicht AMD vor den 65nm Problemen; die haben seitdem die DFM-Abteilung nämlich wirklich _sehr_ ordentlich verstärkt - und ja, die hat auch ein Auge auf die GPU Designs. NV hat sich dagegen nie wirklich um die Fertigung gekümmert, das ist in deren Augen allein Sache der Foundry. Entweder denken sie da auch mal langsam um, oder sie fahren mit Karacho gegen die Wand aus AMD (Sperrholz) und Intel (Stahlbeton).

Gast
2010-02-17, 19:03:43
Hehe, auf Twitter ist man sich ziemlich einig:

Lars Weinand:
Oh Charlie... that just another hilarious post
http://twitter.com/RS_Borsti

Igor Stanek:

# RT @RS_Borsti: Oh Charlie... that just another hilarious post me: I think with this post Charlie totally destroyed his credibility :)
# @RS_Borsti I want to see how he is going to explain his article in March.... looks like biggest lie and mistake of his life :)
http://twitter.com/Igor_Stanek

LovesuckZ

Gast
2010-02-17, 19:17:16
Wenn Amd Probleme mit den Vias und der channel length der Transistoren hat, kriegt Nvidia da dann auch Infos drüber (beispielsweise von tsmc, die ja auch wohl derartiges feedback von amd kriegen) oder erst wenn deren Chips auch nicht laufen ?

Gast
2010-02-17, 19:21:00
Wenn Amd Probleme mit den Vias und der channel length der Transistoren hat, kriegt Nvidia da dann auch Infos drüber (beispielsweise von tsmc, die ja auch wohl derartiges feedback von amd kriegen) oder erst wenn deren Chips auch nicht laufen ?

Natürlich. Das ganze geht durch die komplette Foundry. Vias ist ein Fertigungsproblem und TSMC will ja so schnell wie möglich die 40nm Produktion nach oben bringen. Die können es sich alleine schon aus Kapazitätsgründen nicht leisten dem Treiben ruhigen Gewissens zu zugucken. Vorallen weil sie am Anfang nur für vernünftige Chips bezahlt werden. Je höher die Ausbeute, umso höher der Gewinn von TSMC.

LovesuckZ

fdk
2010-02-17, 19:25:29
Nette Specufiction. War nett zu lesen, allerdings bin ich jetzt auch nicht schlauer als vorher. So viele "rough estimates" und "simplifications" in einem Artikel dieser Länge unterzubringen ist garnicht so einfach. Er macht dem Namen der Seite alle Ehre.

Ailuros
2010-02-17, 19:25:33
Ein bisschen Wahrheit steckt da sicher drin. 600/1200 könnten Taktraten von Dual-Fermi sein und er bringt sie nur in falschen Zusammenhang. Mal schauen.
/edit
Oder sie verzichten wirklich auf 512SPs am Anfang und sie bringen
448SPs 725/1450 GTX 480
448SPs 600/1200 GTX 470

Charlie hat lediglich XMAN's Daten aus dem B3D Forum genommen und sponn einfach weiter in seiner bekannten Art. Er wusste nichtmal wo die wirklichen originalen Zielfrequenzen lagen aber es ist besser wenn Charlie nur das Material hat welches er eigentlich auch braucht fuer seinen Schreibstil. 1250-1300 fuer die 470 und die 480 nur als Pressevorstellungsdingsbums mit extremer Seltenheit.

***edit: irgendwann wenn ich Bock dazu habe mach ich mal ein harmloses kleines Experiment mit ihm ;)

Bucklew
2010-02-17, 19:28:36
Nette Specufiction. War nett zu lesen, allerdings bin ich jetzt auch nicht schlauer als vorher. So viele "rough estimates" und "simplifications" in einem Artikel dieser Länge unterzubringen ist garnicht so einfach. Er macht dem Namen der Seite alle Ehre.
Nein, dazu müsste die Seite "way off target" heißen ;)

Dazu habe ich auch keine Lust, da ich deine restlichen, vor Wissen stronzenden Posts leider kenne.
Von einem Gast fasse ich das mal als Kompliment auf :love:

Gast
2010-02-17, 19:35:11
1250-1300 fuer die 470 und die 480 nur als Pressevorstellungsdingsbums mit extremer Seltenheit.


Ich wette dagegen.

LovesuckZ

Nightspider
2010-02-17, 19:52:22
Vielleicht kommt auch eine 512 Karte in geringen Stückzahlen als Ultra Version, diese wäre immerhin so teuer das sie ohnehin nur wenig Käufer hätte und später, könnte man die 512er Version, bei guten Yields für die Dual-Fermi Karte verwenden.

mapel110
2010-02-17, 19:57:29
An unerschwinglich teuer ala Asus MARS mag ich nicht glauben. Die Yields für 448SPs sollen ja okay sein. Daher kanns nicht so tragisch sein, die 512er-Ausbeute damit etwas zu subventionieren.

igg
2010-02-17, 20:02:30
Was die Situation der GTX480 angeht scheint er aber nicht sooo falsch zu liegen...

Gast
2010-02-17, 20:10:12
Was die Situation der GTX480 angeht scheint er aber nicht sooo falsch zu liegen...

Huch? Wir wissen doch garnichts über die GTX480. Ich meine, wenn wir danach gehen, dann wird Fermi in Tessellationen sowas von abloosen, in DX11 untergehen und Intel wird eher Larrabee auf den Markt bringen.
Ach und habe ich schon vergessen, dass es gegen jedes physikalische Gesetz war eine GTX295 bauen zu können, dabei unter 300 Watt zu bleiben und schneller als AMD zu sein? Nein? Schade.

LovesuckZ

Coda
2010-02-17, 20:24:02
So oder so, es wird verdammt Zeit dass NVIDIA endlich was in den Händen hält. Selbst wenn es eine Enttäuschung ist.

Raus damit und die zweifelsohne gute Architektur endlich mit gescheiter Execution verbinden. Kann doch nicht wahr sein. Huang soll mal die Peitsche rausholen.

Ich will die Karte allein wegen den CUDA-Fähigkeiten und Nexus. Für Spiele reicht die Leistung so oder so.

aths
2010-02-17, 22:12:26
So oder so, es wird verdammt Zeit dass NVIDIA endlich was in den Händen hält. Selbst wenn es eine Enttäuschung ist.3 Mrd. Transistoren und das bei einem neuen Fertigunsprozess sind Wahnsinn. GT200 wurde nicht umsonst erst noch in 65 nm gefertigt.

Gast
2010-02-17, 22:19:43
Der Chip von Nvidia ist viel größer als ATI, wenn beide Chips gleich groß wären hätte der RV870 über 4000 Streamprozessoren ;) und würde den GF100 killen.

Spasstiger
2010-02-17, 22:34:26
Was schreibt denn Charlie da für eine gequirlte Scheisse?

A really rough measure of yield is that for similar products, the yield goes down by the square of the die size. A 200mm^2 chip can be expected to have 1/4 the yield of a similar 100mm^2 chip, and a 50mm^2 chip will have about 4 times the yield of the 100mm^2 part. Chip makers put lots of redundant structures into every design in order to repair some kinds of fabrication errors, but there are limits.

Nach dieser Rechnung wäre es unmöglich, den Cypress wirtschaftlich zu fertigen. Angenommen, man kommt mit dem Redwood (104 mm²) auf sehr gute 90% Yield. Dann läge der Cypress (334 mm²) bei weniger als ein Neuntel dieser Yieldrate, also unter 10%. Das ist natürlich Unsinn und sowas müsste Charlie eigentlich sofort sehen. Stattdessen rechnet er mit seiner unsinnigen Annahme weiter und schließt darauf, dass die Yieldraten des GF100 im einstelligen Prozentbereich liegen müssen.
Eine sinnvolle Abschätzung ist Yield_B = Yield_A ^ (Fläche_B/Fläche_A).
Im obigen Beispiel käme der Cypress dann auf 71% Yield.

Der Chip von Nvidia ist viel größer als ATI, wenn beide Chips gleich groß wären hätte der RV870 über 4000 Streamprozessoren ;) und würde den GF100 killen.
Wenn man den Cypress von AMD/ATI vernünftig skalieren möchte, kommt man mit 550 mm² Diefläche ganz sicher nicht auf 4000 SPs, sondern eher auf 2500 SPs. Der Cypress hat jetzt schon ein leichtes Effizienzproblem, wenn man den Cypress mit dem Juniper vergleicht. Der Juniper ist genau halb so groß und hat halb soviele Ausführungseinheiten, ist aber bei gleichem Takt mehr als halb so schnell. Die aktuelle Architektur stößt allmählich an ihre Grenzen.
Würde man den Cypress auf 550 mm² verbreitern, käme wohl eine rund 50% bessere Performance bei gleichem Takt raus.

Spacedust
2010-02-17, 23:40:27
Noch ein Indikator, das auf der Cebit was gezeigt wird:

aber Ail hat es ja auch bestätigt.

edit:

=> Laut zuverlässiger Quelle eines grossen A-Marken Hersteller werden auf der CeBit der Öffentlickeit keine GTX 470 oder GTX 480 bei den NVIDIA Board Partnern gezeigt werden.

=> Der Launch Termin ist auch nicht CeBit sondern noch einige Wochen später.

S940
2010-02-17, 23:51:59
=> Der Launch Termin ist auch nicht CeBit sondern noch einige Wochen später.
Jo halt April / Mai, wie Charlie letztes Jahr gesagt hatte :freak:
Raus damit und die zweifelsohne gute Architektur endlich mit gescheiter Execution verbinden. Kann doch nicht wahr sein. Huang soll mal die Peitsche rausholen.
Mit ner Peitsche kommst Du genausoviel weiter wie mit Herumbrüllen ...

Problem ist halt, dass er sich an die eigene Nase fassen muss ... selber Schuld wenn er immer den größten Chip haben will/muss. Das war ne Managemententscheidung.

Zuvor haben sie Herstellungsprobleme dadurch umgangen, dass sie immer auf ältere Prozesse gesetzt haben, die eingespielt waren und geringes Risiko hatten. Aber jetzt gleich in die Vollen zu gehen, und darauf zu hoffen, dass ein nagelneuer Prozess vom Start weg optimal läuft, das war gelinde gesagt etwas sehr blauäugig ...

ciao

Alex

StefanV
2010-02-18, 00:12:49
Aber jetzt gleich in die Vollen zu gehen, und darauf zu hoffen, dass ein nagelneuer Prozess vom Start weg optimal läuft, das war gelinde gesagt etwas sehr blauäugig ...
Damit sind sie doch schon mitm nV30 auf die Fresse geflogen...

Gast
2010-02-18, 00:15:39
Jo halt April / Mai, wie Charlie letztes Jahr gesagt hatte :freak:

Mit ner Peitsche kommst Du genausoviel weiter wie mit Herumbrüllen ...

Problem ist halt, dass er sich an die eigene Nase fassen muss ... selber Schuld wenn er immer den größten Chip haben will/muss. Das war ne Managemententscheidung.

Zuvor haben sie Herstellungsprobleme dadurch umgangen, dass sie immer auf ältere Prozesse gesetzt haben, die eingespielt waren und geringes Risiko hatten. Aber jetzt gleich in die Vollen zu gehen, und darauf zu hoffen, dass ein nagelneuer Prozess vom Start weg optimal läuft, das war gelinde gesagt etwas sehr blauäugig ...

ciao

Alex

40nm ist nicht neu. GF100 ist nicht der erste Chip auf 40nm. Es ist nicht nVidia's schuld, dass TSMC solche Probleme hat.

LadyWhirlwind
2010-02-18, 00:29:03
40nm ist nicht neu. GF100 ist nicht der erste Chip auf 40nm. Es ist nicht nVidia's schuld, dass TSMC solche Probleme hat.

aber auch nicht TSMC's fehler dass Nvidia offfenbar einen Chip entwickelt hat, der nur bei nem optimalen Prozess funktioniert (wirtschaftlich gesehen).

Gast
2010-02-18, 00:35:35
aber auch nicht TSMC's fehler dass Nvidia offfenbar einen Chip entwickelt hat, der nur bei nem optimalen Prozess funktioniert (wirtschaftlich gesehen).

Hä? GF100 ist wirtschaftlich, wenn der Prozess halbwegs funktionieren würde. So läufts nunmal ab. Cypress wäre auch unwirtschaftlich, wenn man entsprechend geringe Yields erreicht.
40nm ist jetzt über ein Jahr alt und trotzdem sind AMD und nVidia nicht in der Lage die Nachfrage nach 40nm Produkte zu stillen. Und dafür kann nVidia nichts, wenn der Zeitplan der Fertigung nicht stimmt. Als Fremdfertiger muss nVidia sich auf Aussagen der Foundry verlassen können. So geht das Spiel nunmal.

LovesuckZ

AwesomeSauce
2010-02-18, 00:38:15
Nvidia meldet gute Umsätze und Gewinne (http://www.computerbase.de/news/wirtschaft/unternehmen/nvidia/2010/februar/nvidia_umsaetze_gewinne/)

Byteschlumpf
2010-02-18, 00:39:56
40nm ist nicht neu. GF100 ist nicht der erste Chip auf 40nm. Es ist nicht nVidia's schuld, dass TSMC solche Probleme hat.
Schaut man sich die Verfügbarkeit der HD 58xx Modelle an, die sich schon viele Monate auf dem Markt befinden und deren GPUs ebenso bei TSMC in 40nm gefertigt werden, so muss man unweigerlich fürchten, dass die Situation bei den GTX4xx Modellen kein Deut besser sein, sondern eher schlechter sein dürfte! ^^

Womöglich wird's die Karten erst im Herbst in mittelprächtigen Stückzahlen zu halbwegs humanen Preisen geben oder noch später!

Gast
2010-02-18, 00:42:17
Schaut man sich die Verfügbarkeit der HD 58xx Modelle an, die sich schon viele Monate auf dem Markt befinden und deren GPUs ebenso bei TSMC in 40nm gefertigt werden, so muss man unweigerlich fürchten, dass die Situation bei den GTX4xx Modellen kein Deut besser sein, sondern eher schlechter sein dürfte! ^^

Womöglich wird's die Karten erst im Herbst in mittelprächtigen Stückzahlen zu halbwegs humanen Preisen geben oder noch später!

Laut CC erwartet man erst in Q2 wirklich gute Verfügbarkeit. Der Kapazitätsengpass von 40nm soll sich sogar bis ins 2H. 2010 ziehen.

LovesuckZ

Psychopat
2010-02-18, 00:45:02
Hä? GF100 ist wirtschaftlich, wenn der Prozess halbwegs funktionieren würde. So läufts nunmal ab. Cypress wäre auch unwirtschaftlich, wenn man entsprechend geringe Yields erreicht.
40nm ist jetzt über ein Jahr alt und trotzdem sind AMD und nVidia nicht in der Lage die Nachfrage nach 40nm Produkte zu stillen. Und dafür kann nVidia nichts, wenn der Zeitplan der Fertigung nicht stimmt. Als Fremdfertiger muss nVidia sich auf Aussagen der Foundry verlassen können. So geht das Spiel nunmal.

LovesuckZ

Der Prozess funktioniert halbwegs. Cypress kann man kaufen. Fermi kann man nicht kaufen, obwohl das Design längst fertig ist.
Ein halbwegs funktionierender Prozess ist wohl nicht gut genug für Fermi. Oder sollte man es eher als Designfehler bezeichnen, weil das nicht redundant/robust genug ist?

Gast
2010-02-18, 00:49:03
Der Prozess funktioniert halbwegs. Cypress kann man kaufen. Fermi kann man nicht kaufen, obwohl das Design längst fertig ist.
Ein halbwegs funktionierender Prozess ist wohl nicht gut genug für Fermi. Oder sollte man es eher als Designfehler bezeichnen, weil das nicht redundant/robust genug ist?

Ich kann auch mehr Juniper als Cypress GPUs kaufen - macht es Cypress zu einem "Designfehler"?
GF100 wird kommen und wird verfügbar sein. Fakt ist, dass nVidia genauso wie AMD ihre Kapazitäten richtig zuordnen muss. Und so wie AMD nicht viele Cypress GPUs fertigen lässt, muss nVidia noch warten bis der Prozess besser wird.
Vergessen sind bitte nicht das komplette Q4, wo Cypress und Hemlock fast nirgens zuhaben war.

LovesuckZ

Spacedust
2010-02-18, 01:09:51
Laut CC erwartet man erst in Q2 wirklich gute Verfügbarkeit. Der Kapazitätsengpass von 40nm soll sich sogar bis ins 2H. 2010 ziehen.

LovesuckZ

=> Das stimmt mit meinen Infos überein, 40nm Ausbeute ist und bleibt schlecht. ATi hat auch noch zu geringe Ausbeute im Verhältnis zum vorherigen Prozess. Das ist besonders bedauerlich für ATi, da laut meiner Information NVIDIA sich einen grossen Teil der 40nm Wafer gesichert hat.

Das heisst ATi kann die Nachfrage besonders der OEMs gar nicht befriedigen. Alles was ATi produziert ist verkauft. Yield ist allerdings immer noch unbefriedigend und verfügbare Waferanzahl für ATi limitiert. Bevor ich als Notebookhersteller dann gar keine Grafikkarte in meinem Notebook verwende weil ATi nicht genügend liefern kann, nehme ich halt gezwungernermassen NVIDIA, auch wenn keine DirectX11 Grafik von NVIDIA in Notebooks bis voraussichtlich Q4/2010,eventuell Q1/2011. Das heisst Umsätze von NVIDIA bleiben TOP, denn Grafikchips werden von den OEMs benötigt und NVIDIA kann weiterhin am meisten liefern. (das gesamte Portfolio betrachtet)

Zum Launch Date von GTX 480 Ende März werden laut meiner Quelle nur extrem wenig Boards in den Handel kommen und das wird sich dann kurzfristig nicht weiter verbessern. Das wird eigentlich ein Paper Launch. Am besten sofort kaufen und dann bei Ebay hoffen, dass da noch einer mehr zahlt.

Also kurz gesagt, ATi hat die zur Zeit aktuellere Technologie lieferbar (besonders auf lange sicht bei Notebooks), NVIDIA hat aber die meisten Wafer für sich gesichert. (Und gibt sie auch nicht ab ...;)

Ob die Infos stimmen kann ich nicht garantieren, Quelle ist aber eigentlich seriös.

mapel110
2010-02-18, 01:32:50
Die Wafergeschichte hört sich sehr unglaubwürdig an. Zumal auch nvidia mit ihren kleinen 40nm-Chips offenbar nicht genug ausliefern konnte. Auch sie hatten dafür zu wenig Kapazität und Ausbeute.

MoC
2010-02-18, 03:49:47
Die Wafergeschichte hört sich sehr unglaubwürdig an. Zumal auch nvidia mit ihren kleinen 40nm-Chips offenbar nicht genug ausliefern konnte. Auch sie hatten dafür zu wenig Kapazität und Ausbeute.

Widersprichst du dir nicht gerade selbst :|

Also für mich hört sich das ganze doch sehr glaubwürdig an :)

Gipsel
2010-02-18, 04:51:35
Oh, er hat eine sehr gute Quelle mit AMD.Eine Geldquelle. ^^
Schau mal in die Bemerkung von Ailuros in meiner Signatur ;)

V2.0
2010-02-18, 07:01:13
3 Mrd. Transistoren und das bei einem neuen Fertigunsprozess sind Wahnsinn. GT200 wurde nicht umsonst erst noch in 65 nm gefertigt.
Geh mal nicht davon aus wie es gelaufen ist, sondern wie es hätte laufen sollen. Die G21X Serie wäre schon Monate am Markt gewesen bevor GF300 gekommen wäre. Der Prozess hätte mature sine sollen/müssen.

Ailuros
2010-02-18, 08:40:21
Was schreibt denn Charlie da für eine gequirlte Scheisse?
Nach dieser Rechnung wäre es unmöglich, den Cypress wirtschaftlich zu fertigen. Angenommen, man kommt mit dem Redwood (104 mm²) auf sehr gute 90% Yield. Dann läge der Cypress (334 mm²) bei weniger als ein Neuntel dieser Yieldrate, also unter 10%. Das ist natürlich Unsinn und sowas müsste Charlie eigentlich sofort sehen. Stattdessen rechnet er mit seiner unsinnigen Annahme weiter und schließt darauf, dass die Yieldraten des GF100 im einstelligen Prozentbereich liegen müssen.
Eine sinnvolle Abschätzung ist Yield_B = Yield_A ^ (Fläche_B/Fläche_A).
Im obigen Beispiel käme der Cypress dann auf 71% Yield.

Ich denke Du hast Dir schon ausrechnen koennen wo in etwa der zeitige Cypress yield liegt. Charlie's Formel ist fuer die Muelltonne und Deine Rechnung zu optimistisch.

Wenn man den Cypress von AMD/ATI vernünftig skalieren möchte, kommt man mit 550 mm² Diefläche ganz sicher nicht auf 4000 SPs, sondern eher auf 2500 SPs. Der Cypress hat jetzt schon ein leichtes Effizienzproblem, wenn man den Cypress mit dem Juniper vergleicht. Der Juniper ist genau halb so groß und hat halb soviele Ausführungseinheiten, ist aber bei gleichem Takt mehr als halb so schnell. Die aktuelle Architektur stößt allmählich an ihre Grenzen.
Würde man den Cypress auf 550 mm² verbreitern, käme wohl eine rund 50% bessere Performance bei gleichem Takt raus.

AMD koennte bei einem so grossen hypothetischen die nicht die heutige Packdichte verwenden sonst waere es Selbstmord. Wieviele clusters jetzt in hypothetische 550mm2 reinpassen wuerden weiss wohl nur ATI selber, aber wenn ich schon zu einer Milchmaedchen-rechnung kommen wuerde klingen selbst 2500 etwas krumm. Wohl eher 30 clusters oder anders 480 ALUs und in dem Fall wird man wohl schwer einem 384bit Bus entgehen koennen (120TMUs, 48 ROPs).


Mit ner Peitsche kommst Du genausoviel weiter wie mit Herumbrüllen ...

Problem ist halt, dass er sich an die eigene Nase fassen muss ... selber Schuld wenn er immer den größten Chip haben will/muss. Das war ne Managemententscheidung.

Zuvor haben sie Herstellungsprobleme dadurch umgangen, dass sie immer auf ältere Prozesse gesetzt haben, die eingespielt waren und geringes Risiko hatten. Aber jetzt gleich in die Vollen zu gehen, und darauf zu hoffen, dass ein nagelneuer Prozess vom Start weg optimal läuft, das war gelinde gesagt etwas sehr blauäugig ...

ciao

Alex

Sind zwar alles legitime Punkte nur waere 55nm fuer 3Mrd. Transistoren auch nicht moeglich gewesen. Egal wie oder was NV wird sich gezwungen sehen ihre Strategie zu aendern. Wenn sie auf single chip high end Masche weiterhin bestehen wollen, koennen sie eventuell einen Performance und High end chip parallel entwickeln und wenn high end dann hapert kommt es halt spaeter. So etwas muss man aber auch von Anfang an anlegen.

IMHO NV's generelles Execution-Problem liegt hauptsaechlich daran dass sie fuer Probleme ausserhalb ihrer Kontrolle keinen "Plan B" haben und sich nicht rechtzeitig wenden.

Und ja Huang hat engineering ziemlich heftig angebruellt; daran liegt schon wares. Nur hilft es erstmal nichts und zweitens hat er sehr wohl seine eigenen Verantwortungen.

Ghe mal nicht davon aus wie es gelaufen ist, sondern wie es hätte laufen sollen. Die G21X Serie wäre schon Monate am Markt gewesen bevor GF300 gekommen wäre. Der Prozess hätte mature sine sollen/müssen.

Kein Einwand. Nur:

In early 2008, going into Februrary, TSMC started dropping hints that ATI might not want to be so aggressive on what they think 40nm is going to cost. ATI’s costs might have been, at the time, a little optimistic.

http://www.anandtech.com/video/showdoc.aspx?i=3740&p=4

Bist Du ueberzeugt dass TSMC nur ATI gewarnt hat und NVIDIA nichts davon wusste? Ich auf jeden Fall nicht und ueberhaupt mit der GT212@40G Stornierung die ohne tape out zu erreichen innerhalb 2008 storniert wurde.

Engineering came back and said that RV870 was going to be pretty expensive and suggested looking at the configuration a second time.

Which is exactly what they did.

The team met and stuck with Rick Bergman’s compromise: the GPU had to be at least 2x RV770, but the die size had to come down. ATI changed the configuration for Cypress (high end, single GPU RV870) in March of 2008.

And here’s where the new ATI really showed itself. We had a company that had decided to both 1) not let schedule slip, and 2) stop designing the biggest GPU possible. Yet in order to preserve the second belief, it had to sacrifice the first.

You have to understand, changing a chip configuration that late in the game, 1.5 years before launch, screws everything up. By the time RV770 came out, 870 was set in stone. Any changes even a year prior to that resets a lot of clocks. You have to go back and redo floorplan and configuration, there’s a lot of adjusting that happens. It takes at least a couple of weeks, sometimes a couple of months. It impacted schedule. And ATI had to work extremely hard to minimize that where possible. The Radeon HD 5870 was around 30 - 45 days late because of this change.

Remember ATI’s nothing-messes-with-schedule policy? It took a lot of guts on the part of the engineering team and Rick Bergman to accept a month+ hit on redesigning RV870. If you don’t show up to the fight, you lose by default, and that’s exactly what ATI was risking by agreeing to a redesign of Cypress.

This is also super important to understand, because it implies that at some point, NVIDIA made a conscious decision to be late with Fermi. ATI wasn’t the only one to know when DX11/Windows 7 were coming. NVIDIA was well aware and prioritized features that delayed Fermi rather than align with this market bulge. GPUs don’t get delayed without forewarning. AMD risked being late in order to make a smaller chip, NVIDIA risked being late to make a bigger one. These two companies are diverging.

svenw
2010-02-18, 09:15:15
Egal wie oder was NV wird sich gezwungen sehen ihre Strategie zu aendern. Wenn sie auf single chip high end Masche weiterhin bestehen wollen, koennen sie eventuell einen Performance und High end chip parallel entwickeln und wenn high end dann hapert kommt es halt spaeter. So etwas muss man aber auch von Anfang an anlegen.
Diese Strategie wird sie auch die absolute Performance Krone kosten, denn angesichts des Verbrauchs des Fermie wäre eine 495 als 480x2 kaum hinzu bekommen. Dazu müßte man die Chips soweit drosseln, das es keinen Sinn mehr macht. Maximal eine 470x2 wäre denkbar.

IMHO sollten sich die Hersteller mit den Engine Machern zusammensetzen und Regeln für die Engines erstellen mit denen Arbeit effizienter auf mehrere Chips verteilt werden kann. Das wäre im Interesse aller, denn dann kann man wesentlich besser Crossfire/SLI einsetzen. Momentan ist das alles IMHO halbfertiges Gewürge um Multichip GPUs irgendwie ins laufen zu bekommen. Von Effizienz sollte man da nicht reden. Und auch ATIs neuer Ansatz mit dem Catalyst für Multichip Systeme wird da nicht wirklich etwas ändern. Man bräuchte Schnittstellen auf denen die Engiens dem Treiber mitteilen wie er die Rechenlast am besten aufteilen kann bzw was unabhängig voneinander berechnet werden kann.

Spasstiger
2010-02-18, 09:29:26
Ich denke Du hast Dir schon ausrechnen koennen wo in etwa der zeitige Cypress yield liegt. Charlie's Formel ist fuer die Muelltonne und Deine Rechnung zu optimistisch.
Die 71% waren ja auch keine Zahl, die realistisch sein soll, sondern einfach nur Folge einer praxisnäheren Abschätzung, wenn ich beim Redwood von vermutlich übertrieben guten 90% Yieldrate ausgehe. Die 90% hab ich nur genommen, um einfach zu zeigen, dass Charlies Abschätzung für die Tonne ist. Ich hätte auch mit 100% Yieldrate vorrechnen können, dann wäre es noch deutlicher.
Wenn Cypress auf 60% Yieldrate kommt, dann liegt der Redwood schätzungsweise bei 85% Yieldrate.
Wieviele clusters jetzt in hypothetische 550mm2 reinpassen wuerden weiss wohl nur ATI selber, aber wenn ich schon zu einer Milchmaedchen-rechnung kommen wuerde klingen selbst 2500 etwas krumm. Wohl eher 30 clusters oder anders 480 ALUs und in dem Fall wird man wohl schwer einem 384bit Bus entgehen koennen (120TMUs, 48 ROPs).
Die 2500 SPs sollten nur eine grobe Hausnummer sein, um sich deutlich von den 4000 SPs zu distanzieren. 2400 SPs, 120 TMUs, 384-Bit-SI und 48 ROPs klingen realistisch.

V2.0
2010-02-18, 09:34:00
GT212 ist sicher nicht ohne Grund gestorben. Er war sowohl von der Zeitschiene als auch von den Kosten her, im Vergleich zu G92b und G200b, nicht mehr relevant, als die Probleme mit dem 40nm Prozess bei TSMC bekannt wurden.

TI hat sich eine klare Strategie vorgegeben und ihre Ausführung ist momentan excellent. Sie haben sich eine Handlungsstrategie gegeben, die sich primär an den Bedürfnissen und Rahmenbedingungen des Markts orientiert. NV ist da imho noch nicht angekommen. Dort erwartet man noch, dass der Makrt sich an ihnen orientiert.

Aber, und das darf man nicht vergessen, GPGPU ist für einen CPU Hersteller verzichtbar, für NV lebensnotwendig. Ebenso brauchen sie die Leistungskrone dringender als ATI. Sie müssten daher immer mit einem Performancechip kommen, der besser ist als der beste ATI-Chip, gleichzeitg aber noch Luft für den dicken Brummer läst.

Ich persönlich bin ja der Meinung, dass die Zeit der dicken Brummer vorbei ist. GPGPU geht auch mit dual GPU gut, und der "Highendgamer-Markt" schluckt bereits heute Dual-GPU Lösungen.

Aber ich gehe sowieso davon aus, dass GF104 der wichtigere Chip ist als GF100.

Ailuros
2010-02-18, 09:52:32
Diese Strategie wird sie auch die absolute Performance Krone kosten, denn angesichts des Verbrauchs des Fermie wäre eine 495 als 480x2 kaum hinzu bekommen. Dazu müßte man die Chips soweit drosseln, das es keinen Sinn mehr macht. Maximal eine 470x2 wäre denkbar.

Die GTX295 ist auch "nur" maximal eine 2*GTX275 und nicht 2*GTX285. So oder so haetten sie nie eine 2*480 geplant.

IMHO sollten sich die Hersteller mit den Engine Machern zusammensetzen und Regeln für die Engines erstellen mit denen Arbeit effizienter auf mehrere Chips verteilt werden kann. Das wäre im Interesse aller, denn dann kann man wesentlich besser Crossfire/SLI einsetzen. Momentan ist das alles IMHO halbfertiges Gewürge um Multichip GPUs irgendwie ins laufen zu bekommen. Von Effizienz sollte man da nicht reden. Und auch ATIs neuer Ansatz mit dem Catalyst für Multichip Systeme wird da nicht wirklich etwas ändern. Man bräuchte Schnittstellen auf denen die Engiens dem Treiber mitteilen wie er die Rechenlast am besten aufteilen kann bzw was unabhängig voneinander berechnet werden kann.

Wieso soll Dir jegliche Applikation die fehlende hw Unterstuetzung decken oder besser gefragt was genau soll Dir sw fuer eine sw Loesung wie CF bzw. SLi genau anrichten?

Die 71% waren ja auch keine Zahl, die realistisch sein soll, sondern einfach nur Folge einer praxisnäheren Abschätzung, wenn ich beim Redwood von vermutlich übertrieben guten 90% Yieldrate ausgehe. Die 90% hab ich nur genommen, um einfach zu zeigen, dass Charlies Abschätzung für die Tonne ist. Ich hätte auch mit 100% Yieldrate vorrechnen können, dann wäre es noch deutlicher.
Wenn Cypress auf 60% Yieldrate kommt, dann liegt der Redwood schätzungsweise bei 85% Yieldrate.

Es gibt keine universale Formel die man in solchen Faellen anwenden kann.

svenw
2010-02-18, 10:04:43
Wieso soll Dir jegliche Applikation die fehlende hw Unterstuetzung decken oder besser gefragt was genau soll Dir sw fuer eine sw Loesung wie CF bzw. SLi genau anrichten?
Indem sie dem Treiber Bereiche mitteilt die unabhängig voneinander bearbeitet werden können. Aktuell muß jeder Chip mit der gesamten Scene klarkommen (AFR), wenn er aber entsprechende Infos hat kann sich z.B. kleinere Chip um gewisse Teile des Hintergrunds kümmern während sich der "große Bruder" um die detaillierten Personen kümmert. man braucht natürlich eine Logik die das Ganze wieder zusammenbaut, aber auf diese Art können auch Chips verschiedener Leistungsklassen gut zusammen arbeiten, weil eben der kleinere nur soviel bewältigen muß wie er kann. Das könnte in der Zukunft soweit gehen, das auch auf normalen Grakas mehrere Chips sitzen, die dann aber auch kleiner sind und somit besser zu fertigen. AFR ist doch nur nur eine Krücke.

Dazu müßten sich aber ATI und Nvidia zusammentun und Standards setzen an die sich die Entwickler halten können. Einzelaktionen ala PhysX würden definitiv nicht funktioneiren, weil sich das kein Entwickler antun würde.

Ailuros
2010-02-18, 10:08:58
GT212 ist sicher nicht ohne Grund gestorben. Er war sowohl von der Zeitschiene als auch von den Kosten her, im Vergleich zu G92b und G200b, nicht mehr relevant, als die Probleme mit dem 40nm Prozess bei TSMC bekannt wurden.

Da man aber das 212 und 214 Team aufloeste damals wuerde ich liebend gerne wissen fuer was genau diese Resourcen investiert wurden.

ATI hat sich eine klare Strategie vorgegeben und ihre Ausführung ist momentan excellent. Sie haben sich eine Handlungsstrategie gegeben, die sich primär an den Bedürfnissen und Rahmenbedingungen des Markts orientiert. NV ist da imho noch nicht angekommen. Dort erwartet man noch, dass der Makrt sich an ihnen orientiert.

("A" zugefuegt weil ich sonst an Texas instruments denke LOL). Man sollte aber auch betonen dass ATI ein ziemlich grosses Risiko eingieng mit dem Wandel. Dass sie trotzdem immer noch im gleichen Quartal des win7 launches angekommen sind ist nichtdestominder bemerkenswert.

Aber, und das darf man nicht vergessen, GPGPU ist für einen CPU Hersteller verzichtbar, für NV lebensnotwendig. Ebenso brauchen sie die Leistungskrone dringender als ATI. Sie müssten daher immer mit einem Performancechip kommen, der besser ist als der beste ATI-Chip, gleichzeitg aber noch Luft für den dicken Brummer läst.

Wenn mich meine Strategie mit der Zeit in eine Sackgasse fuehrt, wird es wohl Zeit diese zu aendern. Wie die Moeglichkeiten fuer NV dann aussehen wissen sie wohl schon selber und ich kann schwer glauben dass sie nichts fuer die naechste "Generation" aendern werden.

Ich stehe durchaus nicht gegen hoehere generelle Ambitionen, aber diese Ambitionen muessen auch eventuell herstellbar sein.

Ich persönlich bin ja der Meinung, dass die Zeit der dicken Brummer vorbei ist. GPGPU geht auch mit dual GPU gut, und der "Highendgamer-Markt" schluckt bereits heute Dual-GPU Lösungen.

Dann sollten sich aber gefaelligst beide IHVs hinsetzen und ein bisschen R&D bzw. hw in die MGPU Geschichte giessen. Es wird jederman verdammt schwer haben mich zu ueberzeugen dass es nicht um einiges besser geht als heute.

Aber ich gehe sowieso davon aus, dass GF104 der wichtigere Chip ist als GF100.

Und somit komme ich nochmal auf meinen vorigen Punkt zurueck: warum hatte man in 2008 nicht die Einsicht das Ding vorzuziehen?

V2.0
2010-02-18, 10:18:32
Da man aber das 212 und 214 Team aufloeste damals wuerde ich liebend gerne wissen fuer was genau diese Resourcen investiert wurden.

Die kleinen GF100 wären die logische Antwort. Aber das ist nur eine Vermutung.


Und somit komme ich nochmal auf meinen vorigen Punkt zurueck: warum hatte man in 2008 nicht die Einsicht das Ding vorzuziehen?

Wenn GF104 einen Monat nach GF100 kommt, dann hat man ihn "relativ" vorgezogen.

Die bessere Frage wäre gewesen warum man nicht eine GF102 hat, der GF100 abgespeckt hätte. 32ROPs 256Bit etc.

Das wäre die GPU gewesen, die man hätte vorziehen müssen. (oder GF104 ist fetter als ich erwarte)

Bucklew
2010-02-18, 10:19:47
Das heisst ATi kann die Nachfrage besonders der OEMs gar nicht befriedigen. Alles was ATi produziert ist verkauft. Yield ist allerdings immer noch unbefriedigend und verfügbare Waferanzahl für ATi limitiert. Bevor ich als Notebookhersteller dann gar keine Grafikkarte in meinem Notebook verwende weil ATi nicht genügend liefern kann, nehme ich halt gezwungernermassen NVIDIA, auch wenn keine DirectX11 Grafik von NVIDIA in Notebooks bis voraussichtlich Q4/2010,eventuell Q1/2011. Das heisst Umsätze von NVIDIA bleiben TOP, denn Grafikchips werden von den OEMs benötigt und NVIDIA kann weiterhin am meisten liefern. (das gesamte Portfolio betrachtet)
Das ist nur die halbe Wahrheit, die andere Hälfte ist, dass die DX11-Chips von ATI für die aktuellen und auch kommenden Notebooks zu spät waren und die alten DX10.1-Chips gegen die Nvidia-Pendants schlecht aussahen. Dazu kommen noch z.B. so Goodies wie eben Optimus. Es wird sicher einige Notebooks mit ATI DX11 geben, die meisten dieser Generation sind allerdings abgeschlossen und haben halt Nvidia drin.

ATI hat sich eine klare Strategie vorgegeben und ihre Ausführung ist momentan excellent. Sie haben sich eine Handlungsstrategie gegeben, die sich primär an den Bedürfnissen und Rahmenbedingungen des Markts orientiert. NV ist da imho noch nicht angekommen. Dort erwartet man noch, dass der Makrt sich an ihnen orientiert.
Du vergisst, dass Nvidia und ATI doch ziemlich unterschiedliche Märkte ansprechen. Während für ATI der Gamermarkt defakto überlebenswichtig ist und sie daher einen möglichst kleinen und billigen Chip entwickeln müssen, kann es sich Nvidia eben leisten einen größeren Chip zu entwickeln, der dafür in andere, neue Bereiche abdeckt.

Und speziell Fermi mit ECC, mehr Speicher und dem aufgebohrten Cuda macht GPGPU erst richtig interessant.

Aber, und das darf man nicht vergessen, GPGPU ist für einen CPU Hersteller verzichtbar, für NV lebensnotwendig.
Anders herum wird ne Kuh daraus: Für AMD als Gesamtkonzern ist GPGPU deutlich umsatzreduzierenden (GPUs sind verglichen mit CPUs spottbillig), daher wird ATI da natürlich gebremst.

Ailuros
2010-02-18, 10:43:43
Indem sie dem Treiber Bereiche mitteilt die unabhängig voneinander bearbeitet werden können. Aktuell muß jeder Chip mit der gesamten Scene klarkommen (AFR), wenn er aber entsprechende Infos hat kann sich z.B. kleinere Chip um gewisse Teile des Hintergrunds kümmern während sich der "große Bruder" um die detaillierten Personen kümmert. man braucht natürlich eine Logik die das Ganze wieder zusammenbaut, aber auf diese Art können auch Chips verschiedener Leistungsklassen gut zusammen arbeiten, weil eben der kleinere nur soviel bewältigen muß wie er kann. Das könnte in der Zukunft soweit gehen, das auch auf normalen Grakas mehrere Chips sitzen, die dann aber auch kleiner sind und somit besser zu fertigen. AFR ist doch nur nur eine Krücke.

Meine Frage bleibt nach wie vor wieso man es nicht durch hw (scheduling) loesen sollte sondern in sw. Was Du vorschlaegst ist lediglich eine SFR Loesung.

1. Geometrie skaliert um einiges schlechter mit SFR auf IMRs als mit AFR.
2. Angenommen Du hast tatsaechlich zwei unterschiedlich grosse chips in einem config (wenn ich es nicht falsch verstanden habe) willst Du ergo jetzt jeden Frame auf die beiden je nach Faehigkeiten aufteilen. Wie willst Du genau erkennen an welchen Stellen des Frames der groessere workload ist um es dann auch den entsprechenden chip zu verteilen? Du hast das gleiche Problem auch mit gleich grossen chips und SFR.
3. Du hast nach wie vor Probleme wie Latenz und interconnect bandwidth.

Wie dem auch sei wie schon oefters erwaehnt der multicore PowerVR von IMG kann problemlos alle Aspekte fast linear skalieren durch SFR, erstens weil ein DR stets einen Frame verzoegert und daher Infos ueber den kommenden frame stets zur Verfuegung hat und auch einen hw scheduler auf jedem chip eingebaut hat. Zuerst definiert der globale hw scheduler an welchen chip X Daten verschickt werden und dann verteilt jeder chip auf ALU bzw. pipeline Nivaeu. Das ganze kommt aber erstmal mit einer Aufteilung jeglichen frames durch dynamische Tile-Groessen je nach Bedarf.

Sowohl AMD als auch NV koennten sich IMO sehr wohl etwas ausdenken dass an IMRs am besten angepasst ist. Es wird sie selbstverstaendlich etwas in Transistoren und R&D kosten aber ausserhalb von AFR sehe ich trotz allem nichts in diesem Bereich.

Die kleinen GF100 wären die logische Antwort. Aber das ist nur eine Vermutung.

IMO nein.

Wenn GF104 einen Monat nach GF100 kommt, dann hat man ihn "relativ" vorgezogen.

Die bessere Frage wäre gewesen warum man nicht eine GF102 hat, der GF100 abgespeckt hätte. 32ROPs 256Bit etc.

Das wäre die GPU gewesen, die man hätte vorziehen müssen. (oder GF104 ist fetter als ich erwarte)

Ich will nach all dem tape out Wirrwarr nicht mehr wagen zu behaupten wann GF100 seinen wirklichen tape out hatte (NV behauptet Mai, das Datum auf dem gezeigtem A1 chip zeigte etwas anderes), ich bin mir aber ziemlich sicher dass GF100 der erste chip war der sein tape out hatte.


Du vergisst, dass Nvidia und ATI doch ziemlich unterschiedliche Märkte ansprechen. Während für ATI der Gamermarkt defakto überlebenswichtig ist und sie daher einen möglichst kleinen und billigen Chip entwickeln müssen, kann es sich Nvidia eben leisten einen größeren Chip zu entwickeln, der dafür in andere, neue Bereiche abdeckt.

Was AMD definitiv fehlt fuer Profi-Maerkte ist bessere sw Unterstuetzung generell. Wenn sie sich in dem Bereich aufkrempeln, dann werden sie auch leichter den Profi fuer eine FireGL Loesung ueberreden.

Und speziell Fermi mit ECC, mehr Speicher und dem aufgebohrten Cuda macht GPGPU erst richtig interessant.

Tesla ist genauso in seinen Windeln als Markt wie AMD's Gewinne im Supercomputer-Markt mit einfachen Radeon Loesungen. Die Chinesen mit dem 5120*4870X2@575MHz Monster-config verhandeln gerade diese mit 5970-ern zu ersetzen. IMO wird die Entscheidung NV's GeForces mit DP zu kastrieren ziemlich stark ins Gesicht zurueckschlagen.


Anders herum wird ne Kuh daraus: Für AMD als Gesamtkonzern ist GPGPU deutlich umsatzreduzierenden (GPUs sind verglichen mit CPUs spottbillig), daher wird ATI da natürlich gebremst.

Huh? Hoert sich bei Dir Fusion als eine Platform-Loesung aus die eventuell nicht auch auf GPGPU setzen koennte?

V2.0
2010-02-18, 10:47:32
IMO nein.

Nur wohin dann. An Gf100 selbst? Einen Refresh? Oder ein ganz anderes Produkt.

Ailuros
2010-02-18, 11:01:19
Nur wohin dann. An Gf100 selbst? Einen Refresh? Oder ein ganz anderes Produkt.

Weiss der Geier wohin und warum. Nebenbei zur uebertollen NV execution der letzten paar Jahre, Tegra2 hatte sein tape out Ende 2008 und kam erst in Q1 2010 zur Massenproduktion. Dabei handelt es sich nichtmal um 40G sondern um 40LP. Nebenbei wird 28LP Massenproduktion bei Globalfoundries noch dieses Jahr anlegen so wie es aussieht.

Entweder hat NV irgendwelche interne Verwaltungsprobleme die sie so schnell wie moeglich loesen muss oder TSMC muss ihre eigene Bude aufrauemen oder eben beides gleichzeitig.

GTX480 Temperator-Spekulation von Fudo:

http://www.fudzilla.com/content/view/17723/1/

NV gibt auf ihrer Hauptseite maximal 105C fuer GTX280/285 und 295 an.

Bucklew
2010-02-18, 11:08:06
Was AMD definitiv fehlt fuer Profi-Maerkte ist bessere sw Unterstuetzung generell. Wenn sie sich in dem Bereich aufkrempeln, dann werden sie auch leichter den Profi fuer eine FireGL Loesung ueberreden.
Unter Anderem. Aber selbst wenn sie zu Nvidia äquivalente Produkt hätten, haben sie es sehr schwer. Die meisten wissen in diesem Bereich, warum sie gut das doppelte für eine Quadro bezahlen.

Tesla ist genauso in seinen Windeln als Markt wie AMD's Gewinne im Supercomputer-Markt mit einfachen Radeon Loesungen. Die Chinesen mit dem 5120*4870X2@575MHz Monster-config verhandeln gerade diese mit 5970-ern zu ersetzen. IMO wird die Entscheidung NV's GeForces mit DP zu kastrieren ziemlich stark ins Gesicht zurueckschlagen.
Diese Consumerkarten im HPC-Bereich sind die absolute Ausnahme. Natürlich will man gezielt den besseren Preis für die Teslakarten erhalten als für GeForce. Bisher waren doch alle GPGPU-Versuche mehr Spielzeug mangels ECC und verschiedener anderer Features - zumindest im professionellen Bereich. Und da nutzt defakto niemand eine GeForce.

Huh? Hoert sich bei Dir Fusion als eine Platform-Loesung aus die eventuell nicht auch auf GPGPU setzen koennte?
Im Consumerbereich, aber sich nicht HPC.

mboeller
2010-02-18, 11:19:26
Mal ne Frage zu dem "netten" Aritkel von Charly:

The derivative parts for Fermi exist only on paper, they haven't taped out yet.

Stimmt das? Es heißt doch immer wieder gerüchteweise, das die GF104 bereits im Frühsommer kommen soll. Ich hatte gehofft/erwartet das sich Nvidia auf diese GPU stützen kann wenn die GF100 wirklich nicht richtig lieferbar ist.


Eine GF104 X2 würde dann vielleicht auch reichen um von der Performance her mit ATi mitzuhalten. Und der kleinere Chip könnte mit 1500-1700 Hot Clock / 750-850MHz "half hot clock" ca. 60-70% der Leistung einer GF100 erreichen. Eine GF104 X2 wäre dann so schnell wie eine GF100 (selbst bei schlechtem SLI-scaling).


Was mich ein wenig wundert ist eben, das man von der GF104 überhaupt nichts hört. Das Nvidia-Marketing müsste doch den Usern schon den Mund wässrig machen, um von der GF100-Situation abzulenken. Oder?

Ailuros
2010-02-18, 11:21:28
Unter Anderem. Aber selbst wenn sie zu Nvidia äquivalente Produkt hätten, haben sie es sehr schwer. Die meisten wissen in diesem Bereich, warum sie gut das doppelte für eine Quadro bezahlen.

Ja aber da nie etwas in Stein gemetzelt ist, gilt der Gedanke wenn AMD endlich mal die FireGL Linie besser unterstuetzt dass NV nicht fuer immer ihr Monopol in diesem Markt halten werden kann.

Diese Consumerkarten im HPC-Bereich sind die absolute Ausnahme.

Ergo sind es keine verlorene Stueckzahlen fuer NVIDIA und AMD hat nicht mehr Grund den HPC Markt irgendwann besser zu unterstuetzen?

Natürlich will man gezielt den besseren Preis für die Teslakarten erhalten als für GeForce. Bisher waren doch alle GPGPU-Versuche mehr Spielzeug mangels ECC und verschiedener anderer Features - zumindest im professionellen Bereich. Und da nutzt defakto niemand eine GeForce.

Es ist eben leider so dass Vorteile nie ohne Nachteile kommen und umgekehrt. Die eigentliche Frage ist was mit der Zeit ueberwiegen wird. Ich druecke fuer Tesla1 eventuell noch das eine Auge zu eben weil es der erste Versuch in einem "neuen" Markt fuer NV war bei dem relativ niedrigem Umsatz dass es generierte.

Wenn ECC wirklich der treibende Faktor fuer Tesla 20 ist, dann braeuchte man DP auf high end GeForces auch nicht kastrieren um eben ein weiteres Fenster fuer billige Loesungen fuer Supercomputers nicht zu schliessen.

Im Consumerbereich, aber sich nicht HPC.

Ich bin mir sicher dass dieses Ding hier eine mainstream consumer Loesung ist oder? http://www.nvidia.com/object/product_quadro_nvs_295_us.html

8SPs mit einem bruellenden 64-bit interface....:rolleyes:

mboeller
2010-02-18, 11:26:33
Das ist nur die halbe Wahrheit, die andere Hälfte ist, dass die DX11-Chips von ATI für die aktuellen und auch kommenden Notebooks zu spät waren und die alten DX10.1-Chips gegen die Nvidia-Pendants schlecht aussahen. Dazu kommen noch z.B. so Goodies wie eben Optimus. Es wird sicher einige Notebooks mit ATI DX11 geben, die meisten dieser Generation sind allerdings abgeschlossen und haben halt Nvidia drin.



Du hast dir schon lange keinen Mediamarkt Prospekt mehr angesehen, oder? Zähl mal die Notebooks mit DX11 GPUs von AMD und vergleiche mal mit den Notebooks mit GT2/3xx. Du wirst dich wundern (tue ich zumindest immer noch, selbst nach dem 3. Prospekt mit starkem AMD-Überhang)

Bucklew
2010-02-18, 11:29:13
Ja aber da nie etwas in Stein gemetzelt ist, gilt der Gedanke wenn AMD endlich mal die FireGL Linie besser unterstuetzt dass NV nicht fuer immer ihr Monopol in diesem Markt halten werden kann.
Nur müssten sie dann noch viele Entscheider davon überzeugen, dass das so ist und auch so in Zukunft bleibt. Mit der Treiberqualität von ATI sind ja schon einige Firmen auf die Fresse geflogen.

Ergo sind es keine verlorene Stueckzahlen fuer NVIDIA und AMD hat nicht mehr Grund den HPC Markt irgendwann besser zu unterstuetzen?
Im professionellen Bereich auf jeden Fall, nur möchte AMD dort natürlich lieber CPUs verkaufen, da diese die bessere Marge haben. Daher erwarte ich dort auch nicht viel von AMD.

Es ist eben leider so dass Vorteile nie ohne Nachteile kommen und umgekehrt. Die eigentliche Frage ist was mit der Zeit ueberwiegen wird. Ich druecke fuer Tesla1 eventuell noch das eine Auge zu eben weil es der erste Versuch in einem "neuen" Markt fuer NV war bei dem relativ niedrigem Umsatz dass es generierte.
Die Nachteile sehen wir ja im Gamingbereich. Meinst du jetzt eigentlich Tesla1 oder Fermi?

Wenn ECC wirklich der treibende Faktor fuer Tesla 20 ist, dann braeuchte man DP auf high end GeForces auch nicht kastrieren um eben ein weiteres Fenster fuer billige Loesungen fuer Supercomputers nicht zu schliessen.
Nicht der treibende Faktor, aber einer.

Ich bin mir sicher dass dieses Ding hier eine mainstream consumer Loesung ist oder? http://www.nvidia.com/object/product_quadro_nvs_295_us.html

8SPs mit einem bruellenden 64-bit interface....:rolleyes:
Wie oft wird diese Karte wohl für GPGPU im HPC-Bereich genutzt werden? Nie?

Spasstiger
2010-02-18, 11:30:10
Was mich ein wenig wundert ist eben, das man von der GF104 überhaupt nichts hört. Das Nvidia-Marketing müsste doch den Usern schon den Mund wässrig machen, um von der GF100-Situation abzulenken. Oder?
Ich sehe keinen Sinn darin, offizielle GF104-Previews zu verbreiten. Die Architekturdetails sind bekannt und der GF104 ist einfach nur eine langsamere Variante davon. Man würde nur misstrauisch werden und sich nochmal fragen, wo jetzt eigentlich die Hardware bleibt und ob NV die Leute verarschen möchte.
Imo sollte es sich nicht einbürgern, Benchmarks und Architekturdetails Monate vor dem Hardware-Release zu präsentieren. Nach dem Motto: "Huhu, wir sind auch noch da. Schaut mal, was wir Tolles im Labor hinbekommen." :freak:

Ailuros
2010-02-18, 11:31:58
Mal ne Frage zu dem "netten" Aritkel von Charly:



Stimmt das? Es heißt doch immer wieder gerüchteweise, das die GF104 bereits im Frühsommer kommen soll. Ich hatte gehofft/erwartet das sich Nvidia auf diese GPU stützen kann wenn die GF100 wirklich nicht richtig lieferbar ist.


Eine GF104 X2 würde dann vielleicht auch reichen um von der Performance her mit ATi mitzuhalten. Und der kleinere Chip könnte mit 1500-1700 Hot Clock / 750-850MHz "half hot clock" ca. 60-70% der Leistung einer GF100 erreichen. Eine GF104 X2 wäre dann so schnell wie eine GF100 (selbst bei schlechtem SLI-scaling).


Was mich ein wenig wundert ist eben, das man von der GF104 überhaupt nichts hört. Das Nvidia-Marketing müsste doch den Usern schon den Mund wässrig machen, um von der GF100-Situation abzulenken. Oder?

http://www.semiaccurate.com/2010/02/17/list-questions-nvidia-doesnt-want-answer/

Der 1/2 GF100 liegt leistungsmaessig irgendwo zwischen Juniper und Cypress mit angeblichen 1.5GHz hot clock.

Bucklew
2010-02-18, 11:37:40
Du hast dir schon lange keinen Mediamarkt Prospekt mehr angesehen, oder? Zähl mal die Notebooks mit DX11 GPUs von AMD und vergleiche mal mit den Notebooks mit GT2/3xx. Du wirst dich wundern (tue ich zumindest immer noch, selbst nach dem 3. Prospekt mit starkem AMD-Überhang)
Also bei Saturn liegt das Verhältnis locker bei 3:1 zugunsten von NVidia, da MediaMarkt und Saturn quasi derselbe Konzern ist, wage ich da jetzt mal riesen Unterschiede zu bezweifeln. Wohl selektive Wahrnehmung?! ;)

http://www2.saturn.de/webapp/wcs/stores/servlet/main?langId=-3&storeId=17051&catalogId=16551&categoryId=87808&parentCategory=76205&topCategory=75548&ok=T_PRODUCTS&uk=uwg&sort=price&currentPage=2&compareList=

Ailuros
2010-02-18, 11:47:39
Nur müssten sie dann noch viele Entscheider davon überzeugen, dass das so ist und auch so in Zukunft bleibt. Mit der Treiberqualität von ATI sind ja schon einige Firmen auf die Fresse geflogen.

Sagte ich vor einigen Jahren auch fuer ATI's execution fuer den generellen Consumer-Markt. Nochmal was genau ist in Stein gemetzelt? Es gibt keine Garantie in solchen Maerkten und je mehr AMD langfristig von der GDP verdient desto mehr Luftraum fuer hoehere Investitionen werden sie haben.


Im professionellen Bereich auf jeden Fall, nur möchte AMD dort natürlich lieber CPUs verkaufen, da diese die bessere Marge haben. Daher erwarte ich dort auch nicht viel von AMD.

http://www.brightsideofnews.com/news/2009/11/3/gpgpu-start-to-take-over-the-hpc-sector-5600-ati-gpus-deployed-in-china.aspx

Zeig mir die AMD CPUs in diesem Mega-cluster.

Die Nachteile sehen wir ja im Gamingbereich. Meinst du jetzt eigentlich Tesla1 oder Fermi?

Tesla 20.

Nicht der treibende Faktor, aber einer.

Sie haben also den Vorteil von EEC und den Nachteil dass die billige GeForce GPUs kastrierte DP Faehigkeiten haben. Um das geht es mir genau eben. Wenn die Chinesen jetzt die 2560 4870X2 mit 5970-er (736GFLOPs DP@575MHz/GPU) erstetzen haben sie wieviel theoretische DP Leistung?

Wie oft wird diese Karte wohl für GPGPU im HPC-Bereich genutzt werden? Nie?

Genauso nie wie GPGPU im eingebetten Markt schon bearbeitet wird. Entweder wird GPGPU von top to bottom einen Unterschied machen oder gar keinen.

Gast
2010-02-18, 12:01:54
Wenn die Chinesen jetzt die 2560 4870X2 mit 5970-er (736GFLOPs DP@575MHz/GPU) erstetzen haben sie wieviel theoretische DP Leistung?Genug, um auf ECC pfeifen zu können, indem sie schlicht alle Berechnungen redundant auf 2 GPUs parallel ausführen. IMHO der Grund für die DP-Kastration von Consumer-GF100, dadurch lohnt sich das nicht. Obwohl... kommt drauf an, wie sie die DP-Kastration bei den kleineren Exemplaren handhaben und wieviel VRAM die haben werden.

mboeller
2010-02-18, 12:21:01
Also bei Saturn liegt das Verhältnis locker bei 3:1 zugunsten von NVidia, da MediaMarkt und Saturn quasi derselbe Konzern ist, wage ich da jetzt mal riesen Unterschiede zu bezweifeln. Wohl selektive Wahrnehmung?! ;)

http://www2.saturn.de/webapp/wcs/stores/servlet/main?langId=-3&storeId=17051&catalogId=16551&categoryId=87808&parentCategory=76205&topCategory=75548&ok=T_PRODUCTS&uk=uwg&sort=price&currentPage=2&compareList=

Ne, jedes Prospekt richtig durchgeschaut und jedes Notebook gezählt. Kein Scherz!

Den letzten Prospekt habe ich noch zuhause. Kann ich dir ja morgen mal vorrechnen. :)

Ailuros
2010-02-18, 12:42:06
Koennt Ihr bitte Eure Prospekt-Debatte privat weiterfuehren?

Bucklew
2010-02-18, 13:34:46
Sagte ich vor einigen Jahren auch fuer ATI's execution fuer den generellen Consumer-Markt. Nochmal was genau ist in Stein gemetzelt? Es gibt keine Garantie in solchen Maerkten und je mehr AMD langfristig von der GDP verdient desto mehr Luftraum fuer hoehere Investitionen werden sie haben.
In Stein gemeißelt ist nichts, aber es Bedarf einer enormen Anstrengung (sowohl was Zeit, als auch was Geld angeht), um in Profi-Markt besser Fuß zu fassen. Und natürlich wird sich Nvidia diese Cashcow nicht wegnehmen lassen so einfach.

http://www.brightsideofnews.com/news/2009/11/3/gpgpu-start-to-take-over-the-hpc-sector-5600-ati-gpus-deployed-in-china.aspx

Zeig mir die AMD CPUs in diesem Mega-cluster.
Schlappe 6000 CPUs auf 2500 GPUs - wer hat an diesem Cluster wohl mehr Geld verdient?

Und genau darum geht es: AMD wird (wenn sie können) lieber CPUs als GPUs verkaufen.

Sie haben also den Vorteil von EEC und den Nachteil dass die billige GeForce GPUs kastrierte DP Faehigkeiten haben. Um das geht es mir genau eben. Wenn die Chinesen jetzt die 2560 4870X2 mit 5970-er (736GFLOPs DP@575MHz/GPU) erstetzen haben sie wieviel theoretische DP Leistung?
Und wieviel von diesen theoretischen DPs müssen sie z.B. in Redudanz legen, weil ECC fehlt?

Abgesehen davon geht es doch nicht um diesen einen Cluster (der noch dazu der defakto einzige dieser Art ist), sondern um den großen und ganzen Markt. Das es immer Leute geben wird, die ne Consumerkarte nehmen, obwohl sie eigentlich ne Profikarte nehmen müssten, ist logisch, sagt aber gar nichts über den großen Markt aus.

Genauso nie wie GPGPU im eingebetten Markt schon bearbeitet wird. Entweder wird GPGPU von top to bottom einen Unterschied machen oder gar keinen.
GPGPU kann auch sehr gut im HPC-Markt alleine überleben. Dazu muss es nicht auf dem Laptop von Tante Erna laufen.

Gast
2010-02-18, 13:55:26
AMD’s answer to Fermi is Trillian

http://www.fudzilla.com/content/view/17720/1/

Tarkin
2010-02-18, 13:55:57
Schlappe 6000 CPUs auf 2500 GPUs - wer hat an diesem Cluster wohl mehr Geld verdient?

5120 GPUs

Bucklew
2010-02-18, 13:59:23
AMD’s answer to Fermi is Trillian

http://www.fudzilla.com/content/view/17720/1/
"Ever since the HD 5870 paper launch in Oakland [...]"

Böses Fudzilla ;D

5120 GPUs
Stimmt, sorry.

deekey777
2010-02-18, 14:04:40
http://www.brightsideofnews.com/news/2009/11/3/gpgpu-start-to-take-over-the-hpc-sector-5600-ati-gpus-deployed-in-china.aspx

Zeig mir die AMD CPUs in diesem Mega-cluster.


.
http://www.top500.org/list/2009/11/100
Hier sehe ich viele Opterons.

Ailuros
2010-02-18, 14:18:39
In Stein gemeißelt ist nichts, aber es Bedarf einer enormen Anstrengung (sowohl was Zeit, als auch was Geld angeht), um in Profi-Markt besser Fuß zu fassen. Und natürlich wird sich Nvidia diese Cashcow nicht wegnehmen lassen so einfach.

Kein Einwand. NV hat bei Fermi fuer HPC so aggressiv in hw aufgeruestet um einen gesunden Vorsprung zu haben und dass nicht nur gegen AMD sondern um einiges mehr gegen Intel, denn irgendwo in 2005 wusste NV mit Sicherheit nicht dass Larabee storniert wird.

Schlappe 6000 CPUs auf 2500 GPUs - wer hat an diesem Cluster wohl mehr Geld verdient?

Und genau darum geht es: AMD wird (wenn sie können) lieber CPUs als GPUs verkaufen.

Es sind eigentlich 12288 CPUs aber das ist nebensaechlich da Intel und ihre Verkaufsmethoden ein ganz anderes Kapitel sind (weiss der Geier wie stark Intel mit den Preisen nach unten gedrueckt hat). Anstatt gar nichts fuer ein so ein Monster verkaufen zu koennen ist es immer noch besser wenn man 2560 GPUs verkaufen kann.

Und wieviel von diesen theoretischen DPs müssen sie z.B. in Redudanz legen, weil ECC fehlt?

Wenn Du die FLOP/$ Relation zwischen einer stinknormalen 5970 und einem Tesla 20 rack mount vergleichst, beantwortet es Dir die Frage sofort.

Abgesehen davon geht es doch nicht um diesen einen Cluster (der noch dazu der defakto einzige dieser Art ist), sondern um den großen und ganzen Markt. Das es immer Leute geben wird, die ne Consumerkarte nehmen, obwohl sie eigentlich ne Profikarte nehmen müssten, ist logisch, sagt aber gar nichts über den großen Markt aus.

Wenn Tesla als Produktsparte einen sehenswerten Umsatz in der Zukunft machen wird, sehe ich aus gerne ein. Wie gesagt bei Tesla 10 drueck ich noch ein Auge zu weil es eben der erste Versuch ist; wie der Markt generell aber auf Tesla 20 reagieren wird bleibt abzusehen.

GPGPU kann auch sehr gut im HPC-Markt alleine überleben.

Ergo soll heterogenes computing nur dazu dienen damit Entwickler mit dem Zeug herumexperimentieren koennen oder ist der eigentliche Zweck von GPGPU am Ende die CPU/GPU Resourcen eines Systems besser zu balancieren?

Dazu muss es nicht auf dem Laptop von Tante Erna laufen.

Echt? Je bescheidener ein jegliches System desto mehr Einheiten werden davon verkauft. Ich bin mir sicher dass IHVs und ISVs in der Zukunft nur auf high end Systeme investieren werden fuer GPGPU weil man eben davon den groessten Umsatz machen wird. Rein zufaellig hat die lowest end NVS 295 nur 8 CUDA cores. Da aber der Teil der Debatte von Fusion ausging schlag mal nach wieviele SPs dieses Ding haben wird.

Erzaehl mir als Hersteller in der Zukunft dass ich 2x oder 3x Mal so viel fuer ein laptop theoretisch bezahlen muesste (fuer ein higher end laptop) damit GP auf mainstream Applikationen nicht zu radikal benachteiligt wird und ich knall es Dir gerechtfertigt auf den Kopf.

5120 GPUs

5120 AMD RV770 GPUs [2560 ATI Radeon HD 4870 X2 2GB cards]

http://www.brightsideofnews.com/news/2009/11/3/gpgpu-start-to-take-over-the-hpc-sector-5600-ati-gpus-deployed-in-china.aspx

crux2005
2010-02-18, 14:20:03
=> Laut zuverlässiger Quelle eines grossen A-Marken Hersteller werden auf der CeBit der Öffentlickeit keine GTX 470 oder GTX 480 bei den NVIDIA Board Partnern gezeigt werden.

=> Der Launch Termin ist auch nicht CeBit sondern noch einige Wochen später.

Ich habe auch nicht behauptet das sie die Karten der Öffentlichkeit zeigen. Wenn die Presse aber etwas zu sehen bekommt, stimmt meine Aussage schon. ;)

Gast
2010-02-18, 14:23:59
Sagte ich vor einigen Jahren auch fuer ATI's execution fuer den generellen Consumer-Markt. Nochmal was genau ist in Stein gemetzelt? Es gibt keine Garantie in solchen Maerkten und je mehr AMD langfristig von der GDP verdient desto mehr Luftraum fuer hoehere Investitionen werden sie haben.


Quadro/Tesla ist ein Solution-Markt. Es geht einzig und allein über die Software. AMD kann noch so schnell neue GPUs in den Markt bringen, wenn die Software nicht annährend konkurrenzfähig ist, wird niemand sich die Hardware ans Bein binden.
Leute, die diese Software nicht benötigen, die brauchen a) auch keinen Support und b) keine verlängerte Garantie - und greifen somit zu den Consumerprodukten.

Aber lassen wir doch Huang sich dazu äußern:

Arnab Chanda – Roth Capital Partners

Thank you. I have a question about gross margins. You know, Jen-Hsun, this is basically, as far as I can tell, pretty much a record gross margin, maybe even better than your record if you assume this on a non-GAAP business, exclude this dot com. It seems like your new products basically have better gross margin than your current business, as that mix improves, this should only get better. Is there a target that you would like to let us think about longer term where you think you can get to?

Jen-Hsun Huang

Let me answer it in pieces. First of all, I don't think this is our record. And secondarily, it is not at the internal targets. You know, our business is increasingly moving from a great shift business to much more of a software rich business. If you look at our Quadro business, it is nearly all software. You know, the enormous R&D that we invest in Quadro and in the technology we create for Quadro is all software, because for anyone else, it is still built on NVIDIA GPUs. So you see the same thing with GeForce now. The work that we did in 3-D Vision, tons of software. The work that we did with 3-D Blu-Ray, tons of software. You know, so the work that we do with CUDA, the work we do with Physx, tons of software. So I think increasingly, that is going to become the nature of our business.

Tesla is just all software, right, software tools and software compilers, libraries and I mean these are the profilers and debuggers. I mean, it has become increasingly a software-oriented type business and that is where our differentiation really is and that is where NVIDIA has historically been really, really excellent. And so in order for us to differentiate the basic commodity platform and turn it into an extraordinary experience for gamers or scientists or digital creators or for clouds or for netbooks or for tablets, it is increasingly a software business. And so that is where a lot of our differentiation becomes and I think if you think about our business from that perspective, our gross margin of the 44 points or the 44.7% that we had this quarter should be far from our expectations.
http://seekingalpha.com/article/189155-nvidia-corporation-f4q10-qtr-end-01-30-10-earnings-call-transcript?source=trans_sb_latest&page=9

Was bringt es AMD, dass sie ein DP Monster haben, aber keine OpenCL Extension? Was bringt es nVidia, dass Fermi c++ kann, wenn es keine entsprechenden Tools und Compiler gibt? Software wird die Hardware verkaufen.

Aber um wieder auf GF100 zurückzukommen:
http://photos-c.ak.fbcdn.net/hphotos-ak-snc3/hs167.snc3/19433_309145858252_8409118252_3474699_7599780_n.jpg
http://www.facebook.com/photo.php?pid=3474699&id=8409118252

Und generell:

Arnab Chanda – Roth Capital Partners

Okay. And then one question about your – products, so if you look at Tegra, you have talked a lot about the tablet potential there. Where do you see taking that business? You think that will be confined to tablets or are you expecting to take them to smartphones and then, with Fermi, is there a possibility with ASP growth that you could offset normal seasonality when it starts to launch significantly in the second quarter?

Jen-Hsun Huang

I think Fermi will vary substantially offset any seasonality; that is my expectation. Because Q2 is going to be the quarter when Fermi is hitting the pull stride, and it won’t just be one Fermi product, there will be a couple of Fermi products to span many different price ranges, but also the Fermi products will span GeForce and Quadro and Tesla. And so we are going to be ramping now on Fermi architecture products through Q2 and we are building a lot of it. So I am really excited about the upcoming launch of Fermi and I think it will more than offset the seasonality that we usually see in Q2.
http://seekingalpha.com/article/189155-nvidia-corporation-f4q10-qtr-end-01-30-10-earnings-call-transcript?source=trans_sb_latest&page=9

Ailuros
2010-02-18, 14:24:08
AMD’s answer to Fermi is Trillian

http://www.fudzilla.com/content/view/17720/1/

Nach all der Zeit weiss der Kerl immer noch nicht woefuer Trillian steht?

mboeller
2010-02-18, 14:30:22
Nach all der Zeit weiss der Kerl immer noch nicht woefuer Trillian steht?

Anscheinend ist er nicht der einzige der es nicht weiß. Die Leute schreiben einfach von einander ab und keiner schaut nach für was Trillian steht. Dabei ist es so einfach; Trillian = HD5870 mit 6 DP-Ausgängen.... go figure ;)

Ailuros
2010-02-18, 14:31:34
Quadro/Tesla ist ein Solution-Markt. Es geht einzig und allein über die Software. AMD kann noch so schnell neue GPUs in den Markt bringen, wenn die Software nicht annährend konkurrenzfähig ist, wird niemand sich die Hardware ans Bein binden.
Leute, die diese Software nicht benötigen, die brauchen a) auch keinen Support und b) keine verlängerte Garantie - und greifen somit zu den Consumerprodukten.

Aber lassen wir doch Huang sich dazu äußern:

http://seekingalpha.com/article/189155-nvidia-corporation-f4q10-qtr-end-01-30-10-earnings-call-transcript?source=trans_sb_latest&page=9

Was bringt es AMD, dass sie ein DP Monster haben, aber keine OpenCL Extension? Was bringt es nVidia, dass Fermi c++ kann, wenn es keine entsprechenden Tools und Compiler gibt? Software wird die Hardware verkaufen.

Aber um wieder auf GF100 zurückzukommen:
http://photos-c.ak.fbcdn.net/hphotos-ak-snc3/hs167.snc3/19433_309145858252_8409118252_3474699_7599780_n.jpg
http://www.facebook.com/photo.php?pid=3474699&id=8409118252

Und generell:

http://seekingalpha.com/article/189155-nvidia-corporation-f4q10-qtr-end-01-30-10-earnings-call-transcript?source=trans_sb_latest&page=9

Mir ist Jensen's Rotz so gleichgueltig wie nie. Er soll endlich seinen eigenen Saustall aufraeumen anstatt hart arbeitende engineers hysterisch anzukreischen fuer Affaeren die nicht ausschliessliche ihre Verantwortungen sind.

Ja natuerlich verkauft sw mehr die Quadros und das hab ich auch selber schon vor einigen Posts (und auch nicht zum ersten Mal) erwaehnt. Es geht darum was AMD machen koennte in diesem Fall. Je frueher sie mit anstaendiger Unterstuetzung im Profi-Markt anfangen desto mehr koennen sie eventuell NV in der Zukunft auch Marktprozentuale Schritt fuer Schritt abknabbern.

Wie auch schon weiter oben erwaehnt vor Jahren haette ich mir auch nicht gedacht dass ATI anstaendige execution auf die Beine stellen kann oder dass NV auf den neuesten und kleinsten Herstellungsprozess setzt als einfache Beispiele. Nichts ist garantiert und AMD muss nur die benoetigten Resourcen aufweisen fuer weitere Aenderungen.

Sonst spar mir die PR/marketing Lektuere; ich kann den Mist sowieso direkt jederzeit von mehreren NVIDIA PR Herren abfangen, obwohl die "off the record" Eingestaendnisse stets ehrlicher und interessanter sind.

***edit: und nein ich bin noch nicht "ready". Meine Hose bleibt voruebergehend angezogen. Wenn mir die Kinnlade tatsaechlich fallen sollte bin ich stets so spontan und ehrlich es einzugestehen und das vendor agnostic.

Bucklew
2010-02-18, 14:40:06
Kein Einwand. NV hat bei Fermi fuer HPC so aggressiv in hw aufgeruestet um einen gesunden Vorsprung zu haben und dass nicht nur gegen AMD sondern um einiges mehr gegen Intel, denn irgendwo in 2005 wusste NV mit Sicherheit nicht dass Larabee storniert wird.
Richtig. Aber es geht hier nicht nur um den Kampf gegen Intel, es geht auch darum neue Märkte zu erschließen, um nicht absolut vom Gamingmarkt abhängig zu sein, so wie es ATI ist.

Es sind eigentlich 12288 CPUs aber das ist nebensaechlich da Intel und ihre Verkaufsmethoden ein ganz anderes Kapitel sind (weiss der Geier wie stark Intel mit den Preisen nach unten gedrueckt hat). Anstatt gar nichts fuer ein so ein Monster verkaufen zu koennen ist es immer noch besser wenn man 2560 GPUs verkaufen kann.
Dennoch kann ich dir versichern, dass Intel für diese CPUs pro Stück definitiv mehr Geld bekommen hat als ATI für die Karten - vorallem in Sachen Marge. Und genau darum geht es in der Frage, ob AMD lieber CPUs oder GPUs verkauft. Das sie natürlich lieber eine GPU verkaufen als nichts ist klar, aber lieber eine GPU als eine CPU? Definitiv NEIN.

Wenn Du die FLOP/$ Relation zwischen einer stinknormalen 5970 und einem Tesla 20 rack mount vergleichst, beantwortet es Dir die Frage sofort.
Richtig, nur ist FLOP/$ nicht alles. Vorallem wo bei solch einem Projekt auch der Support den Ausschlag geben kann, oder auch bei der Haltbarkeit, oder (jetzt in Zukunft) durch den besseren Softwaresupport (C++) etc.

Wenn Tesla als Produktsparte einen sehenswerten Umsatz in der Zukunft machen wird, sehe ich aus gerne ein. Wie gesagt bei Tesla 10 drueck ich noch ein Auge zu weil es eben der erste Versuch ist; wie der Markt generell aber auf Tesla 20 reagieren wird bleibt abzusehen.
Oh, das tut sie bereits, keine Angst ;) Und das auch wo Tesla10 noch viele Fehler und Ungereimtheiten hat. Aber der Umsatz ist definitiv da und in diesen Markt will man eben stärker als vorher hinein - was sicherlich alles andere als doof ist. Es gibt auch bereits genug GPU-Cluster, nur erfährt man oftmals nicht viel davon, weil diese Firmen nicht gern bekanntgeben, dass sie jetzt plötzlich nur noch 1/10 für den FLOP bezahlt.

Ergo soll heterogenes computing nur dazu dienen damit Entwickler mit dem Zeug herumexperimentieren koennen oder ist der eigentliche Zweck von GPGPU am Ende die CPU/GPU Resourcen eines Systems besser zu balancieren?
FÜr Nvidia wäre wohl ein reines GPU-System der Idealfall, wo die CPU nur noch verteiler ist, das Rechnen aber komplett die GPU übernimmt. Obs soweit kommt werden wir sehen.

Echt? Je bescheidener ein jegliches System desto mehr Einheiten werden davon verkauft. Ich bin mir sicher dass IHVs und ISVs in der Zukunft nur auf high end Systeme investieren werden fuer GPGPU weil man eben davon den groessten Umsatz machen wird. Rein zufaellig hat die lowest end NVS 295 nur 8 CUDA cores. Da aber der Teil der Debatte von Fusion ausging schlag mal nach wieviele SPs dieses Ding haben wird.
Wir reden hier aber vom Fermi und seinem Focus in Richtung HPC. Da schlagen Fusion und auch eine NVS295 eine ganz andere Richtung ein. Wird wohl kaum jemand einen GPGPU-Cluster auf Basis von NVS295 bauen.

Erzaehl mir als Hersteller in der Zukunft dass ich 2x oder 3x Mal so viel fuer ein laptop theoretisch bezahlen muesste (fuer ein higher end laptop) damit GP auf mainstream Applikationen nicht zu radikal benachteiligt wird und ich knall es Dir gerechtfertigt auf den Kopf.
Wer redet von radikal benachteiligen, nur weil du kein ECC als Beispiel erhälst? Nicht umsonst beschneidet NVidia ja nur die DP-Durchsätze und nicht SP. Für Mainstream braucht man kein DP, da reicht SP völlig aus.

Triskaine
2010-02-18, 14:53:00
Aber um wieder auf GF100 zurückzukommen:
http://photos-c.ak.fbcdn.net/hphotos-ak-snc3/hs167.snc3/19433_309145858252_8409118252_3474699_7599780_n.jpg
http://www.facebook.com/photo.php?pid=3474699&id=8409118252]

Jetzt werden auch schon die Marketing Slogans recycelt: :freak:

http://www.abload.de/thumb/this_is_gaybf2p.png (http://www.abload.de/image.php?img=this_is_gaybf2p.png)

Hach, da werden Erinnerungen wach. ;D

Gast
2010-02-18, 15:01:58
Jetzt werden auch schon die Marketing Slogans recycelt: :freak:

http://www.abload.de/thumb/this_is_gaybf2p.png (http://www.abload.de/image.php?img=this_is_gaybf2p.png)

Hach, da werden Erinnerungen wach. ;D

Erlebt sie doch wieder, die Errinnerungen. :)
http://www.nvidia.com/content/areyouready/index_areyouready.html

LovesuckZ

Gast
2010-02-18, 15:02:22
Nach all der Zeit weiss der Kerl immer noch nicht woefuer Trillian steht?
tri-llian steht für mich für ein 3 cluster juniper. so einfach isses.

gruss

christian

V2.0
2010-02-18, 15:10:52
AMD’s answer to Fermi is Trillian

http://www.fudzilla.com/content/view/17720/1/

Genauso nervig wie sein roter Gegenpart, nur anscheinend noch schlechter informiert.

Ailuros
2010-02-18, 15:14:38
Richtig. Aber es geht hier nicht nur um den Kampf gegen Intel, es geht auch darum neue Märkte zu erschließen, um nicht absolut vom Gamingmarkt abhängig zu sein, so wie es ATI ist.

ATI ist nicht mehr eigenstaendig. Demzufolge sind sie lediglich eine Abteilung von AMD die ganze Plattformen entwickeln kann ohne auf CPU IP greifen zu muessen. Demzufolge begrenzt sich AMD wenn es zu Grafik kommt keineswegs ausschliesslich auf den "gaming Markt".

Dennoch kann ich dir versichern, dass Intel für diese CPUs pro Stück definitiv mehr Geld bekommen hat als ATI für die Karten - vorallem in Sachen Marge. Und genau darum geht es in der Frage, ob AMD lieber CPUs oder GPUs verkauft. Das sie natürlich lieber eine GPU verkaufen als nichts ist klar, aber lieber eine GPU als eine CPU? Definitiv NEIN.

Glaubst Du vielleicht dass wenn Du mir stundenlang um den Brei redest dass es irgend etwas an der Realitaet aendert? NV hat mit der Kastrierung der DP Leistung auf GeForces einen Nachteil zumindest IMHO.

Richtig, nur ist FLOP/$ nicht alles. Vorallem wo bei solch einem Projekt auch der Support den Ausschlag geben kann, oder auch bei der Haltbarkeit, oder (jetzt in Zukunft) durch den besseren Softwaresupport (C++) etc.

In dem Fall ist FLOP/$ alles an dem die Chinesen interessiert waren.

Oh, das tut sie bereits, keine Angst ;)

Eben nicht, sonst waere die Debatte hier gleich sinnlos.


FÜr Nvidia wäre wohl ein reines GPU-System der Idealfall, wo die CPU nur noch verteiler ist, das Rechnen aber komplett die GPU übernimmt. Obs soweit kommt werden wir sehen.

Wir reden hier um die vorhersehbare Zukunft und nicht =/>10 Jahre down the line.

Wir reden hier aber vom Fermi und seinem Focus in Richtung HPC. Da schlagen Fusion und auch eine NVS295 eine ganz andere Richtung ein. Wird wohl kaum jemand einen GPGPU-Cluster auf Basis von NVS295 bauen.

Behauptete ich auch nicht. Sobald aber GPGPU wirklich zum Aufschwung kommt wird selbst NVS295 Besitzer zufrieden sein dass das Ding CUDA cores erstmal hat.

Wer redet von radikal benachteiligen, nur weil du kein ECC als Beispiel erhälst? Nicht umsonst beschneidet NVidia ja nur die DP-Durchsätze und nicht SP. Für Mainstream braucht man kein DP, da reicht SP völlig aus.

Halt man die Luft an und lese Wort fuer Wort: Tante Erna's laptop in der Zukunft sollte sehr wohl von GPGPU profitieren koennen wenn in der Zukunft heterogenes computing Vorteile bringen sollte. Das hat nichts im geringsten mit DP, ECC oder etliches anderes zu tun mit dem Du Dich hier verwuschtelt hast.

Nochmal und auch fuer den obrigen Paragraphen: wenn heterogenes computing eine Zukunft haben sollte dann sollten so viel wie moegliche Geraete (egal wie gross oder klein) GPUs mit GPGPU Faehigkeiten haben.

-------------------------------------------------------------------
Unter dem Strich und das ist natuerlich total irrelevant zu all dem obrigem, da man nach Dir kein DP im mainstream braucht wundere ich mich warum es in unmittelbarer Zukunft auf eingebetteten GPUs sogar fuer Handys auftauchen wird.

Bucklew
2010-02-18, 15:34:43
ATI ist nicht mehr eigenstaendig. Demzufolge sind sie lediglich eine Abteilung von AMD die ganze Plattformen entwickeln kann ohne auf CPU IP greifen zu muessen. Demzufolge begrenzt sich AMD wenn es zu Grafik kommt keineswegs ausschliesslich auf den "gaming Markt".
ATI ist weiterhin eine Marke, die sich inzwischen nur noch auf Grafikkarten spezialisiert hat und dabei zu mindestens 90% auf Consumergrafikkarten (um es dann mal ganz genau auszudrücken) beschränkt.

Ändert aber immer noch nichts dran, dass Nvidia die Produktpalette nach unten (Tegra) wie oben (Tesla) auffächert, während ATI weiterhin bei Grafikkarten bleibt und Konzerntaktisch eher wenig Interesse hat in Richtung Tesla zu gehen (s.u.).

Glaubst Du vielleicht dass wenn Du mir stundenlang um den Brei redest dass es irgend etwas an der Realitaet aendert? NV hat mit der Kastrierung der DP Leistung auf GeForces einen Nachteil zumindest IMHO.
Das wird sich zeigen müssen. Innerhalb ihrer eigenen Produktpalette haben sie einen massiven Vorteil, weil die billigeren GeForce-Produkte weniger Konkurrenz zu den teuren Tesla-Produkten darstellen. Das jetzt automatisch jeder sich ne ATI kauft, ist meiner Meinung nach Quatsch.

Und es ändert auch nichts am Fakt, dass AMD lieber eine CPU, als eine GPU verkaufen wird (auch in Zukunft).

In dem Fall ist FLOP/$ alles an dem die Chinesen interessiert waren.
Ist ok, nur kauft nicht jeder einen Cluster nach diesem Pflichtenheft. Aber das tut eben nicht jeder.

Eben nicht, sonst waere die Debatte hier gleich sinnlos.
Dann solltest du dir wohl mal die Nvidia-Finanzberichte anschauen.

Wir reden hier um die vorhersehbare Zukunft und nicht =/>10 Jahre down the line.
Ich denke nicht, dass wir über 10 Jahre reden, wenn (!) Fermi das hält was er verspricht.

Behauptete ich auch nicht. Sobald aber GPGPU wirklich zum Aufschwung kommt wird selbst NVS295 Besitzer zufrieden sein dass das Ding CUDA cores erstmal hat.
Hat er ja auch und sämtliche Grafikkarten ab GeForce 8x sind einheitlich benutzbar (zumindest mit CUDA).

Halt man die Luft an und lese Wort fuer Wort: Tante Erna's laptop in der Zukunft sollte sehr wohl von GPGPU profitieren koennen wenn in der Zukunft heterogenes computing Vorteile bringen sollte. Das hat nichts im geringsten mit DP, ECC oder etliches anderes zu tun mit dem Du Dich hier verwuschtelt hast.
Tut sie ja auch, aktuell sobald eine GPU ab GeForce 8 verbaut ist. Was das jetzt damit zu tun hat, dass " GP auf mainstream Applikationen nicht zu radikal benachteiligt wird" zu tun hat, erschließt sich wohl nur dir.

Welchen Nachteil hast du denn nun durch eine in DP-Leistung limitierte GeForce?

Nochmal und auch fuer den obrigen Paragraphen: wenn heterogenes computing eine Zukunft haben sollte dann sollten so viel wie moegliche Geraete (egal wie gross oder klein) GPUs mit GPGPU Faehigkeiten haben.
Haben sie ja auch. Deswegen wird noch lange kein 500€ Laptop die GPGPU-Leistung einer 500€ Grafikkarte erreichen. Und eine 500€ GeForce eben nicht die einer 1000€ Tesla. You get what you pay for.

Unter dem Strich und das ist natuerlich total irrelevant zu all dem obrigem, da man nach Dir kein DP im mainstream braucht wundere ich mich warum es in unmittelbarer Zukunft auf eingebetteten GPUs sogar fuer Handys auftauchen wird.
Seit wann bedeutet ein eingeführtes Feature, dass es auch unbedingt genutzt werden muss? Welche Applikation gibt es denn aktuell, die als Consumerapp die DP-Fähigkeit einer Grafikkarte zwingen vorraussetzt?

huch
2010-02-18, 15:47:48
Da man aber das 212 und 214 Team aufloeste damals wuerde ich liebend gerne wissen fuer was genau diese Resourcen investiert wurden.

FÜr Nvidia wäre wohl ein reines GPU-System der Idealfall, wo die CPU nur noch verteiler ist, das Rechnen aber komplett die GPU übernimmt. Obs soweit kommt werden wir sehen.

meine Vermutung: nV baut schon seit Längerem hinter den Kulissen eine CPU

um dafür maximal Ressourcen freizuschaufeln werden die GPU-Projekte so lange wie möglich in die Länge gezogen bzw. teilweise auf dem Weg gecancelt, um bei GPUs mit möglichst minimalem Aufwand über die Runden zu kommen

und de Probleme der letzten knapp 2 Jahre kommen ja gerade durchs Zusammenspiel von Wirtschaftskrise und 40G Prozeßproblemen, die ATI auch nicht riechen konnte, deren PerformanceGPU-only Strategie aber sehr ehtegegenkam

und hey - bei den R&D Ausgabensteigerungen nach G80 müßte mittlerweile deren GPU-Technik weiter als Fermi sein: mit einem Drittel der Kohle haben sie seinerzeit G70 zu G71 optimiert, den RSX gebaut, das G80 Design entwickelt und die Sockel775 Chipsätze gemacht.

vor dem ATI-Kauf von AMD wollte AMD nV haben, was ja auch verhandelt wurde und letztlich nur daran scheiterte, daß Jen-Hsung auf den Chefposten des Gemeinschaftsunternehmens bestand

längerfristig wird intel immer mehr seiner plattformen mit GPUs ausstatten so daß nV mit seinem GPU-only Geschäftsmodell (ja, gibbt auch noch Tegra, aber der muß erstmal signifikant am Markt ankommen und sich neben ARMs Mali und PowerVR eine umsatzstarke Position erarbeiten) schnell an seine Grenzen geraten kann

und sobald Intel eigene Grafikkarten hat (wird kommen, definitiv) gibbts für nV auch nix im Stile der AMD'schen Monopolvermeidungs-Überlebensgarantie...

nur mit einer eigenen kompletten Plattform können sie ihre eigene Zukunft aus eigener Kraft gestalten - anderenfalls wären sie längerfristig immer von der Strategie der beiden Anderen, vA Intel, abhängig

und überlegt mal, mit einer eigenen CPU wäre NV doch beispielsweise der Traumpartner für zukünftige Konsolendesigns - ein Riesenmarkt. Und die Riesenchance, über die nahe HW-Verwandschaft zur dann eigenen PC Plattform auch den ganzen Konsolen-PC-Ports Markt auf seine Seite des Contents zu ziehen...

(würde auch zusätzlich erklären, warum nV seit 2 Jahren so höllenheftig auf GPGPU geht, da eine eigene CPU wohl kaum direkt mit Athlon und Core sondern nur als Platform mit starken GPGPU-Anteil konkurrieren könnte)

wurde doch ziemlich OT - sorry bitte!

Gast
2010-02-18, 15:48:22
ATI ist weiterhin eine Marke, die sich inzwischen nur noch auf Grafikkarten spezialisiert hat und dabei zu mindestens 90% auf Consumergrafikkarten (um es dann mal ganz genau auszudrücken) beschränkt.

Bitte was?^^
Eine Marke macht gar nichts.

Zu der kommenden GPGPU Revolution in der Cpus überflüssig oder nur noch als Zulieferer agiert sobald Fermi gelauncht wird braucht es eigentlich keinen Kommentar.

Gast
2010-02-18, 15:50:08
meine Vermutung: nV baut schon seit Längerem hinter den Kulissen eine CPU

um dafür maximal Ressourcen freizuschaufeln werden die GPU-Projekte so lange wie möglich in die Länge gezogen bzw. teilweise auf dem Weg gecancelt, um bei GPUs mit möglichst minimalem Aufwand über die Runden zu kommen

und de Probleme der letzten knapp 2 Jahre kommen ja gerade durchs Zusammenspiel von Wirtschaftskrise und 40G Prozeßproblemen, die ATI auch nicht riechen konnte, deren PerformanceGPU-only Strategie aber sehr ehtegegenkam

und hey - bei den R&D Ausgabensteigerungen nach G80 müßte mittlerweile deren GPU-Technik weiter als Fermi sein: mit einem Drittel der Kohle haben sie seinerzeit G70 zu G71 optimiert, den RSX gebaut, das G80 Design entwickelt und die Sockel775 Chipsätze gemacht.

vor dem ATI-Kauf von AMD wollte AMD nV haben, was ja auch verhandelt wurde und letztlich nur daran scheiterte, daß Jen-Hsung auf den Chefposten des Gemeinschaftsunternehmens bestand

längerfristig wird intel immer mehr seiner plattformen mit GPUs ausstatten so daß nV mit seinem GPU-only Geschäftsmodell (ja, gibbt auch noch Tegra, aber der muß erstmal signifikant am Markt ankommen und sich neben ARMs Mali und PowerVR eine umsatzstarke Position erarbeiten) schnell an seine Grenzen geraten kann

und sobald Intel eigene Grafikkarten hat (wird kommen, definitiv) gibbts für nV auch nix im Stile der AMD'schen Monopolvermeidungs-Überlebensgarantie...

nur mit einer eigenen kompletten Plattform können sie ihre eigene Zukunft aus eigener Kraft gestalten - anderenfalls wären sie längerfristig immer von der Strategie der beiden Anderen, vA Intel, abhängig

und überlegt mal, mit einer eigenen CPU wäre NV doch beispielsweise der Traumpartner für zukünftige Konsolendesigns - ein Riesenmarkt. Und die Riesenchance, über die nahe HW-Verwandschaft zur dann eigenen PC Plattform auch den ganzen Konsolen-PC-Ports Markt auf seine Seite des Contents zu ziehen...

(würde auch zusätzlich erklären, warum nV seit 2 Jahren so höllenheftig auf GPGPU geht, da eine eigene CPU wohl kaum direkt mit Athlon und Core sondern nur als Platform mit starken GPGPU-Anteil konkurrieren könnte)

wurde doch ziemlich OT - sorry bitte!

Und wo soll das CPU-Design herkommen?
Hat das NV in einem Jahr schnell selbst gemacht?

Gast
2010-02-18, 15:51:14
Der Gast hat doch nur gerade Tegra beschrieben. ;)

LovesuckZ

igg
2010-02-18, 15:58:07
Das Beschneiden der DP-Einheiten und GPGPU Funktionen auf Geforces ist IMO Wahnsinn. Damit eliminieren sie den Vorsprung, den sie sich hier auch im Consumer-Bereich erarbeitet haben, praktisch... kein ECC würde ich ja noch nachvollziehen können...

Gast
2010-02-18, 16:00:51
Das Beschneiden der DP-Einheiten und GPGPU Funktionen auf Geforces ist IMO Wahnsinn. Damit eliminieren sie den Vorsprung, den sie sich hier auch im Consumer-Bereich erarbeitet haben, praktisch... kein ECC würde ich ja noch nachvollziehen können...

Welche Anwendung verwendet DP? Die Beschneidung der DP wird genau 0 Einfluss auf die Geforce-Reihe haben. Vorallen, da es bei AMD DP auch nur Cypress gibt.

LovesuckZ

huch
2010-02-18, 16:01:18
als PM damit ich keine OT-Haue kriege, und für nen eignen Fred bin ihc ned oft genug online

der interessanteste Moment war, als der Chefarchetekt von nV vor weiß ich nem halben Jahr oder so für 2017 einen monolithischen Chip mit 2000 Shadern und glaub 16 großen CPU Kernen prognostizierte. der mann kennt die internen diskussionen über nV's zukunft

schon kurz nach G80 kam bei nV alles durcheinander, obwohl sie ständig weiter Leute eingestellt haben - bis heute.

sie werden die eigene CPU erstmal intern simulieren und über einige Generationen weiterentwickeln, bevor sie kommt. im Moment macht es Sinn, dies nicht zu Veröffentlichen, um sichs mit Intel noch nicht zu sehr zu verscherzen

das erste Design sollte schon längst im Simulator laufen und das zweite Design schon weit in der Entwicklung sein

sie haben die Transmeta-Ingenieure und auch ihre eigenen Leute haben seit vielen Jahren FullCustom-Design-Erfahrung

technologisch könnte es ein sanftes x86 VLIW werden

und spekulier noch 2 jahre in die Zukunft, wo dort die GPU-Beschleunigung ist: SPiele eh schon lange, Video längst, auch Flash und Codecs werden dann überwiegend auf CUDA, OpenCL und DirectCompute laufen, und Physx (oder andere Engines die auf GPU rechnen) könnte bis dahin einen so großen Einfluß haben daß einer guten SPieleplattform eine CPU mit 70-80 Prozent der Intel/AMD Leistung reicht.

und dann kloppen sich nV und Intel, wenn letztere deren nächsten Larrabee launchen und aus dem Nichts kommt dann das nV Mainboard...

schönen Tag & Grüße!