PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GT400/GF100 - Q1/2010, DX11, CUDA 3.0


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 [19] 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75

Gast
2009-10-24, 15:00:41
Das die Presse ohne Grund News gelöscht oder Kommentare entfernt hat, weil sie Angst vor AMD hatte.

Ein Grund wurde nie genannt.
Worauf beziehst du dich?

Coda
2009-10-24, 15:23:17
War G80 denn nicht "aufregend"? Superskalare Einheiten, nV hat damit bewiesen das sie einem gut die Kinnlade runterhauen können ^^
G80 ist pseudo-skalar, nicht superskalar ;)

Gast
2009-10-24, 15:28:12
Worauf beziehst du dich?
Auf das Zitat.

Gast
2009-10-24, 15:34:04
Auf das Zitat.
Nein ich wollte einen Beleg für deinen Vorwurf, dass kritische Kommentare gelöscht werden (#1), auf Druck von AMD (#2)... (nicht dass ich zweifle, es interessiert mich)

Gast
2009-10-24, 17:04:59
Ich habs in dem Zusammenhang gehört: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7588803#post7588803

Keine Ahnung was seitdem passiert ist, aber zumindest CB hat sich in der Hinsicht mit keiner Zeile geäußert.

Advanced
2009-10-24, 17:15:20
Wenn man unter NDA steht und vor Release Informationen preis gibt... selbst dran Schuld.

Ronny145
2009-10-24, 17:25:02
Wenn man unter NDA steht und vor Release Informationen preis gibt... selbst dran Schuld.


Dort wurden keine eigenen NDA Infos preisgegeben, es wurde einfach nur berichtet was bekannt war oder von anderen Seiten preisgegeben wurde.

Gast
2009-10-24, 17:33:25
Nicht nur das, die Nutzer selbst haben noch nicht einmal ein NDA unterschrieben.

Ailuros
2009-10-24, 17:51:54
War G80 denn nicht "aufregend"? Superskalare Einheiten, nV hat damit bewiesen das sie einem gut die Kinnlade runterhauen können ^^

Wie Coda schon andeutete "skalar", "superskalar" und dergleichen sind alles nur halbwegs missbrauchte Bezeichnungen. Von dem abgesehen wenn bei G80 die Leistung nicht gestimmt haette, haetten wir uns jede skalare Bogus-beschreibung an den Hut stecken koennen.

LovesuckZ
2009-10-24, 18:36:05
Die Leistung stimmte aber. Der G80 war ein Umbruch bei nVidia und der Konkurrenz 20 Monate vorraus. Manchmal wird Mut und Risikobereitschaft belohnt.

Gast
2009-10-24, 18:43:38
nur hat man sich seitdem auf dem Erfolg ausgeruht und nichts mehr für die breite Masse herausgebracht...

Ailuros
2009-10-24, 18:45:07
Die Leistung stimmte aber. Der G80 war ein Umbruch bei nVidia und der Konkurrenz 20 Monate vorraus. Manchmal wird Mut und Risikobereitschaft belohnt.

Es bezweifelt auch keiner. Es bleibt aber dabei dass eine revolutionaere Architektur auch revolutionare Leistung haben sollte, sonst starrt jeder auf ein paar bekloppte Papierfeatures.

nur hat man sich seitdem auf dem Erfolg ausgeruht und nichts mehr für die breite Masse herausgebracht...

Woher sollte denn fast jedes Jahr eine analoge G80-Leistungsteigerung genau herkommen? Seither gab es nur Refreshes die unter normalen Umstaenden keine radikalen Leistungssteigerungen mit sich bringen. Bei AMD war die Leistungssteigerung von R600 zu RV700 natuerlich steiler, aber auch nur aus dem Grund weil die R600 eher ungewoehnlich niedrig war fuer eine neue Generation.

LovesuckZ
2009-10-24, 18:46:03
nur hat man sich seitdem auf dem Erfolg ausgeruht und nichts mehr für die breite Masse herausgebracht...

Abgesehen vom G92 und GT200? Abgesehen von PhysX und Stereo3D? Abgesehen von Hybrid-Power (RIP :() und ION?
Also nVidia hat seit dem G80 einiges für die breite Masse getan. Natürlich können sie mit AMD nicht mithalten, deren einziger Track-Record bei 10.1 seit fast 2 Jahren lag.

Es bezweifelt auch keiner. Es bleibt aber dabei dass eine revolutionaere Architektur auch revolutionare Leistung haben sollte, sonst starrt jeder auf ein paar bekloppte Papierfeatures.

Das lässt sich erst in der Retroperspektive sehen. Wer hätte denn im November 2006 gedacht, dass man mehr als zwei Jahre benötigt, um die Leistung zur 8800GTX zu verdoppeln? Wer hätte gedacht, dass nVidia's Architektur so ausgeklügelt war, dass 3 Jahre später zwei neue APIs von ihr unterstützt wird?

Labberlippe
2009-10-24, 18:53:00
Im Grunde stimme ich dir da im großen und ganzen zu. Nur stimmen deine Angaben nicht ganz.
Eine 5750 kostet momentan 115€. Da bekomm ich eine 4870 1GB für, die etwa 40% schneller ist.
Oder ich bekomme eine 4850 1Gb die so schnell ist wie ne 5750 für 85€.
Die 5750 kostet 35% mehr.

Das ist imho etwas viel, trotz der anderen immensen Vorteile.


Hi

Die Vergleiche sind irrelevant es sollte eigentlich jeden klar sein das jetzt versucht wird die älteren Karten noch schnell durch einen günstigeren Preis an den Mann zu bringen.
Das war schon immer so das die Vorgänger Generation vom Preis gefallen ist.

und wenn man schon vergleicht dann sollte man auch beachten das die meisten 4850 mit 625/933er Takt angeboten werden.

http://geizhals.at/?cat=gra16_512&asuch=4850

Ich finde das die neue Produktpallette von AMD passt alle Bereiche werden sehr gut abgedeckt.

Was die Hersteller dann für einen Schwachsinn auf den Markt werfen ist natürlich wieder eine andere Sache.

Gruss Labberlippe

reunion
2009-10-24, 18:59:25
Abgesehen vom G92 und GT200? Abgesehen von PhysX und Stereo3D? Abgesehen von Hybrid-Power (RIP :() und ION?
Also nVidia hat seit dem G80 einiges für die breite Masse getan. Natürlich können sie mit AMD nicht mithalten, deren einziger Track-Record bei 10.1 seit fast 2 Jahren lag.



Das lässt sich erst in der Retroperspektive sehen. Wer hätte denn im November 2006 gedacht, dass man mehr als zwei Jahre benötigt, um die Leistung zur 8800GTX zu verdoppeln? Wer hätte gedacht, dass nVidia's Architektur so ausgeklügelt war, dass 3 Jahre später zwei neue APIs von ihr unterstützt wird?

Die Propagandamaschine läuft ja auf hochturen.

LovesuckZ
2009-10-24, 19:00:08
The HD5870 will not stay the fastest card for long as Nvidia does have the GTX300 series out in test market areas now, but there are some serious driver issues reported by these markets
Ted
http://www.sim-outhouse.com/sohforums/showpost.php?p=274233&postcount=7

TXNetCop, not sure where you're hearing GTX300 rumors, but the Tesla chips aren't out in the wild at all yet. As i understand it, the number of existing cards is still in the double digits -- it's a 2010 product, and they only got the first chips taped out a couple of months ago.

So yeah, the drivers would be pretty raw at this point.
http://www.sim-outhouse.com/sohforums/showpost.php?p=275000&postcount=13


Hey Denny, it's not rumors we are one of the test facilities
Ted
http://www.sim-outhouse.com/sohforums/showpost.php?p=275179&postcount=15

Credits: http://forum.beyond3d.com/showpost.php?p=1350946&postcount=4464

Ailuros
2009-10-24, 19:06:28
Abgesehen vom G92 und GT200? Abgesehen von PhysX und Stereo3D? Abgesehen von Hybrid-Power (RIP :() und ION?
Also nVidia hat seit dem G80 einiges für die breite Masse getan. Natürlich können sie mit AMD nicht mithalten, deren einziger Track-Record bei 10.1 seit fast 2 Jahren lag.

Ausgezeichnete execution als Gegenbeispiel seit RV670 vielleicht? Zeig mir wenigstens einen einzigen chip seit G92 wo die Entwicklung wirklich problemlos vorgegangen ist. Selbst Tegra1 welches ein laecherlicher Winzling ist musste durch ein respin gehen weil einfaches Zeug wie render2texture dank einiger bugs nicht funktionieren konnte und trotz frivolen Frequenzprojektionen hat das Ding nach dem respin gerade mal 120MHz erreicht.

Nein Jensen hat sich in letzter Zeit heisser gebruellt weil intern natuerlich alles wie Butter laeuft. Es gibt stets fuer 2 extreme Perspektiven einen Mittelpunkt und nein NV hat sich zwar nicht auf Lorbeeren ausgeruht seit 2006, hat aber auch nicht das geleistet was ich vom groessten Grafik IHV erwarten wuerde. Ihre execution ist seit G92 von top to bottom zum erbrechen schlecht. Nun ja heutzutage entschuldigen sich so manche fuer die Fehler die fuer die GT200 Verspaetung schuld waren ja?

Das lässt sich erst in der Retroperspektive sehen. Wer hätte denn im November 2006 gedacht, dass man mehr als zwei Jahre benötigt, um die Leistung zur 8800GTX zu verdoppeln?

Ein gutes Beispiel dass es zu Unsinn fuehrt wenn Marketing-heinis im Klugscheissermodus die Arbeit eines guten engineering teams verpatzen koennen waere Larabee und x86. Oder eventuell dass die NV Marke-"tiere" bruellten dass DX10.1 ueberfluessig sei, wobei deren engineers eine andere Meinung hatten.

Wenn Dir ein engineer darauf besteht dass eine breitere Architektur wie GT200 einen neuen Speichercontroller braucht dann hoert man verdammt nochmal auf diesen und rennt nicht mit dem Kopf durch die Wand. Diese bloede Entscheidung kostete alleine bis zu satte 30% Leistungsunterschied. Die engineers wissen genau wo's los geht; die restlichen Mittelmaenner haben nicht immer recht.

Wer hätte gedacht, dass nVidia's Architektur so ausgeklügelt war, dass 3 Jahre später zwei neue APIs von ihr unterstützt wird?

Ich bezweifle offensichtlich nirgends NV's engineering Talent ganz im Gegenteil. Es geht hier um GF100 und eventuell wann es endlich ankommt. Noch ein Schritt weiter warum sich so viele Fehler seit 2007 angehaeuft haben.

Gast
2009-10-24, 20:02:16
Credits: http://forum.beyond3d.com/showpost.php?p=1350946&postcount=4464

Lese ich das richtig? Die ersten GT300 Samples sind bereits verschickt? Nur die Treiber spacken noch herum?

LovesuckZ
2009-10-24, 20:09:02
Lese ich das richtig? Die ersten GT300 Samples sind bereits verschickt? Nur die Treiber spacken noch herum?

Wenn es stimmt - ja.

Menace
2009-10-24, 20:19:19
Wenn es stimmt - ja.

Aber wir wollen so etwas doch nicht anzweifeln. Nicht, nachdem der Scheffe schon eine fertige Karte in die Kamera gehalten hat. ;)

Gast
2009-10-24, 20:27:20
Abgesehen vom G92 und GT200? Abgesehen von PhysX und Stereo3D? Abgesehen von Hybrid-Power (RIP :() und ION?
Also nVidia hat seit dem G80 einiges für die breite Masse getan. Natürlich können sie mit AMD nicht mithalten, deren einziger Track-Record bei 10.1 seit fast 2 Jahren lag.


die letzte gescheite GraKa für die Massen war die G80, alles was danach kam, war einfach nur zu groß und zu teuer - für Dich vielleicht ni, aber die Masse schon.

Stereo3D für die Massen?PhysX für die Massen? ich hab keine Ahnung, wo Du solche Behauptungen hernimmst. Oder was Du unter "für die Massen verstehst" Ich verstehe darunter Dinge, die die Massen brauchen _und_ nutzen. Grafik-Power kann dank Standards wie DircetX und OpenGL jeder nutzen, alles andere ist sinnlos, da Nischenprodukt.



Das lässt sich erst in der Retroperspektive sehen. Wer hätte denn im November 2006 gedacht, dass man mehr als zwei Jahre benötigt, um die Leistung zur 8800GTX zu verdoppeln? Wer hätte gedacht, dass nVidia's Architektur so ausgeklügelt war, dass 3 Jahre später zwei neue APIs von ihr unterstützt wird?

2 neue APIs? die da wären?

Der_Korken
2009-10-24, 20:53:28
die letzte gescheite GraKa für die Massen war die G80, alles was danach kam, war einfach nur zu groß und zu teuer - für Dich vielleicht ni, aber die Masse schon.

Das kann man aber so nicht sagen. Gerade der G80 war zu seiner Zeit sauteuer, sowohl in der Herstellung, als auch für den Kunden in Form von hohen Preisen. Er war ein reinrassiger Hardware-Chip und sicher nicht für die Massen. G92 war da schon eher ein Massenprodukt, den sich deutlich mehr Käufer leisten konnten.

LovesuckZ
2009-10-24, 20:59:08
Das kann man aber so nicht sagen. Gerade der G80 war zu seiner Zeit sauteuer, sowohl in der Herstellung, als auch für den Kunden in Form von hohen Preisen. Er war ein reinrassiger Hardware-Chip und sicher nicht für die Massen. G92 war da schon eher ein Massenprodukt, den sich deutlich mehr Käufer leisten konnten.

Danke - das erübrigt mir Schreibarbeit. Wer meint, der G80 wäre für die Massen gewesen, der hat ein leicht beschädigtes Langzeitgedächtnis. Denn der billigste G80 Ableger kostete 250€+ in Form der GTS-320. Selbst die GTX2xx Karten sind wesentlich billiger gewesen als die G80 Ableger. Mit 199€-250€-350€ hatte man wesentlich mehr Leistung für den Euro als noch beim G80.

Botcruscher
2009-10-24, 21:04:00
G80 war nie für die Masse. Dank der Gurke von R600 gab es aber nicht viel Alternativen. Jeder der "Überchips" hat diesen Status Rückwirkend durch miese Gegner zu verdanken. Man Stelle sich nur vor die FX oder der R600 wären 30% schneller gewesen...

RoNsOn Xs
2009-10-24, 21:05:11
hätte amd nicht den preiskampf begonnen den wir seit der hd3xxx haben, hätte der g92 ähnlich gekostet...

LovesuckZ
2009-10-24, 21:15:22
G80 war nie für die Masse. Dank der Gurke von R600 gab es aber nicht viel Alternativen. Jeder der "Überchips" hat diesen Status Rückwirkend durch miese Gegner zu verdanken. Man Stelle sich nur vor die FX oder der R600 wären 30% schneller gewesen...

Und dann? Weder die FX noch der r600 wären dann schneller gewesen. Der FX krankte an der schlechten FP Leistung und der Rechenarchitektur und der r600 am kompletten Konstrukt.

Gast
2009-10-25, 02:03:53
Sorry, natürlich meinte ich den G92, welchen ich als letztes kaufenswertes Massenprodukt von nvidia bezeichnen würde. Fehler meinerseits mit dem G80, denn der natürlich nicht.

Gast
2009-10-25, 02:05:03
G80 war nie für die Masse. Dank der Gurke von R600 gab es aber nicht viel Alternativen. Jeder der "Überchips" hat diesen Status Rückwirkend durch miese Gegner zu verdanken. Man Stelle sich nur vor die FX oder der R600 wären 30% schneller gewesen...

Das ja wohl witzlos *g R420/R480 nicht für die Masse, also echt, wenn man keine Ahnung hat...
Die Enthusiast GPUs haben klar weniger Produktion als die kleinen Ableger, die die OEM Schwemme frisst. Aber die Enthusiast GPUs haben dafür die hohe Marge.

Gast
2009-10-25, 02:06:49
Was hat ihr denn gegen den GT200? Eine GTS260 ist heute noch deluxe gegen die Mickrigen Karten der gleichen Gen.

Ailuros
2009-10-25, 07:52:21
hätte amd nicht den preiskampf begonnen den wir seit der hd3xxx haben, hätte der g92 ähnlich gekostet...

G92 war seit es konzipiert wurde eine Performance und nicht high end Variante. Dementsprechend haette sie nie so viel wie die G80 kosten koennen, denn es gab ja komischerweise eine GX2 die wohl eher diesen Platz eingenommen hat.

Was hat ihr denn gegen den GT200? Eine GTS260 ist heute noch deluxe gegen die Mickrigen Karten der gleichen Gen.

Nichts besonderes. Nur ein "paar" falsche Design-entscheidungen die man natuerlich erst heute indirekt eingesteht.

RoNsOn Xs
2009-10-25, 12:58:25
G92 war seit es konzipiert wurde eine Performance und nicht high end Variante. Dementsprechend haette sie nie so viel wie die G80 kosten koennen, denn es gab ja komischerweise eine GX2 die wohl eher diesen Platz eingenommen hat.


ohne die starke konkurrenz seitens amd, hätte man für den g92 wohl genauso viel euro verlangen können, da er ja anhand seiner leistung eingestuft hätte sein müssen. und die lag ja zum teil über g80.

LovesuckZ
2009-10-25, 13:21:34
ohne die starke konkurrenz seitens amd, hätte man für den g92 wohl genauso viel euro verlangen können, da er ja anhand seiner leistung eingestuft hätte sein müssen. und die lag ja zum teil über g80.

Nö, das stimmt nicht. Der G92 war immer als Ersatz vorallen für die 8800GTS-320 gedacht. Dabei spielt es keine Rolle, ob man mit 6,7 oder 8 Cluster gekommen wäre, man wäre immer schneller als die 8800GTS-320 und somit schneller als die 3870. Und wenn nVidia nur 8800GTS-320 Leistung angestrebt hätte, hätte man gleiche Leistung, aber eine geringere Leistungsaufnahme.

Ailuros
2009-10-25, 15:30:16
ohne die starke konkurrenz seitens amd, hätte man für den g92 wohl genauso viel euro verlangen können, da er ja anhand seiner leistung eingestuft hätte sein müssen. und die lag ja zum teil über g80.

An manchen (eher seltenen Stellen) wo weder die Speichermenge noch die Bandbreite limitierte hatte die 8800GTS 512MB einen leichten Vorsprung, aber im Durchschnitt war sie keineswegs schneller. Wenn Du nicht verstehen kannst dass 512MB/256bit vs. 768MB/384bit performance vs. high end bedeuteten und auch als solche geplant waren kann ich nicht weiterhelfen.

RoNsOn Xs
2009-10-25, 15:34:37
äh? welche lösung zum einsatz kommt ist doch ziemlich egal. ob nun v8 saugmotor gegen 1.2er bi-turbo.. wenn beide in der selben leistungsklasse sind, hätte man für den g92 eben genauso viel verlangen können, wenn eben die konkurrenz nicht gewesen wäre.
ist mir aber auch egal, gehört nicht zum thema.

Gast
2009-10-25, 15:59:25
Sie sind eben nicht in der selben Leistungsklasse. Zumindest nicht diese 2 Karten, 8800 GTS 512 ist wie der Name schon andeutet keine 8800 GTX.

Soundwave1983
2009-10-25, 16:11:43
Nichts besonderes. Nur ein "paar" falsche Design-entscheidungen die man natuerlich erst heute indirekt eingesteht.

Wobei ich mich bis heute frage, wie wohl ein G200 ausgesehen hätte, DP Einheiten weg, höherer Takt und evtl. DX10.1?
Der GT200 schleppt ja einiges mit, vor allem die DP Einheiten von denen man als Gamer -soweit ich informiert bin- keinerlei Nutzen hat.

Ailuros
2009-10-25, 16:15:42
äh? welche lösung zum einsatz kommt ist doch ziemlich egal. ob nun v8 saugmotor gegen 1.2er bi-turbo.. wenn beide in der selben leistungsklasse sind, hätte man für den g92 eben genauso viel verlangen können, wenn eben die konkurrenz nicht gewesen wäre.
ist mir aber auch egal, gehört nicht zum thema.

Natuerlich gehoert es nicht zum Thema; G92 war von Anfang an als Performance-Loesung von NVIDIA konzipiert, daran wird sich nichts aendern nur weil Dir es anders in Deine Vorstellung passt.

V2.0
2009-10-25, 16:16:01
Ohne den Preiskampf von AMD hätte NV den G92 zum Preis des G80 verkauft und wieder irgendwelche Marketingfolien erfunden in denen G92 schneller als G80 gewesen wäre.

AMD hat den Markt verändert, man kann ihnen nicht genug danken.

Ailuros
2009-10-25, 16:21:29
Wobei ich mich bis heute frage, wie wohl ein G200 ausgesehen hätte, DP Einheiten weg, höherer Takt und evtl. DX10.1?
Der GT200 schleppt ja einiges mit, vor allem die DP Einheiten von denen man als Gamer -soweit ich informiert bin- keinerlei Nutzen hat.

So gross sind die DP Einheiten nun auch wieder nicht. Unter 40nm nimmt jegliche etwas ueber einen Quadratmillimeter ein. Und wieso hat man vor Jahren die Notwendigkeit fuer DP nicht rechtzeitig erkannt sondern musste zu getrennten Einheiten greifen?

Eher haette das Ding einen neuen Speichercontroller gebraucht und ja natuerlich auch DX10.1. Als nach langer Funkelei endlich das gruene Licht fuer beide kam, wurden die dementsprechenden Projekte (z.B. GT212) irgendwo nach der Mitte ihrer Entwicklung wieder storniert.

Ohne den Preiskampf von AMD hätte NV den G92 zum Preis des G80 verkauft und wieder irgendwelche Marketingfolien erfunden in denen G92 schneller als G80 gewesen wäre.

AMD hat den Markt verändert, man kann ihnen nicht genug danken.

Nein V2.0; es gab roadmaps lange vor der G92 Vorstellung die diese als D9P unter G80 einstuften. Performance-GPUs wurden von beiden IHVs gleichzeitig erfunden und das sogar vor der DX10 Generation.

Soundwave1983
2009-10-25, 16:26:12
So gross sind die DP Einheiten nun auch wieder nicht. Unter 40nm nimmt jegliche etwas ueber einen Quadratmillimeter ein.

Ich erinnere mich dunkel daran, hier im Forum gelesen zu haben, das die DP Einheiten sich wohl negativ auf die Taktbarkeit des Chips ausgewirkt haben sollen. Ob da was dran ist...keine Ahnung. Aber falls es so war/ist, auf jeden Fall ein Minuspunkt.

igg
2009-10-25, 16:28:14
Laut c't kommen Fermi-basierte Grafikkarten nun nicht vor Januar.

Ailuros
2009-10-25, 16:38:23
Ich erinnere mich dunkel daran, hier im Forum gelesen zu haben, das die DP Einheiten sich wohl negativ auf die Taktbarkeit des Chips ausgewirkt haben sollen. Ob da was dran ist...keine Ahnung. Aber falls es so war/ist, auf jeden Fall ein Minuspunkt.

Ich weiss es nicht, aber es wuerde eine ziemlich merkwuerdige Ueberraschung sein wenn dem so waere. DP Einheiten laufen ja auf ALU Frequenz; da arithmetische Einheiten ziemlich tolerant sind wenn es zu Frequenzen kommt kann ich es mir schwer vorstellen. Im Gegensatz haben die GT21x@40nm auch keine maechtige ALU-Frequenz im Vergleich zu GT200, obwohl bei den ersten keine DP Einheiten anwesend sind.

LovesuckZ
2009-10-25, 16:41:04
Laut c't kommen Fermi-basierte Grafikkarten nun nicht vor Januar.

Deren Track-Record ist auch ziemlich schlecht. :rolleyes:

BlackBirdSR
2009-10-25, 16:50:37
Ich erinnere mich dunkel daran, hier im Forum gelesen zu haben, das die DP Einheiten sich wohl negativ auf die Taktbarkeit des Chips ausgewirkt haben sollen. Ob da was dran ist...keine Ahnung. Aber falls es so war/ist, auf jeden Fall ein Minuspunkt.

Ich würde mir eher einbilden, dass die zusätzlichen Einheiten auch zusätzlichen Aufwand für Registerfiles/Ports und Leitungen bedeuten. Das kann mitunter nicht unerheblich ausfallen und dann durchaus ein Problem darstellen bei derart hohen Frequenzen der ALUs.

y33H@
2009-10-25, 17:02:45
und wieder irgendwelche Marketingfolien erfunden in denen G92 schneller als G80 gewesen wäreMit gleichem Takt und SI erreicht ein G92 iirc auch mehr Leistung.

Gast
2009-10-25, 17:09:14
Unabhängig davon, wann denn die neuen Karten kommen werden, frage ich mich, was denn da als erstes genau kommt. Schnelle Enthusiasten-Karten ab 400€ aufwärts (sollten sie schneller als eine 5870 sein) oder kommen da auch performance und entry Karten? Mit high-end alleine wäre NV nach wie vor sehr dünn aufgestellt, da nur (noch) die wenigsten solche Monsterkarten benötigen/wollen.

LovesuckZ
2009-10-25, 17:10:35
Der Preis der Karten passt sich an dem der Konkurrenz an. Sind sie nicht schneller und bieten sie nicht mehr, werden sie kaum mehr kosten. 57x0 ähnliche Karten wird es bis frühsten März nicht geben.

mapel110
2009-10-25, 17:12:54
Gerade WEIL es 2 Jahre keine schnelleren Grafikkarten gab, dürfte der High End Markt nach Leistung dürsten.

Gast
2009-10-25, 17:22:16
Eher haette das Ding einen neuen Speichercontroller gebraucht und ja natuerlich auch DX10.1. Als nach langer Funkelei endlich das gruene Licht fuer beide kam, wurden die dementsprechenden Projekte (z.B. GT212) irgendwo nach der Mitte ihrer Entwicklung wieder storniert.

Was fehlt denn dem Speichercontroller?

Menace
2009-10-25, 17:45:56
Der Preis der Karten passt sich an dem der Konkurrenz an.

Sofern sie es können. Verliere nicht die Kosten außer Acht. Ati weiß, dass sie nur über den Preis gehen können. Folglich achten sie darauf, dass man mehr den Preis senken kann, bevor es schmerzt.

Und woher weiß das ct? Gibt es irgendwelche Quellen oder sind es Gerüchte, von Gerüchten. Laut Ted ist ja alles bis auf die Treiber fertig und wird uns wegblasen (und genau an diesen Aussagen werde ich die neue nvidia bemessen). :D

2B-Maverick
2009-10-25, 17:53:36
Sofern sie es können. Verliere nicht die Kosten außer Acht. Ati weiß, dass sie nur über den Preis gehen können. Folglich achten sie darauf, dass man mehr den Preis senken kann, bevor es schmerzt.

Und woher weiß das ct? Gibt es irgendwelche Quellen oder sind es Gerüchte, von Gerüchten. Laut Ted ist ja alles bis auf die Treiber fertig und wird uns wegblasen (und genau an diesen Aussagen werde ich die neue nvidia bemessen). :D

Also bei DER Verspätung, die das Teil mittlerweile hat, sollte der Treiber schon längst fertig in der Tüte liegen. Die fangen mit der Treiberentwicklung ja nicht erst an, wenn die Fermis :ujump2: fertig aus der Fabrik gewatschelt kommen.

LovesuckZ
2009-10-25, 17:59:26
Sofern sie es können. Verliere nicht die Kosten außer Acht. Ati weiß, dass sie nur über den Preis gehen können. Folglich achten sie darauf, dass man mehr den Preis senken kann, bevor es schmerzt.

Jaja. Die übliche Laier in diesem Forum.

Laut Ted ist ja alles bis auf die Treiber fertig und wird uns wegblasen (und genau an diesen Aussagen werde ich die neue nvidia bemessen). :D

Schöner Trollbeitrag. Das der gute Ted das nicht gesagt hat, spielt natürlich keine Rolle. :rolleyes:

mictasm
2009-10-25, 18:06:42
Also bei DER Verspätung, die das Teil mittlerweile hat, sollte der Treiber schon längst fertig in der Tüte liegen. Die fangen mit der Treiberentwicklung ja nicht erst an, wenn die Fermis :ujump2: fertig aus der Fabrik gewatschelt kommen.
Welche unglaubliche Verspätung hat es denn heute am 25.10.2009?

Menace
2009-10-25, 18:11:51
Jaja. Die übliche Laier in diesem Forum.


Mal wieder keine Argumente? Tröste Dich, nvidia braucht auch nicht über den Preis gehen. Damit kannst Du doch glücklich sein.


Schöner Trollbeitrag. Das der gute Ted das nicht gesagt hat, spielt natürlich keine Rolle. :rolleyes:
Nichts läge mir ferner. Ich bezog mich auf folgende Aussagen:

Lese ich das richtig? Die ersten GT300 Samples sind bereits verschickt? Nur die Treiber spacken noch herum?

Wenn es stimmt - ja.

Und Du hast davor folgendes gepostet:


The HD5870 will not stay the fastest card for long as Nvidia does have the GTX300 series out in test market areas now, but there are some serious driver issues reported by these markets
Ted


Das mit dem wegblasen suche ich noch. Und ob das nun Ted war (den ich gar nicht kenne ;D ) oder Wilhelm von Dingenskirchen ist mir egal.

LovesuckZ
2009-10-25, 18:18:22
Mal wieder keine Argumente? Tröste Dich, nvidia braucht auch nicht über den Preis gehen. Damit kannst Du doch glücklich sein.

Blabla. Ich brauche keine Argumente mehr für eine zweijährige Diskussion, die komischerweise mir recht gibt. Du kommst einfach zu spät.


Nichts läge mir ferner. Ich bezog mich auf folgende Aussagen:
Und Du hast davor folgendes gepostet:
Das mit dem wegblasen suche ich noch. Und ob das nun Ted war (den ich gar nicht kenne ;D ) oder Wilhelm von Dingenskirchen ist mir egal.

Stimmt, nichts läge dir ferner als andere eine falsche Aussage in den Mund zu legen. Ist nur irgendwie doof, wenn andere die Aussagen kennen. Sowas nennt man in der Internetsprache "trolling". Deswegen: Such dir ein anderes Forum, wo die Leute alles glauben.

Menace
2009-10-25, 18:33:30
Naja, höflich bist du ja nicht gerade. Falls ich Dich angegriffen habe, tut es mir leid und ich bitte um Entschuldigung.

Blabla. Ich brauche keine Argumente mehr für eine zweijährige Diskussion, die komischerweise mir recht gibt. Du kommst einfach zu spät.


Natürlich musst Du mir nicht antworten, aber warum antwortest Du dann auf den Beitrag? Natürlich braucht man für Worthülsen keine Argumente. Wenn man Thesen aufstellen möchte dann aber doch (zumindest bei ernsthaften Diskussionen und eine ernsthafte Diskussion möchte ich hier führen). Ich denke nicht, dass nvidia in direkter Konkurrenz steht und deshalb den Preis diktieren kann. Wäre das nicht so und es gäbe Konkurrenz müsste sie über den Preis gehen. Das geht aber nur solange man nicht unter den Gesamtkosten fällt.

Ein Gegenargument könnte sein, dass nvidia den neuen Chip billiger als Ati ihr Konkurrenzprodukt herstellen könnte.


Stimmt, nichts läge dir ferne als andere eine falsche Aussage in den Mund zu legen. Ist nur irgendwie doof, wenn andere die Aussagen kennen. Sowas nennt man in der Internetsprache "trolling". Deswegen: Such dir ein anderes Forum, wo die Leute alles glauben.

Welche Aussagen meinst Du jetzt genau und ich habe hier nur andere postings zitiert (Namen dabei genannt).
Das Zitat spricht doch von Treiberproblemen und dass sie eine schnellere Karte wird. Wo habe ich jetzt getrollt? Ich habe sogar Dich zitiert. Falls ich was falsch verstanden habe, bitte ich um Aufklärung (natürlich darfst Du auch beleidigen, falls es Dir näher liegt, nur dann bin ich auch nicht schlauer).

Nicht Ted war das mit dem wegblasen sondern:

"Nvidia answered its first line of questions... [...]
"Finally, Fermi has plenty of “traditional” graphics goodness that we haven’t talked about yet. Fermi’s graphics architecture is going to blow you guys away! Stay tuned."
Quelle: http://forum.beyond3d.com/showpost.php?p=1350711&postcount=9

LovesuckZ
2009-10-25, 18:41:46
Natürlich musst Du mir nicht antworten, aber warum antwortest Du dann auf den Beitrag? Natürlich braucht man für Worthülsen keine Argumente. Wenn man Thesen aufstellen möchte dann aber doch (zumindest bei ernsthaften Diskussionen und eine ernsthafte Diskussion möchte ich hier führen). Ich denke nicht, dass nvidia in direkter Konkurrenz steht und deshalb den Preis diktieren kann. Wäre das nicht so und es gäbe Konkurrenz müsste sie über den Preis gehen. Das geht aber nur solange man nicht unter den Gesamtkosten fällt.

Warum zitierst du mich? Ich antworte so, wie es als richtig empfinde. Ich habe längst aufgehört in diesem Forum über Dinge zu diskutieren, die dauernd von AMD Fanboys und Trolle immer und immer wieder falsch wiedergegeben werden.
Natürlich steht nVidia in direkter Konkurrenz und natürlich werden sie deswegen die Preise an die Konkurrenz anpassen. Da kannst du mit Produktionskosten kommen und gehen wie du willst: Es wird so passieren.


Welche Aussagen meinst Du jetzt genau und ich habe hier nur andere postings zitiert (Namen dabei genannt).
Das Zitat spricht doch von Treiberproblemen und dass sie eine schnellere Karte wird. Wo habe ich jetzt getrollt? Ich habe sogar Dich zitiert. Falls ich was falsch verstanden habe, bitte ich um Aufklärung (natürlich darfst Du auch beleidigen, falls es Dir näher liegt, nur dann bin ich auch nicht schlauer).

Nicht Ted war das mit dem wegblasen sondern:

"Nvidia answered its first line of questions... [...]
"Finally, Fermi has plenty of “traditional” graphics goodness that we haven’t talked about yet. Fermi’s graphics architecture is going to blow you guys away! Stay tuned."
Quelle: http://forum.beyond3d.com/showpost.php?p=1350711&postcount=9

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7618647#post7618647

Schon doof, wenn man innerhalb von 5 Minuten alles vergisst, oder? :rolleyes:

Menace
2009-10-25, 18:51:17
Warum zitierst du mich? Ich antworte so, wie es als richtig empfinde. Ich habe längst aufgehört in diesem Forum über Dinge zu diskutieren, die dauernd von AMD Fanboys und Trolle immer und immer wieder falsch wiedergegeben werden.


Ich verstehe Dich zwar nicht, aber es ist witzig. Zeige mir meine Fehler und sprich nicht in Rätsel. Zitiere das "trollende" dabei, zitiere meine AMD-Fanboyaussage da oben.


Natürlich steht nVidia in direkter Konkurrenz und natürlich werden sie deswegen die Preise an die Konkurrenz anpassen. Da kannst du mit Produktionskosten kommen und gehen wie du willst: Es wird so passieren.


Und ich habe die Vermutung, dass die große nvidia-Karte konkurrenzlos sein wird und nicht über den Preis sich verkaufen muss. Falls sie 1:1 mit der HD5870 konkurriert sehe ich (laut Angaben über die Größe und Komplexität des Chips) bei nvidia Nachteile.


http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7618647#post7618647
Schon doof, wenn man innerhalb von 5 Minuten alles vergisst, oder? :rolleyes:

Worauf beziehst Du Dich. Ted sagte, dass Fermi schneller sein wird und das nur noch die Treiber Probleme machen; nvidia sagte, sie bläst uns weg. Hängst Du Dich daran auf, dass Ted nicht von "blow" gesprochen hat? Deine Aussagen sind für mich ja schlimmer als beim Orakel von Delphi. ;)

LovesuckZ
2009-10-25, 19:00:07
Vielleicht solltest du nochmal darüber nachdenken, was der Gast angesprochen hat:

Unabhängig davon, wann denn die neuen Karten kommen werden, frage ich mich, was denn da als erstes genau kommt. Schnelle Enthusiasten-Karten ab 400€ aufwärts (sollten sie schneller als eine 5870 sein) oder kommen da auch performance und entry Karten? Mit high-end alleine wäre NV nach wie vor sehr dünn aufgestellt, da nur (noch) die wenigsten solche Monsterkarten benötigen/wollen.
Der Preis der Karten passt sich an dem der Konkurrenz an. Sind sie nicht schneller und bieten sie nicht mehr, werden sie kaum mehr kosten. 57x0 ähnliche Karten wird es bis frühsten März nicht geben.

Dann kommt das:
Sofern sie es können. Verliere nicht die Kosten außer Acht. Ati weiß, dass sie nur über den Preis gehen können. Folglich achten sie darauf, dass man mehr den Preis senken kann, bevor es schmerzt.

Du siehst - die letzten zwei Jahre haben gezeigt, dass sie es können. Deswegen rede ich auch nicht mehr über solchen Unsinn.


Worauf beziehst Du Dich. Ted sagte, dass Fermi schneller sein wird und das nur noch die Treiber Probleme machen; nvidia sagte, sie bläst uns weg. Hängst Du Dich daran auf, dass Ted nicht von "blow" gesprochen hat? Deine Aussagen sind für mich ja schlimmer als beim Orakel von Delphi. ;)

Nö, meine Aussage war präzise und eindeutig. Das du gelogen hast, ist nicht mein Problem:

Laut Ted ist ja alles bis auf die Treiber fertig und wird uns wegblasen (und genau an diesen Aussagen werde ich die neue nvidia bemessen). :D

Aber danke für das Gespräch, meine Ignore-Liste freut sich über einen neuen Besucher.

Ailuros
2009-10-25, 19:11:28
Was fehlt denn dem Speichercontroller?

Es ist praktisch der gleiche wie auf G8x/9x. Eventuell haette GT200 eine Weiterentwicklung benoetigt.

Menace
2009-10-25, 19:14:00
Du siehst - die letzten zwei Jahre haben gezeigt, dass sie es können. Deswegen rede ich auch nicht mehr über solchen Unsinn.


Sie konnten es, aber teilweise (stimmen die Gerüchte im Internet) unter Verlust. Dass sie es damals konnten, heißt nicht, dass sie das immer weiter treiben können. Bliebe dir Frage nach dem Trollen und nach der Fan-Boy-Aussage.


Nö, meine Aussage war präzise und eindeutig. Das du gelogen hast, ist nicht mein Problem:


Wo habe ich gelogen? Du hast mir meinen Fehler immer noch nicht genannt. Das es nicht Ted mit dem "blow" war? Aber es war doch nvidia, die die Aussagen machten. Alle anderen Aussagen stammten von Ted. Falls Dir das Aufstößt: Mea culpa und Asche auf mein Haupt. :( Gelogen würde ich es nicht nennen, ich verwechselte nur ein Autor (der Kern der Sache bleibt aber gleich). Inhaltlich konntest Du aber bis jetzt kein Argument mir liefern. Ist das mit den Thesen so schwer? :confused:


Aber danke für das Gespräch, meine Ignore-Liste freut sich über einen neuen Besucher.

Das bleibt Dir unbenommen. Finde ich persönlich schade, vor allem weil Du so viele Fragen, die ich Dir stellte offen ließest, aber ich werde es überstehen. ;)

Ailuros
2009-10-25, 19:33:45
Bleibt bitte so sachlich wie moeglich Ihr beiden und buegelt im Notfall jegliche persoenliche Meinungsverschiedenheit via PM aus.

sklave_gottes
2009-10-25, 19:39:38
Was fehlt denn dem Speichercontroller?

Ich denke mal suport für gddr4/5

mfg martin

Gast
2009-10-25, 19:43:17
Ich denke mal suport für gddr4/5

mfg martin
Nö, GDDR5 ist seit GT215,216,218 drin, GDDR4 juckt nicht.

sklave_gottes
2009-10-25, 19:54:18
Nö, GDDR5 ist seit GT215,216,218 drin, GDDR4 juckt nicht.


wir reden hier vom g200 und der speichec. hat keinen suport für gddr5.
das sieht man an dem 0,8 ns gddr3 speicher der 285gtx. denn der kostet mehr wie die günstigsten gddr5 speicher.

GT215,216,218 sind viel später gekommen. Und wenn ich ganz böse bin: das hilft den karten auch nicht weiter.....

mfg martin

LovesuckZ
2009-10-25, 20:01:24
GDDR5 war nie geplant für den GT200 - deswegen gibt es das 512bit Speicherinterface.

Gast
2009-10-25, 20:12:36
GT215,216,218 sind viel später gekommen. Und wenn ich ganz böse bin: das hilft den karten auch nicht weiter.....

Quatsch, mit höchtens GDDR3 wären entsprechende kleine Karten ziemlich blöd dran.
Dickeres SI und teurer VRAM, keine gute Kombination, gerade wenns billig sein soll.

sklave_gottes
2009-10-25, 20:17:02
Quatsch, mit höchtens GDDR3 wären entsprechende kleine Karten ziemlich blöd dran.
Dickeres SI und teurer VRAM, keine gute Kombination, gerade wenns billig sein soll.


sag mal wovon redest du ? ich habe nie das gegenteil behauptet.

die karten sind einfach uninteresannt für den retail markt.

reine oem karten!

mfg martin

Gast
2009-10-26, 08:31:50
Ich weiss es nicht, aber es wuerde eine ziemlich merkwuerdige Ueberraschung sein wenn dem so waere. DP Einheiten laufen ja auf ALU Frequenz; da arithmetische Einheiten ziemlich tolerant sind wenn es zu Frequenzen kommt kann ich es mir schwer vorstellen. Im Gegensatz haben die GT21x@40nm auch keine maechtige ALU-Frequenz im Vergleich zu GT200, obwohl bei den ersten keine DP Einheiten anwesend sind.

Gibts denn schon Gerüchte ob man mit GT300 es weiter nach oben mit der Taktrate geschafft hat? Als sich die Probleme mit GT200 anbahnden hat doch nV sicher Zeit gehabt das Design weiter zu verbreitern, anstelle bestehende Einheiten höher zu takten. Das Spiel ist irgendwie seit Jahren das gleiche, nV bringt eine sehr breite, niedrig getaktete Architektur, AMD hingegen züchtet seine GPUs aufgrund hoher Taktraten.

AnarchX
2009-10-26, 09:05:49
CHW: Are Gamers the most profitable market for NVIDIA?
JHH: I would say probably not, 2/3 of our revenue come from games but 2/3 of our profit comes from Quadro workstations, you know NVIDIA is the words largest workstation technology provider, our market share is about 95% in this market, every single company, every single country, every single car, oil, plane, train, shoes, etc… uses Quadro technology, this is the highest market share of any workstation company in the history of making but the workstation is not very large but is very important.
http://www.chw.net/2009/10/chw-entrevista-a-jen-hsun-huang/2/#

Eben eine solche Entwicklung wird man wohl auch auf dem HPC-Markt sehen.

Ailuros
2009-10-26, 10:02:25
Gibts denn schon Gerüchte ob man mit GT300 es weiter nach oben mit der Taktrate geschafft hat? Als sich die Probleme mit GT200 anbahnden hat doch nV sicher Zeit gehabt das Design weiter zu verbreitern, anstelle bestehende Einheiten höher zu takten. Das Spiel ist irgendwie seit Jahren das gleiche, nV bringt eine sehr breite, niedrig getaktete Architektur, AMD hingegen züchtet seine GPUs aufgrund hoher Taktraten.

Ehrlich gesagt keine Ahnung was die GF100 Frequenzen betrifft, aber 650-700MHz erscheinen mir nicht als unmoeglich. GF100 hat so viele Aenderungen im Vergleich zu GT200 dass mir der Speichercontroller u.a. keine Sorgen mehr macht. Nichtdestominder brauchen sie ein gewisses Frequenz-Nivaeu um sowohl von der heutigen GTX295 als auch 5870 einen gesunden Leistungsabstand zu haben.

tombman
2009-10-26, 10:27:50
Ich glaub nicht, daß ne 7 an der Hunderterstelle der Frequenz stehen wird, eher eine 6...

MadManniMan
2009-10-26, 10:33:34
Woraus schließt Du das?

Gast
2009-10-26, 10:58:56
Ich denke mal suport für gddr4/5


Mit einem 512bit-Interface ist das auch nicht notwendig.

reunion
2009-10-26, 11:03:34
http://www.chw.net/2009/10/chw-entrevista-a-jen-hsun-huang/2/#

Eben eine solche Entwicklung wird man wohl auch auf dem HPC-Markt sehen.

Das ist aber auch nur wegen der aktuellen Preiskampfes so. Zu G80 Zeiten und davor holte man auch aus dem Spielermarkt wesentlich mehr Gewinn, jetzt schreibt man dort ja laufend Verluste. Und die 95% Marktanteil sind auch etwas übertrieben.

V2.0
2009-10-26, 11:33:17
Ich würde das eher als Kapitulation vor AMD sehen. Man verkriecht sich in eine Nische, da man den Druck nicht mehr standhalten kann.
Konzentriert man sich auf den Workstation und HPC Markt, dann muss man nicht mehr mit der schnellen Refreshfolge von AMD mithaltewn, man muss nicht mit ihnen konkurrieren wenn die Fertigung bei GF ihnen Vorteile in die Hand spielt und man kann sich dem Preiskampf entziehen, da die eigene Strategie gescheitert ist und der Monsterchip im Gamermarkt ein totes Produkt ist, das sich nicht mehr mit Gewinn vermarkten läst, da die Margen durch die Konkurrenz kleiner wurden.

Gast
2009-10-26, 11:50:03
So ein Blödsinn!

tombman
2009-10-26, 12:05:13
Ich würde das eher als Kapitulation vor AMD sehen. Man verkriecht sich in eine Nische, da man den Druck nicht mehr standhalten kann.
Konzentriert man sich auf den Workstation und HPC Markt, dann muss man nicht mehr mit der schnellen Refreshfolge von AMD mithaltewn, man muss nicht mit ihnen konkurrieren wenn die Fertigung bei GF ihnen Vorteile in die Hand spielt und man kann sich dem Preiskampf entziehen, da die eigene Strategie gescheitert ist und der Monsterchip im Gamermarkt ein totes Produkt ist, das sich nicht mehr mit Gewinn vermarkten läst, da die Margen durch die Konkurrenz kleiner wurden.
Das würde nur gelten, wenn die Produkte nicht schneller oder besser wären. Für bessere Produkte kann man auch mehr verlangen.
AMD ist auch günstiger als Intel, aber Intel hat mehr Leistung ;) Ergo können beide überleben, der eine eben mit etwas günstigeren Produkten, der
andere mit performanteren ;)

Btw, selbst falls du Recht behalten solltest- wenn NV aus dem Gamermarkt aussteigt, kannst dir gleich eine Konsole kaufen, weil du dann nix außer 100% ports mehr kriegen wirst. In einer Intel/AMD-ONLY Gamerwelt willst du nicht leben :devil:

sklave_gottes
2009-10-26, 12:34:38
Mit einem 512bit-Interface ist das auch nicht notwendig.


Doch, es ist einfach günstiger. Denn der GDDR3 Speicher auf den 285gtx Karten ist teuer als der biligste GDDR5 Speicher. Vom speed her ganz zu schweigen.

Gast
2009-10-26, 12:47:14
Doch, es ist einfach günstiger. Denn der GDDR3 Speicher auf den 285gtx Karten ist teuer als der biligste GDDR5 Speicher. Vom speed her ganz zu schweigen.


Das hat auf die Leistung aber keinen Einfluss.

Man kann jetzt natürlich im Nachhinein sagen, dass möglicherweise ein kleineres Interface mit GDDR5 möglicherweise wirtschaftlicher gewesen wäre.

NVidia ist allerdings den sicheren Weg gegangen mit bewährtem Speicher und breitem Interface, eine Designentscheidung die schon viel früher getroffen wurde, als man nicht wissen konnte ob zum Launch der Karten überhaupt genügend schneller GDDR5-Speicher erhältlich ist. Und wenn G200 planmäßig erschienen wäre, hätte es den wohl auch nicht gegeben.

Dural
2009-10-26, 13:07:33
Also bei DER Verspätung, die das Teil mittlerweile hat, sollte der Treiber schon längst fertig in der Tüte liegen. Die fangen mit der Treiberentwicklung ja nicht erst an, wenn die Fermis :ujump2: fertig aus der Fabrik gewatschelt kommen.

Welche Verspätung? GF100 war doch schon immer für Q4 2009 geplant und das ist noch nicht vorbei...

aber ja, es scheint nicht gerade so als ob sie den Termin einhalten können...

Sofern sie es können. Verliere nicht die Kosten außer Acht. Ati weiß, dass sie nur über den Preis gehen können. Folglich achten sie darauf, dass man mehr den Preis senken kann, bevor es schmerzt.


Ja können sie, weil die kostendifferenz zwischen GF100 und RV870 DEUTLICH kleiner ausfällt als noch zwischen GT200 und RV770!!!

Die DIE ist nicht mehr so viel Grösser als noch früher, das SI ist nur noch 128Bit breiter als bei AMD, es wird die selbe fertigung verwendet!

Wenn der GF100 die erwartete Leistung auch bringt, dürfte eher AMD Probleme mit dem Preis bekommen, den die Aktuellen Preise könnten sie unmöglich halten! Den die 5870 ist keine Mainstream Karte mehr, sondern schon fast richtiges High-End!

Sven77
2009-10-26, 13:12:10
Und die 95% Marktanteil sind auch etwas übertrieben.

Ach so? Und was soll sonst in Workstations verbaut sein? FireGLs? ;D

Nazar
2009-10-26, 13:28:29
Welche Verspätung? GF100 war doch schon immer für Q4 2009 geplant und das ist noch nicht vorbei...

aber ja, es scheint nicht gerade so als ob sie den Termin einhalten können...



Ja können sie, weil die kostendifferenz zwischen GF100 und RV870 DEUTLICH kleiner ausfällt als noch zwischen GT200 und RV770!!!

Die DIE ist nicht mehr so viel Grösser als noch früher, das SI ist nur noch 128Bit breiter als bei AMD, es wird die selbe fertigung verwendet!

Wenn der GF100 die erwartete Leistung auch bringt, dürfte eher AMD Probleme mit dem Preis bekommen, den die Aktuellen Preise könnten sie unmöglich halten! Den die 5870 ist keine Mainstream Karte mehr, sondern schon fast richtiges High-End!

Laut einiger Quellangaben in diesem Forum, soll der G300 doch erst oder wenn überhaupt, im 1. Quartal 2010 wirklich lieferbar sein.
Zumindest gibt es für einen Launch recht wenig Fakten zum Chip, was diese Annahmen bestätigen würde.
Bei dem G200 war gut ein halbes Jahr vor der Verfügbarkeit sehr viel mehr vom Chip zu erfahren, als jetzt beim G300.

Ich würde mich natürlich freuen wenn es anders wäre aber so recht kann ich an einem Release in diesem Jahr nicht mehr glauben.

Von der Leistung her würde ich nicht all zu viel erwarten, da selbst der RV870 bewiesen hat, dass Papier geduldig ist. Laut Papier fehlt dem RV870 ja einiges an Leistung. Zumindest sollte er eigentlich um einiges schneller sein als er jetzt ist! Wenn die Chips von der Leistung eng zusammen liegen, wird es für den Kunden preiswerter werden, da beide um dessen "Gunst" über den Faktor Geld buhlen müssten. ;)

Gast
2009-10-26, 13:29:10
Ja können sie, weil die kostendifferenz zwischen GF100 und RV870 DEUTLICH kleiner ausfällt als noch zwischen GT200 und RV770!!!


Ohne Kentniss über die genauen Kosten fällt eine Beurteilung hier seher schwer. Ich behaupte mal frech, dass AMD die 5870 auch jetzt schon für 200€ verkaufen könnte. Letztendlich hängt alles von den Yields und den Chippreisen ab. Der Rest unterscheidet sich ja kaum. Warten wir mal ab wenn wir die NV karten überhaupt sehen.

Ailuros
2009-10-26, 13:31:45
Das ist aber auch nur wegen der aktuellen Preiskampfes so. Zu G80 Zeiten und davor holte man auch aus dem Spielermarkt wesentlich mehr Gewinn, jetzt schreibt man dort ja laufend Verluste. Und die 95% Marktanteil sind auch etwas übertrieben.

95% ist zugegeben der groesste Marktanteil den sie je erreicht haben, aber konstant ueber 85% und ergo momentan fast ein Monopol-Prozentual war es schon immer. Wer erzaehlt denn ueberhaupt den Stuss dass NVIDIA vor und zu G80 Zeiten keinen Gewinn aus dem Profi-Markt hatte? Vor einer Ewigkeit gab es noch 3DLabs als Mitspieler in diesem Markt, wie "gewinnreich" diese war brauch ich Dir wohl nicht zu erzaehlen.

Menace
2009-10-26, 13:33:56
Die DIE ist nicht mehr so viel Grösser als noch früher, das SI ist nur noch 128Bit breiter als bei AMD, es wird die selbe fertigung verwendet!

Wenn der GF100 die erwartete Leistung auch bringt, dürfte eher AMD Probleme mit dem Preis bekommen, den die Aktuellen Preise könnten sie unmöglich halten! Den die 5870 ist keine Mainstream Karte mehr, sondern schon fast richtiges High-End!

Ah, ok. Die momentane Preis von Ati kommen momentan ja noch nicht zum Tragen, da die Nachfrage das Angebot übersteigt. Mir kommt Ati momentan auch ordentlich nervös vor, bzgl. was auf sie zurollt.

Da Hemlock für den 20. November angekündigt wurde, könnte die Veröffentlichung erster Test/Messergebnisse der Fermi Ende November durchaus möglich sein.

aths
2009-10-26, 13:35:43
Es ist praktisch der gleiche wie auf G8x/9x. Eventuell haette GT200 eine Weiterentwicklung benoetigt.GT200 kann doch doppelt so viele Z-Samples pro ROP-Partition testen.

Ailuros
2009-10-26, 13:37:47
Laut einiger Quellangaben in diesem Forum, soll der G300 doch erst oder wenn überhaupt, im 1. Quartal 2010 wirklich lieferbar sein.
Zumindest gibt es für einen Launch recht wenig Fakten zum Chip, was diese Annahmen bestätigen würde.
Bei dem G200 war gut ein halbes Jahr vor der Verfügbarkeit sehr viel mehr vom Chip zu erfahren, als jetzt beim G300.

Seit dem Fruehling dieses Jahres und nach mehreren Fiaskos hat die PR/marketing Abteilung ein absolutes Verbot jegliche Einzehlheit nach aussen zu lassen. GT200 haette auch nach dieses Heinis vor dessen Launch um einiges schneller sein sollen als es wirklich war. Welche Luege willst Du Dir genau diesmal andrehen lassen?

Ich würde mich natürlich freuen wenn es anders wäre aber so recht kann ich an einem Release in diesem Jahr nicht mehr glauben.

Release vielleicht schon aber an anstaendige Verfuegbarkeit kann ich bei bestem Willen vor Weihnachten nichts erwarten.

Von der Leistung her würde ich nicht all zu viel erwarten, da selbst der RV870 bewiesen hat, dass Papier geduldig ist. Laut Papier fehlt dem RV870 ja einiges an Leistung. Zumindest sollte er eigentlich um einiges schneller sein als er jetzt ist! Wenn die Chips von der Leistung eng zusammen liegen, wird es für den Kunden preiswerter werden, da beide um dessen "Gunst" über den Faktor Geld buhlen müssten. ;)

Tja Wunder sollte man zwar keine erwarten, aber die Leistungssteigerung ist um einiges anstaendiger diesmal als von G80 auf GT200. Ist so oder so normal da es sich um eine neue Generation handelt.

Ailuros
2009-10-26, 13:45:05
GT200 kann doch doppelt so viele Z-Samples pro ROP-Partition testen.

Speichercontroller ist eine sehr generelle Bezeichnung; um es genauer zu machen das Problem liegt in der crossbar.

Gast
2009-10-26, 14:09:41
Speichercontroller ist eine sehr generelle Bezeichnung; um es genauer zu machen das Problem liegt in der crossbar.

Und was für ein Problem hat der?

LovesuckZ
2009-10-26, 14:51:36
http://www.chw.net/2009/10/chw-entrevista-a-jen-hsun-huang/2/#

Eben eine solche Entwicklung wird man wohl auch auf dem HPC-Markt sehen.

Die Aussage ist aber auch nicht mehr up-to-date. Im 2.Quartal kam nur noch 45% der Umsatzes aus der "GamerEcke". Im 1.Quartal waren es auch nur noch 55%. Die Wirtschaftskrise hat ihre Spuren hier deutlich hinterlasen.

95% ist zugegeben der groesste Marktanteil den sie je erreicht haben, aber konstant ueber 85% und ergo momentan fast ein Monopol-Prozentual war es schon immer. Wer erzaehlt denn ueberhaupt den Stuss dass NVIDIA vor und zu G80 Zeiten keinen Gewinn aus dem Profi-Markt hatte? Vor einer Ewigkeit gab es noch 3DLabs als Mitspieler in diesem Markt, wie "gewinnreich" diese war brauch ich Dir wohl nicht zu erzaehlen.

Im Desktop-Wortstation-Markt liegt man bei > 90% Marktanteile. AMD konnte komischerweise nur im Notebookbereich Land gut machen.

sklave_gottes
2009-10-26, 14:59:32
Das hat auf die Leistung aber keinen Einfluss.

Man kann jetzt natürlich im Nachhinein sagen, dass möglicherweise ein kleineres Interface mit GDDR5 möglicherweise wirtschaftlicher gewesen wäre.

NVidia ist allerdings den sicheren Weg gegangen mit bewährtem Speicher und breitem Interface, eine Designentscheidung die schon viel früher getroffen wurde, als man nicht wissen konnte ob zum Launch der Karten überhaupt genügend schneller GDDR5-Speicher erhältlich ist. Und wenn G200 planmäßig erschienen wäre, hätte es den wohl auch nicht gegeben.

Du verstehst mich völlig falsch....

Der GDDR3 Speicher(0,8ns) auf der 285GTX + 512Bit Speicherbus ist teuer als der günstigste GDDR5 Speicher + 512Bit Speicherbus.
Und dann hast du wohl mehr Speed. Denn GDDR5 mit selben Speicherbus immer > GDDR3

Du must einfach aus der vorstellung raus das GDDR5 Speicher immer Teuer ist wie GDDR3. Ich meine nur den Speicher alleine!
Günstigster GDDR5 Speicher wie er auf der HD4770 verbaut ist, ist wesentlich günstiger als der GDDR3 Speicher auf der 285GTX.

siehe hier:
http://www.3dcenter.org/artikel/herstellungspreise-aktueller-grafikkarten

Und ich habe auch nie behauptet das es eine sehr schlechte Idee war auf ein 512bit Speicherinterface zu setzen.
Ich habe nur gesagt das es dem g200 an Suport für GDDR5 fehlt.

mfg martin

Undertaker
2009-10-26, 15:10:28
siehe hier:
http://www.3dcenter.org/artikel/herstellungspreise-aktueller-grafikkarten


Das ist aber eine sehr eigenartige Tabelle... Warum verschiedene Preise für ein und den selben GT200/RV770 Chip, je nach dem, auf welchem Modell er verbaut ist? Der RAM auf einer HD4550 soll mehr kosten als auf einer HD4870 (beide 512MB)? Falsche Speichergrößen bei GTX275 und GTX280...

Das sieht nicht sehr seriös aus...

aylano
2009-10-26, 15:39:18
Ja können sie, weil die kostendifferenz zwischen GF100 und RV870 DEUTLICH kleiner ausfällt als noch zwischen GT200 und RV770!!!

Die DIE ist nicht mehr so viel Grösser als noch früher, das SI ist nur noch 128Bit breiter als bei AMD, es wird die selbe fertigung verwendet!

Ein GT200 & RV770 - Verhältnis war eine absolute katastrophe für Nvidia. Es fiel im Geschäftsbericht/Marktanteile nicht so auf, weil die ganze RV7x0-Produktlinie erst 2Q 2009 voll wirksam war.
Im Notebook-Markt wurde die RV7x0-Architektur als letztes eingeführt und im 2Q 2009 hatte Nvidia da erhebliche Marktanteil-Rückgänge.

Da ATI jetzt als erster da ist, wäre ein GT200 & RV770-Verhältnis jetzt im Grafik-Game-sekment schon fast tödlich, da die Architektur für die nächsten Jahre steht.

GT200 vs. RV770-Verhältnis dürfte ein Einzelfall bleiben, da sie jetzt in Sachen Fertigung nicht mehr so konservativ sind, aber trotzdem könnten die Produktionskosten-Differenz, auch wenn sie dann kleiner ausfallen, nicht außer Acht lassen.

Wenn der GF100 die erwartete Leistung auch bringt, dürfte eher AMD Probleme mit dem Preis bekommen, den die Aktuellen Preise könnten sie unmöglich halten! Den die 5870 ist keine Mainstream Karte mehr, sondern schon fast richtiges High-End!
Wichtig ist beim Preis: Performance pro Watt & Performance pro mm².

Nicht die reine Performance im High-End Markt.
Der GTX285 sah recht effizient gegen HD4890 aus, aber dieser hatte eine deutlich niedere Volt.
Aber die Mainstream & Low-GPUs hatten diesen Volt-Vorteil nicht mehr und sie sahen schlechter aus.

Der HD 5870 sieht momentan gut aus, da sie neben den hohen Takt auch noch die Volt deutlich senken konnten.
IMO kann GF100 nur den HD 5870 extrem schlagen, wenn es neben einem guten gesunden Takt auch noch die Volts deutlich senken können, abgesehen von einem noch ungenützten GT200-Potential.

Coda
2009-10-26, 15:42:14
Kannst du bitte Spannung sagen... da rollen sich einem ja die Fußnägel hoch wenn man das liest.

Und natürlich wird bei einer neuen Process-Node auch weniger Spannung gebraucht werden. Das war noch nie anders.

Gast
2009-10-26, 16:10:26
Das ist aber eine sehr eigenartige Tabelle... Warum verschiedene Preise für ein und den selben GT200/RV770 Chip, je nach dem, auf welchem Modell er verbaut ist?

Das wird ganz einfach der Preis sein, den ein Boardpartner dem Chipchersteller für nen Chip des entsprechenden speed bins bezahlen muss.

Analog sind z.B. Q9450, Q9550, Q9650 und QX9770 auch ein und derselbe Chip, koste(te)n aber Reseller und schließlich den Endkunden auch jeweils unterschiedlich viel Cash...

Dural
2009-10-26, 16:30:07
Da ATI jetzt als erster da ist, wäre ein GT200 & RV770-Verhältnis jetzt im Grafik-Game-sekment schon fast tödlich, da die Architektur für die nächsten Jahre steht.

GT200 vs. RV770-Verhältnis dürfte ein Einzelfall bleiben, da sie jetzt in Sachen Fertigung nicht mehr so konservativ sind, aber trotzdem könnten die Produktionskosten-Differenz, auch wenn sie dann kleiner ausfallen, nicht außer Acht lassen.

Wichtig ist beim Preis: Performance pro Watt & Performance pro mm².

Der HD 5870 sieht momentan gut aus, da sie neben den hohen Takt auch noch die Volt deutlich senken konnten.
IMO kann GF100 nur den HD 5870 extrem schlagen, wenn es neben einem guten gesunden Takt auch noch die Volts deutlich senken können, abgesehen von einem noch ungenützten GT200-Potential.

Bei NV steht die Architektur für die nächsten Jahre mit dem GF100 fest, bei AMD aber sicher nicht! Wir haben beim RV870 im grunde ja immer noch ein R6xx

Wenn der GF100 genug Leistung bringt, kann NV ganz gut mit einem beschnittenen GF100 ein Preislich guter Gegenkantitat zur 5870 bringen

Die Karte könnte dann in etwas so ausschauen:

256Bit / 32ROPs
448SP (je nach leistung sogar weniger?!?)
112TMUs
1GB GDDR5

und mit recht bescheidenem Takt (wie man es von NV eigentlich auch gar nicht anders gewohnt ist) sicher auch in Performance pro Watt der 5870 überlegen

klar man hat die grössere DIE, aber dafür kann man gut den "abfall" entsorgen ;)

|-Sh0r7y-|
2009-10-26, 16:41:09
Nvida bringt hoffentlich gleich eine 2GB Karte.
1GB ist mir im Jahr 2010 zu wenig.

mapel110
2009-10-26, 16:43:38
Nvida bringt hoffentlich gleich eine 2GB Karte.
1GB ist mir im Jahr 2010 zu wenig.
Passend zum Interface sind wohl eher 1.5 GB angesagt, an 3 GB glaube ich noch nicht.

Coda
2009-10-26, 17:40:39
Und was für ein Problem hat der?
Die Verbindung zwischen den Cores und den Speichercontrollern hatte Einschränkungen bei den Zugriffsmustern soweit ich weiß.

Selbst G80 hat darunter wohl schon gelitten, was man schön an einer 9600GT sieht die mit nur 64 ALUs nicht viel langsamer ist.

reunion
2009-10-26, 17:40:50
Ach so? Und was soll sonst in Workstations verbaut sein? FireGLs? ;D

Auch wenn du das witzig findest: Ja. Auf 95% kam man zu G80-Zeiten, hat ja AiL schon ausgeführt.

aylano
2009-10-26, 18:41:29
Und natürlich wird bei einer neuen Process-Node auch weniger Spannung gebraucht werden. Das war noch nie anders.
Spannungssenkungen sind schon üblich, aber AFAIK nicht in dem Ausmaß.
Bei so einem Sprung müsste die Spannung die 90nm-ATI-GPUs bei ca. 1,47 gelegen sein.
Weiß wer Zahlen?

Es gab zwischen HD 4870 & GTX280/285 einen deutlichen Spannungsunterschied.
Warum immer das so war, aber der Idle-Verbrauch war ja auch eine Schwachstelle des HD 4870.

Wenn "beide Schwachstellen" beim HD5870 behandeltworden sind und er eine überdurchschnittliche Spannungssenkung erhielt, dann wird es für den GF100 nicht einfacher mit doppelten Transistoren den Stromverbrauch zu halten.

Bei NV steht die Architektur für die nächsten Jahre mit dem GF100 fest, bei AMD aber sicher nicht! Wir haben beim RV870 im grunde ja immer noch ein R6xx
Das sehe ich eher als Vorteil für ATI, wenn sie im nächsten Jahr mit einer neuen Architektur/Version/Überarbeitung daherkommen und die Effizienz steigern könnte.

Die Karte könnte dann in etwas so ausschauen:
Das Spannende ist der Takt, der Stromverbrauch und die Yieldrate.
Und wenn mindestens eines davon nicht geklappt, dann kann der Rest theoretisch noch so gut aussehen.

Gast
2009-10-26, 19:22:55
Das ist aber eine sehr eigenartige Tabelle... Warum verschiedene Preise für ein und den selben GT200/RV770 Chip, je nach dem, auf welchem Modell er verbaut ist? Der RAM auf einer HD4550 soll mehr kosten als auf einer HD4870 (beide 512MB)? Falsche Speichergrößen bei GTX275 und GTX280...


Und gerade 1$ unterschied beim PCB zwischen einem 256 und einem 512bit Interface?

Das wäre ja geradezu lachhaft, wenn es wirklich so wenig wäre, warum verbauen dann nicht alle große Interfaces?

AnarchX
2009-10-26, 19:24:42
Nvidia ist eben sehr konservativ was Taktraten angeht, was man auch sieht, wenn man mit LN2 die Grenzen auslotet, da liegen wieder Radeon und GeForce bei der maximalen Frequenz dichter beeinander, jedenfalls im Bezug auf die vergleichbare ROP/TMU-Domain.

Bei GF100 muss man eben sehen, dass er es wohl im Worst-Case auch mit ~500/1100MHz GPU und einem dazu passend auf 256/320-Bit reduzierten SI mit Cypress aufnehmen könnte.
Zwar bleibt die größere Die-Size, deren Unterschied aber immerhin kleiner wäre als bei GT200 vs RV770.

Was passiert, wenn man bei ATis Strategie Probleme mit dem Takt hat, hat ja schon R520 und R600 gezeigt.

Dural
2009-10-26, 19:52:59
Und gerade 1$ unterschied beim PCB zwischen einem 256 und einem 512bit Interface?

Das wäre ja geradezu lachhaft, wenn es wirklich so wenig wäre, warum verbauen dann nicht alle große Interfaces?

Ich halte die Preise doch für sehr realistisch! Leider wurde die GTX275 / GTX280 vertauscht und es hat sonst noch kleine Fehler drin...

aber +/- sicher nicht mal so weit weg vom tatsächlichem Preis!

man muss natürlich auch sagen das schon 1 Doller in der Herstellung beim End User schon mal 3-5.- Doller mehr bedeuten kann, wenn man mehrere Pos. hat die eben zb. ein Doller teurer sind, sind wir am ende ganz schnell bei 20-30.- Doller mehr für den End-User! Das sind ja auch die Herstellungs-Kosten, da möchten aber noch die Firmen etwas verdienen zb.:

1. Foxconn
2. EVGA (keine ahnung ob die EVGA Karten von Foxconn kommen...)
3. Distributor
4. Händler

und jedes mal gibt es dazwischen noch Versandkosten usw.

Sven77
2009-10-26, 20:00:49
Auch wenn du das witzig findest: Ja. Auf 95% kam man zu G80-Zeiten, hat ja AiL schon ausgeführt.

Die FireGLs werden nur verkauft, da diese in Notebooks verbaut werden. Niemand, der auch nur ernsthaft im DCC Bereich arbeitet benutzt etwas anderes als eine Quadro

reunion
2009-10-26, 20:30:16
Die FireGLs werden nur verkauft, da diese in Notebooks verbaut werden. Niemand, der auch nur ernsthaft im DCC Bereich arbeitet benutzt etwas anderes als eine Quadro

Ich habe nichts anderes behauptet.

Schlammsau
2009-10-26, 20:36:02
Ich halte die Preise doch für sehr realistisch! Leider wurde die GTX275 / GTX280 vertauscht und es hat sonst noch kleine Fehler drin...

aber +/- sicher nicht mal so weit weg vom tatsächlichem Preis!

man muss natürlich auch sagen das schon 1 Doller in der Herstellung beim End User schon mal 3-5.- Doller mehr bedeuten kann, wenn man mehrere Pos. hat die eben zb. ein Doller teurer sind, sind wir am ende ganz schnell bei 20-30.- Doller mehr für den End-User! Das sind ja auch die Herstellungs-Kosten, da möchten aber noch die Firmen etwas verdienen zb.:

1. Foxconn
2. EVGA (keine ahnung ob die EVGA Karten von Foxconn kommen...)
3. Distributor
4. Händler

und jedes mal gibt es dazwischen noch Versandkosten usw.

Das sind doch nur die Preise die der Hersteller vom "Assembler" verlangt, aber doch nicht die tatsächlichen Produktionskosten. Schaut euch mal die Preise der GPUs auf der Liste an.....ein GT200b einer GTX275, der "fast" doppelt so gross ist wie ein RV790, soll in der Herstellung das gleiche kosten!? Sorry aber diese Liste ist Mist!

http://www.3dcenter.org/dateien/abbildungen/grafikkartenpreise-pic1.jpg

sklave_gottes
2009-10-26, 21:26:29
Das sind doch nur die Preise die der Hersteller vom "Assembler" verlangt, aber doch nicht die tatsächlichen Produktionskosten. Schaut euch mal die Preise der GPUs auf der Liste an.....ein GT200b einer GTX275, der "fast" doppelt so gross ist wie ein RV790, soll in der Herstellung das gleiche kosten!? Sorry aber diese Liste ist Mist!

http://www.3dcenter.org/dateien/abbildungen/grafikkartenpreise-pic1.jpg

sagt mal könnt ihr die seite auch bissel weiter runter lesen?

Die grösten fehler in der liste wurden von leonidas weiter unten auf der seite noch verbessert.

Das die Liste trotzdem nicht 100% stimmt sollte klar sein. Viele preise sind pauschal. Aber sie gibt schon eine kleine richtung. Man sieht schön das Gddr5 speicher nicht immer teuer ist als GDDR3 speicher.

mfg martin

Gast
2009-10-26, 23:22:46
Das sind doch nur die Preise die der Hersteller vom "Assembler" verlangt, aber doch nicht die tatsächlichen Produktionskosten. Schaut euch mal die Preise der GPUs auf der Liste an.....ein GT200b einer GTX275, der "fast" doppelt so gross ist wie ein RV790, soll in der Herstellung das gleiche kosten!? Sorry aber diese Liste ist Mist!

http://www.3dcenter.org/dateien/abbildungen/grafikkartenpreise-pic1.jpg
Rechne mal richtig.
GT200b ist 66% größer als RV790. Eine Aussage über die absoluten Kosten kann man noch absolut nicht machen.

Jetzt vergleichst du nicht RV790 mit GT200b, sondern einen absoluten Top RV790 mit einem teildefekten GT200b. Letzter ist auf jeden Fall deutlich billiger als ein normaler GT200b, selbst ein normaler GT200b ist billiger als ein edler GT200b.
Edle GT200b kann man gut auf Quadros oder Teslas stecken, aber das ist Spekulation.

Also, billiger GT200b vs teurer RV790. Das beide am Ende gleich teuer sind überrascht mich keineswegs.
Sollte auch sonst Niemanden überraschen, der obige Schritte nachvollzieht.

Ailuros
2009-10-27, 07:00:48
Nvidia ist eben sehr konservativ was Taktraten angeht, was man auch sieht, wenn man mit LN2 die Grenzen auslotet, da liegen wieder Radeon und GeForce bei der maximalen Frequenz dichter beeinander, jedenfalls im Bezug auf die vergleichbare ROP/TMU-Domain.

Bei GF100 muss man eben sehen, dass er es wohl im Worst-Case auch mit ~500/1100MHz GPU und einem dazu passend auf 256/320-Bit reduzierten SI mit Cypress aufnehmen könnte.
Zwar bleibt die größere Die-Size, deren Unterschied aber immerhin kleiner wäre als bei GT200 vs RV770.

Wie meinst Du das jetzt? Dass ein hypothetischer 12 cluster chip bei 500/1100 es mit Cypress aufnehmen koennte. Zwar sind solche Schaetzungen noch viel zu gewagt aber mein Instikt sagt mir dass es unter 1.5GHz nichts damit wird. NVIDIA hat uebrigens ein nettes slide wo alle 5 Jahre der Anstieg der Transistoren angebeben wird. Man faengt 1995 mit Riva an und kommt auf Fermi rein zufaellig in 2010 :P

Was passiert, wenn man bei ATis Strategie Probleme mit dem Takt hat, hat ja schon R520 und R600 gezeigt.

R600's originales Ziel war 800MHz und es ist bei 725MHz gelandet. Was zum Henker haette 10% mehr Frequenz am Ende gerettet bei diesem? Anders im Fall von R600 liegen die eigentlichen Probleme bei weitem nicht in der Frequenz-Region. Wenn's um Verspaetungen geht, hat sich das R600 Frequenz-Problem durch einen respin geregelt. Die Verspaetung des R520 war dank eines eher idiotischem bugs denn sie nicht rechtzeitig erkannt haben.

Drei Namen fuer drei verschiedene Beispiele: Dave Orton, Derek Perez, Pat Gelsinger. Alle drei haben ihre eigene Verantwortung wenn es zu Misserfolgen kommt und ja natuerlich sind diese nicht unbedingt vergleichbar.

***edit: http://www.brightsideofnews.com/news/2009/10/26/pc-graphics-market-expands-by-massive-21225-in-3q-2009.aspx

AMD is now approaching the 20% mark for the first time in ages, with 19.8% of all units shipped. 19.8% market share makes up for 23.65 million units, a 3.1% growth over last year. The biggest loser among the big three is nVidia, who currently occupies 24.9% of the market, a 4% drop from 2008. In 2Q 2009, nVidia took 29.2% of the market, but until the company starts shipping Fermi parts across the range, we expect that a figure of 29.26 million units will continue to decrease, with AMD and Intel nibbling away the market share.

When it comes to eternal battle of integrated vs. discrete graphics, netbooks are the reason for majority of market share. Jon Peddie was quoted saying "Integrated graphics in notebooks, which includes the popular netbooks, increased 27% over 2Q - a great gain but less than discrete [57% growth over 2Q 2009]. Netbooks will remain popular but they will not have the high market share they had during the recession when they were just introduced. Rather, consumers are expected to "buy up" in the next quarter. "

robbitop
2009-10-27, 08:47:01
Die Verbindung zwischen den Cores und den Speichercontrollern hatte Einschränkungen bei den Zugriffsmustern soweit ich weiß.

Selbst G80 hat darunter wohl schon gelitten, was man schön an einer 9600GT sieht die mit nur 64 ALUs nicht viel langsamer ist.
Ui. Weißt du dazu mehr? Ich dachte immer, dass das Verhältnis 9600GT zu GTX280 immer darin begründet, dass er Rasterlimitiert sei. Zumal man ja ausgehend vom RV670 zum RV770 und RV870 auch ähnlich schlechte Skalierungen mit der Anzahl der Cores sah. Ist dort das gleiche Problem vorhanden?

Wird diese Restriktion beim GT300 aufgehoben?

Undertaker
2009-10-27, 08:50:08
Das die Liste trotzdem nicht 100% stimmt sollte klar sein. Viele preise sind pauschal. Aber sie gibt schon eine kleine richtung. Man sieht schön das Gddr5 speicher nicht immer teuer ist als GDDR3 speicher.


Wenn eine Liste so viele klare Fehler hat, wer sagt dann, dass die Speicherpreise stimmen sollen...?

LovesuckZ
2009-10-27, 09:49:19
***edit: http://www.brightsideofnews.com/news/2009/10/26/pc-graphics-market-expands-by-massive-21225-in-3q-2009.aspx

Also - der gute Theo sollte einiges an seinen Tabellen und seinen Interpretationsfähigkeiten tun. Das liest sich ziemlich grausam, wenn man sich Text und Tabelle anschaut.

sklave_gottes
2009-10-27, 10:41:45
Wenn eine Liste so viele klare Fehler hat, wer sagt dann, dass die Speicherpreise stimmen sollen...?

Ein bischen verständnis, ist doch schon immer so gewesen das der Beste und Hochgezüchteste Ram der Alten Generation Teuer ist als der "langsamste" der neuen Generation.

0,8ns GDDR3 Speicher ist quasi das beste was die fertigung zu bieten hat.

Wärend der GDDR5 Speicher Auf der HD4770, die Restverwertung darstellt...

0,8ns GDDR3 Speicher wird man auch deswegen auf keiner neuen Karte mehr sehen.

Natürlich kann ich auch hier nicht 100% sicher sein. Aber ich denke das kommt der Wahrheit schon sehr nahe.


@robbitop

Das Breitere chips im verhältnis immer schlechter abschneiden als ihre "dünneren" aber dafür höher getakteren kolegen, ist ja schon öfters aufgefallen.

Bei der so immer hoch gelobten Geforce 9600GT sollte man nicht vergessen das sie für Ihre 32TMUS und 64shader cores eine abartig hohe Bandbreite sowie Pixelfüllrate(Z) besitzt.
Eine Geforce 8800GTS(G80) hat von den Rohdaten fast die selbe Leistung.
9600GT vs 8800GTS(g80)
Pixelfüllrate 10400 MPix/s vs 10000 MPix/s
Z-Werten 83200 Samples vs 80000 Samples
Texelfüllrate 20800 MTex/s vs 24000 MTex/s
Speicherbandbreite 57600 MB/s vs 64000 MB/s

Insgesammt nehmen sich beide nicht sehr viel, wobei man noch bedenken sollte das die G94 gpu einige verbesserungen gegenüber g80 mitbekommen hat.
- pro Takt 32 Pixel adressieren und filtern
- Die Kompression der ROPs konnte erhöht werden, womit G92 sowie G94 vor allem bei höheren Qualitätseinstellungen weniger Speicher- und Speicherbandbreite benötigen.
- PCIe-2.0-Standard

In den Tests ist eine 9600GT im schnitt 7-8% schneller und das auch noch mit neueren Treibern als die 8800gts(g80). Wenn man jetzt die Offensichtlichen verbesserungen+neue treiber und der tatsache das mehr takt immer besser ist als breiterer chip mit einrechnet. Sehe ich keine besonders abnormale gute Effiziens seitens g94. Es hält sich alles in grenzen......

und vom RV670 zum RV770 sehe ich eine gute skalierung. Im Schnitt sind es c.a. doppelte Leistung.
Bedenken sollte man das sich die Pixelleistung minimal veringert hat.(HD3870 vs HD 4870) Sowie die Speciherbandbreite bei weitem nicht verdoppelt.


mfg martin

Undertaker
2009-10-27, 11:40:49
Ein bischen verständnis, ist doch schon immer so gewesen das der Beste und Hochgezüchteste Ram der Alten Generation Teuer ist als der "langsamste" der neuen Generation.

0,8ns GDDR3 Speicher ist quasi das beste was die fertigung zu bieten hat.

Wärend der GDDR5 Speicher Auf der HD4770, die Restverwertung darstellt...

0,8ns GDDR3 Speicher wird man auch deswegen auf keiner neuen Karte mehr sehen.


Öhm, selbst der langsame GDDR5 auf der HD4770 taktet fast 30% höher (effektiv), als der schnelle GDDR3 auf einer GTX285 - schon der langsamste GDDR5 wäre also, selbst bei identischem Preis zum schnellsten verfügbaren GDDR3, attraktiver. Wo willst du da den Beleg sehen, dass der GDDR3 teurer ist?

Mal ein Beispiel aus der Praxis:

HD4850 512MB <-> 1024MB: +5€ für doppelte GDDR3-Menge (1000MHz)
HD4870 512MB <-> 1024MB: +18€ für doppelte GDDR5-Menge (900MHz)

Dural
2009-10-27, 12:07:34
Die Speicher Preise stimmen nicht zu 100%

z.b. wird bei der GTX285 und 280 + GTS250 der ein und der selbe Speicherpreis angegeben, was aber unmöglich
der fall sein kann, da die 285 0,73ns Speicher und die 280 / 250 nur 0,8ns hat! (250 manchmal sogar nur 1,0ns...) Zudem die 250 ja nur 8 Chips anstelle der 16 der GT200 Karten hat...

robbitop
2009-10-27, 12:50:22
@robbitop

Das Breitere chips im verhältnis immer schlechter abschneiden als ihre "dünneren" aber dafür höher getakteren kolegen, ist ja schon öfters aufgefallen.

Bei der so immer hoch gelobten Geforce 9600GT sollte man nicht vergessen das sie für Ihre 32TMUS und 64shader cores eine abartig hohe Bandbreite sowie Pixelfüllrate(Z) besitzt.
Eine Geforce 8800GTS(G80) hat von den Rohdaten fast die selbe Leistung.
9600GT vs 8800GTS(g80)
Pixelfüllrate 10400 MPix/s vs 10000 MPix/s
Z-Werten 83200 Samples vs 80000 Samples
Texelfüllrate 20800 MTex/s vs 24000 MTex/s
Speicherbandbreite 57600 MB/s vs 64000 MB/s

Insgesammt nehmen sich beide nicht sehr viel, wobei man noch bedenken sollte das die G94 gpu einige verbesserungen gegenüber g80 mitbekommen hat.
- pro Takt 32 Pixel adressieren und filtern
- Die Kompression der ROPs konnte erhöht werden, womit G92 sowie G94 vor allem bei höheren Qualitätseinstellungen weniger Speicher- und Speicherbandbreite benötigen.
- PCIe-2.0-Standard

In den Tests ist eine 9600GT im schnitt 7-8% schneller und das auch noch mit neueren Treibern als die 8800gts(g80). Wenn man jetzt die Offensichtlichen verbesserungen+neue treiber und der tatsache das mehr takt immer besser ist als breiterer chip mit einrechnet. Sehe ich keine besonders abnormale gute Effiziens seitens g94. Es hält sich alles in grenzen......

und vom RV670 zum RV770 sehe ich eine gute skalierung. Im Schnitt sind es c.a. doppelte Leistung.
Bedenken sollte man das sich die Pixelleistung minimal veringert hat.(HD3870 vs HD 4870) Sowie die Speciherbandbreite bei weitem nicht verdoppelt.


mfg martin


Die 9600 hat natürlich ein exzellentes Verhältnis zwischen Rohleistung und Bandbreite. Die Skalierungstests zeigen beim GT200 (selbiges gilt auch bei ATI) seltenst eine Limitierung der Leistung durch die Bandbreite.
Die 9600GT hat im Übrigen nur 1/4 der Z-Leistung (taktnormiert) eines GT200. Denn sie hat 1/2 der ROPs und die GT200 ROPs haben IIRC eine Verdopplung der Z-Tester erfahren. (oder war es nur die Alphablendingleistung)

Ergo: da sitzt ein anderer Flaschenhals. Zunächst hieß es eine Limitierung des Rasterizers bzw. des Trisetups und nun gibt es Informationen zu spezifischen Restriktionen in der Crossbar. Darüber würde ich gern mehr erfahren.

Ich meinte also nicht die externe Bandbreite sondern die Anbindung der Cores über den Crossbar an den Rest der GPU (wie z.B. an den Rasterizer oder den Dispatcher).

Ailuros
2009-10-27, 14:39:18
Also - der gute Theo sollte einiges an seinen Tabellen und seinen Interpretationsfähigkeiten tun. Das liest sich ziemlich grausam, wenn man sich Text und Tabelle anschaut.

Nicht dass er nicht besonders anfaellig fuer Fehler ist, aber ich hab das Gefuehl dass er die Tabelle einfach aus dem JPD report kopiert hat. Entweder bin ich wieder uebermuedet oder es gibt sogar in der Tabelle einige Fehler.

NV
Q2 = 29,2%
Q3 = 24,9%

Das macht mir erstmal keinen +3,3% Unterschied wie es in der Tabelle steht sondern -4.3%.

NV
Q3 09 = 24,9%
Q3 08 = 27,8%

Ein Unterschied von -2.9% und nicht -4.0% wie die Tabelle angibt.

Es gehoert aber trotz allem in den Haarspalterei Bereich; ich stimme auf jeden Fall zu dass der Ruecksatz fuer Q4 fuer NVIDIA um einiges groesser sein wird.

Hakkerstiwwel
2009-10-28, 10:40:47
Nicht dass er nicht besonders anfaellig fuer Fehler ist, aber ich hab das Gefuehl dass er die Tabelle einfach aus dem JPD report kopiert hat. Entweder bin ich wieder uebermuedet oder es gibt sogar in der Tabelle einige Fehler.

NV
Q2 = 29,2%
Q3 = 24,9%

Das macht mir erstmal keinen +3,3% Unterschied wie es in der Tabelle steht sondern -4.3%.

NV
Q3 09 = 24,9%
Q3 08 = 27,8%

Ein Unterschied von -2.9% und nicht -4.0% wie die Tabelle angibt.

Es gehoert aber trotz allem in den Haarspalterei Bereich; ich stimme auf jeden Fall zu dass der Ruecksatz fuer Q4 fuer NVIDIA um einiges groesser sein wird.
einmal sind Stueckzahlen gemeint, einmal Marktanteil.

Gast
2009-10-28, 12:37:50
Die 9600GT hat im Übrigen nur 1/4 der Z-Leistung (taktnormiert) eines GT200. Denn sie hat 1/2 der ROPs und die GT200 ROPs haben IIRC eine Verdopplung der Z-Tester erfahren. (oder war es nur die Alphablendingleistung)

Nein, es war nur Blending, was bei GT200 auf Full-Speed promotet wurde.

igg
2009-10-28, 20:35:57
One of our readers dropped us a note that Nvidia itself has decided to leak some information about its upcoming Geforce 3xxM notebook series.


This is something that hasn’t been announced yet and might very well be the branding for Fermi GT300 based mobile chips, but at this time we don’t know.

The top brand is Geforce GTS 360M followed by Geforce GT 335M and Geforce GT 330M. The lower market segment will get Geforce 310M as well as Geforce 305M.
Quelle (http://www.fudzilla.com/content/view/16170/34/)

Nachdem die Desktop noch nicht mal da sind, vermute ich mal, dass es sich hier um umbenannte Grafikkarten handelt.

V2.0
2009-10-29, 07:03:41
Wen würde das überraschen?

Ailuros
2009-10-29, 08:53:05
Hehehe auf der UK Seite haben sie's entfert. Auf der deutschen aber noch nicht :P

Undertaker
2009-10-29, 09:04:32
Vom Bezeichnungsschema her gehe ich nicht davon aus, dass es sich um umbenannte GT2** Karten handelt. Warum? Als Geforce GT(S) 100M wurde bisher nur 55nm DX10 Karten bezeichnet. Die Geforce GT(S) 200M sind 40nm DX10.1 Modelle. Es wäre schlüssiger, wenn die GT(S) 300M Karten 40nm DX11 und damit Fermi-Abkömmlinge sind. Die pure Listung in der Treiberliste muss ja noch nicht zwingend heißen, dass sie wirklich in wenigen Wochen kommen sollten.

Ailuros
2009-10-29, 09:24:18
Vom Bezeichnungsschema her gehe ich nicht davon aus, dass es sich um umbenannte GT2** Karten handelt. Warum? Als Geforce GT(S) 100M wurde bisher nur 55nm DX10 Karten bezeichnet. Die Geforce GT(S) 200M sind 40nm DX10.1 Modelle. Es wäre schlüssiger, wenn die GT(S) 300M Karten 40nm DX11 und damit Fermi-Abkömmlinge sind. Die pure Listung in der Treiberliste muss ja noch nicht zwingend heißen, dass sie wirklich in wenigen Wochen kommen sollten.

Obwohl ich eigentlich zustimme dass die Moeglichkeiten einer Umbennenung begrenzt sind will ich sie momentan auch noch nicht ausschliessen.

Definitive Zustimmung zum letzten Satz und ich bin auch nicht ueberzeugt dass es sich um einen "harmlosen Fehler" handelt.

Dural
2009-10-29, 10:15:50
Sinn? Die G21x Chips sind ja erst seit wenigen Wochen (zum teil) gut lieferbar, da schon auf G300 umzubennen macht nicht wirklich viel sinn!

Zudem dürfte man dann ein Problem mit dem Namen bei den echten DX11 Chips haben! Oder die DX11 Mainsteam Chips waren schon immer für G400 vorgesehen wenn Fermin2 langsam kommt... ähnlich wie es bei G80 - G92 - GT200 war

Aber so lange ohne DX11 Chips in diesem wichtigen Segment wäre wohl nicht so klug...

Ailuros
2009-10-29, 10:21:38
G4x0 ist so lange entfernt zeitlich dass es nicht im geringsten relevant ist. Die GF1xx Investition wird ueber einige Jahre ausgemelkt werden.

Botcruscher
2009-10-29, 11:48:47
Sinn? Das übliche. Den Verkauf alter Gurken über ein bisschen Kundensverarsche im Glanz von Fermi ankurbeln.


Gibt es überhaupt schon Details zu den Mainstreamkarten?

AnarchX
2009-10-29, 12:05:32
Fudo: Fermi GF100 to launch by early December (http://www.fudzilla.com/content/view/16185/34/)

Die pure Listung in der Treiberliste muss ja noch nicht zwingend heißen, dass sie wirklich in wenigen Wochen kommen sollten.
Die Device-IDs der GeForce 3xxM sind eindeutig GT21x-GPUs.

-NVIDIA_DEV.0A29.01 = "NVIDIA GeForce GT 330M"
- NVIDIA_DEV.0A2B.01 = "NVIDIA GeForce GT 330M"
- NVIDIA_DEV.0A66.01 = "NVIDIA GeForce 310"
- NVIDIA_DEV.0A6E.01 = "NVIDIA GeForce 305M"
- NVIDIA_DEV.0A75.01 = "NVIDIA GeForce 310M"
- NVIDIA_DEV.0CAF.01 = "NVIDIA GeForce GT 335M"
- NVIDIA_DEV.0CB0.01 = "NVIDIA GeForce GTS 350M"
- NVIDIA_DEV.0CB1.01 = "NVIDIA GeForce GTS 360M"
http://forums.laptopvideo2go.com/topic/25071-nvidia-geforcequadro-18691-drivers-released/

Gast
2009-10-29, 12:07:26
Die Geforce GT(S) 200M sind 40nm DX10.1 Modelle.

Stimmt. Dafür sind aber die HighEnd Modelle GTX260M und GTX280M immer noch 55nm und DX10.

Botcruscher
2009-10-29, 12:10:53
Also echt _schon wieder_ eine Umbenennung?


PS: Ich hab in Tombmans Bullshitbingo übrigens ca. 20ter Dezember getippt. :)

AnarchX
2009-10-29, 12:12:14
Also echt _schon wieder_ eine Umbenennung?
Mobility HD 5000 ist wohl nicht so fern, sodass man hier eben auch reagieren will, wenn es auch nur ein paar neue Namen für vielleicht leicht erhöhte Taktraten sind.

Ailuros
2009-10-29, 12:13:12
Fudo: Fermi GF100 to launch by early December (http://www.fudzilla.com/content/view/16185/34/)


http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7624198&postcount=443

Undertaker
2009-10-29, 12:14:27
Stimmt. Dafür sind aber die HighEnd Modelle GTX260M und GTX280M immer noch 55nm und DX10.

Hab mich deswegen auch explizit auf GT(S) bezogen. ;)

[B]
Die Device-IDs der GeForce 3xxM sind eindeutig GT21x-GPUs.


Mal abwarten, ob das auch wirklich so kommen wird. Wie erwähnt, eigentlich passt es nicht in das aktuelle (und noch sehr junge) Schema, was aber natürlich kein zwingendes Ausschlusskriterium ist.

igg
2009-10-29, 12:15:56
Na die Fudzilla News sind ja mal erfreulich. Dann dürfte es bald auch Leaks geben :)

Wegen den Mobiles: Ich habe den Eindruck, dass Nvidia die neue Notebook-Serie nun offenbar immer auf Basis einer ausgereiften Desktop-Serie (Vorgänger) macht.

Ailuros
2009-10-29, 12:21:52
Na die Fudzilla News sind ja mal erfreulich. Dann dürfte es bald auch Leaks geben :)

Sag mal ernsthaft kann man jeglichen newsblurb der so anfaengt:

Nvidia's GF100 40nm DirectX 11 chip is selling great even though Nvidia still has to officially launch it.

....wirklich ernst nehmen? Dummer geht's gar nicht.

igg
2009-10-29, 12:33:03
Sag mal ernsthaft kann man jeglichen newsblurb der so anfaengt:
....wirklich ernst nehmen? Dummer geht's gar nicht.
Ich finde das nicht dumm sondern habe es so interpretiert: Kartenhersteller geben bereits große Mengen an Bestellungen auf. Dafür gibts vermutlich viele Gründe.

Gast
2009-10-29, 12:34:27
Hab mich deswegen auch explizit auf GT(S) bezogen. ;)

War schon klar. Es ging mir nur darum, dass es auch bisher ein sehr wirres Durcheinander gibt bzgl. der Namen.

Ailuros
2009-10-29, 12:35:37
Ich finde das nicht dumm sondern habe es so interpretiert: Kartenhersteller geben bereits große Mengen an Bestellungen auf. Dafür gibts vermutlich viele Gründe.

Du kannst von mir aus eine bodenlose Luege so interpretieren wie Du willst. Es gibt ein paar HPC Vertraege momentan und das ist alles.

LovesuckZ
2009-10-29, 15:14:27
Mobility HD 5000 ist wohl nicht so fern, sodass man hier eben auch reagieren will, wenn es auch nur ein paar neue Namen für vielleicht leicht erhöhte Taktraten sind.

Wozu? Der Kunde hat keinen Plan, was 3xx bedeutet, wenn es kein Fermi gibt. Außerdem sehe ich auch nicht, wieso er deswegen solch ein Notebook statt eins mit AMD D3D11 Chip kaufen sollte.
Es mact null Sinn die Karten umzubenennen, da kein Effekt daraus entsteht.

X.Perry_Mental
2009-10-29, 15:27:15
Es mact null Sinn die Karten umzubenennen, da kein Effekt daraus entsteht.Das sieht nVidia offensichtlich anders.

Gast
2009-10-29, 15:41:41
Das sieht nVidia offensichtlich anders.
Offensichtlich nicht oder siehst du die GF300M schon im Laden?

Bleibt nur der Dauerbrenner, das Handwurst sein vor einem Monat gekauftes Notebook mit GT250M gegen eins mit GF320M tauscht und sich wundert das es lahmer ist.
Naja, was soll man dazu noch sagen, solch eine Dummheit gehört bestraft.

Raff
2009-10-29, 15:59:03
Fudo: Fermi GF100 to launch by early December (http://www.fudzilla.com/content/view/16185/34/)


Die Device-IDs der GeForce 3xxM sind eindeutig GT21x-GPUs.


http://forums.laptopvideo2go.com/topic/25071-nvidia-geforcequadro-18691-drivers-released/

Also echt _schon wieder_ eine Umbenennung?


Die GTX 280M/260M basieren auf dem G92b – ein GT21x wäre keine Umbenennung, sondern neu. Nuja, mehr als einen GT215 mit 96 ALUs und D3D10.1 kann man wohl nicht erwarten ...

MfG,
Raff

Gast
2009-10-29, 16:06:35
Nuja, mehr als einen GT215 mit 96 ALUs und D3D10.1 kann man wohl nicht erwarten ...

Alles andere wäre auch Quatsch. Die Namen suggerieren absolut keine High-End Ware. Im Gegenteil.

Raff
2009-10-29, 16:18:47
Yep. GTS steht für (gehobenen) Mainstream. Die GTS 360M erreicht vielleicht knapp die GTX 260M.

MfG,
Raff

LovesuckZ
2009-10-29, 16:21:34
Once it launches this dual card will officially be the fastest card on the market, but only until Nvidia unveils its dual Fermi card that is also expected by early December.
http://www.fudzilla.com/content/view/16184/1/

igg
2009-10-29, 16:34:11
Fudzilla scheint sich sehr sicher zu sein mit Ende Nov/Dez. In der Vergangenheit hatten sie gelegentlich einige Exklusivinfos. Kann man denn davon ausgehen, dass Nov/Dez auch son dieser guten Quelle stammen?

Ist ja seit einigen Wochen verdächtig ruhig...

Gast
2009-10-29, 16:40:04
nv hat Fudo wohl an die Kette gelegt bzw sein Leck unter Kontrolle..

V2.0
2009-10-29, 16:55:00
Ne, das war doch gewünscht, dass es neue Gerüchte zum Launch der Radeon 5000 Serie gab. Jetzt läst man FUDO wieder FUD erzählen und einen neuen Termin erfinden.

mictasm
2009-10-29, 17:26:27
Der Termin ist nur dann neu, wenn man vorher dem März-Gerücht geglaubt hat...

reunion
2009-10-29, 17:33:12
Mal abwarten, ob das auch wirklich so kommen wird. Wie erwähnt, eigentlich passt es nicht in das aktuelle (und noch sehr junge) Schema, was aber natürlich kein zwingendes Ausschlusskriterium ist.

NV hat ein Schema? Seit wann denn das? Chaos trifft es wohl eher, und wenn man die DX10.1 GPUs jetzt GT3xx nennt wie die Treibereinträge beweisen schießt man den Vogel ab.

reunion
2009-10-29, 17:35:50
Die GTX 280M/260M basieren auf dem G92b – ein GT21x wäre keine Umbenennung, sondern neu. Nuja, mehr als einen GT215 mit 96 ALUs und D3D10.1 kann man wohl nicht erwarten ...

MfG,
Raff

Es gibt schon GT(S)2xx Modelle mit den gleichen Chips, natürlich wäre das eine Umbenennung.

Gast
2009-10-29, 17:42:55
NV hat ein Schema? Seit wann denn das? Chaos trifft es wohl eher, und wenn man die DX10.1 GPUs jetzt GT3xx nennt wie die Treibereinträge beweisen schießt man den Vogel ab.
Was stört dich am Schema?

So einen Geniestreich wie AMD mit 4770 und 4830 hat Nvidia jedenfalls nicht hingelegt.

LovesuckZ
2009-10-29, 17:59:14
Normalerweise hätte nVidia die GT21x Karten von Anfang an 3xx nennen sollen. 40nm und 10.1 - rechtfertigt doch ein neues Namensschema nach einer gewissen Usergruppe hier.

mapel110
2009-10-29, 18:03:47
http://www.xbitlabs.com/news/other/display/20091028231811_TSMC_s_40nm_Revenues_Quadruple_in_the_Third_Quarter.html
Vielleicht ganz interessant im Zusammenhang, wie es derzeit mit der Kapazität von 40nm aussieht. Jetzt bräuchte man noch einen kompletten Überblick, was TSMC eigentlich alles fertigt und für wen. Da sind vermutlich nicht nur GPU-Hersteller vertreten?!

reunion
2009-10-29, 18:06:27
Normalerweise hätte nVidia die GT21x Karten von Anfang an 3xx nennen sollen. 40nm und 10.1 - rechtfertigt doch ein neues Namensschema nach einer gewissen Usergruppe hier.

Wenn man von beginn an den Namen gewählt hätte und wenn man nicht die DX11-Chips auch G3xx nennt gäbe es wenig zu beanstanden. Aber weder ersteres ist, noch zweiteres wird zutreffen. Aber das du alles verteidigst wo NV drauf steht ist ja nichts neues.

reunion
2009-10-29, 18:08:10
http://www.xbitlabs.com/news/other/display/20091028231811_TSMC_s_40nm_Revenues_Quadruple_in_the_Third_Quarter.html
Vielleicht ganz interessant im Zusammenhang, wie es derzeit mit der Kapazität von 40nm aussieht. Jetzt bräuchte man noch einen kompletten Überblick, was TSMC eigentlich alles fertigt und für wen. Da sind vermutlich nicht nur GPU-Hersteller vertreten?!

Revenue = Umsatz. Da 40nm Wafer teurer sein werden kann man das nicht wirklich auf die Stückzahlen umlegen. Außer AMD und NV wird aktuell kaum jemand in 40nm fertigen.

AnarchX
2009-10-29, 18:15:31
Also ~110 Mio. USD für 40nm im Q3. Bei 5-7k USD pro Wafer also geschätze 15-22k Wafer in der Herstellung.

Leonidas
2009-10-29, 18:16:08
Das ist aber eine sehr eigenartige Tabelle... Warum verschiedene Preise für ein und den selben GT200/RV770 Chip, je nach dem, auf welchem Modell er verbaut ist? Der RAM auf einer HD4550 soll mehr kosten als auf einer HD4870 (beide 512MB)? Falsche Speichergrößen bei GTX275 und GTX280...

Das sieht nicht sehr seriös aus...


Es schadet nicht den gesamten Artikel zu lesen. Ich hab die ursprüngliche Tabelle in über einem Dutzend Punkten korrigiert.

Und natürlich kosten ein und dieselben Chips unterschiedlich: NV macht unterschiedliche Preise für eine GTX285 und eine GTX280, obwohl die HW dieselbe ist - ist dies bei Intel im CPU-Bereich anders?




Und gerade 1$ unterschied beim PCB zwischen einem 256 und einem 512bit Interface?

Das wäre ja geradezu lachhaft, wenn es wirklich so wenig wäre, warum verbauen dann nicht alle große Interfaces?



Sorry, aber erstens sind diese Preise nicht in Stein gemeißelt. Da gibt es reichlich Unsicherheiten und auch viele Fälle, wo nur ein Durchschnittswert über viele Karten hinweg vorliegt.

Und zweitens - in Kreisen von Boardherstellern (Mobo oder/und Grafikkarte) tötet man für den Unterschied von einem glatten Dollar. Die Hersteller rechnen selbst knallhart mit Unterschieden von einem halben Cent.

LovesuckZ
2009-10-29, 18:18:21
Also ~110 Mio. USD für 40nm im Q3. Bei 5-7k USD pro Wafer also geschätze 15-22k Wafer in der Herstellung.

Das erklärt dann auch die schlechte Verfügbarkeit. Außerdem wäre man ziemlich weit von den erwartenen 30k Wafern entfernt, die man im Q2 angegeben hat. Da scheint noch einiges im argen zu liegen.

AffenJack
2009-10-29, 18:19:38
Also ~110 Mio. USD für 40nm im Q3. Bei 5-7k USD pro Wafer also geschätze 15-22k Wafer in der Herstellung.

Nicht ganz, sind eher weniger.

http://www.computerbase.de/news/wirtschaft/unternehmen/2009/oktober/tsmc_6_mrd_us-dollar_fabriken/

Laut Unternehmensberichten konnte man im Juni dieses Jahres etwa 6.000 Wafer pro Monat in dieser fortschrittlichen Fertigung liefern, im Juli waren es bereits 9.000 Wafer. Aktuelle Zahlen für die letzten Monate wären freilich höchst interessant, liegen jedoch nicht vor. Optimistisch blickt der Auftragsfertiger jedoch dem Ende des Jahres entgegen: im Dezember sollen es bereits 20.000 Wafer pro Monat sein.

AnarchX
2009-10-29, 18:24:19
Nicht ganz, sind eher weniger.

Das war natürlich auf das Quartal bezogen.

Wenn man die Zahl 9k im Juli annimmt, dann müssten es ja eher 30k im gesamten Q3 gewesen sein, wie es auch versprochen wurde.

Aber wie man sieht, kann hier TSMC wohl nur ~3.500 USD pro Wafer verlangen, was auf eine Bezahlung pro funktionierenden Die hindeutet, was schon länger spekuliert wurde. Was wiederum auch auf ein durchschnittliches Yield von 50-60% hindeutet.

Reaping_Ant
2009-10-29, 19:26:25
Wenn man von beginn an den Namen gewählt hätte und wenn man nicht die DX11-Chips auch G3xx nennt gäbe es wenig zu beanstanden. Aber weder ersteres ist, noch zweiteres wird zutreffen. Aber das du alles verteidigst wo NV drauf steht ist ja nichts neues.

Gab es von offizieller Seite schon irgend ein Statement, das Fermi als Geforce 300er Serie bezeichnet? Vielleicht gibt's ja mal wieder einen komplett neuen Namen. Schaden würde ein "clean cut" dem etwas konfusen Namensschema jedenfalls nicht.

tombman
2009-10-29, 19:30:32
Fudo: Fermi GF100 to launch by early December (http://www.fudzilla.com/content/view/16185/34/)

Performance wise, once again we can confirm that multiple sources strongly believe that a single core Fermi will end up significantly faster than ATI’s single core Radeon 5870.
Glaub ich erst, wenn ich es sehe ;) Falls das stimmen sollte, kann man sich schon mal auf 500€ pro Karte gefaßt machen :rolleyes:
http://www.xbitlabs.com/news/other/display/20091028231811_TSMC_s_40nm_Revenues_Quadruple_in_the_Third_Quarter.html
Vielleicht ganz interessant im Zusammenhang, wie es derzeit mit der Kapazität von 40nm aussieht. Jetzt bräuchte man noch einen kompletten Überblick, was TSMC eigentlich alles fertigt und für wen. Da sind vermutlich nicht nur GPU-Hersteller vertreten?!
Erstaunlich wieviel noch in den alten Prozessen produziert wird...

Undertaker
2009-10-29, 19:40:40
Es schadet nicht den gesamten Artikel zu lesen. Ich hab die ursprüngliche Tabelle in über einem Dutzend Punkten korrigiert.

Und natürlich kosten ein und dieselben Chips unterschiedlich: NV macht unterschiedliche Preise für eine GTX285 und eine GTX280, obwohl die HW dieselbe ist - ist dies bei Intel im CPU-Bereich anders?

Verkaufspreise <-> Herstellungskosten. Ich hatte, wie auch andere, zuerst fälschlicherweise zweiteres angenommen. ;) Ersteres ist aber imho, auf Grund unbekannter Marge, leider nicht wirklich sonderlich interessant.

Botcruscher
2009-10-30, 01:03:07
Erstaunlich wieviel noch in den alten Prozessen produziert wird...

Da wird wohl einiges für die Auto und Elektroindustrie mit dabei sein. Haltbarkeit ist da das Stichwort.

Coda
2009-10-30, 01:09:04
Die ganzen Telefon-SOCs usw. dürften auch noch nicht im neusten Prozess angelangt sein.

Ailuros
2009-10-30, 07:03:44
Die ganzen Telefon-SOCs usw. dürften auch noch nicht im neusten Prozess angelangt sein.

Ganz im Gegenteil; nur dauert die Integrierung hier einige Zeit.

Hakkerstiwwel
2009-10-30, 08:00:32
Revenue = Umsatz. Da 40nm Wafer teurer sein werden kann man das nicht wirklich auf die Stückzahlen umlegen. Außer AMD und NV wird aktuell kaum jemand in 40nm fertigen.
Umsatz = Turnover; imo handelt es sich schon um EBITA

Tarkin
2009-10-30, 08:52:41
TSMC 40nm yield issues resurface, CEO promises fix by year-end (http://www.digitimes.com/news/a20091030PD209.html)

:freak: ... damit kann man wohl Q4 Verfügbarkeit getrost vergessen.

(Ein Wahnsinn was TSMC da für Probleme hat. Umso mehr GPUs werden wohl nächstes Jahr aus den Global Foundries Fabs kommen)

Undertaker
2009-10-30, 09:22:28
In dem Fall ist das für Nvidia wohl sogar positiv: Wenn die Probleme bei TSMC liegen, werden die wirklich großen Stückzahlen von RV870 und GT300 beide erst Anfang 2010 folgen können - der eigentliche Zeitunterschied bzgl. der Produktvorstellung schmilzt damit.

Ailuros
2009-10-30, 09:56:40
In dem Fall ist das für Nvidia wohl sogar positiv: Wenn die Probleme bei TSMC liegen, werden die wirklich großen Stückzahlen von RV870 und GT300 beide erst Anfang 2010 folgen können - der eigentliche Zeitunterschied bzgl. der Produktvorstellung schmilzt damit.

AMD kann so oder so die Nachfrage bis Q1 nicht voll decken. Ihre insgesamten Vorteile der frueheren Vorstellung bleiben aber trotz allem, denn diese sind nicht direkt mit den bis zu Q1 verkauften Stueckzahlen verbunden. Entwickler bzw. ISVs haben frueher Evergreen samples bekommen, OEM notebook Vertraege wurden abgeschlossen, reifere Treiber und so weiter und so fort.

Q4 09' sieht nach wie vor grau fuer NVIDIA aus.

Gast
2009-10-30, 10:19:50
reifere Treiber und so weiter und so fort.


reifere Treiber bei AMD sind auch nicht besser als Betatreiber bei NV ;)

Ailuros
2009-10-30, 10:34:46
reifere Treiber bei AMD sind auch nicht besser als Betatreiber bei NV ;)

Dann zeig mir mal wie "reif" die GF100 Treiber momentan sind.

Gast
2009-10-30, 10:49:58
Dann zeig mir mal wie "reif" die GF100 Treiber momentan sind.

Diese Aussage bezieht sich eher auf Ehrfahrungswerte der letzden paar Jahre... logischerweise kann ich dir keine "GF100" Treiber präsentieren, da ohne Karte kein Treiber und umgekehrt. Aber selbst du musst zugeben das die NV Treiber in den letzden Jahren weniger das Problem bei NV waren, was man bei AMD/ATI ja nicht so behaupten kann.

Aquaschaf
2009-10-30, 10:56:52
Aber selbst du musst zugeben das die NV Treiber in den letzden Jahren weniger das Problem bei NV waren, was man bei AMD/ATI ja nicht so behaupten kann.

Wenn man sich auf Windows und Direct3D beschränkt: nö.

Ailuros
2009-10-30, 10:58:16
Diese Aussage bezieht sich eher auf Ehrfahrungswerte der letzden paar Jahre... logischerweise kann ich dir keine "GF100" Treiber präsentieren, da ohne Karte kein Treiber und umgekehrt.

Komischerweise war die Debatte gerade bei GF1xx vs. Evergreen. GF1xx Treiber sind momentan noch nicht in praesentablem Zustand.

Aber selbst du musst zugeben das die NV Treiber in den letzden Jahren weniger das Problem bei NV waren, was man bei AMD/ATI ja nicht so behaupten kann.

Ich stimme zwar nicht zu, aber ich sehe auch nicht was es mit dem eigentlichen Thema zu tun hat. Evergreen wurde frueher vorgestellt mit praesentablen Treibern und ich zaehlte es mit Absicht zu AMD's Vorteil der frueheren Vorstellung.

robbitop
2009-10-30, 11:29:21
Es würde mich wundern, wenn die GT300-Treiber jetzt noch nicht im präsentablem Zustand sind. Sie konnten ja bereits auf eine gute Basis zurückgreifen und normalerweise haben die Treiberentwickler schon lange vor Release erstes Silizium (bei ATI ca. 1 Jahr vorher). NV ist ja "nur noch" mit der wirtschaftlichen Massenfertigung beschäftigt.
Von Optimierungen spreche ich natürlich nicht. Aber von gut funktionsfähigen Spielen auf der Karte mit typischer Launchtreiberperformance.

Menace
2009-10-30, 12:00:39
NV ist ja "nur noch" mit der wirtschaftlichen Massenfertigung beschäftigt.


Wirklich? Mist, diese Neuigkeit ist mir entgangen.

reunion
2009-10-30, 12:21:03
Wenn es nur noch darum ginge bräuchte man kein neues Tapeout mehr. Tatsächlich hat man nur A1 Silizium, und ob das bugfrei ist darf zumindest bezweifelt werden.

Ailuros
2009-10-30, 12:37:46
Es würde mich wundern, wenn die GT300-Treiber jetzt noch nicht im präsentablem Zustand sind. Sie konnten ja bereits auf eine gute Basis zurückgreifen und normalerweise haben die Treiberentwickler schon lange vor Release erstes Silizium (bei ATI ca. 1 Jahr vorher). NV ist ja "nur noch" mit der wirtschaftlichen Massenfertigung beschäftigt.
Von Optimierungen spreche ich natürlich nicht. Aber von gut funktionsfähigen Spielen auf der Karte mit typischer Launchtreiberperformance.

Es war bei AMD nicht ein Jahr vorher von heute ab und NV bekam erstes Silizium erst irgendwo Mitte Sommer.

Fuer Massenfertigung brauchen sie A2. Dass alles nach Plan laeuft momentan zeigt ja dass das Releasedatum konstant um Wochen verschoben wird. Momentan liegen wir bei Mitte Dezember.

robbitop
2009-10-30, 14:28:04
Wenn es nur noch darum ginge bräuchte man kein neues Tapeout mehr. Tatsächlich hat man nur A1 Silizium, und ob das bugfrei ist darf zumindest bezweifelt werden.
Nunja A2 ist ja nur ein Metalrespin. Ansonsten bräuchte man ein B1, nicht?
Für die Treiberentwicklung dürfte bereits ein halbwegs funktionsfähiges A0 ausreichend sein. Ich nehme an, dass die Grundlagen bereits mit den Simulationen laufen. Wenn man jetzt mit der Treiberentwicklung noch nicht so weit wäre, würden wir das Ding jedenfalls nicht in den nächsten Monaten zu sehen bekommen.

Es war bei AMD nicht ein Jahr vorher von heute ab und NV bekam erstes Silizium erst irgendwo Mitte Sommer.

Fuer Massenfertigung brauchen sie A2. Dass alles nach Plan laeuft momentan zeigt ja dass das Releasedatum konstant um Wochen verschoben wird. Momentan liegen wir bei Mitte Dezember.
Die ersten IDs fanden sich schon Ende 2008 im Catalyst wieder. Also hatten die Treiberentwicklung seit diesem Zeitpunkt eine brauchbare Entwicklungsgrundlage. Wie sich diese darstellt, entzieht sich meinen Kenntnissen. ;)

Ailuros
2009-10-30, 14:58:25
Nunja A2 ist ja nur ein Metalrespin. Ansonsten bräuchte man ein B1, nicht?
Für die Treiberentwicklung dürfte bereits ein halbwegs funktionsfähiges A0 ausreichend sein. Ich nehme an, dass die Grundlagen bereits mit den Simulationen laufen. Wenn man jetzt mit der Treiberentwicklung noch nicht so weit wäre, würden wir das Ding jedenfalls nicht in den nächsten Monaten zu sehen bekommen.

Nur gibt es bei NVIDIA kein A0 Silizium (ebenso wie auch bei AMD kein A10) sondern erstes tape out ist stets A1 oder A11 je nach IHV. Auf dem vorgezeigten chip steht 0935A1 was das eigentliche tapeout ein paar Wochen vor Ende August andeutet.

Die ersten IDs fanden sich schon Ende 2008 im Catalyst wieder. Also hatten die Treiberentwicklung seit diesem Zeitpunkt eine brauchbare Entwicklungsgrundlage. Wie sich diese darstellt, entzieht sich meinen Kenntnissen. ;)

Zwischen Simulation und einer echten finalen GPU sind wohl schon von der Geschwindigkeit her Lichtjahre entfernt. Wenn dem so waere waeren Treiber stets beim Launch zu 100% auspoliert wenn man die Zeitspannen bedenkt. Und nein Evergreen chips hatten natuerlich nicht ihre tape outs Ende 2008 falls Du das andeuten willst. Ein paar Wochen vor dem Wafer den sie damals oeffentlich vorzeigten.

reunion
2009-10-30, 15:19:00
Nunja A2 ist ja nur ein Metalrespin. Ansonsten bräuchte man ein B1, nicht?
Für die Treiberentwicklung dürfte bereits ein halbwegs funktionsfähiges A0 ausreichend sein. Ich nehme an, dass die Grundlagen bereits mit den Simulationen laufen. Wenn man jetzt mit der Treiberentwicklung noch nicht so weit wäre, würden wir das Ding jedenfalls nicht in den nächsten Monaten zu sehen bekommen.


Ich weiß nicht wie NV das handhabt. Sagt ja auch niemand das kein B1 kommt. Wie AiL schon sagte ist A1 das erste Tapeout, nicht A0. Der Chip ist jedenfalls noch nicht produktionsreif und damit besteht nach wie vor ein beträchtliches Risiko für weitere Verschiebungen.

Tigerchen
2009-10-30, 15:27:17
Diese Aussage bezieht sich eher auf Ehrfahrungswerte der letzden paar Jahre... logischerweise kann ich dir keine "GF100" Treiber präsentieren, da ohne Karte kein Treiber und umgekehrt. Aber selbst du musst zugeben das die NV Treiber in den letzden Jahren weniger das Problem bei NV waren, was man bei AMD/ATI ja nicht so behaupten kann.
Wäre schöm wenn der Gast sich mal einloggen würde. So bleibt der Verdacht des viralen Marketings.

Wenn man sucht findet man immer Fehler in Treibern. Ich nutze den 9.3 Treiber von ATI und der läuft so problemlos daß ich so gar keinen Bock hab einen neueren auszuprobieren. Sowas gibts auch. Bei nV sicher auch. Diese Treiberdiskussionen werden doch nur noch genutzt um die eine oder andere Seite ungerechtfertigt zu diskreditieren.

igg
2009-10-30, 15:33:38
Fake, Echtzeit Raytracing oder Prerendered?
http://i37.tinypic.com/2n8d5bc.jpg
http://i33.tinypic.com/rvitco.jpg
http://i34.tinypic.com/n14co4.jpg
Fudzilla (http://www.fudzilla.com/content/view/16211/34/), PCZilla Forum (http://bbs.pczilla.net/thread-5002-1-1.html)

Gast
2009-10-30, 15:35:34
Die ersten IDs fanden sich schon Ende 2008 im Catalyst wieder. Also hatten die Treiberentwicklung seit diesem Zeitpunkt eine brauchbare Entwicklungsgrundlage. Wie sich diese darstellt, entzieht sich meinen Kenntnissen. ;)

Für die Treiberentwicklung braucht es keine Hardware, dafür reicht auch eine Simulation.

mapel110
2009-10-30, 15:41:12
Sieht stark nach Fake aus. Mal abgesehen von der Bildqualität ist die Aufmachung zu unprofessionell.

Soundwave1983
2009-10-30, 16:04:12
Nur gibt es bei NVIDIA kein A0 Silizium (ebenso wie auch bei AMD kein A10) sondern erstes tape out ist stets A1 oder A11 je nach IHV.

Ich meine mich dunkel an das Geforce FX Launch Event zu erinnern, in dem wurde die Die Shot des NV30 gezeigt und als A-Zero Silicon bezeichnet.

Nunja, das ist dann aber auch schon gefühlte 100 Jahre her, von daher gut möglich, das man heute mit A1 anfängt.

mapel110
2009-10-30, 16:07:18
http://www.nvidia.com/object/gpu_technology_conference.html
Ist jetzt online zum Streamen oder Downloaden.

V2.0
2009-10-30, 16:22:11
Sie haben zwar eine A1 GPU gezeigt, aber ob diese überhauüt lauffähig war, ist unbewiesen.

Wir wissen auch nicht wie umfangreich die Änderungen für A2 sind und wir wissen nicht ob sie ausreichen und nicht doch noch ein A3, B1 oder B2 gebraucht werden.

Fakt ist, dass es kine sichere Aussage gibt, wann NV einen DX11 Chip vorstellt und liefern kann. Ich gehe momentan eher von Ende Q1/10 für die ersten Lieferungen aus.

LovesuckZ
2009-10-30, 16:25:04
Sie haben zwar eine A1 GPU gezeigt, aber ob diese überhauüt lauffähig war, ist unbewiesen.

Nein, ist es nicht.


Fakt ist, dass es kine sichere Aussage gibt, wann NV einen DX11 Chip vorstellt und liefern kann. Ich gehe momentan eher von Ende Q1/10 für die ersten Lieferungen aus.

Du änderst deine Meinung auch wöchenentlich. Mal Q1, mal Q2, mal Q1...

Gast
2009-10-30, 16:41:10
Sieht stark nach Fake aus. Mal abgesehen von der Bildqualität ist die Aufmachung zu unprofessionell.


Ob Fake oder nicht ist eigentlich egal, es ist eh absolut nichtssagend.

Botcruscher
2009-10-30, 17:08:26
Nein, ist es nicht.


Da muss uns wo irgendwo eine Demonstration mit Presse und offenem, zugänglichen Gehäuse entgangen sein.

Psychopat
2009-10-30, 17:16:15
Die ersten Fotos dies es vom Evergreen gab waren die von den Karten im Demorechner. Bei der nVidia Präsentation gabs Fotos auf denen zu sehen war das die präsentierte Karte ein Dummy ist... Den Demorechner hat keiner gesehen.

Gast
2009-10-30, 17:30:35
Fake, Echtzeit Raytracing oder Prerendered?
Fudzilla (http://www.fudzilla.com/content/view/16211/34/), PCZilla Forum (http://bbs.pczilla.net/thread-5002-1-1.html)

Da hat wohl jemand einfach die Bilder aus dem Playgrounds Festival Title genommen und ein NVIDIA Logo samt Text draufgeklatscht. Sind, so am Rand bemerkt, Fotos. Ist recht schön anzusehen, falls es jemanden interessiert:
http://motionographer.com/theater/onesize-playground-titles/

Gipsel
2009-10-30, 18:31:16
Da hat wohl jemand einfach die Bilder aus dem Playgrounds Festival Title genommen und ein NVIDIA Logo samt Text draufgeklatscht. Sind, so am Rand bemerkt, Fotos. Ist recht schön anzusehen, falls es jemanden interessiert:
http://motionographer.com/theater/onesize-playground-titles/
Den Trailer dazu gibt es hier (http://www.revolver.nl/index.php?page=workdetail&CID=2147). Eindeutig daraus entnommen.

LovesuckZ
2009-10-30, 22:04:04
Da muss uns wo irgendwo eine Demonstration mit Presse und offenem, zugänglichen Gehäuse entgangen sein.

Kann sein. Dafür kann ich nichts.

Ailuros
2009-10-31, 06:50:09
Nein, ist es nicht.

Die paar demos auf der GTC liefen auf dem Ding; nur sah das Ding wie ein octopus aus mit dem ganzen Kabelsalat im System aus.

Die ersten Fotos dies es vom Evergreen gab waren die von den Karten im Demorechner. Bei der nVidia Präsentation gabs Fotos auf denen zu sehen war das die präsentierte Karte ein Dummy ist... Den Demorechner hat keiner gesehen.

Ich hab irgendwo ein Bild von dem obrigen gesehen kann mich nur nicht mehr erinnern wo.

tombman
2009-10-31, 07:41:42
Die paar demos auf der GTC liefen auf dem Ding; nur sah das Ding wie ein octopus aus mit dem ganzen Kabelsalat im System aus.



Ich hab irgendwo ein Bild von dem obrigen gesehen kann mich nur nicht mehr erinnern wo.
Und du bist sicher, du hast es nicht nur geträumt? :D

Geh doch einfach deine browser history durch ;)

reunion
2009-10-31, 10:12:58
Es gab definitiv kein öffentliches Bild von der Karte.

deekey777
2009-10-31, 10:52:58
Die paar demos auf der GTC liefen auf dem Ding; nur sah das Ding wie ein octopus aus mit dem ganzen Kabelsalat im System aus.

.
Bei iXBT (http://www.ixbt.com/video3/gtc2009-part1.shtml) gibt einen mehrseitigen Artikel zur GTC. Die Raytracing-Demo mit dem Veyron lief auf einem GT200, die n-Body-Simulation mit DP-Berechnungen soll auf Tesla C1060 vs. Fermi gelaufen sein.
Sonst keine Ahnung.

Ailuros
2009-10-31, 13:19:01
Es gab definitiv kein öffentliches Bild von der Karte.

Es war keine Karte; siehe dekkey's letzten Beitrag. Der chip war ein totaler Kabelsalat in dem system wo es tatsaechlich lief.

Und du bist sicher, du hast es nicht nur geträumt?

Geh doch einfach deine browser history durch

Die einzige Chance waere dass es ein nicht oeffentliches Bild war, aber mein Gedaechtnis laesst Gott sei Dank noch nicht so stark nach.

The real engineering sample card is full of dangling wires. Basically, it looks like an octopus of modules and wires and the top brass at Nvidia didn't want to give that thing to Jensen. This was confirmed today by a top Nvidia VP president class chap, but the same person did confirm that the card is real and that it does exist.

http://www.fudzilla.com/content/view/15798/34/

tombman
2009-10-31, 13:28:39
Also hast du auch nix gesehen...

AnarchX
2009-10-31, 13:49:08
Vielleicht tombmans Polaris Vergleich: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7575261#post7575261 ?

LovesuckZ
2009-10-31, 13:52:25
Die paar demos auf der GTC liefen auf dem Ding; nur sah das Ding wie ein octopus aus mit dem ganzen Kabelsalat im System aus.

Wie erwähnt: Die n-Body Demo lief live auf Fermi gegen Tesla und war mehr als 5x schneller - also 10 Cluster oder stark reduzierter Takt.
Tim Murray hat es im Beyond3d.com Forum auch nochmal bestätigt, bevor er sein Posting editiert hat.

Ailuros
2009-11-02, 07:04:06
Also hast du auch nix gesehen...

Natuerlich hab ich das Bild gesehen und nicht davon getrauemt LOL :D

mapel110
2009-11-02, 19:09:41
http://www.semiaccurate.com/2009/11/02/nvidia-finally-gets-fermi-a2-taped-out/
Nvidia finally gets Fermi A2 taped out

Tarkin
2009-11-02, 19:34:41
http://hardocp.com/news/2009/11/02/fermi_working_samples_for_ces63

Fermi Working Samples for CES?

As the Consumer Electronics Show grows near, NVIDIA partners are having to get their ducks in line for the upcoming show in the second week of January. However many are asking, why exactly they should be there spending hard earned money with nothing to show off except rebadged parts from generations past? Certainly the 8800 GTX / GTS 250 has seen many CES presentations before. We have word from several different sources that NVIDIA is doing its best to have "working" Fermi-based video cards to show off for CES. We are unsure as to what level they will be shown working, if at all, but for all you NVIDIA fans, this is certainly something good to hear.

Even given a best case scenario for NVIDIA, we here at HardOCP.com find it hard to believe that NVIDIA will get any "real" amount of product to market by March of next year. Worth mentioning also NVIDIA has yet to speak one word to us about the gaming abilities of the Fermi GPU. It makes us think that NVIDIA does not even know yet.


Nvidia hofft quasi darauf im Jänner SAMPLES zu haben... klingt wahrlich alles andere als optimistisch. Eins scheint jetzt mal sicher: Vor Weihnachten wirds nichts mehr geben - ich schätze spätestens jetzt dürfte das jedem klar werden.

Wann hatte Ati erste Samples vom rv870? April, Mai?

LovesuckZ
2009-11-02, 19:39:08
http://www.semiaccurate.com/2009/11/02/nvidia-finally-gets-fermi-a2-taped-out/
Nvidia finally gets Fermi A2 taped out

Achja - das liest sich lustig. Da nVidia nicht weiß, wo die Probleme liegen, machen sie erstmal ein A2 Respin. Und da man natürlich jetzt schon - wie solls auch anders sein - über alle Informationen verfügt, weiß man, dass das A2 garnicht produktionsreif wäre. :freak:
Er sollte wirklich sich einen Twitter-Account zulegen. Das reicht für seine News-Meldungen vollkommen aus.

=Floi=
2009-11-02, 19:55:23
wenn der gt300 dann auch hohe taktraten hat, dann wird sich das warten lohnen. es wäre nichts frustrierender wie ein zweiter gt200a/b.

V2.0
2009-11-02, 19:55:43
Ob A2 funktioniert muss sich noch zeigen. Es sieht immer schlechter aus für NV und es würde mich nicht überraschen wenn wir einen RV870 Refresh als Hauptgegner von GT300 erleben werden.

Aber GT300 beiseite, es gibt null Anzeichen für auch nur ein Tape-Out seiner kleinen Brüder. Also wird man dies wohl frühestens Ende Q2/10 im Laden sehen. EPIC Fail für NV, würde ich sagen.

reunion
2009-11-02, 19:58:00
http://hardocp.com/news/2009/11/02/fermi_working_samples_for_ces63

Fermi Working Samples for CES?

As the Consumer Electronics Show grows near, NVIDIA partners are having to get their ducks in line for the upcoming show in the second week of January. However many are asking, why exactly they should be there spending hard earned money with nothing to show off except rebadged parts from generations past? Certainly the 8800 GTX / GTS 250 has seen many CES presentations before. We have word from several different sources that NVIDIA is doing its best to have "working" Fermi-based video cards to show off for CES. We are unsure as to what level they will be shown working, if at all, but for all you NVIDIA fans, this is certainly something good to hear.

Even given a best case scenario for NVIDIA, we here at HardOCP.com find it hard to believe that NVIDIA will get any "real" amount of product to market by March of next year. Worth mentioning also NVIDIA has yet to speak one word to us about the gaming abilities of the Fermi GPU. It makes us think that NVIDIA does not even know yet.


Nvidia hofft quasi darauf im Jänner SAMPLES zu haben... klingt wahrlich alles andere als optimistisch. Eins scheint jetzt mal sicher: Vor Weihnachten wirds nichts mehr geben - ich schätze spätestens jetzt dürfte das jedem klar werden.

Wann hatte Ati erste Samples vom rv870? April, Mai?

Wenn Hardocp hier Recht behält wäre das schon verdammt spät. Samples im Januar wäre ca. ein halbes Jahr hinter AMD. Auch die Aussagen des Crytec-Mitarbeiters hier im Forum und verschiedener Leute mit Kontakten zu TSMC deuten immer mehr in diese Richtung. Mittlerweile würde es mich schon sehr überraschen wenn wir dieses Jahr noch einen Launch sehen.

Auch das hört sich nicht gerade zuversichtlich an: "Worth mentioning also NVIDIA has yet to speak one word to us about the gaming abilities of the Fermi GPU. It makes us think that NVIDIA does not even know yet."

Oracle
2009-11-02, 20:12:20
Von wegen, Geschichte wiederholt sich nicht!

Der Zeitplan der aktuellen Geschehnisse rund um RV870 und G300 erinnert stark an R300 vs. NV30. Mal sehen, ob es Ende März wieder einen Fön von NVidia zu kaufen gibt ;-)

LovesuckZ
2009-11-02, 20:25:45
Ob A2 funktioniert muss sich noch zeigen. Es sieht immer schlechter aus für NV und es würde mich nicht überraschen wenn wir einen RV870 Refresh als Hauptgegner von GT300 erleben werden.

Stimmt - ein RV870 Refresh, der dann den RV870 ablösen kann. Wenigsten kann dann jeder ein RV870 kaufen. ;D
Als Hofabschreiber von Charlie hättest du aber schon gelesen, dass A2 nicht funktioniert? :freak:

Gast
2009-11-02, 20:42:46
Eins ist damit sicher,nvidia steht unter zeitdruck.Jeder weiß das,zeitdruck zu problemen führen kann.^^

Gast
2009-11-02, 21:00:42
"Nvidia leavin the company" ... mal schauen bei wem sie fertigen lassen ... GF oder doch Intel? Kommt sonst noch einer in Frage?
Wenn ich wetten müsste, würde ich auf Intel setzen.

reunion
2009-11-02, 21:05:53
Intel lässt sicherlich niemand anderen in ihren Fabriken fertigen. Es bleibt nur GF.

Gast
2009-11-02, 21:10:01
"Nvidia leavin the company" ... mal schauen bei wem sie fertigen lassen ... GF oder doch Intel? Kommt sonst noch einer in Frage?


IBM, Intel garantiert nicht, wobei ich bei den Streitereien der letzten Monate/Jahre zwischen Intel und NV sogar wetten würde, dass Intel den Fertigungsauftrag annehmen würde, nur um sie dann absichtlich zu verzögern ;)

Coda
2009-11-02, 21:13:15
Intel lässt sicherlich niemand anderen in ihren Fabriken fertigen. Es bleibt nur GF.
Das hast du doch immer kategorisch abgestritten.

reunion
2009-11-02, 21:14:11
Das hast du doch immer kategorisch abgestritten.

Was?

Gast
2009-11-02, 21:18:33
Schätze, Intel würde schon allein um GF vors Bein zu treten Fertigungsaufträge annehmen, selbst wenn sie Unterkapazität hätten :D
Wachsende Wafer und schrumpfende Chips werden bald dafür sorgen, dass Intel bald mehr x86 CPUs fertigen kann, als eine einzige Erdenpopulation abzunehmen in der Lage ist - eine eventuelle n-Telung durch Pandemien noch nicht eingerechnet. Der Schritt zur Auftragsfertigung ist da nicht nur folgerichtig, sondern zwingend. In Asien sieht man das ähnlich.

reunion
2009-11-02, 21:26:31
Schätze, Intel würde schon allein um GF vors Bein zu treten Fertigungsaufträge annehmen, selbst wenn sie Unterkapazität hätten :D
Wachsende Wafer und schrumpfende Chips werden bald dafür sorgen, dass Intel bald mehr x86 CPUs fertigen kann, als eine einzige Erdenpopulation abzunehmen in der Lage ist - eine eventuelle n-Telung durch Pandemien noch nicht eingerechnet. Der Schritt zur Auftragsfertigung ist da nicht nur folgerichtig, sondern zwingend. In Asien sieht man das ähnlich.

Realität sind wachsender Wafer und mindestens ebenso schnell wachsende Chips. Die Nachfrage nach Siliziumchips ist auch alles andere nur nicht rückläufig. Das der Aufwand neue Prozesse und Technologien zu entwickeln immer größer wird und es deshalb ökonomisch natürlich Sinn macht Fertigungen zusammen zu legen ist lange bekannt. Aber eines kannst du dir sicher sein, Intel wird der Letzte sein der hier - wenn überhaupt - einlenkt. Schon heute heißt es faktisch Intel gegen den Rest der Welt bestehend aus der Fertigungsallianz IBM, AMD, TSMC, UMC, Toshiba, Samsung, etc. Und ebenso sicher ist es das Intel niemand anderen ihren Fertigungsprozess zugänglich machen wird, denn daraus schöpfen sie einen sehr großen Vorteil. Auch wenn einige immer wieder davon träumen.

Gast
2009-11-02, 21:36:25
Es muss ja nicht zwangsläufig im Top Prozess auftragsgefertigt werden. Und selbst wenn, liegt es immer noch bei Intel, was sie in den Libs zur Verfügung stellen.

Black-Scorpion
2009-11-02, 21:48:54
Hat Intel überhaupt schon einmal für andere gefertigt?
Wenn nicht, werden sie bestimmt für den "Busenfreund" Nvidia nicht damit anfangen. ;)

Coda
2009-11-02, 21:50:31
Was?
Das NV mal bei GF fertigen würde.

LovesuckZ
2009-11-02, 21:55:56
nVidia wird in Zukunft dort fertigen, wo Zeitpläne, Preis und Aussichten mit ihren Vorstellungen übereinstimmen. Sie haben keinen Zwang bei TSMC zu bleiben - was sie mit IBM und UMC schon bewiesen haben.

reunion
2009-11-02, 21:56:01
Das NV mal bei GF fertigen würde.

Achso. Ich habe ja auch nicht gesagt das es wahrscheinlich ist. Ich würde es nicht machen wenn mein Konkurrent dort derart beteiligt ist, wie schon gesagt. Aber wenn NV wirklich einen neuen Auftragsfertiger sucht (was ich nicht glaube), dann bleibt nur GF oder IBM wenn sie kein Downgrade von TSMC aus machen wollen.

igg
2009-11-02, 21:59:44
Aber GT300 beiseite, es gibt null Anzeichen für auch nur ein Tape-Out seiner kleinen Brüder. Also wird man dies wohl frühestens Ende Q2/10 im Laden sehen. EPIC Fail für NV, würde ich sagen.
Aus meiner Sicht hat sich an der Faktenlage nichts geändert. Entweder A2 funktioniert im Dezember oder wir müssen nochmal warten. Soviel wussten wir IMO im Oktober auch schon...

Undertaker
2009-11-02, 22:17:46
Ich würde es nicht machen wenn mein Konkurrent dort derart beteiligt ist, wie schon gesagt.

Ich halte es für unwahrscheinlich das es sich GF leisten könnte, ihre Kunden ungleich zu behandeln - die Folgen wären fatal.

Spasstiger
2009-11-02, 22:20:37
GF hat nur Vorteile, wenn sie NV unter Vertrag bekommen und bei jedem Kunden um ein bestmögliches Ergebniss bestrebt sind. Der Konkurrent von GF heißt nicht Nvidia, sondern TSMC.

LovesuckZ
2009-11-02, 22:23:12
Vorallen würden sie Milliarden $ Strafe bezahlen, wenn sie Verträge nicht einhalten und Industriespionage durchführen würden. Aber manche denken eben, dass das Geschäftsfeld eine gesetzeslose Zone ist.

reunion
2009-11-02, 22:29:53
Ich halte es für unwahrscheinlich das es sich GF leisten könnte, ihre Kunden ungleich zu behandeln - die Folgen wären fatal.

Was wären denn die Folgen wenn man sich mit NV nicht einigt?

GF hat nur Vorteile, wenn sie NV unter Vertrag bekommen und bei jedem Kunden um ein bestmögliches Ergebniss bestrebt sind. Der Konkurrent von GF heißt nicht Nvidia, sondern TSMC.

AMD hat zu 50% das Sagen bei GF, das kann man nicht einfach wegwischen. Darüber hinaus ist man natürlich der mit Abstand größte Kunde und alle GF-Mitarbeiter sind ehemalige AMD-Leute, und damit auch emotional mit AMD und anderen AMD-Mitarbeitern verbunden. GF ist sicherlich ebenso bestrebt AMD bei Laune zu halten wie gegen TSMC zu kämpfen. Das weiß AMD, das weiß NV und das weiß nicht zuletzt GF.

Vorallen würden sie Milliarden $ Strafe bezahlen, wenn sie Verträge nicht einhalten und Industriespionage durchführen würden. Aber manche denken eben, dass das Geschäftsfeld eine gesetzeslose Zone ist.

Interessante Verträge die du da zurecht spinnst. Solche Verträge müssen erst mal unterzeichnet werden. Und zwischen Verträge nicht einhalten und der ein oder anderen Bevorteilung von AMD liegt doch noch einiges dazwischen. Industriespionage ist im übrigen Realität, auch heute bei TSMC.

Coda
2009-11-02, 22:39:54
Ich würde es nicht machen wenn mein Konkurrent dort derart beteiligt ist, wie schon gesagt.
Was willst du denn aus den puren Masken schon rauslesen? Die einzige Infos wären die Anzahl der Chips und die Größe dieser. Evtl. sieht man noch grob was für Funktionseinheiten verbaut sind, aber das war's dann aber.

Ich denke dass sich auch bei TSMC in der Industrie Tapeouts sehr schnell rumsprechen, da wird sich nicht viel ändern.

=Floi=
2009-11-02, 22:50:38
imho dürfte auch tsmc die chips testen und dazu brauchen sie wohl mehr daten...

Undertaker
2009-11-02, 22:53:53
Was wären denn die Folgen wenn man sich mit NV nicht einigt?

Davon war nicht die Rede. Wenn man in Zukunft Aufträge von Nvidia bekommen sollte, dürfen diese nicht schlechter gestellt werden, als die des Konkurrenten AMD. Falls nicht, wäre die Folge klar und fatal. Spasstiger hat es oben nocheinmal schön gesagt.

Coda
2009-11-02, 22:56:44
imho dürfte auch tsmc die chips testen und dazu brauchen sie wohl mehr daten...
Nö, dafür gibt es Test-Patterns die an bestimmten Punkten am Chip angelegt werden. Da kann man auch nicht viel rauslesen.

YfOrU
2009-11-03, 00:45:04
Ich halte das für ein Gerücht bzw. für ein Druckmittel gegen TSMC um bessere Konditionen zu erhalten. Globalfoundries hat für Nvidia einen gravierenden Nachteil. Der Hauptkonkurrent hat bei identischen Produkten die geringeren Kosten.

Auch wenn beide auf den ersten Blick zu gleichen Konditionen fertigen lassen müssten (was kaum eintreten wird da AMD auf lange Sicht weiter der Hauptauftraggeber bleibt) steht am Ende immer noch die Beteiligung von AMD in den Büchern.

reunion
2009-11-03, 07:20:05
Davon war nicht die Rede.

Auch das wäre eine Möglichkeit. Davon war nicht die Rede ist da etwas wenig Argument.


Wenn man in Zukunft Aufträge von Nvidia bekommen sollte, dürfen diese nicht schlechter gestellt werden, als die des Konkurrenten AMD. Falls nicht, wäre die Folge klar und fatal. Spasstiger hat es oben nocheinmal schön gesagt.

Na dann pack mal aus, was wäre so fatal? Eine Benachteilung was support, etc. betrifft muss man erstmal jemanden nachweisen. Auch sonst dürfte AMD alleine durch die hohen Kapazitäten die man dort fertigt und der Beteiligung an GF einen Ausnahmestatus genießen. Das ist gang und gäbe in der Industie das solche Firmen bevorteilt werden. Sich hier hinzustellen und zu behaupten das wäre alles egal und von "fatalen Folgen" zu warnen ist schon etwas blauäugig in meinen Augen. Dessen ist sich sicherlich auch NV bewusst, deshalb glaube ich auch nicht das man eine Fertigung bei GF anstrebt.

AnarchX
2009-11-03, 08:22:33
Because of the need for confidentiality is only a small amount of data leakage
PCIE frequency was recorded in 144 (OC income)
Graphics extreme temperatures of 95 degrees, 3dmark vantage extreme minimum in all tests was 24 frames
With the test CPU to 4.8G or so for the ultra-i7920
Test Power 1300W or so (two together)
http://we.pcinlife.com/thread-1288609-1-1.html

Mit ~24 FPS in den X-Preset-Game-Tests wäre aber man nicht wirklich viel schneller als eine 5870: http://www.legitreviews.com/article/1080/14/

V2.0
2009-11-03, 08:30:10
Das ist wohl mit viel Vorsicht zu nehmen. Aber schön für ATI wäre das schon.

reunion
2009-11-03, 08:30:44
Noch dazu 4.8Ghz CPU, das bringt ev. auch noch das ein oder andere fps.

Ailuros
2009-11-03, 08:31:09
Ich halte es für unwahrscheinlich das es sich GF leisten könnte, ihre Kunden ungleich zu behandeln - die Folgen wären fatal.


http://www.fudzilla.com/content/view/16235/1/

LovesuckZ
2009-11-03, 08:35:06
Q: How is NVIDIA approaching the tessellation requirements for DX11 as none of the previous and current generation cards have any hardware specific to this technology?

Jason Paul, Product Manager, GeForce: Fermi has dedicated hardware for tessellation (sorry Rys :-P). We’ll share more details when we introduce Fermi’s graphics architecture shortly!
http://forums.nvidia.com/index.php?showtopic=109093&view=findpost&p=944023

Man, "shortly" - diese Teaser. :(

Ailuros
2009-11-03, 08:35:12
http://we.pcinlife.com/thread-1288609-1-1.html

Mit ~24 FPS in den X-Preset-Game-Tests wäre aber man nicht wirklich viel schneller als eine 5870: http://www.legitreviews.com/article/1080/14/

minimum in all tests was 24 frames

Wofuer steht "minimum" genau? :confused:

http://forums.nvidia.com/index.php?showtopic=109093&view=findpost&p=944023

Man, "shortly" - diese Teaser. :(

http://forum.beyond3d.com/showpost.php?p=1354181&postcount=1037

LovesuckZ
2009-11-03, 08:36:44
Wofuer steht "minimum" genau? :confused:

Für eine schlechte Übersetzung. Man sollte dort auch nicht alles so genau nehmen. Die Stromaufnahme kann auch PCI-E alleine oder der Gesamtverbrauch sein.


http://forum.beyond3d.com/showpost.php?p=1354181&postcount=1037

nVidia's Weg wird wohl identisch mit dem von AMD sein: Hull und Domain sind programmierbar und Tessellation-Unit wird fest sein. Das geht auch so aus ihren Folien von der GTC hervor.

reunion
2009-11-03, 08:40:00
Wofuer steht "minimum" genau? :confused:


Das man nirgends unter 24 fps erreicht. Was soll es denn sonst bedeuten?

Ailuros
2009-11-03, 08:41:30
Das man nirgends unter 24 fps erreicht. Was soll es denn sonst bedeuten?

Ich frage AnarchX mit Absicht, ob er etwas besseres herauslesen kann. Auf die Uebersetzung eines online translators kann ich mich sowieso nicht verlassen bei so grossen Sprachbarierrren.


nVidia's Weg wird wohl identisch mit dem von AMD sein: Hull und Domain sind programmierbar und Tessellation-Unit wird fest sein. Das geht auch so aus ihren Folien von der GTC hervor.

Zwar hab ich nie eine ausfuehrliche Antwort bekommen, aber wenn dem so waere waere es ziemlich bloed dass ein NV engineer sich die Muehe gemacht hat mir einen eher langwierigen Einblick zum Thema ff vs. programmable fuer Tesselation gegeben hat. Ich bestehe zwar nicht darauf denn ich hab nichts definitives aber es waere um einiges leichter anstatt metaphorisch um den Brei zu reden gleich in die richtige Richtung zu deuten. So oder so keiner kann momentan die Effizienz jeglicher Tesselation auf GF100 ausraten und dabei ist es wurscht ob es eine ff TS Einheit gibt oder nicht.

Undertaker
2009-11-03, 09:25:52
Auch das wäre eine Möglichkeit. Davon war nicht die Rede ist da etwas wenig Argument.

Es ist nicht der interessante Punkt. ;) Wenn Nvidia erst gar nicht bei GF fertigen sollte wäre das letztlich vermutlich auch für beide nachteilig.

Na dann pack mal aus, was wäre so fatal? Eine Benachteilung was support, etc. betrifft muss man erstmal jemanden nachweisen. Auch sonst dürfte AMD alleine durch die hohen Kapazitäten die man dort fertigt und der Beteiligung an GF einen Ausnahmestatus genießen. Das ist gang und gäbe in der Industie das solche Firmen bevorteilt werden. Sich hier hinzustellen und zu behaupten das wäre alles egal und von "fatalen Folgen" zu warnen ist schon etwas blauäugig in meinen Augen. Dessen ist sich sicherlich auch NV bewusst, deshalb glaube ich auch nicht das man eine Fertigung bei GF anstrebt.

Es geht doch hier nicht um Nachweise und Gerichtsprozesse. Man würde es sich schlicht mit seinen Kunden verscherzen, TSMC in die Hände spielen und stünde mit der nächsten schwachen Generation von AMD/ATI ziemlich im Regen. So weit wird jede Firma denken können, entweder gleiche Bedingungen für alle, oder TSMC bleibt auch weiterhin unangefochten. Ich tippe auf ersteres.