PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GT400/GF100 - Q1/2010, DX11, CUDA 3.0


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 [23] 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75

James Ryan
2009-11-16, 15:45:58
Ich überlege mir schon, statt von einer GTX260² auf eine GTX380 aufzurüsten einfach eine zweite GTX260² dazu zu stecken.
Mit Glück bin ich mit ~130€ auf Augenhöhe mit einer GTX380, jetzt schon und nicht erst im Mai - Juni.

MfG :cool:

Gipsel
2009-11-16, 15:48:00
Laut dieser Folie wohl ~150GB/s:
http://www.computerbase.de/bildstrecke/27497/21/
Tesla 10 hatte 102/GBs.
Also 800MHz GDDR5 mit optional ECC (verringert die zur Verfügung stehende Speichermenge).

Dural
2009-11-16, 15:48:28
denke ist mal das tesla mit 900mhz speicher kommt...

geforce dann mit 1200mhz

PHuV
2009-11-16, 15:57:16
Die Frage ist, ob Nvidia die kostbaren Fermi-Chips nicht lieber in die teuren Tesla-Karten verbauen, anstatt irgendwelche Consumerkarten zu bauen. Da werden wir wohl alle noch etwas länger warten müssen. :frown:

Gast
2009-11-16, 16:11:02
Ich überlege mir schon, statt von einer GTX260² auf eine GTX380 aufzurüsten einfach eine zweite GTX260² dazu zu stecken.
Mit Glück bin ich mit ~130€ auf Augenhöhe mit einer GTX380, jetzt schon und nicht erst im Mai - Juni.

MfG :cool:
Was bringt dir die Power wenn du dann kein Dx 11 hast?

mboeller
2009-11-16, 16:16:06
Sehe ich das richtig, das die 1230 MHz bzw. 1040 MHz Shadertakt für die Rev. A3 gelten? Die Karten kommen ja erst im Mai und bis dahin sollte dann A3 oder gar B2 bzw. B3 aktuell sein.

Da habe ich dann wenig Hoffnung das die normalen Geforce-Karten einen höheren Shadertakt haben werden. Zudem ist der Verbrauch mit (wahrscheinlich) geschätzten 190-225 Watt jetzt schon ziemlich hoch so dass hier kaum mehr Spielraum nach oben bleibt. Einen Fön wollen schließlich nur die wenigsten im Rechner laufen haben.

insgesamt: :( :( :(

[edit]: Zudem scheinen selbst die 1230MHz Shadertakt nur Marketing zu sein. Genau die 8-fache DP-Leistung einer GT200. Das riecht nicht mehr nach Marketing, das stinkt ja fast schon danach.

AnarchX
2009-11-16, 16:33:50
Auf dieser Folie sind es offenbar 1,5 TFLOPs SP:
http://www.computerbase.de/bildstrecke/27497/21/

Entweder ist die Darstellung nicht korrekt oder Fermi hat einen Takt für SP und einen Takt für DP.

reunion
2009-11-16, 16:38:22
Würde mich wundern wenn man das nicht erwähnen würde wenn es zwei Taktdomänen für DP und SP gibt. Noch dazu würde man dann nur die niedrigere der beiden Taktraten angeben. Es scheinen auch nirgends die 1.5TFLOPs auf. IMO eindeutig nur eine schematische Darstellung, zumal die Achsen auch nicht beschriftet sind.

derguru
2009-11-16, 16:41:54
was man schonmal komplett verabschieden kann ist eine gx2 variante.bald soll auch noch eine xtx von ati kommen die anscheindend der gegenpart für die gt300 sein soll.jetzt wird vom mai geredet,sieht düster zur zeit aus für nv.

LovesuckZ
2009-11-16, 16:45:12
was man schonmal komplett verabschieden kann ist eine gx2 variante.bald soll auch noch eine xtx von ati kommen die anscheindend der gegenpart für die gt300 sein soll.jetzt wird vom mai geredet,sieht düster zur zeit aus für nv.

Zum Glück bringt AMD auch eine x2, die nicht niedriger getaktet ist und mit mehr als 2x1GB kommt. Da haben wir einfach Glück, dass AMD mit 190 Watt nicht so hoch gegangen ist wie nVidia. :)
Wie wäre es einfach, solchen Unsinn einfach zu unterlassen? nVidia gibt maximal 225 Watt an - also steht einer GX2 nichts im Wege.

boxleitnerb
2009-11-16, 16:54:19
Die XTX wird auch ein Witz, wenn sie die Taktraten um 5 oder 6% steigern wie es bei bisherigen XTX-Karten der Fall war. Da bin ich eher auf die Überraschung gespannt, die auch angekündigt wurde.

Wie hoch schätzt ihr die Wahrscheinlichkeit, dass Fermi wie die Radeons RGSSAA kann und es offiziell im Treiber unterstützt?

derguru
2009-11-16, 16:55:42
Zum Glück bringt AMD auch eine x2, die nicht niedriger getaktet ist und mit mehr als 2x1GB kommt. Da haben wir einfach Glück, dass AMD mit 190 Watt nicht so hoch gegangen ist wie nVidia. :)
Wie wäre es einfach, solchen Unsinn einfach zu unterlassen? nVidia gibt maximal 225 Watt an - also steht einer GX2 nichts im Wege.
amd hat mit 190W schon probleme gehabt und du meinst mit 225W klappt es dann sicher,mal davon abgesehen das es wieder so ein glühender kochtopf wird.;D
Die XTX wird auch ein Witz, wenn sie die Taktraten um 5 oder 6% steigern wie es bei bisherigen XTX-Karten der Fall war. Da bin ich eher auf die Überraschung gespannt, die auch angekündigt wurde.

Wie hoch schätzt ihr die Wahrscheinlichkeit, dass Fermi wie die Radeons RGSSAA kann und es offiziell im Treiber unterstützt?

geh mal nicht von von der xtx der vergangenheit aus,5% wäre lächerlich.ich tippe auf 1000/1400-1500.es wurde eine überraschung angekündigt?

LovesuckZ
2009-11-16, 16:57:30
amd hat mit 190W schon probleme gehabt und du meinst mit 225W klappt es dann sicher,mal davon abgesehen das es wieder so ein glühender kochtopf wird.;D

Und? Ohne zu wissen wie schnell Fermi ist, wissen wir nicht, wie weit man die Cores runtertakten muss. Maximal gibt nVidia 225 Watt an (2x6 Pin) und typical 195Watt. Wo da der Unterschied zu AMD sein soll, erschließt mir gerade nicht. Aber du kannst das gerne näher erläutern. :)

MorPheuZ
2009-11-16, 16:58:42
Oh mann, jetz bin ich aber ganz glibberig ;D

http://www.evga.com/blackfriday/

reunion
2009-11-16, 16:59:30
Maximal gibt nVidia 225 Watt an (2x6 Pin) und typical 195Watt.

Ich sehe da 1x 6-Pin plus 1x8Pin:

http://img7.imageshack.us/img7/975/37136831.jpg (http://img7.imageshack.us/i/37136831.jpg/)

Coda
2009-11-16, 16:59:43
Würde mich wundern wenn man das nicht erwähnen würde wenn es zwei Taktdomänen für DP und SP gibt.
Das kann erstmal überhaupt nicht sein. Der Takt kann nicht von einer Instruction auf die nächste springen. Es sind die gleichen Ausführungseinheiten.

Und ja, 1300 Mhz sind wirklich weit unter den Erwartungen. Mal sehen ob sich da mit den GeForces noch was tut und wieviel am Ende davon auf die Straße bekommen wird.

derguru
2009-11-16, 17:04:00
Und? Ohne zu wissen wie schnell Fermi ist, wissen wir nicht, wie weit man die Cores runtertakten muss. Maximal gibt nVidia 225 Watt an (2x6 Pin) und typical 195Watt. Wo da der Unterschied zu AMD sein soll, erschließt mir gerade nicht. Aber du kannst das gerne näher erläutern. :)

was ist typical?ja dann kann ich auch sagen 5870 in spielen meist 150W.(ist ja typical):wink:

Gipsel
2009-11-16, 17:05:55
Auf dieser Folie sind es offenbar 1,5 TFLOPs SP:
http://www.computerbase.de/bildstrecke/27497/21/

Entweder ist die Darstellung nicht korrekt oder Fermi hat einen Takt für SP und einen Takt für DP.
Eher kreatives Runden. Selbst wenn man annimmt, daß die unbeschrifteten Achsen linear sind und bei Null anfangen, steigt die Performance etwas weniger als 50%. Und das ist doch auch verglichen mit einer 933 GFlop/s Peak C1060 (wie bei der 8x DP-Performance).

mapel110
2009-11-16, 17:08:53
Sind bei den Watt-Angaben nicht auch der Speicher mit inbegriffen? 3 GB und 6 GB werden wir ja auf den Geforces nicht sehen.

reunion
2009-11-16, 17:09:38
Sind bei den Watt-Angaben nicht auch der Speicher mit inbegriffen? 3 GB und 6 GB werden wir ja auf den Geforces nicht sehen.

Dafür nur mit ~800Mhz, das macht das Kraut nicht fett. Die gleiche Diskussion hatten wir schon bei den alten Quadros. Aber abwarten.

LovesuckZ
2009-11-16, 17:14:48
Sind bei den Watt-Angaben nicht auch der Speicher mit inbegriffen? 3 GB und 6 GB werden wir ja auf den Geforces nicht sehen.

Ja, da die Angabe für die komplette Karte gilt. Mit 1,5GB sollten man dann wohl mehr in Richtung 170 Watt gehen.
Schlussendlich liegt man auf ähnlichem Niveau wie AMD. Und da gibt es - oh Wunder - bald eine x2 Karte.

deekey777
2009-11-16, 17:15:34
War es nicht so, dass beim GPU-Computing es in erster Linie auf die Latenz ankommt, dann auf die Speicherbandbreite? Was bringt hohe Speicherbandbreite, wenn es hunderte Takte dauert, bis es soweit ist? Beim GT200 ist die Latenz 200 Takte.
Weterhin hat Fermi L2-Cache und dieses Zwitter-Ding aus L1 und Shared-Memory.

Coda
2009-11-16, 17:18:24
War es nicht so, dass beim GPU-Computing es in erster Linie auf die Latenz ankommt, dann auf die Speicherbandbreite?
Nö. Umgekehrt.

Die Latenz wird durch die große Anzahl an Threads versteckt.

Dural
2009-11-16, 17:19:26
easy leute, wir sprechen auch mit 1300MHz immer noch von einem schnelleren Chip als RV870 / GT200b... also so schlim ist es auch wieder nicht... und der GF100 scheint ja jetzt schon effizienter mit strom umzugehen als RV870, oder glaub wirklich jemand das ein GF100 mit 1230MHz und 190Watt langsamer als eine 5870 ist?

aber entäuschent das sie das mit dem takt immer noch nicht in den griff bekommen habe, langsam fragt man sich wo es den jetzt genau scheitert...

gibt es eigentlich keine brauchbaren OC versuche mit GT21x? mich wüde sehr interessieren was da max möglich ist!

Coda
2009-11-16, 17:20:51
easy leute, wir sprechen auch mit 1300MHz immer noch von einem schnelleren Chip als RV870 / GT200b
Da wäre ich mir nicht mehr so sicher bei RV870. Ganz ehrlich.

Mit 1300 Mhz hat man auch effektiv nichtmal 70% der Rechenleistung von RV870. Das kann nicht gut gehen. Ich wurde durch die Zahl auch auf einmal sehr pessimistisch.

Nakai
2009-11-16, 17:22:30
In erster Linie muss man den RV870 schlagen. Und da steht NV besser da, als viele denken. Wenn ~60% schneller als die GTX285 ist, dann reicht es schon für die schnellste SingleGPU. Und ich erwarte mehr, als das.

Und da gibt es - oh Wunder - bald eine x2 Karte.

NV wird das gleiche bringen und dann steht man gut genug da. Naja ich hoffe, dass NV nicht so schnell wird. Dann gibts wieder einen netten Preiskampf und wir haben alle was davon.^^


mfg

Coda
2009-11-16, 17:24:55
Dann hätten sie aber wieder die gleiche Position wie mit GT200b. Der Chip ist viel zu groß im Vergleich ohne eine signifikante Mehrleistung zu bieten.

Vor allem verstehe ich das auch nicht in Hinblick auf ihre Positionierung im GPGPU-Markt. Da zählt die 3D-Performance einfach nicht, sondern die Rechenleistung.

Dural
2009-11-16, 17:26:41
Da wäre ich mir nicht mehr so sicher bei RV870. Ganz ehrlich.

Mit 1300 Mhz hat man auch effektiv nichtmal 70% der Rechenleistung von RV870. Das kann nicht gut gehen. Ich wurde durch die Zahl auch auf einmal sehr pessimistisch.

naja, der RV870 ist aber mit seinen theoretischen Zahlen brutal ineffizient, gerade mal ca. 30-40% vor einer GTX 285 und der GF100 dürfte wohl schon min. 50% schneller sein bei selben takt, alles andere wäre ja eine schande!!!

reunion
2009-11-16, 17:28:10
easy leute, wir sprechen auch mit 1300MHz immer noch von einem schnelleren Chip als RV870 / GT200b... also so schlim ist es auch wieder nicht... und der GF100 scheint ja jetzt schon effizienter mit strom umzugehen als RV870, oder glaub wirklich jemand das ein GF100 mit 12300MHz und 190Watt langsamer als eine 5870 ist?

aber entäuschent das sie das mit dem takt immer noch nicht in den griff bekommen habe, langsam fragt man sich wo es den jetzt genau scheitert...


Die zwei Teslas takten mit 1040Mhz und 1230Mhz. 1300Mhz könnte schon der Takt des Desktop-Topmodells sein. Vielleicht schafft man etwas in Richtung 1400Mhz, viel mehr scheint auch angesichts der angegebenen Leistungsaufnahme nicht realistisch. Die Teslas takten aktuell immerhin auch praktisch genau so hoch wie die Desktopableger. Das ist schon erstmal deutlich weniger als angenommen. Und da NV die Dinger jetzt schon vorstellt und das alles fixiert ist das neue Stepping da schon inkludiert.

Wie es mit der Leistung aussieht wird man sehen müssen, aber den großen Burner erwarte ich mittlerweile nicht mehr.

derguru
2009-11-16, 17:28:27
der GF100 scheint ja jetzt schon effizienter mit strom umzugehen als RV870?
wie kommst du denn da drauf?
in effizienz ist der rv870 schwer zu schlagen.
http://www.abload.de/img/hd5870_power8tu9.png

Coda
2009-11-16, 17:29:27
In Spielen ja, da könnte auch noch ein Vorteil für Fermi entstehen durch die vielen Load/Store-Einheiten, je nachdem wie sie die Texturfilterung implementiert haben. Rechenleistung ist dort immer noch nicht so wichtig.

Aber ich finde es trotzdem enttäuschend. Wenigstens 1600Mhz hätten es schon sein dürfen.

Nakai
2009-11-16, 17:30:57
Dann hätten sie aber wieder die gleiche Position wie mit GT200b. Der Chip ist viel zu groß im Vergleich ohne eine signifikante Mehrleistung zu bieten.

Vor allem verstehe ich das auch nicht in Hinblick auf ihre Positionierung im GPGPU-Markt. Da zählt die 3D-Performance einfach nicht, sondern die Rechenleistung.

NV ist doch damit gut gefahren. Man hat Gewinne erzielen können. NAtürlich wird man versuchen diese Situation wieder zu vermeiden.

So oder so, wenn es wieder auf ein Patt rausläuft, zählen nur die Mainstream-Produkte. Darauf muss sich NV dann fixieren.


mfg

Dural
2009-11-16, 17:31:22
verstehe nicht was du meinst, wenn Chip A schneller ist als B und beide ca. 190Watt haben ist Chip A logischerweise effizienter!

aber was solls, wir wissen ja noch nix, aslo abwarten...

aylano
2009-11-16, 17:31:44
Und ja, 1300 Mhz sind wirklich weit unter den Erwartungen. Mal sehen ob sich da mit den GeForces noch was tut und wieviel am Ende davon auf die Straße bekommen wird.
Unter meinen Erwartungen nicht.
Ich schätzte am Ehesten auf 600Mhz-Chip-Takt sowie 1300 Mhz-Shader-Takt.
Naiv geschätz: So schnell wie der GT200 (65nm) & G80 (90nm) bei der Einführung.

Bzw. eventuell könnte es weniger werden, weil sie im Gegensatz zu GT200 & G80 einen ausgereiften Prozess haben.

Aber auch nur um die 10-12% im Bezug auf die richtigen Karten.
Einen S1070 kann man mittlerweile auch mit 1,44GHz erwerben: http://www.nvidia.com/object/product..._s1070_us.html

Das sieht ganz danach aus, als ob Fermi GeForce wohl unter 1,5GHz landen wird.
Nein, die Teslas waren bisher so schnell wie die Geforce-Versionen.
http://de.wikipedia.org/wiki/Nvidia-Geforce-200-Serie
http://de.wikipedia.org/wiki/Nvidia_Tesla

Editors’ note: As previously announced, the first Fermi-based consumer (GeForce®) products are expected to be available first quarter 2010.
Hört sich eher gegen Ende 1Q an, wenn nicht 2Q.

Kurz gesagt, genauso habe ich Fermi geschätzt, als ich ihn von der G80 & GT200 abgeleitet haben.
Andererseits war & ist die Unbekannte die neue Architektur, womit ich eigentlich schon fast eine Überraschung erwartet habe bzw erwarte.

@Stromverbrauch
Die Typische Leistungsaufnahme vom C1060 (=GT200) ist 160 Watt.
Beim Fermi soll sie bei 190Watt als fast 20% mehr betragen.

Also, so wie es aussieht, kann AMD den Stromverbrauch im Vergleich zum RV790 (=Selber Takt) genau halten.
Beim Fermi sieht es momentan nicht so aus und das ist genau der Grund, warum ich die große Spannungsabsenkung vom RV870 so oft erwähnte und diese mir nicht so groß beim Fermi vorstellen konnte.

Es könnte so ähnlich ausgehen, wie RV770 vs. GT200, wobei Fremi dann schon 40nm hat.
Mal sehen und abwarten.

Dural
2009-11-16, 17:36:10
aber aufpassen, die Tesla karte hat ganze 6GB GDDR5 Speicher mit ECC!!!

verbrauch beim Chip zwischen GF100 und GT200 dürfte schon plus/minus der selbe sein!

und welche nidrige spannung? die 5870 hat doch 1,12Volt und ich finde das im vergleich das hier 40nm zum einsatz kommt und die GT200 kaum mehr in 55nm haben nicht wirklich nidrig!

und furmark zeigt ja deutlich, wenn die 5870 mal ausgelastet ist verbraucht das teil sogar mehr als eine GTX285, ich sehe da bei weitem kein effizients wunder...

Gast
2009-11-16, 17:44:53
und furmark zeigt ja deutlich, wenn die 5870 mal ausgelastet ist verbraucht das teil sogar mehr als eine GTX285, ich sehe da bei weitem kein effizients wunder...
Gutes Argument. Ich spiele auch 24/7 Furmark!

Gast
2009-11-16, 17:45:22
Die ist dann aber auch um Welten schnell im FUR :cool:

Dural
2009-11-16, 17:48:07
ja du spielst lieber 3DMark06 wo eine 5870 die ganze zeit nur däumchen dreht... logisch das die da nichts verbraucht... :rolleyes:

reunion
2009-11-16, 17:48:51
und furmark zeigt ja deutlich, wenn die 5870 mal ausgelastet ist verbraucht das teil sogar mehr als eine GTX285, ich sehe da bei weitem kein effizients wunder...

Das stimmt aber auch nicht.

derguru
2009-11-16, 17:49:07
@dural

mach die augen auf,die einzige karte die unter fur lief ist die 5870 und dann kannst doch nicht von einem spannungsvergleich von 2 verschiedenen chips machen.:rolleyes:

Dural
2009-11-16, 17:49:55
ok, die grafik ist nicht klar... halt nicht viel weniger ;)

aber sind die anderen werte jetzt wirklich 3DMark06 wie immer?

Gast
2009-11-16, 17:59:49
ja du spielst lieber 3DMark06 wo eine 5870 die ganze zeit nur däumchen dreht... logisch das die da nichts verbraucht... :rolleyes:
Aber die GTX285@3DMark ist voll ausgelastet, so dass man mal eben den Stromverbrauch der 5870@Fur mit der GTX285@3DMark vergleichen kann, oder was willst du mir erzählen? :D Komm, so schwach ist die 285 auch nicht.

Schlammsau
2009-11-16, 18:00:30
und furmark zeigt ja deutlich, wenn die 5870 mal ausgelastet ist verbraucht das teil sogar mehr als eine GTX285, ich sehe da bei weitem kein effizients wunder...
Das bezweifel ich stark, ok...ich hab nur eine 5850 aber die verbraucht deutlich weniger als eine 4890. Und so viel mehr verbraucht eine 5870 auch nicht.

Haste zufällig nen Link?

Gast
2009-11-16, 18:09:14
Haste zufällig nen Link?
http://ht4u.net/reviews/2009/msi_r5850_ati_radeon_hd5850/index9.php

Der Furmark wird aber vermutlich vom Catalyst ausgebremst.

Gast
2009-11-16, 18:21:46
http://ht4u.net/reviews/2009/msi_r5850_ati_radeon_hd5850/index9.php

Der Furmark wird aber vermutlich vom Catalyst ausgebremst.
Quatsch das wurde gefixed vom Furmark

N0Thing
2009-11-16, 18:28:30
Dann schaut man sich einfach bei HT4U die Stromverbrauchswerte unter Bioshock an, dann hat man eine Anwendung unter der die Grafikkarten mehr Strom verbrauchen als z.B. beim 3D Mark und es ist ein echtes Spiel. Kein Benchmark- oder Auslastungsprogramm.

aths
2009-11-16, 19:24:24
ich bin mega entäuscht, nach dem GT200 der eingetlich eine tolle GPU ist wieder so eine takt bremse zu bekommen....NV40 hatte nur 400 MHz Takt, G70 nur 430 (später 550 MHz.) Der G71 wurde dann auf 650 geprügelt.

G80 hatte nur 576 // 1350, G92 wurde auf 738 // 1836 getrieben.

GT200 begann mit 602 // 1296 und dann – immerhin – auf 648 // 1476 gebracht.

Beim GF100 wird Nvidia wohl erst mal die neue Architektur zum Laufen bringen und die Taktbarkeit erst mit den Refreshes deutlich steigern.

boxleitnerb
2009-11-16, 19:54:10
Ist es vielleicht möglich, dass hier gewisse Falschinformationen verbreitet wurden, um die wahre Leistungsfähigkeit von Fermi zu verschleiern? Nur so ein Gedanke.

reunion
2009-11-16, 19:58:50
Ist es vielleicht möglich, dass hier gewisse Falschinformationen verbreitet wurden, um die wahre Leistungsfähigkeit von Fermi zu verschleiern? Nur so ein Gedanke.

Die Karten wurde offiziell von NV vorgestellt. Wäre zumindest ein Novum das man hier bewusst falsche Daten angibt und kann man auch den eigenen Kunden gegenüber wohl kaum verantworten.

Aquaschaf
2009-11-16, 20:06:13
Ich finde es interessant dass laut den Folien G200-basierte Tesla-Produkte noch mindestens bis Q4/2010 leben dürfen.

boxleitnerb
2009-11-16, 20:08:52
Tesla-Fermi wurde vorgestellt, nicht Geforce-Fermi. Ich hoffe ja immer noch auf zwei verschiedene Produktlinien ohne DP und den ganzen Quark, dafür viel besser taktbar.

Aquaschaf
2009-11-16, 20:13:48
Tesla-Fermi wurde vorgestellt, nicht Geforce-Fermi. Ich hoffe ja immer noch auf zwei verschiedene Produktlinien ohne DP und den ganzen Quark, dafür viel besser taktbar.

Für die Highend-Geforce auf Fermi-Basis ist das sehr unwahrscheinlich. Auch wäre etwas über Tapeouts eines weiteren Chips bereits durchgesickert. Es würde mich wundern wenn die Teile des Chips die für 3D-Grafik uninteressant sind überhaupt einen spürbaren Einfluss auf die Taktbarkeit haben.

aylano
2009-11-16, 20:19:38
aber aufpassen, die Tesla karte hat ganze 6GB GDDR5 Speicher mit ECC!!!
Worauf sich die 190 Watt beziehen, steht da nicht einmal.

Da die 6 GB Variante später kommt, kann man annehmen, dass sie nicht damit gemeit ist.


verbrauch beim Chip zwischen GF100 und GT200 dürfte schon plus/minus der selbe sein!
GT200 hat einen typical Verbrauch von 160 Watt.
GF100 hat einen Typical Verbrauch von 190 Watt.
Wenn die +30 Watt eben die cGPU-Einheiten verursachen, könnte es stimmen, aber sonst würde ich da mehr an Nvidias-Angaben vertrauchen.



und welche nidrige spannung? die 5870 hat doch 1,12Volt und ich finde das im vergleich das hier 40nm zum einsatz kommt und die GT200 kaum mehr in 55nm haben nicht wirklich nidrig!

RV770 (1,30 Volt) --> RV870 (1,15 Volt)
GT200(b) (1,18 Volt) --> GF100 (1,04Volt??? oder auch nicht;-))

Die GT200 sah nur deshalb recht Energie-Effizient aus, weil die Volt dermaßen niedrig waren;-)
Fakt ist, Fermi hat 40-50% mehr Transistoren und hat eine um ca. 50% höhere Die-Fläche. Also, da wäre eine 50% höhere Stromverbrauch logisch, oder auch nicht, wenn man mit der Spannung und mit dem Takt runtergeht.

Nicht umsonst sahen die Low-End & mainstream-Karten im Vergleich zu Konkurrenz so schlecht aus.


und furmark zeigt ja deutlich, wenn die 5870 mal ausgelastet ist verbraucht das teil sogar mehr als eine GTX285, ich sehe da bei weitem kein effizients wunder...
Es zeigt, AMD kann in den Spiele viele Einheiten nicht nutzen. Könnte AMD diese Einheiten nutzen, wäre die Grafikkarte in dien Spielen auch dementsprechend schneller;-) Also, sei über die Schlechte Einheiten-Auslastung bei AMD froh.

naja, der RV870 ist aber mit seinen theoretischen Zahlen brutal ineffizient, gerade mal ca. 30-40% vor einer GTX 285 und der GF100 dürfte wohl schon min. 50% schneller sein bei selben takt, alles andere wäre ja eine schande!!!
Es ist kein Naturgesetzt, dass Nvidia immer vorne sein muss;-)
Wer die Taktprobleme des GT200 ignoriert hat, der dürfte jetzt bzw. vielleicht in Zukunft überrascht sein.

Wie ich schon in Juli 2008 sagte.
Hätte AMD damals einen 25% größeren Die und dementsprechend mehr Einheiten, dann hätte AMD schon damals der GT200 die Single-Karte-Krone abgenommen.

Und es sieht monentan so aus, als ob es passieren könnte und somit wäre ein RV770 vs. GT200-Verhältnis eine katastrophe für Nvidia, da sie nicht mehr einen Halb-Mode-Shrink mehr machen können, wo GTX285 mit mehr Takt & weniger Stromverbrauch ordentlich in der Effizienz zulegte.

Dazu der Unterschied, AMD ist als erster mit 40nm & DX11, während AMD damals bis 2Q 2009 braucht, um die RV7x0-Technologie überall zu verfügung zu stellen.
Und es ist kein Zufall, dass Nvidia genau in diesem Quartal (2Q 2009) massive an Notebook-GPU-Marktanteile verloren hatte. Danach führte Nvidia schon die Low-End & Mainstream-GPUs in 40nm ein und konnte wieder dagegen halten/kontern.

G!ZMo
2009-11-16, 20:23:45
<snip>
Die GT200 sah nur deshalb recht Energie-Effizient aus, weil die Volt dermaßen niedrig waren;-)
<snip>
Kannst du dir bitte mal angewöhnen "die Spannung" statt "die Volt" zu schreiben? Da rollen sich mir ja die Fußnägel hoch, wenn ich sowas lese. :mad:
Das Volt ist die Einheit der Spannung und übrigens auch nicht feminin!
sry 4 OT aber das musste mal raus...

reunion
2009-11-16, 20:44:24
Eigentlich konnte man es nach den ganzen 40nm GT21x-Chips ja schon fast erahnen. Auch dort sind die Taktraten sehr niedrig und die Leistungsaufnahme relativ hoch.

Coda
2009-11-16, 20:48:48
Konnte man nicht.

reunion
2009-11-16, 20:51:03
Konnte man nicht.

Es zeigt sich wohl das man es konnte. :D

Coda
2009-11-16, 20:57:53
Nur weil das Ergebnis so ist, heißt das noch lange nicht, dass man es konnte.

Zwei völlig verschiedene ASICs sind was den Takt angeht natürlich nicht vergleichbar. Da gibt es mehr als genügend Gegenbeispiele, auch im gleichen Prozess.

Anscheinend hat Fermi eine ähnliche Pipeline-Länge und damit ähnliche Probleme mit dem Prozess. Die Pipeline hätte aber genausogut 50% länger sein können. Und zudem hat sie aufgrund der auf jeden Fall von Grund auf neu geschriebenen Float-Units (schließlich müssen sie DP mitmachen) natürlich auch völlig andere Critical-Paths.

mapel110
2009-11-16, 20:58:51
http://www.semiaccurate.com/2009/11/16/fermi-massively-misses-clock-targets/
nächster Rant von Charlie. ^^

Gast
2009-11-16, 21:10:08
interessant daran ist eher, das er anscheinend von den niedrigen Frequenzen nichts vorher wusste.

reunion
2009-11-16, 21:11:54
http://www.semiaccurate.com/2009/11/16/fermi-massively-misses-clock-targets/
nächster Rant von Charlie. ^^

Tja, auch wenn er lange belächelt wurde. Er hatte mit vielen Dingen recht.

Nur weil das Ergebnis so ist, heißt das noch lange nicht, dass man es konnte.

Zwei völlig verschiedene ASICs sind was den Takt angeht natürlich nicht vergleichbar. Da gibt es mehr als genügend Gegenbeispiele, auch im gleichen Prozess.

Anscheinend hat Fermi eine ähnliche Pipeline-Länge und damit ähnliche Probleme mit dem Prozess. Die Pipeline hätte aber genausogut 50% länger sein können. Und zudem hat sie aufgrund der auf jeden Fall von Grund auf neu geschriebenen Float-Units (schließlich müssen sie DP mitmachen) natürlich auch völlig andere Critical-Paths.

Ja, ich weiß schon was du meinst. Trotzdem, wenn man ehrlich ist unterscheiden sich Chips eines Herstellers im gleichen Prozess selten sonderlich stark in punkto Taktraten. Bei einer neuen Generation ist das aber zugegebenermaßen kaum vergleichbar, es passt hier aber trotzdem ungefähr.

Sorkalm
2009-11-16, 21:18:51
interessant daran ist eher, das er anscheinend von den niedrigen Frequenzen nichts vorher wusste.

Er schreibt ja sogar:

The numbers we have been hearing for GT300/Fermi for the past few months were 768 GigaFLOPS for double-precision floating-point and 1.5 TeraFLOPS in single-precision floating-point

Sprich: 1500 MHz Shader.

Gast
2009-11-16, 21:24:37
interessant daran ist eher, das er anscheinend von den niedrigen Frequenzen nichts vorher wusste.
Bei den Frequenzen wurde die Planung ja auch angepasst ... hatte ich hier vor ein paar Wochen schon geschrieben, wurde aber zensiert.
Ohne die Anpassung hätte sich datt Dingen noch um ein Jahr verzögert.
die Schuld liegt da eher nicht bei nv, sondern bei TSMC. Anderseits, wenn nv auch alles glaubt was ihnen die Schlitzis so erzählen ... :D
Und behaltet mal die TSMC Bilanzen im Auge, da könnte sich was interessantes zeigen.

reunion
2009-11-16, 21:27:57
Bei den Frequenzen wurde die Planung ja auch angepasst ... hatte ich hier vor ein paar Wochen schon geschrieben, wurde aber zensiert.
Ohne die Anpassung hätte sich datt Dingen noch um ein Jahr verzögert.
die Schuld liegt da eher nicht bei nv, sondern bei TSMC. Anderseits, wenn nv auch alles glaubt was ihnen die Schlitzis so erzählen ... :D
Und behaltet mal die TSMC Bilanzen im Auge, da könnte sich was interessantes zeigen.

Da fragt man sich aber dann warum AMD mit dem gleichen Prozess offenbar keine Takt- oder Abwärmeprobleme hat.

mapel110
2009-11-16, 21:29:07
Da fragt man sich aber dann warum AMD mit dem gleichen Prozess offenbar keine Takt- oder Abwärmeprobleme hat.
Du meinst, bei den 6-60% der "Ausbeute"? :ugly:

reunion
2009-11-16, 21:30:27
Du meinst, bei den 6-60% der "Ausbeute"? :ugly:

Das eine hat mit dem anderen wenig zu tun. Würde man mit bsw. 600Mhz deutlich höhere Yields erzielen würde nicht selbst die kleine 5850 mit 725Mhz takten.

LovesuckZ
2009-11-16, 21:36:28
Du meinst, bei den 6-60% der "Ausbeute"? :ugly:

Ach und den 190 Watt, die dazu führen, dass sie Hemlock mit reduziertem Takt und nur 2x1GB Speicher releasen müssen. Die 850Mhz sind auch die obere Grenze. Ja, AMD hat keine Probleme - bis eben die fehlenden Karten auf dem Markt. ;D

Coda
2009-11-16, 21:42:09
Da fragt man sich aber dann warum AMD mit dem gleichen Prozess offenbar keine Takt- oder Abwärmeprobleme hat.
Vielleicht haben sie Glück, weil sie auf viel niedrigere Taktraten setzen und dafür kürzere Pipelines.

Ähnliches musste ja auch Intel schon schmerzlich lernen beim Pentium 4.

Gast
2009-11-16, 21:43:42
BTW vlt. glaub ihr es ja einem nv Mitarbeiter, dass das mit Mai (hatte ich hier auch schon vor ein paar Wochen geschrieben) _kein_ Scherz war:
http://www.heise.de/newsticker/meldung/SC09-Tesla-Rechenkarten-mit-Fermi-Chips-860474.html

Und GFs wirds auch nit früher geben, nur in Vorbestellungen ... aber es haben ja auch welche DNF "gekauft" :D

@reunion: was AMD richtig und nv falsch gemacht hat ... keine Ahnung, obs nur ein Ausbeuteproblem wg. der größeren Chipfläche ist oder Schaltungsspezifika reinspielen. Jedenfalls ist der Clock Skew ganz anders, als sich das nv beim Designen noch gedacht hat.

reunion
2009-11-16, 21:51:11
BTW vlt. glaub ihr es ja einem nv Mitarbeiter, dass das mit Mai (hatte ich hier auch schon vor ein paar Wochen geschrieben) _kein_ Scherz war:
http://www.heise.de/newsticker/meldung/SC09-Tesla-Rechenkarten-mit-Fermi-Chips-860474.html

Und GFs wirds auch nit früher geben, nur in Vorbestellungen ... aber es haben ja auch welche DNF "gekauft" :D

@reunion: was AMD richtig und nv falsch gemacht hat ... keine Ahnung, obs nur ein Ausbeuteproblem wg. der größeren Chipfläche ist oder Schaltungsspezifika reinspielen. Jedenfalls ist der Clock Skew ganz anders, als sich das nv beim Designen noch gedacht hat.

Das wäre natürlich sehr bitter für NV wenn auch die GFs nicht früher kommen. Dann wäre im Q1 wohl eher ein Paper-Launch angesagt. Jetzt müsste man nur noch wissen wer du bist bzw. warum du das alles zu wissen glaubst. =)

Coda
2009-11-16, 21:51:18
Es liegt also an der Clock Propagation?

Nakai
2009-11-16, 21:57:51
Ach und den 190 Watt, die dazu führen, dass sie Hemlock mit reduziertem Takt und nur 2x1GB Speicher releasen müssen. Die 850Mhz sind auch die obere Grenze. Ja, AMD hat keine Probleme - bis eben die fehlenden Karten auf dem Markt. ;D

Wenigstens können sie liefern..zwar nicht hinreichend, aber ein Papiertiger ist der RV870 nicht mehr.;)

Da fragt man sich aber dann warum AMD mit dem gleichen Prozess offenbar keine Takt- oder Abwärmeprobleme hat.

Btw, wieso sagen viele immer, dass es AMD besser gemacht hat? Ich glaube kaum, dass bei NV schlechtere Ingenieure sitzen. Imo hat man hier sich beim Design irgendwo total verzettelt(Handoptimierten SPs?!) oder TSMC ist hier der Schuldige.

Die Taktraten sprechen eher für TSMC.


mfg

LovesuckZ
2009-11-16, 21:58:29
BTW vlt. glaub ihr es ja einem nv Mitarbeiter, dass das mit Mai (hatte ich hier auch schon vor ein paar Wochen geschrieben) _kein_ Scherz war:
http://www.heise.de/newsticker/meldung/SC09-Tesla-Rechenkarten-mit-Fermi-Chips-860474.html

Ist schade für die, die sich für tausende von Dollars eine Fermi-Tesla Karte kaufen wollen.

Wenigstens können sie liefern..zwar nicht hinreichend, aber ein Papiertiger ist der RV870 nicht mehr.;)


Stimmt - weil sie liefern bzw. nicht liefern können, hat AMD es besser gemacht. Wenn AMD keine Probleme haben würde, gäbe es die Karten wie Sand am Meer. Der Launch ist 8 Wochen her.

Coda
2009-11-16, 22:04:51
RV870 hat aber seine angezielten Taktraten erreicht, und ist auf dem Markt verfügbar. Das ist natürlich ein ganz anderer Fall als Fermi.

Gast
2009-11-16, 22:05:40
Es liegt also an der Clock Propagation?
Im Prinzip könnte man das wohl so sagen (kann aber sein dass ich mich jetzt ganz grob vertue, Schaltungstechnik is schon soooooooo lange her). Obs tatsächlich direkt am Taktverteilunsgbaum liegt oder sonstwo was aus ganz anderen Dimensionen querschießt - k.a. (muss ich auch nicht wissen, arbeite weder bei nv noch bei TSMC und ich glaub, sogar dort wissen sie es nicht so 100% genau ;-) )

reunion
2009-11-16, 22:05:57
Stimmt - weil sie liefern bzw. nicht liefern können, hat AMD es besser gemacht. Wenn AMD keine Probleme haben würde, gäbe es die Karten wie Sand am Meer. Der Launch ist 8 Wochen her.

Niemand hat gesagt das AMD keine Probleme hat. Du hast nur wieder mal keine Argumente und behauptest einfach irgend was. AMD hat offenbar keine Takt- und Abwärmeprobleme. Das habe ich gesagt. Der Chip läuft, es fehlt nur noch die Stückzahl. Das ist Aufgabe der Foundry.

Nakai
2009-11-16, 22:06:06
Stimmt - weil sie liefern bzw. nicht liefern können, hat AMD es besser gemacht. Wenn AMD keine Probleme haben würde, gäbe es die Karten wie Sand am Meer. Der Launch ist 8 Wochen her.

Wer sagt denn, dass AMD Probleme hat? Vielleicht sind die Yields wirklich so mies? Und nach Ail, war AMD einfach zu dämlich genug Wafer zu bestellen. Naja und jetzt spackt TSMC wieder rum.

Ja, NV soll liefern, damit wieder Konkurrenzkampf auf dem Markt herrscht. Solange AMD alleine auf dem Markt ist, werden die Preise länger so hoch bleiben...und ich will nicht unbedingt ne ATI...


mfg

LovesuckZ
2009-11-16, 22:08:05
RV870 hat aber seine angezielten Taktraten erreicht, und ist auf dem Markt verfügbar. Das ist natürlich ein ganz anderer Fall als Fermi.

AMD erreicht den Takt bei 190 Watt. Das kann wohl kaum das Ziel gewesen sein. Hemlock muss mit 2x1GB und deutlich reduzierten Taktraten kommen. Die Verfügbarkeit der Karten ist nach fast 8 Wochen gleich 0. Sie haben ebenfalls Probleme. Davon abgesehen finde ich es komisch bei nVidia von Taktproblemen zu reden, wenn sie im Grunde gerade A2 zurückerhalten haben und niemand zZ davon etwas wissen kann.

Wer sagt denn, dass AMD Probleme hat? Vielleicht sind die Yields wirklich so mies? Und nach Ail, war AMD einfach zu dämlich genug Wafer zu bestellen. Naja und jetzt spackt TSMC wieder rum.

Die "wenigen" Wafer zählen für 55nm und darüber. AMD hat ein neues Produkt gelauncht, dort wird immer mehr produziert als benötigt*. Vorallem wenn man weiß, dass man als erster auf den Markt kommt. Nach 8 Wochen gibt es so wenige Karten, dass hier nicht zu wenig Wafer geordert wurden.
Und bei angeblichen 50% Yields für 40nm, muss davon ausgegangen werden, dass über die Hälfte an Chips vom Cypress in die Tonne wandern. Wenn so "keine Probleme" aussehen, dann will ich erstmal wissen, was Probleme bei einigen bedeuten.

* Die Anfangsmenge bestimmt die möglichen Yields, danach geschieht die Massenproduktion. Die scheint bei AMD überhaupt noch nicht angelaufen zu sein.


Ja, NV soll liefern, damit wieder Konkurrenzkampf auf dem Markt herrscht. Solange AMD alleine auf dem Markt ist, werden die Preise länger so hoch bleiben...und ich will nicht unbedingt ne ATI...
mfg

Es gäbe zZ keinen Preiskampf, da beide überhaupt nicht liefern könnten. Ein Preiskampf benötigt ein größeres Angebot als Nachfrage bei beiden Herstellern. Dein Preiskampf bekommst du nächtes Jahr.

horn 12
2009-11-16, 22:09:31
Gut dass ich meine HD4870 1GB für 95 Euro verkauft habe und mir eine HD5850 für 219 Euro geschnappt habe. Bis die NV kommen kann ja noch 2-3 Monate dauern.
Der Unterschied ist schon bemerkbar, aber auch wieder nicht allzugroß. Muss aber noch das OC Potential ausreizen.

reunion
2009-11-16, 22:11:10
AMD erreicht den Takt bei 190 Watt. Das kann wohl kaum das Ziel gewesen sein.

Sagt wer? Der Chip ist relativ groß, größer als RV670 oder RV770/RV790. Man hat wohl kaum bei 850Mhz und 2.15Mrd Transistoren erwartet unter 150W zu bleiben. Die X2 niedriger zu takten ist bei NV gang und gäbe und hat auch den Vorteil keine so große Lücke zwischen der X2 und dem schnellsten Single-Chip zu haben.

Gipsel
2009-11-16, 22:14:35
Davon abgesehen finde ich es komisch bei nVidia von Taktproblemen zu reden, wenn sie im Grunde gerade A2 zurückerhalten haben und niemand zZ davon etwas wissen kann.
Außer vielleicht nvidia selber, die dieses Exklusivwissen gleich in eine Pressemittelung übersetzt haben, die offiziell ein paar Performance-Zahlen für die Fermi-Teslas verkündet ;).

LovesuckZ
2009-11-16, 22:21:11
Außer vielleicht nvidia selber, die dieses Exklusivwissen gleich in eine Pressemittelung übersetzt haben, die offiziell ein paar Performance-Zahlen für die Fermi-Teslas verkündet ;).

Wo siehst du dort massive Taktprobleme? Man erreicht nicht die Taktraten der früheren Tesla-Produkte, trotzdem ist man mit 6GB Speicher bei 190 Watt. Da sie maximal 225 Watt erreichen wollten, ist man kompromisse eingegangen. Für GF100 lässt sich also sagen, dass man bei 1,5GB eben auf ca. 14xxMHz gehen kann. Damit liegt man zwar unter der GTX285, aber dies war bei der GTX280 auch nicht anders - und die lag noch deutlich unter dem Wert der 9800GTX.

Coda
2009-11-16, 22:33:14
Das "massive Taktproblem" entsteht aus der Architektur von NVIDIA. Wenn sie nicht fast doppelt so hoch takten können wie ATI im gleichen Prozess, dann sind ihren fetten Custom-Logic-ALUs einfach komplett für den Arsch.

ATI hingegen umgeht das Problem auf dem Chip durch VLIW und brauch dadurch pro Recheneinheit weniger Scheduling-Logik. Das erhöht natürlich die Arbeit von Compiler und nimmt auch die Entwickler teilweise mit in die Verantwortung. Das ging bei RV770 aber schon mindestens genauso gut auf und könnte bei RV870 jetzt sogar der bessere Weg sein.

Leider nimmt es ATI aber doch zu wichtig mit der Rechenleistung und vergisst dabei etwas die TMUs. Wobei sie das Ratio bei RV870 ja wenigstens nicht erhöht haben. Der Arithmetikanteil von Shader-Code wächst ja.

reunion
2009-11-16, 22:40:42
Wo siehst du dort massive Taktprobleme? Man erreicht nicht die Taktraten der früheren Tesla-Produkte, trotzdem ist man mit 6GB Speicher bei 190 Watt. Da sie maximal 225 Watt erreichen wollten, ist man kompromisse eingegangen. Für GF100 lässt sich also sagen, dass man bei 1,5GB eben auf ca. 14xxMHz gehen kann. Damit liegt man zwar unter der GTX285, aber dies war bei der GTX280 auch nicht anders - und die lag noch deutlich unter dem Wert der 9800GTX.

Ich frage mich woher du überhaupt das Insiderwissen zu haben glaubst das man nicht über 225W gehen wollte (8-Pin Anschluss ist vorhanden). Vielleicht ist ganz einfach nicht mehr Takt möglich?! Die aktuellen Teslas takten jedenfalls nicht beachtenswert niedriger als eine GTX285. Tesla C1070 hat 1.44Ghz Shadertakt, die GTX285 1.476Ghz. Bei GT200 waren die Taktraten sogar idetisch mit der GTX280. Ist ja auch logisch, gerade bei den Teslas ist der Shadertakt das entscheidende.

Gipsel
2009-11-16, 22:40:48
Wo siehst du dort massive Taktprobleme? Man erreicht nicht die Taktraten der früheren Tesla-Produkte, trotzdem ist man mit 6GB Speicher bei 190 Watt. Da sie maximal 225 Watt erreichen wollten, ist man kompromisse eingegangen. Für GF100 lässt sich also sagen, dass man bei 1,5GB eben auf ca. 14xxMHz gehen kann. Damit liegt man zwar unter der GTX285, aber dies war bei der GTX280 auch nicht anders
Ich weiß zwar, daß das nicht viel bringen wird, aber gehen wir doch mal die Fakten durch.

Nv macht ein Riesenbrimborium um DP (was mich persönlich auch interessiert) und wie viel Steigerung uns Fermi da bringen wird. Jetzt landet man bei DP auf Cypress-Level (und die Auslastung der Einheiten ist bei DP kein Problem bei ATIs!). Die SP-Performance ist ihnen offenbar so peinlich (wenn man böse ist, nennt man das HD48x0-Niveau ;D), daß sie in der Pressemeldung noch nicht mal erwähnt wird. Und Du glaubst, es gibt keine Taktprobleme?

Und dafür benötigen die Teslas auch noch 190W typisch, maximal sogar 225W. Zwar mit viel Speicher, allerdings auch nur bei stromsparenden 800MHz Speichertakt (ECC spielt hier keine Rolle). Cypress benötigt maximal 190W (offiziell 188W), typisch sind es eher 150W oder weniger. Und Du glaubst, nv hat geplant, bei so geringen Takten so viel zu verbrauchen? Und das, wo doch im Vorfeld soviele Gerüchte zur sehr guten Energieeffizienz von Fermi zu hören waren? Sicher!

Und der Schritt von GTX280 zur GTX285 paßt ja wohl überhaupt nicht hier rein. Also ich habe so dunkel in Erinnerung, daß die GTX280 in 65nm, die GTX285 aber in 55nm produziert wurden/werden. Da könnte ich auch behaupten, daß in 7 Monaten ATI ein RV890 in 32nm bei 1.1GHz und 120W bringen wird. Schau Dir doch mal die Differenz zwischen den GTX und Tesla-Karten an! Bei den 65nm GT200 gab es gar keinen Unterschied und bei GT200b basierten GPUs taktet die GTX285 ganze 36 MHz höher als die Teslas. Bahnbrechend, wirklich!

Coda
2009-11-16, 22:43:55
Wenn ATI jetzt noch mehr in Dev-Support und Tools investieren würde. Ich habe keine Ahnung was sie da reitet. Das sollte doch gerade in Hinblick auf Fusion eine Kernangelegenheit sein.

Dann hätte NVIDIA wohl wirklich ein massives Problem.

Aber wahrscheinlich läuft Huang gerade jeden Tag mit nagelbesetzten Stiefeln durch die Firma X-D

Spasstiger
2009-11-16, 23:25:18
Die ECC-Implementierung des Fermi geht offenbar auf Kosten der Speicherbandbreite, weil keine dedizierten Speicherchips und damit auch keine dedizierten Leitungen für die Redundanzdaten vorhanden sind:
* With ECC enabled, memory available to the user will be 2.625GB for an C2050 and 5.25GB for an C2070.
http://www.nvidia.com/object/product_tesla_C2050_C2070_us.html

YfOrU
2009-11-16, 23:27:24
Wenn ATI jetzt noch mehr in Dev-Support und Tools investieren würde. Ich habe keine Ahnung was sie da reitet. Das sollte doch gerade in Hinblick auf Fusion eine Kernangelegenheit sein.

Das liegt/lag bei AMD mit unter wohl an den verfügbaren (finanziellen) Resourcen und nicht am Willen. Mit Blick auf die vielen Änderungen in den Roadmaps und Verspätungen der Vergangenheit ist vermutlich der Rotstift deutlich krasser angesetzt worden als nach außen ersichtlich. Mit Firestream, Opteron sowie eigenem Chipsatz wäre auf der Hardwareseite ein Paket vorhanden das praktisch nicht zu schlagen ist. Ganz freiwillig dürfte der nötige Ausbau kaum verschoben worden sein.

Coda
2009-11-16, 23:32:12
Naja, es ist ja nicht so als wäre das ein Phänomen das erst in letzter Zeit aufgetreten ist.

Die ECC-Implementierung des Fermi geht offenbar auf Kosten der Speicherbandbreite, weil keine dedizierten Speicherchips und damit auch keine dedizierten Leitungen für die Redundanzdaten vorhanden sind:
Ergibt Sinn. Ich hab mich schon gefragt wie die das mit den getrennten Speicherkanälen machen wollen.

Gast
2009-11-16, 23:58:24
Also eine GTX285 schafft mit 240 Shadern und DDR3 ca. 80% einer 5870.

Da wird eine Femi mit 512 Sahdern und DDR5 selbst ohne Fortschritte im Cache usw, ja mal bei mindestens 150% einer 5870 landen. Und vielleicht bringt ein 4x so großer Cache ja tatsächlich irgendwo noch nen Vorteil...

S940
2009-11-17, 00:38:36
Also eine GTX285 schafft mit 240 Shadern und DDR3 ca. 80% einer 5870.

Da wird eine Femi mit 512 Sahdern und DDR5 selbst ohne Fortschritte im Cache usw, ja mal bei mindestens 150% einer 5870 landen. Und vielleicht bringt ein 4x so großer Cache ja tatsächlich irgendwo noch nen Vorteil...
Warte mal bis ATi die nächsten 3-4 Treiberversionen draußen hat ... :D

w0mbat
2009-11-17, 00:40:55
Zumal es eher 70% sind und der GT200 MADD+MUL hat.

mapel110
2009-11-17, 00:43:06
Zumal es eher 70% sind und der GT200 MADD+MUL hat.
Bei 8xAA sind es 70%, sonst eher 80%. Und das Mul spielt praktisch nie eine Rolle.

Coda
2009-11-17, 00:44:43
8xAA werden sie ja hoffentlich endlich gefixt haben.

mapel110
2009-11-17, 00:48:36
8xAA werden sie ja hoffentlich endlich gefixt haben.
Irgendwie verliere ich den Glauben daran, dass sie wirklich ernsthaft was an den Bildqualitätsfeatures verbessert haben. Spielt AA nicht auch eine Rolle bei den Profikarten? Ist nicht SSAA wegen den Quadros drin in den Treibern? Wieso dann bei dieser Präsentation kein Wort davon?!

Coda
2009-11-17, 01:05:13
Es ging doch um Tesla dachte ich?

mapel110
2009-11-17, 01:07:25
Es ging doch um Tesla dachte ich?
Ah, okay, da gibts also noch was. Dachte, das wäre alles der selbe Markt irgendwie.

Spasstiger
2009-11-17, 01:34:03
Glaubt hier eigentlich noch Jemand, dass die GTX 380 mehr als 50% schneller in Spielen wird als die GTX 285 nach den doch eher ernüchternden Angaben zur Rechenleistung?
Wenn die GTX 380 mit den gleichen Taktraten (bei Single Precision) kommt wie die GTX 285, dann wäre der Vorsprung wohl ziemlich genau 50%, wenn die überarbeitete Architkektur nicht noch für irgendwelche Überraschungen gut ist.
Das würde reichen, um sich vor die HD 5870 zu setzen, aber angesichts der Verzögerungen und der voraussichtlich sehr hohen Leistungsaufnahme (siehe die Teslas mit ihren max. 225 Watt bei sehr niedrigen Taktraten) wird die Presse sicherlich nicht in Begeisterungsstürme ausbrechen.

P.S.: Da hier die Diskussion bezüglich der Speichermenge und der Leistungsaufnahme aufkam: Die Energie wird größtenteils bei Speicherzugriffen umgesetzt, entscheidende Parameter sind dabei die Busbreite, der Speichertyp, die Speicherspannung und der Speichertakt. Nicht so entscheidend ist die Speichermenge, da die Ladungen im DRAM erst nach vielen Millionen Zyklen wieder aufgefrischt werden müssen (alle 32-64 ms). In dieser Zeit kann ein Vielfaches der aufzufrischenden Speichermenge transferiert werden. Die Speichermenge hat lediglich im idle-Betrieb einen merklichen Einfluss.

Coda
2009-11-17, 03:46:45
Glauben ist ein starkes Wort. Ich halte es nicht für unmöglich, dass sogar weit mehr als 50% drin sind, weil pure Rechenleistung eigentlich nichts aussagt.

reunion
2009-11-17, 06:43:09
Glaubt hier eigentlich noch Jemand, dass die GTX 380 mehr als 50% schneller in Spielen wird als die GTX 285 nach den doch eher ernüchternden Angaben zur Rechenleistung?



Man muss mal abwarten und sehen ob sie wenigstens den TMU/ROP/Rest des Chips-Takt halten können. Wenn sie nicht nur bei den ALUs sondern auch dort deutlich unter Erwartungen bleiben dürfte es eng werden.


Wenn die GTX 380 mit den gleichen Taktraten (bei Single Precision) kommt wie die GTX 285, dann wäre der Vorsprung wohl ziemlich genau 50%, wenn die überarbeitete Architkektur nicht noch für irgendwelche Überraschungen gut ist.

GTX285-Takt würde ich bei den bestätigten Tesla-Taktraten nicht erwarten. Man muss wohl froh sein wenn sie die 1.3Ghz erreichen. Immerhin ist bei den Tesla-Karten genau die Rechenleistung das entscheidende und bis jetzt liefen die Karten praktisch immer auf dem Takt des Desktop-Topmodells.

Ailuros
2009-11-17, 07:05:13
Wenn Charlie recht hat und die Frequenzen liegen irgendwo bei 550/1200 dann haben sie ihre Taktziele nicht nur um 20% verpasst sondern eher um 40%.

V2.0
2009-11-17, 07:09:53
Gut dass ich meine HD4870 1GB für 95 Euro verkauft habe und mir eine HD5850 für 219 Euro geschnappt habe. Bis die NV kommen kann ja noch 2-3 Monate dauern.
Der Unterschied ist schon bemerkbar, aber auch wieder nicht allzugroß. Muss aber noch das OC Potential ausreizen.

Ich würde keinen relevanten Unterscheid erwarten, wenn A3 keine Wunder vollbringt. Bei ca. 500Mhz +- 10% dürfte man mehr oder weniger auf 5870 Niveau liegen.
Naja, im Mai kann jeder entscheiden was er kauft. 5950 oder Fermi.

reunion
2009-11-17, 07:51:32
Ist nicht SSAA wegen den Quadros drin in den Treibern?

Nein, das ist eine Urban-Legende. SSAA wird von NV schon lange nicht mehr gesupportet, auch nicht bei den Quadros. Oder glaubst du das irgend jemand im Workstaion-Bereich sich hier mit dem nHancer SSAA aktiviert?

P.S.: Da hier die Diskussion bezüglich der Speichermenge und der Leistungsaufnahme aufkam: Die Energie wird größtenteils bei Speicherzugriffen umgesetzt, entscheidende Parameter sind dabei die Busbreite, der Speichertyp, die Speicherspannung und der Speichertakt. Nicht so entscheidend ist die Speichermenge, da die Ladungen im DRAM erst nach vielen Millionen Zyklen wieder aufgefrischt werden müssen (alle 32-64 ms). In dieser Zeit kann ein Vielfaches der aufzufrischenden Speichermenge transferiert werden. Die Speichermenge hat lediglich im idle-Betrieb einen merklichen Einfluss.

So ist es. Deshalb haben die 6GB Version und die 3Gb Version auch dieselbe TDP. Es ist praktisch egal, da gleich viele Speicherbausteine verbaut werden. Am Desktop mit 1.5GB VRAM spart man allerdings 12 Speicherbausteien, das sollte sich schon auswirken. Dafür werden diese deutlich höher takten als bei den Teslas-Karte, weshalb ich hier keine wesentlichen Vorteile erwarten würde.

/Edit: Okay, war Blödsinn. Mehr wie 1024Mbit-Chip bekommt man aktuell nicht, weshalb man für die 1.5Gb Version 12 Speicherchips, für eine 3GB Version 24 und für die 6GB Version schon 48 Speicherbausteine benötigt. Trotzdem sollte das nicht die Welt ausmachen.

MadManniMan
2009-11-17, 08:02:35
Glaubt hier eigentlich noch Jemand, dass die GTX 380 mehr als 50% schneller in Spielen wird als die GTX 285 nach den doch eher ernüchternden Angaben zur Rechenleistung?

Was haben wir denn überhaupt für Angaben im Moment?
Wir wissen, dass Fermi sich verzögert.
Wir wissen, dass kein Hypertakte zu erwarten sind.
Wir wissen, dass die reine Shaderanzahl um 113 % erhöht wurde.
Wir wissen, dass das Design an 200 W kratzen dürfte.

Sonst nüx. Wie soll man ausgehend davon auf die Spieleleistung schließen können?

Gast_mboeller
2009-11-17, 08:06:21
Ich würde keinen relevanten Unterscheid erwarten, wenn A3 keine Wunder vollbringt. Bei ca. 500Mhz +- 10% dürfte man mehr oder weniger auf 5870 Niveau liegen.
Naja, im Mai kann jeder entscheiden was er kauft. 5950 oder Fermi.

Die vorgestellten Karten werden im Mai 2010 sehr wahrscheinlich mit A3 oder gar B2/B3 kommen. A3 kann also keine Wunder mehr vollbringen. Das "Wunder" ist hier schon mit eingerechnet. 1230MHz sollten das obere Limit sein (und auch nur weil sie damit genau 8-fache GT200-Leistung bei DP erreichen). Die richtigen Karten werden eher mit noch niedrigerem Takt ankommen.

das einzige was mich wirklich wundert ist, wie sie jetzt schon sagen können welches Taktpotential die nächste Chiprevision des Fermi haben wird. Und die Karten die im Mai kommen werden haben sicher keine A2-GPUs drauf (Nvidia wird schließlich nicht monatelang däumchen drehen).

Hoffen wir also mal, das sie vom "Worst-Case" ausgegangen sind und nicht vom "Best-Case". Da solche Präsentationen aber vom Marketing kommen befürchte ich das hier die 1040MHz der kleinen Version eine Art "Worst-Case" sind und die 1230MHz eine Art "Best-Case".

V2.0
2009-11-17, 08:19:35
Ich gehe mal davon aus, dass Charlie bestenfalls Taktraten vom A2 gehört hat. Wie A3 takten wird, dürfte momentan noch nicht einmal NV wissen. Das Ziel lag aber defenitiv in anderen Bereichen als um 500Mhz.

reunion
2009-11-17, 08:23:17
das einzige was mich wirklich wundert ist, wie sie jetzt schon sagen können welches Taktpotential die nächste Chiprevision des Fermi haben wird. Und die Karten die im Mai kommen werden haben sicher keine A2-GPUs drauf (Nvidia wird schließlich nicht monatelang däumchen drehen).


Irgendwann muss man auch einsehen das man gewissen Probleme nicht so schnell lösen kann und sich auf die nächsten Projekte konzentrieren. Einen Luxus wie bei Larrabee, wo es mittlerweile 7 oder noch mehr Revisionen gibt kann sich eben nur Intel leisten.

Ich gehe mal davon aus, dass Charlie bestenfalls Taktraten vom A2 gehört hat. Wie A3 takten wird, dürfte momentan noch nicht einmal NV wissen. Das Ziel lag aber defenitiv in anderen Bereichen als um 500Mhz.

Die Taktraten kommen von NV, nicht von Charly, und die werden das ja schon einschätzen können.

Ailuros
2009-11-17, 08:25:04
Die vorgestellten Karten werden im Mai 2010 sehr wahrscheinlich mit A3 oder gar B2/B3 kommen. A3 kann also keine Wunder mehr vollbringen. Das "Wunder" ist hier schon mit eingerechnet. 1230MHz sollten das obere Limit sein (und auch nur weil sie damit genau 8-fache GT200-Leistung bei DP erreichen). Die richtigen Karten werden eher mit noch niedrigerem Takt ankommen.

Woher kommt jetzt die Einsicht dass die GPUs mit noch niedrigerem Takt kommen werden?

das einzige was mich wirklich wundert ist, wie sie jetzt schon sagen können welches Taktpotential die nächste Chiprevision des Fermi haben wird. Und die Karten die im Mai kommen werden haben sicher keine A2-GPUs drauf (Nvidia wird schließlich nicht monatelang däumchen drehen).

Bevor Du erstmal froehlich ueber den A3 respin herumfloetest, waere es angebrachter zu wissen wofuer dieser ueberhaupt steht.

Hoffen wir also mal, das sie vom "Worst-Case" ausgegangen sind und nicht vom "Best-Case". Da solche Präsentationen aber vom Marketing kommen befürchte ich das hier die 1040MHz der kleinen Version eine Art "Worst-Case" sind und die 1230MHz eine Art "Best-Case".

Alle A1 Varianten liefen schon auf 1100MHz, ergo versuch es nochmal von vorne.

[QUOTE=reunion;7665200]Irgendwann muss man auch einsehen das man gewissen Probleme nicht so schnell lösen kann und sich auf die nächsten Projekte konzentrieren. Einen Luxus wie bei Larrabee, wo es mittlerweile 7 oder noch mehr Revisionen gibt kann sich eben nur Intel leisten.

LRBs B0 revision laeuft nichtmal annaehernd auf den angezielten Frequenzen und sie koennen die Hitze nicht kontrollieren wenn alle cores voll ausgelastet werden. Haette NV ein aehnliches Problem wie Intel mit LRB gaebe es gar keine andere Loesung als so viele respins bis es endlich stimmt.

Die Taktraten kommen von NV, nicht von Charly, und die werden das ja schon einschätzen können.

Das stimmt natuerlich, nur wissen wir noch nicht von welcher Praesentation genau.

reunion
2009-11-17, 08:27:41
Alle A1 Varianten liefen schon auf 1100MHz, ergo versuch es nochmal von vorne.

Und das finale Tesla-Topmodell im Mai 2010 taktet mit 1230Mhz. Und die Teslas liefen bis jetzt praktisch immer auf dem Takt des Desktop-Topmodells.

V2.0
2009-11-17, 08:29:49
Die Taktraten kommen von NV, nicht von Charly, und die werden das ja schon einschätzen können.

Für Tesla Chips. Ob die GeForce Version anders taktet wird man sehen müssen.

Ailuros
2009-11-17, 08:49:30
Und das finale Tesla-Topmodell im Mai 2010 taktet mit 1230Mhz. Und die Teslas liefen bis jetzt praktisch immer auf dem Takt des Desktop-Topmodells.

Tatsaechlich: http://www.nvidia.com/object/product_tesla_C2050_C2070_us.html

http://www.nvidia.com/object/product_tesla_s1070_us.html

reunion
2009-11-17, 08:51:13
Tatsaechlich: http://www.nvidia.com/object/product_tesla_C2050_C2070_us.html

Ja. 520 GFlops - 630 GFlops DP Peak. Ergo 1020 - 1230 Mhz.

AnarchX
2009-11-17, 08:53:24
Wobei nirgendwo die Zahl der aktiven CUDA Cores genannt wurde.;)
Aber wahrscheinlicher sind natürlich die <=1,23GHz.

reunion
2009-11-17, 08:56:09
Wobei nirgendwo die Zahl der aktiven CUDA Cores genannt wurde.;)
Aber wahrscheinlicher sind natürlich die <=1,23GHz.

Ein Tesla-Topmodell wird wohl das letzte sein wo man Einheiten deaktiviert. Vorne schreibt man sogar nur "up to 600 Gigaflops of double precision performance".

Reaping_Ant
2009-11-17, 09:00:38
Mehr wie 1024Mbit-Chip bekommt man aktuell nicht, weshalb man für die 1.5Gb Version 12 Speicherchips, für eine 3GB Version 24 und für die 6GB Version schon 48 Speicherbausteine benötigt.

Hatte nicht irgend ein Speicherhersteller 2 Gbit GDDR5 für 1H 2010 angekündigt? Ich meine mich zu erinnern, das mal gelesen zu haben, ist aber auch schon einige Zeit her. Das würde ja dann zum Launch der Teslas im Mai passen.
Mit 48 Speicherchips auf einem PCB wird's nämlich ganz schön eng, vor allem, wenn man die Länge der Leiterbahnen halbwegs in Grenzen halten will.

Wenn sich die vorgestellten Taktraten der Teslas tatsächlich so auf die Desktop Varianten übertragen, wäre das schon etwas enttäuschend. Ich hoffe zwar, dass die runderneuerte Chiparchitektur auch nochmal etwas Mehrleistung bringt, allerdings wird sich die Leistung wohl doch eher in Regionen von GTX 285 + 50% als + 100% bewegen.

Ailuros
2009-11-17, 09:04:34
Ja. 520 GFlops - 630 GFlops DP Peak. Ergo 1020 - 1230 Mhz.

S1070 = 16GB ram / 800W
S2070 = 24GB ram / 900W

C1070= 4GB ram / 188W (1440)
C2070= 6GB ram / 190W

GTX285 = 1GB ram / 204W (648/1476)

reunion
2009-11-17, 09:05:42
S1070 = 16GB ram / 800W
S2070 = 24GB ram / 900W

C1070= 4GB ram / 188W
C2070= 6GB ram / 190W

Und was willst du jetzt sagen? Die S-Modelle bestehen auch aus jeweils 4 GPUs.

Ailuros
2009-11-17, 09:15:14
Und was willst du jetzt sagen? Die S-Modelle bestehen auch aus jeweils 4 GPUs.

Dass der Stromverbrauch hoechstwahrscheinlich nicht mitspielt (wenn Du den update gleich mitbetrachtest). Anders hoehere Frequenzen waeren theoretisch schon moeglich nur verbrennt das Resultat eben mehr Strom als man haben moechte. Extravagante Kuehlungsloesungen hauen dann wieder auf den Preis und der Teufelskreis schliesst sich nie.

Wie dem auch sei und nebenbei zu dem TSMC Kapazitaeten sind voll Mist: http://www.semiaccurate.com/2009/11/16/ati-58xx-parts-delayed-bit-more/

Armaq@Work
2009-11-17, 09:16:21
Wir wissen vor allem, dass Nvidia keine große Überraschung parat hat. Wir sprachen mal über dynamische Taktdomänen etc.pp.
Diese Generation wird leider kein großer Wurf. Anscheinend wird es langsam sehr viel aufwändiger die gewünschten Ziele umzusetzen.
Leider bringt es dem Konsumenten wirklich nicht viel, wenn ATI bis Mai ihre Dominanz beibehält. Eine sehr unglückliche Situation.

Welche kleine Spekulation ich mir nicht verkneifen kann - bremst TSMC die Verkäufe von ATI, weil sie zukünftig keine Rolle mehr spielen in der Budgetplanung von TSMC? Ich würde darüber ernsthaft nachdenken.

Gast
2009-11-17, 09:18:59
Was haben wir denn überhaupt für Angaben im Moment?
Wir wissen, dass Fermi sich verzögert.
Wir wissen, dass kein Hypertakte zu erwarten sind.
Wir wissen, dass die reine Shaderanzahl um 113 % erhöht wurde.
Wir wissen, dass das Design an 200 W kratzen dürfte.

Sonst nüx. Wie soll man ausgehend davon auf die Spieleleistung schließen können?

Ja genau! Aber manche haben noch zusätzliche Fakten...

Ailuros
2009-11-17, 09:21:08
Wir wissen vor allem, dass Nvidia keine große Überraschung parat hat. Wir sprachen mal über dynamische Taktdomänen etc.pp.
Diese Generation wird leider kein großer Wurf. Anscheinend wird es langsam sehr viel aufwändiger die gewünschten Ziele umzusetzen.
Leider bringt es dem Konsumenten wirklich nicht viel, wenn ATI bis Mai ihre Dominanz beibehält. Eine sehr unglückliche Situation.

Welche kleine Spekulation ich mir nicht verkneifen kann - bremst TSMC die Verkäufe von ATI, weil sie zukünftig keine Rolle mehr spielen in der Budgetplanung von TSMC? Ich würde darüber ernsthaft nachdenken.

In der Richtung deutet Charlie's Artikel oben auch schon hin, nur ist so eine These so bruellend sci-fi dass sie mehr als nur laecherlich ist. TSMC raecht sich nach der These an AMD weil sie eventuell aussteigen werden und verpasst zur gleichen Zeit einen netten gang-rape an NVIDIA welcher zufaelligerweise einer ihrer besten Kunden ist?

Wenn dann glaube ich wohl eher im Vergleich zum obrigen dass TSMC nicht so grosse Probleme hat wie die Presse anzeigen will und AMD hat zu wenig bestellt und NVIDIA laeuft auf einer epic fail Straene; nur ist eben die Theorie dass am meisten TSMC schuld ist wohl die bessere Erklaerung fuer's Publikum. Und ja diese These schwirrt auch rum.

***edit: diejenigen die die Schuld in TSMC's Richtung fuer 40G schieben, behaupten dass selbst TSMC immer noch nicht die Quelle des eigentlichen Problems entdecket hat. Sonst ja waere es innerhalb eines oder wenigen Tagen korrigiert worden wie Charlie angibt.

******edit Nr.2: uebrigens noch etwas das gegen die Rach-These von TSMC spricht ist dass sie somit theoretisch noch mehr ihrer Kunden in GF's Arme jagen wuerden, denn so bloed sind IHVs nicht dass sie langfristig nicht mitbekommen was eigentlich los ist.

reunion
2009-11-17, 09:26:03
Das AMD zu wenig bestellt hat ist Blödsinn. Es gibt praktisch keine Karten. Gerade wenn man als erster am Markt ist und zu beginn einer neuen Generation wird man kaum nur wenige tausend Karten bestellen. Zumal Dave Baumann schon sehr deutlich gesagt hat das man die gewünschten Stückzahlen nicht erreicht.

igg
2009-11-17, 09:29:13
Naja, selbst wenn die Fermi Heforce leistungsmäßig nur geringfügig schneller ist, wäre sie trotzdem meine erste Wahl: PhysX, besserer GPGPU Support, gute Treiber & Tools

Fände es nur schon schade, dass so tolle Konzepte dann am Prozess scheitern :(

Ailuros
2009-11-17, 09:46:46
Das AMD zu wenig bestellt hat ist Blödsinn. Es gibt praktisch keine Karten. Gerade wenn man als erster am Markt ist und zu beginn einer neuen Generation wird man kaum nur wenige tausend Karten bestellen. Zumal Dave Baumann schon sehr deutlich gesagt hat das man die gewünschten Stückzahlen nicht erreicht.

Mir ist egal was jeder Baumann, Charlie oder jeglicher andere erzaehlt (denn die Art hat sowieso direkte oder indirekte Interessen eines spezifischen IHVs). Ich will endlich wissen was wirklich los ist, denn so langsam hat die Geschichte zu viele Loecher dass sie einfach keinen Sinn mehr macht.

Das mal zur Seite und zurueck zu ausschliesslich NVIDIA: blahblahblah chip ist in Ordnung an allem sind beschissene yields fuer 40G schuld. TSMC ist eben in diesem Fall ein sehr guter Suendenbock den man voll ausnutzen kann selbst wenn es NV nur indirekt anstellt.

Wie ich schon bei B3D sagte, kurzfristig besteht sowieso keine Chance dass wir die Wahrheit erfahren. Wenn ueberhaupt dann erst Jahre spaeter.

V2.0
2009-11-17, 09:56:03
Wie wäre es mit ner Mischung. AMD hat Waffer für ne Yield von durchschnittlich 65%+ bestellt, denn kann TSMC aber nicht konstant abliefern sonder springt irgendwo zwischen 5 und 65%. Verbleibende Kapazitäten in 40G hat sich NV für seine kleinen GT21X gesichert.

Ailuros
2009-11-17, 10:13:14
Wie wäre es mit ner Mischung. AMD hat Waffer für ne Yield von durchschnittlich 65%+ bestellt, denn kann TSMC aber nicht konstant abliefern sonder springt irgendwo zwischen 5 und 65%. Verbleibende Kapazitäten in 40G hat sich NV für seine kleinen GT21X gesichert.

Eine Mischung (jeglicher Art) waere die klassische These die wie meistens naeher an der Wahrheit liegt. Auf jeden Fall kann man beruhigt Charlie's Andeutung dass TSMC das ganze Schlammassel mit Absicht generiert erstmal als totalen Bloedsinn abhaken.

G!ZMo
2009-11-17, 10:16:41
Nimmt eigentlich noch irgendwer diesen Charlie ernst? ;D
So richtig kann ichs mir nicht vorstellen.

reunion
2009-11-17, 10:24:40
Nimmt eigentlich noch irgendwer diesen Charlie ernst? ;D
So richtig kann ichs mir nicht vorstellen.

Du findest das vielleicht witzig, aber er ist öfter richtig gelegen als die meisten anderen. Man darf sich natürlich nicht von seinem penetranten Schreibstil irritieren lasse, aber der Kerl hat schon Infos.

Ailuros
2009-11-17, 10:34:01
Du findest das vielleicht witzig, aber er ist öfter richtig gelegen als die meisten anderen. Man darf sich natürlich nicht von seinem penetranten Schreibstil irritieren lasse, aber der Kerl hat schon Infos.

Im gegebenen Fall des neuesten 58x0/TSMC newsblurbs ist er schon in der Region des epic fails. Was hat sein eher balancierter Schreibstil in diesem newsblurb genau mit seinen eher idiotischen Andeutungen zu tun?

reunion
2009-11-17, 10:39:34
Im gegebenen Fall des neuesten 58x0/TSMC newsblurbs ist er schon in der Region des epic fails. Was hat sein eher balancierter Schreibstil in diesem newsblurb genau mit seinen eher idiotischen Andeutungen zu tun?

Hm? Wo denn? Dave Baumann hat vor wenigen Tagen gesagt man erwarte deutlich höhere Lieferungen Ende November / Anfang Dezember. Jetzt sagt Charly AMD hat die ISVs kontaktiert das sich das um ein/zwei Wochen verschiebt. Wenn es stimmt eine wertvolle Info die man sonst noch nirgends hören konnte. Und natürlich liegt es an TSMC wenn man nicht genügend Chips liefert und offensichtlich hat TSMC Probleme mit 40nm. Was genau passt dir daran inhaltlich nicht? Ich sehe nirgends eine Andeutung das AMD ggü. NV benachteiligt wird. Und vorallem kannst du es auch nicht wissen wenn es so wäre.

LovesuckZ
2009-11-17, 10:41:31
Erstaunlich, dass Leute denken, dass Charlie Informationen hätte. Er wusste weder vom Namen Fermi, noch vom Launch von Tesla und den Taktraten. Wer mit 1500Mhz spekuliert und man dann bei 1240Mhz landet, der ist wie der Chip "a mess".

Ailuros
2009-11-17, 10:55:22
Hm? Wo denn? Dave Baumann hat vor wenigen Tagen gesagt man erwarte deutlich höhere Lieferungen Ende November / Anfang Dezember. Jetzt sagt Charly AMD hat die ISVs kontaktiert das sich das um ein/zwei Wochen verschiebt. Wenn es stimmt eine wertvolle Info die man sonst noch nirgends hören konnte. Und natürlich liegt es an TSMC wenn man nicht genügend Chips liefert und offensichtlich hat TSMC Probleme mit 40nm. Was genau passt dir daran inhaltlich nicht? Ich sehe nirgends eine Andeutung das AMD ggü. NV benachteiligt wird. Und vorallem kannst du es auch nicht wissen wenn es so wäre.

http://www.semiaccurate.com/2009/11/16/ati-58xx-parts-delayed-bit-more/

(subtitle): TSMC's problems are very very odd

For TSMC to screw up this badly for this long is not an understandable problem. It goes beyond error, and falls well into that nebulous zone where too many things went wrong for them to all be chance. You have a bring up error, a sudden tool miscalibration, and then two plus months of no one noticing something that should have set off alarm bells in an hour or two. This should have been tested for and caught within a wafer batch or two.

With that in mind, the sheer incompetence of this error, coupled with the sheer incompetence of the metrology, makes you wonder if it was actually by chance. From there, things get really odd.

Erstens lies im Notfall den Newsblurb noch mal durch und zweitens lass mir Wavey aus dem Scheiss raus. Es ist ein AMD Angestellter und wird wie ich von jedem AMD Angestellten erwarten wuerde in einer typischen PR Art antworten. Schon gar nicht wenn er der groesste spin doctor aller Zeiten ist. Und nein es hat nichts mit dem Thema im obrigen newsblurb zu tun. Nicht im geringsten.

Erstaunlich, dass Leute denken, dass Charlie Informationen hätte. Er wusste weder vom Namen Fermi, noch vom Launch von Tesla und den Taktraten. Wer mit 1500Mhz spekuliert und man dann bei 1240Mhz landet, der ist wie der Chip "a mess".

In beiden Faellen hat er sich an NV's eigenen Angaben gehalten. Am 18/05/2009 berichtete mir ein NV Angestellter dass A1 zurueck gekommen sei und es problemlos auf 730/1620 bei 0.95-1.0V laufen wuerde. Unter Umstaenden bei 1.05-1.1V waeren sogar 1760-1820MHz ALU Frequenzen moeglich. Ich wuenschte ich koennte sogar den Namen und die e-mail (gesamt IP) zitieren, aber so weit gehe ich natuerlich nicht. Wann A1 erstmal wirklich zustande kam wissen wir in der Zwischenzeit, ergo erzaehl mir bloss nicht wer in diesem Fall sich eher entschuldigen muss. Ein Testsample ist nicht gleich einem ganzem chip und wenn die tools eines IHV zu so grossen Fehleinschaetzungen fuehren sollten sie wohl eher die Klappe halten.

Gast
2009-11-17, 11:05:22
Erstaunlich, dass Leute denken, dass Charlie Informationen hätte. Er wusste weder vom Namen Fermi, noch vom Launch von Tesla und den Taktraten. Wer mit 1500Mhz spekuliert und man dann bei 1240Mhz landet, der ist wie der Chip "a mess".


Guter Witz... "Launch"

Charlie hat bereits vor Monaten berichtet, dass sich Fermi verspäten wird... Im Frühling wenn ich mich recht erinnere. Hier wurde vor wenigen Wochen noch herumgepoltert wenn man seine Infos zitiert hatte...

Seine Infos haben 100x mehr Wert als deine feuchten nVidia-Fanboy-Träume von 50% schneller als RV870 und Verfügbarkeit im Dezember 09.

Mehr ist dazu nicht zu sagen.... sonst heißt es wieder die ATi Fanboys wären so gemein.

LovesuckZ
2009-11-17, 11:09:40
Guter Witz... "Launch"
Charlie hat bereits vor Monaten berichtet, dass sich Fermi verspäten wird... Im Frühling wenn ich mich recht erinnere. Hier wurde vor wenigen Wochen noch herumgepoltert wenn man seine Infos zitiert hatte...

Jo, weil es eine 50:50 Chance ist. Dazu muss man keine Quellen haben (Hallo EOL GTX285).
Wenn er Quellen hätte, dann hätte er die Taktraten genauso hingeschrieben.


Seine Infos haben 100x mehr Wert als deine feuchten nVidia-Fanboy-Träume von 50% schneller als RV870 und Verfügbarkeit im Dezember 09.

Jo, weil ich auch damit angebe, dass ich irgendwelche Quellen habe. :lol:
Aber zum Glück hat Charlie hirnlose Drohnen wie dich - die glauben auch, dass Charlie ihre Mutter wäre, wenn er es schreiben würde.

Ailuros
2009-11-17, 11:20:56
*ahem*

reunion
2009-11-17, 11:28:14
Erstens lies im Notfall den Newsblurb noch mal durch und zweitens lass mir Wavey aus dem Scheiss raus. Es ist ein AMD Angestellter und wird wie ich von jedem AMD Angestellten erwarten wuerde in einer typischen PR Art antworten. Schon gar nicht wenn er der groesste spin doctor aller Zeiten ist. Und nein es hat nichts mit dem Thema im obrigen newsblurb zu tun. Nicht im geringsten.


Ja, okay. Den Satz habe ich tatsächlich nicht wahrgenommen. Dennoch heißt das ja nicht dass das mit der zweiwöchigen Verschiebung nicht stimmt. Und warum soll ich Wavey hier raus halten? Nur weil er bei AMD arbeitet heißt es nicht das er lauter Schwachsinn erzählt. Wer soll es denn sonst wissen wenn nicht ein AMD-Mann?

Spasstiger
2009-11-17, 11:34:42
Was haben wir denn überhaupt für Angaben im Moment?
Wir wissen, dass Fermi sich verzögert.
Wir wissen, dass kein Hypertakte zu erwarten sind.
Wir wissen, dass die reine Shaderanzahl um 113 % erhöht wurde.
Wir wissen, dass das Design an 200 W kratzen dürfte.

Sonst nüx. Wie soll man ausgehend davon auf die Spieleleistung schließen können?
- 128 TMUs (GTX 285: 80 TMUs)
- 384-Bit-GDDR5-Speicherinterface (GTX 285: 512 Bit GDDR3)
- Rechenleistung beim Tesla-Modell laut Folie bei Single-Precision um die 1,5 Teraflops, was 1460-1470 MHz Shadertakt entspricht (GTX 285: 1,06 Teraflops @ 1472 MHz)
- Reine MADD/FMA-Rechenleistung steigt um die genannten 113%
- 225 Watt TDP bei einem Double-Precision-Shadertakt von 1230 MHz
- Chiptakt noch ungewiss (könnte auf GTX-285-Taktraten rauslaufen, wenn sich schonmal der Single-Precision-Shadertakt mit der Tesla C2070 deckt)
- Anzahl von ROPs ungewiss (24 oder 48)
/EDIT: - Breite Verfügbarkeit ab Q2/2010

AnarchX
2009-11-17, 11:35:27
Das Problem an diesen niedrigen ALU-Frequenzen könnte wohl auch sein, dass ROPs und TMUs unter ihren Möglichkeiten bleiben, da man wohl hier wie bisher maximal halben ALU-Takt fahren kann.

Das hat S3 bei Chrome 400/500 etwas klüger gelöst. :D

Ailuros
2009-11-17, 11:38:03
Ja, okay. Den Satz habe ich tatsächlich nicht wahrgenommen. Dennoch heißt das ja nicht dass das mit der zweiwöchigen Verschiebung nicht stimmt. Und warum soll ich Wavey hier raus halten? Nur weil er bei AMD arbeitet heißt es nicht das er lauter Schwachsinn erzählt. Wer soll es denn sonst wissen wenn nicht ein AMD-Mann?

Im Fall von einem AMD/NVIDIA/TSMC Debakel wird er wohl genauso wenig objektiv sein wie jeglicher NV Angestellte.

reunion
2009-11-17, 11:39:05
- 128 TMUs (GTX 285: 80 TMUs)
- 384-Bit-GDDR5-Speicherinterface (GTX 285: 512 Bit GDDR3)
- Rechenleistung beim Tesla-Modell laut Folie bei Single-Precision um die 1,5 Teraflops, was 1460-1470 MHz Shadertakt entspricht (GTX 285: 1,06 Teraflops @ 1472 MHz)
- Reine MADD/FMA-Rechenleistung steigt um die genannten 113%
- 225 Watt TDP bei einem Double-Precision-Shadertakt von 1230 MHz
- Chiptakt noch ungewiss (könnte auf GTX-285-Taktraten rauslaufen, wenn sich schonmal der Single-Precision-Shadertakt mit der Tesla C2070 deckt)
- Anzahl von ROPs ungewiss (24 oder 48)

Double-Precision-Shadertakt = Single-Precision-Shadertakt. Es sind dieselben Einheiten. Coda hats ja schon gesagt.

Korvaun
2009-11-17, 11:41:14
Gibt es eigentlich schon irgendwelche Infos über die DX11 Mittelklasse-Karten von NV? Verkleinerter Fermi? Eigenständiger Chip (ohne/mit abgespecktem GPGPU-Zeug)?

Gast
2009-11-17, 11:43:26
Tja, unter lauter Blinden ist der Einäugige der König... Ich bin mal gespannt ob es NVidia schafft den Chip bis März, April lieferbar zu bekommen. Ich wage das zu bezweifeln.

Spasstiger
2009-11-17, 11:44:35
Double-Precision-Shadertakt = Single-Precision-Shadertakt. Es sind dieselben Einheiten. Coda hats ja schon gesagt.
Eventuell gibts ja eine Art Turbo-Mode. Jedenfalls scheint der Takt bei Single-Precision höher zu liegen als bei Double-Precision. Oder die Skala auf der Folie ist nicht linear oder beginnt nicht bei Null. ;)

AnarchX
2009-11-17, 11:44:39
Gibt es eigentlich schon irgendwelche Infos über die DX11 Mittelklasse-Karten von NV? Verkleinerter Fermi? Eigenständiger Chip (ohne/mit abgespecktem GPGPU-Zeug)?
Die Basis wird wohl Fermi sein, wenn auch Nvidia meint, dass man hier ein paar GPGPU-Transitoren einsparen kann.
Aber genauere Infos gibt es noch nicht.

Gast
2009-11-17, 11:53:50
- 128 TMUs (GTX 285: 80 TMUs)
- 384-Bit-GDDR5-Speicherinterface (GTX 285: 512 Bit GDDR3)
- Rechenleistung beim Tesla-Modell laut Folie bei Single-Precision um die 1,5 Teraflops, was 1460-1470 MHz Shadertakt entspricht (GTX 285: 1,06 Teraflops @ 1472 MHz)
- Reine MADD/FMA-Rechenleistung steigt um die genannten 113%
- 225 Watt TDP bei einem Double-Precision-Shadertakt von 1230 MHz
- Chiptakt noch ungewiss (könnte auf GTX-285-Taktraten rauslaufen, wenn sich schonmal der Single-Precision-Shadertakt mit der Tesla C2070 deckt)
- Anzahl von ROPs ungewiss (24 oder 48)
/EDIT: - Breite Verfügbarkeit ab Q2/2010
Er hat nur aufgezählt, was wir über einen "Grafik-Fermi" wissen, nicht, was interpretiert oder geglaubt wird...

Ailuros
2009-11-17, 11:56:11
Es sind uebrigens 48 ROPs (8 pro ROP partition).

Armaq@Work
2009-11-17, 12:34:02
Ich denke überhaupt nicht, dass es unrealistisch ist, dass TSMC ATI benachteiligt. Sie haben damit nur Vorteile mit ihrem zukünftigen "Star" Nvidia. Man kann das sehr gut kommunizieren und anzunehmen, dass TSMC und Nvidia an sowas nicht denken ist blauäugig. Man braucht sich nur Intel anschauen, dann weiss man, dass ein paar Verzögerungen Kinderkram im globalen Gerangel sind.

TSMC muss an einer engen Bindung zu Nvidia gelegen sein. Das schließt auch ein, dass man jetzt nicht 50.000 Chips pro Woche an ATI raushaut und die den Markt vor Weihnachten überschwemmen. Denn das wäre doppelt brutal für Nvidia. Wenn sich kurz nach/um Weihnachten die Lage plötzlich entspannt, dann bin ich mir Gewiss, welches Spiel TSMC spielt.

Gast
2009-11-17, 12:51:49
So sehr ich mich freue, daß AMD im Moment mal die Nase vorne hat, und so sehr es mich ärgert, daß sie da aufgrund der Lieferprobleme nicht soviel draus machen können, wie möglich wäre:
das TSMC da bewußt sabotiert halte ich für ziemlich unwahrscheinlich. Immerhin darf man nicht vergessen, daß die Fermi-Yields auch eher unterirdisch sein sollen.

Martin

davidzo
2009-11-17, 13:20:02
AMD hat die bestellungen evaluiert als man noch garnichts von de rfermiverspätung wusste, noch nichts von der intelzahlung und nahe am Abgrund stand. AMD fährt daher mit der Grafiksparte schon länger eine no inventory Strategie, was man sich beim CPUgeschäft ja eben nicht leisten kann um Kunden ala Cray und IBM und die OEMs ala dell hp und acer nicht zu vergraulen.
Auch hat Nvidia damals noch von einem Q3/2009 launch gesprochen und euch hier alle so angeheizt, dass ihr eben noch keine 5870 gekauft habt. AMD hat also mit einer stärkeren nvidia konkurrenz gerechnet, bzw. mit einer früher ansetzenden konkurrenz der GTX380, weshalb man den Vorrat gering hielt.
Außerdem hat TSMC derzeit durch Milliarden investitionen während der Krise auch schwer zu schleppen, sicher ist das auch einer der Gründe wieso der 40nm Prozess noch hakt. Das spricht aber absolut dafür, dass TSMC auch nur ein Opfer der Umstände geworden ist. Sie könnten das geld von einer erfolgreichen HD5000 Serie sehr gut gebrauchen.
Dass AMD wegen der vollmundigen Aussagen von nvidia bezüglich GT300 so zurückhaltend mit RV870 Bestellungen war, wird bestätgt durch die tatsache, dass RV840 offensichtlich in ausreichenden Stückzahlen da ist. Hier konnte man sicher gehen, dass man alleine auf dem markt ist, weil nvidia schon früh bekannt gab die Ableger zu GT300 nicht parallel wie AMD sondern erst danach zu entwickeln. GT216+218 bestätigten früh diese Strategie. Die einzigen SKUs für die AMD baldige Konkurrenz befürchten musste ist Cypress und ggf hemlock. An eben diesen SKUs und deren derivaten mangelt es jetzt, verstärkt durch TSMCs yieldprobleme.

Ich kann mir daher eher vorstellen dass TSMC und AMD zusammen frustriert sind sich diese große Chance entgangen haben zu lassen. Schuldiger ist indirekt nvidia mit wie gewohnt vollmundigen aussagen über den Nextgenchip und dessen beschönigtes Erscheinungsdatum unterstrichen durch die größtenteils pünktlichen launches der letzten großen architekturen g80 und gt200. TSMC hätte es wissen können, AMD aber hat es erst schmerzlich erfahren was Ihnen da entgeht. Insofern weiß ich nicht auf wen TSMC da jetzt mehr sauer sein sollte, nvidia weil sie ihre fermi hausaufgaben nicht gemacht haben und indirekt den deal mit AMD verschlechtert haben oder auf AMD, weil diese in zeiten der Krise zu konservativ bestellt haben und auch längerfristig einen Teil der Chips (womöglich auf Fusion begrenzt) bei GF fertigen lassen wollen. Oder gar auf sich selbst, dass man mit dem wissen um den Stand von fermi und der suboptimalen yields nicht einfach mehr RV870 wafer vorgefertigt hat um diese dann AMD in Zeiten der Not anzubieten.

Nvidias Lückenfüller G210 und GT220 sind von nvidia gut geplant. Die GT200 generation eignet sich schlecht für die Lowcostchips, das wussten sie, aber GF100 ist da noch schwieriger das ist auch klar. Für die OEMs zählt aber in erster Linie dass der Chip verfügbar ist, neu, klein (40nm) und einen gut vermarktbaren namen hat. All das haben die Chips geschafft und sie kommen gerade jetzt, wo die neue Intel Notebookplattform vorgestellt wird, das hat nvidia gut getimet.
Woher sollte ein Kunde wissen, dass eine Radeon 4350 die er schon in der letzten Plattform haben konnte besser ist als eine brandneue Geforce 210?
GF210-240 werden noch lange unter uns bleiben, denn um endlich mal wieder konkurrenzfähig im midrange und lowcost zu werden wird man Fermi den ganzen HPCkrams extrahieren müssen, was im Prinzip ein redesign der Architektur bedeutet. Man kann nicht auf ewig alte chips mit herumschleppen die man einfach umlabelt. Selbst die GF210, die zwar einen rund 30% kleineren Chip hat als die 4350 sieht gegenüber dem 55nm RV710 arm aus, denn der deckt auch die höherpreisige und merklich schnellere 4550 ab und das ist AMDs lastgen lowcost!

reunion
2009-11-17, 13:30:18
Auch hat Nvidia damals noch von einem Q3/2009 launch gesprochen und euch hier alle so angeheizt, dass ihr eben noch keine 5870 gekauft habt. AMD hat also mit einer stärkeren nvidia konkurrenz gerechnet, bzw. mit einer früher ansetzenden konkurrenz der GTX380, weshalb man den Vorrat gering hielt.
Außerdem hat TSMC derzeit durch Milliarden investitionen während der Krise auch schwer zu schleppen, sicher ist das auch einer der Gründe wieso der 40nm Prozess noch hakt. Das spricht aber absolut dafür, dass TSMC auch nur ein Opfer der Umstände geworden ist. Sie könnten das geld von einer erfolgreichen HD5000 Serie sehr gut gebrauchen.
Dass AMD wegen der vollmundigen Aussagen von nvidia bezüglich GT300 so zurückhaltend mit RV870 Bestellungen war, wird bestätgt durch die tatsache, dass RV840 offensichtlich in ausreichenden Stückzahlen da ist. Hier konnte man sicher gehen, dass man alleine auf dem markt ist, weil nvidia schon früh bekannt gab die Ableger zu GT300 nicht parallel wie AMD sondern erst danach zu entwickeln.


Sorry, aber das ist vielleicht schlüssig, nur das AMD nur wenige tausend Chips bestellt haben sollte ist einfach völlig unrealistisch. Gerade zu beginn eines neuen Chips bestellt man ausreichende Mengen, die kann man dann eh über Monate verkaufen. Im übrigen wusste man schon lange das man deutlich vor NV kommt, schon im Sommer wurde das von AMD sogar öffentlich beworben. Es ist offensichtlich das es kaum Karten gibt, und zwar nicht nur irgendwo im Swasiland, sondern in den Kernmärkten und auch für die OEMs. AMD hat selbst gesagt das TSMC nicht mal die schon sehr bescheidenen Erwartungen erfüllen kann.

davidzo
2009-11-17, 13:44:49
natürlich gibt man bei AMD ungern zu dass man was verschlampt hat. bei TSMC wird sich ja ebensowenig dzau geäußert, ausser dass man die yieldprobleme in den nächsten zwei Monaten im griff haben will.
Ich denke eher, dass AMD auch in bezug auf die schlechten yields und damit etwas höheren Preise pro funktionsfähigem DIE (übliche per wafer bezahlung) ersteinmal mit den riesenbestellungen abwarten wollte um nur soviel zu liefern wie der markt auch aufnehmen kann. Vergiss nicht, selbst wir glaubten bis vor zwei drei Wochen noch an einen fermilaunch im dezember und verfügbarkeit der karten im januar bis februar. das beeinflusst das kundenverhalten besonders der anspruchsvollen highendkunden im weihnachtsgeschäft, die wissen wollen wem sie ihre 500$ geben. Ein oder zwei Monate ist nicht viel. Dass diese nun erfahren dass fermi vorerst nicht kommt und die 5870 knapp ist, hat zu einer deutlich erhöhten nachfrage geführt als spekuliert wurde, bis märz und laut jüngster erkenntnisse nun sogar bis mai wird kaum einer warten wollen.

Der starke Aufschwung auf dem Chipmarkt hat alle überrascht und selbst die Prognosen für Windows7 wurden deutlich übertroffen. Und das waren auch alles Top Analysten.

Ich denke schon dass AMD da von vielem überrascht wurde, nicht nur von TSMCs bleibend schlechten yields. Sie haben sicherlich vor einer weile kurzfristig die Bestellungen erhöht, was sie zu den jetzigen Äußerungen verleitet, aber TSMC hat ja auch Verbindlichkeiten mit nvidias GT216 und 218, die anscheinend bevorzugt für die neue Intel Notebookplattform verwendet werden. Die OEMs sind nicht nur nvidias beste Freunde, sondern auch TSMC weiß um die Wichtigkeit dieser Verträge, da ist der rv870, welcher sich hauptsächlich über den retail verkauft eher ein kleines Licht gegen. So schnell wie AMD das will kann man wohl derzeit auch aufgrund der nicht erwarteten andauernden yieldprobleme nicht reagieren. Wären die bestellungen früher gekommen, hätte man wohl auch besser darauf reagieren können, die rv740 shortages sind ja schon länger geschichte, da müssten also noch ein paar 40nm Kapazitäten gewesen sein.

reunion
2009-11-17, 13:59:01
natürlich gibt man bei AMD ungern zu dass man was verschlampt hat. bei TSMC wird sich ja ebensowenig dzau geäußert, ausser dass man die yieldprobleme in den nächsten zwei Monaten im griff haben will.
Ich denke eher, dass AMD auch in bezug auf die schlechten yields und damit etwas höheren Preise pro funktionsfähigem DIE (übliche per wafer bezahlung) ersteinmal mit den riesenbestellungen abwarten wollte um nur soviel zu liefern wie der markt auch aufnehmen kann. Vergiss nicht, selbst wir glaubten bis vor zwei drei Wochen noch an einen fermilaunch im dezember und verfügbarkeit der karten im januar bis februar. das beeinflusst das kundenverhalten besonders der anspruchsvollen highendkunden im weihnachtsgeschäft, die wissen wollen wem sie ihre 500$ geben. Ein oder zwei Monate ist nicht viel. Dass diese nun erfahren dass fermi vorerst nicht kommt und die 5870 knapp ist, hat zu einer deutlich erhöhten nachfrage geführt als spekuliert wurde, bis märz und laut jüngster erkenntnisse nun sogar bis mai wird kaum einer warten wollen.

Der starke Aufschwung auf dem Chipmarkt hat alle überrascht und selbst die Prognosen für Windows7 wurden deutlich übertroffen. Und das waren auch alles Top Analysten.

Ich denke schon dass AMD da von vielem überrascht wurde, nicht nur von TSMCs bleibend schlechten yields. Sie haben sicherlich vor einer weile kurzfristig die Bestellungen erhöht, was sie zu den jetzigen Äußerungen verleitet, aber TSMC hat ja auch Verbindlichkeiten mit nvidias GT216 und 218, die anscheinend bevorzugt für die neue Intel Notebookplattform verwendet werden. Die OEMs sind nicht nur nvidias beste Freunde, sondern auch TSMC weiß um die Wichtigkeit dieser Verträge, da ist der rv870, welcher sich hauptsächlich über den retail verkauft eher ein kleines Licht gegen. So schnell wie AMD das will kann man wohl derzeit auch aufgrund der nicht erwarteten andauernden yieldprobleme nicht reagieren. Wären die bestellungen früher gekommen, hätte man wohl auch besser darauf reagieren können, die rv740 shortages sind ja schon länger geschichte, da müssten also noch ein paar 40nm Kapazitäten gewesen sein.

Selbst bei einem Fermilaunch im Dezember hätte man nicht annähernd genug Karten. Schon heute bekommt man nichts, wir haben November. Selbst wenn Fermi zeitgleich mit Cypress gekommen wäre gäbe es nicht genug Karten. AMD spricht von nicht mal 100.000 Chips weltweit bis dato, das ist geradezu lächerlich wenig. Und wenn die AMD-Tochter GF einen solchen hint an TSMC richtet dann ist es offensichtlich das der Output an Wafers verdammt mühsam anläuft:

http://img42.imageshack.us/img42/4535/32347610.png (http://img42.imageshack.us/i/32347610.png/)

Korvaun
2009-11-17, 14:00:23
Wie viele funktionierende RV870 Chips kommen eigentlich aus einen 300mm Wafer bei 100% Ausbeute? Und wie viele Waferstarts macht TSMC pro Woche? Es ist einfach unglaublich das aus der riesen Fabrik jede Woche gefühlt nur ein paar hundert funktionierende RV870 chips ausgeliefert werden.

Es kommt mir so vor als ob der Yield entweder aktuell im einstelligen Bereich dahindümpelt oder die ganze Anlage nur sporadisch läuft und der Hauptteil der Zeit mit Fehlersuche verbracht wird...

Ailuros
2009-11-17, 14:02:34
http://www.fudzilla.com/content/view/16462/1/

Und ja es ist Fudzilla, aber es klingt nach wie vor nach einer Kombination von mehreren Faktoren.

Selbst bei einem Fermilaunch im Dezember hätte man nicht annähernd genug Karten. Schon heute bekommt man nichts, wir haben November. Selbst wenn Fermi zeitgleich mit Cypress gekommen wäre gäbe es nicht genug Karten. AMD spricht von nicht mal 100.000 Chips weltweit bis dato, das ist geradezu lächerlich wenig. Und wenn die AMD-Tochter GF einen solchen hint an TSMC richtet dann ist es offensichtlich das der Output an Wafers verdammt mühsam anläuft:

Vielleicht hilft es nachzudenken dass sie anstatt den Pegel auf einer halben Million anzulegen gleich auf sagen wir 1 Mio haetten gehen sollen. Nichtdestominder waere es moeglich gewesen dass anstatt <100.000 das Resultat eher 2x Mal so hoch gewesen waere. Daran aendert mir 500 links nichts und auch nicht GF's PR Gefusel. Bis zum Zeitpunkt wo GF ihre ersten chips auf den Markt werfen ist mir jeglicher Papiertiger gleichgueltig.

mapel110
2009-11-17, 14:10:19
http://www.fudzilla.com/content/view/16462/1/

Und ja es ist Fudzilla, aber es klingt nach wie vor nach einer Kombination von mehreren Faktoren.
Wieso schreibt der GTX260? Die Karte ist nach wie vor gut zu bekommen ab 130 €. Und GTX275 ist erst seit ein paar Tagen schlechter verfügbar. Radeon 4000-Serie ist auch noch breit lieferbar.

turboschlumpf
2009-11-17, 14:16:49
Eine Mischung (jeglicher Art) waere die klassische These die wie meistens naeher an der Wahrheit liegt. Auf jeden Fall kann man beruhigt Charlie's Andeutung dass TSMC das ganze Schlammassel mit Absicht generiert erstmal als totalen Bloedsinn abhaken.
Und was wenn Jensen seine Finger mit im Spiel hat?

Ailuros
2009-11-17, 14:17:01
Wieso schreibt der GTX260? Die Karte ist nach wie vor gut zu bekommen ab 130 €. Und GTX275 ist erst seit ein paar Tagen schlechter verfügbar. Radeon 4000-Serie ist auch noch breit lieferbar.

Bei der lokalen Suchmaschine hier die ich benutze ist die Verfuegbarkeit all der vorerwaehnten GPUs deutlich geringer als vor sagen wir mal Mitte 2009. Am meisten betroffen sind natuerlich die 5870/5850. Frueher bekam ich z.B. bei einer 260 Suche mehrere Seiten an Angeboten; heutzutage begrenzen sich alle lediglich auf eine Seite. Da brauch ich schon gar nicht zu zaehlen um wieviel sich etwas geaendert hat.

Und was wenn Jensen seine Finger mit im Spiel hat?

Nein es war die Tochter der Schwester der Putzfrau vom Intel-Hauptgebaeude. Erwarte bloss keine anstaendige Antwort auf solch eine Frage. In der Zwischenzeit f***t wohl Jensen seine eigene Produktion ab und sogar so stark dass die NV Kerle selber behaupten dass die 40G yields fuer ihr 3.0Mrd. schweres Dingsbums unter A2 immer noch zwischen 4 und 40% schanken ja? GT200@65nm hatte miserable yields und kam schnaufend mit 60% in seine Produktion. Wenn solche Einzelheiten ueberhaupt helfen...

turboschlumpf
2009-11-17, 15:39:18
Nein es war die Tochter der Schwester der Putzfrau vom Intel-Hauptgebaeude. Erwarte bloss keine anstaendige Antwort auf solch eine Frage. In der Zwischenzeit f***t wohl Jensen seine eigene Produktion ab und sogar so stark dass die NV Kerle selber behaupten dass die 40G yields fuer ihr 3.0Mrd. schweres Dingsbums unter A2 immer noch zwischen 4 und 40% schanken ja? GT200@65nm hatte miserable yields und kam schnaufend mit 60% in seine Produktion. Wenn solche Einzelheiten ueberhaupt helfen...Genau so eine Antwort hatte ich erwartet. :naughty:

Seit dem AMD-ATI-Deal und Intels Larrabee halte ich nichts mehr für unmöglich. :upara:

reunion
2009-11-17, 15:54:01
Vielleicht hilft es nachzudenken dass sie anstatt den Pegel auf einer halben Million anzulegen gleich auf sagen wir 1 Mio haetten gehen sollen.

Selbst 500.000 ist erheblich zu wenig. AMD wollte sicherlich deutlich mehr. 500.000 wurden von TSMC versprochen, aber anscheinend kann man nicht mal das halten.

Genau so eine Antwort hatte ich erwartet. :naughty:

Seit dem AMD-ATI-Deal und Intels Larrabee halte ich nichts mehr für unmöglich. :upara:

Was Ail nicht glaubt das kann nicht sein. Ist ja nichts neues. Niemand sollte so tun als ob er die ultimative Wahrheit gepachtet hätte.

Gast
2009-11-17, 15:57:50
Niemand sollte so tun als ob er die ultimative Wahrheit gepachtet hätte.

Das sagt genau der Richtige *lach*

reunion
2009-11-17, 15:59:04
Das sagt genau der Richtige *lach*

Da kannst du lachen bis du grün wirst.

Schlammsau
2009-11-17, 16:27:46
50% halte ich für durchaus realistisch und wahrscheinlich.

Diese ganze Spekuliererei erinnert mich stark an die GT200 Spekus, wo die meisten auch weit mehr als 50% erhofft hatten.

Gast
2009-11-17, 17:27:42
50% halte ich für durchaus realistisch und wahrscheinlich.


In ihren feuchten Träumen vielleicht irgendwann mal. Jedenfalls muss und wird man wieder teildefekte Chips sammeln und unter diversen Namen generationsübergreifend verhökern müssen. Der Fertiger ist immer in der Bringschuld, geringfügige Ausfälle aufgrund von Fertigungsproblemen allerdings vorgesehen. Das ist jetz net bös gemeint, aber ein riesiger Chip hergestellt durch ein fragwürdiges Verfahren macht solche Vorgehensweisen nunmal nötig. TSMC ist momentan nicht in der Lage, georderte Mengen zu liefern...Punkt!

Das schadet hauptsächlich TSMC, da deren Potenzial nun selbst beim Endanwender in Frage steht.
Und NV wird sich demnächst überlegen müssen, ob immer größere Chips überhaupt sinnvoll zu fertigen sind. Der Ausschuß muss auch irgendwie verbraten werden, sonst sind bald TSMC und NV pleite. Imho ist dies der Anfang vom Ende für die Auftragsfertiger. Man kann vieles billiger anders machen, aber irgendwo muss auch noch bisl Geld verdient werden. TSMC hat nicht die finanziellen Möglichkeiten, Forschung im Grenzbereich des momentan machbaren zu finanzieren. Die produzieren quasi blind mit fast kostenneutraler Manpower...Das geht demnächst dann nicht mehr.

Armaq
2009-11-17, 17:38:08
Ich finde es trotzdem naiv, dass man Deals zwischen TSMC und Nvidia abstreitet, da eindeutig ist, dass beide mehr oder minder davon profitieren. AMD mit GF im Rücken ist für TSMC mehr als unangenehm, Nvidia hat auch Schnupfen.

Nach den Intel-Deals sollte so eine kleine Gemeinheit niemanden mehr aufschrecken.

Coda
2009-11-17, 17:41:35
Imho ist dies der Anfang vom Ende für die Auftragsfertiger.
Bitte was? Soll jeder kleine Chipladen ne eigene Fab hinstellen oder was? :freak:

Sorry, aber eher das Gegenteil ist der Fall. Wer außer Intel, AMD (so halbwegs) und IBM hat denn überhaupt noch eigene Fabs?

Undertaker
2009-11-17, 17:51:40
Ich finde es trotzdem naiv, dass man Deals zwischen TSMC und Nvidia abstreitet

Die Frage ist, von welchen "Deals" man hier redet. "Deals" gibt es auch zwischen ATI und TSMC. Spekulationen, dass man im Auftrag von Nvidia nachts auf die RV870 Wafer spuckt, sind da natürlich nicht inbegriffen.

LovesuckZ
2009-11-17, 18:27:48
Spekulationen, dass man im Auftrag von Nvidia nachts auf die RV870 Wafer spuckt, sind da natürlich nicht inbegriffen.

Vielleicht sollte AMD auch probieren solche Deals einzugehen. Immerhin macht nVidia damit mehr Geld als Verlust. Wer MSI, Ubisoft, Eidos und TSMC bestechen kann und dabei noch mehr als 100 Millionen $ Gewinn abwirft, der muss irgendwas richtig machen.

w0mbat
2009-11-17, 18:34:48
Vielleicht sollte AMD auch probieren solche Deals einzugehen. Immerhin macht nVidia damit mehr Geld als Verlust. Wer MSI, Ubisoft, Eidos und TSMC bestechen kann und dabei noch mehr als 100 Millionen $ Gewinn abwirft, der muss irgendwas richtig machen.

Entweder das ist der blödeste Troll-Versuch deinerseits oder du hast nicht verstanden was Bestechung ist.

V2.0
2009-11-17, 18:37:30
Ich finde es trotzdem naiv, dass man Deals zwischen TSMC und Nvidia abstreitet, da eindeutig ist, dass beide mehr oder minder davon profitieren. AMD mit GF im Rücken ist für TSMC mehr als unangenehm, Nvidia hat auch Schnupfen.

Nach den Intel-Deals sollte so eine kleine Gemeinheit niemanden mehr aufschrecken.

Naiv, ist es so etwas zu glauben und logische Fehler zu ignorieren, bur weil eine Firma "böse" ist.

Sehen wir uns doch die Zustände an.

TSMC produziert evtl. 25% der zu erwartenden Menge an 40nm Chips die funktionieren
AMD musste davon ausgehen, dass die Nachfrage im Q4 schwach bleibt
AMD konnte nicht davon ausgehen, dass NV so spät dran ist
NV produziert nicht nur Fermi in 40nm sondern auch die ganzen kleinen und billigen GT21X

Ist es nun überraschend, wenn ATI weniger Chips hat als geplant oder verkaufbar?
Ist es überraschend, wenn NV sich einen großten Teil der Kapazität von TSMC gesichert hat, auch wenn Fermi nicht läuft?

Ist dann die ganze Situation so verschwörerisch?

LovesuckZ
2009-11-17, 18:39:25
Entweder das ist der blödeste Troll-Versuch deinerseits oder du hast nicht verstanden was Bestechung ist.

Nö, das nennt man Sarkasmus. :rolleyes:

Naiv, ist es so etwas zu glauben und logische Fehler zu ignorieren, bur weil eine Firma "böse" ist.

Sehen wir uns doch die Zustände an.

TSMC produziert evtl. 25% der zu erwartenden Menge an 40nm Chips die funktionieren
AMD musste davon ausgehen, dass die Nachfrage im Q4 schwach bleibt
AMD konnte nicht davon ausgehen, dass NV so spät dran ist
NV produziert nicht nur Fermi in 40nm sondern auch die ganzen kleinen und billigen GT21X

Ist es nun überraschend, wenn ATI weniger Chips hat als geplant oder verkaufbar?
Ist es überraschend, wenn NV sich einen großten Teil der Kapazität von TSMC gesichert hat, auch wenn Fermi nicht läuft?

Ist dann die ganze Situation so verschwörerisch?

nVidia's 40nm Produkte machten im Q3 19% des Umsatzes im Desktop-Geschäft aus. Die Margen für 40nm sind gleich mit denen von 55nm. Sie wären dumm, wenn sie nicht genug Wafer bestellt hätten. Es ist wohl kaum nVidia's schuld, wenn TSMC weder >200mm^2 vernünftig produzieren kann, noch AMD genug Wafer bestellt hat.

V2.0
2009-11-17, 18:47:21
nVidia's 40nm Produkte machten im Q3 19% des Umsatzes im Desktop-Geschäft aus. Die Margen für 40nm sind gleich mit denen von 55nm. Sie wären dumm, wenn sie nicht genug Wafer bestellt hätten. Es ist wohl kaum nVidia's schuld, wenn TSMC weder >200mm^2 vernünftig produzieren kann, noch AMD genug Wafer bestellt hat.

Sage ich doch auch gar nicht. Im Gegenteil 40nm lief schon mit RV740 bescheiden, und auch ich halte es für logisch, dass NV 40nm Kapazität förmlich aufgesaugt hat, da GT21X billiger sein würde als seine Vorgänger und mehr Marge versprach.

Der heutige Zustand ist fast eine logische Konsequenz der bekannten Fakten. Ich würde mich fast trauen zu sagen, dass die Verzögerung bei Fermi nicht nur an NV lag. Mal ganz ehrlich welchen Sinn hätte ein GF100 Tape-Out gehabt, wenn ein winziger GT218 auf dem gleichen Prozess und der gleichen Fab schon keine brauchbaren Yields liefert?

LovesuckZ
2009-11-17, 19:01:55
Sage ich doch auch gar nicht. Im Gegenteil 40nm lief schon mit RV740 bescheiden, und auch ich halte es für logisch, dass NV 40nm Kapazität förmlich aufgesaugt hat, da GT21X billiger sein würde als seine Vorgänger und mehr Marge versprach.


Die Ironie ist, dass Charlie und seine Gefolgsleute gelacht haben als Huang in der CC vom Q2 gesagt hat, dass nVidia der größte Produzent von 40nm Produkten bei TSMC sei. Hätte Charlie wissen müssen, mit seinem Insider-Kontakten zu TSMC. ;D

LovesuckZ
2009-11-17, 19:02:45
Sage ich doch auch gar nicht. Im Gegenteil 40nm lief schon mit RV740 bescheiden, und auch ich halte es für logisch, dass NV 40nm Kapazität förmlich aufgesaugt hat, da GT21X billiger sein würde als seine Vorgänger und mehr Marge versprach.


Die Ironie ist, dass Charlie und seine Gefolgsleute gelacht haben als Huang in der CC vom Q2 gesagt hat, dass nVidia der größte Produzent von 40nm Produkten bei TSMC sei. Hätte Charlie wissen müssen, mit seinem Insider-Kontakten zu TSMC. ;D

Don-Roland
2009-11-17, 19:06:03
Nvidia zeigt Tesla C2050 und C2070 auf SC 09 (http://www.hardware-infos.com/news.php?news=3304)

Sorkalm
2009-11-17, 19:07:30
Hatt'mer schon, sowie auch drüber diskutiert. ;)

G!ZMo
2009-11-17, 19:14:34
Nvidia zeigt Tesla C2050 und C2070 auf SC 09 (http://www.hardware-infos.com/news.php?news=3304)

Braucht ihr Klicks oder was?:P

LovesuckZ
2009-11-17, 19:16:15
Hat sich eigentlich wer die Tesla-Bilder angeschaut? Die Karte ist kürzer als die GTX2xx Karten und hat anscheinend keinen NVIO-Chip.
http://pics.computerbase.de/2/7/4/9/8/3.jpg

Und zur Packdichte lässt sich nun auch sagen: Fermi wird irgendwo zwischen 5,6 - 6,3 liegen (530mm^2 - 470m^2).

AnarchX
2009-11-17, 19:24:36
9,75" laut Produktblatt.

btw.
Last night saw the opening gala of SC09. Attendees streamed through the NVIDIA booth in the hundreds to get a sneak peak at the new Tesla 20-series products. Running n-body, simulating the motion of 20,000 particles and their gravitational interaction, the new Tesla C2050 showed more than a 6X improvement in double precision performance over a Tesla C1060 (previous generation). And this is still a pre-production product– expect this number to get bigger as the Tesla products are readied to hit the market in Q2 of next year.

http://blogs.nvidia.com/ntersect/SC09/

reunion
2009-11-17, 19:26:06
Nachdem NV 8x mehr verspricht muss das auch noch besser werden wenn die Effizienz nicht sank.

LovesuckZ
2009-11-17, 19:28:52
9,75" laut Produktblatt.

Danke.


btw.
http://blogs.nvidia.com/ntersect/SC09/

Da quetscht man wohl A1 bis zum Umfallen aus. ;D
Auf der GTC waren es ein bissl mehr als das 5-fache.

igg
2009-11-17, 19:32:24
http://blogs.nvidia.com/ntersect/SC09/
Na das ist doch ganz ordentlich :)

Armaq
2009-11-17, 19:44:06
Naiv, ist es so etwas zu glauben und logische Fehler zu ignorieren, bur weil eine Firma "böse" ist.

Sehen wir uns doch die Zustände an.

TSMC produziert evtl. 25% der zu erwartenden Menge an 40nm Chips die funktionieren
AMD musste davon ausgehen, dass die Nachfrage im Q4 schwach bleibt
AMD konnte nicht davon ausgehen, dass NV so spät dran ist
NV produziert nicht nur Fermi in 40nm sondern auch die ganzen kleinen und billigen GT21X

Ist es nun überraschend, wenn ATI weniger Chips hat als geplant oder verkaufbar?
Ist es überraschend, wenn NV sich einen großten Teil der Kapazität von TSMC gesichert hat, auch wenn Fermi nicht läuft?

Ist dann die ganze Situation so verschwörerisch?
Wer ist hier böse? Ich würde es als CEO auch probieren. Das hat einfach was mit dem Standpunkt zu tun. Wir leben nunmal in einer Gesellschaft wo jeder für seine Interessen eintritt und aus diesem Kräftespiel entwickelt sich halt etwas. Mit Wertung hat das wenig zu tun, sondern mit Interessen. Und frag mich nicht was TSMC von weniger Umsatz auf AMD-Seite hat.

reunion
2009-11-17, 20:06:48
Wer ist hier böse? Ich würde es als CEO auch probieren. Das hat einfach was mit dem Standpunkt zu tun. Wir leben nunmal in einer Gesellschaft wo jeder für seine Interessen eintritt und aus diesem Kräftespiel entwickelt sich halt etwas. Mit Wertung hat das wenig zu tun, sondern mit Interessen. Und frag mich nicht was TSMC von weniger Umsatz auf AMD-Seite hat.

So ist es. Aber viele leben offensichtlich noch immer im ihrer perfekten Kuntibuntiwelt wo sich alle ganz toll lieb haben. Wenn zwei Firmen gemeinsame Interessen verfolgen ist es das normalste der Welt hier Vereinbarungen zu schließen. Frei nach dem Motto du gibst mir einen Großteil der knappen 40nm Kapazitäten, dafür werde ich im Gegensatz zur Konkurrenz auch in Zukunft bei dir fertigen. Um mal ein Beispiel zu nennen. Es würde mich in Gegenzug viel mehr wundern wenn NV hier nicht versuchen würde daraus Profit zu schlagen.

Don-Roland
2009-11-17, 20:10:44
Braucht ihr Klicks oder was?:P

Ich habe mit der Seite nichts zu tun falls du meinst ich will hier für diese werben... Finde der Link passt ganz gut hier rein.

Gast
2009-11-17, 20:16:45
AMD hat mist gebaut bei der Bestellung oder den Plänen für TSMC und TSMC hat mit 40nm bei größeren Chips nur Verunreinigungen drin. Aber es ist ja so einfach und schön totalen hannebüchenen Gerüchten die erfunden wurden zu glauben und zu Supporten als das Gehirn einzuschalten und es wegzuwischen... Jeder reimt sich was zu sammen, ich freu mich auf die nächsten 10 Seiten versuchter Stimmungsmache gegen NV die an einem Fehler 2er Vertragspartner schuld sein müssen ^^

Gast
2009-11-17, 20:17:37
Am 18/05/2009 berichtete mir ein NV Angestellter dass A1 zurueck gekommen sei und es problemlos auf 730/1620 bei 0.95-1.0V laufen wuerde. Unter Umstaenden bei 1.05-1.1V waeren sogar 1760-1820MHz ALU Frequenzen moeglich.

Kann mir jemand erklären, wie es sein kann, dass das erste Sample bereits mit sehr guten Taktraten läuft während im weiteren Verlauf solche massiven Taktprobleme auftreten?

btw Danke für deine Infos Ail, stets sehr interessant

reunion
2009-11-17, 20:19:59
Kann mir jemand erklären, wie es sein kann, dass das erste Sample bereits mit sehr guten Taktraten läuft während im weiteren Verlauf solche massiven Taktprobleme auftreten?

btw Danke für deine Infos Ail, stets sehr interessant

Die Info war schlicht falsch.

mictasm
2009-11-17, 20:20:45
Ich habe mit der Seite nichts zu tun falls du meinst ich will hier für diese werben... Finde der Link passt ganz gut hier rein.

Ja, vor ca. 15-20 Seiten... :rolleyes:

Coda
2009-11-17, 20:23:31
Die Info war schlicht falsch.
Sagt wer? Offenbar lief der Test-Chip sehr wohl so hoch. Ich gehe auch davon aus, dass die Probleme nicht an den ALUs selber liegen sondern an der Taktverteilung.

Ist im Endeffekt aber auch egal.

reunion
2009-11-17, 20:23:58
Sagt wer? Offenbar lief der Test-Chip sehr wohl so hoch. Ich gehe auch davon aus, dass die Probleme nicht an den ALUs selber liegen sondern an der Taktverteilung.

Ist im Endeffekt aber auch egal.

Frag Ailuros.

Er deutet es eh an:

Ich wuenschte ich koennte sogar den Namen und die e-mail (gesamt IP) zitieren, aber so weit gehe ich natuerlich nicht. Wann A1 erstmal wirklich zustande kam wissen wir in der Zwischenzeit, ergo erzaehl mir bloss nicht wer in diesem Fall sich eher entschuldigen muss. Ein Testsample ist nicht gleich einem ganzem chip und wenn die tools eines IHV zu so grossen Fehleinschaetzungen fuehren sollten sie wohl eher die Klappe halten.

Ergo als er die Infos bekam (18/05/2009) gab es noch gar keinen GF100. Das war nur irgend ein Testchip.

Coda
2009-11-17, 20:29:45
Hab ich doch geschrieben

V2.0
2009-11-17, 20:45:25
So ist es. Aber viele leben offensichtlich noch immer im ihrer perfekten Kuntibuntiwelt wo sich alle ganz toll lieb haben. Wenn zwei Firmen gemeinsame Interessen verfolgen ist es das normalste der Welt hier Vereinbarungen zu schließen. Frei nach dem Motto du gibst mir einen Großteil der knappen 40nm Kapazitäten, dafür werde ich im Gegensatz zur Konkurrenz auch in Zukunft bei dir fertigen. Um mal ein Beispiel zu nennen. Es würde mich in Gegenzug viel mehr wundern wenn NV hier nicht versuchen würde daraus Profit zu schlagen.

Genau so wird es gewesen sein. NV und TSMC haben sich verschworen. Es kann ja nicht sein, dass AMD die Nachfrage unterschätzt und die Yields bei TSMC überschätzt hat.

reunion
2009-11-17, 20:50:14
Genau so wird es gewesen sein. NV und TSMC haben sich verschworen. Es kann ja nicht sein, dass AMD die Nachfrage unterschätzt und die Yields bei TSMC überschätzt hat.

Das war ein Beispiel. Aber mach dich nur lustig und glaube weiter an deine perfekte Welt. Es kann ja nicht sein was nicht sein darf.

|MatMan|
2009-11-17, 21:23:59
das wäre ein extremes "Spiel mit dem Feuer" für TSMC. Wenn sich nur ein Mitarbeiter von der Presse bezahlen lässt und die Geschichte herauskommen würde, wäre das ein riesen Skandal. Ich kann mir kaum vorstellen, dass es TSMC momentan so nötig hat...

Klar gibt es Absprachen in der Grauzone oder sogar illegale - aber direkte Sabotage?!

reunion
2009-11-17, 21:26:43
das wäre ein extremes "Spiel mit dem Feuer" für TSMC. Wenn sich nur ein Mitarbeiter von der Presse bezahlen lässt und die Geschichte herauskommen würde, wäre das ein riesen Skandal. Ich kann mir kaum vorstellen, dass es TSMC momentan so nötig hat...

Klar gibt es Absprachen in der Grauzone oder sogar illegale - aber direkte Sabotage?!

Was wäre daran ein Skandal? Von plumper Sabotage redet ja niemand. Das ist das normalste der Welt. Eine klassische winwin-Situation. Daran wäre auch nichts illegal oder dgl. TSMC alleine kann entscheiden wen man wann wie viele Kapazitäten zugesteht. Viele anderen Kunden von TSMC können nur davon träumen 40nm Chips bei TSMC produzieren zu dürfen. Aber das hat ohnehin keinen Sinn, die Wahrheit werden wir wenn überhaupt eh erst in Jahren erfahren.

Botcruscher
2009-11-17, 21:28:52
Ihr übertreibt. In so großen Firmen bleibt so was nicht geheim.

LovesuckZ
2009-11-17, 21:40:32
Genau, nVidia kauft massenweise 40nm Wafer - ohne zu wissen wie Yields sind und ob sie die Chips verkaufen können.
Es hat schon seinem Grund, warum nVidia eine Marge von 43% ausweisen konnte. Und die bekommt man nicht, wenn man andere Firmen schmiert.
Manche Leute tut mir hier echt leid, wenn sie annehmen, dass nVidia für das Versagen von TSMC und AMD verantwortlich wären.

Armaq
2009-11-17, 21:42:30
Warum muss man das absprechen? Habt ihr bisher ein Verfahren gegen die Mineralölkonzerne gesehen? Glaubt ihr es gibt direkte Absprachen? Sowas geht viel subtiler.

Armaq
2009-11-17, 21:43:24
Genau, nVidia kauft massenweise 40nm Wafer - ohne zu wissen wie Yields sind und ob sie die Chips verkaufen können.
Es hat schon seinem Grund, warum nVidia eine Marge von 43% ausweisen konnte. Und die bekommt man nicht, wenn man andere Firmen schmiert.
Manche Leute tut mir hier echt leid, wenn sie annehmen, dass nVidia für das Versagen von TSMC und AMD verantwortlich wären.
Du kannst einem nur Leid tun, bei dem Mist den du schreibst. Was hat denn MS für eine Marge und welche hat Intel? Wie groß sind die im Vergleich zu Nvidia?

LovesuckZ
2009-11-17, 21:48:35
Du kannst einem nur Leid tun, bei dem Mist den du schreibst. Was hat denn MS für eine Marge und welche hat Intel? Wie groß sind die im Vergleich zu Nvidia?

Stimmt ja, nVidia ist ja eine Software-Firma. Wie kann ich also nVidia und AMD nur vergleichen. :rolleyes:
Bilde dich erstmal, warum nVidia in diesem Quartal über 100 Millionen Gewinn erwirtschaftet hat. Dann wirst du vielleicht auch sehen, dass dies bestimmt keine Firma ist, die aus purer Langweilge unzählige 40nm Wafer bestellt. :rolleyes:

Armaq
2009-11-17, 21:50:30
Stimmt ja, nVidia ist ja eine Software-Firma. Wie kann ich also nVidia und AMD nur vergleichen. :rolleyes:
Bilde dich erstmal, warum nVidia in diesem Quartal über 100 Millionen Gewinn erwirtschaftet hat. Dann wirst du vielleicht auch sehen, dass dies bestimmt keine Firma ist, die aus purer Langweilge unzählige 40nm Wafer bestellt. :rolleyes:
Was für ein schwacher Flame.
Ich habe Intel und MS angeführt, aber anscheinend fällt dir lesen schwer.

LovesuckZ
2009-11-17, 21:52:13
Was für ein schwacher Flame.
Ich habe Intel und MS angeführt, aber anscheinend fällt dir lesen schwer.

Jo - Intel und MS. Und das auf nVidia und AMD. Leider hast du meinen "schwachen Flame" wohl nicht verstanden.
Leider habe ich keine Lust mit jemanden zu reden, der anscheinend nicht weiß, warum AMD und nVidia vergleichbar sind. Nun rede weiter deinen unsinn. Manche werden es schon glauben. :)

Armaq
2009-11-17, 22:16:35
Jo - Intel und MS. Und das auf nVidia und AMD. Leider hast du meinen "schwachen Flame" wohl nicht verstanden.
Leider habe ich keine Lust mit jemanden zu reden, der anscheinend nicht weiß, warum AMD und nVidia vergleichbar sind. Nun rede weiter deinen unsinn. Manche werden es schon glauben. :)
Du hast die Parallele nicht verstanden und nicht anders.

LovesuckZ
2009-11-17, 22:25:54
Stimmt, wenn man eine Parallele verwendet, wo aus zwei Hardware-Firmen eine Hardware- und eine Software-Firma wird, dann habe ich es nicht verstanden. Da nVidia sich aber durch den Verkauf von Hardware finanziert, wie auch AMD, ist es unsinn.
Aber nun auf meine Ignore-Liste. Soviel unsinn wird mir echt zuviel. :(

N0Thing
2009-11-17, 22:32:09
Ist es denn so schwer den Gedanken zuzulassen, daß alle beteiligten Firmen Fehler gemacht haben?
AMD hat nicht genug Wafer gekauft um die Nachfrage zu befriedigen.
TSMC hat die Fertigung nicht in dem Maße in den Griff bekommen, als daß die geplanten Produktionsmengen erreicht werden könnten.
Nvidia hat scheinbar Probleme das Fermi-Chipdesign mit entsprechender Leistung zum laufen zu bekommen.

Jede Firma hat für sich Fehler gemacht, oder weniger gute Ergebnisse erreicht, als es die Firma selber (!) geplant hat.
TSMC hat sicher nicht Nvidia Wafer auf Kosten von AMD zugeschachtert, es wird eine rein marktwirtschaftliche Entscheidung gewesen sein. Ich würde vermuten, daß AMD beim RV870 pro funktionierendem DIE bezahlt, Nvidia bei ihren DX10.1 Chips pro Wafer und vielleicht liegen noch ein paar 40nm Wafer bei TSMC auf Lager, die für einen funktionierenden Fermi gedacht waren.

Um von einem Betrug oder illegalen Machenschaften zu reden, sollte es wenigstens Hinweise darauf geben.

N0Thing
2009-11-17, 22:38:23
Stimmt, wenn man eine Parallele verwendet, wo aus zwei Hardware-Firmen eine Hardware- und eine Software-Firma wird, dann habe ich es nicht verstanden. Da nVidia sich aber durch den Verkauf von Hardware finanziert, wie auch AMD, ist es unsinn.
Aber nun auf meine Ignore-Liste. Soviel unsinn wird mir echt zuviel. :(

Es ging ihm wohl eher darum, daß Intel trotz fragwürdiger Handlungen/Rabatte viel Geld verdient (These Nvidia besticht andere Firmen--> Gewinn). Microsoft mit seinem Monopolmißbrauch steht in der gleichen Reihe wie Intel, also vergleicht er beide Firmen mit Nvidia.
Der Vergleich hinkt, die Aussage kann man aber durchaus verstehen.

LovesuckZ
2009-11-17, 22:44:10
Es ging ihm wohl eher darum, daß Intel trotz fragwürdiger Handlungen/Rabatte viel Geld verdient (These Nvidia besticht andere Firmen--> Gewinn). Microsoft mit seinem Monopolmißbrauch steht in der gleichen Reihe wie Intel, also vergleicht er beide Firmen mit Nvidia.
Der Vergleich hinkt, die Aussage kann man aber durchaus verstehen.

Ich weiß - und das ist noch dämlicher und deswegen habe ich es nicht angesprochen. Beide Firmen machen mehr Gewinn als nVidia Umsatz. nVidia machte 100 Millionen $ Gewinn. Die haben überhaupt nicht das Kapital sinnlos Wafer zu bestellen. Und bei einer marge von 43% ist man voll auf Kostensenkungen fixiert. Die haben kein Geld, dass sie Ubisoft, Eidos oder MSI schenken können.
Aber anscheind bezahlt Huang die ganzen Bestechungen aus seinem Privatvermögen. :rolleyes:

Mr. Lolman
2009-11-17, 22:58:33
Doch. ~100Mio hätten sie für Bestechungen übrig ;)

LovesuckZ
2009-11-17, 23:02:28
Doch. ~100Mio hätten sie für Bestechungen übrig ;)

Nein, die gehen an die Aktionäre.
Wobei, wenn die beschließen, dass sie das Geld für Bestechungen verwenden wollen... :uponder:

Mr. Lolman
2009-11-17, 23:07:56
Nein, die gehen an die Aktionäre.
Wobei, wenn die beschließen, dass sie das Geld für Bestechungen verwenden wollen... :uponder:
Ui. NV zahlt 100% Dividende? :eek:

LovesuckZ
2009-11-17, 23:16:49
Ui. NV zahlt 100% Dividende? :eek:

Das liegt an den Aktionären. ;)

PulsarS
2009-11-17, 23:25:01
Das liegt an den Aktionären. ;)
Das glaubst du wohl nicht, oder? :rolleyes:

turboschlumpf
2009-11-18, 00:49:22
TSMC hat Probleme mit dem 40-nm-Prozess und kann aus diesem Grund nur ein Bruchteil der Chipmenge liefern die AMD verkaufen könnte.
Weil Fermi sich verspätet droht Nvidia der Umstand, den Markt ein halbes Jahr lang komplett AMD überlassen zu müssen.
Nvidia gibt TSMC zu verstehen, dass es in ihrem Interesse wäre, wenn die Lieferengpässe bei den AMD-Chips noch etwas länger anhalten würden.
TSMC hat Angst den wichtigsten Kunden an Globalfoundries zu verlieren.
...

Unwahrscheinlich? Ja. Unmöglich? Nein!

Schrotti
2009-11-18, 00:58:17
Ja toll.

TSMC soll endlich aus dem Arsch kommen. Warum kann nv nicht bei Intel fertigen lassen?

Die sind doch schon viel weiter ;)

Und AMD den Markt ein halbes Jahr zu überlassen kann tödlich sein.

Coda
2009-11-18, 00:58:47
Warum kann nv nicht bei Intel fertigen lassen?
Weil Intel für niemanden fertigt außer für sich selber?

Schrotti
2009-11-18, 00:59:25
Ja schade halt.

N0Thing
2009-11-18, 01:11:06
Ich weiß - und das ist noch dämlicher und deswegen habe ich es nicht angesprochen. Beide Firmen machen mehr Gewinn als nVidia Umsatz. nVidia machte 100 Millionen $ Gewinn. Die haben überhaupt nicht das Kapital sinnlos Wafer zu bestellen. Und bei einer marge von 43% ist man voll auf Kostensenkungen fixiert.

Ich hatte den Eindruck, daß du nicht wußtest worauf er hinaus wollte. Aber dann ist ja alles klar, ich halte es auch für absurd, daß sich TSMC von Nvidia bestechen lassen würde. Deals im üblichen Rahmen, also wer mehr bezahlt bekommt die Ware, ist für mich keine Bestechung sondern Marktwirtschaft. ;)

Dural
2009-11-18, 01:35:38
TSMC hat Probleme mit dem 40-nm-Prozess und kann aus diesem Grund nur ein Bruchteil der Chipmenge liefern die AMD verkaufen könnte.
Weil Fermi sich verspätet droht Nvidia der Umstand, den Markt ein halbes Jahr lang komplett AMD überlassen zu müssen.
Nvidia gibt TSMC zu verstehen, dass es in ihrem Interesse wäre, wenn die Lieferengpässe bei den AMD-Chips noch etwas länger anhalten würden.
TSMC hat Angst den wichtigsten Kunden an Globalfoundries zu verlieren.
...

Unwahrscheinlich? Ja. Unmöglich? Nein!

Der Fermi verschibt sich ja gerade wegen den ganzen 40nm probleme, also ist diese theorie nicht wirklich schlüssig, oder?

40nm läuft einfach überhaupt nicht wie es sollte:

GT 240 wo sich der shader um 0 MHz übertakten lässt sagt doch schon alles aus!!!

http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_nvidia_geforce_gt_240/23/#abschnitt_uebertaktbarkeit

ROP lässt sich zwar bei der GT2xx Architektur wie gewonnt gut übertakten, aber da auch Fermi mit komplett überarbeiteten ALUs sich auch nicht wirklich gut takten lässt bleibt doch nur noch die fertigung übrig!

Coda
2009-11-18, 01:43:52
GT 240 wo sich der shader um 0 MHz übertakten lässt sagt doch schon alles aus!!!
Das ist aber wirklich ungewöhnlich. Das würde bedeuten man hätte den Chip mit 0 Toleranz ausgeliefert was eigentlich nicht passiert.

Eventuell (!) ist da noch was am Treiber faul.

davidzo
2009-11-18, 01:53:11
ein Mangel an Karten kommt erst zustande, wenn der Bedarf höher ist als die Produktion. Das sind beides fließende zahlen. der bedarf war von Anfang an höher als die Produktion, also hat sich ein gewisser rückholbedarf aufgestaut. selbst wenn nun Produktion und Bedarf gleich sein würden, müsste erst dieser rückholbedarf aufgestockt werden, bis man von einem Ende des Mangels sprechen könnte.

Es kann also sein, dass die Probleme bereits behoben worden sind, bzw. mehr chips unterwegs. Also entweder der yield verbessert oder einfach mehr waferstarts für amd gerampt, am wahrscheinlichsten aber ein bisschen von beidem.

Es kann einfach keine wirtschaftliche politik seitens tsmc sein, millionengewinne durch amd zu verschmähen bloß um denen wegen einem möglichen wechsel zu global foundries einen Streich zu spielen. so dumm ist keiner der execs. Da geht es um geld, in erster Linie. Und zwar kurzfristiges geld, wer weiß wie lange der ceo von tsmc sonst noch ceo wäre. solche Leute werden bezahlt um kurzfristig gewinne zu erwirtschaften ohne die langzeitaussichten nachhaltig zu trüben, aber in erster linie ersteres.
viel taktischer ist es amd solange zu melken, wie man noch kann und nvidia gleichzeitig ein bisschen loyalität vorzugaukeln indem man die GT21x chips möglichst schnell rampt. waferstarts zu verzögern in einer foundry wäre einfach purer bullshit und die marge für tsmc ist denke ich bei den dx11chips von amd besser als bei den lowcostdingern von nv. TSMC kann nicht mehr waferstarts verkaufen als sie Kapazitäten haben, bzw. einfach stattdessen starts von nvidia wafern machen, darüber würde mindestens eine Tippse in einem Multimillionenkonzern mit tausenden an Arbeitskräften stoßen und wenn sowas rauskäme, na dann gute nacht. Man macht also entsprechend die ramps, die man AMD zugesichert hat und diejenigen für nvidia. Dass die resultate nicht so sind wie sie sein könnten liegt aber anscheinend nicht an managerspucke, denn dann müsste der ja den Ergebnissen nach zu urteilen den gt21x ebenso hassen wie rv74x und rv87x. eben dass rv840 ja noch gut verfügbar ist deutet eher auch auf eine leichte Fehlkalkulation seitens AMD hin kombiniert mit dem sich schneller erholenden PCmarkt und dem leider immer noch so schlechten yield von TSMCs 40nm.

Im übrigen hat GF in naher Zukuft gar nicht die Kapazitäten um alle ATI Chipdeals von TSMC zu übernehmen. Mit ARMdeals ala ST, Quallcomm usw. und derzeit nicht mehr als die dresdener Fab kann GF vor der Fertigstellung der NewYork fab nicht daran denken die komplette AMD Grafikproduktpalette zu fertigen, auch nicht zu dem Preis für den es die Taiwanesen machen.
Auch AMD wäre nicht so dumm die redundanz durch TSMC aufzugeben, die wenigstens ein bisschen Sicherheit gibt, sonst wäre man GF und deren fortschritten oder Fehler bei einem bestimmten Prozess auf gedeih und verderb ausgeliefert. GF ist erstmal nur der fertiger für Fusion, da man die CPUbezogenen Folien von AMD ungern weit herumreicht. Den meisten rest wird nach wie vor TSMC erledigen, da bin ich mir ziemlich sicher.
Auch TSMC kann das erahnen und wird AMD deshalb die nächsten 12+Monate noch gerne als Kunden behalten, die schon jetzt abzuschreiben wäre marktwirtschaftlich eine katastrophe, für solche aktionen gäbe es sicherlich noch bessere zeitpunkte und chancen.
Und wenn TSMC der gesicherten Loyalität AMDs für die nächsten 12Monate sich eben nicht bewusst wäre, dann würde man sie seitens AMD entsprechend dadrauf aufmerksam machen und eben nicht riskieren, dass sie sich wie ein beleidigtes Kind aufführen (was sie aus oben genannten gründen auch nicht tun würden).

=Floi=
2009-11-18, 03:44:28
zitat
100% Dividende

die dividende wird nicht vom umsatz abgeleitet sonderm vom aktienkurs!
100% dividende wäre der wert des aktuellen aktienkurses.

ich darf gar nicht an diese 1820mhz shadertakt @ 1,1 volt denken. :rolleyes:
ein traum....

V2.0
2009-11-18, 07:14:00
Was wäre daran ein Skandal? Von plumper Sabotage redet ja niemand. Das ist das normalste der Welt. Eine klassische winwin-Situation. Daran wäre auch nichts illegal oder dgl. TSMC alleine kann entscheiden wen man wann wie viele Kapazitäten zugesteht. Viele anderen Kunden von TSMC können nur davon träumen 40nm Chips bei TSMC produzieren zu dürfen. Aber das hat ohnehin keinen Sinn, die Wahrheit werden wir wenn überhaupt eh erst in Jahren erfahren.
Das war ein Beispiel. Aber mach dich nur lustig und glaube weiter an deine perfekte Welt. Es kann ja nicht sein was nicht sein darf.

Klassischer Win-Win für TSMC, weil die ja außer NV und ATI gar keine anderen Kunden haben, die dort fertigen lassen und untereinander in Konkurrenz stehen. ;D

Ailuros
2009-11-18, 07:39:06
Kann mir jemand erklären, wie es sein kann, dass das erste Sample bereits mit sehr guten Taktraten läuft während im weiteren Verlauf solche massiven Taktprobleme auftreten?

btw Danke für deine Infos Ail, stets sehr interessant

IHVs schicken meistens vor dem eigentlichen chip eine kleines Testdingsbums zur Foundry die hilft einiges einzuschaetzen. Normalerweise ist es nicht groesser als ein einziger Cluster.

So etwas aber als "A1" anzudrehen ist durchaus laecherlich.

Ailuros
2009-11-18, 07:46:54
ich darf gar nicht an diese 1820mhz shadertakt @ 1,1 volt denken. :rolleyes:
ein traum....

Der Stromverbrauch kommt in diesem Fall fuer NVIDIA vor allen extravaganten Frequenzen. Sie haben versprochen dass der Stromverbrauch etwa auf GT200 Nivaeu sein wird und ich bezweifle dass sich daran etwas aendern wird.

Extravagante Kuehlungsloesungen erhoehen zu stark den Preis. Die brennende Frage ist wie mit welchenauchimmer Frequenzen GF100 die Leistung aussieht. Es schwirrt zwar schon einiges rum aber da ich mit Absicht Ohrenstoepsel fuer NVIDIA trage, fliesst es unbeachtet in meiner Kloschuessel runter.

Teaser:

http://s3.amazonaws.com/twitpic/photos/full/43599219.jpg?AWSAccessKeyId=0ZRYP5X5F6FSMBCCSE82&Expires=1258527771&Signature=Z6aHGtqFd6VqVUJkR7QZ1s6N0zY%3D

http://twitpic.com/pyhdf

AnarchX
2009-11-18, 08:08:29
http://unigine.com/press-releases/091001-directx11/
... scheint wohl doch Fermi zu sein, wie man an dem tessellierten Drachen sieht.

Da sollte es 2009 wohl noch einen GeForce (Preview) Launch geben.

X.Perry_Mental
2009-11-18, 08:16:35
Theo hat seinem Artikel nVidia NV100 [Fermi] is less powerful than GeForce GTX 285? (http://www.brightsideofnews.com/news/2009/11/17/nvidia-nv100-fermi-is-less-powerful-than-geforce-gtx-285.aspx) inzwischen zwei lesenswerte Updates spendiert, die ein wenig auf die Unterschiede zwischen Fermi, Geforce und Quadro eingehen:

Zitat:
"Following our article, we were contacted by Mr. Andy Keane, General Manager of Tesla Business and Mr. Andrew Humber, Senior PR Manager for Tesla products. In a long discussion, we discussed the topics in this article and topics of Tesla business in general. First and foremost, Tesla is the slowest clocked member of Fermi-GPU architecture as it has to qualify for supercomputers."

und:
"In order to satisfy the required multi-year under 100% stress, nVidia Tesla C2050/2070 went through following changes when compared to the Quadro card [which again, will be downclocked from the consumer cards]:

* Memory vendor is providing specific ECC version of GDDR5 memory: ECC GDDR5 SDRAM
* ECC is enabled from both the GPU side and Memory side, there are significant performance penalties, hence the GFLOPS number is significantly lower than on Quadro / GeForce cards.
* ECC will be disabled on GeForce cards and most likely on Quadro cards
* The capacitors used are of highest quality
* Power regulation is completely different and optimized for usage in Rack systems - you can use either a single 8-pin or dual 6-pin connectors
* Multiple fault-protection
* DVI was brought in on demand from the customers to reduce costs
* Larger thermal exhaust than Quadro/GeForce to reduce the thermal load
* Tesla cGPUs differ from GeForce with activated transistors that significantly increase the sustained performance, rather than burst mode.

boxleitnerb
2009-11-18, 08:23:10
Das lässt ja schonmal hoffen, dass man sich doch bei 1500+ MHz bewegt.

Gast
2009-11-18, 08:35:42
Mal ehrlich, hatte irgendwer außer den ATI-Fanboys etwas anderes erwartet?

reunion
2009-11-18, 08:37:34
Das ist auf jeden Fall eine positive Überraschung, da bis jetzt die Teslas auf dem Takt des Desktop-Topmodelle liefen.

boxleitnerb
2009-11-18, 08:41:45
Allerdings frage ich mich, warum sich die Leistungsaufnahme dann doch so weit oben bewegt? Frisst ECC (viel) Saft? Sorry, wenn es eine dumme Frage ist ;)

Ailuros
2009-11-18, 08:57:05
Das ist auf jeden Fall eine positive Überraschung, da bis jetzt die Teslas auf dem Takt des Desktop-Topmodelle liefen.

An ECC hab ich tatsaechlich nicht gedacht. Da oefters erwaehnt wurde dass ECC die Leistung reduziert, haette ich das mitberechnenen sollen. Egal wie jetzt die Frequenzen aussehen, auf jeden Fall ist die bis zu 8x malige DP Leistungssteigerung seit dem fermi whitepaper richtig angesetzt.

Ailuros
2009-11-18, 09:00:48
http://unigine.com/press-releases/091001-directx11/
... scheint wohl doch Fermi zu sein, wie man an dem tessellierten Drachen sieht.

Da sollte es 2009 wohl noch einen GeForce (Preview) Launch geben.

Nein GF100 tesseliert ja nur ueber sw kann also gar nicht sein...[/sarcasm off]

Man wollte mir bei B3D andrehen dass die Unigine DX11 engine der einzige benchmark sein sollte der fuer diese Generation zaehlen wird. Egal welche GPU Familie damit besser abschneidet, geben synthetische benchmarks zwar wertvolle Daten ab, sollten aber in keinem Fall als einziger Industrie-Standard akzeptiert werden.

reunion
2009-11-18, 09:08:39
Allerdings frage ich mich, warum sich die Leistungsaufnahme dann doch so weit oben bewegt? Frisst ECC (viel) Saft? Sorry, wenn es eine dumme Frage ist ;)

ECC sollte keinen Saft fressen.

boxleitnerb
2009-11-18, 09:18:27
Hm, dann stellt sich die Frage, wie man den Verbrauch der GTX285 erreichen will, wenn man deutlich höher taktet.

X.Perry_Mental
2009-11-18, 09:23:51
Hm, dann stellt sich die Frage, wie man den Verbrauch der GTX285 erreichen will, wenn man deutlich höher taktet.

Hmm, es gab in Theos Update ja auch noch den Punkt:
"Tesla cGPUs differ from GeForce with activated transistors that significantly increase the sustained performance, rather than burst mode."
Wer weiss, wie sich das im Verbrauch niederschlägt.

boxleitnerb
2009-11-18, 09:26:01
Was ist denn damit genau gemeint? Die Aussage ist irgendwie auch vage gehalten.

X.Perry_Mental
2009-11-18, 09:35:48
Was ist denn damit genau gemeint? Die Aussage ist irgendwie auch vage gehalten.
Ich habe es auch nicht verstanden, aber wenn man (grob übersetzt) von "Dauerleistung" und "Spitzenleistung" ausgeht könnte das doch auch auf Unterschiede nicht nur in der Leistung sondern auch im Verbrauch hindeuten.
Mal abgesehen davon finde ich den Hinweis interessant, dass die GPU in den verschiedenen Märkten spezielle Transistor-Bereiche nutzt bzw. nicht nutzt um unterschiedliche Leistungsprofile zu bieten.

boxleitnerb
2009-11-18, 09:39:19
In diese Richtung hatte ich grob spekuliert, wenn auch mit verschiedenen Chip-Designs. Wenn man bei 3 Mrd. Transistoren hier ein paar Mio. ungenutzt lässt, ist das wohl kein Drama.

James Ryan
2009-11-18, 09:58:52
Habt ihr euch mal überlegt, dass die Teslas eventuell im A1/A2 Stepping laufen, und die Geforce-Fermis im A3 Stepping?

MfG :cool:

Armaq
2009-11-18, 10:07:36
Ich weiß - und das ist noch dämlicher und deswegen habe ich es nicht angesprochen. Beide Firmen machen mehr Gewinn als nVidia Umsatz. nVidia machte 100 Millionen $ Gewinn. Die haben überhaupt nicht das Kapital sinnlos Wafer zu bestellen. Und bei einer marge von 43% ist man voll auf Kostensenkungen fixiert. Die haben kein Geld, dass sie Ubisoft, Eidos oder MSI schenken können.
Aber anscheind bezahlt Huang die ganzen Bestechungen aus seinem Privatvermögen. :rolleyes:
Du bist echt ein Held.
Du hast gesagt, dass Nvidia eine gute Marge erwirtschaftet und impliziert, dass dabei kein Platz für derlei Absprachen bleiben. Das widerlegen beide Beispiele.

LovesuckZ
2009-11-18, 10:15:28
The board itself packs an 8-pin plus 6-pin power, meaning the GPU and memory can suck up to 300W, giving a very healthy overclocking headroom. In our discussions with members of nVidia staff, clock expectations and performance are running quite high, and if we compare the thermal characteristics of Tesla 20-Generation, you can see that "GeForce 380" has around 107W for overclocking purposes.
BSON zu GF100 (http://www.brightsideofnews.com/news/2009/11/17/nvidia-shows-nv100gf100-gpu-running-unigine-dx11-benchmark.aspx)

Du bist echt ein Held.
Du hast gesagt, dass Nvidia eine gute Marge erwirtschaftet und impliziert, dass dabei kein Platz für derlei Absprachen bleiben. Das widerlegen beide Beispiele.

Du solltest dich erstmal damit beschäftigen, warum nVidia's Marge wieder auf 43% gestiegen ist. :rolleyes:
Aber was solls - Auf Wiedersehen, mit solchen Leuten wie dir will ich mich hier mehr unterhalten. Kein Plan, aber andere beleidigen.

reunion
2009-11-18, 10:18:08
BSON zu GF100 (http://www.brightsideofnews.com/news/2009/11/17/nvidia-shows-nv100gf100-gpu-running-unigine-dx11-benchmark.aspx)


Da darf man für einer X2 doch erheblich runter mit dem Takt, falls man eine solche überhaupt plant. Und da die GF wohl höher takten wird als die Tesla ist das mit dem 107W OC Headroom nicht realistisch.

LovesuckZ
2009-11-18, 10:37:17
We heard that A3 version of chip should be the final one to ship and that currently it all looks like they can make it for January launch, but this launch is likely to take place after CES.

The performance of A2 silicon is good but for some reason Nvidia has decided to go for A3 silicon on retail products. This caused a delay and forced Nvidia to push the product from November to January time, and we hope for Nvidia's sake that this will be the last delay.
http://www.fudzilla.com/content/view/16471/1/

Ailuros
2009-11-18, 10:39:08
Da darf man für einer X2 doch erheblich runter mit dem Takt, falls man eine solche überhaupt plant. Und da die GF wohl höher takten wird als die Tesla ist das mit dem 107W OC Headroom nicht realistisch.

Och wenn's jetzt nicht 107 sondern 90+W sein sollten ist sowieso Haarspalterei. Man wird so oder so nie diesen rein theoretischen Verbrauchs-unterschied voll auspielen koennen ausser man hockt sich mit dem System in eine Gefriertruhe.

Zuerst interessiert erstmal die default Leistung und dann erst die Uebertaktbarkeit des Teils. Und wenn's schon sein muss wenn ich eine 380 theoretisch bis zum Bumsfallera uebertakten wuerde, koennte ich mir die Muehe und Umstaende gleich sparen und auf eine hypothetische dual chip Variante warten pfff.

http://www.fudzilla.com/content/view/16471/1/

So in etwa hab ich mir's auch vorgestellt. Wichtige Vorraussetzung waere aber dass Anfang Februar die Verfuegbarkeit zumindest auf 5970 Nivaeu liegt.

Reaping_Ant
2009-11-18, 10:42:04
Ich glaube, die "overclocking purposes" beziehen sich schon auf die Taktsteigerung der Geforce Karten gegenüber den Tesla Modellen. Wenn man für Tesla die genannten 190 W ansetzt und der Geforce die vollen 300 W, die sich aus 6+8 pin Stecker ergeben, zur Verfügung stellt, könnte man die Differenz für die höhere Taktung der Desktopkarte nutzen.

Ailuros
2009-11-18, 10:44:25
Ich glaube, die "overclocking purposes" beziehen sich schon auf die Taktsteigerung der Geforce Karten gegenüber den Tesla Modellen. Wenn man für Tesla die genannten 190 W ansetzt und der Geforce die vollen 300 W, die sich aus 6+8 pin Stecker ergeben, zur Verfügung stellt, könnte man die Differenz für die höhere Taktung der Desktopkarte nutzen.

Ja aber auch nur bis zu einem gewissen Punkt. Ich bezweifle dass NV etwas vorstellen will dass nennenswerte Verbrauchsunterschiede zu einer heutigen 285 hat.

AnarchX
2009-11-18, 10:46:20
Die Tesla hat 225W maximale Leistungsaufnahme, sodass hier nur 75W verfügbar wären, wenn man sich an die PCIe-Spec halten will. Und das dürfte eher eine geringe Taktsteigerung sein.

reunion
2009-11-18, 10:49:27
Die Tesla hat 225W maximale Leistungsaufnahme, sodass hier nur 75W verfügbar wären, wenn man sich an die PCIe-Spec halten will. Und das dürfte eher eine geringe Taktsteigerung sein.

Und ein stromfressendes Monster will man wohl auch nicht haben. Bin gespannt wie man das lösen will.

igg
2009-11-18, 11:08:09
So in etwa hab ich mir's auch vorgestellt. Wichtige Vorraussetzung waere aber dass Anfang Februar die Verfuegbarkeit zumindest auf 5970 Nivaeu liegt.
Soso, und uns hier mit den Tesla-Taktraten traurig rumsitzen lassen...

Wie darf man sich das eigentlich vorstellen. Werden im Dezember selektierte A2 basierte Karten an Tester verschickt oder müssen die auch auf A3 im Januar warten?

Vorallem wundert mich, dass A3 so schnell kommt und dass sie sich so sicher sind, dass es da zu keinen neuen Problemen kommt. TSMCs 40 nm Prozess scheint ja schon bei minimalen Änderungen deutlich schlechtere/bessere Resultate zu liefern.

LovesuckZ
2009-11-18, 11:14:08
Wie darf man sich das eigentlich vorstellen. Werden im Dezember selektierte A2 basierte Karten an Tester verschickt oder müssen die auch auf A3 im Januar warten?

Die Frage lautet: Wofür ist das A3 Stepping. Es kann sein, dass wir im dezember Previews mit A2 sehen (ohne Stromverbrauchsmessungen) und im Januar die Reviews mit den A3 Versionen. Sollte A3 nur für eine verbesserte Ausbeute sein, dann könnte man auch im Dezember auch schon Reviews mit den A2 Versionen durchführen.


Vorallem wundert mich, dass A3 so schnell kommt und dass sie sich so sicher sind, dass es da zu keinen neuen Problemen kommt. TSMCs 40 nm Prozess scheint ja schon bei minimalen Änderungen deutlich schlechtere/bessere Resultate zu liefern.

A3 ermöglicht keine weitläufigen Verbesserungen. In dieser Ebene kann nur noch Kleinigkeiten ändern (verbesserte Ausbeute, niedriger Stromverbrauch, höhrere Taktrate). Weder Design-Fehler noch massive Taktprobleme ließen sich mit A3 lösen. Dafür wäre ein vollkommen neues Silizium-Tape-Out nötig.