PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GT400/GF100 - Q1/2010, DX11, CUDA 3.0


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 [25] 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75

Byteschlumpf
2009-11-20, 23:35:38
Der GT200b mit 216SPs ist gegenüber dem GT200 mit 192SPs (GTX260) ein Refresh.

PulsarS
2009-11-20, 23:39:40
Beispiele für einen Refresh:
NV30 --> NV35
G70 --> G71
Schwache Beispiele...
Was wurde da geaendert?

|MatMan|
2009-11-20, 23:39:51
Beispiele?
Was ist ein Refresh?
Nvidia nach ist das Aendern des BIOS eine neue Generation....:rolleyes:
Lass mal das geflame, als ob es sowas bei ATI/AMD noch nie gab - schreib lieber etwas mit Inhalt. Danke.


Zu deiner Frage nach Beispielen: überleg mal ob man in ~6 Monaten einen Refresh-Chip designen und in die Massenproduktion bringen kann...
Die vielleicht beste Antwort darauf hat ATI selbst geliefert mit R520 -> R580, wie schon mehrmals im Thread erwähnt.

Ich hoffe die Refresh-Diskussion hat sich endlich damit erledigt *gähn*

PulsarS
2009-11-20, 23:51:00
Lass mal das geflame, als ob es sowas bei ATI/AMD noch nie gab - schreib lieber etwas mit Inhalt. Danke.
Nur irgendwie hasst gerade du den Inhalt vergessen...:rolleyes:

Zu deiner Frage nach Beispielen: überleg mal ob man in ~6 Monaten einen Refresh-Chip designen und in die Massenproduktion bringen kann...

Wo ist das Problem, wenn man Zweitgleisig faehrt??

Die vielleicht beste Antwort darauf hat ATI selbst geliefert mit R520 -> R580, wie schon mehrmals im Thread erwähnt.
Richtig, ich war allerdings nicht daran beteiligt....

Ich hoffe die Refresh-Diskussion hat sich endlich damit erledigt *gähn*
Nicht wirklich, wenn man keine Ahnung hat... :)

desert
2009-11-21, 00:03:13
Schwache Beispiele...
Was wurde da geaendert?

Bei einem Refresh wird eigentlich selten etwas geändert. Dafür reicht die zeit wohl nicht aus, wenn der refresh 6 monate später erscheinen soll und die nächste generation wiederrum 6 monate später, wie es früher geplant war.

Der r580 war kein refresh vom r520, der refresh vom r520 wurde wohl ausgelassen weil sich r520 massiv verspätet hatte und seine time to market sehr begrenzt war und der nachfolge chip schon kurze zeit später am Markt war.

Der r580+ war ein refresh vom r580

Der r480 war ein refresh vom r420.

Der nv 38 war wiederrum ein refresh vom nv 35. Genauso der g71 zum g70

|MatMan|
2009-11-21, 00:05:08
Wo ist das Problem, wenn man Zweitgleisig faehrt??
Das ist ja gerade der Punkt. Es ist kein Problem. Im Gegenteil, es ist sogar notwendig. Das bedeutet dass die Chips praktisch unabhängig sind.

Richtig, ich war allerdings nicht daran beteiligt....
Ich hoffe doch es muss hier nicht alles so lange wiederholt werden bis du immer daran beteiligt warst. Die letzten paar Seiten zu lesen ist doch nicht zu viel verlangt...

Ailuros
2009-11-21, 06:14:59
Je schlechter die yields desto kleiner die Chancen zu etwas wie chip selection zu greifen. Ausser A3 ist ein "Wunderpflaster" und schiesst die yields ploetzlich auf 60%.

http://www.evga.com/blackfriday/

Was damit gemeint ist will ich gar nicht wissen. Ich bin persoenlich nicht so bloed 1700$ hinzulegen um mich an die Reihe fuer die naechste Generation zu stellen.

Not only will these lucky 50 people be able to decimate the competition with their new 4-Way SLI system, but they will be first in line to get the next generation of graphics when they are released. Everyone that purchases this deal will have a special option to get a next-generation powered card at launch!

:rolleyes:

LovesuckZ
2009-11-21, 09:18:25
Viel schlimmer ist, dass die Versandkosten nichtmal im Preis enthalten sind. :lol:

Gast
2009-11-21, 10:37:12
Der r580+ war ein refresh vom r580

Der r480 war ein refresh vom r420.

Der nv 38 war wiederrum ein refresh vom nv 35. Genauso der g71 zum g70

War 9100 ggü. 8500 ein Refresh?
War X300 ggü. 9600 ein Refresh?
War 3870 ggü. 2900 XT ein Refresh oder ein Downgrad?
War 9800 ggü. 8800 ein Refresh oder ein Downgrade?
War GF256 DDR ggü. GF256 SDR ein Refresh?


GTX260-216 gab's übrigens schon ziemlich viel früher als den GT200b, das war also kein zusammenhängender Refresh. Auch beim Wechsel von G70 auf G71 wurde ein wenig was an Einheiten aufgebeefed.

igg
2009-11-21, 10:46:07
http://www.evga.com/blackfriday/

Was damit gemeint ist will ich gar nicht wissen. Ich bin persoenlich nicht so bloed 1700$ hinzulegen um mich an die Reihe fuer die naechste Generation zu stellen.
Naja, wenn die Fermi so schnell wie 4x SLI ist ;). Ernsthaft: Die 4x GTX285 kann man dann ja auch verkaufen...

LovesuckZ
2009-11-21, 10:51:08
GTX260-216 gab's übrigens schon ziemlich viel früher als den GT200b, das war also kein zusammenhängender Refresh. Auch beim Wechsel von G70 auf G71 wurde ein wenig was an Einheiten aufgebeefed.

Den GT200b empfinde ich nicht als Refresh. Der 55nm Prozeß brachte nur nVidia Vorteile im Bezug auf die Die-Größe. Der Stromverbrauch wurde erst durch den zweiten Respin verbessert. Hätte man auch in 65nm schaffen können.
Der G71 dagegen war ein klassischer Refresh. Leichte Veränderungen im Design und dank 90nm eine knappe Halbierung des Stromverbrauches - und dadurch die Möglichkeit gegeben, den G71 um 51% höher zu takten.

Gast
2009-11-21, 11:06:22
und dadurch die Möglichkeit gegeben, den G71 um 51% höher zu takten.
Häh? >980 MHz? Oder meinst du die schnellste Edition des G71 gegen die normale des G70?

Gast
2009-11-21, 11:08:24
Ernsthaft: Die 4x GTX285 kann man dann ja auch verkaufen...
Bei der geringen Anzahl könnten diese Teile recht begehrt in Vitrinen werden.
Jeder Mars Besitzer erblast vor Neid, das es noch etwas selteneres gibt.

Weil zum Spielen sind die Dinger nicht gebaut, ebensowenig wie eine oder zwei 5970. 1GiB VRAM und AFR lassen grüßen.

LovesuckZ
2009-11-21, 11:17:55
Häh? >980 MHz? Oder meinst du die schnellste Edition des G71 gegen die normale des G70?

Die 7800GTX-512 kann man kaum als "normale" Karte akzeptieren, oder? ;)
7800GTX lief auf 430Mhz, die 7900GTX auf 650. Macht einen Unterschied von 51% bei gleichem Stromverbrauch (inkl. 256mb mehr Speicher für die 7900GTX).
Wir können auch gerne die 7800GTX-512 nehmen: Der Taktunterschied beträgt zwar nur 18%, dafür war die 7900GTX a)für jeden kaufbar und b) benötigte noch deutlich weniger Strom.

Gast
2009-11-21, 12:15:32
Die 7800GTX-512 kann man kaum als "normale" Karte akzeptieren, oder? ;)
Doch schon. Es war kein herstellerübertaktetes Modell und es gab (dem Preisniveau angepasste) Stückzahlen davon im freien Handel.

Von 7800 GTX auf 7900 GT waren es 20 MHz mehr, auf 7950 GT dann zumindest 120 MHz.

LovesuckZ
2009-11-21, 12:20:30
Doch schon. Es war kein herstellerübertaktetes Modell und es gab (dem Preisniveau angepasste) Stückzahlen davon im freien Handel.


Sie war ein limitertes Produkt, das zwar von mehreren AIBs angeboten wurde, aber nach kurzer Zeit ausverkauft war. Gingen Karten nicht für über 1000€ bei Ebay weg?
Die 7800GTX war die einzige High-end Karte von nVidia zur der damaligen Zeit, die jeder kaufen konnte, wenn er das Geld gehabt hat.

Dural
2009-11-21, 12:46:13
eine 7800GTX 512 zu bekommen war fast unmöglich und die preise waren mit ca. 800.- + richtig bösse! Ich hab auf die 7900GTX gewartet was sich doch als sehr klug herausgestellt hat ;) als die kam gabs statt den zwei 7800GTX 256 halt ein SLI mit 7900GTX... war ganz OK! Ich bin eh einer der den G71 als doch recht gute GPU bezeichnet! klar bildqualität war nicht der hammer, der rest konnte aber ganz gut überzeugen zb. 7900GT @ 700-800MHz GPU war ohne probleme mit WaKü + vmod möglich... und in diesem preisbereich gabs keine ATI die da mithalten konnte...

7900GT SLI
http://img21.imageshack.us/img21/8986/16646sli.th.jpg (http://img21.imageshack.us/i/16646sli.jpg/)

7900GTX SLI
http://img690.imageshack.us/img690/2092/16881sli.th.jpg (http://img690.imageshack.us/i/16881sli.jpg/)

ja weis hat nichts mit dem thema zu tun, aber der G71/7900GT war eigentlich eine hammer Karte... und wurde meiner meinung nach nie richtig gewürdigt...

Aquaschaf
2009-11-21, 13:21:05
ja weis hat nichts mit dem thema zu tun, aber der G71/7900GT war eigentlich eine hammer Karte... und wurde meiner meinung nach nie richtig gewürdigt...

Abgesehen von der Wärmeabgabe/Leistungsaufnahme war das Konkurrenzprodukt in jeder Hinsicht überlegen. Und in Hinsicht auf neuere Spiele sieht die Geforce 7 noch einmal ungünstiger aus. Objektiv sehe ich da wirklich kaum etwas was es zu würdigen gäbe ;) Aber das ist OT.

Dural
2009-11-21, 13:25:47
7900GTX + Leistung zum preis einer 7900GT, wo gab es das bei ATI??? Und die Leistung war damals ganz OK, was heute ist interessiert mich überhaupt nicht, da ich seit dem G71 sicher schon einige neue Karten hatte:

8800GTX SLI
8800ULTRA SLI
9800GX2
GTX280 3-Way SLI (auch mal ausprobiere...)
GTX285
GTX295

und dazwischen noch jede ATI...

Die X1900GT war ziemlich abgespeckt und hatte schon recht viel takt, null chance gegen einen G71 mit GTX takt! es sei den man konnte sie freischalten... die 1950pro kam ca. 10 Monate (!!!) später und war eine abgespeckte GPU im vergleich zum R580, der G71 auf der 7900GT war komplett aktiv... ein 1950pro CF gabs bei mir auch mal...

Jetzt aber wieder zurück zum Thema Fermi ;)

Gast
2009-11-21, 14:23:03
sie war zwar schneller (G71) aber die Bildqualität konnt man sich nicht angucken, das war Augenkrebs aber volles Rohr.

Gast
2009-11-21, 14:25:38
Könnt ihr eure Bildquali/refresh Diskussion nicht woanders weiterführen und aufs Thema GF100 zurückommen?

Gast
2009-11-21, 14:58:51
sie war zwar schneller (G71) aber die Bildqualität konnt man sich nicht angucken, das war Augenkrebs aber volles Rohr.
Nicht viel schlimmer als NV40 oder R400 oder R600.

Wer sich damit zufrieden gibt/gegeben hat, sollte mal ganz ruhig sein.
Den immerhin konnte G70 SS-Hybride vorzeigen und mit G70 wurde TSSAA eingeführt.

Gast
2009-11-21, 15:20:20
Die Flimmerneigung von G7x ist höher als von NV4x, G8x und später, sowie R(V)5xx und später.
R(V)4xx und früher flimmerten garnicht, R(V)4xx und RV360 hatten eine abschaltbare Bri-Optimierung, das wars.

Gast
2009-11-21, 15:29:12
R(V)4xx und früher flimmerten garnicht
R400 war schlimmer als R300.
R300 hat bereits geflimmert.

Gast
2009-11-21, 16:54:22
Ohne Unterabtastung geht das nicht... (der Filterkernel ist ja iO, abgesehn von der winkelabhänigkeit)

master_blaster
2009-11-21, 17:05:45
@ Moderation: Kann der Thread mal bitte ab dem Post #5986 abgetrennt werden? Das Geflame und OT-Gequatsche ist nicht mehr schön ...

Gast
2009-11-21, 17:16:09
Post #5985 soll stehen bleiben?
Ist Fanboygesülze neuerdings ein unverzichtbarer Bestandteil des Forums?

Mr. Lolman
2009-11-21, 17:17:04
Die X1900GT war ziemlich abgespeckt und hatte schon recht viel takt, null chance gegen einen G71 mit GTX takt!

Nö. Bei neueren Spielen müsste die mit AA tendenziell sogar ein wenig flotter sein (~15-20% langsamer als eine X1800XT (http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_powercolor_radeon_x1900_gt/19/#abschnitt_performancerating_qualitaet)): http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_14_grafikkarten_vergleich/8/#abschnitt_performancerating_qualitaet

master_blaster
2009-11-21, 17:20:55
Post #5985 soll stehen bleiben?
Ist Fanboygesülze neuerdings ein unverzichtbarer Bestandteil des Forums?
Achso, soll die Moderation jetzt jeden Beitrag einzeln auf Fanboygeschwafel-/Geflame-/OT-Gehalt prüfen, oder was? Ich wünschte, es gäbe einen Intelligenztest, bevor man im 3dc posten darf ...

Jedenfalls ist ab da nurnoch OT-Gesülze zu lesen.

Undertaker
2009-11-21, 17:21:12
Nö. Bei neueren Spielen müsste die mit AA

Neuere Spiele + AA auf einem R580/G71? ;)

Mr. Lolman
2009-11-21, 17:29:26
Neuere Spiele + AA auf einem R580/G71? ;)

Mit 1280x1024 zB.

Gast
2009-11-21, 17:34:24
Mit 1280x1024 zB.

1280x1024 nutzt heutzutage kaum noch jemand.

Black-Scorpion
2009-11-21, 17:41:41
1280x1024 nutzt heutzutage kaum noch jemand.
Weil auch ganz sicher alle einen 50" stehen haben.
Anscheinend verlieren manche wirklich langsam den Sinn für die Realität.

Gast
2009-11-21, 17:45:10
Weil auch ganz sicher alle einen 50" stehen haben.
Anscheinend verlieren manche wirklich langsam den Sinn für die Realität.

Die meisten Leute nutzen heutzutage 22" TFTs mit 1680x1050 ob du es willst oder nicht spielt da jetzt keine große Rolle.

Tomahawk
2009-11-21, 18:10:45
Blödsinn, die meisten nutzen 1280x1024.

Triskaine
2009-11-21, 18:13:30
Die meisten Leute nutzen heutzutage 22" TFTs mit 1680x1050 ob du es willst oder nicht spielt da jetzt keine große Rolle.
:facepalm:

http://store.steampowered.com/hwsurvey/

41% aller Nutzer haben eine Auflösung von 1280x1024 oder noch kleiner. Große Monitore sind bei weitem nicht so verbreitet wie meist angenommen.

Undertaker
2009-11-21, 18:15:14
Das ist doch auch egal, wenn man sich Benches von aktuellen Spielen in 1680x1050 ohne AA/AF anschaut - die 1280x1024 mit 4xAA/16xAF sehr nahe kommen dürften - ist mit einer X19** oder 79** heute definitiv nichts mehr zu holen, die Karten sind meist schon für maximale Spieledetails zu langsam.

Tomahawk
2009-11-21, 18:17:27
Wieso angenommen? Und was heißt groß? 30er sind selten. Und diese sind erst seit 2-3 Jahren bezahlbar.

22er Breitbild ist auch nicht viel größer als ein 19er 5:4 Gerät.

@Triskaine
Die Zahl stimmt nicht ganz, da in dieser Statistik auch Notebooks enthalten sind. Diese habe im Regelfall eine geringere Auflösung als Desktop-Monitore.

Gast
2009-11-21, 18:52:42
Das ist doch auch egal, wenn man sich Benches von aktuellen Spielen in 1680x1050 ohne AA/AF anschaut - die 1280x1024 mit 4xAA/16xAF sehr nahe kommen dürften - ist mit einer X19** oder 79** heute definitiv nichts mehr zu holen, die Karten sind meist schon für maximale Spieledetails zu langsam.
Bei X19x0XT(X) geht noch sehr viel in 1280x1024, hatte ich zuletzt mal wieder eingebaut um genau das zu testen.

w0mbat
2009-11-21, 18:56:00
:facepalm:

http://store.steampowered.com/hwsurvey/

47% aller Nutzer haben eine Auflösung von 1280x1024 oder noch kleiner. Große Monitore sind bei weitem nicht so verbreitet wie meist angenommen.

So, jetzt ist es richtig ;)

Gast
2009-11-21, 19:00:31
Achso, soll die Moderation jetzt jeden Beitrag einzeln auf Fanboygeschwafel-/Geflame-/OT-Gehalt prüfen, oder was? Ich wünschte, es gäbe einen Intelligenztest, bevor man im 3dc posten darf ...

Jedenfalls ist ab da nurnoch OT-Gesülze zu lesen.
Betreffender Post ist genauso OT. Hinterher kommt auch OT, aber teils wenigstens auf einem höheren Niveau.
Du weisst worauf ich hinaus will.

Dural
2009-11-21, 19:09:59
Nö. Bei neueren Spielen müsste die mit AA tendenziell sogar ein wenig flotter sein (~15-20% langsamer als eine X1800XT (http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_powercolor_radeon_x1900_gt/19/#abschnitt_performancerating_qualitaet)): http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_14_grafikkarten_vergleich/8/#abschnitt_performancerating_qualitaet

was heute ist interessiert mich überhaupt nicht


:rolleyes:

Ailuros
2009-11-21, 19:16:56
Es reicht so langsam mit OT Abschweifungen zu aelteren GPUs. Bitte zurueck zum eigentlichen Thema oder macht Euch einen anderen Thread auf fuer R5x0/G7x Material

Nakai
2009-11-21, 19:27:03
Fermi kommt an den Hemlock ran. Meine Prognose, welche unter bestimmten Bedingungen wohl zutreffen wird. ;)

So oder so, Hemlock war ja eher ein Reinfall. Klingt ja eher so, dass man mit dem gerinsten Aufwand versucht hat eine neue Messlatte zu legen.

So oder so, man lässt ATI in diesem Segment wohl um die 4 Monate Vorsprung.
Könnte mir gut vorstellen, dass der RV870 Refresh höhere Takte und bessere Effizienz mit sich bringt. An Rohleistung mangelt es ja nicht.

Mich interessieren eh nur die PErformancekarten, aber da will erst noch NVs-Angebot sehn.


mfg

LovesuckZ
2009-11-21, 19:35:47
Wenn nVidia den selben Leistungssprung hinlegt wie beim Übergang von GTX280 <- 8800GTX, dann wäre man ca 60% schneller als die GTX285 und somit 15% langsamer als Hemlock.
Nicht unmöglich, wenn man sieht, dass man mehr Textureinheiten, mehr Recheneinheiten, mehr ROPs und eine überarbeitete Architektur im Gegensatz zum GT200<>G80 bietet.

mrt
2009-11-21, 19:43:41
60% schneller als die GTX285 halte ich für durchaus möglich. Wieviel dann allerdings auf Hemlock fehlt, hängt vom Spiel ab (Treiber!).

Ailuros
2009-11-21, 19:49:35
Fermi kommt an den Hemlock ran. Meine Prognose, welche unter bestimmten Bedingungen wohl zutreffen wird. ;)

So oder so, Hemlock war ja eher ein Reinfall. Klingt ja eher so, dass man mit dem gerinsten Aufwand versucht hat eine neue Messlatte zu legen.

Entschuldige aber Deine letzte Beschreibung gilt wohl eher fuer alle dual chip/GPU configs am Ende. Wem die 5970 nicht zustehen sollte, kann er stets zu 2*5870@CF greifen um die zusaetzlichen ~15% an Leistung dazuzugewinnen. Stromverbrauch sollte ja sowieso wurscht sein bei solchen configs.

So oder so, man lässt ATI in diesem Segment wohl um die 4 Monate Vorsprung.
Könnte mir gut vorstellen, dass der RV870 Refresh höhere Takte und bessere Effizienz mit sich bringt. An Rohleistung mangelt es ja nicht.

*ahem* zuerst wuerde jeder logischer IHV zusehen bis man mit den yield-Problemen ueber den Berg kommt bevor man an so etwas erstmal denkt und ueberhaupt da ich bezweifle dass AMD fuer einen hoeher getakteten Refresh zu einem anderen Herstellungsprozess greifen wuerde.

Mich interessieren eh nur die PErformancekarten, aber da will erst noch NVs-Angebot sehn.


Tja wenn wir nicht wissen wo sich GF100 genau einstuft, ist es schwer irgend etwas diesbezueglich einzuschaetzen.

Wenn nVidia den selben Leistungssprung hinlegt wie beim Übergang von GTX280 <- 8800GTX, dann wäre man ca 60% schneller als die GTX285 und somit 15% langsamer als Hemlock.
Nicht unmöglich, wenn man sieht, dass man mehr Textureinheiten, mehr Recheneinheiten, mehr ROPs und eine überarbeitete Architektur im Gegensatz zum GT200<>G80 bietet.

Es ist zu wenig fuer eine wahre neue technologische Generation denn GF100 ist nicht ein Refresh wie GT200.

Gast
2009-11-21, 20:26:45
Zitat von "Hotboy" aus Chiphell (Achtung Babelfish-Übersetzung):
" Lao Huang takes the card it is said may run X10000 (the GPU score), in frequency not high situation (, because is really runs not high). .300 editions each time renew always a little are pleasantly surprised. At that time the frequency was 495/1100/1000.

Did not believe the words might turn occasionally before storm 5870 minutes…. Now the N card's most major problem is promotes the frequency to depend on the water cooling suppression…"

LovesuckZ
2009-11-21, 20:34:56
Es ist zu wenig fuer eine wahre neue technologische Generation denn GF100 ist nicht ein Refresh wie GT200.

Selbst als 1 1/2 jährigen späteren Refresh sind 60% Mehrleistung zu wenig - wobei im Gegensatz zum GT200 <> G80 hier D3D11 dazukommt.
Trotzdem sehe ich die 60% als gegeben an, da nVidia die reine Einheitenanzahl deutlicher gesteigert hat als vom G80 -> GT200. Und beim selben theoretischen Abstand wie beim G80 <> GT200 Vergleich zu bleiben, bräuchten sie ca.:
1245MHz Shadertakt
525Mhz TMU/ROP-Takt (Texturleistung)
595Mhz TMU/ROP-Takt (Pixelleistung)
1316Mhz GDDR5-Takt

Shadertakt und ROP-Takt sehe ich als machbar an. Die GTX280 hatte trotz 1400 Millionen Transistoren mit 602Mhz einen höhreren TMU/ROP-Takt als die 8800GTX. Einzig die prozentuale Erhöhung der Speicherbandbreite wird mit maximal 50% deutlich geringer ausfallen. Aber hierbei könnten die Änderungen am Speicher- und Cachesystem für einen Leistungssprung ebenfalls sorgen.

Zitat von "Hotboy" aus Chiphell (Achtung Babelfish-Übersetzung):
" Lao Huang takes the card it is said may run X10000 (the GPU score), in frequency not high situation (, because is really runs not high). .300 editions each time renew always a little are pleasantly surprised. At that time the frequency was 495/1100/1000.

Did not believe the words might turn occasionally before storm 5870 minutes…. Now the N card's most major problem is promotes the frequency to depend on the water cooling suppression…"

Das ist über einen Monat alt.

PulsarS
2009-11-21, 20:45:33
Post #5985 soll stehen bleiben?
Ist Fanboygesülze neuerdings ein unverzichtbarer Bestandteil des Forums?
Da du Gast mich direkt ansprichst...
Was soll denn an meinem Post Fanboy sein?
Ich habe nur spekuliert, dass eine XTX gar nicht abwegig ist, wenn man schon bei der 5970 selektiert.
Das kann man fuer eine XTX auch.
Das haengt natuerlich davon ab, wie viel schneller der Game-Fermi als der RV870 ist.
Wenn es 50% sind, macht eine XTX selbstredend keinen Sinn, wenn es aber nur 20-30% sind, dann koennte eine XTX Sinn machen.

BTW anstatt hier Leute als Fanboys abzustempeln, die keine sind, koenntest du auch ein wenig zum Thema beitragen, anstatt nur rumzutrollen.
Schon erstaunlich, dass solche Troll-Gastpostings tolleriert werden.

turboschlumpf
2009-11-21, 22:04:28
Der Fermi verschibt sich ja gerade wegen den ganzen 40nm probleme, also ist diese theorie nicht wirklich schlüssig, oder?Tut er das? Oder war Fermi nicht auch unabhängig von den 40-nm-Problemen schon Monate zu spät?

=Floi=
2009-11-21, 22:09:18
eine xtx/5890 macht auch so sinn.

LovesuckZ
2009-11-21, 22:14:02
Tut er das? Oder war Fermi nicht auch unabhängig von den 40-nm-Problemen schon Monate zu spät?

Die Frage kann niemand beantworten.

/edit: Desweiteren würde sich nVidia selbst schädigen. Sie haben im CC und im Quartalsbericht angegeben, dass sie nicht genug 40nm Produkte bekommen können. Also neben Fermi, der sich verspätetet, leiden auch die anderen 40nm Produkte unter dem schlechten Zustand des Prozesses.

PulsarS
2009-11-21, 22:17:08
Die Frage kann niemand beantworten.
Doch, auch wenn DU es nicht unbedingt nachvollziehen kannst...

PulsarS
2009-11-21, 22:22:43
eine xtx/5890 macht auch so sinn.
Teilweise...
Wenn man den Game-Fermi eh nicht schlagen kann, dann ist das eher Marketing.
Kann man den Fermi dann doch uebertreffen, dann ist es fuer alle(s) gueltig. :)

=Floi=
2009-11-21, 22:38:58
wenn man die chips schon selektiert und das pcb eh schon für eine phase mehr ausgelegt hat, dann kann man so auch kostengünstig noch die marge steigern und ein teureres produkt für die enthusiasten bringen.
Die 4890 war ja auch ein nettes gimmik und eine gutee idee. Es ist bei ati auch schon ein erfolg, wenn es mehr geld in die leeren kassen spült.

Gast
2009-11-21, 22:40:15
Für die Krone gibt es 5970, da braucht es keine 5890, die wiederrum langsamer als die 5970 wäre.

Gast
2009-11-21, 22:45:52
Die 4890 war ja auch ein nettes gimmik und eine gutee idee. Es ist bei ati auch schon ein erfolg, wenn es mehr geld in die leeren kassen spült.
Die 4890 hat einen neuen taktoptimierten Chip bekommen. Nach wie vielen Monaten?

Jedenfalls gerade recht, die 4870 Preise waren im Keller, die Kunden waren aber bereits etwas mehr als 120€ für eine Grafikkarte auszugeben.

wenn man die chips schon selektiert und das pcb eh schon für eine phase mehr ausgelegt hat, dann kann man so auch kostengünstig noch die marge steigern und ein teureres produkt für die enthusiasten bringen.Wenn man eh schon selektiert überlegt man es sich dreimal, bevor man noch mehr selektiert.
Wozu der 5970 die GPUs klauen, die bekommt jetzt schon zu wenig ab.

Wenn es soweit ist, gibts das nächte Problem, wozu der 5970 den Preis kaputt machen, mit 2 GPUs verdient AMD besser als mit einer.

Dural
2009-11-21, 23:10:20
Tut er das? Oder war Fermi nicht auch unabhängig von den 40-nm-Problemen schon Monate zu spät?

Fermi ist schon seit ca. 1 Jahr immer auf Q4 2009 gestanden, A3 kommt ja gerade wegen den ganzen yields probleme! heist es jedenfalls die ganze zeit!

mit A2 und einer vernünftige fertigung wäre wohl Q4 schon möglich gewesen, wenn auch knap!

die RV870 sind ja auch so gut wie nicht lieferbar, und die Fermi GPU ist noch einmal 50% grösser + viel mehr ALU takt! ich finde AMD kann derzeit ganz froh sein das sie in dieser situation sind und sie sind es wohl auch! ich sehe da überhaupt keine benachteiligung für AMD, ganz im gegenteil sie sind die die am meisten davon profitieren...

aber ich sags ja schon lange, wer auf fermi wartet ist selber schuld! hab seit september eine 5870 und bin mit der Leistung zu friden, ist ja auch die schnellste single gpu grafkkarte die es derzeit gibt... also für was warten? wenn fermi besser sein sollte, was er wohl sicher auch sein wird hat man die grafikkarte in 5min gewechselt... ;)

LovesuckZ
2009-11-21, 23:20:19
Wenn man nichts kaufen kann, muss man zwangsläufig warten. Oder willst du 5850 Interessierte vorschlagen, dass sie sich die verfügbare 5870 mit Wasserkühler oder die 5970 kaufen sollen?

Dural
2009-11-21, 23:24:09
es ist doch bei fast JEDEM grafikkarten launch so das zuerst eine lieferung kommt und danch fast nichts mehr / oder gar nicht mehr...

der kluge mensch holt sich sofort eine und jammert nicht 2-3 monate rum wie so er seine karte (natürlich der billigster anbieter...) nicht bekommt...

wenn die karte dann noch sehr gefragt ist gibt es halt diese leere, war doch zb. bei der 8800GT nicht anders! Und die waren auch gleich nach dem launch lieferbar und ich hatte sofort zwei stück...

wer das gefühl hat er muss jetzt noch warten bis die preise runter gehen ist doch selber schuld...

LovesuckZ
2009-11-21, 23:29:46
es ist doch bei fast JEDEM grafikkarten launch so das zuerst eine liefung kommt und danch fast nichts mehr / oder gar nicht mehr...

Nö - nicht 9 Wochen nach dem Launch. Der letzte bekannte Fall 5 1/2 zurück: Einführung des NV40 und rv420. Die waren auch Ewigkeiten nicht verfügbar.
8800GTX, GTX280, r600 und rv770 waren massenweise nach einer Woche verfügbar. Einzig der G92 und der rv670 hatten einen schlechten Start von 4 Wochen, bevor die Verfügbarkeit sich stark änderte.

Dural
2009-11-21, 23:32:00
naja bei der 8800GT gabs lange probleme... was ich eigentlich damit sagen wollte, wer wirklich eine wollte hätte jetzt bereits eine!

Gast
2009-11-21, 23:43:27
die RV870 sind ja auch so gut wie nicht lieferbar, und die Fermi GPU ist noch einmal 50% grösser + viel mehr ALU takt!
Größe kann man noch verstehen, aber was willst du mit dem Takt?
Nvidias ROPs takten niedriger, die ALUs dafür höher. Klasse, was für eine Feststellung.
Ich darf erinnern, das es sich um verschiedene Designs handelt?

naja bei der 8800GT gabs lange probleme... was ich eigentlich damit sagen wollte, wer wirklich eine wollte hätte jetzt bereits eine!Warum wird immer nur die 8800 GT und nicht die zeitgleiche 3870 genannt?

Egal, ich erklär dir warum. Man wartet extra, weil man weiss, das Hardware mit der Zeit günstiger wird. Besonders zum Launch sind die Preise gerne viel zu hoch.
Erzähl ruhig weiter, das die, die diese grundlegenden Erkenntnisse befolgen bekloppt sind.

LovesuckZ
2009-11-21, 23:47:33
naja bei der 8800GT gabs lange probleme... was ich eigentlich damit sagen wollte, wer wirklich eine wollte hätte jetzt bereits eine!

Das bedeutet, dass der Markt jetzt vollständig befriedigt wäre und es keinen Bedarf nach weiteren Karten gäbe.
Naja, das stimmt wohl kaum. Wer heute eine Karte haben will, muss zur 5970 greifen. Das kann kaum das sein, was du meinst.
Schlussendlich zeigt die fast Nichtverfügbarkeit von AMD, dass ein Großteil der Probleme auf den 40nm Prozeß zurückzuführen ist und dadurch auch der Release sich von Fermi verschiebt.

Dural
2009-11-22, 00:01:37
Erzähl ruhig weiter, das die, die diese grundlegenden Erkenntnisse befolgen bekloppt sind.

ja sind sie WENN in jedem zweiten forum post gejammert wird es gibt kein 5870!!!

wer das geld nicht hat soll sich eine 5770 holen....

Größe kann man noch verstehen, aber was willst du mit dem Takt?
Nvidias ROPs takten niedriger, die ALUs dafür höher. Klasse, was für eine Feststellung.
Ich darf erinnern, das es sich um verschiedene Designs handelt?


40nm soll ja rissen probleme wegen zu grossen leckströme haben, da ist der hohe ALU takt der NV hat sicher nicht nützlich... generell hat NV ja eh seit dem GT200 probleme mit dem Shader takt und hat ihnen ziemlich viel arbeit gekostet ---> GT200

Das bedeutet, dass der Markt jetzt vollständig befriedigt wäre und es keinen Bedarf nach weiteren Karten gäbe.
Naja, das stimmt wohl kaum. Wer heute eine Karte haben will, muss zur 5970 greifen. Das kann kaum das sein, was du meinst.
Schlussendlich zeigt die fast Nichtverfügbarkeit von AMD, dass ein Großteil der Probleme auf den 40nm Prozeß zurückzuführen ist und dadurch auch der Release sich von Fermi verschiebt.

nein das es anscheinden viele gibt die gerne eine 5870 hätten aber am anfang wohl einfach am finaziellen gescheitert sind...

LovesuckZ
2009-11-22, 00:11:30
nein das es anscheinden viele gibt die gerne eine 5870 hätten aber am anfang wohl einfach am finaziellen gescheitert sind...

Hö? Eine 5850 für 230€ ist für viele erschwinglich. Es gibt nur keine Karten, die neu in den Markt kommen.
Es ist ein Unterschied, ob ein Produkt zu teuer ist oder nicht verfügbar. Bei erstem gibt es immer noch die Möglichkeit es sich zu kaufen, beim zweiten muss man warten. Hätte jeder willige am Anfang zugeschlagen, würde es trotzdem viele geben, die keine abbekommen hätten.

Gast
2009-11-22, 00:16:34
ja sind sie WENN in jedem zweiten forum post gejammert wird es gibt kein 5870!!!

wer das geld nicht hat soll sich eine 5770 holen....

Nicht jeder treibt sich in (Hardware)foren rum.

40nm soll ja rissen probleme wegen zu grossen leckströme haben, da ist der hohe ALU takt der NV hat sicher nicht nützlich... generell hat NV ja eh seit dem GT200 probleme mit dem Shader takt und hat ihnen ziemlich viel arbeit gekostet ---> GT200
AMD hat beim RV790 850Mhz erreicht.
Mit RV870 erreicht AMD wiederrum 850Mhz, bei einem noch komplexeren und flächenmäßig größeren Chip als RV790.

Ist mir ein Rätsel, wie du hier Taktprobleme herdeutest. Weils nicht 738/1836Mhz wie beim G92b werden?

Schlammsau
2009-11-22, 09:06:48
Um diese Diskussion ein für alle mal zu beenden.

Es gibt Karten, nur leider nicht genug um eine sofortige Lieferbarkeit zu gewährleisten.
Hier im Forum haben bereits um die 20 Leute eine HD5000. Sieht das nach nicht Verfügbar aus?
Wie Dural bereits schrieb, wer eine haben will, bekommt auch eine. Da kann LZ soviel rumlabbern wie er will! ;)

horn 12
2009-11-22, 09:14:35
;D:rolleyes:
Vollkommen Korrekt!

Anfang Dezember soll der Spuk dann ein Ende haben und man wird einen kompletten Run wie noch NIE zuvor auf die Karten sehen.
Das Weihnachtsgeschöft für AMD ist gerettet.:wink:

Gast
2009-11-22, 09:47:28
Um diese Diskussion ein für alle mal zu beenden.

Es gibt Karten, nur leider nicht genug um eine sofortige Lieferbarkeit zu gewährleisten.
Hier im Forum haben bereits um die 20 Leute eine HD5000. Sieht das nach nicht Verfügbar aus?
Wie Dural bereits schrieb, wer eine haben will, bekommt auch eine. Da kann LZ soviel rumlabbern wie er will! ;)

Wann ne Diskussion hier beendet is entscheiden höchstens die Mods - nicht du!

Was nicht sofort lieferbar ist, ist für mich nicht verfügbar.
Was hier 20 Leute im Forum haben interessiert Weltweit gesehn nicht.

Aber wieder typisch für dich alles schönzureden wenns um Ati geht.
Was machst eig hier im GT300 Thread wenn du doch sooo zufrieden mit deiner Ati bist???

Schlammsau
2009-11-22, 10:15:57
Wann ne Diskussion hier beendet is entscheiden höchstens die Mods - nicht du!

Was nicht sofort lieferbar ist, ist für mich nicht verfügbar.
Was hier 20 Leute im Forum haben interessiert Weltweit gesehn nicht.

Aber wieder typisch für dich alles schönzureden wenns um Ati geht.
Was machst eig hier im GT300 Thread wenn du doch sooo zufrieden mit deiner Ati bist???
Und die 3DCentler sind die einzigen auf dem Planeten, die eine HD5000 haben, alle anderen gucken in die Röhre, weil wir ihnen ihre Karten weggeschnappt haben.
Die Warheit ist also, ATi bzw TSMC konnte bis jetzt nur 20 Karten ausliefern. ;D

Das hat gar nichts mit schönreden zu tun, ich habs nur satt immer wieder zu lesen....."ich warte schon seit Wochen auf meine für 199€ :freak: bestellte 5850, die sind absolut nicht zu bekommen.....ATi ist scheisse!".

Ich habe meine 5850 für 233€ bekommen, ein Freund von mir, seine 5870 für 340€.....das sind die Preise, die ihr anpeilen solltet. Ok die 5850 ist mittlerweile teurer geworden, also solltet ihr für diese mit rund 250€, und für die 5870 mit rund 350€ rechnen. Günstiger bekommt ihr nichts!

Gast
2009-11-22, 11:11:40
40nm soll ja rissen probleme wegen zu grossen leckströme haben, da ist der hohe ALU takt der NV hat sicher nicht nützlich...


Dass Leckströme Risse erzeugen wäre mir neu. Leckströme sind allerdings weitgehend unabhängig vom Takt sondern einfach immer da.

Um Leckströme zu verringern kann man lediglich die Spannung senken, und da NV in der Regel geringere Spannungen benötigt würden sie eher im Vorteil sein. Die größere GPU ist natürlich ein Nachteil.

Taktfrequenzen von 2 komplett unterschiedlichen Designs kann man auch nicht vergleichen. Es wäre prinzipiell auch denkbar, dass die Transistoren einer nominell langsamer getakteten Pipeline schneller schalten müssen.

LovesuckZ
2009-11-22, 11:21:08
Lustig, bei welchem Shop (http://geizhals.at/deutschland/?cat=gra16_512&asuch=5870&sort=p) soll man denn eine normale 5870 (vor)bestellen?
Ist schon traurig, wie die jetzige Situation schön geredet wird.

Schlammsau
2009-11-22, 11:35:40
Lustig, bei welchem Shop (http://geizhals.at/deutschland/?cat=gra16_512&asuch=5870&sort=p) soll man denn eine normale 5870 (vor)bestellen?
Ist schon traurig, wie die jetzige Situation schön geredet wird.
bei grossen seriösen Shops wie zB Alternate, Mindfactory oder auch Amazon.
Aber nicht die günstigsten Modelle, weil dort kann man sicher sein, dass die Liste der Vorbestellungen länger ist als man denkt.

Gast
2009-11-22, 12:12:36
In der Schweiz sind Karten erhältlich, sogar im Media Markt. Offenbar ist die Verfügbarkeit in D-Land schlechter.

Ich habe mir gesten einen Juniper gegönnt. Die 5770 ist eine tolle Karte und der Stromverbrauch erfreulich gering.

Gast
2009-11-22, 12:32:36
Lustig, bei welchem Shop (http://geizhals.at/deutschland/?cat=gra16_512&asuch=5870&sort=p) soll man denn eine normale 5870 (vor)bestellen?
Ist schon traurig, wie die jetzige Situation schön geredet wird.


Vielleicht hier: http://www.neon24.de/Komponenten/Grafikkarten/PCI-Express/1024MB-PowerColor-Radeon-HD5870-LCS::25443.html

Ja ich weiß, teuer... aber immerhin die schnellste Singlegrafikkarte. Wenn Gforce Fermi so teuer wird, und das wird er, wird sich auch niemand über den Preis beklagen!

reunion
2009-11-22, 12:43:30
Schlussendlich zeigt die fast Nichtverfügbarkeit von AMD, dass ein Großteil der Probleme auf den 40nm Prozeß zurückzuführen ist und dadurch auch der Release sich von Fermi verschiebt.

Deshalb gab es auch bis vor kurzem noch nicht mal Karten geschweige denn Testsamples für Entwickler. Und deshalb bastelt NV auch munter weiter an neuen Revisionen, weil ja der Prozess Schuld ist. Genau das Gegenteil ist der Fall: NV hat verdammt viel Glück das der Prozess nicht vernünftig läuft, denn sonst könnte AMD den Markt jetzt mit Karten fluten und NV hätte trotzdem noch nichts am Markt.

Gast
2009-11-22, 12:54:56
Woher weisst du, das der 40nm Prozess schuld ist?
Die kleinen 40nm GPUs der IHVs scheinen inzwischen in großer Menge vorrätig zu sein, nach dem Start im Frujahr läuft 40nm so langsam.

Nur AMDs großer Monsterchip, Cypress ist ein Sorgenkind.

LovesuckZ
2009-11-22, 13:01:33
TSMC ist nicht in der Lage die Bestellungen zu befriedigen. Schlechte Yields und zu wenige Wafer führen dazu, dass bei 40nm Produkten die Nachfrage von nVidia und AMD nicht gedeckt werden kann.
Da Cypress mit 339mm^2 der zZ größte Chip in Produktion ist, wird er auch der sein, der die meisten Probleme macht

Gast
2009-11-22, 13:34:49
GT220, GT240, 4770, 5750 und 5770 sind relativ gut lieferbar (mehr oder weniger) .
Wohl kaum deshalb weils zu wenig Wafer gibt.
Der Nachfrage dieser Produkte zum aktuellen Preis kann befriedigt werden.

Die Cypressflaute kann nicht einzig und alleine auf TSMC geschoben werden.
Klar, AMD hat einen Monsterchip designt, aber sind sie deshalb aus der Schuld raus?
AMD wusste um den Prozess und seiner Probleme. AMD wusste, das ihr Cypress noch stressiger wird. Zusätzlich kommt hinzu, das Cypress selbst noch nicht ideal sein könnte. AMD hätte auch erstmal einen weiteren Respin abwarten können.

LovesuckZ
2009-11-22, 13:45:35
GT220, GT240, 4770, 5750 und 5770 sind relativ gut lieferbar (mehr oder weniger) .
Wohl kaum deshalb weils zu wenig Wafer gibt.
Der Nachfrage dieser Produkte zum aktuellen Preis kann befriedigt werden.

nVidia's GT21x Chips hätten jedoch deutlich früher kommen sollen: G210 und GT220 im Q2 und GT240 Anfang Q3. Die gute Verfügbarkeit ist auf eine längere Vorproduktion zurückzuführen. Produktionsreifes A2 des GT215 (GT240) war spätesten seit Mitte Juni fertig. 5 Monate später kommen sie in den OEM wie Retailmarkt. Das zeigt, wie problematisch die Situation bei TSMC ist.
Juniper empfinde ich persönlich auch noch als zu gering. Bei der GT240 gibt es jetzt schon 20 Einträge bei Geizhals mit "lieferbar" als Status. Bei der 5770 sind es nur 10.


Die Cypressflaute kann nicht einzig und alleine auf TSMC geschoben werden.
Klar, AMD hat einen Monsterchip designt, aber sind sie deshalb aus der Schuld raus?
AMD wusste um den Prozess und seiner Probleme. AMD wusste, das ihr Cypress noch stressiger wird. Zusätzlich kommt hinzu, das Cypress selbst noch nicht ideal sein könnte. AMD hätte auch erstmal einen weiteren Respin abwarten können.

AMD hat sich eben entschieden für den High-End Markt früher Produkte anzukündigen und die deutlich eingeschränkte Lieferbarkeit in Kauf genommen. Sie hätten auch auf ein weiteres, yieldverbesserndes Stepping gehen können, aber dann wäre der Vorsprung vor nVidia kleiner gewesen.

Ailuros
2009-11-22, 15:54:38
GT21x haben so viel Transistoren wie sich herausstellt nicht nur wegen 10.1 sondern auch wegen dem zusaetzlichen multimedia Schnickschnack (video und audio).

][immy
2009-11-22, 16:00:24
AMD hat sich eben entschieden für den High-End Markt früher Produkte anzukündigen und die deutlich eingeschränkte Lieferbarkeit in Kauf genommen. Sie hätten auch auf ein weiteres, yieldverbesserndes Stepping gehen können, aber dann wäre der Vorsprung vor nVidia kleiner gewesen.

schon vergessen, das der größte teil der chips OEMs versprochen wurde? dementsprechend betrifft die lieferschwierigkeiten also nur den retail-markt (mehr oder minder).
zudem eine hohe verfügbarkeit an chips bringt den herstellern rein gar nichts als einen kleineren gewinn. wenn die karten im markt breitflächig verfügbar wären, würden die preise relativ herftig purzeln. auf diese weise prodziert man zum einen nur das was sich verkaufen lässt und zum anderen verhindert man, das die preise zu schnell purzeln.

hat schon bei HD4xxx funktioniert. die verfügbarkeit war am anfang auch sehr schlecht und die preise sind besonders anfangs ziemlich stabil geblieben.
Wenn ein hersteller erstmal prodzieren würde und dann alles in den markt werfen würden, hätten sie ein viel größeres risiko. zum einen könnte es passieren das der chip in der lagerzeit veraltet, zum anderen drückt man direkt den preis und hat vielleicht auch noch viel zu viel prodziert. ich glaube nicht das es in nächster zeit (also auch in den nächsten jahren), weder bei nvidia noch ati/amd selbst monate nach dem launch eine 100%tige verfügbarkeit geben wird. lagerung kostet nebenbei ja auch noch.

LovesuckZ
2009-11-22, 17:01:45
[immy;7676060']schon vergessen, das der größte teil der chips OEMs versprochen wurde? dementsprechend betrifft die lieferschwierigkeiten also nur den retail-markt (mehr oder minder).

Von welchen OEM kann man sprechen? Dell? Wieviele PCs mit 58xx Karten bieten sie an? Laut Digitimes.com verschieben die OEMs ihre Produkte ins Q1 2010, weil AMD nicht liefern kann.


zudem eine hohe verfügbarkeit an chips bringt den herstellern rein gar nichts als einen kleineren gewinn. wenn die karten im markt breitflächig verfügbar wären, würden die preise relativ herftig purzeln. auf diese weise prodziert man zum einen nur das was sich verkaufen lässt und zum anderen verhindert man, das die preise zu schnell purzeln.

Das ist falsch. Für AMD spielt der Kampf der Händler keine Rolle. Sie verkaufen die Chips/Karten an ihre Abnehmer. Man produziert außerdem immer mehr als man am Ende absetzt.


hat schon bei HD4xxx funktioniert. die verfügbarkeit war am anfang auch sehr schlecht und die preise sind besonders anfangs ziemlich stabil geblieben.

Die HD48xx Karten gab es doch schon vor Fall des NDAs im Handel...


Wenn ein hersteller erstmal prodzieren würde und dann alles in den markt werfen würden, hätten sie ein viel größeres risiko. zum einen könnte es passieren das der chip in der lagerzeit veraltet, zum anderen drückt man direkt den preis und hat vielleicht auch noch viel zu viel prodziert. ich glaube nicht das es in nächster zeit (also auch in den nächsten jahren), weder bei nvidia noch ati/amd selbst monate nach dem launch eine 100%tige verfügbarkeit geben wird. lagerung kostet nebenbei ja auch noch.

AMD produziert deutlich weniger und kann somit nichtmal annährend die Nachfrage decken. Durch den geringen Verkaufspreis ist die Nachfrage so groß, dass AMD zwangsläufig Geld verliert. Sie haben einfach nicht den richtigen Spot zwischen vorhandener Menge und Verkaufspreis getroffen.
Das ist auch der Grund, warum man immer ein größeres Angebot haben sollte: Der Verlust aufgrund nichtverkaufter Güter ist wesentlich geringer als die fehlenden Einnahmen durch den geringen Verkaufspreis. Schlussendlich hätte man die Liefersituation für den einzelnen Endkunden entlastet, da die Karten wenigsten längerfristig auf dem Markt gewesen wären.

boxleitnerb
2009-11-22, 17:37:24
Kannst du mal mit dem Spammen aufhören?
Tatsache ist doch, dass die Karten noch mehr kosten könnten und sie immer noch restlos gekauft werden würden. Selbst wenn der Preis rein leistungsmäßig nicht gerechtfertigt wäre, kommen ja noch andere Dinge und nicht zuletzt die Exklusivität dazu.

Gast
2009-11-22, 17:51:26
Tatsache ist doch, dass die Karten noch mehr kosten könnten und sie immer noch restlos gekauft werden würden.
AMD hat sich verkalkuliert, das ist die einzige Erklärung dafür, das sie freiwillig auf Gewinn verzichten.

_DrillSarge]I[
2009-11-22, 17:53:36
Klar, AMD hat einen Monsterchip designt, aber sind sie deshalb aus der Schuld raus?
AMD wusste um den Prozess und seiner Probleme. AMD wusste, das ihr Cypress noch stressiger wird. Zusätzlich kommt hinzu, das Cypress selbst noch nicht ideal sein könnte. AMD hätte auch erstmal einen weiteren Respin abwarten können.
nv hat einen "monsterchip" designt. nicht amd. die damit verbunden probleme sieht man ja - kein launch, ernüchternde taktraten (zumindest was bisher gezeigt wurde).

Gast
2009-11-22, 18:18:07
I[;7676292']nv hat einen "monsterchip" designt. nicht amd. die damit verbunden probleme sieht man ja - kein launch, ernüchternde taktraten (zumindest was bisher gezeigt wurde).
AMDs Monsterchip ist der Produktion nicht gewachsen.

Mehr als doppelt so viele Transistoren wie zuvor beim gleichen Takt und im neuen Prozess.
Entweder AMD hat den Chip zu fett gemacht oder sie haben einen notwednigen Respin nicht abwarten wollen.

Nvidias Monsterchip dagegen ist noch im Zeitrahmen, Q4 2009 ist nicht vorbei.
Erst ab Januar ist er verspätet, und wenn er dann irgendwann mal kommt, können wir uns weiter unterhalten, ob Nvidia die Verfügbarkeit ihres Monster besser im Griff haben, z.b. indem sie A3 abgewartet haben.

Armaq
2009-11-22, 18:33:45
Im Januar kommt gar nichts. Wenn die bisherigen Angaben stimmen, passiert auch im Januar noch nichts. Das ist für alle traurig, aber wahr.

Gast
2009-11-22, 18:34:45
Wurde das behauptet? :rolleyes:

Menace
2009-11-22, 18:54:56
AMDs Monsterchip ist der Produktion nicht gewachsen.
Entweder AMD hat den Chip zu fett gemacht oder sie haben einen notwednigen Respin nicht abwarten wollen.



Nvidias Monsterchip dagegen ist noch im Zeitrahmen, Q4 2009 ist nicht vorbei.


Wie geil. ;D nvidia macht alles richtig, AMD alles falsch. Das nenne ich kritische Reflektion auf dem höchsten Niveau. Ein kräftiges: Chapeau! an den Schreiber.

Am Freitag habe ich 10 Minuten zu lange gewartet. Ein Händler hatte laut Lagerbestand noch 8 HD5850er rumliegen (ich glaube für knapp 250,- €). Darüber nachgedacht, einen Kaffee getrunken. Die Seite neu geladen. Alles war weg.

Also nochmals: Wie dumm von AMD, dass sie ein Produkt herstellen, dass ihnen aus den Händen gerissen wird? :wink:

Mit dem Fermi wird es auch nicht anders sein (bei ähnlicher Nachfrage). Nvidia wird nicht so lange auf Lager produzieren, bis jeder Kunde sich die Karte vom Hersteller seiner Wahl mit seinem Traumpreis kaufen kann.

Gast
2009-11-22, 19:14:56
Also nochmals: Wie dumm von AMD, dass sie ein Produkt herstellen, dass ihnen aus den Händen gerissen wird? :wink:

Denk nochmal darüber nach.
AMD könnte teurer verkaufen. Und die Lager wären trotzdem leer.
Folgerung: AMD lässt sich Gewinn entgehen.

Nvidia wird nicht so lange auf Lager produzieren, bis jeder Kunde sich die Karte vom Hersteller seiner Wahl mit seinem Traumpreis kaufen kann.
Zumindest warten sie auf A3.
Meine Vermutung war jetzt, das AMD dies auch hätte machen können.

horn 12
2009-11-22, 19:22:19
Warum, um den Vorsprung zu verlieren
Die HD5870 XTX wird sicher um die 25-30% schneller werden als die jetztige erhältliche HD5870, denke Taktraten der GPU um die 1050-1100.
Sieht man ja jetzt schon dass teilweise 1030-1050 Mhz drinnen ist, mit besserer Kühlung noch etwas mehr und da wird ATI WEITER ANSETZEN MÜSSEN.
und Speicher mindestens 1400-1500 Mhz... Das wird ein Fest!
Somit wird sich der Fermi mit der XTX messen müssen, und die HD5970 verliert dann aber gar einiges an Daseinsberechtigung... da auch Multi GPU und deren Nachteile...
Die XTX wird aber nimmer billig werden >=450 Euro.

Erst dann werden HD5870/5850 deutlich im Preis nachgeben.

Menace
2009-11-22, 19:49:01
Denk nochmal darüber nach.
AMD könnte teurer verkaufen. Und die Lager wären trotzdem leer.
Folgerung: AMD lässt sich Gewinn entgehen.


AMD verkauft teuer (wobei sie ihre Karten ruhig teurer hätten machen können). Auch werden sie an Verbesserungen arbeiten. Aber ihre momentaner Chip lässt sich leidlich herstellen und das ist für AMD (seit Jahren rote Zahlen schreiben) profitabler, als noch auf eine weiter Version eines Chips zu warten.

Zumal Lagerkosten jeder versucht zu vermeiden.


Zumindest warten sie auf A3.
Meine Vermutung war jetzt, das AMD dies auch hätte machen können.

Kostet Geld, kostet Zeit. Und die Kritik der 58XX Karten sind nun nicht gerade, äh, schlecht.

Hätte Nvidia einen Chip, der ihren Erwartungen entspräche, würden sie ihn auch produzieren und A3 nachschieben.

Gast
2009-11-22, 19:49:25
NV hat verdammt viel Glück das der Prozess nicht vernünftig läuft, denn sonst könnte AMD den Markt jetzt mit Karten fluten und NV hätte trotzdem noch nichts am Markt.

Würde der Prozess ordentlich funktionieren könnte man wohl schon mit A2 auf den Markt kommen. Da er aber nicht richtig funktioniert macht man noch einen Respin.

Klar ist der Chip verzögert, aber ohne die Prozessprobleme würde man wohl noch den Plan (Q4/09) einigermaßen einhalten können.

reunion
2009-11-22, 19:52:53
Würde der Prozess ordentlich funktionieren könnte man wohl schon mit A2 auf den Markt kommen. Da er aber nicht richtig funktioniert macht man noch einen Respin.

Klar ist der Chip verzögert, aber ohne die Prozessprobleme würde man wohl noch den Plan (Q4/09) einigermaßen einhalten können.

Eine Respin damit der Prozess läuft. Das ist ja mal ganz was neues. Wenn der Chip problemlos läuft und es nur noch Fertigungsprobleme gibt macht man sicherlich nicht zum Spaß einen Respin. Offensichtlich ist man mit A2 noch nicht zufrieden.

Coda
2009-11-22, 19:55:26
Nun, wenn die Library den Prozess fehlerhaft oder nicht genau genug beschreiben, kann das durchaus vorkommen.

Gast
2009-11-22, 20:03:41
AMD verkauft teuer (wobei sie ihre Karten ruhig teurer hätten machen können). Auch werden sie an Verbesserungen arbeiten. Aber ihre momentaner Chip lässt sich leidlich herstellen und das ist für AMD (seit Jahren rote Zahlen schreiben) profitabler, als noch auf eine weiter Version eines Chips zu warten.

Zumal Lagerkosten jeder versucht zu vermeiden.
Wie gesagt, AMD wäre alle GPUs losgeworden mit einem höherem Preis.
Was momentan passiert ist, das die Händler sich dumm und dämlich verdienen, dafür das AMD den Preis zu niedrig angesetzt hat.

AMD hat seinen Gewinn freiwillig den Händlern überlassen.


Kostet Geld, kostet Zeit. Und die Kritik der 58XX Karten sind nun nicht gerade, äh, schlecht.

Und was kostet Cypress im Moment?
Hätten sie wenigstens den Preis höher angesetzt wärs verständlich.


Hätte Nvidia einen Chip, der ihren Erwartungen entspräche, würden sie ihn auch produzieren und A3 nachschieben.
Tja und was sind Nvidias Erwartungen?
Tolle Yield oder hohe Taktbarkeit/geringer Verbrauch?

turboschlumpf
2009-11-22, 20:05:31
Fermi ist schon seit ca. 1 Jahr immer auf Q4 2009 gestanden, A3 kommt ja gerade wegen den ganzen yields probleme! heist es jedenfalls die ganze zeit!

mit A2 und einer vernünftige fertigung wäre wohl Q4 schon möglich gewesen, wenn auch knap!Ein Q4-Release sollte im Hinblick auf das Weihnachtsgeschäft sinnvollerweise zu Beginn des Quartals stattfinden. Mit A2 – obwohl mit heißer Nadel gestrickt – hätte Nvidia gerade noch so ein Dezember-Release geschafft. Fermi ist also unabhängig von den 40-nm-Problemen mindestens drei Monate zu spät. Da sich Nvidia aber nicht sicher sein konnte kein A3 zu benötigen kann man eher von sechs Monaten ausgehen.

LovesuckZ
2009-11-22, 20:13:13
Ein Q4-Release sollte im Hinblick auf das Weihnachtsgeschäft sinnvollerweise zu Beginn des Quartals stattfinden. Mit A2 – obwohl mit heißer Nadel gestrickt – hätte Nvidia gerade noch so ein Dezember-Release geschafft. Fermi ist also unabhängig von den 40-nm-Problemen mindestens drei Monate zu spät. Da sich Nvidia aber nicht sicher sein konnte kein A3 zu benötigen kann man eher von sechs Monaten ausgehen.

Abgesehen davon, dass das kein Argument ist, dass die Verzögerung nicht auch auf den Prozess zurückzuführen ist:
Die 38xx Karten wurden Mitte November in den Markt gebracht.
Die 8800GTS-512 kam knapp Mitte Dezember auf den Markt.
Für Weihnachten spielen neue Karten keine Rolle, weil die verfügbare Menge immer am Start limitiert und teuer ist. Oder meinst du, dass AMD das Weihnachtsgeschäft erfolgreich mitnimmt, wobei sie eine Verfügbarkeit von fast 0 haben?

Gast
2009-11-22, 20:22:46
wo sind denn bitte die zuständigen mods?
dieser ganze offtopic müll ist ja nicht zum aushalten

aylano
2009-11-22, 20:33:14
Denk nochmal darüber nach.
AMD könnte teurer verkaufen. Und die Lager wären trotzdem leer.
Folgerung: AMD lässt sich Gewinn entgehen.

Du verstehst das AMD-Konzept nicht.

AMD will nicht nur in dieser Umstellung erster sein, sondern auch in den nächsten. (32nmm?, 28nm,...)
Und dafür wurde Extra die GPU-Architektur ausgelegt bzw. entworfen.
Siehe hohe Packdichte und somit kleiner Die im Vergleich zu konkurrenz.

Dass heißt, AMD will vermitteln, egal wann Nvidia kommt, AMD wird die Preise kaum/nicht senken müssen, weil "sie so hoch sind wie Nvidia schon da wäre
Also, liebe Konsumenten, Ihr könnte jetzt die Karten kaufen, weil das Warten finanziell nichts mehr bringt!!!"

Würde AMD die Preise jetzt viel höher ansetzen und bei der Fermi-Einführung deutlich senken, dann würden eben bei der nächsten Umstellung wieder alle warten bis die Konkurrenz kommt und dann erst recht wieder den Gesenkten Preis kaufen.

Kurzfristig könnte AMD mehr Gewinn machen, langfristig wahrscheinlich wieder nicht.

Und wenn die Yieldrate eh so schlecht ist, soll AMD sich das Image immer-Preis-Leistungsmäßig-Top-zu-sein wegen paar Mio. Euro mehr gewinn nicht versauen.

Für AMD ist wahrscheinlch das Geschäftquartal 1Q/2Q eventuell 3Q 2010 wichtiger als das 4Q 2009, weil in diesen Quartalen es für AMD viel schwieriger wird.

Und Fermi muss sich erst noch beweisen.
So einen Quick Dirty Respinn wird Nvidia auch nicht zum Spaß machen.
Vorallem jetzt, wo OpenCl & Open-Pysik (keine Ahnung wie das jetzt heißt) sowie das Generelle Image, immer die schnellste Single-GPU-Karte sowie Grafikkarte zu haben, "auf dem Spiel steht."

Nvidia hat jetzt genau das Problem, was AMD bei den CPUs hat.
Da AMD momentan langsamer ist als Intel, müssen die schnellsten AMD-CPUs eben recht/sehr Niedrig im Preis angesetzt werden.
Und niedrige Preise erzeugen automatisch eine höhere Nachfrage und so kann AMD im Gegensatz zu Intel nicht paar Top-Modelle selektieren, die sie nicht nur aus der Selektion einen Höheren Preis verlangen können, sondern auch einen höheren Takt ansetzen können, mit dem sie dann in den ganzen Benchmarks einen noch größeren Abstand zum Konkurrenten "vorzeigen" können.

Also, Nvidia braucht jetzt eben auch schon beim Start eine bessere Yieldrate als früher (siehe G80), weil der Preis eben "jetzt" schon niedrig ist, was vielleicht eben den zusätzlichen A3-Respinn bedeuten können.
Im schlimmsten Fall ist dieser dann auch nicht ganz ausgreift und Nvidia "muss" ihn dann mal am Markt werfen.

Gast
2009-11-22, 20:45:22
Würde AMD die Preise jetzt viel höher ansetzen und bei der Fermi-Einführung deutlich senken, dann würden eben bei der nächsten Umstellung wieder alle warten bis die Konkurrenz kommt und dann erst recht wieder den Gesenkten Preis nehmen.
Bezweifel ich ganz erheblich, das der Markt so ein gutes Gedächtnis hat.

Das einzige Gedächtnis, das der Markt hat, ist das die 4870, 4890 und 4870 X2 Preise noch im Kopf schwirren.
Das hat AMD elegand umschifft, der Markt ist trotzdem bereit viel Geld für eine 5850 oder 5870 auszugeben.
Scheinbar weit mehr Geld als die Händler verlangen.

Was du nicht verstehst, ist, das die Händler sich bereits dumm und dämlich an AMDs Erfolg verdienen.
Das ist Fall 0, AMD verdient wenig, die Händler verdienen viel.

AMD hätte diesen Gewinn auch haben können.
Das ist Fall 1, der Endkundenpreis bleibt identisch, die Lager bleiben leer, AMD verdient mehr.

Zusätzlich meine ich, das AMD noch mehr verlangen könnte, so das die Preise am Ende etwas höher wären.
Das ist Fall 2, der Endkundenpreis steigt etwas, die Lager bleiben leer, AMD verdient noch mehr.

Gast
2009-11-22, 20:47:42
Erst mit Fall 3, noch höheren Preisen sind die Lager nicht mehr leer.

aylano
2009-11-22, 21:18:21
Was du nicht verstehst, ist, das die Händler sich bereits dumm und dämlich an AMDs Erfolg verdienen.
Das ist Fall 0, AMD verdient wenig, die Händler verdienen viel.

Stimmt.
Du solltest die bei AMD bewerben, denn die kennen sich da nicht aus und sie kriegen nicht mit, wie dumm und dämlich die Händler verdienen.
Nur du kennst dich da viel besser aus.
Vorallem, weil sie ja soooo oft solche Lieferprobleme hatten

LovesuckZ
2009-11-22, 21:20:42
Er hat doch recht. Wenn der OVP bei 339€ liegt und die Karten für >339€ weggehen, wer verdient denn am Aufpeis? Der Händler. AMD's "billig" Strategie geht überhaupt nicht auf, wenn sie nicht liefern können. Und was an 599€ billig sein soll, bleibt sowieso schleierhaft.

Gast
2009-11-22, 21:23:00
Er hat doch recht. Wenn der OVP bei 339€ liegt und die Karten für >339€ weggehen, wer verdient denn am Aufpeis? Der Händler. AMD's "billig" Strategie geht überhaupt nicht auf, wenn sie nicht liefern können. Und was an 599€ billig sein soll, bleibt sowieso schleierhaft.

Ich könnt wetten bei nVidia hättest du günstig geschrieben.

reunion
2009-11-22, 21:28:37
Er hat doch recht. Wenn der OVP bei 339€ liegt und die Karten für >339€ weggehen, wer verdient denn am Aufpeis? Der Händler. AMD's "billig" Strategie geht überhaupt nicht auf, wenn sie nicht liefern können. Und was an 599€ billig sein soll, bleibt sowieso schleierhaft.

Das ist auch eine Sache der Glaubwürdigkeit. Ich kann nicht jetzt eine 5870 für >500€ verkaufen nur weil das bei den geringen Stückzahlen möglich wäre und dann nachher um 200€ runter gehen. Hat man ja bei den GTX280/260-Karten gesehen zu welcher kontroversen Situation das geführt hat. Und billig werden die Karten ja gemessen an der vorherigen Generation nicht wirklich verkauft.

Gast
2009-11-22, 21:40:00
Das ist auch eine Sache der Glaubwürdigkeit. Ich kann nicht jetzt eine 5870 für >500€ verkaufen nur weil das bei den geringen Stückzahlen möglich wäre und dann nachher um 200€ runter gehen. Hat man ja bei den GTX280/260-Karten gesehen zu welcher kontroversen Situation das geführt hat. Und billig werden die Karten ja gemessen an der vorherigen Generation nicht wirklich verkauft.
AMD hätte den Preis so ansetzten können, das die Karte für 350-400€ käuflich ist.
Was ändert das groß an der Glaubwürdigkeit? 0-50€ teurer als jetzt.

Eine GTX 280 ist nie auf 200€ gefallen. Nichtmal nach 9 Monaten.

LovesuckZ
2009-11-22, 21:41:01
Ich könnt wetten bei nVidia hättest du günstig geschrieben.

Muss ja - immerhin kostete eine GTX260 399$ und eine GTX280 649$ zum Launch. AMD's Preise liegen bei 299$ für die 5850, ca. 399$ für die 5870 und 599$ für die 5970. Errinnert stark an letztes Jahr, oder?
Dank der schlechten Verfügbarkeit darf man sogar nochmal mehr bezahlen. Wo also hier eine "billige Preisstrategie" gefahren wird, darf der ein oder andere mal erklären. Sieht mir klar nach der selben Bepreisung aus, die auch nVidia im letzten Jahr für 2 Wochen genommen hat.

reunion
2009-11-22, 21:42:07
AMD hätte den Preis so ansetzten können, das die Karte für 350-400€ käuflich ist.
Was ändert das groß an der Glaubwürdigkeit? 0-50€ teurer als jetzt.

Eine GTX 280 ist nie auf 200€ gefallen. Nichtmal nach 9 Monaten.

Mit 0-50€ mehr hätte man auch noch bei weitem nicht genug Karten. Das wäre bestenfalls ein Tropfen auf den heißen Stein. Eine GTX 280 ist nie auf 200€ gefallen, das habe ich auch nicht behauptet. Aber sie ist wenige Wochen nach dem Launch beträchtlich im Preis gefallen. Viele Käufer fühlten sich damals betrogen und nicht wenige Hersteller erstatteten den Differenzbetrag nachträglich aufgrund von Protesten zurück.

Gast
2009-11-22, 22:05:08
Eine Respin damit der Prozess läuft. Das ist ja mal ganz was neues. Wenn der Chip problemlos läuft und es nur noch Fertigungsprobleme gibt macht man sicherlich nicht zum Spaß einen Respin.


Natürlich könnte Nvidia auch Däumchen drehen und warten bis TSMC den Prozess in den Griff bekommt, da ist es doch sinnvoller den Chip über einen weiteren Respin zu optimieren.

A3 wäre wohl in jedem Fall gekommen, mit einem funktionierenden Prozess wäre man aber wohl schon mit A2 auf den Markt gekommen und hätte erst später auf A3 umgestellt, wie man es schon öfters gemacht hat.

Da der Prozess aber einfach noch keine vernünftige Fertigung erlaubt nutzt man eben die Zeit um gleich mit A3 auf den Markt zu kommen.

Gast
2009-11-22, 22:10:47
Mit 0-50€ mehr hätte man auch noch bei weitem nicht genug Karten. Das wäre bestenfalls ein Tropfen auf den heißen Stein.
Bei 0€ änderte sich nichts, außer das AMD mehr verdient.
Bei 50€ ist es ein heiser Tropfen auf den heißen Stein.

Eine GTX 280 ist nie auf 200€ gefallen, das habe ich auch nicht behauptet. Aber sie ist wenige Wochen nach dem Launch beträchtlich im Preis gefallen. Viele Käufer fühlten sich damals betrogen und nicht wenige Hersteller erstatteten den Differenzbetrag nachträglich aufgrund von Protesten zurück.HD4870 512 ist recht zeitnah nach dem GTX 200 Launch aufgetroffen.
Etwas später sind 4870 1024 und 4870 X2 aufgetroffen.

Diese Situation ist beim besten Willen nicht mit heute vergleichbar. 5870 Launch ist bereits 2 Monate her.

LovesuckZ
2009-11-22, 22:18:31
Eine Frage zu der n_Body Demo, die nVidia auf der GTC und Supercomputer mit Fermi und Tesla C1060 gezeigt hat: Die C1060 bricht von SP auf DP um mehr als das 12 fache ein. Dabei läuft DP auf GT200 mit 1/8 der Rechenleistung. Weiß jemand, wieso die Demo um 50% stärker einbricht als es die DP Rechenleistung vermuten würde?

Coda
2009-11-22, 22:55:04
Die GT200-DP-ALU muss soweit ich weiß auch die transzendenten Funktionen emulieren. Das geht also nicht über die SFUs.

LovesuckZ
2009-11-22, 23:45:33
Inwieweit erreicht man in solchen nBody Demos die volle Rechenleistung? Soweit ich das überblicke, konnte nVidia bei der 8800GTX ca. 210 GFlops SP erreichen. Eine Implementierung im nZone.com Forum von einem user erreichte ca. 500 GFlops SP und ca. 50GFlops DP auf Tesla C1060 (GTX280). Der Einbruch bei Fermi muss jedoch beim Übergang von SP zu DP deutlich geringer sein.

Ailuros
2009-11-23, 07:55:55
Tja es waere eine interessante Frage an NVIDIA warum sie durch GT200 mit allen Mitteln darauf bestanden dass dedizierte DP Einheiten angeblich effizienter sind.

Das zur Seite zwischen theoretischen maximalen Werten und Echtzeit-Leistung wird es stets einen Unterschied geben. Der Unterschied darf aber nicht zu gross sein. Im Fall von GT200 wo NVIDIA bis zu 1:8 (theoretisch) fuer SP : DP angab ist der Abstand zu 1:12 oder 1:10 natuerlich zu gross.

Ob jetzt Fermi tatsaechlich in Echtzeit 1:2 erreichen wird bleibt abzusehen. Auf jeden Fall gibt AMD 1:5 an obwohl sie theoretisch auch 1:4 angeben koennten.

Labberlippe
2009-11-23, 08:19:32
Er hat doch recht. Wenn der OVP bei 339€ liegt und die Karten für >339€ weggehen, wer verdient denn am Aufpeis? Der Händler. AMD's "billig" Strategie geht überhaupt nicht auf, wenn sie nicht liefern können. Und was an 599€ billig sein soll, bleibt sowieso schleierhaft.


Hi

und wenn AMD eine UVP von 399 gibt und die Händler dann 449 verlangen, ist AMD dann auch Schuld?

Ich frage ich was die Diskussion um den Preis bei AMD wieder hier zu suchen hat.
Preislich hat AMD sich auf ein vernünftiges Niveau eingepegelt was will der Endkunde mehr.
Für was AMD einen Respin machen sollte ist mir unklar, der Chip läuft und das würde auch keinen Sinn machen, beide Hersteller hängen davon ab das TMSC auch wirklich mal stabil mit der Fertigung bleibt.

Die Frage die sich mir stellt, wo hackts bei nVIDIA da die noch keine Karten haben, die haben anscheinend noch gröbere Probleme mit dem Design.

Gruss Labberlippe

Gast
2009-11-23, 08:26:10
und wenn AMD eine UVP von 399 gibt und die Händler dann 449 verlangen, ist AMD dann auch Schuld?

Bei einem hohen Angebot, das für Lagerbestände sorgt, gibt es einen Preiskampf unter den Händlern.


Ich frage ich was die Diskussion um den Preis bei AMD wieder hier zu suchen hat.
Preislich hat AMD sich auf ein vernünftiges Niveau eingepegelt was will der Endkunde mehr.
AMD hätte mehr verlangen können, ohne das sich der Preis erhöht oder so das die Nachfrage das Angebot kaum noch übersteigt.



Für was AMD einen Respin machen sollte ist mir unklar, der Chip läuft und das würde auch keinen Sinn machen, beide Hersteller hängen davon ab das TMSC auch wirklich mal stabil mit der Fertigung bleibt.

Die Frage die sich mir stellt, wo hackts bei nVIDIA da die noch keine Karten haben, die haben anscheinend noch gröbere Probleme mit dem Design.
Vielleicht läuft Nvidias A2 so gut wie AMDs jetztiger Cypress. Vielleicht auch nicht.

Das TSMC nicht Schuld hat, zeigen die kleinen 40nm GPUs, die so langsam doch laufen.
Außerdem kennen die IHVs die Probleme des Prozesses lange genug. Dennoch setzten sie ihre Monster auf den Prozess los. Bzw Nvidia wartet noch, AMD hat sein Monster losgelassen.
Und welch Überraschung, das Monster bereitet TSMC Kopfschmerzen es zu fertigen.

Ailuros
2009-11-23, 08:57:03
Vielleicht läuft Nvidias A2 so gut wie AMDs jetztiger Cypress. Vielleicht auch nicht.

Das TSMC nicht Schuld hat, zeigen die kleinen 40nm GPUs, die so langsam doch laufen.
Außerdem kennen die IHVs die Probleme des Prozesses lange genug. Dennoch setzten sie ihre Monster auf den Prozess los. Bzw Nvidia wartet noch, AMD hat sein Monster losgelassen.
Und welch Überraschung, das Monster bereitet TSMC Kopfschmerzen es zu fertigen.

Chipkomplexitaet ist sehr wohl relativ zu jeglichen yields pro chip auf X Herstellungsprozess. AMD's Cypress liegt bei 2.15 Mrd Transistoren und hat einen gesunden Abstand zu GF100's 3.08 Mrd Transistoren.

Die Tatsache dass chipkomplexitaet ein wichtiger Faktor ist fuer yields macht TSMC nicht unschuldig was den Herstellungsprozess betrifft.

Ailuros
2009-11-23, 09:15:59
http://www.semiaccurate.com/2009/11/20/tsmc-rumored-have-killed-their-32nm-node/

2B-Maverick
2009-11-23, 09:41:27
Chipkomplexitaet ist sehr wohl relativ zu jeglichen yields pro chip auf X Herstellungsprozess. AMD's Cypress liegt bei 2.15 Mrd Transistoren und hat einen gesunden Abstand zu GF100's 3.08 Mrd Transistoren.

Die Tatsache dass chipkomplexitaet ein wichtiger Faktor ist fuer yields macht TSMC nicht unschuldig was den Herstellungsprozess betrifft.

Wenn AMD 40% Yields hat, bei 2,15Mrd Transistoren, dann wäre der Yield bei einem 3,08Mrd "AMD-Chip" (d.h. gleiche Libraries etc.) doch echt erbärmlich, oder?
Da kämen dann doch nicht mal mehr 20% lauffähig raus, oder?

Gibts da nicht ne Formel für? Ne schnelle Google-Suche nach "chip yield formula" brachte mir kein Ergebnis - und eigentlich sollte ich auch arbeiten um diese Zeit :)

CU
Markus

mapel110
2009-11-23, 09:44:00
Dafür kanns keine Formel geben, weil es auch vom Chipdesign abhängt.

2B-Maverick
2009-11-23, 09:49:38
Dafür kanns keine Formel geben, weil es auch vom Chipdesign abhängt.

Ich meinte ja theoretisch... angenommen gleiches Design.. einfach nur skaliert.
Bei 40% Yield bei den kleinen Chips wären doch bei den großen Chips statistisch gesehen fast alle (aber wie viele genau?) mit Fehlern behaftet, oder?

CU
Markus

X.Perry_Mental
2009-11-23, 09:55:10
Gibts da nicht ne Formel für? Ne schnelle Google-Suche nach "chip yield formula" brachte mir kein Ergebnis - und eigentlich sollte ich auch arbeiten um diese Zeit :)

CU
Markus
Man kann bei bekannter Chipgröße und bekannter Defekt-Dichte ausrechnen, wieviele Chips pro Wafer sich ergeben - und wieviele davon defekt sein sollten. Das was Du da eigentlich ausrechnen willst, ist in diesem Fall aber nicht so einfach möglich.

robbitop
2009-11-23, 10:58:15
http://www.semiaccurate.com/2009/11/20/tsmc-rumored-have-killed-their-32nm-node/
Das selbe Spiel wie beim 45 nm Node? Den Fullnode gab es dazu ja auch nicht.

reunion
2009-11-23, 11:09:00
Na das hat ja bei 40nm schon gut geklappt. :ugly:
Scheint als ob die Chinesen schön langsam überfordert wären mit der immer aufwändigeren Entwicklung von neuen Fertigungsprozessen.

Undertaker
2009-11-23, 12:46:19
Und da ist TSMC mit ~8Mrd € Jahresumsatz und knapp 50% Marktanteil im Foundry-Geschäft einer der dicksten Fische in der Branche... An den Mitteln kann es kaum liegen, da wird nur Intel noch mehr zur Verfügung haben.

N0Thing
2009-11-23, 13:50:19
Na das hat ja bei 40nm schon gut geklappt. :ugly:
Scheint als ob die Chinesen schön langsam überfordert wären mit der immer aufwändigeren Entwicklung von neuen Fertigungsprozessen.

Ganz die Linie der KP. :freak:

Von einer Überforderung von TSMC würde ich nicht sprechen, ohne Grund fertigen die ja nicht in mit Intel vergleichbaren Regionen, auch wenn der 40nm Prozess unglaublich viele Probleme bereitet hat. Ob TSMC wirklich an Fahrt verloren hat, wird man erst am (Miß-)Erfolg des nächsten Fertigungsprozesses sehen können.

Nightspider
2009-11-23, 13:51:47
Die Probleme scheinen ja auch von mal zu mal größer zu werden oder?

Blüht uns dasselbe mit 32nm , 28nm und 22nm ?

Dural
2009-11-23, 13:59:56
naja bei intel lief 45nm super und auch 32nm scheint gut zu laufen! aber umso kleiner desto grösser wird natürlich der aufwand

desert
2009-11-23, 14:18:50
naja bei intel lief 45nm super und auch 32nm scheint gut zu laufen! aber umso kleiner desto grösser wird natürlich der aufwand

ist eine cpu nicht ein bischen einfach herzustellen als so komplexe chips?

reunion
2009-11-23, 14:27:30
ist eine cpu nicht ein bischen einfach herzustellen als so komplexe chips?

Eine CPU mit Taktraten um 3Ghz herzustellen ist auch kein Pappenstiel. Zumindest dauert es bei CPUs wesentlich länger vom ersten Tapeout bis zu Produkten im Handel als bei GPUs. Es gibt hier wesentlich mehr Respins/Tapeouts als bei GPUs. Die Yieldraten werden aber durch das kleinere Die und den relativ hohen Cachenateil bei CPUs natürlich besser sein. Ich würde sagen andere Anforderungen, schwer zu vergleichen.

naja bei intel lief 45nm super und auch 32nm scheint gut zu laufen! aber umso kleiner desto grösser wird natürlich der aufwand

Zumindest konnte auch Intel bei 32nm ihre "Tick-Tock"-Strategie nicht mehr ganz halten, denn in 2009 werden wir keine 32nm CPUs mehr sehen.

Burgard
2009-11-23, 15:46:28
Zumindest konnte auch Intel bei 32nm ihre "Tick-Tock"-Strategie nicht mehr ganz halten, denn in 2009 werden wir keine 32nm CPUs mehr sehen.
Ich sag nur, Core i3 mit 2,93 GHz, der wird in 32nm gefertigt und sollte moch dieses Jahr ausgeliefert werden.

Sorkalm
2009-11-23, 15:50:59
Ich sag nur, Core i3 mit 2,93 GHz, der wird in 32nm gefertigt und sollte moch dieses Jahr ausgeliefert werden.

Ist richtig, aber in den letzten Jahren konnte man bei den Neuvorstellungen in der neuen Technologie auch noch in dem Jahr kaufen, sie wurden nicht nur ausgeliefert. Obwohl das bisher auch schon recht theoretisch war (, wenn man ein entsprechend teures Produkt hat kann man das natürlich auch eher auf den Markt bringen, wenn die Mengen sehr gering sind (z. B. bei dem QX9650 2007).

Burgard
2009-11-23, 15:54:58
Klar, so richtig in Fahrt kommt die Produktion erst nächstes Jahr, aber immerhin kann man die Tick-Tock-Strategie, hust, als erfüllt betrachten.
Das selbst Intel nicht mehr so schnell wechseln kann und es noch viel schlimmer wird mit den Zyklen, das sollte aber auch jedem klar sein.

Ab 22nm wird es eh erst richtig interessant, da da die Probleme erst richtig anfangen.

Labberlippe
2009-11-23, 16:14:36
Bei einem hohen Angebot, das für Lagerbestände sorgt, gibt es einen Preiskampf unter den Händlern.


Die Händler werden keinen Preiskampf eröffnen, wenn dann die Grafikkarten Hersteller.


AMD hätte mehr verlangen können, ohne das sich der Preis erhöht oder so das die Nachfrage das Angebot kaum noch übersteigt.


Wenn AMD mit dem Preis raufgeht werden die Händler das auch machen, die PC Branche lebt gerade mal mit extrem niedrigen Margen, da werden die sicher nicht hergehen und eine Preiserhöhung von AMD einfach so schlucken.


Vielleicht läuft Nvidias A2 so gut wie AMDs jetztiger Cypress. Vielleicht auch nicht.

Das TSMC nicht Schuld hat, zeigen die kleinen 40nm GPUs, die so langsam doch laufen.
Außerdem kennen die IHVs die Probleme des Prozesses lange genug. Dennoch setzten sie ihre Monster auf den Prozess los. Bzw Nvidia wartet noch, AMD hat sein Monster losgelassen.
Und welch Überraschung, das Monster bereitet TSMC Kopfschmerzen es zu fertigen.

nVIDIA wartet gar nix, nVIDIA kann leider nur warten bis TSMC die Fertigung im Griff hat, genauso AMD.
nVIDIA wird sicher auch versuchen gleich mal einige Karten der öffentlichkeit zu Präsentieren wenn dies gehen würde.
Vergiss auch nicht die Grössenordnung von den Chips.
Gerade mit den kleinen GPUs kann man es ja ein bischen verkraften aber bei den Chipmonster geht das nicht.
Wäre nVIDIAs Chip gleich gut dann könnten die auch schon einiges an Stückzahlen liefern, es wäre sehr unlogisch das gewartet wird.

Ich hoffe Du verstehst worauf ich hinaus will.

Nachtrag: Anzeichen dafür wären ja das die Taktfrequenz nicht die sein sollte welche gedacht wurde, vielleicht reicht aber die Taktung aus und man hält sich noch Luft nach oben.
Wir werden es sehen.

Gruss Labberlippe

HOT
2009-11-23, 16:56:13
ist eine cpu nicht ein bischen einfach herzustellen als so komplexe chips?
Nein, definitiv nicht. CPUs sind die Krone der Chipherstellung, das sind schließlich extrem komplexe Designs, die mit über 3GHz rennen müssen. Ich denke eher, dass TSMC sich etwas zu ehrgeizige Ziele gesteckt hat, die unerfüllbar waren. TSMC mag ein Riese sein, jedoch ist TSMC technologisch immernoch hinter Intel, GF(AMD), IBM und Samsung.
Die neuen Grafikchips sind andere Kaliber als die Versionen davor, das ist natürlich richtig. Grad Fermi sollte schon ne ziemliche Herausforderung für die Herstellung sein.

Undertaker
2009-11-23, 17:06:11
Vorsicht bei solchen Vergleichen. Momentan gibt es noch keine Konkurrenz zu TSMCs Bulk-Prozessen für GPUs.

Coda
2009-11-23, 17:21:43
CPUs sind die Krone der Chipherstellung
Seh ich anders. Sehr wenig Logik und viel Cache.

Cache lässt sich wunderbar mit Redundanz herstellen, Logik hingegen nicht. Und GPUs sind fast nur Logik, außerdem auch meistens deutlich größer.

Hoher Takt heißt gar nichts. GPUs müssen jede Instruction in einem Takt Latenz bewältigen, CPUs können hier variieren.

reunion
2009-11-23, 17:25:18
Seh ich anders. Sehr wenig Logik und viel Cache.

Cache lässt sich wunderbar mit Redundanz herstellen, Logik hingegen nicht. Und GPUs sind fast nur Logik, außerdem auch meistens deutlich größer.

Hoher Takt heißt gar nichts. GPUs müssen jede Instruction in einem Takt Latenz bewältigen, CPUs können hier variieren.

Bis eine CPU vom ersten Tapeout zur Massenproduktion freigegeben wird vergeht locker ein Jahr. Bei GPUs meist nur sechs Monate oder weniger. Das wird schon seine Gründe haben. Ich kenne keine CPU die je mit A Stepping auf den Markt gekommen wäre. B2 oder B3 ist hier eher üblich. Auch C-Steppings sind nicht ungewöhnlich. Und die CPU-Hersteller fangen bei 0 an zu zählen. CPUs sind ziemlich sicher einen größere Herausforderung. GPUs stellen durch den hohen Logikanteil wohl eher andere Anforderungen an den Prozess, wie zB eben eine möglichst geringe Fehlerdichte um die Yieldraten nicht zu stark zu beeinträchtigen.

Coda
2009-11-23, 17:29:26
Du kannst rumbegründen wie du willst, aber eine riesige GPU die fast nur aus Logik besteht wird aus Prinzip sehr viel anfälliger für Punktdefekte sein.

Die Respins bei den CPUs kommen wohl eher von Optimierungen und viel Custom-Logik, nicht vom Prozess.

Triskaine
2009-11-23, 17:40:01
Du kannst rumbegründen wie du willst, aber eine riesige GPU die fast nur aus Logik besteht wird aus Prinzip sehr viel anfälliger für Punktdefekte sein.

So groß ist der Logikanteil bei heutigen GPUs nun auch wieder nicht. Ein Cypress hat an die 7,5 MB SRAM auf dem Die, die fast ein Fünftel der Transistorenmenge ausmachen.

Coda
2009-11-23, 17:45:49
Das ist alles sehr verstreut, da kannst du keine großflächige Redundanz erwarten. Schau dir doch die Die-Shots an.

RV770 (aus Mangel eines RV870 Shots):
http://techreport.com/r.x/radeon-hd-4870/die-shot.jpg

Wo gibt's da bitte große Flächen zusammenhängenden SRAMs? RV770 hat pro Cluster komplett redundante ALUs um die Yields zu verbessern. Bei der Rasterizer-Logik etc. ist das aber weitaus schwerer.

Und jetzt mal als Vergleich ein Phenom II:
http://images.anandtech.com/reviews/cpu/amd/phenom2/810/900die.jpg

50% des Dies sind große SRAM-Blöcke. Die kann man wunderbar mit Redundanz versehen.

Tarkin
2009-11-23, 19:44:27
so, wieder mal was konstruktives zu Fermi

Fermi possibly delayed til March or April (http://www.driverheaven.net/news.php?newsid=345)

We heard word a short while ago from our contacts in the Far East that Fermi may very well be delayed even longer than the initial launch estimate in January. We reported last week that the goal for nVidia was to launch the product on some level at CES with reviewer kits to go out shortly afterwards. Our sources tell us today that the Fermi Build Kits were meant to go to AIBs last week but nVidia has missed this time frame. They also told us that "Gemini" is meant to be the code name for the new dual GPU Fermi card although nVidia are not confirming this.

Going on this and other inside information passed to us at the weekend it appears that the initial launch date in January may very well be pushed back until March or possibly even early April. Giving solid dates for the launch is going to be hard as nVidia seem to be running into more issues every week.

und More Fermi Rumors - Not Good (http://hardocp.com/news/2009/11/23/more_fermi_rumors_good)

NVIDIA had a big get-together in Hong Kong last week where a lot of the NVIDIA upper brass was on hand. It is being rumored that the first "Fermi build kits" were supposed to be prepped to go out to AIBs but NVIDIA missed the mark on having its Fermi tech ready to pass off to builders. We also heard the "Gemini" name being batted around as well and this seems to be connected to a dual GPU Fermi card. We still feel as though NVIDIA is aiming for getting Fermi shipping by the last week of February, but still think it will miss this mark. HardOCP's best guess right now is late March with any quantity to speak and we are still giving NVIDIA about even odds of marking March. April 2010 is looking more reasonable to us at this time.

reunion
2009-11-23, 19:49:15
Mit der Bestätigung von A3 war alles vor März auch nicht besonders realistisch.

Nakai
2009-11-23, 19:57:49
Damit lässt man ATI 6 Monate nahezu ohne Konkurrenz auf dem Markt. Anfang 2010 kommen dann noch die Mainstream- und Lowcostkarten, dann versorgt ATI nahezu alle Segmente mit DX11.

Ich hatte ernsthaft gehofft, dass NV früher kommt.

Going on this and other inside information passed to us at the weekend it appears that the initial launch date in January may very well be pushed back until March or possibly even early April. Giving solid dates for the launch is going to be hard as nVidia seem to be running into more issues every week.

Mal guckn...


mfg

LovesuckZ
2009-11-23, 20:00:56
Entweder schreibt Driverheaven von Hardocp ab, oder ihr Insider versorgt die ganze Industrie mit News. Sieht richtig traurig aus, dass bei ihnen exakt das selbe wie bei Hardocp.com steht - 40min später.
Abgesehen davon bin ich irritiert, warum sie denken, dass der eigentliche Launch im Januar hätte sein sollen, jetzt aber um drei Monate verschoben wurde.

Coda
2009-11-23, 20:04:57
Leider dürften sie aber wohl recht behalten. Ich erwarte Fermi auch nicht in Massen vor März.

reunion
2009-11-23, 20:05:58
Leider dürften sie aber wohl recht behalten. Ich erwarte Fermi auch nicht in Massen vor März.

Die sprechen vom Launch nicht von Massen. Mal sehen wie schnell dann bei NV die Produktion anläuft. Aber wie immer hilft nur abwarten.

Burgard
2009-11-23, 20:06:56
Wahnsinn, das bedeutet, das AMD genug Zeit hat, einen Refresh zur Cebit vorzustellen, z.B. eine 5855 und 5875 oder so.

Menace
2009-11-23, 20:08:28
Anfang 2010 kommen dann noch die Mainstream- und Lowcostkarten, dann versorgt ATI nahezu alle Segmente mit DX11.


Was noch zu beweisen wäre. :wink:

Coda
2009-11-23, 20:11:08
Die sprechen vom Launch nicht von Massen. Mal sehen wie schnell dann bei NV die Produktion anläuft. Aber wie immer hilft nur abwarten.
Erm, Massenproduktion sollte bis März schon möglich sein.

Triskaine
2009-11-23, 20:12:26
Was noch zu beweisen wäre. :wink:

Was soll es da zu beweisen geben?

http://www.abload.de/img/file.phpl2c0.jpg (http://www.abload.de/image.php?img=file.phpl2c0.jpg)

LovesuckZ
2009-11-23, 20:15:19
Leider dürften sie aber wohl recht behalten. Ich erwarte Fermi auch nicht in Massen vor März.

Ich verstehe die Argumentationskette bei Driverheaven nicht. Der zweite Absatz ergibt aus dem ersten keinen Sinn.

reunion
2009-11-23, 20:15:24
Erm, Massenproduktion sollte bis März schon möglich sein.

Massenproduktion ist gerade (aber nicht nur) bei TSMCs 40nm Node ein sehr dehnbarer Begriff. Von der Wafer bis zu den Produkten im Handel vergeht auch noch einige Zeit. Aber wir werden ja sehen, ich glaube jedenfalls nicht das NV mit dem Launch wartet bis man Massen an Chips hat wenn man eh schon zu spät dran ist.

][immy
2009-11-23, 20:35:28
so, wieder mal was konstruktives zu Fermi

Fermi possibly delayed til March or April (http://www.driverheaven.net/news.php?newsid=345)

We heard word a short while ago from our contacts in the Far East that Fermi may very well be delayed even longer than the initial launch estimate in January. We reported last week that the goal for nVidia was to launch the product on some level at CES with reviewer kits to go out shortly afterwards. Our sources tell us today that the Fermi Build Kits were meant to go to AIBs last week but nVidia has missed this time frame. They also told us that "Gemini" is meant to be the code name for the new dual GPU Fermi card although nVidia are not confirming this.

Going on this and other inside information passed to us at the weekend it appears that the initial launch date in January may very well be pushed back until March or possibly even early April. Giving solid dates for the launch is going to be hard as nVidia seem to be running into more issues every week.

und More Fermi Rumors - Not Good (http://hardocp.com/news/2009/11/23/more_fermi_rumors_good)

NVIDIA had a big get-together in Hong Kong last week where a lot of the NVIDIA upper brass was on hand. It is being rumored that the first "Fermi build kits" were supposed to be prepped to go out to AIBs but NVIDIA missed the mark on having its Fermi tech ready to pass off to builders. We also heard the "Gemini" name being batted around as well and this seems to be connected to a dual GPU Fermi card. We still feel as though NVIDIA is aiming for getting Fermi shipping by the last week of February, but still think it will miss this mark. HardOCP's best guess right now is late March with any quantity to speak and we are still giving NVIDIA about even odds of marking March. April 2010 is looking more reasonable to us at this time.

autsch. wenn das zutrifft fühle ich mich erstmal an die FX-Serie erinnert. na hoffentlich wird es keine zweite FX sondern dann wenigstens ein mehr als konkurenzfähiger chip.

wenn das so stimmt, dürfte man fermi aber fast schon gegen den nächsten Refresh von ATi antreten lassen.


naja wie war das noch mal? niemals mehr als eine sache zur nächsten generation wechseln. Entweder die Architektur, oder ein shrink, aber nicht beides gleichzeitig. zudem kommt ja anscheinend noch so einiges anderes hinzu. hoffen wir mal das das gut geht.

Menace
2009-11-23, 20:45:05
Was soll es da zu beweisen geben?


Man munkelt ja, dass eine besondere Überraschung ansteht. Wenn die Überraschung wäre, dass in 32 bei GF produziert wird, halte ich die Aussage zum Zeitpunkt der Einführung noch spekulativ.

Armaq
2009-11-23, 20:57:06
Man munkelt ja, dass eine besondere Überraschung ansteht. Wenn die Überraschung wäre, dass in 32 bei GF produziert wird, halte ich die Aussage zum Zeitpunkt der Einführung noch spekulativ.
Fängt das jetzt schon wieder an? Es wäre ein dickes Ei, aber ein unwahrscheinlich Unwahrscheinliches.

HOT
2009-11-23, 20:58:31
Du kannst rumbegründen wie du willst, aber eine riesige GPU die fast nur aus Logik besteht wird aus Prinzip sehr viel anfälliger für Punktdefekte sein.

Die Respins bei den CPUs kommen wohl eher von Optimierungen und viel Custom-Logik, nicht vom Prozess.
Also das ist ja mal der Oberschwachsinn, sry. In der Fertigung spielt Takt sogar eine entscheidende Rolle. Die Logistik auf dem Chip ist bei 3GHz "etwas" schwieriger als bei 600-1000MHz. Deshalb spielen Engpässe und Hotspots bei CPUs eine erheblich grössere Rolle als bei GPUs. Es ist absolut kein Wunder, dass CPUs sehr viel länger brauchen, bis sie auf den Markt entlassen werden, da sie bei der Komplexität (eine CPU ist in ihrer Struktur immernoch komplizierter als eine GPU - Qualität vs. Quantität halt) erstmal mindestens 1x grundlegend geändert werden müssen nach dem Tapeout.
GPUs sind selbstverständlich erheblich leichter zu fertigen als CPUs, da es sich im sehr viel redundante Logik und nicht unerhebliche Teile SRAM handelt, das beides auch nur niedrig getaktet ist. Was glaubst du, warum NV es schaffte einen 500mm² GPU halbwegs wirtschaftlich beim "3.klassigen" Hersteller TSMC herzustellen? Versuch das mal mit einer 500mm²-CPU mit 2GHz bei TSMC :freak:.
Btw. fertigt VIA die eigenen CPUs auch nicht bei TSMC, obwohl Formosa sowohl bei VIA als auch bei TSMC mit drinhängt.

Ronny145
2009-11-23, 20:59:44
Mit der Bestätigung von A3 war alles vor März auch nicht besonders realistisch.


Damit könnte man noch zufrieden sein. Die Erfahrung hat doch immer wieder gezeigt, dass sich solche weit vorm launch spekulativen Termine meist nach hinten schieben.

Armaq
2009-11-23, 21:02:13
Damit könnte man noch zufrieden sein. Die Erfahrung hat doch immer wieder gezeigt, dass sich solche weit vorm launch spekulativen Termine meist nach hinten schieben.
Was machen wir aber mit Mai? Das wäre absolut unbefriedigend.

Coda
2009-11-23, 21:09:17
Also das ist ja mal der Oberschwachsinn, sry.
Tiefsinnige Argumente.

In der Fertigung spielt Takt sogar eine entscheidende Rolle.
Pipelining, anyone? Die ALUs von GPUs sind viel kürzer als die ALUs von CPUs, deshalb dürften die kritischen Pfade sich kaum was nehmen.
Eine transzendente Funktion braucht auf der CPU oft mehr als 20 Takte, das macht eine GPU in einem Takt.

Du kannst zwischen zwei Prozessen an dem Punkt nur die Transistorperformance vergleichen. Intel und AMD können auch nicht einfach GPUs mit 3Ghz herstellen, auch wenn sie den besseren Prozess haben als TSMC.

Es ist absolut kein Wunder, dass CPUs sehr viel länger brauchen, bis sie auf den Markt entlassen werden, da sie bei der Komplexität (eine CPU ist in ihrer Struktur immernoch komplizierter als eine GPU - Qualität vs. Quantität halt) erstmal mindestens 1x grundlegend geändert werden müssen nach dem Tapeout.
Da stimme ich dir völlig zu, nur sind das keine Produktionsprobleme ;)

Die Logistik auf dem Chip ist bei 3GHz "etwas" schwieriger als bei 600-1000MHz.
Die clock distribution könnte schwieriger sein, aber das ist auch ein Design- und kein Prozessproblem.

Deshalb spielen Engpässe und Hotspots bei CPUs eine erheblich grössere Rolle als bei GPUs.
Was hat das mit Hotspots zu tun?

Was glaubst du, warum NV es schaffte einen 500mm² GPU halbwegs wirtschaftlich beim "3.klassigen" Hersteller TSMC herzustellen?
Was glaubst du warum sie damit immer selbst AMD-CPUs hinterherhängen was die Strukturgröße angeht?

Menace
2009-11-23, 22:37:58
Fängt das jetzt schon wieder an? Es wäre ein dickes Ei, aber ein unwahrscheinlich Unwahrscheinliches.

Stimmt natürlich auch. Was ich bei meinem Einwand zu Beginn sagen wollte: ich glaube erst dann, dass ein GPU/CPU veröffentlicht wird, wenn er zumindest in geringen Mengen zum Verkauf ansteht. Was AMD auf seine Roadmap schreibt ist imho spekulativ.

LovesuckZ
2009-11-23, 22:42:57
Tja es waere eine interessante Frage an NVIDIA warum sie durch GT200 mit allen Mitteln darauf bestanden dass dedizierte DP Einheiten angeblich effizienter sind.

Das zur Seite zwischen theoretischen maximalen Werten und Echtzeit-Leistung wird es stets einen Unterschied geben. Der Unterschied darf aber nicht zu gross sein. Im Fall von GT200 wo NVIDIA bis zu 1:8 (theoretisch) fuer SP : DP angab ist der Abstand zu 1:12 oder 1:10 natuerlich zu gross.

Ob jetzt Fermi tatsaechlich in Echtzeit 1:2 erreichen wird bleibt abzusehen. Auf jeden Fall gibt AMD 1:5 an obwohl sie theoretisch auch 1:4 angeben koennten.

Da bei Verwendung von DP kein Dual-Issue bei Fermi möglich ist, stellt sich mir persönlich die Frage, ob Fermi mit dem selben Problem zu kämpfen hat. Wenn ja, dann sind es "reale" 6,2x mehr Leistung gegenüber C1060. Wenn nicht, dann hat die Demo keine Aussagekraft.

deekey777
2009-11-23, 23:09:59
Tja es waere eine interessante Frage an NVIDIA warum sie durch GT200 mit allen Mitteln darauf bestanden dass dedizierte DP Einheiten angeblich effizienter sind.
.
Was interessiert es Nvidia, was sie vor mehr als einem Jahr gesagt haben und das zu einem Zeitpunkt, als sie eben nur den GT200 hatten, der DP-fähig war?

Ist halt so.

Gast
2009-11-23, 23:18:03
http://techreport.com/articles.x/17815/2

Gipsel
2009-11-23, 23:20:07
Pipelining, anyone? Die ALUs von GPUs sind viel kürzer als die ALUs von CPUs, deshalb dürften die kritischen Pfade sich kaum was nehmen.Nö, sind sie eben nicht! Das hatten wir doch schon mal ;)
Die ALU-Latenzen sind bei GPUs sogar höher (bei nvidia sogar beträchtlich) als bei CPUs. Beispielsweise haben die AMD-CPUs 4 Takte Latenz für (floating point) Multiplikation und Addition. Die ATI-GPUs benötigen dafür 8 Takte (physisch, durch die 4 Threads pro Einheit aus einer Wavefront und dem Interleaving von jeweils 2 Wavefronts ergibt sich dann sozusagen eine logische Latenz von nur noch einem Takt), wobei der Registerzugriff auch noch nicht mal in den 8 Takten enthalten ist. Bei nvidia ist die physische Latenz sogar 20-24 Takte (man benötigt 6 Warps, um die ALU-Latenzen zu verstecken).

fdk
2009-11-23, 23:20:32
CPUs werden im Vergleich zu Retail-GPUs auch in viel größeren Stückzahlen gefertigt, da rechnet sich ein neues tapeout auch eher.

Gipsel
2009-11-23, 23:25:44
Da bei Verwendung von DP kein Dual-Issue bei Fermi möglich ist, stellt sich mir persönlich die Frage, ob Fermi mit dem selben Problem zu kämpfen hat. Wenn ja, dann sind es "reale" 6,2x mehr Leistung gegenüber C1060. Wenn nicht, dann hat die Demo keine Aussagekraft.
Nein, das paßt nicht zusammen :rolleyes:

Die Unmöglichkeit des "Dual-Issue" mit DP bei Fermi (was doch ziemlich was anderes ist als Dual-Issue bei G80/GT200) beschreibt lediglich, daß DP Half-Rate ist ;)

LovesuckZ
2009-11-23, 23:27:46
Nein, das paßt nicht zusammen :rolleyes:

Kein Ahnung, ich bin mehr Wirtschafter als Informatiker. :D


Die Unmöglichkeit des "Dual-Issue" mit DP bei Fermi (was doch ziemlich was anderes ist als Dual-Issue bei G80/GT200) beschreibt lediglich, daß DP Half-Rate ist ;)

Der Techreport-Artikel hat meine Frage ja beantwortet:
The DP sub-block SFU doesn't run instructions in double precision.

The only limitation that appears worth talking about at this point, prior to measurement, is running the double-precision sub block. Given that operands for DP are twice as wide, it appears the operand gather hardware will consume all available register file ports, and so no other instructions can run on the other sub block.

Gipsel
2009-11-23, 23:32:09
Der Techreport-Artikel hat meine Frage ja beantwortet:
Was da steht, ist aber genau genommen Blödsinn ;)

LovesuckZ
2009-11-23, 23:35:11
Was da steht, ist aber genau genommen Blödsinn ;)

Ich vertrau dem Autor. Rys scheint mir niemand zu sein, der unwahre Behauptungen aufstellt.
Oh und Fermi hat seine DP Unit - jetzt eben mal 16 pro Block. :D
Damit ist auch klar, wie nVidia die kleineren Karten abspecken wird.

Und noch ein Schmankel:
That's why we don't expect anything much to change in terms of raw sampler performance. What we do expect to change is image quality. All the hints point to Nvidia moving the game on a bit in terms of texel filtering quality, and they've been quietly making it clear that RV870 is beaten there. No bad thing, if it materializes.

Gipsel
2009-11-23, 23:40:17
Ich vertrau dem Autor. Rys scheint mir niemand zu sein, der unwahre Behauptungen aufstellt.
Oh und Fermi hat seine DP Unit - jetzt eben mal 16 pro Block. :D
Damit ist auch klar, wie nVidia die kleineren Karten abspecken wird.
Es ist ziemlich irrelevant, daß Du dem Author vertraust (der von nvidia vorab gebrieft wurde). Fakt bleibt, daß das da unzutreffend beschrieben ist. Das weiß ich übrigens allein schon deswegen sicher, da das nvidias offiziellen Informationen in einigen Kernpunkten widerspricht ;)

Wie das genau funktionert, wurde hier im Thread schon ausführlich diskutiert. Das suche ich jetzt nicht mehr raus.

ShadowXX
2009-11-24, 00:02:54
Also das ist ja mal der Oberschwachsinn, sry. In der Fertigung spielt Takt sogar eine entscheidende Rolle. Die Logistik auf dem Chip ist bei 3GHz "etwas" schwieriger als bei 600-1000MHz. Deshalb spielen Engpässe und Hotspots bei CPUs eine erheblich grössere Rolle als bei GPUs. Es ist absolut kein Wunder, dass CPUs sehr viel länger brauchen, bis sie auf den Markt entlassen werden, da sie bei der Komplexität (eine CPU ist in ihrer Struktur immernoch komplizierter als eine GPU - Qualität vs. Quantität halt) erstmal mindestens 1x grundlegend geändert werden müssen nach dem Tapeout.
GPUs sind selbstverständlich erheblich leichter zu fertigen als CPUs, da es sich im sehr viel redundante Logik und nicht unerhebliche Teile SRAM handelt, das beides auch nur niedrig getaktet ist. Was glaubst du, warum NV es schaffte einen 500mm² GPU halbwegs wirtschaftlich beim "3.klassigen" Hersteller TSMC herzustellen? Versuch das mal mit einer 500mm²-CPU mit 2GHz bei TSMC :freak:.
Btw. fertigt VIA die eigenen CPUs auch nicht bei TSMC, obwohl Formosa sowohl bei VIA als auch bei TSMC mit drinhängt.
Tja....und warum hat IBM beim G70 (oder wars nv40, mein Gedächtnis lässt langsam nach;)) so versagt wenn Sie eine so extrem superior Fertigung gegenüber TMSC haben (die wiederum mit dem G70 und G71 und auch G80 und G92 nicht wirklich Probleme hatten)?

Und warum bekommt Intel den Larrabee nicht ordentlich zum laufen, obwohl Sie doch 2 Klassen besser sind als TMSC?
Fragen über Fragen......


Es ist ziemlich irrelevant, daß Du dem Author vertraust (der von nvidia vorab gebrieft wurde). Fakt bleibt, daß das da unzutreffend beschrieben ist. Das weiß ich übrigens allein schon deswegen sicher, da das nvidias offiziellen Informationen in einigen Kernpunkten widerspricht

Jetzt widersprichst du dir aber....du sagst er wurde von nV gebrieft und im gleichen Satz das seine Auslegungen nicht mit den "offiziellen" infos von nV übereinstimmen.
Entweder waren die ersten "offiziellen" infos von nV nicht ganz so genau oder korrekt oder er wurde nicht von nV gebrieft.....

LovesuckZ
2009-11-24, 00:05:11
Tja....und warum hat IBM beim G70 (oder wars nv40, mein Gedächtnis lässt langsam nach;)) so versagt wenn Sie eine so extrem superior Fertigung gegenüber TMSC haben (die wiederum mit dem G70 und G71 und auch G80 und G92 nicht wirklich Probleme hatten)?.

NV40. Danach ging nVidia wieder zurück.
Oh und selbst mit dem GT200 hatte TSMC keine Probleme. 60%+ Yields ist immer noch mehr als das, was man zZ für 40nm als Gesamtyield vermutet.


Jetzt widersprichst du dir aber....du sagst er wurde von nV gebrieft und im gleichen Satz das seine Auslegungen nicht mit den "offiziellen" infos von nV übereinstimmen.
Entweder waren die ersten "offiziellen" infos von nV nicht ganz so genau oder korrekt oder er wurde nicht von nV gebrieft.....

Danke, das wollte ich gerade anmerken. Hätte Rys nur Informationen aus den Briefings, dann müsste er sich schon sehr weit aus dem Fenster legen, um zu behaupten, dass Fermi jeweils eine DP und SP ALU besitzt. Das hat bis jetzt niemand anderes getan.

Das wichtigste wird wohl für viele folgendes sein:
We mention again that our figures are preliminary ones based on educated guesswork and are subject to change once Nvidia talks about it properly next month.

Lassen wir uns überraschen.

Gipsel
2009-11-24, 01:39:51
Jetzt widersprichst du dir aber....du sagst er wurde von nV gebrieft und im gleichen Satz das seine Auslegungen nicht mit den "offiziellen" infos von nV übereinstimmen.
Entweder waren die ersten "offiziellen" infos von nV nicht ganz so genau oder korrekt oder er wurde nicht von nV gebrieft.....
Mit dem Vorab-Briefing meinte ich übrigens schon vor dem 30.September.

Es gibt auch noch eine dritte Möglichkeit. Manchmal wird einem nämlich auch einfach Blödsinn erzählt oder man versteht es auch nur falsch ;).
Der Techreport-Artikel verweist übrigens ganz am Anfang auf einen anderen (von Scott Wasson), der, was diese Details angeht, doch erheblich genauer ist. Die Beschreibung mit den "sub-blocks" die Rys liefert, ist aus meiner Sicht ziemlich sicher nicht zutreffend. Dazu gibt es nämlich bereits halbwegs detaillierte offizielle Angaben (z.B. zum Dual-Issue), die das beschriebene Schema eigentlich ausschließen. Außerdem wäre es eine ziemliche Transistorverschwendung (hmm, aber eigentlich ist das halfrate DP sowieso schon) ;)

Übrigens, genau wie Rys sagt, daß wenn seine optimistischen Taktprognosen (1700MHz Shadertakt) nicht zutreffen, er eine Woche mit einem "I love Groo!"-Shirt rumläuft, bin ich auch gerne bereit, meine Einschätzung zu korrigieren, sollte sie sich als falsch erweisen ;)

reunion
2009-11-24, 07:49:32
Tja....und warum hat IBM beim G70 (oder wars nv40, mein Gedächtnis lässt langsam nach;)) so versagt wenn Sie eine so extrem superior Fertigung gegenüber TMSC haben (die wiederum mit dem G70 und G71 und auch G80 und G92 nicht wirklich Probleme hatten)?

Wo genau hat denn IBM am NV40 "versagt"?


Und warum bekommt Intel den Larrabee nicht ordentlich zum laufen, obwohl Sie doch 2 Klassen besser sind als TMSC?
Fragen über Fragen......

Weil das Chipdesign auch ein (sehr wichtiger) Faktor ist. Oder glaubst du mit einer guten Foundry fliegen einem die fertigen Designs entgegen. :D

V2.0
2009-11-24, 07:57:35
Damit lässt man ATI 6 Monate nahezu ohne Konkurrenz auf dem Markt. Anfang 2010 kommen dann noch die Mainstream- und Lowcostkarten, dann versorgt ATI nahezu alle Segmente mit DX11.

Ich hatte ernsthaft gehofft, dass NV früher kommt.



Mal guckn...


mfg


Und es geht bei NV nur um die große Version der GT100 Serie. Die Performance, Mainstream und LowEnd Versionen sind noch viel weiter entfernt. Es gibt noch nicht mal Bereicht eines ersten Tape-Outs für diese Chips. Es ist nicht unmöglich, dass NV Ende 2010 nach nicht ein vollständiges DX11 Line-Up hat.

[immy;7678354']autsch. wenn das zutrifft fühle ich mich erstmal an die FX-Serie erinnert. na hoffentlich wird es keine zweite FX sondern dann wenigstens ein mehr als konkurenzfähiger chip.
wenn das so stimmt, dürfte man fermi aber fast schon gegen den nächsten Refresh von ATi antreten lassen.
naja wie war das noch mal? niemals mehr als eine sache zur nächsten generation wechseln. Entweder die Architektur, oder ein shrink, aber nicht beides gleichzeitig. zudem kommt ja anscheinend noch so einiges anderes hinzu. hoffen wir mal das das gut geht.

Konkurrenzfähigkeit hängt von der Konkurrenz ab. Gegen die heutigen 5870 mag Fermi gut aussehen, gegen eine Refresh hingegen.... Hoffen wir, dass wenigstens der Kühler leiser ist als bei der FX.

reunion
2009-11-24, 08:05:48
Konkurrenzfähigkeit hängt von der Konkurrenz ab. Gegen die heutigen 5870 mag Fermi gut aussehen, gegen eine Refresh hingegen.... Hoffen wir, dass wenigstens der Kühler leiser ist als bei der FX.

Richtig. Und im Gegensatz zu damals wo AMD mit dem R300 mächtig vorgelegt hat ist die 5870 zwar nett und vorallem pünktlich fertig geworden, aber die unter grafiklimitierung vielleicht im Schnitt 30-40% höhere Leistung als eine GTX285 sind nicht wirklich überragend. Da muss bei Fermi wohl schon einiges schief laufen das man nicht mal das überbieten kann. An einen Refresh glaube ich nicht so recht, höchstens eine mit mehr Spannung auf höhere Taktraten getriebene Version mit teurem 6Gbps GDDR5 wäre ev. machbar.

Ailuros
2009-11-24, 08:07:53
Wenn AMD 40% Yields hat, bei 2,15Mrd Transistoren, dann wäre der Yield bei einem 3,08Mrd "AMD-Chip" (d.h. gleiche Libraries etc.) doch echt erbärmlich, oder?
Da kämen dann doch nicht mal mehr 20% lauffähig raus, oder?

Wer sagt dass AMD's yields bei 40% liegen? TSMC's 40G groesstes Problem so wie ich es bis jetzt verstanden habe ist dass die yields von wafer zu wafer wie verrueckt schwanken. Ich hatte fuer GF100 A2 Schwankungen zwischen 4 und 40+% gehoert und ich wuerde sagen dass es bei AMD um einiges besser aussehen duerfte ueberhaupt wenn man bedenkt wie Rys sagt im TR Artikel ein GF100 ist angesichts Chipkomplexitaet 1 RV870 + 1 RV770 (ich komm nochmal spaeter darauf zurueck).

Je kleiner die Evergreen chips (=/<Juniper) desto hoeher die yields.

Gibts da nicht ne Formel für? Ne schnelle Google-Suche nach "chip yield formula" brachte mir kein Ergebnis - und eigentlich sollte ich auch arbeiten um diese Zeit :)

CU
Markus

Schoen waer's aber leider nein. Selbst wenn waere es fuer NVIDIA's Architekturen dank hot clocks sowieso nutzlos IMO.

------------------------------------------------------------------------

Gipsel,

Es gibt auch noch eine dritte Möglichkeit. Manchmal wird einem nämlich auch einfach Blödsinn erzählt oder man versteht es auch nur falsch.

Eher der erste Fall und obwohl ich nicht weiss mit wem genau Rys plaudert privat (geht mich ja auch nichts an, ich sag ihm ja auch nicht woher ich X oder Y bekomme) aber falls es ein Marketing-heini wie z.B. James Wang (der das fermi whitepaper schrieb) sein sollte dann wuerde es vieles erklaeren im Fall wo tatsaechlich etwas falsches anliegt.

Derartige whitepapers sollten von waschreinen hw engineers verfasst werden und es gibt keine einzige Entschuldigung fuer einen so grossen IHV wie NVIDIA mit ihrer Erfahrung dass das whitepaper so schlampig und das Tageslicht sah. Die pre-release Versionen dieses waren ja teilweise noch schlimmer und obwohl man einige Fehler beseitigt hat, stecken im finalen Dokument wohl noch etliche Fehler drin.

Was jetzt Rys' Frequenzspekulationen betrifft, koennte es sein dass er daneben liegt und wir haben dieses auch schon oeffentlich besprochen. Eine 2.6x ALU:TMU Relation koennte zwar theoretisch erreichbar sein, aber koennte nur unter Bedingungen hinhauen.

Zwei Indizien und wir werden schon mit der Zeit sehen ob es reiner Zufall ist:

1. Bevor der gesamte chip zurueckkam gab es reports seitens NV dass (ein testsample dass A1 einschaetzen sollte) 736/1620@0.95-1.0V moeglich sind (bei 1.05-1.1V hot clock bei 1760/1812).

2. Ein unbekannter chiphell Kerl sprach von angeblichen 495/1100 bei frueher hw.

1620/736 = 2.2x
1100/495 = 2.2x

Die Frage ist jetzt ob man ohne den Stromverbrauch nennenswert zu beinflussen die core-Frequenz um X% reduzieren kann und dieses dann mit leicht <X% im hot clock investieren kann. Hier muesste man einen sehr genauen engineering Einblick in die Toleranzen des chips haben (was ich fuer jeden der es behauptet auch bezweifeln wuerde) und ja ein jegliches testsample ist lediglich eine Indizie um einen chip einzuschaetzen aber ich bezweifle dass es viele Chancen gibt eine nahezu korrekte Einschaetzung zu landen.

Bis jetzt war es so dass je hoeher die Chipkomplexitaet desto kleiner die ALU:TMU Relation bei GeForces (seit G80) und ich sehe nicht ein wie man GF100 hier zu G92 relativieren koennte. Ja natuerlich koennte es sein dass sie die ALUs so umgewuerfelt haben dass sie groessere Toleranzen erreichen koennen, aber bevor ich nochmal auf exotische (Frequenz-relevante) Thesen mancher Traeumer (nicht Rys natuerlich) hereinfalle bleich ich lieber auf dem sicheren Pfad.

Nicht dass es hier mit dem Thread zu tun hat, aber vorerwaehnter Herr wird vielleicht bald einen neuen Job haben und nein nicht bei NVIDIA ;)

Richtig. Und Gegensatz zu damals wo AMD mit dem R300 mächtig vorgelegt hat ist die 5870 zwar nett und vorallem pünktlich fertig geworden, aber die unter grafiklimitierung vielleicht im Schnitt 30-40% höhere Leistung als eine GTX285 sind nicht wirklich überragend. Da muss bei Fermi wohl schon einiges schief laufen das man nicht mal das überbieten kann. An einen Refresh glaube ich nicht so recht, höchstens eine mit mehr Spannung auf höhere Taktraten getriebene Version mit teurem 6Gbps GDDR5 wäre ev. machbar.

Ich bin schon seit einiger Zeit eher der Meinung dass ein jeglicher RV8x0 Refresh zwar durchaus in AMD's Plaene stecken sollte, aber dann wohl eher auf 40nm (denn mit TSMC/32nm sah es schon seit einiger Zeit ziemlich merkwuerdig aus...). Bevor aber AMD erstmal daran denken koennte, wuerde ich erstmal denken dass man wartet bis TSMC das zeitige 40nm Schlammasel ausbuegelt.

Gast
2009-11-24, 12:06:45
Danke, das wollte ich gerade anmerken. Hätte Rys nur Informationen aus den Briefings, dann müsste er sich schon sehr weit aus dem Fenster legen, um zu behaupten, dass Fermi jeweils eine DP und SP ALU besitzt. Das hat bis jetzt niemand anderes getan.
Doch. ;)

Bitte belegen wenn moeglich sonst fliegt der Beitrag als spam raus.

Gast
2009-11-24, 13:16:03
Doch. ;)

Bitte belegen wenn moeglich sonst fliegt der Beitrag als spam raus.

Dann pls mergen, editieren kann ich als Gast nicht.
http://www.google.de/#hl=de&safe=off&q=Nvidia+Fermi+Modular&meta=&aq=f&oq=&fp=c4e59ed0cbc84ef5

Sorkalm
2009-11-24, 13:57:39
Fuad behauptet weiterhin, man kann Fermi im Januar kaufen:
http://www.fudzilla.com/content/view/16544/1/

Multiple sources now claim that Nvidia has promised to ship Fermi in January 2010. We are talking about GF100 Fermi, the GPU that is expected to defeat ATIs Radeon HD 5000-series offerings. To make matters more clear, January is the time when you can hope to buy a high-end Geforce desktop graphics card based on Fermi.

reunion
2009-11-24, 14:20:01
Fuad behauptet weiterhin, man kann Fermi im Januar kaufen:
http://www.fudzilla.com/content/view/16544/1/

Wird man ja bald wissen, wir haben bereits Ende November. Fuad musste seine Prognosen jedenfalls jetzt schon mehrmals nach hinten revidieren, mal sehen ob er diesmal recht behält.

Spasstiger
2009-11-24, 14:25:40
Gibts da nicht ne Formel für? Ne schnelle Google-Suche nach "chip yield formula" brachte mir kein Ergebnis - und eigentlich sollte ich auch arbeiten um diese Zeit :)
Unter der Annahme, dass nur Punktdefekte den Yield begrenzen und keine Redundanzen zu berücksichtigen sind (d.h. keine Fehlertoleranz), kann man den Yield folgendermaßen abschätzen:
Yield_B = Yield_A^(Fläche_B/Fläche_A)

Beispiel:
Yield_A = 0,4
Fläche_A = 2,15*x mm²
Fläche_B = 3,08*x mm²
=> Yield_B = 0,4^(3,08/2,15) = 0,4^1,432 = 0,27

2B-Maverick
2009-11-24, 14:38:22
Unter der Annahme, dass nur Punktdefekte den Yield begrenzen und keine Redundanzen zu berücksichtigen sind (d.h. keine Fehlertoleranz), kann man den Yield folgendermaßen abschätzen:
Yield_B = Yield_A^(Fläche_B/Fläche_A)

Beispiel:
Yield_A = 0,4
Fläche_A = 2,15*x mm²
Fläche_B = 3,08*x mm²
=> Yield_B = 0,4^(3,08/2,15) = 0,4^1,432 = 0,27

AH!
Danke.. genau so was suchte ich.
27% wären da gar nicht sooo schlecht wie ich dachte. Rein theoretischer Wert ohne Praxisbezug in Hinsicht auf Fermi zwar, aber interessant.
Wobei: Der große Chip hätte dann einen 33% schlechteren Yield als der kleine. Dazu kommt noch, dass man vom kleinen Chip 1,5 mal so viele auf einen Wafer bekommt. Macht summa sumarum dann pro Wafer ca. die doppelte Anzahl verwertbarer Chips. Da hat ATI dann doch nen "kleinen" Kostenvorteil.

edit: bissl gerechnet.

Coda
2009-11-24, 14:40:50
Dann pls mergen, editieren kann ich als Gast nicht.
http://www.google.de/#hl=de&safe=off&q=Nvidia+Fermi+Modular&meta=&aq=f&oq=&fp=c4e59ed0cbc84ef5
Da verstehst du was falsch. Man kann wenn man DP weglässt Dinge sparen, aber grundsätzlich werden schon zwei SP-ALUs zusammengeschalten um eine DP-Op zu berechnen. Da ist nichts komplett separat.

Spasstiger
2009-11-24, 14:51:16
Man könnte die SMs jeweils um einen Port beschneiden, dann wären Operationen mit doppelter Präzision automatisch nicht mehr möglich und die Single-Precision-Leistung halbiert sich. Ob das sinnvoll wäre, steht auf einem anderen Blatt. :freak:

http://realworldtech.com/page.cfm?ArticleID=RWT093009110932&p=5

/EDIT: Evtl. geht Nvidia aber wirklich den Weg fürs Performance-Segment und entfernt einen Port samt zugehörigen Einheiten. Irgendwoher muss das Gerücht ja kommen, man könne Double-Precision-Einheiten deaktivieren. Dazu noch die Anzahl von TMUs je SM halbieren, die Caches verkleinern und das Speicherinterface auf 256 Bit kürzen. Damit könnte man wohl in Verbindung mit GDDR5-Speicher durchaus den GT200 bei theoretisch geringeren Kosten ersetzen.

Gast
2009-11-24, 14:53:03
Fuad behauptet weiterhin, man kann Fermi im Januar kaufen:
http://www.fudzilla.com/content/view/16544/1/

"we can hope" ;)

Hoffen kann man immer, wobei imo ende Januar nicht so unrealistisch klingt, da sollte man wirklich schon die ersten Karten kaufen können, natürlich keine Massen.

igg
2009-11-24, 15:00:51
We have also heard that the launch won't take place at CES 2010, which starts on January 7th and ends of January 10th. Instead, Nvidia might launch it later at some point, but nevertheless still sometime during the month.
Also kein Paperlaunch 2009 :-(

mapel110
2009-11-24, 15:11:55
Also kein Paperlaunch 2009 :-(
Gibt doch genug Twitter-Accounts von nvidia. Who needs paper?! ^^
http://twitter.com/bburke_nvidia
http://twitter.com/Igor_Stanek
http://twitter.com/NVIDIAGeForce

LovesuckZ
2009-11-25, 00:41:53
Gibt doch genug Twitter-Accounts von nvidia. Who needs paper?! ^^
http://twitter.com/NVIDIAGeForce

Fun fact of the week: The GF100 board pictured in last's week's fun fact is 10.5-inches long -- the same length as GeForce GTX 200 Series graphics cards!

:D

V2.0
2009-11-25, 07:12:20
:D

FunFact: It actually was a G200 card. ;D

Ailuros
2009-11-25, 07:14:49
FunFact: It actually was a G200 card. ;D
;D Der war gut ;)

Dimon
2009-11-25, 08:58:18
Nvidia soll doch einfach mal den GT200 mit GDDR5 und höheren taktraten austatten.. Sind sicherlich über 30% drin :freak:

Das würde für den übergang ausreichen :D


Gruß

Ailuros
2009-11-25, 09:03:21
Nvidia soll doch einfach mal den GT200 mit GDDR5 und höheren taktraten austatten.. Sind sicherlich über 30% drin :freak:

Das würde für den übergang ausreichen :D


Gruß

Nett dass Du mir gerade das stornierte GT212@40nm beschreibst dass zufaelligerweise auch GDDR5 unterstuetzte. Den Grund warum das Projekt storniert wurde ueberlasse ich Deiner Phantasie.

Dimon
2009-11-25, 09:12:04
Nett dass Du mir gerade das stornierte GT212@40nm beschreibst dass zufaelligerweise auch GDDR5 unterstuetzte. Den Grund warum das Projekt storniert wurde ueberlasse ich Deiner Phantasie.

Wieso wurde das Projekt storniert? Gibts da gründe dafür?

@edit: Hmm der sollte schon einen 512Bit SI haben, sonst bringt das nix...

MadManniMan
2009-11-25, 09:20:27
Wieso wurde das Projekt storniert? Gibts da gründe dafür?

Natürlich nicht! Warum fragst Du? :freak:

Würde mich aber auch mal interessieren. Das Ding wäre genau in meinen Budget- und Interessenbereich gefallen. Wurden die Entwickler abgezogen, weil sie woanders gebraucht wurden? Oder war es einfach nur so sehr zu spät, dass man es gleich bleiben ließ?

Die frühe Vorstellung der GTS 250 deutete ja schon an, dass kein Platz mehr für diese Karte wäre...


Hat Leo vielleicht in seinen Nachrichten die Sache richtig interpretiert?

Es ergibt sich scheinbar folgende Faustregel: Damit ein GT2xx-Chip auf dieselbe Anzahl an Ausführungseinheiten kommt wie ein G9x-Chip, werden runde 20 Prozent mehr Transistoren als beim G9x-Chip benötigt. Dies mag bei Modellen des Performance- und HighEnd-Segments noch so durchgehend (und wie gesagt ergibt sich dort der Zweitnutzen als GPGPU-Beschleuniger), bei Lösungen für das LowCost- und Mainstream-Segment sind dies aber einfach unnütze Mehrkosten – sowohl in Bezug auf die Herstellungskosten des Grafikchips selber als auch durch ein etwas komplexeres Grafikboard (größerer Chip = relativ gesehen höherer Stromverbrauch = relativ gesehen aufwendigere Stromversorgung & Platinenlayout). Vielleicht liegt hier ja auch ein Grund, weshalb nVidia den einstmals geplanten GT212-Chip frühzeitig gestrichen hat – dieser GT212-Chip wurde möglicherweise zu groß und war damit (für das angepeilte Preissegment) nicht mehr wirtschaftlich herzustellen.

Ailuros
2009-11-25, 09:35:01
Wieso wurde das Projekt storniert? Gibts da gründe dafür?

Weil es nicht der Rede wert war ganz einfach. Die kleinen GT21x@40nm Varianten zeigen es recht deutlich dass die insgesamte Chipkomplexitaet keine besondere Frequenzen erlaubt haette und am Ende haette es sich nie richtig von der GTX285 abgesetzt. Mit alle dem zusaetzlichen video/audio/10.1 Schnickschnack stieg das Transistoren-Budget viel zu stark.

Und ja natuerlich wuerde irgendwo Mitte 2008 das Team aufgeloest und die Kerle womoeglich in ein GF1xx Projekt verschoben.

@edit: Hmm der sollte schon einen 512Bit SI haben, sonst bringt das nix...

GF100 mit weit mehr Einheiten und Anspruechen hat 384bit/GDDR5 (ausser Du hast die 48 Pixel/Takt beim letzteren uebersehen); wieso jetzt ein bescheidener 10.1 chip mit GDDR5 support ploetzlich einen 512bit Bus braucht ist mir fremd.

Dimon
2009-11-25, 09:38:29
GF100 mit weit mehr Einheiten und Anspruechen hat 384bit/GDDR5 (ausser Du hast die 48 Pixel/Takt beim letzteren uebersehen); wieso jetzt ein bescheidener 10.1 chip mit GDDR5 support ploetzlich einen 512bit Bus braucht ist mir fremd.

Ich habe es nicht im vergleich zum GF100 gemeint, sondern mit dem GTX285....

Ailuros
2009-11-25, 10:55:25
Ich habe es nicht im vergleich zum GF100 gemeint, sondern mit dem GTX285....

Was soll dass daran aendern genau? Die gebrauchte Bandbreite (eben bis zum Punkt wo sie nicht zu stark limitiert) ist relativ zu den Faehigkeiten jeglicher GPU bzw. Architektur. GF100 hat im Vergleich zur GT200 60% mehr TMUs und kann pro Takt 50% mehr Pixel bearbeiten; da eine 212 wohl keinen besonderen Abstand diesbezueglich von der 285 gehabt haette sollte es klar sein dass eine hypothetische GT212 eben NICHT einen 512bit bus braucht, wenn schon GDDR5 Unterstuetzung auf dem Band liegt.

Gast
2009-11-25, 13:33:25
Hat Leo vielleicht in seinen Nachrichten die Sache richtig interpretiert?

Kaum. Er widerspricht sich ja schon selbst:
"Es ergibt sich scheinbar folgende Faustregel: Damit ein GT2xx-Chip auf dieselbe Anzahl an Ausführungseinheiten kommt wie ein G9x-Chip, werden runde 20 Prozent mehr Transistoren als beim G9x-Chip benötigt. Dies mag bei Modellen des Performance- und HighEnd-Segments noch so durchgehend (und wie gesagt ergibt sich dort der Zweitnutzen als GPGPU-Beschleuniger), bei Lösungen für das LowCost- und Mainstream-Segment sind dies aber einfach unnütze Mehrkosten – sowohl in Bezug auf die Herstellungskosten des Grafikchips selber als auch durch ein etwas komplexeres Grafikboard (größerer Chip = relativ gesehen höherer Stromverbrauch = relativ gesehen aufwendigere Stromversorgung & Platinenlayout). Vielleicht liegt hier ja auch ein Grund, weshalb nVidia den einstmals geplanten GT212-Chip frühzeitig gestrichen hat – dieser GT212-Chip wurde möglicherweise zu groß und war damit (für das angepeilte Preissegment) nicht mehr wirtschaftlich herzustellen."

Erst mag es durchgehen und ist für langsamere Chips doof, dann ist das der Grund, warum gerade der GT212 als schnellster Vertreter seiner Serie gestrichen wurde. *doh* Fischen im Trüben anyone?

Psychopat
2009-11-25, 14:05:31
Du kannst vielleicht an der Formulierung rumkritisieren, aber die Aussage ist richtig. Schau dir doch mal GT215 an. Hat mehr Einheiten als ein G96, schafft es aber wegen niedriger Taktraten trotzdem nicht diesen zu schlagen.
GT212 wäre das gleiche Design nach oben skaliert gewesen. Das hätte nVidia nichts gebracht diesen Chip zu bringen. Wegen Yieldproblemen@40nm und zu groß nicht wirtschaftlicher als ein G200b bei wahrscheinlich geringerer Leistung. Was hätte ein solcher Chip gebracht außer Entwicklungskosten?

Anderer Vergleich: Der RV740 schaffte es wegen gesteigerten Taktraten trotz weniger Einheiten an eine 4850 ranzukommen. Da ist der neue Chip sinnvoll, da weniger Einheiten = billiger. Wenn aber der neue Chip mehr Einheiten braucht um einen alten zu schlagen weil die Taktziele nicht erreicht werden, wird der Chip halt nicht billiger und man kann sich gleich die Entwicklungskosten sparen.

Ailuros
2009-11-25, 14:37:10
Ich sehe keinen Widerspruch im fettgedruckten des vorerwaehnten Paragraphs. Nach Angaben duerfte 212 tatsaechlich irgendwo ueber 1.7Mrd. Transistoren gewogen haben. Wenn sie jetzt mit dem Ding zumindest im H1 2009 keine anstaendige Frequenzen erreicht haetten (worauf man Gift nehmen kann unter 40G) dann haette das Projekt einen gewaltigen Batzen an Resources verschwendet ohne sich von einer GTX285 was die Leistung betrifft haette absetzen koennen.

Wer zum Henker haette den Quark und fuer was genau gekauft? Fuer den D3D10.1 Aufkleber oder was?

GT212 war wie jegliches andere GT21x SKU fuer TSMC/40G ausgelegt. Jetzt sollte sich jemand gewaltig anstrengen mir zu erklaeren warum ungefaehr als AMD den 4890 auflegte NV GT212 stornierte, warum AMD immer noch auf 55nm fuer H1 2009 setzte und auch warum GT215 mit weniger als der Haelfte der Komplexitaet eines 212 so erbaermliche Frequenzen erreicht.

MadManniMan
2009-11-25, 14:44:46
Ich hätte sehr gern eine Karte im Leistungssegment der GTS 250 in 40 nm gehabt - das wars auch schon ;( Und da für mich ATi aufgrund des Fehlens von 3DVision momentan nicht in Frage kommt, wäre das meine erste Wahl gewesen.
Was solls, bleibt zum Übergang ne 8800 GT =) OK, zurück zum Thema!

Dural
2009-11-25, 16:37:06
Der GT212 wurde storniert weil er in der grösse für 2009 H1 gar nicht möglich gewessen wäre, ist doch ganz einfach! und jetzt noch einen GT212 zu bringen würde rein gar nichts mehr nützen so kurz vor GF100!

Der GT212 wäre wohl ca. in der selben grösse wie der RV870 jetzt gewesen und nicht mal der ist bis heute vernünftig lieferbar...

NV hat letztes jahr genau richtig reagiert und den GT212 begraben, war richtig mit den ganzen 40nm problemen!

Spasstiger
2009-11-25, 17:28:45
Der GT212 wäre wohl ca. in der selben grösse wie der RV870 jetzt gewesen und nicht mal der ist bis heute vernünftig lieferbar.
Möglicherweise wäre der GT212 sogar noch größer geraten, wenn man bedenkt, dass man diesen mit drei- bis viermal sovielen Shadereinheiten und TMUs wie beim GT215 (140 mm²) und einem zwei- bis dreimal so breiten Speicherinterface angesetzt hat.

LovesuckZ
2009-11-25, 18:08:04
So ruhig hier, trotz nVidia's erster Geforce 300 (http://www.nvidia.de/object/product_geforce_310_de.html) Karte? Überrascht. :freak:
Das einzige postive ist, dass GF100 wohl in der nächsten zeit vorgestellt wird. Denn ohne das Zugpferd, um einen Regenschirmeffekt zu ermöglichen, macht die OEM Version der Geforce G210 überhaupt keinen Sinn. Weder gegenüber AMD noch der eigenen Produktplatte wüsste der Kunde nicht, warum er zu der Karte statt zur G210 greifen sollte.

reunion
2009-11-25, 18:16:59
Das Ding ist eins zu eins eine 210, mal wieder typisch.

MR2
2009-11-25, 18:31:42
Was sehr sehr interessantes;-)
Oder stand das schon irgendwo?

"Nvidia hat offiziell bekanntgegeben, dass jene GF100, die man auf dem Foto den Unigine-Engine-Benchmark rendern sieht, 10,5 Zoll lang ist und damit dieselbe Länge einer Grafikkarte der Geforce-GTX-200-Reihe aufweisen würde. Veröffentlicht wurde diese Info bei Facebook.

Im metrischen System entsprechen diese Angaben 26,7 cm, also wirklich exakt die Länge beispielsweise einer Geforce GTX 285 im Referenzdesign. "

http://www.pcgameshardware.de/aid,699654/Nvidia-GF100-Fermi-Geforce-Grafikkarte-gesichtet-Update-Laenge-der-Karte-nun-offiziell/Grafikkarte/News/

Gast
2009-11-25, 19:06:52
Was sehr sehr interessantes;-)
Oder stand das schon irgendwo?

"Nvidia hat offiziell bekanntgegeben, dass jene GF100, die man auf dem Foto den Unigine-Engine-Benchmark rendern sieht, 10,5 Zoll lang ist und damit dieselbe Länge einer Grafikkarte der Geforce-GTX-200-Reihe aufweisen würde. Veröffentlicht wurde diese Info bei Facebook.

Ja, stand hier
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7680624&postcount=6194

Exakt die gleiche Länge, weil
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7680746&postcount=6195
:D

boxleitnerb
2009-11-25, 19:22:26
Ich hab irgendwo die Meinung gelesen, dass das Bild ein Fake sein könnte.

Status-LED vom Mainboard ist ausgeblendet
Man kann durch die Karte durchschauen (am Lüfter). Wenn der sich dreht, sollte es (sofern nicht eine sehr gute und schnelle Kamera verwendet wurde) verwischt sein, der Ausschnitt ist aber soweit man das sehen kann gestochen scharf.

LovesuckZ
2009-11-25, 19:28:23
Ich hab irgendwo die Meinung gelesen, dass das Bild ein Fake sein könnte.

Soll die Mondlandung auch gewesen sein. ;)


Man kann durch die Karte durchschauen (am Lüfter). Wenn der sich dreht, sollte es (sofern nicht eine sehr gute und schnelle Kamera verwendet wurde) verwischt sein, der Ausschnitt ist aber soweit man das sehen kann gestochen scharf.

Radial-Lüfter (siehe GTX 285) (http://pics.computerbase.de/2/4/1/6/3/1.jpg). Da das PCB ein Loch (http://myimgs.net/images/fouk.jpg) auf der Rückseite hat, kannst du durchgucken.
Laut Charlie wäre die Karte ein Fake - hat ihm ein Insider von nVidia gesagt. :lol:

Oh, mehr von Charlie:
I think so, mainly because I think the architecture is wrong, for the same reasons G200 was wrong.

One thing to think about though, I don't have confirmation that there is an A3. I know Fudo said it, but he is nothing more than a mouthpiece for NV talking points at this point. They use him to spread rumors and disinformation.

_IF_ they are going to be doing a January launch (FWIW, the press conference is scheduled for Jan 6, the earlier on on Dec 4th I think, was canceled), wafers need to be in the oven now for even a trickle in January. A3 would pretty much preclude anything more than a total paper launch in late January.

I have not heard that there is an A3, nor that A2 is back, people are assuming way to much based on one of Fudo's stories. That is why NV leaks to him the way they do, to start a grassroots FUD campaign.

Given that things like that happen, I totally ignore almost everything in the mainstream press and go to the sources for any info. If you want to know why that is better, just compare track records for 'predictions'.

-Charlie
http://www.semiaccurate.com/forums/showpost.php?p=13463&postcount=47

Er hat keine Informationen. Er spekuliert wie jeder andere auch.

Ailuros
2009-11-26, 07:24:24
I have not heard that there is an A3, nor that A2 is back, people are assuming way to much based on one of Fudo's stories. That is why NV leaks to him the way they do, to start a grassroots FUD campaign.

http://www.semiaccurate.com/2009/11/02/nvidia-finally-gets-fermi-a2-taped-out/

Er berichtete selber ueber einen A2 tape out erstens und zweitens erwaehnte er lange vor Fudo ueber eine A3 Moeglichkeit. Dass er sich selten daran erinnert was er wirklich in seinen Artikeln geschrieben hat in der Vergangenheit ist auch nichts Neues.

reunion
2009-11-26, 07:39:55
http://www.semiaccurate.com/2009/11/02/nvidia-finally-gets-fermi-a2-taped-out/

Er berichtete selber ueber einen A2 tape out erstens und zweitens erwaehnte er lange vor Fudo ueber eine A3 Moeglichkeit. Dass er sich selten daran erinnert was er wirklich in seinen Artikeln geschrieben hat in der Vergangenheit ist auch nichts Neues.

Zwischen einer Möglichkeit und einer Tatsache besteht aber schon noch ein Unterschied.

V2.0
2009-11-26, 08:04:06
Und Bezeichnungen sind nicht absolut...

Will sagen was der eine A2 nennt kann der andere A3 nennen...

Ailuros
2009-11-26, 08:07:41
Zwischen einer Möglichkeit und einer Tatsache besteht aber schon noch ein Unterschied.

Es steht drin A2 is out ganz unten in seinem relevanten Artikel und dann kommt im Forum folgendes:

I have not heard that there is an A3, nor that A2 is back...

Und was heisst Moeglichkeit ueberhaupt? Charlie wusste genau dass NV mit dem A3 Gedanken spielt lange bevor NV es Fudo erzaehlte.

V2.0
2009-11-26, 08:31:23
Mir wurde ja ein relativ wirres Gerücht zugetragen. Man hätte A2 zweimal zum Tape-Out gebracht. Beim zweiten Mal hat sich nur etwas im Prozess bei TSMC geändert, das Design soll gleich geblieben sein.

Ailuros
2009-11-26, 08:47:53
Mir wurde ja ein relativ wirres Gerücht zugetragen. Man hätte A2 zweimal zum Tape-Out gebracht. Beim zweiten Mal hat sich nur etwas im Prozess bei TSMC geändert, das Design soll gleich geblieben sein.

Uhmmm wie bringt man eine revision zu einem weiteren tape out ohne es einen respin bzw. A3 zu nennen? :confused:

***edit: das obrige ist uebrigens die Beschreibung die fuer A3 eigentlich zusteht (nur Prozess-orientierte Aenderungen)

V2.0
2009-11-26, 08:57:23
Uhmmm wie bringt man eine revision zu einem weiteren tape out ohne es einen respin bzw. A3 zu nennen? :confused:

***edit: das obrige ist uebrigens die Beschreibung die fuer A3 eigentlich zusteht (nur Prozess-orientierte Aenderungen)

Ich verstehe es so, dass A3 nur prozess-orientierte Änderungen enthält und ansonsten A2 völlig gleicht. Deswegen, so verstehe ich das Gerücht, hat man A3 beginnen können bevor A2 vollständig geprüft war. Hät man einen Fehler im Chipdesign gehabt, dann wird man wohl B1 oder A4 brauchen.

Ailuros
2009-11-26, 09:04:57
Ich verstehe es so, dass A3 nur prozess-orientierte Änderungen enthält und ansonsten A2 völlig gleicht. Deswegen, so verstehe ich das Gerücht, hat man A3 beginnen können bevor A2 vollständig geprüft war. Hät man einen Fehler im Chipdesign gehabt, dann wird man wohl B1 oder A4 brauchen.

So in etwa duerfte es sein. Selbst A1 soll keine Design-Fehler vorgezeigt haben, wobei aber die insgesamten Frequenz-Geruechte die herumschwirren irgendwo auch nicht ins Puzzle passen.

Falls A2 nicht mehr als 1200 hot clock erreichen kann so wie links und rechts angedeutet wird, dann ist es auf jeden Fall nicht Prozess-bedingt.

LovesuckZ
2009-11-26, 11:11:02
Charlie spekulierte in seinem Artikel auch nur.

So in etwa duerfte es sein. Selbst A1 soll keine Design-Fehler vorgezeigt haben, wobei aber die insgesamten Frequenz-Geruechte die herumschwirren irgendwo auch nicht ins Puzzle passen.

Der Chip auf der Supercomputer lief mit 944 988 944MHz - wenn wir irgendwelche internen Abhängigkeit von Register, Cache usw. für DP außen vorlassen.


Falls A2 nicht mehr als 1200 hot clock erreichen kann so wie links und rechts angedeutet wird, dann ist es auf jeden Fall nicht Prozess-bedingt.

Mit 1200MHz kämen sie auf den Markt.

Gast
2009-11-26, 11:35:11
Der Chip auf der Supercomputer lief mit 944 988MHz - wenn wir irgendwelche internen Abhängigkeit von Register, Cache usw. für DP außen vorlassen.
Wie kommst du darauf?

LovesuckZ
2009-11-26, 11:52:49
Wie kommst du darauf?

Verhält sich Fermi genauso wie GT200 bei DP dann: ((((78.000*6,2)*2)/512)/2) = 944,xx (Mhz).
Die 988 waren falsch. Keine Ahnung, wie ich darauf gekommen bin.

Gast
2009-11-26, 12:08:05
Verhält sich Fermi genauso wie GT200 bei DP dann: ((((78.000*6,2)*2)/512)/2) = 944,xx (Mhz).
Die 988 waren falsch. Keine Ahnung, wie ich darauf gekommen bin.

GT200 stemmt 1/8 seiner SP-Leistung für DP, Fermi dagegen 1/2, zweitens ist die real erreichte FLOPS-Leistung in Anwendungen meist nicht ausschlaggebend für die theoretischen Peak-Werte, aus denen man auf die Taktfrequenz zurückrechnen könnte.

Insofern verstehe ich deine Formel nicht ganz.

LovesuckZ
2009-11-26, 12:16:17
GT200 stemmt 1/8 seiner SP-Leistung für DP, Fermi dagegen 1/2, zweitens ist die real erreichte FLOPS-Leistung in Anwendungen meist nicht ausschlaggebend für die theoretischen Peak-Werte, aus denen man auf die Taktfrequenz zurückrechnen könnte.

Insofern verstehe ich deine Formel nicht ganz.

Fermi war in der GTC Vorführung 5,2x und auf der Supercomputer 6,2x schneller als C1060. Beim selben DP Verhalten in der nBody Demo lässt sich sagen, dass der Shadertakt des Chips mit 944Mhz lief und 29% unter den benötigen 1220Mhz liegt.
Wir wissen nicht, wie sich Fermi beim Umschalten von SP -> DP verhält. Vielleicht bricht er stärker ein, da nVidia mehr SFU Units verbaut hat, die bei SP mithelfen - somit wäre der Shadertakt höher. Vielleicht bricht er weniger stark ein, weil durch die interne Veränderungen limitierungen aufgehoben bzw. verringert wurden sind - somit läge der Shadertakt niedriger.

Gast
2009-11-26, 12:37:25
Hm, mal sehen ob ich dir folgen kann.

Du gehst von Faktor 6,2 aus, die Fermi real schneller "liefert" als C1060 (wobei wir nicht wissen, ob sie da C1060 vielleicht umgetaktet haben, um einen Clock-für-Clock-Vergleich zu machen) mit 77,76 GFLOPS theoretischem Maximum. Mal 6,2 wären das 482 GFLOPS.

Fermi kann, theoretisch, 256 DP-FMAs pro Takt berechnen, das wären also 512 FLOPS/clk. Für 482 GLFOPS bräuchte er also reale 941 MHz - wenn er in dieser Anwendung seine theoretische Spitzenleistung erzielen würde.

Richtig soweit?

LovesuckZ
2009-11-26, 13:24:22
Die 6,2x sind reale Werte von der Supercomputer. Ansonsten ist es richtig.

Ailuros
2009-11-26, 14:16:03
Mit 1200MHz kämen sie auf den Markt.

A2 geht nicht in volle Produktion wegen beschissener Prozess-bedingten yields. Die direkte Relation zu den Frequenzen sehe ich in diesem Fall nicht, denn es scheint nicht der eigentliche Grund zu sein welcher sie von der Massenproduktion abhaelt mit A2. Wenn man den Geruechten Glauben schenkt dann lag A1 auf 1100 und somit waere A2 auf ~1200 durchaus im logischen Bereich.

Wobei so oder so alles unter 1400 berauschend klingt ausser GF100 hat in jeder Einheit einen Zauberstab versteckt.

mapel110
2009-11-26, 14:18:35
A2 geht nicht in volle Produktion wegen beschissener Prozess-bedingten yields. Die direkte Relation zu den Frequenzen sehe ich in diesem Fall nicht, denn es scheint nicht der eigentliche Grund zu sein welcher sie von der Massenproduktion abhaelt mit A2. Wenn man den Geruechten Glauben schenkt dann lag A1 auf 1100 und somit waere A2 auf ~1200 durchaus im logischen Bereich.

Wobei so oder so alles unter 1400 berauschend klingt ausser GF100 hat in jeder Einheit einen Zauberstab versteckt.
Was ist mit den 20% Leistungsvorsprung, den A1 bereits hatte gegenüber RV870? Ist die Info also falsch?!

Ailuros
2009-11-26, 14:30:48
Was ist mit den 20% Leistungsvorsprung, den A1 bereits hatte gegenüber RV870? Ist die Info also falsch?!

Damit sich GF100 so von der heutigen GTX285 distanziert wie man es von einer neuer Technologie-Generation erwarten wuerde, braucht das Ding zumindest erstmal aehnliche Frequenzen IMHO.

deekey777
2009-11-26, 17:15:49
Ist bestimmt schon bekannt:
Tokyo Tech Aims for 3 Petaflop Super in 2010 (http://www.hpcwire.com/specialfeatures/sc09/blogs/Tokyo-Tech-Aims-for-3-Petaflop-Super-in-2010-70351447.html)
TSUBAME 2.0, will be a 3 petaflop machine made of next-generation x86 CPUs -- not sure if it's Xeons or Opterons -- and NVIDIA Fermi Tesla devices.

LovesuckZ
2009-11-27, 18:28:42
A2 came back early this month, so your date estimates seem sound to me. I think press will be given the GeForce spec in Jan, if not boards
http://www.semiaccurate.com/forums/showpost.php?p=14440&postcount=49


I have not confirmed that the A2 step came back, but it would be surprising if it had not. I also have not confirmed that there is a need for an A3. Both bits of info are only from Fudo, and his reliability on Nvidia of late has been REALLY suspect.
http://www.semiaccurate.com/forums/showpost.php?p=14429&postcount=47

Gast
2009-11-28, 00:28:54
In was haben die die Transistoren investiert... 3Mrd. um den Hybrid Profi/Gamer Karte auf den Weg zu bringen. Ist ne getrennte Serie Tesla und Geforce nicht günstiger? DP brauch kein Zocker *g
Mit GT200 haben sie doch schon begriffen, das das G80 Grund-Design sich nicht immer weiter auf hohen Taktraten betreiben lässt.

Gast
2009-11-28, 12:00:31
Mit GT200 haben sie doch schon begriffen, das das G80 Grund-Design sich nicht immer weiter auf hohen Taktraten betreiben lässt.

Das G80-Design schon, mit dem G2xx-Design hat man wohl Probleme und möglicherweise mit dem neuen auch.

Die Frage ist auch ob die Taktprobleme "nur" am zu hohen Stromverbrauch liegen, oder am Design selbst.

Bei ersterem besteht zumindest die Hoffnung, dass Fortschritte in der Fertigung und/oder neue Chiprevisionen das ganze in relativ kurzer Zeit merklich verbessern können. Außerdem wären die kleineren GPUs kaum betroffen, da die nicht am Limit des Energieverbrauchs arbeiten.

Wenn es am Design selbst liegt, kann man daran wohl nur langfristig etwas ändern.

LovesuckZ
2009-11-28, 12:13:56
In was haben die die Transistoren investiert... 3Mrd. um den Hybrid Profi/Gamer Karte auf den Weg zu bringen. Ist ne getrennte Serie Tesla und Geforce nicht günstiger? DP brauch kein Zocker *g
Mit GT200 haben sie doch schon begriffen, das das G80 Grund-Design sich nicht immer weiter auf hohen Taktraten betreiben lässt.

8800GTX hatte 1350MHz Shadertakt, GTX280 hat 1296MHz Shadertakt. Sieht ziemlich identisch aus.
Davon ausgehen sehe ich nicht, wieso es sich bei nVidia um eine hybride Profi/Gamer Karte handeln sollte und bei AMD nicht. Die bieten ebenfalls ECC, DP, Shared Memory etc. an und verbrauchen gleichzeitig auch 188Watt.

/edit:

I can't back any of this up[...]
http://www.semiaccurate.com/forums/showpost.php?p=14482&postcount=55

Immerhin gibt er es endlich zu.

reunion
2009-11-28, 12:32:38
Mal was anderes: NV hat es mit den 40nm Prozess immerhin geschafft in punkto Packdichte auf AMD aufzuschließen. Das war mit 65/55nm noch ganz anders. Auch bei GF100 dürfte das anhalten, wenn er unter 500mm² bleibt, immerhin sind 3.08Mrd Transistoren bestätigt. Jetzt muss man nur noch sehen ob das nicht zu lasten der Leistungsaufnahme/Taktraten ging, denn da sieht es bei den aktuellen 40nm Design nicht mehr sonderlich rosig aus ggü. AMD. Auch das war bei 65/55nm noch anders.

YfOrU
2009-11-28, 12:57:25
In der Theorie sind die Vorzüge der unterschiedlich getakteten Blöcke durchaus nachvollziehbar. Was das Resultat angeht frag ich mich allerdings (gerade im Vergleich zu AMD) ob der Aufwand wirklich gerechtfertigt ist.

Neben dem damit verbundenen Zwang zu hohen Frequenzen scheint es auch was die Transistorzahl (ergo Chipfläche) betrifft in der Realität nicht den Vorteil zu bringen den man vermuten würde. Auf dem Papier lassen sich weniger (hochgetaktete) Einheiten natürlich immer noch einfacher auslasten aber auch davon ist am Ende kaum etwas zu sehen.

Armaq
2009-11-28, 13:03:41
Es ist halt ein anderer Ansatz. Während ATI möglichst breit fährt, will Nvidia möglichst schnell fahren.

reunion
2009-11-28, 13:11:58
Nur das schnell fahren wesentlich aufwändiger ist und mehr Spuren zu verwenden im Falle von AMD auch nicht mehr Material benötigt.

YfOrU
2009-11-28, 13:16:53
Darauf wollte ich hinaus. Theoretisch ist der von Nvidia gewählte Ansatz deutlich effizienter und technisch interessanter aber damit auch anspruchsvoller. Am Ende zählt aber nur das dabei erreichte Resultat und dieses steht damit nicht gerade im Einklang.

Zusätzlich handelt man sich diverse Problemstellen ein wie eine noch größere Abhängigkeit vom Fertigungsprozess und unter Umständen eine höhere Leistungsaufnahme.

In der Theorie sollte das Design bei geringerer Chipfläche schneller sein als vergleichbares von ATI. Die Zahl der Transistoren selbst spielt dabei nur eine untergeordnete Rolle. So wie ich das sehe lassen sich die niedrig getakteten Einheiten von ATI deutlich besser packen.

Gast
2009-11-28, 13:21:47
Was heißt Resultat. Bei 2,2 Mrd Transistoren verbaut AMD 80 TMUs, soviele wie Nvidia bei 1,4 Mrd Transistoren. Schlimmer noch sie denken trotz allem nichteinmal daran das freizuschalten was die Konkurrenz schon lange bietet.

Ich sehe schon, hier werden mal wieder fröhlich Flops verglichen. Dann seid doch bitte auch so ehrlich und vergleicht nur die Fläche der Chips, die diese Flops erzeugen.

LovesuckZ
2009-11-28, 13:26:32
Darauf wollte ich hinaus. Theoretisch ist der von Nvidia gewählte Ansatz deutlich effizienter und technisch interessanter aber damit auch anspruchsvoller. Am Ende zählt aber nur das dabei erreichte Resultat und dieses steht damit nicht gerade im Einklang.


Der Vergleich G92b und rv770 zeigt, dass nVidia's Ansatz genauso gut ist wie der von AMD. Der GT200 war ja auch gerade gegenüber dem G92 leistungstechnisch enttäuschend, da aus 85% mehr Transistoren, 75% mehr Fläche gerade mal 50% mehr Leistung resultierte.
AMD hat doch die Grenze des machbaren mit ihrer Architektur jetzt gezeigt: 60%/50% Mehrleistung gegenüber der 4870/90 sind nicht gerade ein Argument für den besseren Ansatz.

YfOrU
2009-11-28, 13:35:05
Der Ansatz von AMD ist in so weit auch nicht besser. Von der technischen Seite ist der von Nvidia gewählte Weg durchaus logisch. Genau so gut ist meiner Meinung aber nicht ausreichend um den Mehraufwand und die damit verbundenen Risiken zu rechtfertigen.

Edit:
Ich denke nicht das RV870 ein besonders gutes Beispiel für die allgemeine Effizienz des eigentlichen Ansatzes selbst ist. Hier ist vermutlich langsam der Spielraum der R600 Architektur erschöpft. Betrachtet man die Leistung der Streamprozessoren isoliert (GPGPU) sieht es ganz ordentlich aus.

LovesuckZ
2009-11-28, 14:08:35
Edit:
Ich denke nicht das RV870 ein besonders gutes Beispiel für die allgemeine Effizienz des eigentlichen Ansatzes selbst ist. Hier ist vermutlich langsam der Spielraum der R600 Architektur erschöpft.

Wieso? Der G92 ist/war auch sehr effizienz. Am Anfang hat zwar jeder AMDs 192mm^2 des rv670 gelobt, doch im Endeffekt war der Chip nichts anderes wie ein G71: Auf eine sehr kleine Fläche optimiert. Die Leistung selbst gegenüber dem G92 ist ebenso schlecht. Dabei werden bis auf 10.1 noch weniger Features geboten. Mit dem rv770 haben sie dann nicht nur ihre Architektur überarbeitet, sondern dadurch auch die Leistung/mm^2 deutlich erhöht. Das ist mit dem Übergang zu 40nm jedoch wieder zurückgegangen. nVidia packt knapp 90% mehr Transistoren in 40nm als unter 55nm, AMD nur 66%.


Betrachtet man die Leistung der Streamprozessoren isoliert (GPGPU) sieht es ganz ordentlich aus.

Täte man es auch bei nVidia, sähe das alles auch wieder anders aus. ;)

Gast
2009-11-28, 16:30:14
Täte man es auch bei nVidia, sähe das alles auch wieder anders aus. ;)
wenn man das macht sieht es zur zeit einfach nur düster aus für NV, da NV bisher einfach nichts hat um mit der brutalen DP-Power der ATIs mitzuziehen.
deshalb treibt NV ja so großen aufwand um mit dem Fermi wieder in die regionen der 48xx und 58xx zu kommen.

YfOrU
2009-11-28, 16:33:04
Mein Kernpunkt war das der theoretische Vorteil durch die Realität der Chipfertigung (Taktbarkeit, Packdichte und komplexere Logik) großteils auf der Strecke bleibt. Verschiedene Taktdomains für Funktionsblöcke dieser Größenordung sind nun mal ein anderes Kaliber als die integrierte NB einer CPU.

Die Packdichte war auf die Streamprozessoren bezogen. Diese nimmt mit steigender (Ziel)Frequenz ab. Inklusive der zusätzlich benötigten Logik scheint das Endresultat gegenüber der Bruteforcemethodik aktuell kaum Vorteile zu bieten. Also die Frage ob der Aufwand gerechtfertigt ist.

Botcruscher
2009-11-28, 16:35:30
AMD hat doch die Grenze des machbaren mit ihrer Architektur jetzt gezeigt: 60%/50% Mehrleistung gegenüber der 4870/90 sind nicht gerade ein Argument für den besseren Ansatz.

Es ist ja auch "nur" DX11 hinzu gekommen. Ein Vergleich der Architektur ist daher echt für den Po.

Abgesehen davon wären unabhängige Taktdomänen imo das Optimum.