PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GT400/GF100 - Q1/2010, DX11, CUDA 3.0


Seiten : 1 2 3 4 5 6 [7] 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75

pervert
2009-08-20, 13:21:40
So deutlich abgespeckt ist jeder core auf der GTX295 nicht; es ist aber wahr dass der erste GT200b Schub (GTX260/216) auf A2 war und die cores auf der 295 sind entweder A3 oder B3 (die dann auch in die GTX275 gingen).
Verglichen mit dem was aber scheinbar möglich ist (Mars) ist die GTX295 langweilig (Speicherinterface, Speicherausstattung gehören auch dazu!) und ich befürchte eine DUAL GT300 wird wieder genauso langweilig sein, weil es NV einfach nicht nötig hat etwas aufwändigeres zu produzieren um die Spitze zu halten.
Vermutlich will man auch einfach nur einen Anreiz übrigbehalten zwei einzelne Karten zu kaufen.

CPU-Limit. Nimm mal 2560 x 1600 4xAA/16AF [...]
Da bremst dann aber schnell mal die Speichermenge, wie die GTX295 nur allzu gerne unter Beweis stellt ;)

Undertaker
2009-08-20, 13:22:02
CPU-Limit. Nimm mal 2560 x 1600 4xAA/16AF oder zumindest 1920x1200.

Da könnte schon der VRAM bremsen. Aber selbst in diesem Fall wäre es "nur" Faktor 3.

reunion
2009-08-20, 13:25:51
Dass CF und SLI niemals 100% mehr Performance bringen sollte klar sein.

Klar.


Ebenso skaliert die Performance auch nicht mit den Einheiten perfekt.

Wenn kein CPU-Limit vorliegt natürlich.


Wenn man großzügig ist, dann schafft ATI mit der HD5870X2 etwa dreifache H4890-Performance.

Wenn RV870 doppelt so schnell ist wie die 4890 würde das bedeuten das du CF nur eine 50% Skalierung zutraust. Doch etwas sehr wenig.



NV wird wohl die Taktraten erhöhen und mit mehr als doppelter Einheitenzahl, schafft man mehr als doppelt so hoher Performance. Da wird man ganz knapp an ATIs Flagschiff liegen. Selbst wenn ATI bis zu 30% schneller ist, sehe ich hier keinen Sieg für ATI.


mfg Nakai

Rechne das lieber nochmal nach. Die GTX285 taktet auch schon mit 650Mhz, nicht viel niedriger wie die spekulierte GT300 mit 700Mhz. Die Einheitenanzahl wird nur bei den ALUs geringfügig mehr als verdoppelt. Eine GTX285 ist vielleicht 15-20% schneller als eine 4890. Schafft AMD jetzt eine Leistungsverdoppelung dann müsste NV die Leistung genau um wieviel steigern um einem Hemlock zu schlagen hm?

reunion
2009-08-20, 13:29:25
Verglichen mit dem was aber scheinbar möglich ist (Mars) ist die GTX295 langweilig (Speicherinterface, Speicherausstattung gehören auch dazu!) und ich befürchte eine DUAL GT300 wird wieder genauso langweilig sein, weil es NV einfach nicht nötig hat etwas aufwändigeres zu produzieren um die Spitze zu halten.
Vermutlich will man auch einfach nur einen Anreiz übrigbehalten zwei einzelne Karten zu kaufen.

Die Asus Mars ist eine Karte mit überbreite, kaum als Massenprodukt zu gebrauchen. Man muss schon sehen das zwei 512-bit SIs plus den entsprechend großen Chips, 32 Speicherbausteinen, NVIOs, etc. schon etwas viel ist. Das SI zu beschneiden ist eine elegante Möglichkeit hier etwas Entspannung hinein zu bringen.

Gast
2009-08-20, 13:32:36
Entweder ein Rückschritt zum G92-Aufbau, denn da sind 512SPs relativ leicht machbar. Dann hätte man auch 256 TMUs.

Dann hätte man eine abartige Füllrate.
Das ist aussgeschlossen. So viele Füllrate kostet nur unnütz. 128 TMUs in Verbindung mit Filteroptimierungen sind genausogut.
Man bewegt sich immer weiter weg vom AMD, trotz dieser Bremsung auf 128 TMUs.
Jetzt noch ein höherer Takt für die TMUs: OMG.

Schön ist es durchaus, aber unterm Strich kostet das Nvidia eine Menge, AMD kann sich ins Fäustchen lachen, das ihre Strategie Transistoren spart und nicht gerügt, sondern gelobt wird.

Coda
2009-08-20, 13:33:55
Entweder ein Rückschritt zum G92-Aufbau, denn da sind 512SPs relativ leicht machbar. Dann hätte man auch 256 TMUs.
G(T)300 ist 4:1, nicht 2:1. Schon GT200 war 3:1.

reunion
2009-08-20, 13:35:04
Das ist aussgeschlossen. So viele Füllrate kostet nur unnütz. 128 TMUs in Verbindung mit Filteroptimierungen sind genausogut.
Man bewegt sich immer weiter weg vom AMD, trotz dieser Bremsung auf 128 TMUs.
Jetzt noch ein höherer Takt für die TMUs: OMG.

Schön ist es durchaus, aber unterm Strich kostet das Nvidia eine Menge, AMD kann sich ins Fäustchen lachen, das ihre Strategie Transistoren spart und nicht gerügt, sondern gelobt wird.

Bitte was? Bei AMD wird mit einer TMU-Verdoppelung auf 80 TMUs spekuliert, damit würde AMD weiter aufholen. Aktuell hat NV 80 und AMD 40 TMUs. Nächste Gen vermutlich 128 vs. 80 TMUs. Und wir sprechen hier von einem Performance-Chip, nix High-End wie GT300. Mal sehen wieviele TMUs NVs Performancechip bekommt.

pervert
2009-08-20, 13:36:56
Die Asus Mars ist eine Karte mit überbreite, kaum als Massenprodukt zu gebrauchen. Man muss schon sehen das zwei 512-bit SIs plus den entsprechend großen Chips, 32 Speicherbausteinen, NVIOs, etc. schon etwas viel ist. Das SI zu beschneiden ist eine elegante Möglichkeit hier etwas Entspannung hinein zu bringen.
Eine vollwertige Dual GT300 muss ja nicht gleich nach der Einzelchipkarte kommen (z. B. als Dual Ultra ;)). Speicherbausteine werden größer, 512bit werden zur Gewohnheit.
Es ist sicher mehr möglich, als nur eine limitierte Serie für Superreiche ;)

Aber wie gesagt: Wunschdenken. NV hat es nicht nötig. Also bleibt man bei dem was wirtschaftlich sinnvoller ist.

Gast
2009-08-20, 13:38:12
RV870 muss sich mit NVs Performancechip nächstes Jahr schlagen, nicht mit GT300. Und um die RV870 X2 zu zerlegen brächte NV annähernd eine Vervierfachung der Leistung.
Nach bisherigen Stand ist RV870 auf dem X1 Topmodell keine billige Karte, herstellungstechnisch.

Eine RV870 X2 muss in jedem Fall einem GT300 X1 Topmodell ein gutes Stück vorraus sein.
Einerseits wegen der schwankenden Skalierung, um sicherzugehen weit genug vorraus zu sein.
Andererseits wegen dem höheren Endpreis. 2x2GiB Edel GDDR5, 2 riesige Chips, ein riesen PCB, ein gewaltiger Küher, ...

Ailuros
2009-08-20, 13:38:44
G(T)300 ist 4:1, nicht 2:1. Schon GT200 war 3:1.

Zaehlt nur die Anzahl der Einheiten oder auch die theoretischen maximale Werte? Angenommen Arun's These stimmt (welches mir aber nicht nach einer These klingt....):

GT200 = 933 GFLOPs <-> 48000 GTexels
D12U = 2458 GFLOPs <-> 128000 GTexels

In dem Fall steigert sich die Texelfuellrate um etwa das gleiche Prozentual wie die FLOPs/s auf Papier.

Coda
2009-08-20, 13:40:01
Bitte was? Bei AMD wird mit einer TMU-Verdoppelung auf 80 TMUs spekuliert, damit würde AMD weiter aufholen. Aktuell hat NV 80 und AMD 40 TMUs. Nächste Gen vermutlich 128 vs. 80 TMUs. Und wir sprechen hier von einem Performance-Chip, nix High-End wie GT300. Mal sehen wieviele TMUs NVs Performancechip bekommt.
Na, dann hoffen wir doch alle mal, dass das sich auch in der BQ widerspiegelt.

Evlt. hat Microsoft in den D3D11-Specs da endlich auch was festgelegt.

reunion
2009-08-20, 13:40:56
Nach bisherigen Stand ist RV870 auf dem X1 Topmodell keine billige Karte, herstellungstechnisch.

Eine RV870 X2 muss in jedem Fall einem GT300 X1 Topmodell ein gutes Stück vorraus sein.
Einerseits wegen der schwankenden Skalierung, um sicherzugehen weit genug vorraus zu sein.
Andererseits wegen dem höheren Endpreis. 2x2GiB Edel GDDR5, 2 riesige Chips, ein riesen PCB, ein gewaltiger Küher, ...

Es wird wohl kaum mehr als 2x1GiB GDDR5, AMDs Speichermanagement ist gut genug um damit auszukommen. Zwei 300mm² Chips würde ich nicht als riesig bezeichnen und alles andere ist Standard.

Gast
2009-08-20, 13:41:17
Evlt. hat Microsoft in den D3D11-Specs da endlich auch was festgelegt.
Sind die nicht öffentlich? :confused:

Coda
2009-08-20, 13:42:22
Nein.

Gast
2009-08-20, 13:44:24
Bitte was? Bei AMD wird mit einer TMU-Verdoppelung auf 80 TMUs spekuliert, damit würde AMD weiter aufholen.
Bei RV870 (das was du mit AMD gleichsetzt) wurde schon viel spekuliert.

80TMUs halte ich für Schwachsinn. Warum sollte AMD dies tun? Antworte.
Bisher hieß es, die Shaderleistung steige stärker, jetzt nicht mehr? AMD kann auch schlecht damit werben, sonst gestehen sie die alte Schwäche ein, bzw Nvidias Stärke.
Auch macht es keinen Sinn, weil sie bisher somit unbeheligt Transistoren sparen konnten.
Ich glaube nicht, das AMD aus Angst vor Codas Artikel seine Strategie ändert.


Nächste Gen vermutlich 128 vs. 80 TMUs. Und wir sprechen hier von einem Performance-Chip, nix High-End wie GT300. Mal sehen wieviele TMUs NVs Performancechip bekommt.
Und, die FLOPs liegen auch nicht ewig entfernt. GT200 hatte sogar weniger. Kann man mal sehen, was man von den Zahlen halten kann.

Gast
2009-08-20, 13:45:56
Es wird wohl kaum mehr als 2x1GiB GDDR5, AMDs Speichermanagement ist gut genug um damit auszukommen. Zwei 300mm² Chips würde ich nicht als riesig bezeichnen und alles andere ist Standard.
2 350mm² Chips sind groß.
Mit 2x1GiB verschenkt AMD auf jeden Fall die Hoheit in so manch VRAM lastigen Settings.
Nicht gut, wenn die X2 da auf einmal scheisse aussieht.

AMD kann sich das nicht erlauben, nur mit 2 RV870 Pro.

Nakai
2009-08-20, 13:46:34
Wenn RV870 doppelt so schnell ist wie die 4890 würde das bedeuten das du CF nur eine 50% Skalierung zutraust. Doch etwas sehr wenig.

Ja, beim HD4870X2-Launch war die HD4870X2 oftmals weit über 70% schneller als die HD4870. Aber mittlerweile hat sich das Bild schon geändert, da wir manchmal schon am Speicherlimit kratzen.
Auch unterscheidet sich der Performancegewinn, je nach Software. Von 40% bis zu 70% ist imo alles dabei, aber im Schnitt sehen wir eher 50 bis 60%.

Wenn kein CPU-Limit vorliegt natürlich.

Die HD4870 schafft es kaum sich mehr als 100% vor der HD3870 abzusetzen.

G(T)300 ist 4:1, nicht 2:1. Schon GT200 war 3:1.

Wenn man die Texturleistung dadurch stark steigern kann, ist es mir egal wie das Ding aussieht.


mfg Nakai

reunion
2009-08-20, 13:48:15
Bei RV870 (das was du mit AMD gleichsetzt) wurde schon viel spekuliert.

80TMUs halte ich für Schwachsinn. Warum sollte AMD dies tun? Antworte.
Bisher hieß es, die Shaderleistung steige stärker, jetzt nicht mehr? AMD kann auch schlecht damit werben, sonst gestehen sie die alte Schwäche ein, bzw Nvidias Stärke.
Auch macht es keinen Sinn, weil sie bisher somit unbeheligt Transistoren sparen konnten.
Ich glaube nicht, das AMD aus Angst vor Codas Artikel seine Strategie ändert.


Ja dann warte ab. Aber hier etwas als Tatsache in den Raum zu stellen was deine persönliche Spekulation ist ist schon etwas dreist. AMD hat bei einem Interview in der PCGH erst kürzlich gesagt das hier noch viel zu machen ist, das würde man denke ich nicht tun wenn man nicht mit der nächsten Gen hier etwas verbessern würde.


Und, die FLOPs liegen auch nicht ewig entfernt. GT200 hatte sogar weniger. Kann man mal sehen, was man von den Zahlen halten kann.

Im Gegensatz zu den ALUs kann man bei einer bi-TMU wenig anders machen. Das lässt sich auch unter verschiedenen Generationen gut vergleichen was die Texelfüllrate betrifft.

reunion
2009-08-20, 13:49:12
2 350mm² Chips sind groß.

Der Abdruck ist ca. 300mm² groß wenn der Kühler volle Breite hat.

LovesuckZ
2009-08-20, 13:49:37
Bin ich eigentlich der einzige, der sich wundert, wie der Begriff "Performance Chip" inflationär angewendet wird? 192 -> 256 -> 310(max. 360)mm^2 - alles Performance-Chips? :freak:
Lustig ist, dass AMD's angeblicher letzter "High-End" Chip zwischen ca. 20-40% großer war?

derguru
2009-08-20, 13:50:21
Die HD4870 schafft es kaum sich mehr als 100% vor der HD3870 abzusetzen.
mfg Nakai

der unterschied von 4870 zur 5870 wird auch größer ausfallen als bei der alten generation.

3870 zu 4870
rops identisch//tmus 16 zu 40

4870 zu 5870
rops verdoppelt//tmus verdoppelt

reunion
2009-08-20, 13:52:05
Bin ich eigentlich der einzige, der sich wundert, wie der Begriff "Performance Chip" inflationär angewendet wird? 192 -> 256 -> 310(max. 360)mm^2 - alles Performance-Chips? :freak:
Lustig ist, dass AMD's angeblicher letzter "High-End" Chip zwischen ca. 20-40% großer war?

Ja, du hast erkannt das die Die-Größe stets zunimmt.

R300: 218mm²

Selbst G92 war im übrigen schon bei ~330mm².

LovesuckZ
2009-08-20, 13:52:18
der unterschied von 4870 zur 5870 wird auch größer ausfallen als bei der alten generation.

Nunja - in welchem Bereich kommt es denn zu deutlich gesteigerter Leistung?

Ja, du hast erkannt das die Die-Größe stets zunimmt.

R300: 218mm²

War High-End.
R420 war 18xmm^2, nv40 war 240mm^2, G70 330mm^2, G80 480mm^2. Waren wohl alles vor dem G80 "Performancechips". :rolleyes:

Coda
2009-08-20, 13:52:29
Gegenfrage: Was spielt das für eine Rolle?

Namen sind Schall und Rauch, was nachher interessiert sind die Produkte.

Gast
2009-08-20, 13:54:13
Im Gegensatz zu den ALUs kann man bei einer bi-TMU wenig anders machen. Das lässt sich auch unter verschiedenen Generationen gut vergleichen was die Texelfüllrate betrifft.
Gut, was willst mir damit sagen?

1. GT300 ist TEX mäßig nicht so viel schneller als RV870
2. GT300 führt ein paar "unsichtbare Optimierungen", ala R600 AI-high ein.

BTW:
500mm²:300mm²
verhält sich wie
128TMUs:80TMUs
;)

Das sieht gut aus, relativer Gleichstand pro mm².

reunion
2009-08-20, 13:55:18
War High-End.
R420 war 18xmm^2, nv40 war 240mm^2, G70 330mm^2, G80 480mm^2. Waren wohl alles vor dem G80 "Performancechips". :rolleyes:

Du willst es nicht verstehen oder? Mit der Fertigungsmöglichkeiten steigen auch die Die Größen.

Gast
2009-08-20, 13:55:30
Selbst G92 war im übrigen schon bei ~330mm².
Bei einem derart neuen Prozess?

reunion
2009-08-20, 13:56:04
Gut, was willst mir damit sagen?

1. GT300 ist TEX mäßig nicht so viel schneller als RV870
2. GT300 führt ein paar "unsichtbare Optimierungen", ala R600 AI-high ein.

BTW:
500mm²:300mm²
verhält sich wie
128TMUs:80TMUs
;)

Das sieht gut aus, relativer Gleichstand pro mm².

1. will ich dir sagen. Was deiner Aussage wonach NV weiter bei der Texelfüllrate davonzieht widerspricht.

Ailuros
2009-08-20, 13:56:17
Der Abdruck ist ca. 300mm² groß wenn der Kühler volle Breite hat.

Wieviel TMUs nochmal unter angeblichen 300mm2? *grunz*

LovesuckZ
2009-08-20, 13:57:54
Du willst es nicht verstehen oder?

"Performancechip" ist nicht abhängig von der Die-Größe. r600 war 420mm^2 groß und somit nach dir dann auch kein High-End, weil der Abstand zwischen r600 und rv870 kleiner ist als zwischen rv870 und r670.

Gast
2009-08-20, 13:59:08
der unterschied von 4870 zur 5870 wird auch größer ausfallen als bei der alten generation.

3870 zu 4870
rops identisch//tmus 16 zu 40

4870 zu 5870
rops verdoppelt//tmus verdoppelt
Bandbreite, VRAM Menge und SPs hast du vorsichtshalber nicht aufgezählt. ;)

Bandbreite nimmt kaum zu, weil es beim GDDR5 bleibt.
VRAM Menge bleibt bei 1GiB stagnieren, vielleicht fällt 512MiB langsam unterm Tisch. 2GiB werden nicht kommen, obwohl sie teils sinnig wären.
SPs verdoppeln sich maximal.

reunion
2009-08-20, 14:00:06
"Performancechip" ist nicht abhängig von der Die-Größe. r600 war 420mm^2 groß und somit nach dir dann auch kein High-End, weil der Abstand zwischen r600 und rv870 kleiner ist als zwischen rv870 und r670.

Und weiter? Willst du dich jetzt wirklich um eine Begriffsdefinition streiten?

Gast
2009-08-20, 14:01:30
1. will ich dir sagen. Was deiner Aussage wonach NV weiter bei der Texelfüllrate davonzieht widerspricht.
Weil ich die angebliche 80 TMUs nicht glauben kann.

Erste Gerüchte sprachen von 48 TMUs, da bin ich vom Stuhl gefallen. Seltsam wie es hin und herspringt. Mal sehen ob die Karte am Ende feste Werte hat.

Ailuros
2009-08-20, 14:01:35
"Performancechip" ist nicht abhängig von der Die-Größe. r600 war 420mm^2 groß und somit nach dir dann auch kein High-End, weil der Abstand zwischen r600 und rv870 kleiner ist als zwischen rv870 und r670.

Was soll jetzt der Quatsch schon wieder? R600 war tatsaechlich 420mm2 gross aber unter 80nm im Gegensatz zu G80@90nm 484mm2.

reunion
2009-08-20, 14:05:37
Wieviel TMUs nochmal unter angeblichen 300mm2? *grunz*

Sag du es mir. Momentan gehe ich von 1600SPs/80TMus/32ROPs aus.

LovesuckZ
2009-08-20, 14:07:09
Und weiter? Willst du dich jetzt wirklich um eine Begriffsdefinition streiten?

Ja, denn nur weil du von Performancechip redet, macht es ihn nicht zu einem. Ansonsten haben wir bis auf ein paar Ausnahmen nur Performancechips gekauft. :rolleyes:

Ailuros
2009-08-20, 14:11:27
Sag du es mir. Momentan gehe ich von 1600SPs/80TMus/32ROPs aus.

Nochmal vom Anfang an: Juniper liefert angeblich P9500 in 3dfart Vantage ein score der grob zwischen 4850 und 4870 liegt. Cypress liefert aber angeblich mehr als 4870 X2 wobei aber Cypress erstmal garantiert nicht auf 750MHz getaktet ist.

crux2005
2009-08-20, 15:04:44
Imho kann man davon aber nicht die Anzahl der TMUs erraten.

Ailuros
2009-08-20, 15:08:16
Imho kann man davon aber nicht die Anzahl der TMUs erraten.

Bei einem relativ shader limitierten Test erratet man natuerlich keine Fuellraten; eher die Moeglichkeiten der ALU Anzahl welche dann aber wiederrum mit der Anzahl der TMUs verbunden ist.

LovesuckZ
2009-08-20, 15:09:37
Imho kann man davon aber nicht die Anzahl der TMUs erraten.

Wenn Cypress ein 2x Jupiter ist, dann denke ich, dass man mit 75% an Mehrtransistoren und Mehrfläche auskommen kann.
Jupiter soll die gleichen Daten haben wie ein rv770. 180mm^2x1,75 sind 315mm^2.

crux2005
2009-08-20, 15:10:11
Bei einem relativ shader limitierten Test erratet man natuerlich keine Fuellraten; eher die Moeglichkeiten der ALU Anzahl welche dann aber wiederrum mit der Anzahl der TMUs verbunden ist.

Ist der Vantage im Performance preset wirklich so shader-limitiert? (Ehrliche Frage). Ich denke nicht...

Ailuros
2009-08-20, 15:11:12
Haarspalterei-Modus: Juniper

Ailuros
2009-08-20, 15:16:43
Ist der Vantage im Performance preset wirklich so shader-limitiert? (Ehrliche Frage). Ich denke nicht...

Fuellraten-limitiert ist es auf jeden Fall nicht LOL ;)

http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_ati_radeon_hd_4890_nvidia_geforce_gtx_275/8/#abschnitt_3dmark_vantage

Schau Dir mal alle scores genau an und vergleiche erstmal die GTX275 mit der GTX280 oder GTX285.

mapel110
2009-08-20, 15:26:18
Fuellraten-limitiert ist es auf jeden Fall nicht LOL ;)

http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_ati_radeon_hd_4890_nvidia_geforce_gtx_275/8/#abschnitt_3dmark_vantage

Schau Dir mal alle scores genau an und vergleiche erstmal die GTX275 mit der GTX280 oder GTX285.
Was soll der Link belegen? Dass der 185er Treiber schneller ist als der 181er Treiber?

Ailuros
2009-08-20, 15:32:09
Was soll der Link belegen? Dass der 185er Treiber schneller ist als der 181er Treiber?

Er fragte mich eine Frage und ich habe versucht sie zu beantworten. Aber wenn's schon sein muss: http://www.computerbase.de/artikel/hardware/grafikkarten/2009/bericht_nvidia_geforce_18585/3/#abschnitt_3dmark_vantage

crux2005
2009-08-20, 15:36:03
Ich denke aber das auch die ROPs eine (nicht kleine) Rolle bei Vantage spielen. Gerade beim Vergleich GF 8800 GTX, 9800 GTX konnte man es recht gut sehen.
OK, im P-preset wohl nicht.

reunion
2009-08-20, 16:46:33
Ja, denn nur weil du von Performancechip redet, macht es ihn nicht zu einem. Ansonsten haben wir bis auf ein paar Ausnahmen nur Performancechips gekauft. :rolleyes:

Nein, genau deshalb habe ich das Beispiel mit R300 gebraucht, die Die-Größe steigt durch die Fortschritte bei der Fertigung kontinuierlich. Aktuell sind die Positionen klar bezogen, und RV870 ist sowohl was die Herstellungskosten als auch den Verkaufspreis betreffen wird klar als Performacechip konzipiert. AMD spricht ja selbst von einem Performancechip. Aber du willst es ohnehin nicht verstehen, daher EOD.

master_blaster
2009-08-20, 17:14:46
Ich platze mal einfach rein: Bleibt's bei einem Release im Q4 09?

LovesuckZ
2009-08-20, 17:15:53
Ich will es nicht verstehen? Das bedauerlichste ist eigentlich, dass du nur anscheinend das akzeptierst, dass AMD sagt. "AMD spricht ja selbst..." soll das die Wirklichkeit sein? Der rv670 war 192mm^2 groß. Der rv870 wohl um die 315mm^2. Der Abstand zwischen rv870 und rv670 ist deutlich größer als zwischen r600 und rv870 - nämlich 33% zu 64%. Selbst der Abstand zwischen G80 und rv870 ist geringer. Die Die-Größe wächst? Das ist toll - dann war nie ein Chip High-End. :rolleyes:
Der G71 wurde für 400-500€ verkauft und wird in der Herstellung billiger sein als ein rv870. Wie kann also etwas, das teurer zu produzieren ist, geringer einzustufen sein als ein billiger herzustellender Chip? Aber wahrscheinlich war der G71 wohl auch kein High-End.

Gast
2009-08-20, 17:23:42
Ich platze mal einfach rein: Bleibt's bei einem Release im Q4 09?
Nein Q1/10 verfügbar

pervert
2009-08-20, 17:32:07
Wer sagt das?

reunion
2009-08-20, 17:33:32
Ich will es nicht verstehen? Das bedauerlichste ist eigentlich, dass du nur anscheinend das akzeptierst, dass AMD sagt. "AMD spricht ja selbst..." soll das die Wirklichkeit sein? Der rv670 war 192mm^2 groß. Der rv870 wohl um die 315mm^2. Der Abstand zwischen rv870 und rv670 ist deutlich größer als zwischen r600 und rv870 - nämlich 33% zu 64%. Selbst der Abstand zwischen G80 und rv870 ist geringer. Die Die-Größe wächst? Das ist toll - dann war nie ein Chip High-End. :rolleyes:
Der G71 wurde für 400-500€ verkauft und wird in der Herstellung billiger sein als ein rv870, der nichtmal annährend soviel kosten wird. Wie kann also etwas, das teurer zu produzieren ist geringer einzustufen sein als ein billiger herzustellender Chip? Aber wahrscheinlich war der G71 wohl auch kein High-End.


Oh, ich vergaß, der werte Herr LovesuckZ weiß das natürlich besser als die Firma welche den Chip selbst designt und konzipiert. Unglaublich. Aber okay, wenn du das sagt, RV870 ist ein High-End-Chip. Du musst einfach recht haben. Völlig egal dass das jeder anders sieht und das selbst im Codenamen ein "V" für Value drin steckt und das selbige Karten sich natürlich auch preismäßig im Performancesegment einordnen werden. Aber wenn der werte Herr LovesuckZ warum auch immer meint RV870 ist ein High-End-Chip dann muss das einfach stimmen.

Und warum du dich jetzt an der Die-Größe, welche im übrigen noch nicht mal feststeht aufhängst weiß ich auch nicht. Aber okay, irgend einem Mist findet man immer. Aber zu deiner Information, G92 war 330mm² groß und auch ein Performancechip im entsprechendem Preissegment, RV790 war mit fast 290mm² auch kaum kleiner. Aber was solls. Du siehst halt immer nur das was du sehen willst. RV670 war ein R600 Shrink mit kleineren Optimierungen und nur deshalb so klein. Bei G71 sieht es ähnlich aus. Da kam ja dann auch nicht ohne Grund eine GX2.

LovesuckZ
2009-08-20, 17:45:01
Oh, ich vergaß, der werte Herr LovesuckZ weiß das natürlich besser als die Firma welche den Chip selbst designt und konzipiert. Unglaublich. Aber okay, wenn du das sagt, RV870 ist ein High-End-Chip. Du musst einfach recht haben. Völlig egal dass das jeder anders sieht und das selbst im Codenamen ein "V" für Value drin steckt und das selbige Karten sich natürlich auch preismäßig im Performancesegment einordnen werden. Aber wenn der werte Herr LovesuckZ warum auch immer meint RV870 ist ein High-End-Chip dann muss das einfach stimmen.

Im r5xx war kein V - und trotzdem waren sie um die 300mm^2 groß. Wie kann also 300mm^2 vor 3-4 Jahren High-End gewesen sein und heute ist es plötzlich ein "Performancechip". :eek:
AMD sprach beim rv670, dass man sich auf kleine Chips konzentrieren wolle. Sie haben nur einen einzigen Chip, der größer als 315mm^2 war - dem r600. Wie eventuelle 315mm^2 eines rv870 nun plötzlich als "klein" betitelt werden kann, ist ziemlich schleierhaft, wenn bei einem gleichgroßen(!) r580 z.B von pretty big chip (http://www.pcper.com/article.php?aid=202&type=expert) gesprochen wurde.


Und warum du dich jetzt an der Die-Größe, welche im übrigen noch nicht mal feststeht aufhängst spricht Bände. Aber okay, irgend einem Mist findet man immer. Aber zu deiner Information, G92 war 330mm² groß und auch ein Performancechip im entsprechendem Preissegment, RV790 war mit fast 290mm² auch kaum kleiner. Aber was solls. Du siehst halt immer nur das was du sehen willst. RV670 war ein R600 Shrink mit kleineren Optimierungen und nur deshalb so klein. Bei G71 sieht es ähnlich aus. Da kam ja dann auch nicht ohne Grund eine GX2.

Komisch, nVidia macht auch eine GX2 aus 480mm^2 - irgendwie absurd, wenn man dies nur mit "Performancechips" machen würde. ;D
Deiner - ziemlich komischen - Argumentation folgend, wäre ein GT200(b) natürlich auch ein Performancechip. Der wird im "entsprechenden Preissegment" verkauft. Du hast recht - ob ein Chip High-End ist, definiert sich natürlich nicht an den Herstellungskosten, sondern am Verkaufspreis. :freak:

reunion
2009-08-20, 18:02:44
Im r5xx war kein V - und trotzdem waren sie um die 300mm^2 groß. Wie kann also 300mm^2 vor 3-4 Jahren High-End gewesen sein und heute ist es plötzlich ein "Performancechip". :eek:
AMD sprach beim rv670, dass man sich auf kleine Chips konzentrieren wolle. Sie haben nur einen einzigen Chip, der größer als 315mm^2 war - dem r600. Wie eventuelle 315mm^2 eines rv870 nun plötzlich als "klein" betitelt werden kann, ist ziemlich schleierhaft, wenn bei einem gleichgroßen(!) r580 z.B von pretty big chip (http://www.pcper.com/article.php?aid=202&type=expert) gesprochen wurde.

Ja, du hast es tatsächlich verstanden. Vor 4 Jahren waren die 358mm² eines R580 High-End. Noch ein paar Jahre früher waren sogar die 218mm² eines R300 absolutes High-End. Mehr ließ die Fertigung nicht zu. Heute sind wir da weiter (technischer Fortschritt und so - vielleicht hast du ja davon schon mal gehört). Im High-End sind offensichtlich selbst Chips mit 500mm² machbar wie NV zeigt. AMD hat sich entschlossen darauf zu verzichten und nur noch bis ins Performancesegment vorzudringen. Ich habe RV870 im übrigen nirgends als klein betitelt, es ist eben ein Performancechip, wie G92, wie RV770/790. Klar kleiner (kleiner bedeutet übrigens nicht klein) als der High-End-Chip der Konkurrenz GT300.


Komisch, nVidia macht auch eine GX2 aus 480mm^2 - irgendwie absurd, wenn man dies nur mit "Performancechips" machen würde. ;D
Deiner - ziemlich komischen - Argumentation folgend, wäre ein GT200(b) natürlich auch ein Performancechip. Der wird im "entsprechenden Preissegment" verkauft. Du hast recht - ob ein Chip High-End ist, definiert sich natürlich nicht an den Herstellungskosten, sondern am Verkaufspreis. :freak:

GT200 wurde als High-End-Chip konzipiert, war aber dann schlicht zu langsam um solche Preise zu rechtfertigen. Auch das soll es geben. Er wurde zu beginn auch entsprechend hochpreisig verkauft.

Nakai
2009-08-20, 18:13:16
;D;D;D

Mal im Ernst. Im welchen Segment eine Karte liegt, entscheidet ja auf jeden Fall der Preis. Da kann der Chip meinetwegen 1000mm² oder nur 25mm² groß sein.

Das wär ja das gleiche, wenn ich die länge des PCBs vergleiche oder wenn ich die Anzahl der Kondensatoren, Widerstände oder der Spawas zähle. Die Leistungen der Karte rechtfertigen den Preis. Wenn der Preis durch die Kosten der Karte nicht eingehalten werden kann, dann ist die Karte einfach nur "fail"...


mfg Nakai

LovesuckZ
2009-08-20, 18:27:07
Ja, du hast es tatsächlich verstanden. Vor 4 Jahren waren die 358mm² eines R580 High-End. Noch ein paar Jahre früher waren sogar die 218mm² eines R300 absolutes High-End. Mehr ließ die Fertigung nicht zu. Heute sind wir da weiter (technischer Fortschritt und so - vielleicht hast du ja davon schon mal gehört). Im High-End sind offensichtlich selbst Chips mit 500mm² machbar wie NV zeigt. AMD hat sich entschlossen darauf zu verzichten und nur noch bis ins Performancesegment vorzudringen. Ich habe RV870 im übrigen nirgends als klein betitelt, es ist eben ein Performancechip, wie G92, wie RV770/790. Klar kleiner (kleiner bedeutet übrigens nicht klein) als der High-End-Chip der Konkurrenz GT300.

Schon wieder "Performancesegment". nVidia verkauft 480mm^2 auch im Performancesegment. Also scheint es garkein High-End mehr zu geben. ;D
Technischer Fortschritt ist kein Argument, dass eine bestimmte Größe plötzlich vom High-End wegrutscht. Die Kosten der Fertigung bleibt natürlich erhalten. 192mm^2 eines rv670 sind wohl kaum teurer gewesen als 315mm^2 auf 40nm. Warum zweitens ein Performancechip wie erster wäre, ist dabei ziemlich irritierend.
Vielleicht errinnerst du dich noch: nVidia hat 19xmm^2 in 90nm als High-End verkauft - trotzdem fast die zweifache Größe erreichbar war. Komisch, wie passt also deine Argumentation zusammen?


GT200 wurde als High-End-Chip konzipiert, war aber dann schlicht zu langsam um solche Preise zu rechtfertigen. Auch das soll es geben. Er wurde zu beginn auch entsprechend hochpreisig verkauft.

So, man kann also einen "High-End-Chip" plötzlich als "Performancechip" vermarkten. Das ist eine sehr interessante Theorie: geht das auch umgekehrt? ;D

mictasm
2009-08-20, 18:49:36
Könnt ihr bitte damit aufhören und ein Mod das mal überarbeiten/entsorgen?

Gast
2009-08-20, 18:57:05
Es sind wohl gerade Schulferien oder die Jungs haben Urlaub :D

LovesuckZ
2009-08-20, 19:00:05
Könnt ihr bitte damit aufhören und ein Mod das mal überarbeiten/entsorgen?

Das ist doch Ontopic - denn ich bin klar der Meinung, dass der GT300 ein Performancechip ist und man ihn auch für unter 299$ kaufen kann.

mictasm
2009-08-20, 19:13:56
Es führt nur zu nichts und bringt keinerlei neue Informationen in diesen Thread. Ich freue mich über jeden neuen Beitrag in diesem Thread und klicke in freudiger Erwartung. Wenn dann nur seitenlang eine Definitionsdiskussion geführt wird zwischen "bekannten Usern", dann ist das unbefriedigend und nervig...

Ailuros
2009-08-20, 21:32:32
Könnt ihr bitte damit aufhören und ein Mod das mal überarbeiten/entsorgen?

Da ich anscheinend nicht der einige bin den die vorige Debatte stoert, werden die geehrten Herren reunion und Lovesuck hoeflichst gebeten ihre Debatte privat weiterzufuehren.

Merci bien :)

reunion
2009-08-20, 22:10:50
Schon wieder "Performancesegment". nVidia verkauft 480mm^2 auch im Performancesegment. Also scheint es garkein High-End mehr zu geben. ;D
Technischer Fortschritt ist kein Argument, dass eine bestimmte Größe plötzlich vom High-End wegrutscht. Die Kosten der Fertigung bleibt natürlich erhalten. 192mm^2 eines rv670 sind wohl kaum teurer gewesen als 315mm^2 auf 40nm. Warum zweitens ein Performancechip wie erster wäre, ist dabei ziemlich irritierend.
Vielleicht errinnerst du dich noch: nVidia hat 19xmm^2 in 90nm als High-End verkauft - trotzdem fast die zweifache Größe erreichbar war. Komisch, wie passt also deine Argumentation zusammen?


Technischer Fortschritt ist kein Argument. Nagut, dann sind deine ohnehin nicht vorhandenen Argumente auch kein Argument. Schade das du jetzt wieder alles ins lächerliche ziehst wo du offensichtlich im Unrecht bist. Die Kosten für die Fertigung sinken natürlich auch.


So, man kann also einen "High-End-Chip" plötzlich als "Performancechip" vermarkten. Das ist eine sehr interessante Theorie: geht das auch umgekehrt? ;D

Sorry, aber eine solche Antwort ist wirklich eine Frechheit. Das zeigt mir einmal mehr das du nicht an einer ernsthaften Diskussion interessiert bist.

/Edit: Habe die Bitte von Ail erst jetzt gesehen, war damit mein letzter Beitrag zu dem Thema. :)

Gast
2009-08-21, 00:01:38
Nur so nebenbei, Ende 2006 waren 500mm² High-End. Wo bleibt da der Fortschritt, wenn das heute immer noch gilt? ;)100

Gaestle
2009-08-21, 10:17:23
Es ist irgendwie offensichtlich, dass ATI diese Runde ziemlich wahrscheinlich verliert. Wenn ATI eine knappe Performanceverdopplung schafft, wird wohl NV mit mehr als doppelter Leistung zuschlagen. NV könnte damit die HD5870X2 zerlegen.

Wenn man das nur auf die Balkenlänge bezieht, hast Du zwar wahrschinlich bezogen auf Karten mit gleicher Chipanzahl Recht, aber genau sowas hat ATi AFAIR vor einiger Zeit angekündigt und bereits mit RV670 und RV770 realisiert. Ob ein einzelner Chip einen längeren Balken erzeugen kann, als zwei Chips, da wäre ich mir nicht so sicher.

Mal sehen, was um die Balkenlänge drumherum in Sachen Qualität passiert ist und wie das Preis/Leistungsverhältnis ist. Über tatsächlich relevante "Siege und Niederlagen" entscheiden wahrscheinlich eher verkaufte Einheiten und Margen.

Ailuros
2009-08-21, 11:16:13
Nochmal die Chancen dass D12U um so viel schneller werden wird als Cypress wie manche denken sind fuer mich mehr als gering und das natuerlich nur gefuehlsmaessig.

Wie ich schonmal erwaehnte reicht es fuer mich persoenlich wenn D12U um die 40% schneller ankommt als Cyrpress, denn somit kann NVIDIA auch ihre single chip high end Strategie auch gerechtfertigen.

Nakai,

Manchmal helfen selbst hypothetische Zahlen etwas mehr; angenommen RV870 erreicht in Spiel X mit settings Y runde 60 fps im Durchschnitt.

Cypress RV870 = 60 fps
Hemlock RV870 X2 = 110 fps

Damit D12U jetzt gleich schnell ist als die X2 oben muesste sie um die 80% schneller sein als RV870.

Ueberverrrueckte These D12U zerstoert tatsaechlich die X2 dann zumindest 125 fps fuer die erste und das waere ueber 2x Mal die Leistung einer RV870.

NICHT MOEGLICH.

NVIDIA koennte jubeln wenn sie in diesem rein hypothetischen Fall 80+ fps erreichen koennen; wenn sie jetzt noch selber ein dual chip Monstrum auf den Markt werfen waeren es dann mit der Logik um die 150fps und damit ist dann natuerlich auch wirklich ein Hemlock vernichtet. Natuerlich aber auch fuer einen um einiges pfiffigeren Preis.

Nakai
2009-08-21, 12:43:13
Ueberverrrueckte These D12U zerstoert tatsaechlich die X2 dann zumindest 125 fps fuer die erste und das waere ueber 2x Mal die Leistung einer RV870.

Ich hab mich nicht nirekt auf die Performance bezogen.

Cypress RV870 = 60 fps
Hemlock RV870 X2 = 110 fps


Wenn nun NV tatsächlich 80fps+ oder eher 90fps schafft, dann hat NV einige unscheinbare Vorteile. Es sind eigentlich die Nachteile von CF. Es skaliert nicht immer so gut. Und dann gibt es noch das MR-Problem. Ich weiß nicht, wie du das siehst. Wenn ATI die ganzen MGPU-Probleme wegbekommt, was ich nicht glaube, dann kann man sich, wie beim RV770, gegen NV nochmal behaupten.

Mir gehts darum, wenn GT300 einen bestimmten Performancebereich erreicht, dass ATI hier nicht mehr von Überlegenheit, vor allem wegen MGPU, sprechen kann. Man hat zwar die längeren Balken und die schnellere Karte, aber auf längerer Sicht hat man die schlechtere Basis. ATI muss dann im 2ten oder 3ten Quartal einen relativ starken Refresh bringen.

Mal sehen, was um die Balkenlänge drumherum in Sachen Qualität passiert ist und wie das Preis/Leistungsverhältnis ist. Über tatsächlich relevante "Siege und Niederlagen" entscheiden wahrscheinlich eher verkaufte Einheiten und Margen.

Wenn der GT300 75% des Hemlock erreicht, dann wäre es lohnenswerter den GT300 zu kaufen.



mfg Nakai

Gast
2009-08-21, 12:58:58
Wenn der GT300 75% des Hemlock erreicht, dann wäre es lohnenswerter den GT300 zu kaufen.

Nur werden die Grafikkarten bei Computerbase & Co verkauft, nicht anhand differenzierter Betrachtungen in Geek-Foren. Balken und Marketing dürften reichen, so lange die Skalierung stimmt und die Balken keine zu großen Ausreißer zeigen. Die frühzeitigen Gerüchte über eine Dual-Chip-Variante von GT300 unterstreichen das, es geht um die Balkenkrone, nicht um die Leistungskrone.

nagus
2009-08-21, 13:15:46
Selbst wenn nv den rv870 um 40, 50, 60% oder was auch immer schlagen kann... Die alles entscheidende frage ist doch wohl WANN??? 2009 tuts sicher amd noch weh... Aber wenn g300 erst irgendwann 2010 erscheint, hat amd vielleicht schon die antwort darauf ;)

Coda
2009-08-21, 13:32:04
Klar, die schütteln Chips nämlich aus dem Hemdärmel und kochen nicht mit Wasser :rolleyes:

Nur mal um den Vergleich mit der Vergangenheit zu wagen: Wie lange hatte AMD nochmal genau keine wirkliche Antwort auf die G80-Architektur?

Es entscheidet sich bei der D3D11-Generation sicher nichts wegen 1-2 Monaten Verspätung. Das Design hat dazu viel zu weitreichende Folgen.

Ailuros
2009-08-21, 14:49:35
Wenn nun NV tatsächlich 80fps+ oder eher 90fps schafft, dann hat NV einige unscheinbare Vorteile. Es sind eigentlich die Nachteile von CF. Es skaliert nicht immer so gut. Und dann gibt es noch das MR-Problem. Ich weiß nicht, wie du das siehst. Wenn ATI die ganzen MGPU-Probleme wegbekommt, was ich nicht glaube, dann kann man sich, wie beim RV770, gegen NV nochmal behaupten.

Mir gehts darum, wenn GT300 einen bestimmten Performancebereich erreicht, dass ATI hier nicht mehr von Überlegenheit, vor allem wegen MGPU, sprechen kann. Man hat zwar die längeren Balken und die schnellere Karte, aber auf längerer Sicht hat man die schlechtere Basis. ATI muss dann im 2ten oder 3ten Quartal einen relativ starken Refresh bringen.

Wenn der GT300 75% des Hemlock erreicht, dann wäre es lohnenswerter den GT300 zu kaufen.

mfg Nakai

Ist ja alles schoen und gut, aber warum soll NVIDIA dann in diesem Fall schon jetzt nach Geruechten an eine dual chip/single SKU D12U denken?

Ailuros
2009-08-21, 14:52:32
Selbst wenn nv den rv870 um 40, 50, 60% oder was auch immer schlagen kann... Die alles entscheidende frage ist doch wohl WANN??? 2009 tuts sicher amd noch weh... Aber wenn g300 erst irgendwann 2010 erscheint, hat amd vielleicht schon die antwort darauf ;)

Das dumme mit Dir ist dass Du wenn es zu AMD kommt immer uebertrieben optimistisch bist und wenn es zu NVIDIA kommt immer uebertrieben pessimistisch. Ich lege meine Hand noch nicht ins Feuer wann D12U erscheinen wird; aber wenn Du Deine ins Feuer legen willst dass es nicht mehr innerhalb 2009 kommen wird, bezahle ich Dir aber auch keine Entschaedungen dafuer. Also soll ich's Feuerle anmachen? :D

Nakai
2009-08-21, 15:20:35
Nur werden die Grafikkarten bei Computerbase & Co verkauft, nicht anhand differenzierter Betrachtungen in Geek-Foren. Balken und Marketing dürften reichen, so lange die Skalierung stimmt und die Balken keine zu großen Ausreißer zeigen. Die frühzeitigen Gerüchte über eine Dual-Chip-Variante von GT300 unterstreichen das, es geht um die Balkenkrone, nicht um die Leistungskrone.

Es ist doch ganz einfach. Wenn ATI nicht mindestens den Abstand zur GT300 wie beim GT200 beibehält, dann wird eine theoretische Dualkarte von NV den Boden mit ATi aufwischen.
Der RV870 wird niemals so schnell wie der GT300, jedenfalls kann ich mir das nicht vorstellen. Wenn die HighSKU vom GT300 weniger als 40% vor dem RV870, dann haben wir wieder den RV770-Fall. Das will NV nicht. Wenn der GT300 deutlich schneller wird, als der RV870, dann wird eine Dualkarte von NV mit 2*GT300 den R800 in jeglicher Hinsicht vernichten. Das einzige Problem ist, dass eine Karte mit 2*GT300 nicht so bald kommt. Tatsächlich könnte AMD/ATI so eine Karte mit einem Refreshchip kontern, aber was weiß ich wann die kommt.

Ist ja alles schoen und gut, aber warum soll NVIDIA dann in diesem Fall schon jetzt nach Geruechten an eine dual chip/single SKU D12U denken?

Wenn ein DualGT300 kommt, dann wäre ATI wohl ziemlich deklassiert, jedenfalls in einigen Marktteilen.


mfg Nakai

LovesuckZ
2009-08-21, 15:23:58
AMD's Refresh wird - wenn er im jahr 2010 kommen sollten, ebenfalls auf 40nm basieren und somit nochmal größer werden. Ihnen bleibt keine Wahl zu hoffen, dass nVidia mit dem G(T)300 keine Dual-Chip Variante bringt.

Gast
2009-08-21, 15:32:24
Es ist doch ganz einfach. Wenn ATI nicht mindestens den Abstand zur GT300 wie beim GT200 beibehält, dann wird eine theoretische Dualkarte von NV den Boden mit ATi aufwischen.110% sind mehr als 90%.

Bei CB und co juckt es keine Sau ob die 110% nur in ausgewählten Flybys anzutreffen sind.
Genausowenig juckt es, ob eins CF ist, mit all den µRucklern, Skalierungsproblemen, warten auf Treiber und und...

Wichtig ist Preis/Balken, nicht Preis/Leistung.


Wenn AMDs X2 schneller ist, dann hat AMD einen Vorteil. Eine SLI GT300 ist möglich, wird aber kaum zum Release da sein.
Die einzige Hoffnung angesichts der Balkendummheit ist, das AMD der X2 wieder nur 1GiB spendiert, während Nvidia mehr bietet, somit könnte die X2 bei einigen Balken nicht so gut dastehen.

Nakai
2009-08-21, 15:43:46
AMD's Refresh wird - wenn er im jahr 2010 kommen sollten, ebenfalls auf 40nm basieren und somit nochmal größer werden. Ihnen bleibt keine Wahl zu hoffen, dass nVidia mit dem G(T)300 keine Dual-Chip Variante bringt.

Wer sagt denn, dass der Prozess und die Technologie auf dem jetzigen Stand bei der 40nm-Fertigung stehenbleibt(siehe RV770)?
Natürlich wird NV einen DualGT300 bringen. Die Frage ist aber eher, wann diese Karte kommt. Kommt sie früher, dann muss ATI bis zum Refresh bangen. Kommts sie später, dann fällt die DualGT300 näher an einen theoretischen RV880.

Bei CB und co juckt es keine Sau ob die 110% nur in ausgewählten Flybys anzutreffen sind.
Genausowenig juckt es, ob eins CF ist, mit all den µRucklern, Skalierungsproblemen, warten auf Treiber und und...

Das ist schade, ja.

Es ist doch eh nur ein spekulieren. Wenn der GT300 überaus stark wird, wird AMD das im H1 2010 spätestens zu spüren bekommen. Ansonsten wird es vorläufig die gleiche Situation wie jetzt sein.


mfg Nakai

Gast
2009-08-21, 15:53:30
Nur gut, das alle D3D10 Karten absofort niht mehr verkauft werden. :rolleyes:
Würden die bewussten Entscheidungen wirklich eine relevante Rolle bei den Absatzzahlen bedeuten, dann müssten bei einem Paperlaunch die vorhandenen Produkte tatsächlich wie Blei in den Regalen liegen und sich überhaupt nicht mehr verkaufen. Die werden aber munter in Fertigkisten weiterverschoben, Mediamarkt wird DX11 nicht in den Flyer drucken, bevor man Masse liefern kann.

Ob GT300 ein paar Monate nach RV870 kommt ist vermutlich egal, viel interessanter dürfte sein, wann die Performance-Ableger verfügbar sind und hier erweckt AMD fleißig den Anschein, dass man gleich mit einer kompletten Produktlinie loslegen kann. Wir werden sehen, große Sprüche klopfen kann erstmal jeder. Hunde die bellen, beißen oft nicht.

reunion
2009-08-21, 16:11:50
Der RV870 wird niemals so schnell wie der GT300, jedenfalls kann ich mir das nicht vorstellen.

Du scheinst nicht zu verstehen was das Ziel von RV870 ist. Wenn RV870 GT300 schlagen würde könnte NV gleich kapitulieren. GT300 wird die doppelte Speicherbandbreite haben und wenn die Packdichte ähnlich ist ca. 70% mehr Transistoren. Wie bitte soll da RV870 es mit GT300 aufnehmen? Warum werden die zwei Chips überhaupt verglichen? RV870 wird im Preisbereich $200-$300 verkauft, GT300 wenn er nicht wie GT200 zu langsam wird im Preisbereich $400-600. Interessant für RV870 wird NVs DX11 Performance-Chip, nicht GT300, denn diese beiden Chips bedienen unterschiedliche Märkte.

LovesuckZ
2009-08-21, 16:31:42
Was ist denn das Ziel vom rv870? :confused:

Die selben Aussagen gab es schon vor einem Jahr - wir wissen ja, wer dauernd den Preis seines 299$ Chips gesenkt hat.

Gaestle
2009-08-21, 16:36:50
@LS:
AFAIR ein richtig gutes Preis-Balkenlängenverhältnis und nicht die Balkenlängen-Krone. So wie mit RV670 und RV770 vorgemacht.





Mal sehen, was um die Balkenlänge drumherum in Sachen Qualität passiert ist und wie das Preis/Leistungsverhältnis ist. Über tatsächlich relevante "Siege und Niederlagen" entscheiden wahrscheinlich eher verkaufte Einheiten und Margen.


Wenn der GT300 75% des Hemlock erreicht, dann wäre es lohnenswerter den GT300 zu kaufen.



Ich denke, das ist erst dann zu entscheiden, wenn klar ist, wie die Preise und das Gesamtpaket aussehen. RV770 hat sich auch super verkauft, auch wenn er i.d.R. weniger Balkenlänge produzierte als eine 280/285GTX.



Die selben Aussagen gab es schon vor einem Jahr - wir wissen ja, wer dauernd den Preis seines 299$ Chips gesenkt hat.

Und was spricht daran jetzt gegen die Preis-Balkenlängen-Aussage?

reunion
2009-08-21, 16:41:03
Was ist denn das Ziel vom rv870? :confused:


Das habe ich schon oft genug geschrieben. Und auf die 88698698ste Diskussion mit dir darüber habe ich nun wirklich keine Lust mehr.


Die selben Aussagen gab es schon vor einem Jahr - wir wissen ja, wer dauernd den Preis seines 299$ Chips gesenkt hat.

Wir wissen auch wer dauernd den Preis seines $649 Chips gesenkt hat um mit dem $299 Chip zu konkurrieren. Hoffentlich hat man diesmal daraus gelernt.

Gast
2009-08-21, 16:42:59
@LS:
AFAIR ein richtig gutes Preis-Balkenlängenverhältnis und nicht die Balkenlängen-Krone. So wie mit RV670 und RV770 vorgemacht.

Was habe ich als Käufer vom Preis/Balkenverhältnis? Soll ich mir einen rubeln?

300$ soll RV870 XT kosten, das ist jedenfalls keine Mittelklasse mehr.

nagus
2009-08-21, 16:43:02
...
Der RV870 wird niemals so schnell wie der GT300, jedenfalls kann ich mir das nicht vorstellen. ...

an NV30 vs Radeon 9700 kannst du dich aber schon erinnern, oder?

ob man sich was vorstellen kann oder nicht muss nicht heißen, dass es dann trotzdem so oder anders kommen kann.

... aber rein gefühlsmäßig (1. mal 40nm fertigungsprozess, RIESIGER chip, 1. mal GDDR5 mit 512 bit, 1x DX11... ) könnte ich mir vorstellen, dass nicht alles so läuft wie sich das manche leute wünschen.

nach den bisher bekannten "geschichten" würde ein neutraler beobachter vielleicht auch sagen... AMD ist diesmal in einer besseren ausgangsposition als NV (die haben schon erfahrungen gesammelt mit 512bit, mit gddr5, sind DX11 mit DX10.1 näher als NV, 40nm prozess hamse auch schon seit einem halben jahr am laufen...)

LovesuckZ
2009-08-21, 16:45:37
@LS:
AFAIR ein richtig gutes Preis-Balkenlängenverhältnis und nicht die Balkenlängen-Krone. So wie mit RV670 und RV770 vorgemacht.

Aber hat man dann das Ziel nicht erreicht, weil man die Preise innerhalb von kürzester Zeit dauernd senken musste?
Es ist doch sehr naiv ein Ziel auszusprechen, ohne die Konkurrenz zu betrachten.


Ich denke, das ist erst dann zu entscheiden, wenn klar ist, wie die Preise und das Gesamtpaket aussehen. RV770 hat sich auch super verkauft, auch wenn er i.d.R. weniger Balkenlänge produzierte als eine 280/285GTX.

RV770 verkaufte sich deswegen gut, weil sie billiger waren. Als nVidia gleichgezogen und sie unterboten hat, sind die Verkäufe drastisch eingebrochen. Ich glaube nicht, dass der längere Balken wichtig ist, sondern dass man einfach (deutlich) billiger ist.

reunion
2009-08-21, 16:45:47
Was habe ich als Käufer vom Preis/Balkenverhältnis? Soll ich mir einen rubeln?

Na wirklich eine unglaublich fundierte Frage. Was habe ich überhaupt von einer Grafikkarte?


300$ soll RV870 XT kosten, das ist jedenfalls keine Mittelklasse mehr.

Nein, es ist das Performancesegment.

Gast
2009-08-21, 16:48:40
Na wirklich eine unglaublich fundierte Frage. Was habe ich überhaupt von einer Grafikkarte?

Grafik.
Von Balken/Preis habe ich einen scheiss Dreck.

Information angekommen? spielbareOptik/Preis ist eine viel interessantere Frage. Damit schlägt man so ziemlich viele Fragen mit einer Klappe, statt nutzlose Diagramme zu bestaunen.

Gaestle
2009-08-21, 16:52:16
Ich glaube beides ist für den Erfolg eines Chips wichtig, Balken und Preis, bzw. das Verhältnis zwischen beidem. RV770 hatte weniger Balken, kostete aber auch weniger. Wenn es nur um den Preis gehen würde, hätten alle Leute IGPs.

Ein Preis-Balkenverhältnis ist ohne Konkurrenz IMHO gar nicht denkbar, weil ohne Konkurrenz überhaupt nicht klar ist, wieviel der Balken wert ist. Deswegen versteht es sich für mich von selbst, dass man beim Preis-Balken-Verhältnis das Angebot der Konkurrenz implizit mitdenkt. Und deswegen ändert die Preisschlacht IMHO nichts an meiner Aussage.

Und wenn der werte Gast nicht in der Lage ist zu erkennen warum ich (und andere) nicht von Leistung, sondern explizit von Balken rede(n), soll er sich einfach in das nächste Paralleluniversum kicken, anstatt hier den Checker zu spielen...

reunion
2009-08-21, 16:52:20
Eine GTX 260 896 hat jedenfalls keine 649$ gekostet. Nie und nimmer.
Dein Post ist somit wertlos.

Es ist offensichtlich worauf ich hinaus wollte. Ein $649 Chip übt jedenfalls gehörig Druck aus wenn es plötzlich um die Hälfte verkauft wird. Bei einem $449 Chip ebenso. Aber da du das ohnehin nicht hören willst haben wir und ja nichts mehr zu sagen.

Gast
2009-08-21, 16:52:29
... aber rein gefühlsmäßig (1. mal 40nm fertigungsprozess, RIESIGER chip, 1. mal GDDR5 mit 512 bit, 1x DX11... ) könnte ich mir vorstellen, dass nicht alles so läuft wie sich das manche leute wünschen.
GT300 ist nicht größer als G80.
Viel gepriesen gibts Fortschritte bei der Vertigung, deshalb werden Chips immer größer. Siehe AMDs RVs die auf einmal die 300mm² durchstoßen.
Sogesehen nähert sich GT300 dem Performancesegment an und entfernt sich vom High-End.

reunion
2009-08-21, 16:55:03
Grafik.
Von Balken/Preis habe ich einen scheiss Dreck.

Information angekommen? spielbareOptik/Preis ist eine viel interessantere Frage. Damit schlägt man so ziemlich viele Fragen mit einer Klappe, statt nutzlose Diagramme zu bestaunen.

Das fällt natürlich auch unter Preis/Leistung, keine Frage. Die Balken sind eben wichtig weil der Kunde auf die Balken achtet.

Gaestle
2009-08-21, 17:58:43
Deswegen habe ich auch gefragt: Was ist das Ziel des rv870?
Laut dem User soll das Ziel der "Preisbereich $200-$300" sein. Wie kann man dies als Ziel herausgeben, wenn man garnicht weiß, was die Konkurrenz liefern wird?


Vor zwei-drei Jahren konnte ATi zumindest den Top-End G(T)300 in etwa antizipieren, spätestens seit Anfang des Jahres werden Sie es wissen.

mboeller
2009-08-21, 18:00:31
und um im Kindergarden hier im Forum auch mal was zu sagen:

die Chiphell's behaupten auch das das 3. Tapeout des G300 wieder nicht richtig funktioniert hat, oder so ähnlich:

G300 is still not satisfied with the third TapeOut, very angry Huang


<popcorn>

LovesuckZ
2009-08-21, 18:01:52
Ich warte auf Charlie - das liest sich besser.
Oh im Xtremesystem Forum meint jemand mit Verweiß auf Chiphell, dass das Ziel des GT300 ca. 13k Xtreme Punkte im Vantage wären. :freak:

Vor zwei-drei Jahren konnte ATi zumindest den Top-End G300 in etwa antizipieren, spätestens seit Anfang des Jahres werden Sie es wissen.

Wirklich? Dann waren sie beim GT200 aber ziemlich schlecht. ;)

Tarkin
2009-08-21, 18:33:46
und um im Kindergarden hier im Forum auch mal was zu sagen:

die Chiphell's behaupten auch das das 3. Tapeout des G300 wieder nicht richtig funktioniert hat, oder so ähnlich:




<popcorn>

Wie lange dauert ein neuerlicher Tape-Out in der Regel?

StefanV
2009-08-21, 18:36:04
3-4 Monate (oder sinds nur 3-4 Wochen?)...

Gast
2009-08-21, 18:43:41
Es entscheidet sich bei der D3D11-Generation sicher nichts wegen 1-2 Monaten Verspätung. Das Design hat dazu viel zu weitreichende Folgen.
Ging nicht eine Zeit lang das Gerücht, dass AMD erst mit dem Nachfolgechip die "Alles Neu"-Architektur vorstellen wird und RV870 ein mehr oder weniger aufgebohrter und erweiterter RV770 sein soll? Die letzte Rache des R600 sozusagen. :D

Dann würde Nvidia mit GT300 wirklich Grundlagen schaffen, die auch die weitere Zukunft mitbestimmen, AMD aber erst ein Jahr später die eigentliche Konkurrenzarchitektur vorstellen.

anddill
2009-08-21, 20:37:11
So, 1x mit dem großen Rechen durchgegangen. Ich bitte darum, die Diskussion über die Historie der Grafikkartenpreise in einem eigenen Thread zu führen, und den Off-Topic Kram hier rauszulassen

Sorkalm
2009-08-21, 23:18:38
die Chiphell's behaupten auch das das 3. Tapeout des G300 wieder nicht richtig funktioniert hat, oder so ähnlich:

Wo hasten das gelesen? Hat das ein Member im Forum geschrieben oder einer der Admins?

Ailuros
2009-08-22, 06:25:44
und um im Kindergarden hier im Forum auch mal was zu sagen:

die Chiphell's behaupten auch das das 3. Tapeout des G300 wieder nicht richtig funktioniert hat, oder so ähnlich:




<popcorn>

Da Charlie nichts davon "weiss" kann ich auch beruhigt schlafen... ROTFLMAO :D

Kommt zwar drauf an was man mit tapeout meint, aber den haben sie schon lange hinter sich; wenn man jetzt mit dem Resultat nicht zufrieden sein sollte geht man auf einen respin. Dass es schon beim dritten respin liegt will ich ernsthaft bezweifeln weil sie sonst jeglichen Zeitrekord pro respin gebrochen haetten.

Was jetzt den Kindergarten betrifft, wart ab was fuer eine Hoelle ausbrechen wird nach September wenn sich die beiden Fraktionen ueber die Verfuegbarkeit von A bzw. B anfangen zu streiten.

So und jetzt zu etwas Materie.....wenn NV endlich losblubbert was an der vorigen Generation gehapert hat, heisst es auch dass man doch nicht mehr so weit vor einer Vorstellung sein koennte. Froehliche Spekulanten koennen loslegen und erraten was dem GT200 eigentlich fehlte....ein virtueller Keks fuer jeden Treffer ;)

Labberlippe
2009-08-22, 07:47:13
Hi

Was sollte mit dem G200 nicht gepasst haben.?
Beide Hersteller stossen schon langsam an die technischen Grenzen.(Von der Fertigung)

Ich hoffe halt nur das dies mit dem Risk Waffer nicht stimmt was in den News steht.
Der Kunde kommt mir vor als Testkaninchen, da kann man nur hoffen das der G300 wirklich gut durchdacht ist.

Gruss Labberlippe

Gast
2009-08-22, 08:34:05
Was sollte mit dem G200 nicht gepasst haben.?
Die darauf basierenden Produkte sind recht ausgeglichen.

Armaq
2009-08-22, 11:35:31
Da Charlie nichts davon "weiss" kann ich auch beruhigt schlafen... ROTFLMAO :D

Kommt zwar drauf an was man mit tapeout meint, aber den haben sie schon lange hinter sich; wenn man jetzt mit dem Resultat nicht zufrieden sein sollte geht man auf einen respin. Dass es schon beim dritten respin liegt will ich ernsthaft bezweifeln weil sie sonst jeglichen Zeitrekord pro respin gebrochen haetten.

Was jetzt den Kindergarten betrifft, wart ab was fuer eine Hoelle ausbrechen wird nach September wenn sich die beiden Fraktionen ueber die Verfuegbarkeit von A bzw. B anfangen zu streiten.

So und jetzt zu etwas Materie.....wenn NV endlich losblubbert was an der vorigen Generation gehapert hat, heisst es auch dass man doch nicht mehr so weit vor einer Vorstellung sein koennte. Froehliche Spekulanten koennen loslegen und erraten was dem GT200 eigentlich fehlte....ein virtueller Keks fuer jeden Treffer ;)
Der Preis. :)

Godmode
2009-08-22, 11:47:32
Da Charlie nichts davon "weiss" kann ich auch beruhigt schlafen... ROTFLMAO :D

Kommt zwar drauf an was man mit tapeout meint, aber den haben sie schon lange hinter sich; wenn man jetzt mit dem Resultat nicht zufrieden sein sollte geht man auf einen respin. Dass es schon beim dritten respin liegt will ich ernsthaft bezweifeln weil sie sonst jeglichen Zeitrekord pro respin gebrochen haetten.

Was jetzt den Kindergarten betrifft, wart ab was fuer eine Hoelle ausbrechen wird nach September wenn sich die beiden Fraktionen ueber die Verfuegbarkeit von A bzw. B anfangen zu streiten.

So und jetzt zu etwas Materie.....wenn NV endlich losblubbert was an der vorigen Generation gehapert hat, heisst es auch dass man doch nicht mehr so weit vor einer Vorstellung sein koennte. Froehliche Spekulanten koennen loslegen und erraten was dem GT200 eigentlich fehlte....ein virtueller Keks fuer jeden Treffer ;)

War da nicht mal was mit dem Triangle-Setup?

igg
2009-08-22, 11:54:25
So und jetzt zu etwas Materie.....wenn NV endlich losblubbert was an der vorigen Generation gehapert hat, heisst es auch dass man doch nicht mehr so weit vor einer Vorstellung sein koennte. Froehliche Spekulanten koennen loslegen und erraten was dem GT200 eigentlich fehlte....ein virtueller Keks fuer jeden Treffer ;)
Eine Möglichkeit die brachliegenden DPs sinnvoll auch im gaming-Bereich zu nutzen.

crux2005
2009-08-22, 12:31:35
War da nicht mal was mit dem Triangle-Setup?

+1 von mir und die caches/ROPs würde ich noch sagen...
btw: bin mir fast sicher, das Ail erst am Montage antworten wird. =)

Nakai
2009-08-22, 13:05:35
Höhere Taktraten. Ist zwar nicht wirklich ausschlaggebend, aber tatsächlich war der Takt beim GT200 eher ein Rückschritt als Fortschritt. Von den theoretischen Daten hätte es der GT200 nahezu geschafft die Performance fast zu verdoppeln gegenüber dem G92.


mfg Nakai

Coda
2009-08-22, 13:20:38
Ich sage, dass der Rasterizer und alles was damit zu tun hat nicht darauf ausgelegt ist die ALUs mit genügend Arbeit zu versorgen und deshalb die eigentlich vorhandene Rechenleistung nicht in 3D-Leistung ankam.

Das sieht man selbst schon bei G92, da G96 relativ dazu viel zu viel Leistung erreicht.

Was die vergleichsweise schlechte 8xAA-Performance angeht tippe ich immer noch auf ein ineffizientes Framebuffer-Format (zweimal Storage für 4 Samples und nur Kompression dafür).

Nakai
2009-08-22, 13:29:49
Ich sage, dass der Rasterizer und alles was damit zu tun hat nicht darauf ausgelegt ist die ALUs mit genügend Arbeit zu versorgen und deshalb die eigentlich vorhandene Rechenleistung nicht in 3D-Leistung ankam.

Das sieht man selbst schon bei G92, da G96 relativ dazu viel zu viel Leistung erreicht.

Was die vergleichsweise schlechte 8xAA-Performance angeht tippe ich immer noch auf ein ineffizientes Framebuffer-Format (zweimal Storage für 4 Samples und nur Kompression dafür).

Liegt der Rasterizer in einer unabhängigen Clock-Domain oder wird er mit dem normalen Kerntakt getaktet?


mfg Nakai

mapel110
2009-08-22, 13:38:52
Man hat doch schlicht den Shadertakt verfehlt, oder was soll da noch im Argen liegen bei G200?! Haben wir uns darauf nicht schon geeinigt?! :D
Hinzu kommt die "Transistorverschwendung" für DP.

Coda
2009-08-22, 13:39:36
Dürfte im normalen Kerntakt liegen. Aber das Problem ist meiner Meinung nach nicht der mangelnde Durchsatz sondern die Ineffizienz bei kleinen Dreiecken.

Es ist theoretisch möglich mehrere Dreiecke gleichzeitig zu rendern um das auszugleichen, nur muss man dann recht intelligente Logik aufwenden damit nichts durcheinander kommt. Sowas in die Richtung stelle ich mir vor.

Hinzu kommt die "Transistorverschwendung" für DP.
Es ist die Frage ob das wirklich so viel war. Auf den Die-Shots sehen die einzelnen ALUs deswegen nicht viel größer aus.

Captain Future
2009-08-22, 14:12:16
Rechne das lieber nochmal nach. Die GTX285 taktet auch schon mit 650Mhz, nicht viel niedriger wie die spekulierte GT300 mit 700Mhz. Die Einheitenanzahl wird nur bei den ALUs geringfügig mehr als verdoppelt. Eine GTX285 ist vielleicht 15-20% schneller als eine 4890. Schafft AMD jetzt eine Leistungsverdoppelung dann müsste NV die Leistung genau um wieviel steigern um einem Hemlock zu schlagen hm?
Nach deinen Zahlen, ~212%?

HD 4890 = 1
HD 5870 = 2
Hemlock = 4

GTX285 = 1,2
GTX285@700 MHz = 1,29 ((700/650)*1,2)

GT300/Hemlock = 1

GT300 = 3,1

Captain Future
2009-08-22, 14:24:27
Sag du es mir. Momentan gehe ich von 1600SPs/80TMus/32ROPs aus.
Funktioniert diese Rechnung denn auch, wenn du RV740 mit einbeziehst? Die einzelnen Einheiten müssen für DX11 sicherlich eher größer als kleiner werden.

=Floi=
2009-08-22, 14:25:02
zitat
Das sieht man selbst schon bei G92, da G96 relativ dazu viel zu viel Leistung erreicht.

das haut aber trotzdem nicht hin, weil dann ja der g92 schon zu viel shaderleistung hätte und aber das verhältnis rop zu SPs beibehalten wird. di GTS512 konnte sich auch von der GT absetzen.

der rv770 schnitt auch nur deshalb so gut ab, weil man ihn auch sehr stark befeuerte. wenn ich dem chip von nv ebenfalls 1,25 volt geben würde, dann wäre der GT200b wohl ebenso leistungsfähig gewesen wie er eigentlich sein sollte.

Captain Future
2009-08-22, 14:31:32
Vor 4 Jahren waren die 358mm² eines R580 High-End. Noch ein paar Jahre früher waren sogar die 218mm² eines R300 absolutes High-End. Mehr ließ die Fertigung nicht zu. Heute sind wir da weiter (technischer Fortschritt und so - vielleicht hast du ja davon schon mal gehört).
Die Wafergröße hat sich seitdem aber kaum verändert, 300mm Durchmesser, die Belichtung ist auch seit etlichen Jahren bei ca. 600mm² am Limit.

Gast
2009-08-22, 14:33:08
mal ne Frage zu SLI und Dualcore Karten.

Gibs da Fortschritte in Richtung Mikroruckler bei den nächsten Karten?

Captain Future
2009-08-22, 14:46:42
Schätze mal, das kommt drauf an wen du fragst. Manche wollen das Problem komplett totreden, manche sehen in jeder neuen Generation ihres Lieblingsherstellers den heiligen Gral und manche bezweifeln, dass das Verhältnis von Leidensdruck vs. Balkenlänge bereits dort angekommen ist, um die Hersteller zum Umdenken zu bewegen.

MrMostar
2009-08-22, 15:04:19
Wie auch in den News (http://www.3dcenter.org/news/2009-08-21) zu lesen ist, hat sich Nvidia für einen Schnellschuss entschieden, um noch dieses Jahr GT300 Karten fertig zu bekommen.

Ist es sinnvoll diese hohen Kosten in Kauf zu nehmen, würde Nvidia in den ersten Monaten des DX11 Konkurenzkampfes einen großen Marktanteil verlieren? Oder geht es mehr um das Prestige, noch 2009 DX11 Karten liefern zu können?

Eine Schätzung bei 23x23mm Chips vom 300mm Wafer (50Mio$/9000Stk =~6000$/Wafer) gibt rund 100 Chips pro Wafer, ungeschnitten und ungeprüft, der Verschnitt ist schwierig zu schätzen.
So kommen etwa 50-60$ pro Rohchip bei 100% yield heraus, bei realistischeren 50% das doppelte. Es ist nicht auszuschließen, daß alle Chips fehlerhaft sind.
Würde NVidia einen eventuellen Totalverlust der 50Mio$ verkraften?

Gast
2009-08-22, 15:21:08
Wie auch in den News (http://www.3dcenter.org/news/2009-08-21) zu lesen ist, hat sich Nvidia für einen Schnellschuss entschieden, um noch dieses Jahr GT300 Karten fertig zu bekommen.
Korrektur: Wie auch in den News von Charlie abgeschrieben wurde...


50 Millionen Dollar sind ein Klacks für Firmen wie Nvidia, AMD und ähnliche.

Gast
2009-08-22, 15:22:54
Naja wenn Nvidia keine DX11 Karten dieses Jahr auf den Markt bringt sollte ja wohl klar sein, dass ATI im Falle einer deutlichen Performancesteigerung den Markt dominieren wird. Das vor Weihnachten besonders gern neue Hardware gekauft wird ist ja durchaus bekannt.

anddill
2009-08-22, 15:28:41
Tja, wenn das wirklich stimmt, und wenn nVidia es mit dieser Aktion schafft, wenigstens eine handvoll Karten für Reviews zu fertigen, haben sich die 50Mio schon gelohnt.

LovesuckZ
2009-08-22, 15:32:52
Lustig, was Leute alles glauben. nVidia soll also Unmengen an Wafern bestellen, wenn sie nichtmal wissen, wie hoch die Yields sein werden? :rolleyes: nVidia bezahlt bei solchen Produktionen mit schlechten Yields pro funktionsfähigen Chip.
Schade, aber 3DCenter ist eben auch nur eine Copy & Paste News-Seite.


50 Millionen Dollar sind ein Klacks für Firmen wie Nvidia, AMD und ähnliche.

Das sind ca. 7,5% des Quartalsumsatzes. Das ist bestimmt nicht wenig für nVidia und auch für AMD.

MrMostar
2009-08-22, 15:38:11
Ich hab gerade gesehen, dass NVidia sich das relativ problemlos leisten kann:
Trotz der Belastungen hat Nvidia noch Barreserven von 1,34 Milliarden US-Dollar.
Quelle (http://www.golem.de/0905/66975.html)

Coda
2009-08-22, 15:38:33
Dir ist aber schon aufgefallen dass deine beiden Vorredner beide den Konjunktiv gebraucht haben?

Die ganze Geschichte klingt für mich aber durchaus plausibel.

=Floi=
2009-08-22, 16:02:47
nv kann viel mehr chips der wafer verwenden, weil nv einfach die defeken teile abschaltet. die vollwertigen chips sind dann auch überproportional teurer und somit erhällt man im mittel einen brauchbaren preis.

LovesuckZ
2009-08-22, 16:21:47
Dir ist aber schon aufgefallen dass deine beiden Vorredner beide den Konjunktiv gebraucht haben?

Konjunktiv I ist glaube.


Die ganze Geschichte klingt für mich aber durchaus plausibel.

Ja? Wieso sollte TSMC für Risk Wafer von Pro-Die auf eine Pro-Wafer Bezahlung gehen? Wieso sollte nVidia 9000 Wafer bestellen, wenn sie nichtmal wissen, ob der Chip funktionsfähig ist? Warum sollten Risk Wafer überhaupt teurer sein, wenn TSMC weniger Arbeit hat? Soweit ich es herauslese ermöglichen "Risk Wafer" ein schnelleres Starten der Produktion, aber keine besseren Yields.

Coda
2009-08-22, 16:50:36
Konjunktiv I ist glaube.
Ganz bestimmt nicht:

"Durch diesen Modus wird kenntlich gemacht, dass nicht die eigene Meinung oder Wahrnehmung, eine eigene Frage oder ein eigener Wunsch berichtet wird, sondern die Äußerung eines Dritten wiedergegeben wird."

Was man davon hält wird dadurch gerade explizit ausgeblendet.

Coda
2009-08-22, 16:55:03
Wieso sollte TSMC für Risk Wafer von Pro-Die auf eine Pro-Wafer Bezahlung gehen?
TSMC hat noch nie pro Chip abgerechnet.

Wieso sollte nVidia 9000 Wafer bestellen, wenn sie nichtmal wissen, ob der Chip funktionsfähig ist?
Weil die Produktion von Chips ein paar Wochen dauert und man wohl zuversichtlich ist, dass die letzten Bugfixes wohl alles in Ordnung gebracht haben.

Ansonsten würde man nur ein paar Test-Wafer durch die Bahn schicken. Man spekuliert eben, dass es erfolgreich war.

Warum sollten Risk Wafer überhaupt teurer sein, wenn TSMC weniger Arbeit hat?
Geringer Stückzahl.

LovesuckZ
2009-08-22, 17:13:40
TSMC hat noch nie pro Chip abgerechnet.

Ja, war falsch ausgedrückt: Pro-funktionierendem-Die.


Weil die Produktion von Chips ein paar Wochen dauert und man wohl zuversichtlich ist, dass die letzten Bugfixes wohl alles in Ordnung gebracht haben.
Ansonsten würde man nur ein paar Test-Wafer durch die Bahn schicken. Man spekuliert eben, dass es erfolgreich war.

Dann liegt das Problem aber weiterhin an TSMC und somit sehe ich keinen Grund, warum sie die Bezahlweise ändern sollten. Risk Wafer sind genauso wie jeder andere Wafer - die Verfahrensweise von TSMC ist anscheinend eine andere.


Geringer Stückzahl.

9000 Stück sind zZ nicht wirklich eine geringe Stückzahl. Außer TSMC geht davon aus, dass die Bestellungen im 4.Q rapide ansteigen.

mboeller
2009-08-22, 17:24:27
Tja, wenn das wirklich stimmt, und wenn nVidia es mit dieser Aktion schafft, wenigstens eine handvoll Karten für Reviews zu fertigen, haben sich die 50Mio schon gelohnt.

Warum sollte sich das für Nvidia lohnen ein paar Review Karten vor Weihnachten zu bringen?

Klar, es beeindruckt solche Leute wie uns, die "Hardcore" 3D-Fetischisten. :)

Aber OEMs brauchen was handfestes was sie kaufen können um es in großer Stückzahl in PCs und Notebooks zu verbauen. Und Ottonormalverbraucher geht einfach in den MediaMarkt/Saturn/etc.. und kauft sich einen PC / ein Notebook mit Win7 und DX11 Sticker (hat dann aber schon ein wenig Ahnung weil sonst ist ihm der Sticker auch egal) und wartet nicht bis weit nach Weihnachten auf einen neuen PC nur weil Nvidia ein paar tolle Demos auf einer neuen Karte vorgestellt hat.

IMHO bringt die Aktion Nvidia nur was wenn sie auch richtige G300 Karten vor Weihnachten (in möglichst großer Stückzahl) in die Läden bringen können. Ansonsten ist es Geldverschwendung, bzw. "pleasing of the crowd".

Coda
2009-08-22, 17:26:33
Ja, war falsch ausgedrückt: Pro-funktionierendem-Die.
Auch nicht. Das macht keine Fab.

9000 Stück sind zZ nicht wirklich eine geringe Stückzahl. Außer TSMC geht davon aus, dass die Bestellungen im 4.Q rapide ansteigen.
Das ist eine äußerst geringe Stückzahl.

mboeller
2009-08-22, 18:06:01
Auch nicht. Das macht keine Fab.


Das ist eine äußerst geringe Stückzahl.

Warum sind 9000 Wafer mit je 130 Die's ( á 530 mm²) eine geringe Stückzahl?

bei einem Yield von 60% macht das immerhin 720.000 G300.

mboeller
2009-08-22, 18:44:37
Nach deinen Zahlen, ~212%?

HD 4890 = 1
HD 5870 = 2
Hemlock = 4

GTX285 = 1,2
GTX285@700 MHz = 1,29 ((700/650)*1,2)

GT300/Hemlock = 1

GT300 = 3,1

Wenn du den Fehler selbst findest bekommst du einen Keks ;) [um es mal mit den Worten von Ailuros zu sagen]

Hemlock soll ja laut der Gerüchte eine X2 Version sein. Ergo ist die Leistung von Hemlock nicht 2x so hoch wie die Leistung einer HD5870 sondern nur zw. 1,5 - 1,8 mal so hoch wie die von einer HD5870.

=Floi=
2009-08-22, 18:50:02
man könnte diese karten aber auch zu entsprechenden preisen verkaufen. diese 9000 karten dürften auch für 500€ ihre käufer finden.
nv hätte auch dx11 und die krone. DAS alleine zählt und würde sich entsprechend ausschlachten lassen.

Coda
2009-08-22, 18:51:20
Warum sind 9000 Wafer mit je 130 Die's ( á 530 mm²) eine geringe Stückzahl?
Okay, ich dachte es ging um 9000 Chips. 9000 Wafer wären wirklich viel. Mein Fehler.

Hugo
2009-08-22, 19:04:29
es gibt zwei Möglichkeiten
entweder NV bestellt 9000 Wafer auf gut Glück und auch mit schlechter Yield haben sie genug Chips
oder
ein Problem liegt zB in einer der oberen Layer.Weil die Produktion nen paar Wochen dauert fängt man an die Wafer zu produzieren und wenn sie an dem Prodschritt sind warten sie auf die gefixten Masken und man spart Zeit

Gast_mboeller
2009-08-22, 19:45:42
Okay, ich dachte es ging um 9000 Chips. 9000 Wafer wären wirklich viel. Mein Fehler.

Ich habe noch mal nachgeschaut um sicher zu sein:


Just looking at the cost, TSMC 40nm wafers are priced at about $5,000 each right now, and we hear Nvidia is paying a premium for each of the risk wafers. 9,000 X ($5,000 + premium) is about $50 million.


Es sind 9000 Wafer

Link: http://www.semiaccurate.com/2009/08/18/nvidia-takes-huge-risk/

MrMostar
2009-08-22, 20:14:46
Warum sind 9000 Wafer mit je 130 Die's ( á 530 mm²) eine geringe Stückzahl?

bei einem Yield von 60% macht das immerhin 720.000 G300.

Wegen dem Verschnitt würde ich mit<104 Dies rechnen (Wenn man den 3mm Rand ausser acht lässt). quelle (http://en.wikipedia.org/wiki/Wafer_(electronics)#Analytical_die_count_estimation)

60% yield ist imo sehr optimistisch, ~200.000Stk (20-25%) ist bei der schlechten Ausbeute, die sie bis jetzt hatten, wahrscheinlicher.

quelle: mid july tapeout (http://www.semiaccurate.com/2009/07/29/miracles-happen-gt300-tapes-out/)press will get $15,000 hand built cards that use sub-10% yield parts.
Some knowledgeable folks who design semiconductors for a living estimate the initial yields at 20-25% after repair. (http://www.semiaccurate.com/2009/08/18/nvidia-takes-huge-risk/)


50M$/200KPcs= ~250$ pro chip :(

LovesuckZ
2009-08-22, 20:22:08
Glaubst du das wirklich? nVidia bezahlt doch laut Charlie bei <60% Yields pro verwendbaren Chip. Risk Wafer machen dort einen Unterschied, da es sich um keine andere Fertigungstechnik handelt.

MrMostar
2009-08-22, 20:34:54
Da Nvidia die Chips schnell (Eilzuschlag) braucht, wird es meiner Meinung nach sogar noch teurer werden, genaueres über diesen Deal wird NVidia aber vermutlich nicht preisgeben.

LovesuckZ
2009-08-22, 20:40:33
Und wieso sollte es teurer werden? Wenn deine einzige Quelle Charlie ist, dann musst du auch akzeptieren, dass nVidia per verwendbaren Chip bezahlen wird.

MrMostar
2009-08-22, 20:45:36
Diesen Teil der Charlymeldung halte ich für ein Gerücht, denn den Chiphersteller kann man nicht schnell innerhalb eines Jahres wechseln (Anpassung der Fertigungsprozesse)

LovesuckZ
2009-08-22, 20:50:21
Es geht nicht um einen Wechsel, sondern um das Anfixen der Kunden von TSMC auf neuere Prozesse zu wechseln - vorallen auch dann, wenn die Ausbeute sehr schlecht ist. Ansonsten würde niemand so schnell wechseln und ein Fiasko wie beim rv740 in Kauf nehmen.

MrMostar
2009-08-22, 21:00:43
Ein Wechsel würde normalerweise durch die erneut notwendig werdende Anpassung eine Verschlechterung des Yields bedeuten, wenn die Zeit knapp ist, ist das imo keine sinnvolle Option.
Ob NVidia die Manpower hat, hier zweigleisig zu fahren, kann ich nicht beurteilen.

LovesuckZ
2009-08-22, 21:17:23
Ein Wechsel würde normalerweise durch die erneut notwendig werdende Anpassung eine Verschlechterung des Yields bedeuten, wenn die Zeit knapp ist, ist das imo keine sinnvolle Option.
Ob NVidia die Manpower hat, hier zweigleisig zu fahren, kann ich nicht beurteilen.

Es geht um keinen zeitnahen Wechseln, sondern um die Möglichkeit davon, wenn TSMC in Zukunft nochmal solche Probleme bekommt. Das Entgegenkommen der Kunden durch TSMC soll doch dazu führen, dass das Risiko zu keinem fianziellen Schaden führt. Und dadurch widerspricht sich Charlie doch auch: Entweder bezahlt Nvidia auch bei (sehr) schlechten Yields pro Wafer oder eben per funktionierendem Die.

Gast
2009-08-22, 21:22:21
Auch nicht. Das macht keine Fab.

Da scheinen die Leute bei B3D aber anderer Meinung zu sein als du.

Carsten

MrMostar
2009-08-22, 21:34:52
Da der Gesamtpreis und die Waferzahl feststeht, ist die Bezahlung per funktionierendem Chip unwahrscheinlich. ooops, siehe #1647
Dem Hersteller bleibt imo eher ein Spielraum hinsichtlich Lieferzeit und Preisaufschlag dem Kunden entgegenzukommen.

LovesuckZ
2009-08-22, 21:37:25
Da der Gesamtpreis und die Waferzahl feststeht, ist die Bezahlung per funktionierendem Chip unwahrscheinlich.


Es steht garnichts fest. :) Ohne Einsicht in Verträge ist es falsch von so etwas zu reden.

MrMostar
2009-08-22, 21:49:43
mea culpa, es scheint tatsächlich so zu sein:

http://forum.beyond3d.com/showpost.php?p=1323276&postcount=1857

edit:
kurz: Arun folgert das 'Pay per chip' im nächsten Post indirekt über die Äusserung TSMCs, 'dass die Handelsspanne mit steigendem yield grösser wird'. (NVidia ist der grösste Kunde von TMCS)

I don't have any public info to back that up directly, but read what I said regarding what TSMC claims: their margins will improve when yields improve. And NVIDIA was the company ramping the most wafers when TSMC made that claim.

Ailuros
2009-08-23, 06:43:50
+1 von mir und die caches/ROPs würde ich noch sagen...
btw: bin mir fast sicher, das Ail erst am Montage antworten wird. =)

Heut ist Sonntag :P Ein Grund warum sich GT200 nicht mehr von G8x/9x absetzen konnte ist dass der erste einen neuen SC brauchte ;)

Ailuros
2009-08-23, 06:47:57
Hi

Was sollte mit dem G200 nicht gepasst haben.?
Beide Hersteller stossen schon langsam an die technischen Grenzen.(Von der Fertigung)

Ich hoffe halt nur das dies mit dem Risk Waffer nicht stimmt was in den News steht.
Der Kunde kommt mir vor als Testkaninchen, da kann man nur hoffen das der G300 wirklich gut durchdacht ist.

Gruss Labberlippe

Hier mal eine Aussage darauf von einem Profi:

http://forum.beyond3d.com/showpost.php?p=1323168&postcount=1850

He claims that a metal spin will result in scrapping the whole risk lot. It's just the opposite: the reason you park the wafers unfinished is because it allows you to do a metal spin later on without having to scrap them. Since the vast majority of bugs are fixable in metal only, you get the best of both worlds: the chance to make a quick fix that's less costly (because base is more expensive than metal) and a way to reduce the fab delay significantly (because base processing take roughly half of the processing time through the fab.) There is not a single company who doesn't park wafers before metal for exactly this reason.

The beauty of this article is not in the actual information content but in the way it shows directly how the emperor has no clothes.

Und ich kann Dich versichern dass er mit "emperor" nicht NVIDIA meinte. Peinlich oder?

***edit: wenn manch von Euch schon Einzelheiten aus diversen B3D Debatten durchlesen dann waere es angebrachter sich das Ganze vorsichtig durchzulesen. Anders was machen Katzen wenn sie mit ihrem Dreck fertig sind? Sie decken es zu...nur kratzt Charlie momentan auf konkretem Zement und der Gestank ist nicht auszuhalten. Ich fordere jeglichen auf jemand zu fragen der sich gut auskennt mit chip-Entwicklung und man wird schnell sehen wie absurd der vorerwaehnte Artikel SA's ueber "risk wafers" genau ist.

Ich frag dann als einfacher Beobachter und Laie gleich mit: da er (Groo the wanderer) den Thread mitverfolgt wuerde man eine halbwegs logische Antwort darauf erwarten. It's the sound of silence :roll:

mboeller
2009-08-23, 07:10:33
mal ein wenig off topic:

auf Beyond3D hat rjc einen Kommentar von hotboy, eines chiphell-Mods(?) übersetzt:


Hotboy is at it again, putting my meagre translation ability to the sword:


quote:
3DV:仍不如295,X少将近1000分.
(3DV: still not as good as 295, X general near a 1000 points apart)
游戏:the way 还是老样子.
(The Game: the way still the same as before)
某卡:终于更新的版本,准备在试水.目前老王很生气.派出枪手无数
(A Card: At last to upgrade version, prepare to try water, currently Old King is very angry, to dispatch countless gunmen)
打错了是老黄
(To err is old Huang)

Later in the thread:
Quote:
最近会有很多275冒出来,打着个种旗号
(Recently there are many 275 to emerge, to strike to use this to plant banner(?))

And also:
Quote:
目前看来是这样的,不知道最终发布性能还有提升? 300版本更新, 枪手的话可以去各大论坛去看他们的表演. N家最近砸进一笔业务费(听一位常年做QS的朋友说的) 游戏的话the way优化,真的比较头疼
( At the present time it appears to be this way, to not know final release performance also to upgrade? 300 version to upgrade, gunmen if can go to every big forum to go to look after their performance, N family recently fail to advance entire journalism fee (to allow whole year to write QS friend to persuade(??)) game if the way optimisation really big headache)

[Edit]
Adding simplistic analysis:
First quote new AMD card is roughly 1000 points behind in Vantage X performance to the GTX295, similarly game performance is at about that level. "Preparing to try the water" is i guess a euphemism for releasing. Next bit is a bit harder. "Old king releasing gunmen" is a bit hard to explain...i think he is trying to clarify meaning in the later quote so will leave it to then. Huang has erred seems fairly straightforward, though no idea what the actual mistake was.

Second quote is also reasonably straightforward, a large number of GTX275s are about to come on the market. Used a military metaphor of planting their flag behind this card.

Finally the third quote: Dismay, there is no current way of knowing the final release performance of the GT300. Have sent "gunmen to go to every big forum" (does that include this forum??...if not guess that means B3D is not considered big ) and ensure they are perceived in a positive light. Nvidia recently failed to make usual payments to journalists for positive coverage, something in brackets i don't understand. They are also having problems with "the way its meant to be played" program. The final part might have something to do with the last quarters results where nvidia managed to save 10% is SG&A without explicitly saying what was cut back.


Meine Meinung / Übersetzung dazu:

- der RV870 wird also ein wenig langsamer sein als eine 295er von Nvidia
- Nvidia will anscheinend viele 275er auf den Markt werfen um etwas gegen AMD in der Hand zu haben. Da das nur über den Preis geht kann man sich auf billige 275er freuen.
- der GT300 ist noch ein wenig entfernt (sehr wahrscheinlich wirklich Q1/2010)

und für mich das wichtigste:
- Nvidia hat mal wieder eine große FUD-Kampagne gegen AMD/ATi losgetreten. Würg, ich kann mich noch gut an das ganze beim R300 Release erinnern. Bin mal gespannt wer in diesem Forum von Nvidia dafür bezahlt wird ATi/AMD schlecht zu machen bzw. den kommenden G300 in den höchsten Tönen als "das 9. Weltwunder" anzupreisen. Eben das gleiche wie beim NV30. Hoffentlich wird der G300 trotzdem gut, obwohl Nvidia wieder mal zu solchen Maßnahmen greift. Ich denke zwar das ATi schon das gleiche gemacht hat aber der R300/NV30 Kampf ist einfach noch am präsentesten im Gedächtnis.

edit: link added: http://forum.beyond3d.com/showpost.php?p=1324914&postcount=1896

Gast
2009-08-23, 08:27:05
- der RV870 wird also ein wenig langsamer sein als eine 295er von Nvidia
Imho realistisch, damit hat auch Nvidia noch eine Möglichkeit erstmal halbwegs bei den Balken mitzuhalten.

Bin mal gespannt wer in diesem Forum von Nvidia dafür bezahlt wird ATi/AMD schlecht zu machen bzw. den kommenden G300 in den höchsten Tönen als "das 9. Weltwunder" anzupreisen.Bei den vielen AMD Fanboys wären Gegenstimmen echt nicht schlecht, Nvidia Fanboys sind hier praktisch alle tot. ;)

reunion
2009-08-23, 08:53:47
- der RV870 wird also ein wenig langsamer sein als eine 295er von Nvidia

Im Vantage skaliert SLI/CF perfekt. In realen Spielen nur selten. Wenn er im Vantage knapp dahinter ist gehe ich davon aus der er in realen Anwendungen zumindest gleichzieht.

horn 12
2009-08-23, 08:53:59
Ja, aber bei welchen Settings muss man auch wissen.
Die HD4870 X2 punktet ja erst ab 1920x1200 mit 8xAA 16AF und dort wird oft die GTX295 geschlagen. Rechne dies ist eine gezielte Fehlinfos seitens AMD, rechne mit enormen Qualitäts-Settings wird die HD5870 ähnlich schnell wie die HD4870 X² mit ca. 850/1000 Mhz sein.

Gast
2009-08-23, 09:14:19
Ja, aber bei welchen Settings muss man auch wissen.
Die HD4870 X2 punktet ja erst ab 1920x1200 mit 8xAA 16AF und dort wird oft die GTX295 geschlagen. Rechne dies ist eine gezielte Fehlinfos seitens AMD, rechne mit enormen Qualitäts-Settings wird die HD5870 ähnlich schnell wie die HD4870 X² mit ca. 850/1000 Mhz sein.
Ähm, du setzt 8xMSAA gleich Qualität?
Falls du es nicht mitbekommen hast/willst, es ist weder enorme Qualität, noch punktet die 4870 X2 gerade dort.
8xMSAA kostet allen aktuellen Geforces viel, mehr nicht und nicht weniger. 16xHQAF ist dagegen überhaupt wählbar und zudem spottbillig.

Es wird schlicht eine Frage sein, welche Settings die Reviews fahren werden. Ich tippe auf das AMD gesponsorte 8xMSAA, 16xLQAF, noTAA, samt mittelhoher bis hoher Auflösung.

Gast
2009-08-23, 09:27:09
Im Vantage skaliert SLI/CF perfekt. In realen Spielen nur selten. Wenn er im Vantage knapp dahinter ist gehe ich davon aus der er in realen Anwendungen zumindest gleichzieht.

Kommt bei NV im Vantage-3DMark nicht noch der Vorteil von Physix zum tragen? Sorry für die dumme Frage, aber mangels DX10 OS kenne ich diesen Benchmark nicht.

Gast
2009-08-23, 09:30:28
Kommt bei NV im Vantage-3DMark nicht noch der Vorteil von Physix zum tragen? Sorry für die dumme Frage, aber mangels DX10 OS kenne ich diesen Benchmark nicht.
PhysX ist deaktivierbar. Im Treiber und imho auch in Vantage selbst.

mictasm
2009-08-23, 09:40:00
und für mich das wichtigste:
- Nvidia hat mal wieder eine große FUD-Kampagne gegen AMD/ATi losgetreten. Würg, ich kann mich noch gut an das ganze beim R300 Release erinnern. Bin mal gespannt wer in diesem Forum von Nvidia dafür bezahlt wird ATi/AMD schlecht zu machen bzw. den kommenden G300 in den höchsten Tönen als "das 9. Weltwunder" anzupreisen. Eben das gleiche wie beim NV30.
Hast du mal ein Beispiel aus dem Netz für diese Behauptung? Wenn du schon würgst, solltest du ja welche kennen. Ich möchte mir das auch gerne anschauen.

nagus
2009-08-23, 10:08:09
Ja, aber bei welchen Settings muss man auch wissen.
Die HD4870 X2 punktet ja erst ab 1920x1200 mit 8xAA 16AF und dort wird oft die GTX295 geschlagen. Rechne dies ist eine gezielte Fehlinfos seitens AMD, rechne mit enormen Qualitäts-Settings wird die HD5870 ähnlich schnell wie die HD4870 X² mit ca. 850/1000 Mhz sein.

aber durch die bank und ohne MR ;)
btw, vantage "extreme-preset" settings benutzt meines wissens kein 8x FSAA sondern 4x. bei 8x wird der abstand wahrscheinlich eher ins positive gehen.

Gast
2009-08-23, 10:35:55
Im Vantage skaliert SLI/CF perfekt. In realen Spielen nur selten. Wenn er im Vantage knapp dahinter ist gehe ich davon aus der er in realen Anwendungen zumindest gleichzieht.
Der Vantage geht im Extreme-Setting aber auch auf Bandbreite und Shader-Leistung - das tun auch nicht alle Spiele.

Ich bin mal wirklich gespannt auf RV870! Wenn es wirklich 80 Textureinheiten werden die auch noch besser als die von Nvidia sind, könnte Ati ja demnächst wieder etwas weniger flimmern.

Zusammen mit Edge-Detect- und allg. Shader-basiertem AA dürfte dann der Kampf um die BQ-Krone neu entbrennen - sehr cool.

Carsten

Gast
2009-08-23, 10:37:54
aber durch die bank und ohne MR ;)
btw, vantage "extreme-preset" settings benutzt meines wissens kein 8x FSAA sondern 4x. bei 8x wird der abstand wahrscheinlich eher ins positive gehen.
Beim aktuellen Stand der Spekulationen dürfte die Bandbreite langsam knapp werden. Immerhin muss der RV870 circa doppelt soviel Rechen- und Texturlast mit nur max. 50% mehr Bandbreite versorgen können. Vantage nutzt auch durchgehend HDR.

N0Thing
2009-08-23, 11:17:15
Warum sollte sich das für Nvidia lohnen ein paar Review Karten vor Weihnachten zu bringen?

Klar, es beeindruckt solche Leute wie uns, die "Hardcore" 3D-Fetischisten. :)

Aber OEMs brauchen was handfestes was sie kaufen können um es in großer Stückzahl in PCs und Notebooks zu verbauen. Und Ottonormalverbraucher geht einfach in den MediaMarkt/Saturn/etc.. und kauft sich einen PC / ein Notebook mit Win7 und DX11 Sticker (hat dann aber schon ein wenig Ahnung weil sonst ist ihm der Sticker auch egal) und wartet nicht bis weit nach Weihnachten auf einen neuen PC nur weil Nvidia ein paar tolle Demos auf einer neuen Karte vorgestellt hat.

IMHO bringt die Aktion Nvidia nur was wenn sie auch richtige G300 Karten vor Weihnachten (in möglichst großer Stückzahl) in die Läden bringen können. Ansonsten ist es Geldverschwendung, bzw. "pleasing of the crowd".


Nvidia wird die Karten aber auch Spielemagazinen zum Testen zur Verfügung stellen und wenn die darauf hin schreiben, daß diese GT300 Karte viel schneller sei, als eine Karte auf Basis des RV870, dann warten sicher einige Leser ab, bis die GT300 Karte auch im Handel erhältlich ist.
Der 08/15 Fertig-PC Käufer sucht sich meiner Meinung nach selten ein Modell mit High-End Grafikkarte aus.

nagus
2009-08-23, 11:55:47
Nvidia wird die Karten aber auch Spielemagazinen zum Testen zur Verfügung stellen und wenn die darauf hin schreiben, daß diese GT300 Karte viel schneller sei, als eine Karte auf Basis des RV870, dann warten sicher einige Leser ab, bis die GT300 Karte auch im Handel erhältlich ist.
Der 08/15 Fertig-PC Käufer sucht sich meiner Meinung nach selten ein Modell mit High-End Grafikkarte aus.

"... wenn die darauf hin schreiben, daß diese GT300 Karte viel schneller sei. "

wenn das wörtchen wenn nicht wär... ;) aber es stimmt schon... falls die previewkarten die schneller als eine rv870, dann würde das schon helfen. besser als nichts wärs jedenfalls....

Gast
2009-08-23, 12:00:58
Ich bin mal wirklich gespannt auf RV870! Wenn es wirklich 80 Textureinheiten werden die auch noch besser als die von Nvidia sind, könnte Ati ja demnächst wieder etwas weniger flimmern.

Zusammen mit Edge-Detect- und allg. Shader-basiertem AA dürfte dann der Kampf um die BQ-Krone neu entbrennen - sehr cool.

Was veranlasst dich dazu zu glauben, das AMDs TMUs besser sein sollen?
Bei gleichguten TMUs und ähnlichem Takt steht AMD TMU mäßig ähnlich wie Nvidia da, sofern es wirklich 80 zu 128 sind die die Größe auch 300 zu 500mm² steht.
Die Frage ist, ob AMD diese Leistung tatsächlich in BQ steckt oder ein günstiges 8xAF=16xLQAF. Letzteres wird die Presse mehr begeistern und bringt in den Tests mehr: Längere Balken.

Edge Detect kratz kein Stück, solange die Shader flimmern oder die Transparente mit MSAAA behandelt werden oder die Texturen flimmern.

Gerade du als Redakteur solltest wissen, das das primäre Ziel darin besteht in den Benches gut dazustehen, die Settings sind allseits bekannt 4x/8xMSAA, 16xLQAF und kein AAA.

LovesuckZ
2009-08-23, 12:08:51
Hast du mal ein Beispiel aus dem Netz für diese Behauptung? Wenn du schon würgst, solltest du ja welche kennen. Ich möchte mir das auch gerne anschauen.

Das ist unsinn. Da steht auch, dass sie Journalisten nicht schmieren konnten. Nunja, wenn man keine Infos hat dann saugt man sich etwas aus den Fingern. :rolleyes:


Ich bin mal wirklich gespannt auf RV870! Wenn es wirklich 80 Textureinheiten werden die auch noch besser als die von Nvidia sind, könnte Ati ja demnächst wieder etwas weniger flimmern.

Zusammen mit Edge-Detect- und allg. Shader-basiertem AA dürfte dann der Kampf um die BQ-Krone neu entbrennen - sehr cool.

Carsten

Warum? Die Qualität der ansiotropen Filterung spielt in Print und Online-Medien doch keine Rolle. Ich fände es absurd, wenn plötzlich auf die Qualität geschaut wird.

/edit: Ich hoffe wirklich für die Magazine, dass man nicht nur deswegen auf die Qualität schauen werde, weil AMD damit werben könnte. Weil dann muss sich gefallen lassen, dass man kaufbar ist.

mboeller
2009-08-23, 12:42:28
Hast du mal ein Beispiel aus dem Netz für diese Behauptung? Wenn du schon würgst, solltest du ja welche kennen. Ich möchte mir das auch gerne anschauen.

Alt: Beyond3D zur Zeit vom NV30 / R300. Die Teilnehmer haben sich dann nach (soweit ich mich erinnere) 1-2 Jahren in einem Thread selbst geoutet. Ailuros kann dir das ganze vielleicht bestätigen. Er war damals auch schon auf Beyond3D unterwegs.

Für mich war das damals ein ziemlicher Schock. Leuten deren Meinung man vertraut arbeiten für eine Firma und sagen einem nichts darüber.

WOW, ich habe sogar einen Link gefunden:
http://www.donationcoder.com/Forums/bb/index.php?topic=2341.0;wap2

Wenn du auf Beyond3D wirklich nach dem richtigen Thread suchen willst, er heißt "Nvidia Community Outreach". :(

Gast
2009-08-23, 12:44:00
Du legst dir die "Fakten" echt jedesmal so zurecht, wie du sie gerade brauchst. Natürlich schauen die Print und Onlinemagazine schon lange auf die Bildqualität, zumindest die, die auch einen seriösen Ruf genießen. Und das mit Recht.

mboeller
2009-08-23, 12:45:43
"... wenn die darauf hin schreiben, daß diese GT300 Karte viel schneller sei. "

wenn das wörtchen wenn nicht wär... ;) aber es stimmt schon... falls die previewkarten die schneller als eine rv870, dann würde das schon helfen. besser als nichts wärs jedenfalls....

Der G300 sollte schneller sein. Die 512bit Speicheranbindung alleine sollte dafür sorgen. Dazu kommt dann noch sehr wahrscheinlich eine höhere Texturleistung; etc. Die 2,4 Mrd Transistoren werden bestimmt nicht rumstehen und nichts tun.

LovesuckZ
2009-08-23, 12:51:23
Du legst dir die "Fakten" echt jedesmal so zurecht, wie du sie gerade brauchst. Natürlich schauen die Print und Onlinemagazine schon lange auf die Bildqualität, zumindest die, die auch einen seriösen Ruf genießen. Und das mit Recht.

Das wäre dann die PCGH - die erwähnt die AF Qualität nämlich in einem Satz. ;D Es gibt keine Tests mit HQ und A.I Off im Onlinebereich. Und Test mit AAA sind schon lange kein Thema mehr. Magazine sind schon lage nicht mehr Berater. Viele Leute wissen garnicht, dass nVidia eine bessere ansiotrope Filterungsqualität ermöglicht. Man muss wirklich sagen: Die Unfähigkeit der Tester führte zu fehlender Informationsvermittlung.
Natürlich legen die Magazine keinen Wert auf Bildqualität. Das haben sie die letzten Jahr gezeigt. Bildqualität spielt nur dann eine Rolle, wenn neue Karten erscheinen. Danach ist nur eine "Muss-machen" Einstellung.

Alt: Beyond3D zur Zeit vom NV30 / R300. Die Teilnehmer haben sich dann nach (soweit ich mich erinnere) 1-2 Jahren in einem Thread selbst geoutet. Ailuros kann dir das ganze vielleicht bestätigen. Er war damals auch schon auf Beyond3D unterwegs.

Für mich war das damals ein ziemlicher Schock. Leuten deren Meinung man vertraut arbeiten für eine Firma und sagen einem nichts darüber.

WOW, ich habe sogar einen Link gefunden:
http://www.donationcoder.com/Forums/bb/index.php?topic=2341.0;wap2

Wenn du auf Beyond3D wirklich nach dem richtigen Thread suchen willst, er heißt "Nvidia Community Outreach". :(

Das wird nicht mehr passieren, da wir nicht mehr im jahr 2002/2003 sind. Das Internet ist viel zu verbreitet und erwachsen geworden.

Gast
2009-08-23, 12:51:49
Du legst dir die "Fakten" echt jedesmal so zurecht, wie du sie gerade brauchst. Natürlich schauen die Print und Onlinemagazine schon lange auf die Bildqualität, zumindest die, die auch einen seriösen Ruf genießen. Und das mit Recht.
Achso, deshalb wird immer 8xMSAA, 16xLQAF und kein TAA/AAA gebencht. :ugly:

Gast
2009-08-23, 13:14:07
Was veranlasst dich dazu zu glauben, das AMDs TMUs besser sein sollen?
Bei gleichguten TMUs und ähnlichem Takt steht AMD TMU mäßig ähnlich wie Nvidia da, sofern es wirklich 80 zu 128 sind die die Größe auch 300 zu 500mm² steht.
Die Frage ist, ob AMD diese Leistung tatsächlich in BQ steckt oder ein günstiges 8xAF=16xLQAF. Letzteres wird die Presse mehr begeistern und bringt in den Tests mehr: Längere Balken.

Edge Detect kratz kein Stück, solange die Shader flimmern oder die Transparente mit MSAAA behandelt werden oder die Texturen flimmern.

Gerade du als Redakteur solltest wissen, das das primäre Ziel darin besteht in den Benches gut dazustehen, die Settings sind allseits bekannt 4x/8xMSAA, 16xLQAF und kein AAA.
Mein Posting beginnt mit "Wenn es wirklich...". Für DX11 muss Ati die TMUs überarbeiten - das kann man quick and dirty machen oder man nutzt die Gelegenheit und verbessert zum Beispiel Datenversorgung (Busse, Caches), die Koordinatenberechnungen (TA) oder ähnliches.

Ich hoffe sehr, dass ein möglicher Performance-Vorteil dann auch - zumindest optional in bessere BQ umsetzbar sein wird.

Edge-Detect mag dich kein Stück kratzen, aber den zweiten Teil meines Satzes, "allgemein shader-basiertm AA" hast du wohl absichtlich nicht zur Kenntnis genommen - die meisten sogenannten Flimmer-Shader von heute könnte man damit deutlich entschärfen ohne direkt zur Supersampling-Keule greifen zu müssen.

Warum schreibst du "Gerade du als Redakteur solltest wissen" - was veranlasst dich zu glauben, dass ich nicht weiß, sondern nur wissen sollte?

Carsten

Gast
2009-08-23, 13:15:25
Warum? Die Qualität der ansiotropen Filterung spielt in Print und Online-Medien doch keine Rolle. Ich fände es absurd, wenn plötzlich auf die Qualität geschaut wird.

/edit: Ich hoffe wirklich für die Magazine, dass man nicht nur deswegen auf die Qualität schauen werde, weil AMD damit werben könnte. Weil dann muss sich gefallen lassen, dass man kaufbar ist.
Entweder liest du nicht oder du verstehst nicht. Bei beidem kann ich dir über das Internet aber leider nicht helfen. :)

Carsten

LovesuckZ
2009-08-23, 13:31:27
Entweder liest du nicht oder du verstehst nicht. Bei beidem kann ich dir über das Internet aber leider nicht helfen. :)

Carsten

Zusammen mit Edge-Detect- und allg. Shader-basiertem AA dürfte dann der Kampf um die BQ-Krone neu entbrennen - sehr cool.

Euch hat die AF Qualität nie in dem Bereich interessiert, dass AMD dafür abgestraft wird. Ich werde es absurd finden, wenn eine Verbesserung positiv aufgenommen werde, da der jetzige Zustand vollkommen in Ordnung ist. :rolleyes:

Gast
2009-08-23, 13:34:27
Edge-Detect mag dich kein Stück kratzen, aber den zweiten Teil meines Satzes, "allgemein shader-basiertm AA" hast du wohl absichtlich nicht zur Kenntnis genommen - die meisten sogenannten Flimmer-Shader von heute könnte man damit deutlich entschärfen ohne direkt zur Supersampling-Keule greifen zu müssen.

Ist auch schwammig formuliert, oder lässt sich Edge Detect auf Flimmer-Shader anwenden? Ich vermute, mit "allgemein shader-basiertm AA" meinst du einen ganz neuen Ansatz, kannst du darauf etwas näher eingehen, gibt es womöglich schon etwas greifbares in der Richtung (wenigstens auf dem Papier)?

Gast
2009-08-23, 13:36:49
Euch hat die AF Qualität nie in dem Bereich interessiert, dass AMD dafür abgestraft wird. Ich werde es absurd finden, wenn eine Verbesserung positiv aufgenommen werde, da der jetzige Zustand vollkommen in Ordnung ist. :rolleyes:
Wohingegen du an einer "Abstrafung" brennend interessiert bist, richtig? Uns interessiert die AF-Qualität sogar so stark, dass wir mehrere Artikel darüber veröffentlich haben (im Heft und Online), dass wir laufend nach Möglichkeiten suchen, unsere Benchmarks dichter an der Spiele-Realität auszurichten, zum Beispiel durch seit einiger Zeit wieder genutzten Treiberdefaults ("Q" vs. AI default) und ähnliches.

Da wir unsere interne Wertungstabelle nie offengelegt haben, glaube ich außerdem, dass du darüber hinaus überhaupt nicht in der Lage bist zu beurteilen, was wir wie benoten.


Da du hier aber schon etliche Male deine Uneinsichtigkeit für Argumente und dein trollhaftes weiterführen absurder Diskussionen unter Beweis gestellt hast, ist für mich an dieser Stelle mit dir auch EOD.

Carsten

Gast
2009-08-23, 13:45:24
Ist auch schwammig formuliert, oder lässt sich Edge Detect auf Flimmer-Shader anwenden? Ich vermute, mit "allgemein shader-basiertm AA" meinst du einen ganz neuen Ansatz, kannst du darauf etwas näher eingehen, gibt es womöglich schon etwas greifbares in der Richtung (wenigstens auf dem Papier)?
"Zusammen mit Edge-Detect- und allg. Shader-basiertem AA dürfte dann der Kampf um die BQ-Krone neu entbrennen - sehr cool."

Ich finde das nicht schwammig, aber bitte.
Shader-basiertes FSAA ist weder neu noch revolutionär, gib einfach mal in der Console von Far Cry "r_SpecAntialias" ein.

Carsten

Gast
2009-08-23, 13:50:22
Ich finde das nicht schwammig, aber bitte.
Shader-basiertes FSAA ist weder neu noch revolutionär, gib einfach mal in der Console von Far Cry "r_SpecAntialias" ein.

Danke für den Hinweis, das ist dann aber von der Engine abhängig oder lässt sich das generalisieren? Oder hat womöglich sogar Microsoft etwas auf der Agenda für D3D11+?

Wird natürlich etwas Off Topic, andererseits ist es ein wenig schade, dass sich die ganzen Spekulationen rund um GT300 rein um Performance drehen, ein paar Goodies wären auch fein und geeignet, sich von der Konkurrenz abzuheben.

LovesuckZ
2009-08-23, 13:53:04
Wohingegen du an einer "Abstrafung" brennend interessiert bist, richtig? Uns interessiert die AF-Qualität sogar so stark, dass wir mehrere Artikel darüber veröffentlich haben (im Heft und Online), dass wir laufend nach Möglichkeiten suchen, unsere Benchmarks dichter an der Spiele-Realität auszurichten, zum Beispiel durch seit einiger Zeit wieder genutzten Treiberdefaults ("Q" vs. AI default) und ähnliches.

Schönes Paradoxon: Es wäre euch so wichtig, dass ihr mit Q und A.I Default testet. Ich denke, dass dieses Beispiel zeigt, wie egal die ansiotrope Qualität in den Medien ist. :rolleyes:
Wie kann man eine zukünftige Verbesserung sonst positiv aufnehmen, wenn selbst heute das maximal mögliche nichtmal annährend gewürdigt wird? Ihr redet euch - so auch wie andere Seiten und Magazine - um Kopf und Kragen, um entweder die eigene Unfähigkeit oder die Abhängigkeit zu retuschieren.

anddill
2009-08-23, 14:19:39
Was hat bitte die mögliche zukünftige Filterqualität der kommenden ATI-Karten in diesem Thread zu suchen?

Gast
2009-08-23, 14:41:39
Schönes Paradoxon: Es wäre euch so wichtig, dass ihr mit Q und A.I Default testet. Ich denke, dass dieses Beispiel zeigt, wie egal die ansiotrope Qualität in den Medien ist. :rolleyes:
Wir testen ja auch Rennspiele, bei denen die Fahrbahnmarkierungen bei Nvidia stärker stören - allen Filtervorteilen zum Trotz. Abstrafen?


Carsten

Gaestle
2009-08-23, 17:06:33
Das wird nicht mehr passieren, da wir nicht mehr im jahr 2002/2003 sind. Das Internet ist viel zu verbreitet und erwachsen geworden.

Dein Wort in Gottes Gehörgang, aber ich glaube es ist durchaus normal, dass so etwas passiert. Und zwar dauernd, ohne dass irgendjemand jetzt einen besonderen Grund hat oder braucht. Es ist IMHO einfach Teil des ganz normalen Geschäfts.

Coda
2009-08-23, 17:36:06
Da scheinen die Leute bei B3D aber anderer Meinung zu sein als du.
Ich kenne die Verträge nicht, aber das wäre ziemlich blödsinnig. Die Fabs wissen ja gar nicht ob sich die Chipentwickler überhaupt an ihre Spezifikationen gehalten haben usw.

Wenn dann überhaupt wird nach Defects-Per-mm² abgerechnet. Alles andere macht für mich keinen Sinn.

Der Vantage geht im Extreme-Setting aber auch auf Bandbreite und Shader-Leistung - das tun auch nicht alle Spiele.

Ich bin mal wirklich gespannt auf RV870! Wenn es wirklich 80 Textureinheiten werden die auch noch besser als die von Nvidia sind, könnte Ati ja demnächst wieder etwas weniger flimmern.

Zusammen mit Edge-Detect- und allg. Shader-basiertem AA dürfte dann der Kampf um die BQ-Krone neu entbrennen - sehr cool.

Carsten
Die NVIDIA TMUs filtern mit HQ bereits schon praktisch optimal. Weniger Flimmern ist mit einem trilinearen Grundfilter nicht mehr möglich.

Was meinst du mit "Shader-basiertem AA"?

reunion
2009-08-23, 18:09:07
Die NVIDIA TMUs filtern mit HQ bereits schon praktisch optimal. Weniger Flimmern ist mit einem trilinearen Grundfilter nicht mehr möglich.


Trilinear vielleicht, beim AF sah das der AMD-Mann neulich im PCGH-Interview anders. Laut ihm haben beide beim AF noch einiges an Potential, während man beim AA weitgehend das Optimum heraus geholt habe.

Hugo
2009-08-23, 18:11:17
Trilinear vielleicht, beim AF sah das der AMD-Mann neulich im PCGH-Interview anders. Laut ihm haben beide beim AF noch einiges an Potential, während man beim AA weitgehend das Optimum heraus geholt habe.

klar muß dass AMD sagen. Wen nsie sagen würden NV is perfekt aber wir nich wäre das schon doof :wink:

StefanV
2009-08-23, 18:16:55
Nein, muss er nicht, zumindest, wenns ein Techniker ist, die sind 'erstaunlich' technisch, ohne sich um irgendwas von Marketing zu kümmern.

reunion
2009-08-23, 18:22:30
klar muß dass AMD sagen. Wen nsie sagen würden NV is perfekt aber wir nich wäre das schon doof :wink:

Huddy wurde darauf nicht explizit angesprochen, sondern sagte von sich aus das "...die Qualität des AFs bei beiden großen GPU-Herstellern noch weit vom Optimum entfernt ist, und er glaubt das beide das auch bis zu einem gewissen Grade angehen werden...". Er hätte also gar nicht erwähnen müssen das NV perfekt ist. Aber okay, anzweifeln kann man alles.

Coda
2009-08-23, 18:35:59
Trilinear vielleicht, beim AF sah das der AMD-Mann neulich im PCGH-Interview anders.
Ich habe Beweise, das dem nicht so ist. Das NV-HQ-AF nimmt volle 16 Tri-Samples.

Für bessere Filterqualität braucht man - wie ich oben schon geschrieben habe - einen besseren Grundfilter, sonst bekommt man die immer noch vorhandene leichte Unruhe nicht raus.

Gast_mboeller
2009-08-23, 19:14:16
Ich habe Beweise, das dem nicht so ist. Das NV-HQ-AF nimmt volle 16 Tri-Samples.

Für bessere Filterqualität braucht man - wie ich oben schon geschrieben habe - einen besseren Grundfilter, sonst bekommt man die immer noch vorhandene leichte Unruhe nicht raus.

Seufz....

Wie wäre es zB. mit Footprint Area Sampled Texturing:
http://www.dtc.umn.edu/~baoquan/papers/fast.pdf (ist von 2004)

Es gibt aber noch andere. FAST ist aber lange Zeit mein Favorit gewesen. Keine Ahnung ob es wirklich gut ist, aber es liest sich so.

LovesuckZ
2009-08-23, 19:58:29
Dein Wort in Gottes Gehörgang, aber ich glaube es ist durchaus normal, dass so etwas passiert. Und zwar dauernd, ohne dass irgendjemand jetzt einen besonderen Grund hat oder braucht. Es ist IMHO einfach Teil des ganz normalen Geschäfts.

Viral Marketing funktioniert nur dann, wenn man etwas auch mit einer Zeitangabe bringen kann.

Coda
2009-08-23, 22:00:19
Seufz....
Dein Seufz kannst du es sparen. Es gibt in den APIs Spezifikationen wie anisotrop gefiltert werden soll. Wenn man das ausreizt dann gilt die Aussage die ich getroffen habe.

Und ja, ich habe es komplett selber implementiert, ich weiß also von was ich rede.

Das Problem ist, dass die TMUs als Eingabe stets nur die Screenspace-Derivate eines Quads bekommen können, weil sonst indirekte Texturierung nicht mehr funktioniert. Forward-Mapping wird dann schwierig bis unmöglich.

Gast
2009-08-23, 22:17:48
Ich kenne die Verträge nicht, aber das wäre ziemlich blödsinnig. Die Fabs wissen ja gar nicht ob sich die Chipentwickler überhaupt an ihre Spezifikationen gehalten haben usw.

Wenn dann überhaupt wird nach Defects-Per-mm² abgerechnet. Alles andere macht für mich keinen Sinn.
Die Fab-Ingenieure arbeiten schon mit denen der Kunden zusammen - außerdem wird's da sicherliche eine Regreß-Klausel für geben. Bei B3D sind auch einige, die Erfahrung in der Chipzüchtung haben - ich glaube denen das schon.

Die NVIDIA TMUs filtern mit HQ bereits schon praktisch optimal. Weniger Flimmern ist mit einem trilinearen Grundfilter nicht mehr möglich.

Was meinst du mit "Shader-basiertem AA"?
Da gibt's noch das Problem mit negativem LOD-Bias oder ohne Mipmaps. Außerdem muss AMD Nvidia bei den TMUs ja nicht überbieten, gleichziehen und besseres AA würde für die BQ-Krone ja genügen. Zudem weiß noch niemand, ob Nvidia im GT300 vielleicht doch wieder mehr TMU-Arbeit spart (ich glaube zwar nicht).

Shader-basiertes AA ist für mich alles mögliche, was man über die Shader machen kann: Von Edge-Detect über fortschrittlichere Inhaltsanalysen von Bildbereichen oder eben nur das angestaubte Verfahren, welches ich weiter oben aus Far Cry erwähnte (wenn das mal überhaupt shader-basiert ist).

Gast
2009-08-23, 22:20:32
Trilinear vielleicht, beim AF sah das der AMD-Mann neulich im PCGH-Interview anders. Laut ihm haben beide beim AF noch einiges an Potential, während man beim AA weitgehend das Optimum heraus geholt habe.
Huddy bezog sich in seiner Erläuterung aber hauptsächlich auf den quad-basierten Ansatz und die daraus resultierenden Artefakte.

Coda
2009-08-23, 22:28:13
Ich hab mir das FAST-Paper mal durchgelesen und bin der Meinung dass ein paar Dinge auch schon implementiert wurde um Samples zu sparen. Vor allem das man auf der "gröberen" Mip weniger Samples nimmt.

NVIDIA scheint reines Feline zu implementieren. Das habe ich auch als Referenz genommen. Das ist auch das was in den Specs angegeben wird, nämlich das Filtern entlang der LOA.

Das beste aus beiden Welten könnte noch ein besseres Bild ergeben, aber der Filterkernel ist dann immer noch wichtig. Vor allem sagt das FAST-Paper, dass Feline die eine Mip unterfiltert (was theoretisch auch so ist), aber wenn ich explizit überfiltere, dann aliast es praktisch immer noch gleich. Deshalb sage ich, dass der Basisfilter wahrscheinlich inzwischen wichtiger ist.

Gast
2009-08-23, 22:35:10
Huddy wurde darauf nicht explizit angesprochen, sondern sagte von sich aus das "...die Qualität des AFs bei beiden großen GPU-Herstellern noch weit vom Optimum entfernt ist, und er glaubt das beide das auch bis zu einem gewissen Grade angehen werden...". Er hätte also gar nicht erwähnen müssen das NV perfekt ist. Aber okay, anzweifeln kann man alles.

perfekt ist niemand! auch nv wird sich da schon einige Reserven offen halten.
weil: wer will mir denn erzählen das 16xaf perfekt ist?

Ailuros
2009-08-24, 09:57:16
Coda,

Die Filterkernel koennten wohl selbst bei NVIDIA noch besser werden oder?

reunion,

Weder AF noch AA ist nahe am Optimum und wird es auch wohl schwer selbst irgendwann in der Zukunft sein. Wie dem auch sei da AF Algorithmen heutzutage rein adaptiv sind (ie Texturen werden analysiert und je nach Bedarf zwischen 1x und 16x samples angelegt) und der Leistungsverlust fuer AF eben deswegen relativ klein ist, ist es heutzutage von Grund auf laecherlich an AF zu sparen.

Ailuros
2009-08-24, 11:16:37
Damit der RV870 Thread nicht vollgepappt wird mit G300 Material: NV behauptet Leistungs-unterschiede fuer G300 auf G8x vs. G7x Nivaeu ergo ueber dem was die theoretischen Zahlensteigerungen anzeigen koennten. Wenn jegliche bisherige Einzelheit stimmt ueber D12U gibt es auch so manche Aenderungen im chip; zwar keine tabula rasa wie NV behauptet, aber ein sehr grosses Prozentual muesste schon umgekrempelt werden damit man so etwas erreichen kann.

Auf jeden Fall soll der Unterschied zwischen GT200 und G80 irgendwo auf 80% ausgefallen sein weil die crossbar im SC in der ersten unveraendert ankam und ja ich hab auch jemand unabhaengigen auf einer Uni der das Ganze nachvollziehen konnte mit stellenweise sogar ziemlich heftigen Leistungsverlusten fuer GT200.

Ich bleibe aber dabei dass ich bis ich es sehe eher an eine ~100% Leistungssteigerung zwischen G300 und GT200 glaube und mich fuer jeglichen zusaetzlichen Schnippel darueber angenehm ueberraschen lasse.

crux2005
2009-08-24, 11:42:33
Genau das PR Zeug wurde mir schon im April gesagt. Halte davon aber wenig, weil da auch kam "die neue GPU Architektur ist sehr sexi" und noch anderes blablabluba. Die GTX 275 wurde beim Launch auch mit der Erfolgreichen 8800GT verglichen und wir wissen ja was die Realität ist/war. IMHO, alles nur Marketing.

=Floi=
2009-08-24, 15:22:00
in speziellen situation und settings haben diese behauptungen aber immer der warheit entsprochen. ebenso bei sachen die auf die neuen features setzten.

das wollte ich aber eigentlich nicht schreiben.
wie sieht es denn bei ati aus? erweitern die nur den chip, oder wird hier auch der ganze chip stark überarbeitet? Ein überarbeiteter thread sheduler mit erheblich höherer leistung würde der karte sicherlich gut tun.

Nakai
2009-08-24, 15:51:09
in speziellen situation und settings haben diese behauptungen aber immer der warheit entsprochen. ebenso bei sachen die auf die neuen features setzten.

Mhh, sieht wohl eher so aus, als wäre der G300 da deutlich schneller, wo der GT200/G92 nicht eine so schnelle Performance abgeliefert haben. Ergo bei 8xMSAA.


mfg Nakai

Gast
2009-08-24, 15:55:23
Mhh, sieht wohl eher so aus, als wäre der G300 da deutlich schneller, wo der GT200/G92 nicht eine so schnelle Performance abgeliefert haben. Ergo bei 8xMSAA.

Vollkommen logisch, man richtet sich nach den Tests.

Völlig egal obs wichtigere Dinge gibt, tja so bleibt anderes auf der Strecke.

Aquaschaf
2009-08-24, 16:12:41
Ein überarbeiteter thread sheduler mit erheblich höherer leistung würde der karte sicherlich gut tun.

Was deutet denn darauf hin dass an dieser Stelle ein Flaschenhals sitzt?

Gaestle
2009-08-24, 17:02:41
Mhh, sieht wohl eher so aus, als wäre der G300 da deutlich schneller, wo der GT200/G92 nicht eine so schnelle Performance abgeliefert haben. Ergo bei 8xMSAA.


mfg Nakai

Ich kann jetzt gerade keine Zahlen vorweisen, aber es hieß mal, dass aktuelle Treiber die 8xMSAA"Schwäche" deutlich verbessert hätten.

y33H@
2009-08-24, 17:50:25
Schau dir Tests mit älteren und aktuellen Treibern an, ganz einfach.

KonKorT
2009-08-24, 17:51:01
Ich bleibe aber dabei dass ich bis ich es sehe eher an eine ~100% Leistungssteigerung zwischen G300 und GT200 glaube und mich fuer jeglichen zusaetzlichen Schnippel darueber angenehm ueberraschen lasse.
Ich wette dagegen. Es sind > 100% Leistungssteigerung, insbesondere wenn man GTX 280 als Bemessungsgrundlage zu Rate zieht.

crux2005
2009-08-24, 18:54:11
und der Einsatz? :wink:

Gast
2009-08-24, 21:02:01
Kommt auf die Spiele und das Setting an, in Crysis wird man sich umschauen, während man in Oblivion nicht mehr viel erwarten darf.
Allerdings darf ich an die drastische Steigerung erinnern, die die 8800GTX zeigen konnte, bei Release. Am Anfang schaute es nicht nach viel rums unter der Haube aus, aber mit den neueren Games damals hat man die Last Gen doch deutlichst zersägt (HL2 anyone LOL).

Nightspider
2009-08-24, 21:07:58
Kommt auf die Spiele und das Setting an, in Crysis wird man sich umschauen, während man in Oblivion nicht mehr viel erwarten darf.
Allerdings darf ich an die drastische Steigerung erinnern, die die 8800GTX zeigen konnte, bei Release. Am Anfang schaute es nicht nach viel rums unter der Haube aus, aber mit den neueren Games damals hat man die Last Gen doch deutlichst zersägt (HL2 anyone LOL).

Joar ich erinnere mich an die Zeiten wo ich dann plötzlich mit meiner 8800GTX Half Life 2 auf 2048*1600 @ High mit transparentem 16*AA zocken konnte...man wie mir das Kinn runtergeklappt ist.

Jetzt war ich nurnoch das ich Crysis auf 1920*1200 mit Downsampling flüssig spielen kann. ;D

AnarchX
2009-08-25, 22:05:12
Auf der aktuellen AIC Partner Roadmap soll laut CJ (http://gathering.tweakers.net/forum/list_messages/1354358/last) wohl kein GT300 für 2009 aufgeführt sein.

crux2005
2009-08-25, 22:13:46
War der G80 seiner Zeit auf so einer AIC Partner Raodmap? (Ehrliche Frage)
Imho könnte auch die "AMD Marketing Abteilung" über CJ/neliz absichtlich diese Information verbreiten damit die Leute Evergreen Karten kaufen und nicht auf "G300" warten.

Ailuros
2009-08-26, 07:28:42
Die vorerwaehnten Herren und ein gewisser moechtegern "Redakteur" gehoeren alle zum entourage eines gewissen Herren den ich jetzt nicht erwaehnen will. Manches stimmt ab und zu und manches ist gezielte falsche Information.

Ich hab erst vor kurzem etwas wiederholt was er irgendwann mal im B3D IRC Kanal oeffentlich ueber NV erwaehnte und ich hatte kurz danach ein PM ich sollte den Post aendern weil es gegen die Regeln des Kanals verstosst. Manchen Dreck kann man eben nicht zudecken und ich kann endlich nach all den Jahren verstehen warum sich bei jedermann bei NV der Magen dreht wenn sie nur seinen Namen hoeren.

Irgendwann muesste ich JR aus seinem Loch lotzen und ihn ein Buch schreiben lassen; dann sehen manche vielleicht was fuer ein Dreckhaufen es eigentlich ist und wie sich manche mit Schlammschlachten eine Karriere einkaufen koennen.....

War der G80 seiner Zeit auf so einer AIC Partner Raodmap? (Ehrliche Frage)
Imho könnte auch die "AMD Marketing Abteilung" über CJ/neliz absichtlich diese Information verbreiten damit die Leute Evergreen Karten kaufen und nicht auf "G300" warten.

Ich weiss es nicht mehr um ehrlich zu sein...ich kann mich nur daran erinnern dass ich im Sommer mit Rys eine Wette einging dass G80 nicht vor Weihnachten verfuegbar sein wird. Gott sei Dank versprach ich ihm nur eine oeffentliche Entschuldigung, denn an einem Besen haette ich immer noch kauen muessen...

http://users.otenet.gr/~ailuros/Introduction.pdf

Wie dem auch sei, die meisten von uns warten so oder so die ersten unabhaengigen Untersuchungen von Evergreen GPUs ab. Ich kann aber nicht sagen dass ich nach den letzten angeblichen AF Aenderungen nicht aufrecht sitze ueber die kommenden Radeons....

mboeller
2009-08-26, 15:33:49
CJ auf Tweakers.net:


I have a recent evening NVIDIA roadmap found in my mailbox. When its all been pluist and analyzed, I will post some info here (if it has not been leaked elsewhere). I do not think some of you will be happy with certain decisions. Something I have already mentioned that GT300 could not come in 2009, but that will no great surprise to many.



It is a roadmap for their AIC partners ... GT300 does not occur in 2009, so very small chance that these partners can also ensure that the stores this year GT300s stock the shelves are located.
G92 is still hanging around for a while ...


CJ auf Beyond3D:

Furthermore I expect them to release some D10M, D10P and D10U GPUs in Q3-Q4 '09 and they'll probably rebrand some other GPUs like G92 -> D10P2 which will stick around for another 9 months (yay!) and they'll give GTX260 a refresh (1792MB versions) as well as flood the market with GTX275s.




G92 wird also anscheinend noch einmal rebranded.

Gast
2009-08-26, 15:46:38
G92 wird also anscheinend noch einmal rebranded.

Womit an den Gerüchten doch was dran wäre. http://www.forum-3dcenter.org/vbulletin/showthread.php?t=463222

Insgesamt kann man sich ja schon auf die Anti-> DX11, W7, Ati Präsentationen freuen.

LovesuckZ
2009-08-26, 15:50:12
Womit an den Gerüchten doch was dran wäre. http://www.forum-3dcenter.org/vbulletin/showthread.php?t=463222

Auch den Text gelesen? Machmal reicht das bloße Wiedergeben eben nicht aus.


Insgesamt kann man sich ja schon auf die Anti-> DX11, W7, Ati Präsentationen freuen.

Schon gewusst: nVidia hält auf der GPU Summit Vorträge über D3D11 und ComputeShader...
Oh und laut ihnen wäre Windows 7 für mGPU systeme besser geeignet - aber nicht weitersagen, ja?

http://www.techpowerup.com/img/09-08-19/111e.jpg
http://www.techpowerup.com/index.php?101944

Und dann äußert man sich gegenüber Fuad auch noch so:
Nvidia is excited about DirectX 11 and they believe that these are the important updates that they need to follow.
http://www.fudzilla.com/content/view/14982/65/

igg
2009-08-26, 15:55:43
Lag CJ denn irgendwann mal falsch?

LovesuckZ
2009-08-26, 16:15:35
Lag CJ denn irgendwann mal falsch?

Wenn man durch die alten Threads im Beyond3d.com Forum geht, dann scheint er Zugriff auf das Marketingmaterial zu haben, aber richtige Quellen über nVidia sind da weniger vorhanden.

Z.B über die 8800GT - ein Monat vor der Veröffentlichung:


Just heard from a fairly reliable source that the G92 aka GF8700 performs in between a GF8600GTS and GF8800GTS. It looks like AMD really succeeded in crashin nV's party by releasing the HD2900Pro which offers better performance for the same price one and a half months sooner. And G92 will go up against RV670 in November... and that fight should be in favor of the RV670...
http://forum.beyond3d.com/showthread.php?p=1070119#post1070119

Beim GT200 hat er erst ca. einem Monat vor Launch angefangen vermehrt Daten zu veröffentlichen.

reunion
2009-08-26, 17:18:44
CJ auf Tweakers.net:






CJ auf Beyond3D:




G92 wird also anscheinend noch einmal rebranded.

Hm, na da bin ich gespannt wer Recht behält bzw. ob das noch jemand bestätigt.

Gast
2009-08-26, 17:21:10
Oh und laut ihnen wäre Windows 7 für mGPU systeme besser geeignet - aber nicht weitersagen, ja?

http://www.techpowerup.com/img/09-08-19/111e.jpg
http://www.techpowerup.com/index.php?101944



Ist ja nichts neues, gilt auch für ATI

http://www.xbitlabs.com/articles/video/display/windows7-drivers_12.html#sect0

LovesuckZ
2009-08-26, 17:25:07
Darauf bezog ich mich nicht - sondern auf die Aussage, dass nVidia Windows 7 negativ eingestellt wäre, solange sie keine D3D11 Grafikkarte auf dem Markt hätten.

Gast
2009-08-26, 17:42:50
Darauf bezog ich mich nicht - sondern auf die Aussage, dass nVidia Windows 7 negativ eingestellt wäre, solange sie keine D3D11 Grafikkarte auf dem Markt hätten.

Hab ich die Ausage übersehn?

LovesuckZ
2009-08-26, 17:44:03
Hab ich die Ausage übersehn?

Eventuell:


Insgesamt kann man sich ja schon auf die Anti-> DX11, W7, Ati Präsentationen freuen.

Gast123456
2009-08-26, 17:58:06
Na da warten wir mal gespannt auf den Zeitpunkt wo RV870 im Laden steht. Frei nach dem Motto: Was interessiert mich mein Geschwätz von gestern. B3D hat dazu ja schon eine nette Umrage.

LovesuckZ
2009-08-26, 18:03:42
Na da warten wir mal gespannt auf den Zeitpunkt wo RV870 im Laden steht. Frei nach dem Motto: Was interessiert mich mein Geschwätz von gestern. B3D hat dazu ja schon eine nette Umrage.

Und deren Meinung sollte sich dann ändern? :rolleyes:
Windows 7 wird immer von nVidia geliebt werden - immerhin will man ION pushen. Und ComputeShader ist ein Mittel dafür.

Ailuros
2009-08-26, 19:57:54
Es tut mir leid aber entweder ueberrascht uns NVIDIA regelrecht in der letzten Minute oder es stimmt tatsaechlich etwas nicht an der ganzen Geschichte. Ich will ja gern an Wunder glauben aber zumindest eine Traene will ich aber dann schon von Madonna's Gesicht laufen sehen. So langsam geht mir die Geduld mit der insgesamten Todstille aus...

LovesuckZ
2009-08-26, 20:20:03
Da beide auf dem selben Prozeß setzen, muss dann das Design einen schwerwiegenden Fehler haben. Ansonsten ist auch AMD davon betroffen.

reunion
2009-08-26, 20:36:47
Tja, da wären wir wieder beim Thema große fette Mega-GPU plus neuer Prozess ist gleich gefährliche Mischung. Seit NV30 hat sich NV das nicht mehr getraut. Auch AMD ist damit sowohl mit R520 als auch mit R600 auf die Fresse gefallen.

AnarchX
2009-08-26, 20:40:15
Zumal das neue Powermanagement mit allerhand verschiedener Taktdomainen (TMU-Domain ~1GHz) auch nicht ganz ohne sein wird.
RV870 scheint sich wohl eher im konservativeren Taktbereich eines RV770 zu bewegen.

LovesuckZ
2009-08-26, 20:50:18
Tja, da wären wir wieder beim Thema große fette Mega-GPU plus neuer Prozess ist gleich gefährliche Mischung. Seit NV30 hat sich NV das nicht mehr getraut. Auch AMD ist damit sowohl mit R520 als auch mit R600 auf die Fresse gefallen.

Und AMD will dann über 300mm^2 bringen? :rolleyes:
Tape-Out des rv740 soll im Dezember 2008 gewesen sein. 40nm ist nicht neu. Und da selbst heute noch die 40nm GPUs kaum anwesend sind, hat die Größe des Chips keinen primären Einfluss auf eine eventuelle Verspätung - außer das Design ist murks.

Ailuros
2009-08-26, 21:21:52
Zumal das neue Powermanagement mit allerhand verschiedener Taktdomainen (TMU-Domain ~1GHz) auch nicht ganz ohne sein wird.
RV870 scheint sich wohl eher im konservativeren Taktbereich eines RV770 zu bewegen.

Ich hab den Verdacht dass mehr Einheiten als nur die TMUs von der neuen Frequenzverwaltung betroffen sein koennten. Aber so direkt verbunden mit der Herstellung sehe ich das Ganze nicht unbedingt.

Tja, da wären wir wieder beim Thema große fette Mega-GPU plus neuer Prozess ist gleich gefährliche Mischung. Seit NV30 hat sich NV das nicht mehr getraut. Auch AMD ist damit sowohl mit R520 als auch mit R600 auf die Fresse gefallen.

So gross ist der chip generell gesehen nun auch wieder nicht. Wir reden ueber das Thema nochmal wenn von beiden Seiten die Transistoren-Anzahl pro chip bekannt gegeben wird und auch perf/Watt u.a.

Da beide auf dem selben Prozeß setzen, muss dann das Design einen schwerwiegenden Fehler haben. Ansonsten ist auch AMD davon betroffen.

Oder sie haben Ihr eigentliches Ziel einfach noch nicht erreicht. Der Ansatz ist verdammt hoch diesmal und ich bezweifle dass sie sich so einfach mit sehr viel weniger zufrieden geben werden. Irgendwo murmelte man gerade dass sich perf/Watt verdoppelt haben soll im Vergleich zur heutigen Generation.

reunion
2009-08-26, 21:33:24
Und AMD will dann über 300mm^2 bringen? :rolleyes:

Ja und AMD ist damit durch. Die Chips sind längst in Massenproduktion und kurz vorm Launch.


Tape-Out des rv740 soll im Dezember 2008 gewesen sein. 40nm ist nicht neu. Und da selbst heute noch die 40nm GPUs kaum anwesend sind, hat die Größe des Chips keinen primären Einfluss auf eine eventuelle Verspätung - außer das Design ist murks.

Aktuell ist schlicht die Kapazität zu gering, das soll sich aber bald ändern. Die Liefermengen sollen schon im Q3 sprunghaft ansteigen. Die Sapphire 4770 ist so gut zu bekommen wie noch nie.

Ein größerer Chip ist einfach komplexer, und damit schwieriger zu durchblicken, zu debugen, etc. Er führt auch den Fertigungsprozess stärker an die Grenzen. Es hat schon seinen Grund warum man sehr große Chips normalerweise nur bei bewährten Prozessen einsetzt. Selbst Intel macht das so.

reunion
2009-08-26, 21:34:15
Oder sie haben Ihr eigentliches Ziel einfach noch nicht erreicht. Der Ansatz ist verdammt hoch diesmal und ich bezweifle dass sie sich so einfach mit sehr viel weniger zufrieden geben werden. Irgendwo murmelte man gerade dass sich perf/Watt verdoppelt haben soll im Vergleich zur heutigen Generation.

Das wäre nichts besonderes. RV870 wird ungefähr das gleiche verbrauchen wie RV770. Wenn man die Leistung verdoppelt ist damit auch die Leistung/Watt doppelt so hoch. Ähnlich bei NV.

Ailuros
2009-08-26, 21:50:25
Aktuell ist schlicht die Kapazität zu gering, das soll sich aber bald ändern. Die Liefermengen sollen schon im Q3 sprunghaft ansteigen. Die Sapphire 4770 ist so gut zu bekommen wie noch nie.

Ich kann den RV740 BS schon gar nicht mehr hoeren; das Ding war AMD's 40nm erstes Testrennen und hat nur Bums im OEM Markt verkauft weil der chip eben den Bus verpasst hat. Sobald bessere Verfuegbarkeit dann einschlaegt hat es keinen Sinn mehr als eher sein neues X11 Material stattdessen zu verkaufen.

http://www.theinquirer.net/inquirer/news/1530966/nvidia-bad-news-ion-delays

Als 40nm Testrennen war 740 ausgezeichnet und es hat AMD auch nichts besonderes gekostet.

Ein größerer Chip ist einfach komplexer, und damit schwieriger zu durchblicken, zu debugen, etc. Er führt auch den Fertigungsprozess stärker an die Grenzen. Es hat schon seinen Grund warum man sehr große Chips normalerweise nur bei bewährten Prozessen einsetzt. Selbst Intel macht das so.

Insgesamt stimmt es schon aber wenn die yields fuer weniger komplexe chips besser werden dann gilt auch das gleiche bei geringerem Mass auch fuer die komplizierteren chips. Man braucht auch nicht die gleiche Menge von high end und performance chips da die Volumen auch einen ziemlichen Unterschied haben.

Was macht Intel nochmal? Schoen leg Deine Hand ins Feuer dass LRB nicht in 45nm ankommt und zeig mir welcher 45nm SoC von Intel schon auf Marktregalen hockt und dann erzaehl mir erst was Intel genau macht oder machen kann. Und komm mir bloss nicht mit irgendwelchem CPU Unsinn.

Das wäre nichts besonderes. RV870 wird ungefähr das gleiche verbrauchen wie RV770. Wenn man die Leistung verdoppelt ist damit auch die Leistung/Watt doppelt so hoch. Ähnlich bei NV.

Ich sagte erstmal dass es irgendwo erwaehnt wurde nicht dass es auch stimmt da ich immer noch nicht weiss wie die Leistung genau aussieht. Zumindest bis zu 2x Mal so hoch als das heutige Zeug wird es schon sein und das heisst erstmal mehr als nur eine einfache Verdoppelung des Faktors. Ob das Resultat jetzt sowohl im 2D und im 3D Modus etwas besonderes sein wird bleibt abzusehen. Erinner Dich aber gefaelligst dran beim naechsten Mal wenn Du antwortest dass ein sehr komplizierter chip nicht nur dann ein Punkt sein kann wenn man etwas negatives sagen will; denn wuerde ATI mit der chip-Komplexitaet von D12U ankommen wuerde der Stromverbrauch durch die Decke hauen im Vergleich zu heutigem ~RV770 Nivaeu und das sogar mit einer oeden universalen Frequenz.

LovesuckZ
2009-08-26, 22:00:32
Ja und AMD ist damit durch. Die Chips sind längst in Massenproduktion und kurz vorm Launch.

Ja und anscheinend benötigt man zwischen "launch" und "launch" einem Monat.


Aktuell ist schlicht die Kapazität zu gering, das soll sich aber bald ändern. Die Liefermengen sollen schon im Q3 sprunghaft ansteigen. Die Sapphire 4770 ist so gut zu bekommen wie noch nie.

Nach 4 bzw. 5 1/2 Monaten nach der Ankündigung. Soviel dazu, dass der Prozeß gut ist. Die Kapazität war nicht da, weil man nicht produzieren konnte. Und das hatte nichts mit den Chips zu tun. Und das beeinflusst erst dann den Termin des GT300, wenn die Problematik sich weiter hinzieht.


Ein größerer Chip ist einfach komplexer, und damit schwieriger zu durchblicken, zu debugen, etc. Er führt auch den Fertigungsprozess stärker an die Grenzen. Es hat schon seinen Grund warum man sehr große Chips normalerweise nur bei bewährten Prozessen einsetzt. Selbst Intel macht das so.

Wenn der Prozeß nicht mitspielt, dann werden die Karten niedriger getaktet. 50% größer führt nicht dazu, dass bei selbem Prozeß plötzlich nichts läuft.
Und 300mm^2 sind riesig, wenn man in einen Prozeß geht, den man nicht kennt. AMD's erster 55nm Chip war 192mm^2 groß, nVidia's erster 90nm hatte eine Größe von 198mm^2. Und selbst beim G92 waren die Yields über 1 1/2 Monate kaum gut, da die Verfügbarkeit sehr schlecht war.

reunion
2009-08-26, 22:02:26
Erinner Dich aber gefaelligst dran beim naechsten Mal wenn Du antwortest dass ein sehr komplizierter chip nicht nur dann ein Punkt sein kann wenn man etwas negatives sagen will; denn wuerde ATI mit der chip-Komplexitaet von D12U ankommen wuerde der Stromverbrauch durch die Decke hauen im Vergleich zu heutigem ~RV770 Nivaeu und das sogar mit einer oeden universalen Frequenz.

Ich habe schön öfter gesagt das ein größerer Chip generell effizienter wäre. Und der Stromverbrauch würde bei AMD nur deshalb aus der Decke schießen weil man die Transistoren wesentlich dichter packt:

RV770: 260mm², 956mio Transistoren
GT200b: 490mm², 1400mio Transistoren.

reunion
2009-08-26, 22:06:46
Ja und anscheinend benötigt man zwischen "launch" und "launch" einem Monat.


Verkraftbar wenn es sich bestätigt das GT300 erst 2010 kommt.


Nach 4 bzw. 5 1/2 Monaten nach der Ankündigung. Soviel dazu, dass der Prozeß gut ist. Die Kapazität war nicht da, weil man nicht produzieren konnte. Und das hatte nichts mit den Chips zu tun. Und das beeinflusst erst dann den Termin des GT300, wenn die Problematik sich weiter hinzieht.


Klar, nur bleibt die Frage wie gut der Prozess dann ist wenn die Kapazitäten steigen bzw. ob es bei GT300 überhaupt am Prozess liegt.

Ailuros
2009-08-26, 22:07:22
Wenn der Prozeß nicht mitspielt, dann werden die Karten niedriger getaktet. 50% größer führt nicht dazu, dass bei selbem Prozeß plötzlich nichts läuft.

Wenn man zu niedrig takten muss verpasst man erstmal das originale Ziel und man geht auf einen respin bis man das Ziel erreicht. 50% fuehrt zwar nicht dazu dass nichts laeuft, aber es kann die yields schon beinflussen.

Und 300mm^2 sind riesig, wenn man in einen Prozeß geht, den man nicht kennt. AMD's erster 55nm Chip war 192mm^2 groß, nVidia's erster 90nm hatte eine Größe von 198mm^2. Und selbst beim G92 waren die Yields über 1 1/2 Monate kaum gut, da die Verfügbarkeit sehr schlecht war.

Hiermit hat AMD aber so oder so einen besseren Anlauf; ein RV740 ist immer noch um einiges komplizierter als die Bumsfallera GT21x-mobilen chips die NV auf's 40nm Glatteis schickte.

Ailuros
2009-08-26, 22:10:09
Ich habe schön öfter gesagt das ein größerer Chip generell effizienter wäre. Und der Stromverbrauch würde bei AMD nur deshalb aus der Decke schießen weil man die Transistoren wesentlich dichter packt:

RV770: 260mm², 956mio Transistoren
GT200b: 490mm², 1400mio Transistoren.

Gut und was genau definiert riesig nochmal genau? Zaelen nur die Quadratmillimeter hier oder eher eine komplizierte Kombination aus diversen Faktoren u.a. auch Packdichte?

-------------------------------------
***edit: uebrigens schon den neuesten Irrsinn gelesen?

http://www.xbitlabs.com/news/video/display/20090826114745_GPUs_Set_to_Increase_Performance_by_570_Times_by_2015_Chief_Execu tive_of_Nvidia.html

LovesuckZ
2009-08-26, 22:23:33
Hiermit hat AMD aber so oder so einen besseren Anlauf; ein RV740 ist immer noch um einiges komplizierter als die Bumsfallera GT21x-mobilen chips die NV auf's 40nm Glatteis schickte.

Also der GT214(?) soll 125mm^2 groß sein - nicht wirklich kleiner als ein rv740. Aber da selbst der GT216 mit seinen ca. 65mm^2 nicht im Notebookmarkt auftaucht, bezweifel ich, dass die Massenproduktion schon so richtig läuft.

Verkraftbar wenn es sich bestätigt das GT300 erst 2010 kommt.

Und somit ist 3xxmm^2 auf 40nm High-End im Jahr 2009.


Klar, nur bleibt die Frage wie gut der Prozess dann ist wenn die Kapazitäten steigen bzw. ob es bei GT300 überhaupt am Prozess liegt.

Die Güte des Prozeßes ist unabhängig von der Kapazität. Die schlechte Verfügbarkeit lag nicht an den fehlenden Anlagen, sondern am Prozeß selbst.

Ailuros
2009-08-27, 08:26:47
Also der GT214(?) soll 125mm^2 groß sein - nicht wirklich kleiner als ein rv740. Aber da selbst der GT216 mit seinen ca. 65mm^2 nicht im Notebookmarkt auftaucht, bezweifel ich, dass die Massenproduktion schon so richtig läuft.

Ja zum letzten; zum ersten musst Du mir erstmal eine GT214 zeigen.

Und somit ist 3xxmm^2 auf 40nm High-End im Jahr 2009.

*stoehn....*

reunion
2009-08-27, 08:35:16
Die schlechte Verfügbarkeit lag nicht an den fehlenden Anlagen, sondern am Prozeß selbst.

Kann sein, muss aber nicht. Ich will ja hier nicht den Spielverderber spielen, aber die Sapphire und XFX 4770 sind bereits erstaunlich gut verfügbar, und es wird jeden Tag besser. Auch Custom-Design werden mittlerweile zunehmend vorgestellt. Das zeigt deutlich das es mit den 40nm Kapazitäten aufwärts geht:

http://geizhals.at/eu/a426956.html
http://geizhals.at/eu/a426957.html
http://geizhals.at/eu/a426938.html

Damit sollte einer Verfügbarkeit der DX11-Chips im Oktober nichts im Wegen stehen was den Prozess betrifft IMHO.

Ailuros
2009-08-27, 09:06:18
Uebrigens ueber Huang's 570x Mal Dingsbums Behauptung fuer die Zukunft: er bezieht sich natuerlich auf GPU compute, was in NV's "slang" fuer GPGPU steht. Es wird wohl irgend eine noch nicht vorhandene Faehigkeit in heutigen GPUs geben die dann irgendwann in zukuenftigen GPUs auftachen wird und man geht dann verstaendlicherweise von etlichen seconds per frame (spf-sic) auf frames per second (fps).

AnarchX
2009-08-27, 09:22:54
Wohl mehr eine Aussage um sich in die Schlagzeile zu bringen.
Der Faktor 3 für CPUs, gerade wenn in diesem Zeitraum Pools von Co-Vektorprozessoren und breit angebundender DRAM im Package Einzug hält, ist ja auch sehr untertrieben.

mboeller
2009-08-27, 09:39:25
Uebrigens ueber Huang's 570x Mal Dingsbums Behauptung fuer die Zukunft: er bezieht sich natuerlich auf GPU compute, was in NV's "slang" fuer GPGPU steht. Es wird wohl irgend eine noch nicht vorhandene Faehigkeit in heutigen GPUs geben die dann irgendwann in zukuenftigen GPUs auftachen wird und man geht dann verstaendlicherweise von etlichen seconds per frame (spf-sic) auf frames per second (fps).


Wenn er wirklich GPGPU gemeint hat, dann bleibt wohl nur die GT200 als Basis.

90GFlops x 570 = 51300 GFlops.

Das wären dann so 2048 256bit breite Shader mit > 6,25GHz.

Ouch!

mboeller
2009-08-27, 09:41:49
Die vorerwaehnten Herren und ein gewisser moechtegern "Redakteur" gehoeren alle zum entourage eines gewissen Herren den ich jetzt nicht erwaehnen will. Manches stimmt ab und zu und manches ist gezielte falsche Information.


Übrigens;
Hübscher FUD / Contra-FUD.

Willst du dich darüber ein wenig auslassen?

Ailuros
2009-08-27, 09:46:00
Wenn er wirklich GPGPU gemeint hat, dann bleibt wohl nur die GT200 als Basis.

90GFlops x 570 = 51300 GFlops.

Das wären dann so 2048 256bit breite Shader mit > 6,25GHz.

Ouch!

Wo steht dass er GT200 als Basis nimmt? Und wieso muss es sich mir nichts Dir nichts um DP FLOPs handeln? Es geht nicht dass Dein chief engineer fuer 2015 irgendwo um die 20TFLOPs einschaetzt und Du mir als CEO das gleiche aber 2x Mal so hoch einschaetzt. Wie gesagt ich schaetze eher er meint irgend eine noch nicht in GPUs vorhandene Funktion die mit der Zeit erscheint und dann nach oben skaliert; ob diese jetzt im D12U schon vorhanden sein koennte weiss wohl auch noch keiner. Man brauchte einfach irgend etwas um eine momentan bedeutungslose Zahl in die Luft zu schmeissen.

Übrigens;
Hübscher FUD / Contra-FUD.

Willst du dich darüber ein wenig auslassen?

Nein selbst privat will ich mich nicht darueber auslassen. Je mehr man in der Sch***** herumruehrt, desto uebler stinkt es. Deckel drueber und aus damit.

LovesuckZ
2009-08-27, 09:51:45
Ja zum letzten; zum ersten musst Du mir erstmal eine GT214 zeigen.

Ich habe keine Ahnung wie der 96SP Chip heißt - aber er ist anscheinend um die 125mm^2 groß.


*stoehn....*

Wenn nVidia bis zu 6 Monate nach AMD kommen könnte, dann sind 3xxmm^2 auf/in 40nm^2 einfach High-End. Da lässt sich nichts herumreden. High-End ist nunmal das maximal möglichste - und das sind wohl anscheinend nicht +-480mm^2.
Und man muss sehen, dass 480mm^2 eine Grenze ist, die schon vor 3 Jahren erreicht wurde - demnach müssten es heute aufgrund deutlich besserer Tools einfacher zu realisieren sein.

Ailuros
2009-08-27, 10:00:12
Ich habe keine Ahnung wie der 96SP Chip heißt - aber er ist anscheinend um die 125mm^2 groß.

Zeig mir einen in einem kaufbaren Geraet; wird wohl nicht so schwer sein oder?

Wenn nVidia bis zu 6 Monate nach AMD kommen könnte, dann sind 3xxmm^2 auf/in 40nm^2 einfach High-End. Da lässt sich nichts herumreden. High-End ist nunmal das maximal möglichste - und das sind wohl anscheinend nicht +-480mm^2.
Und man muss sehen, dass 480mm^2 eine Grenze ist, die schon vor 3 Jahren erreicht wurde - demnach müssten es heute aufgrund deutlich besserer Tools einfacher zu realisieren sein.

Der Unsinn nervt; wenn die 5870X2 doch im November selbst bei begrenzten Quantitaeten auf Regalen hockt, dann hast Du nach Preis, nach Leistung, nach verplemperter die area oder weiss der Geier was noch high end.

Mich nerven generell Eure gegenseitigen Provokationen von beiden Fraktionen schon seit einiger Zeit; entweder zieht IHR ALLE irgendwann mal einen Strich oder ich ueberlass das Thema der gesamten Moderation zu entscheiden ob und welche Massnahmen getroffen werden. Es gibt schon fast keinen Thread mehr wo Du und die anderen gegenseitig provozieren und nein der letzte der hier unschuldig ist bist Du.

Ich will vom Cypress als high end keinen Pieps mehr hoeren egal von wem; der naechste Post darueber egal von wem wird geloescht.

AnarchX
2009-08-27, 10:19:42
Bei B3D (http://forum.beyond3d.com/showpost.php?p=1326438&postcount=5)hat man wohl das Geheimnis der 570x gelöst:
50 * 1,5^6 = 570

Die Basis ist eine aktuelle CPU, wo man einer aktuellen GPU einen Vorteil im Faktor 50 einräumt.
Für das Leistungswachstum von einer GPU ausgehend sieht man nur einen Faktor 11,4.

LovesuckZ
2009-08-27, 10:42:02
Zeig mir einen in einem kaufbaren Geraet; wird wohl nicht so schwer sein oder?

Das hat keine Bedeutung - nachdem selbst der G210 nirgends auftaucht. Selbst im OEM geschäft gibt es nur den GT220.

Der Unsinn nervt; wenn die 5870X2 doch im November selbst bei begrenzten Quantitaeten auf Regalen hockt, dann hast Du nach Preis, nach Leistung, nach verplemperter die area oder weiss der Geier was noch high end.

Es geht um den Chip. nVidia verbaut 2x480mm^2, das bedeutet im Umkehrschluss nicht, dass sie in 55nm 960mm^2 produzieren könnten.
Das zur Zeit machbare in 40nm ist nunmal um die 300mm^2. Daran gibt es wohl nichts zu disktutieren. Und das ist genauso einzuordnen wie ca. 300mm^2 in 90nm November 2005, 330mm^2 in 11nm August 2005 und 240mm^2 310mm^2 in 13nm im Juni 2004. Warum manche meinen, dass 300mm^2 in 40nm zur Zeit kein High-End wären, ist absurd, wenn eine größere Fläche anscheinend nicht produzierbar ist. Das die Möglichkeiten in der Zukunft steigern, ist normal. Aber die Gegenwart kann wohl kaum an der Zukunft gemessen werden.

/edit: Je kleiner der Prozeß wird, umso größer sind die Anstrengungen und Kosten, um produzieren zu können. Dazu ist 300mm^2 eine Zahl, die eben nicht mal so von hunderten von Chips übertroffen wurde. Und seit über 5 Jahren kam es zu keiner Verdopplung der Größe - dass wiederrum zeigt, wie schwer es selbst bei kleineren Prozessen ist bestimmte Grenzen zu überfinden.

Ailuros
2009-08-27, 11:04:01
Das hat keine Bedeutung - nachdem selbst der G210 nirgends auftaucht. Selbst im OEM geschäft gibt es nur den GT220.

Und um auf's eigentliche Thema zurueckzukommen was soll mir das jetzt genau beweisen was yields oder Verfuegbarkeit eines chips betrifft?

reunion
2009-08-27, 11:20:53
Es geht um den Chip. nVidia verbaut 2x480mm^2, das bedeutet im Umkehrschluss nicht, dass sie in 55nm 960mm^2 produzieren könnten.
Das zur Zeit machbare in 40nm ist nunmal um die 300mm^2. Daran gibt es wohl nichts zu disktutieren. Und das ist genauso einzuordnen wie ca. 300mm^2 in 90nm November 2005, 330mm^2 in 11nm August 2005 und 240mm^2 310mm^2 in 13nm im Juni 2004. Warum manche meinen, dass 300mm^2 in 40nm zur Zeit kein High-End wären, ist absurd, wenn eine größere Fläche anscheinend nicht produzierbar ist. Das die Möglichkeiten in der Zukunft steigern, ist normal. Aber die Gegenwart kann wohl kaum an der Zukunft gemessen werden.


Schon mal überlegt das es auch am Chip liegen kann und nicht der Prozess Schuld sein muss?


/edit: Je kleiner der Prozeß wird, umso größer sind die Anstrengungen und Kosten, um produzieren zu können. Dazu ist 300mm^2 eine Zahl, die eben nicht mal so von hunderten von Chips übertroffen wurde. Und seit über 5 Jahren kam es zu keiner Verdopplung der Größe - dass wiederrum zeigt, wie schwer es selbst bei kleineren Prozessen ist bestimmte Grenzen zu überfinden.

Die Grenzen sind wohl ganz einfach die 300mm Wafern. Genauso wie bei 200mm Wafern bei um die 300mm² Schluss war dürften bei etwas über 500mm² die Grenze dessen sein was man auf 300mm Wafer noch halbwegs kostengünstig produzieren kann. Für wesentlich mehr als 500mm² Chips braucht es wohl größere Wafer, bei Intel sollen 2012 450mm Wafer kommen, bei den anderen wohl etwas später. Immerhin bekommt man aus einer 300mm Wafer kaum mehr als 100 Chips in der Größenordnung 500mm² heraus, die Yields noch gar nicht berücksichtigt.

Ailuros
2009-08-27, 11:23:06
Schon mal überlegt das es auch am Chip liegen kann und nicht der Prozess Schuld sein muss?

Schon mal ueberlegt dass Du oefters laecherlicher klingst als Charlie?