PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : FX 5900 Ultra (NV35) am 14. Mai


Merlin31
2003-05-04, 13:05:39
http://www.computerbase.de/news.php?id=5146&sid=037c63f2da016461dd7102c8188acd78


Bin mal gespannt wie sie sich gegen die 9800 Pro behauptet:D

Quasar
2003-05-04, 13:09:55
Wenn man davon ausgeht, dass die von The Inquirer abgeschriebenen Specs und die von nVidia propagierten Performance-Vorteile stimmen, wird's die R9800pro schwer haben.

Wenn nicht: wer weiß.... ;)

Merlin31
2003-05-04, 13:13:17
9800Pro mit 256MB DDR2 Speicher schiele
Dann scheitn Ati aber einen wesentlichen höheren Takt fahren zu können.

Die Vorteile der NV sehe ich nicht so. Das die meisten Features frühesten mit der Einführung von DX10 intressant wären.
Und das dauert min. 1,5 Jahre.
Bis dahin ist die eh total veraltet.

Merlin31
2003-05-04, 13:15:32
welchen Preis NV sich da vorstellt für Europa.

Hoffentlich net so unrealistiche wie bei der 5800Ulra.

LovesuckZ
2003-05-04, 13:29:04
Originally posted by Merlin31
welchen Preis NV sich da vorstellt für Europa.
Hoffentlich net so unrealistiche wie bei der 5800Ulra.

399$ Non-Ultra
499$ Ultra Version

[dzp]Viper
2003-05-04, 13:32:18
wird sowieso nicht vor mitte august oder gar ende august zu kaufen sein ... also interessiert das momentan noch garnicht .. *gähn*

LovesuckZ
2003-05-04, 13:33:18
.sinnlos.

Merlin31
2003-05-04, 13:38:55
Ich habe von Europa gesprochen.

Die US Preise habe ich auch gesehen *trotzdem Danke:D

Unregistered
2003-05-04, 14:02:02
In Anbetracht eines extrem fallenden Dollars werden die nicht mehr so viel über den US Preisen liegen wie in der Vergangenheit.

Razor
2003-05-04, 14:03:46
Originally posted by [dzp]Viper
wird sowieso nicht vor mitte august oder gar ende august zu kaufen sein ... also interessiert das momentan noch garnicht .. *gähn*
Die sehr optimisten Retailer sprechen von ende Mai, die andern von Juni...

Woher willst Du Deine Info's haben ?
???

Razor

Razor
2003-05-04, 14:05:35
Originally posted by Merlin31
Ich habe von Europa gesprochen.

Die US Preise habe ich auch gesehen *trotzdem Danke:D
Schon mal den Dollar-Kurs angeschaut ?
???

Und dann schau Dir doch mal die Preise der FX5200 an.
US 99$ und nun schon ab 89€ in Europa...
( www.alternate.de -> Abit ;-)

Bis denne

Razor

Byteschlumpf
2003-05-04, 14:54:20
Ich nehme eher an, dass der NV35 den NV30 zum absoluten Ladenhüter machen wird, bevor dieser überhaupt halbwegs in Fahrt gekommen ist!

Wer eine FX5800/Ultra erst kürzlich erworben hat, muß sich ja ganz nächtig von nVidia veräppelt fühlen - außer nVidia zieht die bisher verkauften Karten zurück und bietet deren Käufern günstige Upgrades an, um es sich bei den Hardcore-Gamern nicht völlig zu verscherzen.

LovesuckZ
2003-05-04, 15:03:59
Originally posted by Byteschlumpf
Ich nehme eher an, dass der NV35 den NV30 zum absoluten Ladenhüter machen wird, bevor dieser überhaupt halbwegs in Fahrt gekommen ist!

Das stoert keinem, da nur weniger Ultra's anschneinend Verfuegbar sind. Die paar, die man kaufen kann, kostet sehr viel Geld. Gibt bestimmt nen paar, die sich diese Karte kaufen werden.


Wer eine FX5800/Ultra erst kürzlich erworben hat, muß sich ja ganz nächtig von nVidia veräppelt fühlen - außer nVidia zieht die bisher verkauften Karten zurück und bietet deren Käufern günstige Upgrades an, um es sich bei den Hardcore-Gamern nicht völlig zu verscherzen.

Warum? Niemand wird gezwungen, sich eine 5800 zu kaufen. Ausserdem gab es schon im Maerz Geruechte, dass der NV35 kurz nach dem Relase des NV30 vorgestellt werden koennte.
Veräppelt waere man, wenn nvidia den NV30 treibermaeßig nicht mehr weiter pflegen wuerde.

Sunrise
2003-05-04, 16:07:11
Der NV30 war von Anfang an ein Ladenhüter, selbst NVIDIA ging "planmäßig" davon aus, da man nur eine sehr begrenzte Anzahl an NV30-GPUs durch TSMC produzieren ließ. Die Ausbeute war nicht nur mager, sondern der ganze Prozess äußerst unprofitabel.

Man rechnet bei NVIDIA allerdings mit extrem starkem Interesse (natürlich auch aus eigenem Anlaß) am neuen NV35, da man bereits Aufträge in Höhe von ca. 600 Millionen US$ an Samsung erteilt hat, damit diese 2.2ns-Chips für NVIDIA liefern. Die Taktraten kann man sich damit auch eigentlich ausrechnen. Maximal 450MHZ DDR für High-End und 400MHZ DDR für die "kleinere" Variante in der High-End Sparte.
Das sind übrigens auch in etwa die Spekulationen vom INQ, diesmal lagen sie zumindest dort absolut richtig. (Auch ein blindes Huhn...)

Was mich allerdings weniger erfreut, sind die momentanen
"Spekulationen" um den neuen Detonator FX 50, der ja anscheinend wieder neue Modes einführen soll, und diese NVIDIA zu weiteren Perfomance-Sprüngen verhelfen soll. Ob die ganze Sache nun relativ "ehrlich" abläuft, oder ob NVIDIA sich zu weiteren Qualitäts-mindernen Implementationen verleiten lässt/ließ, darüber kann momentan kaum einer etwas sagen.

Ich gehe davon aus, das der NV35 die 9800 klar schlägt (10-30% unter optimalen Bedingungen), nur wie oben schon erwähnt wird man abwarten müssen, in wieweit das auch auf die tatsächliche Bildqualität zutrifft. ATI hat hier wirklich extrem stark vorgelegt, und wenn NVIDIA endlich einsieht, das jemand der eine High-End-Karte kauft, auch wirkliches High-End haben will, dann wird ATI keine R400 mehr brauchen, um NVIDIA zu zeigen wo es lang geht.

Unregistered
2003-05-04, 16:17:42
die werden auch keine R400 liefern können :)

Unregistered
2003-05-04, 16:18:49
600 Mio. Dollar??
Die Zahl kommt mir extremst zu hoch vor. Hast du dazu eine Quelle?

Unregistered
2003-05-04, 16:23:09
"
Ich nehme eher an, dass der NV35 den NV30 zum absoluten Ladenhüter machen wird, bevor dieser überhaupt halbwegs in Fahrt gekommen ist!
"

Guten Morgen!
Auch schon aufgewacht? :)
Vielleicht solltest du in deinen Blickwinkel mit einbeziehen, dass Nvidia von Anfang an nicht vor hatte viele NV30 zu verkaufen und die Bestellungen bei TSMC begrenzt hat.
Das ist äußerst sinnvoll. Man legt sich keinen großen Lagerbestand zu, den man dann abschreiben muss in der Bilanz wenn der Nachfolger kommt und keiner mehr das Zeug kauft und man hält durch die knappe Verfügbarkeit die Preise angemessen hoch. Ein Großteil der CHips landet in den Quadro Karten und wird dort zu doppelten Preisen verkauft.

"
Der NV30 war von Anfang an ein Ladenhüter, selbst NVIDIA ging "planmäßig" davon aus, da man nur eine sehr begrenzte Anzahl an NV30-GPUs durch TSMC produzieren ließ. Die Ausbeute war nicht nur mager, sondern der ganze Prozess äußerst unprofitabel.
"
Ausbeute ist kein Problem, da den Verlust TSMC trägt.
Nvidia zahlt beim NV30 pro lauffähigem Chip und nicht pro Wafer so die Aussage von Michael Hara, VP Investor Relations bei Nvidia auf dem Conference Call zu den letzten Quartalszahlen.

Ich habe bereits Ende 2002 also lange im Vorfeld vermutet, dass Nvidia seine Anstrengungen auf dem Gebiet des 0.13 Prozesses bei TSMC sich in gewisser Weise bezahlen lässt - sozusagen einen kleinen Ausgleich bekommt.
Das dürfte der Ausgleich sein. Normalerweise zahlt man pro Wafer und dann schmerzt eine schlechte Ausbeute. Beim NV30 zahlt man pro lauffähigem Chip und da schmerzt eine schlechte Ausbeute natürlich TSMC.

Demirug
2003-05-04, 16:23:19
Das wird mir hier jetzt aber alles zu spekulativ *move*

Sunrise
2003-05-04, 16:47:18
@Unreg - Oder soll ich sagen Richthofen? ;)

Das mit den Veträgen ist richtig so, ich meinte eher den ganzen Prozess (0.13µm durch TSMC), der natürlich für diese SEHR unprofitabel war, wenn man bedenkt wie die Ausbeute am Anfang war.

Allerdings hat jede schlechte Seite natürlich auch eine gute, TSMC hat viele Sachen mittlerweile so optimiert, das sie mittlerweile in der Lage sind, die NV35 GPUs so zu liefern, wie NVIDIA sich das zurzeit vorstellt.

Da sich das oben wie eine "aus der Luft gegriffene" Spekulation anhört, hier mal die geplanten Preise:

299$ - non-Ultra (GFFX 5900)
399$ - Ultra (GFFX 5900 Ultra)

Man merkt also deutlich, das NVIDIA mit großen Stückzahlen rechnet, und diese auch mächtig in den Markt drücken will. Meiner Meinung nach sehr schlau, und man wird absehen müssen, wie ATI reagiert.

@Unreg #2:

Der Auftrag in Höhe von 600Mill. US$ an Samsung sind vornehmlich Industrie-interne Quellen, soweit ich weiß schrieb aber auch die Digitimes darüber.

Unregistered
2003-05-04, 17:06:17
Originally posted by Unregistered
"
Ich nehme eher an, dass der NV35 den NV30 zum absoluten Ladenhüter machen wird, bevor dieser überhaupt halbwegs in Fahrt gekommen ist!
"

Guten Morgen!
Auch schon aufgewacht? :)
Vielleicht solltest du in deinen Blickwinkel mit einbeziehen, dass Nvidia von Anfang an nicht vor hatte viele NV30 zu verkaufen und die Bestellungen bei TSMC begrenzt hat.
Das ist äußerst sinnvoll. Man legt sich keinen großen Lagerbestand zu, den man dann abschreiben muss in der Bilanz wenn der Nachfolger kommt und keiner mehr das Zeug kauft und man hält durch die knappe Verfügbarkeit die Preise angemessen hoch. Ein Großteil der CHips landet in den Quadro Karten und wird dort zu doppelten Preisen verkauft.

"
Der NV30 war von Anfang an ein Ladenhüter, selbst NVIDIA ging "planmäßig" davon aus, da man nur eine sehr begrenzte Anzahl an NV30-GPUs durch TSMC produzieren ließ. Die Ausbeute war nicht nur mager, sondern der ganze Prozess äußerst unprofitabel.
"
Ausbeute ist kein Problem, da den Verlust TSMC trägt.
Nvidia zahlt beim NV30 pro lauffähigem Chip und nicht pro Wafer so die Aussage von Michael Hara, VP Investor Relations bei Nvidia auf dem Conference Call zu den letzten Quartalszahlen.

Ich habe bereits Ende 2002 also lange im Vorfeld vermutet, dass Nvidia seine Anstrengungen auf dem Gebiet des 0.13 Prozesses bei TSMC sich in gewisser Weise bezahlen lässt - sozusagen einen kleinen Ausgleich bekommt.
Das dürfte der Ausgleich sein. Normalerweise zahlt man pro Wafer und dann schmerzt eine schlechte Ausbeute. Beim NV30 zahlt man pro lauffähigem Chip und da schmerzt eine schlechte Ausbeute natürlich TSMC.
Also stimmt es doch, daß die Geforce FX 5800/ultra nur in sehr begrenzten Stückzahlen auf den Markt kommt? Der ganze Rummel wegen den paar Karten? Wurde die geringe Verfügbarkeit nicht von Nvidia bestritten?

AlfredENeumann
2003-05-04, 18:09:17
Originally posted by Unregistered
Ausbeute ist kein Problem, da den Verlust TSMC trägt.
Nvidia zahlt beim NV30 pro lauffähigem Chip und nicht pro Wafer so die Aussage von Michael Hara, VP Investor Relations bei Nvidia auf dem Conference Call zu den letzten Quartalszahlen.




Ob derjenige bei TSMC noch da arbeitet der das abgesegnet hat ?

Demirug
2003-05-04, 18:18:25
Originally posted by AlfredENeumann



Ob derjenige bei TSMC noch da arbeitet der das abgesegnet hat ?

Wahrscheinlich ja weil solche Entscheidungen normalerweise auf oberster Ebene getroffen werden.

Zudem ist sowas in der Industrie auch nicht unbedingt untypisch. Gerade wenn man neue Sachen an den Mann (oder Frau) bringen möchte macht man gerne Zugeständnisse. Man braucht eben immer einen "First Mover".

mRofsimpsOn
2003-05-04, 18:41:11
wenn die karten in den nächsten monaten released werden kann man ja nur hoffen, dass die r300/350 chips billiger werden ...

ob man abschätzen kann, dass die 9700npro für 200€ zu erwerben sind ?

Razor
2003-05-04, 18:42:19
Originally posted by mRofsimpsOn
wenn die karten in den nächsten monaten released werden kann man ja nur hoffen, dass die r300/350 chips billiger werden ...

ob man abschätzen kann, dass die 9700npro für 200€ zu erwerben sind ?
Das wäre wahrhaftig schlecht für ATI !
:D

Razor

mapel110
2003-05-04, 18:47:27
die 5800 ultra kostet 500 €. warum sollte nv ein "doppelt" so schnelle
s produkt zum gleichen preis anbieten ?!
selbst wenn es nur wenige 5800er ultras gibt, so denke ich nicht, dass nv den nv35 sehr billig unters volk bringen wird. schon garnicht in regionen einer 9700er.

achja, wenn die taktraten stimmen (450/400 chip/ram), dann wirds der chip schwer haben.
so viel hat das 256bit interface bei ati nicht gebracht. siehe 9700er/9500 pro.
da dürfte es schon schwer genug sein, die 50 mhz weniger core-takt auszugleichen (5800 ultra 500 mhz/5900 450 mhz).

LovesuckZ
2003-05-04, 18:50:56
Originally posted by mapel110
achja, wenn die taktraten stimmen (450/400 chip/ram), dann wirds der chip schwer haben.
so viel hat das 256bit interface bei ati nicht gebracht. siehe 9700er/9500 pro.
da dürfte es schon schwer genug sein, die 50 mhz weniger core-takt auszugleichen (5800 ultra 500 mhz/5900 450 mhz).

Zur Zeit ist es falsch, davon auszugehen, dass das 256BIT Speicherinterface beim NV35 weniger/gleichviel bringe wie bei der 9700.

mapel110
2003-05-04, 18:52:01
Originally posted by Razor

Das wäre wahrhaftig schlecht für ATI !
:D

Razor

wieso schlecht für ati ?
nv muss erstmal günstige gute mainstreamableger auf den markt bringen.
die gerade auf der cebit erst vorgestellten produkte sind für die tonne.
und wie nv den speed bei den neuen mainstream ablegern des nv35 verbessern will, ist mir ein rätsel.

Demirug
2003-05-04, 18:56:51
Originally posted by mapel110


wieso schlecht für ati ?
nv muss erstmal günstige gute mainstreamableger auf den markt bringen.
die gerade auf der cebit erst vorgestellten produkte sind für die tonne.
und wie nv den speed bei den neuen mainstream ablegern des nv35 verbessern will, ist mir ein rätsel.

wohl genauso wie sie den NV35 schneller gemacht haben. Das hängt natürlich davon ab wie viele Schwächen vom NV30 im NV31 noch vorhanden sind.

mapel110
2003-05-04, 19:03:26
Originally posted by Demirug


wohl genauso wie sie den NV35 schneller gemacht haben. Das hängt natürlich davon ab wie viele Schwächen vom NV30 im NV31 noch vorhanden sind.

also gehst du davon aus, dass beim nv35 mehr geändert wurde, als nur das interface ?

Demirug
2003-05-04, 19:12:58
Originally posted by mapel110


also gehst du davon aus, dass beim nv35 mehr geändert wurde, als nur das interface ?

das hängt zum einen davon ab wie viele der bekannten NV30 Schwächen Hardwarebedingt sind.

Wo man aber wenn man den Gerüchten glauben darf auf jeden Fall was geändert hat ist der Pixelshader bereich.

Da wäre zu nennen:

NV35 soll nur noch 2 universal ALUs (pro Pipeline) haben. Wenn es sich dabei um splitbare FP32 ALUs handelt könnte man damit dann 2*FP32 oder 4*FP16 ausführen. Wie viele Integer Operationen damit dann gehen würden ist noch etwas unklar.

Die Pipelines sollen fürs Singeltexturing in einen Spezialmodus mit 8Pixel/Takt geschaltet werden können.

LovesuckZ
2003-05-04, 19:17:35
Originally posted by Demirug
Die Pipelines sollen fürs Singeltexturing in einen Spezialmodus mit 8Pixel/Takt geschaltet werden können.

Jedenfalls kann das der NV31.

Demirug
2003-05-04, 19:27:35
Originally posted by LovesuckZ


Jedenfalls kann das der NV31.


aber nicht mit 8 Pixel. ;)

Der "Turbomode" bringt 4 Pixel/Takt und normal sind es 2Pixel/Takt. Aber unter welchen Bedigungen der Turbomode funktioniert ist irgendwie etwas merkwürdig.

LovesuckZ
2003-05-04, 19:33:48
Originally posted by Demirug
Der "Turbomode" bringt 4 Pixel/Takt und normal sind es 2Pixel/Takt. Aber unter welchen Bedigungen der Turbomode funktioniert ist irgendwie etwas merkwürdig.

However, GeForce FX 5600 Ultra (NV31) stands out here: when there is only one texture laid, this chip shows better results than the theoretical maximum for configurations with two pixel pipelines. Of course, with only one texture processed NV31 uses the mode with 4 pixel “pipelines” and 1 TMU per pipeline. In case there are two or more textures to be processed NV31 resorts to a different internal organization scheme: 2 pixel “pipelines” with two TMUs per pipeline.

http://www.xbitlabs.com/images/video/nv31-nv34/fillrate3.gif

This flexibility should offer GeForce FX 5600 Ultra a significant advantage over NVIDIA GeForce FX 5200 Ultra even if they work at equal clock frequencies. In most today’s games there surfaces with a single texturing layer as well as surfaces with two and more textures. Note that the share of single-texture surfaces is not that small at all. In those cases when there is only one texture used on a certain surface, such as grass, tree leaves, various explosions, flames, smoke and clouds, NVIDIA GeForce FX 5600 Ultra will work twice as fast.

Xbitlabs (http://www.xbitlabs.com/articles/video/display/nv31-nv34_5.html)

Demirug
2003-05-04, 19:46:36
LovesuckZ, kenne ich. Nur gibt es da in Verbindung mit Shader wohl irgendwelche Probleme. zumindestens will das digit-life herausgefunden haben.

http://www.digit-life.com/articles2/gffx/nv31-nv34.html

Sunrise
2003-05-04, 19:48:34
achja, wenn die taktraten stimmen (450/400 chip/ram), dann wirds der chip schwer haben.
so viel hat das 256bit interface bei ati nicht gebracht. siehe 9700er/9500 pro.
da dürfte es schon schwer genug sein, die 50 mhz weniger core-takt auszugleichen (5800 ultra 500 mhz/5900 450 mhz).
Kleiner Denkansatz:

Stell dir mal eine R350 mit 450MHz Core vor, und lass die dann mit 450MHz DDR1 laufen, das wären beim Core 70MHz, und beim RAM 110MHz mehr (9800PRO). Da beide Chips mit 256Bit an den Speicher gebunden sind, wäre das hier also ein Patt.

Jetzt stell dir mal vor, das NVIDIA die NV30-Architektur so umgestellt hat, das sie 100% auf ein 256bit-Interface reagiert, und dieses auch extrem effektiv ausnutzt.

Glaubst du nicht, das es damit möglich ist, mit der R350 mindestens gleichzuziehen ?

NVIDIA wird auf keinen Fall einen Chip releasen, der von der/dem Rohleistung / Hitzentwicklung / Preis schlechter dasteht als ATIs derzeitiger R350-Core. NVIDIA würde sich richtig lächerlich machen.

zeckensack
2003-05-04, 20:04:56
Originally posted by Sunrise
NVIDIA wird auf keinen Fall einen Chip releasen, der von der/dem Rohleistung / Hitzentwicklung / Preis schlechter dasteht als ATIs derzeitiger R350-Core. NVIDIA würde sich richtig lächerlich machen. Völlig irrationale Annahmne. Man schmeißt fertige Chips nicht weg, nur weil man nicht Nr.1 am Markt ist. Der Release des NV30 hat das auch schon bewiesen.

Unregistered
2003-05-04, 20:07:44
Originally posted by Unregistered

... Ausbeute ist kein Problem, da den Verlust TSMC trägt.
Nvidia zahlt beim NV30 pro lauffähigem Chip und nicht pro Wafer so die Aussage von Michael Hara, VP Investor Relations bei Nvidia auf dem Conference Call zu den letzten Quartalszahlen. ...

Vielleicht gibt es deswegen so wenige Geforce FX 5800/ultra? Wenn das stimmt bringt es Nvidia auch nicht viel. Der Geforce FX 5800/ultra war bis jetzt ein finanzielles Fiasko. Den Beweis, daß man mit der Technologie noch Kasse machen kann, muß Nvidia erst noch antreten. Das ist noch lange nicht entschieden. ATI hat noch ein As im Ärmel. Wir werden sehen, ob der eigentliche FX 5800, sprich der FX 5900, den Performance-Thron wird erobern können. Man soll das Fell des Bären nicht verkaufen, ehe man ihn nicht erlegt hat. Nur eins ist sicher, es wird spannend!

LovesuckZ
2003-05-04, 20:11:49
Originally posted by Unregistered
ATI hat noch ein As im Ärmel.

Wenn man fragen darf: Welches denn?

Sunrise
2003-05-04, 20:25:45
@zecki:

Wer sagt denn bitte, das NVIDIA fertige Chips wegschmeisst ? Und wo soll das in meinem Text stehen ?

betasilie
2003-05-04, 20:37:34
Originally posted by Sunrise
@zecki:

Wer sagt denn bitte, das NVIDIA fertige Chips wegschmeisst ? Und wo soll das in meinem Text stehen ?
Hier
NVIDIA wird auf keinen Fall einen Chip releasen, der von der/dem Rohleistung / Hitzentwicklung / Preis schlechter dasteht als ATIs derzeitiger R350-Core. NVIDIA würde sich richtig lächerlich machen.
NV hat sich mit dem NV30 lächerlich gemacht und wie der NV35 wird weiß keiner von uns. Wenn er schlecht wird, wird NV ihn trotzdem releasen, denn eine andere Möglichkeit haben sie nicht. ... außer wegschmeißen natürlich. :D

zeckensack
2003-05-04, 20:39:08
Japp, so in etwa war das gemeint :|

Sunrise
2003-05-04, 20:42:11
Das is ja aber mal ne Interpretation von meinen Text, da würde Mozart vor lauter Neid ROT anlaufen :)

Ich meinte eigentlich nur, das NVIDIA sich nicht gerade Freunde bei den Investoren macht, wenn man einen Chip released, der der Leistung eines großen Konkurrenten nicht mindestens ebenbürtig ist.

Das der Chip dann weggeschmissen wird, ist eure Interpretation.

betasilie
2003-05-04, 20:44:08
Originally posted by Sunrise
NVIDIA wird auf keinen Fall einen Chip releasen, der von der/dem Rohleistung / Hitzentwicklung / Preis schlechter dasteht als ATIs derzeitiger R350-Core.
Ich wette drauf, dass NV nur in einem Punkt besser darstehen wird, als ATI. ;)

Originally posted by Sunrise
Ich meinte eigentlich nur, das NVIDIA sich nicht gerade Freunde bei den Investoren macht, wenn man einen Chip released, der der Leistung eines großen Konkurrenten nicht mindestens ebenbürtig ist.

mhhh ... Das ist ja z.Zt. der Fall. Eine Wiederholungstat ist nicht unmöglich, auch wenn ich glaube, dass der NV30 leistungsmäßig ATI überflügeln wird. ... Aber zu welchem Preis und mit was für einer Kühlung!?

@Zecki
:|<--??? eingeschnappt? ... ;)

Ben
2003-05-04, 20:56:30
Originally posted by Sunrise
@Unreg - Oder soll ich sagen Richthofen? ;)

Das mit den Veträgen ist richtig so, ich meinte eher den ganzen Prozess (0.13µm durch TSMC), der natürlich für diese SEHR unprofitabel war, wenn man bedenkt wie die Ausbeute am Anfang war.

Allerdings hat jede schlechte Seite natürlich auch eine gute, TSMC hat viele Sachen mittlerweile so optimiert, das sie mittlerweile in der Lage sind, die NV35 GPUs so zu liefern, wie NVIDIA sich das zurzeit vorstellt.

Da sich das oben wie eine "aus der Luft gegriffene" Spekulation anhört, hier mal die geplanten Preise:

299$ - non-Ultra (GFFX 5900)
399$ - Ultra (GFFX 5900 Ultra)

Man merkt also deutlich, das NVIDIA mit großen Stückzahlen rechnet, und diese auch mächtig in den Markt drücken will. Meiner Meinung nach sehr schlau, und man wird absehen müssen, wie ATI reagiert.

@Unreg #2:

Der Auftrag in Höhe von 600Mill. US$ an Samsung sind vornehmlich Industrie-interne Quellen, soweit ich weiß schrieb aber auch die Digitimes darüber.

Wie wird wohl ATI reagieren? Ich lehne mich jetzt weit aus dem Fenster heraus und wage mal eine Prognose:
Ein R350 in 130 nm wird die Antwort sein. Wenn man die 9600 als Anhaltspunkt für Taktfrequenzen nehmen kann, dann sind 500MHz im ersten Versuch für das R9900 Spitzenmodell durchaus drin. Den Speicherstakt wird man anpassen, so wie es gebraucht wird. Wenn man den R350 in 150nm nicht auf die nötige Frequenz heben kann, dann wird der 130 Chip früher kommen müssen. Interessant wird das Duell zwischen FX5900 und R9900 allemal. :)

Sunrise
2003-05-04, 20:58:45
Die Kühlung der NV35-GPU wird wohl in etwa so aussehen, wie derzeit beim NVIDIA-Referenzdesign die 5800 non-Ultra.

Da beim NV30 noch der Alu-Prozess von TSMC zum Einsatz kam, und nun der "fertige" Copper-Prozess, sollte sich einiges an direkter Abwärme einsparen lassen. Mit geschickter Verteilung der Hotspots natürlich noch mehr.

LovesuckZ
2003-05-04, 21:10:57
Originally posted by Ben
Ein R350 in 130 nm wird die Antwort sein. Wenn man die 9600 als Anhaltspunkt für Taktfrequenzen nehmen kann, dann sind 500MHz im ersten Versuch für das R9900 Spitzenmodell durchaus drin. Den Speicherstakt wird man anpassen, so wie es gebraucht wird. Wenn man den R350 in 150nm nicht auf die nötige Frequenz heben kann, dann wird der 130 Chip früher kommen müssen. Interessant wird das Duell zwischen FX5900 und R9900 allemal. :)

Eine 9600 hat deutlich weniger Transistoren und hat daher weniger gleichzeitig arbeitender Funktionen und laesst sich deswegen hoeher takten.
Viele 9500 schaffen mind. 400Coretakt ohne Modifikation, eine 9700 nur ca. 360. Bei gleicher Transistorenzahl.
Ausserdem ist es dumm anzunehmen, dass ATI keine Probleme beim Wechsel des Fertigungsprozeßes haben wuerde, da die Verzoegerung der 9600 bestimmt nicht gewollt waren.

robbitop
2003-05-04, 21:23:43
@Sunrise
nein der NV30 wird mit 0,13µ mit Cu Interconnects gefertigt, 0,13µ ALU Interconnects gibt es bei TSMC nicht.
DU meintest sicher den low k dielectric, für den der NV30 geplant war.

Auch hier muss ich enttäuschen:
er ist nicht seirenreif und laut EE Times sieht es auch in zukunft nicht gut aus für den low K Dielectrik

NV30 wurde also auf low k dielectric designed und man musste, um den Chip releasen zu können hastig auf high k umsteigen. Somit hatte man derb viele Leckströme und damit eige enorme Leistungsaufnahme. Zudem war der NV30 selbstm it low k auf 400MHz geplant doch da der R300 unerwartet stark war, musste man "übertakten". Somit hatte man schlechte Yields und den Dustbuster..kein Wunder...


was hat ATi gemacht? sie haben aus deb Fehlern von nVidia gelernt und den R400 gecancled... stattdessen kochen sie den R3xx im "Loci" (R390/420) noch mal auf. Beide in 0,13µ und müssen sich jeweils gegen den NV35/40 stellen. Es wird keine grossen Änderungen im Chip geben. Bis loci in Massen verfügbar ist, ist der NV40 schon vorgestellt (Fall 2004)

Ben
2003-05-04, 21:33:17
Originally posted by LovesuckZ


Eine 9600 hat deutlich weniger Transistoren und hat daher weniger gleichzeitig arbeitender Funktionen und laesst sich deswegen hoeher takten.
Viele 9500 schaffen mind. 400Coretakt ohne Modifikation, eine 9700 nur ca. 360. Bei gleicher Transistorenzahl.
Ausserdem ist es dumm anzunehmen, dass ATI keine Probleme beim Wechsel des Fertigungsprozeßes haben wuerde, da die Verzoegerung der 9600 bestimmt nicht gewollt waren.

Sie es so wie es ist. Kann ja nicht weh tun, wenn es weiterhin einen harten Zweikampf an der Spitze gibt. Die Anzahl der Transis ist keine Grund nicht mit 500MHz zu takten. Es gibt zwar mehr Verlustleistung, aber auf größerer Fläche. Wenn NVidia den größeren 5900 bei TMSC hergestellt bekommt, dann klappt das auch bei ATI mit dem kleineren R350. Die Frage ist eigentlich: Reichen 450MHz für den 5900 zum Match, oder müssen es schon 500MHz sein. Mal sehen was NVidia vorlegt und wie genau ATI antwortet.

Ben
2003-05-04, 21:36:49
Originally posted by robbitop
@Sunrise
nein der NV30 wird mit 0,13µ mit Cu Interconnects gefertigt, 0,13µ ALU Interconnects gibt es bei TSMC nicht.
DU meintest sicher den low k dielectric, für den der NV30 geplant war.

Auch hier muss ich enttäuschen:
er ist nicht seirenreif und laut EE Times sieht es auch in zukunft nicht gut aus für den low K Dielectrik

NV30 wurde also auf low k dielectric designed und man musste, um den Chip releasen zu können hastig auf high k umsteigen. Somit hatte man derb viele Leckströme und damit eige enorme Leistungsaufnahme. Zudem war der NV30 selbstm it low k auf 400MHz geplant doch da der R300 unerwartet stark war, musste man "übertakten". Somit hatte man schlechte Yields und den Dustbuster..kein Wunder...


was hat ATi gemacht? sie haben aus deb Fehlern von nVidia gelernt und den R400 gecancled... stattdessen kochen sie den R3xx im "Loci" (R390/420) noch mal auf. Beide in 0,13µ und müssen sich jeweils gegen den NV35/40 stellen. Es wird keine grossen Änderungen im Chip geben. Bis loci in Massen verfügbar ist, ist der NV40 schon vorgestellt (Fall 2004)

Die Frage muß erlaubt sein!
Wenn du ein Hellseher bist, wie sehen dann die Lottozahlen der nächsten Woche aus? Oder möchtest du lieber dein Posting mit dem Label "Hoch-Spekulativ" per Edit ergänzen?

robbitop
2003-05-04, 21:40:42
ich bitte dich die news zu lesen, es gibt sehr gut eingeweihte leute die das mit gewissheit posten (siehe HB und Mufu), beide arbeiten vermutlich direkt bei ATi oder bei einm PCB...

sicherlicht ist das trotzdem Spekulation, aber ich denke die wahrscheinlichkeit, dass diese sachen so stimmen ist recht hoch.
denn die leute von denen das kommt (siehe oben) haben viele sachen seit Jahren vorher gewusst und es stimmte IMMER.

Sunrise
2003-05-04, 21:40:59
@robbitop:

Richtig, da hab ich absolut daneben gegriffen. Es sieht eher so aus, als ob man die Fertigungstechnik so optimiert hätte, das bei gleichem Takt deutlich weniger Abwärme entsteht.

Zu Loci etc. ist leider momentan wenig bekannt, und alles was bisher darüber bekannt ist, kommt von direkt von MuFu/Uttar/Hellbinder.
Die Sache liegt leider noch so weit in der Zukunft, das man nicht mit Sicherheit sagen kann, was ATI nach der NV35-Vorstellung macht.

Eines sollte aber relativ klar ersichtlich sein, ATI versucht das Design des R300/R350 wirklich bis zum Schluß auszuschlachten.
Das schließt den Wechsel der Fertigungstechnik natürlich mit ein, genauso wie gewisse Anpassungen beim Interface.

Der Move auf 16Pipes inkl. allen anderen erdenklichen Verbesserungen wird ganz sicher erst mit dem R500 kommen, das Transitorenaufkommen wäre einfach viel zu hoch.

robbitop
2003-05-04, 21:43:09
der NV35 ist im gegensatz zum NV30 einfach nur auf hi K dielectric designd..und optimiert

Ben
2003-05-04, 22:01:57
Originally posted by robbitop
ich bitte dich die news zu lesen, es gibt sehr gut eingeweihte leute die das mit gewissheit posten (siehe HB und Mufu), beide arbeiten vermutlich direkt bei ATi oder bei einm PCB...

sicherlicht ist das trotzdem Spekulation, aber ich denke die wahrscheinlichkeit, dass diese sachen so stimmen ist recht hoch.
denn die leute von denen das kommt (siehe oben) haben viele sachen seit Jahren vorher gewusst und es stimmte IMMER.

Wenn HB und Mufu Informationen vorab herausliessen, die keiner wissen sollte, dann wären sie bestimmt nicht mehr lange bei ihrem Brötchengeber. Wenn die beiden wirklich Insider sind, dann hat jede Information ihren Zweck und wird zielgerichtet gestreut. Ich glaube eher, dass es für ATI aufgrund der bereits 75Mio Transis der 9600 kein Problem sein sollte, die 110Mio des R350 ebenso mit 130nm abzubilden. Sicher, es mag für den 6-9 Monats-Refresh verbesserte 130nm Versionen geben, das ändert aber nicht daran, daß ein R350 in 130nm 'kurzfristig' möglich wäre. Oder meinst du wirklich, ATI hätte sich noch nicht einem 130nm tape-out des R350 versucht!?

robbitop
2003-05-04, 22:05:23
es ist jedenfalls noch keines aufgetaucht :P

und kA wie die beiden ihr geld verdienen, jedenfalls stimmt es immer :)

und da muss ja noch was neues rein.
RV350 hat übrigens 60Mio Transistoren.
und du glaubst gar nicht wie komplex es ist so einen grossen Chip auf 0,13µ anzupassen und im Moment sind nichtmal genug Produktionskapazitäten bei TSMC vorhanden..

Unregistered
2003-05-04, 22:13:02
Originally posted by Sunrise

@robbitop:

Richtig, da hab ich absolut daneben gegriffen. Es sieht eher so aus, als ob man die Fertigungstechnik so optimiert hätte, das bei gleichem Takt deutlich weniger Abwärme entsteht.

Zu Loci etc. ist leider momentan wenig bekannt, und alles was bisher darüber bekannt ist, kommt von direkt von MuFu/Uttar/Hellbinder.
Die Sache liegt leider noch so weit in der Zukunft, das man nicht mit Sicherheit sagen kann, was ATI nach der NV35-Vorstellung macht.

Eines sollte aber relativ klar ersichtlich sein, ATI versucht das Design des R300/R350 wirklich bis zum Schluß auszuschlachten.
Das schließt den Wechsel der Fertigungstechnik natürlich mit ein, genauso wie gewisse Anpassungen beim Interface.

Der Move auf 16Pipes inkl. allen anderen erdenklichen Verbesserungen wird ganz sicher erst mit dem R500 kommen, das Transitorenaufkommen wäre einfach viel zu hoch.

Gut gesagt. Und selbst ein R400 mit vielleicht 150Mio Transis wäre bereits zu 'fett', um sich noch wirtschaftlich mit dem aktuellen TMSC 130nm Prozess abbilden zu lassen. Den R400 steichen zu müssen, ist die logische Konsequenz. Die Designer der Grafikchips sind dem Herstellungsprozess einfach davon gelaufen. Dem R350 die Takt-Peitsche zu geben, ist IMHO absolut sinnvoll. Detailverbesserungen sind dabei natürlich drin. Sollte sich nicht wesentliches an der Die-Herstellungsfront ergeben, dann zweifele ich am gegenwärtig gehandelten Erscheinungstermin des NV40 bzw. an dessen geplanten Funktionsumfang (VS/PS 3.0) bzw. am gewünschten Performancesprung.

Dieses Jahr wird mal wieder interessantes Jahr im Wettstreit um die schnellsten Grafikchips werden! :)

robbitop
2003-05-04, 22:16:07
nunja in Punktoi Produktion hat nVidia auf den richtigen Partner gesetzt (IBM)..somit wird es weniger Verzögerungen geben...im Sommer sopllen die ersten TapeOuts des NV40 in NewYork, Fishkill eintreffen...

Ben
2003-05-04, 22:18:29
Originally posted by robbitop
es ist jedenfalls noch keines aufgetaucht :P

und kA wie die beiden ihr geld verdienen, jedenfalls stimmt es immer :)

und da muss ja noch was neues rein.
RV350 hat übrigens 60Mio Transistoren.
und du glaubst gar nicht wie komplex es ist so einen grossen Chip auf 0,13µ anzupassen und im Moment sind nichtmal genug Produktionskapazitäten bei TSMC vorhanden..

OK, dann 60Mio. Hoffentlich wird man sich bei dieser Zahl irgendwann einig. ;)

Ich streite mich nicht mit dir über spekulative! News oder Infos oder ...

Du weißt ja gut über die ATI tape-outs Bescheid, oder ist das eher Wunschdenken?! Ich für meinen Teil halte mich da lieber bedeckt.

PS.
Hübsche Zunge hast du! :)

robbitop
2003-05-04, 22:21:22
war ne ungwollte Animation dieses Forums ;)

auch hier die infos nachzulesen bei GPU Rumor Watch ;)
TSMC Tapeouts sind dort eigendlich recht zuverlässig ...

Unregistered
2003-05-04, 22:24:22
Originally posted by robbitop
nunja in Punktoi Produktion hat nVidia auf den richtigen Partner gesetzt (IBM)..somit wird es weniger Verzögerungen geben...im Sommer sopllen die ersten TapeOuts des NV40 in NewYork, Fishkill eintreffen...

Es ist bekannt, dass IBM nichts umsonst macht. Die lassen sich für ihre 'Einzigartigkeit' auch fürstlich bezahlen. Aber fortschrittlichere Herstellungstechnologien als TMSC scheinen die drei blauen Buchstaben schon zu haben. Hier liegt wohl auch NVidia's größte Chance im Wettstreit.

Ben
2003-05-04, 22:31:23
Originally posted by robbitop
war ne ungwollte Animation dieses Forums ;)

auch hier die infos nachzulesen bei GPU Rumor Watch ;)
TSMC Tapeouts sind dort eigendlich recht zuverlässig ...

War nicht wirklich gekränkt. ;)

Vielleicht haben sie es wirklich noch nicht probiert, dann ist's aber bestimmt in Vorbereitung, sofern am logischen Design des Chips keine Änderung geplant wurde.

Ich wünsche mir einfach einen Wettstreit, der an der Benschmark-Front von beiden Seiten fair und von den Reviewn neutral geführt wird. :)

PS.
Vergesse gelegentlich meinen Nick zu schreiben. Sorry!

robbitop
2003-05-04, 22:33:41
ja den Psot kann ich absolut unterschreiben

AlfredENeumann
2003-05-04, 23:28:48
Originally posted by Sunrise

Kleiner Denkansatz:

Stell dir mal eine R350 mit 450MHz Core vor, und lass die dann mit 450MHz DDR1 laufen, das wären beim Core 70MHz, und beim RAM 110MHz mehr (9800PRO). Da beide Chips mit 256Bit an den Speicher gebunden sind, wäre das hier also ein Patt.

Jetzt stell dir mal vor, das NVIDIA die NV30-Architektur so umgestellt hat, das sie 100% auf ein 256bit-Interface reagiert, und dieses auch extrem effektiv ausnutzt.

Glaubst du nicht, das es damit möglich ist, mit der R350 mindestens gleichzuziehen ?

NVIDIA wird auf keinen Fall einen Chip releasen, der von der/dem Rohleistung / Hitzentwicklung / Preis schlechter dasteht als ATIs derzeitiger R350-Core. NVIDIA würde sich richtig lächerlich machen.


Was mapel damit meint, ist das man nicht einfach glauben soll das der NV35 der Überchip wird nur weil er jetzt ein größeres Speicherinterface hat. Das hat ja vorher auch nicht andauernd limitiert.

AlfredENeumann
2003-05-04, 23:35:05
Originally posted by LovesuckZ


Eine 9600 hat deutlich weniger Transistoren und hat daher weniger gleichzeitig arbeitender Funktionen und laesst sich deswegen hoeher takten.
Viele 9500 schaffen mind. 400Coretakt ohne Modifikation, eine 9700 nur ca. 360. Bei gleicher Transistorenzahl.
Ausserdem ist es dumm anzunehmen, dass ATI keine Probleme beim Wechsel des Fertigungsprozeßes haben wuerde, da die Verzoegerung der 9600 bestimmt nicht gewollt waren.

Hey Sucki. Der 9600er hat sich nicht verzögert. Er kommt früher !!!! Releasetermin war ursprünglich für Juni angesetzt.

AlfredENeumann
2003-05-04, 23:40:00
Originally posted by robbitop
... im Moment sind nichtmal genug Produktionskapazitäten bei TSMC vorhanden..


Du sagst es. Das ist nämlich der Haken im moment. Selbst wenn ATI wollte oder technisch könnte, es sind keine Kapazitäten frei. Ein großteil wird von NVidia belegt und ein teil wird von ATI für den RV350 genutzt.

Richthofen
2003-05-05, 00:10:24
"
Vielleicht gibt es deswegen so wenige Geforce FX 5800/ultra? Wenn das stimmt bringt es Nvidia auch nicht viel. Der Geforce FX 5800/ultra war bis jetzt ein finanzielles Fiasko. Den Beweis, daß man mit der Technologie noch Kasse machen kann, muß Nvidia erst noch antreten. Das ist noch lange nicht entschieden. ATI hat noch ein As im Ärmel. Wir werden sehen, ob der eigentliche FX 5800, sprich der FX 5900, den Performance-Thron wird erobern können. Man soll das Fell des Bären nicht verkaufen, ehe man ihn nicht erlegt hat. Nur eins ist sicher, es wird spannend!
"

Es gibt nicht so wenige NV30, weil Nvidia pro Chip bezahlt sondern weil Nvidia keine Lagerhaltung möchte.
Der NV30 hat sich immens verspätet. Der NV35 dadurch gezwungener Maßen auch aber da man mit der NV30 Verspätung schon Mitte 2002 konfronitiert wurde, war genug Zeit den NV35 dahingehend zu beschleunigen. Das Resultat ist, dass der NV30 eine kurze Lebensdauer hat.
Blicke ich Ende 2002 zurück so habe ich gesagt, dass ich dem NV30 maximal 4 Monate Lebensdauer einräume. Damit lag ich doch sehr gut :)
Es macht einfach keinen Sinn Unmengen an Chips fertigen zu lassen, wenn die nach wenigen Monaten keiner mehr will oder zumindest dafür deutlich weniger zahlen will.
Das gibt ne hübsche Abschreibung in der Blianz. Da für Nvidia bazusehen war, dass der NV35 bald ready ist haben sie das einzig vernünftige gemacht. Wenig Chips produzieren lassen, damit die Preise künstlich hoch gehalten und großer Lagerhaltung wirds auch nicht geben. Natürlich verliert man so auch Marktanteile im HIgh End Markt aber das kann man verschmerzen. Dieser Markt ist wenig loyal. Die Leute dort kaufen eh immer das beste verfügbare. Die Marktanteile kann man schnell wiederholen und am Gesamtmarkt sind die eh irrelevant.

Was du mit dem finanziellen Fiasko meinst, kann ich jedoch nicht nachvollziehen. Die High End Karten sind nicht zum Geldverdienen da und die 400 Mio Dollar Entwicklungskosten sind für die komplette NV3x Reihe angegeben. Dazu zählen alle NV3x Chips auch der NV35 und die ganzen Mid Range und Low Cost Karten und auch die Mobile Versionen. Die HIgh End Karten selber sind Prestige Produkte. Bei Nvidia machen die am Betriebsergebnis wenig aus, wie man im letzten Quartal sehen konnte. Da gab es noch keinen NV30 und keine Produkte im High End Segment und trozdem haben sie prächtig verdient.
Nvidia kann man hier mit ATI leider nur schlecht vergleichen. Letztere erwirtschaften wenn überhaupt mal dann nur paar lächerliche Millionen über Break Even. Logischer Weise haben die High End Karten dann dort einen relativ hohen Anteil.
Bei Nvidias 50 Mio Überschuss im letzten Quartal fallen die kaum auf.

"
Was mapel damit meint, ist das man nicht einfach glauben soll das der NV35 der Überchip wird nur weil er jetzt ein größeres Speicherinterface hat. Das hat ja vorher auch nicht andauernd limitiert.
"
Sagt doch keiner. Besser als 9800pro reicht schon egal wieviel.

stickedy
2003-05-05, 00:10:27
Vielleicht sollte man sich nicht zu sehr auf TSMC versteifen! UMC hat auch 0,13 µm und mit der SiS-Fab nen neuen Produktionsstandort, der mit den Xabre600 schon 0,13 µm Grafikchips produziert. Es wäre also durchaus denkbar, dass ATI bei UMC fertigen läßt und die Chips dort ihr TapeOut hinter sich haben.
Wenn MuFu bei TSMC arbeitet, würde das auch erklären, warum er davon nix weiss...

Richthofen
2003-05-05, 00:12:37
Mufu arbeitet nicht bei TSMC. Der hat irgendeine Verbindung zu einem bei irgendeinem First Tier Hersteller.

UMC kann man aber vergessen. Der 0.13 bei denen ist noch grausamer.

Unregistered
2003-05-05, 00:13:14
Von der Rohpower ohne AF und ohne FSAA ist schon der GeforceFX der Radeon9800 gleichzusetzen wenn nicht sogar einen Tick fixer.
Der NV35 wird da sicher nochmal einiges mehr herausholen und das Nvidia bei den Treibern eh schon immer die Nase vorn hatte dürfte bekannt sein. Detonator 5.0 coming soon!

stickedy
2003-05-05, 00:21:57
War er zumindest, das läßt sich nicht abstreiten.
Nur: Wie ist er zur Zeit bzw. in zwei Monaten? Ich hab da schon lange nix mehr drüber gelesen. UMC bekommt Probleme ja auch irgendwann in den Griff.
Und wie gesagt, sie haben jetzt Zugriff auf die 0,13 µm-Fab von SiS...

Richthofen
2003-05-05, 01:02:12
die aber kaum auf komplexe Designs ausgelegt ist. SIS ist den BEweis schuldig geblieben etwas in der Richtung herstellen zu können. Das Niveau einer XABRE haben ATI und Nvidia schon vor weit einem Jahr gemeistert.

60 Mio Transistoren oder weniger sind nicht 120 bis 130 Mio Transistoren dazu noch bei höheren Taktraten.

stickedy
2003-05-05, 01:33:42
Ich möcht deine Ausführungen gar nicht in Frage stellen, sondern will jediglich drauf hinweisen, dass es neben TSMC und IBM ja noch jemanden gibt, der 0,13 µm fertigen kann. Ob UMC es für so komplexe Designs hinbekommt, ist ne andere Geschichte und ich denk mal dazu ist zur Zeit zu wenig bekannt.

Man sollte aber bedenken, dass ATI sicherlich nicht tatenlos zuschaut, wenn NVidia sich mit IBM nen neuen Fertigungspartner sucht, weil TSMC anscheinend zu unsicher ist. ATI wird sicherlich zu den gleichen Ergebnissen wie NVidia gekommen sein und sicherlich entsprechend ähnliche Schritte planen bzw. bereits eingeleitet haben. Und UMC würde da eben eine Option sein. Obs ne gute ist, ist ne andere Frage...

robbitop
2003-05-05, 11:29:10
@AEN
" teil wird von ATI für den RV350 genutzt."

nein der RV350 wird bei UMC produziert ;)

Demirug
2003-05-05, 11:35:28
Originally posted by robbitop
@AEN
" teil wird von ATI für den RV350 genutzt."

nein der RV350 wird bei UMC produziert ;)

RV350 bei UMC? Das wäre mir wirklich neu.

RV280 wird bei UMC produziert.

robbitop
2003-05-05, 11:36:42
DAS widerum war mir neu ;)

Demirug
2003-05-05, 11:44:37
Originally posted by robbitop
DAS widerum war mir neu ;)

Bevor jetzt wieder einige nach einer Quelle schreien

The other main differential is that rather than using their primary fab partner, TSMC, for RV280 ATI have adopted to use UMC.http://www.beyond3d.com/reviews/sapphire/9200/

Und für RV350 bei TSMC:

http://www.theinquirer.net/?article=6878

ja das ist Inquirer aber von mike und man verweist auf die Economic News of Taiwan

robbitop
2003-05-05, 11:47:57
danke Demi, ok ich nehm alles zurück....

wieder dazugelernt ;)

RyoHazuki
2003-05-05, 13:13:43
ITS time for Speku !

Wenn !!!!!! Der NV35 nun bei mehr gelegenheiten auf 8Pixel/Takt schaltet... dann kann man von einem kleinem leistungsplus ausgehen !

Der abstand sollte bei einigen anwendungen deutlich mehr leistung bringen. Allerdings sollte der ganze vorteil durch 50 MHZ weniger Core takt wieder minimal relativitiert werden.

Das neue 256Bit Interface stellt demnach für den NV35 das non+ultra für den neuen leistungsschub dar.

Zum vergleich :

NV 30 @ 1,0 GHZ 128Bit = 16,0 GB
NV 35 @ 0,8 GHZ 256Bit = 25,6 GB
NV 35 @ 0,9 GHZ 256Bit = 28,8 GB

Es bleibt nochdazu anzumerken, das der NV30 "eindeutig" ein besseres Speicherinterface besitzt als der R300 oder R350. Dies kann man auf einige benchmarks zurückführen wo der NV30 auf "hohen" auflösungen schneller ist als der R300 (mit trotz seiner höheren bandbreite).

Jedenfalls wird NVIDIA ein heißes Eisen präsentieren, das ist sicher !

robbitop
2003-05-05, 13:16:24
ähem bei hohen auflösungen ist die Füllrate entscheident ;)

AlfredENeumann
2003-05-05, 13:19:19
Originally posted by Demirug


RV350 bei UMC? Das wäre mir wirklich neu.

RV280 wird bei UMC produziert.

Das ist auch meine Info.

robbitop
2003-05-05, 13:20:12
ist dochlängst geklärt oder? ;)

Unregistered
2003-05-05, 13:24:54
Originally posted by robbitop
ähem bei hohen auflösungen ist die Füllrate entscheident ;)

nicht mehr als die bandbreite auch.;)

Demirug
2003-05-05, 13:31:27
Originally posted by RyoHazuki
ITS time for Speku !

Wenn !!!!!! Der NV35 nun bei mehr gelegenheiten auf 8Pixel/Takt schaltet... dann kann man von einem kleinem leistungsplus ausgehen !

Der abstand sollte bei einigen anwendungen deutlich mehr leistung bringen. Allerdings sollte der ganze vorteil durch 50 MHZ weniger Core takt wieder minimal relativitiert werden.

Das neue 256Bit Interface stellt demnach für den NV35 das non+ultra für den neuen leistungsschub dar.

Zum vergleich :

NV 30 @ 1,0 GHZ 128Bit = 16,0 GB
NV 35 @ 0,8 GHZ 256Bit = 25,6 GB
NV 35 @ 0,9 GHZ 256Bit = 28,8 GB

Es bleibt nochdazu anzumerken, das der NV30 "eindeutig" ein besseres Speicherinterface besitzt als der R300 oder R350. Dies kann man auf einige benchmarks zurückführen wo der NV30 auf "hohen" auflösungen schneller ist als der R300 (mit trotz seiner höheren bandbreite).

Jedenfalls wird NVIDIA ein heißes Eisen präsentieren, das ist sicher !

Das mit den 8Pixel/Takt wird IMHO überbewertet. Wenn man nur 8 TMUs hat kann man das ganze sowieso nur erreichen wenn man bestenfalls bilinear sampelt (kein AF) und nur einen Texturelayer benutzt. Dieser Fall dürfte nur noch sehr selten anzutreffen sein.

EDIT: Ein 256 Bit Speicherinterface dürfte aber auch bei NVIDIA etwas einbüssen ausser man baut dort eine 8 fach Crossbar.

Richthofen
2003-05-05, 22:00:37
"
Wahrscheinlich ja weil solche Entscheidungen normalerweise auf oberster Ebene getroffen werden.

Zudem ist sowas in der Industrie auch nicht unbedingt untypisch. Gerade wenn man neue Sachen an den Mann (oder Frau) bringen möchte macht man gerne Zugeständnisse. Man braucht eben immer einen "First Mover".
"

Versteh auch nicht was Alfred da will.
Ich habe mal gesagt, dass es irgendeinen Tradeoff dafür geben wird, dass Nvidia sich beim 0.13 Prozess anstrengen musste.
So wie es einige gern sehen würden, NV macht die Arbeit und ATI kassiert ab, so läuft es nicht.
Wer denkt, dass es so im Halbleiterbusiness abläuft ist extrem naiv.

Nvidia hat durch die Verzögerungen auch einiges eingebüst. TSMC konnte nicht das aus eigener Kraft liefern was versprochen wurde.
Nvidia ist seit Jahren der wichtigste Kunde bei TSMC. So einen Kunden verprellt man nicht einfach.
Dass Nvidia nun beim NV30 nur pro lauiffähigem Chip bezahlt, ist eben die Gegenleistung für die lange Mühe. Bei 100.000 Chips kann TSMC das verkraften. Sie haben ja schliesslich auch was davon. Ohne Nvidia wäre der Prozess wahrscheinlich noch grottiger und momentan ist TSMC zwar nicht so der Hit aber besser als der Nachbar UMC allemal.
Ein guter 0.13 Prozess zahlt sich langfristig dann auch wieder aus, denn schliesslich will Nvidia und auch ATI den noch ne Weile nutzen und in Teilen auch für die HIgh End Chips (NV35 / R390?).

Ich gehe sogar noch einen Schritt weiter. Ich vermute, dass es genau 2 Tradeoffs gab.
1. Preis pro Chip bei den HIgh End Produkten
2. Bevorzugte Kapazitätenzuteilung bei den Mid Range Produkten auf 0.13. TSMCs Kapazitäten sind begrenzt und es ist nicht so unwahrscheinlich, dass Nvidia als der wichtigere Kunde hier einen kleinen Vorteil gegenüber der Konkurenz hat, was die Kapazitäten betrifft. Sie waren der erste und sind auch der größte. In irgendeiner Weise wird sich sowas immer in Verträgen wiederspiegeln. Das ist in allen Bereichen der Wirtschaft so.
Eine Hand wäscht die andere, für jede Leistung eine Gegenleistung und alles schön vertraglich abgesichert und hinter verschlossenen Türen ausgeklügelt.

AlfredENeumann
2003-05-06, 00:50:07
Originally posted by Richthofen

Dass Nvidia nun beim NV30 nur pro lauiffähigem Chip bezahlt, ist eben die Gegenleistung für die lange Mühe. Bei 100.000 Chips kann TSMC das verkraften. Sie haben ja schliesslich auch was davon. Ohne Nvidia wäre der Prozess wahrscheinlich noch grottiger und momentan ist TSMC zwar nicht so der Hit aber besser als der Nachbar UMC allemal.



Na du hast mal wieder die Weisheit mit Löffeln gefressen und meinst nur weil Nvidia Kunden übern Tisch zieht verdienen sich andere Firmen auch doof und dämlich, oder was ?

100000 lauffähige Chips bei welchem Yield? Der ist mit Sicherheit hundsmiserabel. Und für die Versuche bis man was lauffähiges hatte, da sind mit Sicherheit auch etliche Wafer draufgegangen. Logan kostet es einiges ne neue Technologiestufe einzuführen, aber immer alles Verschenken nur weil die eine Firma Gott ist und zufällig NV heißt oder was ?

Was ich sagen wollte und was normal auch Supereinfach zu verstehen war, ist das es TSMC nicht nur ne kleine Stange Geld gekostet hat. Und das ist Kohle die erstmal wieder verdient werden muß.

Wart mal ab wenn du endlich mal Arbeiten gehst und hinter den echten Kostenapparat einer Firma schauen kannst, dann kannst du blöde Sprüche reißen.

th3_h3r0
2003-05-06, 01:04:24
Originally posted by Richthofen
"
Wahrscheinlich ja weil solche Entscheidungen normalerweise auf oberster Ebene getroffen werden.

Zudem ist sowas in der Industrie auch nicht unbedingt untypisch. Gerade wenn man neue Sachen an den Mann (oder Frau) bringen möchte macht man gerne Zugeständnisse. Man braucht eben immer einen "First Mover".
"

Versteh auch nicht was Alfred da will.
Ich habe mal gesagt, dass es irgendeinen Tradeoff dafür geben wird, dass Nvidia sich beim 0.13 Prozess anstrengen musste.
So wie es einige gern sehen würden, NV macht die Arbeit und ATI kassiert ab, so läuft es nicht.
Wer denkt, dass es so im Halbleiterbusiness abläuft ist extrem naiv.

Nvidia hat durch die Verzögerungen auch einiges eingebüst. TSMC konnte nicht das aus eigener Kraft liefern was versprochen wurde.
Nvidia ist seit Jahren der wichtigste Kunde bei TSMC. So einen Kunden verprellt man nicht einfach.
Dass Nvidia nun beim NV30 nur pro lauiffähigem Chip bezahlt, ist eben die Gegenleistung für die lange Mühe. Bei 100.000 Chips kann TSMC das verkraften. Sie haben ja schliesslich auch was davon. Ohne Nvidia wäre der Prozess wahrscheinlich noch grottiger und momentan ist TSMC zwar nicht so der Hit aber besser als der Nachbar UMC allemal.
Ein guter 0.13 Prozess zahlt sich langfristig dann auch wieder aus, denn schliesslich will Nvidia und auch ATI den noch ne Weile nutzen und in Teilen auch für die HIgh End Chips (NV35 / R390?).

Ich gehe sogar noch einen Schritt weiter. Ich vermute, dass es genau 2 Tradeoffs gab.
1. Preis pro Chip bei den HIgh End Produkten
2. Bevorzugte Kapazitätenzuteilung bei den Mid Range Produkten auf 0.13. TSMCs Kapazitäten sind begrenzt und es ist nicht so unwahrscheinlich, dass Nvidia als der wichtigere Kunde hier einen kleinen Vorteil gegenüber der Konkurenz hat, was die Kapazitäten betrifft. Sie waren der erste und sind auch der größte. In irgendeiner Weise wird sich sowas immer in Verträgen wiederspiegeln. Das ist in allen Bereichen der Wirtschaft so.
Eine Hand wäscht die andere, für jede Leistung eine Gegenleistung und alles schön vertraglich abgesichert und hinter verschlossenen Türen ausgeklügelt.

100% ACK

TMSC benötigte ja auch schliesslich einen Kunden der bereit war eine
Produktserie fertigen zulassen. In einem Markt wie diesen, wo Image
sehr viel ist, wird sowas nicht ohne ein "Win-Win" gemacht.

Oder mal provokant gefragt: Hätte sich ATi so etwas leisten können? :|

just my2cents

Richthofen
2003-05-06, 02:09:15
"
Na du hast mal wieder die Weisheit mit Löffeln gefressen und meinst nur weil Nvidia Kunden übern Tisch zieht verdienen sich andere Firmen auch doof und dämlich, oder was ?
"
Jede Firma muss verdienen. Eine Firma die langfristig nichts verdient ist einen Dreck wert.
Und wieso sie Kunden übern Tisch ziehen möcht ich auch gern mal wissen. Sie haben bei knapp 500 Mio Umsatz 50 Mio Gewinn gemacht. Das ist in der momentanen Lage am Halbleitermarkt zwar besser als nichts aber die Welt ist es auch nicht. Das sind gerade mal 10% Umsatzrendite. Da weisen andere deutlich mehr auf.
Von übern Tisch ziehen kann hier keine Rede sein.
Frag mal Intel, SAP oder MS die kennen sich damit besser aus.

"
100000 lauffähige Chips bei welchem Yield? Der ist mit Sicherheit hundsmiserabel. Und für die Versuche bis man was lauffähiges hatte, da sind mit Sicherheit auch etliche Wafer draufgegangen. Logan kostet es einiges ne neue Technologiestufe einzuführen, aber immer alles Verschenken nur weil die eine Firma Gott ist und zufällig NV heißt oder was ?
"

Die Firma ist der größte Kunde mit 25% Anteil am Gesamtumsatz bei TSMC und das seit Jahren!
Für so einen Kunden nimmt man einiges in Kauf. Außerdem versteh ich nciht ganz was dein Gejammer soll. Schliesslich hat Nvidia auch einiges für TSMC auf dem Gebiet getan. Oder nutzt TSMC den 0.13 Prozess jetzt in Zukunft nicht mehr um Geld zu verdienen? Ohne Nvidia wären die wahrscheinlich noch nichtmal auf der halben Strecke bei komplexen Designs auf dem aktuell neuesten Prozess. Es ist doch nur natürlich, dass dies irgendwo ausgeglichen werden muss. Es ist doch nicht Nvidias Aufgabe das zu optimieren. TSMC ist die FOundry und will damit Geld verdienen. Dann müssen sie die entsprechende Leistung aber eben auch abliefern um sich von der Konkurenz abzusetzen. Dabei hat ihnen Nvidia ein bisschen unter die Arme gegriffen. Dass sie nun wohl ein Problem bekommen, weil ein fetter Konzern wie IBM mit Knete ohne Ende nun agressiv mitmsicht ist eine andere Geschichte. Aber im Vergleich zur normalen Foundry Konkurenz kann sich TSMC hier sehr wohl noch absethen und das verdanken sie in gewissem Maße auch Nvidia.
Dell bekommt bei Intel auch seine Sonderkonditionen bei den CPUs. Die kaufen zu Preisen ein, wie sie HP und die anderen nie bekommen werden. Wieso sollen auch alle Kunden das gleiche zahlen. Im Massengeschäft werden Konditionen zwischen den 2 Parteien vertraglich ausgehandelt. Das ist überall so. Es ist doch nur natürlich, dass die größeren Kunden eine ganze andere Verhandlungsposition einnehmen als die Kleineren. Hier hat niemand etwas zu verschenken.

"
Was ich sagen wollte und was normal auch Supereinfach zu verstehen war, ist das es TSMC nicht nur ne kleine Stange Geld gekostet hat. Und das ist Kohle die erstmal wieder verdient werden muß.
"
Was sie ja tun werden wenn ihr Prozess läuft und breit verfügbar ist. Ohne diesen in einem qualitativ guten Zustand rennen ihnen die Kunden weg. Was ist somit für sie wohl besser? Die paar läppischen Dollar für die NV30 Wafer blechen oder riskieren, dass Kunden sich nach anderen Foundries umsehen und dass das Image leidet?
In diesem Geschäft kann man sich große Verzögerungen nicht leisten. Ein Chip Designer überlebt sowas mal, weil er wenig Kosten hat. Eine Halbleiterhersteller mit ner FAB und der ganzen Technik von Applied Materials und CO geht bei sowas schnell baden. Man sieht doch wie die ganzen DRAM Hersteller bluten. Die neuen Prozesse kosten Milliarden und ein Prozess dessen Maschinen ich bezahlt habe, der aber nicht einsatzfähig ist holt mir meine Kosten nicht mehr rein.
Die Hersteller für Maschinen in der Chipfertigung also Applied Materials und CO warten sicher nicht auf ihr Geld bis die Firma TSMC nun endlich den Prozess ans laufen bekommen hat. Die liefern die Maschinen und wollen ihr Geld sehen. Optimieren und Anpassen ist nicht ihr Kompetenzbereich.

"
TMSC benötigte ja auch schliesslich einen Kunden der bereit war eine
Produktserie fertigen zulassen. In einem Markt wie diesen, wo Image
sehr viel ist, wird sowas nicht ohne ein "Win-Win" gemacht
"
So ist es. Ob es ein komplettes Win-Win ist, lässt sich schwer sagen. Letztlich haben beide was davon. TSMC bekommt den Prozess ans Laufen und Nvidia federt Kosten durch die Probleme mit dem 0.13 Fertigungsprozess ab. Letztlich wird es aber für Nvidia ein bisschen mehr Win sein aber das ist egal. Offiziell wird es immer Win Win heissen. Kunde ist halt König irgendwo. Wenn ich bei einem Online Shop einkaufen gehe, dann ist mir das auch egal wie die ihren Shop finanzieren. Ich will gute Ware, schnell geliefert und Service. Wenn sie das nicht bieten können bestell ich wo anders. Ausreden wie "unsere Preise sind so niedrig bei uns gibts keinen Service" lass ich nicht gelten. Wie gesagt es ist mir egal wie sie sich finanzieren. Sie wollen ja mit dem Shop Geld verdienen und nicht ich.
Aber zurück zum Thema.
Die Einigung bei dem xbox Streit wird ja auch als Win win verkauft. Momentan siehts aber eher danach aus, als hätte NV hier auch bisserl mehr Win. MS hatte da auch schlechte Karten. Die Preise waren vertraglich festgelegt und MS hat den Vertrag unterzeichnet. Da konnte auch der unabhängige Richter zu keinem anderen Ergebnis kommen. Die x-Box Margen werden jetzt wieder steigen weil MS mehr löhnen muss als bisher. Bisher haben sie einfach Geld zurückgehalten.
Die 50 Mio Dollar letztes Quartal waren im Prinzip die Nachzahlungen für einbehaltenes Geld.
Trozdem wird man sich auch hier in irgendeiner Weise geeinigt haben und jeder wird sich ein bisschen bewegt haben. Wer dann letztlich trozdem besser rausgekommen ist lässt sich vorher sowieso nie sagen und ist dann auch nicht mehr so wichtig.

RyoHazuki
2003-05-06, 09:38:22
Originally posted by Demirug


Das mit den 8Pixel/Takt wird IMHO überbewertet. Wenn man nur 8 TMUs hat kann man das ganze sowieso nur erreichen wenn man bestenfalls bilinear sampelt (kein AF) und nur einen Texturelayer benutzt. Dieser Fall dürfte nur noch sehr selten anzutreffen sein.

EDIT: Ein 256 Bit Speicherinterface dürfte aber auch bei NVIDIA etwas einbüssen ausser man baut dort eine 8 fach Crossbar.

Die 8 fach Krossbar wäre wirklich um einiges effizenter.

@ Robbitop

nicht nur die Fillrate ist bei hohen auflösungen wichtig. Warum ist die GeForce DDR ab 1280x1024 bis zu 35% schneller als die SDR ? Bei 1600x1200 ist der unterschied noch größer. Richtig, GeForce 1 ist Füllratenlimitiert ? Was glaubst du was jetzt speziell beim NV30 mehr Power bringt ? Mehr Chiptakt, oder mehr speichertakt ?

RyoHazuki
2003-05-06, 09:45:20
@ Demirug

wir sollten uns aber keine hoffnungen machen zur 8 fachen unterteilung.

Mich würde mal ein vergleich zwischen HyperZIII und LMA III interessieren !

Was NV vieleicht machen könnte um in AA nicht so viel Performance zu verlieren, ist die ColorKompressions Rate zu erhöhen. Ist das aber denn noch möglich ? Zur zeit ist das beim NV30 bei 4:1. 6:1 sollten machbar sein denke ich, da Ati von 6,6:1 spricht. Das dürfte (wenns stimmt) auch einen großteil der enormen speed der R9700 unter AA erklären.

Gut die AA modis sind auch besser Optimiert aber SO VIEL ist beim besten willen auch nicht möglich.

robbitop
2003-05-06, 09:48:41
tja das ist schwer zu sagen, da vieles beim NV35 im argen liegt...natürlich fordert hohe Auflösung auch einen Tribut an die Bandbreite. (GF SDR - DDR Vergleich ist sinnlos da DDR schneller sein muss, da Füllrate gleich)....jedoch war es in letzter Zeit nunmal so, dass bei höheren Auflösungen und/oder AF immer die Füllrate entscheident war. Auch AF frisst massig Bandbreite, trotzdem ist es algemein die Füllrate die DERZEITIG limitiert.

Denn Bandbreitenseitig steht die R300 dem NV30 extrem überlegen gegenüber. Das sieht man sehr gut an 4xMS Benches, denn hier ist Bandbreite KING ;)

Und wieso ist der NV30 in Hohen Auflösung ohne alles schneller als der R300? klar weil hier die Füllrate limitiert (Bandbreite hat der NV30 extrem weniger, da hilft auch scheinbar das beste Interface nichtsmehr, denn der Verschnitt im 4x CBMC gegenüber einem höher aufgeteiltem CBMC bei 256bit macht keinen wirklich signifikanten unterschied mehr scheinbart). Uns stehen hier theoretisch 4GTex/sek(bilinear NV30 trillinear 2GPix/sek) gegen 2,4GTex/sek (bilinear R300 trilinear 1,2Gpix/sek dank loopback)...und das macht sich trotz der Füllratenineffizienz des NV30 eben bemerkbar.

eine Pauschalaussage wie : "das interface x ist besser als y", ist eben unpassend. Und der NV35 wird beim 256bit DDR Interface sicher aufgrund der PCB kosten und des Nutzenverhältnisses auch nur ein 4x ausgelegten CBMC haben

robbitop
2003-05-06, 09:52:05
AA wird schneller sein, dank mehr Füllrate und diese Pseudokompression kommt sicher auch auf 6x o.Ä.

Derzeit fehlt nV ein HirZ Ähnliches Verfahren, damit kann man schön Füllrate sparen.

Ein radikal anderes AA wäre ein weg, Performance zu sichern. FAA/Z3 oÄ ..ich bin mir sicher im NV40 kommt etwas wirklich neues in dem Bereich, weil in der NV3x Serie nicht umsonst noch eine modifizerte Version von HRAA enthalten ist (inzw heisst es intellisample).

Also irgendetwas am LMA wollten sie zum NV35 ändern, aber ob dies signifikante Auswirkung haben wird, bleibt abzuwarten...

Unregistered
2003-05-06, 12:13:46
Originally posted by AlfredENeumann



Na du hast mal wieder die Weisheit mit Löffeln gefressen und meinst nur weil Nvidia Kunden übern Tisch zieht verdienen sich andere Firmen auch doof und dämlich, oder was ?

100000 lauffähige Chips bei welchem Yield? Der ist mit Sicherheit hundsmiserabel. Und für die Versuche bis man was lauffähiges hatte, da sind mit Sicherheit auch etliche Wafer draufgegangen. Logan kostet es einiges ne neue Technologiestufe einzuführen, aber immer alles Verschenken nur weil die eine Firma Gott ist und zufällig NV heißt oder was ?

Was ich sagen wollte und was normal auch Supereinfach zu verstehen war, ist das es TSMC nicht nur ne kleine Stange Geld gekostet hat. Und das ist Kohle die erstmal wieder verdient werden muß.

Wart mal ab wenn du endlich mal Arbeiten gehst und hinter den echten Kostenapparat einer Firma schauen kannst, dann kannst du blöde Sprüche reißen.
huui du hältst nv für Götter!
Aber die besseren Konditionen hat nv halt weil sie mehr abnehmen!
da aber sinnvolle aussagen durch gespamme zerstört werden viel Spaß beim Suppe auslöffeln

Richthofen
2003-05-06, 12:20:31
lol :)

Ich versteh die Aufregung auch nicht.
Da gibts einen Kunden, der ist dein größer Kunde. Der hat durch deine Unfähigkeit was versprochenes zu liefern gelitten. Es hat ihn Image und vielleicht auch Geld gekostet. Seit Jahren ist er dein größter Abnehmer oder Auftraggeber.
Du läufts Gefahr große Teile des Geschäftes zu verlieren. Ergo wirst du so einem Kunden entgegenkommen.
Stell dir vor der schichtet die ganzen Mainstram und Low Cost Chips auf eine andere Foundry um. Dann verliert du im Handumdrehen 20% an Umsatz. Bei der derzeit schlechten Lage am Markt und der ohnehin geringen Auslastung wirst du das ganz sicher nicht in Kauf nehmen wollen, zumal dieser Kunde finanziell äußerst gut dasteht und du davon ausgehen kannst, dass der auch in den nächsten Jahren noch ein zuverlässiger Kunde sein wird. Du hast keine Möglichkeit so einen Verlust im Handumdrehen zu kompensieren.

Unregistered
2003-05-08, 10:40:40
Originally posted by Richthofen
lol :)

Ich versteh die Aufregung auch nicht.
Da gibts einen Kunden, der ist dein größer Kunde. Der hat durch deine Unfähigkeit was versprochenes zu liefern gelitten. Es hat ihn Image und vielleicht auch Geld gekostet. Seit Jahren ist er dein größter Abnehmer oder Auftraggeber.
Du läufts Gefahr große Teile des Geschäftes zu verlieren. Ergo wirst du so einem Kunden entgegenkommen.
Stell dir vor der schichtet die ganzen Mainstram und Low Cost Chips auf eine andere Foundry um. Dann verliert du im Handumdrehen 20% an Umsatz. Bei der derzeit schlechten Lage am Markt und der ohnehin geringen Auslastung wirst du das ganz sicher nicht in Kauf nehmen wollen, zumal dieser Kunde finanziell äußerst gut dasteht und du davon ausgehen kannst, dass der auch in den nächsten Jahren noch ein zuverlässiger Kunde sein wird. Du hast keine Möglichkeit so einen Verlust im Handumdrehen zu kompensieren. nö richtig aber mit Wirtschaft mußt du nicht jemandem kommen der einen bettepich vor seinem gpu/vpu Schrein hat :)

Ist halt Ne Art von Quersubventionierung Butter etwas Geld ins highend Mach Verluste um diese wieder mit dem mid Range Produkten oder sogar low cost wieder einzufahren und zu kompensieren!


das merkte man schon im Thread ist die 5200 sinnvoll oder nicht :)
(in dem Thread ging es um die Markt Berechtigung der Karte

Erst Jahre schreien gibt keine billige dx7/8 Lösung und nun wird dx9 mit aller macht in den Markt gebracht, und sogar zu menschlichen preisen! (Ohne die Performance zu beachten) Meine es gibt Ne lowcost karte mit voller dx9 Unterstützung und nun ist das auch nicht recht nja OK demi glaube ich hat es ja gecheckt das es für die schnelle und weite Verbreitung von dx9 Effekten beiträgt! hhm Mist Denkblockade und keinen Bock mich noch mal abzumühen :)