PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - künstlich hervorgerufene Grafikkarten-Knappheit?


Seiten : 1 [2] 3

LovesuckZ
2009-10-12, 22:01:16
Ein Blick bei Geizhals zeigt das zum Beispiel die Verfügbarkeit der GTX 285 schon jetzt sehr bescheiden ist. :rolleyes: Wie soll das erst in 2-3 Monaten aussehen wenn man vom Worst-Case ausgeht und Fermi sich doch auf 2010 verspätet?

Was soll dann sein? Eine GTX285 ist auch nur interessant, wenn sie unter 200€ fallen würde. Gleichzeitig würden dann alle anderen nVidia Produkte nochmal ein Stufe niedriger gehen. Das funktioniert nicht.


Das Problem hat man jetzt schon. :freak: Außer man beeilt sich und ist bereit Preise zu zahlen die ja fast bei erscheinen der GTX 285 üblich waren.

Die GTX285 ist seit über einem Monat schlecht lieferbar. Aber die GTX260 und GTX275 gibt es in ausreichenden Mengen. Und das wird sich in den nächsten 6 Monaten auch nicht ändern.

Hier die Auflistung aller lieferbaren GTX260 und GTX275 Karten in Deutschland: http://geizhals.at/deutschland/?cat=gra16_512;v=l;xf=891_GeForce%20GTX%20260~132_512~891_GeForce%20GTX%20275&sort=p
Also ich sehe hier kein Notstand.

Charlie hat doch nicht diskutiert, ob es unsinnig ist oder nicht, dass nvidia keine Chips mehr produziert (soweit ich die Diskussion richtig in Erinnerung habe), sondern dass sie EOL sind. DAS wurde heftig bestritten. Ob sie jetzt keine mehr produzieren, weil sie nicht gekauft werden oder weil Fermi rauskommt ist doch dabei gar nicht wichtig.

Charlie schreibt nur das offensichtliche. Das kann ich auch. Was Charlie aber auch ausdrückt ist, dass es bald keine GTX260/GTX275/GTX285 Karten geben wird. Das ist zu 2/3 vollkommen lächerlich.

Gast
2009-10-12, 22:23:06
Spielt doch keine Rolle wann, sie sind nicht verfügbar und wenn zu überteuerten Preisen. GTX295 kriegt man.
Multi-GPU-Müll will ja kaum jemand haben.
Die GTX 295 wird wahrscheinlich noch in 2 Jahren lieferbar sein. ;D

Gast
2009-10-12, 22:35:50
Wenn die Boardpartner keine neuen Karten mehr herstellen, weil sie keine Chips bekommen, hätte Nvidia die Chips doch offensichtlich verkaufen können. Aber wenn Nvidia nicht in Preisregionen verkaufen kann, in denen sich eine weitere Produktion noch lohnt, kann man es verstehen, auch wenn es meiner Meinung nach wirklich erstaunlich ist, wenn Nvidia zwischen der GTS 250 und den kommenden Fermi-Grafikkarten nichts anbieten könnte, sobald keine GT200(b) Karten mehr auf Lager sind.
Ich bin eher davon ausgegangen, daß sie die Produktion nun wieder angepaßt haben und die Verfügbarkeit in 1-2 Monaten wieder besser aussieht.
Vielleicht kommt vor Fermi noch ne GTS 350 :)

Gast
2009-10-12, 22:39:03
Die Karte wurde gerade erst released. Also nichts mit Skandal sonder völlig normal bei der aktuellen Nachfrage. :rolleyes:
Aber das PCGH die noch nicht erhaltenen Herstellerkarten nicht empfiehlt (wie auch?) ist ein Skandal. ;D
Nagut, zum Glück ist der 5770 Zensurskandal/Pressetotalausfall auch unwichtig.

Gast
2009-10-12, 22:41:39
Charlie schreibt nur das offensichtliche. Das kann ich auch. Was Charlie aber auch ausdrückt ist, dass es bald keine GTX260/GTX275/GTX285 Karten geben wird. Das ist zu 2/3 vollkommen lächerlich.
Es ist eine nicht nur lächerlich, es ist eine blanke Lüge.
Ich kann es nicht verstehen wie Charlies Allwissenheit gelobt wird, während er so einen Mist verzapft.

Er sagt morgen geht die Welt unter, stattdessen regnet es und er bekommt als Dank für die "wahre" Vorhehrsage einen Orden.

Gast
2009-10-12, 23:26:40
Er sagt morgen geht die Welt unter, stattdessen regnet es und er bekommt als Dank für die "wahre" Vorhehrsage einen Orden.

Also ich verstehe nicht wie man jetzt noch behaupten kann das an Charlies News nicht dran war. Fuad ist doch sowieso eher auf Nvidias Seite, und dennoch bestätigt er die eigentliche Nachricht: die GTX Reihe wird mehr oder weniger eingestellt - ob und wie lange Restbestände bei den Händlern liegen ist doch absolut uninteressant.
Ich glaube schon das irgendwas an den beiden Meldungen dran ist - das Nvidia das dementiert ist ja auch klar, es wäre ja sehr unprofessionel der Gerüchtküche direkt Recht zu geben.

Gast
2009-10-12, 23:29:37
Fuad ist doch sowieso eher auf Nvidias Seite, und dennoch bestätigt er die eigentliche Nachricht: die GTX Reihe wird mehr oder weniger eingestellt - ob und wie lange Restbestände bei den Händlern liegen ist doch absolut uninteressant.
Die eigentliche Nachricht war:
Nvidia steigt aus dem High-End Grafikkartenmarkt aus.

Fuad sagt:
Die Hersteller produzieren absofort keine GTX 200 mehr.

Kleiner Unterschied. Beim letzteren wird der Rest abverkauft, dann kommt wieder was neues.

Gast
2009-10-13, 00:19:24
Die eigentliche Nachricht war:
Nvidia steigt aus dem High-End Grafikkartenmarkt aus.

Fuad sagt:
Die Hersteller produzieren absofort keine GTX 200 mehr.

Kleiner Unterschied. Beim letzteren wird der Rest abverkauft, dann kommt wieder was neues.

Ich hab mir jetzt nochmal Charlies Artikel durchgelesen und konnte da nichts von lesen das Nvidia nie wieder High End karten produzieren wird - nur das das sie bis Fermi kommt (= was neues) den Markt ATI überlassen werden.
Klar ist sein Ton nicht sehr freundlich und seine Erwartungen an Fermi gering - aber meiner Meinung nach ist Fuads Artikel eine Bestätigung von Charlies Artikel.
Hab vorher woanders was passendes gelesen:
"where there's smoke, there's fire"

LovesuckZ
2009-10-13, 00:30:43
Ich hab mir jetzt nochmal Charlies Artikel durchgelesen und konnte da nichts von lesen das Nvidia nie wieder High End karten produzieren wird - nur das das sie bis Fermi kommt (= was neues) den Markt ATI überlassen werden.


With the cancellation of the GTX285, GTX275, and GTX260, possibly the GTX295 too, Nvidia is abandoning the entire high end and mid-range graphics market. Expect a reprise in January on the low end.

Ziemlich eindeutig.

S940
2009-10-13, 10:50:01
Ziemlich eindeutig.
Da steht nirgends, dass Fermi gestrichen ist ...
Der Bezug ist eindeutig die aktuelle Baureihe, Fermi beschreibt er hier unter "future":
[nV] is left waving shells (http://www.semiaccurate.com/2009/10/01/nvidia-fakes-fermi-boards-gtc/) while trying desperately to convince the loyal press that it is real. While that is a problem for the future, the current concern is that it has nothing that can compete with ATI's Evergreen line, HD5870, HD5850, and the upcoming Junipers.

Ziemlich eindeutig, wenn man den Unterschied zw. "current" und "future" kennt ...

Tipp: "Current" zielt auf den von Dir zitierten Satz ...

ciao

Alex

LovesuckZ
2009-10-13, 10:56:04
Ich lese mir nicht alle Artikel durch, nur um mir dann den passend Ausdruck rauszusuchen. Fakt ist, Charlie hat geschrieben, dass nVidia den Mid-Range und High-End Markt zZ aufgibt. Das ist zu 2/3 falsch, da man weiterhin GTX260/GTX275 Boards kaufen kann und das in solchen Mengen, dass jeder bedient werden wird, der eine haben möchte.
nVidia zieht sich nicht zurück, man produziert erstmal nur nichts. Und sollte sich jedoch eine starke Nachfrage zu den jetzigen Preisen ergeben, kann man die Produktion auch wieder anschmeißen. Ziemlich simple - außer für Charlie.

S940
2009-10-13, 11:09:24
Ich lese mir nicht alle Artikel durch, nur um mir dann den passend Ausdruck rauszusuchen.
Hahaha, Du liest Dir also nur die Artikel zur Hälfte durch, bis Du einen passenden Ausdruck gefunden hast, der Deiner Meinugn entspricht ... toll ... das ist die Zeugen Jehova Methode bei der Bibelauslegung ... :freak:

Kann man machen - ja, sinnvoll -> nein.

Fakt ist, ...
Dass Du dann ausgerechnet von Fakten schreibst ist jetzt wirklich zum lachen.
Fakt ist, dass Du die Artikel nicht liest, und sich die Diskussion somit erübrigt. Bin damit aus der Diskussion raus, ausser Du bequemtest Dich mal den Artikel komplett zu lesen.
Ziemlich simple - außer für Charlie.
Jo, ziemlich simple minded nur ein paar Fetzen eines Artikels zu lesen und dann auf den Author zu schimpfen ...

End of line

Alex

LovesuckZ
2009-10-13, 11:21:58
Hahaha, Du liest Dir also nur die Artikel zur Hälfte durch, bis Du einen passenden Ausdruck gefunden hast, der Deiner Meinugn entspricht ... toll ... das ist die Zeugen Jehova Methode bei der Bibelauslegung ... :freak:

Kann man machen - ja, sinnvoll -> nein.


Jo, ist klar.

The G200b based parts can compete on performance, but not at a profit, so they are going to die. Nvidia was booted out of the high end market, and is now abandoning the mid range in a humbling retreat. Expect a similar backpedaling from the rest in January when Cedar and Redwood come out.


Ich kann immer noch GTX Boards kaufen. Nur weil nVidia keine weiteren Chips in Massen produziert, heißt es nicht, dass sie verschwinden. Und es ist unsinnig etwas zu produzieren, was man nicht zu einem bestimmten Preis verkaufen kann. Und da der Markt sowieso am unteren Ende der Skala angekommen ist, stellt man vorläufig die Produktion ein und verkauft die im Handel befindliche Menge.
Solange wie es nVidia Karten gibt, solange sind sie im Markt vertreten. Da kann Charlie noch solange rumfaseln.

N0Thing
2009-10-13, 11:23:53
Die Meldung von Charlie kann man interpretieren wie man will, sowohl das Nvidia sich aus dem High-End Markt zurück zieht weil sie die Produktion von Grafikchips einstellen, oder daß sie sich nicht aus dem Markt zurück ziehen obwohl sie die Produktion der Chips stoppen, weil noch genug Chips auf Lager sind.

Entscheidend wird sein, wenn sie keine (GT200b) Chips mehr produzieren sollten, ob die Karten auf Lager lange genug ausreichen, bis die Lücke durch Fermi gefüllt wird. Noch werden laut Charlie ja GTX260 und GTX275 produziert.

In Frage steht für mich auch noch, ob die Produktion wirklich gestoppt wird weil man mit dem Preisen von AMD nicht mehr mithalten kann, oder ob man, wie z.B. bei heise zu lesen war, nur nicht mit einer so großen Nachfrage gerechnet hat.

Insgesamt ne Menge wenn und vielleicht bei diesem Thema

LovesuckZ
2009-10-13, 11:30:18
nVidia hatte vor der Krise sehr viele Chips auf Lager produziert und diese dann immer am Ende eines Quartals an die Partner verkauft - weil diese immer am Ende des Quartals antanzten.
Jetzt verkaufen sie immer monatlich und sollte es doch zu einer höhreren Nachfrage kommen, können Lieferengpässe entstehen. Es ist aber auch bekannt, dass nVidia nicht mehr soviel Abschreiben will. Deswegen produziert man jetzt auch nicht auf Halde, nur um dann um jeden Chip feilschen zu müssen.

Gast
2009-10-13, 11:46:56
nVidia: "Niemand hat die Absicht, die GT200 auslaufen zu lassen" ;D

eratte
2009-10-13, 13:04:33
Also mal als Beispiel Alternate die sehr viele Marken im Programm haben, dort ist keine einzige GTX285 lieferbar.

Am besten sieht es noch bei der GTX260 aus, GTX275 ist auch vorhanden und die GTX295.

Ob die weiteren Prognosen mit dem EOL zutreffen werden dann die nächsten 2 Monate zeigen.

Gast
2009-10-13, 13:46:20
Falls das hier noch nicht erwähnt wurde:

"NVIDIA Partners claim GT200 still in Mass Production"

http://www.brightsideofnews.com/news/2009/10/12/nvidia-partners-claim-gt200-still-in-mass-production.aspx

Schön langsam wirds konfus...

Odal
2009-10-13, 14:34:55
nVidia: "Niemand hat die Absicht, die GT200 auslaufen zu lassen" ;D


ich glaub das sollte einem sogar noch mehr zu denken geben wenn nv im traum noch nicht daran denk sich vom GT200 zu verabschieden

-> GT300 und ableger nicht der bringer/noch lange nicht fertig um das "Volks" zu bedienen ;)

LovesuckZ
2009-10-13, 14:39:10
ich glaub das sollte einem sogar noch mehr zu denken geben wenn nv im traum noch nicht daran denk sich vom GT200 zu verabschieden

-> GT300 und ableger nicht der bringer/noch lange nicht fertig um das "Volks" zu bedienen ;)

Ja, interessante Sichtweise. Egal was nVidia macht, Charlie wird es immer negativ sehen. :freak:

Odal
2009-10-13, 16:09:09
nee ein statement wie:
GT200 wird noch bis jannuar weiterproduziert um dann als ausführung XYZ durch ABC ersetzt zu werden


wäre nachvollziehbar aber noch keine absicht/planung zu haben das ding auslaufen zu lassen deutet nicht auf einen kurzfristig erscheinenden kosteneffektiven nachfolger hin

Franzmann-Jan
2009-10-13, 16:36:40
Ja, interessante Sichtweise. Egal was nVidia macht, Charlie wird es immer negativ sehen. :freak:

Egal was nVidia macht, LoveSuckz wird es immer positiv sehen ;)

LovesuckZ
2009-10-13, 16:38:26
Egal was nVidia macht, LoveSuckz wird es immer positiv sehen ;)

Nö - aber ich muss auch keine Firma verteidigen. :biggrin:

Knuddelbearli
2009-10-13, 16:47:22
wie soll man bitte GTX 260 und 275 und 295 herstellen wenn keine GTX 285 mehr hergestellt wird ...

entweder ist dann die ausbeute sowas von mies was bei 55nm sicher nit ist oder alle sind eol nur bei der GTX 285 merkt man es als erstes da die stückzahlen immer geringer waren als beim rest.

Coda
2009-10-13, 16:48:22
Also ich habe das auch so gelesen wie LovesuckZ. Deshalb hab ich mich auch so darüber geärgert.

Das die GT200b-Chips jetzt nicht mehr produziert werden ist relativ verständlich, aber noch lange nicht der Beinbruch wie Charlie es darstellt.

LovesuckZ
2009-10-13, 16:49:01
Weil eine GTX285 eine Ausführung bei Verwendung eines GT200b Chips sein kann.

Menace
2009-10-13, 17:13:35
Das die GT200b-Chips jetzt nicht mehr produziert werden ist relativ verständlich, aber noch lange nicht der Beinbruch wie Charlie es darstellt.

Aber schon die Aussage der Nichtproduktion wurde hier als Schwachsinn eines Schwachsinnigen abgetan. Warum lese ich nicht etwas in der Art, dass man seiner Kritik an Charlie in DIESEM Punkt dem Anschein nach etwas falsch lag. Allein die Leute hier, denen ich geglaubt habe, dass sie wissen, worüber sie schreiben, wurden unglaubwürdiger als Charlie. Ob das jetzt ein Drama für nv darstellt oder nicht ist dann nur noch Fallinterpretation.

S940
2009-10-13, 18:50:38
Aber schon die Aussage der Nichtproduktion wurde hier als Schwachsinn eines Schwachsinnigen abgetan. Warum lese ich nicht etwas in der Art, dass man seiner Kritik an Charlie in DIESEM Punkt dem Anschein nach etwas falsch lag. Allein die Leute hier, denen ich geglaubt habe, dass sie wissen, worüber sie schreiben, wurden unglaubwürdiger als Charlie. Ob das jetzt ein Drama für nv darstellt oder nicht ist dann nur noch Fallinterpretation.

Ich checks auch nicht, anscheinend liegt das Mißverständnis bei mangelnden Englischkenntnissen bzw. schludrigem Lesen.

Kurzfassung: nV lebt vom Grafikkartenverkauf. Kein Verkauf -> Kein Geld.

Wenn nV nichts zu verkaufen hat, da die GT200b eingestellt wurden/wird und Fermi noch nicht fertig ist, dann hat nV ein Problem, da kein Geld in die Kasse kommt. Und wie LovesuckZ immer so schön schreibt: Dazu braucht es keinen Charlie, denn das ist jedem sofort klar ;-)

Ob das jetzt ein Beinbruch ist, oder nur eine kleine Delle in der Bilanz wird man bei den (über)nächsten Quartalszahlen sehen.

ciao

Alex

Coda
2009-10-13, 18:54:53
Wenn ihr mal den Thread lesen würdet, dann seht ihr, dass ich mich vor allem über das Zitat aufgeregt hat in dem er etwas über einen halben Fermi redet ohne überhaupt irgendwas davon zu wissen.

Das sehe ich auch nach wie vor so.

LovesuckZ
2009-10-13, 19:11:47
Kurzfassung: nV lebt vom Grafikkartenverkauf. Kein Verkauf -> Kein Geld.

Das ist falsch. Kein Verkauf -> Kein Verlust. :)

Schlammsau
2009-10-13, 19:33:47
Das ist falsch. Kein Verkauf -> Kein Verlust. :)

-> kein Umsatz!

Gast
2009-10-13, 19:34:49
Wenn nV nichts zu verkaufen hat, da die GT200b eingestellt wurden/wird und Fermi noch nicht fertig ist, dann hat nV ein Problem, da kein Geld in die Kasse kommt.
Noch werden GTX 200 verkauft und noch gibt es viele auf Lager.
Eine weitere GT200 Produktion ist einfach unnötig, aus jetztiger Sicht.

In 3 Monaten kannst du wieder kommen, wenn dann die Vorräte erschöpft sein sollten.

Die einzige Möglichkeit jetzt noch zusätzlich zu den vorhandenen GT200 weitere neue GT200 an die Hersteller zu bringen besteht in Preissenkungen.
Preissenkungen, die den Gewinn schmälern, den Gewinn der kleineren Produkte schmälern und den GT300 Startpreis versauen.

Gast
2009-10-13, 19:36:02
-> kein Umsatz!
Umsatz füllt keine leeren Mägen.

Gewinn ist das was satt macht. Gewinn auf mehreren Ebenen: GTX 200, alle unter GTX 200 und zukünftige GF 300.

XtraLarge
2009-10-13, 19:36:56
Das ist falsch. Kein Verkauf -> Kein Verlust. :)

Ist auch nicht ganz richtig ;)

Was sie produziert haben, müssen sie loswerden. Aber das scheint ja soweit schon der Fall zu sein. Denn die Teile werden nicht wertvoller, indem man sie rumliegen lässt. Im Vergleich zu Gold oder Öl gibt´s in diesem Geschäft nämlich noch AMD/ATI :freak:

Schlammsau
2009-10-13, 19:44:34
Umsatz füllt keine leeren Mägen.

Gewinn ist das was satt macht. Gewinn auf mehreren Ebenen: GTX 200, alle unter GTX 200 und zukünftige GF 300.

Schon klar aber gut ist auch nicht wenn man einfach nichts mehr, oder weniger produziert und dadurch weniger einnimmt.

Gast
2009-10-13, 20:10:27
Schon klar aber gut ist auch nicht wenn man einfach nichts mehr, oder weniger produziert und dadurch weniger einnimmt.
Es ist eine Rechnung. Nvidias Wirtschaftsabteilung ist scheinbar zu dem Schluss gekommen, das der Produktionsstopp und Abverkauf der beste Weg ist.

Die Jungs wissen wie groß die Bestände noch sind, sie können auch den Markt einschätzen, der Wind wird nicht schmeichelhafter.
Anhand der Bestandsinformation und der Information um zukünftige Karten wurde die Entscheidung getroffen.


Du musst dir klar machen, das jede zusätzlich produzierte GT200 GPU ersteinmal kostet. Sie kostet weil GTS 200 billiger werden müssen. Sie kostet weil GTX 300 nicht so teuer einsteigen können. Sie kostet in der Produktion.
Dann muss sie erstmal verkauft werden. Die Hersteller werden nicht Schlange stehen, wenn sich entsprechende Karten bei den Händlern stappeln.

Einzig GT200 für GTX 285 könnte Nvidia absetzen. Das scheint wiederrum nicht lohnend genug zu sein, um extra dafür die Produktion weiterzuführen.
Der High-End Bereich wird eh durch die GTX 295 abgedeckt, scheinbar ist der Verlust nicht allzu schlimm.

LovesuckZ
2009-10-13, 20:11:18
nVidia hat noch weitere Produkte außer dem GT200 auf dem Markt...
Man muss ihn auch nicht Quersubventionieren, nur um künstlich seine Marktanteile zu halten. Dann eher lässt man AMD Marktanteile gewinnen, statt diese mit Verlusten zu behalten.

Menace
2009-10-13, 20:50:53
Dann eher lässt man AMD Marktanteile gewinnen, statt diese mit Verlusten zu behalten.

Für AMD bestimmt gut und wichtig, da natürlich Spielehersteller bestimmt anders reagieren, wenn ein GraKa-Hersteller einen hohen Anteil an Produkten hat. Zumal habe ich die Hoffnung, dass mehr Ati-Stream-Anbindungen gibt bzw. Fremdhersteller Ati dafür ein bisschen in den Hinter treten (ich weiß, die Hoffnung stirbt zuletzt).

Kein Hersteller überlässt freiwillig der Konkurrenz Anteile. Aber nv hat jetzt nunmal keine DX11-Produkte.

Gast
2009-10-13, 20:56:24
Der Markt besteht weiterhin vorallem aus D3D10 Produkten.
D3D11 Produkte sind bisher eine Randerscheinung in einem Marktbereich.

Marktanteile verspielt Nvidia nicht einmal. Für Marktanteile zählen vor allem erstmal die Billigkarten. Nvidia startet dort gerade mit 40nm durch.
Im oberen Segment ist Nvidia weiterhin durch die Restbestände vertreten.

Franzmann-Jan
2009-10-13, 22:52:58
Der Markt besteht weiterhin vorallem aus D3D10 Produkten.
D3D11 Produkte sind bisher eine Randerscheinung in einem Marktbereich.

Marktanteile verspielt Nvidia nicht einmal. Für Marktanteile zählen vor allem erstmal die Billigkarten. Nvidia startet dort gerade mit 40nm durch.
Im oberen Segment ist Nvidia weiterhin durch die Restbestände vertreten.

Ja, alles läuft super für Nvidia und die Blumen blühen. Warum regen wir uns hier eigentlich alle auf ?

eratte
2009-10-14, 00:28:21
Nvidia startet dort gerade mit 40nm durch.


Was man heute alles so durchstarten nennt *duck

Die Karten sehen doch nicht mal gegen eine 4670 Land wenn man den meisten Reviews glauben darf.

Als normal denkender Endkunde wünscht man sich immer ein gesundes Konkurrenzverhältniß am Markt im Moment finde ich ist das nicht gegeben.

Gast
2009-10-14, 00:48:04
Ach, diese Dinger landen doch eh zu 90% in ALDI- und Mediamarkt-PCs, da interessiert die Kunden doch nicht was sie leisten, die kaufen den Karton um damit zu Hause im Internet zu surfen, Briefe zu schreiben und Mails zu verschicken.

LovesuckZ
2009-10-14, 00:50:34
Ich bezweifel, dass solche Karten im Retail-Markt überhaupt eine Bedeutung haben. Der Markt ist so überflutet von Karten zu absurden geringen Preisen, dass man entweder zu einem IGP greift oder gleich für 70-100€ etwas ganzes kauft.

S940
2009-10-14, 01:13:37
Das ist falsch. Kein Verkauf -> Kein Verlust. :)Doch man macht Verlust, oder werden die Gehälter der nV Angestellten für die Dauer der Absatzflaute eingefroren und TSMC bäckt die Wafer aus Barmherzigkeit ?

Na dann könnntest Du lange auf Fermi warten ... warten wir mal ab, wie das Quartal ausfällt ... wenn sie Glück haben können sie am Ende noch genügend teure Fermis verkaufen und sich noch ins Schwarze retten. Wenn nicht seh ich rot ;-)

ciao

Alex

mictasm
2009-10-14, 01:34:49
Doch man macht Verlust, oder werden die Gehälter der nV Angestellten für die Dauer der Absatzflaute eingefroren und TSMC bäckt die Wafer aus Barmherzigkeit ?

Das bezahlt dir aber die verkaufte GPU auch nicht. Und wenn du jede dieser GPUs unterhalb der Kostendeckung verkaufen musst, machst du mit dem Verkauf zusätzlichen Verlust. Wann ist der Verlust also größer?

Danke CrazyIvan, ich hab mich da wirklich vertan. Vielleicht sollte ich so spät nicht mehr posten.

CrazyIvan
2009-10-14, 07:19:35
Der Verlust ist immer größer, wenn man gar nichts verkauft. Fixkosten sag ich nur. Selbst wenn der Deckungsbeitrag in Summe nicht ausreicht, diese zu decken, sollte man weiter Produkte verkaufen. Die einzige Ausnahme wäre die, dass die variablen Kosten pro Einheit höher sind als der Verkaufspreis - also ein negativer Deckungsbeitrag. VWL Grundkurs ftw!

Oder anders ausgedrückt:
Verkaufspreis > Fixkostenanteil + variable Kosten --> Verkaufen
Verkaufspreis > variable Kosten, jedoch Verkaufspreis < variable Kosten + Fiskostenanteil --> Verkaufen
Verkaufspreis < variable Kosten --> nicht Verkaufen

/edit:
@ Mictasm
Doch, genau das macht die verkaufte GPU. Sie trägt zur Deckung der Fixkosten bei. Du denkst nicht wirtschaftlich sondern naiv-hausfrauenwirtschaftlich.

Simon Moon
2009-10-14, 07:35:40
Der Verlust ist immer größer, wenn man gar nichts verkauft. Fixkosten sag ich nur. Selbst wenn der Deckungsbeitrag in Summe nicht ausreicht, diese zu decken, sollte man weiter Produkte verkaufen. Die einzige Ausnahme wäre die, dass die variablen Kosten pro Einheit höher sind als der Verkaufspreis - also ein negativer Deckungsbeitrag. VWL Grundkurs ftw!


Selbst in diesem Fall würde wohl noch verkauft, da man ansonsten Marktanteile verliert und somit potentielle Käufer des Nextgen Produktes.

Was mich nach all den Jahren noch wundert, dass die OEMs immer noch so wankelmütig sind.

mapel110
2009-10-14, 08:05:04
http://www.anandtech.com/video/showdoc.aspx?i=3659
The EOL (end of life) notices went out recently and they request that the OEMs submit their allocation requests asap otherwise they risk not getting any cards.

The second was that despite the EOL notices, end users should be able to purchase GeForce GTX 260, 275 and 285 cards all the way up through February of next year.

If you look carefully, neither of these statements directly supports or refutes the two articles above. NVIDIA is very clever.

NVIDIA’s explanation to me was that current GPU supplies were decided on months ago, and in light of the economy, the number of chips NVIDIA ordered from TSMC was low. Demand ended up being stronger than expected and thus you can expect supplies to be tight in the remaining months of the year and into 2010.

reunion
2009-10-14, 08:20:35
"NVIDIA’s explanation to me was that current GPU supplies were decided on months ago, and in light of the economy, the number of chips NVIDIA ordered from TSMC was low. Demand ended up being stronger than expected and thus you can expect supplies to be tight in the remaining months of the year and into 2010."

Tja, genau wie von mir vermutet.

svenw
2009-10-14, 08:41:27
Das ist falsch. Kein Verkauf -> Kein Verlust. :)
Das ist schlichtweg falsch. Das würde voraussetzen das Nvida die Chips zu weniger verkauft als sie selbst TSMC zahlen müssen, was ich nicht glaube. Ansonsten bedeutet Verlust/Chip nicht, das es sich nicht lohnt den Chip zu verkaufen, denn die Fixkosten bleiben gleich.

Rechenbeispiel: Nvidia hat Fixkosten von 5€ pro Chip und muß 7 Euro an TSMC pro Chip zahlen (inklusive allem was da dran hängt Logistik etc) bekommt pro Chip aber nur 10€ von den Kunden ergo ein Verlust vn 2 € pro Chip. Verkauft Nvidia gar nichts haben sie immer noch die Fixkosten von 5€ pro (nicht verkauftem) hypothetischem Chip ergo 5€ Verlust. Somit rentiert sich der Verkauf indem er die Verluste von 5 auf 2€ pro Chip drückt. Das Spielchen kann man nicht ewig machen, aber für ein Übergangszeit geht es und man bleibt im Markt. Alleine schon das Nvidia ATI den Markt für 3 Monate überläßt kostet Reputation und auch das läßt sich in Geld aka Verlusten ausdrücken.

Alleine das Nvidias Chef auf der hauseigenen Konferenz mit einem Dummy rumläuft läßt nichts gutes für den FERMI ahnen.

eratte
2009-10-14, 09:35:47
Ach, diese Dinger landen doch eh zu 90% in ALDI- und Mediamarkt-PCs, da interessiert die Kunden doch nicht was sie leisten, die kaufen den Karton um damit zu Hause im Internet zu surfen, Briefe zu schreiben und Mails zu verschicken.

Die möchten dann aber vielleicht gerne DX11 auf ihren Kisten stehen haben.
Oder sie nehmen halt wie geschrieben eine 4670 weil sie das bessere Paket ist.
Warum sollte also eine Hersteller auf die Karten setzen außer sie hätten Dumpingpreise?

Und die Karten sind auch im Retailmarkt zu haben. Im Grunde kann man sich das hier sparan weil die entsprechenden Leute sich je nach Lager die Lage so drehen wie es ihnen passt.

AnarchX
2009-10-14, 09:41:08
Warum sollte also eine Hersteller auf die Karten setzen außer sie hätten Dumpingpreise?

Wenn man sich die Aufpreise von diversen ATi und NV-Karten bei HP-Komplettsystemen anschaut, kann man wohl annehmen dass NV über den Preis geht.

N0Thing
2009-10-14, 12:41:59
http://www.anandtech.com/video/showdoc.aspx?i=3659


Da macht für mich auch die Begrenzung von PhysX auf reinen Nvidia-Systeme Sinn, wenn Nvidia davon ausgegangen ist, daß sie der HD58x0 Reihe erstmal nichts entgegensetzen können. Mit Windows 7 hätten potentielle PhysX-Nutzer ihre GTX2xx zusammen mit einer HD58x0 weiterverwendet, was unter Vista ja nicht möglich gewesen wäre und wenn eine Fermi GTX380 nicht deutlich schneller wird als eine HD5870 oder gar HD5890 wären die potentiellen PhysX-Nutzer auch nicht zwangsläufig wieder zu Nvidia gewechselt.

LovesuckZ
2009-10-14, 14:36:25
Das ist schlichtweg falsch. Das würde voraussetzen das Nvida die Chips zu weniger verkauft als sie selbst TSMC zahlen müssen, was ich nicht glaube. Ansonsten bedeutet Verlust/Chip nicht, das es sich nicht lohnt den Chip zu verkaufen, denn die Fixkosten bleiben gleich.

Die Fixkosten sind deutlich geringer. Weder produziert nVidia noch fertigen sie Karten. Diese Fixkosten liegen bei TSMC bzw. dem Boardfertiger. nVidia muss also sicherstellen, dass sie zum größtenteils ihre variablen Kosten wieder einspielen. Und da die Nachfrage aufgrund von Konkurrenz zurückgeht, müssen sie die Preise kräftig senken. Und eine GTX260 für 100$ macht einfach keinen Sinn.

Alleine schon das Nvidia ATI den Markt für 3 Monate überläßt kostet Reputation und auch das läßt sich in Geld aka Verlusten ausdrücken.


Sie überlassen AMD nicht den Markt. Das würde bedeuten, dass die Nachfrage nach GTX Karten deutlich ansteigen müsste.

Gast
2009-10-14, 19:42:40
Was man heute alles so durchstarten nennt *duck

Die Karten sehen doch nicht mal gegen eine 4670 Land wenn man den meisten Reviews glauben darf.
Fail².
Du meinst GT220 und GT210. Das sind Low-End Produkte. Es wird auch oberhalb dieser Karten Karten mit 40nm GPU geben.
Stichwort GPU GT215, zusammen mit GDDR5 schneller als eine GTS 250, somit fast auf GTX 260 Niveau.

4670 ist ein Mittelklasse Produkt. Ich finde es immer wieder erfrüschen lächerlich, welche Produkte verglichen werden.

CrazyIvan
2009-10-14, 20:00:36
Die Fixkosten sind deutlich geringer. Weder produziert nVidia noch fertigen sie Karten. Diese Fixkosten liegen bei TSMC bzw. dem Boardfertiger. nVidia muss also sicherstellen, dass sie zum größtenteils ihre variablen Kosten wieder einspielen. Und da die Nachfrage aufgrund von Konkurrenz zurückgeht, müssen sie die Preise kräftig senken. Und eine GTX260 für 100$ macht einfach keinen Sinn.
Wenn Du meinst, dass nVidia größtenteils nur variable Kosten besitzt, dann erinnere Dich doch mal bitte an so ein kleines Department bei denen, dass sich Forschung & Entwicklung nennt. Wenn ich mich nicht irre, dürfte allein dieses Department für ca. 50% aller Kosten nVidias verantwortlich sein. Und dreimal darfst Du raten, was für eine Art von Kosten das sind.

Allgemein ist es in der Halbleiterbranche üblich, dass der Löwenanteil der Kosten durch Fertigungstechnologie und F&E verursacht wird. Und wenn ersteres wegfällt - wie jetzt auch bei AMD - dann erhöht sich logischerweise der relative Anteil letzterer.

Black-Scorpion
2009-10-14, 20:02:24
Lächerlich ist es eher das NV jetzt auf einmal mit DX10.1 Karten kommt.

Gast
2009-10-14, 20:07:13
Lächerlich ist es eher das NV jetzt auf einmal mit DX10.1 Karten kommt.
Umgekehrt würdest du genauso "argumentieren", wenn Nvidia bis D3D11 nur D3D10+ bietet.

mapel110
2009-10-14, 20:07:56
Naja, DX11-low end kommt erst in einem Jahr, bis die Kapazitäten von 40nm ausreichend sind. DX11-low-end mit 55nm war nvidia wohl zu teuer. Und ATi offenbar bislang auch. Ich hab jedenfalls noch nix gehört von diesen Chips.

Marty98
2009-10-14, 20:14:02
4670 ist ein Mittelklasse Produkt. Ich finde es immer wieder erfrüschen lächerlich, welche Produkte verglichen werden.

4670 ist in der gleichen Preisklasse wie GT220, darf deshalb allermal verglichen werden. Mit was sonst soll man es vergleichen?

Gast
2009-10-14, 20:18:45
4670 ist in der gleichen Preisklasse wie GT220, darf deshalb allermal verglichen werden. Mit was sonst soll man es vergleichen?GT220 Preise sind im Anfangsstadium definitiv zu hoch. Das wird sich ändern.
Eine 9600 GT ist schneller und billiger. Auch schneller als eine 4670. Eine 9500 GT ist langsamer und billiger.

Vollkommen logisch das du nicht die langsamere 9500 GT oder die schnellere 9600 GT als Verlgeichsobjekte heranziehst. :rolleyes:
Auch vollkommen logisch das du 40nm mit GT220 gleichsetzt. :rolleyes:

PulsarS
2009-10-14, 20:43:25
Lächerlich ist es eher das NV jetzt auf einmal mit DX10.1 Karten kommt.
Keineswegs.
DX10.1 braucht man für irgendein Win7-Logo.
Für Aero 2 afaik.
Wir lachen vielleicht über solche Grafikkarten, aber für OEMs sind solche Logos sehr viel Wert.

Black-Scorpion
2009-10-14, 20:48:02
Keineswegs.
DX10.1 braucht man für irgendein Win7-Logo.
Für Aero 2 afaik.
Wir lachen vielleicht über solche Grafikkarten, aber für OEMs sind solche Logos sehr viel Wert.
Vor allem weil es DX10.1 für OEMs auch erst seit gestern gibt. ;)
Die Karten kommen nicht nur zu spät, sondern sind schon veraltet bevor sie auf den Markt kommen.

Gast
2009-10-14, 20:54:16
Vor allem weil es DX10.1 für OEMs auch erst seit gestern gibt. ;)
Die Karten kommen nicht nur zu spät, sondern sind schon veraltet bevor sie auf den Markt kommen.
Mit den 40nm GPUs ist Nvidia jetzt besser aufgestellt als mit den 55nm GPUs.

Wenn sie wollten könnten sie auch besser als die Konkurrenz aufgestellt sein. In jedem Fall brauchen sie keine Angst vor AMDs kleinen HD5 haben, damit können sie jetzt konkurrieren, eben bis auf D3D11.

Gut das du das so negativ siehst, am Besten Nvidia würde nichts mehr machen, gell?

Black-Scorpion
2009-10-14, 21:01:13
Besser aufgestellt?
Blickt bei denen überhaupt noch einer durch was es alles gibt?
Als ATI mit SM3 spät dran war wurde ein Fass nach dem anderen aufgemacht.
Hier hat die Konkurrenz schon einen höheren DX Level auf dem Markt und die Karten werden gefeiert.

PulsarS
2009-10-14, 21:04:01
Vor allem weil es DX10.1 für OEMs auch erst seit gestern gibt. ;)
Die Karten kommen nicht nur zu spät, sondern sind schon veraltet bevor sie auf den Markt kommen.
Ist schon klar. ;)
Nur kommt Win 7 erst gerade jetzt auf den Markt.
Nvidia kann zur Zeit im oberen Preissegment nicht mithalten, so wäre es ein Desaster wenn man auch noch bei OEM-Hardware nicht die erforderliche Basis liefern würde.

Ohne Grund bringt man keine DX10.1-Karten, wenn man noch vor kurzem über DX10.1 gelacht hat.
Das NV-Marketing funktioniert sehr gut, aber ATI holt da langsam auf.

Gast
2009-10-14, 21:07:05
Falls du es nicht kapierst: DU machst ein Fass auf, gemeinsam mit so einigen anderen.

Aufgestellt bezieht sich auf Fertigungskosten/Leistung. Momentan hat AMD keine Low-End HD5, die Mittelklasse HD5 ist ebenfalls erst spärlich, in der oberen Mittelklasse muss AMD erstmal HD4s abverkaufen.
Mit GT215 wird G92b nutzlos. -> Enorme Kosteneinsparung.
GT216 und GT218 sparen ebenfalls.

PulsarS
2009-10-14, 21:22:03
Wenn sie wollten könnten sie auch besser als die Konkurrenz aufgestellt sein.
Wenn sie könnten, würden sie es tun. Tun sie aber nicht, weil sie es zur Zeit einfach nicht können.

In jedem Fall brauchen sie keine Angst vor AMDs kleinen HD5 haben, damit können sie jetzt konkurrieren, eben bis auf D3D11.
Gerade bei den "kleinen" Karten (OEM) sind Specs alles.
Ohne D3D11 sieht es schlecht für NV aus, wenn ATI entsprechende Produkte bringt und NV keine hat.
Das dürfte aber jedem klar sein.

LovesuckZ
2009-10-14, 21:41:23
Weder AMD noch nVidia haben D3D11 im Low-End. Also scheint es wohl für beide schlecht auszusehen. :(

PulsarS
2009-10-14, 22:17:39
Weder AMD noch nVidia haben D3D11 im Low-End. Also scheint es wohl für beide schlecht auszusehen. :(
:uconf3:
Ich weiss nicht was du mit diesem Kommentar bezwecken willst, aber du scheinst nicht gelesen zu haben, was ich zu D3D10.1 geschrieben habe...

D3D10.1 braucht man für das Win7-Logo.
Deswegen bringt Nvidia jetzt auch D3D10.1-Karten.

Wenn niemand D3D11 im Low-End bringt, ist es weder für Nvidia noch für ATI von Nachteil.
Für ATI ist es sogar von Vorteil, weil man durch diesen Umstand die 5700er pushen kann, da diese D3D11 bieten.

StefanV
2009-10-14, 22:21:35
Keineswegs.
DX10.1 braucht man für irgendein Win7-Logo.
Für Aero 2 afaik.
Wir lachen vielleicht über solche Grafikkarten, aber für OEMs sind solche Logos sehr viel Wert.
Worauf er hinaus wollte ist, warum man damit erst jetzt kommt und nicht schon beim G92b D3D10.1 eingeführt hat.

Gast
2009-10-14, 22:23:26
Quatsch, nur weil es für den unteren Bereich kein D3D11 gibt heißt es nicht das sich der Markt in Richtung oberer Bereich verschiebt.

Fakt ist einzig und allein, das Nvidia von seinen 40nm GPUs besser als mit seinen 55nm GPUs dasteht. Wer das nicht aktzeptieren will hat einen an der Wafel.

PulsarS
2009-10-14, 22:28:54
Worauf er hinaus wollte ist, warum man damit erst jetzt kommt und nicht schon beim G92b D3D10.1 eingeführt hat.
:confused:
Das habe ich doch schon geschrieben.
Win7.
Oder ich stehe gerade auf dem Schlauch, was du meinst... :redface:

PulsarS
2009-10-14, 22:33:39
Quatsch, nur weil es für den unteren Bereich kein D3D11 gibt heißt es nicht das sich der Markt in Richtung oberer Bereich verschiebt.
Tendenziell kann es schon sein, dass es sich ein wenig verschiebt.

Fakt ist einzig und allein, das Nvidia von seinen 40nm GPUs besser als mit seinen 55nm GPUs dasteht. Wer das nicht aktzeptieren will hat einen an der Wafel.
Weil es auch sooo viele 40nm GPUs von NV zur Zeit gibt... :freak:

Gast
2009-10-14, 22:35:21
Tendenziell kann es schon sein, dass es sich ein wenig verschiebt.

Weil es auch sooo viele 40nm GPUs von NV zur Zeit gibt... :freak:
Auf so einen Schwachsinn kann kein IHV bauen.
5% hin oder her, der Markt bleibt im großen und ganzen in seiner vollen Größe, die nicht klein ist, erhalten.


Weil es auch sooo viele 40nm GPUs von NV zur Zeit gibt... :freak:Les nochmal um was es geht.

PulsarS
2009-10-14, 22:41:47
Auf so einen Schwachsinn kann kein IHV bauen.
5% hin oder her, der Markt bleibt im großen und ganzen in seiner vollen Größe, die nicht klein ist, erhalten.
Es ist auch wahrscheinlich keine Absicht, sondern eher ein "Nebenprodukt".

Les nochmal um was es geht.
Ja, klär mich mal auf.
Wo soll NV durch die kleinen D3D10.1 besser dastehen?
Kosten?
Na klar. Aber sonst im Vergleich zu ATI? Den Kostenvorteil durch 40nm hat ATI ja auch.

Gast
2009-10-14, 22:54:31
Es ist auch wahrscheinlich keine Absicht, sondern eher ein "Nebenprodukt".



Ja, klär mich mal auf.
Wo soll NV durch die kleinen D3D10.1 besser dastehen?
Kosten?
Na klar. Aber sonst im Vergleich zu ATI? Den Kostenvorteil durch 40nm hat ATI ja auch.
Vergiss doch mal AMD, dazu kommen wir, wenn wir mit Nvidia fertig sind.
Die Karten werden in allen Punkten attraktiver und es werden Kosten gespart. Das ist für Nvidia und die Hersteller positiv.

Auf D3D10.1 bin ich gar nicht explezit eingegangen, das ist wie gesagt nur für den Aufkleber wichtig. Unsinn das es für Nvidia ein Nachteil sein soll, das sie jetzt diesen Aufkleber bekommen.

Jetzt zu AMD. Momentan ist Nvidia mit 55nm GPUs gegen AMDs 55nm GPUs aufgestellt. Das funktioniert.
Jetzt rollen Nvidias kleine 40nm GPUs an, AMDs kleine 40nm GPUs kommen nicht ganz so bald. Ausnahme bildet RV840, quasi ersteinmal Gegenspieler zu GT215, der wiederrum G92b ablöst.

Zurück zu den Aussagen. Angeblich bringt es für Nvidia nichts mehr, jetzt 40nm GPUs zu bringen. Da kann man nur sagen lächerlich.

Gast
2009-10-14, 22:56:44
Es ist auch wahrscheinlich keine Absicht, sondern eher ein "Nebenprodukt".
Wie gesagt, das ist ohne Belang.
Früher gabs auch immer zuerst High-End.
Auf so etwas kann und dürfen die IHVs nicht setzten. Ach es gibt bei AMDs High-End D3D11, lassen wir die Mittelklasse sausen, die kaufen schon ruhig das teurere. Besonders absurd wenn die bei Nvidia das selbe denken sollen.

PulsarS
2009-10-14, 23:11:49
Vergiss doch mal AMD, dazu kommen wir, wenn wir mit Nvidia fertig sind.
Die Karten werden in allen Punkten attraktiver und es werden Kosten gespart. Das ist für Nvidia und die Hersteller positiv.
Klar.
Nur sprechen wir hier über GPUs (Karten), die sich kaum jemand in diesem Forum kaufen würde.


Auf D3D10.1 bin ich gar nicht explezit eingegangen, das ist wie gesagt nur für den Aufkleber wichtig. Unsinn das es für Nvidia ein Nachteil sein soll, das sie jetzt diesen Aufkleber bekommen.
Das behaupte ich ja auch nicht.
Gerade wegen dem Win7-Logo hat Nvidia auf einmal D3D10.1 aus dem Ärmel gezaubert, wo sie doch noch früher behauptet haben, dass D3D10.1 unnötig ist.
Merkst du was?

Jetzt zu AMD. Momentan ist Nvidia mit 55nm GPUs gegen AMDs 55nm GPUs aufgestellt. Das funktioniert.
Meinst du die 55nm GPUs bei ATI, die auslaufen?
Nvidia bietet zur Zeit fast ausschlieslich 55nm GPUs an.
Nur bei Low-End setzt man zur Zeit auf 40nm. Erbärmlich und nicht gerade wirtschaftlich.

Zurück zu den Aussagen. Angeblich bringt es für Nvidia nichts mehr, jetzt 40nm GPUs zu bringen. Da kann man nur sagen lächerlich.
Da hast du was falsch verstanden.
Black-Scorpion meinte, dass es für D3D10.1 GPUs seitens Nvidia viel zu spät ist, von 40nm war nie die Rede.
Und ich habe halt erklärt, warum es für D3D10.1 GPUs seitens Nvidia nicht zu spät ist.

LovesuckZ
2009-10-14, 23:15:09
:uconf3:
Ich weiss nicht was du mit diesem Kommentar bezwecken willst, aber du scheinst nicht gelesen zu haben, was ich zu D3D10.1 geschrieben habe...

D3D10.1 braucht man für das Win7-Logo.
Deswegen bringt Nvidia jetzt auch D3D10.1-Karten.

Wenn niemand D3D11 im Low-End bringt, ist es weder für Nvidia noch für ATI von Nachteil.
Für ATI ist es sogar von Vorteil, weil man durch diesen Umstand die 5700er pushen kann, da diese D3D11 bieten.

Klar, die ganzen OEM kaufen sich nun heute massenweise die D3D11 Karten von AMD und plazieren sie in Rechner zwischen 300-600€ - oh und in Notebooks.
nVidia hat im Low-End wieder eine GPU unter 120mm^2. Und da AMD erst im nächsten Jahr mit D3D11 im Low-End kommt, ist das der Bereich, wo nVidia im deutlichen Vorteil ist.

S940
2009-10-14, 23:16:03
Weil es auch sooo viele 40nm GPUs von NV zur Zeit gibt... :freak:Naja, böse Zungen mögen behaupten, dass es von nV z.Zt. mehr 40nm Chips als 55nm gäbe :freak:

Black-Scorpion
2009-10-14, 23:24:33
Klar, die ganzen OEM kaufen sich nun heute massenweise die D3D11 Karten von AMD und plazieren sie in Rechner zwischen 300-600€ - oh und in Notebooks.
nVidia hat im Low-End wieder eine GPU unter 120mm^2. Und da AMD erst im nächsten Jahr mit D3D11 im Low-End kommt, ist das der Berech, wo nVidia im deutlichen Vorteil ist.
Denkst du auch nach bevor du schreibst?
Es müssen bei den OEMs keine DX11 Karten von ATI verkauft werden in dem Bereich.
Da wo NV gerade hin will gibt es schon eine ganze Weile DX10.1 Karten von ATI.
Und NV ist auf einmal im Vorteil weil die Lowend DX11 Karten von ATI erst nächstes Jahr erscheinen.

Also nochmal.
Es ist ein Vorteil viel zu spät mit DX10.1 Karten in den OEM Markt zu kommen wo ATI schon lange vertreten ist.
Und das aus dem Grund weil die DX11 Karten von ATI erst nächstes Jahr erscheinen.

Ich glaube ich kann mir deinen Beitrag noch hundertmal selber durchkauen und werde den Müll nicht begreifen.

Gast
2009-10-14, 23:24:45
Klar.
Nur sprechen wir hier über GPUs (Karten), die sich kaum jemand in diesem Forum kaufen würde.
Dieses Forum hat viele Benutzer.
Im Grunde ist das auch völlig gleich.

Das behaupte ich ja auch nicht.
Gerade wegen dem Win7-Logo hat Nvidia auf einmal D3D10.1 aus dem Ärmel gezaubert, wo sie doch noch früher behauptet haben, dass D3D10.1 unnötig ist.
Merkst du was?Das plötzlich ist jetzt ein halbes Jahr her.
Damals gabs den Paperlaunch der mobilen Karten. Jetzt sind die selben GPUs langsam im Desktopbereich angekommen.

Meinst du die 55nm GPUs bei ATI, die auslaufen?
Nvidia bietet zur Zeit fast ausschlieslich 55nm GPUs an.
Nur bei Low-End setzt man zur Zeit auf 40nm. Erbärmlich und nicht gerade wirtschaftlich.
AMDs Portfolio setzt sich zum Großteil aus 55nm GPUs zusammen.
40nm GPUs sind die Ausnahme.
Bei Nvidia siehts genauso aus.

Es gibt dennoch einen Unterschied. AMD hat, abgesehen von der 4770 mit 40nm ersteinmal High-End und danach Mittelklasse im Visier.
Nvidia hat Low-End und Mittelklasse im Visier.
Man merkt schon, in der Mitte treffen sich beide, bei der Mittelklasse.

Bis AMD vollständig auf 40nm fährt wird es noch dauern, so eine Umstellung geht nie rasend schnell. Bis dahin ist Nvidia im Low-End Bereich alleine mit 40nm. Bis Nvidia 40nm High-End liefert ist AMD alleine im 40nm High-End.
Das heißt nicht, das der jeweils andere in dem Segment völlig außen vor ist.


Da hast du was falsch verstanden.
Black-Scorpion meinte, dass es für D3D10.1 GPUs seitens Nvidia viel zu spät ist, von 40nm war nie die Rede.
Und ich habe halt erklärt, warum es für D3D10.1 GPUs seitens Nvidia nicht zu spät ist. Es war auch eher eratte, der 40nm mit GT220 gleichgesetzt hat, während er AMDs Sortiment auf 4670 gekürzt hat.

Botcruscher
2009-10-14, 23:25:47
Klar, die ganzen OEM kaufen sich nun heute massenweise die D3D11 Karten von AMD und plazieren sie in Rechner zwischen 300-600€

Wenn die 57X0 es pünktlich zum Weihnachtsgeschäft in genügend großen Stückzahlen gibt - ja.

Undertaker
2009-10-14, 23:27:20
Denkst du auch nach bevor du schreibst?
Es müssen bei den OEMs keine DX11 Karten von ATI verkauft werden in dem Bereich.
Da wo NV gerade hin will gibt es schon eine ganze Weile DX10.1 Karten von ATI.
Und NV ist auf einmal im Vorteil weil die Lowend DX11 Karten von ATI erst nächstes Jahr erscheinen.

Also nochmal.
Es ist ein Vorteil viel zu spät mit DX10.1 Karten in den OEM Markt zu kommen wo ATI schon lange vertreten ist.
Und das aus dem Grund weil die DX11 Karten von ATI erst nächstes Jahr erscheinen.

Ich glaube ich kann mir deinen Beitrag noch hundertmal selber durchkauen und werde den Müll nicht begreifen.

Ich denke er meint, das Nvidia zumindest im Low-End Bereich einen kleinen Kostenvorteil hat, da sie dort die ersten mit 40nm Produkten sind.

Gast
2009-10-14, 23:27:55
Wenn die 57X0 es pünktlich zum Weihnachtsgeschäft in genügend großen Stückzahlen gibt - ja.
Nein, den diese Karten sind teurer als die abverkauften Reste und kosten weit mehr als 50€.

Gast
2009-10-14, 23:29:58
Ich denke er meint, das Nvidia zumindest im Low-End Bereich einen kleinen Kostenvorteil hat, da sie dort die ersten mit 40nm Produkten sind.
So einfach kann man es auch ausdrücken.
Ich erwarte gar nicht mehr, das es die üblichen Verdächtigen akzeptieren. Lediglich ein verstummen derselbiegen wäre angebracht, wenn sie unfähig sind diesen Umstand zu negieren.

Botcruscher
2009-10-14, 23:31:55
Nein, den diese Karten sind teurer als die abverkauften Reste und kosten weit mehr als 50€.

Kommt darauf an was man anpeilt. Und wenn er schon die 500€ Klasse anspricht. Das ist so der typische Aldi/MM PC mit W7 und DX11 Checkliste.

Aus Sicht von AMD dürfte ein DX11 "Onboardchip" auch wichtig sein.

PS: Und die Verfügbarkeit sieht bei Geizhals recht gut aus.

Gast
2009-10-14, 23:34:52
Mein ich doch, das komplette Preisspektrum muss mit D3D11 versorgt werden.

Black-Scorpion
2009-10-14, 23:35:00
Ich denke er meint, das Nvidia zumindest im Low-End Bereich einen kleinen Kostenvorteil hat, da sie dort die ersten mit 40nm Produkten sind.
Und genau das ist sein Problem.
Er schreibt Müll und meint wahrscheinlich was ganz anderes.
Dann kommt der nächste Beitrag wo er sich dann alles zurechtlegt wie er es braucht.
Falls er es wirklich so meint, kann es ja nicht zu viel sein genau das zu schreiben.

Sie haben vielleicht den Kostenvorteil und was noch?
Es ist ja nicht gerade so das alle OEMs die ganze Zeit gewartet haben bis NV endlich mal mit DX10.1 Karten antanzt.

LovesuckZ
2009-10-14, 23:40:04
Denkst du auch nach bevor du schreibst?
Es müssen bei den OEMs keine DX11 Karten von ATI verkauft werden in dem Bereich.
Da wo NV gerade hin will gibt es schon eine ganze Weile DX10.1 Karten von ATI.
Und NV ist auf einmal im Vorteil weil die Lowend DX11 Karten von ATI erst nächstes Jahr erscheinen.

Also nochmal.
Es ist ein Vorteil viel zu spät mit DX10.1 Karten in den OEM Markt zu kommen wo ATI schon lange vertreten ist.
Und das aus dem Grund weil die DX11 Karten von ATI erst nächstes Jahr erscheinen.

Ich glaube ich kann mir deinen Beitrag noch hundertmal selber durchkauen und werde den Müll nicht begreifen.

Schade, dass du keinen Plan hast. Aber danke für deine vollkommen falsche Meinung. Und antworte einfach nicht mehr auf meine Posting - dein rumgeheule in Form von lächerlichen Trollposting kannst du dir vor deinem geistigen Auge ablaufen lassen.

Kommt darauf an was man anpeilt. Und wenn er schon die 500€ Klasse anspricht. Das ist so der typische Aldi/MM PC mit W7 und DX11 Checkliste.


Der neue "typische Aldi/MM PC mit Win7" hat GT220 Karten. Irgendwie muss hier also ein Fehler vorliegen...

Black-Scorpion
2009-10-14, 23:42:50
Ausgerechnet du sprichst von Trollpostings?
Dann denke vor dem schreiben und man weiß auch was du meinst.
Oder denkst du alle warten nur auf deine tollen Beiträge und versuchen zu erraten was du denkst?

PulsarS
2009-10-14, 23:45:54
nVidia hat im Low-End wieder eine GPU unter 120mm^2. Und da AMD erst im nächsten Jahr mit D3D11 im Low-End kommt, ist das der Bereich, wo nVidia im deutlichen Vorteil ist.
Glaubst du wohl selbst nicht.
Der 55nm Prozess ist viel günstiger als 40nm.
Das dürfte sich aufheben.

LovesuckZ
2009-10-14, 23:47:45
Ausgerechnet du sprichst von Trollpostings?
Dann denke vor dem schreiben und man weiß auch was du meinst.
Oder denkst du alle warten nur auf deine tollen Beiträge und versuchen zu erraten was du denkst?

Denkst du, e fällt nicht auf, dass du nur trollst, wenn es gegen AMD geht? Merkst du nicht, dass du hier weder konstruktiv mitmachst, noch irgendwie etwas beiträgst? Du trollst dich hier rum und wirst von Anddill gedeckt. Also lass mich in Zukunft mit deinem geistigen Müll in frieden.

Glaubst du wohl selbst nicht.
Der 55nm Prozess ist viel günstiger als 40nm.
Das dürfte sich aufheben.

Selbst mit Aufpreis für 40nm ist man billiger, da man deutlich kleiner ist.

Botcruscher
2009-10-14, 23:49:50
Der neue "typische Aldi/MM PC mit Win7" hat GT220 Karten. Irgendwie muss hier also ein Fehler vorliegen...

... und eine Homo-Edition von Vista. Und was sagt uns das? Restverwertung da W7 noch nicht draußen (war) und die 5750 auch erst vorgestellt wurde.

Ich rede von Weihnachten und du kommst mit dem Müll von Gestern.

PulsarS
2009-10-14, 23:51:17
Das plötzlich ist jetzt ein halbes Jahr her.
Damals gabs den Paperlaunch der mobilen Karten. Jetzt sind die selben GPUs langsam im Desktopbereich angekommen.
Aus der Not geboren.
Anscheinend wollte M$ Nvidia mit dem D3D10.1 beim Aero 2 einen auswischen, warum auch immer...


Man merkt schon, in der Mitte treffen sich beide, bei der Mittelklasse.
Konkret?

Bis AMD vollständig auf 40nm fährt wird es noch dauern, so eine Umstellung geht nie rasend schnell. Bis dahin ist Nvidia im Low-End Bereich alleine mit 40nm. Bis Nvidia 40nm High-End liefert ist AMD alleine im 40nm High-End.
Das heißt nicht, das der jeweils andere in dem Segment völlig außen vor ist.
Bei geringen Diegrößen macht es wenig Unterschied ob 55nm odr 40nm.
Bei High-End ist es deutlich wichtiger 40nm zu fahren.

edit:
So einfach kann man es auch ausdrücken.
Ich erwarte gar nicht mehr, das es die üblichen Verdächtigen akzeptieren. Lediglich ein verstummen derselbiegen wäre angebracht, wenn sie unfähig sind diesen Umstand zu negieren.
Was gibt es daran nicht zu verstehen, dass der 40nm Prozess deutlich teurer ist?
Das hebt sich auf.

LovesuckZ
2009-10-14, 23:51:34
... und eine Homo-Edition von Vista. Und was sagt uns das? Restverwertung da W7 noch nicht draußen (war) und die 5750 auch erst vorgestellt wurde.

Ich rede von Weihnachten und du kommst mit dem Müll von Gestern.

Die Rechner von heute sind die Rechner von Weihnachten. OEM's brauchen eine Anlaufzeit zum Füllen der Lager, zum Konfigurieren, zum Testen. In ein bisschen mehr als 2 Monaten ist Weihnachten, die werden nicht erst jetzt anfangen ihre Rechnerbestellungen abzuschicken.

Wenn Du meinst, dass nVidia größtenteils nur variable Kosten besitzt, dann erinnere Dich doch mal bitte an so ein kleines Department bei denen, dass sich Forschung & Entwicklung nennt. Wenn ich mich nicht irre, dürfte allein dieses Department für ca. 50% aller Kosten nVidias verantwortlich sein. Und dreimal darfst Du raten, was für eine Art von Kosten das sind.


F&E wird nicht 100% vom GT200 getragen. Und es macht mit 200 Millionen $ im Quartal ca. 33% der Kosten aus. Nur ohne Deckung der variablen Kosten, können auch keine Fixkosten annährend bezahlt werden. Oder denkst du, dass nVidia statt 35$ liebers nur 30$ zur Deckung nehmen sollte, weil man pro verkauften Die 5$ Verlust macht?

PulsarS
2009-10-14, 23:58:52
Schade, dass du keinen Plan hast. Aber danke für deine vollkommen falsche Meinung. Und antworte einfach nicht mehr auf meine Posting - dein rumgeheule in Form von lächerlichen Trollposting kannst du dir vor deinem geistigen Auge ablaufen lassen.

Wer im Glashaus sitzt...


Der neue "typische Aldi/MM PC mit Win7" hat GT220 Karten. Irgendwie muss hier also ein Fehler vorliegen...
Wie meinen?

PS kannst du auch ein wenig deutlicher zur Sprache bringen, was du meinst?
Das artet bei dir ja teilweise zu einem Ratespiel aus, was du meinst.
Ist nicht gerade förderlich für eine gepflegte Diskussion. :)

LovesuckZ
2009-10-15, 00:00:31
Wie meinen?

PS kannst du auch ein wenig deutlicher zur Sprache bringen, was du meinst?
Das artet bei dir ja teilweise zu einem Ratespiel aus, was du meinst.
Ist nicht gerade förderlich für eine gepflegte Diskussion. :)

Man sollte bitte alles lesen. Ansonsten brauchst du mich auch nicht zitieren.
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7597717#post7597717

PulsarS
2009-10-15, 00:15:31
Man sollte bitte alles lesen. Ansonsten brauchst du mich auch nicht zitieren.
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7597717#post7597717
Ok, jetzt verstehe ich ein wenig den Zusammenhang.
Ändert aber nichts daran, dass du teilweise sehr rätselhaft schreibst.
Du solltest an deiner Ausdrucksweise arbeiten, damit deine Aussagen klar und unmissverständlich sind und dass man nicht rätseln muss. :)

Dann kommen auch keine "dummen" Anfragen von mir, versprochen. :)

LovesuckZ
2009-10-15, 00:18:47
Ok, jetzt verstehe ich ein wenig den Zusammenhang.
Ändert aber nichts daran, dass du teilweise sehr rätselhaft schreibst.
Du solltest an deiner Ausdrucksweise arbeiten, damit deine Aussagen klar und unmissverständlich sind und dass man nicht rätseln muss. :)

Dann kommen auch keine "dummen" Anfragen von mir, versprochen. :)

Es ist verständlich, weil es in einem Kontext steht. Es nervt, dass Leute mich zitieren, aber nicht verstehen wollen, wie der Kontext aussieht.

PulsarS
2009-10-15, 00:41:15
Es ist verständlich, weil es in einem Kontext steht. Es nervt, dass Leute mich zitieren, aber nicht verstehen wollen, wie der Kontext aussieht.
Du siehst es so, ok.
Ich scheine aber nicht der Einzige zu sein, der Probleme hat deine Postings richtig zu interpretieren.
Kann wohl nicht nur an mir liegen.... ;)

LovesuckZ
2009-10-15, 00:51:35
Der Kontext ist klar und ersichtlich. Nur weil du nicht alles liest (lesen willst), bin ich nicht der schuldige für dein Verständnisproblem.

Klar, die ganzen OEM kaufen sich nun heute massenweise die D3D11 Karten von AMD und plazieren sie in Rechner zwischen 300-600€ - oh und in Notebooks.


Kommt darauf an was man anpeilt. Und wenn er schon die 500€ Klasse anspricht. Das ist so der typische Aldi/MM PC mit W7 und DX11 Checkliste.



Der neue "typische Aldi/MM PC mit Win7" hat GT220 Karten. Irgendwie muss hier also ein Fehler vorliegen...

... und eine Homo-Edition von Vista. Und was sagt uns das? Restverwertung da W7 noch nicht draußen (war) und die 5750 auch erst vorgestellt wurde.

Ich rede von Weihnachten und du kommst mit dem Müll von Gestern.

Die Rechner von heute sind die Rechner von Weihnachten. OEM's brauchen eine Anlaufzeit zum Füllen der Lager, zum Konfigurieren, zum Testen. In ein bisschen mehr als 2 Monaten ist Weihnachten, die werden nicht erst jetzt anfangen ihre Rechnerbestellungen abzuschicken.

reunion
2009-10-15, 07:46:26
Selbst mit Aufpreis für 40nm ist man billiger, da man deutlich kleiner ist.

Tja, wenn das wenigstens wahr wäre. Aber ein RV730 hat auch nur 146mm² in 55nm und ist damit bei der Leistung/mm² noch immer gut dabei, ja selbst bei der Leistung/Watt sehr konkurrenzfähig. Beim RV710 mit 72mm² detto. NV hat bei 40nm offensichtlich einiges verbockt.

V2.0
2009-10-15, 07:49:51
Und dafür zahlen sie mit Fermi den Preis.

Gast
2009-10-15, 09:00:44
Tja, wenn das wenigstens wahr wäre. Aber ein RV730 hat auch nur 146mm² in 55nm und ist damit bei der Leistung/mm² noch immer gut dabei, ja selbst bei der Leistung/Watt sehr konkurrenzfähig. Beim RV710 mit 72mm² detto. NV hat bei 40nm offensichtlich einiges verbockt.
Du bist lustig.
Ansatt 55nm Nvidia GPUs mit 40nm Nvidia GPUs zu verlgeichen nimmst du AMD her.

Und schmeiß keine rohen Zahlen in den Raum, das kann ich auch.
GT218 ist bei 57mm², GT216 bei 100mm². GT215 wird wohl deutlich unter den 276mm² des G92b liegen.
Es ist wichtig so zu vergleichen, den wie wir wissen sind Nvidias GPUs nicht erst seit 40nm zu groß. Es ist eben so, das AMD dichter packt. Wer weiß was es AMD wiederrum kostet.
Diese reinen Zahlen bringen überhaupt nichts, außer Flames.

reunion
2009-10-15, 09:12:28
Du bist lustig.
Ansatt 55nm Nvidia GPUs mit 40nm Nvidia GPUs zu verlgeichen nimmst du AMD her.

Ich bin lustig? Nicht ich habe damit angefangen, ich bin nur auf den zitierten Beitrag eingegangen.

Gast
2009-10-15, 09:49:06
Ich bin lustig? Nicht ich habe damit angefangen, ich bin nur auf den zitierten Beitrag eingegangen.
Du hast pauschal Zahlen in den Raum geworfen um eine handfeste Aussage zu entkräften.
Etwas genauer darf es schon sein.

Wenn du dich unschuldig fühlst, so gilt der Rest des Posts trotzdem. Das immer Äpfel mit Birnen verglichen werden.
Vor einigen Seiten wars noch 4670 vs GT220 statt 9500/9600GT vs GT220.
Kann doch nicht wahr sein, das Diskussionen immer mit so viel Schrott geführt werden.

PulsarS
2009-10-15, 10:06:01
Du bist lustig.
Ansatt 55nm Nvidia GPUs mit 40nm Nvidia GPUs zu verlgeichen nimmst du AMD her.
Was wohl naheliegend ist...
Wenn wir schon über Kosten sprechen, dann müssen wir doch auch mit einbeziehen wie es beim Konkurrenten aussieht.

Es ist wichtig so zu vergleichen,
Nicht wirklich.

den wie wir wissen sind Nvidias GPUs nicht erst seit 40nm zu groß.
Und?
Darf man deswegen die Die-Grössen und die daraus entstehenden Kosten bei Nvidia und ATI nicht vergleichen?

Es ist eben so, das AMD dichter packt. Wer weiß was es AMD wiederrum kostet.
Woll soll es denn kosten dichter zu packen?
Entwicklungskosten (beim Prozess)?

Diese reinen Zahlen bringen überhaupt nichts, außer Flames.
Für dich vielleicht nicht, für Analysten sind Zahlen eigentlich das Wichtigste.

Du hast pauschal Zahlen in den Raum geworfen um eine handfeste Aussage zu entkräften.
Welche handfeste Aussage?
Dass durch den 40nm Prozess Nvidia billiger "produzieren" kann?
Oh Wunder...:rolleyes:

Ailuros
2009-10-15, 10:09:36
Ich will mich in die Diskussion nicht weiter einmischen, aber ich moechte trotz allem alle Beteiligten bitten sich von direkten oder indirekten persoenlichen Angriffen abzuhalten.

Gast
2009-10-15, 10:12:29
Was wohl naheliegend ist...
Wenn wir schon über Kosten sprechen, dann müssen wir doch auch mit einbeziehen wie es beim Konkurrenten aussieht.

Natürlich. Aber zuvor möchte man wissen wie viel der Shrink jetzt eigentlich gebracht hat.
Schön das das versucht wird zu vertuschen.

Nicht wirklich.
Oh doch.


Und?
Darf man deswegen die Die-Grössen und die daraus entstehenden Kosten bei Nvidia und ATI nicht vergleichen?
Man darf, aber bitte zuerst Nvidia vs Nvidia, auch wenns dir nicht passt.
Dann AMD vs Nvidia, aber bitte genau, nicht einfach Zahlen ohne Bezug.


Woll soll es denn kosten dichter zu packen?
Entwicklungskosten (beim Prozess)?
Kosten sind keine Konstante die rein an der Größe hängt.

Für dich vielleicht nicht, für Analysten sind Zahlen eigentlich das Wichtigste.
Ich sehe hier vor allem Flamer, keine Analysten.
Für Analysten sind die reinen Bezugslosen Zahlen wertlos.

Welche handfeste Aussage?
Dass durch den 40nm Prozess Nvidia billiger "produzieren" kann?
Oh Wunder...

Das war eine Aussage. Wenn jemand meint sie stimmt nicht, dann erwarte ich Argumente, besonders wenn derjenige behauptet Nvidias 40nm seien für den Arsch.

reunion
2009-10-15, 10:21:38
Du hast pauschal Zahlen in den Raum geworfen um eine handfeste Aussage zu entkräften.
Etwas genauer darf es schon sein.

Wenn du dich unschuldig fühlst, so gilt der Rest des Posts trotzdem. Das immer Äpfel mit Birnen verglichen werden.
Vor einigen Seiten wars noch 4670 vs GT220 statt 9500/9600GT vs GT220.
Kann doch nicht wahr sein, das Diskussionen immer mit so viel Schrott geführt werden.

Ich weiß noch immer nicht was du von mir jetzt willst. Ich zitieren etwas das schon über mehrere Seiten diskutiert wird um es zu korrigieren und wo es ganz offensichtlich um den Vergleich AMD vs. NV ging und jetzt machst du mich deswegen an? Beschere doch doch bei LovesuckZ für den Vergleich, ich habe damit nicht angefangen und habe auch keine Lust mich jetzt mit dir darüber zu streiten. Der Vergleich mit der Konkurrenz ist jedenfalls vollkommen llegitim. Das NV durch 40nm Vorteile ggü. 55nm erzielt was die Die-Größe betrifft ist das logischte der Welt. Was du daraus groß vergleichen willst bleibt wohl dein Geheimnis.

Gast
2009-10-15, 10:25:13
Ich weiß noch immer nicht was du von mir jetzt willst. Ich zitieren etwas um es zu korrigieren und wo es ganz offensichtlich um den Vergleich AMD vs. NV ging und jetzt machst du mich deswegen an? Beschere doch doch bei LovesuckZ für den Vergleich, ich habe damit nicht angefangen und habe auch keine Lust mich jetzt mit dir darüber zu streiten.
Ich habe mich bereits entschuldigt, und dennoch die Worte im Raum gelasen. Scheint keinen zu kümmern:

Wenn du dich unschuldig fühlst, so gilt der Rest des Posts trotzdem.

Der Vergleich mit der Konkurrenz ist jedenfalls vollkommen llegitim.Natürlich.
Ich hätte eben nur gerne handfeste Vergleiche und kein wischiwaschi.

Das NV durch 40nm Vorteile ggü. 55nm erzielt was die Die-Größe betrifft ist das logischte der Welt. Was du daraus groß analysieren willst bleibt wohl dein Geheimnis.Deshalb wundert es mich, das es so in den Dreck gezogen wird.

Ailuros
2009-10-15, 10:34:31
Ich sehe hier vor allem Flamer, keine Analysten.
Für Analysten sind die reinen Bezugslosen Zahlen wertlos.

Meine vorige Warnung galt fuer alle und natuerlich auch Dich. Das fettgedruckte und jeglicher unrelevante Seitensprung ist ueberfluessig und stoert. Es wird wohl nicht allzu schwer sein sich ein bisschen ziviliesierter auszudruecken oder?

PulsarS
2009-10-15, 10:51:51
Natürlich. Aber zuvor möchte man wissen wie viel der Shrink jetzt eigentlich gebracht hat.
Schön das das versucht wird zu vertuschen.

Man darf, aber bitte zuerst Nvidia vs Nvidia, auch wenns dir nicht passt.
Dann AMD vs Nvidia, aber bitte genau, nicht einfach Zahlen ohne Bezug.
Niemand versucht hier etwas zu vertuschen und es ist das Normalste auf der Welt, dass ein IHV durch einen Shrink günstiger produzieren kann.
Ich wüsste nicht, was es da zu diskutieren gibt.. :confused:

Der Vegleich zwischen den IHVs ist da schon interessanter und diesen hat LS eingeleitet.

Selbst mit Aufpreis für 40nm ist man billiger, da man deutlich kleiner ist.
Tja, wenn das wenigstens wahr wäre. Aber ein RV730 hat auch nur 146mm² in 55nm und ist damit bei der Leistung/mm² noch immer gut dabei, ja selbst bei der Leistung/Watt sehr konkurrenzfähig. Beim RV710 mit 72mm² detto. NV hat bei 40nm offensichtlich einiges verbockt.
Ich habe noch angefügt, dass der 40nm Prozess teurer, also NV nicht sooo viel günstiger im Low-End produzieren kann.

Ich denke damit sollte das Thema aber nun durchgekaut sein. :)

svenw
2009-10-15, 11:53:52
Ich schätze auch, das der 40er Prozeß noch nicht die Ausbeute hat wie der 55er. 40er Prozeß ist sicher die richtige Richtung, aber IMHO sind die Chips die NV gerade liefert nicht gerade ein Aushängeschild für den Prozeß, denn in dem Bereich dieser Karten macht Stromsparen eh nicht sonderlich viel Sinn und vom Takt her....

aylano
2009-10-15, 12:15:18
40er Prozeß ist sicher die richtige Richtung, aber IMHO sind die Chips die NV gerade liefert nicht gerade ein Aushängeschild für den Prozeß, denn in dem Bereich dieser Karten macht Stromsparen eh nicht sonderlich viel Sinn und vom Takt her....
Bei Notebooks macht das Stromsparen schon ein Sinn.

"Langfristig" (=bis ATI-DX11 & Femi-Low-End & Mainstream) sind die Nvidia-40nm-GPUs schon enttäuschend. Hätte da mehr erwartet.
(Generelle war der GT280 sehr effizienz ausgelegt (=sehr niedrige Volt) und dadurch scheinen die Low-End & Mainstream nicht mehr so toll, da sie im Vergleich zur Konkurrenz keinen so großen, wenn überhaupt, Volt-Unterschied haben.)

Aber kurzfristig steht Nvidia so ca. 1 Quartal besser bzw. ein wenig besser im Low-End & mainstream da.
Nicht umsonst dürfte nvidia-Neue-Notebook-GPUs bei den neuen Nehalem-45nm-Quad-Notebooks sehr gut abgeschnitten haben, auch wenn dieser Markt recht klein ist.

Generell kann Nvidia praktisch nur im 4Q gut davon profitieren, da TSMC im 4Q den 40nm-Wafer-Output von 10.000 auf 40.000 erhöhte und im 1Q kommen schon ATIs-DX11-GPUs

Henroldus
2009-10-15, 13:10:59
Behauptung hier gefunden:
End of Life: GTX 260, 275 & 285 (http://hartware.de/news_47798.html)
OriginalQuelle:
ANANDTECH (http://www.anandtech.com/video/showdoc.aspx?i=3659)
http://images.anandtech.com/reviews/video/NVIDIA/Q409Update/cypressvsgt200b.png
334mm^2 @40nm vs 470mm^2 @55nm

allerdings sind die 40nm pro Fläche sicher (noch) teurer wegen schlechterer Yields und teurerem Prozess(lässt sich TSMC sicher bezahlen)

Schlammsau
2009-10-15, 13:17:18
hier gefunden:
End of Life: GTX 260, 275 & 285 (http://hartware.de/news_47798.html)
OriginalQuelle:
ANANDTECH (http://www.anandtech.com/video/showdoc.aspx?i=3659)
http://images.anandtech.com/reviews/video/NVIDIA/Q409Update/cypressvsgt200b.png

Der Unterschied ist aber nicht gerade gross. ;)

Mal im ernst, wie falsch lag Charlie jetzt eigentlich, dass Gerücht hat sich jetzt ja wohl bewahrheitet!?

Wenn Cypress in 40nm schon so gross ist, dann glaube ich kaum das Fermi unter 550mm² kommen kann.

Gast
2009-10-15, 13:25:58
Bin mal gespannt wer sich alles bei Charlie entschuldigt.

Denn mal die Häme aussen vor - in den Fakten hatte er, objektiv betrachtet, 100% recht.

Henroldus
2009-10-15, 13:26:51
Der Unterschied ist aber nicht gerade gross. ;)

Mal im ernst, wie falsch lag Charlie jetzt eigentlich, dass Gerücht hat sich jetzt ja wohl bewahrheitet!?

Wenn Cypress in 40nm schon so gross ist, dann glaube ich kaum das Fermi unter 550mm² kommen kann.
zumal Fermi um die 3Mrd Transen hat und somit etwa 50% mehr Fläche belegt als Cypress

Gast
2009-10-15, 13:27:51
Mal im ernst, wie falsch lag Charlie jetzt eigentlich, dass Gerücht hat sich jetzt ja wohl bewahrheitet!?
Nö, die Lüge des Charlie ist immer noch eine Lüge.
Bisher sind keinerlei Anzeichen erkennbar, das sich Nvidia aus dem High-End Grafikkartenmarkt zurück zieht.

Wenn Cypress in 40nm schon so gross ist, dann glaube ich kaum das Fermi unter 550mm² kommen kann.
Ist doch Quatsch.
Cypress hat deutlich mehr Transistoren als GT200b und mehr als doppelt so viele wie RV790.
Kein Wunder das er groß ist, 334mm² sind eben nicht mehr wenig. Jaja, AMD macht ja keine großen Chips mehr.
AMD ist jetzt bei der Größe des G92 angelangt, mit dem Unterschied das die 40nm Produktion teurer ist.

Es gibt keinen Grund zur Annahme, das Fermi nicht bei 500mm² landen wird.


http://images.anandtech.com/reviews/video/NVIDIA/Q409Update/cypressvsgt200b.png
Was sagt uns das?
Eben 334mm² bei teuren 40nm vs 470mm² bei billigen 55nm.
Spielt sowieso keine Rolle mehr, wenn jetzt die Reste aufgebraucht werden.
Würde es eine Rolle spielen, so müsste man noch die Yield mit einbeziehen.

mictasm
2009-10-15, 13:29:35
Der Unterschied ist aber nicht gerade gross. ;)

Mal im ernst, wie falsch lag Charlie jetzt eigentlich, dass Gerücht hat sich jetzt ja wohl bewahrheitet!?

Wenn Cypress in 40nm schon so gross ist, dann glaube ich kaum das Fermi unter 550mm² kommen kann.

Das ist immer noch dieselbe unbestätigte Meldung, nur schön ausgeschmückt und mit einem eigenen Fazit erweitert. Aber klar, das ist jetzt natürlich die Bestätigung für die Richtigkeit der ersten Meldung. ;D

Schlammsau
2009-10-15, 13:32:01
Das ist immer noch dieselbe unbestätigte Meldung, nur schön ausgeschmückt und mit einem eigenen Fazit erweitert. Aber klar, das ist jetzt natürlich die Bestätigung für die Richtigkeit der ersten Meldung. ;D
Also ich traue Anand nun doch etwas mehr zu als reines Abschreiben.
http://www.anandtech.com/video/showdoc.aspx?i=3659
Mittlerweile hat nahezu jedes Online Medium darüber geschrieben, irgendwas muss dran sein!

Gast
2009-10-15, 13:37:57
zumal Fermi um die 3Mrd Transen hat und somit etwa 50% mehr Fläche belegt als CypressSo kannst du nicht rechnen, da kommt man gerade mal auf 466mm² für Fermi.

Ausgehend von 3000 vs 2150 mio Transistoren und 334mm².

Um auf 500mm² zu kommen muss man schon GT200b als Basis nehmen.

LovesuckZ
2009-10-15, 14:34:04
Tja, wenn das wenigstens wahr wäre. Aber ein RV730 hat auch nur 146mm² in 55nm und ist damit bei der Leistung/mm² noch immer gut dabei, ja selbst bei der Leistung/Watt sehr konkurrenzfähig. Beim RV710 mit 72mm² detto. NV hat bei 40nm offensichtlich einiges verbockt.

Leistung/mm^2 spielt im OEM genau keine Rolle.

Henroldus
2009-10-15, 14:38:37
So kannst du nicht rechnen, da kommt man gerade mal auf 466mm² für Fermi.

Ausgehend von 3000 vs 2150 mio Transistoren und 334mm².

Um auf 500mm² zu kommen muss man schon GT200b als Basis nehmen.
So kannst du nicht rechnen, da kommt man gerade mal auf 466mm² für Fermi.

Ausgehend von 3000 vs 2150 mio Transistoren und 334mm².

Um auf 500mm² zu kommen muss man schon GT200b als Basis nehmen.
na dann mal vorgerechnet Herr Gast!
GT200b runterrechnen auf 40nm:
470mm^2/(55^2*40^2)=249mm^2
und dann auf 3Mrd Transen hochrechnen-> Faktor 3000/1400?
533mm^2
da fehlt aber noch DX11

AnarchX
2009-10-15, 14:48:25
Korrekter wäre wohl die Erhöhung der Packdichte bei AMD von 55 zu 40nm zu betrachten und das war 70-80%.

Also läge ein 40nm G200 wohl bei 260-280mm², wobei man hier wohl kein 512-Bit SI mehr verdrahten könnte.

Wie nun aber die Packdichte beim neuen Fermi-Design aussehen wird, ist nicht wirklich absehbar. Aber mit einer Schätzung von ~500mm² läge man wohl nicht so falsch.

PulsarS
2009-10-15, 14:52:57
Leistung/mm^2 spielt im OEM genau keine Rolle.
Was spielt bei OEM denn deiner Meinung nach eine Rolle?

Ich würde sagen hauptsächlich Features.
Sind diese ähnlich, dann spielt die Leistung ein Rolle.
Und Leistung/mm^2 ist für den IHV wichtig, falls beim Punkt 1 (Features) Gleichstand herrscht.

LovesuckZ
2009-10-15, 14:54:34
Ein GT220 hat 486 Millionen Transistoren und hat eine die size von ca. 100mm^2. Ein G94b liegt ca. bei 199mm^2 und hat 505 Millionen Transistoren. Das macht eine Steigerung von 90% bei ca. 96% der Transistorenanzahl. Man liegt also voll im Plan.

Gast
2009-10-15, 14:55:05
na dann mal vorgerechnet Herr Gast!
GT200b runterrechnen auf 40nm:
470mm^2/(40^2/55^2)=249mm^2
und dann auf 3Mrd Transen hochrechnen-> Faktor 3000/1400?
533mm^2
Gefixt.

Wenn sich das 1zu1 hochrechnen liese richtig.
Wir wissen aber das dem nicht so sein muss. Man erinnere sich an RV790, bzw RV670 nach RV770.

Ich nehme mal GT200 als Basis:
576mm²*(40^2/65^2)=218mm²
218mm²*(3000/1400)=467mm²

Grund zum Bangen das es nicht ziemlich genau 500mm² sein sollen gibt es imho nicht.

da fehlt aber noch DX11 Nö fehlt nicht, ist in den 3000 Mio Transistoren enhalten.
Bedeutet auf jeden Fall das GT200b und Fermi nicht unbedingt vergleichbar sein müssen.

reunion
2009-10-15, 14:55:36
Leistung/mm^2 spielt im OEM genau keine Rolle.

Sag mal, weißt du eigentlich was du selbst schreibst?

nVidia hat im Low-End wieder eine GPU unter 120mm^2. Und da AMD erst im nächsten Jahr mit D3D11 im Low-End kommt, ist das der Bereich, wo nVidia im deutlichen Vorteil ist.

Das ist der Beitrag auf den PulsarS eingegangen ist und auf den mich auch ich bezog nachdem du als Antwort gabst das man trotz der teuren 40nm Wafern "deutlichen im Vorteil" ist. Tatsächlich erreicht man keine bessere perf/mm² oder perf/Watt und hat noch immer den teureren 40nm Prozess. Man schafft es also defacto trotz 40nm nicht konkurrenzfähig mit AMDs 55nm Chips sein.

Gast
2009-10-15, 14:58:56
Ein GT220 hat 486 Millionen Transistoren und hat eine die size von ca. 100mm^2.
Gut rechnen wir mal.

3000/486=6,17
100mm²*6,17=617mm²

Ja das könnte so einigen passen, Fermi wird die größte GPU aller Zeiten. :rolleyes:

LovesuckZ
2009-10-15, 15:01:43
Man kann es nicht linear hochrechnen, da der Anteil an Transistoren, die sich besser packen lassen steigt.


Das ist der Beitrag auf den PulsarS eingegangen ist und auf den mich auch ich bezog nachdem du als Antwort gabst das man trotz der teuren 40nm Wafern "deutlichen im Vorteil" ist. Tatsächlich erreicht man keine bessere perf/mm² oder perf/Watt und hat noch immer den teureren 40nm Prozess. Man schafft es also defacto trotz 40nm nicht konkurrenzfähig zu mit AMDs 55nm Chips sein.

Steht da irgendwas von Leistung? Irgendwo? Nein. Es ging die ganze Zeit um OEM und Features.
Lustig, wie man dauernd irgendwas mit Leistung will, wenn das überhaupt nicht gefragt war. Man könnte meinen, da sucht sich jemand einen Pluspunkt. ;D

reunion
2009-10-15, 15:02:46
Steht da irgendwas von Leistung? Irgendwo? Nein. Es ging die ganze Zeit um OEM und Features.
Lustig, wie man dauernd irgendwas mit Leistung will, wenn das überhaupt nicht gefragt war. Man könnte meinen, da sucht sich jemand einen Pluspunkt. ;D

Aja, es geht nicht um Leistung, es geht nicht um Stromverbrauch, es geht nicht um Herstellungskosten, aber man ist trotzdem "deutlich im Vorteil". Um was geht es dann? Und natürlich musst du dich auf die Kosten bezogen haben wenn du im gleichen Satz die Die-Größe erwähnst.

Gast
2009-10-15, 15:04:12
SMan schafft es also defacto trotz 40nm nicht konkurrenzfähig zu mit AMDs 55nm Chips sein.
Man ist bereits mit den 55nm Chips konkurrenzfähig.

Du kannst es schön aufrechnen, die Größe mit den Waferkosten. Ohne konkrette Waferkosten leider witzlos.

Spätestens beim Blick auf AMD sollte auffallen, das es nicht so schlimm sein kann, im Gegenteil.

reunion
2009-10-15, 15:06:05
Man ist bereits mit den 55nm Chips konkurrenzfähig.

Du kannst es schön aufrechnen, die Größe mit den Waferkosten. Ohne konkrette Waferkosten leider witzlos.

Spätestens beim Blick auf AMD sollte auffallen, das es nicht so schlimm sein kann, im Gegenteil.

Laut Rys ist eine 40nm Wafer 40% teurer als eine 55nm Wafer. Zumindest war das vor einigen Wochen so.

LovesuckZ
2009-10-15, 15:10:42
Aja, es geht nicht um Leistung, es geht nicht um Stromverbrauch, es geht nicht um Herstellungskosten, aber man ist trotzdem "deutlich im Vorteil". Um was geht es dann? Und natürlich musst du dich auf die Kosten bezogen haben wenn du im gleichen Satz die Die-Größe erwähnst.

Es geht einzig und allein um Herstellungskosten und Features für die OEM. Das du den Kontext vergewaltigst, ist nichts neues.


Gerade bei den "kleinen" Karten (OEM) sind Specs alles.
Ohne D3D11 sieht es schlecht für NV aus, wenn ATI entsprechende Produkte bringt und NV keine hat.
Das dürfte aber jedem klar sein.

Und 40nm Wafer kosten bestimmt nicht 40% mehr als 55nm. Dann würde niemand bei TSMC fertigen.

Gast
2009-10-15, 15:11:39
Laut Rys ist eine 40nm Wafer 40% teurer als eine 55nm Wafer. Zumindest war das vor einigen Wochen so.
Somit wären Cypress und GT200b nahezugleich teuer, ungeachtet der unbekannten Yield.
Somit ist Juniper zum aktuellen Zeitpunkt kaum lohnend/kaum besser als RV740/RV770/RV790.

reunion
2009-10-15, 15:17:52
Es geht einzig und allein um Herstellungskosten und Features für die OEM. Das du den Kontext vergewaltigst, ist nichts neues.


Ja, und bei den Herstellungskosten ist man wohl kaum im Vorteil. Bei den Features kann man auch höchstens den Namen Nvidia als Vorteil verbuchen. Und vergewaltigen tue ich gar nicht, ich habe dich völlig korrekt zitiert.

PulsarS
2009-10-15, 15:49:31
Es geht einzig und allein um Herstellungskosten und Features für die OEM.
Aha,
und wieso sollte NV da im Vorteil sein? (Wenn man davon ausgeht, dass der 40nm Prozess schon etwas teurer ist).
Wenn ich mir die Die-Größen ansehe und alles hochrechne, sehe ich weder für NV noch für ATI einen deutlichen Vorteil.


Und 40nm Wafer kosten bestimmt nicht 40% mehr als 55nm. Dann würde niemand bei TSMC fertigen.
Das weiß ich nicht, könnte aber sein, da man selbst bei 40% Mehrkosten immer noch (bei der entsprechenden Packdichte) kostengünstiger wäre.

LovesuckZ
2009-10-15, 15:57:50
Aha,
und wieso sollte NV da im Vorteil sein? (Wenn man davon ausgeht, dass der 40nm Prozess schon etwas teurer ist).
Wenn ich mir die Die-Größen ansehe und alles hochrechne, sehe ich weder für NV noch für ATI einen deutlichen Vorteil.


Da wir über keine Waferpreise verfügen, sind solche Aussagen unsinnig. Es kann genauso gut sein, dass TSMC nVidia und AMD entgegenkommt, da die Produktion nicht so verläuft wie geplant. Und dann hat man aufgrund des (deutlich) kleineren Dies einen deutlichen Vorteil.
Gerüchte sprechen weiterhin von nur 30% Ausbeute. Da wird niemand pro Wafer bezahlen.

S940
2009-10-16, 11:28:48
Apropos:
Wenn ihr mal den Thread lesen würdet, dann seht ihr, dass ich mich vor allem über das Zitat aufgeregt hat in dem er etwas über einen halben Fermi redet ohne überhaupt irgendwas davon zu wissen.

Das sehe ich auch nach wie vor so.
Mal zum Vergleich, wie siehst Du das:

nVidia geht hier vermutlich einen anderen Weg und setzt alle seine kommenden Fermi-Chips generell etwas höher an, so daß es jeweils klare Angebote für Mainstream-, Performance- und HighEnd-Segment gibt. Damit werden wohl weniger die Grafikchips selber, sondern nur noch die einzelnen Karten gut miteinander vergleichbar sein. So dürfte sich beispielsweise die Situation ergeben, daß die größte Ausführung des Performance-Chips von nVidia im gleichen Feld spielt wie die kleinste Ausführung (Radeon HD 5850) des HighEnd-Chips (RV870) von ATI. ?

Dazu noch die Grafik (kennst Du sicherlich eh, aber der Vollständigkeit halber):
http://www.3dcenter.org/dateien/abbildungen/2009-10Okt-15.png

Inhaltsmäßig ist das keine andre Spekulation, der Schreiber macht keinen Eindruck, als wüsste er wirklich was Neues. Ist halt ein Schuss ins Blaue.

Unterschied ist nur, dass es etwas "netter" geschrieben ist ;-)
Ich frage, weil ich jetzt nicht ganz sicher bin, ob Dir entweder nur der Ton nicht gefällt, oder die nicht begründete Fermi Spekulation.

Falls der Ton, ok - falls die Spekulation, siehe oben ;-)

ciao

Alex

svenw
2009-10-16, 11:48:50
Gerüchte sprechen weiterhin von nur 30% Ausbeute. Da wird niemand pro Wafer bezahlen.
Sofern die Marktwirtschaft funktioniert. Zu wem sollte Nvidia denn hingehen, wenn nicht zu TSMC? Allerdings ist Nviida natürlich ein großer Kunde von TSMC so wird man sich den verlust wohl teilen. Bei ATI kommt dazu, das die wahrscheinlich bald zu Global Foundaries abwandern und die haben ne ganze Menge Erfahrung mit dem 40er Prozeß.

Schlammsau
2009-10-26, 22:44:25
Die GTX285 ist mittlerweile so gut wie gar nicht mehr verfügbar.
http://geizhals.at/deutschland/?cat=gra16_512&sort=p&bpmax=&asuch=GTX+285&asd=on&v=l&plz=&dist=&pixonoff=on&xf=
Sogar die GTX280 ist besser lieferbar. Krass.....
http://geizhals.at/deutschland/?cat=gra16_512&sort=p&bpmax=&asuch=GTX+280&asd=on&v=l&plz=&dist=&pixonoff=on&xf=
Charlie hat teilweise recht.

Gast
2009-10-26, 22:59:22
HD 5870 noch weniger, steht AMD kurz vor dem Supergau?

Gast
2009-10-26, 23:06:34
Charlie hat teilweise recht.
Dann behaupte ich auch mal was.
"Morgen geht die Welt unter."

Morgen regnet es irgendwo, also habe ich zumindest teilweise recht, den dort ist Land unter. ;D

;)

2B-Maverick
2009-10-26, 23:08:50
HD 5870 noch weniger, steht AMD kurz vor dem Supergau?

23:06 Uhr:

GTX280: 8 Stück
GTX285: 4 Stück
5870: 10 Stück
5850: 8 Stück

alles gleich bescheiden.... aber mehr 5870er als 285er :tongue:

Gast
2009-10-26, 23:13:42
Schon klar, AMD gibt das High-End Desktop Geschäft auf.

Wo bleibt Charlies News dazu?
Übrigens, ganz falsch ist es auf keinen Fall, angeblich setzt AMD doch nur noch auf billige Karten.

Siehe wenig VRMs, kleine GPUs (ähnlich teuer wie GT200b) oder als Krönung die X2. ... gehört anständige Filterung auch zum High-End?
Naja, irgendwie kann man sich das schon zurecht basteln. Also Charlie, leg los.

Gast
2009-10-26, 23:15:20
23:06 Uhr:

GTX280: 8 Stück
GTX285: 4 Stück
5870: 10 Stück
5850: 8 Stück

alles gleich bescheiden.... aber mehr 5870er als 285er :tongue:
5870 ist Konkurrent zur GTX 295. ;)

http://geizhals.at/deutschland/?cat=gra16_512&sort=p&bpmax=&asuch=gtx+295&v=l&plz=&dist=&pixonoff=on&xf=132_512

Gast
2009-10-26, 23:18:00
"Bitte schreib "blubber" in das Feld."

Genau das passt mittlerweile zu 3DCenter. Sorry, aber mal ganz ehrlich, besser als Charlie ist hier keiner mehr. Dazu hat das Niveau hier einfach zu sehr gelitten. Schade.

Gast
2009-10-26, 23:24:20
Wie soll das Niveau auch besser sein, wenn jede Charlie News hier xmal 1zu1 reinkopiert und nachgebetet wird?

Gast
2009-10-26, 23:25:47
Wer redet denn von seinen Kommentaren? Schon mal an die Antworten gedacht? Schaltet doch mal bitte erst euer Hirn ein, bevor ihr was schreibt...

Menace
2009-10-27, 07:36:31
Schon klar, AMD gibt das High-End Desktop Geschäft auf.

Wo bleibt Charlies News dazu?
Übrigens, ganz falsch ist es auf keinen Fall, angeblich setzt AMD doch nur noch auf billige Karten.


Schon mal die Top 10 der Suchanfragen bei Geizhals angeschaut (Grafikkarten, also sowohl Ati wie auch nvidia):

Sapphire Radeon HD 5870, 1024MB GDDR5, 2x DVI, HDMI, DisplayPort, PCIe 2.0, full retail (21161-00-50R)
Sapphire Radeon HD 5850, 1024MB GDDR5, 2x DVI, HDMI, DisplayPort, PCIe 2.0, full retail (21162-00-50R)
ASUS EAH5870/2DIS/1GD5, Radeon HD 5870, 1024MB GDDR5, 2x DVI, HDMI, DisplayPort, PCIe 2.0 (90-C3CH30-L0UAY00T)
Sapphire Radeon HD 5770, 1024MB GDDR5, 2x DVI, HDMI, DisplayPort, PCIe 2.0, bulk/lite retail (21163-00-20R)
XFX Radeon HD 5850, 1024MB GDDR5, 2x DVI, HDMI, DisplayPort, PCIe 2.0 (HD-585A-ZNFC)
Club 3D Radeon HD 5850, 1024MB GDDR5, 2x DVI, HDMI, DisplayPort, PCIe 2.0 (CGAX-58524IDP)
Gigabyte Radeon HD 5850, 1024MB GDDR5, 2x DVI, HDMI, DisplayPort, PCIe 2.0 (GV-R585D5-1GD-B)
ASUS EAH5850/2DIS/1GD5, Radeon HD 5850, 1024MB GDDR5, 2x DVI, HDMI, DisplayPort, PCIe 2.0 (90-C3CH41-L0UAY00T)
MSI R5850-PM2DG1G, Radeon HD 5850, 1024MB GDDR5, 2x DVI, HDMI, DisplayPort, PCIe 2.0 (V803-454R)
MSI R5870-PM2D1G, Radeon HD 5870, 1024MB GDDR5, 2x DVI, HDMI, DisplayPort, PCIe 2.0 (V803-453R)

Nun die Frage: Könnte da ein Zusammenhang zur Knappheit bestehen?

Geizhals ist natürlich nicht Weltweit, deshalb hier noch eine statistische Suchauswertung bei Google:
gtx280 gtx285 ati 5870 ati 5850
http://www.google.com/trends/viz?q=GTX280,+GTX285,+ati+5870,ati+5850&date=mtd&geo=all&graph=weekly_img&sort=0&sa=N

Mark3Dfx
2009-10-27, 08:05:32
http://www.computerbase.de/news/hardware/grafikkarten/ati/2009/oktober/sapphire_hd_5750_neue_kuehlung_takt/

"...Dies dürfte unsere bereits vor zwei Wochen getätigten Aussagen untermauern, dass AMD übertakteten Grafikkarten einen Riegel vorgeschoben hat.
Dies könnte damit zusammenhängen, dass man erst einmal die für andauernde Unzufriedenheit sorgende Liefersituation in den Griff kriegen will, indem man alle Boardpartner mit quasi gleichen Karten und somit auch nahezu gleichen Preisen antreten lässt.
Spätestens wenn in dem Bereich Entspannung eintritt, dürften auch höher getaktete Grafikkarten dieses Typs verfügbar werden.

Dass dies jedoch noch in diesem Jahr der Fall sein wird, ist aktuell unwahrscheinlich..."

Hat Charlie darüber schon geflam....ähm berichtet? X-D

StefanV
2009-10-27, 08:17:32
HD 5870 noch weniger, steht AMD kurz vor dem Supergau?
Ganz im Gegenteil!
Die HD5 Serie verkauft sich wie geschnitten Brot, alles was momentan produziert wird, wandert auch an die Hersteller/OEMs.
Und von denen weiter zum Kunden, entsprechend ist das auch die optimale Situation in der Marktwirtschaft.
Für uns potentielle Käufer ist das natürlch etwas doof.

Allerdings musst du auch sehen, das OEM Vorrang vor Privat hat, entsprechend geht auch momentan ein nicht unerheblicher Teil an die OEMs.

Von daher kann ich deine Meinung nicht teilen...

mapel110
2009-10-27, 08:25:19
AMD schafft es derzeit nicht, genug RV870 zu produzieren. Die billigeren Varianten RV840, die für OEMs wesentlich interessanter sein sollten, sind dagegen gut verfügbar.

Menace
2009-10-27, 08:29:34
AMD schafft es derzeit nicht, genug RV870 zu produzieren. Die billigeren Varianten RV840, die für OEMs wesentlich interessanter sein sollten, sind dagegen gut verfügbar.

Ich habe den Verdacht, dass AMD bzgl. der Nachfrage sich völlig verspekuliert hat. Ich vermute, dass sie erwartet hätten, dass sich die Kleinen (HD57X0) viel besser verkaufen würden, als die Großen. Auch wenn Geizhals nur bedingt Aussagekräftig ist, aber im Vergleich zur 5850er wird gerade eine 5770 nachgefragt.

Andere Fehlentscheidung von AMD: sie hätten den Preis der 5870er höher ansetzen können. Ein wenig mehr von nvidia dürften sie ruhig lernen.

Ailuros
2009-10-27, 08:31:18
AMD schafft es derzeit nicht, genug RV870 zu produzieren. Die billigeren Varianten RV840, die für OEMs wesentlich interessanter sein sollten, sind dagegen gut verfügbar.

Entweder hapert es immer noch etwas mit den 40G yields (was ich aber bezweiflen will) oder AMD hat tatsaechlich zu wenig bei TSMC bestellt. Zwar ist die finanzielle Krise so langsam bei ihrem Ausklang aber ich kann diese eher konservative Strategie voll verstehen. Es ist lediglich eine Schande dass AMD somit nicht das momentan grosse Potential voll ausnutzen kann.

Ich habe den Verdacht, dass AMD bzgl. der Nachfrage sich völlig verspekuliert hat. Ich vermute, dass sie erwartet hätten, dass sich die Kleinen (HD57X0) viel besser verkaufen würden, als die Großen. Auch wenn Geizhals nur bedingt Aussagekräftig ist, aber im Vergleich zur 5850er wird gerade eine 5770 nachgefragt.

Jemand war wieder mal schneller als ich ;)

Andere Fehlentscheidung von AMD: sie hätten den Preis der 5870er höher ansetzen können. Ein wenig mehr von nvidia dürften sie ruhig lernen.

Auf keinen Fall IMO. Der Preis ist momentan sogar leicht hoeher als AMD's Strategie seit RV670 vorzeigte. Hier spielt natuerlich 40nm und die durch DX11 generierte zusaetzliche Komplexitaet ihre Rolle mit, aber es wird sich in H1 2010 schon wieder regeln.

Alles in allem will sich jemand den Threadtitel: NVIDIA künstlich hervorgerufene Grafikkarten-Knappheit? wirklich nicht nochmal ueberdenken?

Menace
2009-10-27, 08:51:31
Auf keinen Fall IMO. Der Preis ist momentan sogar leicht hoeher als AMD's Strategie seit RV670 vorzeigte. Hier spielt natuerlich 40nm und die durch DX11 generierte zusaetzliche Komplexitaet ihre Rolle mit, aber es wird sich in H1 2010 schon wieder regeln.


Ich meine, für die Kunden von Ati ist natürlich auch ein Vorteil, aber es wird Ati nicht gedankt werden, wenn die Preise beim Erscheinen des Fermis nur etwas fallen. Imo hätte Ati die Preise bis Weihnachten um 50 € höher ansetzen können. Wenn ich mir anschaue, um welche Preise die Karten momentan verkauft werden, wäre schon was für die Portokasse übriggeblieben. So freuen sich halt die Händler, dass sie das Geld einstecken können.

svenw
2009-10-27, 09:30:58
Entweder hapert es immer noch etwas mit den 40G yields (was ich aber bezweiflen will) oder AMD hat tatsaechlich zu wenig bei TSMC bestellt. Zwar ist die finanzielle Krise so langsam bei ihrem Ausklang aber ich kann diese eher konservative Strategie voll verstehen.
Die Frage ist dann doch: Was produziert TSMC dann aktuell? Wenn sowohl ATI als auch Nvidia zu wenig bestellt haben sollte TSMC über eine Menge freier Kapazitäten verfügen die man sicher gerne auslasten würde.

Ailuros
2009-10-27, 14:43:39
Die Frage ist dann doch: Was produziert TSMC dann aktuell? Wenn sowohl ATI als auch Nvidia zu wenig bestellt haben sollte TSMC über eine Menge freier Kapazitäten verfügen die man sicher gerne auslasten würde.

NV soll was zu wenig bestellt haben bei TSMC fuer 40G genau? Es geht um GT200@55nm hier im Thread eigentlich und nicht die OEM 40nm GT21x Fuerze.

Gast
2009-10-27, 15:07:58
Es geht auch um Cypress.

Nvidias Topmodell, GTX 295 ist nach wie vor gut lieferbar.

Ailuros
2009-10-27, 15:14:11
Es geht auch um Cypress.

40nm

Nvidias Topmodell, GTX 295 ist nach wie vor gut lieferbar.

55nm. Wie hoch ist denn ueberhaupt die Nachfrage fuer 295 boards momentan? Es ist ja nicht gerade so dass die Dinger wie warme Semmeln von den Regalen verschwinden. Im Vergleich zur 5870 ist die 295 eine ziemlich fragliche Investition heutzutage von vielen Perspektiven.

Gast
2009-10-27, 15:22:16
40nm

Andere Karten mit 40nm GPU sind lieferbar.


55nm. Wie hoch ist denn ueberhaupt die Nachfrage fuer 295 boards momentan? Es ist ja nicht gerade so dass die Dinger wie warme Semmeln von den Regalen verschwinden. Im Vergleich zur 5870 ist die 295 eine ziemlich fragliche Investition heutzutage von vielen Perspektiven.
Deshalb wärs nur sinnvoll die Produktion frühzeitig zu stoppen,sonst liegen die Dinger hinterher bis zur Decke in den Regalen.
Wie gesagt, eine Heldentat von Charlie.

Dem gemeinen Käufer ist es nicht klar, was fragwürdig ist. Der sieht 4870 X2, bzw GTX 295 sogar als etwas besser als 5870 an. Mit Ausnahme von D3D11.

Ailuros
2009-10-27, 18:17:48
Andere Karten mit 40nm GPU sind lieferbar.

Na dann mach mal ne Liste und dann aber gefaelligst mit der gleichen Komplexitaet wie Cypress.

Deshalb wärs nur sinnvoll die Produktion frühzeitig zu stoppen,sonst liegen die Dinger hinterher bis zur Decke in den Regalen.

Der Haken ist dass die Nachfrage groesser ist als die eigentlichen Auslieferungen.

Dem gemeinen Käufer ist es nicht klar, was fragwürdig ist. Der sieht 4870 X2, bzw GTX 295 sogar als etwas besser als 5870 an. Mit Ausnahme von D3D11.

Der Otto-Normalverbraucher kann in der Zwischenzeit selbst einen 0815 Review an zahllosen Stellen im Netz finden.

Gast
2009-10-27, 18:38:36
Na dann mach mal ne Liste und dann aber gefaelligst mit der gleichen Komplexitaet wie Cypress.

Cypress soll doch so wunderbar klein sein, haben uns einige hier so oft vorgekaut, das AMD diese Strategie der billig GPUs verfolgt.
Ich geb mich erstmal geschlagen 5800 sind knapp, so wie einst die 4770.

Seine Frage war, ob TSMCs 40nm Kapazitäten voll ausgelastet sind. Ob AMD genug bestellt hat, oder ob die Yield einfach so grottig ist.

Der Haken ist dass die Nachfrage groesser ist als die eigentlichen Auslieferungen.
Trifft auf GTX 260, GTX 275 und GTX 295 jedenfalls noch nicht zu.

Ich wunder mich warum ausgerechnet die GTX 285 knapp ist.

Der Otto-Normalverbraucher kann in der Zwischenzeit selbst einen 0815 Review an zahllosen Stellen im Netz finden.
Du musst zugeben, das Otto nicht aufs Kleingedruckte schauen wird.
Er guckt aufs Performancerating.
Mit etwas Glück hat der Tester nur gut skalierende Titel und Situationen und gewählt und schwups, die GX2/X2 liegen sehr gut dabei.
Jetzt schaut er noch auf den Preis, aha, auch in Ordnung.
Dann noch vielleicht auf den "Verbrauch", aha, nicht so gut aber scheiss drauf.

Oder er rennt gleich in den Laden, sieht den Sticker "Dual GPU" und denkt sich "geil!".

Black-Scorpion
2009-10-27, 18:46:23
Was hat die Größe mit der Komplexität zu tun?

Gast
2009-10-27, 18:48:59
Was hat dein Beitrag mit dem Thema zu tun?

Falls du Cypress meinst, der ist weder klein noch unkomplex.

LovesuckZ
2009-10-27, 18:51:07
Ich wunder mich warum ausgerechnet die GTX 285 knapp ist.


Weil es sinn macht. Würde man weiter GTX285 Karten produzieren, müsste man den Preis drastisch senken. Das wiederrum hätte Einfluss auf die GTX260 und GTX275 Karten - die man ebenfalls im Preis senken müsste.

Black-Scorpion
2009-10-27, 18:52:33
Was hat dein Beitrag mit dem Thema zu tun?

Falls du Cypress meinst, der ist weder klein noch unkomplex.
AIL sprach von Komplexität und der Gast kommt mit der Größe.
Also hat meine Frage mehr Bezug wie dein Beitrag.
Und was ich schreibe oder nicht, dürfte dich reichlich wenig angehen.

Ailuros
2009-10-27, 18:56:03
Cypress soll doch so wunderbar klein sein, haben uns einige hier so oft vorgekaut, das AMD diese Strategie der billig GPUs verfolgt.
Ich geb mich erstmal geschlagen 5800 sind knapp, so wie einst die 4770.

Tja ich deutete offensichtlich darauf dass NVIDIA nichtmal in der Naehe der Cypress Komplexitaet unter 40nm momentan etwas in Produktion hat.

Seine Frage war, ob TSMCs 40nm Kapazitäten voll ausgelastet sind. Ob AMD genug bestellt hat, oder ob die Yield einfach so grottig ist.

IMO hat AMD zu wenig bestellt. Von was sollen denn die 40G Kapazitaeten bei TSMC ausgelastet sein?

Trifft auf GTX 260, GTX 275 und GTX 295 jedenfalls noch nicht zu.

Ich wunder mich warum ausgerechnet die GTX 285 knapp ist.

Weil die pro chip und auch pro GPU Herstellungskosten fuer die GTX280 ziemlich hoch sind im Vergleich zu ihrem Strassenpreis.

Du musst zugeben, das Otto nicht aufs Kleingedruckte schauen wird.
Er guckt aufs Performancerating.
Mit etwas Glück hat der Tester nur gut skalierende Titel und Situationen und gewählt und schwups, die GX2/X2 liegen sehr gut dabei.
Jetzt schaut er noch auf den Preis, aha, auch in Ordnung.
Dann noch vielleicht auf den "Verbrauch", aha, nicht so gut aber scheiss drauf.

Oder er rennt gleich in den Laden, sieht den Sticker "Dual GPU" und denkt sich "geil!".

Ich hab das Gefuehl dass Du die Popularitaet einer jeglichen dual-GPU viel zu viel ueberschaetzt. Im Vergleich zu high end oder performance single chip GPUs sind diese nach wie vor ein Nischenmarkt.

***edit:

Was hat dein Beitrag mit dem Thema zu tun?

Falls du Cypress meinst, der ist weder klein noch unkomplex.

Dabei liegt auch der eigentliche Punkt; NV stellt momentan nichtmal einen 1Mrd Transistoren komplizierten chip unter 40G her, ganz zu schweigen von 2.15Mrd.

Coda
2009-10-27, 19:41:18
IMO hat AMD zu wenig bestellt. Von was sollen denn die 40G Kapazitaeten bei TSMC ausgelastet sein?
Fermi? *scnr*

Ailuros
2009-10-27, 19:42:46
Fermi? *scnr*

"in production?" Darf ich Dich hoeflich in den Hintern treten? :P

reunion
2009-10-27, 19:48:54
IMO hat AMD zu wenig bestellt. Von was sollen denn die 40G Kapazitaeten bei TSMC ausgelastet sein?


Wer sagt das TSMC überhaupt genug 40nm Kapazitäten hat?

Ailuros
2009-10-27, 19:51:50
Wer sagt das TSMC überhaupt genug 40nm Kapazitäten hat?

Ich hab ehrlich gesagt schon bessere Entschuldigen gehoert und in diesem Fall gilt es fuer beide IHVs.

reunion
2009-10-27, 19:57:11
Ich hab ehrlich gesagt schon bessere Entschuldigen gehoert und in diesem Fall gilt es fuer beide IHVs.

The foundry expects to process around 30,000 wafers on 40nm in the third quarter, Chang noted.


http://www.digitimes.com/news/a20090731PD204.html

Nur 30.000 Wafer im Q3 kommt mir sehr wenig vor.

Ailuros
2009-10-27, 20:34:24
http://www.digitimes.com/news/a20090731PD204.html

Nur 30.000 Wafer im Q3 kommt mir sehr wenig vor.

30.000 Wafer von was genau?

reunion
2009-10-27, 20:36:33
30.000 Wafer von was genau?

Steht doch da. 30.000 40nm Wafern insgesamt, mehr kann TSMC nicht liefern.

Ailuros
2009-10-27, 20:38:39
Steht doch da. 30.000 40nm Wafern insgesamt, mehr kann TSMC nicht liefern.

Die Anzahl sagt Dir nichts aus wenn Du nicht weisst um was es sich handelt. Aber wenn's schon sein muss nimm die kleinst moegliche chip-Anzahl pro Wafer, rechne etwa 50% yields ab und erklaer mir war das sehr konservative Resultat dass Du bekommst genau "wenig" ist fuer ein einziges Quartal.

LovesuckZ
2009-10-27, 20:41:18
Lustig - vor ein paar Wochen waren 30k Wafer noch viel. Aber nun sind es plötzlich wenig. Wie sich die Wertigkeit solch einer Zahl plötzlich ändern kann. :lol:
Man spekuliert weiterhin von 30% Yields beim 40nm Prozeß. Da wird keine Firma viele Wafer bestellen, denn selbst bei Bezahlung pro verwendbarem Die sind das horrende Kosten.

reunion
2009-10-27, 20:48:32
Lustig - vor ein paar Wochen waren 30k Wafer noch viel. Aber nun sind es plötzlich wenig. Wie sich die Wertigkeit solch einer Zahl plötzlich ändern kann. :lol:
Man spekuliert weiterhin von 30% Yields beim 40nm Prozeß. Da wird keine Firma viele Wafer bestellen, denn selbst bei Bezahlung pro verwendbarem Die sind das horrende Kosten.

Es ist viel im Vergleich zu den vorigen Quartalen, aber noch immer wenig im Vergleich zu den anderen Nodes. Ob es genug sind hängt von Yields und der Nachfrage ab. Auch weiß man gar nicht ob TSMC dieses Ziel auch erreicht hat. Über die Yieldrate wird alles mögliche spekuliert, im Endeffekt weiß man es nicht. Laut offiziellen Aussagen sind die Yields gut.

reunion
2009-10-27, 20:50:28
Die Anzahl sagt Dir nichts aus wenn Du nicht weisst um was es sich handelt. Aber wenn's schon sein muss nimm die kleinst moegliche chip-Anzahl pro Wafer, rechne etwa 50% yields ab und erklaer mir war das sehr konservative Resultat dass Du bekommst genau "wenig" ist fuer ein einziges Quartal.

Wieviele 40nm Chips könnte AMD pro Quartal verkaufen?

Ailuros
2009-10-27, 20:51:49
Es ist viel im Vergleich zu den vorigen Quartalen, aber noch immer wenig im Vergleich zu den anderen Nodes. Ob es genug sind hängt von Yields und der Nachfrage ab. Auch weiß man gar nicht ob TSMC dieses Ziel auch erreicht hat.

Im Vergleich zu was genau? >130nm?

Wo steckt uebrigens das 55nm Prozentual genau in dem Link?

Wieviele 40nm Chips könnte AMD pro Quartal verkaufen?

Warum fragst Du nicht AMD selber? Nicht dass Du oder jemand anders eine anstaendige Antwort bekommen koennte, aber Lovesuck hat in diesem Fall recht. Du wirst mir den Mist jetzt nicht so verdrehen wie es gerade passt. Einmal sind die yields gut und dann wieder beschissen; einmal waren die wafers gut genug und dann zu wenig. Ja Teufel nochmal entscheidet Euch endlich was genau los ist. Ich habe gehoert dass AMD zu wenig bestellt hat und hab auch guten Grund es zu glauben.

Sonst wenn ich jeden Krampf auf jeden Haenger kann der mir gerade passt versichere ich Dich auch gleich ohne jegliche Gewissensbisse dass GF100 dank beschissener 40G yields immer noch nicht produktionsreif ist. Ob's Sinn macht ist scheissegal.

reunion
2009-10-27, 21:03:18
Warum fragst Du nicht AMD selber? Nicht dass Du oder jemand anders eine anstaendige Antwort bekommen koennte, aber Lovesuck hat in diesem Fall recht. Du wirst mir den Mist jetzt nicht so verdrehen wie es gerade passt. Einmal sind die yields gut und dann wieder beschissen; einmal waren die wafers gut genug und dann zu wenig. Ja Teufel nochmal entscheidet Euch endlich was genau los ist. Ich habe gehoert dass AMD zu wenig bestellt hat und hab auch guten Grund es zu glauben.


Tja, wenn ich es wüsste müsste ich nicht herumraten. :)
Das hat nichts mit verdrehen oder täuschen zu tun, das sind mögliche Ursachen für die zu knappen Lieferungen. Das es genau so gut an einer zu hohen Nachfrage liegen kann ist klar.

Menace
2009-10-27, 21:09:14
Ich habe gehoert dass AMD zu wenig bestellt hat und hab auch guten Grund es zu glauben.


Mein persönlicher Favorit ist folgender Grund (konnt man wirklich lesen): Bei TMSC muss man bar bezahlen. AMD ist bekanntermaßen klamm und hat halt das Geld investiert, was sie noch hatten. ;D

Solange keine Zahlen und Gründe genannt werden ist die Diskussion wirklich müßig.

Ailuros
2009-10-28, 05:52:16
Mein persönlicher Favorit ist folgender Grund (konnt man wirklich lesen): Bei TMSC muss man bar bezahlen. AMD ist bekanntermaßen klamm und hat halt das Geld investiert, was sie noch hatten. ;D

Bei so viel Mist der mit 40nm verbunden ist fuer das Ganze 2009 kann man locker ueber vieles verhandeln mit TSMC IMO.

Solange keine Zahlen und Gründe genannt werden ist die Diskussion wirklich müßig.

Sicher.

Ailuros
2009-10-28, 08:47:33
http://www.brightsideofnews.com/news/2009/10/27/amd-set-to-increase-radeon-hd-5800-prices.aspx

Ever before AMD launched its Evergreen series, we knew the allocation numbers for the ATI 4800 and 5000 series - and the numbers didn't look good. If the recent rumors about AMD laying off more staff in 1Q 2010 come true, we cannot view them as anything else but a company who has failed to supply enough products to the market.

Die traurige Wahrheit hier ist: besser als gar nichts und ja ich schiele absichtlich in NV's Richtung.

We also learned that it is not true that Jen-Hsun went to visit TSMC to discuss lowering prices of the wafers… the matter was much more serious, and it touched the overall yields that TSMC is achieving with 40nm process and what the future holds [32nm, 28nm, 22nm].

Entschuldige Theo, aber jetzt muss Du mir erstmal erklaeren wieso diese beiden Aspekte nicht direkt verbunden sind. Bei der Chipkomplexitaet von GF100 koennen die 40G yields auf keinen Fall besser sein als bei Cypress und wenn man schon nach Taiwan fliegt um ueber yields zu verhandeln, wuerde ich liebend gerne wissen wieso der Preis irrelevant waere.

Getting back on the subject, we now know the real figures of just how many 5850, 5870, 5750 and 5770 boards AMD sold to its customers, and the number sure ain't pretty. Overall, the allocation of 5800 series is in the very low five figures. If we would compare this to the ATI Radeon 4800 or nVidia GeForce GTX 280 or 285 hard launches - the figures would not be "flattering" for the 5800 series. There are many problems in getting sufficient amount of boards, and the "blame game" does not exist here. It is solely laid on TSMC's inability to manufacture a sufficient amount of chips.

So weit so gut. Hier kommt aber der absolut koestliche Teil:

One could debate that AMD didn't order enough chips, but if AMD got enough chips - they would not have this situation on their hands.

Da ich dieser verkorksten Logik bei bestem Willen nicht folgen kann, kann mir jemand vielleicht erklaeren was er genau mit diesem Kauderwelsch meint?

Es ist auf jeden Fall kein logisches Argument auf die Hypothese dass AMD zu wenig bestellt hat und es widerspricht zu stark seinem ersten Paragraphen oben.

Fazit: es geht momentam keinem IHV dank der finanziellen Krise gut und man spart eben so viel wie moeglich wo auch immer moeglich. Ich brauch keine idiotischen Entschuldigungen warum es mit GF100 so lange dauert die indirekt in solchen Turnerei-Artikeln angedeutet werden sondern eher eine ehrliche und anstaendige Entschuldigung erstmal seitens NV und dann allen anderen Webseiten warum angeblich A1 des GF100 schon seit Mai fertig gewesen sein soll. Und ja natuerlich hab ich diesbezueglich Theo privat angesprochen und nie eine Antwort dafuer bekommen. NV hat im Fruehling ein Test-Dingsbums zu TSMC geschickt um die moeglichen Toleranzen eines zukuenftigen chips zu investigieren; so weit so gut aber diese Laecherlichkeit als 'tape out' oder A1 zu verkaufen ist eine gigantische Zumutung.

Man gewinnt um einiges mehr an Ansehen wenn man auch oeffentlich zugestehen kann dass man auf die Palme getrieben wurde. Der Rest sind nur idiotische Entschuldigungen um ja nicht in ein schlechtes Licht bei NVIDIA zu geraten *kopfschuettel*

robbitop
2009-10-28, 10:42:31
Wenn im August das Tapeout für A2 war, müsste nicht dann bereichts 8 Wochen später die erste Charge bei NV ankommen? Somit sollte doch ein Paperlaunch mit einigen hundert Testexemplaren im November möglich sein oder?

LovesuckZ
2009-10-28, 10:47:24
Ende August gab es A1. Man braucht wohl zwischen 8-12 Wochen um A2 fertig zustellen. Laut Arun im Beyond3d.com Forum sei es möglich, dass nVidia Chips vorproduziert, um später ein Metal-Respin (A2) durchzuführen. Damit könnte man früher die Massenfertigung starten.

reunion
2009-10-28, 10:56:05
"It is solely laid on TSMC's inability to manufacture a sufficient amount of chips."

Also doch. Da hat NV mal wieder Schwein gehabt.

robbitop
2009-10-28, 11:37:20
Ende August gab es A1. Man braucht wohl zwischen 8-12 Wochen um A2 fertig zustellen. Laut Arun im Beyond3d.com Forum sei es möglich, dass nVidia Chips vorproduziert, um später ein Metal-Respin (A2) durchzuführen. Damit könnte man früher die Massenfertigung starten.
Dann stellt sich die Frage, ob ein Metalrespin ausreichend ist oder ob es noch Engpässe im Silizium gibt (Hotspots, Bugs etc).

Ailuros
2009-10-28, 11:49:52
"It is solely laid on TSMC's inability to manufacture a sufficient amount of chips."

Also doch. Da hat NV mal wieder Schwein gehabt.

Sarkasmus? NV hat egal ob die yields beschissen sind oder AMD zu wenig bestellt hat etwas Glueck. Ausser Du hast natuerlich nur aus dem newsblurb herausgelesen was gerade passt.

Ende August gab es A1. Man braucht wohl zwischen 8-12 Wochen um A2 fertig zustellen. Laut Arun im Beyond3d.com Forum sei es möglich, dass nVidia Chips vorproduziert, um später ein Metal-Respin (A2) durchzuführen. Damit könnte man früher die Massenfertigung starten.

Etwas frueher. Das Risiko fuer so einen hochkomplizierten chip klingt mir zu gross und ich trete Arun immer noch in den Hintern fuer seine >1GHz TMU These LOL.

***edit: war es nicht bis vor einiger Zeit irgendwo im November? Schoen mach daraus Mitte Dezember als neuestes Ziel und die Saga geht weiter.

V2.0
2009-10-28, 12:11:11
Wenn die Yields bei 40nm einfach sehr schlecht sind, dann kan ATI die nachfrage nicht decken, ABER sie sind besser dran als NV. Und momentan sehe ich für GF100 keine ernsthafte Verfügbarkeit vor Mitte 1Q/10 im besten Falle.

Ailuros
2009-10-28, 13:09:38
Wenn die Yields bei 40nm einfach sehr schlecht sind, dann kan ATI die nachfrage nicht decken, ABER sie sind besser dran als NV. Und momentan sehe ich für GF100 keine ernsthafte Verfügbarkeit vor Mitte 1Q/10 im besten Falle.

Ich bezweifle dass die yields fuer AMD's chips generell schlecht sind. So wie ich es momentan sehe gibt es eher Probleme die Cypress Nachfrage zu decken als bei Juniper. Es klingt mir logischer dass AMD ein einmonatiges inventory auch fuer 40nm hat wie vor einiger Zeit fuer 55nm gemeldet wurde, als alles andere.

Die Logik dass AMD mit beschissenen yields in Produktion mit Evergreen gegangen ist kann ich nicht verfolgen. Und nein die yields waren nicht anfangs tolerabel und sind ueber Nacht wieder abgesackt. AMD ist gerade dabei Hemlock fertigzustellen und man braucht verstaendlicherweise 2 cypress chips fuer jedes SKU.

Die Evergreen Treiber sind momentan alles andere als zu 100% ausgereift und wer sich denkt dass sie nicht besonders viel an den EG Treibern geaendert haben (dank RV7x0 Verwandschaft) sollte noch ein bisschen ausfuehrlicher in den Treibern herumbuddeln. Die Treiber wurden von Grund auf fuer die EG Linie geschrieben und ihre Unreifheit zeigt mir dass man unter extremem Zeitdruck lag und nicht irgend ein gelassener Spaziergang. Kleinere bugs die RV7x0 betreffen sind nicht mehr auf EG zu finden und genau das umgekehrte.

***edit: was jetzt GF100 betrifft gibt es nicht besonders viel zu sagen wenn sich das Veroeffentlichungsdatum konstant um einige Wochen verschiebt. Wie oben schon erwaehnt momentan liegt das Ziel kurz vor Weihnachten....

Menace
2009-10-28, 14:05:22
Ich brauch keine idiotischen Entschuldigungen warum es mit GF100 so lange dauert die indirekt in solchen Turnerei-Artikeln angedeutet werden sondern eher eine ehrliche und anstaendige Entschuldigung erstmal seitens NV und dann allen anderen Webseiten warum angeblich A1 des GF100 schon seit Mai fertig gewesen sein soll.

Ich stimme Dir in diesem Wunsch zu (gleiches gilt für Ati (Verfügbarkeit, 2900XT, ...), AMD (TLB-Bug der 1. Version von Phenom), etc.). Allein der Wunsch wird nie wahr werden (zumindest nicht Zeitnah zum Geschehenen), da ein Aktienwert dran hängt. Da sind wichtige "Stimmungen" und andere esoterische Äußerungen wichtiger als ehrliche Worte.

Ailuros
2009-10-29, 08:49:52
Ich stimme Dir in diesem Wunsch zu (gleiches gilt für Ati (Verfügbarkeit, 2900XT, ...), AMD (TLB-Bug der 1. Version von Phenom), etc.). Allein der Wunsch wird nie wahr werden (zumindest nicht Zeitnah zum Geschehenen), da ein Aktienwert dran hängt. Da sind wichtige "Stimmungen" und andere esoterische Äußerungen wichtiger als ehrliche Worte.

Im gegebenen Fall von Theo wo BSN einige der wenigen Webseiten waren die ueber das angebliche A1 sehr frueh berichteten, wurde BSN von NV "bestraft" dass sie es erstmal veroeffentlicht haben.

Given our media coverage of GPU Technology Conference, you might ask yourself why we didn't attend the keynote nor the press conference in which we could actually see the card live. The simple reason for that was that nVidia barred BSN* from the keynote after we disclosed the architectural details on NV70/GT300 chip.

http://www.brightsideofnews.com/news/2009/10/15/jen-hsun-huang-pulls-a-180-degree-turn-in-100-days.aspx

LovesuckZ
2009-11-10, 22:20:39
Es gibt neue GTX285 (http://geizhals.at/deutschland/?cat=gra16_512&sort=p&bpmax=&asuch=gtx285&v=l&plz=&dist=&pixonoff=on&xf=) Karten im Handel. Soviel zu Charlie's Bullshit - oh und nVidia bestätigte in der Conference Call, dass sie zwischen 50-100 Millionen $ mehr hätten einnehmen können, wenn sie nur genug geordert hätten.

Sefegiru
2009-11-10, 22:23:20
Naja wenn man nichts anderes hat muss eben da noch mal was raus gehauen werden ;)

LovesuckZ
2009-11-10, 22:24:06
Naja wenn man nichts anderes hat muss eben da noch mal was raus gehauen werden ;)

Bei EOL? :D

mapel110
2009-11-10, 22:26:18
Die Preise sind aber neu. :eek:

StefanV
2009-11-10, 22:50:05
Tjo, 300€+ für so eine "uralte" Karte mit nicht mehr zeitgemäßer Performance.

FÜr 100€ weniger wär sie ja halbwegs interessant...

PulsarS
2009-11-10, 22:57:00
Es gibt neue GTX285 (http://geizhals.at/deutschland/?cat=gra16_512&sort=p&bpmax=&asuch=gtx285&v=l&plz=&dist=&pixonoff=on&xf=) Karten im Handel. Soviel zu Charlie's Bullshit - oh und nVidia bestätigte in der Conference Call, dass sie zwischen 50-100 Millionen $ mehr hätten einnehmen können, wenn sie nur genug geordert hätten.
Bei den Preisen will die Karten eh niemand mehr haben, deswegen war das noch lange kein Bullshit von Charlie.
Man kann auch eine "Scheinverfügbarkeit" erzeugen, wenn man die Preise unrealistisch hoch ansetzt...

Gast
2009-11-10, 23:00:36
Bei den Preisen will die Karten eh niemand mehr haben, deswegen war das noch lange kein Bullshit von Charlie.
Man kann auch eine "Scheinverfügbarkeit" erzeugen, wenn man die Preise unrealistisch hoch ansetzt...
Achso, das gilt nur, wenn es AMD macht. Z.b. mit der 5870?

Die ist demnach scheinverfügbar, weil hohe Preise.
Ok, ein Punkt stimmt nicht, die Dosen der 5870 reichen trotz der hohen Preise nicht annähernd für einen solch großen Lagerbestand.

LovesuckZ
2009-11-10, 23:12:14
Wow, jetzt zwingt nVidia die Einzelhändler schon die GTX285 Karten zu hohen Preisen zu verkaufen, um eine "Scheinverfügbarkeit" vorzugaukeln. Die müssen echt viel Macht haben.

Gast
2009-11-10, 23:18:33
Vielleicht waren die Händler auch einfach so blöd Ladungen neuer GTX 285 zu hohen Preisen zu kaufen. Jetzt bleibt denen nichts anderes übrig, als diese Preise an die Kunden weiterzugeben.

Klingt logisch, den die Händler kaufen gerne in großen Mengen Produkte zu hohen Preisen, um ihr Kapital dann dank zu hoher Preise langsam Regal verbrennen zu sehen.

Erinnert mich an die Banken, die sollen auch riesige Öfen haben, in denen jeder Mitarbeiter tagtäglich Tonnen an Altgeld hineinkarrt.

PulsarS
2009-11-10, 23:38:54
Achso, das gilt nur, wenn es AMD macht. Z.b. mit der 5870?

Die ist demnach scheinverfügbar, weil hohe Preise.
Ok, ein Punkt stimmt nicht, die Dosen der 5870 reichen trotz der hohen Preise nicht annähernd für einen solch großen Lagerbestand.
Du hast es voll erfasst, wo der Unterschied liegt..
Die 5870 wollen viele haben, deswegen kaum verfügbar.
Und TMSC kommt mit der Produktion einfach nicht nach, weil die Karten so gefragt sind.
Bei der 285 ist es anders.
Bei dem hohen Preis will die doch eh niemand haben, weil es bessere Alternativen gibt.

Das sollte man aber (IQ ab ca. 100 vorausgesetzt) schon aus meinem vorhergehendem Beitrag deuten können ;)

Gast
2009-11-11, 00:01:00
Bei dem hohen Preis will die doch eh niemand haben, weil es bessere Alternativen gibt.


Es gibt genug Leute die legen etwas mehr Geld auf den Tisch wenn die Qualität passt.

PulsarS
2009-11-11, 00:03:31
Es gibt genug Leute die legen etwas mehr Geld auf den Tisch wenn die Qualität passt.
Was meinst du?
Ohne SGSSAA und DX11 ist die 285 nicht mehr konkurrenzfähig.

Gast
2009-11-11, 00:07:55
Was meinst du?
Ohne SGSSAA und DX11 ist die 285 nicht mehr konkurrenzfähig.

Und wo gibt es diese tollen DX11 Karten lieferbar? GTX285 kann man kaufen :)

PulsarS
2009-11-11, 00:13:37
Und wo gibt es diese tollen DX11 Karten lieferbar? GTX285 kann man kaufen :)
Das ändert sich täglich, also wäre ein Link nichts wert.
Ich kann nur auf die Umfrage verweisen:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=469276
Scheinen ja schon ein paar Leute die 5000er zu haben...
knapp 10%, immerhin. :)

Coda
2009-11-11, 00:14:56
SGSSAA wird nur bald schon kein Argument mehr sein können bei vielen neuen Titeln. Treibertechnisch ist das kein großes Thema. Auch nicht auf der GTX 285.

Ihr dürft auch nicht vergessen, dass NVIDIA schon OGSSAA+MSAA bietet. Da ist die BQ dann auch nicht schlechter. Supersampling ist bei neueren Titeln eh fast unbrauchbar, und die Titel die zwar mit SGSSAA vernünftig laufen, aber mit OGSSA+MSAA nicht dürfte verschwindend gering sein.

PulsarS
2009-11-11, 00:17:59
SGSSAA wird nur bald schon kein Argument mehr sein können bei vielen neuen Titeln.
Zum Glück gibt es noch genug alte Titel, die viele neuere Titel alt aussehen lassen, was das Gameplay angeht.

Aber du meinst doch sicherlich, dass man ab DX10 AA über das Spiel anfordern muss, oder?

Gast
2009-11-11, 00:18:39
Das ändert sich täglich, also wäre ein Link nichts wert.
Ich kann nur auf die Umfrage verweisen:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=469276
Scheinen ja schon ein paar Leute die 5000er zu haben...
knapp 10%, immerhin. :)

Das interessiert vieleicht deinen Friseur. Es geht um die Lieferbarkeit und die ist bei Ati die reinste Katastrophe, das müsst ihr Ati Fans mal lernen nicht immer alles schön zu reden was nicht schönzureden ist Punkt

Coda
2009-11-11, 00:19:03
Zum Glück gibt es noch genug alte Titel, die viele neuere Titel alt aussehen lassen, was das Gameplay angeht.
Wie gesagt, ist OGSSAA+MSAA auch nicht schlechter als was man auf der HD 5000 bekommt. Schon seit spätestens G80.

Aber du meinst doch sicherlich, dass man ab DX10 AA über das Spiel anfordern muss, oder?
Ja. Und D3D11 wird wohl einen großen Zuspruch finden durch die Fallback-Möglichkeiten.

Der einzige Grund dann noch D3D9 zu verwenden sind Konsolenports. Ich gebe aber zu, dass das in letzter Zeit natürlich sehr viele Titel sind.

PulsarS
2009-11-11, 00:26:40
Wie gesagt, ist OGSSAA+MSAA auch nicht schlechter als was man auf der HD 5000 bekommt.
Ok, grenzwertig.
Wobei die Sehgewohnheiten ja recht subjektiv sind, deswegen kein Einpruch von mir. :)

Coda
2009-11-11, 00:33:25
Ok, grenzwertig.
Was ist daran grenzwertig?

4xOGSSAA + 2xMSAA ist sowohl was die Textur/Shaderglättung als auch das EER gleichwertig zu 4xSGSSAA.

Der Vorteil von ATI ist da, dass das über AAA durchgeführte SGSSAA etwas kompatibler sein dürfte was Postprocessing angeht.

PulsarS
2009-11-11, 00:42:24
Was ist daran grenzwertig?

4xOGSSAA + 2xMSAA ist sowohl was die Textur/Shaderglättung als auch das EER gleichwertig zu 4xSGSSAA.
Bist du dir bei der Shaderglättung sicher?
Weil das war der Punkt, wo ich mir unsicher war.

Da die 5800 absolut winkelunabhängig (AF) filtern kann, dürfte sich trotzdem ein minimaler Vorteil für die 5000er ergeben.

Das AF wollen wir ja nicht außen vor lassen.
Und wie Raff schon bemerkt hat, ist ab 2xSGSSAA das minimal schlechtere AF der ATIs (Samples) nicht mehr relevant.

PulsarS
2009-11-11, 00:49:52
Das interessiert vieleicht deinen Friseur.
Als Gast solltest du dir solche Kommentare vielleicht sparen, sonst kann es passieren, dass dein (provokativer) Beitrag spurlos verschwindet. (Siehe Forumsregeln)

Es geht um die Lieferbarkeit und die ist bei Ati die reinste Katastrophe, das müsst ihr Ati Fans mal lernen nicht immer alles schön zu reden was nicht schönzureden ist Punkt
Falls du mich als ATI-Fan ansprichst, dann bist du an der falschen Adresse.
Ich hatte sicherlich mehr Nvidia Grafikkarten im Rechner, als du überhaupt in deinem Leben.
Insgesamt gesehen würde ich mich eher (bei der Anzahl der verwendeten Karten) als Nvidia-Fanboy bezeichnen. ;)

Gast
2009-11-11, 00:50:38
Hinzu kommt das Nvidia deutlich besser filtert auf HQ was sehr wichtig für DX10 Games ist die kein SSAA anbieten, weniger Probleme in zukünftigen Games dank besseren Treibersupport, offene Profile Single/MultiGPU, abschaltbare Tricksereien, sowie PhysX für zukünftige Schmankerl wie Mafia2 nicht missen möchte, der kauft halt weiter Nvidia Karten auch wenn sie nur DX10 unterstützen.

PulsarS
2009-11-11, 00:56:28
Hinzu kommt das Nvidia deutlich besser filtert auf HQ was sehr wichtig für DX10 Games ist die kein SSAA anbieten, weniger Probleme in zukünftigen Games dank besseren Treibersupport, offene Profile Single/MultiGPU, abschaltbare Tricksereien, sowie PhysX für zukünftige Schmankerl wie Mafia2 nicht missen möchte, der kauft halt weiter Nvidia Karten auch wenn sie nur DX10 unterstützen.
Wenn jemand auf veraltete Technik setzt, dann kann er sich ruhig eine Nvidia-Karte kaufen, kein Problem.
Wir als Kunde können entscheiden, ob wir die Entwicklung voranbringen wollen (DX11 - ATI) oder lieber stillstand (DX10 - Nvidia) haben wollen.
Ist jetzt natürlich eine Momentaufnahme.
Kann sich in ein paar Monaten wieder ändern. ;)

Gast
2009-11-11, 01:09:43
Wenn jemand auf veraltete Technik setzt, dann kann er sich ruhig eine Nvidia-Karte kaufen, kein Problem.

Dafür gibts ausgereifte Treiber, sehr guten Gamessupport für die ohnehin immer weniger guten Games die sich innerhalb eines Jahres erscheinen ;). Das ist dann die andere Seite der Medaille. Neue Technik auf dem Papier davon hat man wenig...

PulsarS
2009-11-11, 01:13:14
Dafür gibts ausgereifte Treiber, sehr guten Gamessupport für die ohnehin immer weniger guten Games die sich innerhalb eines Jahres erscheinen ;). Das ist dann die andere Seite der Medaille. Neue Technik auf dem Papier davon hat man wenig...
Wenn man keine Ahnung hat... sonst würde man nicht als Gast schreiben.

Gast
2009-11-11, 01:20:58
Wenn man keine Ahnung hat... sonst würde man nicht als Gast schreiben.

Dir gehn wohl langsam die Argumente aus? Eigentlich sollte dir bekannt sein wie schwer es DX10 hatte sich durchzusetzen, was wurden nicht für Versprechungen gemacht, alles Märchen ob es mit DX11 genauso läuft wird man sehen, aber derzeit verbietet es sich DX11 als Kaufargument anzupreisen.

boxleitnerb
2009-11-11, 01:52:06
DX11 hat einen entscheidenden Vorteil: Die Akzeptanz von Windows 7.

Dass Radeons bei manch neuerem Spiel anfangs mehr Probleme machen als Nvidia stimmt schon. Viele sind es ja nicht, aber eine Tendenz ist zu erkennen.

Coda
2009-11-11, 02:03:24
Bist du dir bei der Shaderglättung sicher?
Ja.

Da die 5800 absolut winkelunabhängig (AF) filtern kann, dürfte sich trotzdem ein minimaler Vorteil für die 5000er ergeben.
Die Auswirkungen der miniminimalst "besseren" Winkelunabhängig sind exakt NULL. Hab ich im RV870-Thread schon genügend dazu geschrieben. Man sieht nichtmal einen Unterschied zwischen RV870- und RV770-AF was das angeht.

Das AF wollen wir ja nicht außen vor lassen.
Und das ist bei NVIDIA HQ immer noch deutlich besser als alles was HD5000 liefern wird. Es ist absolut lächerlich da mit der Winkelunabhängigkeit zu argumentieren.

Und wie Raff schon bemerkt hat, ist ab 2xSGSSAA das minimal schlechtere AF der ATIs (Samples) nicht mehr relevant.
Natürlich ist das relevant, da man dann mit Supersampling das LOD nicht so negativ setzen kann wie es eigentlich gehen würde.

Gast
2009-11-11, 02:08:34
DX11 hat einen entscheidenden Vorteil: Die Akzeptanz von Windows 7.

Es hat aber nichts mit DX11 zu tun, davon etwas ableiten zu wollen das DX11 sich schneller durchsetzt ist weit hergeholt.

Dass Radeons bei manch neuerem Spiel anfangs mehr Probleme machen als Nvidia stimmt schon. Viele sind es ja nicht, aber eine Tendenz ist zu erkennen.

Eben, Nvidia investiert und ist allgemein Böse und die armen Kanadier spielen das unschuldige Lamm und die Tendenz zeigt sich dann in diversen Foren.

Coda
2009-11-11, 02:09:55
DX11 gibt es auf Vista und Windows 7, und es unterstützt vor allem einen Fallback für D3D10- und D3D9-Karten bis runter zu SM2.0

Deswegen kann man sehr wohl davon ausgehen, dass Entwickler das sehr viel eher einsetzen werden als D3D10 auf der schwachen Vista-Basis.

Gast
2009-11-11, 02:14:31
Zweckentfremden ist vieleicht der bessere Ausdruck da werden paar neue Effekte dazugepappt und das wars dann auch, bevor es richtige Vorteile durch DX11 gibt wird noch viel Zeit vergehn, der Markt ist satt es fehlen einfach die richtigen Innovationen.

Coda
2009-11-11, 02:16:09
Wieso "zweckentfremden"? D3D11 ist auch für D3D10- und D3D11-GPUs die bessere und schnellere API.

D3D11 wird höchstens durch Tesselation irgendwelche sichtbaren Vorteile bringen, der Rest kann aus Prinzip alles auch mit D3D10 erledigt werden (abgesehen von Double Precision, aber das ist in Spielen sowieso irrelevant).

Wir müssen uns wohl oder übel davon lösen, dass DX-Versionssprünge unmittelbar sichtbar sein werden.

PulsarS
2009-11-11, 02:25:02
Ja.
Ich glaube nein.
Wie kann Ordered Grid genauso gut funktionieren, wie Sparsed Grid?
Die Kanten (MSAA) mal außen vor, denn das wird seid Ewiggeiten als sprsed grid berechnet.
Ich meine die Shader.

Die Auswirkungen der miniminimalst "besseren" Winkelunabhängig sind exakt NULL. Hab ich im RV870-Thread schon genügend dazu geschrieben. Man sieht nichtmal einen Unterschied zwischen RV870- und RV770-AF was das angeht.

Und das ist bei NVIDIA HQ immer noch deutlich besser als alles was HD5000 liefern wird. Es ist absolut lächerlich da mit der Winkelunabhängigkeit zu argumentieren.

Dann musst du wohl an einer Warnehmungsschwäche leiden, die mir nicht weiter bekannt ist.
Es gibt genug Reviews, die das Gegenteil belegen.
Oder hältst du dich für den allwissenden Gott und alle anderen irren?
(Die Beispiele werde ich morgen auf der Arbeit aussuchen)


Natürlich ist das relevant, da man dann mit Supersampling das LOD nicht so negativ setzen kann wie es eigentlich gehen würde.
Doch, man kann es.

Coda
2009-11-11, 02:31:13
Wie kann Ordered Grid genauso gut funktionieren, wie Sparsed Grid?
Es geht nicht um Kanten. Innerhalb eines Dreiecks spielt das EER keine Rolle, weil es keine unendlich hohen Frequenzübergang gibt. Texturen können kontinuierlich abgetastet werden.

Es gibt genug Reviews, die das Gegenteil belegen.
Was belegen? Die Winkelunabhängigkeit ist GANZ SICHER NICHT sichtbar besser geworden. Und schon gar nicht sichtbar besser als bei einer NVIDIA-Karte (G80+). Wer das behauptet hat es nicht verstanden.

Bei sowas werd ich echt pampig. Wenn die Reviewer nicht wissen was sie schreiben, sollten sie sich die angeblichen "Belege" in den Arsch schieben.

Oder hältst du dich für den allwissenden Gott und alle anderen irren?
Nachdem ich das (http://www.3dcenter.org/3dtools/filter-tester) programmiert hatte, kann ich wohl davon ausgehen, dass ich ziemlich genau verstanden habe was bei AF wichtig ist und wie es funktioniert ;)

Doch, man kann es.
Ja, kann man, dann flimmert es aber potentiell doch wieder, weil nicht genügend abgetastet wird. Das kann ich dir mathematisch belegen.

Gast
2009-11-11, 02:33:10
Wieso "zweckentfremden"? D3D11 ist auch für D3D10- und D3D11-GPUs die bessere und schnellere API.

Besser und schneller, nur wieviel kommt davon wirklich an? Werden genug neue Effekte eingesetzt braucht es doch meist wieder schnellere Karten die keiner hat. Wo bleibt da also der Nutzen? Mit zweckentfremden mein ich das DX9 Effekte künstlich weggelassen werden um eine neue DX Generation zu rechtfertigen.

Coda
2009-11-11, 02:37:11
Das ist schon wieder so eine Metadiskussion die kein Ende haben kann.

Gast
2009-11-11, 02:39:32
Das ist schon wieder so eine Metadiskussion die kein Ende haben kann.

Die Beispiele zeigen es doch. Crysis, Farcry2...aber Recht hast du

Coda
2009-11-11, 02:41:11
Far Cry 2 ist ein schlechtes Beispiel, denn das wurde von vornherein auf D3D10 ausgelegt, und läuft darauf dann auch dementsprechend deutlich besser.

PulsarS
2009-11-11, 02:45:54
Es geht nicht um Kanten. Da spielt das EER keine Rolle, weil es keine unendlich hohen Frequenzübergang gibt.
Du hast nicht auf meine Frage geantwortet.


Was belegen? Die Winkelunabhängigkeit ist GANZ SICHER NICHT sichtbar besser geworden..
Doch, ist sie.

Und schon gar nicht sichtbar besser als bei einer NVIDIA-Karte (G80+). Wer das behauptet hat es nicht verstanden..
Doch.


Nachdem ich das (http://www.3dcenter.org/3dtools/filter-tester) programmiert hatte, kann ich wohl davon ausgehen, dass ich SEHR genau verstanden habe was bei AF wichtig ist und wie es funktioniert.
Du bist aber nicht der einzige... ;)


Ja, kann man, dann flimmert es aber potentiell doch wieder, weil nicht genügend abgetastet wird. Das kann ich dir mathematisch belegen.
Dann leg mal los.
Screenshots (Videos) aus aktuellen Spielen wären auch nicht schlecht, um deine Behauptung zu untermauern.
Ich glaube kaum, dass dir das gelingt.

Coda
2009-11-11, 02:47:33
Nein, sie ist nicht besser geworden, sonst würdest du hier einen Unterschied sehen MÜSSEN:
http://mental-asylum.de/files2/aftest.png

Eine Seite ist komplett winkelunabhängig gefiltert, die andere RV770 (schlechter! als G80). Wenn dir das nicht reicht, kannst du mit einem Kaktus diskutieren. Einwandfreier kann man das gar nicht belegen. Mir wird meine Zeit langsam zu schade.

Und es ist auch egal wie die Geometrie angeordnet ist. In dem Bild werden alle möglichen Fälle dargestellt. Die TMU weiß genauer gesagt überhaupt nichts von Geometrie wenn sie AF anwendet.

Du hast nicht auf meine Frage geantwortet.
Hallo? Geht's noch?
Ich habe dir sehr wohl den Grund dafür gesagt, warum das EER innerhalb Dreiecken keinen Unterschied macht. Wenn du es nicht verstehen kannst, kann ich auch nichts machen.

Du bist aber nicht der einzige... ;)
http://www.opengl.org/registry/specs/EXT/texture_filter_anisotropic.txt kannst dir ja mal Absatz 3.8.5 von einem erklären lassen. Und das ist nur die einfache Variante.

Dann leg mal los.
Die maximale Frequenz des abzutastenden Signals darf nur halb so groß sein wie die der Abtastfrequenz (Nyquist-Shannon)

Wenn man das LOD nach der korrekten Formel verschiebt (-1 für 4xSGGAA) ergibt sich eine doppelt so hohe Abtastfrequenz bei doppelt so hoher Signalfrequenz. Der Texturfilter tastet also immer noch im exakt gleichen Verhältnis zu wenig ab wie vorher. Q.e.d.

Das Problem verschiebt sich nur nach hinten, so wie bei einer höheren Auflösung auch.

=Floi=
2009-11-11, 04:34:38
ich kann auf dem bild echt keinen unterschied sehen. :confused:

Coda
2009-11-11, 04:48:52
Natürlich nicht. Weil es praktisch keinen gibt.

reunion
2009-11-11, 07:41:05
Nein, sie ist nicht besser geworden, sonst würdest du hier einen Unterschied sehen MÜSSEN:
http://mental-asylum.de/files2/aftest.png


Oh, genau der Herr der sonst immer mit mathematischer Genauigkeit und sonstigen Späßen kommt will uns jetzt mit einem Screen überzeugen das es nicht besser ist. Es ist besser geworden, das ist erstmal Fakt. Wo und ob man das wahrnimmt ist eine ganz andere Geschichte. Warum habe ich nur wieder mal das Gefühl das bei einer umgekehrten Situation zugunsten NVs das für dich sehr wohl ein Argument wäre?


Eine Seite ist komplett winkelunabhängig gefiltert, die andere RV770 (schlechter! als G80). Wenn dir das nicht reicht, kannst du mit einem Kaktus diskutieren. Einwandfreier kann man das gar nicht belegen. Mir wird meine Zeit langsam zu schade.


Man sieht definitiv Unterschiede wenn man sich die betreffenden Stellen herausschneidet und ev. noch herauszoomt. Aber das wurde alles schon besprochen. Viel interessanter als dieser Vergleich wäre im übrigen ein Vergleich RV770 vs. RV870 oder G8x vs. RV870. Das der RV770 Shot hier auch bei kritischen Winkel gut wegkommt dürfte nicht zuletzt an der Unterfilterung liegen. Dein mathematisch korrekt berechnetes AF kommt in der Praxis ja nicht vor.

Ailuros
2009-11-11, 07:43:47
Wie kam die Debatte in diesem Thread ploetzlich auf Bildqualitaet? Wie dem auch sei....

PulsarS,

Falls Du die Winkelabhaengigkeit bei 45 gradigen Winkeln bei AF meinen solltest, ich hab selber schon mehr als nur einmal gesagt dass es mir ziemlich selten vorgekommen ist dass ich in Echtzeit einen Unterschied sehen kann. Natuerlich gibt es andere Meinungen dazu, aber die einzige Stelle wo ich einen Unterschied wirklich auf Anhieb sehen konnte war bei einem flight sim und ich brauchte auch einige Zeit bis ich es schaffte das Flugzeug so zu wenden dass man auch etwas sieht und selbst dann muss man sich auf einer so geringen Flughoehe befinden damit man nicht in den naechsten Berg reinknallt.

Was jetzt AA betrifft: zweifellos ist objektiv gesehen rotated grid Supersampling in der Mehrzahl der Faelle effektiver als ordered grid Supersampling. Aber wenn ich schon auf einer GeForce zu nHancer greifen muss um SSAA erstmal einzuschalten und ich natuerlich so viel Leistung uebrig habe um erstmal SS zu benutzen greif ich wohl eher zu etwas wie 16xS als 4xOGSS fuer aeltere Spiele und ich hab in dem Fall einen hoeheren EER als 4xRGSS, aber wenn ich persoenlich zu Supersampling greife dann hauptsaechlich um die negative LOD-Verschiebung auszunutzen auf Texturen.

Dennoch wenn der Treiber dank Optimierungen bei AF unterfiltert (brilinear statt trilinear wo immer die Applikation trilinear vorraussetzt) wird es zwar durch Supersampling etwas besser, aber jegliche Grundfilter-bedingte Nebeneffekte sind nicht so sauber beseitigt wie mit vollem trilinear. Da ich die Chance hatte ein bisschen mit einer 5850 herumzuspielen, sah es nicht danach aus als ob ein -1.0 LOD offset stets die bestmoegliche Loesung war. Wenn ich aber den LOD offset teilweise weglasse entfaellt bei mir persoenlich auch erstmal der Grund Supersampling zu benutzen.

Oh, genau der Herr der sonst immer mit mathematischer Genauigkeit und sonstigen Späßen kommt will uns jetzt mit einem Screen überzeugen das es nicht besser ist. Es ist besser geworden, das ist erstmal Fakt. Wo und ob man das wahrnimmt ist eine ganz andere Geschichte. Warum habe ich nur wieder mal das Gefühl das bei einer umgekehrten Situation zugunsten NVs das für dich sehr wohl ein Argument wäre?

Fuer mich persoenlich eben nicht. 45 gradige Winkelabhaengigkeit hat mich persoenlich nie besonders gestoert, egal auf welcher GPU. Natuerlich wurde diese Winkelabhaengigkeit entfert, aber jetzt musst Du mir aber auch erstmal erklaeren auf welchem Winkel ich mich beim gaming auf den Kopf stellen muss um jeglichen Unterschied erstmal zu entdecken. Hab ich persoenlich in der Vergangenheit seit R5x0 ueber die Winkelabhaengigkeit auf Radeons gemeckert? Wohl nicht. Kann man die AF Optimierungen unabhaengig heute abstellen? Wohl nicht. Ergo wurde das eigentliche Wehwehchen nicht beseitigt obwohl es sich nur um einen albernen switch im Treiber handelt.

Man sieht definitiv Unterschiede wenn man sich die betreffenden Stellen herausschneiden und ev. noch herauszoomt. Aber das wurde alles schon besprochen. Viel interessanter als dieser Vergleich wäre im übrigen ein Vergleich RV770 vs. RV870 oder G8x vs. RV870. Das der RV770 Shot hier auch bei kritischen Winkel gut wegkommt dürfte nicht zuletzt an der Unterfilterung liegen.

Dann macht es gefaelligst auf einer 8x vs. 8xAF Basis. Denn die 16xAF Implementierung seit G8x ist mir persoenlich zu merkwuerdig was die mipmap Distribution betrifft.

Coda
2009-11-11, 08:14:04
Oh, genau der Herr der sonst immer mit mathematischer Genauigkeit und sonstigen Späßen kommt will uns jetzt mit einem Screen überzeugen das es nicht besser ist. Es ist besser geworden, das ist erstmal Fakt. Wo und ob man das wahrnimmt ist eine ganz andere Geschichte. Warum habe ich nur wieder mal das Gefühl das bei einer umgekehrten Situation zugunsten NVs das für dich sehr wohl ein Argument wäre?
Mach dich nicht lächerlich. Wenn es in so einem synthetischen Fall nicht sichtbar ist, kann es das in keinem Spiel der Welt sein.

Das ist auf dem Papier wichtig, sonst aber genau nirgends. Und wird es auch nie sein. Die Flimmerneigung sieht jeder Depp wenn er weiß wo man hinschauen kann. Das hier könnte nicht eimal ich auf Anhieb auseinander halten, und schon gar nicht in einer Real-Life-App.

Vor allem ggü. dem G80-AF ist das ja echt schon pure Comedy. Weltniveau.

Nochmal zum mitschreiben: Du behauptest ernsthaft *gnihihi* dass ATI mit RV870 *in Spielen* eine sichtbar bessere Gradientberechnung vorweisen kann als NVIDIA? Nein, eigentlich braucht man das *in Spielen* gar nicht zu nennen, da kann man nichtmal *synthetisch* einen Unterschied feststellen solange man die Mips nicht einfärbt. In keinem Blindtest der Welt.

Man sieht definitiv Unterschiede wenn man sich die betreffenden Stellen herausschneidet und ev. noch herauszoomt.
Das kann doch unmöglich dein Ernst sein *facepalm*

Und hör mir auf mit dem "du und dein NVIDIA"-Gerede. Es geht um meine Meinung, und die wird nur davon beeinflusst was jemand abliefert und was nicht. AMD versaut es sich seit Jahren öfters mit mir. Ihr Pech.

Denn die 16xAF Implementierung seit G8x ist mir persoenlich zu merkwuerdig was die mipmap Distribution betrifft.
Wie bitte?

Das der RV770 Shot hier auch bei kritischen Winkel gut wegkommt dürfte nicht zuletzt an der Unterfilterung liegen.
Die Unterfilterung ist bei jedem Winkeln gleichermaßen vorhanden. Zieht nicht. Und schon gar nicht ggü. NV-AF.

Dein mathematisch korrekt berechnetes AF kommt in der Praxis ja nicht vor.
Seit wann ist das meine Mathematik? Der Satz zeigt mir nur mal wieder wie ignorant Menschen sein können. Was man nicht versteht darf man einfach ignorieren oder wie?

Ich meine hey, ich hab ja nur selber rausgefunden wie die optimale Gradientenberechnung durchzuführen ist weil das *nirgends* steht. Nicht irgendwo im Internet. Kein IHV rückt damit raus. Das einzige was dokumentiert ist, ist R200-Style. Aber stimmt, meine Aussagen bzgl. AF sind natürlich aus Prinzip nicht stichhaltig und ich tu ja auch nur so als würde ich das ganze verstehen. Der Shader hat sich auch selbst geschrieben.

Und zu deiner Information: Ich habe mich damals sehr über das sehr gute R520-AF gefreut, trotz noch viel obskurerer Gradientenberechnung. Kleiner Abweichungen dort sind einfach fast unsichtbar.

Das ganze ist eh ziemlich surreal konstruiert von dir. Das wäre schon bewusst gelogen, weil ich es einfach besser wissen müsste.

Ailuros
2009-11-11, 08:20:16
Wie bitte?

http://users.otenet.gr/~ailuros/AFqnitpicks.pdf

Ja bitte :P Die erste rote mipmap bei 16xAF/HQ ist mir zu gross.

Coda
2009-11-11, 08:23:43
Kann eigentlich nicht sein, zumindest bei den 90° Winkeln muss die übereinstimmen mit der Referenzimplementierung, sonst wäre etwas völlig im Eimer mit der LOD-Kalkulation.

Mir ist auch nie was aufgefallen in der Hinsicht. Sehr unwahrscheinlich dass ich das übersehen konnte. Habe lang genug auf die Blumen gestarrt ;)

Ailuros
2009-11-11, 08:29:33
Kann eigentlich nicht sein, zumindest bei den 90° Winkeln muss die übereinstimmen mit der Referenzimplementierung, sonst wäre etwas völlig im Eimer mit der LOD-Kalkulation.

Ich schau es mir nochmal an heute nachmittag zu Hause denn der Vergleich im pdf ist zugegeben auch uralt. Du kannst es ja in zwischenzeit auch selber mit einer =/>G8x vergleichen.

Coda
2009-11-11, 08:30:25
Die Bilder in dem PDF sind vor allem ziemlich unbrauchbar ;)

Ailuros
2009-11-11, 08:35:19
Die Bilder in dem PDF sind vor allem ziemlich unbrauchbar ;)

Dass die originalen shots nach unten skaliert und komprimiert sind werde ich zwar nicht bezweifeln, aber es aendert kein bisschen etwas an der mipmap Distribution in diesem Fall.

Coda
2009-11-11, 08:36:20
Es ändert auch nichts daran, dass das mit ziemlicher Sicherheit eh nicht stimmt dass da was krumm ist ;)

Hier im Vergleich ist das doch exakt gleich wie bei R600/RV770:
http://www.computerbase.de/bildstrecke/17374/102/
http://www.computerbase.de/bildstrecke/17374/108/

Was soll da also komisch sein?

Die Farbe ergibt sich ja auch nicht aus der Distanz, sondern aus der Verzerrung und Länge der Gradienten und die nimmt nach vorne immer langsamer ab in so einer Szene. Das hat schon alles seine Richtigkeit.

Ailuros
2009-11-11, 09:09:47
Ich dachte ein paar Posts weiter oben dass es nicht so sein kann. Ich hab nie behauptet dass etwas nicht stimmt, lediglich dass mir in Echtzeit persoenlich 8xAF besser zusteht.