PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GT400/GF100 - Q1/2010, DX11, CUDA 3.0


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 [53] 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75

Botcruscher
2010-02-26, 19:05:52
Charlie meint ja auch, dass an den Fermiproblemen Nvidia schuld hat und an den ATI-Probleme TSMC - komisch, Nvidia fertigt doch auch bei TMSC?!:confused:

Die Aussagekraft dieses Gerüchtes hängt von der Fehlerursache ab. Einige Quellen sprechen von "Designproblemen" bei NV, jenseits des Yieldproblems bei TSMC. Was da wirklich dran ist werden wir so schnell nicht erfahren.

Black-Scorpion
2010-02-26, 19:16:51
Unterschied zwischen Design und Fertigungsproblemen?

hätte doch mal f5 drücken sollen. ;)

Gast
2010-02-26, 19:32:05
Naja "Insider" Charlie hat schon Ende Juli geunkt, dass das mit dem damaligen 40nm Prozess nichts innerhalb von 2009 wird.
So gesehen glaubten da nur Fantasten daran, die dachten, dass sich die 40nm Probleme bis Ende 09 in Luft und Glückseligkeit auflösen ... :freak:
Oder halt Leute, die Charlie nicht glaubten ^^

Ein Grund sind die Yields ein andere die Yields der 512SP Chips, ein Fehler/Missgeschick im Design hat nix mit den Problemen von TSMC zu tun. Aber man liest ja eh nur das was man nicht kapiert...

OgrEGT
2010-02-26, 20:05:16
Nehmen wir mal an die GTX 480 ist so schnell/schneller als die Dualkarte von ATI. Dann wird der Preis in Richtung 700 Teuronen gehen. (Beste Singlekarte, Keine Microstutter, PhysX etc pepe). Das heisst ATI wird einen Teufel tun und mit dem Preis runter gehen. So wirds wahrscheinlich dann aussehen...

Was möglicherweise so eintreffen wird.
Jedoch ist auch denkbar, dass AMD/ATI den Preis dennoch ein wenig senken könnte, um so noch mehr Kunden gerade zum Zeitpunkt des Fermi Launches zum Kauf eines eigenen Produkts zu bewegen.

Immerhin laufen die Geschäfte mit der HD 5xxx Serie seit geraumer Zeit, so dass sich dies vielleicht rechnen könnte.

Zudem muss ja möglicherweise das Preisgefüge ein wenig nach unten geschoben werden, da die kommenden HD5870 Eyefinity und HD5870 2GB ebenfalls preislich einsortiert werden müssen.

--- Reinste Spekulation ---

Bucklew
2010-02-26, 21:16:22
Die Aussagekraft dieses Gerüchtes hängt von der Fehlerursache ab. Einige Quellen sprechen von "Designproblemen" bei NV, jenseits des Yieldproblems bei TSMC. Was da wirklich dran ist werden wir so schnell nicht erfahren.
Ein Designfehler kann durchaus auch Schuld von TSMC sein, wenn die den entsprechenden Fehler falsch eingeschätzt haben. Grundsätzlich glaube ich diese Gerüchte allerdings nicht, so blöd ist Nvidia ja auch nicht. Und wie so oft kommen solche Gerüchte meist nur aus einer Quelle und werden 100x abgeschrieben.

Gast
2010-02-26, 21:45:27
Sag mal kommst du auch mal auf die Idee, dass NV einfach nicht perfekt ist und durchaus auch mal Fehler macht. Für dich ist ja anscheinend alles möglich außer das NV schuld an irgendwelchen Problemen bei GF100 ist.

mapel110
2010-02-26, 21:50:59
http://www.brightsideofnews.com/news/2010/2/26/asus-to-introduce-dual-fermi-on-computex-2010.aspx
Given our natural curiosity, we asked our sources at ASUS is there a chance to see a Dual-GT300/GF100/Fermi based board on Computex Taipei 2010. As you might imagine, we expected an answer in the lines of "no comment," "wait and see," or something similar. Instead, we received one quite interesting answer: "Hopefully. They [we take this refers to ASUS Engineering team] didn't got farther than engineering drawings."

Computex ist meist Anfang Juni.

igg
2010-02-26, 21:54:39
Ich vermute mal, GF104 und GX2 (2x GF104?) launchen gleichzeitig im Juni.

mapel110
2010-02-26, 21:59:33
Für Dualchip muss es schon GF100 sein. Alles andere macht keinen Sinn.

Gast
2010-02-26, 22:05:37
Also der 26., oder wars der 27. März ist ja jetzt schon seitens Nvidia bestätigt (hardlaunch) oder? Also trinken wir bis dahin weiterhin unser Tee. GTX 480 Karten sollen nicht massig verfügbar sein (teuer) und 470 soll massig verfügbar sein. Soweit ist das doch Fakt, oder?

Sorkalm
2010-02-26, 22:06:33
Für Dualchip muss es schon GF100 sein. Alles andere macht keinen Sinn.

Wenn GF104 deutlich mehr Leistung pro Watt bringt und auch absolut von der Performance GF100 nahe ist, vielleicht schon. Letzteres kann ich mir zwar überhaupt nicht vorstellen, allerdings klangen ein paar Andeutungen zuletzt so.

Ail sagte z. B., dass GF104 mit der 5850 spielen kann, ja sogar leicht darüber liegt. Wenn GF100 dann nur zwischen 5870 und 5970 liegt, müsste der seine Taktziele echt verfehlt haben / echt viel zu viel Leistung aufnehmen, sonst stimmt da was nicht. Oder an irgendeinem der Gerüchte ist was faul.

Gast
2010-02-26, 22:12:03
Ja, GF104 soll über der 5850 liegen. Ich glaube Fermi wird echt der Burner. Preise leider auch:(

Gast
2010-02-26, 23:40:09
Ich vermute mal, GF104 und GX2 (2x GF104?) launchen gleichzeitig im Juni.

Das wäre aber nur sinnvoll wenn GF104 mehr als 1/2 GF100 ist.

Ansonsten liefert GF100 auf jeden Fall mehr Performance/Watt

Ailuros
2010-02-27, 07:08:38
1/2 Fermi ohne DP sollte eigentlich mit einem kleineren DIE realisierbar sein.

Nicht wenn man auf die Frequenzen drucken will ueberhaupt mit solchen ALUs.

***edit: anscheinend stimmen die 256SPs fuer GF104 schon und es ist tatsaeglich ein bisschen spaeter als GF100 geplant. Es wird 2 Varianten davon geben die volle 256SP Version und eine kastrierte 192SP Version. SI soll der Anzahl von SPs angepasst sein.

Und hier noch etwas zum spielen fuer diejenigen die es noch nicht gesehen haben: http://www.semiaccurate.com/2010/02/26/sweden-gets-world-exclusive-geforce-fermin-card/

http://forum.beyond3d.com/showpost.php?p=1398601&postcount=1952


******edit Nr.2: mit Ausnahme die 480 soll der Preisunterschied zwischen jeglicher GF100 vs. RV8x0 konkurrierender Variante bei ungefaehr jeweils 20% liegen.

=Floi=
2010-02-27, 09:39:50
wie sieht es mit einem richtigen 2d modus aus?

bekommen die karten den normalen VP 3.0, oder gibt es dort noch eine verbesserung?

igg
2010-02-27, 09:45:36
NUnd hier noch etwas zum spielen fuer diejenigen die es noch nicht gesehen haben: http://www.semiaccurate.com/2010/02/26/sweden-gets-world-exclusive-geforce-fermin-card/
Ich bin mir sicher, dass mindestens zwei davon nach Deutschland gehen, auch wenn Tombman dafür mit dem Auto nach Schweden fahrne muss ;)

Wie kann man überhaupt davon sprechen, dass Fermi 6 Monate zu spät ist?? Die können doch nicht ernsthaft erwartet haben, mit A1 im Okt. zu launchen?

Edit:
After couple of inquiries we found out that even though you can get estimated performance figures based on what partners are looking at right now, these are still not final as Nvidia is yet to give out a word about the final clocks of the GTX 470. The safest guess is that it will be around 20 to 25 percent faster than the Geforce GTX 285, which puts it somewhere between the HD 5850 and the HD 5870.

We also heard that even the cooler might also be changed and according to our info Nvidia hasn't officially talked about the price either. Nvidia is going to give its partners the final specs of the GTX 470 next week, probably on Monday, as some partners are certainly going to show the cards at Cebit.
http://www.fudzilla.com/content/view/17851/34/

Wenn jetzt auch Fud schreibt, dass die 470 nicht die 5870 schlägt, kann man denke ich davon ausgehen.

Tarkin
2010-02-27, 09:56:01
neues von Neliz ...

http://www.rage3d.com/board/showpost.php?p=1336180005&postcount=1702

"GTX4x0 will launch versus a comparable AMD part, with a ~25% price premium. They do not justify this price premium. Then again, this card will launch Next Month, and they will announce they will start selling it in about 4 months from now. We'll know a lot about "teh GF100!!11" in 5 days. So stay chill! (and be glad you bought a HD58x0 card half a year ago!) And hell, if AMD really feel like a riot, they might announce something.. oh.. let's say before March 26th."

Passt ins Bild. Die paar Chips im März und April werden erst mal "vergoldet" und dann gibts bis Juli/August nichts mehr (bzw. nur die paar zehntausend 470/480er die liegen bleiben weil sie sich wegen des Preisaufschlages fast nicht verkaufen lassen).

Gast
2010-02-27, 10:13:50
Edit:

http://www.fudzilla.com/content/view/17851/34/

Wenn jetzt auch Fud schreibt, dass die 470 nicht die 5870 schlägt, kann man denke ich davon ausgehen.

Aber GF104, ein halber GF100 soll die 5850 schlagen? Manche sollte mal ihre Logik überprüfen. Wenn die Aussagen der Partner stimmen, und davon kann man wohl ausgehen, dann liegt ein GF104 bestenfalls auf 5830/5770-Niveau.

Gast
2010-02-27, 10:17:56
Aber GF104, ein halber GF100 soll die 5850 schlagen? Manche sollte mal ihre Logik überprüfen. Wenn die Aussagen der Partner stimmen, und davon kann man wohl ausgehen, dann liegt ein GF104 bestenfalls auf 5830/5770-Niveau.
Du nimmst nicht Ernsthaft die Stellung eines beschnittenden GF100 und ziehst daraus Rückschlüsse auf einen vollen GF104. :fachepalm:

Gast
2010-02-27, 10:22:26
hips im März und April werden erst mal "vergoldet" und dann gibts bis Juli/August nichts mehr (bzw. nur die paar zehntausend 470/480er die liegen bleiben weil sie sich wegen des Preisaufschlages fast nicht verkaufen lassen).
480 wird sofort weggehen, daran besteht kein Zweifel. Egal ob 500€ oder 1000€.

Das die 470 vergoldet wird passt mal wieder überhaupt nicht. Siehe oben, 20% Preisunterschied zur Konkurrenz.
Das die Händler wie damals monatelang mit der HD5 abzocken ist denkbar, aber ich halte Nvidia nicht für so dumm, das sie sich den Gewinn entegehen lassen, damit sich die Händler freuen.

Gast
2010-02-27, 10:29:25
Du nimmst nicht Ernsthaft die Stellung eines beschnittenden GF100 und ziehst daraus Rückschlüsse auf einen vollen GF104. :fachepalm:

Wir sprechen von einem halben GF100. 256SPs. Du kannst ja gerne glauben das dieser alle Taktgrenzen sprengt und nur 10% unter einer 448SP GTX470 liegt, ich tue das nicht.

MoC
2010-02-27, 10:33:50
480 wird sofort weggehen, daran besteht kein Zweifel. Egal ob 500€ oder 1000€.

Das die 470 vergoldet wird passt mal wieder überhaupt nicht. Siehe oben, 20% Preisunterschied zur Konkurrenz.
Das die Händler wie damals monatelang mit der HD5 abzocken ist denkbar, aber ich halte Nvidia nicht für so dumm, das sie sich den Gewinn entegehen lassen, damit sich die Händler freuen.

Aha und wie sollen die das bewerkstelligen? Denkst die machen ihren eigenen Webstore oder NVStore auf?

Der Preis reguliert sich nach der Verfügbarkeit.
Wenn die 470 in Massen da ist, wird es auch einen näheren Preis zum UVP geben.
Wenn jeder Händler nur 5 Karten oder so bekommt, dann ist nunmal nen Aufschlag fällig, falls du in den Genuss einer GTX470 kommen willst.

Gast
2010-02-27, 10:42:57
NV kann nicht die Preise der Händler kontrollieren und von daher gehe ich aufgrund der wahrscheinlich doch eher schlechten Verfügbarkeit von kräftigen Aufschlägen der Händler aus.

Gast
2010-02-27, 10:46:25
Wir sprechen von einem halben GF100. 256SPs. Du kannst ja gerne glauben das dieser alle Taktgrenzen sprengt und nur 10% unter einer 448SP GTX470 liegt, ich tue das nicht.
Es wurden 5870 und 470 verglichen.

Du hast es nicht geschnalst, das die 5850 und 470 beschnitten sind.

...... - 480 -> voller GF100
5870 - 470 -> voller RV870 vs beschnittender GF100
5850 - 460 -> beschnittender RV870 vs voller GF104

Oh ja, GF100 und RV870 liegen im vollen Zustand nicht exakt beieinander.
Als Vergleich kannst du dir auch mal RV770 und G92 anschauen.

...... - 280 -> voller GT200
4870 - 260 -> voller RV770 vs beschnittender GT200
4850 - 250 -> beschnittender RV770 vs voller G92

igg
2010-02-27, 10:48:19
neues von Neliz ...

http://www.rage3d.com/board/showpost.php?p=1336180005&postcount=1702

"GTX4x0 will launch versus a comparable AMD part, with a ~25% price premium. They do not justify this price premium. Then again, this card will launch Next Month, and they will announce they will start selling it in about 4 months from now. We'll know a lot about "teh GF100!!11" in 5 days. So stay chill! (and be glad you bought a HD58x0 card half a year ago!) And hell, if AMD really feel like a riot, they might announce something.. oh.. let's say before March 26th."
Na immerhin wissen wir bald mehr.

Wie neliz angesichts der katastrophalen Qualitätsmängel der 5000 Serie (siehe hier (http://www.computerbase.de/forum/showthread.php?t=702995) und hier (http://www.computerbase.de/forum/showthread.php?t=706393)) diese empfehlen kann, kann ich nicht nachvollziehen.

Was ich aber nicht verstehe: "and they will announce they will start selling it in about 4 months from now". Soll das tatsächlich heißen, die Massenproduktion ist erst im Juni/Juli verfügbar? Bis dahin dürfte es B1 sein...

Gast
2010-02-27, 10:54:23
Aha und wie sollen die das bewerkstelligen? Denkst die machen ihren eigenen Webstore oder NVStore auf?

Der Preis reguliert sich nach der Verfügbarkeit.
Wenn die 470 in Massen da ist, wird es auch einen näheren Preis zum UVP geben.
Wenn jeder Händler nur 5 Karten oder so bekommt, dann ist nunmal nen Aufschlag fällig, falls du in den Genuss einer GTX470 kommen willst.
NV kann nicht die Preise der Händler kontrollieren und von daher gehe ich aufgrund der wahrscheinlich doch eher schlechten Verfügbarkeit von kräftigen Aufschlägen der Händler aus.
Nvidia kann die Preise gestalten.
Es ist vollkommen absurd davon auszugehen, das Nvidia Preise nimmt, bei einer Verfügbarkeit, die dafür sorgt das die Händler sich die Hände reiben.
Eher nimmt Nvidia höhere Preise und genau das wurde hier dementiert, es stehen die 20% und nicht mehr im Raum.

Entscheided euch.
Sind die 20% von Ailuros falsch? Dann sind höhere Preise denkbar.
Sind die 20% von Ailuros richtig? Dann sind höhere Preise nicht denkbar.

Die Händler haben nichts zu melden. Nvidia weiss wie viel sie bestellt haben.
Übrigens wurde nicht einmal belegt, das sie zu wenig bestellt haben. Dieser Vorwurf steht unbelegt im Raum und wird als Wahr angenommen.

Halten wir fest. Ihr glaubt Ailuros schreibt Mist in Form der 20% und ihr glaubt Nvidia sei vollkommen bekloppt in dem man den Profit den Händler überlässt und ihr glaubt das zuwenig GF100 bestellt wurden ohne es zu belegen.

Menace
2010-02-27, 10:58:59
@ Igg offtopic, daher:


Wie neliz angesichts der katastrophalen Qualitätsmängel der 5000 Serie (siehe hier (http://www.computerbase.de/forum/showthread.php?t=702995) und hier (http://www.computerbase.de/forum/showthread.php?t=706393)) diese empfehlen kann, kann ich nicht nachvollziehen.


;D Gott sei Dank kenne ich Kants Aufklärungsabsatz. "Aufklärung ist der Ausgang des Menschen aus seiner selbst verschuldeten Unmündigkeit. Unmündigkeit ist das Unvermögen, sich seines Verstandes ohne Leitung eines anderen zu bedienen. Selbstverschuldet ist diese Unmündigkeit, wenn die Ursache derselben nicht am Mangel des Verstandes, sondern der Entschließung und des Mutes liegt, sich seiner ohne Leitung eines anderen zu bedienen. Sapere aude! Habe Mut dich deines eigenen Verstandes zu bedienen! ist also der Wahlspruch der Aufklärung."

Ich habe, da des Wartens auf Fermi überdrüssig, eine 5770 als Übergangslösung mir gekauft. Tatsächlich hatte ich das Problem, dass der Mauszeiger ab und zu zu groß wurde (4 mal tauchte das Problem auf). In der Zwischenzeit wurde das auch dank eines Hotfixes gelöst und ich habe ME und ME2 bei 1920 x 1200 bei max. Details durchspielen; wobei ich den zweiten Monitor auch permanent laufen ließ. Was war das für eine Katastrophe. :rolleyes: ;D

Gast
2010-02-27, 11:03:56
Ich weiß nicht, ob einige das Prinzip der freien Markwirtschaft und von Angebot und Nachfrage nicht verstanden haben. Es ist ziemlich egal was NV für die Karten nimmt, wenn sie schlecht bis garnicht verfügbar sind, werden die Händler diese Situation knallhart ausnutzen und dabei ist es auch egal, ob der Preis ohnehin schon hoch ist oder nicht.

Gast
2010-02-27, 11:12:23
Die Sache ist relativ einfach:
Nvidia wird nicht davon überrascht sein, wenn die Produkte knapp sind.
Daraus folgt: Nvidia gestaltet die Preise entsprechend.

Hier im Thread wurden Preise genannt. Maximal 20% anders als bei der Konkurrenz. D.h. entweder die 20% sind falsch oder Nvidia hat es sich bereits gut überlegt, wie viele Produkte es gibt und wie die Nachfrage bei dem Preis sein wird.
Tut doch nicht so als ob Nvidias Finanzabteilung keinen Taschenrechner bedienen könnte und nicht weiss was bestellt wurde. Das ist lächerlich.
Nur weil sich AMD damals verkalkuliert hat braucht ihr das nicht auf Nvidia zu übertragen. Nur weil einer in den Brunnen springt muss der nächste nicht auch gleich kopfüber hinterher.

Gast
2010-02-27, 11:16:31
Ich weiß nicht, ob einige das Prinzip der freien Markwirtschaft und von Angebot und Nachfrage nicht verstanden haben. Es ist ziemlich egal was NV für die Karten nimmt, wenn sie schlecht bis garnicht verfügbar sind, werden die Händler diese Situation knallhart ausnutzen und dabei ist es auch egal, ob der Preis ohnehin schon hoch ist oder nicht.


siehe HD 5800er Serie

Nachfrage/Angebot treffen sich immer beim Gleichgewichtspreis - in dem Fall haben die Händler den Gewinn eingestrichen

MoC
2010-02-27, 11:19:49
Nvidia kann die Preise gestalten.
Es ist vollkommen absurd davon auszugehen, das Nvidia Preise nimmt, bei einer Verfügbarkeit, die dafür sorgt das die Händler sich die Hände reiben.
Eher nimmt Nvidia höhere Preise und genau das wurde hier dementiert, es stehen die 20% und nicht mehr im Raum.

Entscheided euch.
Sind die 20% von Ailuros falsch? Dann sind höhere Preise denkbar.
Sind die 20% von Ailuros richtig? Dann sind höhere Preise nicht denkbar.

Die Händler haben nichts zu melden. Nvidia weiss wie viel sie bestellt haben.
Übrigens wurde nicht einmal belegt, das sie zu wenig bestellt haben. Dieser Vorwurf steht unbelegt im Raum und wird als Wahr angenommen.

Halten wir fest. Ihr glaubt Ailuros schreibt Mist in Form der 20% und ihr glaubt Nvidia sei vollkommen bekloppt in dem man den Profit den Händler überlässt und ihr glaubt das zuwenig GF100 bestellt wurden ohne es zu belegen.

Was hat denn das eine mit den anderen zu tun.

Nvidia kann die Preise des Einzelhandlers nur dahingehend beinflußen, wieviel Karten sie ausliefern.

Der Rest reguliert sich über Angebot und Nachfrage.

Wenn NV natürlich gleich am Anfang den Markt flutet -> höheres Angebot als Nachfrage (was für mich nicht vorstellbar ist) -> UVP-Preise und darunter.

Ansonsten zahlst du immer drauf.

Das hat auch nichts mit Dummheit von Nvidia zutun ...was du ja gepostet hast.
Auch die 20% von Ail spielen hier keine Rolle.

Einzig und allein die Verfügbarkeit.(naja und natürlich die Nachfrage)


Ich persönlich hoffe ja auf eine hohe Verfügbarkeit, damit sich die reise endlich wieder nach unten korrigieren :P

Aber wirklich vorstellen kann ich es mir nicht.

=Floi=
2010-02-27, 11:37:55
viel schlimmer finde ich die preise der kleinen karten. selbst eine grottige 220er oder 9500GT kostet über 50/65€.

Fetter Fettsack
2010-02-27, 11:48:59
...... - 280 -> voller GT200
4870 - 260 -> voller RV770 vs beschnittender GT200
4850 - 250 -> beschnittender RV770 vs voller G92

Ist es Absicht, dass du den RV790 weglässt?

EDIT:

viel schlimmer finde ich die preise der kleinen karten. selbst eine grottige 220er oder 9500GT kostet über 50/65€.

Meines Erachtens ist man in diesem Preisbereich momentan mit Karten wie der 4670 besser bedient.

igg
2010-02-27, 11:54:49
@ Menace offtopic, daher:
Und was sagt uns das Zitat von Kant nun, außer dass du wie 99,9 % der anderen Schüler in Deutschland mit seinen Thesen vertraut bist? Die unzähligen Leute in den verlinkten Threads sind unmündig, weil sie wider verfügbares Wissen gehandelt haben? Oder sie sind mündig, weil sie es mutig risktiert haben und auf die Schnauze gefallen sind? Oder du bist mündig, weil du Glück hattest?
Sollten die Fermis mit ähnlich drastischen Kinderkrankheiten zu kämpfen haben wie Cypress werde ich zukünftig wie früher wieder zu den Grafikkarten der letzten Generation greifen. Was uns die Hersteller die letzten Jahre liefern ist teilweise eine echte Zumutung.

Wieso ist sich neliz eigentlich so sicher, dass in den nächsten 5 Tagen mehr kommt? Gibts dann erste Samples von den Herstellern selbst?

LovesuckZ
2010-02-27, 11:55:46
Was ich aber nicht verstehe: "and they will announce they will start selling it in about 4 months from now". Soll das tatsächlich heißen, die Massenproduktion ist erst im Juni/Juli verfügbar? Bis dahin dürfte es B1 sein...

Schon genial. Er behauptet, dass GTX470 $500 kosten wird und erst im Juli verfügbar wäre. Wenn das mal nicht eine fantastische Produktstrategie ist. ;D

Da stellt sich mir die Frage, wieso nVidia nicht gleich $299 sagt - liefern können sie ja so oder so nicht Ende März...


Wieso ist sich neliz eigentlich so sicher, dass in den nächsten 5 Tagen mehr kommt? Gibts dann erste Samples von den Herstellern selbst?

Cebit-Zeit. Dort wird wohl nVidia die letzten Details seinen Partnern bekannt geben.


http://www.fudzilla.com/content/view/17851/34/

Wenn jetzt auch Fud schreibt, dass die 470 nicht die 5870 schlägt, kann man denke ich davon ausgehen.

Er schreibt es nicht, weil er genaue Informationen hat, sondern es ist für ihn der "Wort-Case":

After couple of inquiries we found out that even though you can get estimated performance figures based on what partners are looking at right now, these are still not final as Nvidia is yet to give out a word about the final clocks of the GTX 470. The safest guess is that it will be around 20 to 25 percent faster than the Geforce GTX 285, which puts it somewhere between the HD 5850 and the HD 5870.

Chris Lux
2010-02-27, 11:57:56
es ist ja noch die cebit die nächste woche, sollte da nicht was gezeigt werden von den board partnern?

=Floi=
2010-02-27, 12:01:28
4890 - 275 - > voller RV790 vs beschnittender GT200b
und nun?

---
ich möchte aber einen nv ersatz bzw. wenn ich eine ati karte möchte, dann nur noch DX11/SSAA. da sind die kleineren karten auch zu teuer.

zz habe ich hier noch eine 7950GT verbaut und die kommt selbst für quake live (8XAA) und video playback an ihre grenzen.
eigentlich möchte ich nur eine günstige übergangslösung und für einen GT104 mit gutem 2D modus. Nicht einmal das ist damit möglich, weil die kleinen karten zu teuer sind. Für 92€ bekomme ich eine 250er und da sind die 65€ für eine labbrige 220er schon sehr überzogen.

Gast
2010-02-27, 12:07:06
4890 - 275 - > voller RV770 vs beschnittender GT200b
und nun?

---
ich möchte aber einen nv ersatz bzw. wenn ich eine ati karte möchte, dann nur noch DX11/SSAA. da sind die kleineren karten auch zu teuer.

zz habe ich hier noch eine 7950GT verbaut und die kommt selbst für quake live (8XAA) und video playback an ihre grenzen.
eigentlich möchte ich nur eine günstige übergangslösung und für einen GT104 mit gutem 2D modus. Nicht einmal das ist damit möglich, weil die kleinen karten zu teuer sind. Für 92€ bekomme ich eine 250er und da sind die 65€ für eine labbrige 220er schon sehr überzogen.

Wenn man keine ATI Karte will, hat man halt im Augenblick Pech.
Wo der Sinn von DX11/SSAA im 60€ Bereich ist, würde mich aber schon sehr interessieren.

Fetter Fettsack
2010-02-27, 12:07:42
@=Floi=

Nun, warum denn unbedingt DX11 und SSAA, wenn es nur eine Übergangslösung sein soll? Eine Karte deines Preissegmentes wäre da ohnehin nicht der Reißer. Die kleinen nVidiakarten können im übrigen ja auch kein DX11 und sind für SSAA auch nicht gerade prädestiniert. Insofern wäre es ökonomisch, eine 4670 als Übergang zu nehmen. Ansonsten wirst du wohl warten müssen.


Gut, den GT200b hab ich übersehen, tut leid. Warum ist ein RV790 ein voller RV770? Das ist mir nicht ganz klar.

Gast
2010-02-27, 12:23:08
Was hat denn das eine mit den anderen zu tun.

Nvidia kann die Preise des Einzelhandlers nur dahingehend beinflußen, wieviel Karten sie ausliefern.

Die Händler können bei gutem Angebot und geringer Nachfrage keine großen Preisaufschläge verlangen.
Das ist der Punkt.

Sollte das Angebot zu gering sein, ist davon auszugehen das der Preis seitens Nvidia bereits viel höher wäre als er ist.

Du gehst davon aus, das Nvidia keine Ahnung über die Menge der bestellten Ware und über deren Nachfrage hat und folglich einen viel zu geringen Preis ansetzt.
Das ist deine Theorie, die ich wie gesagt für totalen Quatsch halte.
Für den Kunden zählt der Preis am Ende, die Händler können beim ensprechenden Grundpreis keinen imensen Aufpreis verlangen. Das können sie nur beim zu geringen Grundpreis. Also nochmal, du hast noch keinen Grund geliefert, warum Nvidia den Grundpreis zu gering ansetzten sollte und den Händler den Profit überlassen sollte.
Und ja, das eine Menge mit Dummheit zu tun. Nvidia hat nicht aus Zufall schwarze Zahlen.

Ist es Absicht, dass du den RV790 weglässt?Ja, den das macht die Betrachtung einfacher.
Wir haben heute auch keinen RV890.
Außerdem setzt 5850 wie 5870 auf RV870.
Wenn du es mit RV790 wiederholen willst, dann viel Spass. Das wird richtig kompliziert und ich sags dir gleich, es wird schlechter vergleichbar sein.

Fetter Fettsack
2010-02-27, 12:52:52
War keine Kritik, etwas in der Richtung hatte ich vermutet. Verstanden hatte ich aber nicht.

Gast
2010-02-27, 13:12:07
Also GF104 wird Nachfolger der 9800GTX+ aka GTS250. Also die GTS450 oder so ^^ +25% Leistung wäre nice und wenn das Design nun mehr Taktrate hergibt sicher eine Mainstream OC Karte, wird auch Zeit das da mal was neues kommt.

N0Thing
2010-02-27, 13:24:07
Was ich aber nicht verstehe: "and they will announce they will start selling it in about 4 months from now". Soll das tatsächlich heißen, die Massenproduktion ist erst im Juni/Juli verfügbar? Bis dahin dürfte es B1 sein...

Ist damit nicht die Karte gemeint, die AMD als Gegenspieler bringen will? Deshalb Ankündigung im Zeitraum des Launch von Fermi und erhältlich ist die Karte dann ein paar Monate später.

Gast
2010-02-27, 13:29:32
NV operiert aber nicht im luftleeren Raum, denn schließlich gibt es auch noch einen Konkurrenten am Markt. NV kann nicht einfach sagen "wir wissen ja schon, dass wir nur eine sehr geringe Menge an Karten liefern können und deshalb setzen wir den Preis schon mal ordentlich hoch an, damit wir auch noch ordentlich Profit machen". Die Leistungsfähigkeit der GF100 Karten im Verhältnis zur HD58xx wird den Preis grundsätzlich bestimmen. Außerdem ist immer noch überhaupt kein offizieller Preis genannt worden, sondern bis jetzt sind alles nur reine Spekus.

Man kann sich ja meinetwegen drehen und winden wie man will, aber schlechte Verfügbarkeit + hohe Nachfrage = hohe Preise und da kann NV garnichts dran ändern, außer mehr Karten zu liefern. Den Händlern am Ende der Kette ist nämlich das von NV angestrebte Preisgefüge vollkommen egal ,die versuchen nur soviel Gewinn wie möglich zu machen und wenn sie die Karten auch noch für einen Preis loswerden der im Verhältnis zur P/L bei AMD eigentlich nicht gerechtfertigt ist dann machen sie das auch.

LovesuckZ
2010-02-27, 13:30:20
Ist damit nicht die Karte gemeint, die AMD als Gegenspieler bringen will? Deshalb Ankündigung im Zeitraum des Launch von Fermi und erhältlich ist die Karte dann ein paar Monate später.

Kommt wohl drauf an, wie man es lesen will:
I think I have a hint. GTX4x0 will launch versus a comparable AMD part, with a ~25% price premium. They do not justify this price premium. Then again, this card will launch Next Month, and they will announce they will start selling it in about 4 months from now. We'll know a lot about "teh GF100!!11" in 5 days. So stay chill! (and be glad you bought a HD58x0 card half a year ago!) And hell, if AMD really feel like a riot, they might announce something.. oh.. let's say before March 26th.

Es geht nicht eindeutig hervor.
Es kann sich auf GTX4xx beziehen oder auf eine neue Karte von AMD.

igg
2010-02-27, 13:31:41
Ist damit nicht die Karte gemeint, die AMD als Gegenspieler bringen will?
Könnte sein, darauf bin ich zugegeben noch nicht gekommen. Aber nachdem neliz sich bereits mehrmals äußerte dass GF100 lange nicht kaufbar sein wird, wer weiß?

Spasstiger
2010-02-27, 14:24:47
Spiele könnten heute schon SSAA unterstützen wenn sie wollten, dafür braucht es keine extra Unterstützung von Hardware/Treiber, mit DX10/11 ist das auch so möglich.
Auch performant mit Resolve in den ROPs?
Oder mal anders gefragt: Wäre das SGSSAA, was ATI anbietet, unter DX10.1/DX11 mit einem genauso geringen Performancehit in gleicher Qualität applikationsseitig möglich, selbst wenn die Hardware nicht explizit SGSSAA unterstützt?

Gast
2010-02-27, 14:57:23
NV operiert aber nicht im luftleeren Raum, denn schließlich gibt es auch noch einen Konkurrenten am Markt.
....
aber schlechte Verfügbarkeit + hohe Nachfrage = hohe Preise
Merkst du überhaupt wie du dir selbst wiedersprichst?

Entweder hat Nvidia einen Konkurrenten oder nicht.
Angenommen sie haben einen, dann können sie nicht beliebig nach oben und auch die Händler können daran nichts ändern, wenn Nvidias Preisansatz nicht völlig daneben ist.


Den Händlern am Ende der Kette ist nämlich das von NV angestrebte Preisgefüge vollkommen egal ,die versuchen nur soviel Gewinn wie möglich zu machen und wenn sie die Karten auch noch für einen Preis loswerden der im Verhältnis zur P/L bei AMD eigentlich nicht gerechtfertigt ist dann machen sie das auch.Wenn die Händler mehr verlangen können, dann kann das Nvidia auch.
Nvidia ist nicht am Wohl der Händler interessiert.

aylano
2010-02-27, 14:59:54
...... - 480 -> voller GF100
5870 - 470 -> voller RV870 vs beschnittender GF100
5850 - 460 -> beschnittender RV870 vs voller GF104

Oh ja, GF100 und RV870 liegen im vollen Zustand nicht exakt beieinander.
Als Vergleich kannst du dir auch mal RV770 und G92 anschauen.

...... - 280 -> voller GT200
4870 - 260 -> voller RV770 vs beschnittender GT200
4850 - 250 -> beschnittender RV770 vs voller G92

Die Frage ist, ob GF104 einen dementsprechned hohen/höheren Takt hat als G92 es damals hatte, was eben der grund war, warum der GTX9800 so gut aussah.

Früher sah es ja auch mit dem GF100 ziemlich toll aus, aber als die ersten Silizium-Stückchen zurückkamen, kam dann mit dem Takt & Yield eine ziemliche Ernüchterung.

Und deshalb bleibe ich noch Skeptisch/Abwartend. Denn warum sollte es mit GF104 alles so viel besser laufen als mit GF100, der ja für Nvidia wahrscheinlich viel wichtiger ist?
Bei der 200er-40nm-Serie waren ja auch alle gleich gut/schlecht.

LovesuckZ
2010-02-27, 15:02:21
Früher sah es ja auch mit dem GF100 ziemlich toll aus, aber als die ersten Silizium-Stückchen zurückkamen, kam dann mit dem Takt & Yield eine ziemliche Ernüchterung.

Schau an, da hat jemand Insider-Informationen. Wäre toll, wenn du sie mit uns teilen würdest. :)


Und deshalb bleibe ich noch Skeptisch/Abwartend. Denn warum sollte es mit GF104 alles so viel besser laufen als mit GF100, der ja für Nvidia wahrscheinlich viel wichtiger ist?
Bei der 200er-40nm-Serie waren ja auch alle gleich gut/schlecht.

Wer sagt denn, dass es beim GF100 schlecht läuft? :confused:

Gast
2010-02-27, 15:16:31
Die Frage ist, ob GF104 einen dementsprechned hohen/höheren Takt hat als G92 es damals hatte, was eben der grund war, warum der GTX9800 so gut aussah.
Überleg dir einfach mal wo die 5850 steht und wo die GTX 285 steht.

Gast
2010-02-27, 15:20:59
Wer sagt denn, dass es beim GF100 schlecht läuft? :confused:

Mehr als 6 Monate Verspätung?
Aber bestimmt liegt es ausschließlich an TSMC.

LovesuckZ
2010-02-27, 15:23:57
Mehr als 6 Monate Verspätung?
Aber bestimmt liegt es ausschließlich an TSMC.

Und was hat ein späteres Tape-Out mit "lief schlecht" zu tun - vorallem, nachdem er vom "ersten" Silizium redet? Warum wartet man nicht erstmal ab, bevor man Char-lie alles glaubt?

/edit: Und da viele ja Char-lie glauben: Vom Tape-Out zum Launch sind es knapp weniger als 8 Monate. Cypress benötigte ca. 7 1 /2 Monate vom Anfang Februar bis zum 23.09.

Gast
2010-02-27, 15:28:06
Mehr als 6 Monate Verspätung?
Aber bestimmt liegt es ausschließlich an TSMC.
Hast du die Meldung im Januar/Februar verschlafen? :rolleyes:
TSMC hat die Yieldprobleme halbwegs im Griff, seit kurzem.

Zuvor gabs keine Massenfertigung, ergo konnten entsprechende Fehler nicht gefunden werden.
Das ist nunmal der worst case, man wartet erst und kann nichts tun und schleift den Fehler mit. Zeit genug hätten sie gehabt, den Fehler zu finden.

Gast
2010-02-27, 15:37:20
Wer sagt denn, dass es beim GF100 schlecht läuft? :confused:
LOOOOOOOOOOL :D
Schon klar, die Chips laufen so dermaßen saugut, dass sie man sich bei NV gar nicht von ihnen trennen kann ... seit einem halben Jahr horten sie die Dinger ... Jen-Hsun rettet jeden Person vor dem eigenen Vertrieb mit den rührungsvollen Worten "ach mein geliebter Kleiner ... du bist zu gut für diese grausame Welt voller UNGLÄUBIGER ATI-JÜNGER ... du darfst hier bei uns im grünen Shangri-La verweilen und auf ewig an einer immer saftigen Stromleitung nuckeln :love: ".
Über die Filmrechte an "Jen-Hsuns Liste" wird zur Zeit noch verhandelt.

Was denkt sich unser Liebeslutscher bloß immer ...

Gast
2010-02-27, 15:42:42
Schon klar, die Chips laufen so dermaßen saugut, dass sie man sich bei NV gar nicht von ihnen trennen kann ... seit einem halben Jahr horten sie die Dinger ...
Kannst du echt nicht lesen?

Spacedust
2010-02-27, 15:46:31
[QUOTE=LovesuckZ;7870496]Schon genial. Er behauptet, dass GTX470 $500 kosten wird und erst im Juli verfügbar wäre. Wenn das mal nicht eine fantastische Produktstrategie ist. ;D

==> Da hast du den Nagel auf den Kopf getroffen.

1. Es ist definitiv so, es wird nach einer ersten kleinen Launch Menge längere Zeit so gut wie keine Verfügbarkeit der GTX4xx Karten geben.

2. NVIDIA ist sich des Problems der schlechten Verfügbarkeit bewusst, Sie wissen, dass Sie dafür von der Presse "gegrillt" werden. Zum ersten Mal gibt man unter vier Augen zu, dass man da "ein Problem" hat.

3. Laut meiner Info gibt es kein neues schnelleres ATi Produkt zum GTX4xx Launch.

4. Die Verfügbarkeit der 58xx Serie soll in den nächsten Wochen besser werden. Von AMD/ATi Seite sind aber keine Preissenkungen geplant.

5. NVIDIA hat bis vor kurzem noch an den finalen SPECS der GTX 4xx "gebastelt" (z.B. Taktfrequenz) und tut es vielleicht noch.

Warum NVIDIA unter diesen Umständen die Grafikkarten launched ?
Ich weiss es nicht ...

Weil Lovesucks gierig auf Quellen und allergisch ist auf "Insider Informationen", hier eine lose Ansammlung der Quellen:
MSI, NVIDIA, Medion, Sapphire.

@ Lovesucks, wenn es nicht noch eine ziemliche Überraschung gibt, ist es ein guter Rat, in den nächsten Wochen die Klappe nicht mehr ganz soweit aufzureissen. Du könntet dich ziemlich verrennen und dann nimmt dich keiner mehr ernst.

(Ach ja, eine persönliche Bitte: könntest du deinen Avatar wechseln, sonst muss ich immer denken, dass da ein kleiner pubertärer 15 Jähriger postet, Danke dir.)

aylano
2010-02-27, 15:48:23
Schau an, da hat jemand Insider-Informationen. Wäre toll, wenn du sie mit uns teilen würdest. :)

Tue ich eh, ich glaube immer schon an einem Fermi mit 700-750 Mhz / 1700 Mhz mit einem Stromverbrauch < GTX285 am Dienstag im 4Q 20??


Wer sagt denn, dass es beim GF100 schlecht läuft? :confused:
Keine Ahnung, blos so.


Warum NVIDIA unter diesen Umständen die Grafikkarten launched ?
Ich weiss es nicht ...

Wenn Fermi jetzt nicht kommt und Foren & Presse nicht wissen, wie gut Fermi wirklich ist, dann kann die Presse & Internetforen die Fermi-Architektur ziemlich schlechtreden. Siehe Charlie, vorallem wenn er dann Recht bekommt.

Fermi muss jetzt raus. Alles dreht sich nicht um die aktuelle Top-GPU. Es gibt auch Performance, mainstream & Low-End mit dem Nvidia Geldverdienen kann und dazu gibt es Nachfolger, die dann in einger wahrscheinlich weit weniger Problematiken & kleineren Fertigung daherkommen und da wäre es sehr bitter & dumm, wenn die Nachfolger wegen Fermi-Bemühungen & xtes Stepping später kommen würden.

LovesuckZ
2010-02-27, 15:55:16
(Ach ja, eine persönliche Bitte: könntest du deinen Avatar wechseln, sonst muss ich immer denken, dass da ein kleiner pubertärer 15 Jähriger postet, Danke dir.)

Mein Avatar steht seit 8 Jahren. Du bist der Typ, der sich hier anmeldet. Wenn er dir nicht passt, dann steht es dir frei wieder zu gehen. Danke dir.

Ailuros
2010-02-27, 16:46:15
Du nimmst nicht Ernsthaft die Stellung eines beschnittenden GF100 und ziehst daraus Rückschlüsse auf einen vollen GF104. :fachepalm:

Er hat aber schon einen Punkt irgendwo. Wenn dem so waere waere es die miserabelste Leistungsskalierung von Performance auf Enthusiast in der Geschichte von 3D.

***edit: die area fuer GF104 soll doch nur irgendwo leicht hoeher als G92b liegen (ergo um einiges kleiner als das was man mir bisher erzaehlt hatte) und Leistung soll auf GT200b Nivaeu liegen.

Weiss jemand wie gross G92b ist? Irgendwo 260-270mm2? Wenn ja duerfte auch die bisher angegebene die area fuer GF100 zu hoch sein.

Redneck
2010-02-27, 16:49:27
Da stellt sich mir die Frage, wieso nVidia nicht gleich $299 sagt - liefern können sie ja so oder so nicht Ende März...

:

my 2 cents :

a) weil NV eventuell denkt sie koennen mit einer hohen UVP eine entsprechende Erwartungshaltung bzgl. der Performance wecken , sprich die Leute noch weiter auf "Wait&See" Position zu halten bis ihr Produkt endlich technisch soweit ausgereift ist, das es tatsächlich genug Leistung bringt und/oder günstiger herzustellen ist. Macht natürlich nur Sinn, solange das Produkt noch unbekannt ist.

b) NV ist sich bewußt das sie mit Ihrem Produkt keinen Preiskrieg gegen AMD gewinnen koennen. Warum AMD also eine Anlaß geben die Preise zu senken.
Ergo ist es manchmal wirtschaftlicher sich gleich höher zu positionieren um einer Preisschlacht von vornherein aus dem Weg zu gehen.

Gruß

LovesuckZ
2010-02-27, 16:55:53
my 2 cents :

a) weil NV eventuell denkt sie koennen mit einer hohen UVP eine entsprechende Erwartungshaltung bzgl. der Performance wecken , sprich die Leute noch weiter auf "Wait&See" Position zu halten bis ihr Produkt endlich technisch soweit ausgereift ist, das es tatsächlich genug Leistung bringt und/oder günstiger herzustellen ist. Macht natürlich nur Sinn, solange das Produkt noch unbekannt ist.

Das macht nach einem offiziellen Launch mit uabhängigen Reviews keinen Sinn, ergo gehe ich mit deinem letzten Satz mit.


b) NV ist sich bewußt das sie mit Ihrem Produkt keinen Preiskrieg gegen AMD gewinnen koennen. Warum AMD also eine Anlaß geben die Preise zu senken.
Ergo ist es manchmal wirtschaftlicher sich gleich höher zu positionieren um einer Preisschlacht von vornherein aus dem Weg zu gehen.

Gruß

Das würde ich glauben, wenn es die GT200 Sache nicht gegeben hätte.

Die hohen Preise würden nur Sinn machen, wenn sie auch langfristig liefern könnten. Da hier ja immer und immer wieder gesagt wird, dass sie nach der Launchmenge nichts mehr für 4 Monate liefern werden, machen hohe 0 Sinn. Denn dadurch werden nur Kunden abgeschreckt, die bei niedrigen Preisen weiterhin warten, bis der nächste Schub kommt.

Kalmar
2010-02-27, 17:06:25
je länger nv wartet int infos und nur ankündigungen ankündigt .. desto mehr rennen die leute zu ati. wenn man weiss so schauts aus von der performance, strom usw. aus vernüftigen pressequellen warten bestimmt noch menge leute und als positver nebeneffekt die ganze schlechte presse hört auf bzw. wird eingedämmt .. weil momentan durch die warterei geht mehr Image kaputt als nen fermi der net so wirklich potent ist [dafür wurde er bis jetzt schon zu sehr zerredet- wer würde dann beim nächsten mal nochmal warten auf nv?]

mit dem liefern können sie ja auch meinend as die nachfragenw esentlich größer ist als die produktion was ja faktisch ner nicht lieferung gleich kommt ...

ich werde nun auch bei 5770 zuschlagen [die 5830 wurde ja in sand gesetzt] weil bei nv sich einfach nix tut und bis in sommer zu warten und zu hoffen lohnt einfach nimmer .. vielleicht gibt es dann ende des jahres die "besseren" refresh fermis und die welt schaut wieder anders aus ..

Ailuros
2010-02-27, 17:07:32
LS,

Geh mal auf meinen vorigen Post zurueck. Das Zeug wurde gerade auch von Dennis privat bestaetigt (ein bisschen ablenken zum wichtigerem Zeug schadet nie....).

LovesuckZ
2010-02-27, 17:12:29
Weiss jemand wie gross G92b ist? Irgendwo 260-270mm2? Wenn ja duerfte auch die bisher angegebene die area fuer GF100 zu hoch sein.

G92b liegt bei ca. 274mm^2.
Wobei man bei der Skalierung vorsicht sein muss: GF100 ist der erste Chip, der keine riesige Geometrieeinheit hat, die immer gleich viel Platz wegnimmt. GF100 sollte sich also fast 1:1 nach unten skalieren lassen.

Ailuros
2010-02-27, 17:52:26
G92b liegt bei ca. 274mm^2.
Wobei man bei der Skalierung vorsicht sein muss: GF100 ist der erste Chip, der keine riesige Geometrieeinheit hat, die immer gleich viel Platz wegnimmt. GF100 sollte sich also fast 1:1 nach unten skalieren lassen.

Raster/trisetup haette wieviel genau bei GT200 betragen koennen? <5% vielleicht insgesamt? Von riesig sehe ich da nichts ueberhaupt da das trisetup nicht rundum ueber 1Tri/clock faehig war. Bei GF100 sind es 4 raster mit 1 Tri/clock und nicht 2 clocks.

Sonst stimm ich im guten Ganzen schon mit dem obrigen zu. Auf jeden Fall sollte die GF104 wohl doch unter 300mm2 liegen.

Menace
2010-02-27, 17:58:17
@ Lovesucks, [...] Du könntet dich ziemlich verrennen und dann nimmt dich keiner mehr ernst.


Schon öfters passiert (zum Beispiel was Launchtermine angeht). Ich habe es mal in einem Posting vorher gesammelt. Ist aber egal, da es ja hier um ein Spekulationsthread geht. Und da gehören optimistische wie pessimistische Spekulationen dazu. Also; leben und leben lassen.

bzgl. Avatar:



(Ach ja, eine persönliche Bitte: könntest du deinen Avatar wechseln, sonst muss ich immer denken, dass da ein kleiner pubertärer 15 Jähriger postet, Danke dir.)

Kleiner Tipp: Installiere und nutze doch einfach Opera. Dann rechter Mausklick und "Inhalt blockieren". Ich habe seit ewigen Zeit damit Ruhe vor unerwünschten Inhalten.

=Floi=
2010-02-27, 18:00:37
zitat
ich werde nun auch bei 5770 zuschlagen

du bist eh der falsche kunde für eine GT480. ;D
das ist wie wenn du dir einen skoda kaufst und um den m3 mitreden willlst... :rolleyes:


als angemeldeter user kann man signaturen und avatare ausblenden.

Coda
2010-02-27, 19:13:26
Raster/trisetup haette wieviel genau bei GT200 betragen koennen? <5% vielleicht insgesamt?
Ich geh da schon von ~10% aus.

Schau dir G80 an:
http://www.icare3d.org/images/stories/BlogTechno/g80_die.png

Redneck
2010-02-27, 19:59:03
Das macht nach einem offiziellen Launch mit uabhängigen Reviews keinen Sinn, ergo gehe ich mit deinem letzten Satz mit.



Das würde ich glauben, wenn es die GT200 Sache nicht gegeben hätte.

Die hohen Preise würden nur Sinn machen, wenn sie auch langfristig liefern könnten. Da hier ja immer und immer wieder gesagt wird, dass sie nach der Launchmenge nichts mehr für 4 Monate liefern werden, machen hohe 0 Sinn. Denn dadurch werden nur Kunden abgeschreckt, die bei niedrigen Preisen weiterhin warten, bis der nächste Schub kommt.

GT200 ist Geschichte.... NV ist nicht dazu verdammt die gleichen Fehler oder
die gleiche Poltik immer wieder zu machen. Für mich kein Argument.

Das hier und da kolpotiert wird, das 4 Monate nicht geliefert werden kann...
mal ganz ehrlich.. ist das nicht erst einmal nur eine weitere "Scheisshausparole" der momentan zuviel Aufmerksamkeit zukommt, weil es nichts anderes "neues" gibt..
We will see

Gruß

Gast
2010-02-27, 20:01:42
Das hier und da kolpotiert wird, das 4 Monate nicht geliefert werden kann...
mal ganz ehrlich.. ist das nicht erst einmal nur eine weitere "Scheisshausparole" der momentan zuviel Aufmerksamkeit zukommt, weil es nichts anderes "neues" gibt..
We will see
Es wird eben fröhlich behauptet, ohne eines jeglichen Beweises.
Frei nach dem Motto "Nvidia hat nur 1000 Wafer bestellt und wird bis zum Sommer auch nicht nachbestellen"

LovesuckZ
2010-02-27, 20:06:52
GT200 ist Geschichte.... NV ist nicht dazu verdammt die gleichen Fehler oder
die gleiche Poltik immer wieder zu machen. Für mich kein Argument.


nVidia senkte den Preis der GT200 Karten massiv nach unten. Nach einigen hier hätten dies nie und nimmer passieren dürfen.

Ailuros
2010-02-27, 20:36:10
Ich geh da schon von ~10% aus.

Schau dir G80 an:
http://www.icare3d.org/images/stories/BlogTechno/g80_die.png

Nach ich hoffe dass in dem Block nicht mehr drinsteckt als nur in dem shot angegeben. Wie dem auch sei selbst 10% sind immer noch keine "gigantische" Einheit.

Coda
2010-02-27, 20:58:37
Wenn man den Rest halbiert sind es schon 18% wenn die Größe wirklich gleich bleibt. Bei einer Viertelung 30%

Gast
2010-02-27, 21:04:29
Gibts kein DIE shot von einem G96? Dann wüsste man mehr.

Coda
2010-02-27, 21:13:41
Es gibt einen von GT216 (96 SPs):

http://i41.tinypic.com/10pzgaq.jpg

Kalmar
2010-02-27, 21:29:06
zitat
ich werde nun auch bei 5770 zuschlagen

du bist eh der falsche kunde für eine GT480. ;D
das ist wie wenn du dir einen skoda kaufst und um den m3 mitreden willlst... :rolleyes:


mich hat die 470 oder 460 interessiert ... außerdem wann nv mal kommt damit ati ggf. die preise anpasst ..

da aber da nix passiert erst ne Karte zur Überbrückung und dann mal schaun im refresh wie ich schon geschrieben hatte .. aber schön zu wissen das du gleich so engstirnig urteilst ..

Benedikt
2010-02-27, 21:29:29
Es gibt einen von GT216 (96 SPs):

Hat GT216 nicht 48 SPs? Meinst du GT215?

Coda
2010-02-27, 21:39:08
Ja von mir aus. Bei den Codenamen hab ich nicht mehr aufgepasst.

Gast
2010-02-27, 22:24:00
Weiss jemand wie gross G92b ist? Irgendwo 260-270mm2? Wenn ja duerfte auch die bisher angegebene die area fuer GF100 zu hoch sein.

GF100 sollte sich in ganzen GPCs eigentlich fast perfekt skalieren lassen.

Nicht nur der "Inhalt" der GPCs, auch L2-Cache und die Gigathread-Engine soll ja von der Anzahl der GPCs abhängen.

Dann bleibt noch die Frage ob DP drinnen bleibt, eventuell geht man auch auf 1/4 Durchsatz, damit könnte man noch einige Transistoren sparen.

Eventuell hat man beim GF100 aufgrund der Größe auch mehr Redundanzen vorgesehen, das Größenverhältnis könnte also durchaus passen.

AwesomeSauce
2010-02-27, 22:41:00
Ich konnte bis jetzt noch nirgends eine Tape-Out-Meldung für den GF104 finden. Ist dieses bereits erfolgt? Bei einem solch "kurz" bevorstehenden Launch müsste der Chip schon länger sein Tape-Out hinter sich haben...

AnarchX
2010-02-27, 23:32:25
Ein paar Frequenzspekulationen aus Asien:
to tell you the real GF100 and GF104
Absolutely true GF100-480 750MHz 480sp GDDR5 4GHZ performance, 30% stronger than 5870
470 600MHz 448sp performance, slightly below the 5870
The real trump card is the latest news GF104 800MHz GDDR5 5Ghz performance can be basically comparable to 5850.
http://we.pcinlife.com/thread-1364035-1-1.html

Sofern GF104 256SPs: GF104 -> +31% GTX 470 -> +34% GTX 480
Wobei der Unteschied zwischen 5850 und 5870 doch etwas geringer ist als diese theoretischen 31%.
Aber vielleicht spart man bei der GTX 470 und setzt wirklich nur 3,2-3,6Gbps GDDR5 ein.

LovesuckZ
2010-02-27, 23:38:01
Das macht keinen Sinn. Wenn die GF104 ein GF100 / 2 ist, dann kann die Karte nicht in der Nähe der 5850 liegen, wenn die GTX470 "leicht" unter der 5870 läge.
Das geht nicht. Entweder ist GF104 ein GF100 mit nur 3 vollen GPC oder die Karte taktet 50% höher als die GTX470...

mapel110
2010-02-27, 23:41:50
Ich konnte bis jetzt noch nirgends eine Tape-Out-Meldung für den GF104 finden. Ist dieses bereits erfolgt? Bei einem solch "kurz" bevorstehenden Launch müsste der Chip schon länger sein Tape-Out hinter sich haben...
Charlie meinte vor ein paar Tagen von einem weiteren TapeOut gehört zu haben, er wusste aber nicht, welchem Chip er das zuordnen sollte.

Apropos Charlie...
http://www.semiaccurate.com/2010/02/27/why-tsmc-still-having-40nm-woes/

LovesuckZ
2010-02-27, 23:43:18
Charlie meinte vor ein paar Tagen von einem weiteren TapeOut gehört zu haben, er wusste aber nicht, welchem Chip er das zuordnen sollte.

Char-lie sagte einem Tag zuvor, dass nVidia keine einzige Anstrengung für ein weiteres Tape-Out gemacht hätte. Soviel zu seiner "Glaubwürdigkeit".

22.02:
Nothing has taped out, nor has any prep been made to do so, so tapeouts are unlikely to be imminent. That puts things at 6 months or so out minimum.

-Charlie

23.02:
As an update, I am hearing, totally unconfirmed so far, that there may be one other tapeout either done or pending. I am far from 100% on this one though.

-Charlie

AnarchX
2010-02-27, 23:58:22
Das macht keinen Sinn. Wenn die GF104 ein GF100 / 2 ist, dann kann die Karte nicht in der Nähe der 5850 liegen, wenn die GTX470 "leicht" unter der 5870 läge.
Das geht nicht. Entweder ist GF104 ein GF100 mit nur 3 vollen GPC oder die Karte taktet 50% höher als die GTX470...
Laut diesen Spekulationen hat GF104 immerhin 120GB/s, kaum weniger als eine GTX 470 mit nur 3,2-3,6Gbps@320-Bit.
Aus der Speicherbandbreite würde sich auch der Leistungsabstand GF104/GTX 470 zu GTX 480 ~192GB/s erklären.

Bliebe die Frage, wenn GF100 so bandbreitenlimitiert sein sollte, warum kein 0.4ns Speicher für die 480....

AwesomeSauce
2010-02-28, 00:03:45
@LovesuckZ und mapel110

Die Aussagen von Char-Lie in B3D und auf seiner eigenen Propaganda-Seite habe ich bereits gelesen, betrachte seine sogenannten "Berichte" aber eher als Unterhaltung denn glaubhafte News, weswegen ich lieber hier nochmal nachfragte... Sollte der GF104 bereits ein paar (aka 2-4 or so) Monaten kommen, müsste der Chip sein Tape-Out bereits hinter sich haben.

Seit wann ist eigentlich neliz so angepisst?

@AnarchX
Die GTX480 soll laut dieser Spekus nur mit 480SPs antanzen, also 15 SMs. Ob das wahrscheinlich ist...

LovesuckZ
2010-02-28, 00:05:11
Laut diesen Spekulationen hat GF104 immerhin 120GB/s, kaum weniger als eine GTX 470 mit nur 3,2-3,6Gbps@320-Bit.
Aus der Speicherbandbreite würde sich auch der Leistungsabstand GF104/GTX 470 zu GTX 480 ~192GB/s erklären.

GF100 müsste einfach nur bandbreitenlimitiert sein, wenn man mit alleine schon 75% mehr SM nur ca. 15% schneller wäre...


Bliebe die Frage, wenn GF100 so bandbreitenlimitiert sein sollte, warum kein 0.4ns Speicher für die 480....

Weil die Werte falsch sind. ;)

@LovesuckZ und mapel110

Die Aussagen von Char-Lie in B3D und auf seiner eigenen Propaganda-Seite habe ich bereits gelesen, betrachte seine sogenannten "Berichte" aber eher als Unterhaltung denn glaubhafte News, weswegen ich lieber hier nochmal nachfragte... Sollte der GF104 bereits ein paar (aka 2-4 or so) Monaten kommen, müsste der Chip sein Tape-Out bereits hinter sich haben.

Seit wann ist eigentlich neliz so angepisst?

Wenn die Aussagen von Huang in der CC der Wahrheit entsprechen, dann müsste GF100 sein Tape-Out schon längst hinter sich gehabt haben. Vom Tape-Out bis ins Ladenregal benötigt man ca. 5-6 Monate. Wenn man im Juli Fermi über mehrere Preisbereiche bringen will, muss GF104 schon längst durch sein Tape-Out sein.
Aber vielleicht handelt es sich beim GF104 auch einfach nur um GF100 mit 3 GPC und 4 ROP-Partitionen / 256bit.

AnarchX
2010-02-28, 00:11:17
GF100 müsste einfach nur bandbreitenlimitiert sein, wenn man mit alleine schon 75% mehr SM nur ca. 15% schneller wäre...

Laut der Spekulation sind es doch 30% mehr als bei einer 5870 und damit etwa 60% mehr als HD5850/GF104.


Aber vielleicht handelt es sich beim GF104 auch einfach nur um GF100 mit 3 GPC und 4 ROP-Partitionen / 256bit.
Dazu würden aber wieder Ailuros' ~300mm² nicht passen.

LovesuckZ
2010-02-28, 00:17:40
Laut der Spekulation sind es doch 30% mehr als bei einer 5870 und damit etwa 60% mehr als HD5850/GF104.

Die 75% haben sich auf eine mögliche GTX470 mit 448SP bezogen - und die läge nach den übersetzten Aussagen nur 15-20% vor einer GF104.
Und das ist einfach nicht möglich.
Und wehe mir kommt jetzt einer mit G92 und G94 - zweite hatte die komplette ROP Struktur und somit Pixelfüllrate wie Speicherbandbreite bei gleicher Taktung. Die Karte müsste also 25% höher als die GTX470 getaktet sein, um die ROPs-Pixelfüllrate auszugleichen.
Und wenn GF104 wirklich unter 300mm^2 läge, dann wäre das Perf/mm^2 fast doppelt so gut zum GF100...

Spasstiger
2010-02-28, 00:35:44
Der GF104 wird sicherlich kein 3/4-GF100 sein, sonst wäre er über 400 mm² groß. Und Nvidias Performance-Chip wird ganz sicher nicht so ein Brummer. Selbst AMDs High-End-Chip ist mit 334 mm² deutlich kleiner.
GF104 = 1/2 * GF100 passt imo sehr gut. Was die Performance angeht, muss man einfach abwarten. Ein GF100 @ 600 MHz müsste nach Adam Riese um 50% schneller sein als ein GF104 @ 800 MHz (600/800*2 = 1,5).
Wenn GF104 @ 800 MHz = Radeon HD 5850, dann wäre ein GF100 @ 512 SP @ 600 MHz 20-30% schneller als eine Radeon HD 5870.

Gast
2010-02-28, 02:19:49
Warum istn in der aus China stammenden Spekulation eine 480GTX nur mit 448SPs angemerkt? Dachte das Problem des "vollen" Fermi sei mit B1 Stepping behoben worde, bis Dezember ist ja quasi nie ein 512SP Chip vom Wafer gefallen.

LovesuckZ
2010-02-28, 02:22:33
Die wird mit "480"SP angegeben - also 15 SM.

Gast
2010-02-28, 02:34:30
Viel zu Konfus das ganze, GF104 wird wohl oder übel die Leistung einer GTX285 bringen müssen, aber das reicht vollkommen ^^ Eine GTX470 muss aber dann "weit" drüber liegen für den +300€ Preisraum.

LovesuckZ
2010-02-28, 02:36:55
Bin durch das Hardwareluxx.de Forum darauf gestoßen:
Jede Menge Details zum Fermi Launch (http://www.hardwareboard.eu/showthread.php?14480-Jede-Menge-Details-zum-Fermi-Launch)

Wird, wie so vieles im Netz, ein Fake sein, aber mal was positives. :D

mapel110
2010-02-28, 03:16:06
Die Forum-Seite ist ja schon 3 Wochen alt. Die stinkt ja schon.

N0Thing
2010-02-28, 03:38:11
Entweder ist GF104 ein GF100 mit nur 3 vollen GPC oder die Karte taktet 50% höher als die GTX470...

50% höher als eine GTX470, nach den im Beitrag von AnarchX genannten Werten des GTX470, wären 840MHz, was nicht so weit weg ist von den im gleichen Beitrag genannten 800MHz für den GF104. Wenn man annimmt, daß der GF104 vielleicht nicht ein simpler 1/2 GF100 ist, sondern auch noch 1-2 Anpassungen/Optimierungen von Nvidia verpaßt bekommen hat, muß der Beitrag nicht falsch sein.
Muß aber auch nicht richtig sein.

Dural
2010-02-28, 03:44:09
GF104 mit 32 ROPs und schon passt die Leistung ;)

aber die taktraten könnten schon zutreffen... zeigt aber auch deutlich das die GTX480 derzeit wohl kaum lieferbar sein wird... wenn die Leitung dann wirklich etwas unterhalb der 5970 ist werden wir auf verfügbare Karten sicher irgend welche mondpreise sehen... die GTX470 wird mit ihren 448SP und dem lowtakt sicher güstig und gut verfügbar sein :)

@nagus frag dich mal wer dich ernst nimmt...

=Floi=
2010-02-28, 04:08:16
bei der 5850er interessiert es ja auch keinen, dass die karte eigentlich einen beschnittener chip ist UND weniger takt hat. Der karte fehlt ~27% shaderleistung. Trotzdem ist jeder von der 5870er blind und kauft den langsamen billigen mist. :rolleyes:

Rampage 2
2010-02-28, 07:10:11
***edit: anscheinend stimmen die 256SPs fuer GF104 schon und es ist tatsaeglich ein bisschen spaeter als GF100 geplant. Es wird 2 Varianten davon geben die volle 256SP Version und eine kastrierte 192SP Version. SI soll der Anzahl von SPs angepasst sein.



wie schätzt du die restlichen Specs der 256SP-Version ein? - eine realistische Schätzung wenns sein darf;)

Also ich hoffe doch mal Folgendes:

32ROP's @min. 750MHz, 32TMU's @min. 1500MHz, 256SP's @min. 1750MHz, 256Bit SI @2GHz GDDR5

Hältst du diese Einschätzung für den GF104 für machbar?

Thx,

R2

Odal
2010-02-28, 07:39:43
Warum istn in der aus China stammenden Spekulation eine 480GTX nur mit 448SPs angemerkt? Dachte das Problem des "vollen" Fermi sei mit B1 Stepping behoben worde, bis Dezember ist ja quasi nie ein 512SP Chip vom Wafer gefallen.

was B1? hab ich was verpasst? dachte fermi wäre im A3

das wär ja quasi schon so ziemlich ein fermi refresh

Ailuros
2010-02-28, 08:02:57
Ein paar Frequenzspekulationen aus Asien:

http://we.pcinlife.com/thread-1364035-1-1.html

Sofern GF104 256SPs: GF104 -> +31% GTX 470 -> +34% GTX 480
Wobei der Unteschied zwischen 5850 und 5870 doch etwas geringer ist als diese theoretischen 31%.
Aber vielleicht spart man bei der GTX 470 und setzt wirklich nur 3,2-3,6Gbps GDDR5 ein.

Ein +/- von 50MHz waren in den letzten paar Wochen schon moeglich. Meine Schaetzung liegt immer noch in der Region:

GTX480=
512SPs/384bit, 1400-1450MHz hot clock, 1000-1050MHz GDDR5

GTX470=
448SPs/320bit, 1250-1300MHz hot clock, 850-900MHz GDDR5

Spaeter:

GTX460=
256SPs/256bit, 1450-1500MHz hot clock, 800-850MHz GDDR5

GTX450=
192SPs/192bit, 1300-1350MHz hot clock, 800-850MHz GDDR5

Kann sein dass ich die "450" ein bisschen zu konservativ angelegt habe was die Frequenzen betrifft aber es ist mir momentan weniger wichtig. Ich hab lediglich ein aelteres factsheet gesehen wo der halbe hot clock 25MHz Unterschied zwischen top dog und 1/2 GF100 hatte.

Weiter zur obrigen Milchmaedchen-Rechenuebung:

GTX480 vs. GTX470 (stets mit den kleinsten Frequenzen):

1434 vs. 1120 GFLOPs (-22%)
44.8 vs. 33.6 GTexels/s (-25%)
33.6 vs. 24.0 GPixels/s (-29%)
192 vs. 136 GB/s (-29%)

Die 460 im Vergleich zur 470 kommt hier mit der gleichen Reihenfolge wie oben auf -34%, -31%, -3%, -25%.

Die 450 hingegen im Vergleich zur 460 dann -33%,-33%-33%, -25%...

wobei nochmal die 450 Frequenzen zu konservativ klingen und man jegliches vom obrigen natuerlich besser anpassen kann.

Wenn die 460 tatsaechlich GT200b Leistung schafft dann liegen mehrere Leistungseinschaetzungen der letzten Tage total daneben. Uberhaupt dass die 470 lediglich 20-25% schneller ist als die GTX285.

Karma_Zhong
2010-02-28, 08:23:47
Viel zu Konfus das ganze, GF104 wird wohl oder übel die Leistung einer GTX285 bringen müssen, aber das reicht vollkommen ^^ Eine GTX470 muss aber dann "weit" drüber liegen für den +300€ Preisraum.

Muß er doch gar nicht, denn er tritt gegen die abgesetzte Reihe gar nicht an, sondern soll Ati das Wasser in der Lücke Mainstream und Performance abgraben. Da reicht die auf dem Papier errechnte Leistung von GF100/2 völlig aus. Der Chip bläst die Konkurrenz (auch die eigene) aus dem Wasser, wenn sie ihn nicht künstlich weiter beschneiden um ihn nicht zu stark werden zu lassen (oje, was denke ich da gerade nur).

Der Chip läßt sich einfacher produzieren, ist damit billig und in hoher Stückzahl verfügbar (bessere Yields). Im Gegensatz zu Ati's Mainstram kann er seine DualPrecision-fähigkeit behalten, da sie eh Teil des Designs war, und nicht nachträglich angestrickt wurde (wie bei den Kanadiern :D).

Die Negativpunkte sind das unausgegorene Design in punkto Energieeffizienz und Taktbarkeit. Ich hege arge Zweifel, daß sich Fermi/2 besser takten läßt. Er tritt also gänzlich in die Fußstapfen seiner 55nm Vorgänger, welcher erst ab 40nm brauchbar wurden (GT240). Fermi/2 könnte also von einem Die-Shrink profitieren. Fermi dagegen nicht.

Die Lücke zum Performancebereich, die zwangsläufig bei einer Halbierung der Werte entsteht, wird später mit angepaßten Modellen gefüllt (GF100 abspecken oder GF104 hochfrisieren, beides kennen wir ja aus der Vergangenheit zu genüge).

Ausnahmsweise glaube ich Jen-Hsun Huang, wenn er sagt, die Mainstream-Version wird zeitgleich starten. Die Fragen die offenbleiben:
Was kostet der Spaß?
Und wieviele lauffähige Chips können produziert werden um den Markt wirklich zu bedienen, und nicht um mit honöophatischen Dosen die Konsumenten nur "anzufixen".
Und vorallem, was meint er mit zeitgleich? Der Start war ja mal für letztes Jahr geplant.

Ein erfolgreiches Tape-Out wäre doch sicher längst durch alle Kanäle gesickert, oder?

Karma_Zhong
2010-02-28, 08:25:58
Viel zu Konfus das ganze, GF104 wird wohl oder übel die Leistung einer GTX285 bringen müssen, aber das reicht vollkommen ^^ Eine GTX470 muss aber dann "weit" drüber liegen für den +300€ Preisraum.
was B1? hab ich was verpasst? dachte fermi wäre im A3

das wär ja quasi schon so ziemlich ein fermi refresh

B1 wurde als "must have" in einem SemiAccurate Artikel erwähnt, wenn Nvidia die Probleme mit den "Bumps" in den Griff kriegen will. Da hat wohl einer was falsch herausgelesen.

Karma_Zhong
2010-02-28, 08:33:27
Kann sein dass ich die "450" ein bisschen zu konservativ angelegt habe was die Frequenzen betrifft aber es ist mir momentan weniger wichtig. Ich hab lediglich ein aelteres factsheet gesehen wo der halbe hot clock 25MHz Unterschied zwischen top dog und 1/2 GF100 hatte.


Nö, ich glaube du hast gerade den Neuen "geoutet".

Höhere Werte kommen erst im späteren Verlauf des Jahres (da muß noch etwas "Restmüll" abverkauft werden).
Die Leistung muß nur reichen um den Bereich von GTS250 - GT260/275 abzudecken.

äh doch, du kannst die Taktraten für den Speicher anheben. Ich gehe von 1050+ aus.
Und mich würde interessieren wie die Leistung bei Tesselation aussieht, wenn die Polymorphengine nicht mehr sovile Shader zur Unterstützung erhält. *iiiicks*

Fetter Fettsack
2010-02-28, 09:29:48
Da man des öfteren lesen kann, dass ein großer Teil des Umsatzes auch mit Low-End Karten gemacht wird, möchte ich die Frage aufwerfen, in wie weit man mit dem GF100 Design flächenmäßig nach unten kann. Sprich, ob man alle Einheiten gleichmäßig beschneiden kann, ohne übermäßig die Performance ungleichmäßig zu verändern (das man dann plötzlich eine MTex/s Limitierung hat [als Bsp.]), oder ob man ab einer bestimmten Grenze mache Einheiten (seinen es nun ROPs, TMUs oder sonstige) "stehen" lassen muss.

Die Frage stellt sich mir deshalb, weil man in diesem Bereich ja meist eng kalkulieren muss und man (meiner Ansicht nach) wohl auch versuchen muss, die Diefläche möglichst klein zu halten.

Gast
2010-02-28, 10:30:25
==> Da hast du den Nagel auf den Kopf getroffen.

1. Es ist definitiv so, es wird nach einer ersten kleinen Launch Menge längere Zeit so gut wie keine Verfügbarkeit der GTX4xx Karten geben.

2. NVIDIA ist sich des Problems der schlechten Verfügbarkeit bewusst, Sie wissen, dass Sie dafür von der Presse "gegrillt" werden. Zum ersten Mal gibt man unter vier Augen zu, dass man da "ein Problem" hat.

3. Laut meiner Info gibt es kein neues schnelleres ATi Produkt zum GTX4xx Launch.

4. Die Verfügbarkeit der 58xx Serie soll in den nächsten Wochen besser werden. Von AMD/ATi Seite sind aber keine Preissenkungen geplant.

5. NVIDIA hat bis vor kurzem noch an den finalen SPECS der GTX 4xx "gebastelt" (z.B. Taktfrequenz) und tut es vielleicht noch.

Warum NVIDIA unter diesen Umständen die Grafikkarten launched ?
Ich weiss es nicht ...

Weil Lovesucks gierig auf Quellen und allergisch ist auf "Insider Informationen", hier eine lose Ansammlung der Quellen:
MSI, NVIDIA, Medion, Sapphire.


Danke. Wenn das so stimmt dann werden es ja noch harte Monate für NV.

aths
2010-02-28, 12:34:39
Die Frage stellt sich mir deshalb, weil man in diesem Bereich ja meist eng kalkulieren muss und man (meiner Ansicht nach) wohl auch versuchen muss, die Diefläche möglichst klein zu halten.Für Lowend werden die so knallhart die Zahl der Units senken, dass sie aus einem Wafer viele GPUs bekommen. 3D-Leistung spielt da eine untergeordnete Rolle. Die dürfte sich dann zwischen 9400 GT und 9500 GT befinden, aber halt mit DirectX 11.

Redneck
2010-02-28, 13:03:36
nVidia senkte den Preis der GT200 Karten massiv nach unten. Nach einigen hier hätten dies nie und nimmer passieren dürfen.

Was hätte nie passieren dürfen ? Das NV den Preis von vornherein falsch angesetzt hatte oder das sie im nachhinein den Preis angepaßt haben ?

Finde den Vergleich zu GT200 hinkend, da wir damals faktisch eine andere Situation hatten, denn GT200 war lieferbar und mußte an den "Mann" gebracht werden (es ist ökonomisch schon ein Unterschied, ob man auf 10.000 Karten sitzen bleibt, weil sie zu teuer sind oder auf 1000.000). Nehmen wir einmal an es werden tatsächlich nur 10.000 x 470er.... die wird man immer los (weltweit ist das nur ein Tropfen auf den heissen Stein), auch wenn sie unverhältnismäßig teuer sein sollten.

Gruß

LovesuckZ
2010-02-28, 13:11:12
Was hätte nie passieren dürfen ? Das NV den Preis von vornherein falsch angesetzt hatte oder das sie im nachhinein den Preis angepaßt haben ?

Er wäre nie gesenkt wurden, nachdem was man hier und in anderen Foren liest.


Finde den Vergleich zu GT200 hinkend, da wir damals faktisch eine andere Situation hatten, denn GT200 war lieferbar und mußte an den "Mann" gebracht werden (es ist ökonomisch schon ein Unterschied, ob man auf 10.000 Karten sitzen bleibt, weil sie zu teuer sind oder auf 1000.000). Nehmen wir einmal an es werden tatsächlich nur 10.000 x 470er.... die wird man immer los (weltweit ist das nur ein Tropfen auf den heissen Stein), auch wenn sie unverhältnismäßig teuer sein sollten.
Gruß

GT200 war der größte Consumerchip zur damaligen Zeit. Wieso der plötzlich deutlich besser lieferbar sein sollte als der GF100 in einem Monat ist ziemlich schleierhaft. Bevor man also anfängt hier schon von gewissen Tatsachen zu reden, sollte man erstmal abwarten. Und wieso sollte nVidia den Preis nicht auf $299 setzen, wenn sie sowieso nur 10k Chips haben? Das wird ein Nullrechnenspiel und man hat massiv gute PR aufgrund des geringen Preises. Es macht nämlich keinen Sinn den Preis hoch anzusetzen, wenn man sowieso nicht liefern kann. Dann gehen die potentiellen Kunden gleich zum (einzigen) lieferbaren Konkurrenten und warten nicht 4 Monate.

Abgesehen davon spekuliert Rys im Beyond.com Forum, dass GF100 kleiner als < 500mm^2 ist:

It's a fair bit smaller than that (580mm2), by about 100mm², methinks.

Redneck
2010-02-28, 13:25:03
Er wäre nie gesenkt wurden, nachdem was man hier und in anderen Foren liest.



GT200 war der größte Consumerchip zur damaligen Zeit. Wieso der plötzlich deutlich besser lieferbar sein sollte als der GF100 in einem Monat ist ziemlich schleierhaft. Bevor man also anfängt hier schon von gewissen Tatsachen zu reden, sollte man erstmal abwarten. Und wieso sollte nVidia den Preis nicht auf $299 setzen, wenn sie sowieso nur 10k Chips haben? Das wird ein Nullrechnenspiel und man massiv gute PR aufgrund des geringen Preies. Es macht nämlich keinen Sinn den Preis hoch anzusetzen, wenn man sowieso nicht liefern kann. Dann gehen die potentiellen Kunden gleich zum (einzigen) lieferbaren Konkurrenten und warten nicht 4 Monate.

Abgesehen davon spekuliert Rys im Beyond.com Forum, dass GF100 kleiner als < 500mm^2 ist:

Gab es damals bei Einführung von GT200 ebenfalls soviele negative Spekus bzgl. der Lieferbarkeit ? Gefühlt meine ich nein.
Von Tatsachen habe ich nirgends geschrieben, im Gegenteil.
Geht man aber davon aus das an jedem Gerücht auch immer ein Fünklein Wahrheit ist.. naja, Rest kannst Du Dir denken.
Warum Sie den Preis nicht senken sollten , wenn es eh nur 10k Karten sind, hatte ich meiner vorherigen Post geschrieben (um AMD keinen Vorwand zu liefern die Preise nach unten zu schrauben). Solange AMD eine gesunde Preisdifferenz zu seinen eigenen Produkten sieht wäre es ökonomisch
schwachsinnig Geld zu verbrennen und Solange NV nur 10K liefern kann, die sie in jedem Fall an "Liebhaber" loswerden, wäre es auch für NV unsinnig die für
weniger Knete zu verticken.

Gruß

N0Thing
2010-02-28, 13:29:41
GT200 war der größte Consumerchip zur damaligen Zeit. Wieso der plötzlich deutlich besser lieferbar sein sollte als der GF100 in einem Monat ist ziemlich schleierhaft.

Der GT200 wurde nicht auf einem problematischen neuen Fertigungsverfahren hergestellt, sondern auf dem erprobten und wohl recht ausgereiften 65nm Prozess.
Daraus kann man natürlich nicht ablesen, daß der GF100 wegen dem 40nm Prozess nicht erhältlich sein wird, einen Vorteil in der Verfügbarkeit kann ich mir für den GF100 umgekehrt aber auch nicht vorstellen.

N0Thing
2010-02-28, 13:30:59
(um AMD keinen Vorwand zu liefern die Preise nach unten zu schrauben).

Ich glaube AMD kann auch ohne Vorwand ganz einfach die Preise senken. Für die andere Richtung braucht es eher einen guten Vorwand. ;)

Gast
2010-02-28, 13:34:43
Da man des öfteren lesen kann, dass ein großer Teil des Umsatzes auch mit Low-End Karten gemacht wird, möchte ich die Frage aufwerfen, in wie weit man mit dem GF100 Design flächenmäßig nach unten kann. Sprich, ob man alle Einheiten gleichmäßig beschneiden kann, ohne übermäßig die Performance ungleichmäßig zu verändern (das man dann plötzlich eine MTex/s Limitierung hat [als Bsp.]), oder ob man ab einer bestimmten Grenze mache Einheiten (seinen es nun ROPs, TMUs oder sonstige) "stehen" lassen muss.

Das geht besser als mit jeder GPU davor. So lange ganze GPCs skaliert werden bleibt die Balance auch erhalten, ROP/Speicherinterface können auch mit skaliert werden. (wobei sich bei 6 ROP-Paritions und 4 GPCs natürlich nicht immer gemeinsame Teiler ergeben müssen, so dass es zu leichten Verschiebungen der Balance kommen kann. Prinzipiell könnten diese aber auch durch Anpassung der Taktrate ausgeglichen werden)

Erst wenn man unter 1 GPC skalieren will leidet die Balance etwas, wobei es sicher immer noch besser ist, dass man nur 1 kleinen Rasterizer mitschleppen muss anstatt einen großen, wie früher.

Redneck
2010-02-28, 13:36:36
Ich glaube AMD kann auch ohne Vorwand ganz einfach die Preise senken. Für die andere Richtung braucht es eher einen guten Vorwand. ;)

natürlich koennten Sie das...
aber schließlich unterliegt AMD auch nur ökonomischen Zwängen (sprich, AMD pflückt das Geld auch nicht gerade von den Bäumen und muß erstmal zusehen, das sie Geld reinbekommen). Es geht also um die Notwendigkeit dies zu tun oder es zu lassen. Solange sie ihre Produkte weiterhin zum jetzigen Preis loswerden (und offensichtlich scheint das momentan kein Problem zu sein)... worin bestünde also die Veranlassung dies zu tun ?

Gruß

nagus
2010-02-28, 13:45:20
Ein paar Frequenzspekulationen aus Asien:

http://we.pcinlife.com/thread-1364035-1-1.html

Sofern GF104 256SPs: GF104 -> +31% GTX 470 -> +34% GTX 480
Wobei der Unteschied zwischen 5850 und 5870 doch etwas geringer ist als diese theoretischen 31%.
Aber vielleicht spart man bei der GTX 470 und setzt wirklich nur 3,2-3,6Gbps GDDR5 ein.

nichts für ungut, aber wie glaubwürdig ist jemand mit einem einzigen posting? :rolleyes:

LovesuckZ
2010-02-28, 14:03:06
Gab es damals bei Einführung von GT200 ebenfalls soviele negative Spekus bzgl. der Lieferbarkeit ? Gefühlt meine ich nein.

Ja, von Char-lie. Ein paar Beispiele? gerne:


There are several problems with the GT200, most of which are near fatal. The first is the die size, 576mm^2, bigger than most Itanics. One might trust Intel to make a chip that big with decent yields, especially if it is basically an island of logic in the middle of a sea of cache. Nvidia using a foundry process doesn't have a chance of pulling this off.


What are they going to do? Emails seen by the INQ indicate they are going to play the usual PR games to take advantage of sites that don't bother checking up on the 'facts' fed to them. They plan to release the GT200 in absurdly limited quantities, and only four AIBs are going to initially get parts.

In the end, NV is facing a tough summer in the GPU business. They are effectively out of the Montevina market, and they are going to lose the high end in a spectacular way. Nvidia has no effective countermeasure to the R770, the GT200 was quite simply botched, and now they are going to pay for it. When all you have is a hammer, everything looks like a 5800.
http://www.theinquirer.net/inquirer/news/1049121/nvidia-gt200-sucessor-tapes

Exakt das selbe wie heute. Fazinierend, nicht? :D


Von Tatsachen habe ich nirgends geschrieben, im Gegenteil.
Geht man aber davon aus das an jedem Gerücht auch immer ein Fünklein Wahrheit ist.. naja, Rest kannst Du Dir denken.
Warum Sie den Preis nicht senken sollten , wenn es eh nur 10k Karten sind, hatte ich meiner vorherigen Post geschrieben (um AMD keinen Vorwand zu liefern die Preise nach unten zu schrauben). Solange AMD eine gesunde Preisdifferenz zu seinen eigenen Produkten sieht wäre es ökonomisch
schwachsinnig Geld zu verbrennen und Solange NV nur 10K liefern kann, die sie in jedem Fall an "Liebhaber" loswerden, wäre es auch für NV unsinnig die für
weniger Knete zu verticken.

Gruß

nVidia verdient ca. $500 Millionen als Umsatz in ihrem Geforce Busines. 10k Chips auf 10k Karten sind - egal ob -$200 Verlust bis $200 Gewinn pro Chip - ein Pfurz im Wasserglas für sie. Die müssen wohl kaum für 10k Chips die paar Interessanten wie eine Weihnachtsgans ausnehmen. Dann sollten sie die Karten liebers verschenken.

AwesomeSauce
2010-02-28, 14:20:29
@LovesuckZ

Der Link ist genial:D
The GT200 is about six months late, blew out their die size estimates and missed clock targets by a lot. ATI didn't. This means that buying a GT260 board will cost about 50 per cent more than an R770 for equivalent performance.
Kommt mir bekannt vor:freak:

Ailuros
2010-02-28, 14:32:23
Abgesehen davon spekuliert Rys im Beyond.com Forum, dass GF100 kleiner als < 500mm^2 ist:

Um genauer zu sein hiess es 495mm2 vor geraumer Zeit aber das Geruecht kam nicht direkt von NV. Wenn dem so waere dann muesste GF104 kleiner und nicht leicht groesser als G92b sein.

Fetter Fettsack
2010-02-28, 14:37:55
Danke, aths.

War dein Beispiel dahingehend gemeint, dass man bis auf diese Leistungsgrenze problemlos gleichmäßig "herunterschnipseln" kann, oder wird man für noch schwächere Karten (auf dem Level der GT210 etwa) noch die aktuelle 40nm (die etwa bei der GT210 verwendet wird) Architektur mit einer Erweiterung für DX11 verwenden?

Oder wäre es naheliegender, dass man einen GF100 auch noch z.B. "achteln" kann und man das Ganze auf diese Weise löst?

LovesuckZ
2010-02-28, 14:41:18
Um genauer zu sein hiess es 495mm2 vor geraumer Zeit aber das Geruecht kam nicht direkt von NV. Wenn dem so waere dann muesste GF104 kleiner und nicht leicht groesser als G92b sein.

Wenn GF1004 4 statt 3 ROP-Partitionen hat, dann sind +-300mm^2 möglich. Immerhin war G94 auch 240mm^2 und der G92 323mm^2 bei doppelt sovielen Cluster aber gleicher Anzahl an ROP Partitionen und somit DRAM Connectors.

Ailuros
2010-02-28, 15:03:00
Wenn GF100 4 statt 3 ROP-Partitionen hat, dann sind +-300mm^2 möglich.

Meinst Du jetzt GF104 und die 100 ist ein Tippfehler? GF100 hat mit Sicherheit 6 ROP partitions und GF104 4. Die zweite kastrierte 104 Variante soll 3 haben, ergo vereinfacht so viel bits Busbreite wie SPs (256/256, 192/192).

LovesuckZ
2010-02-28, 15:05:37
Meinst Du jetzt GF104 und die 100 ist ein Tippfehler? GF100 hat mit Sicherheit 6 ROP partitions und GF104 4. Die zweite kastrierte 104 Variante soll 3 haben, ergo vereinfacht so viel bits Busbreite wie SPs (256/256, 192/192).

Ja, Tippfehler. Wenn GF104 4 ROP Paritionen aufweist, dann ist es möglich, dass GF100 unter 500mm^2 ist. Immerhin nehmen die DRAM Verbindungen Platz auf dem Die weg, der nicht mit anderen Transistoren gefüllt werden kann. G94 ist ein gutes Beispiel dafür.

Ailuros
2010-02-28, 15:14:19
Ja, Tippfehler. Wenn GF104 4 ROP Paritionen aufweist, dann ist es möglich, dass GF100 unter 500mm^2 ist. Immerhin nehmen die DRAM Verbindungen Platz auf dem Die weg, der nicht mit anderen Transistoren gefüllt werden kann. G94 ist ein gutes Beispiel dafür.

Oder irgendwo bei der Reise durch die verschiedenen Geruechte-Kanaele viel irgendwo ein Fehler ein und GF104 ist groesser als G92 (wie mir anfangs vermittelt wurde) und nicht G92b.

Sei froh wenn GF100 doch irgendwo auf 550mm2 liegt. Im Gegenfall waere 495mm2 vergleichbare Packdichte zum Cypress was aber alles andere als ein wirklicher Segen ist selbst fuer AMD. Bei so hohen hot clocks und noch mehr diesmal wo so viel mehr Einheiten auf 1/2 hot clock laufen waere ein breiterer Teig fuer die die area total angebracht.

AwesomeSauce
2010-02-28, 15:22:42
PCGH dürfte in absehbarer Zeit die neuen GeForces erhalten:
http://www.pcgameshardware.de/aid,705690/Test-der-Geforce-GTX-480/470-Welche-Benchmarks-wuenschen-Sie-sich/Grafikkarte/News/

LovesuckZ
2010-02-28, 15:24:24
Oder irgendwo bei der Reise durch die verschiedenen Geruechte-Kanaele viel irgendwo ein Fehler ein und GF104 ist groesser als G92 (wie mir anfangs vermittelt wurde) und nicht G92b.

Sei froh wenn GF100 doch irgendwo auf 550mm2 liegt. Im Gegenfall waere 495mm2 vergleichbare Packdichte zum Cypress was aber alles andere als ein wirklicher Segen ist selbst fuer AMD. Bei so hohen hot clocks und noch mehr diesmal wo so viel mehr Einheiten auf 1/2 hot clock laufen waere ein breiterer Teig fuer die die area total angebracht.

Ich lass' mich überraschen. Meine Kaufentscheidungen werden nicht aufgrund der Die-Größe getroffen. ;)

Ailuros
2010-02-28, 15:33:56
Ich lass' mich überraschen. Meine Kaufentscheidungen werden nicht aufgrund der Die-Größe getroffen. ;)

Sicher nicht. Ich hab sowohl Rys als auch Dir ein PM geschickt :P

foenfrisur@gast
2010-02-28, 17:05:39
hier kann man den fermi und die neuen ati´s VORBESTELLEN

http://www.benchzone.com/preorders.htm

mfg

Grestorn
2010-02-28, 17:13:03
Scherzkekse...

Gipsel
2010-02-28, 17:13:15
Im Gegensatz zu Ati's Mainstram kann er seine DualPrecision-fähigkeit behalten, da sie eh Teil des Designs war, und nicht nachträglich angestrickt wurde (wie bei den Kanadiern :D).
;D
Dann frage Dich mal, warum schon RV670, RV770 und auch RV740 DP konnten und wie das da funktionierte. Bei ATI war das schon immer integraler Bestandteil ohne wirklich großen Zusatzaufwand (deswegen auch nur mit 1/4 bzw. 1/5 der SP-Rate). Nachträglich angestrickt wurde es beim GT200, da ist es um die Geschwindigkeit auch recht übel bestellt.

Bei Fermi ist DP jetzt auch ein integraler Bestandteil, weswegen es ohne ein angepaßtes Design der SMs (bei ATI hat Juniper etwas andere/kleinere ALUs als Cypress!) auch nicht sinnvoll wäre, das zu entfernen. Das wird bei den Geforce-Varianten des GF100 wohl auch nur zur besseren Marktsegmentierung (Abgrenzung zu den Teslas) getan.
Abgesehen davon spekuliert Rys im Beyond.com Forum, dass GF100 kleiner als < 500mm^2 ist:Wenn nv nicht mit einem Mal die Pads für das GDDR5-Interface in kleineren Abständen setzen kann als bei einem GT215, dann stehen die ~550mm² anhand des veröffentlichten Die-Shots ziemlich fest.

Spasstiger
2010-02-28, 17:34:18
;D
Dann frage Dich mal, warum schon RV670, RV770 und auch RV740 DP konnten und wie das da funktionierte. Bei ATI war das schon immer integraler Bestandteil ohne wirklich großen Zusatzaufwand (deswegen auch nur mit 1/4 bzw. 1/5 der SP-Rate). Nachträglich angestrickt wurde es beim GT200, da ist es um die Geschwindigkeit auch recht übel bestellt.
Jopp, die verbauten VEC5-ALUs waren schon immer (seit dem RV670) für dp-Operationen ausgelegt, vermutlich sogar schon immer in Form von dp-FMA-Operationen (wie bei Fermi). Eine nachträglich eingefügt Softwarelösung würde sicherlich nicht die Rechenleistung liefern, die heute konkret im HPC-Bereich demonstriert wird.

Gast
2010-02-28, 18:07:41
Oder wäre es naheliegender, dass man einen GF100 auch noch z.B. "achteln" kann und man das Ganze auf diese Weise löst?

Man könnte sicher auch eine GPU mit einem GPC mit nur 2 SMs herstellen.

Ob man es machen wird ist schwer zu sagen, für IGPs auf jeden Fall, aber da NV ja aus dem Chipsatz-Geschäft aussteigt werden wir wohl kaum einen DX11-IGP sehen.

In dem Bereich ist man mit den aktuellen 40nm-Produkten eigentlich ganz gut aufgestellt und DX11 braucht da auch niemand. Ich deshalb nicht dass wir GPUs sehen werden die physisch weniger als einen ganzen GPC aufweisen, teildeaktivierte Chips wären natürlich denkbar.

Redneck
2010-02-28, 19:31:22
Ja, von Char-lie. Ein paar Beispiele? gerne:


nVidia verdient ca. $500 Millionen als Umsatz in ihrem Geforce Busines. 10k Chips auf 10k Karten sind - egal ob -$200 Verlust bis $200 Gewinn pro Chip - ein Pfurz im Wasserglas für sie. Die müssen wohl kaum für 10k Chips die paar Interessanten wie eine Weihnachtsgans ausnehmen. Dann sollten sie die Karten liebers verschenken.

wer hat behauptet das sie an den 10k karten pleite gehen würden ?
Was passiert aber danach, wenn die Produktion rund läuft und es Millionen Chips werden. Meinst Du im ernst, das NV dann den Preis wieder von 299 auf 399 oder mehr anheben kann... ich denke Du weißt worauf ich hinaus will.

Gruß

LovesuckZ
2010-02-28, 19:35:45
Was passiert aber danach, wenn die Produktion rund läuft und es Millionen Chips werden. Meinst Du im ernst, das NV dann den Preis wieder von 299 auf 399 oder mehr anheben kann... ich denke Du weißt worauf ich hinaus will.
Gruß

Warum sollten sie den Preis anheben? Wenn sie erst im Juli überhaupt eine Masse an Chips liefern können, dann ist $299 eine guter Preis. Vorallem, weil sowieso ein Größteil sich mit AMD Karten eingedreckt hat - oder wieso sollten die potentiellen Kunden nochmal 4 Monate warten? :confused:

Dural
2010-02-28, 19:49:20
Für wie viel wurde noch mal die GTX260 verkauft?

GTX260 = GTX470 :rolleyes:

NV wäre ziemlich dämmlich wenn sie mit einem sehr hohem Preis für die GTX470 ankämen:

1. Marktanteile müssen zurück
2. 512SP ausbeute sehr schlecht, da will man so viele GF100 Chips wie möglich Herstellen und Verkaufen (448SP)
3. Kein DX11 Only Hardware wie zu DX10 Zeiten (G80)
4. Auch wenn es immer noch fast keiner begreift und der DIE 500mm oder was weis ich gross ist... die GTX470 GPU ist teildeaktiviert und hat low takt = grosse Ausbeute = tiefer Preis! Preislich werden 5870 GPU und GTX470 auf keinem Fall weit auseinander liegen!!! Und die RV870 Ausbeute scheint auch sehr schlecht zu sein siehe 5830... Der GF100 fängt Preislich dort an wo RV870 Preislich aufhört...
5. 448SP ausbeute scheint sehr gut zu sein, besser billig verkaufen als weg zu werfen ;)

Ich bin überzeugt das NV bei der GTX470 Preislich agressiv starten wird, sie haben auch gar keine andere wahl!

S940
2010-02-28, 20:10:45
Und die RV870 Ausbeute scheint auch sehr schlecht zu sein siehe 5830...
Ja aktuell- also zu Zeiten zu denen AMD schon fertige Cypress Chips in allen Variantionen verkauft und nV nichts.
Das 58x0/5970 Angebot ist zwar nicht super, aber die Mehrzahl geht wohl in den OEM Markt, immerhin dafür reichts.

Wenn jetzt irgendwann der Prozess für den Fermi reicht, dann kann man dann auch mit höheren Cypress Yields rechnen, zumindest unter der Annahme, dass das ganze Problem prozessabhängig ist/war, nicht designabh..

dildo4u
2010-02-28, 20:13:37
Das 58x0/5970 Angebot ist zwar nicht super, aber die Mehrzahl geht wohl in den OEM Markt, immerhin dafür reichts.

Was imo Unsinn ist dort werden verdammt wenig 300€+ Karten verbaut.

aths
2010-02-28, 20:16:25
Was imo Unsinn ist dort werden verdammt wenig 300€+ Karten verbaut.Das ist relativ betrachtet richtig. In absoluten Zahlen gehen aber mehr Performance/Highendkarten weg als man denkt. (Alienware/Dell als Beispiel.)
Ich bin überzeugt das NV bei der GTX470 Preislich agressiv starten wird, sie haben auch gar keine andere wahl!Ich sags mal so, die GTX 470 bietet – auf das GeForce-Segment bezogen – gute Performance für den Preis.

S940
2010-02-28, 23:29:50
Das ist relativ betrachtet richtig. In absoluten Zahlen gehen aber mehr Performance/Highendkarten weg als man denkt. (Alienware/Dell als Beispiel.)
Eben, letztens gabs doch auch irgendeine Discounter Kiste mit 5850 ... die bauen da mehr als 10 Stück ...

Undertaker
2010-02-28, 23:38:03
Ich bin überzeugt das NV bei der GTX470 Preislich agressiv starten wird, sie haben auch gar keine andere wahl!

Die spannende Frage wird ja zunächst einmal, wie schnell die Karte im Vergleich zur HD5870 wird und inwieweit es sich jeweils mit der Lieferbarkeit verhält - ATI hat sich offensichtlich etwas einen Bock geschossen, in dem man einzelnen Händlern durch mangelnde Konkurrenz die Möglichkeit gab Mondpreise zu verlangen, anstatt die Gewinne selbst einzustecken.

Nvidia wäre blöd, den gleichen Fehler zu wiederholen.

Gast
2010-03-01, 06:23:10
Die spannende Frage wird ja zunächst einmal, wie schnell die Karte im Vergleich zur HD5870 wird und inwieweit es sich jeweils mit der Lieferbarkeit verhält - ATI hat sich offensichtlich etwas einen Bock geschossen, in dem man einzelnen Händlern durch mangelnde Konkurrenz die Möglichkeit gab Mondpreise zu verlangen, anstatt die Gewinne selbst einzustecken.

Nvidia wäre blöd, den gleichen Fehler zu wiederholen.

Wenn du wüsstest wie Marktwirtschaft funktioniert, dann wüsstest du das weder AMD noch NV noch sonst irgend jemand darauf einen Einfluss haben. Bei mangelnden Stückzahlen werden die Händler _IMMER_ "Mondpreise" verlangen, ganz einfach weil sie es sich leisten können. AMD hat ja auch den Preis ihrer Karten schon relativ hoch angesetzt und sogar noch mal erhöht. Aber selbst wenn NV für ihre Karten eine Million verlangt werden die Händler noch was drauf schlagen.

Menace
2010-03-01, 07:09:59
Ich sags mal so, die GTX 470 bietet – auf das GeForce-Segment bezogen – gute Performance für den Preis.

Ich gehe auf Grund Deiner Formulierung mal davon aus, dass Du mehr Informationen hast (sonst hättest Du wohl "Ich nehme an, dass" oder so ähnlich formuliert. "Gute Performance" hört sich nicht wirklich enthusiastisch an.

Gast
2010-03-01, 07:30:32
Wenn du wüsstest wie Marktwirtschaft funktioniert, dann wüsstest du das weder AMD noch NV noch sonst irgend jemand darauf einen Einfluss haben. Bei mangelnden Stückzahlen werden die Händler _IMMER_ "Mondpreise" verlangen, ganz einfach weil sie es sich leisten können. AMD hat ja auch den Preis ihrer Karten schon relativ hoch angesetzt und sogar noch mal erhöht. Aber selbst wenn NV für ihre Karten eine Million verlangt werden die Händler noch was drauf schlagen.
Wenn die Karten knapp sind und Nvidia viel verlangt können die Händler nicht viel drauf schlagen.

Wenn die Karten knapp sind und Nvidia wenig verlangt können die Händler viel verlangen. In dem Fall kann Nvidia am ehesten erreichen, das die Kunden wenn sie keine abbekommen warten anstatt zur Konkurrenz zu laufen.

Wichtig ist eins, Nvidia weiss vorm Start ob es knapp ist oder nicht. Die Überraschung kommt nicht erst, wenn die Händler merken das die Kartons die Regale nicht füllen.
Gibts eigentlich inzwischen Belege für die Knappheit der 470?

Ailuros
2010-03-01, 08:02:38
Gibts eigentlich inzwischen Belege für die Knappheit der 470?

Kann man eigentlich solch eine Frage wirklich beantworten wenn man nicht weiss wo die Nachfrage liegen wird? Die Nachfrage wird u.a. dann auch von dem Preis-/Leistungsnivaeu beinflusst.

Wie dem auch sei wenn die yield-Angaben fuer GF100 die im Hintergrund herumschwirren stimmen sollten, dann sieht es nicht danach aus als ob die 470 eine schlechtere Verfuegbarkeit haben wird als die 5800-er bei ihrem Launch.

Bevor man aber zu dem Punkt ueberhaupt kommt gilt nach wie vor die Ankuendigung abzuwarten, den finalen Preis und wie sich eine 470 genau platziert was die Leistung betrifft im Vergleich zur 5870.

Undertaker
2010-03-01, 08:35:11
Wenn du wüsstest wie Marktwirtschaft funktioniert, dann wüsstest du das weder AMD noch NV noch sonst irgend jemand darauf einen Einfluss haben. Bei mangelnden Stückzahlen werden die Händler _IMMER_ "Mondpreise" verlangen, ganz einfach weil sie es sich leisten können. AMD hat ja auch den Preis ihrer Karten schon relativ hoch angesetzt und sogar noch mal erhöht. Aber selbst wenn NV für ihre Karten eine Million verlangt werden die Händler noch was drauf schlagen.

Unfug, der andere Gast hat es ja auch schon geschrieben. Wenn Nvidia den Abgabepreis bereits so hoch ansetzt, dass die Nachfrage auf das Niveau des Angebots gedrückt wird, kann auch bei sehr kleinen Stückzahlen eine Verfügbarkeit bei vielen Händlern erreicht werden -> Mondaufschläge einzelner Anbieter sind nicht mehr möglich.

Gast
2010-03-01, 08:41:03
Unfug, der andere Gast hat es ja auch schon geschrieben. Wenn Nvidia den Abgabepreis bereits so hoch ansetzt, dass die Nachfrage auf das Niveau des Angebots gedrückt wird, kann auch bei sehr kleinen Stückzahlen eine Verfügbarkeit bei vielen Händlern erreicht werden -> Mondaufschläge einzelner Anbieter sind nicht mehr möglich.

Und wie hoch will man den Preis zu beginn setzen bei den zu erwartenden kleinen Stückzahlen zumindest bei der GTX480? $1000 oder mehr? Das soetwas höchst unseriös wäre und vom Kunden sicherlich nur goutiert wird sollte wohl auf der Hand liegen.

Undertaker
2010-03-01, 09:32:04
Der Verlauf zwischen Nachfrage und Preis dürfte wohl stark einer (verschobenen) Funktion der Art -(x^3) ähneln, schon geringste Preissteigerungen über ein gewisses Maß hinaus würden die Nachfrage extrem verringern. Nehmen wir an, die GTX470 wäre so schnell wie die HD5870 und hätte bei identischem Preis 100.000 Käufer. Bei 50€ Aufpreis blieben da vielleicht noch 30.000, bei 100€ Aufpreis vielleicht noch 5.000... Ähnliches Bild für die GTX480: Über 600-700€ nimmt das Käuferinteresse extrem ab. Man denke an die ASUS Mars für 1000€, die trotz einer weltweiten Witz-Stückzahl von 1000 Einheiten lange Zeit problemlos lieferbar war.

Gast
2010-03-01, 09:37:23
Der Verlauf zwischen Nachfrage und Preis dürfte wohl stark einer (verschobenen) Funktion der Art -(x^3) ähneln, schon geringste Preissteigerungen über ein gewisses Maß hinaus würden die Nachfrage extrem verringern. Nehmen wir an, die GTX470 wäre so schnell wie die HD5870 und hätte bei identischem Preis 100.000 Käufer. Bei 50€ Aufpreis blieben da vielleicht noch 30.000, bei 100€ Aufpreis vielleicht noch 5.000... Ähnliches Bild für die GTX480: Über 600-700€ nimmt das Käuferinteresse extrem ab. Man denke an die ASUS Mars für 1000€, die trotz einer weltweiten Witz-Stückzahl von 1000 Einheiten lange Zeit problemlos lieferbar war.

Eine Funktion welche die Nachfrage in Abhängigkeit von der Preisänderung beschreibt bezeichnet man auch als "Preiselastizität".

Erster Treffer bei Google:
http://www.study-board.de/forum/volkswirtschaftslehre/39511-preielastizitaet-d-nachfrage-formel.html

svenw
2010-03-01, 09:41:26
ATI und NV können den Abgabepreis kaum beeinflussen! Ihre "Preisempfehlung" ist genau das: Eine Empfehlung. Wenn der Händler mehr/oder weniger nehmen will ist das sein Bier! Weder ATI noch Nvidia haben direkten Durchgriff auf die Händler, denn sie fertigen die Karten nicht selber sondern verkaufen nur die Chips. Ob irgendein Händler verärgert wird, ist beiden Latte, aber bei den Graka Herstellern sieht das anders aus! Davon gibt es nun mal nicht so viele und mit denen will es sich keiner unbedingt verscherzen. Außerdem geht eine Karte mindestens durch 2-3 Hände bevor sie im Laden steht und jeder will sein Stück vom Kuchen haben. In einem Thread war von einem aktuellen Händler!!!!-Einkaufspreis von 370€ für eine 5870 die Rede.

Gast
2010-03-01, 10:20:22
hat schon jemand ne info ob man auf der cebit die gtx 470 oder gtx 480 zu sehn bekommt oder alles nur hinter verschlossen türen?

foenfrisur@Gast
2010-03-01, 14:09:15
erste FERMI-Sichtung auf der Cebit

http://www.pcgameshardware.de/aid,705737/Geforce-GTX-4xx-Erste-Fermi-Grafikkarte-auf-der-Cebit-gesichtet/Grafikkarte/News/

mfg

Bucklew
2010-03-01, 14:12:48
erste FERMI-Sichtung auf der Cebit

http://www.pcgameshardware.de/aid,705737/Geforce-GTX-4xx-Erste-Fermi-Grafikkarte-auf-der-Cebit-gesichtet/Grafikkarte/News/
Und die ersten Fanboys kriegen schon kalte Füße:
http://extreme.pcgameshardware.de/kommentare-zu-grafikkarten/91897-geforce-gtx-4xx-erste-fermi-grafikkarte-auf-der-cebit-gesichtet-2.html#post1589339

Ich warte dann schon gespannt auf die ganzen ATIler, die ja den Stromverbrauch mit der HD4x-Reihe als "egal" bezeichnet haben, jetzt plötzlich den Stromverbrauch einer High-End (!) Karte als das wichtigste Feature bezeichnen ;D

foenfrisur@Gast
2010-03-01, 14:12:52
"...Wie wir unter der Hand erfuhren, soll die kleinere Version der Geforce GTX 4xx preislich im Bereich von circa 300 bis 400 Euro liegen, das Topmodell mit 500 bis 600 Euro deutlich darüber..."

wahnsinns preise.......

foenfrisur@Gast
2010-03-01, 14:15:24
@buckle-view

ich geh mal davon aus, das es NICHT die echte gtx-375 ist.

denn anfangs sollten die karte meine ich ja auch erst gtx-3xx heißen und nun haben sie eben die 4 statt der 3...

wäre zumindest möglich, wenn man die stromanschlüsse betrachtet.

mfg

Gast
2010-03-01, 14:17:18
Und die ersten Fanboys kriegen schon kalte Füße:
http://extreme.pcgameshardware.de/kommentare-zu-grafikkarten/91897-geforce-gtx-4xx-erste-fermi-grafikkarte-auf-der-cebit-gesichtet-2.html#post1589339

Ich warte dann schon gespannt auf die ganzen ATIler, die ja den Stromverbrauch mit der HD4x-Reihe als "egal" bezeichnet haben, jetzt plötzlich den Stromverbrauch einer High-End (!) Karte als das wichtigste Feature bezeichnen ;D

Wahnsinn ein Bild einer GF100-Karte- die Welt erzittert (scheinbar im wahrsten Sinne des Wortes).
Unglaublich was für ein dämlicher Hype das ist.

Bucklew
2010-03-01, 14:19:10
ich geh mal davon aus, das es NICHT die echte gtx-375 ist.

denn anfangs sollten die karte meine ich ja auch erst gtx-3xx heißen und nun haben sie eben die 4 statt der 3...

wäre zumindest möglich, wenn man die stromanschlüsse betrachtet.
Ich gehe mal davon aus, dass PCGH damit die Windows-interne Bezeichnung im Geräte-Managar & Co meint - auf der Karte steht nämlich nix von GeForce xxx (zumindest soweit man es erkennen kann). Daher stammt die Bezeichnug einfach nur aus dem inf-File des Treibers und das sagt gar nix aus, kann man beliebig ändern.

btw: man kann meinen nick auch richtig schreiben....

AnarchX
2010-03-01, 14:20:24
Die Zahl zwischen GPU-Codenamen und Revision, also die 375 steht für das Bin und nicht die SKU-Bezeichnung.

>300 Bin GPUs sind häufig die höchsten Versionen, dementsprechend ist die Karte hier wohl eher eine GTX 480.

Gast
2010-03-01, 14:23:14
was ich lustig finde ist die aussage das der rechner von einem nvidia mitarbeiter bewacht wird!


ich tippe mal drauf das man auf der cebit nicht viel sehn wird...kommen eben erst am 26.märz fakten!

LovesuckZ
2010-03-01, 14:29:58
Wie wir unter der Hand erfuhren, soll die kleinere Version der Geforce GTX 4xx preislich im Bereich von circa 300 bis 400 Euro liege

$299 - wir kommen.*

*Bla, ich weiß, dass 300-400€ nicht $299 entsprechen.

foenfrisur@Gast
2010-03-01, 14:32:49
sorry@Bucklew für falsche schreibweise. habs zu spät gesehen.

aber man sieht auf einem Foto DEFINTIV den aufdruck auf dem aufkleber ;)
es ist also nix vom treiber bzw. gerätemanager abgelesen.

schließlich lief ja die demo. (ruckelig)

wenn das eine 480 gtx sein sollte, wieso dann aber ruckeln bei der demo?

aber gut...könnte ja an vieles liegen.

mfg

LovesuckZ
2010-03-01, 14:34:04
sorry@Bucklew für falsche schreibweise. habs zu spät gesehen.

aber man sieht auf einem Foto DEFINTIV den aufdruck auf dem aufkleber ;)
es ist also nix vom treiber bzw. gerätemanager abgelesen.

schließlich lief ja die demo. (ruckelig)

wenn das eine 480 gtx sein sollte, wieso dann aber ruckeln bei der demo?

aber gut...könnte ja an vieles liegen.

mfg

Warst du schon auf der Cebit?

Hat sich erledigt.

/edit: Man sollte das Ruckeln nicht überbewerten: nVidia setzt PhysX und Tessellationen in Masse ein. Das ist heftig GPU-limitierend.

Bucklew
2010-03-01, 14:38:44
aber man sieht auf einem Foto DEFINTIV den aufdruck auf dem aufkleber ;)
es ist also nix vom treiber bzw. gerätemanager abgelesen.
Da steht (auf dem Aufkleber) aber nichts von GeForce :) Und PCGH schreibt das "GeForce GTX 375" ja gezielt in Anführungszeichen, daher tippe ich auf Windoof Gerätemangaer. Vielleicht kann ja einer von PCGH der hier mitliest mal was dazu sagen ;)

schließlich lief ja die demo. (ruckelig)

wenn das eine 480 gtx sein sollte, wieso dann aber ruckeln bei der demo?
Weil vllt Software und Treiber noch Beta ist? ;)

Dural
2010-03-01, 15:01:11
haha wer hatte mit seinen preisen wider mal recht? ;)

so wo ist nagus? :freak:

foenfrisur@Gast
2010-03-01, 15:01:23
also auf dem aufkleber steht:

"GF100 375 A3"

daraus schliesst pcgh zu recht, das es sich quasi um eine "geforce 375" handelt ;)

@lovesuckz
ich habe zwar ein ticket für die cebit, aber ich glaube ich schaffe es nicht da hin.

mfg

Dural
2010-03-01, 15:03:48
neee, 375 steht für die Chip Version/qualität...

ab 4xx gibt es volle GF100 ;)

foenfrisur@Gast
2010-03-01, 15:04:00
aber stimmt eigentl. mit dem was du bezgl. "geforce gtx 375" sagst.

geht aus dem text nicht wirklich hervor.
my fault.

mfg

Bucklew
2010-03-01, 15:07:59
also auf dem aufkleber steht:

"GF100 375 A3"

daraus schliesst pcgh zu recht, das es sich quasi um eine "geforce 375" handelt ;)
siehe:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7874178&postcount=13157

Und damit hat er Recht und glaube nicht, dass PCGH solch einen Anfängerfehler macht, das passt eher zum guten Charlie ;D

Shaft
2010-03-01, 15:08:37
400€ für die 470 wären mir persönlich zuviel, bei 300€ würd ich zuschlagen.
Aber solange es keine Benchmarks gibt und somit kein ersichtliches P/L gibt, heissts abwarten.

Bin gespannt auf die ersten Benchmarks von PCGH.

Dural
2010-03-01, 15:20:51
wenigsten ist jetzt sicher das es wirklich A3 gibt :)

Ailuros
2010-03-01, 15:25:38
Tut mir einen Gefallen und begrenzt Euch darauf den Thread entweder mit neuen Daten oder sachlichen Meinungen zu fuettern. Bestaetigungen der Art "ich sagte ja blah blah blah" oder Sticheleien sind ueberflussig und generieren nur Unruhe. Danke.

AnarchX
2010-03-01, 15:28:33
Colorful GTX 480 Box @ Cebit: http://www.hexus.net/content/item.php?item=22654

1,5GiB und eine 600W NT-Empfehlung (GTX 295 war 680W und GTX 280 550W).
Zudem wohl schon ein eigenes Lüfterdesign und keine Referenz.

James Ryan
2010-03-01, 15:29:25
Ich habe auf der Rückseite mal nach dem NVIO-Chip, bzw. dessen Schraublöcher für den Kühler gesucht, bin aber nicht fündig geworden.
Hat die neue Geforce keinen seperaten NVIO mehr?
Wäre wichtig für Alternativkühler. ;)

MfG :cool:

AnarchX
2010-03-01, 15:30:53
Ich habe auf der Rückseite mal nach dem NVIO-Chip, bzw. dessen Schraublöcher für den Kühler gesucht, bin aber nicht fündig geworden.

Das wurde schon vor längerem bestätigt, dass es kein NVIO mehr gibt.

James Ryan
2010-03-01, 15:31:40
Das wurde schon vor längerem bestätigt, dass es kein NVIO mehr gibt.

Sorry, habe ich wohl nicht mitbekommen. :redface:
Danke für die Info!

MfG :cool:

Kalmar
2010-03-01, 15:38:21
also die preise da scheinen die schlimmen befürchtungen zu stimmen und bei dem stromverbrauch auch ..

wenn preis+stromverbrauch = 5970 aber leistung unter 5970 wird es auch schwer .. nunja helfen nur benchmarks aber wenn dort schon einzelne karten zu sehen sind [außer das sind nur schonmal vorproduzierte kartons] sollte doch auch hier oder da nen benchmark abfallen oder net ?

was mich wudnert sind die ruckler sollte son vorführsystem eigentlich net ziemlich gut abgestimmt sein und gut laufen und gerade keine ruckler zeigen ?

LovesuckZ
2010-03-01, 15:44:04
Colorful GTX 480 Box @ Cebit: http://www.hexus.net/content/item.php?item=22654

1,5GiB und eine 600W NT-Empfehlung (GTX 295 war 680W und GTX 280 550W).
Zudem wohl schon ein eigenes Lüfterdesign und keine Referenz.

Erstaunlich, dass zwischen GTX295 und GTX280 130 Watt liegen und der TDP-Unterschied bei knapp 60 Watt lag.
Damit wird wohl die GTX480 bei +-250 Watt liegen.

Dural
2010-03-01, 15:47:57
hmm 250W? die kenn ich ;)

igg
2010-03-01, 15:49:33
The rear outputs will comprise of twin dual-link DVI-I connectors and a mini-HDMI port (v1.3a). No provision for DisplayPort, then?
Das wäre schockierend...

Dural
2010-03-01, 15:55:22
weil die referenz karte keinen DP vorsieht oder was?

Bucklew
2010-03-01, 15:55:37
Das wäre schockierend...
Wofür DP?

mboeller
2010-03-01, 15:57:48
Colorful GTX 480 Box @ Cebit: http://www.hexus.net/content/item.php?item=22654

Zudem wohl schon ein eigenes Lüfterdesign und keine Referenz.

wie schon mal vor 10-20 Seiten gepostet: Gibt es bei den GTX4x0 Karten überhaupt ein Referenzdesign?

Irgendwann im Herbst letzten Jahres wurde doch "gesagt" das es von Nvidia keine Referenzdesigns mehr geben wird und die Kartenhersteller selbst herausfinden müssen was geht und was nicht, oder?

LovesuckZ
2010-03-01, 15:57:55
Sorry, habe ich wohl nicht mitbekommen. :redface:
Danke für die Info!

MfG :cool:

Ganz böse Zungen könnten jetzt behaupten, dass es seit spätesten seit November bekannt war. ;)
Aber die Feststellung ist schon richtig. Selbst die ersten Bilder der vollständigen Karte hatten keinen NVIO Chip.

igg
2010-03-01, 16:04:10
Wofür DP?
Wofür DVI, HDMI? Mit gutem Kabel und Grafikkarte sieht auch VGA bei 1920x1200 noch gut aus...

Bucklew
2010-03-01, 16:05:50
Wofür DVI, HDMI? Mit gutem Kabel und Grafikkarte sieht auch VGA bei 1920x1200 noch gut aus...
Stimmt, aber DVI und HDMI kann eben auch deutlich mehr und ist digital. Wo ist denn nun der DP-Vorteil? Mir ist zumindest kein DP-only Monitor bekannt (und grundsätzlich sind die DP-Monitore eher selten und teuer).

Dural
2010-03-01, 16:06:17
und wo für DP? es gibt praktisch keine Monitoren mit DP... Ich musste mir deswegen sogar einen Aktiven DP Adapter Bestellen!!! (5870)

da hab ich lieber einen HDMI der heute bei TVs usw. standard ist

AnarchX
2010-03-01, 16:13:31
Wünschenswert wäre wohl eher HDMI 1.4 gewesen, wozu es auch Spekulationen gab. Damit wäre immerhin auch 3D@1080p möglich gewesen.

Bucklew
2010-03-01, 16:16:24
Wünschenswert wäre wohl eher HDMI 1.4 gewesen, wozu es auch Spekulationen gab. Damit wäre immerhin auch 3D@1080p möglich gewesen.
Wohl wahr, aber dafür war die Chipentwicklung natürlich zu weit fortgeschritten. Bliebe noch DVI-Duallink.

foenfrisur@Gast
2010-03-01, 16:25:22
ich weiß grad nicht, ob das bekannt ist/war??

tsmc will 40nm produktion verdoppeln zum jahresende.

http://www.xbitlabs.com/news/other/display/20100226020434_TSMC_Pledges_to_Double_40nm_Output_by_End_of_the_Year.html

das scheint auch bitter nötig ;)

mfg

igg
2010-03-01, 16:48:18
Stimmt, aber DVI und HDMI kann eben auch deutlich mehr und ist digital. Wo ist denn nun der DP-Vorteil? Mir ist zumindest kein DP-only Monitor bekannt (und grundsätzlich sind die DP-Monitore eher selten und teuer).
Zu den Vorteilen von DP: http://de.wikipedia.org/wiki/DisplayPort#Vorteile_gegen.C3.BCber_DVI

Nachdem unsere Dell Rechner alle über VGA+DP verfügen werden wir auch die Monitore DP-kompatibel auswählen. Dass die neue Grafikkartengeneration von Nvidia dies nicht von Haus aus mitbringt (zumindest noch nicht) finde ich daher schade.

Bucklew
2010-03-01, 16:56:11
Zu den Vorteilen von DP: http://de.wikipedia.org/wiki/DisplayPort#Vorteile_gegen.C3.BCber_DVI
Davon interessieren mich 90% der Vorteile gar nicht. Ich habe halt 2xSamsung per DVI angeschloßen, ich habe sicherlich keine Lust auf nen DP->DVI oder HDMI->DVI Dongle, ich möchte lieber 2xDVI haben.

Gipsel
2010-03-01, 17:01:30
Davon interessieren mich 90% der Vorteile gar nicht. Ich habe halt 2xSamsung per DVI angeschloßen, ich habe sicherlich keine Lust auf nen DP->DVI oder HDMI->DVI Dongle, ich möchte lieber 2xDVI haben.Wie wäre es mit 2x DVI, einmal HDMI und einmal DP an einer Grafikkarte? Dann kannst Du auch in einem Jahr noch den neuen DisplayPort-Monitor zusätzlich (zu Deinen beiden Samsungs per DVI) anschließen ;)

LovesuckZ
2010-03-01, 17:02:30
Wie wäre es mit 2x DVI, einmal HDMI und einmal DP an einer Grafikkarte? Dann kannst Du auch in einem Jahr noch den neuen DisplayPort-Monitor zusätzlich anschließen ;)

Davon abgesehen, dass er sowieso nur zwei aktive Displays betreiben könnte: Gibt es in einem Jahr keine DVI/HDMI Monitore mehr? :(

Gipsel
2010-03-01, 17:04:24
Davon abgesehen, dass er sowieso nur zwei aktive Displays betreiben könnte: Gibt es in einem Jahr keine DVI/HDMI Monitore mehr? :(Du hast es nicht verstanden. Ich habe die Augangskonfiguration der aktuellen ATI-Karten beschrieben. Und die erlauben sehr wohl 2x DVI und Displayport simultan für 3 gleichzeitig angeschlossenen Monitore zu betreiben ;)

LovesuckZ
2010-03-01, 17:08:24
Du hast es nicht verstanden. Ich habe die Augangskonfiguration der aktuellen ATI-Karten beschrieben. Und die erlauben sehr wohl 2x DVI und Displayport simultan für 3 gleichzeitig angeschlossenen Monitore zu betreiben ;)

Und was hat dies Ausgangssituation mit der von nVidia zu tun? :confused:

Gipsel
2010-03-01, 17:10:48
Und was hat dies Ausgangssituation mit der von nVidia zu tun? :confused:
Daß die gleiche Ausgangskonfiguration auch mit maximal 2 aktiven Displays nicht schaden würde, leuchtet Dir nicht ein? Das Beispiel mit dem DP-Support von Dell ist doch schon erwähnt worden.

igg
2010-03-01, 17:23:46
Gibt es in einem Jahr keine DVI/HDMI Monitore mehr? :(
Das erwarte ich nicht. Ich könnte mir vorstellen, dass HDMI mittelfristig wegfällt und die Billigmonitore VGA und DP unterstützen, ähnlich den günstigeren Business-PCs bei Dell, DVI wird aufgrund der PC Vergangenheit vermutlich auch noch lang unterstützt. Für HDMI spricht eigentlich "nur" die Verwendung im Home-Entertainment (gut, das ist vermutlich auch nicht zu vernachlässigen).

Aber um nicht abzuweichen: Ich wollte nur sagen, dass ich mir von einer Graka im jahr 2010 DP Unterstützung erhofft habe und sehr verwundert bin, dass sie nicht da ist.

Bucklew
2010-03-01, 17:24:17
Wie wäre es mit 2x DVI, einmal HDMI und einmal DP an einer Grafikkarte? Dann kannst Du auch in einem Jahr noch den neuen DisplayPort-Monitor zusätzlich (zu Deinen beiden Samsungs per DVI) anschließen ;)
Mir ist keine Karte mit 2xDVI, HDMI und DP bekannt. Angesichts der Verbreitung halte ich DP noch für das verzichtbarste.

Wobei man natürlich drüber diskutieren kann, dass man HDMI eher bei kleinen Karten für HTPCs als für große Zockerkarten braucht.

Eggcake
2010-03-01, 17:30:36
Die 5800er Reihe hat doch 2x DVI, DP und HDMI?!

Schlammsau
2010-03-01, 17:33:30
Mir ist keine Karte mit 2xDVI, HDMI und DP bekannt. Angesichts der Verbreitung halte ich DP noch für das verzichtbarste.

Wobei man natürlich drüber diskutieren kann, dass man HDMI eher bei kleinen Karten für HTPCs als für große Zockerkarten braucht.

Die 5800er Reihe hat doch 2x DVI, DP und HDMI?!
Jede HD5000er hat diese 4 Anschlüsse.

HD5870
http://www.abload.de/img/unbenanntiz82.png

AnarchX
2010-03-01, 17:35:24
Jede HD5000er hat diese 4 Anschlüsse.
Das stimmt nicht und selbst bei den 5800er kommen wohl demnächst Herstellerdesign mit weniger Anschlüssen.

Schlammsau
2010-03-01, 17:41:17
Das stimmt nicht und selbst bei den 5800er kommen wohl demnächst Herstellerdesign mit weniger Anschlüssen.
Ok....gerade gelesen. Alle unter der 5670 haben wohl keinen zusätzlichen DP!

Mir egal ich brauch den Port nicht, weiss aber natürlich nicht ob irgendwann doch.

Bucklew
2010-03-01, 17:41:59
Die 5800er Reihe hat doch 2x DVI, DP und HDMI?!
Stimmt, vertan!

LovesuckZ
2010-03-01, 17:42:58
Das erwarte ich nicht. Ich könnte mir vorstellen, dass HDMI mittelfristig wegfällt und die Billigmonitore VGA und DP unterstützen, ähnlich den günstigeren Business-PCs bei Dell, DVI wird aufgrund der PC Vergangenheit vermutlich auch noch lang unterstützt. Für HDMI spricht eigentlich "nur" die Verwendung im Home-Entertainment (gut, das ist vermutlich auch nicht zu vernachlässigen).

Der PC Monitor ist das langlebigste Gut eines PC-Users. Und selbst bei einem Wechsel wird niemand den heutigen Aufpreis für einen mit DP bezahlen.


Aber um nicht abzuweichen: Ich wollte nur sagen, dass ich mir von einer Graka im jahr 2010 DP Unterstützung erhofft habe und sehr verwundert bin, dass sie nicht da ist.

Wen du DP benötigst, muss du entweder auf eine Quadro-Karte umsteigen oder auf Customs-Designs warten. Ich jedenfalls sehe das Fehlen eines DP nicht als Nachteil an.

Schlammsau
2010-03-01, 17:43:45
Ich jedenfalls sehe das Fehlen eines DP nicht als Nachteil an.

Das war mir klar. ;)

LovesuckZ
2010-03-01, 17:45:09
Das war mir klar. ;)

Wie können ja gerne eine Umfrage machen, wer DP heute als wichtig empfinden. Dann werden wir ja sehen, wer der Fanboy ist. :P

Schlammsau
2010-03-01, 17:45:50
Wie können ja gerne eine Umfrage machen, wer DP heute als wichtig empfinden. Dann werden wir ja sehen, wer der Fanboy ist. :P

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7874631#post7874631

Nightspider
2010-03-01, 17:47:32
Naja, Displayport ist für mich nicht wichtig aber Nice-To-Have...immerhin ist DP auch günstiger als HDMI, da bei HDMI Lizenzkosten anfallen und DP mehr kann!

Zukünftig wird bestimmt jeder TFT DP haben.

Gast
2010-03-01, 17:51:38
Die 5800er Reihe hat doch 2x DVI, DP und HDMI?!
Boooh, das sind doch keine Grafikkarten!! Die sind von ATI, das ist Grafikdreck oder Dreckskarten, aber KEINE Grafikkarten!
nvidias Ministerium für Wahrheit entsendet extra verschiedene hohe Ministerialbeamte um hier ein bisschen für Aufklärung zu sorgen, und ihr hört einfach nicht zu! Schämt euch!!
*kopfschüttel*

Botcruscher
2010-03-01, 17:54:02
DP gehört auf jeden Fall die Zukunft. Da wird man nicht über die Lizenzen abgezockt. Im Moment gibts halt das übliche Henne Ei Problem.

LovesuckZ
2010-03-01, 17:56:30
DP gehört auf jeden Fall die Zukunft. Da wird man nicht über die Lizenzen abgezockt. Im Moment gibts halt das übliche Henne Ei Problem.

Nein, es ist kein Henne Ei Problem: DVI hat sich im PC Bereich als ausreichender Standard durchgesetzt. Man sieht es doch sehr schön der Blu-Ray: Wenn ein" Nachfolger" kommt, der eben keine offensichtlichen Vorteile hat, so wird die Akzeptanz des neuen Standards wesentlich länger dauern. Und wer sich heute eine GF100 kaufen wird, der wird vor dem Kauf seines ersten, reinen DP Monitors, wohl die Karte schon dreimal gewechselt haben.

Nightspider
2010-03-01, 17:57:00
Naja, die ersten (teuren) TFTs haben ja schon DP...2010 werden sicherlich auch viele Mainstream TFTs mit DP ausgestattet.

Ist DP eigentlich 3D-Fähig, wie HDMI 1.4 oder kommt da auch noch ein neues Update für DP?

AnarchX
2010-03-01, 17:59:46
Für FullHD-3D braucht man wohl DP1.2.
Wobei auch GTX 400-Karten mit DP denkbar wären, da es ja externe Transmiter gibt, die vielleicht auf Custom-Designs eingesetzt werden.

Schlammsau
2010-03-01, 18:00:56
Naja, die ersten (teuren) TFTs haben ja schon DP...2010 werden sicherlich auch viele Mainstream TFTs mit DP ausgestattet.

Ist DP eigentlich 3D-Fähig, wie HDMI 1.4 oder kommt da auch noch ein neues Update für DP?

So teuer sind die Dinger gar nicht.
http://geizhals.at/deutschland/?cat=monlcd19wide&xf=99_19~100_DisplayPort&sort=p

foenfrisur@Gast
2010-03-01, 18:03:39
also mein mainstream-monitor hat schon DP.

wäre es nicht möglich, einfach DP und HDMI auf der graka zu installieren und für einen dvi-monitor einfach einen adapter beizulegen??

mfg

LovesuckZ
2010-03-01, 18:04:20
33 von 36 Monitoren mit DP Unterstützung haben ebenfalls DVI. Soviel zum "Nachteil".

=Floi=
2010-03-01, 18:05:49
trotzdem habe ichauf dem 2. slot lieber ein freies gitter für den lüfter. mit der zeit kommen von alleine genug passende anschlüsse. DAS ist das geringste problem. eigentlich ist es gar keines. 2xdvi und 1x hdmi ist eh perfekt.

Dural
2010-03-01, 18:05:59
die letzte grafikkarten generation hatte nicht ein mal HDMI und jetzt wird gejammert wie so kein DP vorhanden ist?!?

Aktuell dürfte HDMI deutlich gefragter sein als DP und somit versteh ich das Problem nicht wirklich... zudem die wo hier mekern garantiert keinen Monitor zuhause haben der einen DP hat... ;)

Was wäre wohl erst losgewessen wenn kein HDMI sondern nur ein DP vorhanden wäre......

und nur so als Info, das sind Referenz Karten... DP wird bei den Hersteller eigenen Karten sicher hier und da mal auftauchen!

Man könnte meinen das gewisse leute jetzt schon jede klitze kleine schwäche raus suchen... ;)

foenfrisur@Gast
2010-03-01, 18:11:30
kann das mal jmd. bitte beantworten?

"wäre es nicht möglich, einfach DP und HDMI auf der graka zu bauen und für einen dvi-monitor einfach einen adapter beizulegen??"

damit hätte man doch alle fliegen mit einer klatsche geschlagen oder?

oder:

1x DVI
1x DisplayPort
1x HDMI

dazu dann 1x HDMI->DVI Adapter.

das wäre doch das optmum, wenn man schon sowieso 3 Anschlüsse hat oder?

mfg

foenfrisur@Gast
2010-03-01, 18:12:59
@dural

wie gesagt, ich habe DP am monitor. ein BenQ. und eine 4870 mit DP ;)

mfg

LovesuckZ
2010-03-01, 18:14:26
kann das mal jmd. bitte beantworten?

"wäre es nicht möglich, einfach DP und HDMI auf der graka zu bauen und für einen dvi-monitor einfach einen adapter beizulegen??"

damit hätte man doch alle fliegen mit einer klatsche geschlagen oder?

oder:

1x DVI
1x DisplayPort
1x HDMI

dazu dann 1x HDMI->DVI Adapter.

das wäre doch das optmum, wenn man schon sowieso 3 Anschlüsse hat oder?

mfg

nVidia unterstützt schon heute DP auf Quadrokarten. Anscheinend sehen sie keine Notwendigkeit in DP für den Consumerbereich.
Man könnte auch zwei DVI und einem DVI->HDMI Adapter dazu packen. Ist ja zum Glück alles sehr modular heutzutage.

Dural
2010-03-01, 18:17:42
GT21x Serie hat bei den Referenz Karten DP, dazu braucht es keine Quadro!


@foenfrisur@Gast

klar kann man, wie so auch nicht!

wow eine 4870 mit DP, stell dir mal vor ich habe sogar eine 8800GT mit 2x DVI 1x HDMI und 1x DP ;)

foenfrisur@Gast
2010-03-01, 18:19:16
aber kann man denn vom DVI-port der graka auch zu HDMI am TV auch das Audio-Signal durchschleifen?

also ist beim dvi noch eine leitung dafür frei? meistens werden ja nicht alle genutzt.

umgekehrt wäre es ja sowieso unnötig. daher stellt sich da die frage nicht.

mfg

LovesuckZ
2010-03-01, 18:20:55
aber kann man denn vom DVI-port der graka auch zu HDMI am TV auch das Audio-Signal durchschleifen?

also ist beim dvi noch eine leitung dafür frei? meistens werden ja nicht alle genutzt.


Ja, funktionierte prächtig mit meinen 2 GTX280 Karten.

Gast
2010-03-01, 18:28:11
Eben typische NV-Scheiße. Schon im Voraus veraltet, trotz apokalyptischer Verspätung.

foenfrisur@Gast
2010-03-01, 18:29:00
aso, danke.

wusste gar nicht, das die 280er gtx auch das audiosignal, wie bei ati, durchschleifen.

mfg

LovesuckZ
2010-03-01, 18:33:52
aso, danke.

wusste gar nicht, das die 280er gtx auch das audiosignal, wie bei ati, durchschleifen.

mfg

Nur über eine direkte Verbindung mit der Soundkarte. ;)
Aber GF100 unterstützt wie die kleineren Karten das Durchschleifen jetzt auch.

Dural
2010-03-01, 18:43:19
seit G92 kann man das Signal Durchschleifen (Referenz Karten)

GT21x und GF100 haben das intern gelöst

AnarchX
2010-03-01, 18:45:24
seit G92 kann man das Signal Durchschleifen (Referenz Karten)
Damit ist wohl eher die PCIe-Übetragung gemeint, die erst mit dem VP4 Einzug hielt.

Dural
2010-03-01, 18:48:18
nein mein ich nicht, aber auch egal ist hier auch komplett OT :)

N0Thing
2010-03-01, 18:56:01
Erstaunlich, daß DP so ein Thema ist. Ich hab nachdem ich den Artikel von PCGH gelesen habe eher erwartet, daß der Preis der Grafikkarten mehr Anlaß für Spekulationen und Diskussionen bieten würde. :D

DP als Standard bei den Referenzmodellen wäre zwar nett gewesen (ganz nach dem Motto haben ist besser als nicht haben), aber das ist ganz sicher kein Kaufkriterium.

Bei den Preisen, die PCGH nennt, muß man, sofern die Angaben stimmen, ja davon ausgehen, daß das "Topmodell" definitiv mit der 5970 konkurriert und nicht mit der 5870.

LovesuckZ
2010-03-01, 19:05:04
Bei den Preisen, die PCGH nennt, muß man, sofern die Angaben stimmen, ja davon ausgehen, daß das "Topmodell" definitiv mit der 5970 konkurriert und nicht mit der 5870.

Ich vestehe nicht, wieso Leute annehmen, dass das TOP-Model auf 5870 Niveau liegen sollte. Das wäre gerade mal 35% schneller als eine GTX285. Ziel müssen aufjedenfall mindesten 50-60% auf die Leistung einer GTX285 sein. Und damit läge man genau zwischen 5870 unf 5970.
Alles andere wäre ziemlich lächerlich und unwürdig für 2,14x mehr Transistoren.

Dural
2010-03-01, 19:06:09
wurde jemals was anderes gesagt?

und die GTX480 wird das duel sicher auch gewinnen, sicher nicht mir den reinen FPS... aber so gut wie alle anderen Punkte werden auf die GTX480 fallen...

was meint ihr eigentlich wie so AMD panisch die RV870 (5870/5970) nach oben freigegeben haben... einfach so? und AMD geht da sogar ziemlich klug vor: keine offiziellen Karten aber ihre Chips = für AMD keine negativ presse in sachen Strom Verbrauch usw. AMD kann schön sagen nicht unser Problem...

mapel110
2010-03-01, 19:13:11
http://tv.hexus.net/show/2010/03/CeBIT_2010_Gigabyte_gives_away_a_sneak_peek_at_Fermi/
Gigabyte gives away a sneak peek at Fermi

Kleines Video von Fermi in Action mit Rocket Sled Demo am Gigabyte-Stand. Morgen wohl mehr Infos.

LovesuckZ
2010-03-01, 19:20:22
Viel Interessanter:
Man kann die Rocket Sled Demo mit einem Xbox360-Controller spielen. :freak:

N0Thing
2010-03-01, 19:22:35
Ich vestehe nicht, wieso Leute annehmen, dass das TOP-Model auf 5870 Niveau liegen sollte. Das wäre gerade mal 35% schneller als eine GTX285. Ziel müssen aufjedenfall mindesten 50-60% auf die Leistung einer GTX285 sein. Und damit läge man genau zwischen 5870 unf 5970.
Alles andere wäre ziemlich lächerlich und unwürdig für 2,14x mehr Transistoren.

Ich habe das Single-Chip Topmodell auch zwischen HD5870 und HD5970 erwartet. Bei einem Preis von 500-600€ wäre man aber schon sehr nahe an der 5970. Infos (unter der Hand), die die PCGH veröffentlicht, haben für mich schon mal mehr Gewicht als dubiose Beiträge in fremden Foren.

Andererseits läßt die Formulierung "Topmodell" ja auch eine Dual-GPU zu, aber davon bin ich nicht wirklich überzeugt.

Gast
2010-03-01, 19:23:00
gamepad support langt. das is dann wohl der usb 360 controller. so ziemlich das beste pad für den pc.

was ich mich frage: läuft da kein physx? in den ersten rocke sled videos, ist doch die brücke eingestürzt, der felsbrocken viel runter, usw.

mapel110
2010-03-01, 19:25:31
Ich glaube, der war in dem Video nicht schnell genug, um das Gebäude zum Einstürzen zu bringen. N00b.

Gast
2010-03-01, 20:19:48
Ob die Karten wohl gezeigt werden (PCB- Kühllösung usw.) ?



mfg

LovesuckZ
2010-03-01, 20:21:46
Ob die Karten wohl gezeigt werden (PCB- Kühllösung usw.) ?
mfg

Nach heutigem Stand: Nein.
Aber vielleicht überrascht uns ein Partner doch oder jemand ist sehr schnell mit der Kamera. :D

Menace
2010-03-01, 20:42:05
Unschön:

http://www.tweakpc.de/news/17944/cebit-gefluester-fermi-nicht-so-schnell-wie-erwartet/

Dies ließ zumindest ein Mitarbeiter eines großen Boardpartners am Rande der Aufbauten durchblicken und bestätigte damit indirekt ein früheres Gerücht, demnach der kommende Chip auf Fermi-Basis in Punkto Geschwindigkeit in etwa auf dem Level einer Radeon HD 5870 liegen würde.

numb
2010-03-01, 20:45:47
Unschön:

http://www.tweakpc.de/news/17944/cebit-gefluester-fermi-nicht-so-schnell-wie-erwartet/


inzwischen haben wir ja soviele Gerüchte über Fermi-Leistung in die eine und in die andere Richtung gehört, ich denke die Leistung wird wie immer irgendwo dazwischen liegen (~ +20% auf Ati 5870)...

mapel110
2010-03-01, 20:53:12
Dass die Leistung nicht so toll ausfallen wird, wie sie sich nvidia erhofft, glaube ich mittlerweile auch. Dafür schufften sie wohl viel zu heftig an den Launchtreibern, um noch das letzte vorher rauszuholen.
Angst vor dem Catalyst 10.3 haben sie ja wohl auch berechtigter maßen.

Tarkin
2010-03-01, 21:16:27
470 wird IMO zwischen 5 und 10% schneller als 5850 (CB Rating)

und vom Preis her ca. auf 5870 Niveau landen. Man wird das mit dem "Mehrwert" (PhysX usw.) begründen. Die Händler werden aufgrund schlechter Verfügbarkeit dann nochmal 10% draufschlagen. 470 bei uns also ~€400+.

480 wird 5% bis max 10% schneller als 5870 und > €500 kosten... bei noch schlechterer Verfügbarkeit.

... aus meiner schon pessimistischen +15% Schätzung von vor ein paar Wochen wird nichts denke ich.

Ach ja... und AMD wird die Preise nicht senken.

Gast
2010-03-01, 21:17:44
Die Frage ist auch mit welchen Spielen wird gebencht? Ich würde doch DX11 Games bevorzugen, da wird NVidia schon einen großen Vorsprung haben imho.

igg
2010-03-01, 21:19:22
Unschön:

http://www.tweakpc.de/news/17944/cebit-gefluester-fermi-nicht-so-schnell-wie-erwartet/
Passt zu den letzten Äußerungen von neliz & Co. Wobei die hier verlinkte Newsmeldung offen lässt ob GTX470 oder 480.

mapel110
2010-03-01, 21:20:22
Wenn TSMC die nächsten Monate weiterhin nicht genug 40nm Chips produzieren kann, braucht man kein Prophet sein um zu sagen, dass die Preise nicht fallen werden durch Fermi.

Gast
2010-03-01, 21:20:38
Und das ATI nicht mit den Preisen runtergeht schrieb ich hier schon vor einiger Zeit;) (Weil die GTX480 wahrscheinlich auf 5970 Niveau liegt)

Kosh
2010-03-01, 21:21:02
Bei den Preisen, die PCGH nennt, muß man, sofern die Angaben stimmen, ja davon ausgehen, daß das "Topmodell" definitiv mit der 5970 konkurriert und nicht mit der 5870.

Oder gibt einen gehörigen Singel GPU Bonusaufschlag und Single Performance Leistungssieger Aufschlag,obwohl nur zB 5% schneller.

Zumal,wenn wenige GTX480 Lieferbar sind, kann NVIDIA auch 500 Euro verlangen für eine GTX480,die 5% schneller ist asl die 5870. Gibt genug NVIDIA Fans,die unbedingt die schnellste karte haben wollen und zahlen gerne massig Aufpreis.

Je weniger Karten NVIDIA liefern kann, um so mehr Aufpreis können sie verlangen,selbst wenn die Performance nicht viel schneller ist als die 5870.

igg
2010-03-01, 21:21:58
(Weil die GTX480 wahrscheinlich auf 5970 Niveau liegt)
Begründung? Sonst siehst du aus wie ein einsamer Rufer in der Wüste

RoNsOn Xs
2010-03-01, 21:24:06
krass. und alle wurden auf den boden zurück geholt ;) bald kann das zitieren alter aussagen aufgenommen werden ..