PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GT400/GF100 - Q1/2010, DX11, CUDA 3.0


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 [51] 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75

Ailuros
2010-02-23, 11:32:18
wieso gecancelt? G100 ist doch erschienen :confused:

http://images.nvidia.com/products/geforce_g_100/GeForce_G100_3qtr_low.png



http://www.nvidia.com/object/product_geforce_g_100_us.html

GF100 != G100. Dieses G100 ist lediglich ein ultragaehn OEM Produkt und kein Technologie-Generationsname.

Degustator ist normalerweise sehr gut informiert, aber im Fall von dem Codenamen Zeug lag er in der Vergangenheit ziemlich stark daneben. Als "GF100" bekannt wurde fuer die DX11 Generation gab er nach etlichen privaten Meinungsverschiedenheiten zu dass er falsch lag. Nach G80 erzaehlte mir jemand von ATI dass nach G80 fuer die DX10 Generation eine "200" Zahl im Codenamen steckt und fuer die DX11 Generation "100". Er hatte also recht und ich verweise Dich auch deshalb nochmal auf Gipsel's Unterschrift LOL :biggrin:

LovesuckZ
2010-02-23, 11:34:41
Ich weiß. Es gäbe dann halt gar keine 512-SP-Karten. Nur bevor man die guten 512-SP-Chips auf den billigen Gamerkarten verbaut, nimmt man sie lieber für die hochwertigens Teslas.


Stromverbrauch.
Es gab auch keine Tesla-Karten mit GT200 Chips. Gehen wir davon aus, dass die TDP der GTX480 bei 280Watt läge, dann hast du keine Chance daraus eine <225 Watt Teslakarte mit bis zu 6GB Speicher@900-1000Mhz zu machen.

Ailuros
2010-02-23, 11:39:44
@Ailuros: Die 512 SPs bei der GTX 480 sind so sicher wie das Amen in der Kirche? Ehrlichgesagt vermute ich das weiterhin, es passt einfach besser zur Strategie von NV. Lieber einen Paperlaunch riskieren, als in Benchmarks nicht klar die Oberhand zu gewinnen.

Warum fragst Du mich ueberhaupt wenn Du Deine Fragen selber beantwortest?

svenw
2010-02-23, 11:40:04
Es gibt keine Tesla-Karten mit 512SPs.

Sollten(!) die spekulierten Karteneigenschafften stimmen, dann ist die GTX470 wohl auf billig getrimmt. 320bit sind 10 Bausteine, 800MHz GDDR5 sollte heute verdammt billig sein, weniger aufwendige Platine, da weniger Leiterbahnen zum Speicher und wohl auch weniger Layer. Das alles macht den spekulierten Preis von 299$ ziemlich realistisch. Und man würde damit auch Druck auf AMD ausüben, die entweder die 5870 teurer im Markt lassen oder den Preis deutlich - über 100$ - senken müssen.
Glaub ich nicht. Damit würde NV unweigerlich auch den Preispunkt der 480er nach unten ziehen und die 470er Chips kosten NV genausoviel wie 480er. Wenn sie die Leistung der 5870er bringen können, werden sie sich nicht gleich zu Beginn auf einen Preiskampf einlassen. Außerdem kann ATI dann die 5870 verbilligen und die 5890 bringen. Das Scenario würde IMHO NV ne Menge Geld kosten das sie nicht wieder reinholen, denn schon die Leistung der 5870 reicht für praktisch alle Spiele fürs Sorgenfrei-Land (bei HD). Diejenigen die viel mehr zahlen für ein paar Prozente mehr sind zu vernachlässigen. NV wird rausholen was rauszuholen ist denn IMHO haben sie zumindestens keine Luft und keinen Grund für einen Preiskampf.

Ailuros
2010-02-23, 11:41:54
Stromverbrauch.
Es gab auch keine Tesla-Karten mit GT200 Chips. Gehen wir davon aus, dass die TDP der GTX480 bei 280Watt läge, dann hast du keine Chance daraus eine <225 Watt Teslakarte mit bis zu 6GB Speicher@900-1000Mhz zu machen.

Die 6GB T20 (448SP/384bit) soll auf ~225W liegen und diese wird vor Q3 2010 nicht erhaeltlich sein. Und hier macht aaronspink's Spekulation dass die zusaetzlichen 3GB an Speicher nochmal ~20W an Strom fressen durchaus Sinn.

LovesuckZ
2010-02-23, 11:47:41
Glaub ich nicht. Damit würde NV unweigerlich auch den Preispunkt der 480er nach unten ziehen und die 470er Chips kosten NV genausoviel wie 480er. Wenn sie die Leistung der 5870er bringen können, werden sie sich nicht gleich zu Beginn auf einen Preiskampf einlassen.

Seit wann bestimmt nVidia den Preis der AMD Karten? Der beste Start ist der mit einem Impact - 299$ für eine GTX470 auf 5870 in <DX11 Spielen ist ein Impact.

Außerdem kann ATI dann die 5870 verbilligen und die 5890 bringen. Das Scenario würde IMHO NV ne Menge Geld kosten das sie nicht wieder reinholen, denn schon die Leistung der 5870 reicht für praktisch alle Spiele fürs Sorgenfrei-Land (bei HD). Diejenigen die viel mehr zahlen für ein paar Prozente mehr sind zu vernachlässigen. NV wird rausholen was rauszuholen ist denn IMHO haben sie zumindestens keine Luft und keinen Grund für einen Preiskampf.

Es wird ihnen so oder so viel Geld kosten. AMD's Chip ist nunmal (deutlich) kleiner. Daran lässt sich nichts ändern. Auch sehe gerade den Sinn nicht, dass du mir unbedingt widersprechen müsstest. AMD hat gezeigt, dass sie billiger als nVidia sein wollen oder müssen. Kommt nVidia mit 399$ in den Markt, wird AMD den Preis der Cypresskarten anpassen. Und schon könnte eine GTX470 wieder als überteuert gelten. Ich hoffe, dass nVidia aus dem GT200 Fiasko gelernt hat und gleich einen Preis nimmt, der auch AMD kopfzerbrechen bereitet.

Ailuros
2010-02-23, 11:50:20
LS,

Deine beide Paragraphen in dem Post oben widersprechen sich aber gewaltig. Natuerlich passt NV den Preis einer 470 deren insgesamter Leistung an und ja natuerlich wird diese Leistung dann auch an der Leistung des direkten Produktziels der Konkurrenz verglichen.

LovesuckZ
2010-02-23, 11:53:28
LS,

Deine beide Paragraphen in dem Post oben widersprechen sich aber gewaltig. Natuerlich passt NV den Preis einer 470 deren insgesamter Leistung an und ja natuerlich wird diese Leistung dann auch an der Leistung des direkten Produktziels der Konkurrenz angepasst.

Nein, das würde bedeutet, dass AMD den Preis der Cypresskarten nicht reduzieren würde. Eine Annahme, die ich mit dem heutigen Stand als sehr naiv einstufe.
Sollte nVidia wirklich meinen mit 399$ in den Markt zu kommen, dann können wir unsere Uhr danach stellen, dass es zu einem zweiten "GT200 Fiasko" wird.
Sollte GTX470 wirklich nur zwischen 5850 - 5870 performen, dann sollten sie am besten gleich mit 199$ starten.

/edit: Außerdem gäbe es dann eine riesige Lücke zwischen der GTS250 und der GTX470 von fast 300$. GT200b Chips werden nur noch in Zuge für Quadro und Tesla produziert und eventuell in kleinen Mengen in den Markt gebracht. AMD hätte was den kompletten Bereich zwischen 100-399$ intus...

Gast
2010-02-23, 11:55:52
Stromverbrauch.
Es gab auch keine Tesla-Karten mit GT200 Chips. Gehen wir davon aus, dass die TDP der GTX480 bei 280Watt läge, dann hast du keine Chance daraus eine <225 Watt Teslakarte mit bis zu 6GB Speicher@900-1000Mhz zu machen.

Nein. Selbst wenn er wirklich bei 280W läge ist es noch immer deutlich Stromsprarender Takt und Spannung herunter zu fahren. Das es keine 512SPs für Teslas gibt deutet auf gewaltige Fertigungsprobleme hin, anders kann man das nicht deuten. Viel realistischer ist für die GTX280 aber wohl eine TDP im Bereich 240-250W.

svenw
2010-02-23, 12:20:26
Seit wann bestimmt nVidia den Preis der AMD Karten? Der beste Start ist der mit einem Impact - 299$ für eine GTX470 auf 5870 in <DX11 Spielen ist ein Impact. Mit einem Impact will man über das Volumen Geld verdienen anstatt über Gewinn/Karte. Fermi und Volumen sollte man aber aktuell nicht in einem Atemzug nennen. Später mag das anders aussehen.

Es wird ihnen so oder so viel Geld kosten. AMD's Chip ist nunmal (deutlich) kleiner. Daran lässt sich nichts ändern. Auch sehe gerade den Sinn nicht, dass du mir unbedingt widersprechen müsstest. AMD hat gezeigt, dass sie billiger als nVidia sein wollen oder müssen. Kommt nVidia mit 399$ in den Markt, wird AMD den Preis der Cypresskarten anpassen. Und schon könnte eine GTX470 wieder als überteuert gelten. Ich hoffe, dass nVidia aus dem GT200 Fiasko gelernt hat und gleich einen Preis nimmt, der auch AMD Kopfzerbrechen bereitet. NV wird die Preise nehmen die sie nehmen können/müssen. EinPreis der ATI Kopfzerbrechen bereitet kostet bei den aktuellen Chips NV viel mehr Geld. Außerdem würde ein Preis von 299$ den Preis für die 480er auf ca. 399$ runterziehen, das kann nicht NVs Absicht sein. Bei der aktuellen Chipknappheit können beide hohe Preise nehmen ohne sich gegenseitig was wegzunehmen. ATI kann aktuell nicht mehr liefern und NV verkauft seine Chips auch noch warm. Für eine Preiskampf fehlen die Chipmengen, bei beiden! ATI würde seine Preise nur senken, wenn sie damit mehr verkaufen können. Da sie das Mangels Chips nicht können....

Ailuros
2010-02-23, 12:27:36
svenw,

Wo liegt denn Deiner Meinung nach der MSRP der GTX480?

LovesuckZ
2010-02-23, 12:35:14
Mit einem Impact will man über das Volumen Geld verdienen anstatt über Gewinn/Karte. Fermi und Volumen sollte man aber aktuell nicht in einem Atemzug nennen. Später mag das anders aussehen.

nVidia sagt etwas anderes. ;)



NV wird die Preise nehmen die sie nehmen können/müssen. EinPreis der ATI Kopfzerbrechen bereitet kostet bei den aktuellen Chips NV viel mehr Geld. Außerdem würde ein Preis von 299$ den Preis für die 480er auf ca. 399$ runterziehen, das kann nicht NVs Absicht sein.

Nein, das stimmt nicht. Eine GTX480 kann deutlich teurer sein. Die GTX260 kostete beim Start 399$, die GTX280 649$. Leistungsunterschied: Ca. 25%.
Eine GTX260 wurde für 125€ verkauft, eine GTX285 für 250€: Leistungsunterschied: 35%.

Für eine Preiskampf fehlen die Chipmengen, bei beiden! ATI würde seine Preise nur senken, wenn sie damit mehr verkaufen können. Da sie das Mangels Chips nicht können....

Sobald nVidia auf den Markt kommt, teilt sich der High-End - mindesten. Also nimmt die Nachfrage deutlich ab und die Lage entspannt sich. Wer dort dann das schlechtere Angebot in Augen der Kunden hat, verliert noch mehr von diesen.

svenw
2010-02-23, 12:35:52
Ich würde mal irgendwo bei 450-470$ schätzen. Mehr ist bei der Mehrleistung der Karte gegenüber der 5870 nicht darstellbar. Und für die schnellste Single-Chip Graka +den (guten) Namen Nvidia gibs immer noch einen Aufschlag.

BTW: Wieso bekomme ich beim ersten Versuch des abschickens eines Beitrags immer eine Meldung ala "Probleme mit Sicherheitstoken"? Beim 2ten Mal gehts einwandfrei. (Firefox 3.6)

Gast
2010-02-23, 12:47:50
Ich glaube nicht, dass es ab Release der GF100 zu einem großartigen Preiskampf kommen wird. Wie schon zuvor gesagt, werden wohl AMD+NV zusammen gerade einmal die Nachfrage decken können und da ich nicht davon ausgehe (NV selber ja auch nicht), dass NV den Markt mit GF100-Grakas fluten kann, werden die Preise von HD58xx relativ stabil und hoch bleiben.

AMD hätte bei einer anfangs anzunehmenden schlechten Verfügbarkeit von GF100 überhaupt keinen Grund ihre Preise zu senken und aus dem gleichen Grund würden die Preise für die wenigen GF100 auch deutlich über UVP liegen.
Das hängt aber natürlich alles von der letztendlichen Performance von GTX470/480 ab.

MR2
2010-02-23, 12:49:21
Naja, derzeit kann man doch noch gar nichts zum Preis sagen. Echte Game Leistungswerte sind genauso wenig bekannt, wie Lautstärke und Idle-Max Power, von Verfügbarkeit will ich gar nicht reden.

ATI hatte ja angekündigt bei Bedarf die Preise stark zu senken und einen Refresh nachzuschieben, aber da wird wohl nix werden, bei den Mengen an Dies derzeit...

Ailuros
2010-02-23, 12:50:55
Ich würde mal irgendwo bei 450-470$ schätzen. Mehr ist bei der Mehrleistung der Karte gegenüber der 5870 nicht darstellbar. Und für die schnellste Single-Chip Graka +den (guten) Namen Nvidia gibs immer noch einen Aufschlag.

Was wundert Dich dann der hypothetische $299 Preis einer 470?

BTW: Wieso bekomme ich beim ersten Versuch des abschickens eines Beitrags immer eine Meldung ala "Probleme mit Sicherheitstoken"? Beim 2ten Mal gehts einwandfrei. (Firefox 3.6)

Keine Ahnung. Ich benutze auch durchgehend Firefox 3.6 und ich sehe nichts dergleichen.

Kosh
2010-02-23, 13:01:13
Wenn ATI immer noch nicht genug Chips von TSMC geliefert bekommt, wie soll dann Fermi in ausreichenden Mengen erscheinen??

Da wird dann wohl locker 2-3 Monate ein großer Fermi Engpass vorhanden sein (vielleicht soagr 6 Monate,wenn man sieht,das die 5870 imme rnoch nur schwer zu bekommen ist),falls die Karte nicht eine Katastrophe ist oder sehr,sehr teuer (von NVIDIA her) ist.

Oder glaubt jemand,das TSMC plötzlich Fermis in rauhen Mengen produzieren kann ,aber den Cypress Chip nicht ?

svenw
2010-02-23, 13:05:55
der MSPR der 5870 liegt bei 380$ + Aufschlag für Mehrleistung und Name. 299$ für eine Karte im absoluten Sorgenfrei-Land (ich gehe mal von 470=5870 aus) bei schlechter Verfügbarkeit der Chips wäre ein verfrühtes Weihnachten. IMHO würde da Nvidia Geld drauflegen oder höchstens +-0 rauskommen.
Aber mit 450-470$ war ich wohl wirklich zu tief: 500-530$ sollten es wohl eher sein, wenn man den Abstand zur 5970(599$) betrachtet.

P.S.: Wieder die gleiche Meldung:Ihr Seitenaufruf konnte aufgrund eines fehlenden Securitytokens nicht verarbeitet werden.

Wenn Sie meinen, dass es sich dabei um einen Fehler handelt, wenden Sie sich bitte an den Administrator und beschreiben Sie genau, was Sie gemacht haben, bevor diese Meldung angezeigt wurde.

mapel110
2010-02-23, 13:10:33
Wenn ATI immer noch nicht genug Chips von TSMC geliefert bekommt, wie soll dann Fermi in ausreichenden Mengen erscheinen??

Da wird dann wohl locker 2-3 Monate ein großer Fermi Engpass vorhanden sein (vielleicht soagr 6 Monate,wenn man sieht,das die 5870 imme rnoch nur schwer zu bekommen ist),falls die Karte nicht eine Katastrophe ist oder sehr,sehr teuer (von NVIDIA her) ist.

Oder glaubt jemand,das TSMC plötzlich Fermis in rauhen Mengen produzieren kann ,aber den Cypress Chip nicht ?
Es hängt wohl auch an den Fertigungskapazitäten und nicht nur der relativ schlechten Ausbeute. Und nvidia wird sicherlich nicht wegen ATI weniger Fertigungskapazitäten bekommen. So dumm kann man beim Aushandeln von Verträgen nicht sein.

Ailuros
2010-02-23, 13:13:27
Wenn ATI immer noch nicht genug Chips von TSMC geliefert bekommt, wie soll dann Fermi in ausreichenden Mengen erscheinen??

Da wird dann wohl locker 2-3 Monate ein großer Fermi Engpass vorhanden sein (vielleicht soagr 6 Monate,wenn man sieht,das die 5870 imme rnoch nur schwer zu bekommen ist),falls die Karte nicht eine Katastrophe ist oder sehr,sehr teuer (von NVIDIA her) ist.

Oder glaubt jemand,das TSMC plötzlich Fermis in rauhen Mengen produzieren kann ,aber den Cypress Chip nicht ?

Hat jemand behauptet dass NV in den ersten paar Monate z.B. hundert tausend wafer bestellt hat? Oder hat Dir irgend jemand erzaehlt dass AMD irgend eine Exklusivitaet bei TSMC fuer die Herstellung hat?

Herstellungs-Kapazitaet ist TSMC's hauptsaechliche Sorge und sie haben vor einiger Zeit eine gesunde Anzahl von Personal gerade fuer 40G eingestellt.

der MSPR der 5870 liegt bei 380$ + Aufschlag für Mehrleistung und Name. 299$ für eine Karte im absoluten Sorgenfrei-Land (ich gehe mal von 470=5870 aus) bei schlechter Verfügbarkeit der Chips wäre ein verfrühtes Weihnachten. IMHO würde da Nvidia Geld drauflegen oder höchstens +-0 rauskommen.
Aber mit 450-470$ war ich wohl wirklich zu tief: 500-530$ sollten es wohl eher sein, wenn man den Abstand zur 5970(599$) betrachtet.

Wo steht dass die 470-er Verfuegbarkeit schlecht sein wird? Man kann zwar nichts momentan garantieren, aber es gibt lediglich Indizien fuer die 480 aus angeblichen technischen Gruenden.

Ich weiss natuerlich noch nicht wo der Preis der 470 genau liegen wird, aber als so unmoeglich klingt mir ein $299 MSRP nun auch wieder nicht.

svenw
2010-02-23, 13:18:02
Aber anscheinend haben sie die Kapazitäten erst jetzt, denn was haben sie gemacht, als Fermi noch nicht gefertigt wurde? Wenn sie so viel Kapazität hatten (Fermi sollte ja wesentlich früher kommen), wieso haben sie dann nicht ausreichend Cypress produzieren können, selbst angesichts der Probleme mit dem Prozeß? Denn ATI hätte ihnen in Q4/2009 jeden Chip mit Kußhand abgenommen.

Nakai
2010-02-23, 13:19:02
Wenn GTX470 gegen HD5850 antritt und die GTX480 gegen die HD5870 kämpft, dann ist das noch schlimmer als angenommen.
GTX480 muss zwischen HD5970 und HD5870 liegen und GTX470 etwa auf HD5870-Niveau!;(


mfg

Kosh
2010-02-23, 13:20:23
Es hängt wohl auch an den Fertigungskapazitäten und nicht nur der relativ schlechten Ausbeute. Und nvidia wird sicherlich nicht wegen ATI weniger Fertigungskapazitäten bekommen. So dumm kann man beim Aushandeln von Verträgen nicht sein.


Richtig, aber eventuell muss TSMC auch noch gewisse Einheiten aufholen beim Cypress.

Aber selbst wenn nicht, wird der Fermi aufgrund seiner Größe pro Tag auf viel weniger Chips kommen (glaube nicht,das plötzlich 90% der Fertigung auf Fermi ausgelegt wird) und wenn es schon zuwenige Cypress Chips sind,werden deutlich geringere Stückzahlen des Fermis mit Sicherheit keine bessere Verfügbarkeit des fermis gegenüber dem Cypress bedeuten.

Ausnahme natürlich, Fermi taugt nichts oder ist wahnsinnig teuer.
Dann ist natürlich die Nachfrage sehr,sehr gering und somit die Verfügbarkeit wohl in Ordnung.

"Problem" bei den 58xx Karten ist ja auch,das sie weggehen wie warme Semmeln und somit die Nachfrage extrem hoch ist,so das auch normalerweise größere Mengen ruckzuck weggekauft sind.

Und schon sieht es aus, als gäbe es kaum Karten.

mapel110
2010-02-23, 13:23:06
Die Nachfrage ist allein schon deswegen geringer, weil eben ATI schon 6 Monate am Markt ist und logischerweise auch weiterhin produzieren wird. Zu ATI gab es im September keine Alternative, jedenfalls nicht für den informierten Kunden. Es wird auch davon abhängen, wie viel man im Voraus vor dem Launch produziert hat und das war wohl nicht so wenig/wird wohl nicht so wenig gewesen sein.

Ailuros
2010-02-23, 13:23:31
Aber anscheinend haben sie die Kapazitäten erst jetzt, denn was haben sie gemacht, als Fermi noch nicht gefertigt wurde? Wenn sie so viel Kapazität hatten (Fermi sollte ja wesentlich früher kommen), wieso haben sie dann nicht ausreichend Cypress produzieren können, selbst angesichts der Probleme mit dem Prozeß? Denn ATI hätte ihnen in Q4/2009 jeden Chip mit Kußhand abgenommen.

Glaubst Du IHVs sprechen sich nicht mit TSMC ab oder? Nochmal NVIDIA waere total besoffen gewesen mit den Herstellungskosten die GF100 in Q4 dank der beschissenen yields gehabt haette unter solchen Bedingungen in die Produktion zu gehen.

Und wer erzaehlt Dir ueberhaupt dass AMD's Cypress yields uebertoll in 2009 waren? Du hast lediglich eine Aussage seitens AMD wie viele GPUs sie fuer die ersten 2 Monate bekommen konnten.

Kosh
2010-02-23, 13:25:04
Hat jemand behauptet dass NV in den ersten paar Monate z.B. hundert tausend wafer bestellt hat? Oder hat Dir irgend jemand erzaehlt dass AMD irgend eine Exklusivitaet bei TSMC fuer die Herstellung hat?

Herstellungs-Kapazitaet ist TSMC's hauptsaechliche Sorge und sie haben vor einiger Zeit eine gesunde Anzahl von Personal gerade fuer 40G eingestellt.



.

Und warum soll es dann Fermis in ausreichend Mengen geben,wenn es aktuell noch nichtmal den deutlich kleineren Cypress Chip in ausreichenden Mengen gibt?? Und der Cypress wird sogar schon seit fast 6 Monaten produziert.

Nach deiner Theorie (wenn ich dich nicht komplett falsch verstanden habe) ,müsste ja TSMC die Mehrheit der 40nm Produktion seit Monaten brach liegen haben,weil sie auf den Fermi Produktionstart warten/ gewartet haben.

Und das ist Verlaub höchst unwahrscheinlich. Sie haben produziert was geht und wenn jetzt Fermi dazukommt, wird es nicht plötzlich Fermis in rauhen mengen geben und weiterhin nur wenige Cypress Chips.

mapel110
2010-02-23, 13:26:53
Lass die 40nm Fertigungskapazität doch TSMCs Problem sein. nvidias Problem ist es nicht, jedenfalls nicht im Verhältnis zu ATI.

Ailuros
2010-02-23, 13:29:54
Und warum soll es dann Fermis in ausreichend Mengen geben,wenn es aktuell noch nichtmal den deutlich kleineren Cypress Chip in ausreichenden Mengen gibt?? Und der Cypress wird sogar schon seit fast 6 Monaten produziert.

Nochmal: AMD hat KEINE Exklusivitaet bei TSMC was die Herstellung betrifft. Mehr brauchst Du momentan nicht zu wissen.

Nach deiner Theorie (wenn ich dich nicht komplett falsch verstanden habe) ,müsste ja TSMC die Mehrheit der 40nm Produktion seit Monaten brach liegen haben,weil sie auf den Fermi Produktionstart warten/ gewartet haben.

Ueberhaupt keine Theorie. Du hast natuerlich das Recht zu glauben was Du willst aber ich ruecke momentan nicht mit mehr Daten raus.

Und das ist Verlaub höchst unwahrscheinlich. Sie haben produziert was geht und wenn jetzt Fermi dazukommt, wird es nicht plötzlich Fermis in rauhen mengen geben und weiterhin nur wenige Cypress Chips.

Nochmal es redet kein Mensch von einer Unzahl an wafers. Geruechte die kursieren sprechen von 8-9000 wafers im ersten Monat. Die Zahl klingt logisch ich weiss wo die yields momentan genau liegen und nein sie werden selbst mit 2x Mal so viel wafers es nicht schaffen die Nachfrage zu decken. Wenn die ca. 9000 wafers stimmen sollten sind sie auf G80 Herstellungsniveau im ersten Monat.

The Jackal
2010-02-23, 13:31:22
NVidia hat den Fermi auch für einen andren Markt geplant. Für den selben Markt der mit dem Larrabee auch eröffnet werden sollte.
Der Fermit hat bis auf das x86 relative änlichkeit in der Verarbeitung der Daten mit dem Larrabee (wobei der Larrabee doch immer noch mehr CPU als GPGPU ist).
Das Problem ist die neue Architektur.

Und mal erlich die HD 5870 ist auch nichts anderes als R600 ohne fehler und schneller.

R600(Zu groß zu teuer zu heis zu langsam)-RV670(klein günstig kühl langsam)-RV770(excelentesP/L gute leistung)-RV870(schnell)

Wo ist das Problem das NVidia nicht auf anhieb ein zweiter G80 gelungen ist. Spätestens nächste Generatiion von ATi wird im Design wie eine Kreuzung aus Larrabee-Fermi werden müssen wenn die nicht den anschluss im GPGPU Markt verlieren wollen.

Es reicht das der Fermi so schnell ist wie die 5870. Er kann C++ und jetzt auch OpenCL.
Der wichtigste Punkt: Tesla <= die neue cash cow bei NVidia. NVidia hat endlich das was sie schon mit dem kauf einer x86 Lizence wollten, einen eigenen Prozessor der akzeptanz am Markt findet.

http://www.pcgameshardware.de/aid,645504/Forscher-nutzen-Desktop-Supercomputer-mit-GPUs-schneller-als-350-CPU-Kerne/Grafikkarte/News/

Ailuros
2010-02-23, 13:40:44
NVidia hat den Fermi auch für einen andren Markt geplant. Für den selben Markt der mit dem Larrabee auch eröffnet werden sollte.
Der Fermit hat bis auf das x86 relative änlichkeit in der Verarbeitung der Daten mit dem Larrabee (wobei der Larrabee doch immer noch mehr CPU als GPGPU ist).
Das Problem ist die neue Architektur.

Na dann fang mal an die angeblichen Aehnlichkeiten aufzuzaehlen. Als erster hint sollte helfen dass LRB einen sw rasterizer + trisetup hatte gegen 4 ff raster und trisetup Einheiten auf GF100.


Wo ist das Problem das NVidia nicht auf anhieb ein zweiter G80 gelungen ist. Spätestens nächste Generatiion von ATi wird im Design wie eine Kreuzung aus Larrabee-Fermi werden müssen wenn die nicht den anschluss im GPGPU Markt verlieren wollen.

Die Vereinfachung GF100 mit LRB zu vergleichen ist so daneben dass Du es Dir gar nicht vorstellen kannst.

Es reicht das der Fermi so schnell ist wie die 5870. Er kann C++ und jetzt auch OpenCL.
Der wichtigste Punkt: Tesla <= die neue cash cow bei NVidia. NVidia hat endlich das was sie schon mit dem kauf einer x86 Lizence wollten, einen eigenen Prozessor der akzeptanz am Markt findet.

Quatsch im Quadrat. Wenn man das Konzept eines low volume/high margin Markts im insgesamten Bild nicht verstehen kann, sollte man die Finger von solchem Zeug lassen. NVIDIA's groesster Umsatz kommt nach wie vor von desktop GPUs.

Ach Moment Fermi kann auch OpenCL? Na dann wundert es mich wofuer CUDA auf bisherigen GPUs genau steht....*kopfschuettel*

Kosh
2010-02-23, 13:41:21
Nochmal: AMD hat KEINE Exklusivitaet bei TSMC was die Herstellung betrifft. Mehr brauchst Du momentan nicht zu wissen.



Ueberhaupt keine Theorie. Du hast natuerlich das Recht zu glauben was Du willst aber ich ruecke momentan nicht mit mehr Daten raus.



Nochmal es redet kein Mensch von einer Unzahl an wafers. Geruechte die kursieren sprechen von 8-9000 wafers im ersten Monat. Die Zahl klingt logisch ich weiss wo die yields momentan genau liegen und nein sie werden selbst mit 2x Mal so viel wafers es nicht schaffen die Nachfrage zu decken. Wenn die ca. 9000 wafers stimmen sollten sind sie auf G80 Herstellungsniveau im ersten Monat.

Nach deiner behauptung hätte TSMC ATI seit monaten künstlich an der kurzen Leine gehalten, Monate lang die Produktion klein gehalten und jetzt,wo Fermi kommt, fahren sie die Produktion von 20% auf 100% hoch??

Tut mir leid, kann ich mir nicht vorstellen.Dafür hätte NVIDIA aber ein so dermassen stolzes Sümmchen bezahlen müssen,das sie tief ind en roten Zahlen wären und nicht mit glänzenden Gewinnen gesegnet.

Ailuros
2010-02-23, 13:50:00
Nach deiner behauptung hätte TSMC ATI seit monaten künstlich an der kurzen Leine gehalten, Monate lang die Produktion klein gehalten und jetzt,wo Fermi kommt, fahren sie die Produktion von 20% auf 100% hoch??

Na dann grab mal die Datenbank nach und beweiss mir dass ich je solchen Mist behauptet hatte. Kuenstlich an der kurzen Leine und wer TSMC? Bevor Du weiteren solchen Schwachsinn auftischst geh mal einen Spaziergang rueber zu SA, dann findest Du vielleicht den Herren der den Scheiss behauptet hat. Es ist ueberhaupt eine bodenlose Frechheit so etwas zu behaupten.

Tut mir leid, kann ich mir nicht vorstellen.Dafür hätte NVIDIA aber ein so dermassen stolzes Sümmchen bezahlen müssen,das sie tief ind en roten Zahlen wären und nicht mit glänzenden Gewinnen gesegnet.

Mir ist egal was Du Dir vorstellen kannst oder nicht oder was Dir sonst Deine Phantasie vorschlaegt. Wie gesagt keine weitere Erlaeuterungen zum Thema.

Nakai
2010-02-23, 13:50:23
Nach deiner behauptung hätte TSMC ATI seit monaten künstlich an der kurzen Leine gehalten, Monate lang die Produktion klein gehalten und jetzt,wo Fermi kommt, fahren sie die Produktion von 20% auf 100% hoch??

Nein, AMD kann bestellen. TSMC liefert. NV bestellt. TSMC liefert. TSMC wird die Kapazitäten schon erhöhen, wenn es sein muss. Bis jetzt ist es wohl nicht der Fall gewesen.


mfg

Gast
2010-02-23, 13:51:30
Lass die 40nm Fertigungskapazität doch TSMCs Problem sein. nvidias Problem ist es nicht, jedenfalls nicht im Verhältnis zu ATI.

NV-Problem anscheinend nicht, aber offensichtlich das Problem von ATI. Wenn NV jetzt ausreichend Kapazitäten bekommt wäre das mal wieder eine typisches Anzeichen für eine linke Nummer. Es wurde ja schonmal spekuliert das AMD wegen der Abwanderung zu GF jetzt künstlich eingebremst wird.

Gast
2010-02-23, 13:52:30
Nein, AMD kann bestellen. TSMC liefert. NV bestellt. TSMC liefert. TSMC wird die Kapazitäten schon erhöhen, wenn es sein muss. Bis jetzt ist es wohl nicht der Fall gewesen.


mfg

LOL, glaubst du wirklich das AMD über all die Monate nicht mehr Wafer wollte wenn sie denn mehr bekommen hätten?

mapel110
2010-02-23, 13:53:30
TSMC produziert derzeit 9% ihrer gesamten Fertigung in 40nm.
GT215,GT216,GT218, RV810, RV830, RV840, RV870

Was soll da ein Chip mehr ausmachen?! TSMC muss ohnehin stark aufstocken bei der Fertigungskapazität, wenn sie auch noch nvidias kleinere DX11-Chips produzieren wollen. Und das werden sie auch.

Ailuros
2010-02-23, 13:53:34
Nein, AMD kann bestellen. TSMC liefert. NV bestellt. TSMC liefert. TSMC wird die Kapazitäten schon erhöhen, wenn es sein muss. Bis jetzt ist es wohl nicht der Fall gewesen.


mfg

Den Quark dass TSMC angeblich AMD absichtlich an der kurzen Herstellungsleine liegen hat, hat Charlie in der Vergangenheit mehrmals oeffentlich angedeutet. Dass es absoluter Bullshit war und ist wurde oefters damals von mir und vielen anderen dementiert.

The Jackal
2010-02-23, 13:53:44
@Ailuros

Als erstes ist der Fermit in 16 Prozessorclaster unterteilt. Jeder Claster kann sich immer nur um einen Aufgabentyp kümmern, was bedeutet das man nicht jedem einzelnem Shader Prozessor ein anderen Aufgabe zuordnen kann. Heißt 16x32, 16 Aufgaben, pro Aufgabe 32 Shader.
Larrabee sollte 32 CPU's besitzen. Jeder CPU kann sich in dem moment nur um einen Aufgabentyp kümmern obwohl in der CPU 2 Alu's sind. Es kann nicht eine ALU das eine tun und die andere was anderes.
Die Cacheanordnung. L1 L2.
Im prinzip das selbe im Fermi nur ohne die x86 Einheiten.
CUDA ist proprietär und nur über eine offene API wird es OpenCL kompatibel. Man braucht einen Compiler der die befehle von OpenCL in den NVidia code umsetzt.
Oder kann da ATi auch OpenCL ist auch ATi CUDA nutzen???

LovesuckZ
2010-02-23, 13:54:16
NV-Problem anscheinend nicht, aber offensichtlich das Problem von ATI. Wenn NV jetzt ausreichend Kapazitäten bekommt wäre das mal wieder eine typisches Anzeichen für eine linke Nummer. Es wurde ja schonmal spekuliert das AMD wegen der Abwanderung zu GF jetzt künstlich eingebremst wird.

Vielleicht sollte AMD auch einfach ihre Kapazitäten in Richtung Cypress ändern. :rolleyes: Wenn sie aber ihre Wafer fast ausschließlich für ihre kleineren GPUs verwenden, sind sie selbst schuld.

mapel110
2010-02-23, 13:58:47
@Ailuros

Als erstes ist der Fermit in 16 Prozessorclaster unterteilt. Jeder Claster kann sich immer nur um einen Aufgabentyp kümmern, was bedeutet das man nicht jedem einzelnem Shader Prozessor ein anderen Aufgabe zuordnen kann. Heißt 16x32, 16 Aufgaben, pro Aufgabe 32 Shader.
Larrabee sollte 32 CPU's besitzen. Jeder CPU kann sich in dem moment nur um einen Aufgabentyp kümmern obwohl in der CPU 2 Alu's sind. Es kann nicht eine ALU das eine tun und die andere was anderes.
Die Cacheanordnung. L1 L2.
Im prinzip das selbe im Fermi nur ohne die x86 Einheiten.
CUDA ist proprietär und nur über eine offene API wird es OpenCL kompatibel. Man braucht einen Compiler der die befehle von OpenCL in den NVidia code umsetzt.
Oder kann da ATi auch OpenCL ist auch ATi CUDA nutzen???
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7805603&postcount=1393

Ailuros
2010-02-23, 13:59:36
@Ailuros

Als erstes ist der Fermit in 16 Prozessorclaster unterteilt. Jeder Claster kann sich immer nur um einen Aufgabentyp kümmern, was bedeutet das man nicht jedem einzelnem Shader Prozessor ein anderen Aufgabe zuordnen kann. Heißt 16x32, 16 Aufgaben, pro Aufgabe 32 Shader.

Nichts Neues, aber ok zur Vereinfachung.

Larrabee sollte 32 CPU's besitzen.

32 cores und nicht CPUs. LRB war, ist und wird eine GPU bleiben.

Jeder CPU kann sich in dem moment nur um einen Aufgabentyp kümmern obwohl in der CPU 2 Alu's sind. Es kann nicht eine ALU das eine tun und die andere was anderes.
Die Cacheanordnung. L1 L2.
Im prinzip das selbe im Fermi nur ohne die x86 Einheiten.

Ok ich darf aber nach all dem gegen die Wand rennen damit es mir nicht so schwindlig ist....

CUDA ist proprietär und nur über eine offene API wird es OpenCL kompatibel. Man braucht einen Compiler der die befehle von OpenCL in den NVidia code umsetzt.
Oder kann da ATi auch OpenCL ist auch ATi CUDA nutzen???

Jegliche CUDA GPU ist theoretisch OpenCL "kompatibel". Fuer dieses und den eher ueblen Rest oben, informier Dich ein bisschen besser ueber LRB als Anfang falls es ueberhaupt helfen sollte. Wie gesagt Du liegst so brutal daneben dass man es kaum vertragen kann. Es ist aber keine LRB Thread ergo zurueck zum Thema.

Nakai
2010-02-23, 14:06:46
LOL, glaubst du wirklich das AMD über all die Monate nicht mehr Wafer wollte wenn sie denn mehr bekommen hätten?

Ja, das glaube ich.
AMD hat zu wenig bestellt(und bei den 40nm-Risiken sogar nicht verwunderlich). Ist doch ganz einfach. Und wieso sollte TSMC einen zahlenden Kunden verprellen. Mal im Ernst, dass ist doch schwachsinnig.

Vielleicht sollte AMD auch einfach ihre Kapazitäten in Richtung Cypress ändern. Wenn sie aber ihre Wafer fast ausschließlich für ihre kleineren GPUs verwenden, sind sie selbst schuld.

Cypresskunden werden verprellt, was aber nicht schlimm ist, da man so mehr Geld verdient.
Wenn TSMC keine Kapazitäten mehr hat, wäre das schlecht. Aber daran wird TSMC schon was ändern bzw muss.


mfg

Kosh
2010-02-23, 14:27:10
Na dann grab mal die Datenbank nach und beweiss mir dass ich je solchen Mist behauptet hatte. Kuenstlich an der kurzen Leine und wer TSMC? Bevor Du weiteren solchen Schwachsinn auftischst geh mal einen Spaziergang rueber zu SA, dann findest Du vielleicht den Herren der den Scheiss behauptet hat. Es ist ueberhaupt eine bodenlose Frechheit so etwas zu behaupten.



Mir ist egal was Du Dir vorstellen kannst oder nicht oder was Dir sonst Deine Phantasie vorschlaegt. Wie gesagt keine weitere Erlaeuterungen zum Thema.

Da ist aber einer aggressiv.

Dann sage doch mal,warum TSMC Cypress nicht ingescheiten mengen liefern kann nach 6 Monaten, aber den Fermi direkt vom Start weg, und obwohl deutlich größer und somit viel weniger pro Wafer,problemlos in ausreichenden Stückzahlen liefern kann.

Denn das sagst du doch die ganze Zeit.

Also warum kann TSMC urplötzlich,sobald fermi kommt, Chips in rauhen mengen herstellen,wenn Fermi draufsteht, aber den Cypress nach 6 Monaten nicht?

The Jackal
2010-02-23, 14:28:53
Sowohl Fermi als auch Larrabee sind nicht mehr im sinn des wir machen bunte Bilder auf dem Monitor mit viel FPS Markt gedacht.

Es sollten professionelle Lösungen für das Parallel Computing werden wo die CPU's an ihre Grenzen stoßen.

Der Gamermarkt ist nicht mehr in dem Maße interessant für die Firmen. Also erfahren die parallel computing devices ein künstliches downgrade um es auf den Kidiemarkt werfen zu können.

Auf die 10000 Einheiten im HighEnd Gamermarkt können Intel und mitlerweile NVidia verzichten.

Nur das man für den blöden Mediamarktverkäufer ein Prestigeobjekt haben muß a la "NVidia hat die momentan schnellsten Karten. Da würde ich anstat der ATi HD 4980 an ihrer stelle die NVidia GTS 250 nehmen, da viel viel schneller"

Bucklew
2010-02-23, 14:30:03
Dann sage doch mal,warum TSMC Cypress nicht ingescheiten mengen liefern kann nach 6 Monaten, aber den Fermi direkt vom Start weg, und obwohl deutlich größer und somit viel weniger pro Wafer,problemlos in ausreichenden Stückzahlen liefern kann.
Mal dran gedacht, dass Nvidia vielleicht die besseren Verträge mit größeren Liefermengen etc. hat?

LovesuckZ
2010-02-23, 14:30:38
Sowohl Fermi als auch Larrabee sind nicht mehr im sinn des wir machen bunte Bilder auf dem Monitor mit viel FPS Markt gedacht.

Es sollten professionelle Lösungen für das Parallel Computing werden wo die CPU's an ihre Grenzen stoßen.

Der Gamermarkt ist nicht mehr in dem Maße interessant für die Firmen. Also erfahren die parallel computing devices ein künstliches downgrade um es auf den Kidiemarkt werfen zu können.

Auf die 10000 Einheiten im HighEnd Gamermarkt können Intel und mitlerweile NVidia verzichten.

Nur das man für den blöden Mediamarktverkäufer ein Prestigeobjekt haben muß a la "NVidia hat die momentan schnellsten Karten. Da würde ich anstat der ATi HD 4980 an ihrer stelle die NVidia GTS 250 nehmen, da viel viel schneller"

Nein, das ist leider fast komplett falsch.
Woher kommt denn bitte die Annahme, das GF100 nicht für den Gamermarkt gedacht ist? lese dich doch bitte durch das Whitepaper des GF100. Dann wirst du erkennen, dass GF100 mehr Gamer als HPC Architektur ist.

The Jackal
2010-02-23, 14:34:58
Wenn Ihr mein. :-)

Kosh
2010-02-23, 14:35:58
Mal dran gedacht, dass Nvidia vielleicht die besseren Verträge mit größeren Liefermengen etc. hat?

Das würde aber bedeuten,das Monatelang die Produktion mit 40nm nicht auf Maximum gelaufen ist und aktuell auch nicht läuft. Erst wenn der Fermi startet wird die Produktion auf Maximum hochgefahren.

Oder warum gab und gibt es nur sowenige Cypress, selbst als kein fermi produziert wurde?? Konnte TSMC nicht mehr liefern? Dann können sie jetzt das wohl mit dem fermi auch nicht wirklich, oder sie hhaben künstlich ATI klein gehalten.

Denn auch wenn NVIDIA bessere Verträge und größere Liefermengen hat, ATI hat auchVerträge und wenn TSMC dort heftig in Verzug ist,müssen sie die erstmal liefern,bevor sie andere Kunden in großen Stil bedienen.

Deswegen bleibe ich dabei,TSMC wird nicht mehr Chips liefern können als Cypress. Somit deutlich zu wenige.

Bucklew
2010-02-23, 14:36:33
Wenn Ihr mein. :-)
Ist so. Die Behauptung von Charlie, dass ein vier Jahre in Entwicklung befindlicher Chip innerhalb des letztens Jahres plötzlich vom HPC- zum Gaming-Chip mutiert ist völliger Quatsch.

Das würde aber bedeuten,das Monatelang die Produktion mit 40nm nicht auf Maximum gelaufen ist und aktuell auch nicht läuft. Erst wenn der Fermi startet wird die Produktion auf Maximum hochgefahren.
Nvidia hat bereits mehr als 10 Millionen 40nm-Chips ausgeliefert.

Odal
2010-02-23, 14:44:53
Nein, AMD kann bestellen. TSMC liefert. NV bestellt. TSMC liefert. TSMC wird die Kapazitäten schon erhöhen, wenn es sein muss. Bis jetzt ist es wohl nicht der Fall gewesen.


mfg
TSMC produziert derzeit 9% ihrer gesamten Fertigung in 40nm.
GT215,GT216,GT218, RV810, RV830, RV840, RV870

Was soll da ein Chip mehr ausmachen?! TSMC muss ohnehin stark aufstocken bei der Fertigungskapazität, wenn sie auch noch nvidias kleinere DX11-Chips produzieren wollen. Und das werden sie auch.

also bei schlechten yields und nicht optimal laufenden prozess kann ich mir gut vorstellen das TSMC die letzten Monate nicht das grosse Interesse hatte chips ab einer bestimmten Grösse in 40nm zu produzieren, besonders wenn man bedenkt das Verträge zw. AMD/Nvidia ein Hybrid aus preis pro wafer/preis pro lauffähigem Chip wären

Zauberer
2010-02-23, 14:46:49
Leute die Diskussion über Kapazitäten ist doch lächerlich.
Es gibt mehr als genug Karten mit Cypress XT Chip und auch mehr als genug Karten mit Cypress LE Chip zu kaufen.
Wenn ich das Kleingeld hätte, wären innerhalb von ein paar Tagen über 1.000 HD 5870/5850 Karten in meinem Wohnzimmer, dies ist kein Problem die Verfügbarkeit ist höher als die Nachfrage.

Man kann die Probleme vom letztem Jahr nicht mit jetzt vergleichen, TSMC hat schon lange keine Probleme mehr mit 40nm Wafern.
Überlegt mal wie viele 40nm Chips schon auf dem Markt sind.

Das wird beim Fermi nicht anders sein, eine Breite Verfügbarkeit wird gewährleistet sein.
Jetzt kommt nicht mit, ich bezahle aber für eine HD 5870 20 € mehr als mein Freund vor 2 Monaten.
Das hat nichts mit der Verfügbarkeit zu tun, es gab Zeiten da hätte man auch für 1.000 € keine neue 5870 bekommen.

Das ist Marktwirtschaft und hat wirklich nichts mit Verfügbarkeit zu tun.
Wenn alle Händler eine GeForce 9500 GT, die es wirklich wie Sand am Meer gibt, auf einmal für 1 € verkaufen, gibt es auf einmal auf der ganzen Welt keine GeForce 9500 GT mehr neu zu kaufen.

Auch wenn dann jemand auf einmal bereit ist 1.000 € zu bezahlen, ausverkauft ist ausverkauft, dann ist die Verfügbarkeit nicht mehr gegeben.

Bei den HD 5870/5850 Karten ist es anders, die gibt mehr als genug und die Händler sind nicht doof die Karten zu verschenken, wenn Sie mehr wert sind.
Stand nicht mal irgendwo das AMD/ATi schon vor Monaten über 1 Million Karten mit Cypress ausgeliefert hat?

Kosh
2010-02-23, 14:47:33
Nvidia hat bereits mehr als 10 Millionen 40nm-Chips ausgeliefert.

???
Wie denn das, wenn TSMC solche Probleme mit dem 40nm Prozess hat?

mapel110
2010-02-23, 14:56:02
???
Wie denn das, wenn TSMC solche Probleme mit dem 40nm Prozess hat?
Kleinvieh macht eben auch Mist. Die GT21x sind viel kleiner, deshalb passen auch deutlich mehr auf die Wafer.

Bucklew
2010-02-23, 14:56:09
???
Wie denn das, wenn TSMC solche Probleme mit dem 40nm Prozess hat?
Weil man wohl scheinbar

a) bessere Yields hat
b) größere Margen geordert hat
c) kleinere Chips hat

The Jackal
2010-02-23, 15:02:30
Das hier ist exakt wofür Fermi ist.

http://www.nvidia.com/object/product_tesla_S2050_S2070_us.html

Dural
2010-02-23, 15:15:33
Wie so kommen alle immer wider mit der DIE grösse an? Schon vergessen das die GTX470 GPU nur 448SP hat und sehr wahrscheinlich nicht so hoch getaktet ist = bessere Ausbeute!!!

AMD muss hingegen bei der 5870 einen vollwertigen DIE mit hohem Takt Liefern = schlechtere Ausbeute!!!

Ich denke das eine 5870 und eine GTX470 GPU in der Herstellung kaum grosse Preis unterschide haben! :)

Und ich denke der Preis von 299.- ist realistisch, NV muss so in den Markt kommen! Die seltene und grosse GTX480 geht dann für min. 400.- über den Ladentisch...

Die einzige Frage die ich mir stelle, wie so keine GTX460! Für mich ergibt das keinen logischen Sinn, vileicht ist die Ausbeute mit 448SP DIEs so extrem hoch das NV keine "kleinere" Auflage braucht? Oder als GTX460 kommt der GF104 Chip...

AwesomeSauce
2010-02-23, 15:19:01
@The Jackal
Auch durch mehrmaliges Erwähnen wird es nicht richtiger!

Kalmar
2010-02-23, 15:24:50
das mit den kapazitäten ist doch bullschit, als wenn da ein paar maschinen rumgammeln und nicht benutzt werden .. ati wie nv werden ihre kontigente bekommen und ich denke nicht das es so einfach ist die kapazitäten auszuweiten ohne das viel investiert werden muss ..

das problem ist beide bekommen ihre platten, aber wenn man davon nur normal- xx% benutzen kann schauts halt scheisse aus mit der verfügbarkeit .. die kann erst hoch gegen wenn man dort besser ist ..

MoC
2010-02-23, 15:51:00
Versteh den Aufschrei nicht wirklich,

1.) Cypress ist lieferbar. Der Preis ist höher als angenommen aber hat doch nur bedingt was mit TSMC zu tun. Viel eher würde ich das damit begründen das AMD der das DX11-"Monopol" hat.
Was nützt es AMD Cypress mit schlechteren Yields on Mass zu produzieren -> mehr Wafer. Wenn die Chips sowieso nicht verkauft werden.
Der derzeitige Markt ist doch erstmal gesättigt.
Ich mein nahezu jeder der sich ne Retail-Karte jetzt holen will, warte eh noch auf Fermi.(Außer natürlich er muss jetzt unbedingt-> dann bezahlt er aber auch den höheren Preis)

Eigentlich hat AMD derzeit genau die richtige Menge an Cypress-Chips imo.

2.) Hat man derzeit keine aktuellen Verkaufzahlen der HD5k-Serie. (Insbesondere der =<5770)

Marktanteile gewinnt man nicht über den Retail-Markt, sondern über den OEM.
AMD hat auch noch mehr Zeit dort Marktanteile zu gewinnen und wird sich wohl eher darauf fokusieren.

3.) Das die Kapazitäten bei TSMC ausgereizt sind, lässt sich sehr gut mit den GT21x erklären. Immerhin verkaufen sich die Teile wie warme Semmeln.

Imo hatte Nvidia auch Glück gehabt, dass der Juniper etwas zu spät kam fürs Weihnachtsgeschäft. Somit sind die meisten OEMs auch bei der GT21x geblieben -->Nvidia hohe Nachfrage -> Mehr Wafer bei TSMC bestellt -> Weniger Wafer für AMD übrig geblieben
Ok das ist stark vereinfacht ausgedrückt aber ich bin eigentlich ziemlich sicher das es so abgelaufen ist.

Also ich seh da derzeit überhaut kein Kapazität-Problem für NV. Das nicht jeder ne GT470 oder GT480 bekommen wird in den ersten aar Wochen steht ja außer Frage :)

Gast_mboeller
2010-02-23, 16:38:22
Die einzige Frage die ich mir stelle, wie so keine GTX460! Für mich ergibt das keinen logischen Sinn, vileicht ist die Ausbeute mit 448SP DIEs so extrem hoch das NV keine "kleinere" Auflage braucht? Oder als GTX460 kommt der GF104 Chip...

Ist doch ganz einfach. Marketing:

5870 <-> GTX 470

GTX460 würde heißen <5870. 6 ist weniger als 7. So einfach ist das. Macht AMD bei ihren CPUs ja auch.

Kalmar
2010-02-23, 16:39:23
die frage ist doch nur ob sie die kapazität ausnutzen können also was hintenbei rumkommen an vernüftigen lauffähigen chips .. und sehenw erden wir es hoffentlich in der woche nach dem 26.3 ...

LovesuckZ
2010-02-23, 16:39:33
Im beyond3d.com (http://forum.beyond3d.com/showpost.php?p=1398188&postcount=1874) hat jemand den Text übersetzt. Fazit: Die Werte sind nicht wahr komplett ausgedacht.

Ist doch ganz einfach. Marketing:

5870 <-> GTX 470

GTX460 würde heißen <5870. 6 ist weniger als 7. So einfach ist das. Macht AMD bei ihren CPUs ja auch.

Und bei der GTX480? :freak:

Gast
2010-02-23, 16:51:57
Ist doch ganz einfach. Marketing:

5870 <-> GTX 470

GTX460 würde heißen <5870. 6 ist weniger als 7. So einfach ist das. Macht AMD bei ihren CPUs ja auch.
Noch nicht kapiert das die 5870 bereits am Markt ist?
AMD hat es nicht in der Hand, wo die 7 stehen wird.

AnarchX
2010-02-23, 16:52:04
Im beyond3d.com (http://forum.beyond3d.com/showpost.php?p=1398188&postcount=1874) hat jemand den Text übersetzt. Fazit: Die Werte sind nicht wahr komplett ausgedacht.

Das könnte man auch so interpretieren, dass der Autor entsprechende Daten vorliegen hatte und dachte, dass die "major announcement" diese enthält.
Mit der Aussage, dass er es sich ausgedacht hat, will er sich wohl eher absichern:
If the following predictions ever become true, it would only be co-incidence. I will not be responsible for whatever I am going to say, and will not be answering any questions.


Bei IT168 spricht man zudem nicht von ausgedachten Daten, sondern von einer Hersteller-Quelle:
http://translate.google.de/translate?u=http%3A%2F%2Fvga.it168.com%2Fa2010%2F0222%2F852%2F000000852076.shtml&sl=zh-CN&tl=en&hl=&ie=UTF-8

Nachdem Nvidia nun die SKUs finalisiert hat und die Herstellung beginnt, dürften wohl noch mehr Leaks aus Asien kommen.

Kosh
2010-02-23, 16:54:02
Ist doch ganz einfach. Marketing:

5870 <-> GTX 470

GTX460 würde heißen <5870. 6 ist weniger als 7. So einfach ist das. Macht AMD bei ihren CPUs ja auch.

Vielleicht soll das den Ahnungslosen Leuten auch nur so vorkommen.

Namentlich auf 5870 machen,aber leistungsmässig eher die 5850 bedienen.

Sorry, aber wann hat NVIDIA mal eine Leistungsstärkere oder gleich starke Karte preislich unter der ATI Karte angeboten??

Muss schon sehr lange her sein und damit werden sie jetzt wohl eher nicht anfangen.

Nein,entweder ist die UVP von 299 Dollar komplett falsch,oder die Karte ist schlichtweg auf maximal 5850 Niveau.

LovesuckZ
2010-02-23, 16:55:29
Das könnte man auch so interpretieren, dass der Autor entsprechende Daten vorliegen hatte und dachte, dass die "major announcement" diese enthält.

Nein:
so wouldn't you just let me predict the performance numbers of the GTX470, basing on my pure imagination


Mit der Aussage, dass er es sich ausgedacht hat, will er sich wohl eher absichern:


If the following predictions ever become true, it would only be co-incidence. I will not be responsible for whatever I am going to say, and will not be answering any questions.

...

AnarchX
2010-02-23, 17:00:45
Dann hat er sich aber die Werte sehr schlecht ausgedacht:
GTX470 will have a wide lead in the benchmarks of the DX10 game, Far Cry 2, with 80fps under the following settings: 1920x1200, 4xAA, 16xAF. However, as there are different benchmarks of Far Cry 2, the data is not ideal for making comparisons with other video cards.

Und warum sollte man soetwas als News veröffentlichen? ;)

LovesuckZ
2010-02-23, 17:04:11
Dann hat er sich aber die Werte sehr schlecht ausgedacht:

Und warum sollte man soetwas als News veröffentlichen? ;)

Er sagt auch, dass nVidia Leistungswerte am 22.02 veröffentlichen hätte würden. War auch leicht daneben, oder? ;)
Wie gesagt: Mit der Übersetzung sehe ich keinen Sinn diese Werte zu glauben.

The gaming performance of GTX480 and 470 should be made available on 22/2 according to Nvidia's plan. However, due to the difference in time zone, it is still two days away, so wouldn't you just let me predict the performance numbers of the GTX470, basing on my pure imagination.

Warum man so etwas veröffentlichen würde? Frag' doch mal bei Charlie nach. :D

Zauberer
2010-02-23, 17:22:47
Dann hat er sich aber die Werte sehr schlecht ausgedacht:


Und warum sollte man soetwas als News veröffentlichen? ;)
Stimmt schon, aber eins sollte allen klar sein, Nvidia nennt seine GTX 470 nicht umsonst GTX 470.
Damit soll signalisiert werden, das die GTX 470 ca. so schnell ist wie HD 5870.

Evtl. wollte man sie erst GTX 460 nennen, hat aber dann wo die Leistung der GTX 460 ab schätzbar war, auf GTX 470 umgeschwenkt.

Interessant ist für mich nur wo die GTX 480 einzustufen ist, evtl. +30%?

Dural
2010-02-23, 17:23:34
Vielleicht soll das den Ahnungslosen Leuten auch nur so vorkommen.

Namentlich auf 5870 machen,aber leistungsmässig eher die 5850 bedienen.

Sorry, aber wann hat NVIDIA mal eine Leistungsstärkere oder gleich starke Karte preislich unter der ATI Karte angeboten??

Muss schon sehr lange her sein und damit werden sie jetzt wohl eher nicht anfangen.

Nein,entweder ist die UVP von 299 Dollar komplett falsch,oder die Karte ist schlichtweg auf maximal 5850 Niveau.

Ja klar eine GTX470 auf 5850 niveau = GTX285 und das bei 240SP vs 448SP ;D die Fermi Architektur müsste dazu ja schon brutal vermurkst sein ......

Derzeit würd ich sagen GTX470 + 10% vor einer 5870 und GTX480 etwas hinter der 5970

GTX470 und GTX480 werden wohl ca. 15-30% auseinander liegen.

Ich glaube das der Preis der GTX470 mit 300.- in etwa stimmt, NV hat gar keine andere wahl und AMD wird SOFORT den Preis der 5850 und 5870 nach unten anpassen wie sie es immer gemacht haben. Die Verfügbarkeit dürfte da aber noch ein strich durch die Rechung ziehen, denke aber nicht das die GTX470 schlecht verfügbar sein wird...

Coda
2010-02-23, 17:33:10
Das limitiert höchstens bei Tesslation, ich glaube das du hier einen ganz schönen Irrtum aufgesessen bist.
Nein, das limitiert nicht nur bei Tesselation.

Spiele wie Crysis haben genügend kleine Dreiecke dass das auch heute schon ein Problem ist.

AnarchX
2010-02-23, 17:35:45
Stimmt schon, aber eins sollte allen klar sein, Nvidia nennt seine GTX 470 nicht umsonst GTX 470.
Damit soll signalisiert werden, das die GTX 470 ca. so schnell ist wie HD 5870.

Den Durchschnitt kennen wir ja noch nicht.
Bei Vantage handelt es sich vielleicht um einen Worst-Case, wenn die Deep-Dive-Karte (http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/27892-nvidia-s-geforce-gf100-under-microscope-13.html) wirklich die 470 war hätte man hier schon einen Wert deutlich oberhalb der 5870.

Wenn man die aktuellen Spekulationen betrachtet wären vielleicht folgende SKUs realistisch:

GTX 470: 448SPs@1,62GHz 320-Bit@1,6GHz
GTX 480: 512SPs@1,67GHz 384-Bit@2GHz

Unterschied zwischen beiden SKUs etwa 25%. Vergleichbar zur Situation GTX 285 vs 275, wo die 285 auch primär nur einen Bandbreiten/ROP/Speicher-Bonus hatte.

LovesuckZ
2010-02-23, 17:43:55
Unterschied zwischen beiden SKUs etwa 25%. Vergleichbar zur Situation GTX 285 vs 275, wo die 285 auch primär nur einen Bandbreiten/ROP/Speicher-Bonus hatte.

Da waren die Yields besser.
Man sollte eher Vergleiche wie zwischen GTX260 und GTX280 anstellen. Man braucht eine relativ große Lücke, um später Mittelchips verwenden zu können. Und ein zu hoher Einstieg resultiert vorallem am Anfang in zu wenig verfügbaren Chips.

Tarkin
2010-02-23, 20:20:21
Da ist aber einer aggressiv.

Dann sage doch mal,warum TSMC Cypress nicht ingescheiten mengen liefern kann nach 6 Monaten, aber den Fermi direkt vom Start weg, und obwohl deutlich größer und somit viel weniger pro Wafer,problemlos in ausreichenden Stückzahlen liefern kann.

Denn das sagst du doch die ganze Zeit.

Also warum kann TSMC urplötzlich,sobald fermi kommt, Chips in rauhen mengen herstellen,wenn Fermi draufsteht, aber den Cypress nach 6 Monaten nicht?

Was bringt dich zu der Ansicht, dass Fermi zum Start Ende März in "rauhen" Mengen lieferbar sein wird?

Tarkin
2010-02-23, 20:23:27
Auf die 10000 Einheiten im HighEnd Gamermarkt können Intel und mitlerweile NVidia verzichten.

10.000 Einheiten pro Woche, Monat, Jahr? LOL

Sry, aber zu behaupten der High End Mark wäre nicht wichtig... das tut weh! :freak:

Wozu dann überhaupt Millionen in die Enticklung solcher Monster stecken wenn für prächtige Gewinne sowieso nur die kleinen Chips ausreichen.

Ziemlich kurzsichtig diese Sichtweise...

Labberlippe
2010-02-23, 20:23:33
Vielleicht sollte AMD auch einfach ihre Kapazitäten in Richtung Cypress ändern. :rolleyes: Wenn sie aber ihre Wafer fast ausschließlich für ihre kleineren GPUs verwenden, sind sie selbst schuld.


Hi

Du drehst die Ansagen aber auch so das Du AMD eins reinwürgen kannst.

Sorry aber selten so einen Blödsinn gelesen.
AMD wird das ganze wohl dementsprechend aufteilen so gut es eben möglich ist.

Gruss Labberlippe

Schlammsau
2010-02-23, 20:23:34
Da ist aber einer aggressiv.

Dann sage doch mal,warum TSMC Cypress nicht ingescheiten mengen liefern kann nach 6 Monaten, aber den Fermi direkt vom Start weg, und obwohl deutlich größer und somit viel weniger pro Wafer,problemlos in ausreichenden Stückzahlen liefern kann.

Denn das sagst du doch die ganze Zeit.

Also warum kann TSMC urplötzlich,sobald fermi kommt, Chips in rauhen mengen herstellen,wenn Fermi draufsteht, aber den Cypress nach 6 Monaten nicht?

Fermi wird das gleiche Problem wie Cypress haben, wenn nicht sogar noch schlimmer.
Man kann davon ausgehen, dass erst im 3 - 4 Quartal 2010, Fermi vernünftig lieferbar sein wird.

Tarkin
2010-02-23, 20:31:35
Wie so kommen alle immer wider mit der DIE grösse an? Schon vergessen das die GTX470 GPU nur 448SP hat und sehr wahrscheinlich nicht so hoch getaktet ist = bessere Ausbeute!!!

AMD muss hingegen bei der 5870 einen vollwertigen DIE mit hohem Takt Liefern = schlechtere Ausbeute!!!

Ich denke das eine 5870 und eine GTX470 GPU in der Herstellung kaum grosse Preis unterschide haben! :)

Und ich denke der Preis von 299.- ist realistisch, NV muss so in den Markt kommen! Die seltene und grosse GTX480 geht dann für min. 400.- über den Ladentisch...

Die einzige Frage die ich mir stelle, wie so keine GTX460! Für mich ergibt das keinen logischen Sinn, vileicht ist die Ausbeute mit 448SP DIEs so extrem hoch das NV keine "kleinere" Auflage braucht? Oder als GTX460 kommt der GF104 Chip...

Aha... und dass von Cypress praktisch die doppelte Menge Chips auf einen Wafer passen ist völlig nebensächlich, oder? Großer Die = automatisch weniger Chips pro Wafer... und ein 470er ist von der Größe her ident mit einem 480er Chip

Wie soll da bitteschön der 470er Fermi (auch wenn es nur ein "salvage" part ist) billiger sein wie Cypress? Nicht in diesem Raum-Zeit-Kontinuum.

Kosh
2010-02-23, 20:38:12
Was bringt dich zu der Ansicht, dass Fermi zum Start Ende März in "rauhen" Mengen lieferbar sein wird?

Nichts.

Ich bin nämlich der Meinung, das der Fermi nur sehr schlecht verfügbar sein wird.

Ganz einfach aus dem Grund,das TSMC aktuell immer noch nicht den Cypress in ausreichenden Stückzahlen liefern kann.
Deswegen wird es beim Fermi auch nicht klappen genug zu liefern.

Odal
2010-02-23, 20:56:04
nicht können, nicht wollen oder nicht brauchen das ist hier die Frage :rolleyes:

N0Thing
2010-02-23, 21:30:31
Wieviele unterschiedliche (40nm) Chips kann TSMC eigentlich gleichzeitig fertigen? Kann überhaupt jeder Chip parallel hergestellt werden, oder wird durchgewechselt?

Gast
2010-02-23, 22:14:05
nicht können, nicht wollen oder nicht brauchen das ist hier die Frage :rolleyes:


so siehts nämlich aus ;)

wenn ati nur 3 bestellt, dann produziert tmsc auch nur 3 und nicht 100 ;)

und kurz nach vorstellung der 58xx war doch auch öfters zu lesen, das ati zunächst sehr kleine bestellungen getätigt hatte.

mapel110
2010-02-23, 22:22:37
Wieviele unterschiedliche (40nm) Chips kann TSMC eigentlich gleichzeitig fertigen? Kann überhaupt jeder Chip parallel hergestellt werden, oder wird durchgewechselt?
Jeder Chip wird da seine eigene Fertigungsstraße(n) haben.

http://www.nvidia.de/object/cebit_2010_de.html
zeigt NVIDIA im exklusiven Gaming Kino aktuelle Spiele. Und zwar mit 3 Projektoren auf einer gewaltigen Leinwand.

bloub
2010-02-23, 22:24:18
so siehts nämlich aus ;)

wenn ati nur 3 bestellt, dann produziert tmsc auch nur 3 und nicht 100 ;)

so siehts aus, ist schon erstaunlich was manche hier für rückschlüsse ziehen und das aufgrund von fehlenden fakten von einer anderen firma ;). wie es um die verfügbarkeit wirklich bestellt ist, wird sich ende märz zeigen.

Cpl. Dwayne Hicks
2010-02-24, 01:41:45
Hier ein paar (wahrscheinlich fake) benchmarks für unsere fanbois: ;D

http://electronika.vacau.com/index.php/pc-hardware/6-gpu/8-fermi?start=1

AwesomeSauce
2010-02-24, 01:44:31
GTX 480 Score = GTX295 * 1.5

Billiger Fake, 'nuff said. (Wurde bei B3D (http://forum.beyond3d.com/showthread.php?t=56155&page=77) schon durchgekaut btw)

y33H@
2010-02-24, 01:46:14
Zumindest die Werte der anderen Karten sind stimmig ;D

uweskw
2010-02-24, 01:59:00
Diese "Benchmarks" sind interpoliert, einen 50%igen Performance Vorteil der 480 gegenüber einer 295er angenommen.
"los datos no tienen porque corresponderse con las tarjetas reales"
"diese Daten müssen nichts mit den tatsächlichen Karten zu tun haben"

greetz aus Argentinien
U.S.

Cpl. Dwayne Hicks
2010-02-24, 02:07:28
Diese "Benchmarks" sind interpoliert, einen 50%igen Performance Vorteil der 480 gegenüber einer 295er angenommen.
"los datos no tienen porque corresponderse con las tarjetas reales"
"diese Daten müssen nichts mit den tatsächlichen Karten zu tun haben"

greetz aus Argentinien
U.S.


Ach so ach so ;D

Spanisch muss man eben können. :biggrin:

Gast
2010-02-24, 02:35:35
Und zwar mit 3 Projektoren auf einer gewaltigen Leinwand.

3?!? Projektoren? Wie soll das Sinn ergeben? Für 3D braucht man entweder 2 Projektoren oder eine hohe Bildfrequenz. Arbeiten die 3 Projektoren etwa in einem AFR ähnlichen Verfahren zusammen?

N0Thing
2010-02-24, 03:05:54
3D Vision Surround funktioniert doch afaik auch ohne 3D, quasi wie Eyefinity.

Gast
2010-02-24, 04:11:51
3D Vision Surround funktioniert doch afaik auch ohne 3D, quasi wie Eyefinity.

Jein, ist was ganz anderes. Klar funktioniert 3D ohne Interpolation des Lichtes, indem man abwechseln das Bild für das linke und rechte Auge projeziert (und in der Brille jeweils das andere Frame ausblendet). Die Frage ist nur, was sollen 3 Projektoren? Eine Auflösung von 5760*1020 ?

Am ehesten Sinn ergäbe noch 3060*1920... hmm...

Ailuros
2010-02-24, 07:37:54
Das hier ist exakt wofür Fermi ist.

http://www.nvidia.com/object/product_tesla_S2050_S2070_us.html

Nochmal Tesla ist extrem low volume/high margin. Wenn Du das Ganze nicht verstanden hast oder sogar willst hilft es nicht weiter das gleiche Zeug immer und immer wieder zu erklaeren. Du beweisst mit dem Link gar nichts, sondern unterstuetzt damit genau das Gegenteil.

Diese "Benchmarks" sind interpoliert, einen 50%igen Performance Vorteil der 480 gegenüber einer 295er angenommen.
"los datos no tienen porque corresponderse con las tarjetas reales"
"diese Daten müssen nichts mit den tatsächlichen Karten zu tun haben"

greetz aus Argentinien
U.S.

Genauso sinnvoll wie der Versuch den angeblichen 470 Vantage score stur auf der Anzahl der SPs (auf 512SP/480) zu interpolieren.

Es gibt nirgends eine halbwegs logische Indizie dass die 480 schneller ist als die 5970.

Grestorn
2010-02-24, 07:39:40
Es gibt nirgends eine halbwegs logische Indizie dass die 480 schneller ist als die 5970.

Das ist m.E. auch absolut unrealistisches Wunschdenken.

Gast_mboeller
2010-02-24, 07:41:20
Ja klar eine GTX470 auf 5850 niveau = GTX285 und das bei 240SP vs 448SP ;D die Fermi Architektur müsste dazu ja schon brutal vermurkst sein ......


GTX470 <-> GTX 285:

TMU: 56 x 650 MHz; 80 x 648 MHz => win GTX 285
ROP: 40 x 650 MHz; 32 x 648 MHz => win GTX 470

Bandbreite: 320bit x 800MHz x 4 (=128GB/sec); 512 x 1242 x 2 (=159GB/sec) => Win GTX 285


Wie man schon beim Vergleich RV770 mit der GTX280 gesehen hat spielen für spiele die GFlops nur eine untergeordnete Rolle. Ansonsten hätte schon die GTX280 im Vergleich zur HD4870 kein Land gesehen.

Grestorn
2010-02-24, 07:42:48
Flops sind auch eine absolute Gummi- und Marketingmaßeinheit. Das war schon immer so...

Ailuros
2010-02-24, 07:51:17
Das ist m.E. auch absolut unrealistisches Wunschdenken.

Kann sein dass Uebertaktung (via overvolting) zumindest Gleichstand verschafft, aber es waere trotz allem Bloedsinn da man eine 5970 auch uebertakten kann.

GTX470 <-> GTX 285:

TMU: 56 x 650 MHz; 80 x 648 MHz => win GTX 285
ROP: 40 x 650 MHz; 32 x 648 MHz => win GTX 470

Bandbreite: 320bit x 800MHz x 4 (=128GB/sec); 512 x 1242 x 2 (=159GB/sec) => Win GTX 285

Ich will sehen wo Du dann die Erklaerungen herbekommst wenn sich zeigen wird dass die GTX470 im Durchschnitt irgendwo um die 35-40% schneller ist als die GTX285 mit 4xMSAA und um einiges mehr mit 8xMSAA.

Es muss irgendwo einen Halt geben fuer diese alberne Milchmaedchen-rechnerei, wo man lediglich sterile Einheiten-anzahlen auf gerade das extrapoliert (***edit: danke pest!) wie es gerade passt.

Wie man schon beim Vergleich RV770 mit der GTX280 gesehen hat spielen für spiele die GFlops nur eine untergeordnete Rolle. Ansonsten hätte schon die GTX280 im Vergleich zur HD4870 kein Land gesehen.

FLOPs != FLOPs zwischen so verschiedenen Architekturen. Den Brei brauchen wir nicht unendlich wiederholen. Wenn Du natuerlich davon ausgehst dass jegliche Radeon seit R600 ihre Vec5 ALUs genauso gut in Echtzeit auslasten kann wie eine jegliche vergleichbare GF seit G80 dann ist es natuerlich eine andere Geschichte. Das soll natuerlich nicht heissen dass die Vec5 ALUs von AMD keine Vorteile haben; ganz im Gegenteil, aber es ist und bleibt Tatsache dass sterile Spezifikations-zahlen auf Papier viel weniger aussagen als Echtzeit-Effizienz.

Es ist in keinem Markt anders und ein weiteres (irrelevantes zum Thema) Beispiel waere dieses: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7863215&postcount=212

Von mir aus kann egal welcher IHV unendlich tolle Zahlen auf Papier praesentieren. Theoretische maximale Zahlen sind nach wie vor Papiertiger.

pest
2010-02-24, 08:11:29
Diese "Benchmarks" sind interpoliert

das nennt man extrapoliert

Bucklew
2010-02-24, 10:19:29
3?!? Projektoren? Wie soll das Sinn ergeben? Für 3D braucht man entweder 2 Projektoren oder eine hohe Bildfrequenz. Arbeiten die 3 Projektoren etwa in einem AFR ähnlichen Verfahren zusammen?
Es gibt genug Projektoren mit 120Hz.

Odal
2010-02-24, 10:29:56
GTX470 <-> GTX 285:

TMU: 56 x 650 MHz; 80 x 648 MHz => win GTX 285
ROP: 40 x 650 MHz; 32 x 648 MHz => win GTX 470

Bandbreite: 320bit x 800MHz x 4 (=128GB/sec); 512 x 1242 x 2 (=159GB/sec) => Win GTX 285


Wie man schon beim Vergleich RV770 mit der GTX280 gesehen hat spielen für spiele die GFlops nur eine untergeordnete Rolle. Ansonsten hätte schon die GTX280 im Vergleich zur HD4870 kein Land gesehen.

das glaubst du doch wohl selber nicht das NV gerade mal die Leistung einer GTX285 + DX11 erreicht
eher würden sie den GT200 als reinen shrink nochmal in 40nm auflegen (mit dem umbennenen haben sie es ja eh) + hoher takt kostengünstig rausbringen als so einen riesenchip mit schlechten yields und bis auf DX11 keine mehrleistung

mapel110
2010-02-24, 10:42:43
http://news.mydrivers.com/Img/20100118/06204325.jpg

Gast
2010-02-24, 10:44:06
oh oh, also wenn da schon 5800 steht und nicht 5900...

naja, performance-wise wird das wohl echt kein kracher.

Gast
2010-02-24, 10:45:27
Was soll bitte Multi-Monitor Stereo Gaming sein ?

Hat nur der Fermi da nen Haken, weil die HD 5800 ja gleich 3/6 Monitore unterstützt ? ;)

LovesuckZ
2010-02-24, 10:45:35
GTX470 <-> GTX 285:

TMU: 56 x 650 MHz; 80 x 648 MHz => win GTX 285
ROP: 40 x 650 MHz; 32 x 648 MHz => win GTX 470

Bandbreite: 320bit x 800MHz x 4 (=128GB/sec); 512 x 1242 x 2 (=159GB/sec) => Win GTX 285


Wie man schon beim Vergleich RV770 mit der GTX280 gesehen hat spielen für spiele die GFlops nur eine untergeordnete Rolle. Ansonsten hätte schon die GTX280 im Vergleich zur HD4870 kein Land gesehen.

Vergleiche jetzt auch mal bitte Texelfüllrate und Pixelfüllrate zwischen rv770 und GT200. ;)

S940
2010-02-24, 10:46:08
http://we.pcinlife.com/attachments/forumid_206/1002240052b9e0cdd21cf2383d.jpg

Finde ich schon dreist da etwas von "can have it" zu schreiben, wenn mir jeder Internethändler weltweit sagt, dass es "cant have it" heißen sollte ^^
Naja, halt das übliche Marketing Blabla, auch nichts Neues.

mapel110
2010-02-24, 10:47:40
http://translate.google.com/translate?hl=en&ie=UTF-8&sl=zh-CN&tl=en&u=http://we.pcinlife.com/thread-1361067-1-1.html&rurl=translate.google.com
Then GF104 (GTX 460) the performance range is approximately 5850 to 105% to 115% of the probability of a great! So 5870 is only stronger than the GTX 460 about 10% -15%!

Botcruscher@work
2010-02-24, 10:49:46
Soll ich dir eine bestellen? ;) Inzwischen gibts doch mehr als genug lagernd.

Gast
2010-02-24, 10:51:26
Jawohl unseriöser gehts ja garnicht mehr. Der Artikel dazu sprüht ja gerade zu von fanatischen Fanboytum. Dieser Typ will ja angeblich die Ergebnisse von GTX460 (GF104) kennen, die natürlich die HD5850 locker schlägt. Außerdem lässt er keine Gelegenheit aus, die HD58xx als den letzten Schrott zu bezeichnen.

Ray Tracing Demo soll ein Vorteil sein?
Multi Monitor Gaming - Eyefinity?
3D Gaming - schon jetzt auch mit AMD möglich und bessere Unterstützung kommt mit Cat. 10.3

S940
2010-02-24, 10:52:24
http://translate.google.com/translate?hl=en&ie=UTF-8&sl=zh-CN&tl=en&u=http://we.pcinlife.com/thread-1361067-1-1.html&rurl=translate.google.com
Then GF104 (GTX 460) the performance range is approximately 5850 to 105% to 115% of the probability of a great! So 5870 is only stronger than the GTX 460 about 10% -15%!
Komm, auf die ganzen Approximations kann man doch eh nichts geben, schon gar nicht bei den Witzbereich um 10%, 50Mhz mehr Takt bei nV oder Ati, dann schaut es schon wieder anders aus. Nochdazu gibts bis Fermi kommt Catalyst 10.3 oder gar schon 10.4; +10% in ein paar Spielen sind da auch nicht unmöglich.

ciao

Alex

Gast_mboeller
2010-02-24, 11:14:36
Ich will sehen wo Du dann die Erklaerungen herbekommst wenn sich zeigen wird dass die GTX470 im Durchschnitt irgendwo um die 35-40% schneller ist als die GTX285 mit 4xMSAA und um einiges mehr mit 8xMSAA.



Gar nicht. :)

Mir ging es nur darum Dural ein wenig auszubremsen. Einfach zu sagen, 448 Shader sind besser als 240 Shader....das ich eine ziemlich dürftige Erklärung.

grüsse

LovesuckZ
2010-02-24, 11:18:27
http://we.pcinlife.com/attachments/forumid_206/1002240052b9e0cdd21cf2383d.jpg

Finde ich schon dreist da etwas von "can have it" zu schreiben, wenn mir jeder Internethändler weltweit sagt, dass es "cant have it" heißen sollte ^^
Naja, halt das übliche Marketing Blabla, auch nichts Neues.

Ich find's dreist sich als "Open Source" Beführworter hinzustellen und dann keinem OpenCL Support für den normalen Kunden zur Verfügung zustellen...
Ich find's dreist nVidia's "PhysX" schlechtzureden und seit bald 2 Jahren nichts selbst zu liefern.
Ich find's dreist den eigenen Kunden die "besten Treiber" der Welt zu versprechen und dann innerhalb von 2 Wochen 2 Hotfixe bereitzustellen...
Ich find's dreist sich als "Stereo3D" Marktführer aufzuspielen und dann nichtmal eine eigene Lösung anzubieten...
Ich find's es dreist auf sein eigenes "Stream" zu verweisen, wo man DP verwenden kann - das im nicht unterstützten OpenCL nicht zur Verfügung steht...

Denk mal darüber nach, ob man jedes Marketinggeschwäsch kommentieren sollte.

Gast
2010-02-24, 11:28:05
Ich find's dreist sich als "Open Source" Beführworter hinzustellen und dann keinem OpenCL Support für den normalen Kunden zur Verfügung zustellen...
Ich find's dreist nVidia's "PhysX" schlechtzureden und seit bald 2 Jahren nichts selbst zu liefern.
Ich find's dreist den eigenen Kunden die "besten Treiber" der Welt zu versprechen und dann innerhalb von 2 Wochen 2 Hotfixe bereitzustellen...
Ich find's dreist sich als "Stereo3D" Marktführer aufzuspielen und dann nichtmal eine eigene Lösung anzubieten...
Ich finde es dreist auf sein eigenes "Stream" zu verweisen, wo man DP verwenden kann - das im nicht unterstützten OpenCL nicht zur Verfügung steht...

Denk mal darüber nach, ob man jedes Marketinggeschwäsch kommentieren sollte.

Ich finde es dreist das deine Kommentare immer nur Pro-NV und Con-AMD sind.

igg
2010-02-24, 11:29:48
Ich finde es dreist das deine Kommentare immer nur Pro-NV und Con-AMD sind.
Aber hat er nicht recht?

Odal
2010-02-24, 11:32:47
Jawohl unseriöser gehts ja garnicht mehr. Der Artikel dazu sprüht ja gerade zu von fanatischen Fanboytum. Dieser Typ will ja angeblich die Ergebnisse von GTX460 (GF104) kennen, die natürlich die HD5850 locker schlägt. Außerdem lässt er keine Gelegenheit aus, die HD58xx als den letzten Schrott zu bezeichnen.

Ray Tracing Demo soll ein Vorteil sein?
Multi Monitor Gaming - Eyefinity?
3D Gaming - schon jetzt auch mit AMD möglich und bessere Unterstützung kommt mit Cat. 10.3

5-15% ist ja nicht locker schagen
nicht das ich glaube das dort reale messungen verwendet wurden, aber zu wünschen wäre es wenn GTX460=HD5850 und GTX470=HD5870 und GTX480=HD5970

das würde zumindest im Performance Preisbereich (HD5850/GTX460) ein Preiskampf aller erster Güte zufolge haben

aber das steht natürlich alles in den Sternen und ist kaum aus solchen Quellen ableit- oder verneinbar

Grestorn
2010-02-24, 11:34:52
Ich finde es dreist das deine Kommentare immer nur Pro-NV und Con-AMD sind.

Diese Einseitigkeit stört Dich aber natürlich nur, wenn es kontra AMD geht, oder? Bei der anderen Fraktion regst Du Dich da nicht drüber auf, das findest Du sicher alles ganz objektiv korrekt, stimmts?

Gast
2010-02-24, 11:38:11
wer weiß denn auch schon zu diesem zeitpunkt, wie weit die treiber vorangeschritten sind?
da gab es doch auch mal probleme. diese holen evtl. auch nochmal das raus, was auch ati rausholen "könnte" oder schon teilweise hat.

wieso sollte das nv nicht auch gelingen, bei einem so neuem chipdesign.
also beweisen die ganzen tests über die endgültige performance u.a. eben deswegen rein gar nix.

mfg

Gast
2010-02-24, 11:39:21
Aber hat er nicht recht?

Nein, eine einseitige Darstellung ist nie korrekt. Man könnte über NV genau so viele negative "Nebenschauplätze" finden. Zumal Punkt 1, 3 und 5 einfach nur falsch/verzerrt dargestellt sind. Aber all diese Punkte tangieren 99% der User wohl nicht mal sekundär. Was zählt ist Preis, Leistung, Features, Stromverbrauch und da loost NV aktuell in jedem Preisbereich ab. Die sollen endlich mal ihre DX11-Karte liefern und bitte nicht nur >300$, dann können wir über solche Dinge weiter reden.

Gast
2010-02-24, 11:43:10
Selbstverständlich werden die Treiber sowohl bei NV als auch bei Ati in Zukunft noch verbessert. Durch die Treiberproblematik kann sich das Performanceverhältnis natürlich noch etwas weiter zu gunsten von NV verschieben.

LovesuckZ
2010-02-24, 11:47:40
Nein, eine einseitige Darstellung ist nie korrekt.

Leider hast du die Intention nicht verstanden. Daher solltest du dich bitte hüten hier eine absichtliche "einseitige" Darstellung daraus zu machen.


Zumal Punkt 1, 3 und 5 einfach nur falsch/verzerrt dargestellt sind.

Dann gucken wir mal:
>Ich find's dreist sich als "Open Source" Beführworter hinzustellen und dann keinem OpenCL Support für den normalen Kunden zur Verfügung zustellen...<

AMD bietet keinen OpenCL Support über den normalen Grafikkartentreiber an. Wer OpenCL verwenden will, muss sich extra für das SDK anmelden. nVidia dagegen unterstützt OpenCL seit letztem Jahr per normalen Treiber.
Falsch/Verzerrt? Nein.

>Ich find's dreist den eigenen Kunden die "besten Treiber" der Welt zu versprechen und dann innerhalb von 2 Wochen 2 Hotfixe bereitzustellen...<

Mr. H hat klar im einen Interview gesagt, dass man die besten Treiber hätte. Gleichzeitig betont AMD, wie stolz man sei eine kontinuierliche Veröffentlichung der Treiber zu vermöglichen. Komisch, das man dann in den letzten Wochen nur mit offiziellen Beta- und Hotfixtreiber zugespamt wurde.
Falsch/Verzerrt? Nein.

>Ich finde es dreist auf sein eigenes "Stream" zu verweisen, wo man DP verwenden kann - das im nicht unterstützten OpenCL nicht zur Verfügung steht...<

AMD spielt sich als "Open Source" Beführworter auf und stempelt nVidia als eine Firma ab, die sich nur um ihre eigenen Lösungen bemüht. Dabei ist es AMD, die kein DP über OpenCL anbieten und auf Stream verweisen.
Falsch/Verzerrt? Nein.

Du lieber Gast scheinst mir dagegen Dinge in falscher oder verzerrter Sichtweise aufgenommen zu haben. :)

Ailuros
2010-02-24, 11:49:53
http://translate.google.com/translate?hl=en&ie=UTF-8&sl=zh-CN&tl=en&u=http://we.pcinlife.com/thread-1361067-1-1.html&rurl=translate.google.com
Then GF104 (GTX 460) the performance range is approximately 5850 to 105% to 115% of the probability of a great! So 5870 is only stronger than the GTX 460 about 10% -15%!

Ergo ist wohl doch die GF104 der "1/2 GF100" (set for April?) und nicht die GX2 wie sie AMD komischerweise erwartete.

Ergo wohl:

GTX460 vs. HD 5850
GTX470 vs. HD 5870
GTX480 vs. (quasi) HD 5970

svenw
2010-02-24, 11:49:57
5-15% ist ja nicht locker schagen
nicht das ich glaube das dort reale messungen verwendet wurden, aber zu wünschen wäre es wenn GTX460=HD5850 und GTX470=HD5870 und GTX480=HD5970

das würde zumindest im Performance Preisbereich (HD5850/GTX460) ein Preiskampf aller erster Güte zufolge haben
Könnte sogar hinkommen, nur 480=5970 glaub ich nicht! 480 schätze ich irgendwo in der Mitte zwischen 5870 und 5970 ein. An einen Preiskampf glaub ich aber nicht so recht, denn 470 ist nun mal ca. 50% größer als der Cypress (unabhängig davon wieviele Einheiten aktiv sind). Und beide Kontrahenten müssen große Löcher stopfen.

Gast
2010-02-24, 11:51:21
Selbstverständlich werden die Treiber sowohl bei NV als auch bei Ati in Zukunft noch verbessert. Durch die Treiberproblematik kann sich das Performanceverhältnis natürlich noch etwas weiter zu gunsten von NV verschieben.


ach was?

aber während ati vermutl. schon eher am ende der meisten optimierungen steht, steht nv wohl noch fast am anfang.

wie so oft kommen viele verbesserungen erst nach dem launch und der verfügbarkeit in der breiten masse.

muuh

deekey777
2010-02-24, 11:53:49
Aber hat er nicht recht?
Ich finde es erstaunlich, dass soviele Nichtswisser auf dem Thema OpenCL&AMD rumreiten.
Ja, AMD bietet die OpenCL-Treiber für die Radeons und alle SSE3-CPUs nur als Teil des Stream SDK 2.01 an. Und ja, die Mitarbeiter von AMD wissen und geben auch öffentlich zu, dass das nicht optimal ist.
Was hier gern unterschlagen wird, ist, dass AMD viel weiter als Nvidia ist, was die Stabilität angeht. Und das, obwohl einige Features nur als Preview angeboten werden.
Aus den FAQ:
The NVIDIA 195.62 driver appears to be shipping with an out-of-date version of the ICD. As a result, the up-to-date ICD that ships with the ATI Stream SDK v2.0 may not recognize NVIDIA OpenCL DLLs. Until NVIDIA updates their drivers to correct this problem, you may encounter issues on systems with both AMD and NVIDIA OpenCL libraries installed. The
recommended work-around is to remove the NVIDIA driver until NVIDIA updates their drivers to correct this problem

Gast
2010-02-24, 11:54:34
Nein, eine einseitige Darstellung ist nie korrekt. Man könnte über NV genau so viele negative "Nebenschauplätze" finden. Zumal Punkt 1, 3 und 5 einfach nur falsch/verzerrt dargestellt sind. Aber all diese Punkte tangieren 99% der User wohl nicht mal sekundär. Was zählt ist Preis, Leistung, Features, Stromverbrauch und da loost NV aktuell in jedem Preisbereich ab. Die sollen endlich mal ihre DX11-Karte liefern und bitte nicht nur >300$, dann können wir über solche Dinge weiter reden.

Ein Preis/Leistung-Vergleich ist grundsätzlich blödsinn bei Grafikkarten, wenn diese nicht in der gleichen Liga spielen. Im Normalfall ist es nunmal so, dass die NV-Karten Leistungstechnisch über den Ati Karten liegen. Somit ist es auch nur normal, dass die NV-Karten in der Preis/Leistung schlechter abschneiden. Es ist doch normal das man 10% mehr Performance in der oberen Leistungsregion mit 20% mehr Preis bezahlt.

Nakai
2010-02-24, 11:55:02
NV und AMD sollte gemeinsam an einen Standart arbeiten, das wäre das Beste für den Kunden. PhysX für AMD zu öffnen wäre für NV eh dumm.

Es ist einfach schade, dass jeder Markt wie ein Kindergarten abläuft. Das sieht man schon, wenn sich beide IHVs darum streiten, wenn ein Spiel nicht auf der Konkurrenz läuft.

Ergo ist wohl doch die GF104 der "1/2 GF100" (set for April?) und nicht die GX2 wie sie AMD komischerweise erwartete.

Dann muss der GF100 nicht sonderlich gut taktbar sein, wenn GF104 ein halber GT100 ist.


mfg

Gast
2010-02-24, 11:57:47
Ich finde es auch erschreckend, dass man wohl mittlerweile aufgrund fehlender handfester Specs bereit ist jeden BS den sich irgendein FB der roten oder grünen Seite aus den Fingern saugt zu glauben. Wer diesen Artikel für glaubhaft und seriös hält, darf sich in Zukunkt aber auch nicht über Charlie aufregen.

Das heißt aber nicht, dass es nicht tatsächlich so seien könnte.

Grumbart
2010-02-24, 11:59:08
das man dann in den letzten Wochen nur mit offiziellen Beta- und Hotfixtreiber zugespamt wurde.
Falsch/Verzerrt? Nein.

und bei NV wird nichts nachgeschoben oder Betagetestet (vor kurzem erst mit 196.34) ?

Ich find's dreist das NV seit einiger Zeit Produkte einfach umbenennt um ein "neues" Produktschema zuetablieren.


Diese Einseitigkeit stört Dich aber natürlich nur, wenn es kontra AMD geht, oder?


Schaut Ihr Euch eigentlich auch mal an was Ihr so von Euch gebt?
Eigentlich sollte das ein Spekulations Thread zu GF100 sein ...

Ailuros
2010-02-24, 11:59:29
Könnte sogar hinkommen, nur 480=5970 glaub ich nicht! 480 schätze ich irgendwo in der Mitte zwischen 5870 und 5970 ein. An einen Preiskampf glaub ich aber nicht so recht, denn 470 ist nun mal ca. 50% größer als der Cypress (unabhängig davon wieviele Einheiten aktiv sind). Und beide Kontrahenten müssen große Löcher stopfen.

Eigentlich duerfte der GF100 ca. 64% groesser sein als Cypress. Wenn die 470 selbst einen relativ kleinen Leistungsabstand zur 5870 haben sollte (sagen wir mal +/-10%) dann koennte es sein dass der Preis etwas hoeher liegt als bei der 5870 und die 460 mit einem Preis unter dieser. Wenn meine Infos stimmen und GF104 knapp ueber der die area von Cypress liegt koennen sie sich auch einen sehr guten Preis dafuer erlauben.

Gast
2010-02-24, 12:02:31
Ich weiß zwar das es nichts bringt, aber ganz kurz:

Dann gucken wir mal:
>Ich find's dreist sich als "Open Source" Beführworter hinzustellen und dann keinem OpenCL Support für den normalen Kunden zur Verfügung zustellen...<

AMD bietet keinen OpenCL Support über den normalen Grafikkartentreiber an. Wer OpenCL verwenden will, muss sich extra für das SDK anmelden. nVidia dagegen unterstützt OpenCL seit letztem Jahr per normalen Treiber.
Falsch/Verzerrt? Nein.

Jeder bekommt von AMD problemlos OpenCL-Treiber über das SDK. Aktuell nutzt OpenCL auch nur Programmierern, es gibt defacto nicht den geringsten Grund das aktuell im Treiber zu integrieren da OpenCL in den Kinderschuhen steckt. Ein "normaler Kunde" hat davon keine Vorteile. AMD wird mit Sicherheit den OpenCL-Part mit liefern sobald sich das ändern sollte. Von daher ist das höchstens eine Scheinkritik.


>Ich find's dreist den eigenen Kunden die "besten Treiber" der Welt zu versprechen und dann innerhalb von 2 Wochen 2 Hotfixe bereitzustellen...<

Mr. H hat klar im einen Interview gesagt, dass man die besten Treiber hätte. Gleichzeitig betont AMD, wie stolz man sei eine kontinuierliche Veröffentlichung der Treiber zu vermöglichen. Komisch, das man dann in den letzten Wochen nur mit offiziellen Beta- und Hotfixtreiber zugespamt wurde.
Falsch/Verzerrt? Nein.

Wo liegt der Unterschied zu den unzähligen Betas/Alphas bei NV, die von dubiosen Quellen geleaket werden? Wenn es ein Problem gibt das schnell gefixt werden muss kommt eben ein solcher Hotfix. Was daran jetzt schlecht oder dreist sein soll kann ich nicht nachvollziehen. Man muss diese ja nicht nehmen, es gibt wie schon erwähnt jeden Monat neue offizielle Treiber.


>Ich finde es dreist auf sein eigenes "Stream" zu verweisen, wo man DP verwenden kann - das im nicht unterstützten OpenCL nicht zur Verfügung steht...<

AMD spielt sich als "Open Source" Beführworter auf und stempelt nVidia als eine Firma ab, die sich nur um ihre eigenen Lösungen bemüht. Dabei ist es AMD, die kein DP über OpenCL anbieten und auf Stream verweisen.
Falsch/Verzerrt? Nein.


Es ist ja auch was wahres dran wenn man behauptet das NV ihre propritären Standards durchdrücken will. Hier leuten bei mir als Kunde die Alarmglocken. Das man bei OpenCL aktuell kein DP anbietet mag sein, ist aber völlig belanglos. DP wird nur im wissenschaftlichen Bereich benötigt und dort Programmiert man ohnehin möglichst direkt (->Stream). Deshalb tangiert mich das nicht mal ansatzweise.

V2.0
2010-02-24, 12:20:42
Ergo ist wohl doch die GF104 der "1/2 GF100" (set for April?) und nicht die GX2 wie sie AMD komischerweise erwartete.

Ergo wohl:

GTX460 vs. HD 5850
GTX470 vs. HD 5870
GTX480 vs. (quasi) HD 5970

Da kann man sich fast fragen, ob sie ne 495 auf Basis zweier Edel GF104 bauen könnten.

Gast
2010-02-24, 12:42:20
Na jetzt endlich ist ja die ultimative Wahrheit raus, denn offensichtlich gibt es ja keinen Grund auch nur ansatzweise an diese Meldung zu zweifeln. Irgendein unbekannter Chinese reimt sich seine eigene persönliche Story zusammen und sie wird kritiklos übernohmen.

Oder kennt jemand diesen Typ?

Bucklew
2010-02-24, 12:43:01
3D Gaming - schon jetzt auch mit AMD möglich und bessere Unterstützung kommt mit Cat. 10.3
Mit Multiscreen?

Ailuros
2010-02-24, 12:43:39
Da kann man sich fast fragen, ob sie ne 495 auf Basis zweier Edel GF104 bauen könnten.

Angenommen das Ding ist tatsaechlich geplant und egal aus was es genau bestehen wird kann ich mir unter dem theoretischen 300W TDP cap nicht vorstellen dass das Resultat einen besonders grossen Leistungs-abstand zu einer 5970 haben wird.

Dural
2010-02-24, 12:47:16
haha wer hat noch vor kurzem vermutet das der GF104 als GTX460 erscheinen könnte, ich ;)

Die Fermi Architektur scheint richtig zu rocken wenn NV einen Wahrscheinlich 256SP breiten Chip gegen eine 5850 stellen kann, das bedeutet das die Leistung pro Einheit min. in etwa auf der höhe der Vorgänger Generation ist :) laut computerbase ist die 5970 72% schneller als eine 5850 ;)

Ich vermute langsam das wir gar keine GX2 Karte sehen werden... da wohl schon die GTX480 es mit der 5970 aufnehmen kann...

Ich glaube jetzt ist langsam der Zeitpunkt gekommen um die ATI Karten los zu werden ;)

Ailuros
2010-02-24, 12:53:06
haha wer hat noch vor kurzem vermutet das der GF104 als GTX460 erscheinen könnte, ich ;)

Sag mir bloss nicht dass Du jetzt auch noch Lorbeeren fuer das Zeug willst? :biggrin:

Die Fermi Architektur scheint richtig zu rocken wenn NV einen Wahrscheinlich 256SP breiten Chip gegen eine 5850 stellen kann, das bedeutet das die Leistung pro Einheit min. in etwa auf der höhe der Vorgänger Generation ist :)

Wenn das bisherige Zeug stimmt dann hat das Ding wohl irgendwo 15% mehr Takt als die 470. Die Vereinfachung mit dem Einheiten-Vergleich kannst Du Dir sparen da es sich um eine andere Architektur handelt.

Ich vermute langsam das wir gar keine GX2 Karte sehen werden... das wohl schon die GTX480 es mit der 5970 aufnehmen kann...

Uebertriebener Optimismus ist genauso schwer zu bekaempfen wie uebertriebener Pessimismus.

Botcruscher
2010-02-24, 12:55:06
Die Fermi Architektur scheint richtig zu rocken wenn NV einen Wahrscheinlich 256SP breiten Chip gegen eine 5850 stellen kann, das bedeutet das die Leistung pro Einheit min. in etwa auf der höhe der Vorgänger Generation ist :) laut computerbase ist die 5970 72% schneller als eine 5850 ;)


Man kann auch über den Preis gehen.:rolleyes: Die Milchmädchenrechnungen werden echt immer kreativer.

Nakai
2010-02-24, 12:57:15
GF104 ist imo sehr interessant. Wenn der Preis noch stimmt, dann ist sie so gut wie gekauft.


mfg

Dural
2010-02-24, 13:03:04
ganz einfache Rechnung:

GF104 = 5850 / GTX285

5850 + 72% = 5970

GF104 + 100% mehr Einheiten = GF100

Bedeutet Theoretisch 100% mehr Leistung, real werden es sicher nicht 100% sein, da sicher weniger takt usw. Aber mit min. 60% ist zu rechnen und schon sind wir auf augenhöhe der 5970 :)

ATi holt bei einer Verdopplung der Einheiten (5770 vs 5870) und selben takt genau 77% raus.

V2.0
2010-02-24, 13:21:17
Angenommen das Ding ist tatsaechlich geplant und egal aus was es genau bestehen wird kann ich mir unter dem theoretischen 300W TDP cap nicht vorstellen dass das Resultat einen besonders grossen Leistungs-abstand zu einer 5970 haben wird.

Das war der Gedanke und die 300W mögen mit 2 schnellen GF104 leichter zu halten sein, als mit extrem kastrierten GF100.

GF104 ist imo sehr interessant. Wenn der Preis noch stimmt, dann ist sie so gut wie gekauft.
mfg

Kauf Dir ne 5830, dann hast Du heute ne GF104.

Ailuros
2010-02-24, 13:22:31
ganz einfache Rechnung:

GF104 = 5850 / GTX285

5850 + 72% = 5970

GF104 + 100% mehr Einheiten = GF100

Bedeutet Theoretisch 100% mehr Leistung, real werden es sicher nicht 100% sein, da sicher weniger takt usw. Aber mit min. 60% ist zu rechnen und schon sind wir auf augenhöhe der 5970 :)

ATi holt bei einer Verdopplung der Einheiten (5770 vs 5870) und selben takt genau 77% raus.

Und dann soll es mich wundern warum mboeller mit den exakt umgekehrten extrapolierten irrsinnigen Milchmaedchen-rechnungen ankommt?

Das war der Gedanke und die 300W mögen mit 2 schnellen GF104 leichter zu halten sein, als mit extrem kastrierten GF100.

Das einzig gute an solch einer Idee waere (was uns Verbrauchern aber total egal sein wird) dass sie in solch einem Fall mehr Gewinn als von einer 480 machen koennten.


Kauf Dir ne 5830, dann hast Du heute ne GF104.

Wohl eher eine 5850.

Dural
2010-02-24, 13:30:38
Das ist keine milchmädchen rechung, eine Verdopplung der Einheiten in der selben Architektur wird IMMER die Theoretische Verdopplung der Leistung mit sich bringen.

Die Frage ist eher ob die GPU die Verdopplung der Einheiten zu 100% Effizient nutzen kann und da ist eher ein NEIN angebracht... bis jetzt hab ich noch keine Architektur gesehen die das kann...

Aber wie auch immer, meine 60% sind OK ;)

AnarchX
2010-02-24, 13:35:22
Bei GF10x dürfte die Skalierung der Rohleistung wohl deutlich besser sein, als bei vorherigen Architekturen.

N0Thing
2010-02-24, 13:39:50
Warum?

AnarchX
2010-02-24, 13:42:10
Warum?
Architektur Previews lesen, Raster und Geometrie-Leistung skaliert bei GF10x mit der Zahl der Einheiten:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7020417#post7020417

Gast
2010-02-24, 13:54:50
Mit Multiscreen?

LOL, du kennst Eyefinity? Im Gegensatz zu NV geht das mit einer Karte bei bis zu sechs Monitoren.

Gast
2010-02-24, 14:00:29
Richtig und ich denke das Eyefinity selbstverständlich mit 3D kombinierbar sein wird. Natürlich wird dann aber aus reinen Performancegründen auch bei AMD ein CF-System notwendig sein.

Botcruscher
2010-02-24, 14:08:04
Architektur Previews lesen, Raster und Geometrie-Leistung skaliert bei GF10x mit der Zahl der Einheiten:


Na aber logisch. 100% bis zur Unendlichkeit und noch viel, viel weiter. Selbst wenn dem so wäre, was sagt uns das über den gesamten Chip?! Kann man das Marketinggedöns bitte wenigstens bis zu den ersten Tests hinterm Berg lassen? Niemand hatte eine Karte in der Hand... aber es werden schon die Abkömmlinge "berechnet".
Das ist keine milchmädchen rechung, eine Verdopplung der Einheiten in der selben Architektur wird IMMER die Theoretische Verdopplung der Leistung mit sich bringen.

Theoretische Verdopplung der Leistung. Theorie ist doch was feines. Leider gibt es da noch die böse, böse Realität.

N0Thing
2010-02-24, 14:10:01
Architektur Previews lesen, Raster und Geometrie-Leistung skaliert bei GF10x mit der Zahl der Einheiten:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7020417#post7020417

Aber es ging doch um eine Dual-GPU auf Basis des GF104, nicht um die Skalierung von Einheiten auf einem Chip. Deshalb dachte ich, daß du sagen willst, daß die GF10x Architektur auch bei SLI besser skaliert als die vorherigen Generationen.

Bucklew
2010-02-24, 14:11:35
LOL, du kennst Eyefinity? Im Gegensatz zu NV geht das mit einer Karte bei bis zu sechs Monitoren.
Mit 3D?

Spasstiger
2010-02-24, 14:16:20
Mit 3D?
Mit dem iZ3D-Treiber sollte das gehen: http://www.iz3d.com/driver.
Ob das Bild über drei Monitore oder nur einen ausgegeben ist, ist ja egal, wenn man nur ein Rendertarget hat.

AnarchX
2010-02-24, 14:16:56
Aber es ging doch um eine Dual-GPU auf Basis des GF104, nicht um die Skalierung von Einheiten auf einem Chip. Deshalb dachte ich, daß du sagen willst, daß die GF10x Architektur auch bei SLI besser skaliert als die vorherigen Generationen.
Nein, Dural spekulierte über die Skalierung zwischen GF100 und einem halben GF100:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7863921&postcount=12638

Bei SLI wird sich wohl eher nichts ändern.

Na aber logisch. 100% bis zur Unendlichkeit und noch viel, viel weiter. Selbst wenn dem so wäre, was sagt uns das über den gesamten Chip?! Kann man das Marketinggedöns bitte wenigstens bis zu den ersten Tests hinterm Berg lassen? Niemand hatte eine Karte in der Hand... aber es werden schon die Abkömmlinge "berechnet".
Es ging allein um den Faktor der Rohleistung-Skalierung und da sollte auch wenn man den Faktor Marketing abzieht ein deutlich besseres Verhalten als bei den aktuellen GPUs bleiben.

Wie sich das nun in die Skalierung des Transistorcounts überträgt oder wie die Leistung von GF100 nun genau aussieht und wie die Ableger aussehen, sind wieder völlig andere Fragen.

Dural
2010-02-24, 14:22:25
eine dual lösung auf gf104 (2x256SP) macht nicht wirklich viel sinn, da man ja gf100 / gtx480 (1x512SP) hat...

da nimmt man lieber 2x GTX470 Chips mit low takt: mehr leistung bei weniger verbrauch!

Gast
2010-02-24, 14:23:46
Bei GF10x dürfte die Skalierung der Rohleistung wohl deutlich besser sein, als bei vorherigen Architekturen.


Was dann aber im Rückschluss auch heißt, dass beim Einheiten halbieren ein GF100 mehr Leistung verliert als ein RV870.

Dural
2010-02-24, 14:27:16
RV8x0 Skaliert gar nicht mal so schlecht mit der Anzahl der Einheiten!

5770 ---> +77% ---> 5870

Die Effizient ging aber den Bachrunter im Vergleich zum RV770/790, wie so auch immer Bandbreite usw.

Gast
2010-02-24, 14:31:13
Angenommen das Ding ist tatsaechlich geplant und egal aus was es genau bestehen wird kann ich mir unter dem theoretischen 300W TDP cap nicht vorstellen dass das Resultat einen besonders grossen Leistungs-abstand zu einer 5970 haben wird.

Dieses 300W Cap existiert doch nur in den Strandarts. Dem Netzteil ist es vollkommen egal ob da 3 8Polige Kabel an ein Tripple Sli oder an eine Karte gehn. Natürlich hätte NV es lieber wenn es in den Standarts verankert ist und deshalb versuchen sie das ja auch nun durchzudrüken. Aber ich glaube nicht, dass nur deshalb eine Karte nicht herausbringen würden, da ja rein technisch ausgeschlossen ist, dass daruch irgendwelche Probleme entstehen.

AnarchX
2010-02-24, 14:35:48
RV8x0 Skaliert gar nicht mal so schlecht mit der Anzahl der Einheiten!

5770 ---> +77% ---> 5870
Das ist teilweise schlechter als die Skalierung mit AFR:
http://www.xbitlabs.com/misc/picture/?src=/images/video/radeon-hd5770-hd5750-crossfirex/diagr/23_57vs58aa_big.png&1=1


Die Effizient ging aber den Bachrunter im Vergleich zum RV770/790, wie so auch immer Bandbreite usw.
Hier ist der Vergleich nicht so einfach durch die verbesserte Filterung und der ALU-Interpolation.

Was dann aber im Rückschluss auch heißt, dass beim Einheiten halbieren ein GF100 mehr Leistung verliert als ein RV870.
Das kann wohl annehmen, im Endeffekt wird dieses Architekturkonzept wohl auch seine Früchte eher in Zukunft tragen.

Frank1974
2010-02-24, 14:36:45
Ich finde das sehr lustig hier, gestern war noch die GTX480 nur 5-10% vor einer HD5870 und heute soll sogar eine GTX460 vor einer HD5850 liegen;D

Aber bei diesen hin und her, wird wohl kaum einer noch zu 5850/5870 greifen, das Risiko für einen Fehlkauf ist bei den ATI Preisen viel zu hoch, ein Monat warten kann jeder, wenn NV dann doch nichts besser macht, kann man immer noch entscheiden ob Ati oder NV.

Aber mal sehen was Nvidia am Ende wirklich bringt, man hört meist nur PhysX und DX11, aber die meisten Games werden immer noch mit DX9 kommen, wegen den Konsolen(oder?)

Gut das ich eine GTX295 habe, da fällt das warten nicht so schwer:smile:

mfg
Frank

Ailuros
2010-02-24, 14:37:44
Dieses 300W Cap existiert doch nur in den Strandarts. Dem Netzteil ist es vollkommen egal ob da 3 8Polige Kabel an ein Tripple Sli oder an eine Karte gehn. Natürlich hätte NV es lieber wenn es in den Standarts verankert ist und deshalb versuchen sie das ja auch nun durchzudrüken. Aber ich glaube nicht, dass nur deshalb eine Karte nicht herausbringen würden, da ja rein technisch ausgeschlossen ist, dass daruch irgendwelche Probleme entstehen.

Dem bin ich auch bewusst; nur wird die Vermarktung eines Produkts dass ausserhalb der 300W Grenze liegt nicht besonders leicht sein. Ja natuerlich heisst es dann gleich dass es in solchen Bereichen den Benutzern wahrscheinlich wurscht sein wird, aber der generellen Kritik wird so ein Ding trotz allem nicht entgehen.

Dural
2010-02-24, 14:39:37
@AnarchX

auch ohne AA / AF fehlt der 5770 gut 20% auf die 4890... naja auch egal... :)

Ailuros
2010-02-24, 14:48:20
Das ist keine milchmädchen rechung, eine Verdopplung der Einheiten in der selben Architektur wird IMMER die Theoretische Verdopplung der Leistung mit sich bringen.

Die Frage ist eher ob die GPU die Verdopplung der Einheiten zu 100% Effizient nutzen kann und da ist eher ein NEIN angebracht... bis jetzt hab ich noch keine Architektur gesehen die das kann...

Aber wie auch immer, meine 60% sind OK ;)

Nein eben nicht; weil die GF104 hoechstwahrscheinlich hoeher getaktet sein wird als selbst die 480 (zumindest nachdem was ich hoerte).

AnarchX,

Aber auch nur bei extremer Tesselation, ergo bei sehr vielen kleinen Dreiecken. Wieso sollte ausserhalb diesem triangle throughput, setup, rasterizing im Nachteil sein mit 2 raster setups und noch mehr falls die Frequenz leicht hoeher ist beim 104?

Odal
2010-02-24, 14:51:26
Richtig und ich denke das Eyefinity selbstverständlich mit 3D kombinierbar sein wird. Natürlich wird dann aber aus reinen Performancegründen auch bei AMD ein CF-System notwendig sein.

ich glaube hier war nicht 3D in form von 3D->2D Projektion mit Verlust jeglicher Tiefeninformation gemeint was schon seit anno knipps und Voodoo1 gang und gebe ist, sondern 3D ala 3D Vision sozusagen die Wiederaufstehung der legendären Elsa 3D Relevator&Co

S940
2010-02-24, 14:51:45
Gut das ich eine GTX295 habe, da fällt das warten nicht so schwer:smile:
Lol, wieso wartest Du überhaupt ?
Mit der 295er kannst Du nVidia Zeit geben, das Design im 28nm Prozess die Bugs auszutreiben ;-)

Dural
2010-02-24, 14:54:42
Nein eben nicht; weil die GF104 hoechstwahrscheinlich hoeher getaktet sein wird als selbst die 480 (zumindest nachdem was ich hoerte).


hab ich was anderes gesagt??? ne hab ich nicht ;)

noch mal ich lag bei min. 60% und der wert dürfte locker eingehalten werden wenn GF104 wirklich ein Komplett halber GF100 ist.

obwohl ich das nicht ganz glaube, denke das der gf104 schon eher mit 32ROPs / 256bit daher kommt.

Spasstiger
2010-02-24, 15:02:38
obwohl ich das nicht ganz glaube, denke das der gf104 schon eher mit 32ROPs / 256bit daher kommt.
Die Variante hätte zumindest den Vorteil, dass man auch billigen DDR3-Speicher nehmen kann und trotzdem auf die Speicherbandbreite des Juniper-Chips von AMD kommt.

Gast
2010-02-24, 15:07:27
Dann wäre der GF104 ein sehr gut positionertes Produkt - irgendwo zwischen 5830 und 5850. Das alles mit nem Chip der wohl kleiner und damit günstiger herzustellen wäre...

Imho wird nicht der GF100 Ati zu schaffen machen (wieso auch), sondern der GF104

Gast
2010-02-24, 15:08:14
@AnarchX

auch ohne AA / AF fehlt der 5770 gut 20% auf die 4890... naja auch egal... :)

Die 4890 hat auch 62,5% mehr Bandbreite nebenbei gesagt

Odal
2010-02-24, 15:09:35
Ich finde das sehr lustig hier, gestern war noch die GTX480 nur 5-10% vor einer HD5870 und heute soll sogar eine GTX460 vor einer HD5850 liegen;D


das mit den 5% war doch genauso nur charlie brown speku wie die GTX460 mit 5-15% vor 5850 eine chinesen speku ist
im prinzip wissen wirs wohl alle nicht genau man kann nur versuchen den Menschenverstand walten zu lassen und sich was zusammenspekulieren ;D

5870 und 5850 liegen ja "relativ" dicht beieinander, genauso sind GTX280 und GTX260 auch keine Welten von einander entfernt gewesen
da man ja hört das die Ausbeute an 512SP GTX480 chips nicht gerade überragend ist macht es für mich schon durchaus Sinn den Papiertiger mit einer zwischen GTX470 gegen die 5870 abzurunden

wenns wirklich GTX460 in naher Zukunft gibt dann könnte ich mir nicht vorstellen in welche schiene die eingereiht werden sollte wenn die GTX470 sich schon an der HD5850 die Zähne ausbeisst

Ailuros
2010-02-24, 15:10:15
obwohl ich das nicht ganz glaube, denke das der gf104 schon eher mit 32ROPs / 256bit daher kommt.

Passt nicht in die spekulierte die area :P Allein von den ROPs aus haettest Du dann in Theorie mehr AA Effizienz auf Papier, aber da das Ding wohl nicht mehr Bandbreite als eine 470 haben wird die ROPs dann am Ende wieder dumm herumhocken.

480 = 4 raster * 8 pixels/clock = 32 pixels/clock + 16 zusaetzliche ROPs
470 = 4 raster * 8 pixels/clock = 32 pixels/clock + 8 zusaetzliche ROPs
460 = 2 raster * 8 pixels/clock = 16 pixels/clock + (????)

Es muss natuerlich nicht so sein, aber irgendwo muss es auch Logik geben um wirklich balancierte chips zu haben. Die area mal zur Seite, was macht im obrigen Fall mehr Sinn? 16+8 oder 16+16?

AnarchX
2010-02-24, 15:10:29
Die Variante hätte zumindest den Vorteil, dass man auch billigen DDR3-Speicher nehmen kann und trotzdem auf die Speicherbandbreite des Juniper-Chips von AMD kommt.
Mehr als 1GHz 32-Bit SDDR3 scheint es momentan wohl nicht zu geben, sodass man hier maximal eine 5670 erreicht.
192-Bit GDDR5 und 0.5ns Speicher wäre wohl hier die vernünftigere Lösung.
Mit 0.4ns könnte man auch 5850/30-Niveau erreichen.

Aber wie man eine 5850 mit 256 FMAs und 32 TMUs angreifen will, dürfte spannend werden, selbst mit sehr optimistischen 1,7GHz Hot-Clock kommt man hier gerade mal auf die halbe Rohleistung.

Nakai
2010-02-24, 15:12:14
460 = 2 raster * 8 pixels/clock = 16 pixels/clock + (????)

Eigentlich 16+16. Weniger als 256Bit wäre schwach, vor allem bezgl der anderen vorherigen Midrangechips.
192 Bit kann ich mir nicht vorstellen.


mfg

Ailuros
2010-02-24, 15:17:35
das mit den 5% war doch genauso nur charlie brown speku wie die GTX460 mit 5-15% vor 5850 eine chinesen speku ist
im prinzip wissen wirs wohl alle nicht genau man kann nur versuchen den Menschenverstand walten zu lassen und sich was zusammenspekulieren ;D

5870 und 5850 liegen ja "relativ" dicht beieinander, genauso sind GTX280 und GTX260 auch keine Welten von einander entfernt gewesen
da man ja hört das die Ausbeute an 512SP GTX480 chips nicht gerade überragend ist macht es für mich schon durchaus Sinn den Papiertiger mit einer zwischen GTX470 gegen die 5870 abzurunden

wenns wirklich GTX460 in naher Zukunft gibt dann könnte ich mir nicht vorstellen in welche schiene die eingereiht werden sollte wenn die GTX470 sich schon an der HD5850 die Zähne ausbeisst

Die halbe GF100 soll nach meinen Infos zwischen 5850 und 5870 liegen. Diese erwaehnen auch leicht hoehere Frequenz fuer diese als die 480. Sonst wuerde ich mich mit dem Zeug erstmal gar nicht beschaeftigen. Wenn man etwas 2-3 Mal woanders noch hoert ist es schon ein Stueck von purer Phantasie oder reinem Zufall entfernt. GF104 soll nach AMD fuer April angesagt sein (und ja komischerweise denken sie mit dem Codenamen an eine "GX2" aber hier koennte V2.0 wieder recht haben und das Puzzle schliesst sich dann auf theoretischer Spekulationsebene ziemlich gut).

Eigentlich 16+16. Weniger als 256Bit wäre schwach, vor allem bezgl der anderen vorherigen Midrangechips.
192 Bit kann ich mir nicht vorstellen.


mfg

Stets auf spekulativer Ebene warum nicht? Wenn eine 448SP Variante mit 130GB/s Bandbreite auskommt (wenn's ueberhaupt stimmt), was spricht dann dagegen dass eine 256SP Variante mit nur 80-90GB/s auskommen kann?

StefanV
2010-02-24, 15:19:51
Mit Multiscreen?
Warum sollts nicht auf mehreren Schirmen gehen?!

Soo unglaublich ist diese Technologie nun auch wieder nicht, ganz im Gegenteil, es ist eher eine recht primitive Technik, um 3D darstellen zu können...

ist auch nicht bei jedem nutzbar bzw führt bei einigen zu Kopfweh, von der Positionierung der Schirme sprechen wir jetzt mal lieber nicht...

LovesuckZ
2010-02-24, 15:22:05
Aber wie man eine 5850 mit 256 FMAs und 32 TMUs angreifen will, dürfte spannend werden, selbst mit sehr optimistischen 1,7GHz Hot-Clock kommt man hier gerade mal auf die halbe Rohleistung.

Nunja, eine GTX285 hat auch nur die halbe Rechenleistung und ist nah dran.
Man sollte AMD's Rechenleistung einfach nicht überbewertet. Genauso wenig wie die Texelfüllrate. Solange wie man nicht 100% diese Leistung benötigt, veprufft sie in vielen Fällen.

StefanV
2010-02-24, 15:23:50
Eigentlich duerfte der GF100 ca. 64% groesser sein als Cypress. Wenn die 470 selbst einen relativ kleinen Leistungsabstand zur 5870 haben sollte (sagen wir mal +/-10%) dann koennte es sein dass der Preis etwas hoeher liegt als bei der 5870 und die 460 mit einem Preis unter dieser. Wenn meine Infos stimmen und GF104 knapp ueber der die area von Cypress liegt koennen sie sich auch einen sehr guten Preis dafuer erlauben.
Entsprechend würd ich davon ausgehen, dass der GF100 nur so etwas nebenbei als Prestige Objekt läuft und im Retail kaum eine Rolle spielen wird - wird nV wohl kaum ausliefern und/oder verkaufen wollen.

Ist wohl ähnlich wie bei dem AMD K6-3 (sorry, ein anderer Vergleich fiel mir gerad nicht ein), der war auch überdurchschnittlich teuer, weil schlecht lieferbar, hier hatte AMD auch nicht unbedingt Interesse, den zu verkaufen.
Dürfte hier wohl ähnlich sein.

Es würd mich nicht wundern, wenn man bei 400-500Dollar für die GTX470 hinlegen dürfte, wie auch aktuell bei den 'ganzen' GT200(b) Karten.

Naja, schauen wir mal...

AwesomeSauce
2010-02-24, 15:36:42
Die halbe GF100 soll nach meinen Infos zwischen 5850 und 5870 liegen. Diese erwaehnen auch leicht hoehere Frequenz fuer diese als die 480. Sonst wuerde ich mich mit dem Zeug erstmal gar nicht beschaeftigen. Wenn man etwas 2-3 Mal woanders noch hoert ist es schon ein Stueck von purer Phantasie oder reinem Zufall entfernt. GF104 soll nach AMD fuer April angesagt sein (und ja komischerweise denken sie mit dem Codenamen an eine "GX2" aber hier koennte V2.0 wieder recht haben und das Puzzle schliesst sich dann auf theoretischer Spekulationsebene ziemlich gut).

Na, das klingt doch mal nach ner Ansage. Hoffen wir, dass sich möglichst viel davon bewahrheitet - bei all den negativen Schlagzeilen in letzter Zeit leider schwer zu vertreten.

Wurden denn eigentlich schon Samples an die Presse verschickt oder ist es dafür noch ein wenig zu früh?

BTW: neliz bei B3D scheint irgendwas (oder irgendwer) über die Leber gelaufen zu sein.

Kosh
2010-02-24, 15:50:48
http://we.pcinlife.com/attachments/forumid_206/1002240052b9e0cdd21cf2383d.jpg

Finde ich schon dreist da etwas von "can have it" zu schreiben, wenn mir jeder Internethändler weltweit sagt, dass es "cant have it" heißen sollte ^^
Naja, halt das übliche Marketing Blabla, auch nichts Neues.

Habe meine 5870 Anfang Januar bekommen, 3 Tage vorher bestellt,kostenpunkt 323 Euro.

Meine Karte,die ich Anfang November bestellte, kam 1 Woche später. Hatte leider vergessen zu stornieren. Die Asuskarte hätte mich 293 Euro gekostet, habe das Paket aber nicht angenommen.

Danach habe ich nichtmehr auf die Verfügbarkeit geachtet, jedoch hätte vorher jederzeit eine Karte bekommen können,wenn ich um die 370 Euro bezahlt hätte,erst recht wenn ich bereit gewesen wäre 400 Euro zu bezahlen.
Bis dahin waren eigentlich immer Karten zu bekommen,wenn man geschaut hat (Hardwaredeluxx gibt es ja einen Verfügbarkeitsthread dazu).

Sprich,es gab immer 5870 Karten zu kaufen,nur musste man dann Händlerabzockergebühren zahlen,weil die Nachfrage nunmal so groß war,das nicht genug Karten vorhanden waren.

Somit stimmt das Bild oben schon bezüglich den Punkt "Sale".

Und es haben ja schon sehr,sehr viele Leute hier eine 5870 im Rechner.

Dural
2010-02-24, 15:52:00
Passt nicht in die spekulierte die area :P Allein von den ROPs aus haettest Du dann in Theorie mehr AA Effizienz auf Papier, aber da das Ding wohl nicht mehr Bandbreite als eine 470 haben wird die ROPs dann am Ende wieder dumm herumhocken.

480 = 4 raster * 8 pixels/clock = 32 pixels/clock + 16 zusaetzliche ROPs
470 = 4 raster * 8 pixels/clock = 32 pixels/clock + 8 zusaetzliche ROPs
460 = 2 raster * 8 pixels/clock = 16 pixels/clock + (????)

Es muss natuerlich nicht so sein, aber irgendwo muss es auch Logik geben um wirklich balancierte chips zu haben. Die area mal zur Seite, was macht im obrigen Fall mehr Sinn? 16+8 oder 16+16?

schon g94 / g92 vergessen ;)

und es geht mir nicht mal um die Bandbreite oder so, sondern viel mehr darum das man eine solche Karte mit nur 768MB Speicher kaum verkaufen kann wenn AMD schon überall 1GB hat... da müssten sie mit 1,5GB daher kommen und das sieht dann im Vergleich zur 470 komisch aus...

Da dürften 256Bit mit 1GB 1000MHz Speicher deutlich besser und billiger kommen als 192Bit 1.5GB 1200MHz Speicher, oder etwa nicht??? :wink:

und wie ist die spekulierte die area? hiss doch immer etwa RV870 grösse? das dürften also um die 2Miliarden Tranistoren sein... da kommen die 8ROP mehr doch sicher irgend wie rein ;)

Klar man könnte ja auch 1500MHz Speicher nehmen, der dürfte sicher bald lieferbar sein... aber davon 1,5GB (an 768MB glaub ich nicht) dürften die kosten explodieren lassen gerade wenn man zwischen 5850 und 5870 landen will...

Bucklew
2010-02-24, 15:53:46
Imho wird nicht der GF100 Ati zu schaffen machen (wieso auch), sondern der GF104
Der GF100 macht ATI Image-mäßig zu schaffen, weil er eben die schnellste Grafikkarte ist. Und dieses Image schlägt sich eben auf die kleineren Karten nieder.

Warum sollts nicht auf mehreren Schirmen gehen?!
Geht es denn?

Kosh
2010-02-24, 16:01:37
Die UVP von 299 Dollar von der GTX470 waren doch ein Fake ,oder stammt die Aussage wirklich von NVIDIA??

Weil wenn wirklich von NVIDIA,dann hat die Karte niemals mehr Leistung als die 5850.

Hat die GTX470 Leistungsperformance von der 5870, dann liegt die Karte mit Sicherheit 50 Dollar über dem aktuellen ATI 5870 UVP.

Gast
2010-02-24, 16:02:22
Der GF100 macht ATI Image-mäßig zu schaffen, weil er eben die schnellste Grafikkarte ist. Und dieses Image schlägt sich eben auf die kleineren Karten nieder.

nVidia hatte schon die schnellere Grafikkarte, als die HD 2000-, HD 3000-, HD 4000-Serie gelauncht wurde. Was soll ATi imagemäßig jetzt noch zu schaffen machen?

Gast
2010-02-24, 16:15:55
Der GF100 macht ATI Image-mäßig zu schaffen, weil er eben die schnellste Grafikkarte ist

hab ich was verpasst ?
Imagemäßig macht der GF100 momentan nur nvidia zu schaffen ;)

mapel110
2010-02-24, 16:17:27
hab ich was verpasst ?
Imagemäßig macht der GF100 momentan nur nvidia zu schaffen ;)
Genau. Bleibt auch noch 4 Wochen so. Und selbst danach gibts wohl Haue von der Presse wegen der Verfügbarkeit.

Kosh
2010-02-24, 16:21:08
Zumal das Image wohl auch eher drunter leidet, wenn man zwar die schnellste Karte hat,diese aber zB 10% schneller ist,aber das doppelte kostet,laut wie ein Düsenjäger ist und einen eigenen Stromgenerator benötigen würde.

ist natürlich übertrieben :D ,aber einfach nur schneller sein als die Konkurrenz sorgt nicht alleine für Positives Image.

Coda
2010-02-24, 16:25:25
Warum sollts nicht auf mehreren Schirmen gehen?!

Soo unglaublich ist diese Technologie nun auch wieder nicht, ganz im Gegenteil, es ist eher eine recht primitive Technik, um 3D darstellen zu können..
Das ist ganz und gar nicht "primitiv". Der Aufwand im Treiber dafür ist erheblich. Vor allem mit Shadern ist mir nicht ganz klar, warum es überhaupt funktioniert.

LovesuckZ
2010-02-24, 16:28:00
hab ich was verpasst ?
Imagemäßig macht der GF100 momentan nur nvidia zu schaffen ;)

Schon irgendwie lustig, wie Lügen ein Produkt schaden können.
Aber es muss auch genügend Gläubige geben, die blind den Aussagen vertrauen.

Gast
2010-02-24, 16:29:44
Nvidia wird die Krone nicht mit der GTX 480 bekommen.
Es sei den die Presse testet auch mal abseits der Testnorm, den dann versagt MGPU, in dem Fall 5970.

Daraus folgt auch, das die Lügen, die einen Post über meinem wegen Verbrauch, Lautstärke, und Preis nicht hinkommen, bzw nicht bekannt sind.
Preislich wird man sich ganz klar unter 5970 positionieren, so das der Aufpreis sich zur 5970 in keinem Fall lohnt, selbst wenn MGPU kein Schrott wäre.

Ich denke solche Aussagen kommen daher, weil manch einer seine Firma verteidigen muss. Sonst würde er kaum Seltsame Vergleiche machen und andere Produkte wie GTX 470 oder 5970 ausblenden.

Gast
2010-02-24, 16:30:38
Daraus folgt auch, das die Lügen, die einen Post über meinem wegen Verbrauch, Lautstärke, und Preis nicht hinkommen, bzw nicht bekannt sind.
Der Post ist gemeint: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7864515&postcount=12683

Gast
2010-02-24, 16:31:45
Schon irgendwie lustig, wie Lügen ein Produkt schaden können.
Aber es muss auch genügend Gläubige geben, die blind den Aussagen vertrauen.


Meintest du jetz dich selbst oder mich als Zielobjekt deiner Aussage ?

Würd ja irgendwie auf uns beide passen...nur auf dich eindeutig besser - deshalb frag ich lieber mal nach ;)

LovesuckZ
2010-02-24, 16:32:22
Meintest du jetz dich selbst oder mich als Zielobjekt deiner Aussage ?

Würd ja irgendwie auf uns beide passen...nur auf dich eindeutig besser - deshalb frag ich lieber mal nach ;)

Nunja, wenn du an die vielen haltlosen Aussagen glaubst, dann bist du natürlich auch gemeint. :)

deekey777
2010-02-24, 16:34:33
Der GF100 macht ATI Image-mäßig zu schaffen, weil er eben die schnellste Grafikkarte ist. Und dieses Image schlägt sich eben auf die kleineren Karten nieder.


Ist?
Und wo ist er? Also bitte: Wenn, dann "voraussichtlich sein wird".

Gast
2010-02-24, 16:46:02
Ist?
Und wo ist er? Also bitte: Wenn, dann "voraussichtlich sein wird".
Seine Formulierung ist richtig. Es gibt den GF100.
Falsch wäre es, wenn er geschrieben hätte "schnellste im Laden erhältliche Grafikkarte ist"

Gast
2010-02-24, 16:49:29
Es gibt den GF100.

Wo?
Link?

Kalmar
2010-02-24, 16:50:58
ich glaub die nächsten 4 Wochen werden wir mit angeblichen und vielleicht auch echten Benchmarks überschüttet werden was uns wirklich nicht weiter helfen wird ..

finde es nur interessant das auf einmal die 460 den platz der 470 einnehmen soll ...

falls wer den film click kennt, sone fernbedienung wäre jetzt net schlecht

Gast
2010-02-24, 16:53:22
Wo?
Link?
Gehirn schläft noch?
Schau mal bei Nvidia vorbei, in Santa Clara.

Gast
2010-02-24, 16:58:00
Seine Formulierung ist richtig. Es gibt den GF100.
Falsch wäre es, wenn er geschrieben hätte "schnellste im Laden erhältliche Grafikkarte ist"

Achso.

Falsch. Der GF100 ist nicht der schnellste Chip. Der schnellste Chip ist R900 ;)

Gast
2010-02-24, 17:04:55
Falsch. Der GF100 ist nicht der schnellste Chip. Der schnellste Chip ist R900 ;)Es ging um die Grafikkarte.
Gibt es bereits R900 Karten? Wenn ja, gibt es nicht auch schon GF200 Prototypen?

Gast
2010-02-24, 17:11:36
Es ging um die Grafikkarte.
Gibt es bereits R900 Karten? Wenn ja, gibt es nicht auch schon GF200 Prototypen?

Klar bestimmt sind Sie seit Januar in Massenproduktion;)

Gast
2010-02-24, 17:13:19
Achso.

Falsch. Der GF100 ist nicht der schnellste Chip. Der schnellste Chip ist R900 ;)
Nö, auch nicht ^^

Gast
2010-02-24, 17:13:42
Wenn ja, gibt es nicht auch schon GF200 Prototypen?

Korrekt - du hast es begriffen. Und R900 Samples gibt es unter Garantie schon.

Folglich ist folgende Aussage "GF100 gibts schon und ist schnellste Graka" total für die Müllhalde - dann könnte man genauso gut den Refresh von ATI im Sommer schonmal mit einbeziehen - oder den Refresh von nvidia - oder die R900...

Solang man nichts aufm Markt hat ist es wertlos

Gast
2010-02-24, 17:17:04
Korrekt - du hast es begriffen. Und R900 Samples gibt es unter Garantie schon.
Es gibt keinen Grund, das es R900 gibt und GF200 nicht.
Es sei den AMD hat sich erstmal einen 40nm R900 gebastelt.

Klar bestimmt sind Sie seit Januar in Massenproduktion;)
Massenproduktion ist völlig am Thema vorbei.

Gast
2010-02-24, 17:19:54
Es gibt keinen Grund, das es R900 gibt und GF200 nicht.

Doch nich begriffen ? ;)

Dann zweiten Teil vom Post nochmal lesen.

Gast
2010-02-24, 17:24:47
Die ursprüngliche Aussage von Bucklew hat keinerlei Grund zur Annahme gegeben, das sie im Laden erhältliche Produkte meint.
Es ging doch eh nur um die Kleinlichkeit, des Wortes "ist". Wer so kleinlich ist, muss sich auch mit der Kleinigkeit abgeben, wie der Rest des Satzes aussieht.

aylano
2010-02-24, 17:27:32
Zumal das Image wohl auch eher drunter leidet, wenn man zwar die schnellste Karte hat,diese aber zB 10% schneller ist,aber das doppelte kostet,laut wie ein Düsenjäger ist und einen eigenen Stromgenerator benötigen würde.

ist natürlich übertrieben :D ,aber einfach nur schneller sein als die Konkurrenz sorgt nicht alleine für Positives Image.
So ist es.
Alleine RV770 vs. GT200 hatte die Ansicht verändert, dass Performance nicht das einzige ist. Preis-Leistung war "aufeinmal" gefragt.

Da die Performance-pro-Watt beider sehr ähnlich waren, war der Stromverbrauchs-Unterschied kein Thema.
Und das könnte sich jetzt eben ändern, wenn der Unterschied zu groß wird.

Wobei der HD 5850 im Vergleich zu HD 5870 ja auch nicht wirklich sparsam ist. Sowie HD 5830.
Mal sehen, wie Nvidia Fermi & Co platziert.

Gast
2010-02-24, 17:33:54
eine dual lösung auf gf104 (2x256SP) macht nicht wirklich viel sinn, da man ja gf100 / gtx480 (1x512SP) hat...

Es sei denn GF104 hat nicht 2 sondern 3 GPCs (entspricht 384 SPs)

Armaq
2010-02-24, 17:45:12
Kann man bitte die Gäste bannen. Die letzten 4 Seiten sind unerträglich.

LovesuckZ
2010-02-24, 17:46:59
Preis/Leistung und rv7xx? Wie definiert man denn da Leistung? :freak:

Es sei denn GF104 hat nicht 2 sondern 3 GPCs (entspricht 384 SPs)

Zuviel.
Ein 1/2 GF100 mit maximal 256bit ist ausreichend und wird mit einer 5830/5850 gut mithalten können.

StefanV
2010-02-24, 17:48:51
Seine Formulierung ist richtig. Es gibt den GF100.
Falsch wäre es, wenn er geschrieben hätte "schnellste im Laden erhältliche Grafikkarte ist"
Es gab auch 3DFX Rampage Chips und VSA-101, nur was nutzt das, wenn mans nicht kaufen kann?!

Dural
2010-02-24, 17:59:44
am ende wird es doch genau so laufen wie damals mit G92/G94 und RV670

Da konnte der nur 64SP kleiner G94 gut mit dem 320SP RV670/3850 mithalten... war sogar mit AA/AF auf Augenhöhe mit der 3870...

Das dürfte auch diesmal wieder der fall sein mit dem GF104 / GTX460 und der 5850 :)

Gast
2010-02-24, 18:06:34
am ende wird es doch genau so laufen wie damals mit G92/G94 und RV670

Da konnte der nur 64SP kleiner G94 gut mit dem 320SP RV670/3850 mithalten... war sogar mit AA/AF auf Augenhöhe mit der 3870...

Das dürfte auch diesmal wieder der fall sein mit dem GF104 / GTX460 und der 5850 :)

Und erst der 240 sp Chip, der schneller war als der 800 sp Chip...
Tut das nicht irgendwie weh solche Vergleiche anzustellen.
Ich kann mir nicht vorstellen, dass man solchen Käse ohne Schmerzen schreiben kann.

Dural
2010-02-24, 18:11:30
es sollte dir schmerzen verursachen wenn du nichts schnallst auf was ich hinaus will...

Gast
2010-02-24, 18:11:43
Es gab auch 3DFX Rampage Chips und VSA-101, nur was nutzt das, wenn mans nicht kaufen kann?!
Es ging nicht darum, was es nützt.
Es ging ums kleinliche Ist Wörtchen.

So ist es.
Alleine RV770 vs. GT200 hatte die Ansicht verändert, dass Performance nicht das einzige ist. Preis-Leistung war "aufeinmal" gefragt.
Jetzt machst du gleich da weiter wo wir eben waren?
Unsinnige unfaire Vergleiche mit Ausblendung diverser Tatsachen um zum gewünschten Ergebniss zu kommen?

Du vergisst mal eben GTX 260, wo du dich weigerst sie gegen die einige Zeit später gelaunchte 4870 1GiB zu vergleichen.
Gleichzeitig vergisst du die 4870 X2, auch später gelauncht. Von besonders toller P/L, was auch immer das sein soll, kann man da nichts sehen.

Was du meintest, ist die hohe Mainstreamleistung, die die 4800 gebracht hat. Dasselbe, warum 8800 GT und GTS so beliebt waren.

Gast
2010-02-24, 18:17:31
Und erst der 240 sp Chip, der schneller war als der 800 sp Chip...
Tut das nicht irgendwie weh solche Vergleiche anzustellen.
Ich kann mir nicht vorstellen, dass man solchen Käse ohne Schmerzen schreiben kann.

Dir ist aber schon klar, dass wegen der 5D Shader von Ati es anwendungshabhängig dazu kommen kann, dass nur 1/5 der Shader arbeiten. Somit werden aus den 800SP ganz schnell mal 160SP. Natürlich ist das der Extremfall, allerdings draf man auch nicht vergessen, das Nvidias 1D Shader meist ein höheren Takt haben.

Bucklew
2010-02-24, 18:20:20
Ist?
Und wo ist er? Also bitte: Wenn, dann "voraussichtlich sein wird".
Auf meinem Schreibtisch im Büro lag gestern noch eine, soll ich nachschauen ob sie noch da ist? ;D

Gast
2010-02-24, 18:24:55
Hier gehts um Fermi und kein Flamewar AMD vs NV, also haltet euch doch bitte wieder zurück. Kaufempfehlungen haben hier soviel zu tun, wie Anekdoten von vor einem Jahrzent!

Gast
2010-02-24, 18:28:26
Habe meine 5870 Anfang Januar bekommen, 3 Tage vorher bestellt,kostenpunkt 323 Euro.

Meine Karte,die ich Anfang November bestellte, kam 1 Woche später. Hatte leider vergessen zu stornieren. Die Asuskarte hätte mich 293 Euro gekostet, habe das Paket aber nicht angenommen.

Danach habe ich nichtmehr auf die Verfügbarkeit geachtet, jedoch hätte vorher jederzeit eine Karte bekommen können,wenn ich um die 370 Euro bezahlt hätte,erst recht wenn ich bereit gewesen wäre 400 Euro zu bezahlen.
Bis dahin waren eigentlich immer Karten zu bekommen,wenn man geschaut hat (Hardwaredeluxx gibt es ja einen Verfügbarkeitsthread dazu).

Sprich,es gab immer 5870 Karten zu kaufen,nur musste man dann Händlerabzockergebühren zahlen,weil die Nachfrage nunmal so groß war,das nicht genug Karten vorhanden waren.

Somit stimmt das Bild oben schon bezüglich den Punkt "Sale".

Und es haben ja schon sehr,sehr viele Leute hier eine 5870 im Rechner.

Die Argumentation kannste in die Tonne treten, wenn auch nur einer sagt, er habe iene 5870 bestellt und diese erst nach 4 Wochen bekommen, reicht das aus um bei den "Fanboys" die Aussage rauszukitzeln, ne 5870 gibts kaum lieferbar. Deswegen hält sich auch die Mär, das G80 beim erscheinen nicht Lieferbar war, wo doch jeder Enthusiast eine oder gleich 2 bekommen hat ^^

Gast
2010-02-24, 18:31:40
Die halbe GF100 soll nach meinen Infos zwischen 5850 und 5870 liegen. Diese erwaehnen auch leicht hoehere Frequenz fuer diese als die 480. Sonst wuerde ich mich mit dem Zeug erstmal gar nicht beschaeftigen. Wenn man etwas 2-3 Mal woanders noch hoert ist es schon ein Stueck von purer Phantasie oder reinem Zufall entfernt. GF104 soll nach AMD fuer April angesagt sein (und ja komischerweise denken sie mit dem Codenamen an eine "GX2" aber hier koennte V2.0 wieder recht haben und das Puzzle schliesst sich dann auf theoretischer Spekulationsebene ziemlich gut).


Eine halbe GF100 hat doch GF102 (aka GT100/102/104) als GPU, deren Tapeout war schon? Wäre ja ein Release vor Juni drin ;)

Dural
2010-02-24, 18:32:59
ich hatte im September eine 5870 :)

So mein Persöndlicher Leistung Index für Fermi ;D


GTX 480 ca. 10% unter 5970

GTX 470 ca. 10% vor 5870

GTX 460 ca. gleich auf 5850 (GF104 = GT200 Ersatz)


bekomm ich einen Kecks wenn ich recht habe? :freak:

nagus
2010-02-24, 18:50:44
ich hatte im Semptember eine 5870 :)

So mein Persöndlicher Leistung Index für Fermi ;D


GTX 480 ca. 10% unter 5970

GTX 470 ca. 10% vor 5870

GTX 460 ca. gleich auf 5850 (GF104 = GT200 Ersatz)


bekomm ich einen Kecks wenn ich recht habe? :freak:

und da könnte man noch weiter gehen...

GTS 450 ca. 5830 (192SP GF104)
GTS 440 ca. 5770 (128SP GF106)

das muss ich mir direkt bookmarken.

.... gtx 480 10% unter 5970 ... MEGALOL

ich tippe auf gtx 480 +10% vor 5870.... inkl. gratis heizkörper und laubsauger ;) ... und selbst das finde ich fast noch ein bisschen zu optimistisch.

N0Thing
2010-02-24, 18:51:32
Die GTX480 würde ich nicht ganz so weit vorne erwarten, aber sonst würde ich auch auf ähnliche Leistungen spekulieren.

redfirediablo
2010-02-24, 18:52:27
schöne Wunschträume :-)

die 480 wird nicht bezahlbar und noch weniger kaufbar sein und gerade mal 5-15% vor der 5870 liegen (Cbase rating) und nicht ansatzweise die 5970 erreichen können. Die 470 liegt dann so ziemlich genau zwischen 5850 und 5870 aber wird genauso viel wie die 5870 kosten.

nagus
2010-02-24, 18:54:52
http://we.pcinlife.com/attachments/forumid_206/1002240052b9e0cdd21cf2383d.jpg

Finde ich schon dreist da etwas von "can have it" zu schreiben, wenn mir jeder Internethändler weltweit sagt, dass es "cant have it" heißen sollte ^^
Naja, halt das übliche Marketing Blabla, auch nichts Neues.

da könnte amd genausogut mit RV9xx folien kommen und schreiben "you can have it"

nvidia. das sind vielleicht traumtänzer, wahnsinn.

Coda
2010-02-24, 19:01:01
Dir ist aber schon klar, dass das eine ATI-Folie ist?

MR2
2010-02-24, 19:05:24
Denkt euch mal die Überschrift + "sale" und das ATI Logo weg, dann passt die Folie:-)http://img7.abload.de/img/06204325r66u.jpg

nagus
2010-02-24, 19:09:08
Dir ist aber schon klar, dass das eine ATI-Folie ist?

ähm... dir ist aber schon klar, dass das ein FAKE ist?

http://we.pcinlife.com/attachments/forumid_206/1002240052b9e0cdd21cf2383d.jpg

MR2
2010-02-24, 19:10:37
Wieso steht da eigentlich nicht HD5970? Seltsam;-)

nagus
2010-02-24, 19:12:28
Wieso steht da eigentlich nicht HD5970? Seltsam;-)

ganz einfach, weil die gf100 nicht in die näher der leistung einer 5970 kommt? :P

Dural
2010-02-24, 19:13:29
eben weil die GTX480 ca. 10% hinter der 5970 ist ;)

einigen ist wohl nicht ganz so klar das zwischen 5870 und 5970 nur ca. 45% liegen... oder das die 5970 nur 20% schneller als eine GTX295 ist... ;)

V2.0
2010-02-24, 19:18:25
Wen jucken diese Folien noch. Dieser Marketingquark ist immer einseitig und bewusst verfälschend. Ich frage mich wer, außer Fanboys, sich da noch für interessiert oder darüber aufregt. So ne dumme Folie ist keine x-Seiten Diskussion wert.

Coda
2010-02-24, 19:19:40
ähm... dir ist aber schon klar, dass das ein FAKE ist?[/URL]
Und aus welchem Grund postest du es dann hier und schwafelst irgendwas von NVIDIA?

Gast
2010-02-24, 19:20:28
...oder das bei der 5970 schon ein cpu-limit herrscht ;)

Dural
2010-02-24, 19:20:39
Welches CPU Limit? Der Wert von 45% ist ganz OK im Vergleich zur 5870, nicht vergessen die RV870 GPUs und der Speicher haben auf der 5970 deutlich weniger Takt + AFR...

@Coda weil er eine AMDFanBoy ist... ;)

Gast
2010-02-24, 19:21:22
coda

er meint die ati-folie ist ein fake ;)

Gast
2010-02-24, 19:21:57
eben weil die GTX480 ca. 10% hinter der 5970 ist ;)

einigen ist wohl nicht ganz so klar das zwischen 5870 und 5970 nur ca. 45% liegen... oder das die 5970 nur 20% schneller als eine GTX295 ist... ;)
für ne 295 reicht auch ne 5870.

y33H@
2010-02-24, 19:23:34
Selbst eine GTX285 mit starkem OC liegt unter DX9/10 auf dem Level einer HD5850 oder davor (je nach Spiel). Wie übel muss der GF100 dann versaut worden sein, wenn die GTX470 nicht die HD5870 knackt? Das wäre ein epic fail à la HD2900 XT. Dafür spricht aber nichts.
Für ne 295 reicht auch ne 5870. Unter DX10/9? Nein, rein von der Balkenlänge her nicht. Was aber kein Grund ist, die GTX295 zu kaufen.

LovesuckZ
2010-02-24, 19:23:37
Reden wir schon wieder über Marketing? :rolleyes:
Schon traurig, dass Leute die Folie nicht einfach nur zur Kenntnis nehmen können.

igg
2010-02-24, 19:24:01
inkl. gratis heizkörper und laubsauger ;) ... und selbst das finde ich fast noch ein bisschen zu optimistisch.
Nimms bitte nicht persönlich, aber es war hier so viel schöner, als du dich in anderen Threads rumgetrieben hast. Selbst Tarkin schreibt mittlerweile sachliche Posts...

Was recht interessant ist, sind die aktuellen Performanceeinschätzungen. Nachdem bereits einige von fail schrieben (GTX470 knapp über 5850) sprechen doch einige der sonst üblich gut informierten b3dler noch von 5870 Performance für die GTX470.

Nachdem die Karten nun den Herstellern vorliegen, dürften echte Leaks doch bald zu erwarten sein?

Gast
2010-02-24, 19:28:19
@Coda weil er eine AMDFanBoy ist... ;)

Sagt der NV-Fanboy. Immer das gleiche. Wenn man diese gegenseitigen Schuldzuweisungen lassen würde könnte man vielleicht mal wieder vernünftig diskutieren.

Dural
2010-02-24, 19:29:28
ja bestimmt, deswegen hab ich ein anti AMD avatar und keine 5870 zuhause oder?

das avatar von ihm sagt alle über ihn aus... mehr muss man dazu nicht sagen...

Jake Dunn
2010-02-24, 19:30:03
ich hatte im September eine 5870 :)

So mein Persöndlicher Leistung Index für Fermi ;D


GTX 480 ca. 10% unter 5970

GTX 470 ca. 10% vor 5870

GTX 460 ca. gleich auf 5850 (GF104 = GT200 Ersatz)



bekomm ich einen Kecks wenn ich recht habe? :freak:

Ja...

...wird dir aber wegen der Rechtschreibung gleich wieder weggenommen ;)

Gast
2010-02-24, 19:32:03
Was recht interessant ist, sind die aktuellen Performanceeinschätzungen. Nachdem bereits einige von fail schrieben (GTX470 knapp über 5850) sprechen doch einige der sonst üblich gut informierten b3dler noch von 5870 Performance für die GTX470.

Nachdem die Karten nun den Herstellern vorliegen, dürften echte Leaks doch bald zu erwarten sein?

5870 Leistung für die GTX470 ist sicher, da brauche ich gar nicht zu spekulieren, da es alleine schon aus marktwirtschaftlichen Gründen sehr sinnvoll ist noch einen "Rammbock" nach unter zu haben. Also zwei Produkte über der Konkurrenz zu platzieren. Die einzige Frage ist wie weit die GTX480 von der GTX470 weg ist und ob man sie auch kaufen kann.

nagus
2010-02-24, 19:32:28
eben weil die GTX480 ca. 10% hinter der 5970 ist ;)

einigen ist wohl nicht ganz so klar das zwischen 5870 und 5970 nur ca. 45% liegen... oder das die 5970 nur 20% schneller als eine GTX295 ist... ;)

tut das eigentlich weh?

Dural
2010-02-24, 19:34:13
was tut weh? meist du meine zahlen kommen tatsächlich aus dem nichts? da muss ich dich aber leider entäuschen...

@Gast ca. 20% und Kaufen? Nein bestimmt nicht ;)

Gast
2010-02-24, 19:34:55
ja bestimmt, deswegen hab ich ein anti AMD avatar und keine 5870 zuhause oder?

das avatar von ihm sagt alle über ihn aus... mehr muss man dazu nicht sagen...

Deine Beiträge sprechen für sich, glaubst du wirklich das irgend jemand dein biased nicht bemerkt? Und deine Lügen wurden hier auch schon mehrmals aufgedeckt. Aber das ist hier OT.

nagus
2010-02-24, 19:35:14
ja bestimmt, deswegen hab ich ein anti AMD avatar und keine 5870 zuhause oder?

das avatar von ihm sagt alle über ihn aus... mehr muss man dazu nicht sagen...


OOOOCH das tut mir aber leid... leider sagt mein avatar ziemlich viel über nvidia aus: http://www.youtube.com/watch?v=Aa1Dkh4C_Ts + http://vr-zone.com/forums/564815/it-s-at-it-again-nvidia-rebrands-yet-more-gpus.html

da fält mir ein ich muss ja meinen avatar um die GT300 serie erweitern

tja

Jake Dunn
2010-02-24, 19:35:35
... oder das die 5970 nur 20% schneller als eine GTX295 ist... ;)

In 1920x1200 4xAA/16xAF konstantiere ich 44% (mit dem 9.11er)

http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_grafikkarten_2009/18/#abschnitt_performancerating_qualitaet

nagus
2010-02-24, 19:37:48
In 1920x1200 4xAA/16xAF konstantiere ich 44% (mit dem 9.11er)

http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_grafikkarten_2009/18/#abschnitt_performancerating_qualitaet

lass ihn doch... wenn er meint irgendwelche worst case szenarien aus dem hut ziehen zu müssen um herumtrollen zu können. ziemlich armselig

Dural
2010-02-24, 19:39:05
exakt 20%:

http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_ati_radeon_hd_5970/18/#abschnitt_performancerating_qualitaet

y33H@
2010-02-24, 19:40:28
@ Jake Dunn

Wirf DX11 raus, sonst ists kein "apples to apples".

Dural
2010-02-24, 19:45:23
lass ihn doch... wenn er meint irgendwelche worst case szenarien aus dem hut ziehen zu müssen um herumtrollen zu können. ziemlich armselig

lol brutales eigen tor von dir :freak:

http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_ati_radeon_hd_5970/18/#abschnitt_performancerating_qualitaet

aber mit benchmarks kommen wo DX11 drin ist ;D

Odal
2010-02-24, 19:50:12
OOOOCH das tut mir aber leid... leider sagt mein avatar ziemlich viel über nvidia aus:


ehrlich gesagt sagt der eher ziemlich viel über dich aus :rolleyes:

so und nun back2topic ;(