PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GT400/GF100 - Q1/2010, DX11, CUDA 3.0


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 [50] 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75

Spasstiger
2010-02-22, 13:09:02
679$ für eine GTX 480 sind starker Tobak, aber das bestätigt meine Theorie von Listungen bis 700€.

Ailuros
2010-02-22, 13:11:17
Gerade nach der Gesichte mit den G8X, ist eine verkürtze Garantie schon are bedenklich. Kein gutes Zeichen. Wenn NV so arrogant ist, dass sie glauben sich das lesiten zu können, dann ist das management noch weiter von schuss als man je vermuten durfte.

Wenn's stimmt der negativste Punkt ueberhaupt. Fuer mich persoenlich ist es Grund genug nein Danke zu sagen.

mapel110
2010-02-22, 13:11:38
Für die Dual Karte dann 900$-1000$?!

Persönlich juckts mich nicht, über wen die Garantie abgewickelt wird. Hauptsache es gibt zwei Jahre.

Ailuros
2010-02-22, 13:11:57
679$ für eine GTX 480 sind starker Tobak, aber das bestätigt meine Theorie von Listungen bis 700€.

Ich hoffe Du hast das Witzbildchen nicht ernst genommen LOL.

MoC
2010-02-22, 13:12:40
Das mit der Garantie versteh ich nicht.
Warum sollte das NV machen?
Also entweder muss die Ausfallrate so hoch sein, dass ne 2 Jahres-Garantie wirtschaftlich gesehen zur Katastrophe wird.
Wobei die Boardpartner ja dann den absoluten Zonk ziehen.

-> NV kann es sich leisten, sich mit den Boardpatnern zu verscherzen ? oO

oder

Lebenszyklus der GF100 so kurz (vll auch geringes Produktionsvolumen).
Das man nicht vorhat nach einen Jahr noch GF100 zu produzieren :|

-> ich glaub, dass ist sehr unwahrscheinlich

derguru
2010-02-22, 13:14:48
die daten muss man auch nicht ernst nehmen aber die preise schon,lol;)

igg
2010-02-22, 13:17:21
Lebenszyklus der GF100 so kurz (vll auch geringes Produktionsvolumen).
Das man nicht vorhat nach einen Jahr noch GF100 zu produzieren :|

-> ich glaub, dass ist sehr unwahrscheinlich
Der Refresh steht laut Gerüchten Ende des Jahres an, was mit der Verspätung des Fermi erklärt wird.

X.Perry_Mental
2010-02-22, 13:22:11
Der Refresh steht laut Gerüchten Ende des Jahres an, was mit der Verspätung des Fermi erklärt wird.Wobei ein Refresh dann erst mit Verfügbarkeit des 28nm-Prozesses Sinn macht. Würde mich nicht wundern, wenn das etwas länger dauern würde...

Odal
2010-02-22, 13:23:26
zu Punkt 3: Warum durchwachsene Mehrleistung - mittlerweile leicht bessere Performance als GTX295... Imo wurde dem Cypress in diesem Forum diese Leistung vor seinem Release nicht zugetraut. Von daher würde es mich auch nicht wundern, wenn sich Fermi nicht deutlich von 5850/5870 absetzen kann, da beim G80 die 8800GTX zuerst auch "nur" so permormant war wie eine GX2. Ob dies dann eine Enttäuschung wäre, muß jeder für sich selbst entscheiden, allerdings kristalisiert sich wohl heraus, dass Cypress doch eine sehr gute Single(!)-GPU darstellt.
Und zu Punkt b): Die schnellste Grafikkarte hat schon immer unverhältmäßig viel gekostet - daher empfinde ich die HD5870 in anbetracht der schlechten Verfügbarkeit, noch als günstig.

erstmal:
MultiGPU karten sollte man bei jeglicher Betrachtung nicht mit SingleGPU Karten vergleichen

dann:

http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_ati_radeon_hd_5870/23/#abschnitt_performancerating_qualitaet

ich seh hier im schnitt die 5870 um 25-30% vor einer GTX285 (mal nicht gerade die 8xAA Lorbeeren herausgepickt)

und um knapp 50% vor der 4890

das ist jetzt zwar ein Leistungsplus aber nichts was mich wirklich vom Hocker haut.
Und da muss sich die Karte eben preis/leistungstechnisch an einer 4890 messen, zumal durch konsolenmüll man derzeit wirklich nur selten am Limit nagt

Die 88GTX damals war da schon ein ganz anderes Kaliber

http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_nvidia_geforce_8800_gtx/28/#abschnitt_performancerating_qualitaet

wobei ich diesen Chip damals arg unterschätzte, da er zum Testzeitpunkt eigentlich sehr oft im CPU Limit lief.

Ich hab den Vorsprung zum teil auch als Bandbreitenvorteil und Speichermengenvorteil in hohen Auflösungen+AA abgetan.

2008 sah der Vorteil dann schon deutlich grösser aus

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gts_512/24/#abschnitt_performancerating_qualitaet

Würde man einen aktuellen Test mit 88GTX+7900GTX+X1950XTX finden würde die sich wohl noch deutlich weiter als "nur" knapp 3x so schnell wie der direkte Vorgänger (7900GTX) absetzen

hoffen wir das wir den RV870 auch etwas unterschätzen, ansonsten ist dessen Leistungszuwachs eher mau

AnarchX
2010-02-22, 13:23:52
Ende 2010 könnte es wohl eher ein Fermi 2 Computing Preview geben.

James Ryan
2010-02-22, 13:26:40
Wobei ein Refresh dann erst mit Verfügbarkeit des 28nm-Prozesses Sinn macht. Würde mich nicht wundern, wenn das etwas länger dauern würde...

Meinst du mit "Refresh" ein Taktupgrade oder wirklich eine neue GPU mit mehr Einheiten?
Ein Taktupgrade wird zu 99,99% in 40nm kommen, ich denke nicht dass NVIDIA nach dem Fermi-"40nm"-Debakel das gleiche Spielchen mit 28nm anfangen wird.

MfG :cool:

derguru
2010-02-22, 13:27:14
noch eine preislistung,

http://www.techpowerup.com/115816/GeForce_GTX_480_Gets_Listed.html

AnarchX
2010-02-22, 13:28:55
noch eine preislistung,

http://www.techpowerup.com/115816/GeForce_GTX_480_Gets_Listed.html
Der gleiche Shop wie oben.

V2.0
2010-02-22, 13:29:39
Wenn's stimmt der negativste Punkt ueberhaupt. Fuer mich persoenlich ist es Grund genug nein Danke zu sagen.

Absolut. Dann warte ich auf die Preissenkung bei AMD und schnappe mir ne Radeon.

mapel110
2010-02-22, 13:29:43
Hatten wir schon, derguru.

Ein B1 wird wohl so oder so kommen und schon den Refresh darstelllen. Anders kann ichs mir derzeit nicht vorstellen. Vielleicht Anfang 2011 noch einmal ein Aufguss mit leichten Änderungen. Und dann Mitte/Ende 2011 ein Chip in 28nm.

Spasstiger
2010-02-22, 13:32:15
Ich hoffe Du hast das Witzbildchen nicht ernst genommen LOL.
Man kann sich bei dem Shop ganz real für 679$ eine GTX 480 vorbestellen. Witzig ist das nicht, eher traurig.

fizzo
2010-02-22, 13:35:43
ich seh hier im schnitt die 5870 um 25-30% vor einer GTX285 (mal nicht gerade die 8xAA Lorbeeren herausgepickt)

hoffen wir das wir den RV870 auch etwas unterschätzen, ansonsten ist dessen Leistungszuwachs eher mau

Wenn es darauf ankommt weis die HD 5870 durchaus zu überzeugen - wie der hauseigene 3dcenter Artikel (http://www.3dcenter.org/artikel/sapphire-radeon-hd-5870-vs-zotac-geforce-gtx-285-295/auswertung-fazit) zeigt. (+ ~50%)

Spasstiger
2010-02-22, 13:37:53
In den Fällen, in denen die HD 5870 nur 25% vor der GTX 285 liegt, wird imo auch die GTX 480 keinen großen Vorsprung vor der HD 5870 rausholen können.
Nvidia spricht auch nur davon, dass der GF100 mit 8xMSAA bis zu doppelt so schnell wird wie die GTX 285.

MoC
2010-02-22, 13:38:16
Der Refresh steht laut Gerüchten Ende des Jahres an, was mit der Verspätung des Fermi erklärt wird.

Dann dürfte sich der 28nm-Prozess aber nicht verzögern.

Oder switch NV (notgedrungen!?!) auf den 32nm-Prozess?

Wie gesagt macht nur Sinn wenn sich der Refresh nicht verzögert.

Immerhin müssen die Boardpartner selbstständig ein Jahr für einen defekten Chip haften.
Wenn es natürlich ein Klausel gibt, die sagt, dass für das zweite Jahr einen Anspruch einen "Refresh"-Chip hat, würde der Schritt wieder Sinn machen.

Und wie kommen wieder zu den Punkt. Sehr kurzer Lebenszyklus für den GF100.


Ansonsten bleibt halt dieser dumme Beigeschmack, dass das Teil jederzeit hochgehen kann ;D

X.Perry_Mental
2010-02-22, 13:39:14
Meinst du mit "Refresh" ein Taktupgrade oder wirklich eine neue GPU mit mehr Einheiten?
Ein Taktupgrade wird zu 99,99% in 40nm kommen, ich denke nicht dass NVIDIA nach dem Fermi-"40nm"-Debakel das gleiche Spielchen mit 28nm anfangen wird.

MfG :cool:
Ich nehme jetzt einfach mal an, dass die momentanen Gerüchte leider stimmen und Fermi Probleme hat. Das man die in den Griff bekommt bezweifel ich nicht, aber das könnte (ist meine Meinung, daher keine Quellenangabe) noch bis Sommer dauern. Wenn es dann aber im Sommer eine (von mir frei erfundene) 475 und 485 mit mehr Takt gibt, was bleibt dann noch zum Jahresende?

derguru
2010-02-22, 13:41:30
In den Fällen, in denen die HD 5870 nur 25% vor der GTX 285 liegt, wird imo auch die GTX 480 keinen großen Vorsprung vor der HD 5870 rausholen können.
Nvidia spricht auch nur davon, dass der GF100 mit 8xMSAA bis zu doppelt so schnell wird wie die GTX 285.
eben und das kann auch eine 5870 obwohl mich der far cry2 bench des fermis schon ein wenig irritiert.da gibt es auch fast eine doppelte perfomance bei 4aa.

S940
2010-02-22, 13:44:40
Das mit der Garantie versteh ich nicht.
Warum sollte das NV machen?
Also entweder muss die Ausfallrate so hoch sein, dass ne 2 Jahres-Garantie wirtschaftlich gesehen zur Katastrophe wird.
Wobei die Boardpartner ja dann den absoluten Zonk ziehen.
Das wäre der kleine, nett gemeinte Hinweis an die Boardpartner das Teil gefälligst *nicht* zu kaufen, da nV mit den ab $299 Preisen nur Verlust machen kann. Nur nochmal zur erinnerung:
a) (viel) größeres DIE
b) 320/384 bit Interface -> höhere Board & VRAM Kosten.

Moral: Wenn die bösen Boardpartner es trotzdem wagen sollten die Chips zu kaufen, dann sollen sie gefälligst auch die Garantiekosten selbst übernehmen ^^

X.Perry_Mental
2010-02-22, 13:47:38
Das wäre der kleine, nett gemeinte Hinweis an die Boardpartner das Teil gefälligst *nicht* zu kaufen, da nV mit den ab $299 Preisen nur Verlust machen kann. Nur nochmal zur erinnerung:
a) (viel) größeres DIE)
b) 320/384 bit Interface -> höhere Board & VRAM Kosten.

Moral: Wenn die bösen Boardpartner es trotzdem wagen sollten die Chips zu kaufen, dann sollen sie gefälligst auch die Garantiekosten selbst übernehmen ^^
Warum sollte man versuchen den eigenen Boardpartnern Fermi zu vermiesen, ohne eine Alternative zu bieten?

CrazyIvan@Work
2010-02-22, 13:53:02
Weil es sinnvoller ist, gar keine Einheit abzusetzen, sofern der Deckungsbeitrag negativ ist. Das vermutet ja Charlie. Allerdings kann ich das nicht ganz glauben.

MoC
2010-02-22, 13:53:33
Hatten wir schon, derguru.

Ein B1 wird wohl so oder so kommen und schon den Refresh darstelllen. Anders kann ichs mir derzeit nicht vorstellen. Vielleicht Anfang 2011 noch einmal ein Aufguss mit leichten Änderungen. Und dann Mitte/Ende 2011 ein Chip in 28nm.

Aber warum sollten die auf eien A3-Chip ne 1 Jahres-Garantie geben und dann aufn nen B1 wieder ne 2 Jahres-Garantie?

Oder meinst du dass der Bx dann auch nur eine 1-Jahres Garantie bekommt?

Dann sind wieder bei den Punkt..... Warum 1 Jahr-Garantie, wenn die Chips keine hohe ausfallwahrscheinlichkeit haben?!

Ist für mich die Kernfrage.
Was nützt mir eine Graka, die schneller ist, wenn ich nen Jahr da und die Hopps geht. Dann brauch wieder ne Übergangs-Graka. Und bei den Fall, kann ich mir auch gut vorstellen das es ne Weile dauern wird bis die ersetzt wird.

Naja ok, bin da auch vll etwas voreingenommen, da 2 von 3 Nvidia Karten bei mir Hopps gegangen sind (was wohl weniger an NV liegt sondern eher an den Boardartnern...naja egal). Tortzdem musste ich 1/3 Monat(e) auf die neue Karte warten.

Aber wenn ich sowas schon lese....ist das eigentlich das absolute KO-Kriterium für mich.

mapel110
2010-02-22, 13:54:45
http://www.guru3d.com/article/nvidia-geforce-470-480/
Guru3D Editoral, muss selber erstmal lesen.

X.Perry_Mental
2010-02-22, 13:55:31
Weil es sinnvoller ist, gar keine Einheit abzusetzen, sofern der Deckungsbeitrag negativ ist. Das vermutet ja Charlie. Allerdings kann ich das nicht ganz glauben.
Die Dinger teuer auf Halde zu produzieren und den Boardpartnern den Verkauf (und damit die Bestellung) zu vermiesen ist (zumindest für mich) nicht nachvollziehbar.

Ailuros
2010-02-22, 13:56:43
Man kann sich bei dem Shop ganz real für 679$ eine GTX 480 vorbestellen. Witzig ist das nicht, eher traurig.

Dann lass mich draufklicken und wehe wenn dann meine 470 keine 512SPs hat :D:P

Odal
2010-02-22, 13:57:33
http://www.gamestar.de/hardware/news/grafikkarten/2312855/nvidia_geforce_gtx_480.html

Wenn das stimmt, dann ist die neue GF einfach nur ein Fail.
5% schneller bei deutlich höherer Verlustleistung und damit höherer Lautstärke?
EPIC FAIL

Natürlich nur, wenn das mit den 5% stimmt. :)
Gruß

da schreibt mal wieder einer den Käse vom anderen ab :D

also die Zypresse war ja jetzt nicht der Überflieger schlechthin das man dadurch wie benommen sein musste da glaub ich kaum das NV plante nur 35% vor ihrer alten HighEnd Single GPU Lösung GTX285 zu liegen. Letzterer bzw. GTX280 war jetzt auch nicht der Quantensprung wie G80 seinerzeits

sprich ich glaub kaum das das Ding mit der Performanceprognose aus der Designabteilung gegangen wäre.


http://forum.beyond3d.com/showpost.php?p=1397629&postcount=1706

Hahahahaaaaaaaaa ;D

http://images.hardwareinfo.net/news/Nvidia_Fermi_prijzen_duiken_op_01.jpg

Ok alle drei haben 512SPs *grunz*, und es gibt 1 oder 2GB Speicher fuer 384bit bzw. 320bit SIs....*wischt sich die Traenen aus den Augen*....



Woaahhh......:eek:

http://www.tweaktown.com/news/14302/more_details_on_nvidia_fermi_price_psu_requirements_and_more/

hat sich da einer den Spass gemacht und ein Bildchen gemalt? Weil 512SP bei allen Launch-Modellen klingt ja nun doch sehr unwahrscheinlich ^^ besonders weil ja nichtmal eine GTX460 für den "Abfall" gelistet ist :cool:

Ailuros
2010-02-22, 14:01:07
http://www.guru3d.com/article/nvidia-geforce-470-480/
Guru3D Editoral, muss selber erstmal lesen.

What I will tell you is that the clock frequencies on these boards surprised me, the GeForce 470 seems to be clocked at roughly 650 MHz, that's lower than I expected. And that indeed will have an effect on performance

Angenommen 650MHz ist 1/2 hot clock (was am wahrscheinlichsten klingt) dann liegt es innerhalb der letzten Erwartungen mit einem hot clock bei 1300MHz.

S940
2010-02-22, 14:01:32
Warum sollte man versuchen den eigenen Boardpartnern Fermi zu vermiesen, ohne eine Alternative zu bieten?
Wenn Du die Wahl hättest mir 100 Euro in die Hand zu drücken oder überhaupt nichts zu zahlen, wie würdest Du Dich entscheiden ?
Die Dinger teuer auf Halde zu produzieren und den Boardpartnern den Verkauf (und damit die Bestellung) zu vermiesen ist (zumindest für mich) nicht nachvollziehbar.Wer redet denn von Halde ? Aber gehen wir mal davon aus, es gibt massenhaft Chips. Selbst dann wird nV die GPUs lieber als 1000++ Euro Quadro Karte vertickern wollen, anstatt für $299 im Schlussverkauf.

ciao

Alex

X.Perry_Mental
2010-02-22, 14:07:20
Wer redet denn von Halde ? Aber gehen wir mal davon aus, es gibt massenhaft Chips. Selbst dann wird nV die GPUs lieber als 1000++ Euro Quadro Karte vertickern wollen, anstatt für $299 im Schlussverkauf.

ciao

Alex
Verstehe ich soweit alles, aber die Boardpartner und damit auch nVidia stünden im (prestigeträchtigen) Gamer-High-End ohne kaufbares Angebot dar.

mapel110
2010-02-22, 14:09:31
Guru3D ist jedenfalls sicher, dass der Chip konkurrenzfähig sein wird, aber eben kein Knock out für ATI. Allerdings muss man dabei imo beachten, dass Guru3D tendenziell eher nvidia-freundlich ist.

S940
2010-02-22, 14:12:11
Verstehe ich soweit alles, aber die Boardpartner und damit auch nVidia stünden im (prestigeträchtigen) Gamer-High-End ohne kaufbares Angebot dar.
Tja alles eine Frage des Preises ... ich denke Mal nV hat das mit spitzen Bleistift kalkuliert.
"Prestigeträchtig" hmm ist auch wieder nicht soo wichtig. Die Leute hier im Forum und auf XS / B3D etc. pp. sind nur ein Bruchteil des Marktes.

Wenn man das schnellste, beste und größte hat, ist es ganz nett, aber andersherum ist es kein Beinbruch ... siehe ATi RV770, hat sich prächtig verkauft.

Nachdem wir eh Wirtschaftskrise hatten / haben würde ich mich nicht wundern, wenn nV sich keine allzugroßen Verlustgeschäfte leisten will.

Lieber verliert man (ein bisschen) Prestige als (viel) Geld ;-)

X.Perry_Mental
2010-02-22, 14:16:44
Guru3D ist jedenfalls sicher, dass der Chip konkurrenzfähig sein wird, aber eben kein Knock out für ATI. Allerdings muss man dabei imo beachten, dass Guru3D tendenziell eher nvidia-freundlich ist.
"Konkurrenzfähig" war mit Sicherheit nicht das, was man mit Fermi geplant hatte - sehr schade.

X.Perry_Mental
2010-02-22, 14:20:23
Lieber verliert man (ein bisschen) Prestige als (viel) Geld ;-)
Dann hoffe ich mal, dass da ein früher Refresh oder ein (wesentlich besseres) B-Stepping unterwegs sind, die sowohl Leistung als auch entsprechendes Geld bringen.

mapel110
2010-02-22, 14:21:02
"Konkurrenzfähig" war mit Sicherheit nicht das, was man mit Fermi geplant hatte - sehr schade.
Die Chance, dass der Performance-Abstand mit DX11 größer wird, sehe ich jedenfalls recht realistisch. Viel wird auch von der Qualität der Treiber beim Start abhängen. Da darf nichts schief gehen.

Ailuros
2010-02-22, 14:25:50
"Konkurrenzfähig" war mit Sicherheit nicht das, was man mit Fermi geplant hatte - sehr schade.

Ok ich spinne ein bisschen weiter...angenommen AnarchX hat Recht und die $299 sind der Steuerfreie Preis ergo hier in Europa zwischen 330 und 380 Euro je nach Fall. AMD koennte durchaus den 5870 Preis reduzieren und es gibt am Ende mehr Grund sich zu freuen als alles andere.

AwesomeSauce
2010-02-22, 14:30:37
@Ailuros
Wieso hören wir momentan nur etwas über GPC-/Hotclock? Gibt ja immer noch die ROP/L2-Taktdomäne...

AnarchX
2010-02-22, 14:36:02
Ok ich spinne ein bisschen weiter...angenommen AnarchX hat Recht und die $299 sind der Steuerfreie Preis ergo hier in Europa zwischen 330 und 380 Euro je nach Fall.
Wo gibt es ~50% Steuern auf Grafikkarten?
Beim aktuellen Dollarkurs sind ein MSRP von $299 etwa 260-270€ in Dtl.

Diese $299 würde vielleicht auch zu den 199€ von Tweakers passen, eben der Preis für den Distributor vom Hersteller.

S940
2010-02-22, 14:36:12
Dann hoffe ich mal, dass da ein früher Refresh oder ein (wesentlich besseres) B-Stepping unterwegs sind, die sowohl Leistung als auch entsprechendes Geld bringen.
Naja, Geld können sie über die Quadro Schiene verdienen. Die Stückzahlen sind da zwar gering, aber Fermis Produktionszahlen sind wohl nicht recht viel höher.
Da könnte man einfach spekulieren, dass nV der Gamer Markt erstmal sonstwo vorbei geht, einfach weil er nicht lukrativ genug ist.

Dural
2010-02-22, 14:39:18
ich glaube bis Fermi da ist hat dieser Thread schon über 1000 Seiten ;D

Ailuros
2010-02-22, 14:53:34
Wo gibt es ~50% Steuern auf Grafikkarten?
Beim aktuellen Dollarkurs sind ein MSRP von $299 etwa 260-270€ in Dtl.

Diese $299 würde vielleicht auch zu den 199€ von Tweakers passen, eben der Preis für den Distributor vom Hersteller.

Dann hab ich mich selber verwirrt. Ich dachte Du sagtest das Resultat duerfte irgendwo auf 5870 Nivaeu liegen, was in dieser Ecke tatsaechlich ueber 330 Euros liegt momentan.

AnarchX
2010-02-22, 14:55:39
Wie die Preise dann real aussehen, hängt natürlich von den Stückzahlen Ende März ab.
Aber einen $299 MSRP dürfte wohl niemand in eine UVP von 330€ umrechnen. ;)

Ailuros
2010-02-22, 14:58:33
@Ailuros
Wieso hören wir momentan nur etwas über GPC-/Hotclock? Gibt ja immer noch die ROP/L2-Taktdomäne...

Uhmm Du denkst wohl dass die 650MHz dem core clock entsprechen oder? Das war meine optimistische These der letzten Zeit und ich hab nie richtig daran geglaubt. Du solltest froh sein wenn eine 470 mit angeblichen 650/1300 und 448SPs in etwa so viel verbrutzelt wie eine 275. ROPs/L2 sind betragen den kleinsten Teil des dies. Der Rest laeuft entweder auf 1/2 hot clock oder hot clock.

AwesomeSauce
2010-02-22, 15:01:40
Naja, nicht direkt. Ich denke nur, wenn man schon GPC/Hotclock weiss, wieso nicht auch Coreclock? Soo unwichtig ist der ja auch nicht...

LovesuckZ
2010-02-22, 15:02:27
Naja, Geld können sie über die Quadro Schiene verdienen. Die Stückzahlen sind da zwar gering, aber Fermis Produktionszahlen sind wohl nicht recht viel höher.
Da könnte man einfach spekulieren, dass nV der Gamer Markt erstmal sonstwo vorbei geht, einfach weil er nicht lukrativ genug ist.

GF100 ist eine Gamerkarte schlecht hin. Der Aufbau von GF100 ist wegen DX11 begründet. Sie hätten es wesentlich einfacher gehabt, wenn sie den AMD Weg gegangen wären.

Ailuros
2010-02-22, 15:03:20
Naja, nicht direkt. Ich denke nur, wenn man schon GPC/Hotclock weiss, wieso nicht auch Coreclock? Soo unwichtig ist der ja auch nicht...

570MHz? (rein spekulativ)

V2.0
2010-02-22, 15:10:19
Sagen wir 600/660/1320 oder 600/630/1260. Unter 600Mhz glaube ich nicht für den Baseclock.

AwesomeSauce
2010-02-22, 15:13:33
@Ailuros
Ok, danke. Dennoch: die HD5870 sollte für die GTX470 zu erreichen sein, alles andere wäre IMO eine Enttäuschung. Aber noch ist ja nicht aller Tage Abend;)

BTW: Any Informations zur heutigen Ankündigung?

Nakai
2010-02-22, 15:17:23
Angenommen 650MHz ist 1/2 hot clock (was am wahrscheinlichsten klingt) dann liegt es innerhalb der letzten Erwartungen mit einem hot clock bei 1300MHz.

Annahme:
GTX470:
448SPs bei 1300MHz.
Somit hat man 56 TMUs bei 650MHz.
56*650 = 36400 MTex/s.
448*2*1.3= 1164GFLOPs.

GTX285:
240SPs bei 1476MHz.
80 TMUs bei 648MHz.
80*648 =51840 MTex/s.
240*2(3 wenn man das MUL mitnimmt!)*1.476 = 708.46GFLOPs(1062.3 GFLOPs)

GTX470 hat somit 70% der Texturleistung der GTX285(GTX470 soll bei Tri deutlich besser sein). GTX470 hat 164%(109%)der SP-Leistung der GTX285.

Ergo GTX470 könnte wenn man eventuelle Effizienzsteigerungen berücksichtigt um die 40% schneller sein als die GTX285.
GTX480 legt dann noch mal 20% drauf.

Somit könnte eine GTX470 ohne Probleme mit einer HD5870 fertig werden. GTX480 wird mit der HD5970 konkurrieren. Damit war zu rechnen.


mfg


€: Es gingen ja Gerüchte um, dass der GT100 so reinhaut wie G80 damals. Ohne die ganzen Probleme wäre das sicher möglich gewesen.

Gast
2010-02-22, 15:17:58
GF100 ist eine Gamerkarte schlecht hin.
Die 5870 auch. :)
Ich glaube kaum, dass sich jemand eine 5870 holt, wenn er nicht spielen will.
Für Internet, Office und Co braucht man keine 5870.

igg
2010-02-22, 15:18:01
I think it's safe to that the GeForce 470 and 480 will be worthy competitors to towards the Radeon HD 5850 and 5870.
http://www.guru3d.com/article/nvidia-geforce-470-480/

Daraus schließe ich: 470 schlägt (oder ist gleich) 5850, 480 schlägt (oder ist gleich) 5870. Dann wäre diesmal performancetechnisch gesehen Gleichstand. Das wäre schade :(. Dann gäbs zwar einen kleinen Preiskrieg, mir wäre aber mehr SingleGPU Performance als bei der 5870 lieb gewesen.

LovesuckZ
2010-02-22, 15:22:01
€: Es gingen ja Gerüchte um, dass der GT100 so reinhaut wie G80 damals. Ohne die ganzen Probleme wäre das sicher möglich gewesen.

Abwarten. Ich erwarte von der GTX470 in der Richtung sowas: 650/700/1400Mhz. Die Tesla-Karten sollen mit 1400Mhz kommen. Demnach fallen genug Chips ab, die den Takt, aber nicht den gewünschten Verbrauch schaffen.

http://www.guru3d.com/article/nvidia-geforce-470-480/

Daraus schließe ich: 470 schlägt (oder ist gleich) 5850, 480 schlägt (oder ist gleich) 5870. Dann wäre diesmal performancetechnisch gesehen Gleichstand. Das wäre schade :(. Dann gäbs zwar einen kleinen Preiskrieg, mir wäre aber mehr SingleGPU Performance als bei der 5870 lieb gewesen.

Ein 12SM Chip könnte gegen eine 5850 gesetzt werden. Aber mit 14SM und nur 15% schneller als die GTX285? Das will ich sehen.

S940
2010-02-22, 15:22:20
GF100 ist eine Gamerkarte schlecht hin. Der Aufbau von GF100 ist wegen DX11 begründet. Sie hätten es wesentlich einfacher gehabt, wenn sie den AMD Weg gegangen wären.
Aufgepasst: Ich hab nicht gesagt, dass es keine gute Gamerkarte wäre, ich hab nur gesagt, dass man mit dem Chip im HPC Bereich mehr Geld verdienen kann als im Gamermarkt. Einer Firma ist egal wo was wie gut oder schlecht ist, Hautsache der Gewinn ist hoch.

Sollten sich die 299 Dollar bewahrheiten sehe ich da keine hohen Margen des GF100 Chips im Gamer Markt.

Die Spieleleistung mag ok / besser als ATi sein, aber der monetäre Gewinn halt nicht.

Tarkin
2010-02-22, 15:24:46
@Ailuros
Ok, danke. Dennoch: die HD5870 sollte für die GTX470 zu erreichen sein, alles andere wäre IMO eine Enttäuschung. Aber noch ist ja nicht aller Tage Abend;)

BTW: Any Informations zur heutigen Ankündigung?

unwahrscheinlich bei 299 USD

wie gesagt, nvidia würde bei 5870 sicher auch 399 USD verlangen. Da spricht IMO nichts dagegen. Denn einen Preiskrieg mit AMD würde man zweifellos verlieren. Und das ist sicher nicht in nVidias Interesse. Es sei denn es werden so wenig 470 produziert, dass es nVidia schlicht egal ist.

Dann würde man aber praktisch den gesamten Markt AMD überlassen - :confused:

299USD machen nur dann Sinn, wenn die 470er gleich oder wenig schneller ist als 5850. (IMHO)

LovesuckZ
2010-02-22, 15:25:33
Augepasst: Ich hab nicht gesagt, dass es keine gute Gamerkarte wäre, ich hab nur gesagt, dass man mit dem Chip im HPC Bereich mehr Geld verdienen kann als im Gamermarkt. Einer Firma ist egal wo was wie gut oder schlecht ist, hautsache der Gewinn ist hoch.

Sollten sich die 299 Dollar bewahrheiten sehe ich da keine hohen Margen des GF100 Chips im Gamer Markt.

Die Spieleleistung mag ok / besser als ATi sein, aber der monitäre Gewinn halt nicht.

GF100 ist eine Gamerkarte. Der Chip wurde fast deutlicher für den Gamermarkt entwickelt als für HPC. Compute ist elementarer Bestandteil von D3D11. Tessellation ist elementarer Bestandteil von D3D11. Die "HPC" Features machen nur einen geringen Teil aus und werden auch für den Gamingbereich eingesetzt - L1 Cache, Unified L2 Cache...

mboeller
2010-02-22, 15:27:47
http://www.guru3d.com/article/nvidia-geforce-470-480/

Daraus schließe ich: 470 schlägt (oder ist gleich) 5850, 480 schlägt (oder ist gleich) 5870. Dann wäre diesmal performancetechnisch gesehen Gleichstand. Das wäre schade :(. Dann gäbs zwar einen kleinen Preiskrieg, mir wäre aber mehr SingleGPU Performance als bei der 5870 lieb gewesen.


mit oder ohne Driver-Cheats?


....NVIDIA has many trump cards though, they have an outstanding driver team which will driver performance upwards fast and soon....

die niedrige Texel-Rate und dieser Kommentar lassen ja schlimmes befürchten. NV40 Ahoi....

:freak:

X.Perry_Mental
2010-02-22, 15:29:29
Daraus schließe ich: 470 schlägt (oder ist gleich) 5850, 480 schlägt (oder ist gleich) 5870. Dann wäre diesmal performancetechnisch gesehen Gleichstand. Das wäre schade :(. Dann gäbs zwar einen kleinen Preiskrieg, mir wäre aber mehr SingleGPU Performance als bei der 5870 lieb gewesen.
So habe ich es auch verstanden und ich kann/will es kaum glauben. Fermi ist (jetzt sehr vereinfacht, also bitte keine Erbsenzählerei...) 50% größer als Cypress, hat 1 Milliarden Transistoren mehr, kommt ein halbes Jahr später und bietet Gleichstand? Vielleicht hat uns nVidia auch nur mit Fehlinformationen episch in die Pfanne gehauen. Es bleibt jedenfalls spannend.

S940
2010-02-22, 15:29:39
GF100 ist eine Gamerkarte.
Du nix deutsch ?
Nochmals: Keiner (ich auch nicht) bestreitet, dass man mit der GF100 spielen können wird.

Aber falls Du für ein Produkt mit Quadro Aufkleber das 4-5fache bekommst, dann wird der jeder nV Zahlendreher sagen, dass man die paar wenigen Chips dann ersteinmal verstärkt im Quadro Markt verkaufen wird.

Das kann die GF100 nämlich auch, das ist schließlich kein exklusives Gamerdesign. Solltest Du doch eigentlich wissen, kennst Dich doch sonst gut aus :)

Moral: Geld regiert die Welt, Gamerkarte hin oder her. Verkauft wird das, was den höchstens Gewinn verspricht.

LovesuckZ
2010-02-22, 15:30:19
die niedrige Texel-Rate und dieser Kommentar lassen ja schlimmes befürchten. NV40 Ahoi....

:freak:

Irgendwie muss man doch seine Käuferschicht erhöhen. Gibt viele AMD Käufer, die man ansprechen will. :biggrin:

Gast
2010-02-22, 15:30:51
also sind die preise auf sabre.com vermutlich nur platzhalter?

mboeller
2010-02-22, 15:31:20
GF100 ist eine Gamerkarte. Der Chip wurde fast deutlicher für den Gamermarkt entwickelt als für HPC. Compute ist elementarer Bestandteil von D3D11. Tessellation ist elementarer Bestandteil von D3D11. Die "HPC" Features machen nur einen geringen Teil aus und werden auch für den Gamingbereich eingesetzt - L1 Cache, Unified L2 Cache...

Nicht ungedingt. Laut einem Kommentar auf Beyond3D machen die zusätzlichen MUL-Einheiten min. 128mm² aus:

http://forum.beyond3d.com/showpost.php?p=1397560&postcount=1682

Gast
2010-02-22, 15:31:44
die niedrige Texel-Rate und dieser Kommentar lassen ja schlimmes befürchten. NV40 Ahoi....

:freak:
Glaube ich kaum.
Nvidia kann es sich nicht leisten, bei der BQ zu knausern.
Sollte die BQ unter einer 5870 sein, dann gute Nacht Fremi.

LovesuckZ
2010-02-22, 15:35:14
Nicht ungedingt. Laut einem Kommentar auf Beyond3D machen die zusätzlichen MUL-Einheiten min. 128mm² aus:

http://forum.beyond3d.com/showpost.php?p=1397560&postcount=1682

Na, dann können wir uns ja auf kleine Midrange Chips freuen. ;)
Immerhin wäre ja ein GF100 mit nur SP Alus nur 425mm^2 groß. Somit wäre ein halber GF100 mit nur SP ALU um die 250mm^2.

mapel110
2010-02-22, 15:36:47
Glaube ich kaum.
Nvidia kann es sich nicht leisten, bei der BQ zu knausern.
Sollte die BQ unter einer 5870 sein, dann gute Nacht Fremi.
Ailuros hat gesagt, dass es einen zusätzlichen Schalter fürs AF geben wird. Und da nvidia bisher kein Wort zum AF verloren hat, kann der Schalter wohl nur die Qualität im Vergleich zum Standard-Modus nach unten schrauben. Wollen wir hoffen, dass dieser Schalter nicht default-Einstellung ist.

LovesuckZ
2010-02-22, 15:41:23
Wollen wir hoffen, dass dieser Schalter nicht default-Einstellung ist.

Warum? Drei Jahre A.I On sollte doch die Messlatte ziemlich nach unten geschraubt haben. Solange HQ existiert, geht mir default komplett vorbei. Natürlich werden sich dann die üblichen Verdächtigen zu Wort melden, aber das ist nur der normale Lauf der Dinge.

AnarchX
2010-02-22, 15:42:00
Laut Techreport ist der aktuelle Quality-Modus wohl schon effektiver als AMDs Optimierung:
http://techreport.com/r.x/radeon-hd-5870/rm3d-filtering.gif
http://techreport.com/articles.x/17618/6
Trotz 30% mehr Texfüllrate fällt die 5870 hier ab 4xAF unter die GTX 285.

Gast
2010-02-22, 15:48:57
Laut Techreport ist der aktuelle Quality-Modus wohl schon effektiver als AMDs Optimierung:
http://techreport.com/r.x/radeon-hd-5870/rm3d-filtering.gif
http://techreport.com/articles.x/17618/6
Trotz 30% mehr Texfüllrate fällt die 5870 hier ab 4xAF unter die GTX 285.


Hehe, wird schonmal vorgesorgt hier...

Man kann das durchaus auch so interpretieren dass beim Nvidia Quality Modus mehr gespart wird...

Gast
2010-02-22, 15:52:48
Was war denn jetzt die supidupi Ankündigung?

Gast
2010-02-22, 15:53:44
Laut Techreport ist der aktuelle Quality-Modus wohl schon effektiver als AMDs Optimierung:
http://techreport.com/r.x/radeon-hd-5870/rm3d-filtering.gif
http://techreport.com/articles.x/17618/6
Trotz 30% mehr Texfüllrate fällt die 5870 hier ab 4xAF unter die GTX 285.

Effektiver = Mehr Einsparungen.

Gast
2010-02-22, 15:57:38
Hehe, wird schonmal vorgesorgt hier...

Man kann das durchaus auch so interpretieren dass beim Nvidia Quality Modus mehr gespart wird...

Das kann man nicht nur, das muss man so interpretieren. Wenn AMD durch AF mehr verliert müssen sie mehr Samples verwenden.

Odal
2010-02-22, 16:00:41
nun, dafür gibt es ja bisher den HQ modus

Gast
2010-02-22, 16:00:55
Das kann man nicht nur, das muss man so interpretieren. Wenn AMD durch AF mehr verliert müssen sie mehr Samples verwenden.


Naja, auffällig ist halt die Formulierung:

Bei AMD sind es die (inzwischen negativ besetzten) "Optimierungen", bei Nvidia ist dann der Algorithmus "effizienter"...

mapel110
2010-02-22, 16:03:40
Naja, auffällig ist halt die Formulierung:

Bei AMD sind es die (inzwischen negativ besetzten) "Optimierungen", bei Nvidia ist dann der Algorithmus "effizienter"...
Effizienter weil es offenbar keinen Bildqualitätsunterschied gibt. Q vs AI low/standard. Das haben ja nun mehrere Webseiten für vergleichbar gehalten. PCGH, Computerbase und auch hier im Forum ist man sich da sogar einig.

Gast
2010-02-22, 16:07:37
Effizienter weil es offenbar keinen Bildqualitätsunterschied gibt. Q vs AI low/standard. Das haben ja nun mehrere Webseiten für vergleichbar gehalten. PCGH, Computerbase und auch hier im Forum ist man sich da sogar einig.


Man wird sehen. Ich bin auf jeden Fall schon gespannt auf eine Wiederauflage der bereits bekannten Diskussionen bzgl. Filterqualität, Treiber (Totschlagargument) etc. wie zu den guten GF6/7 Zeiten.

Tarkin
2010-02-22, 16:07:44
http://news.softpedia.com/news/NVIDIA-Enters-the-PC-Business-Debuts-GeForce-PC-Kit-135662.shtml

http://www.nvidia.com/object/product_geforce_pc_kit.html

Ist das etwa die großartige Ankündigung? Falls ja - no comment ;D

LovesuckZ
2010-02-22, 16:09:56
http://news.softpedia.com/news/NVIDIA-Enters-the-PC-Business-Debuts-GeForce-PC-Kit-135662.shtml

http://www.nvidia.com/object/product_geforce_pc_kit.html

Ist das etwa die großartige Ankündigung? Falls ja - no comment ;D

Jap ist es. Siehe auch den Facebook-Account. Und extra für dich hat man es mehr als 13h vorgezogen. :)

Man wird sehen. Ich bin auf jeden Fall schon gespannt auf eine Wiederauflage der bereits bekannten Diskussionen bzgl. Filterqualität, Treiber (Totschlagargument) etc. wie zu den guten GF6/7 Zeiten.

Vorallen freue ich mich auf die Usergruppe, die drei Jahre lang gepredigt hat, dass man sowieso keinen Unterschied dzwischen HQ und A.I On sehen würde. Und nur Filternazi sich diesen Unterschied einreden würden.
Das wird ein Fest. =)

AnarchX
2010-02-22, 16:11:26
Oder die lächerlichste.:freak: Irgendwann bekommen wir ein Werbevideo im Homeshoppingstyle zu sehen. Bitte, kaufen sie das! Immerhin ist richtig unterhaltsam.;D

http://www.dailymotion.com/video/xbr49p_nvidia-geforce-pc-barebone-kit_tech
:ulol:

Tarkin
2010-02-22, 16:11:52
Jap ist es. Siehe auch den Facebook-Account. Und extra für dich hat man es mehr als 13h vorgezogen. :)



Vorallen freue ich mich auf die Usergruppe, die drei Jahre lang gepredigt hat, dass man sowieso keinen Unterschied dzwischen HQ und A.I On sehen würde. Und nur Filternazi sich diesen Unterschied einreden würden.
Das wird ein Fest. =)

Ups... hab ich nicht gesehen. sry ;)

Gast
2010-02-22, 16:14:12
Effizienter weil es offenbar keinen Bildqualitätsunterschied gibt. Q vs AI low/standard. Das haben ja nun mehrere Webseiten für vergleichbar gehalten. PCGH, Computerbase und auch hier im Forum ist man sich da sogar einig.

Ja, das hat man bei NV40 am Anfang auch gesagt.

Gast
2010-02-22, 16:16:07
Vorallen freue ich mich auf die Usergruppe, die drei Jahre lang gepredigt hat, dass man sowieso keinen Unterschied dzwischen HQ und A.I On sehen würde. Und nur Filternazi sich diesen Unterschied einreden würden.
Das wird ein Fest. =)

Aha. Na offensichtlich wurde das LZ-Fähnchen bereits der Wettervorhersage angepasst und hat sich schon um 180° gedreht =)

LovesuckZ
2010-02-22, 16:17:49
Aha. Na offensichtlich wurde das LZ-Fähnchen bereits der Wettervorhersage angepasst und hat sich schon um 180° gedreht =)

Nein, lieber Gast. Ich steh zu meinem HQ Modus. :D
Aber ich hoffe doch, dass soviele andere User zu ihrer ursprünglichen Meinung stehen. Wäre ziemlich bitter, wenn plötzlich eine astreine Filterung wieder ein Kaufargument wäre. :freak:

Gast
2010-02-22, 16:19:21
Nein, lieber Gast. Ich steh zu meinem HQ Modus. :D
Aber ich hoffe doch, dass soviele andere User zu ihrer ursprünglichen Meinung stehen. Wäre ziemlich bitter, wenn plötzlich eine astreine Filterung wieder ein Kaufargument wäre. :freak:

Ja, genau so wie die Argumentation dass der Quali-Mode vollkommen ausreichend ist. Wir werden beides erleben.

igg
2010-02-22, 16:34:07
Ich hoffe mal, dass das nicht die große Ankündigung war...

dildo4u
2010-02-22, 16:51:46
http://www.dailymotion.com/video/xbr49p_nvidia-geforce-pc-barebone-kit_tech
:ulol:
G92 GPU of the Forever.:love4:

Gast
2010-02-22, 17:06:49
G92 GPU of the Forever.:love4:
wow, die verkaufen allen ernstes ne 512er karte als gamerig. zum heulen.

btt, weis man mehr zum stromverbrauch der 470er?

LovesuckZ
2010-02-22, 17:28:42
Na, schon aufgeregt?
Es wird entweder ein astreiner Paperlaunch mit Bilder der Karten, Spezifikation, Folien-Benches etc.
Oder
ein Megaflop. Irgendwas, was niemand sehen, hören und kaufen will: Nennung des Launchtages, irgendwelche Launch-Lan-Partys, PhysX², 4D Stereo Surround um die Welt oder der Aufkauf von Intel.
Mal sehen, was nVidia so zu bieten hat.

AwesomeSauce
2010-02-22, 17:36:11
Ich tippe auf Nennung des Launchtages;(

igg
2010-02-22, 17:38:45
Ailuros weiß es sicher schon und lacht...

Adam D.
2010-02-22, 17:38:53
Na, schon aufgeregt?
Es wird entweder ein astreiner Paperlaunch mit Bilder der Karten, Spezifikation, Folien-Benches etc.
Da müsste Nvidia schon super dicht gehalten haben, sonst wüssten wir es wohl bereits.

Deshalb:
Oder
ein Megaflop. Irgendwas, was niemand sehen, hören und kaufen will: Nennung des Launchtages, irgendwelche Launch-Lan-Partys, PhysX², 4D Stereo Surround um die Welt oder der Aufkauf von Intel.
Mal sehen, was nVidia so zu bieten hat.

Armaq
2010-02-22, 17:39:19
Weder noch, es gibt ein paar Charts und die Ankündigung einer Ankündigung im Bereich einer 495. ;)

LovesuckZ
2010-02-22, 17:41:27
Da müsste Nvidia schon super dicht gehalten haben, sonst wüssten wir es wohl bereits.


Ich rede von einem Paperlaunch, wie ihn Apple mit dem iPad gemacht hat - nur ohne Keynote und Hardware.
nVidia lädt die Sachen bei sich hoch. Sozusagen eine Produktseite mit den Spezifikationen, ein paar Bildern, ein Hypevideo und ein paar Folienwerte, vergleichbar mit der Teslaankündigung von der Supercomputer.
Alleine für den Launchtag hätten sie auch die normale "Fun fact of the Week" Option ziehen können.
Aber man weiß im Grunde nie, was nVidia so vorhat.

/edit: Alles andere ist enttäuschend. Wenn man schon so spoilert - major announcement -, dann muss auch etwas dahinter sein. Gewinnen kann man mit so einer Aktion nichts.

Gast
2010-02-22, 17:48:11
Aha. Na offensichtlich wurde das LZ-Fähnchen bereits der Wettervorhersage angepasst und hat sich schon um 180° gedreht =)


wenn lz jetzt zum ati fanboy mutiert, weil fermi suckt, dann verkauf ich sofort mein 5870 cf gespann. :ugly:

Gipsel
2010-02-22, 17:56:08
Nicht ungedingt. Laut einem Kommentar auf Beyond3D machen die zusätzlichen MUL-Einheiten min. 128mm² aus:

http://forum.beyond3d.com/showpost.php?p=1397560&postcount=1682
Das ist nur ein Beispiel, keine korrekten Zahlen. Konkrete Zahlen kann ich aber für RV770 nennen. Ein Block mit 4 VLIW-Einheiten (also 16 normale SPs und 4 t-Sps) messen in 55nm inklusive der Registerfiles (64kB SRAM !) gerade mal 1,7 mm² (da sieht man mal, wie dicht man sowas packen kann, wenn Takt und Latenz nicht oberste Priorität wie meist bei CPUs hat).
Darin enthalten sind 16 27bit Multiplier, 4 32bit multiplier, die ganzen Adder, die bereits erwähnten 64kB SRAM und der ganze andere Kleinkram. 20 SPs (also 4 VLIW units) eines RV870 in 40nm sind definitv kleiner (schätzungsweise ~1mm²) und die können dann auch schon 4 FMAs für DP pro Takt. So ein DP Multiplier läßt sich in 40nm also bestimmt in etwa 0,1 bis 0,15 mm² bauen. Bei nvidia dürfte das wegen der größeren Anzahl an Pipelinestufen der Einheiten und dem höheren Takt unabhängig von der genauen Größe etwas mehr als bei den ATIs sein.

AwesomeSauce
2010-02-22, 17:59:59
F5-Taste kaputt:tongue:

mapel110
2010-02-22, 18:01:12
Wie sie sehen, sehen sie nix. Ganz großes Kino, nvidia...

/edit
File not found...
http://www.nvidia.com/paxeast.

AnarchX
2010-02-22, 18:02:25
The wait is almost over! The world's fastest PC graphics gaming technology will be unveiled at PAX 2010. Visit: www.nvidia.com/paxeast
http://twitter.com/NVIDIAGeForce
...

G!ZMo
2010-02-22, 18:02:50
The wait is almost over! The world's fastest PC graphics gaming technology will be unveiled at PAX 2010. Visit: www.nvidia.com/paxeast.

ganz groß :freak:

edit: ohne . am Ende geht der Link

TheBrother
2010-02-22, 18:04:07
PaxEast: 26-28 März.. subba

LovesuckZ
2010-02-22, 18:04:28
Jap, ich hab's gewusst.
Und was für ein "Major Announcement"...

TheBrother
2010-02-22, 18:05:16
Nvidia schafft nichtmal den Cebit Termin. schon hart.

igg
2010-02-22, 18:05:40
Test drive our highly-anticipated, next-generation GPU…you may even be able to buy one before anyone else
Also nicht vor dem 26.3. im Handel

G!ZMo
2010-02-22, 18:06:14
Jop Wahnsinn, aber wenigstens kann man jetzt das Maßband präparieren und jeden Tag ein Stückchen abschneiden. :freak:

LovesuckZ
2010-02-22, 18:06:17
Nvidia schafft nichtmal den Cebit Termin. schon hart.

War nie vorgesehen. ChrisRay sagte "Late March". Auch wenn ich darauf spekuliert habe. Nach Cebit sollte es jedoch dann einige Infos und Leaks geben.
Aber schön, dass sie seiner Mutter helfen.

Main Theater (Friday 3/26 from 6 PM to 7 PM only)
Come see NVIDIA unveil the next generation of PC gaming. Want to see what’s hot and what’s next? If you’re even vaguely a fan of PC games and miss this special event, you’ll likely be spending the next few months kicking yourself. Line up early as seating is limited. ‘Nuff said.

Nakai
2010-02-22, 18:06:48
Etz wissen wir wann der Paperlaunch ist...juhu!!!;D


mfg

Menace
2010-02-22, 18:07:55
Immerhin "fastest". Jetzt haben sie es aber Charlie gezeigt. Weiß ja langsam wirklich nicht mehr, was ich davon halten soll. "you may even
be able to buy one before anyone else". ;D

Adam D.
2010-02-22, 18:08:05
Puh, klassischer Fall von fail. Eine Ankündigung zur Ankündigung, wahrlich ein Major Announcement ;D

Gast
2010-02-22, 18:08:25
War nie vorgesehen. ChrisRay sagte "Late March". Auch wenn ich darauf spekuliert habe. Nach Cebit sollte es jedoch dann einige Infos und Leaks geben.
Aber schön, dass sie seiner Mutter helfen.

Finde ich auch ne tolle Geste.

igg
2010-02-22, 18:08:57
Wenn sie nicht vor dem 26.3. im Handel sind können sie auch gleich mit A4 / B1 kommen ;)

LuXon
2010-02-22, 18:09:25
Special Dedication

NVIDIA wanted to honor the memory of our friend and forum moderator Chris “ChrisRay” Arthington, who passed away earlier this year. ChrisRay helped countless gamers by sharing his knowledge of graphics and SLI on the forums.

To recognize ChrisRay’s passion and selfless support of the community, we worked with renowned modder Richard “Darth Beavis” Surroz to create a customized PC with NVIDIA artwork. The ChrisRay Special Edition PC features dual GeForce GTX 480 GPUs in SLI (of course!), and we’re going to raffle it off at PAX. All of the proceeds from the raffle will benefit ChrisRay’s mom, who could use a helping hand. Help us honor Chris by buying some tickets, and maybe you’ll win a truly kickass SLI PC!

Finde ich echt gut von nVidia

Also waren doch die letzen Gerüchte korrekt, die von ende März sprachen.

maximus_hertus
2010-02-22, 18:11:55
Schon lustig, so eine Ankündigung zur Anlündigung ^^

Immerhin werden wir spätestens am 26.3. die Reviews begutachten können. Ich kann mir schwer vorstellen, dass nV Karten "vor"verkauft und die Presse nicht über die Karten berichten darf.

AwesomeSauce
2010-02-22, 18:13:10
Jedenfalls gibts jetzt den ersten festen Termin. Immerhin in diesem Bezug hat Igor mich nicht belogen:freak:

Odal
2010-02-22, 18:22:52
ich frag mich sowieso schon die ganze zeit, was hier solang dauert das man nichtmal ne art paperlaunch mit samplen@reviewer hinbekommt

weil lauffähige karten (die nicht einer "krake" ähneln) muss es doch schon länger geben (siehe farcry2 bench, tesslations bench, techday....)

Blaire
2010-02-22, 18:23:58
Einen Paperlaunch wird Nvidia sich jetzt nicht noch leisten können, aufgrund der ganzen Verschiebungen der letzten Monate.

Odal
2010-02-22, 18:25:13
ja ich meinte ja auch vor 1-2Monaten

AwesomeSauce
2010-02-22, 18:28:11
Das dürfte jetzt eine lange Durststrecke werden bis Ende März;( Hoffen wir auf viele tolle Leute, die es mit der NDA nicht so genau nehmen;)

mapel110
2010-02-22, 18:29:52
btw Ulukay(war auch mal hier im 3DCenter unterwegs) meint, echte Benchmarks zu haben.
http://www.hardwareluxx.de/community/f14/nvidia-gf100-geforce-4xx-speku-news-diskussionsthread-691157-20.html#post14056266

LovesuckZ
2010-02-22, 18:31:01
ich frag mich sowieso schon die ganze zeit, was hier solang dauert das man nichtmal ne art paperlaunch mit samplen@reviewer hinbekommt

Und dann? Warten darfst du so oder so. Sowas nennt man eben Hype. Logisch, dass nVidia eben keinen Softlaunch macht und dann zwei Monate später die Karten in die Geschäfte bringt...
Jetzt gibt es einen Termin. Entweder wartest du bis zum Ende März oder kaufst dir sofort noch eine neue Karte.

btw Ulukay(war auch mal hier im 3DCenter unterwegs) meint, echte Benchmarks zu haben.
http://www.hardwareluxx.de/community/f14/nvidia-gf100-geforce-4xx-speku-news-diskussionsthread-691157-20.html#post14056266

Die Battleforgewerte sind zu gering: http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_grafikkarten_2009/9/#abschnitt_battleforge
Fake.

nagus
2010-02-22, 18:33:09
Immerhin "fastest". Jetzt haben sie es aber Charlie gezeigt. Weiß ja langsam wirklich nicht mehr, was ich davon halten soll. "you may even
be able to buy one before anyone else". ;D

was haben sie charlie "gezeigt"? 5% schneller als die 5870er is ja "quasi" für nvidia die "fastest" ... lässt mal man die 5970 bequemerweise außer acht ;)

aber ich glaube die hätten sogar "fastest" geschrieben wenn die karte in wirklichkeit langsamer wäre also die direkte konkurrenz (5870er)

Ailuros
2010-02-22, 18:36:05
Das ist nur ein Beispiel, keine korrekten Zahlen. Konkrete Zahlen kann ich aber für RV770 nennen. Ein Block mit 4 VLIW-Einheiten (also 16 normale SPs und 4 t-Sps) messen in 55nm inklusive der Registerfiles (64kB SRAM !) gerade mal 1,7 mm² (da sieht man mal, wie dicht man sowas packen kann, wenn Takt und Latenz nicht oberste Priorität wie meist bei CPUs hat).
Darin enthalten sind 16 27bit Multiplier, 4 32bit multiplier, die ganzen Adder, die bereits erwähnten 64kB SRAM und der ganze andere Kleinkram. 20 SPs (also 4 VLIW units) eines RV870 in 40nm sind definitv kleiner (schätzungsweise ~1mm²) und die können dann auch schon 4 FMAs für DP pro Takt. So ein DP Multiplier läßt sich in 40nm also bestimmt in etwa 0,1 bis 0,15 mm² bauen. Bei nvidia dürfte das wegen der größeren Anzahl an Pipelinestufen der Einheiten und dem höheren Takt unabhängig von der genauen Größe etwas mehr als bei den ATIs sein.

Entschuldige Gipsel aber bei der Auslastung sind es die Kosten auch durchaus wert.

derguru
2010-02-22, 18:36:07
btw Ulukay(war auch mal hier im 3DCenter unterwegs) meint, echte Benchmarks zu haben.
http://www.hardwareluxx.de/community/f14/nvidia-gf100-geforce-4xx-speku-news-diskussionsthread-691157-20.html#post14056266
naja ich glaubs nicht das es echt ist obwohl ich selbst in etwa mit sowas rechne.
bei battleforge kann z.b. der wert von der 280gtx nicht hinhauen.

Gast
2010-02-22, 18:39:28
was haben sie charlie "gezeigt"? 5% schneller als die 5870er is ja "quasi" für nvidia die "fastest" ... lässt mal man die 5970 bequemerweise außer acht ;)

aber ich glaube die hätten sogar "fastest" geschrieben wenn die karte in wirklichkeit langsamer wäre also die direkte konkurrenz (5870er)
.... und die verwendeten Treiber stehen (natürlich) auch nirgends.

Menace
2010-02-22, 18:40:08
was haben sie charlie "gezeigt"?

Sorry, meine Aussage war auch sarkastisch zu verstehen. Ich weiß nicht, wie oft ich bzgl. Fermi gespannt vor dem PC saß und dann kam immer wieder eine Ver*rsche. :mad: Ich hasse es, wenn man mich für doof verkaufen möchte.

Jetzt warte ich noch auf die Antwort von Charlie und dann passt es heute wieder. :P :D

Ailuros
2010-02-22, 18:40:24
Ailuros weiß es sicher schon und lacht...

Entschuldige aber was sonst haette es sein koennen? Jetzt fehlt nur noch eine Ankuendigung wie oft und zu welchen Zeiten Jensen aufs Klo geht und....also wirklich. So oft sieht man ein Produkt selten "angekuendigt".

Odal
2010-02-22, 18:40:44
Und dann? Warten darfst du so oder so. Sowas nennt man eben Hype. Logisch, dass nVidia eben keinen Softlaunch macht und dann zwei Monate später die Karten in die Geschäfte bringt...
Jetzt gibt es einen Termin. Entweder wartest du bis zum Ende März oder kaufst dir sofort noch eine neue Karte.

das hätte zumindest mal wieder Bewegung in den Markt gebracht, je nach gezeigter Leistung wären einige auch geduldiger mit dem Warten.

Kann mir gut vorstellen das so einige potentielle Kunden währenddessen sich überteuerte Zypressen zulegten.

Ich selbst warte sowieso noch ein weilchem, da mich lediglich der Performanceableger ala GTX460? interessiert.

So hat es für mich den Anschein sie trauten sich nicht iihr Produkt in form eines Paperlaunches vorab zu zeigen.

LovesuckZ
2010-02-22, 18:41:33
Entschuldige aber was sonst haette es sein koennen? Jetzt fehlt nur noch eine Ankuendigung wie oft und zu welchen Zeiten Jensen aufs Klo geht und....also wirklich. So oft sieht man ein Produkt selten "angekuendigt".

Das ist die erste Ankündigung eines Launches. Und soweit ich sehe, befindet sich 26.März noch im Q1 - sogar in beiden. ;)

das hätte zumindest mal wieder Bewegung in den Markt gebracht, je nach gezeigter Leistung wären einige auch geduldiger mit dem Warten.

Kann mir gut vorstellen das so einige potentielle Kunden währenddessen sich überteuerte Zypressen zulegten.

Ich selbst warte sowieso noch ein weilchem, da mich lediglich der Performanceableger ala GTX460? interessiert.

So hat es für mich den Anschein sie trauten sich nicht iihr Produkt in form eines Paperlaunches vorab zu zeigen.

Aber was bringt es dir? Produkte stehen erst Ende Q1 in den Läden. Je länger eine Lücke besteht, umso einfacher hat es AMD. Und nun stell dir vor, die hätten heutzutage einen Softlaunch getätigt. Wir haben alle Werte, wissen über alles bescheid und... und können erst Ende März eine Karte kaufen. Egal, ob die Karte ein Kracher wäre oder nicht: AMD senkt den Preis und die Leute gehen heute los und kaufen.

aylano
2010-02-22, 18:42:58
Weiß ja langsam wirklich nicht mehr, was ich davon halten soll. "you may even
be able to buy one before anyone else". ;D
Dachte ich mir auch, irgendwie komisch.

Immerhin "fastest". Jetzt haben sie es aber Charlie gezeigt.
Wenn ich mich irre, steht mehrmals "fastest Technology"
Von fastest GPU-Karte hatte ich bis jetzt noch nicht gelesen.
Was steht in Facebook-Nvidia?

Na ja, auch wurscht. Endlich sehen wir bald die Karte.

Aquaschaf
2010-02-22, 18:49:26
btw Ulukay(war auch mal hier im 3DCenter unterwegs)

Wenn mich mein Gedächnis nicht täuscht hat der vorm NV30-Launch hier z.B. auch mal relativ optimistische "echte" Zahlen gepostet. Womit ich keine Parallele zwischen GF100 und NV30 ziehen will, sondern nur anmerke dass Zahlen von dem wahrscheinlich nichts wert sind.

Winter[Raven]
2010-02-22, 18:59:18
Wenn mich mein Gedächnis nicht täuscht hat der vorm NV30-Launch hier z.B. auch mal relativ optimistische "echte" Zahlen gepostet. Womit ich keine Parallele zwischen GF100 und NV30 ziehen will, sondern nur anmerke dass Zahlen von dem wahrscheinlich nichts wert sind.

Ja wasn.... wir haben uns die beim Chatten im ICQ ausgedacht..... :biggrin:

Ailuros
2010-02-22, 18:59:44
Das ist die erste Ankündigung eines Launches. Und soweit ich sehe, befindet sich 26.März noch im Q1 - sogar in beiden. ;)

Soll ich bei NV PR nachfragen ob es noch einen freien Platz fuer Dich gibt?

Es wurde verdammt Zeit dass nach all der Verspaetung endlich doch im Maerz launchen wird und wir sollten auch froh sein dass wir nicht zu einem Event im Maerz eingeladen wurden um ueber Fermi zu droolen um die Ankuendigung von der Verfuegbarkeit im August zu feiern.

:rolleyes:

Gast
2010-02-22, 19:00:31
Immerhin werden wir spätestens am 26.3. die Reviews begutachten können.

Na dann wollen wir mal hoffen das es "echte" unabhängige Reviews sind und nicht wies Charlie in seinem letzten Artikel prophezeit hat Nvidia gesteuerte....

dildo4u
2010-02-22, 19:04:01
Na dann wollen wir mal hoffen das es "echte" unabhängige Reviews sind und nicht wies Charlie in seinem letzten Artikel prophezeit hat Nvidia gesteuerte....
Die Karten werden auf PAX verkauft,von daher wären PR Zahlen wenn sie erst zum selben Datum kommen sinnlos.

LovesuckZ
2010-02-22, 19:09:20
Soll ich bei NV PR nachfragen ob es noch einen freien Platz fuer Dich gibt?

Es wurde verdammt Zeit dass nach all der Verspaetung endlich doch im Maerz launchen wird und wir sollten auch froh sein dass wir nicht zu einem Event im Maerz eingeladen wurden um ueber Fermi zu droolen um die Ankuendigung von der Verfuegbarkeit im August zu feiern.

:rolleyes:

Q1 steht seit 16. November. Seitdem gibt es keine anderen Aussagen. Kein Plan, was dein Problem ist. :rolleyes:

pest
2010-02-22, 19:12:55
Die Battleforgewerte sind zu gering: http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_grafikkarten_2009/9/#abschnitt_battleforge
Fake.

Ich halte dagegen :cool:

hartware.net (http://www.hartware.net/review_995_8.html)

Odal
2010-02-22, 19:13:42
Die Karten werden auf PAX verkauft,von daher wären PR Zahlen wenn sie erst zum selben Datum kommen sinnlos.


also wird das so eine typische Lamadecken/Magnetmatratzen Verkaufshow bei der einem das Blaue vom Himmel vorgeführ wird um möglichst schnell was zu verkaufen bevor die Kundschaft merkt das das Produkt nix taugt? :biggrin:;D

Gipsel
2010-02-22, 19:18:30
Nicht ungedingt. Laut einem Kommentar auf Beyond3D machen die zusätzlichen MUL-Einheiten min. 128mm² aus:

http://forum.beyond3d.com/showpost.php?p=1397560&postcount=1682
Entschuldige Gipsel aber bei der Auslastung sind es die Kosten auch durchaus wert.
???
Ich bezog mich auf die behaupteten 128mm² für DP bei Fermi (angeblich 0,5mm² für DP Multiplier) und habe anhand der bekannten Daten des RV770 vorgerechnet, daß das viel zu viel ist. Sprich, DP ist bei weitem billiger als die genannten 128mm².

Der letzte Satz bezog sich lediglich darauf, daß bei nv aufgrund des höheren Taktes und der größeren Anzahl an Pipelinestufen die Einheiten vielleicht ein paar Prozent größer sein werden. Mit der Effizienz hat das erstmal gar nichts zu tun. Die erzielt nvidia durch die andere Organisation und das deutlich aufwendigere Scheduling (was natürlich beides auch Fläche kostet, allerdings nicht an den Multipliern selber, sondern beim Drumherum). Das habe ich in dem Moment aber gar nicht betrachtet ;)
Ich wollte lediglich darauf hinaus, daß bei Fermi als ganz grobe Schätzung vielleicht 5% der Diegröße für DP draufgehen (je nachdem wie man rechnet wahrscheinlich sogar weniger), keinesfalls die dort vermuteten ~25%.

Menace
2010-02-22, 19:19:25
Magnetmatratzen

:biggrin: Der war gut.

Armaq
2010-02-22, 19:26:04
Sieht also nach völligem Fail aus. Erst die falsche Karte "präsentiert" und dann so eine Ankündigung.

Gast
2010-02-22, 19:47:20
Warum? Drei Jahre A.I On sollte doch die Messlatte ziemlich nach unten geschraubt haben. Solange HQ existiert, geht mir default komplett vorbei. Natürlich werden sich dann die üblichen Verdächtigen zu Wort melden, aber das ist nur der normale Lauf der Dinge.


Der Lauf der Dinge ist also, dass NV unter Default wieder cheaten muss, um mit dem RV870 mitzuhalten? Na dann, gute Nacht Fermi. :(

LovesuckZ
2010-02-22, 19:53:04
Der Lauf der Dinge ist also, dass NV unter Default wieder cheaten muss, um mit dem RV870 mitzuhalten? Na dann, gute Nacht Fermi. :(

Aussage macht keinen Sinn. Wer spielt mit Default, wenn er HQ-AF haben will? Niemand. nVidia kann soviel cheaten wie sie wollen, ich wüsste nicht, wem es stören sollte. AMD User der letzten Jahre? Wohl kaum. Geforcer User? Die spielten fast grundsätzlich mit HQ. Und solange wie es diesen Modus gibt, ist Quality bogus.
Wer bleibt da eigentlich noch übrig?

Coda
2010-02-22, 19:53:38
26. März also. Hoffentlich hard.

Gast
2010-02-22, 19:56:58
Aussage macht keinen Sinn. Wer spielt mit Default, wenn er HQ-AF haben will? Niemand. nVidia kann soviel cheaten wie sie wollen, ich wüsste nicht, wem es stören sollte. AMD User der letzten Jahre? Wohl kaum. Geforcer User? Die spielten fast grundsätzlich mit HQ. Und solange wie es diesen Modus gibt, ist Quality bogus.
Wer bleibt da eigentlich noch übrig?

Selbst wenn der HQ-Modi unangetastet bleibt werden die User trotzdem nicht glücklich sein wenn man dabei plötzlich statt 5% vielleicht 20% oder mehr Leistung verliert.

Gast
2010-02-22, 19:59:56
26. März also. Hoffentlich hard.

Forget it. Hoffentlich kein reiner Paperlaunch.

Gast
2010-02-22, 20:00:11
Aussage macht keinen Sinn. Wer spielt mit Default, wenn er HQ-AF haben will? Niemand. nVidia kann soviel cheaten wie sie wollen, ich wüsste nicht, wem es stören sollte. AMD User der letzten Jahre? Wohl kaum. Geforcer User? Die spielten fast grundsätzlich mit HQ. Und solange wie es diesen Modus gibt, ist Quality bogus.
Wer bleibt da eigentlich noch übrig?

Die Cheats sollte all diejenigen stören, die dann mit verfälschten Benchmarks im Netz beim Fermi eine Leistungsfähigkeit sehen, die tatsächlich nicht existiert.

Wenn unter Default gecheatet wird, dann sollte das jeder seriöse Tester im Review auch bemängeln, bzw. gleich mit HQ testen. Wahrscheinlich gibts dann aber Probleme mit den Reviewer Guides von NV. Deswegen ist zu befürchten, dass die Reviews zum Fermilaunch wieder so ne Farce werden, wie schon Anno 2009, wo plötzlich x Websites am gleichen Tag haargenau die selben Tests veröffentlicht haben!

Wenigstens hat sich zumindest Computerbase für die Aktion entschuldigt. Man kann gespannt sein, ob die daraus ihre Lehren gezogen haben.

Kosh
2010-02-22, 20:01:12
GTX 470: $299 MSRP und 550W NT-Empfehlung? (http://www.shanebaxtor.com/2010/02/22/gtx-470-price-and-psu-requirement/)


Wenn ich ehrlich bin, ist dieser Preis,falls der stimmt, ein Indiz,das der Fermi langsamer ist als gedacht.

Bei dem Preis würde ich auf Leistung einer 5850 tippen. Ansonsten würde NVIDIA den Preis höher ansetzen.

LovesuckZ
2010-02-22, 20:01:36
Selbst wenn der HQ-Modi unangetastet bleibt werden die User trotzdem nicht glücklich sein wenn man dabei plötzlich statt 5% vielleicht 20% oder mehr Leistung verliert.

Langweilige Diskussion. Die 8800GTX brach um die 10% (http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/8/) von Q-> HQ ein. Q weiter zu optimieren, geht bald nicht mehr. Außer sie kehren auf reines bilinear zurück.
nVidia gibt dazu eine 70% bessere Leistung unter limitierenden Settings durch einige Überarbeitungen an.

Die Cheats sollte all diejenigen stören, die dann mit verfälschten Benchmarks im Netz beim Fermi eine Leistungsfähigkeit sehen, die tatsächlich nicht existiert.

Sie existiert - wie A.I On. Es sieht nur nicht so gut aus.


Wenn unter Default gecheatet wird, dann sollte das jeder seriöse Tester im Review auch bemängeln, bzw. gleich mit HQ testen. Wahrscheinlich gibts dann aber Probleme mit den Reviewer Guides von NV. Deswegen ist zu befürchten, dass die Reviews zum Fermilaunch wieder so ne Farce werden, wie schon Anno 2009, wo plötzlich x Websites am gleichen Tag haargenau die selben Tests veröffentlicht haben!

Wenigstens hat sich zumindest Computerbase für die Aktion entschuldigt. Man kann gespannt sein, ob die daraus ihre Lehren gezogen haben.

Tut mir leid. Aber nach 3 Jahren finde ich es bizarr bei nVidia etwas zu verlangen, dass man so lange bei AMD durchgehen lassen hat. Ich war immer für HQ gegen A.I Off. Es hat sich leider nicht durchgesetzt. Also sollten wir jetzt damit leben.

Gast
2010-02-22, 20:20:51
man.... so lange noch :(
wollte mir in den nächsten paar wochen nen neuen pc zusammenschustern, aber der ati-schmutz kommt nicht infrage.

also noch mindestens nen monat warten :P

Odal
2010-02-22, 20:21:54
das allererste was mir aufgefallen ist beim wechsel von 3850 -> 88GT war die BQ besonders in Spielen die wenig "geshadere" drin haben (in dem Fall wars RedOrchestra) und von Texturen "leben"

aber das ist natürlich offtopic

allerdings finde ich schon, wenn die BQ nicht vergleichbar ist sollte man keine Q Benches machen sondern HQ

wenn an der "weniger Texelleistung" als GT200 was dran ist, (was ich irgendwo noch nicht so richtig glauben kann) dann könnte ich mir gut sehr agressive Optimierungen unter Q-Settings vorstellen

S940
2010-02-22, 21:00:45
man.... so lange noch :(
wollte mir in den nächsten paar wochen nen neuen pc zusammenschustern, aber der ati-schmutz kommt nicht infrage.

also noch mindestens nen monat warten :P
Kauf Dir halt ne GT3x0:
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2010/februar/nvidia_geforce-300-karten/

Super Auswahl ... Power müssen die Karten auch ordentlich haben, die Zahlen liegen ja weit über einer 285 oder gar 260 ...

Also zuschlagen !

AwesomeSauce
2010-02-22, 21:01:22
Eventuell gibts ja auf der GDC 2010 (9.-13. März) noch ein paar Infos.

Schlammsau
2010-02-22, 21:16:13
Hab grad auf im CB Forum die Antworten zu der News gelesen. 7 Seiten nur geflame gegen nVidia!
Hab so langsam das Gefühl, dass nVidia sich keinen gefallen mit dieser Ankündigung getan hat.

Jake Dunn
2010-02-22, 21:28:17
Hab so langsam das Gefühl, dass nVidia sich keinen gefallen mit dieser Ankündigung getan hat.

Kein Wunder :ulol: hätten die den 26-28 Feb. genannt wäre es o.k. ^^

MR2
2010-02-22, 21:29:54
oder den 30. februar:biggrin:

"Gegenüber Golem.de teilten die Hersteller von Grafikkarten in den letzten Wochen mit, ihnen lägen noch keine Ankündigungen über nennenswerte Liefermengen vor. Das soll sich den unbestätigten Informationen zufolge bis in den Mai 2010 nicht ändern. "

http://www.golem.de/1002/73313.html

Blaire
2010-02-22, 21:32:16
Hab grad auf im CB Forum die Antworten zu der News gelesen. 7 Seiten nur geflame gegen nVidia!
Hab so langsam das Gefühl, dass nVidia sich keinen gefallen mit dieser Ankündigung getan hat.

Das ist doch immer so, die dort rumjammern sind die die Ersten die zum Händler laufen und sich die Karte holn. ;D

Gestrandet
2010-02-22, 21:34:18
Vlt. verkaufen sie die Karte mit einem DNF Gutschein. NV ist ja durchaus zur Selbstironie fähig, wie man im Gefolge von NV30 gesehen hat.

mapel110
2010-02-22, 21:35:08
Die Kommentare im Facebook sind viel härter. Da ist bestimmt schon etliches gelöscht worden.

LovesuckZ
2010-02-22, 21:36:37
Die Kommentare im Facebook sind viel härter. Da ist bestimmt schon etliches gelöscht worden.

Schon erstaunlich, was einige erwartet haben. Aber der Mensch ist eben der perfekte Organismus zur Hypeaufnahme.

Gast
2010-02-22, 21:41:27
Ich persönlich glaube, dass der Fermi sein Schicksal mit dem R600 teilen wird....

deekey777
2010-02-22, 21:44:09
http://www.heise.de/newsticker/meldung/Nvidia-praesentiert-Fermi-Grafikkarten-am-27-Maerz-937360.html
Als gesichert gilt, dass Nvidia zunächst zwei High-End-Modelle vorstellen wird. Die GeForce GTX 480 arbeitet mit 512 Shader-Rechenkernen und 64 Textureinheiten, eine GeForce GTX 470 rechnet mit 448 Rechenkernen etwas langsamer.

:|

LovesuckZ
2010-02-22, 21:45:08
Ich persönlich glaube, dass der Fermi sein Schicksal mit dem R600 teilen wird....

Nein, glaube nicht, dass die Karte langsamer als die 8800GTX ist.

http://www.heise.de/newsticker/meldung/Nvidia-praesentiert-Fermi-Grafikkarten-am-27-Maerz-937360.html


:|

Warum nicht den wichtigeren Part?

Nvidia will die mehrfach verschobenen, zu DirectX 11 kompatiblen Grafikkarten mit GF100/Fermi-Grafikchips am 27. März offiziell vorstellen. Dies geht zum einen aus einer Facebook-Mitteilung als auch aus Gesprächen von heise online mit Nvidia-Boardpartnern hervor. Die Hüllen sollen im Rahmen der dreitägigen Spieleveranstaltung PaxEast im US-amerikanischen Boston fallen – um 1 Uhr nachts in Deutschland. Ebenfalls zu dieser Zeit dürften die ersten Testberichte von den GeForce-Karten ins Internet gelangen

Die 8800GTX wurde auch auf der Geforce Lan 3 vorgestellt und konnte 1-2 später bei Alternate gekauft werden.



Most importantly, 3/2610 is a hard launch date. Fermi based products will be available for sale that day. NDA expires that day. Reviews will post that day and products will be demo'd that day.
And best of all- I'll post my impressions of my time using Fermi on that day.
http://www.xtremesystems.org/forums/showthread.php?t=245695&page=13

Kosh
2010-02-22, 21:49:10
Wenn's stimmt der negativste Punkt ueberhaupt. Fuer mich persoenlich ist es Grund genug nein Danke zu sagen.

Das stimmt. Meine 8800GT war eine absolut geniale Karte. Nur nach 2 1/4 Jahren gab sie den Geist auf.
Das ist mit in 15 Jahren nie passiert,das überhaupt eine Karte kaputt ging. Und wenn man die Foren durchliest,steigen sehr,sehr viele 88xx Karten aus,bevor sie 3 Jahre alt geworden sind.

Wenn NVIDIA jetzt soagr nur 1 Jahr anbieten will, dann haben sie wohl nicht viel Vertrauen in ihr Produkt und die Taktraten bis ans absolute Limit ausgereizt.

Don-Roland
2010-02-22, 21:50:30
Vorsicht! Der Nachfolgene Text handelt von einer reinen Spekulation meinerseits:

Wäre es möglich das Nvidia die Chipgeneration die zuerst für die Folgemodelle der 200er Serie, nämlich die 300er Serie kurz vor der Produktion abgeblasen haben?
Sich entschieden besser die 400er Chips zu fertigen die eine völlig neue Architektur sowie Fertigunsprozess (nm) im gegensatz zur 200er Serie haben, also der Shrink übersprungen wurde?

LovesuckZ
2010-02-22, 21:54:03
Nein. Vergess das einfach.

Odal
2010-02-22, 21:55:59
Ich persönlich glaube, dass der Fermi sein Schicksal mit dem R600 teilen wird....

na das zumindest hat ATI ja auch noch gut verkraftet, nächstes mal sind die wieder dran mit komplett neuer Architekur

vielleicht ist es mittlerweile wirklich so das ne neue Architektur erstmal ein Schuss in den Ofen wird (G80 hier die rühmliche regel bestätigende Ausnahme)

LovesuckZ
2010-02-22, 22:02:27
na das zumindest hat ATI ja auch noch gut verkraftet, nächstes mal sind die wieder dran mit komplett neuer Architekur

vielleicht ist es mittlerweile wirklich so das ne neue Architektur erstmal ein Schuss in den Ofen wird (G80 hier die rühmliche regel bestätigende Ausnahme)

Was heißt neu? r600 war eigentlich mehr ein Cypress und G80 ein GF100. ;)
NV40 kam z.B. auch zeitnah mit dem r420. Wobei zweiterer noch weniger Veränderungen erfahren hat als Cypress oder GT200.
GF100 kommt spät, weil nVidia zu spät zum Tape-Out kam. Seitdem läuft jedoch alles nach Zeitplan. Immerhin 8 Monate zwischen Tape-Out (Ende Juli) und Veröffentlichung. 1 Monat mehr als AMD mit Cypress.

AwesomeSauce
2010-02-22, 22:03:20
Es ist geradezu armselig, was sich bei CB abspielt;(

mictasm
2010-02-22, 22:04:25
Es ist geradezu armselig, was sich bei CB abspielt;(
und das ist neu?!?

AwesomeSauce
2010-02-22, 22:10:03
Ich kann mich nicht erinnern, dass es jemals so schlimm war. Zum Glück gehts hier noch (einigermassen) friedlich über die Bühne. Kudos zu den Mods!

Don-Roland
2010-02-22, 22:11:40
Und schon wieder zu... ;D
http://www.computerbase.de/forum/showthread.php?t=704671&page=9

Gast
2010-02-22, 22:13:27
Der Erfolg mit dem G80 scheint nvidia schwer zu Kopf gestiegen zu sein. Wahrscheinlich hat man auch ATIs Probleme mit dem R600 falsch eingeschätzt und kam zu der irrigen Ansicht "wir sind die Besten, die anderen könnens einfach nicht".
Sowas kommt dann dabei raus ... ohne den Profimarkt würde nvidia zum nächsten 3dfx. Ob der sie langfristig retten wird steht aber auch in den Sternen, CUDA ist das PhysX des GPGPU. NVDA sell.

Gast
2010-02-22, 22:14:55
Naja das Hypegelabber einiger User hier und das völlige ignorieren der relativ vielen doch eher negativen Vorzeichen, ist auch nicht gerade die rühmliche Ausnahme.

anddill
2010-02-22, 22:21:21
In der aktuellen Gamestar ist ein Test einer GTX 480 für das nächste Heft angekündigt. Dazu gibt es ein Bild einer NV-Karte mit Fermi-Aufschrift. Diese Karte hat nur einen DVI-Anschluß, der Rest der zwei Slotbleche ist Luftgitter. Ich hoffe mal, daß das nur ein Platzhalter ist.

mapel110
2010-02-22, 22:27:45
In der aktuellen Gamestar ist ein Test einer GTX 480 für das nächste Heft angekündigt. Dazu gibt es ein Bild einer NV-Karte mit Fermi-Aufschrift. Diese Karte hat nur einen DVI-Anschluß, der Rest der zwei Slotbleche ist Luftgitter. Ich hoffe mal, daß das nur ein Platzhalter ist.
Die haben das bestimmt einfach so ins Blaue reingetippt, dass sie bis dahin die Karte haben werden. Ist aber nun nicht. Kann mir nicht vorstellen, dass die für Zeitschriften eine Ausnahme machen werden.

Da hat sich jemand im SemiAcc-Forum Mühe gegeben. ^^
http://i47.tinypic.com/w0idj6.png

Gast
2010-02-22, 22:30:04
Ist es, das gleiche Bild wurde bei irgendeiner online news, in der sie mal wieder von semi-accurate abgeschrieben haben, verwendet.

S940
2010-02-22, 23:02:12
Die haben das bestimmt einfach so ins Blaue reingetippt, dass sie bis dahin die Karte haben werden. Ist aber nun nicht. Kann mir nicht vorstellen, dass die für Zeitschriften eine Ausnahme machen werden.
Solange der Bericht "freundlich" ausfällt, wieso nicht ? :freak:

Bucklew
2010-02-22, 23:07:03
In der aktuellen Gamestar ist ein Test einer GTX 480 für das nächste Heft angekündigt. Dazu gibt es ein Bild einer NV-Karte mit Fermi-Aufschrift. Diese Karte hat nur einen DVI-Anschluß, der Rest der zwei Slotbleche ist Luftgitter. Ich hoffe mal, daß das nur ein Platzhalter ist.
Das sind die Tesla-Versionen.

LovesuckZ
2010-02-23, 00:46:25
Nvidia promises that at PAX East it will not only publicly demonstrate its latest graphics technology, but also to start sales of actual GeForce GTX 470 and GTX 480 graphics boards, the first DirectX 11-capable products from the Santa Clara, California-based designer of graphics chips.
http://www.xbitlabs.com/news/video/display/20100222095932_Nvidia_to_Officially_Reveal_GeForce_GTX_400_on_March_26.html

Spasstiger
2010-02-23, 00:46:34
In der aktuellen Gamestar ist ein Test einer GTX 480 für das nächste Heft angekündigt. Dazu gibt es ein Bild einer NV-Karte mit Fermi-Aufschrift. Diese Karte hat nur einen DVI-Anschluß, der Rest der zwei Slotbleche ist Luftgitter. Ich hoffe mal, daß das nur ein Platzhalter ist.
Es war nicht zufällig diese Karte (http://www.nvidia.com/object/product_tesla_C2050_C2070_us.html), oder? ;)
Die Teslas wurden schon vor längerer Zeit präsentiert.

Coda
2010-02-23, 01:04:46
Wenn sie auf einem Leistungsniveau einer HD 5870 wären müssten sie den Takt schon radikal verfehlt haben. Das nur dazu.

AwesomeSauce
2010-02-23, 01:17:49
@Coda
Kannst du das etwas ausführen? Wäre bestimmt interessant:)

Odal
2010-02-23, 01:20:27
Der Erfolg mit dem G80 scheint nvidia schwer zu Kopf gestiegen zu sein. Wahrscheinlich hat man auch ATIs Probleme mit dem R600 falsch eingeschätzt und kam zu der irrigen Ansicht "wir sind die Besten, die anderen könnens einfach nicht".
Sowas kommt dann dabei raus ... ohne den Profimarkt würde nvidia zum nächsten 3dfx. Ob der sie langfristig retten wird steht aber auch in den Sternen, CUDA ist das PhysX des GPGPU. NVDA sell.

das glaubst du doch wohl selber nicht

nvidia ist genau wie ati/amd/intel/ibm &co ein gewinnorientiertes unternehmen
da is nix mit eierschaukeln wenn mal was gut lief

sobald was im sack ist gibts schelte für die verantwortlichen und kein getätschel mit verweis auf rosige vergangenheit

genauso könnte man behaupten ATI hätte sich nach den rosigen R520/580 zeiten ausgeruht und darum war der R600 hinter den erwartungen zurückgeblieben

mapel110
2010-02-23, 01:21:28
@Coda
Kannst du das etwas ausführen? Wäre bestimmt interessant:)
Ich glaube, das beruht auf der Aussage, dass schon A1 relativ hohe Taktraten hatte(um die 500 Mhz Core-Takt?!) und damit etwa schon auf 5870-Niveau lag. Aber bestätigt ist da gar nix.

AwesomeSauce
2010-02-23, 01:23:57
Bestätigt ist eben nichts, weder in die eine, noch in die andere Richtung. Deswegen wäre es interessant gewesen, zu wissen, aufgrund welcher Tatsachen er zu dieser Folgerung kommt... Reines technisches Interesse meinerseits, deswegen bin ich hier;)

uweskw
2010-02-23, 01:26:36
"Nvidia promises that at PAX East it will not only publicly demonstrate its latest graphics technology, but also to start sales of actual GeForce GTX 470 and GTX 480 graphics boards, the first DirectX 11-capable products from the Santa Clara, California-based designer of graphics chips."





Also ab 26.03.2010 kann man die Karten offiziell bestellen. Dann kennt man endgültige Taktraten und Features. Vorher also nicht.
Aber wann man die Karte dann erhält, darüber wird nichts gesagt.
Die Ankündigung eines Paper-Lauch?
Karten ende Mai?
Oder hab ich da was falsch verstanden?

Greetz
U.S.

LovesuckZ
2010-02-23, 01:28:49
Also ab 26.03.2010 kann man die Karten offiziell bestellen. Dann kennt man endgültige Taktraten und Features. Vorher also nicht.
Aber wann man die Karte dann erhält, darüber wird nichts gesagt.
Die Ankündigung eines Paper-Lauch?
Karten ende Mai?
Oder hab ich da was falsch verstanden?

Greetz
U.S.

Warum sollte ich es dir erklären, was du zu verstehen hast? Wenn du meinst, dass man die Karten nicht kaufen kann, dann ist es in Ordnung.

Gast
2010-02-23, 01:34:50
Oder hab ich da was falsch verstanden?


Bist du Charlys Tante? :D

uweskw
2010-02-23, 01:50:24
Irgenwie schon auffällig.
Scheint als überwiegen hier klar die NV-Fans. In keinem anderen Forum hab ich soviel "optimismus" zugunsten NVs erlebt wie hier. Bei den anderen wird NV für die erneute "Ankündigung einer Ankündigung" ziemlich rund gemacht. Nur hier scheint die Mehrheit NV die Stange zu halten. Vielleicht sind 3dcenter-leser einfach besser informiert als alle anderen.

Greetz
U.S.

Coda
2010-02-23, 01:50:51
@Coda
Kannst du das etwas ausführen? Wäre bestimmt interessant:)
Bei gleichem Takt wie eine GT200b sollte bei solch einer Überarbeitung und fast doppelt so vielen Recheneinheiten eigentlich schon 100% mehr Leistung rausspringen. Erst recht bei 8xAA, weil das ja offenbar gefixt wurde.

Deshalb nehm ich Charlie seine 5% nicht ab (nicht das ich ihm irgendwas abnehmen würde). Reine Gefühlssache. Es kann natürlich auch sein, dass sie die Logik an sich verpfuscht haben. Sieht oberflächlich aber ganz und gar nicht nicht danach aus.

Vor allem da ich immer noch glaube, dass HD 5870 und auch schon GTX 285 ziemlich Rasterization-Limitiert sind. Habe dazu auch nen Artikel fast fertig.

mapel110
2010-02-23, 01:55:40
Ja das mit den doppelten Recheneinheiten ist schön und gut, aber die Texturpower hat man wohl vergessen zu verdoppeln. Ich glaub da dem Blabla von nvidia noch nicht, dass es in dem Bereich auch eine ordentliche Steigerung gibt.

Gast
2010-02-23, 01:57:58
Vielleicht wird ja in dieser Ankündigung nur nebenbei von den neuen Grafikkarten geredet und hauptsächlich mehr über die Zukunft Nvidias, welche ja in der aktuellen Weltwirtschaftslage nicht ganz so rosig aussehen dürfte...

AwesomeSauce
2010-02-23, 02:02:13
@Coda
It is interesting to note that although the triangle throughput of the GF100 has increased by a factor of 4, the rasterization rate is identical to the GT200 or the Radeon HD 5800s: 32 pixels per cycle in all or 256 samples with 4x antialiasing.
http://www.behardware.com/articles/782-4/nvidia-geforce-gf100-the-geometry-revolution.html
Hätte es dann nicht Sinn gemacht, die Rasterization-Rate analog zum Triangle-Throughput aufzustocken, wenn eben gerade die Rasterisierung limitiert?

ChaosTM
2010-02-23, 02:04:21
Irgenwie schon auffällig.
Scheint als überwiegen hier klar die NV-Fans. In keinem anderen Forum hab ich soviel "optimismus" zugunsten NVs erlebt wie hier. Bei den anderen wird NV für die erneute "Ankündigung einer Ankündigung" ziemlich rund gemacht. Nur hier scheint die Mehrheit NV die Stange zu halten. Vielleicht sind 3dcenter-leser einfach besser informiert als alle anderen.

Greetz
U.S.

Sei froh, dass hier nicht dümmlich herumgebashed wird.
Die Verzögerung des Fermi ist eine loose/loose Situation für alle.
Die Nvidianer müssen noch etwas länger auf ihre neue Karte warten und für die Ati Fans bleibt der Preis der 5850/70 dank fehlender Konkurrenz unnötig hoch.
Daher hoffe ich auch, dass die Karte bald rauskommt und auch konkurrenzfähig ist.
An ein nv30/r600 ähnliches "Desaster" glaube ich nicht.

uweskw
2010-02-23, 02:04:46
Warum sollte ich es dir erklären, was du zu verstehen hast? Wenn du meinst, dass man die Karten nicht kaufen kann, dann ist es in Ordnung.

Ach LZeeeeet.... (a bissel resigniert den Kopf tätschelnd..)

weder du noch sonst irgendwer braucht mir erklären was ich zu verstehen habe. Ich habe lediglich gefragt ob diese Infos richtig sind.

Ob du es glaubst oder nicht, es gibt interessantere Dinge als GraKas auf dieser Welt.

mapel110
2010-02-23, 02:16:04
As an update, I am hearing, totally unconfirmed so far, that there may be one other tapeout either done or pending. I am far from 100% on this one though.

-Charlie
Geht um Fermi-Ableger.

AwesomeSauce
2010-02-23, 02:16:50
BTW:
Apologies for the confusion around our most recent GF100 update. To clarify, launch date for GeForce GTX 480 and GTX 470 is March 26, 2010
http://twitter.com/NVIDIAGeForce
Jetzt versteht es vielleicht sogar jedermann;)

Gast
2010-02-23, 02:18:39
Irgenwie schon auffällig.
Scheint als überwiegen hier klar die NV-Fans. In keinem anderen Forum hab ich soviel "optimismus" zugunsten NVs erlebt wie hier.

Da ist ne Verschwörung im Gange ich sags dir...

S940
2010-02-23, 02:35:39
BTW:

http://twitter.com/NVIDIAGeForce
Jetzt versteht es vielleicht sogar jedermann;)

Fragt sich jetzt nur noch welche Art .. soft, hard, oder nach 58x0 Art (pro Woche ~10 Karten :freak: )

Gast
2010-02-23, 05:36:07
Nvidia hat zwar letztes Jahr mit riesigem Gewinn abgeschnitten, aber ich denke nur weil da noch nicht die neue Chipgeneration in Produktion war.
Am Beginn sind die neuen Chips in der Herstellung immer etwas teurer, da die Produktion erst richtig anlaufen und auch etwas optimiert werden muß.
Dies fiel letztes Jahr weg, also blieb Nvidia sicherlich viele Kosten erspart und schrieb Gewinn. Das aktuelle Jahr fängt aber mit hohen Kosten und wenig
Stückzahl bzw Umsatz an. Würde mich nicht überraschen wenn Nvidia in diesem Jahr noch von irgendwem aufgekauft würde. Mein Wunschkanditat wäre Intel.

DrFreaK666
2010-02-23, 06:46:36
Nvidia hat zwar letztes Jahr mit riesigem Gewinn abgeschnitten, aber ich denke nur weil da noch nicht die neue Chipgeneration in Produktion war.
Am Beginn sind die neuen Chips in der Herstellung immer etwas teurer, da die Produktion erst richtig anlaufen und auch etwas optimiert werden muß.
Dies fiel letztes Jahr weg, also blieb Nvidia sicherlich viele Kosten erspart und schrieb Gewinn. Das aktuelle Jahr fängt aber mit hohen Kosten und wenig
Stückzahl bzw Umsatz an. Würde mich nicht überraschen wenn Nvidia in diesem Jahr noch von irgendwem aufgekauft würde. Mein Wunschkanditat wäre Intel.

Bloß nicht. Je mehr Konkurrenz desto besser.

Coda
2010-02-23, 06:53:19
@Coda

http://www.behardware.com/articles/782-4/nvidia-geforce-gf100-the-geometry-revolution.html
Hätte es dann nicht Sinn gemacht, die Rasterization-Rate analog zum Triangle-Throughput aufzustocken, wenn eben gerade die Rasterisierung limitiert?
Das Problem ist nicht der maximale Durchsatz sondern der Durchsatz bei kleinen Dreiecken.

Ich erklär das jetzt nicht im Detail, wie gesagt ist der Artikel fast fertig.

Gast
2010-02-23, 07:40:58
Das Problem ist nicht der maximale Durchsatz sondern der Durchsatz bei kleinen Dreiecken.

Ich erklär das jetzt nicht im Detail, wie gesagt ist der Artikel fast fertig.

Das limitiert höchstens bei Tesslation, ich glaube das du hier einen ganz schönen Irrtum aufgesessen bist.

Ailuros
2010-02-23, 07:52:37
Die haben das bestimmt einfach so ins Blaue reingetippt, dass sie bis dahin die Karte haben werden. Ist aber nun nicht. Kann mir nicht vorstellen, dass die für Zeitschriften eine Ausnahme machen werden.

Da hat sich jemand im SemiAcc-Forum Mühe gegeben. ^^
http://i47.tinypic.com/w0idj6.png

http://img97.imageshack.us/img97/9056/nvidia2m.jpg

Es gibt natuerlich auch das beruehmte Hitler video mit angepassten Untertiteln ueber dass ich mich krummgelacht habe, aber es muss nicht schon wieder sein.

Geht um Fermi-Ableger.

Oh er hat ihn verpasst? War W im Urlaub oder was? :biggrin:

Gast
2010-02-23, 08:04:47
@S940,

naja, lieber 10 Karten im Monat als überhauptnix sag ich immer!

Ich lasse mich mal überaschen was NVidia auf die Beine stellt und vor allem wann die Karten denn dann kommen.

Ailuros
2010-02-23, 08:12:33
Das limitiert höchstens bei Tesslation, ich glaube das du hier einen ganz schönen Irrtum aufgesessen bist.

Ich kann nicht wissen was Coda's Artikel beinhaltet, aber IMHO je aggressiver die Tessellation desto besser der Unterschied fuer GF100.

An was soll er sich genau irren wenn er schon sagt dass es um den Durchsatz bei kleinen Dreiecken geht?

Damien Triolet:

It is interesting to note that although the triangle throughput of the GF100 has increased by a factor of 4, the rasterization rate is identical to the GT200 or the Radeon HD 5800s: 32 pixels per cycle in all or 256 samples with 4x antialiasing. If triangles consist of more than 8 pixels, they’re rasterized in several cycles. Does this boil down to the same thing? Not really because the GF100 will be up to 4x faster with small triangles. It will also automatically have a more efficient Z-Cull as smaller zones will be tested for visibility.

http://www.behardware.com/articles/782-4/nvidia-geforce-gf100-the-geometry-revolution.html

Ganz am Rand wiederhole ich nochmal dass sich Damien streng an vorige oeffentliche NV Spezifikationen der GT200 haelt, wobei das 4x Mal triangle throughput dann auch stimmt wenn man de facto akzeptiert dass G8x bis GT2xx ueber 1Tri/clock faehig sind. NV's marketing dreht sich hier natuerlich wieder und behauptet 8x Mal so viel, wobei wenn man die wirklichen 1Tri/2clocks einer GT200 nimmt es auch hinhaut.

Es bleibt aber dabei dass der eigentliche Vorteil vom GF100 fuer diesen Bereich hauptsaechlich im Bereich von sehr vielen kleinen Dreiecken bzw. extremer Tessellation liegt.

Nvidia hat zwar letztes Jahr mit riesigem Gewinn abgeschnitten, aber ich denke nur weil da noch nicht die neue Chipgeneration in Produktion war.
Am Beginn sind die neuen Chips in der Herstellung immer etwas teurer, da die Produktion erst richtig anlaufen und auch etwas optimiert werden muß.
Dies fiel letztes Jahr weg, also blieb Nvidia sicherlich viele Kosten erspart und schrieb Gewinn. Das aktuelle Jahr fängt aber mit hohen Kosten und wenig
Stückzahl bzw Umsatz an. Würde mich nicht überraschen wenn Nvidia in diesem Jahr noch von irgendwem aufgekauft würde. Mein Wunschkanditat wäre Intel.

Intel hat ihre eigene heisse Eisen im Ofen. Wo jetzt die unendlichen Loecher in Deiner Logik generell liegen hab ich keine Lust zu diskuttieren.

Auf jeden Fall werde ich es nicht zulassen dass aus dem Thread hier wieder ein NV Doom Thread wird. Der Thread ist in den letzten paar Tagen Gott sei Dank schoen sachlich geblieben und er wird es auch weiterhin so bleiben. Danke

Odal
2010-02-23, 08:13:17
Irgenwie schon auffällig.
Scheint als überwiegen hier klar die NV-Fans. In keinem anderen Forum hab ich soviel "optimismus" zugunsten NVs erlebt wie hier. Bei den anderen wird NV für die erneute "Ankündigung einer Ankündigung" ziemlich rund gemacht. Nur hier scheint die Mehrheit NV die Stange zu halten. Vielleicht sind 3dcenter-leser einfach besser informiert als alle anderen.

Greetz
U.S.

ich glaube das liegt eher daran das bei der letzten neuen architektur (G80) vorher auch keiner wirklich was wusste und spekuliert wurde das das ding ein schuss in den ofen wird.
die erwartungen liegen da einfach hoch (vielleicht zu hoch bei einigen)

Ailuros
2010-02-23, 08:27:46
Irgenwie schon auffällig.
Scheint als überwiegen hier klar die NV-Fans. In keinem anderen Forum hab ich soviel "optimismus" zugunsten NVs erlebt wie hier. Bei den anderen wird NV für die erneute "Ankündigung einer Ankündigung" ziemlich rund gemacht. Nur hier scheint die Mehrheit NV die Stange zu halten. Vielleicht sind 3dcenter-leser einfach besser informiert als alle anderen.

Greetz
U.S.

Oder manche von uns arbeiten hart genug dass wir alles (und nicht nur NV Material) auf einem so hohen wie moeglichen Nivaeu halten koennen. Falls es Dir jetzt nicht passen sollte dass 3DCenter den IMO besseren Unterschied machen kann, kann ich Dir nicht weiterhelfen.

Anstatt jetzt nur indirekt zu provozieren waere es vielleicht angebrachter Dich selber zu fragen ob Du es erstmal besser machen koenntest oder im schlimmsten Fall ob Du zu irgend etwas sinnvolleres beizutragen hast.

ich glaube das liegt eher daran das bei der letzten neuen architektur (G80) vorher auch keiner wirklich was wusste und spekuliert wurde das das ding ein schuss in den ofen wird.
die erwartungen liegen da einfach hoch (vielleicht zu hoch bei einigen)

Sachliche und logische Kritik an NVIDIA wird hier durchaus toleriert. Nur sehe ich nichts dergleichen in seinem Post, sondern lediglich sterile Kritik an 3DCenter.
Du bist also auch in dem Sinn ein NV fan nur weil Du nicht unendlich herumtrollst und spamst oder wie soll ich das verstehen?

Tarkin
2010-02-23, 09:03:34
http://www.enet.com.cn/article/2010/0221/A20100221612409.shtml

GTX470 3Dmark Vantage Performance=167xx, Extreme=73xx

das wäre zwischen 5850 und 5870

Die Frage ist: mit oder ohne PhysX???

Gast
2010-02-23, 09:05:54
http://www.enet.com.cn/article/2010/0221/A20100221612409.shtml

GTX470 3Dmark Vantage Performance=167xx, Extreme=73xx

das wäre zwischen 5850 und 5870

Die Frage ist: mit oder ohne PhysX???

Das wäre extrem enttäuschend. Mit PhysX kaum über 5850.

V2.0
2010-02-23, 09:08:45
http://www.enet.com.cn/article/2010/0221/A20100221612409.shtml

GTX470 3Dmark Vantage Performance=167xx, Extreme=73xx

das wäre zwischen 5850 und 5870

Die Frage ist: mit oder ohne PhysX???

Sicher nicht ohne PhysiX.

AnarchX
2010-02-23, 09:10:17
Für den X-Score ist PhysX jedenfalls irrelevant.

Aber X73xx sind nicht gerade eine Hausnummer, etwa 20% gegenüber einer GTX 285.
Hier könnte wohl auch wie schon bei Cypress die hohe ALU-Leistung durch die relativ geringe Texelfüllrate limitiert werden.

Die 80 FPS in FC2 passen jedenfalls zu den Gerüchten, dass beim Deep Dive nur eine zur GTX 470 vergleichbare Karte im Test-System war.
Hier sähe dann die Leistung doch schon etwas besser aus.

Gast
2010-02-23, 09:23:10
Es gibt natuerlich auch das beruehmte Hitler video mit angepassten Untertiteln ueber dass ich mich krummgelacht habe, aber es muss nicht schon wieder sein.

Ohhh doch, das ist so geil, dass es gepostet werden muss: http://www.youtube.com/watch?v=VpZXhR1ibj8

"Anyone who owns or has owned an ATi, get the fuck out of here!" :ulol:

igg
2010-02-23, 09:27:14
BTW:

http://twitter.com/NVIDIAGeForce
Jetzt versteht es vielleicht sogar jedermann;)
Das ist kein Dienstag.
http://www.enet.com.cn/article/2010/0221/A20100221612409.shtml

GTX470 3Dmark Vantage Performance=167xx, Extreme=73xx

das wäre zwischen 5850 und 5870
Das würde zu dem Artikel von Guru3d (http://www.guru3d.com/article/nvidia-geforce-470-480/), laut dem GTX470 und GTX480 die 5850 und 5870 angreifen (und nicht wie lange gemunkelt 5870 und die X2).

Sieht so aus als müsste sich Tombman 3 X2 ins Gehäuse bauen ;)

Gast_mboeller
2010-02-23, 09:31:28
http://www.enet.com.cn/article/2010/0221/A20100221612409.shtml

GTX470 3Dmark Vantage Performance=167xx, Extreme=73xx

das wäre zwischen 5850 und 5870

Die Frage ist: mit oder ohne PhysX???

Die GTX480 hat ja 512 Shader und entsprechend mehr TMUs etc..
Die Taktraten der GTX480 sollen ja nahezu die gleichen sein wie bei der GTX470.

Damit sollte man doch den Vantage-Score einer GTX480 linear interpolieren können, oder?

512/448 x X7300 = ca. X8400

512/448 x P16700 = ca. P19000

Die Extreme-Werte wären damit geringfügig besser als bei einer HD5870. Für eine GPU mit angeblich nur 60% der Texel-Leistung ist das IMHO schon richtig gut.

AnarchX
2010-02-23, 09:32:09
Noch etwas zur GTX 470:
http://translate.google.de/translate?u=http%3A%2F%2Fvga.it168.com%2Fa2010%2F0222%2F852%2F000000852076.shtml&sl=zh-CN&tl=en&hl=&ie=UTF-8
X7400 (GPU-Score: 7100). 5850 auf dem gleichen System X6400(GPU: 6200).
320-Bit GDDR5 und ein Takt von 810/1600MHz(3,2Gbps).

Damit wohl nur 128GB/s, wie auch die 5850. Die 810MHz sind etwas seltsam, entweder liegt der Core-Takt oberhalb des 1/2 Hot-Clock oder die GTX 470 kommt mit 1,62GHz Hot-Clock.

Spasstiger
2010-02-23, 09:33:12
Ohhh doch, das ist so geil, dass es gepostet werden muss: http://www.youtube.com/watch?v=VpZXhR1ibj8

"Anyone who owns or has owned an ATi, get the fuck out of here!" :ulol:
Bei diesen Videos kann ich mich nie auf die Untertitel konzentrieren. :freak:
Für einen Nicht-Deutsch-Sprechenden sicherlich sehr amüsant.

Gast_mboeller
2010-02-23, 09:40:00
Noch etwas zur GTX 470:
http://translate.google.de/translate?u=http%3A%2F%2Fvga.it168.com%2Fa2010%2F0222%2F852%2F000000852076.shtml&sl=zh-CN&tl=en&hl=&ie=UTF-8
X7400 (GPU-Score: 7100). 5850 auf dem gleichen System X6400(GPU: 6200).
320-Bit GDDR5 und ein Takt von 810/1600MHz(3,2Gbps).

Damit wohl nur 128GB/s, wie auch die 5850. Die 810MHz sind etwas seltsam, entweder liegt der Core-Takt oberhalb des 1/2 Hot-Clock oder die GTX 470 kommt mit 1,62GHz Hot-Clock.

Nur "800MHz" GDDR5?? Das ist seltsam. Warum spielt Nvidia den Bandbreitenvorteil durch das 320bit Interface nicht aus? Mussten sie die Kosten für den Speicher begrenzen, um die $299 zu erreichen?

Die GTX480 hat ja 512 Shader und entsprechend mehr TMUs etc..
Die Taktraten der GTX480 sollen ja nahezu die gleichen sein wie bei der GTX470.

Damit sollte man doch den Vantage-Score einer GTX480 linear interpolieren können, oder?

512/448 x X7300 = ca. X8400

512/448 x P16700 = ca. P19000

Die Extreme-Werte wären damit geringfügig besser als bei einer HD5870. Für eine GPU mit angeblich nur 60% der Texel-Leistung ist das IMHO schon richtig gut.


Kann man wohl knicken. Ich habe nicht erwartet, dass die GTX470 mit so einem mickrigem Speichertakt aufläuft.

Spasstiger
2010-02-23, 09:45:14
Mit dem breiteren SI kann es sich NV erlauben, Speichertakt-Reserven für eine Refresh-Generation offen zu halten. Bei AMD ist derzeit nicht viel Spielraum für einen höheren Speichertakt.
Die 7-Gbps-Chips von Hynix werden nicht vor dem zweiten Halbjahr verfügbar sein und es ist nie klug, sich auf die Verfügbarkeit bei einem einzigen Speicherhersteller zu verlassen. Je niedriger der Speichertakt, desto breiter das Angebot an geeigneten Chips.

James Ryan
2010-02-23, 09:48:18
http://www.enet.com.cn/article/2010/0221/A20100221612409.shtml

GTX470 3Dmark Vantage Performance=167xx, Extreme=73xx

das wäre zwischen 5850 und 5870

Die Frage ist: mit oder ohne PhysX???

Passt jedenfalls sehr gut zum spekulierten Preis.
Sollte die GTX 4xx Reihe kein SGSAA anbieten, wirds bei mir wohl eine (dann relativ günstige) HD 5870 werden.

MfG :cool:

Botcruscher
2010-02-23, 09:54:08
Passt jedenfalls sehr gut zum spekulierten Preis.


So ist es.
Was die Bandbreite betrifft so tun sich womöglich Parallelen zu R600 auf. Irgendwie muss man die ja auch umsetzen.

Fermi cant even render my balls.:freak:

Odal
2010-02-23, 09:56:13
Nur "800MHz" GDDR5?? Das ist seltsam. Warum spielt Nvidia den Bandbreitenvorteil durch das 320bit Interface nicht aus? Mussten sie die Kosten für den Speicher begrenzen, um die $299 zu erreichen?

was? da steht 3200Mhz also wohl 1600Mhz real

Noch etwas zur GTX 470:
http://translate.google.de/translate?u=http%3A%2F%2Fvga.it168.com%2Fa2010%2F0222%2F852%2F000000852076.shtml&sl=zh-CN&tl=en&hl=&ie=UTF-8
X7400 (GPU-Score: 7100). 5850 auf dem gleichen System X6400(GPU: 6200).
320-Bit GDDR5 und ein Takt von 810/1600MHz(3,2Gbps).

Damit wohl nur 128GB/s, wie auch die 5850. Die 810MHz sind etwas seltsam, entweder liegt der Core-Takt oberhalb des 1/2 Hot-Clock oder die GTX 470 kommt mit 1,62GHz Hot-Clock.

810mhz coreclock? das glaubst du doch wohl selber nicht... besonders bei den "miesen" werten
ausserdem was ist ein R5850 :cool:

das stimmt da doch wieder hinten und vorn nicht

svenw
2010-02-23, 10:05:55
Was ich bisher von der 470er gesehen habe (knapp vor 5870) macht eine 5890 wahrscheinlich, denn ATI wird kaum NV die Titel der schnellsten und zweitschnellsten Single-Chip-Karte überlassen wenn sie es vermeiden können. An der 480 dürften sie sich mit Sicherheit die Zähne ausbeißen, aber die ca. 5% Mehrperformance der 470 sollten inzwischen locker machbar sein. NV wird auch kaum kontern können, denn zum jetzigen Zeitpunkt dürften die Chips auf Kante laufen.

Zu den Preisen: Ich glaube nicht, das wir so schnell sinkende Preise sehen werden. Dazu sind die yields immer noch zu schlecht (siehe Verfügbarkeit 5850/5870) und beide Kontrahenten haben nicht den Spielraum Geld zu verschenken. ATI/AMD ist eh nicht auf Rosen gebettet und 6 Monate Verzögerung bei NV ergeben ein fettes Minus in der Bilanz. Einen Preiskampf könnte NV eh nicht gewinnen, darum werden sie es nicht versuchen und bei der aktuellen Versorgungslage gibt es genügend Käufer für beide.

Die Frage ist ob es sich NV leisten kann eine X2 zu bringen, sowohl technisch (Wärme) als auch finanziell, denn ich bezweifle das die 495 wesentlich schneller wäre als eine 5970, ohne bei dem Verbrauch jenseits von Gut und Böse zu liegen. Und die verbauten Chips sind in jedem Fall wesentlich teuer als bei ATI. Der Abstand zur 480er wäre auch nicht so gewaltig, als das es sich IMHO nach lohnen würde.

LovesuckZ
2010-02-23, 10:10:21
Die 80 FPS in FC2 passen jedenfalls zu den Gerüchten, dass beim Deep Dive nur eine zur GTX 470 vergleichbare Karte im Test-System war.
Hier sähe dann die Leistung doch schon etwas besser aus.

Der Farcry2 Wert ist der interessanteste. Damit läge man vor der 5870.
Das nVidia eine geringere Speicherbandbreite nimmt, läge anhand ihres Cache-System sehr nahe. Immerhin können sie nun mehr Daten "on the die" halten - z.B. 3x soviele Texturdaten.
Aber die richtige Stärke kommt sowieso in geometrielimitierenden Settings zum Vorschein. Solange man hier keine genauen Daten hat, sollte man mit einem Fazit warten.

Was ich bisher von der 470er gesehen habe (knapp vor 5870) macht eine 5890 wahrscheinlich, denn ATI wird kaum NV die Titel der schnellsten und zweitschnellsten Single-Chip-Karte überlassen wenn sie es vermeiden können. An der 480 dürften sie sich mit Sicherheit die Zähne ausbeißen, aber die ca. 5% Mehrperformance der 470 sollten inzwischen locker machbar sein. NV wird auch kaum kontern können, denn zum jetzigen Zeitpunkt dürften die Chips auf Kante laufen.

Zu den Preisen: Ich glaube nicht, das wir so schnell sinkende Preise sehen werden. Dazu sind die yields immer noch zu schlecht (siehe Verfügbarkeit 5850/5870) und beide Kontrahenten haben nicht den Spielraum Geld zu verschenken. ATI/AMD ist eh nicht auf Rosen gebettet und 6 Monate Verzögerung bei NV ergeben ein fettes Minus in der Bilanz. Einen Preiskampf könnte NV eh nicht gewinnen, darum werden sie es nicht versuchen und bei der aktuellen Versorgungslage gibt es genügend Käufer für beide.

Die Frage ist ob es sich NV leisten kann eine X2 zu bringen, sowohl technisch (Wärme) als auch finanziell, denn ich bezweifle das die 495 wesentlich schneller wäre als eine 5970, ohne bei dem Verbrauch jenseits von Gut und Böse zu liegen. Und die verbauten Chips sind in jedem Fall wesentlich teuer als bei ATI. Der Abstand zur 480er wäre auch nicht so gewaltig, als das es sich IMHO nach lohnen würde.

Dachte ich bei einer "GT200x2" auch. Jedoch hat AMD ihnen eine mögliche x2 einfacher gemacht, da Hemlock keine 5870x2 ist. Sollte die GTX470 über dem Niveau der 5870 sein, dann ist eine x2 machbar. Sollte die Karte (deutlich) langsamer sein, dann nicht.

igg
2010-02-23, 10:15:19
Was ich bisher von der 470er gesehen habe (knapp vor 5870)
Das ist der Haken. Aktuell sieht es nach knapp vor 5850 aus. Das läst zwar einen netten Preiskrieg aus, uns steht dann aber nicht die erhoffte Performance zur Verfügung :(

LovesuckZ
2010-02-23, 10:17:37
Das ist der Haken. Aktuell sieht es nach knapp vor 5850 aus. Das läst zwar einen netten Preiskrieg aus, uns steht dann aber nicht die erhoffte Performance zur Verfügung :(

Huch? Ich seh drei Werte: Vantage, Farcry, Unigine. In zwei von drei liegt die GTX470 auf bzw. über 5870 Niveau...

/edit: Bei den Werten passt dann auch ein spekulierter Preis von 299$.

igg
2010-02-23, 10:22:50
Huch? Ich seh drei Werte: Vantage, Farcry, Unigine. In zwei von drei liegt die GTX470 auf bzw. über 5870 Niveau...
In zwei von Nvidia ausgewählten Benchmarks, deren Qualitätssettings mit Sicherheit so gewählt wurden, dass die Stärken des Fermi ausgespielt werden. Es gab auch beim GT200 Settings (dank Vram) in denen er zigmal höhere FPS als der G80 hatte... Unyu hat die mal auf CB gepostet.

LovesuckZ
2010-02-23, 10:27:27
In zwei von Nvidia ausgewählten Benchmarks, deren Qualitätssettings mit Sicherheit so gewählt wurden, dass die Stärken des Fermi ausgespielt werden. Es gab auch beim GT200 Settings (dank Vram) in denen er zigmal höhere FPS als der G80 hatte... Unyu hat die mal auf CB gepostet.

Die Werte stammen alle direkt von der asiastischen Seite:
farcry 2 - 1920x1200 - 4AA/16AF => 80FPS
Unigine - 1920x1200 - 4AA/16AF* => 30 FPS

Nichts von nVidia.

*AA und AF verlagern den Leistungsverlust weg von der Geometrie.

Gast
2010-02-23, 10:29:28
Die Werte stammen alle direkt von der asiastischen Seite:
farcry 2 - 1920x1200 - 4AA/16AF => 80FPS
Unigine - 1920x1200 - 4AA/16AF* => 30 FPS

Nichts von nVidia.

*AA und AF verlagern den Leistungsverlust weg von der Geometrie.

Es sind genau die Werte welche NV auch schon auf ihrer Präsentation gezeigt hatte: FarCry2 und Unigine. Jede Wette das die Werte direkt von einer NV-Folie kommen und natürlich entsprechend positiv für NV selektiert sind.

LovesuckZ
2010-02-23, 10:31:49
Es sind genau die Werte welche NV auch schon auf ihrer Präsentation gezeigt hatte: FarCry2 und Unigine. Jede Wette das die Werte direkt von einer NV-Folie kommen und natürlich entsprechend positiv für NV selektiert sind.

Es gab keine Unigine-Benchmarks Werte von nVidia - abgesehen von den 60sek Ausschnitt. Ob die Seite selbst gebencht oder von Folien abschreiben hat, kann ich nicht beantworten.
Aber selbst dann klingen die Werte viel zu realistisch. 1920x1200 mit 4AA und 16AF klingen nicht gerade nach "aussergewöhnlichen" Einstellungen...

svenw
2010-02-23, 10:36:37
Dachte ich bei einer "GT200x2" auch. Jedoch hat AMD ihnen eine mögliche x2 einfacher gemacht, da Hemlock keine 5870x2 ist. Sollte die GTX470 über dem Niveau der 5870 sein, dann ist eine x2 machbar. Sollte die Karte (deutlich) langsamer sein, dann nicht.
IMHO ist die Effizienz des Fermi nicht wesentlich höher als bei Cypress. Damit läuft aber die 495 bei dem Wärmeproblem vor die Wand. Möglich ist eine schnellere Karte, aber nicht wenn man unter 300W bleiben will. ATI hat nicht umsonst den Takt der 5970 runtergeschraubt. Damit begrenzt die Leistungsaufnahme die Endleistung und da steht Fermi nicht besser da als Cypress, eher noch etwas schlechter IMHO aber das ist Spekulation.
Am Ende würden also 2 mehr oder weniger gleichschnelle Karten rauskommen wobei NV wesentlich höhere Kosten hat und ihr Abstand zur 480 die Karte auch nicht wirklich attraktiv macht. Allein wenn man ein 30" Panel betreibt dürfte die Karte mit ihrer höheren Speicherbestückung punkten, aber jemand der sich so ein Panel leistet, zuckt auch nicht wenn er 2 480er kaufen muß.

LovesuckZ
2010-02-23, 10:39:06
IMHO ist die Effizienz des Fermi nicht wesentlich höher als bei Cypress. Damit läuft aber die 495 bei dem Wärmeproblem vor die Wand. Möglich ist eine schnellere Karte, aber nicht wenn man unter 300W bleiben will. ATI hat nicht umsonst den Takt der 5970 runtergeschraubt. Damit begrenzt die Leistungsaufnahme die Endleistung und da steht Fermi nicht besser da als Cypress, eher noch etwas schlechter IMHO aber das ist Spekulation.
Am Ende würden also 2 mehr oder weniger gleichschnelle Karten rauskommen wobei NV wesentlich höhere Kosten hat und ihr Abstand zur 480 die Karte auch nicht wirklich attraktiv macht. Allein wenn man ein 30" Panel betreibt dürfte die Karte mit ihrer höheren Speicherbestückung punkten, aber jemand der sich so ein Panel leistet, zuckt auch nicht wenn er 2 480er kaufen muß.

Hemlock und GF100x2 sind keine Geldbringer. Reine Prestige-Objekte. Dort gibt es keinen zweiten Platz. Ist GF100x2 10-15% schneller und verbraucht den selben Strom, dann hat nVidia gewonnen.
jedoch ist das alles abhängig von der Leistung der Karte, die direkt gegen die 5870 antritt. Sollte die schon 280 Watt verbrauchen, dann werden wir auch keine x2 sehen.

mapel110
2010-02-23, 10:40:40
Mit dem empfohlenen 550 Watt Netzteil für die 470 liegt sie doch im selben Rahmen wie die GTX 275. Und damit ist eine Dual Karte ja sehr gut möglich.

igg
2010-02-23, 10:47:46
Besteht eigentlich eine Verwandtschaft zwischen GF100 und dem ursprünglich (zugunsten GT200 gecancelten) G100 Chip? Letzterer soll angeblich auch über 384 Bit SI verfügt haben.

mapel110
2010-02-23, 10:52:41
Besteht eigentlich eine Verwandtschaft zwischen GF100 und dem ursprünglich (zugunsten GT200 gecancelten) G100 Chip? Letzterer soll angeblich auch über 384 Bit SI verfügt haben.
Zwischen G80 und GT200 gabs nix gecanceltes afaik.

y33H@
2010-02-23, 10:58:23
Erstens laufen die TMUs mit halbem Hotclock, zweitens hat NV sie überarbeitet und drittens muss die Texelleistung erst mal limitieren. Warten wir es ab.

Spasstiger
2010-02-23, 10:58:47
Zwischen G80 und GT200 gabs nix gecanceltes afaik.
Zumindest gab es vor dem GT200 Meldungen über einen G100, der sich über dem G92 ansiedelt:
http://www.gamestar.de/hardware/news/grafikkarten/1476325/nvidia.html
Vielleicht ist der G100 ja auch einfach der GT200.
Und dann wurde wohl noch der GT212 gestrichen, der als Lückenfüller zwischen GT200 und GF100 dienen sollte. Aber bekanntermaßen war der 40-nm-Prozess von TSMC letztes Jahr "etwas" problematisch bei großen Dice. ;)

igg
2010-02-23, 10:59:10
Zwischen G80 und GT200 gabs nix gecanceltes afaik.
Im beyond3d Forum hat ein sonst gut informierter mal ein Chipbild gepostet, das laut PM von demselben ein gecancelter G100 war.

AnarchX
2010-02-23, 11:03:00
Im beyond3d Forum hat ein sonst gut informierter mal ein Chipbild gepostet, das laut PM von demselben ein gecancelter G100 war.
http://forum.beyond3d.com/showpost.php?p=1223796&postcount=70
Das wohl eher ein G200b, wozu auch das Pin-Out passt.

derguru
2010-02-23, 11:12:47
Die GTX480 hat ja 512 Shader und entsprechend mehr TMUs etc..
Die Taktraten der GTX480 sollen ja nahezu die gleichen sein wie bei der GTX470.

Damit sollte man doch den Vantage-Score einer GTX480 linear interpolieren können, oder?

512/448 x X7300 = ca. X8400

512/448 x P16700 = ca. P19000

Die Extreme-Werte wären damit geringfügig besser als bei einer HD5870. Für eine GPU mit angeblich nur 60% der Texel-Leistung ist das IMHO schon richtig gut.

aha, dann ist auch die preisvorstellung von 299$ einleuchtend.der cat 10.3 legt eh noch mal nach und man kommt mit einer 5870 auf x 9xxxx.
http://www.tweakpc.de/hardware/tests/treiber/catalyst_10_2_catalyst_10_3/benchmarks.php?benchmark=3dmv

Spasstiger
2010-02-23, 11:16:09
Das 320-Bit-SI bei der GTX 470 könnte wohl ein Indiz dafür sein, dass auch die GTX 480 nur 448 SPs hat. Es wäre ja seltsam, wenn man massenhaft GPUs mit 448 SPs und 384-Bit-SI hat und diese nur abgespeckt mit 320-Bit-SI verkauft. Die wenigen 512-SP-Chips landen dann wohl auf den Teslas, wo die Margen groß genug sind, um auch teure Chips zu verbauen.

Ailuros
2010-02-23, 11:16:10
aha, dann ist auch die preisvorstellung von 299$ einleuchtend.der cat 10.3 legt eh noch mal nach und man kommt mit einer 5870 auf x 9xxxx.
http://www.tweakpc.de/hardware/tests/treiber/catalyst_10_2_catalyst_10_3/benchmarks.php?benchmark=3dmv

Ich wuerde die Milchmaedchen-rechnung sicherheitshalber total ignorieren. Nur stur aus der Anzahl der SPs etwas einzuschaetzen hapert an so vielen Stellen dass es nicht mehr schoen ist.

Tarkin
2010-02-23, 11:19:02
aha, dann ist auch die preisvorstellung von 299$ einleuchtend.der cat 10.3 legt eh noch mal nach und man kommt mit einer 5870 auf x 9xxxx.
http://www.tweakpc.de/hardware/tests/treiber/catalyst_10_2_catalyst_10_3/benchmarks.php?benchmark=3dmv

Jep.. mit den 10.3er Treibern kommt die 5850 dann auch an die 470 (mit PhysX) heran bzw. zieht an ihr vorbei!

Mit 9.11er Treibern hat die 5850 ~ 6.700 Punkte (Extreme)

+10% vom 10.3er und sie landet bei ~ 7.400.

Ich habe langsam das Gefühl, meine "+15% im Schnitt schneller als 5870" Schätzung von vor einigen Monaten war noch viel zu optimistisch...

V2.0
2010-02-23, 11:19:10
Das 320-Bit-SI bei der GTX 470 könnte wohl ein Indiz dafür sein, dass auch die GTX 480 nur 448 SPs hat. Es wäre ja seltsam, wenn man massenhaft GPUs mit 448 SPs und 384-Bit-SI hat und diese nur abgespeckt mit 320-Bit-SI verkauft. Die wenigen 512-SP-Chips landen dann wohl auf den Teslas, wo die Margen groß genug sind, um auch teure Chips zu verbauen.
Es gibt gar keine 512SP Tesla.

AnarchX
2010-02-23, 11:19:13
Mit 10.3 dürfte wohl die 5870 bei Extreme einen GPU-Score von 8,5k erreichen, damit 20% mehr als der 470 aktuelle zugeschrieben wird.

Das sollte die 480 doch schon noch überbieten können, immerhin könnte sie 50% mehr Bandbreite als die 470 haben.

Ailuros
2010-02-23, 11:20:50
Das 320-Bit-SI bei der GTX 470 könnte wohl ein Indiz dafür sein, dass auch die GTX 480 nur 448 SPs hat.

512SPs.

Es wäre ja seltsam, wenn man massenhaft GPUs mit 448 SPs und 384-Bit-SI hat und diese nur abgespeckt mit 320-Bit-SI verkauft.

Passen IHVs die Bandbreite der Leistung an oder umgekehrt?

Die wenigen 512-SP-Chips landen dann wohl auf den Teslas, wo die Margen groß genug sind, um auch teure Chips zu verbauen.

Teslas wurden als 448/384bit angekuendigt und ich sehe keinen Grund warum sich daran etwas aendern sollte. Wie viele Tesla 2050 configs werden sie denn wirklich durch Q2 verkaufen koennen am Ende?


Das sollte die 480 doch schon noch überbieten können, immerhin könnte sie 50% mehr Bandbreite als die 470 haben.

1000-1050MHz IMHO fuer die 480.

LovesuckZ
2010-02-23, 11:21:28
Das 320-Bit-SI bei der GTX 470 könnte wohl ein Indiz dafür sein, dass auch die GTX 480 nur 448 SPs hat. Es wäre ja seltsam, wenn man massenhaft GPUs mit 448 SPs und 384-Bit-SI hat und diese nur abgespeckt mit 320-Bit-SI verkauft. Die wenigen 512-SP-Chips landen dann wohl auf den Teslas, wo die Margen groß genug sind, um auch teure Chips zu verbauen.

Es gibt keine Tesla-Karten mit 512SPs.

Sollten(!) die spekulierten Karteneigenschafften stimmen, dann ist die GTX470 wohl auf billig getrimmt. 320bit sind 10 Bausteine, 800MHz GDDR5 sollte heute verdammt billig sein, weniger aufwendige Platine, da weniger Leiterbahnen zum Speicher und wohl auch weniger Layer. Das alles macht den spekulierten Preis von 299$ ziemlich realistisch. Und man würde damit auch Druck auf AMD ausüben, die entweder die 5870 teurer im Markt lassen oder den Preis deutlich - über 100$ - senken müssen.

Mit 10.3 dürfte wohl die 5870 bei Extreme einen GPU-Score von 8,5k erreichen, damit 20% mehr als der 470 aktuelle zugeschrieben wird.

Das sollte die 480 doch schon noch überbieten können, immerhin könnte sie 50% mehr Bandbreite als die 470 haben.

Review-Samples sollen in der zweiten Märzwoche verschickt werden. Bis dahin werden wohl auch die nVidia-Treiber angepasst werden.

S940
2010-02-23, 11:24:58
320-Bit GDDR5 und ein Takt von 810/1600MHz(3,2Gbps).

Damit wohl nur 128GB/s, wie auch die 5850. Die 810MHz sind etwas seltsam, entweder liegt der Core-Takt oberhalb des 1/2 Hot-Clock oder die GTX 470 kommt mit 1,62GHz Hot-Clock.
Kein überragender VRAM Takt, aber das muss nicht viel heißen. Eventuell ist das nur bei den aktuellen Musterkarten so.
Falls es wieder Erwarten doch auch für die Endkunden Version zutreffen sollte, könnte man über Preis / Stromverbrauchsgründe mutmaßen.

ciao

Alex

Odal
2010-02-23, 11:26:42
Besteht eigentlich eine Verwandtschaft zwischen GF100 und dem ursprünglich (zugunsten GT200 gecancelten) G100 Chip? Letzterer soll angeblich auch über 384 Bit SI verfügt haben.


wieso gecancelt? G100 ist doch erschienen :confused:

http://images.nvidia.com/products/geforce_g_100/GeForce_G100_3qtr_low.png

The NVIDIA® GeForce® G100 is essential for watching Blu-ray movies on a PC, accelerating the Microsoft® Windows Vista™ experience, and powering Microsoft® DirectX® 9 and DirectX 10 games.

http://www.nvidia.com/object/product_geforce_g_100_us.html

Spasstiger
2010-02-23, 11:28:40
Es gibt gar keine 512SP Tesla.
Es gibt keine Tesla-Karten mit 512SPs.
Ich weiß. Es gäbe dann halt gar keine 512-SP-Karten. Nur bevor man die guten 512-SP-Chips auf den billigen Gamerkarten verbaut, nimmt man sie lieber für die hochwertigens Teslas.

@Ailuros: Die 512 SPs bei der GTX 480 sind so sicher wie das Amen in der Kirche? Ehrlichgesagt vermute ich das weiterhin, es passt einfach besser zur Strategie von NV. Lieber einen Paperlaunch riskieren, als in Benchmarks nicht klar die Oberhand zu gewinnen.

Botcruscher
2010-02-23, 11:29:40
wieso gecancelt? G100 ist doch erschienen :confused:


Wieder ein Opfer der Produktpolitik von NV.

PS: http://de.wikipedia.org/wiki/Nvidia-Geforce-100-Serie