PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GT400/GF100 - Q1/2010, DX11, CUDA 3.0


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 [65] 66 67 68 69 70 71 72 73 74 75

Black-Scorpion
2010-03-18, 21:59:16
Weil ich mal vermute, das er ab heute ein Testexemplar hat.
Und damit unter NDA steht.
Er darf dir nicht mal sagen das er eine hat.

Sascha1971
2010-03-18, 22:02:33
Und damit unter NDA steht.
Er darf dir nicht mal sagen das er eine hat.


Aber evtl sagen welche er sich privat kaufen würde.
Das unterliegt nicht der NDA.

urfaust
2010-03-18, 22:13:08
Aber evtl sagen welche er sich privat kaufen würde.

Herr Spille hat sich bereits eine 5870 zugelegt (PCGH 04/2010)
und ist (wohlmöglich) überglücklich, gar verliebt

Man kennt das ja vom Verliebtsein, andere Frauen existieren quasi nicht

mapel110
2010-03-18, 22:51:54
http://www.brightsideofnews.com/news/2010/3/18/updated-gtx-470--480-specs-leak-out.aspx
We believe that there is either a slight mix up going on, or that there is simply a very concerted effort on somebody else’s part to find the leaks of the original 480 core information by simply spreading misinformation through certain channels to see who does and who doesn’t spread it.

/edit
Und noch xbitlabs
http://www.xbitlabs.com/news/video/display/20100318153724_Specifications_and_Prices_of_Nvidia_GeForce_GTX_400_Series_Graphi cs_Cards_Emerge_on_the_Web.html
As expected, the GeForce GTX 480 graphics board will carry the GF100 graphics chip with 512 stream processors, will carry 1536MB of GDDR5 memory connected using 384-bit bus and will have 295W thermal design power (TDP).

Botcruscher
2010-03-18, 23:02:20
The show must go on.:freak:

Gast
2010-03-18, 23:17:07
Du weisst genau, was er damit sagen wollte: GPU-Physics 4 everyone

Es hindert dich niemand daran mit OpenCL eine Physikengine zu programmieren und jedem zur Verfügung zu stellen.

Mayk-Freak
2010-03-19, 01:10:06
Nvidia Partner Zotac hat Fermi auch schon verpakt.

http://www.abload.de/img/zotakqo1s.jpg (http://www.abload.de/image.php?img=zotakqo1s.jpg)

http://www.abload.de/img/zotak2ao98.jpg (http://www.abload.de/image.php?img=zotak2ao98.jpg)

http://www.abload.de/img/zutak3js1z.jpg (http://www.abload.de/image.php?img=zutak3js1z.jpg)

http://www.abload.de/img/zotak4xsv5.jpg (http://www.abload.de/image.php?img=zotak4xsv5.jpg)

tombman
2010-03-19, 01:48:02
Ich frag mich echt was so schwer sein kann, 100% verläßlich die Anzahl der shader cores der 480er zu leaken? :mad:

Gast
2010-03-19, 02:00:21
naja, anhand der infos und screens von heute kann man wohl zu 99% von 512 shadern ausgehen.

Gast
2010-03-19, 02:04:24
die GTX 480 ist so teuer das sogar ne ebenfalls nicht billige Razer Imperator
beigepackt wird. ein nettes Trostpflaster für unverhältnismäßig schlechte Preis/leistung ^^

RoNsOn Xs
2010-03-19, 02:16:47
naja, anhand der infos und screens von heute kann man wohl zu 99% von 512 shadern ausgehen.
und morgen? :freak: (das ist ernst gemeint)

mapel110
2010-03-19, 02:23:05
http://forum.beyond3d.com/showpost.php?p=1409434&postcount=4030
Man I can't wait for the 26th so these 480 rumors will finially die. 512SP = GTX480, not 480. Who ever started that should be hunt down, oh I think it was Charlie.

Gast
2010-03-19, 02:29:16
http://forum.beyond3d.com/showpost.php?p=1409434&postcount=4030
Man I can't wait for the 26th so these 480 rumors will finially die. 512SP = GTX480, not 480. Who ever started that should be hunt down, oh I think it was Charlie.

/cheer
das sollte doch solangsam balsam für deine seele sein, tombi ;)

DrFreaK666
2010-03-19, 05:54:43
Es hindert dich niemand daran mit OpenCL eine Physikengine zu programmieren und jedem zur Verfügung zu stellen.

Ich kann das nicht ;D

pervert
2010-03-19, 05:58:33
bei unter 20% Differenz ist eine HD5870 mit OC und geiler Kühlung imo die bessere Wahl.
Und wieso?
Weil man dann zum möglicherweise gleichen Preis (teuere OC-Karte oder teuere Kühlung etc) weniger Features bekommt?
Ich persönlich empfände ne Karte ohne Physx wie eine Karte ohne DX11. Wer will in dieser Preisklasse solche Kompromisse eingehen??
Selbst wenn die GTX480 nur gleichschnell wäre (was wohl kaum der Fall ist), würde ich Sie kaufen. Naja wollen wir mal hoffen "Bx" GTX485 wirds richten wie bei der 280er...

DrFreaK666
2010-03-19, 06:02:26
Und wieso?
Weil man dann zum möglicherweise gleichen Preis weniger Features bekommt?
Ich persönlich empfände ne Karte ohne Physx wie eine Karte ohne DX11. Wer will in dieser Preisklasse solche Kompromisse eingehen??
Selbst wenn die GTX480 nur gelichschnell wäre, würde ich Sie kaufen. Naja wollen wir mal hoffen "Bx" GTX485 wirds richten wie bei der 280er...

Mir ist SGSSAA wichtiger.
Ausserdem muss sich noch zeigen wie laut die Karten werden.
Wenn der Referenz-Lüfter laut ist, dann ist das noch ein zusätzlich Punkt für ATI

pervert
2010-03-19, 07:08:59
Ach Gottchen. Nvidias SSAA ist ja soooo schlecht und war ja all die Jahre bisher nie zu gebrauchen :rolleyes:. Wer sagt eigentlich dass die GTX480 nicht auch sparsed noch kann?

Ailuros
2010-03-19, 07:18:32
@Ail

Die PCGH und die HT4U testen praxisnah mit Spielen.
Lass uns die Werte abwarten und dann darüber diskutieren, ok?

Man kann auch einen Mittelwert zwischen 188 und 228 errechnen und dann mit einer GF100 mit 1,5 GiB vergleichen.

Nur ist die GTX480 weder von ihrem Preis-/Leistungs Standpunkt noch vom Stromverbrauch direkt vergleichbar mit der HD5870. Und nebenbei sind es auch nicht die 295W TDP die links und rechts verbreitet werden momentan.

Auf +/- Gleichstand scheint die GTX470 zu liegen mit 1.2GB ram und einem 220W TDP. Und ja hier ist der TDP natuerlich um 17% hoeher und ja natuerlich sollte man Echtzeit-Verbrauch in Spielen (und auch in 2D) abwarten. Obwohl vorzeitig hab ich keinen einzigen Zweifel dass die 470 hier ein relativ geringes Nachsehen haben koennte was den Stromverbrauch betrifft. Bei einem 3+Mrd. core waere auch nichts anderes zu erwarten. NV hat hier fuer beide Modelle des GF100 etwas die Frequenzen reduziert und es gibt auch guten Grund dass sie etwas wie GF104 so frueh wie moeglich brauchen. Das Ding wird zwar nicht an GTX470 Leistung reichen, aber das insgesamte Paket im Bereich Preis/Leistung/Stromverbrauch duerfte um einiges attraktiver aussehen.

Da hätte ich aber erwartet das du besser informiert bist...

Du beziehst dich bei der 5870 2GB auf die Eyefinity 6 Edition

Der Mehrverbrauch kommt hauptsächlich durch Eyefinity zustande. Normale 5870 werden mit aktiven 3 Displayoutputs vermessen (was einer mehr ist als bei allen aktuellen Nvidia Grakas) und dann die TDP ermittelt.

Bei der Eyefinity 6 werden dann schon 6 Displayoutputs angesteuert und das zieht durchaus merklich mehr Strom als wenn nur einer angesprochen wird.

Die Rechnung geht insofern nicht auf. 1GB GDDR5 verbraucht keine 40 Watt...

Die Leistungseffizienz ist momentan bei ATI klar besser wenn sich die Gerüchte bewahrheiten und damit wird Nvidia auch mit einer dual GF100 nicht die Leistungskrone zurückerobern können.

Hab ich irgendwo angedeutet dass die Eyefinity6 einen hoeheren TDP wegen doppelt so viel Speicher von sich alleine hat? Wohl nicht. Pulsar auf den ich antwortete hat meine relativierte Vereinfachung schon verstanden. Die zustaetzlichen 3GB fb auf Tesla 2070 im Vergleich zu 2050 hat einen eingeschaetzten Verbrauchsunterschied von ca. 20W und ich hab es mehr als nur einmal erwaehnt. Zwar auch nicht direkt vergleichbar weil noch andere Faktoren mitspielen, aber auf dem letzteren basierend kann man schon einschaetzen dass es einen geringen Verbrauchszuschuss fuer die zusaetzliche 1GB gibt.

grafzahl
2010-03-19, 07:55:55
Der Mehrverbrauch der Eyefinity liegt natürlich an dem höherem Speicherausbau.

DDR5 verbraucht schon wesentlich mehr , man siehe allein den Verbrauch der alten 4870 wo man 30 Watt spart nur durch Taktsenkung von 900 auf 150Mhz, jetzt rechne das mal auf auf den doppelten Speicher von 2GB. Da haste dann deinen Mehrverbrauch.

Ich denke das Nvidia auch deshalb einen niedrigeren Speichertakt gewählt hat um den Mehrverbrauch durch den Speicherausbau noch in Grenzen zu halten.

Leider liegt der Idle Stromverbrauch den 5000 Karten bei Multimonitoring ja eh wieder höher, weil sie auf einer eigenen Taktdomain arbeitet, damit es keine Bildschirm flimmern gibt beim Taktwechsel :(

Gast
2010-03-19, 08:18:27
Der Mehrverbrauch der Eyefinity liegt natürlich an dem höherem Speicherausbau.

DDR5 verbraucht schon wesentlich mehr , man siehe allein den Verbrauch der alten 4870 wo man 30 Watt spart nur durch Taktsenkung von 900 auf 150Mhz, jetzt rechne das mal auf auf den doppelten Speicher von 2GB. Da haste dann deinen Mehrverbrauch.

Ich denke das Nvidia auch deshalb einen niedrigeren Speichertakt gewählt hat um den Mehrverbrauch durch den Speicherausbau noch in Grenzen zu halten.

Leider liegt der Idle Stromverbrauch den 5000 Karten bei Multimonitoring ja eh wieder höher, weil sie auf einer eigenen Taktdomain arbeitet, damit es keine Bildschirm flimmern gibt beim Taktwechsel :(


Was du schreibst ist Käse. Die Leistungsaufnahme zu Speichertakt bei der 4870 hängt im Wesentlichen auch am Speicherkontroller, nicht wie du schreibst an der Größe/Anzahl des/der RAMs

johnieboy
2010-03-19, 08:18:39
http://forums.vr-zone.com/7790889-post30.html

Sorry, it should be 480 SP. My source got a little mixed up. They are too busy making the cards right now I heard the retail availability got delayed but the launch still stands on March 26th for now. NV will decide tonight whether to push back the launch date. There will be enough cards to go around i heard.

Updated with final clocks too :

GeForce GTX 480 : 480 SP, 700/1401/1848MHz core/shader/mem, 384-bit, 1536MB, 295W TDP, US$499

GeForce GTX 470 : 448 SP, 607/1215/1674MHz core/shader/mem, 320-bit, 1280MB, 225W TDP, US$349

AnarchX
2010-03-19, 08:36:35
Bei Galaxy hat man mittlerweile auch die SP-Angaben wieder entfernt:
http://img146.imageshack.us/img146/4288/limg.jpg
Galaxy behauptet jedenfalls die GTX 480 hat 512 SPs:
http://img37.imageshack.us/img37/5526/galaxyi.jpg
http://www.szgalaxy.com/Fermi/


Hier noch die Karten von XFX: http://www.expreview.com/9888.html

Eggcake
2010-03-19, 08:47:58
Kann auch sein, dass sies schlicht entfernen mussten/man sie darauf aufmerksam gemacht hat.

Kalmar
2010-03-19, 09:17:57
.... und es gibt auch guten Grund dass sie etwas wie GF104 so frueh wie moeglich brauchen. Das Ding wird zwar nicht an GTX470 Leistung reichen, aber das insgesamte Paket im Bereich Preis/Leistung/Stromverbrauch duerfte um einiges attraktiver aussehen....

hast du ne info wie der gf104 im rennen liegt ? man hört ja da gar nichts mehr, vom gf108 kam ja wenigsten ne info wegen tapeout .. was eigentlich schade ist wenn das paket passender und besser ist als die 5830 murkskarte ..

vielleicht ist die gf104 zu gut so das nv erstmal die nicht so tollen gesamtpakete 470 und 480 los werden will

Gast
2010-03-19, 10:30:15
Kann auch sein, dass sies schlicht entfernen mussten/man sie darauf aufmerksam gemacht hat.
Oder weil es schlicht nicht gestimmt hat.

Ailuros
2010-03-19, 10:31:23
hast du ne info wie der gf104 im rennen liegt ? man hört ja da gar nichts mehr, vom gf108 kam ja wenigsten ne info wegen tapeout .. was eigentlich schade ist wenn das paket passender und besser ist als die 5830 murkskarte ..

Wie ich schon vor einigen Seiten sagte klingt es verdammt merkwuerdig dass NV angeblich den 108 und nicht den 104 vorgezogen hat. Ja fuer den angeblichen 108 tape out kam die Info von Charlie; und wer garantiert mir dass er den 104 tape out Anfang des Jahres nicht verpasst hat?

vielleicht ist die gf104 zu gut so das nv erstmal die nicht so tollen gesamtpakete 470 und 480 los werden will

GF104 ist kein high end chip. Wenn alle bisherigen Infos stimmen handelt es sich um ein 8SM chip. Wieso soll NV GF100 loswerden wollen? Sie werden einfach hoechstwahrscheinlich sorgen dass sich der Stromverbrauch und vielleicht etwas die Frequenzen mit dem re-spin verbessern.

Eggcake
2010-03-19, 10:31:53
Oder weil es schlicht nicht gestimmt hat.

Ja, oder das. ;)

Gast
2010-03-19, 10:32:04
Eine Frage zur GTX 480: Wieso packt Zotac da eine Maus für fast 60€ dazu?

MiamiNice
2010-03-19, 10:35:53
Das würde mich auch interessieren. Finde ich total sinnlos. Jeder Käufer einer solchen Karte hat sicherlich eine gute Maus @ home. Und Razormäuse sind eh nicht so das wahre zum zoggen.

JaDz
2010-03-19, 10:36:56
Warum nicht? Andere packen Games dazu, Zotac eben Hardware.

Gast
2010-03-19, 10:38:38
Was kostet die anderen aber so ein Spiel? Solche Lizenzen gibts doch zum Schnäppchenpreis, vor allem wenn die Hersteller die CDs wahrscheinlich noch selber brennen oder nur Gutscheine zum download anbieten. Bei Razer gibts bestimmt auch einen Mengenrabatt, aber der wird kaum so hoch sein...

Ailuros
2010-03-19, 10:38:52
Eine Frage zur GTX 480: Wieso packt Zotac da eine Maus für fast 60€ dazu?

Weil NVIDIA jeglicher GF100 chip mehr als 2x Mal so viel wie ein Cypress in der Herstellung kostet und sie pro verkaufter 480 oder 470 mir nichts dir nichts so hohe wie moeglich rote Zahlen sehen will [/Sarkasmus Ende]

Gast
2010-03-19, 10:43:06
Eine Frage zur GTX 480: Wieso packt Zotac da eine Maus für fast 60€ dazu?

sagte ich ja bereits, ein "Trostpflaster"

Andere Hersteller werden sogar soweit gehen und einen Flachmann dazupacken
damit man sich den Frust über das schlechte P/L Verhältnis wegsaufen kann

Prost!

Gast
2010-03-19, 10:43:19
http://forums.vr-zone.com/7790889-post30.html


Solange sich die SP Angaben jeden Tag aufs neue ändern, ist noch nichts klar.

Gast
2010-03-19, 10:48:24
Ich kann das nicht ;D

Dann verlang es auch nicht von anderen.

MiamiNice
2010-03-19, 10:49:22
Warum nicht? Andere packen Games dazu, Zotac eben Hardware.

Könne ja gerne Hardware dazu legen, aber eine Maus? Wer eine 300€ + Karte kauft, hat sicherlich keinen 20€ Nager @ home. Ich fände eine Zugabe in Form eines Strommessgerät oder so ganz funny ^^

Gast
2010-03-19, 10:50:19
Weil NVIDIA jeglicher GF100 chip mehr als 2x Mal so viel wie ein Cypress in der Herstellung kostet und sie pro verkaufter 480 oder 470 mir nichts dir nichts so hohe wie moeglich rote Zahlen sehen will [/Sarkasmus Ende]

Danke, jetzt hab ichs verstanden. Klingt plausibel :D

Gast
2010-03-19, 10:51:56
DDR5 verbraucht schon wesentlich mehr , man siehe allein den Verbrauch der alten 4870 wo man 30 Watt spart nur durch Taktsenkung von 900 auf 150Mhz, jetzt rechne das mal auf auf den doppelten Speicher von 2GB. Da haste dann deinen Mehrverbrauch.


Die Ersparnis liegt aber kaum am Speicher sondern großteils am Controller. Und der ist der selbe, unabhängig vom Speicherausbau.

Gast
2010-03-19, 10:53:04
Bei Galaxy hat man mittlerweile auch die SP-Angaben wieder entfernt:
http://img146.imageshack.us/img146/4288/limg.jpg


Sieht irgendwie stark nach Photoshop aus.

Gast
2010-03-19, 10:54:49
Sieht irgendwie stark nach Photoshop aus.

Gugg ma da, nix Photoshop:

http://www.szgalaxy.com/Fermi/

Gast23
2010-03-19, 10:58:12
Auch wenn Tesselation (noch) nicht so wichtig ist, hat der GF100 auch noch andere stärken.
Destillation heißt das neue Zauberwort.

http://www.bilder-hochladen.net/files/8y3r-e.jpg (http://www.bilder-hochladen.net/files/8y3r-e-jpg-nb.html)
Image: GF100 powered Destillator

Der GF100 Destillator destilliert pro Stunde bis zu einen Liter schwermetall belastetes Wasser zu Wasser in seiner reinsten Form.


Spass beiseite.
Wenn die GTX480 wirklich nur 5 - 10% schneller als eine 5870 sein sollte und dabei knapp 300Watt verbraucht, dann wird sich Nividia Kritik gefallen lassen müssen.
So einen rießen Hype zu machen, um am Ende Wärmedecken zu verkaufen.
Da werden sich die Leute die die ganze Zeit gewartet haben ziemlich verarscht vorkommen.
Nvidia hofft wahrscheinlich dass die Händler den großteil der GF100 Chips loswerden, bevor sich der Staub gelegt hat.
Die Chip in großer Serie zu produzieren macht wohl keinen Sinn.

Aber alles Negatives hat auch was Positives. Wenn Nvidia Marktanteile an AMD verliert, wird Nvidia der Druck wieder Qualität abzuliefern guttun.
Die Zeiten in denen sie einfach einer alten Karte einen neuen Namen geben konnten sind vorbei.

MiamiNice
2010-03-19, 11:02:27
Das Flash auf der Seite ist mal stark.

http://www.abload.de/thumb/fermi396g.jpg (http://www.abload.de/image.php?img=fermi396g.jpg)

Sascha1971
2010-03-19, 11:04:18
http://www.pcgameshardware.de/aid,706260/Geforce-Fermi-GTX-470-und-GTX-480-Alles-zu-GF100-Update-Finale-Specs-geleakt/Grafikkarte/News/

Gast
2010-03-19, 11:04:47
Ist aber woanders abgeschaut:

http://www.abload.de/thumb/fermi_fameoxof.jpg (http://www.abload.de/image.php?img=fermi_fameoxof.jpg)

mapel110
2010-03-19, 11:06:09
http://www.fudzilla.com/content/view/18143/34/
Jetzt sinds wieder 480 Shader-Einheiten. Verdammt. ;(
Aber dafür ist die Taktrate gestiegen. :)

Sascha1971
2010-03-19, 11:07:58
GeForce GTX 480 : 480 SP, 700/1401/1848MHz core/shader/mem, 384-bit, 1536MB, 295W TDP, US$499

GeForce GTX 470 : 448 SP, 607/1215/1674MHz core/shader/mem, 320-bit, 1280MB, 225W TDP, US$349

Ich glaube langsam, das die 480er wirklich nicht der Hit sein wird :frown:

Gast
2010-03-19, 11:09:13
Da haben sich einige "Experten" mal wieder zu weit aus dem Fenster gelehnt mit den 512 SP.

Grestorn
2010-03-19, 11:11:49
Woher soll denn da bitte der massiv höhere TDP kommen? Von den etwa 10% mehr Takt?

Botcruscher
2010-03-19, 11:13:14
Alles ist noch drin, alles noch offen. Wer bietet mehr.

Eigentlich müsste in China doch schon lange eine vom Band gefallen sein.

Gast
2010-03-19, 11:13:38
Mehr Shader, mehr RAM und mehr Spannung nötig, um die 700 MHz stabil zu halten = mehr Verbrauch !?

Grestorn
2010-03-19, 11:14:58
Mehr Shader, mehr RAM und mehr Spannung nötig, um die 700 MHz stabil zu halten = mehr Verbrauch !?

Deswegen 31% mehr Verbrauch? Unglaubwürdig.

Gast
2010-03-19, 11:15:05
Woher soll denn da bitte der massiv höhere TDP kommen? Von den etwa 10% mehr Takt?


Mehr Takt, mehr Einheiten, mehr Speicher + Interface, mehr Spannung?

Gast
2010-03-19, 11:17:20
70 W TDP bedeutet in der Praxis eher 50 Watt Mehrverbrauch. Warum sollte das unrealistisch sein?

Zauberer
2010-03-19, 11:20:42
Kann auch sein, dass sies schlicht entfernen mussten/man sie darauf aufmerksam gemacht hat.
Denke ich auch.
Das die Karten längst produziert werden ist nun mal Fakt.
Darum muss der Hersteller die genauen Spezifikationen wissen.

Evtl. dachte da jemand es fallen nur die Taktraten unter NDA, die Speichergröße steht ja nicht unter NDA, das Speicherinterface auch nicht.

Allerdings hatte NVidia wohl was dagegen, darum mussten sie das wieder entfernen.

Ich gehe von 512 SP aus, weil es kein Sinn macht, weil sonst hätten Sie die Angaben korrigiert, wenn sie falsch wären.
Sie wurden aber gestrichen, darum kann es nur mit dem NDA zu tun haben.

Es sickert nichts durch, darum kann man diese sicker Quellen in die Tonne treten.

Was bei Galaxy passiert ist, war ein Leak durch einen Fehler und nicht durch die Sickergrube.

Gast
2010-03-19, 11:25:52
Deswegen 31% mehr Verbrauch? Unglaubwürdig.

Die Spannung fließt exponentiell in den Verbrauch ein, der Takt linear. Die GTX480 hat mehr Chip- und Speichertakt, damit höchstwahrscheinlich mehr Spannung auf Chip und Speicher, mehr Speicherchips, mehr Einheiten. Zudem deutlich mehr Spannungswandler, die verbraten auch einiges. Ich halte das nicht für unglaubwürdig.

Gast
2010-03-19, 11:27:15
Mehr Takt, mehr Einheiten, mehr Speicher + Interface, mehr Spannung?

Durch die die höhere Abwärme steigt der Energiebedarf wohl auch nochmal leicht an. Vielleicht haben sie sicherheitshalber die Spannung erhöht, damit die Karten stabil laufen. Möglich dass man mit Grafikkarten BIOS-Voltmods den Stromverbrauch bei einigen karten senken kann. Nvidia gibt ja an dass man die Spannung angeblich im laufenden Betrieb ohne BIOS-Update ändern kann.
Viel Hoffnung dass es deutlich weniger als 300Watt sein werden sollte man sich nicht machen, sie haben nicht aus Mangel an langsameren Lüftern einen 20Watt Lüfter verbraucht. Da kommt in Spielen auch ohne Soundkarte richtiges Rennfeeling auf.

Ailuros
2010-03-19, 11:28:41
250W TDP fuer die GTX480 gerade von NV direkt bestaetigt. Frequenzen wurden tatsaechlich auf 700/1400 reduziert um von den vorigen 275 auf 250W TDP zu kommen.

igg
2010-03-19, 11:33:23
Das wundert mich, hätte jetzt erwartet, dass die GTX480 auf Leistung getrimmt wird um vielleicht doch noch die 5970 (oder wie auch immer die ATI X2 heißt) mit nur 20 % Abstand anzugreifen...

Gast
2010-03-19, 11:34:08
Denke ich auch.
Das die Karten längst produziert werden ist nun mal Fakt.
Darum muss der Hersteller die genauen Spezifikationen wissen.

--- schnipp schnapp ---

Was bei Galaxy passiert ist, war ein Leak durch einen Fehler und nicht durch die Sickergrube.

Stimmt, ist alles ne Krasse NDA, weil sie sonst ein Nvidia Roundhouse kick den AIB aus den Latschen haut ... nicht.
Dein Post ist mehr Wunschdenken als alles andere; nicht das die Leaks oder "Lügen" nun alle Wahr sein müssen, jedoch alles was auf das kommende hinweist als Falsch abzutun, nur weil es einem nicht in den Kram passt, anderes jedoch hoch zu jubeln, was einem gefällt, obwohl es auch ähnlichen / den gleichen Quellen stammt, ist Träumerei.

Gugg ma da, nix Photoshop:

http://www.szgalaxy.com/Fermi/

Stimmt, das ist so billig gemacht, das hätte auch Paint sein können.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7913608&postcount=16022
Guck doch mal genau hin, die haben einfach irgend ne kleine Fläche kopiert und mit paste die erste Zeile 'über klebt'.

LovesuckZ
2010-03-19, 11:35:12
Das wundert mich, hätte jetzt erwartet, dass die GTX480 auf Leistung getrimmt wird um vielleicht doch noch die 5970 (oder wie auch immer die ATI X2 heißt) mit nur 20 % Abstand anzugreifen...

Speed heißt immer auch schlechte Ausbeute. Eine wesentlich bessere verfügbare GTX480 bringt mehr als eine konkurrenzfähige 5970 Konkurrenzkarte, die es kaum zu kaufen gibt.

Gast
2010-03-19, 11:35:53
250W TDP fuer die GTX480 gerade von NV direkt bestaetigt. Frequenzen wurden tatsaechlich auf 700/1400 reduziert um von den vorigen 275 auf 250W TDP zu kommen.

Und du glaubst das sie dir die Wahrheit sagen? 512SPs?

Gast
2010-03-19, 11:37:07
Guck doch mal genau hin, die haben einfach irgend ne kleine Fläche kopiert und mit paste die erste Zeile 'über klebt'.

LOL, jetzt wo du es sagst, fällts mir auch auf ;) Da sind ja echte Profis am Werk, Respekt!

Ailuros
2010-03-19, 11:38:00
Das wundert mich, hätte jetzt erwartet, dass die GTX480 auf Leistung getrimmt wird um vielleicht doch noch die 5970 (oder wie auch immer die ATI X2 heißt) mit nur 20 % Abstand anzugreifen...

Wenn Du auf die Datenbank zurueckgreifst kannst Du leicht sehen wie oft ich in der Vergangenheit darauf bestanden habe dass NV nicht vorhat gewisse Stromverbrauchs-Barrieren um nennenswerte Prozentuale zu brechen. Ihr Ziel war stets sich nicht zu weit von GT200 Stromverbrauchswerten abzusetzen.

Gast
2010-03-19, 11:38:50
Das wundert mich, hätte jetzt erwartet, dass die GTX480 auf Leistung getrimmt wird um vielleicht doch noch die 5970 (oder wie auch immer die ATI X2 heißt) mit nur 20 % Abstand anzugreifen...

Wenn man die 5970 ohnehin nicht erreicht ist es allemal besser die 5870 ins Visier zu nehmen und zumindest gegen diese sehr konkurrenzfähig zu sein. Eine GTX480 zwischen 5970 und 5870 bei 300W wäre sicherlich ein weniger attraktives Angebot als wenn man mit vielleicht 10% weniger Leistung bei deutlich niedrigen 250W bleiben kann.

Gast23
2010-03-19, 11:40:08
Das wundert mich, hätte jetzt erwartet, dass die GTX480 auf Leistung getrimmt wird um vielleicht doch noch die 5970 (oder wie auch immer die ATI X2 heißt) mit nur 20 % Abstand anzugreifen...

Wenn es "nur" 250Watt sind hätte man ja noch Spielraum die Karte zu übertakten. Vielleicht will Nvidia ihren Boardpartnern die Möglichkeit OC Karten zu höheren Preisen anzubieten. Mit dem 50Watt Spielraum könnte es möglich sein eine GTX480 um 20% zu übertakten.

Ailuros
2010-03-19, 11:40:46
Und du glaubst das sie dir die Wahrheit sagen? 512SPs?

Ich bin mir zu 100%. Mit NV sind es 3 Quellen bis jetzt. http://www.fudzilla.com/content/view/18143/34/

urfaust
2010-03-19, 11:44:02
wenn es tatsächlich 512 sind, wie sich alle erhoffen, warum dann die
Geheimniskrämerei? Mit den magischen 512 könnte nVidia die Leute (potentielle Käufer einer 58xx!) bis zum Launch bei der Stange halten.

Meine Therorie: es sind tatsächlich 480 und nVidia befürchtet, dass wenn das
jetzt bereits bekannt wäre potentielle Interessenten abspringen und zu Ati
überlaufen. So hofft man, dass beim Launch der Oho-Aha-Effekt dermaßen groß ist, dass die Shaderanzahl zur Belanglosigkeit verpufft.

Erst gestern berichteten wir über neue einzelne Details zu NVIDIAs GeForce GTX 480. Im Vorfeld des Launchs von NVIDIAs ersten DirectX-11-Grafikkarten GTX 470 und GTX 480 scheint die Informationsblockade der Kalifornier nun zunehmend zu bröckeln. Die Kollegen von vr-zone.com behaupten jetzt, dass ihnen die finalen Spezifikationen von NVIDIAs ersten DirectX-11-Karten in die Hände geraten sind.

Demnach wurde die Anzahl der Shadereinheiten bei der GTX 480 wirklich reduziert, statt 512 sollen es nur noch 480 Shadereinheiten sein. 1536 MB GDDR5-Speicher werden über ein 384-Bit-Speicherinterface adressiert. Die Karte soll mit 700/1401/1848 MHz (GPU/Shader/Speicher) takten. Die TDP liegt tatsächlich noch unter 300 Watt - nämlich bei 295 Watt. Beim Preis wird von 499 Dollar ausgegangen. Wir berichteten die Tage bereits über einen mutmaßlichen Euro-Preis von etwa 450 Euro.

Das kleiner Modell, die GTX 470, soll über 448 Shadereinheiten verfügen. 1280 MB Speicher werden hier über ein 320-Bit-Speicherinterface adressiert. Die TDP liegt mit 225 Watt deutlich unter den 295 Watt der GTX 480. Die Taktraten schließlich werden mit 607/1215/1674 MHz (GPU/Shader/Speicher) angegeben. Als Preis für die GTX 470 werden 349 Dollar gehandelt - wir berichteten bereit über einen mutmaßlichen Euro-Preis in gleicher Höhe.

Die Rahmendaten nochmals in tabellarischer Form:

GTX 480 | GTX 470
Shader 480 | 448
Speichermenge 1536 MB | 1280 MB
Speicherinterface 384 Bit | 320 Bit
GPU-Takt 700 | 607
Speicher-Takt 1848 | 1674
Shader-Takt 1401 | 1215
TDP 295 W | 225 W
Preis 499 Dollar | 349 Dollar

LovesuckZ
2010-03-19, 11:45:40
Macht Sinn: Also ich kaufe mir nur Grafikkarten nach den SP Anzahl. Und eine moderne Karte muss mindesten 512 haben. Besser sind aber > 1400SP. :lol:

Sry, aber das ist unsinn.

Nakai
2010-03-19, 11:46:58
Wenn GTX480 nur 480SPs hat, dann wird eine mögliche GTX485 wohl alle 512SPs haben.
Eine GTX475 hat dann wohl 480SPs.
Das kommt dann wohl alles mit dem Refresh oder einem neuen Stepping(B1?).

Speed heißt immer auch schlechte Ausbeute. Eine wesentlich bessere verfügbare GTX480 bringt mehr als eine konkurrenzfähige 5970 Konkurrenzkarte, die es kaum zu kaufen gibt.

Die Kosten sind gleich hoch, die Unkosten sind nur geringer. NV muss mit Fermi einen Abstand bringen der hoch genug ist um Aufsehen zu erregen, aber er darf nicht zu gering sein, da die Karte sonst keine Berechtigung hat.

Und hier is der Punkt. Mindestens 25% Abstand für die GTX480 zur HD5870, dann ist eine GTX470 etwa auf HD5870-Niveau.
Damit wäre die GTX480 etwa 70% schneller als die GTX285 und etwas über GTX295-Niveau.


mfg

Ailuros
2010-03-19, 11:47:56
Ich schliesse momentan die 15SMs fuer die 480 nicht mehr aus. Wie dem auch sei beeinflusst die Deaktivierung eines SMs sehr wenig bis gar nicht den Stromverbrauch. Originaler TDP bei leicht hoeheren Frequenzen war tatsaechlich bei 275W und sank jetzt auf 250W mit 700/1400/900+

Nighthawk13
2010-03-19, 11:48:06
Ist die Länge der GTX480 eigentlich noch 267mm mit dem neuen Kühler?
(Hintergrund: Hab ein Case wo eine GTX285 genau reinpasst, mit 2mm Abstand zum vorderen Gehäuselüfter)

aths
2010-03-19, 11:48:27
Nvidia Partner Zotac hat Fermi auch schon verpakt.Zotac hat schon Boxen, aber noch keine Karten.

LovesuckZ
2010-03-19, 11:52:05
Ist die Länge der GTX480 eigentlich noch 267mm mit dem neuen Kühler?
(Hintergrund: Hab ein Case wo eine GTX285 genau reinpasst, mit 2mm Abstand zum vorderen Gehäuselüfter)

10,5" für die GTX480 und 9,5" für die GTX470. Dank geht an Carsten Spille. :)


Die Kosten sind gleich hoch, die Unkosten sind nur geringer. NV muss mit Fermi einen Abstand bringen der hoch genug ist um Aufsehen zu erregen, aber er darf nicht zu gering sein, da die Karte sonst keine Berechtigung hat.

Je strenger die Spezifikation, umso mehr " Ausschuss". Das verringert die möglichen Chips für die GTX480 und lässt somit auch keine entsprechende Verfügbarkeit zu.

mboeller
2010-03-19, 11:53:24
Originaler TDP bei leicht hoeheren Frequenzen war tatsaechlich bei 275W und sank jetzt auf 250W mit 700/1400/900+


"leicht" höhere Frequenzen?

Um wieviel MHz geht es hier?

aths
2010-03-19, 11:56:35
Kann es sein dass man mit einer GTX480 weniger Leistung in alten Spielen hat, als mit einer 9800 GTX?Nein. Maximal die GTX 280 oder 285 könnte in synthetischen Benchmarks die GTX 480 abziehen. Von spielerelevantem Belang ist das aber nicht. GT200 hat praktisch "zu viel" Texelfüllrate: In alten Spielen verpufft sie weil die CPU limitiert (oder man aktiviert Supersampling) und in neuen Spielen limitiert wohl eher die Shader-Power.

Gast
2010-03-19, 11:57:25
Originaler TDP bei leicht hoeheren Frequenzen war tatsaechlich bei 275W und sank jetzt auf 250W mit 700/1400/900+

Also hatte Charly wieder mal recht mit den 275W bis NV gekürzt hat.

Gipsel
2010-03-19, 11:58:54
"leicht" höhere Frequenzen?

Um wieviel MHz geht es hier?
+50MHz hot clock.

LovesuckZ
2010-03-19, 12:00:50
Bei Vr-Zone geht es weiter:

Latest update : TDP lowered to 250W for GTX 480
http://forums.vr-zone.com/7792771-post44.html

Nicht vergessen, die Überschrift bei denen lautet: NVIDIA GeForce GTX 480 Final Specs & Pricing Revealed

aths
2010-03-19, 12:02:18
Generell muss sich bei mir eine neue Graka performance technisch lohnen damit ich zuschlage. Von Ge-Force 3 auf 9700pro war übelst geil und von 6800 Ultra auf 8800 GTX auch nicht schlecht. Und selbst der Umstieg von 8800 GTX auf 280 GTX http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_gtx_280_sli/28/#abschnitt_performancerating_qualitaet hat sich für mich gelohnt. Wenn also die 480 GTX nun ~10% schneller als ne 5870 wäre, dann würde es sich fast doch lohnen von 280 GTX auf 480 GTX oder was meint ihr? :DWenn du warten kannst, warte auf den Refresh. Wenn du nicht warten kann, kaufe so bald wie möglich.

Spasstiger
2010-03-19, 12:06:07
Wenn die GTX 480 mit 480 SPs verkauft, hebt man sich die 512-SP-Chips vielleicht für die Dual-GPU-Variante auf. Da wird man ja zwangsweise einen niedrigen Takt fahren müssen, um die Leistungsaufnahme unter 300 Watt zu bekommen. Vielleicht nur 1000 MHz Hot-Clock. Um den Performanceverlust zu kompensieren, wären die 512 SPs dann sinnvoll (die erhöhen die Leistungsaufnahme nur geringfügig).

BlackBirdSR
2010-03-19, 12:09:44
Wie dem auch sei beeinflusst die Deaktivierung eines SMs sehr wenig bis gar nicht den Stromverbrauch.

Jein,
abhängig davon, ob Nvidia den SM vom Taktsignal und Power trennen kann, können da schon mal gut -+10W Unterschied sein. Und da man ja jetzt extra um 25W gekämpft hat....

StefanV
2010-03-19, 12:10:19
Eine Frage zur GTX 480: Wieso packt Zotac da eine Maus für fast 60€ dazu?
Sicher das die Maus 60€ kostet und nicht z.B. 10€ und im Handel für 60 angeboten wird?!

Vielleicht wirds auch GF100 Pakete mit (750-1kW) Netzteil geben...

Odal
2010-03-19, 12:10:25
GeForce GTX 480 : 480 SP, 700/1401/1848MHz core/shader/mem, 384-bit, 1536MB, 295W TDP, US$499

GeForce GTX 470 : 448 SP, 607/1215/1674MHz core/shader/mem, 320-bit, 1280MB, 225W TDP, US$349

wenn das stimmen sollte klingts nach nem fail

unter 1500 shadertakt bei nur 480SPs ist imho enttäuschend
und gerade auch die GTX470 klingt mit 1200 shadertakt und nur 600Mhz baseclock sehr schwachbrüstig

ich denke immer noch das die GTX480 512SMs haben wird

so kann ich mir nicht vorstellen das sie sich merklich von einer 5870 absetzen könnte

igg
2010-03-19, 12:12:59
neliz geht auch noch von Nicht-480 SP bei der GTX480 aus...

LovesuckZ
2010-03-19, 12:13:55
neliz geht auch noch von Nicht-480 SP bei der GTX480 aus...

Oder man nennt es einfach beim Namen: Niemand weiß etwas. :eek:

Thunder99
2010-03-19, 12:14:16
Tippe eher, WENN es stimmt auf den Refresh, der die 512SPs haben wird. Dadurch könnte sich nvidia mit der Karte (GTX485?) eher von der GTX480 absetzten als "damals" die GTX285 von der GTX280 absetzten konnte

BlackBirdSR
2010-03-19, 12:14:27
wenn das stimmen sollte klingts nach nem fail



Warum Fail?
Die wirklich relevante Karte für die meisten der User ist die 470.
Für einen kleinen Aufpreis bekommt man dann Leistung im Bereich um 5870 + CUDA + PhysX + Nvidia-Rest.

Sobald die Respins und Mainstream-Karten kommen, wird eh alles neu gemischt. Die 5600 und 5700 sind nicht wirklich so schnell.

Gast
2010-03-19, 12:16:14
Wenn die GTX 480 mit 480 SPs verkauft, hebt man sich die 512-SP-Chips vielleicht für die Dual-GPU-Variante auf. Da wird man ja zwangsweise einen niedrigen Takt fahren müssen, um die Leistungsaufnahme unter 300 Watt zu bekommen. Vielleicht nur 1000 MHz Hot-Clock. Um den Performanceverlust zu kompensieren, wären die 512 SPs dann sinnvoll (die erhöhen die Leistungsaufnahme nur geringfügig).

Für eine Dual-GPU müsste man den Verbrauch pro GPU auf unter 150W drücken, IMHO kann man das mit 512SPs vergessen.

Dural
2010-03-19, 12:19:44
wenn man den verbrauch bei Leistung X senken will geht man immer und ohne Ausnahme in die breite und senkt Takt und Spannung, da es der effizientister Weg ist!

hört jetzt entlich mit diesem schwachsinn auf! Wenn man nicht alle SP auffährt hat das genau einen einzigen ursprung: Die Ausbeute an vollen GPUs

Nakai
2010-03-19, 12:20:27
Je strenger die Spezifikation, umso mehr " Ausschuss". Das verringert die möglichen Chips für die GTX480 und lässt somit auch keine entsprechende Verfügbarkeit zu.

Ja, die Kosten sind natürlich schon für jedem Wafer und Chip da. Die Frage ist, wie man diese Chips verkauft. Für ne GTX470 kriegt NV weniger Geld als für ne GTX480.

Ich denke es auch, dass es 480SPs werden, genau aus dem Grund den du angesprochen hast. NV könnte etwas an Performance verlieren, kann aber die Ausbeute erhöhen. Man muss nur schnell genug sein, um die HD5870 einigermaßen zu schlagen. Wenn man das mit 480SPs erreicht, dann wird das auch so gemacht.
Der Chip ist eh schon viel zu komplex.


mfg

X.Perry_Mental
2010-03-19, 12:22:08
Für eine Dual-GPU müsste man den Verbrauch pro GPU auf unter 150W drücken, IMHO kann man das mit 512SPs vergessen.
Warum? Mit einem 512er-Chip würde man für Leistung X weniger Takt und Spannung brauchen als mit einem 480er.

Spasstiger
2010-03-19, 12:22:34
Mit drastisch niedrigeren Taktraten und einer deutlich niedrigeren Spannuing kann man den Verbrauch ganz dramatisch drücken. Mehr Einheiten mit weniger Takt sind immer energieeffizienter als wenig Einheiten mit hohem Takt. Die Deaktivierung von Recheneinheiten ist bei Dual-GPU-Karten nie sinnvoll (wurde von NV auch noch nie gemacht).
Evtl. schwächt NV bewusst das Single-GPU-Segment (nur geringer Vorsprung gegenüber der Konkurrenz), um dafür noch Luft für Dual-GPU-Karten zu haben, die einerseits wieder die Performancekrone an sich reißen und andererseits auch gegenüber den Single-GPU-Karten deutlich schneller sind.

Odal
2010-03-19, 12:23:45
Warum Fail?
Die wirklich relevante Karte für die meisten der User ist die 470.
Für einen kleinen Aufpreis bekommt man dann Leistung im Bereich um 5870 + CUDA + PhysX + Nvidia-Rest.

Sobald die Respins und Mainstream-Karten kommen, wird eh alles neu gemischt. Die 5600 und 5700 sind nicht wirklich so schnell.


weil ich die GTX470 mit 600 base clock und 1200shader clock für zu lahm halte um im schnitt mit der 5870 gleichzuziehen

das die im falle einer GTX480 mit nur 480SPs so niedrig getaktet sein muss ist klar man muss ja irgendwo den abstand wahren

z3ck3
2010-03-19, 12:24:12
Was mich wirklich interessiert wird warscheinlich erst sehr spät veröffentlicht: Die Idle-Stromaufnahme der jeweiligen Karten. Das ist für mich besonders wichtig da ich zwar gerne nen Update für meine 9800 GTX+ hätte aber auch gerne eine Karte hätte die auf dem Desktop wesentlich weniger verbraucht. Grund dafür ist, das ich nur noch ca. 2-5h die Woche spiele, während der restlichen Zeit bin ich meistens mit Musik, Grafik und Programierung beschäftigt. ich finde es auch total unlogisch das die aktuellen Karten solche Stromvergeuder sind. Im 3D-Betrieb ok, das mir schon fast egal, aber nicht auf dem Desktop. Einen Idle-Verbrauch von ca 20 Watt würde ich locker flockig mit nem Aufpreis von 50 Euro bezahlen. Wie wäre es wenn die Herrschaften wieder reine 3D-Beschleuniger rausbringen würden und diese wirklich nur genutzt werden wenn benötigt, wie sie es bei Notebooks schon als machbar vorgeführt haben.

dildo4u
2010-03-19, 12:25:39
weil ich die GTX470 mit 600 base clock und 1200shader clock für zu lahm halte um im schnitt mit der 5870 gleichzuziehen

Kommt immer auch drauf an wie das Treiber Team arbeitet macht ne Menge aus bei der Generation vieleicht mher als vorher hat man erst mit dem Cat 10.3 gesehen.

Ailuros
2010-03-19, 12:28:34
Jein,
abhängig davon, ob Nvidia den SM vom Taktsignal und Power trennen kann, können da schon mal gut -+10W Unterschied sein. Und da man ja jetzt extra um 25W gekämpft hat....

Speichertakt ging IMO von 1050 auf 900+ und der hot clock wurde um 50MHz reduziert.

V2.0
2010-03-19, 12:29:45
Warum Fail?
Die wirklich relevante Karte für die meisten der User ist die 470.
Für einen kleinen Aufpreis bekommt man dann Leistung im Bereich um 5870 + CUDA + PhysX + Nvidia-Rest.

Sobald die Respins und Mainstream-Karten kommen, wird eh alles neu gemischt. Die 5600 und 5700 sind nicht wirklich so schnell.

Ein solche 470 dürfte näher an 5850 als an 5870 liegen und dafür ist der Preis und die TDP zu hoch.

Ailuros
2010-03-19, 12:31:14
15SMs; 16SMs spaeter (re-spin ahoi ergo ~Q3).

Dural
2010-03-19, 12:35:41
Naja GTX280 hatte auch nur 600/1300MHz...

und eine 5850 ist 20% und eine 5870 40% schneller als diese Karte

http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_ati_radeon_hd_5970/18/#abschnitt_performancerating_qualitaet

Oder GTX260 noch weniger takt und da haben die 5850/5870 30 und 60% Vorsprung

Fermi müsste deutlich ineffizeinter als GT200 sein um das nicht raus zu holen...

Gast
2010-03-19, 12:36:53
Warum Fail?
Die wirklich relevante Karte für die meisten der User ist die 470.
Für einen kleinen Aufpreis bekommt man dann Leistung im Bereich um 5870 + CUDA + PhysX + Nvidia-Rest.

Sobald die Respins und Mainstream-Karten kommen, wird eh alles neu gemischt. Die 5600 und 5700 sind nicht wirklich so schnell.

Welcher Nvidia-Rest?
---

Die 5770 sehr wohl. Aktuell etwas vom Besten, was man kaufen kann.
Und wie toll Physx auf GPU ist, sieht man an GPU-hungrigen Games wie Metro 2033. Die pfeifen alleine durch die Grafik bereits aus dem letzten Loch. Daran wird auch Fermi rein gar nichts ändern.

Gast
2010-03-19, 12:39:05
Was habt ihr alle mit eurem Metro 2033? Nur weils relativ gut aussieht? Wenns derselbe Rohrkrepierer ist wie Crysis dann kanns mir gestohlen bleiben.

Spasstiger
2010-03-19, 12:43:17
Naja GTX280 hatte auch nur 600/1300MHz...

und eine 5850 ist 20% und eine 5870 40% schneller als diese Karte

http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_ati_radeon_hd_5970/18/#abschnitt_performancerating_qualitaet
Hier mit aktuelleren Treibern: http://www.computerbase.de/artikel/hardware/grafikkarten/2010/test_ati_radeon_hd_5830/18/#abschnitt_performancerating_qualitaet.
Sind in hohen Einstellungen (2560x1600, 4xAA, 16:1 AF) gegenüber der GTX 285 20% Vorteil bei der HD 5850 und 40% Vorteil bei der HD 5870.
Die GTX 470 wird mit den vermuteten Specs imo 30% schneller als eine GTX 285.

LovesuckZ
2010-03-19, 12:44:47
Hier mit aktuelleren Treibern: http://www.computerbase.de/artikel/hardware/grafikkarten/2010/test_ati_radeon_hd_5830/18/#abschnitt_performancerating_qualitaet.
Sind in hohen Einstellungen (2560x1600, 4xAA, 16:1 AF) gegenüber der GTX 285 20% Vorteil bei der HD 5850 und 40% Vorteil bei der HD 5870.
Die GTX 470 wird mit den vermuteten Specs imo 30% schneller als eine GTX 285.

Erstaunlich, wie man bei sovielen Fragezeichen schon eine endgültige Aussage treffen kann. :D

Dural
2010-03-19, 12:45:12
Hier mit aktuelleren Treibern: http://www.computerbase.de/artikel/hardware/grafikkarten/2010/test_ati_radeon_hd_5830/18/#abschnitt_performancerating_qualitaet.
Sind in hohen Einstellungen (2560x1600, 4xAA, 16:1 AF) gegenüber der GTX 285 20% Vorteil bei der HD 5850 und 40% Vorteil bei der HD 5870.
Die GTX 470 wird mit den vermuteten Specs imo 30% schneller als eine GTX 285.

Zählt nicht da DX11 mit drin ist und da fallen die DX10 Karten ins bodenlose:

http://www.computerbase.de/artikel/hardware/grafikkarten/2010/test_ati_radeon_hd_5830/11/#abschnitt_battleforge

Dimon
2010-03-19, 12:45:40
Wieso ist die 5830 langsamer wie die 4890? Vor allem mit AA/AF

LovesuckZ
2010-03-19, 12:46:56
Wieso ist die 5830 langsamer wie die 4890? Vor allem mit AA/AF

Die Karte hat nur 16 ROPs (rv770 Niveau), statt 32 bei Cypress. Limitiert sehr stark mit AA.

Spasstiger
2010-03-19, 12:48:34
Weil die Pixelfüllrate bei der HD 5830 grottig ist (nur 16 ROPs, Architektur verkrüppelt): http://www.hardware.fr/articles/783-3/preview-radeon-hd-5830.html.

Ailuros
2010-03-19, 12:49:37
Hier mit aktuelleren Treibern: http://www.computerbase.de/artikel/hardware/grafikkarten/2010/test_ati_radeon_hd_5830/18/#abschnitt_performancerating_qualitaet.
Sind in hohen Einstellungen (2560x1600, 4xAA, 16:1 AF) gegenüber der GTX 285 20% Vorteil bei der HD 5850 und 40% Vorteil bei der HD 5870.
Die GTX 470 wird mit den vermuteten Specs imo 30% schneller als eine GTX 285.

Und sofort dreht sich das Blatt seitens NV fans und 8xMSAA Leistung wird auf einmal wichtiger :P

Gast
2010-03-19, 12:49:55
Ist zwar offtopic, aber was hier abläuft ist teilweise echt zum davonlaufen.

Als die neuen ATIs rauskamen haben alle nVidia Fanboys gerufen die Karte ist eine Enttäuschung, kauft nur ATI ihr Unwissenden, in einigen Wochen kommt Fermi und wischt mit ATI den Boden auf

Dann wurde bekannt, dass sich die neuen nVidia Karten verzögern. Macht ja nichts, mischen wir eben erst in ein paar Monaten den Markt auf und zeigen ATI wo der Hammer hängt.

Dann rückt der Termin näher, und es wird bekannt, dass die Karte eventuell doch nicht der Überflieger wird. Auf einmal ist Tessalation ja so super wichtig, da die Karte da voll abgeht, gibt zwar noch keine Titel dafür, aber macht ja nichts, wenn die erst mal kommen, geht die Post ab.

Jetzt hat die Karte wahrscheinlich nur 480SPs. Ist natürlich auch nicht schlimm, alles nur clevere Taktik von nVidia. Die verballern ihr Pulver halt nicht gleich, sondern bringen erst in einem halben Jahr einen Refresh der dann voll abgeht.

Also Leute, geht´s noch. Wartet doch erst mal ab, was jetzt wirklich rauskommt und wenn die Karte nicht so der Knaller wird, geht die Welt auch nicht unter.
Aber wie hier manche eine Firma verteidigen, der es nur darum geht, uns unser sauer verdientes Geld abzuknöpfen (das gilt natürlich genauso für ATI!) ist mir schleierhaft.

Das ist eine Firma und kein Bekannter oder Freund!

mboeller
2010-03-19, 12:50:22
+50MHz hot clock.


50MHz! Das sind ja nur Peanuts. Nvidia ist mit der GTX4x0 also in einen "Powerwall" gelaufen.

Spasstiger
2010-03-19, 12:51:17
Und sofort dreht sich das Blatt seitens NV fans und 8xMSAA Leistung wird auf einmal wichtiger :P

Mit 8xAA dürfte der Vorteil gegeüber der GTX 285 größer als 30% ausfallen, aber das hat ja bislang Niemanden interessiert. ;) Meine 30% beziehen sich auf das Computerbase-Rating in 2560x1600 mit 4xAA. Dort sehe ich die GTX 470 mit 1215 MHz Hot-Clock und 1674 MHz Speichertakt (I/O) 30% vor der GTX 285. Eine GTX 480 mit 480 SPs, 1400 MHz Hot-Clock und 1848 MHz Speichertakt sehe ich dort 60% vor der GTX 285 und 15% vor der HD 5870.

Zählt nicht da DX11 mit drin ist und da fallen die DX10 Karten ins bodenlose:

http://www.computerbase.de/artikel/hardware/grafikkarten/2010/test_ati_radeon_hd_5830/11/#abschnitt_battleforge
Es wäre dumm, Einstellungen zu nutzen, die bei gleicher Optik langsamer sind. DX11-Karten bencht man mit DX11, wenn die Bildqualität gleich bleibt oder sich gar verbessert bei besserer Performance. Die GTX 480 kann auch DX11. Diese wird man genauso mit DX11 benchen und der GTX 285 @ DX10 gegenüberstellen.

mboeller
2010-03-19, 12:53:13
Naja GTX280 hatte auch nur 600/1300MHz...

und eine 5850 ist 20% und eine 5870 40% schneller als diese Karte



Und eine GTX470 ist um 25-30% schneller als diese Karte (wenn man den letzten Gerüchten glauben schenkt)

Und eine GTX480 ist um 45-50% schneller als diese Karte.


Was willst du uns also sagen?

AnarchX
2010-03-19, 13:01:17
Speichertakt ging IMO von 1050 auf 900+
Interessant könnte hier sein, ob man beim 0,4ns Speicher geblieben ist, dann hätte die GTX 480 ein nettes Speicher-OC-Potential.

Und eine GTX470 ist um 25-30% schneller als diese Karte (wenn man den letzten Gerüchten glauben schenkt)

Und eine GTX480 ist um 45-50% schneller als diese Karte.

Laut den aktuellen Spekulationen (VR-Zone) liegen zwischen 470 und 480 +25% Tex/ALU, +30% ROP und +32% Bandbreite. Das sind es ausgehend von GTX 470= 280 +20-30% eher GTX 480 = 280 +50-60% bzw. noch mehr.

grafzahl
2010-03-19, 13:06:39
die geleakten werte von heute sind anscheinend final.

Ailuros
2010-03-19, 13:09:23
480 Shader

Und die geleakten Takte der 480GTX mit 700/1400/900 werden wohl korrekt sein :)

Ja. Reale Frequenzen haben nur winzige Unterschiede.

Dural
2010-03-19, 13:12:05
Ist der Shader FIX mit dem Core takt verbunden? Den bis jetzt war Shader immer 1:2 gegenüber Core, was seltsam ist da man das mit den G8x+ GPUs bis jetzt nicht sah, ALUs waren immer höher getaktet.


Es wäre dumm, Einstellungen zu nutzen, die bei gleicher Optik langsamer sind. DX11-Karten bencht man mit DX11, wenn die Bildqualität gleich bleibt oder sich gar verbessert bei besserer Performance. Die GTX 480 kann auch DX11. Diese wird man genauso mit DX11 benchen und der GTX 285 @ DX10 gegenüberstellen.

Also wie so nimmst du dann die Benchmarks wenn sie ganz offensichtlich gar nicht vergleichbar sind...

Hier geht es ja nicht um DX10 vs DX11

Spasstiger
2010-03-19, 13:13:43
Was heißt nicht vergleichbar? Wieso sollte man die DX11-Karten zu DX10 zwingen, wenn sie das gleiche Resultat unter Nutzung des neuen Featuresets schneller erreichen? Dann müsste man auch CPUs ausschließlich ohne SSE benchen.

Ailuros
2010-03-19, 13:14:50
Mit 8xAA dürfte der Vorteil gegeüber der GTX 285 größer als 30% ausfallen, aber das hat ja bislang Niemanden interessiert. ;) Meine 30% beziehen sich auf das Computerbase-Rating in 2560x1600 mit 4xAA. Dort sehe ich die GTX 470 mit 1215 MHz Hot-Clock und 1674 MHz Speichertakt (I/O) 30% vor der GTX 285. Eine GTX 480 mit 480 SPs, 1400 MHz Hot-Clock und 1848 MHz Speichertakt sehe ich dort 60% vor der GTX 285 und 15% vor der HD 5870.

Du weisst genau dass ich ueber 8xMSAA geulkt habe da es wohl tatsaechlich irgendwann aufkommen wird. Zum Rest willst Du wohl nicht schon jetzt ein Ja oder Nein hoeren oder? Du faellst in die genau gleiche Falle Dich stur auf sterile Zahlen zu beziehen. Kann sein dass es klappt oder eben doch nicht.

Botcruscher
2010-03-19, 13:17:03
15SMs; 16SMs spaeter (re-spin ahoi ergo ~Q3).

Unschön. R900 kommt dann H1 2011 und der Refresh zu RV870 steht mehr oder weniger vor der Tür. Bleibt nur zu Hoffen das NV wenigsten ordentlich liefern kann und TSMC mal aus der Hüfte kommt. Für die Kundschaft ist die geringe Verfügbarkeit auf jeden Fall nicht besonders. Immerhin haben sich die Händler gesund gestoßen. :(

Edit: 2011 nicht 10.

grafzahl
2010-03-19, 13:18:51
Welche Möglichkeiten gibt es heraus zu finden welche SSAA oder MSAA oder wie auch immer Modis die GTX480 beherscht?

Ailuros
2010-03-19, 13:20:51
Unschön. R900 kommt dann H1 2010 und der Refresh zu RV870 steht mehr oder weniger vor der Tür.

Mal sehen ob sich AMD am Ende ueberhaupt einen refresh am Ende antut. Es ist ja nicht so dass 5850/5870 nicht weiterhin extrem konkurrenzfaehig bleiben.

Bleibt nur zu Hoffen das NV wenigsten ordentlich liefern kann und TSMC mal aus der Hüfte kommt. Für die Kundschaft ist die geringe Verfügbarkeit auf jeden Fall nicht besonders. Immerhin haben sich die Händler gesund gestoßen. :(

Vor Q3 wuerde ich keine besonders sehenswerte Verfuegbarkeit von egal was erwarten. Und das koennte sogar Anteil des Grunds sein warum AMD vielleicht ueberhaupt nichts zum RV870 nachladen wird.

Nakai
2010-03-19, 13:24:43
Du weisst genau dass ich ueber 8xMSAA geulkt habe da es wohl tatsaechlich irgendwann aufkommen wird.

Wie war das nochmal bei Heaven, wo die GTX470 unter die HD5850 bei 8xAA gefallen ist?
CSAA wird man wohl ziemlich gepusht haben.

R900 kommt dann H1 2011 und der Refresh zu RV870 steht mehr oder weniger vor der Tür.

R900 kommt nicht so bald und der RV870-Refresh wird auch nicht soviel Leistung bringen. NV muss aber Fermi endlich rausbringen. Er ist wohl deutlich teuerer als die Konkurrenz, aber voll und ganz konkurrenzfähig. Das einzige was NV verpasst hat, ist Chips unter den Mann zu kriegen.

Mal sehen ob sich AMD am Ende ueberhaupt einen refresh am Ende antut. Es ist ja nicht so dass 5850/5870 nicht weiterhin extrem konkurrenzfaehig bleiben.

Entweder macht mans wie bei RV790 mit evtl ein paar Einheiten mehr oder es geht in die Richtung Kosteneinsparung.



mfg

Gast
2010-03-19, 13:25:38
Was mich wirklich interessiert wird warscheinlich erst sehr spät veröffentlicht: Die Idle-Stromaufnahme der jeweiligen Karten. Das ist für mich besonders wichtig da ich zwar gerne nen Update für meine 9800 GTX+ hätte aber auch gerne eine Karte hätte die auf dem Desktop wesentlich weniger verbraucht. Grund dafür ist, das ich nur noch ca. 2-5h die Woche spiele, während der restlichen Zeit bin ich meistens mit Musik, Grafik und Programierung beschäftigt. ich finde es auch total unlogisch das die aktuellen Karten solche Stromvergeuder sind. Im 3D-Betrieb ok, das mir schon fast egal, aber nicht auf dem Desktop. Einen Idle-Verbrauch von ca 20 Watt würde ich locker flockig mit nem Aufpreis von 50 Euro bezahlen. Wie wäre es wenn die Herrschaften wieder reine 3D-Beschleuniger rausbringen würden und diese wirklich nur genutzt werden wenn benötigt, wie sie es bei Notebooks schon als machbar vorgeführt haben.

Du kannst ja mit Rivatuner ein Profile für 2D mit minimalen Taktraten und 3D Profile mit normalen und maximalen Taktraten erstellen. Das Spart schon etwas Strom.
Aber allein für 10Watt weniger Idleverbrauch lohnt es sich nicht eine neue Karte zu kaufen, selbst wenn der Rechner 12 Stunden am Tag läuft.
Bei einem Preis von 0,20€ pro Kilowattstunde wären das bei 12Stunden Laufzeit pro Tag 8,76€ im Jahr an Stromkosten.

Dural
2010-03-19, 13:25:59
Was heißt nicht vergleichbar? Wieso sollte man die DX11-Karten zu DX10 zwingen, wenn sie das gleiche Resultat unter Nutzung des neuen Featuresets schneller erreichen? Dann müsste man auch CPUs ausschließlich ohne SSE benchen.

Du gehst von 30% + bei GTX285 vs GTX470 inkl. DX11 PLUS aus?

Das würde bei reiner DX10 Anwendung 10-20% bedeuten, jedenfalls so wie cb bencht ca.

Gast
2010-03-19, 13:26:42
Aber allein für 10Watt weniger Idleverbrauch lohnt es sich nicht eine neue Karte zu kaufen, selbst wenn der Rechner 12 Stunden am Tag läuft.
Bei einem Preis von 0,20€ pro Kilowattstunde wären das bei 12Stunden Laufzeit pro Tag 8,76€ im Jahr an Stromkosten.

Nicht zu vergessen, was die Produktion der neuen Karte an Energiekosten verschlingt ;)

Gast
2010-03-19, 13:27:41
Wie war das nochmal bei Heaven, wo die GTX470 unter die HD5850 bei 8xAA gefallen ist?
CSAA wird man wohl ziemlich gepusht haben.



R900 kommt nicht so bald und der RV870-Refresh wird auch nicht soviel Leistung bringen. NV muss aber Fermi endlich rausbringen. Er ist wohl deutlich teuerer als die Konkurrenz, aber voll und ganz konkurrenzfähig. Das einzige was NV verpasst hat, ist Chips unter den Mann zu kriegen.


mfg

Nicht nur Teurer auch Stromhungriger GTX480TDP= HD5970
Das wird nicht einfach für NV wenn VR-Zone mit den 10-15% über HD5870 richtig liegt.

tombman
2010-03-19, 13:30:11
Um nen ordentlichen Bums zu fühlen, wird man wohl 3x GTX480 nehmen müssen...

Erstaunlich wie schwer es nach über 1 Jahr immer noch ist, die GTX295 zu hauen :)

Dural
2010-03-19, 13:31:26
die wird schon lange von einer GTX285 @ 800MHz verhauen ;)

Spasstiger
2010-03-19, 13:32:28
Das würde bei reiner DX10 Anwendung 10-20% bedeuten, jedenfalls so wie cb bencht ca.
Könnte schon hier und da passieren mit nur 4xMSAA. Die GTX 470 hat ungefähr die gleiche Speicherbandbreite wie die GTX 285, 1/3 weniger Texelfüllrate (aber mit verbesserter Effizienz) und theoretisch auch nur geringfügig mehr Rechenleistung als die GTX 285. Die reine MADD- bzw. FMA-Rechenleistung (ohne das MUL des GT200) liegt um 50% höher. Ohne die Stärken der neuen Architektur zu nutzen (DX11, 8xMSAA) wird wohl nicht viel Vorsprung vor der GTX 285 übrig bleiben.

Ailuros
2010-03-19, 13:33:28
Wie war das nochmal bei Heaven, wo die GTX470 unter die HD5850 bei 8xAA gefallen ist?
CSAA wird man wohl ziemlich gepusht haben.

Eine Indizie mit Treibern die hoechstwahrscheinlich nicht zum launch benutzt werden. Was soll es mir genau sagen? Koennte kinderleicht irgend ein Treiberbug oder Blase sein.

R900 kommt nicht so bald und der RV870-Refresh wird auch nicht soviel Leistung bringen. NV muss aber Fermi endlich rausbringen. Er ist wohl deutlich teuerer als die Konkurrenz, aber voll und ganz konkurrenzfähig. Das einzige was NV verpasst hat, ist Chips unter den Mann zu kriegen.

Wenn AMD den Refresh immer noch plant und meine bisherigen hints stimmen, dann kannst Du mehr Leistung von einer "5890" erwarten als von einer 4890 im Vergleich zur 4870.

Entweder macht mans wie bei RV790 mit evtl ein paar Einheiten mehr oder es geht in die Richtung Kosteneinsparung.
mfg

Mehr clusters + leicht hoehere Frequenz nach Geruechten.

tombman
2010-03-19, 13:34:02
die wird schon lange von einer GTX285 @ 800MHz verhauen ;)
Auch eine 295er kann man ocen, sogar sehr gut :rolleyes:

Es gibt immer noch keinen single chip, der sich deutlich vor die 295er setzen kann :eek:

Dural
2010-03-19, 13:36:00
;)

Könnte schon hier und da passieren mit nur 4xMSAA. Die GTX 470 hat ungefähr die gleiche Speicherbandbreite wie die GTX 285, 1/3 weniger Texelfüllrate (aber mit verbesserter Effizienz) und theoretisch auch nur geringfügig mehr Rechenleistung als die GTX 285. Die reine MADD- bzw. FMA-Rechenleistung (ohne das MUL des GT200) liegt um 50% höher. Ohne die Stärken der neuen Architektur zu nutzen (DX11, 8xMSAA) wird wohl nicht viel Vorsprung vor der GTX 285 übrig bleiben.

Es steht aber die Aussage im Raum das der GF104 als GT200 ersatz kommt und der soll so ausschauen: 256SP / 32TMUs / 24 oder 32ROPs

Ailuros
2010-03-19, 13:36:31
Könnte schon hier und da passieren mit nur 4xMSAA. Die GTX 470 hat ungefähr die gleiche Speicherbandbreite wie die GTX 285, 1/3 weniger Texelfüllrate (aber mit verbesserter Effizienz) und theoretisch auch nur geringfügig mehr Rechenleistung als die GTX 285. Die reine MADD- bzw. FMA-Rechenleistung (ohne das MUL des GT200) liegt um 50% höher. Ohne die Stärken der neuen Architektur zu nutzen (DX11, 8xMSAA) wird wohl nicht viel Vorsprung vor der GTX 285 übrig bleiben.

Einfaches Gegenbeispiel: und wie sieht es in den paar Spielen aus wo z.B. das trisetup limitiert?

Spasstiger
2010-03-19, 13:38:36
Crysis z.B. mit seinen bis zu 3 Mio. Dreiecken pro Frame? Warten auf Benchmarks würde ich sagen. ;)

@Dural: Ich gehe davon aus, dass der GT104 in der leistungsstärksten Variante deutlich höher takten wird. Vielleicht 1600 MHz Hot-Clock, dazu GDDR5 mit 1200 MHz (4,8 Gbps). Die GTX 470 hat ja nur 1215 MHz Hot-Clock und 837 MHz Speichertakt (3,35 Gbps).

Gast
2010-03-19, 13:42:33
Crysis z.B. mit seinen bis zu 3 Mio. Dreiecken pro Frame? Warten auf Benchmarks würde ich sagen. ;)

Hier scheinen alle den ganzen Tag nur Crysis und Metro zu spielen...

Nakai
2010-03-19, 13:42:58
Nicht nur Teurer auch Stromhungriger GTX480TDP= HD5970
Das wird nicht einfach für NV wenn VR-Zone mit den 10-15% über HD5870 richtig liegt.

Sie muss schneller sein, als 10%. Was anderes wäre für NV untypisch.
Die Karte wäre bei einer geringen Leistungssteigerung eh nicht notwendig.

Eine Indizie mit Treibern die hoechstwahrscheinlich nicht zum launch benutzt werden. Was soll es mir genau sagen? Koennte kinderleicht irgend ein Treiberbug oder Blase sein.


Abwarten. Wenn NV sich nicht vollkommen auf CSAA verlässt.

Wenn AMD den Refresh immer noch plant und meine bisherigen hints stimmen, dann kannst Du mehr Leistung von einer "5890" erwarten als von einer 4890 im Vergleich zur 4870.


Wenn AMD schon weit bei der Entwicklung ist, dann kommt der Refresh. Wenn Fermi schwach wird, dann kommt ne hochgetaktete HD5890. Dann kommt es nich drauf an, wieviel AMD weiß.

Mehr clusters + leicht hoehere Frequenz nach Geruechten.

Für einen Performancechip ist der RV870 schon groß genug. Noch viel größer kann ich mir kaum vorstellen.


mfg

Gast
2010-03-19, 13:43:28
;)



Es steht aber die Aussage im Raum das der GF104 als GT200 ersatz kommt und der soll so ausschauen: 256SP / 32TMUs / 24 oder 32ROPs

Dann müsste der GF104 sich aber massiv übertakten lassen, sonst wär das keine Verbesserung zum GT200.

mapel110
2010-03-19, 13:53:57
Vom GF104 würde ich auf jeden Fall erstmal deutlich weniger Leistung als von einer 470er erwarten. Daher ist die Karte doch schon uninteressant für GTX260/275/285-Besitzer.

Gast
2010-03-19, 13:54:59
eine Frage

warum schenkt NV und die Bencher soviel Ausmerksamkeit dem 8xAA Modus?
Das hat doch kaum jemand benutzt,die Masse benutzt 4xAA und optisch gibs kaum Unterschiede.Also warum sollten die Leute dann auf 8xAA wechseln?

Gast
2010-03-19, 13:55:14
Der GF100 ist fürs Prestige, die kleineren Derivate fürs Geldverdienen unter anderem im OEM Markt.

V2.0
2010-03-19, 14:00:00
Vom GF104 würde ich auf jeden Fall erstmal deutlich weniger Leistung als von einer 470er erwarten. Daher ist die Karte doch schon uninteressant für GTX260/275/285-Besitzer.
Nicht aber für die G92 Aufrüster.

Gast
2010-03-19, 14:02:42
Wenn der Preis (<150 Euro) für den GT104 mit maximalen Einheiten stimmt und die Karte weniger Strom verbraucht als eine 260GTX, würde ich vielleicht von meiner 9800GT wechseln. Na erstmal kommt der Frühling und Sommer.

Ailuros
2010-03-19, 14:03:26
Crysis z.B. mit seinen bis zu 3 Mio. Dreiecken pro Frame? Warten auf Benchmarks würde ich sagen. ;)

Weit einfacheres Zeug; wir reden nochmal darueber nach dem Launch.

@Dural: Ich gehe davon aus, dass der GT104 in der leistungsstärksten Variante deutlich höher takten wird. Vielleicht 1600 MHz Hot-Clock, dazu GDDR5 mit 1200 MHz (4,8 Gbps). Die GTX 470 hat ja nur 1215 MHz Hot-Clock und 837 MHz Speichertakt (3,35 Gbps).

Wenn sich nichts in der letzten Minute aendern wird, dann hoechstwahrscheinlich 256@1.5GHz, 256bit mit der zweiten kastrierten 192/192 Variante weiter unten.

Gast
2010-03-19, 14:11:25
Nein. Maximal die GTX 280 oder 285 könnte in synthetischen Benchmarks die GTX 480 abziehen. Von spielerelevantem Belang ist das aber nicht. GT200 hat praktisch "zu viel" Texelfüllrate:

Bilinear vielleicht, mit 16x HQ-Tri-AF sicher nicht.

Gast
2010-03-19, 14:17:48
Daran wird auch Fermi rein gar nichts ändern.

Doch, Fermi ist nämlich gerade dann deutlich schneller, wenn er PhysX+Grafik nebeneinander berechnen muss.

Außerdem werden bei Metro auch heutige GPUs von PhysX kaum gefordert.

AMC
2010-03-19, 14:20:29
Auch eine 295er kann man ocen, sogar sehr gut :rolleyes:

Es gibt immer noch keinen single chip, der sich deutlich vor die 295er setzen kann :eek:

HD5870. :rolleyes:

dildo4u
2010-03-19, 14:23:17
HD5870. :rolleyes:
Nicht mal in den rotesten Test's die du finden kannst.

Gast
2010-03-19, 14:24:24
Ist der Shader FIX mit dem Core takt verbunden? Den bis jetzt war Shader immer 1:2 gegenüber Core, was seltsam ist da man das mit den G8x+ GPUs bis jetzt nicht sah, ALUs waren immer höher getaktet.


Bisher musste der Shadertakt immer mindestens 2-fachen Coretakt haben, nach oben hin offen.

Falls das beim Fermi immer noch zutrifft könnte es sein, dass man den Shadertakt einfach nicht höher bekommt und deshalb mit dem Coretakt auf Shadertakt/2 limitiert ist.

urfaust
2010-03-19, 14:29:45
Nicht mal in den rotesten Test's die du finden kannst.

http://www.grafikkarten.org/showthread.php?t=38968


je nach Spiel/Auflösung/AA Modi zieht die GTX295 den kürzeren

Gast
2010-03-19, 14:30:48
Wie war das nochmal bei Heaven, wo die GTX470 unter die HD5850 bei 8xAA gefallen ist?
CSAA wird man wohl ziemlich gepusht haben.

Mal nachdenken was MSAA macht: Es glättet Polygonkanten.

Was passiert nun wenn wir extrem viele Polygone haben? Nunja, dann haben wir auch extrem viele Polygonkanten. MSAA muss also statt nur wenige, sehr viele Pixel bearbeiten. Damit sinkt natürlich der Vorsprung gegenüber SSAA.
Offenbar limitiert beim Heaven-Benchmark mit 8xMSAA nicht mehr die Tesselationsleistung sondern die Pixelleistung.
Damit kann Fermi seinen tollen Vorsprung bei der Tesselation natürlich nicht mehr ausspielen und GTX470 und 5870 sind logischerweise annähernd gleich auf, wie man es ja auch in "normalen" Spielen erwartet.

dildo4u
2010-03-19, 14:31:10
http://www.grafikkarten.org/showthread.php?t=38968


je nach Spiel/Auflösung/AA Modi zieht die GTX295 den kürzeren
Wenn man den Speicher überlädt ja ansonsten nö.

RoNsOn Xs
2010-03-19, 14:31:10
Dural? Dural, wo ist mein liebling?
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7747548#post7747548
Dafür habe ich nun als Laie nicht mal ne Glaskugel gebraucht. :biggrin:

Dural
2010-03-19, 14:33:58
Meine 80% könnten recht gut zutreffen von GTX280 auf vollen GF100 ausgesehen... tja...

Bisher musste der Shadertakt immer mindestens 2-fachen Coretakt haben, nach oben hin offen.


Jep das ist so.


Falls das beim Fermi immer noch zutrifft könnte es sein, dass man den Shadertakt einfach nicht höher bekommt und deshalb mit dem Coretakt auf Shadertakt/2 limitiert ist.


Genau deshalb hab ich auch gefragt ;)

derguru
2010-03-19, 14:38:29
xfx 480;)
http://www.abload.de/img/xfxgtx480_2_dh_fx57a1apnz.jpg

http://www.abload.de/img/xfx_05wr3j.jpg
Quelle (http://www.expreview.com/9888.html)

LovesuckZ
2010-03-19, 14:42:42
Verkehrte Welt. Mit dem GT200 konnte nVidia nur Bandbreite und Pixelfüllrate gegenüber G92b deutlich erhöhen. Mit GF100 erhöhen sie jetzt die Rechenleistung deutlich und opfern dafür die Texturleistung. Die GTX470 mit 448SP@1200MHz 51% mehr MADD-Leistung besitzen, aber nur 70% der Texturleistung der GTX285. Eine GTX260 hatte dagegen nur 3% mehr Rechenleistung bei 77% der Texturleistung der 9800GTX.

Oder anders ausgedrückt: Der Anstieg der MADD-Rechenleistung bei der GTX470 ist genauso hoch wie von der GTX285 zur GTS250.

Dural
2010-03-19, 14:45:12
Der GT200 hatte auch eindeutig genug/zuviel Texturleistung, glaube nicht das die Texturleistung beim GF100 ein grosses Problem wird, wir werden es ja sehe.

LovesuckZ
2010-03-19, 14:47:20
Der GT200 hatte auch eindeutig genug/zuviel Texturleistung, glaube nicht das die 64TMUs beim GF100 ein grosses Problem werden, wir werden es ja sehe.

Die Texturleistung der GTX280 ist 2% höher als bei der 9800GTX+. ;D

Dural
2010-03-19, 14:48:10
jo trifft auch auf G92 zu... das ist jetzt wirklich das aller letzte was gefällt hätte.

Gast
2010-03-19, 14:51:56
Nicht mal in den rotesten Test's die du finden kannst.

http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_ati_radeon_hd_5870/23/#abschnitt_performancerating

Die Microruckler machen die 295GTX gefühlt deutlich langsamer als eine auf dem paier 10-15% langsamere 5870. Übertaktbarkeit, Stromverbrauch und Geräuschentwicklung sollte man auch nicht unterbewerten. Man kauft sich auch kein Auto für den Alltag das 400Km/h schnell fahren kann, bei dem aber nach 15 Minuten der Tank leer ist und die Reifen abgefahren sind.

Nakai
2010-03-19, 14:53:07
Mal nachdenken was MSAA macht: Es glättet Polygonkanten.

Was passiert nun wenn wir extrem viele Polygone haben? Nunja, dann haben wir auch extrem viele Polygonkanten. MSAA muss also statt nur wenige, sehr viele Pixel bearbeiten. Damit sinkt natürlich der Vorsprung gegenüber SSAA.
Offenbar limitiert beim Heaven-Benchmark mit 8xMSAA nicht mehr die Tesselationsleistung sondern die Pixelleistung.
Damit kann Fermi seinen tollen Vorsprung bei der Tesselation natürlich nicht mehr ausspielen und GTX470 und 5870 sind logischerweise annähernd gleich auf, wie man es ja auch in "normalen" Spielen erwartet.

HD5870 macht ja auch Tesselation und muss auch Kanten glätten. Treiberfehler oder kaum besser? Mal abwarten.

Nicht mal in den rotesten Test's die du finden kannst.

Bei neueren Spielen ist die GTX295 oftmals auch hinter einer HD5830. Aber man sollte MGPU eh nicht mit SingleGPU vergleichen. Da sind viele Faktoren zu verschieden.


mfg

LovesuckZ
2010-03-19, 14:58:45
HD5870 macht ja auch Tesselation und muss auch Kanten glätten. Treiberfehler oder kaum besser? Mal abwarten.


Tessellation geschieht vor dem AA. Wenn sie also schneller tesselliert als sie AA anwenden kann, so bricht sie dementsprechend auch ein.
Oder anders: Wenn der Tessellationvorgang die Limitierung darstellt, wird der Leistungeinbruch mit AA deutlich geringer ausfallen.
Da GF100 deutlich schneller tesselliert als Cypress, wird GF100 auch stärker einbrechen.

Spasstiger
2010-03-19, 14:59:39
HD5870 macht ja auch Tesselation und muss auch Kanten glätten. Treiberfehler oder kaum besser? Mal abwarten.
Der Anteil von dem, was in den ROP-Clustern und was in den TPCs anfällt, ändert sich halt dahingehend, dass der GT400 seine hohe Pixelfüllrate mit 8xMSAA nicht mehr ausspielen kann.

RoNsOn Xs
2010-03-19, 15:04:00
Meine 80% könnten recht gut zutreffen von GTX280 auf vollen GF100 ausgesehen... tja...

Bitte? Knapp oberhalb der 5870 laut derzeitigen Infos machen schon ziemlich Sinn.

Gast
2010-03-19, 15:04:52
wie ist das eigentlich mit dem gf102? wird das ne schnellere oder lansamere karte als der gf104?

Thunder99
2010-03-19, 15:08:49
wie ist das eigentlich mit dem gf102? wird das ne schnellere oder lansamere karte als der gf104?
schneller, aber die Infos zu der Karte/Chip sind rar

Spasstiger
2010-03-19, 15:13:56
Den GF102 gibt es afaik gar nicht, an dessen Stelle tritt der GF104. Bei den GPU-Codenamen von Nvidia gilt: Je größer die letzte Ziffer, desto geringer die Performance.

Gast
2010-03-19, 15:18:14
Tessellation geschieht vor dem AA. Wenn sie also schneller tesselliert als sie AA anwenden kann, so bricht sie dementsprechend auch ein.
Oder anders: Wenn der Tessellationvorgang die Limitierung darstellt, wird der Leistungeinbruch mit AA deutlich geringer ausfallen.
Da GF100 deutlich schneller tesselliert als Cypress, wird GF100 auch stärker einbrechen.
dementsprechend wird GF100 mit Tesselation und aktiviertem FSAA nicht mit Cypress den Staub aufwischen? DX11 done rite

Gast
2010-03-19, 15:23:15
Den GF102 gibt es afaik gar nicht, an dessen Stelle tritt der GF104. Bei den GPU-Codenamen von Nvidia gilt: Je größer die letzte Ziffer, desto geringer die Performance.

hm, auf der hauptseite steht was von gf102 (gts450 und gts440) sowie gf102 (gt430).

Gast
2010-03-19, 15:24:03
sorry, ich meinte natürlich gf104 (gt430).

Nakai
2010-03-19, 15:24:56
Tessellation geschieht vor dem AA. Wenn sie also schneller tesselliert als sie AA anwenden kann, so bricht sie dementsprechend auch ein.
Oder anders: Wenn der Tessellationvorgang die Limitierung darstellt, wird der Leistungeinbruch mit AA deutlich geringer ausfallen.
Da GF100 deutlich schneller tesselliert als Cypress, wird GF100 auch stärker einbrechen.

Natürlich müssen erst die Polygone erstellt werden, die dann auch geglättet werden. Wenn die Werte stimmen, dann ist MSAA auf Fermi immer noch schlechter als bei ATI.

dementsprechend wird GF100 mit Tesselation und aktiviertem FSAA nicht mit Cypress den Staub aufwischen? DX11 done rite

Immer mit der Ruhe. Ich will richtige Benches sehen, bevor ich mir ein Urteil bilde.


mfg

Spasstiger
2010-03-19, 15:27:27
sorry, ich meinte natürlich gf104 (gt430).
Ailuros redet schon die ganze Zeit vom GF104 mit 256 SPs. Das wird der Performancechip sein. Irgendwas zwischen 448 SPs @ niedrigem Takt und 256 SPs @ hohem Takt kann ich mir eigentlich nicht vorstellen. Das würde einen viel zu teuren Chip für das schmale Segment ergeben, wo man den Chip platzieren könnte.

LovesuckZ
2010-03-19, 15:29:05
Natürlich müssen erst die Polygone erstellt werden, die dann auch geglättet werden. Wenn die Werte stimmen, dann ist MSAA auf Fermi immer noch schlechter als bei ATI.


Die GTX470 hat weniger Pixelfüllrate und Bandbreite als die 5870. Logisch, dass die Karte dann stärker einbricht als Cypress. Fakt ist aber auch, dass in Metro2033 z.B. kein AA mit Tessellation gefahren werden kann, da zu langsam.
Die Medaille hat immer auch zwei Seiten.

Gast
2010-03-19, 15:31:25
Stromverbrauch unter Last könnt ihr euch Fit machen , deutlich mehr als die 5870 :D

Gast
2010-03-19, 15:34:31
Also sollten die Daten stimmen wäre ich arg enttäuscht. Das wäre für mich ein klarer FAIL. Also muss ich jetzt auf den Refresh warten, denn ne ATI kommt mir nicht ins Gehäsue. *damn*

Nakai
2010-03-19, 15:36:35
Die GTX470 hat weniger Pixelfüllrate und Bandbreite als die 5870. Logisch, dass die Karte dann stärker einbricht als Cypress. Fakt ist aber auch, dass in Metro2033 z.B. kein AA mit Tessellation gefahren werden kann, da zu langsam.
Die Medaille hat immer auch zwei Seiten.

Schade, aber wohl nichts neues. Die ersten Karten einer neuen DX- oder Techgeneration sind eh immer dafür zu langsam gewesen.


mfg

LovesuckZ
2010-03-19, 15:38:19
Schade, aber wohl nichts neues. Die ersten Karten einer neuen DX- oder Techgeneration sind eh immer dafür zu langsam gewesen.
mfg

Das ist nicht vergleichbar. Tessellation wird ziemlich schnell sein ohne MSAA mit GF100. In Zukunft wird es daher verstärkt richtiges adaptives AA geben, dass nicht mehr "Full Scene" wirkt. Sonst wird Tessellation und AA nie wirklich gut zusammenpassen.

Gast
2010-03-19, 15:38:42
http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_ati_radeon_hd_5870/23/#abschnitt_performancerating

Die Microruckler machen die 295GTX gefühlt deutlich langsamer als eine auf dem paier 10-15% langsamere 5870. Übertaktbarkeit, Stromverbrauch und Geräuschentwicklung sollte man auch nicht unterbewerten. Man kauft sich auch kein Auto für den Alltag das 400Km/h schnell fahren kann, bei dem aber nach 15 Minuten der Tank leer ist und die Reifen abgefahren sind.

Und das ist der Launch Test mit Beta Treibern. Nimmt man das 2009 Grafikkarten Roundup mit dem 9.11 schaut es nochmal deutlich schlechter für die GTX 295 aus.
http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_grafikkarten_2009/18/#abschnitt_performancerating_qualitaet

Nun stelle man sich nochmal einen aktualisierten Test mit dem 10.3 vor ...

Sascha1971
2010-03-19, 15:40:39
Aber unter Strich sind die Gewinner die, die sich schon vor zi gMonaten die 5870er gekauft haben.
Denn alles andere unkl meine Wenigkeit aht fast ein halbes Jahr gewartet für minimale Mehrleistung mit erheblich mehr Stromverbrauch und das sogar noch teurer als die ATI. :mad:

igg
2010-03-19, 15:43:43
Aber unter Strich sind die Gewinner die, die sich schon vor zi gMonaten die 5870er gekauft haben.
Wieso Gewinner? ich konnte alle meine Spiele in 1920x1200 4xAA spielen. Außer Crysis.

tombman
2010-03-19, 15:43:51
http://www.grafikkarten.org/showthread.php?t=38968


je nach Spiel/Auflösung/AA Modi zieht die GTX295 den kürzeren
Ich sagte DEUTLICH absetzen/schlagen. Im Schnitt sind GTX295 und HD5870 auf gleichem Niveau.
Ich will 'ne single GPU, die IM SCHNITT mindestens +20% vor der GTX295 liegt!

Gast
2010-03-19, 15:45:54
Genau. Da wartet man ein halbes Jahr und dann sieht man den Verbrauch unter Last und den Mehrwert zur 5870. Ich könnte echt heulen. Aber wie gesagt, ich habe solange gewartet, jetzt warte ich noch auf den Refresh. Denn den Fehler eine 280 zu holen am Anfang habe ich schonmal begangen. Der Refresh wird kommen siehe 285.

Gast
2010-03-19, 15:46:45
Ich sagte DEUTLICH absetzen/schlagen. Im Schnitt sind GTX295 und HD5870 auf gleichem Niveau.
Ich will 'ne single GPU, die IM SCHNITT mindestens +20% vor der GTX295 liegt!

tut sie bei den gefühlten fps locker

LovesuckZ
2010-03-19, 15:48:30
Schon genial - keiner hat Werte, weiß aber sowieso alles. Wie habt ihr dann eigentlich noch keine 5870 Karte? :lol:

Gast
2010-03-19, 15:53:17
Nicht mal 512SP (So wie es aussieht). Die Karte darf NVidia behalten. Verarschen lassen ich mich nicht. Jede Wette, kurz darauf kommt dann die 512SP Karte.

S940
2010-03-19, 15:53:29
Schon genial - keiner hat Werte, weiß aber sowieso alles.
Das ist in dem Thread also nun wirklich keine bahnbrechende Erkenntnis ...

Gast
2010-03-19, 15:54:06
Aber unter Strich sind die Gewinner die, die sich schon vor zi gMonaten die 5870er gekauft haben.
Denn alles andere unkl meine Wenigkeit aht fast ein halbes Jahr gewartet für minimale Mehrleistung mit erheblich mehr Stromverbrauch und das sogar noch teurer als die ATI. :mad:
Yeahh "ECHTES" DX11 hat eben seinen Preis
Wie sagte Helmut so schön :

"Wer zuspät kommt den bestraft das Leben !"

Schlammsau
2010-03-19, 15:54:27
Ich sagte DEUTLICH absetzen/schlagen. Im Schnitt sind GTX295 und HD5870 auf gleichem Niveau.
Ich will 'ne single GPU, die IM SCHNITT mindestens +20% vor der GTX295 liegt!
Und das aus dem Mund des Microruckler Entdeckers. ;D

Die 5870 ist nahezu immer schneller als eine GTX295, wegen der gefühlten fps.

30 Single GPU FPS fühlen sich um längen besser an als 30 Multi GPU FPS. Auch mit Sli....... ;)

tombman
2010-03-19, 15:59:03
Und das aus dem Mund des Microruckler Entdeckers. ;D

Die 5870 ist nahezu immer schneller als eine GTX295, wegen der gefühlten fps.
Darum gings jetzt nicht, sondern um reine fps. Ich will reine fps der GTX295 + 20% @ single gpu :)
(und dann davon 3 Stück :D)
Die GTX480 hätte das schaffen können, aber nicht mit 480sp und 1400shader.
(512sp und 1600shader wären geil :))

Gast
2010-03-19, 15:59:35
Nicht mal 512SP (So wie es aussieht). Die Karte darf NVidia behalten. Verarschen lassen ich mich nicht. Jede Wette, kurz darauf kommt dann die 512SP Karte.


Es sind definitiv 480 Shader ! Ihr werdet sehen ;)

tombman
2010-03-19, 16:03:43
"Kurz darauf" kommt sicher keine 512er, aber irgendwann dieses Jahr sicher.

Gast
2010-03-19, 16:04:59
HD5870 macht ja auch Tesselation und muss auch Kanten glätten. Treiberfehler oder kaum besser? Mal abwarten.


Nochmal zusammengefasst:

Viele kleine Dreiecke ohne FSAA: Frontend limitiert, die Pixelshader/ROPs bekommen deutlich weniger Pixel als sie eigentlich bearbeiten könnten -> Fermi deutlich vor der Radeon.

Viele kleine Dreiecke mit 8x MSAA: Frontend muss gleich viel arbeiten, Backend aber deutlich mehr. -> Frontend könnte bei beiden mehr Pixel liefern als bearbeitet werden können -> Kein Vorteil mehr für Fermi durch das mehrfache Tri-Setup/Rasterizing. -> Es zählt nur mehr die Pixelleistung.

LovesuckZ
2010-03-19, 16:05:24
480SP werden für mindesten 6 Monate das High-End besetzen, wenn es stimmt.
Es macht kein Sinn die 512 SP Versionen zu sammeln.

Sorkalm
2010-03-19, 16:07:03
Wenn jetzt die 480er-Version kommt, kommt die 512er sicher erst mit dem Respin, sprich B-Version. Alles andere wäre ziemlich unlogisch, wenn man zumindest hinreichende 512er hätte, würde man damit launchen.

Gast
2010-03-19, 16:07:28
dementsprechend wird GF100 mit Tesselation und aktiviertem FSAA nicht mit Cypress den Staub aufwischen?

Mit 8xMSAA wohl nicht, mit 4xMSAA (+evtl. CSAA) schon.

Gast
2010-03-19, 16:10:11
Sonst wird Tessellation und AA nie wirklich gut zusammenpassen.

Es muss ja nicht gleich 8xMSAA sein, 4x reicht ja auch, besonders wenn man auch noch zusätzliche Coverage-Samples hat.

Gast
2010-03-19, 16:11:39
Jede Wette, kurz darauf kommt dann die 512SP Karte.

Kurz darauf sicher nicht, wenn man kurz darauf 512SP vernünftig liefern könnte würde man von Anfang an eine 512SP-Karte präsentieren.

Gast
2010-03-19, 16:12:49
Es waren sind und werden auch 512SPs auf der GTX480 bleiben. Da dieser Versuch mit dem 480SP FUD nicht hingehauen hat ist der naechste Kandidant wahrscheinlich TDP. Bei all dem Wirrwarr kann man einfach keinen Durchblick mehr halten.


Zeigt mal wieder das einige immer nur so tun als ob sie etwas wüssten, Realität sieht anders aus wenn selbst so kurz vor release aus Ahnungslosigkeit solche Falschinfos als Fakt propagiert werden.

MegaManX4
2010-03-19, 16:13:47
Yeahh "ECHTES" DX11 hat eben seinen Preis
Wie sagte Helmut so schön :

"Wer zuspät kommt den bestraft das Leben !"

Gorbatschow

LovesuckZ
2010-03-19, 16:38:49
Ha, Vr-Zone hat die News nochmal überarbeitet:
The intended GF100 has 512 SP clocked at 725/1450/1050MHz with 295W TDP. It should still be released in the future but just not now. For this launch, GTX 480 has 480 SP with clocks lowered to 700/1401/1848MHz at 250W TDP.

Klar, 45 Watt mehr für 1SM und ein paar höhrere Mhz. Da stellt sich mir die Frage, wieso eine GTX470 bei 225 Watt landet, mit 1SM weniger und deutlich niedrigen Taktraten und weniger Speicher.
Manche suchen auch jedes Schlupfloch, um ihre Falschaussagen zu decken.

G!ZMo
2010-03-19, 16:41:40
Ha, Vr-Zone hat die News nochmal überarbeitet:


Klar, 45 Watt mehr für 1SM und ein paar höhrere Mhz. Da stellt sich mir die Frage, wieso eine GTX470 bei 225 Watt landet, mit 1SM weniger und deutlich niedrigen Taktraten und weniger Speicher.
Manche suchen auch jedes Schlupfloch, um ihre Falschaussagen zu decken.
Der Speichertakt passt trotzdem noch nich so richtig. :freak:

Gast
2010-03-19, 16:42:02
Den Ingenieur der Fermi entwickelt hat wurde ja entlassen. Richtig so. Wenn ich die TDP sehe wird mir schwindelig. Und die Performance knapp über 5870! Das muss man sich mal auf der Zunge zergehen lassen. Man man man, da ist einiges Schiefgelaufen.

Eggcake
2010-03-19, 16:42:58
Klar, 45 Watt mehr für 1SM und ein paar höhrere Mhz. Da stellt sich mir die Frage, wieso eine GTX470 bei 225 Watt landet, mit 1SM weniger und deutlich niedrigen Taktraten und weniger Speicher.


Wie meinen?

Sorkalm
2010-03-19, 16:44:24
Der Speichertakt passt trotzdem noch nich so richtig. :freak:

Bei der "früheren 480" haben sie den Commandclock angegeben, multiplier ihn halt mit 2. ;)

igg
2010-03-19, 16:45:29
Den Ingenieur der Fermi entwickelt hat wurde ja entlassen. Richtig so.
Ja, der Ingeneur...

Gast
2010-03-19, 16:45:52
Der Speichertakt passt trotzdem noch nich so richtig. :freak:

Speichertakt der GTX 480 sind 900Mhz nicht mehr und nicht weniger.

LovesuckZ
2010-03-19, 16:46:30
Wie meinen?

Der Unterschied im Verbrauch zwischen der angegeben GTX470 und GTX480 ist wesentlich kleiner als zwischen der GTX480 mit 250 und der anderen mit 295 Watt - nämlich 11% und 18%. Das macht bei den angebenen Taktraten keinen Sinn.

Gast
2010-03-19, 16:46:59
Ha, Vr-Zone hat die News nochmal überarbeitet:


Klar, 45 Watt mehr für 1SM und ein paar höhrere Mhz. Da stellt sich mir die Frage, wieso eine GTX470 bei 225 Watt landet, mit 1SM weniger und deutlich niedrigen Taktraten und weniger Speicher.
Manche suchen auch jedes Schlupfloch, um ihre Falschaussagen zu decken.

Das sind nur 15% weniger TDP. Der Speichertakt wurde deutlich gesenkt. Scheint für mich durchaus realistisch zu sein. Vielleicht konnte man auch am PCB noch etwas einsparen.

Gast
2010-03-19, 16:48:14
Ja, der Ingeneur...

Der die das, wer wie was. Egal. Bin gerade ziemlich angefressen. Herb, einfach herb.

Byteschlumpf
2010-03-19, 16:50:37
Seit wann wächst eine GPU nur auf dem Haufen eines einzelnen Ingenieurs? IMO ist an der Entwicklung immer ein ganzes Team beteiligt und nicht nur eine Einzelperson!

Es wird gemunkelt, dass der leitende Entwickler ein AMD-Spion sei und der Gruppe der 3dfx Basterds angehöre! :eek:

V2.0
2010-03-19, 16:50:41
Und der Unterschied im Verbrauch zwischen der angegeben GTX470 und GTX480 ist wesentlich kleiner als zwischen der GTX480 mit 250 und der anderen mit 295 Watt - nämlich 11% und 18%. Das macht bei den angebenen Taktraten keinen Sinn.

Das ist richtig. Wenn man die angebliche Reduktion von 512SP zu 480SP sieht, dann müssten sie in der Lage sein deaktivierte Einheiten auch von der Stromversorgung zu trennen. Nur wenn sie das können muss die 470 niedriger liegen.

Aber eben nur wenn die Werte stimmen würden.

Gast
2010-03-19, 16:59:37
Ja, der Ingeneur...

kein wunder dass wir solange warten mussten :(

Gast
2010-03-19, 17:02:36
Dann heisst es halt weiter warten auf einen Chip ala G80. Hab ne 280 und bin mit der noch gut bedient. 500 Euro für den Fermi + der Stromverbrauch unter Last? Da warte ich lieber nochwas ab.

cR@b
2010-03-19, 17:03:56
Wenn du warten kannst, warte auf den Refresh. Wenn du nicht warten kann, kaufe so bald wie möglich.

Habe bisher immer sofort gekauft um soviel wie möglich von der Karte zu haben, was sich auch stets gelohnt hat. Aber bei ner beschnittenen Karte könnte ich erstmals davon absehen... :(

Genau. Da wartet man ein halbes Jahr und dann sieht man den Verbrauch unter Last und den Mehrwert zur 5870. Ich könnte echt heulen. Aber wie gesagt, ich habe solange gewartet, jetzt warte ich noch auf den Refresh. Denn den Fehler eine 280 zu holen am Anfang habe ich schonmal begangen. Der Refresh wird kommen siehe 285.

Also sorry aber die 280er GTX war für mich genau richtig zu diesem Zeitpunkt! Konnte gegenüber der 8800 GTX einen guten Performancezuwachs u.a. in Age of Conan verspüren und die 285er möchte ich nicht geschenkt mit Spulenfiepen und gerade mal 5-10% mehr Performance Monate später :rolleyes: War der schlechteste Refresh mal abgesehen von der 88er Ultra wobei das ja kein richtiger Refresh war aber genauso unsinnig! :D

Gast
2010-03-19, 17:04:38
Der Unterschied im Verbrauch zwischen der angegeben GTX470 und GTX480 ist wesentlich kleiner als zwischen der GTX480 mit 250 und der anderen mit 295 Watt - nämlich 11% und 18%. Das macht bei den angebenen Taktraten keinen Sinn.
Höherer Takt, mehr Shader, höhere Temperaturen, höhere Verlustleistung.
Ausserdem ist die TDP doch auch nur ne 'grobe' Kategorie zu Dimension der Kühlung, warum sollte sich nun daraus ein linearer Verbrauch aufgrund geringerer Taktung und weniger SM ergeben?

Spasstiger
2010-03-19, 17:06:07
Klar, 45 Watt mehr für 1SM und ein paar höhrere Mhz. Da stellt sich mir die Frage, wieso eine GTX470 bei 225 Watt landet, mit 1SM weniger und deutlich niedrigen Taktraten und weniger Speicher.
Vergleiche GTX 285 und GTX 275. Die GTX 470 wird wohl nicht mit weniger Spannung betrieben als die GTX 480, um eine größtmögliche Ausbeute zu erzielen.

Bringhimup
2010-03-19, 17:06:14
Mich würde interessieren, warum AMD(ATI) und NVidia es nicht hinkriegen, ihre größten GPUs so ausgewogen zu designen, dass es in den wirklich sinnvollen und typischen Anwendungsfällen kein extremes Nadelöhr gibt.

Wenn man dem glauben schenken kann, was man hier so liest, dann haben beide in der Entwicklung ihrer Super GPUs ja ganz schön viel falsch gemacht.

Man liest hier immer was von Verdopplung der Rechenleistung, dabei aber keine Erhöhung der Texturierleistung (oder sogar Verringerung) und gelegentlich auch umgekehrt und das zu älteren GPUs und im Vergleich zur Konkurrenz und der ein oder andere "Semi-Pro" in diesem Forum (das meine ich durchaus anerkennend) kann anscheinend sogar genau ausmachen, was, wann und wie der limitierende Faktor ist (der dann meist auch noch sehr deutlich den Rest der GPU limitiert).

Warum also können AMD und NVidia (die ja beide absolute Experten sind) genau diese Probleme nicht vorhersehen und zumindest diese vermeiden (wenn sie schon mitunter die Fertigungsprobleme nicht vermeiden können)?

Warum kriegen beide diese unglaubliche Power nicht immer richtig auf die Straße (warum bauen sie 1000PS Autos, an dem 3 breits Slicks und nen Fahrradreifen aufgezogen sind)? Einfach weil die Entwicklung einer solchen GPU 4 Jahre dauert und man noch nicht sagen kann, was in 4 Jahren der limitierende Faktor sein wird? Und wenn es das nicht ist, was ist es dann?

Vielleicht kann das jemand für einen Laien wie mich erklären. Würde mich wirklich freuen.

Gruß
Maik

Spasstiger
2010-03-19, 17:13:17
Aktuell hat AMD ein Design, was ziemlich ausgereizt ist, und NV ein neues Design, was eigentlich noch breiter angelegt werden müsste (mehr TPCs), um sein Potential auszuspielen. Die aktuellen Fertigungsverfahren lassen das aber noch nicht zu. Bei AMD wird schon ein neues Design entwickelt und für den Übergang ist die HD5K-Reihe genau das Richtige. Bei relativ moderaten Fertigungskosten herstellbar und absolut konkurrenzfähig.
Bei NV wird sich die Lage mit neuen Fertigungsprozessen entspannen.

igg
2010-03-19, 17:14:10
Der die das, wer wie was. Egal. Bin gerade ziemlich angefressen. Herb, einfach herb.
Wieso frisst das DICH an?
Und wen meinst du überhaupt?

Gast
2010-03-19, 17:18:01
Wenn man die angebliche Reduktion von 512SP zu 480SP sieht, dann müssten sie in der Lage sein deaktivierte Einheiten auch von der Stromversorgung zu trennen.


Wenn sie einen halbwegs vernünftigen idle-Verbrauch schaffen wollen, müssen sie das auf jeden Fall können.

"Nur" Reduktion von Spannung und Takt alleine Reicht bei 3Mrd. Transistoren in 40nm bei weitem nicht aus.

Gast
2010-03-19, 17:21:19
Wieso frisst das DICH an?
Und wen meinst du überhaupt?

Mich kotzt zur Zeit NVidia an. Ich habe ganz einfach mehr erwartet.

DrFreaK666
2010-03-19, 17:25:04
Mich kotzt zur Zeit NVidia an. Ich habe ganz einfach mehr erwartet.

Bewerbe dich bei nv und zeig dann wie es richtig geht :rolleyes:

Gast
2010-03-19, 17:28:36
Wenn man ein halbes Jahr wartet und man bekommt dann sowas halbgares serviert. Da darf man sich doch mal ärgern, oder?

Und nein, ich brauche mich da nicht bewerben. Da sitzen ja genug "Genies".

Gast
2010-03-19, 17:32:47
Mich würde interessieren, warum AMD(ATI) und NVidia es nicht hinkriegen, ihre größten GPUs so ausgewogen zu designen, dass es in den wirklich sinnvollen und typischen Anwendungsfällen kein extremes Nadelöhr gibt.


Fermi dürfte wohl die ausgewogenste GPU bis heute sein, es "nur" etwas Rohleistung um sich weit abzusetzen.

DrFreaK666
2010-03-19, 17:35:55
Wenn man ein halbes Jahr wartet und man bekommt dann sowas halbgares serviert. Da darf man sich doch mal ärgern, oder?

Und nein, ich brauche mich da nicht bewerben. Da sitzen ja genug "Genies".

Auch bei nv gelten die Gesetze der Physik.
Und wenn die GPU komplexer wird dann kann es schon zu dem einen oder anderen Problem kommen.
Ausserdem: Erstmal abwarten. Vielleiccht ist sie stellenweise trotzdem eine Rakete und dazu kühl und leise :smile:

Gast
2010-03-19, 17:39:35
Mich kotzt zur Zeit NVidia an. Ich habe ganz einfach mehr erwartet.
Setz dich mit Fakten/Technik auseinander und bemühe deinen gesunden Menschenverstand. Mir war schon beim Release von der HD5870 klar, dass Fermi nicht der Überchip für Gamer wird, wenn er im gleichen Fertigunsprozess erscheinen würde und dass der Release noch einige Zeit dauern würde.
nV setzt auf eine neue Architektur und muss Abstriche bei den anderen Sachen machen, weil der Prozess nicht mehr hergibt. Die hohe TDP zeigt, dass nV trotzdem versucht (hat), alles aus dem Chip rauszuholen, um überall eine gute Performance abzuliefern. Und eine neue Architektur muss eingeführt werden, damit die Devs sich schon darauf einstellen können. nV ist sozusagen ein Pioneer. Wer das nicht braucht, greift halt zur ATI.
Undank ist der Welten Lohn.

Gast
2010-03-19, 17:40:40
Die Texturleistung der GTX280 ist 2% höher als bei der 9800GTX+. ;D
Ein Texel ist nicht gleich ein Texel.

-Carsten

AnarchX
2010-03-19, 17:47:42
Ein Texel ist nicht gleich ein Texel.

-Carsten
Wobei es trotzdem schwierig vorstellbar ist, wie man mit nur 42/34GTex/s eine vernünftige Steigerung gegenüber GTX 200 ohne sichtbare Qualitätsverluste erreichen will.
Oder waren die Aussagen zur Filtergeschwindigkeit beim Deep Dive nicht korrekt? ;)

Raff
2010-03-19, 17:49:55
Das murksige Radeon-AF werden sie bestimmt nicht unterbieten. ;)

MfG,
Raff

LovesuckZ
2010-03-19, 17:51:59
Wobei es trotzdem schwierig vorstellbar ist, wie man mit nur 42/34GTex/s eine vernünftige Steigerung gegenüber GTX 200 ohne sichtbare Qualitätsverluste erreichen will.
Oder waren die Aussagen zur Filtergeschwindigkeit beim Deep Dive nicht korrekt? ;)

Weil nicht jede Anwendung an der Texturleistung hängt? :rolleyes:

Spasstiger
2010-03-19, 17:54:32
Unterbieten nicht, aber ich fürchte, dass sie es nachahmen. Die HD5K wurden von einigen Reviewern für das AF in den Himmel gelobt, weil die keine Ahnung haben und nur auf die kreisrunde AF-Blume schauen. Als Ing. oder Treiberentwickler bei NV wäre ich da schon etwas ungehalten. Man kann es NV nicht verübeln, wenn sie nun auch @ HQ unterfiltern würden.

Gast
2010-03-19, 17:54:37
Das murksige Radeon-AF werden sie bestimmt nicht unterbieten. ;)

MfG,
Raff

Sie haben zumindest deutlich weniger Texelfüllrate. Was macht sich so optimistisch?

AnarchX
2010-03-19, 17:57:13
Weil nicht jeder Anwendung an der Texturleistung hängt? :rolleyes:
Zwar nicht jede, aber wohl immer noch eine nicht unerhebliche Zahl.

Man kann es NV nicht verübeln, wenn sie nun auch @ HQ unterfiltern würden.
Dass man HQ antastet würde ich eher bezweifeln, eher geht man beim Treiber Standard Quality noch etwas zurück.

Raff
2010-03-19, 17:57:29
Sie haben zumindest deutlich weniger Texelfüllrate. Was macht sich so optimistisch?

Intuition. ;) Zu FX-Bri-Zeiten und später mit dem grausigen NV40-/G7x-Quality-AF gab's so ausgiebig negative Schlagzeilen, dass sie das mit etwas Verstand nicht wiederholen werden.

MfG,
Raff

Gast
2010-03-19, 17:58:23
Unterbieten nicht, aber ich fürchte, dass sie es nachahmen. Die HD5K wurden von einigen Reviewern für das AF in den Himmel gelobt, weil die keine Ahnung haben und nur auf die kreisrunde AF-Blume schauen. Als Ing. oder Treiberentwickler bei NV wäre ich da schon etwas ungehalten. Man kann es NV nicht verübeln, wenn sie nun auch @ HQ unterfiltern würden.

AMD investiert nicht weniger Füllrate ins AF. Die Implementierung ist offensichtlich flimmeranfälliger.

crux2005
2010-03-19, 17:58:54
Sie haben zumindest deutlich weniger Texelfüllrate. Was macht sich so optimistisch?

Weil er schon eine Fermi GeForce hat?
btw: echt komisch diese 512SPs Geschichte. Manche Reviewer meinen 512SPs von nVidia bestätigt bekommen zu haben, andere wiederum 480SPs. Der Driver zeigt auf jeden Fall 480SPs :P

Spasstiger
2010-03-19, 18:05:26
AMD investiert nicht weniger Füllrate ins AF. Die Implementierung ist offensichtlich flimmeranfälliger.
Warum heißt es dann immer, dass AMD unterfiltert? Das ist ja nichts anders als das Verzichten auf einige Samples, was logischerweise auch weniger Texelfüllrate verlangt.
Ich hätte eine Idee für NVs Treiber-Cheat-Abteilung: 16:1 AF nur noch unterfilternd anbieten (auch @ HQ), dafür perfektes 32:1 AF anbieten. Für Benchmarks würden die Reviewer immer 16:1 AF wählen (zwecks Vergleichbarkeit mit ATI), aber durch das perfekte 32:1 AF hätte NV in den Reviews weiterhin die AF-Krone auf.

Gast
2010-03-19, 18:06:08
Es haben schon Redaktionen in Deutschland die 480GTX.

Es sind auf jeden Fall nur 480 Shader bei der 480GTX.

Gast
2010-03-19, 18:07:59
Wobei es trotzdem schwierig vorstellbar ist, wie man mit nur 42/34GTex/s eine vernünftige Steigerung gegenüber GTX 200 ohne sichtbare Qualitätsverluste erreichen will.
Oder waren die Aussagen zur Filtergeschwindigkeit beim Deep Dive nicht korrekt? ;)

Naja, sagen wir mal so: Es waren nicht nur Frames, sondern Teile eines Frames. Aus den vorliegenden Informationen zu Fermi lässt sich ja entnehmen, dass die Texturleistung unter bestimmten Umständen (Jittered Shadow-Sampling) aufgrund geänderter Ansteuerung (unabhängige Zugriffe auf einzelne nicht benachbahrte Texel) der TMUs deutlich höher liegen muss.

-Carsten

mapel110
2010-03-19, 18:11:53
Intuition. ;) Zu FX-Bri-Zeiten und später mit dem grausigen NV40-/G7x-Quality-AF gab's so ausgiebig negative Schlagzeilen, dass sie das mit etwas Verstand nicht wiederholen werden.

MfG,
Raff
Dein Wort in nvidias Ohr. Bei der miesen Texturfüllrate glaube ich erstmal gar nix.

Gast
2010-03-19, 18:19:37
Weil nicht jede Anwendung an der Texturleistung hängt? :rolleyes:


Nvidia behauptet eine Steigerung von 40-70% in Texturlastigen Szenen, und das mit weniger Füllrate?

Also entweder gibt es nun single-cycle-tri oder massive Qualitätsverschlechterungen, anders ist das nicth möglich.

AnarchX
2010-03-19, 18:23:43
Nvidia behauptet eine Steigerung von 40-70% in Texturlastigen Szenen, und das mit weniger Füllrate?

Also entweder gibt es nun single-cycle-tri oder massive Qualitätsverschlechterungen, anders ist das nicth möglich.
Diese App States werden wie Carsten schon sagt, davon profitieren, dass jede Quad-TMU nun vier unabhängige ungefilterte Texel adressieren kann.
Wie sich das dann auf die Endleistung auswirkt bleibt fraglich, AFAIK können die Radeons dies auch schon.

Sascha1971
2010-03-19, 18:25:35
Welcher Benchmark mich intressieren wird, ist eine 5870er mit 2 gig Speicher und erhöhten Taktraten (glaube von Asus kommt ja da was) gegen die 480er in aktuellen Spielen. Mit max Details und hoher Filterung.

Ich denke mal das die beiden Karten im Preis ja ungefähr gleich sein werden.

LovesuckZ
2010-03-19, 18:39:50
Zwar nicht jede, aber wohl immer noch eine nicht unerhebliche Zahl.


Es steht dir auch frei, diese unerhebliche Zahl auch in Namen zu nennen. Interessant sind da erst mal nur die Spiele, aus dem Jahr 2009 und dem jetzigen Jahr 2010.

Vergleiche GTX 285 und GTX 275. Die GTX 470 wird wohl nicht mit weniger Spannung betrieben als die GTX 480, um eine größtmögliche Ausbeute zu erzielen.

Nein, das ist falsch. Wir reden von 100/200Mhz weniger bei den SM und knapp 100Mhz weniger beim Speicher. Da wird natürlich eine (deutlich) geringere Spannung gefahren. Dazu kommen noch die positiven Auswirkung durch die geringere Speichermenge und nur 14 SM.
Da sollen am Ende nur 25 Watt stehen? Nur 11%?

Spasstiger
2010-03-19, 19:20:39
Da wird natürlich eine (deutlich) geringere Spannung gefahren.
Bei der GTX 480 könnte man dafür sicherlich eine geringere Spannung fahren, da ist ja auch die bessere Selektion an Chips drauf. Ob die GTX 470 mit einer niedrigeren Spannung als die GTX 480 auskommt, muss sich erst noch zeigen. Angesichts des geringen TDP-Unterschieds kann der Spannungsunterschied nicht sehr groß sein. Oder die TDP der GTX 470 ist falsch und wurde zwischenzeitlich nach unten korrigiert.

Armaq
2010-03-19, 19:25:50
Das Problem bei Nvidia identifiziere ich eher in ihrer strategisch-mittelfristigen Entscheidung. Sie werden einfach diese Probleme im Rasteriserverfahren für den Zeitraum Jahreswende 2009/10 prognostiziert haben und sind erheblichem Aufwand erlegen, um ihr Ziel zu erreichen.

Wir sprechen ja bisher von Grundlagenproblemen in Architektur und Fertigung, wobei letzteres durch TSMC ja noch verstärkt wurde. Wenn wir mehr Spiele im Stil von Metro hätten, würden wir anders auf diesen Chip sehen. Da aber ATI mit einem sehr kosteneffiziente Ansatz auch eine respektable Performance erreicht hat, steht Nvidia natürlich subjektiv gesehen schlechter da.

Klingone mit Klampfe
2010-03-19, 19:35:30
Mich würde interessieren, warum AMD(ATI) und NVidia es nicht hinkriegen, ihre größten GPUs so ausgewogen zu designen, dass es in den wirklich sinnvollen und typischen Anwendungsfällen kein extremes Nadelöhr gibt.

Vielleicht ist so langsam das Ende der logistischen und produktionstechnischen Fahnenstange erreicht und man muss einfach Kompromisse eingehen, um überhaupt eine gewisse Lieferbarkeit zu garantieren - zumindest, bis die Zulieferer von Teilkomponenten ihrerseits die Herstellungsprozesse optimieren und modernisieren.

Wenn nVidia oder ATI innovative Technik entwickeln, ist das ja schön und gut, aber Massenproduktion ist dann doch wesentlich komplexer. Da müssen teilweise Aufträge neu ausgeschrieben und überhaupt erst einmal ermittelt werden, wer die gewünschten Komponenten (z. B. SpaWas) in relevanter Stückzahl bereitstellen kann.

Soweit zumindest meine naive Vorstellung.

Gast
2010-03-19, 19:38:04
Nvidia behauptet eine Steigerung von 40-70% in Texturlastigen Szenen, und das mit weniger Füllrate?

Nvidia behauptet das für State Buckets, Ausschnitte aus einzelnen Bildern einer Szene. Wie oben geschrieben sind das einfach Operationen, die pro Takt deutlich beschleunigt wurden und so auch mit weniger TMUs gegenüber dem Vorgänger gut aussehen.

-Carsten

Gast
2010-03-19, 19:38:14
Diese App States werden wie Carsten schon sagt, davon profitieren, dass jede Quad-TMU nun vier unabhängige ungefilterte Texel adressieren kann.

Das wird wohl kaum für eine 70%ige Leistungssteigerung sorgen.

Gast
2010-03-19, 19:42:59
Das wird wohl kaum für eine 70%ige Leistungssteigerung sorgen.

Was ist daran so schwer zu verstehen? Nvidia hat das in den öffentlich zugänglichen PDFs hinreichend erklärt.

GT200 hatte zwar 80 TMUs, konnte aber jeweils nur Vierergruppen von Pixeln ansteuern, was bei normaler Texturfilterung kein Problem ist: So funktionieren die meisten TMUs seit Jahren.

In bestimmten Fällen jedoch liefert jede Quad-TMU nur einen Wert zurück, ergo sind effektiv nur noch 20 Einheiten vorhanden (80:4=20) - zwei in jedem SIMD.

GF100 kann in diesen Spezialfällen nun weiterhin vier Werte pro Quad-TMU liefern und erreicht hier also den vollen Durchsatz. Bei einem 512-ALU-Chip wären das 64 effektive TMUs (für diesen Spezialfall).

Dass die bei vielleicht sogar höherem Takt deutlich flotter sind, dürfte doch einleuchtend sein.

-Carsten

dildo4u
2010-03-19, 19:48:07
PCGH Video Geforce GTX 480 im Testlabor eingetroffen

http://www.pcgameshardware.de/aid,706822/PCGH-Uncut-HD-Video-Folge-3-Geforce-GTX-480-im-Testlabor-eingetroffen/Multimeda/News/

Hört auf Carsten er hat die Karte schon. *g*