PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Kommende GF100-Karten: Dual-GPU, Bx-Stepping


Seiten : 1 [2]

san.salvador
2010-08-02, 17:53:47
Was ist dem denn passiert?
2x GTX480 + Wasser = *fizzz*
http://forum.nhancer.com/showthread.php?t=3328

Gast
2010-08-04, 14:36:26
gibts immer noch keine gerüchte wann man mit Vollausbau des GF104 rechnen könnte?

Reaping_Ant
2010-08-04, 15:58:08
2x GTX480 + Wasser = *fizzz*

Ouch, das tut weh!


Mal wieder was neues zur "GTX 485" von Expreview (http://en.expreview.com/2010/08/04/exclusive-the-design-card-and-testing-of-geforce-gtx-480-preview/8878.html). Mit Foto und GPU-Z Screenshot, leider ist auf keinem von beiden die Revision zu erkennen. Es bleibt also die Frage ob und wieviel sich der Chip im Vergleich zum A3 verändert hat.

Die Füllrate von 42 GT/s passt allerdings nicht ganz zu den 64 TMUs, da stimmt irgendwas nicht. Entweder kennt GPU-Z die Karte noch nicht (durchaus wahrscheinlich, aber woher kommen dann die 512 ALUs?) oder der Screen ist nicht echt.

BlackBirdSR
2010-08-04, 16:21:05
Naja ich denke die 512er GF100 müssen irgendwann mal auf den Markt kommen. Das ist wahrscheinlich auch ne Sache der Firmenpolitik. Eine große Rolle wird sie für uns normale Consumer eh nie spielen.

Kommen überhaupt Tesla/Quadro-Karten mit voller Ausbaustufe?


@Watercooling:
Das Gleiche hier: Ich würde mir den Aufwand niemals antun wollen.
Gibts eigentlich ne funktionsfähige Alternative zu NHancer?

Spasstiger
2010-08-04, 16:38:16
Die Füllrate von 42 GT/s passt allerdings nicht ganz zu den 64 TMUs, da stimmt irgendwas nicht. Entweder kennt GPU-Z die Karte noch nicht (durchaus wahrscheinlich, aber woher kommen dann die 512 ALUs?) oder der Screen ist nicht echt.
Oder GPU-Z nimmt einen falschen Wert als Berechnungsgrundlage, nämlich die TMU-Anzahl der GTX 480.
Das 3DMark-Resultat spricht bei den Taktraten auf jeden Fall für 512 SPs und 64 TMUs. Bei THG (http://www.tomshardware.de/geforce-gtx-460-sli-geforce-gtx-480,testberichte-240605-3.html) bringt es die GTX 480 befeuert von einem Core i7-980X @ 3,33 GHz auf eine GPU-Score von rund P18600, die Karte bei expreview bringt es befeuert von einem Core i7-920 @ 3,8 GHz auf rund P19850. Das entspricht genau der gesteigerten Rechenleistung und Texelfüllrate.

Gast
2010-08-04, 16:45:44
Kommen überhaupt Tesla/Quadro-Karten mit voller Ausbaustufe?

Auch Quadro hat bisher nur maximal 448SPs:
http://www.hardware.fr/news/11046/nvidia-devoile-quadro-fermi.html?utm_source=feedburner&utm_medium=feed&utm_campaign=Feed%3A+hardware%2Ffr%2Fnews+%28HardWare.fr+-+News%29&utm_content=FeedBurner

Die 512SPs GTX 480 ist entweder ein Fake oder einfach eine Hersteller-Karte mit 512SPs-Probe Die. Ein offizielles NV-Sample ist es auf keinen Fall, wie man am PCB erkennt.

Spasstiger
2010-08-04, 16:50:36
Ich denke, wenn NV eine GTX 485 bringt, dann auch mit höheren Taktraten als bei der GTX 480. 6,7% höhere Frameraten als bei der GTX 480 im Best Case reißen keinen vom Hocker, da müssen schon 10% im Schnitt her.
Den Speichertakt wird NV bei der GTX 485 sicherlich auf 1000 MHz anheben. Und beim Chip könnte ich mir auch noch eine leichte Steigerung von 700 MHz auf 725 MHz vorstellen. Das sollte bei entsprechender Selektion ohne Spannungsanhebung oder sogar mit einer leichten Spannungssenkung gegenüber der GTX 480 drin sein.

N0Thing
2010-08-04, 18:28:00
Gibts eigentlich ne funktionsfähige Alternative zu NHancer?

Nvidia Inspector (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=482122)

Allerdings nicht so komfortabel (quasi gar nicht) wie nHancer und die Profilverwaltung funktioniert nur mit den Treibern ab der Fermi-Generation (genaueres steht im Thread oder im change log).

crux2005
2010-08-04, 18:33:09
Den Screener von Expreview mit einer 512SPs GTX 480 kann man ohne Probleme faken. Vantage mit höheren Taktraten durchlaufen lassen und danach wieder absenken. 512 SPs im GPU-Z, CP Fenster mit Photoshop faken und schon hat man eine neue News. Sonst hat Spasstiger aber Recht.

Nightspider
2010-08-05, 13:55:44
Ich denke, wenn NV eine GTX 485 bringt, dann auch mit höheren Taktraten als bei der GTX 480. 6,7% höhere Frameraten als bei der GTX 480 im Best Case reißen keinen vom Hocker, da müssen schon 10% im Schnitt her.
Den Speichertakt wird NV bei der GTX 485 sicherlich auf 1000 MHz anheben. Und beim Chip könnte ich mir auch noch eine leichte Steigerung von 700 MHz auf 725 MHz vorstellen. Das sollte bei entsprechender Selektion ohne Spannungsanhebung oder sogar mit einer leichten Spannungssenkung gegenüber der GTX 480 drin sein.

Allerdings passen 20Mhz mehr und undervolting wenig zur größeren Stromversorgung von 2*8pin

Aber vielleicht zielt Nvidia mit diesem Bolliden auch auf HighEnder ab, die gerne übertakten...viel Potential hatte die alte GTX480 ja auch schon.

Gast
2010-08-05, 13:59:52
Kommt da auch noch eine 475 GTX ? Und würden sie es schaffen beim GF100 die Stromzuvor zu drosseln (machbar) ?

G A S T
2010-08-05, 15:09:25
gibts immer noch keine gerüchte wann man mit Vollausbau des GF104 rechnen könnte?

Ich persönlich habe inzwischen die naheliegende Vermutung, dass wir die Vollausbauten sämtlicher GF100-basierter Karten erst dann sehen werden, wenn ATI mit den Refresh-Chips der HD 5000-Serie richtig aufschlägt (wir reden hier also wohl eher von Januar 2011).
Nvidia hat diese Zeitspanne auch bitter nötig um die eigenen Chips noch ein wenig zu optimieren...

So könnte man immerhin relativ pünktlich zu ATIs Refresh-Generation neue Revisionen im Vollausbau präsentieren. Was anderes bleibt wohl auch kaum übrig, da sich an der "Front der Fertigungsstrukturen" die nächsten 24-Monate nicht viel bewegen wird.

@ über mir:
Nein. Warscheinlich erstmal nicht (siehe oben). Auch eine "GTX 468" werden wir wohl nicht so schnell zu Gesicht bekommen.
Wart' mal noch ein halbes Jahr...

Arschhulio
2010-08-05, 17:12:21
Ich persönlich habe inzwischen die naheliegende Vermutung, dass wir die Vollausbauten sämtlicher GF100-basierter Karten erst dann sehen werden, wenn ATI mit den Refresh-Chips der HD 5000-Serie richtig aufschlägt (wir reden hier also wohl eher von Januar 2011).
Nvidia hat diese Zeitspanne auch bitter nötig um die eigenen Chips noch ein wenig zu optimieren...

So könnte man immerhin relativ pünktlich zu ATIs Refresh-Generation neue Revisionen im Vollausbau präsentieren. Was anderes bleibt wohl auch kaum übrig, da sich an der "Front der Fertigungsstrukturen" die nächsten 24-Monate nicht viel bewegen wird.

@ über mir:
Nein. Warscheinlich erstmal nicht (siehe oben). Auch eine "GTX 468" werden wir wohl nicht so schnell zu Gesicht bekommen.
Wart' mal noch ein halbes Jahr...

Wenn ich mir den momentanen Preisverfall der GTX 470 anschaue, momentan auf 269€ runter( http://www.alternate.de/html/product/Grafikkarte/Asus/ENGTX470-2DI/153082/?baseId=681354 ), dann könnte das schon ein Vorbote für den Abverkauf der 470er sein damit Platz ist für die 475 oder doch nur eine Reaktion auf die "guten" Zahlen?

OgrEGT
2010-08-05, 19:48:41
Schon bekannt?

http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2010/august/gtx_480_512_kernen_2x_8-pin-stromstecker/

GTX 480 mit 512 Kernen und 2x 8-Pin-Stromstecker
Den chinesischen Kollegen von Expreview wurden Informationen und erste Ergebnisse zu einer GeForce GTX 480 zugespielt, so wie sie der Plan ursprünglich einmal vorsah. Dies soll heißen, dass keine 480 „CUDA“-Kerne im Einsatz sind, sondern die vollen 512 – so wie es alles einmal gedacht war.

Doch damals machte die schlechte Ausbeute bei der Herstellung und der exorbitante Stromverbrauch dem Prozedere einen Strich durch die Rechnung. Zumindest letzteres hat man aber immer noch nicht im Griff; die zwei verbauten 8-Pin-Stromstecker lassen zusammen mit dem PCI-Express-Slot eine Leistungsaufnahme von 375 Watt zu.

Nightspider
2010-08-05, 19:53:11
Schon bekannt?

http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2010/august/gtx_480_512_kernen_2x_8-pin-stromstecker/

GTX 480 mit 512 Kernen und 2x 8-Pin-Stromstecker
Den chinesischen Kollegen von Expreview wurden Informationen und erste Ergebnisse zu einer GeForce GTX 480 zugespielt, so wie sie der Plan ursprünglich einmal vorsah. Dies soll heißen, dass keine 480 „CUDA“-Kerne im Einsatz sind, sondern die vollen 512 – so wie es alles einmal gedacht war.

Doch damals machte die schlechte Ausbeute bei der Herstellung und der exorbitante Stromverbrauch dem Prozedere einen Strich durch die Rechnung. Zumindest letzteres hat man aber immer noch nicht im Griff; die zwei verbauten 8-Pin-Stromstecker lassen zusammen mit dem PCI-Express-Slot eine Leistungsaufnahme von 375 Watt zu.

Schon die Möglichkeit bekannt, zurückzublättern und selbst zu schauen? ;)

Ja, ist alt. ;)

OgrEGT
2010-08-05, 21:13:12
Ich hab jetzt ein paar Tage nicht mitgelesen...
Auf welcher Seite?

Nightspider
2010-08-05, 21:16:08
2 Seiten zuvor?

OgrEGT
2010-08-05, 21:21:38
Gestern schrieb BlackBirdSR:

Naja ich denke die 512er GF100 müssen irgendwann mal auf den Markt kommen. Das ist wahrscheinlich auch ne Sache der Firmenpolitik. Eine große Rolle wird sie für uns normale Consumer eh nie spielen.

Kommen überhaupt Tesla/Quadro-Karten mit voller Ausbaustufe?


@Watercooling:
Das Gleiche hier: Ich würde mir den Aufwand niemals antun wollen.
Gibts eigentlich ne funktionsfähige Alternative zu NHancer?

Ah jetzt hab ichs gesehen :freak:

Im bei computerbase verlinkten Atrikel auf expreview steht immerhin ein Vantage Score von P23904 bei 700/1401/924

master_blaster
2010-08-05, 23:12:33
Ich denke, wenn NV eine GTX 485 bringt ...
Man liest überall nur von 'ner "GTX 485". Hat sich nVidia offiziell von der Namensgebung "Ultra", also in dem Fall "GeForce 480 Ultra", verabschiedet? Fände ich persönlich schade. "GTX 480 Ultra" klingt einfach nach dickerem Penix als "GTX 485", :ugly:.

Coda
2010-08-06, 00:03:26
Ultra wurde bisher eigentlich nur für eine Karte mit leicht höheren Taktraten verwendet.

Gast
2010-08-06, 17:28:21
Update 06.08.2010 14:39 Uhr:

Einen Tag später hat Expreview unsere Wünsche erhört und liefert zwei Benchmarks, die den Vergleich vom Vorgänger zum Nachfolger zeigen. Demnach bringt die 512-Kern-Variante in 3DMark Vantage 550 Punkte mehr, was ziemlich genau fünf Prozent Leistungszuwachs entspricht. In Crysis Warhead werden statt bisher 32,96 FPS mit dem neuen Modell 34,72 Bilder pro Sekunde erreicht, was ebenfalls fünf Prozent Zuwachs entspricht.

http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2010/august/gtx_480_512_kernen_2x_8-pin-strom/

http://img63.imageshack.us/img63/4708/88504210.jpg

Nightspider
2010-08-06, 17:40:23
Auch nix Neues...die Mehrperformance haben wir uns schon vor Monaten ausgerechnet mit 5-7%...die 20Mhz mehr waren auch schon vor Wochen im Umlauf...

Gast
2010-08-06, 17:47:25
Solang es da keine Folie von Nvidia, Nvidia-PCB (Logo!) oder einen Heatspreader mit gut lesbarem GF100-...-B... gibt, kann das einfach einer von diesen 512SPs Dies sein, die aller 3 Wafer auftreten sollen in der A-Revision.

Und je näher man dem Herbst kommt, umso weniger attraktiv wird eine GeForce 400 jenseits der 400€. Immerhin könnte AMD im Oktober mit einer HD 6870 mit einer Leistung deutlich jenseits der GTX 480 für deutlich unter 400€ eine neue Preisrunde eröffnen, die schon lange überfällig ist.

tombman
2010-08-06, 17:50:42
Die 5% machen das Kraut auch nimmer fett- southern islands wird die trotzdem verkloppen.

Und jetzige 480-user können einfach mehr vcore geben und die 5% wieder hereinholen :D

Gast
2010-08-06, 17:54:46
Für eine wirkliche Überraschung müsste eine GF100b basierende GTX 485 schon 800/1600/1100MHz mit 512 SPs bei 225W TDP schaffen.

Gast
2010-08-06, 17:58:36
Die 5% machen das Kraut auch nimmer fett- southern islands wird die trotzdem verkloppen.


SI wird sich an der Tesselationsleistung messen lassen müssen, daher glaube ich nicht das die so einfach die GTX480 verkloppen. ;)

Mark3Dfx
2010-08-06, 18:12:25
Vielleicht meinte Tombi ja, sie (480), verkloppt SI.

tombman
2010-08-06, 19:35:21
Also, wenn SI Fermi nicht verkloppen kann, wäre das IMO ein FAIL von AMD...

Gast
2010-08-06, 19:38:51
Also, wenn SI Fermi nicht verkloppen kann, wäre das IMO ein FAIL von AMD...
Bis man G80 "verkloppen" konnte, dauerte auch 20 Monate.
Dass AMD das Niveau der Tessellations und Geometrie-Leistung eines GF100 nicht erreicht, wäre durchaus denkbar, sodass man hier in den teils von NV konstruierten Benchmarks eben nicht sich behaupten kann.

-Holdrio-
2010-08-08, 14:59:37
Eine 3GB Version wäre eh viel interessanter als die paar Cudas und MHZ für die Gallerie!
Beim ersten richtig dicken Texturmod plus ordentlich AA liefen die recht mickrigen 1.5GB schon über grmpf.

Aber wie schon bei der 285 weit und breit keine mit doppeltem Speicher zu sehen bis es kaum einen noch interessiert, dafür gibts die olle 460 praktisch von Anfang an schon als 2GB Version, soll mal einer verstehen, total gaga! :crazy2:

AnarchX
2010-08-09, 16:40:16
GTX 480 512SPs Review:

http://www.expreview.com/img/review/512sp_GTX480/gz.png
... man achte auf die Taktraten.

http://www.expreview.com/img/review/512sp_GTX480/powerc.png
... laut Text ohne den Mehrtakt.

http://en.expreview.com/2010/08/09/world-exclusive-review-512sp-geforce-gtx-480/9070.html

Coda
2010-08-09, 16:47:52
Das kann eigentlich kaum sein, dass der Chip 200W mehr braucht. Das könntest selbst mit diesem Kühlmonster nicht abführen.

Und wie sollen 6% mehr Recheneinheiten zu fast doppelter Verlustleistung führen? Irgendwas stinkt da doch.

Black-Scorpion
2010-08-09, 16:47:53
204W mehr unter Last?
Soll das ein Witz sein oder die bittere Realität?

Coda
2010-08-09, 16:51:47
Woher kommt die Karte überhaupt? Ich vermute mal stark, dass ist einer der ersten A1-Chips ist und ein Evaluation-Board.

Das haben sie nämlich überall auch verwischt.

Hugo78
2010-08-09, 17:01:46
Considering the sample we have has yet to be improved and the increase of GPU voltage brought some negative effects, we’re not sure about the power consumption of final product.
Das Vorseriensample der 4870x2 hatte damals auch 100W mehr verbraucht.

Na ja, toller Test für die Seite.
Da bekommen sie halt Klicks ect. und die Leute haben wieder was zum aufregen im Sommerloch. ;D

Aber es braucht mehr als ein Vorseriensample ...

dildo4u
2010-08-09, 17:05:57
Der Test verwirt mich hat die Karte nun default 800 oder 700mhz?

AnarchX
2010-08-09, 17:09:20
Der Test verwirt mich hat die Karte nun default 800 oder 700mhz?
Das Sample hat 800/950MHz im BIOS, für den Test hat man die Taktraten der GTX 480 geflasht.

Aber der 200W höhere Last-Verbrauch passt nicht wirklich zu dem stabilen FurMark-Betrieb bei relativ akzeptabler Lautstärke.

Die Vorserien-Samples von GF100 sahen anders aus, auch im Bild bei der Zusammenfassung kann man auf dem Die eine Retail-Beschriftung erahnen.

Coda
2010-08-09, 17:13:52
Die Vorserien-Samples von GF100 sahen anders aus, auch im Bild bei der Zusammenfassung kann man auf dem Die eine Retail-Beschriftung erahnen.
Da sieht man überhaupt nichts, nichtmal unter Vergrößerung. Könnte genauso "Engineering Sample" draufstehen.

Man sieht nichtmal ob A- oder B-Stepping.

Gast
2010-08-09, 17:16:51
Das Sample hat 800/950MHz im BIOS, für den Test hat man die Taktraten der GTX 480 geflasht.

Aber der 200W höhere Last-Verbrauch passt nicht wirklich zu dem stabilen FurMark-Betrieb bei relativ akzeptabler Lautstärke.

Die Vorserien-Samples von GF100 sahen anders aus, auch im Bild bei der Zusammenfassung kann man auf dem Die eine Retail-Beschriftung erahnen.

Vermutlich hat die Karte eine höhere Spannung und das Netzteil beim Test ist schlicht am Ende.

Hugo78
2010-08-09, 17:17:25
@AnarchX
Wenn Nvidia die Karte so bringen würde, dann wird Greenpeace mit Fackeln und Mistgabeln Jen-Hsun's Ferrari meucheln. ;D

Retailbeschriftung oder nicht, das Ding glaub ich erst wenn die im GPU-Z die Revision preisgeben.
Aber die hat man ja nicht umsonst unkenntlich gemacht. ;D

Dural
2010-08-10, 15:01:44
ist ja logisch...... mann mann ;)

eine GPU die default mit 800MHz taktet dürfte sehr wahrscheinlich auch mehr VGPU haben als die selbe GPU die mit 700MHz taktet...

Da bringt es so gut wie nichts nur den Takt auf 700MHz zusenken wenn die VGPU gleich bleibt ;)

Da es eine Vorserien Exemplar ist (sehr wahrscheinlich) dürfte die VGPU so wie so sehr böse nach oben ausbrechen da es hier noch komplett egal ist und die Karte einfach laufen muss.

Viel erstaunlicher finde ich das es GF100 Exemplare gibt die 512SP mit 800MHz Takt haben, was hat/hatte NV nur vor?!?

Gast
2010-08-10, 15:52:38
Die Karte hat 1,056V VGPU.

Dural
2010-08-10, 16:24:29
jetzt wo du es sagst, steh ja sogar

480SP hat 1.000V
512SP hat 1,056V

aber nein, das ist zu wenig um die 200Watt zurechtfertigen :rolleyes: komisch GF100 wird wohl immer ein rätsel bleiben ;)

Edit: das da oben stimmt nicht, rästsel... keine zeit jetzt

Ailuros
2010-08-10, 18:21:40
Woher kommt die Karte überhaupt? Ich vermute mal stark, dass ist einer der ersten A1-Chips ist und ein Evaluation-Board.

Das haben sie nämlich überall auch verwischt.

Ich verdaechtige auf dem Bild auf der letzten Seite eher einen stinknormalen A3 chip. Es ist ja nicht so dass 16 operative SMs nicht moeglich waren, nur eben bei extrem wenigen chips.

Ich werde auch den Verdacht nicht los dass dieses oede SM Problem irgendwie mit dem extravaganten Stromverbrauch zusammenhaengt. Die wichtigere Frage ist ob NVIDIA so einen Keks wirklich veroeffentlichen will unter A3. Sinn macht es zwar nicht aber an Schnappsideen in den letzten Jahren fehlt es ihnen ja nicht.

Uebrigens weiss ich bei bestem Willen nicht warum NVIDIA das Ding Fermi und nicht Thermi nennt :P ....
http://en.wikipedia.org/wiki/Thermo

Hugo78
2010-08-11, 07:53:43
Uebrigens weiss ich bei bestem Willen nicht warum NVIDIA das Ding Fermi und nicht Thermi nennt :P ....
http://en.wikipedia.org/wiki/Thermo

Ich muss Alzheimer haben, hat ich doch gedacht das ich hier gestern schonmal was gepostet hatte.
Aber egal, man wird hat alt.

Also, "Thermi" konnte Nvidia nicht nehmen, das Brand hatte sich AMD schon für ihre HD 4870 X2 gesichert.

http://i282.photobucket.com/albums/kk272/hugo78_2008/therealthermi.jpg

BiG OnE
2010-08-11, 08:31:36
Das neue daran ist aber, das Nvidia es diesmal mit einer Singlekarte schafft.

svenw
2010-08-11, 08:40:18
Mal ne blöde Frage: wo bekommt die Karte den Strom her?
Die hat laut Bild doch nur 2 8pin Anschlüsse also inklusive PCIe 375Watt. Das kann man etwas weiter ausreizen, aber auf 600 (minus CPU) kommt man dann noch lange nicht. 200 Watt mehr als eine normale 480er die schon an der 300W Marke kratzt geht mit den Anschlüssen einfach nicht.

Außerdem müßte beim Verbrauch entweder der Lärm durch die Decke gehen und/oder die Temperatur des Chips (wahrscheinlich eher beides).
Ich gehe mal davon aus, das bei der Leistungsmessung irgend etwas schief gegangen ist.

Gast
2010-08-11, 08:44:09
Ich muss Alzheimer haben, hat ich doch gedacht das ich hier gestern schonmal was gepostet hatte.
Aber egal, man wird hat alt.

Also, "Thermi" konnte Nvidia nicht nehmen, das Brand hatte sich AMD schon für ihre HD 4870 X2 gesichert.

http://i282.photobucket.com/albums/kk272/hugo78_2008/therealthermi.jpg

Das wurde von der Moderation gelöscht, keine gute Idee es einfach noch mal zu posten. ;)

Sorkalm
2010-08-11, 09:17:49
Also, "Thermi" konnte Nvidia nicht nehmen, das Brand hatte sich AMD schon für ihre HD 4870 X2 gesichert.

Schau dir das mal genau an, dass Testsysten 2 ist ein anderes.
Außerdem zieht sich das Problem bisher über alle Grafikchips (ja auch GF104, der wirkt nur im Vergleich zur 5830 besser weil die im Vergleich zu allen anderen 5000er-Serien einbricht), ist also kein spezielles Grafikkartenmodellproblem.

Spasstiger
2010-08-11, 10:50:52
Schau dir das mal genau an, dass Testsysten 2 ist ein anderes.
Und die verwendeten Benchmarks zur Ermittlung des Lastverbrauchs sind auch unterschiedlich. Beim HD-5970-Review (http://www.computerbase.de/artikel/grafikkarten/2009/test_ati_radeon_hd_5970/) ist die HD 4870 X2 dabei und da braucht die 4870 X2 43 Watt mehr als die HD 5970 (@ Bioshock). Die GTX 480 benötigt im GTX-480-Review 60 Watt mehr als die HD 5970 (@ Crysis Warhead).
Prozentual sind es aufs Gesamtsystem gerechnet 10% mehr bei der HD 4870 X2 und 15% bei der GTX 480, jeweils bezogen auf die HD 5970.

Gast
2010-08-11, 12:29:14
http://www.abload.de/img/leistungwe28.png
http://ht4u.net/reviews/2010/nvidia_geforce_gtx_480/index15.php

Gasti
2010-08-11, 12:56:04
Eine HD4870 1024MB 140W, Eine 4870X2 300.
Jo alles klar :ugly:

Gast
2010-08-11, 13:06:55
Die 5W/1,7% kommen durch Messungenauigkeiten, Serienstreuung, anderes Platinenlayout, stärker belastete VRMs, höhere Temperatur zustande.

Ailuros
2010-08-11, 13:59:24
Ich muss Alzheimer haben, hat ich doch gedacht das ich hier gestern schonmal was gepostet hatte.
Aber egal, man wird hat alt.

Also, "Thermi" konnte Nvidia nicht nehmen, das Brand hatte sich AMD schon für ihre HD 4870 X2 gesichert.

http://i282.photobucket.com/albums/kk272/hugo78_2008/therealthermi.jpg

Die eigentliche Antwort zum obrigen liegt im Stromverbrauch der 5970. Ich erwartete zwar nie dass eine 480 schneller sein wird als eine 5970, aber erwartete auch genauso wenig dass die erste mehr Strom verbraucht als eine 5970.

Und wenn's schon sein muss vergleich mal ausnahmsweise die Leistung zwischen einer GTX28x und einer 4870X2 und dann den Stromverbrauch und es wird nicht besonders schwer sein zu erkennen ob ein jeglicher Witz gerechtfertigt ist oder nicht.

http://www.xbitlabs.com/images/video/radeon-hd5970/5970_power.png

http://www.xbitlabs.com/articles/video/display/radeon-hd5970_5.html#sect0

Die Konkurrenz schaffte es trotz Steigerung der Chipkomplexitaet den Stromverbrauch sowohl bei single chip als auch bei mGPU SKUs zu reduzieren.

***edit: und damit Ihr weniger Grund zum meckern habt, Leonidas und den 300 zu Ehren werden wir das hier: http://en.wikipedia.org/wiki/Thermopylae auf Fermopylae umbenennen :D

Dural
2010-08-11, 15:26:04
auch bei ati hat sich in sachen stromverbrauch nicht viel getan... die 5970 schneidet nur deswegen gegen die 4870X2 so gut ab weil sie schlicht nicht zwei vollwertige GPUs wie die X2 verfügt, das ist alles... siehe auch 5970 850MHz 4GB karten die zum teil über 300watt verbrauchen

RV870 vs RV770/790 nehmen sich in diesem Bereich so gut wie rein gar nichts, beide GPUs sind auf der selben höhe was das betrifft...

ati boys können froh sein das sie bei ati zum ersten mal eine "X2" bekommen die ganz offensichlich selektierte GPUs haben und nicht wie früher bei der 3870 / 4870 X2 die standard GPUs drauf gepackt haben so nach dem motto die dumme meute kauft das auch so... ;) (ich hatte selber eine 3870X2)

das GF100 überproportional viel (zu viel) strom verbraucht weis mittlerweilen jeder, die frage ist aber eher wie so!

GF104 zeigt deutlich das es auch anders geht...

Gast
2010-08-11, 16:37:05
natürlich hat die 5970 2x vollwertige 5870 Chips, deshalb auch 2x1600 SPs, die 5850 hat nur 1x1440 SPs, AMD hat nur die Taktraten bei der 5970 abgesenkt.

LovesuckZ
2010-08-11, 16:51:55
das GF100 überproportional viel (zu viel) strom verbraucht weis mittlerweilen jeder, die frage ist aber eher wie so!

GF104 zeigt deutlich das es auch anders geht...

GF100 hat knapp 42% mehr Transistoren als Cypress und 58% als GF104.
Man sollte aber auch bedenken, dass GF100 in der Geometrieabarbeitung auch wesentlich schneller als alles andere ist.

Hugo78
2010-08-11, 16:54:14
Nun ich finds nur mittlerweile albern, immer die selbe Leier abzuspulen.
Wenn einem Hersteller mal sein neues Design auf die Füsse fällt, gibt es ja immer Katzenjammer und Häme.

Aber im Fall Fermi wird sich aufgeregt, als ob NVidia kleinen Kindern die Süßigkeiten gemoppst hätte.
Vergessen ist, dass sich ne 4890 sogar 60W im Idle gesaugt hat, wo selbst ne 480 heute "nur" 45W schluckt ect.
Damals gabs kurz Katzenjammer, aber hey die Karte war ja ssooo billig.
Schwamm drüber, vergessen, verdrängt, vergeben und egal.

Und beim Fermi jammert man immernoch.
Dabei leistet die erste Version als GF100 im HPC Bereich einiges.
Und als GF104 ist man auch entlich im Spielemarkt, schnell und effizient unterwegs. Verbraucht im Idle sowenig wie ne 5770.
Und ich bin gespannt, ob AMD ihre jetzige Effizienz, auch noch halten können, wenn ihr nächstes Design in Sachen Dreicksleistungs zum Fermi aufschließt.

PS:
Die xbitlabs Grafik ist ja wohl ein schlechter Scherz.
:facepalm:
Die Werte decken sich nicht mal im Ansatz mit dem meisten anderen Tests.
Aber von xbitlabs erwarte ich das auch nicht anders, die Testen Ati Karten mit Treiber default Settings mit all seinen Performancevorteilen,
und bei Nvidia schalten sie alles auf Max. Qualität, was sich entsprechend negativ auf die Leistung auswirkt.
Dat tut zwar zum Verbauch keinen Unterschied, wundert mich aber auch nicht das die zb. nur 100W als 3D peak für ne 5870 angeben, wo AMD selber eine TDP von 188W angibt... :uclap:

PCGH zb. hat hier deutlich realistische Werte.
http://i282.photobucket.com/albums/kk272/hugo78_2008/verbrauch.jpg
http://www.pcgameshardware.de/aid,699599/Test-Radeon-HD-5970-Hemlock-Die-schnellste-DirectX-11-Grafikkarte-der-Welt/Grafikkarte/Test/

http://i282.photobucket.com/albums/kk272/hugo78_2008/verbrauch2.jpg
http://www.pcgameshardware.de/aid,743333/Geforce-GTX-470-und-GTX-480-Test-der-GF100-Generation-mit-SLI-Update-DX11-Techdemos-von-AMD/Grafikkarte/Test/?page=2

Dural
2010-08-11, 17:02:10
natürlich hat die 5970 2x vollwertige 5870 Chips, deshalb auch 2x1600 SPs, die 5850 hat nur 1x1440 SPs, AMD hat nur die Taktraten bei der 5970 abgesenkt.

aha und jetzt überlege mal was ich mit "nicht vollwertig" gemeind habe ;)

GF100 hat knapp 42% mehr Transistoren als Cypress und 58% als GF104.
Man sollte aber auch bedenken, dass GF100 in der Geometrieabarbeitung auch wesentlich schneller als alles andere ist.

und GF100 verbraucht trotzdem fast 100% mehr strom als GF104 bei nur 60% mehr Trans. da stimmt was nicht.

am ende wird es schon an dem 40nm prozess liegen... AMD selber hat ja gesagt das sie wengen den "40nm Problemen" den ursprünglichen RV870 eigentlich grösser gewessen wäre aber man rechtzeitig drauf reagiert habe... Auch NV hat reagiert und haben den GT212 komplett gestrichen und den GF104 sehr sehr wahrscheinlich vergrössert in dem man von 32SP auf 48SP hinauf ging

Gast
2010-08-11, 18:06:26
Ein evtl. "Refresh" einer GTX 475 / 485 wird aber noch in 40 nm gefertigt werden, nicht in 28 nm, das scheint doch sicher zu sein?

Hugo78
2010-08-11, 18:37:50
Davon kann man ausgehen.
Es ist ja nicht so, dass TSMC überhaupt keine Fortschritte macht.
Der 40nm wird sicherlich aktuell besser funktionieren, als noch im August letzten Jahres.

Nightspider
2010-08-11, 18:51:37
Dürfte auch interessant sein, was Nvidia bis zum 28nm Prozess plant.

Man wird sich ja bestimmt nicht bis dahin auf den GF104 und GF100(b) ausruhen.

Hoffe da kommen noch paar richtige Refresh Karte im 1.Halbjahr 2011.

Schließlich sollte Fermi ursprünglich schonmal 2009 erscheinen.

Ailuros
2010-08-11, 20:05:26
auch bei ati hat sich in sachen stromverbrauch nicht viel getan... die 5970 schneidet nur deswegen gegen die 4870X2 so gut ab weil sie schlicht nicht zwei vollwertige GPUs wie die X2 verfügt, das ist alles... siehe auch 5970 850MHz 4GB karten die zum teil über 300watt verbrauchen

Das ist mir als einfacher Beobachter aber eigentlich wurscht im Angesicht der gelieferten Leistung einer 5970 oder noch genauer perf/W.

RV870 vs RV770/790 nehmen sich in diesem Bereich so gut wie rein gar nichts, beide GPUs sind auf der selben höhe was das betrifft...

ati boys können froh sein das sie bei ati zum ersten mal eine "X2" bekommen die ganz offensichlich selektierte GPUs haben und nicht wie früher bei der 3870 / 4870 X2 die standard GPUs drauf gepackt haben so nach dem motto die dumme meute kauft das auch so... ;) (ich hatte selber eine 3870X2)

Und eine GTX480 ist unter dieser Logik nicht "selektiert" oder was? Eine 15SM GPU mit leicht reduzierten Frequenzen als anfangs geplant damit der Stromverbrauch nicht gleich durch die Decke donnert. Es geht mir nicht um AMD sondern um die Deppen die bei NVIDIA Entscheidungen treffen.

das GF100 überproportional viel (zu viel) strom verbraucht weis mittlerweilen jeder, die frage ist aber eher wie so!

Steht im letzten Satz oben. Egal wie oft man es analysiert, NVIDIA hat es nicht geschafft zu glaenzen seit G92. Es kann mir keiner einreden dass die engineers nicht wissen wo es lang geht, ergo wo hapert es dann wohl?

GF104 zeigt deutlich das es auch anders geht...

Tja es kam nach ca. 10 Monaten 58x0 Existenz endlich was auf die Regale dass man als um einiges anstaendiger ansehen kann als GF100. Waere die Welt untergegangen wenn sie seit Q3 2009 schon 104-er auf Regalen gehabt haetten und im absoluten Notfall mGPU fuer high end?

http://www.guru3d.com/article/geforce-gtx-460-sli-review/

Stromverbrauch:

http://www.guru3d.com/article/geforce-gtx-460-sli-review/15

Und bitte kommt mir keiner mit dem Tesla/Quadro bullshit Argument. Tesla's wurden am Ende mit brutal reduzierten Frequenzen (als anfangs eingeschaetzt) veroeffentlicht und der Stromverbrauch ist trotz geringeren Frequenzen um einiges hoeher. Was jetzt Quadros betrifft ich bin mir sicher dass die 256SP Varianten keine 104 chips sind (maximal bis zu 448SPs, aber rate mal welche SKU mehr verkaufen wird).

In 2006 erschien auch mir ATI's Strategie bei performance halt zu machen und high end mit mGPU zu bedienen als Schnappsidee. Nur hab ich heutzutage den Anstand mir selber zuzugeben dass ich auf dem falschen Bein stand.

Dürfte auch interessant sein, was Nvidia bis zum 28nm Prozess plant.

Wenn GF100 wirklich einen re-spin sieht, dann hoechstwahrscheinlich ein leicht schnellerer chip mit hoffentlich weniger Stromverbrauch.

Man wird sich ja bestimmt nicht bis dahin auf den GF104 und GF100(b) ausruhen.

Wenn kein re-spin vorkommt oder besser ausgedrueckt wenn dieser nichts bringt, dann werden sie sich mit 104-mGPU durchpruegeln muessen und das ist dann natuerlich tragische Ironie im Angesicht vom obrigen....

Hoffe da kommen noch paar richtige Refresh Karte im 1.Halbjahr 2011.

Schließlich sollte Fermi ursprünglich schonmal 2009 erscheinen.

Uhmm kommt drauf an was Du genau darunter meinst. Im Herbst dieses Jahres kommt bestimmt etwas; was jetzt 28nm@TSMC betrifft wuerde ich vor H2 11' keine Wetten eingehen....

Fetza
2010-08-16, 20:37:54
Wie sieht es eigentlich in bezug auf eine vernünftige gamer-graka im gf100 vollausbau aus? Wird es sowas bis zum ersten quartal nächsten jahres geben? Ich stelle mir da einen gf100 vor, der halt auf den ganzen (aus gamer sicht) unnötigen gpgpu-kram verzichtet, die dafür benötigten caches und dergleichen aus dem design entfernt und dann mit deutlich kleinerer die-fläche trotz gleichem fertigungsprozess (40nm) nochmal nv bis zum 28nm-prozess über die runden bringt.

Nv muss reagieren, wenn ati southern islands wirklich ende des jahres launched. Mit der gtx480 ist dann nichts mehr zu holen und um sie massiv im preis zu senken, ist sie schlicht zu teuer. Zumal nv dasselbe schicksal schon mit der gt200 erlitten hat - ich war ja einer der nutznießer damals (gtx280 für unter 250 euro).

Dural
2010-08-16, 21:03:50
was haltet ihr eigentlich von 768SP / 128TMUs / 48ROPs mit den bekannten GF104 cluster (48SP / 8TMUs) in 40nm?!? klar die Die wär noch mal grösser als GF100, jedoch wäre das nicht viel sondern "nur" um die ca. 600mm2 / 3,5M... wäre jetzt also nicht viel grösser als GF100 jetzt und der 40nm prozess dürfte immer wie besser werden, da könnte man im H1 2011 vileicht sowas wagen :rolleyes:

theoretisch wäre so eine GPU sicher möglich, jedoch stellt sich halt nach wie vor die frage was der 40nm prozess im 2011 wirklich taugt... und eigentlich wäre es der purre wahnsinn wenn isch das NV trauen würde ;)

Sorkalm
2010-08-16, 22:40:12
was haltet ihr eigentlich von 768SP / 128TMUs / 48ROPs mit den bekannten GF104 cluster (48SP / 8TMUs) in 40nm?!? klar die Die wär noch mal grösser als GF100, jedoch wäre das nicht viel sondern "nur" um die ca. 600mm2 / 3,5M... wäre jetzt also nicht viel grösser als GF100 jetzt und der 40nm prozess dürfte immer wie besser werden, da könnte man im H1 2011 vileicht sowas wagen :rolleyes:

Das hat man schon mit einer Dual-GF104-Karte. ;)

Und ne, ich glaube nicht, das sowas als eigene GPU kommt. Die Spezifikationen hätte man etwas langfristiger festlegen müssen..

Psychopat
2010-08-16, 23:23:09
Der GF100 kann noch immer nicht vernünftig produziert werden, da denkt doch niemand darüber nach etwas NOCH größeres zu versuchen. Ich denke als Antwort auf SI kommen GF104 und GF100 im Vollausbau sowie eine dual GF104. Mehr aber auch nicht.

Dural
2010-08-17, 10:10:23
ja denk ich sicher auch...

aber dual GF104 könnte nicht reichen je nach dem, da bleibt nur dual GF100 Bx übrig der vieleicht doch ähnlich zum GF104 sein könnte (576SP/96TMUs zb.)

Gast
2010-08-17, 18:23:43
Da noch überhaupt keine technischen Daten zu SI aufgetaucht sind ist es doch schon sehr gewagt zu behaupten, dieser würde eine 480er GTX im Vollausbau wegblasen. Schließlich muß Ati auch noch in 40nm fertigen und da ist nunmal kaum viel mehr drin. Ich denke eher das SI nur geringfügig schneller wird als Cypress, dafür aber bei der Tesselation gut zulegen wird.

Don-Roland
2010-08-17, 18:28:11
Wo bleibt eigentlich der GF102? Sollte der nicht schön langsam mal den GF100 auf GTX 475 & GTX 485 ablösen?

Gast
2010-08-17, 18:33:16
GF102/101 wurde wohl mit dem ausbleibenden 32nm Prozess gecancelt.

Aber vielleicht überrascht uns Nvidia noch 2010 mit zwei GF104 auf einem Package, ohne AFR. ;)

MadManniMan
2010-08-19, 09:52:06
Wie sieht es eigentlich mit den Launchterminen für die kleineren Fermis aus? Kommt diesen Sommer noch etwas?

Gast
2010-08-19, 09:56:21
Wie sieht es eigentlich mit den Launchterminen für die kleineren Fermis aus? Kommt diesen Sommer noch etwas?
12. September GTS 450 (GF106).
Danach kommen noch kleinere Ableger des GF106: GTS 445, GT 440.
Und als Nvidias D3D11-Einstieg kommt noch GF108 wohl als GT 430, 425, 420.

Bei GF104 könnte es mit der GTS 455 noch einen Ableger unter der GTX 460 geben.

Ailuros
2010-08-19, 11:02:18
Aber vielleicht überrascht uns Nvidia noch 2010 mit zwei GF104 auf einem Package, ohne AFR. ;)

Ein relevantes Geruecht ueber eine alternative Methode fuer AFR kursiert tatsaechlich hinter den Kulissen, aber ich glaube es erst wenn ich es sehe und wenn bleibt abzusehen ob es wirklich zu sehenswerterer Skalierung fuehrt.

Ailuros
2010-08-25, 13:24:14
Noch ein Test mit GTX460/1GB@SLi: http://www.xbitlabs.com/articles/video/display/gf-gtx460-sli.html

Leider keine Stromverbrauch-messungen fuer's SLi config vs. 5970.

master_blaster
2010-09-16, 21:49:23
Waren die Benchmarkergebnisse von der GeForce GTX 480 512/GTX 485/ GeForce 480 Ultra eigentlich gefaked? Ist ja verdächtig still um die Karte geworden.

Ursprüngliche News (http://en.expreview.com/2010/08/09/world-exclusive-review-512sp-geforce-gtx-480/9070.html)