PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GF11x - GeForce-500-Serie (Q4 2010 - Q2 2011)


Seiten : [1] 2 3 4 5

AnarchX
2010-10-22, 12:08:06
GTX 580: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8353738

Bekannte Codenamen:

GF110
GF112
GF114
GF117
GF119

Quellen und diverse Zusatzinfos:

http://img264.imageshack.us/img264/4770/gtx580.png (http://img264.imageshack.us/i/gtx580.png/)

http://www.nvidia.com/object/3d-vision-requirements.html

Nvidia is preparing to launch its GF110-based GeForce GTX 580 by the end of November or early December 2010 with performance 20% faster than its current GeForce GTX 480, according to sources from graphics card makers.
http://www.digitimes.com/news/a20101020PD223.html

http://img413.imageshack.us/img413/5271/captureyut.png
http://forum.beyond3d.com/showpost.php?p=1484516&postcount=6921

Geforce „475“ is GF114 based

The „475“card is codenamed GT114 and it is likely to become the new Geforce GTX 560. Nvidia believes that their new cards deserve GTX 5x0 names, and this is what is supposed to happen.

http://fudzilla.com/graphics/item/20588-geforce-„475“-is-gf114-based

http://img843.imageshack.us/img843/2199/001bmn.jpg (http://img843.imageshack.us/i/001bmn.jpg/)

http://translate.google.de/translate?hl=de&sl=ja&tl=en&u=http%3A%2F%2Fwww.4gamer.net%2Fgames%2F099%2FG009929%2F20101015013%2F

NVIDIA_DEV.1098.01 = "NVIDIA D13U "
NVIDIA_DEV.109A.01 = "NVIDIA N12E-Q5"

GF112/114 als GeForce GTX 500 Mobile und GTX 560?

Dural
2010-10-22, 12:46:25
naja ob man da wirklich drauf gehen kann, zb. gab es auch nie ein "GT206"

Hugo78
2010-10-22, 14:58:48
Nvidia sollte sich entlich auch mal Codenames für ihre Karten ausdenken, statt nur ihre Chips mit Codenames zuversehen.
Das verwirrt scheinbar genug Leute, zum positiven hin, fürs Marketing.
Der psychologisch Effekt ist nicht zu verachten, den man aktuell erkennt.

Beim Bart zb. fragt keiner genau nach, was jetzt in welcher Qualität und Quantität verändert / verbessert wurde, gegenüber Cypress.
Es gibt sogar Leute, die meinen man dürfe sich garnicht auf Cypress beziehen, weils ja eigentlich Junipernachfolger wären.
Aber Juniper ist doch nix anderes als ein halber Cypress ... naja.

Bei den GF11x wirds dagegen wieder kleinlichen Bullshit Bingo geben, ob diese Karten tatsächlich als GTX 500 Reihe verkauft werden dürfen, ect. pp.

DrFreaK666
2010-10-22, 15:02:15
Nvidia sollte sich entlich auch mal Codenames für ihre Karten ausdenken, statt nur ihre Chips mit Codenames zuversehen.
Das verwirrt scheinbar genug Leute, zum positiven hin, fürs Marketing.
Der psychologisch Effekt ist nicht zu verachten, den man aktuell erkennt.

Beim Bart zb. fragt keiner genau nach, was jetzt in welcher Qualität und Quantität verändert / verbessert wurde, gegenüber Cypress.
Es gibt sogar Leute, die meinen man dürfe sich garnicht auf Cypress beziehen, weils ja eigentlich Junipernachfolger wären.
Aber Juniper ist doch nix anderes als ein halber Cypress ... naja.

Bei den GF11x wirds dagegen wieder kleinlichen Bullshit Bingo geben, ob diese Karten tatsächlich als GTX 500 Reihe verkauft werden dürfen, ect. pp.

Bei den neuen AMD-Karten wurde die Namensgebung auch bemängelt!!!

Hugo78
2010-10-22, 15:13:26
Jo, aber hier liegt es nur am Segment.
Erwartet wurde, dass die 6870 schneller als ihr Namesvorgänger wird.
Es zweifelt aber keiner an der 6 in 6xxx im Namen, nur an der x8xx.

Bei den GF11x wirds dagegen heißen, hey das ist nur ne kleine Verbesserung, die sollte NV mal besser als "GTX 490 / 485 / 475 und weiß der fuchs" verkaufen.
Und es wird sicherlich wieder Experten geben die sogar vom umlabeln sprechen.
A la "GF114 ist ja nur ein GF 104 mit kleinen Veränderungen, also eigentlich ein GF104b" und so weiter ect. pp.

kunibätt
2010-10-22, 17:26:18
Ich frage mich inwiefern die News um GTX580 wohl stimmen.
Alleine die spekulierten Specs von von 128 TMUs und einem 512-bittigen Interface klingen schon etwas strange. Wenns stimmt ists natürlich fein für SGSSAA und Downsampling so viel Rohleistung zu haben :freak:

mapel110
2010-10-22, 17:31:19
128 TMUs und 512 bit Interface stelle ich mir eher als Dual-GF104 vor. Was anderes kann das kaum sein. Für eine 20%ige Leistungssteigerung von 480 auf 580 sollte etwas schnellerer Speicher, 512 SPs und etwas mehr Takt ausreichen.

Cubitus
2010-10-22, 18:26:45
Meinste wirklich die 512 SP reißen es raus ?
Die 480 hat ja schon 480 SP!

Also ich rechne da pi mal daumen mit max 10%

Wenn überhaupt müsste dazu der Takt stark angehoben werden und ob das gut geht hmm.

Ailuros
2010-10-22, 20:26:53
Frequenz um ~7% hoeher.

AffenJack
2010-10-22, 22:01:45
Also 7% mehr Shader, 7% mehr Takt, sindwa schon bei 15%. Schonmal nen guter Anfang. Nun die Frage obs wirklich 128Tmus sind und wieviel die bringen können? Sowie natürlich wie der Verbrauch ist.

boxleitnerb
2010-10-22, 22:06:08
Also wenn die TDP bei 200-225W liegt und der Verbrauch diesmal nicht wieder 50W darüber liegt, wäre es noch ok. Nicht schön, aber ok im Verhältnis zum Gebotenen, wenn die Performance noch leicht gesteigert wird.

Nightspider
2010-10-22, 22:15:02
Wieviel Mehrleistung könnten 128TMUs bei Downsampling oder SSAA bringen?

20% 50% ?

mapel110
2010-10-22, 22:43:04
Wieviel Mehrleistung könnten 128TMUs bei Downsampling oder SSAA bringen?

20% 50% ?
Grob gesagt, desto älter das Spiel, desto eher schlagen die TMUs durch.

LovesuckZ
2010-10-22, 22:55:16
TMUs sollten sich bei SSAA durchschlagen, da man mehrere Sample-Positionen verwendet.
Für Downsampling benötigt man mehr Rechenleistung. Bei Verdopplung der TMUs, aber nur ca. 14% mehr Rechenleistung, würde SSAA eher beschleunigt werden als Downsampling.

boxleitnerb
2010-10-23, 07:17:20
Sagt mal, bzgl. Downsampling:

Das ist ja momentan noch ein ziemliches Gemurkse mit Monitortreibern, Tools, Bildwiederholraten...
Ist es nicht möglich, dass die Grafikkarte per Treiber angewiesen wird, das DS zu übernehmen und das schon runtergerechnete Bild an den Monitor zu übergeben? Das wäre doch die perfekte Lösung, da man so unabhängig von den Fähigkeiten des Monitors wäre.

@Redakteure, besonders PCGH:

Habt ihr das Thema mal bei Nvidia angesprochen? Gabs ein Feedback dazu?

Chris Lux
2010-10-23, 07:29:58
TMUs sollten sich bei SSAA durchschlagen, da man mehrere Sample-Positionen verwendet.
Für Downsampling benötigt man mehr Rechenleistung. Bei Verdopplung der TMUs, aber nur ca. 14% mehr Rechenleistung, würde SSAA eher beschleunigt werden als Downsampling.
wo soll denn ein unterschied sein bei SSAA und "downsampling"? letzteres ist _nichts_ anderes...

AnarchX
2010-10-23, 09:29:49
SG-SSAA ist definitiv nicht mit Downsampling zu vergleichen. Bei ersterem findet Subsampling statt und es können solche HW-Optimierungen, wie Shaderfrequency von >D3D10.1 verwendet werden.
Bei CB sieht man das auch gut, dass die GTX 460 ihre hohe TMU-Leistung bei SG-SSAA eben nicht auspielen kann: http://www.computerbase.de/artikel/grafikkarten/2010/test-amd-radeon-hd-6870-und-hd-6850-update/21/#abschnitt_benchmarks_mit_ssaa

Chris Lux
2010-10-23, 14:49:17
jedes AA-verfahren führt am ende ein downsampling durch. was hier immer hip als "downsampling" bezeichnet wird ist SSAA, nur dass das finale downsampling durch den scaler durchgeführt wird.

mich regt diese verdummende bezeichnung seit ewigkeiten endlos auf ;).

deekey777
2010-10-23, 14:54:07
jedes AA-verfahren führt am ende ein downsampling durch. was hier immer hip als "downsampling" bezeichnet wird ist SSAA, nur dass das finale downsampling durch den scaler durchgeführt wird.

mich regt diese verdummende bezeichnung seit ewigkeiten endlos auf ;).
Wobei es "stupides" OGSSAA ist, oder?

Nightspider
2010-10-23, 17:06:11
Falls die GTX475 bzw. 570 mit GF104 Chip daherkommt sollte sie doch günstiger zu fertigen sein, als die jetztigen GTX470 Karten oder?

Könnte die neue dann sogar noch billiger als die Alte beim Release sein?

Denn ne GTX470 gibts jetzt schon ab 199,- Euro. (Zumindest hatte also der Release der HD6000er Karten einen guten Einfluss auf den Preis)

Wenn die GTX570 dann gleich schnell oder ~10% schneller wird bei geringerem Stromverbrauch und vielleicht noch besserer Übertaktbarkeit wäre es eine super Karte für ~180-200 Euro.

dildo4u
2010-10-23, 17:11:00
Falls die GTX475 bzw. 570 mit GF104 Chip daherkommt sollte sie doch günstiger zu fertigen sein, als die jetztigen GTX470 Karten oder?

Klar Chip kleiner nur 256 Bit Speicherinterface,weniger V-Ram etc.

Fetza
2010-10-23, 18:01:32
Hier stand mist.

Chris Lux
2010-10-23, 18:08:41
Wobei es "stupides" OGSSAA ist, oder?
genau.

Ailuros
2010-10-24, 09:59:22
Also wenn die TDP bei 200-225W liegt und der Verbrauch diesmal nicht wieder 50W darüber liegt, wäre es noch ok. Nicht schön, aber ok im Verhältnis zum Gebotenen, wenn die Performance noch leicht gesteigert wird.

Selbst bei 250W TDP sollte es kein Problem sein so lange das perf/W ratio auch wirklich stimmt.

boxleitnerb
2010-10-24, 10:05:17
Ich würde die Karte zwar mit Wasser kühlen, aber die Entwicklung gefällt mir nicht. Da muss die Perf/W wirklich nochmal ein gutes Stück besser als bei GF104 sein. Zugreifen würde ich sowieso, weil ich mir nichts mehr unter Highend kaufe, aber glücklich wäre ich nicht darüber.
Was machen dann erst die Luftkühler? Man sieht ja, dass man für leise Karten bei GF100 schon einen ordentlichen Aufpreis zahlen musste (Zotac AMP).

Ailuros
2010-10-24, 10:10:09
Ich würde die Karte zwar mit Wasser kühlen, aber die Entwicklung gefällt mir nicht. Da muss die Perf/W wirklich nochmal ein gutes Stück besser als bei GF104 sein. Zugreifen würde ich sowieso, weil ich mir nichts mehr unter Highend kaufe, aber glücklich wäre ich nicht darüber.
Was machen dann erst die Luftkühler? Man sieht ja, dass man für leise Karten bei GF100 schon einen ordentlichen Aufpreis zahlen musste (Zotac AMP).


Was hat ein mainstream chip (GF104) mit einem high end chip (GF110) genau gemeinsam? Genau gar nichts.

Unterhalb GF110 wird die mainstream Luecke von GF114 gefuellt welcher eigentlich eher ein voller "GF104" ist mit ein paar kleinen "Aenderungen".

boxleitnerb
2010-10-24, 10:13:06
Hab ich auch nicht behauptet. Hab nur gesagt, in welchem Bereich ich mir Perf/W wünsche. Warum sollte das im Highend nicht möglich sein? Es sei denn, GF110 basiert größtenteils auf GF100 und hat mit GF104 weniger gemein.

Ailuros
2010-10-24, 10:36:54
Hab ich auch nicht behauptet. Hab nur gesagt, in welchem Bereich ich mir Perf/W wünsche. Warum sollte das im Highend nicht möglich sein? Es sei denn, GF100 basiert größtenteils auf GF100 und hat mit GF104 weniger gemein.

GF110 wird hoechstwahrscheinlich wie folgend aussehen:

512SPs - 2*16/SM
8 TMUs/SM
8*64bit
16*128MB
750/1500/900MHz

Wenn dieses jetzt stimmt und das Resultat liefert insgesamt =/>25% mehr Leistung als eine GTX480 mit diesmal echtem 250W TDP bin ich persoenlich erstmal mit dem Resultat zufrieden.

Der eigentliche "volle" GF104 den allen erwarten wird ja sowieso einen neuen Codenamen tragen.

boxleitnerb
2010-10-24, 10:40:15
Ja, das wäre so doch ganz ok. Gibt es eigentlich Spekulationen, ob die 500er Serie neue Features mitbringt?

Ailuros
2010-10-24, 10:46:35
Ja, das wäre so doch ganz ok. Gibt es eigentlich Spekulationen, ob die 500er Serie neue Features mitbringt?

Keine Ahnung; wenn aber der top dog tatsaechlich 64 ROPs hat und wieder bis zu nur 32 pixels/clock rastert, dann kann ich mir so manche zusaetzliche AA-Turnerei darunter vorstellen.

Mal sehen was AMD mit Cayman und coverage sampling genau angestellt hat.

boxleitnerb
2010-10-24, 10:52:20
Wenn SGSSAA im Treiber implementiert würde und man das LOD auch bei DX9+ irgendwie verstellen könnte, fände ich das sinnvoller, als noch mehr die Polygonkanten mit 64x CSAA oder was auch immer zu glätten. Nvidia muss sich doch bewusst sein, dass Shader- und Alphatestaliasing heute ein weitaus größeres Ärgernis ist als nicht hoch genug aufgelöste Polygonkanten.

Ailuros
2010-10-24, 10:56:34
Wenn SGSSAA im Treiber implementiert würde und man das LOD auch bei DX9+ irgendwie verstellen könnte, fände ich das sinnvoller, als noch mehr die Polygonkanten mit 64x CSAA oder was auch immer zu glätten. Nvidia muss sich doch bewusst sein, dass Shader- und Alphatestaliasing heute ein weitaus größeres Ärgernis ist als nicht hoch genug aufgelöste Polygonkanten.

Fuer GF100 selber wurde die Erweiterung der TMAA samples auf coverage samples versprochen von dem ich aber bis jetzt nichts sehen konnte. Unter normalen Umstaenden solltest Du faehig sein bei 16x oder 32xCSAA noch jeweils 16x oder 32xTMAA zuschalten zu koennen.

Warum es nicht geht keine Ahnung. Vergiss aber nicht dass komplizierte Algorithmen nicht immer hinhauen und die Entwicklung dieser auch einiges an Resourcen kosten.

Hugo78
2010-10-27, 05:44:37
Photoshop?

http://img43.imageshack.us/img43/3873/gf125.jpg

AnarchX
2010-10-27, 07:47:55
Ja und ein schlechter noch dazu.
Oben rechts steht das Fertigungsjahr + Woche + Stepping.

Das ist ein GF100-A3, die SKU-Kennung, also das GF125 wurde geshopped. Wenn dann müsste in dieser auch A3 stehen.

Hugo78
2010-10-27, 08:06:57
Ja, die ganze Zahlenreihe nach GF1 sah mir nach Photoshop aus, aber hey es gab ja auch schon echte die ich für falsch hielt, von daher. :D
Ok, der Codename "GF125" allein klingt schon total daneben, zumindest noch, wer weis was in einem Jahr aktuell ist.

AnarchX
2010-10-27, 10:26:59
GTX 580 Support im 260.99?

http://translate.google.de/translate?u=http%3A%2F%2Farticle.pchome.net%2Fcontent-1218188.html&sl=zh-CN&tl=en&hl=&ie=UTF-8

In der .inf des Treibers ist aber nicht zu sehen. Oder hat Nvidia mittlerweile nicht einsehbare Device-Erkennungen?

=Floi=
2010-10-27, 10:32:22
steht doch dort, dass es 2 verschiedene treiber sind und der andere ist eben ein interner für die karte.

igg
2010-10-27, 11:03:03
Das Worlds Fastest GPU Bild kommt mir bekannt vor, als ob ich es schonmal irgendwo gesehen hätte.

LovesuckZ
2010-10-27, 12:37:55
Das Bild stammt vom GF100 Launch.
Keine Ahnung, ob es echt ist, aber alleine schon für das Bild beim Installieren eines Treiber sollte man die Karte kaufen. :lol:

/edit:

Further to our email last night about the GeForce GTX 460 1GB/GTX 470 price adjustment, please rest assured that our price adjustments are in fact permanent. Any claims that our pricing update is temporary are patently false.

The price adjustments we made are not temporary, and are reflective of an upcoming change in our product lineup.
http://forums.anandtech.com/showpost.php?p=30666795&postcount=38

=Floi=
2010-10-27, 23:19:06
ich bin gespannt, was nv hier beim GF110 und GF114 verändert hat. irgendwie ist das ganze einfach komisch. was würde einen neuen chip rechtfertigen? (vor allem beim "perfekten 104er")
Warum machte man das? Die änderungen können doch einfach nicht so groß sein, oder nv hat einfach zu viele devs. Wenn man bedenkt, wie lange der GF100 brauchte und wie viel geld der gekostet hat, dann hat der grundchip, welcher nach so kurzer zeit schon verändert wird nicht die erwartungen in die neue architektur erfüllt.

Duplex
2010-10-27, 23:32:48
20% ist nur ein kleiner sprung nach oben, wenn dann würde Nvidia so eine Karte als GTX490 vermarkten, genau wie der Abstand von GTX470 > GTX480

Hugo78
2010-10-27, 23:38:39
irgendwie ist das ganze einfach komisch. was würde einen neuen chip rechtfertigen?

- Noch mehr Speed,
- bei weniger Leistungsaufnahme,
- mehr als 2 Monitore / Karte,
- SGSSAA ohne Leistungsverlust *träum*

Das wäre so meine Wunschliste.

Duplex
2010-10-27, 23:46:28
nicht vergessen das der Chip weiterhin in 40nm proudziert wird ;)
GT200b war damals 55 statt 65nm, höhere Taktraten & optimierter Stromverbrauch (aber auch 1.15v statt 1.18v) also doch kein fortschritt

AMD hat ja mit Barts einen guten Fortschritt gemacht, weniger Shader Einheiten aber fast gleiche Leistung wie Cypress, dazu kommt noch eine 30% kleinere Chipfläche.

es wird spannend wie Nvidia die Leistung steigern kann...
von 512 Shader & 512 Bit SI halte ich nichts, wer will 400w TDP :eek:

Bucklew
2010-10-27, 23:50:37
Warum machte man das? Die änderungen können doch einfach nicht so groß sein, oder nv hat einfach zu viele devs. Wenn man bedenkt, wie lange der GF100 brauchte und wie viel geld der gekostet hat, dann hat der grundchip, welcher nach so kurzer zeit schon verändert wird nicht die erwartungen in die neue architektur erfüllt.
Der Grundchip ist deswegen so "schlecht", weil eben viele Transistoren und Chipfläche für Features verwendet werden, die bei GeForce gar nicht aktiv sind ;)

Dennoch braucht man diese Chips auf GeForce-Karten um eben die "wenigen" Chips für Tesla/Quadro zu kriegen. Und jetzt gibts eben einen "richtigen" großen Fermi für GeForce.

Coda
2010-10-28, 00:39:52
Was für Features sind das denn genau?

Bucklew
2010-10-28, 00:53:24
Was für Features sind das denn genau?
DP, ECC, zweite DMA-Engine und auch beim Polygondurchsatz sind die GeForce imho limitiert im Vergleich zur Quadro, aber da bin ich mir grad nicht sicher.

Gipsel
2010-10-28, 01:09:38
DP, ECC, zweite DMA-Engine und auch beim Polygondurchsatz sind die GeForce imho limitiert im Vergleich zur Quadro, aber da bin ich mir grad nicht sicher.
Mit dem hohen Polygondurchsatz bewirbt man die Grafikkarten und die Fanboys bekommen angesichts der Tesselationsleistung feuchte Träume. Die zweite DMA-Engine hilft gegen die enorm abrupten Framerateneinbrüche, wenn der Grafikspeicher zur Neige geht (haben die Radeons übrigens schon seit R600 an Bord). Und DP hat ein Cypress auch (sogar mit etwas mehr Leistung als es bei nvidia zu kaufen gibt). So what?
ECC? Das ist im Verhältnis gar nicht so teuer. Das schleppt z.B. praktisch die billigste Consumer-CPU schon seit Ewigkeiten mit sich rum. Und nv hat sich ja sogar noch die zusätzlichen Datenleitungen dafür im Speichercontroller gespart.

Fetza
2010-10-28, 01:13:55
Hmm, wenn gf100 im prinzip garnichts transistorenhungriges innehat, was man für gf110 wegrationalisieren kann, dann frage ich mich, warum ist der chip so unglaublich stromhungrig? Machen das die vielen polymorphengines?

Gipsel
2010-10-28, 01:31:06
Hmm, wenn gf100 im prinzip garnichts transistorenhungriges innehat, was man für gf110 wegrationalisieren kann, dann frage ich mich, warum ist der chip so unglaublich stromhungrig? Machen das die vielen polymorphengines?
Da gibt es vermutlich schon ein oder zwei Sachen, die man anders machen könnte, um bei gleicher Fläche die Spieleleistung zu erhöhen. Coda ging es vermutlich erstmal nur darum zu zeigen, daß die Antwort von Bucklew so einfach zu kurz greift. Die Features an sich kosten nicht so viel, eher die Art der Umsetzung.

Fetza
2010-10-28, 02:06:43
Da gibt es vermutlich schon ein oder zwei Sachen, die man anders machen könnte, um bei gleicher Fläche die Spieleleistung zu erhöhen. Coda ging es vermutlich erstmal nur darum zu zeigen, daß die Antwort von Bucklew so einfach zu kurz greift. Die Features an sich kosten nicht so viel, eher die Art der Umsetzung.

Ok, dann verharre ich mal in gespannter erwartung. :)

Aquaschaf
2010-10-28, 07:51:35
ECC? Das ist im Verhältnis gar nicht so teuer. Das schleppt z.B. praktisch die billigste Consumer-CPU schon seit Ewigkeiten mit sich rum. Und nv hat sich ja sogar noch die zusätzlichen Datenleitungen dafür im Speichercontroller gespart.

Haben CPUs ECC auch überall, d.h. in den Registern und im Cache? Ich war überrascht wieviel es kostet ECC bei der Tesla zu aktivieren: http://code.google.com/p/back40computing/wiki/RadixSorting#Performance

Ailuros
2010-10-28, 08:29:59
ich bin gespannt, was nv hier beim GF110 und GF114 verändert hat. irgendwie ist das ganze einfach komisch. was würde einen neuen chip rechtfertigen? (vor allem beim "perfekten 104er")
Warum machte man das? Die änderungen können doch einfach nicht so groß sein, oder nv hat einfach zu viele devs. Wenn man bedenkt, wie lange der GF100 brauchte und wie viel geld der gekostet hat, dann hat der grundchip, welcher nach so kurzer zeit schon verändert wird nicht die erwartungen in die neue architektur erfüllt.

Der GF11x der der eigentliche "volle GF104" sein wird klingt eher nach einem GF104 + 64bit fuer die hoechste Variante des chips. Und hier gilt eben genau die gleiche Frage warum NV wohl nicht hoehere Speicherfrequenzen benutzt anstatt die Busbreite zu erweitern die man auch fuer GF110 stellen wird falls dieser tatsaechlich auf 512bit stehen sollte.

Sonst werden wir diverse Fermi-Exemplare noch ueber einige Jahre und zukuenftige Herstellungsprozesse sehen, selbst wenn Kepler in der Zukunft ankommt werden lower end bzw. OEM Maerkte selbst durch diesen Zeitraum immer noch mit Fermi-Ablegern bedient. Noch ein Stueck weiter und >2012 kommt ein Fermi-Ableger dann in tablet SoCs.

Kepler wird sowieso IMHO vor 2012 nicht ankommen, egal was auf deren road-maps bunt angegeben wird. Mit GF110 und ueberhaupt unter nur 40G ist die Fermi-Aera noch lange nicht vorbei. NV waere schoen bloed wenn sie nicht eine Fermi high end Variante auch unter 28nm veroeffentlichen.

AnarchX
2010-10-28, 08:48:03
GTX 580 mit 50% höherer Pro-Watt-Leistung?


I heard GTX 580 GTX 480 performance is 120%, while power consumption is 80%, would definitely come out in November.
Then the GTX 570, the performance is basically a GTX 480.
Finally, GTX 560, I heard 3 months out, HD6800 seems a long life expectancy can not ~

Finally, under the last two competitive sigh, do not decline in value than the HD5000 compared to a year market, competitive players will be happy!
http://www.chiphell.com/forum.php?mod=viewthread&tid=132801&extra=page%3D1

Wenn die ~200W TDP stimmen, wäre wohl für 2011 eine GTX 595 mit zwei GPUs auf ~ GTX 480 Niveau durchaus möglich.

Hugo78
2010-10-28, 08:57:46
Das würde bedeuten, dass eine 570 mit dem Speed einer 480, grade mal 160W benötigen würde.
Ich denk ich habe grad meine nächste Karte gefunden, ausser die 580 kostet zum start gleich weniger als 400€. :D

Dural
2010-10-28, 09:02:18
ich bin gespannt, was nv hier beim GF110 und GF114 verändert hat. irgendwie ist das ganze einfach komisch. was würde einen neuen chip rechtfertigen? (vor allem beim "perfekten 104er")
Warum machte man das? Die änderungen können doch einfach nicht so groß sein, oder nv hat einfach zu viele devs. Wenn man bedenkt, wie lange der GF100 brauchte und wie viel geld der gekostet hat, dann hat der grundchip, welcher nach so kurzer zeit schon verändert wird nicht die erwartungen in die neue architektur erfüllt.

kurze zeit???

GF100 wäre geplant jetzt schon 1 Jahr auf den markt, da ist da nachfolger sogar überfällig erst recht wenn man die ganzen probleme mit dem gf100 bedenkt!

Mit dem hohen Polygondurchsatz bewirbt man die Grafikkarten und die Fanboys bekommen angesichts der Tesselationsleistung feuchte Träume. Die zweite DMA-Engine hilft gegen die enorm abrupten Framerateneinbrüche, wenn der Grafikspeicher zur Neige geht (haben die Radeons übrigens schon seit R600 an Bord). Und DP hat ein Cypress auch (sogar mit etwas mehr Leistung als es bei nvidia zu kaufen gibt). So what?
ECC? Das ist im Verhältnis gar nicht so teuer. Das schleppt z.B. praktisch die billigste Consumer-CPU schon seit Ewigkeiten mit sich rum. Und nv hat sich ja sogar noch die zusätzlichen Datenleitungen dafür im Speichercontroller gespart.

AMD hat aber deutlich billigeres DP im vergleich zu NV, das wird im GF100 schon ziemlich viel Tranistoren kosten, den nicht um sonst sind die kleineren ableger nicht so stark auf DP ausgebaut.

früher oder später wird NV eh mit einem SP 1:1 DP full speed Chip daher kommen.

AnarchX
2010-10-28, 09:07:09
Das wäre wohl schon mehr als beachtlich, erst recht, wenn das auch auf GF114 angewendet wird:
GTX 560 mit der Leistung einer >800MHz GTX 460 bei deutlich unter 150W TDP?

Vielleicht beziehen sich die die 80% Leistungsaufnahme auch nur auf FurMark, wo man vielleicht bei ~250W abbremst?

boxleitnerb
2010-10-28, 09:12:26
Sollte das wirklich stimmen, wäre das genial! Man würde ca. auf dem Perf/W Niveau von Cayman liegen, wenn man diesen bei 200-225W ansetzt. Wenn man die Karte noch etwas undervolten können sollte, hätte man eine ziemlich gute Effizienz.

aths
2010-10-28, 09:49:31
- Noch mehr Speed,
- bei weniger Leistungsaufnahme,
- mehr als 2 Monitore / Karte,
- SGSSAA ohne Leistungsverlust *träum*

Das wäre so meine Wunschliste.SGSSAA geht prinzipiell nicht ohne Leistungsverlust. Beim Abschalten würden dann ja, wenn man das Zuschalten ohne Verlust hat, die Leistung nicht steigen. Das sollte sie aber, und die dann nicht vorhandene Steigerung wäre auch ein Verlust.

"SGSSAA ohne Leistungsverlust" ist für sich genommen nicht erstrebenswert, du kannst durch starke CPU-Limitierung bereits erreichen, dass die GPU auch mit SSAA noch Luft hat. Dann hast du das zwar ohne Verlust, aber halt ausgehend von einem sehr niedrigen Grundspeed.

Ailuros
2010-10-28, 09:50:54
GTX 580 mit 50% höherer Pro-Watt-Leistung?


http://www.chiphell.com/forum.php?mod=viewthread&tid=132801&extra=page%3D1

Wenn die ~200W TDP stimmen, wäre wohl für 2011 eine GTX 595 mit zwei GPUs auf ~ GTX 480 Niveau durchaus möglich.

80% auf was genau berechnet? Die angeblichen 250W einer GTX480? LOL

Ich will hoffen dass Napoleon recht hat mit der Veroeffentlichung (und nein jeglicher Paperlaunch zaehlt natuerlich nicht) denn die letzte Nachricht direkt aus Taiwan die ich gerade bekam sieht alles andere als gut aus.

N0Thing
2010-10-28, 10:00:13
80% auf was genau berechnet? Die angeblichen 250W einer GTX480? LOL

Warum LOL? Sind aus deiner Sicht die 250W zu viel, oder zu wenig?

Ailuros
2010-10-28, 10:09:51
Warum LOL? Sind aus deiner Sicht die 250W zu viel, oder zu wenig?

250W ist offensichtlich nicht der reale maximale Stromverbrauch fuer eine GTX480. Anarch's ~200W TDP Schaetzung ist wohl eher auf den virtuellen 250W TDP von der GTX480 basiert.

Irgendwelche Werte hab ich noch nicht, aber dass GF110 weniger Strom verbraucht als GF100 sollte man schon erwarten koennen. Mit einem echten 250W TDP fuer 110 waere ich persoenlich erstmal zufrieden.

N0Thing
2010-10-28, 10:19:27
Aber die PCGH hat doch 235W unter Last mit Race Driver: Grid gemessen, HT4U 230W. Eine TDP von 250W für die GTX 480 ist also gar nicht so verkehrt.

Ailuros
2010-10-28, 10:34:50
Aber die PCGH hat doch 235W unter Last mit Race Driver: Grid gemessen, HT4U 230W. Eine TDP von 250W für die GTX 480 ist also gar nicht so verkehrt.

Was genau verstehst Du unter maximalem Stromverbrauch nicht? Mir egal ob Du oder NV es so verdrehen wollt wie es gerade passt aber maximal heisst dass auch jeder extremste Fall mitgezaehlt wird ohne Aussnahmen.

Die Tesla 2050/3GB hat nach NV selber einen TDP von 238W. Ja natuerlich verbrennt die doppelt so hohe Speichermenge etwas mehr Strom als die 1.5GB einer GTX480 aber von der anderen Seite laeuft eine 2050 auf 575/1150/750MHz. Diese Frequenzen im Vergleich zu 700/1400/930 sind schon ein gewaltiger Unterschied.

Dural
2010-10-28, 10:38:50
Was soll da so mega unwahrscheinlich sein??? das verhältnis wäre so nur etwas besser als GF104 jetzt... wenn nicht sogar gleich!!!


hört doch endlich auf mit GF100 zu vergleichen... wie oft den noch, das da was hinten und vorne nicht stimmt sollte man jetzt langsam wissen...

Ailuros
2010-10-28, 10:46:05
Was soll da so mega unwahrscheinlich sein??? das verhältnis wäre so nur etwas besser als GF104 jetzt... wenn nicht sogar gleich!!!

Das Verhaeltnis wird so oder so besser sein als bei GF104, ergo entfaellt erstmal der BS dass 104 das achte Wunder in diesem Bereich war. 200W TDP fuer einen GF110 glaube ich erst wenn ich es sehe. Irgendwo ueber 230W und wir koennten im realistischeren Bereich liegen.

Nebenbei scheint wohl doch nicht alles nach Plan zu verlaufen, ergo wuerde ich etwas vorsichtiger sein mit irgendwelchem Optimismus.

hört doch endlich auf mit GF100 zu vergleichen... wie oft den noch, das da was hinten und vorne nicht stimmt sollte man jetzt langsam wissen...

Und warum nicht bitte schoen? Weil es Dir zufaelligerweise nicht passen sollte oder was? Wenn das Teil tatsaechlich ueber 20% schneller sein sollte als eine GTX480 und zur gleichen Zeit REALE 20% weniger Strom verbrauchen sollte, ist der Vergleich durchaus legitim.

Und dem ueblichem Bullshit zu Liebe, GTX460 hat nur 7 operative SMs. Nicht 14, 15 oder sogar 16 aber so schnell wird der Groschen sowieso nicht fallen.

AnarchX
2010-10-28, 10:48:27
Wenn man die gleichen TDP-Maßstäbe wie bei der GTX 460 anlegen würde, hätte wohl die GTX 480 eine 300W TDP verdient.
Wohl möglich liegt jetzt die TDP der GTX 580 bei ~250W (GTX 460 Maßstab).

Stimmen die 20% Mehrleistung, ist man ~80% schneller als die GTX 460 bei ~50-60% mehr TDP/Verbrauch.
Insofern wäre das noch eine Steigerung gegenüber GF104.

Ailuros
2010-10-28, 10:54:58
Wenn man die gleichen TDP-Maßstäbe wie bei der GTX 460 anlegen würde, hätte wohl die GTX 480 eine 300W TDP verdient.
Wohl möglich liegt jetzt die TDP der GTX 580 bei ~250W (GTX 460 Maßstab).

Wenn das eigentliche Stromverbrauch-Problem in GF100 tatsaechlich in der Verbindung zwischen den SMs liegen duerfte, ueberdenk nochmal dass GTX460 nur 7 hat.

Ich mach jetzt fuer die Einzelheit nicht einen gentrennten thread auf aber Kepler soll ein ziemliche Ueberraschung werden was Transistoren-Dichte betrifft ;)

Hugo78
2010-10-28, 10:59:35
Wenn das eigentliche Stromverbrauch-Problem in GF100 tatsaechlich in der Verbindung zwischen den SMs liegen duerfte, ueberdenk nochmal dass GTX460 nur 7 hat.

Nvidia hat beim GF100 die Fabric Einheit mit "heißer Nadel neustricken müssen", nachdem das Ding im ersten Anlauf nicht funktionierte, wie es sollte.
http://www.youtube.com/watch?v=9NjEviEPtZc
Ist doch möglich, dass das Ding einer der Hauptoptimierungspunkte im Fermidesign ist und jetzt im GF110 so funktioniert wie ursprünglich gedacht.

AnarchX
2010-10-28, 11:04:27
Wenn das eigentliche Stromverbrauch-Problem in GF100 tatsaechlich in der Verbindung zwischen den SMs liegen duerfte, ueberdenk nochmal dass GTX460 nur 7 hat.
Wenn da etwas dran wäre, müsste die GTS 450 mit nur 4 SMs ja ein noch bessere Pro-Watt-Leistung haben, was aber nicht der Fall ist.

Ailuros
2010-10-28, 11:07:00
Nvidia hat beim GF100 die Fabric Einheit mit "heißer Nadel neustricken müssen", nachdem das Ding im ersten Anlauf nicht funktionierte, wie es sollte.
http://www.youtube.com/watch?v=9NjEviEPtZc
Ist doch möglich, dass das Ding einer der Hauptoptimierungspunkte im Fermidesign ist und jetzt im GF110 so funktioniert wie ursprünglich gedacht.

Es sagt auch keiner das Gegenteil, aber von einem GF110 der =/>20% Leistung als eine GTX480 liefern soll einen 200W TDP zu erwarten und ueberhaupt unter 40G ist IMHO kompletter Bloedsinn. Wie ich schon erwaehnte alles =/>230W ist IMO akzeptabel.

Dural
2010-10-28, 11:10:32
wie so? weil es dumm ist mit GF100 zu vergleichen wenn fast die exakt selbe Architektur im (neuerem) GF104 deutlich besser da steht und dann zu behaupten 50% seien unmöglich / viel zu viel obwohl wir das mit dem GF104 quasi schon jetzt haben :rolleyes:

GF100 verbraucht 100% (Doppelt so viel!!!) mehr als ein GF104 bei nur 50% mehr Leistung beim selbem Takt, so was hab ich persöndlich innerhalb einer Architektur noch nie gesehen, kann mich nicht daran erinnern das es sowas jemals gab!

Zudem sollte man nicht vergessen; umso breiter der chip ist, umso effizienter müsste das W/P verhältnis sein, zwischen GF100 und GF104 haben wir aber das krasse gegenteil!

Die frage ist halt noch ob das alleine an GF100 geschuldet ist oder es eben halt doch auch am 40nm Prozess liegt, aber das werden wir mit GF110 und Cayman ja bald erfahren...

N0Thing
2010-10-28, 11:16:14
Was genau verstehst Du unter maximalem Stromverbrauch nicht? Mir egal ob Du oder NV es so verdrehen wollt wie es gerade passt aber maximal heisst dass auch jeder extremste Fall mitgezaehlt wird ohne Aussnahmen.

Bleib mal auf dem Teppich und spare dir deine Anschuldigungen aus der Hüfte. Du hast dich nicht klar ausgegrückt, ich habe nachgefragt und eine TDP (die bekanntlich nicht den Stromverbrauch angibt) von 250W auf Basis von Verbrauchswerten in Spielen als passend bezeichnet.
Wenn man Worst-Case-Szenarien als Basis nehmen will, dann müßte die GTX 480 eine TDP von 320-340W haben.

Wenn du mir jetzt erklären kannst, wo ich etwas verdrehen will, bitte gerne. Und das einzige was mir gerade überhaupt nicht paßt, ist dein Tonfall.

Dural
2010-10-28, 11:17:38
In der Quelle wird so oder so nicht von einer TDP gesprochen, da wird wohl eher der reale verbrauch gemeind...

AnarchX hat das einfach sponten auf die TDP der GTX480 umgerechnet, das die TDP eher so nach situation gewählt wird und nicht mit dem realen verbrauch gleich zu setzen ist, ist ja schon länger gang und gäbe!

ich rechne für die GTX580 sicher mit 225Watt+ schon nur weil 6970 damit her kommt ;)

AnarchX
2010-10-28, 11:24:16
Vielleicht lässt man noch etwas Luft nach oben für >850MHz OC-Versionen. ;D

Ailuros
2010-10-28, 11:33:01
Bleib mal auf dem Teppich und spare dir deine Anschuldigungen aus der Hüfte. Du hast dich nicht klar ausgegrückt, ich habe nachgefragt und eine TDP (die bekanntlich nicht den Stromverbrauch angibt) von 250W auf Basis von Verbrauchswerten in Spielen als passend bezeichnet.

Wobei Du aber zwei Spiele-Szenarien benutzt hast als Beispiele welche wohl nichts mit dem maximalem Stromverbrauch zu tun haben.

Wenn man Worst-Case-Szenarien als Basis nehmen will, dann müßte die GTX 480 eine TDP von 320-340W haben.

Liegt bei anderen GeForces oder Radeons bei worst case scenarios innerhalb oder ausserhalb der angegebenen TDP und wenn ja um wieviel genau?

Haette NV einen TDP von 290W z.B. angegeben, gaebe es auch keinen Grund zur Beschwerde. Und nein nur weil NV mal einen Design verprasselt hat, heisst es nicht fuer mich dass ich die albernen 250W nur so einfach unter den Teppich kehre.

Hugo78
2010-10-28, 11:37:04
Es sagt auch keiner das Gegenteil, aber von einem GF110 der =/>20% Leistung als eine GTX480 liefern soll einen 200W TDP zu erwarten und ueberhaupt unter 40G ist IMHO kompletter Bloedsinn. Wie ich schon erwaehnte alles =/>230W ist IMO akzeptabel.

Ok, also PCGH hat in Furmark 304W für die 480 ermittelt.
http://www.pcgameshardware.de/aid,743333/Geforce-GTX-470-und-GTX-480-Test-der-GF100-Generation-mit-SLI-Update-DX11-Techdemos-von-AMD/Grafikkarte/Test/?page=2

Sagen wir mal, im schlimmsten Fall hat Napoleon nur recht mit der 80% Ausage, dann wären wir bei 243W, realem Furmark Verbrauch.
Jetzt kommen noch mal 20% mehr Speed hinzu, laut Napoleon.
Jetzt muss das natürlich nicht 1:1 in weniger Verbrauch enden, aber sagen wir mal aus den 80%, würden dann nur 70%,
nicht 60% oder gar 50%, bei identischer FPS Leistung im Vergleich zur 480.

Dann wären wir schon bei 212,8W realem Furmark Worstcase.
Das wäre nur knapp über der GTX 285.

AnarchX
2010-10-28, 11:37:16
http://img14.mediafire.com/daea9ce1d5e45a6ad5c146303e52f4e9679c36b6dcbcfc379fa9c8ccf5abe1bb5g.jpg

http://img13.mediafire.com/cfec21a2cab6a8d3bb5f34b17776ab4438a4592af490e1dcb477fdf43c0a9aa76g.jpg

http://www.chiphell.com/forum.php?mod=viewthread&tid=132917&extra=page%3D1

Wohl eine Weiterentwicklung davon: http://twitpic.com/pyhdf

http://s3.amazonaws.com/twitpic/photos/full/43599219.jpg?AWSAccessKeyId=0ZRYP5X5F6FSMBCCSE82&Expires=1288259606&Signature=t48OyWujtsvH%2BmrfCg3FqtzD9DM%3D

Hugo78
2010-10-28, 11:41:22
Der Lüfter ist scheint schon mal größer.
Als DAU der zwei 120mm auf seiner Graka hat, ist das für mich schon mal ein Zeichen von Fortschritt. :D

AnarchX
2010-10-28, 11:43:05
Da die Faktenlage zur GTX 580 nun imo schon einen eigenen Thread rechtfertigt:

GTX 580: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8353738

Gipsel
2010-10-28, 12:01:00
Ok, dann verharre ich mal in gespannter erwartung. :)
Was willst Du wissen? Eine Antwort auf Deine ursprüngliche Frage, warum GF100 so viel Strom zieht (trotz niedrigerer Spannung nicht weniger pro Transistor als Cypress)?
Das liegt vornehmlich an der genauen Auslegung der Schaltungen, sprich der Anzahl der benutzten Transistoren mit hoher bzw. niedriger Schwellspannung (Threshold, Vt).
So ein Prozeß hat ja nicht nur eine Sorte von Transistor sondern verschiedene. Der Designer kann festlegen, ob ein Transistor ein schnell schaltendes Exemplar (niedrige Vt), ein normales oder ein relativ langsamer Transistor ist (hohe Vt). Der Haken an der Sache ist natürlich, daß die schnellen Transistoren beträchtlich mehr Strom ziehen (nicht nur unter Last, Leakage geht deutlich hoch). Das wird natürlich möglichst so gewählt, daß man viele langsame, stromsparende Transistoren benutzen kann und trotzdem die angepeilte Taktfrequenz erreicht, also nur die kritischen Pfade mit den schnellsten Transistoren ausstattet.
Wenn man das Verhalten seiner Schaltung nicht perfekt einschätzen kann (oder auch die Schaltung insgesamt kein optimales Design aufweist), muß man mehr schnelle, stromhungrige Transistoren benutzen, der Stromverbrauch steigt also. Bei einem Base-Layer Respin (oder einem abgeändertem Design) kann man das korrigieren, wodurch der Stromverbrauch bei gleicher Transistorzahl sinken kann (und/oder der Takt steigt).

Wenn es Dir um stromfressende Features geht, dann sind wie gesagt nicht die Features an sich so wichtig, sondern eher ihre Umsetzung und Auslegung. Nvidia benutzt traditionell eine deutlich aufwendigere Verwaltung der Einheiten, die natürlich auch entsprechend Transistoren kostet. Dadurch kann man aber prinzipiell an den Ausführungseinheiten selber etwas sparen, da sie mit etwas höherer Auslastung laufen. Das ist also ein Kompromiß, der unterschiedlich ausfallen kann.
Nvidia hat sich entschieden, die Leistung der Ausführungseinheiten pro Transistor durch eine Shaderdomain für den Takt zu erhöhen. Leider kostet so eine Auslegung sowohl Transistoren (mehr Pipelinestufen) als eventuell auch Stromverbrauch (mehr Transistoren müssen niedrige Vt haben). Außerdem vereinfacht das die Verwaltung der Einheiten auch nicht unbedingt (höhere Latenzen, mehr Instruktionen in flight). Wie gesagt, alles eine Frage des Kompromisses.

Nvidia hat sich entschieden, DP mit halber SP Geschwindigkeit einzubauen. Dies ist insofern unverständlich (meiner Meinung nach eine Kopfgeburt), als daß das wirklich aufwendiger als z.B. 1/4 ist. Die GeForces könnten bei anderer Auslegung auf gleicher Fläche bestimmt 20% mehr SP-Leistung haben, die DP-Leistung wäre dann immerhin auch noch 60% der heutigen (theoretisch möglichen, es wird ja keine Tesla mit GTX480 Takten und SP-Anzahl verkauft; bei Erreichen des Designzieles hätte man dann ausgehend von 512 SP [+20%] bei 1.5GHz auch 460GFlop/s DP erreicht, jetzt stehen die Teslas bei 515 GFlop/s oder so).
Haben CPUs ECC auch überall, d.h. in den Registern und im Cache? Ich war überrascht wieviel es kostet ECC bei der Tesla zu aktivieren: http://code.google.com/p/back40computing/wiki/RadixSorting#Performance
Ja na klar haben die das überall, sonst wäre es ja sinnlos.
GF00 verliert auch deshalb so viel, weil es keine zusätzlichen Datenleitungen für ECC benutzt, sondern einfach einen Teil der normalen umwidmet. Dadurch sinkt die Speicherbandbreite und wahrscheinlich fast noch wichtiger, passen wohl einige Speicherzugriffe nicht mehr auf die Cachelinegrößen, so daß sich die Kosten eines Speicherzugriff im Extremfall verdoppeln, selbst wenn die eigentliche ECC-Prüfung vollkommen umsonst wäre.
AMD hat aber deutlich billigeres DP im vergleich zu NV, das wird im GF100 schon ziemlich viel Tranistoren kosten, den nicht um sonst sind die kleineren ableger nicht so stark auf DP ausgebaut.Siehe oben. Meiner Meinung nach eine falsche Designentscheidung von oben. Ein Ingeneur bei Verstand muß sich eigentlich sagen, daß bei einer so auf Durchsatz ausgelegten Architektur wie einer GPU 1:4 die bessere Wahl ist, zumal SP ja das übergroße Hauptanwendungsgebiet darstellt. Die Wahl von 1:4 halbiert ja nicht die DP-Leistung bei gleicher Anzahl von Transistoren. Sie erhöht indirekt die SP-Leistung signifikant, weswegen das dann auch bei DP nicht soo schlecht gegenüber der 1:2-Wahl ausfällt. Schau' Dir doch mal Cypress an! Die Firestreams habe ja auch mehr DP-Leistung als die Teslas, trotz sogar nur 1:5 ;). Ich weiß, da spielen alle Dinge zusammen rein.
früher oder später wird NV eh mit einem SP 1:1 DP full speed Chip daher kommen.Ich denke, da wirst Du sehr, sehr lange drauf warten müssen. Schon 1:2 ist bei GPUs "bleeding edge" statt leading edge und selbst CPUs machen in ihren SIMD-Einheiten nur 1:2 (wenn man 1:1 erwartet, dann dort und die FPUs machen es ja auch [fast]). Und das wird sich sicherlich mit den zukünftigen Erweiterungen und Verbreiterung der Einheiten dort nicht ändern. Den Schritt von GPUs zu erwarten ist in meinen Augen utopisch.

Ailuros
2010-10-28, 12:34:12
Wenn da etwas dran wäre, müsste die GTS 450 mit nur 4 SMs ja ein noch bessere Pro-Watt-Leistung haben, was aber nicht der Fall ist.

Ergo nur 1 GPC oder? Wir hatten mit Gipsel hier ein langwierige Debatte vor dem Launch ob die GPC nur virtuell sind oder ob sie irgend eine Rolle in der Verbindung am Ende spielen.

http://beyond3d.com/content/reviews/55/7

Nach dem Artikel hab ich einige Fragezeichen was das ganze Thema betrifft, kann aber leider keine weiteren Schlussfolgerungen wagen.

***edit:

uebrigens: http://www.xbitlabs.com/articles/video/display/geforce-gts450-sli_4.html#sect0

http://www.xbitlabs.com/images/video/geforce-gts450-sli/a450_power.png

Und ja natuerlich uebersehe ich jegliche Frequenz-Unterschiede nicht, aber so wie es in diesem Graph aussieht sehe ich nichts besonders merkwuerdiges.

Gipsel,

Da Du schon mitliest, aus dem B3D Artikel (link oben):

Another potential explanation for the anomaly involves the half-rate DP support that Fermi also touts, for which there are a few implementation possibilities: either some loopback or ALU "fusing" magic (which is no doubt interesting in theory, but can raise some serious practical challenges) or having 16 of the 32 ALUs in a SM be actually full DP ALUs, with them also handling the INT math, since they'd be quite adequately equipped for that too.

To be honest, we lean towards the latter variant. The no co-issuing for DP restriction still makes sense even in that arrangement, once we consider that a DP operand takes two 32-bit registers, and occupies two slots in the input and output buffers respectively – basically it's equivalent to processing two SP warps in parallel with regards to those particular metrics. We look forward to getting NVIDIA peeps on the Beyond3D mic to discuss this, amongst other things.

AnarchX
2010-10-28, 12:56:07
GTX 560 pinkompatibel zu GTX 460?
GTX 580 mit GF100-A4?

1.560 PIN TO PIN 460 560 we can guess what stuff, 580 480 A4 version is of course yellow vest tactical general there is always the same God, so the 580 development is completed in a few months
http://itbbs.pconline.com.cn/diy/12047877.html

Ailuros
2010-10-28, 12:59:23
Kannst Du den letzten Satz im quote etwas verstaendlicher uebersetzen?

AnarchX
2010-10-28, 13:02:07
Therefore, development of 580 to finish in a few months.
Therefore 580 could develop in several months finishes.

Da könnte wohl der Herr C. richtig liegen. ;)

=Floi=
2010-10-28, 13:05:17
A4 wäre ja ein geschichtsträchtiges stepping. ;D
GTX 580 = "Vergeltungswaffe" ;D

GF100 @ GTX 580 ist wohl mit am realistischsten zu sehen.

edit
meinte das:
http://de.wikipedia.org/wiki/A4_(Rakete)
edit2
habe mich auch vorhin gefragt, was so ein respin großartig bringen soll.

Ailuros
2010-10-28, 13:08:20
Da könnte wohl der Herr C. richtig liegen. ;)

So viel hab ich verstanden.

580 480 A4 version is of course yellow vest tactical general there is always the same God,

Das hier ist eher worueber ich mir den Kopf zerbreche.

A4 wäre ja ein geschichtsträchtiges stepping. ;D
GTX 580 = "Vergeltungswaffe" ;D

GF100 @ GTX 580 ist wohl mit am realistischsten zu sehen.

Ein weiterer metal spin (welcher genau was bringen soll?) der eine solche Unmenge an Zeit dauerte wuerde tatsaechlich jeglichen moeglichen Rekord zeitmaessig brechen. Ca. 8 Monate fuer einen metal spin? ROFL :D

AnarchX
2010-10-28, 13:12:01
Das hier ist eher worueber ich mir den Kopf zerbreche.


Ich könnte daraus einen Paperlaunch lesen, mit der man seine Dominanz unterstreichen will, worauf dann auch der nächste Punkt Sinn macht, dass die finale Karte erst in einigen Monaten erscheint.
Vielleicht sollte man es mal bei B3D posten, da sind ja einige native Speaker für Chinesisch unterwegs.

aths
2010-10-28, 13:24:22
20% ist nur ein kleiner sprung nach oben, wenn dann würde Nvidia so eine Karte als GTX490 vermarkten, genau wie der Abstand von GTX470 > GTX480Nvidia hat auch die 8800 GT zur 9800 umgelabelt und die 9800 GTX als Nachfolger der 8800 GTX herausgebracht.

Dural
2010-10-28, 13:38:13
ein Paperlaunch mit einem GF100 A4 ;D

y33H@
2010-10-28, 13:50:33
Nvidia hat auch die 8800 GT zur 9800 umgelabelt [...]Nicht den HLSI-Controller des RefDesigns unterschlagen ;)

AnarchX
2010-10-28, 15:22:19
GF1xx ALU Diskussion: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8353972#post8353972

AnarchX
2010-10-28, 16:55:23
NVIDIA_DEV.1098.01 = "NVIDIA D13U "
NVIDIA_DEV.109A.01 = "NVIDIA N12E-Q5"

GF112/114 als GeForce GTX 500 Mobile und GTX 560?

GF110 hat eine NVIDIA_DEV.108... Device ID und GF104 NVIDIA_DEV.0E... .

Ein eventuelles Renaming gibt es wohl auch:
NVIDIA_DEV.0DEB.01 = "NVIDIA GeForce GT 555M"
NVIDIA_DEV.0DF0.01 = "NVIDIA GeForce GT 425M"
NVIDIA_DEV.0DF2.01 = "NVIDIA GeForce GT 435M"

sentinel_first
2010-10-29, 00:15:59
Ich könnte mir vorstellen, dass jeder Hersteller etwas vom Weihnachtskuchen abhaben möchte, denn dieser ist besonders fett!

Ein Papierprodukt wäre hier mehr als kontraproduktiv.

Erklärung:
Zu Weihnachten kauft man sich nicht selten neue, relativ unüberlegte, überteuerte Produkte, es ist ja halt Weihnachten.

LovesuckZ
2010-10-29, 00:17:45
Da weder AMD noch nVidia bis auf Ausnahmen direkt an den Endkunden verkaufen, müssten sie schon längst in der Produktion stecken, um vom Wechnachtskuchen etwas abzubekommen.

AnarchX
2010-10-29, 10:07:45
GeForce 500 bzw. GF11x-GPUs ist hier das Thema.

Orbmu2k
2010-10-29, 20:18:49
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2010/oktober/spezifikationen-zur-geforce-gtx-580-durchgesickert/

http://www5.pic-upload.de/29.10.10/skl89j1a8ph.png

mironicus
2010-10-29, 20:37:58
Also eine GTX 480 im Vollausbau? :)

AnarchX
2010-10-29, 20:38:57
GTX 580 Thread lesen: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=494593

Leonidas
2010-10-30, 06:43:03
Die Mobile-Chips haben bei nVidia keine eigenen Codennummern. Spekulationen, daß GF112, GF114 oder sonstwas reine Mobile-Varianten von irgendwelchen anderen Chips werden sollen, führen also ins Nirgendwo. Es sind echte neue Chips, irgendwo muß eine Änderung zu den bisherigen Chips liegen.

AnarchX
2010-11-03, 13:44:06
Dual-GTX 500, GTX 560, GTS 540 und GT 520.
http://www.fudzilla.com/graphics/item/20724-nvidias-dual-5x0-card-comes-in-2010
http://www.fudzilla.com/graphics/item/20722-geforce-560-also-candidate-for-2010

Dural
2010-11-03, 15:14:48
die GX2 in 2010 glaub ich nicht so recht, dürfte eher Januar oder Februar werden.

GTX560 = GF104 @ 384SP?!?

AnarchX
2010-11-03, 15:20:16
die GX2 in 2010 glaub ich nicht so recht, dürfte eher Januar oder Februar werden.
Die GTX 580 tauchte auch fast aus dem nichts auf, insofern wird man wohl die GTX 590/595 auch bereit haben um rechtzeitig auf Antilles zu reagieren. Breite Verfügbarkeit könnte wie damals bei der GTX 295 erst später erfolgen.


GTX560 = GF104 @ 384SP?!?
"As we hear, it is a slightly improved GF104."

Hugo78
2010-11-03, 15:37:17
The GTX 570 will wait until Nvidia runs out of GTX 470 chips and cards
Na hoffentlich dauert das nicht zu lange. :D
Eine 570 mit dem Speed einer 480 und einer TDP von max. 190-200W (?!) wäre ne noch richtig gute Alternative.

AnarchX
2010-11-03, 15:39:30
Die GF110-GPUs reichen wohl erstmal nur für GTX 580 und 590/595, zumal man die 570 wohl für kaum mehr als 300€ verkaufen könnte.

=Floi=
2010-11-03, 23:58:37
was soll denn eine 590er werden?

Mancko
2010-11-04, 10:06:19
was soll denn eine 590er werden?
Ich denke eine Dualkarte auf Basis des GF104 oder wie immer der jetzt nach den kleinen Chipoptimierungen heissen wird.

Btw im Performance und Midrange Segment hat Nvidia extrem gute Karten m.E. Der Barts Launch von AMD war eher schwach. Die Teile kämpfen mit bereits existierenden 460 er Produkten. Das dürfte nicht schwer werden dort massiv reinzuhauen. Ein guter Ersatz für die 460 und 470 hat extrem gute Chancen AMD hier komplett aus dem Rennen zu werfen.

Screemer
2010-11-04, 10:19:04
und was spricht gegen abfallverwertung bei den caymans? ich erwarte 3-4 karten mit den krokodilen, die sich dann entsprechend neben den nv-produkten (595, 580, 560) positionieren.

Dural
2010-11-04, 11:00:14
GTX590 vs 6990

GTX580 vs 6970

GTX570 vs 6950

GTX560 vs 6870

grosser platz bleibt da nicht mehr übrig, ausgehent von GTX560/6870 kann man wohl +20% für GTX570/6950 und zu GTX580/6970 noch mal +20% dazu rechnen.

Die Dual Karten GTX590/6990 werden in dieser Generation völlig überflüssig sein...

Screemer
2010-11-04, 13:26:01
GTX560 vs 6870

würde aber bedeuten, dass die 560 nicht schneller als die oc versionen der 460 ist. da wird das geschrei wieder groß.

igg
2010-11-04, 13:39:01
GTX560 vs 6870

würde aber bedeuten, dass die 560 nicht schneller als die oc versionen der 460 ist.
Davon gehe ich aus. Alles andere wäre auch seltsam, die 580 ist auch nur 20 % schneller als die 480...

Deinorius
2010-11-04, 13:44:28
GTX560 vs 6870

würde aber bedeuten, dass die 560 nicht schneller als die oc versionen der 460 ist. da wird das geschrei wieder groß.


Nicht, wenn man diese dann weiter übertakten kann, da diese schon unübertaktet verkauft werden würde. Gut möglich, dass nvidia mit dem Vollausbau gerade so hoch taktet, dass die 6870 leicht geschlagen wird (hoffentlich, wenn man mit A.I. HQ vergleicht :freak:). Und der Rest kann fröhlich und munter OC betreiben.

Ailuros
2010-11-04, 13:59:02
Davon gehe ich aus. Alles andere wäre auch seltsam, die 580 ist auch nur 20 % schneller als die 480...

1. NV haette die 460 schon etwas hoeher takten koennen von Anfang an, nur haette es die 465/470 in eine noch bloedere Situation gebracht.

2. Ich konnte es zwar noch nicht bestaetigen, aber ich hoerte dass GF11x ein kleines Stueck weniger die area verbraucht als GF104. Dieses wiederspricht natuerlich dem Geruecht dass die beiden pin-compatible sind. Falls es aber stimmen sollte koennte es heissen dass die geringere die area hoehere Frequenzen bei geringerem Stromverbrauch erlaubt.

3. Jegliche vendor uebertaktete GTX460 hat stets nur 7SMs operativ. Bei 8 SMs kommt bei genau gleicher Frequenz noch ca. 5% Leistung dazu.

LovesuckZ
2010-11-04, 14:02:05
5%? Theoretisch wären es 14,5%. Da nVidia im Gegensatz zu AMD immer für 4 SM ein Rasterizer vorsieht, sollte Fermi auch sehr gut durch den einen zusätzliche SM skalieren - spätesten bei der Geometrieleistung wird dies erreicht.

Ailuros
2010-11-04, 14:05:42
5%? Theoretisch wären es 14,5%.

Ich sagte bei gleicher Frequenz wobei ich eigentlich Frequenz-en im Hinterkopf hatte. Jedermann wuerde wohl erwarten dass NV bei 8SMs diesem chip auch etwas mehr Bandbreite verpasst oder?

LovesuckZ
2010-11-04, 14:09:12
Ich sagte bei gleicher Frequenz wobei ich eigentlich Frequenz-en im Hinterkopf hatte. Jedermann wuerde wohl erwarten dass NV bei 8SMs diesem chip auch etwas mehr Bandbreite verpasst oder?

nVidia verkauft eine GTX460 mit weniger Bandbreite bei gleicher SM Anzahl. ;)
Fermi reagiert nicht wirklich auf eine Reduzierung/Erhöhung der Bandbreite. Deswegen sollte mehr als 5% möglich sein, wenn man von 7->8 SM geht. Wahrscheinlich sollte es fast 1:1 sich steigern, da die Architektur kaum noch Flaschenhälse aufweist: Geometrieleistung skaliert mit, Rasterizer sind auf maximal 4 SM ausgerichtet.

Dural
2010-11-04, 14:11:23
bei rund 15% mehr Einheiten kommen auch rund theoretische 15% mehr Leistung zustande :rolleyes:

Da die ROPs wohl kaum beim GF104 limitieren (siehe auch GTX460 768MB) bekommt man da locker 10-15% reale mehr Leistung raus, bei 1000MHz Speicher takt sogar ziemlich sicher sehr nahe an den 15%



Meine vermutung zu der GTX560:

384SP
725MHz
1000MHz

170Watt TDP

dürfte gut 20% mehr Leistung als die GTX460 bringen, takt könnte NV sicher noch erhöhen wenn sie es müssten, da aber weiter oben keine konkurenz (noch nicht?) ist werden sie das sicher nicht machen.

Gipsel
2010-11-04, 14:56:47
ich hoerte dass GF11x ein kleines Stueck weniger die area verbraucht als GF104. Dieses wiederspricht natuerlich dem Geruecht dass die beiden pin-compatible sind.Eigentlich überhaupt nicht. Barts ist doch auch pinkompatibel zu Cypress (255mm² vs. 334mm²).

Hugo
2010-11-04, 16:19:05
um pinkompatibel zu sein ist doch eher das Package wichtig nicht die Die-size

DweF
2010-11-05, 10:09:23
Wow, GF119 vielleicht schon in 28nm?

Fudzilla :-)
http://fudzilla.com/graphics/item/20742-nvidia-has-28nm-sample-chips

sg

deekey777
2010-11-05, 10:14:03
Wow, GF119 vielleicht schon in 28nm?

Fudzilla :-)
http://fudzilla.com/graphics/item/20742-nvidia-has-28nm-sample-chips

sg

The production of these actual chips won’t happen before the second half of 2011 but it is impressive to see that they already have some samples.
Irgendwie nicht, oder?

DweF
2010-11-05, 10:21:05
Keine Ahnung, mir eigentlich auch völlig schnuppe.
Könnte aber bedeuten dass man den 28nm Prozess wieder besser im Griff hat, oder?

SG

Ailuros
2010-11-07, 12:13:23
nVidia verkauft eine GTX460 mit weniger Bandbreite bei gleicher SM Anzahl. ;)

Ja und?

Fermi reagiert nicht wirklich auf eine Reduzierung/Erhöhung der Bandbreite.

Wohl doch nicht auf jeglicher Art Reduzierung/Erhoehung, aber derartige bunte Uebergeneralisierungen bin ich ja gewoehnt durch die Jahre. Eine jegliche GPU skaliert naeher am erwaerteten Prozentual wenn alle Frequenzen mit gleichen Werten erhoeht werden. Und da die GTX560 wohl nicht nur mit 8 mehr TMUs sondern auch hoeherer core-Frequenz ankommen wird heisst es auch X mehr Fuellrate die auch mit Y mehr Bandbreite besser versorgt waere. GF110 hat auch rein zufaellig mehr Bandbreite als ein GF100.

Deswegen sollte mehr als 5% möglich sein, wenn man von 7->8 SM geht.

Trotzdem nicht das volle Potential dass unter dem noetigen Bandbreiten-zuschuss moeglich sein wird. Was soll diese alberne Haarspalterei ueberhaupt?

Wahrscheinlich sollte es fast 1:1 sich steigern, da die Architektur kaum noch Flaschenhälse aufweist: Geometrieleistung skaliert mit, Rasterizer sind auf maximal 4 SM ausgerichtet.

Bullshit. In zwei Tagen werden die paar Zusaetze von GF11x etwas klarer. Dass die ganze Familie GT5xx genennt wird ist kein Zufall.

AwesomeSauce
2010-11-07, 13:04:39
In zwei Tagen werden die paar Zusaetze von GF11x etwas klarer. Dass die ganze Familie GT5xx genennt wird ist kein Zufall.
Ich weiss, dass du nicht wirklich konkreter werden willst. Aber gehen die Neuerungen eher in Hardware- oder Software-Richtung? Denkst du, die neue Namensgebung ist gerechtfertigt?

Fetza
2010-11-09, 23:48:13
Könnte die gtx 570 eigentlich der gf114 sein und nicht ein beschnittener gf110?

Ailuros
2010-11-10, 14:03:55
Könnte die gtx 570 eigentlich der gf114 sein und nicht ein beschnittener gf110?

Es waere zwar schoen fuer NV wenn GF110 nur 16SM bins von sich geben wuerde, aber wenn Du etwas schaerfer darueber nachdenkst ist es leicht zu sehen dass man mit den chips die eben keine 16SM schaffen auch etwas anfangen muss.

AnarchX
2010-11-10, 14:06:59
Laut PHK ist wohl das Gesamt-Yield für GF110 noch zu schlecht um die GTX 570 zu veröffentlichen. Bei einer <300€ GTX 570 wäre wohl der Bedarf deutlich höher, als bei der >400€ GTX 580.

Ailuros
2010-11-10, 14:15:25
Laut PHK ist wohl das Gesamt-Yield für GF110 noch zu schlecht um die GTX 570 zu veröffentlichen. Bei einer <300€ GTX 570 wäre wohl der Bedarf deutlich höher, als bei der >400€ GTX 580.

Unter normalen Umstaenden bekommt man mehr 14/15SM dies von einem wafer als 16SM. Die PHK Angabe klingt mir nach Quatsch. Da NV keine 16SM Tesla 20x0 im Angebot hat oder vorraussichtlich haben wird, bleibe ich bei meiner originalen "These".

Hast Du irgend etwas bezueglich der die area ausgraben koennen?

AnarchX
2010-11-10, 14:18:42
Hast Du irgend etwas bezueglich der die area ausgraben koennen?

NVIDIA told us that the GF110 has roughly 3.05 Billion transistors and that the GF100 has 3.01 Billion transistors and the overall die size remains the same.
http://www.legitreviews.com/article/1461/1/

In terms of physical attributes it’s very close to GF100; the transistor count remains at 3 billion (with NVIDIA undoubtedly taking advantage of the low precision of that number), while the die size is at 520mm2. NVIDIA never did give us the die size for GF100, but commonly accepted values put it at around 530mm2, meaning GF110 is a hair smaller.
http://www.anandtech.com/print/4008

5,86 Mio.T./mm² für GF110 VS 5,68 Mio.T./mm² für GF100


Da ist wohl der 430mm² Chip Cayman oder gar ein GF112?

Coda
2010-11-10, 14:42:20
Wird's eigentlich GF110-Teslas geben?

Spasstiger
2010-11-10, 17:44:49
Wird's eigentlich GF110-Teslas geben?
Davon gehe ich schwer aus, spricht ja Nix dagegen, aber Vieles dafür.
So kann man bei gleicher Leistungsaufnahme rund 25-30% mehr Rechenleistung anbieten und auch noch einen saftigen Aufpreis ohne höhere Produktionskosten verlangen. Und das Namensschema lässt auch noch Platz für weitere Fermi-Teslas. Z.B. Tesla C2060 (3 GiB) und Tesla C2090 (6 GiB).

Fetza
2010-11-11, 01:15:50
Es waere zwar schoen fuer NV wenn GF110 nur 16SM bins von sich geben wuerde, aber wenn Du etwas schaerfer darueber nachdenkst ist es leicht zu sehen dass man mit den chips die eben keine 16SM schaffen auch etwas anfangen muss.

Schon klar, ich dachte die gehen dann vielleicht in den tesla-markt oder so. Andererseits ist die tess-leistung der gf114 warscheinlich deutlich schlechter und tess-leistung läßt sich ja marketingtechnisch gut verwursten.

Dural
2010-11-11, 09:02:07
wie soll eigentlich ein GF112 aussehen?

Zwischen GF104 und GF110 bleibt nicht viel übrig, eigentlich gar nichts!


Ausser NV geht bei allen GF11x wider auf 32SP zurück, dürfte dann so aussehen:

GF110 16SM - 512SP/64TMUs und 48ROPs

GF112 12SM - 384SP/48TMUs und 32ROPs (der viel erwähnte 430mm2 chip?! dürfte sogar in etwa hinkommen)

GF114 8SM - 256SP/32TMUs und 24ROPs

GF117 4SM - 128SP/16TMUs und 16ROPs

GF119 2SM - 64SP/8TMUs und 8ROPs


Eine GTX560 mit GF112 (384SP@800MHz) dürfte so wohl gut 30% schneller als eine GTX460 werden, der Preis punkt für so eine Karte wäre aber bei 6870 und nur 15% mehr Leistung als diese nicht gerade ideal...

AnarchX
2010-11-11, 09:51:31
Den GF112 Codename gab es ja nur von 4Gamer, die öfters mal einen Fehler in ihrer Roadmap haben.

GF110/GF100 ähnliche Cluster bei GF11x wären wohl auch möglich, mit dem entfernen von DP kommt vielleicht auf 13-14mm² gegenüber den 16mm² mit DP.
Gleichzeitig würde man die GPUs an steigende Tess-Anforderungen anpassen.

Ailuros
2010-11-11, 11:01:03
Davon gehe ich schwer aus, spricht ja Nix dagegen, aber Vieles dafür.
So kann man bei gleicher Leistungsaufnahme rund 25-30% mehr Rechenleistung anbieten und auch noch einen saftigen Aufpreis ohne höhere Produktionskosten verlangen. Und das Namensschema lässt auch noch Platz für weitere Fermi-Teslas. Z.B. Tesla C2060 (3 GiB) und Tesla C2090 (6 GiB).

Die 6GB Tesla wurde als C2070 schon seit geraumer Zeit erwaehnt, war aber bis jetzt noch nicht erhaeltlich.

wie soll eigentlich ein GF112 aussehen?

Zwischen GF104 und GF110 bleibt nicht viel übrig, eigentlich gar nichts!


Ausser NV geht bei allen GF11x wider auf 32SP zurück, dürfte dann so aussehen:

GF110 16SM - 512SP/64TMUs und 48ROPs

GF112 12SM - 384SP/48TMUs und 32ROPs (der viel erwähnte 430mm2 chip?! dürfte sogar in etwa hinkommen)

GF114 8SM - 256SP/32TMUs und 24ROPs

GF117 4SM - 128SP/16TMUs und 16ROPs

GF119 2SM - 64SP/8TMUs und 8ROPs


Eine GTX560 mit GF112 (384SP@800MHz) dürfte so wohl gut 30% schneller als eine GTX460 werden, der Preis punkt für so eine Karte wäre aber bei 6870 und nur 15% mehr Leistung als diese nicht gerade ideal...

Uhmm zuerst nach der GF104 Vorstellung "musste" der GF100 Nachfolger unbedingt auf 104-Fundamenten stehen und heute sollten sie ploetzlich die ganze 104-Idee als Eintagsfliege verschachteln?

Ich sehe keinen Grund warum der GF104 Nachfolger nicht weiterhin 3*16/8TMUs/SM sein sollte.

Dementsprechend klingt es mir persoenlich logischer wenn NV mit GF110 salvage chips nach unten skaliert und von da ab mit einem vollen GF104 sprich GF114 weitermacht.

NV wird sowieso nichts weder an den Quadro noch den Tesla maximalen Spezifikationen etwas aendern IMO, ergo werden sie auch hier eine gute Anzahl an bis zu 14 SM GF110 dies brauchen. Die oben erwaehnte Tesla 2070/6GB kann auch jetzt mit anstaendigerem Stromverbrauch erscheinen als mit GF100.

Bin mir zwar nicht zu 100% sicher aber es schwirrt herum dass der 104 Nachfolger einen um klein bisschen kleineren die hat. Macht auch Sinn dass sie ingesamt wie auch bei GF110 Transistoren etwas aufgeraeumt haben.

Und mit "aufraeumen" sollte man nichts grossartiges verstehen sondern lediglich ein bisschen Redundanz entfernen ohne die Leistung zu beinflussen. Hier mangelt es auch hauptsaechlich wie ein engineer betonte an Zeit. Unter all diesen Vorraussetzungen kann man ein paar Prozente an die area beschneiden.

Ich bestehe zwar momentan noch auf nichts, aber in das ganze Puzzle passt mir ein angeblicher "GF112" mit 12SMs einfach nicht rein. Das Ding waere verdammt redundant im Vergleich zum 104 Nachfolger.

Bucklew
2010-11-11, 11:14:40
Die 6GB Tesla wurde als C2070 schon seit geraumer Zeit erwaehnt, war aber bis jetzt noch nicht erhaeltlich.
doch, schon seit längerem

Ailuros
2010-11-11, 11:30:18
doch, schon seit längerem

I stand corrected. Was heisst ueberhaupt seit "laengerem"? Die Dinger waren fuer Q3 2010 angeschlagen in der Vergangenheit.

Dural
2010-11-11, 11:33:08
naja, ich gehe eher davon aus das dann bei dieser Version alles Chips das gleiche haben und können wie GF110...

gerade GF112 dürfte mit 1/2 DP so hoch interessant für Quadro und vorallem Tesla sein, betreffent wärme und verbrauch bei immer noch anständiger Leistung!

der chip hätte gut die selbe DP leistung wie Tesla 2070 aber bei deutlich nidrigem verbrauch.

bei den chips darunter könnte man es dann auch komplett streichen wie es AMD auch macht.

Ailuros
2010-11-11, 11:46:48
naja, ich gehe eher davon aus das dann bei dieser Version alles Chips das gleiche haben und können wie GF110...

Da es bei GF100 aber wohl nicht der Fall war, waere es eine Suende seitens NV die 104 Idee so schnell zu begraben und noch mehr da es bis jetzt noch keine volle Version davon gab.

gerade GF112 dürfte mit 1/2 DP so hoch interessant für Quadro und vorallem Tesla sein, betreffent wärme und verbrauch bei immer noch anständiger Leistung!

der chip hätte gut die selbe DP leistung wie Tesla 2070 aber bei deutlich nidrigem verbrauch.

bei den chips darunter könnte man es dann auch komplett streichen wie es AMD auch macht.

Dafuer kann jeglicher salvage chip wie auch bei GF100 sorgen.

LovesuckZ
2010-11-11, 11:49:44
Beim selben Stromverbrauch sind ca. 17% mehr Rechenleistung drin. Also ca. 600 GFLOPs/s mit DP. Eventuell werden sie aber nur den geringeren Stromverbrauch von ca. 17-20% mitnehmen.

Dural
2010-11-11, 11:54:04
GF104 hat aber gezeigt das die mehr TMUs in realen spielen kaum was bringen, zudem sind die ALUs beim GF104 ineffizienter als beim GF100, wo ist also der vorteil bei diesem aufbau?!? OK bei der selber Einheits-Zahl braucht der Chip sicher weniger fläche...

GF110 hat aber immer noch ein problem, er ist sehr gross und der verbrauch hat sich gegenüber GF100 so gut wie nicht verbessert, die par watt machen bei einem so hohen verbrauch auch nichts mehr aus...

wenn es NV geligen würde mit so einen GF112 in die selben verbrauchsregionen vorzustossen wie wir es mit dem GF104 sehen wäre die GPU doch äusserst interessant für diesen markt.

und dank deutlich mehr Tess Power auch für den Gamer markt sehr gut geignet.

mal schauen... aber ich sehe null sinn einen GF114 aufzulegen der das wie GF104 bietet, die verbesserungen von GF100 zu GF110 sind ja zum teil auch schon im GF104 drin, wo ist den da der sinn?


so ein GF112 hätte bei 650MHz immerhin 1000GigaFlops SP und 500GigaFlops DP bei vielleicht möglichen 150Watt TDP (???)

LovesuckZ
2010-11-11, 11:57:00
Eine GTX580 hat ein sehr ähnliches Perf/Watt Verhältnis wie eine GTX460, vielleicht sogar ein Stückchen besser. Es hat sich auch zwischen 17-30% gegenüber einer GTX480 verbessert.

Dural
2010-11-11, 12:01:40
nein der GF104 steht noch etwas besser da, du vergisst das die GTX460 nicht voll aktiv ist.

aber wie auch immer, schon ein gleichstand wäre für den GF100 ein schlechtes zeichen, den er ist in der Herstellung deutlich teurer.

aber mal die GTX570 abwarten, was NV da noch in sachen Watt/FPS raus holen kann, wenn überhaupt.

Bucklew
2010-11-11, 12:38:07
I stand corrected. Was heisst ueberhaupt seit "laengerem"? Die Dinger waren fuer Q3 2010 angeschlagen in der Vergangenheit.
puh, ka. ich krieg die samples ja früher.

fizzo
2010-11-11, 12:51:45
Eine GTX580 hat ein sehr ähnliches Perf/Watt Verhältnis wie eine GTX460, vielleicht sogar ein Stückchen besser. Es hat sich auch zwischen 17-30% gegenüber einer GTX480 verbessert.

http://tpucdn.com/reviews/NVIDIA/GeForce_GTX_580/images/perfwatt.gif

link (http://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_580/28.html)

:uponder:

Dural
2010-11-11, 13:14:13
das sieht man mal wider das die von den roten ständig erwänten "meilen" weiten vorsprung in Watt/FPS so gar nicht exisiert, ganz im gegenteil GF104 hält sogar super mit...

ein GF104 @ 384SP dürfte sogar gleichwertig in dem bereich wie RV870 / 5870 sein... (komisch das sag ich ja schon seit Monaten..)



der GF100 ist aber schon übel... :freak:


die GTX570 müsste, wenn alles seinen normalen lauf nimmt und mit ca. 100MHz weniger takt als die GTX580 ankommt, sogar sehr sehr weit vorne stehen!

V2.0
2010-11-11, 13:17:09
Ja super, 40% Differenz zu einer 6850. Die 10 besten KArten sind alle "rot". Das ist mal eine klare Aussage.

AMD > NV.

Dural
2010-11-11, 13:27:58
die besste AMD karte ist nach wie vor die 5770, alles andere vor ihr ist entweder kleiner ramsch oder barts mit "bildqualitäts-optimierungen"

hättest wenigstens die 5850 erwähnt, die ist wirklich gut so...


Aber schön das man mal wider sieht das die angebliche bessere Watt/FPS von Barts so gar nicht exisitiert, eine reine marketing lüge seitens AMD!


Edit:
Die letzte Karte ist übrigens eine AMD und ich weis noch genau das dass bei den roten damals völlig egal war, wie schnell das man seine meinung doch ändern kann... ;)

Eggcake
2010-11-11, 13:33:48
das sieht man mal wider das die von den roten ständig erwänten "meilen" weiten vorsprung in Watt/FPS so gar nicht exisiert, ganz im gegenteil GF104 hält sogar super mit...

ein GF104 @ 384SP dürfte sogar gleichwertig in dem bereich wie RV870 / 5870 sein... (komisch das sag ich ja schon seit Monaten..)



der GF100 ist aber schon übel... :freak:


die GTX570 müsste, wenn alles seinen normalen lauf nimmt und mit ca. 100MHz weniger takt als die GTX580 ankommt, sogar sehr sehr weit vorne stehen!

Also, ich halte fest:

- Der Unterschied zwischen 580 und 480 ist riesig, die 480 "übel".
- Der Unterschied zwischen GTX460 und Radeonkarten ist "nicht existent".

Und bei beiden ist bis zu 20% Unterschied vorhanden. :freak:


Aber eigentlich ging's ja um die 580 vs. 460 und nicht um die Radeonkarten.

deekey777
2010-11-11, 13:35:16
die besste AMD karte ist nach wie vor die 5770, alles andere vor ihr ist entweder kleiner ramsch oder barts mit "bildqualitäts-optimierungen"

hättest wenigstens die 5850 erwähnt, die ist wirklich gut so...


Aber schön das man mal wider sieht das die angebliche bessere Watt/FPS von Barts so gar nicht exisitiert, eine reine marketing lüge seitens AMD!


Edit:
Die letzte Karte ist übrigens eine AMD und ich weis noch genau das dass bei den roten damals völlig egal war, wie schnell das man seine meinung doch ändern kann... ;)
Kauf dir endlich ein Programm, das die Rechtschreibung kontrolliert.

http://tpucdn.com/reviews/NVIDIA/GeForce_GTX_580/images/perfwatt.gif

link (http://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_580/28.html)

:uponder:
20% = ähnlich.
Größe des BartS-Dies ist auch kaum kleiner als die eines Cypress.

Dural
2010-11-11, 13:36:10
Also, ich halte fest:

- Der Unterschied zwischen 580 und 480 ist riesig, die 480 "übel".
- Der Unterschied zwischen GTX460 und Radeonkarten ist "nicht existent".

Und bei beiden ist bis zu 20% Unterschied vorhanden. :freak:


Aber eigentlich ging's ja um die 580 vs. 460 und nicht um die Radeonkarten.


kannst gerne mal ein zitat von mir raus suchen wo ich (angeblich) mal gesagt hätte der verbrauch der GTX580 sei "OK" danke... :P

Eggcake
2010-11-11, 13:37:04
Edit: Hm stimmt, du sagst tatsächlich, dass auch die GTX580 gleich "praktisch gleich viel" verbraucht. Also sind bei dir 20% wirklich "praktisch gleich"?!

fondness
2010-11-11, 13:40:58
Edit: Hm stimmt, du sagst tatsächlich, dass auch die GTX580 gleich "praktisch gleich viel" verbraucht. Also sind bei dir 20% wirklich "praktisch gleich"?!

Ja, aber immer nur zugunsten Nvidias. ;D

Dural
2010-11-11, 13:41:07
zitat?

richtig lesen ist schwer, oder?

nein der GF104 steht noch etwas besser da, du vergisst das die GTX460 nicht voll aktiv ist.

aber wie auch immer, schon ein gleichstand wäre für den GF100 ein schlechtes zeichen, den er ist in der Herstellung deutlich teurer.

aber mal die GTX570 abwarten, was NV da noch in sachen Watt/FPS raus holen kann, wenn überhaupt.

und welche 20%???

es sind nicht einmal 5% (.........)

das sieht man mal wider das die von den roten ständig erwänten "meilen" weiten vorsprung in Watt/FPS so gar nicht exisiert, ganz im gegenteil GF104 hält sogar super mit...

fizzo
2010-11-11, 13:49:35
das sieht man mal wider das die von den roten ständig erwänten "meilen" weiten vorsprung in Watt/FPS so gar nicht exisiert, ganz im gegenteil GF104 hält sogar super mit...

ein GF104 @ 384SP dürfte sogar gleichwertig in dem bereich wie RV870 / 5870 sein... (komisch das sag ich ja schon seit Monaten..)

der GF100 ist aber schon übel... :freak:


Selektive Wahrnehmung? :uponder:

Hugo78
2010-11-11, 14:24:56
Boah, Jungs sind wir hier bei Computerbase oder was?
Nach dem R600 und HD 4870x2 Sündenfall steht AMD im Perf/Watt momentan besser da, na sollen sie doch.
Das letzte was mich meine Leute fragen, wenn sie mich bitten mal wieder einen Rechner für sie zusammen zubauen ist "was schluckt das Teil?".
Eher noch, "ja aber seh zu das er schön schnell ist, dabei leise und auf 10 jahre alle kommenden Spiele packt und die auch ohne Fehler laufen", und das für die berüchtigten Äpfel und Eier.

igg
2010-11-11, 18:28:20
In der heise Meldung (http://www.heise.de/newsticker/meldung/Nvidia-praesentiert-GeForce-GTX-580-1132881.html) steht was unschönes:
Die Video-Engine entspricht weiterhin der des GF100; die verbesserte Variante des GF104, die etwa DTS-HD Master Audio und Dolby True HD unterstützt, hat Nvidia nicht integriert.
Wieso hat man hier die alte Video-Engine genommen?
Werden zukünftige (GF114?) die neuere erhalten?

fondness
2010-11-11, 18:31:44
In der heise Meldung (http://www.heise.de/newsticker/meldung/Nvidia-praesentiert-GeForce-GTX-580-1132881.html) steht was unschönes:

Wieso hat man hier die alte Video-Engine genommen?



http://www3.pic-upload.de/11.11.10/4esyd9c7chab.jpg

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8382516&postcount=306

Weil es sich um einen gefixten GF100 handelt, keinen neuen Chip. Deshalb bezeichnet ihn NV intern auch zurecht als GF100b.


Werden zukünftige (GF114?) die neuere erhalten?

Davon kann man ausgehen.

Bucklew
2010-11-11, 18:38:03
Weil es sich um einen gefixten GF100 handelt, keinen neuen Chip. Deshalb bezeichnet ihn NV intern auch zurecht als GF100b.
Nö, intern heißt er nicht GF100b.

fondness
2010-11-11, 18:42:09
Nö, intern heißt er nicht GF100b.

Vielleicht in Aachen nicht, aber Leute die Ahnung haben von dem Chip offensichtlich schon, sonst würde man den Namen nicht ins BIOS spielen. ;)

LovesuckZ
2010-11-11, 18:44:15
Es ist doch vollkommen egal, wie der Chip heißt. Barts müsste auch Cypress S genannt werden. Trotzdem beschwert sich hier niemand.
Also ob dadurch die Welt untergehen würde. :rolleyes:

Eggcake
2010-11-11, 18:45:25
Es erklärt aber teilweise
Wieso hat man hier die alte Video-Engine genommen?

Bucklew
2010-11-11, 18:46:07
Vielleicht in Aachen nicht, aber Leute die Ahnung haben von dem Chip offensichtlich schon, sonst würde man den Namen nicht ins BIOS spielen. ;)
Warum schreiben dann die Leute, die Ahnung davon haben, GF110 drauf? ;D

Ich bins auf jeden Fall nicht :D

LovesuckZ
2010-11-11, 18:51:21
Es erklärt aber teilweise

Ich habe keine Ahnung, warum sie es nicht implementiert haben. Soweit ich weiß, ist GF104 nicht in der Lage den" L1 Cache" auch mit 48/16 (L1/SM) zu partitionieren und das überarbeitete Z-Culling fehlt ebenfalls dort.

harzer_knaller
2010-11-11, 19:05:26
Hrm, wo ich mir jetze mal die Verbrauchswerte der GTX 580 angesehen habe, gehe ich mal davon aus, dass auch die GTX 560 mehr als einen 6-Pin PCIe Stromstecker bekommen wird. Liege ich mit der Annahme (relativ) richtig?

LovesuckZ
2010-11-11, 19:08:38
Ja.

Gipsel
2010-11-11, 19:54:49
Barts müsste auch Cypress S genannt werden.Warum?
Er unterscheidet sich deutlich von Cypress, allein z.B. durch die fehlende DP-Unterstützung. Die Shader entsprechen Juniper, das generelle Layout des Chips einem Cypress. Zusätzlich hat man aber an den UTDPs noch gedreht (sowie ein paar Puffer vergrößert) und Redwood-ähnliche Speichercontroller-PHYs verbaut. Das Ding hat also schon ein paar mehr Änderungen erfahren.

Hugo78
2010-11-12, 05:24:59
@Gispel
Dann nenns halt "Best of Evergreen Mix 2010".
Die Aussage war, dass wir es bei Barts nicht mit einem neuen Chip zu tun haben, sondern mit einem Ableger der HD5k,
und hier auch keiner auf die Tränendrüse drückt.
Über das Segment hat man sich mukiert, nie über die Generation.

Dural
2010-11-12, 12:38:15
lasst es doch einfach sein mit diesen sinnlosen diskusionen über irgend welche produkte namen, ich kann es langsam nicht mehr sehen!

die roten drehen eh immer alles wie es ihnen gerade passt, sollen sie doch mir egal, dabei ist AMD in dem bereich kein stück besser... ;)

Iruwen
2010-11-26, 00:06:23
Das ist bei der 580 auch so ohne Power Management
Roar, 3000 FPS in Furmark sind wahre Grafikpower :rolleyes:

HarryHirsch
2010-11-26, 00:08:21
Roar, 3000 FPS in Furmark sind wahre Grafikpower :rolleyes:

Schon mal 3000 FPS in Furmark gehabt?

Dural
2010-11-26, 08:46:33
hat zwar nichts mit dem Thema zu tun aber davidzo kam damit (grundlos...) an, gibt es mehrere Quellen die belegen das die 580er in furmark ohne sperre mehr verbraucht als eine 480?

den auf die par Watt würde ich bei einem Test nichts geben, die 400 und 500 Serie haben immer noch Variable VIDs und können unter anderem auch wegen dem doch "deutliche" unterschiede aufweisen, da kann es schon mal vorkommen das man eine "sparsame" 480er testet aber eine 580er im Test hat die etwas über dem Durchschnitt liegt.


aber was man mal wieder schön sieht ist das es zwischen AMD und NV in sachen Leistung/Watt keinen mega grossen Unterschiede wie von einigen immer wieder behauptet gibt, die 580er liegt nur etwas über der 5970 bei fast selber Leistung und die GF104 und Barts nehmen sich eigentlich in dem Bereich rein gar nichts.

gilt nicht für GF100...

Duke Nukem
2010-11-26, 09:18:28
Die 5970 ist ne Dualkarte NV schafts beim Verbrauch mit ner single GPU die zu toppen. Wie NV da ne 580 dualkarte bringen soll ist mir schleierhaft. Ausserdem muss sich die 580 mit den 6 er highend atis dann messen. Nicht mit den ca 1 Jahr alten 5 er Karten. Da wirds bei Leistung/Watt kaum besser werden für NV.

john carmack
2010-11-26, 10:14:50
Man kann mit der 6970 wohl höchstens die Tesselations-Leistung der GTS450 oder GTX460 erreichen, das wäre aber schon mal OK.


Wie kann das sein? Erreicht die 5870 nicht einmal 450er niveau?

fondness
2010-11-26, 11:11:34
hat zwar nichts mit dem Thema zu tun aber davidzo kam damit (grundlos...) an, gibt es mehrere Quellen die belegen das die 580er in furmark ohne sperre mehr verbraucht als eine 480?


Nein, du kamst grundlos mit der falschen Behauptung an das es nur bei AMD so wäre. Und ja, diese Quellen gibt es:

GeForce GTX 580 Unlocked: 350W Under FurMark Thanks To GPU-Z (http://www.geeks3d.com/20101115/geforce-gtx-580-unlocked-350w-under-furmark-thanks-to-gpu-z/)

Die GTX580 hat einen Controlchip und ein besseres Refdesign, ansonsten verhält sie sich vom Verbrauch wie eine höher getaktete GTX480.

Hugo78
2010-11-26, 11:17:28
Die Techpowerup Grafik ist Bullshit.
Im Test von techpowerup.com saugt die 580 ohne limiterer 304W, in der Grafik urplötzlich 350.
- http://techpowerup.com/reviews/NVIDIA/GeForce_GTX_580/25.html
Da kann einer keine Grafiken erstellen, dass ist alles.

LovesuckZ
2010-11-26, 11:28:10
Die GTX580 hat einen Controlchip und ein besseres Refdesign, ansonsten verhält sie sich vom Verbrauch wie eine höher getaktete GTX480.

So ein Schlonz. Ist es wirklich zuviel verlangt, dass man nicht über etwas schreibt, von dem man keine Ahnung hat?

GF110 verhält sich vollkommen anders als eine GTX480. Die GTX580 hat meistens eine höhere Spannung (VID von 1V - 1,038V gegenüber 0,96x - 1,03x), mehr aktive Funktionseinheiten und einen 10% höheren Coretakt und benötigt je nach VID weniger, gleichviel oder etwas mehr Strom. Eine GTX580 mit 857Mhz und 1,063V verbraucht bis zu 100 Watt weniger als eine GTX480 mit 842Mhz und 1,063V.
Die GTX580 genehmigt sich auch knapp 15-20 Watt weniger beim IDLEN mit den selben Einstellungen.

Also, erst Wissen aneignen und dann Aussagen tätigen.

deekey777
2010-11-26, 11:37:31
Verbrauch ist doch Spannung multipliziert mit Strom, oder?

Gipsel
2010-11-26, 11:40:22
Die Techpowerup Grafik ist Bullshit.
Im Test von techpowerup.com saugt die 580 ohne limiterer 304W, in der Grafik urplötzlich 350.
- http://techpowerup.com/reviews/NVIDIA/GeForce_GTX_580/25.html
Da kann einer keine Grafiken erstellen, dass ist alles.
Nein. Lies Dir mal den Text dazu durch! Die 304W haben die als instantanen Wert gemessen, als der Limiter aktiv war. Das ist der Spike beim Starten von Furmark, bevor die Regelung einsetzt. In der Grafik bei TPU stehen übrigens auch nur 304 W und nicht 350W.
Please note that two entries are present in the "Maximum" graph. As mentioned earlier, the card comes with a current limiter system which reduces clocks and performance in case the card senses it is overloaded. Exactly that is happening in our Furmark test, the second bar is the power draw as we see it momentarily before the current limiter has time to kick in.

Mit deaktiviertem Limiter geht es dann natürlich noch höher. Bei Geek3D sieht man diesen Spike beim Starten mit Limiter übrigens auch:

http://www.ozone3d.net/public/jegx/201011/gtx580_power_draw_furmark_gpuz.jpg

Edit:
Gerade gesehen, daß Geek3D auch nur TPU zitieren. Das ändert aber trotzdem nichts daran, daß TPU in ihrem Originalartikel Grafik und Text zusammenpassen und auch die gezeigte und später erstellte Grafik aus der entsprechenden Meldung zum Verbrauch ohne Limiter dazupaßt.

LovesuckZ
2010-11-26, 11:47:39
Kleine Randnotiz: Der Abstand zwischen "normalen" Anwendungen und Furmark ist bei der GTX580 größer als bei der GTX480. Die GTX480 verbraucht zwischen 30-70 Watt, die GTX580 zwischen 30-90 Watt weniger.

deekey777
2010-11-26, 11:51:31
Kleine Randnotiz: Der Abstand zwischen "normalen" Anwendungen und Furmark ist bei der GTX580 größer als bei der GTX480. Die GTX480 verbraucht zwischen 30-70 Watt, die GTX580 zwischen 30-90 Watt weniger.
Interessiert Furmark wirklich?

Der Limiter ist doch eine tolle Sache, um beim gewöhnlichen Übertakten auf sicherer Seite zu bleiben. Man hat ein Budget von zB 300W und kann dieses ausschöpfen, da ist Caymans TDP-Überwachung nicht viel anders.

LovesuckZ
2010-11-26, 11:54:21
Interessiert Furmark wirklich?

Der Limiter ist doch eine tolle Sache, um beim gewöhnlichen Übertakten auf sicherer Seite zu bleiben. Man hat ein Budget von zB 300W und kann dieses ausschöpfen, da ist Caymans TDP-Überwachung nicht viel anders.

Mich interessierts. ;)
Ich wollte hier nur aufzeigen, dass man als unwissender eben nicht irgendwas schreiben sollte. Solange GF110 nicht vollständig ausgelastet wird - Tesmark moderat und normal, Furmark - landet man im schlimmsten Fall auf GTX480 Niveau. Und würde man eine GTX480 um die 18% übertakten, läge man weit über 100 Watt über einer GTX580. Die Aussage, dass eine GTX580 sich wie eine übertaktete GTX480 verhält, ist daher einfach nur nonsens.

Gipsel
2010-11-26, 11:56:57
@LS:
Bastel einen GTX580 Kühler auf eine GTX480 und Du bist nochmal ein ganz ordentliches Stückchen näher dran. Andersrum kommt es zumindest gar nicht soo schlecht hin ;)

Übrigens, Thema hier ist glaube ich Cayman, oder?

fondness
2010-11-26, 12:00:49
Mich interessierts. ;)
Ich wollte hier nur aufzeigen, dass man als unwissender eben nicht irgendwas schreiben sollte. Solange GF110 nicht vollständig ausgelastet wird - Tesmark moderat und normal, Furmark - landet man im schlimmsten Fall auf GTX480 Niveau. Und würde man eine GTX480 um die 18% übertakten, läge man weit über 100 Watt über einer GTX580. Die Aussage, dass eine GTX580 sich wie eine übertaktete GTX480 verhält, ist daher einfach nur nonsens.

Wie schon gesagt, Kühler und Controlchip. Lass die GTX580 auch mal 90°C+ warum werden unter Last und du hast schnell etliche Watt mehr. Oder nimm eine GTX480 AMP!

LovesuckZ
2010-11-26, 12:02:52
@LS:
Bastel einen GTX580 Kühler auf eine GTX480 und Du bist nochmal ein ganz ordentliches Stückchen näher dran. Andersrum kommt es zumindest gar nicht soo schlecht hin ;)


Natürlich wieder die Kühlersache. Bleib damit im Beyond3d.com Forum, da trifft sich doch die Anti-nVidia Fraktion...
Hier wurde es untersucht: http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/37789-nvidia-geforce-gtx-580-review-22.html

fondness
2010-11-26, 12:06:10
Natürlich wieder die Kühlersache. Bleib damit im Beyond3d.com Forum, da trifft sich doch die Anti-nVidia Fraktion...
Hier wurde es untersucht: http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/37789-nvidia-geforce-gtx-580-review-22.html

Warum verschwindest du nicht einfach mal anstatt das du kompetente Leute aufforderst fern zu bleiben? Das würde dem Forum wesentlich mehr bringen.

LovesuckZ
2010-11-26, 12:11:15
Warum verschwindest du nicht einfach mal anstatt das du kompetente Leute aufforderst fern zu bleiben? Das würde dem Forum wesentlich mehr bringen.

Wenn es dir entgangen ist: Ich habe deinen unsinn nur richtig gestellt. Wenn dir das nicht passt, dann schreibe doch bitte in Zukunft keinen unsinn mehr.

V2.0
2010-11-26, 12:17:33
Interessiert Furmark wirklich?

Der Limiter ist doch eine tolle Sache, um beim gewöhnlichen Übertakten auf sicherer Seite zu bleiben. Man hat ein Budget von zB 300W und kann dieses ausschöpfen, da ist Caymans TDP-Überwachung nicht viel anders.

Sicher interessiert Furmark, denn nur die 350W die man dort sehe kann sind relevant für die Beurteilung der 580. Es ist ja keine intelligente Regelung wie sie AMD in Kürze einführt. Diese kann man nur uneingeschränkt begrüßen, NV cheatet nur mal wieder.

crux2005
2010-11-26, 12:24:12
Wenn das nicht absichtlich n provokativer Post ist, dann weiß ich auch nicht. ;D

btw: Ich glaube die Caymans kommen erst im Dezember...

Dural
2010-11-26, 13:02:22
Sicher interessiert Furmark, denn nur die 350W die man dort sehe kann sind relevant für die Beurteilung der 580. Es ist ja keine intelligente Regelung wie sie AMD in Kürze einführt. Diese kann man nur uneingeschränkt begrüßen, NV cheatet nur mal wieder.

wie viel verbraucht eigentlich zb. eine 5870 in furmark ohne trosselung? ;)


am ende zählt nur der reale verbrauch ohne trosselung in realen anwendungen und da steht die GTX580 in der regel etwas besser da als die GTX480 und das bei im schnitt ca. 18% mehr Leistung.

wie auch immer, NV hat das Leistung/Watt verhältnis bei der GTX580 deutlich verbessert ohne wenn und aber, Punkt! Das hat NV quasi mit dem selben chip und etwas optiemirungen, mit der selben spannung, mit rund 7% mehr einheiten und mit 10% mehr takt (was auf das bezogen, eigentlich das komplett ausergewöhndliche ist! den energie effizient ist alles andere aber sicher nicht mehr takt!) erreicht!


ich vermute deswegen auch das die GTX570 in dem bereich sogar noch etwas besser als die GTX580 da steht! Mit den 690MHz, den 480SP und 320Bit/1280MB dürfte die GTX570 deutlich besser da stehen als noch die alte GTX480 bei quasi selber Leistung / etwas unterhalb als diese.

LovesuckZ
2010-11-26, 13:12:37
wie viel verbraucht eigentlich zb. eine 5870 in furmark ohne trosselung? ;)


am ende zählt nur der reale verbrauch ohne trosselung in realen anwendungen und da steht die GTX580 in der regel etwas besser da als die GTX480 und das bei im schnitt ca. 18% mehr Leistung.

wie auch immer, NV hat das Leistung/Watt verhältnis bei der GTX580 deutlich verbessert ohne wenn und aber, Punkt!

Lass sie doch faseln. Bei Computerbase.de verbrauchte die Zotac AMP! 420 Watt bei 75°C in Crysis. Eine GTX580 bei 85°C 428 Watt, also 1,9% mehr. Entspricht der Messungenauigkeit. Also Gleichstand bei 10°C mehr, 2% höherer Taktung und einem aktiven SM mehr. Bei Hardwareluxx.de genehmigt sich die MSI GTX480 HAWX bei 20°C weniger deutlich mehr Strom als deren GTX580.

Es ist immer das selbe: Nonsens, nonsens, nonsens.

y33H@
2010-11-26, 13:18:19
Es ist ja keine intelligente Regelung wie sie AMD in Kürze einführt. Diese kann man nur uneingeschränkt begrüßen, NV cheatet nur mal wieder.Ach, du kennst schon alle Details der Cayman-Regelung? ;D

btw hat AMD angefangen, die HD4k per Treiber zu drosseln, die HW-Drosselung der HD5k wurde offiziell nie kommuniziert. NV dagegen geht (zumindest im Falle der GTX 580) offen mit der Drossel um. Da ist keiner besser - beide bauen Produkte, die ihre Specs nicht halten können, wenn volle Leistung gefordert ist :P

Raff
2010-11-26, 13:28:33
Ach, du kennst schon alle Details der Cayman-Regelung? ;D

Fakt ist aber, dass die Nvidia-Regelung fragwürdig ist: Warum direkt um 50 Prozent drosseln, wenn man das auch feiner tun könnte? Das Aktionspotenzial "Alles oder nichts" ist ziemlich primitiv, eine intelligente Regelung bis zum exakten Einhalt der TDP-Grenze wäre wünschenswert.

MfG,
Raff

V2.0
2010-11-26, 13:30:59
Diese Drossel ist doch sowieso nur was für Fanboys und ich dachte ich gebe euch was zu spielen. In der Realität ist so eine TDP Limitierung schon unvermeidbar, weil die Kühlungen bei Dual-Slot und in realen OEM-Umgebungen (nicht auf offenen Testständen) diese TDP sowieso nicht dauerhaft und stabil bei 25°C+ packen.

Fraglich ist allerdings warum NV hier so einen radikale Variante nutzt. Wenn man das schon in Hardware macht, dann könnte man auch graduell anpassen.

Dural
2010-11-26, 13:34:37
Fakt ist aber, dass die Nvidia-Regelung fragwürdig ist: Warum direkt um 50 Prozent drosseln, wenn man das auch feiner tun könnte? Das Aktionspotenzial "Alles oder nichts" ist ziemlich primitiv, eine intelligente Regelung bis zum exakten Einhalt der TDP-Grenze wäre wünschenswert.

MfG,
Raff

naja ist ja noch neu, kommt dann mit der GTX680 die exakt immer 300Watt zieht ;D :wink:

Raff
2010-11-26, 13:34:55
Diese Drossel ist doch sowieso nur was für Fanboys und ich dachte ich gebe euch was zu spielen. In der Realität ist so eine TDP Limitierung schon unvermeidbar, weil die Kühlungen bei Dual-Slot und in realen OEM-Umgebungen (nicht auf offenen Testständen) diese TDP sowieso nicht dauerhaft und stabil bei 25°C+ packen.

Eine "reale Umgebung" ist oft sogar besser als ein offener Teststand, da jedes anständige Gamer-Gehäuse über mehrere Lüfter verfügt, die auch die Hitze der Grafikkarte wegschaffen. Ein komplett passives, eventuell noch gedämmtes Gehäuse (Randgruppe) ist natürlich Gift für jede Enthusiast-Komponente.

MfG,
Raff

V2.0
2010-11-26, 13:39:06
Wer nimmt schon so ein Gehöuse um die Kühlung zu verifizieren. Worst Case - also max. 2 120er.

y33H@
2010-11-26, 13:45:46
Fakt ist aber, dass die Nvidia-Regelung fragwürdig ist: Warum direkt um 50 Prozent drosseln, wenn man das auch feiner tun könnte? Das Aktionspotenzial "Alles oder nichts" ist ziemlich primitiv, eine intelligente Regelung bis zum exakten Einhalt der TDP-Grenze wäre wünschenswert.

MfG,
Raff
Das steht außer Frage.

Ich aber frage mich: Warum bauen beide IHVs in Hard- wie Software aufwendige Schutzschaltungen ein - warum nicht gleich die Platinen samt Stromversorgung und Kühlung so auslegen, dass die Karte Volllast schafft? AMD hatte die HD4k mit "unleash one tera" beworben, in der Praxis aber wird gethrottelt :usad: Offenbar sind Schutzschaltungen billiger als "gescheite" PCBs und Wandler usw.
Fraglich ist allerdings warum NV hier so einen radikale Variante nutzt. Wenn man das schon in Hardware macht, dann könnte man auch graduell anpassen.Naja, NV hat weniger Erfahrung mit Hardware-Drosseln als AMD ;)

LovesuckZ
2010-11-26, 13:48:31
nVidia-Karten schaffen es doch. Es ist nur marketingtechnisch shice, wenn die Karte in einer Anwendung mal eben 320 Watt zieht...
Es ist wiedermal auch die Schuld der Reviewer, die statt jedes Spiel sich den Furmark nehmen und darauf irgendwas bauen. Und wenn dann die Konkurrenzfirma Vorsichtsmaßnahmen einführt, steht man noch dümmer dar...

/edit: Waren die 4000 Karten von AMD nicht gleichschnell oder schneller als die GT200 Karten von nVidia im Furmark?

Gipsel
2010-11-26, 13:55:06
Hier wurde es untersucht: http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/37789-nvidia-geforce-gtx-580-review-22.htmlWenn Du Dir durchliest, wie genau das gemacht wurde, erkennst Du, daß das nicht gerade sehr aussagekräftig ist. Hast Du noch bessere Links?
wie viel verbraucht eigentlich zb. eine 5870 in furmark ohne trosselung? ;)~200 Watt?
Ich bin der Meinung, daß Furmark wahrscheinlich nicht optimal darauf ausgelegt ist, die HD5870 zum wirklichen Maximum des Stromverbrauchs (und damit zum garantierten Ansprechen der Drosselung) zu bringen. Die müßten den Code im Prinzip für jede GPU etwas anpassen, um das zu schaffen. Cypress hat Flaschenhälse, die bei der HD4800ern z.T. noch erheblich weiter sind, so daß es auch daran hängen kann. Es gibt momentan einfach keinen harten Beweis, daß die HD5870er in Furmark gedrosselt werden (auch wenn die Performance recht schlecht gegenüber den HD4800ern skaliert, aber das kann auch an den gerade erwähnten Flaschenhälsen liegen). Und solange es den nicht gibt, ist die obige 200W Antwort das Beste, was Du kriegen kannst.
Wieso springt die Performance z.B. nicht mit einem Mal hoch, wenn man die HD5870 untertaktet und untervoltet und damit die Drosselung irgendwann nicht mehr anspringen sollte?
die HW-Drosselung der HD5k wurde offiziell nie kommuniziert. NV dagegen geht (zumindest im Falle der GTX 580) offen mit der Drossel um.Aha. Interessanterweise kennt man z.B. aus Anands Launchartikel Details, wie z.B. die Taktraten, auf die gedrosselt wird. Kann man das auch von der GTX580 Drossel sagen? Wie wurde die "offizieller" kommuniziert als Die HD5800er-Variante?

V2.0
2010-11-26, 14:00:03
Apllication detect bei der 58X0, ist sehr wahrscheinlich.

Gipsel
2010-11-26, 14:03:14
AMD hatte die HD4k mit "unleash one tera" beworben, in der Praxis aber wird gethrottelt :usad:Man konnte/kann 1 TFlop/s nutzen, bloß muß man dann die gleichzeitige Nutzung der TMUs/des Speichercontrollers etwas einschränken :rolleyes:
Es gibt also durchaus Code, der den Shadercore der HD4800er wärmer werden läßt als Furmark (nach Umgehen der Throttelung).

y33H@
2010-11-26, 14:04:38
@ Gipsel

NV hatte eigene Slides nur für dieses Feature (Funktion, Clocks usw.). AMD hatte gar nicht, die PCU wurde nur nach mehrfachen Nachfragen irgendwann mal off the record bestätigt. Anand hat offenbar lange genervt - offizielle Dokumente gibt's im Gegensatz zu NV imo nicht. Vor allem beim Release der HD5k nicht.

Man konnte/kann 1 TFlop/s nutzen [...]Wie bzw. mit welcher Anwendung oder welchem Code?

Gipsel
2010-11-26, 14:04:43
Apllication detect bei der 58X0, ist sehr wahrscheinlich.Wird von AMD aber bestritten (zumindest zum Zwecke der Drosselung).

LovesuckZ
2010-11-26, 14:05:27
Wenn Du Dir durchliest, wie genau das gemacht wurde, erkennst Du, daß das nicht gerade sehr aussagekräftig ist. Hast Du noch bessere Links?


Hier sind es 5°C weniger bei gleicher Kühlung: http://en.expreview.com/2010/11/18/the-fox-out-foxedgtx-580-real-power-consumptiontemperature-surfaced/12013.html/5

Andere Tests gibt es nicht. Und solltest du keine anderen Links anführen können, ist es nichts weiteres als Schlonz.

Gipsel
2010-11-26, 14:07:19
@ Gipsel

NV hatte eigene Slides nur für dieses Feature (Funktion, Clocks usw.). AMD hatte gar nicht, die PCU wurde nur nach mehrfachen Nachfragen irgendwann mal off the record bestätigt. Anand hat offenbar lange genervt - offizielle Dokumente gibt's im Gegensatz zu NV imo nicht.
Nun, Slides aus Präsentationen für eine geschlossene Veranstaltung sind zwar schon etwas (irgendwie habe ich die nicht gesehen, gibt es da einen Link zu?), allerdings auch nicht wirklich offizielle Dokumente ;)

PCGH_Raffael
2010-11-26, 14:11:56
~200 Watt?

Unser Excel aller gemessenen Karten spricht bei HD-5870-Modellen von knapp 190 Watt (AMD-Launchkarte), über 200 bis 230 Watt (Retail- & OC-Modelle). Daneben gibt's ein paar übertriebene Custom-Designs, die bis zu 255 Watt ziehen (Gigabyte SOC, etc.).

MfG,
Raff

Gipsel
2010-11-26, 14:43:37
Hier sind es 5°C weniger bei gleicher Kühlung: http://en.expreview.com/2010/11/18/the-fox-out-foxedgtx-580-real-power-consumptiontemperature-surfaced/12013.html/5

Andere Tests gibt es nicht. Und solltest du keine anderen Links anführen können, ist es nichts weiteres als Schlonz.
Aus dem gleichen Artikel, den Du da verlinkt hast:
When cooler of GTX 480 was installed in GTX 580, GPU temperature reached critical temperature of 97℃ and it entered into temperature protection state.While GTX 580′s self-contained vapor chamber cooler was only with GPU temperature of 90℃,which was within safe range.Mit dem GTX480-Kühler wird die GTX580 also erheblich wärmer, der GTX480-Kühler reicht also offenbar definitiv nicht aus.
=> Dein Link ist ein wenig ein zweischneidiges Schwert ;)

Insgesamt gibt es an den von Dir gebrachten Links folgende Kritikpunkte:
- nur Stromverbrauch von Gesamtsystemen
- Temperaturvergleich fraglich, da sich die Sensoren/Messungen unterscheiden können (schau Dir das mal bei CPUs an)
- Temperaturen/Verbräuche "über kreuz" verglichen, nicht wirklich direkt
- der Vergleich mit Accelero listet wieder nur Temperaturen, außerdem unterscheidet sich dieser Kühler deutlich von den Referenzkühlern, da kann also auch was anderes passieren (z.B. Wandler werden gänzlich anders gekühlt, daher größerer Einfluß, k.A.)

Es wäre beispielsweise interessant, wie sich eine GTX480 mit GTX580-Kühler im direkten Vergleich mit einer GTX580 und einer GTX480 mit Originalkühler verhält. Meßgröße sollte dabei der isolierte Verbrauch der Karte sein. Und selbst da hat man immer noch den Punkt der wahrscheinlich geringeren Wandlerverluste auf der GTX580.

PS:
Falls Du das übrigens verpaßt hast, ich habe vor dem Launch der GTX580 beschrieben, welche Änderungen (an den Transistoren!) beim GF110 zu einem niedrigerem Verbrauch bei steiigendem Takt führen können. Ich bezweifle keinesfalls, daß es da Änderungen gegeben hat. Aber offensichtlich unterschätzt Du den Einfluß der Temperatur und der Kühlung auf den Stromverbrauch. Das ist im Fall der GTX580 mindestens genau so wichtig.

Gipsel
2010-11-26, 14:45:56
Unser Excel aller gemessenen Karten spricht bei HD-5870-Modellen von knapp 190 Watt (AMD-Launchkarte), über 200 bis 230 Watt (Retail- & OC-Modelle). Daneben gibt's ein paar übertriebene Custom-Designs, die bis zu 255 Watt ziehen (Gigabyte SOC, etc.).Ich meinte natürlich das Ref-Design mit Standardtakten der HD5870 mit den ~200W :rolleyes:

LovesuckZ
2010-11-26, 14:51:13
Lass mich das zusammenfassen: Ich, Gipsel, habe keine Beweise und muss nun alles, was nicht in meinem Promotionsplan passt, ablehnen.

Lass es. Wenn du gipseln willst, benutze das Beyond3d.com Forum. Da wird man dir bedingungslos zustimmen. Mehr als Links zu Tests kann ich nicht geben. Wenn du mit den Ergebnissen nicht einverstanden bist, kannst du gerne a) eigene Tests hier anbringen oder b) auf andere Tests verweisen.

Wenn du dazu nicht in der Lage bist: Einfach keinen Schlonz schreiben.

/edit: Das interessanteste ist eigentlich, dass die GTX580 wohl durchgehend im Furmark mehr verbraucht als die GTX480, aber in Spielen - wo der Chip nicht annährend so ausgelastet wird - ist der Abstand geringer bzw. der verbrauch niedriger. Das zeigt doch schon, dass eure Argumentation falsch ist.

Gipsel
2010-11-26, 15:21:48
@LS:
Es ist nunmal ein Fakt, daß die Leckströme sehr stark mit der Temperatur skalieren. Deshalb ist es auch durchaus stimmig, was Du hier bemerkst:
Das interessanteste ist eigentlich, dass die GTX580 wohl durchgehend im Furmark mehr verbraucht als die GTX480, aber in Spielen - wo der Chip nicht annährend so ausgelastet wird - ist der Abstand geringer bzw. der verbrauch niedriger.Denn bei etwas niedrigerer Last wirkt sich die bessere Kühlung der GTX580 nämlich stärker aus, als unter Furmark. Der Temperaturunterschied unter Furmark ist ja niedriger als in Spielen (die GTX580 aber laut den Tests immer noch kühler als die GTX480)! Insofern liegst Du mit Deinem letzten Satz falsch, wenn Du sagst:
Das zeigt doch schon, dass eure Argumentation falsch ist.Dem ist nicht so.

PS:
Ich brauche keinen Promotionsplan mehr, ich habe schon promoviert ;)

aths
2010-11-26, 15:25:25
So ein Schlonz. Ist es wirklich zuviel verlangt, dass man nicht über etwas schreibt, von dem man keine Ahnung hat?

GF110 verhält sich vollkommen anders als eine GTX480. Die GTX580 hat meistens eine höhere Spannung (VID von 1V - 1,038V gegenüber 0,96x - 1,03x),Eine 580-er mit 0,96 V GPU-Spannung habe ich bisher noch nicht gesehen.

Dural
2010-11-26, 15:33:45
er meint auch die 480er ;)



und wie ich schon x mal geschriben haben, man kann unmöglich einen richtigen vergleich mit nur je einer karte anstellen, die gründe sind bekannt!

da müsste man min. 10 karten aus verschidenen quellen und datum haben und von den 10 karten den durchschnitt ausrechnen um ein halb korrekte aussage zu tätigen was eben sache ist!

LovesuckZ
2010-11-26, 15:37:13
@LS:
Es ist nunmal ein Fakt, daß die Leckströme sehr stark mit der Temperatur skalieren. Deshalb ist es auch durchaus stimmig, was Du hier bemerkst:
Denn bei etwas niedrigerer Last wirkt sich die bessere Kühlung der GTX580 nämlich stärker aus, als unter Furmark. Der Temperaturunterschied unter Furmark ist ja niedriger als in Spielen (die GTX580 aber laut den Tests immer noch kühler als die GTX480)! Insofern liegst Du mit Deinem letzten Satz falsch, wenn Du sagst:
Dem ist nicht so.


Heaven Benchmark:
GTX580: 857Mhz/2180Mhz@ 1,063V mit 85°C: ~450 Watt.
GTX480: 842Mhz/2050Mhz@ 1,063V mit 85°C: ~500 Watt.

Unterschied im Furmark:
GTX580: 857Mhz/2180Mhz@ 1,063V mit ~90°C: ~500 Watt.
GTX480: 842Mhz/2050Mhz@ 1,063V mit 100°C+: ~580 Watt.

Im Gegensatz zu dir habe ich Erfahrungen mit beiden Karten sammeln dürfen. Wie gesagt: Für solchen Anti-nVidia-Schlonz eignet sich das Beyond3d.com Forum besser.

Gipsel
2010-11-26, 15:39:43
@LS:
Siehe oben.

LovesuckZ
2010-11-26, 15:44:25
"Siehe oben"? Was soll das? Ich habe dir gerade zwei echte Werte geliefert. Der Heaven Benchmark ist sogar unter der selben Temperatur-Grenze erfolgt. Wenn du dagegen keine Werte hast, solltest du anerkennen, dass dein Anti-nVidia-Getrolle eben nicht bei jedem fruchtet.

aths
2010-11-26, 15:59:55
er meint auch die 480er ;)Die Werte stimmen dann noch immer nicht, beide Karten können (unmodifiziert) mit mehr als 1,038 Volt ausgeliefert werden.

Gipsel
2010-11-26, 16:08:03
@LS:
Ich habe oben schon geschrieben, was von der Vergleichbarkeit solcher Werte zu halten ist (die Temperaturen der internen Sensoren sind über verschiedenen GPUs oder auch CPUs hinweg nicht unbedingt vergleichbar). Daran verbesserst Du auch nichts, wenn Du noch an ein paar mehr Parametern gleichzeitig drehst (Takt+Spannung), eher im Gegenteil (weil Du da noch Interferenzen mit dem Einfluß der leicht unterschiedlich Auslegung der Transistoren erzeugst). Und ob die von Dir selbst zu Hause unter unbekannten und wahrscheinlich nicht reproduzierbaren Bedingungen gemessenen Werte wesentlich zur Aufklärung beitragen? Hmm.

Mein Argument läßt sich im Prinzip ganz einfach zusammenfassen. Es ist bekannt (sehr gut theoretisch und praktisch belegt), daß der Stromverbrauch von der Temperatur/Kühlung abhängt. Eine GTX480 mit Kühlung auf GTX580-Niveau hätte einen deutlich geringeren Verbrauch. Der große Vorteil, den Du siehst, ist also zu einem nicht unwesentlichen Teil auf die bessere Kühlung zurückzuführen (edit: und wahrscheinlich auch z.T. auf die überarbeiteten Spannungsregler).

Zur HD5870 gab es sogar mal Zahlen von AMD dazu. Im relevanten Bereich (~85°C) ist es für Cypress etwa 1 W/°C. Dieser Wert skaliert natürlich grob mit der absoluten Menge der Leckströme, die bei GF100/110 aus naheliegenden Gründen (mehr Transistoren, eher Optimierung der Transistorwahl auf hohen Takt bei vergleichsweise niedrigen Spannungen) als höher angenommen werden können. Aber das nur am Rande.

fondness
2010-11-26, 16:23:12
Wenn es dir entgangen ist: Ich habe deinen unsinn nur richtig gestellt. Wenn dir das nicht passt, dann schreibe doch bitte in Zukunft keinen unsinn mehr.

Ich kann das nur so interpretieren das du mal wieder über dich selbst sprichst.

@LS:
Ich habe oben schon geschrieben, was von der Vergleichbarkeit solcher Werte zu halten ist (die Temperaturen der internen Sensoren sind über verschiedenen GPUs oder auch CPUs hinweg nicht unbedingt vergleichbar). Daran verbesserst Du auch nichts, wenn Du noch an ein paar mehr Parametern gleichzeitig drehst (Takt+Spannung), eher im Gegenteil (weil Du da noch Interferenzen mit dem Einfluß der leicht unterschiedlich Auslegung der Transistoren erzeugst). Und ob die von Dir selbst zu Hause unter unbekannten und wahrscheinlich nicht reproduzierbaren Bedingungen gemessenen Werte wesentlich zur Aufklärung beitragen? Hmm.

Mein Argument läßt sich im Prinzip ganz einfach zusammenfassen. Es ist bekannt (sehr gut theoretisch und praktisch belegt), daß der Stromverbrauch von der Temperatur/Kühlung abhängt. Eine GTX480 mit Kühlung auf GTX580-Niveau hätte einen deutlich geringeren Verbrauch. Der große Vorteil, den Du siehst, ist also zu einem nicht unwesentlichen Teil auf die bessere Kühlung zurückzuführen (edit: und wahrscheinlich auch z.T. auf die überarbeiteten Spannungsregler).

Zur HD5870 gab es sogar mal Zahlen von AMD dazu. Im relevanten Bereich (~85°C) ist es für Cypress etwa 1 W/°C. Dieser Wert skaliert natürlich grob mit der absoluten Menge der Leckströme, die bei GF100/110 aus naheliegenden Gründen (mehr Transistoren, eher Optimierung der Transistorwahl auf hohen Takt bei vergleichsweise niedrigen Spannungen) als höher angenommen werden können. Aber das nur am Rande.


Eben, man sieht es ja auch sehr schon an der GTX480 mit besserer Kühlung. Eine GTX480 AMP hat zum Beispiel fast GTX580 Taktraten und ist trotzdem deutlich sparsamer als ein GTX480 im Refdesign mit Standardtaktraten.

http://www.computerbase.de/artikel/grafikkarten/2010/kurztest-zotac-geforce-gtx-480-amp/4/#abschnitt_sonstige_messungen

boxleitnerb
2010-11-26, 16:33:40
Ist noch die Frage, ob bei der AMP! auch die Spannungen angepasst sind oder auf eine effizientere Stromversorgung gesetzt wurde. Das würde den Vergleich wieder über den Haufen werfen.

fondness
2010-11-26, 16:41:30
Ist noch die Frage, ob bei der AMP! auch die Spannungen angepasst sind oder auf eine effizientere Stromversorgung gesetzt wurde. Das würde den Vergleich wieder über den Haufen werfen.

Man sieht an den Bildern der Karte sehr schön das zwar ein anderer Kühler verbaut ist aber die Platine dem NV-Referenzdesign entspricht. Es gibt AFAIK auch gar keine GTX480 mit einer Custom-Platine. Erlaubt NV wohl nicht.

Die Spannung könnte natürlich durch die höheren Taktraten auch höher sein, aber das würde meine Aussage höchstens untermauern.

Bucklew
2010-11-26, 16:50:26
Man sieht an den Bildern der Karte sehr schön das zwar ein anderer Kühler verbaut ist aber die Platine dem NV-Referenzdesign entspricht. Es gibt AFAIK auch gar keine GTX480 mit einer Custom-Platine. Erlaubt NV wohl nicht.
Aha:

http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/16970-test-msi-n480gtx-lightning.html
http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/16993-test-gigabyte-geforce-gtx-480-superoverclock.html

Sehen mir irgendwie nicht nach Referenzplatinen aus....

fondness
2010-11-26, 16:53:07
Aha:

http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/16970-test-msi-n480gtx-lightning.html
http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/16993-test-gigabyte-geforce-gtx-480-superoverclock.html

Sehen mir irgendwie nicht nach Referenzplatinen aus....

Ok, dann gibt es eben doch Custom Designs. Ändert an meiner Aussage im Bezug auf die AMP aber nicht das geringste. Denn dort wird - wie man an den Bildern bei CB schön sieht - definitiv eine Referenzplatine verwendet.

y33H@
2010-11-26, 18:41:00
Die AMPs sind Refdesign, ja.

crane
2010-11-26, 19:46:45
Wann kommt denn die Zotac 580 Amp mit eigener Kühllösung auf den Markt?
Gibt es denn eine bereits angekündigte Alternative zur AMP 580 eines anderen Herstellers?

Hugo78
2010-11-26, 19:59:25
AMP wird sicher kommen.

Die Frage ist, in wie weit sich Boardpartnerdesigns der 580 vom Ref.Design noch absetzen können.
Der Kosten/Nutzen solcher Designs ist ja nicht mehr so groß, aus Sicht des Käufers, wie noch bei der 480.

Das könnte die Boardpartnerdesigns unattraktiver erscheinen lassen, wenn ihr Preis all zu weit vom Ref.Design weg ist.

Mayk-Freak
2010-11-26, 21:05:19
Ich hab eine ganz gute EVGA GTX580 erwischt 449Euro VID 1,000V läuft auch mit 0,975Volt noch stabil(3DMark 11 Advanced Edition FREE). gekühlt wir sie erst mal mit GPU Only Wakü Kühler.

http://www.abload.de/thumb/extremebp5e.jpg (http://www.abload.de/image.php?img=extremebp5e.jpg)

http://www.abload.de/thumb/leckermcj1.jpg (http://www.abload.de/image.php?img=leckermcj1.jpg)

http://www.abload.de/thumb/lecker4dgzf.jpg (http://www.abload.de/image.php?img=lecker4dgzf.jpg)

http://www.abload.de/thumb/testevgars3y.jpg (http://www.abload.de/image.php?img=testevgars3y.jpg)

y33H@
2010-11-26, 22:15:35
Eine GTX 580 AMP! ist kein Problem, Grundplatte + VF3000F gehen 1A.

LovesuckZ
2010-11-26, 23:43:13
@LS:
Ich habe oben schon geschrieben, was von der Vergleichbarkeit solcher Werte zu halten ist (die Temperaturen der internen Sensoren sind über verschiedenen GPUs oder auch CPUs hinweg nicht unbedingt vergleichbar). Daran verbesserst Du auch nichts, wenn Du noch an ein paar mehr Parametern gleichzeitig drehst (Takt+Spannung), eher im Gegenteil (weil Du da noch Interferenzen mit dem Einfluß der leicht unterschiedlich Auslegung der Transistoren erzeugst). Und ob die von Dir selbst zu Hause unter unbekannten und wahrscheinlich nicht reproduzierbaren Bedingungen gemessenen Werte wesentlich zur Aufklärung beitragen? Hmm.

Oder kurz: Ich, Gipsel, erzähl was. Aber das, was ich, Gipsel, erzähle, kann sowieso niemand belegen. Und da das, was ich, Gipsel, erzähle, von niemand belegt werden kann, ist es wahr. ;D


Mein Argument läßt sich im Prinzip ganz einfach zusammenfassen. Es ist bekannt (sehr gut theoretisch und praktisch belegt), daß der Stromverbrauch von der Temperatur/Kühlung abhängt. Eine GTX480 mit Kühlung auf GTX580-Niveau hätte einen deutlich geringeren Verbrauch. Der große Vorteil, den Du siehst, ist also zu einem nicht unwesentlichen Teil auf die bessere Kühlung zurückzuführen (edit: und wahrscheinlich auch z.T. auf die überarbeiteten Spannungsregler).


Nein, ist er nicht. Ermittelte erstmal eigene Werte.
Statt hier zu trollen - nichts weiter ist dieses getue von jemanden, der keine eigenen Erfahrungen sammeln konnte -, könntest du durch eigene Test mehr zu dem Thema beitragen. Ansonsten kann ich dir nur den selben Rat geben wie deinem Freund fondness: Erst informieren, dann schreiben. Sonst liegt man einfach nur komplett daneben.

Bandit3644
2010-11-26, 23:59:36
habe die letzte zeit etwas gepennt, gibt es schon einen termin für die gtx 570??
das wird wohl mein nächster beschleuniger:biggrin:

mapel110
2010-11-27, 00:01:07
habe die letzte zeit etwas gepennt, gibt es schon einen termin für die gtx 570??
das wird wohl mein nächster beschleuniger:biggrin:
Wird aller Voraussicht nach auch Mitte Dezember noch vorgestellt.

Bandit3644
2010-11-27, 00:03:33
oh ja sehr gut dann hoffe ich mal das ich mir die zu weihnachten schenken kann:smile:

Gipsel
2010-11-27, 01:35:40
@LS:
Ich verrate Dir jetzt mal ein Geheimnis:
Manchmal hilft ein klein wenig logisches Denken enorm, grundlegende Zusammenhänge (wie z.B. vom Fakt der Temperaturabhängigkeit der Leakage von Transistoren auf eine ebensolche des Verbrauchs einer ganzen GPU zu schließen) zu verstehen. Aber psst, soll ja nicht gleich jeder mitbekommen, daß das so einfach sein kann! ;)

LovesuckZ
2010-11-27, 13:09:12
@LS:
Ich verrate Dir jetzt mal ein Geheimnis:
Manchmal hilft ein klein wenig logisches Denken enorm,[..]

Das unterscheidet uns: Ich habe Wissen, du nur deine Phantasie.
Du denkst nur solange logisch, bis deine Argumentation den Bach runtergeht. Dann spamst, trollst und flamst du. Ich konnte Tests machen. Und damit kann ich meine Position stärken. Du hast nichts. Selbst dein logisches Denken ignorierst du, wenn die Testbedingungen und Ergebnisse dir nicht gefallen.
Wenn du gerne noch über das Thema "Stromaufnahmeverbesserung bei GF110" diskutieren willst, dann bringe endlich Zahlen an. Wenn du dies nicht kannst, lass es sein. Es macht keinen Sinn über ein Thema mit jemanden zu reden, der aufgrund seiner politischen Einstellungen sowieso alles negieren wird.

aths
2010-11-27, 13:16:10
Das unterscheidet uns: Ich habe Wissen, du nur deine Phantasie.
Du denkst nur solange logisch, bis deine Argumentation den Bach runtergeht. Dann spamst, trollst und flamst du. Gipsel argumentiert.

Selbst wenn jemand ohne genaue Kenntnisse eure Auseinandersetzung liest, wird er wegen Gipsels überwiegend sachlichen Art eher ihm zustimmen und dich wegen deinen Übertreibungen und absurden Vorhaltungen nicht so ernst nehmen.

Es sei noch verraten, dass ich sehr viele GTX 480 und 580 getestet habe und die Praxis im Wesentlichen mit Gipsels "Fantasie" übereinstimmt.

LovesuckZ
2010-11-27, 13:21:42
Falsch, Gipsel argumentiert.


Ja, für eine These. Und die stimmt auch.
Leider ignoriert er dann die Wahrheit, die unter seiner eigenen Argumentation entstanden sind.
Gipsel ist bis jetzt jeglichem Beweis für seine Theorie schuldig geblieben. Und er wird für solch ein trollen auch noch geschützt. Schade, aber der Sinn eines solchen Forums sollte doch auch im Wissensaustausch liegen. Wenn nicht gewollt ist, dann hier Leute ihre Erfahrungen über nVidia-Hardware im Diskussionsforum posten, dann sollte es auch öffentlicht gemacht werden.
Weil dann könnt ihr euch mit euren lügen und getrolle schön de Köpfe einschlagen. Sozusagen, dass "Die Welt ist eine Scheibe" der Neuzeit.


Es sei noch verraten, dass ich sehr viele GTX 480 und 580 getestet habe und die Praxis im Wesentlichen mit Gipsels "Fantasie" übereinstimmt.

Dann zeige doch mal Zahlen.

aths
2010-11-27, 13:36:20
Dann zeige doch mal Zahlen.Die genauen Zahlen sind nicht öffentlich. Was ich aber bestätigen kann, ist, dass die Vorteile der GTX 580 nur bedingt im GF110 zu suchen sind. Die verbesserte Kühlung trägt zur gesenkten Stromaufnahme mehr bei als Nvidia uns glauben machen will. (Die GPU hätte GF101 genannt werden sollen.) Das genaue Verhalten kann aber von Chip zu Chip stark abweichen. Man muss zudem bedenken, wie die GPUs für die Karten selektiert werden, will da jetzt aber nicht ins Detail gehen.

Auf den Rest deines Postings gehe ich nicht groß ein. Du ziehst völlig absurde Vergleiche heran und verlässt damit das Thema.

LovesuckZ
2010-11-27, 13:47:00
Die genauen Zahlen sind nicht öffentlich. Was ich aber bestätigen kann, ist, dass die Vorteile der GTX 580 nur bedingt im GF110 zu suchen sind. Die verbesserte Kühlung trägt zur gesenkten Stromaufnahme mehr bei als Nvidia uns glauben machen will. Das kann aber von Chip zu Chip stark abweichen. Man muss zudem bedenken, wie die GPUs für die Karten selektiert werden, will da jetzt aber nicht ins Detail gehen.

Ich habe eine GTX480 und GTX580 unter selben Temperaturbedingungen getestet und da lag meine GTX580 immer höher beim Verbrauch als die GTX480 (487 zu 460 Watt im Furmark) - beide im Defaultzustand (1V gegen 1,038V). Sobald ich jedoch die GTX580 auf GTX480 Terrain brachte (701Mhz/1848Mhz/1,0V) oder beide übertaktet laufen lief (835Mhz/2050Mhz/1,063V), dann war die GTX580 immer besser bei der Stromaufnahme. Der Anstieg bei der GTX480 ist sogar erheblich gewesen. Furmark 107 Watt mehr, DMC4 sogar 82 Watt. Eine GTX580 nimmt es dagegen viel gelassener: Furmark 42 Watt und DMC4 31 Watt.

GF110 reagiert nicht annährend so schlimm auf eine Spannungserhöhung. Und da die Karte aufgrund anderer Transistoren generell bei geringer Auslastung weniger Strom benötigt, hat sie beim IDLEN auch einen deutlich geringeren Verbrauch - bei mir sind es 15 Watt.

aths
2010-11-27, 13:57:39
Was beweist das? Die Temperaturen müssten mitgeschrieben werden. Die Streuung innerhalb der GPU-Serie kann mit einem Einzeltest ohnehin nicht erfasst werden. Man kann nicht so einfach feststellen, inwieweit die GPU nun besser ist. Dass der GF110-Chip besser ist, zweifelt hier keiner an. Die Frage ist, wie viel davon dem neuen Stepping zuzurechnen ist und was man der Kühlung anrechnen muss. Mit besserer Kühlung lässt sich so mancher GF100 erstaunlich gut zähmen – aber nicht jeder, da es diese Streuung gibt. Mit Wasserkühlung und drei großen Radiatoren liegt das Taktlimit beider Chip bei ungefähr (nagelt mich da nicht auf 10 oder 20 MHz fest) 900 MHz, wenn man die jeweils besten GPUs vorher raussucht. Schon das zeigt mir, dass der GF110 nur wenige interne Verbesserungen hat.

LovesuckZ
2010-11-27, 14:00:49
Was beweist das? Die Temperaturen müssten mitgeschrieben werden.

Die Temperatur lag bei Messung immer bei 92°C (interner Sensor). Und gemessen wurden immer erst nach Erreichung der Temperatur.

Iruwen
2010-11-27, 19:02:56
Die genauen Zahlen sind nicht öffentlich ... will da jetzt aber nicht ins Detail gehen

Sorry, aber das liest sich so als genauso haltlose Behauptung wie LS Posts, 3DC Crew hin oder her.

Gunslinger
2010-11-27, 19:38:42
Sorry, aber das liest sich so als genauso haltlose Behauptung wie LS Posts, 3DC Crew hin oder her.

Arbeitet aths nicht für TGT Tuning? Dann wird er wohl mehr wissen als er sagen darf.

Dural
2010-11-27, 22:52:11
um was geht es hier denn, es ist ziemlich unwahrscheinlich das man ca. 20% bessere Energie Effizient zwischen GF100 und GF110 auf ca. 10°C Chip Temperatur zurück führen will, das ist ziemlich lächerlich...

GF110 ist klar sparsamer bei selber Leistung!


und die Begründung ist ja auch mal toll von wegen beide machen rund 900MHz unter WaKü, erstens was um allen in der Welt hat das mit dem Verbrauch zu tun und zweitens schon mal in den Sinn gekommen das für NV es sicher nie das Ziel war den GF110 auf Takt zu optimieren den schon GF100 hat kein Takt Probleme... sondern eher ein Verbrauchs Problem und da durch eine Limitierung!

übrigens ziehen sich die 900MHz durch die gesamte Fermi Familie, alle GPUs sind so um die 900MHz bei vernünftiger Spannung/Kühlung, egal ob gross oder klein!

was sagt das uns? es sagt uns das die Takt grenze ganz klar an der Architektur und / oder dem Herstellungsprozess zu suchen ist und nicht in einer bestimmten GPU von dieser.


Aber bei diesem Thema wäre es wohl klüger noch die GTX570 ab zu warten.

Ailuros
2010-11-29, 16:10:57
was sagt das uns? es sagt uns das die Takt grenze ganz klar an der Architektur und / oder dem Herstellungsprozess zu suchen ist und nicht in einer bestimmten GPU von dieser.

Es war schon immer so. Es gab nie und wird auch nie eine GPU geben deren Frequenz unabhaengig von einer Unzahl von Faktoren sein wird. Genau aus dem Grund sind die Frequenzen eben eines der letzten Schliffe die ein IHV einer GPU abgibt.

40G erlaubt zwar eine um einiges hoehere Chipkomplexitaet, erlaubt aber eben nicht fundamental hoehere Frequenzen als 55nm, ausser ein jeglicher IHV busst noch etwas zusaetzlichen Stromverbrauch mit ein. RV790@55nm war genau auf der gleichen Frequenz wie RV870@40nm und es sieht nicht danach aus als ob Cayman irgendwelche nennenswerte Abstaende von 850MHz nehmen kann.

Die GTX285 mit ihren 648MHz lag bei sehr guten 204W TDP (nun gut die chips waren auch ausgesucht wenn man auf die GTX275 bzw. GTX295 core schielt) und da beindruckt es mich kein bisschen dass GF100@700MHz bei 250W liegt und heute GF110@770MHz bei 244W. Ziel-frequenzen fuer die 480 waren bei 725MHz und fuer die 580 dann 800MHz. Kleine Schwankungen nach unten sind fuer alle IHVs normal; eher seltener ueber der Zielfrequenz.

Sobald IHVs einen chip fuer Herstellungsprozess X auslegen, bekommen sie von der foundry eine Tabelle mit diversen Komplexitaeten und vorgeschlagene maximale Frequenzen fuer Y Bedingungen. Unter normalen Umstaenden handelt es sich um sehr konservative Sicherheitsmassnahmen was die Frequenzen betrifft und erst wenn man kurz vor der Produktion liegt kann man sichere Frequenzen anvisieren und da enstehen dann erst am Ende die ueblichen +/- 50MHz Schwankungen.

Was am Ende dann jeder vendor mit jeglicher GPU unter seiner eigenen Garantie anstellt oder jeglicher Endverbraucher bis zum geht nicht mehr uebertaktat ist ein anderes Kapitel.

Ich will nur sichern dass sich hier keiner vorstellt dass Fermi je mit >725MHz geplant war oder dass Frequenzen in irgend einer Art eine verpatzte Architektur retten koennen. Ich bin mir nichtmal sicher dass wenn es 32nm wirklich gegeben haette, dass NV eben doch eher in mehr SMs und um einiges weniger in Richtung Frequenz fuer solch einen Fall investiert haette.

Das unterscheidet uns: Ich habe Wissen, du nur deine Phantasie.
Du denkst nur solange logisch, bis deine Argumentation den Bach runtergeht. Dann spamst, trollst und flamst du. Ich konnte Tests machen. Und damit kann ich meine Position stärken. Du hast nichts. Selbst dein logisches Denken ignorierst du, wenn die Testbedingungen und Ergebnisse dir nicht gefallen.
Wenn du gerne noch über das Thema "Stromaufnahmeverbesserung bei GF110" diskutieren willst, dann bringe endlich Zahlen an. Wenn du dies nicht kannst, lass es sein. Es macht keinen Sinn über ein Thema mit jemanden zu reden, der aufgrund seiner politischen Einstellungen sowieso alles negieren wird.

Gipsel argumentiert tatsaechlich. Und da ich persoenlich von Deinen indirekten Sticheleien und Provokationen die Nase voll habe, werde ich beim naechsten aehnlichen Stunt von Dir eben nicht mehr so tolerant sein.

Coda
2010-11-29, 16:21:36
Was beweist das? Die Temperaturen müssten mitgeschrieben werden. Die Streuung innerhalb der GPU-Serie kann mit einem Einzeltest ohnehin nicht erfasst werden. Man kann nicht so einfach feststellen, inwieweit die GPU nun besser ist. Dass der GF110-Chip besser ist, zweifelt hier keiner an. Die Frage ist, wie viel davon dem neuen Stepping zuzurechnen ist und was man der Kühlung anrechnen muss. Mit besserer Kühlung lässt sich so mancher GF100 erstaunlich gut zähmen – aber nicht jeder, da es diese Streuung gibt. Mit Wasserkühlung und drei großen Radiatoren liegt das Taktlimit beider Chip bei ungefähr (nagelt mich da nicht auf 10 oder 20 MHz fest) 900 MHz, wenn man die jeweils besten GPUs vorher raussucht. Schon das zeigt mir, dass der GF110 nur wenige interne Verbesserungen hat.
Man sollte mal einen GTX-580-Kühler auf eine GTX 480 montieren und sich dann den Unterschied anschauen. Würde mich wirklich interessieren.

Allerdings sagt NVIDIA ja, sie nutzen jetzt auch noch einen "Medium"-Transistor und sind die Schaltungen durchgegangen bei denen sie weniger Leakage einsetzen können. Das sollte eigentlich schon etwas gebracht haben, wenn sie da die Wahrheit sagen.

Ailuros
2010-11-29, 16:26:49
Allerdings sagt NVIDIA ja, sie nutzen jetzt auch noch einen "Medium"-Transistor und sind die Schaltungen durchgegangen bei denen sie weniger Leakage einsetzen können. Das sollte eigentlich schon etwas gebracht haben, wenn sie da die Wahrheit sagen.

Ich hab keinen Zweifel dass es stimmt. Leider eben nur ein "Kurz-Zeit-Pflaster"; wenn ich die paar verstreuten off the record Aussagen von nv engineering richtig interpretiert habe wird das Ganze wohl erst mit 28nm Varianten bewaeltigt werden. Ist ja auch von der Zeitspanne allein her auch ziemlich logisch.

Gipsel
2010-11-29, 16:50:50
Man sollte mal einen GTX-580-Kühler auf eine GTX 480 montieren und sich dann den Unterschied anschauen. Würde mich wirklich interessieren.Das habe ich auch schon vorgeschlagen.
Allerdings sagt NVIDIA ja, sie nutzen jetzt auch noch einen "Medium"-Transistor und sind die Schaltungen durchgegangen bei denen sie weniger Leakage einsetzen können. Das sollte eigentlich schon etwas gebracht haben, wenn sie da die Wahrheit sagen.
Ich denke schon, das die da durchaus ein wenig Feintuning betrieben haben. Allerdings sind die Auswirkungen wohl überschaubar (aber sicherlich meßbar). Schon vorne im Thread schrieb ich ganz allgemein zu möglichen Änderungen:
Das liegt vornehmlich an der genauen Auslegung der Schaltungen, sprich der Anzahl der benutzten Transistoren mit hoher bzw. niedriger Schwellspannung (Threshold, Vt).
So ein Prozeß hat ja nicht nur eine Sorte von Transistor sondern verschiedene. Der Designer kann festlegen, ob ein Transistor ein schnell schaltendes Exemplar (niedrige Vt), ein normales oder ein relativ langsamer Transistor ist (hohe Vt). Der Haken an der Sache ist natürlich, daß die schnellen Transistoren beträchtlich mehr Strom ziehen (nicht nur unter Last, Leakage geht deutlich hoch). Das wird natürlich möglichst so gewählt, daß man viele langsame, stromsparende Transistoren benutzen kann und trotzdem die angepeilte Taktfrequenz erreicht, also nur die kritischen Pfade mit den schnellsten Transistoren ausstattet.
Wenn man das Verhalten seiner Schaltung nicht perfekt einschätzen kann (oder auch die Schaltung insgesamt kein optimales Design aufweist), muß man mehr schnelle, stromhungrige Transistoren benutzen, der Stromverbrauch steigt also. Bei einem Base-Layer Respin (oder einem abgeändertem Design) kann man das korrigieren, wodurch der Stromverbrauch bei gleicher Transistorzahl sinken kann (und/oder der Takt steigt).
Wenn jetzt die Performance/Watt durch so einen Respin um sagen wir mal ganz grob vielleicht 5% gesteigert wird, dazu gleichzeitig noch eine deutlich niedrigere Temperatur (bei deutlich leiserer Kühlung!) weitere vielleicht gute 10% beiträgt und eine Neuauslegung der Spannungsregler auch noch das eine oder andere kleine Watt rausholt, weiß ich nicht, weswegen man sich aus Verbrauchersicht irgendwie beschweren sollte. Gibt doch keinen Nachteil!

Gipsel
2010-11-29, 16:59:53
um was geht es hier denn, es ist ziemlich unwahrscheinlich das man ca. 20% bessere Energie Effizient zwischen GF100 und GF110 auf ca. 10°C Chip Temperatur zurück führen will, das ist ziemlich lächerlich...

GF110 ist klar sparsamer bei selber Leistung!
Du kannst davon ausgehen, daß die bessere Kühlung bei der GTX580 im Schnitt so grob an die 20W ausmachen wird. Rechne dann noch ein, daß ein aktivierter SM meist mehr Leistung bringt, als er deaktiviert Verbrauch spart (kein Powergating von SMs, der leakt also voll mit), erkennst Du, daß allein durch die komplette Aktivierung aller SMs die Energieeffizienz schon etwas hochgeht. Da bleibt dann einfach gar nicht mehr soo viel übrig, was man unzweifelhaft auf eine Neuauslegung der Transistoren zurückführen muß.

LovesuckZ
2010-11-29, 17:04:45
Wenn jetzt die Performance/Watt durch so einen Respin um sagen wir mal ganz grob vielleicht 5% gesteigert wird, dazu gleichzeitig noch eine deutlich niedrigere Temperatur (bei deutlich leiserer Kühlung!) weitere vielleicht gute 10% beiträgt und eine Neuauslegung der Spannungsregler auch noch das eine oder andere kleine Watt rausholt, weiß ich nicht, weswegen man sich aus Verbrauchersicht irgendwie beschweren sollte. Gibt doch keinen Nachteil!

Durch den Respin sind es alleine 10%+. Zahlen dazu erhälst du, wenn du den Verbrauch unter den beiden States für IDLE und kleinen Lastverbrauch vergleichst.

Du kannst davon ausgehen, daß die bessere Kühlung bei der GTX580 im Schnitt so grob an die 20W ausmachen wird. [...] Da bleibt dann einfach gar nicht mehr soo viel übrig, was man unzweifelhaft auf eine Neuauslegung der Transistoren zurückführen muß.

Das ist falsch.

Gipsel
2010-11-29, 17:41:55
Durch den Respin sind es alleine 10%+. Zahlen dazu erhälst du, wenn du den Verbrauch unter den beiden States für IDLE und kleinen Lastverbrauch vergleichst.Wie soll ich das daraus folgern? Der Idle-Verbrauch der GPU wird wahrscheinlich hauptsächlich durch Leckströme dominiert. Und diese machen nun mal die Temperaturabhängigkeit aus. Wie stark unterscheiden sich denn die idle-Temperaturen von GTX480 und GTX580? Ich habe da so an die 20°C in Erinnerung (edit: hatte erstmal nur bei PCGH geschaut, die Werte bei anderen schwanken scheinbar ziemlich stark, kommt wohl auf den Testaufbau und die auch Karte an). Zumindest ist es wohl mehr als unter Last. Alles natürlich unter den geschilderten Vorbehalten der Vergleichbarkeit der internen Sensoren über verschiedene Chips hinweg. Aber relativ gesehen spart GF110 schon dann am meisten Strom, wenn er am kühlsten ist. Hmm. :rolleyes:
Zudem spielen die Spannungsregler im Bereich geringer Last eine recht wichtige Rolle. Da kann man prozentual recht viel rausholen, was bei Last dann nicht mehr so möglich ist (weil man dort sowieso schon bei ~90% ist und man gar nicht mehr viel Luft für Steigerungen hat).

y33H@
2010-11-29, 17:55:42
Drückt man eine GTX 480 idle auf unter 40°, hat die idR auch unter 40W.