PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GTX 590/595 - Dual GF11x - Q1 2011


Seiten : 1 [2]

Hugo78
2011-03-12, 13:39:20
Also die Zeichung mag sogar stimmen, aber das sieht nur so aus, wie der obere Teil der Kühlerabdeckung. ;)

Mal so zum Vergleich.

Nakai
2011-03-12, 14:09:32
Also die Zeichung mag sogar stimmen, aber das sieht nur so aus, wie der obere Teil der Kühlerabdeckung.

Jo, denk ich auch. Sieht man ja am rechten Rand, wo wohl die Stromstecker sein sollen.
Bei 21.5mm ist man eh schon so gut wie über SingleSlot.

Black-Scorpion
2011-03-12, 18:20:29
Natürlich! Warum denn nicht? Es sei denn, Nvidia zaubert und macht die GTX 590 leise. Die Wahrscheinlichkeit dafür liegt jedoch bei ... null.

MfG,
Raff
Du solltest wissen wen ich damit meine. Und nein das ist eben nicht natürlich.

Edgecrusher86
2011-03-12, 18:37:31
Ja, es war tatsächlich nur der Deckel - 21,5mm ohne Grundplatte kommt schon hin. :)

Update : Pardon for the mistake, we missed out the bottom part of the cooler which is about a slot thick so GeForce GTX 590 is still a dual slot card. The lenght is 297mm which is similar to its older counterpart GeForce GTX 295. Anyway, the card is still slated for March 22nd launch. The performance driver closest to the launch is version 267.52 and you can find this string in the inf file : NVIDIA_DEV.1088.01 = "NVIDIA GeForce GTX 590". NVIDIA seems confident that this card will win the Radeon HD 6990. Specs will be finalized next week.

http://vr-zone.com/articles/nvidia-geforce-gtx-590-exposed-a-single-slot-card--/11563.html

Aha...das mit 1083 als ID stimmt wohl nun nicht mehr - nun ist es 1088.


E: "Simulierte GTX 590" -> GTX 580 SLI @ 600/1200/850 MHz:

http://translate.google.de/translate?hl=de&sl=fi&tl=en&u=http%3A%2F%2Fplaza.fi%2Fmuropaketti%2Fartikkelit%2Fnaytonohjaimet%2Fennakkokat saus-nvidia-geforce-gtx-590

Ja, die wär schon öfters die zweite Geige gegen Antilles.

MfG
Edge

Hugo78
2011-03-12, 18:49:30
Die 590 wird nicht mit nur 600Mhz antretten, ich erwarte wenigstens 680Mhz, wenn nicht gar über 700.

[dzp]Viper
2011-03-12, 18:58:02
Die 590 wird nicht mit nur 600Mhz antretten, ich erwarte wenigstens 680Mhz, wenn nicht gar über 700.
Das wird aber von der Abwärme und vor allem von der Energieversorgen dann nicht wirklich hinhauen bzw. extrem knapp...

Alle "Quellen" berichten von 600MHz... ich denke auch eher, dass 600MHz realistisch sind.

Knuddelbearli
2011-03-12, 19:04:36
650 ist mein tipp

Hugo78
2011-03-12, 19:09:52
Viper;8617921']Das wird aber von der Abwärme und vor allem von der Energieversorgen dann nicht wirklich hinhauen bzw. extrem knapp...

Ach da geht immer was, Notfalls auf die Ohren.

Schau dir doch die Asus Ares an.
498W in Furmark, per Lukü.
http://www.pcgameshardware.de/aid,763385/Asus-Ares-im-Test-Dual-GPU-Grafikkarte-mit-bis-zu-500-Watt-Leistungsaufnahme/Grafikkarte/Test/

Ich sag ja nicht das es schön wird, aber bei einer Karte wo es wirklich nur um den Längsten geht, ist jedes Mittel recht und billig.

LovesuckZ
2011-03-14, 10:55:42
Nach den ganzen Tegra2 Geschwafel mal eine Abwechslung - ein Bild:
http://www.abload.de/img/395703550576x.jpg
http://www.semiaccurate.com/forums/showpost.php?p=102433&postcount=123

Wenigsten hat man sich ein paar Gedanken gemacht, ob man einen kleinen Radial-Lüfter verwenden sollte - auch wenn es nichts bringt, man hat im Gegensatz zur Konkurrenz die richtige Entscheidung getroffen:
http://pics.computerbase.de/3/3/5/3/7/1.jpg
http://www.computerbase.de/artikel/grafikkarten/2011/test-amd-radeon-hd-6990/

Dural
2011-03-14, 11:37:14
hmm interessant die PCI-E Bridge hat jetzt neu wohl anscheinend ein HS bekommen :)

konnte man das nicht schon auf einer Dual Galaxy GPU karte sehen?!? vileicht wurde ja was am silizium selber noch geändert, kleinerer herstellungsprozess zb.



Edit:

Jep stimmt hier:

http://www.pc-max.de/news/gaming/dual-gpu-karte-auf-gtx-460-basis-von-galaxykfa

LovesuckZ
2011-03-14, 15:21:43
Fake, kein Fake?

http://apload.de/bild/103853/2ZEGW7.png
http://www.xtremesystems.org/forums/showpost.php?p=4779407&postcount=520

Nightspider
2011-03-14, 15:24:28
Das Meiste war ja sowieso klar. Nur die Länge und Stromverbrauch könnten falschen sein. 11" sind rund 27cm, kommt also auch hin.

Edgecrusher86
2011-03-14, 15:26:22
28cm, aufgerundet (27,94 cm).

Der Kühler macht aber schon mal einen leiseren Eindruck als der Radiallüfter von Antilles. :)

Nakai
2011-03-14, 15:30:47
Sieht nach Fake aus.

In dem anderen Link wurde eine Länge von 297mm angegeben, was 11,7 Zoll sind. Hier wären es nur fast 28cm. Außerdem ist die Aufmache diese Folie ziemlich komisch. Die Angaben sind einfach zu unprofessionell.


mfg

fondness
2011-03-14, 15:39:08
Fake, kein Fake?

http://apload.de/bild/103853/2ZEGW7.png
http://www.xtremesystems.org/forums/showpost.php?p=4779407&postcount=520

Horsepower?! :D

crux2005
2011-03-14, 15:45:48
Wieso hat aber eine nVidia dann weniger Horsepower als eine AMD?
Aber TDP in Horsepower umzubenennen empfinde ich schon als Kandidaten für den Gag des Jahres. ;)

Leonidas
2011-03-14, 16:04:10
Interessant, daß noch niemand die HT4U-Meldung entdeckt hat. Sichere Quelle nebenbei:
http://ht4u.net/news/23544_nvidia_geforce_gtx_590_eckdaten_bekannt_-_es_koennte_eng_werden/

3DC dazu:
http://www.3dcenter.org/artikel/die-spezifikationen-zur-geforce-gtx-590

Rohleistungsvergleich:
http://www.3dcenter.org/dateien/abbildungen/2011-03Mar-14.png

Raff
2011-03-14, 16:06:41
Das wäre ziemlich mager. Mit 57 Prozent mehr Roh-Bäm ist abzüglich Skalierung, Mikroruckeln und Lag kein besseres Spielgefühl als mit einer stark übertakteten GTX 580 (etwa @ 950 MHz = +23 %) möglich.

MfG,
Raff

=Floi=
2011-03-14, 16:13:28
horsepower 365 Watt :facepalm:

welcher depp kommt da auf horsepower.

edit
Das wäre ziemlich mager. Mit 57 Prozent mehr Roh-Bäm ist abzüglich Skalierung, Mikroruckeln und Lag kein besseres Spielgefühl als mit einer stark übertakteten GTX 580 (etwa @ 950 MHz = +23 %) möglich.

MfG,
Raff

das würde aber sicherlich viele 580er kunden freuen. :D

Raff
2011-03-14, 16:15:11
horsepower 365 Watt :facepalm:

welcher depp kommt da auf horsepower.

Marketing. Man formuliert die Gülle einfach in eine Tugend um und suggeriert damit etwas Tolles.

MfG,
Raff

Blediator16
2011-03-14, 16:17:28
Vll. versuchen sie lustig zu sein und versuchen es über die Ökoschiene in "diesem Segment" ^^

fondness
2011-03-14, 16:20:36
Das wäre ziemlich mager. Mit 57 Prozent mehr Roh-Bäm ist abzüglich Skalierung, Mikroruckeln und Lag kein besseres Spielgefühl als mit einer stark übertakteten GTX 580 (etwa @ 950 MHz = +23 %) möglich.

MfG,
Raff

NV hat eben kein Powertune das bei einer bestimmten Leistungsaufnahme automatisch abriegelt. Die 6990 läuft ja praktisch immer mit 375W. Je nach dem wird die Leistung geregelt.

seaFs
2011-03-14, 16:22:37
horsepower 365 Watt :facepalm:

welcher depp kommt da auf horsepower.


Naja, 1 PS sind 735W, also hat die Karte ein halbes PS :D

Die Bezeichnung ist aber wirklich arg daneben...

Raff
2011-03-14, 20:43:14
NV hat eben kein Powertune das bei einer bestimmten Leistungsaufnahme automatisch abriegelt. Die 6990 läuft ja praktisch immer mit 375W. Je nach dem wird die Leistung geregelt.

Stimmt, Nvidia hat Power Containment. ;) Das funktioniert theoretisch dank Hardware-Monitoring genauso, benötigt aber 'ne Art Treiberprofile. So kommt's, dass einige Apps (etwa das PCGH VGA-Tool) immer noch nicht "locked" sind.

MfG,
Raff

=Floi=
2011-03-14, 22:41:38
nur kann man das von NV umgehen UND die stromversorgung und kühlerkonstruktion ist trotzdem breiter ausgelegt.

Edgecrusher86
2011-03-14, 23:20:36
Ich habe mal anhand des Berichts von Leonidas (GTX 590 => + 50% fps vs. GTX 580) die spekulierte GTX 590 in das CB-Rating einbezogen.
Mal sehen, ob es nächste Woche auch ähnlich aussieht. ;)

http://www.abload.de/thumb/gtx590cb-performanceraf7m8.png (http://www.abload.de/image.php?img=gtx590cb-performanceraf7m8.png)

Klar, grobe Spekulationen...die SLI-Skalierung ist ja auch je nach Anwendung unterschiedlich - naja, besser als nichts. :)

MfG
Edge

LovesuckZ
2011-03-14, 23:22:19
Gewinnen wird ja diesmal nicht die Karte, die am schnellsten sein wird, sondern vorallem die erträglichste. Ansonsten werde beide mit Spott und Häme überzogen, so dass es sinnlos war sie einzuführen.

fondness
2011-03-14, 23:49:15
Stimmt, Nvidia hat Power Containment. ;) Das funktioniert theoretisch dank Hardware-Monitoring genauso, benötigt aber 'ne Art Treiberprofile. So kommt's, dass einige Apps (etwa das PCGH VGA-Tool) immer noch nicht "locked" sind.

MfG,
Raff

Offensichtlich scheint es nicht anhand der Leistungsaufnahme abriegeln zu können, sondern nur anhand von Treiberprofilen. Das ist etwas ganz was anders, und erlaubt eben nicht eine Karte zu bauen die so nahe an den Specs operiert.

nur kann man das von NV umgehen UND die stromversorgung und kühlerkonstruktion ist trotzdem breiter ausgelegt.

Auch bei AMD kann man das Limit mittels Treiber auf bis zu +20% stellen und die Kühlerkonstruktion und Stromversorgung ist laut offiziellen Folien ebenfalls darauf ausgelegt.

y33H@
2011-03-14, 23:53:39
Die Karte kann beides.

LovesuckZ
2011-03-14, 23:59:23
Offensichtlich scheint es nicht anhand der Leistungsaufnahme abriegeln zu können, sondern nur anhand von Treiberprofilen. Das ist etwas ganz was anders, und erlaubt eben nicht eine Karte zu bauen die so nahe an den Specs operiert.


Soso. Und der Treiber erkennt dann auch per Ferndiagnose, wieviele Strom gerade Furmark benötigt, gell? :rolleyes:

nVidia crapt genauso nach Leistungsaufnahme wie AMD. Nur ist es bei nVidia nicht so weit, dass es automatisch passiert, sondern per Profile aktiviert werden muss.

fondness
2011-03-15, 00:02:35
Soso. Und der Treiber erkennt dann auch per Ferndiagnose, wieviele Strom gerade Furmark benötigt, gell? :rolleyes:


Nein, er erkennt das Furmark läuft, das ist die einzig sinnvolle Erklärung warum man da noch den Treiber benötigt. Ansonsten würde es auch bei weniger bekannten Anwendungen abriegeln die über der TDP operieren.

LovesuckZ
2011-03-15, 00:03:35
Nein, er erkennt das Furmark läuft, das ist die einzig sinnvolle Erklärung warum man da noch den Treiber benötigt.

Leider falsch.

fondness
2011-03-15, 00:08:21
Leider falsch.

So jemand seriösen und unvoreingenommen wir dir glaubt man das doch glatt auch ohne jegliche Argumente oder Erklärungen. NICHT.

Aber du kannst mir ja sicher erklären wo der Sinn darin liegen würde, eine automatische Abriegelung anhand der Leistungsaufnahme vornehmen zu können wenn man dann noch ein Treiberprofil benötigt. Wenn ich ohnehin nicht ohne Treiberprofil auskomme, kann ich die Karte auch gleich durch den Treiber heruntertakten.

N0Thing
2011-03-15, 00:09:40
Gewinnen wird ja diesmal nicht die Karte, die am schnellsten sein wird, sondern vorallem die erträglichste. Ansonsten werde beide mit Spott und Häme überzogen, so dass es sinnlos war sie einzuführen.

Beide Karten waren von Anfang an nutzlos und sinnlos für den Kunden und dienen nur der Überbrückung und dem Schwanzvergleich.
Mit zwei Einzelkarten fährt man bei beiden Herstellern besser, wenn eine GTX 580 nicht ausreichen sollte.

LovesuckZ
2011-03-15, 00:10:06
So jemand seriösen und unvoreingenommen wir dir glaubt man das doch glatt auch ohne jegliche Argumente oder Erklärungen. NICHT.

Sollte man - immerhin habe ICH eine GTX580 und kann daher sehr gut nachstellen, wie sich die Karte IM Furmark bei AKTIVER Limitierung verhält.


Aber du kannst mir ja sicher erklären wo der Sinn darin liegen würde, eine automatische Abriegelung anhand der Leistungsaufnahme vornehmen zu können wenn man dann noch ein Treiberprofil benötigt. Wenn ich ohnehin nicht ohne Treiberprofil auskomme, kann ich die Karte auch gleich durch den Treiber heruntertakten.

Weil das Cappen perse nichts weiter als Schadenbegrenzung ist. Warum sollte man sowas gutheißen? Ich will doch absolute Leistung. Die erhält eben nur mit einer entsprechenden Aufnahme. nVidia cap eben nur die Anwendungen, die deutlich über der TDP liegen und zur Strommessung herangezogen wird. AMD cap alles. Das ist noch viel dümmer, wird der Kunde somit bevormundet, wie er seine Karte doch zu behandeln habe.

Edgecrusher86
2011-03-15, 09:14:46
Ich habe die Spekulation mit + 50% Leistung gegenüber einer GTX 580 weitergesponnen und das mal in die Benches des HT4U HD 6990 Reviews
(inkl. GTX 580/570 SLI und HD 6970/6950 CF sowie der HD 5970 und HD 4870 X2) einfließen lassen.
Aufgrund der Tatsache, dass die SLI-Skalierung in manchen Games aber stark schwankt, habe ich auf einige Titel verzichtet.

http://www.abload.de/thumb/gtx590spekulationan3m.png (http://www.abload.de/image.php?img=gtx590spekulationan3m.png)http://www.abload.de/thumb/gtx590spekulation26nn3.png (http://www.abload.de/image.php?img=gtx590spekulation26nn3.png)

Wie auch auf der letzten Seite gilt - das ist nur eine grobe Einschätzung. ;)

MfG
Edge

Gluckstaler
2011-03-15, 13:26:51
Ich habe die Spekulation mit + 50% Leistung gegenüber einer GTX 580 weitergesponnen und das mal in die Benches des HT4U HD 6990 Reviews
(inkl. GTX 580/570 SLI und HD 6970/6950 CF sowie der HD 5970 und HD 4870 X2) einfließen lassen.
Aufgrund der Tatsache, dass die SLI-Skalierung in manchen Games aber stark schwankt, habe ich auf einige Titel verzichtet.

http://www.abload.de/thumb/gtx590spekulationan3m.png (http://www.abload.de/image.php?img=gtx590spekulationan3m.png)http://www.abload.de/thumb/gtx590spekulation26nn3.png (http://www.abload.de/image.php?img=gtx590spekulation26nn3.png)

Wie auch auf der letzten Seite gilt - das ist nur eine grobe Einschätzung. ;)

MfG
Edge


Du glaubst doch wohl selbst nicht 100%, dass eine 590er mit 600Mhz schneller ist als ein 570er SLI-Gespann welches mit 732Mhz getaktet wird???

Nur ums ganz klar auszudrücken, eine 570er hat 20%(!!!) mehr Takt als eine 590er und 94% der Einheiten. D.h. 1.2*0.9375= 1.125. Anders ausgedrückt ein 570er SLI Gespann sollte theoretisch 12.5% schneller sein.

Duplex
2011-03-15, 13:53:04
@Gluckstaler
Die GTX580 hat aber 64-Bit mehr SI als die GTX570

Dural
2011-03-15, 13:58:20
ich würde zuerst bevor man solche "benchmarks" anstellt auf die finalen daten warten ;) an die 600MHz glaube ich nicht, den das wird für die 6990 nicht
reichen und ich glaube nicht das NV eine dual GPU karte auf den markt wirft die es nicht packt... :wink: naja wenigstens hätte die karte mit 600MHz stock ein brutales OC potential ;)

Duplex
2011-03-15, 13:59:47
glaube ich auch nicht, die GTX295 kam auch erst nach der 4870X2 und die war mind. 10% schneller als die ATI :)

Ailuros
2011-03-15, 16:17:06
Machen wir es einfacher: 600MHz und 375W TDP passen nicht ins gleiche Bild. Es kann nur entweder/oder sein.

N0Thing
2011-03-15, 16:20:10
Vielleicht gibt es bei Nvidia auch zwei Modi. Einer für eine TDP unterhalb von 300W und ein anderes Setting um die 6990 zu schlagen.

aylano
2011-03-15, 17:11:31
Vielleicht gibt es bei Nvidia auch zwei Modi. Einer für eine TDP unterhalb von 300W und ein anderes Setting um die 6990 zu schlagen.
Einerseits wäre es logisch, sagen wir mal 600 Mhz @ 300W-TDP und 650 Mhz @ 375 im Overclocking-Modus, da AMD mit 375W / 450W-TDP einfach überraschte und Nvidia vorher vielleicht nur mit 300W-TDP oder 300W-TDP-&-OC-375W-TDP beim HD 6990 ausgingen.

anderseits halte ich eine GTX590 (1024-Cores) mit 300W-TDP für ausserst schwierig.
Unmöglich ist es IMO nicht. Am Schluss bleibt dann die Frage, wie viele Stück sie zu welchen Preis liefern können.
Preissenkung hat manchmal auch seinen Preis.

Mal sehen, vielleicht überrascht Nivida mit neuen (billigen) Techniken um den Stromverbrauch etwas zu senken, sodass es sich ausgeht.
Beim Lärm hatten sie ja auch so einen guten Guten Schritt gemacht.

Rückblickend betrachtet hat sich die GPUs beider Hersteller in den letzten Jahren im hohem Stromverbrauch ja schon einiges getan.

Duplex
2011-03-15, 17:14:59
angeblich soll die 512 Shader GPU selektiert sein & max. nur 0.963v VID haben, dann könnte eine GPU gleich 20-30W weniger TDP haben
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2011/maerz/weitere-details-zu-nvidias-geforce-gtx-590/#update1

y33H@
2011-03-15, 17:22:41
Warum verlinkst du CB wenn sich das Update nur auf HT4U bezieht, welche gestern schon die Meldung hatten? Zumal es 0,96 und nicht 0,93 Volt sind. Und TDP ungleich Leistungsaufnahme, das nur am Rande.

LovesuckZ
2011-03-15, 17:25:14
angeblich soll die 512 Shader GPU selektiert sein & max. nur 0.963v VID haben, dann könnte eine GPU gleich 20-30W weniger TDP haben
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2011/maerz/weitere-details-zu-nvidias-geforce-gtx-590/#update1

Mit 0,96V und 600MHz läge der Verbrauch deutlich tiefer als 20-30 Watt.
Man kann wohl von fast 50 Watt pro GPU ausgehen.

aylano
2011-03-15, 17:33:24
Die Meldung ist schon 2 Tage alt.
Siehe Post #267

Mit
600/775*0,96/1,06*246W (Ht4U) kommt man so auf 350W @ Spiellast
600/775*(0,96/1,06)^2*246W kommt man so auf 320W, wobei erstere Rechnung eigentlich immmer Zieltreffend war.

Kurz gesagt, mit dieser Spannung & Takt würde sich alleine nicht auf unter 300W-TDP kommen.
Da müsste Nivida mehr machen, indem sie irgendwas Stromsparnender machen oder eine stromsparende Technik bringen.
Da die Entwicklung immer vorangeht, könnte möglicherweise irgendwas positives kommen, oder eben nicht!!!

Duplex
2011-03-15, 17:41:01
Mit 0,96V und 600MHz läge der Verbrauch deutlich tiefer als 20-30 Watt.
Man kann wohl von fast 50 Watt pro GPU ausgehen.
du bist zu optimistisch, ist das dein ernst? :rolleyes:
mit einer Selektion kannst du niemals 100W mehr TDP Spielraum schafen :freak:
die 20-30w pro GPU von mir passen schon, die GPU hat 512 Shader und nicht 448.

Nakai
2011-03-15, 18:15:59
Mit
600/775*0,96/1,06*246W (Ht4U) kommt man so auf 350W @ Spiellast
600/775*(0,96/1,06)^2*246W kommt man so auf 320W, wobei erstere Rechnung eigentlich immmer Zieltreffend war.


Der Verbrauch steigt(normalerweise immer) mit der Spannung quadratisch an. Der Verbrauch kann exponentiell mit dem Takt ansteigen und abfallen.

Das mit den selektierten Chips ist zwar irgendwo richtig, nur erreicht man schon mit etwas Spannungs und Taktreduzierung normalerweise immer eine beachtliche Einsparung.

LovesuckZ
2011-03-15, 18:20:23
du bist zu optimistisch, ist das dein ernst? :rolleyes:
mit einer Selektion kannst du niemals 100W mehr TDP Spielraum schafen :freak:
die 20-30w pro GPU von mir passen schon, die GPU hat 512 Shader und nicht 448.

Man, man, man. Eine GTX480 nahm bei 0,938V statt 1V und gleicher Taktung 50-60 Watt weniger. Diese angebliche GF110 Cores sollen 23% geringer getaktet sein und eine geringere Spannung besitzen. 50 Watt pro Core sind daher schon eine normale Zahl.

aylano
2011-03-15, 18:34:03
Der Verbrauch steigt(normalerweise immer) mit der Spannung quadratisch an. Der Verbrauch kann exponentiell mit dem Takt ansteigen und abfallen.

Diese Einsprungen betreffen nur den GPU-Strom-Anteil.
Speicher-Chips werden & Co werden doch nicht untertaktet.

Das könnte der Grund sein, warum ich mit der ersten Rechnung eigentlich immer ziemlich gut liege.


du bist zu optimistisch, ist das dein ernst?
mit einer Selektion kannst du niemals 100W mehr TDP Spielraum schafen
Er schrieb auch nicht von Selektion sondern mit Takt & Spannungsenkung.
100W Absenkung ist Höchstwahrscheinlich möglich, wovon man mindestens ausgehen kann. (siehe meine Modell-Rechnung)

Diese Menge an Einsparung ist nicht das Problem, sondern das die 100W zuwenig für 375W-TDP wären. Man kann sogar davor ausgehen, dass die Einsparungen über 50W pro GPU sein werden.

Duplex
2011-03-15, 19:40:31
ich hol mir morgen ein Strommessgerät und teste es mit meiner GTX580 selber aus.
ich kann im Afterburner von 0.8525-1.213v einstellen

Edgecrusher86
2011-03-15, 22:12:56
VR-Zone meint, dass die finalen Taktraten bei 612/1224/855 MHz liegen dürften (11" PCB-Länge -> 27,94 cm):

http://vr-zone.com/articles/nvidia-geforce-gtx-590-final-specs-unveiled/11604.html

MfG
Edge

LovesuckZ
2011-03-15, 23:22:21
Prototyp - da sieht man erstmal richtig, wie groß der Lüfter ist:

http://i.imgur.com/V4ZcK.jpg
http://www.overclock.net/hardware-news/966002-vrz-nvidia-gtx590-final-specs-unveiled.html#post12744083

Blediator16
2011-03-16, 02:15:43
Einen Post danach sagt er

I was also told the final cooler would be clearly different. This cooler was reused from an early design.

Undertaker
2011-03-16, 12:04:27
VR-Zone meint, dass die finalen Taktraten bei 612/1224/855 MHz liegen dürften

Also mit den Taktraten ist die Karte imho überflüssig. In dieser Klasse geht es letztlich nur um das Image der Leistungskrone, wenn man diese trotz des späteren Launches verfehlt, dürfte sich der beabsichtigte Effekt eher ins Gegenteil kehren.

Merkwürdig ist dennoch, dass man mit der GTX570 eine Karte identischer Leistung und Effizienz wie die HD6970 besaß und jetzt bei gleichem Verbrauch womöglich nicht gleichziehen kann...

fondness
2011-03-16, 12:11:22
Merkwürdig ist dennoch, dass man mit der GTX570 eine Karte identischer Leistung und Effizienz wie die HD6970 besaß und jetzt bei gleichem Verbrauch womöglich nicht gleichziehen kann...

Das liegt auch nur daran das die 6970 durch ihren zu hohen Takt und Spannung einfach im Verhältnis ineffizient ist. Gegen jede andere Radeon verliert man bei der Leistung/Watt. Die GTX570 ist das Gegenteil, nämlich eine herunter getaktete Karte mit weniger Spannung. Es war klar, dass AMD ausgehend von der 6970 wesentlich mehr Optimierungspotential hat als NV ausgehend von der GTX570.

Knuddelbearli
2011-03-16, 12:31:37
Undertake mit 1,5 GB ist sie so oder so fail ...

fondness
2011-03-16, 12:54:49
Undertake mit 1,5 GB ist sie so oder so fail ...

1,5GB sind vollkommen ausreichend, selbst für sehr hohe Auflösungen. Verstehe diesen VRAM-Wahn absolut nicht. Selbst 1GB sind außer bei wenigen Ausnahmefällen in sehr hohen Auflösungen genug. Ansonsten wäre ein 6GB-Modell nicht das geringste Problem und wird wohl auch von den Partnern kommen.

redfirediablo
2011-03-16, 13:23:31
Das geringste Problem? Schoneinmal dran gedacht das die 3GB noch zusätzlich Strom ziehen?

Bei allen bisherigen Single GPU Karten kein Problem aber hier ist das Design sicherlich auch wieder auf Kante genäht, 3GB zusätzlich würde bedeuten nochmal die Taktraten abzusenken oder Regulär über 375 Watt hinaus zu gehen.

Knuddelbearli
2011-03-16, 13:32:03
also 1gb bekomme ich regelmässig mit 1920*1200 voll will mir dann nicht vorstellen wie das mit richtig dickem ssaa oder Auflösungen wie 5760*1200 aussieht ...

und für 1920*1200 reicht mir selbst ne 5850 oder 6950 locker

und ja der Speicher zieht natürlich mehr Strom aber er wird nunmal benötigt unter den Settings wo man solche Karten benutzt: Ati kommt nach wie vor besser mit dem Speicher zurecht und hat jetzt auch noch 33% mehr. Da kann NV wirklich nur von Glück sagen das kaum Seiten solche extreme Tests erstellen

Hugo78
2011-03-16, 14:29:22
PCGH hatte ja schon eine 580 mit 3GB im Test. -> Link (http://www.pcgameshardware.de/aid,809415/Palit-Geforce-GTX-580-im-Hands-on-Test-Was-bringen-3-GiByte-RAM/Grafikkarte/Test/)
Da müssen die FPS schon in unspielbare Regionen abrutschen, dass hier ein Unterschied messbar wird, zu den 1,5GB.

Palpatin
2011-03-16, 14:41:19
1,5GB sind vollkommen ausreichend, selbst für sehr hohe Auflösungen. Verstehe diesen VRAM-Wahn absolut nicht. Selbst 1GB sind außer bei wenigen Ausnahmefällen in sehr hohen Auflösungen genug. Ansonsten wäre ein 6GB-Modell nicht das geringste Problem und wird wohl auch von den Partnern kommen.
Das Problem ist das die VRam Krücken dann leider in diesen Ausnahmefällen total versagen, klar gibts Games die ich selbst in Eyefinity Auflösung ohne Probs mit 1GB VRAM zocken kann.
Reicht das 1GB nicht kann die Performance aber drastisch einbrechen, gutes Beispiel hierfür ist Stalker Call of Pripyat Benchmark: In 2560 mit 4AA. Da ist eine 580 GTX mal eben 58% schneller als die 570 GTX. In 1920 sind grad mal 12% zwischen den beiden Karten.
Dazu kommt noch das es sich hierbei um ein theoretisches Bench handelt, kann durchaus sein das es im Spiel der VRam verbrauch Phasenweis noch höher liegt und dann auch die 580 wegbricht, soviel mehr Reserven wie die 570 hat sie ja nicht.

LovesuckZ
2011-03-17, 06:05:26
Paar Aussagen von OBR - also wie immer mit vorsicht zu genießen:

UPDATE: First impressions are great, this is quietest high-end card iv ever seen, quieter then GTX 580! GeForce logo on cooler lights!!! Performance is incredible too! Have we a new king ...?
http://obrovsky.blogspot.com/2011/03/geforce-gtx-590-in-details.html

Undertaker
2011-03-17, 08:54:33
Das geringste Problem? Schoneinmal dran gedacht das die 3GB noch zusätzlich Strom ziehen?

Tun sie nicht. ;) Die Chipanzahl bleibt identisch, es werden lediglich 2GBit statt 1GBit Chips verbaut. Ein 3GB Speicherausbau pro GPU wäre ein reiner Kostenfaktor, ohne in spielbaren Bereichen einen Vorteil zu haben (ich wüsste zumindest kein Szenario).

redfirediablo
2011-03-18, 00:08:34
Das ist natürlich korrekt, mein Fehler. Ich bin mal auf Preise gespannt, ich tippe mal das Nvidia zwar nicht schneller sein wird aber 100-200 Euro mehr verlangen wird.

Edgecrusher86
2011-03-18, 00:25:08
Release ist nicht wie erst vermutet am 22.03., sondern zwei Tage später - am 24.03..
Mit dem derzeitgen Review-Treiber funktioniert wohl weder Quad-SLI, noch 3D Vision Surround (letzteres zumindest nicht vollständig).
Das möchte man wohl erst am 24.03 (u.a. ja auch Crysis 2 Release) fixen.

http://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/18110-nvidia-geforce-gtx-590-auf-den-24-maerz-verschoben.html

MfG
Edge

Hugo78
2011-03-18, 18:07:07
Paar Aussagen von OBR - also wie immer mit vorsicht zu genießen:

Das sie leiser als ne 580 sein soll glaub ich, er sagt ja nicht ob idle oder Last. ;)

Und ein leutendes Geforcelogo hab ich mir schon immer gewünscht. :biggrin:

Ailuros
2011-03-18, 21:52:08
Und ein leutendes Geforcelogo hab ich mir schon immer gewünscht. :biggrin:

Ist zwar persoenlicher Geschmack, aber ich moechte jeglichen PC nehmen mir nicht unmittelbar sehen und schon gar nicht hoeren. Mir schaudert schon beim Gedanke von jedem leuchtendem Kitsch-Logo, aber lass Dich dadurch nicht beinflussen.

Hugo78
2011-03-18, 22:22:22
Das mit dem Logo, war jetzt auch nicht total Bierernst gemeint. ;)
Mein Rechner hat kein Fenster und was die Lautheit angeht, geh ich mit dir dacore ... also ich investiere nicht umsonst in große Kühler. "klick mich hart" (http://pic.sysprofile.de/images/PJE80474.jpg)

Dennoch, ich bastel ab und an auch für Kumpels und hier und da auch mit Window und ja ich hab mich schon öfter gefragt,
warum die Hersteller so hässliche Aufkleber auf ihre Kühler packen, aber nie das Logo beleuchten.
So eine Diode kostet doch nicht die Welt und macht was her, wenn man denn ein Fenster hat/will.

Dural
2011-03-19, 10:32:52
naja schon die GTX480 wurde mit einem Beleuchteten Logo gezeigt, gekommen ist es aber auch nie...

redfirediablo
2011-03-19, 11:39:01
naja, zumindest wäre es mal ein Feature womit Nvidia AMD diese Runde eindeutig ausstechen könnte :-)

Raff
2011-03-19, 11:54:42
dacore

Uuuuh. Wenn Französisch, dann richtig – d'accord (http://de.wiktionary.org/wiki/d%E2%80%99accord), bitte. :)

naja, zumindest wäre es mal ein Feature womit Nvidia AMD diese Runde eindeutig ausstechen könnte :-)

Nvidia hat IMO nur eine Chance: über die Lautstärke. Da ist AMD ein einfaches Ziel. Das Fps-Rennen werden sie eher nicht gewinnen.

MfG,
Raff

Hugo78
2011-03-19, 13:08:38
Uuuuh. Wenn Französisch, dann richtig – d'accord (http://de.wiktionary.org/wiki/d%E2%80%99accord), bitte. :)

War französisch nicht "open source"? :tongue:

Knuddelbearli
2011-03-19, 19:43:40
Uuuuh. Wenn Französisch, dann richtig – d'accord (http://de.wiktionary.org/wiki/d%E2%80%99accord), bitte. :)



Nvidia hat IMO nur eine Chance: über die Lautstärke. Da ist AMD ein einfaches Ziel. Das Fps-Rennen werden sie eher nicht gewinnen.

MfG,
Raff


ob laut wie ein hubschrauber oder laut wie ein durchstartender düsenjet was ist da der Unterschied? ausser eventuel das bei dem einem nur die 2 nächsten nachbar durchdrehen und beim 2ten die nächsten 4

redfirediablo
2011-03-22, 03:36:13
Naja, jedes Feature, egal wie wenig nützlich, wird dann immer extrem wichtig, wenn das eigene "geliebte" Produkt gegenüber der Konkurrenz ins Hintertreffen geraten ist.

Zu laut bleibt zu laut. Microruckeln bleibt Microruckeln aber wenn es darum geht das eigene Produkt zu pushen, zählt halt alles wo man zumindest gegenüber der Konkurrenz besser da steht, egal wie gering der vorteil ist.

=Floi=
2011-03-22, 07:37:42
Nvidia hat IMO nur eine Chance: über die Lautstärke. Da ist AMD ein einfaches Ziel. Das Fps-Rennen werden sie eher nicht gewinnen.

MfG,
Raff

ist ja auch kein wunder, wenn man einfach ohne verluste 2 chips zusammenklopft. :rolleyes:

wenn nv 2 volle GF110 ohne drosselung verbauen würde, dann wären sie auch schneller. DAS kann es aber nicht sein und es zählt auch das gesamtpaket...

Nakai
2011-03-22, 15:39:29
Nvidia hat IMO nur eine Chance: über die Lautstärke. Da ist AMD ein einfaches Ziel. Das Fps-Rennen werden sie eher nicht gewinnen.
Bilder-Benches und Termin zur GTX590 (http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2011/maerz/geforce-gtx-590-bilder-benchmarks-und-termin-bestaetigt/)

Die GTX590 sieht schon ziemlich schnuckelig neben einer HD6990 aus.
Der große Lüfter der GTX590 triumphiert über das gesamte Design. Das ist schonmal ein gutes Indiz.;)

Zu den Benchmarks kann man nur lachen. Es wird kein Setting gebencht, was für eine Highendkarte angemessen ist. Klar, dass die füllratenschwachen GF110 da noch vorne sind.

IMO klassifiziert NV die GTX590 als eher die "vernünftige" Highendkarte.
Eine gute Entscheidung.


mfg

fondness
2011-03-22, 15:57:16
IMO klassifiziert NV die GTX590 als eher die "vernünftige" Highendkarte.
Eine gute Entscheidung.


Man wird sehen. IMO zählt gerade bei den Dual-GPU-Flagschiffen primär die Leistung, wer "vernünftig" ist kauft sich ohnehin keine der beiden. Und da die Specs jetzt bestätigt sind wir es summa summarum zu wenig sein für eine 6990. Wenn man schon die 300W sprengt wäre es wohl schlauer gewesen gleich soviel Watt zu geben das man die 6990 auch schlägt.

Blediator16
2011-03-22, 17:14:10
Man wird sehen. IMO zählt gerade bei den Dual-GPU-Flagschiffen primär die Leistung, wer "vernünftig" ist kauft sich ohnehin keine der beiden. Und da die Specs jetzt bestätigt sind wir es summa summarum zu wenig sein für eine 6990. Wenn man schon die 300W sprengt wäre es wohl schlauer gewesen gleich soviel Watt zu geben das man die 6990 auch schlägt.

Auch die Werte in den Diagrammen dürften wohl nicht ganz so richtig sein.

Nakai
2011-03-22, 18:27:59
Man wird sehen. IMO zählt gerade bei den Dual-GPU-Flagschiffen primär die Leistung, wer "vernünftig" ist kauft sich ohnehin keine der beiden. Und da die Specs jetzt bestätigt sind wir es summa summarum zu wenig sein für eine 6990. Wenn man schon die 300W sprengt wäre es wohl schlauer gewesen gleich soviel Watt zu geben das man die 6990 auch schlägt.

Ich gebe dir insofern recht, dass keine der beiden Karten wirklich vernünftig ist.
Die Performance der HD6990 erreicht NV sowieso nicht. Sieht man auch an den Benches. Nahezu alle sind mit 1920*1200 gefahrn(ein Schelm wer böses denkt), was für so eine Karte irgendwie unpassend ist. Wenn man nun den Stromverbrauch und die Lautstärke einigermaßen reduziert hat, dann ist die Karte "anders" konkurrenzfähig.

Mit einer 880MHz HD6990 wird man sich nie anlegen können. Die Karte ist für extrem hohen Auflösungen prädisteniert. ~5400GFLOPs und 168GTex/s sind wirklich starke theoretische Zahlen.
Zum Vergleich eine GTX590 liefert in etwa 2560GFLOPs und 79GTex/s.
Da wäre mal ein Vergleich bei ultrahohen Auflösungen angebracht.


mfg

y33H@
2011-03-22, 18:33:41
Lass die FLOPS stecken, das ist nur MAD. Und in die GT/s sind u.a. die FP16-TMUs nicht eingerechnet - sprich, für einen Vergleich AMD/NV sind diese Zahlen witzlos.

Nightspider
2011-03-22, 18:41:26
Eine Frage:

Lassen die beiden Dual-Karten von AMD und Nivida eine große Übertaktung zu, zum Beispiel mit Wasserkühlung oder geht denen der Saft aufgrund "nur" 2*8POL Steckern aus?

Eine GTX595 wäre die ideale Karte zum Übertakten mit Wasserkühler, wenn diese tatsächlich nur mit rund 1225 Mhz Shadertakt ausgeliefert wird.

Eine GTX590 schafft locker 1800 mit Wasser. Also wären gut ~30% OC möglich mit Wasser, wenn die Stromversorgung nicht schlapp macht.

Blaire
2011-03-22, 18:43:08
Die Frage ist, ob man die GTX590 gut übertakten kann, sollte dem so sein dürfte es ein Leichtes sein die HD6990 hinter sich zu lassen. Die 607 Mhz wirken ziemlich bescheiden. Mal abwarten.

fondness
2011-03-22, 18:44:34
Eine GTX590 schafft locker 1800 mit Wasser. Also wären gut ~30% OC möglich mit Wasser, wenn die Stromversorgung nicht schlapp macht.

Naja, schon mit GTX580-Takt hättest du 500W TDP. Bei 900Mhz dann wohl eher 600-700W. Ich glaube kaum das die Stromversorgung darauf ausgelegt ist. Mehr OC-Potential wie bei der 6990 sollte allerdings vorhanden sein, sofern man da nicht irgendwo einbremst.

Nakai
2011-03-22, 19:00:09
Lass die FLOPS stecken, das ist nur MAD. Und in die GT/s sind u.a. die FP16-TMUs nicht eingerechnet - sprich, für einen Vergleich AMD/NV sind diese Zahlen witzlos.

Klar, der Teufel steckt ja eher im Detail.

Dazu mal eine Frage:
Die Geforce können ja FP16 auf einem Takt durchhauen.
Bei den AMDs wurden ja die Textureinheiten ja seit dem RV7xx ja kaum noch geändert(natürlich für DX11 etwas verbessert, um die Specs zu erfüllen).
Wie lang brauchen, die TMUs bei den AMDs für ein FP16-Sample?
Der R600 sollte ja FP16-Texturen ja ohne Füllratenverlust berechnen können.

Dural
2011-03-23, 15:43:45
Man wird sehen. IMO zählt gerade bei den Dual-GPU-Flagschiffen primär die Leistung, wer "vernünftig" ist kauft sich ohnehin keine der beiden. Und da die Specs jetzt bestätigt sind wir es summa summarum zu wenig sein für eine 6990. Wenn man schon die 300W sprengt wäre es wohl schlauer gewesen gleich soviel Watt zu geben das man die 6990 auch schlägt.


Naja, schon mit GTX580-Takt hättest du 500W TDP. Bei 900Mhz dann wohl eher 600-700W. Ich glaube kaum das die Stromversorgung darauf ausgelegt ist. Mehr OC-Potential wie bei der 6990 sollte allerdings vorhanden sein, sofern man da nicht irgendwo einbremst.


:freak: ;D netter widerspruch nach nur wenigen posting später ;)



es ist wirklich unglaublich das sich NV sowas getraut, ich hätte es bis zur GTX590 jetzt nie zugetraut das sie den "vernünftigen" weg nehmen! mal wider einen schlag mehr ins angeblich möchtegern "grüne" AMD lager...

Es wäre für NV möglich gewessen über Lautstärke und Verbrauch die 6990 zu Topen, ob jetzt 450Watt wie 6990 oder 500Watt oder mehr dürfte bei diesen komplett kranken werte für eine Grafikkarte nun wirklich egal sein... aber nein sie machen es nicht...


so mein tipp, die GTX590 wird wohl in jeden punkt der 6990 überlegen sein, ausser bei der stock leistung, aber die GTX590 wird mit OC kreise um die ziehen ;)

600MHz @ 900MHz sind mal eben 50% ;D

fondness
2011-03-23, 15:50:42
:freak: ;D netter widerspruch nach nur wenigen posting später ;)

Scheint mir eher so als ob du mal wieder nicht in der Lage wärst Dinge korrekt zu interpretieren. Oder wo ist der Widerspruch, wenn ich einerseits sage in dem Bereich zählt hauptsächlich die Leistung, und andererseits vermutliche, dass die Stromversorgung der GTX590 wohl eher nicht auf 500W oder noch mehr ausgelegt ist?

Dural
2011-03-23, 15:56:40
hmmm also ich ich habe ja nur AMD in erinnerung die eine Fixe drosselung haben, bei NV kann man die umgehen... also kleiner versuch es noch mal ;)

und 500Watt dürfte für eine 300watt+ karte sicher kein problem sein, würde mich bei einer NV karte sehr überraschen! und das PCB sieht ok aus :)

aber ich würde da sowie so eher von 600watt+ sprechen, zwei GF110 mit etwas takt ziehen schon ordentlich

Knuddelbearli
2011-03-23, 16:06:57
@Dural wer sagt den bitte das die 6990 vernünftig war ?

fondness
2011-03-23, 16:08:49
es ist wirklich unglaublich das sich NV sowas getraut, ich hätte es bis zur GTX590 jetzt nie zugetraut das sie den "vernünftigen" weg nehmen! mal wider einen schlag mehr ins angeblich möchtegern "grüne" AMD lager...


Wo ist denn die GTX590 stromsparender? Sie ist voraussichtlich nur langsamer. :ugly:

hmmm also ich ich habe ja nur AMD in erinnerung die eine Fixe drosselung haben, bei NV kann man die umgehen... also kleiner versuch es noch mal ;)

Ganz davon abgesehen, dass dein Niveau mal wieder die Skala nach unten sprengt, erzählst du die Unwahrheit. Bei AMD kann man es sogar offiziell per Treiber regeln, man hat ein zweites Bios mit mehr Takt, Spannung und deutlich reduzierter Drosselung.

Deine Aussage mit dem Widerspruch war demnach auch nur Blödsinn, aber nichts anderes bin ich von dir gewohnt.


und 500Watt dürfte für eine 300watt+ karte sicher kein problem sein, würde mich bei einer NV karte sehr überraschen! und das PCB sieht ok aus :)

aber ich würde da sowie so eher von 600watt+ sprechen, zwei GF110 mit etwas takt ziehen schon ordentlich

Na eh, doppelter Stromverbrauch, alles kein Problem. Und natürlich vorher noch vom grünen Weg reden, man redest du wirres Zeug.

dildo4u
2011-03-23, 16:12:26
Wo ist denn die GTX590 stromsparender? Sie ist voraussichtlich nur langsamer. :ugly:

.
Wo?Es wird sich keine Karte ein großen Vorsprung erarbeiten können,ziehmlich offensichtlich das die NV Karte bei Tesslation wieder deutlich überlegen ist.Im Schnitt aller Benches wird's ein Patt und dann zählen die Eigenschaften wie z.b Kühlung und Lautstärke.

Spirou
2011-03-23, 16:57:51
Vielleicht wäre ein Spekulationsthread zur Entwicklung des Trends bei der Leistungsaufnahme von Grafikkarten sinnvoll.

Ich frage mich nämlich langsam, ob MGPU-Karten wirklich noch für den Markt gebaut werden, oder doch eher, um durch solche Sondermodelle Verbrauchswerte in die Wahrnehmung einzuführen, an denen gemessen die nächste Generation der SGPU-Karten akzeptabel erscheint.

Über die Jahre gesehen ist ein kontinuierlicher Anstieg zu verzeichnen. Dabei wird immer wieder die aktuelle mittlere Größenordnung als vergleichsweise normale Begleiterscheinung des Leistungsbedarfs angesehen.

MGPU-Karten gesteht man natürlich zu, weit darüber zu liegen. Damit aber bekommt die nächste Generation eine etwas andere Meßlatte vorgelegt. Eventuell pokern die beiden Kontrahenten mit ihren MGPU-Karten, um sich damit mögliche Wege für größere Dies zu eröffnen, die sie im Leistungswettbewerb gehen müßen, falls keine kleineren Strukturgrößen zur Verfügung stehen. Wer die fettere MGPU-Karte auflegt, kann seinen Käufer auch dementsprechend fettere Dies präsentieren.

Alles nur Psychologie? Wird der Trend in den nächsten zwei Jahren ein halbes Kilowatt als Norm etablieren, eventuell in Form angepasster Formfactors?

Vor zwei Jahren hätte man über ein halbes Kilowatt höchstens witzeln können, und inzw. bewegen sich die Kontrahenten in diesem Bereich, sodaß man fragen muß, ob in weiteren zwei Jahren Karten mit Monster-Dies gebaut werden, die ganz selbstverständlich ein halbes Kilowatt verbraten.

Knuddelbearli
2011-03-23, 17:05:03
naja bei ATI gings mit der leistungsaufnahme bis zur 6970 eigentlich konstant abwärts

Spirou
2011-03-23, 17:18:38
Wenn man Karten gleicher Leistung vergleicht. Eine 4890 kommt nicht mit den knapp 100 Watt aus, die meine 3870 unübertaktet zieht. Eine 5870 liegt doch schon fast beim Doppelten. Ich hatte nie eine, trau dem Ding aber zu, übertaktet genauso zuzulangen wie meine 3870. Starte ich Furmark mit Maximaltakt, zieht mein System rund 170 Watt mehr aus der Dose. Deswegen vermute ich mal, eine 5870 kann mit Maximaltakt 200 Watt schon um einiges überbieten oder nicht? Das ist doch ein kontinuierlicher Anstieg, auch wenn man ihn im Verhältnis zum Leistungsanstieg als relativ günstig bewertet.

Ich will es ja nicht kritisieren, aber ich meine über die lange Sicht ist es ein Trend, der auch bei ATI/AMD stattfindet. Wenn GPUs Anfang nächsten Jahres immer noch in 40nm gefertigt werden, was werden die dann verbrauchen?

Dann müssen doch beide Kontrahenten unweigerlich mit der Diesize hoch.

PS Bezug zum Topic ist: Fürchten die das, und legen deswegen derart bei den MGPU-Karten vor?

Leonidas
2011-03-23, 18:06:13
Interessante These @ Spirou.

In jedem Fall sammelt AMD durch den heftigen PowerTune-Einsatz bei der 6990 viele Erfahrungen, die man zukünftig für Grafikkarten mit höherem Spiele-Stromverbrauch bei gleichzeitig nicht höhrerer TDP benutzen kann.

Und natürlich gibt es sicherlich eien psychologische Wirkung: Wir haben uns über die 5970 an 250 Watt und mehr gewöhnt - und prompt gab es das dann auch im SingleChip-Bereich. Nun gewöhnen wir uns an 330 Watt und mehr ...

Raff
2011-03-23, 19:14:21
Es bleibt zu hoffen, dass mit dem Wechsel auf 28 nm irgendwann 2017 erst mal etwas Stagnation (über 200 Watt) angesagt ist. Bleibt's bei 300+ Watt, führt kein Weg mehr an Triple-Slot-Kühlung und einem persönlichen AKW... ääh, vielen Solarzellen auf dem Dach (für eine Stromflat) vorbei.

MfG,
Raff

aylano
2011-03-23, 20:12:59
Wenn man Karten gleicher Leistung vergleicht. Eine 4890 kommt nicht mit den knapp 100 Watt aus, die meine 3870 unübertaktet zieht. Eine 5870 liegt doch schon fast beim Doppelten.
...
Das ist doch ein kontinuierlicher Anstieg, auch wenn man ihn im Verhältnis zum Leistungsanstieg als relativ günstig bewertet.

Ich will es ja nicht kritisieren, aber ich meine über die lange Sicht ist es ein Trend, der auch bei ATI/AMD stattfindet. Wenn GPUs Anfang nächsten Jahres immer noch in 40nm gefertigt werden, was werden die dann verbrauchen?
...
PS Bezug zum Topic ist: Fürchten die das, und legen deswegen derart bei den MGPU-Karten vor?
Die Sichtweise von HD 3870 ist IMO eher ein Rosienen-Vergleich da HD 3870 ein Shrink ist (Erste Die) und HD 6970 der letzte Die in der ausgereiften Fertigung ist.

HD 2900 hatte schon so 145W (Stromverbrauch wegen Konkurrenz gedrückt) und HD 4870 hatte so 160 Watt wie HD 5870 mit 160W.

HD 4890 & HD 6970 sind eben höher, weil sie im 2.Hälfte des 2-Jahres-Fertigungszyklos eben mit etwas mehr Performance sich nochmal vor die Konkurrenz besser stellen wollen.

HD 4870 X2 hat AFAIK praktsich mit 375W-TDP den selben TDP-Wert wie HD 6990. Wobei HD 6990 eben das Feature hat auf 450W zu übertakten.

So klar ist der Trend aus meiner Sicht nicht.
Vorallem sieht man bei Steam, "wie wenig" die Leute den Größten Die kaufen. Während die 8800er (G80, G92) auf GPU-Gesamt auf erster stelle stehen, laufen die HD 6970/HD6950 und GF100/110 den HD 6870/6850 und GF104/114 in der Verkäufen hinterher. Das könnte ein Hinweis darauf sein, dass die Käufer sehrwohl auf den Stromverbrauch hinschauen.

HD 6990 hat jetzt nicht anderes gemacht, was die OC-Modelle des HD 5970 davor machten.

Für mich ist der Abstand zwischen HD 6970 und HD 6990 ín Sachen Stromverbrauch & Performance viel zu groß.
Da hätte noch eine MGPU praktsich wie eine HD 5970 mit 300W-TDP & geringerer Spannung & etwas geringerer Takt IMO gut dazugepasst.
(Wobei eine HD 6990 mit einem 300W-TDP & 375W-TDP & 450W-TDP - Schalter wäre auch nicht schlecht, wenn es möglich wäre.)

Langfristig kann man gespannt sein, wie sich diese High-End-GPUs mit Power-Tune & Lautstärke & TDP-Bereich entwickelt.

Aber wie ich schon vor paar Jahren sagte: Wenn beide die Performance-Krone hohlen wollen, dann steigt auch der Stromverbrauch um das letzte Prozent für die Krone zu holen, wobei das wichtigste immer noch die Auslegung und Performance-pro-Watt des einzelnen Die (RV970 & GF110) bleibt.

Hugo78
2011-03-23, 23:53:39
http://wccftech.com/2011/03/23/povtgt-geforce-gtx-590-charged-edition-6591/

Die POV Charged Edition kommt mit 668MHz Chiptakt.
Da dürfte die Ultra Charged ja noch ein Stück höher gehen.

Gouvernator
2011-03-24, 00:20:27
Es bleibt zu hoffen, dass mit dem Wechsel auf 28 nm irgendwann 2017 erst mal etwas Stagnation (über 200 Watt) angesagt ist. Bleibt's bei 300+ Watt, führt kein Weg mehr an Triple-Slot-Kühlung und einem persönlichen AKW... ääh, vielen Solarzellen auf dem Dach (für eine Stromflat) vorbei.

MfG,
Raff
Die beiden übertakteten 480GTX müssen bei mir mit gleich 2 Triple-Radis gekühlt werden. Und ein 750W Netzteil schaltet sich auch gelegentlich ab. Aber was tut man nicht alles für bessere BQ! ;D
In meinem Fall habe ich Angst wenn wir irgendwann Starkstrom Anschlüss brauchen und mehrere 1,5kw Netzteile für einen Rechner... Mit SLI ist es gar nicht weit entfernt. :eek:

redfirediablo
2011-03-24, 00:37:07
http://wccftech.com/2011/03/23/povtgt-geforce-gtx-590-charged-edition-6591/

Die POV Charged Edition kommt mit 668MHz Chiptakt.
Da dürfte die Ultra Charged ja noch ein Stück höher gehen.


"668MHz/1224MHz/ 3628MHz of Core/Shader/Memory"

Da stimmt doch was nicht, core passt nicht zu shadertakt.

dildo4u
2011-03-24, 02:27:17
Asus GTX 590 UNBOXING - First in youtube! F*ck NDA + FEW BENCHMARKS

http://www.youtube.com/watch?v=Bn92O4l4XzQ

Nightspider
2011-03-24, 02:58:46
Asus GTX 590 UNBOXING - First in youtube! F*ck NDA + FEW BENCHMARKS

http://www.youtube.com/watch?v=Bn92O4l4XzQ

Nette Karte aber zur Lautstärke haben sie in dem Video leider nichts gesagt.

Performance ist definitiv sehr nice.

Wenn die Lautstärke stimmt könnte das die vernünftigste DualChip Grafikkarte werden, die es bisher gab.

VooDoo7mx
2011-03-24, 05:41:31
Vorallem sieht man bei Steam, "wie wenig" die Leute den Größten Die kaufen. Während die 8800er (G80, G92) auf GPU-Gesamt auf erster stelle stehen, laufen die HD 6970/HD6950 und GF100/110 den HD 6870/6850 und GF104/114 in der Verkäufen hinterher. Das könnte ein Hinweis darauf sein, dass die Käufer sehrwohl auf den Stromverbrauch hinschauen.

Man sieht vor allem das ein normaler Spieler nicht jedes Jahr 200-300€ für ne Grafikkarte raushaut, sondern das Teil über mehrere Jahre behält. Meist so lange wie möglich.
Und G80 und G92 Karten waren zu ihrer Zeit im Vergleich zur Vorgängergeneration auch keine wirklichen Stromsparer, genau das selbe wie Heute.
Von daher ist das was du dir da zusammenfantasierst ist Quatsch mit Soße. Ein normaler Spieler weiß nicht einmal was seine Grafikkarte verbraucht. Ein Großteil der Spieler hat noch nicht mal eine Grafikkarte außerhalb von einen Gehäuse gesehen.
Wenn die Lautstärke stimmt könnte das die vernünftigste DualChip Grafikkarte werden, die es bisher gab.
Vernünftig und Dual Chip schließt sich meiner Meinung nach aus. :ugly:

-----------------------------

Interessant wäre mal nen Vergleich GTX 590 Quad SLI gegen GTX 580 Triple SLI.

Hugo78
2011-03-24, 08:14:31
Vernünftig und Dual Chip schließt sich meiner Meinung nach aus. :ugly:
Bei 10 Sone in BFBC2 mit der HD 6990, ist diese definitiv nicht mehr tragbar und eine Wakü ist Pflicht.
- http://www.pcgameshardware.de/aid,814660/Radeon-HD-6990-im-Test-Antilles-Mit-375-Watt-zu-neuen-Benchmark-Rekorden/Grafikkarte/Test/?page=2
Wäre eine GTX 590 dagegen bei nur ~3,5 Sone, also das Level einer 580, dann kann man auf eine Wakü verzichten.

Ailuros
2011-03-24, 08:23:45
Interessante These @ Spirou.

In jedem Fall sammelt AMD durch den heftigen PowerTune-Einsatz bei der 6990 viele Erfahrungen, die man zukünftig für Grafikkarten mit höherem Spiele-Stromverbrauch bei gleichzeitig nicht höhrerer TDP benutzen kann.

Und natürlich gibt es sicherlich eien psychologische Wirkung: Wir haben uns über die 5970 an 250 Watt und mehr gewöhnt - und prompt gab es das dann auch im SingleChip-Bereich. Nun gewöhnen wir uns an 330 Watt und mehr ...

Interessant ist Spirou's These schon, aber mir riecht es nach wie vor dass es eher ein Neben-effekt ist weil beide IHVs durch den Herstellungsprozess bedingt sind. Wie ich schon erwaehnte, wir werden wohl erst ab 28nm sehen ob sich das Ganze quasi standardisiert oder ob es nur eine zeitliche Ausnahme am Ende war.

deekey777
2011-03-24, 11:37:00
Wann ist der offizielle Termin? Heute, oder?
Es gibt schon Leute, die meinen, dass zusammen mit der GTX590 auch der DX11-Patch für Crysis 2 veröffentlicht wird.
Ja, ich weiß...

y33H@
2011-03-24, 11:52:18
Heute Mittag, ja.

Hugo78
2011-03-24, 12:35:55
"668MHz/1224MHz/ 3628MHz of Core/Shader/Memory"

Da stimmt doch was nicht, core passt nicht zu shadertakt.

Wer weiß, CB gibt die gleichen Werte an und ergänzt um die Ultra Charged Version mit 691/1.224/3.710 MHz.
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2011/maerz/erste-uebertaktete-geforce-gtx-590-von-pov-tgt/

Das würde bedeuten, dass man Core und Shader unabhänig von einander takten kann, aber ob das stimmt,
oder die Shaderangaben einfach nur einem "Copy and Paste" Versagen zum Opfer gefallen sind, schauen wir mal.
Um 14 Uhr sind wir schlauer.

Raff
2011-03-24, 12:38:29
Warum sollten sich die ALUs bei einer Doppel-Fermi-Karte plötzlich unabhängig von der TMU/ROP-Domäne takten lassen, während alle anderen Furbys das nicht können? Fehler, fertig.

Vielleicht ist auch nur eine der beiden GPUs übertaktet. :ulol:

MfG,
Raff

Hugo78
2011-03-24, 12:57:26
Warum?
Na weils mal im Gespräch war, dass Nvidia das generell für Fermi vor hatte.
Wir sind ja immernoch im Spekulationsbereich bis 14 Uhr...

aylano
2011-03-24, 13:16:23
Und G80 und G92 Karten waren zu ihrer Zeit im Vergleich zur Vorgängergeneration auch keine wirklichen Stromsparer, genau das selbe wie Heute.
Von daher ist das was du dir da zusammenfantasierst ist Quatsch mit Soße.
Ich schrieb ja nicht, dass G80 & G92 im Vergleich zu den Vorgänger-Generationen keine Stromsparer waren.
Text zuerst verstehen;-)

Natürlich hatten die vorigen Grafikkarten weniger Strom verbraucht. Aber mittlerweile ist der Stromverbrauch bei Massen-Karten recht konstant.
Und nein, GF110 ist bei weitem nicht mehr so die Massen-Karte wie es damals die G80 war.
Und nur weil es jetzt die HD 6990 mit HD 375 bzw. 450W-TDP gibt, heißt es nicht, dass es vorher keine Übertakter gab, die ihre Grafikkarte auf bis zu 375 / 450 hochjagten.

Der Stromverbrauch hat auch nicht nur Auswirkungen auf die Stromrechnung sondern bedeutet auch bestimmten Lärm & Preis & Grafikkarten-Länge & -Gewicht, was dann der Spieler auch irgendwie merkt.

Knuddelbearli
2011-03-24, 15:00:03
Sie ist veröffentlich also bitte hier zumachen damit wir nicht 3 Thrads zu der karte offen haben