PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce 9800 GTX(+): (P)Review-Thread


Seiten : 1 [2]

Gast
2008-07-12, 09:16:58
Wieso? Man bekommt eine sichtbar bessere Bildqualität und einen vernünftigen Kühler ohne Hochofentemperaturen. Wäre mir ein paar Euro Aufpreis wert.

Na du scheinst dich ja auszukennen. Oder sollen diese Übertreibungen ein stilistisches Mittel sein? Wenn ja dann erinnere ich dich hier gerne an den "Ruckel-Zuckel-VRAM-BUG-Defekt" der gesamter G80 und G92 Reihe.

Gast
2008-07-12, 10:28:30
Wie schnell ist eigentlich diese AMP!, kann man die kaufen oder doch besser auf die GTX+ warten?

Tytator
2008-07-12, 11:11:16
Wieso? Man bekommt eine sichtbar bessere Bildqualität und einen vernünftigen Kühler ohne Hochofentemperaturen. Wäre mir ein paar Euro Aufpreis wert.

Mir ist das auch die paar Euro mehr wert. Mein Kumpel hat eine Zotac 8800GTS(G92), bei der man keinerlei Probleme in jeglicher Hinsicht erkennen kann. Dagegen hab ich teilweise ziemlich krasse Bildprobleme mit meiner HD3870, die dazu noch wesentlich heisser wird.
Deshalb: Nächste Karte Nvidia.

Super Grobi
2008-07-12, 11:45:57
Bestimmte Argumente für die NV Karte kann ich verstehen, andere wiederum nicht. U.a. das, daß der Preis der GTX fällt. Das tut der Ati Preis ebenfalls.

Die AMP ist übertaktet, die Ati nicht. Somit ist bei der Ati sicher noch mehr Luft, als bei der NV. (zumindest bei der GPU)



Stromsparmodus soll ja noch kommen. Ich will es hoffen, und nicht das es so eine Lachnummer wie bei der G80 wird, wo NV groß und breit einen Stromsparmodus via Treiber angekündigt hat und nie was kam.

Für mich steht fest, das Ati einfach der P/L Sieger ist. Egal ob HD4850 oder HD4870.

SG

Unyu
2008-07-12, 11:49:50
Wie schnell ist eigentlich diese AMP!
Scheint schneller als die Default GTX+ zu sein, bis auf den Shadertakt, dafür mehr zu verbrauchen. (gut ist seit HD4 Release ja unwichtig)
Aber von der GTX+ wirds auch wieder eine AMP! geben. ;)

U.a. das, daß der Preis der GTX fällt. Das tut der Ati Preis ebenfalls.
Hm, 9800 GTX und 4850 kosten nächste Woche beide 199$.

Super Grobi
2008-07-12, 11:54:06
Die 4850 kannst du bei Mix für 129,23 Euro bestellen (3-5 Tage). Eine 9800 GTX seh ich für den Preis noch nicht.

Ich guck mir täglich die Preise der Ati an und diese sind täglich gefallen. Zwar nur im Cent Bereich, aber Kleinvieh macht auch Mist ;).

SG

Gast
2008-07-13, 13:03:48
Mix, ist das der Laden der 20 Euro "Versandkosten" verlangt?

Botcruscher
2008-07-13, 14:15:25
Bei many für 129,06 lagernd und nur 6,90€ Versand. Günstiger als mix und auch versandfertig.


Dagegen sieht die GTX echt kein Land. Für 199 gibts eher eine 4870.

dildo4u
2008-07-16, 13:56:32
GeForce 9800 GTX+ für etwa 150 Euro gelistet

http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2008/juli/geforce_9800_gtx_150_euro/

http://geizhals.at/deutschland/?cat=gra16_512&asuch=geforce%209800%20gtx%2B&sort=p

Gast
2008-07-16, 13:59:13
GeForce 9800 GTX+ für etwa 150 Euro gelistet

http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2008/juli/geforce_9800_gtx_150_euro/

http://geizhals.at/deutschland/?cat=gra16_512&asuch=geforce%209800%20gtx%2B&sort=p

aber immernoch keine einzige lieferbar!

dildo4u
2008-07-16, 14:05:16
aber immernoch keine einzige lieferbar!
Das sind auch wirklich neue Karten mit 55nm Chips von daher dauerts noch 1-2 Wochen bis die Lieferbar sind.

Gast
2008-07-16, 14:16:42
ist aber eine schwache Leistung von nvidia wenn 1 Monat nach dem offizielem Launch noch keine einzige Karte lieferbar ist. Nichteinmal überteuerte Angebote sind zu bekommen. Es gibt noch gar nichts.
"Damals" bei der 8800GT wars zwar auch schwerfällig aber man hat wenigstens eine bekommen, wenn man mehr bezahlt hat!

Super Grobi
2008-07-16, 14:56:16
Wann bekommen die Händler den überhaupt was mit? Guckt euch mal die Preise der normalen 9800 gtx an. Die haben echt den Knall nicht gehört, wenn man bedenkt, daß die GTX+ schon für 150 Euro gelistet ist (und somit sicherlich noch etwas fallen wird). --> ;D

SG

Gast
2008-07-16, 14:58:59
Die Karte ist sowieso der Oberwitz weil nicht zu kaufen und zu schlechte Preisleistung ;D

Anarchy-HWLUXX
2008-07-17, 14:44:47
ist aber eine schwache Leistung von nvidia wenn 1 Monat nach dem offizielem Launch noch keine einzige Karte lieferbar ist.

WTF ? Soweit ich mitbekommen hab ist da noch nix gelaunched ... die ist nichtmal auf der Homepage gelistet - es gab eben nur sehr früh schon Karten zum testen ...

Gast
2008-07-17, 14:58:22
WTF ? Soweit ich mitbekommen hab ist da noch nix gelaunched ... die ist nichtmal auf der Homepage gelistet - es gab eben nur sehr früh schon Karten zum testen ...

Noch nix gelaunched, aber bestellen kann man sie schon? Da stimmt doch was nicht.

Gast
2008-07-17, 16:18:39
Ersetzt die 9800+ nun eigentlich die normale 9800 oder werden die parallel produziert? Würde ja eigentlich keinen Sinn machen? :confused:

Gast
2008-07-23, 13:39:10
Hat schon jemand von euch ne 9800+ ?

dildo4u
2008-07-24, 02:16:00
BFG NVIDIA GeForce 9800 GTX+ OC

http://s1.directupload.net/images/080724/rmdfow8b.jpg

http://www.bfgtech.com/bfgr98512gtxpoce.aspx

dildo4u
2008-07-30, 19:54:31
PCGH: Geforce 9800 GTX+ im Benchmark-Test

http://www.pcgameshardware.de/aid,653996/Test/Benchmark/Geforce_9800_GTX_im_Benchmark-Test/

Sonyfreak
2008-07-30, 22:03:40
PCGH: Geforce 9800 GTX+ im Benchmark-Test

http://www.pcgameshardware.de/aid,653996/Test/Benchmark/Geforce_9800_GTX_im_Benchmark-Test/Wie immer ein sehr interessanter Test von PCGH, aber das Layout ist eine Katastrophe. ;(

mfg.

Sonyfreak

Coda
2008-07-30, 22:19:40
HQ bei NVIDIA. Nutzlos.

Sonyfreak
2008-07-30, 22:38:11
HQ bei NVIDIA. Nutzlos.Bezüglich Vergleichbarkeit sicherlich nicht ideal, aber was bringt mir ein Benchmark auf Quality, wenn ich so niemals spielen würde? Dann lieber HQ, und ich kann mir ein Bild über die tatsächliche Leistungsfähigkeit machen.

mfg.

Sonyfreak

sklave_gottes
2008-07-31, 00:02:28
Bezüglich Vergleichbarkeit sicherlich nicht ideal, aber was bringt mir ein Benchmark auf Quality, wenn ich so niemals spielen würde? Dann lieber HQ, und ich kann mir ein Bild über die tatsächliche Leistungsfähigkeit machen.

mfg.

Sonyfreak


Das beste Mittel um die Leistungsfähigkeit zu testen ist nunmal ein vergleich. Und der ist hier anscheinend nicht gut gelungen.

mfg martin

Frank1974
2008-07-31, 00:28:54
HQ bei NVIDIA. Nutzlos.

Hmm, nur weil es HQ ist, sollte man es nicht nutzlos nennen, ich habe gerade einen kleinen Schnelltest gemacht, Q vs HQ.


Core 2 Duo E6600@3200MHz, 2x2048MB/2x1024MB@DDR2-800, 5-5-5-15-6-42-2T,
NVIDIA GTX280@602/1296/1107MHz, WinXp32 Sp3, FW177.70

Als Spiele, Stalker, Cysis, Doom3, Prey und Trackmania Nations Forever.
Ich werde noch weitere wie Gothic3, Oblivion usw testen, aber nunmal erst zu diesen Ergebnissen.

1680x1050, 16xAF, 4xAA, erster Wert Q + T Opti, zweiter Wert HQ
Stalker -> 46.438 avg, 46.109 avg
Crysis -> 35.59 avg, 35,21 avg
Doom3 -> 145.6 avg, 145.5 avg
Prey -> 174.9 avg, 174.2 avg
Trackmania -> 77.4 avg 77.6 avg

Auch die Min fps sind nahezu identisch, kann ja sein das bei kleineren Karten größere Unterschiede sind, das kann ich nicht testen.
Wie schon geschrieben ich teste noch weitere und wenn es Unterschiede geben soll, poste ich das natürlich.

mfg
Frank

Gast
2008-07-31, 00:58:29
Dann lieber HQ, und ich kann mir ein Bild über die tatsächliche Leistungsfähigkeit machen.

Sehe ich auch so,eigentlich ists sogar sinnvoller die Qualität so weit hochzudrehen wie es geht, weil sich so zeigt, wie eine Karte damit umgeht (bei 1024x768 ist auch Witzlos,wenn z.B. der großteil in 1600 zockt und dort einer Karte dann Power oder Speicher fehlt.

Kann jeder sehen wie er will,sinnlos ist auf alle Fälle nicht,ich drehe immer gleich alles so hoch wie`s geht.:D

The_Invisible
2008-07-31, 09:19:25
Bezüglich Vergleichbarkeit sicherlich nicht ideal, aber was bringt mir ein Benchmark auf Quality, wenn ich so niemals spielen würde? Dann lieber HQ, und ich kann mir ein Bild über die tatsächliche Leistungsfähigkeit machen.

mfg.

Sonyfreak

sage das mal den ATI Usern :D

aber es ist generell bekannt das >=G80 bei HQ nicht sonderlich einbrechen.

mfg

Mr. Lolman
2008-07-31, 09:19:35
Bezüglich Vergleichbarkeit sicherlich nicht ideal, aber was bringt mir ein Benchmark auf Quality, wenn ich so niemals spielen würde? Dann lieber HQ, und ich kann mir ein Bild über die tatsächliche Leistungsfähigkeit machen.

mfg.

Sonyfreak

Bei IHV-übergreifenden Tests sollte primär auf möglichst vergleichbare Settings wert gelegt werden.

Auch wenn HQ nix kostet, bringts deswegen nix so zu testen (Sonst könnte man ja bei Tests mit Ati zB. auch gleich immer 8xAA aktivieren - weils weniger kostet als bei NV)

Wie sich HQ zu Q verhält sollte Gegenstand einer gesonderten Betrachtung sein.

madjim
2008-08-03, 13:05:58
Mich würde es sehr interessieren wie weit sich die 9800+ übertakten lässt und was das tatsächlich mit dem 256bit SI bringt.

Gast
2008-08-03, 13:27:14
Bei IHV-übergreifenden Tests sollte primär auf möglichst vergleichbare Settings wert gelegt werden.

Auch wenn HQ nix kostet, bringts deswegen nix so zu testen (Sonst könnte man ja bei Tests mit Ati zB. auch gleich immer 8xAA aktivieren - weils weniger kostet als bei NV)

Wie sich HQ zu Q verhält sollte Gegenstand einer gesonderten Betrachtung sein.
;)

Coda
2008-08-03, 16:25:51
Bei IHV-übergreifenden Tests sollte primär auf möglichst vergleichbare Settings wert gelegt werden.

Auch wenn HQ nix kostet, bringts deswegen nix so zu testen (Sonst könnte man ja bei Tests mit Ati zB. auch gleich immer 8xAA aktivieren - weils weniger kostet als bei NV)

Wie sich HQ zu Q verhält sollte Gegenstand einer gesonderten Betrachtung sein.
Das verhält sich anders, weil man A.I. effektiv nicht deaktivieren kann. Man zwingt NVIDIA nicht zu besserer Qualität, nur zu schlechterer Performance wenn man 8xAA bencht.

Gast
2008-08-03, 16:45:25
was bringt mir ein Benchmark auf Quality, wenn ich so niemals spielen würde? Dann lieber HQ, und ich kann mir ein Bild über die tatsächliche Leistungsfähigkeit machen.

mfg.

Sonyfreak

Solche argumente interesieren den grössten N-funboy nicht.
Spar deine nerven;)

Coda
2008-08-03, 17:57:22
Bezüglich Vergleichbarkeit sicherlich nicht ideal, aber was bringt mir ein Benchmark auf Quality, wenn ich so niemals spielen würde? Dann lieber HQ, und ich kann mir ein Bild über die tatsächliche Leistungsfähigkeit machen.
Wie jetzt? NVIDIA soll dafür bestraft werden dass sie bessere BQ anbieten oder was?

Die "tatsächliche Leistungsfähigkeit" von ATI lässt sich ja gar nicht benchen weil es A.I. off so gestrickt ist.

Sonyfreak
2008-08-03, 19:58:33
Wie jetzt? NVIDIA soll dafür bestraft werden dass sie bessere BQ anbieten oder was?Als interessierter Leser weiß ich ohnehin, dass die Bildqualität von ATI nicht an die von Nvidia herankommt. Wirklich vergleichen kann man die Karten der beiden Hersteller eh in keiner Einstellung.

Mich hingegen interessiert, wie eine potentielle neue Karte im Vergleich zu meinem aktuellen Kärtchen performen würde. Und da ich immer auf HQ spiele, ist auch nur die dort verfügbare Leistung für mich relevant. Was bringt mir eine Karte die sich dank Filtereinsparungen auf Q ein paar Bilder pro Sekunde hinzugewinnt, wenn ich davon eh nie etwas sehe?

Stattdessen wäre es gut, wenn alle Reviews _groß_ darauf hinweisen würden, dass die Bildqualität von ATI und Nvidia nicht vergleichbar ist, weil die Grünen eben ein weit ruhigeres, flimmerfreies Bild auf den Schirm zaubern. Ich weiß nicht, wo da die Bestrafung wäre. :confused:

mfg.

Sonyfreak

AnarchX
2008-12-05, 17:04:19
Mal noch ein interessanter Nachtrag:
http://img244.imageshack.us/img244/941/palitpower2927770in3.gif (http://imageshack.us)
http://www.xbitlabs.com/articles/video/display/palit-gf9800gtxplus_5.html#sect0

Damit liegt die 9800 GTX+ trotz deutlich höherer Leistung mittlerweile auf dem Niveau einer 65nm - 8800/9800 GT und somit auch um einiges unter der direkten Konkurrenz - HD4850, sofern die Messungen stimmen. ;)

LovesuckZ
2008-12-05, 17:10:29
Solange wie es keine Gegenmessung gibt, muss man hier von einem Fehler von Xbitlabs ausgehen.
Es kann sein, dass im Zuge der Einführung der Customsdesign auch die Sannung heruntergesetzt wird, aber solange wie es keine anderen Argumente dafür gibt, sollte man die Messung mit Vorsicht genießen.

AnarchX
2008-12-05, 17:15:42
Man hat immerhin zwei verschiedene Karten gemessen und die Temperaturen von 51°C 2D und 58°C 3D bei der niedrigen gemessenen Lautstärke der Palit-Karte sprechen nicht unbedingt dagegen.

Gast
2008-12-05, 17:19:17
Warum Fehler? Was ist so überraschend daran dass die 55nm Teile sparsamer sind? War doch zu erwarten. :confused:

AnarchX
2008-12-05, 17:24:36
Warum Fehler? Was ist so überraschend daran dass die 55nm Teile sparsamer sind? War doch zu erwarten. :confused:
Nicht unbedingt, primär senkt ein kleinerer Prozess nur die Die-Size und bei ATis Wechsel auf 55nm hat man auch keine Vorteile gegenüber 65nm gesehen.

Seltsam ist auch, dass eigentlich schon auf den 9800 GTX+ im Juni G92B waren, wo man aber keine massive Einsparung gemessen hat:
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_4850_cf_hd_4870/7/#abschnitt_nvidia_geforce_9800_gtx

LovesuckZ
2008-12-05, 17:28:19
Diese 55nm Teile gibt es seit August. Es kann sein, dass die Spannungen von AIB gesenkt werden und deswegen die Karten nur noch einen 6 Pin Anschluss benötigen, aber hierfür müssen weitere Test abgewartet werden.

Gast
2008-12-05, 17:28:28
Na dann isses vielleicht ein neues Stepping oder ein neues BIOS mit niedrigerer Kernspannung aber wenn ich einer Website einigermaßen verlässliche Leistungsmessungen zutraue dann den Jungs bei X-Bit.

AnarchX
2008-12-05, 17:38:39
Hier hat man auch eine 9800GTX+ 55nm von Palit getestet:
http://www.pureoverclock.com/review.php?id=667&page=16
... deutlich über einer 8800 GT.

Gast
2008-12-05, 17:39:27
Diese 55nm Teile gibt es seit August. Es kann sein, dass die Spannungen von AIB gesenkt werden und deswegen die Karten nur noch einen 6 Pin Anschluss benötigen, aber hierfür müssen weitere Test abgewartet werden.

Es wurde ja aber auch eine 9800GTX+ Referenz Karte mit 80Watt gemessen!

Gast
2008-12-05, 17:42:07
Auch auf einer Referenzkarte kann man niedrigere Kernspannungen einstellen. Oder sie haben den 55nm Prozess inzwischen einfach viel besser im Griff, die meisten anderen 9800GTX+ Reviews fanden ja direkt nach Einführung statt, inzwischen war Zeit für Optimierungen.

AnarchX
2008-12-05, 17:44:11
Der Die auf der Karte wurde auch im Juni hergestellt:
The photo shows that the die has become much smaller. The chip is now revision B1 rather than the 65nm version’s A2 revision. This sample of the chip was manufactured on the 26th week of 2008, i.e. between the 22nd and 28th of June. The GPU of the other Palit card has the same marking but differs in its production date.
http://www.xbitlabs.com/articles/video/display/palit-gf9800gtxplus_3.html

Gast
2008-12-05, 17:45:04
Dann isses halt vielleicht doch ein aktuelles BIOS mit niedrigeren Spannungen.

Gast
2008-12-05, 18:20:14
Nicht unbedingt, primär senkt ein kleinerer Prozess nur die Die-Size und bei ATis Wechsel auf 55nm hat man auch keine Vorteile gegenüber 65nm gesehen.



Welchen Chip hat ATI denn von 65nm auf 55nm geshrinkt?

Sorkalm
2008-12-05, 18:33:46
Welchen Chip hat ATI denn von 65nm auf 55nm geshrinkt?

RV630 auf RV630 und RV610 auf RV620.

Gast
2008-12-05, 18:58:07
Soweit ich weiss waren das keine reinen Shrinks und auch die Takte haben sich geändert.

Der_Korken
2008-12-05, 21:37:50
Soweit ich weiss waren das keine reinen Shrinks und auch die Takte haben sich geändert.

Nope, das waren wirklich Shrinks. Für RV630 --> RV635 (http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_3650/2/#abschnitt_technische_daten) zumindest hier ein Link. Bei dem anderen Wechsel hat sich aber afair auch nichts getan, was eine Stromeinsparung relativiert hätte.

@9800GTX@55nm: Die Messungen oben halte ich aber auch für sehr unrealistisch. Da werden mal eben so 30% eingespart, während bei der Konkurrenz vom Shrink nichts übrig bleibt? Da müsste man die Spannung ja extrem gesenkt haben, was ich bei einer so hoch getakteten Karte wie der 9800GTX+ nicht glauben kann. Vor allem finde ich es merkwürdig, dass das erst jetzt jemandem auffällt, wo der G92b doch schon lange angelaufen ist. Naja, vielleicht gibts ja bald ne Aufklärung.

Gast
2008-12-05, 21:43:32
Nope, das waren wirklich Shrinks. Für RV630 --> RV635 (http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_3650/2/#abschnitt_technische_daten) zumindest hier ein Link. Bei dem anderen Wechsel hat sich aber afair auch nichts getan, was eine Stromeinsparung relativiert hätte.


???
In dem verlinkten Artikel steht doch ganz klar drin, dass es kein reiner Shrink war.

Die ATi Radeon HD 3650 basiert auf der RV635-GPU, die im modernen 55-nm-Prozess bei TSMC hergestellt wird, 378 Millionen Transistoren umfasst und über 24 5D-Vektorshadereinheiten verfügt. Somit konnte man gegenüber dem Vorgänger RV630 einige Transistoren einsparen, obwohl die Anzahl sämtlicher Ausführungseinheiten identisch geblieben und einige neue Features in den RV635 implementiert worden sind.

Der_Korken
2008-12-05, 21:51:49
???
In dem verlinkten Artikel steht doch ganz klar drin, dass es kein reiner Shrink war.

Diese paar Features, die da eingebaut wurden, sind wirklich zu vernachlässigen. Da steht ja drin, dass man sogar Transistoren einsparen konnte und die Menge der Ausführungseinheiten identsich zum Vorgängerchip ist. Vor dem Hintergrund bleibt das für mich ein reiner Shrink, der aber eben keinen Vorteil aus 55nm ziehen konnte was den Verbrauch angeht.

Gast
2008-12-05, 22:30:45
Da werden mal eben so 30% eingespart, während bei der Konkurrenz vom Shrink nichts übrig bleibt?

wenn wirklich die spannung gesenkt wurde sind 30% locker drinnen, das ist eigentlich die frage die es zu prüfen gilt.

so ganz unwahrscheinlich halte ich das nichtmal, es tauchen ja auch immer mehr G200-karten mit deutlich niedrigeren spannungen bereits vom hersteller auf.

aths
2008-12-05, 22:53:25
Diese paar Features, die da eingebaut wurden, sind wirklich zu vernachlässigen. Da steht ja drin, dass man sogar Transistoren einsparen konnte und die Menge der Ausführungseinheiten identsich zum Vorgängerchip ist. Vor dem Hintergrund bleibt das für mich ein reiner Shrink, der aber eben keinen Vorteil aus 55nm ziehen konnte was den Verbrauch angeht.Wenn es ein reiner Shrink ist, sind auch die allerkleinsten neuen Features in Hardware nicht möglich.

Der_Korken
2008-12-05, 22:54:40
wenn wirklich die spannung gesenkt wurde sind 30% locker drinnen, das ist eigentlich die frage die es zu prüfen gilt.

so ganz unwahrscheinlich halte ich das nichtmal, es tauchen ja auch immer mehr G200-karten mit deutlich niedrigeren spannungen bereits vom hersteller auf.

Lag letzteres nicht daran, dass man beim GT200 die Spannungen so extrem großzügig gewählt hat? Ich erinner mich da an Threads 1 Monat nach Launch, wo viele bei ihrer GTX280 den Vcore einfach von 1,18V auf 1,03V gesenkt haben ohne Probleme. Vielleicht kommt der niedrige Verbrauch auch nicht durch den neuen Prozess, sondern eher durch Auflösung von vorhandenen Spannungsreserven. Aber das ist auch reine Spekulation.

Edit: Wenn es ein reiner Shrink ist, sind auch die allerkleinsten neuen Features in Hardware nicht möglich.

Ja ok, komplett rein ist er nicht, aber ich sehe da keine Änderung, die irgendwo spürbare Auswirkungen auf die Verlustleistung geht.

aths
2008-12-05, 22:57:41
Bei IHV-übergreifenden Tests sollte primär auf möglichst vergleichbare Settings wert gelegt werden.Dann müsste man jetzt bei NV die AF-Qualität auf "flimmrig" senken (vermutlich P-Setting) und alle geilen sich an den fps-Werten auf.

Wenn das AF erhebliche Unterschiede aufweist (starke gegen schwache Winkelabhängigkeit, Flimmer-AF gegen gutes AF) sollte man nicht vergleichbare Settings finden sondern einfach die Karten nicht gegeneinander benchen.

Einigt man sich auf den kleinsten gemeinsamen Nenner, sieht es so aus als sei der User mit diesem Nenner zufrieden.

Gast
2008-12-05, 23:12:08
Vielleicht kommt der niedrige Verbrauch auch nicht durch den neuen Prozess, sondern eher durch Auflösung von vorhandenen Spannungsreserven.

ein neuer prozess senkt den verbrauch immer nur dadurch, dass er niedrigere spannungen ermöglicht, ein reiner shrink ohne spannungssenkung bringt nie einen wirklichen unterschied.

auch dass man jetzt erst spannungen senkt ist ein ziemlich logischer schritt, GPUs kommen in relativ kurzen zyklen auf den markt, weshalb man vergleichsweise wenig zeit (beispielsweise im vergleich zu cpus) in tests stecken kann und man erstmal einiges an reserve einkalkulieren muss, instabile chips wären schließlich deutlich schlimmer als etwas heißere.

mit mehr erfahrung kann man dann natürlich spannungen senken, bei CPUs ist das ja gang und geben, dass die gleichen modelle mit der zeit immer weniger spannung benötigen, GPUs sind nur recht kurzlebige produkte, so dass man bisher kaum was in der richtung getan hat.

dildo4u
2009-02-17, 17:47:38
PCGH: Geforce 9800 GTX+ mit 1 GB Videospeicher im Test

http://www.pcgameshardware.de/aid,676324/Geforce-9800-GTX-mit-1-GB-Videospeicher-im-Test/Grafikkarte/Test/

Giraffengustav75
2009-02-22, 17:57:58
PCGH: Geforce 9800 GTX+ mit 1 GB Videospeicher im Test

http://www.pcgameshardware.de/aid,676324/Geforce-9800-GTX-mit-1-GB-Videospeicher-im-Test/Grafikkarte/Test/
Sieht ja wirklich sehr interessant aus. Habe nur noch etwas Bedenken wegen dem Stromverbrauch (bis zu 130, bzw. 150 Watt!), aber die Leistungswerte wären genau das, was ich für meinen nächsten PC suche.