PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Launch-Analyse nVidia GeForce GTX 980 Ti


Leonidas
2015-06-02, 08:35:53
Link zum Artikel:
http://www.3dcenter.org/artikel/launch-analyse-nvidia-geforce-gtx-980-ti

Sweepi
2015-06-02, 09:23:33
Das heist also, ich kann von meiner jetzigen GTX680 4GB auf eine 980Ti mindestens eine Verdopplung der Performance in 2560x1440 erwarten. (Da die 780Ti deutlich schneller als die 680 war und bereits nur 2/3 der Titan X erreicht)
Wollte aber eigentlich mal wieder AMD kaufen, mal schauen was bei Fury rauskommt. Wakü hab ich eh, aber alle Radis im Gehäuse (1x 480 + 1x 360), da wäre Performance/Watt evtl. doch wichtiger als gedacht.

SimonX
2015-06-02, 09:56:48
Hat schon jemand getestet, ob die 6GB der 980Ti auch mit der vollen Performance benutzt werden können?

(Nicht das da sowas wie bei der 970 passiert ist ;) )

MD_Enigma
2015-06-02, 11:24:28
GF2 Ultra: 1200DM ~= 600 Euro.

Seit 2001 jeweils 1% Inflation: 1,01^(2015-2001)*600 = 689 EUR
Seit 2001 jeweils 2% Inflation: 1,02^(2015-2001)*600 = 791 EUR

Ganz sooo abwegig ist die Preisentwicklung nicht. Ich finde es strategisch nachvollziehbar, wie NVidia die Preisgestaltung macht - auch in Abhängigkeit mit der gesamten Konkurrenz und generellen IT-Entwicklung.

Trotz allem (auch Eurokurs) ist das mir persönlich zu viel Geld. Die Hardware hat sich die letzten Jahre so human entwickelt, dass ich keinen stetigen druck zum Nachrüsten hatte. Die Qualitätsunterschiede zwischen Ultra und Medium (z.B. Crysis2 oder FarCry3) waren da, aber meiner Meinung nach keine Welten mehr und daher kein Upgrade wert. Ich hatte beim ersten mal Ultra_Settings wirklich gedacht: "Ach, das wars?". Wenn man die Ansprüche etwas runterschraubt, konnte man mit der Vor-Vor-Vor-Generation sehr gut leben. Selbst 500 Euro fänd ich aktuell raus geschmissenes Geld nur um mein persönliches Ego zu ergötzen. Die GTX780 reicht mir vollkommen und wirds auch noch die nächsten Jahre, weil die GTX780 ungefähr die Leistung der aktuellen Konsolengeration abdeckt und darauf grafisch optimiert wird ;)

Max944
2015-06-02, 14:39:52
Das Temperaturlimit von 83°C ist doch ein Witz. Die Karten takten schon bei 65°C runter. Das habe ich bereits bei der GTX 970 gehaßt weil die Karte dadurch instabil wurde. Erst taktet sie 13 MHz runter, nimmt Spannung weg und später taktet sie wieder 13 MHz hoch ohne vorher die Spannung entsprechend zu erhöhen. Bei ordentlichem OC ist das genau das Zünglein an der Waage das zum Crash führt.

Kennt ihr das Problem und wie geht ihr damit um? Lüfter aufdrehen um unter 65°C zu bleiben, BIOS-Mods um die Spannung zu fixieren, den Mist tolerieren (weniger OC) ?

Gast
2015-06-02, 15:00:42
Hat schon jemand getestet, ob die 6GB der 980Ti auch mit der vollen Performance benutzt werden können?

(Nicht das da sowas wie bei der 970 passiert ist ;) )

Psst - Doch nicht jetzt schon !

Erst muss sich das Ding ein paar Monate verkaufen, dann kann man feststellen das man falsch Kommuniziert hat.

aths
2015-06-02, 15:04:17
Die GF2 Ultra habe ich sogar mal für 1400 DM im Mediamarkt gesehen. Allerdings ist die Inflation mit einzubeziehen. Von 2001 (ich glaube die GF2 erschien schon im Jahr 2000) bis 2014 (also nicht mal 2015) haben wir 22% Inflation: http://www.inflation-deutschland.de/

Das ergibt selbst bei 1200 DM, also 614 Euro, einen inflationsbereinigten Wert von 749 Euro.

Allerdings galt die GF2 Ultra schon damals als absurde Ausnahme und nicht als Standard. Mehr als 1000 Mark (eintausend Mark) für eine Grafikkarte – einfach irre.

Raff
2015-06-02, 16:40:08
Die Geforce 2 Ultra war IMO total überschätzt, aber Nvidia hat da schon mal den jetzigen Größenwahn geprobt.

MfG,
Raff

Loeschzwerg
2015-06-02, 18:13:51
Wiso überschätzt? Da steckt "Ultra" im Namen!! :D Aber mal ehrlich, im August 2000 gab es einfach nix besseres, die Ti kam erst viel später und die GTS war dann doch eine gute Ecke langsamer.

Die Geforce 3 ist im Februar 2001 ebenfalls mit 1400 DM gestartet, dann aber im April schon auf 900-1000 DM gerutscht.

Bei den aktuellen Karten fehlt einfach generell der Preisrutsch.

Spasstiger
2015-06-02, 19:52:28
Im Dollarraum sollte die GTX 980 Ti ein passables Angebot sein im Vergleich zu vergangenen Angeboten. Und echte Straßenpreise von der 980 Ti haben wir noch gar nicht gesehen. NV hat die Messlatte für AMD ziemlich hoch gelegt, auch was P/L angeht. Ein voller Fiji mit 4 GiB HBM wird für die AiBs vermutlich teurer als ein Salvage-GM200 mit 6 GiB GDDR5, wenn AMD sich nicht auf ein Preisdumping einlässt.

Schrotti
2015-06-02, 21:31:04
Bei dem miesen Euro/Dollar Kurs wundern mich die Preise überhaupt nicht.

Ich hätte gerne eine Matrox Parhelia, allerdings mit vernünftigem Tempo.

Tomislav
2015-06-02, 22:12:45
Hallo
Hat schon jemand getestet, ob die 6GB der 980Ti auch mit der vollen Performance benutzt werden können?

(Nicht das da sowas wie bei der 970 passiert ist ;) )
Wenn du nicht verstanden hast wieso die GTX970 3,5GB + 0,5GB Speicher hat dann solltest du nicht so einen Unsinn schreiben.
Die GTX980 hat 4GB und die beschnittene GTX970 hat auch 4GB aber weil die beschnittene GTX970 aufgrund der Beschneidung nicht die vollen 4GB ansprechen kann wurde der Speicher in 2 Teile (3,5GB + 0,5GB) segmentiert.
Die TitanX hat 12GB und die beschnittene GTX980Ti hat nur 6GB, also die Hälfte der TitanX, da muss man den Speicher nicht segmentieren weil es bei der halben Menge nicht nötig ist.
Wenn die beschnittene GTX980Ti die vollen 12GB hätte dann müsste man sich Gedanken über eine Segmentierung des Speichers in zwei Teile machen.

Grüße Tomi

Edit: Kompletter Unsinn.

aths
2015-06-02, 22:47:19
Hallo

Wenn du nicht verstanden hast wieso die GTX970 3,5GB + 0,5GB Speicher hat dann solltest du nicht so einen Unsinn schreiben.
Die GTX980 hat 4GB und die beschnittene GTX970 hat auch 4GB aber weil die beschnittene GTX970 aufgrund der Beschneidung nicht die vollen 4GB ansprechen kann wurde der Speicher in 2 Teile (3,5GB + 0,5GB) segmentiert.
Die TitanX hat 12GB und die beschnittene GTX980Ti hat nur 6GB, also die Hälfte der TitanX, da muss man den Speicher nicht segmentieren weil es bei der halben Menge nicht nötig ist.
Wenn die beschnittene GTX980Ti die vollen 12GB hätte dann müsste man sich Gedanken über eine Segmentierung des Speichers in zwei Teile machen.

Grüße Tomi
Das ergibt keinen Sinn. Einerseits dürfte eine Ti keine verdeckten Abspeckungen aufweisen, das wäre selbst für Nvidia neu. Andererseits könnte, davon abgesehen, auch bei 6 GB ein schmaleres Interface genutzt werden, um beispielsweise den Abstand zur Titan X sicherzustellen. Den Abstand zur größeren Karte sicherzustellen war ja der Sinn bei der 970-Konstruktion, damit die Leistung der 980 nicht zu nahe kommt.

Tomislav
2015-06-03, 02:05:00
Hallo

Das ergibt keinen Sinn.

Eigentlich hatte ich schon geschrieben das es doch Sinn ergibt aber dann habe ich mir das 970er Schaubild noch einmal angesehen und bemerkt das du Recht hast.

Stimmt wir haben ja eine Parallelschaltung von L2's und MC's und deswegen muss man die gleiche Anzahl von Speicherchips mit halb so großer Kapazität nehmen um bei halber Speichergröße auf die gleiche Bandbreite zu kommen.
Wenn man gleich große Speicherchips nimmt und die Hälfte weglässt dann halbiert man die Bandbreite und das wäre ganz großer Unsinn.

Grüße Tomi

Tomahawk
2015-06-03, 21:20:37
Wenn ich richtig sehe, verwendet TweakPC eine Titan Z und keine Titan X - das erklärt die Ausreißerwerte.

Von einer "schleichenden" Erhöhung der Grafikkarten-Preise sehe ich nichts. Punktuell waren bestimmte Grafikkarten einfach verdammt teuer. Das war meistens der Fall, wenn ein Hersteller technisch recht deutlich vor dem anderen lag. Weitere Beispiele:
Radeon X1900XTX (2006, 649 Euro)
Geforce 8800 Ultra (2007, 699 Euro)

Zu behaupten, dass Grafikkarten generell teurer werden halte ich für falsch.

aths
2015-06-03, 23:15:50
Wenn ich richtig sehe, verwendet TweakPC eine Titan Z und keine Titan X - das erklärt die Ausreißerwerte.

Von einer "schleichenden" Erhöhung der Grafikkarten-Preise sehe ich nichts. Punktuell waren bestimmte Grafikkarten einfach verdammt teuer. Das war meistens der Fall, wenn ein Hersteller technisch recht deutlich vor dem anderen lag. Weitere Beispiele:
Radeon X1900XTX (2006, 649 Euro)
Geforce 8800 Ultra (2007, 699 Euro)

Zu behaupten, dass Grafikkarten generell teurer werden halte ich für falsch.
Die 8800 GTX war damals eine performance- und featuremäßig bahnbrechende Karte, die Ultra nutzte den erworbenen Ruf aus und sattelte einfach noch eins drauf. Die Karte war am Maximum des in der Serienfertigung Machbaren gebaut. Auf die 980 trifft das nicht zu, das Referenzdesign ist in der Leisungsaufnahme künstlich gedrosselt weil die Kartenkonstruktion nicht für Maximalleistung gedacht ist. Die 980 Ti verwendet einen teildeaktivierten Chip. Da wird keine Grenze des Machbaren ausgelotet, das schafft im Moment nur die Titan X. Die exorbitant teuer ist.

Trotzdem bin ich (bis auf das Multimonitoring-Problem, wo ich bald einen möglichen Lösungsansatz teste) mit der 980 sehr zufrieden. Souveräre Leistung, massig Antialiasing-Möglichkeiten sowohl für alte, wie auch für neue Titel, und alles bei schön leiser Luftkühlung.

Grestorn
2015-06-04, 09:33:25
Das Temperaturlimit von 83°C ist doch ein Witz. Die Karten takten schon bei 65°C runter. Das habe ich bereits bei der GTX 970 gehaßt weil die Karte dadurch instabil wurde. Erst taktet sie 13 MHz runter, nimmt Spannung weg und später taktet sie wieder 13 MHz hoch ohne vorher die Spannung entsprechend zu erhöhen. Bei ordentlichem OC ist das genau das Zünglein an der Waage das zum Crash führt.

Kennt ihr das Problem und wie geht ihr damit um? Lüfter aufdrehen um unter 65°C zu bleiben, BIOS-Mods um die Spannung zu fixieren, den Mist tolerieren (weniger OC) ?

Unterhalb von 75° taktet die 980(Ti) nur dann runter, wenn das PowerLimit überschritten wird. Was leider sehr schnell der Fall ist. Abgesehen von einer aggressiven Lüfterkurve, mit der man die Temperatur eigentlich immer unterhalb von 75° halten kann, hilft da nur ein Mod-BIOS, mit dem man die maximale TDP erhöhen kann.

Gast
2015-06-16, 13:24:45
In der ersten Tabelle steht unter der Radeon R9 290X, der verwendete Chip sei der GK110. ;)