PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Maxwell - GM1xx (H1/2014) / GM2xx (H2/2014)


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 [22] 23 24 25 26 27 28 29 30 31 32 33

ChaosTM
2014-09-16, 16:50:26
Momentan betreibe ich meine 290x mit -25% Power Target und erreiche damit immer noch 93% der Originalleistung (Werksübertaktet auf 1060mhz) und das bei nur mehr ca. 180-200 Watt Verbrauch.
Die 165Watt der 980er kann ich mir sehr gut vorstellen und ist bei entsprechender Leistung höchst interessant!

Loeschzwerg
2014-09-16, 17:18:02
Den virtuellen Keks hast du dir redlich verdient, wirklich auf den Millimeter genau. 😜

Da lag ich mit meiner Schätzung der 1920 mit hohem Takt auch ganz gut.

Wenn ich mal nur so viel Glück beim Lotto hätte :freak:

Der Preis ist derb wenn der wirklich so durchschlägt... Jetzt haben wir wieder Geforce 2 Ultra Niveau, mit seinerzeit bis zu 1500 Mark :D

Kriton
2014-09-16, 17:29:11
Am besten wäre wenn man permanent, etwas unabhängig vom Prozess die Architekturen soweit wie möglich auf sehr hohe Effizienz auslegen kann, man kann sich nicht immer auf neue Prozesse konzentrieren, 35% mehr Core Performance im alten Prozess ist beste Arbeit von Nvidia, das muss hier jeder akzeptieren! Nicht immer nach links sehen und AMD lieb haben ;)

Absolut!
Dennoch warte ich noch unabhängige Reviews ab. Und wie gesagt: Der Preis! :freak:

Dawn on Titan
2014-09-16, 17:38:07
35%, 15% oder 5%, wir sollten echte Tests abwarten....

fondness
2014-09-16, 17:41:04
Interessant wie sehr hier die Leute jubeln weil sie für deutlich mehr Geld dieselbe Leistung bekommen. Die Effizienz scheint enorm wichtig zu sein, obwohl es wenig unmittelbare Vorteile dadurch gibt.

Ex3cut3r
2014-09-16, 17:44:01
Hier sitzen ja wirklich viele schon auf heißen Kohlen ;D

Ich bin mir noch sicher ob sich das für mich so lohnt auf ne GTX 980 zu wechseln, meine stark übertaktete 770 erreicht die Leistung einer Standard GTX 780, nur der mehr Vram wäre toll, ein richtiges Upgrade wäre wohl erst GM200, nur 1000€ wäre ich nicht bereit, zu zahlen, und ATi kommt nicht in frage, schöner Schlamassel :freak:

aufkrawall
2014-09-16, 17:50:35
Interessant wie sehr hier die Leute jubeln weil sie für deutlich mehr Geld dieselbe Leistung bekommen. Die Effizienz scheint enorm wichtig zu sein, obwohl es wenig unmittelbare Vorteile dadurch gibt.
Sonst bist du doch immer Feuer und Flamme für HSA-Kram bei den APUs und hier ist extrem bessere Compute-Performance für dich kaum etwas wert?
Passt nicht zusammen.

Dural
2014-09-16, 17:51:56
Effizients ist halt alles, wer die höchste hat wird auch sehr wahrscheinlich die grösste Leistung erreichen können (GM200)

Und ja, ich finde es Technisch richtig cool das NV im selben Prozess ca. 40% mehr Leistung/Watt rausholt. Wer nimmt dies nicht gerne mit?!? und da 16nm noch etwas dauert ist Maxwell einfach cool und auch für Kepler Besitzer eine Überlegung Wert.

Wenn nur die Preise nicht wären...

kunibätt
2014-09-16, 17:53:34
Ich nehme das gerne mit. Aber nie im Leben für 700€.

Dawn on Titan
2014-09-16, 17:53:36
Als Kunde sollte man auf FPS/€achten und da geht nichts an AMD vorbei.

Godmode
2014-09-16, 17:53:52
Interessant wie sehr hier die Leute jubeln weil sie für deutlich mehr Geld dieselbe Leistung bekommen. Die Effizienz scheint enorm wichtig zu sein, obwohl es wenig unmittelbare Vorteile dadurch gibt.

Ich juble absolut nicht, ich finde es nur erstaunlich das es im selben Prozess möglich ist. Das zeigt nur was möglich wäre, wenn nicht jedes Jahr ein neuer Prozess anstehen würde.

Effizienz ist wichtig, nur so kann man die Performance weiter steigern. Ich würde einen 300W GM204 sofort kaufen, wenn er doppelt so schnell wäre, wie GK110. Das wird natürlich so nicht kommen, weil sie ja auch noch GM200 verkaufen wollen. Allerdings frage ich mich schon, wie sie GM200 aufstellen wollen. GM204 hat jetzt 165W GM200 würde dann bis 250W Spielraum haben und es gäbe wieder zwei Salvage Parts.

Marodeur
2014-09-16, 17:54:20
Wenn ich mir dadurch noch sicherer sein kann beim aufrüsten kein neues (teures) Netzteil zu brauchen ist das mehr an Effizienz schon ein Argument.

Ich sitz hier ja eh noch mit einer GTX 570, langsam wirds Zeit... ;)

Zugegeben, ein Stromsparwunder war/ist die auch nicht. Von daher wäre eine 780 TI wohl schon gegangen. ;)

Locuza
2014-09-16, 17:56:03
Als Kunde sollte man auf FPS/€achten und da geht nichts an AMD vorbei.
Als Kunde achtet man auf Sachen die einem wichtig sind.

Ex3cut3r
2014-09-16, 17:56:34
Wenn ich mir dadurch noch sicherer sein kann beim aufrüsten kein neues (teures) Netzteil zu brauchen ist das mehr an Effizienz schon ein Argument.

Ich sitz hier ja eh noch mit einer GTX 570, langsam wirds Zeit... ;)

Jop wenn GTX 570, ist das schon ein immenser Sprung. ;)

aths
2014-09-16, 17:57:19
Hier sitzen ja wirklich viele schon auf heißen Kohlen ;D

Ich bin mir noch sicher ob sich das für mich so lohnt auf ne GTX 980 zu wechseln, meine stark übertaktete 770 erreicht die Leistung einer Standard GTX 780, nur der mehr Vram wäre toll, ein richtiges Upgrade wäre wohl erst GM200, nur 1000€ wäre ich nicht bereit, zu zahlen, und ATi kommt nicht in frage, schöner Schlamassel :freak:
Meine GTX 680 ist zwar übertaktbar, aufgrund der Lautstärke unter Last untertakte ich sie aber höchstens. Die Karte habe ich lange genug geduldet, aber bei 680 Öcken verliere ich die Lust zum Update.

Ich weiß noch, wie es war, als ich für 600 Euro die Geforce 4 Ti 4600 gekauft hatte. Ein paar Monate später kam die Radeon 9700 ...

aths
2014-09-16, 17:58:29
Als Kunde sollte man auf FPS/€achten und da geht nichts an AMD vorbei.
Die letzten ATI-Karten die ich getestet hatte, waren mir allesamt viel zu laut.

Unicous
2014-09-16, 18:00:11
Ich weiß noch, wie es war, als ich für 600 Euro die Geforce 4 Ti 4600 gekauft hatte. Ein paar Monate später kam die Radeon 9700 ...

Bis dahin ist die GPU-Sparte von AMD längst abgewickelt (laut allgemeiner Forenmeinung.:rolleyes:)

Ex3cut3r
2014-09-16, 18:00:13
Meine 680 ist zwar übertaktbar, aufgrund der Lautstärke unter Last untertakte ich sie aber höchstens. Die Karte habe ich lange genug geduldet, aber bei 680 Öcken verliere ich die Lust zum Update.

Ich weiß noch, wie es war, als ich für 600 Euro die Geforce 4 Ti 4600 gekauft hatte. Ein paar Monate später kam die Radeon 9700 ...

Jop, mir gehts ja ähnlich, eigentlich war ein wechsel auf die 980 von der 770 fest geplant, aber bei den angeblichen Preis, der im Raum steht, zweifle ich jetzt sehr stark.

dildo4u
2014-09-16, 18:00:25
Interessant wie sehr hier die Leute jubeln weil sie für deutlich mehr Geld dieselbe Leistung bekommen. Die Effizienz scheint enorm wichtig zu sein, obwohl es wenig unmittelbare Vorteile dadurch gibt.
Wenn sie freiwillig Downsampling von 4k einbauen könnte die Schwäche in den hohen Auflösungen gefixt worden sein.

Ailuros
2014-09-16, 18:02:37
Leider wird wohl bald wieder Charlie mit seinem "told you so" wedeln; er hat es ja berichtet dass die Umbenennung ein marketing-technischer Zug war um die MSRPs zu erhoehen. Mir schmeckt es zwar nicht als Verbraucher, aber jetzt mal ehrlich wenn NV fuer die GM204 noch keine direkte Konkurrenz hat und auch weiss dass sie verkaufen werden ist es wohl klar dass anstatt der GTX880 die umbenannte GTX980 jeweils den Verlust von 10 Tegra SoCs beinhaltet :P

Sonst waren sie anscheinend komischerweise sparsamer mit der Packdichte als sie auf GM200 sein wird nachdem was sich herumspricht.

Das allerwichtigste wurde ja noch gar nicht erwaehnt fuer den 204 :P

fondness
2014-09-16, 18:03:17
Es gibt keine Schwäche in 4K, die ALUs von AMD werden bei mehr Pixel einfach besser ausgelastet.

dildo4u
2014-09-16, 18:04:32
Es gibt keine Schwäche in 4K, die ALUs von AMD werden bei mehr Pixel einfach besser ausgelastet.
Und das kann bei Maxwell nicht gefixt worden sein?

aufkrawall
2014-09-16, 18:05:51
Und das kann bei Maxwell nicht gefixt worden sein?
Nein, eher muss AMD die schlechtere Performance bei niedrigen Auflösungen "fixen".
Na ja, nicht wirklich. Durch 4k sollte sich langsam mal der Blick auf WQHD als Minimum verschieben.

ChaosTM
2014-09-16, 18:06:42
Wenn sie freiwillig Downsampling von 4k einbauen könnte die Schwäche in den hohen Auflösungen gefixt worden sein.

Warum Downsampling? 4k ist nativ viel spaßiger ;)
8k Downsampling wird interessant - in ein paar Jahren...

edit.: Sorry das ich das immer wieder erwähne, aber es ist wirklich verdammt geil. Fast wie vor und nach Voodoo 1..

Ex3cut3r
2014-09-16, 18:09:59
Warum Downsampling? 4k ist nativ viel spaßiger ;)
8k Downsampling wird interessant - in ein paar Jahren...

Natürlich du hast ja schon einen dicken 4K Moni vor dir stehen ;)

Für mich und viele andere dauert das noch, da nehme ich gerne "spezielles" 4K DS mit. :D


Das allerwichtigste wurde ja noch gar nicht erwaehnt fuer den 204 :P

Und das wäre? :devil:

Godmode
2014-09-16, 18:17:33
Sonst waren sie anscheinend komischerweise sparsamer mit der Packdichte als sie auf GM200 sein wird nachdem was sich herumspricht.

Das allerwichtigste wurde ja noch gar nicht erwaehnt fuer den 204 :P

2 Tage vor dem Launch kannst du uns nicht mehr wirklich ärgern ^^

Btw. weiß man schon für was die 2 im Codenamen steht verglichen mit der 1 bei GM107? Beschreibt das nur die neuen Features?

memoal
2014-09-16, 18:20:41
Die 970 hat auch ausreichend Anschlüsse, gleich zur 980. Bei der Gainward Phantom gibt es nur noch 2 Lüfter.

http://videocardz.com/52379/gainward-geforce-gtx-980-and-gtx-970-pictured

Ex3cut3r
2014-09-16, 18:26:24
Ich bin mal gespannt ob 1400Mhz Chiptakt locker drin sind :up:

memoal
2014-09-16, 18:29:55
Achso:

970 ca. bei 375-399
980 ca. bei 550-599.

Ailuros
2014-09-16, 18:31:17
2 Tage vor dem Launch kannst du uns nicht mehr wirklich ärgern ^^

Why cry? :devil: (metaphorischer geschmackloser Scherz)

aufkrawall
2014-09-16, 18:33:49
Wird bestimmt ziemlich ARM sein.
*duckundweg*

mironicus
2014-09-16, 18:38:04
680 Euro für die GTX 980

https://onedrive.live.com/?cid=bb1df643285ae43e&id=BB1DF643285AE43E!29219&v=3&ithint=photo,jpg&authkey=!AAPz1X1e-oaNHEo

480 Euro für die GTX 970

https://onedrive.live.com/?cid=bb1df643285ae43e&id=BB1DF643285AE43E!29220&v=3&ithint=photo,jpg&authkey=!ACs23c9zgFAwNMA

AnarchX
2014-09-16, 18:39:55
Sonst waren sie anscheinend komischerweise sparsamer mit der Packdichte als sie auf GM200 sein wird nachdem was sich herumspricht.

Deutlich mehr Cache? 6MiB L2 / 128KiB per SMM?

maximus_hertus
2014-09-16, 18:42:37
Asus strix 970 - 509,90
Asus 980 referenz - 739,00
Evga 970 sc - 549,90
Evga 980 sc - 749,90
Gigabyte 980 referenz - 679,90

Ich habe mal darauf verzichtet auch hier screenies anzufertigen.

aths
2014-09-16, 18:42:53
Leider wird wohl bald wieder Charlie mit seinem "told you so" wedeln; er hat es ja berichtet dass die Umbenennung ein marketing-technischer Zug war um die MSRPs zu erhoehen.Der dreht sich alles so hin, wie er es braucht:

- Nvidia nimmt hohe Preise = Betrug am Kunden, Nvidia ist böse, zockt ahnungslose Trottel ab. Die Produkte taugen nichts und sind überteuert
- Nvidia nimmt niedrige Preise = das Unternehmen betreibt Ausverkauf weil sie den Ramsch sonst nicht loswerden, die Produkte taugen nichts

memoal
2014-09-16, 18:44:12
GSync onboard? ;)

Was eine Filialie als Aufpreis nimmt/meint geht mit am Hinter vorbei, der aktuelle Preis ist verdeckt!:P

War für die Referenz gedacht, wenn die Hersteller gleich OC-Boards raushauen wirds teurer, war immer so.

Hübie
2014-09-16, 18:45:26
Dann sind wir uns ja einig dass die Produkte nix taugen :biggrin:
Wie soll G-Sync auf der GPU platz nehmen? :| Die Logik dazu muss afaik auf der anderen Seite sein.

mironicus
2014-09-16, 18:46:59
Die über 700 Käufer der Asus Matrix 780ti für 444 Euro können also aufatmen. Sie müssen den Kauf nicht bereuen. :D

Ex3cut3r
2014-09-16, 18:48:36
700€ für den Performance chip gehen ja mal gar nicht, sind die jetzt schon auf Apple Niveau oder was? ;D Die Titan 2 geht dann für 1500€ üben Tisch. :facepalm:

memoal
2014-09-16, 18:48:42
Wie soll G-Sync auf der GPU platz nehmen? :| Die Logik dazu muss afaik auf der anderen Seite sein.
War schwarzer Humor...nicht ernst nehmen.:biggrin:

AnarchX
2014-09-16, 18:51:43
Asus strix 970 - 509,90
Asus 980 referenz - 739,00
Evga 970 sc - 549,90
Evga 980 sc - 749,90
Gigabyte 980 referenz - 679,90

Ich habe mal darauf verzichtet auch hier screenies anzufertigen.
Nach der Titan Z ist zwar alles möglich. Aber könnten das noch Platzhalterpreise sein, wo der Distributor kein Risiko eingeht?
Die anderen Preismeldungen deuteten ja eher in Richtung 399€/599€.

AffenJack
2014-09-16, 18:52:40
Sonst waren sie anscheinend komischerweise sparsamer mit der Packdichte als sie auf GM200 sein wird nachdem was sich herumspricht.

Das allerwichtigste wurde ja noch gar nicht erwaehnt fuer den 204 :P

Vielleicht höheren Taktraten geschuldet? Das Ding lässt sich ja so wies aussieht bis 1,4ghz takten. Vielleicht hat man für die Taktraten und den Stromverbrauch die Packdichte nicht erhöhen wollen.

Das allerwichtigste? Hmm, diesmal wirklich DX12 Feature Level?:wink:

mironicus
2014-09-16, 18:55:04
Die anderen Preismeldungen deuteten ja eher in Richtung 399€/599€.

In deinen Träumen vielleicht!
*Klopf Klopf Klopf* Aufwachen! Aufwachen! Das ist NVIDIA! ;D:biggrin::D:ubash3:

Ex3cut3r
2014-09-16, 18:56:41
Ne, also die Preis gehen wirklich gar nicht, und für mich kommt nix anderes andere als Nvidia in den PC, schöner Schlamassel ;D

memoal
2014-09-16, 18:57:23
Nach der Titan Z ist zwar alles möglich. Aber könnten das noch Platzhalterpreise sein, wo der Distributor kein Risiko eingeht?
Die anderen Preismeldungen deuteten ja eher in Richtung 399€/599€.
Sieht so aus, ja, man nimmt auch wieder die mit die vorabbestellten. Das wird sich sicherlich auf 780/780ti Niveau einpendeln wenn man warten kann. Denke die 970 wird in Referenz etwas billiger als die 780 6GB. Wie gesagt OC Varianten ausgeschlossen, die sind ja dann auch schneller. Wenn man nach 1,4 Ghz schreit wird man es auch bekommen, zum Preis den die meinen.

maximus_hertus
2014-09-16, 19:01:19
Fairerweise muss ich dazusagen, dass wir in der Regel bei Grafikkarten immer etwas teurer als Mindfactory, hardwareversand und Co sind. Aber ich gehe mal davon aus, dass es bei der ersten Charge keinen Preiskampf (nach unten) geben wird. Mittelfristig sollte es sich ne 380 / 550 Euro einpendeln (Referenz Modelle).

Hübie
2014-09-16, 19:08:56
Fairerweise muss ich dazusagen, dass wir in der Regel bei Grafikkarten immer etwas teurer als Mindfactory, hardwareversand und Co sind. Aber ich gehe mal davon aus, dass es bei der ersten Charge keinen Preiskampf (nach unten) geben wird. Mittelfristig sollte es sich ne 380 / 550 Euro einpendeln (Referenz Modelle).

Wer ist WIR? :confused:

Kriton
2014-09-16, 19:12:30
Sonst waren sie anscheinend komischerweise sparsamer mit der Packdichte als sie auf GM200 sein wird nachdem was sich herumspricht.


Geringere Packdichte ist doch positiv für den Verbrauch?


Das allerwichtigste wurde ja noch gar nicht erwaehnt fuer den 204 :P

:uconf2:

Godmode
2014-09-16, 19:14:34
Why cry? :devil: (metaphorischer geschmackloser Scherz)

Ich verstehe ihn nicht. :rolleyes:

Deutlich mehr Cache? 6MiB L2 / 128KiB per SMM?

Wäre durchaus möglich. Ich spekuliere ja mit einer Packdichte von 14,5 - 15,0 Mio/mm2. Weil ich mir sonst einfach nicht vorstellen kann, wie man das ganze unterbringen will. Ail meine ja auch es sind nicht nur 7,xx Transistoren sondern mehr. Tonga hat ja mit fast 14 Mio/mm2 gut vorgelegt, vielleicht schafft man das auch mit GM200 nochmal zu topen.

GSync onboard? ;)


Das ist ja sowieso an Board. :rolleyes:

700€ für den Performance chip gehen ja mal gar nicht, sind die jetzt schon auf Apple Niveau oder was? ;D Die Titan 2 geht dann für 1500€ üben Tisch. :facepalm:

Einfach nicht kaufen. 700 Euro werden sich sowieso nicht halten können. Early Adopter zahlen eben drauf. 2-3 Monate Warten und gut ist. Belohnungsaufschub heißt das Zauberwort.


Das allerwichtigste? Hmm, diesmal wirklich DX12 Feature Level?:wink:

Würde mich auch nicht vom Hocker hauen. Was mich freuen würde wäre Antialiasing, dass bei allen Spiele funktioniert.

Triskaine
2014-09-16, 19:15:45
Wer ist WIR? :confused:

Sein Arbeitgeber (großer Distributor).

Dawn on Titan
2014-09-16, 19:17:06
Die letzten ATI-Karten die ich getestet hatte, waren mir allesamt viel zu laut.

Das liegt an den Partnerdesigns nicht an der GPU.

Wenn die 700-800 Euro für die 980 stimmen, dann ist das nur noch lächerlich.

memoal
2014-09-16, 19:19:55
Wer ist WIR? :confused:
Caseking vllt.?

Hübie
2014-09-16, 19:20:20
Alternate vllt.?

Ja raten kann ich auch :rolleyes:

Dawn on Titan
2014-09-16, 19:21:33
Völlig egal. 550-700 für nen Performance-Chip, das muss man aus Prinzip boykottieren.

aufkrawall
2014-09-16, 19:31:26
So viel kleiner als Hawaii ist der auch nicht und der Gedanke an hypothetisches 1:2 DP machts auch nicht besser, wenn der einzige Effekt ist, dass die Perf/W in Spielen schlechter ist. :rolleyes:

Für 500-550€ würd ich vielleicht sidegraden, aber ich guck auch jeden Pups mit madVR.

Unicous
2014-09-16, 19:34:02
Alternate vllt.?

Ja raten kann ich auch :rolleyes:

Paket.de?








:freak:

memoal
2014-09-16, 19:52:27
Ja raten kann ich auch :rolleyes:
Ich hab nicht geraten, ich habe abgelenkt! Es ist eine große Handelskette, die liegen zumeist über den niedrigsten Onlinepreisen und beteiligen sich nicht unbedingt am Preiskampf der Händler, Preisen also wohl empfohlene Herstellerpreise aus, also nicht aufregen. Die tatsächlichen Straßenpreise können trotzdem ziemlich schnell sinken.

Genau das hat @maximus_hertus etwas durch die Blume gesagt.;)

PS: Mit solchen Fragen kann man die Leute schon mal "vergraulen". Er hat schon des öfteren Preisempfehlungen abgegeben, die stimmten dann anfänglich auch. Dürften also Nvidia Vorstellungen+den Partnerangeboten entsprechen. Danke @maximus_hertus, der Rest war für deinen Arbeitgeber bestimmt, wollen ja alle was dran verdienen.

aths
2014-09-16, 19:53:46
Das liegt an den Partnerdesigns nicht an der GPU.

Wenn die 700-800 Euro für die 980 stimmen, dann ist das nur noch lächerlich.
Es liegt bei ATI mit daran, dass die Referenz-Designs, so sie existieren, nicht groß auf den Kühler achten. Da hat NV ab der GTX 580 dazugelernt und setzt einen Standard.

Wo hast du jetzt 800 Euro her?

sulak
2014-09-16, 19:57:27
Secret Sauce?

NVIDIA Maxwell GM204 has some cool features like Dynamic Super Resolution, which is basically new upscaling technology advertised as ‘4k Quality on a 1080p display’.

Aus dem hier: http://videocardz.com/52362/only-at-vc-nvidia-geforce-gtx-980-final-specifications

Oder noch irgend ein schimmeliges AA verfahren, CxSAA on DX11 :rolleyes:

The final buzzword for you is Multi-Pixel Programmable Sampling, technology improving sample randomization, and reducing quantization artifacts.

Loeschzwerg
2014-09-16, 19:57:36
Die tatsächlichen Straßenpreise können trotzdem ziemlich schnell sinken.

Nach hoffe ich doch, denn genau wie Ex3cut3r warte ich auf Ablösung. Haswell-E + Board + DDR4 frisst schon viel des Budgets auf, da brauchen es nicht noch 700€ für ne Graka... ~550€ sind Schmerzgrenze.

Wurschtelt halt die GTX 670 noch etwas weiter...

maximus_hertus
2014-09-16, 20:18:15
Ich hab nicht geraten, ich habe abgelenkt! Es ist eine große Handelskette, die liegen zumeist über den niedrigsten Onlinepreisen und beteiligen sich nicht unbedingt am Preiskampf der Händler, Preisen also wohl empfohlene Herstellerpreise aus, also nicht aufregen. Die tatsächlichen Straßenpreise können trotzdem ziemlich schnell sinken.

Genau das hat @maximus_hertus etwas durch die Blume gesagt.;)

PS: Mit solchen Fragen kann man die Leute schon mal "vergraulen". Er hat schon des öfteren Preisempfehlungen abgegeben, die stimmten dann anfänglich auch. Dürften also Nvidia Vorstellungen+den Partnerangeboten entsprechen. Danke @maximus_hertus, der Rest war für deinen Arbeitgeber bestimmt, wollen ja alle was dran verdienen.

Wow, danke :)

Habe noch einen letzten Preis (der sogar human ist):

Gigabyte GTX 970 Referenz 379,90

Wie schon richtig geschrieben worden ist, gehen wir keinen Preiskampf mit bzw. halten uns recht nah an die UVP.

memoal
2014-09-16, 20:18:30
Nach hoffe ich doch, denn genau wie Ex3cut3r warte ich auf Ablösung. Haswell-E + Board + DDR4 frisst schon viel des Budgets auf, da brauchen es nicht noch 700€ für ne Graka... ~550€ sind Schmerzgrenze. Wurschtelt halt die GTX 670 noch etwas weiter...
Nicht so laut, nicht dass das nV noch hört, dann fallen die Preise nie.:D

Gigabyte GTX 970 Referenz 379,90
Geht doch schon..., wenns schnell genug wird.

Brauchst dich nicht bedanken, man lebt in Foren nun mal vom Input der Insider. Daher muss niemand sagen wo er jetzt genau arbeitet. So seh ich das jedenfalls.

AffenJack
2014-09-16, 20:25:41
Wow, danke :)

Habe noch einen letzten Preis (der sogar human ist):

Gigabyte GTX 970 Referenz 379,90

Wie schon richtig geschrieben worden ist, gehen wir keinen Preiskampf mit bzw. halten uns recht nah an die UVP.

150€ unter den vorherigen GTX970 von dir genannten Preisen? Das kann ja nichtmal mehr mit der UVP begründet werden. Das passt einfach nicht zusammen.

Ailuros
2014-09-16, 20:27:51
Godmode,

WhyCry heisst der tolle vudeocardz Autor.

Affenjack,

:P

maximus_hertus
2014-09-16, 20:29:19
150€ unter den vorherigen GTX970 von dir genannten Preisen? Das kann ja nichtmal mehr mit der UVP begründet werden. Das passt einfach nicht zusammen.

Das sind alles Preise die in der Datenbank hinterlegt sind. Die 970er um 500 sind ja alles Customkarten, von daher nicht unmöglich.

Timbaloo
2014-09-16, 20:30:41
120€ Aufpreis für custom? Kühlkörper aus waffenfähigem Plutonium oder was? :D

Godmode
2014-09-16, 20:36:41
Godmode,

WhyCry heisst der tolle vudeocardz Autor.

Affenjack,

:P

Ok das wusste ich nicht.

Also doch DX12 für GM204. Hmm.

Spasstiger
2014-09-16, 20:39:59
Die Preise, die teilweise veröffentlicht werden, sind Distributorpreise ohne Steuer und ohne Händermarge. Schlagt 35% drauf, dann seid ihr bei den Endkundenpreisen.
379€ beim Distributor sind dann z.B. 512€ für den Endkunden.

Ailuros
2014-09-16, 20:40:10
120€ Aufpreis für custom? Kühlkörper aus waffenfähigem Plutonium oder was? :D

Es hat mich gerade jemand gefragt ob er mit einer 980 auf einem 1080p display 4k Auflösung bekommt. Soll ich ihm ja sagen?

Unicous
2014-09-16, 20:41:06
Das sind alles Preise die in der Datenbank hinterlegt sind. Die 970er um 500 sind ja alles Customkarten, von daher nicht unmöglich.

Und woher weißt du, dass es keine Platzhalter sind? Möchte dir ja nicht zu nahe treten, aber dieses Preisegeschacher ist eher ermüdend als erleuchtend.

Vor allem könnte man es ja auch mal langsam in einen separaten Thread auslagern. Genug Bildmaterial für eine "Preview" hat man ja nun jetzt.:freak:


@Ailuros

Hey, es ist eine Gewissensfrage. Ich würde wohl mit Ja antworten.:freak:

memoal
2014-09-16, 20:43:36
120€ Aufpreis für custom? Kühlkörper aus waffenfähigem Plutonium oder was? :D
Leute stellt euch doch nicht so an ;), OC+Zubehör, neuer Customkühler, Spielbundle. Das wird erstmal teurer, Konkurrenz nicht in Sicht. Wenn AMD kommt pendelt sich das wieder ein. Ist doch jetzt nicht neu. Ausserden gibt es immer wieder Aktualisierungen, wegen der Kurse und Preisangbote im gesamten Markt. Nvidia hat wohl Möglichkeiten bei der Marge um auf AMD zu reagieren und die Händler gucken auch nach rechts und links.

maximus_hertus
2014-09-16, 20:50:20
Und woher weißt du, dass es keine Platzhalter sind? Möchte dir ja nicht zu nahe treten, aber dieses Preisegeschacher ist eher ermüdend als erleuchtend.

Vor allem könnte man es ja auch mal langsam in einen separaten Thread auslagern. Genug Bildmaterial für eine "Preview" hat man ja nun jetzt.:freak:


@Ailuros

Hey, es ist eine Gewissensfrage. Ich würde wohl mit Ja antworten.:freak:

Weil die Preise bei früheren Launches gepasst haben.

Blediator16
2014-09-16, 20:54:58
Ich habe meine 660oc vor 1,5 Jahren für ca. 160€ gekauft. Wenn die 960 auch um den Dreh verfügbar sein sollte, werde ich sie mir mal genauer anschauen, es sei denn Nvidia dreht ihre Preise dort ebenfalls hoch...:(

AnarchX
2014-09-16, 21:08:33
120€ Aufpreis für custom? Kühlkörper aus waffenfähigem Plutonium oder was? :D
Laut aktuellen Informationen liegen wohl 200€ zwischen den beiden Referenzkarten, da ist eine 970 OC in der Mitte durchaus denkbar.

Fragt sich nur wofür man die 8+6-Pin 970 OC Karten braucht, wenn die >1,1GHz 16C 980 nur 165W TDP haben soll.
Vielleicht dürfen die AIBs mit +60W aus der 970 1,4GHz Boost prügeln und damit die Lücke füllen.

mironicus
2014-09-16, 21:21:47
Gab es eigentlich schon mal Reviewer im deutschen Raum die ein so beklommendes Gefühl hatten:
"Ich halt es nicht mehr aus! Ich will euch alles sagen! Scheiß auf die NDA! Ich fühl mich immer wie ein schlechter Mensch weil ich nichts sagen darf, dabei will ich allen Menschen eine große Freude bereiten!" :D

Unicous
2014-09-16, 21:30:04
Gab es eigentlich schon mal Reviewer im deutschen Raum die ein so beklommendes Gefühl hatten:
"Ich halt es nicht mehr aus! Ich will euch alles sagen! Scheiß auf die NDA! Ich fühl mich immer wie ein schlechter Mensch weil ich nichts sagen darf, dabei will ich allen Menschen eine große Freude bereiten!" :D

"Freude bereiten" und durch fristlose Kündigung einem selbst Leid zufügen?

Wieso überhaupt Freude bereiten? Bekommt man durch die Maxwell-Karten ungesteuerte Orgasmen oder ist das nur deiner kindlichen Neugier geschuldet?

Timbaloo
2014-09-16, 21:31:54
Warum so angespannt im roten Land? :D

dildo4u
2014-09-16, 21:32:55
Warum sollte man solche Trips aufgeben,ich erwarte glühende Reviews.

http://youtu.be/S4jckd7J4ko

Lightning
2014-09-16, 21:38:12
Ich habe meine 660oc vor 1,5 Jahren für ca. 160€ gekauft. Wenn die 960 auch um den Dreh verfügbar sein sollte, werde ich sie mir mal genauer anschauen, es sei denn Nvidia dreht ihre Preise dort ebenfalls hoch...:(

Schau dir die Preise der 760 als Referenz an. Die liegen auch jetzt noch bei 190€+, über 1 Jahr nach Release. Auf Basis dessen würde ich nicht damit rechenen, dass du in näherer Zukunft an eine 960 zu diesem Preis kommen wirst.

Ex3cut3r
2014-09-16, 21:41:50
Also Ailuros und mironicus machen mich ganz wuschig, will jetzt endlich diese "Feature" wissen. ;D

Loeschzwerg
2014-09-16, 21:44:40
Schnapp dir nen LKW voll mit Bier und ehe du dich versiehst ist Freitag :freak: :D

Ex3cut3r
2014-09-16, 21:46:25
Schnapp dir nen LKW voll mit Bier und ehe du dich versiehst ist Freitag :freak: :D

;D Gute Idee, Fußball läuft ja auch grade, passt. :D

Godmode
2014-09-16, 22:15:14
Also Ailuros und mironicus machen mich ganz wuschig, will jetzt endlich diese "Feature" wissen. ;D

Ich setze die Erwartungen sehr niedrig an, daher interessiert mich GM204 nicht wirklich. Falls er doch besser wird, dann freue ich mich.

Ex3cut3r
2014-09-16, 22:26:36
Ja, natürlich erwarte auch keine Wunder, aber diese Schreibweise, macht mich Wahnsinnig. ;)

memoal
2014-09-16, 22:45:53
Schau dir die Preise der 760 als Referenz an. Die liegen auch jetzt noch bei 190€+, über 1 Jahr nach Release. Auf Basis dessen würde ich nicht damit rechenen, dass du in näherer Zukunft an eine 960 zu diesem Preis kommen wirst.
Die dürfte ja gegen Tonga Pro stehen wenns der GM206 wird. Tonga ging für ca. 220 Euro in den Markt. Wenn man schneller ist/wird und sogar wieder effizienter wären die angeommenen 300$ oder weniger wohl irgendwie drin, müsste dann um die 220-240 Euro sein. Die 760 dürfte dann vielleicht sogar noch nachlassen.

Nakai
2014-09-16, 23:20:34
Das allerwichtigste wurde ja noch gar nicht erwaehnt fuer den 204 :P

Denverkerne? :freak:

€: Irgendwie ist GM204 ziemlich groß für nur ein 256Bit SI. GM107 ist nur 148mm² groß, welcher auch ein 128Bit SI hat. Mit nur 2MB-L2-Cache, genau soviel wie GM107, wird der Braten nicht fett. GM204 hätte noch genug Platz am Rand für mehr Interfaces. GM204 könnte noch irgendetwas besitzen. Wie wärs mit NVLink? Hat das nicht schon GK210?

horn 12
2014-09-16, 23:26:02
GTX 980 OC Version wie die Phantom dürften dann wohl um die guten 700+ Euro kosten und wohl die 20% auf eine GTX 780 TI Stock drauflegen können.
Jene starken OC Versionen werden wohl selektiert um Platz zu lassen für eine event. GTX 980 TI falls Ihnen AMD zu nahen kommen sollte, wiederhole sollte!

Godmode
2014-09-16, 23:31:52
Denverkerne? :freak:

€: Irgendwie ist GM204 ziemlich groß für nur ein 256Bit SI. GM107 ist nur 148mm² groß, welcher auch ein 128Bit SI hat. Mit nur 2MB-L2-Cache, genau soviel wie GM107, wird der Braten nicht fett. GM204 hätte noch genug Platz am Rand für mehr Interfaces. GM204 könnte noch irgendetwas besitzen. Wie wärs mit NVLink? Hat das nicht schon GK210?

Ich glaube er meinte DX12.

Die 2 im Codenamen wird schon etwas am Transitorenbudget genagt haben. :freak:

Nakai
2014-09-16, 23:36:08
Ich glaube er meinte DX12.

Die 2 im Codenamen wird schon etwas am Transitorenbudget genagt haben. :freak:

Wen interessiert DX12? Es sollte doch auch auf älterer Hardware laufen. Ergo sollte DX12 unterstützt werden. Ich sehe das als keine Neuigkeit.

Maxwell supportet auch Compute Capabilities 5.0.

Godmode
2014-09-16, 23:41:45
Wen interessiert DX12? Es sollte doch auch auf älterer Hardware laufen. Ergo sollte DX12 unterstützt werden. Ich sehe das als keine Neuigkeit.

Zumindest die Leute die sich immer aufgeregt haben wegen 11.x.

Btw. ich hab mir die Boardshots nachmal angesehen und das Refdesign der 980 hat zwei Phasen weniger als auf dem Board möglich wären. Das spricht jetzt doch für eine 980 Ti, bzw. noch mehr Potential für den dem GM204 Chip.

Konami
2014-09-16, 23:44:13
Zumindest die Leute die sich immer aufgeregt haben wegen 11.x.

Btw. ich hab mir die Boardshots nachmal angesehen und das Refdesign der 980 hat zwei Phasen weniger als auf dem Board möglich wären. Das spricht jetzt doch für eine 980 Ti, bzw. noch mehr Potential für den dem GM204 Chip.
Eine 980 Ti mit 18 SMM dann?

@Nakai: Feature Level 12 soll doch trotzdem zusätzlich kommen, auch wenn "DX12" softwaremäßig auf jeder DX11-Hardware läuft.

dildo4u
2014-09-16, 23:45:10
Eine 980 Ti mit 18 SMM dann?
Nein 980 ist der komplette Chip.

Nakai
2014-09-16, 23:49:55
@Nakai: Feature Level 12 soll doch trotzdem zusätzlich kommen, auch wenn "DX12" softwaremäßig auf jeder DX11-Hardware läuft.

Ich bin mir nicht sicher, ob DX12 nicht ein Reinfall wird. Die derzeitige Konsolenbasis sollte es dann nicht vollständig unterstützen. Könnte so enden, wie DX10.

Nein 980 ist der komplette Chip.

Da wär ich mir nicht nicht so sicher. Könnte natürlich sein. GM204 müsste schon seeehr stark taktbar sein, um die zwei Phasen zu ermöglichen.

memoal
2014-09-16, 23:57:42
Vielleicht hat er ja 17-18SMM, wobei 2 deaktviert sind, dann könnte man wohl noch eine reaktivieren, wenn man dann den Takt entsprechend erhöht müsste es für eine 980ti reichen.

Ex3cut3r
2014-09-17, 00:16:14
Ich bin mir nicht sicher, ob DX12 nicht ein Reinfall wird. Die derzeitige Konsolenbasis sollte es dann nicht vollständig unterstützen. Könnte so enden, wie DX10.



Da wär ich mir nicht nicht so sicher. Könnte natürlich sein. GM204 müsste schon seeehr stark taktbar sein, um die zwei Phasen zu ermöglichen.

Wage ich zu bezweifeln, DX11 wird/wurde von der Ps3/360 auch nicht benutzt und trotzdem wurden Games am PC verstärkt mit DX11 Pfad ausgestattet, dass DX10 sich nicht durchgesetzt lag imo an Vista.

aths
2014-09-17, 00:17:16
Vielleicht hat er ja 17-18SMM, wobei 2 deaktviert sind, dann könnte man wohl noch eine reaktivieren, wenn man dann den Takt entsprechend erhöht müsste es für eine 980ti reichen.
Wie soll das gehen, wenn ein GPC jeweils 4 SMM umfasst?

fondness
2014-09-17, 00:26:29
Mehr Bilder:
http://videocardz.com/52399/nvidia-geforce-gtx-980-pictured-up-close-first-look-at-reference-geforce-gtx-970

horn 12
2014-09-17, 00:29:50
http://videocardz.com/52399/nvidia-geforce-gtx-980-pictured-up-close-first-look-at-reference-geforce-gtx-970

Sorry, Doppelpost, bzw. 3 Minuten zu spät!

memoal
2014-09-17, 00:35:56
Wie soll das gehen, wenn ein GPC jeweils 4 SMM umfasst?
Stimmt dann müssten es 20 sein, dass wäre sicher zuviel.

http://pics.computerbase.de/5/5/2/3/9/5_m.png
http://www.computerbase.de/2014-02/nvidia-geforce-gtx-750-ti-maxwell-test/

Das heisst man müsste die gesamte GPC a4SMM insgesamt abschalten, soweit fehlerhaft?

Mehr Bilder
Die 970 mit dem gleichen Kühler und layout wie die 980 in Referenz? Was sind den die kürzeren Platinenlayouts mit der Plastikabdeckung für Karten? 960ti womöglich? Kann nicht sein, scheint wohl noch Herstellereigene Varainten der 970 zu geben:

http://cdn.videocardz.com/1/2014/09/Gainward-GTX-970-2.jpg
http://videocardz.com/52379/gainward-geforce-gtx-980-and-gtx-970-pictured

JaniC
2014-09-17, 00:56:00
Die 970 Phantom könnte meine 480 AMP! in Rente schicken, allerdings nicht für Mondpreise. 400€ für die 70er Reihe fände ich als Einführungspreis "normal".

Nakai
2014-09-17, 01:14:30
Wie soll das gehen, wenn ein GPC jeweils 4 SMM umfasst?

GK106 war inhomogen aufgebaut.

http://www.tomshardware.de/nvidia-geforce-gtx-660-geforce-gtx-650-benchmark-test,testberichte-241099-2.html

Nightspider
2014-09-17, 01:17:40
Wenn das so weiter geht wird es Freitag nichts mehr Neues von Nvidia geben, lol.

Die werden abkotzen bei den ganzen Leaks.

=Floi=
2014-09-17, 01:18:58
bei dem hohen preis ist das auch gerechtfertigt :ugly:

Nakai
2014-09-17, 01:27:08
NV wird den hohen Preis auch wegen dem niedrigen Stromverbrauch rechtfertigen. Falls sich nichts mehr GM204 ändert, müsste eine GTX980Ti um die 15% höher takten. Maximaler Takt wäre dann ziemlich genau 1,4GHz...ob das möglich ist?

Nightspider
2014-09-17, 01:34:41
Bei den Stromkosten heutzutage spart ein Vielzocker (~8h am Tag) schon fast 80 Euro im Jahr, wenn GTX980 100W weniger benötigt als 290X.

hasebaer
2014-09-17, 04:55:13
Das Game24 Dings beginnt bei uns um 3 Uhr morgens am Freitag oder?

Loeschzwerg
2014-09-17, 07:10:04
Btw. ich hab mir die Boardshots nachmal angesehen und das Refdesign der 980 hat zwei Phasen weniger als auf dem Board möglich wären. Das spricht jetzt doch für eine 980 Ti, bzw. noch mehr Potential für den dem GM204 Chip.

Gib mir ne Karte und ich löte dir die Bauteile dran :D

Die beiden oberen Phasen werden für den Speicher sein und die restlichen fünf für die GPU => Pack auf die Karte schnelleren Speicher, dreh das Power Budget nach oben und du hast deine GTX 980 Ti :)

@Nakai: Die 64 ROPs wollen auch irgendwo ihren Platz haben, die DIE Größe passt schon. Die GTX 980 nutzt für den Speicher, so wie es aussieht, nur eine Phase. Eine GTX 980 mit 8GB (PCB hinten mit Speicher bestückt) oder mit entsprechend schnellerem Speicher wird dann zwei benötigen, so wie es bei GK110 Karten der Fall ist.

Ailuros
2014-09-17, 07:45:03
Fuer mich ist die groesste Ueberraschung die 64 ROPs; es schwirrte schon im Hintergrund rum aber ich konnte es einfach nicht glauben. 4 GPCs bzw. 64 pixels/clock klingt schon fast schon als ob NV experimentieren wuerde zunehmend weniger high end chips in Profi-Maerkte zu benutzen.

Jetzt kommt aber gleich die naechste daemliche Frage: soll jetzt GM200 danach 96 ROPs haben?

Dawn on Titan
2014-09-17, 07:50:15
Oder einfach mehr DP-Power? Kann doch für NV auch ein Weg sein - Kunde braucht keine DP-Power -> GM204, Kunde braucht DP-Pwer -> GM200.

Ailuros
2014-09-17, 07:55:35
Oder einfach mehr DP-Power? Kann doch für NV auch ein Weg sein - Kunde braucht keine DP-Power -> GM204, Kunde braucht DP-Pwer -> GM200.

Mal abwarten wie viele FP64 SPs GM204 erstmal hat.

Godmode
2014-09-17, 08:13:24
Eine 980 Ti mit 18 SMM dann?

@Nakai: Feature Level 12 soll doch trotzdem zusätzlich kommen, auch wenn "DX12" softwaremäßig auf jeder DX11-Hardware läuft.

Nein ich dachte eher an höheren Takt. Die 4 GPCs sind schon so schön verteilt. 5 SMM/ GPC kann ich mir nicht vorstellen und das ein ganzer fünfter GPC drinnen ist auch nicht.

Bei den Stromkosten heutzutage spart ein Vielzocker (~8h am Tag) schon fast 80 Euro im Jahr, wenn GTX980 100W weniger benötigt als 290X.

80 Euro/Jahr? Also deswegen würde ich jetzt kein Fass aufmachen. Man muss dazu auch noch eine neue Karte kaufen. Nur sinnvoll wenn man von was altem auf was neues wechselt, niemals aber wenn man von was halb neuem auf was neues wechselt.

Gib mir ne Karte und ich löte dir die Bauteile dran :D

Die beiden oberen Phasen werden für den Speicher sein und die restlichen fünf für die GPU => Pack auf die Karte schnelleren Speicher, dreh das Power Budget nach oben und du hast deine GTX 980 Ti :)

@Nakai: Die 64 ROPs wollen auch irgendwo ihren Platz haben, die DIE Größe passt schon. Die GTX 980 nutzt für den Speicher, so wie es aussieht, nur eine Phase. Eine GTX 980 mit 8GB (PCB hinten mit Speicher bestückt) oder mit entsprechend schnellerem Speicher wird dann zwei benötigen, so wie es bei GK110 Karten der Fall ist.

Ja genau so hab ich das gemeint. 1,4 GHz und 8 GB Speicher ist dann schon ein "Ti" wert. Die Frage ist, wann soll diese erscheinen? Noch vor Weihnachten? GM200 ist ja auch nicht mehr ewig weg, also wird es da schon etwas eng. Es kann natürlich auch sein, dass dieses Refboard schon für die Herstellerkarten gemacht ist. Somit müssen die nicht wieder eine eigene Platine designen.


Fuer mich ist die groesste Ueberraschung die 64 ROPs; es schwirrte schon im Hintergrund rum aber ich konnte es einfach nicht glauben. 4 GPCs bzw. 64 pixels/clock klingt schon fast schon als ob NV experimentieren wuerde zunehmend weniger high end chips in Profi-Maerkte zu benutzen.

Jetzt kommt aber gleich die naechste daemliche Frage: soll jetzt GM200 danach 96 ROPs haben?

Der Gast aus dem anderen Thread erklärt warum man soviele ROPs verbaut:

ROPs werden zum lesen/schreiben bei compute verwendet bei NVidia, kann sein, dass Kepler deswegen so langsam war und weshalb Maxwell richtig was reissen kann (jedenfalls 750Ti).

(Ich spreche von rw-memory, bei ro-memory gibt es mittels der TMUs einen fast path, I know).

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10353894&postcount=6

Wenn die ROPs am SI hängen und es da keine Konfigurationsmöglichkeiten gibt, dann wird GM200 96 ROPs haben.

Ailuros
2014-09-17, 08:17:36
Und jetzt brauchen wir einen Gipsel uns das mal schnell zu erklaeren. Im Notfall machen wir einen thread fuer Maxwell im Technologie-forum auf.

Loeschzwerg
2014-09-17, 08:38:52
Es kann natürlich auch sein, dass dieses Refboard schon für die Herstellerkarten gemacht ist. Somit müssen die nicht wieder eine eigene Platine designen.

Du meinst u.a. für OC Karten? Glaube ich nicht, da werden die üblichen Verdächtigen schon zu ihren "Holzhammer"-Lösungen greifen, da geht dann für die Extreme-OCer eh mehr :)

In der Entwicklung macht es halt schlichtweg keinen Sinn das PCB großartig zu ändern, nur weil man festgestellt hat, dass man nicht alle Phasen für Produkt XY braucht. Die Lötpunkte für den Speicher (siehe Rückseite der GTX 980) kann man schnell entfernen (keine Stunde Arbeit und man blockt ungewünschte 8GB Versionen), komplette Phasen rausnehmen ist da schon komplexer u.v.a. unnötig.

Dawn on Titan
2014-09-17, 08:47:11
8GB sind wahrscheinlich.

Loeschzwerg
2014-09-17, 08:51:41
Die wird es geben, aber nur wenn NV will bzw. eine gute Zeit nach den 4GB Karten.

Timbaloo
2014-09-17, 08:51:49
Hat sich mal jemand die Mühe gemacht das Board-Layout mit bestehenden Layouts zu vergleichen? Evtl. wurde da wirklich nur ein fertiges Layout recycled und einfach nicht voll bestückt.

Laut wccftech (naja...) sind die Preise angepasst worden und das NDA soll wohl schon am 18. fallen... Lass ich mal so im Threadraum stehen:
http://wccftech.com/nvidia-geforce-gtx-970-official-msrp-299-nonreference-models-retail-329349/
http://wccftech.com/evga-geforce-gtx-980-gtx-970-feature-generation-acx-20-cooler-ball-bearing-design/

Kann mir allerdings schon vorstellen, dass NV erst einen total übertriebenen Preis ausgeben und ihn dann kurz vor Launch nach unten Schrauben, damit kann man die Leute teilweise gut verarschen. Also bei mir klappt es :D

Skysnake
2014-09-17, 08:59:34
Du redest von einem Chip, der GK 104 ablöst. Wir erinnern uns dunkel, bevor Nvidia uns mit der 600er Reihe angefangen hat abzuzocken und die bekannten Jünger das als legitim und vollkommen gerechtfertigt darstellten, waren solche Chips auch schon mal im Preisbereich von 200,- € (sogar darunter) zu haben - damals... :freak:

Manch einer erinnert sich vielleicht noch an die 460er (GF 104), die damals der absolute Renner war. Für die 460er meiner Frau habe ich AFAIR ca. 180 € gezahlt. Und das war ein custom design - schön leise.

Ich finde es echt erstaunlich wie das Nvidia Marketing hier einige im Griff hat.
Ja, die Verteidigung von 700€ für so nen Chip ist schon unverständlich.

Klar, nVidia liefert wohl erstaunlich viel Leistung bei erstaunlich wenig Verbrauch, aber sooooo viel ist das dann doch nicht Wert. Vor allem nicht in Anbetracht von einer Fertigung, die schon mehrfach benutzt wurde...

Wenn das gleiche Ergebnis, mit nem neuen Prozess gekommen wäre, würde ich eventuell sogar alle Augen inkl Hühneraugen zukneifen, und sagen, mei liegt halt an den echt beschissenen Yields im Moment, das ändert sich aber auch bald. Ganz klein ist der Chip ja auch nicht.

Aber so? Nö sorry nVidia, das ist eindeutig zu teuer.

Ist wohl eher eine Frage wieviel Takt das Design zusätzlich zu dem schon sehr hohen default-Takt noch verträgt. Eine 50W GPU kann ich auch nicht auf 2Ghz übertakten nur weil ich Spielraum bei der TDP hätte.
/sign

Man sieht es ja z.B. auch bei Haswell-EP wieder. Da gibt es einfach ne Wand, gegen die man rennt und dann ist ganz schnell schluss.

2GHz sind sicherlich nicht drin, außer mit LN2. So 1,4 bis 1,5 GHz könnten aber wohl wirklich machbar sein, die Effizienz geht dann aber sicherlich in den Keller, sollte aber dennoch voll auf akzeptabel sein, also deutlich besser als bei aktuellen OC-Karten.

Man stelle sich nur vor wenn die 20nm oder 16nm bereit gewesen wäre. Das Ding wäre wieder ein echtes Monster geworden.
Oder auch mehr oder weniger der gleiche Chip, weil man weniger Risiken eingeht, alles luftiger plant, mehr Redundanz einbaut usw usw.

Von neuen Prozessen sollte man sich gerade zum Start nicht mehr so viel versprechen wie früher.

Gatedensity ist auch immer so ein zweischneidiges Schwert. Ist ja toll, wenn die hoch ist, aber was bringt es dir, wenn Sie so hoch wird, dass du die Signale gar nicht mehr anschließen kannst? Schon bei 65nm musste gut überlegen, was du machst, damit du alles am Ende auch verkabelt bekommst.

Interessant wie sehr hier die Leute jubeln weil sie für deutlich mehr Geld dieselbe Leistung bekommen. Die Effizienz scheint enorm wichtig zu sein, obwohl es wenig unmittelbare Vorteile dadurch gibt.
NAja, GM204 wird 100% sicher auch in den Mobile-Bereich gehen, und da wird AMD ziemlich heftig auf die Fresse bekommen, wenn Sie nicht schleunigst was deutlich effizienteres als aktuell nachliefern!

Sorry, aber wenn die Effizienzerwartungen wirklich erfüllt werden, wovon man ausgehen kann zum aktuellen Zeitpunkt, dann macht es einfach keinen Sinn eine dGPU von AMD zu verbauen. nVidia wird gegenüber den OEMs auch sicherlich nicht ganz so gesalzene Preise verfahren, gleichzeitig ist für die der Verbrauch aber auch noch entscheidender, wegen längeren Akkulaufzeiten eben!

Für Desktop ist es nicht ganz so wichtig, vor allem aufgrund der extrem hohen Preise. Da muss man schon sagen, das aktuell wohl ziemlich geschröpft wird. Mal schauen, wie es in 1-3 Monaten aussieht.

Für Besicher einer Karte der 600er+ Serie aber in meinen Augen unterm Strich dann kein Grund aufzurüsten. Wer durch die GTX780Ti keinen Sinn im Aufrüsten gesehen hat, muss es jetzt an sich auch nicht tun.


Wird bestimmt ziemlich ARM sein.
*duckundweg*
Wäre eine extreme! überraschung. An sich hat nVidia ja auf einer HPC-Konferenz gesagt, dass die ARM Cores (erstmal) nicht kommen.

Denverkerne? :freak:

€: Irgendwie ist GM204 ziemlich groß für nur ein 256Bit SI. GM107 ist nur 148mm² groß, welcher auch ein 128Bit SI hat. Mit nur 2MB-L2-Cache, genau soviel wie GM107, wird der Braten nicht fett. GM204 hätte noch genug Platz am Rand für mehr Interfaces. GM204 könnte noch irgendetwas besitzen. Wie wärs mit NVLink? Hat das nicht schon GK210?
NV-Link?

Ziemlich sicher nicht. Warum sollte man auch? Abseits von Multi-GPU gibt es einfach keinen Sinn im Consumermarkt so ein Ding zu bringen, und Multi-GPU auf Basis von GM204 würde GM200 VIEL zu sehr in Bedrängnis bringen.

Wenn dann bringt GM200 als erster Chip einen NV-Link. Ich glaube aber eher nicht, das GM200 schon einen NV-Link haben wird.


Fuer mich ist die groesste Ueberraschung die 64 ROPs; es schwirrte schon im Hintergrund rum aber ich konnte es einfach nicht glauben. 4 GPCs bzw. 64 pixels/clock klingt schon fast schon als ob NV experimentieren wuerde zunehmend weniger high end chips in Profi-Maerkte zu benutzen.

Jetzt kommt aber gleich die naechste daemliche Frage: soll jetzt GM200 danach 96 ROPs haben?
Keine Ahnung.

Ich bin auch überrascht. Ist das eventuell der Contentgeneration-Industrie geschuldet, um sich da mit den kleinen Quadros wieder Luft zu AMD zu verschaffen? Was anderes fällt mir da auch nicht wirklich ein als Begründung :confused:

Und jetzt brauchen wir einen Gipsel uns das mal schnell zu erklaeren. Im Notfall machen wir einen thread fuer Maxwell im Technologie-forum auf.
/sign gute Idee, wobei das schon sehr sehr sehr tief in Implementierungsdetails geht. Rein gefühlsmäßig würde ich jetzt nicht erwarten, das hierzu etwas in öffentlichen Dokus zu finden ist, wie die Kopplung da genau aussieht.

Mir ist da zumindest keine Stelle bekannt, wo auf so etwas eingegangen wird, und ich hatte derartige Sachen schon versucht herauszufinden. Gipsel ist da ja aber immer eine Fundgrube von Informationen, die man selbst übersieht. ;D

Schaumer also mal.

Marodeur
2014-09-17, 09:09:06
Die 970 Phantom könnte meine 480 AMP! in Rente schicken, allerdings nicht für Mondpreise. 400€ für die 70er Reihe fände ich als Einführungspreis "normal".

Eigentlich hammer wenn ich überleg das ich die GTX 570 für ca. 300 € bekommen habe. Die war damals ja das untere High-End segment.... für 300 Tacken... Und jetzt soll man dafür nichtmal eine anständige Performance-Karte bekommen und es ist "normal"? Seh nur ich da eine kleine Schieflage? :freak:

dargo
2014-09-17, 09:11:03
Laut wccftech (naja...) sind die Preise angepasst worden und das NDA soll wohl schon am 18. fallen... Lass ich mal so im Threadraum stehen:
http://wccftech.com/nvidia-geforce-gtx-970-official-msrp-299-nonreference-models-retail-329349/
http://wccftech.com/evga-geforce-gtx-980-gtx-970-feature-generation-acx-20-cooler-ball-bearing-design/

Das wären immerhin recht faire Preise zum Release imo. Straßenpreise würden sich dann wohl auf ~260-285€ für die GTX970 und ~390-430@ für die GTX980 belaufen.

Rente
2014-09-17, 09:16:01
Eigentlich hammer wenn ich überleg das ich die GTX 570 für ca. 300 € bekommen habe. Die war damals ja das untere High-End segment.... für 300 Tacken... Und jetzt soll man dafür nichtmal eine anständige Performance-Karte bekommen und es ist "normal"? Seh nur ich da eine kleine Schieflage? :freak:
Das ist doch immer wieder die gleiche Leier, GM204 ist High-End bis zum Erscheinen von GM200.

Ist die GTX970 oder 980 langsamer als vorherige Performance-Karten (GTX760/770)? Nein.
Wird die 980 auf die Niveau des vorherigen High-Ends liegen? Vermutlich.
Sind die neuen Karten eindeutig schneller als deine GTX570? Ja.
Bietet AMD aktuell etwas ähnliches an? Nein, da können nur die "Monster" dagegen halten.

Verarbschiedet euch doch mal von dieser leidigen Einordnung nach dem Transistor-Count...

€: Die Preise sind aus meiner Sicht nicht realistisch, so sind sie wieder zu niedrig für nVidia-Verhältnisse.

Dawn on Titan
2014-09-17, 09:17:40
Die Preise hören sich natürlich besser an.

dargo
2014-09-17, 09:22:51
Was mich an der ganzen Sache am meisten wundert... wieso spendiert man beiden Karten die gleiche Speicherbandbreite? Die GTX980 hat den Daten nach grob 30% mehr Rohleistung. Sind langsamere Chips nicht billiger, dass es sich lohnt? Oder wird wieder die GTX980 relativ stark an der Bandbreite hängen wie damals GTX680 vs. GTX670?

Marodeur
2014-09-17, 09:46:19
Das ist doch immer wieder die gleiche Leier, GM204 ist High-End bis zum Erscheinen von GM200.


Wie gesagt, damals war die GTX 570 auch High End und ist für um die 300 Euro gestartet. Von irgendwelchem Transistorcount red ich doch gar nicht sondern rein von der Einordnung.

Wenn der Straßenpreis der 970 wie grad angedeutet eh etwas niedriger ausfällt als erst befürchtet ists ja ok.

Loeschzwerg
2014-09-17, 09:49:30
Hat sich mal jemand die Mühe gemacht das Board-Layout mit bestehenden Layouts zu vergleichen? Evtl. wurde da wirklich nur ein fertiges Layout recycled und einfach nicht voll bestückt.


Große Änderungen gab es augenscheinlich nur bei der Spannungsversorgung (760 vs 970; 770 vs 980), alles weitere ist mehr oder weniger identisch.

AffenJack
2014-09-17, 09:55:52
Das wären immerhin recht faire Preise zum Release imo. Straßenpreise würden sich dann wohl auf ~260-285€ für die GTX970 und ~390-430@ für die GTX980 belaufen.

Nur ist es Wcftech, die bisher so gute Leaks hatten, dass ich in meiner Glaskugel besseres Zeug produzieren kann. Im Update wird ja auch noch der GTX980 Preis von 550$ genannt. Die 970 im Vergleich für 300$? Nee, das macht überhaupt keinen Sinn. Da würde sich jeder 970SLi kaufen der mehr Leistung will. Mehr als 50% Aufschlag kann selbst Nv kaum für die 980 verlangen. Die 550$ könnten hinkommen, aber so billig wird die 970 niemals.

Zur Speicherbandbreite, klar wird die stark daran hängen. Das Ding hat 30% weniger als die 780TI, selbst mit neuer Kompression usw wird das recht kritisch. Deswegen gleiche Bandbreite und deutlich weniger Shader bei der 970.

Dural
2014-09-17, 09:59:56
für max 500.- ist sie gekauft, mehr werde ich für einen GM204 nicht zahlen.

Edit:
für was wohl die klappe auf der rückseite gut ist? für die RMA?

gnomi
2014-09-17, 10:15:42
Mehr als 500 Euro für die 980 kommen für mich prinzipiell nicht in Frage.
Das ist so seit jeher die magische Grenze für Single High End/Performance.
Eine Ausnahme wäre, wenn Kühllösung und Übertaktbarkeit jetzt besonders aufwendig und überzeugend wären.
Ansonsten tut die 680 eben ein paar Monate weiter ihren Dienst, bis die Preise vernünftig sind.
Ryse und Dragon Age Inquisition stemmt die auch noch locker.

Loeschzwerg
2014-09-17, 10:42:45
Edit:
für was wohl die klappe auf der rückseite gut ist? für die RMA?

Könnte für OCer interessant sein, die Spannungen lassen sich hier abgreifen und Hard-Mods durchführen.

Dural
2014-09-17, 11:04:09
dachte ich zuerst auch, aber das bei einer referenz karte? :rolleyes:

Loeschzwerg
2014-09-17, 11:11:30
Why not? :)

Extrem OCer haben schon immer an den Karten herumgefummelt und hier haben wir die erste mit einem Blech auf der Rückseite. Macht man es den Leuten etwas einfacher ^^

OC Events oder Rekorde waren doch schon immer super Werbung für sämtliche HW Enthusiasten/Begeisterte.

Edit: Oder aber wir werden das Blech nie im Handel sehen, das Bild stammt immerhin von einem Sample oder Review Board.

Ailuros
2014-09-17, 11:14:58
Nur ist es Wcftech, die bisher so gute Leaks hatten, dass ich in meiner Glaskugel besseres Zeug produzieren kann. Im Update wird ja auch noch der GTX980 Preis von 550$ genannt. Die 970 im Vergleich für 300$? Nee, das macht überhaupt keinen Sinn. Da würde sich jeder 970SLi kaufen der mehr Leistung will. Mehr als 50% Aufschlag kann selbst Nv kaum für die 980 verlangen. Die 550$ könnten hinkommen, aber so billig wird die 970 niemals.

Zur Speicherbandbreite, klar wird die stark daran hängen. Das Ding hat 30% weniger als die 780TI, selbst mit neuer Kompression usw wird das recht kritisch. Deswegen gleiche Bandbreite und deutlich weniger Shader bei der 970.

Sei nicht so gemein; sie sind um einiges besser beim schamlosen abschreiben als videocardz.

Kriton
2014-09-17, 12:36:32
Laut wccftech (naja...) sind die Preise angepasst worden und das NDA soll wohl schon am 18. fallen... Lass ich mal so im Threadraum stehen:
http://wccftech.com/nvidia-geforce-gtx-970-official-msrp-299-nonreference-models-retail-329349/
http://wccftech.com/evga-geforce-gtx-980-gtx-970-feature-generation-acx-20-cooler-ball-bearing-design/

Kann mir allerdings schon vorstellen, dass NV erst einen total übertriebenen Preis ausgeben und ihn dann kurz vor Launch nach unten Schrauben, damit kann man die Leute teilweise gut verarschen. Also bei mir klappt es :D

Siehe:

http://de.wikipedia.org/wiki/Ankerheuristik

uweskw
2014-09-17, 13:11:48
Mehr als 500 Euro für die 980 kommen für mich prinzipiell nicht in Frage.
Das ist so seit jeher die magische Grenze für Single High End/Performance.
Eine Ausnahme wäre, wenn Kühllösung und Übertaktbarkeit jetzt besonders aufwendig und überzeugend wären.
Ansonsten tut die 680 eben ein paar Monate weiter ihren Dienst, bis die Preise vernünftig sind.
Ryse und Dragon Age Inquisition stemmt die auch noch locker.

Da es die 780ti derzeit schon ab 429,00€ gibt und die 980er vom OC Potential wohl nicht auf 20% kommt, wären mir 499 schon deutlich zuviel. Aber das muss jeder für sich entscheiden......

Greetz
U.S.

memoal
2014-09-17, 13:14:04
MSI 970 Gaming, schade nicht so viele Anschlüsse:
http://cdn.videocardz.com/1/2014/09/MSI-GeForce-GTX-970-GAMING-TF5-2-850x425.jpg
http://videocardz.com/52421/msi-geforce-gtx-970-gaming-with-twinfrozr-v-cooling-detailed

Sieht das so aus als wäre die Spannungsversorgung völlig anders positioniert? Oder ist das eher eine andere Karte? Mit 1x8 und 1x6 Pin PCIe Connetor und 5 Heatpipes, höchwahrscheinlich fettes OC-Indiz?

Bei der Strix von Asus das Gleiche:
http://cdn.videocardz.com/1/2014/09/ASUS-GeForce-GTX-970-STRIX-graphics-card.jpg
http://cdn.videocardz.com/1/2014/09/ASUS-GeForce-GTX-970-STRIX-graphics-card.jpg

Die Strix nur mit 3 Heatpipes, 1x8mm; 2x6mm...dann wird die 148w TDP womöglich stimmen.

EVGA willl mit ACX2.0 eine neue Lüftertechnologie entwickelt haben.

Kriton
2014-09-17, 13:16:02
Das ist doch immer wieder die gleiche Leier, GM204 ist High-End bis zum Erscheinen von GM200.

Ist die GTX970 oder 980 langsamer als vorherige Performance-Karten (GTX760/770)? Nein.
Wird die 980 auf die Niveau des vorherigen High-Ends liegen? Vermutlich.
Sind die neuen Karten eindeutig schneller als deine GTX570? Ja.
Bietet AMD aktuell etwas ähnliches an? Nein, da können nur die "Monster" dagegen halten.

Verarbschiedet euch doch mal von dieser leidigen Einordnung nach dem Transistor-Count...


Es geht darum wie hoch die Gewinnspanne ist und was man bereit ist an dieser Stelle zu akzeptieren. nach Deiner Argumentation wäre in einem Monopol eine beliebige (z.B. 2000%) Gewinnspanne bei einem neuen Produkt in Ordnung (aus Sicht des Käufers, nicht des Anbieters, der diese natürlich möglichst groß haben möchte) wenn das Produkt nur ausreichend gut im Verhältnis zu einem theoretischen Vorprodukt ist.
Aus Käufersicht sehe ich einen gewissen "zulässigen" Gewinn (unter Berücksichtigung des unternehmerischen Risikos), aber abzocken muss ich mich deswegen nicht lassen.
Der Transistor-Count ist auch nicht die wirklich betrachtete Größe (IMHO), sondern die Größe des Chips unter Berücksichtigung der Ausbeute auf Basis des genutzten Fertigungsverfahrens. Sprich: Die Herstellungskosten für Nvidia.

Die Einstufungen Performance, Highend, Mainstream etc. sind insoweit nur Hilfskonstrukte um verschiedene Variablen zu einer Einstufung zu bündeln und damit leichter verständlich zu machen. Wiederum: IMHO.

Man kann das sicher so betrachten wie Du. Ist aber IMHO eher die Angebots- als die Nachfrageseite. Weiß nicht wo Du stehst, aber ich verkaufe keine Grafikkarten von Nvidia.

mironicus
2014-09-17, 13:19:21
Wenn die TDP so niedrig ist, wäre es da nicht nachvollziehbar das NVidia Maßnahmen ergriffen hat, die eine zu starke Übertaktung verhindern? Wenn man eine GTX 980 auf 250 Watt hoch prügeln würde, bräuchte man den großen Chip wohl nicht mehr zu kaufen. :)

dildo4u
2014-09-17, 13:21:25
Da es die 780ti derzeit schon ab 429,00€ gibt und die 980er vom OC Potential wohl nicht auf 20% kommt, wären mir 499 schon deutlich zuviel. Aber das muss jeder für sich entscheiden......

Greetz
U.S.
Imo keine Option man hat ja gesehen was mit der GTX580 passiert ist,die GPU wäre Heute schnell genug für 1080p hat aber zu wenig V-Ram.

Hier ein Beispiel wo eine 6GB 780 deutlich besser läuft als eine mit 3GB.

By far the biggest advantage for the ASUS Strix GTX 780 over the reference GTX 780, Bioshock Infinite is able to take advantage of the larger memory buffer and improve GeForce performance to basically the same level as the Radeon R9 290X. This is easily the biggest jump in performance and is likely a combination of hardware and software, but the result are interesting none the less.

http://www.pcper.com/reviews/Graphics-Cards/ASUS-Strix-GTX-780-6GB-Review-Nearly-Silent-Gaming/Bioshock-Infinite

Und das ist ein spielbares Szenario was sich im FPS Bereich über 60 bewegt,kein wie hau ich den V-Ram voll bis es nicht mehr läuft.

uweskw
2014-09-17, 13:29:17
Imo keine Option man hat ja gesehen was mit der GTX580 passiert ist,die GPU wäre Heute schnell genug für 1080p hat aber zu wenig V-Ram.

Hier ein Beispiel wo eine 6GB 780 deutlich besser läuft als eine mit 3GB.

........




Sind aber auch 6 GB Ram, nicht nur 4 wie es wohl bei der 980 erstmal sein wird. Ob 3 oder 4 GB macht das Kraut nicht wirklich fett.... Deswegen würd ich mir bei 70,00€ Preisdifferenz eher die 780Ti holen. Wird mit max. OC wohl schneller sein. Aber warten wir es ab.

greetz
U.S.

Ailuros
2014-09-17, 13:29:41
Wenn die TDP so niedrig ist, wäre es da nicht nachvollziehbar das NVidia Maßnahmen ergriffen hat, die eine zu starke Übertaktung verhindern? Wenn man eine GTX 980 auf 250 Watt hoch prügeln würde, bräuchte man den großen Chip wohl nicht mehr zu kaufen. :)

Bis zu einem Punkt stimmt es ja auch, nur bremst dann irgendwo die Bandbreite dass es wohl doch nie so weit kommt.

Dawn on Titan
2014-09-17, 13:32:13
Wenn die TDP so niedrig ist, wäre es da nicht nachvollziehbar das NVidia Maßnahmen ergriffen hat, die eine zu starke Übertaktung verhindern? Wenn man eine GTX 980 auf 250 Watt hoch prügeln würde, bräuchte man den großen Chip wohl nicht mehr zu kaufen. :)

Du kannst einen GM107 mit 250W auch nicht auf GM204 Niveau treten. ;)

memoal
2014-09-17, 13:37:16
Wenn die TDP so niedrig ist, wäre es da nicht nachvollziehbar das NVidia Maßnahmen ergriffen hat, die eine zu starke Übertaktung verhindern? Wenn man eine GTX 980 auf 250 Watt hoch prügeln würde, bräuchte man den großen Chip wohl nicht mehr zu kaufen. :)
Könnte sein das der GM200 nicht unbedingt die gleichen Eigenschaften vermissen lässt, soweit professionelle Dinge aussen vor bleiben und schneller werden könnte als erwartet. Die 148 Watt der 970 bei womöglich 780 Leistung oder drüber sind ca. 75w Effizienzersparnis. Wenn Nvidia die bei GM200 einsparen kann und dann den Takt höher setzt + dem breiteren SI wird das wohl eine Granate. UHD dann wohl mit einer einzelnen Karte kein Problem mehr. Frag mich wie die das machen? Hoffe AMD kann da gegen halten sonst explodieren die Preise.

Du kannst einen GM107 mit 250W auch nicht auf GM204 Niveau treten. ;)
Jaein; ein Hersteller verbaut keinen 8xPIN PCIe Stromanschluss umsonst, dass längere Platinenlayout und die suzätzlichen Masse-Phasen würden dann umsonst sein. Oder man klatscht alle Chips einer Generation und Segment (970/980) auf das gleiche Layout. Denke schon das man noch etwas aus GM204 rausquetschen kann, das OC Feature steht auf fast jedem Karton!

Sollte das Design der Gaming 970 so stimmen, hat MSI lange Zeit gehabt zu tunen (dürfte ja keine Refrenz sein). Ich bin besonders auf diese Karte gespannt, die 780 war auch nicht schlecht.

yamo
2014-09-17, 13:40:15
Lt. (Update) Wccftech (http://wccftech.com/nvidia-geforce-gtx-970-official-msrp-299-nonreference-models-retail-329349/)soll die GTX 980 Retail jetzt bei 549 USD liegen, die 970 dagegen bei ~300USD bleiben.
Ziemlich heftige Differenz für die gebotene Mehrleistung einer 980.
Im 3dMark kratzt die 970 an der Titan (wenn´s keine fake ist):
http://a.disquscdn.com/uploads/mediaembed/images/1303/6546/original.jpg

dildo4u
2014-09-17, 13:42:39
Sind aber auch 6 GB Ram, nicht nur 4 wie es wohl bei der 980 erstmal sein wird. Ob 3 oder 4 GB macht das Kraut nicht wirklich fett.... Deswegen würd ich mir bei 70,00€ Preisdifferenz eher die 780Ti holen. Wird mit max. OC wohl schneller sein. Aber warten wir es ab.

greetz
U.S.
Es macht den Unterschied zwischen spielbar und merkbarem Stuttering aus,wie die 290X zeigt reichen 4GB.

Eisenoxid
2014-09-17, 13:46:15
Lt. (Update) Wccftech (http://wccftech.com/nvidia-geforce-gtx-970-official-msrp-299-nonreference-models-retail-329349/)soll die GTX 980 Retail jetzt bei 549 USD liegen, die 970 dagegen bei ~300USD bleiben.
Ziemlich heftige Differenz für die gebotene Mehrleistung einer 980.
Im 3dMark kratzt die 970 an der Titan (wenn´s keine fake ist):
http://a.disquscdn.com/uploads/mediaembed/images/1303/6546/original.jpg
Wenn sich das bewahrheiten sollte, fände ich das wiederum sehr fair - zumindest für die 970. Übermorgen wissen wir mehr.

Warum überpspringen die Grakahersteller eigentlich immer wieder Modellkennzeichnungen? NV 3XX gabs nicht, und jetzt wird wieder 8XX ausgelassen...welchen Sinn hat das (außer Verwirrung der weniger informierten Endkunden)?

Kriton
2014-09-17, 13:49:50
Im Mobilbereich gibt es bereits die 800er Serie von Nvidia. Rebranding zugunsten des Marketings für die OEMs.

Effe
2014-09-17, 13:50:40
OEMs brauchen jedes Jahr was Neues, da muss die 7970 zur 8970 werden und die 780m wird zur 880m. Natürlich nur mit 50GB DDR3.

memoal
2014-09-17, 13:50:46
Im 3dMark kratzt die 970 an der Titan (wenn´s keine fake ist)
Sieh dir mal den Boostclock an. Fast 1,3GHz. Wenn die Karte diesen nur annähernt halten kann, und das bei 148-165w TDP, Wahnsinn. Das ist schon recht ordentlich. OC Freaks dürften bereits schreinen, "her damit".

Godmode
2014-09-17, 13:52:00
Lt. (Update) Wccftech (http://wccftech.com/nvidia-geforce-gtx-970-official-msrp-299-nonreference-models-retail-329349/)soll die GTX 980 Retail jetzt bei 549 USD liegen, die 970 dagegen bei ~300USD bleiben.
Ziemlich heftige Differenz für die gebotene Mehrleistung einer 980.
Im 3dMark kratzt die 970 an der Titan (wenn´s keine fake ist):
http://a.disquscdn.com/uploads/mediaembed/images/1303/6546/original.jpg

Wenn das stimmt, könnte eine 980 auf ca 6000 Punkte kommen, was dann doch einiges mehr wäre, als eine 780 Ti schafft.

Dawn on Titan
2014-09-17, 13:52:38
87,5% der Cuda Cores für 670 zu 680 gegen 81,25% für 970 gegen 980.
80% der Cuda Cores für 780 gegen 780ti.
70% des Preises für 670 zu 680 gegen 54% des Preises für 970 gegen 980.
71% des Preises für 780 zu 780ti.

Das glaube ich nicht. Bei 450-499$ wäre die 980 realistisch.

yamo
2014-09-17, 13:56:06
Wenn sich das bewahrheiten sollte, fände ich das wiederum sehr fair - zumindest für die 970. Übermorgen wissen wir mehr.

Warum überpspringen die Grakahersteller eigentlich immer wieder Modellkennzeichnungen? NV 3XX gabs nicht, und jetzt wird wieder 8XX ausgelassen...welchen Sinn hat das (außer Verwirrung der weniger informierten Endkunden)?

Meiner M. n. beantwortest Du Deine Frage selbst (Verwirrung der weniger informierten Endkunden). Marketing halt.
Mal schauen, was für 4k P/L mäßig am besten ist. 970 SLI oder 980?
Es spricht ja fast alles für Ersteres, macht aber marktwirtschaftlich keinen Sinn.
GM200 kann mir aufgrund der zu erwartenden Titan-Preise und nahendem Pascal gestohlen bleiben.

dildo4u
2014-09-17, 13:57:40
Meiner M. n. beantwortest Du Deine Frage selbst (Verwirrung der weniger informierten Endkunden). Marketing halt.
Mal schauen, was für 4k P/L mäßig am besten ist. 970 SLI oder 980?
Es spricht ja fast alles für Ersteres, macht aber marktwirtschaftlich keinen Sinn.
GM200 kann mir aufgrund der zu erwartenden Titan-Preise und nahendem Pascal gestohlen bleiben.
Die 970 wird 400€ kosten sonst hätte man den Preis der 780 unter 300€ senken müssen.

aths
2014-09-17, 14:01:18
Im Mobilbereich gibt es bereits die 800er Serie von Nvidia. Rebranding zugunsten des Marketings für die OEMs.
Es gab auch andere Modelle im Mobil-Bereich, ohne dass im Desktop-Markt eine Serie namentlich übersprungen wird.

"980" klingt wie "kurz vor 1000", praktisch wie eine ausgereifte Ultra-High-End-Lösung, obwohl es sich nur um die Performance-Version handelt.

Dawn on Titan
2014-09-17, 14:01:25
780 ist EoL.

Godmode
2014-09-17, 14:02:56
Die 970 wird 400€ kosten sonst hätte man den Preis der 780 unter 300€ senken müssen.

Bei der 570 und 580 war die 570 sehr billig war im vergleich zur 580. Ich hab mir damals mein erstes SLI mit zwei 570ern gebaut. Vielleicht wird das ja wiederholt.

yamo
2014-09-17, 14:15:58
Die 970 wird 400€ kosten sonst hätte man den Preis der 780 unter 300€ senken müssen.

Ich sehe das auch so. Das macht keinen Sinn, auch wenn NV Versionen der 970 TI nachschiebt.

memoal
2014-09-17, 14:22:27
Ich sehe das auch so. Das macht keinen Sinn, auch wenn NV Versionen der 970 TI nachschiebt.
Ich denke das es diese Karte definitiv geben "kann", die belegt dann den Preispunkt zwischen 970 und 980. Genausogut kann es eine 980ti geben, die dann den Preispunkt der 980 einnimmt und diese im Preis etwas nachgibt um dann den großen Preisunterschied zu schließen.

Marodeur
2014-09-17, 14:23:51
Warum sollten die Preise gesenkt werden? War doch bisher kaum der Fall?

Man bekommt auch noch immer die GTX 570 für 300 Euro.

http://direkt.jacob-computer.de/_artnr_888227.html?ref=103

Preissenkung um 17 Euro. Los, zuschlagen. :D

yamo
2014-09-17, 14:50:10
Ganz ehrlich, ich verstehe diesen Einwurf nicht. Trolling?

aths
2014-09-17, 15:16:00
Das was mich an der 980 reizt, sind die runden Zweierpotenz-Zahlen und die insgesamt ausgewogenen Daten.

Was mich vom Aufrüstgedanken abhält ist der begrenzte Zugewinn zur 680 im Zusammenhang mit dem wahrscheinlich hohen Preis.

Dawn on Titan
2014-09-17, 15:19:31
Das kann schon bis zu zu einer Verdoppelung der FPS reichen wenn man von 680 auf 980 geht.

dildo4u
2014-09-17, 15:25:50
780 ist EoL.
Natürlich es liegt aber noch einiges an Ware auf Lager was man nicht los wird wenn die 970 das deutlich bessere Angebot ist.

Godmode
2014-09-17, 15:29:48
Das was mich an der 980 reizt, sind die runden Zweierpotenz-Zahlen


;D Rofl

Dural
2014-09-17, 15:50:28
das hättest du schon mit Tahiti haben können ;)

Locuza
2014-09-17, 16:13:02
Tahiti hat ein 384-Bit Interface und damit zahlreiche Schönheitsmakel, wie das Interface selber und eben 768 KB-L2$ + 3072 MB Speicher.

SGT.Hawk
2014-09-17, 16:24:35
;D Rofl
Ich kann Aths ganz gut verstehen, so geht es mir auch, auch wenn es keinen rationalen Grund dafür gibt...:smile:

yamo
2014-09-17, 16:28:32
Tahiti hat ein 384-Bit Interface und damit zahlreiche Schönheitsmakel, wie das Interface selber und eben 768 KB-L2$ + 3072 MB Speicher.

AMD bietet immer sexy Leistung zu Dumpingpreisen. Ich ärgere mich seit Jahren, daß diese Honks kein treiberseitiges DS anbieten...: Ich wäre längst bei ihnen.
Die Treiber sind scheiße und diskriminieren die HW.
AMD muß mal was raushauen, meinetwegen auch pure Power auf WakÜ.
Etwas, das MW ein bischen deklassiert.
Edit: ;)

memoal
2014-09-17, 16:41:54
AMD muß mal was raushauen, meinetwegen auch pure Power auf WakÜ.
Macht ja den Treiber keinen deut besser, die ganze Power hängt dann in der Luft. Wenn man sich mal den ersten Launch von Hawaii Pro zu Gemüte führt, damit hat man sicherlich keinen Gefallen getan. Power hatte die Karte eigentlich genug.

ShinyMcShine
2014-09-17, 16:41:55
Ich kann Aths ganz gut verstehen, so geht es mir auch, auch wenn es keinen rationalen Grund dafür gibt...:smile:

+1

Ich habe bisher irgendwie auch immer einen Bogen um "krumme" Grafikkarten gemacht. Die 1664 Shader der GTx 970 sind mir schon jetzt irgendwie ein Dorn im Auge! ;D

Dural
2014-09-17, 17:18:01
Tahiti hat ein 384-Bit Interface und damit zahlreiche Schönheitsmakel, wie das Interface selber und eben 768 KB-L2$ + 3072 MB Speicher.

;D OK das stimmt natürlich, aber ganz ehrlich ich würde auch beim GM204 lieber ein 384Bit SI mit 6GB bevorzugen als die 256Bit / 4GB ;)

aufkrawall
2014-09-17, 17:21:10
Es hieß doch, ab November solle es 8GB-Karten geben.
Mehr GDDR5-Speicher als die Konsolen insgesamt für Anwendungen zur Verfügung haben. :freak:

hasebaer
2014-09-17, 17:36:08
Ich glaub nicht an 8GB GM204 Karten, ausser eine GM200 Titan II kommt mit 12GB.

-/\-CruNcher-/\-
2014-09-17, 17:40:56
120€ Aufpreis für custom? Kühlkörper aus waffenfähigem Plutonium oder was? :D

Ne ne ganz andere Logik beim Kühlkörper gespart und trotzdem genau so teuer aufs jetzige Custom Design geklatscht ;)

Hier sparen alle und geben es nicht an den Verbraucher weiter und reden von cool & new enhanced und so nem scheiss Marketing bla bla mein Gott die müssen Gamer für die dümste Rasse des Planeten halten *hint*.
Als sie erst angefangen haben mit dem Overclocking wahn abzuzocken dachte ich noch ok aber das wird ja immer krasser, für die die jedes Release Cycle mitmachen junkies wird es in der Zukunft teuer werden wenn ich an GM200 Preise denke junge junge.

Ich würde mal abwarten ob sich diese Buzzwords nicht nur auf Videoqualität beziehen.

Da würde ich mir keine sorgen machen so lange es nicht fixed function sein sollte oder aber sie nicht nen super algo entwickelt haben über cuda.
Glaube auch nicht das sie hier von Games sprechen eher von 1080p Blu-Ray und Video Content auf 4K, das typische vorgehen bei einem Resolution change der sich noch nicht durchgesetzt hat und zu dem Zeitpunkt Wirtschaftlicher irsinn ist.

Das Problem hierbei 90% der Reviewer werden keinen blassen schimmer haben was sie da testen und strikt nach Reviewer Guide vorgehen ;)


Der Preis der 970 tut mich persönlich nicht abschrecken da es wirtschaftlich kein Desaster wäre für leute die sich ihre Karte in Kepler times und mit der selben Serienbezeichnung sprich x70/x80 zugelegt haben die sollten schon eher 2x drüber nachdenken oder AMD in Betracht ziehen, weil sie sollten auch nicht vergessen sie binden sich automatisch auch an G-sync über kurz oder lang ;)


Warum sollte man solche Trips aufgeben,ich erwarte glühende Reviews.

http://youtu.be/S4jckd7J4ko

Wie geil ist das denn Jensen möchte wohl das alle passend gekleidet auftauchen "Garderobenpflicht mal anders" und nun Presse Kniet nieder :D

Bin mal gespannt wie viele das mitmachen und sich das tatsächlich überstülpen ausser Nvidia Mitarbeitern denen bleibt ja nix anderes übrig ;D


Ohhhh nein gerade Scott macht das mit fuck das darf ja nicht sein :(

memoal
2014-09-17, 17:52:24
Ich glaub nicht an 8GB GM204 Karten, ausser eine GM200 Titan II kommt mit 12GB.
Es gibt schon Karten mit 8GB von Partner frei verkäuflich, ich denke die werden nachlegen. Obs nV so macht, fraglich. Ob sie es zulassen, fraglich.

AnarchX
2014-09-17, 18:13:56
>1,6GHz Boost?

SiSoftware Sandra 20.35 Video Shader Compute:

GeForce GTX 980 (16CU 2048SP SM5.0 1.13GHz/1.63GHz, 2MB L2, 4GB 6GHz/8.25GHz 256-bit, PCIe 3.00 x16) (D3D 11) 941.6Mpix/s (http://www.sisoftware.eu/rank2011d/show_run.php?q=c2ffcdfbddbcdde0d1e9dfeadaebcdbf82b294f194a999bfccf1c1&l=en)

GeForce GTX 980 (16CU 2048SP SM5.0 1.13GHz/1.39GHz, 2MB L2, 4GB 6GHz/7GHz 256-bit, PCIe 3.00 x16) (D3D 11) 810.1Mpix/s (http://www.sisoftware.eu/rank2011d/show_run.php?q=c2ffcdfbddbcdde0d1e9dfeadbeaccbe83b395f095a898becdf0c0&l=en)

Hier wird auch erwähnt, dass die GTX 970 1,5GHz Basis erreichen soll: http://we.poppur.com/thread-2270653-1-1.html



Da ist wohl der Bereich wofür die >225W PCB benötigt werden. :D

Marodeur
2014-09-17, 18:20:38
Ganz ehrlich, ich verstehe diesen Einwurf nicht. Trolling?

Damit mein ich das ich es bisher nie groß gesehen habe das die alte Generation groß günstiger werden würde wenn die Ablösung auf den Markt kam. Bis hin zu irgendwelchen GeForce 3 ti die noch im Shop zum fast alten Preis waren als die GF 4 schon veraltet war.

gnomi
2014-09-17, 18:32:54
Das kann schon bis zu zu einer Verdoppelung der FPS reichen wenn man von 680 auf 980 geht.

Die MSI 780TI Gaming konnte ich mir vor ein paar Monaten zwischenzeitlich schon mal angucken. Da gab es teils schon bis zu 70% mehr Leistung gegenüber einer GTX 680.
Allerdings nur in extremen Settings, die dann auch nicht mehr mit geschmeidigen 60 fps liefen.
Die tolle Leistung blieb also irgendwie auf der Strecke, auch weil abseits von Battlefield 4 und Crysis 3 kaum moderne, ausgereifte Engines am Werk waren.
Bei den meisten Sachen konnte man 1,2 verschwenderische Effekte reduzieren und dann mit genau so guten Bildraten bei kaum optischen Abstrichen spielen.
Auch wenn die Karte top war. Wieso dafür um die 600 Euro hinlegen?
Ich erhoffe mir daher vor allem, dass die 980 unter Full HD und mit fortschrittlichen Effekten und nvidia Gameworks besser abschneidet.
SSAA und Auflösungen fernab von 1440P interessieren mich gar nicht mal sonderlich.
Interessanter wäre, wenn das Teil dann in Next Gen Games wie Assassin's Creed Unity oder Far Cry 4 gut abschneidet und in maximalen Settings einfach gar nicht einbricht. (das mehr an Speicher sollte hier auch helfen)
Der Zeitpunkt ist jetzt auch günstig, da in den nächsten Wochen sehr viel Software mit aktueller Technik erscheint.

horn 12
2014-09-17, 18:43:31
Bora Computer listet die GTX 970 Palit und GTX 980 Palit für folgende Preise:Referenz
GTX 970 Referenz ---> 319 Euro
GTX 980 Referenz ---> 539 Euro

Somit dürfte die GTX 980 kaum schneller sein als die GTX 780 TI und GTX 970 um die 780-er Performance, wenn überhaupt.
Palit gehört zu den Billigsten Kartenanbietern !



http://bora-computer.de/pc-komponenten/grafikkarten/pcie/nvidia/709553/palit-gtx980-gddr5-4096mb-256bit-dvi-3-dp-hdmi

http://bora-computer.de/pc-komponenten/grafikkarten/pcie/nvidia/709555/palit-gtx970-gddr5-4096mb-256bit-dvi-3xmdp-mhdmi

AnarchX
2014-09-17, 19:00:58
970 Jetstream für 339€: http://bora-computer.de/pc-komponenten/grafikkarten/pcie/nvidia/709554/palit-gtx970-jetstream-gddr5-4096mb-256bit-dvi-3mdp-mhdmi
Könnte wohl 10% höher takten: http://www.techpowerup.com/gpudb/b3051/palit-gtx-970-jetstream.html

-/\-CruNcher-/\-
2014-09-17, 19:12:36
Es geht darum wie hoch die Gewinnspanne ist und was man bereit ist an dieser Stelle zu akzeptieren. nach Deiner Argumentation wäre in einem Monopol eine beliebige (z.B. 2000%) Gewinnspanne bei einem neuen Produkt in Ordnung (aus Sicht des Käufers, nicht des Anbieters, der diese natürlich möglichst groß haben möchte) wenn das Produkt nur ausreichend gut im Verhältnis zu einem theoretischen Vorprodukt ist.
Aus Käufersicht sehe ich einen gewissen "zulässigen" Gewinn (unter Berücksichtigung des unternehmerischen Risikos), aber abzocken muss ich mich deswegen nicht lassen.
Der Transistor-Count ist auch nicht die wirklich betrachtete Größe (IMHO), sondern die Größe des Chips unter Berücksichtigung der Ausbeute auf Basis des genutzten Fertigungsverfahrens. Sprich: Die Herstellungskosten für Nvidia.

Die Einstufungen Performance, Highend, Mainstream etc. sind insoweit nur Hilfskonstrukte um verschiedene Variablen zu einer Einstufung zu bündeln und damit leichter verständlich zu machen. Wiederum: IMHO.

Man kann das sicher so betrachten wie Du. Ist aber IMHO eher die Angebots- als die Nachfrageseite. Weiß nicht wo Du stehst, aber ich verkaufe keine Grafikkarten von Nvidia.

Nvidia muss vor allen ihre Tegra R&D wieder rausholen die Gamer sind da Perfekt für und immerhin bekommen sie dafür ja auch den Effizienzgewinn daraus.

Die MSI 780TI Gaming konnte ich mir vor ein paar Monaten zwischenzeitlich schon mal angucken. Da gab es teils schon bis zu 70% mehr Leistung gegenüber einer GTX 680.
Allerdings nur in extremen Settings, die dann auch nicht mehr mit geschmeidigen 60 fps liefen.
Die tolle Leistung blieb also irgendwie auf der Strecke, auch weil abseits von Battlefield 4 und Crysis 3 kaum moderne, ausgereifte Engines am Werk waren.
Bei den meisten Sachen konnte man 1,2 verschwenderische Effekte reduzieren und dann mit genau so guten Bildraten bei kaum optischen Abstrichen spielen.
Auch wenn die Karte top war. Wieso dafür um die 600 Euro hinlegen?
Ich erhoffe mir daher vor allem, dass die 980 unter Full HD und mit fortschrittlichen Effekten und nvidia Gameworks besser abschneidet.
SSAA und Auflösungen fernab von 1440P interessieren mich gar nicht mal sonderlich.
Interessanter wäre, wenn das Teil dann in Next Gen Games wie Assassin's Creed Unity oder Far Cry 4 gut abschneidet und in maximalen Settings einfach gar nicht einbricht. (das mehr an Speicher sollte hier auch helfen)
Der Zeitpunkt ist jetzt auch günstig, da in den nächsten Wochen sehr viel Software mit aktueller Technik erscheint.

Jep mit DX12 wird der boost nochmal ordentlich :)

Die meiste Performance momentan holt aber ungeschlagen Frostbite und das sogar mit Enlighten aus DX 11.2, Huddy sagt schon nicht umsonst das es eine Beindruckende Engine ist und Andersson (repi) steckt da viel Herzblut rein man merkt es ;)
Er ist auf gutem Weg der nächste Carmack zu werden ;)

Wobei das hier bei 1 Person nochmal drüber ist :)

Ik_mHpD8yfU

Gipsel
2014-09-17, 19:38:10
Und jetzt brauchen wir einen Gipsel uns das mal schnell zu erklaeren.
Was genau, die 64 ROPs? Hawaii hat auch 64 ROPs, die sogar schneller sind (besonders mit FP16 und FP32) als die bisherigen nV-ROPs (mal sehen, ob nV da was ändert). Da GM204 wohl ähnlich schnell wird, sind die durchaus angebracht. 32 ROPs könnten in einigen Situationen schon zu knapp sein und ohne eine aufwändigere Lösung mit der Entkopplung von ROPs und Speicherinterface (was auch Transistoren/Fläche/Stromverbrauch kostet) gehen dann eben nur 64 als nächster einfacher Schritt.

Bei der weiterhin erwähnten Wichtigkeit der ROPs für Compute-Geschichten war es zumindest bei Fermi so, daß local und auch global atomics über die ROPs liefen (deswegen waren local atomics bei Fermi im Vergleich zu den Radeons ziemlich lahm, da bei AMD jeder einzelne local-memory Abschnitt in jeder CU seine eigenen atomic units hatte). Aber ich dachte eigentlich, daß die das mit Kepler behoben hätten. Daß auch normale Speicherzugriffe über die ROPs laufen würden, wäre mir neu und halte ich für recht unwahrscheinlich.

dildo4u
2014-09-17, 19:44:11
Bora Computer listet die GTX 970 Palit und GTX 980 Palit für folgende Preise:Referenz
GTX 970 Referenz ---> 319 Euro
GTX 980 Referenz ---> 539 Euro

Somit dürfte die GTX 980 kaum schneller sein als die GTX 780 TI und GTX 970 um die 780-er Performance, wenn überhaupt.
Palit gehört zu den Billigsten Kartenanbietern !



http://bora-computer.de/pc-komponenten/grafikkarten/pcie/nvidia/709553/palit-gtx980-gddr5-4096mb-256bit-dvi-3-dp-hdmi

http://bora-computer.de/pc-komponenten/grafikkarten/pcie/nvidia/709555/palit-gtx970-gddr5-4096mb-256bit-dvi-3xmdp-mhdmi

Das passt alles daher wurde die 290 auf 280€ gesenkt,da drüber kommt 970 dann für 380 die 290x,780TI 430 und 530 die 980.

AnarchX
2014-09-17, 20:04:49
GTX 970 - 1,8MiB L2: http://www.sisoftware.eu/rank2011d/show_device.php?q=c9a598d680c98dc485a5e287c1aedcbfdafabde9b191a89faf89eed3fecfe9 9ba696b0d9e4d5f39ba693b5cdf0c1e782e7daeaccbf82ba&l=en

Kann man vielleicht die ROPs und L2-Cache in GM2xx teildeaktivieren?
14 von 16 Quad-ROPs und damit vielleicht 87,5% vom L2 würde zur 13 von 16 SMM durchaus passen.

Blediator16
2014-09-17, 20:08:56
>1,6GHz Boost?

SiSoftware Sandra 20.35 Video Shader Compute:

GeForce GTX 980 (16CU 2048SP SM5.0 1.13GHz/1.63GHz, 2MB L2, 4GB 6GHz/8.25GHz 256-bit, PCIe 3.00 x16) (D3D 11) 941.6Mpix/s (http://www.sisoftware.eu/rank2011d/show_run.php?q=c2ffcdfbddbcdde0d1e9dfeadaebcdbf82b294f194a999bfccf1c1&l=en)

GeForce GTX 980 (16CU 2048SP SM5.0 1.13GHz/1.39GHz, 2MB L2, 4GB 6GHz/7GHz 256-bit, PCIe 3.00 x16) (D3D 11) 810.1Mpix/s (http://www.sisoftware.eu/rank2011d/show_run.php?q=c2ffcdfbddbcdde0d1e9dfeadbeaccbe83b395f095a898becdf0c0&l=en)



Hier wird auch erwähnt, dass die GTX 970 1,5GHz Basis erreichen soll: http://we.poppur.com/thread-2270653-1-1.html



Da ist wohl der Bereich wofür die >225W PCB benötigt werden. :D

Dann kann man hoffentlich auf anständige Tests gespannt sein, wo der "aggressive" Boost in Verbindung mit dem Verbrauch/Leistung unter die Lupe genommen wird.

aths
2014-09-17, 20:51:33
Was genau, die 64 ROPs? Hawaii hat auch 64 ROPs, die sogar schneller sind (besonders mit FP16 und FP32) als die bisherigen nV-ROPs (mal sehen, ob nV da was ändert). Da GM204 wohl ähnlich schnell wird, sind die durchaus angebracht. 32 ROPs könnten in einigen Situationen schon zu knapp sein und ohne eine aufwändigere Lösung mit der Entkopplung von ROPs und Speicherinterface (was auch Transistoren/Fläche/Stromverbrauch kostet) gehen dann eben nur 64 als nächster einfacher Schritt.
Ich mach mal eine Milchmädchen-Rechnung auf: Wenn ein Pixel weniger als 32 Shader-Operationen und 2 Texturzugriffe braucht, sind 64 Raster-Operationen bereits der Flaschenhals.

Insbesondere ältere Spiele würden dann ausgebremst. Da eine Raster-Operation nicht besonders komplex ist, lohnt es sich, anteilig wenige zusätzliche Transistoren zu verbrauchen um die anderen Transistoren aufzuwerten und auch in älteren Spielen gut dazustehen.

In der Praxis erhoffe von den ROPs eine endlich anständige 4x-MSAA-Performance ohne großen fps-Einbruch.

aufkrawall
2014-09-17, 20:56:21
In der Praxis erhoffe von den ROPs eine endlich anständige 4x-MSAA-Performance ohne großen fps-Einbruch.
Mit Deferred Rendering?

Knuddelbearli
2014-09-17, 21:04:04
hmm bei knapp 300€ ist die 970 gekauft! auch wenn mir das TI fehlt und dadurch das gefühl aufkommt das da noch was kommt
Eventuell stark teildeaktiviertert GM200 für 970TI und leicht deaktivierter für 980TI und voller für Titan 2 für 1500€?
Was meint ihr Profis? ^^

Ailuros
2014-09-17, 21:09:25
Mit Deferred Rendering?

Du meinst zwar ganz was anderes aber wenn die tiling Fortschritte in Pascal so weit gehen werden wie es sich herumspricht wird mich auch HW deferred rendering in weiterer Zukunft nicht wundern.

Kepler hat mit etwas Geometrie binning angefangen, bei Maxwell ist es ein Stück mehr und es geht weiter in Pascal.

-/\-CruNcher-/\-
2014-09-17, 21:18:57
Ahh Galax ist das neue Galaxy Brand für Gamer (bzw komplet Konsolidierung von beiden in ein Brand), bringen die vielleicht endlich ihre schrillen Custom PCB Designs mit Darbee und co onboard in die EU/USA :D ?

http://videocardz.com/52432/say-goodbye-to-galaxy-and-kfa2-meet-galax

Loeschzwerg
2014-09-17, 21:26:45
GALAX... bei dem Namen hat einer ganze Arbeit geleistet.

Hey, aber so Exoten wie die Darbee Edition und etliche andere Designs von Galax"y" würde ich wirklich gerne mal in EU sehen. Die Karten erinnern mich teilweise an die verrückten AsRock Boards vergangener Tage :D

horn 12
2014-09-17, 21:26:53
Nope, NV hat viel zu viel GTX 780 TI noch auf LAGER

Rechne NV geht wie folgt vor:
GTX 980 mit hoher Effizienz und eben die 4 GB Ram, und bei Referenz Hohes OC Potential
(Sollten wohl alle zumindest Jetstream Takt schaffen)

GTX 780 TI etwas schneller durch die Bank, vor Allem mit hohem AA und Qualitätsverbesserungen und vor Allem 4K für den dem´s reicht :-(

Somit Preise von 499 Euro für die GTX 780TI
die Stock/ Referenz GTX 980 dann für 520 bis 540 Euro

GTX 980 Custom um die 600 Euro (Wer den "Hammer" und GTX TI Leistung +10 bis 15% erreichen will)

Straßenpreise pendeln sich nach Abverkauf der 780 und GTX 780 TI schlussendlich ein.

-/\-CruNcher-/\-
2014-09-17, 21:34:47
GALAX... bei dem Namen hat einer ganze Arbeit geleistet.

Hey, aber so Exoten wie die Darbee Edition und etliche andere Designs von Galax"y" würde ich wirklich gerne mal in EU sehen. Die Karten erinnern mich teilweise an die verrückten AsRock Boards vergangener Tage :D

So lange die Verpackung jugendfrei bleibt also GALA X is schon naja hört sich eher an wie nen Pornshop ;)

aths
2014-09-17, 21:50:37
Mit Deferred Rendering?
Nein, mit ordentlicher Z-Test-Leistung.

aths
2014-09-17, 21:55:58
What if ...

... was wäre, wenn es endlich mal einen Chip gibt, der Größe hat? 4096 Cores, ein 512-Bit-Interface. Dann würden sicherlich einige Leute wie ich auch mal die Pobacken zusammenkneifen und tief in das Portemonnaie greifen.

Nachdem der große Kepler mit 2880 Cores kam, hatte ich auf eine 4096-er GPU gehofft. Auf eine Grafikkarte, die endlich wieder Druck macht.

Stattdessen kommt die neue GPU zunächst sogar mit weniger Cores. Dass das Speicherinterface einfach verkleinert wird, hatten wir ja schon mal (9800 zu 8800.)

Döner-Ente
2014-09-17, 21:57:17
Die 970 kommt mir zeitlich gerade recht, nachdem meine 660 mit dem neuen Monitor erwartungsgemäß nicht mehr die erwünschten Fps bringt....
werde dann Freitag nochmal die Tests sondieren, aber wenn Asus wieder so eine feine leise Kühllösung wie auf der 660 bringt (was bei 20W mehr TDP wohl drin sein sollte), wirds bei mir wohl die entsprechende Asus.

horn 12
2014-09-17, 22:02:35
http://wccftech.com/nvidia-geforce-gtx-980-geforce-gtx-970-pictured-glory/

GTX 970 329 bis 349 Euro/ Dollar
GTX 980 für 549 Euro/ Dollar

Lauch Morgen, also in einigen Stunden gibt es wohl Leaks.
Will wohl AMD auch die Show stehlen, zusammen mit dem Neuen Treiber!

Nightspider
2014-09-17, 22:04:08
What if ...

... was wäre, wenn es endlich mal einen Chip gibt, der Größe hat? 4096 Cores, ein 512-Bit-Interface. Dann würden sicherlich einige Leute wie ich auch mal die Pobacken zusammenkneifen und tief in das Portemonnaie greifen.

Nachdem der große Kepler mit 2880 Cores kam, hatte ich auf eine 4096-er GPU gehofft. Auf eine Grafikkarte, die endlich wieder Druck macht.

Stattdessen kommt die neue GPU zunächst sogar mit weniger Cores. Dass das Speicherinterface einfach verkleinert wird, hatten wir ja schon mal (9800 zu 8800.)

Zieh dir den Stock aus dem Arsch und hör auf auf die Zahlen zu schauen, deren Aussagekraft eh gegen Null geht.

Zumal die GTX 980 einen viel kleinen Chip bekommt als die GTX780ti.
Wenn du also einen fetten Chip mit vielen Cores haben willst warte bis zum GM200, der im Frühjahr 2015 kommt, also in 6-8 Monaten.

Ist doch völlig dämlich sich jetzt über einen 380mm² Chip aufzuregen, weil er weniger Cores hat als ein 550mm² großer Chip. Echt ey - first world problems.

dargo
2014-09-17, 22:16:37
What if ...

... was wäre, wenn es endlich mal einen Chip gibt, der Größe hat? 4096 Cores, ein 512-Bit-Interface. Dann würden sicherlich einige Leute wie ich auch mal die Pobacken zusammenkneifen und tief in das Portemonnaie greifen.

Nachdem der große Kepler mit 2880 Cores kam, hatte ich auf eine 4096-er GPU gehofft. Auf eine Grafikkarte, die endlich wieder Druck macht.

Stattdessen kommt die neue GPU zunächst sogar mit weniger Cores. Dass das Speicherinterface einfach verkleinert wird, hatten wir ja schon mal (9800 zu 8800.)
Das ist das was mich am meisten am GM204 momentan ärgert. Das Ding ist in der möglichen Leistung völlig limitiert bei der niedrigen TDP. Ein GM204 (wobei der Name hier irrelevant ist) mit 3072 SPs und ich wäre eventuell bereit das Ding auch für 600€ direkt zu kaufen. Das wäre endlich mal ein vernünftiges Upgrade von Tahiti GE. Aber so werden wir wieder nur scheibchenweise bedient. :rolleyes: Kommt mir schon langsam wie bei Intel vor. Die Preispolitik ist auch nicht mehr weit davon entfernt. Keine Frage... Perf/W ist bei GM204 sehr gut. Nur was nützt mir das alles wenn ich kaum mehr Leistung dadurch habe?

Knuddelbearli
2014-09-17, 22:19:58
Naja was heißt limitiert? Takt 1,2GHZ und bei 1,4 scheint Schluss Ende aus mit OC zu sein.

Da kann der Chip dann nix dafür

aufkrawall
2014-09-17, 22:20:14
Wird garantiert Custom Modelle mit wesentlich höherer TDP geben.
Das der Asus 780 Ti DCII liegt übrigens bei 300W (+ weitere 15% noch erhöhbar).

dargo
2014-09-17, 22:21:02
Naja was heißt limitiert? Takt 1,2GHZ und bei 1,4 scheint Schluss Ende aus mit OC zu sein.

Ich rede nicht vom Takt sondern von der Größe des Chips. Da wäre einfach viel mehr drin gewesen bis 250W TDP. Aber man muss ja noch den GM200 für 1200€ an die Leute bringen. :rolleyes:

PS: wobei man hier natürlich auch bedenken muss, dass noch mehr Leistung bei nur 256Bit SI und dem schnellsten GDDR5 zu viel verpufft.

Ex3cut3r
2014-09-17, 22:22:24
Dargo, wenn du dicke Leistung willst warte auf den GM200, dafür musst du dann aber auch fett in die Tasche greifen. Vlt gibts ja auch sowas wie einen GM200 LE, wie es bei der GTX 780 der fall war. Da war Preis nicht ganz so böse im Verhältnis zur Titan. Vlt bringt AMD auch mal was gutes. Abwarten ;)

Wird garantiert Custom Modelle mit wesentlich höherer TDP geben.
Das der Asus 780 Ti DCII liegt übrigens bei 300W (+ weitere 15% noch erhöhbar).

Oder hier drauf.

dargo
2014-09-17, 22:27:34
Dargo, wenn du dicke Leistung willst warte auf den GM200, dafür musst du dann aber auch fett in die Tasche greifen.
Eben das ist das Problem. Erstens gibts diese Leistung nicht schon heute und zweitens wird die schweine teuer. Ich will zwar bei Faktor ~2 umsteigen, aber wie ich schon sagte nicht um jeden Preis.

Die momentane Entwicklung ist einfach nur noch traurig. Aus den 3 Jahren für Faktor 2 kann man bald mindestens 4 Jahre draus machen, wenn man dabei auch einen humanen Preis berücksichtigt.

Ex3cut3r
2014-09-17, 22:32:00
Eben das ist das Problem. Erstens gibts diese Leistung nicht schon heute und zweitens wird die schweine teuer. Ich will zwar bei Faktor ~2 umsteigen, aber wie ich schon sagte nicht um jeden Preis.

Die momentane Entwicklung ist einfach nur noch traurig. Aus den 3 Jahren für Faktor 2 kann man bald mindestens 4 Jahre draus machen, wenn man dabei auch einen humanen Preis berücksichtigt.

Ja da hast du natürlich recht, leider können wir nicht machen, sondern müssen die Preise letztendlich zahlen. Ich hoffe ja auf AMD, damit sich die Preise wieder normal anpassen.

dargo
2014-09-17, 22:49:40
Ja da hast du natürlich recht, leider können wir nicht machen, sondern müssen die Preise letztendlich zahlen.
Jo... oder halt weiter warten. Immerhin gibts noch keine "Killergames" wo ich sagen müsste... ich muss jetzt upgraden. Schauen wir mal wie lange noch.

Knuddelbearli
2014-09-17, 22:55:04
NBaja ich würde gerne mal endlich Skyrim maxed out spielen ^^

und dann halt nächstes Jahr witcher 3

N0Thing
2014-09-17, 23:04:51
Damit mein ich das ich es bisher nie groß gesehen habe das die alte Generation groß günstiger werden würde wenn die Ablösung auf den Markt kam. Bis hin zu irgendwelchen GeForce 3 ti die noch im Shop zum fast alten Preis waren als die GF 4 schon veraltet war.

Im CPU-Markt mit Intel ist das auch so, aber bei Grafikkarten wurden die Preise der alten Karten in der Regel mit der Zeit immer günstiger und zum Zeitpunkt einer neuen Generation teilweise noch mal deutlich um die Lager zu leeren.
Ich kaufe seit Jahren nur Grafikkarten, die um die 200-250€ kosten und 50-100% mehr Leistung als meine bisherige Lösung bieten. Mit der Strategie komme ich fast gar nicht drum herum, Karten kurz vor deren Ablösung zu kaufen. ;)

-/\-CruNcher-/\-
2014-09-17, 23:18:35
Wenn man die Balance betrachtet und die neuen (basis platform) Preise ist das ziemlich gut und Fair da lohnt sich die GTX 960 nicht mehr wirklich :)

letztendlich will man für den Aufstieg doch nicht so viel abkassieren von x60 zu x70 sondern rein mit Nvidia aufschlag gegen AMD punkten alles wie immer :)

Es ist halt nur die Frage wie ergo domini die 285X gegen die GTX 970 abschneiden wird und da sehen wir ja mit den compute ergebnissen schon das sie in teilen ebenwürdig und in anderen klar pro GTX 970 sein werden.
Wenn die meisten Compute probleme ausgebügelt sind wird es AMD schwer haben.

Godmode
2014-09-17, 23:29:21
>1,6GHz Boost?

SiSoftware Sandra 20.35 Video Shader Compute:

GeForce GTX 980 (16CU 2048SP SM5.0 1.13GHz/1.63GHz, 2MB L2, 4GB 6GHz/8.25GHz 256-bit, PCIe 3.00 x16) (D3D 11) 941.6Mpix/s (http://www.sisoftware.eu/rank2011d/show_run.php?q=c2ffcdfbddbcdde0d1e9dfeadaebcdbf82b294f194a999bfccf1c1&l=en)

GeForce GTX 980 (16CU 2048SP SM5.0 1.13GHz/1.39GHz, 2MB L2, 4GB 6GHz/7GHz 256-bit, PCIe 3.00 x16) (D3D 11) 810.1Mpix/s (http://www.sisoftware.eu/rank2011d/show_run.php?q=c2ffcdfbddbcdde0d1e9dfeadbeaccbe83b395f095a898becdf0c0&l=en)

Hier wird auch erwähnt, dass die GTX 970 1,5GHz Basis erreichen soll: http://we.poppur.com/thread-2270653-1-1.html



Da ist wohl der Bereich wofür die >225W PCB benötigt werden. :D

Lastet dieser Test das Powertarget der Karte vielleicht nicht richtig aus? Es zeigt jedefalls, das hier deutlich mehr Takt möglich ist als noch bei Kepler.

Godmode
2014-09-17, 23:38:20
Eben das ist das Problem. Erstens gibts diese Leistung nicht schon heute und zweitens wird die schweine teuer. Ich will zwar bei Faktor ~2 umsteigen, aber wie ich schon sagte nicht um jeden Preis.

Die momentane Entwicklung ist einfach nur noch traurig. Aus den 3 Jahren für Faktor 2 kann man bald mindestens 4 Jahre draus machen, wenn man dabei auch einen humanen Preis berücksichtigt.

Eigentlich ganz logisch das es teurer wird:

1. Der PC Markt stagniert
2. Die Fertigungsprozesse sind deutlich teurer geworden (ja ich weiß das 28nm alt und ausgereift ist)
3. Nvidia hat eine ungute Marktdominanz und kann damit höhere Preise, gegenüber gleich schnellen Konkurrenzprodukten rechtfertigen.
4. Nvidia hat viel Geld mit Tegra verbrannt (mal sehn) und finanziert das mit der Geforce Sparte gegen.
5. AMD hat es zulassen, das Nvidia so stark geworden ist

Wenn dir die Preise nicht passen, dann kaufst du einfach nicht so oft was neues. Es gibt so viele Spiele, dass man eigentlich auch mit einer günstigeren Grafikkarte ewig auskommt. Wenn man natürlich meint, man muss immer maximale Details und dazu noch DS und SSAA haben, gibt es das nicht Gratis und schon gar nicht mit einer Mainstream Karte. Du musst bedenken, wenn du eine Karte ein Jahr länger behältst, reduziert das die Anschaffungskosten deutlich.

horn 12
2014-09-18, 01:06:06
@Dargo

Da hast Du Dein Monster :-)
Triple Slot Lüfter con ColorFull und ganze 2x 8 PIN Anschluss
8GB Speicher !!
Soll mit 1,3 Boost rennen, oder gar mit 1,3 Ghz StandardTakt und zusätzlich Boost bis vielleicht gar etwa 1,45 Ghz (Meine Annahme)
Selektierte Karten ?

http://wccftech.com/colorful-unveils-nonreference-igame-geforce-gtx-980-graphics-card-triple-fan-cooling/#ixzz3DcH53nMX

Nightspider
2014-09-18, 01:19:03
Yeaha, wir brauchen mehr 8GB Karten Leute.

By the way...interessante Bestückung:

http://cdn3.wccftech.com/wp-content/uploads/2014/09/Colorful-iGame-GeForce-GTX-980_VRM.png

Ich glaube die Karte hat doppelt so viel Bauteile wie manch andere Karte. :ugly:

Was ist das fürn Chip in der Mitte?

memoal
2014-09-18, 03:09:20
Das ist der Controllerchip der digitalen Spannungsversorgung. Es gibt von der iGame Colorful auch eine 970-Variante: http://wccftech.com/colorful-igame-geforce-gtx-970-flame-wars-galax-geforce-gtx-970-gc-graphics-cards-pictured/

Ex3cut3r
2014-09-18, 05:09:59
@Dargo

Da hast Du Dein Monster :-)
Triple Slot Lüfter con ColorFull und ganze 2x 8 PIN Anschluss
8GB Speicher !!
Soll mit 1,3 Boost rennen, oder gar mit 1,3 Ghz StandardTakt und zusätzlich Boost bis vielleicht gar etwa 1,45 Ghz (Meine Annahme)
Selektierte Karten ?

http://wccftech.com/colorful-unveils-nonreference-igame-geforce-gtx-980-graphics-card-triple-fan-cooling/#ixzz3DcH53nMX

Fettes Teil :devil:

Loeschzwerg
2014-09-18, 07:10:45
Jo, dickes Teil, aber haben die doch auch schon bei der GTX 680 und GTX 780 abgeliefert?!

http://www.techpowerup.com/img/12-03-24/249b.jpg (GTX 680 iGame
http://cdn.overclock.net/b/b2/b2297376_Colorful-GeForce-GTX-780-Ti-iGame-4.jpeg (GTX 780 Ti iGame)

@Nightspider: Sieht mir nach einem Voltera aus, damit sollte sich die Spannung gut ändern lassen.

Ailuros
2014-09-18, 07:53:38
What if ...

... was wäre, wenn es endlich mal einen Chip gibt, der Größe hat? 4096 Cores, ein 512-Bit-Interface. Dann würden sicherlich einige Leute wie ich auch mal die Pobacken zusammenkneifen und tief in das Portemonnaie greifen.

Nachdem der große Kepler mit 2880 Cores kam, hatte ich auf eine 4096-er GPU gehofft. Auf eine Grafikkarte, die endlich wieder Druck macht.

Stattdessen kommt die neue GPU zunächst sogar mit weniger Cores. Dass das Speicherinterface einfach verkleinert wird, hatten wir ja schon mal (9800 zu 8800.)

Geduld auf Pascal dann; es sind die IHVs wirklich nicht daran schuld wenn es noch keine Prozesse gibt womit man solche Monster mit logischen Kosten herstellen kann. 4096 bzw. 32 SMMs unter 28nm? :freak:

dargo
2014-09-18, 09:07:25
@Dargo

Da hast Du Dein Monster :-)
Triple Slot Lüfter con ColorFull und ganze 2x 8 PIN Anschluss
8GB Speicher !!
Soll mit 1,3 Boost rennen, oder gar mit 1,3 Ghz StandardTakt und zusätzlich Boost bis vielleicht gar etwa 1,45 Ghz (Meine Annahme)
Selektierte Karten ?

http://wccftech.com/colorful-unveils-nonreference-igame-geforce-gtx-980-graphics-card-triple-fan-cooling/#ixzz3DcH53nMX
Was soll denn daran jetzt so monstermäßig sein? 8GB Vram finde ich bei der Rohleistung völlig übertrieben. 4GB sind imo genau richtig. Und 1300Mhz Boost? Das sind doch lächerliche ~7% mehr als beim Referenzdesign. 111elf :freak: Die GTX980 hat wie gesagt den faden Beigeschmack, dass sie stärker an der Bandbreite verhungern wird. Da ist nur eine Erhöhung der Rohleistung ziemlich sinnlos. Ist zwar erstmal nur meine Vermutung, da müssen wir erst entsprechende Tests abwarten.

Ich finde es halt sehr seltsam, dass man beiden GM204 die selbe Bandbreite zur Seite stellt obwohl die GTX980 ca. 32% mehr Rohleistung (was nicht gerade wenig ist) hat.

hasebaer
2014-09-18, 09:19:24
Was soll denn daran jetzt so monstermäßig sein? 8GB Vram finde ich bei der Rohleistung völlig übertrieben.

Nicht völlig, siehe Skyrim:
http://www.pcgameshardware.de/Geforce-Titan-Grafikkarte-256920/Videos/GTX-Titan-Black-6GB-Video-Review-1111075/

http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=49547&stc=1&d=1411024668

30 fps ist natürlich arg wenig, aber wenn man mit der 980 OC auf 40 käme, dazu ein G-Sync TFT, dann ist > 4Gb völlig ok.

Ailuros
2014-09-18, 09:19:44
Ich frage mich ob jemand der mit professionellen Applikationen arbeitet, aber nicht das Geld fuer eine Quadro hinlegen kann, vom 8GB Speicher doch etwas dazugewinnen koennte, obwohl wohl die rohe Geometrie-Leistung ausserhalb Tessellation wohl wieder kastriert ist fuer GeForces.

Dural
2014-09-18, 09:20:36
Die 2GHz Ram Chips sind wohl einfach noch nicht lieferbar, die wird man mit einer 980Ti nachliefern und dürfte sicher noch mal 10-20% mehr Leistung bringen, je nach GPU Takt.

dargo
2014-09-18, 09:23:49
Nicht völlig, siehe Skyrim:
http://www.pcgameshardware.de/Geforce-Titan-Grafikkarte-256920/Videos/GTX-Titan-Black-6GB-Video-Review-1111075/

http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=49547&stc=1&d=1411024668

30 fps ist natürlich arg wenig, aber wenn man mit der 980 OC auf 40 käme, dazu ein G-Sync TFT, dann ist > 4Gb völlig ok.
Schön... nur interessiert mich dieses Genre nicht. Und zum x-ten Mal... nur weil dir die Software bei einer bsw. 6GB Graka 4,xGB Vram anzeigt heißt es noch lange nicht, dass mehr als 4GB Vram auch benötigt werden!

Und übrigens... Skyrim ist technisch Steinzeit. Nicht nur was Multithreading angeht sondern garantiert auch beim Streaming. Achja... und 29fps sind für mich persönlich völlig inakzeptabel. Ergo müsste man entsprechende Details senken bis ~60fps, was wiederum den allgemeinen Vram-Bedarf zumindest etwas verringern sollte.

hasebaer
2014-09-18, 09:31:36
Achso ja, hmm ... man kann natürlich alles einfach wegwischen und für unnötig errachten, was einen selber nicht kümmert. :freak:

dargo
2014-09-18, 09:36:49
Achso ja, hmm ... man kann natürlich alles einfach wegwischen und für unnötig errachten, was einen selber nicht kümmert. :freak:
Wo ist das Problem? Schließlich kaufe ich die Grafikkarte für mich bzw. meinen Einsatzzweck und nicht von jemanden anderen? Hier treffen sogar mehrere Sachen aufeinander. Erstens nicht mein Genre, zweitens viel zu niedrige Frameraten, drittens DX9 Altschinken. Zum letzteren hatte ich schon in anderen Threads gesagt, dass ich DX9 schon lange nicht mehr spiele, nur noch DX11.x und Mantle.

Zum Streaming fällt mir gerade das hier ein.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10342752&postcount=151
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10342816&postcount=152

Skyrim war schon zum Release beim Multithreading steinzeit. Würde mich also nicht wundern wenns beim Streaming anders wäre.

Dural
2014-09-18, 09:40:12
naja sehe die 4GB jetzt auch nicht so tragisch für den GM204 Chip an, ist immerhin ein GB mehr bei selber Leistung wie die 780Ti. Mir wären 8Gbps Speicher viel lieber als 8GB ;)

Erst mit SLI dürften die 4GB wirklich zu wenig sein.

Hübie
2014-09-18, 09:41:05
Ich frage mich ob jemand der mit professionellen Applikationen arbeitet, aber nicht das Geld fuer eine Quadro hinlegen kann, vom 8GB Speicher doch etwas dazugewinnen koennte, obwohl wohl die rohe Geometrie-Leistung ausserhalb Tessellation wohl wieder kastriert ist fuer GeForces.

Schätzungsweise nicht ohne Modifikation. In der Vergangenheit war dass immer per Software beschränkt (dazu zähle ich auch das BIOS). Bei Fermi musste man sogar löten. Für Photoshop könnte es jedoch sinnvoll sein. Content Creator für flash-Inhalte haben meist hochaufgelöste Originale welche mal schnell 6+ GB wegfressen.
@dargo: Wenn der Aufpreis nicht zu krass ausfällt... Warum nicht? :naughty: Afaik hat Skyrim kein "intelligentes" streaming sondern lagert Texturen aus der Umgebung resident in den VRAM.
Coda sagte vor nicht allzu langer Zeit dass 2 GB für FullHD mit MS(?)AA-Anteil noch reichen würde wenn man weiß wie man richtig streamen muss.
@dural: Ich sehe selten mehr als 3600 MB. Da ist schon downsampling/AA/Mods inbegriffen. Lieber 4 GB @2000 MHz als 8 mit 1750.

dargo
2014-09-18, 09:44:57
Mir wären 8Gbps Speicher viel lieber als 8GB ;)

Jup... das wäre dann im Fall der GTX980 höchstwahrscheinlich deutlich sinnvoller.

N0Thing
2014-09-18, 09:54:51
Achso ja, hmm ... man kann natürlich alles einfach wegwischen und für unnötig errachten, was einen selber nicht kümmert. :freak:

Ein extremer und konstruierter Ausnahmefall ("Extremtest mit Skyrim (150 Mods)") ist einfach kein interessantes Argument dafür, daß man 8GB VRAM bei einer GTX 980 benötigt.

hasebaer
2014-09-18, 10:06:27
Skyrim war schon zum Release beim Multithreading steinzeit. Würde mich also nicht wundern wenns beim Streaming anders wäre.

Und alle anderen Studios sind da soviel besser, soviel moderner?
Ich will hier kein "was wäre wenn" durchspielen, sondern orientiere mich lieber an Zeug wie Rage, Wolfenstein oder auch Bioshock Infinite,
wo sich permanent die Bildqualität ändert, und das obwohl auch auf Ultra die Texturen alles andere als makellos sind.

Skyrim mag ein uralt Steaming haben, aber die Bildqualität bleibt wenigstens konstant, solang man genug Rohleistung draufwirft.
Siehe zb.
http://kakasi-skyrim-modenb.blogspot.com.au/2014/06/skyrim-custom-enb.html

Aber gut ..btt...

Timbaloo
2014-09-18, 10:10:49
O.K. jetzt wird es richtig interessant, damit habt ihr nicht gerechnet:

mir reichen 4GB für FullHD

dargo
2014-09-18, 10:20:46
Und alle anderen Studios sind da soviel besser, soviel moderner?

Fast alle... ja. Letztens ist Ubisoft mit Watch Dogs und kaputtem Streaming negativ aufgefallen.

Ailuros
2014-09-18, 10:23:53
Schätzungsweise nicht ohne Modifikation. In der Vergangenheit war dass immer per Software beschränkt (dazu zähle ich auch das BIOS). Bei Fermi musste man sogar löten. Für Photoshop könnte es jedoch sinnvoll sein. Content Creator für flash-Inhalte haben meist hochaufgelöste Originale welche mal schnell 6+ GB wegfressen.
@dargo: Wenn der Aufpreis nicht zu krass ausfällt... Warum nicht? :naughty: Afaik hat Skyrim kein "intelligentes" streaming sondern lagert Texturen aus der Umgebung resident in den VRAM.
Coda sagte vor nicht allzu langer Zeit dass 2 GB für FullHD mit MS(?)AA-Anteil noch reichen würde wenn man weiß wie man richtig streamen muss.
@dural: Ich sehe selten mehr als 3600 MB. Da ist schon downsampling/AA/Mods inbegriffen. Lieber 4 GB @2000 MHz als 8 mit 1750.

Ich meinte nicht jeglichen hack um eine GeForce in eine Quadro zu aendern. Die Frage ist ob eine GeForce als GeForce vielleicht etwas in profi-Applikationen bei einem 8GB framebuffer profitieren koennen. Fuer Photoshop hab ich zwar nicht die neueste Version, aber auch ernsthafte Zweifel dass diese mehr als 1GB GPU Speicher nutzen kann.

robbitop
2014-09-18, 10:28:04
Nein, mit ordentlicher Z-Test-Leistung.
Was er meinte ist, dass heutige Spiele alle Defered Renderer (bzw. defered shader) Engines nutzen. Leider steigt der Aufwand für MSAA (sofern es denn korrekt funktioniert!) dabei deutlich und somit kostet es auch deutlich mehr fps.
Der Abstand zwischen MSAA und SSAA bei DR-Spielen ist deutlich kleiner als bei den alten Engines. Insofern lohnt MSAA oft kaum und man kann gleich SSAA nutzen. Sofern es denn fehlerfrei läuft.

Anti-Aliasing ist (in heutigen Spielen) leider nur noch ein Schatten seiner selbst (wenn ich da an 8x SGSSAA mit Edge Detection Downsamplingfilter zurückdenke ...).

What if ...

... was wäre, wenn es endlich mal einen Chip gibt, der Größe hat? 4096 Cores, ein 512-Bit-Interface. Dann würden sicherlich einige Leute wie ich auch mal die Pobacken zusammenkneifen und tief in das Portemonnaie greifen.

Nachdem der große Kepler mit 2880 Cores kam, hatte ich auf eine 4096-er GPU gehofft. Auf eine Grafikkarte, die endlich wieder Druck macht.

Stattdessen kommt die neue GPU zunächst sogar mit weniger Cores. Dass das Speicherinterface einfach verkleinert wird, hatten wir ja schon mal (9800 zu 8800.)
Du hast ja selbst schon mal erkannt, dass NVIDIA seit Kepler die Leute verarscht und Geforce X60 Karten als Geforce X80 (mit auch diesem Preis) verkauft. Man dreht Mittelklassehardware Leuten zum Preis von High End an. Natürlich ist die Next Gen Mittelklasse Hardware auch ein wenig schneller als High End der letzten Generation. Salamitaktik. IMO boykottieren und nur die High End Karten kaufen (GK110, GM200, GP200?) und die Fake-High End (GK104, GM204, GP204) weglassen.

Die GPU, die du suchst, wird nächstes Jahr mit GM200 kommen. (die müsste dann eigentlich Geforce 680 heißen (GF110 wäre ausschließlich 480, GK110 ausschließlich 580)

Wird aber auch keine 4000 SPs haben. Eher ~3000. Aber die sind halt ~35 % effizienter als die Kepler SPs. Dazu gibt's dann noch ein wenig mehr Takt und schon hat man eine Titan + 50 %. (eigentlich traurig oder? Vorbei sind die Zeit in denen alle 18 Monate für 500 € ~Faktor 2 zu haben war. Heute wartet man dafür 4 Jahre und zahlt manchmal sogar 1000 €. Also eine P/L Reduktion um fast Faktor 4)

Skysnake
2014-09-18, 10:28:53
Ich frage mich ob jemand der mit professionellen Applikationen arbeitet, aber nicht das Geld fuer eine Quadro hinlegen kann, vom 8GB Speicher doch etwas dazugewinnen koennte, obwohl wohl die rohe Geometrie-Leistung ausserhalb Tessellation wohl wieder kastriert ist fuer GeForces.
Also bei CAD, wo schnell mal größere Datenmengen anfallen wohl nicht, da eben die Leistung per Software beschnitten wird.

Wie Hübie aber schon sagte, könnte 3DMax, Photoshop usw eventuell davon profitieren. Der Kreis der Nutzer, bei denen aber allein der VRAM ausreicht, dürfte wohl überschaubar sein.

PS:
Seh ich das richtig, dass der Chip erst KW30 2014 produziert wurde? Also im Zeitraum 27.-27.7. Das ist nicht wirklich lange her.

Hübie
2014-09-18, 10:34:24
Zugegebenermaßen muss ich ergänzend sagen dass eigentlich alle die ich kenne welche photoshoppen dies unter OSX machen. Wie da die VRAM-Belegung und Beschneidung von treiberseitiger Software ist weiß ich nicht ;)

memoal
2014-09-18, 10:36:06
Skyrim war schon zum Release beim Multithreading steinzeit. Würde mich also nicht wundern wenns beim Streaming anders wäre.
Ich würde sagen dann hast du den Ursprungs-Titel bei PCGH, woher auch die Abbildung stammt nicht restlos mitverfolgt. Skyrim mag zwar auf altes DX9 setzen, aber welche überschwenglichen Neuerungen bringen denn höhere DX Featurelevel mit, die dann auch noch Anwendung finden?

Mit den von @Raff vermittelten 150 Mods sieht das Spiel ziemlich genial aus und wird wohl eben auf der 980 hinzugewinnen. Auch wenn 8GB sicher kein Standard werden für Performancekarten, das Spiel dürfte trotzdem profitieren. Die Titan hatte vollgemölte 4,5 GB VRAM, die 780ti kam zwar auch mit 3GB aus es lief aber weniger flüssig, daher ruckelte es ab und an und fiel unter 30fps.

Wenn es nicht dein Genre ist o.k., aber dafür steigerst du dich zuviel rein, und wenn du nur noch DX11 und Mantle spielen willst, na dann gute Nacht, da sind richtige Gurken dabei die nicht mit 12GB Speicher zu befriedigen sind.

Was wollte man denn an ein 256bitSI klemmen? 5,8611392 GB VRAM? Es geht doch garnicht anders wenn es größer als 4GB sein soll und "ein gerades Verhältnis" ausmachen soll.

Dafür das dich das alles nicht interessiert, sind deine Posts viel zu lang. Ich glaube mal nV wird so wie AMD die kommende Performanceclass wieder so lange wie in der Vergangenheit am Markt halten wollen, was dann für VRAM Mengen ggf. unter DX12 benötigt werden weiß bisher nur ein sehr kleiner Teil.

Komm wieder runter. ;) Sapphire hat ein 290x mit 8GB im Portfolie und die Gegner bringen ähnliches, war doch zu erwarten. Ob man es heute oder jetzt sofort braucht ist doch nicht die Frage und damit auch nicht die Antwort. Vielmehr was die Zukunft bringt. Wenn dort nur 800mb an der Standard-VRAM-Ausstattung fehlen was will man dann machen, UHD vor sich rumruckeln lassen und 1K Grakas kaufen. Das ist doch Unsinn Dargo.

Du denkst in zu kleinen Relationen.

Doomi
2014-09-18, 10:37:54
Ich frage mich ob jemand der mit professionellen Applikationen arbeitet, aber nicht das Geld fuer eine Quadro hinlegen kann, vom 8GB Speicher doch etwas dazugewinnen koennte, obwohl wohl die rohe Geometrie-Leistung ausserhalb Tessellation wohl wieder kastriert ist fuer GeForces.

klar, unter IRay in 3DSMax kann man mit 8 GB sehr viel anfangen. Damit kann man doppelt so große Szenen auf der Grafikkarte rendern als mit nur 4 GB. Finde ich unter professionellen Gesichtspunkten sehr nützlich.

Godmode
2014-09-18, 10:50:59
Ist der Launch eigentlich heute oder erst morgen? Game24 soll ja heute starten.

mironicus
2014-09-18, 10:52:42
Du denkst in zu kleinen Relationen.

Nö! Er tut nur das was er mag = Maximierung der Glückseligkeit durch klare Entscheidungen.

memoal
2014-09-18, 11:01:51
Ist der Launch eigentlich heute oder erst morgen? Game24 soll ja heute starten.
Wars nicht kommende Nacht um 03:00 Uhr? Oder war da NDA Fall?

AffenJack
2014-09-18, 11:04:51
Eventstart ist kommende Nacht 3 Uhr wie du schon sagst, Launch dann bestimmt morgen wieder um 15 Uhr wie immer bei Nvidia. Davor wirds bestimmt anderes Zeug auf dem Event geben oder ein paar Teaser.

Radeonfreak
2014-09-18, 11:05:23
Ab wann gibt's die Karten zu kaufen? Morgen früh?

Ich würde gerne, bevor ich Morgen zur Spätschicht muss, schon mal eine bestellen wollen. :uking:

fondness
2014-09-18, 11:12:52
Wird garantiert Custom Modelle mit wesentlich höherer TDP geben.
Das der Asus 780 Ti DCII liegt übrigens bei 300W (+ weitere 15% noch erhöhbar).

Das ist eben NVs typischer Schmäh. Die Referenzkarten laufen mit verhältnismäßig wenig Spannung und Takt, werden bei den Reviews für den geringen Stromverbrauch gelobt und die Modelle welche dann verkauft werden fressen wesentlich mehr Strom. Viele Seiten wie zB PCGH testen dann für den Stromverbrauch mit dem Referenzmodell und bei den fps nehmen sie die wesentlich schnelleren und stromfressenderen Custom-Modelle.

Godmode
2014-09-18, 11:14:42
Viele Seiten wie zB PCGH testen dann für den Stromverbrauch mit dem Referenzmodell und bei den fps nehmen sie die wesentlich schnelleren und stromfressenderen Custom-Modelle.

So ein Blödsinn. Entweder es wird eine Referenzkarte getestet oder eine Custommodell. Hast du einen Link für deine Behauptung? Meistens sind neben den Refkarten auch Customkarten dabei, wo dann der Stromverbrauch aber extra gemessen wird.

fondness
2014-09-18, 11:15:54
Noch einige Bilder:
http://videocardz.com/52446/more-geforce-gtx-980-and-gtx-970-cards-pictured

Arcanoxer
2014-09-18, 11:17:01
Es ist halt nur die Frage wie ergo domini die 285X gegen die GTX 970 abschneiden wird und da sehen wir ja mit den compute ergebnissen schon das sie in teilen ebenwürdig und in anderen klar pro GTX 970 sein werden.
Wenn die meisten Compute probleme ausgebügelt sind wird es AMD schwer haben.Die aufgewärmt und beschnittene 285X sieht keine Sonne gegen die GTX970.
Für diese Erkenntnis brauche ich noch nicht einmal ein review abwarten. ;)

Frage mich gerade wie es mit den day1 Treiberrelease für die neuen Pixelschleudern unter Linux ausschaut?!
Das wäre für mich die einzige Early Adopter Bremse.

Godmode
2014-09-18, 11:18:09
Noch einige Bilder:
http://videocardz.com/52446/more-geforce-gtx-980-and-gtx-970-cards-pictured

Ich frage mich warum da teilweise noch zwei DVI Port verbaut werden? :confused: Da hätte ich lieber mehr Display Ports.

fondness
2014-09-18, 11:19:08
So ein Blödsinn. Entweder es wird eine Referenzkarte getestet oder eine Custommodell. Hast du einen Link für deine Behauptung? Meistens sind neben den Refkarten auch Customkarten dabei, wo dann der Stromverbrauch aber extra gemessen wird.

Okay war zugegebenermaßen überspitzt ausgedrückt. Jedenfalls bleibt das ursprüngliche Review des Referenzmodells hängen, bei den typischen Leistungstests neuer Spiele wird dann mit den schnelleren Custom-Modellen getestet und der Stromverbrauch nicht mehr aufgeführt.

Mr.Magic
2014-09-18, 11:20:31
Ich frage mich warum da teilweise noch zwei DVI Port verbaut werden? :confused: Da hätte ich lieber mehr Display Ports.

Ich nicht. Ich verwende mehrere Monitore. Keiner davon hat einen Display Port. 120Hz mit HDMI ist auch nicht...

Kartenlehrling
2014-09-18, 11:25:10
ich kann diese videocardz Seite nichts abgewinnen, das diese immer so gern hier verlinkt wird als "Quelle",
die posten Leaks, die keine 24 std. halten um gleich wieder neue "erratene" Werte zu presentieren.

memoal
2014-09-18, 11:25:26
Das ist eben NVs typischer Schmäh. Viele Seiten wie zB PCGH testen dann für den Stromverbrauch mit dem Referenzmodell und bei den fps nehmen sie die wesentlich schnelleren und stromfressenderen Custom-Modelle.

@fondness, mach das nicht! Ist die AMD Aktion schon am laufen?

Das was du schreibst stimmt absolut nicht und ist eine schlimme Unterstellung. Verglichen wird zumeist mit dem Referenzdaten mit denen der getesteten Customkarten soweit Referenzmodelle gelauncht und verschickt wurden.

Das für und wieder im Fazit dann sogar ausführlich angesprochen und bewertet, also ob sich die TDP Erhöhung auch angemessen in umsetzbaren Leistungszugewinn wiederspiegelt, Performance=>Preis=>Watt.

OC-Modelle sind zudem für ein bestimmtes Marktsegment bestimmt, AMDs OC-Karten der Partner hauen auch ordentlich über der TDP raus, wobei es einen einheitlichen Standard zur bestimmung der TDP Angaben garnicht gibt. Derzeit werden wohl durchschnittlich berechnete Werte oder max. Werte angegeben unter denen die Karten liegen können.

Solche Aussagen hast du bestimmt nicht nötig! Das mit der PCGH ist keine lustige Sache.

Ailuros
2014-09-18, 11:27:19
klar, unter IRay in 3DSMax kann man mit 8 GB sehr viel anfangen. Damit kann man doppelt so große Szenen auf der Grafikkarte rendern als mit nur 4 GB. Finde ich unter professionellen Gesichtspunkten sehr nützlich.

Herzlichen Dank (und auch an Huebie & Skysnake fuer Ihre Antworten).