PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Maxwell - GM1xx (H1/2014) / GM2xx (H2/2014)


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 [21] 22 23 24 25 26 27 28 29 30 31 32 33

mironicus
2014-09-15, 12:53:42
256 Bit gehört eindeutig in die 200 Euro-Liga.

Kommt der große Maxwell wohl mit 512 Bit?

dildo4u
2014-09-15, 12:55:26
256 Bit gehört eindeutig in die 200 Euro-Liga.

Kommt der große Maxwell wohl mit 512 Bit?
Vermutlich 384 damit sie 6GB Karten verkaufen können,an Basis 8GB glaub ich nicht NV knausert dort gerne.

AffenJack
2014-09-15, 12:57:26
Erzähl doch nicht so was, Du warst einer der die 400mm2 als nicht zutreffend hingestellt hast.

Ich kann mich noch sehr gut an deine Aussage von näher an 300mm2 als an 400mm2 erinnern.


Er hat immer von ~350mm² geredet. Die 300mm² kamen eher von dir.

Hübie
2014-09-15, 13:02:34
Wer sagt denn dass Maxwell ähnlich wie Tonga eine Kompression verwendet? :|

@dural: Wenn du dich so genau erinnerst suche das doch bitte raus. Ich kann mich nicht daran erinnern dass Ailuros so etwas behauptet hätte. 370-380 is mein Tipp und in der Region lag seine stets. Fantasier nicht rum.

Ailuros
2014-09-15, 13:07:04
Erzähl doch nicht so was, Du warst einer der die 400mm2 als nicht zutreffend hingestellt hast.

Ich kann mich noch sehr gut an deine Aussage von näher an 300mm2 als an 400mm2 erinnern.

Aber mir ist das ehrlich gesagt egal wer recht hatte und wer nicht, will jetzt endlich mal einen vernünftigen Test sehen, oder noch besser die Karte selber in der Hand halten.

Ich weiss sehr wohl was ich und was ich nicht erzaehlt habe. Mir ist scheissegal an welchen Dreck Du Dich erinnern willst, Du hast NICHT das Recht mir etwas ins Maul zu legen.

Es gibt hier auch nichts zu verdrehen oder schoenzureden. Behalte Deine Luegen gefaelligst fuer Dich selber.

fondness
2014-09-15, 13:11:51
Displayanschlüsse:

http://s4.postimg.org/68qxlyf8t/gtx_980_display_connectors.jpg (http://postimage.org/)

http://www.chiphell.com/thread-1129637-1-1.html

3xDP, 1x HDMI, 1xDVI

Unicous
2014-09-15, 13:13:33
also theoretisch komme ich auf 300 - 350mm2
:rolleyes:


Wenn man ohne Kontext Blödsinn labert und dann auch noch das Gegenteil behauptet kommt so etwas dabei heraus.

mironicus
2014-09-15, 13:13:38
3 DP, 1 HDMI, 1 DVI-D? Gerüstet für 3 GSync-Monitore gleichzeitig? Fein! :)

Unicous
2014-09-15, 13:16:37
@mironicus

G-Sync ist weiterhin auf eine GPU pro Monitor beschränkt. Schau dir mal im entsprechenden Thread das G-Sync Surround Video mit Tom Peterson an.

Nightspider
2014-09-15, 13:18:12
Hoffentlich sind das Displayport 1.3 Anschlüsse.

Unicous
2014-09-15, 13:20:03
Hoffentlich sind das Displayport 1.3 Anschlüsse.

Wie soll das gehen? DP 1.3 ist iirc nicht final verabschiedet.

mironicus
2014-09-15, 13:20:43
@mironicus

G-Sync ist weiterhin auf eine GPU pro Monitor beschränkt. Schau dir mal im entsprechenden Thread das G-Sync Surround Video mit Tom Peterson an.

Weißt du denn auch 100% das diese Beschränkung auch für die neuen Maxwell-Karten gilt? :tongue:

HDMI 2.0 wäre jetzt auch nicht unwichtig.

Nightspider
2014-09-15, 13:26:11
Immerhin hat es nur ~2,5 Jahre gedauert bis Nvidia begriffen hat, das im alten Design (GTX680) viel zu wenig Luft durch die Slotblende gelangte.

http://images.bit-tech.net/content_images/2012/03/nvidia-geforce-gtx-680-2gb-review/gtx680-14b.jpg

Der Luftwiderstand bei der neuen Slotblende dürfte gerade mal halb so hoch sein.

Das dürfte auf jeden Fall dazu beitragen, dass die Temperatur schön gering bleibt und die meiste Wärme das Gehäuse auch verlässt.

Unicous
2014-09-15, 13:26:51
Weißt du denn auch 100% das diese Beschränkung auch für die neuen Maxwell-Karten gilt? :tongue:

HDMI 2.0 wäre jetzt auch nicht unwichtig.

Nö. Aber Tom Peterson hat gesagt, ja das wäre toll wenn das gehen würde aber im Moment geht es nicht. Er hat auch nicht gesagt "watch this space" in einem Monat gehts. Daher gehe ich davon aus, dass es nicht "nur" an der GPU sondern auch am Treiber, vllt. sogar an der Kommunikation GPU-Treiber-G-Sync Modul liegen könnte.

fondness
2014-09-15, 13:28:07
Immerhin hat es nur ~2,5 Jahre gedauert bis Nvidia begriffen hat, das im alten Design (GTX680) viel zu wenig Luft durch die Slotblende gelangte.

http://images.bit-tech.net/content_images/2012/03/nvidia-geforce-gtx-680-2gb-review/gtx680-14b.jpg

Der Luftwiderstand bei der neuen Slotblende dürfte gerade mal halb so hoch sein.

Das dürfte auf jeden Fall dazu beitragen, dass die Temperatur schön gering bleibt und die meiste Wärme das Gehäuse auch verlässt.

Verlass dich nicht drauf, die Seite mit dem DVI ist zu, siehe Board-Shots.

http://s30.postimg.org/bwkubd9yp/NVIDIA_Ge_Force_GTX_980_PCB_Front_Picture.jpg (http://postimage.org/)

memoal
2014-09-15, 13:28:20
@Dural
Nein hat er nicht, falls du das hier meinst lies es nochmal genauer, dass steht genau im gegensätzlichen Zusammenhang: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10313560&postcount=3964

Geschrieben hat er mal das "GM200 einen Furz größer als 550mm² werden könnte", was aber eine spekulative Annahme war und bleibt. Die Diskussion von um 370mm² stammt von @Hasebaer, da ging es aber um etwas anderes, SP-DP Leistung glaube ich und das Unterbringen dieser Einheiten auf dem Die.

@Ailuros hat die ganze Zeit immer wieder darauf hingewiese, nicht anzunhemen das es kleiner als gedacht wird, dass ist ein Unterschied. Vielleicht schickst du ihm mal eine PM.

Keine Beweihräucherung ;), soll nur helfen einen Schreibstil zu verstehen, da kann es ja manchmal Missverständnisse geben.

mczak
2014-09-15, 13:28:43
Wer sagt denn dass Maxwell ähnlich wie Tonga eine Kompression verwendet? :|

GM107 tut das. Scheint doch eher unwahrscheinlich dass das bei den grösseren Maxwells dann nicht mehr der Fall sein soll...

Nightspider
2014-09-15, 13:34:47
Wie soll das gehen? DP 1.3 ist iirc nicht final verabschiedet.

Das wäre grauenvoll.

Dann würden DP1.3 erst mit Pascal im Jahre 2016 einzug halten und Monitore eventuell erst 2016/2017.
Dann müssten wir noch 3 Jahre warten bis 4K Monitore mit 120Hz (3D) auf den Markt kommen. :|

Verlass dich nicht drauf, die Seite mit dem DVI ist zu, siehe Board-Shots.

http://s30.postimg.org/bwkubd9yp/NVIDIA_Ge_Force_GTX_980_PCB_Front_Picture.jpg (http://postimage.org/)

Selbst wenn würde mehr Volumen fließen. Aber zwischen DVI-Box und Slotblende sind auch noch paar mm. Die Luft kann diesen auch noch umfließen und somit wird da auch ein wenig heiße Luft rauskommen können.

Ailuros
2014-09-15, 13:37:12
memoal,

Wenn ich von es von zwei zuverlaessigen Quellen habe dass GM200 um die 560mm2 gross ist, dann hab ich auch nicht mehr viel Zweifel dass es nicht stimmen koennte.

http://forum.beyond3d.com/showpost.php?p=1871396&postcount=1931

Es kann zwar vieles passieren, aber bis jetzt lag Erinyes nie falsch. Fuer Kepler war er bis auf den letzten mm2 korrekt mit 294 bzw. 551 fuer GK104/110.

Nebenbei hab ich auch oefters erwaehnt dass die Packdichten auf GM20x relativ hoch sind; GM200 hat eben afaik NICHT nur etwas ueber 7Mrd Transistoren.

Nightspider
2014-09-15, 13:39:20
Meine Glaskugel sagt 9Mrd für GM200. Wer bietet mehr?

memoal
2014-09-15, 13:40:49
Wenn ich von es von zwei zuverlaessigen Quellen habe dass GM200 um die 560mm2 gross ist, dann hab ich auch nicht mehr viel Zweifel dass es nicht stimmen koennte.
O.K. danke für die Info, wollte niemandem zu nahe treten, habs aber fast alles gegengelesen, hatte mir's gemerkt, daher wusste ich es. Find den Link dann doch interessant, GM200 mäßig, dieses Jahr dann nix neues mehr von nV im Highendbereich.

Verlass dich nicht drauf, die Seite mit dem DVI ist zu, siehe Board-Shots.
Sieht auf dem obigen Bild mit den Anschlüssen eher so aus, als würde das Gehäuse des DVI Anschlusses unten (zum PCB hin) frei sein, guck nochmal. Das ginge dann soweit i.O. wenn man ausreichenden Strom-Druck erzeugen kann, so dass sich die Luft verteilt, der Hauptstrom wird sicherlich über den DP Anschlüssen liegen, bin mal gespannt wies bei der 970 mit der Anschlussvielfalt aussieht.

fondness
2014-09-15, 13:45:04
memoal,

Wenn ich von es von zwei zuverlaessigen Quellen habe dass GM200 um die 560mm2 gross ist, dann hab ich auch nicht mehr viel Zweifel dass es nicht stimmen koennte.

http://forum.beyond3d.com/showpost.php?p=1871396&postcount=1931

Es kann zwar vieles passieren, aber bis jetzt lag Erinyes nie falsch. Fuer Kepler war er bis auf den letzten mm2 korrekt mit 294 bzw. 551 fuer GK104/110.

Nebenbei hab ich auch oefters erwaehnt dass die Packdichten auf GM20x relativ hoch sind; GM200 hat eben afaik NICHT nur etwas ueber 7Mrd Transistoren.

Hast du auch genaue Angaben zu GM204?

Unicous
2014-09-15, 13:51:41
Das wäre grauenvoll.

Dann würden DP1.3 erst mit Pascal im Jahre 2016 einzug halten und Monitore eventuell erst 2016/2017.
Dann müssten wir noch 3 Jahre warten bis 4K Monitore mit 120Hz (3D) auf den Markt kommen. :|



Selbst wenn würde mehr Volumen fließen. Aber zwischen DVI-Box und Slotblende sind auch noch paar mm. Die Luft kann diesen auch noch umfließen und somit wird da auch ein wenig heiße Luft rauskommen können.

Die orginale DP 1.2a Spezifikation (ohne optionales Adaptive Sync) wurde Anfang 2010 verabschiedet. Displays die 1.2a konform sind kannst du wahrscheinlich an einer Hand abzählen. Dell behauptet sie hätten letztes Jahr Displays mit 1.2a Konformität herausgebracht, vllt. sind viele Monitore sogar schon 1.2a konform(wer weiß) aber die Monitor-Industrie ist traditionell seeeeeehr träge. Ich hoffe wirklich dass AMD es hinbekommen hat, die wichtigsten Hersteller an Board zu bekommen, sodass wenigstens FreeSync "against all odds" schnell implementiert wird.

Ich hoffe auch, dass Adaptive Sync optional in der 1.3 Spec enthalten sein wird. Tom Peterson hatte da ja schon FUD (im wahrsten Sinne des Wortes) verbreitet, dass VESA die Industrie nicht zwingen könnte ihre Scaler Adapaptive Sync konform zu machen, es also optional bleiben wird.

memoal
2014-09-15, 13:57:58
Tom Peterson hatte da ja schon FUD (im wahrsten Sinne des Wortes) verbreitet, dass VESA die Industrie nicht zwingen könnte ihre Scaler Adapaptive Sync konform zu machen, es also optional bleiben wird.
Irgendwie traurig, dieser dröge Laden der "Monitorgurus", naja kann man auch nix mehr verdienen, Margen sind recht niedrig. Verstehe das trotzdem nicht , wenns sowas schon gibt/gäbe wärs ja sinnvoll. Was soll einen überhaupt animieren was neues zu kaufen?

Hatte gehofft ab 1.3 wird es Standard. Dann kann man eher mit fetten Aufpreisen rechnen.

Unicous
2014-09-15, 14:16:52
@mironicus

Ich habe jetzt noch mal das Video abgeklappert und etwas verwechselt. Könnte sein, dass G-Sync Surround doch mit einer Maxwell Karte klappen könnte.

https://www.youtube.com/watch?feature=player_detailpage&v=Z_FzXxGVNi4#t=1170

Ryan Shrout sagt Nvidia-Karten haben bislang meist nur einen Displayport und fragt ob daran gearbeitet wird. Daraufhin sagt Tom Peterson dass sie daran gedacht haben, er aber nicht über zukünftige Produkte reden kann. Aber später sagte er noch einmal explizit, dass es nicht über einen MST-Hub geht, weil das Modul dazu nicht in der Lage ist. Die beiden Sachen habe ich verwechselt, sry.

Godmode
2014-09-15, 14:21:56
Nebenbei hab ich auch oefters erwaehnt dass die Packdichten auf GM20x relativ hoch sind; GM200 hat eben afaik NICHT nur etwas ueber 7Mrd Transistoren.

Schön das zu hören. Einen GM200 mit Shrink hätte ich immer auf ca. das doppelte von GK110 eingeschätzt, also ~14Mrd. Wenn für GM200 der selbe Faktor wie für GM107 und GM204 gilt, dann können wir wohl ohne Shrink mit 9-10Mrd Transistoren rechnen.

Steht Q1 für Consumer GM200 noch im Raum? 28nm Kapazitäten müssten ja mittlerweile massig vorhanden sein, da die Mobiles ja mittlerweile auf 20nm wechseln.

Mandalore
2014-09-15, 14:24:16
GM200 in Q1 15? Bezieht er sich darauf auf Profi-Karten oder GeForce Karten? Oder beides?

memoal
2014-09-15, 14:24:59
Hast du auch genaue Angaben zu GM204?

Also @CB meinen oder geben wieder, sie sei langsamer als die 780ti.

Den Rückstand von 320 Shadern gegenüber der GTX 780 Ti soll die GeForce GTX 980 auch mit der neuen Maxwell-Architektur und eventuell höherer Taktraten nicht wett machen können.
http://www.computerbase.de/2014-09/geforce-gtx-980-im-referenzdesign-enthuellt/

Dann können die bisherigen Preise/Preisgestaltung ggf. nicht stimmen.

GM200 in Q1 15? Bezieht er sich darauf auf Profi-Karten oder GeForce Karten? Oder beides?
Eben nicht vor 2015, oder nicht geplant. Mal sehen ob wir was vom 206 noch in diesem Jahr zu sehen bekommen. Highend dürfte die 980 oder vielleicht noch die 980ti alles sein dieses Jahr.

AffenJack
2014-09-15, 14:28:08
Der Autor hat schlicht keine Ahnung, er schreibt ja auch noch von 2560 Shadern, die wohl ausgeschlossen sind. Die Gerüchte gehen ja sowieso hin und her. Es ist wohl so, dass nur weil Wolfgang die Karten wahrscheinlich hat, noch nicht jeder in der Redaktion da bescheid weiß.

Schaffe89
2014-09-15, 14:35:52
Nein, da weiß höchstens Wolfgang oder vielleicht noch Volker bescheidt.
Die anderen haben da schlicht keine Ahnung.

Es werden wohl 1920 oder 2048 Shader sein +15 mehr Leistung pro Shader.
Das würde dann reichen um eine GTX 770 etwa 30 bis 40% zu schlagen und letztendlich bei einer R9 290x/GTX 780 Ti + 5% aufzuschlagen.

Was mich aber vor allem interessiert ist die 4K Performance.
Mein Samsung Monitor wird von einer r9 290 Trix auf GTX 780 TI Stock Niveau befeuert.
Sollte Nvidia dort einbrechen, werd ich sicher nicht wechseln.

Dawn on Titan
2014-09-15, 14:52:48
Vor Fiji ist doch alles langweilig. Das wird die Bombe.

Godmode
2014-09-15, 14:55:09
Es werden wohl 1920 oder 2048 Shader sein +15 mehr Leistung pro Shader.
Das würde dann reichen um eine GTX 770 etwa 30 bis 40% zu schlagen und letztendlich bei einer R9 290x/GTX 780 Ti + 5% aufzuschlagen.

Was mich aber vor allem interessiert ist die 4K Performance.
Mein Samsung Monitor wird von einer r9 290 Trix auf GTX 780 TI Stock Niveau befeuert.
Sollte Nvidia dort einbrechen, werd ich sicher nicht wechseln.

Waren es IIRC nicht 35% mehr Performance/Core bei Maxwell? Das wäre dann umgerechnet 2768 Kepler ALUs. Durch den höheren Takt von GM204 gegenüber einer 780 Ti, könnte dann auch etwas mehr Leistung rausspringen, unter der Bedienung, dass das Speicherinterface nicht limitiert.

MechWOLLIer
2014-09-15, 15:07:03
Der Autor hat schlicht keine Ahnung, er schreibt ja auch noch von 2560 Shadern, die wohl ausgeschlossen sind. Die Gerüchte gehen ja sowieso hin und her. Es ist wohl so, dass nur weil Wolfgang die Karten wahrscheinlich hat, noch nicht jeder in der Redaktion da bescheid weiß.

Was hab ich?:D

Pumpi74
2014-09-15, 15:34:52
Was hab ich?:D

Leider nicht erklärt wie Gerüchte etwas bescheinigen können.

Gerüchte bescheinigen der Grafikkarte eine Leistung über der der GeForce GTX 780, nicht aber über der der GeForce GTX 780 Ti.

mironicus
2014-09-15, 15:35:38
Was hab ich?:D

Der weiß was du momentan machst. Scary! :freak:

Gerüchte bescheinigen der Grafikkarte eine Leistung über der der GeForce GTX 780, nicht aber über der der GeForce GTX 780 Ti.

Gerüchte = Indirekte Bestätigung seitens Computerbase.

Ailuros
2014-09-15, 15:48:46
Waren es IIRC nicht 35% mehr Performance/Core bei Maxwell? Das wäre dann umgerechnet 2768 Kepler ALUs. Durch den höheren Takt von GM204 gegenüber einer 780 Ti, könnte dann auch etwas mehr Leistung rausspringen, unter der Bedienung, dass das Speicherinterface nicht limitiert.

Ja fuer die normal sterblichen sind es 35% pro cluster fuer AMD aber nur 15% weil mehr nicht in ihrer besten Interesse liegt ;D

Schaffe89
2014-09-15, 16:11:34
Ja natürlich, am liebsten wäre mir ein Chip mit 30% Mhrleistung zur GTX 780 Ti und 599 Dollar, dann purzeln wenigstens die Preise!
Ansonsten glaub ich kaum, dass jemand ernsthaft an die 35% Mehrleistung pro Shader glaubt, das ist wahrscheinlich nur der Bestcase.

Dural
2014-09-15, 16:42:38
2048SP für die GTX 980 sollen es sein, ist OK und wird sicher GK110+ Leistung ermöglichen.

Edit:
TDP 175Watt :eek: und mehr Anschlüsse:

-/\-CruNcher-/\-
2014-09-15, 16:59:42
Leider nicht erklärt wie Gerüchte etwas bescheinigen können.

Werdet doch mal realistisch Nvidias SuperComputer hat das schon berrechnet und natürlich wird das so sein weil Nvidia es sich nicht leisten kann in Synthetik Benches dahinter zu stehen.

Aber der Energieoutput wird um ein vielfaches niedriger sein darum geht es Primär zudem wird die Compute Leistung die 780 TI wohlmöglich wegputzen (sehr wahrscheinlich sogar) :)

Akkarin
2014-09-15, 17:01:59
Könntst du bitte zum chiphell artikel linken wo du die infos her hast dural ?

Dural
2014-09-15, 17:04:26
http://videocardz.com/52339/nvidia-geforce-gtx-980-has-2048-cuda-cores

Blaire
2014-09-15, 17:08:53
http://videocardz.com/52339/nvidia-geforce-gtx-980-has-2048-cuda-cores

We will cover 2nd Generation Maxwell in detail very soon. Maxwell GM204 has some very neat features for gamers.

^^Was sich wohl dahinter verbirgt? :biggrin:

Dural
2014-09-15, 17:10:26
das sagen sie doch bei jedem neuen Chip :wink: wir werden es ja sehen.

-/\-CruNcher-/\-
2014-09-15, 17:14:28
Darauf würde ich nichts geben was neat für solche leute ist kann total trivial sein.

Godmode
2014-09-15, 17:16:27
We will cover 2nd Generation Maxwell in detail very soon. Maxwell GM204 has some very neat features for gamers.

^^Was sich wohl dahinter verbirgt? :biggrin:

Ich hoffe mal das ist wirklich was sinnvolles für PC Gamer. Die letzten großen Ankündigungen waren ja alle sehr enttäuschend.

Unicous
2014-09-15, 17:30:27
Wie soll das gehen? DP 1.3 ist iirc nicht final verabschiedet.

LOOOOOOOOOOOOOOOOOOL

;D;D;D;D;D;D;D;D;D;D;D;D;D

VESA releases DisplayPort 1.3 standard (http://videocardz.com/52346/vesa-releases-displayport-1-3-standard)

Ich wette mal VCZ hat mal wieder eine PM vorgegriffen, wie es so oft tun.

VESA ist eher zu doof ihre eigenen PMs auf der Website zu posten.

Rente
2014-09-15, 17:31:38
LOOOOOOOOOOOOOOOOOOL

;D;D;D;D;D;D;D;D;D;D;D;D;D

VESA releases DisplayPort 1.3 standard (http://videocardz.com/52346/vesa-releases-displayport-1-3-standard)

Ich wette mal VCZ hat mal wieder eine PM vorgegriffen, wie es so oft tun.
Na hoffentlich ist nVidia direkt involviert, 3x DP1.3 on Board wäre spitze.

mironicus
2014-09-15, 17:34:11
Geht damit auch 4K mit 144 Hz? :D

fondness
2014-09-15, 17:35:12
We will cover 2nd Generation Maxwell in detail very soon. Maxwell GM204 has some very neat features for gamers.

^^Was sich wohl dahinter verbirgt? :biggrin:

Interessanter sind schon solche Aussagen:

"GeForce GTX 980 is advertised as GK104 replacement"

Angiesan
2014-09-15, 17:35:22
2048SP für die GTX 980 sollen es sein, ist OK und wird sicher GK110+ Leistung ermöglichen.

Edit:
TDP 175Watt :eek: und mehr Anschlüsse:

Im Leben nicht, GTX 660 (GK 106) gegen GTX 750 TI (GM 107) ist bei etwa 20% Performanceplus für die GTX 660 bei runden + 100 MHz für den GM 107. Da der L2 Cache wohl bei GM 204 auch "nur" 2084 KB groß ist, wo soll das denn herkommen? Da müsste der Chip fast mit 1300 MHz arbeiten damit der GM 204 den GK 110 schlagen kann, das glaub ich nicht, ne das weiß ich dass es nicht so ist ;-) Das wird genau so aussehen wie bei GM 107 das Ding wird in einigen Spielen auf Augenhöhe oder leicht über der Leistung einer GTX 780 TI liegen und in anderen eher deutlich zurück, mal sehen wer seinen Parkour dafür anpasst:redface:
Oder NV hat durch die abgespeckten Logikeinheiten soviel Platz gespart, dass der GM 204 doch 2560 Shader hat, dann haut er den GK 110 weg, aber sowas von:biggrin:

Ailuros
2014-09-15, 17:35:50
Ja natürlich, am liebsten wäre mir ein Chip mit 30% Mhrleistung zur GTX 780 Ti und 599 Dollar, dann purzeln wenigstens die Preise!
Ansonsten glaub ich kaum, dass jemand ernsthaft an die 35% Mehrleistung pro Shader glaubt, das ist wahrscheinlich nur der Bestcase.

Ich glaube es zumindest beim GM107 vs. GK107 mehr als nur zutrifft. Du bist sogar so "ueberzeugt" davon dass Du sogar "wahrscheinlich" benutzt, weil Du Dich womoeglich nie mit der Materie ernsthaft beschaeftigt hast. Es gibt reviews dafuer, die Deine diesbezueglichen "Spekulationen" zum Thema ziemlich schnell entwerten.

GM204 hat nicht 30% mehr Leistung als eine 780Ti weil sie schlicht und einfach NICHT dafuer ausgelegt wurde. Auch fuer Dich zum mitlesen: sie brauchen noch anstaendigen Luftraum zum GM200. Setzt man den default des GM204 zu hoch an, liegt man schon in den Bereichen eines salvage parts vom GM200.

http://videocardz.com/52339/nvidia-geforce-gtx-980-has-2048-cuda-cores

Tolle "Meldung" nachdem es schon fast jeder leaker von den Daechern schreit. Wie waere es wenn die Bumsfallera-Seite sich mal endlich einen Gefallen tut und eine wirklich eigene und ernsthafte Meldung landet? :rolleyes:

fondness
2014-09-15, 17:40:09
http://videocardz.com/52339/nvidia-geforce-gtx-980-has-2048-cuda-cores

Kurze Rechnung:

2048SPs + 35% (NV-Angabe) = 2764,8SPs Kepler Äquivalent.

Für GK110 Performace bräuchte es also 4,17% mehr Takt, vorausgesetzt die Bandbreite limitiert nicht stärker wie bei GK110.

Nightspider
2014-09-15, 17:41:36
LOOOOOOOOOOOOOOOOOOL

;D;D;D;D;D;D;D;D;D;D;D;D;D

VESA releases DisplayPort 1.3 standard (http://videocardz.com/52346/vesa-releases-displayport-1-3-standard)

Ich wette mal VCZ hat mal wieder eine PM vorgegriffen, wie es so oft tun.

VESA ist eher zu doof ihre eigenen PMs auf der Website zu posten.

Lol. :D

Hätten wir das geklärt. Ob es Zufall ist, dass der neue Anschluss genau heute publiziert wird, wo so viele Infos zur GTX980 kommen?

Ich glaube nicht und hoffe stark, dass die GTX980 schon mit Displayport 1.3 Anschlüssen kommt.

Geht damit auch 4K mit 144 Hz? :D

Ja. Displayport 1.3 soll mit Kompression später auch 8K bei 60Hz schaffen, was ja schon 4 mal so viel Bandbreite benötigt wie 4K @ 60Hz.

Unicous
2014-09-15, 17:43:00
Na hoffentlich ist nVidia direkt involviert, 3x DP1.3 on Board wäre spitze.

Ähm... wenn die Spec heute verabschiedet wurde, heißt das nicht, dass eine GPU die min. 2 Jahre in der Mache ist, dies automatisch unterstützt. Wäre gut, aber Nvidia ist da leider nicht der Vorreiter. Wie gesagt, es hat "ewig" gedauert bis Nvidia mal erkannt hat, dass Displayport ein cooler Standard ist.

Sie scheren sich einen Dreck um Adaptive Sync "It's just a spec" und ich würde ihnen einen bipolare Störung unterstellen, wenn sie sofort auf den DP 1.3 bandwagon aufspringen. Aber man kann sich ja überraschen lassen.:wink:

Ailuros
2014-09-15, 17:44:31
Kurze Rechnung:

2048SPs + 35% (NV-Angabe) = 2764,8SPs Kepler Äquivalent.

Für GK110 Performace bräuchte es also 4,17% mehr Takt, vorausgesetzt die Bandbreite limitiert nicht stärker wie bei GK110.

Wenn schon denn schon: mit der Formel ist GM204 um die 80% schneller als GK104. Kann der Unterschied wirklich so gross sein im Durchschnitt? ;)

fondness
2014-09-15, 17:45:23
Geht damit auch 4K mit 144 Hz? :D

Hm, laut der Spec liegt die Bandbreite "nur" 50% über DP1.2.

Nightspider
2014-09-15, 17:45:34
Ähm... wenn die Spec heute verabschiedet wurde, heißt das nicht, dass eine GPU die min. 2 Jahre in der Mache ist, dies automatisch unterstützt. Wäre gut, aber Nvidia ist da leider nicht der Vorreiter. Wie gesagt, es hat "ewig" gedauert bis Nvidia mal erkannt hat, dass Displayport ein cooler Standard ist.

Sie scheren sich einen Dreck um Adaptive Sync "It's just a spec" und ich würde ihnen einen bipolare Störung unterstellen, wenn sie sofort auf den DP 1.3 bandwagon aufspringen. Aber man kann sich ja überraschen lassen.:wink:


Naja NV und AMD werden schon die ersten Entwürfe und Pre-Spezifikationen für DP1.3 bekommen haben also nicht erst heute.
Da wird man zusammenarbeiten das sowas zügig implementiert wird, denke ich.

Wäre auch blöd für NV wenn AMD dann 4K Monitore mit 120Hz supportet und NV nicht.

Hm, laut der Spec liegt die Bandbreite "nur" 50% über DP1.2.

Aber nur uncompressed.

Hübie
2014-09-15, 17:46:30
Bist du denn sicher dass GM204 "nur" 2MB L2$ hat, Angiesan? Ohne device-query würde ich da erst mal n Fragezeichen setzen. Bei geschätzten 5,4 Mrd Transistoren kann ich mir gut 3072 Kb vorstellen (SRAM kann man ja sehr dicht packen).

@mrzck: Also dass Maxwell im L2 komprimiert ist irgendwie völlig an mir vorbei gezogen. Hast du da mal was zum Lesen? Hab Alienbabeltech, anandtech, techreport usw. damals durchgelesen und nirgends war da die Rede von einer neuen Kompression. Ich rede von so etwas wie in Tonga*, nicht DXTC.


*(wobei das ja immer noch nicht alles ganz klar ist wie, was, wieso, wohin und weshalb macht)

fondness
2014-09-15, 17:48:12
Bist du denn sicher dass GM204 "nur" 2MB L2$ hat, Angiesan? Ohne device-query würde ich da erst mal n Fragezeichen setzen. Bei geschätzten 5,4 Mrd Transistoren kann ich mir gut 3072 Kb vorstellen (SRAM kann man ja sehr dicht packen).


Das lässt sich über die CUDA-API auslesen, außerdem hängt die L2-Größe bei Maxwell AFAIK am SI, deshalb wären 2MB logisch bei einem 256-bit SI wenn GM107 1MB hat (bei 128bit SI).

aufkrawall
2014-09-15, 17:52:58
Wenn schon denn schon: mit der Formel ist GM204 um die 80% schneller als GK104. Kann der Unterschied wirklich so gross sein im Durchschnitt? ;)
Wen interessiert irgendein Durchschnitt, in den lauter unnütze Schrott-MSAA Werte miteinfließen? :rolleyes:

-/\-CruNcher-/\-
2014-09-15, 17:59:24
Interessanter sind schon solche Aussagen:

"GeForce GTX 980 is advertised as GK104 replacement"

Sie haben alles der effizienz nach geshifted wo ist das interessant es war abzusehen siehe Peterson Interview mit PCGH und Vorstellung GTX 750

Locuza
2014-09-15, 17:59:27
Das lässt sich über die CUDA-API auslesen, außerdem hängt die L2-Größe bei Maxwell AFAIK am SI, deshalb wären 2MB logisch bei einem 256-bit SI wenn GM107 1MB hat (bei 128bit SI).
Der GM107 hat aber stolze 2MB für seine Größe, deshalb bin ich davon ausgegangen, dass GM204 wohl 4 haben wird, da 8 vermutlich das Budget gesprengt hätten.
Da aber sich abzeichnet, dass er die gleiche Cache-Größe hat, bin ich gespannt auf die Bandbreiten-Tests.

AnarchX
2014-09-15, 18:01:21
Wie im Thread schon geschrieben. GM107 gibt es auch mit DDR3. Bei GK208 hatte man hierfür wohl auch die 512KiB von GK104 verbaut.

Hübie
2014-09-15, 18:03:49
Das lässt sich über die CUDA-API auslesen, außerdem hängt die L2-Größe bei Maxwell AFAIK am SI, deshalb wären 2MB logisch bei einem 256-bit SI wenn GM107 1MB hat (bei 128bit SI).

Hm. Ja stimmt L2 hängt am MC-Cluster. Dann sind 2 MB sinnvoll, ja ;D
Das geht mit nvsmi oder halt device-query. Ich durchforste gerade CUDA 6.5 nach Einträgen. Da gibt's ne Datenbank :naughty:
Edit: Noch mal nachgeschaut da du mich verwirrt hast: GM107 2 MB L2$ und GM204 also doch evtl 4?

fondness
2014-09-15, 18:06:50
Sorry mein Fehler habs auch gerade gemerkt. Dann nehme ich alles zurück und behaupte das Gegenteil. :ugly:

BTW, der Banner spricht von "worlds most advanced", nicht von "worlds most powerful" Graphics Card.^^

dildo4u
2014-09-15, 18:15:27
BTW, der Banner spricht von "worlds most advanced", nicht von "worlds most powerful" Graphics Card.^^
Gibt ja auch Titan Z.

Hübie
2014-09-15, 18:19:00
Sorry mein Fehler habs auch gerade gemerkt. Dann nehme ich alles zurück und behaupte das Gegenteil. :ugly:

BTW, der Banner spricht von "worlds most advanced", nicht von "worlds most powerful" Graphics Card.^^

Ja, dennoch würden 3 MB keinen Sinn ergeben :redface:

AnarchX
2014-09-15, 18:25:17
2560x1440 Benchmark Rating inkl. OC:

http://i.imgur.com/fqbJcwh.jpg

http://semiaccurate.com/forums/showpost.php?p=221192&postcount=405

fondness
2014-09-15, 18:28:34
Hm, default keine 5% über 780Ti bei erheblich mehr Takt, die GTX970 nur auf dem Niveau der 290 nonX. Mit Ocing zieht die 780Ti vorbei.

Hübie
2014-09-15, 18:29:30
"Nur" X-D

fondness
2014-09-15, 18:31:02
"Nur" X-D

Ich hätte ~10% mehr erwartet. So ist es ein reines Effizienzupdate mit weniger OC-Potential (plus den überfällig 4GB VRAM).

dildo4u
2014-09-15, 18:32:39
Natürlich rennt das Ding der 780 Ti nicht davon wenn du noch Luft für Big Maxwell lassen musst.Der Chip hat Tonga Größe nur kann NV ihn locker fürn 2 Fachen Preis verkaufen.

Schnoesel
2014-09-15, 18:33:27
Default bei der R9 290 X ist dann wohl Quiet Mode wegen der Taktangabe 936-100?! Schlägt sich doch aber sehr gut auf 1440p.

aufkrawall
2014-09-15, 18:34:35
Boostet aber ziemlich hoch, wenn das der Default Clock ist.
Die OC-Höhe wäre gemessen daran sehr gering.

Angiesan
2014-09-15, 18:37:24
Aber so wir ein Schuh draus und 1400 scheint ja fast möglich und 1175-12xx Boost ist schon eine Hausnummer mal sehen was so eine Karte dann wirklich verbraucht.

ChaosTM
2014-09-15, 18:38:20
Interessante Karte. Bin schon auf 2160p Benchmarks gespannt. 290x Niveau mit deutlich weniger Strom wär schon was..

aths
2014-09-15, 18:38:45
Die Karte ist marketingtechnisch sicherlich gelungen: Möglicherweise über der 780 Ti, dazu mit 4 statt 3 GiB RAM, das klingt für weniger informierte Leute wie der neue High-End-Kracher.

Realistisch gesehen hält Nvidia einfach auf dem 780-Ti-Level den Preis hoch, während gleichzeitig die Karte günstiger zu produzieren ist.

Immerhin, die Karte ist hoffentlich leiser als die 780 Ti. Zudem bietet sie mehr Monitor-Anschlüsse, was das Einsatzgebiet ohne Adapter vergrößert.

dildo4u
2014-09-15, 18:39:05
Default bei der R9 290 X ist dann wohl Quiet Mode wegen der Taktangabe 936-100?! Schlägt sich doch aber sehr gut auf 1440p.
Jup das ist der wichtige Punkt die effektive Bandbreite ist hoch genug für so ne hohe Auflösung.1440p ist bei manchen Games eh schon zu viel für eine Karte siehe Crysis 3.

StefanV
2014-09-15, 18:41:34
We will cover 2nd Generation Maxwell in detail very soon. Maxwell GM204 has some very neat features for gamers.

^^Was sich wohl dahinter verbirgt? :biggrin:
Direct X 11.2?

Angiesan
2014-09-15, 18:43:11
loool

Schnoesel
2014-09-15, 18:44:12
Jup das ist der wichtige Punkt die effektive Bandbreite ist hoch genug für so ne hohe Auflösung.1440p ist bei manchen Games eh schon zu viel für eine Karte siehe Crysis 3.

Nicht nur Crysis 3. 1440p zieht bei sehr vielen Spielen mächtig an der Performance. Mal weitere Tests abwarten aber bis jetzt sieht es so aus als würde man das 256 bit SI kompensieren können.

aufkrawall
2014-09-15, 18:44:52
Immerhin, die Karte ist hoffentlich leiser als die 780 Ti. Zudem bietet sie mehr Monitor-Anschlüsse, was das Einsatzgebiet ohne Adapter vergrößert.
Nicht zu vergessen die Compute-Performance/W.
Intel wird mit Broadwell dort angreifen, ist nicht ganz trivial.

StefanV
2014-09-15, 18:45:17
loool
Nujo, wär nach all der langen Zeit mal zu erwarten, theoretisch...

-/\-CruNcher-/\-
2014-09-15, 18:47:32
Hm, default keine 5% über 780Ti bei erheblich mehr Takt, die GTX970 nur auf dem Niveau der 290 nonX. Mit Ocing zieht die 780Ti vorbei.

Diese Datenbasis ist totaler müll, das ja so als bekommste die Speisekarte erst nach der Bestellung ;)

Dawn on Titan
2014-09-15, 19:32:00
Kaum 290X Level - arm. Unter 4k wahrscheinlich deutlich hinter 290X.

dildo4u
2014-09-15, 19:34:20
Kaum 290X Level - arm. Unter 4k wahrscheinlich deutlich hinter 290X.
4K ist nicht spielbar auf diesen GPU's,1440p ist der Sweet Spot,vorallem da die GPU Anforderungen mit reinen Next-Gen Port's wieder steigen werden.


Crysis 3 braucht ne 295X2 für 4k.

http://abload.de/img/c345ankf4.jpg

aufkrawall
2014-09-15, 19:36:32
Ohne MSAA wird die 980 auch unter 4k schneller als die 290X sein (auf Basis dieser obskuren Daten).
Und MSAA ist derzeit unter 4k mit sGPU eh nicht zu nutzen

Nightspider
2014-09-15, 19:38:17
4K ist nich spielbar auf diesen GPU's,1440p ist der Sweet Spot,vorallem da die GPU Anforderungen mit reinen Next-Gen Port's wieder steigen werden.

Nur wenn man zu dumm ist 1 oder 2 Einstellungen eine Stufe runterzustellen.

Und wer viele FPS will kann sich ein 290 CF für unter 600 Euro zusammenbauen.

Wer gebraucht kauft zahlt sogar nur 480 Euro für ein R9 290 CF.

Also nicht immer NV schönreden in dem man 4K schlechtredet. ;)

Gerade HBAO usw. frisst in den meisten Games dermaßen viel Leistung das die meisten Leute 4K mit minimal reduzierten Settings bevorzugen würden.

aufkrawall
2014-09-15, 19:40:58
HBAO+ braucht überhaupt nicht mehr Leistung als andere gutklassige AO-Lösungen und hör doch auf mit dem AFR-Mist...

dildo4u
2014-09-15, 19:41:38
Ich brauche mir nix schön reden die GPU Anforderungen werden steigen,es gibt nur ein echtes reines Next-Gen Game für den PC und das läuft wie Abfall.

aufkrawall
2014-09-15, 19:42:52
Ich brauche mir nix schön reden die GPU Anforderungen werden steigen,es gibt nur ein echtes reines Next-Gen Game für den PC und das läuft wie Abfall.
Welches war das noch gleich?

fondness
2014-09-15, 19:45:55
HBAO+ braucht überhaupt nicht mehr Leistung als andere gutklassige AO-Lösungen und hör doch auf mit dem AFR-Mist...

Ändert nichts daran das er grundsätzlich recht hat. Es gibt in fast jedem Spiel ein/zwei Settings die auf "ultra" sehr viel Leistung kosten und meist wenig benefit bringen. Wer hier ein bisschen intelligent einstellt kann problemlos mit einer Karte ab 290 alle Spiele in 4K flüssig spielen. Und wer das einmal gesehen hat will nur ungern zurück.

Natürlich steigen durch 4K und Next-Gen-Spiele die Anforderungen, dementsprechend ist Leistung King - schade das NV vorerst nur in den Stromverbrauch investiert.

dildo4u
2014-09-15, 19:46:24
Dead Rising 3,das näste danach wird Ryse und AC Unity sein.Der Rest sind bis jetzt Cross Gen Ports.

ChaosTM
2014-09-15, 19:53:50
Ändert nichts daran das er grundsätzlich recht hat. Es gibt in fast jedem Spiel ein/zwei Settings die auf "ultra" sehr viel Leistung kosten und meist wenig benefit bringen. Wer hier ein bisschen intelligent einstellt kann problemlos mit einer Karte ab 290 alle Spiele in 4K flüssig spielen. Und wer das einmal gesehen hat will nur ungern zurück.

So ist es.
Der Unterschied zwischen 1080p + 4x MSAA und 2160p (ohne) ist relativ gering bezüglich der Anforderungen und letzteres schaut imho ungleich besser aus.
Crysis 3 wird halt in 1080p gespielt und upconvertiert..

dildo4u
2014-09-15, 19:55:32
So ist es.
Der Unterschied zwischen 1080p + 4x MSAA und 2160p (ohne) ist relativ gering bezüglich der Anforderungen .
Was lese ich hier 4K ist 4X 1080p.

dargo
2014-09-15, 19:56:37
Ich brauche mir nix schön reden die GPU Anforderungen werden steigen,es gibt nur ein echtes reines Next-Gen Game für den PC und das läuft wie Abfall.
Auf Nvidia wohlgemerkt. ;)
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10340757&postcount=65

PS: CF/SLI Probleme gibts auch.

PPS: man sollte auch nicht vergessen, dass DR3 auf der XBox One mit nur 30fps und 720p läuft.

ChaosTM
2014-09-15, 19:58:56
Was lese ich hier 4K ist 4X 1080p.
schlecht ausgedrückt.. 1080p mit 4xMSAA oder besser braucht nicht viel weniger Leistung als 4k pur..

dildo4u
2014-09-15, 20:00:43
Auf Nvidia wohlgemerkt. ;)
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10340757&postcount=65

PS: CF/SLI Probleme gibts auch.
Scheint keine Anspruchsvolle Stelle zu sein wenn sie im CPU Teste niedrige Werte bekommen.

http://gamegpu.ru/images/remote/http--www.gamegpu.ru-images-stories-Test_GPU-Action-Dead_Rising_3-test-dr_3_proz_amd.jpg

dargo
2014-09-15, 20:02:27
Scheint keine Anspruchsvolle Stelle zu sein wenn sie im CPU Teste niedrige Werte bekommen.

http://gamegpu.ru/images/remote/http--www.gamegpu.ru-images-stories-Test_GPU-Action-Dead_Rising_3-test-dr_3_proz_amd.jpg
Ja was denn jetzt? Zuerst sprichst du von GPU-Anforderungen und jetzt plötzlich von CPU-Anforderungen? Entscheide dich mal. :freak:

Und warum verlinkst du nur den Test mit der Radeon? Die niedrigen Werte der Radeon im CPU-Limit sind dem hohen Overhead unter D3D geschuldet. Das sieht man sehr gut bei NV.
http://gamegpu.ru/action-/-fps-/-tps/dead-rising-3-test-gpu.html

Wir brauchen halt dringend am PC Mantle und DX12.

aufkrawall
2014-09-15, 20:02:59
Jetzt muss nicht wieder jeder seine persönliche Erfahrung als heiligen Gral hinstellen oder als Kriterium fürs Übermensch-Sein.
Ich hasse Details zu reduzieren und ich hasse 60Hz.

Nightspider
2014-09-15, 20:09:18
Mit dem falschen Fuß aufgestanden? ;)

1080p vs. 4K ist wie stark reduzierte Details. Wenn 4K besser aussieht als 1080p ist es völlig wurscht ob da paar Details um eine Stufe runtergeschraubt sind. Das sieht man oft nicht mal.

Und wenn du so empfindliche bist bzgl der Optik wie du behauptest, dann sollte der Unterschied FHD vs. 4K erst Recht riesig für dich sein. :)

Bzgl AFR: Du hattest doch selbst noch vor einem Jahr SLI. :tongue:

Und wenn dich ein paar Microruckler davon abhalten diesen riesigen optischen Vorteil von 4K zu genießen, bist du wohl ein Sonderfall und musst dich ja nicht an dieser expliziten Diskussion so aggressiv beteiligen. ;)

aufkrawall
2014-09-15, 20:20:22
1080p vs. 4K ist wie stark reduzierte Details. Wenn 4K besser aussieht als 1080p ist es völlig wurscht ob da paar Details um eine Stufe runtergeschraubt sind. Das sieht man oft nicht mal.

Das hab ich schon öfters gehört, etwa bei BF4 oder Crysis 3 Postprocessing runterdrehen als "Geheimtipp". Mir fehlt dann aber definitiv etwas.
Nicht überall gleich, trotzdem kein Argument. Welche Effekte oder Details gehen in 1440p denn so unter, dass sie unterhalb der Wahrnehmungsschwelle landen? Mit 16:1AF kaum welche, und weniger AF fällt auch bei höherer Auflösung störend auf.


Bzgl AFR: Du hattest doch selbst noch vor einem Jahr SLI. :tongue:

Schau doch mal in den SLI-Thread, wie viel Zulauf es hat. ;)
Crossfire kann auch nicht zaubern, es liegt an den Anwendungen. Edit: Es skaliert schlicht nicht oder nur mit Fehlern. Komplett unnütze Investition.


Und wenn dich ein paar Microruckler davon abhalten diesen riesigen optischen Vorteil von 4K zu genießen, bist du wohl ein Sonderfall und musst dich ja nicht an dieser expliziten Diskussion so aggressiv beteiligen. ;)
Du sprichst schon seit Monaten von Crossfire als günstige Alternative. Wird doch mal Zeit, es in die Tat umzusetzen, meinst du nicht? :biggrin:

memoal
2014-09-15, 21:11:11
Hm, die 970 wäre schon interessant wenn die 148w TDP stimmen, fast die Hälfte zur 290, aber auf gleichem fps Level.

aufkrawall
2014-09-15, 21:13:02
Hm, die 970 wäre schon interessant wenn die 148w TDP stimmen, fast die Hälfte zur 290, aber auf gleichem fps Level.
Ich lese übrigens aus dem CB-Test, dass Hawaii seine monströse TDP in Anno 2070 erreicht, sonst wär er mit aufgedrehtem PT nicht 13% schneller :freak: :
http://www.computerbase.de/2014-09/amd-radeon-r9-285-test-benchmarks/9/
Edit: Gerade mal noch zum TT schauen...
Edit 2: Aha, TT von 95°C. Sollte also nicht stark bremsen, wenn überhaupt.

memoal
2014-09-15, 21:39:37
Die 290 kannst du wegen der Temp schon treiben, selbst Kepler auch GK110 genehmigen sich nicht so sehr viel mehr wenn man OC. Hier im Test fand ich den 285 schon interessant, warum AMD mit 918 so tief stapelt, vielleicht hat dann Tonga XT keinen Platz mehr.

Hier ist es aber "Gesamtsystemaufnahme" nicht nur die der Graka, besser bei ht4u gucken.

Wenn die 148w TDP stimmen dürfte das unter Spielen weniger sein, 130-140w, weniger als meine 7950, die wollen mit 930 Boost schon so viel wie Tonga und mehr (160-165 je nach Szene im CF, also dann 320-340w).

Die 970 wäre der Burner in einem Mini ITX System, 2k wäre kein Problem.

aufkrawall
2014-09-15, 21:48:39
Hier ist es aber "Gesamtsystemaufnahme" nicht nur die der Graka, besser bei ht4u gucken.

Besser nicht. Die testen nur irgendeinen Spieleverbrauch, nicht den maximalen.
Am besten noch mit Einflüssen eines etwaigen CPU-Limits...

Wenn eine Karte nicht wegen des Stromverbrauchs gedrosselt würde (TDP erreicht), hätte ein höheres PT-Limit keinen Effekt.
Dass man keine aufs Watt genaue Angabe für eine Karte bei Messung des Gesamtsystemverbrauchs machen kann, ist klar. Ist aber auch in dem Fall gar nicht nötig. Warum nicht, habe ich gerade ausgeführt.

Bei Verbrauch unterhalb des TDP siehts natürlich anders aus. CB sollte das mal dringend angehen.

-/\-CruNcher-/\-
2014-09-15, 21:53:39
Ändert nichts daran das er grundsätzlich recht hat. Es gibt in fast jedem Spiel ein/zwei Settings die auf "ultra" sehr viel Leistung kosten und meist wenig benefit bringen. Wer hier ein bisschen intelligent einstellt kann problemlos mit einer Karte ab 290 alle Spiele in 4K flüssig spielen. Und wer das einmal gesehen hat will nur ungern zurück.

Natürlich steigen durch 4K und Next-Gen-Spiele die Anforderungen, dementsprechend ist Leistung King - schade das NV vorerst nur in den Stromverbrauch investiert.

Ja und da will AMD natürlich mit 800W 4K Gaming den Gamern helfen, du kannst die Auflößung noch so steigern wie du willst Shading wird immer der Sieger sein vor allem da wir mit 1080p und 2k zusammen mit Tesselation schon gute stabile basen haben ;)

Es war auch nicht die Game Industry die nach 4K geschriehen hat sondern die TV Magnate und denen ist die scheiss Auflößung mal wichtiger als endlich die 10 bit Consumer Revulution zu starten wir dümpeln noch mit 6 und 8 bit durch die gegend und Texturformaten gegossen in Hardware aus dem letzten Jahrhundert.

memoal
2014-09-15, 22:08:49
Besser nicht. Die testen nur irgendeinen Spieleverbrauch, nicht den maximalen.
Ja könnte sein, wobei der mich eher interessiert, die 290 im CF nahm hier genau 245w also 2=490 ohne großes OC. Da könnte ich noch eine dritte 7950 zustecken.;)

Wie gesagt, gerade für mich als CF oder SLI :freak: sehr interessant wie das nV macht. Komisch das das andere erstmal nicht hinkriegen.

aufkrawall
2014-09-15, 22:17:07
Du kannst am PT jeder Karte so drehen, dass der Stromverbrauch passt. Da brauchts keine Tests mehr zu.

Mandalore
2014-09-15, 22:18:57
Wieso schreien eigentlich alle "Enthusiasten" bei der "Effiziens-Sache" von Maxwell so auf? Sie verlangen nach mehr Leistung klar, aber genau dadurch erreicht man ja mehr Leistung:rolleyes::freak:

aufkrawall
2014-09-15, 22:21:36
Jeder Enthusiast wird wohl in der Lage sein, den Schieberegler für Takt weiter nach rechts zu schieben.

Hübie
2014-09-15, 22:22:06
Quark³. Ich kann Fliegen mit einem Vorschlaghammer erschlagen, aber es ist viel zu aufwändig.
Dir ist die Definition von Effizienz offenbar nicht bewusst. Was ist besser: 4 Karten mit einem 800-Watt NT betreiben zu können oder nur 2? :rolleyes:
Und komm nicht mit Skalierung dass ist ein stellvertretendes Beispiel welches möglichst einfach bleiben soll.

memoal
2014-09-15, 22:24:20
Du kannst am PT jeder Karte so drehen, dass der Stromverbrauch passt. Da brauchts keine Tests mehr zu.
Stimmt. Was ich aber nicht beabsichtige.;)

Wieso schreien eigentlich alle "Enthusiasten" bei der "Effiziens-Sache" von Maxwell so auf? Sie verlangen nach mehr Leistung klar, aber genau dadurch erreicht man ja mehr Leistung:rolleyes::freak:
Was für Enthusiasten? Meinst du mich? Zwei 7950 sind bei Dir Enthusiast? Die haben einen brachialen Preisverlust, dass ist keine Enthuisastenhardware!

Enthusisaten sind in deinen Augen also die Verschwender vor dem Herrn die nicht nachhaltig handeln oder denken,weil sie doch genug haben? Das sind eher die, die mit ihrer Kohle und die riesigen Marge des Herstellers deine Spielereien finanzieren. Nicht mal die 970 ist Enthusiast.

fondness
2014-09-15, 22:31:59
Besser nicht. Die testen nur irgendeinen Spieleverbrauch, nicht den maximalen.
Am besten noch mit Einflüssen eines etwaigen CPU-Limits...

Wenn eine Karte nicht wegen des Stromverbrauchs gedrosselt würde (TDP erreicht), hätte ein höheres PT-Limit keinen Effekt.
Dass man keine aufs Watt genaue Angabe für eine Karte bei Messung des Gesamtsystemverbrauchs machen kann, ist klar. Ist aber auch in dem Fall gar nicht nötig. Warum nicht, habe ich gerade ausgeführt.

Bei Verbrauch unterhalb des TDP siehts natürlich anders aus. CB sollte das mal dringend angehen.

Was hast du davon wenn jemand die TDP testet? Die weiß man ohnehin oder bekommt man schnell mit Furmark raus. Da habe ich lieber eine normalen Spieleverbrauch.

Hübie
2014-09-15, 22:33:07
Mandalorianer sind bekanntlich nicht die hellsten Kerzen auf der Torte X-D scnr

Unicous
2014-09-15, 22:36:59
Wieso schreien eigentlich alle "Enthusiasten" bei der "Effiziens-Sache" von Maxwell so auf? Sie verlangen nach mehr Leistung klar, aber genau dadurch erreicht man ja mehr Leistung:rolleyes::freak:


Wenn eine Glühbirne 65 Watt verbraucht, eine LED aber nur 10 bei gleicher Leuchtstärke ist es egal ob ich zwei oder 6 verbauen kann. Ich brauche nur eine.

Effizienz (bei GPUs) ist voll für den Arsch wenn die Leistung dadurch nicht steigt. Und ich rede von Enthusiasten und DIY. OEMs sehen das natürlich anders.

fondness
2014-09-15, 22:40:11
Die 5 EUR Stromkosten welche man großzügig bemessen dadurch vielleicht im Jahr spart sind jedenfalls nicht der Rede wert. Wenn dann kann man höchstens mit einer leiseren Kühlung argumentieren, aber auch für aktuell High-End-Karten gibt es gute Kühler.

Hübie
2014-09-15, 22:43:54
Es gibt mehrere Gründe abseits der 5 Euro Energiekosten. Geringere Abwärme ist für OC, SLi und / oder Wakü auch von Vorteil. Ein Wakü-Kreislauf könnte so kompakter gestaltet werden, ein SLi muss nicht zwangsläufig DHE / Wakü nutzen, es ist out of the box leiser usw. Also lasst uns doch schreien. :naughty:

dildo4u
2014-09-15, 22:46:58
Ebend wenn AMD ihr High-End schon mit Wakü plus Lüfter kühlen muss,ist Verbrauch/Abwärme offensichtlich sehr wohl ein Problem.

clockwork
2014-09-15, 22:49:18
Es gibt mehrere Gründe abseits der 5 Euro Energiekosten. Geringere Abwärme ist für OC, SLi und / oder Wakü auch von Vorteil. Ein Wakü-Kreislauf könnte so kompakter gestaltet werden, ein SLi muss nicht zwangsläufig DHE / Wakü nutzen, es ist out of the box leiser usw. Also lasst uns doch schreien. :naughty:
So kann ich eine neue, viel bessere Grafikkarte kaufen ohne das Netzteil tauschen zu müssen (dann würde ich keine kaufen). Bin immer noch bei 460W. :)

aufkrawall
2014-09-15, 22:49:20
Was hast du davon wenn jemand die TDP testet? Die weiß man ohnehin oder bekommt man schnell mit Furmark raus. Da habe ich lieber eine normalen Spieleverbrauch.
Es testet aber niemand die TDP (der Vorwurf klingt wie Synthie), sondern ein anspruchsvolles Spiel.
Sag mir mal, warum es davon nur eines auf der Welt geben soll, damit es nicht als Argument zählt.

-/\-CruNcher-/\-
2014-09-15, 22:55:13
Wenn eine Glühbirne 65 Watt verbraucht, eine LED aber nur 10 bei gleicher Leuchtstärke ist es egal ob ich zwei oder 6 verbauen kann. Ich brauche nur eine.

Effizienz (bei GPUs) ist voll für den Arsch wenn die Leistung dadurch nicht steigt. Und ich rede von Enthusiasten und DIY. OEMs sehen das natürlich anders.

Die Leistung steigt doch bei Compute und auch bei den overall latencies und das alles bei weniger energy output, waren es nicht leute wie du die sich über schlechte Physx Performance beschwert haben die wird jetzt besser sowie bei GI-Works oder Hairworks und vor allen wenn mehrere sachen aufeinanderprallen ;)

memoal
2014-09-15, 23:02:25
Es gibt mehrere Gründe abseits der 5 Euro Energiekosten. Geringere Abwärme ist für OC, SLi und / oder Wakü auch von Vorteil. Ein Wakü-Kreislauf könnte so kompakter gestaltet werden, ein SLi muss nicht zwangsläufig DHE / Wakü nutzen, es ist out of the box leiser usw. Also lasst uns doch schreien. :naughty:
Die kleineren Gehäusegrößen sollte man auch nicht vernachlässigen, dass braucht ja dann irgendwann auch weniger Platz und wird kompakter, der Volumeninhalt insgesamt geringer.:D

Unicous
2014-09-15, 23:04:21
Die Leistung steigt doch bei Compute und auch bei den overall latencies und das alles bei weniger energy output, waren es nicht leute wie du die sich über schlechte Physx Performance beschwert haben die wird jetzt besser sowie bei GI-Works oder Hairworks und vor allen wenn mehrere sachen aufeinanderprallen ;)

Bei einer Glühlampe?:eek:

Ich rede hier nicht von smart lights sondern ordinären Glühlampen/LEDs.

Thomas Gräf
2014-09-15, 23:10:46
So kann ich eine neue, viel bessere Grafikkarte kaufen ohne das Netzteil tauschen zu müssen (dann würde ich keine kaufen). Bin immer noch bei 460W. :)

Im Ernst, das ist kein Schmarrn. Einen alten Brikett Heizer gegen neue Effizienz
mit mehr Leistung und weniger Verbrauch/Hitze tauschen zu können hat was!
Denn wann tauschen viele mal das Netzteil?...wenn eine neue HighEnd Graka reinkommt. ;)
Gut also 200 euro erstmal gespart, aber dann doch leider an nV weitergegeben...uff.

memoal
2014-09-15, 23:22:01
Gut also 200 euro erstmal gespart, aber dann doch leider an nV weitergegeben...uff.
Und das Netzteil reisst die Karte dann eine Woche später in den Tod. Würde erstmal das Netzteil updaten und mit dem Rest warten, vor allem weils "paar" Jahre alt ist.

Man sollte doch schon das was wichtiger ist zuallererst erneuern. Ggf. wird es sogar mit dem neueren Netzteil effizienter.

Komische Logik wohl wahr.

Timbaloo
2014-09-15, 23:27:08
Wenn dann kann man höchstens mit einer leiseren Kühlung argumentieren, aber auch für aktuell High-End-Karten gibt es gute Kühler.
Und dennoch ist weniger Verlustleistung besser als mehr Verlustleistung. Klingt komisch, ist aber so.
Weniger Verlustleistung lässt sich leiser kühlen als mehr Verlustleistung. Klingt komisch, ist aber so.
Effizientere Lösungen sind besseres Engineering. Klingt komisch, ist aber so.

Hübie
2014-09-15, 23:31:51
Und das Netzteil reisst die Karte dann eine Woche später in den Tod. Würde erstmal das Netzteil updaten und mit dem Rest warten, vor allem weils "paar" Jahre alt ist.

Man sollte doch schon das was wichtiger ist zuallererst erneuern. Ggf. wird es sogar mit dem neueren Netzteil effizienter.

Komische Logik wohl wahr.

Warum soll jemand mir nichts dir nichts sein Netzteil tauschen wenn alles in Butter is? Ein wenig pauschalisiert, meinst nich? ;)

Unicous
2014-09-15, 23:35:27
Typen die ohne Not das Netzteil erneuern können wir hier nicht besonders gut leiden.

http://i.ytimg.com/vi/_lm-ERhcx8w/hqdefault.jpg

Hübie
2014-09-15, 23:44:06
Hahaahaaa :biggrin: Nun aber bitte wieder ontopic.

Nightspider
2014-09-15, 23:51:27
Ebend wenn AMD ihr High-End schon mit Wakü plus Lüfter kühlen muss,ist Verbrauch/Abwärme offensichtlich sehr wohl ein Problem.

http://www.korrekturen.de/beliebte_fehler/ebend.shtml

Schaffe89
2014-09-16, 00:03:18
wenn AMD ihr High-End schon mit Wakü plus Lüfter kühlen muss,ist Verbrauch/Abwärme offensichtlich sehr wohl ein Problem.

Bisher wurde noch keine Karte außer der 295x2 mit Wasser gekühlt.
Und bei der war es auch sehr sinvoll, denn der Verbrauch war kaum über einer Titan Z, allerdings war die Leistung etwas höher.

Halbgare Gerüchte für voll nehmen, um daraus Argumente zu stricken.

Der angekündigte Wasserkühler kann durchaus für die 390x sein, allerdings verrät das nix über deren Effizienz.
Sollte AMD eine extrem schnelle Karte bauen wollen, dann ist eine Wasserkühlung sicherlich legitim.

Hübie
2014-09-16, 00:06:06
Das schon, aber 94°C TT finde ich nicht legitim. Dennoch finde ich eine Wakü ab Werk sinnvoll. Selbst auf einem GTX-670-Derivat würde sowas gut kommen :)

dildo4u
2014-09-16, 00:17:27
Hatten wird das schon?

http://i.imgur.com/oUfWb2C.png

https://compubench.com/result.jsp?benchmark=compu20&data-source=1&version=all&test=575&text-filter=&order=median&os-Android_rs=true&os-iOS_cl=true&os-Windows_cl=true&pu-CPU=true&pu-dGPU=true&pu-iGPU=true&pu-mGPU=true&pu-CPU-iGPU=true&pu-ACC=true&arch-ARM=true&arch-x86=true&base=device

Hübie
2014-09-16, 00:20:25
Nö aber war dank barrel (funnel) shifter zu erwarten. Kann man auch mittels GM107 korrelieren.

Schaffe89
2014-09-16, 00:49:15
Das schon, aber 94°C TT finde ich nicht legitim.

Nein, die gleiche Glühlampe wie die GTX 480.

Allerdings ist das diesmal eher dem unteridimensioniertem Kühler geschuldet.

mczak
2014-09-16, 00:51:55
@mrzck: Also dass Maxwell im L2 komprimiert ist irgendwie völlig an mir vorbei gezogen. Hast du da mal was zum Lesen? Hab Alienbabeltech, anandtech, techreport usw. damals durchgelesen und nirgends war da die Rede von einer neuen Kompression. Ich rede von so etwas wie in Tonga*, nicht DXTC.

Anhand der hardware.fr Resultate - Füllrate mit Blending. Bei fp16 liegt das Resultat deutlich über dem was theoretisch möglich sein sollte (und ist offensichtlich überhaupt nicht durch Bandbreite begrenzt): http://www.hardware.fr/articles/916-4/performances-theoriques-pixels.html. Und ja Bonaire hat dieses "Problem" auch. Ich wüsste nicht wie das ohne Komprimierung gehen soll (es sei denn die Auflösung ist so gering dass alles in den L2 passt wobei das nur bei den Geforces aber nicht bei den Radeons (jedenfalls vor Tonga bei letzterer bin ich mir noch nicht sicher) einen Effekt hätte). Bei Bonaire war dieser Spitzenwert übrigens mit dem Launch-Treiber noch nicht vorhanden...

AnarchX
2014-09-16, 00:58:02
Nö aber war dank barrel (funnel) shifter zu erwarten. Kann man auch mittels GM107 korrelieren.
https://compubench.com/compare.jsp?benchmark=compu20&D1=NVIDIA+GeForce+GTX+980&os1=Windows&api1=cl&D2=NVIDIA+GeForce+GTX+750+Ti&cols=2

Der Bitcoin Test schlägt etwas aus der Reihe.

Die 16 SMM werden auf jeden Fall nochmal bestätigt.

Hübie
2014-09-16, 01:03:53
Womit testen die? Ich verstehe kein französich und die Übersetzung.. na ja lassen wir das ;D Ist für mich jetzt nicht unbedingt ein Beweis für color compression, eher ein Indiz. Hatte mir sämtliche techspecs (auch von CUDA-Devs) reingezogen und da tauchte nichts dergleichen auf. Dennoch interessant. Ich werde mal nachfragen.

@AnarchX: Kommt wahrscheinlich vom PT beim GM107. Da ging mit Sicherheit etwas in Richtung 80.

-/\-CruNcher-/\-
2014-09-16, 01:09:20
Was mich bei den Compubench results wundert werden die eigentlich nach treiber sortiert oder einfach bestes ergebniss was in der datenbank gelandet ist treiber unabhängig ?

dildo4u
2014-09-16, 01:09:47
http://abload.de/img/zwischenablage02shap2.jpg

mczak
2014-09-16, 01:14:01
Womit testen die? Ich verstehe kein französich und die Übersetzung.. na ja lassen wir das ;D Ist für mich jetzt nicht unbedingt ein Beweis für color compression, eher ein Indiz. Hatte mir sämtliche techspecs (auch von CUDA-Devs) reingezogen und da tauchte nichts dergleichen auf. Dennoch interessant. Ich werde mal nachfragen.

Ist auch sichtbar bei 3dmark vantage pixel fill - z.B. hier: http://www.anandtech.com/show/7764/the-nvidia-geforce-gtx-750-ti-and-gtx-750-review-maxwell/20 - der Test zeigt allerdings nichts in der Richtung bei Bonaire, woran das liegt keine Ahnung (vielleicht trotz der Angabe eines neuen Treibers ein altes Resultat kopiert ist ja bloss ein obersimpler Test da macht so ein Treiber ja normalerweise nix aus...).
Für fp16 (x4) blend brauchst du nun mal am Ende 16 Bytes / Pixel, jedenfalls wenn der Test eben so rendert dass die Caches nichts bringen (was zumindest bisher so war da muss man natürlich gerade bei gm107 wegen des grösseren L2 vorsichtig sein). Beim gk20a war das jedenfalls als Feature gehypt da liegt es nahe dass der gm107 das auch bekommen hat (gerade auch weil's mit dem Chip und auch gm108 im Mobilbereich jede Menge ddr3 Versionen gibt die für die mickrige Speicherbandbreite auch erstaunlich schnell sind).
Es wären aber schon auch andere Erklärungen denkbar, die scheint mir aber am Einfachsten.

-/\-CruNcher-/\-
2014-09-16, 01:15:17
Beim Optical Flow und Ocean Surface Simulation Ergebnis treffen 285 (tonga pro) und 970 (maxwell 204) sich momentan

https://compubench.com/compare.jsp?benchmark=compu20&D1=AMD+Radeon+R9+285&os1=Windows&api1=cl&D2=NVIDIA+GeForce+GTX+970&cols=2

Hübie
2014-09-16, 02:34:27
Das sind CPU-Tests ;)

-/\-CruNcher-/\-
2014-09-16, 03:14:42
Nope es ist ein hybridtest sowas wie http://www.forum-3dcenter.org/vbulletin/showthread.php?t=540875

Die Ergebnise sehen echt nicht schlecht aus für Maxwell :)

Aber ich würde tonga noch nicht abschreiben nach diesen Ergebnisen :)

Hübie
2014-09-16, 03:30:20
Aber ziemlich CPU-abhängig. Habs bei mir getestet.

-/\-CruNcher-/\-
2014-09-16, 04:03:45
Das passt aber wie die faust aufs Auge :)

https://compubench.com/compare.jsp?benchmark=compu20&D1=AMD+Radeon+R9+290&os1=Windows&api1=cl&D2=AMD+Radeon+R9+285&cols=2

Vor allen das Video Composition result

Das problem ist halt nur stark treiber abhängig das ganze

https://compubench.com/compare.jsp?benchmark=compu20&D1=AMD+Radeon+R9+285&os1=Windows&api1=cl&D2=AMD+Radeon+R9+280&cols=2

https://compubench.com/compare.jsp?benchmark=compu20&D1=AMD+Radeon+R9+280&os1=Windows&api1=cl&D2=NVIDIA+GeForce+GTX+970&cols=2

Und das spiegelt es ja wieder nur OpenCL Performance

aufkrawall
2014-09-16, 07:30:43
Ja, Mining mit CUDA sollte noch (mitunter deutlich) bessere Resultate bringen.
Gibts gegenüber GM107 eigentlich wieder einen neuen Compute-Level?

Dural
2014-09-16, 11:00:31
war ja zu erwarten, schon GM107 hatte da deutliche Verbesserungen.

Edit:
laut CB ab Freitag im Handel:
http://www.computerbase.de/2014-09/geforce-gtx-980-und-970-ab-freitag-im-handel/

Mancko
2014-09-16, 12:45:34
war ja zu erwarten, schon GM107 hatte da deutliche Verbesserungen.

Edit:
laut CB ab Freitag im Handel:
http://www.computerbase.de/2014-09/geforce-gtx-980-und-970-ab-freitag-im-handel/

Hm.. Klingt nach Hardlaunch. Das wiederum wäre doch sehr lecker :)

Radeonfreak
2014-09-16, 12:47:35
Ja. :) :ucatch:

aths
2014-09-16, 12:58:09
Hrmmm, die "9"80 ist 40-50% schneller als eine 680. Ob sich das lohnt ... höchstens wegen der vielleicht etwas leiseren Kühlung im Vergleich zur 680-Referenzkühlung.

dildo4u
2014-09-16, 13:01:12
Hrmmm, die "9"80 ist 40-50% schneller als eine 680. Ob sich das lohnt ... höchstens wegen der vielleicht etwas leiseren Kühlung im Vergleich zur 680-Referenzkühlung.
Es lohnt sich schon wegem dem V-Ram wenn du eine 2GB Karte hast.

Jedenfalls wenn man auf ne glatte Frameausgabe steht.
http://www.pcper.com/image/view/45705?return=node%2F61054

maximus_hertus
2014-09-16, 13:07:56
Ich glaube aths bezieht sich auf Radeonfreak. Da sind es ja 4Gib vs 4GiB und dein Link zeigt die Frameausgabe für 1440p. Bei 1080p dürfte das dann auch Geschichte sein (2 GiB derzeit mehr als ausreichen).

soLofox
2014-09-16, 13:10:38
http://www.computerbase.de/2014-09/geforce-gtx-980-970-taktraten-und-preise/

Auf Nachfrage teilte ein Händler 450 Euro für die GeForce GTX 970 und bis zu 700 Euro für die GeForce GTX 980 mit – beides läge noch einmal über den kolportierten Preisen. Die GeForce GTX 780 Ti hatte zur Markteinführung zwischen 650 und 700 Euro gekostet. Erste Grafikkarten sollen ab Freitag im Handel erhältlich sein.

:usad:

Radeonfreak
2014-09-16, 13:14:55
700€ :eek:

fondness
2014-09-16, 13:14:59
Hm, hat CB noch keine Karte bzw. kein NDA unterschieben da sie hier so locker alle Daten raus hauen können?

mironicus
2014-09-16, 13:17:10
Da lag ich ja gar nicht mal so falsch. :D

maximus_hertus
2014-09-16, 13:17:34
700 Euro sind doch ok. Die Titan lag bei Release bei 1000 Euro. Ergo gibt es die (wahrscheinlich) schnellste Single-GPU für 300 Euro weniger (zum Launch) als vor rund 1,5 Jahren.

Timbaloo
2014-09-16, 13:20:46
700 Euro sind doch ok. Die Titan lag bei Release bei 1000 Euro. Ergo gibt es die (wahrscheinlich) schnellste Single-GPU für 300 Euro weniger (zum Launch) als vor rund 1,5 Jahren.
Und ich dachte ich bin schmerzfrei was den Preis angeht :eek:

Nene, für 700€ warte ich dann einfach noch ein paar Wochen...

yamo
2014-09-16, 13:21:53
Sind wohl Release-Preise für die "i want this" Trottel

Rente
2014-09-16, 13:24:15
700 Euro sind doch ok. Die Titan lag bei Release bei 1000 Euro. Ergo gibt es die (wahrscheinlich) schnellste Single-GPU für 300 Euro weniger (zum Launch) als vor rund 1,5 Jahren. Ehm, 1. GM204, nicht 200, 2. ist sie allerhöchstens marginal schneller als die 780 Ti und bietet 1GB VRAM mehr, das rechtfertig keinen Preispunkt von 700€ und erst recht keinen Vergleich zur Titan.

Wenn der Preis wirklich stimmt ticken ein paar Leute bei nVidia nicht mehr richtig, die 500-550€ bei der 680 waren schon frech...

dildo4u
2014-09-16, 13:26:42
Sie kostet keine 700,das sieht man an den Abverkauf's Preisen der 780TI,warum sollte man die für 430 verkaufen wenn sie für 500 immer noch ein gutes Angebot ist.Entweder ist die 980 deutlich besser oder vergleichbar teuer wie die780TI vor der letzten Preissenkung also ca 550€.

Hübie
2014-09-16, 13:33:43
Das passt aber wie die faust aufs Auge :)

https://compubench.com/compare.jsp?benchmark=compu20&D1=AMD+Radeon+R9+290&os1=Windows&api1=cl&D2=AMD+Radeon+R9+285&cols=2

Vor allen das Video Composition result

Das problem ist halt nur stark treiber abhängig das ganze

https://compubench.com/compare.jsp?benchmark=compu20&D1=AMD+Radeon+R9+285&os1=Windows&api1=cl&D2=AMD+Radeon+R9+280&cols=2

https://compubench.com/compare.jsp?benchmark=compu20&D1=AMD+Radeon+R9+280&os1=Windows&api1=cl&D2=NVIDIA+GeForce+GTX+970&cols=2

Und das spiegelt es ja wieder nur OpenCL Performance

Häng dich mal nicht so sehr daran auf. Dieser sogenannte "Benchmark" is allenfalls eine grobe Einordnung. ;)

Schnoesel
2014-09-16, 13:36:38
CB spricht von bis zu Preisen bei der GTX 980 (Händlerbestätigt) und es werden sicherlich Karten zu diesem Preis (700€) gelistet werden. Zum Abverkaufspreis der GTX 780ti wird es aber nicht kommen. Naja Nvidiafaktor halt ist doch Super haben die Roten immer noch den Preis mit dem sie argumentieren können. Wäre sonst ja auch langweilig ;-)

Hübie
2014-09-16, 13:42:22
Dann werden vielleicht auch mal die letzten Traumtänzer wach ::biggrin: nVidia verschenkt nichts.

yamo
2014-09-16, 13:45:41
Wer Games in 4k problemlos genießen will, kommt auch nach der GTX 980 nicht an SLI vorbei.
Erst Pascal dürfte für den WoW-Effekt sorgen.
Evtl. update ich von Fermi -->auf GK110 (sli) wenn die Preise stimmen. WaKü sind ja vorhanden.
Ich nehm lieber Preise mit als "Updates".

Mandalore
2014-09-16, 13:46:14
Danke für die schöne Beleidigung "Mr. Experte" @Hübie. :rolleyes::uclap:


Ihr versteht nicht was ich damit sagen will. Man nähert sich immer mehr der physikalischen Grenze (und ja man wird noch sehr weit kommen, aber irgendwann ist halt Schluss und Stacking ist auch eher Zukunftsmusik) und wenn man die Leistung (stark) erhöhen will steigt ja bekanntlich auch die Größe und Stromverbrauch. Und man kann jetzt nicht 600W GPUs raushauen. Was ich sagen möchte ist, dass man durch die Effizienzverbesserung einfach mehr Spielraum hat, aber das habt ihr ja schon gewusst(zumindest die meisten). Es ist ja das gleiche Spiel mit Intels Core 2 gewesen. Mir sind lediglich paar Kommentare aufgefallen mit Inhalten wie "kaum schneller als 780Ti, was nützt mir Energieeinsparung". So viel dazu und jetzt B2T:rolleyes:


@yamo: Ich würde von Pascal nicht so viel erwarten, zumindest was den Spiele-Bereich angeht. Scheint ein leicht getunter Maxwell mit 3DMemory zu sein, wenn man nach der letzte Keynote urteilt...Volta ist da schon interessanter und könnte echt was werden.

fondness
2014-09-16, 13:48:59
Damit sind auch die letzten Spezifikationen öffentlich:
http://videocardz.com/52362/only-at-vc-nvidia-geforce-gtx-980-final-specifications

5.2 Milliarden Transistoren, 398 mm2 Die-Size, 64 ROPs. 1126 MHz Base und 1216 MHz Boost auf der GTX980.

Dural
2014-09-16, 13:50:39
165Watt TDP für die 980 :eek::eek::eek:

Das ist noch besser als alles was man erwartet hat. Wie machen die das nur bei bis zu 1200MHz :rolleyes:

dildo4u
2014-09-16, 13:51:05
Wer Games in 4k problemlos genießen will, kommt auch nach der GTX 980 nicht an SLI vorbei.
Erst Pascal dürfte für den WoW-Effekt sorgen.
Evtl. update ich von Fermi -->auf GK110 (sli) wenn die Preise stimmen. WaKü sind ja vorhanden.
Ich nehm lieber Preise mit als "Updates".
Es kommt drauf an was für Effekte ein Game nutzt Anno 2070 scheint z.b extrem Compute Limitiert zu sein was der 980 entgegen kommt.Ich bin extrem auf diesen Bench gespannt.

Hier 7970 = GTX780.
http://www.pcgameshardware.de/Geforce-GTX-780-Grafikkarte-257241/Tests/Radeon-R9-290-im-Test-1095627/galerie/2114991/

Damit sind auch die letzten Spezifikationen öffentlich:
http://videocardz.com/52362/only-at-vc-nvidia-geforce-gtx-980-final-specifications

5.2 Milliarden Transistoren, 398 mm2 Die-Size, 64 ROPs.

NVIDIA Maxwell GM204 has some cool features like Dynamic Super Resolution, which is basically new upscaling technology advertised as ‘4k Quality on a 1080p display’

Einfaches Downsampling per Treiber.

Dural
2014-09-16, 13:52:53
und 64 ROPs dürften wohl die 400mm2 erklären, obwohl ich jetzt nicht weis wie gross diese überhaupt sind.

soLofox
2014-09-16, 13:55:45
CB hat seinen artikel editiert ;)

nun ist keine rede mehr von preisen die man auf nachfrage bei einem händler erfahren haben will.

AffenJack
2014-09-16, 13:56:41
64 Rops verwundern mich jetzt ziemlich, wozu braucht man soviel Roppower bei der mikrigen Bandbreite? Soll Gm210 dann 96 Rops bekommen? Rofl.

dildo4u
2014-09-16, 13:57:42
CB hat seinen artikel editiert ;)

nun ist keine rede mehr von preisen die man auf nachfrage bei einem händler erfahren haben will.
Doch nur sinds jetzt 400 und 600€.

fondness
2014-09-16, 13:59:26
64 Rops verwundern mich jetzt ziemlich, wozu braucht man soviel Roppower bei der mikrigen Bandbreite? Soll Gm210 dann 96 Rops bekommen? Rofl.

So niedrig ist die Bandbreite nun auch nicht bei 7 Gbps Speicher und das hilft wohl beim MSAA durchaus.

soLofox
2014-09-16, 14:02:09
Doch nur sinds jetzt 400 und 600€.

nee, die angaben stammen von einem user, nicht von einem shop. spekulation.

Loeschzwerg
2014-09-16, 14:04:59
1:1 von USD.

Punktlandung bei der DIE Size :D
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10313721&postcount=3977

Unicous
2014-09-16, 14:07:45
Lest mal bitte den Foren-Eintrag. Da steht Großhändler ohne Marge für den Händler.:rolleyes:

Am Ende fehlt vllt. auch noch die MwSt.:wink:

Kann man also in der Pfeife rauchen. Sowohl den CB-Artikel, als auch den Foren-Eintrag.

aths
2014-09-16, 14:09:08
64 Rops verwundern mich jetzt ziemlich, wozu braucht man soviel Roppower bei der mikrigen Bandbreite? Soll Gm210 dann 96 Rops bekommen? Rofl.
Damit steht man gut in einigen synthetischen Benchmarks da.

Schaffe89
2014-09-16, 14:10:58
Bei nur 165 Watt TDP, wird das ein ziemliches Feuerwerk gegen AMD´s bestehende Karten.
Da deute ich die Preissenkungen der R9 290x nicht als Abverkauf, sondern eher als verzweifelten Schritt.

Kriton
2014-09-16, 14:11:14
700 Euro sind doch ok. Die Titan lag bei Release bei 1000 Euro. Ergo gibt es die (wahrscheinlich) schnellste Single-GPU für 300 Euro weniger (zum Launch) als vor rund 1,5 Jahren.

Du redest von einem Chip, der GK 104 ablöst. Wir erinnern uns dunkel, bevor Nvidia uns mit der 600er Reihe angefangen hat abzuzocken und die bekannten Jünger das als legitim und vollkommen gerechtfertigt darstellten, waren solche Chips auch schon mal im Preisbereich von 200,- € (sogar darunter) zu haben - damals... :freak:

Manch einer erinnert sich vielleicht noch an die 460er (GF 104), die damals der absolute Renner war. Für die 460er meiner Frau habe ich AFAIR ca. 180 € gezahlt. Und das war ein custom design - schön leise.

Ich finde es echt erstaunlich wie das Nvidia Marketing hier einige im Griff hat.

yamo
2014-09-16, 14:11:24
Es kommt drauf an was für Effekte ein Game nutzt Anno 2070 scheint z.b extrem Compute Limitiert zu sein was der 980 entgegen kommt.Ich bin extrem auf diesen Bench gespannt.

Hier 7970 = GTX780.
http://www.pcgameshardware.de/Geforce-GTX-780-Grafikkarte-257241/Tests/Radeon-R9-290-im-Test-1095627/galerie/2114991/





Einfaches Downsampling per Treiber.

Klar, jeder hat sein "Game" 2070 nie gespielt, spiele und staune eher (Crysis 1-2/Far cry 1 + 3, Metro 2033) here in good frames,
Ich WILL aufrüsten. Aber die 3 Fermis sind schon geil.

Nakai
2014-09-16, 14:23:33
Ich finde es echt erstaunlich wie das Nvidia Marketing hier einige im Griff hat.

Man wird auf Titan-Niveau landen. Eine GTX 980 Ti ist ja auch schon indirekt möglich, siehe PCB(mehr SpaWas und mehr Takt). 1,2GHz ist verdammt viel, aber es sollte noch etwas mehr drin sein. Ich bin gespannt, wie Maxwell nach oben skaliert. Ich vermute, NV hat den Takt ziemlich hoch angesetzt, um die Karte auf das betreffende Niveau zu heben. Man

dildo4u
2014-09-16, 14:24:57
Bei der 970 lässt NV schon mal 1.3Ghz zu.

http://videocardz.com/52379/gainward-geforce-gtx-980-and-gtx-970-pictured

dargo
2014-09-16, 14:25:21
700 Euro sind doch ok.
:facepalm:

Dural
2014-09-16, 14:26:09
Man wird auf Titan-Niveau landen. Eine GTX 980 Ti ist ja auch schon indirekt möglich, siehe PCB(mehr SpaWas und mehr Takt). 1,2GHz ist verdammt viel, aber es sollte noch etwas mehr drin sein. Ich bin gespannt, wie Maxwell nach oben skaliert. Ich vermute, NV hat den Takt ziemlich hoch angesetzt, um die Karte auf das betreffende Niveau zu heben. Man


naja bei 165Watt kann keine rede von "betreffende Niveau zu heben" sein ;)


ich bin ehrlich gesagt sprachlos, für mich gehen diese 165Watt TDP einfach nicht mit diesem hohen Takt bei 400mm2 zusammen.

Timbaloo
2014-09-16, 14:30:54
Wir bauen eine 980ti für Dural. 250W TDP via zusätzlichem Lastwiderstand. Watt sind das neue ZOMG-Gigahurtz!!!

Dural
2014-09-16, 14:34:29
dann mach mal :freak:

boxleitnerb
2014-09-16, 14:37:48
Was soll dieses Multi-Pixel Programmable Sampling sein?
Das andere muss Downsampling sein, kann mir nicht denken was es bei dieser Formulierung sonst wäre.

fondness
2014-09-16, 14:39:03
Ich würde mal abwarten ob sich diese Buzzwords nicht nur auf Videoqualität beziehen.

aufkrawall
2014-09-16, 14:41:27
Es kommt drauf an was für Effekte ein Game nutzt Anno 2070 scheint z.b extrem Compute Limitiert zu sein was der 980 entgegen kommt.Ich bin extrem auf diesen Bench gespannt.

Anno 2070 nutzt keinen einzigen Compute-Shader.
Es lastet die ALUs halt anderweitig stark aus.

Nightspider
2014-09-16, 14:42:16
Wenn Downsampling dann offiziell über den Treiber angeboten wird - kann man dann auch mit DS und 120-144Hz spielen?

Wäre echt toll nicht mehr die Hz-Zahlen senken zu müssen bei DS.

dildo4u
2014-09-16, 14:45:48
Wenn Downsampling dann offiziell über den Treiber angeboten wird - kann man dann auch mit DS und 120-144Hz spielen?

Wäre echt toll nicht mehr die Hz-Zahlen senken zu müssen bei DS.
Hängt das nicht von den Display Port Specs ab?Wenn die Karte 1.3 hat dann dürfte es bis 4k gehen.

Dural
2014-09-16, 14:46:31
hat nur 1.2 ;)

dildo4u
2014-09-16, 14:48:53
Jup ich sehe grad auch HDMI 2.0 hat nur 4k 60hz.

Sunrise
2014-09-16, 14:53:58
1:1 von USD.

Punktlandung bei der DIE Size :D
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10313721&postcount=3977
Den virtuellen Keks hast du dir redlich verdient, wirklich auf den Millimeter genau. 😜

Da lag ich mit meiner Schätzung der 1920 mit hohem Takt auch ganz gut.

Timbaloo
2014-09-16, 14:54:41
Na bei im Treiber eingebautem DS erwarte ich eigentlich genau kein Gefrickel mehr.

maximus_hertus
2014-09-16, 14:59:23
Hier mal einige Endkundenpreise für die GTX 970 und 980 (je MSI):

https://onedrive.live.com/redir?resid=BB1DF643285AE43E!29220&authkey=!ACs23c9zgFAwNMA&v=3&ithint=photo%2cjpg

https://onedrive.live.com/redir?resid=BB1DF643285AE43E!29219&authkey=!AAPz1X1e-oaNHEo&v=3&ithint=photo%2cjpg

GTX 970 - Versandpreis 449,90, Filialpreis 472,40
GTX 980 - Versandpreis 679,90, Filialpreis 713,90.

Wie auf den Bilden zu sehen wird es ein Hardlaunch (keine Überraschung).

Dural
2014-09-16, 15:09:09
krass :rolleyes:

das passiert wenn man keine Konkurrenz hat ;(

aufkrawall
2014-09-16, 15:10:19
Hoffentlich senkt AMD schnell die Preise. Sie werden wohl kaum weiter Marktanteile verlieren wollen.

maximus_hertus
2014-09-16, 15:11:19
Warum Preise senken? nV und AMD gehen sich doch aus dem Weg? Da wo AMD aufhört (preislich), fängt nV an. Ergo kein Grund die Preise (vorerst) zu senken...

aufkrawall
2014-09-16, 15:12:47
Die 970 greift natürlich Hawaii XT an.

Screemer
2014-09-16, 15:13:58
Bei höherem preis und gringerer performance von angriff zu sprechen find ich komisch.

maximus_hertus
2014-09-16, 15:14:30
Ich kann kaum glauben, dass eine 970 die 290X schlägt. Abgesehen davon, dass die 970er auch noch rund 30-50 Euro teurer ist.

dildo4u
2014-09-16, 15:14:43
https://geizhals.de/club-3d-radeon-r9-290x-cgax-r929x8-a1010467.html

385 scheint der neue Preis zu sein das passt wenn die 970 450 kostet halt der normale 50-70€ NV Aufpreis.

fondness
2014-09-16, 15:16:50
Ich kann kaum glauben, dass eine 970 die 290X schlägt. Abgesehen davon, dass die 970er auch noch rund 30-50 Euro teurer ist.

Die 970 dürfte auf dem Niveau der 290 nonX liegen, wenn überhaupt.

aufkrawall
2014-09-16, 15:17:07
https://geizhals.de/club-3d-radeon-r9-290x-cgax-r929x8-a1010467.html

385 scheint der neue Preis zu sein passt wenn die 970 450 kostet halt der normale 50-70€ NV Aufpreis.
Die 290X hat fast doppelt so hohes TDP wie die 970, wer will denn so etwas noch kaufen.
Das 93°C Referenzdesign schon gar nicht.

Vor allen Dingen die OEMs nicht.

aths
2014-09-16, 15:17:21
680 Euro, wollen die uns trollen???

AffenJack
2014-09-16, 15:17:53
Die Preise sind einfach nur irre, 500$ für 680 damals und selbst 1k für Titan fand ich noch akzeptabel, weil Gk110 schwer zu fertigen war und die neue Fertigung recht teuer. Aber das hier ist einfach nur nen Witz. Naja, macht kein Sinn sich über die Preise aufzuregen. Einfach nicht kaufen und gut. Wenn sich das Ding nicht verkauft sinken die Preise auch, Problem ist, dass es sich trotzdem verkaufen wird.

aufkrawall
2014-09-16, 15:18:00
680 Euro, wollen die uns trollen???
Zu dem Preis würd nichtmal ich von einer 780 Ti sidegraden. :freak:

dildo4u
2014-09-16, 15:19:43
Die 970 dürfte auf dem Niveau der 290 nonX liegen, wenn überhaupt.

Die 970 wird nicht nur 3% schneller sein als ne 780.
http://www.computerbase.de/2014-08/grafikkarten-2014-im-vergleich-sommerausgabe/2/#diagramm-rating-2560-1600-4xaa-16xaf

Mann bekommt ne 1Ghz 780 für 350€.
https://geizhals.de/zotac-geforce-gtx-780-amp-edition-zt-70203-10p-a989648.html

maximus_hertus
2014-09-16, 15:19:55
@aufkrawall

Der High-End Markt ist nicht sooo groß. Der Markt <200 Euro ist der entscheidene. Und solange es dort den Kassenschlager R9 280 gibt, ist doch alles in Butter ;)

Im Oktober könnte es jedoch interessant werden, wenn GM206 aufkreuzt.

Nightspider
2014-09-16, 15:20:42
Jedenfalls wird es Anfang 2015 mit Big Maxwell lustig, wenn schon der Kleine so viel Spaß bereitet. :D

maximus_hertus
2014-09-16, 15:23:29
Ich glaube der Big Maxwell könnte (noch) später kommen, je nachdem, ob AMD die GTX 980 schlagen kann oder nicht. Solange von AMD nichts kommt, wird man den GM200 nur im Profi-Segment verkaufen und in Ruhe auf AMD warten.

fondness
2014-09-16, 15:24:50
Die 970 wird nicht nur 3% schneller sein als ne 780.
http://www.computerbase.de/2014-08/grafikkarten-2014-im-vergleich-sommerausgabe/2/#diagramm-rating-2560-1600-4xaa-16xaf

Mann bekommt ne 1Ghz 780 für 350€.
https://geizhals.de/zotac-geforce-gtx-780-amp-edition-zt-70203-10p-a989648.html

Der 970 fehlen relativ viele SPs. Wenn die GTX980 nicht deutlich schneller als die 780Ti ist kann eine 970 gar nicht viel schneller sein als eine 780.

aufkrawall
2014-09-16, 15:25:08
Der High-End Markt ist nicht sooo groß. Der Markt <200 Euro ist der entscheidene. Und solange es dort den Kassenschlager R9 280 gibt, ist doch alles in Butter ;)

Wie kommst du auf Kassenschlager?
Trotz großangelegter Bundle-Aktionen konnte sich Tahiti eher schlecht als recht gegen GK104 im Enduser-Markt behaupten (Notebooks...).

dildo4u
2014-09-16, 15:26:59
Die 970 fehlen relativ viele SPs. Wenn die GTX980 nicht deutlich schneller als die 780Ti ist kann eine 970 gar nicht viel schneller sein als eine 780.
Warum wird dann eine 1GHZ 780 für 350€ verkauft?Tipp die Karte sieht wie Abfall gegen eine 970 aus.

fondness
2014-09-16, 15:27:35
Ich glaube der Big Maxwell könnte (noch) später kommen, je nachdem, ob AMD die GTX 980 schlagen kann oder nicht. Solange von AMD nichts kommt, wird man den GM200 nur im Profi-Segment verkaufen und in Ruhe auf AMD warten.

Wenn er fertig ist wird er auch kommen, keine Ahnung wo immer diese wilden Theorien herkommen. Es macht keinen Sinn etwas nicht zu verkaufen, außer man will weniger Geld verdienen^^

Warum wird dann eine 1GHZ 780 für 350€ verkauft?Tipp die Karte sieht wie Abfall gegen eine 970 aus.

NV lässt sich eben die Perf/Watt vergolden genau wie auch bei der GTX980.

maximus_hertus
2014-09-16, 15:28:25
Kassenschlager da der Verkauf in den letzten 2 Monaten deutlich zugenommen hat. Dazu gilt das nur für den Retail Endkundenmarkt. Die OEM Deals sind ja oft eher langfristig und dort zählen auch andere Faktoren als die reine Performance.

Mancko
2014-09-16, 15:28:33
@aufkrawall

Der High-End Markt ist nicht sooo groß. Der Markt <200 Euro ist der entscheidene. Und solange es dort den Kassenschlager R9 280 gibt, ist doch alles in Butter ;)

Im Oktober könnte es jedoch interessant werden, wenn GM206 aufkreuzt.

Er ist nicht so groß aber er ist auch nicht so klein. Nvidia hat schon den gesamten Kepler Zeitraum über bewiesen, dass die auch mit den Produkten oberhalb des Performance Segments erhebliche Umsätze und auch Gewinne machen. Du darfst auch nicht vergessen was sogenannte "Kassenschlager" in AMDs Geldbeutel bedeuten. Die letzten Zahlen waren nun auch im GPU Segment bei denen nicht berauschend. Dauerhaft geht sowas halt nicht. Irgendwann muss man auch funktional und in der Performance gegenhalten.

Insbesondere im Mobile Segment wird AMD m.E. sehr stark unter Druck kommen. Da waren sie gerade langsam dabei sich zu erholen aber ich fürchte die Erholung wird nur von sehr kurzer Dauer sein. Die Leistung in Relation zum Energieverbrauch und Kühlungsbedarf wird bei Maxwell sehr wahrscheinlich erheblich vor AMD liegen. Den GM206 hast Du ja schon angesprochen. Der wird m.E. noch viel interessanter als GM204, weil dort das Performance Segment avisiert wird und das auch die ideale Notebook GPU ist.

mironicus
2014-09-16, 15:31:16
Die neue Maxwell hat jetzt also auch HDMI 2.0? :)

Nightspider
2014-09-16, 15:36:29
:wink:

http://abload.de/img/gtx980gakgy.png

TurricanM3
2014-09-16, 15:38:17
Bin gespannt auf OC, hoffentlich geht mit Wakü und evtl. Mod-Bios wieder einiges. =)

aufkrawall
2014-09-16, 15:39:08
Mod-Bios wirds wohl brauchen, um von 165 auf 300W zu kommen. :D

fondness
2014-09-16, 15:40:31
Ist wohl eher eine Frage wieviel Takt das Design zusätzlich zu dem schon sehr hohen default-Takt noch verträgt. Eine 50W GPU kann ich auch nicht auf 2Ghz übertakten nur weil ich Spielraum bei der TDP hätte.

aufkrawall
2014-09-16, 15:42:51
Irgendwo ist natürlich Schluss. Trotzdem besser, als wenn TDP bei der Leistung 200W wäre.

Schnoesel
2014-09-16, 15:43:30
Warum wird dann eine 1GHZ 780 für 350€ verkauft?Tipp die Karte sieht wie Abfall gegen eine 970 aus.

Weil das Ding EOL geht und somit abverkauft wird? Nvidia macht sich doch selbst nicht Konkurrenz, zumal Maxwell günstiger in der Herstellung ist. Wir werden ja sehen mit welch "brachialer" Leistung die GTX 970 aufwartet.

Godmode
2014-09-16, 15:45:34
Ich glaube der Big Maxwell könnte (noch) später kommen, je nachdem, ob AMD die GTX 980 schlagen kann oder nicht. Solange von AMD nichts kommt, wird man den GM200 nur im Profi-Segment verkaufen und in Ruhe auf AMD warten.

Ich denke die meisten Highend User werden auf GM200 warten. Was bringt ihnen den GM204 wirklich, außer etwas weniger Stromverbrauch und vielleicht ein paar neue Features? Wenn ich meine Tintans noch hätte, käme GM204 nur in Frage, wenn ich damit 50% mehr Leistung erhalten würde. Wenn man von ner 670,680,770 kommt, ist GM204 natürlich ein nettes Upgrade.

edit:
Wenn das wirklich stimmt, dass GM204 etwa 780 Ti Performance erreicht und dabei 165W TDP und 5,2Mrd Transistoren hat, dann ist das schon beachtenswert.

maximus_hertus
2014-09-16, 15:51:16
Die Frage ist auch, "welcher" GM200 kommt. nV könnte z.B. einen Salvage vom Salvage als 980 Ti herausbringen. Ob das dann immer noch attraktiv wäre?

Kriton
2014-09-16, 15:58:36
Man wird auf Titan-Niveau landen. Eine GTX 980 Ti ist ja auch schon indirekt möglich, siehe PCB(mehr SpaWas und mehr Takt). 1,2GHz ist verdammt viel, aber es sollte noch etwas mehr drin sein. Ich bin gespannt, wie Maxwell nach oben skaliert. Ich vermute, NV hat den Takt ziemlich hoch angesetzt, um die Karte auf das betreffende Niveau zu heben. Man

Und weil man mit neuer Generation mehr Performance bietet bleibt man gleich teuer bei geringeren Kosten?
Dann muss ich ja nie aufrüsten...:biggrin:

Ich sage ja, Nvidias Marketing funktioniert. Aber auf die Vergangenheit (die ich ja explizit erwähne) kann man da natürlich auch nicht eingehen. Das würde ja dem kolportierten Vorgehen widersprechen.

Ailuros könnte sicher etwas dazu sagen wie die damaligen Kosten pro Chip für GK104 waren und wie sie jetzt für GM204 sein werden. Ich vermute mal: Etwas teurer für GM204, aber nicht mal im Ansatz in der Größenordnung in der wir die Endkundenpreise sehen werden.

Bei der 680 haben sich einige noch aufgeregt (und viele es schon gerechtfertigt), heute ist das mit Verweis auf die 680 normal.

Ihr dürft gern eure hoffnungslos überteuerten Karten bei Nvidia kaufen, ich habe da auch noch eine günstige Brücke in San Francisco falls jemand Interesse hat... :rolleyes:

Und für das biasmeter: In beiden Rechnern habe ich (ältere) Nvidia.

mironicus
2014-09-16, 16:02:04
Ich sehe schon in den Profilen der zukünftigen GTX 980-Besitzer:
GTX 980 4 GB 1550/1900.
GTX 980 4 GB 1480/1850.
GTX 980 4 GB 1520/1875.

:)

Godmode
2014-09-16, 16:05:16
Die Frage ist auch, "welcher" GM200 kommt. nV könnte z.B. einen Salvage vom Salvage als 980 Ti herausbringen. Ob das dann immer noch attraktiv wäre?

GM204 wächst gegenüber GK104, was die absolute ALU Anhzahlt angeht, um den Faktor 1,33. Die Die-Size steigt dabei um den Faktor 1,35. Würde man das 1:1 auf GM200 umlegen, wären das 3840 ALUs bei 746 mm2 Die-Size, was ausgeschlossen ist. GM200 kann also nicht so stark gegenüber seinem Vorgänger (GK110) zulegen, weil die Die-Size hier zu einschränkend wirkt.

fondness
2014-09-16, 16:06:31
Würde mich nicht wundern wenn GM200 genau so viele ALUs wie GK110 hat. Denn die Maxwell ALUs benötigen nicht weniger Platz als bei Kepler, eher im Gegenteil. Das würde dann ~35% mehr pro Takt Leistung bedeuten. Takt dürfte auch steigen, sodass man schon auf +50% kommen sollte.

Duplex
2014-09-16, 16:11:29
Bei 2880 Shader hätte man dann das gleiche Performance Verhältniss wie GTX680 > GTX780.
Ich denke 2880-3072 Shader werden es bei GM200 schon sein müssen.

Kriton
2014-09-16, 16:12:42
Die Preise sind einfach nur irre, 500$ für 680 damals und selbst 1k für Titan fand ich noch akzeptabel, weil Gk110 schwer zu fertigen war und die neue Fertigung recht teuer. Aber das hier ist einfach nur nen Witz. Naja, macht kein Sinn sich über die Preise aufzuregen. Einfach nicht kaufen und gut. Wenn sich das Ding nicht verkauft sinken die Preise auch, Problem ist, dass es sich trotzdem verkaufen wird.

Es macht Sinn darüber zu reden, weil nur so die breite Masse das Thema vermittelt bekommt (ich denke in diesem Sinne an Multiplikatoren z.B. auf Basis der Forenuser).

@aufkrawall

Der High-End Markt ist nicht sooo groß. Der Markt <200 Euro ist der entscheidene. Und solange es dort den Kassenschlager R9 280 gibt, ist doch alles in Butter ;)


Eine hohe Marge im high end gibt aber gut Geld auch bei kleineren Verkaufszahlen.

Godmode
2014-09-16, 16:13:38
Würde mich nicht wundern wenn GM200 genau so viele ALUs wie GK110 hat. Denn die Maxwell ALUs benötigen nicht weniger Platz als bei Kepler, eher im Gegenteil. Das würde dann ~35% mehr pro Takt Leistung bedeuten. Takt dürfte auch steigen, sodass man schon auf +50% kommen sollte.

Bei 2880 Shader hätte man dann das gleiche Verhältniss wie GTX680 > GTX780.
Ich denke 2880-3072 Shader werden es bei GM200 schon sein müssen.

Eventuell 5-6 GPCs verglichen mit nur 4 bei der GTX 980. Wenn die GPCs hier gleich groß sind wie bei GM204, wären dass bei 5 GPCs 2560 ALUS und bei 6 GPCs 3072 ALUs.

edit: Laut Ail wird GM200 ja wirklicht nicht viel größer als GK110:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10351416&postcount=5019

Duplex
2014-09-16, 16:13:46
AMD war doch damals mit Tahiti XT der Vorreiter bei den Preisen, die haben Nvidia die Richtung für GK104 gezeigt, jetzt plötzlich beschwerden sich alle über Preise, jeder muss Geld machen.

Kriton
2014-09-16, 16:16:01
Wie kommst du auf Kassenschlager?
Trotz großangelegter Bundle-Aktionen konnte sich Tahiti eher schlecht als recht gegen GK104 im Enduser-Markt behaupten (Notebooks...).

Das Bundle galt/gilt auch bei NBs? Oder vermischt Du hier Verschiedenes? Nicht, dass Tahiti für NBs geeignet wäre...

Warum wird dann eine 1GHZ 780 für 350€ verkauft?Tipp die Karte sieht wie Abfall gegen eine 970 aus.

Weil kaum jemand, der im Preisbereich einer 780 investiert diese kaufen wird wenn man schon 2 Generationen (7 -> 9) weiter ist. :weg:
Leser diverser HW-Foren vielleicht ausgeschlossen. Nicht jeder der Geld hat, hat auch Ahnung und umgekehrt.

AMD war doch damals mit Tahiti XT der Vorreiter bei den Preisen, die haben Nvidia die Richtung für GK104 gezeigt, jetzt plötzlich beschwerden sich alle über Preise, jeder muss Geld machen.

Das weißt Du besser. AMD war mit Tahiti early adopter von 28nm mit schlechter Ausbeute. Es ist klar, dass man da teurer verkaufen musste als heute mit einem ausgereiften Prozess. :rolleyes:

Nakai
2014-09-16, 16:21:15
Bei 2880 Shader hätte man dann das gleiche Performance Verhältniss wie GTX680 > GTX780.
Ich denke 2880-3072 Shader werden es bei GM200 schon sein müssen.

Leicht über 3000SPs.

Bei 4 GPCs -> 24SMMs(3072SPs). Bei 5 GPCs -> 25SMMs(3200SPs). 30~40% vor GM204 würde ich tippen.

Duplex
2014-09-16, 16:25:08
Bei nur 165 Watt TDP, wird das ein ziemliches Feuerwerk gegen AMD´s bestehende Karten.
Da deute ich die Preissenkungen der R9 290x nicht als Abverkauf, sondern eher als verzweifelten Schritt.
Danke für diesen Beitrag :smile:
Jetzt rennen plötzlich AMD die Jünger davon :biggrin:

Rente
2014-09-16, 16:27:03
Hängt das nicht von den Display Port Specs ab?Wenn die Karte 1.3 hat dann dürfte es bis 4k gehen.Das ist doch überhaupt nicht relevant, das Bild wird nicht in 4K an den Monitor übergeben, also wäre es durchaus denkbar wenn nVidia das irgendwie entkoppelt hat.

Godmode
2014-09-16, 16:30:35
Leicht über 3000SPs.

Bei 4 GPCs -> 24SMMs(3072SPs). Bei 5 GPCs -> 25SMMs(3200SPs). 30~40% vor GM204 würde ich tippen.

http://abload.de/img/screenshot2014-09-16ak7kpz.png

Inkl 35% mehr Shader Core Leistung und ein um 10% erhöhter Takt, würde die reine ALU Leistung um den Fakto 1,58 gegenüber einer 780 Ti steigen. Natürlich muss man da noch was abziehen, weil ja nicht alles auf die Straße kommt. Ich würde dann GM200 40-50% vor GK110 sehen. Salvage dann bei 25-35% vor GK110.

reaperrr
2014-09-16, 16:32:33
Leicht über 3000SPs.

Bei 4 GPCs -> 24SMMs(3072SPs). Bei 5 GPCs -> 25SMMs(3200SPs). 30~40% vor GM204 würde ich tippen.
Da schon GK110 5 GPCs hatte, erwarte ich auch mindestens 5 bei GM200. Von der Größe her sollten je 5 SMM auch ca. 3 SMX entsprechen, dann bräuchte man am Chip-Layout nicht so wahnsinnig viel machen.

Duplex
2014-09-16, 16:32:48
http://abload.de/img/screenshot2014-09-16ak7kpz.png

Inkl 35% mehr Shader Core Leistung und ein um 10% erhöhter Takt, würde die reine ALU Leistung um den Fakto 1,58 gegenüber einer 780 Ti steigen. Natürlich muss man da noch was abziehen, weil ja nicht alles auf die Straße kommt. Ich würde dann GM200 40-50% vor GK110 sehen. Salvage dann bei 25-35% vor GK110.

Das ist ja eines der besten Erfolge überhaupt! Man braucht keine neue Fertigung mehr.

Godmode
2014-09-16, 16:35:33
Das ist ja eines der besten Erfolge überhaupt! Man braucht keine neue Fertigung mehr.

Man stelle sich nur vor wenn die 20nm oder 16nm bereit gewesen wäre. Das Ding wäre wieder ein echtes Monster geworden.

dildo4u
2014-09-16, 16:36:32
NV weiß das 16nm noch lange weg ist logisch das sie sich da reinhängen mussten.

Duplex
2014-09-16, 16:36:52
Man stelle sich nur vor wenn die 20nm oder 16nm bereit gewesen wäre. Das Ding wäre wieder ein echtes Monster geworden.
Naja, kommt darauf an welchen Chip man als erstes bringen würde, ein GM204 in 16FF mit 32 SMM & 4096 Shader wäre kaum größer als 400mm².

Nightspider
2014-09-16, 16:40:33
Das tolle ist ja das für Pascal eine neue und komplett reife 16nm Fertigung bereitsteht für eine komplett neue Architektur incl. Memory Cubes.

Die letzten 3 Jahre waren Durststrecke aber dafür werden die nächsten 2 Jahre wahrscheinlich recht angenehm, auch wenn Big Maxwell nach 2,5 Jahren nur 50% mehr Leistung bieten wird. Allerdings sind selbst nur 50% genial für den gleichen, mittlerweile billigen, Herstellungsprozess.

Duplex
2014-09-16, 16:41:06
NV weiß das 16nm noch lange weg ist logisch das sie sich da reinhängen mussten.
Am besten wäre wenn man permanent, etwas unabhängig vom Prozess die Architekturen soweit wie möglich auf sehr hohe Effizienz auslegen kann, man kann sich nicht immer auf neue Prozesse konzentrieren, 35% mehr Core Performance im alten Prozess ist beste Arbeit von Nvidia, das muss hier jeder akzeptieren! Nicht immer nach links sehen und AMD lieb haben ;)