PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Maxwell - GM1xx (H1/2014) / GM2xx (H2/2014)


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 [17] 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33

Edgecrusher86
2014-08-16, 20:01:23
http://abload.de/img/newgtxcluxn.png

Relativ langweilig für GK110-400+ Besitzer vermutlich - meine Prognose. ;)

aufkrawall
2014-08-16, 20:03:52
Wollt ihr wieder arme Chinesen trollen, die an der Grammatikübersetzung von Google verzweifeln...

Edgecrusher86
2014-08-16, 20:04:59
Also immerhin ist da ein bisschen mehr Liebe drin. :freak:

M4xw0lf
2014-08-16, 20:06:42
Also immerhin ist da ein bisschen mehr Liebe drin. :freak:
Von Shader Model 6.0 hat die Welt nur noch nix gehört, ob dafür die Spezifikationen überhaupt schon feststehen (wenn überhaupt eines kommt in DX12)? Sicher standen sie beim Maxwell-Tapeout noch nicht fest :tongue:

Edgecrusher86
2014-08-16, 20:10:46
Mal schauen, aber ansonsten dürfte das mit 15 SMM schon hinkommen, wenn GM204 deutlich unterhalb 400mm² liegen sollte. :)

Unicous
2014-08-16, 20:23:54
Dass du DX 12 eingetragen hast finde ich unverschämt.:mad:



I like your style.:biggrin:

AnarchX
2014-08-17, 12:55:27
Bei Zauba sind Customer Samples von GM200 aufgetaucht. Insofern wird es hier wohl auch zur Auslieferung des A1-Dies kommen. Da sollten wohl die Enthusiasten schon ihren 1-2K € für das Jahresende bereithalten. :ulol:

M4xw0lf
2014-08-17, 13:07:02
Bei Zauba sind Customer Samples von GM200 aufgetaucht. Insofern wird es hier wohl auch zur Auslieferung des A1-Dies kommen. Da sollten wohl die Enthusiasten schon ihren 1-2K € für das Jahresende bereithalten. :ulol:
Yay, ich nehm eine oder fünf!

Nightspider
2014-08-17, 13:25:52
Warum machen eigentlich alle Vergleich mit anderen DIEs, wenn wir doch das Package wissen und sogar, wie von Botcruscher vorgeschlagen, den Speicher als Verhältnis hernehmen können?

Die Mehrzahl heißt "dice" *klugscheiß*

;)

ndrs
2014-08-17, 14:56:18
Die Mehrzahl heißt "dice" *klugscheiß*

;)
(electronics) (plural: dice or dies) An oblong chip fractured from a semiconductor wafer engineered to perform as an independent device or integrated circuit.
http://en.wiktionary.org/wiki/die#English
Eindeutig "dice" ist es nur bei Würfeln. Alles andere ist "dies" und bei oben gemeintem ist man sich uneinig, wobei ich persönlich zu "dies" tendiere.

Machst du den Haufen jetzt wieder weg? :D

VooDoo7mx
2014-08-17, 15:19:27
Schade nur 15 SMM. :( Immerhin ist die Taktfreuenz sehr hoch. Scheint wohl auch einiges an OC Potential zu geben.
Wenn man von nVidias Rechnung ausgeht 1 Maxwell SMM = 90% Performance von 1 Kepler SMX. Wird eine stock GM204 mit 1215MHz Boost so lange die Bandbreite nicht limitiert schon so 10-20% vor der 780Ti liegen. Dazu noch 4 statt 3GiB Speicher.

Ich hoffe die Karten werden nicht allzu teuer. Mehr als $499 MSRP sollte die Karte nicht sein.

AnarchX
2014-08-17, 15:26:25
Der GPU-Z-Screen ist Edgecrusher86' Eigenkreation. ;)

Unter 16 SMM würde ich bei GM204 nicht erwarten. Die bisher bekannte D17U-20 mit 13SMM, ist wohl eher eine Lösung am unteren Ende. Da dürfte der Gegner Tonga XT heißen und wohl ein Duell bei <$299 anstehen.

Askingar
2014-08-17, 15:40:23
Oder doch eher um 20?

Duell bei <$299
Wird auf jeden Fall spannend, obs "XT" dahin schafft, fraglich.

VooDoo7mx
2014-08-17, 15:44:46
Der GPU-Z-Screen ist Edgecrusher86' Eigenkreation. ;)

Unter 16 SMM würde ich bei GM204 nicht erwarten. Die bisher bekannte D17U-20 mit 13SMM, ist wohl eher eine Lösung am unteren Ende. Da dürfte der Gegner Tonga XT heißen und wohl ein Duell bei <$299 anstehen.

Dann soll er es auch mit dazuschreiben. Wie geht das GPUz files manipulieren? Wirkte auf mich sehr authentisch. :ugly:
Es kann doch auch sein, dass der 13SMM Chip nen fake ist? Oder ist das vielleicht ein GM206 Lösung? :ugly:

AnarchX
2014-08-17, 15:49:37
Es kann doch auch sein, dass der 13SMM Chip nen fake ist? Oder ist das vielleicht ein GM206 Lösung? :ugly:
Bei den 13SMM Leak stimmen wieder zu viele Details, sodass die Fake-Wahrscheinlichkeit eher niedrig ist.


Oder doch eher um 20?
Ail schrieb doch hier im Thread, dass 20 zu viel wären.



Wird auf jeden Fall spannend, obs "XT" dahin schafft, fraglich.
Die R9 280X liegt da momentan, insofern wird es wohl nicht weniger werden für die R9 285X.

Askingar
2014-08-17, 15:49:43
Es kommen womöglich "3" Abwandlungen vom GM204.

Die R9 280X liegt da momentan, insofern wird es wohl nicht weniger werden für die R9 285X.
Eher mehr?

AnarchX
2014-08-17, 15:51:54
Es kommen womöglich "3" Abwandlungen.
GM204?

Da sind laut Treiber wohl eher noch ein paar mobile Lösungen unterwegs, die aber wohl wegen der langwierigen Validierung erst im Winter vorgestellt werden.

Askingar
2014-08-17, 16:18:52
GM204?
20=256bit; 18=256bit; 16=256bit; 16=192bit?

Hübie
2014-08-17, 16:26:08
Gut möglich. GK104 kommt auch in vier Varianten daher. Die 680, 670, 660Ti und 660 OEM.

AnarchX
2014-08-17, 16:32:19
20=256bit; 18=256bit; 16=256bit; 16=192bit?
Was?

D - Desktop
17 - Generation
U - Ultra, da gibt es noch Performance, Mainstream
20 - Einordnung in der Leistungklasse, AFAIR 20 bis 60.

Beispiele:
GTX 680 - D14U-35
Titan (1) -D15U-50
GTX 780 - D16U-40

edit:
Die 13SMM Variante scheint doch schon bestätigt.

Hübie
2014-08-17, 16:37:40
Mit 20,18 und 16 meinte er wohl eher die SMM ;)
Ich bezog mich auf die deaktivierten Cluster bzw. den teildeaktivierten MC. Auch wenn seine Anzahl nicht stimmt so bleibt ja die Konstellation erhalten. GM204 wird ja entsprechende Volumina belegen um mehrere salvage-parts abzuwerfen.

Hugo
2014-08-17, 16:47:26
Anhand der 13SMM (die anscheinend schon bestätigt sind), schätze ich GM204 im Vollausbau auf 18SMM. Passt auch gut, wenn man einen komplatten GM107 dazurechnet.

Hübie
2014-08-17, 16:49:03
Ack. Und dann halt drei bis vier Ausführungen. Dann sollte jedem klar sein wo das Ding positioniert ist.

Leonidas
2014-08-17, 17:08:22
Anhand der 13SMM (die anscheinend schon bestätigt sind), schätze ich GM204 im Vollausbau auf 18SMM. Passt auch gut, wenn man einen komplatten GM107 dazurechnet.


Schwer vorstellbar, daß NV eine 13SMM-Karte mit 3500 MHz Speichertakt losschickt, wenn es eine 18SMM-Karte auf Basis des gleichen Chips geben soll, wo der Speichertakt kaum höher liegen kann. Der Rohleistungsunterschied wäre bei 40% - aber was soll das bringen ohne mehr Speicherbandbreite?

Ausgehend von den 13SMM dürfte GM204 im Vollausbau nur 15SMM oder 16SMM haben.

Spekulativ:
880: 15/16SMM+256Bit/3500-4000MHz
870: 13SMM+256Bit/3500MHz
860Ti/870SE: 11-12SMM+192Bit/3000-3500MHz

M4xw0lf
2014-08-17, 17:13:52
Es sei denn die Bandbreite reicht locker. Bei GM107 siehts da ja auch recht gut aus. Aber ich glaube auch eher an einen Vollausbau mit 15/16 SMMs maximal.

Leonidas
2014-08-17, 17:19:03
Wenn die Bandbreite locker reicht, dann setzt man die 870 mit langsameren Speichertakt oder gleich 192 Bit Interface an, die dazu passenden 3 GB sind ziemlich ideal als Speicherbestückung in diesem Preissegment.

Gerade wenn der Unterschied 13SMM zu 18SMM lautet, müssen doch beide Karten nicht die nahezu identische Speicherbandbreite haben.

M4xw0lf
2014-08-17, 17:25:52
GK104 gibts aber ja auch in Form von GTX760 bis 680 mit 1152 bis 1536 Shadern bei identischer Speicherbandbreite.

Ailuros
2014-08-17, 17:28:59
GK104 gibts aber ja auch in Form von GTX760 bis 680 mit 1152 bis 1536 Shadern bei identischer Speicherbandbreite.

Wobei der erste Schub 660/660Ti/670/680 wohl nichts direkt mit 760/770 zu tun hatte ausser der Tatsache dass der gleiche Kern fuer den 700-er refresh benutzt wurde. In dem Fall ist es Bloedsinn die beiden Produkt-"Familien" zu mischen und davon moegliche Aspekte der kommenden 800-Familie abzuleiten.

Leonidas
2014-08-17, 17:40:23
Korrekt. Bei 760/770 hatte NV andere Zielsetzungen.

Rein innerhalb der Familien betrachtet gibt es nirgendwo einen Fall, wo eine Karte mit 40% mehr Rohleistung die nahezu gleich oder vollständig gleiche Speicherbandbreite hat. In einem solchen Fall wäre dann eine Karte entweder bei der Speicherbandbreite klar überdimensioniert oder die andere eben unterdimensioniert.

AnarchX
2014-08-17, 17:40:29
Gerade wenn der Unterschied 13SMM zu 18SMM lautet, müssen doch beide Karten nicht die nahezu identische Speicherbandbreite haben.
Vielleicht landen im 13SMM Die auch noch Chips, wo größere Teile vom L2-Cache kaputt sind, sodass es hier nur 2MiB (statt vielleicht 4MiB) sind.

8Gbps GDDR5 ist jedenfalls noch nicht am Horizont.

Hübie
2014-08-17, 18:07:55
Ich weiß gar nicht ob non-ECC überhaupt noch von yields betroffen ist. Vielleicht sehen wir auch zwei 256-bit und zwei 192-bit Versionen
Wer weiß. Aber es macht ja schon Sinn die deutlich voneinander abzugrenzen.

Duplex
2014-08-17, 18:15:53
Anhand der spekulierten Daten sehe ich leider nichts besonderes gegenüber Kepler High End.

Ein Maxwell mit 25-30 SMM, 512 Bit SI & 4GB Speicher ohne GPGPU Kram wäre erst interessant, vor 16/14nm wird sich nicht mehr viel tun.

Hübie
2014-08-17, 18:18:13
Du weißt dass GM204 nicht der top dog ist?

AffenJack
2014-08-17, 18:22:30
Vielleicht landen im 13SMM Die auch noch Chips, wo größere Teile vom L2-Cache kaputt sind, sodass es hier nur 2MiB (statt vielleicht 4MiB) sind.

8Gbps GDDR5 ist jedenfalls noch nicht am Horizont.

Das könnte natürlich durchaus auch passieren, aber ich glaube, dass werden wir eher in einer GTX860 sehen. Die geleakte Karte mit 13SMM dürfte aber auf jeden Fall ne 870 sein, denn ne 860er Karte wird keine 4gb Ram bekommen.
Glaube daher auch eher wie Leo an 15/16SMM.

Timbaloo
2014-08-17, 18:23:42
Du weißt dass GM204 nicht der top dog ist?
Er macht gerade den Telefonjoker bei "Wünsch dir was".

Hübie
2014-08-17, 18:40:00
780-Leistung zu 680-Verbrauch wäre bei (fast) gleichem Prozess schon gut... Zumindest wenn man kein verschrobenes Anspruchsdenken hat.

Askingar
2014-08-17, 22:24:53
14-Aug-2014=GM200-CS0-A1 (https://www.zauba.com/import-gm200-hs-code.html)
Man spricht schon von Titan II...

780-Leistung zu 680-Verbrauch wäre bei (fast) gleichem Prozess schon gut
Ja, für die größte Ausbausstufe wären 195w max. TDP schon nicht schlecht. ;)

Leonidas
2014-08-18, 00:40:38
Vielleicht landen im 13SMM Die auch noch Chips, wo größere Teile vom L2-Cache kaputt sind, sodass es hier nur 2MiB (statt vielleicht 4MiB) sind.


Das wäre eine interessant neue Möglichkeit für Abspeckungen.

-/\-CruNcher-/\-
2014-08-18, 09:09:20
Die meisten Engines und jetzigen Games wurden immer mit der Zielsetzung G92/GF104/GK104 optimiert und die Balance liegt momentan bei 660/760 (mitte) wobei bei Maxwell ja alle stark darauf hoffen das die Compute Balance shifted.

Der Preis der x60 serie bleibt eigentlich auch immer konstant bei 250€ ich denke mal wir werden diesen shift nun sehen GM204 = x60 GTX mit x70 Performance und selben verbrauch bei gesteigerter Compute Leistung darauf läuft sogut wie alles hinaus bei Nvidia im Balance Shifting von Kepler

Hugo
2014-08-18, 14:55:47
Schwer vorstellbar, daß NV eine 13SMM-Karte mit 3500 MHz Speichertakt losschickt, wenn es eine 18SMM-Karte auf Basis des gleichen Chips geben soll, wo der Speichertakt kaum höher liegen kann. Der Rohleistungsunterschied wäre bei 40% - aber was soll das bringen ohne mehr Speicherbandbreite?

Ausgehend von den 13SMM dürfte GM204 im Vollausbau nur 15SMM oder 16SMM haben.

Spekulativ:
880: 15/16SMM+256Bit/3500-4000MHz
870: 13SMM+256Bit/3500MHz
860Ti/870SE: 11-12SMM+192Bit/3000-3500MHz

fertigt Samsung nicht 8000Mbps GDDR5 Speicher?

Ailuros
2014-08-18, 15:11:09
fertigt Samsung nicht 8000Mbps GDDR5 Speicher?

Und Verfuegbarkeit fuer wann genau? Wieso kommt uebrigens vor JEDEM neuem GPU Schub die genau gleiche Frage auf, die stets die gleiche Antwort bekommt?

AnarchX
2014-08-18, 15:20:49
Gab es dazu eine Meldung? Es gibt bei Samsung einen entsprechenden Produkt-Code für 0,25ns GDDR5 und es sind wohl seit 2011 Maschinen verfügbar die bis 8Gbps validieren können. Aber viel mehr ist da wohl nicht ersichtlich.

Dural
2014-08-18, 15:21:45
naja für im Herbst könnte man 2000MHz Speicher schon erwarten, 1750MHz werden ja schon lange auf Grafikkarten verbaut.

Das Problem liegt wohl mehr bei der Verlustleistung beim SI und Speicher mit 2000MHz.

AnarchX
2014-08-18, 15:24:33
naja für im Herbst könnte man 2000MHz Speicher schon erwarten, 1750MHz werden ja schon lange auf Grafikkarten verbaut.

Bisher gibt es aber halt keine Andeutung (Roadmaps, Produkt Books) auf entsprechenden Speicher und der September steht vor der Tür.

Dural
2014-08-18, 15:27:19
liegt das oft nicht nur an der Nachfrage dafür? Ich kann mich sehr gut daran erinnern das für die 8800Ultra plötzlich schnelleren Speicher auf dem Markt kam, den es vorher nicht gab.

Godmode
2014-08-18, 15:29:51
Es wurde in der Vergangenheit nie der schnellste Speicher verwendet, daher gehe ich davon aus, dass es auch bei dieser Generation nicht anders sein wird.

Ailuros
2014-08-18, 15:37:54
Es wurde in der Vergangenheit nie der schnellste Speicher verwendet, daher gehe ich davon aus, dass es auch bei dieser Generation nicht anders sein wird.

7.0Gbps fuer den 780Ti/770 Schub war aber auch nicht der langsamste verfuegbare Speicher zu dem Zeitpunkt. Die grosse 204 SKU liegt ein Stueck darueber afaik aber eben nicht bei 8 ;)

Hübie
2014-08-18, 15:47:05
Zumindest auf den GM204-Boards ist so teurer Speicher nicht sinnvoll. Ich meine mich zu erinnern dass 1GB (7 Gbps-Chips) um die 15 $ kostet. 8 Gbps-Chips liegen da sicher eher um die 20$. Und nein dass sind nicht die Preise die du auf der Straße bekommst ;)

Timbaloo
2014-08-18, 16:51:33
8Gbps dann für den GM204-Aufguss.

Ailuros
2014-08-18, 17:59:00
8Gbps dann für den GM204-Aufguss.

Wenn es so stark den TDP beinflusst wie bei der GTX770 fuer mich persoenlich nein danke.

AnarchX
2014-08-18, 18:25:00
7.0Gbps fuer den 780Ti/770 Schub war aber auch nicht der langsamste verfuegbare Speicher zu dem Zeitpunkt. Die grosse 204 SKU liegt ein Stueck darueber afaik aber eben nicht bei 8 ;)

Aber da brauch es dann schon schnelleren GDDR5 als 0,28ns oder geht man den Weg über OCing / eigenes Qualifizierung von 7Gbps+ Chips?

Hauwech
2014-08-18, 18:45:23
Ich finde leider das Posting von, ich glaube Gipsel wars, nicht mehr worin max 700mm² (?) bei der heutigen Belichtungstechnik möglich aber dadurch, das es zum Rand hin unschärfer wird, natürlich nicht sinnvoll sind.

Mal eine garantiert bescheuerte Idee: Der GM200 ist ja vornehmlich für die Profimärkte gedacht. Wäre es nicht möglich, den Rand über die üblichen 550mm² für relativ einfach aufgebauten Cachespeicher zu nutzen? Schneller als der Speicher auf der Karte dürfte der Cache doch mit Sicherheit sein und so Leute wie Skysnake lechzen ja geradezu nach mehr "internen" Speicher für GPGPU. So als L3(?)-Cache dürften je nach Ausbeute doch einige MiB mehr zusammen kommen.

Klar müsste das verdrahtet und bei jedem Chip getestet werden aber das werden die ja sowieso. Der Preis für so einen Chip in den angedachten Märkten ist ja eher vernachlässigbar.

Komplett hirnrissige Idee, ich weiss aber vielleicht sogar machbar? Die Frage ist natürlich zu welchem Preis....

Edit: Ich meine natürlich als zusätzlichen Cachespeicher neben dem sowieso vorhandenen L2 in der GPU.

Hübie
2014-08-18, 18:48:58
Das wird eher kosmetischer Natur sein ;) So wie die 3505 MHz.

http://abload.de/img/gtx770_defaultqauwi.png (http://abload.de/image.php?img=gtx770_defaultqauwi.png)

:naughty: :freak:

btw: Da die mit 1,6 Volt validiert sind laufen fast alle out of the box mit ~3800-4000.

Edit: @Hauwech: Die Caches aussen zu machen halte ich für fraglich da alle GPC darauf zugreifen müssen und es wohl auch für die Wärmeverteilung suboptimal ist. Muss mich kurz fassen...

Loeschzwerg
2014-08-18, 19:03:09
@Hauwech: Bei TSMC sind es aktuell 650mm².

Gipsel
2014-08-18, 19:13:43
Das absolute theoretische Limit bei ASML-Belichtern (wie von TSMC und Globalfoundries benutzt) liegt bei ~850mm² (26mm x 33mm reticle field size). Das wird aber wohl nie genutzt werden. Etwas über 700mm² ist praktisch gesehen vermutlich ziemlich das Ende der Fahnenstange.

Askingar
2014-08-18, 21:26:19
Es wurde in der Vergangenheit nie der schnellste Speicher verwendet, daher gehe ich davon aus, dass es auch bei dieser Generation nicht anders sein wird.

H5GQ4H24MFR-R2C (http://www.electronicsdatasheets.com/pdf-datasheets/sk-hynix/h5gq4h24mfrr2c/)

Hübie
2014-08-18, 22:19:20
THIS! ;D

Ich habe eben mal nach 8 Gbps-Chips geglupscht aber dass scheint thematisch kaum relevant zu sein. Es ist irgendwie klar dass bald was neues her muss. GDDR5 is am Ende und skaliert eigentlich nur noch in die Breite (Bandbreite <-> GPU).

Timbaloo
2014-08-18, 23:02:23
Edit: @Hauwech: Die Caches aussen zu machen halte ich für fraglich da alle GPC darauf zugreifen müssen und es wohl auch für die Wärmeverteilung suboptimal ist. Muss mich kurz fassen...
Öhmmm, also von meinem Verständnis her sollte der L3 eigentlich schon aussen liegen, also direkt am SI kleben.

Hübie
2014-08-18, 23:37:37
L3 in einer GPU? :|

Timbaloo
2014-08-19, 00:04:03
L2 meinte ich.

mczak
2014-08-19, 00:15:14
Ganz aussen liegt doch eh der i/o Kram der ist sowieso nicht dicht gepackt.

Hübie
2014-08-19, 00:26:26
Und wie willst du die dann miteinander verbinden? Der wird wie gesagt global geteilt. Afaik hängen die ROPs direkt am SI.

Edit: Und natürlich ist das PCIE-Interface auch aussen.

Skysnake
2014-08-19, 10:03:01
Ich finde leider das Posting von, ich glaube Gipsel wars, nicht mehr worin max 700mm² (?) bei der heutigen Belichtungstechnik möglich aber dadurch, das es zum Rand hin unschärfer wird, natürlich nicht sinnvoll sind.

Mal eine garantiert bescheuerte Idee: Der GM200 ist ja vornehmlich für die Profimärkte gedacht. Wäre es nicht möglich, den Rand über die üblichen 550mm² für relativ einfach aufgebauten Cachespeicher zu nutzen? Schneller als der Speicher auf der Karte dürfte der Cache doch mit Sicherheit sein und so Leute wie Skysnake lechzen ja geradezu nach mehr "internen" Speicher für GPGPU. So als L3(?)-Cache dürften je nach Ausbeute doch einige MiB mehr zusammen kommen.

Klar müsste das verdrahtet und bei jedem Chip getestet werden aber das werden die ja sowieso. Der Preis für so einen Chip in den angedachten Märkten ist ja eher vernachlässigbar.

Komplett hirnrissige Idee, ich weiss aber vielleicht sogar machbar? Die Frage ist natürlich zu welchem Preis....

Edit: Ich meine natürlich als zusätzlichen Cachespeicher neben dem sowieso vorhandenen L2 in der GPU.
Das ist keine gute Idee, weil Caches aus SRAM bestehen, und SRAM die höchste Packdichte hat, und auch recht empfindlich ist, damit er energieeffizient gebaut werden kann. Hab mich vor einer Weile mit Multiport SRAM beschäftigt, und das ist schon nicht so einfach. Da willste nicht noch irgendwelche Variationen durch ne mangelnde Belichtung.

Es gibt aber noch einen anderen Grund. Außen sitzen die Phys von den SIs. Also die TX ganz außen und weiter innen die RX dann. Die Dinger verballern richtig Saft, daher willste die so niederimpedant wie nur möglich anschließen, und das ist eben außen im Normalfall der Fall.

Ganz abgesehen davon sollte man den I/O Bereich nicht unterschätzen. Das sind zwar relativ "grobe" Strukturen, aber das Matching muss da im Normalfall schon extrem!!! gut sein. Ich selbst entwickle aktuell für in dem Bereich Schaltungen, und das ist wirklich kein Zuckerschlecken....

Edgecrusher86
2014-08-19, 12:42:54
Das wäre mal was für den TITAN Black Nachfolger....*I want to believe* :biggrin:

http://abload.de/img/gtxtitaniib8dzo.png

Der 24.2. würde sich eigentlich perfekt als Launch eignen- just am selben Tag kommt Witcher 3 raus; das vermutlich wichtigste TWIMTBP-Game 2015 für NV. :)

Ein 512 bit SI wäre für den professionellen Markt sicher auch sehr gut - dann könnte man dort auch wie AMD mit der W9100 16GB anbieten.
7.0 Gbps müsste zwar nicht unbedingt sein (6.0 Gbps wären auch immerhin 384 GB/s), aber wenn die Karte teuer wird, kann man auch gleich den besten offiziell validierten VRAM verbauen.
Wenn NV weiterhin auf 384 bit setzt, hätte man wohl das Problem, dass auch eine "GTX 980" mehr als 4GB des GM204 bekommen müsste (dann vermutlich 6GB) und 12GB für eine "TITAN II"...naja. :freak:

Den Baseclock würde ich bei so einem großen Chip aber definitiv nicht über 954 MHz sehen, sodass etwa ein Max-Boost von um die 1100 MHz erreicht wird.

Mal schauen - ist ja noch lange hin. Dieses Jahr wird man mMn definitiv nur GM204 sehen. Q1/'15 wäre schon der Best-Case. :)

Hübie
2014-08-19, 12:52:49
Is dat hier der feuchte-Träume-für-nVidianer-Thread oder spekulieren wir ernsthaft über sinnvolle Kombinationen kommender Generationen? :|

Edgecrusher86
2014-08-19, 12:54:31
Denkst du, so eine Kombination wäre nicht sinnvoll? :)
GM scheint zwar relativ gut mit "wenig" Bandbreite auszukommen, aber wenn man diese Steigern könnte, wäre sicher nicht verkehrt. Zumindest zwischen 336 - 384 GB/s sollten schon drin sein für den großen Chip.

Zur Size: Machbar sollte das schon sein in 28nm HP.

Hübie
2014-08-19, 13:05:33
Was ich denke ist nicht wichtig aber passt an mehreren Ecken nicht zusammen. ROPs, Bandbreite, TMU und von mir aus auch die Größe. Sorry hab wie immer keine Zeit für lange Texte X-D

Dawn on Titan
2014-08-19, 13:13:33
Kommt doch mal von euren feuchten Träumen runter. Energieeffizienz ist auch bei GPUs das Thema und wird den reinen Leistungszuwachs zusammen mit der Fertigung beschränken.

Edgecrusher86
2014-08-19, 13:36:39
Wobei man halt schon über 3 TFLOP/s DP bringen muss (also etwa 24 SMM @ 1 GHz bei 1:2 DP/SP) - AMD wird sich auch nicht auf den Lorbeeren ausruhen und könnte viel Neues für Fiji bringen.
25 SMM bei niedrigeren Taktraten wäre natürlich effizienter.

25 SMM bei 200 TMUs würden rechnerisch schon einmal passen - GM107 hat 40 TMUs bei 5 SMM. Gut, die ROPs...naja, 48 werden es schon mindestens bleiben. :)

Ich frage mich, um wieviel ein 384-bit SI @ 7.0 Gbps denn sparsamer wäre als zum Beispiel 512-bit @ 6.0 Gbps.

Unicous
2014-08-19, 13:43:14
Hilfe, was hast du denn bei der Bandbreite verbrochen? 450 GB/s?:freak:

Edgecrusher86
2014-08-19, 13:47:33
Das wär halt das offiziell maximal mögliche. :D

E: Hm, GM107 hat das Verhältnis 2,5 TMUs/ROPs - bei 200 TMUs wären das 80 ROPs. :freak:

Dawn on Titan
2014-08-19, 13:48:08
Wobei man halt schon über 3 TFLOP/s DP bringen muss (also etwa 24 SMM @ 1 GHz bei 1:2 DP/SP) - AMD wird sich auch nicht auf den Lorbeeren ausruhen und könnte viel Neues für Fiji bringen.
25 SMM bei niedrigeren Taktraten wäre natürlich effizienter.

25 SMM bei 200 TMUs würden rechnerisch schon einmal passen - GM107 hat 40 TMUs bei 5 SMM. Gut, die ROPs...naja, 48 werden es schon mindestens bleiben. :)

Ich frage mich, um wieviel ein 384-bit SI @ 7.0 Gbps denn sparsamer wäre als zum Beispiel 512-bit @ 6.0 Gbps.

Ich würde mir primär TFlops/W ansehen.

Ailuros
2014-08-19, 14:07:50
Wobei man halt schon über 3 TFLOP/s DP bringen muss (also etwa 24 SMM @ 1 GHz bei 1:2 DP/SP) - AMD wird sich auch nicht auf den Lorbeeren ausruhen und könnte viel Neues für Fiji bringen.
25 SMM bei niedrigeren Taktraten wäre natürlich effizienter.

25 SMM bei 200 TMUs würden rechnerisch schon einmal passen - GM107 hat 40 TMUs bei 5 SMM. Gut, die ROPs...naja, 48 werden es schon mindestens bleiben. :)

Ich frage mich, um wieviel ein 384-bit SI @ 7.0 Gbps denn sparsamer wäre als zum Beispiel 512-bit @ 6.0 Gbps.

NV hat auf ihren neuesten roadmaps nicht mehr als 12 DP FLOPs/W versprochen. Bleibt die TDP bei 225W wie auf heutigen Teslas sind es 2.7 TFLOPs.

Bei hypothetischen 25 clusters und 64 FP64 SPs/cluster sind es bei 850MHz (welches schon eine verdammt hohe Frequenz ist fuer DP unter 28nmm) schon 2.7 TFLOPs. 1GHz fuer DP steht IMHO ausser Frage.


E: Hm, GM107 hat das Verhältnis 2,5 TMUs/ROPs - bei 200 TMUs wären das 80 ROPs. :freak:

Waeren ROPs vom SI entkoppelt wuerde die ROP Mengen nicht unbedingt so aussehen wie heute.

Nakai
2014-08-19, 14:16:46
NV hat auf ihren neuesten roadmaps nicht mehr als 12 DP FLOPs/W versprochen. Bleibt die TDP bei 225W wie auf heutigen Teslas sind es 2.7 TFLOPs.

Bei hypothetischen 25 clusters und 64 FP64 SPs/cluster sind es bei 850MHz (welches schon eine verdammt hohe Frequenz ist fuer DP unter 28nmm) schon 2.7 TFLOPs. 1GHz fuer DP steht IMHO ausser Frage.


Maxwell hat in etwa eine 40~50% höhere Perf/Watt. GM200 sollte definitiv ein DP:SP-Verhältnis von 1:2 bekommen. 25 SMMs klingen verdammt gut, vor allem, da Maxwell besser taktbar rüberkommt. Falls 28HPM verwendet wird, sollte die 850MHz Basistakt schon möglich sein.

Ailuros
2014-08-19, 14:19:37
Maxwell hat in etwa eine 40~50% höhere Perf/Watt. GM200 sollte definitiv ein DP:SP-Verhältnis von 1:2 bekommen. 25 SMMs klingen verdammt gut, vor allem, da Maxwell besser taktbar rüberkommt. Falls 28HPM verwendet wird, sollte die 850MHz Basistakt schon möglich sein.

Vorsicht ich rede NICHT von der GM200 desktop SKU sondern von der ersten Tesla. Die ersten K20 Teslas takteten unter 750MHz zur Erinnerung.

Edgecrusher86
2014-08-19, 14:23:33
Waeren ROPs vom SI entkoppelt wuerde die ROP Mengen nicht unbedingt so aussehen wie heute.

Ja, dann würden zum Beispiel auch 64 ROPs bei 200 TMUs passen.

Jo, mehr als 850MHz sind bei einer Tesla mit GM200 - sofern es jetzt nicht sowas wie die K10 für SP-Performance wird, nicht realistisch.

Ailuros
2014-08-19, 14:28:57
Ja, dann würden zum Beispiel auch 64 ROPs bei 200 TMUs passen.

Es gibt nichts zum "passen" in dem Fall; egal welche Busbreite braucht ein heutiger high end chip nicht mehr als 48 ROPs.

Jo, mehr als 850MHz sind bei einer Tesla mit GM200 - sofern es jetzt nicht sowas wie die K10 für SP-Performance wird, nicht realistisch.

Selbst 850MHz klingen etwas an den Haaren gezogen, da es sich bei hypothetischen 1600 FP64 SPs auch um >65% mehr solcher Einheiten handelt im Vergleich zum GK110.

Nakai
2014-08-19, 14:30:38
Vorsicht ich rede NICHT von der GM200 desktop SKU sondern von der ersten Tesla. Die ersten K20 Teslas takteten unter 750MHz zur Erinnerung.

Man sollte hierbei auch nicht vergessen, dass die ersten Tesla-Karten(K20/K20X) sogar noch nicht alle SPs aktiviert hatten. Der 28nm-Prozess war auch damals nicht so weit fortgeschritten. Nichtmal die K40 kommt über 800MHz.
Eigentlich sollte GM200 eher 30 SMMs haben, denn bei ~700MHz wäre man dann genau bei 2,7 DP-TFLOPs. Mehr als 3500SPs kann ich mir nicht vorstellen.

Edgecrusher86
2014-08-19, 15:16:03
Mehr als 24 oder 25 SMM sind wohl bei 550 - 600m² nicht möglich, zumindest, wenn die Packdichte nicht so hoch ist wie etwa bei Hawaii. Ich denke nicht, dass man bei NV viel mehr als 13 Mio./mm² verwenden wird.

Ein theor. AMD Chip mit 14 Mio+/mm² mit 550 oder 600mm² könnte 3520 bis 3840 SPs haben (55 bis 60 CUs)...aber dann müsste man schon vorher sehr an der Energieeffizienz schrauben, damit keine Kochplatte entstehen würde. :freak:

Naja, eventuell gibt es ja doch Überraschungen. :)


Um nochmal zurück auf das SI zu kommen: 320-bit SI sind wohl zu wenig für den prof. Markt, auch wenn eine 5GB GTX "980" sowie eine 10GB "TITAN II" theor. mögliche Desktop-Konfigurationen wären - aber eben zu wenig, wenn NV mit GK110 bis 12GB anbietet. 384-bit wär Status-Quo und sofern auch eine "980" mit 6GB ausgestattet würde, könnte man auch um den Aufpreis einer "TITAN II" zu rechtfertigen nicht nur auf mehr DP setzen - 12GB sind derzeit aber auch für Enthusiasten ein wenig viel des Guten.

Was natürlich auch möglich wäre für GM200: Man beschneidet das SI (und die ROPs, sofern nicht asynchr.) für Salvage-Parts - wie damals bei GF100/110 oder GT200.
So könnte das dann für GM200 aussehen (Desktop "TITAN/980 Serie" >> Tesla/Quadro):

384-bit (6GB) & 320-bit (5GB) >> 384-bit (12GB) & 320-bit (10GB)
448-bit (7GB) & 384-bit (6GB) >> 448-bit (14GB) & 384-bit (12GB)
512-bit (8GB) & 448-bit (7GB) >> 512-bit (16GB) & 448-bit (14GB)

Mit der Tatsache, dass nun wohl neben 7.0 und 6.0 Gbps auch nach Spekulationen, etwa für den GM204-Top-Dog, bis zu 7.4 Gbps möglich sind, hat man schon mehr Spielraum in Sachen Speicherbandbreite als früher.

mczak
2014-08-19, 15:56:50
Waeren ROPs vom SI entkoppelt wuerde die ROP Mengen nicht unbedingt so aussehen wie heute.
Wobei beim erwähnten gm107 imho die Anzahl ROPs ziemlich ideal ist - der Chip kann 16 Pixel rastern, und der Shader Pixel Export ist 20 Pixel/Takt (im Vollausbau - bei 4 SMM sind's dann auch 16).
Das war bei anderen (insbesondere nvidia) Chips auch schon ganz anders - gk107 z.B. wusste mit seinen 16 ROPs nicht wirklich viel anzufangen (sowohl 8 Pixel/Takt Rasterizer wie auch Shader Export).

AnarchX
2014-08-19, 17:05:54
Das Package von GM200 ist mit 45x45mm genauso groß wie bei GK110/210, was wohl weiterhin für 384-Bit spricht.

edit:
SFCBGA45X45-M53X53-0.8-2397 GUIDE PLATE (GM200/GK210/GK180/GK110), 10101188100
Das spricht wohl sogar für die gleiche Pinzahl.

Ailuros
2014-08-19, 17:45:04
Das Package von GM200 ist mit 45x45mm genauso groß wie bei GK110/210, was wohl weiterhin für 384-Bit spricht.

edit:

Das spricht wohl sogar für die gleiche Pinzahl.

Wenn GM200 einen 512bit bus haette dann waere der 256bit auf GM204 auch ziemlich absurd u.a. Wieso genau soll =/>330GB/s Bandbreite fuer einen GM200 nicht ausreichen genau? Wuerde er um einiges in Leistung dazulegen dann wohl schon.

In der Zwischenzeit werden wir etwas spaeter die "oohs und ahhs" sehen von AMD fuer Zugang zu hoeheren Bandbreiten, welches aber anfangs hauptsaechlich eine Initiative sein wird den Stromverbrauch zu reduzieren. Und danach natuerlich Pascal.....

AnarchX
2014-08-19, 17:50:20
Wenn GM200 einen 512bit bus haette dann waere der 256bit auf GM204 auch ziemlich absurd u.a. Wieso genau soll =/>330GB/s Bandbreite fuer einen GM200 nicht ausreichen genau? Wuerde er um einiges in Leistung dazulegen dann wohl schon.

Für >3 TFLOPs DP?

Ailuros
2014-08-19, 17:53:06
Für >3 TFLOPs DP?

Welche >3 TFLOPs?

Sunrise
2014-08-19, 18:15:33
Ich bin mir ziemlich sicher, dass GM200 kein 512bit Interface haben wird. Man hat sowieso zuwenig Platz auf 28nm, den man für Effizienzsteigerungen und Rohleistung nutzen muss, um da annähernd konkurrenzfähug zu sein. Bei fast identisch großem ASIC wie GK110 kann man das getrost vergessen.

Mal davon ab, dass ich bezweifle, dass man an einem so breiten Interface mit sehr hohen GDDR5-Taktraten fahren kann, ohne dass es sehr stark auf die Energieeffizienz der GPU (Treiber, SerDes... usw.) geht.

Ich sehe da keinen Spielraum für größere Experimente.

Da nutzt man doch lieber Bewährtes und fährt das 384bit Interface voll aus. Den Rest muss die neue Cache-Architektur abfangen. Das wird nichts Ganzes und nichts Halbes, aber bei den Voraussetzungen kann man wohl froh sein, wenn man überhaupt an die 50% Leistungssteigerung zu GM204 rankommt.

Da sollte man einfach mal auf dem Teppich bleiben.

Hübie
2014-08-19, 18:30:14
THIS!

Danke sunrise :) Vor allem letzter Satz, sollte mal von einigen beherzigt werden. Maxwell ist keine Revolution, sondern eine logische Konsequenz aus Tesla, Fermi und Kepler. Bei Pascal bin ich mir noch nicht sicher, aber da könnte man schon mehr in die Richtung gehen. Das ist aber ein anderer Thread.

Leonidas
2014-08-19, 18:49:35
Das wird eher kosmetischer Natur sein ;) So wie die 3505 MHz.

http://abload.de/img/gtx770_defaultqauwi.png (http://abload.de/image.php?img=gtx770_defaultqauwi.png)

:naughty: :freak:




Nur damit ich nicht dumm sterbe: Ist das privater Fake oder woher stammt das? 1536 SE bei GTX 770?

M4xw0lf
2014-08-19, 18:56:17
Nur damit ich nicht dumm sterbe: Ist das privater Fake oder woher stammt das? 1536 SE bei GTX 770?
Hmm? GTX770=GTX680=1536 Shader... oder worüber wunderst du dich? ^^
(Beim Speicher besteht allerdings ein durchaus nicht kosmetischer Unterschied von besagten 3505 bei der 770 zu 3004 bei der 680. Oder es ging darum, warum nicht einfach 3500 und 3000 MHz gewählt wurden.)

Skysnake
2014-08-19, 19:54:41
Wenn GM200 einen 512bit bus haette dann waere der 256bit auf GM204 auch ziemlich absurd u.a. Wieso genau soll =/>330GB/s Bandbreite fuer einen GM200 nicht ausreichen genau? Wuerde er um einiges in Leistung dazulegen dann wohl schon.

In der Zwischenzeit werden wir etwas spaeter die "oohs und ahhs" sehen von AMD fuer Zugang zu hoeheren Bandbreiten, welches aber anfangs hauptsaechlich eine Initiative sein wird den Stromverbrauch zu reduzieren. Und danach natuerlich Pascal.....
512 Bit würde GM200 schon allein deswegen ganz gut stehen, damit man für die großen Quadros und Teslas, auf den gleichen Speicherausbau wie FirePro und XeonPhi kommt. So wird man wohl den einen oder anderen Kunden verlieren, der einfach Speicher in Massen benötigt. Das werden nicht viele sein, aber mal hier und mal dort ein paar verloren, sind unterm Strich dann doch nicht mehr vernachlässigbar.

AnarchX
2014-08-19, 20:43:52
512 Bit würde GM200 schon allein deswegen ganz gut stehen, damit man für die großen Quadros und Teslas, auf den gleichen Speicherausbau wie FirePro und XeonPhi kommt. So wird man wohl den einen oder anderen Kunden verlieren, der einfach Speicher in Massen benötigt. Das werden nicht viele sein, aber mal hier und mal dort ein paar verloren, sind unterm Strich dann doch nicht mehr vernachlässigbar.

Vielleicht sehen wir das bei GM200 @ HPC: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=547198 :D

Hübie
2014-08-19, 21:57:54
Nur damit ich nicht dumm sterbe: Ist das privater Fake oder woher stammt das? 1536 SE bei GTX 770?

Du verwechselst wohl die 670 und 770 ;)

Ailuros
2014-08-20, 08:43:43
512 Bit würde GM200 schon allein deswegen ganz gut stehen, damit man für die großen Quadros und Teslas, auf den gleichen Speicherausbau wie FirePro und XeonPhi kommt. So wird man wohl den einen oder anderen Kunden verlieren, der einfach Speicher in Massen benötigt. Das werden nicht viele sein, aber mal hier und mal dort ein paar verloren, sind unterm Strich dann doch nicht mehr vernachlässigbar.

NV wird erst ernsthaft Kunden verlieren wenn die Unterstuetzung von den anderen beiden fuer professionelle Loesungen und perf/W auf's gleiche Nivaeu kommt.

Intel verkauft ihre Dinger so oder so nur fuer HPC ergo ist es scheissegal wie teuer die Dinger werden, da sie sich keine Sorgen um den desktop Verbraucher machen muessen.

Sonst wird NV wohl NICHT so daemlich sein und den Preis ihrer desktop Loesungen noch weiter zu erhoehen wenn sie gerade dabei sind einzusehen dass sie doch konkurrenzfaehigere Preise brauchen um gegen AMD effektiver zu konkurrieren, eben weil die Verkaufszahlen in letzter Zeit doch nicht so toll aussehen. Die neueste JPR Statistik fuer GPUs ist wohl kein Zufall.

Skysnake
2014-08-20, 09:21:44
Naja, die Zahlen von JPR sind so eine Sache. AMD hatte auch gut verloren.

Wenn sich der aktuelle Trend noch ein halbes Jahr hält, dann muss nVidia was tun, aber aktuell seh ich das noch relativ entspannt als Außenstehender.

Die Frage ist da eh, wie es mit OEM Deals aussieht. Die laufen ja doch etwas länger als ein Quartal.

fondness
2014-08-20, 10:03:14
Ich bin mir ziemlich sicher, dass GM200 kein 512bit Interface haben wird. Man hat sowieso zuwenig Platz auf 28nm, den man für Effizienzsteigerungen und Rohleistung nutzen muss, um da annähernd konkurrenzfähug zu sein. Bei fast identisch großem ASIC wie GK110 kann man das getrost vergessen.

Mal davon ab, dass ich bezweifle, dass man an einem so breiten Interface mit sehr hohen GDDR5-Taktraten fahren kann, ohne dass es sehr stark auf die Energieeffizienz der GPU (Treiber, SerDes... usw.) geht.

Ich sehe da keinen Spielraum für größere Experimente.

Da nutzt man doch lieber Bewährtes und fährt das 384bit Interface voll aus. Den Rest muss die neue Cache-Architektur abfangen. Das wird nichts Ganzes und nichts Halbes, aber bei den Voraussetzungen kann man wohl froh sein, wenn man überhaupt an die 50% Leistungssteigerung zu GM204 rankommt.

Da sollte man einfach mal auf dem Teppich bleiben.

Die Frage ist wie groß GM204 wird. Wird er ähnlich groß wie GK104, also <=300mm² dann sind auch wieder +50% mit GM200 möglich, wird er allerdings tatsächlich Richtung 400mm² sehe ich nicht wo die +50% inkl. DP-Leistung bei GM200 her kommen sollen.

Dural
2014-08-20, 10:08:14
die zahlen sehe ich nicht so ernst, die leute warten auf was neues und ist ja auch normal. alle produkte die derzeit auf den markt sind, sind ja eigentlich uralt, ausser die maxwell produkte. zudem sind wir generell in einer schwachen jahreszeit für grafikkarten.

Ailuros
2014-08-20, 10:23:36
Die Frage ist wie groß GM204 wird. Wird er ähnlich groß wie GK104, also <=300mm² dann sind auch wieder +50% mit GM200 möglich, wird er allerdings tatsächlich Richtung 400mm² sehe ich nicht wo die +50% inkl. DP-Leistung bei GM200 her kommen sollen.

Wenn GM204 in etwa gleich aufliegt wie eine 780Ti, dann hat GM200 sehr wohl sehr gute Chancen ca. 50% vor dem letzten zu liegen. Das "woher" heisst neue Architektur.

Ailuros
2014-08-20, 19:08:57
Mir ist es zugegeben etwas langweilig: http://semiaccurate.com/2014/08/20/bland-title-good-gpu-story-amd-nvidia/

Da tatsaechlich zu viele und dazu manche ziemlich unverschaemt abschreiben, rate ich einfach mal den Inhalt von dem Artikel:

Maxwell ist eine Missgeburt und zu stark auf HPC konzentriert, stop; Fiji kann nicht frueh genug kommen und Maxwell in die siebte Hoelle stampfen, stop; Tegra furzt ab (siehe andere zwei doomsday writeups), NV geht unter, Jensen krepiert an einem Herzinfarkt und die restlichen normale Sterblichen leben froehlich weiter.

Bitte nicht ernst nehmen, ausser man ist ein verzweifelter Abschreiber fuer videocardz oder wccftech (oder wie der Geier das Ding heisst) und sucht vergebens nach Klopa....errrr Material ;D

L233
2014-08-20, 21:26:32
NV geht unter
Schon wieder? ;( Armes nVidia. Ist jetzt schon das 3. oder 4. Mal.

Hübie
2014-08-20, 23:07:18
Haha. Ich hau mich weg ;D
Es scheint aber dieses Mal wirklich so zu sein dass nVidia sich warm anziehen muss wenn Fiji wirklich so ein big die wird wie spekuliert. Da müssten die jetzt über den Preis gehen.

hasebaer
2014-08-20, 23:23:41
Ja gegen Fiji schaut GM200 gerüchtehalber alt aus, dafür muss man aber nicht mal abschreiben, nur updaten. :tongue:
Denn wie dort berichtet wird, kann man Grafikkarten auf Basis des R600Fiji-Chips wohl als den komplexesten 3D-Beschleuniger, der jemals hergestellt wurde, bezeichnen. So wird das verwendete PCB das aufwendigste sein, das man in der Firmengeschichte bislang genutzt hat. [...] Dieses komplexe Layout benötigt man vor allem wegen des angeblich 512 Bit breiten Speicherinterfaces. [...]

Gegen solche Werte würde nVidias GeForce 8800 GTX Titan II mit seinem 384-Bit-Interface natürlich alt aussehen, unterstützt diese im Moment doch „nur“ maximal 768 12 MegaGigabyte Speicher. [...]

Bezüglich des Stromverbrauchs hat sich auch einiges getan. So schreibt The Inquirer, dass die bisherigen Gerüchte, die davon sprachen, dass der R600Fiji bis zu 250 bis 300 Watt konsumieren könnte, schlichtweg falsch seien und wahrscheinlich von nVidia als gezielte Falschinformationen verbreitet sein worden.

- http://www.computerbase.de/2006-11/neue-geruechte-zu-atis-r600-chip/

Effe
2014-08-21, 00:36:17
Schon wieder? ;( Armes nVidia. Ist jetzt schon das 3. oder 4. Mal.
Und wieder ist AMD da weit vorraus, sind sie doch schon 10mal und mehr untergegangen.

Achja, 433.736mm², zumindest von dem Markstück, welches ich gestern beim Edeka gefunden habe.

Skysnake
2014-08-21, 01:15:03
Haha. Ich hau mich weg ;D
Es scheint aber dieses Mal wirklich so zu sein dass nVidia sich warm anziehen muss wenn Fiji wirklich so ein big die wird wie spekuliert. Da müssten die jetzt über den Preis gehen.
Nicht zu früh freuen. Wenn man etwas wagt, um die Konkurrenz so richtig unter Druck zu setzen, kann man auch böse auf die Fresse fallen.

nVidia musste das ja auch schmerzlich erleben, und Intel könnte sich wohl auch mal wieder in absehbarer Zeit in diese Liste eintragen.

Hübie
2014-08-21, 07:19:39
Das sind alles keine Amateure mehr. AMD weiß wie man große Dies herstellt. Nur das mit der Lautstärke is da noch nicht angekommen.
Maxwell wird es nicht leicht haben da einerseits Kepler recht stark vorlegte (man bedenke das Alter) und andererseits AMD seine Strategie in vielen Geschäftsbereichen neu ausrichtet bzw. ausgerichtet hat.

Ich erwarte dennoch dass Maxwell sich in der Metrik Performance pro Watt vor AMDs Karten platzieren wird. DP lass ich da ausser acht da selten gebraucht. Selbst im Profimarkt ist das nicht so oft verwendet wie man glauben mag.

Skysnake
2014-08-21, 08:23:56
Weder bei AMD, noch bei Intel oder nVidia arbeiten Amateure. Egal welchen Chip man sich wohl rauspicken wird von denen, keiner wird komplett durchsimuliert sein.

Das geht einfach nicht mehr bei der heutigen Komplexität. Die Kunst ist halt, das richtige/wichtige zu simulieren, und das unwichtige eben weg zu lassen. damit kann man sich am Ende dann halt doch in die Nesseln setzen.

fondness
2014-08-21, 10:31:07
NV hat mit Maxwell den jahrelangen Rückstand in Perf/mm² und mit Kepler in Perf/Watt aufgeholt bzw. überholt. Und Fiji kann auch nur unwesentlich größer sein als GM200, zudem investiert AMD mehr Transistoren in den professionellen Bereich. Mal Tonga abwarten, aber wenn der bei den Effizienzkriterien nicht mindestens gleich auf liegt mit Maxwell sehen ich wenig Probleme für Nvidia. Fiji wird nicht viel mehr werden wie ein Tonga in groß, kein Hersteller traut sich heute mehr einen Big-Chip zu bringen ohne Testlauf.

Hübie
2014-08-21, 10:48:33
AMD täte gut daran in ein stabiles Ökosystem zu investieren statt in die paar Transistoren für mehr DP - Leistung. Das die Männer und Frauen dort Hardware designen können steht nun wirklich nicht zur Debatte ;)

Dural
2014-08-21, 11:03:15
Ich sehe aber die alten Zeiten wieder kommen, NV geht mit Maxwell wieder Richtung Effizient pro Einheit und bei AMD sehe ich derzeit wieder so viele Einheiten wie möglich pro Fläche.

Eigentlich genau dasselbe wie ab G80 / RV670

Dural
2014-08-21, 11:04:17
@fondness
Perf/Watt war NV mit wenigen Ausnahmen immer vor AMD.

Ailuros
2014-08-21, 11:44:49
NV hat mit Maxwell den jahrelangen Rückstand in Perf/mm² und mit Kepler in Perf/Watt aufgeholt bzw. überholt. Und Fiji kann auch nur unwesentlich größer sein als GM200, zudem investiert AMD mehr Transistoren in den professionellen Bereich. Mal Tonga abwarten, aber wenn der bei den Effizienzkriterien nicht mindestens gleich auf liegt mit Maxwell sehen ich wenig Probleme für Nvidia. Fiji wird nicht viel mehr werden wie ein Tonga in groß, kein Hersteller traut sich heute mehr einen Big-Chip zu bringen ohne Testlauf.

Gehoert zu der Liste auch zufaellig GF110, G71 und andere? Jeder IHV hat seine eigenen Leichen im Keller. Es gibt keinen Grund zu solchen realitaetsfernen Uebertreibungen.

Askingar
2014-08-21, 11:47:31
Ja gegen Fiji schaut GM200 gerüchtehalber alt aus...[/url]
Echt?, hoffen wir mal AMD hat Fiji noch dieses Jahr fertig. Ich glaube nicht...eine 4870 schaut gegen eine 670 ja auch alt aus.

-/\-CruNcher-/\-
2014-08-21, 11:53:01
AMD täte gut daran in ein stabiles Ökosystem zu investieren statt in die paar Transistoren für mehr DP - Leistung. Das die Männer und Frauen dort Hardware designen können steht nun wirklich nicht zur Debatte ;)

Mit Mantle haben sie diesen Schritt ja getan bewusst im Zuge der Convergence mit den Konsolen und das hat ja auch reingehauen und auch TressFX war ein interessanter schritt im Zuge dessen ja auch nötig, nur leider bis auf TombRaider 2013 traut sich einfach keiner einen Schritt weiter zu gehen bis jetzt :)

hasebaer
2014-08-21, 11:55:42
Echt?, hoffen wir mal AMD hat Fiji noch dieses Jahr fertig.
Siehe Main:
http://www.3dcenter.org/news/bringt-amd-mit-fiji-einen-monsterchip-mit-ca-600mm%C2%B2-chipflaeche
http://www.3dcenter.org/news/amd-hat-zwei-neue-highend-grafikchips-vorbereitung-bermuda-fiji
Ich glaube nicht...eine 4870 schaut gegen eine 670 ja auch alt aus.

Keine Ahung was die 4870 mit der 670 zutun haben soll.

Die Gerüchte um Fiji erinnern stark an R600 aka HD 2900 (vs. G80 aka 8800 GTX).

Auf dem Papier sieht GM200 in bezug dazu ähnlich bescheiden aus, wie G80 seiner Zeit zu R600, aber was daraus geworden ist wissen wir.

-/\-CruNcher-/\-
2014-08-21, 12:04:59
Ich würde mal sagen die Chancen stehen nicht schlecht das das in einem Preiskampf im Mainstream/High Segment enden wird zwischen AMD/Nvidia :D

Askingar
2014-08-21, 12:05:25
Ja und die HD2900 war super erfolgreich? Dann schon mal gute Nacht! Kein Wunder das AMD zu Hauf Wasserkühlungen ordert.

Unicous
2014-08-21, 12:19:19
Könnt ihr den Blödsinn mal sein lassen, wir sind hier im Maxwell Thread und nicht im Mimimi-Thread.

hasebaer
2014-08-21, 12:29:32
Ailuros hat damit angefangen ... X-D :ulol:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10322049#post10322049

Ailuros
2014-08-21, 12:33:24
Könnt ihr den Blödsinn mal sein lassen, wir sind hier im Maxwell Thread und nicht im Mimimi-Thread.

http://semiaccurate.com/2014/08/20/bland-title-good-gpu-story-amd-nvidia/

:P

Hübie
2014-08-21, 13:52:31
Mit Mantle haben sie diesen Schritt ja getan bewusst im Zuge der Convergence mit den Konsolen und das hat ja auch reingehauen und auch TressFX war ein interessanter schritt im Zuge dessen ja auch nötig, nur leider bis auf TombRaider 2013 traut sich einfach keiner einen Schritt weiter zu gehen bis jetzt :)

Ich bezog mich zu 99% auf den Profimarkt. Und mit Mantle hat man sich noch lange kein Ökosystem geschaffen. Das befindet sich bestenfalls im Aufbau. Warum du die paar codezeilen von TressFX erwähnst leuchtet mir nicht ein ;)
Schau dich mal bei nVidia um mit welchen Agenturen die zusammenarbeiten und in welchen Bereichen die schon ein Fuß in der Tür haben. Ich bin mir ziemlich sicher dass jeder der TV schaut zu 70% mit nVidia gerenderte Animationen sieht. Das meine ich mit Ökosystem. Denn da wird Geld generiert.

yamo
2014-08-27, 14:19:32
Nach euren (offenbar sehr realistischen) Schätzungen dürfte GM204 max. 10% über GK110 liegen.
GM200 max. 50% (eher weniger) für anvisierte Titanpreise.
16nm global für 2/2015 für GPU angesetzt, wo sind Eure Einschätzungen?

Dural
2014-08-27, 14:33:43
NV hat es ja schon selber gesagt: GP100 ab Anfang 2016.

Und dieser Termin ist garantiert nur wenn nichts da zwischen kommt, als ich würde von min. Mitte 2016 ausgehen ;) :wink:

Unicous
2014-08-27, 14:48:56
Nach euren (offenbar sehr realistischen) Schätzungen dürfte GM204 max. 10% über GK110 liegen.
GM200 max. 50% (eher weniger) für anvisierte Titanpreise.
16nm global für 2/2015 für GPU angesetzt, wo sind Eure Einschätzungen?

Was hat das eine mit dem anderen zu tun?

Und was für Einschätzungen? Wie hoch das Volumen für 16nmFF ist? Oder wie gut der Prozess ist?

Und woher hast du das mit GPUs für "2/2015"? Meinst du 2.Halbjahr?

Du musst schon ein wenig konkreter werden.

Awrack
2014-08-29, 11:19:48
Nvidia GeForce GTX 900 statt GTX 800 und ab 19 September

http://www.computerbase.de/2014-08/nvidia-geforce-gtx-900-statt-gtx-800/

Dural
2014-08-29, 11:21:17
wo bleiben den die 800er OEM Karten? :wink:

hasebaer
2014-08-29, 11:38:45
GTX 999 statt Titan II hätte was. :D

Thunder99
2014-08-29, 12:06:45
Schon krass wie die OEM´s ihre Macht durchdrücken. "Wollen immer was neues" . Im Notebook hätte auch eine GTX885 gelangt aber es muss ja wieder 9xx sein...

Namen sind aber wie jeder weiß Schall und Rauch. Nur wird es aber wahrscheinlicher das der GM200 als 990 oder Titan erscheint. Die Dual Lösung evt als 995 oder 999? :ugly:

Interessant wird auf jeden Fall wie sie ihr neues Namensschema nennen werden, nach GTX 9xx. Geforce ist als Markennamen zu wichtig um diesen fallen zu lassen.

N0Thing
2014-08-29, 14:26:21
wo bleiben den die 800er OEM Karten? :wink:




Die Tatsache, dass Nvidia die aktuellen Produkte für Notebooks auf „Kepler“-Basis bereits seit März 2014 als GTX 800M vermarktet, spricht für dieses Gerücht.

Also wie in den letzten Jahren auch. Spricht ja auch nichts dagegen, daß bis zum Frühjahr 2015 noch die eine oder andere 800er dazu kommen wird. ;)

Blediator16
2014-08-29, 14:38:37
Schon krass wie die OEM´s ihre Macht durchdrücken. "Wollen immer was neues" . Im Notebook hätte auch eine GTX885 gelangt aber es muss ja wieder 9xx sein...

Namen sind aber wie jeder weiß Schall und Rauch. Nur wird es aber wahrscheinlicher das der GM200 als 990 oder Titan erscheint. Die Dual Lösung evt als 995 oder 999? :ugly:

Interessant wird auf jeden Fall wie sie ihr neues Namensschema nennen werden, nach GTX 9xx. Geforce ist als Markennamen zu wichtig um diesen fallen zu lassen.

Du glaubst garnicht wieviel unglaublich unwissende Menschen es gibt. Es ist schlicht krank, wie manche denken, dass eine 880M besser ist als eine gtx780. Glaub mir es gibt so viele Menschen, die meinen weil es ein Origin oder Alienware Laptop ist, dass diese 880m das non plus ultra ist.

Raff
2014-08-29, 14:41:03
That's marketing. ;) Und das passiert nur, weil Leute zu faul sind, sich zu informieren. IMO haben's solche eigentlich gar nicht besser verdient. Das gilt überall im Leben: Wer den schnellen Weg ohne Infos nimmt, wird an jeder Ecke gnadenlos ausgenommen. :(

MfG,
Raff

Unicous
2014-08-29, 15:00:58
Was ist denn das für eine neoliberale Einstellung?

Bist du auch dafür, dass das Verbraucherministerium abgeschafft wird, weil sich die Kunden gefälligst selbst informieren können, was für künstliche Zusätze sie in ihren Nahrungsmitteln finden können oder ob ihr Rasierer nach zu langem Gebrauch explodiert(um mal ein wenig Polemik in die Sache zu bringen)?

Mir persönlich könnte es nicht egaler sein, wie sie die Dinger nennen weil ich weiß was in der Verpackung steckt. D.h. aber nicht, dass Otto von nebenan das auch machen muss. In der EU gibt es theoretisch auf die Finger, wenn du die Verpackung gleichlässt aber den Inhalt veränderst. Nichts anderes geschieht hier, bzw. es wird zudem noch suggeriert, das Produkt wäre "neu".

Transparenz ist eine "coole Sache" und hat etwas mit Kundenfreundlichkeit zu tun. Dass Dell, HP und Co. und schließlich Nvidia, AMD und auch Intel es mit Transparenz und Ehrlichkeit nicht so ernst nehmen mag mit den amerikanischen Geschäftsgebahren zusammenhängen, man muss aber nicht den uninformierten Kunden ob seiner Unwissenheit verhöhnen, nur weil er sich nicht jahrelang mit der Thematik beschäftigt hat und nur einen Computer kaufen will. Du als Redakteur müsstest das am Besten wissen, denn das Spektrum der Leserschaft ist sicherlich weit gefächert.

Gemeinhin nennt man so etwas versuchte Täuschung.

Raff
2014-08-29, 15:03:21
Du als Redakteur müsstest das am Besten wissen, denn das Spektrum der Leserschaft ist sicherlich weit gefächert.

Mein Posting oben war bewusst spitz formuliert, der Gegenwind damit programmiert. :D Sieh's mal so: Ich verdiene meine Brötchen damit, Leute zu informieren und finde es daher gut, wenn nicht alles idiotensicher bzw. offensichtlich ist.

MfG,
Raff

Unicous
2014-08-29, 15:08:45
Also bist du nicht nur Meister im Click-Baiting sondern auch im Comment-Baiting.
:mad:

Du bist ja schlimmer als Nvidia, AMD und Intel zusammen.



:uban:

Raff
2014-08-29, 15:16:44
Man tut, was man kann. :ulol:

/spam

MfG,
Raff

-/\-CruNcher-/\-
2014-08-29, 15:25:54
Was ist denn das für eine neoliberale Einstellung?

Bist du auch dafür, dass das Verbraucherministerium abgeschafft wird, weil sich die Kunden gefälligst selbst informieren können, was für künstliche Zusätze sie in ihren Nahrungsmitteln finden können oder ob ihr Rasierer nach zu langem Gebrauch explodiert(um mal ein wenig Polemik in die Sache zu bringen)?

Mir persönlich könnte es nicht egaler sein, wie sie die Dinger nennen weil ich weiß was in der Verpackung steckt. D.h. aber nicht, dass Otto von nebenan das auch machen muss. In der EU gibt es theoretisch auf die Finger, wenn du die Verpackung gleichlässt aber den Inhalt veränderst. Nichts anderes geschieht hier, bzw. es wird zudem noch suggeriert, das Produkt wäre "neu".

Transparenz ist eine "coole Sache" und hat etwas mit Kundenfreundlichkeit zu tun. Dass Dell, HP und Co. und schließlich Nvidia, AMD und auch Intel es mit Transparenz und Ehrlichkeit nicht so ernst nehmen mag mit den amerikanischen Geschäftsgebahren zusammenhängen, man muss aber nicht den uninformierten Kunden ob seiner Unwissenheit verhöhnen, nur weil er sich nicht jahrelang mit der Thematik beschäftigt hat und nur einen Computer kaufen will. Du als Redakteur müsstest das am Besten wissen, denn das Spektrum der Leserschaft ist sicherlich weit gefächert.

Gemeinhin nennt man so etwas versuchte Täuschung.

Wie wird das wohl erst nach TTIP aussehen auch für Raff und Co ;)

mustrum
2014-08-29, 17:45:33
Egal wie sie heißt, Hauptsache schnell. Das Oculus Rift dk2 bringt meine r9 290 an ihre Grenzen.

Unicous
2014-08-29, 23:58:01
Hey vllt. gibt es ja doch eine 800er Series.

Added preliminary support of NVIDIA GeForce GTX 870 and 880 (GM204).
http://www.hwinfo.com/forum/Thread-HWiNFO32-and-HWiNFO64-v4-43-2295-Beta-released

:freak:

Nakai
2014-08-30, 00:17:24
Ich bin zwar ziemlich lädiert, aber das riecht nach OEM-Serie.^^:freak:

Unicous
2014-08-30, 00:20:44
Das wäre größtmöglich bescheuert von Nvidia und daher denke ich eher das hwinfo entweder Recht hat oder eben nicht und die Einträge auf Grund der letzten "Infos" gemacht hat. :wink:

Ich glaube eher Zweiteres.:tongue:

N0Thing
2014-08-30, 00:22:33
Ich bin zwar ziemlich lädiert, aber das riecht nach OEM-Serie.^^:freak:

Oder reine Vermutungen, unter welchem Namen der GM204 vermarktet wird. ;)

boxleitnerb
2014-08-30, 08:11:43
Es wäre sinnvoll, wenn man endlich mal den Schritt ginge und Mobil- und Desktopchipnamen synchronisiert. Wie will man das sonst machen?

Leonidas
2014-08-30, 10:02:11
Kann auch sein, daß die Entscheidung pro GeForce 900 Serie einfach kurzfristig war und daher bislang alle Infos in Richtung GeForce 800 Serie gingen.

AnarchX
2014-08-30, 10:07:57
Da wird es spätestens 2015 interessant, wie man die GM200 "Non-Titan" Karten nennen will.

Grundsätzlich sollte ja schon eine GTX 990 (2xGM204) noch 2014 möglich sein, wenn man hier auf das GTX 690 PCB zurückgreift.

fondness
2014-08-30, 10:25:42
Interessant wird vor allem wann GM200 kommt. GM204 dürfte nicht viel mehr als eine GTX780 Ti +~10% werden wie schon weiter hinten bemerkt.

AnarchX
2014-08-30, 10:31:32
Interessant wird vor allem wann GM200 kommt. GM204 dürfte nicht viel mehr als eine GTX780 Ti +~10% werden wie schon weiter hinten bemerkt.
Sofern NV genügend Kapazitäten bekommt, wäre wohl ein Launch zum Jahreswechsel durchaus denkbar: vom CS0 Sample bis zum Launch waren es bei GM204 wohl ca. 3 Monate, das CS0 von GM200 wurde bei Zauba in August gelistet.
Vielleicht auch der Grund, weshalb es bei Zauba noch keine Dual-GM204 Samples gab.
Grundsätzlich wäre eine Dual-GM204 mit vielleicht knapp GTX 780 Ti SLI Leistung in 300W TDP und 2x4GiB eine durchaus attraktive SKU.
Aber wenn man GM200 zeitnah zur Verfügung hat und diesen vielleicht gar noch auf dem Titan Z PCB nutzen kann, wäre das natürlich nicht notwendig.

Der Sandmann
2014-08-30, 10:34:07
Was glaubt ihr wo sich die 960 und 960ti einordnen werden? Nur 192 bit gegen 256bit der 760. Und die gibt es für 200€.

AnarchX
2014-08-30, 10:36:52
Was glaubt ihr wo sich die 960 und 960ti einordnen werden? Nur 192 bit gegen 256bit der 760. Und die gibt es für 200€.
GM204 hat ja auch "nur" 256-Bit gegen die 384-Bit von GK110B.
Bei 192 vs 256 wäre der Unterschied kleiner und denkbar dass es 7Gbps werden, wo die 760 nur 6Gbps GDDR5 nutzt.
Durchaus denkbar, dass eine "GTX 960" wohl knapp unter GTX 680 landet.

Aber von GM206 gibt es bisher noch kein Spur, außer einem Eintrag in einer CUDA DLL. Entweder wird dieser noch nicht gefertigt oder vielleicht nicht in Asien?

Mal sehen wie NV hier auf die R9 285 bzw. 285X reagieren wird. Vielleicht kommt ja noch eine GTX 760 Ti (aka GTX 670) für Retail um sich besser zu positionieren.

AffenJack
2014-08-30, 10:45:20
Ich glaube nicht, dass wir GM200 so schnell im consumermarkt sehen werden. Erstmal dürfte der prof. Markt versorgt werden und dann vielleicht Ende Q1 dann der Consumermarkt. Ich kann mir auch vorstellen, dass Nv erstmal wartet bis man genug Infos über Fijis Leistungsfähigkeit hat. Starker Fiji -> 2 GM200 Karten im "normalen" Preisbereich, schwacher Fiji -> nur Salvagepart als 880TI oder so und voller GM200 nur für Titan2

Sunrise
2014-08-31, 09:49:21
Ich glaube nicht, dass wir GM200 so schnell im consumermarkt sehen werden. Erstmal dürfte der prof. Markt versorgt werden und dann vielleicht Ende Q1 dann der Consumermarkt. Ich kann mir auch vorstellen, dass Nv erstmal wartet bis man genug Infos über Fijis Leistungsfähigkeit hat. Starker Fiji -> 2 GM200 Karten im "normalen" Preisbereich, schwacher Fiji -> nur Salvagepart als 880TI oder so und voller GM200 nur für Titan2
Zumindest von der Ausbeute aus gesehen sollte es bei 28nm absolut keine Probleme mehr geben, das Teil aus allen Rohren voll in den Markt zu drücken. Ebenso verdient NV auch im Consumermarkt ordentlich, wenn wieder Titanpreise angesetzt werden. GK110 wird schlichtweg überflüssig werden, sobald GM200 produktionsreif ist, dafür spricht auch die spekulierte Die-Size.

Das Ding wird wieder verkauft wie verrückt, es hatten auch sehr viele von GK104 auf GK110 gewechselt und durch die niedrigere TDP wird es wohl viel Spielraum für die Partnerkarten nach oben geben.

Dass mindestens zwei Varianten von GM200 kommen werden ist klar, das kann aber evtl. etwas dauern, da man sich den vollen gut bezahlen lassen möchte.

Wird natürlich interessant werden wie stark Fiji dann wirklich ist.

HOT
2014-08-31, 10:09:51
Ich glaube nicht, dass wir GM200 so schnell im consumermarkt sehen werden. Erstmal dürfte der prof. Markt versorgt werden und dann vielleicht Ende Q1 dann der Consumermarkt. Ich kann mir auch vorstellen, dass Nv erstmal wartet bis man genug Infos über Fijis Leistungsfähigkeit hat. Starker Fiji -> 2 GM200 Karten im "normalen" Preisbereich, schwacher Fiji -> nur Salvagepart als 880TI oder so und voller GM200 nur für Titan2

Hm, also
GTX960 = GM206 192 Bit 1280 Shader voll
GTX970 = GM204 256 Bit 1612 Shader salvage
GTX980 = GM204 256 Bit 1920 Shader voll
GTX980 ti = GM200 384 Bit ~ 2600 Shader salvage
Titan II = GM200 384 Bit ~ 2800 Shader voll

GM107 28nm HP TSMC vs. Iceland 28nm SHP GloFo
GM206 28nm HPM TSMC vs. Tonga 28nm SHP GloFo
GM204 28nm HPM vs. Bermuda/Maui 28nm HPM
GM200 28nm HPM vs. Fiji 28nm HPM

AnarchX
2014-08-31, 10:27:23
GM206 28nm HPM TSMC vs. Tonga 28nm SHP GloFo

Ob das noch so sicher ist, nachdem man GM206 bisher noch kein Lebenszeichen bei Zauba gesehen hat. Wenn er jetzt mit ersten Samples auftauchen würde, wäre wohl der Launch erst Anfang 2015. Vielleicht gibt es da auch eine Überraschung bzgl. Prozess oder gar Fertiger.

edit:
Oder ist das vielleicht GM206:
INTEGRATED CIRCUIT PI-FCBGA (ELF) (35*35) 1428 DEVICE:JIAQ1 LOT NO: T6B462.0021 S.PN : 3G3535B

INTEGRATED CIRCUIT PI-FCBGA (ELF) (35*35) 1428 DEVICE:JIAQ1 LOT NO : T6B462.002 S.PN : 3G3535B


Bis auf den fehlenden GM2xx Device-Name ähnelt dass doch sehr den bisherigen NV-Frachtdaten. Und mit ~$100 pro Chip wäre das auch im Rahmen einer GPU und die 35x35 mm die Größe des GK106 Packages.

MasterElwood
2014-09-01, 10:01:03
was wird wahrscheinlich besser von preis/leistung her:

960er
970er

oder doch besser er 770 für (momentan) 270 Euro?

Hübie
2014-09-01, 10:02:23
770 schon mal nicht. Das ist ein 225$-Produkt. Die anderen können wir doch gar nicht bewerten.

HOT
2014-09-01, 12:02:05
Gegenüber den 280X sind die 770er sehr überteuert finde ich. Man darf ja dabei auch nicht vergessen, dass die 280X 1GB RAM mehr haben und die 4GB-Varianten sind ja noch teurer...

Effe
2014-09-01, 14:36:50
Tobi kann Dir bestimmt haarklein erklären, warum die GTX noch fast zu günstig im Vergleich ist.

Knuddelbearli
2014-09-01, 16:48:35
au ja Märchenstunde!

-/\-CruNcher-/\-
2014-09-01, 18:20:58
was wird wahrscheinlich besser von preis/leistung her:

960er
970er

oder doch besser er 770 für (momentan) 270 Euro?

Naja wenn die 970 bei 300€ liegen wird ist das noch ziemlich akzeptable und sie hatt ja wenn die daten stimmen reichlich power :)

der damalige GTX 460 preis lag bei 280€ und jetzige noch bei 200€~250€ für die GTX 760

wenn die 960 bei 250€ landet muss sie direkt gegen die 285 Ran :)

Die 970er wird wohl so ziemlich jede momentane AMD karte bei dem Preis in den boden stampfen was Perf/Watt angeht in so gut wie allen Scenarios :)

AnarchX
2014-09-01, 19:03:22
edit:
Oder ist das vielleicht GM206:


Bis auf den fehlenden GM2xx Device-Name ähnelt dass doch sehr den bisherigen NV-Frachtdaten. Und mit ~$100 pro Chip wäre das auch im Rahmen einer GPU und die 35x35 mm die Größe des GK106 Packages.

Sieht wohl ganz danach aus. Am 11. August wurden wohl auch Teile des Kühlsystems für die Prototypen verschickt: https://www.zauba.com/import-fcbga35x35-hs-code.html

Auf jeden Fall gibt es wohl nun keine Codenamen mehr in den Frachbriefen.

Knuddelbearli
2014-09-01, 19:58:58
Naja wenn die 970 bei 300€ liegen wird ist das noch ziemlich akzeptable und sie hatt ja wenn die daten stimmen reichlich power :)

der damalige GTX 460 preis lag bei 280€ und jetzige noch bei 200€~250€ für die GTX 760

wenn die 960 bei 250€ landet muss sie direkt gegen die 285 Ran :)

Die 970er wird wohl so ziemlich jede momentane AMD karte bei dem Preis in den boden stampfen was Perf/Watt angeht in so gut wie allen Scenarios :)


oder was viel wahrscheinlicher ist NV last die €uro pro Leistung preise genau so wie jetzt und GM204 4GB wird wenn er schneller ist als 780TI für 550€ gesetzt

Timbaloo
2014-09-01, 20:01:38
So langsam sollten doch mal ein paar Leaks kommen. Irgendwie fad. Interessiert doch keine Sau ob das Ding 8xx oder 9xx heisst, und der Preis wird sich an der gegebenen Leistung richten. Da ist ZDF Sommergarten ja ein Thriller dagegen...

dildo4u
2014-09-01, 20:39:32
Nvidia PC Gameing Event am 18.9,passt ja zeitlich zu den bisherigen Gerüchten.

http://game24.nvidia.com/#/info

Godmode
2014-09-01, 20:43:51
Nvidia PC Gameing Event am 18.9,passt ja zeitlich zu den bisherigen Gerüchten.

http://game24.nvidia.com/#/info

Dann gibts wohl auch bald Leaks. :smile:

Der Winter kommt und ich hätte wieder mal Lust auf was neues. Haswell-E + Maxwell würde mich schon reizen...

Kriton
2014-09-01, 20:45:58
Die 970er wird wohl so ziemlich jede momentane AMD karte bei dem Preis in den boden stampfen was Perf/Watt angeht in so gut wie allen Scenarios :)

Moment, ich konsultiere mal meinen Kaffeesatz im Vergleich zu Deinem...
...Nein! :eek:

PS: Ich beziehe mich ausdrücklich auch auf "bei dem Preis".

Godmode
2014-09-01, 20:49:02
Die 970er wird wohl so ziemlich jede momentane AMD karte bei dem Preis in den boden stampfen was Perf/Watt angeht in so gut wie allen Scenarios :)

Und AMD bringt nichts neues oder was? :rolleyes:

aufkrawall
2014-09-01, 20:50:05
Edit: Ah, Quatsch. Sorres...

dildo4u
2014-09-01, 20:50:05
Und AMD bringt nichts neues oder was? :rolleyes:
Die 290 ist zu neu 2014 kommt da nix mehr im Bereich um 300€.

GTX 770 kam im Mai 2013 daher braucht die dringend ein Nachfolger.
http://www.computerbase.de/2013-05/nvidia-geforce-gtx-770-test/

Unicous
2014-09-01, 20:52:42
Ich würde nicht den Atem anhalten. Bei so einem Event etwas Neues vorzustellen macht natürlich Sinn, aber irgendwie hört sich das eher nach "Wir machen eine große, simultane LAN-Party" als nach Produktvorstellung an.

Godmode
2014-09-01, 21:01:35
Ich würde nicht den Atem anhalten. Bei so einem Event etwas Neues vorzustellen macht natürlich Sinn, aber irgendwie hört sich das eher nach "Wir machen eine große, simultane LAN-Party" als nach Produktvorstellung an.

Für Back2School würde das halt optimal passen.

Die 290 ist zu neu 2014 kommt da nix mehr im Bereich um 300€.

GTX 770 kam im Mai 2013 daher braucht die dringend ein Nachfolger.
http://www.computerbase.de/2013-05/nvidia-geforce-gtx-770-test/

Bin momentan nicht auf dem Laufenden, aber kommt von AMD nicht bald Tonga oder so?

Dawn on Titan
2014-09-01, 21:51:15
Tonga und mehr. Ich verstehe den Hype sowieso nicht. Außer weniger irren Preisen pro FPS sollte man bei beiden keine Wunder erwarten

dildo4u
2014-09-01, 21:53:48
Für Back2School würde das halt optimal passen.



Bin momentan nicht auf dem Laufenden, aber kommt von AMD nicht bald Tonga oder so?Tonga kommt Morgen in der Form der 285,die die 280 ablöst.Also Karten im Bereich um 200€.

Schaffe89
2014-09-01, 22:01:14
Die 285x wird sicher im Bereich von 200 bis 300 kommen.
Irgendwie siehst du alles ein bisserl pro Nvidia wa?

Wahrscheinlich wartet AMD mit der 285x bis Nvidia Maxwell bringt und wird die Karte vermutlich gegen eine GTX 970 positionieren.

dildo4u
2014-09-01, 22:04:33
Die 285x wird sicher im Bereich von 200 bis 300 kommen.
Irgendwie siehst du alles ein bisserl pro Nvidia wa?
Es gibt keine 285X vermutlich weil AMD eine solche Karte nicht mit 256Bit Interface und 2GB Ram verkaufen will.Laut AMD Folie deckt die 280X den Bereich über 285 ab.

http://cdn.wccftech.com/wp-content/uploads/2014/08/AMD-Radeon-R9-285-Price.jpg

Unicous
2014-09-01, 22:06:39
Warum sollte AMD auf einer Folie eine unangekündigte SKU einpflegen.

Merkste was?


Die 285X wird kommen, brauchst nicht andauernd FUD verbreiten.:rolleyes:

dildo4u
2014-09-01, 22:07:32
Warum sollte AMD auf einer Folie eine unangekündigte SKU einpflegen.

Merkste was?


Die 285X wird kommen, brauchst nicht andauernd FUD verbreiten.:rolleyes:
Mit 2GB und PS4 Bandbreite? :lol:.

N0Thing
2014-09-01, 22:16:22
Wann hat AMD überhaupt zuletzt eine Grafikkarte mit teildeaktiviertem Chip gebracht und erst später eine weitere mit dem komplett freigeschalteten Chip?

dildo4u
2014-09-01, 22:22:19
Muss lange her sein 5870 kam vor 5850 alles danach kam zu erst als kompletter Chip bzw zusammen.(6950/6970)

Hübie
2014-09-01, 22:29:28
Vor allem frage ich mich dann warum man nur den Salvage-part ankündigt. Sehr sinnig in dem Segment bei diesen yieldrates :rolleyes:

Unicous
2014-09-01, 22:39:00
Abverkauf.

Verstehe nicht was daran so schwer zu verstehen ist.

Tonga scheint schon eine Weile auf Halde zu stehen (viele Gerüchte haben darauf hingewiesen außerdem gibt es zum Start wohl fast nur Custom Designs). Die Produktion der 280/X werden sie endlich einstellen und den Rest verfüttern. 28nm FTW.

Jetzt zu behaupten, es gäbe keine 285X, obwohl es zig Hinweise gibt, und das auch noch im Maxwell Thread, ist Blödsinn.

fondness
2014-09-01, 22:39:02
Weil man noch 280x zu verkaufen hat.

AnarchX
2014-09-01, 22:47:46
Es wird interessant sein, ob NV diesen 13 SMX GM204 preislich nah - <300€ - zu Tonga Pro/XT positionieren wird oder ob man da nochmal einen GK104 aufmotzt.

Kriton
2014-09-01, 22:52:35
Mit 2GB und PS4 Bandbreite? :lol:.

Warum nicht einfach 4 GB?

hasebaer
2014-09-01, 22:54:01
Ein Tonga XT (Vollausbau) wird primär als R7 370X geplant sein.
Das Intermezzo als R9 285X wird gegen einen ersten Salvage GM204 nicht bestehen (ob jetzt GTX870 oder als GTX970), denn dieser wird knapp über der aktuellen GTX 780 non-Ti landen und sei es nur um +/- 3%.

Für den GTX770 Ersatz, würde ich entweder einen 2. GM204 Salvage oder GM206 Vollausbau erwarten.

Unicous
2014-09-01, 23:00:46
Und warum gibt es dann schon 295MX Einträge mit TongaXT Specs? Warum kann man nicht einfach davon ausgehen, dass TongaXT etwas später kommt, aus Gründen die wir nicht vollständig erfassen können, weil wir weder bei AMD arbeiten, noch Einsicht in ihre Finanzen, Inventar Marketingstrategie etc. haben.

Und warum wird das nicht im entsprechenden Thread diskutiert?

-/\-CruNcher-/\-
2014-09-01, 23:23:19
Die Frage des Release wird sein wie früh vor dem Witcher 3 release will Nvidia mit dem Verkauf beginnen abgesehen von der 750/TI das bundle mit Witcher 3 wäre eine Option für einen früheren Verkauf ;)

Tesselated Ocean Simulation = Compute (GPU)
Nvidia Hairworks = Compute (GPU)
Apex Nvidia Physix = Compute (GPU)
TXAA = Hardware

Schaffe89
2014-09-01, 23:46:49
Und warum gibt es dann schon 295MX Einträge mit TongaXT Specs? Warum kann man nicht einfach davon ausgehen, dass TongaXT etwas später kommt, aus Gründen die wir nicht vollständig erfassen können, weil wir weder bei AMD arbeiten, noch Einsicht in ihre Finanzen, Inventar Marketingstrategie etc. haben.

Und warum wird das nicht im entsprechenden Thread diskutiert?

Die 280 ist Salvage, die 280x ist der volle Chip.
Insofern wird die 280 als erstes ersetzt, weil man den teuren Tahiti Chip ja kastrieren muss.
Danach wird abgewartet was Nvidia macht und AMd bringt den 285x Vollausbau.

Blediator16
2014-09-01, 23:54:51
Die Frage des Release wird sein wie früh vor dem Witcher 3 release will Nvidia mit dem Verkauf beginnen abgesehen von der 750/TI das bundle mit Witcher 3 wäre eine Option für einen früheren Verkauf ;)

Tesselated Ocean Simulation = Compute (GPU)
Nvidia Hairworks = Compute (GPU)
Apex Nvidia Physix = Compute (GPU)
TXAA = Hardware

Der Kram wird auf den "normalen" Karten sowieso nicht laufen. Unter SLI 780 ist da sicher nix zu holen.

-/\-CruNcher-/\-
2014-09-02, 00:12:36
Das wird ja die Frage sein wieviel effizienter der neue Maxwell Compute Ansatz nun ist gegenüber Kepler und ab wann er nun einsetzt und ob Mainstream/Performance aussreichend ist ;)

Ziemlich viele Mainstream/Performance Kepler sollten wegbrechen die fragen der Frage ist ja ab wann kann Maxwell stabil sein vor allen wenn so viel aufeinandertrifft zusammen mit dem Rendering und dem CPU overhead auf DX11 ;)

Hab das Tesselated Terrain ganz vergessen das kommt ja auch noch hinzu da werden Nvidia user wohl den slider ein paar mm weiter nach oben schieben können

In wie weit Huddy bei The Witcher 3 sturm laufen wird werden wir ja auch noch erleben (innerlich bereitet er sich wohl schon drauf vor) ;)

boxleitnerb
2014-09-02, 07:02:10
Mich würde mal interessieren, warum es um das Compute immer so einen Rummel gibt. Im Endeffekt hat es Kepler doch in praktisch keinem einzigen Spiel geschadet, dass er in meist synthetischen Benchmarks gegen AMDs Karten oft hoch verliert. Ich weiß ja nicht was ihr so macht, aber Benchmarks spiele ich eigentlich nicht :wink:
Wie das in den nächsten 2 Jahren aussehen wird, weiß man natürlich nicht, aber ich bin mir ziemlich sicher, dass man die synthetischen Benchmarks für Aussagen bzgl. realer Spiele auch weiterhin komplett in die Tonne kloppen kann.

BigKid
2014-09-02, 10:28:16
Mich würde mal interessieren, warum es um das Compute immer so einen Rummel gibt. Im Endeffekt hat es Kepler doch in praktisch keinem einzigen Spiel geschadet, dass er in meist synthetischen Benchmarks gegen AMDs Karten oft hoch verliert. Ich weiß ja nicht was ihr so macht, aber Benchmarks spiele ich eigentlich nicht :wink:
Wie das in den nächsten 2 Jahren aussehen wird, weiß man natürlich nicht, aber ich bin mir ziemlich sicher, dass man die synthetischen Benchmarks für Aussagen bzgl. realer Spiele auch weiterhin komplett in die Tonne kloppen kann.
Mir fällt da schon ein Grund ein wieso das geschadet haben könnte...
Spiele-Entwickler schauen schon dass ihre Spiele auf aktueller Hardware vernünftig laufen - also greift hier der kleinste gemeinsame Nenner.
Mal abgesehen davon, dass wir erst jetzt durch die neuen Konsolen wieder einen echten Sprung sehen. Das meiste sind ja eh Ports...

HOT
2014-09-02, 13:07:17
EDIT: Nach den neuen Daten ist Tonga einfach nur ein Tahiti-Upgrade. Dann wird bald sicherlich auch TongaXT folgen und gegen den GM206 antreten. Dann wird sicherlich Hawaii Rev.B alias Maui gegen den GM204 antreten und später dann Fiji die 300-Serie begründen.

N0Thing
2014-09-02, 15:54:54
Muss lange her sein 5870 kam vor 5850 alles danach kam zu erst als kompletter Chip bzw zusammen.(6950/6970)

Okay, bei der 5870 war dann sogar der volle Chip zuerst im Markt, bei der R285 wäre es dann genau anders herum.

Mich würde mal interessieren, warum es um das Compute immer so einen Rummel gibt. Im Endeffekt hat es Kepler doch in praktisch keinem einzigen Spiel geschadet, dass er in meist synthetischen Benchmarks gegen AMDs Karten oft hoch verliert. Ich weiß ja nicht was ihr so macht, aber Benchmarks spiele ich eigentlich nicht :wink:
Wie das in den nächsten 2 Jahren aussehen wird, weiß man natürlich nicht, aber ich bin mir ziemlich sicher, dass man die synthetischen Benchmarks für Aussagen bzgl. realer Spiele auch weiterhin komplett in die Tonne kloppen kann.

Liegt vermutlich daran, daß das grüne Lager mit Fermi (DX11 done right) so sehr auf den Compute-Fähigkeiten herum geritten hat und anhand von Metro 2033 das Ende von AMD herauf beschworen wurde.
Da denken sich jetzt vielleicht welche im AMD-Lager, was damals recht war ist auch heute noch gut. ;)

Wie blödsinnig solche Lagerkämpfe sind, sieht man ja immer wieder schön an den Benchmarks, die in den nächsten 1-2 Jahren nach Release erstellt werden. Weder die Compute-Schwäche von GK104 gegenüber GF110 ist in Spielen ein relevanter Faktor, noch die Tessellation-Schwäche bei Tahiti.

Gleiches wird auch für Maxwell und andere Architekturen gelten.

-/\-CruNcher-/\-
2014-09-02, 18:56:51
Sö blödsinnig sind die nicht sie treiben die preise Runter und lassen Nvidia nicht viel Spielraum nur eine Entscheidung Richtung Enthusiasten zu treffen sondern sie müssen im Mainstream kontern.

Es ist daher sehr wahrscheinlich das sie die 770 GTX ablösen und mit einer Maxwell version konntern werden und das relativ früh das announcement ist ja auf dieser Game24 Show :)

Hübie
2014-09-02, 19:39:51
Geht das auch auf deutsch, -/\-CruNcher-/\-? Ich verstehe nicht mal die Kernaussage richtig.

Unicous
2014-09-02, 21:13:25
Das ist vergebene Liebesmüh. Manchereiner !sic kann einfach keine zusammenhängenden, in sich schlüssige, Sätze bilden.

ndrs
2014-09-02, 23:20:18
Er redet halt ohne Punkt und Komma. Nur nicht so, wie das sprichwörtlich eigentlich gemeint ist :)

Ailuros
2014-09-03, 10:53:38
Wer seine Posts lesen will schoen und gut; sonst ueberfliegt sie einfach denn ich hab wirklich nicht die Zeit und Lust jeglichen seiner Posts durchzulesen um zu sehen ob er irgendwie und irgendwo Sinn und wie randmaessig genau es ueberhaupt einen Zusammenhang zum eigentlichen Thema giebt. Unter normalen Umstaenden sing ich auch nicht zu elevator music mit ;)

Godmode
2014-09-03, 11:07:59
Wer seine Posts lesen will schoen und gut; sonst ueberfliegt sie einfach denn ich hab wirklich nicht die Zeit und Lust jeglichen seiner Posts durchzulesen um zu sehen ob er irgendwie und irgendwo Sinn und wie randmaessig genau es ueberhaupt einen Zusammenhang zum eigentlichen Thema giebt. Unter normalen Umstaenden sing ich auch nicht zu elevator music mit ;)

Weiß man jetzt eigentlich ob im September noch was kommt und wann GM200 kommen soll?

Hübie
2014-09-03, 11:22:04
Wissen tun wir wohl gar nix, aber erahnen. Wenn ich raten müsste würde ich sagen dass auf dieser LAN oder was das ist keine konkrete Karte angekündigt sondern vielleicht die Architektur vorgestellt wird. Oder was völlig anderes wie Grid mit besserer Latenz o.ä. ;);)

fondness
2014-09-03, 11:24:16
Es spricht viel dafür:
http://videocardz.com/52108/nvidia-announces-game24-24-gaming-event-maxwelliscoming

Hübie
2014-09-03, 11:29:11
Ja gut dann halt doch :P Dass nenne ich doch mal gute Recherche X-D
Kann aber wie gesagt auch nur die Architektur oder halt Grid mit Maxwell sein. Klar ist nur dass wir anschließend schlauer sind (oder verblendet).

Godmode
2014-09-03, 11:53:11
Ich bin schon verdammt gespannt was GM204 dann wirklich leisten wird. GM200 interessiert mich zwar um einiges mehr, aber es könnte schon sein das ich beim GM204 schwach werde.

Kartenlehrling
2014-09-03, 13:46:41
Sooo wird das aussehen auf der GAME24...

http://pics.computerbase.de/4/0/0/5/0/1.jpg


Sie werden uns eine Antistatische Folie zeigen :biggrin:

aths
2014-09-03, 13:49:08
Ich raffe im Moment gar nichts – kommt nun der große Maxwell ("780 Ti"), oder erst mal die Midrange-Variante ("680")?

cR@b
2014-09-03, 13:55:21
Ich raffe im Moment gar nichts – kommt nun der große Maxwell ("780 Ti"), oder erst mal die Midrange-Variante ("680")?

Die 680 (980) Teil 2 :D Ende des Jahres dann evtl. ne 980 Ti bzw. Titan II.
Gespannt bin ich dennoch was sie aufem Kasten hat. Der Umstieg damals von Referenz 480 GTX hatte sich in jedem Fall gelohnt :ugly: Glaub auf die 980 GTX wird sich der Umstieg in meinem Fall von der Titan kaum lohnen.

yamo
2014-09-03, 13:59:39
Ich bin schon verdammt gespannt was GM204 dann wirklich leisten wird. GM200 interessiert mich zwar um einiges mehr, aber es könnte schon sein das ich beim GM204 schwach werde.

Geht mir auch ähnlich. So langsam müßte ich mal nachrüsten. Maxwell könnte aber tatsächlich schon 2016 von Pascal abgelöst werden (hier liegts wohl an AMD, mit Fidji Druck zu machen. Kommt da nix, läuft GM natürlich länger).
Der Kosten/Nutzenfaktor wirds bei mir entscheiden. Und da mir Effizienz egal ist, könnte ich mir auch ein Upgrade auf 780ti SLI zum 1 1/2 GM204 Preis vorstellen.
Mal schauen. Sorry für offtopic:rolleyes:

PHuV
2014-09-03, 14:09:16
Ich verstehe nach wie vor nicht, warum die jetzt wieder unbedingt den Namen auf 9xx setzen müssen. Was wird den danach kommen? Ich bin ja echt gespannt.

Konami
2014-09-03, 14:16:46
Ich verstehe nach wie vor nicht, warum die jetzt wieder unbedingt den Namen auf 9xx setzen müssen. Was wird den danach kommen? Ich bin ja echt gespannt.
Erstens existiert schon eine Kepler-basierte 800M-Serie, das würde also nicht mit "800er" Maxwell-GPUs im Desktopsegment zusammenpassen. Zweitens kommt ja danach der Sprung auf den 16FF-Prozess, und vielleicht sogar direkt die Pascal-Architektur mit stacked DRAM. Das könnte zusammen einen großen Performancesprung ergeben, der zu einer neuen Namensgebung passen würde.

fondness
2014-09-03, 15:49:51
Gibbo from OverclockersUK spilled some beans about GTX 980 and GTX 970. According to him NVIDIA is planning 4GB reference models and also 8GB with custom cooling solutions ‘at later date’. Of course, we also heard about 8GB models. In fact flagship cards with doubled memory are nothing surprising. According to OCUK’s and our information GTX 980 and GTX 970 with 8GB models are expected somewhere between November and December.

Gibbo did not comment on GM204 performance, but he did mention that GTX 980 replaces GTX 780, not GTX 780 Ti.

http://videocardz.com/52122/overclockersuk-reference-geforce-gtx-980970-4gb-8gb-models-also-planned

Unicous
2014-09-03, 15:55:56
Warum zitierst du den Müll von WhyCry und nicht die Originalquelle?

Man muss dem Idioten wen er aus Foren klaut nicht noch mehr Traffic geben.

980 / 970 4GB reference cards with 8GB coming at a later date with custom coolers. Can't say any more but don't expect a huge leap in performance over current single GPU stuff.
http://forums.overclockers.co.uk/showpost.php?p=26840671&postcount=2638

They replace 780, not 780Ti.

Performance wise, my lips are sealed on how it compares to 780Ti, but of course 980 is quicker than 780 for sure!

http://forums.overclockers.co.uk/showpost.php?p=26843182&postcount=2662

dildo4u
2014-09-03, 15:59:47
Klingt gut damit versucht ein NV nicht wieder den kleinen Chip für 500€ zu verkaufen wie bei der 680.970 wäre also der 290 Gegner und 980 liegt vermutlich im Bereich der 290X.

maximus_hertus
2014-09-03, 16:18:39
Klingt gut damit versucht ein NV nicht wieder den kleinen Chip für 500€ zu verkaufen wie bei der 680.970 wäre also der 290 Gegner und 980 liegt vermutlich im Bereich der 290X.

Wenn die 980 ein 290X Gegner ist, dann wären wir doch bei 500 Euro?

dildo4u
2014-09-03, 16:22:25
Nein eine 290X kostet 400€. https://geizhals.de/?cat=gra16_512&xf=132_4096~1440_R9+290X#xf_top

Der Einsteigspreis wird vermutlich 450 sein und wird sich dann langsam Richtung 400 bewegen.Also hätten wir 970 350€,980 450€,780TI 550€.

M4xw0lf
2014-09-03, 17:06:51
Nein eine 290X kostet 400€. https://geizhals.de/?cat=gra16_512&xf=132_4096~1440_R9+290X#xf_top
Eben. 500€ Nvidia-Preis confirmed. :freak:

dildo4u
2014-09-03, 17:09:31
Dort steht doch das es die 780 ersetzt die kostet 400€,die 780TI ist die Karte um 500€.

Unicous
2014-09-03, 17:45:49
Und wer sagt dass sie sie beim aktuellen Preis ersetzt?:confused:


Immer diese Träumerei von besseren Preisen.

hasebaer
2014-09-03, 17:57:04
Wenn ein erster GM200 (Salvage) als GTX 980Ti um den Jahreswechsel mit einer 550-600€ UVP kommt, wären 450€ UVP für die einfache 980 schon glaubhaft.

maximus_hertus
2014-09-03, 17:57:39
Wenn die 290X der Gegenr ist, liegt der Preis bei 400 Euro + nV Aufschlag = 499 Euro Launchpreis. Dieser wird dann ggf. auf 450 Euro Straßenpreis fallen.

Die 970 sehe ich im Bereich von 370-400 Euro Launchpreis und bei 330-350 Euro Straßenpreis.


Edit: Wenn eine GM200 Salvage Karte kommt, kann man immer noch den Preis der 980 senken? Warum sollte nV Marge verschenken?

hasebaer
2014-09-03, 18:03:22
Warum sollte nV Marge verschenken?

GM204 wird 350-400mm^2 klein, da steigt die Marge ggü. GK110 im Zweifel eher, trotz "Preissenkung", hinzukommt das einfachere PCB Layout.

Godmode
2014-09-03, 18:07:28
GM204 wird 350-400mm^2 klein, da steigt die Marge ggü. GK110 im Zweifel eher, trotz "Preissenkung", hinzukommt das einfachere PCB Layout.

Und man kann auch eine schöne Dual-GPU Karte bauen und diese dann wieder zu 990 € Verschenken wie schon die GTX 690 und macht noch ordentlich Marge. Hoffentlich nicht wieder so ein Wucher wie die Z. ;D

Ailuros
2014-09-03, 18:20:18
Weiß man jetzt eigentlich ob im September noch was kommt und wann GM200 kommen soll?

http://forum.beyond3d.com/showpost.php?p=1871396&postcount=1931

September kann nur eine Ankuendigung sein (warum auch immer) fuer alles bis zu 204. GM200 nicht in diesem Jahr wie auch schon hier abermals angedeutet wurde und die die area vom letzten ist auch schon seit langem kein Unbekannter mehr.

aths
2014-09-03, 18:23:47
Ich will endlich wieder eine Karte wie die Radeon 9700, Geforce 8800 GTX oder GTX 280. Endlich wieder eine Karte, ein Statement setzt.

HOT
2014-09-03, 18:30:20
Ich will endlich wieder eine Karte wie die Radeon 9700, Geforce 8800 GTX oder GTX 280. Endlich wieder eine Karte, ein Statement setzt.
Nicht in 28nm ;).

Ailuros
2014-09-03, 18:33:36
Ich will endlich wieder eine Karte wie die Radeon 9700, Geforce 8800 GTX oder GTX 280. Endlich wieder eine Karte, ein Statement setzt.

Wenn ein oder beide IHVs zumindest 2 Herstellungsprozesse auslassen dann wohl schon. Dass heutzutage Prozesse viel zu stark limitieren ist ja kein Geheimnis mehr.

Ein FLOP von entweder NVIDIA oder AMD wuerde eventuell auch helfen, denn Teil des R300 bzw. G80 "halo" waren auch die jeweiligen NV30 bzw. R600 Flops.

maximus_hertus
2014-09-03, 18:38:37
GM204 wird 350-400mm^2 klein, da steigt die Marge ggü. GK110 im Zweifel eher, trotz "Preissenkung", hinzukommt das einfachere PCB Layout.

Aber warum die Preissenkung? Wenn nV glaubt (zurecht), dass die Kunden 500 Euro hinblättern, dann werden sie diese verlangen.

Lightning
2014-09-03, 18:39:26
Ich will endlich wieder eine Karte wie die Radeon 9700, Geforce 8800 GTX oder GTX 280. Endlich wieder eine Karte, ein Statement setzt.

Welches Statement hat denn die GTX 280 gesetzt? Doch eigentlich nur die Chipgröße..? Finde ich relativ langweilig.

Hübie
2014-09-03, 18:46:27
Und auch hier kann man nur sagen: Everything as expected. So machts ja auch Sinn. Ich glaub GK104 hat mittlerweile so traumhafte yields dass es (so gut wie keine) salvage-parts davon mehr gibt. Also setzt man jetzt da an. GM204 (-salvage) wird vermutlich kostengünstiger sein als ein GK104 full und GK110-salvage und natürlich die im üblichen Rahmen gesteigerten Verbesserungen mit sich bringen.
Kurzum: GTX 770 weg, GTX 780 weg. GK104 dürfte dann im GM106 eine Wiederauferstehung erleben.

aths
2014-09-03, 21:10:57
Wenn ein oder beide IHVs zumindest 2 Herstellungsprozesse auslassen dann wohl schon. Dass heutzutage Prozesse viel zu stark limitieren ist ja kein Geheimnis mehr.

Ein FLOP von entweder NVIDIA oder AMD wuerde eventuell auch helfen, denn Teil des R300 bzw. G80 "halo" waren auch die jeweiligen NV30 bzw. R600 Flops.
Ich meine die stabile Leistung. Die 8600 GT zum Beispiel hatte zugegebenermaßen keine besondere Grundgeschwindigkeit. Aber die hat sie weitgehend unbeeindruckt von Qualitätssettings und AA-Einstellungen abrufen können. Die 9800 GTX war deutlich, deutlich stärker. Doch drehte man die Settings hoch, ging ihr die Puste aus. (Nicht dass ich missverstanden werde, die 9800 zieht eine 8600 gnadenlos ab. Ich spreche von der relativen Performance mit Qualitäts-Settings im Vergleich zu moderaten Einstellungen.) Diese Karten setzten kein Statement: 8600 zu schwach, 9800 nominal stark aber unsouverän.

Welches Statement hat denn die GTX 280 gesetzt? Doch eigentlich nur die Chipgröße..? Finde ich relativ langweilig.Die GTX 280 war ja technologisch nur ein aufgebohrter G80. Doch die souveräne Leistung beeindruckte. Egal welches Game, die Karte machte Druck. Dieses Gefühl, CPU-limitiert zu sein, ...

Später, als die Karte schon älter war, wurde sie zwar von den damaligen Mittelklassemodellen überholt. Aber nur solange man kein Antialiasing nutzte. Es war am Ende die beschränkte Technologie (nur DX10) was die Karte zum Austausch zwang, nicht die eigentliche 3D-Leistung.


Die GTX 680 (die übrigens in den ersten Materialien noch GTX 670 hieß) ist bei ehrlicher Nomenklatur eher eine 660 – ein guter Midrange-Chip. Die 780 Ti wäre die echte 680 und die 780 wäre die passende eine 670. Nvidia hat durch Fantasie-Namen, welche eine neue Generation suggerieren, zwei Serien aus einer Technologie gemacht. Ich will jetzt keine 9"80", die eigentlich eine 860 ist ...

Timbaloo
2014-09-03, 21:17:30
GK104 dürfte dann im GM105 eine Wiederauferstehung erleben.
:confused:

Hübie
2014-09-03, 22:17:46
Ich meinte in Puncto Effizienz ;)

boxleitnerb
2014-09-03, 22:30:26
Kapiere ich aber auch nicht. Gab es jemals einen Gxxx5?

Erinyes aus dem b3d-Forum sieht GM200 nicht vor Q1/2015 bei einer ähnlichen Die Size wie GK110. Angeblich gäbe es keine 20 nm GPUs (von Nvidia oder auch von AMD?).

Timbaloo
2014-09-03, 22:38:26
Also an 20nm glaube ich schon lange nicht mehr.

fondness
2014-09-03, 22:40:12
Also zumindest Charlie spricht von 20nm AMD GPUs nächstes Jahr, muss aber natürlich nichts heißen.

boxleitnerb
2014-09-03, 22:44:08
Könnte mir vorstellen, dass AMD früh auf 20 nm setzt und NV auf 16 nm wartet. Können damit natürlich auf die Nase fallen, wer weiß.

Hübie
2014-09-03, 22:54:04
Kapiere ich aber auch nicht. Gab es jemals einen Gxxx5?

Erinyes aus dem b3d-Forum sieht GM200 nicht vor Q1/2015 bei einer ähnlichen Die Size wie GK110. Angeblich gäbe es keine 20 nm GPUs (von Nvidia oder auch von AMD?).

Huch. Jetzt erst gesehen. Typo ;) Hätte man sich aber auch denken können :freak: GM106

-/\-CruNcher-/\-
2014-09-03, 22:58:01
Ich meine die stabile Leistung. Die 8600 GT zum Beispiel hatte zugegebenermaßen keine besondere Grundgeschwindigkeit. Aber die hat sie weitgehend unbeeindruckt von Qualitätssettings und AA-Einstellungen abrufen können. Die 9800 GTX war deutlich, deutlich stärker. Doch drehte man die Settings hoch, ging ihr die Puste aus. (Nicht dass ich missverstanden werde, die 9800 zieht eine 8600 gnadenlos ab. Ich spreche von der relativen Performance mit Qualitäts-Settings im Vergleich zu moderaten Einstellungen.) Diese Karten setzten kein Statement: 8600 zu schwach, 9800 nominal stark aber unsouverän.

Die GTX 280 war ja technologisch nur ein aufgebohrter G80. Doch die souveräne Leistung beeindruckte. Egal welches Game, die Karte machte Druck. Dieses Gefühl, CPU-limitiert zu sein, ...

Später, als die Karte schon älter war, wurde sie zwar von den damaligen Mittelklassemodellen überholt. Aber nur solange man kein Antialiasing nutzte. Es war am Ende die beschränkte Technologie (nur DX10) was die Karte zum Austausch zwang, nicht die eigentliche 3D-Leistung.


Die GTX 680 (die übrigens in den ersten Materialien noch GTX 670 hieß) ist bei ehrlicher Nomenklatur eher eine 660 – ein guter Midrange-Chip. Die 780 Ti wäre die echte 680 und die 780 wäre die passende eine 670. Nvidia hat durch Fantasie-Namen, welche eine neue Generation suggerieren, zwei Serien aus einer Technologie gemacht. Ich will jetzt keine 9"80", die eigentlich eine 860 ist ...

Einer der diese Taktik versteht, viele Nvidia user hier fangen an für weniger mehr zu bezahlen und das in kürzeren intervalen und merken es nicht das ganze auftretten ist auch viel Aggressiver geworden als früher :)

Allerdings war auch AMDs aufretten schwach aber wenigstens ist ihre neue Karte fair :)

Radeonfreak
2014-09-03, 23:00:17
Klingt gut damit versucht ein NV nicht wieder den kleinen Chip für 500€ zu verkaufen wie bei der 680.970 wäre also der 290 Gegner und 980 liegt vermutlich im Bereich der 290X.

Hmm...ich jatte mehr erwartet und wollte mir eigentlich eine holen.

Lohnt es sich dann überhaupt 450-500 € auszugeben und die 680 @1.2 GHZ 4GB auszutauschen? :confused:

Hübie
2014-09-03, 23:33:09
Kommt drauf an wieviel dir dein Geld wert ist ;) Von GM204 sollte man sich jetzt nicht zuviel versprechen.
SLi ist vermutlich keine Option für dich, oder?

Godmode
2014-09-03, 23:36:32
Hmm...ich jatte mehr erwartet und wollte mir eigentlich eine holen.

Lohnt es sich dann überhaupt 450-500 € auszugeben und die 680 @1.2 GHZ 4GB auszutauschen? :confused:

Kommt drauf an was für dich lohnenswert ist. Wenn GM204 auf 780 Speed kommt sind das wie viel Prozent? Ich möchte GM204 auslassen und auf GM200 warten, weil der soll ja irgendwann im Q1/15 kommen, was ja auch nicht so lange hin ist.

Unicous
2014-09-03, 23:37:21
Also zumindest Charlie spricht von 20nm AMD GPUs nächstes Jahr, muss aber natürlich nichts heißen.

Wo wer wie wann?

hasebaer
2014-09-03, 23:43:31
@Radeonfreak
Wenn es wirklich nur GTX 780 +5% wird, dann ist man mit einer maximalen GTX 680 4GB kaum schlechter dran.
Allein der NVENC H.264 encoder sollte bei Maxwell noch einen ordentlichen Tick besser sein.

Natürlich wird man auch GM204 nochmal deutlich übertakten können.
Nvidia wird da schon eher den Sweet Spot in Sachen Perf./W aus dem GM204 rausholen wollen und nicht das letzte bisschen Leistung.

Man stelle sich vor, bei etwa gleichem Speed (0-10% plus), würde die GTX 980 50W einsparen ggü. der GTX 780,
dazu 4 statt 3GB VRAM und ein hohes OC Potential bis 1,4GHz unter Luft, dass hätte schon seinen Reiz, wenn der Preis stimmt.

Radeonfreak
2014-09-04, 00:15:30
SLi ist vermutlich keine Option für dich, oder?

Nein.

Ich möchte GM204 auslassen und auf GM200 warten, weil der soll ja irgendwann im Q1/15 kommen, was ja auch nicht so lange hin ist.

GM200 wird wohl außerhalb meiner preislichen Interessenlage spielen. ;)

@Radeonfreak
Man stelle sich vor, bei etwa gleichem Speed (0-10% plus), würde die GTX 980 50W einsparen ggü. der GTX 780,
dazu 4 statt 3GB VRAM und ein hohes OC Potential bis 1,4GHz unter Luft, dass hätte schon seinen Reiz, wenn der Preis stimmt.

Mal Schauen.

Knuddelbearli
2014-09-04, 00:45:41
Wenn ein oder beide IHVs zumindest 2 Herstellungsprozesse auslassen dann wohl schon. Dass heutzutage Prozesse viel zu stark limitieren ist ja kein Geheimnis mehr.

Ein FLOP von entweder NVIDIA oder AMD wuerde eventuell auch helfen, denn Teil des R300 bzw. G80 "halo" waren auch die jeweiligen NV30 bzw. R600 Flops.


werden doch andauernd Prozesse ausgelassen früher gab es bei jedem halfnode eine neue Kartengeneration heute nur noch bei fullnode

ndrs
2014-09-04, 10:20:27
werden doch andauernd Prozesse ausgelassen früher gab es bei jedem halfnode eine neue Kartengeneration heute nur noch bei fullnode
Naja, man kann schlecht GPUs in halfnodes anbieten, wenn es die schlicht nicht gibt, oder?

Blaire
2014-09-04, 11:12:29
Kommt drauf an was für dich lohnenswert ist. Wenn GM204 auf 780 Speed kommt sind das wie viel Prozent? Ich möchte GM204 auslassen und auf GM200 warten, weil der soll ja irgendwann im Q1/15 kommen, was ja auch nicht so lange hin ist.

Warten kann man ja prinzipiell immer, richtig fordernde Games stehen ja mehr oder weniger aus. Wohin also mit der überschüssigen Performance, warum nicht mal das Feature-Set strecken? :) Worauf ich hinaus will, hätten neue exclusive Features starken Einfluss bei deiner Kaufentscheidung? Oder zählt wirklich nur die pure Performance?

Godmode
2014-09-04, 11:25:50
Warten kann man ja prinzipiell immer, richtig fordernde Games stehen ja mehr oder weniger aus. Wohin also mit der überschüssigen Performance, warum nicht mal das Feature-Set strecken? :) Worauf ich hinaus will, hätten neue exclusive Features starken Einfluss bei deiner Kaufentscheidung? Oder zählt wirklich nur die pure Performance?

Performance ist das Kriterium Nummer 1 bei einer Kaufentscheidung. Wenn ich die Performance dann allerdings nicht in Bildqualität investieren kann, interessiert es mich wieder weniger. Es wäre wünschenswert wenn so Dinge wie Downsampling, SLI oder 3DVision weiter verbessert werden würden, weil sonst ist eine Neuanschaffung wirklich nicht sehr sinnvoll.

Mein Traum ist immer noch 3DVision auf 4K mit GSync und SLI mit ordentlichen Frametimes.

Ailuros
2014-09-04, 11:32:22
werden doch andauernd Prozesse ausgelassen früher gab es bei jedem halfnode eine neue Kartengeneration heute nur noch bei fullnode

Was soll Dir ein halfnode nuetzen wenn heutzutage selbst full nodes nichtmal so viel bringen koennen? Anders formuliert: angenommen Du hast einen maximalen Transistoren-budget von ~8Mrd. Transistoren. Wieso genau wuerdest Du von 28 auf 20nm steigen, wenn das zweite nicht billiger ist und keinen sehenswerten Verbrauch im Vergleich zum ersten einspart?

Ich meine die stabile Leistung. Die 8600 GT zum Beispiel hatte zugegebenermaßen keine besondere Grundgeschwindigkeit. Aber die hat sie weitgehend unbeeindruckt von Qualitätssettings und AA-Einstellungen abrufen können. Die 9800 GTX war deutlich, deutlich stärker. Doch drehte man die Settings hoch, ging ihr die Puste aus. (Nicht dass ich missverstanden werde, die 9800 zieht eine 8600 gnadenlos ab. Ich spreche von der relativen Performance mit Qualitäts-Settings im Vergleich zu moderaten Einstellungen.) Diese Karten setzten kein Statement: 8600 zu schwach, 9800 nominal stark aber unsouverän.

Die GTX 280 war ja technologisch nur ein aufgebohrter G80. Doch die souveräne Leistung beeindruckte. Egal welches Game, die Karte machte Druck. Dieses Gefühl, CPU-limitiert zu sein, ...

Im Vergleich zur Radeon der Zeit war jeder GT200 eher verdammt langweilig insgesamt.

Die GTX 680 (die übrigens in den ersten Materialien noch GTX 670 hieß) ist bei ehrlicher Nomenklatur eher eine 660 – ein guter Midrange-Chip. Die 780 Ti wäre die echte 680 und die 780 wäre die passende eine 670. Nvidia hat durch Fantasie-Namen, welche eine neue Generation suggerieren, zwei Serien aus einer Technologie gemacht. Ich will jetzt keine 9"80", die eigentlich eine 860 ist ...

Fuer den Otto-Normalverbraucher ist es tatsaechlich verwirrend, aber ich frage mich ernsthaft wie viele von diesen eine GTX580 hatten und zu einer GTX680 aufruesteten damals. Aussnahmen machen nicht die Regel und IMO weiss die Mehrzahl der high end GPU Verbraucher schon ob es sich um einen performance oder high end chip unterm Deckel handelt.

Gleichfalls wird auch wohl keiner so bloed sein und von einer jeglichen GTX780 auf irgendwelche GTX980 (stets mit GM204) "aufruesten" zu wollen. Wenn ja dann selber schuld. Eine solche GPU ist im schlimmsten Fall eine anstaendige Aufruestung fuer GPUs mit GK104 chips und kleiner.

Zu guter letzt ist der Schwindel mit den GPU Namen fuer beide IHVs schon uralt und ueberhaupt bei notebook GPUs.

robbitop
2014-09-04, 11:48:06
Eigentlich wäre die GM204 sogar erst eine 760. Und GM200 eine 770/780. Aber am Ende findet man sich mit der Salamitaktik ab und rüstet dafür seltener auf (weil die Leistungssprünge pro "Generation" einfach deutlich geringer sind als sie mal waren).

Hübie
2014-09-04, 12:16:00
Na ja es geistern ja schon länger Artikel herum die Moore's Law beerdigen. Die kommen nicht von ungefähr. Deshalb müssen sich beide IHVs auch eine langfristige Strategie erarbeiten und frühzeitig die Marktstellung festigen.
Ich bin mir auch ziemlich sicher dass ich Maxwell auslassen werde. Hätte ich damals GF110 mit 3 GiB im SLi gekauft wäre Kepler übersprungen worden. So passts aber imo besser da Pascal wohl erst einen echten Gewinn darstellen wird. Das ist natürlich rein spekulativ.

Godmode
2014-09-04, 12:17:57
Na ja es geistern ja schon länger Artikel herum die Moore's Law beerdigen. Die kommen nicht von ungefähr. Deshalb müssen sich beide IHVs auch eine langfristige Strategie erarbeiten und frühzeitig die Marktstellung festigen.
Ich bin mir auch ziemlich sicher dass ich Maxwell auslassen werde. Hätte ich damals GF110 mit 3 GiB im SLi gekauft wäre Kepler übersprungen worden. So passts aber imo besser da Pascal wohl erst einen echten Gewinn darstellen wird. Das ist natürlich rein spekulativ.

Pascal wird aber wohl nicht vor 2016 erscheinen. Highend Pascal vielleicht sogar erst 2017.

Unicous
2014-09-04, 12:21:15
Nvidia könnte einen Maxwell Refresh auflegen, basierend auf 16FF (vorausgesetzt der Prozess ist dann schon in volume production :wink:).

Hübie
2014-09-04, 12:23:59
Pascal wird aber wohl nicht vor 2016 erscheinen. Highend Pascal vielleicht sogar erst 2017.

Ich hab Zeit und jetzt kommt eh Studium an erster Stelle. ;) Da wird nicht viel gezockt. Aber dann erwarte ich auch einen größeren Sprung als von Kepler auf Maxwell.

HOT
2014-09-04, 12:24:41
Performance ist das Kriterium Nummer 1 bei einer Kaufentscheidung. Wenn ich die Performance dann allerdings nicht in Bildqualität investieren kann, interessiert es mich wieder weniger.

Es wäre wünschenswert wenn so Dinge wie Downsampling, SLI oder 3DVision weiter verbessert werden würden, weil sonst ist eine Neuanschaffung wirklich nicht sehr sinnvoll.

Mein Traum ist immer noch 3DVision auf 4K mit GSync und SLI mit ordentlichen Frametimes.
Das stimmt nicht. Die meisten Leute kaufen nach Marke und/oder Ruf. Performance ist zweitrangig und Stromverbrauch so gut wie irrelevant.