PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Maxwell - GM1xx (H1/2014) / GM2xx (H2/2014)


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 [18] 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33

Godmode
2014-09-04, 12:24:52
Nvidia könnte einen Maxwell Refresh auflegen, basierend auf 16FF (vorausgesetzt der Prozess ist dann schon in volume production :wink:).

Die Theorie gab es ja mal, dass Maxwell zuerst in 28nm kommt und dann auf 16nm geshrinked wird. Die Frage ist ob dass dann billiger ist als die 28nm Version. Und eigentlich müssten sie das nur machen, wenn es mit Pascal Probleme gibt. Ansonsten könnte GM204 nach 12-15 Monaten ja durch GP104 ersetzt werden. GP100 dann etwas später so wie jetzt GM200.

Godmode
2014-09-04, 12:26:09
Das stimmt nicht. Die meisten Leute kaufen nach Marke und/oder Ruf. Performance ist zweitrangig und Stromverbrauch so gut wie irrelevant.

Was interessieren mich die meisten Leute? Das war rein auf mich bezogen.

Thunder99
2014-09-04, 12:31:58
Für ein GTX680 2GB Besitzer wo die Karte ein wenig rumzickt kann ein 970/980 interessant sein, wenn mehr Performance in Sachen SGSSAA (StarWars: The old Repuplic) geboten wird aber zu einem vernünftigen Preis . Dort bricht meine Karte doch am manchen stellen zu viel ein :freak:

Kartenlehrling
2014-09-04, 13:10:09
@Thunder99

StarWars: The old Repuplic

Intel Xeon E1230v3@AllCore Turbo + MSI GTX680 Ligthning

Das liegt doch nicht an deiner Grafikkarte,
dein "gaming Xeon" und die schlechte Gameengine ist das problem, DX9c, 2Kerne Unterstützung und nur beschränkte CPU overclock durch deinen xeon sind die probleme.

Ailuros
2014-09-04, 13:41:25
Nvidia könnte einen Maxwell Refresh auflegen, basierend auf 16FF (vorausgesetzt der Prozess ist dann schon in volume production :wink:).

Die These steht ja schon seit Wochen hinter Charlie's paywall und wurde "elegant" von videocardz abgeschrieben. Um es etwas besser zu ergaenzen SA schrieb lange davor irgend etwas ueber eine weitere GeForce Stornierung; der zu Folge kam dann obrige geleakte Meldung die von einem "Missverstaendnis" sprach und es sich um keine Stornierung sondern um Maxwell shrinks@16FF schon Anfang 2015 handeln soll.

Und ich frage jetzt einfach als daemlicher Beobachter folgendes:

* Wissen wir selbst heute ob 20SoC wirklich total beschissen ist, oder ist teilweise auch die Apple A8 Produktion daran schuld dass es noch keiner benutzen wird? Erinyes@B3D behauptet auf jeden Fall dass es gar keinen 20SoC GPU chip von NVIDIA geben wird und ich glaub ihm auch. Erista ist auf jeden Fall 20SoC fuer NV.

* Nach Geruechten hat TSMC Apple's dunkle Seite mehrmals abgeleckt fuer 16FF Herstellung; unter normalen Umstaenden denkt man "ok Apple veroeffentlicht im Herbst ergo kein Problem"....nur ist rein zufaellig wieder das 12.9" iPad Geruecht aufgetaucht welches es Anfang 2015 unter 16FF@TSMC haben will?

Erstmal wuerde ich alles vor Q2 wenn nicht gleich Q3 fuer 16FF fuer GPU chips von NV vergessen. Am wahrscheinlichsten ist dass NV einen Maxwell chip sehr frueh fuer 16FF als testchip rueberschickt denn Pascal kann eigentlich nicht frueh genug kommen fuer den HPC Markt, ausser AMD's Fiji und Intel's KNL kommen um einiges spaeter als jeweils projeziert.

Thunder99
2014-09-04, 13:53:44
@Thunder99



Das liegt doch nicht an deiner Grafikkarte,
dein "gaming Xeon" und die schlechte Gameengine ist das problem, DX9c, 2Kerne Unterstützung und nur beschränkte CPU overclock durch deinen xeon sind die probleme.
Die sind bestimmt nicht das Problem. Die Kerne dümpeln bei max. 50% Auslastung und die GPU ist immer bei 99% ;)

SGSSAA zwingt mit der Engine die Grafikkarte in die Knie :( :D

Schaffe89
2014-09-04, 14:49:11
Ich tippe darauf, dass Maxwell 1920 Shader hat, etwa 15% schneller wie eine GTX 770 agiert und wohl eher der Gegener für Tonga ist, als denn für Hawai.
AMD wird Hawai wohl weiterhin im Portfolio halten, mit 8GB V-ram ausrüsten und den Takt nach oben schrauben, um eben vor einer GTX 780 Ti zu bleiben.

Es sieht so aus, als ob Nvidia Q1 oder ende Q4 noch den Maxwell Vollausbau dann bringen wird.
Könnte sein dass AMD bis dahin die Performancekrone inne hält.

boxleitnerb
2014-09-04, 15:00:08
Erscheint mir zu tief gestapelt. GM204 nur 15% (GTX 770) - 20% (GTX 680) schneller als GK104, den er ersetzt? Bei der so deutlich gestiegenen Energieeffizienz von 50% Prozent (3DC-Index 3,39/ca. 2,2) erwarte ich mehr. Es sei denn, Nvidia geht in Richtung einem Realverbrauch von 120W statt 160-180W. Macht für mich aber keinen Sinn.

Rein rechnerisch ist eine in allen Punkten verdoppelte 750 Ti schon ca. bei GTX 770 + 15%. Bei 124W Realverbrauch (Milchmädchen, 2x62W der 750 Ti laut 3DC-Zusammenfassung).

Ailuros
2014-09-04, 15:05:11
770 +~15% ist eine salvage GM204 SKU.

Ravenhearth
2014-09-04, 15:05:53
Schon mit 1920 Shader-Einheiten sollte es GM204 eigentlich auf das Niveau der Stock-GTX 780 schaffen. Aber ich erwarte den Vollausbau eher bei 18-20 SMMs und der Performance einer GTX 780 Ti oder leicht mehr.

boxleitnerb
2014-09-04, 15:08:26
770 +~15% ist eine salvage GM204 SKU.

Einmal oder zweimal kastriert? :wink:
Falls nur einmal (sind wir mal realistisch), wäre wir 1,15*1,15=ca. 30% vor der GTX 770. Damit läge man 5-10% hinter der 780 Ti bzw. irgendwo zwischen 290 und 290X.

fondness
2014-09-04, 15:11:34
IMO wird das GM204 Top-Modell mindestens 780Ti-Speed erreichen, ansonsten wäre nicht nur die Namensgebung sehr fragwürdig.

dildo4u
2014-09-04, 15:15:26
Denke auch das die 780Ti gegen die 980 mit 4GB besonderes unattraktiv wirkt schon wegen der 3GB Ram.Daher gibt wohl jetzt solche Aktionen.

http://www.ebay.de/itm/351160729558?clk_rvr_id=690309283840

Ravenhearth
2014-09-04, 15:16:42
Dito. Man kann die 780 nicht mit einer Karte ersetzen, die 980 heißt (zwei Generationen in der Namensgebung), und keine Mehrleistung bringt. GM204 wird im Vollausbau mindestens die Leistung der 780 Ti erreichen.

Schaffe89
2014-09-04, 15:22:23
Erscheint mir zu tief gestapelt. GM204 nur 15% (GTX 770) - 20% (GTX 680) schneller als GK104, den er ersetzt? Bei der so deutlich gestiegenen Energieeffizienz von 50% Prozent (3DC-Index 3,39/ca. 2,2) erwarte ich mehr. Es sei denn, Nvidia geht in Richtung einem Realverbrauch von 120W statt 160-180W. Macht für mich aber keinen Sinn.

Die Frage ist, ob die Energieeffizienz bei den größeren Maxwell Chips auch sogut ausfällt.
AMD´s langsame Releasepolitik und das hinauszögern von Tonga und das Beibehalten von Hawai, obwohl die Tapeouts längst für Fijii fällig waren, zeigt, dass es mit der Effizienz der neuen Nvidiachips nicht sogut aussehen könnte.

Und warum GTX 770 + 15%? Oder GTX 680 +20%?

Weil Nvidia diesmal keinen Mittelklassechip auf eine High End Karte aufpumpen will/muss, um AMD zu schlagen, dafür haben sie nach wie vor GK110 oder GM200 der bald kommt.
Nvidia setzt wohl ihren ~350 mm² GM204 gegen den 359mm² Tonga und da sieht es effizientechnisch wohl bei Nvidia mindestens 30 bis 50 Watt besser aus.

Ich frag mich nur ob Tonga nicht eher 2560 Shader hat und der Ersatz für Hawai ist und GM204 insofern deutlich schlagen wird.

Es sei denn, Nvidia geht in Richtung einem Realverbrauch von 120W statt 160-180W. Macht für mich aber keinen Sinn.

Ergibt denke ich schon recht viel Sinn, ich frag mich nur, ob sich Nvidia damit nicht verpokert, wenn AMD zwar mehr verbraucht, aber das bessere P/L und die bessere Performance liefert.

Rein rechnerisch ist eine in allen Punkten verdoppelte 750 Ti schon ca. bei GTX 770 + 15%. Bei 124W Realverbrauch (Milchmädchen, 2x62W der 750 Ti laut 3DC-Zusammenfassung).

Michmädchen @ it´s best, ja.
Vor allem weil das Speicherinterface ansteigt und Nvidia nicht alles mit Caches lösen kann, was wohl bei 128bit und der "mini" Performance der GTX 750 Ti noch funktioniert.

So effizient ist die GTX 750 Ti dann aber gar nicht, vor allem wenn man mal bei CB vorbeischaut und sich die Leistung in Ann0 2070 ansieht und den dazu gemessenen Strombedarf.
Da ist Tonga effizienter.

Dito. Man kann die 780 nicht mit einer Karte ersetzen, die 980 heißt (zwei Generationen in der Namensgebung), und keine Mehrleistung bringt. GM204 wird im Vollausbau mindestens die Leistung der 780 Ti erreichen.

Natürlich kann man das und das können die zwei Grafikhersteller vor allem aber Nvidia auch im Retailmarkt bestens. Siehe 8800gt--9800gt und ähnliche Beispiele auch auf seiten von AMD.
Ich tippe darauf, dass die GTX 980 auf GTX 780 Niveau rangiert und dann später eine GTX 980 Ti mit höherem Takt ( wie GTX 680 --> GTX 770 ) kommt und dann näher an die GTX 780 Ti rückt.
Wie soll eigentlich ein Chip mit 1920 Shadern die GTX 780 Ti mit 2880 einfangen können? Never ever, auch mit OC wahrscheinlich nicht, mit privaten OC allerdings schon.

Ravenhearth
2014-09-04, 15:31:39
Ich denke schon, dass sich die Effizienzsteigerungen von Maxwell, die sich anhand des GM107 beobachten lassen, im Groben auf GM204 übertragen. Vielleicht nicht genau im selben Maße, aber mindestens 40% gegenüber GK104 sollten es schon sein.

Nvidia gibt für die Recheneinheiten ja sogar eine verdoppelte Performance/Watt an.

boxleitnerb
2014-09-04, 15:56:24
So effizient ist die GTX 750 Ti dann aber gar nicht, vor allem wenn man mal bei CB vorbeischaut und sich die Leistung in Ann0 2070 ansieht und den dazu gemessenen Strombedarf.
Da ist Tonga effizienter.

Bitte?
http://www.hardware.fr/articles/926-7/consommation-efficacite-energetique.html
CB misst den Gesamtsystemverbrauch, das kannst du gar nicht gescheit auseinanderdröseln.

Zum Rest:
Warten wir es ab. Ich glaube eher, dass Ailuros Informationen hat, du spekulierst nur und weißt letztendlich gar nichts wie die meisten von uns.

Hübie
2014-09-04, 16:08:20
1920 & 2304 is mein Tipp. Damit wird einmal die 780 und Titan ersetzt. 780 Ti könnte knapp werden (fehlen ja ne Menge SPs/TMUs).
Natürlich zu geringeren Kosten und weniger Energiebedarf.
So ergibt das wirtschaftlich Sinn.
@schaffe89: Zahlen zu extrahieren scheint nicht deine Stärke zu sein :freak:

Timbaloo
2014-09-04, 16:39:58
So effizient ist die GTX 750 Ti dann aber gar nicht, vor allem wenn man mal bei CB vorbeischaut und sich die Leistung in Ann0 2070 ansieht und den dazu gemessenen Strombedarf.
Da ist Tonga effizienter.
:facepalm:

Ravenhearth
2014-09-04, 17:01:22
1920 & 2304 is mein Tipp. Damit wird einmal die 780 und Titan ersetzt. 780 Ti könnte knapp werden (fehlen ja ne Menge SPs/TMUs).
Natürlich zu geringeren Kosten und weniger Energiebedarf.

Der Takt ist wichtig. Die 780 Ti mag zwar 2880 Shader-Einheiten haben (+25% auf 2304), taktet aber nur mit 928 MHz (Boost). Angesichts der hohen Taktraten von GTX 750 Ti (Maxwell) sowie GTX 770 (GM204-Vorgänger) kann man vermuten, dass eine 980 mit einem Boost-Takt von annhähernd 1,1 GHz antritt. Dann hätte die 780 Ti nur noch wenige Prozent mehr Rohleistung.
Und wenn man die GTX 750 Ti taktnormiert mit der GTX 660 (GK106) sowie GTX 650 (GK107) vergleicht, erkennt man, dass zumindest GM107 mehr Performance aus seiner Rohleistung quetschen kann (die 660 hat zwar ~40% mehr Rohleistung als die 750 Ti, ist aber nur ~20% schneller).
Zudem hat die 780 Ti aus ihrer 60% höheren Rohleistung im Vergleich mit der 770 oftmals nicht genug rausgeholt und liegt im Mittel eher bei +~50%. Wenn Nvidia die Skalierung mit mehr Einheiten bei Maxwell etwas verbessert hat, könnte das die Performance auch etwas erhöhen.
Alles zusammen könnte reichen, um die 780 Ti zu erreichen oder etwas zu überflügeln. Aber ja, könnte auch knapp werden.

Hübie
2014-09-04, 19:09:08
Du hast nicht ganz Unrecht, jedoch ist der Takt in der Praxis oft höher. Da spielen aber noch andere Geschichten mit rein. Sollte GM204 tatsächlich mit 1100 MHz antreten ist, das fast die Kotzgrenze. Eine 780 Ti hat bei 1350 MHz etwa dual-GK104-Power. Und das sind keine unrealistischen Werte.

Ich sage dennoch (aus diversen Gründen) dass selbst die stock-780Ti nicht vom stock-GM204 geschlagen wird :biggrin: :naughty:

Nakai
2014-09-04, 19:14:50
Einmal oder zweimal kastriert? :wink:
Falls nur einmal (sind wir mal realistisch), wäre wir 1,15*1,15=ca. 30% vor der GTX 770. Damit läge man 5-10% hinter der 780 Ti bzw. irgendwo zwischen 290 und 290X.

Ich spekulier auch auf zweifach.

13 + 5 = 18

20 sind zuviel. 16 zu wenig. Wenn Salvage 13 SMMs hat, und 15% vor GTX 770 ist, dann ist Non-Salvage ~60% vor GTX 770, ergo ein Stück über GTX 780 Ti Max. Ahja, die sehen wir dann erstmal nicht. Vorher müssenn GK110 abverkauft werden. Was wir sehen ist eine 15/16 SMM-Version auf R9 290X-Niveau.

Sunrise
2014-09-04, 19:41:51
Nicht vergessen, dass GM204 auch Maxwell 2.0 ist. 1920 klingen realistisch, alles darüber würde mich überraschen. Weiterhin auf 28nm, mehr Cache, fettere Treiber für den schnellen Speicher, das Featureset nicht zu vergessen, das braucht Platz. Und die Secret Sauce nicht vergessen.

Wenn man das Ding per Default schnell genug takten kann wird das in Bezug auf Marge und Leistung ein verdammt heißes Eisen.

Hübie
2014-09-04, 19:49:58
[...]fettere Treiber für den schnellen Speicher[...]

Was genau meinst du damit? Da kommen die gleichen 7 Gbps-Speicher rauf wie schon auf Kepler oft anzutreffen... 1.6 Volt

Sunrise
2014-09-04, 19:58:01
Was genau meinst du damit? Da kommen die gleichen 7 Gbps-Speicher rauf wie schon auf Kepler oft anzutreffen... 1.6 Volt
Gibt auch noch den hier, wobei ich da nicht genauer nach Specs geschaut habe. Ist aber relativ neu:
http://samsungsemiconstory.com/m/post/748

Ailuros
2014-09-04, 20:08:06
Die Frage ist, ob die Energieeffizienz bei den größeren Maxwell Chips auch sogut ausfällt.
AMD´s langsame Releasepolitik und das hinauszögern von Tonga und das Beibehalten von Hawai, obwohl die Tapeouts längst für Fijii fällig waren, zeigt, dass es mit der Effizienz der neuen Nvidiachips nicht sogut aussehen könnte.

Du darfst unruhig bleiben, aber nicht mehr erfahren.

Und warum GTX 770 + 15%? Oder GTX 680 +20%?

Weil Nvidia diesmal keinen Mittelklassechip auf eine High End Karte aufpumpen will/muss, um AMD zu schlagen, dafür haben sie nach wie vor GK110 oder GM200 der bald kommt.
Nvidia setzt wohl ihren ~350 mm² GM204 gegen den 359mm² Tonga und da sieht es effizientechnisch wohl bei Nvidia mindestens 30 bis 50 Watt besser aus.

Wo und wieso steht irgendwelche GM204 die area schon fest?

Ich frag mich nur ob Tonga nicht eher 2560 Shader hat und der Ersatz für Hawai ist und GM204 insofern deutlich schlagen wird.

Und natuerlich gehoert Tonga zur bekannten Fantasy Islands Familie wie sie Wavey selber nannte.

Ergibt denke ich schon recht viel Sinn, ich frag mich nur, ob sich Nvidia damit nicht verpokert, wenn AMD zwar mehr verbraucht, aber das bessere P/L und die bessere Performance liefert.

Ein nettes Oxymoron, aber man kann es so stehen lassen.


Michmädchen @ it´s best, ja.
Vor allem weil das Speicherinterface ansteigt und Nvidia nicht alles mit Caches lösen kann, was wohl bei 128bit und der "mini" Performance der GTX 750 Ti noch funktioniert.

NVIDIA wendet womoeglich offchip binning fuer begrenzte Mengen von Geometrie an.

So effizient ist die GTX 750 Ti dann aber gar nicht, vor allem wenn man mal bei CB vorbeischaut und sich die Leistung in Ann0 2070 ansieht und den dazu gemessenen Strombedarf.
Da ist Tonga effizienter.

Der Meinung bist aber wirklich nur Du bzw. der seine rote Brille gar nicht mehr abnehmen kann.


Natürlich kann man das und das können die zwei Grafikhersteller vor allem aber Nvidia auch im Retailmarkt bestens. Siehe 8800gt--9800gt und ähnliche Beispiele auch auf seiten von AMD.
Ich tippe darauf, dass die GTX 980 auf GTX 780 Niveau rangiert und dann später eine GTX 980 Ti mit höherem Takt ( wie GTX 680 --> GTX 770 ) kommt und dann näher an die GTX 780 Ti rückt.
Wie soll eigentlich ein Chip mit 1920 Shadern die GTX 780 Ti mit 2880 einfangen können? Never ever, auch mit OC wahrscheinlich nicht, mit privaten OC allerdings schon.

Ach Du weisst auch noch wie viele clusters GM204 haben soll? Etwas Geduld duerfte nicht schaden bevor man zu solchen total basislosen Schlussfolgerungen kommt.

Schaffe89
2014-09-04, 20:11:10
Der Meinung bist aber wirklich nur Du bzw. der seine rote Brille gar nicht mehr abnehmen kann.



Der Meinung bin ich nicht, der CB Test zeigt es allerdings.
Natürlich stehen andere Messungen dazu im Gegensatz.
Das sollte ja nur ein Beleg dafür sein, dass es mit der Effizienz vielleicht doch nicht soweit her ist.

Ailuros
2014-09-04, 20:15:04
Der Meinung bin ich nicht, der CB Test zeigt es allerdings.

Eine daemliche Ausnahme macht nicht die Regel.

Natürlich stehen andere Messungen dazu im Gegensatz.
Das sollte ja nur ein Beleg dafür sein, dass es mit der Effizienz vielleicht doch nicht soweit her ist.

Welche GPU genau zeigt die genau GLEICHE Effizienz in allen Faellen? Spar Dir die Muehe: KEINE. Und dieses gilt genauso fuer jegliche Radeon.

Godmode
2014-09-04, 20:18:20
Der Meinung bin ich nicht, der CB Test zeigt es allerdings.
Natürlich stehen andere Messungen dazu im Gegensatz.
Das sollte ja nur ein Beleg dafür sein, dass es mit der Effizienz vielleicht doch nicht soweit her ist.

Es gibt zig Effizientestes im Netz wo die GPU alleine gemessen wurden und da steht die 750 immer ziemlich alleine an der Front. Raussuchen tue ich dir diese jetzt nicht.

Timbaloo
2014-09-04, 20:36:10
Der Meinung bin ich nicht, der CB Test zeigt es allerdings.
Wo tut er das? :rolleyes:

Blediator16
2014-09-04, 20:41:50
Ich sags euch. Sein Account wurde wieder gehackt.

aufkrawall
2014-09-04, 20:43:55
Er meint wohl, dass die Leistung stärker gegenüber der Stromaufnahme bei 750 Ti vs 285 steigt.

Dieses hardcore ALU-lastige Spiel liegt den Radeons allgemein recht gut.

Dural
2014-09-04, 20:47:57
http://samsungsemiconstory.com/m/post/748

da sind sie ja, wie so oft vor neuen gpus.

AnarchX
2014-09-04, 20:54:49
Da haben wohl die Distributoren die ersten Daten zu den GTX 900er Karten im System: http://videocardz.com/52125/asus-strix-gtx-970-asus-gtx-980-listed

Ailuros
2014-09-04, 21:07:36
http://rog.asus.com/forum/showthread.php?51203-OverclockersUK-reference-GeForce-GTX-980-970-with-4GB-8GB-models-also-planned&p=432946

Gibbo:
980 / 970 4GB reference cards with 8GB coming at a later date with custom coolers. Can’t say any more but don’t expect a huge leap in performance over current single GPU stuff.

Gibbo:
They replace 780, not 780Ti.
Performance wise, my lips are sealed on how it compares to 780Ti, but of course 980 is quicker than 780 for sure!

Ravenhearth
2014-09-04, 21:15:11
aaalt. (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10337716&postcount=4207)

Ailuros
2014-09-04, 21:17:16
aaalt. (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10337716&postcount=4207)

Alt aber es dient nur dazu daran zu erinnern dass es eine 980 doch nicht nur einen Atem vor der 770 liegen wird.

boxleitnerb
2014-09-04, 21:20:31
Dass man die 780 Ti erreichen könnte, glaube ich schon. Aber das hängt dann vom Takt ab. Eine Spanne von ca. 15% kann man doch locker darüber abdecken. Das dürfte dann eine eher politische und keine technische Entscheidung sein.

memoal
2014-09-04, 21:22:40
aaalt. (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=10337716&postcount=4207)
Würde aber Sinn machen, die schnellst Karte muss nicht unbedingt sparsam sein, sondern in erster Linie mal schnell, dass macht AMD auch nicht anders.

Wenn es vorerst keine schnellere Karte gibt, kann man sich Zeit lassen und eben ein paar SMX deaktivieren. Wenn AMD dann kontert, kann man die 780ti auslaufen lassen und bringt einen schnellen GM204. Ist ja nun kein Zauberwerk, macht AMD hoffentlich auch so. Oder warum ist z.B. Tonga so groß?

Ich bin der Meinung das die 750 (Maxwell?) sparsamer ist als die Tonga IP. Warum der Chip so riesig ist erschließt sich einem nicht. 750(ti) ohne Stromanschluss bei 45-55 Watt für GTX570-470-480 Leistung ist dramatisch wenig, eine Reduktion um das vierfache. Ich hätte mir das bei Tonga auch gewünscht.

AnarchX
2014-09-04, 21:47:40
N16E-GT im CompuBench 1.5:

http://compubench.com/compare.jsp?benchmark=compu20&D1=NVIDIA+N16E-GT&os1=Windows&api1=cl&D2=NVIDIA+GeForce+GTX+880M&cols=2

10 Compute Units mit 1038MHz und wohl nur 3GiB (global_mem_size) 192-Bit.


45% schneller als eine GTX 880M (GK104 1536SP@953MHz, 256-Bit 5Gbps).

boxleitnerb
2014-09-04, 21:56:06
Also
GM204: 2660 GFLOPs, 145%
GK104: 2928 GFLOPs, 100%

Knapp 60% mehr Leistung pro FLOP. Das muss an noch was anderem liegen, Bandbreite oder so?

Sind die Ergebnisse der Seite verlässlich? Eine 8970M deutlich schneller als eine 880M? Wo das Pitcairn vs. GK104 ist - komisch.

Dural
2014-09-04, 21:56:28
auslese fehler? mit 10 cu kann ich nicht viel anfangen. wären ja nur 1280sp?

der speed ist aber schon mal gut.

edit.
also bei mir steht 4gb.

-/\-CruNcher-/\-
2014-09-04, 22:01:54
Alt aber es dient nur dazu daran zu erinnern dass es eine 980 doch nicht nur einen Atem vor der 770 liegen wird.

Jup typische salvage Positionierung mittendrin wo es keinen wirklichen sinn macht ausser man brauch above 2k unbedingt

M4xw0lf
2014-09-04, 22:02:01
N16E-GT im CompuBench 1.5:

http://compubench.com/compare.jsp?benchmark=compu20&D1=NVIDIA+N16E-GT&os1=Windows&api1=cl&D2=NVIDIA+GeForce+GTX+770&cols=2

10 Compute Units mit 1038MHz und wohl nur 3GiB (global_mem_size) 192-Bit.


45% schneller als eine GTX 880M (GK104 1536SP@953MHz, 256-Bit 5Gbps).
Bei welchem Benchmark? Ich seh da nur einen einzigen Wert für die unbekannte Karte (T-Rex; N16-E: 5408 Frames/s; GTX770: 4687 Frames/s).

fondness
2014-09-04, 22:05:32
Also
GM204: 2660 GFLOPs, 145%
GK104: 2928 GFLOPs, 100%

Knapp 60% mehr Leistung pro FLOP. Das muss an noch was anderem liegen, Bandbreite oder so?

Sind die Ergebnisse der Seite verlässlich? Eine 8970M deutlich schneller als eine 880M? Wo das Pitcairn vs. GK104 ist - komisch.

Das ist eben ein Compute-Bench - wo Kepler und mit leichten Abstrichen auch Maxwell so seine Schwächen hat.

Auf die schnell gegoogelt:

http://s27.postimg.org/cj98ak2in/cl_g.jpg (http://postimg.org/image/cj98ak2in/)

http://www.vmodtech.com/th/article/asus-gt-730-silent/page/10

boxleitnerb
2014-09-04, 22:08:39
Das ist eben ein Compute-Bench - wo Kepler so seine Schwächen hat.

T-Rex? Dachte das ist stinknormale Grafik.

aufkrawall
2014-09-04, 22:11:18
Es ging das Gerücht um, dass der 343-Treiber OpenCL 1.2 unterstützen wird.
Würde OpenCL-Benches damit abwarten, wenns stimmt.

-/\-CruNcher-/\-
2014-09-04, 22:11:56
Hehe

good find :)

343.80

aufkrawall
2014-09-04, 22:16:17
Das ist jetzt hoffentlich nicht irgendeine Fantasiezahl?

-/\-CruNcher-/\-
2014-09-04, 22:18:00
Nein es wird noch besser :)

http://compubench.com/compare.jsp?benchmark=compu20&D1=NVIDIA+N16E-GT&os1=Windows&api1=cl&D2=NVIDIA+GeForce+GTX+780&cols=2

aufkrawall
2014-09-04, 22:23:14
Bin ich zu blöd, oder lässt du es gerade eskalieren? :confused:

Ravenhearth
2014-09-04, 22:38:08
Ist der Chip mit 10 SMMs nicht eher GM206?

AnarchX
2014-09-04, 22:39:24
Ist der Chip mit 10 SMMs nicht eher GM206?
Wird wohl die GTX 970M sein. GM206 ist wohl eher noch nicht soweit.

Ravenhearth
2014-09-04, 22:46:58
Man deaktiviert bei GM204 dann 8 von 18 SMMs? Bei GK104 waren es doch nie weniger als 2 von 8 (25%)?

boxleitnerb
2014-09-04, 22:47:01
Warum eigentlich nicht? Warum legt man nicht mal die kleinsten Chips zuerst auf, die verkaufen sich doch am besten, gerade im Mobilsegment.

Ravenhearth
2014-09-04, 22:50:11
Es spricht nichts dagegen, die kleinsten Chips zuerst aufzulegen. Aber fast die Hälfte an Einheiten zu deaktivieren finde ich etwas viel. Damit hätte die 970M weniger Einheiten als die alte 870M (1280 vs 1344). Das ist bei den Effizienzverbesserungen, die Maxwell mitbringt, etwas wenig. In der Karte halte ich 13 SMMs für realistischer, oder auch etwas mehr.

Pentium M
2014-09-04, 22:50:40
Das ist die Zukunft eine GPU für Alle Gelegenheiten.

aufkrawall
2014-09-04, 22:53:09
T-Rex? Dachte das ist stinknormale Grafik.
Nutzt OpenGL zum Rendern.
Gibts da nähere Infos zu?

Godmode
2014-09-04, 22:54:25
Das ist die Zukunft eine GPU für Alle Gelegenheiten.

Nein, ganz bestimmt nicht. :rolleyes:
Willst also einen 500 mm2 Die für von Lowend bis Highend verwenden? Oder überlesen ich den Sarkasmus?

mczak
2014-09-04, 22:55:44
Also 10 SMM mit 192bit Speicherinterface klingt für mich auch eher nach GM206. Darunter (und trotzdem noch oberhalb von GM107) ist ja kaum noch Platz für einen anderen Chip.

Pentium M
2014-09-04, 22:57:39
Du nimmst ja gleich wieder die Badfliesen als Beispiel.

Ravenhearth
2014-09-04, 23:04:44
Wenn die Karte mit 10 SMMs aber auf GM204 basiert, dann dürfte sie nach wenigen Monaten schnell durch ein entsprechendes Derivat auf Basis von GM206 ersetzt werden. Und sie würden sie wohl nicht 970M nennen.


Imho könnten 10 SMMs im GM206 knapp ausreichen, um an die schnelleren GK104 ranzukommen, wenn man von der 750 Ti hochrechnet. Mit genug Takt und viel Daumendrücken.

mczak
2014-09-04, 23:16:43
Ach ja und der Benchmark (keine Ahnung was der wirklich misst btw) sieht zwar beeindruckend aus für N16E gegen GTX 770 das ist aber bloss etwa Pitcairn Niveau. Die Kepler Chips sehen da gar kein Land ;-).

-/\-CruNcher-/\-
2014-09-04, 23:32:37
Nutzt OpenGL zum Rendern.
Gibts da nähere Infos zu?


schau mal auf den frame output ;)

Das ist Garantiert T-Rex Path Traced nicht rasterized ;)

Raff
2014-09-04, 23:40:32
Dieses hardcore ALU-lastige Spiel liegt den Radeons allgemein recht gut.

Da es wohl um Anno 2070 geht: Ja, aber das gibt's nicht umsonst – es ist das Heizspiel mit Höchstverbrauch auf Radeon-ASICs.

MfG,
Raff

horn 12
2014-09-05, 00:04:10
NV ist wohl danach aus eine Preilichen Gegenspieler für R9 290 und R9 290X zu erreichen, vor Allem will man wohl in etwa in selbe Preisregionen stampfen.
Der geringe Stromverbarcuh ist auf der Habenseite bei NV, und dies lässt man sich mit einen Fuffi mehr bezahlen

GTX 970 290 minus 5%
GTX 980 R9 290X ----> SO ZIEMLICH GENAU auf Augenhöhe, ebenso gleiche Speichermenge bei den GTX-en

OC -technisch sollten die GTX auch besser gehen als Hawai, der STROMVERBRAUCH wollte auch nicht so extrem hochgehen.
Da hat man das Rundere Paket bei NV diesmal.... AMD muss nachlegen :-(

aths
2014-09-05, 00:57:50
Im Vergleich zur Radeon der Zeit war jeder GT200 eher verdammt langweilig insgesamt.Ja, ich erinnere mich an die Presse-Vorstellung vom 280/260. Ich war baff, was Nvidia sich da traut, vorzustellen: Paar mehr Units, bissel größere Caches, aber kein DX10.1.

Nur eins ließ mich aufhorchen: 512-Bit-Speicherinterface.

Als wir die Karten dann hatten (hatte zu der Zeit bei EVGA gearbeitet) war der erste Produktionsbatch auch noch fehlerhaft: Etwa jede zweite Karte stürzte unter Last ab (schwarzer Bildschirm.) Da wir in der Preisklasse jede einzelne verkaufte Karte vorher testeten, konnten wir aber die ganzen Nieten rausfiltern.

Doch dann, als die Produktion korrigiert war, hatte man mit der 280 eine Karte, die jede 8800 klar abzog. Das war kein Feilschen um ein paar Prozent wie bei der 9800 GTX/GTX+.

Fuer den Otto-Normalverbraucher ist es tatsaechlich verwirrend, aber ich frage mich ernsthaft wie viele von diesen eine GTX580 hatten und zu einer GTX680 aufruesteten damals. Aussnahmen machen nicht die Regel und IMO weiss die Mehrzahl der high end GPU Verbraucher schon ob es sich um einen performance oder high end chip unterm Deckel handelt.

Gleichfalls wird auch wohl keiner so bloed sein und von einer jeglichen GTX780 auf irgendwelche GTX980 (stets mit GM204) "aufruesten" zu wollen. Wenn ja dann selber schuld. Eine solche GPU ist im schlimmsten Fall eine anstaendige Aufruestung fuer GPUs mit GK104 chips und kleiner.

Zu guter letzt ist der Schwindel mit den GPU Namen fuer beide IHVs schon uralt und ueberhaupt bei notebook GPUs.
Ja, von 480 zu 580 und von der 580 zur 680 war der jeweilige Gewinn überschaubar.

Mich hatte schon gewurmt, dass die nicht die 380, sondern 480 hieß, sowie dass die 480 im Vollausbau dann gleich 580 heißen musste.

Mich ärgert es auch, wenn Nvidia bei der 770 davon faselt "The next-generation, high-performance GeForce GTX 770 graphics card is designed from the ground up to deliver high-speed, smooth gaming."

Das ist eine 680 mit 780-er Kühler. Keine Next-Generation und schon gar nicht "designed from the ground up". Die haben bestehende Produkte leicht modifiziert. Anstatt sich in Werbelyrik zu ergehen, die das Produkt umschwärmt als hätte ein hoch ausgebildetes Ingenieurteam angefangen, ausgehend von einem weißen Blatt Papier eine Next-Generation-Karte zu entwickeln, könnten sie einfach sagen was wirklich drin ist: GTX-680-Restbestand der wegmuss mit etwas schnellerem Speicher sowie einem Kühler den sie dank 770-Absatz in Massen produzieren können.

Agent117
2014-09-05, 00:58:05
Weiß einer der Experten hier, was Maxwell verglichen mit Keppler oder GCN so effizient macht?

http://cdn2.ubergizmo.com/wp-content/uploads/2014/02/nvidia-kepler-vs-maxwell-sm.gif

Wie man an dem Bild sieht wurde innerhalb eines Clusters nochmal die ganze Kontrollogic in 4 Teile gesplittet. Nvidia legt wohl deutlich mehr Wert als AMD darauf, die Einheiten möglichst gut auszulasten. Das scheint man bei Maxwell ja nochmal duetlich verbessert zu haben. (Keppler versteh ich nicht, warum 4 Sheduler für 192 Shader??)
Zudem haben die Geforces schon seit langem nur eine halb so grove Wavefront-Size, damit sollte man die Shader auch besser auslasten können, weil weniger Verschnitt.

Die Effizienzverbesserungen von Maxwell sind dann doch entweder auf den deutlich größeren Cache und/oder die gesplittetere Logik innherhalb eines Clusters verantwortlich.
Vermutlich konnte man in den Clustern bei Maxwell die Signalwege verkürzen, weshalb sich GM107 auch so gut takten lässt.

Man sieht aber jetzt nachdem die R9 285 getestet wurde auch, dass das "äußere" Frontend (Rasterizer und Geometrie Einheit) für die Effizienz doch nicht so entscheidend ist.

Hab GCN ma überflogen. Da wird eine 64er Wavefront in 4 Takten auf eine 16er Shader Gruppe verteilt. In einen Cluster gibt es 4 solcher Gruppen und demnach auch 4 Sheduler, von denen jeder um einen Takt versetzt damit beginnt seine Gruppe mit der frisch erhaltenen Wavefront zu füttern. Wie wird das bei Nvidia gemacht? Es sind ja auch 16er Gruppen; bei einer Wavefrontsize von 32 arbeiten die Sheduler also mit halber Latenz. Aber wie wird das da zeitlich geroutet und wie schafft man es bei Keppler mit den 4 Shedulern die 192 Shader auszulasten?
Weiß da einer hier was drüber oder kennt par gute Links wo das erklärt wird?

Edit: Auf dem Schaubild sind bei Keppler und Maxwell sind die eingezeichneten Warp-Sheduler anscheinend in Wirklichkeit jeweils 2 Sheduler, die versetzt ihre Wavefronts erhalten. Das passt auch zu der 2er Latenz. Aber ka

Pentium M
2014-09-05, 01:08:23
Vielleicht hilft es.LINK (http://www.computerbase.de/2014-02/nvidia-geforce-gtx-750-ti-maxwell-test/)

Knuddelbearli
2014-09-05, 09:52:13
Was soll Dir ein halfnode nuetzen wenn heutzutage selbst full nodes nichtmal so viel bringen koennen? Anders formuliert: angenommen Du hast einen maximalen Transistoren-budget von ~8Mrd. Transistoren. Wieso genau wuerdest Du von 28 auf 20nm steigen, wenn das zweite nicht billiger ist und keinen sehenswerten Verbrauch im Vergleich zum ersten einspart?



Leg mir nicht irgendwelche Wörter in den Mund! Danke! :motz:

Ich will endlich wieder eine Karte wie die Radeon 9700, Geforce 8800 GTX oder GTX 280. Endlich wieder eine Karte, ein Statement setzt.
Wenn ein oder beide IHVs zumindest 2 Herstellungsprozesse auslassen dann wohl schon.

Habe nirgendwo gesagt das man Halfnode gehen soll noch sonstwas, sondern einfach nur geantwortet das man ja schon Herstellungsprozesse ( aka Nodes ) auslässt da halfnodes gar nicht mehr angeboten werden, während es bei 9700 8800 280 usw immer auch halfnodes gab ( 285 halfnode von 280 dann usw )

@ Aths alle deine 3 Beispiele performten sogut da entweder Verlustleistung oder DIE grö0e teils massiv angehoben wurde. Das heute eben nicht mehr möglich. Rein technologisch war keine davon, nichtmal die 8800 GTX wirklich brillant. die 8800GTX hat nur DIE Größe und Verlustleistung im selben Schritt massiv erhöht

Ailuros
2014-09-05, 10:08:36
Nein es wird noch besser :)

http://compubench.com/compare.jsp?benchmark=compu20&D1=NVIDIA+N16E-GT&os1=Windows&api1=cl&D2=NVIDIA+GeForce+GTX+780&cols=2

* Verschiedene Aufloesungen.
* Kishonti's Compute bench ist alles andere als ein Massstab fuer alles GPGPU.

Leg mir nicht irgendwelche Wörter in den Mund! Danke! :motz:

Dann lies den Paragraphen so oft durch bist Du verstehst wie es gemeint war.


Habe nirgendwo gesagt das man Halfnode gehen soll noch sonstwas, sondern einfach nur geantwortet das man ja schon Herstellungsprozesse ( aka Nodes ) auslässt da halfnodes gar nicht mehr angeboten werden, während es bei 9700 8800 280 usw immer auch halfnodes gab ( 285 halfnode von 280 dann usw )

Und ich hab darauf in Form von durchaus logischen Fragen geantwortet. Was Dich dabei jetzt gestoert hat, weisst Du wohl nur selber und interessiert die eigentliche Debatte hier auch kein bisschen. :confused:

Thunder99
2014-09-05, 11:16:24
Mit der GTX680 hatten sie die GTX580 knapp geschlagen. Ob es mit der GT980 vs. GTX780Ti funktioniert bezweifle ich, da die Ti schon mega gut ist im Verhältnis zur 580/480er

Außerdem wenn die 980 die Ti knapp schlägt könnte der Chip wieder so am Anschlag sein wie die GTX680. Erst mit mit 7er Speicher wurde es etwas besser

Ailuros
2014-09-05, 11:28:35
Mit der GTX680 hatten sie die GTX580 knapp geschlagen. Ob es mit der GT980 vs. GTX780Ti funktioniert bezweifle ich, da die Ti schon mega gut ist im Verhältnis zur 580/480er.

Bis zu 30% Unterschied wuerde ich nicht als "knapp" bezeichnen: http://www.computerbase.de/2012-04/bericht-nvidia-geforce-gtx-680/11/

Knapp ist in meinem Buch alles was in Echtzeit nicht bemerkbar ist.

Außerdem wenn die 980 die Ti knapp schlägt könnte der Chip wieder so am Anschlag sein wie die GTX680. Erst mit mit 7er Speicher wurde es etwas besser

Die default 980 SKU "muss" die 780ti nicht unbedingt schlagen; deshalb wird auch NV keinen $600 MSRP verlangen wie bei der GTX680.

-/\-CruNcher-/\-
2014-09-05, 11:50:40
Ja, ich erinnere mich an die Presse-Vorstellung vom 280/260. Ich war baff, was Nvidia sich da traut, vorzustellen: Paar mehr Units, bissel größere Caches, aber kein DX10.1.

Nur eins ließ mich aufhorchen: 512-Bit-Speicherinterface.

Als wir die Karten dann hatten (hatte zu der Zeit bei EVGA gearbeitet) war der erste Produktionsbatch auch noch fehlerhaft: Etwa jede zweite Karte stürzte unter Last ab (schwarzer Bildschirm.) Da wir in der Preisklasse jede einzelne verkaufte Karte vorher testeten, konnten wir aber die ganzen Nieten rausfiltern.

Doch dann, als die Produktion korrigiert war, hatte man mit der 280 eine Karte, die jede 8800 klar abzog. Das war kein Feilschen um ein paar Prozent wie bei der 9800 GTX/GTX+.


Ja, von 480 zu 580 und von der 580 zur 680 war der jeweilige Gewinn überschaubar.

Mich hatte schon gewurmt, dass die nicht die 380, sondern 480 hieß, sowie dass die 480 im Vollausbau dann gleich 580 heißen musste.

Mich ärgert es auch, wenn Nvidia bei der 770 davon faselt "The next-generation, high-performance GeForce GTX 770 graphics card is designed from the ground up to deliver high-speed, smooth gaming."

Das ist eine 680 mit 780-er Kühler. Keine Next-Generation und schon gar nicht "designed from the ground up". Die haben bestehende Produkte leicht modifiziert. Anstatt sich in Werbelyrik zu ergehen, die das Produkt umschwärmt als hätte ein hoch ausgebildetes Ingenieurteam angefangen, ausgehend von einem weißen Blatt Papier eine Next-Generation-Karte zu entwickeln, könnten sie einfach sagen was wirklich drin ist: GTX-680-Restbestand der wegmuss mit etwas schnellerem Speicher sowie einem Kühler den sie dank 770-Absatz in Massen produzieren können.

Du sprichst mir voll aus der Seele in diesem Hinblick finde ich AMD/ATIs aufholen um einiges interessanter mit der Umstellung auf GCN und Anfang des Treiber redesigns, richtig interessant wurde es dann mit dem Konsolen Deal vor allem mit Microsoft :)

Und tonga holt bei DX11 Tesselation auf ein wichtiges feature für Zukünftige Titel und setzt sich gleich mit der x60 serie ein wichtiges Ziel ist schonmal erreicht für AMD der Energieverbrauch ist auch ebenwürdig jedenfalls nicht mehr so exorbitant der Unterschied.

Und wie gesagt DX12 features da schauen wir mal ob diesmal beide alle features supporten oder ob Nvidia wieder mal ihren eigenen Weg gehen wird, irgendwie habe ich auch den Verdacht das das einer der Gründe war wieso Microsoft Kepler als Xbox One platform ausgeschlossen hat, treiber kann man immer optimieren Hardware ändern kostet enorm und GUI spielt bei der Xbox One eine rolle Hardwarebeschleunigung zu verlieren ist problematisch bei den Direct2D Features des OS.

* Verschiedene Aufloesungen.
* Kishonti's Compute bench ist alles andere als ein Massstab fuer alles GPGPU.



Dann lies den Paragraphen so oft durch bist Du verstehst wie es gemeint war.




Und ich hab darauf in Form von durchaus logischen Fragen geantwortet. Was Dich dabei jetzt gestoert hat, weisst Du wohl nur selber und interessiert die eigentliche Debatte hier auch kein bisschen. :confused:

Die Auflösung ist nicht wirklich das Problem es ist eher die Software mit Nvidias Cuda Optix Renderer (der wird in Gameworks eine Rolle spielen in Zukunft) würde das wieder anders aussehen OpenCL war noch nie ideal mit Nvidia weil sie sich auch bewusst abgrenzen.

Dural
2014-09-05, 12:00:10
Ich weis nicht was ihr habt, die GTX780Ti hat auch das doppelte von der GTX580 draufgelegt.

Wer R300, G80, GT200 erwähnt muss den GK110 auch fast nennen. den GK110 hatte weder mehr fläche noch mehr verbrauch als GF110 dafür benötigt und das kann man bei R300, G80 und GT200 nicht gerade behaupten.

fondness
2014-09-05, 12:06:56
Der Unterschied ist das R300 und G80 auf keinem neuen Fertigungsprozess entstanden, GK110 schon. GT200 passt ohnehin nicht in die Kategorie.

robbitop
2014-09-05, 14:00:35
R300 und G80 sind so bekannt und schon Legenden, weil sie >2x schneller als ihr Vorgängerprodukt waren. Das waren extremst selten vorkommende "Brecher".
Und beide nutzten "alte" Fertigungsprozesse.

Wobei das eigentlich kein Argument ist. Damals wurden die Kerngrößen und Leistungsaufnahmen noch nicht ausgereizt. Also haben R300 und G80 auch einen großen Teil über höhere Kerngröße und Leistungsaufnahme geholt.

GPUs sind schneller gewachsen, als es Shrinks kompensieren konnten. Dadurch gab es eine ganze Weile eine ganz schöne Leistungsexplosion. Bis man die 300 W und 550 sqmm Marke erreicht hat. Ab dem Punkt konnte man nur noch mit Shrinks schneller werden. Und blöderweise kommen die Shrinks jetzt immer seltener (weil immer schwieriger/teurer).
Da hat man die Ursache. ;)

Das gleiche ist IMO mit SoCs im Mobile Bereich passiert und dort wird es genauso passieren, dass der rasante "Wachstum" irgendwann genauso stockt.

Coda
2014-09-05, 14:01:32
R300 und G80 haben auch beide zusätzlich eine neue DirectX-Generation eingeleitet.

HOT
2014-09-05, 14:02:46
R300 und G80 waren teuer erkauft; die Dinger kamen mit einer drasdischen TDP-Erhöhung einher. Das geht aber einfach nicht mehr, weil man bei 300W an die Grenzen der machbaren Luftkühlung stößt. GM200 und Fiji werden hier sicherlich noch mal ne Schippe drauflegen, danach ist aber feierabend.
Es gibt ja schon Hinweise, dass AMD auch bei Fiji schon auf Wasserkühlung setzen könnte, wie bei der 295X2.

Hübie
2014-09-05, 16:01:08
R300 und G80 waren teuer erkauft; die Dinger kamen mit einer drasdischen TDP-Erhöhung einher.

50 Watt für den R300 sind doch eigentlich ne Lachnummer wenn man mal Maß nimmt :freak:

Ansonsten hat robbitop eigentlich alles notwendige erläutert. Und genau das meine ich immer mit "verschrobene" Vorstellungen. Die Zauberei ist vorbei.
Mit neuen Materialien und Fertigungsverfahren kommt diese wieder. Aber jetzt sitzen wir in einer Blase.

Duplex
2014-09-05, 16:43:26
Ab 16FF kann man von doppelter Performance gegenüber GK110 ausgehen.
Nächstes Jahr zwischen Herbst & Winter 2015 ist es soweit.

Hübie
2014-09-05, 16:44:48
GK110 hat auch doppelte GF110-Leistung ;) Sogar ziemlich exakt.

Shaft
2014-09-05, 18:17:23
Was sagen denn nun die Gerüchte, kommt Maxwell mit Dx12 oder nicht?

Mich juckt es einen neue Graka zu kaufen, bei der Momentanen Situation will ich noch abwarten.

Preislich ist Nvidia derzeit bissl uninteressant. Bei AMD juckt mich eine 285x auf Tonga Basis und deren verbesserten Tesselation Leistung oder gar eventuell 280(x), ist ja derzeit auch nur Gerücht ob da was kommt oder nicht.

Denke September, Oktober werden recht interessante Monate. :)

Unicous
2014-09-05, 18:28:34
Maxwell kommt zu 99,99% mit Support für die vorläufige DX12 Spec, da Kepler es auch unterstützen wird und Nvidia behauptet, auch Fermi würde es unterstützen.

NVIDIA will support the DX12 API on all the DX11-class GPUs it has shipped; these belong to the Fermi, Kepler and Maxwell architectural families. -

http://blogs.nvidia.com/blog/2014/03/20/directx-12/

Warte lieber noch ein paar Wochen, eher bis Anfang nächsten Jahres, wenn Weihnachten vorbei ist.

AnarchX
2014-09-05, 18:31:55
http://www.chiphell.com/thread-1122008-1-1.html
... eventuell 16 SMM für die GTX 980 und 5,5k Punkte in FireStrike Extreme bei 160-170W.

fondness
2014-09-05, 18:37:29
Das wären genau die schon ewig genannten +10% zur 780 Ti.

Nakai
2014-09-05, 18:38:28
http://www.chiphell.com/thread-1122008-1-1.html
... eventuell 16 SMM für die GTX 980 und 5,5k Punkte in FireStrike Extreme bei 160-170W.

Und so beginnt es...
Sind nette Werte für Maxwell. Ahja GM107 hatte fast 2000 Punkte bei FS Extreme. Man sollte auch sagen, dass hier GM107 tendenziell besser dasteht, als bei normalen Spielen. Ergo erreicht GM204 erstmal 780Ti Max Performance.

aufkrawall
2014-09-05, 18:38:57
Bei 170W wär das ordentlich.
Prügelt man das auf 250W hoch, sind die +90% zu einer 680/770 nicht mehr weit.

Kriton
2014-09-05, 18:52:58
Maxwell kommt zu 99,99% mit Support für die vorläufige DX12 Spec, da Kepler es auch unterstützen wird und Nvidia behauptet, auch Fermi würde es unterstützen.



http://blogs.nvidia.com/blog/2014/03/20/directx-12/

Warte lieber noch ein paar Wochen, eher bis Anfang nächsten Jahres, wenn Weihnachten vorbei ist.

D.h. nicht, dass es DX 12 in HW unterstützt (soweit notwendig, was ja unbekannt ist).

CountDoku
2014-09-05, 19:04:07
Eine 780Ti hat ca 4900 Firestrike Punkte unter Extreme. Das sieht doch alles sehr lecker aus. Jetzt muss nur noch die Spieleleistung stimmen*sabber*

160~170W bei der 980 ist ne gewaltige Ansage. Top Leistung, nVidia!

dildo4u
2014-09-05, 19:10:38
Tegra zwingt NV Richtung Effizienz zu arbeiten,das zahlt sich jetzt extrem aus.Maxwell wird den Vorsprung im Mobile GPU Bereich massiv ausbauen.

Timbaloo
2014-09-05, 19:35:39
http://www.chiphell.com/thread-1122008-1-1.html
... eventuell 16 SMM für die GTX 980 und 5,5k Punkte in FireStrike Extreme bei 160-170W.
Hmmm, warum verlinkt der Post auf einen coolaler-Artikel vom 11.8.?

hasebaer
2014-09-05, 19:39:01
Das war die schon geleakte 13 SMM "870" als Vergleich.

Hübie
2014-09-05, 19:47:55
http://www.chiphell.com/thread-1122008-1-1.html
... eventuell 16 SMM für die GTX 980 und 5,5k Punkte in FireStrike Extreme bei 160-170W.

Also eine 13/16 Konfiguration. 1664 SPs sieht man auf dem shot des angeblichen "GTX-870-Benchmarks" (NV-D17U-20). Wenn die Verbrauchsangabe stimmt dann hat AMD ein echtes Problem.

Ich fasse zusammen:

GPU|3DMark 11|SKU|SPs|Takt (MHz)|Bandbreite|Verbrauch (W)
GTX 970|4625 X|GM204 salvage|1664|1051|256 Bit|160-170
GTX 980|~5500 X|GM204 full(?)|1920|~1000(?)|256 Bit(?)|~200 (?)

So?? :confused:

CountDoku
2014-09-05, 19:50:46
Hübie, das könnte hinhauen. Und Coolaler ist doch eigentlich seriös. In der freien Wildbahn sollten die Karten auch schon sein. Ich bin auf jedenfall mächtig gespannt.

Hübie
2014-09-05, 19:53:09
Also etwa drei Wochen bevor die verschifft werden gibt's bedruckte Kartons X-D Könnte also Ende September/Anfang Oktober schon soweit sein. Dann sind die Ende Oktober im Handel verfügbar.

AnarchX
2014-09-05, 19:54:15
Also eine 13/16 Konfiguration. 1664 SPs sieht man auf dem shot des angeblichen "GTX-870-Benchmarks" (NV-D17U-20). Wenn die Verbrauchsangabe stimmt dann hat AMD ein echtes Problem.

Ich fasse zusammen:

GPU|3DMark 11|SKU|SPs|Takt (MHz)|Bandbreite|Verbrauch (W)
GTX 970|4625 X|GM204 salvage|1664|1051|256 Bit|160-170
GTX 980|~5500 X|GM204 full(?)|1920|~1000(?)|256 Bit(?)|~200 (?)

So?? :confused:

FS X ist nicht 3DM11 X.

CountDoku
2014-09-05, 19:54:57
@Hübie
Wieso ende Oktober? Wirds etwa ein Paperlaunch?

Das fände ich aber sehr blöd.

Hübie
2014-09-05, 20:04:08
FS X ist nicht 3DM11 X.

Wie meinen :confused:

@Hübie
Wieso ende Oktober? Wirds etwa ein Paperlaunch?

Das fände ich aber sehr blöd.

Optimistische Schätzung. Bauchgefühl. Spekulation :smile: Nicht mehr nicht weniger.

CountDoku
2014-09-05, 20:06:55
Naja, ich hoffe die werden zeitnaher zu kaufen sein. Ansonsten, deine Tabelle gefällt mir:)

Ich bin doch richtig informiert das Mitte diesen Monates die Karten getestet werden oder nicht? Oder hab ich was verschlafen?

dildo4u
2014-09-05, 20:07:20
Wie meinen :confused:

Die Werte der 970 sind vom 3DMark11,die von der 980 3DMark 2013.Daher nicht vergleichbar.

CountDoku
2014-09-05, 20:13:49
War da nicht irgendwas mit 18. September? Muss mich da mal echt schlau machen. Ende Oktober ist ja noch einiges hin.

dildo4u
2014-09-05, 20:15:45
War da nicht irgendwas mit 18. September? Muss mich da mal echt schlau machen. Ende Oktober ist ja noch einiges hin.
Ja Nvidia hat ein Event am 19.9,vermutlich mit Maxwell Launch.

http://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/News/Nvidia-Game24-Livestream-1134616/

AffenJack
2014-09-05, 20:17:17
Angeblich 9/10 September Pressevent?
Dann 19 September Game24, wo auf jeden fall Maxwell geteasert wird. Könnte mir vorstellen, da gibts die Specs zu lesen. Dann vielleicht anderthalb Wochen danach am 27 (Dienstags waren doch immer Nv Launchs?) der Launch.
Ende Oktober glaube ich nicht wirklich. Im Oktober sollen whl schon erste Notebooks mit Gm204 erscheinen, da glaube ich sehen wir die Desktopkarten vorher.

CountDoku
2014-09-05, 20:18:16
Ja, wahrscheinlich nur ne Demonstration der neuen Maxwell. Aber immerhin etwas. Du wirst wohl Recht haben CB und Konsorten werden wohl erst einige Zeit später testen. Mist, noch sooooo lange warten;)

Jop 19. September. Aber fast getroffen. Irgendwann um den Zeitraum war doch was. Um einen Tag vertan;)

Duplex
2014-09-05, 20:25:14
http://www.chiphell.com/thread-1122008-1-1.html
... eventuell 16 SMM für die GTX 980 und 5,5k Punkte in FireStrike Extreme bei 160-170W.
Ist schon bekannt wie hoch die TDP ausfallen wird?
Wenn die Karte nur 195W TDP hat, dann gibt es kurze Zeit später noch eine GTX980 Ti "225W TDP" mit >20% mehr Performance als eine GTX980,
dann hat GM204 ca. 30% mehr Power als GK110.

Ailuros
2014-09-05, 20:26:00
Also eine 13/16 Konfiguration. 1664 SPs sieht man auf dem shot des angeblichen "GTX-870-Benchmarks" (NV-D17U-20). Wenn die Verbrauchsangabe stimmt dann hat AMD ein echtes Problem.

Ich fasse zusammen:

GPU|3DMark 11|SKU|SPs|Takt (MHz)|Bandbreite|Verbrauch (W)
GTX 970|4625 X|GM204 salvage|1664|1051|256 Bit|160-170
GTX 980|~5500 X|GM204 full(?)|1920|~1000(?)|256 Bit(?)|~200 (?)

So?? :confused:

Ich muss etwas verpassen denn mit 16 clusters kommt man nur mit 120SPs/SMM auf insgesamt 1920SPs.... :confused: Dass die GPU Z Daten falsch sind sollte klar sein. MIt 1664 SPs hat man zwar erstmal 13 SMMs aber eben nicht "138TMUs" und schon gar nicht 145 GTexels Fuellrate.

numerologi
2014-09-05, 20:30:18
https://geizhals.at/eu/diverse...

CountDoku
2014-09-05, 20:32:40
Der Geizhals link funzt nicht @numerologi

Du meinst wahrscheinlich den Link hier von Guru3D http://www.guru3d.com/news-story/geforce-gtx-980-starts-listing-in-pricewatch-engines.html Aber ich denke das wird nicht richtig sein.

GM104 "Maxwell" mit 2560 Shadern rofl. Das wird ganz gewiss nicht passieren. Also ganz schnell vergessen;)

numerologi
2014-09-05, 20:39:16
Ich denke auch, dass es eine Fälschung ist, wird es sicherlich haben diese 1.920 Kernen und Leistungsniveau gtx 780Ti

Agent117
2014-09-05, 20:41:07
Ist schon bekannt wie hoch die TDP ausfallen wird?
Wenn die Karte nur 195W TDP hat, dann gibt es kurze Zeit später noch eine GTX980 Ti "225W TDP" mit >20% mehr Performance als eine GTX980,
dann hat GM204 ca. 30% mehr Power als GK110.

Für die GTX 980 klingt das realistisch, wobei Ausnutzung der TDP in der Vergangenheit ja bei unterschiedlichen Chips und dessen Salvage Parts sehr geschwankt hat.
Ein Spieleverbrauch von ca 180 Watt kommt für eine GTX 980 etwa heraus, wenn man von 15 (3*5) oder 16 (4*4) Clustern ausgeht und GM 107 als Basis nimmt.
Wird wie es aussieht ein ziemlich rundes Produkt, für noch 28nm sogar sehr gut.

Ein um >= 20% schnellerers Produkt wird aber vermutlich auf GM 200 basieren.

Ja AMD wird es schwer haben, klingt ja fast so wie zu Zeiten von G80 vs R600.
Wären da nicht die ganzen "überflüssigen" Transistoren auf Tonga:wink:
:biggrin: Nein ich habe ehrlich keine Ahnung was noch in Tonga steckt:biggrin:

CountDoku
2014-09-05, 20:41:44
GM104 wir reden vom GM204. Wenn das schon falsch bezeichnet ist kann man den Rest in die Tonne treten. 2560 Shader. Ich fresse meine Shorts sollte das so kommen;)

@Numerologie ich denke mit 1.920 Kernen wird die 780Ti geschlagen. Um wieviel Prozent wird man sehen. Und den Maxwell wird man mindestens! genau so gut übertakten können wie die 780Ti.

Dazu noch leckere 4 Gigabyte als Standard mit Aussicht auf 8 Gigabyte. Wird schon ein leckeres Teil werden.

numerologi
2014-09-05, 20:55:16
Es hängt davon ab, wie Ingenieure haben nVidia Effizienz Maxwell zweiten Generation gearbeitet, wenn es nur 35% des Kerns oder víc.Jinak noch wird nichts darüber gesagt, ob nvidia eine Konferenz, wo die neue Architektur eingeführt haben, sollte es 9 sein 10. September

CountDoku
2014-09-05, 20:58:02
Warten wir einfach mal ab. Aber man muss ganz einfach sagen mit Maxwell hat nVidia endlich wieder einen G80 rausgehauen. Ich finds geil das nennt man Fortschritt. Und! Wir reden über den 28nm Prozess. So ne Leistungssteigerung mit ner Architektur Verbesserung zu erreichen chapo. Das gabs lange nicht mehr.

Unicous
2014-09-05, 20:58:07
Jemand der aus dem Tschechischen ins Deutsche übersetzen lässt?

OBR calling?

Hübie
2014-09-05, 21:24:52
Ich muss etwas verpassen denn mit 16 clusters kommt man nur mit 120SPs/SMM auf insgesamt 1920SPs.... :confused: Dass die GPU Z Daten falsch sind sollte klar sein. MIt 1664 SPs hat man zwar erstmal 13 SMMs aber eben nicht "138TMUs" und schon gar nicht 145 GTexels Fuellrate.

Deswegen ja mein ":confused:" Passt für mich so auch nicht, aber ist wohl falsch ausgelesen (wie du ja auch vermutest). 104 TMUs (wenn man den Regeln des GM107 SMM folgt) und 109 GTexel.

@dildo4u: Jetzt ist alles klar. FS X ist für mich Microsoft Flightsimulator 10 :freak::biggrin:

-/\-CruNcher-/\-
2014-09-05, 22:17:41
Das sieht ziemlich glaubwürdig aus

Gigabyte GTX 970 G1 Gaming (GV_N970GI_GAMING_4GD)
NVIDIA GTX970 128*32 DDR5 256 BIT

Gigabyte GTX 980 (GV_N980D5_4GD_B)
NVIDIA GTX980 256BIT/4096MB/PCI-E 3.0/128*32 DDR5 256 BIT


Das würde bedeuten kein Paper Launch sondern quasi hidden release Vorstellung am 19 ?

http://www.synnex.co.th/Th/Products/SearchProduct.aspx?Search=Z3R4OTgw

Es tauchen immer mehr auf :)

http://www.synnex.co.th/Th/Products/ProductDetail.aspx?ProductID=U1RSSVgtR1RYOTcwLURDMk9DLTQ=

also werden zumindestens 970 und 980 gelauncht wie es aussieht

Die gehören zur Synnex Corporation also denke mal die daten sind verlässlich da war wohl einer zu früh mit einpflegen ;)

Die Karten scheinen also zumindestens ihren weg zu den Distros angetretten zu haben oder sind schon da ;)

Ailuros
2014-09-05, 23:18:43
http://www.synnex.co.th/Th/Products/SearchProduct.aspx?Search=Z3R4OTgw



http://www.synnex.co.th/Th/Products/ProductDetail.aspx?ProductID=U1RSSVgtR1RYOTcwLURDMk9DLTQ=



Aus den Links:

NVIDEA GFORCE 970,4GB,PCI EX PRESS,OC,DDR5

Ich will keine Nivea sondern ne GPU :P

Unicous
2014-09-05, 23:21:30
49484

Schön geschmeidig und schnell einziehend. Wo liegt dein Problem Ailuros?

Ailuros
2014-09-05, 23:34:37
49484

Schön geschmeidig und schnell einziehend. Wo liegt dein Problem Ailuros?

Der Rand ist gelb und nicht gruen und es muesste sich nach NV's standards eigentlich nIVEA schreiben :P

boxleitnerb
2014-09-05, 23:54:32
Ich frage mich immer noch, welche SKU das sein soll mit GTX 770 +15%. Sollte es nicht drei GM204 SKUs geben? Selbst wenn der Vollausbau nur 1920 SPs hat, glaube ich nicht, dass man mit einer mäßig beschnittenen (1664 SP) GPU nur o.g. Performance erreicht, wenn man sich überlegt, wie gut Maxwell mit der Rohleistung umgeht.

Ailuros
2014-09-06, 00:00:49
Ich frage mich immer noch, welche SKU das sein soll mit GTX 770 +15%.

Afaik die erste salvage SKU.

Sollte es nicht drei GM204 SKUs geben?

*schulterzuck* mir sind fuer den Anfang nur zwei bewusst.

Selbst wenn der Vollausbau nur 1920 SPs hat, glaube ich nicht, dass man mit einer mäßig beschnittenen (1664 SP) GPU nur o.g. Performance erreicht, wenn man sich überlegt, wie gut Maxwell mit der Rohleistung umgeht.

Mit 15 ist man noch ein teenager :P

boxleitnerb
2014-09-06, 00:03:31
Mit 16-19 auch :wink:
An 20 SMM glaube ich nicht.

Leonidas
2014-09-06, 10:09:26
Also 10 SMM mit 192bit Speicherinterface klingt für mich auch eher nach GM206. Darunter (und trotzdem noch oberhalb von GM107) ist ja kaum noch Platz für einen anderen Chip.


Beides ist ja möglich: Man evaluiert derzeit einen derart beschnittenen GM204 - und liefert später dann bei Verfügbarkeit GM206 aus. Somit ist man schneller im Markt und muß nicht auf GM206-Verfügbarkeit warten.





Maxwell kommt zu 99,99% mit Support für die vorläufige DX12 Spec, da Kepler es auch unterstützen wird und Nvidia behauptet, auch Fermi würde es unterstützen.


Gerade weil es Fermi und Kepler auch unterstützen, handelt es sich rein um den Software-Teil von DX12.

HOT
2014-09-06, 10:10:01
Ich frage mich immer noch, welche SKU das sein soll mit GTX 770 +15%. Sollte es nicht drei GM204 SKUs geben? Selbst wenn der Vollausbau nur 1920 SPs hat, glaube ich nicht, dass man mit einer mäßig beschnittenen (1664 SP) GPU nur o.g. Performance erreicht, wenn man sich überlegt, wie gut Maxwell mit der Rohleistung umgeht.
Ist ne Frage, wie gut die Architektur nach oben hin skaliert.

boxleitnerb
2014-09-06, 10:40:23
Ist ne Frage, wie gut die Architektur nach oben hin skaliert.

Warum sollte sie nicht so exzellent skalieren wie Kepler? Von GTX 640 bis GTX 780 quasi 100% Skalierung der Leistung.

Schaffe89
2014-09-06, 11:53:23
Weil man im oberen Performancebereich die Caches nicht so effizient nutzen kann, wie im unteren Bereich.
Man kann damit kein kleines Interface ausgleichen.
Das hat man doch bei GM107 gesehen. Die Karte profitiert vor allem davon, weil sie nicht mehr Bandbreitenlimitiert ist.
Im oberen Performancebereich haben wir das gar nicht, trotz 256 bit.

Deswegen tippe ich für die GTX 980 auf GTX 770 +15 bis 20%, weil die Karte auch niedriger taktet.
Wenn die GTX 780 Ti dann EOL geht, wird man wohl eine GTX 980 Ti nachlegen und dann an die GTX 780 Ti herantakten.

Wer glaubt eigentlich an 2560 Shader? Sogut wie keiner hoffe ich mal, denn wie weit will man den GM200 noch aufbohren und fetter machen?

boxleitnerb
2014-09-06, 12:26:58
Das weißt du woher, Herr Ingenieur? Spekulationen als Fakten hinstellen kannst du wirklich gut.

memoal
2014-09-06, 12:28:02
Wer glaubt eigentlich an 2560 Shader? Sogut wie keiner hoffe ich mal, denn wie weit will man den GM200 noch aufbohren und fetter machen?
Vielleicht braucht man den GM200 dann im Consumerbereich garnicht.

dildo4u
2014-09-06, 12:28:23
Maxwell wird nich nur große Cache's sondern auch besser Kompression haben genau wie Tonga.Außerdem knausert NV beim Speicher nicht so die GTX 770 hatte z.b als erste Karte 3.5GHz Speicher.

Dural
2014-09-06, 12:50:12
für mich ist schon lange klar das GM204 auf der Höhe des GK110 liegen wird.

Das Flaggschiff von GM204, ob dies jetzt die 980 sein wird oder nicht, wird aber sicher nicht die selbe Strom-Effizients haben wie es die GTX750Ti hat. Das hat NV übrigens schon fast selber bestätigt.

AnarchX
2014-09-06, 13:30:34
Das Flaggschiff von GM204, ob dies jetzt die 980 sein wird oder nicht, wird aber sicher nicht die selbe Strom-Effizients haben wie es die GTX750Ti hat. Das hat NV übrigens schon fast selber bestätigt.
Es ist ja nicht so, dass die GTX 750 Ti besonders niedrig taktet.
Und ein größerer Chip hat eher das Potential eine höhere Pro-Watt-Leistung zu haben, da der Anteil an Basisverbräuchen (PCIe, PCB, Displayausgänge) eher geringer ist.
Zudem hat man mit Maxwell 1.0 vielleicht Erfahrungen gemacht, die in Maxwell 2.0 eingeflossen sind.

memoal
2014-09-06, 13:45:42
Das Flaggschiff von GM204, ob dies jetzt die 980 sein wird oder nicht, wird aber sicher nicht die selbe Strom-Effizients haben wie es die GTX750Ti hat. Das hat NV übrigens schon fast selber bestätigt.
Wenn man auf Level der 780ti liegt und max. TDP 195w verbraucht, ist doch alles ok. Im Sinne des GK104 ist das schon eine ordentliche Leistungs-Steigerung. Man muss sich ja zu aller erst mit sich selbst vergleichen. Das dürfte dann der GK104 sein. Das eine höhere Anzahl von Transistoren sicherlich nicht ganz so effizient zu zügeln sind, wie eine niedrige Anzahl, ist ja auch nicht neu. Zudem bleibt der Fertigungsprozess gleich.

Ailuros
2014-09-06, 14:40:04
Mit 16-19 auch :wink:
An 20 SMM glaube ich nicht.

Mit 20 ist man schon Lange erwachsen.

boxleitnerb
2014-09-06, 14:59:55
Also 18 SMM, 2304 SP, 144 TMUs und eine unbekannte Zahl ROPs (vermutlich 32).

Nakai
2014-09-06, 15:09:04
Ja, diese Zahl ging schon sehr oft rum und sollte daher stimmen. ;D

Wenn GM204 4 GPCs hat, dann wird es etwas inhomogen(2*5 + 2*4). Bei 3 wäre man bei 3*6. Ich erwarte aber 4.

4MB L2-Cache ist auch ziemlich sicher bei einem 256Bit SI, genauso wie die 32 ROPs. Eventuell sehen wir eine Secret Sauce bei einer Diesize zwischen 350 und 400mm², aber das vermute ich eher bei GM200.

boxleitnerb
2014-09-06, 15:15:59
Können 4 Maxwell GPCs nicht zusammen 64 Pixel pro Takt raushauen? Vielleicht doch 64 ROPs?

Nakai
2014-09-06, 15:27:56
Können 4 Maxwell GPCs nicht zusammen 64 Pixel pro Takt raushauen? Vielleicht doch 64 ROPs?

Dann 8MB L2-Cache? Eventuell würde das die Diesize erklären. Ich hätte GM204 nicht über 350mm² eingeschätzt. Bei 8 ROP-Partitionen(pro Partition 8 ROPs; 1MB L2-Cache; 64Bit). Eventuell hat man pro Partition die MCs halbiert. Wobei es da sicherlich noch andere Konfigurationmöglichkeiten gibt.

AnarchX
2014-09-06, 15:37:39
Können 4 Maxwell GPCs nicht zusammen 64 Pixel pro Takt raushauen? Vielleicht doch 64 ROPs?

Ist wohl alles in gewissem Rahmen skalierbar. Bei GM107 waren 16 Pixel sinnvoll, ob dies bei GM204 der Fall ist, ist die Frage. Vielleicht haben die ROPs auch andere Durchsatzraten bei GM2xx.

Ailuros
2014-09-06, 15:47:54
Können 4 Maxwell GPCs nicht zusammen 64 Pixel pro Takt raushauen? Vielleicht doch 64 ROPs?

Angenommen es ist so; wie viel wird dann GM200 theoretisch haben? 96? :rolleyes: Mir muss jemand erstmal vorschlagen wozu man zum Teufel 64 pixels/Takt auf einem performance chip braucht mit so relativ zu diesen geringer Bandbreite.

boxleitnerb
2014-09-06, 15:53:21
Angenommen es ist so; wie viel wird dann GM200 theoretisch haben? 96? :rolleyes: Mir muss jemand erstmal vorschlagen wozu man zum Teufel 64 pixels/Takt auf einem performance chip braucht mit so relativ zu diesen geringer Bandbreite.
Viele werden auf 4k schauen, und falls GM204 da im Vergleich zur 780 Ti einbricht wird das Geheule groß.

mironicus
2014-09-06, 15:54:17
Hat irgend jemand eine Erklärung warum NVidia die neuen Karten als GTX 970/980 herausbringt und nicht als GTX 870/880?

Hübie
2014-09-06, 16:07:05
Viele werden auf 4k schauen, und falls GM204 da im Vergleich zur 780 Ti einbricht wird das Geheule groß.

NOT! Man muss ja irgendwie die Kirche im Dorf lassen.
@mironicus: Marketing. Man hat in Notebooks schon die wertvollen 800er Nummern vergeudet...äh vergeben.

Kriton
2014-09-06, 16:07:21
Mobile gibt es bereits die 800er Serie.

mironicus
2014-09-06, 16:14:17
Der Trick dahinter ist wohl die bestehende Kundschaft leichter dazu zu bringen, ein Upgrade durchzuführen.

Kunde: "Oh! Meine GTX 780 TI ist ja schon so alt, und es gibt jetzt sogar schon die GTX 980!" :D

NVidia: "Hi, Hi, Hi!" :D

boxleitnerb
2014-09-06, 16:16:46
NOT! Man muss ja irgendwie die Kirche im Dorf lassen.
@mironicus: Marketing. Man hat in Notebooks schon die wertvollen 800er Nummern vergeudet...äh vergeben.

Sag das dann den Heulern ;-)

fondness
2014-09-06, 16:18:26
Viele werden auf 4k schauen, und falls GM204 da im Vergleich zur 780 Ti einbricht wird das Geheule groß.

Das sollte aufgrund der 4Gb vs. 3GB kein Problem sein.

Ailuros
2014-09-06, 16:21:30
Viele werden auf 4k schauen, und falls GM204 da im Vergleich zur 780 Ti einbricht wird das Geheule groß.

Was hat jetzt 4k direkt mit 64 pixels/clock zu tun? IMHO reichen zwei fette rasters mit 16 pixels/clock fuer einen performance chip heutzutage immer noch vollkommen aus.

memoal
2014-09-06, 16:24:42
Der Trick dahinter ist wohl die bestehende Kundschaft leichter dazu zu bringen, ein Upgrade durchzuführen.

Kunde: "Oh! Meine GTX 780 TI ist ja schon so alt, und es gibt jetzt sogar schon die GTX 980!" :D

NVidia: "Hi, Hi, Hi!" :D
Ist doch eher die Frage ob der 780ti Kunde (also GK110 Besitzer) überhaupt der Zielkunde ist, für den kommt ja dann der GM200, (wenn er wegen wegbrechender 4k Leistung heult und er dann kommt).

Wenn AMD dem nichts entgegen zu setzen hat, wird man wohl länger warten müssen.

Denn macht nVidia nicht "hi, hi" sondern eher "ha, ha".

boxleitnerb
2014-09-06, 16:25:15
Was hat jetzt 4k direkt mit 64 pixels/clock zu tun? IMHO reichen zwei fette rasters mit 16 pixels/clock fuer einen performance chip heutzutage immer noch vollkommen aus.

Ist Füllrate nicht besonders wichtig für hohe Auflösungen?

memoal
2014-09-06, 16:25:44
Der Trick dahinter ist wohl die bestehende Kundschaft leichter dazu zu bringen, ein Upgrade durchzuführen.

Kunde: "Oh! Meine GTX 780 TI ist ja schon so alt, und es gibt jetzt sogar schon die GTX 980!" :D

NVidia: "Hi, Hi, Hi!" :D
Ist doch eher die Frage ob der 780ti Kunde (also GK110 Besitzer) überhaupt der Zielkunde ist, für den kommt ja dann der GM200, (wenn er wegen wegbrechender 4k Leistung heult und er dann kommt).

Wenn AMD dem nichts entgegen zu setzen hat, wird man wohl länger warten müssen. Denn macht nVidia nicht "hi, hi" sondern eher "ha, ha".

Ailuros
2014-09-06, 16:33:14
Ist Füllrate nicht besonders wichtig für hohe Auflösungen?

Texels oder Pixels? Sonst brauchst Du fuer jeglichen Giga-Texel bzw. -Pixel N% Bandbreite. Diesbezueglich kannst Du von mir aus z.B. theoretisch 500 GTexels/s haben mit nur 200+GB Bandbreite; wunder Dich aber dann bloss nicht wenn davon dann nur noch sagen wir mal 120 GTexels auf die Strasse kommen.

boxleitnerb
2014-09-06, 16:44:09
Wusste ich nicht, danke :)

mironicus
2014-09-06, 16:47:30
Bin gespannt wie die Maxwell mit ihren 256 Bit-Interface bei 4K abschneidet - gegen die R290x und natürlich die 780Ti.

Timbaloo
2014-09-06, 16:52:27
Jo, der Einfluss der großen Caches bei vergleichsweise geringer RAM-Bandbreite wird sehr interessant zu beobachten sein.

Auch wenn es mich praktisch nicht interessiert :P

Nakai
2014-09-06, 17:02:53
Bin gespannt wie die Maxwell mit ihren 256 Bit-Interface bei 4K abschneidet - gegen die R290x und natürlich die 780Ti.

Wir wären schon lange schlauer, wenn die Reviewer Maxwell in der Form des GM107 mal ordentlich durchnehmen würden. Aber mehr als viele lausige Spielebenchmarks sieht man in den meisten Reviews nicht. Bandbreitentests, Füllratentests, Texeltests, etc. Es gibt genug Benches, die die Rohdaten der Architekturen testen. So könnte man GM107 mal gegen GK104 antreten lassen, um zu testen, inwieweit der Cache was bringen könnte. :rolleyes:

Leider sind die meisten Reviews lausig...

Hübie
2014-09-06, 17:05:19
Kauf dir doch so ein Teil. Kost' ja nicht die Welt ;) Ich kann mir denken dass es keine großen Überraschungen geben wird. Spieletests sind halt die Praxis. Das zählt und darum geht's. Hawaii's blend-power interessiert doch auch kein Schwein 🐷

aufkrawall
2014-09-06, 17:17:40
Wir wären schon lange schlauer, wenn die Reviewer Maxwell in der Form des GM107 mal ordentlich durchnehmen würden. Aber mehr als viele lausige Spielebenchmarks sieht man in den meisten Reviews nicht. Bandbreitentests, Füllratentests, Texeltests, etc. Es gibt genug Benches, die die Rohdaten der Architekturen testen. So könnte man GM107 mal gegen GK104 antreten lassen, um zu testen, inwieweit der Cache was bringen könnte. :rolleyes:

Leider sind die meisten Reviews lausig...
Jap, habe auf die Schnelle nur das gefunden:
http://www.bit-tech.net/hardware/graphics/2014/02/18/nvidia-geforce-gtx-750-ti-review/9

Da schneidet er im Vergleich zur 480 gut ab.

dildo4u
2014-09-06, 17:44:55
Laut dem Tonga Test eignet sich der Color Fill Test dazu zu sehen wie gut die Effektive Bandbreite arbeitet.

http://techreport.com/review/26997/amd-radeon-r9-285-graphics-card-reviewed/2

http://abload.de/img/750dkoup.jpg

http://www.ixbt.com/video3/gm107-part2.shtml

260X hat laut Specs 96GB/Sec,die 650 TI Boost 144GB und die GTX 750 TI 86 GB/sec

http://techreport.com/review/26050/nvidia-geforce-gtx-750-ti-maxwell-graphics-processor/3

Schaffe89
2014-09-06, 18:06:34
Also wennn die 15000 Punkte im 3D Mark stimmen, wird Nvidia AMD in den Boden stampfen.

Nakai
2014-09-06, 18:06:52
Laut dem Tonga Test eignet sich der Color Fill Test dazu zu sehen wie gut die Effektive Bandbreite arbeitet.

http://techreport.com/review/26997/amd-radeon-r9-285-graphics-card-reviewed/2

http://abload.de/img/750dkoup.jpg

http://www.ixbt.com/video3/gm107-part2.shtml

260X hat laut Specs 96GB/Sec,die 650 TI Boost 144GB und die GTX 750 TI 86 GB/sec

http://techreport.com/review/26050/nvidia-geforce-gtx-750-ti-maxwell-graphics-processor/3

Die effektive Bandbreite ist über 50% höher als ohne größeren Cache. Im Endeffekt sollten 4MB l2cache ausreichen, mit hoch getaktetem Speicher.

@schaffe: ich sage seit langem, dass Maxwell stark wird.

dildo4u
2014-09-06, 18:07:56
Also wennn die 15000 Punkte im 3D Mark stimmen, wird Nvidia AMD in den Boden stampfen.
Woher haste das denn wieder her bekannt sind 5500 im Firestrike Extreme.

Timbaloo
2014-09-06, 18:10:09
Woher haste das denn wieder her bekannt sind 5500 im Firestrike Extreme.
Ich nehme an er bezieht sich auf das: http://www.3dcenter.org/news/erste-3dmark-werte-zur-geforce-gtx-980-aufgetaucht

Timbaloo
2014-09-06, 18:11:13
Wir wären schon lange schlauer, wenn die Reviewer Maxwell in der Form des GM107 mal ordentlich durchnehmen würden. Aber mehr als viele lausige Spielebenchmarks sieht man in den meisten Reviews nicht. Bandbreitentests, Füllratentests, Texeltests, etc. Es gibt genug Benches, die die Rohdaten der Architekturen testen. So könnte man GM107 mal gegen GK104 antreten lassen, um zu testen, inwieweit der Cache was bringen könnte. :rolleyes:

Leider sind die meisten Reviews lausig...
This. Ich war schon drauf und dran die passive Calmx zu kaufen, nur um ein paar interessantere Tests durchzuführen... Jetzt kann ich auch auf GM204 warten :P

dildo4u
2014-09-06, 18:15:06
3DMark11(Performance) ist CPU limitiert und nicht brauchbar,der Standardtest läuft nur in 720p.

Nakai
2014-09-06, 19:18:18
Laut dem Tonga Test eignet sich der Color Fill Test dazu zu sehen wie gut die Effektive Bandbreite arbeitet.

http://techreport.com/review/26997/amd-radeon-r9-285-graphics-card-reviewed/2

http://abload.de/img/750dkoup.jpg

http://www.ixbt.com/video3/gm107-part2.shtml

260X hat laut Specs 96GB/Sec,die 650 TI Boost 144GB und die GTX 750 TI 86 GB/sec

http://techreport.com/review/26050/nvidia-geforce-gtx-750-ti-maxwell-graphics-processor/3

Man muss auch hierzu sagen, dass Techreport mit diesen Diagrammen die einzige Reviewseite ist, die mal etwas theoretischer auf die Karten guckt.
Der Color fill rate Test von Vantage ist ganz nett, hierzu aus dem Whitepaper:

8.2 Color fill rate test
The test draws frames by filling the screen rectangle multiple times. The color and alpha of each corner of the screen is animated. The pixel shader is pass-through. The interpolated color is written directly to the target using alpha blending. The render target format is R16G16B16A16.

Pixelshader macht nix, also wird direkt einfach "durchgereicht". Es werden nur die Ecken der Viewplane dementsprechend transformiert, um neue Farbwerte zu rendern. 64Bit pro Pixel, welche mittels Alpha Blending geschrieben werden. Es werden also nicht einfach Farbwerte geschrieben, sondern mit dem Alpha-Wert verrechnet. Keine Ahnung, welche Auflösung die bei diesem Test durchgeführt haben. Ich bin mir nicht sicher, aber Alpha-Blending sollte einigermaßen gut gecached werden können, bestehende Farbwerte können gut im Cache gehalten werden und mit neuen Werten verrechnet werden.
Reinher vom Aussehen her, sollte die FBC von Tonga ziemlich effektiv sein. Das Bild hat nahezu kein Aliasing, also keine Kanten, und ist sonst sehr homogen. Könnte Tongas abartig hohes Ergebnis erklären. Da kann die FBC mal richtig greifen. Effektive Bandbreite ist 230% höher als bei Tahiti.

Schaffe89
2014-09-06, 19:18:59
Wieso Extreme ist doch getestet worden?
Und wenn schon, die CPU möchte ich sehen die da deutlich schneller wäre als die jetzigen, es wird doch sowieso ne aktuelle OC CPU zum Testen benutzt.
Dass Nvidia mit einem 1920/2048 Shader Dingens ihr vorherigen 2880 Big Chips schlägt, ist für mich allerdings ausgeschlossen.
Das müssen mindestens 2560 sein, ansonsten wird sich das niemals ausgehen.

Wenn doch, ist das ein riesen IPC Gewinn und AMD kann sich mit der Tonga GPU mit 2048 Shadern warm anziehen.
Eventuell wird es doch wieder so wie mit Kepler.
AMD´s High End muss gegen Nvidia Performancekarten ran.

Kriton
2014-09-06, 20:18:13
Damals hatten sie sich aber doch bewusst von der Big-Chip-Strategie abgewendet und High-End nur noch als Doppelkarte realisiert (beginnend mit der 4800er-Reihe) wenn ich nicht irre?

Blediator16
2014-09-06, 20:25:15
Man kann so viel Mainstream vs- Highend reden wie man will es stimmt einfach nicht. Jetzt wäre es dann scheinbar so, dass AMDs Midrange gegen NVs Highend steht der Analogie nach und dabei sehr gut aussieht.

Schaffe89
2014-09-06, 20:27:01
Hawai soll Midrange sein?

Botcruscher
2014-09-06, 20:32:58
Vom Preis auf jeden Fall. 330€ Startpreis für die 290 gegen 450+ für eine 780...

Blediator16
2014-09-06, 20:38:14
Klar ist doch kleiner als der GK110. Oder wieso wird ständig von Highend und Midrange bei tahiti und gk104 geredet.

ilibilly
2014-09-06, 21:09:30
Kommt auf die Sichtweise an,Preis/Spielefps hat amd die Nase vorn,Nvidia Leistung pro Watt.
Den meisten gamern dürfte aber wohl die fps mehr interessieren,und da tritt momentan eine gtx 780 gegen eine r290x an,und Fijis wird preislich wohl mit gtx 970 konkurrieren.
Bei der 980 geh ich mal von 500€ und mehr aus die 870 dürfte wohl 400€ kosten.
Und da interessiert am Ende nicht die Die Größe sondern die Leistung für dasselbe Geld.

ndrs
2014-09-06, 21:11:26
Klar ist doch kleiner als der GK110. Oder wieso wird ständig von Highend und Midrange bei tahiti und gk104 geredet.
Weil Tahiti zu dem Zeitpunkt das obere Ende (High End) bei AMD war. Dass bei nV über dem GK104 noch was kommt war von Anfang an bekannt.

Timbaloo
2014-09-06, 21:14:10
Und wenn die 980 die 780ti schlägt ist sie die 980 zu dem Zeitpunkt Highend, was auch sonst?

boxleitnerb
2014-09-06, 21:25:38
Nö, weiterhin midrange. Fallt doch nicht auf das Marketing rein. Dann wäre die 980 immer Highend, egal ob sie die 780 Ti um 1 oder 100% schlägt.
Ich mache Highend und Midrange nach wie vor an den Chipcharakteristika fest. GK104 ist midrange, GK110 ist Highend, Hawaii ist Highend und GM204 ist eben ein Midrange "Refresh" bzw. eine Next-Gen-Midrange. Würden keine Gx100/Gx200 existieren, wäre das anders, aber sie existieren eben seit Jahren. Deal with it ;)

Tesseract
2014-09-06, 21:43:24
Ich mache Highend und Midrange nach wie vor an den Chipcharakteristika fest.

das thema hatten wir schon gefühlte 100 mal: es gibt keine allgemeingültige definition von high-end. der begriff kann sich auf den materialeinsatz, den technischen stand, den herstellungsaufwand, die qualität oder sogar den preis beziehen. was das chipdesign angeht ist jeder maxwell "higher-end" als kepler, was die kosten bzw. den technischen anspruch an die fertigung angeht hingegen nicht unbedingt. ihr streitet um des kaisers bart.

memoal
2014-09-06, 22:20:58
Bei der 980 geh ich mal von 500€ und mehr aus die 870 dürfte wohl 400€ kosten.Und da interessiert am Ende nicht die Die Größe sondern die Leistung für dasselbe Geld.
Könnte aber sein das es ganz anders kommt, wenn das Die deutlich kleiner wird als bei GK110 (b). Und das zeichnet sich ab. Da könnte die 970 bei 349-379 liegen und die 980 bei 449-479. Dann bleibt noch Platz nach oben für die 980ti und nach unten für eine 960ti auf GM204 (192bit) Basis.

Hübie
2014-09-06, 22:28:42
Könnte aber sein das es ganz anders kommt, wenn das Die deutlich kleiner wird als bei GK110 (b). Und das zeichnet sich ab. Da könnte die 970 bei 349-379 liegen und die 980 bei 449-479. Dann bleibt noch Platz nach oben für die 980ti und nach unten für eine 960ti auf GM204 (192bit) Basis.

Hahahaa.. Der war gut :biggrin: DAS will ich sehen.

@Tesseract: Amen. Ich glaub den beiden fehlt GesprächsStoff X-D

memoal
2014-09-06, 22:44:18
DAS will ich sehen.
Wer weiss, der GK104 ala GTX680 lag bei 499$ und fiel dann sehr schnell auf 449$, immerhin kann AMD mit etwas weniger Perfomance, bei den Preisen mit Hawaii glänzen! Zudem handelt es sich um reine Spiele-GPU, wie eben dem GK104. Wäre natürlich der Hammer. :D

Timbaloo
2014-09-06, 23:21:12
Nö, weiterhin midrange. Fallt doch nicht auf das Marketing rein. Dann wäre die 980 immer Highend, egal ob sie die 780 Ti um 1 oder 100% schlägt.
Also wäre nach deiner Logik der langsamere Chip (GK110) Highend, der schnellere (GM204) Midrange?

Und das auf Marketing reinfallen kannst du dir gerne sparen, ich weiss schon, dass GM204 nicht die Tsar-Bombe der Grafikkartenentwicklung ist.

dildo4u
2014-09-07, 02:57:30
Hier scheint noch was geleaked zu sein,Firestrike in 1080p.

Achtung es wurde die GPU Score(12600) als Grundlage genommen,die Overall Score ist niedriger.
http://videocardz.com/52166/nvidia-geforce-gtx-980-gtx-970-gtx-980m-gtx-970m-3dmark-performance

Das Notebook ist schneller weil's 2 GPU's nutzt.GPU Score 18500 im SLI,980m scheint der voller Chip zu sein nur das der Speichertakt massiv reduziert wurde.

-/\-CruNcher-/\-
2014-09-07, 03:11:04
Das bild wird klarer man greift die 290x mit der 970 an und das für wahrscheinlich round about den selben preis :)

380€ vs ~400€ bei ich nehme an ~-200W

Ich hör huang jetzt schon Titan Performance for Half the Price and lower consumption sprechen auch wenn das ja schon sein Marketing für die 780 TI war ;)

die Performance der 780 TI kann man wahrscheinlich ohne grosen Aufwand ereichen, allerdings darf man nicht vergessen nix auf bios ebene möglich bis jetzt ist man voll an hersteller biose gebunden, was bedeutet die werden wohl wieder ein paar cent mehr aus OC versionen rauskloppen :)

Vielleicht werden die OC versionen ja schon die 780 TI ereichen, das ist mal interessant man sieht zwar das sie es verhindern wollten aber 780 TI scheint kein value mehr zu besitzen von heute auf morgen, dieses künstliche datenbank schöntakten bringt da auch nix das versuchen zu verschleiern.

für 400€ eine 780 TI bei einem Verbrauch von ~200W der real wohlmöglich sogar noch drunter liegt und 1 GB mehr heidewitzka kein schlechtes Value von Nvidia diesmal :)

Selten das Nvidia gleich 2 Karten zersäbelt wenn die daten stimmen praktisch die GTX 780 und 780 TI :)

allerdings bin ich mir mit den 400€ nicht sicher könnten auch exakt 380€ sein oder vielleicht sogar weniger ?

Dieser Kampf der momentan hier anfängt kann ruhig weitergehen, also AMD das könnt ihr euch doch nicht gefallen lassen *g*

mczak
2014-09-07, 03:48:54
Laut dem Tonga Test eignet sich der Color Fill Test dazu zu sehen wie gut die Effektive Bandbreite arbeitet.

http://techreport.com/review/26997/amd-radeon-r9-285-graphics-card-reviewed/2

http://abload.de/img/750dkoup.jpg

http://www.ixbt.com/video3/gm107-part2.shtml

260X hat laut Specs 96GB/Sec,die 650 TI Boost 144GB und die GTX 750 TI 86 GB/sec

http://techreport.com/review/26050/nvidia-geforce-gtx-750-ti-maxwell-graphics-processor/3
Gibt ja auch noch die Werte von hardware.fr: http://www.hardware.fr/articles/916-4/performances-theoriques-pixels.html - auch Sea Islands konnte da ja offenbar schon ein paar Tricks punkto Kompression, wieso das allerdings beim ixbt 3dmark Color Fill Test nicht sichtbar wird weiss ich nicht. Bei den hardware.fr Werten sieht man übrigens beim gm107 auch nicht so genau wie effektiv die Komprimierung ist, weil die Komprimierung locker gut genug ist dass der Wert gar nicht mehr durch die Bandbreite begrenzt ist.

Leonidas
2014-09-07, 05:02:41
3DMark11(Performance) ist CPU limitiert und nicht brauchbar,der Standardtest läuft nur in 720p.


Korrekt. Irgendeine überkandidelte CPU dazu und man erzielt spielend Spitzenwerte.


Und zu dem Extreme-Wert (+11% gegenüber 780Ti) hab ich im Text deutlich vermerkt, daß die 3DMark-Messungen darüber täuschen können, wie das Verhältnis unter realen Spielen aussieht. Hab mir sogar verkniffen, die +11% ausformuliert hinzuschreiben.

Höhnangst
2014-09-07, 08:02:36
Vielleicht so?


GTX 970
Preis: 449
Leistung: 780 Ti - 10 %
Verbrauch: 180 W


GTX 980
Preis: 549
Leistung: 780 Ti + 5 %
Verbrauch: 210 W

hasebaer
2014-09-07, 08:17:01
Die üblichen minimum +5% wird die 980 schon vor der 780Ti landen @stock.
Das OC Potential wird bei ~ 200W TDP sehr ordentlich sein, sofern das BIOS mindestens 120% für Powertarget zulässt.
Und wenn man nur so hoch geht wie man muss, wird der Verbrauchsunterschied zur 290X und auch zur 780Ti, unter Last um so markanter.

Ich hoffe ja, MSI knallt den exakt gleichen fünf Heatpipe Kühler auf die 980, wie schon bei der 780Ti und spart nichts ein, wie zuletzt bei der HD 7950 ggü. der R9 285. :nono:

AnarchX
2014-09-07, 09:42:13
Hier scheint noch was geleaked zu sein,Firestrike in 1080p.

Achtung es wurde die GPU Score(12600) als Grundlage genommen,die Overall Score ist niedriger.
http://videocardz.com/52166/nvidia-geforce-gtx-980-gtx-970-gtx-980m-gtx-970m-3dmark-performance

Das Notebook ist schneller weil's 2 GPU's nutzt.GPU Score 18500 im SLI,980m scheint der voller Chip zu sein nur das der Speichertakt massiv reduziert wurde.


GTX 980 125 1
GTX 970 102 0,816
GTX 980 93 0,744
GTX 970M 74 0,592


Wenn die 980 16 SMM haben sollte, könnte es mit 10 SMM für N16E-GT/970M fast hinkommen.
Ob die 980M wirklich schon einen vollen GM204 hat, ist wohl bei den Taktraten zu bezweifeln. Und bei NV war es durchaus üblich hier nicht immer ganz in den vollen zu gehen bei Mobile. 13-14 SMM wäre wohl passend ausgehend von der N16E-GT mit 10 SMM.

Angiesan
2014-09-07, 11:29:29
Ich möchte mal folgende Überlegen einbringen:

GM 204 wird mit 2048 Shader Einheiten kommen, diese arbeiten bis zu 30% effektiver wie die des Vorgängers.
Der Unterschied zu GK 110 in der reinen Anzahl ist 40% weniger, also muss mehr Takt her, was einfach sein sollte, da der Chip relativ schmal ist.

Was auf der anderen Seite aber bedeuten wird das der OC Spielraum wohl nach unten gehen wird, da der Fertigungsprozess ja der gleich bleibt.
Würde wiederum bedeuten, dass das was man aktuell schon sehen kann bei GM 204 wohl auch greifen wird, ab 1200 MHz wird es zur Lotterie und wird trotz deutlich besserer Effizienz nicht mehr ohne weiteres wegzukühlen sein.
ergo kann jeder der einen gut gehenden GK 110 sein eigen nennt locker in die Entspannungslage gehen.

Mir hat im übrigen ein i.d.R. sehr sehr gut informierter Bekannter zugerufen, dass GM 200 nicht unter $1000,-- kommen wird, dann glaube ich nicht an die hier postulierten Preise für GM204, aber ich lasse mich gerne überraschen ;)

AnarchX
2014-09-07, 11:40:55
ergo kann jeder der einen gut gehenden GK 110 sein eigen nennt locker in die Entspannungslage gehen.

Wer hat auch etwas Anderes erwartet bei einem GM204?
Einzig GTX 780 Besitzer der ersten Stunde, mit Interesse an etwas Neuem, könnten wohl mit einem zeitnahen Verkauf auf eine Karte mit 1GiB mehr RAM und neuerem Feature-Set relativ günstig aufrüsten.

dildo4u
2014-09-07, 11:44:51
Unter 4K muss sich was tun NV versagt dort auch mit dem GK110.Ich wette wir sehen nur 4K Benches von NV,die die 3GB der 780TI vollhauen um maximale Gewinne aufzuzeigen.

hasebaer
2014-09-07, 11:49:43
Ich möchte mal folgende Überlegen einbringen:

GM 204 wird mit 2048 Shader Einheiten kommen, diese arbeiten bis zu 30% effektiver wie die des Vorgängers.

2048 Maxwell Kerne * 1,35 = 2764 Kepler Kerne
Eine 780Ti hat 2880 Kepler Kerne @ 875Mhz, macht knapp 5% mehr.
Ergo braucht GM204 nur 10-15% mehr Takt, 962 bis 1006 Mhz Basistakt, um auf +5% Vorsprung zur 780Ti zukommen.
Von der GTX 750Ti gibt es Partnerkarten bis knapp 1300Mhz Boost.

boxleitnerb
2014-09-07, 11:49:46
Versagt? Wegen dem Speicher?

dildo4u
2014-09-07, 11:52:37
Versagt? Wegen dem Speicher?
Nein nicht nur allgemein holt AMD auf je höher die Auflösung ist,bei 4K hat man meistens nur noch ein Gleichstand zwischen 290X und 780TI.

1080p
http://www.computerbase.de/2014-08/grafikkarten-2014-im-vergleich-sommerausgabe/2/

4k
http://www.computerbase.de/2014-08/grafikkarten-2014-im-vergleich-sommerausgabe/4/

fondness
2014-09-07, 11:54:33
Eigentlich hat NV speziell bei niedrigen Auflösungen einen Vorteil wegen der feineren Granularität, daran hat sich mit Maxwell nichts geändert, deshalb werden nach wie vor die AMD-Karten weniger Leistung verlieren mit steigender Auflösung.

AnarchX
2014-09-07, 11:55:57
Fragt sich nur ob GM204 da etwas reißen kann, das Konzept ist ja eher auf effektive Auslastung ausgelegt. Und der AMD Vorteil in 4K stammt wohl eher daraus, dass in diesem Bereich die hohe theoretische Leistung hinter dem Front-End durchschlägt.

fondness
2014-09-07, 11:57:32
Nein nicht nur allgemein holt AMD auf je höher die Auflösung ist,bei 4K hat man meistens nur noch ein Gleichstand zwischen 290X und 780TI.

1080p
http://www.computerbase.de/2014-08/grafikkarten-2014-im-vergleich-sommerausgabe/2/

4k
http://www.computerbase.de/2014-08/grafikkarten-2014-im-vergleich-sommerausgabe/4/

Was genau ist eine 290X (Max)? Uber-Mode? Dann kann man die andere vergessen, jedes Custom-Design hält den Takt.

Außerdem kommt bei 1080p noch dazu das der NV-Treiber bei machen Games weniger Overhead erzeugt und CB Thief und BF4 nicht mit Mantle bencht.

aufkrawall
2014-09-07, 11:57:53
Wie soll GM204 da sich weiter abheben?
Der VRAM in 4k ist häufig erst durch MSAA so voll, dass es einen ernsthaften Einschnitt bei den fps durch VRAM-Mangel gibt.
Und MSAA bei hoher Auflösung kostet nicht zu knapp Bandbreite. Ob das der Cache komplett kompensieren kann?

dildo4u
2014-09-07, 12:00:54
Fragt sich nur ob GM204 da etwas reißen kann, das Konzept ist ja eher auf effektive Auslastung ausgelegt. Und der AMD Vorteil in 4K stammt wohl eher daraus, dass in diesem Bereich die hohe theoretische Leistung hinter dem Front-End durchschlägt.

Laut den 750 Test's nutzt Maxwell die Theoretische Leistung ja auch besser als Kepler.

750(1Tflop) schneller als 650TI.(1.4TFlop)

http://www.computerbase.de/2014-02/nvidia-geforce-gtx-750-ti-maxwell-test/5/

Quelle
http://de.wikipedia.org/wiki/Nvidia-Geforce-700-Serie

http://de.wikipedia.org/wiki/Nvidia-Geforce-600-Serie

boxleitnerb
2014-09-07, 12:03:05
Nein nicht nur allgemein holt AMD auf je höher die Auflösung ist,bei 4K hat man meistens nur noch ein Gleichstand zwischen 290X und 780TI.

1080p
http://www.computerbase.de/2014-08/grafikkarten-2014-im-vergleich-sommerausgabe/2/

4k
http://www.computerbase.de/2014-08/grafikkarten-2014-im-vergleich-sommerausgabe/4/

Ja, das würde ich aber nicht als Versagen sehen. Bei gleicher Rechenleistung leisten sie gleiche Performance.

Laut den 750 Test's nutzt Maxwell die Theoretische Leistung ja auch besser als Kepler.

750(1Tflop) schneller als 650TI.(1.4TFlop)

http://www.computerbase.de/2014-02/nvidia-geforce-gtx-750-ti-maxwell-test/5/

Quelle
http://de.wikipedia.org/wiki/Nvidia-Geforce-700-Serie

http://de.wikipedia.org/wiki/Nvidia-Geforce-600-Serie

Die kleineren Keplers sind wohl doch etwas bandbreitenlimitiert. 650 Ti Boost hat ca. 1.5 TFLOP und 144 GB/s und ist so schnell wie die 750 Ti, vielleicht sogar einen Tick schneller.

Wo kommen dann die 35% mehr Effizienz pro FLOP rum? Perf/W und Perf/GB/s ja, aber Perf/FLOP...muss man genauer beleuchten.

dildo4u
2014-09-07, 12:04:27
Die Karte kostet halt mehr das meine ich,der Aufpreis ist einfach zu hoch vorallem da sie weniger Vram hat.Die 980 wird das ja alles berichtigen.

fondness
2014-09-07, 12:04:47
Ja, das würde ich aber nicht als Versagen sehen. Bei gleicher Rechenleistung leisten sie gleiche Performance.

Naja die 780Ti (Max) taktet wohl höher als die 290X bei mehr SPs.

boxleitnerb
2014-09-07, 12:07:42
Naja die 780Ti (Max) taktet wohl höher als die 290X bei mehr SPs.

993 bis 1006 MHz und 2% mehr SPs. Das ist jetzt wirklich unnötige Korinthenkackerei.

dildo4u
2014-09-07, 12:10:17
Ich wollte nix anstacheln der alte Ramsch ist ja auch nicht das Thema wollte nur aufzeigen wo NV es besser machen muss.

fondness
2014-09-07, 12:11:19
993 bis 1006 MHz und 2% mehr SPs. Das ist jetzt wirklich unnötige Korinthenkackerei.

Okay wenns nicht mehr ist, dachte der Takt liegt höher.

Mancko
2014-09-07, 12:20:02
Also wennn die 15000 Punkte im 3D Mark stimmen, wird Nvidia AMD in den Boden stampfen.

??????
Wie ist das denn gemeint. Performance mäßig im Desktop doch eher nicht oder? Wahrscheinlich bessere Performance pro Watt und auch niedrigerer Verbrauch und ggf. günstigere Fertigungskosten. Aber reine übermäßig deutlich höhere Single GPU Karten Performance ist ja jetzt nicht zu erwarten oder?
Ok für eine Dual Karte wäre es wahrscheinlich sehr interessant, da das Power Budget wahrscheinlich einiges für Nvidia an Luft nach oben bringen wird.

Im Mobile Bereich bin ich dagegen bei Dir. Da schauts, sofern die Daten einigermaßen stimmen, nicht so gut aus für AMD. Da wäre Nvidia erheblich enteilt.

Angiesan
2014-09-07, 12:33:29
2048 Maxwell Kerne * 1,35 = 2764 Kepler Kerne
Eine 780Ti hat 2880 Kepler Kerne @ 875Mhz, macht knapp 5% mehr.
Ergo braucht GM204 nur 10-15% mehr Takt, 962 bis 1006 Mhz Basistakt, um auf +5% Vorsprung zur 780Ti zukommen.
Von der GTX 750Ti gibt es Partnerkarten bis knapp 1300Mhz Boost.

Ja das gibt es auch von der GK 106 GTX 660 und von der GK 104 aka GTX 770 dort gibt es auch Partnerkarten die bis 1250 MHz takten also was bis auf die Effizienz erwarte ich hier, gar nix?! Denn das kann ich alles auch auf AMD übertragen, mehr wie die 1200 MHz gehen i.d.R. nicht stabil ich habe genug Karten hier gehabt und habe zum Teil noch einige hier, egal wer sie baut 1200 MHz ist unter 28 nm der Sweet-Spot darüber wird es zumindest unter Luft immer wackelig und selbst das schafft längst nicht jede Karte.

Knuddelbearli
2014-09-07, 12:40:33
hmm ging 750TI nicht deutlich über 1200MHz?

aufkrawall
2014-09-07, 12:42:23
Bei PCGH ohne TDP-Limit und afair mit Vcore-Erhöhung auf 1,4Ghz.

mironicus
2014-09-07, 12:46:43
http://videocardz.com/52166/nvidia-geforce-gtx-980-gtx-970-gtx-980m-gtx-970m-3dmark-performance
http://www.computerbase.de/2014-09/benchmarks-von-nvidia-geforce-gtx-980-m-970-m/

GTX 980 ist völlig identisch in der Geschwindigkeit mit der 780 Ti bei gleichem Takt/Speicher.

AnarchX
2014-09-07, 12:51:40
3DMark Link der GTX 980: http://www.3dmark.com/fs/2701047

Vielleicht hat jemand noch ein paar Werte der 780 Ti die man den "Detailed Scores" gegenüberstellen kann.

aufkrawall
2014-09-07, 12:51:41
Dann könntens bei Referenztakten +20% zur 780 Ti sein. :)
Also etwa so wie GTX 580 -> Radeon 7970.

mironicus
2014-09-07, 12:53:00
Meint ihr wirklich, dass NVidia die GTX 980 mit so hoher Taktrate veröffentlicht, weil das gibt ja kaum noch Spielraum nach oben. Ich bezweifele es.

AnarchX
2014-09-07, 12:55:04
Meint ihr wirklich, dass NVidia die GTX 980 mit so hoher Taktrate veröffentlicht, weil das gibt ja kaum noch Spielraum nach oben. Ich bezweifele es.
Für Spielraum nach oben ist doch noch GM200 bzw. eine eventuelle Dual-GM204-Lösung da.
Und wer weiß ob die GTX 980 wirklich alle SMM aktiv hat.

boxleitnerb
2014-09-07, 12:59:30
Was ich mich übrigens frage:
Effizienz ist ja schön und gut und in 28 nm ist es eine beeindruckende Leistung...aber man nimmt damit ja etwas vorweg. Das ist wie wenn man die Kepler-Technik in 40 nm gebracht hätte und dann den Shrink erst. Es kann mir keiner erzählen, dass man mit dem Shrink alleine 80-100% bessere Perf/W erreicht hätte.
Was wir heute sehen, wird morgen in 16 nm FF evtl. fehlen?

dildo4u
2014-09-07, 13:02:51
Selbst wenn Performance Pro Shadercore gleich bleibt,kannste doch wesentlich mehr davon unterbringen in 16nm,außerdem kannste dann auch die Caches noch mal vergrößern was vermutlich ne bessere pro Core Leistung ermöglicht.Das macht Intel doch auch bei den CPU's die High-End Modelle haben jetzt 20mb Cache.

fondness
2014-09-07, 13:17:32
Wenn der Base-Takt tatsächlich bei 1.127 MHz liegt kann die Leistung schon hinkommen. Allerdings läuft das Ding dann wohl wie die GTX770 an der Kotzgrenze während eine 780Ti noch ordentlich Luft hat.

AnarchX
2014-09-07, 13:24:27
Wenn der Base-Takt tatsächlich bei 1.127 MHz liegt kann die Leistung schon hinkommen. Allerdings läuft das Ding dann wohl wie die GTX770 an der Kotzgrenze während eine 780Ti noch ordentlich Luft hat.
Wer weiß wie der Boost auf GM2xx funktioniert. Vielleicht hat man nun auch ein AMD-artiges Konzept mit GPU-interner Messung und Senkung von einem Basis-Takt.

fondness
2014-09-07, 13:25:44
Nachdem es bei GM107 nicht so ist, ist die Wahrscheinlichkeit dafür nicht gerade hoch. GM2xx wird nach den paar Monaten wohl kaum tiefgreifende Änderungen mit bringen.

dildo4u
2014-09-07, 13:26:21
Wenn der Base-Takt tatsächlich bei 1.127 MHz liegt kann die Leistung schon hinkommen. Allerdings läuft das Ding dann wohl wie die GTX770 an der Kotzgrenze während eine 780Ti noch ordentlich Luft hat.
Der Chip geht vermutlich deutlich höher die Grenze ist das niedrige TDP Limit.
Die Frage ist halt ob NV OC Karten mit 250TDP zulässt oder ob man big Maxwell beschützen will.

AnarchX
2014-09-07, 13:27:25
Nachdem es bei GM107 nicht so ist, ist die Wahrscheinlichkeit dafür nicht gerade hoch. GM2xx wird nach den paar Monaten wohl kaum tiefgreifende Änderungen mit bringen.
Zwischen GM107 Prototyping (1.7.13) und den ersten GM204 Chips lag fast ein Jahr.

Auch die mobilen Taktraten sind ja mit ~1GHz relativ hoch.

mironicus
2014-09-07, 13:29:37
Nicht schneller als die alten Karten und die Positionierung ist klar: R290/R290x. Die Preise dürften ähnlich sein. 350-499 Euro maximal.

fondness
2014-09-07, 13:30:05
Was verstehst du unter Prototyping? Einen kleineren Chip sollte man schneller auf den Markt bringen können wie einen großen und die effektive Markteinführung ist keine 6 Monate auseinander.

aufkrawall
2014-09-07, 13:31:11
Der Chip geht vermutlich deutlich höher die Grenze ist das niedrige TDP Limit.

Das halte ich auch für wahrscheinlich.
Eine 780 Ti mit 1,25Ghz zieht gerne mal 330W, das sollte man nicht vergessen.

Ailuros
2014-09-07, 13:32:33
Taktung ist die genau gleiche Masche wie bei der 750/750Ti. Default konservativ für niedrige TDP, und vendors veröffentlichen das was ihnen am besten schmeckt. Der boost ist schon glaub ich über 1100.

fondness
2014-09-07, 13:35:03
Taktung ist die genau gleiche Masche wie bei der 750/750Ti. Default konservativ für niedrige TDP, und vendors veröffentlichen das was ihnen am besten schmeckt. Der boost ist schon glaub ich über 1100.

Stimmt das könnte bereits ein Custom-Modell mit höheren Taktraten und höherer TDP gewesen sein.

dildo4u
2014-09-07, 13:36:02
750Ti gibt's mit 1.3GHz Boost denke mal im den Bereich wirds gehen.

https://geizhals.de/gigabyte-geforce-gtx-750-ti-windforce-2x-oc-1215mhz-gv-n75twf2oc-2gi-a1094361.html

AffenJack
2014-09-07, 13:36:03
Was ich mich übrigens frage:
Effizienz ist ja schön und gut und in 28 nm ist es eine beeindruckende Leistung...aber man nimmt damit ja etwas vorweg. Das ist wie wenn man die Kepler-Technik in 40 nm gebracht hätte und dann den Shrink erst. Es kann mir keiner erzählen, dass man mit dem Shrink alleine 80-100% bessere Perf/W erreicht hätte.
Was wir heute sehen, wird morgen in 16 nm FF evtl. fehlen?

Eine merkwürdige Ansicht in meinen Augen. Klar der Sprung mit 16FF wäre nochmal deutlich größer, aber was fehlen naja. Dafür kriegst du bei 16FF stacked Memory. Das wäre sonst wohl erst mit 10nm gekommen.

Hübie
2014-09-07, 13:38:05
Wenn der Base-Takt tatsächlich bei 1.127 MHz liegt kann die Leistung schon hinkommen. Allerdings läuft das Ding dann wohl wie die GTX770 an der Kotzgrenze während eine 780Ti noch ordentlich Luft hat.

Überraschenderweise kenne ich kaum eine 770 die keine 1280 mit macht. Meine beiden machen 1333 bzw. 1320 und halten diesen. Wenn die 980 mit irgendwas um die 1100 MHz antritt bleibt wohl dennoch Raum.

http://www.abload.de/thumb/uvq9b.jpg (http://www.abload.de/image.php?img=uvq9b.jpg)

boxleitnerb
2014-09-07, 13:39:22
Taktung ist die genau gleiche Masche wie bei der 750/750Ti. Default konservativ für niedrige TDP, und vendors veröffentlichen das was ihnen am besten schmeckt. Der boost ist schon glaub ich über 1100.

Ist die Frage ob man einen Riegel vorgeschoben hat (schwache Spannungsversorgung bzw. kein Overvolting möglich, kein veränderbares Powertarget). Könnte ich mir gut vorstellen.

Eine merkwürdige Ansicht in meinen Augen. Klar der Sprung mit 16FF wäre nochmal deutlich größer, aber was fehlen naja. Dafür kriegst du bei 16FF stacked Memory. Das wäre sonst wohl erst mit 10nm gekommen.

Wieso? Ich meine ja nur, dass man den Architektursprung nur einmal bekommt. Und wenn er schon durch ist, könnte Pascal ernüchternder ausfallen als wenn man Maxwell jetzt ausgelassen hätte.

Ailuros
2014-09-07, 13:43:22
Eine merkwürdige Ansicht in meinen Augen. Klar der Sprung mit 16FF wäre nochmal deutlich größer, aber was fehlen naja. Dafür kriegst du bei 16FF stacked Memory. Das wäre sonst wohl erst mit 10nm gekommen.

Ich Frage mich eher was ein hypothetischer Maxwell-shrink in 16FF genau tolles bringen soll.

Konami
2014-09-07, 13:51:26
Pascal wurde eh als zusätzlicher Schritt vor Volta eingeschoben, wenn ich das richtig sehe. Das könnte durchaus den Grund haben, dass er "bald" (Anfang 2016) verfügbar sein muss, um 28nm-Maxwell direkt abzulösen.

boxleitnerb
2014-09-07, 13:52:55
Ich Frage mich eher was ein hypothetischer Maxwell-shrink in 16FF genau tolles bringen soll.

Shrink + neue Architektur gleichzeitig -> Verdopplung von Perf/W (wie bei Fermi -> Kepler). Nur neue Architektur (Maxwell) -> evtl. weniger.

Ailuros
2014-09-07, 13:54:08
Pascal wurde eh als zusätzlicher Schritt vor Volta eingeschoben, wenn ich das richtig sehe. Das könnte durchaus den Grund haben, dass er "bald" (Anfang 2016) verfügbar sein muss, um 28nm-Maxwell direkt abzulösen.

Ist zwar OT aber ich würde für vor Q2 keine Wetten eingehen und schon das ist gewagt.

Ailuros
2014-09-07, 13:58:10
Shrink + neue Architektur gleichzeitig -> Verdopplung von Perf/W (wie bei Fermi -> Kepler). Nur neue Architektur (Maxwell) -> evtl. weniger.

16FF wird ziemlich teuer sein. Für die schätzungsweise +40% im allerbesten Fall lohnt sich ein shrink nicht wirklich IMHO. Ausser einem GM200 refresh mit N mehr clusters.

AnarchX
2014-09-07, 14:01:22
Laut dem hier folgt GM200 wohl direkt GP100: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10324272#post10324272
... und nachdem das Paper nochmal nach meinem Fund nachbearbeitet wurde, kann man die Daten wohl durchaus als glaubwürdig einschätzen.

Da wird man sich 2015 wohl mit den drei GM2xx und AMDs Big-Chip + Tonga begnügen müssen?

boxleitnerb
2014-09-07, 14:01:56
Was hat denn 28 nm allein vs. 40 nm gebracht? Soviel besser, dass es sich da gelohnt hat?

Ailuros
2014-09-07, 14:30:47
Was hat denn 28 nm allein vs. 40 nm gebracht? Soviel besser, dass es sich da gelohnt hat?
Nochmal von Anfang an: ich Frage was ein Maxwell shrink unter 16FF tolles bringen soll. Für 28nm als testchip schrumpfte NV einen GF110 auf 28HP, es kam nie zum tape out und das Ding sah ziemlich lahm im Vergleich zu Kepler aus. Jetzt frag mich nochmal die gleiche Frage wie oben....

boxleitnerb
2014-09-07, 14:34:42
Nochmal von Anfang an: ich Frage was ein Maxwell shrink unter 16FF tolles bringen soll. Für 28nm als testchip schrumpfte NV einen GK110 auf 28HP, es kam nie zum tape out und das Ding sah ziemlich lahm im Vergleich zu Kepler aus. Jetzt frag mich nochmal die gleiche Frage wie oben....

Heißt im Klartext:
Bezogen auf Perf/W gilt tendenziell Architektur >> neuer Fertigungsprozess.
Der Prozess selbst verbessert primär Perf/mm2.
Korrekt?

Hübie
2014-09-07, 14:35:18
Du meinst sicher GF110 ;D
@Box: Kann man so unterschreiben. Das gilt aber nicht uneingeschränkt rückwirkend. 28HP->20nm sollen bei ca 33% mehr Leistung bei gleichen Konditionen bringen wenn man dem Marketing von TSMC glauben darf (und falls ich mich richtig erinnere). Das setzt du dann eher in geringerem Energiebedarf um, weil man powerbudgets
hat.
Ich meine sogar dass es mobile Fermis unter 28nm gibt/gab. Kannst ja mal googlen :)
Ein 28-nm-wafer wirft mittlerweile genug ab und kostet bei weitem nicht mehr so viel wie 2011/2012. Schätze nVidia zahlt da um die 4.500 $ (afaik liegt ein GK110 bei 92$). Angaben ohne Gewehr...Gewähr ;D

Ailuros
2014-09-07, 14:44:42
Heißt im Klartext:
Bezogen auf Perf/W gilt tendenziell Architektur >> neuer Fertigungsprozess.
Der Prozess selbst verbessert primär Perf/mm2.
Korrekt?

Ich sag mal ja um Zeit zu sparen, ergo was soll ein 16FF Maxwell shrink genau tolles bringen?

Huebie,
Ja danke.

boxleitnerb
2014-09-07, 14:48:19
Ich sag mal ja um Zeit zu sparen, ergo was soll ein 16FF Maxwell shrink genau tolles bringen?

1) und/oder 2):

1) Etwas bessere Energieeffizienz -> höherer Takt bei gleicher TDP möglich -> mehr Performance.
2) Kleinere Transistoren -> mehr Einheiten möglich bei gleichem oder niedrigerem Takt -> mehr Performance

Wie immer eben?

Thunder99
2014-09-07, 14:58:42
Was für ein Feature Set wird denn nun Maxwell mit sich bringen?

D3D 11_2 oder doch nur wieder 11_0 oder schon 12_0 in HW?

Ailuros
2014-09-07, 15:04:28
1) und/oder 2):

1) Etwas bessere Energieeffizienz -> höherer Takt bei gleicher TDP möglich -> mehr Performance.
2) Kleinere Transistoren -> mehr Einheiten möglich bei gleichem oder niedrigerem Takt -> mehr Performance

Wie immer eben?

Wobei die hoeheren Herstellungskosten es immer noch gerechtfertigten oder? Diese sind um ca 50% hoeher pro wafer andere Kosten mall abgesehen. Zeig mir den so "offensichtlichen" Gewinn doch einfach.

Knuddelbearli
2014-09-07, 15:04:48
alles außer 11.2b wäre peinlich ...

also vermutlich 11.0 ^^

M4xw0lf
2014-09-07, 15:05:55
alles außer 11.2b wäre peinlich ...

also vermutlich 11.0 ^^
Auf der Packung wird 12 stehen, also hört auf Fragen zu stellen :freak:

aufkrawall
2014-09-07, 15:07:23
Was für ein Feature Set wird denn nun Maxwell mit sich bringen?

D3D 11_2 oder doch nur wieder 11_0 oder schon 12_0 in HW?
Auf den Slides von NV wurde explizit DX12 als einziger Meilenstein für Maxwell (2.0) genannt (neben mehr DP).
Wäre sehr komisch, wenn das nicht FL 11_2 Tier 2 beinhalten würde.

fondness
2014-09-07, 15:26:34
Auf den Slides von NV wurde explizit DX12 als einziger Meilenstein für Maxwell (2.0) genannt (neben mehr DP).

Das könnte auch bedeuten das es einfach keine Meilensteine gibt, DX12 stand immerhin auch schon bei der TITAN Z :weg:

memoal
2014-09-07, 15:33:33
Mir hat im übrigen ein i.d.R. sehr sehr gut informierter Bekannter zugerufen, dass GM 200 nicht unter $1000,-- kommen wird, dann glaube ich nicht an die hier postulierten Preise für GM204, aber ich lasse mich gerne überraschen ;)
Was ist daran neu, eine Titan für 1000$ kaufen zu müssen? Nach unten ist aber noch Luft. Ala 1080, 1080ti, wo soll man sonst mit dem Ausschuss hin? Zuallererst ist GM 200 wohl Ersatz im professionellen Umfeld.

Wenn nVidia den GM204 für überzogene Preise bringt wärs idiotisch sowas zu kaufen (wegen PhysX sicher nicht), AMD hat das gleiche Leistungsangebot für dann deutlich weniger

290 (330-375Euro)=970
290x(395-425 Euro)=980

Die OC Varianten dürften wohl mithalten können, zu dann deutlich niedrigeren Preisen. Ich glaube nicht das die 780ti generell default geschlagen wird. Selbst die 780-OC mit mittlerweile 1071Mhz Boost wird mit der 970 gut mithalten können, die liegt auch schon auf Titan Niveau und man bekommt sie mit 6GB.

Ich denke nicht das man einen GTX680-770 Besitzer (Performance-Class-Karte) übereden kann, wegen etwas besserer Effizienz und 2GB VRam mehr eine Karte für den doppelten Anschaffungspreis zu erwerben.

Ich würde das jedenfalls nicht bezahlen. Ich kann mir höchstens vorstellen das die für den gleichen Preis wie Kepler in den Markt gehen. Hat man bei Fermi vs. Kepler ja auch gesehen, die GTX580 lies kaum im Preis nach, war aber die langsamere Karte, das ist diesmal womöglich aber nicht der Fall. Sondern die könnten gleichauf liegen.

Nur dann wäre man wohl Preislich halbwegs konkurrenzfähig. Man darf nicht vergessen das nVidia trotz GT850m und 860m im mobile Segment Federn lassen musste und AMD hier mittlerweile mehr verkauft als nVidia. Denke mal das GM204 (und vielleicht auch GM206) den Mobilebereich im Performance- und Highendbereich von nVidia auch wieder pushen soll.

boxleitnerb
2014-09-07, 15:48:16
Wobei die hoeheren Herstellungskosten es immer noch gerechtfertigten oder? Diese sind um ca 50% hoeher pro wafer andere Kosten mall abgesehen. Zeig mir den so "offensichtlichen" Gewinn doch einfach.

Ich meinte rein technologisch gesehen, nicht wirtschaftlich. Interessiert mich einfach. Irgendwann wird 16 FF auch in erträgliche Regionen rutschen. Ob 2016, 2017, 2018...keine Ahnung :freak: