PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Maxwell - GM1xx (H1/2014) / GM2xx (H2/2014)


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 [27] 28 29 30 31 32 33

Mandalore
2015-01-05, 15:05:29
Ich glaube Maxwell scheint wirklich nicht das zu sein, was es von Nvidia zu Anfang geplant wurde:frown:

Kartenlehrling
2015-01-05, 15:10:13
Adobe Photoshop CC, das hat jahrelang mit Cuda funktioniert und nun unterstüzt es OpenCL.

Intelligentes Upsampling in Rekordzeit

Sie möchten ein Bild mit niedriger Auflösung für den Druck oder ein Bild auf Poster- oder Plakatformat vergrößern?
Intelligente Upsampling-Algorithmen erhalten Details und Schärfen ohne Bildrauschen als Nebeneffekt.

Und dank der OpenCL-beschleunigten Mercury Graphics Engine werden Bilder noch schneller gerendert.

https://helpx.adobe.com/de/photoshop/how-to/new-image-resize-photoshop.html?set=photoshop--whats-new--2014-06

Loeschzwerg
2015-01-05, 15:11:41
@Mandalore: Warum? Weil sich der Fertigungsprozess nur schleppend weiterentwickelt?

Auch wenn NV beim GM200 die DP Einheiten weglassen sollte bzw. muss, so ist das dann immer noch eine super GPU für Gaming.

Timbaloo
2015-01-05, 15:15:36
Es ist ohnehin total albern nur Luxmark als Benchmark für Compute heranzuziehen. Ein Grafikkartenkäufer interessiert sich für die Performance in Spielen. Ein Profi der so eine Karte für die Beschleunigung seiner Anwendung sucht, interessiert sich für die Performance und Unterstützung in seiner entsprechenden Anwendung (die wohl in den meisten Fällen eben nicht LuxRender sein dürfte...).

Luxmark ist imho nur die billigst mögliche Variante damit 0815-Reviewseiten auch "Compute"-Tests zeigen können. Die realen Fragen/Probleme werden gar nicht andiskutiert.

aufkrawall
2015-01-05, 15:17:20
Etwa, dass f@h bei NV im Treiber ständig kaputt ist? :freak:
So was liest man auch nirgends...

AnarchX
2015-01-05, 18:38:50
GM206 Die: http://videocardz.com/54201/exclusive-nvidia-maxwell-gm206-pictured

Ausgehend davon, dass es das 35x35mm Package von GK106-192-Bit ist, wäre der Die nur ~250mm² groß. (Ein Vergleich anhand der weißen Die-Markings, die eigentlich immer gleich groß sind, könnte es auch etwas unter 250mm² sein.)

GM206-300 dürfte wohl die Basis für die etwas langsamere Karte auf GTX 760 Niveau sein: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10470897#post10470897
Hoffentlich beschneidet man die Karte nicht künstlich auf 2GiB, um die 960 Ti/970 besser zu verkaufen.


Update:
http://videocardz.com/54214/exclusive-msi-geforce-gtx-960-gaming-2g-and-gtx-960-100-million-edition-pictured
MSI mit 1x 8-Pin.
Die 150W überspringt die Karte wohl auch ohne Probleme? Bei der GTX 660 hatten selbst die OC-Karten nur 1x 6-Pin.

reaperrr
2015-01-05, 20:32:59
Hoffentlich beschneidet man die Karte nicht künstlich auf 2GiB, um die 960 Ti/970 besser zu verkaufen.
Bei 128-bit SI, und der Radeon 285 als Konkurrenz, würden mich mehr als 2 GB sehr stark überraschen.

Loeschzwerg
2015-01-05, 20:42:25
Update:
http://videocardz.com/54214/exclusive-msi-geforce-gtx-960-gaming-2g-and-gtx-960-100-million-edition-pictured
MSI mit 1x 8-Pin.
Die 150W überspringt die Karte wohl auch ohne Probleme? Bei der GTX 660 hatten selbst die OC-Karten nur 1x 6-Pin.

Die Angabe mit dem 8 Pin kann ich mir nicht so recht vorstellen wenn die "ITX" Versionen der GTX 970 ebenfalls nur mit 1x 8 Pin auskommen.

Das spricht hinten und vorne nicht für den GM206 oder aber die von MSI knüppeln die GPU übertrieben mit mehr Spannung und Takt.

Edit: Habt ihr schon mal auf die Quelle von Videocardz geklickt xD

Hübie
2015-01-06, 05:13:32
Hahahaa. Da hat wohl einer n Clown gefrühstückt X-D

Na ja immerhin eine sehr seriöse Quelle.

Zum 8-Pin: MSI macht doch gerne mal ne Extrawurst. Bin mir sicher dass das Referenzdesign nicht so aussieht. Wobei es da wieder nur was inoffizielles gibt. Wir dürfen uns wohl bald völlig vom Referenzdesign verabschieden (was ich persönlich im Heimanwenderbereich nicht traurig finde ;D).

Meiner Meinung nach sollten die IHV das den Profis überlassen.

eratte
2015-01-06, 10:33:32
Meiner Meinung nach sollten die IHV das den Profis überlassen.

Trommel. :lol:

Air Force One
2015-01-06, 14:52:46
kann man eig. auf die Tests was geben?
http://www.anandtech.com/bench/product/1056?vs=1355

dildo4u
2015-01-06, 15:19:37
Nich wirklich die machen die Benches einmal zum Launch der Karte und testen sie nicht mit neuerem Treibern nach.

Air Force One
2015-01-06, 15:44:56
naja ich bezog mich da eher auf die ganze compute Geschichte, da geht AMD ja teilweise besser ab.

Hab jetzt eine 970er im System und überlege auf eine 290X umzusteigen da ich mit 3DSMAX, Photoshop und etwas Blender arbeite.
Bei letzterem macht es derzeit wenig sind da derzeit nur CUDA unterstützt wird und openCL wohl eingestellt wurde.

Bezweifel das da mit anderen Treibern mehr zu holen ist.

dildo4u
2015-01-06, 15:57:17
Maxwell hat was Single Precision Compute angeht schon ordentlich aufgeholt,viel geben sie sich nicht mehr vorallem wenn man beachtet das die 290X mehr Storm braucht und wie du schon sagst Cuda Support ist nicht zu ersetzen.Eine 970 mit 1.4Ghz braucht vermutlich vergleichbar viel Saft die müsste man gegen die 290X Benchen.

Ailuros
2015-01-06, 16:13:11
Was haben Applikationen wie Photoshop oder 3dsmax genau mit compute zu tun?

ndrs
2015-01-06, 16:32:29
Was haben Applikationen wie Photoshop oder 3dsmax genau mit compute zu tun?
Die laufen doch auf nem compute-r?! :freak:

Ailuros
2015-01-06, 16:44:11
Die laufen doch auf nem compute-r?! :freak:

arghhhhhhhhhhhhhhhhhhhhhhhhh :weg:

Gipsel
2015-01-06, 18:53:05
Was haben Applikationen wie Photoshop oder 3dsmax genau mit compute zu tun?Inzwischen können doch einige Photoshop-Effekte zeitsparend per Compute-Shader auf der GPU berechnet werden statt auf der CPU. Und 3dsmax unterstützt wohl Raytracing über CUDA, keine Ahnung, was es da inzwischen noch gibt (auf OpenCL aufsetzend).

aufkrawall
2015-01-06, 18:59:45
Ich weiß nicht, was hier Einige immer mit "Compute-Schwäche" haben.
Man schaue sich mal die teilweise desaströsen Ergebnisse der Radeons bei Gimp an:
http://www.computerbase.de/2014-09/geforce-gtx-980-970-test-sli-nvidia/9/#diagramm-gpu-computing-the-gimp-286
Aus solchen einzelnen Schwächen muss man keine wilden Ableitungen für eine etwaige Schwäche einer Architektur herholen.
Der ganze Compute-Kram für Endanwender ist völlig unzuverlässig, ständig geht was kaputt (wo auch immer).

Menace
2015-01-06, 19:17:18
Der ganze Compute-Kram für Endanwender ist völlig unzuverlässig, ständig geht was kaputt (wo auch immer).

Was geht kaputt? Ich arbeite (!!) jetzt seit zwei Jahren mit Capture One Pro 7 [RAW-Converter] bzw. 8, PS, etc. mit OpenCl. Die Beschleunigung bei der Arbeit (Konvertierung, Vorschau, etc.) ist absolut beachtlich. Was geht jetzt also kaputt bzw. was ging bei Dir kaputt)?

aufkrawall
2015-01-06, 19:24:43
Das ist offenbar von Tool zu Tool bzw. Anwendungsbereich unterschiedlich.
Siehe D3D9-Interop bei AMD oder f@h bei Nvidia (setzt übrigens auch dort auf OpenCL).
Bei den Minern ist die Performance bei AMD auch häufig unterschiedlich von Treiber zu Treiber, teilweise gravierend.

Btw: ein weiteres Indiz für die Stärke der Maxwell 2-ALUs:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10476823#post10476823
Hat nix mit irgendeiner ominösen "Laststeuerung" zu tun. Die Teile sind einfach verdammt effektiv und mit strengem Powertarget-Limit eben auch entsprechend effizient.

Menace
2015-01-06, 19:46:40
War das jetzt ein Zurückrudern von "völlig unzuverlässig" und "ständig kaputt"?

Ich habe manchmal den Eindruck hier sind wir auf der Esoteriker-Messe. :rolleyes:

aufkrawall
2015-01-06, 19:53:33
Als ob dein Video-Kram Allgemeingültigkeit besäße. Innerhalb deines Tellerrands ist bestimmt alles in Butter, glaub ich dir...

Edit: Mal ein Beispiel:
http://streamcomputing.eu/blog/2013-08-01/amd-fix-bugs-in-opencl-compilerdrivers/

Menace
2015-01-06, 20:10:54
Als ob dein Video-Kram Allgemeingültigkeit besäße. Innerhalb deines Tellerrands ist bestimmt alles in Butter, glaub ich dir...

Edit: Mal ein Beispiel:
http://streamcomputing.eu/blog/2013-08-01/amd-fix-bugs-in-opencl-compilerdrivers/

Kleine Korrektur: Ich arbeite vor allem mit Fotos (die im RAW-Format aufgenommen sind, da sie dadurch weit aus mehr Informationen besitzen und sich viel besser verarbeiten lassen). Obwohl ich keine Schwierigkeiten bisher habe, stelle ich nicht in Abrede, dass manches noch besser laufen könnte, aber ich spreche nicht von "ständig" und "völlig". Sehe ich es richtig, dass Du selbst keine Erfahrung mit OpenCl gemacht hast?

Ailuros
2015-01-06, 20:11:15
Inzwischen können doch einige Photoshop-Effekte zeitsparend per Compute-Shader auf der GPU berechnet werden statt auf der CPU. Und 3dsmax unterstützt wohl Raytracing über CUDA, keine Ahnung, was es da inzwischen noch gibt (auf OpenCL aufsetzend).

Skalieren beide Applikationen die Leistung mit steigender Anzahl von ALUs oder ist es im gegebenen Fall wurscht ob ich eine 750 oder 980 verwende?

aufkrawall
2015-01-06, 20:23:47
Kleine Korrektur: Ich arbeite vor allem mit Fotos (die im RAW-Format aufgenommen sind, da sie dadurch weit aus mehr Informationen besitzen und sich viel besser verarbeiten lassen). Obwohl ich keine Schwierigkeiten bisher habe, stelle ich nicht in Abrede, dass manches noch besser laufen könnte, aber ich spreche nicht von "ständig" und "völlig". Sehe ich es richtig, dass Du selbst keine Erfahrung mit OpenCl gemacht hast?
Ändern sich durch die Antwort die Tatsachen? Perfide Frage, die auch gleich suggestiv eine denunzierende Antwort enthält?
Definierst du "Erfahrungen"?

Im Gegensatz zu dir tu ich jedenfalls nicht so. Wenn du schon Erfahrungen mit OCL-Programmierung gemacht hättest, hättest du es hier wahrscheinlich schon zum Besten gegeben. So umfassend wird dein Erfahrungsschatz also schon mal nicht sein.

Menace
2015-01-06, 21:02:28
Der ganze Compute-Kram für Endanwender ist völlig unzuverlässig, ständig geht was kaputt (wo auch immer).
:confused:
Entschuldige bitte, da habe ich Dich wohl falsch verstanden. Ich nutze wirklich nur die Software mit OpenCl. Dass Du unter Endanwender nicht mich, sondern die Programmierer meintest, habe ich falsch verstanden. Da müsste man mal die kleine dänische Firma "Phase One (http://www.phaseone.com)" befragen, warum die als Hersteller von Profi-Mittelformat-Kameras bei ihrer dazugehörigen Software (Capture One) sich so ein Blödsinn antun.

Edit: Korrektur des Satzgefüges.

aufkrawall
2015-01-06, 21:10:06
Diese Aussage findet sich u.a. im Zusammenhang mit der Erwähnung von, durch die GPU-Architektur nicht immer erklärbaren, eklatanten Geschwindigkeits-Unterschieden.
Wenn das für dich ein Zurückrudern darstellt: Freu dir einen Latz. Ich leg nicht jedes meiner Worte vor dem Schreiben auf die Goldwaage, weil mich die Meinung von Korinthenkackern eh nicht interessiert.

Abgesehen davon würde ich vermuten, dass Post-Filter o.ä. eher zu den einfacheren Übungen mit OCL gehören.

Nakai
2015-01-07, 00:40:11
Sehe ich es richtig, dass Du selbst keine Erfahrung mit OpenCl gemacht hast?

Mein Senf...

Ich weiß nicht, was hier Einige immer mit "Compute-Schwäche" haben.
Man schaue sich mal die teilweise desaströsen Ergebnisse der Radeons bei Gimp an:
http://www.computerbase.de/2014-09/geforce-gtx-980-970-test-sli-nvidia/9/#diagramm-gpu-computing-the-gimp-286
Aus solchen einzelnen Schwächen muss man keine wilden Ableitungen für eine etwaige Schwäche einer Architektur herholen.
Der ganze Compute-Kram für Endanwender ist völlig unzuverlässig, ständig geht was kaputt (wo auch immer).

Ohne zu wissen, wie die Implementierung aussieht, kann man hier schwer urteilen. Ich kann es mir sehr schwer vorstellen, dass GCN so eine Aufgabe so mies umsetzt. Die GIMP-Benches sind einfachste Bildverarbeitungsfilter.
Box Blur? Und ein Gaussianfilter? Da muss irgendein Problem existieren.
GIMP nutzt OpenCL, anscheinend gibt es auch CUDA-Plugins...keine Ahnung was hier verwendet wurde. Bei OpenCL können schon verschiedene Workgroupgrößen und andere Implementierunggeschichten schon einen krassen Unterschied machen. Normalerweise bzw. Vernünftigerweise sollte man Configs für verschiedene Architekturen machen bzw. bereitstellen.


Abgesehen davon würde ich vermuten, dass Post-Filter o.ä. eher zu den einfacheren Übungen mit OCL gehören.

Kommt zwar auf die konkrete Implementierung an, aber ein Gauß- oder Boxfilter sind extrem simpel. Solange sie gut parallelisierbar sind, was die Meisten sind, gibt es eigentlich keinerlei größeren Implementierungsschwierigkeiten.

Dural
2015-01-13, 18:30:32
schon bekannt?

der GM206 dürfte doch 192Bit haben:

Unicous
2015-01-13, 18:51:45
Komisch, dass das noch keiner gepostet hat.

https://www.zauba.com/import-graphic-card-699-hs-code.html

Eine mutmaßliche Nvidia GPU (GM200?) mit einem Zollwert von 1000 US-Dollar.


Edit:

Fuck you WTF-Tech in advance.

Rente
2015-01-13, 18:56:16
Ist jetzt doch nicht besonders verwunderlich, oder?
nVidia wartet mehr oder weniger wohl nur auf halbwegs verlässliche Informationen zur 380X und dann geht es mit GM200 auch los, momentan läuft GM204 vermutlich mehr als gut genug.

Unicous
2015-01-13, 19:03:49
Die Mär des Abwartens können wir getrost ad acta legen.

Kein Hersteller ist so doof und wartet ewig auf seine Konkurrenz. Nvidia führt seine Produkte ein, wie sie es für nötig halten. Ein paar Wochen, kann man da mal den Start verschieben. Aber man hat auch Lieferverträge und anders geartete Abkommen.

Nvidia ist nicht in Lauerstellung. Ende April veranstalten sie die GTC. Was denkst du was sie da machen? Däumchen drehen, wenn AMD immer noch nicht seine 300 Series veröffentlicht hat?

fondness
2015-01-13, 19:05:29
Das warten ist ohnehin Blödsinn, niemand sitzt auf einem fertigen Design und dreht Däumchen. NV würde sicher auch wieder gerne eine GPU um 999$ verkaufen wenn man könnte.

Rente
2015-01-13, 19:08:38
Die Mär des Abwartens können wir getrost ad acta legen.

Kein Hersteller ist so doof und wartet ewig auf seine Konkurrenz. Nvidia führt seine Produkte ein, wie sie es für nötig halten. Ein paar Wochen, kann man da mal den Start verschieben. Aber man hat auch Lieferverträge und anders geartete Abkommen.

Nvidia ist nicht in Lauerstellung. Ende April veranstalten sie die GTC. Was denkst du was sie da machen? Däumchen drehen, wenn AMD immer noch nicht seine 300 Series veröffentlicht hat?
Gnaah, was du da alles in meine Aussage rein interpretierst...
Natürlich verschieben sie nicht mehrere Monate den Release hin und her nur wegen AMD, trotzdem ist der Zeitpunkt nicht vollkommen irrelevant.

Angenommen GM200 kommt im März, könnten sie jetzt noch Anpassungen an den Taktraten oder sogar der Kühlung vornehmen und schicken deswegen Boards durch die Gegend?
An so etwas hatte ich mit "reagieren" eher gedacht.

Unicous
2015-01-13, 19:16:24
Was interpretiere ich denn. Du behauptest, sie warten ab. Sie warten auf 380X. Ich sehe da jetzt keinen großen Interpretationsraum.

Das kann also alles bedeuten: Die Kennung "1G600" schwirrt schon seit min. Juli 2014 umher in verschiedenen Konfigurationen und "Preisklassen" umher. Unter Umständen liege ich auch falsch und es sind lediglich Kepler Teslas/Quadros.
es können auch ein Metal respin/revision sein. Who knows.

https://www.zauba.com/import-699-1g600-hs-code.html

Ich habe es nur mal in den Raum geworfen. Die Kennungen bei Nvidia sind ja genauso undurchsichtig wie bei AMD. Und dann gibt es auch leider keine so fantasievollen Codenamen.:wink:

Die letzten Hundertstellen könnten jedenfalls auf Revisionen schließen lassen.

M2607-A01 GM107-220 2GB/128BIT 128MX16 D VIDEO GAME PROCESSOR PCA BOARD, 699-62607-0001-100
M2607 SKU0001 M2607-A02 GM107-510 2GB/12 VIDEO GAME PROCESSOR PCA BOARD, 699-62607-0001-200

Vllt./wahrscheinlich ist es auch eine GM206 merke ich gerade. 1G401 ist GM204

Die Zollwerte wären demnach Mondpreise.

Elite_Warrior
2015-01-13, 19:19:55
schon bekannt?

der GM206 dürfte doch 192Bit haben:

Das dachte ich auch als erstes, doch als ich mir die Speicherbausteine angesehen hab(Samsung K4G41325FC HC28, 4Gbit) war mir klar dass davon 4 Stück verbaut werden müssen. Denn links auf der Platine sind wohl 3 Speicherbausteine angeordnet, nur wurden die Kontakte des mittleren Bausteines lackiert und er sich entsprechend Frontal befinden muss.

Loeschzwerg
2015-01-13, 19:25:58
Komisch, dass das noch keiner gepostet hat.

https://www.zauba.com/import-graphic-card-699-hs-code.html

Eine mutmaßliche Nvidia GPU (GM200?) mit einem Zollwert von 1000 US-Dollar.

Könnte gut sein dass das eine GM200 Karte ist.

https://www.zauba.com/import-1G600-hs-code.html

Erste "1G600" gab es im Juli 2014, zeitgleich wie GM200 GPU Samples.

Edit: Zu langsam...

Edit2:

https://www.zauba.com/import-699+1g/fp-china/ip-INBLR4-hs-code.html

1G401 ist GTX970/980. GM206 möglicherweise 1G301 und GM200 1G600.

Das würde in etwa zu den Test Boards passen:
699-12720-xx (GM200??)
699-12724-xx (GM204)
699-12726-xx (GM206??)

Dural
2015-01-13, 19:46:43
Das dachte ich auch als erstes, doch als ich mir die Speicherbausteine angesehen hab(Samsung K4G41325FC HC28, 4Gbit) war mir klar dass davon 4 Stück verbaut werden müssen. Denn links auf der Platine sind wohl 3 Speicherbausteine angeordnet, nur wurden die Kontakte des mittleren Bausteines lackiert und er sich entsprechend Frontal befinden muss.

Was?

es sind auf der rückseite 2 speicher chips von drei möglichen vorhanden, da wie du schon geschrieben hast sind sicher vier stück davon verbaut. somit dürften zwei weitere auf der vorderseite sein inkl. ein weiterer platz ohne bestückung.

somit hat das PCB 192bit.

Unicous
2015-01-13, 19:53:52
@Loeschzwerg


Ja, könnte sein. Ich habe mich exakt von dem 1G301 irritieren lassen, weil der ja auch schon eine Weile umher schwirrt. Andererseits, frage ich mich was es hiermit auf sich hat:

1G600-0000-500
1G600-0000-400
1G600-0030-100

Wie auch bei GM107 könnte man ja davon ausgehen, dass es Revisionen, aber 5 sind es sicherlich nicht. Das wäre schon ganz schön hart. Vllt. ist aber auch 400 Rev A01/0 und 500 Rev A01/02? Vom Abstand, fast 3 Monate (September->Jan) ergibt ein Respin jedenfalls Sinn.

Loeschzwerg
2015-01-13, 20:40:19
699-1G600-xxxx-xxx ist gesamt betrachtet zunächst die Materialnummer (P/N).

G600 gibt dabei vermutlich das PCB Modell an und alles weitere den Ausbau bzw. die Variante davon.

Beispiel:
GTX 980 NV Ref -> 699-1G401-0000-200 (P/N) -> 180-1G401-1102-A02 (PCB in der Rev A02)
GTX 750 Ti NV Ref -> 699-12010-0050-510 (P/N) -> 180-12010-1102-B01 (PCB in der Rev B01)
GTX 650 Ti NV Ref -> 699-12010-0015-ES5 (P/N und hier vermutlich ein engineering sample; QS und CS gibt es auch) -> 180-12010-1102-A01 (PCB in der Rev A01)

Ob wir hier in irgendeiner Form auf die GPU Revision schließen können... ehrlich gesagt keine Ahnung. Die GPU Art/Ausbau schlägt sich irgendwie in der P/N nieder, der weitere Ausbau (z.B. Speicher) der Karte und natürlich auch die PCB Revision.

Edit: Wir sollten definitiv mal beobachten Was denn hier wirklich später den Endkunden erreicht, dann können wir das evtl. genauer deuten und es hilft bei der nächsten Serie (falls Zauba dann immer noch existieren sollte).

Edit 2:
Von der GTX 980 gibt es folgende Nummer:
699-1G401-0000-000 (noch nicht in freier Wildbahn gesehen)
699-1G401-0000-100 (noch nicht in freier Wildbahn gesehen)
699-1G401-0010-100 (noch nicht in freier Wildbahn gesehen)
699-1G401-0000-200 (Was wir als die "erste" Ref. GTX 980 kennen)
699-1G401-0000-210 (Wurde im Nov. 2014 verschickt)

Elite_Warrior
2015-01-13, 20:44:29
@ Dural, die Annahme scheint plausibel. Habs hier nochmal markiet.
Gelb = Bestückt
Rot = Fehlt
Orange = Vorderseite, davon werden Zwei bestückt sein.

Das PCB ist für mehr ausgelegt. Hat man sich hier einem älteren PCB bedient?

Quelle des Bildes: http://www.purepc.pl/karty_graficzne/karty_graficzne_kfa2_geforce_gtx_960_na_zdjeciach

Dural
2015-01-14, 09:32:29
man verbaut in der regel so viele kontakte wie es der chip auch hat.

wenn der GM206 192Bit hat, kann man sich auch die frage stellen ob doch nicht auch mehr einheiten vorhanden sind.

Loeschzwerg
2015-01-14, 10:22:13
Die GTX 660 (ohne Ti) hatte gesamt 8x 2Gbit Speicher verlötet und 192Bit.

Bei der hier gezeigten GTX 960 kann man 6 Plätze vermuten, oder aber auch mehr wenn Vorder-/Rückseite gleichermaßen durchkontaktiert sind (siehe z.B. GTX 660; da liegen zwei Speicher vorne und hinten auf dem gleichen Platz). Je nachdem lassen sich 192Bit für GM206 vermuten (evtl. bei einer 960 Ti).

Dural
2015-01-14, 10:34:18
gab ja ganz am anfang gerüchte das der GM206 womöglich 1280SP und 192Bit hat, eventuell trifft das ja wirklich zu. da wäre der chip mit den ca. 250mm doch recht anschaulich.

12x speicher wäre doch auch was, für 6GB karten :freak: 8x könnten aber auch möglich sein, Rückseite 3x und Vorderseite 5x somit sind wir wieder bei den 128Bit.

Loeschzwerg
2015-01-14, 10:53:49
gab ja ganz am anfang gerüchte das der GM206 womöglich 1280SP und 192Bit hat,

Persönlich gehe ich davon immer noch aus, denn es wäre als GTX 960 Ti der ideale Lückenfüller zur GTX 970.

Den GM204 noch weiter abzuspecken um eine GTX 960 Ti zu schaffen?! Halte ich für recht unwahrscheinlich.

Edit: 8x Speicherplätzen schließen 192bit nicht aus (siehe GK106).

Hübie
2015-01-14, 12:49:43
Kann mir mal einer verraten wie GPU-Z auf 85 TMUs kommt??? :|

Käsetoast
2015-01-14, 16:37:34
Persönlich gehe ich davon immer noch aus, denn es wäre als GTX 960 Ti der ideale Lückenfüller zur GTX 970.

Den GM204 noch weiter abzuspecken um eine GTX 960 Ti zu schaffen?! Halte ich für recht unwahrscheinlich.

Edit: 8x Speicherplätzen schließen 192bit nicht aus (siehe GK106).
Eigentlich passt die lange Wartezeit bis zum GM206 doch ganz gut zu der Theorie, dass man abgespeckte 204er als Gtx 960 Ti bringt - man musste halt lange genug teildefekte Chips sammeln...

Bei den gegebenen Specs klafft da halt eine riesige Lücke zwischen 960 und 970 und da ein weiterer Chip dazwischen nicht wirklich Sinn macht bleibt eben nur die Reste Verwertung vom GM204. Als weiteres Indiz würde ich werten dass alle bisherigen Infos der letzten Zeit zum 206er sich immer auf ein non-Ti Modell bezogen wenn eine Verpackung zu sehen war. Sowas heizt halt den Spekulatius an, dass die Ti eben kein 206er sein wird... :)

Ailuros
2015-01-14, 17:33:24
Es ist zwar eine Ewigkeit her dass ich mich mit dem 206 etwas beschaeftigt hatte, aber der originale "Standpunkt" war dass die groesste GTX960 SKU (ob diese jetzt "Ti" heissen wird oder nicht ist ziemlich wurscht) auf GM204 basieren wird und GM206 insgesamt 8 SMMs hat.

Ob es stimmt keine Ahnung, auf jeden Fall ist es fuer NV ueberhaupt nicht abartig dass sie chips so weit theoretisch abspecken fuer salvage parts. 6 aus 16 SMMs sind ja nur knapp 38%; die Auschlachtungs-Rekorde von "Fermi" bricht das Ding wenn's stimmt auf jeden Fall nicht ;)

N0Thing
2015-01-14, 17:46:13
Die die Ausführung in der GeForce GTX 970M mit 1280 Shader-Einheiten, 80 TMUs, 48 ROPs, 192 Bit DDR Interface würde ja eine ideale 960Ti abgeben, um die Lücke zur GTX 970 zu schließen.

Loeschzwerg
2015-01-14, 17:49:25
Natürlich ist das weiter abspecken eines GM204 kein Problem, aber einerseits dürften die Yields mittlerweile fast zu gut dafür sein (Wilde Vermutung :D Wird ja immer gesagt der 28nm sei inzwischen top) und andererseits hat es unter der Kepler Generation auch den GK106 gegeben (hätte man doch auch GK104 nehmen können; GK106 kam btw. ebenfalls spät).

Ich lass mich mal überraschen, der nächste Donnerstag bringt zum Glück Erleuchtung :)

boxleitnerb
2015-01-14, 17:53:05
Warum macht man das eigentlich? Aus meiner laienhaften Sicht bekommt man doch gar nicht so viele derart kaputte GM204s raus. Oder will man damit GM204 zu größerem Volumen verhelfen, das die Entwicklungskosten besser deckt?

M4xw0lf
2015-01-14, 17:56:40
Es ist wohl ziemlich sicher günstiger aus einem mittelgroßen Chip viele Produkte zu basteln, als noch einen eigenen Chip zwischen GM204 und 206 zu bringen. Würde ich vermuten.

boxleitnerb
2015-01-14, 17:59:12
Müsste man ja nicht, wenn GM206 so wäre wie in Post 6550 beschrieben.

Loeschzwerg
2015-01-14, 18:11:55
Es ist wohl ziemlich sicher günstiger aus einem mittelgroßen Chip viele Produkte zu basteln, als noch einen eigenen Chip zwischen GM204 und 206 zu bringen. Würde ich vermuten.

Aber mit den GTX 970 (Ti evtl. irgendwann noch?) und GTX 980 lässt sich doch besser Geld scheffeln, als mit Gewalt GM204 zu kastrieren. Jetzt müsste man halt nur wissen wie viel Abfall wirklich anfällt.

So viel größer dürften 2 SMM (und das drumherum) den GM206 theoretisch auch nicht machen und man hätte hier ebenfalls noch "Luft" für Abfall Chips.

fondness
2015-01-14, 22:45:11
Müsste man ja nicht, wenn GM206 so wäre wie in Post 6550 beschrieben.

Wenn GM206 größer wäre hätte man dasselbe Problem mit abgespeckten GM206, und in unteren Preissegment sind die Margen wesentlich kleiner.

AnarchX
2015-01-14, 22:55:56
10SMM/192-bit sind für einen GM206-400 durchaus möglich. Aber den behält man sich wohl in der Hinterhand bis AMD seine neue ~$199 SKU präsentiert.

An sich natürlich eher eine dürftige 960. Darum wurde wohl in Asien vor Monaten von einer "950 ti" mit diesen Specs gesprochen.

Monsta
2015-01-15, 08:26:07
Warum macht man das eigentlich? Aus meiner laienhaften Sicht bekommt man doch gar nicht so viele derart kaputte GM204s raus. Oder will man damit GM204 zu größerem Volumen verhelfen, das die Entwicklungskosten besser deckt?

Ich denke eine 960ti mit einem "dicken Chip" verkauft sich auch besser. Völlig egal das er abgespeckt ist. Die 660ti hat sich ja auch sehr gut verkauft. Ich persönlich habe auch lieber einen große Chip auf wenig Frequenz als einen kleinen der ab Werk auf Anschlag rennt.

Dural
2015-01-15, 09:28:02
es macht wohl kaum sinn ein grosser chip in einem so "alten" herstellungsprozess um so viel zu deaktivieren, mit der 970 dürften wohl fast alle Chips verwertbar sein.

1280SP sind für GM206 schon viel stimmiger zudem GM107 ja auch schon 640SP hat

fondness
2015-01-15, 09:39:49
Finale Specs
http://videocardz.com/54329/nvidia-geforce-gtx-960-confirmed-specifications-and-launch-date

http://s1.postimg.org/8rd940jkf/NVIDIA_Ge_Force_GTX_960_specificatins_850x459.png (http://postimage.org/)

-/\-CruNcher-/\-
2015-01-15, 09:43:32
Da sind wir mal gespannt sollte die 285 immernoch in den boden drücken ;)

Am interessantesten wird aber definitv der Preis Unterschied zur GTX 970

Ob sie compute lastigere workloads bei 1080p genauso verkraften wird ?

Vom OCing siehts für mich so aus als plant man wieder die 20W (komprimiert) ein sprich auf die 140W (komprimiert) zu kommen der kleinen GTX 970 und damit dann wieder kompensieren zu können wie schon bei GTX 970/980

y33H@
2015-01-15, 09:57:26
Immer wieder geil, wie lange Daten aus NDA-Calls unter NDA bleiben :ulol:

M4xw0lf
2015-01-15, 10:05:05
Da sind wir mal gespannt sollte die 285 immernoch in den boden drücken ;)
Wenn du damit "ungefähr gleich schnell sein" meinst, dann ja.

N0Thing
2015-01-15, 10:12:43
es macht wohl kaum sinn ein grosser chip in einem so "alten" herstellungsprozess um so viel zu deaktivieren, mit der 970 dürften wohl fast alle Chips verwertbar sein.

1280SP sind für GM206 schon viel stimmiger zudem GM107 ja auch schon 640SP hat

Nvidia beschneidet den GM204 doch jetzt auch schon auf 1280 Shader-Einheiten und 192 Bit DDR Interface. :confused:

http://www.geforce.com/hardware/notebook-gpus/geforce-gtx-970m/specifications

Hübie
2015-01-15, 10:25:21
Im Mobilsegment erhält man jedoch einen deutlich höheren Preis, sonst würde man das kaum machen ;)

ndrs
2015-01-15, 11:03:05
Immer wieder geil, wie lange Daten aus NDA-Calls unter NDA bleiben :ulol:
Wie lange denn? :D

Thunder99
2015-01-15, 11:41:07
15Uhr? :D

Sunrise
2015-01-15, 11:41:08
Finale Specs
http://videocardz.com/54329/nvidia-geforce-gtx-960-confirmed-specifications-and-launch-date
Auf die NDA-Brecher videocardz.com bzw. deren Quelle ist also wiedermal Verlass.

Geil auch wieder die Beschreibung:

"NVIDIA is now advertising memory clock speed after increasing it by 33% (the bandwidth is higher due to 3rd Gen. colour compression (delta compression) algorithm. Soon, the only real thing in NVIDIA materials will be the name of the card." :D

Wer zur Belustigung noch etwas lachen will, lest euch unbedingt die Kommentare durch. Köstlich.

Ansonsten sieht das nach einer netten Karte (HTPC) aus.

-/\-CruNcher-/\-
2015-01-15, 11:47:13
naja es sind 20W reduktion wie erwartet eben das doppelte GTX 750 20W weniger als GTX 970 (20W headroom), die Karte ist absolut nicht NDA würdig immerhin stand ja alles schon vor minimum 1 Jahr fest wieso eine dumme NDA überhaupt absoluter quatsch
Als wäre AMD in der Lage in x tagen ihr ganzes Design umzuschmeisen ;)

Der Preis ist viel interessanter und da ist noch nichts wirklich geleakt ;)


Es gab ja eine Verschiebung die damalige GTX x60 reihe ist quasi in die x70 gerutscht, Nvidia hat das meiste in Energie investiert mit einem kompressionskonzept das vor allem die Komponenten drum rum alle an ihre Grenzen fährt momentan ;)

Petersen hat es so ja im PCGH interview geäussert sein "wir überlegen noch die optionen" stand doch garnicht wirklich zu debate es konnte ja nur Effizienz steigern sein ;)

Mich hat das überzeugt die GTX 970 ist akzeptabel die GTX 980 wäre es nicht

Locuza
2015-01-15, 11:56:38
Effektiv 9.3 Gbps für den Speicher ;D
Marketing to the next level.

Shaft
2015-01-15, 12:17:09
Werden heute noch mehrere GM206 Modelle vorgestellt, oder bleibt es bei der 960?

-/\-CruNcher-/\-
2015-01-15, 12:17:58
Hier wird das erste mal MFAA als produktive Effizienz Waffe präsentiert, was ja auch schon in der GTX 970/980 präsentation für 2K/4K präsentiert wurde gilt jetzt für 1080p :)

http://cdn.videocardz.com/1/2015/01/NVIDIA-GeForce-GTX-960-1080p-gaming-850x459.png

Anzunehmen das die GTX 660 hier mit 4x MSAA lief und die Maxwell GTX 960 eben mit 4xMFAA

N0Thing
2015-01-15, 12:26:21
Hier wird das erste mal MFAA als produktive Effizienz Waffe präsentiert :)

http://cdn.videocardz.com/1/2015/01/NVIDIA-GeForce-GTX-960-1080p-gaming-850x459.png

Anzunehmen das die GTX 660 hier mit 4x MSAA lief und die Maxwell GTX 960 eben mit 4xMFAA


Man könnte auch sagen, dass bei der GTX 660 4xMSAA zum Einsatz kommt, während bei der GTX 960 nur 2xMSAA/4xMFAA verwendet wird.

Diese Marketing-Stunts (inklusive kreativer Speicherbandbreite) erstaunen mich doch ein wenig. Ist die GTX 960 in Wirklichkeit so schlecht, dass Nvidia solche Methoden als notwendig erscheinen? Die 3DMark-Werte (http://www.3dcenter.org/news/erste-3dmark-messungen-zur-geforce-gtx-960-zeigen-ansprechende-performance) sehen doch eigentlich ganz ordentlich aus.

-/\-CruNcher-/\-
2015-01-15, 12:28:07
Nvidia ist sich sicher das 2xMSAA + MFAA die Visuelle effizienz von 4xMSAA erreichen kann und die möglichen verluste PSNR/SSIM akzeptabel sind, zum teil besser dafür aber weitaus Effizienter (latency).

aufkrawall
2015-01-15, 12:28:58
Doof nur, dass MFAA bei 1080p einfach nur schlecht aussieht. Typischer NV PR-BS.

M4xw0lf
2015-01-15, 12:35:30
Die 9,3 Gbps und der Performancevergleich mit 4xMSAA vs. 4xMFAA sind meine bisherigen Highlights des Tages :uup:

-/\-CruNcher-/\-
2015-01-15, 12:37:26
MFAA ist so wie ich das sehe immernoch im Debuging ;)

wir sollten mal den 960 release treiber abwarten ;)

fondness
2015-01-15, 12:45:41
Hier wird das erste mal MFAA als produktive Effizienz Waffe präsentiert, was ja auch schon in der GTX 970/980 präsentation für 2K/4K präsentiert wurde gilt jetzt für 1080p :)

http://cdn.videocardz.com/1/2015/01/NVIDIA-GeForce-GTX-960-1080p-gaming-850x459.png

Anzunehmen das die GTX 660 hier mit 4x MSAA lief und die Maxwell GTX 960 eben mit 4xMFAA

Für wie blöd hält man die Kunden und Tester eigentlich bei so einem Marketing-Material?

-/\-CruNcher-/\-
2015-01-15, 12:47:50
Otto normal sieht nur die Balken das ist halt Psychologie ;)
Selbst mit dem Text wird Otto normal schwer was anfangen können.

Das ding ist ja wenn die Ergebnisse korrekt sind ist das alles kein Problem wie gesagt die momentanen tests zeigen Subjektiv etwas anderes ;)

Hier wird aber sicherlich mit einem Release treiber getestet es bringt Nvidia eigentlich nichts zu flunkern es sei den die Reviewer sind wieder einmal zu inkompetent ich hoffe ja das sie auch den unterschied des jetzigen WHQL und des Release treibers beleuchten und nochmal die differenz aufzeigen wenn eine exestieren sollte aber auch das sie Standbilder nicht Prioritisieren sondern sich mehr die Motion Results anschauen und vergleichen ;)

Nvidia will sicher auch noch einmal provozieren das tester Watch_Dogs rauskramen und überraschend berrichten das viele Probleme history sind ;)

M4xw0lf
2015-01-15, 12:48:18
Für wie blöd hält man die Kunden und Tester eigentlich bei so einem Marketing-Material?

Doch nicht blöd... nur unterenthusiasmiert! Da muss man nachhelfen!

http://brickfanatics.co.uk/wp-content/uploads/2014/03/everythingisawesometee.jpg

Ailuros
2015-01-15, 12:50:17
Auf die NDA-Brecher videocardz.com bzw. deren Quelle ist also wiedermal Verlass.

Geil auch wieder die Beschreibung:

"NVIDIA is now advertising memory clock speed after increasing it by 33% (the bandwidth is higher due to 3rd Gen. colour compression (delta compression) algorithm. Soon, the only real thing in NVIDIA materials will be the name of the card." :D

Wer zur Belustigung noch etwas lachen will, lest euch unbedingt die Kommentare durch. Köstlich.

Ansonsten sieht das nach einer netten Karte (HTPC) aus.

*spuelt sein bedeutungsloses "told you so" im Klo runter und verschwindet im Sonnenuntergang...* (jetzt bleibt nur abzusehen was mit den GM200 Infos schiefgelaufen ist....*murmel....motz* :mad: )

y33H@
2015-01-15, 13:03:47
Nvidia beschneidet den GM204 doch jetzt auch schon auf 1280 Shader-Einheiten und 192 Bit DDR Interface.Noch weiter, die GTX 965M hat nur 1024 ALUs: http://www.geforce.com/hardware/notebook-gpus/geforce-gtx-965m/specifications

N0Thing
2015-01-15, 13:15:47
Ah, okay. Wollte die auch zuerst verlinken, aber ich dachte die würde den GM206 einsetzen. Immerhin sind die technischen Daten identisch und die 965M ist ja auch erst ein paar Tage alt. ^^

Leonidas
2015-01-15, 15:27:13
Bei der 965M kann keiner sicher sagen, was NV da einsetzt - GM204 oder GM206. Aber sinnvollerweise sollte man schon den GM206 einsetzen.

tm0975
2015-01-15, 16:07:20
Da sind wir mal gespannt sollte die 285 immernoch in den boden drücken ;)

hmm, das wäre etwas ganz neues. ich kann mich nicht erinnern, wo nvidia bei gleichen preis mal nicht deutlich langsamer war als die radeon. am wahrscheinlichsten ist es, sie liefern grob die leistung einer 285 zum preis einer 290.

aths
2015-01-15, 16:21:37
Für wie blöd hält man die Kunden und Tester eigentlich bei so einem Marketing-Material?
Für nicht blöder als früher auch. Da wurde schon mal 2x-Quincunx-MSAA der Geforce 3 gegen 4x-SSAA der Geforce 2 getestet um festzustellen, dass die Geforce 3 siebenmal schneller ist. (Bei einem gleichzeitig unschärferen und flimmerigerem Bild.)

hellm
2015-01-15, 20:47:19
Endlich fühle ich mich verstanden! Da spricht Nvidia doch mich perönlich als GTX660-Eigner an. Juhu, viel mehr Leistung, da hat es sich ja gelohnt die 760 auszusitzen.

Ernsthaft, ich kauf bald wieder die Roten. Ich mags einfach nicht wenn man mich auch noch für blöd verkaufen will, und das dermaßen dreist.

Marty98
2015-01-15, 21:54:14
Endlich fühle ich mich verstanden! Da spricht Nvidia doch mich perönlich als GTX660-Eigner an. Juhu, viel mehr Leistung, da hat es sich ja gelohnt die 760 auszusitzen.

Ernsthaft, ich kauf bald wieder die Roten. Ich mags einfach nicht wenn man mich auch noch für blöd verkaufen will, und das dermaßen dreist.

Wenn nur die roten nicht im Dauertiefschlaf wären! Die 970 würde dann einen 100er billiger!

Hatstick
2015-01-15, 22:25:01
Zwei Fragen zu Maxwell. Sorry, wenn es schon beantwortet wurde!

1) Ist eine "Titan 2" geplant?
2) Sind Maxwell mit mehr als 4GB RAM geplant?

Danke,

Hatstick

Grestorn
2015-01-15, 22:27:58
1) Ist eine "Titan 2" geplant?Die Gerüchteküche sagt: Ja.

2) Sind Maxwell mit mehr als 4GB RAM geplant?Da gibt es nur Vermutungen, aber ich glaube nicht, dass es eine solche vor dem Erscheinen des Titan Nachfolgers geben wird. Aber nix genaues weiß man nicht.

Hatstick
2015-01-15, 22:42:50
Ok, danke!

ShinyMcShine
2015-01-16, 10:38:56
Mal 'ne Frage die in eine ganz andere Richtung geht (zumindest was die Leistung der GPUs angeht):

Was ist eigentlich mit einem GM208 und einem evtl. Refresh des GM107 (sprich GM207).
Kommt da noch was von NV im Bereich der Desktop-Grafikkarten? Insbesondere den GMx08 gibt es wohl bisher nur im Mobile-Bereich?

Eine Karte mit GM208 und angenommenen 384 Cores für ca. 60-75€ wäre für einen Kumpel mittelfristig ganz interessant (sie soll von NVIDIA sein, neu und deutlich weniger als 100€ kosten). Sollte da nix kommen, muss ich ihn in dem Preisbereich eher zu Karten mit GF108/GK107 beraten.

Und am Besten keine Diskussion über den Sinn dieser Karten anfangen. Manche Leute sind beratungsresistent. :D Vielleicht könnte ich ihn noch zu einer GTX 750 non-Ti überreden, aber die kosten auch schon alle über 90€.

Danke und vG,
Shiny

robbitop
2015-01-16, 11:37:10
Eine 8 GiB GM204 würde aus heutiger Sicht wirklich Sinn ergeben. Hin und wieder gibt es Szenarien, wo 4 GiB nicht reichen, die Leistung der GM204 aber nicht limitiert. Und das wird eher häufiger vorkommen in der Zukunft, wie man aus der Vergangenheit weiß.

Black-Scorpion
2015-01-16, 11:41:36
Was für einen Sinn soll das denn haben wenn die ab 3,5Gb einbrechen. Sollen die restlichen 4,5GB im Schlafwagentempo arbeiten?

Air Force One
2015-01-16, 12:12:02
Finde die neue GEN sollte schon mind. 6GB haben.
egal ob AMD oder nVidia.
Wobei ich bisher bei AMD bei der Wahl am zufriedensten gewesen bin.
Sei es die Menge oder Anbindung....noch.

Botcruscher
2015-01-16, 12:19:06
Was für einen Sinn soll das denn haben wenn die ab 3,5Gb einbrechen. Sollen die restlichen 4,5GB im Schlafwagentempo arbeiten?

Bei gleicher Karte und dem Problem würde die Grenze bei 7GB liegen. Das würde aber eh nur die Reste-Chips treffen.

Effe
2015-01-16, 12:22:48
Eine 8 GiB GM204 würde aus heutiger Sicht wirklich Sinn ergeben. Hin und wieder gibt es Szenarien, wo 4 GiB nicht reichen, die Leistung der GM204 aber nicht limitiert. Und das wird eher häufiger vorkommen in der Zukunft, wie man aus der Vergangenheit weiß.
Ist das bei NV nicht Firmenpolitik? Sei es bei der 580, 680, 780ti und jetzt bei der 980, immer ist der VRAM gerade so ausreichend, aber auch schnell zu wenig. So wird der Enthusiast noch schneller "gezwungen" aufzurüsten.
Modelle mit verdoppeltem Speicher werden entweder sehr spät, sehr überteuert oder gar nicht angeboten.

Kein Wunder, daß so einige 780ti-Besitzer auf die 970/980 "aufgerüstet" haben. Von der reinen Leistung völliger Schwachsinn, allerdings vom Speicher her gesehen sogar verständlich.

tdon
2015-01-16, 12:30:52
Ja Nvidia ist traditionell VRAM geizig. Die 2GB der GTX 960 finde ich auch wieder zu wenig, Leistung liegt kaum unter einer GTX 770 so wie es aussieht und dafür sind 2GB im Jahr 2015 zu wenig. Reserven gibt es da gar keine mehr bzw. es ist in einigen Spielen schon zu wenig. 2GB gab es von Nvidia schon vor 2,5 Jahren in Form der GTX 660 im ähnlichen Preisbereich. AMD verkauft 3GB seit Ewigkeiten.

Botcruscher
2015-01-16, 12:31:44
Käufer der 780TI haben es nicht anders gewollt. Da ist inzwischen jede halb so teure R290 schneller. Dem Käuferkreis scheint es aber eh egal zu sein. Unter 8GB geht im oberen Segment nichts mehr. 4GB wird schon für 1080 Pflicht.

Ailuros
2015-01-16, 12:38:02
Käufer der 780TI haben es nicht anders gewollt. Da ist inzwischen jede halb so teure R290 schneller. Dem Käuferkreis scheint es aber eh egal zu sein. Unter 8GB geht im oberen Segment nichts mehr. 4GB wird schon für 1080 Pflicht.

Ja und nein. Momentan hab ich das Gefuehl dass Konsolen-Entwickler nichts besseres zu tun haben als den Speicher auf den neuen Konsolen mit fast nutzlosem zusaetzlichen Texturen-Mist vollzuschmieren damit sich der PC User u.a. mit Kotzexemplaren wie Shadow or Mordor nerven kann. Es sieht wohl eher so aus als ob sich das Zeug irgendwann setzen wird und der hohe Speicherverbrauch fuer hoffentlich nutzvolleres eingesetzt wird.

Das aendert natuerlich gar nichts daran dass ich voll zustimme dass eine 960 oder jegliche heutige mainstream GPU ziemlich fehl am Platz ist mit nur 2GB Speicher, ausser man denkt dass 4xMSAA in 1080p Ueberfluess fuer eine mainstream GPU in 2015 ist.....

horn 12
2015-01-16, 12:49:52
http://videocardz.com/54358/nvidia-maxwell-gm200-pictured

Sunrise
2015-01-16, 13:09:23
http://videocardz.com/54358/nvidia-maxwell-gm200-pictured
Das hast du gut gemacht. :D

Hier übrigens noch die originale(n) Quelle(n):
http://www.chiphell.com/thread-1220162-1-1.html
http://tieba.baidu.com/p/3531665628

Sieht optisch doch noch deutlich größer aus als gedacht.

Nightspider
2015-01-16, 13:11:21
Sind die Bohrabstände gleich zwischen den 3 Karten?

Sunrise
2015-01-16, 13:21:26
Wenn die Skalierung stimmt:

GK110 (B x H) = 7,06cm x 7,27cm = 513,26mm² gemessen (NV-Angabe = 551mm²)
GM200 (B x H) = 7,66cm x 7,55cm = 578,33mm² gemessen (NV-Angabe = 621mm² hochgerechnet anhand GK110-Differenz)

Also um die 580mm² wenn das Vergleichsbild als Referenz genommen werden kann. Allerdings war die NV-Angabe beim GK110 deutlich höher, als ich da wirklich messe, daher noch die Hochrechnung. Keine Ahnung wie sinnig das ist, aber ich habs mal dazugeschrieben.

Ailuros
2015-01-16, 13:22:08
Das hast du gut gemacht. :D

Hier übrigens noch die originale(n) Quelle(n):
http://www.chiphell.com/thread-1220162-1-1.html
http://tieba.baidu.com/p/3531665628

Sieht optisch doch noch deutlich größer aus als gedacht.

Wie gesagt originale Info-Fetzen sprachen von ~560mm2.

dildo4u
2015-01-16, 13:36:36
Die haben doch schon mit 4GB Probleme. Was wollen die mit noch mehr Speicher machen? Außer Werbung und Leute verarschen.
Gibt genug Benches die das Gegenteil beweisen und nicht nur die Grafik gucken sondern auch den Text Lesen.

http://www.hardocp.com/article/2014/09/29/msi_geforce_gtx_970_gaming_4g_video_card_review/4#.VLkFItWG-Xs

Timbaloo
2015-01-16, 13:50:35
Die Herren sind hier im Schlachtfeld; es darf keine Ueberlebenden geben :freak:
:tongue:

Unicous
2015-01-16, 14:11:33
Jemand bei B3D behauptet er hätte 624mm² über Gimp "errechnet".:confused:

https://forum.beyond3d.com/posts/1818981/

Kann ich mir irgendwie nicht vorstellen.


Oh ihr habt schon über die die size gesprochen.

Dural
2015-01-16, 14:21:54
der direkte konkurrent zur 960 dürfte wohl die 285 sein, und oh wunder die hat ja auch nur 2GB :rolleyes:

wie so NV da jetzt der böse ist, obwohl AMD mit 2GB vorgelegt hat muss man nicht verstehen, oder?

Botcruscher
2015-01-16, 14:24:21
Das aendert natuerlich gar nichts daran dass ich voll zustimme dass eine 960 oder jegliche heutige mainstream GPU ziemlich fehl am Platz ist mit nur 2GB Speicher, ausser man denkt dass 4xMSAA in 1080p Ueberfluess fuer eine mainstream GPU in 2015 ist.....

MFAA
Everything is awesome.

Das die Konsolenentwickler endlich mal klotzen ist doch sehr gut. Immerhin kommt es nach Jahren auch in der Optik an. Bei einem Blick auf die Unreal S3 Texturen fragt man sich wo die 15 Jahre geblieben sind.

12GB für BigM. Mal sehen ob die Referenz da 6GB bekommt oder doch noch auf 3 abgespeckt wird. NV traut man so was zu.

der direkte konkurrent zur 960 dürfte wohl die 285 sein, und oh wunder die hat ja auch nur 2GB :rolleyes:
wie so NV da jetzt der böse ist, obwohl AMD mit 2GB vorgelegt hat muss man nicht verstehen, oder?

Da steht im Review auch die Kritik drin.

dildo4u
2015-01-16, 14:27:05
MSAA abschaffen und die 970 wird bis 2020 reichen bis wir neue Konsolen haben.

http://www.tomshardware.com/reviews/graphics-card-myths,3694-6.html

Die Meisten Devs werfen MSAA Support eh raus da die Konsolen es nicht verkraften,ein Absoluter Witz was das an Vram verballert.

Käsetoast
2015-01-16, 14:27:56
der direkte konkurrent zur 960 dürfte wohl die 285 sein, und oh wunder die hat ja auch nur 2GB :rolleyes:
Wobei das ja wohl eine nicht ganz nachvollziehbare, von AMD diktierte Geschichte sein dürfte. Packshots von 4GB Varianten gab es ja alle, nur löste sich das Ganze dann in Luft auf. Ich wäre bei einer 4GB 285 vielleicht schwach geworden, wobei ich da jetzt direkt auf die 300er Serie warten kann...

So gesehen hätte NVIDIA mit 4GB viele Pluspunkte in dem Segment sammeln können bzw. warten wir vielleicht besser erstmal ab, ob einige Partner nicht auch 4GB Versionen bringen werden. Gerade wenn mehr Ports von Konsolenspielen kommen, dürften 4 anstatt 2 GB eine sinnvolle Sache sein...

aths
2015-01-16, 14:55:11
Ja und nein. Momentan hab ich das Gefuehl dass Konsolen-Entwickler nichts besseres zu tun haben als den Speicher auf den neuen Konsolen mit fast nutzlosem zusaetzlichen Texturen-Mist vollzuschmieren damit sich der PC User u.a. mit Kotzexemplaren wie Shadow or Mordor nerven kann. Es sieht wohl eher so aus als ob sich das Zeug irgendwann setzen wird und der hohe Speicherverbrauch fuer hoffentlich nutzvolleres eingesetzt wird.

Das aendert natuerlich gar nichts daran dass ich voll zustimme dass eine 960 oder jegliche heutige mainstream GPU ziemlich fehl am Platz ist mit nur 2GB Speicher, ausser man denkt dass 4xMSAA in 1080p Ueberfluess fuer eine mainstream GPU in 2015 ist.....
2 GB hielte ich im Moment für die Performance einer 960 für ausreichend. Es ist nicht üppig, aber man kann praktisch alle Games sinnvoll zocken.

Dural
2015-01-16, 14:55:48
von der 960 wird es doch sicher auch mal eine 4GB version geben. Ich sehe ehrlich gesagt nicht genau wo das problem ist. es wird keiner gezwungen diese karte mit 2GB zukaufen, zudem es in diesem leistungs und preis bereich so ziemlich egal sein dürfte. ich finde die karte generell nicht wirklich interessant und hoffe das der GM206 mehr zu bieten hat.

bei der 780 ti waren 3GB wirklich zu wenig, jedoch von NV sicht aus auch nachvollziehbar (Titan)

Effe
2015-01-16, 15:01:19
jedoch von NV sicht aus auch nachvollziehbar (Titan)(Gewinnmarge)
*fixed*

boxleitnerb
2015-01-16, 15:19:31
*fixed*

Wenn es nur um die RAM-Bausteine geht, bezweifle ich das. Die AIBs haben Nvidia früher GPU und Speicher abgekauft, soweit ich weiß - wenn das immer noch so ist, würden die wohl kaum Nvidia daraus Gewinn schlagen lassen, einfach etwas weiterzuverkaufen.

Palpatin
2015-01-16, 15:26:20
bei der 780 ti waren 3GB wirklich zu wenig, jedoch von NV sicht aus auch nachvollziehbar (Titan)
Denk eher das die 9er Serie der Hauptgrund war, eine 780ti mit 6gb würde ich der 980 imo vorziehen.

aths
2015-01-16, 15:34:37
Denk eher das die 9er Serie der Hauptgrund war, eine 780ti mit 6gb würde ich der 980 imo vorziehen.
Reine Produktpolitik. Die 780 Ti durfte die Titan nicht zu stark gefährden. Als Gaming-Graka reichen die 3 GB auch für die Leistung aus.

Die 970/980 würden ebenfalls blöde dastehen, wenn der direkte Gaming-Vorgänger mehr Speicher gehabt hätte.

Wie man's macht, ist es falsch. Wären 970/980 mit 8 GB gekommen, hätten viele gelästert, dass Nvidia versuche, durch großen Speicherausbau eine Performance-GPU aufwerten wolle.

MilesEdgeworth
2015-01-16, 15:37:34
Zu den 2GB VRAM der GTX960... Ich vermute mal, dass die R9 285 als Reaktion auf einmal auch mit 4GB zu haben sein wird. Die 2GB scheinen den Chip teilweise zu limitieren im Vergleich zur R9 280, von daher wäre das ein erwartbarer Schachzug, um eventuell ein paar Prozentpunkte zur GTX 960 gut zu machen und natürlich mit dem doppelten Speicherausbau werben zu können. :ugly:

MorPheuZ
2015-01-16, 15:45:23
@960 2GB: Man hat halt quasi das gleich wie vor 2 Jahren mit der 680/770. Heute ist es Mittelfeld, damals "HighEnd".

Nur der Preis ist ein anderer...

Thunder99
2015-01-16, 17:00:38
Passt doch von der Marktposition:

GTX960 2GB
GTX970/980 4GB
GM200 6GB

Pascal 8GB (Glaskugel ahoi :D)

AnarchX
2015-01-16, 17:30:14
GM200-400 = GeForce. Quadro und Tesla haben SKU-Nummern im 800er Bereich.

40. Woche 2014 = Anfang Oktober und kein Qual-Sample. Da hält man den Chip wohl wirklich zurück.

Ailuros
2015-01-16, 17:31:03
2 GB hielte ich im Moment für die Performance einer 960 für ausreichend. Es ist nicht üppig, aber man kann praktisch alle Games sinnvoll zocken.

Heute wohl schon noch, obwohl es schon heute auf GTX680/770-ern ab und zu zu knapp wird und das nicht mal bei extravaganten Aufloesungen. Mit dem hoechstwahrscheinlichen MSRP von der GTX960 wird man sich locker eine 280X kaufen koennen.

dildo4u
2015-01-16, 17:37:58
Heute wohl schon noch, obwohl es schon heute auf GTX680/770-ern ab und zu zu knapp wird und das nicht mal bei extravaganten Aufloesungen. Mit dem hoechstwahrscheinlichen MSRP von der GTX960 wird man sich locker eine 280X kaufen koennen.
Müsste die 280X nich langsam EOL gehen?285 Karten mit 2GB und 256bit sind ja billiger in der Herstellung,daher würden sie für AMD's Partner mehr Profit erwirtschaften.

Unicous
2015-01-16, 17:52:04
Kommt drauf an, wie die Lagerbestände sind. AMD und die OEMs hatten nach dem "Mining"-Hype anscheinend mit einer Welle an Rückläufern zu kämpfen und die 280(X) will irgendwie auch keiner mehr haben.

Die 285 ist ein Lückenbüßer und wird mE abgelöst von hypothetischen 370(X). Ich schätze mit Tonga XT kommen dann auch die 4GB Modelle. AMD wollte den Abverkauf der 280(x)er dadurch nicht gefährden, ist meine Spekulation.

AMD muss in den nächsten Monaten reagieren, aber es könnte wirklich sein, dass sie es warum auch immer bis zum Sommeranfang aussitzen (Computex). Wäre selten dämlich, da man Nvidia somit das gesamte Feld überlässt und maximal mit weiteren Preisrutschen reagiert.

Loeschzwerg
2015-01-16, 18:24:53
@Unicous: Auf dem PCB der GM200 Karte sieht man 180-1G600-1102-A04 :)

@AnarchX: Yep, ist ein regulärer Chip ohne die typischen ES/QS Kürzeln. A1 Rev., da scheint für NV sofort alles gut gelaufen zu sein. Aber der 400er GK110 war leider nicht voll aktiviert... könnte bei diesem GM200 auch so sein.

Die Karte hat 12GB Speicher bestückt, kann also eigentlich nur eine Titan sein. Die dürfte auch vor der normalen 6GB Variante kommen um die "Enthusiasten" zu schröpfen...

M4xw0lf
2015-01-16, 18:28:10
Warum soll es eher eine Titan als eine Quadro sein?

Loeschzwerg
2015-01-16, 18:30:59
Weil Quadro und Co die 800er SKU haben:
http://www.coolingconfigurator.com/upload/pictures/Nvidia-Quadro-K6000-12GB-GDDR5---PCB.jpg

PCB Datum 42. 2014... das Ding ist quasi schon Ewigkeiten fertig.

Edit:
GK110-300 => 780
GK110-400 => Titan
GK110-425 => 780 Ti
GK110-430 => Titan Black

So zur Übersicht... hoffentlich bedeutet dieser GM200-400-A1 nicht einen Launch mit teil deaktiviertem GM200 :(

AnarchX
2015-01-16, 18:46:31
Wobei bei GK110 aber noch ein Respin (B-Stepping) dazwischen war. 400 war auch des öfteren schon ein voller Chip bei NV und 4x0 der Bin für hohe Takte / Dual-GPU.

Loeschzwerg
2015-01-16, 18:52:10
Ja, wollen wir es hoffen :)

Hübie
2015-01-16, 19:35:07
Am PCB selber wird in so einer späten Phase höchst selten noch etwas verändert. Also kein wirkliches Indiz ;) Ich weiß das Kartons bereits bedruckt werden :naughty:
Wenns stimmt wird allerdings mehr als für Titan verlangt. Also bin ich hier raus. Werde mir diese Runde wohl ne AMD holen.

Loeschzwerg
2015-01-16, 19:40:58
Also kein wirkliches Indiz ;)

Hm? Für was? Sorry, komm gerade nicht mit :redface:

Hübie
2015-01-16, 19:53:08
Das die Karte schon seit einer Ewigkeit fertig ist. Oder hab ich dich falsch verstanden?

Loeschzwerg
2015-01-16, 20:05:53
Achso :) Ja, ich hab eher finaler GM200 40. 2014 und PCB 42. 2014 zu => "schon Ewigkeiten fertig" zusammengerechnet. NV könnte vermutlich schon starten, wenn man es denn gewollt hätte.

Aber Bedruckung der Kartons... dann kann es ja nicht mehr sooo lange dauern. Vorstellung zur Cebit und Launch kurz darauf? Oder früher?

hasebaer
2015-01-16, 20:06:17
Wenns stimmt wird allerdings mehr als für Titan verlangt.

Ist das nur deine Vermutung oder ein Wink von deiner Quelle?

Hübie
2015-01-16, 20:21:14
Es handelt sich um zwei verschiedene Quellen. Zur Preisaussage kann ich nichts weiter sagen, nur dass herum ging nVidia liege bei 1349$ MSRP.
Aber mal so gesagt: Selbst die 980 ist mir zu teuer (studiere ja wieder ;D).

@Loeschzwerg: Ach so. Hab das völlig falsch aufgefasst. Kam so rüber als meintest du das komplette Produkt. Irgendwie geh ich heut am Stock. :redface:

boxleitnerb
2015-01-16, 21:29:33
Am PCB selber wird in so einer späten Phase höchst selten noch etwas verändert. Also kein wirkliches Indiz ;) Ich weiß das Kartons bereits bedruckt werden :naughty:
Wenns stimmt wird allerdings mehr als für Titan verlangt. Also bin ich hier raus. Werde mir diese Runde wohl ne AMD holen.

WTF? Mit was will man das diesmal rechtfertigen? AMD könnte bald kontern, dazu kein DP. Kein Vergleich mit der Situation damals. Okay, der Speicher, aber 12 GB ist halt auch unnötig, wenn man ehrlich ist, für Spiele sollten die nächsten 2-3 Jahre 6-8 GB ausreichen (mit Multi-GPU).

M4xw0lf
2015-01-16, 21:49:21
Moar Hype.

Hübie
2015-01-16, 22:25:08
WTF? Mit was will man das diesmal rechtfertigen? AMD könnte bald kontern, dazu kein DP. Kein Vergleich mit der Situation damals. Okay, der Speicher, aber 12 GB ist halt auch unnötig, wenn man ehrlich ist, für Spiele sollten die nächsten 2-3 Jahre 6-8 GB ausreichen (mit Multi-GPU).

Na vermutlich ist das eh veraltet oder BS³.

aufkrawall
2015-01-16, 22:38:31
AMD könnte NV düpieren und selber mehr DP freischalten. :freak:

M4xw0lf
2015-01-16, 23:00:21
Radeon Zeus, Bezwinger der Titanen :upara:

AnarchX
2015-01-16, 23:24:27
Der UVP der GTX 960 könnte wohl deutlich über 200€ liegen: http://www.gdm.or.jp/voices/2015/0117/100501
... das wäre ziemlich stolz für (teildeaktives) 250mm² 28nm Silizium mit 2GiB Speicher auf einem 128-Bit PCB.

horn 12
2015-01-16, 23:36:18
Da wird die Konkurrenz aber weitaus besser aufgestellt sein bei der Neuen Palette an Karten.

Unicous
2015-01-17, 02:37:02
Der UVP der GTX 960 könnte wohl deutlich über 200€ liegen: http://www.gdm.or.jp/voices/2015/0117/100501
... das wäre ziemlich stolz für (teildeaktives) 250mm² 28nm Silizium mit 2GiB Speicher auf einem 128-Bit PCB.

Die GTX 760 hat doch auch $250 zum Launch gekostet? Die 660 $229. Vllt. ist Jensen ja gnädig und vergleicht nicht nur mit der 660 sondern verkauft die 960 auch zum selben Preis.:freak:

Spaß beiseite.:cool:... wird vermutlich wieder $249 kosten.

AnarchX
2015-01-17, 09:16:30
Da wird die Konkurrenz aber weitaus besser aufgestellt sein bei der Neuen Palette an Karten.
Die GTX 760 hat doch auch $250 zum Launch gekostet? Die 660 $229. Vllt. ist Jensen ja gnädig und vergleicht nicht nur mit der 660 sondern verkauft die 960 auch zum selben Preis.:freak:

Spaß beiseite.:cool:... wird vermutlich wieder $249 kosten.
Der Namen machts, wenn auch die Specs eher x50 Ti sagen. Wenn AMD wenigstens Tonga mit 4GiB (5,5Gbps ist Low-End) ausstatten würde, aber so ist da nahezu kein Konkurrenzdruck.

horn 12
2015-01-17, 10:18:44
Tonga XT mit 2GB ist genug Konkurrenz
Knapp um die 200 Euro und sollte wohl in etwa gleich auf liegen mit der Neuen GTX 960-er Karte
Ebenos nur 2GB Speicher
Sobald Tonga mit 4GB (R9 370) losgelassen wird sehen wir wohl eine GTX 960TI 4GB

Spasstiger
2015-01-17, 10:57:10
Ist der Name Titan eigentlich schon irgendwo im Zusammenhang mit GM200 aufgetaucht? Titan sollte ja ursprünglich die Anleihen aus dem High Performance Computing (HPC) ausdrücken (Supercomputer "Titan"). Da GM200 lt. Nvidia aber keine Double-Precision-Fähigkeiten besitzt und nicht fürs Tesla/HPC-Segment vorgesehen ist, fände ich eine Bezeichnung wie Titan X für Big Maxwell erstmal unpassend.
Daran, dass Nvidia das High-End-Gaming-Segment im Jahr 2015 dominieren wird, besteht für mich kein Zweifel. AMD könnte zwar performancetechnisch vermutlich noch mitgehen, wenn sie ebenfalls einen knapp 600 mm² großen Chip veröffentlichen, aber gekühlt bekommt man den bei Taktraten > 1000 MHz nur unter enormem Aufwand.
Der Unterschied wird sich imo leider wieder im Preis niederschlagen, Schnäppchen-Preise seitens Nvidia erwarte ich nicht.

Tonga XT mit 2GB ist genug Konkurrenz
AMD hat mit Tonga XT ein Gegenangebot zur GM206 in petto, bitter aber, dass AMD dafür 50% mehr Diefläche im gleichen Fertigungsprozess und ein doppelt so breites Speicherinterface benötigt. Am Ende ist der Kunde der Leidtragende, weil es für AMD keinen Spielraum und für Nvidia keinen Anlass zu einem Preiskampf gibt. Mainstream-Grafikkarten sind bei 200€+ angelangt.

Tomahawk
2015-01-17, 11:29:35
Titan sollte ja ursprünglich die Anleihen aus dem High Performance Computing (HPC) ausdrücken (Supercomputer "Titan").
Na ja, Fakt ist, dass die Titan komplett auf den Gamer-Markt abzielt und die interessieren sich nicht für HPC.

Hier ein Zitat von der nVidia-Seite:
Mit der Technologie der weltweit schnellsten Supercomputer und NVIDIA® Kepler™ Architektur steht die GeForce GTX TITAN Grafikkarte für überragende PC-Gamingleistung. Die GeForce GTX TITAN Grafikkarte kombiniert überragende Leistung, fortschrittliche Steuerung und hervorragende thermische und akustische Merkmale und ermöglicht damit erstmals echtes Supercomputer-Gaming.

fondness
2015-01-17, 11:35:14
Eben das HPC-Zeug war doch nur Marketing.

Nightspider
2015-01-17, 12:39:50
So ein ~620mm² großer Chip ließe sich aber super kühlen. Ein Wasserkühler drauf und mit ~1,5Ghz gehts ab. :cool: *träum*

horn 12
2015-01-17, 13:30:16
Tonga XT mit 4GB wird locker mal 20% schneller sein als die R9 285-er Karte
Könnte knapp auf R9 290 Niveau kommen, mit Tesselation wohl über R9 290-er Performance
Denke die 1100+ Mhz bei Tonga XT 4GB werden wir sehen, als R9 370-er Karte.

Jene wird wohl die R9 290 beerben und dann ist Platz für Neues HighEnd bis die Karten im 14nm Verfahren spruchreif sind.

Kriton
2015-01-17, 14:12:10
Die Karte hat 12GB Speicher bestückt, kann also eigentlich nur eine Titan sein. Die dürfte auch vor der normalen 6GB Variante kommen um die "Enthusiasten" zu schröpfen...

Erst die 6GB-Variante kaufen lassen und dann die 12er bringen, damit sie aufrüsten müssen. :weg:

aths
2015-01-17, 14:44:51
Heute wohl schon noch, obwohl es schon heute auf GTX680/770-ern ab und zu zu knapp wird und das nicht mal bei extravaganten Aufloesungen. Mit dem hoechstwahrscheinlichen MSRP von der GTX960 wird man sich locker eine 280X kaufen koennen.
Da kommt es dann darauf an. Würde MFAA endlich breit verfügbar geboten, spart man schon wieder etwas Speicher.

Auf 680-Niveau ist die 960 ohnehin nicht. Die 960 ist eher dazu gedacht, dem preisbewussten Gamer eine Lösung für 1920-er Auflösungen zu geben. Wer den Wumms braucht, auch in neuen Titeln alles hoch zu stellen, sollte eh (rein auf das Nvidia-Angebot bezogen) zur 970 greifen.

-/\-CruNcher-/\-
2015-01-17, 15:02:17
Jep vollkommene Zustimmung die GTX 970 ist die neue GTX 460 ;)

aths
2015-01-17, 15:03:09
Der UVP der GTX 960 könnte wohl deutlich über 200€ liegen: http://www.gdm.or.jp/voices/2015/0117/100501
... das wäre ziemlich stolz für (teildeaktives) 250mm² 28nm Silizium mit 2GiB Speicher auf einem 128-Bit PCB.
Die wollen offenbar sehen, was sie für das Gerät nehmen können. Wenn ich sehe, dass 970/980 doch preisstabiler sind als ich erst dachte, würde ich es an NVs Stelle auch versuchen, mit der 960 die Marge schön zu erhöhen.

Allerdings steht die Frage auch, was für die Boardpartner übrig bleibt. Nur wenn Gewinn gemacht wird, kann der mit Boardpartnern geteilt werden. Wenn wir etwas Unterscheidbarkeit bei den Marken wollen, brauchen wir Boardpartner, die mehr sind als eine reine Durchreiche für NV-Referenzmodelle.

-/\-CruNcher-/\-
2015-01-17, 15:05:50
Die wollen offenbar sehen, was sie für das Gerät nehmen können. Wenn ich sehe, dass 970/980 doch preisstabiler sind als ich erst dachte, würde ich es an NVs Stelle auch versuchen, mit der 960 die Marge schön zu erhöhen.

Allerdings steht die Frage auch, was für die Boardpartner übrig bleibt. Nur wenn Gewinn gemacht wird, kann der mit Boardpartnern geteilt werden. Wenn wir etwas Unterscheidbarkeit bei den Marken wollen, brauchen wir Boardpartner, die mehr sind als eine reine Durchreiche für NV-Referenzmodelle.

Jo stimme ich auch zu viel zu viele geworden die überhaupt nichts beitragen ausser ihr Branding draufzukleben und teils auch noch irrwitzige Designs ablieferen wo man sich fragt was das überhaupt soll.

Botcruscher
2015-01-17, 15:10:29
Bei einem Preis von 200€+ zweifle ich langsam an der Zurechnungsfähigkeit der Käufer. Angesichts der 290 muss da das Marketing den letzten Rest Verstand verdreht haben. PS: Immerhin ist die 285 auch so eine Schabracke.

Marty98
2015-01-17, 16:45:58
Bei einem Preis von 200€+ zweifle ich langsam an der Zurechnungsfähigkeit der Käufer. Angesichts der 290 muss da das Marketing den letzten Rest Verstand verdreht haben. PS: Immerhin ist die 285 auch so eine Schabracke.

Sehe ich komplett anders. Jeder der sich mit der Lautstärke (besonders im Idle) der 290er zurechtfindet ist entweder taub oder unzurechnugsfähig. Eine leise 290er würde ich sofort kaufen.

Nakai
2015-01-17, 16:57:39
Der UVP der GTX 960 könnte wohl deutlich über 200€ liegen: http://www.gdm.or.jp/voices/2015/0117/100501
... das wäre ziemlich stolz für (teildeaktives) 250mm² 28nm Silizium mit 2GiB Speicher auf einem 128-Bit PCB.

Wieso gehst du immer davon aus, dass GM206 in seiner derzeitigen Form noch verfügbare nicht-deaktivierbare Cluster hat? Weil die Platinen-Rückseite Platz für 6 Speicherchip-Plätzen zeigt, von denen derzeit 4 belegt sind?

Damit wäre ein GM206 ein GM204*0.75. GM206 sollte dann aber größer als 250mm² sein. Eher ~280mm².

€:
Scheint fast zu sein, dass ein GM206 noch eine ROP-Partition besitzt.
3 GPCs sind dann auch gesichert, mit je 4 SMMs. Eine andere Skalierung wäre für Maxwell ziemlich lächerlich, außer man hat wieder eine inhomogene Verteilung wie bei GK106, welcher ein ziemlicher Reinfall war für NV.

Auch der GM206-Die in seiner Form spricht für eine zusätzliche ROP-Partition. Der Die ist viel zu lang und man erreicht damit eine größeren Umfang, also Platz für mehr PHYs/MCs.

€: Mit GM206 und GM200 kann man dann sogar schön approximieren, wie groß eine GPC(mit 4 SMMS) mit einer ROP-Partition ist.

AnarchX
2015-01-17, 17:10:16
PCB und der 300er Die sprechen für zusätzliches Potential im Silizium.

2x5 SMM mit maximal 32 Pixeln an 48 ROPs wären auch denkbar. Die 250mm² sind auch eher geschätzt, da sind +/-10% auch denkbar.

Schnoesel
2015-01-17, 17:11:39
Sehe ich komplett anders. Jeder der sich mit der Lautstärke (besonders im Idle) der 290er zurechtfindet ist entweder taub oder unzurechnugsfähig. Eine leise 290er würde ich sofort kaufen.

Gibt ja immer noch keine leisen Referenzkarten ... Oh wait :freak:

Bei einem Preisbereich von über 200€ muss GM206 aber schon was zeigen. AMD sollte mit frühzeitig mit einer 4GB Version kontern.

AnarchX
2015-01-17, 17:15:23
Bei einem Preisbereich von über 200€ muss GM206 aber schon was zeigen. AMD sollte mit frühzeitig mit einer 4GB Version kontern.
Momentan sieht es ja nach R9 285 Leistung, bei deutlich niedrigerem Verbrauch und GeForce Bonus aus. Und mit der HW-Ausstattung hat die Karte das Potential für einen Preiskampf bis 150€, was für AMD mit Tonga wohl deutlich schmerzhafter wäre.

dildo4u
2015-01-17, 17:15:43
Die 4GB Version der 285 kommt nich weil sie noch 3GB Karten abverkaufen müssen,die würden sonst im Lager liegen bleiben.Eine 960 für 200€ wäre für NV Verhältnisse ok wenn man sieht was eine 770 noch kostet.

Nakai
2015-01-17, 17:23:57
PCB und der 300er Die sprechen für zusätzliches Potential im Silizium.

2x5 SMM mit maximal 32 Pixeln an 48 ROPs wären auch denkbar. Die 250mm² sind auch eher geschätzt, da sind +/-10% auch denkbar.

Also bei 1024 SPs sind es ja 8 SMMs. Mehr als 10 kann ich mir da schwer vorstellen. 2*4 und 1*2? Oder ein doppelter GM107, reinher von den Specs?

Die 4GB Version der 285 kommt nich weil sie noch 3GB Karten abverkaufen müssen,die würden sonst im Lager liegen bleiben.Eine 960 für 200€ wäre für NV Verhältnisse ok wenn man sieht was eine 770 noch kostet.

Die R9 280 mit 3GB wird derzeit für ~150$ abverkauft.

http://www.newegg.com/Product/Product.aspx?Item=N82E16814131570

Agent117
2015-01-17, 17:47:10
Momentan sieht es ja nach R9 285 Leistung, bei deutlich niedrigerem Verbrauch und GeForce Bonus aus. Und mit der HW-Ausstattung hat die Karte das Potential für einen Preiskampf bis 150€, was für AMD mit Tonga wohl deutlich schmerzhafter wäre.

Das Potential der GTX 960 sollte sogar bis 100€ gehen. Nur 128Bit, einfache Strom- und Spannungsversorgung des Chips; das ist schon alles billig.
RV770 ließ sich im Frühsommer 2009 auch noch für ca. 100€ gewinnbringend verkaufen und der hatte mehr Verbrauch, 256Bit und verwendete als erste Grafikkarte GDR5.

Tonga sollte da meiner Einschätzung nach maximal 50€ drüber liegen, eher weniger.

hasebaer
2015-01-17, 18:05:30
Im Frühsommer 2009 lag der Euro aber auch bei 1,40 USD.
Aktuell liegt ein Euro nur bei 1,15 USD.

Kriton
2015-01-17, 18:43:36
Sehe ich komplett anders. Jeder der sich mit der Lautstärke (besonders im Idle) der 290er zurechtfindet ist entweder taub oder unzurechnugsfähig. Eine leise 290er würde ich sofort kaufen.

Custom Designs?

http://www.tomshardware.de/sapphire-vapor-x-r9-290-tri-x-review,testberichte-241542.html

Marty98
2015-01-17, 18:47:15
Gibt ja immer noch keine leisen Referenzkarten ... Oh wait :freak:

Bei einem Preisbereich von über 200€ muss GM206 aber schon was zeigen. AMD sollte mit frühzeitig mit einer 4GB Version kontern.

Geht nicht um Referenz. Imho gibt es nicht eine 290(X) welche die Idle Lautstärke der meisten 970er auch nur halbwegs erreicht.

Custom Designs?

http://www.tomshardware.de/sapphire-vapor-x-r9-290-tri-x-review,testberichte-241542.html

Sind alle laut. Idle sogar lauter als AMD Referenz.

http://www.computerbase.de/2013-12/sapphire-radeon-r9-290-tri-x-oc-test/4/

fondness
2015-01-17, 19:00:16
Dein Link mit nur zwei getesteten Custom-Designs soll wohl ein Scherz sein? Die Vapor-X ist über jeden Zweifel erhaben und schafft das in Gegensatz zu den ganzen billig 970ern auch ohne Spulenfiepen. Aber das ist hier OT.

http://www.computerbase.de/2014-04/sapphire-radeon-vapor-x-r9-290-luefter-aus-lautstaerke-test/

Unicous
2015-01-17, 19:08:02
@Nakai

Was haben mail-in Rabatte der billigsten R9 280 mit Abverkauf zu tun?

Traurigerweise ist doch die R9 280 Serie seit Monaten preisstabil und man merkt gar nicht, dass AMD die loswerden möchte. Ein Kumpel wollte vor einem geglückten Backversuch seine defekte Karte austauschen und hat gemerkt, dass er nach xx Monaten immer noch nicht (deutlich) mehr für das gleiche Geld bekommt.

Wie auch immer AMDs Strategie ist, logisch erscheint sie nicht. Es kommt wohl nichts in diesem Quartal, unter Umständen erst spät etwas im nächsten während Nvidia eine neue Mainstream-Karte vorbereitet.

Das wird sich nochmals auf den Marktanteil auswirken. Das Mysterium R9 285(X) wird weiterhin nicht aufgelöst.

Marty98
2015-01-17, 19:12:19
Dein Link mit nur zwei getesteten Custom-Designs soll wohl ein Scherz sein? Die Vapor-X ist über jeden Zweifel erhaben und schafft das in Gegensatz zu den ganzen billig 970ern auch ohne Spulenfiepen. Aber das ist hier OT.

http://www.computerbase.de/2014-04/sapphire-radeon-vapor-x-r9-290-luefter-aus-lautstaerke-test/

Das ist ein Gerücht oder gar Propaganda. Alle 2(8)90er fiepen genauso wie die 970er.

https://www.youtube.com/watch?v=S3mDeMZFv6k

von Richthofen
2015-01-17, 19:34:50
Alle 2(8)90er fiepen genauso wie die 970er.

Alle ? - plumpe Behauptung. Die 970 Galax EXOC musiziert hier fröhlich in (zu-) vielen Lebenslagen, während die 290X schon T-REX Offscreen oder ein Menü mit 4-stelligen FPS benötigt um was rauszuhören.

aufkrawall
2015-01-17, 19:47:35
Das ist ein Gerücht oder gar Propaganda. Alle 2(8)90er fiepen genauso wie die 970er.

https://www.youtube.com/watch?v=S3mDeMZFv6k
Na, deutlich leiser als bei meiner MSI 970 ist das schon. Kenne zwei Vapor-X Karten (X und non-X), und die waren beide ziemlich unauffällig, was Spulenfiepen angeht.
Wär Maxwell nicht so sparsam, würden die meisten verbauten Kühler-Designs auch ziemlich versagen. Von den 780 Ti Customs (also vergleichbarer Verbrauch) kann insgesamt eigentlich keines der Vapor-X das Wasser reichen.
Kam zwar spät, aber dafür geil (wenn nicht von Blackscreen-Seuche betroffen).

Marty98
2015-01-18, 02:42:04
Alle ? - plumpe Behauptung. Die 970 Galax EXOC musiziert hier fröhlich in (zu-) vielen Lebenslagen, während die 290X schon T-REX Offscreen oder ein Menü mit 4-stelligen FPS benötigt um was rauszuhören.

Das ist eben Glück/Pech beim Kauf. Hatte 3 7970er hier und 1 fiepte ab 40 fps, eine ab 120, und eine ab 600 fps. Aber insgesamt fiepen alle Mid/Highend Grakas von AMD/NVIDIA weil es die Grakahersteller einen feuchten Furz interessiert.

AnarchX
2015-01-18, 10:28:19
Hier kostet die Karte wohl umgerechnet doch nur $200: http://www.hkepc.com/12189

Kriton
2015-01-18, 12:04:58
Das ist eben Glück/Pech beim Kauf. Hatte 3 7970er hier und 1 fiepte ab 40 fps, eine ab 120, und eine ab 600 fps. Aber insgesamt fiepen alle Mid/Highend Grakas von AMD/NVIDIA weil es die Grakahersteller einen feuchten Furz interessiert.

Das sind aber nicht die von Dir behaupteten 280er bzw. 290er. Der Chip (der 280er) mag (designmäßig) derselbe sein (wie die 7950/7970), aber angefasst hat man da (beim Chip) und bei den Board-Layouts sicherlich etwas als man daraus die 280(X) konstruiert hat. Die 7970 in ihrer ursprünglichen Version war ja z.B. aus dem ganz frischen 28nm-Prozess. Und die 290 ist ein ganz anderes Design.
Und da Du nichts dazu sagst: Auch die Frage nach dem Boardpartner wäre interessant (z.B.: die 3 Karten von 1 Partner?).

Nakai
2015-01-18, 12:14:47
@Nakai

Was haben mail-in Rabatte der billigsten R9 280 mit Abverkauf zu tun?



Das stimmt schon. Das kommt nicht direkt von AMD. Entweder der Rabatt zeigt auf, was noch möglich ist, oder man will Lager leeren, für AMD oder für was Anderes. Mal abwarten...eventuell eine Reaktion sogar auf die GTX 960, bzw dass die Lager für diese frei gemacht werden?

Unicous
2015-01-18, 13:26:51
Hier kostet die Karte wohl umgerechnet doch nur $200: http://www.hkepc.com/12189

In Hong Kong gibt es keine Mehrwertsteuer, afaik. Da müsste man erst einmal Vergleichspreise finden. Außerdem geht es da um ein Gewinnspiel. Ich würde erst einmal abwarten.

Hübie
2015-01-18, 13:34:10
Also mit 249 kann man eigentlich schon fix rechnen ;)

Leonidas
2015-01-18, 15:30:36
229 oder 249 $ wird es sicher werden. Wenn das in der Praxis zu hoch ist, kann man ja immer noch Rabatte drauf geben.

Loeschzwerg
2015-01-18, 17:21:26
Also ~249€ (1:1 USD) werden sich definitiv nicht sehr lange halten, sofern das überhaupt so kommt. Da greift doch jeder gleich zur 970, auf die 50€ mehr sind ja quasi geschissen.

Ne, das dürfte schnell Richtung 200-220€ bis weniger tendieren. Nur so hat man auch noch Platz für eine Ti und Custom Geraffel (OC und evtl. mehr Speicher).

AnarchX
2015-01-18, 17:22:42
Also ~249€ (1:1 USD) werden sich definitiv nicht sehr lange halten, sofern das überhaupt so kommt. Da greift doch jeder gleich zur 970, auf die 50€ mehr sind ja quasi geschissen.

Bei dem aktuellen Wechselkurs könnte 1:1 fast hinkommen und die anderen Karten könnten sich nach oben bewegen.

Loeschzwerg
2015-01-18, 17:36:12
Bei dem aktuellen Wechselkurs könnte 1:1 fast hinkommen und die anderen Karten könnten sich nach oben bewegen.

Das könnte uns natürlich leider bevorstehen und damit wäre der vermutete Preis der 960 natürlich wieder erklärbar.

Da sollte man ja aktuell dann fast noch bei einer GM204 zuschlagen.

AnarchX
2015-01-18, 17:43:23
Das könnte uns natürlich leider bevorstehen und damit wäre der vermutete Preis der 960 natürlich wieder erklärbar.

Die aktuell bekannten Preise haben aber nichts mit dem Eurokurs zu tun.

$249 für 8/128/2 sind im Vergleich für 13/256/4 für $329 doch schon relativ viel. Da waren die alten x60 Karten halt deutlich näher bei der Leistung. Die zuletzt genannten $199 wären dann wieder hingegen vertretbar.

Hübie
2015-01-18, 19:18:08
Bei nVidia rechne ich immer mit mehr als weniger ;) Obwohl ich zugeben muss dass die 970 mich überraschte.

Ailuros
2015-01-18, 19:21:51
Bei nVidia rechne ich immer mit mehr als weniger ;) Obwohl ich zugeben muss dass die 970 mich überraschte.

Stimmt zwar schon aber die Leistung zwischen einer 8 SMM 960 und einer 970 duerfte gross genug sein dass man locker noch etwas preislich und Leistungsmaessig dazwischen schieben koennte. Unter der Perspektive sind die vorgeschlagenen $199 fuer die 960 nicht absurd, aber wir werden es wohl in wenigen Tagen herausfinden.

Hübie
2015-01-18, 19:52:22
Das war auch bei GK104<->110 der Fall. Ergbnis kennen wir alle :biggrin:

iuno
2015-01-19, 10:06:51
Im heise-Forum behauptet jemand, dass schon lange GM200-Karten im Umlauf sind. Angeblich liegt so eine im Büro rum, wegen dem NDA will er aber nichts weiteres verraten.
Glaube aber eher, dass er - wenn überhaupt irgendwas dran ist - von einer 960 spricht

http://www.heise.de/newsticker/foren/S-Angeblich/forum-290859/msg-26361048/read/
http://www.heise.de/newsticker/foren/S-Re-Dass-es-Bilder-gibt-bedeutet/forum-290859/msg-26361060/read/

Oder haltet ihr es möglich, dass eine Quadro mit GM200 schon demnächst erscheint, eine Titan aber erst nach Fiji/Bermuda?

M4xw0lf
2015-01-19, 10:14:12
Sicher sind Karten mit GM200 schon im Umlauf, sonst gäbs wohl kaum Bilder von der GPU. ;)
Was die Releasestrategie angeht: das weiß nur Nvidia.

iuno
2015-01-19, 10:24:16
So meinte ich das nicht. Der Post hat sich angehört, als lägen die Karten etwa schon bei Redaktionen zum Testen, das wird mW. ja nicht sehr lange vor Release gemacht.

M4xw0lf
2015-01-19, 10:46:13
Der Typ bei heise muss ja kein Hardwareredakteur sein, vielmehr ein Kunde von Nvidias Profisparte.

iuno
2015-01-19, 12:37:19
Ja, hast recht. Zumal es da ja um die Quadro M6000 geht, nicht um die Titan (obwohl der Chip GM200-400-A1 heißt).

Dural
2015-01-20, 11:31:42
AMD beklagt sich über die 2GB / 128Bit der 960 und hat bei ihrem Gegenstück der 285 selber nur 2GB. :freak::freak::freak:

So was, nett ausgedrückt dummes kann nur von AMD kommen. Zeigt aber ganz klar das NV wahrscheinlich mal wieder einen netten Verkaufsschlager in der Hand hält, sonst würde AMD nie so drauf reagieren.

http://www.computerbase.de/2015-01/amd-schiesst-gegen-die-geforce-gtx-960/

Langlay
2015-01-20, 11:40:18
AMD beklagt sich über die 2GB / 128Bit der 960 und hat bei ihrem Gegenstück der 285 selber nur 2GB. :freak::freak::freak:

So was, nett ausgedrückt dummes kann nur von AMD kommen. Zeigt aber ganz klar das NV wahrscheinlich mal wieder einen netten Verkaufsschlager in der Hand hält, sonst würde AMD nie so drauf reagieren.

http://www.computerbase.de/2015-01/amd-schiesst-gegen-die-geforce-gtx-960/


Naja da gibts aber den Unterschied das nicht nur die R9 285 sondern auch die R9 280 erwähnt wird. Desweiteren ist die R9 285 schon seit Monaten auf dem Markt und hat auch ein 256bit Interface. Also ich seh jetzt nichts wirklich Dummes ist halt normales Marketing gelaber.

N0Thing
2015-01-20, 11:40:26
AMD beklagt sich über die 2GB / 128Bit der 960 und hat bei ihrem Gegenstück der 285 selber nur 2GB. :freak::freak::freak:

So was, nett ausgedrückt dummes kann nur von AMD kommen. Zeigt aber ganz klar das NV wahrscheinlich mal wieder einen netten Verkaufsschlager in der Hand hält, sonst würde AMD nie so drauf reagieren.

http://www.computerbase.de/2015-01/amd-schiesst-gegen-die-geforce-gtx-960/


Nach der Logik müssten die Karten von AMD immer abgehen wie Schmitz Katze, so wie sich bei jeder AMD-Ankündigung die Madigmacher in den entsprechenden Threads sammeln. :D

Abgesehen davon, dass die Aussagen von AMD in diesem Fall einfach peinlich sind, hat die R285 ein 256Bit Speicherinterface und die ebenfalls genannte R280 ein 384bit Speicherinterface und 3GB VRAM, falls du das vergessen haben solltest. ;)
Bringt nur nichts, wenn eine Karte mit 2GB und 128Bit genauso schnell ist.

Effe
2015-01-20, 11:47:15
Bringt nur nichts, wenn eine Karte mit 2GB und 128Bit genauso schnell ist.
Was noch zu beweisen wäre.

Ist denn diese Pressemitteilung auch irgendwo nachzulesen? Ich werde mir dazu sicher nicht den Thread bei CB durchlesen. Ich habe nur kurz überflogen und den Namen "Sontin" gesehen, da werden die Fanboys wieder Bravehart spielen.

iuno
2015-01-20, 11:50:21
Nach weiteren Beiträgen des Redakteurs zu suchen, beschleunigt das oft ;)
http://www.computerbase.de/forum/showthread.php?t=1437975&page=2&p=16888760#post16888760

Außerdem werden 'maximal 2GB' und mangelnde Leistungssteigerung zum 1,5 Jahre alten Vorgänger werden beklagt. Das von 280 zu 285 ja eigentlich alles genauso. Das heißt für mich, dass vielleicht doch bald eine Tonga XT auch mit 4GB möglich ist. Vielleicht bedeutet es aber, dass die 280(X) mit 3GB noch nicht so schnell in Rente gehen kann...
Angesichts des spekulierten Preises halte ich einen Verkaufsschlager allerdings für unwahrscheinlich.
Dass AMD zu solchen Maßnahmen greift ist aber keine schöne Entwicklung. Ein schlechtes Produkt schlechtzureden ist dann Aufgabe der Presse ;)

N0Thing
2015-01-20, 11:57:39
Was noch zu beweisen wäre.

Das klärt sich ja von ganz alleine zum Release. ;)
Ich hab ja nicht die Behauptung aufgestellt, dass es so kommen wird. Mich würde es nur nicht überraschen, wenn man sich mal die Performance von einer R290x und einer GTX 980 und deren jeweiliges Speicherinterface anschaut.

Dural
2015-01-20, 12:02:54
Das lustige der Vorab Pressemitteilung ist ja noch, das NV jeder zeit sofort eine 4GB Karte nachschieben kann, wenn eventuell nicht sogar noch ein grösseres SI und mehr SP ;D

iuno
2015-01-20, 12:09:02
Und wie stellst du dir das vor? Sie werden wohl kaum gleich eine 960 ti nachschieben, wenn die 960 preislich ohnehin schon hoch angesetzt wird.
Es glaubt auch wohl niemand eine Sekunde daran, dass sich Nvidia von so einer Meldung beeindrucken lässt

Dural
2015-01-20, 12:15:08
Die PCB die man bis jetzt sah sind schon für 4GB ausgelegt. Das dürft Produktions-Technisch nur wenige Wochen dauern. Die 960 wird sicher nicht mehr Einheiten bekommen, aber eventuell ist ja eine 960Ti geplant mit mehr, je nach dem was der GM206 jetzt wirklich hat / kann.

Die 249.- sind ja Fix in Stein gemeisselt und die Karte wird noch in 10 Jahren so viel kosten :eek: Wenn überhaupt der Preis zu trifft, eine Bestätigung für diesen gibt es bis heute noch nicht.



Hier noch das Original

We’re all aware of rumors swirling around an upcoming product launch this week. What does this product offer?

•A value oriented 128-bit memory interface
•A maximum 2GB frame buffer
•Questionable performance uplift over its predecessor, that launched over a year and a half ago


If this all sounds unappealing…it’s because it is. Better products already exist and are widely available in the market from AMD. The AMD Radeon™ R9 280 Series graphics are still gamers’ first choice, in this class, with features including, but not limited to:

•More memory bandwidth, with 256-bit (and higher) parts
•Beyond HD gaming experience with MSAA and AF, for superior performance
•Smooth game play at 4K resolutions in top-10 games like DOTA2, CS:GO, TF2, LoL and more
•Support for AMD technologies like Mantle, Eyefinity, TrueAudio (R9 285) and Freesync (R9 285)
•A starting price of 179 €.


Want evidence of how AMD is powering high-performance, 4k experiences for gamers, without the high-end price tag? AMD challenged Linus Tech Tips to build a 4K Gaming PC for under $1000. Follow the link for to see how he rose to the occasion.

Die Ironie der Pressemitteilung ist einfach unglaublich, AMD hat mit der 285 exakt das selbe gemacht wie NV jetzt mit der 960, sprich weniger Speicher und kleineres SI gegen über der 280. NV kann wenigstens den Verbrauch deutlich senken, was AMD bis heute nicht geschafft hat.

Effe
2015-01-20, 12:19:57
Wie sinnvoll sind denn 4GB an einem 128bit Speicherinterface?

Dural
2015-01-20, 12:25:13
Wie sinnvoll ist ein 256Bit SI wenn man technisch mit der selben Leistung ein 128Bit verbauen kann?

Die 980 hat auch nur 256Bit nimmt es aber locker mit der 290X / 780Ti auf ;)

Thunder99
2015-01-20, 12:26:56
Schätze AMD hat Angst noch mehr Marktanteile zu verlieren wenn die GTX960 erscheint.

128bit mit den Maxwell Verbesserungen scheint schon ok zu sein. Und mit 2GB halten sie den Herstellern noch die Möglichkeit offen mit Sondermodellen mehr Geld zu verdienen. Nebenbei hat AMD meistens mehr Speicher verbaut als nvidia.

iuno
2015-01-20, 12:33:14
Die Ironie der Pressemitteilung ist einfach unglaublich, AMD hat mit der 285 exakt das selbe gemacht wie NV jetzt mit der 960, sprich weniger Speicher und kleineres SI gegen über der 280. NV kann wenigstens den Verbrauch deutlich senken, was AMD bis heute nicht geschafft hat.

40W weniger bei minimal höherer Leistung sind dir nicht 'deutlich' genug? Auch ging AMD beim SI um ein Drittel runter, Nvidia um die Hälfte. Zudem kann AMD wie gesagt immer noch eine Karte mit Tonga XT und 4GB bringen. Ganz unabhängig vom Ergebnis (das noch nicht feststeht) muss man hier nicht völlig übertreiben.

pipin
2015-01-20, 12:39:48
mmcorner.de hat mit 229,99 Euro schon einen ersten Preis der GTX 960 gelistet.
Da der Shop was kleiner ist wird das dann bei den Großen Richtung 200 Euro gehen.

Außerdem gibts bei geizhals schon eine Listung einer Asus-Karte ohne Preis: http://geizhals.at/eu/asus-gtx960-2gd5-90yv07n0-m0na00-a1217553.html

dildo4u
2015-01-20, 12:42:19
Einfach nur Absurd was AMD schreibt zumindest bewirbt NV die 960 für das was sie wirklich brauchbar ist 1080p.

Chip
2015-01-20, 13:14:06
EVGA GeForce GTX 960 SSC 4GB (http://preisvergleich.tweakpc.de/produkt/274612/evga-geforce-gtx-960-ssc-4gb#tab:preise)
Das dürfte aber falsch sein. -02G-P4-2966-KR-

horn 12
2015-01-20, 13:28:42
AMD kann mit R9 290(X) nocht gut mithalten, siehe Neueste Games
Wenn dann würde ich 50-70 Euro mehr investieren und mir gleich eine R9 290 kaufen
Doppelter Speicher und dafür aber auch doppelter Verbrauch - dies ist mir persönlich Wayne!
Da spart mal lieber beim Kühlschrank, TV, Fhön udg. ein!

Gandharva
2015-01-20, 13:31:01
GTX 960 4GB -> 249€
GTX 960 2GB -> 199€

:sneak:

Ist natürlich Bubu. Denke nicht das es schon 4GB Modelle geben wird zum Launch.

y33H@
2015-01-20, 15:19:53
Bei der 965M kann keiner sicher sagen, was NV da einsetzt - GM204 oder GM206. Aber sinnvollerweise sollte man schon den GM206 einsetzen.NV sagt "derzeit" noch GM204, wird aber sicherlich später auch mit GM206 kommen.

Was spricht beim GM206 wie schon mal erwähnt gegen 2 GPC mit je 5 SMM (ähnlich wie GM107) anstatt 3 GPC mit je 4 SMM?

Godmode
2015-01-20, 15:31:36
Könnte man hier eigentlich splitten? Der GM206 Spam würde eigentlich einen eigenen Thread verdienen. Ich schaue hier immer nach um neue Infos über GM200 zu bekommen und werde jedes mal enttäuscht.

Locuza
2015-01-20, 15:35:27
Hast du schon einmal auf den Thread-Titel geschaut?

Godmode
2015-01-20, 15:40:35
Ja, aber da es nur mehr GM200 und GM206 gibt, würden sich 2 extra Threads anbieten.

Loeschzwerg
2015-01-20, 16:00:32
Was spricht beim GM206 wie schon mal erwähnt gegen 2 GPC mit je 5 SMM (ähnlich wie GM107) anstatt 3 GPC mit je 4 SMM?

Ginge auch, sehe da kein Problem. Einen Mix wie beim GK106 halte ich aber auch für möglich (2x 4 SMM und 1x 2 SMM).

Sind ja nur noch zwei Tage, dann wissen wir entweder mehr oder haben wenigstens neue Infos zur Spekulation.

Zur AMD Mitteilung sage ich besser nix... das schadet mehr als was es bringt. Außer man will mit aller Gewalt mal wieder in die News kommen -.-*

aths
2015-01-20, 16:24:33
AMD beklagt sich über die 2GB / 128Bit der 960 und hat bei ihrem Gegenstück der 285 selber nur 2GB. :freak::freak::freak:

So was, nett ausgedrückt dummes kann nur von AMD kommen. Zeigt aber ganz klar das NV wahrscheinlich mal wieder einen netten Verkaufsschlager in der Hand hält, sonst würde AMD nie so drauf reagieren.

http://www.computerbase.de/2015-01/amd-schiesst-gegen-die-geforce-gtx-960/
Das ist natürlich unschicklich von AMD, allerdings im Geschäft nichts Neues. Nvidias aggressive Folien sind mir auch noch in Erinnerung.

Letztlich können wir uns glaube ich sogar freuen – wer die 960 haben will, kauft sie egal was AMD verlauten lässt und wer unentschlossen bleibt wird zum Kunden, um den sich AMD und Nvidia balgen.

AnarchX
2015-01-20, 18:23:13
Die PCB die man bis jetzt sah sind schon für 4GB ausgelegt

Die aktuell bekannten PCBs hatten nur 6 Speicherplätze, bei 128-Bit 4 davon ansteuerbar. Macht bei 4Gbit (512MiB) eben die maximal bekannten 2GiB.
8Gbit ist zwar angekündigt, dürfte aber wohl momentan nicht so schnell verfügbar sein.

Denkbar wäre auch, dass NV auf Die-Ebene die Speichergröße (evtl. Clamshell) limitiert hat, ähnlich wie bei der 780, wo die 6GiB Karten auch ein Die mit 301er SKU statt 300 bei den 3GiB hatten.

Im Endeffekt will NV hier wohl einen höheren Anreiz für die >2GiB Karten basierend auf Restbeständen (700er) und der 970 setzen.

fondness
2015-01-20, 18:41:10
Unterlagen inkl. Benchs und Karten:
http://videocardz.com/54401/nvidia-launches-geforce-gtx-960

Ailuros
2015-01-20, 18:56:54
Unterlagen inkl. Benchs und Karten:
http://videocardz.com/54401/nvidia-launches-geforce-gtx-960

Womoeglich die erste Maxwell SKU die mich langweilt.

dargo
2015-01-20, 19:01:49
Fällt die TDP nicht etwas hoch aus für ziemlich genau halbe GTX 980?

AnarchX
2015-01-20, 19:03:17
Da wird der Boost im Taktbereich der unlimitierten GTX 980 Karten (>200W TDP) laufen.

Ailuros
2015-01-20, 19:06:55
Da wird der Boost im Taktbereich der unlimitierten GTX 980 Karten (>200W TDP) laufen.

Die angegebenen 120W fuer die 960 sind aber auch nur fuer SKUs mit default Frequenzen. Da sie meisten Hersteller wohl wieder froehlich uebertakten werden, wird der Verbrauch auch nicht bei 120 bleiben, ergo hat er so oder so recht.

basix
2015-01-20, 19:07:03
Fällt die TDP nicht etwas hoch aus für ziemlich genau halbe GTX 980?

Etwas ungewöhnlich hoch, ja. Aber es gilt ja TDP != Verbrauch

Und andererseits können Customdesigns bei nur marginalen Geschwindigkeitszugewinnen ebenfalls erheblich mehr aus der Steckdose ziehen. Evtl. hat Nvidia die Karte in dem Fall nicht so massiv runtergeregelt oder sie boosted einfach bis 1.5 GHz

Edit: Zitat aus dem Videocardz Link
...MSI GTX 960 GAMING can reach 1558/1800 MHz (core/mem) without much trouble.
http://cdn.videocardz.com/1/2015/01/NVIDIA-GTX-960-System-Power-Consumption.png

Ailuros
2015-01-20, 19:09:20
Im Vergleich zum GM107 ist der Verbrauch vom 206 ziemlich merkwuerdig.

dildo4u
2015-01-20, 19:14:36
Ist doch normal das ein Chip für ne 500€ Karte strenger selektiert werden kann als einer für ne 200€ Karte.Die 980 hat z.b bessere Performance per Watt als die 970.

http://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_980/27.html

Unicous
2015-01-20, 19:20:21
Seit wann gibt es eine GTX 970 Referenzkarte ?

M4xw0lf
2015-01-20, 19:23:48
Im Vergleich zum GM107 ist der Verbrauch vom 206 ziemlich merkwuerdig.
GM107: ~60W; GM206 ~40W mehr. 100W wären doch nicht abwegig, oder (falls sich das auf OC bezieht sowieso nicht)?

basix
2015-01-20, 19:29:11
GM107: ~60W; GM206 ~40W mehr. 100W wären doch nicht abwegig, oder?

Jepp, und dabei GM206 mit 1558/1800 MHz (core/mem). Also ich sehe da nichts Ungewöhnliches, ausser dass dort "fiktive" 120W TDP steht. Evtl. preist ja Nvidia deswegen die Karte als "Overclocker's Dream" an, da sie nicht wie die GTX 980 / 970 vom Power Target zurückgehalten wird.

fondness
2015-01-20, 19:31:47
GM107 war AFAIK 75W.

M4xw0lf
2015-01-20, 19:34:49
GM107 war AFAIK 75W.
Das ist die maximum board power, die durch den PCIe-Slot ohne weitere Stromstecker eben vorgegeben ist. Verbrauch out of the box waren mMn um die 60.

dildo4u
2015-01-20, 19:38:09
65-69Watt laut PCGH.

http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Tests/Geforce-GTX-750-Ti-im-Test-Maxwell-1109814/

M4xw0lf
2015-01-20, 19:40:23
Auch recht. Dann passt doch alles mit dem gezeigten Verbrauch beim GM206.

dargo
2015-01-20, 19:45:46
Etwas ungewöhnlich hoch, ja. Aber es gilt ja TDP != Verbrauch

Und andererseits können Customdesigns bei nur marginalen Geschwindigkeitszugewinnen ebenfalls erheblich mehr aus der Steckdose ziehen. Evtl. hat Nvidia die Karte in dem Fall nicht so massiv runtergeregelt oder sie boosted einfach bis 1.5 GHz

Ich spreche hier nicht von irgendwelchen Customdesigns bzw. OC-Versionen sondern von den stinknormalen Referenzdesigns. Und die Ref-960 boostet genau so hoch wie die GTX970, sogar etwas tiefer als die GTX980. Besonders im Vergleich zur GTX970 ist die TDP der GTX960 verdammt merkwürdig. Extrem kastrierte Karte und dann bloß 25W weniger TDP? :confused:

dildo4u
2015-01-20, 19:56:03
Vieleicht ist die Angabe zur 960 nur ehrlicher PCGH hat bisher keine 970 getestet die unter 165Watt geht dort war auch diese Dabei.

https://geizhals.de/palit-geforce-gtx-970-ne5x970014g2f-a1167957.html?hloc=at&hloc=de

Kommt auf 167W unter Spielelast.

PuppetMaster
2015-01-20, 20:05:38
Die 970 haben alle einen Spieleverbrauch, der dem eingestellten Power Target entspricht. Leider hat kam ein Hersteller sich an das Referenz-Target gehalten, obwohl eine Erhöhung, wie Toms Hardware nachgemessen hat, kaum was bringt.

Ailuros
2015-01-20, 20:11:02
GM107: ~60W; GM206 ~40W mehr. 100W wären doch nicht abwegig, oder (falls sich das auf OC bezieht sowieso nicht)?

Die meisten 750Ti SKUs laufen auch nicht auf default Frequenz; NV empfehlt fuer die 750Ti mindestens ein 300W Netzteil wobei einige Hersteller sogar bis zu 450W Netzteil fuer ihre uebertaktete Ti's empfehlen. Sonst woher kommen die 40W mehr bzw. 100W Verbrauch genau? Wie waere es wenn Ihr ausnahmsweise die unabhaengigen offizielle reviews abwartet bevor Ihr Schlussfolgerungen zieht ueber den Echtzeit-Verbrauch einer GTX960? Was aber wohl wieder heissen muss dass sich manche selber nicht verwuschteln mit dem ganzen Marketing-Krampf von NVIDIA und endlichen custom Loesungen mit hoeheren Frequenzen und hoeherem Verbrauch.

Aber wenn ich Deiner Logik folgen sollte gibt NV fuer eine 750Ti 60W maximalen Stromverbrauch und genau 2x Mal so viel fuer die 960. Von 5 auf 8 SMMs, gleich breitem Bus und nur die raster/trisetup Einheiten und ROPs sind verdoppelt. Merkst Du was?

basix
2015-01-20, 20:20:35
Ich spreche hier nicht von irgendwelchen Customdesigns bzw. OC-Versionen sondern von den stinknormalen Referenzdesigns. Und die Ref-960 boostet genau so hoch wie die GTX970, sogar etwas tiefer als die GTX980. Besonders im Vergleich zur GTX970 ist die TDP der GTX960 verdammt merkwürdig. Extrem kastrierte Karte und dann bloß 25W weniger TDP? :confused:

Wie gesagt, TDP != Verbrauch und realer Boost != Spezifikations-Boost. Wenn Nvidia da etwas an den Boost-Tables gedreht hat, wird man das nicht an den normalen Specs her erkennen können.

Ich frage mich immer noch, wieso manchmal so sehr auf der TDP herumgeritten wird. Der reale Verbrauch wird bei heutigen Reviews ja immer mitgetestet und kann mit anderen Karten verglichen werden (und dort braucht anscheinend eine 1.5GHz GTX960 40W mehr wie wahrscheinlich eine Referenz 750 Ti, das MSI Custom Modell wird in der Tabelle von Videocardz explizit genannt). Klar, mit Boost 2.0 etc. wird sehr oft an der Grenze der TDP operiert aber sie ist und bleibt die "Thermal Design Power" und nicht "Power Socket Design Power". Die TDP ist höchstens ein Indiz, wie viel sich eine Karte genehmigt.

@ Ailuros: Ich denke trotzdem, dass der "Overclocker's Dream" Marketing-Gedanke zu der hohen TDP geführt hat. Und nicht der reale Verbrauch. Aber wie du sagst, lasst uns abwarten ;)

Ailuros
2015-01-20, 20:21:48
Ich denke immer noch, dass der "Overclocker's Dream" Marketing-Gedanke zu der hohen TDP geführt hat.

Dann lass Dich in ein paar Tagen ueberraschen.

***edit:

entweder verpasse ich etwas wesentliches oder der von NV angebebene 120W Verbrauch fuer die GTX960 hat keine logische Relation zu den NV Werten der 750Ti/60W, 970/145W, 980/165W. Mit Ausnahme vom boost sind die Frequenzen bei der 960 gleich einer GTX980, wobei der GM204 praktisch 2x Mal so viel praktisch alles hat. Wenn mir jetzt jemand sagt dass 206 mehr als 8 SMMs insgesamt hat koennte ich es sogar anhand den 120W glauben.

Orbmu2k
2015-01-20, 21:06:49
Dafür erblickten wir im Test nicht selten, dass das Power-Target (maximale Leistungsaufnahme) erreicht wird.


Die 750ti war stark im PT limitiert und lief deutlich näher an ihrem Sweetspot als vermutlich bei der 960. Da wurde sicher noch nachjustiert gegen die Konkurenz.

90-100W finde ich da jetzt nicht ungewöhnlich.

Ich denke die 120W TDP sind wirklich dem "Overclockers Dream" geschuldet und sie haben halt +25% Powertarget freigegeben oder so.

Edgecrusher86
2015-01-20, 21:31:35
Mit jeweils Max-OC sieht es dann doch nicht mehr so gut aus - nun ja, in Anbetracht, dass Karte ein schmales SI hat, ist es wohl noch ok:

http://abload.de/img/nvidia-geforce-gtx-96lfr46.jpg

Quelle (http://tieba.baidu.com/p/3537373165?qq-pf-to=pcqq.group)

Das lässt dann natürlich auch viel Raum für zum Beispiel eine GTX 960 Ti auf "970M Basis" mit 192 Bit SI sowie 3GB. Diese dürfte dann ja etwas oberhalb der GTX 770 sowie R9 280X landen im Mittel.

Wobei die Tatsache, dass die GTX 960 als GM206-300-A1 kommt, schon etwas seltsam erscheint - evtl. kommt später ja noch eine 10 SMM Version, die dann entsprechend beschnitte GM204 ersetzt.

E: Ja, es scheint wirklich so zu sein, dass auch eine Werks-OC-Karte nicht deutlich über 100W verbraucht - was dann in der Tat die versprochenen Leistungsreserven wären. ;)


Nun ja, mal schauen, ob man am 22.01. auch ein paar weitere Infos zur Quadro M6000 bekommt. Februar oder März wär schon wünschenswert für den Release der nächsten "TITAN".
Ich hoffe ja, dass Jensen zur GTC (17. bis 20.3.) keine GTX 990 - alias Dual-GM204 - hoch hält, sondern den Big Maxwell. :)

basix
2015-01-20, 22:33:35
Durch das 128 bit Speicherinterface kann man den Chip anscheinend so hoch prügeln wie man will und gefährdet trotzdem nicht eine mögliche 960 Ti. Dann darf ja noch gerne 120W TDP spendiert werden, bringt ja eh nix :biggrin:

y33H@
2015-01-20, 22:53:28
Ich denke trotzdem, dass der "Overclocker's Dream" Marketing-Gedanke zu der hohen TDP geführt hat.OC hat nichts mit der TDP zu tun.

Seit wann gibt es eine GTX 970 Referenzkarte ?Ein Referenz-Design gibt es für nahezu jede Karte, nur oft exklusiv für OEMs.

basix
2015-01-20, 22:57:37
OC hat nichts mit der TDP zu tun.

Das ist mir schon klar :freak: Aber Nvidia hat evtl. bei der GTX 960 die Fesseln des Power Targets nicht so eng angelegt. Dann kann man die Karte eben fürs OC auch höher takten ;) Und das Power Target ist bei Maxwell nunmal ungefähr die TDP

Unicous
2015-01-20, 23:05:50
Ein Referenz-Design gibt es für nahezu jede Karte, nur oft exklusiv für OEMs.

Ich denke meine Intention war klar.
Wo wurde diese Referenzkarte einer GTX 970 getestet? Nirgends. Weil es sie im Gegensatz zur GTX 980 (im freien retail-Handel) nicht gibt und Nvidia keine verschickt hat.

y33H@
2015-01-20, 23:16:09
Ich kenne keine im freien Handel bzw in Reviews.

Timbaloo
2015-01-20, 23:16:43
Cool, die Diskussion hatten wir ja noch gar nicht :freak:

-/\-CruNcher-/\-
2015-01-20, 23:20:20
Ich kenne keine im freien Handel bzw in Reviews.
Gab es nicht eine Referenz zumindestens tauchte 1 Design bei verschiedenen AIBs immer gleich auf nur das Branding war different, das war schon auffällig vor allem da diese Firmen intern nichts miteinander zu tun haben auch nicht zu selben Group gehören ;)

Es war auch das lauteste Design und sah aus wie direkt von Nvidia entwickelt vor allem tauchte es öfter auch mit nur Nvidia logo auf dem Fan vorne auf da wo das Branding der anderen danach platziert wurde ;)

Von dem Model hab ich auch ein Video gepostet wo es in Taiwan getestet wurde und nur mit der Bezeichnung Nvidia Geforce GTX 970 ohne AIB ID ;)

Unicous
2015-01-20, 23:20:53
@Timbaloo

Erzähl das dildo4u, er hat 980 Ref. mit einer 970 Partnerkarte verglichen.

-/\-CruNcher-/\-
2015-01-20, 23:49:42
@y33H@

Für dich extra nochmal rausgesucht ;) http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10375844#post10375844

Das brzzzzln hab ich ja jetzt selber und erlebe es ab und an das ist in der tat coil whine, wie ich es auch schon herausgehört habe damals bei der Galax ;)

Ailuros
2015-01-21, 07:07:01
Cool, die Diskussion hatten wir ja noch gar nicht :freak:

Tut mir leid ich kann nicht alle Schlachtfelder verfolgen. :biggrin:

Ich denke meine Intention war klar.
Wo wurde diese Referenzkarte einer GTX 970 getestet? Nirgends. Weil es sie im Gegensatz zur GTX 980 (im freien retail-Handel) nicht gibt und Nvidia keine verschickt hat.

Wir sind zwar im Spekulationsforum, aber es hat keinen Sinn es weiter zu diskuttieren bis die ersten ernsthafte unabhaengige reviews der 960 auftauchen; noch 1 oder 2 Tage bis zum launch? Momentan interessiert immer noch u.a. MSRP, chip die area/Transistoren-anzahl, realer Verbrauch und welche hw Revision der chip genau hat.