PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Maxwell - GM1xx (H1/2014) / GM2xx (H2/2014)


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 [33]

von Richthofen
2015-06-06, 09:29:02
Vllt. noch eine Abspeckung des GM206 und ein weiterer Salvage GM200? Eventuell noch MGPU. Dazu ist aber bislang nichs bekannt.

Leonidas
2015-06-06, 13:28:47
Mit der 980ti, wird wohl die Akte Maxwell geschlossen...oder kommt noch was?


Ich denke, der GM206-Chip verträgt in jedem Fall noch eine Salvage-Variante, ergo eine GeForce GTX 950 Ti.

Und dann könnte nVidia noch über GM107-Rebrandings nachdenken, gerade wenn die Pascal-Generation auf sich warten läßt.

rentex
2015-06-07, 11:17:45
Kann mir einer mal erzählen, warum plötzlich Maxwell V2, DX12.1 kann? Hieß es nicht das AMD eher sämtliche Vorraussetzungen erfüllt?

Gipsel
2015-06-07, 11:26:00
Kann mir einer mal erzählen, warum plötzlich Maxwell V2, DX12.1 kann? Hieß es nicht das AMD eher sämtliche Vorraussetzungen erfüllt?Maxwell v2 ist die erste nV-GPU, die überhaupt ein FeatureLevel 12_x unterstützt (Maxwell v1 und früher sind nur 11_1 11_0). AMD hat schon mehrere GPUs für 12_0 auf dem Markt. Für 12_1 fehlt denen denen allerdings das Conservative Raster Feature sowie die Raster Ordered Views. In einigen Bereichen (z.B. Resource Binding) sind sogar die allersten GCN-Karten immer noch weiter als Maxwell v2, aber eben nicht in allen Bereichen.

The_Invisible
2015-06-07, 15:00:47
Also bei Computerbase gibt es keine GTX780TI im Test...

Ansonsten ruckelt eine GTX780TI genauso, wenn mehr als 3GB wirklich benötigt werden. Oder denkt hier wer, dass die Karte die anderen MB an Speicher sich per Luft dazu zaubert?!

Der Treiber cappt die GTX970 bei 3,5GB. Das sind 500MB als bei der GTX780TI.

Gibs auf, mit aufkrawall kann man nicht diskutieren auch wenn man es versucht. Er bleibt hier leider ein dickschädel (passender nickname) und will irgendwie immer seine 980er gutreden.

Ich warte noch bis heute auf ein nachstellbares beispiel mit spielbare settings wo eine 970er mikroruckelt und andere karten nicht. Nachdem man festgestellt hat das es auch random frametimesruckeln bei manchen spielen gibt die auf allen Karten auftreten ist das gar nicht mehr so einfach. Da aufkrawall die letzten Monate auch gar keine 970er mehr besitzt frage ich mich wie er das eigentlich noch beurteilen kann und somit zb. treiberprobleme ausschließen kann.

Eine 980er war für mich auch nur eine obere Mitteklasse, für die ich aber kein Highend Preis zahlen wollte. Eine 980ti wäre die richtige Karte, ist aber leider 200eur zu teuer.

aufkrawall
2015-06-07, 15:12:49
Komischerweise gibts Leute, mit denen ich doch diskutieren kann? :confused:
Die machen mich nur nicht blöd an oder argumentieren nicht hanebüchen.
Einfach mal meine Post-Historie durchschauen. Könnte aber etwas dauern, bei meiner exzessiven Posting-Rate.


/posing

Thunder99
2015-06-07, 16:32:11
Gibs auf, mit aufkrawall kann man nicht diskutieren auch wenn man es versucht. Er bleibt hier leider ein dickschädel (passender nickname) und will irgendwie immer seine 980er gutreden.

Ich warte noch bis heute auf ein nachstellbares beispiel mit spielbare settings wo eine 970er mikroruckelt und andere karten nicht. Nachdem man festgestellt hat das es auch random frametimesruckeln bei manchen spielen gibt die auf allen Karten auftreten ist das gar nicht mehr so einfach. Da aufkrawall die letzten Monate auch gar keine 970er mehr besitzt frage ich mich wie er das eigentlich noch beurteilen kann und somit zb. treiberprobleme ausschließen kann.

Eine 980er war für mich auch nur eine obere Mitteklasse, für die ich aber kein Highend Preis zahlen wollte. Eine 980ti wäre die richtige Karte, ist aber leider 200eur zu teuer.

Nehme dir Zeit und klicke auf den Link in meiner Signatur und lerne dazu...

Grestorn
2015-06-07, 17:02:21
Nehme dir Zeit und klicke auf den Link in meiner Signatur und lerne dazu...

Welcher Link in welcher Signatur?

Und seit wann haben Links die Wahrheit gepachtet?

gnomi
2015-06-07, 17:35:36
Eigentlich wäre das auch Aufgaben der großen Seiten, 970 und 980 immer schön aktuell zu vergleichen.
Ich persönlich hätte dazu aber auch keine Lust. Lieber Qualität und Sicherheit mit voll angebundenem Speicher.
Wegen 1440P wollte ich aber eh die schnellste verfügbare Karte und 500 Euro bezahle ich eben maximal für eine GPU.

Shaft
2015-06-07, 18:03:01
Ich nehme an, mit einer 960ti braucht man nicht mehr zu rechnen.

-/\-CruNcher-/\-
2015-06-07, 18:24:01
Eigentlich wäre das auch Aufgaben der großen Seiten, 970 und 980 immer schön aktuell zu vergleichen.
Ich persönlich hätte dazu aber auch keine Lust. Lieber Qualität und Sicherheit mit voll angebundenem Speicher.
Wegen 1440P wollte ich aber eh die schnellste verfügbare Karte und 500 Euro bezahle ich eben maximal für eine GPU.

Im Zuge der Treiber Optimierungen Nvidias auf die Vorbereitung hin zu DX12 mach ich das schon von Anfang an und die bisherigen Ergebnisse die Nvidia erzielt sind ordentlich auch die GTX 970 profetiert ordentlich :)

Selbst im DX11 Branch hat sich die Multithreading Effizienz spürbar gesteigert die CPU wird entlastet gleichzeitig besser ausgenutzt das zeigt sich dann vor allem bei der Streaming Stabilität der Engines und den overall latenzen :)

aufkrawall
2015-06-07, 18:25:20
Was du so alles am Flug der Schwalben erkennst...

aths
2015-06-07, 18:28:45
Gibs auf, mit aufkrawall kann man nicht diskutieren auch wenn man es versucht. Er bleibt hier leider ein dickschädel (passender nickname) und will irgendwie immer seine 980er gutreden.

Ich warte noch bis heute auf ein nachstellbares beispiel mit spielbare settings wo eine 970er mikroruckelt und andere karten nicht. Nachdem man festgestellt hat das es auch random frametimesruckeln bei manchen spielen gibt die auf allen Karten auftreten ist das gar nicht mehr so einfach. Da aufkrawall die letzten Monate auch gar keine 970er mehr besitzt frage ich mich wie er das eigentlich noch beurteilen kann und somit zb. treiberprobleme ausschließen kann.

Eine 980er war für mich auch nur eine obere Mitteklasse, für die ich aber kein Highend Preis zahlen wollte. Eine 980ti wäre die richtige Karte, ist aber leider 200eur zu teuer.
Zur Zeiten des 970/980-Launches gab es keine schnellere Single-GPU-Karte als die 980, inwiedern das noch Mittelklasse ist, kann ich jetzt nicht nachvollziehen. Dass später innerhalb der gleichen Architektur stärkere Grakas erscheinen, ist Gang und Gebe. War die 6800 zum Launch "obere Mittelklasse" weil später die 7800 kam?

PCGH hatte in Witcher Frametime-Messungen durchgeführt. http://www.pcgameshardware.de/The-Witcher-3-PC-237266/Specials/Grafikkarten-Benchmarks-1159196

"Nochmalige, genaueste Messungen belegen dies. Obwohl der Speicher der GTX 970 in The Witcher 3 in 1440p nicht bis zur kritischen 3,5 GiByte Marke gefüllt wird, werden offenbar Teile der Vegetation in deren langsam angebundenen Teil der Speicher ausgelagert, was dann wiederum Mikroruckeln auslöst. Die Stocker sowohl der R9 290X als auch die der GTX 970 im Wald sind in der Praxis auch von weniger sensiblen Spielern gut spür- und sichtbar. Die GTX 980 ist in dieser Hinsicht unauffällig."

So weit PCGH. Das Diagramm (ungefähr in die Mitte scollen) ist interessant: Die R290 mikroruckelt über den ganzen Verlauf. Die 970 kann sich im Diagramm zunächst gut behaupten, mikroruckelt dann aber schlimmer als die 290. Die 980 leistet sich nur ganz wenige Mikroruckler.

Das ist zugegebenermaßen jetzt nur ein durchgemessenes Spiel und noch kein Beleg für eine durchgehende Problematik der 970. Allerdings belegt es, dass übliche Avg/Min-Balkendiagramme völlig ungenügend sind. Im Durchschnitt erzielt die 970 eine Leistung von 83% der 980. Damit erscheint die 970 als wahres Schnäppchen, wenn man den Preisunterschied berücksichtigt. Das Spielgefühl dürfte jedoch deutlich unterhalb von 83% liegen.

Ganz miese Masche von NV: Erst dieses Memory-Interface "erfinden" und dann die Nachteile nicht im Griff haben, offenbar zumindest nicht ohne spezifische Treiberanpassung welche möglicherweise die Lage noch verbessert.

-/\-CruNcher-/\-
2015-06-07, 18:36:36
Was du so alles am Flug der Schwalben erkennst...

Könnte das nachweisen habe aber nicht das equipment, es versuchen direkt vom System aufzuzeichnen ist nicht effizient genug das erzeugt ca 8 ms latenz mit Shadowplay immernoch ca 4 ms

Versuche die Latenz besser zu umgehen aber 4K ist schon eine Aufgabe ;)

Grestorn
2015-06-07, 18:44:24
"Nochmalige, genaueste Messungen belegen dies. Obwohl der Speicher der GTX 970 in The Witcher 3 in 1440p nicht bis zur kritischen 3,5 GiByte Marke gefüllt wird, werden offenbar Teile der Vegetation in deren langsam angebundenen Teil der Speicher ausgelagert, was dann wiederum Mikroruckeln auslöst. Die Stocker sowohl der R9 290X als auch die der GTX 970 im Wald sind in der Praxis auch von weniger sensiblen Spielern gut spür- und sichtbar. Die GTX 980 ist in dieser Hinsicht unauffällig."

Ich könnte mir vorstellen, dass das ein voreiliger Schluss war. Denn plötzliche Ausreißer in den Frametimes sind typisch für Witcher 3 - auch auf einer Titan X. Ich bin daran schon schier verzweifelt. Nach ein paar Minuten Spielens hatte ich eine Zeit lang fast immer ätzende Ruckler - trotz Frameraten über 60 fps und GSync.

Erst das Limitieren des max. Prerender auf 1 Frame (interessanter Weise ein Tip von Aufkrawall) hat da eine dauerhafte Lösung gebracht.

Ich kann mir gut vorstellen, dass die PCGH in die selbe Falle gelaufen ist - speziell, da sich das Phänomen nicht schlüssig nachvollziehen lässt und man deswegen schnell die Ursache an der falschen Stelle sucht.

aufkrawall
2015-06-07, 18:52:04
Zur Zeiten des 970/980-Launches gab es keine schnellere Single-GPU-Karte als die 980, inwiedern das noch Mittelklasse ist, kann ich jetzt nicht nachvollziehen. Dass später innerhalb der gleichen Architektur stärkere Grakas erscheinen, ist Gang und Gebe. War die 6800 zum Launch "obere Mittelklasse" weil später die 7800 kam?

PCGH hatte in Witcher Frametime-Messungen durchgeführt. http://www.pcgameshardware.de/The-Witcher-3-PC-237266/Specials/Grafikkarten-Benchmarks-1159196

"Nochmalige, genaueste Messungen belegen dies. Obwohl der Speicher der GTX 970 in The Witcher 3 in 1440p nicht bis zur kritischen 3,5 GiByte Marke gefüllt wird, werden offenbar Teile der Vegetation in deren langsam angebundenen Teil der Speicher ausgelagert, was dann wiederum Mikroruckeln auslöst. Die Stocker sowohl der R9 290X als auch die der GTX 970 im Wald sind in der Praxis auch von weniger sensiblen Spielern gut spür- und sichtbar. Die GTX 980 ist in dieser Hinsicht unauffällig."

So weit PCGH. Das Diagramm (ungefähr in die Mitte scollen) ist interessant: Die R290 mikroruckelt über den ganzen Verlauf. Die 970 kann sich im Diagramm zunächst gut behaupten, mikroruckelt dann aber schlimmer als die 290. Die 980 leistet sich nur ganz wenige Mikroruckler.

Das ist zugegebenermaßen jetzt nur ein durchgemessenes Spiel und noch kein Beleg für eine durchgehende Problematik der 970. Allerdings belegt es, dass übliche Avg/Min-Balkendiagramme völlig ungenügend sind. Im Durchschnitt erzielt die 970 eine Leistung von 83% der 980. Damit erscheint die 970 als wahres Schnäppchen, wenn man den Preisunterschied berücksichtigt. Das Spielgefühl dürfte jedoch deutlich unterhalb von 83% liegen.

Ganz miese Masche von NV: Erst dieses Memory-Interface "erfinden" und dann die Nachteile nicht im Griff haben, offenbar zumindest nicht ohne spezifische Treiberanpassung welche möglicherweise die Lage noch verbessert.
Es steht zwar im Artikel, dass das Spiel zufällig, je nach Session, mikroruckeln kann.
Die Art des Mikroruckelns auf der 970 ist aber mal wieder bezeichnend.

Davon ab hatte ich mit der 980 noch nie Mikroruckeln bei dem Spiel, auch nicht mit prerenderlimt app controlled.

robbitop
2015-06-08, 08:26:58
Zur Zeiten des 970/980-Launches gab es keine schnellere Single-GPU-Karte als die 980, inwiedern das noch Mittelklasse ist, kann ich jetzt nicht nachvollziehen. Dass später innerhalb der gleichen Architektur stärkere Grakas erscheinen, ist Gang und Gebe. War die 6800 zum Launch "obere Mittelklasse" weil später die 7800 kam?

NV40 -> G70 (sind zwei verschiedene Generationen)
GM204 -> GM200 (gleiche Generation - gleiche µ-Arch - gleicher Fertigungsprozess)

00 = Enthuisast
04 = Performance

256 bit SI und 400 sqmm
384 bit SI und 600 sqmm

Ist für mich eindeutig.

aufkrawall
2015-06-13, 17:53:03
Ich glaube, es waren wtftech, die vor einiger Zeit mal etwas von einem Performance-Treiber für den Sommer fabulierten.
Mal auf den Fiji-Launch gespannt. :cool:

rentex
2015-06-17, 08:51:15
Die Antwort auf Fiji, wird wohl ein Performancetreiber und ne Dual- Karte werden...bietet sich ja ne 980ti X2 an.

Thunder99
2015-06-17, 13:30:35
Welcher Link in welcher Signatur?

Und seit wann haben Links die Wahrheit gepachtet?
Shit Smartphone :redface:

Sie haben nicht die Wahrheit gepachtet aber die 2 Artikel legen klar was passieren kann wenn man der Speicher ausgeht obwohl dieser noch langsam vorhanden ist (total OT hier)

Meint ihr nvidia kontert mit einer 1,5GHz Ultra? Oder überlässt sie hier das Feld den Custom Lösungen

Dural
2015-06-17, 14:17:19
NV wird es bestimmt den Custom Karten überlassen.

Fiji wir mit dem Tonga Frontend in FullHD sicher nicht an GM200 rankommen und in 4K dürfte es hier und da mit dem Speicher knapp werden.

NV ist mit ihren Produkten ziemlich gut aufgestellt.

2015 ist eines der schlimmsten Grafikkarten Jahre die ich jemals erlebt habe. 970... 980 zu teuer 980Ti auch nichts rechtes Titan X sinnlos viel Speicher und Fiji ein in 18Monaten verdoppelter Tonga mit 4GB Limit... einfach weit und breit keine vernünftige Produkte am Markt und das noch zu Preisen die einfach zu teuer sind, klar zum teil liegt es auch am Dollar.

Lowkey
2015-06-17, 14:29:22
Da hat der Dural sowas von recht. Welche Karte ist die "Volkskarte". Ein Produkt mit bestem P/L?

Dural
2015-06-17, 14:39:45
970 :freak:

Troyan
2015-06-17, 14:52:16
Die GTX980TI ist doch in Ordnung. Wüsste jetzt nicht, was man daran auszusetzen hat.

Thunder99
2015-06-17, 14:58:41
NV wird es bestimmt den Custom Karten überlassen.

Fiji wir mit dem Tonga Frontend in FullHD sicher nicht an GM200 rankommen und in 4K dürfte es hier und da mit dem Speicher knapp werden.

NV ist mit ihren Produkten ziemlich gut aufgestellt.

2015 ist eines der schlimmsten Grafikkarten Jahre die ich jemals erlebt habe. 970... 980 zu teuer 980Ti auch nichts rechtes Titan X sinnlos viel Speicher und Fiji ein in 18Monaten verdoppelter Tonga mit 4GB Limit... einfach weit und breit keine vernünftige Produkte am Markt und das noch zu Preisen die einfach zu teuer sind, klar zum teil liegt es auch am Dollar.
Kannst du gar nicht wissen. Müssen die Tests zeigen wie sich Fiji mit GM200 anlegen kann.

Volkskarte war die 970 bis der Speicherkrüppel bewiesen wurde. Das war echt ne tolle Karte :(

980Ti für 600€ ist in Ordnung. Aber wenn Fiji echt wie ne Bombe einschlägt wird der Markt es richten zum wohle aller :)

Dural
2015-06-17, 15:03:52
Ich habe einfach so meine mühe wenn karten beschnitten sind. klar ist eine kopfsache, aber ich meide solche produkte so gut wie es geht.


ich werde erst mal seit jahren (jahrzent?) die aktuelle high-end GPU von NV nicht kaufen, jedenfalls nicht in form der produkte die aktuell erhältlich sind.

bei fury bin ich mir noch nicht ganz so sicher, die benchmarks werden es zeigen. aber ich ahne schon schlimmes mit dem Tonga frontend.

aufkrawall
2015-06-17, 15:06:07
Der Unterschied bei Highend Salvage war doch noch nie so gering wie jetzt.

MadManniMan
2015-06-17, 15:07:28
Die GTX980TI ist doch in Ordnung. Wüsste jetzt nicht, was man daran auszusetzen hat.

Natürlich. Bei einem Preis, den andere auf ganze Systeme verwenden.

derguru
2015-06-17, 15:11:19
die nano könnte sowas wie eine volkskarte werden, mal abwarten was sie am ende leistet und was sie kostet .

Thunder99
2015-06-17, 15:14:26
Naja Volkskarte sehe ich eher bei +/-300€ was noch viele bereit sind zu zahlen. Früher war es +/-200€ aber der Markt hat uns gezeigt das es nicht mehr so günstig geht :(

Ne GTX960 ist ok aber haut auch keinen um wenn man nicht einen HTCP oder so hat

von Richthofen
2015-06-17, 21:12:31
2015 ist eines der schlimmsten Grafikkarten Jahre die ich jemals erlebt habe. 970... 980 zu teuer 980Ti auch nichts rechtes Titan X sinnlos viel Speicher und Fiji ein in 18Monaten verdoppelter Tonga mit 4GB Limit...

AMD ist hierbei aber gleichfalls zu nennen. Jedes Jahr kommt nur ein neuer Grafikchip: 2013 Hawaii -> ganz in Ordnung und ohne größeren Kritikpunkt.
Dann aber Tonga-> bis heute und wahrscheinlich auch in Zukunft kein voller Chip für den Hauptmarkt und zudem zu groß und kaum schneller als das es eine wirklich sinnvolle Neuentwicklung darstellen würde und nun der hypermoderne 4GB High-Ender ohne HDMI 2.0.
Darunter möglicherweise komplettes Rebranding. Was soll man sich da bloß raussuchen?
Interessant auch, dass manche argumentieren mit diesem Line-up ganz gut aufgestellt zu sein.

P.S. Tonga ist doch erst 10 Monate alt.

MasterElwood
2015-06-17, 22:42:42
Volkskarte war die 970 bis der Speicherkrüppel bewiesen wurde. Das war echt ne tolle Karte :(


970er ist immer noch eine tolle Karte. Bestes P/L momentan, leise (wenn man die richtige hat), Stromverbrauch super, und alle modernen Features. Und wichtig: erfüllt die Mindestanforderungen der Rift :smile:

Klar - das mit dem Speicher war eine linke Aktion - aber in der Praxis merke ich überhaupt nix von den fehlenden 512MB - sogar bei Speicherfressern wie GTA5.

Sollte mir meine Morgen abrauchen - ich glaube ich würde wieder eine kaufen - Skandal hin oder her. (Ausser ich finde eine 980TI für 500 Euro - aber das bleibt wohl lange Wunschdenken) :biggrin:

davidzo
2015-06-17, 23:33:57
AMD ist hierbei aber gleichfalls zu nennen. Jedes Jahr kommt nur ein neuer Grafikchip: 2013 Hawaii -> ganz in Ordnung und ohne größeren Kritikpunkt.
Dann aber Tonga-> bis heute und wahrscheinlich auch in Zukunft kein voller Chip für den Hauptmarkt und zudem zu groß und kaum schneller als das es eine wirklich sinnvolle Neuentwicklung darstellen würde und nun der hypermoderne 4GB High-Ender ohne HDMI 2.0.
Darunter möglicherweise komplettes Rebranding. Was soll man sich da bloß raussuchen?
Interessant auch, dass manche argumentieren mit diesem Line-up ganz gut aufgestellt zu sein.

P.S. Tonga ist doch erst 10 Monate alt.

Und erst ne Karte ohne T&L, wo sollen wir denn da hin? Völlig egal, ob man dann in praxisrelevantem 16bit überlegene schnelle 22bit Filterung liefert...

Was ich damit sagen will: Abwarten und Teetrinken, der Markt wird es zeigen welches Feature relevant ist. Ich bezweifle dass HDMI2.0 für den Desktop relevant ist, da dort DP überwiegt. Und bei 4K @ 4GB - wie gesagt, der Markt wird es erst zeigen ob das wirklich ein Manko im Lineup ist oder ob es nur als solches vom Gegner marketingtechnisch ausgeschlachtet wird - solche Versuche und die traurigen Ergebnisse kennen wir ja ;)

gedi
2015-06-17, 23:39:44
Wenn sich die 3dK-Werte stimmen und auf Games übertragen lassen würden, dann wäre Fiji XT so schnell wie eine 980Ti@1.45Ghz, d.h. einen BohlenX ganz sicher im Griff (in den spielbaren Settings natürlich). Hm :cool:

aufkrawall
2015-06-18, 00:11:11
Kommt drauf an, ob es so starke Schwankungen wie mit Hawaii gibt.
Fiji müsste konstanter sein, und nicht mal nur 5, und dann mal eben gar 30% zurückliegen (nun im Vergleich zu GM200).

uweskw
2015-06-18, 00:40:23
970er ist immer noch eine tolle Karte. ....

Klar - das mit dem Speicher war eine linke Aktion - aber in der Praxis merke ich überhaupt nix von den fehlenden 512MB - sogar bei Speicherfressern wie GTA5.

Sollte mir meine Morgen abrauchen - ich glaube ich würde wieder eine kaufen - Skandal hin oder her. (Ausser ich finde eine 980TI für 500 Euro - aber das bleibt wohl lange Wunschdenken) :biggrin:


Der Karl ist einfach ein tooler Typ ....
Klar - dass er meine Freundin gefi**t hat war eine linke Aktion - aber in der Praxis merke ich echt überhaupt nix davon - scheint sie hat genau so viel Spass daran wie immer.

Solten wir Karl morgen auf ner Party treffen, ich glaube ich würde ihn wieder auf nen Drink einladen - Betrügen hin oder her. :freak::freak::freak::freak::freak::freak::freak::freak::freak:

:smile:

Scheiss Imagehuren!!!

greetz
US

Timbaloo
2015-06-18, 00:43:34
Junge, geh dich untersuchen lassen. Kein Mensch will was von deinen Sexproblemen hören...

aufkrawall
2015-06-18, 02:14:13
Hat wohl vergessen als Gast zu posten wie sonst...

MasterElwood
2015-06-18, 02:44:47
Junge, geh dich untersuchen lassen. Kein Mensch will was von deinen Sexproblemen hören...

+1

-/\-CruNcher-/\-
2015-06-18, 04:11:02
Trotzdem war der gut ein fünkchen wahrheit je nachdem von welchem Standpunkt man die Sache betrachtet ;)

Dawn on Titan
2015-06-18, 06:47:41
Hängt alles von Spielen, Settings und Monitor ab. Momentan an einen Full-HD Monitor ist meine 970 auch problemlos.

uweskw
2015-06-18, 10:29:54
Ich finde es einfach nur schlimm, wenn die Leute sich bescheissen lassen und auch noch danke sagen. Für einen kleinen Vorteil sind so viele bereit alle Bedenken/Konsequenzen über Bord zu werfen....

aber genug OT.

greetz
US

Thunder99
2015-06-18, 11:10:20
970er ist immer noch eine tolle Karte. Bestes P/L momentan, leise (wenn man die richtige hat), Stromverbrauch super, und alle modernen Features. Und wichtig: erfüllt die Mindestanforderungen der Rift :smile:

Klar - das mit dem Speicher war eine linke Aktion - aber in der Praxis merke ich überhaupt nix von den fehlenden 512MB - sogar bei Speicherfressern wie GTA5.

Sollte mir meine Morgen abrauchen - ich glaube ich würde wieder eine kaufen - Skandal hin oder her. (Ausser ich finde eine 980TI für 500 Euro - aber das bleibt wohl lange Wunschdenken) :biggrin:
Schön für dich, bei meinen Spielen wäre das nicht anders aber ich unterstütze so was nicht! Nebenbei war meine Galax nicht unbedingt leise mit SGSSAA... :freak:

Unicous
2015-07-26, 14:37:36
NVIDIA GPU product Device PCI ID* VDPAU features
GeForce GTX 980 Ti 17C8 E
GeForce GTX 960 1401 F
http://us.download.nvidia.com/XFree86/Linux-x86/352.21/README/supportedchips.html


VDPAU Feature Set F

GPUs with VDPAU feature set F support all of the same VdpDecoderProfile values and other features as VDPAU feature set E. Feature set F adds:

VDP_DECODER_PROFILE_HEVC_MAIN:

Complete acceleration.

Minimum width or height: 128 luma samples (pixels).

Maximum width or height: 4096 luma samples (pixels) wide by 2304 luma samples (pixels) tall.

Maximum macroblocks: not applicable.

http://us.download.nvidia.com/XFree86/Linux-x86/352.21/README/vdpausupport.html#vdpau-implementation-limits

Kartenlehrling
2015-07-26, 15:53:21
Schon witzig das wie bei AMDs R9380 nicht die stärkste Grafikkarte auch die Modernste ist.

hasebaer
2015-07-26, 16:00:15
Den Decoder gibt es flächenmässig sicherlich nicht umsonst und wenn man schon bei >600mm^2 ist, muss man drauf verzichten.
Genau wie auf die zusätzlichen DP Einheiten.

aufkrawall
2015-07-26, 16:05:58
Es lag wohl einfach daran, dass der GM200-Chip älter ist.

Novum
2015-07-26, 16:59:11
Den Decoder gibt es flächenmässig sicherlich nicht umsonst und wenn man schon bei >600mm^2 ist, muss man drauf verzichten.
Genau wie auf die zusätzlichen DP Einheiten.
Ein HEVC-Decoder braucht in 28nm <1mm².
Quelle: http://www.rle.mit.edu/eems/wp-content/uploads/2014/06/H.265-HEVC-Tutorial-2014-ISCAS.pdf (40nm 1.3mm * 1.3mm).

Und man kann viel zwischen HEVC und AVC teilen, HEVC ist größtenteils ein Superset von AVC. Das heißt die nötige Extralogik gegenüber dem AVC-Decoder den man eh schon hat ist noch geringer.

Sprich: Schlechte Theorie.

aths
2015-07-26, 20:59:39
970er ist immer noch eine tolle Karte. Bestes P/L momentan, leise (wenn man die richtige hat), Stromverbrauch super, und alle modernen Features. Und wichtig: erfüllt die Mindestanforderungen der Rift :smile:

Klar - das mit dem Speicher war eine linke Aktion - aber in der Praxis merke ich überhaupt nix von den fehlenden 512MB - sogar bei Speicherfressern wie GTA5.

Sollte mir meine Morgen abrauchen - ich glaube ich würde wieder eine kaufen - Skandal hin oder her. (Ausser ich finde eine 980TI für 500 Euro - aber das bleibt wohl lange Wunschdenken) :biggrin:
Die 512 MB fehlen ja nicht, sie sind nur mordsmäßig langsam. Die verbleibenden 3,5 GB haben eine Speicherbandbreite von 196 GB/s (nicht 224 GB/s wie Nvidia auf der Produktseite angibt.)

Wenn Nvidia erst diesen Murks erfindet, würden die dann via gutem Treiber auf lange Sicht sicherstellen, dass die Marketing-Architektur möglichst langlebig bleibt? Falls dir die 970 abraucht (was man natürlich nicht hofft) würde ich auf eine ordentliche Karte setzen.

Dural
2015-07-26, 21:38:25
Schon witzig das wie bei AMDs R9380 nicht die stärkste Grafikkarte auch die Modernste ist.

das war schon immer so, zb g80 / g84 / g86.

mczak
2015-07-26, 22:30:58
Schon witzig das wie bei AMDs R9380 nicht die stärkste Grafikkarte auch die Modernste ist.
Das ist überhaupt nicht witzig, sondern logisch, hängt allein davon ab welche neuer ist.
Mal abgesehen davon dass es bei AMD gar nicht stimmt - na gut vor dem Erscheinen von Fiji war das wahr.

hasebaer
2015-07-27, 00:09:25
Ein HEVC-Decoder braucht in 28nm <1mm².
Quelle: http://www.rle.mit.edu/eems/wp-content/uploads/2014/06/H.265-HEVC-Tutorial-2014-ISCAS.pdf (40nm 1.3mm * 1.3mm).

Und man kann viel zwischen HEVC und AVC teilen, HEVC ist größtenteils ein Superset von AVC. Das heißt die nötige Extralogik gegenüber dem AVC-Decoder den man eh schon hat ist noch geringer.

Sprich: Schlechte Theorie.

Gut dann war das Teil ebend noch nicht fertig zum GM200 Design-finish.

KingBert
2015-07-27, 09:11:31
Schon witzig das wie bei AMDs R9380 nicht die stärkste Grafikkarte auch die Modernste ist.
Wenn der Rest des Lineups drei Jahre alter Schrott ist, dann sieht sogar ein Chip ohne HDMI2.0 "modern" aus :cool:

Rampage 2
2015-08-18, 00:17:43
Ich glaube, dass ich diese Frage schonmal gestellt habe, aber da seitdem wieder einige Zeit vergangen ist, kann ich es nicht lassen erneut zu fragen:

Besteht noch die Möglichkeit, dass Nvidia einen 6GB GM200 im Vollausbau in den Markt wirft? Eine "GTX 980 Ti Black" mit etwas höherem Chiptakt und vielleicht auch schnellerem Speichercontroller für 700 - 750€ wäre toll:cool:

Ich kann mit Abfallprodukten (beschnittene Chips -> aktuelle 980 Ti) einfach nichts anfangen...;(

R2

Rente
2015-08-18, 00:42:09
Es gibt aktuell für nVidia keinen akuten Grund dafür, die Titan X deckt das doch super ab.
Und da die Ti bei ~680€ liegt sind deine Preisvorstellungen, selbst wenn etwas kommt, doch etwas unrealistisch.

Das "Abfallprodukt" ist als Custom-Variante darüber hinaus so schnell oder sogar schneller als Titan X.

Godmode
2015-08-18, 07:45:14
Besteht noch die Möglichkeit, dass Nvidia einen 6GB GM200 im Vollausbau in den Markt wirft? Eine "GTX 980 Ti Black" mit etwas höherem Chiptakt und vielleicht auch schnellerem Speichercontroller für 700 - 750€ wäre toll:cool:

Ich kann mit Abfallprodukten (beschnittene Chips -> aktuelle 980 Ti) einfach nichts anfangen...;(

R2

Eine schnellere Karte als die Titan X @Stock vs Stock als "Abfallprodukt" zu bezeichnen ist schon ein starkes Stück. :freak:

Wenn du keinen beschnittenen Chip willst, gibt es genau ein Produkt und das heißt Titan X. Es wird wohl keine Black geben.

Dural
2015-08-18, 11:26:47
also ich bin froh das ich mir doch noch eine Titan X geholt habe.

Die meisten spiele laufen damit in 4K (ohne AA) doch recht anständig.
Obwohl meine Karte stabil mit 1300/2000MHz (110%) läuft lasse ich sie die meiste Zeit mit einem PT von 110% und 1850MHz Speicher Takt laufen, grosse unterschiede in den FPS spürt man nicht.

Godmode
2015-08-18, 12:07:19
Gerade als Single GPU User spricht eigentlich nicht viel für die TX.

Es gibt IMHO nur 3 Gründe pro TX:
1. man braucht unbedingt die 12 GB Speicher (1. für SLI nichtmal zwingend notwenig. 2. man will die Karte 2+ Jahre behalten)
2. Geld ist völlig egal und die TX wird sogar noch mit einem anderen Kühler ausgestattet (Wakü oder AiO). Baut man die TX nicht um, ist jede Ti schneller.
3. Man brauchte zum Launch der TX eine neue GPU und wollte nicht mehr auf die Ti warten.

Edit: Ich habe selber zwei TX und nur wegen SLI die TX genommen. Ich Nachhinein hätten aber auch 2 980 Ti gereicht, da ich später wohl auf GP100 aufrüste und bis dorthin die 6 GB VRAM locker reichen würden.

Raff
2015-08-18, 12:11:14
Im Angesicht der vielen sehr attraktiven 980-Ti-Designs fällt es schwer, die TX überhaupt noch zu empfehlen – es sei denn, man bekommt sie zum Preis einer 980 Ti. Speicherprobleme hat letztere nur in extremen Extremfällen extremer Extremigkeit. ;)

MfG,
Raff

SentinelBorg
2015-08-27, 14:25:09
Sagt mal, gibt es in der Gerüchteküche eigentlich Hinweise auf noch eine kleinere Maxwell Variante, also sowas wie z.B. eine GTX920? Suche eine kleine single-Slot Karte mit HDMI 2.0 und HDCP 2.2 für meinen Homeserver/HTPC, aber derzeit gibt es da rein gar nichts. Oder muss ich da bis Pascal warten?

Hübie
2015-08-27, 15:32:56
Eher das Gegenteil. Vielleicht so eine dämliche dual Variante. Wobei beides extrem unwahrscheinlich ist. Dein Bereich wird von einer iGPU abgedeckt und Pascal macht so ein Titan Z Nachfolger obsolet. Bin mir sicher dass nVidia so ein Ding im Labor hat, aber wohl niemals auf den Markt kommen wird.

Rampage 2
2015-08-28, 01:58:22
Eher das Gegenteil. Vielleicht so eine dämliche dual Variante. Wobei beides extrem unwahrscheinlich ist. Dein Bereich wird von einer iGPU abgedeckt und Pascal macht so ein Titan Z Nachfolger obsolet. Bin mir sicher dass nVidia so ein Ding im Labor hat, aber wohl niemals auf den Markt kommen wird.

Und wie sieht es mit einer GTX 960 Ti aus? Die normale 960 kann einer 770 immer noch nicht das Wasser reichen...

R2

Hübie
2015-08-28, 02:28:25
Die wird es so nicht geben. Die Yields vom GM204 sind sehr gut und ein cut down für 250 Euro würde keinen Sinn ergeben, da die 960 das Feld gut abdeckt und dann nahtlos mit der deutlich besseren Performance die GTX 970 daher kommt.
Und der GM206 in der GTX 960 ist bereits der Vollausbau. Die OC-Derivate überdecken den Bereich bis zur Stock-GTX-770 sehr gut. Dennoch klafft da eine gewissen Lücke.

Rampage 2
2015-08-28, 07:17:26
Die Yields vom GM204 sind sehr gut und ein cut down für 250 Euro würde keinen Sinn ergeben, da die 960 das Feld gut abdeckt und dann nahtlos mit der deutlich besseren Performance die GTX 970 daher kommt.


Die 970 hat das 3,5GB-"Problem" - die wird kein informierter Käufer mehr kaufen! Eine 1536SP-Variante des GM204 mit echten 256Bit/4GB wäre ein tolles Produkt...

Außerdem müssen die 770 & 780 (non-Ti) durch einen schnelleren Nachfolger abgelöst werden - die normale 960 kann da definitiv nicht mithalten...

R2

igg
2015-08-28, 08:07:32
Die 970 hat das 3,5GB-"Problem" - die wird kein informierter Käufer mehr kaufen!Äh - nein....

ilibilly
2015-08-28, 08:39:41
Naja preisleistung sind immer noch sehr gut ,natürlich hat nvidia bullshit gebaut mit den Fake 512mb.
Aber für fullhd braucht hier niemand die 3,5gb anzweifeln,das sie nichts ist für zukünftige spiele.
Fury wird für 4k beworben (4fache Anzahl pixel) mit 4gb und soll Jahre reichen ?
In der Preisklasse 300-350 gibt's imho nix besseres als 290x 4gb und eben 970 3,5gb.

Ailuros
2015-08-28, 09:26:56
Die 970 hat das 3,5GB-"Problem" - die wird kein informierter Käufer mehr kaufen!

Ein wirklich informierter Kaeufer wird auch wissen dass eine GTX970 genau die richtige Analogie von aktiven Einheiten, Speichermenge und aktiver Bandbreite hat. Im Gegenfall wuerden heutige GPUs mit mehr resources von einem 8 GB vs. 4GB framebuffer profitieren.


Eine 1536SP-Variante des GM204 mit echten 256Bit/4GB wäre ein tolles Produkt...

Gibt es in der Form der ueberteuerten GTX980.

Außerdem müssen die 770 & 780 (non-Ti) durch einen schnelleren Nachfolger abgelöst werden - die normale 960 kann da definitiv nicht mithalten...

R2

Wenn ein GM206 bzw. Tonga fuer die Mitte nicht ausreichen sollte dann sind auch jegliche GM200 bzw. Fiji basierenden SKUs mehr als nur mangelhaft. Irgendwo muss Eure verkorkste Logik schon einen Zusammenhang haben.

Ravenhearth
2015-08-28, 11:43:51
Die wird es so nicht geben. Die Yields vom GM204 sind sehr gut und ein cut down für 250 Euro würde keinen Sinn ergeben, da die 960 das Feld gut abdeckt und dann nahtlos mit der deutlich besseren Performance die GTX 970 daher kommt.

Andererseits bedient Nvidia im Mobile-Markt alles bis hinunter zur GTX 965M mit dem GM204, und diese hat nur 1024 Shader aktiv, also gerade einmal die Hälfte. Eigentlich hätte Nvidia dafür auch den GM206. Da fragt sich auch WTF?!

Ailuros
2015-08-28, 12:45:23
Andererseits bedient Nvidia im Mobile-Markt alles bis hinunter zur GTX 965M mit dem GM204, und diese hat nur 1024 Shader aktiv, also gerade einmal die Hälfte. Eigentlich hätte Nvidia dafür auch den GM206. Da fragt sich auch WTF?!

Nix WTF ;) Besser benutzen (selbst halb kastriert) als wegschmeissen :P

Ravenhearth
2015-08-28, 12:49:43
Dann bleibt doch sicher auch was für eine GTX 960 Ti über. 1280 ALUs wie bei der GTX 970M wären ganz gut...

AnnoDADDY
2015-08-28, 13:03:46
bei mobilgpus sind die margen aber höher :P

AnarchX
2015-08-28, 17:08:56
Bei der GTX 965M gab es aber laut Treiber auch eine GM206 Version.
Insgesamt sieht es nicht so aus, dass bis Pascal/Arctic groß etwas auf dem Desktop passiert. Vielleicht noch die angesprochenen Dual-High-End-Lösungen, die technisch/preislich nicht sonderlich interessant sind.

ShinyMcShine
2015-08-28, 17:31:55
Bei der GTX 965M gab es aber laut Treiber auch eine GM206 Version.

Echt? Das ist mir neu! Ich habe bei diversen Herstellern nachgefragt und alle sagten mir, in ihrem Notebook mit GTX 965M ist ein GM204 drin. Und ich mag einfach keine kastrierten Chips... ;)

Ailuros
2015-08-28, 18:10:29
bei mobilgpus sind die margen aber höher :P

Genau!

Ravenhearth
2015-08-28, 18:22:13
Wäre ich Nvidia, dann hätte ich bei 250-300€ trotzdem lieber einen beschnittenen Chip als gar keinen. Ich kapier aber auch nicht, wieso AMD keine 380X 4GB für ~260€ bringt, die könnte Nvidia genau dort angreifen.

Hübie
2015-08-29, 00:02:56
Andererseits bedient Nvidia im Mobile-Markt alles bis hinunter zur GTX 965M mit dem GM204, und diese hat nur 1024 Shader aktiv, also gerade einmal die Hälfte. Eigentlich hätte Nvidia dafür auch den GM206. Da fragt sich auch WTF?!

Der Mobilsektor ist ein anderes Pflaster, welches zudem härter umkämpft ist. Hier kannst du cut down Chips besser kompensieren, da wie gesagt höhere Margen erzielt werden und außerdem Volumenverträge geschlossen werden die zur Abnahme zwingen. Vorteil für die Notebookhersteller sind bessere Rabatte, Vorteil für IHV bessere Kalkulationsmöglichkeiten und Sicherheit.

Rampage 2
2015-08-29, 21:47:06
Ein wirklich informierter Kaeufer wird auch wissen dass eine GTX970 genau die richtige Analogie von aktiven Einheiten, Speichermenge und aktiver Bandbreite hat. Im Gegenfall wuerden heutige GPUs mit mehr resources von einem 8 GB vs. 4GB framebuffer profitieren.


Selbst in 1080p gibt es immer wieder Spiele, die bei max. Ingame-Settings mehr als 3,5GiB VRAM belegen - manchmal sogar ohne AA. Von der Rohleistung her sollte die 970 für 1080p @4xSGSSAA bei den meisten Spielen locker reichen - und genau dann könnte immer wieder mal zuwenig VRAM zum Flaschenhals werden...

Ich meine - noch vor 2 Jahren wurde MIR stets eingetrichtert, dass ich bei einem GPU-Neukauf unbedingt ein 4GB-Modell wählen sollte und diese Prophezeiungen haben sich tatsächlich bewahrheitet:freak:

Sollte ich mir einen PC für den Betrieb in der Türkei zusammenstellen, wird es wahrscheinlich eine GTX 960 werden - und selbst bei dieser GPU werde ich eine 4GB-Variante kaufen... (für 1080p mit oder ohne 4xSGSSAA)


Gibt es in der Form der ueberteuerten GTX980.


Preissenkung anyone? Oder wird das nichts vor Pascal?

R2

Raff
2015-08-29, 22:21:51
Das wird gewiss noch dauern. Da AMD mit den Furien nicht genug Druck ausübt - die sind beide noch teurer, aber nicht immer schneller –, muss Nvidia das nicht.

MfG,
Raff

Hübie
2015-08-29, 23:38:25
Preissenkung anyone? Oder wird das nichts vor Pascal?

R2

So traurig es ist: die leeren eher das Lager, statt den Preis zu senken. Schau dir die vergangenen Generationen an. Die GTX 680 hatte lange noch Mondpreise, um die "neuen" Modelle loszuwerden :rolleyes:

Rampage 2
2015-08-30, 12:15:39
So traurig es ist: die leeren eher das Lager, statt den Preis zu senken. Schau dir die vergangenen Generationen an. Die GTX 680 hatte lange noch Mondpreise, um die "neuen" Modelle loszuwerden :rolleyes:

Wie sollen sie das Lager leeren, wenn sie die Preise nicht senken? Und für die 980 gibt es ja auch keinen 770-Pendant, oder kommt in Zukunft noch eine Variante mit höheren Taktraten? (8Gbps-Speicher, höherer Chiptakt)

Warum hat NV für die 960 nicht gleich 8Gbps-Speicher verbaut? Der Stromverbrauch wäre nur geringfügig höher - zumindest kommt Computerbase.de zu dieser Feststellung:

http://www.computerbase.de/2015-01/nvidia-geforce-gtx-960-im-test/10/

Die höheren Taktraten haben auf alle vier Grafikkarte kaum Auswirkungen auf den Energiehunger. So steigt die Leistungsaufnahme auf allen vier Karten um etwa zehn Watt an. Auch bei der GPU-Temperatur und der Lautstärke gibt es nur geringe Änderungen.


Ich weiß ja nicht, ob es bei der 980 noch was wird, aber zumindest beim GM206 halte ich eine "960 Ti" oder "965" als Vollausbau mit schlicht nur höheren Taktraten für durchaus wahrscheinlich - damit kann NV dann die Lücke zwischen 960 und 970/980 füllen...

8Gbps-GDDR5-RAM @ 128Bit = 128GB/sec. -> OC auf 4.5GHz (9Gbps) + 33% Maxwell-DCC = 192GB/sec. "effektiv" ;D

...mit höheren Chiptakt bzw. GPU-OC (~ 1450MHz durchschnittlich) würde so ein Teil eine 770 garantiert locker überholen!

R2

Leonidas
2015-08-31, 08:09:25
Sagt mal, gibt es in der Gerüchteküche eigentlich Hinweise auf noch eine kleinere Maxwell Variante, also sowas wie z.B. eine GTX920? Suche eine kleine single-Slot Karte mit HDMI 2.0 und HDCP 2.2 für meinen Homeserver/HTPC, aber derzeit gibt es da rein gar nichts. Oder muss ich da bis Pascal warten?


Derzeit ist nichts bekannt zu noch kleineren Maxwell-Chips als GM206 - also nein. Für untere Mainstream-Bedürfnisse wird nVidia entweder die 750er Serie (GM107) weiterbenutzen oder jene rebranden, ein Ersatz des GM107 im Sinne der moderneren Maxwell-2-Serie ist nicht in Sicht.

SentinelBorg
2015-08-31, 14:05:18
Derzeit ist nichts bekannt zu noch kleineren Maxwell-Chips als GM206 - also nein. Für untere Mainstream-Bedürfnisse wird nVidia entweder die 750er Serie (GM107) weiterbenutzen oder jene rebranden, ein Ersatz des GM107 im Sinne der moderneren Maxwell-2-Serie ist nicht in Sicht.
Was ich mich da gerade frage, könnte Nvidia nicht rein theoretisch einen Tegra X1 auf eine Low-Power HTPC Karte verpflanzen? Das Ding hat ja PCIe und vielleicht könnten sie so jene mit defekter CPU loswerden.

Naja, verrückte Idee, aber mich ärgert es ein wenig, dass man im August 2015 doch tatsächlich keine einzige single-Slot Grafikkarte mit HDMI 2.0 bekommt. :mad:

Hübie
2015-08-31, 14:17:17
Gibt es ab 300 Euro (http://geizhals.de/?cat=gra16_512&xf=147_1~131_GDDR5~354_28~132_2048~1481_1~135_DisplayPort+1.2#xf_top). Dazu braucht man nur einen Adpater von DP 1.2 auf HDMI 2.0 :P

Alterantiv: Wakü auf beliebige HDMI-2.0-Graka = single slot :D

Kartenlehrling
2015-08-31, 14:39:27
Viele Gehäuse haben über CPU Kühler noch platz, da kann man eine GTX950 mit einer Riserkabel am deckel verbauen, wenn das gehäuse kein platz für 2slot hat.
Ich habe mal ein Gehäuse gesehen da hat einer nur einen Top-Blow-Kühler verbaut und die Grafikkarte draufgelegt, so sorgte nur der Grafiklüfter für die Luftzirkulation.

SentinelBorg
2015-08-31, 17:03:29
Gibt es ab 300 Euro (http://geizhals.de/?cat=gra16_512&xf=147_1~131_GDDR5~354_28~132_2048~1481_1~135_DisplayPort+1.2#xf_top). Dazu braucht man nur einen Adpater von DP 1.2 auf HDMI 2.0 :P

Alterantiv: Wakü auf beliebige HDMI-2.0-Graka = single slot :D
Hmm, auf die Idee mit dem Adapter hätte ich auch kommen können. ^^ Und das ginge auch günstiger: http://geizhals.de/pny-quadro-k420-vcqk420-pb-a1152796.html?hloc=at&hloc=de

Wobei so wie ich das gerade sehe, existiert ein solcher DP 1.2 auf HDMI 2.0a Adapter noch gar nicht bzw. befindet sich gerade erst in der Markteinführung.

http://www.paradetech.com/products/displayport-format-converters/ps176/
-> http://www.bizlinktech.com/industries/detail.aspx?Type=100&CId=1&Id=158&R=3

Anmerkungen: Die GT730 die ich mir nun geholt habe macht das mit UHD über HDMI 1.4 schon ganz gut, dank dem Trick bei über 30 Hz die Farbauflösung zu reduzieren.

Rampage 2
2015-09-17, 22:42:49
Da AMD jetzt eine 380X auf den Markt werfen will, welche zwischen GTX 960 und GTX 970 liegt, stelle ich nochmal die Frage:

- ist es dann wahrscheinlich, dass der Preis der GTX 960 gesenkt wird?
- wird NV es dann vielleicht doch noch in Erwägung ziehen, eine "anständig" kastrierte GM204-Variante (echte 256Bit SI, echte 4GB, runde 1536SPs) als "GTX 960 Ti" einzuführen?

R2

Dural
2015-09-18, 09:19:24
Ich bin ja eigentlich kein Fan davon, aber ich frage mich nach wie vor wie so die 960 Karten ein 192Bit PCB haben und der Chip auch nur als GM206-300 eingestuft ist.

Leonidas
2015-09-19, 09:28:39
Also entweder Weiterverwendung der GK206-PCBs - oder Verschwörung zugunsten eines 192 Bit SI im GM206. Letzteres halte ich angesichts der Halbierung der Shader-Einheiten zwischen GM204 und GM206 für eher unwahrscheinlich.

Rampage 2
2015-09-21, 15:02:34
Da AMD jetzt eine 380X auf den Markt werfen will, welche zwischen GTX 960 und GTX 970 liegt, stelle ich nochmal die Frage:

- ist es dann wahrscheinlich, dass der Preis der GTX 960 gesenkt wird?
- wird NV es dann vielleicht doch noch in Erwägung ziehen, eine "anständig" kastrierte GM204-Variante (echte 256Bit SI, echte 4GB, runde 1536SPs) als "GTX 960 Ti" einzuführen?

R2

Da auf diese Fragen keine Antwort erfolgt ist, zitiere ich mich selbst um mein Posting zu pushen:redface:

(insbesondere an Punkt 1 bin ich sehr interessiert...)

R2

Thunder99
2015-09-21, 16:01:47
Da auf diese Fragen keine Antwort erfolgt ist, zitiere ich mich selbst um mein Posting zu pushen:redface:

(insbesondere an Punkt 1 bin ich sehr interessiert...)

R2
Wenn, aber wenn dann schätze ich eine 960Ti mit 192bit und 3GB RAM sowie 1280 Shader ALU. Ergo GTX970m für Desktop, siehe http://www.notebookcheck.net/NVIDIA-GeForce-GTX-970M.126694.0.html

Rampage 2
2015-09-21, 16:33:02
Wenn, aber wenn dann schätze ich eine 960Ti mit 192bit und 3GB RAM sowie 1280 Shader ALU. Ergo GTX970m für Desktop, siehe http://www.notebookcheck.net/NVIDIA-GeForce-GTX-970M.126694.0.html

Und die reguläre 960? Ist es wahrscheinlich, dass dessen Preis fällt (sei es auch nur ein bisschen...) wenn eine 960 Ti eingeführt wird?

Ansonsten: wenn 192Bit, dann kann es auch gleich ein kastrierter GM204 mit einem vollständig deaktivierten GPC (= 48 ROPs, 96TMUs, 1536SPs) werden. Allerdings müste NV dann separat eine 6GB-Version anbieten, denn die 3GB-Version wird heutzutage niemand mehr kaufen, der das Ding für länger als 1 Jahr behalten will...

R2

Thunder99
2015-09-21, 17:04:14
Das Ding wird 4GB haben mit einer kastrierten Anbindung, wie damals 660Ti.

Preis ist so eine Sache. Ohne Druck wird er sicher nicht runter gehen

Rampage 2
2015-09-21, 17:27:42
Das Ding wird 4GB haben mit einer kastrierten Anbindung, wie damals 660Ti.

Ich dachte, das funktioniert nicht besonders gut?:|


Preis ist so eine Sache. Ohne Druck wird er sicher nicht runter gehen

Na, Druck ist dann ja vorhanden - 960 Ti einerseits und R9 380X andererseits...

R2

Thunder99
2015-09-21, 17:55:45
Ich dachte, das funktioniert nicht besonders gut?:|



Na, Druck ist dann ja vorhanden - 960 Ti einerseits und R9 380X andererseits...

R2

Ist doch nvidia egal, siehe 660Ti und 970 ;) Hauptsache Marketing passt und die Verkaufszahlen.

Druck wenn die 380 deutlich weniger kostet. Ansonsten schätze ich positionieren sich 380x und evt 960Ti im 250€/$ Bereich

nVIDIA
2015-09-22, 19:20:44
Eine GTX 960 TI wäre schon was. Dann kann ich endlich meine GTX 560TI ersetzen. Ich denke das auf jeden Fall da noch was kommt.

Godmode
2015-09-28, 16:19:37
http://www.computerbase.de/2015-09/nvidia-dual-gpu-karte-mit-2x-gm200-kurz-vor-praesentation/

Wundert mich, das man sowas noch bringt? Die Titan Z war ja eher ein Ladenhüter.

AnnoDADDY
2015-09-28, 16:24:20
keine ahnung, vllt ham sie langeweile und wollen zeigen wo der Hammer hängt, oder wollen AMD einfach mal wieder bloß demütigen mit einer sogar kaufbaren Graka, was ja bei nem J´Fjii basierenden DUAL GPU eher schwer werden wird

Dural
2015-09-28, 16:28:41
naja ist halt ein Gegenstück zur Fury X2.

Das einzige was mich Wunder ist wie so NV nie eine Dual GPU Karte mit GM204 gebracht hat, die Karte könnte schon seit fast einem Jahr auf dem Markt sein. Mit 2x8GB und rund 1000.- hätte man 1 Jahr zum Voraus quasi schon einen Konter für die X2 gehabt auch wenn die X2 letztendlich wenige Prozentpunkte vorne wäre. Und ich bin mir sicher das davon einige Stückzahlen über die Ladentheke Gewandert wären.

dildo4u
2015-09-28, 16:29:50
Soll SLI mit DX12 nicht besser skalieren bzw der Vram kann diesmal voll genutzt werden?Das macht so eine Karte schon deutlich Sinnvoller gegenüber Früher.

http://wccftech.com/geforce-radeon-gpus-utilizing-mantle-directx-12-level-api-combine-video-memory/

Jedenfall's könnte man so die 12GB deutlich besser nutzen als mit einer Titan X.

aufkrawall
2015-09-28, 16:36:16
Niemand weiß, wie viele Spiele es mit SFR geben wird.
Ich tippe auf eine Hand voll oder fast gar keine, womit so eine Karte weiterhin ziemlicher Schwachsinn für Spiele ist.

Timbaloo
2015-09-28, 16:39:08
Niemand weiß, wie viele Spiele es mit SFR geben wird.
Ich tippe auf eine Hand voll oder fast gar keine, womit so eine Karte weiterhin ziemlicher Schwachsinn für Spiele ist.
Jo, imho reines Marketing-Teil.

Kartenlehrling
2015-09-28, 16:51:31
Wenn sie es schaffen das man keine Profile brauch,
und die zwei, vier GPU wie eine erkannt wird,
dann brauch man vielleicht keine "extra" Spieleentwicklung, es reicht wenn sie DX12 unterstützen.

AMD wollt es ja auch bringen und die Folie von Nvidia ist ja auch schon 3 Jahre alt.

Novum
2015-09-28, 17:11:38
Soll SLI mit DX12 nicht besser skalieren bzw der Vram kann diesmal voll genutzt werden?Das macht so eine Karte schon deutlich Sinnvoller gegenüber Früher.

http://wccftech.com/geforce-radeon-gpus-utilizing-mantle-directx-12-level-api-combine-video-memory/

Jedenfall's könnte man so die 12GB deutlich besser nutzen als mit einer Titan X.
Koennen sie nicht. Texturen muessen weiterhin auf beiden Karten vorliegen und das sind in der Regel 90% der Daten.

Dazu kommt, dass weiterhin fast jeder AFR benutzen wird, womit es ueberhaupt keinen Vorteil gibt.

Niemand weiß, wie viele Spiele es mit SFR geben wird.
Ich tippe auf eine Hand voll oder fast gar keine, womit so eine Karte weiterhin ziemlicher Schwachsinn für Spiele ist.
Auch mit SFR muss man Texturen doppeln. Siehe oben.

Wenn sie es schaffen das man keine Profile brauch,
und die zwei, vier GPU wie eine erkannt wird,
dann brauch man vielleicht keine "extra" Spieleentwicklung, es reicht wenn sie DX12 unterstützen.

AMD wollt es ja auch bringen und die Folie von Nvidia ist ja auch schon 3 Jahre alt.
Es wird ueberhaupt nichts als eine Karte erkannt. Im Gegenteil, mit DX12 muss der Spielentwickler manuell jede Karte einzeln ansprechen. Und wenn er das nicht macht, kann der Treiber auch nichts mehr aendern.

Das werden sehr lustige Zeiten, weil ich kann mir nicht vorstellen, dass viele Leute ueberhaupt den Aufwand betreiben. Vielleicht stirbt SLI dann endlich mal.

Thunder99
2015-09-28, 17:14:17
Koennen sie nicht. Texturen muessen weiterhin auf beiden Karten vorliegen und das sind in der Regel 90% der Daten.

Dazu kommt, dass weiterhin fast jeder AFR benutzen wird, womit es ueberhaupt keinen Vorteil gibt.


Auch mit SFR muss man Texturen doppeln. Siehe oben.


Es wird ueberhaupt nichts als eine Karte erkannt. Im Gegenteil, mit DX12 muss der Spielentwickler manuell jede Karte einzeln ansprechen.
"Nö", ging ja bei 3dfx und der V5 5500/6000 ja auch :wink: (prinzipiell). Kann natürlich nur sein, dass das ansprechen komplett sich verändert hat

StefanV
2015-09-28, 17:53:52
Wundert mich, das man sowas noch bringt? Die Titan Z war ja eher ein Ladenhüter.
Naja, das war ja auch 'ne ziemliche Lachnummer, wenn mans mit 'den anderen' vergleicht...
Und das ganze auch noch zum doppelten Preis. Wer soll sich das denn kaufen?! Zumal es auch kaum Benches im Web gab (rate mal, warum...)

Fazit: Zu teuer, zu laut/heiß und zu lahm...
Da ists dann kein Wunder, dass man die 3k€ Karte im Regal stehen lässt...

Godmode
2015-09-28, 20:19:11
Naja, das war ja auch 'ne ziemliche Lachnummer, wenn mans mit 'den anderen' vergleicht...
Und das ganze auch noch zum doppelten Preis. Wer soll sich das denn kaufen?! Zumal es auch kaum Benches im Web gab (rate mal, warum...)

Fazit: Zu teuer, zu laut/heiß und zu lahm...
Da ists dann kein Wunder, dass man die 3k€ Karte im Regal stehen lässt...

Meine Frage ging eher in die Richtung, warum macht man sowas überhaupt? Für 1.500 Euro hatte sich die Karte der eine oder andere Private sicher geholt. Oder ist die Entwicklung für so ein Board + Kühler wirklich so billig, dass sich das auszahlt?

iuno
2015-09-28, 20:23:28
Alleine deswegen schon, weil die Konkurrenz so ein Produkt anbietet und es daher ein bisschen peinlich für Nvidia wäre, nichts dergleichen zu bringen.
Wenn es dann heißt "AMDs schnellste Karte liegt 50% Nvidias schnellster, der Titan X" wäre das schlecht fürs Image, egal ob der Kram (beiderseits) nachher verkauft wird oder überhaupt was taugt

Kartenlehrling
2015-09-28, 20:42:35
Da sie vor kurzen eine mobil gtx980 mit der Leistung (98%) von einer Desktop Karte die eine TDP von 125w hat präsentiert, wär eine Dual GPU mit einem TDP von 250w schon was feines.

Tamagothi
2015-09-28, 20:44:23
Falls es eine Titan z² wird, wird es mit Sicherheit keine Customs geben und ab da wird sie wieder uninteressant.

Ob Nvidia dazu gelernt hat oder wieder diesen Monster Kühler ala Titan Z benutzt? :freak:

StefanV
2015-09-28, 21:41:36
Meine Frage ging eher in die Richtung, warum macht man sowas überhaupt? Für 1.500 Euro hatte sich die Karte der eine oder andere Private sicher geholt. Oder ist die Entwicklung für so ein Board + Kühler wirklich so billig, dass sich das auszahlt?
Weil man alles andere als Bodenständig ist und man das Maximale vom Kunden abschöpfen möchte...
Die Titan Z wäre demnach eine reine Prestige Karte für die Hardcore nVidia Fans.
Dass sie dabei völlig Sinnlos ist, spielt keine Rolle.

Aber warum man den Preis nicht gesenkt hat, verstehe ich auch nicht...

Andererseits:
Kennst du auch nur ein halbwegs brauchbares Review von der Titan Z??
Mir ist da irgendwie nichts bekannt...

Und so schließt sich dann wieder der Kreis zum Preis:
Durch den hohen Preis verhindert man, dass sich die Redaktionen 'privat' solch ein Stück Hardware besorgen...
Falls es eine Titan z² wird, wird es mit Sicherheit keine Customs geben und ab da wird sie wieder uninteressant.
Du vergisst die ganzen Leute, die grundsätzlich grün kaufen, aus ideologischen Gründen...
Diese Leute werden dann auch diese Karte kaufen...

Ob Nvidia dazu gelernt hat oder wieder diesen Monster Kühler ala Titan Z benutzt? :freak:
nVidia lernen?!
Warum sollten sie das?
So lang es genug 'Konsumzombies' gibt, die ihnen die Ware nur so aus der Hand reißen, besteht dafür ja mal gar keine Notwendigkeit...

Loeschzwerg
2015-09-29, 07:22:03
Meine Frage ging eher in die Richtung, warum macht man sowas überhaupt? Für 1.500 Euro hatte sich die Karte der eine oder andere Private sicher geholt. Oder ist die Entwicklung für so ein Board + Kühler wirklich so billig, dass sich das auszahlt?

Die Frage ist eher "Warum nicht?". Alle relevanten Maxwell Produkte sind auf dem Markt. PCB und Kühlerdesigns sind abgeschlossen... Pascal ist in der Validierung, aber letztendlich noch weit weg.
Die freien Kapazitäten der Mitarbeiter kann man also wunderbar in so ein Prestigeobjekt stecken.

Achja, Sinn und Zweck war es in meinen Augen nie die Z wirklich zu verkaufen ;) Eine Machbarkeitsstudie ala MARS/ARES, mehr nicht.

-/\-CruNcher-/\-
2015-09-29, 07:43:38
Jep Nano und diese Karte sind reine avg Shareholder Karten ;)


nVidia lernen?!
Warum sollten sie das?
So lang es genug 'Konsumzombies' gibt, die ihnen die Ware nur so aus der Hand reißen, besteht dafür ja mal gar keine Notwendigkeit...

Ehhh

Hübie
2015-09-29, 09:23:53
Die Idee hinter Titan Z war eben die kleinen Dev-Schmieden zu bedienen. Daher das dämliche Argument "50 Cent per CUDA Core". Hier kam die auch relativ gut an. Obwohl sich die meisten lieber zwei Black oder Classic ins System steckten.
Afaik hatte Kepler auch keinen funnel shifter was die für bitcoin mining eh ineffizient machte.

@StefanV: hardwarecanucks.com hatte ein Review. Nur falls du gucken willst ;) Die Karte ist einfach nix für Zocker. Auch wenn die zwischenzeitlich bei 1400 Euro lag.

Rampage 2
2015-10-26, 17:48:37
Nachdem jetzt ungefähre Performance-Prognosen zur AMD 380X vorhanden sind, spekuliere ich jetzt mal über eine mögliche 960 Ti:

- GM204
- 3 GPCs
- kastriert auf 192 Bit
- 1536 SPs, 48 ROPs und 96 TMUs @ 1.2GHz Chiptakt
- 3 und 6GB VRAM @ 7Gbps GDDR5 (= 168GB/sek. Bandbreite)

realistisch oder unsinnig?

R2

reaperrr
2015-10-26, 18:40:51
Nachdem jetzt ungefähre Performance-Prognosen zur AMD 380X vorhanden sind, spekuliere ich jetzt mal über eine mögliche 960 Ti:

- GM204
- 3 GPCs
- kastriert auf 192 Bit
- 1536 SPs, 48 ROPs und 96 TMUs @ 1.2GHz Chiptakt
- 3 und 6GB VRAM @ 7Gbps GDDR5 (= 168GB/sek. Bandbreite)

realistisch oder unsinnig?

R2
3 oder 6GB wird's nicht geben, eher wieder so wie bei früheren 192-bit-Lösungen, wo 1/3 der Speicherchips dann doppelte Kapazität hat, also insgesamt 4 GB. Ansonsten gut möglich.

Hübie
2015-10-26, 19:07:04
Nachdem jetzt ungefähre Performance-Prognosen zur AMD 380X vorhanden sind, spekuliere ich jetzt mal über eine mögliche 960 Ti:

- GM204
- 3 GPCs
- kastriert auf 192 Bit
- 1536 SPs, 48 ROPs und 96 TMUs @ 1.2GHz Chiptakt
- 3 und 6GB VRAM @ 7Gbps GDDR5 (= 168GB/sek. Bandbreite)

realistisch oder unsinnig?

R2

Technisch ist alles drin, was du sagst, aber ergibt marktwirtschaftlich einfach nicht viel Sinn. GM204 hat sehr gute yields und den wird man nicht unter "Wert" verkaufen. Wert deshalb in Anführungszeichen, weil wir alle wissen, dass nVidia deutlich mehr verlangt als es umgerechnet in Perf/Watt/$ sein müsste.
Ein doppelter GM200 ist wahrscheinlicher :redface:

Rampage 2
2015-10-26, 23:30:42
Technisch ist alles drin, was du sagst, aber ergibt marktwirtschaftlich einfach nicht viel Sinn. GM204 hat sehr gute yields und den wird man nicht unter "Wert" verkaufen. Wert deshalb in Anführungszeichen, weil wir alle wissen, dass nVidia deutlich mehr verlangt als es umgerechnet in Perf/Watt/$ sein müsste.
Ein doppelter GM200 ist wahrscheinlicher :redface:

Welche Lösung will Nvidia denn dann herbeizaubern? Die 960 ist bereits der Vollausbau des GM206 (1024 SPs, 32 ROPs, 64 TMUs). Wenn das Speicherinterface auf 192Bit erhöht wird, dann muss sich auch die Zahl der Shadereinheiten erhöhen - was beim GM206 nicht mehr möglich ist...

R2

R.I.P.
2015-10-28, 17:20:44
http://www.bitsandchips.it/9-hardware/6226-problemi-di-consumi-con-i-monitor-g-sync-e-le-schede-nvidia-maxwell

Verbrauchsprobleme (bis max +80%) bei Maxwell+Gsync Nutzer (bei nur einem Modell eines Asus Monitors):
Für alle "nicht Italienisch-Leser" das englische Zitat lesen.

Unicous
2015-10-28, 17:39:16
Das ist die originale Quelle und hat nichts mit G-Sync zu tun.

http://www.pcper.com/news/Graphics-Cards/Testing-GPU-Power-Draw-Increased-Refresh-Rates-using-ASUS-PG279Q

Nvidia muss idle hohe Taktraten fahren um die 144/165Hz zu halten. AMD nicht. Big deal.:rolleyes:

aufkrawall
2015-10-28, 17:43:33
Wahrscheinlich nur Fiji nicht.

Godmode
2015-10-28, 17:56:50
Das ist die originale Quelle und hat nichts mit G-Sync zu tun.

http://www.pcper.com/news/Graphics-Cards/Testing-GPU-Power-Draw-Increased-Refresh-Rates-using-ASUS-PG279Q

Nvidia muss idle hohe Taktraten fahren um die 144/165Hz zu halten. AMD nicht. Big deal.:rolleyes:

Darum bleibe ich im Desktopbetrieb bei 100Hz, was das Problem das löst. Unschön das ganze, aber die Lösung ist einfach.

hasebaer
2015-10-28, 18:07:56
Laut pcper ist der Verbrauch bis 120hz normal.

aufkrawall
2015-10-28, 18:08:45
Ist wirklich kein Beinbruch, weil man per NV-Treiber 144Hz bei jeder Anwendung erzwingen kann. Da kann man auf dem Desktop 120 fahren.

TurricanM3
2015-10-28, 18:40:34
Ist wirklich kein Beinbruch, weil man per NV-Treiber 144Hz bei jeder Anwendung erzwingen kann. Da kann man auf dem Desktop 120 fahren.

Ja mache ich auch so, funktioniert 1A, ohne Gefuddel.

Pitman
2015-10-29, 08:20:51
Gibt es dies Jahr noch eine Gtx 960 Ti ?

MfG
Pitman

Kartenlehrling
2015-10-29, 08:33:03
Wohl kaum, wir werden dieses Jahr nichts mehr von Nvidia sehen.

hasebaer
2015-10-29, 12:01:40
Wohl kaum, wir werden dieses Jahr nichts mehr von Nvidia sehen.

Begründung?

Thunder99
2015-10-29, 13:21:03
Man hört garnichts von der möglichen Karte. Würde mich aber sehr wundern wenn da keine Antwort kommen würde

BlacKi
2015-10-29, 17:53:21
Darum bleibe ich im Desktopbetrieb bei 100Hz, was das Problem das löst. Unschön das ganze, aber die Lösung ist einfach.
hat man das problem mit displayport und 144hz immernoch nicht gelöst?

ich hab ich schon eh und je 135mhz im idle bei 144hz mit duallink dvi

Kartenlehrling
2015-10-29, 18:29:22
http://www.pcper.com/news/Graphics-Cards/Testing-GPU-Power-Draw-Increased-Refresh-Rates-using-ASUS-PG279Q
Testing GPU Power Draw at Increased Refresh Rates using the ASUS PG279Q

http://www.pcper.com/files/imagecache/article_max_width/news/2015-10-23/powerdraw.png

Hübie
2015-10-29, 18:42:56
hat man das problem mit displayport und 144hz immernoch nicht gelöst?

ich hab ich schon eh und je 135mhz im idle bei 144hz mit duallink dvi

Nein denn man bräuchte um die 300 MHz, was im Leerlauf dann wieder mehr kostet als nötig. Dann lieber im Desktop 120 Hz und per Treiberprofil global höchste verfügbare Refreshrate einstellen.

http://abload.de/img/refresh_ratevlk7b.png (http://abload.de/image.php?img=refresh_ratevlk7b.png)

Kartenlehrling
2015-10-29, 19:43:47
Anständige Grafikmenüs haben aber auch die möglichkeit einer Hz Einstellung, oft nennt es sich Exclusives Vollbild.
Es wird viel zu wenig Wert auf HUI Scalierung und Grafikmenüs gelegt, 10-15 Jahre alte MMOs bieten das über Jahre schon an.

kdvd
2015-10-30, 23:50:57
Wohl kaum, wir werden dieses Jahr nichts mehr von Nvidia sehen.

Eine dual GM200 kommt auf jeden Fall und eine GTX 960Ti wird auch kommen.
Andernfalls wäre Nvidia schön blöd die 380X nicht zukontern, wo sie mittlerweile einen Sack voll schlechter GM204 gesammelt haben dürften nach über einem Jahr und diese nun als GTX960Ti zu Gold machen können.
1280 Shader @ 1150Mhz würden reichen um über die 380X zukommen.
Allein die Speicheranbindung ist die große Unbekannte ... :freak:

M4xw0lf
2015-10-31, 08:56:06
1280 Shader @ 1150Mhz würden reichen um über die 380X zukommen.
Wohl kaum. Die 960 mit 1024 Shadern @ 1180 MHz unterliegt im Durchschnitt der 380 mit 1792 @ 970 MHz etwa 5-10%. 1280 SPs @ 1150 MHz dürften den gleichen Abstand ergeben.

kdvd
2015-10-31, 10:19:09
Dann ebend 1408 Shader.
Entscheidend ist für mich das SI, weil von 128 - 256bit alles denkbar ist.

Ailuros
2015-11-05, 06:14:18
Ich poste es mal hier weil mir die threads im Grakaforum zu spezifisch sind:

http://www.anandtech.com/show/9760/nvidia-launches-nvs-810-digital-signage-video-card

Wer 16 4k displays stapeln will, sind 2*810 ziemlich billig.

Screemer
2015-11-05, 08:29:47
Und dabei augenschonende 30hz nutzen möchte. Ne mal im ernst. Solche Karten find ich schon beeindruckend. ~70w ist auch ein super wert. 2x cap verde würde sichtlich in ähnlichem Bereichen leben und wäre in dem fall vielleicht was für matrox amd lineup. Matrox ruft aber auch heftige Preise für die single chip 6 port Karten auf. Da fährt mat mit der NV günstiger. Allerdings zählt in den Einsatzgebieten wohl mehr die Software und da dürfte matrox bei multidisplay immer noch top sein.

mczak
2015-11-05, 15:12:53
Dass 8x4k/60Hz nicht geht liegt wohl bloss an der unterirdischen Speicherbandbreite, die Chips haben bloss 64bit ddr3 (pro Chip), oder irre ich mich da?

Nightspider
2015-11-09, 21:35:57
Die Wahrscheinlichkeit das noch eine GTX970 bzw. 980 mit 8GB erscheint geht gegen Null oder?

Thunder99
2015-11-10, 14:44:45
Ja, da nv dir die 980Ti dafür schmackhaft machen möchte um noch mehr $$$ zu verdienen...

Hübie
2015-11-10, 15:13:15
Die Wahrscheinlichkeit das noch eine GTX970 bzw. 980 mit 8GB erscheint geht gegen Null oder?

Korrigiere: Die ist bei Null. ;D

MasterElwood
2015-11-10, 15:19:20
Ja, da nv dir die 980Ti dafür schmackhaft machen möchte um noch mehr $$$ zu verdienen...

Da ist aber jetzt nix Verwerfliches dran. Eine 980TI hat ja auch eine deutlich höhere Mehrperformance - der höhere Preis ist also total gerechtfertigt.

Schlimm sind nur "Schummelkarten", die mit viel Speicher werben - der aber nix bringt weil der Flaschenhals ganz woanders liegt. :mad:

Hübie
2015-11-10, 15:37:06
Finde ich nicht. Ich selber habe eine 980 Ti im vollen Bewusstsein gekauft dass diese es so gesehen nicht wert ist, aber die Frage ist ja wie lange ich die Karte im Einsatz haben möchte. Entweder sehr kurz oder sehr lang. Alles andere lohnt sich nicht. Kurz: sagen wir für 650€ kauft man eine. Die kann man dann in zwei Monaten noch für 550 loswerden. Oder 650 Euro über 5 Jahre macht 130 pro Jahr oder ~11 Euro pro Monat. Also akzeptabel.

AnarchX
2015-11-24, 21:34:34
Offenbar kommt jetzt eine GTX 750 auf GM206-Basis: http://www.techpowerup.com/gpudb/2778/geforce-gtx-750-v2.html

kdvd
2015-11-24, 22:18:44
Ich hab mich schon gefragt wann Nvidia den GM107 einstellt.

Aber warum nennt man diese Karte nicht gleich "GT 940"?!
Wäre doch viel paasender.

dildo4u
2015-11-26, 14:24:25
Gibt es dies Jahr noch eine Gtx 960 Ti ?

MfG
Pitman
Es könnte die 960 OEM für den Retail Markt kommen.

http://wccftech.com/nvidia-preparing-launch-geforce-gtx-960-ti/

AnarchX
2015-11-26, 19:03:31
Die GTX 960 OEM ist wohl eine umbenannte GTX 970M, da nur langsamer 5Gbps RAM und damit kein PEG-Karte: http://www.pcgameshardware.de/Steam-Machine-Hardware-256919/News/Zotac-Zbox-Steam-Machine-Skylake-Maxwell-1176672/

Das wäre immerhin eine Mobile SKU, für eine GM204-Desktop-Resterampe wird man wohl eher einen anderen Chip verwenden.

Ich hab mich schon gefragt wann Nvidia den GM107 einstellt.

Aber warum nennt man diese Karte nicht gleich "GT 940"?!
Wäre doch viel paasender.
Man will wohl die GM107 Restbestände nicht gleich unattraktiv machen.

Rampage 2
2015-11-29, 00:25:01
Die GTX 960 OEM ist wohl eine umbenannte GTX 970M, da nur langsamer 5Gbps RAM und damit kein PEG-Karte:

Sind 5Gbps nicht zu wenig? Bei einer 960 Ti sollten es schon 7Gbps sein, da das SI nur 192Bit ist - das sind dann 168GB/sec. , also exakt in der Mitte zwischen 960 und 970.

R2

seb74
2016-03-02, 12:02:31
Offenbar kommt jetzt eine GTX 750 auf GM206-Basis: http://www.techpowerup.com/gpudb/2778/geforce-gtx-750-v2.html Wann kommt die "neue Revision" der GTX 950 mit der GPU revision GM206-251, die 20Watt weniger brauchen soll? Habe wg der News gerade meine 2 Jahre 750ti 10 Euro unter Neupreis verkauft :) Die Specs sollen der alten 950 gleichen, der Preis um 20 Watt, err Euro sinken.. http://www.3dcenter.org/news/hardware-und-nachrichten-links-des-23-februar-2016

N0Thing
2016-03-02, 14:20:06
Ist weiterhin alles Spekulation. Und wenn sie auf den Markt kommen, dann vielleicht nur in China.

OC_Burner
2016-09-17, 15:24:30
Die-Shots zur GeForce GTX 970 (GM204)

https://c5.staticflickr.com/9/8133/29627012532_5b164a0972_c.jpg (https://flic.kr/p/M93bCU)

https://c6.staticflickr.com/9/8192/29738653525_ed125f3431_c.jpg (https://flic.kr/p/MiUnBB)

https://c4.staticflickr.com/9/8551/29738645595_c8df431f8a_c.jpg (https://flic.kr/p/MiUkfT)

Hübie
2016-09-17, 16:37:21
Ein wunderbar aufgeräumter Chip. Du wirst immer besser :up: Danke für diesen Silizium-Porno :D

OC_Burner
2016-09-18, 11:28:53
Ein wunderbar aufgeräumter Chip. Du wirst immer besser :up: Danke für diesen Silizium-Porno :D

Nichts zu danken, der Maxwell Chip ließ sich übrigens genauso schwierig freilegen wie der GK110 von dir. Der Layer-Aufbau schien ähnlich zu sein. Jetzt würde nur noch GK104 für einen schönen Vergleich zwischen den kleineren Chips fehlen.

Rooter
2016-09-18, 12:16:51
Die-Shots zur GeForce GTX 970 (GM204)

https://c5.staticflickr.com/9/8133/29627012532_9e6caf519e_c.jpg (https://flic.kr/p/M93bCU)

https://c6.staticflickr.com/9/8192/29738653525_7b474dea0a_c.jpg (https://flic.kr/p/MiUnBB)

https://c4.staticflickr.com/9/8551/29738645595_c8df431f8a_c.jpg (https://flic.kr/p/MiUkfT)Cool, danke!

MfG
Rooter