PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Maxwell - GM1xx (H1/2014) / GM2xx (H2/2014)


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 [29] 30 31 32 33

Dawn on Titan
2015-02-24, 20:37:41
Kommen die wieder mit GPX04 zuerst?

robbitop
2015-02-25, 10:50:46
Kommen die wieder mit GPX04 zuerst?
Davon ist auszugehen. Die Salamitaktik funktioniert doch seit Kepler hervorragend. :)

Palpatin
2015-02-25, 11:27:04
Ich bin mir nach wie vor ziemlich sicher, dass die 970 bei VRAM-Mangel übler stocken kann als eine vergleichbare Karte ohne so eine Verkrüppelung, also etwa eine 780 Ti.
Deshalb gehört sie in die Tonne, oder besser noch: Petersen und Huang um die Ohren gehauen. Hoffentlich passiert genau das vor Gericht.
Das kann ich aus Sicht der 780 Ti bestätigen, betreibe die Karte mit 4K Moni und auch wenn >3GB belegt werden läuft vieles noch Ruckelfrei. 60 FPS sind mir Latte nutze Gsync und da reichen auch ~40 FPS für absolut ruckelfreies Spielerlebnis.
780TI > 970 bis auf Verbrauch

Godmode
2015-03-02, 23:17:05
Was mir gerade auffällt: Wenn GM200 keine dezidierten DP Einheiten hat, wozu sollte dieses Ding dann auf der GTC vorgestellt werden?

M4xw0lf
2015-03-03, 07:16:40
Weil es mit einfacher Präzision immer noch sehr schnell rechnen kann?

Godmode
2015-03-03, 10:00:46
Weil es mit einfacher Präzision immer noch sehr schnell rechnen kann?

Ja natürlich, aber Double Precision ist ja doch sehr wichtig in diesem Feld. Naja wir werden es hoffentlich bald sehen.

Ailuros
2015-03-03, 10:17:05
Ja natürlich, aber Double Precision ist ja doch sehr wichtig in diesem Feld. Naja wir werden es hoffentlich bald sehen.

Stimmt schon; aber ein dual GK104 Gespann hatten sie auch in Profi-Maerkten im Angebot. Wo immer DP keine Rolle spielt kann man einen GM200 schon einsetzen und dann eben sonst das GK210 Dingsbums :rolleyes:

Da wo ich immer noch ratlos bin ist was sie bis zu Pascal fuer high end Quadros anbieten wollen; K6000 forever oder auch dort irgend ein oedes GK210 Gespann?

Hübie
2015-03-03, 14:03:06
Quadros brauchen doch nicht wirklich doppelte Präzision. Und so häufig ists auch allgemein nicht im Gebrauch. Es ist im HPC nur Pflicht weil es immer Teilaufgaben gibt die darauf zurück greifen müssen. Also in jedem Projekt wird schon irgendwas mit drin sein. Aber beim rendern ist das sehr selten. Nächstes Jahr kommt die US-Regierung wieder angewackelt und erneuert den 5-Jahresplan für "the road to petaflops", dann wird auch Pascal da sein.

Sunrise
2015-03-03, 14:08:39
Quadros brauchen doch nicht wirklich doppelte Präzision. Und so häufig ists auch allgemein nicht im Gebrauch. Es ist im HPC nur Pflicht weil es immer Teilaufgaben gibt die darauf zurück greifen müssen. Also in jedem Projekt wird schon irgendwas mit drin sein. Aber beim rendern ist das sehr selten. Nächstes Jahr kommt die US-Regierung wieder angewackelt und erneuert den 5-Jahresplan für "the road to petaflops", dann wird auch Pascal da sein.
Bzw. Volta, den NV relativ schnell (angekündigt ist 2017) nachfolgen lassen wird. Relativ deshalb, weil das Ding wohl für 10nm geplant ist und z.B. für das U.S. Department of Energy in den Supercomputern zu finden sein sollte, also Summit and Sierra.

Das Ding wird also wohl noch stärker auf HPC ausgelegt werden als Pascal (evtl. auch die zweite Generation NVLink?).

Bezüglich den Quadros sehe ich keine Probleme, GK210 oder aber ein kommender GM200 sollte dort eigentlich alles bis Pascal locker überbrücken können.

Nakai
2015-03-03, 14:23:49
Doppelte Präzision ist sowieso nicht immer nötig. Wenn die Präzision ausgeht oder der Algorithmus die höhere Präzision benötigt, dann, ja genau dann, sollte man auf Double Präzision gehen. Für normale GPGPU-Sachen ist SP meisten vollkommen ausreichend.
Natürlich wird DP gerne als Allheilmittel gesehen und viele Entwickler setzen grundsätzlich darauf, einfach...naja weil. Nach meiner Ansicht fehlt dem Großteil der Entwickler das numerische Feingefühl, den Algorithmus dementsprechend anzupassen. Das ist auch eine ziemlich nervige Angelegenheit, Algorithmen auf den UseCase anzupassen und erfordert verdammt viel Zeit. EM-Algorithmen oder Clustering-Algorithmen, welche lokale Minima/Maxima finden zu versuchen, sind ziemlich anfällig für solche numerische Angelegenheiten.

€: Ahja, mehr als DP-SP-Rate als 1:2 macht ja eh keinen Sinn und AMD ist bzgl GPGPU mit GCN eh schon deutlich weiter als NV. Kurz, ich erwarte für Pascal eine weitere Annäherung an GCN.

Godmode
2015-03-03, 15:00:51
Ok danke für die Infos. Dann hoffen wir mal das Fiji und GM200 bald zu kaufen sind.

PHuV
2015-03-03, 16:39:17
Hat sich hier jemand überhaupt schon eine 960er zugelegt? Ich hab meine 750 TI durch eine 960er ersetzt, weil es hier mehr DP-Anschlüsse gibt, und es gerade von EVGA eine Cashbackaktion (http://de.evga.com/articles/00911/EVGA-Cashback-Program/) gibt.

Rampage 2
2015-03-03, 18:10:14
Ok danke für die Infos. Dann hoffen wir mal das Fiji und GM200 bald zu kaufen sind.

Was waren nochmal die offiziellen Hinweise für den Launchtermin von GM200? Ich habe März 2015 in Erinnerung...

R2

Hübie
2015-03-03, 18:47:31
Hat sich hier jemand überhaupt schon eine 960er zugelegt? Ich hab meine 750 TI durch eine 960er ersetzt, weil es hier mehr DP-Anschlüsse gibt, und es gerade von EVGA eine Cashbackaktion (http://de.evga.com/articles/00911/EVGA-Cashback-Program/) gibt.

1.) Dein Avatar bricht mir das Herz. 2.) Gibt's die 960 jetzt auch mit 4 GB und 3.) wozu so eine Gurke kaufen (HTPC?)? :biggrin:

Also ich kenne niemanden der so eine hat oder es vor hat. Ich sehe die Karte nicht gerade als bahnbrechend an.

PHuV
2015-03-03, 18:59:14
2.) Gibt's die 960 jetzt auch mit 4 GB und 3.) wozu so eine Gurke kaufen (HTPC?)? :biggrin:

Mist, lese auch gerade, daß sie demnächst mit 20 € Aufpreis mit 4 GB zu haben sein wird.

So eine Gurke ist gut, wenn man nicht über 300 € für eine GTX 970 ausgeben will, und trotzdem mehrere DP-Anschlüsse haben möchte. Aktuell in dieser Kombination mit dem Preis alternativlos.

M4xw0lf
2015-03-03, 19:08:14
Ja, wenn man noch wie was von AMD gehört hat.

PHuV
2015-03-03, 19:36:10
Wenn man von AMD gehört hat, sich Karten gekauft und getestet hat, welche dann per DP Probleme haben. :cool:

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=10513596&postcount=49
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=10517645&postcount=53
http://www.computerbase.de/forum/showthread.php?t=1451389&page=21&p=17069515#post17069515

M4xw0lf
2015-03-03, 19:42:59
Was denn genau?

PHuV
2015-03-03, 23:05:22
Einige AMD-Karten haben Probleme mit DP und echten 4k, sprich 4096x2160@60Hz, während die aktuellen Nvidiakarten ab 7xxer damit keine Probleme haben. Die Probleme wurden an mehrfacher Stelle bestätigt. Da Intel bzw. die meisten Mainboards auch nur mit maximal 3840x2160@60Hz per DP liefern, gibt es hier aktuell leider keine Alternativen, wenn Du so was wie einen LG31MU97-B betreiben willst.

Thunder99
2015-03-03, 23:25:09
Wenn man von AMD gehört hat, sich Karten gekauft und getestet hat, welche dann per DP Probleme haben. :cool:

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=10513596&postcount=49
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=10517645&postcount=53
http://www.computerbase.de/forum/showthread.php?t=1451389&page=21&p=17069515#post17069515
Einige AMD-Karten haben Probleme mit DP und echten 4k, sprich 4096x2160@60Hz, während die aktuellen Nvidiakarten ab 7xxer damit keine Probleme haben. Die Probleme wurden an mehrfacher Stelle bestätigt. Da Intel bzw. die meisten Mainboards auch nur mit maximal 3840x2160@60Hz per DP liefern, gibt es hier aktuell leider keine Alternativen, wenn Du so was wie einen LG31MU97-B betreiben willst.
AMD Karten können es ab einer bestimmen GNC Version, ergo die R9 285 und 290er sollten es korrekt können

Hmm, dann ist es leider nicht optimal, naja neue Version kommt ja

Ailuros
2015-03-04, 07:07:16
Quadros brauchen doch nicht wirklich doppelte Präzision. Und so häufig ists auch allgemein nicht im Gebrauch. Es ist im HPC nur Pflicht weil es immer Teilaufgaben gibt die darauf zurück greifen müssen. Also in jedem Projekt wird schon irgendwas mit drin sein. Aber beim rendern ist das sehr selten. Nächstes Jahr kommt die US-Regierung wieder angewackelt und erneuert den 5-Jahresplan für "the road to petaflops", dann wird auch Pascal da sein.

Wenn Du fuer eine Quadro K6000 irgendwo zwischen 4k+ und 12k Euros auf den Ladentisch legst ist es dann schon etwas peinlich wenn man einen Nachfolger haette der in einem Aspekt zu langsam ist. Wenn es einen Profi gibt der rein zufaellig eine solche Quadro auch fuer DP benutzt wird es wohl nicht so leicht zu erklaeren sein.

Es ist ein voller GK110b und auf Papier kann er theoretisch 1.7 TFLOPs DP liefern; ich weiss jetzt nicht wie es auf GM200 aussieht, aber wenn man dieser jetzt mit nur hundert bzw. hunderten von GFLOPs DP ankommt kann er wohl schwer als chip den heutigen K6000 in der heutigen Quadro Linie so leicht ersetzen, und die Zeiten sind auch extrem schlecht zu versuchen es unter den Teppich zu kehren :D

Wie gesagt entweder bleibt die K6000 die highest end Quadro oder sie legen einfach eine GK210 ein; bei dem Geld dass sie pro Quadro verlangen ist ein doppelter chip auch kein Problem mehr.

dildo4u
2015-03-04, 19:02:09
Nvidia zeigt Titan X auf dem Epic Unrealengine Stream.

http://www.twitch.tv/unrealengine

12GB Vram bestätigt 8 Milliarden Transistoren.

http://abload.de/img/titanxhfkm8.jpg

Troyan
2015-03-04, 19:04:58
Lol.

Das ist wohl die geilste Vorstellung ever - und keiner bekommt es mit. :freak:

Sunrise
2015-03-04, 19:14:50
Wenn NV das Ding wirklich Titan X nennt, dann wird das wohl die letzte Titan und NV hat für Pascal andere Namen.

Nakai
2015-03-04, 19:16:48
Ja, mit den 12GB kann man AMDs HBM-Versuch so ziemlich im Keim ersticken.

dildo4u
2015-03-04, 19:17:17
UE4 Titan X Demo

http://youtu.be/0zjPiGVSnfI

Troyan
2015-03-04, 19:18:58
Ja, mit den 12GB kann man AMDs HBM-Versuch so ziemlich im Keim ersticken.

Wird man doch auch mit 6GB schon, wenn HBM nur 4GB erlaubt.

Blediator16
2015-03-04, 19:23:02
Natürlich ist HBM nur dafür da, um die heutigen VRAM Kapazitätsprobleme zu lösen, denn jeder weiß 12gb gddr5 sind besser als 4gb hbm :D

Dawn on Titan
2015-03-04, 19:24:10
Die 6GB wird man sich für die Geforce Version aufheben. Das ist dann zwar sicher schlechter als 4GB HBM aber evtl. kommt man auf 10% an Fiji XT heran.

fondness
2015-03-04, 19:31:15
Ja, mit den 12GB kann man AMDs HBM-Versuch so ziemlich im Keim ersticken.

Niemand braucht 12GB für Games. Aber 8 Milliarden Transistoren sind erstaunlich viel. Da kein höherer DP-Speed vorhanden könnte da durchaus mehr als 3072 SPs drinnen sein, sofern NV nicht nur marketingetechnisch aufrundet und auch sonst keine neue Features drinnen sind.

Dawn on Titan
2015-03-04, 19:32:38
3072SPs

Sunrise
2015-03-04, 19:36:27
Aber 8 Milliarden Transistoren sind erstaunlich viel. Da kein höherer DP-Speed vorhanden könnte da durchaus mehr als 3072 SPs drinnen sein, sofern NV nicht nur marketingetechnisch aufrundet und auch sonst keine neue Features drinnen sind.
Findest du? Also das klingt eigentlich genau richtig für 3072 SPs, rechne das mal anhand der Zahlen für GM206 und GM206 hoch.

Da zweifle ich jetzt sogar sehr stark an den Diesize-Messungen.

Rente
2015-03-04, 19:36:40
3072SPs
Also doch die gewohnte DP-Fähigkeiten?

dildo4u
2015-03-04, 19:38:29
Presseshot.

https://pbs.twimg.com/media/B_RanfFW0AAdjhR.jpg:orig

M4xw0lf
2015-03-04, 19:39:06
Niemand braucht 12GB für Games. Aber 8 Milliarden Transistoren sind erstaunlich viel. Da kein höherer DP-Speed vorhanden könnte da durchaus mehr als 3072 SPs drinnen sein, sofern NV nicht nur marketingetechnisch aufrundet und auch sonst keine neue Features drinnen sind.
Naja, etwas mehr als 50% Aufschlag für 50% mehr von allem - passt doch wie die Faust aufs Auge.

Also doch die gewohnte DP-Fähigkeiten?
Naja wie GM204 halt - 1:32, aka sogutwienix. ;)

Troyan
2015-03-04, 19:41:06
http://www.twitch.tv/unrealengine/b/632577690?t=47m17s

Vorstellung, wer es verpasst haben sollte.

/edit: http://blogs.nvidia.com/blog/2015/03/04/smaug/

Smaug - :rofl:

Duplex
2015-03-04, 19:41:56
Die 6GB wird man sich für die Geforce Version aufheben. Das ist dann zwar sicher schlechter als 4GB HBM aber evtl. kommt man auf 10% an Fiji XT heran.
Warum sind 6GB schlechter als 4GB HBM ?
GM200 kann 50% mehr Performance als eine GTX980 liefern, mit 2GB mehr Speicher wird man dann alles toppen können.
Entscheident ist auch die Leistungsaufnahme, Stichwort: Effizienz!
GM200 braucht bei 50% mehr Performance als GM204 vielleicht nur 30-40W mehr Strom.
AMDs neue Karte soll dagegen mit Wasserkühlung kommen, das hört sich alles nach einem Strom Fiasko an oder nicht?

Nakai
2015-03-04, 19:45:03
Natürlich ist HBM nur dafür da, um die heutigen VRAM Kapazitätsprobleme zu lösen, denn jeder weiß 12gb gddr5 sind besser als 4gb hbm :D

Erzähl das dem typischen(eher NVidia-geneigten) PC-User. :wink:

Mehr als 3072SPs werden es nicht werden, geht IMO bei Maxwell nicht so leicht.;)

NV hat das Design stark entschlackt. Mit mehr als 20 SMs muss auch das Backend und der Interconnect kleiner ausfallen. NV hat es bisher immer vermeiden wollen, viele SMs zu verbauen. Da sind eher die SMs größer geworden, als mehr von diesen einzubauen.

Zwischen GM206 und GM204 sind ~2,26 Milliarden Transen Unterschied. Das auf GM204 draufaddiert, ergeben 7,5 Milliarden Transen. GM200 sollte eventuell noch ein paar Änderungen haben, welche etwas Transistoren-Budget schlucken. Eventuell verbesserte ComputeCapabilities, mehr Transistoren oder etwas mehr Cache.

GM204 + (GM204 - GM206) + X = GM200

also irgendwas zwischen 550 und 600mm² und eben 3072SMs. Ahja, 8 Milliarden Transen klingen sehr gekünstelt. Wahrscheinlich wurden manche Transistoren doppelt gezählt. :freak::freak::freak:

fondness
2015-03-04, 19:47:43
Findest du? Also das klingt eigentlich genau richtig für 3072 SPs, rechne das mal anhand der Zahlen für GM206 und GM206 hoch.

Da zweifle ich jetzt sogar sehr stark an den Diesize-Messungen.

GM204: 5,2 Mrd Trasistoren.
GM206: 2,94 Mrd Transistoren

Unterschied sind exakt 1024SPs, 32ROPs, 2 GPCs, 128-bit SI und 2.26 Mrd Transistoren bei 171mm².
Also genau das was ein GM200 mehr haben sollte wie ein GM204.

Dann komme ich bei GM200 auf 5,2+2,26 = 7,46 Mrd Transistoren bzw. 398mm² + 171mm² = 569mm² Die-Size.

Blediator16
2015-03-04, 19:50:14
Erzähl das dem typischen(eher NVidia-geneigten) PC-User. :wink:


Ach das war die letzten Generationen hat man sich ständig mit weniger zufrieden gegeben von daher sollte sich doch nichts ändern hab ich recht? hab ich recht? :cool:

Rente
2015-03-04, 19:50:17
Warum sind 6GB schlechter als 4GB HBM ?
GM200 kann 50% mehr Performance als eine GTX980 liefern, mit 2GB mehr Speicher wird man dann alles toppen können.
Entscheident ist auch die Leistungsaufnahme, Stichwort: Effizienz!
GM200 braucht bei 50% mehr Performance als GM204 vielleicht nur 30-40W mehr Strom.
AMDs neue Karte soll dagegen mit Wasserkühlung kommen, das hört sich alles nach einem Strom Fiasko an oder nicht?
Krass was du wieder für einen Unsinn von dir gibst, es gibt dazu keinerlei Informationen bisher.

Godmode
2015-03-04, 19:50:42
UE4 Titan X Demo

http://youtu.be/0zjPiGVSnfI

Schöne Demo, endlich mal was anderes als der prollige Militär-0815-Robotor-Endzeit-Kack.

Btw. schön dass es doch noch was worden ist mit GM200, ich habe schon befürchtet, dass sie auf der GDC nur das Shield-Dings vorstellen.

fondness
2015-03-04, 19:51:10
Naja, etwas mehr als 50% Aufschlag für 50% mehr von allem - passt doch wie die Faust aufs Auge.


Normalerweise benötigt man für 50% mehr Einheiten weniger als 50% mehr Transistoren, da nicht alles mitskaliert.

Schöne Demo, endlich mal was anderes als der prollige Militär-0815-Robotor-Endzeit-Kack.

Btw. schön dass es doch noch was worden ist mit GM200, ich habe schon befürchtet dass sie auf der GDC nur das Shield-Dings vorstellen.

Bis auf die Haare :ugly:. Da hätte TressFX/Gameworks nicht geschadet^^

Loeschzwerg
2015-03-04, 20:11:21
Btw. schön dass es doch noch was worden ist mit GM200, ich habe schon befürchtet, dass sie auf der GDC nur das Shield-Dings vorstellen.

Ging mir genauso.

Launch dann gleich Ende März oder irgendwann im April?

Godmode
2015-03-04, 20:12:38
Ging mir genauso.

Launch dann gleich Ende März oder irgendwann im April?

Richtige Vorstellung dann zur GTC und Verfügbarkeit im April hört sich ja ganz gut an. Wann kommt Fiji nochmal?

fondness
2015-03-04, 20:14:51
Offiziell ist nach wie vor nur Q2 genannt worden.

Loeschzwerg
2015-03-04, 20:18:49
Das wäre ein spannendes Quartal, hoffentlich kommt es dazu :)

Duplex
2015-03-04, 20:28:34
Krass was du wieder für einen Unsinn von dir gibst, es gibt dazu keinerlei Informationen bisher.
50% mehr Performance liegt im machbaren Bereich, auch weil GM204 kaum Strom verbraucht.
GM204 = 2048 Shader
GM200 = 3072 Shader

Unsinn ist wenn jemand sagt das 6GB schlechter als 4GB HBM sind, was soll ich mit HBM anfangen, entscheident ist doch nur die GPU Performance und wieviel Speicher ich habe...

iFanatiker
2015-03-04, 20:29:53
Natürlich ist HBM nur dafür da, um die heutigen VRAM Kapazitätsprobleme zu lösen, denn jeder weiß 12gb gddr5 sind besser als 4gb hbm :D

Sicher, dass 12 GB drin sind nicht und nicht 10,5 + 1,5:freak::biggrin:

Troyan
2015-03-04, 20:32:34
/edit: Müssten 11GB und 1GB

Duplex
2015-03-04, 20:33:59
Ich kann jetzt schon sagen das GM200 mit 6GB der Sieger wird, AMD hat mit HBM direkt 3 Nachteile gegenüber Nvidia, 1. Kühler, 2. Stromverbrauch & 3. 2 GB weniger Speicher.
GM200 wird so leise wie eine GTX780 und weniger als 50W mehr als eine GTX980 verbrauchen!

iuno
2015-03-04, 20:37:13
50% mehr Performance liegt im machbaren Bereich, auch weil GM204 kaum Strom verbraucht.
GM204 = 2048 Shader
GM200 = 3072 Shader
Ja stimmt, fast speist der Chip sogar noch Strom ins Netz ein!
Der größere Unsinn war die Behauptung mit 30-40 W. Damit am Ende ein Plus von 50% rauskommt, reichen die zusätzlichen Shader selbstverständlich nicht aus. Ganz zu schweigen davon, dass zusätzliche Recheneinheiten natürlich keinen Strom brauchen oder was? ;D

Unsinn ist wenn jemand sagt das 6GB schlechter als 4GB HBM sind, was soll ich mit HBM anfangen, entscheidend ist doch nur die GPU Performance und wieviel Speicher ich habe...
Unsinn, natürlich spielt auch die Bandbreite eine Rolle... :rolleyes: Aus der 970 Affäre wohl nichts gelernt? "entscheidend ist doch nur die wieviel Speicher ich habe" ;D

Ich kann jetzt schon sagen das GM200 mit 6GB der Sieger wird, AMD hat mit HBM direkt 3 Nachteile gegenüber Nvidia, 1. Kühler, 2. Stromverbrauch & 3. 2 GB weniger Speicher.
GM200 wird so leise wie eine GTX780 und weniger als 50W mehr als eine GTX980 verbrauchen!
Kannst du den Fanboy-Kram mal hier rauslassen? Ist doch alles Blödsinn!

Duplex
2015-03-04, 20:39:28
natürlich spielt auch die Bandbreite eine Rolle...
GM200 hat über 50% mehr Bandbreite als die GTX980.

Ailuros
2015-03-04, 20:52:04
Nvidia zeigt Titan X auf dem Epic Unrealengine Stream.

http://www.twitch.tv/unrealengine

12GB Vram bestätigt 8 Milliarden Transistoren.



Ich hatte 7.9b. Mal sehen wie gross NV den die wirklich angiebt :P

GM204: 5,2 Mrd Trasistoren.
GM206: 2,94 Mrd Transistoren

Unterschied sind exakt 1024SPs, 32ROPs, 2 GPCs, 128-bit SI und 2.26 Mrd Transistoren bei 171mm².
Also genau das was ein GM200 mehr haben sollte wie ein GM204.

Dann komme ich bei GM200 auf 5,2+2,26 = 7,46 Mrd Transistoren bzw. 398mm² + 171mm² = 569mm² Die-Size.

Nahe genug; es sind ueber 7.9 deshalb sind 8b auch nicht gelogen. GM206 ist bei 12.95M Packdichte. GM200 ist ein Stueck hoeher was die Packdichte betrifft.

Godmode
2015-03-04, 21:08:43
GM200 hat über 50% mehr Bandbreite als die GTX980.

Vor allem da die DP-Einheiten fehlen, kann ich mir 50% mehr Leistung noch eher vorstellen. Wenn es 40% sind, weil niedrigerer Takt, passt es ja auch noch.

Ailuros
2015-03-04, 21:18:21
Vor allem da die DP-Einheiten fehlen, kann ich mir 50% mehr Leistung noch eher vorstellen. Wenn es 40% sind, weil niedrigerer Takt, passt es ja auch noch.

Kommt drauf an ob Ihr den wahren Durchschnitt als Ziel habt oder irgend einen "bis zu" Wert. Gegenueber der 980 50% nein afaik was den Durchschnitt betrifft.

Godmode
2015-03-04, 21:36:05
Kommt drauf an ob Ihr den wahren Durchschnitt als Ziel habt oder irgend einen "bis zu" Wert. Gegenueber der 980 50% nein afaik was den Durchschnitt betrifft.

Was auch logisch wäre, da ich bei GM200 von niedrigerer Taktraten ausgehe. Gibts eigentlich irgendwelche anderen spannenden Neuigkeiten zu dieser GPU, oder ist es einfach nur GM204 in groß?

Troyan
2015-03-04, 21:54:09
GM204 hat fast 50% mehr Transistoren als GK104 und läuft mit 100MHz (~10%) mehr.
GM200 hat nur 15% mehr Transistoren als GK110.

Man kann fast von gleicher Taktung zur GTX980 ausgehen.

boxleitnerb
2015-03-04, 22:06:17
Kommt drauf an ob Ihr den wahren Durchschnitt als Ziel habt oder irgend einen "bis zu" Wert. Gegenueber der 980 50% nein afaik was den Durchschnitt betrifft.

Mit maximiertem Powertarget (falls erlaubt von NV) sollte das schon gehen. Vielleicht skalieren die Einheiten nicht perfekt, aber bei gleichem Takt sollten 45% drin sein denke ich.

Godmode
2015-03-04, 22:23:57
GM204 hat fast 50% mehr Transistoren als GK104 und läuft mit 100MHz (~10%) mehr.
GM200 hat nur 15% mehr Transistoren als GK110.

Man kann fast von gleicher Taktung zur GTX980 ausgehen.

Gehe von weniger aus, da sonst der Stromverbrauch explodiert, IMHO.

Mit maximiertem Powertarget (falls erlaubt von NV) sollte das schon gehen. Vielleicht skalieren die Einheiten nicht perfekt, aber bei gleichem Takt sollten 45% drin sein denke ich.

Der Vergleich hinkt. Einen GM204 kann ich auch mit maximiertem PT betreiben. Hier laufen die guten Stücke mit 1450-1500 Mhz.

Btw, schön das es hier so ruhig und gesitted ist. Auf CB und PCGH ist der wieder der Kindergarten unterwegs.

boxleitnerb
2015-03-04, 22:29:10
Der Vergleich hinkt. Einen GM204 kann ich auch mit maximiertem PT betreiben. Hier laufen die guten Stücke mit 1450-1500 Mhz.


Klar kann man das. Aber GK104 und GK110 konnte man näherungsweise auch mit gleichem Takt betreiben, wenn ich mich recht erinnere - solange man beide eben entfesselt (Mod Bios z.B.). Warum sollte das bei Maxwell nicht gehen? Der größere Chip holte bisher immer mehr raus, weil er niedriger ansetzte.

sulak
2015-03-04, 22:30:18
Titan X mit 12GB VRAM wird doch locker 4stellig kosten. Dann die 990er mit 6GB VRAM, etwas geringere Taktrate aber gleicher Chip und dann der Krüppel... Mal schauen wieviele der 12 SI Blöcke abgeschaltet sind. Ob sie die gleiche Tour wie bei der GTX970er fahren können? Oder wieder auf das bewährte 320Bit SI gehen, hat der GTX570 ja nicht geschadet.

Godmode
2015-03-04, 22:39:12
Klar kann man das. Aber GK104 und GK110 konnte man näherungsweise auch mit gleichem Takt betreiben, wenn ich mich recht erinnere - solange man beide eben entfesselt (Mod Bios z.B.). Warum sollte das bei Maxwell nicht gehen? Der größere Chip holte bisher immer mehr raus, weil er niedriger ansetzte.

Ach so war das gemeint. Ja dann natürlich schon.

Titan X mit 12GB VRAM wird doch locker 4stellig kosten. Dann die 990er mit 6GB VRAM, etwas geringere Taktrate aber gleicher Chip und dann der Krüppel... Mal schauen wieviele der 12 SI Blöcke abgeschaltet sind. Ob sie die gleiche Tour wie bei der GTX970er fahren können? Oder wieder auf das bewährte 320Bit SI gehen, hat der GTX570 ja nicht geschadet.

Ich denke nicht das jetzt soviel teurer werden als die alten Titans.

sulak
2015-03-04, 22:43:00
GTX970 sind bei ~350, die GTX980 bei ~550 da kannst du Gift drauf nehmen das die normale GTX990 (oder wie auch immer) 750-800 kosten wird, mit Glück bleibt die Titan X bei 999. Siehe Titan Black welche voll aus dem Rahmen lief. Oder meinst du die GTX980 wird im Preis fallen?

Godmode
2015-03-04, 22:50:26
Nein, GTX 980 bei 500-550. GTX 980 Ti bei 650-750. Titan X bei 950-1050 und eine Black dann noch etwas teurer.

Raspo
2015-03-04, 23:04:34
Ich kann jetzt schon sagen das GM200 mit 6GB der Sieger wird, AMD hat mit HBM direkt 3 Nachteile gegenüber Nvidia, 1. Kühler, 2. Stromverbrauch & 3. 2 GB weniger Speicher.
GM200 wird so leise wie eine GTX780 und weniger als 50W mehr als eine GTX980 verbrauchen!

Oh, echt jetzt, Du warst in beiden Designteams und kennst die Spezifikationen ganz genau? Raus damit ;-).

iuno
2015-03-04, 23:31:11
Nein, GTX 980 bei 500-550. GTX 980 Ti bei 650-750. Titan X bei 950-1050 und eine Black dann noch etwas teurer.
Also erwartest du entweder die Titan X nicht mit 3072 SP oder GM200 gar noch mit mehr? Wie kommst du denn zu der Annahme?

OC_Burner
2015-03-04, 23:33:17
Nein, GTX 980 bei 500-550. GTX 980 Ti bei 650-750. Titan X bei 950-1050 und eine Black dann noch etwas teurer.

Die Black war doch der Vollausbau zur Titan. Eine Black zur Titan X macht doch überhaupt keinen Sinn!? Oder wie ist deine Aufzählung gemeint?

Blediator16
2015-03-04, 23:39:47
Der Preis wird sich an AMDs Karten richten. Hat AMD nix, wirds teuer und das gleiche andersrum.

Rente
2015-03-04, 23:42:06
Du meinst so wie bei der 7970 und der 290X? ;)
Nvidia richtet sich inzwischen hauptsächlich nach Nvidia, auch weil das Spiel mit den überhöhten Preisen einfach so gut funktioniert hat.

iuno
2015-03-04, 23:56:21
Der Preis wird sich an AMDs Karten richten. Hat AMD nix, wirds teuer und das gleiche andersrum.
Zunächst mal sieht es ja danach aus, als würde GM200 vor Fiji auf dem Markt sein. Dass Fiji danach großen Einfluss auf den Preis hat, halte ich doch eher für unwahrscheinlich. War ja in der Vergangenheit auch nicht der Fall. "Nvidia-Faktor" + 12 GiB werden schon dafür sorgen. Aber vielleicht wird ja die 980 billiger, wenn Fiji mit der kleineren GM200-Karte gut mithalten kann

dildo4u
2015-03-05, 00:08:31
Der Preis wird sich an AMDs Karten richten. Hat AMD nix, wirds teuer und das gleiche andersrum.
AMDs Karte wird ein GTX 980 Konkurrent,schon alleine wegen den 4GB hat die Karte weiter oben nix zu suchen.

Blediator16
2015-03-05, 00:11:38
AMDs Karte wird ein GTX 980 Konkurrent,schon alleine wegen den 4GB hat die Karte weiter oben nix zu suchen.

Wie schon öfter gesagt. Nvidia Karten hatten Generationen lang weniger Vram und es hat kein Hahn danach gekräht. Wieso sollte sich das diesesmal ändern. Und jenachdem wie AMDs Karte wird, wird natürlich eine Preisanpassung kommen.

Knuddelbearli
2015-03-05, 00:19:43
Wie schon öfter gesagt. Nvidia Karten hatten Generationen lang weniger Vram und es hat kein Hahn danach gekräht. Wieso sollte sich das diesesmal ändern.

Weill jetzt Nv im Vorteil ist!

iuno
2015-03-05, 00:22:13
Weil Nvidia nicht AMD ist. Schau dir doch mal die Marktanteile und Preise der vergangenen Jahre an. AMD musste bei vergleichbarer Leistung (und mehr RAM ;) ) immer billiger verkaufen und hat dennoch Marktanteile verloren. Und eine solche Preisanpassung gab es bei der Titan auch nicht, als Hawaii kam – wobei es da natürlich länger gedauert hat

Blediator16
2015-03-05, 00:25:47
Weil Nvidia nicht AMD ist. Schau dir doch mal die Marktanteile und Preise der vergangenen Jahre an. AMD musste bei vergleichbarer Leistung immer billiger verkaufen und hat dennoch Marktanteile verloren. Und eine solche Preisanpassung gab es bei der Titan auch nicht, als Hawaii kam – wobei es da natürlich länger gedauert hat

Die Preisanpassung hieß 780 und 780TI und war ein fetter schlag ins Gesicht der Leute, die sich eine Titan für nen Tausender gekauft haben. Von der Titan Z, die sich vor lauter Scharm nichtmal blicken ließ, reden wir erst garnicht. Die Preise werden sich anpassen. Wenn AMD mit HBM zufälligerweise eine Punktlanung hinlegt, dann wird Nvidia reagieren. AMDs Marktanteile haben mit den völlig verkorksten Marktstarts zutun. Wer eine Karte mit unferigen Treiber und eine Karte mit unglaubich beschissenem Kühler an die Reviewer schickt hat sie nicht mehr alle und dafür hat AMD den Preis gezahlt. Kepler war nie so überlegen, dass man plötzlich bei 20% gelandet ist. Das haben die Initialreviews von Tahiti und Hawaii von alleine geregelt. Die Fanboys taten den Rest.

Ach ja von AMDs Laptop Strategie regen wir erstmal nicht.

dildo4u
2015-03-05, 00:56:57
Nvidia zeigt die Karte auf dem GDC Stand.

http://www.pcper.com/files/imagecache/article_max_width/news/2015-03-04/titanx5.jpg

http://www.pcper.com/news/Graphics-Cards/GDC-15-NVIDIA-Shows-TITAN-X-Epic-Games-Keynote

Blediator16
2015-03-05, 01:01:55
Davon wirds sicher eine 8+8 geben. Für die kränksten der Kranken.

iuno
2015-03-05, 01:06:51
Die Preisanpassung hieß 780 und 780TI und war ein fetter schlag ins Gesicht der Leute, die sich eine Titan für nen Tausender gekauft haben. Von der Titan Z, die sich vor lauter Scharm nichtmal blicken ließ, reden wir erst garnicht.
Preisanpassung würde ich das nicht nennen. Die 780 gab es ja schon vor Hawaii, die Ti kam erst danach und beide mit weniger Speicher. Heute weiß man aber, dass noch eine Karte mit abgespecktem GM200 und 6 GiB kommt.

AMDs Marktanteile haben mit den völlig verkorksten Marktstarts zutun. Wer eine Karte mit unferigen Treiber und eine Karte mit unglaubich beschissenem Kühler an die Reviewer schickt hat sie nicht mehr alle und dafür hat AMD den Preis gezahlt. Kepler war nie so überlegen, dass man plötzlich bei 20% gelandet ist. Das haben die Initialreviews von Tahiti und Hawaii von alleine geregelt. Die Fanboys taten den Rest.

Ach ja von AMDs Laptop Strategie regen wir erstmal nicht.
Das ist ja meine Rede. Aber erwartest du für den Fiji-Launch etwas anderes, falls die Karte mit einer Hybrid-Kühllösung kommen und ein paar Watt 'zu viel' verbrauchen sollte? Das gibt sicher zwei fette Minuspunkte in den Reviews.

2x8-Pin habe ich mir auch gerade gedacht – overclocker's dream... :P

Thunder99
2015-03-05, 01:21:24
Wenn AMD liefern kann wird es eine 8GB Karte von Fiji geben.

Sonst schön das sich die Karte zeigt. Preise werden nvidia typisch sein. Und wie die Beschneidung vom GM200 wird werden wir sehen. Würde mich nicht wundern wenn es der 970er Lösung entspricht...

Nightspider
2015-03-05, 01:40:18
AMDs Karte wird ein GTX 980 Konkurrent,schon alleine wegen den 4GB hat die Karte weiter oben nix zu suchen.

Ach und die GTX970 ist Konkurrent der R9 280X wegen ihren 3,5GB VRAM?

Spielst du Bullshit-Bingo? Du kämpfst mit Duplex jedenfalls um Platz 1!

Blediator16
2015-03-05, 01:46:56
Preisanpassung würde ich das nicht nennen. Die 780 gab es ja schon vor Hawaii, die Ti kam erst danach und beide mit weniger Speicher. Heute weiß man aber, dass noch eine Karte mit abgespecktem GM200 und 6 GiB kommt.


Das ist ja meine Rede. Aber erwartest du für den Fiji-Launch etwas anderes, falls die Karte mit einer Hybrid-Kühllösung kommen und ein paar Watt 'zu viel' verbrauchen sollte? Das gibt sicher zwei fette Minuspunkte in den Reviews.

2x8-Pin habe ich mir auch gerade gedacht – overclocker's dream... :P

Wasserkühlung hat erstmal nichts zu bedeuten, ausser kühle und leise GPUs.

iuno
2015-03-05, 01:57:08
Das brauchst du mir nicht zu erzählen

Rampage 2
2015-03-05, 02:08:55
Nein, GTX 980 bei 500-550. GTX 980 Ti bei 650-750. Titan X bei 950-1050 und eine Black dann noch etwas teurer.

Wieviel wird eurer Meinung nach ein GM200 Vollausbau @ 6GB kosten? Dass das 12GB-Topmodell über 1000€ kosten wird braucht wohl nicht bezweifelt zu werden...

Ich gehe von 700 - 800€ aus...

R2

dildo4u
2015-03-05, 02:13:58
Ach und die GTX970 ist Konkurrent der R9 280X wegen ihren 3,5GB VRAM?

Spielst du Bullshit-Bingo? Du kämpfst mit Duplex jedenfalls um Platz 1!
Die Wenigsten die High End wollen werden von 4Gb auf 4GB umrüsten und genau der Kundenkreis der 500€ Karten kauft hat schon eine mit 4GB.Gerade wegen der 970 kommt Vram Größe in den Fokus,vorallem da die neuen Karten sicherlich für 4k beworben werden.4GB sind ein Witz für den Preis ,den AMD verlangen muss weil es neue Technologie ist das Ding wird der Neuste Ladenhüter von AMD,dafür muss man nich viel Fantasie haben.

Isen
2015-03-05, 02:19:16
"vorallem da die neuen Karten sicherlich für 4k beworben werden"

Wurde die 970 auch (http://www.nvidia.de/object/geforce-gtx-970-de.html)*lach
Werben tun die viel, wenn der Tag lang ist.

Hübie
2015-03-05, 02:55:20
*gähn* Also irgendwie is Maxwell echt langweilig. Aber schön das immer die gleichen noch fleißig tr0llen (damit meine ich beide Seiten). Das belebt das Geschäft.

Ich muss aber wieder zugeben dass Jensens Auftritt wieder sehr gut inszeniert war. Der Kerl stiehlt einfach jedem die Show. Wahnsinns Charisma die der Typ hat :biggrin:

Erinnert sich eigentlich noch einer an das Monitor-Overclocking-Feature für Titan? Irgendwie glaub ich wird es nur solche Dinge beim Launch geben. Mindfucking AA is ja schon in der Senke verschwunden - mal sehen was die Mottenkiste hergibt um 1300 $ den Kunden aus der Tasche zu ziehen X-D

Ailuros
2015-03-05, 06:18:17
Mit maximiertem Powertarget (falls erlaubt von NV) sollte das schon gehen. Vielleicht skalieren die Einheiten nicht perfekt, aber bei gleichem Takt sollten 45% drin sein denke ich.

Ich meinte offensichtlich default vs. default Frequenzen. Es ist ja nicht so dass bei den 970/980 SKUs default Frequenzen die Regel sind sondern eher die grossen Ausnahmen.

Nein, GTX 980 bei 500-550. GTX 980 Ti bei 650-750. Titan X bei 950-1050 und eine Black dann noch etwas teurer.

Welche 980Ti?

***edit: die pro und contra Trollerei sind wir schon seit Jahren gewoehnt. Die Gruenen verteidigen ihren Rasen und die roten sind mal wieder im Panik-mode. Auf rein sachlicher Ebene ist GM200 im Grund nur ein grosser Maxwell, behaelt aber den bisherigen perf/W Vorteil gegen die Konkurrenz. :weg:

Rente
2015-03-05, 06:40:34
Davon wirds sicher eine 8+8 geben. Für die kränksten der Kranken.
Ich hoffe es doch, das Ding (mit 6GB) soll der Nachfolger für meine 780 Ti mit Wakü werden.

Kann man jetzt von der richtigen Präsentation auf der GTC ausgehen?

Skysnake
2015-03-05, 07:00:59
***edit: die pro und contra Trollerei sind wir schon seit Jahren gewoehnt. Die Gruenen verteidigen ihren Rasen und die roten sind mal wieder im Panik-mode. Auf rein sachlicher Ebene ist GM200 im Grund nur ein grosser Maxwell, behaelt aber den bisherigen perf/W Vorteil gegen die Konkurrenz. :weg:
Und das könnte das größte Problem für AMD sein, denn die Karten werden alle im Powerlimit rennen, also ist schneller, wer effizienter ist.

Ailuros
2015-03-05, 07:05:28
Und das könnte das größte Problem für AMD sein, denn die Karten werden alle im Powerlimit rennen, also ist schneller, wer effizienter ist.

Das groesste Problem momentan bei AMD ist dass alles fuer GPUs in einem Schneckentempo vorgeht, ist aber ein ganz anderes Kapitel.

horn 12
2015-03-05, 07:25:01
Zwecks der 8GB HBM Speichergeschichte :-)

Ailuros
2015-03-05, 07:35:29
Zwecks der 8GB HBM Speichergeschichte :-)

Nein.

horn 12
2015-03-05, 08:06:09
Weshalb dann...
Abverkauf der R9 290(X)
und der unteren Tahiti´s

Godmode
2015-03-05, 08:07:33
Also erwartest du entweder die Titan X nicht mit 3072 SP oder GM200 gar noch mit mehr? Wie kommst du denn zu der Annahme?

Die Black war doch der Vollausbau zur Titan. Eine Black zur Titan X macht doch überhaupt keinen Sinn!? Oder wie ist deine Aufzählung gemeint?

Nein das war nur ein Beispiel. Ich denke schon das die X jetzt mit der vollen Anzahl an SPs kommt. Die Fertigung sollte das zulassen.


Der Preis wird sich an AMDs Karten richten. Hat AMD nix, wirds teuer und das gleiche andersrum.

Denke ich eher nicht, zumindest nicht bei der Titan. Nvidia hat hier was geschaffen, was man normalerweise nur von Apple kennt.

Ich meinte offensichtlich default vs. default Frequenzen. Es ist ja nicht so dass bei den 970/980 SKUs default Frequenzen die Regel sind sondern eher die grossen Ausnahmen.

Welche 980Ti?

***edit: die pro und contra Trollerei sind wir schon seit Jahren gewoehnt. Die Gruenen verteidigen ihren Rasen und die roten sind mal wieder im Panik-mode. Auf rein sachlicher Ebene ist GM200 im Grund nur ein grosser Maxwell, behaelt aber den bisherigen perf/W Vorteil gegen die Konkurrenz. :weg:

980Ti = GM200 Salvage? Egal wie das Ding heißt, die Lücke zwischen Titan X und GTX 980 musst geschlossen werden. Ich erwarte hier einen Lückenfüller.

Ok danke für die Info.

cR@b
2015-03-05, 08:22:53
Hui hätte ich wohl doch nicht off gehen sollen nach der Shield Konsole. War schon leicht frustriert, dass es bezüglich GM200 wieder keine Infos gab.

DX12 kompatibel wird sie wohl nicht werden. Gut bis es auch Games dafür gibt, ist es wohl 2016. Hmm so richtig überwältigt bin ich noch nicht aber das wird ja evtl. noch Ende des Montas. Der Preis wird Titan Niveau sein aber naja man gönnt sich ja sonst nichts :ugly:

Palpatin
2015-03-05, 08:28:54
980Ti = GM200 Salvage? Egal wie das Ding heißt, die Lücke zwischen Titan X und GTX 980 musst geschlossen werden. Ich erwarte hier einen Lückenfüller.

Ok danke für die Info.
Könnt mir hier auch eine um ~20% Takterhöhte 980 mit 8GB VRAM als 980Ti vorstellen. Der Preis der Titan X wird wohl um die 1337€ liegen ;), da werden sie kaum eine 6GB Version mit der gleichen Speed zum halben Preis auf den Markt werfen.

Sunrise
2015-03-05, 08:42:44
Könnt mir hier auch eine um ~20% Takterhöhte 980 mit 8GB VRAM als 980Ti vorstellen. Der Preis der Titan X wird wohl um die 1337€ liegen ;), da werden sie kaum eine 6GB Version mit der gleichen Speed zum halben Preis auf den Markt werfen.
Nö, weil NV die GM200 GPUs, die nicht voll funktionsfähig sind, irgendwie auch verwerten muss. Und davon sollte es nach einiger Zeit auf 28nm auch noch reichlich geben. Die super gebinnten GPUs von GM204 werden bereits für diverse AIBs und deren Custom-Designs benötigt (wenn NV sowas überhaupt für einen Aufpreis anbietet), bzw. für die Mobil-Varianten. Zudem wird NV sich erstmal nicht (bzw. überhaupt nicht) das Lineup mit 8GB VRAM kaputtmachen.

Godmodes preisliche Schätzung ist endlich mal eine realistische Schätzung die dem aktuellen Marktangebot entspricht.

NV wird GM200 nicht verschenken und Salvage wird wahrscheinlich auch erst später erscheinen, damit man schön erstmal die Käufer mit etwas, dass deutlich über dem Preis und der Leistung der GTX980 liegt (>$900) abschöpfen kann. Das ist ja irgendwie auch legitim, wenn bereits für die GTX980 bezahlt wird und GM200 wird da min. nochmal 35% mit konservativem Referenztakt draufsetzen. Mit der Option auf mehr.

Salvage werden dann anfallen und die muss man dann aus den Lagern auch verkaufen -> 980 TI.

Und als Trumpf kann man dann noch die besonders willigen Anhänger mit der Black Titan X und >$1000 (12GB VRAM) zur Kasse bitten.

Perfektes Lineup aus der Sicht von NV. Da klingelt wieder die Margenkasse.

Dass es aufgrund von Fiji dann zu Preisanpassungen kommen wird, ist sehr unwahrscheinlich.

Dawn on Titan
2015-03-05, 08:58:37
Mit 6+8 Pin und dem im Grundsatz bekannten Kühler bei 7.8 Milliarden Transistoren dürfte das Ding wieder ziemlich effizient sein. Fiji muss da einen deutlichen Sprung machen um besser zu sein.

Ailuros
2015-03-05, 09:09:01
980Ti = GM200 Salvage? Egal wie das Ding heißt, die Lücke zwischen Titan X und GTX 980 musst geschlossen werden. Ich erwarte hier einen Lückenfüller.

Ok danke für die Info.

Mir ist zwar bewusst dass es so manche Idioten in NV's marketing gibt, aber wieso genau wuerde man etwas wie "980" waehlen fuer eine jegliche GM200 SKU?

Sonst welche Luecke genau? Hab ich etwas verpasst oder hat Jensen erwaehnt dass Titan X einen GM200 im Vollausbau hat? Noch besser wie sah es genau beim originalen Titan aus? Gerade JETZT wo AMD nichts dagegen stellen kann ist es der ideale Zeitpunkt wieder etwas bei ehlendigen Wucherpreisen loszuwerden.

Ich weiss zwar nicht genaueres aber es waere schon ein Ereignis wenn sie einen so komplizierten chip mit A1 silicon schon im Vollausbau bei sehr guten binning yields herstellen koennen, dafuer ist 28nm relativ egal wie reif es ist.

***edit:

bleiben sie bei der bisherigen Masche wie bei Kepler:

1. Titan X, 12GB, GM200 salvage part, $999 MSRP

2. GTX990, 6GB, GM200 salvage part, $599 MSRP

3. GTX990Ti, 6GB, GM200 full, $599 MSRP

Bermuda ist nicht wirklich so nahe afaik....

Dural
2015-03-05, 09:12:51
Wenn die GPU voll aktiv ist, könnte ich schwach werden. 12GB ist natürlich auch super für SLI :rolleyes:


@All
Die Titan X wird es Garantiert nicht mit 8x8-Pin geben, seit wann gibt es von den Titan Karten Partner Versionen?!

Ailuros
2015-03-05, 09:15:45
Von der Kepler Familie hat nur Titan Z 8+8.

Palpatin
2015-03-05, 09:18:20
Sonst welche Luecke genau? Hab ich etwas verpasst oder hat Jensen erwaehnt dass Titan X einen GM200 im Vollausbau hat? Noch besser wie sah es genau beim originalen Titan aus? Gerade JETZT wo AMD nichts dagegen stellen kann ist es der ideale Zeitpunkt wieder etwas bei ehlendigen Wucherpreisen loszuwerden.

Orginal Titan release war Februar 2013, AMD konnte bis Oktober 2013 nichts dagegen stellen. Sieht aber imo nicht so aus das Fiji erst im Dezember kommt....

Ailuros
2015-03-05, 09:22:48
Orginal Titan release war Februar 2013, AMD konnte bis Oktober 2013 nichts dagegen stellen. Sieht aber imo nicht so aus das Fiji erst im Dezember kommt....

Fiji ist "nur" eine Antwort auf GM204; das obrige gilt nur wenn Bermuda und Fiji gleichzeitig verfuegbar sein werden und Fiji hat auch keinen Maerz release afaik sondern spaeter.

Godmode
2015-03-05, 09:29:32
Mir ist zwar bewusst dass es so manche Idioten in NV's marketing gibt, aber wieso genau wuerde man etwas wie "980" waehlen fuer eine jegliche GM200 SKU?

Sonst welche Luecke genau? Hab ich etwas verpasst oder hat Jensen erwaehnt dass Titan X einen GM200 im Vollausbau hat? Noch besser wie sah es genau beim originalen Titan aus? Gerade JETZT wo AMD nichts dagegen stellen kann ist es der ideale Zeitpunkt wieder etwas bei ehlendigen Wucherpreisen loszuwerden.

Ich weiss zwar nicht genaueres aber es waere schon ein Ereignis wenn sie einen so komplizierten chip mit A1 silicon schon im Vollausbau bei sehr guten binning yields herstellen koennen, dafuer ist 28nm relativ egal wie reif es ist.

***edit:

bleiben sie bei der bisherigen Masche wie bei Kepler:

1. Titan X, 12GB, GM200 salvage part, $999 MSRP

2. GTX990, 6GB, GM200 salvage part, $599 MSRP

3. GTX990Ti, 6GB, GM200 full, $699 MSRP

Bermuda ist nicht wirklich so nahe afaik....

Ja 980Ti war ja nur ein Beispielname. Es ging mir nur darum, dass sie GM200 Salvage Teile in der Preisregion zwischen Titan X und GTX 980 verkaufen werden. Wenn Titan X nur Salvage ist, hätte das einen ganz fiesen Beigeschmack, andererseits wäre es nur logisch aus der Historie.

PHuV
2015-03-05, 09:35:06
GDC: Nvidia stellt Grafikkarte Geforce GTX Titan X vor (http://www.heise.de/newsticker/meldung/GDC-Nvidia-stellt-Grafikkarte-Geforce-GTX-Titan-X-vor-2567420.html?wt_mc=rss.ho.beitrag.atom)
Erste Schätzungen gehen von einem Verkaufspreis von 1350 US-Dollar aus.
:eek: Heftige Ansage.

Knuddelbearli
2015-03-05, 09:38:18
vermute 1350 sind zuwenig schätze eher 1399 oder 1499

Ist aber nur ein Bauchgefühl ^^

Sunrise
2015-03-05, 09:38:21
GDC: Nvidia stellt Grafikkarte Geforce GTX Titan X vor (http://www.heise.de/newsticker/meldung/GDC-Nvidia-stellt-Grafikkarte-Geforce-GTX-Titan-X-vor-2567420.html?wt_mc=rss.ho.beitrag.atom)

:eek: Heftige Ansage.
Vor allem wenn das Teil wirklich teildeaktiviert sein sollte. Das wäre Kühe melken vom Feinsten. Das wäre schlimmer als damals 1500 DM für die Geforce 2 Ultra (die aber voll aktiviert war und einen höheren Takt hatte) abdrücken zu müssen.

Glaube ich noch nicht so recht dran, das wäre heftig überzogen.

Godmode
2015-03-05, 09:38:49
GDC: Nvidia stellt Grafikkarte Geforce GTX Titan X vor (http://www.heise.de/newsticker/meldung/GDC-Nvidia-stellt-Grafikkarte-Geforce-GTX-Titan-X-vor-2567420.html?wt_mc=rss.ho.beitrag.atom)

:eek: Heftige Ansage.

Sind halt Schätzungen. In Euro umgerechnet wäre das ja 1:1 oder? ;D

Dural
2015-03-05, 09:39:21
nö wäre nicht logisch, bei der ersten Titan konnte man noch sagen "Grosser Chip im neuen Prozess" diesmal gibt es keine Entschuldigung, da der 28nm Prozess sicher ziemlich gut ausgereift ist und man sehr viel Erfahrung damit hat. Zudem hatte man weit und breit keine Konkurrenz.

Mit was anderem als einem vollen GM200 muss NV gar nicht erst daher kommen! :P

Malabolge
2015-03-05, 09:41:40
Die Wenigsten die High End wollen werden von 4Gb auf 4GB umrüsten und genau der Kundenkreis der 500€ Karten kauft hat schon eine mit 4GB.Gerade wegen der 970 kommt Vram Größe in den Fokus,vorallem da die neuen Karten sicherlich für 4k beworben werden.4GB sind ein Witz für den Preis ,den AMD verlangen muss weil es neue Technologie ist das Ding wird der Neuste Ladenhüter von AMD,dafür muss man nich viel Fantasie haben.

Du meinst also die 3,5 GB waren nur eine Gigantische Marketingmasche um jetzt 12 GB einzuführen ?
NV hat seine eigene Karten nur aus Werbegründen "kastriert" ? #
4 (echte) GB sind ein Witz ?

Gefickt Eingeschädelt ! Selten so Gelacht

Knuddelbearli
2015-03-05, 09:42:54
Sind halt Schätzungen. In Euro umgerechnet wäre das ja 1:1 oder? ;D

dank aktuellen dollarkurs ja bzw sogar leicht darüber

Malabolge
2015-03-05, 09:45:15
Vor allem wenn das Teil wirklich teildeaktiviert sein sollte. Das wäre Kühe melken vom Feinsten. Das wäre schlimmer als damals 1500 DM für die Geforce 2 Ultra (die aber voll aktiviert war und einen höheren Takt hatte) abdrücken zu müssen.

Glaube ich noch nicht so recht dran, das wäre heftig überzogen.


Naja , so was wie "Schutz-zahlungen" gegen Limitierungen

Könnte man sicher auch um die 800€ anbieten ,
allerdings kann man dann die Dolmetscher zwischen Techniker und Marketing nicht mehr bezahlen.
Solche "Fehler" müssen vermieden werden

Ailuros
2015-03-05, 09:46:28
nö wäre nicht logisch, bei der ersten Titan konnte man noch sagen "Grosser Chip im neuen Prozess" diesmal gibt es keine Entschuldigung, da der 28nm Prozess sicher ziemlich gut ausgereift ist und man sehr viel Erfahrung damit hat. Zudem hatte man weit und breit keine Konkurrenz.

Nochmal auch fuer Dich: der Prozess ist scheissegal bei so einem komplizierten chip. GT200 war 575mm2 gross und die binning yields unter dem damals noch reiferem 65nm waren fuer die Zeiten miserabel; genau deshalb sind sie auch damals schnellstens auf 55nm umgestiegen.

Mit was anderem als einem vollen GM200 muss NV gar nicht erst daher kommen! :P

Es waere wirklich ein Ereignis ueberhaupt bei der chip-Groesse und Packdichte.

Dural
2015-03-05, 09:49:15
Wie schon gesagt, wenn kein voller GM200 da drauf ist können sie das ding behalten.

Ich unterstütze zu solchen Preisen so was sicher nicht

PHuV
2015-03-05, 09:52:07
Wo habt Ihr den alle die Infos her, daß die neue Titan abgespeckt sein soll? :confused:

Dural
2015-03-05, 09:57:38
ist reine Vermutung, ich Tippe ja auf nein.

Godmode
2015-03-05, 09:59:44
Wie schon gesagt, wenn kein voller GM200 da drauf ist können sie das ding behalten.

Ich unterstütze zu solchen Preisen so was sicher nicht

Also wegen 5-6% Leistungsunterschied (Black vs Classic) würde ich jetzt nicht so ein Fass aufmachen. Es wäre zwar ärgerlich, aber man kann nicht alles haben.

Ailuros
2015-03-05, 10:01:28
Wo habt Ihr den alle die Infos her, daß die neue Titan abgespeckt sein soll? :confused:

Stinknormale Logik die geschichtlich auf der Entwicklung hochkomplizierter chips der Vergangenheit basiert.

Dimitri Mayakovsky
2015-03-05, 10:09:22
Wenn es tatsächlich 3072 Shader auf der Titan X gibt, dann wird es wohl kaum ein teildeaktivierter Chip sein. Dafür ist die Zahl zu rund gegenüber GM204 (+50%).

Die erste Titan hatte ja einen sehr merkwürdigen Shadercount (2688), während ja tatsächlich 2880 vorhanden waren auf dem Chip.

Dural
2015-03-05, 10:11:39
....in der Vergangenheit gab es noch nie einen grossen Chip im bekannten Herstellungsprozess der abgespeckt wurde: weder G80, GT200, GF110 noch GK110B :wink:

Coda
2015-03-05, 10:15:33
Falls das ein 28nm Chip wird ist der Prozess nun wirklich reif genug.

Ailuros
2015-03-05, 10:20:51
....in der Vergangenheit gab es noch nie einen grossen Chip im bekannten Herstellungsprozess der abgespeckt wurde: weder G80, GT200, GF110 noch GK110B :wink:

G80 bei vollem Frequenz-ziel der Ultra kam erst nach einem metal spin; GT200 zwar nicht aber die "Lebenszeit" der 65nm Variante war sehr begrenzt. GF100 kam nur kastriert und GK110 genauso. Ja sicher *wink* :rolleyes:

fondness
2015-03-05, 10:32:56
Falscher Gedankengang...

robbitop
2015-03-05, 10:54:42
Fiji ist "nur" eine Antwort auf GM204; das obrige gilt nur wenn Bermuda und Fiji gleichzeitig verfuegbar sein werden und Fiji hat auch keinen Maerz release afaik sondern spaeter.


http://mobile.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/News/Radeon-R9-390X-Oculus-Rift-Showdown-1152592/

Gegenüber den Kollegen von tomshardware.com soll AMD die Radeon als "Ultra-Enthusiast-Produkt" bezeichnet haben.

Eine Fijii als GM204 Antwort wäre IMO nicht so sinnvoll. Er ist kaum schneller als Hawaii. Fijii sollte bei der angepeilten Chipgröße mit rund 4096 SPs schon eher im GM200 Fahrwasser sein. Vermutlich leicht darunter.

Ailuros
2015-03-05, 11:02:52
http://mobile.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/News/Radeon-R9-390X-Oculus-Rift-Showdown-1152592/



Eine Fijii als GM204 Antwort wäre IMO nicht so sinnvoll. Er ist kaum schneller als Hawaii. Fijii sollte bei der angepeilten Chipgröße mit rund 4096 SPs schon eher im GM200 Fahrwasser sein. Vermutlich leicht darunter.

Das kommende AMD Flagschiff heisst Bermuda und nicht Fiji. Steht auch im link nichts genaues darueber drin.

fondness
2015-03-05, 11:15:44
Das kommende AMD Flagschiff heisst Bermuda und nicht Fiji. Steht auch im link nichts genaues darueber drin.

Ergo im Q2 nur ein Hawaii-Ersatz? Das wäre lame.

Ailuros
2015-03-05, 11:22:55
Ergo im Q2 nur ein Hawaii-Ersatz? Das wäre lame.

Kann durchaus sein dass die Dinger auch gleichzeitig am Ende kommen. Es gibt so viele sinnlose Berichte und moechtegern Daten dass es schwer ist sich auf jeglichem laufendem zu halten. Sagen wir es mal so damit der Zusammenhang auch zum Thema hier bleibt: ist Titan X tatsaechlich kein voller GM200 ist es marketing technisch auch egal ob Bermuda spaeter ankommt als Fiji.

robbitop
2015-03-05, 11:36:57
Das kommende AMD Flagschiff heisst Bermuda und nicht Fiji. Steht auch im link nichts genaues darueber drin.
War Bermuda nicht Fijii X2?

Wie auch immer R390X intern heißen mag ist egal - offenbar ist es ein Flaggschiff und offenbar ist es lauffähig.

Ailuros
2015-03-05, 11:45:35
War Bermuda nicht Fijii X2?

Wie auch immer R390X intern heißen mag ist egal - offenbar ist es ein Flaggschiff und offenbar ist es lauffähig.

Wir hoeren von der Lauffaehigkeit von Fiji, Bermuda und GM200 schon seit dem vergangenen Jahr. Wo genau soll die Ueberraschung sein? Was jetzt Bermuda genau ist bleibt abzusehen.

Dimitri Mayakovsky
2015-03-05, 11:51:58
Und wann was kommt vor allem.

GM200 wird dann wohl am 17. vorgestellt werden, schätze wie bei GM204 mit einem sehr schnellen Verkaufsstart (gleicher Tag? Ist ja Dienstag).

Ailuros
2015-03-05, 11:56:27
Und wann was kommt vor allem.

GM200 wird dann wohl am 17. vorgestellt werden, schätze wie bei GM204 mit einem sehr schnellen Verkaufsstart (gleicher Tag? Ist ja Dienstag).

Uhmmm ja bei dem Preis werden die Kunden auch nicht schlange stehen ;D

Thunder99
2015-03-05, 11:59:23
Wenn es tatsächlich 3072 Shader auf der Titan X gibt, dann wird es wohl kaum ein teildeaktivierter Chip sein. Dafür ist die Zahl zu rund gegenüber GM204 (+50%).

Die erste Titan hatte ja einen sehr merkwürdigen Shadercount (2688), während ja tatsächlich 2880 vorhanden waren auf dem Chip.
Die Zahl hat nichts damit zu tun das was deaktiviert wird oder nicht. Eine R9 290 hat auch eine rundere Zahl als die R9 290x

Aufgrund der langen Zeit bis die 16nm GPU´s kommen wäre ein teildeaktivierter GM200 nur logisch. Schön wäre es aber wenn dieser schon voll daher kommt.

Sollte AMD nicht zu spät mit ihrer Serie kommen könnte der spekulierte Nachteil der nur 4GB vs. 6GB nicht so ins Gewicht fallen (wenn man das Marketing entsprechend macht ;)).

Aber mal zu den Fakten, wenn jetzt eine 12GB gezeigt wurde wird es eher doch der Vollausbau sein. 6GB dann der Salvage Part in 2-3 Monaten und GM204 mit 8GB evt zu Weihnachten (sehr trübe Glaskugel :D)

Loeschzwerg
2015-03-05, 11:59:56
http://www.legitreviews.com/hands-nvidia-geforce-gtx-titan-x-12gb-video-card_159519

http://www.legitreviews.com/wp-content/uploads/2015/03/titanx-power-connectors-645x501.jpg

Es gibt noch eine Option für einen 8 Pin Anschluss nach vorne weg. Erinnert mich ein wenige an ältere Quadro Karten (GT200 und GF100), bei denen war das ähnlich.

Raff
2015-03-05, 12:00:57
Kann durchaus sein dass die Dinger auch gleichzeitig am Ende kommen. Es gibt so viele sinnlose Berichte und moechtegern Daten dass es schwer ist sich auf jeglichem laufendem zu halten. Sagen wir es mal so damit der Zusammenhang auch zum Thema hier bleibt: ist Titan X tatsaechlich kein voller GM200 ist es marketing technisch auch egal ob Bermuda spaeter ankommt als Fiji.

Quelle dazu? :)

MfG,
Raff

Ailuros
2015-03-05, 12:02:42
Quelle dazu? :)

MfG,
Raff

Ich war sehr deutlich darueber dass ich darueber nur spekuliere. Waere ich mir sicher darueber wuerde ich die Quelle sowieso nicht oeffentlich erwaehnen.

Thunder99
2015-03-05, 12:06:43
sondern in deiner üblichen Schreibweise mitteilen :D

So wie das Board aussieht wird es mit Sicherheit 8+8+6 Pin Lösungen geben, oder?

Dimitri Mayakovsky
2015-03-05, 12:08:11
Die Zahl hat nichts damit zu tun das was deaktiviert wird oder nicht. Eine R9 290 hat auch eine rundere Zahl als die R9 290x
Rund in Relation zum kleineren Chip GM204, so wie GM204 genau 2x ein GM206 ist.

dildo4u
2015-03-05, 12:08:45
sondern in deiner üblichen Schreibweise mitteilen :D

So wie das Board aussieht wird es mit Sicherheit 8+8+6 Pin Lösungen geben, oder?
Wie kommt ihr darauf NV wird keine Custom Titan erlauben.

Loeschzwerg
2015-03-05, 12:09:24
So wie das Board aussieht wird es mit Sicherheit 8+8+6 Pin Lösungen geben, oder?

Kommt darauf an ob es NV zulässt.

Aber man kann zumindest vermuten mit was für einer Leistungsaufnahme der GM200 daher kommt, wenn man diesen entfesselt.

Edit: @dildo: Weil NV bei den Top Dogs doch schon lange keine Custom-PCBs mehr erlaubt hat. Oder andere Kühler...

von Richthofen
2015-03-05, 13:12:46
Wenn man sich an nV's damalige Aussagen auf die Frage hin warum man bei Titan nicht beim aktuellen Nummerierungschema bleibt, zurückerinnert, und damals wurde sinngemäß gesagt, dass es sich bei Titan um ein besonders herausragendes Produkt handelt, welches in Speicherausstattung, Rechenkraft und Funktionalität (volle Geschwindigkeit für DP) alles bisherige weit in den Schatten stellt (der edel wirkende Kühler tat sein übriges dazu) könnte man das als Hinweis verstehen, dass Veröffentlichungstermine möglicher Konkurrenzprodukte viel weiter in der Zukunft als allgemein hin angenommen, liegen.
Wobei die ursprünglichen Marketingaussagen bei Veröffentlichung der "Black" so bereits nicht mehr zutrafen.

iuno
2015-03-05, 15:04:44
Aber mal zu den Fakten, wenn jetzt eine 12GB gezeigt wurde wird es eher doch der Vollausbau sein. 6GB dann der Salvage Part in 2-3 Monaten und GM204 mit 8GB evt zu Weihnachten (sehr trübe Glaskugel :D)
Was für ein Sinn soll GM204 mit 8 GiB machen?

http://www.legitreviews.com/wp-content/uploads/2015/03/titanx-power-connectors-645x501.jpg
Oha, haben sie da im letzten Moment die Schraube nicht ganz angezogen? :tongue:

Hübie
2015-03-05, 15:20:57
Die Stecker nach hinten sind Tesla-Style. Haben viele PCBs und sagt erst mal gar nichts aus.

Screemer
2015-03-05, 15:42:46
Was für ein Sinn soll GM204 mit 8 GiB machen?


den gleichen sinn wie eine 290x mit 8gb. z.b. saubere frametimes am speicherlitmit: http://www.pcgameshardware.de/Geforce-GTX-970-Grafikkarte-259503/Specials/Speicherproblem-Bug-1152207/

iuno
2015-03-05, 16:42:46
Das war natürlich wirtschaftlich gemeint. Nvidia soll GM204 mit 8 GiB erlauben, während man GM200 mit 6/12 deutlich teurer absetzen kann? Daran glaube ich nicht. Zumal ja AMD in der reinen Speichermenge vermutlich wenig entgegenzusetzen hat.

Thunder99
2015-03-05, 17:07:44
Hat nvidia auch net abgehalten eine GTX780 mit 6GB zu erlauben. Ist nur eine Vermutung aber wenn der Bedarf da ist wird man es wohl machen, unabhängig ob man die 6/12 Modelle teurer verkaufen kann.

@Hübi:
Danke. Daran hatte ich nicht gedacht :)

Loeschzwerg
2015-03-05, 17:35:58
Die Stecker nach hinten sind Tesla-Style. Haben viele PCBs und sagt erst mal gar nichts aus.

Guck dir die Tesla PCBs (1x GPU!) zu GT200, GF100/110 und GK110 an und überdenke deine Aussage ;) Da hat keine drei "Anschlüsse" ^^ Ein bisschen Speku darf da schon sein.

Dimitri Mayakovsky
2015-03-05, 17:39:25
Da hat keine drei "Anschlüsse"
Sehr wohl aber den Stecker nach hinten.

http://images.anandtech.com/doci/6446/TeslaK20-2_575px.jpg

iuno
2015-03-05, 17:48:19
Jetzt geht es aber durcheinander. Eine 780 mit 6 GiB entspräche einer imaginären 980 ti mit GM200 und 12 GiB – also faktisch der Titan X mit etwas beschnittenem Chip. Die 780 hatte ja schon den GK110, wenn auch beschnitten.
Eine 770 mit 4 GiB, die somit die 780 im Speicherausbau toppt, wäre somit die richtige Analogie gewesen. Ist aber mMn auch nicht 1:1 vergleichbar. Einerseits gab es immer Karten von AMD mit mehr Speicher, andererseits hat die 980 noch einige Luft nach oben. Das würde bestimmt auf die Verkäufe der 980 Ti (oder wie auch immer) drücken

Loeschzwerg
2015-03-05, 17:50:33
Sehr wohl aber den Stecker nach hinten.

http://images.anandtech.com/doci/6446/TeslaK20-2_575px.jpg

http://www.arabpcworld.com/images/2012/11/NVIDIA-Tesla-Kepler-GK110-K20-Card-APCW-04.jpg
http://www.coolingconfigurator.com/upload/pictures/tesla_k20_small.jpg

:P

Dimitri Mayakovsky
2015-03-05, 18:02:46
http://www.arabpcworld.com/images/2012/11/NVIDIA-Tesla-Kepler-GK110-K20-Card-APCW-04.jpg
http://www.coolingconfigurator.com/upload/pictures/tesla_k20_small.jpg
Die Stecker sind hinten, sag ich doch :)

Loeschzwerg
2015-03-05, 18:08:51
Achso, hab ich in der Eile falsch gelesen, sorry :)

Hübie
2015-03-05, 18:33:52
Guck dir die Tesla PCBs (1x GPU!) zu GT200, GF100/110 und GK110 an und überdenke deine Aussage ;) Da hat keine drei "Anschlüsse" ^^ Ein bisschen Speku darf da schon sein.

Ich sehe einige von den Dingern öfter also weiß ich schon wohin so ein blöder Stecker zeigt ;) Von drei Anschlüssen war nie die Rede. K20X im Titan haben ein eigenes PCB. Ist ja auch kein Hexenwerk so ein Ding zu löten. Wir hatten bis letztes Jahr einen Engineer der mit bloßer Hand BGAs wechseln konnte :eek::eek:

Unicous
2015-03-05, 18:41:16
Wir hatten bis letztes Jahr einen Engineer der mit bloßer Hand BGAs wechseln konnte :eek::eek:

http://cdn.meme.am/instances/500x/59905186.jpg

Loeschzwerg
2015-03-05, 18:47:01
Ich sehe einige von den Dingern öfter also weiß ich schon wohin so ein blöder Stecker zeigt ;) Von drei Anschlüssen war nie die Rede. K20X im Titan haben ein eigenes PCB. Ist ja auch kein Hexenwerk so ein Ding zu löten. Wir hatten bis letztes Jahr einen Engineer der mit bloßer Hand BGAs wechseln konnte :eek::eek:

Im Diskussionsverlauf (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10543355#post10543355) schon und eigentlich ging es mir nur darum ^^ Aber ist ja nicht so wichtig :)

BGA tauschen von Hand kann ich auch, ab 35x35mm Packages und vielen Massekontakten wird es aktuell noch haarig. Ne neue Lötstation ist aber schon unterwegs :D

sulak
2015-03-05, 20:16:24
Aber mal zu den Fakten, wenn jetzt eine 12GB gezeigt wurde wird es eher doch der Vollausbau sein. 6GB dann der Salvage Part in 2-3 Monaten und GM204 mit 8GB evt zu Weihnachten (sehr trübe Glaskugel :D)

Genau das glaube ich nicht. 12GB sind für die Titan X reserviert, aber den Chip kann man ja auch 2x-3x verkaufen (wie mit GK200 geschehen). Nur verarschen lassen darf man sich halt nicht. Eine 6GB Variante des GM200 wird es sicher geben, spricht nichts dagegen, dessen Taktrate gegenüber der Titan X gesenkt, passt. Und falls es viele defekte Chips gibt oder man einfach noch ein 3. Produkt benötigt, kann man auch eine beschnittene Variante des GM200 mit 6GB oder 5GB raushauen. War doch früher nicht anders: Geforce 6800 (beschnitten) Geforce 6800 GT und Geforce 6800 Ultra.
Eine andere Art der "Beschneidung" erfuhr ja G80 - GeForce 8800 GTX war der volle Chip und die GeForce 8800 GTS war quasi um einen Cluster (inkl. 32bit SI) beschnitten. Glaube aus G92 haben sie sogar 4 Chips rausgefräst, wird alles verkauft was nicht schimmelt.

Orbmu2k
2015-03-05, 20:29:24
Ich gehe von Vollausbau bei der Titan X aus, falls der Preis wieder bei über 1K liegt und es ne DP Gurke ist.

Ein paar Argumente braucht man schon ... siehe Titan Z welche zum Ladenhüter wurde.

Hier geht es nicht um Masse sondern um Prestige und ich glaube bei der Titan Classic hätten sie auch lieber gleich den Vollausbau genommen wenn es genügend Chips gegeben hätte. Aber da war der Prozess noch nicht reif genug und sie haben eine Menge selektierte Chips an den TITAN geliefert.

Aber ich vermute der Salvage wird nicht so lange auf sich warten lassen wie damals bei der Titan Classic. Da kommt bestimmt die beschnittene 6GB Variante kurz darauf.

sulak
2015-03-05, 20:41:56
Der Preis ist aber einfach zu hoch, klar Inflation und so, aber wer hat sich denn eine Geforce 6800 Ultra für 600Euronen gekauft? Nur die Hardcore Enthusiasten.
Der Name Titan halte ich persönlich für angekratzt und entweder man haut jetzt richtig was raus oder der Name versinkt. Eine Ultra hat immer noch einen gewissen Sonderstatus. Benchmarkwerte jenseits von Gut und Böse und SLI dazu, das hat früher schon Eindruck hinterlassen.

Hübie
2015-03-05, 20:52:46
http://cdn.meme.am/instances/500x/59905186.jpg
;D;D ;D Hahahaa. Ich lieg in der Ecke vor lachen ;D mmd!!

@Loewchzwerg: Respekt! Ich hab so zittrige Pfoten dass ein Lotteriegewinn wahrscheinlicher wäre als das ich sowas tauschen kann. Er hat seine ganz spezielle Technik dabei.
Na Ende mit OT. Will damit ja nur sagen dass es wirklich keine besonders große Sache ist ein PCB zu verändern. Selbst Entwürfe sind dank ausgereifter Tools heutzutage recht schnell gemacht. Glaub wir haben ne Kadenz von etwas über einer Woche. Okay dann kommt trial and error, also sagen wir zwei Wochen insgesamt.

Naennon
2015-03-05, 21:32:05
http://www.legitreviews.com/hands-nvidia-geforce-gtx-titan-x-12gb-video-card_159519

http://www.legitreviews.com/wp-content/uploads/2015/03/titanx-power-connectors-645x501.jpg

Es gibt noch eine Option für einen 8 Pin Anschluss nach vorne weg. Erinnert mich ein wenige an ältere Quadro Karten (GT200 und GF100), bei denen war das ähnlich.


http://cdn.videocardz.com/1/2014/02/GeForce-GTX-TITAN-BLACK-PCB.jpg

war bei GK110 Titan auch schon so, weil Tesla Brett
gab es Karten die den genutzt haben? nein

Hübie
2015-03-05, 21:51:26
Quadro K6000 hat hinten raus zwei 6-Pin. Tesla hat afair auch ein anderes Design und hat hinten 1x6 und 1x8 Pin. Dieses PCB auf deinem shot wurde aber glaub ich so nie genutzt. Ist also reines GeForce-Brett.

Godmode
2015-03-05, 22:24:09
http://cdn.videocardz.com/1/2014/02/GeForce-GTX-TITAN-BLACK-PCB.jpg

war bei GK110 Titan auch schon so, weil Tesla Brett
gab es Karten die den genutzt haben? nein

Selbest die GM204 Board haben das, ist also nichts neues.

Thunder99
2015-03-05, 22:45:04
Genau das glaube ich nicht. 12GB sind für die Titan X reserviert, aber den Chip kann man ja auch 2x-3x verkaufen (wie mit GK200 geschehen). Nur verarschen lassen darf man sich halt nicht. Eine 6GB Variante des GM200 wird es sicher geben, spricht nichts dagegen, dessen Taktrate gegenüber der Titan X gesenkt, passt. Und falls es viele defekte Chips gibt oder man einfach noch ein 3. Produkt benötigt, kann man auch eine beschnittene Variante des GM200 mit 6GB oder 5GB raushauen. War doch früher nicht anders: Geforce 6800 (beschnitten) Geforce 6800 GT und Geforce 6800 Ultra.
Eine andere Art der "Beschneidung" erfuhr ja G80 - GeForce 8800 GTX war der volle Chip und die GeForce 8800 GTS war quasi um einen Cluster (inkl. 32bit SI) beschnitten. Glaube aus G92 haben sie sogar 4 Chips rausgefräst, wird alles verkauft was nicht schimmelt.
Um wirklich die Titan X dann zu schützen müsste man (wie AMD es gemacht hat) ein BIOS Modding komplett unterbinden. Dann greift schön das PT/TT und der Salvage Part wird nie an die Stock Titan X ran kommen ;)

aufkrawall
2015-03-06, 00:49:04
Nur, dass man bei AMD auch beim Salvage +50% Energieverbrauch geben kann sowie Spannung nach oben und unten hin quasi ungelockt ist. :redface:

Kriton
2015-03-06, 09:29:02
Ein paar Argumente braucht man schon ... siehe Titan Z welche zum Ladenhüter wurde.


Die hatte aber auch andere Probleme und war dazu noch eine Multi-GPU.
Außerdem: Wer weiß ob der Preis nicht gerade ausgelotet wird (wie bei der 980/970 als auch erst höhere Preise im Umlauf waren).

hasebaer
2015-03-06, 17:31:04
Außerdem: Wer weiß ob der Preis nicht gerade ausgelotet wird (wie bei der 980/970 als auch erst höhere Preise im Umlauf waren).

Sie würden der eigenen Quadro K6000 mit einem zu niedrigen Preis für die Titan X das Wasser abgraben.
Braucht ja nicht jeder das "Quadro Paket", wenn die Titan X auch 12GB RAM und 35% mehr Rechnenleistung hat, was den Treibernachteil möglicherweise hin und wieder egalisiert.

Zudem Nvidia wollte für die 2 x 6GB, Titan Z anfangs mal 3000,- USD und das war ihrer Ansicht nach sogar noch preiswert für den Servermarkt.
Eine Titan X mit jeweils 12GB RAM, wird man auch für mindestens 1300-1500 USD UVP anbieten.

Wobei ich mir auch gut vorstellen kann, dass man anfangs mit 2000 USD als UVP abkommen wird.

Würde den 8GB Versionen der GTX 980 auch bekommen.
Dann ist die Zielgruppe angefixt auf 12GB, auch wenn klar ist, dass man die nicht braucht.
4GB ist aber auch uncool und zwei 8GB GTX 980 für je 700€, haben ja den längeren Balken ggü. einer Titan X, für "nur" 2/3 des Preises.

Kriton
2015-03-06, 17:36:17
Wie lange hat sich Titan Z denn für 3000,- $ gehalten respektive wie oft verkauft? Ich glaube nicht, dass die Referenz sein wird.

Ich glaube noch nicht an mehr als 1000,- $. Und auch das wäre objektiv bereits überteuert (wie auch die ursprüngliche Titan), aber einige werden es sicher zahlen.

hasebaer
2015-03-06, 18:38:36
Überteuert ja, aber darum geht es ja grade, wenn man eine 8GB GTX 980 PR-technisch für den Massenmarkt, "in Stellung" bringen will.

Der Kunde muss das Gefühl haben einen guten Fang gemacht zuhaben, damit er die Ausgabe vor sich selbst rechtfertigem kann.
Die Titan X ist Luxus, eine 980 4G aber auch uncool und dafür 500€ nee, ... also nimmt man die 8GB 980, für einen "kleinen" Aufpreis.

"Echte" Titankäufer, kümmert es eh nicht, ob da nun 1000, 1500 oder 2000€ auf der Uhr stehen.
Die 10% an der Spitze unsererer gesellschaftlichen Pyramide schauen nicht aufs Geld.
Und wer beruflich 12GB + CUDA braucht, fährt mit einer 2000€ Titan X ggü. einer 5000€ Quadro K6000 immernoch gut, sofern er nicht alle Features der Quadro braucht.

Godmode
2015-03-06, 18:59:46
"Echte" Titankäufer, kümmert es eh nicht, ob da nun 1000, 1500 oder 2000€ auf der Uhr stehen.
Die 10% an der Spitze unsererer gesellschaftlichen Pyramide schauen nicht aufs Geld.
Und wer beruflich 12GB + CUDA braucht, fährt mit einer 2000€ Titan X ggü. einer 5000€ Quadro K6000 immernoch gut, sofern er nicht alle Features der Quadro braucht.

Ich hatte auch Titans uns schaue trotzdem aufs Geld. Ich würde mich niemals zur Spitze der Verdiener zählen, eher Mittelschicht und da auch eher in der Mitte, bzw. unteren Seite. Nur weil sich jmd. teure Hardware leistet, muss das nicht heißen, dass er unendliche monetäre Ressourcen hat. Für mich ist es ein Hobby und dafür gebe ich auch Geld aus. Andere machen dafür Fernreisen, kaufen sich ein Hi-Fi System, oder Kleidung. Ich lebe nicht im Luxus und gebe für Hardware trotzdem relativ viel Geld aus, einfach weil es mein Hobby ist.

Ich zb. verzichte auf ein TV-Gerät, teure Hi-Fi Anlagen, teure Markenkleidung, etc. und da sind dann eben schon mal 2 Titans um 1.000 Euro drinnen. Sollte die Karte in Richtung 1.200 € - 1.500 € gehen, können sie diese aber behalten, da mache ich dann auch nicht mehr mit.

hasebaer
2015-03-06, 19:26:21
Godmode du bist 3DC User, natürlich gibt es auch Leute wie dich, die sich eine Titan gönnen, weils ihr Hobby ist.
Für 1000€ würde ich mir auch eine Titan X holen, weil sie im Gegensatz zur den anderen drei Titanen, nicht einfach nur aktuell viel RAM hat und schnell ist, sondern verschwenderisch viel RAM hat und weils auch mein Hobby ist.
Aber dass ist dann auch die absolute Schmerzgrenze, ich bin ja HW affin, aber nicht bescheuert.

Und Godmode du und ich sind nicht die Zielgruppe. Klingt sicherlich bescheuert, weil wir 3DC User eine Titan primär nur als Nvidias logischen Schritt ansehen, dass meiste aus einem Gaming Chip zuholen, wenn man keine echte Gefahr durch AMD hat.
Aber PR technisch, soll Luxus allgemein, primär die Massenware einer Marke aufwerten und im Falle der Titan, darf die Titan die Quadro nicht gefährden, ausser man hat soviele GM200 Chips auf Halde und kann die so garnicht als Quadro verkaufen, aber daran glaube ich nicht.

Godmode
2015-03-06, 19:36:45
Da stimme ich dir voll und ganz zu. Neben einer 1.000 Euro Karte, sieht eine 500 Euro Karte gleich nach einem guten Deal aus. :)

aufkrawall
2015-03-06, 20:29:43
Für den Preis würde ich wenigstens etwas besseres als diesen schäbigen Lüfter erwarten.
Oder ebend gleich eine vernünftige WK.

Standard-Chip auf Standard-Board, packen da einen Standard-Kühler mit Standard-Billiglüfter drauf und das nennen das Titan, nur weils unsinnig viel VRAM hat.

Vielleicht haben wir ja noch etwas Glück, falls Fiji schneller sein sollte.

Hübie
2015-03-06, 20:32:55
Ist zwar OT aber: Titan Z sollte einfach für den kleinen CUDA-Mann sein. Daher das Argument 50 Cent pro CUDA Core. Aber selbst dort schlug die nicht ein, da das Produkt leicht zu substituieren ist. Zahlen kann ich nicht liefern, aber die Entwicklungskosten sind nicht gedeckt. Da GK110 insgesamt sich aber wie geschnitten Brot verkaufte is dieses Prestigeprojekt eh von vorn herein querfinanziert. So und nun setzt euch hin und grübelt mal welche zwei Chips aus der Maxwell-Generation zusammengepappt werden :naughty:
Ich selber empfinde Maxwell als die langweiligste Gen seit dem Tesla. *gähn*

@aufkrawall: Du hast wohl das *bling-bling* auf dem Foto übersehen. DAS ist doch nich schääääbig :biggrin:

Edit: Das Alphabet bietet ja noch ein paar Buchstaben zum abschöpfen der Konsumentenrente.

Godmode
2015-03-06, 20:36:42
Ist zwar OT aber: Titan Z sollte einfach für den kleinen CUDA-Mann sein. Daher das Argument 50 Cent pro CUDA Core. Aber selbst dort schlug die nicht ein, da das Produkt leicht zu substituieren ist. Zahlen kann ich nicht liefern, aber die Entwicklungskosten sind nicht gedeckt. Da GK110 insgesamt sich aber wie geschnitten Brot verkaufte is dieses Prestigeprojekt eh von vorn herein querfinanziert. So und nun setzt euch hin und grübelt mal welche zwei Chips aus der Maxwell-Generation zusammengepappt werden :naughty:
Ich selber empfinde Maxwell als die langweiligste Gen seit dem Tesla. *gähn*

@aufkrawall: Du hast wohl das *bling-bling* auf dem Foto übersehen. DAS ist doch nich schääääbig :biggrin:

Selber Prozess ist immer langweilig. Erst mit 16nm wirds wieder interessant, weil dann sollten auch wieder ordentliche Leistungssprünge drinnen sein. Mit den neuen Speichertechnologien, wird dann auch endlich die Memory-Wall etwas angegriffen. :biggrin:

Sunrise
2015-03-06, 20:39:02
Ich selber empfinde Maxwell als die langweiligste Gen seit dem Tesla. *gähn*
Das liegt aber doch an NVs Verzögerung, GM200 nicht zuerst zu präsentieren und dass sie GM204 wieder zuerst vorgestellt hatten, oder? Zumindest ist das bei mir so.

Wäre gleich GM200 (an 12GB VRAM garnicht zu denken) nach GK110 gekommen, dann wären auch einige direkt bereit gewesen, mehr als 1000 EUR zu zahlen. Doppelter VRAM und erst die Rechenleistung bei dem relativ niedrigen Stromverbrauch. Und das noch auf 28nm.

Das Ding hätte eingeschlagen wie eine Bombe. Den Spielraum für Übertakter nicht vergessen, und evtl. sogar Custom-Designs.

Wenn NV jetzt GM200 bringt, wissen wir seit Monaten, was wir noch zu erwarten haben, und genau da stimme ich dir zu. *gähn*

Irgendwie hat man jetzt sogar so ein Gefühl, dass das Ding gerade so 1000 EUR Wert ist, wenn er mit 12GB VRAM kommt. Mehr würde ich dafür nicht auf den Tisch legen.

Godmode
2015-03-06, 20:43:09
Es ist aber wohl logischer zuerst den kleineren Chip zu bringen, da dieser einfacher zum Herstellen ist.

Sunrise
2015-03-06, 20:50:16
Es ist aber wohl logischer zuerst den kleineren Chip zu bringen, da dieser einfacher zum Herstellen ist.
Einfacher natürlich, aber GK110 wird wohl nicht unwesentlich kleiner sein. Und dort lief bereits eine B-Revision und etliche andere Varianten vom Band. Und wenn man mehr als 1000 EUR verlangt, dann kann man sowas auch wieder verantworten.

Sowas erwarte ich geradezu. Andernfalls würde ich keine >1000 EUR mehr auf den Tisch legen.

Hübie
2015-03-06, 20:59:19
Nee, ich meinte auch feature-seitig -> *gähn* Was hat denn Maxwell so an must-have-features? :| Mindfucking AA ist für die Tonne und wird sicher nicht lang und breit entwickelt. War einfach nur ein Präsentationsfüller wie halt "OC you monitor to 80 Hz instead of 60!!!111elf" :P Die Monitorhersteller bedankten sich bestimmt bei nVidia für die erhöhten RMA-Quoten worauf hin man Petersen da hin sandte damit er es wieder "gut" machen kann (G-Sync).

Ach na ihr wisst was ich meine. Auch GM200 is einfach nur *schnarch*
Entweder ich switch zu rot oder warte einfach bis 2016/17.

BlacKi
2015-03-06, 21:28:47
Was für ein Sinn soll GM204 mit 8 GiB machen?


980 mit 8gb für 50€ mehr eine 4gb ist immernoch billiger als ein gm200 mit 6gb in der herstellung. dafür aber schneller selbst beschnitten.

wenn der preis stimmen würde, dann würde ich ne 980 mit 8gb einem gm200 mit 6gb vorziehen. zum selben preis wäre es schwierig zu den 2gb mehr speicher oder der höheren geschwindigkeit zu tendieren. beides werden sie wohl nicht bringen. aber 4gb sind zwar noch ausreichend, aber auch nur noch ausreichend.

fondness
2015-03-06, 22:28:40
Irgendwie hat man jetzt sogar so ein Gefühl, dass das Ding gerade so 1000 EUR Wert ist, wenn er mit 12GB VRAM kommt. Mehr würde ich dafür nicht auf den Tisch legen.

Schön wie schnell sich 1000EUR als "normaler" Preis etabliert. :ugly:

-=Popeye=-
2015-03-06, 22:43:41
Schön wie schnell sich 1000EUR als "normaler" Preis etabliert. :ugly:

Als ob eine 295x2 zum release damals so viel billiger war.

Hübie
2015-03-06, 23:49:09
Ein Tausender für zwei GPUs sind ja nicht gleich ein Tausender für eine beschnittene GPU, oder? Argumentativ dünnes Eis. Ebenso von der Performance. Multi GPU Krampf ist aber an Board...

Troyan
2015-03-06, 23:53:59
Als ob eine 295x2 zum release damals so viel billiger war.

Die 7990 kostete auch $1000 mit der Hälfte an nutzbarem Speicher.

Screemer
2015-03-07, 00:01:28
ihr argumentiert hier jetzt nicht wirklich damit, dass dual-gpu-karten den preis von 1000$ für ne single-gpu karte rechtfertigen, oder?

Blaire
2015-03-07, 00:18:53
Nee, ich meinte auch feature-seitig -> *gähn* Was hat denn Maxwell so an must-have-features? :| Mindfucking AA ist für die Tonne und wird sicher nicht lang und breit entwickelt. War einfach nur ein Präsentationsfüller

Ja genau, wie konnte NVIDIA nur so gemein sein, auch noch die armen Kepler- und Fermi - Besitzer mit DSR zu belästigen. :freak:


Aber ich vermute der Salvage wird nicht so lange auf sich warten lassen wie damals bei der Titan Classic. Da kommt bestimmt die beschnittene 6GB Variante kurz darauf.

Nach der Hysterie und Gewhine zur GTX 970? Wohl kaum.

Kriton
2015-03-07, 01:12:31
Nach der Hysterie und Gewhine zur GTX 970? Wohl kaum.

In Anbetracht der Informationspolitik seitens Nvidia kann man die Formulierung Deinerseits wohl kaum so stehen lassen. Das war/ist weder Hysterie, noch Gewhine, sondern der berechtigte Ärger, dass Nvidia falsche Aussagen über eines ihrer Produkte getroffen hat.

Hübie
2015-03-07, 01:48:32
Ja genau, wie konnte NVIDIA nur so gemein sein, auch noch die armen Kepler- und Fermi - Besitzer mit DSR zu belästigen. :freak:

Erspare uns deine Anspielung. Es ist nun mal Fakt dass Maxwell keinen technologischen Vorteil erringt der es Kepler unmöglich macht Auflösungen zu skalieren. Also muss ich der scheiß Gnade es softwareseitig nach 5 Jahren durch ein paar weniger Klicks niemanden danken ausser dem Zufall oder der Beharrlichkeit bzw. einigen Käufern. Aber GARANTIERT (jetzt darfst du mitschreiben) verdanke ich es nicht der Maxwell-Architektur dass DSR auf älteren Modellen läuft. Somit ist dein Argument fürn Arsch.

ps: Verzeih meine Deutlichkeit. Bist ja sonst n dufte Typ ;)

Blaire
2015-03-07, 07:07:51
In Anbetracht der Informationspolitik seitens Nvidia kann man die Formulierung Deinerseits wohl kaum so stehen lassen. Das war/ist weder Hysterie, noch Gewhine, sondern der berechtigte Ärger, dass Nvidia falsche Aussagen über eines ihrer Produkte getroffen hat.

Brauchen wir nicht drüber reden, das Thema wurde hundertfach durchgekaut, es ist nun mal so, da wo Menschen arbeiten passieren auch Fehler, davor ist niemand gefeit und so nüchtern sollte man das betrachten. Letztlich wurde uns jene GTX 970 trotzdem als ein Top-Produkt in zahlreichen Hardwaresites- und User-Reviews angepriesen, gezieltes Suchen nach Schwachstellen, gestaltet sich nun im Nachhinein natürlich viel einfacher. Aber muss man das wirklich tun, quasi Rolle rückwärts und wie glaubwürdig ist das ganze dann letztlich noch? ...
Kommt es letztlich nicht doch eher auf den persönlichen Anwendungsfall jedes Einzelnen an? ;) Wenn die GTX 970 in 9 von 12 Games (https://www.youtube.com/watch?v=v8FegvUMvQs) vor einer 290X, in der wohl weit verbreitetsten Auflösung von 1920x1080 liegt, ist das sicher auch kein unrealistisches Anwendungs-Szenario. Angemessene Kritik und so... Denk mal darüber nach.

@Hübie: Das ging aus deinem Text nicht hervor, entsprechend hab ich mich auf das wesentliche beschränkt. DSR für Kepler u. älter war alles andere, aber gewiss nicht selbstverständlich.

Dawn on Titan
2015-03-07, 08:41:05
1000 Euro gehen nur, wenn keine echte Konkurrenz gibt.

Digidi
2015-03-07, 09:26:58
Bin ja gespannt was bei gm200 rauskommt. So langsam kristallisiert sich ja raus das die Gtx 970 und Gtx 980 nicht so der Hit waren wie der Hype vermuten lässt. Bei 1080p ist die Gtx 980 gerade mal 10% schneller als eine 290x und das auch nur weil da viele Nvidia Supported Titel dabei sind. Gäbe es Gameworks nicht wäre wahrscheinlich Gleichstand. Gerade bei 4k lässt Maxwell übel nach aber darauf zielt ja der Gm200
http://ht4u.net/reviews/2015/sapphire_radeon_r9_290x_tri-x_oc_8_gb_test/index38.php

Thunder99
2015-03-07, 09:40:33
Also Maxwell bringt schon technologischen Fortschritt. DX11.2 Tier 2 :freak:
Sonst haben sie ja paar DX12 Features schon integriert. Was da AMD liefern kann wird sich zeigen müssen. Sonst mit weniger Shader, Bandbreite die Leistung von GK110 zu erreichen finde ich schon einen technologischen Fortschritt.

Oder meinst du techn. Fortschritt wie HBM welcher erst bei Pascal kommt? :confused:

Orbmu2k
2015-03-07, 09:49:36
Nach der Hysterie und Gewhine zur GTX 970? Wohl kaum.

Wenn Titan X Vollausbau ist, muss zwingend ein Salvage her, die kaputten Chips will man sicher nicht wegwerfen und der kommt eher früher als später.

Die 970er Problematik ist ja jetzt auch nicht pauschal auf alle Salvage Parts bezogen zwingend.

Man kann auch alá 980M das komplette Memory Interface inklusive aller Caches behalten und nur SMs abschalten. Ebenfalls wäre eine Variante alá 970M denkbar wo man wie bisher üblich einen ganzen CacheBlock/MC abschaltet.

Bei der 970 war es ganz klar ne ne Vertriebs- bzw. Marketing Strategie unbedingt die 4GB auf die Packung schreiben zu können.

Digidi
2015-03-07, 09:52:36
Na ja die Mixtur die hier verwendet wurde um mit weniger Shader zu verwenden war absehbar und ist nicht bahnbrechend. Durch bessere Fertigung war es möglich größere Chips mit weniger Packdichte pro Shader zu fertigen. Dank der geringeren Packdichte konnte man den Takt mehr steigern als durch den Shaderverlust verloren geht. Dann hat man noch die Powerregelung schneller gemacht so dass der Chip nicht immer noch Leistung verbrät wenn er gerade nichts zu tun hat. Mehr ist es eigentlich nicht. Die Architektur bleibt dabei fast die selbe wie bei Kepler.

AnarchX
2015-03-07, 10:53:46
Sicherlich bleiben die Grundkonzepte die gleichen, aber der Durchsatz ist bei Maxwell erheblich höher. Im Worst-Case konnte GK110 nur 1920SPs auslasten, wegen des superskalaren Aufbaus, der bei Maxwell weggefallen ist.


Bei der 970 war es ganz klar ne ne Vertriebs- bzw. Marketing Strategie unbedingt die 4GB auf die Packung schreiben zu können.
Wohl nicht nur 4GiB, welche man auch mit 192-Bit hätte erreichen können, sondern eben den Eindruck eines vollwertigen GTX 980 Speicherinterfaces.

gnomi
2015-03-07, 11:07:46
Bin ja gespannt was bei gm200 rauskommt. So langsam kristallisiert sich ja raus das die Gtx 970 und Gtx 980 nicht so der Hit waren wie der Hype vermuten lässt. Bei 1080p ist die Gtx 980 gerade mal 10% schneller als eine 290x und das auch nur weil da viele Nvidia Supported Titel dabei sind. Gäbe es Gameworks nicht wäre wahrscheinlich Gleichstand. Gerade bei 4k lässt Maxwell übel nach aber darauf zielt ja der Gm200
http://ht4u.net/reviews/2015/sapphire_radeon_r9_290x_tri-x_oc_8_gb_test/index38.php

Die Karten verkaufen sich doch klasse zu nicht gerade geringen Preisen.
Und die 970 wird immer noch gut abgenommen, obwohl tatsächlich unschön kastriert.
Für 4k nativ sind die GPU's ja nicht speziell ausgelegt. Genau genommen sind die OOTB sogar gedrosselt, um eine noch bessere Performance pro Watt zu haben.
DSR mit einem 1080P oder 1440P Monitor sind idealere Anwendungsgebiete.
Für alles andere gibt es jetzt die Titan und wenn AMD was besseres hat oder sich die 8 GB Karten gut schlagen, wird nvidia sehr schnell nachlegen.
Aktuell ist es zu einseitig und der Hype irgendwo berechtigt.
@ Gameworks
Bei Far Cry 4 geben AMD und nvidia prinzipiell ähnlich nach.
Die Godrays laufen wegen Tesselation eben schneller.

Orbmu2k
2015-03-07, 11:18:46
Wohl nicht nur 4GiB, welche man auch mit 192-Bit hätte erreichen können, sondern eben den Eindruck eines vollwertigen GTX 980 Speicherinterfaces.

Das stimmt natürlich auch, wobei das 4GB Schild für den ottonormal Nutzer ausschlaggebender ist. Ich denke es wäre klüger gewesen die 980M Variante auf dem Desktop zu verwenden und die 980M mit dem gekappten L2 rauszuhauen. Das wäre vermutlich garnicht oder erst sehr viel später überhaupt aufgefallen.

Es gab halt Chips wo der L2 defekt war und nun konnte man diese noch marketingtechnisch als volles Speicherinterface ausweisen.

Ich will den Thread jetzt aber auch nicht für das leidige Thema kapern. :D

Für GM200 haben sie hoffentlich noch rechtzeitig eingelenkt und machen dort wieder saubere Cuts. Worst-Case wäre natürlich wenn die Titan X wirklich ein Salvage Cut alá 970 wäre. Auch wenn das bei 12GB niemals relevant wäre, legt dafür dann keiner mehr 1K+ auf den Tisch.

Digidi
2015-03-07, 11:20:59
Na ja gerechtfertigt finde ich den Hype nicht. Wenn man sich mal Benches genauer anschaut dann sieht man das bei vielen großen Titeln wie Civ, Evolve, Dragon Age, Alles mit Crye Engine, die 290x fast genau so schnell ist wie eine GTX 980 und das für eine Karte die schon ca1 1/2 Jahre am Markt ist. Da sind ja auch die Entwicklerteams größer und haben Zeit/Resourcen auf mehr Plattformen zu optimieren. Für die ist ja auch ein großer Absatzmarkt mehr von Vorteil als einen Programmierer von Nvidia fast geschenckt zu bekommen.

Die 290x verbrauch zwar 50 Watt Mehr, was im Jahr ca. 10 Euro ausmacht bei mittlerer Nutzung, aber dafür dann einen Satten Aufpreis von 200 Euro zu bezahlen?

Hinzu kommt das Gameworks AMD anscheinend wirklich langsamer macht (ansonsten gäbe es noch mehr gleichstand) anstatt Innovationen zu liefern. So was dann auch noch zu Hyphen ich weiß nicht.

AnarchX
2015-03-07, 11:22:32
Für GM200 haben sie hoffentlich noch rechtzeitig eingelenkt und machen dort wieder saubere Cuts. Worst-Case wäre natürlich wenn die Titan X wirklich ein Salvage Cut alá 970 wäre. Auch wenn das bei 12GB niemals relevant wäre, legt dafür dann keiner mehr 1K+ auf den Tisch.
Einen 8GiB Fiji/Bermuda würde ich aus NVs Sicht mit einer 10GiB (~7,5Gbps) GTX X80 kontern, da das wohl erst gegen Mitte 2015 sein könnte, reichen dann wohl auch nur 10 Speicherchips (8Gbit) aus.

Da GM200 wohl pinkompatibel zu GK110 ist, wäre für das H2 2015 wohl auch eine "Titan X2" möglich mit 2x12GiB und wenn man es ganz extrem (>$4000) haben will 2x24GiB. :freak:

Kriton
2015-03-07, 12:08:59
Angemessene Kritik und so... Denk mal darüber nach.


Das tue ich. Von mir aus kann so ein Fehler auch passieren (ob es einer war wage ich nicht behaupten oder zu bestreiten) - der Umgang damit ist aber auf jeden Fall kritikwürdig.

mironicus
2015-03-07, 12:15:21
Titan X selbst könnte auch Salvage sein, also Vorsicht! :D

DerAntiTheist
2015-03-07, 12:20:56
Titan X selbst könnte auch Salvage sein, also Vorsicht! :D
die Wahscheinlichkeit ist dennoch gering, da 400 Mio transistoren noch immer nicht zu erklären sind.

Hübie
2015-03-07, 12:22:11
@Hübie: Das ging aus deinem Text nicht hervor, entsprechend hab ich mich auf das wesentliche beschränkt. DSR für Kepler u. älter war alles andere, aber gewiss nicht selbstverständlich.

Doch natürlich war es selbstverständlich, da es absolut keinen Grund gäbe es nicht zu bringen. Man hätte sich ne Menge Feinde gemacht wenn nicht. Das weißt du ja wohl. Es war selbstverständlich. Und die Idee ist nicht mal auf deren Mist gewachsen ;)

Troyan
2015-03-07, 13:03:18
ihr argumentiert hier jetzt nicht wirklich damit, dass dual-gpu-karten den preis von 1000$ für ne single-gpu karte rechtfertigen, oder?

Geld ist Geld, oder? ;)
Zurückblickend wäre ein Kauf der Titan besser gewesen als der einer 7990.

Der Preis der 7990 war auch $300 über dem der 6990. Ist also nicht so, dass nur nVidia hier an der Preisspirale gedreht hätte.

Nakai
2015-03-07, 19:12:38
Mal eine dumme Frage, denkt hier irgendjemand, dass Titan X schon full GM200 sein wird? Das wäre sowas von Nicht-Nvidia-like. Selbst der erste Titan war ein Salvage-Part. Ich erwarte das gleiche, bei Titan X und dann kommt Titan X Black irgendwann ein halbes Jahr später oder gar eine Geforce 10x0-Serie.

GM200 ist GM204+50% in nahezu allen Bereichen.

NV sieht ja so aus, als ob die das gleiche Schema bzgl der letzten zwei Gens durchziehen. Performance-Chip als Prelude, danach Salvage-Highend-Part als Zwischengang, danach Generation basierend auf Highend-Part als Speerspitze, Performance-Chip der letzten Gen, als eben Performance-Chip.
Da kann man gut die Kunden beuteln.

hasebaer
2015-03-07, 19:19:40
Die Titan X wird schon der Vollausbau sein, wenn sie 3072 ALUs hat, einfach weil 550-600mm^2 in 28nm nicht mehr hergeben.

Raff
2015-03-07, 19:41:46
Die Frage ist nicht, was möglich ist, sondern ob Nvidia direkt vollbestückt launcht.

MfG,
Raff

hasebaer
2015-03-07, 21:19:31
Nun die Antwort auf diese Frage ist recht einfach und universal verständlich, sollte die X für > 1000€ auch beschnitten sein, dann ...

http://cdn.arstechnica.net/wp-content/uploads/2013/02/linus-eff-you-640x363.png

-/\-CruNcher-/\-
2015-03-07, 22:00:05
Mal eine dumme Frage, denkt hier irgendjemand, dass Titan X schon full GM200 sein wird? Das wäre sowas von Nicht-Nvidia-like. Selbst der erste Titan war ein Salvage-Part. Ich erwarte das gleiche, bei Titan X und dann kommt Titan X Black irgendwann ein halbes Jahr später oder gar eine Geforce 10x0-Serie.

GM200 ist GM204+50% in nahezu allen Bereichen.

NV sieht ja so aus, als ob die das gleiche Schema bzgl der letzten zwei Gens durchziehen. Performance-Chip als Prelude, danach Salvage-Highend-Part als Zwischengang, danach Generation basierend auf Highend-Part als Speerspitze, Performance-Chip der letzten Gen, als eben Performance-Chip.
Da kann man gut die Kunden beuteln.

Jo mann könnte ernsthaft denken sie Fahren exakt die gleiche Release Strategie wie bei Kepler und halten sich viel offen um Flexibel auf AMDs Releases reagieren zu können, das würde heisen diesen Zyklus auch wieder millionen von Karten auf beider seiten und schön viel Zeit und Melke Melke ;)

so im + 2 FPS takt pro release bei 4K auf die 60 FPS hin ;)

Blediator16
2015-03-07, 22:04:51
Jo mann könnte ernsthaft denken sie Fahren exakt die gleiche Release Strategie wie bei Kepler und halten sich viel offen um Flexibel auf AMDs Releases reagieren zu können, das würde heisen diesen Zyklus auch wieder millionen von Karten auf beider seiten und schön viel Zeit und Melke Melke ;)

Das ist ja Situationsabhängig. Würde AMD nicht so spät kommen, dann könnte alles wieder anders aussehen. HBM könnte einfach länger brauchen und daher brauchen sie etwas länger, als die letzten Generationen.

Ex3cut3r
2015-03-07, 22:08:23
Was ist eigentlich von HBM zu erwarten? Wird uns das in neue "Dimensionen" katapultieren?

-/\-CruNcher-/\-
2015-03-07, 22:14:04
Übrigens ich glaube man wird sich diesmal mehr in der Argumentationskette für Performance auf VR und Sync Compute Konzentrieren diese Generation wird der VR und Compute Performance Kampf selbst 4K stellen gut spielbar ja nicht mehr so eine extreme hürde da wie noch mit den alten APIs aber da man davon ausgehen kann das immer mehr komplexere Compute parts kommen werden und das Dual Rendering von VR schon eine schöne hürde darstellt mit der man schön mitschwimmen kann ;)

iuno
2015-03-07, 22:39:04
Das ist ja Situationsabhängig. Würde AMD nicht so spät kommen, dann könnte alles wieder anders aussehen. HBM könnte einfach länger brauchen und daher brauchen sie etwas länger, als die letzten Generationen.
Das glaube ich nicht. Wenn der einzige Grund wäre, dass Hynix nicht schnell genug HBM Stacks liefern kann, hätte man vielleicht jetzt mal einen Teaser gesehen...
Diesmal ist auch zeitlich alles etwas enger, ich kann mir gerade nicht vorstellen, dass der GM200 in der Titan X kein Vollausbau ist
Was ist eigentlich von HBM zu erwarten? Wird uns das in neue "Dimensionen" katapultieren?
Kommt drauf an, was du darunter verstehst ;)
Fiji wäre ohne HBM so nicht machbar gewesen, aber dazu steht alles im anderen Thread oder auf der Hauptseite hier

Dawn on Titan
2015-03-08, 08:46:56
Das ist ja Situationsabhängig. Würde AMD nicht so spät kommen, dann könnte alles wieder anders aussehen. HBM könnte einfach länger brauchen und daher brauchen sie etwas länger, als die letzten Generationen.

HBM dürfte ja nur auf den Topdogs laufen und ist kein Grund die kleinen GPUs nicht zu releasen. Wenn ich mir gerade den Mobilmarkt ansehe dann könnte man eine Antwort auf GM107 langsam mal brauchen.

Hübie
2015-03-08, 10:35:07
Wenn du deine Marge schmälern willst kannst du das machen. Das wird aber wohl noch etwas dauern bis so breiter Speicher unten ankommt.
Hat HBM eigentlich die gleiche Speichertechnologie und somit gleiche (sub-) timings wie GDDR? Mir war so als würde da so einiges wegfallen aber bin erst aufgestanden also ohne Gewähr :freak:

Dawn on Titan
2015-03-08, 11:31:29
Das sage ich, HBM brauchen nur die TopDogs, AMD könnte im Mobilmarkt aber heute eine echte Alternative zu GM107 brauchen.

BlacKi
2015-03-08, 12:45:04
Mal eine dumme Frage, denkt hier irgendjemand, dass Titan X schon full GM200 sein wird? Das wäre sowas von Nicht-Nvidia-like. Selbst der erste Titan war ein Salvage-Part. Ich erwarte das gleiche, bei Titan X und dann kommt Titan X Black irgendwann ein halbes Jahr später oder gar eine Geforce 10x0-Serie.

die antwort kannst du dir wohl nur selbst geben.

angenommen die 8mrd tranistoren gelten für die titanX und nicht für gm200 und sind kein kommunikationsfehler zwischen der technikabteilung und der PR abteilung. dann darfst du die chipfläche des gm204 mal 1,5 nehmen und kommst über 600mm². man sagt das 600mm² so das maximum darstellt, daher darf man annehmen das titanx kein salvage chip ist.

Nakai
2015-03-08, 12:55:21
Die Frage ist nicht, was möglich ist, sondern ob Nvidia direkt vollbestückt launcht.

MfG,
Raff

Oder den Takt voll ausfährt. Es macht schon Sinn, dass Titan X mit mehr SPs als die "Vorgänger" kommt, wie es mit dem Takt aussieht ist eine andere Sache. Ich kann mir nicht vorstellen, dass GM200 nur für Titan X verwendet wird. Irgendwann kommt eine Serie mit GM200 als TopDog.

HBM ist in jedem Segment hilfreich.

Hübie
2015-03-08, 13:07:42
Ich habe keinerlei Zweifel dass Titan X nicht Vollausbau ist. Die Salvage parts positionieren sich dann über der GTX 980 aka GM204. Der 2,5-fache Preis muss ja einen Abstand suggerieren und Luft dazwischen haben ;)

mironicus
2015-03-08, 13:27:58
Ich habe keinerlei Zweifel dass Titan X nicht Vollausbau ist. Die Salvage parts positionieren sich dann über der GTX 980 aka GM204. Der 2,5-fache Preis muss ja einen Abstand suggerieren und Luft dazwischen haben ;)

Ich würde da NVidia nicht vertrauen, die lassen sich immer ein Hintertürchen auf für ein besseres Upgrade in naher Zukunft um noch mehr Leute zu schröpfen.

Du kaufst GM200 bei Release und nicht mal 3 Monate später "Neiiiiiiiiiiiiin!" ein Nachfolger ist erschienen mit Features die du unbedingt haben willst. :biggrin:

-/\-CruNcher-/\-
2015-03-08, 14:02:06
Das sich bei API Features sooo viel noch ändern wird ist unwahrscheinlich sieht ziemlich freezed aus bei Maxwell 2 eher nur Performance ;)

Bei AMD tut sich da mehr mit den zillionen GCN Versionen ;)

rentex
2015-03-10, 18:15:01
Laut PCGH Gerüchte: Titan X kein Vollausbau, grad mal 20-30% schneller als 980er und ca. 1000$...

Nakai
2015-03-10, 18:31:53
Laut PCGH Gerüchte: Titan X kein Vollausbau, grad mal 20-30% schneller als 980er und ca. 1000$...

Also wenn NV Titan X mit weniger als 3072SPs bringt, dann...:freak:

Ich denke man wird Titan X nicht so hoch takten, wie GTX 980. Da es sowieso praktisch nur OC-GM204s gibt, ist der Abstand nochmal ein gutes Stück geringer für die meisten Leute. ~20% auf GTX980OC ist also das was man erwarten kann.
Wahrscheinlich wird eine GTX 990 oder GTX1080 dann einen höher getakteten GM200 beinhalten.

Ailuros
2015-03-10, 18:59:25
Laut PCGH Gerüchte: Titan X kein Vollausbau, grad mal 20-30% schneller als 980er und ca. 1000$...

Zufall oder schreibt PCGH jetzt auch hier ab? :P

y33H@
2015-03-10, 19:01:01
OBR *hust*

Ailuros
2015-03-10, 19:04:15
OBR *hust*

LOL bei NV hat er meistens recht, weil ihn NV ab und zu schon fuettert ;)

***edit: womoeglich kursierte das $1300 Geruecht mit Absicht fuer Titan X damit am Ende die wahren $999 fuer die wahre kastrierte Variante auch "billig" erscheint :P

Orbmu2k
2015-03-10, 19:08:28
http://videocardz.com/55013/nvidia-geforce-gtx-titan-x-3dmark-performance

Sieht nach Vollausbau aus wenn der M6000 Leak vom Dez. stimmt da war die BaseClock bei 988Mhz und die ist dort 3% langsamer als die Titan X. :D

Naennon
2015-03-10, 19:43:03
klar ist das Vollausbau... niedriger Takt is halt weniger Performance zur 980

Lu
2015-03-10, 19:56:40
Niemand der das Geschäftsgebahren von Nvidia in den letzten Jahren beobachtet hat, halbwegs bei Verstand ist und schon mal was von Salamitaktik gehört hat, geht davon aus dass die Titan X der Vollausbau vom GM200 Chip ist.
Neannon, dein Post ist gespeichert. Wir sprechen uns zum Release der Titan X Black wieder. Geh wieder im HardwareLuxx spielen.

Naennon
2015-03-10, 19:58:02
was hat das Luxx mit der Aussage zu tun?

Orbmu2k
2015-03-10, 20:08:09
...Wir sprechen uns zum Release der Titan X Black wieder.

Noch mehr Black Edition als jetzt? ;D

http://cdn.videocardz.com/1/2015/03/NVIDIA-GeForce-GTX-TITAN-X-03-850x328.jpg

Lu
2015-03-10, 20:15:33
Orbmuk oder eine ähnlich benamte Titan, ich lege mich ausdrücklich nicht auf das "Black" fest :wink:
Sollte die in kürze erscheinende Titan tatsächlich der Vollausbau sein so steht der Pascal Release zeitnah (Anfang 2016) an. Und oder die 390 X wird ein Flopp.

Agent117
2015-03-10, 20:34:43
....und wenn sie kein Flop wird, dann gibts jetzt erstma ne beschnittene Titan für 1000 und um dann die gegen Ende Q2 kommende 390X zu schlagen gibts dann noch ne unbeschnittene Titan?;D

Soll ja möglich sein aber das ist doch eher Käse.

Godmode
2015-03-10, 22:04:40
Niemand der das Geschäftsgebahren von Nvidia in den letzten Jahren beobachtet hat, halbwegs bei Verstand ist und schon mal was von Salamitaktik gehört hat, geht davon aus dass die Titan X der Vollausbau vom GM200 Chip ist.
Neannon, dein Post ist gespeichert. Wir sprechen uns zum Release der Titan X Black wieder. Geh wieder im HardwareLuxx spielen.

Ich frage mich warum sich alle in die Hose machen, wegen einer beschnittenen GPU? Die Titan war wieviel % langsamer als die Black, 5%?

Rente
2015-03-10, 22:07:35
Ich frage mich warum sich alle in die Hose machen, wegen einer beschnittenen GPU? Die Titan war wieviel % langsamer als die Black, 5%?
Die 970 schon vergessen und das 28nm zum Release der Titan noch relativ problematisch war? Inzwischen erwarten einfach viele ein "perfektes" Produkt, auch im Hinblick auf den extremen Preis.

cR@b
2015-03-10, 23:14:03
Jo einmal im Leben ein Vollausbau wäre was...
In der Vergangenheit wars eigentlich fast immer ein Tick statt Tock.

Thunder99
2015-03-10, 23:59:03
970 hat mehr als ein SIMD deaktiviert, sonst wäre der Abstand (abgesehen von dem Interface Geschichte) nicht so groß. Bei der Titan zur Titan Black war nur ein Block deaktiviert. Das kann man locker mit dem Takt ausgleichen ;)

GTX 780 war ja auch stärker beschnitten als die Ti und Titan Classic ;)

Klar wäre ein Vollausbau wünschenswert aber notwendig für das angepeilte Ziel darf gerne bezweifelt werden.

Nakai
2015-03-11, 00:44:54
Also der Leak ist witzlos. Da passt gar nix. Ein GM200 bei 1000Mhz wär eher 30% vor einer GTX980(1.150Mhz), also die 40%. GM204 hat 180W ~Verbrauch. GM200 ist 50%+, also eher 270W. Nvidia wird aber die 250W Marke wohl kaum überspringen wollen. Der Takt wird gezügelt. Ich bin schon überzeugt, dass die Titan X Full ist, aber der Takt wird wohl zurückgeschraubt sein. Bei 1Ghz mit Boost etwas höher, sprengt man den TDP-Rahmen nicht, und ist ein gutes Stück über GM204. Die GM204 OC-Versionen sind schon stark und werden in die Regionen von GM200 reichen. Wenn GM200 noch deaktivierte Einheiten hat, dannist man bestimmt in diesen Regionen, was wirklich "interessant" ist.

rentex
2015-03-11, 05:42:19
Auch wenn die TitanX, 30 oder gar 40% schneller als ne 980er wäre, ein Grund sie mir zu holen ist es bezüglich 4K Gaming nicht. Gilt auch für die Fiji's.
Ach ja nochwas, bin sehr gerne hier, da es anscheinend mehr interessierte/ vom Fach in diesem Forum gibt, als anders wo. Aber bitte nicht Leute blöd anmachen, die nicht so fachlich informiert sind. Die sind ja wegen den Pro's hier ;-)

Ailuros
2015-03-11, 06:24:14
Auch wenn die TitanX, 30 oder gar 40% schneller als ne 980er wäre, ein Grund sie mir zu holen ist es bezüglich 4K Gaming nicht. Gilt auch für die Fiji's.
Ach ja nochwas, bin sehr gerne hier, da es anscheinend mehr interessierte/ vom Fach in diesem Forum gibt, als anders wo. Aber bitte nicht Leute blöd anmachen, die nicht so fachlich informiert sind. Die sind ja wegen den Pro's hier ;-)

Ich sehe keine Pros hier aber es ist auch egal. Was immer Du fuehlst dass es ausserhalb jeglicher Grenze liegt von anderen einfach auf den Meldeknopf druecken und die Moderation wird dafuer sorgen. Metaphorisch heisst es dann dass wir uns alle wie zu Hause fuehlen duerfen, aber wir werden auch aus verstaendlichen Gruenden gebeten die Schuhe nicht auszuziehen :freak:

Dawn on Titan
2015-03-11, 07:09:38
Vollausbau oder nicht wird immerhin ein guter Indikator sein wie weit Pascal ist.

rentex
2015-03-11, 07:49:25
Nee, fühl mich nicht angegriffen, aber so Kommentare über andere Foren usw...@Dawn on Titan: Das hoffe ich auch. Mein Focus liegt auf Pascal. Glaube, das diese Gen, die nötige Leistung bringen wird ( zusammen auf einem Skylake Sys).

Edgecrusher86
2015-03-11, 07:54:09
E: PCGHs News-Ausage mit 25 - 30% Vorsprung der X war doch korrekt, bezog er sich doch auf die Gigaybte GTX 980 G1 Gaming (etwas unter 1,4 GHz Max-Boost und 300W default PT, wo grob um die 280W genutzt werden sollten) - in diesen drei Fällen sind es jeweils +26% für die X auf die G1 - gerundet.
Auf jeden Fall hatte ich noch einmal die GTX 980 als Basis für die 3DM Scores genommen, dann sieht die TITAN X auch besser aus.
Anzumerken ist, dass, wie auch Ailuros meinte, diese 3DM-Scores wieder eine Art best case darstellen dürften. ;)

Dann wird deutlich, dass es wohl der Vollausbau sein dürfte, wenn dieser default niedriger als eine 980 boostet, wovon wohl auszugehen ist.

http://abload.de/img/geforce-gtx-titan-x-3dfurr.png
http://abload.de/img/geforce-gtx-titan-x-3omuo9.png
http://abload.de/img/geforce-gtx-titan-x-328ump.png

Sieht schon besser aus, was?! :biggrin:

P.S.: Ja, der untere SLI-Wert sieht etwas komisch aus...das sollten real eigentlich unter 12k sein, sofern nicht dort das PT/TT hochgeschraubt und oder auch der Takt im SLI geändert wurde. :freak:

rentex
2015-03-11, 08:00:08
Hm, aber die spekulierten 50% werdens wohl auch nicht...egal, wir werden sehen. Nur bin ich von AMD irritiert...da hat man von denen auf der GDC gar nix gesehen, aber falscheS Thema.

Ahh jetzt seh ichs...ok!

Edgecrusher86
2015-03-11, 08:02:20
Bis zu 50% im absoluten GPU-Limit aka 4K, SSAA-Gaming oder Speicherbandbreiten-limitierten Settings (z.B. AvP 3 Bench) sowie unter Surround könnte man in der Praxis schon sehen, auch wenn es jetzt maximal + 45% wären....auch nicht schlecht. ;)

E: FireStrike Ultra wär hier zum Beispiel interessant in 4K - fehlt leider. ;)

Ailuros
2015-03-11, 08:23:04
Vollausbau oder nicht wird immerhin ein guter Indikator sein wie weit Pascal ist.

Was zum Henker hat jetzt GM200 mit Pascal zu tun genau? Ueberhaupt da Pascal wohl NICHT fuer 28nm ausgelegt ist und die primaere Rolle die yields der foundry fuer den entsprechenden kleineren Prozess spielen werden.

Bis zu 50% im absoluten GPU-Limit aka 4K, SSAA-Gaming oder Speicherbandbreiten-limitierten Settings (z.B. AvP 3 Bench) sowie unter Surround könnte man in der Praxis schon sehen, auch wenn es jetzt maximal + 45% wären....auch nicht schlecht. ;)

E: FireStrike Ultra wär hier zum Beispiel interessant in 4K - fehlt leider. ;)

Meine Infos decken sich nicht mit so hohen Prozentualen im Durchschnitt; Vorsicht mit synthetischen benchmark Resultaten wie 3dfurz.

rentex
2015-03-11, 08:31:16
War ja nur die Vorfreude ;-) Ist ja ein Spekulationsthread, nicht mehr. Die Realität, wird wie immer uns einholen.

Ailuros
2015-03-11, 08:40:37
Ich glaube wir haben noch keinen thread fuer Pascal, aber der groesste Leistungszusatz bei diesem duerfte vom neuen Prozess kommen und wieviel mehr Einheiten pro mm2 dieser erlaubt.

Dawn on Titan
2015-03-11, 08:49:55
Was zum Henker hat jetzt GM200 mit Pascal zu tun genau? Ueberhaupt da Pascal wohl NICHT fuer 28nm ausgelegt ist und die primaere Rolle die yields der foundry fuer den entsprechenden kleineren Prozess spielen werden.

Imho kann man durchaus eine erwartete Lebensdauer des Produkts erkennen. Wobei GM200 zeitig genug ist, dass man selbst im günstigen Verlauf von 14nm 16nm FF eigentlich noch Raum für eine Aufwärmrunde hat.

Kommt die Titan aber als Vollausbau, dann würde ich es als Tendenz sehen, dass NV bis Pascal nur noch ne 980ti/990 bringen wird, was imho nahelegt, dass GP204 Anfang 2016 bereit sein sollte, zumindest nach aktueller Planung bei NV.

Ailuros
2015-03-11, 09:13:17
Imho kann man durchaus eine erwartete Lebensdauer des Produkts erkennen. Wobei GM200 zeitig genug ist, dass man selbst im günstigen Verlauf von 14nm eigentlich noch Raum für eine Aufwärmrunde hat.

Eben NICHT gerade WEIL GM200 nicht den HPC Markt voll fuer Teslas bedienen kann. 14FF ist uebrigens nur fuer den Parker SoC "gesichert" als Info und der Rest ist unbekannt.

Kommt die Titan aber als Vollausbau, dann würde ich es als Tendenz sehen, dass NV bis Pascal nur noch ne 980ti/990 bringen wird, was imho nahelegt, dass GP204 Anfang 2016 bereit sein sollte, zumindest nach aktueller Planung bei NV.

Siehe oben. Wenn NV Pacal frueher braucht als Du oder andere schaetzen wollt und der jeweilige Prozess erlaubt es dann wird er auch dann fuer HPC nur zuerst kommen.

Dawn on Titan
2015-03-11, 09:19:02
Pascal wird doch wahrscheinlich auch zuerst als Performancechip kommen und der dürfte primär in den Geforcemarkt gehen. Der Big Dog ist ein ganz anderes Szenario, da es für ihn andere und wichtigere Absatzmärkte gibt, dort würde ich keine Schätzung riskieren. GP200 (wenn er denn so heißt) kann schnell kommen, denn im HPC Markt lebt ja noch GK210 weiter und bei den Preisen kann man mit Yields arbeiten, die für den Massenmarkt völlig untragbar wären.

GM200 taugt für mich nur als Indikator für GP204.