PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce Titan X: 12GB, 8 Mrd. Transistoren, $999: (P)Review-Thread


Seiten : [1] 2 3 4 5 6 7 8 9 10 11 12

Gast
2015-03-04, 19:16:33
Heute hat Nvidia die Titan X angekündigt stream war bei twitch zu sehen bei UE4 Vorstellung.

http://abload.de/img/titanxhfkm8.jpg

Quelle: http://www.twitch.tv/unrealengine

Kartenlehrling
2015-03-04, 19:34:57
HEHE,
hat er wieder eine Holzattrappe in Klavierlack presentiert.

HisN
2015-03-04, 19:57:28
Egal, wird trotzdem gekauft.

Blediator16
2015-03-04, 20:15:43
Egal, wird trotzdem gekauft.

Eigentlich müsste Nvidia eine Titan HisN Edition mit 128gb VRAM rausbringen, damit du zufrieden bist.

Sven77
2015-03-04, 20:20:32
Selbst die Holzattrappe hätte in den Benchmarks die Nase vorne :ulol:

Gast
2015-03-04, 20:26:09
HEHE,
hat er wieder eine Holzattrappe in Klavierlack presentiert.


Was soll Tim Sweeney (Epic Games) mit einer Holzattrappe ? Huang hat ihm die Karte geschenkt bei der UE4 Vorstellung.Gute Freunde muss man haben. :)

MadManniMan
2015-03-04, 21:45:52
Bringt mich mal auf den aktuellen Stand: wir erwarten vom GM200 ne 1,5fache GTX 980, richtig? Also bis auf den 3fachen Speicher?

josefYY
2015-03-04, 22:26:17
Na erst einmal abwarten.
Nicht das die 12 GB in Wirklichkeit nur 11,5 GB sind.

Fusion_Power
2015-03-04, 23:26:25
Na erst einmal abwarten.
Nicht das die 12 GB in Wirklichkeit nur 11,5 GB sind.
Das Spiel, dass die vollen 12GB benötigt muss wohl erst noch erfunden werden. ^^"

Raff
2015-03-04, 23:43:31
Bringt mich mal auf den aktuellen Stand: wir erwarten vom GM200 ne 1,5fache GTX 980, richtig? Also bis auf den 3fachen Speicher?

Ja. Wenn das Teil mehr als 225 Watt futtern darf, wird das bestimmt was.

MfG,
Raff

mike49
2015-03-04, 23:59:58
Ja. Wenn das Teil mehr als 225 Watt futtern darf, wird das bestimmt was.

Die genehmigt sich meine 970er ja schon (dafür aber auch mit konstantem Boost-Takt > 1.500).

Ich denke, das geht eher in Richtung 300W ;)

Rampage 2
2015-03-05, 02:13:21
Ja. Wenn das Teil mehr als 225 Watt futtern darf, wird das bestimmt was.

MfG,
Raff

Glaubst du, ob das Teil mit 8Gbps-Speicher (= 384GB/sek. Bandbreite) angebunden wird? Sauteuer wird es ja sowieso...

R2

Gast
2015-03-05, 02:28:20
Siper. Sogut wie gekauft. Freu mich schon drauf:)

MadManniMan
2015-03-05, 02:33:23
Kann mal bitte jemand den Threadtitel ändern? Spannend wäre es zwar, aber es sind wohl doch nur 8 Milliarden Transistoren ;)

Wake
2015-03-05, 03:11:29
Zeit die original Titan als PhysX-Karte zu relegieren.

BlacKi
2015-03-05, 05:11:13
Die genehmigt sich meine 970er ja schon (dafür aber auch mit konstantem Boost-Takt > 1.500).

Ich denke, das geht eher in Richtung 300W ;)

der takt ist aber nochmals niedriger als bei der 980. beim selben takt also mit OC käme ich ausgerechnet auf 210w, da der takt niedriger ist gehe ich davon aus, das dass der verbrauch sogar unter 200w bleibt.
aber nur wenn die angaben stimmen.
aber wenn der takt so niedrig bleibt wird fiji wohl schneller sein.

Rente
2015-03-05, 06:29:30
Kann mal bitte jemand den Threadtitel ändern? Spannend wäre es zwar, aber es sind wohl doch nur 8 Milliarden Transistoren ;) Das englische "billion" heißt zu Deutsch Milliarde und der Titel entspricht dem Ausspruch von Jen-Hsun.
Also entweder deutscht man dann alles ein oder man lässt es einfach so. ;)

@BlacKi
Kaffeesatzleserei, es gibt doch überhaupt noch keine gesichterte Informationen zu Takt, Einheiten o.ä.

Gast
2015-03-05, 08:24:41
Der Threadtitel ist aber deutsch und demnach ist billion hier klar falsch.

TobiWahnKenobi
2015-03-05, 09:25:23
Der Threadtitel ist aber deutsch und demnach ist billion hier klar falsch.

völlig korrekt, das war auch das erste, das mir aufgefallen ist. :)

Zeit die original Titan als PhysX-Karte zu relegieren.

eine neue titan in dienst zu stellen und die alte einen slot tiefer rutschen zu lassen macht nur sinn, wenn die neue das kommende DX12-featureset "komplett" hard- und softwareseitig abdeckt /TIER3. solange wie eine alte titan vor zwei jahren wird die neue sicher nicht in den rechnern verweilen. dazu ist DX12 zu frisch. die alte hielt was sie versprach - nie wieder ne DX11-karte kaufen zu müssen. also, zur lebzeit der API.



(..)

mfg
tobi

Malabolge
2015-03-05, 09:35:19
@BlacKi
Kaffeesatzleserei, es gibt doch überhaupt noch keine gesichterte Informationen zu Takt, Einheiten o.ä.

Gesicherte Informationen ? Von NVIDIA ?

ROFL - Der war gut !

Nicht das wir da Jensen ganz falsch "verstehen"

gnomi
2015-03-05, 10:29:05
Was ein Monster. Und nicht mal beim Speicher haben sie gespart. :wink:
Die Techdemo ist auch fabelhaft.
Wäre genau richtig für alle, die sich 4k Monitore anschaffen und einen Anschaffungspreis von um die 1000 Euro verkraften.
Dieser Vorstellung werden aber bestimmt auch noch 8GB 980 (TI) Karten folgen.
Da ist wieder gut Bewegung im High End Markt. Ich hoffe jetzt, dass AMD nvidia gut Paroli bietet. Sonst wird es langsam kritisch in der nächsten Generation, denn mehr als 500 Euro möchte ich auch nicht mehr für eine GPU bezahlen. ;)

dildo4u
2015-03-05, 11:28:33
UE 4 Titan X Demo Download

http://www.gamersyde.com/download_unreal_engine_4_kite_open_world_cinemattic-34209_en.html

dargo
2015-03-05, 11:37:23
UE 4 Titan X Demo Download

http://www.gamersyde.com/download_unreal_engine_4_kite_open_world_cinemattic-34209_en.html
Das sieht schon stark aus. Was mich hier nur noch ein wenig stört... einige Szenen in der Ferne sehen zu low detailiert aus. Das passt nicht ganz zu dem was man auf den ersten Metern sieht.

dildo4u
2015-03-05, 11:38:04
Da weiß man wenigstens das es Echt ist.

dargo
2015-03-05, 11:48:08
Was ein Monster. Und nicht mal beim Speicher haben sie gespart. :wink:
Die Techdemo ist auch fabelhaft.
Wäre genau richtig für alle, die sich 4k Monitore anschaffen und einen Anschaffungspreis von um die 1000 Euro verkraften.

Ich tippe auf mehr als 1000€. ;)

Gast
2015-03-05, 11:52:17
Nichts für ungut, aber was ist an diesem Demo besonders?

Da sieht das Spiel "The Vanishing of Ethan Carter" genau so gut aus, wenn nicht sogar noch besser und das kann ich jetzt hier und heute spielen. Wenn man dann sieht, wie wenig Ressourcen dieses Spiel benötigt, ich kann es mit meiner GTX 980 ohne Probleme auf Max Details gesynct auf durchgehend 60 Frames mit einer einzelnen GTX 980 in UHD spielen, frage ich mich, was diese Techdemos immer sollen.

Mich beeindruckt es nicht, genau so wenig diese TitanX, sie wird ca. 1300 Euro kosten, können sie behalten, ich habe mich einmal von Nvidia verarschen lassen, als ich mir die erste Titan geholt habe - nicht noch mal - dann stecke ich lieber noch ne gebrauchte GTX 980 zu und hab noch mehr Power. ;)

dildo4u
2015-03-05, 12:03:28
Anschlüsse

http://abload.de/img/titanx-video-connectom0rwv.jpg

http://www.legitreviews.com/hands-nvidia-geforce-gtx-titan-x-12gb-video-card_159519

mironicus
2015-03-05, 12:37:05
Als Erstes sollte man den GTX 970-Speicherbenchmark darauf laufen lassen... :D

Tesseract
2015-03-05, 12:47:03
meh, wenn das ding wieder titan heißt kostet es sowieso wieder 300€ zu viel.

Gast
2015-03-05, 12:52:47
Als Erstes sollte man den GTX 970-Speicherbenchmark darauf laufen lassen... :D Das werden die Redaktionen schon machen. Hier ist aber nichts beschnitten von daher voller Dampf. AMD sollte mit dem HBM Speicher übrigens ebenfalls getestet werden! Gleiches Recht für alle;)

Radeonfreak
2015-03-05, 13:03:51
UE 4 Titan X Demo Download

http://www.gamersyde.com/download_unreal_engine_4_kite_open_world_cinemattic-34209_en.html

Ähm..ähm....wow. :O

PHuV
2015-03-05, 13:29:38
Ich tippe auf mehr als 1000€. ;)
Siehe hier:
GDC: Nvidia stellt Grafikkarte Geforce GTX Titan X vor (http://www.heise.de/newsticker/meldung/GDC-Nvidia-stellt-Grafikkarte-Geforce-GTX-Titan-X-vor-2567420.html?wt_mc=rss.ho.beitrag.atom)
Erste Schätzungen gehen von einem Verkaufspreis von 1350 US-Dollar aus.

Tzunamik
2015-03-05, 14:08:04
Wird immer dreister... gut das die GTX970 meine letzte nVidia Karte war.... erst mal nie wieder nVidia!

Bitte AMD mach was draus! BITTE!!

dargo
2015-03-05, 14:48:05
Siehe hier:
GDC: Nvidia stellt Grafikkarte Geforce GTX Titan X vor (http://www.heise.de/newsticker/meldung/GDC-Nvidia-stellt-Grafikkarte-Geforce-GTX-Titan-X-vor-2567420.html?wt_mc=rss.ho.beitrag.atom)
Ich kann über sowas nur noch lachen. Das nächste High-End wird dann mit 1500$ probiert. Die Meute kann man offenbar gut melken und das Ende ist noch nicht erreicht.

MadManniMan
2015-03-05, 14:58:56
Ich kann über sowas nur noch lachen. Das nächste High-End wird dann mit 1500$ probiert. Die Meute kann man offenbar gut melken und das Ende ist noch nicht erreicht.

Umso dringender wird es, dass Fiji ordentlich Bums hat.


Wird immer dreister... gut das die GTX970 meine letzte nVidia Karte war.... erst mal nie wieder nVidia!

Bitte AMD mach was draus! BITTE!!

Hast Du auch irgendwas zum Thema beizutragen oder willst Du nur rumpöbeln?

BlacKi
2015-03-05, 16:57:29
findet ihr nicht das die speicheranbindung genau wie bei der gtx960 mit 4gb zu klein ist? *sarkasmus an*

das speichermenge/speicherbandbreite verhältniss ist gleich.

eigentlich braucht die 960 sogar weniger bandbreite als die titanX weil man bei der titanX mehr bandbreitefordernde AA modi fährt und der texturenanteil bei der 960 größer ist.

Dimitri Mayakovsky
2015-03-05, 17:01:26
Ich kann über sowas nur noch lachen. Das nächste High-End wird dann mit 1500$ probiert. Die Meute kann man offenbar gut melken und das Ende ist noch nicht erreicht.
Solange du einen so großen USP hast, kannst du natürlich solche Preise aufrufen.

Blaire
2015-03-06, 20:11:22
Siehe hier:
GDC: Nvidia stellt Grafikkarte Geforce GTX Titan X vor (http://www.heise.de/newsticker/meldung/GDC-Nvidia-stellt-Grafikkarte-Geforce-GTX-Titan-X-vor-2567420.html?wt_mc=rss.ho.beitrag.atom)

Na zwei davon im SLI wären doch für 4K + G-Sync quasi das perfekte Gespann? :D:naughty: Preis wird gesalzen sein, aber Titan Classic hat sich auch recht lange bewährt, gute 2 Jahre und immer noch gut vorn dabei, für Highend ist das schon eine außergewöhnlich lange Zeit muss man sagen.
Das so schnell weitere GM200 Ableger erscheinen, würde ich zumindest mal stark bezweifeln, Titan X somit auch recht lange "halten".

Troyan
2015-03-06, 21:30:33
Hier gibt es paar Bilder:
http://www.overclock.net/t/1544560/gdc-15-nvidia-announces-titan-x/860#post_23630908

Den Karton wird es wohl leider im Handel geben. Schade eigentlich.

Kartenlehrling
2015-03-06, 21:36:37
https://www.youtube.com/watch?v=85cL1HisrNc
:cool:

cR@b
2015-03-07, 01:14:24
Na zwei davon im SLI wären doch für 4K + G-Sync quasi das perfekte Gespann? :D:naughty: Preis wird gesalzen sein, aber Titan Classic hat sich auch recht lange bewährt, gute 2 Jahre und immer noch gut vorn dabei, für Highend ist das schon eine außergewöhnlich lange Zeit muss man sagen.
Das so schnell weitere GM200 Ableger erscheinen, würde ich zumindest mal stark bezweifeln, Titan X somit auch recht lange "halten".

Bin absolut deiner Meinung. Die Classic habe ich in keiner Weise bereut und ist nach wie vor angenehm zu spielen! Wenn die "X" genauso lange hält, bin ich happy damit. Gut für über 1000€ wird es wohl nichts werden aber bis... jo warum nicht? Ist ja mein Hobby!

LSSJBroly
2015-03-07, 01:33:55
Noch ein paar Pics, aber in höherer Qualität:
http://techgage.com/news/a-super-quick-look-at-nvidias-geforce-gtx-titan-x/

Angiesan
2015-03-07, 11:33:25
Hmm meine Quellen sprechen von etwas mehr wie das was wir bis jetzt gehört haben $ 1.350 wir eher der Straßenpreis sein.
Macht schon mal das Sparschwein klar zum schlachten :-) also ehrlich Hobby hin oder her >2,5K für eine high end SLi Gespann, da muss man schon ganz schön ......Enthusiast sein:freak:

Disco_STFU
2015-03-07, 11:52:35
Ja. Wenn das Teil mehr als 225 Watt futtern darf, wird das bestimmt was.

MfG,
Raff

das gibts dann erst 8-12 Monate später mit der "verbesserten" Titan X² :freak:

Nakai
2015-03-07, 13:20:03
Hmm meine Quellen sprechen von etwas mehr wie das was wir bis jetzt gehört haben $ 1.350 wir eher der Straßenpreis sein.
Macht schon mal das Sparschwein klar zum schlachten :-) also ehrlich Hobby hin oder her >2,5K für eine high end SLi Gespann, da muss man schon ganz schön ......Enthusiast sein:freak:

Ja, schon ziemlich dumm. ;D

Sportwagen...*hust*...mag ich auch nicht.

Ahja, glaubt hier einer im Ernst, dass die Titan X mit den vollen 3072SPs kommt? Bei nur 8Pin+6Pin?

dildo4u
2015-03-07, 13:33:06
Warum Mehr Shader Cores dafür muss der Takt nicht so hoch,Nvidia wird von sich aus nix mehr bringen was an 300Watt nagt.Ohne Konkurrenz mach es kein Sinn die Chip's am Maximum zu betreiben.Als High-End User hat man eh keine andere Option,Nvidia bringt mit voller Absicht keine 980 mit 8GB vor Titan X.

Godmode
2015-03-07, 13:54:17
Macht schon mal das Sparschwein klar zum schlachten :-) also ehrlich Hobby hin oder her >2,5K für eine high end SLi Gespann, da muss man schon ganz schön ......Enthusiast sein:freak:

Aber sie ist doch schwarz! :biggrin:

Wenn das Ding wenigstens eine 2x8-Stromversorgung hätte, aber so ist man ja wieder recht eingeschränkt was das Powertarget angeht.

Digidi
2015-03-07, 14:07:54
Glaube nicht das da Mehr Shader kommen werden.

8 Milliarend Transistoren wurden ja für den GM200 angekündigt. Das passt zu den 5,2 Milliarden vom GM204.

Grob gerechnet: 5,2*3072/2048= 7,8 Transistoren

200 Millionen bleiben übrig um vielleicht die größere Chipfläche zu überbrücken.

Angiesan
2015-03-07, 14:24:13
Aber sie ist doch schwarz! :biggrin:

Wenn das Ding wenigstens eine 2x8-Stromversorgung hätte, aber so ist man ja wieder recht eingeschränkt was das Powertarget angeht.

Ach komm das reicht allemal und das ist ja nur die Ref um den Mythos des Stromsparwunders zu erneuern:-)
Die Designs der Hersteller werden dann wieder 2x8 bieten und es wird auch unter Garantie wieder so Dinge geben wie eine KingPin mit dann vielleicht 3x8.

In dem jetzigen Herstellungsprozess kochen alle nur mit Wasser und 300+ Watt sind bei OC + Spannungserhöhung eher die Regel wie die Ausnahme.
Und was glaubst Du wie lange es dauert bis die ersten Mod-Bioses zu haben sind die dann wieder zulassen was das NT und die Spawas hergeben :freak:

Raff
2015-03-07, 15:19:26
Und was glaubst Du wie lange es dauert bis die ersten Mod-Bioses zu haben sind die dann wieder zulassen was das NT und die Spawas hergeben :freak:

Und erst dann wird's spannend. Zumindest für mich. Preise, die nach Inflation stinken, sind dann aber trotzdem keine Option. So und so ist es sinnvoll, etwas zu warten - mindestens auf AMDs Antwort, die Gerüchten zufolge im Juni startet. Das wird hart, wenn die Titan X "günstig" wird, aber davon gehen wir sowieso nicht aus. ;)

MfG,
Raff

Angiesan
2015-03-07, 16:11:20
Na die Salamitaktik von NV kann ja auch mal anders rum funktionieren;-)
Zuerst haut man den Titan x raus für 1398 $ und wenn dann die AMD Antwort kommt haut man die GTX 980 TI raus was dann ein Titan X ist mit nur 6 GB Speicher, oder und das glaube ich eher mit einem 320 Bit Si und dann 10 GB somit könnte man mit leicht höheren Taktraten dann immer noch über der R390 landen und das ganze dann zum Schanppi-Preis von 799$ anbieten und schon ist das GJ 2015 gerettet :biggrin::freak:

Digidi
2015-03-07, 16:37:22
Wenn ich Nvidia wäre würde ich die Titan X für 750 Euro raushauen bevor die 390x kommt. Denn die 390x kann wohl ein echter Brüller werden mit neuer Architektur und den angegebenen Specs bis dahin muss Nvidia die Zeit gut nutzen um richtig Kasse zu machen.

Nvidia muss ja ganz schön Panik haben das Teil jetzt schon rauszuhauen. Denn wäre sie schneller hätte man locker bis zum Release der 390x gewartet und sie dann einfach mit einer Taktanpassung, welche die 390x übertrumpft, rausgehauen.

AnarchX
2015-03-07, 16:53:39
Warum sollte NV noch länger warten, wenn man die Chance hat die schnellste Single-GPU für ~2 Monate für >$1000 zu verkaufen. Die Karte soll wohl schon seit Ende letzten Jahres in Produktion(siehe geleakten Die aus der 40. Woche '14) sein, sodass man die Nachfrage bedienen können wird.
Der Titan X Launch dürfte am 17.3. auf der GTC sein. Für Fiji/R9 390X sprechen manche Quelle auch erst von Juni - Computex.

Digidi
2015-03-07, 17:07:10
Na ja so gibt man AMD 2 Monate zum nachbessern. Ich glaube das noch viele unentschlossen sind. Zudem wie könnte man AMD mehr demütigen am nächsten Tag eine Karte nach Release gleich zu deklassieren.

Außerdem glaube ich das die Radeons näher sind als wir denken. (Siehe die 390x am Ocolus Rift Stand) Vielleicht wartet AMD noch bis zur Titan x um danach den Takt noch mal schnell anzupassen. Die Leistung sollte man bei der Titan besser Voraussagen können als bei AMD da ja der gm200 auf dem gm400 aufbaut. Jetzt hängt alles nur noch vom Takt ab. Ich glaube darauf spekuliert AMD das sie mehr Wissen als Ihr gegenüber zurzeit. Deshalb auch die totale Stille.

Nakai
2015-03-07, 18:18:33
Warum sollte NV noch länger warten, wenn man die Chance hat die schnellste Single-GPU für ~2 Monate für >$1000 zu verkaufen. Die Karte soll wohl schon seit Ende letzten Jahres in Produktion(siehe geleakten Die aus der 40. Woche '14) sein, sodass man die Nachfrage bedienen können wird.
Der Titan X Launch dürfte am 17.3. auf der GTC sein. Für Fiji/R9 390X sprechen manche Quelle auch erst von Juni - Computex.

Hat man doch derzeit eh schon. NV kann ruhig, bzw. wird warten.

fondness
2015-03-07, 18:25:35
Hat man doch derzeit eh schon. NV kann ruhig, bzw. wird warten.

Immer diese seltsamen Vorstellungen. GM200 hatte im September sein Tapeout und kommt aller Voraussicht nach noch im März auf den Markt, 6 Monate ist das absolute Minimum. Und nein es macht keinen Sinn etwas zurück zu halten das man um $1000 verkaufen könnte. Und nein generell hält niemand einen fertigen Chip zurück, das wäre nämlich schlicht dumm.

Raff
2015-03-07, 18:29:56
Yep, Nvidias Portfolio hat Platz für eine neue Superteuerkarte, die Titan Black ging vor einiger Zeit in den EOL-Status über. Die Frage ist, was Nvidia daraus macht. Ich würde es an deren Stelle so machen wie bei der Titan Classic: Im März eine teure, aber leicht verkrüppelte Karte -> Konkurrenz kontert -> nachlegen mit Vollausbau. Aus Kundensicht ist das natürlich Grütze. Aber mal ehrlich: Was hat man als Kunde mit der Titan wirklich falsch gemacht? Die GTX 780 Ti kam Monate später, brachte für 600 Euro nur ein unfühlbares Leistungsplus und kratzt nun alle fünf Meter wegen ihres kleinen Speichers ab. Die Titan wurde vor zwei Jahren für ihre Bestückung belächelt und liegt damit gerade goldrichtig - das war damals aber nicht abzusehen, sondern Glück. Natürlich war das Ding teuer, aber eine bessere Investition als die 780 Ti. Viele wollten einfach nicht hören, obwohl AMD längst gute 4-GiB-Karten als Alternative bereithielt.

Ich bin unschlüssig, ob sich die erneute Investition in eine Karte mit "zu viel" Speicher wieder lohnt. Wir bewegen uns im Gegensatz zu 2013 nun am Ende der Lebensspanne von 28 nm, die neue Fertigung steht vor der Tür. Jetzt Unmengen an Kohle rauszuwerfen halte ich daher für keine gute Idee.

MfG,
Raff

dildo4u
2015-03-07, 18:34:21
Es wird der volle Chip sein ansonsten wird die Masse auf die 980 TI warten da die mit 6GB nicht sonderlich Vram Limitiert ist.

aufkrawall
2015-03-07, 18:35:13
Die Titan ist im Grunde zu lahm schon für 1440p und ohne Mod-Bios und Hand anlegen für Kühler geht eh wenig (was für den Preis ansich eine Frechheit ist).
Hör doch auf diesen künstlichen Mythos zu befeuern. Ist ne stinknormale Highend-GPU mit mehr VRAM, dessen Verdoppelung bei der 290X oder GTX 960 relativ wenig kostet.

Diesmal gibts halt keinen Salvage zum Premium-Preis, aber DP für PR fält eben auch aus.
Man kann nur hoffen, dass die Fiji-Spekus für die größtmögliche Anzahl an Shadereinheiten sich als richtig erweisen, dann kann NV ihr offensichtliches Spielchen nicht so spielen.

M4xw0lf
2015-03-07, 18:42:13
Die Titan ist im Grunde zu lahm schon für 1440p und ohne Mod-Bios und Hand anlegen für Kühler geht eh wenig (was für den Preis ansich eine Frechheit ist).
Hör doch auf diesen künstlichen Mythos zu befeuern. Ist ne stinknormale Highend-GPU mit mehr VRAM, dessen Verdoppelung bei der 290X oder GTX 960 relativ wenig kostet.
Nachfolger der GTX570... für 1000 Öcken ^^

Raff
2015-03-07, 18:46:15
Die Titan ist im Grunde zu lahm schon für 1440p und ohne Mod-Bios und Hand anlegen für Kühler geht eh wenig (was für den Preis ansich eine Frechheit ist).
Hör doch auf diesen künstlichen Mythos zu befeuern. Ist ne stinknormale Highend-GPU mit mehr VRAM, dessen Verdoppelung bei der 290X oder GTX 960 relativ wenig kostet.

Diesmal gibts halt keinen Salvage zum Premium-Preis, aber DP für PR fält eben auch aus.
Man kann nur hoffen, dass die Fiji-Spekus für die größtmögliche Anzahl an Shadereinheiten sich als richtig erweisen, dann kann NV ihr offensichtliches Spielchen nicht so spielen.

So sieht's aus. Im Grunde sind wir doch alle viel gespannter darauf, was AMDs jüngstes Kind reißt: Die neutralen Wechsler, weil sie das Beste vom Besten wollen, und die Nvidia-Anhänger, weil gute AMD-Produkte ihnen niedrigere Preise bringen.

Thema "Mythos": Das ist keiner, die Titan wurde und wird im Alter besser als andere Kepler-Referenzdesigns, ähnlich wie derzeit Tahiti-Karten stark gegen diverse Geforces mit 2 GiByte abschneiden und eine Art zweiten Frühling erleben. Es lohnt sich fast immer, bei teuren GPUs in das Modell mit doppelter Speicherkapazität zu investieren. Das gilt auch jetzt bei 4 gegen 8 GiB. 6 gegen 12 jedoch ... sagen wir einfach, dass die Lage nicht eindeutig ist, aber der Nutzen von 12 GiB in den kommenden Jahren zumindest überschaubar sein wird.

Mich interessiert indes nicht, was die Titan X in der Referenzdarbietung leistet, sondern was man auf eigene Gefahr rausholen kann. Sobald klar ist, dass BIOS-Mods möglich sind, steigt mein Interesse an dem Ding. Nachrüstkühler wie der Accelero Xtreme IV sollten prinzipiell funktionieren, die Platine ist ja Standard. Bei HBM-Karten bin ich gespannt, wie die Layouts aussehen. Am Ende werde ich mich wohl wieder stark zusammenreißen müssen, wenn sich abzeichnet, dass 1,5 GHz unter Luft kein Problem darstellen. Geduld ist eine Tugend, die manchmal in Vergessenheit gerät. :biggrin:

MfG,
Raff

M4xw0lf
2015-03-07, 18:53:59
Nvidia hat ein Herz für dich und baut eine vierstellige Euphoriebremse ein :uup:

(del)
2015-03-07, 18:54:21
Das ist ja alles ganz super vor allem wenn ich so an meine erste Grafikkarte denke mit 1 MB EDO Ram, aber wozu ist diese neue Karte mit 12GB Ram eigentlich gut? Wird sie noch von nutzen sein wenn es Spiele gibt die so viel Ram brauchen?
So eine Karte zu kaufen ist doch reinste Geldverschwendung,Stromverschwendung und damit schlecht für die Umwelt.

Raff
2015-03-07, 18:55:32
Nvidia hat ein Herz für dich und baut eine vierstellige Euphoriebremse ein :uup:

Da bin ich auch zuversichtlich. Yeah, mehr Geld für ... öhm ... Bio-Gemüse? :ulol:

MfG,
Raff

M4xw0lf
2015-03-07, 18:58:36
Da bin ich auch zuversichtlich. Yeah, mehr Geld für ... öhm ... Bio-Gemüse? :ulol:

MfG,
Raff

Oder: Ein bis zwei Fahrräder / einen gehobenen Urlaub / eine edle Kaffeemaschine... eine wahre Initiative für mehr Lebensqualität von Nvidia, geradezu rührend :)

horn 12
2015-03-07, 19:01:10
@Raff

Da kann ich nur froh sein für gerade mal 265 Euro die R9 290 Tri-X New Edition gekauft zu haben
Für diesen Preis absolut KEIN Beinbruch, ist somit mit @1100 Mhz fast auf GTX 970 1,4 Ghz Niveau und kann gemütlich abwarten.
R9 390 sollte auch nicht viel schneller werden als diese New Edition Karte, OK, lassen wir es mit OC 20% sei.
Dafür nur 1/4 des Preises eine TITAN X
----> Einfach Krank was NV verlangen wird für Ihre TOP Karte und (aber) fahren dennoch nicht schlecht weil Viele "blind" kaufen.

@Raff
Den Test der R9 290(X) Tri-X New Edition wollts wohl nicht Online stellen, warum auch immer...
Wohl zu gut für die KONKURRENZ :-)

Raff
2015-03-07, 19:06:53
Alle Messwerte dazu gibt's in der PCGH 04/2015 (http://www.pcgameshardware.de/PC-Games-Hardware-Brands-18366/News/PCGH-04-2015-Magazin-DVD-Download-PDF-1151655/) - ist aber die 290X in der 8-GiB-Version, welche sich im High-End-Bereich mit den GTX-980-Karten zankt. Ein Online-Test ist nicht geplant.

Dass eine R9 290 aus Preis-Leistungs-Sicht derzeit unschlagbar ist (auch das steht in der PCGH ;)) und eine Titan dagegen unsinnig aussieht, wird hier niemand bestreiten. :) Wir gieren aber nach Fortschritt - und den wird GM200 gewiss bringen.

MfG,
Raff

aufkrawall
2015-03-07, 19:13:48
Denke nicht, dass die 290X irgendwie mit der 980 konkurrieren kann.
Zumindest noch nicht, die 8GB bringen derzeit fast nichts.
Und die 980 ist halt durch ihre bessere Taktbarkeit in quasi allen Spielen (sehr) deutlich vorne. Etwa in BF4 MP ohne MSAA merkt man das sehr deutlich.

Abgesehen davon ist die Lüfter-Qualität der Tri-X New immer noch deutlich schlechter als von MSI. Die laufen einfach störgeräuschfreier.

Egoim
2015-03-07, 19:18:39
@Raff: Huch, wann hast du denn den 9590 weg gegeben, kann erst eine Woche her sein...
Auch ein schönes Teil der 5820k ;)

BTT: Also für mich wird es wohl eher die 390X, meine 290X hat mir schon viel freude bereitet.
Und wenn nicht für 400W(+) Abwärme, wofür dann habe ich gerade erst die 3000RPM Noctuas (140mm) auf meine Wakü gespannt? :ugly:

gruß Egoim

Raff
2015-03-07, 19:20:47
Denke nicht, dass die 290X irgendwie mit der 980 konkurrieren kann.
Zumindest noch nicht, die 8GB bringen derzeit fast nichts.
Und die 980 ist halt durch ihre bessere Taktbarkeit in quasi allen Spielen (sehr) deutlich vorne. Etwa in BF4 MP ohne MSAA merkt man das sehr deutlich.

Grundsätzlich ist eine GTX 980 natürlich schneller. Vergleicht man eine gute 500 Euro teure GTX-980-Referenzkarte mit einer hochgezüchteten R9 290X 8GB (400-450 Euro), kommt es öfter mal zu Gleichständen, obwohl die Radeon immer noch günstiger ist. Das liegt daran, dass der NV-Referenzkühler oft Mühe hat, den typischen Boost zu halten, während dicke Hawaii-Designs das Problem nicht haben und außerdem übertaktet sind. Das läuft dann natürlich auf die doppelte Leistungsaufnahmne hinaus, aber wie gesagt: So viel trennt Nvidia und AMD dann nicht; ab 1440p sieht die 290X gut aus. Doch wir sind hart offtopic. :)

@Raff: Huch, wann hast du denn den 9590 weg gegeben, kann erst eine Woche her sein...
Auch ein schönes Teil der 5820k ;)

Das ist nur ein gut gehender FX-8350. :D Der ist übrigens noch da und wird als Bastelrechner neben dem 5820K weiterleben.

MfG,
Raff

Nakai
2015-03-07, 19:24:19
Immer diese seltsamen Vorstellungen. GM200 hatte im September sein Tapeout und kommt aller Voraussicht nach noch im März auf den Markt, 6 Monate ist das absolute Minimum. Und nein es macht keinen Sinn etwas zurück zu halten das man um $1000 verkaufen könnte. Und nein generell hält niemand einen fertigen Chip zurück, das wäre nämlich schlicht dumm.

Wer sagt denn, dass Titan X kein Salvage ist? Diese Möglichkeit besteht immer noch und sehe ich als extrem wahrscheinlich an.


Diesmal gibts halt keinen Salvage zum Premium-Preis, aber DP für PR fält eben auch aus.
Man kann nur hoffen, dass die Fiji-Spekus für die größtmögliche Anzahl an Shadereinheiten sich als richtig erweisen, dann kann NV ihr offensichtliches Spielchen nicht so spielen.

Glaubst du das wirklich?

horn 12
2015-03-07, 19:28:58
@Aufkrawall

Lüfterkurve nicht langsam ansteigen lassen, SONDERN Sprunghaft und dann ist selbst eine Tri-X New sehr leise unter Last mit 30 bis 35% (bis 77 Grad) und über 78 Grad hochziehen auf 40% und man lebt recht gut mit der Karte.

aufkrawall
2015-03-07, 19:36:51
Glaubst du das wirklich?
Wo sollten denn die ganzen Salvage-Chips herkommen?
Zu Fiji weiß man doch immer noch zu wenig Konkretes, um eine wirkliche Prognose zu geben, oder nicht?

fondness
2015-03-07, 19:46:05
Das ist ja alles ganz super vor allem wenn ich so an meine erste Grafikkarte denke mit 1 MB EDO Ram, aber wozu ist diese neue Karte mit 12GB Ram eigentlich gut? Wird sie noch von nutzen sein wenn es Spiele gibt die so viel Ram brauchen?
So eine Karte zu kaufen ist doch reinste Geldverschwendung,Stromverschwendung und damit schlecht für die Umwelt.

Das ist IMO ein wichtiger Punkt. Es gab einen Sprung im VRAM-Bedarf wegen den neuen Konsolen, der kommt aber nicht so schnell wieder. 12GB VRAM sind nettes Marketing, aber mehr auch nicht. 6GB, höchstens 8 GB werden auch für eine absoluten High-End-Karten in 4K die nächsten Jahre ausreichen IMO. Aber mehr schadet natürlich nicht.

redfirediablo
2015-03-07, 19:56:46
Schon intelligent von Nvidia: erst die ganze Welt drauf aufmerksam machen das 3,5 GB zu wenig Speicher ist und dann mit 12 GB in die vollen gehen...

Die Karte wird wieder elendig teuer werden und sie wird sich trotzdem wieder erstklassig verkaufen. Der Grafikkartenmarkt hat sich schon lange von rationellen Kaufentscheidungen gelöst. Was eine Karte kostet ist egal, Hauptsache sie ist "grün"...

BlacKi
2015-03-07, 21:38:50
obs soviele titan käufer gab?

titan war auch salvage, man braucht keine defekten chips um salvage chips aufzulegen.

dagegen sprechen 8mrd tranisistoren 8mrd(gm200) durch 5,2mrd(gm204) mal 398mm² gibt 612mm².

muss man dazu noch was sagen?

phoenix887
2015-03-07, 23:20:58
So sieht's aus. Im Grunde sind wir doch alle viel gespannter darauf, was AMDs jüngstes Kind reißt: Die neutralen Wechsler, weil sie das Beste vom Besten wollen, und die Nvidia-Anhänger, weil gute AMD-Produkte ihnen niedrigere Preise bringen.

Thema "Mythos": Das ist keiner, die Titan wurde und wird im Alter besser als andere Kepler-Referenzdesigns, ähnlich wie derzeit Tahiti-Karten stark gegen diverse Geforces mit 2 GiByte abschneiden und eine Art zweiten Frühling erleben. Es lohnt sich fast immer, bei teuren GPUs in das Modell mit doppelter Speicherkapazität zu investieren. Das gilt auch jetzt bei 4 gegen 8 GiB. 6 gegen 12 jedoch ... sagen wir einfach, dass die Lage nicht eindeutig ist, aber der Nutzen von 12 GiB in den kommenden Jahren zumindest überschaubar sein wird.

Mich interessiert indes nicht, was die Titan X in der Referenzdarbietung leistet, sondern was man auf eigene Gefahr rausholen kann. Sobald klar ist, dass BIOS-Mods möglich sind, steigt mein Interesse an dem Ding. Nachrüstkühler wie der Accelero Xtreme IV sollten prinzipiell funktionieren, die Platine ist ja Standard. Bei HBM-Karten bin ich gespannt, wie die Layouts aussehen. Am Ende werde ich mich wohl wieder stark zusammenreißen müssen, wenn sich abzeichnet, dass 1,5 GHz unter Luft kein Problem darstellen. Geduld ist eine Tugend, die manchmal in Vergessenheit gerät. :biggrin:

MfG,
Raff

Würde dir im Prinzip recht geben. Aber die nächste Titan lässt mich kalt. Enfach weil ich mit meiner Titan Black super zurecht komme im Eigendesign von Gigabyte. Und für was brauch 12 VRAM. wenn nur Handvoll 6GB VRAM benutzen?

Habe ja gesagt sie mag teuer sind, aber ich habe das langfristig gesehen, da zahlen sich die 900Euro aus. Lieber eimal was ausgeben und 1-2 Generationen überspringen, anstatt sich 2-3 eine Performance Karte zu holen.

Sehe grad du hast jetzt auch den 5820K. Habe mir gestern auch ein 5820K gekauft und ein System gebaut. Finde den CPU genial, erst recht mit eine AiO (ja ich habs jezt gelernt wie das heisst, die Person weiss bescheid;)).
Bin jetzt am OC und der CPU bleibt schön kühl. Macht Spass das teil.

Eigentlich pure Dekatenz, mein 2500k@4500mhz hätte auch noch gelangt. Aber es hat halt gejuckt wieder zu basteln. Daher kann ich, dass schon verstehen wenn die Titan X 1,5ghz machen würde.

Naja wenn ich das Teil in Aktion sehe, werde ich vielleicht doch schwach:freak: Aber was mein Kopf denkt, habe ich oben erläutert.

Rampage 2
2015-03-08, 01:05:39
Am Ende werde ich mich wohl wieder stark zusammenreißen müssen, wenn sich abzeichnet, dass 1,5 GHz unter Luft kein Problem darstellen. Geduld ist eine Tugend, die manchmal in Vergessenheit gerät. :biggrin:


Für wie wahrscheinlich hältst du das? Meine Erfahrungen der letzten Jahre im Grafikkarten-Bereich sagen mir, je üppiger ein Chip bestückt ist (Anzahl an ROPs, TMUs & SPs) desto niedriger lässt er sich takten. Wie hoch ließen sich denn die meisten 780 Ti's takten? Ich habe in Erinnerung, dass die meisten zwischen 1.1 - 1.2GHz Chiptakt liegen...

Hast du eigentlich schon meine Crysis-Config mit deiner Titan ausprobiert? :) In welchem Bereich liegt deine Framerate?

Ich persönlich hoffe, dass Nvidia einen GM200 Vollausbau auch als 6GB-Version rausbringt - für 700€, wenn Nvidia seinen Kunden gnädig ist...:rolleyes:

phoenix887
2015-03-08, 01:14:14
Muss ich die recht geben. Hatte hier eine Titan Classic, eine 780GTX ti und aktuell Titan Black. Lagen alle im Bereich 1,1 1,2ghz. Letztere hatte ich mit Modbios auch etwas weiter gebracht, aber das ist dann kein Verhältniss zu dem wie der Triple Fan Lüfter aufdreht und Lärm macht. Bin zwar kein Silent Freak, aber selbst das war mir zu krass und störend.

Rampage 2
2015-03-08, 01:51:47
Muss ich die recht geben. Hatte hier eine Titan Classic, eine 780GTX ti und aktuell Titan Black. Lagen alle im Bereich 1,1 1,2ghz. Letztere hatte ich mit Modbios auch etwas weiter gebracht, aber das ist dann kein Verhältniss zu dem wie der Triple Fan Lüfter aufdreht und Lärm macht. Bin zwar kein Silent Freak, aber selbst das war mir zu krass und störend.

Naja, meine Gigabyte GTX 770 (4GB) ist werksmäßig übertaktet und schafft bereits ohne mein Zutun im default-Zustand 1254MHz im Boost - allerdings dreht auch der Lüfter laut auf, wenn die sich die Karte unter Last befindet. Und die Karte wird auch recht warm (oft wird das TT von 80°C erreicht). Der Lüfter ist auch beim Zocken zu hören - sofern ich die Lautstärke nicht hochdrehe oder auf das Spielgeschehen gefesselt bin, macht sich das Lüftergeräusch auf jeden Fall bemerkbar. Naja, daran habe ich mich bereits gewöhnt und es stört mich (noch) nicht:freak:

Habe die Karte aktuell auf 1254/3750 MHz am Laufen -> 160 Gtexel & 240GB/sek. Bandbreite:cool:

Was mich auf jeden Fall stört, ist, dass ich *auch damit* das uralte Crysis immer noch nicht bei maximaler Grafikpracht zocken kann -> für 4xDS + Custom-Config ist möglicherweise auch ein GM200 nicht schnell genugX-D

Wann soll eigentlich Volta rauskommen? ;D;D;D

downforze
2015-03-08, 02:29:28
Die entwicklung erinnert mich an die rasiererwerbung. Für 2017 erwarte von gilette den mach 10.

Anungslooser
2015-03-08, 08:27:40
Hi, kurze Frage, vielleicht check ichs gerade nicht weils noch so früh am Morgen ist...

12 GB Speicher , das sind doch 12 Milliarden Bytes. (Denkfehler hier von mir?)
Und demnach 96 Milliarden Bits.

Wie speichert man 96 Milliarden Bits in 8 Milliarden Bauteilen? Speichert da ein Teil mehr als ein Bit?

M4xw0lf
2015-03-08, 08:31:22
Öhm, der Grafikspeicher ist nicht in der GPU enthalten, gell ;)

AnarchX
2015-03-08, 09:47:17
AMD könnte da wohl einen netten Phantasie-Vergleich anstellen auf Basis der "Transistors on Package", wenn sie gegen die 8 Mrd. von GM200, Fiji + Interposer + HBM-Dies stellen. ;D

akuji13
2015-03-08, 11:28:22
Der Grafikkartenmarkt hat sich schon lange von rationellen Kaufentscheidungen gelöst. Was eine Karte kostet ist egal, Hauptsache sie ist "grün"...

Nein, Hautpsache sie ist die schnellste. ;)
Mir reicht die Leistung einfach nicht, Spiele wie AC:U müssen mit konstanten 60 fps laufen.

Rational ist übrigens ein Wort das ich im Zusammenhang mit meinen Hobbys nie verwendet habe und das auch gar nicht will...wer Spaß haben will muss Scheine fliegen lassen.

So sieht's aus. Im Grunde sind wir doch alle viel gespannter darauf, was AMDs jüngstes Kind reißt: Die neutralen Wechsler, weil sie das Beste vom Besten wollen, und die Nvidia-Anhänger, weil gute AMD-Produkte ihnen niedrigere Preise bringen.

Was ich bei eine Titan bezweifle.
Die Titan Z hätte rein logisch ja auch deutlich günstiger sein müssen.

Aber ich freue mich ebenso auf AMD´s jüngstes baby...schließlich habe ich mehrer Rechner zu bestücken und die 290 ist eh schon viel zu lange hier. :D

robbitop
2015-03-09, 09:37:46
Das ist IMO ein wichtiger Punkt. Es gab einen Sprung im VRAM-Bedarf wegen den neuen Konsolen, der kommt aber nicht so schnell wieder. 12GB VRAM sind nettes Marketing, aber mehr auch nicht. 6GB, höchstens 8 GB werden auch für eine absoluten High-End-Karten in 4K die nächsten Jahre ausreichen IMO. Aber mehr schadet natürlich nicht.
VRAM Bedarf steigt immer. Auch ohne neue Konsolen. Sonst wären wir ja zwischen 2005 bis 2013 mit 512 MB VRAM stehen geblieben. Die Erfahrung lehrt, dass der VRAM Bedarf ständig steigt.
PC Versionen bekommen andere Assets als Konsolen Versionen.

Die Diskussion ist alle 2 Jahre immer die gleiche. 320 MiB reichen noch ewig (8800GTS-320). 1 GiB reicht ewig (GT200). 1,5 GB reicht ewig (GF100). 2 GB reichen ewig (GK104). 3 GB reichen ewig (GK110 als 780/ti).
Und es ist jedes Mal immer wieder so. VRAM Bedarf steigt. Das kam der Titan Classic zum Ende ihrer Lebenszeit wirklich zu gute. Da hat Raff schon recht. 12 GiB erscheinen heute, wie damals 6 GiB, als viel zu viel. Aber in 2 Jahren sieht es sicher wieder anders aus.

Palpatin
2015-03-09, 09:58:13
Die Diskussion ist alle 2 Jahre immer die gleiche. 320 MiB reichen noch ewig (8800GTS-320). 1 GiB reicht ewig (GT200). 1,5 GB reicht ewig (GF100). 2 GB reichen ewig (GK104). 3 GB reichen ewig (GK110 als 780/ti).
Und es ist jedes Mal immer wieder so. VRAM Bedarf steigt. Das kam der Titan Classic zum Ende ihrer Lebenszeit wirklich zu gute.
Das Problem ist das NV immer am SI sparrt. Mir wäre die Titan X mit 512bit SI und 8GB Speicher lieber, die 580 GTX hätte auch 512 bit und 2GB vertragen können. Für die 980er hingegen wäre das 384bit und 6GB ideal gewesen. Gleiches gilt für 680 mit 3GB usw....
Bei AMD passt das immer bessser.

Raff
2015-03-09, 10:00:28
Die Breite der Speicherschnittstelle wird seit etwa 15 Jahren überschätzt - es zählt, was unterm Strich herauskommt.

MfG,
Raff

Godmode
2015-03-09, 10:03:12
Das Problem ist das NV immer am SI sparrt. Mir wäre die Titan X mit 512bit SI und 8GB Speicher lieber, die 580 GTX hätte auch 512 bit und 2GB vertragen können. Für die 980er hingegen wäre das 384bit und 6GB ideal gewesen. Gleiches gilt für 680 mit 3GB usw....
Bei AMD passt das immer bessser.

384 bit passen wohl besser zu 6 GPCs als 512.

Sunrise
2015-03-09, 10:18:57
Nein, Hautpsache sie ist die schnellste. ;)
Mir reicht die Leistung einfach nicht, Spiele wie AC:U müssen mit konstanten 60 fps laufen.

Rational ist übrigens ein Wort das ich im Zusammenhang mit meinen Hobbys nie verwendet habe und das auch gar nicht will...wer Spaß haben will muss Scheine fliegen lassen.
Vor allem relativierte sich der Preis in der Vergangenheit auch immer, wenn bestimmte dGPUs gekauft wurden. Leider gibt NV heutzutage oft die Limits vor, statt alles voll auszufahren und direkt zu verkaufen. Ansonsten würden einige mehr die großen Scheinchen locker machen, wenn es dafür auch Leistung satt gibt.

Das Problem ist das NV immer am SI sparrt.
Darüber brauchen wir uns ja bald keine Sorgen mehr machen. Denn bald gibt es nicht nur eine deutlich bessere Fertigung bei dGPUs, sondern auch zusätzlich noch maximales Transistorbudget für die Recheneinheiten, mit zusätzlich fetter Bandbreite. Wenn das alles passt wie erhofft, würde ich dann auch mal wieder >1000 EUR auf den Tisch legen.

Palpatin
2015-03-09, 11:00:48
Die Breite der Speicherschnittstelle wird seit etwa 15 Jahren überschätzt - es zählt, was unterm Strich herauskommt.

MfG,
Raff
Die Breite ist ja net so das Problem sonder die daraus resultierende Menge.
Wie schon geschrieben hätte ich lieber eine:
580 mit 2GB gehabt, eine 680 mit 3GB und eine 780 mit 4GB, auf die 980 hab ich bisher verzichtet aber wäre die mit 6GB gekommen wäre sie schon im Rechner.

BlacKi
2015-03-10, 10:15:55
580 mit 2GB gehabt, eine 680 mit 3GB und eine 780 mit 4GB, auf die 980 hab ich bisher verzichtet aber wäre die mit 6GB gekommen wäre sie schon im Rechner.
dann wären die karten aber auch deutlich teurer. nicht wegen der etwas größeren chipfläche sondern wegen des teureren speichers. dabei ist nvidia jetzt schon deutlich teurer.

Palpatin
2015-03-10, 10:30:53
dann wären die karten aber auch deutlich teurer. nicht wegen der etwas größeren chipfläche sondern wegen des teureren speichers. dabei ist nvidia jetzt schon deutlich teurer.
Aktuell kosten 4 GB mehr bei der 290x etwa 50€ Aufpreis -> GTX 980 wäre ca 25€ teurer mit 6GB? wow schlimm.
Ich denk das die Speichermengen bei NV bewusst klein gehalten werden damit die Kunden öfter aufrüsen.
Hätte man die 780er mit 4 oder 6 GB gebracht wäre kaum einer von der 780er bzw der 780 ti zur 970 bzw 980 gewechselt.

BlacKi
2015-03-10, 10:33:36
Die Breite der Speicherschnittstelle wird seit etwa 15 Jahren überschätzt - es zählt, was unterm Strich herauskommt.

MfG,
Raff
wenn ich teste was unter dem strich rauskommt wünsche ich mir mehr bandbreite. wenn ich die fps bei 500mhz untertakt und mit 400mhz übertakt vergleiche stehen 30 vs 35 fps. 15% mehr leistung, bei etwas über 20% mehr bandbreite.

Aktuell kosten 4 GB mehr bei der 290x etwa 50€ Aufpreis -> GTX 980 wäre ca 25€ teurer mit 6GB? wow schlimm.
Ich denk das die Speichermengen bei NV bewusst klein gehalten werden damit die Kunden öfter aufrüsen.
Hätte man die 780er mit 4 oder 6 GB gebracht wäre kaum einer von der 780er bzw der 780 ti zur 970 bzw 980 gewechselt.
der speicher der 290 ist billiger als der der 980 zumal mehr bandbreite auch den chip teurer macht. ich würde eher auf 75-100€ kosten aufpreis tippen. zumal eine 980 mit 8gb fast genauso teuer wäre wie eine 6gb mit 384bit. zum anderen wäre dann ein kleiner gm200 unnötig.

Palpatin
2015-03-10, 10:45:37
der speicher der 290 ist billiger als der der 980 zumal mehr bandbreite auch den chip teurer macht. ich würde eher auf 75-100€ kosten aufpreis tippen. zumal eine 980 mit 8gb fast genauso teuer wäre wie eine 6gb mit 384bit. zum anderen wäre dann ein kleiner gm200 unnötig.
Durch breitere SI wie es AMD macht könnte man halt auch immer günstigeren Speicher nehmen. Die Bandbreite ist ja eh nicht das Problem. Glaub nicht das eine Hypothetische 980 mit 384bit 6gb viel teurer wäre.

Thunder99
2015-03-10, 10:50:48
Ich behaupte mal der Aufpreis der Karte spiegelt nicht die Mehrkosten wieder. Und langsamerer Speicher muss nicht unbedingt viel günstiger sein wenn dieser weniger oft produziert wird ;)

BlacKi
2015-03-10, 11:01:30
Glaub nicht das eine Hypothetische 980 mit 384bit 6gb viel teurer wäre.

in der herstellung nicht, aber nvidia würde seinen aufschlag anteilsmäßig draufschlagen.

ich glaube auch nicht das das so eben mal machbar wäre, es hat seinen grund warum die chips eine feste aufteilung gm 128bit gm204 256bit gm200 384bit. ein 400mm² chip mit 384bit wäre nicht so einfach und vorallendingen nicht nachtträglich machbar. das hätte man im vorhinein planen müssen und das würde sich auf gm206 und gm200 auswirken.

Florida Man
2015-03-10, 11:02:18
Ich will Preise sehen. Und ein Verfügbarkeitsdatum. Ich habe noch immer einen 907 Euro Hardware-Gutschein. Wehe, wenn der nicht reicht :usad:

BlacKi
2015-03-10, 11:12:45
musste schon knapp 500€ drauflegen XD

Troyan
2015-03-10, 13:18:41
http://pctuning.tyden.cz/images/stories/GM200_small.png
http://pctuning.tyden.cz/component/content/article/1-aktualni-zpravy/33665-geforce-gtx-titan-x-1-ghz-35-procent-nad-gtx-980

Von hier: http://forums.anandtech.com/showthread.php?t=2424016

PHuV
2015-03-10, 13:21:58
Warum hast Du nicht gleich das Bild gepostet:

http://cdn.videocardz.com/1/2015/03/GeForce-GTX-TITAN-X-3DMark11-EX.png

Hier sehe ich einen Unterschied von normaler GTX 980 mit 71% zu normaler Titan X mit 100% 29 % Unterschied.

Also eher nix 40% Differenz. Und wenn man, wie ich, eine per Werk übertaktete 980er hat, dann schrumpft sogar der Vorsprung auf 21%.

Troyan
2015-03-10, 13:24:05
Empfand ich nicht als interessant. 3DMark eben.

1000Mhz bei 8,1 Mrd Transistoren ist eine ziemliche Hausnummer.

/edit: Base-Clock ist auch 1000MHz zu 1124MHz. Dieser 11,24% höhere Base-Clock der GTX980 erklärt auch den "nur" 35% Vorsprung. In bandbreitenlimitierten Situationen wird es bis zu 50% sein.
Ein Tod muss eben gestorben werden...

dargo
2015-03-10, 13:26:35
Warum hast Du nicht gleich das Bild gepostet:

http://cdn.videocardz.com/1/2015/03/GeForce-GTX-TITAN-X-3DMark11-EX.png

Kann es sein, dass dort ein bissel Blödsinn gebencht wurde? Anders kann ich mir den Wert der R9 295X2 und R9 290X nicht erklären.

PHuV
2015-03-10, 13:27:42
Kann es sein, dass dort ein bissel Blödsinn gebencht wurde? Anders kann ich mir den Wert der R9 295X2 und R9 290X nicht erklären.
Kann sein, die ich hab die Grafik einfach von Troyans Post übernommen:

http://pctuning.tyden.cz/images/stories/GM200_small.png
http://pctuning.tyden.cz/component/content/article/1-aktualni-zpravy/33665-geforce-gtx-titan-x-1-ghz-35-procent-nad-gtx-980

Von hier: http://forums.anandtech.com/showthread.php?t=2424016
Hier gibts noch mehr Ergebnisse, aber auch nur 3DMark

http://videocardz.com/55013/nvidia-geforce-gtx-titan-x-3dmark-performance

MadManniMan
2015-03-10, 13:30:29
Hier sehe ich einen Unterschied von normaler GTX 980 mit 71% zu normaler Titan X mit 100% 29 % Unterschied.

Also eher nix 40% Differenz. Und wenn man, wie ich, eine per Werk übertaktete 980er hat, dann schrumpft sogar der Vorsprung auf 21%.

100/71= ... :freak:

Rampage 2
2015-03-10, 13:32:19
http://pctuning.tyden.cz/images/stories/GM200_small.png


7GHz GDDR5 :(:(:(

Glaubt ihr, dass später dieses Jahr noch Revisionen mit 8Gbps (8GHz GDDR5) und evtl. noch höherem Chiptakt (1.1+ GHz) nachfolgen werden, genau so wie es bei der GTX 770 der Fall war?

R2

Radeonfreak
2015-03-10, 13:32:28
Ich hab knapp 6300 mit meiner 980. Für ne Karte die das doppelte kostet...ich weiß nicht. :uponder:

dargo
2015-03-10, 13:32:38
Hier gibts noch mehr Ergebnisse, aber auch nur 3DMark

http://videocardz.com/55013/nvidia-geforce-gtx-titan-x-3dmark-performance
Oh, jetzt doch "nur" eine UVP von 999$? Ist ja schon fast gnädig von NV? :tongue:

PHuV
2015-03-10, 13:32:38
100/71= ... :freak:
Jetzt mach es nicht unnötig kompliziert. :freak: Du weißt doch, wie es gemeint ist. ;)

PHuV
2015-03-10, 13:39:31
Oh, jetzt doch "nur" eine UVP von 999$? Ist ja schon fast gnädig von NV? :tongue:
Wie groß war denn nochmal die Differenz 780 zu Titan? :confused: Habs gerade nicht im Kopf.

Nakai
2015-03-10, 13:45:21
Mhh, das ist jetzt Titan X? Beeindruckend im Vergleich zu einer "Stock" GTX 980. Im Schnitt ~30%+, was vollkommen den Erwartungen entspricht. Es ist dennoch sonderbar, da man eine Stock GTX 980 niemals erwerben würde, weil es einfach keinen Sinn macht. Im Schnitt also etwa 20~30% vor einer GTX 980.

€:
Oh, jetzt doch "nur" eine UVP von 999$? Ist ja schon fast gnädig von NV? :tongue:

Ob man nicht etwas von Fiji mitbekommen hat. Schade, dass Fiji eher mit der GTX 980 konkurrieren muss.

boxleitnerb
2015-03-10, 14:06:27
Warum hast Du nicht gleich das Bild gepostet:

http://cdn.videocardz.com/1/2015/03/GeForce-GTX-TITAN-X-3DMark11-EX.png

Hier sehe ich einen Unterschied von normaler GTX 980 mit 71% zu normaler Titan X mit 100% 29 % Unterschied.

Also eher nix 40% Differenz. Und wenn man, wie ich, eine per Werk übertaktete 980er hat, dann schrumpft sogar der Vorsprung auf 21%.

bitte löschen

Godmode
2015-03-10, 14:08:12
7GHz GDDR5 :(:(:(

Glaubt ihr, dass später dieses Jahr noch Revisionen mit 8Gbps (8GHz GDDR5) und evtl. noch höherem Chiptakt (1.1+ GHz) nachfolgen werden, genau so wie es bei der GTX 770 der Fall war?

R2

Nein, frühestens in einem Jahr, als Titan X Black oder so. Kommt dann drauf an wie schnell GP204 wird, dann könnte es nämlich sein, das eine Titan X Black nicht mehr recht sinnvoll ist.

Oh, jetzt doch "nur" eine UVP von 999$? Ist ja schon fast gnädig von NV? :tongue:

Wie ich schon vermutet habe. Bei der GTX 980 wurde ein ähnliches Spiel getrieben. Zuerst Fantasiepreisspekus in den Foren injecten und dann doch billiger Launchen und alle laufen los und kaufen schön brav. :D

mironicus
2015-03-10, 14:08:27
AMD hat dann vielleicht doch noch gute Chancen mit Fiji an die GM200-Leistung heran zu kommen.

akuji13
2015-03-10, 14:10:08
Das hoffe ich doch sehr, möchte was gleichwertiges neben der X betreiben.

aufkrawall
2015-03-10, 14:11:58
AMD hat dann vielleicht doch noch gute Chancen mit Fiji an die GM200-Leistung heran zu kommen.
"hat dann doch"?
Hat sich nun irgendwas geändert? GM200 ist bei gleichem Takt offenbar an die 50% schneller als GM204.
Was hast du denn erwartet?

Blediator16
2015-03-10, 14:12:29
Der Leak von AMDs Karten von einigen Monaten kommt auf ähnliche Werte wie hier.

mironicus
2015-03-10, 14:16:38
Wie würdet ihr euch denn entscheiden? Zum Beispiel wenn folgendes zutrifft:
Fiji, 4 GB für 450-500 Euro (mit annäherend GM200-Leistung und noch unbekannten Leistungsvorteilen durch HBM und anderen Dingen die noch nicht vorherzusagen sind).
GM200, 12 GB für 1000+ Euro.

Ist wohl wahrscheinlich dass NVidia noch eine 6 GB-Version bringt die mit Fiji konkurriert.

dildo4u
2015-03-10, 14:18:44
Kann es sein, dass dort ein bissel Blödsinn gebencht wurde? Anders kann ich mir den Wert der R9 295X2 und R9 290X nicht erklären.
Der Test ist unbrauchbar kein Plan warum das gepostet wird der Bench ist 4 Jahre alt.

akuji13
2015-03-10, 14:19:07
Wie würdet ihr euch denn entscheiden?

Für beides. :D

Kartenlehrling
2015-03-10, 14:45:58
Ich kann diese 100% SLI-Skalierung nicht glauben.

Rampage 2
2015-03-10, 14:47:27
Nein, frühestens in einem Jahr, als Titan X Black oder so. Kommt dann drauf an wie schnell GP204 wird, dann könnte es nämlich sein, das eine Titan X Black nicht mehr recht sinnvoll ist.


Pascal kommt doch bereits Anfang 2016:freak: - also müsste eine GM200-Revision spätestens im Herbst 2015 rauskommen, damit es Sinn macht...

R2

Raff
2015-03-10, 14:48:03
Wie groß war denn nochmal die Differenz 780 zu Titan? :confused: Habs gerade nicht im Kopf.

Im Mittel ist die Titan nur zehn Prozent schneller. Aber die GTX 780 kam nach der Titan, die Wahl bestand nicht sofort.

Ich kann diese 100% SLI-Skalierung nicht glauben.

Wenn SLI mal ordentlich skaliert, dann im 3D Mark. Sonst eher nicht. ;)

MfG,
Raff

maximus_hertus
2015-03-10, 14:49:53
Sicher das Pascal schon Anfang 2016 kommt? Ich würde eher von Sommer 2016 ausgehen.

aufkrawall
2015-03-10, 14:58:40
Wenn SLI mal ordentlich skaliert, dann im 3D Mark. Sonst eher nicht. ;)

Was die Karte angesichts von Pascal und wohl einem günstigeren Salvage relativ sinnfrei macht.

Raff
2015-03-10, 15:00:17
Die Titan X ist wegen Pascal sinnlos? :|

MfG,
Raff

aufkrawall
2015-03-10, 15:03:13
Die Titan X ist wegen Pascal sinnlos?

MfG,
Raff
Das Argument von Titan mit 6GB war die Langlebigkeit.
Die X wird aber hoffnungslos langsam im Vergleich zu Pascal sein, und wenn der schon in ca. einem Jahr kommt, wohl mit 8GB HBM o.ä....

Ja, in Anbetracht des kommenden Salvages ist die Titan X imho weitestgehend sinnfrei, wenn sich der Performanceunterschied wie bei 780 -> Titan verhält.

PHuV
2015-03-10, 15:06:33
Im Mittel ist die Titan nur zehn Prozent schneller. Aber die GTX 780 kam nach der Titan, die Wahl bestand nicht sofort.
Die Situation haben wir ja aktuell auch. Aber das würde ja bedeuten, wenn die Karten für 999 € zu kaufen wäre, sie ein besseres P/L-Verhältnis bieten wurde als 780 zu Titan seinerzeit.

780 (~600 €) zu Titan (999 €) 10%
980 (~600 €) zu Titan X (999 €) anvisierte 30-40%

Spekulativ würde ich hier zu einem wesentlich höheren Preis tendieren, den Nividia machen wird.

M4xw0lf
2015-03-10, 15:08:43
Die Situation haben wir ja aktuell auch. Aber das würde ja bedeuten, wenn die Karten für 999 € zu kaufen wäre, sie ein besseres P/L-Verhältnis bieten wurde als 780 zu Titan seinerzeit.

780 (~600 €) zu Titan (999 €) 10%
980 (~600 €) zu Titan X (999 €) anvisierte 30-40%

Spekulativ würde ich hier zu einem wesentlich höheren Preis tendieren, den Nividia machen wird.

Die GTX980 ist aber auch nicht der Counterpart zur GTX780, ne. GM200-salvage wird diesen Platz einnehmen, und natürlich auch erst nach der Titan X erscheinen.

Palpatin
2015-03-10, 15:12:21
Die Situation haben wir ja aktuell auch. Aber das würde ja bedeuten, wenn die Karten für 999 € zu kaufen wäre, sie ein besseres P/L-Verhältnis bieten wurde als 780 zu Titan seinerzeit.

780 (~600 €) zu Titan (999 €) 10%
980 (~600 €) zu Titan X (999 €) anvisierte 30-40%

Spekulativ würde ich hier zu einem wesentlich höheren Preis tendieren, den Nividia machen wird.
Es gab keine 780 zum Titan release. Du musst schauen wie sich damals die Titan zur 680 verhalten hat wenn du das auf die 980 ummünzen willst.

PHuV
2015-03-10, 15:15:26
Verstehe ich jetzt nicht? :confused:

Es kam eine 780, danach folgte Titan, und darauf die 780 TI., ne, war doch umgekehrt. Stimmt, Titan kam erst ca. 9 Monate später, TI nach 6 Monaten.
Es gab keine 780 zum Titan release. Du musst schauen wie sich damals die Titan zur 680 verhalten hat wenn du das auf die 980 ummünzen willst.
Das verstehe ich noch weniger? Warum ist die Titan zur 680 zu sehen und nicht zu 780er?

derguru
2015-03-10, 15:21:28
Wie würdet ihr euch denn entscheiden? Zum Beispiel wenn folgendes zutrifft:
Fiji, 4 GB für 450-500 Euro (mit annäherend GM200-Leistung und noch unbekannten Leistungsvorteilen durch HBM und anderen Dingen die noch nicht vorherzusagen sind).
GM200, 12 GB für 1000+ Euro.

Ist wohl wahrscheinlich dass NVidia noch eine 6 GB-Version bringt die mit Fiji konkurriert.

ich entscheide mich für noch ne runde warten denn 4gb Fiji ist einfach zuwenig, ich hoffe sie kommt gleich mit 8gb für ~600€.

es sei denn die titan gibts für ~700€ ^^

M4xw0lf
2015-03-10, 15:23:55
Verstehe ich jetzt nicht? :confused:

Es kam eine 780, danach folgte Titan, und darauf die 780 TI., ne, war doch umgekehrt. Stimmt, Titan kam erst ca. 9 Monate später, TI nach 6 Monaten.

Das verstehe ich noch weniger? Warum ist die Titan zur 680 zu sehen und nicht zu 780er?

Titan: GK110; GTX 780: GK110; GTX 680: GK104

Titan X: GM200; Titan-salvage: GM200; GTX 980: GM204

Gleiche GPU vs. nicht gleiche GPU ;)

Godmode
2015-03-10, 15:25:03
Wie würdet ihr euch denn entscheiden? Zum Beispiel wenn folgendes zutrifft:
Fiji, 4 GB für 450-500 Euro (mit annäherend GM200-Leistung und noch unbekannten Leistungsvorteilen durch HBM und anderen Dingen die noch nicht vorherzusagen sind).
GM200, 12 GB für 1000+ Euro.

Ist wohl wahrscheinlich dass NVidia noch eine 6 GB-Version bringt die mit Fiji konkurriert.

Ich kaufe sicher keine 4 GB Karte, egal wie billig sie ist. Ich habe jetzt schon 4 GB Karten und komme damit öfter ins VRAM Limit.

robbitop
2015-03-10, 15:26:28
"hat dann doch"?
Hat sich nun irgendwas geändert? GM200 ist bei gleichem Takt offenbar an die 50% schneller als GM204.
Was hast du denn erwartet?
Eher weniger als +50%, da GM200 offenbar niedriger taktet.

Mehr geht halt in 28 nm nicht, wie du schon sagst.

Bis GP200 kommt, wird NV aber sicher nochmal eine Weile vergehen lassen. GP204 hingegen ist vermutlich (wenn man in die Vergangenheit schaut) zwischen 10 und 30 % schneller als GM200. Damit sich die Salamitaktik für NV lohnt, wird aber auch GP204 eine Weile auf sich warten lassen. Ich würde auf H2 2016 für GP204 und H1 2017 für GP200 tippen.

Die Zeiten der kurzen Zyklen sind vorbei.

M4xw0lf
2015-03-10, 15:27:15
Eher weniger als +50%, da GM200 offenbar niedriger taktet.
Er schrob doch "bei gleichem Takt" :D

Godmode
2015-03-10, 15:28:17
Eher weniger als +50%, da GM200 offenbar niedriger taktet.

Mehr geht halt in 28 nm nicht, wie du schon sagst.

Bis GP200 kommt, wird NV aber sicher nochmal eine Weile vergehen lassen. GP204 hingegen ist vermutlich (wenn man in die Vergangenheit schaut) zwischen 10 und 30 % schneller als GM200. Damit sich die Salamitaktik für NV lohnt, wird aber auch GP204 eine Weile auf sich warten lassen. Ich würde auf H2 2016 für GP204 und H1 2017 für GP200 tippen.

Die Zeiten der kurzen Zyklen sind vorbei.

H1 2017 für GP200 passt gut. Das wären dann wieder genau zwei Jahre zwischen GM200 und seinem Nachfolger. Den Vorgänger GK110 gabs ja auch vor etwas zwei Jahren.

blaidd
2015-03-10, 15:37:42
Ich kaufe sicher keine 4 GB Karte, egal wie billig sie ist. Ich habe jetzt schon 4 GB Karten und komme damit öfter ins VRAM Limit.

Ja, 4 GiByte ist schon relativ knapp. 12 GiByte halte ich aber auch für Schwachfug. 6 bis 8 wären wohl optimal auch mit Blick auf die Zukunft und auf hohe Auflösungen wie Ultra-HD. Momentan kann man mit 12 GiByte in Spielen nichts anfangen und ich halte es auch für relativ unwahrscheinlich, dass mehr als 8 in den nächsten 2 Jahren einen deutlichen Vorteil bringen würden. Ein Einsatzgebiet wäre eventuell SLI mit 2+ GPUs, um mehrere UHD-Displays zu befeuern. Dann könnte der Speicherbedarf eventuell in Zukunft(!) die 8 GiByte überschreiten.

Bis 8 GiByte wirklich sinnvoll werden (vorausgesetzt, es gibt auch GPUs mit 6 GiByte, also mehr als 4 und weniger als 8), ist aber sicher schon die nächste Generation Grafikkarten erschienen, die wiederum performanter als die Titan sind. Ich denke einfach, 8 GiByte und 200 Euro weniger hätten's auch getan - Aber das ist ja auch ne Titan ;)

y33H@
2015-03-10, 15:42:29
8 GB ist halt bissi blöd bei 384 Bit und 6 GB sind für die Ti reserviert ;-)

fondness
2015-03-10, 15:43:25
Too late bitte löschen.

bertramfx
2015-03-10, 15:43:32
Ob in Spielen jetzt 12 GB nötig sind oder nicht: bei den heutigen Speicherpreisen und in Relation dieser zum Gesamtpreis der Karte ist dies das Mindeste was man erwarten kann.

HisN
2015-03-10, 15:47:01
Bei Cuda-Anwendungen (hier z.b. Blender als Beispiel) ist die Rechnen-Leistung direkt abhängig von der verbauten Speicher-Menge. (Gibts hier übrigens ein wundervollen Bench-Thread im Forum)
Meint: Ich muss ein Bild nicht mehr in 8 Schritten berechnen, sondern eventuell nur in 4en. Und schon ist es deutlich schneller fertig.

Die Leute die immer "schwachfug" als Argument bringen, haben blos keine Anwendung für so viel Speicher.

Muss man ja dann nicht kaufen.
Aber hauptsache man hat mal Schwachfug gesagt :-(

Godmode
2015-03-10, 15:50:15
Ja, 4 GiByte ist schon relativ knapp. 12 GiByte halte ich aber auch für Schwachfug. 6 bis 8 wären wohl optimal auch mit Blick auf die Zukunft und auf hohe Auflösungen wie Ultra-HD. Momentan kann man mit 12 GiByte in Spielen nichts anfangen und ich halte es auch für relativ unwahrscheinlich, dass mehr als 8 in den nächsten 2 Jahren einen deutlichen Vorteil bringen würden. Ein Einsatzgebiet wäre eventuell SLI mit 2+ GPUs, um mehrere UHD-Displays zu befeuern. Dann könnte der Speicherbedarf eventuell in Zukunft(!) die 8 GiByte überschreiten.

Bis 8 GiByte wirklich sinnvoll werden (vorausgesetzt, es gibt auch GPUs mit 6 GiByte, also mehr als 4 und weniger als 8), ist aber sicher schon die nächste Generation Grafikkarten erschienen, die wiederum performanter als die Titan sind. Ich denke einfach, 8 GiByte und 200 Euro weniger hätten's auch getan - Aber das ist ja auch ne Titan ;)

Also ich bin froh das nicht nur 6 GiByte verbaut werden. Das könnte in einem Jahr schon wieder in manchem Titel für einen Engpass sorgen. Speicher ist billig, daher passt das schon mit den 12 GiByte.

Ob in Spielen jetzt 12 GB nötig sind oder nicht: bei den heutigen Speicherpreisen und in Relation dieser zum Gesamtpreis der Karte ist dies das Mindeste was man erwarten kann.

+1

Btw, die Reviewer dürften schon unter NDA stehen, weil der Leak von Videocardz nirgends als News aufscheint. :tongue:

blaidd
2015-03-10, 15:53:22
@HisN: Sorry, ich meinte das rein auf Spiele bezogen. Ist klar, dass mehr RAM in professionellen Settings mehr Sinn machen. Ich will ja auch gar nicht flamen, das dürfte schon eine ziemlich nette Karte werden, ich seh halt nur einen begrenzten Nutzen dahinter ;-)

horn 12
2015-03-10, 15:54:26
So wird wohl keine allzugroße Kluft zwischen Titan X und R9 390X klaffen, ausser dem Preis.
Dann kann man (ich) froh sein doch eine Sapphire R9 290 Tri-X New Edition gekauft zu haben und auf die Neue Fertigung 2016 bei AMD/ NV zu warten.

Unter ca. 650 Euro werden wir wohl keinen Fiji Vollausbau mit 8GB HBM sehen.

HisN
2015-03-10, 16:03:31
@HisN: Sorry, ich meinte das rein auf Spiele bezogen. Ist klar, dass mehr RAM in professionellen Settings mehr Sinn machen. Ich will ja auch gar nicht flamen, das dürfte schon eine ziemlich nette Karte werden, ich seh halt nur einen begrenzten Nutzen dahinter ;-)


Sorry, ich bin auch manchmal zu harsch, es werden einfach zu viele Kraftwörter benutzt^^

Persönliche Meinung: Ich sehe schon in einigen Games die 6GB die ich jetzt habe voll ausgenutzt. Bei mir ist die Sicht auf das VRAM genau die gleiche wie auf Systemram. Man kann gar nicht genug haben, ungenutzter Speicher ist unnützer Speicher. Bitte liebe Entwickler, haut das VRAM dicht wie es nur geht, denn alles was im VRAM liegt, muss nicht aus dem Systemram oder von der Platte geholt werden. Man sieht ja z.b. an Star-Citizen das exzessiv Streaming benutzt, das es grausam ist, wie sich Layer für Layer Textur-Details aufbauen während das System beim streamen zusammenbricht (klar, Alpha-Build, aber das wird doch eher noch mehr Datenalarm bekommen, als weniger^^).

Dann lieber weniger Streaming und mehr im VRAM halten.
Besonders für die 4K-Fraktion interessant.


Shadow of Mordor, Settings: So hoch als möglich, Bewegungsunschärfe und Antialiasing aus. FPS: 60. VRAM-Nutzung schon im Lade-Screen: 6GB
http://abload.de/thumb/shadowofmordor_2015_0c9uzt.jpg (http://abload.de/image.php?img=shadowofmordor_2015_0c9uzt.jpg) http://abload.de/thumb/shadowofmordor_2015_0zwu74.jpg (http://abload.de/image.php?img=shadowofmordor_2015_0zwu74.jpg)

Lords of the Fallen, Settings: so hoch wie möglich, kein Regler für Anti-Aliasing vorhanden. FPS: 50. VRAM-Nutzung schon im Lade-Screen: 6GB
http://abload.de/thumb/lordsofthefallen_20159xy93.jpg (http://abload.de/image.php?img=lordsofthefallen_20159xy93.jpg) http://abload.de/thumb/lordsofthefallen_2015axaty.jpg (http://abload.de/image.php?img=lordsofthefallen_2015axaty.jpg)

Und da ist die Rohleistung noch kein Problem, bei meinen "langsameren" Karten.

boxleitnerb
2015-03-10, 16:10:38
Nutzung sagt doch gar nichts über die tatsächlich benötigte Menge aus, so dass es zu keinen Nachladerucklern kommt. Deine Arbeit mit den Screens seit Jahren in allen Ehren, aber IMO völlig nutzlos ohne weitergehende Analysen im Spiel.

aufkrawall
2015-03-10, 16:12:06
Das Spiel ruckelt jedenfalls mit nur 4GB und Ultra-Texturen.
Für so einen Schrott ist mehr VRAM nie verkehrt. Würd ich sicher 50€ Aufpreis für bezahlen.

Aber nicht 500.

boxleitnerb
2015-03-10, 16:20:29
Das Spiel ruckelt jedenfalls mit nur 4GB und Ultra-Texturen.
Für so einen Schrott ist mehr VRAM nie verkehrt. Würd ich sicher 50€ Aufpreis für bezahlen.

Aber nicht 500.

Siehst du, das meine ich mit weitergehender Analyse. Sagt mir 100x mehr als eine nackte Zahl auf einem Overlay.

Rampage 2
2015-03-10, 16:22:11
Eher weniger als +50%, da GM200 offenbar niedriger taktet.

Mehr geht halt in 28 nm nicht, wie du schon sagst.

Ich würde auf H2 2016 für GP204 und H1 2017 für GP200 tippen.

Die Zeiten der kurzen Zyklen sind vorbei.

H2 2016 (Juli< 2016) für GP204 ? :eek::eek::eek:

Wäre Q2 2016 (März - Mai 2016) nicht realistischer? Schließlich kommt Volta wahrscheinlich H1 2017 und GP200 wird wohl wieder ein halbes Jahr später (Q3 oder Q4 2016) nach GP204 erscheinen...

R2

HisN
2015-03-10, 16:27:26
@boxleitnerb
Was ist schneller: Daten aus dem VRAM benutzen, oder Daten aus dem RAM holen?
Ganz logisch gedacht.

Mir ist es völlig WUMPE ob die Daten "nötig" sind. Ich weiß das der Zugriff aufs Systemram, sobald Daten NICHT im VRAM liegen Zeit kosten. Also bitte alle Daten ins VRAM, so das nicht mehr als nötig auf das SysRAM zugegriffen werden muss. Da könnt ihr mir 100x mit "nötig" und nicht nötig kommen. Wie erfasst man die winzigen Nachlade-Ruckler in Benches? Gar nicht? Da muss doch erst ein Redakteur kommen der Zeit hat um das auch mal zu vergleichen. Hat nur keiner. Also kommt (meiner Meinung nach) das mit "benutzen" und "nötig" zusammen. Ich glaube nicht das Daten "umsonst" ins VRAM geladen werden.

Wenn ich durch das Plus an RAM einen Zugriff auf das Sytemram oder sogar die HDD unterdrücken kann, dann ist es mir das Wert, weil es eventuell ein Ruckler (und wenn es nur ein winziger ist) verhindert.
Sicherlich läuft das ganze bestimmt auch ansprechend mit weniger VRAM, da will ich gar nicht widersprechen. Da hast Du recht. Die Frage ist doch immer ... will ich kleine Nachlade-Ruckler oder will ich sie nicht? Ab wann bemerke ich sie? Kommen sie vom VRAM? Werden es weniger wenn mehr VRAM vorhanden ist? Ist es mir das Wert, so dass ich Geld dafür in die Hand nehmen? Bin ich Ruckler in Games schon so sehr gewohnt (sei es durch die Engine oder sonstwas), dass mich kleine Ruckler gar nicht mehr stören, weil ich es ohne sowieso noch nie gesehen habe? Muss jeder mit sich selbst ausmachen.
Und am Ende hat jedes Game ein paar Regler, mit denen man den VRAM-Gebrauch einstellen kann (sei es nun Textur-Größe, Objekt-Anzahl oder Anti-Aliasing-Methode) es wird sich ausgehen. Die Diskussion über die Textur-Menge ist meiner Meinung nach umsonst.
Es wird Leute geben, die eine bestimmte Menge an VRAM honorieren, und es wird Leute geben die das nicht tun.
Meine Screens sind immer nur "wird benutzt" und nie "wird benötigt". Mangels kleinerer Graka kann (und will) ich das nicht nachprüfen.
Aber wie gesagt ... ich glaube nicht dass VRAM "umsonst" belegt wird.

Und da hilft auch Streaming nicht wirklich. Schau Dir Star Citizen an. Du kannst zusehen wie jeder Layer der Texturen gestreamt wird. Das ist grausam :-)

boxleitnerb
2015-03-10, 16:39:19
Du hast den Hintergrund meiner Anmerkung nicht verstanden - es können auch Daten gecached werden, die nie gebraucht werden oder in unkritischen Phasen nachgeladen werden. Das kann die VRAM belegt Anzeige nicht differenzieren.

Du glaubst, du weißt aber nicht, und jede Engine tickt anders. Aussagekräftig sind dann für mich nur Nutzerberichte wie z.B. von Krawall, denn das ist es letztendlich, was man wahrnimmt.

Rampage 2
2015-03-10, 16:41:28
@boxleitnerb

Mir ist es völlig WUMPE ob die Daten "nötig" sind. Ich weiß das der Zugriff aufs Systemram, sobald Daten NICHT im VRAM liegen Zeit kosten. Also bitte alle Daten ins VRAM, so das nicht mehr als nötig auf das SysRAM zugegriffen werden muss.

Wenn ich durch das Plus an RAM einen Zugriff auf das Sytemram oder sogar die HDD unterdrücken kann, dann ist es mir das Wert, weil es eventuell ein Ruckler (und wenn es nur ein winziger ist) verhindert.


Ich glaube, die Zeit ist gekommen, wieder neue Kompressionsformate für Texturen zu entwickeln;)

Denn die Mainstream-User (150 - 300€) und auch die HighEnd-User (400 - 600€) werden auch in den nächsten Jahren mit nur 4GB, im (preisbezogen) optimalsten Fall höchstens 6GB (192/384Bit SI) oder 8GB (128/256Bit SI) VRAM auskommen müssen - da kann man von den Usern nicht endlos erwarten, ständig die VRAM Menge zu erhöhen.

Sind eigentlich schon neue Textur-Formate in Entwicklung oder muss das VRAM-Problem erst darauf "aufmerksam" machen? ;D

R2

Palpatin
2015-03-10, 16:51:12
@boxleitnerb
Was ist schneller: Daten aus dem VRAM benutzen, oder Daten aus dem RAM holen?
Ganz logisch gedacht.

Mir ist es völlig WUMPE ob die Daten "nötig" sind. Ich weiß das der Zugriff aufs Systemram, sobald Daten NICHT im VRAM liegen Zeit kosten. Also bitte alle Daten ins VRAM, so das nicht mehr als nötig auf das SysRAM zugegriffen werden muss. Da könnt ihr mir 100x mit "nötig" und nicht nötig kommen. Wie erfasst man die winzigen Nachlade-Ruckler in Benches? Gar nicht? Da muss doch erst ein Redakteur kommen der Zeit hat um das auch mal zu vergleichen. Hat nur keiner. Also kommt (meiner Meinung nach) das mit "benutzen" und "nötig" zusammen. Ich glaube nicht das Daten "umsonst" ins VRAM geladen werden.

Ein ganz einfache Beispiel das das eben nicht Pauschal gültig ist:
Bei einer klassischen Level Aufteilung wäre es ziemlich egal ob das Spiel schon beim starten alle Level in den VRAM knallt oder nur den indem ich mich grade befinde. Im besten Fall sind die Ladezeiten zwischen den Level dann etwas kürzer, das ist mir aber keine 500 Euro wert.

Isen
2015-03-10, 17:13:24
ich glaube nicht dass VRAM "umsonst" belegt wird.

Weil es, es kann aber nicht muss?
Genau das meint er doch.. da sagt die Zahl im Overlay mal null aus, ob es bei z.B 4GB ebenso Problemlos läuft, oder nicht. Oder ob 6GB bereits für das identische Ergebnis sorgen.... wozu dann für 500€ mehr? ( Für Games wohlgemerkt )

PHuV
2015-03-10, 17:15:03
Meiner Meinung nach müssen wir vermutlich nicht lange warten, bis ein Spiel die vollen 12 GB VRAM verwenden wird. Sobald etwas da ist, wird es meistens auch schnell genutzt.

aufkrawall
2015-03-10, 17:17:09
Ob solche Allgemeinplätze der komplexen Welt des 3D-Renderings gerecht werden?

akuji13
2015-03-10, 17:23:48
wozu dann für 500€ mehr? ( Für Games wohlgemerkt )

Sicherheit.

Wenn ich Shadows of Mordor spiele weiß ich warum ich die Titan(s) habe.

Das das anderen nicht reicht für 1 oder ein paar Spiele mit geringen Unterschieden einen derartigen Aufpreis zu zahlen ist klar.

Jeder wie er mag, ich spare die 500€ an anderer Stelle ein.

fondness
2015-03-10, 17:23:57
Warum hast Du nicht gleich das Bild gepostet:

http://cdn.videocardz.com/1/2015/03/GeForce-GTX-TITAN-X-3DMark11-EX.png

Hier sehe ich einen Unterschied von normaler GTX 980 mit 71% zu normaler Titan X mit 100% 29 % Unterschied.

Also eher nix 40% Differenz. Und wenn man, wie ich, eine per Werk übertaktete 980er hat, dann schrumpft sogar der Vorsprung auf 21%.

Also genau wie erwartet, bei gleichem Takt im Idealfall (=perfekte Skalierung) 50% schneller als ein GM204.

Troyan
2015-03-10, 17:25:29
Weil es, es kann aber nicht muss?
Genau das meint er doch.. da sagt die Zahl im Overlay mal null aus, ob es bei z.B 4GB ebenso Problemlos läuft, oder nicht. Oder ob 6GB bereits für das identische Ergebnis sorgen.... wozu dann für 500€ mehr? ( Für Games wohlgemerkt )

Es sind 500€ mehr für ~50% (OC vs OC) mehr Leistung und 3x soviel Speicher.

cR@b
2015-03-10, 17:26:11
Meiner Meinung nach müssen wir vermutlich nicht lange warten, bis ein Spiel die vollen 12 GB VRAM verwenden wird. Sobald etwas da ist, wird es meistens auch schnell genutzt.

Spätestens SC im Herbst. :ugly:

Jetzt gehen wieder die Diskussionen los, ob die Karte Sinn macht oder nicht... :rolleyes: Wie habe ichs vermisst...

Blaire
2015-03-10, 17:28:46
Hier gibts noch mehr Ergebnisse, aber auch nur 3DMark

http://videocardz.com/55013/nvidia-geforce-gtx-titan-x-3dmark-performance

Die hätten mal besser Fire Strike Ultra nehmen sollen. In solchen Regionen will man schließlich wildern. ;)

Isen
2015-03-10, 17:31:16
Troyan,

50% ... im Traum.
Bisher sind nur die 3D Marks bekannt, und die sagen ja eher Gegenteiliges, aber die Werte ich gar nicht. Du allerdings Wertest aus irgendwelchen Dubiosen Quellen.

Das einzige was die 12GB bringen, sind wie, akuji13 anmerkt: Sicherheit. Ist ein Argument!

Wäre mir allerdings bereits zu viel, bevor diese Mengen Salonfähig sind ( oder überhaupt werden ) krepiert diese von der Leistung... dann lieber die Goldene Mitte 6-8GB!

Unterm Strich zahlt man in etwa gleich viel und hat dafür mehr Leistung als wenn man die X solange behält um die nächste Gen zu überspringen.

Botcruscher
2015-03-10, 17:33:05
8GB dürften auf jeden Fall ziemlich schnell Standard werden. Die Konsolenports werden schon gut fressen. AMD muss mit HBM mehr als 4GB bringen. In so einem Fall wird die TX nicht sonderlich alt werden. Alleine die Möglichkeiten mit schier unendlicher Bandbreite...

akuji13
2015-03-10, 17:43:06
Wäre mir allerdings bereits zu viel, bevor diese Mengen Salonfähig sind ( oder überhaupt werden ) krepiert diese von der Leistung... dann lieber die Goldene Mitte 6-8GB!

Ich halte dagegen.
Wurde bei den anderen Generationen auch immer behauptet und war auch immer falsch.

Der nächste Texturmod-Marathon alá Skyrim, dazu ein paar schlecht optimierte (weil unkomprimierte Texturen) Spiele und schwups ärgere ich mich die 500€ nicht bezahlt zu haben immer wenn ich dann mein Lieblingsspiel spielen will.

Nene, rational und Hobby passen mMn nicht zusammen. :D

Isen
2015-03-10, 17:46:43
Mir ist immer noch ich bezogen... etwaige Anwendungen, wie Skyrim interessieren mich nicht.

akuji13
2015-03-10, 17:48:43
Mir ist immer noch ich bezogen... etwaige Anwendungen, wie Skyrim interessieren mich nicht.

Wäre mir allerdings bereits zu viel, bevor diese Mengen Salonfähig sind ( oder überhaupt werden ) krepiert diese von der Leistung... dann lieber die Goldene Mitte 6-8GB!

Diese Aussage ist aber nicht ich bezogen. ;)

Was da kommt kann man nur vermuten, auch abseits von modding.

aufkrawall
2015-03-10, 17:50:42
Ich würds jetzt mal nicht übertreiben, bis 1600p kommt man bis auf Mordor eigentlich fast überall sehr gut mit maximalen Details und 4GB VRAM aus.

Die "großen" Engines werden nicht auf einmal zig GB zusätzlich brauchen.

akuji13
2015-03-10, 17:51:31
"Fast überall" ist wie "fast gesund".

Nicht zu gebrauchen.

aufkrawall
2015-03-10, 17:53:45
Man ist nie völlig gesund.

akuji13
2015-03-10, 17:55:13
Doch, solche Leute gibt es.

Aber da ich es nicht bin, ist das ein weiteres Argument die Kohle für maximalen Spaß rauszuhauen. :D
So rein auf mich bezogen. ;)

HisN
2015-03-10, 17:56:02
das ist mir aber keine 500 Euro wert.

Und darauf läuft die unsägliche Diskussion am Ende hinaus.
Persönliche Brieftaschenfüllung. Es geht gar nicht um den technischen Hintergrund, sondern nur wie voll oder leer die eigene Brieftasche ist, bzw. was man bereit ist zu honorieren. Und deshalb wird man nie auf einen Nenner kommen.

@aufkrawall
Ich hab bei Mordor schon in 5760x1080 bei 360°-Turns wunderbare Nachladeruckler mit 6GB gehabt. Ist allerdings nach einem Patch verschwunden. Wer weiß ob die da an der Engine oder an den Texturen geschraubt haben, oder ob ich einfach im Moment zu wenig Zeit für Mordor habe um mir die entsprechende Stelle im Game zu suchen.

Aber da brauch ich dann das Overlay tatsächlich nicht mehr. Es bestätigt nur das was ich "sehe".

@Boxleitnerb
Wenn ich mir das Streaming von der Crysis3-Engine z.b. in Star-Citizen angschaue. Wo ich bequem dabei zusehen kann wie sich Layer für Layer der Texturen aufbaut. BITTE. Da wünschte ich mir längere Level-Load-Zeiten und volleres VRAM.

Troyan
2015-03-10, 17:57:42
Bei nVidia gibt es doch nur 4GB und bald dann 12GB. Und 4GB sind bei einer GTX980 nah an der Kante gebaut. Eine GTX970 mit 3,5GB zeigt schon Probleme. Da sind 500MB kaum ausreichend, um fast überall keine zu haben.

Solange wie es keine andere nVidia-Karte mit mehr als 4Gb gibt, ist es eine ziemliche brotlose Diskussion.

von Richthofen
2015-03-10, 17:58:55
Ich glaube nicht das Daten "umsonst" ins VRAM geladen werden.

Man vergisst aber das bis heute nicht geklärte Phänomen des VRAM-Gates. Als Startpunkt lässt sich vllt. Titanfall anführen, welches trotz Uralt GameEngine schon unter FullHD mit 4xMSAA gleich 3-4GB belegt. Vorher waren 2GB (680 usw.) völlig ausreichend. Kaum jemand der ernsthaft höhere Mengen bei Non-MGPU Systemen empfohlen hätte. Weitere Titel folgten und heute knallt quasi jedes AAA-Game spätestens unter 1440p/1600p die 4 GB voll. Von schlagartig höherer Bildqualität hab ich nichts mitbekommen.
Das ganze wird sich wohl mehr oder weniger doch durch die eigentliche Herkunft der Spiele ("FullHD"-Konsolen) und deren HSA Feature erklären lassen. Optimieren die Entwickler eine PC-Version wirklich odentlich und trennen, nachdem der Code fertig, ist noch sauber nach Sys- und VRAM ? Ich bezweifle das. Glaub es war ein Ubi-Titel der belegte läppische 700 MB RAM bei gleichzeitiger VRAM-Auslastung von konstant > 3,5 GB. Zugegeben: Star Citizen hebelt die Argumentation ein weig aus.

Würde eher zu 8GB auf zukünftigen Grakas tendieren - das reicht dann locker um den Konsolen-RAM abzudecken und vllt. den ein oder anderen Texturmod zu betreiben. Die 12 GB sind bestimmt kaum nutzbar aber für eine Titan Pflicht.

8GB dürften auf jeden Fall ziemlich schnell Standard werden. Die Konsolenports werden schon gut fressen. AMD muss mit HBM mehr als 4GB bringen. In so einem Fall wird die TX nicht sonderlich alt werden. Alleine die Möglichkeiten mit schier unendlicher Bandbreite...

Auch angesichts der 12 GB von Titan-X braucht man unter 8 GB gar nicht erst um die Ecke kommen. 4 GB kann nach Titan-X kaum noch lange als High-End gelten können.

Die "großen" Engines werden nicht auf einmal zig GB zusätzlich brauchen.

Jetzt vllt. nicht gleich nochmal aber genau das haben doch alle Zocker gerade erst erlebt.

Isen
2015-03-10, 18:00:33
@akuji13,

doch.. irgendwie schon. Aber eben nur Vermutung, wie du ja schon sagst.
Ich gebe jedenfalls nicht 400-500€ mehr aus, damit ich statt 3K nun auf 4K zocken kann mit zich Mods. Der Teil der es will, der soll die Kohle halt hinblättern, ist schließlich seine Kohle.

HisN
2015-03-10, 18:05:02
Bei nVidia gibt es doch nur 4GB und bald dann 12GB.

Echt? Es gibt GTX780 mit 6GB und die Titan Classi/Black mit 6GB.

boxleitnerb
2015-03-10, 18:15:20
@Boxleitnerb
Wenn ich mir das Streaming von der Crysis3-Engine z.b. in Star-Citizen angschaue. Wo ich bequem dabei zusehen kann wie sich Layer für Layer der Texturen aufbaut. BITTE. Da wünschte ich mir längere Level-Load-Zeiten und volleres VRAM.

Das ist ja was ich sagte - es braucht für sinnvolle Aussagen solche Berichte, von mir aus zusätzlich zu den Screenshots mit Overlay :smile:

Troyan
2015-03-10, 18:15:52
Sind doch heute nicht mehr relevant...
Eine GTX780 mit 6GB gibt es nicht mehr zu kaufen und eine Black kostet weiterhin... Oh, gibt es auch nicht mehr.

Da bleibt nur noch der Gebrauchtmarkt.

HisN
2015-03-10, 18:26:12
Das ist ja was ich sagte - es braucht für sinnvolle Aussagen solche Berichte, von mir aus zusätzlich zu den Screenshots mit Overlay :smile:

Ich verstehe :-)

Schnoesel
2015-03-10, 18:30:09
Wieder mal kein Vollausbau Nvidia SRSLY? und 3 Monate später die Black oder wie? Business as usual kauft Leute kauft.

boxleitnerb
2015-03-10, 18:44:02
Naja mit 3072 Kernen und 50% mehr Leistung pro Takt als GM204 wäre ich schon zufrieden. Vollausbau oder nicht juckt mich nicht wirklich. Verglichen mit Titan vs. GTX 680 wäre das in etwa ähnlich was letztendlich an Leistung bei rumgekommen ist. Bei nur 230W sollten 30% OC mit Bios Mod in Reichweite sein.

-=Popeye=-
2015-03-10, 19:18:35
Wieder mal kein Vollausbau Nvidia SRSLY? und 3 Monate später die Black oder wie? Business as usual kauft Leute kauft.

Und der sieht dann wie aus?

RoughNeck
2015-03-10, 19:24:54
Wieder mal kein Vollausbau Nvidia SRSLY? und 3 Monate später die Black oder wie? Business as usual kauft Leute kauft.

Aja

Erleuchte uns doch, was da noch kommen soll?

Schnoesel
2015-03-10, 20:28:53
Wer sagt dass die Titan X 3072 Shader hat? Die Classic war auch nicht Vollausbau und trotzdem haben alle gekauft. Warum sollte Nvidia gleich den Vollausbau bringen? Meines Wissens nach sind die 3072 Shader nicht bestätigt.

Rente
2015-03-10, 20:34:48
Wenn sie nicht den Vollausbau bringen können sie jedenfalls nur schwerlich einen Preispunkt von 1000$ oder mehr abfragen.

Sollte Pascal wirklich schon in einem Jahr kommen gibt es auch keine so richtigen Grund dafür dann noch eine "Black" nur 1-2 Monate zuvor anzubieten.
Das lief bei GK110 alles ein wenig anders und hat für Nvidia deshalb wohl auch ganz gut funktioniert (auch weil Hawaii ein relativer Flop war), AMD ist diesmal aber zeitnah nach ihnen mit einer neuen Generation von Karten dran und ich glaube nicht so ganz das beide Reihen (also Fiji und Bermuda) deutlich langsamer sein werden als eine Salvage-Titan-X und Nvidia dann erst mit einem kompletten GM200 kontert.

Die gleiche Diskussion läuft btw. gerade im Maxwell-Thread.

Schnoesel
2015-03-10, 20:42:38
1. Wenn die Leite bereit sind 650€ für ne GTX 980 auf den Tisch zu legen dann auch nen 1000er für ne beschnittene Titan X mit 12 GB. AMD ist ja keine Alternative. Zu laut , zu heiß, und und und... glaub mir die würde sich verkaufen ohne Probleme.

2. Pascal ist eine neue Fertigung mit HBM. Kein Mensch weiß ob die pünktlich kommen. Ich gehe nicht davon aus.

Aber das ist ja da schöne an der Spekulation. Ich gehe eben nicht vom bestmöglichen Fall aus.

Rente
2015-03-10, 20:46:28
Der durchschnittliche Preis für eine 980 sind nicht 650€ und die verkauft sich sicherlich auch nicht so gut wie eine 970. Der Anteil der 980er-Käufer die nun eine Titan-X kaufen würden dürfte darüber hinaus ziemlich klein sein (viel eher werden 780/Ti/Titan-Besitzer dann wechseln die jetzt noch so eine Karte nutzen).
Darüber hinaus haben beschnittene Karten seit der 970 einen gewissen Makel den Nvidia u.U. auch überhaupt nicht riskieren will, aber natürlich ist das alles Spekulation und deshalb wie gesagt auch eher im Maxwell-Thread gut aufgehoben.

Schnoesel
2015-03-10, 20:54:53
Hier sind bereits 10 Seiten Spekulation. Bis auf die 12 GB VRAM und ein paar Bilder weiß man doch nix.

Schaffe89
2015-03-10, 21:03:29
GTX 980 650 Euro? WTF?
Die Karten gibts ab 500 Euro und wie immer wird der Käuferkreis einer Titan sehr klein sein und wie immer wird es so sein, dass es sich nicht lohnt, bzw die Argumente dagegen mehr sind wie dafür.

cR@b
2015-03-10, 23:05:42
GTX 980 650 Euro? WTF?
Die Karten gibts ab 500 Euro und wie immer wird der Käuferkreis einer Titan sehr klein sein und wie immer wird es so sein, dass es sich nicht lohnt, bzw die Argumente dagegen mehr sind wie dafür.

Warum soll sichs nicht lohnen? Meine Titan wurde die zwei Jahre hart genutzt und ist nach wie vor gut mit dabei. Nur die 480er hat so lange gehalten bis Dato, die 680er wurde eben nach einem Jahr durch die Titan ersetzt.
Denke die "X" lohnt sich auch irgendwo, zumal die Titan sogar noch Geld bringt...

Blaire
2015-03-10, 23:12:28
Warum soll sichs nicht lohnen? Meine Titan wurde die zwei Jahre hart genutzt und ist nach wie vor gut mit dabei. Nur die 480er hat so lange gehalten bis Dato, die 680er wurde eben nach einem Jahr durch die Titan ersetzt.
Denke die "X" lohnt sich auch irgendwo, zumal die Titan sogar noch Geld bringt...

Der legendäre G80 aka 8800GTX war auch so um den Dreh gute zweite Jahre vorne dabei, bevor diese von der GTX 280 abgelöst wurde. :) Vorteil bei der GeForce Titan X sicherlich das NVIDIA genug Zeit hatte, die Treiber gut abzustimmen, somit erhälst du hohe Kompatibilität und Performance gleich von Beginn out of the Box und musst nicht auf irgendwelche Wundertreiber hoffen, das ist auch was die meisten Kunden wünschen, ein funktionierendes rundes Premium-Produkt von Start an.

cR@b
2015-03-10, 23:42:19
Jo den G80 hatte ich auch die vollen zwei Jahre nach der 6800 Ultra. Die 280er wurde dann von der 480er abgelöst. Ich merke gerade, dass ich total grün hinter den Ohren war und heute noch bin :ugly: Ich freu mich in jedem Fall auf die "X" und ich wünschte es wäre schon nächster Dienstag! :D

Thunder99
2015-03-11, 00:11:51
Bei den grünen Sitz auch mehr Kapital um sowas vom Anfang an so zu machen :( ;)

Persönlich wäre mir eine Titan zur GTX 780Ti auf dem Gebrauchtmarkt nur 50€ mehr Wert ;). Aber einige scheinen es anders zu sehen...

gnomi
2015-03-11, 10:08:13
Die Karte ist schon klasse.
Für 600-700 Euro würde ich die 980 glatt verkaufen und gegen tauschen. ;D
1000 Euro sind aber zu viel.
In spätestens 12 Monaten bekommen wir schätzungsweise diese Leistung dann auch mit 8GB Vram mit etwas überarbeiteten Karten zum normalen Preis.
Ich hoffe, dass AMD nvidia jetzt einheizt. Schon aus Prinzip möchte ich nicht so viel bezahlen...

PHuV
2015-03-11, 11:56:23
Wenn die Karte wirklich bei unter 1000 € bleiben sollte, kaufe ich mir definitiv eine. Bei FC4 mit der aktuellen Yeti-Mission merke ich doch - entgegen den Erwartungen - die geringeren FPS auf dem Philips 40" mit UHD, da das G-Sync zum verkauften Acer XB280HK fehlt.

TobiWahnKenobi
2015-03-11, 19:26:21
1000 oder knapp darunter wären wirklich toll - muss dann mal meine finanzabteilung interviewen, aber das könnte klappen. 50% auf meine jetzige titan und dazu noch DX12 für Win10 sollten mir den wechsel wert sein. und die alte ist ja sicher auch noch ne tolle physX-karte bevor sie irgendwann nach OS-wechsel in der bucht untergeht :)


(..)

mfg
tobi

HarryHirsch
2015-03-11, 19:36:04
nur 1000€ für ne grafikkarte? wow das nenne ich mal nen schnäppchen.

TobiWahnKenobi
2015-03-11, 19:44:41
geht doch und vllt. bleibt es ja auch wieder knapp darunter - die letzte titan sollte neulich vor 2 jahren 949,- kosten und ich hab sie sogar für vergünstigte 899,- bekommen (+200€ spielgeld für den familienausflug samt 600km fahrt zu alternate, weil ich nicht warten mochte). wenn das wieder so läuft ist doch alles in butter.

den spaß mit dem physX muss ich mir schon aus nostalgischen gründen geben - das lief 2013 hier auch schon so, als ich nicht sicher war, ob ich titan oder die GTX690 (http://abload.de/img/img_01655msu8.jpg) rauswerfe. die entscheidung hat damals von märz bis juni gedauert.

zum glück besteht kein dringender bedarf, sodass ich mir day1-aufschläge verkneifen und in ruhe gucken kann, wie ich sie am günstigsten bekomme (*g-werbeschein rauskramt*).


(..)

mfg
tobi

TobiWahnKenobi
2015-03-11, 20:09:25
was du meinst nennt man neid. und nein ich bin nicht neidisch, ich finde es nur lächerlich wie sich einige hier diese preise schönreden.

das ist kein schönreden und man muss es im verhältnis sehen. das was die alte titan vorgelegt hat und ich habe ein exemplar, das 50% OC mitmacht ohne wacklig oder aufdringlich zu werden ist eine sehr nette erfahrung. alles was ich in den jahren mit titan zum thema spiel XY läuft bescheiden oder publisher XY bringt nur crappy code raus usw. lesen konnte, war hier auf meiner maschine nie nachvollziehbar.

wenn das jetzt mit jeder titan so ist.. also dass wirklich einfach alles funktioniert (für etwa 18-24 monate oder länger) ist das völlig okay.

die jahre, die ich mit einzelnen "topkarten" zu meist 549€ verkaspert habe, waren weniger sorgenfrei.

und jetzt nochmal zurück zu titan - 999 oder weniger sind okay - mehr bin ich nicht bereit zu latzen.. nicht für spielkram - bin doch nicht krösus. für 1K euro bekomme ich ne hawk rotary samt nadeln und soviel farbe, dass ich den materialeinsatz wirtschaftlich (vor steuer) verzehnfachen kann.


(..)

mfg
tobi

mironicus
2015-03-11, 20:18:49
NVidia sollte lieber schnell eine kleinere Version rausbringen mit weniger Speicher, es klafft eine zu große Lücke zwischen der 980 und der Titan X.

TobiWahnKenobi
2015-03-11, 20:26:44
NVidia sollte lieber schnell eine kleinere Version rausbringen mit weniger Speicher, es klafft eine zu große Lücke zwischen der 980 und der Titan X.

das ist titan Z

edit
okee.. hassu selbst g-merkt.


(..)

mfg
tobi

phoenix887
2015-03-11, 20:35:15
Habe hier die Titan Black vpn Gigabyte mit Costum Lüfter. Hat schon ab Werk gutes OC.

Wenn die Titan X wirklich sich in dem Bereich bewegt, werde ich erst 2016 oder wann das ist, bei Pascal wieder zuschlagen. Die Leistung momentan langt mir dicke und DX 12 ist mir erst ein Spiel bekannt. Von daher...zumal ich mir diesen Monat erst ein Haswell-E System aufgebaut habe.

akuji13
2015-03-11, 20:40:46
1000€?
Ok, ich glaube ich werfe den Plan kein SLI mehr zu nutzen doch über den Haufen. :D
Endlich genug fps in 2560x1080! :D

Allerdings glaube ich das erst wenn ich es auch bestellen kann. ;)

Jupiter
2015-03-11, 20:47:14
Nach meiner Meinung sind 1000€ noch in Ordnung. 1300€ oder gar 1450€ finde ich z.B. zu hoch für diese Karte. Ich kaufe generell nur im Bereich von 300-500€. Wer die Leistung haben will, kann sie natürlich holen.

phoenix887
2015-03-11, 20:48:22
1000€?
Ok, ich glaube ich werfe den Plan kein SLI mehr zu nutzen doch über den Haufen. :D
Endlich genug fps in 2560x1080! :D

Allerdings glaube ich das erst wenn ich es auch bestellen kann. ;)

Na wenn du 100% immer über 60FPS sein willst dann schon;)

Raff
2015-03-11, 20:52:31
Habe hier die Titan Black vpn Gigabyte mit Costum Lüfter. Hat schon ab Werk gutes OC.

Wenn die Titan X wirklich sich in dem Bereich bewegt, werde ich erst 2016 oder wann das ist, bei Pascal wieder zuschlagen. Die Leistung momentan langt mir dicke und DX 12 ist mir erst ein Spiel bekannt. Von daher...zumal ich mir diesen Monat erst ein Haswell-E System aufgebaut habe.

Mit einer Titan Black OC lohnt sich das Aufrüsten vermutlich wirklich nicht. Die X dürfte sich unter heißen Umständen auf dem Niveau einer gut gekühlten Black mit ~1,3 GHz bewegen. Grob geschätzt, im Mittel läuft's wohl auf 1.400/4.000 MHz hinaus und das schafft keine Black - fühlbar ist das aber nicht.

MfG,
Raff

Godmode
2015-03-11, 20:52:47
Nach meiner Meinung sind 1000€ noch in Ordnung. 1300€ oder gar 1450€ finde ich z.B. zu hoch für diese Karte. Ich kaufe generell nur im Bereich von 300-500€. Wer die Leistung haben will, kann sie natürlich holen.

In Ordnung ist es nicht, aber was soll man machen? Entweder man sträubt sich dagegen und Kauft eine AMD Karte (wenns dann endlich mal eine gibt) bzw. überhaupt nur mehr eine 300-500 Euro GPU oder man kauft es und hat bis zum nächsten Highend Chip Ruhe und kann in Frieden Spielen. Man kann es natürlich so machen wie ich und immer die Highend und Performance abwechselnd kaufen. Das befriedigt den Basteltrieb, kostet aber auch mehr, da man mit jeder Karte immer einen gewissen Prozentsatz and Geld verliert.

phoenix887
2015-03-11, 20:57:47
Mit einer Titan Black OC lohnt sich das Aufrüsten vermutlich wirklich nicht. Die X dürfte sich auf dem Niveau einer Black mit ~1,3 GHz (eher mehr) bewegen, grob geschätzt.

MfG,
Raff

Habe ich auch so im Gefühl. Jedenfalls habe ich nicht den Haben-Muss-Virus in mir, wenn ich an die Titan X denke, wie damals.

Raff
2015-03-11, 21:01:26
Ich verstehe leider, was du meinst. :ugly: Habe die Aussage oben etwas genauer definiert. Und deine Karte ist ja noch gute 400-500 Euro wert, von daher wär's nicht sooo schmerzhaft sofern du verkaufst. ;)

MfG,
Raff

phoenix887
2015-03-11, 21:08:27
Höre auf, mich auf falsche Gedanke zu bringen :)

dildo4u
2015-03-11, 21:14:19
@Raff Titan X sollte sich später immer weiter absetzen vergleichbar wie sich die 7970 Heute noch super schlägt wegen der Compute Performance/Vram.Ihr hattet dazu ja vor kurzem ein Test im Heft.

Godmode
2015-03-11, 21:28:51
Mit einer Titan Black OC lohnt sich das Aufrüsten vermutlich wirklich nicht. Die X dürfte sich unter heißen Umständen auf dem Niveau einer gut gekühlten Black mit ~1,3 GHz bewegen. Grob geschätzt, im Mittel läuft's wohl auf 1.400/4.000 MHz hinaus und das schafft keine Black - fühlbar ist das aber nicht.

MfG,
Raff

Nicht fühlbar!? Sorry aber eine 1,4 GHz Titan X zieht eine 1,3 GHz Titan X um wieviel % ab? 40-50? Oder verstehe ich da was falsch?

Raff
2015-03-11, 21:31:11
Der obige Vergleich: Titan Black OC gegen Titan X Default. Das ist vermutlich nicht fühlbar, also kein Upgrade. Und es ist natürlich nicht fair, da man die X auch übertakten können wird - obwohl, wer weiß, was Nvidia wieder ausheckt. :ugly:

MfG,
Raff

phoenix887
2015-03-11, 21:36:38
Der obige Vergleich: Titan Black OC gegen Titan X Default. Das ist vermutlich nicht fühlbar, also kein Upgrade. Und es ist natürlich nicht fair, da man die X auch übertakten können wird - obwohl, wer weiß, was Nvidia wieder ausheckt. :ugly:

MfG,
Raff

OC Sperre im Treiber vielleicht:D

TobiWahnKenobi
2015-03-11, 21:41:47
bei gleichem takt wahrscheinlich ~50% - tendenziell zur nutzzeit (18-24 monate) steigend.

diesmal werde ich allerdings weder lange mit dem AC4-umbau, noch mit einem biosmod warten. schlimmstenfalls muss ich wieder selber frickeln.. sowas musste ich zuletzt 2003, wenn ich das richtig auf dem schirm habe.. geforce FX59 und so.. *gg*


(..)

mfg
tobi

Nakai
2015-03-11, 21:42:46
Ja, der ominöse Notebook-Treiber war nur ein Testfall. :freak:

Ahja ich bin von Titan X nicht wirklich beeindruckt, wenn man von GM204 ausgeht. Eine normale Evolution. Wobei mich lange Balken nicht interessieren...*hust*...ich besitze eh nur noch "Budget"-Hardware.

Godmode
2015-03-11, 21:43:39
Der obige Vergleich: Titan Black OC gegen Titan X Default. Das ist vermutlich nicht fühlbar, also kein Upgrade. Und es ist natürlich nicht fair, da man die X auch übertakten können wird - obwohl, wer weiß, was Nvidia wieder ausheckt. :ugly:

MfG,
Raff

Ach so war das gemeint! Aber das macht doch niemand bei einer Desktopkarte. Mir ist übrigens noch nie eine CPU oder GPU durch OCing eingegangen.

akuji13
2015-03-12, 07:39:05
Na wenn du 100% immer über 60FPS sein willst dann schon;)

Auf konstante 120fps werde ich ja leider noch ewig warten müssen.

In Ordnung ist es nicht, aber was soll man machen? Entweder man sträubt sich dagegen und Kauft eine AMD Karte (wenns dann endlich mal eine gibt)

Auch wenn AMD mit VSR und Freesync jetzt aufholt ist das featureset mir dann doch nicht identisch genug um komplett auf einen Hersteller zu setzen.

robbitop
2015-03-12, 08:09:35
Ich glaube, die Zeit ist gekommen, wieder neue Kompressionsformate für Texturen zu entwickeln;)

Da ist IMO nicht mehr viel zu holen. Akutelle Texturkompressionsformate sind bereits ziemlich gut - da ist man schon ziemlich weit oben auf der Kurve des abnehmenden Grenzertrags.

Der VRAM Bedarf steigt insbesondere durch immer stärkere Vermeidung von Redundanz (bei natürlich gleichzeitig steigender Detaildichte). Bis vor kurzem wurden Assets in Spielen ständig recycled.

Palpatin
2015-03-12, 08:45:36
Auf konstante 120fps werde ich ja leider noch ewig warten müssen.

Bei vielen aktullen Spielen dürfte vor allem die CPU da ein Problem sein.
Ich spiele mittlerweile fast alles gemütlich mit dem Gamepad und ~40 gsynct Frames reichen mir bei fast allem. :)

Thunder99
2015-03-12, 14:02:27
Wenn man hier die Performance Sprünge sich angeschaut von GPU und CPU kann man nur zustimmen. Es kommt immer häufiger vor das eher ein CPU Limit eintritt als ein GPU Limit. (Auch ein Grund ist die mangelnde Mehrkern Unterstützung...)

Rente
2015-03-12, 14:31:03
Wenn man hier die Performance Sprünge sich angeschaut von GPU und CPU kann man nur zustimmen. Es kommt immer häufiger vor das eher ein CPU Limit eintritt als ein GPU Limit. (Auch ein Grund ist die mangelnde Mehrkern Unterstützung...)
Das Problem wird mit DX12 aber deutlich kleiner.

dildo4u
2015-03-12, 15:26:03
Dafür hat NV ja Gameworks auch wenn hier im Forum der Hass umgeht,die Nvidia Features heben die PC von den Konsolen Versionen ab und nutzen die überschüssige Power.Im realen Game Einsatz wird man z.b für VXGI vermutlich sogar ne Titan X brauchen.

Blediator16
2015-03-12, 15:29:17
Jau. Die Entwickler müssen Features raushalten und müssen GW "Features" reinbringen, damit man sagen kann "schaut mal GW bringt was ganz neues" und klatscht da Standardfeatures rein, die man auch ohne GW hätte haben können. Mal davon abgesehenhat GW bis jetzt noch nichts gebracht, was ansehnlich wäre.

dargo
2015-03-12, 19:41:27
Dafür hat NV ja Gameworks auch wenn hier im Forum der Hass umgeht,die Nvidia Features heben die PC von den Konsolen Versionen ab und nutzen die überschüssige Power.
Ich habe bisher nichts sinnvolles mit Gameworks gesehen wo ich sagen könnte... das ist es. Da fand ich TressFX bei Tomb Raider deutlich interessanter. Wobei das natürlich nur der Anfang war. Mal schauen wie sich demnächst TressFX 3.0 schlägt.

dildo4u
2015-03-12, 19:48:20
HBAO+ hab ich immer an scheint mit deutlich besser als das Konsolen SSAO.


https://youtu.be/NYfYekrAPAE?t=50s

http://international.download.nvidia.com/geforce-com/international/comparisons/assassins-creed-unity/assassins-creed-unity-ambient-occlusion-comparison-1-hbao-plus-vs-ssao.html

aufkrawall
2015-03-12, 19:50:00
Ach man, was ein Schwachsinnsargument.
AO von den IHVs nutzen Spiele schon ewig.

dildo4u
2015-03-12, 19:59:21
Ähm die neuen Konsolen nutzen immer noch SSAO,ohne Gameworks bzw AMD Programm gäbs Stillstand auf dem Gebiet.

Jupiter
2015-03-12, 20:20:15
Da stimme ich dildo4u zu. HBAO+ ist für mich ein großer Mehrwert zu SSAO. Gerade Unity hat dies eindrucksvoll bewiesen.

Angiesan
2015-03-12, 21:02:26
und Gying light hat gezeigt wie es aussieht wenn es nicht zum spiel passt :-)

Schaffe89
2015-03-12, 21:24:31
Dafür hat NV ja Gameworks auch wenn hier im Forum der Hass umgeht,die Nvidia Features heben die PC von den Konsolen Versionen ab und nutzen die überschüssige Power.Im realen Game Einsatz wird man z.b für VXGI vermutlich sogar ne Titan X brauchen.

Die Nvidia Features haben für mich persönlich da ehrlichgesagt noch nie etwas angebhoben, sondern vielmehr es geschafft, dass die FPS in den Keller sinken.

Meiner Meinung ist Gameworks totaler Bullshit.
Vor allem solche Features wie Fell in Far Cry 4, das ist absolut lächerlich anzuschauen, ähnlich wie wenn jemand ständig unter Strom steht.
Die Affen tun einem leid, wenn man das sehen muss.

Irgendwie sind Gameworkstitel in denen Nvidia mit mehr als TXAA ankommt, fast immer scheiße und nah drölf Patches erst vernünftig spielbar, das sagen auch viele NV Nutzer.
Irgendwie kommts mir so vor, als ob du selbst in dem größten Käse noch was gutes sehen willst.

Die Grafikkartenhersteller sollen den Entwicklern helfen Features umzusetzen, aber nicht ständig ihren eigenen Mist vorzusetzen.

dildo4u
2015-03-12, 21:25:19
Titan X Vollausbau?


http://abload.de/img/gm200_smallv7u95.png

http://pctuning.tyden.cz/component/content/article/1-aktualni-zpravy/33665-geforce-gtx-titan-x-1-ghz-35-procent-nad-gtx-980

hasebaer
2015-03-12, 21:49:17
Natürlich Vollausbau.
Außer Nvidia hat es geschaft in die zusätzlichen 150mm^2 ggü. den 400mm^2 des GM204, nicht nur ein 50% breiteres SI, sondern auch nochmal 75% statt 50% mehr ALUs (3554 statt 3072) reinzupacken.

Möglich ist fast alles, aber die Wahrscheinlichkeit ist bei Null mMn.

aufkrawall
2015-03-12, 21:52:56
und Gying light hat gezeigt wie es aussieht wenn es nicht zum spiel passt :-)
Hä? Für mich wirkt es völlig stimmig in dem Spiel. Tue mir aber auch nicht die graue Vanilla-Optik an, sondern K-puttes SweetFX.
Außerdem hat es mit weniger Screen Space Artefakten als in AC: U zu kämpfen.

Raff
2015-03-13, 11:20:26
Evga GTX 980 Classified im Overclocking-Test: Titan-X-Leistung dank 1,6 GHz Kerntakt? (http://www.pcgameshardware.de/Geforce-GTX-980-Grafikkarte-259282/Specials/Evga-GTX-980-Classified-OC-Test-1153148/)

Skaliert ordentich, ein Bandbreitenlimit ist nur teilweise sichtbar.

MfG,
Raff

Godmode
2015-03-13, 11:34:09
Evga GTX 980 Classified im Overclocking-Test: Titan-X-Leistung dank 1,6 GHz Kerntakt? (http://www.pcgameshardware.de/Geforce-GTX-980-Grafikkarte-259282/Specials/Evga-GTX-980-Classified-OC-Test-1153148/)

Skaliert ordentich, ein Bandbreitenlimit ist nur teilweise sichtbar.

MfG,
Raff

1600 MHz mit der Titan X wären fein. Mal sehen wie lang es dauert, bis es die ersten Hardmods gibt. Verlustleistung Ahoi ;D

Troyan
2015-03-13, 11:35:12
Naja, 1600MHz mit 1,4V sind nicht beeindruckend, wenn fast jede GTX980 1500MHz mit einer Spannungserhöhung von 0,25V schafft...

BlacKi
2015-03-13, 11:38:01
Evga GTX 980 Classified im Overclocking-Test: Titan-X-Leistung dank 1,6 GHz Kerntakt? (http://www.pcgameshardware.de/Geforce-GTX-980-Grafikkarte-259282/Specials/Evga-GTX-980-Classified-OC-Test-1153148/)

Skaliert ordentich, ein Bandbreitenlimit ist nur teilweise sichtbar.

MfG,
Raff
anundfürsich toller test, nur das haben die 980 user hier schon hinter sich. manche sind von 1450mhz wieder auf 1400 runter weil es in ganz seltenen fällen grafikfehler gab. ob so eine karte 1500mhz ohne fehler mitmacht ist dann wohl glückssache.

4Fighting
2015-03-13, 11:44:49
imo ist der Leistungszuwachs bei allen Classi-Versionen immer zu gering gewesen als das man dort den Aufpreis rechtfertigen könnte.

Die Karte sollte - wenn überhaupt - direkt als Wakü-Variante rauskommen. was der LuKü darauf zu suchen hat, weiß ich bis heute noch nicht.

RoughNeck
2015-03-13, 17:18:37
Evga GTX 980 Classified im Overclocking-Test: Titan-X-Leistung dank 1,6 GHz Kerntakt? (http://www.pcgameshardware.de/Geforce-GTX-980-Grafikkarte-259282/Specials/Evga-GTX-980-Classified-OC-Test-1153148/)

Skaliert ordentich, ein Bandbreitenlimit ist nur teilweise sichtbar.

MfG,
Raff

Skaliert ordentlich eure Classi
Bin auf euren Titan X test gespannt, bisschen was vorab kannst aber schon verraten :biggrin:

dargo
2015-03-13, 17:32:29
Evga GTX 980 Classified im Overclocking-Test: Titan-X-Leistung dank 1,6 GHz Kerntakt? (http://www.pcgameshardware.de/Geforce-GTX-980-Grafikkarte-259282/Specials/Evga-GTX-980-Classified-OC-Test-1153148/)

Skaliert ordentich, ein Bandbreitenlimit ist nur teilweise sichtbar.

MfG,
Raff
~32% mehr Kerntakt resultieren bei Anno in ~43% mehr Frames? Wie geht denn sowas? :uconf2:

Dural
2015-03-13, 17:45:33
na die rund 10% kommen natürlich durch das Speicher OC, 30 + 10 = 40% :freak:

Raff
2015-03-13, 17:49:49
Text lesen. ;)

MfG,
Raff

Rampage 2
2015-03-13, 19:38:06
Text lesen. ;)

MfG,
Raff

Mir ist aufgefallen, dass auch Crysis Warhead mit dieser Karte gebencht wurde - mit einer Custom-Config & Textur-Mod.

Meine "AbsoluteQuality"-Config (wird mehrere Varianten mit verschiedenen Optimierungs/Performance-Stufen geben) für Crysis & Crysis: Warhead ist so gut wie fertig - dann kann PCGH nochmal benchen;D

(@Raff: Du arbeitest doch dort, oder? :))

Im Moment versuche ich, die verbesserte CE2 von Crysis: Warhead auf das originale Crysis zu portieren - so dass nicht nur die neuen Effekte & Texturen von WH, sondern auch eine verbesserte Performance auch für das originale Crysis verfügbar sind! =) (mit der WH-Engine steigen die Minimum-Frames vom originalen Crysis um 35% !!! :cool:)

Dieser Versuch wird wahrscheinlich scheitern, aber ich werde dennoch mit allen möglichen Wegen versuchen, dieses Ziel zu erreichen:freak:

R2

Troyan
2015-03-14, 10:10:21
Gerade im Overclock.net Forum gesehen:
http://www.overclock.net/content/type/61/id/2388153/width/1000/height/2000/flags/LL
http://www.overclock.net/t/1546211/ch-titan-x-gpu-z-leak#post_23663511

Entspräche exakt 50% zur GTX980. Mal sehen, ob es ein Fake ist. Persönlich denke ich, dass dies bei 230-250W möglich ist. Immerhin hat GM200 nur 15% mehr Transistoren als GK110 anstatt 48% wie GM204 gegenüber GK104.

Mr. Lolman
2015-03-14, 13:36:37
Ähm die neuen Konsolen nutzen immer noch SSAO,ohne Gameworks bzw AMD Programm gäbs Stillstand auf dem Gebiet.

Nö. Einfach deswegen, weils keine allgemein gültige Definition für SSAO gibt. Da gibts zT ganz Engine-spezifische Implementationen, die dann zT für den jeweiligen Anwendungsfall eben auch besser aussehen können, als bspw. eine allgemeine HBAO+ Routine (siehe HBAO+ vs SSBC in Farcry4).

Godmode
2015-03-14, 13:42:14
Gerade im Overclock.net Forum gesehen:
http://www.overclock.net/content/type/61/id/2388153/width/1000/height/2000/flags/LL
http://www.overclock.net/t/1546211/ch-titan-x-gpu-z-leak#post_23663511

Entspräche exakt 50% zur GTX980. Mal sehen, ob es ein Fake ist. Persönlich denke ich, dass dies bei 230-250W möglich ist. Immerhin hat GM200 nur 15% mehr Transistoren als GK110 anstatt 48% wie GM204 gegenüber GK104.

A2 Revision?

mike49
2015-03-14, 15:39:08
Fiji scheint wohl gut zu werden.

Da möchte man bei den Grünen nicht riskieren, trotz 8GB mehr den Kürzeren zu haben :wink:

Godmode
2015-03-15, 22:58:10
Hat eigentlich jmd. eine Idee wann die Dinger zum Kaufen verfügbar sein werden?

Effe
2015-03-15, 23:01:47
Wenn angeblich am 17.3. das NDA ablaufen soll und es schon so viele Bilder mit den X-Kartons gibt, kann man wohl von einem Hardlaunch ausgehen. Soll heißen, nächste Woche eventuell schon.

(ohne Gewähr)