PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Kommende GTX-700-Karten/Titanen - GK180/GK110-B1 - GTX 790?


Seiten : 1 2 3 [4] 5 6 7

Hugo78
2013-10-15, 23:15:52
Ich glaub nicht das man HW-seitig was an einem Montag bringt.
Die brütend heißen Hawaii Chips mit ihren unzeitgemässen 300W, sind eh kein Grund sofort was Neues zubringen.

@dildo4u
Oh ja, nur noch 5 statt 50% Performanceverlust beim Aufnehmen und ne kleine SSD reicht, weil der Videostream schon ordentlich komprimiert ist.
Das wärs.

Duplex
2013-10-15, 23:23:00
300w ist bei High End kein Problem weil man die Nr. 1 sein kann.
Es gibt ja kleinere Modelle (290) die effizienter arbeiten.

Hugo78
2013-10-16, 00:06:59
Nach der Logik hätte es kein Geschrei um Fermi geben dürfen.

Blediator16
2013-10-16, 00:15:53
Die angeblich hohe Leistungsaufnahme macht einigen hier scheinbar feuchte Höschen :D

Schaffe89
2013-10-16, 01:23:48
Jup, jetzt geht das Gehample im 290x Thread wieder los, anstatt neutral zu bleiben wird, wieder über die Leistungsaufnahme hergezogen, obwohl noch keine vernünftigen Werte überhaupt vorliegen.

Ich würde ja !schätzen!, dass die 290x im Mittel 5 bis 10% vor der Titan liegt, eben genau die Prozentpunkte, welche Nvidia einem schnelleren Titan vorbehält.

Das 15SMX könnte nommal 5% bringen, dazu noch 5 bis 10% mehr Takt.
Wird sowieso ne enge Geschichte das ganze. Aber Nvidia dürfte seit langem mal wieder was Single GPU Krone betrifft nicht erster sein, sondern eher auf Augenhöhe je nach Settings mal vorne mal hinten.

dildo4u
2013-10-16, 01:28:31
Jup, jetzt geht das Gehample im 290x Thread wieder los, anstatt neutral zu bleiben wird, wieder über die Leistungsaufnahme hergezogen, obwohl noch keine vernünftigen Werte überhaupt vorliegen.

Ich würde ja !schätzen!, dass die 290x im Mittel 5 bis 10% vor der Titan liegt, eben genau die Prozentpunkte, welche Nvidia einem schnelleren Titan vorbehält.

Das 15SMX könnte nommal 5% bringen, dazu noch 5 bis 10% mehr Takt.
Wird sowieso ne enge Geschichte das ganze. Aber Nvidia dürfte seit langem mal wieder was Single GPU Krone betrifft nicht erster sein, sondern eher auf Augenhöhe je nach Settings mal vorne mal hinten.
Wo hast du denn deine Fantasie Werte her?Die China Benches sehen die Karten gleichauf unter 2560*1600,Titan eher schneller wenn wie im Review steht,auf Baseclock begrenzt wurde.Warum verbraucht Titan so viel weniger? Weil sie ohne Boost läuft das würde Sinn ergeben.

Schaffe89
2013-10-16, 01:43:31
vorne mal hinten.
Wo hast du denn deine Fantasie Werte her?Die China Benches sehen die Karten gleichauf unter 2560*1600,Titan eher schneller wenn wie im Review steht,auf Baseclock begrenzt wurde.Warum verbraucht Titan so viel weniger? Weil sie ohne Boost läuft das würde Sinn ergeben.


Also die Benches die ich gesehen habe ist die 290x 3,6% in Front und wie das 3D Center schreibt ist das noch leicht NV lastig.
Ergo +4% draufrechnen, sind 5 bis 10%, so wird es letztendlich aussehen und Nvidia wird ne Karte nachlegen die nochmal ein Ticken flotter unterwegs ist.

Warum verbraucht Titan so viel weniger?

Wieso nehmt ihr überhaupt Stromverbrauchswerte aus dem Furmark? Unseriöser geht es ja wohl kaum.
AMD muss die Karte in Furmark nur etwas weniger drosseln und schon stehe 60 Watt mehr auf der Uhr, ich erinnere mal an die HT4U Werte, die HD 7970 ging da auch an die 300 Watt Marke ran, das ist überhaupt kein Indikator, sogar ein sehr schlechter.

http://ht4u.net/reviews/2011/amd_radeon_hd_7900_southern_island_test/index22.php

Siehe Werte unter Furmark.

V2.0
2013-10-16, 07:06:59
290X ist schneller und effizienter als Titan. Wie soll NV da kontern?

Rente
2013-10-16, 07:13:03
290X ist schneller und effizienter als Titan. Wie soll NV da kontern?
Welche Glaskugel hast du dafür benutzt? Es gibt weder offizielle Benchmarks, noch Verbrauchsmessungen...

Hugo78
2013-10-16, 07:21:55
Die angeblich hohe Leistungsaufnahme macht einigen hier scheinbar feuchte Höschen :D

Das ist ein "misunderstanding".

Skysnake
2013-10-16, 10:11:09
290X ist schneller und effizienter als Titan. Wie soll NV da kontern?
DAS muss sich erst noch zeigen ;)

Duplex
2013-10-16, 10:16:51
Nach der Logik hätte es kein Geschrei um Fermi geben dürfen.
Fermi hat damals mehr Strom als eine HD5970 Dual Karte gezogen, das war damals eine ganz andere Geschichte.

http://abload.de/thumb/fermizuso9.jpg (http://abload.de/image.php?img=fermizuso9.jpg)

http://www.computerbase.de/artikel/grafikkarten/2010/test-nvidia-geforce-gtx-480/26/
15% mehr Performance als die 5870, aber fast 150W mehr Strom, sowas kann man von AMD nicht behaupten!

Nightspider
2013-10-16, 11:14:24
Bei einem Freund von mir laufen seit glaube fast 4 Jahren zwei GTX480 im SLI unter Wasser mit Übertaktung. So what?

Player18
2013-10-16, 11:49:47
kommt den jetzt noch so eine High End Titan ? oder steht das noch in den sternen ?

Hugo78
2013-10-16, 12:20:45
@Duplex

Ja entweder oder.
Natürlich war die GTX 480 noch ne Ecke härter, aber Nvidia hat seit damals auch dazu gelernt.
AMD dagegen geht seit der HD 6970, aber spätestens seit der FX-9590 Brechstange genau den entgegengesetzten Weg,
den sie selber mit "The Misunderstanding" so süffisant vorgegeben hatten.

dildo4u
2013-10-16, 14:02:22
Nvidia's Presse Event geht zwei Tage mehr als eine Sache wird gezeigt.

http://www.neogaf.com/forum/showpost.php?p=86246419&postcount=85

Godmode
2013-10-17, 13:44:20
Bei einem Freund von mir laufen seit glaube fast 4 Jahren zwei GTX480 im SLI unter Wasser mit Übertaktung. So what?

Das sind die ganzen Memmen die sich sowieso nie eine Highend Karte kaufen würden, aber immer die Fresse aufhaben, wie schlimm und schlecht das alles ist. Dann noch rote oder grüne Fanboy Farbe dazu und fertig sind die Master-Trolle. :rolleyes:

AnarchX
2013-10-17, 13:58:49
16 Uhr Live Stream: http://www.pcper.com/live/
Das Event heißt: NVIDIA "The Way It's Meant to be Played" 2013.

Skysnake
2013-10-17, 16:10:39
hm....

Machen die jetzt auf "Never Settle"-Klon oder was?
EDIT:
Der STream ist absolut beschissen. Hängt ständig und andauernd, und das bei nicht mal 1300 Zuschauern..

AffenJack
2013-10-17, 16:19:12
Bei mir läuft der Stream reibungslos, ganz selten minimale Ruckler.

gnahr
2013-10-17, 16:22:14
na welch zufall das snake was auszusetzen hat...

und was soll das wegen ns von amd heißen? beide legen schon ewig immer mal spiele dazu.

Skysnake
2013-10-17, 16:33:03
Und von welchem Leuten wurde NS kritisiert und wie?

Und ja, jetzt geht der STream besser, aber hängt trotzdem immer wieder ziemlich heftig. So kann man teilweise nur schlecht folgen :(

Gibt es einen alternativen Stream?

gnahr
2013-10-17, 16:36:16
benutzt du den von pcp? der auf guru (via twitch) läuft auch mit qualität gut.
ns als programm ist zu kritisieren (, allein wegen der technischen umsetzung die hunderte leute in die wüste geschickt hat). die beigabe an sich wird man wohl nicht mehr los, leider.

Iruwen
2013-10-17, 16:42:41
Diskutiert mal in einem Thread: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9962201

Skysnake
2013-10-17, 16:45:55
benutzt du den von pcp? der auf guru (via twitch) läuft auch mit qualität gut.
ns als programm ist zu kritisieren (, allein wegen der technischen umsetzung die hunderte leute in die wüste geschickt hat). die beigabe an sich wird man wohl nicht mehr los, leider.
Ja der bei PCP hängt immer wieder, wobei es jetzt eigentlich ganz ok ist. Hängt nur noch ganz selten. Die ersten ~10-20 min wars aber echt schlimm..

Haste mal kurz nen Link zu dem Stream auf twitch? Nur falls der PCPer STream nochmal rumspackt.

AnarchX
2013-10-18, 15:10:24
K6000 hat auch einen GK180: http://www.youtube.com/watch?v=-utyEm0QZMQ#t=285

Sven77
2013-10-18, 17:33:48
GTX780ti

Hugo78
2013-10-18, 17:35:16
Cool n' quiet and fast ... *hust*

AffenJack
2013-10-18, 17:35:42
Huang: "Best Gpu that's ever been build"

Also Titan mit mehr Takt wohl;)

Raff
2013-10-18, 17:37:42
GTX 780 Ti = Titan Ultra = Titan läuft aus

Hmmm. Das könnte passieren. Spannend.

MfG,
Raff

dildo4u
2013-10-18, 17:39:14
GTX 780 Ti = Titan Ultra = Titan läuft aus

Hmmm. Das könnte passieren. Spannend.

MfG,
Raff
Denke Titan wird weiterlaufen da die 780TI bei DP beschnitten sein wird.

Hugo78
2013-10-18, 17:39:23
GTX 780 Ti = Titan Ultra = Titan läuft aus

Hmmm. Das könnte passieren. Spannend.

MfG,
Raff

Als GK180 Salvage und dann kommt GTX Atlas als Vollausbau ... in 28nm HPM.

boxleitnerb
2013-10-18, 17:44:02
GTX 780 Ti = Titan Ultra = Titan läuft aus

Hmmm. Das könnte passieren. Spannend.

MfG,
Raff

War die 780 Ti nicht das Ding mit 1920 SP? Oder war das etwa doch ein Fake?

Konami
2013-10-18, 17:44:53
War die 780 Ti nicht das Ding mit 1920 SP? Oder war das etwa doch ein Fake?
Das war die 780i. Die soll wohl als billigere Variante mit der R9 290 konkurrieren.

dildo4u
2013-10-18, 17:45:10
War die 780 Ti nicht das Ding mit 1920 SP? Oder war das etwa doch ein Fake?
Vermutlich Fake die Karte wird schneller als 780 sein TI markiert immer Performance.

AnarchX
2013-10-18, 17:49:44
Low-Power? 225W? Vielleicht ist auf einem Photo die Stromversorgung zu sehen.

edit:
What we do know is that it has 6+8 pin power input.
http://www.hardwarecanucks.com/news/video/nvidia-launches-gtx-780-ti/

boxleitnerb
2013-10-18, 17:50:53
Ah richtig, dachte das wäre Ti gewesen. Cool, na dann wird der Herbst ja doch noch heiß :)
Ich glaub aber eher, es ist eine Karte mit 14 SMX und mehr Takt. Ob es gleich 15 sind...weiß net.

Raff
2013-10-18, 17:57:03
Ah richtig, dachte das wäre Ti gewesen. Cool, na dann wird der Herbst ja doch noch heiß :)
Ich glaub aber eher, es ist eine Karte mit 14 SMX und mehr Takt. Ob es gleich 15 sind...weiß net.

Boah, kommt, wie lahm wäre das denn, wenn das wieder kein Vollausbau wäre? Das wäre das einzige Wahre. Spannend: Bekommt die auch 6 GiB?

MfG,
Raff

Knacki99
2013-10-18, 17:58:34
Solange Nvidia nicht den technischen Level aufholt kommt mir keine neue Karte ins Haus.

fondness
2013-10-18, 17:58:57
Boah, kommt, wie lahm wäre das denn, wenn das wieder kein Vollausbau wäre? Das wäre das einzige Wahre. Spannend: Bekommt die auch 6 GiB?

MfG,
Raff

Eben. So wie die Karte vorgestellt wurde wird die GTX780Ti ganz offensichtlich NVs Flagship. Titan ist wohl Geschichte. Die GTX780i wird dann wohl der Salvage-Part.

boxleitnerb
2013-10-18, 18:02:11
Boah, kommt, wie lahm wäre das denn, wenn das wieder kein Vollausbau wäre? Das wäre das einzige Wahre. Spannend: Bekommt die auch 6 GiB?

MfG,
Raff

6 GB sollten garantiert sein, man will doch den Werbekrieg gewinnen!
Wenn AMD ne 8 GB-Variante bringt, packt man einfach 12 GB drauf. Dann kommen 16 GB...um was ging es noch gleich? :freak:

fondness
2013-10-18, 18:04:04
6 GB sollten garantiert sein, man will doch den Werbekrieg gewinnen!

Den kann man ohne 512-bit SI nicht gewinnen^^

boxleitnerb
2013-10-18, 18:04:41
Schon klar ;)
Ist die Frage, wer bei der sinnlosen Speicherbestückung den längeren Atem hat :D

Hugo78
2013-10-18, 18:06:07
6 GB sollten garantiert sein, man will doch den Werbekrieg gewinnen!
Wenn AMD ne 8 GB-Variante bringt, packt man einfach 12 GB drauf. Dann kommen 16 GB...um was ging es noch gleich? :freak:

Blockout 3D mit 3000 fachem FSAA.

AffenJack
2013-10-18, 18:19:06
6 GB sollten garantiert sein, man will doch den Werbekrieg gewinnen!
Wenn AMD ne 8 GB-Variante bringt, packt man einfach 12 GB drauf. Dann kommen 16 GB...um was ging es noch gleich? :freak:

Oder man bringt erstmal nur 3gb um die Titankäufer etwas zu besänftigen und den nochn Alleinstellungsmerkmal zu lassen. Wäre bei 6gb noch nicht so sicher.

V2.0
2013-10-18, 18:21:31
Ne 3GB Titan bei der man die eingesparte TDP der fehlenden 3GB auf den Takt legt.

AnarchX
2013-10-18, 18:23:05
Oder man bringt erstmal nur 3gb um die Titankäufer etwas zu besänftigen und den nochn Alleinstellungsmerkmal zu lassen. Wäre bei 6gb noch nicht so sicher.

Mit 3GiB gewinnt man nichts mehr, 4GiB ist wohl bald Standard im $200-250 Segment. Mit den 4Gbit Chips kommt man auch mit einer einseitigen Bestückung aus.

Ne 3GB Titan bei der man die eingesparte TDP der fehlenden 3GB auf den Takt legt.
K6000: 2880SPs @ 900MHz + 24 Speicherchips @ 6Gbps = 225W
780 Ti: 2880SPs @ ??? + 12 Speicherchips @ ??? = 250W
;)

gnahr
2013-10-18, 18:23:34
Solange Nvidia nicht den technischen Level aufholt kommt mir keine neue Karte ins Haus.
:confused: die super-spiele wie bf4 laufen doch mit dx11.1 only oder hast du das nicht mit bekommen.
dx11.2 is the new 10.1 and it sucks hard. :biggrin:

Knacki99
2013-10-18, 18:29:36
:confused: die super-spiele wie bf4 laufen doch mit dx11.1 only oder hast du das nicht mit bekommen.
dx11.2 is the new 10.1 and it sucks hard. :biggrin:
Mag sein. Allerdings hat Kepler Feature lvl 11.0 und nicht 11.1.

Iruwen
2013-10-18, 18:31:05
Was wohl egal ist wenn man 11_1 Features trotzdem nutzen kann. Was offenbar die meisten sind.

boxleitnerb
2013-10-18, 18:31:37
Mag sein. Allerdings hat Kepler Feature lvl 11.0 und nicht 11.1.

Das muss nicht unbedingt ein Problem darstellen, wie der CPU-Benchmark von PCGH bei BF4 zeigt. Dort wurde eine 780 verwendet, und trotzdem gab es die CPU-entlastenden Features mit Win 8.1

fondness
2013-10-18, 18:33:20
Was wohl egal ist wenn man 11_1 Features trotzdem nutzen kann. Was offenbar die meisten sind.

Es ist kein Geheimnis welche DX11.1 Features NV unterstützt und welche nicht. Man unterstützt die optionalen DX11.0-Features, aber keine neuen DX11.1-Features.

gnahr
2013-10-18, 18:40:11
ich glaube er hats einfach nicht verstanden und kauft die packung mit der größeren zahl.
wahrscheinlich würde er sowiso die radeons kaufen, da sie spätestens mit den durstigen ghz-editions scheinbar den höheren takt haben.
(core, speicher ist natürlich lahmer...)

Iruwen
2013-10-18, 18:41:06
http://nvidia.custhelp.com/app/answers/detail/a_id/3196/~/fermi-and-kepler-directx-api-support

Angiesan
2013-10-18, 19:18:33
Ein Vöglein hat gezwischert, GTX 780 TI = Titan mit 3 GB aber höherem Takt, kein Vollausbau!

Sunrise
2013-10-18, 19:22:21
Als GK180 Salvage und dann kommt GTX Atlas als Vollausbau ... in 28nm HPM.
Das wäre auch mein Tipp. Wenn GK180 nicht auf 28nm HPM ist, würde mich das stark überraschen.

Dazu würde der niedrige Stromverbrauch und die Aussage, dass das Ding schnell und leise sein soll, perfekt passen.

Allerdings stelle ich mich damit schon fast auf Titan-Preise ein, sodass man bei NV die Margen hoch halten kann. 6GB RAM sollten auch gesichert sein, alles andere wäre schlicht ein Witz.

Ein Vöglein hat gezwischert, GTX 780 TI = Titan mit 3 GB aber höherem Takt, kein Vollausbau!
Also ein Zwischenschieber vs. 290X? Wäre enttäuschend IMHO, da "nur" 3GB VRAM. Und wenn das Teil schneller als Titan (für Gaming) ist, wo positioniert man das Ding preislich? Klingt alles irgendwie verwirrend.

BTW: "Best GPU we´ve ever built" - das kann auch echt alles heißen. Jensen wollte da wohl jetzt noch nicht vorweggreifen, stehen die Taktraten evtl. noch nicht fest (AMD)?

boxleitnerb
2013-10-18, 19:24:19
Ein Vöglein hat gezwischert, GTX 780 TI = Titan mit 3 GB aber höherem Takt, kein Vollausbau!

28HPM? Schnellerer Speicher? Ich fürchte mal bei beidem ein nein?

Hugo78
2013-10-18, 19:28:04
@boxleitnerb

Wenn es nicht 28nm HPM ist, man aber dennoch mehr Speed aus dem selben Powerbudget ziehen kann, dann hat NV einen um so besseren Job gemacht. ;)

boxleitnerb
2013-10-18, 19:30:16
Wenn...das muss sich erstmal zeigen.

Ronny145
2013-10-18, 19:36:23
Dann hätte sie mehr Rechenleistung aber halb so viel RAM. Ich weiß nicht, was davon zu halten ist. Bei 4GB wäre das kein Thema. Die knausrige VRAM Strategie von Nvidia nervt.

M4xw0lf
2013-10-18, 19:36:45
Ich könnte mir Vorstellen, dass "best GPU for gamers" - oder wie Huang es wörtlich genau ausgedrückt haben mag - heißt, dass GK110 jetzt als bezahlbare Variante unters Volk gebracht wird. Alle "Ti"-Modelle der letzen zwei Generationen waren gute Preis/Leistungs-Maschinen, aber nie Topmodelle...
Ist das hier eventuell doch die 780"i", die bereits herumgeistert?

Angiesan
2013-10-18, 19:37:49
28HPM? Schnellerer Speicher? Ich fürchte mal bei beidem ein nein?

So wie ich es verstanden habe 1. keine Info, 2. ja ;-) Und das Ding wird angeblich schneller wie die Titan sein beim Spielen:eek: Wie immer ohne Gewähr :-)

Knacki99
2013-10-18, 19:38:05
ich glaube er hats einfach nicht verstanden und kauft die packung mit der größeren zahl.
wahrscheinlich würde er sowiso die radeons kaufen, da sie spätestens mit den durstigen ghz-editions scheinbar den höheren takt haben.
(core, speicher ist natürlich lahmer...)
Vielleicht ist es einfach sinnfrei, wenn man bereits eine GTX 780 hat, sich über einfache Takt Refresh Karten zu freuen wie ein Kleinkind über nen Lolli. Vollausbau hin oder her Kepler ist eine Architektur die zwar gut aber eben nicht mehr taufrisch ist. Deswegen kommt für mich keine 780Ti in Frage. Ausserdem muss die sich erstmal positionieren.

boxleitnerb
2013-10-18, 19:39:30
Gut, damit sollte man vielleicht 5 TFLOPs erreichen (Basistakt) und wohl 336 GB/s bei 7 Gbps-Speicher. Das bitte noch in eine 649-Euro-Box und fertig ist das Paket.

Ronny145
2013-10-18, 19:44:51
Bei dem Preis würde ich mehr als nur 3GB erwarten. (bei der Rohleistung sowieso)

boxleitnerb
2013-10-18, 19:46:50
Man hat halt nur die Wahl zwischen 3 und 6 GB. 6 ist eigentlich zuviel. 3 ist jetzt nicht optimal, aber so schlimm finde ich es nicht.

qu3x^
2013-10-18, 19:52:16
Bei 4GB wäre das kein Thema. Die knausrige VRAM Strategie von Nvidia nervt.
^ Word. Das is auch der einzige Grund warum ich mit der Aufrüsterei warte.
770 4GB Edition is auch ein Ei, und diese crippled Titan mit 3GB auch ned der Burner.

AnarchX
2013-10-18, 19:53:07
Mindestens könnte man den Partnern erlauben 6GiB Versionen zu bauen, was bei der 780 Vanilla offensichtlich nicht erlaubt wurde.

Hugo78
2013-10-18, 19:53:46
Tesla K20x kam mit 6GB, GTX Titan hatte auch 6GB die GTX 780 kam mit der Hälfte.
K6000 und Atlas kommen mit 12GB, eine GTX Atlas hat nach der Logik auch 12GB und die 780 Ti dann 6GB.

boxleitnerb
2013-10-18, 19:55:23
Was für einen Sinn macht es, 12 GB auf eine Gamer-Karte zu pappen? Das kostet nur Geld und keiner brauchs.

Hugo78
2013-10-18, 19:56:13
Atlas wäre wie Titan keine reine Gamerkarte.

Ronny145
2013-10-18, 20:00:33
Optimal wären 3GB für die Leistungsklasse einer GTX770. Auf Titan+ Niveau würde ich 4+ GB erwarten. Wegen dem Speicherinterface passt das leider nicht so perfekt.

boxleitnerb
2013-10-18, 20:01:11
Das hab ich sowieso nicht verstanden, warum man die DP-Funktionen nicht beschnitten hat bei Titan. Ich mein, warum soll man es den Leuten einfach machen, die teureren Teslas nicht zu kaufen? Und es ist ja auch kein Hexenwerk, die Hälfte der Speicherchips einfach wegzulassen. Oder ist man selbst für so eine kleine Modifikation der Karte zu geizig?

gnahr
2013-10-18, 20:05:03
titan sollte outstanding sich außerhalb des normalen namensschemas positionieren.
warum sollte man es da beschneiden? das macht sie doch so besonders...

Hugo78
2013-10-18, 20:06:07
Das hab ich sowieso nicht verstanden, warum man die DP-Funktionen nicht beschnitten hat bei Titan. Ich mein, warum soll man es den Leuten einfach machen, die teureren Teslas nicht zu kaufen?

Na möglicherweise ist die Zeit der teuren Teslas auch vorbei. Intel hat ja die Kurve bekommen ...
Titan ist ja nur ne günstige "Einzelplatz" Quadro, mit der man auch zocken kann.

AnarchX
2013-10-18, 20:13:18
Die Geforce GTX 780 Ti wird wie auch GTX 780 und die GTX Titan auf dem GK110-Chip basieren, besitzt einen sechs- und einen achtpoligen Stromanschluss und wird nach Inaugenscheinnahme der Platinenrückseite über 3 GiByte GDDR5-Speicher verfügen
http://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/News/Nvidia-kuendigt-Geforce-GTX-780-Ti-an-1093352/

Bleibt nur noch die Hoffung 4Gbit Chips... ;)

Dural
2013-10-18, 20:24:30
Ich weis nicht was ihr habt, gibt es überhaupt irgend ein Game das 3GB füllt? Ich denke nicht. :rolleyes:

Verbrauch, Takt (OC), Abwärme und zuletzt der Geldbeutel wird es danken.

Timbaloo
2013-10-18, 20:27:46
Mit 4Gbit Chips sollte man hinsichtlich Verbrauch/Abwärme ja kein Nachteil haben.

Ätznatron
2013-10-18, 20:29:49
Ich weis nicht was ihr habt, gibt es überhaupt irgend ein Game das 3GB füllt? Ich denke nicht. :rolleyes:




Mittlerweile Dutzende (http://www.computerbase.de/forum/showthread.php?t=636865&highlight=hisn+vram)

boxleitnerb
2013-10-18, 20:34:02
Füllen != benötigen. Sollte sich auch mittlerweile herumgesprochen haben ;)

fondness
2013-10-18, 20:34:59
Mit full-hd vielleicht nicht, aber bei einer solchen Karten kann man durchaus auch höhere Auflösungen fahren.

Raff
2013-10-18, 20:36:51
3 GiByte kann man im spielbaren Bereich nur in absoluten Einzelfällen knacken, das ist Fakt. Bitte lasst mich nicht schon wieder einen PCGH-Artikel zitieren ... X-D

MfG,
Raff

Ätznatron
2013-10-18, 20:38:04
Füllen != benötigen. Sollte sich auch mittlerweile herumgesprochen haben ;)

Genau, bei geringen Ansprüchen an die Qualität reicht natürlich auch weniger VRAM.

Dafür gut geeignete Karten gibt's schon um die € 100,-.

@Raff

Und genau nur für diese "Einzelfälle" sind die allermeisten bereit, tief in die Tasche zu greifen.

boxleitnerb
2013-10-18, 20:41:35
Genau, bei geringen Ansprüchen an die Qualität reicht natürlich auch weniger VRAM.

Dafür gut geeignete Karten gibt's schon um die € 100,-.


Was soll das Trollen? Findest du dich jetzt toll? :rolleyes:

Ätznatron
2013-10-18, 20:43:08
Was soll das Trollen? Findest du dich jetzt toll? :rolleyes:

Trollen?

Schließe bitte nicht von dir auf andere.

Es gibt den Bedarf und nur mehr VRAM hilft in diesen Fällen.

Blaire
2013-10-18, 20:44:48
3 GiByte kann man im spielbaren Bereich nur in absoluten Einzelfällen knacken, das ist Fakt. Bitte lasst mich nicht schon wieder einen PCGH-Artikel zitieren ... X-D


Jo, im Grunde reichen 3GB locker hin, erst mit SLI mit mehr Karten kann man diese locker sprengen (Downsampling, AA-Bits usw.) Zum Glück ist der PC frei konfigurierbar, muss man nicht zwingend irgendwelche Mods bemühen um irgendwas zu rechtfertigen. Aktuell ist das meckern auf hohen Niveau, vor allen da wohl die meisten Leute eh nur auf Single-GPU Cards setzen.

Ronny145
2013-10-18, 20:45:21
Es geht weniger um jetzt, sondern wie sieht es in 6 oder 12 Monaten aus. Gerade wegen den neuen Konsolen könnte der VRAM Bedarf mit maximalen Details schneller steigen.

boxleitnerb
2013-10-18, 20:47:15
Trollen?

Schließe bitte nicht von dir auf andere.

Es gibt den Bedarf und nur mehr VRAM hilft in diesen Fällen.

Ich habe nicht getrollt, sondern einen simplen Umstand angesprochen, den du vorher ignoriert hast, als ob es nur um die angezeigte VRAM-Belegung ginge. Du hingegen trollst mit Übertreibungen. Also bitte...bleiben wir doch mal bei der Wahrheit, ja?

Dural
2013-10-18, 20:47:17
wer 3GB+ braucht / haben möchte kann immer noch Titan kaufen. :rolleyes:

für eine einzelne Karte mit GK110 halte ich 3GB klar für ausreichend. Im SLI könnte man darüber reden mehr zu verbauen, ja.

und wir wissen ja noch nicht mal ob die GTX780Ti überhaupt der Titan "Nachfolger" ist. Eventuell ja auch nur ein GTX780 Update...

Ätznatron
2013-10-18, 20:49:12
Ich habe nicht getrollt, sondern einen simplen Umstand angesprochen, den du vorher ignoriert hast, als ob es nur um die angezeigte VRAM-Belegung ginge. Du hingegen trollst mit Übertreibungen. Also bitte...bleiben wir doch mal bei der Wahrheit, ja?

Die Wahrheit ist:

Es gibt den Bedarf.

@Dural

Natürlich kauft man Karten mit der passenden Menge Speicher. Und manchem reichen selbst 3 GB nicht.

Du hast gefragt, ob es derartige Games gibt. Und die Antwort ist ja, die gibt es.

Dural
2013-10-18, 20:50:18
...und es gibt auch Karten die diesen Bedarf befriedigen können ;)


übrigens wäre ich mir nicht mal so sicher das die 780Ti alle 15 SMX aktiv hat ;)

boxleitnerb
2013-10-18, 20:51:50
Die Wahrheit ist:

Es gibt den Bedarf.

Die Wahrheit steht in Raff's Post. Aber bitte, tu gerne weiter so, als wären Karten mit 3 GB gleich pauschal unbrauchbar für qualitätsbewusste Spieler. So klingt es nämlich, was du hier schreibst. Auf den Punkt Belegung != benötigte VRAM-Menge gehst du ja weiterhin nicht ein...

Aber gut, das ist ja leider immer so. Kommt was Neues, wird das Alte gerne spontan als unbrauchbar deklariert, auch wenn das mit Vernunft nun nichts zu tun hat.

Timbaloo
2013-10-18, 20:56:44
Die Wahrheit steht in Raff's Post.
Ich denke die Wahrheit ist zwischen Raff's und Ronny's post.

Ätznatron
2013-10-18, 21:03:08
Die Wahrheit steht in Raff's Post. Aber bitte, tu gerne weiter so, als wären Karten mit 3 GB gleich pauschal unbrauchbar für qualitätsbewusste Spieler. So klingt es nämlich, was du hier schreibst. Auf den Punkt Belegung != benötigte VRAM-Menge gehst du ja weiterhin nicht ein...

Aber gut, das ist ja leider immer so. Kommt was Neues, wird das Alte gerne spontan als unbrauchbar deklariert, auch wenn das mit Vernunft nun nichts zu tun hat.

Kann es sein, dass du ein wenig hyperventilierst?

Für Spieler, deren Qualitätsansprüche sich schon mit 3 GB völlig befriedigen lassen, sollten solche Karten 1. Wahl sein!

Alles andere wäre Verschwendung.

Es gibt dann aber auch noch andere Spieler, die nicht bereit sind, sich durch möglicherweise zu sparsam bemessenen Speicher in ihren Bedürfnissen einengen zu lassen.

Raffs Aussage ist für die "breite Masse" sicher zutreffend, mehr aber auch nicht.

Raff
2013-10-18, 21:33:44
Ich denke die Wahrheit ist zwischen Raff's und Ronny's post.

Denke ich übrigens auch. ;) Derzeit werden 3 GiB selbst hohen Ansprüchen gerecht, aber das wird sich mit der kommenden Spielegeneration gewiss ändern.

MfG,
Raff

Botcruscher
2013-10-18, 21:41:53
Die neuen Konsolen werden den Stöpsel beim Speicherverbrauch schon ordentlich ziehen. Konsolenspeicher mal 2 bis 4 dürfte auf dem PC gut hinkommen. Im Zweifel sollte man also dieses mal nicht sparen.

Hugo78
2013-10-18, 22:00:20
@Botcruscher
Ich finde diese Aussage zu einfach.
Die Konsolen belegen den Speicher, weil man ihn hat, aber haben doch garnicht die Power diesen auch zubrauchen.
HD Texturen sind eine Sache, das kostet keine nennenswerte Rechenleistung, das ist Ok, wenn man sagt hierfür braucht man viel VRAM.
Aber alles was Beleuchtung und Kantenglättung angeht und intensiv VRAM belegen könnte in Zukunft, dafür sind doch die kleinen GPUs der Konsolen garnicht in der Lage, hier 4 GB VRAM zurechtfertigen.
Allen voran die XBox One.

Also ich freue mich das die Konsolen 8GB haben, aber nur 4,5-5,5 GB stehen nach Stand der Dinge max. den Spielen zur Verfügung,
weil der Rest fürs OS und so Spielkram wie permantes Hintergrund Gameplayrecording drauf geht, statt für noch mehr, noch bessere Texturen.

Botcruscher
2013-10-18, 22:06:06
Guck mal wo die Konsolen herkommen. Zum zusätzlichen Speicher kommt auch noch eine bessere Nutzung der BD.
Der Sprung der hier kommt ist wie von PS2 zu PS3.

Ronny145
2013-10-18, 22:07:56
Wenn eine 720p Version der Konsole sagen wir 2GB an Texturen braucht, wie viel braucht es dann auf dem PC auf 1080p 4xMSAA und maximalen Details? Deutlich drüber sicherlich. Und von einer Karte, die mehr Rohleistung besitzt als Titan, reden wir vielleicht von 4K. Nach der Speichermenge von der Konsole kann man da nicht gehen.

aufkrawall
2013-10-18, 22:17:21
Für ein teures Highend-Produkt wären da 4GB auf jeden Fall angemessen.
Schon blöd...

Wenigstens wirds dann mit GM104 das geben.

Hugo78
2013-10-18, 22:19:52
@Botcruscher

Ich weiß schon von woher man kommt, deshalb find ich es ja schön, dass Sony und MS soviel RAM haben. Aber btw ... BD steht wofür? BluRay Disk?!

@Ronny145

Meine Aussage war eher allgemein gehalten. War jetzt bisschen OT.
Natürlich eine Karte a la Titan könnte auch 12GB belegen und von einem möglichem 28nm Performance Maxwell im nächsten Frühjahr erwarte ich nicht weniger als Titan Speed & Co.*.
Da muss man mehr als 3GB VRAM fordern (deshalb geh ich ja auch immernoch von 6GB für die 780 Ti aus), aber ebend ich trau den Konsolen nicht zu, dass sie ihren RAM/VRAM immer auch brauchen,
und diese vereinfachte allgemeine Ableitung, man bräuchte immer 4GB VRAM, weil die Konsolen ja auch soviel, angeblich belegen ist zu einfach.

Ein ARMA 3 zb. streamt viel von der Festplatte, da ist ne schnelle SSD wichtiger, als > 3GB VRAM.

*= => 4GB VRAM (+100% Speed zu meiner GTX 670 2GB, sonst brauch ich den nicht kaufen).

Timbaloo
2013-10-18, 22:27:15
Denke ich übrigens auch. ;)
Ich wollte dir nicht mangelnden Weitblick unterstellen :)

Duplex
2013-10-18, 22:42:24
Atlas wäre wie Titan keine reine Gamerkarte.Die ehemaligen High End Karten (G80, GT200, GF110) waren auch keine "reine Gamer Karten".
GK104 war verdammt nochmal eine Ausnahme.

Hugo78
2013-10-18, 22:54:25
@Duplex

Na ja, HPC damals und heute kann man nicht vergleichen.
G80 war noch HPC Ursuppe, GT200 war HPC Einzeller, GF100/GF110 war dann schon ein richtig großer Schritt, vom Einzeller zum Dinosaurer.
Und Kepler markiert den Wechsel hin zu dem was Intel mit / seit Lynnfield / Bloomfield macht.
Da hast du eine günstige Gamerplattform und echtes High End, wobei das echte High End nicht x-fach schneller im Alltag sein muss.
Ich werd bei der Gamerplattform bleiben, denn für "echtes High End" kommt die Software nicht schnell genug hinterher.

Duplex
2013-10-18, 22:56:15
G80, GT200, GF110, GK110 > GM110 = High End

GF104, GK104 > GM104 = Mainstream

Wie Nvidia das ganze vermarktet und zu welchem Preis ist irrelevant, GK104 ist bei GPGPU z.b. schlechter als Fermi mit Hot Clock.

horn 12
2013-10-18, 23:02:00
NV Launch noch vor AMD !
Langsam wird's knapp!

Hugo78
2013-10-18, 23:02:04
@ Duplex

Dieses Mainstream wird in Zukunft aber immer weniger Abstand zum High End haben.
Allein weil man das Powerbudget nicht weiter ausdehnen kann und soll (mMn.) und die Fertigungstechniken immer teurer werden und somit viel länger Zeit brauchen, bis die Kosten wieder drin sind.

Von der HPC Seite her war GK104 schlechter als GF100/110, aber als Zocker interessiert mich das gleich Null.

Duplex
2013-10-18, 23:08:35
Von der HPC Seite her war GK104 schlechter als GF100/110, aber als Zocker interessiert mich das gleich Null.
Naja, gegenüber GF110 war GK104 nur um die 35% schneller, zumindest die Ersten Monate, von daher haben sich schon viele verarscht gefühlt, auch eben weil die Karten ca. 550,- gekostet haben, seit dem Zeitpunkt werden die Leute nur noch abgezogen!

Hugo78
2013-10-18, 23:32:05
In einem kleiner werdenen Markt mit steigenden Kosten, bezahlen die Kunden am Ende drauf.
Ist für mich auch keine tolle Entwicklung, aber so ist ebend wenn man keine Geduld aufbringen mag.

Das letzte mal das ich um die 500€ für ne Graka ausgeben hab, war bei der GF 3.
Davor war die TNT2 Ultra und Geforce 2 GTS mit ~ 500-600 DM das Teuerste.
Und nach der GF 3 hab ich auch nie mehr als 320€ bezahlt (GF 4400 (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9156687&highlight=tnt#post9156687)), bis zur GTX 285 mit 360€ + 50€ AC kühler.
Die GTX 670 mit 420€ war kein Blindkauf, sondern nur mit Blick auf Skyrim und BF3 und das ich +100% ggü. meiner damaligen GTX 560 Ti haben wollte als Minimum.

Verarscht gefühlt hab ich mich nicht, wenn gleich ich aus heutiger Sicht, durchaus noch hätte ein Jahr warten können.
Aber dann hätte ich mir auch keine 150€ 64GB SSD oder 250€ 128GB SSD vor paar Jahren kaufen dürfen, oder ein 160€ Mobo, wo ich heute 80€ Mobos zur Auswahl hätte, mit dem selben Layout und Features.

Skysnake
2013-10-19, 08:15:40
@ Duplex

Dieses Mainstream wird in Zukunft aber immer weniger Abstand zum High End haben.
Allein weil man das Powerbudget nicht weiter ausdehnen kann und soll (mMn.) und die Fertigungstechniken immer teurer werden und somit viel länger Zeit brauchen, bis die Kosten wieder drin sind.

Von der HPC Seite her war GK104 schlechter als GF100/110, aber als Zocker interessiert mich das gleich Null.
Tja, da hast du absolut Recht. Man ist halt absolut Power-limited, und wenn man Power für SAchen "verschwendet", die man eigentlich gerade nicht braucht, dann ist man halt langsamer als eigentlich möglich.

Für Gamer sind die größten Chips halt wirklich immer uninteressanter. Ich hoffe allerdings, das ihr/wir auch in der Zukunft schön brav die Dinger kauft, sonst gibts für die HPCler weniger, denn allein durch die lässt sich die Chipentwicklung nicht finanzieren. ZUMAL! Sie eben auch einfach ein festes budget haben, für das Sie Hardware kaufen, wenn die billiger ist, gibts halt mehr davon :biggrin:

Duplex
2013-10-19, 11:43:29
Die 780 wird bleiben und evtl. nen Tick günstiger werden, darüber platziert man die 780Ti. Nun kommt es auf die Ausstattung derer an. an +2-5% glaub ich nicht - aber ich hab bei der Karte jetzt auch noch kein Plan. Vermute auf hochgezüchtet direkt bis Titan-Niveau aber eben zu besserem Preis. Und je nachdem was die 290X dann wirklich im Alltag sagt behält sich Nvidia noch einen Konter in der Rückhand - Atlas oder sowas. Den Konkurrenten ausmanövrieren schaffen sie bei Nvidia ja öfter, die 580 war damals das perfekte Besipiel: Kam noch völlig überraschend vor AMDs Refresh (6900) und hat gegenüber der 480 trotz eigenlich "alles gleich" gut zugelegt. Aber so gut wird es diesmal nicht laufen, AMD macht den Fehler nicht 2 Mal.

GeForce GTX 780 Ti für Mitte November angekündigt - Seite 9 - ComputerBase Forum (http://www.computerbase.de/forum/showthread.php?t=1266796&page=9&p=14681814#post14681814)

Weiß jemand zufällig wie hoch bei der R9 290x der Boost ausfällt wenn das Dual Bios umgeschaltet wird?

Skysnake
2013-10-19, 12:02:28
1GHz +x ;)

PS:
Das es nicht wie bei der GTX480->GTX580 läuft kann man NUR begrüßen. Der GF100 war ja auch kaputt.... Sowas ist natürlich ne gute Grundlage um sich massig zu verbessern, aber kein erstrebenswerter Zustand.

AnarchX
2013-10-19, 17:39:34
2880SPs Titan?
http://img689.imageshack.us/img689/601/fasn.jpg (http://imageshack.us/photo/my-images/689/fasn.jpg/)
http://img23.imageshack.us/img23/1978/z6yp.jpg

http://we.poppur.com/thread-2162033-1-1.html

Die Device-ID und BIOS-Version ist jedenfalls eine andere als beim aktuellen Titan.

V2.0
2013-10-19, 17:52:33
So bleibt die Titan an ihrem Preispunkt ;)

fondness
2013-10-19, 18:28:46
Wenn es nicht mal eine neue Chip-Revision wird, wäre das ja Mega-Langweilig.

Undertaker
2013-10-19, 18:38:19
Wo ist das Problem? Wenn die aktuelle Revision gut läuft, wäre eine neue ja höchst überflüssig. Man hatte nun genug Zeit, hübsche Dies für eine 2880er Version mit etwas mehr Takt zu selektieren, was nach aktuellem Kenntnisstand wohl schon für einen 290X-Konter reicht. Ergo eine für Nvidia recht preiswerte Überbrückungslösung bis zur nächsten Generation.

boxleitnerb
2013-10-19, 18:45:29
Das Problem ist, dass man irgendwas zum Meckern finden muss ;)

Dass Nvidia eine 780i, eine 780 Ti UND eine neue Titan "Ultra" oder sonstwie bringt, erscheint mir dann doch etwas zuviel des Guten.

fondness
2013-10-19, 18:49:42
Das Problem ist, dass man irgendwas zum Meckern finden muss ;)

Vielleicht schaffst du es irgendwann auch mal einen Beitrag zu schreiben ohne persönlich zu werden, wäre echt toll. Ich denke es ist offensichtlich, warum eine neue Revision "aufregender" wäre als der Chip den eh schon alle kennen.


Dass Nvidia eine 780i, eine 780 Ti UND eine neue Titan "Ultra" oder sonstwie bringt, erscheint mir dann doch etwas zuviel des Guten.

Warum? Wenn GTX780 und Titan jeweils um ~10-15% Performnace drauf gepackt bekommen, wäre darunter noch Platz für eine neue Karten (zumindest wenn man die normale GTX780 nicht weiter laufen lässt).

Angiesan
2013-10-19, 18:50:47
1006 stimmt aber, aber der Name nicht

boxleitnerb
2013-10-19, 19:00:59
Vielleicht schaffst du es irgendwann auch mal einen Beitrag zu schreiben ohne persönlich zu werden, wäre echt toll. Ich denke es ist offensichtlich, warum eine neue Revision "aufregender" wäre als der Chip den eh schon alle kennen.


Was erwartest als Antwort auf einen so substanzlosen Beitrag? Lob? Was kann ich mir von "Aufregung" kaufen, gibt das mehr fps?


Warum? Wenn GTX780 und Titan jeweils um ~10-15% Performnace drauf gepackt bekommen, wäre darunter noch Platz für eine neue Karten (zumindest wenn man die normale GTX780 nicht weiter laufen lässt).

Weil das Aufwand bedeutet, kann ich mir das eher nicht vorstellen. Zumal die GTX 780 nicht so alt ist, dass man sie gleich wieder ersetzen müsste.

M4xw0lf
2013-10-19, 19:02:13
Bisherige Titan wird degradiert zur 780Ti, 2880 SP-GK110 wird ab sofort unter dem Namen Titan verkauft. :upara:

Dural
2013-10-19, 20:02:36
780i - 290
780Ti - 290X
Titan - nichts

M4xw0lf
2013-10-19, 20:09:29
780i - 290
780Ti - 290X
Titan - nichts
Falls du von 2688-SP Titan sprichst, dann hat die durchaus die 290X als Gegner.

Skysnake
2013-10-19, 21:01:15
Wo ist das Problem? Wenn die aktuelle Revision gut läuft, wäre eine neue ja höchst überflüssig. Man hatte nun genug Zeit, hübsche Dies für eine 2880er Version mit etwas mehr Takt zu selektieren, was nach aktuellem Kenntnisstand wohl schon für einen 290X-Konter reicht. Ergo eine für Nvidia recht preiswerte Überbrückungslösung bis zur nächsten Generation.
Glaubst du wirklich, dass sich da ein neues Binning lohnt?

Der Chip läuft jetzt rund ein Jahr, man hat die K20, K20x, Titan und GTX780. Da jetzt dann nochmal nen extra Binning für die GTX780Ti? Ist ja nicht so, das Binning kein Geld kosten würden :freak:

Und dann gibts ja noch die K6000, die ja wohl wirklich ein GK180 sein soll. Wurde zumindest mal vor kurzem was dahingehend hier auf 3D-Center gepostet, ich hatte den Artikel aber leider nicht gelesen.

Ich glaub da eher nicht dran, dass das nochmal nen GK110 wird, bzw sagen wir mal eher, ich hoffe es. ;)

Undertaker
2013-10-19, 22:05:01
Warum zwingend ein neues Binning? Imo wäre es auch denkbar, dass man bereits in den letzten Monaten gut taktbare und voll funktionsfähige Chips selektiert hat. Ein paar davon dürfte es sicherlich geben...

Muss allerdings nicht bedeuten, dass eine solche Karte wirklich kommt – für möglich halte ich es allerdings.

fondness
2013-10-19, 22:27:56
Was erwartest als Antwort auf einen so substanzlosen Beitrag? Lob? Was kann ich mir von "Aufregung" kaufen, gibt das mehr fps?


Ich erwarte das man sachlich bleibt, ganz einfach.

boxleitnerb
2013-10-20, 07:25:10
Auf Beiträge dieser Art muss man manchmal bissig reagieren, sonst werden es nur noch mehr. So wie im G-Sync Thread erstmal meckern obwohl man gar nichts weiß. Ich weiß ja schon, in welchen Kontext ich manche deiner Beiträge einordnen muss.

fondness
2013-10-20, 09:28:21
Auf Beiträge dieser Art muss man manchmal bissig reagieren, sonst werden es nur noch mehr. So wie im G-Sync Thread erstmal meckern obwohl man gar nichts weiß. Ich weiß ja schon, in welchen Kontext ich manche deiner Beiträge einordnen muss.

Ich weiß auch wie ich deine Beiträge einordnen muss, deswegen werfe ich dir das auch nicht jedes mal um die Ohren.

boxleitnerb
2013-10-20, 09:36:27
Wenn ich nächstes Mal einen ähnlich substanzlosen Meckerbeitrag schreibe, darfst du mich gerne darauf hinweisen, ich verbessere mich gerne :)

AnarchX
2013-10-20, 12:39:42
Das passt wohl besser hier her:
;D;D Was besseres konnte man nicht so schnell aus der Schublade kramen. Mehr ALUs, Takt aber weniger Bitbreite des IMC und man is wieder im Rennen. :rolleyes:

@ skysnake: Das kostet aber wieder ;)
Afaik 5 GB und 2496 ALUs. Ein IMC-Cluster is deaktiviert.

Meine Aussage bezog sich auf bessere Komponenten verbauen.
Afaik hat die 780Ti 5 GB VRAM (wers braucht...).

Mit 7Gbps GDDR5 wäre das ~97% der Bandbreite einer 780/Titan.

fondness
2013-10-20, 12:42:34
Das passt wohl besser hier her:




Mit 7Gbps GDDR5 wäre das ~97% der Bandbreite einer 780/Titan.

Hm, ich weiß nicht. Titan hat nicht unbedingt zu viel Bandbreite. Wenn man >Titan-Leistung mit weniger Bandbreite erreichen will dürfte die Bandbreite doch hin und wieder limitieren - spätestens bei OCing.

AnarchX
2013-10-20, 12:49:43
Sofern er nur die Information zum Speicherausbau hat und daraus die SI-Breite schließt, bleibt ja noch die Möglichkeit von 5GiB@384-Bit (3GiB@384-Bit und die zusätzlichen 2GiB@256-Bit, also 8x4Gbit + 4x2Gbit Module).
Jenseits von 3GiB sollten wohl 192GB/s immernoch genug Bandbreite sein um Texturen und Geomtrie-Daten zu halten. Und schlussendlich erhält man einen Vorteil für den Titan.

=Floi=
2013-10-20, 13:12:38
Warum zwingend ein neues Binning? Imo wäre es auch denkbar, dass man bereits in den letzten Monaten gut taktbare und voll funktionsfähige Chips selektiert hat. Ein paar davon dürfte es sicherlich geben...

Muss allerdings nicht bedeuten, dass eine solche Karte wirklich kommt – für möglich halte ich es allerdings.


die gingen imho alle für die voll ausgebaute quadro (mit ihren 225?watt) drauf! diese chips sind sicherlich sehr rar.

V2.0
2013-10-20, 14:08:09
die gingen imho alle für die voll ausgebaute quadro (mit ihren 225?watt) drauf! diese chips sind sicherlich sehr rar.

Langsam liegt der Prozess schon im normalen Rahmen und GK110 hat auch keine grundsätzlichen Designfehler wie sein Vorgänger. Die Ausbeute an voll funktionsfähigen Chips dürfte heute schon ok sein.

Angiesan
2013-10-20, 14:24:26
Wenn das stimmt was Hubie schreibt haben wir einen Chip der eher ein "Fetter GK104" ist das würde auch passen.

So hätten wir ein 320 Bit SI mit jeweils ein IPC zu einem GPC und 5 GB Speicher , wie oben schon beschrieben ein breiter GK104.

Das ganze dann mit 7GB/S Speicher angebunden und mit 902 MHz getaktet und man hat genau das was man braucht um die R9 anzugreifen und die Titan nicht komplett untergehen zu lassen.......sicherlich schnell aber .....gefällt mir trotzdem nicht.

@ AnarchX er hat ja geschrieben das ein ipc deaktiviert ist, damit würde deine Möglichkeit ja ausfallen denn dann hat der GK 110 nur noch 5*64 Bit zur Verfügung.

boxleitnerb
2013-10-20, 14:56:27
Soweit mir gesteckt wurde, ist die 780 Ti eine Titan mit halbem Speicher. Versuche, noch Infos zu den Taktraten zu bekommen.

Raff
2013-10-20, 15:53:40
14 SMX, 384 Bit, 3 GiB, kein Turbo-DP-Modus und ein Basistakt von 863 MHz? Das wäre sooo lame und langsamer als jetzige OC-Designs der GTX 780.

MfG,
Raff

Iruwen
2013-10-20, 15:56:46
Der Basistakt wohl kaum.

boxleitnerb
2013-10-20, 16:20:38
14 SMX, 384 Bit, 3 GiB, kein Turbo-DP-Modus und ein Basistakt von 863 MHz? Das wäre sooo lame und langsamer als jetzige OC-Designs der GTX 780.

MfG,
Raff

Wie gesagt, zum Takt weiß ich nix, er könnte durchaus etwas höher liegen. Damit wäre die Karte 10% vor der 780 und darüber kommt...noch was :wink:

M4xw0lf
2013-10-20, 17:07:10
Wie gesagt, zum Takt weiß ich nix, er könnte durchaus etwas höher liegen. Damit wäre die Karte 10% vor der 780 und darüber kommt...noch was :wink:
Dann liege ich wohl mit meiner ersten Vorhersage gar nicht mal weit daneben ;)
Bisherige Titan wird degradiert zur 780Ti, 2880 SP-GK110 wird ab sofort unter dem Namen Titan verkauft.

Angiesan
2013-10-20, 19:35:50
14 SMX, 384 Bit, 3 GiB, kein Turbo-DP-Modus und ein Basistakt von 863 MHz? Das wäre sooo lame und langsamer als jetzige OC-Designs der GTX 780.

MfG,
Raff
Ja aber man darf eben nicht vergessen, auch wenn es wirklich nicht spannend ist, das so eine Karte wohl etwas unter dem Energiehunger der Titan liegen sollte und somit bei gleichem PT etwas mehr Raum für den Boost hätte.
Außerdem will man sicherlich wie Boxleitnerb schon geschrieben hat Raum für den TITAN 2.0 lassen so er denn kommt:biggrin:

Und das die OC Modelle nicht gerade als Stromsparer durchgehen braucht dir eh keiner zu sagen die Tests die du in der aktuellen PCGH gurchgeführt hast von der MSI und der EVGA sagen ja alles. Und von dem Ding würde es ja mit 100%iger Sicherheit auch wieder OC Modelle geben, wenn man so will eine Titan Light auf Steroiden:D


Edit gerade im HWLuxx gefunden weiß nicht ob es hier schon gepostet wurde stammt von Videocardz:

http://abload.de/thumb/gk110opuh9.png (http://abload.de/image.php?img=gk110opuh9.png)

boxleitnerb
2013-10-20, 20:56:55
Damit wäre das Ding 7-8% flotter als Titan. Na gut, eher 5% weil die Speicherbandbreite nicht steigt. Für die R9 290 würde es ziemlich sicher reichen, nur der Preis...aua.

M4xw0lf
2013-10-20, 21:04:29
Damit wäre das Ding 7-8% flotter als Titan. Na gut, eher 5% weil die Speicherbandbreite nicht steigt. Für die R9 290 würde es ziemlich sicher reichen, nur der Preis...aua.
Wüso? Für Nvidia-Verhältnisse ist der doch handzahm ;)

Angiesan
2013-10-20, 21:05:02
Wenn sie so kommt, reicht das bestimmt! Ja der Preis ist AUA mal sehen was letztendlich AMD aufruft für die R9 X

boxleitnerb
2013-10-20, 21:06:36
Wüso? Für Nvidia-Verhältnisse ist der doch handzahm ;)

Ja schon, aber die R9 290 wird wohl um die 450-500 kosten, halt wieder deutlich billiger.

M4xw0lf
2013-10-20, 21:09:54
Damit wäre das Ding 7-8% flotter als Titan. Na gut, eher 5% weil die Speicherbandbreite nicht steigt. Für die R9 290 würde es ziemlich sicher reichen, nur der Preis...aua.
Ja schon, aber die R9 290 wird wohl um die 450-500 kosten, halt wieder deutlich billiger.
Redest du hier in beiden Fällen von der R9 290 ohne X? :confused:

boxleitnerb
2013-10-20, 21:14:44
Redest du hier in beiden Fällen von der R9 290 ohne X? :confused:

Ja. Mit Titan + 5% wird es wohl nicht reichen, die 290X überzeugend zu schlagen.

780 Ti = 290 + 5-10%
Titan "Ultra" = 290X + 5-10%

So in etwa denk ich mir das. Der Preis ist übrigens pure Spekulation! Aber nicht ganz abwegig meine ich.

Duplex
2013-10-20, 21:16:46
Naja, wer sich die Titan Ultra kauft ist selber schuld, für Gamer uninteressant, dann besser 2x R9-290 oder 2x GTX780.
Wer lange Zeit nur noch Nvidia im Rechner hatte sollte mal wieder AMD probieren, die haben sich stark verbessert!

boxleitnerb
2013-10-20, 21:25:09
Das mit Titan war ein Fehler, das sehe ich schon ein. Die 780 wäre besser gewesen, genauso wie man lieber die 780 Ti statt der Titan Ultra kaufen sollte.

Bei AMD fehlt mir momentan zuviel, vielleicht 2016-2017, wenn ich Maxwell ausmustere.

Angiesan
2013-10-20, 21:26:20
@ Duplex: Das kann man eh nicht immer an der reinen Leistung festmachen.
Mit der Verbesserung der AMD gebe ich dir absolut recht,......... der Rest ist einfach gedrolle jeder kann doch entscheiden wofür er sein sauer verdientes Geld ausgibt, oder?
Was der Eine als Zielführend sieht betrachtet ein Anderer als Unfug!

M4xw0lf
2013-10-20, 21:30:03
Was der Eine als Zielführend sieht betrachtet ein Anderer als Unfug!
-Konfuzius

Angiesan
2013-10-20, 21:44:50
:biggrin:

AnarchX
2013-10-21, 11:35:46
GK180 mit tieferen Veränderungen?
Not really, there are differences for example K6000 is the only one to support 64-bit atomics
http://forum.beyond3d.com/showpost.php?p=1796452&postcount=1577

Raff
2013-10-21, 11:41:24
Das mit Titan war ein Fehler, das sehe ich schon ein. Die 780 wäre besser gewesen, genauso wie man lieber die 780 Ti statt der Titan Ultra kaufen sollte.

Warte mal ab. Titan könnte sich schon nächstes Jahr auszahlen. Mit dem Standard-BIOS und -Kühler ist und bleibt das Teil aber weit unter seinen Möglichkeiten. Vertick eine, solange sie noch etwas bischen etwas wert ist, und modde die Kiste endlich. :D

MfG,
Raff

Gaestle
2013-10-21, 11:55:16
Der GPU-Z-Shot, der vor ein paar Wochen hier (ich weiß nicht mehr, welcher Thread genau) mit 1920SP gepostet wurde... passt der irgendwie zu dem 780Ti-Gerücht, bzw. dem Statement vom NV-CEO?

boxleitnerb
2013-10-21, 11:58:28
Warte mal ab. Titan könnte sich schon nächstes Jahr auszahlen. Mit dem Standard-BIOS und -Kühler ist und bleibt das Teil aber weit unter seinen Möglichkeiten. Vertick eine, solange sie noch etwas bischen etwas wert ist, und modde die Kiste endlich. :D

MfG,
Raff

Mod-Bios und Wakü war das erste, was ich mit den Karten gemacht hab :tongue:
Aber höher wie 1150/3300 komme ich nicht mit 1.2V, und selbst das ist teilweise instabil - vermutlich der Speicher, so genau hab ich das nicht ausgetestet. Ich bin generell kein Freund von so hohem Übertakten, da geht nur die Effizienz in den Keller, und (viel) spielbarer wirds bei 10-20% auch net.

Ich fahre 1006/3004 flüsterleise, das reicht mir erstmal.

Raff
2013-10-21, 12:01:41
Mod-Bios und Wakü war das erste, was ich mit den Karten gemacht hab :tongue:
Aber höher wie 1150/3300 komme ich nicht mit 1.2V, und selbst das ist teilweise instabil - vermutlich der Speicher, so genau hab ich das nicht ausgetestet. Ich bin generell kein Freund von so hohem Übertakten, da geht nur die Effizienz in den Keller, und (viel) spielbarer wirds bei 10-20% auch net.

Ich fahre 1006/3004 flüsterleise, das reicht mir erstmal.

Na dann verstehe ich die Aufregung nicht. :D Mit Titan-SLI @ 1,15 GHz wirst du auch kommendes Jahr keine Probleme kriegen – vor allem, weil du im Gegensatz zu allen anderen GeForce-Karten genügend Grafikspeicher hast, um die Zukunft anzulachen. :biggrin:

MfG,
Raff

M4xw0lf
2013-10-21, 12:04:20
Warte mal ab. Titan könnte sich schon nächstes Jahr auszahlen.
MfG,
Raff
Wegen dem Speicherpolster?

Raff
2013-10-21, 12:06:36
Yep, kombiniert mit reichlich Rohleistung, sofern man die Kiste prügelt. Bis auf die DP-Features kann das Ding ja sonst nichts besser als die anderen Endkunden-GeFörcer.

MfG,
Raff

boxleitnerb
2013-10-21, 12:09:43
Na dann verstehe ich die Aufregung nicht. :D Mit Titan-SLI @ 1,15 GHz wirst du auch kommendes Jahr keine Probleme kriegen – vor allem, weil du im Gegensatz zu allen anderen GeForce-Karten genügend Grafikspeicher hast, um die Zukunft anzulachen. :biggrin:

MfG,
Raff

Ich glaube nicht, dass die 6 GB den heftigen Aufpreis von 800 Euro für die beiden Karten gerechtfertigt sind/waren. Hätte ich gewusst, dass die GTX 780 für ca. 600 Euro kommt im Mai, ich hätte gewartet.

Dural
2013-10-21, 12:12:50
Das Titan zu dem Preis ein Fehler war hab ich ja immer gesagt :wink:

Und ich Wette, falls es eine Titan Ultra geben wird, die sogar günstiger sein wird, als die Titan v1.

boxleitnerb
2013-10-21, 12:15:11
899 könnte ich mir vorstellen. Vielleicht gar 849, aber weniger sicher nicht.

Raff
2013-10-21, 12:27:01
Das Titan zu dem Preis ein Fehler war hab ich ja immer gesagt :wink:

Das war von Anfang an klar. Im Laufe der Zeit hat sich die Lage gebessert, spätestens durch die BIOS-Mods gewann die Karte an Attraktivität, die kurze Leine ab Werk ist ja kein Zustand.

MfG,
Raff

Dural
2013-10-21, 13:24:41
899 könnte ich mir vorstellen. Vielleicht gar 849, aber weniger sicher nicht.

Doch ziemlich sicher, NV kann nicht 300.- mehr verlangen für 10% mehr Leistung gegenüber 290X, wenn überhaupt :confused:

boxleitnerb
2013-10-21, 13:28:50
Doch ziemlich sicher, NV kann nicht 300.- mehr verlangen für 10% mehr Leistung gegenüber 290X, wenn überhaupt :confused:

Aber 600 Euro mehr für 25-30% Leistungsplus war da groß anders? :confused:
Die machen, was sie wollen, solange sie es verkaufen können. Und das können sie offenbar.

Gipsel
2013-10-21, 13:56:40
GK180 mit tieferen Veränderungen?

http://forum.beyond3d.com/showpost.php?p=1796452&postcount=1577Wie mczak sofort inzwischen richtig geantwortet hat, ist der aufgeführte Punkt vermutlich schlicht falsch.

AnarchX
2013-10-21, 14:06:02
Wie mczak sofort inzwischen richtig geantwortet hat, ist der aufgeführte Punkt vermutlich schlicht falsch.
Vielleicht meint er diese:
Other atomic operations which are not supported natively (for example 64‐bit floating point atomics)
may be emulated using the compare‐and‐swap (CAS) instruction.
http://www.nvidia.com/content/PDF/kepler/NVIDIA-Kepler-GK110-Architecture-Whitepaper.pdf S.12

Dural
2013-10-21, 16:42:35
naja, Änderungen wird es ja sicher geben, sonst würde das ding GK110 A2 heissen und nicht GK180 :rolleyes:

oder NV hat ihren GK110 A1 Chip einfach in GK180 unbenannt :freak:


@boxleitnerb

Titan war damals eine komplett andre Liga, 6GB Speicher, keine andere Karte mit GK110, 7970 locker mit ca. 30% abgezogen, DP Power... Was bleibt da heute noch übrig??? Da bleibt wohl nur noch die DP Leistung übrig.

boxleitnerb
2013-10-21, 16:44:42
780 Ti soll soviel wie 780 kosten:
http://translate.googleusercontent.com/translate_c?act=url&depth=1&hl=de&ie=UTF8&prev=_t&rurl=translate.google.de&sandbox=0&sl=sv&tl=en&u=http://www.sweclockers.com/nyhet/17767-geforce-gtx-780-ti-prissatts-pa-samma-niva-som-gtx-780&usg=ALkJrhhhdqsvm9-4HGbH_In9tbC336j-XQ

haudi
2013-10-21, 16:57:32
Joa 550€ rum zum release. Bin ich froh, dass ich all meine Karten weg habe und die 290x bald da ist;) - hoffe nur, dass ich mit den 580€ nicht zuviel hingelegt habe. Naja mal sehen.

AnarchX
2013-10-21, 17:19:17
In Asien gibt es nun noch Spekulationen zu einer GTX 780 "GHz Edition", die nächste Woche vorgestellt werden soll:
http://news.mydrivers.com/1/279/279566.htm
... fraglich ob da NV etwas offiziell vorstellen wird oder ob man nur ein paar aktuelle Reviews initiert, in welchen OC-Versionen der GTX 780 gegen die R9 290X antretten.

M4xw0lf
2013-10-21, 17:24:08
Vielleicht bekommt die Ti auch nen eigenen Namen in Asien, die haben doch schon immer wieder eigene Modelle gehabt.

boxleitnerb
2013-10-21, 18:09:48
Doch nur 13 SMX?
http://www.chiploco.com/nvidia-gtx-780-ti-gpu-z-specifications-29788/

http://abload.de/img/nvidia-geforce-gtx-78c1uh6.jpg (http://abload.de/image.php?img=nvidia-geforce-gtx-78c1uh6.jpg)

Die Karte wäre genauso schnell wie eine Titan. Das sollte reichen, um die 290 (ohne X) gerade so schlagen zu können. Darüber kommt dann der Vollausbau, denn 10-15% sollten es schon sein, und ich kann mir nicht vorstellen, dass Nvidia das bei 14 SMX nur mit dem Takt machen will.

Hübie
2013-10-21, 18:17:30
Ich meine mal gelesen oder gehört zu haben dass nVidia den jeweiligen Top dog weiterhin Titan nennen möchte.
Wenn ich doch nur wüsste wo das war... :|
@box: wurde etwa was anderes kommuniziert? 2496 + 5 GB oder nicht. GK180 dann wohl im Titanen mit mehr L2 (der umfangreicher agiert) und noch netten schnick schnack wie global sync?

boxleitnerb
2013-10-21, 18:20:33
Ich dachte, die 780 Ti hätte 14 SMX, so mein Kenntnisstand.
Nvidia beschneidet das Interface sicher nicht, das wäre unratsam wegen der immensen Bandbreite, die schon die R9 290 hat.

Hübie
2013-10-21, 18:27:16
Und wie grenzt sich diese Karte dann von der aktuellen Titan ab?

Edit: Warum nicht das SI beschneiden? Texturfüllrate, setup etc wären immer noch stark genug. Takt ftw... ^^

boxleitnerb
2013-10-21, 18:37:02
Die Titan dürfte dann auslaufen, da kommt noch was drüber.

crux2005
2013-10-21, 18:39:51
Die Karte wäre genauso schnell wie eine Titan. Das sollte reichen, um die 290 (ohne X) gerade so schlagen zu können. Darüber kommt dann der Vollausbau, denn 10-15% sollten es schon sein, und ich kann mir nicht vorstellen, dass Nvidia das bei 14 SMX nur mit dem Takt machen will.

Eins passt mir dann aber nicht ins Bild. Wieso schreib nVidia im mouse-over text "Fastest and Newest Graphics Card Ever"

http://www.geforce.com/whats-new/articles/introducing-nvidias-latest-extreme-performance-graphics-card

Also muss sie schneller sein als GTX Titan. Danach kann noch Titan Ultra kommen.

boxleitnerb
2013-10-21, 18:40:34
Ja gut, vielleicht 1-2% schneller. Marketing halt, kennst das doch. Titan muss dann so oder so "sterben", ist ja nicht mehr das Schnellste und verdient damit den Namen auch nicht.

Konami
2013-10-21, 19:06:29
Die 780 Ti muss ein gutes Stück (>10%) schneller als die Titan sein, wenn sie die R9 290X ausstechen soll. Und davon kann man ausgehen.

boxleitnerb
2013-10-21, 19:11:09
Die 780 Ti muss nur die R9 290 schlagen, für die R9 290X hat Nvidia was anderes ;)

LSSJBroly
2013-10-21, 19:13:01
Die werte sind schon falsch - Pixelfillrate: 43,9 ... 902 x 48 = 43296 (43,3)
Texelfillrate stimmt auch nicht :D (müssten 187,6 ein)

Für die 43,9GPixel bräuchte man 915 MHz, für die 205GTexel dann rund 985MHz...

Hübie
2013-10-21, 19:28:13
Dann könnte es also doch ein GK180 sein. Dann wieder 6 GB VRAM.
Mal ehrlich: wer steigt da noch durch? ;D

Angiesan
2013-10-21, 19:28:30
Danke, die Pixel stimmen aber die Texel nicht das ist titanisch sogar leicht darüber ;-)

LSSJBroly
2013-10-21, 19:31:06
Danke, die Pixel stimmen


Mit den 902MHz auch nicht, siehe oben ^^

Die Werte in diesem GPU-Z screen würden zu einer 14SMX Version passen, die eben mit 915MHz Base-Takt läuft :)

915 x 48 = 43,9

915 x 224 = 205,0 (204,96)

Godmode
2013-10-21, 19:43:32
Dann könnte es also doch ein GK180 sein. Dann wieder 6 GB VRAM.
Mal ehrlich: wer steigt da noch durch? ;D

Da gibts bei Nvidia wohl eine eigene Abteilung: RCNGD (Random Code Name Generator Department) ;D

Angiesan
2013-10-21, 19:52:21
Mit den 902MHz auch nicht, siehe oben ^^

Die Werte in diesem GPU-Z screen würden zu einer 14SMX Version passen, die eben mit 915MHz Base-Takt läuft :)

915 x 48 = 43,9

915 x 224 = 205,0 (204,96)

Ja stimmt was Du schreibst!

horn 12
2013-10-21, 19:57:16
Langt es für NV die R9 290X mit einem höheren Titan 700Euro+ schlagen zu können.
Bereits die TI soll gleich viel kosten wie die GTX 780 :-(
Obwohl die R9 2920 wohl kaum mehr als 450 Euro kosten wird und schneller als die GTX 780, vielleicht auf Augenhöhe mit TI ist.

grizu
2013-10-21, 19:59:47
780 Ti soll soviel wie 780 kosten:
http://translate.googleusercontent.com/translate_c?act=url&depth=1&hl=de&ie=UTF8&prev=_t&rurl=translate.google.de&sandbox=0&sl=sv&tl=en&u=http://www.sweclockers.com/nyhet/17767-geforce-gtx-780-ti-prissatts-pa-samma-niva-som-gtx-780&usg=ALkJrhhhdqsvm9-4HGbH_In9tbC336j-XQ
Wird bei erscheinen meine nächste Karte :)

Hübie
2013-10-21, 20:03:49
Da gibts bei Nvidia wohl eine eigene Abteilung: RCNGD (Random Code Name Generator Department) ;D

Hahahaaa ;D;D u made my day dude ;D

crsx
2013-10-21, 20:09:24
Ich denke wenn es eine Titan Ultra geben wird die dann wieder 900 ocken kostet wäre das mehr als lächerlich...
Zwar war titan schon zu anfang zu teuer, allerdings gab es nix vergleichbares bzw war schon alles andere zu lange auf dem Markt.
Das einzige was meiner Meinung nach Sinn machen würde wäre eine 790.
Solange man tatsächlich 2 gk110 auf ein pcb bekommen sollte.

Lieben Gruß
Tim
Solange es man denn schaft 2 gk110 auf ein pcb zu klatschen.

Dural
2013-10-21, 20:10:42
ich würde mal behaupten das die 780ti und Titan "Ultra" den GK180 drauf haben.

die 780i mit nur 1920SP ist der GK110 abverkauf, wie üblich bei NV.

Angiesan
2013-10-21, 20:13:56
Langt es für NV die R9 290X mit einem höheren Titan 700Euro+ schlagen zu können.
Bereits die TI soll gleich viel kosten wie die GTX 780 :-(
Obwohl die R9 2920 wohl kaum mehr als 450 Euro kosten wird und schneller als die GTX 780, vielleicht auf Augenhöhe mit TI ist.

Wenn die Informtionen die man so sehen kann stimmen wird die GTX 780 Ti nicht gegen die R9 290 sondern gegen die R9 290X gestellt und soll so man den Spekulationen glauben darf ein Titan Light mit 3 GB aber etwas höherem Takt sein. Das dürfte dann auch reichen für einen Gleichstand ;-)

Vom Preis ist bisher aber noch nicht wirklich was bekannt, wenn man den Aussagen aber glauben darf wird es nicht teurer wie die GTX 780 also wieder 649 Euro UPE was dann nach ein paar Tagen wieder irgendwo in den 5xx Euro Region landen sollte. Ich denke es hängt auch ab wie sich die kleine und große R9 schlägt :-)

AnarchX
2013-10-22, 09:14:02
In Asien gibt es nun noch Spekulationen zu einer GTX 780 "GHz Edition", die nächste Woche vorgestellt werden soll:
http://news.mydrivers.com/1/279/279566.htm
... fraglich ob da NV etwas offiziell vorstellen wird oder ob man nur ein paar aktuelle Reviews initiert, in welchen OC-Versionen der GTX 780 gegen die R9 290X antretten.

NVIDIA GeForce GTX 780 Rev. 2
[...]
Bios Remade from the ground up
http://www.techpowerup.com/gpudb/2513/geforce-gtx-780-rev-2.html

Badner1972
2013-10-22, 12:28:49
Wirklich clever von NV..so verscherbeln sie auch noch GPU´s die für den Profimarkt nicht verwendbar sind als GTX 780 Ti ,optimale Resteverwertung sag ich da nur. MAn kann sicher sein,das NV die finalen Taktraten erst offenbart,wenn AMD mit der 290X die Hosen runter gelassen hat. Unabhängig,wer nun leicht die Nase vorn hat,ist endlich wieder mehr Auswahl im High End und das mit (hoffentlich) reduzierten Preisen (gemessen an den absurden derzeit)

boxleitnerb
2013-10-22, 18:33:34
Die 780 Ti ist angeblich die Titan "Ultra". Kommt von jemandem, der auch schon früh die 290X zum Benchen hatte. Würde mich aus zwei Gründen wundern:

1. Falls das Gerücht zum Preis stimmt, würde Nvidia vom $999 Preispunkt abrücken und die Preise für alles darunter deutlichst anpassen.
2. Titan müsste auslaufen, jedenfalls würde das von der Nomenklatur dann keinen Sinn mehr machen. So oder so, die Lücke zwischen 780 und 780 Ti wäre sehr groß, um die 20-25% bei gleichem Takt. Verringert werden könnte sie aber, falls die 780 GHz Ed. wirklich kommt.

Ich versuche, mehr in Erfahrung zu bringen.

Ronny145
2013-10-22, 18:35:29
Kann ich mir nicht vorstellen. Nicht bei nur 3GB und dem dann zu erwartenden Preisrahmen.

M4xw0lf
2013-10-22, 18:37:14
Die 780 Ti ist angeblich die Titan "Ultra". Kommt von jemandem, der auch schon früh die 290X zum Benchen hatte. Würde mich aus zwei Gründen wundern:

1. Falls das Gerücht zum Preis stimmt, würde Nvidia vom $999 Preispunkt abrücken und die Preise für alles darunter deutlichst anpassen.
2. Titan müsste auslaufen, jedenfalls würde das von der Nomenklatur dann keinen Sinn mehr machen. So oder so, die Lücke zwischen 780 und 780 Ti wäre sehr groß, um die 20-25% bei gleichem Takt. Verringert werden könnte sie aber, falls die 780 GHz Ed. wirklich kommt.

Ich versuche, mehr in Erfahrung zu bringen.

Ich würde das eher so verstehen, dass eben keine echte Titan Ultra kommt...?

gnahr
2013-10-22, 18:41:36
es gab ja mal die ursprungsaussage titan hätte keine nummer im schema, weil es was besonderes sein wird... das deckt sich mit der idee der 780ti als einzigem novum.

Sunrise
2013-10-22, 18:43:27
NV muss mit der 780 Ti zur 290X min. aufschließen, und zwar sowohl bei Leistung als auch ungefähr im Preis. Das kann man denke ich als gesichert ansehen. Ansonsten würde die 780 Ti überhaupt keinen Sinn ergeben. Allerdings führen da viele Wege nach Rom. Man sollte aber an den von Jensen angesprochenen niedrigen Stromverbrauch denken.

Tom Petersen durfte beim G-Sync Live-Stream zwar nicht mehr Details verraten, aber auch er sagte: "It´s our new High-End."

boxleitnerb
2013-10-22, 18:47:00
Soweit ich weiß, war Titan eine recht spontane Sache, das war nicht von langer Hand geplant. Vielleicht gibts sowas auf absehbare Zeit nicht mehr, also solche Sondernamen.

Mit dem Namen kann ich leben, mit der Lücke auch, aber der Preis...ist einfach zu gut. Selbst für nur 3 GB. Für 6 erst recht. Kann mir auch nicht vorstellen, dass es kein Topmodell mit 6 GB mehr gibt. Es sei denn, das bleibt den Partnern überlassen und 3 GB ist halt Referenzdesign.

@Sunrise:
Wo kommt das mit dem Verbrauch her? Das war doch eine recht schwammige Aussage, oder?

Edit:
Titan wird EOL. Das war eigentlich klar.
http://www.xtremesystems.org/forums/showthread.php?287551-Nvidia-unveils-the-GeForce-GTX-780-Ti&p=5212304&viewfull=1#post5212304 ff.

Hübie
2013-10-22, 18:48:04
Oh man ich schnall nix mehr ;D
Also 2688 ALUs, 2 MB L2 auf GK180? Die mit ihrer beschissenen Namensgebung... :rolleyes:

Gipsel
2013-10-22, 18:55:03
Also 2688 ALUs, 2 MB L2 auf GK180?Dann mit 256Bit oder mit 512Bit-Interface? Die L2-Größe ist genau wie die ROP-Anzahl an die Breite des Speicherinterfaces gekoppelt. ;)

Sunrise
2013-10-22, 18:56:16
@Sunrise:
Wo kommt das mit dem Verbrauch her? Das war doch eine recht schwammige Aussage, oder?
Ja, ist recht schwammig, wurde von Jensen aber hervorgehoben und blieb mir deshalb im Gedächtnis.

Godmode
2013-10-22, 19:28:51
Die 780 Ti ist angeblich die Titan "Ultra". Kommt von jemandem, der auch schon früh die 290X zum Benchen hatte. Würde mich aus zwei Gründen wundern:

1. Falls das Gerücht zum Preis stimmt, würde Nvidia vom $999 Preispunkt abrücken und die Preise für alles darunter deutlichst anpassen.
2. Titan müsste auslaufen, jedenfalls würde das von der Nomenklatur dann keinen Sinn mehr machen. So oder so, die Lücke zwischen 780 und 780 Ti wäre sehr groß, um die 20-25% bei gleichem Takt. Verringert werden könnte sie aber, falls die 780 GHz Ed. wirklich kommt.

Ich versuche, mehr in Erfahrung zu bringen.

Eine voll ausgebaute Titan wäre mir eigentlich lieber. Mit Unlock BIOS und noch schnellerem Speicher wäre das Ding uneinholbar. Dürfte dann Titan Ultra heißen, oder noch besser nur GTX Ultra. (was für ein geiler Name)

edit: 512 Bit SI wäre natürlich auch was feines und dann noch 8 GB Speicher dazu. :ugly:

boxleitnerb
2013-10-22, 19:32:45
Die 780 Ti soll mindestens 2688 SPs haben, möglicherweise 2880. Siehe Thread bei XS. Der geleakte GPU-Z Shot ist Fake.

LSSJBroly
2013-10-22, 19:38:17
Dürfte dann Titan Ultra heißen, oder noch besser nur GTX Ultra. (was für ein geiler Name)


Stimmt ... Nvidia Geforce GTX Ultra ... wäre schon geil ;D

ein 15SMX Chip, 7GBps Vram und 1GHz Basistakt - das Ding wäre wirklich böse und rund 25% schneller als eine Titan - stock :freak:

Außerdem hätte man +/- die selbe Performance wie die GTX 690, aber eben nur mit einer GPU - oder fast 5.800 GFLOPs - und somit sogar mehr als die 290X :D

Angiesan
2013-10-22, 20:17:05
Dann mit 256Bit oder mit 512Bit-Interface? Die L2-Größe ist genau wie die ROP-Anzahl an die Breite des Speicherinterfaces gekoppelt. ;)

Ist das so? Ich meine was anderes gelesen zu haben bei den Keplers, kann mich aber auch irren.

Raff
2013-10-22, 20:22:51
Stimmt ... Nvidia Geforce GTX Ultra ... wäre schon geil ;D

ein 15SMX Chip, 7GBps Vram und 1GHz Basistakt - das Ding wäre wirklich böse und rund 25% schneller als eine Titan - stock :freak:

Außerdem hätte man +/- die selbe Performance wie die GTX 690, aber eben nur mit einer GPU - oder fast 5.800 GFLOPs - und somit sogar mehr als die 290X :D

Geil wäre so eine Kiste auf jeden Fall, aber sie wäre nichts, was man nicht schon mit einer aktuellen Titan (unlocked & kalt) hinbekommt. Eine Titan @ 1.202/3.600 MHz pumpt 6,46 TFLOPS und 345,6 GByte/s durch die Leitungen. PCGH hat aber jüngst getestet, dass selbst eine Titan @ 1.254/3.703 MHz nicht immer die absluten Fps einer GTX 690 erreicht – das Spielgefühl aber immer, teils besser ... :naughty:

Geforce GTX Titan Extrem-Übertaktung: "GTX 880"-Leistung schon jetzt (http://www.pcgameshardware.de/Geforce-Titan-Grafikkarte-256920/Tests/GTX-Titan-Extrem-Overclocking-GTX-880-1076043/)

MfG,
Raff

Angiesan
2013-10-22, 20:24:59
Die 780 Ti soll mindestens 2688 SPs haben, möglicherweise 2880. Siehe Thread bei XS. Der geleakte GPU-Z Shot ist Fake.

Boxi, könntest du mir bitte mal einen Gefallen tun und eine deiner Babys mit 915 MHz takten und dann den Firestrike durchlaufen lassen du hast ja auch das Mod-Bios drauf bei dem du den Takt ohne Boost einstellen kannst, viel Luft für Boost würde da eh kaum bleiben bei gleichem PT , damit man mal einen Anhaltspunkt hat.
Bitte Bitte :)

crsx
2013-10-22, 20:25:12
Naja, nen Gk180 mit 14 smx würde ja auch irgendwie sinn machen, da laut meines Wissens der G180 nur als Vollausbau Verwendung findet in K6000 (habe ich mal gehört) und jedenfalls in der K40.
Wenn bei der neuen Revision jetzt welche dabei sind, wo 1ner der 15 nicht geht, kann man den noch der 780Ti geben.
Wäre zumindest eine Möglichkeit für den Grund eines möglichen nicht-Vollausbau.

Dann kann man die mit noch weniger gleich auf ne 790 setzen :)

War nicht in den frühen Gerüchten die Rede von einer Dual Hawai Karte ?
Für eben sowas bräuchte man ja auch einen Gegenspieler ....

LG Tim

Hübie
2013-10-22, 21:12:09
Dann mit 256Bit oder mit 512Bit-Interface? Die L2-Größe ist genau wie die ROP-Anzahl an die Breite des Speicherinterfaces gekoppelt. ;)

:P Hast ja Recht. Ich meinte übrigens 2880 ALUs. Sorry ^^

Gipsel
2013-10-22, 22:16:56
Ist das so?Ja.

boxleitnerb
2013-10-22, 22:19:46
Es wird offenbar Custom-Modelle geben von der 780 Ti. Keine Beschränkungen wie bei Titan. Nur 3 GB, aber da dürfen die Partner wohl was ändern, wenn Titan eh ausläuft.

Konami
2013-10-22, 23:10:24
Ist das so? Ich meine was anderes gelesen zu haben bei den Keplers, kann mich aber auch irren.
Was du gelesen hast bezog sich wohl auf asymmetrische Speicherbestückung, z.B. 2 GiB bei einem 192-bit Interface. Das geht schon.

Es wird offenbar Custom-Modelle geben von der 780 Ti. Keine Beschränkungen wie bei Titan. Nur 3 GB, aber da dürfen die Partner wohl was ändern, wenn Titan eh ausläuft.
Quetsch deine Quelle mal über den ungefähren Preisbereich aus, das ist momentan die größte Frage. :D

StefanV
2013-10-22, 23:45:18
Was du gelesen hast bezog sich wohl auf asymmetrische Speicherbestückung, z.B. 2 GiB bei einem 192-bit Interface. Das geht schon.
Ja, das ist uns bekannt. Ist dennoch eher suboptimal, bzw eher eine schlechte Idee...

Sicher, besser als über den PCie zu gehen ists allemal, aber besser wärs, wenn man auch 'obenrum' eine volle Speicheranbindung hat...

Denn bei 5GiG hast ja nur 3 GiB, die mit den vollen 384bit angebunden sind, die restlichen 2GiB sind dann nur mit 256bit angebunden - extremst unschön sowas ist.

Skysnake
2013-10-22, 23:50:33
Eine voll ausgebaute Titan wäre mir eigentlich lieber. Mit Unlock BIOS und noch schnellerem Speicher wäre das Ding uneinholbar. Dürfte dann Titan Ultra heißen, oder noch besser nur GTX Ultra. (was für ein geiler Name)

edit: 512 Bit SI wäre natürlich auch was feines und dann noch 8 GB Speicher dazu. :ugly:
Sind wir jetzt etwa bei "Wünsch dir was"?:freak:

Angiesan
2013-10-22, 23:56:32
@ StefanV: Er hat sich auf meine Frage bezogen die ich Gipsel gestellt hatte mit ROP und L2 Cache ich war im Glauben das die GTX 660 Ti auch 512 KB hat wie die 680 und 670, was sie jedoch nicht hat, hatte es noch mal nachgelesen.

Godmode
2013-10-23, 00:03:57
Sind wir jetzt etwa bei "Wünsch dir was"?:freak:

Es wäre halt eine nette Karte, wo auch ein Highend User wieder gewillt wäre aufzurüsten.

grizu
2013-10-23, 00:34:22
Es wäre halt eine nette Karte, wo auch ein Highend User wieder gewillt wäre aufzurüsten.
Und die 780Ti ist also kein Highend ? :freak:

boxleitnerb
2013-10-23, 07:17:27
Quetsch deine Quelle mal über den ungefähren Preisbereich aus, das ist momentan die größte Frage. :D

Das steht ausnahmsweise mal öffentlich im XS-Forum :)

V2.0
2013-10-23, 07:46:53
Und die 780Ti ist also kein Highend ? :freak:

384Bit 3GB, ne das ist kein High-End.

Ailuros
2013-10-23, 08:38:01
384Bit 3GB, ne das ist kein High-End.

Waehrend bis jetzt die 7970 wohl "high end" war oder was? Theoretisch koennten sie 7Gbps GDDR5 auf 384bit schnallen und die 3GB sind zwar randmaessig fuer UHD/multi-monitor aber sie koennten schon fuer high end zaehlen. 6GB auf Titan waren hauptsaechlich um den DP Quark und noch mehr den obszoenen MSRP zu gerechtfertigen.

Aber ich akzeptier Deine Logik auch gerne; NV soll eine GK180 Variante mit 6GB bringen und ich werde dann Hawaii mit ihren "nur" 4GB "performance" nennen :rolleyes:

V2.0
2013-10-23, 08:44:17
Das war Sarkasmus im Hinblick auf die vorherigen Posts (512Bit SI, 8GB etc.)

Ailuros
2013-10-23, 08:47:18
Das war Sarkasmus im Hinblick auf die vorherigen Posts (512Bit SI, 8GB etc.)

Dann entschuldige ich mich fuer's Missverstaendnis, aber ich lass meinen Post so stehen fuer die Deppen die high end nur mit sterilen Quantitaeten zaehlen.

Godmode
2013-10-23, 08:48:54
Und die 780Ti ist also kein Highend ? :freak:

Du hast mich wohl falsch verstanden. Wollte sagen wenn man schon ne Titan hat (Highend-User), die auch noch übertaktet ist, dann muss eine etwaige Nachfolger Karte schon ein Stück schneller sein, damit es attraktiv ist aufzurüsten.

V2.0
2013-10-23, 08:52:19
Wo soll innerhalb einer Generation und innerhalb des praktisch gleichen Chips bitte auch der Leistungsgewinn herkommen? ~Titan-Leistung wird imho bis Q4/14 kaum massiv überboten werden.

Godmode
2013-10-23, 08:58:59
Wo soll innerhalb einer Generation und innerhalb des praktisch gleichen Chips bitte auch der Leistungsgewinn herkommen? ~Titan-Leistung wird imho bis Q4/14 kaum massiv überboten werden.

Naja was heißt massiv? Wenn sie einen 15 SMXer mit 512 Bit SI und mehr Takt bringen würden, dann könnte sich die Karte schon Messbar von einer normalen Titan absetzen.

boxleitnerb
2013-10-23, 09:03:09
Wo sollen die 512-bit herkommen? Die pappt man nicht einfach mal so drauf. Solche großen Änderungen siehst du immer nur bei einer neuen Generation, denn das dauert lange, das alles zu implementieren.

V2.0
2013-10-23, 09:03:27
Übertakte die GPU Deiner Titan um 10% und erhöhe dann den Speichertakt, setzt sich die Erhöhung der Bandbreite exakt entsprechend der Speichertakterhöhung in FPS um? Falls nein, dann würden 512Bit SI auch nichts wesentliches bringen.

boxleitnerb
2013-10-23, 09:12:38
Die Taktskalierung ist exzellent, wenn man auch den Speicher übertaktet, siehe PCGH-Review mit ihrer Titan@1254/3600.

Ailuros
2013-10-23, 09:16:06
Naja was heißt massiv? Wenn sie einen 15 SMXer mit 512 Bit SI und mehr Takt bringen würden, dann könnte sich die Karte schon Messbar von einer normalen Titan absetzen.

Wieso 512bit SI? Nur weil AMD einen schnellen und billigen Weg hatte Pitcairn Aspekte zu verdoppeln heisst es noch lange nicht dass 512bit momentan eine Notwendigkeit sind. Die GTX770 hat schon 7Gbps GDDR5 und auf einem 384bit ergibt dieser 336GB/s Bandbreite oder 5% mehr Bandbreite als Hawaii mit seinem 512bit Bus. Im Vergleich zur Titan Bandbreite waere es eine Steigerung von knapp 17% welches durchaus fuer eine theoretische Leistungssteigerung von ~15% ausreicht (+1 SMX, +10% Takt und man ist schon dabei...).

Die Taktskalierung ist exzellent, wenn man auch den Speicher übertaktet, siehe PCGH-Review mit ihrer Titan@1254/3600.

Also wenn die Quadro K6000 wirklich mit einem GK180 ausgestattet ist waere dieser der bessere Kandidat dafuer.

V2.0
2013-10-23, 09:22:01
Die Taktskalierung ist exzellent, wenn man auch den Speicher übertaktet, siehe PCGH-Review mit ihrer Titan@1254/3600.

512Bit SI wäre nur sinnvoll, wenn die Leistungssteigerung ohne GPU OC linear mit dem Speichertakt skaliert. Es steht außer Frage, dass ein GK180 Vollausbau @ 1GHZ aka Titan Ultra mehr Bandbreite braucht als die Titan heute hat, aber mit dem Speicher der GTX770 sollte das locker gehen.

boxleitnerb
2013-10-23, 09:22:23
Also wenn die Quadro K6000 wirklich mit einem GK180 ausgestattet ist waere dieser der bessere Kandidat dafuer.

Sicher, es ist aber dennoch extrem unwahrscheinlich, dass GK180 ein breiteres Interface hat. Das hätte man auch auf K40 Atlas und K6000 so eingesetzt, wäre es vorhanden.

512Bit SI wäre nur sinnvoll, wenn die Leistungssteigerung ohne GPU OC linear mit dem Speichertakt skaliert. Es steht außer Frage, dass ein GK180 Vollausbau @ 1GHZ aka Titan Ultra mehr Bandbreite braucht als die Titan heute hat, aber mit dem Speicher der GTX770 sollte das locker gehen.

Linear ist es nicht, sogar ziemlich weit entfernt davon (vielleicht 3% bei 15% mehr Bandbreite). Man hätte es sich höchstens für den Profibereich vorstellen können, aber das war auf die Schnelle sicher nicht machbar.

fondness
2013-10-23, 09:30:05
Die Taktskalierung ist exzellent, wenn man auch den Speicher übertaktet, siehe PCGH-Review mit ihrer Titan@1254/3600.

Was auch logisch ist. Jede Karte skaliert linear mit dem Takt wenn ich auch die Bandbreite erhöhe.

AnarchX
2013-10-23, 10:08:13
Die K6000 hat wohl möglich doch keine stabile 900MHz bei ihren 225W TDP:

NVIDIA Quadro K6000 Graphics Card based on the GK180 GPU
Core Count: 2880
Base Clock: 797 MHz
Boost Clock: 902 MHz

The Quadro K6000 is the first NVIDIA Professional solution to incorporate Quadro Boost, a mechanism that automatically maximizes application performance while staying within the specified power envelope. For workloads that do not reach the allowed power level, the GPU clock is automatically increased to "Boost Clock" in order to leverage the remaining power budget for additional increased performance. The GPU will always try to reach the higher "Boost Clock" in order to maximize application performance.
The Quadro Boost feature will disable "Boost Clocking" in the following scenarios:
If clock jitter sensitive "Workstation features" like Sync, SDI, or SLI is enabled, the Quadro K6000 will clock to Base Clock automatically.
If the user manually selects the "Prefer Consistent Performance" Control Panel option to lock explicitly to Base Clock (can be useful for performance tuning of applications during development).

http://h18000.www1.hp.com/products/quickspecs/14708_na/14708_na.PDF

robbitop
2013-10-23, 10:13:37
GK180 ist GK110 auf HPM? Ich hatte vor ein paar Tagen gelesen, dass die 780ti auf GK110 basiert und 14 SMX hat. Hat sich daran etwas geändert?

boxleitnerb
2013-10-23, 10:16:35
Das wäre auch einfach zu gut gewesen. Wo hätte das auch herkommen sollen.

Ailuros
2013-10-23, 10:20:25
Die K6000 hat wohl möglich doch keine stabile 900MHz bei ihren 225W TDP:


http://h18000.www1.hp.com/products/quickspecs/14708_na/14708_na.PDF

So oder so ist es ziemlich klar dass bei den 225W TDP fuer die K6000 noch ziemlich guten Luftraum fuer hoehere TDP und hoehere Frequenzen gibt. Die 800MHz base clock im gegebenen Fall sind auch nicht gerade wenig.

Skysnake
2013-10-23, 10:23:38
Naja was heißt massiv? Wenn sie einen 15 SMXer mit 512 Bit SI und mehr Takt bringen würden, dann könnte sich die Karte schon Messbar von einer normalen Titan absetzen.
Und wohin packen wir die zusätzlichen 128Bit der 512BIt SI im Vergleich zum 384er?

Neben den Chip? :ugly:

GK110 ist am limit gebaut. DA kannste es knicken, das man das SI breiter bekommt. Vor allem nicht, wenn du die Taktraten halten willst. Wenn müssten die wie bei AMD wohl auch einfach runter. AMD hat beim 384er von Tahiti wohl auch einfach ein bischen sehr groß gebaut. Also größer als nötig.

Das erwarte ich von nVidia nicht unbedingt. Die haben ja schon seit GF100 mit 384 Bit GDDR5 Interfaces erfahrung. Also seit jetzt drei Chips. Da glaub ich nicht, dass die noch viel aus dem SI raus holen werden an Flächenersparnis.

V2.0
2013-10-23, 10:27:12
Die K6000 hat wohl möglich doch keine stabile 900MHz bei ihren 225W TDP:


http://h18000.www1.hp.com/products/quickspecs/14708_na/14708_na.PDF

225W TDP in einer Produktivumgebung mit wenig Spielraum für Fehler. 800mhz Base und 900mhz Boost ist da eher ziemlich gut. :eek:

boxleitnerb
2013-10-23, 12:04:47
6 GB als non-Referenz, evtl. auch als Referenz. Aber die wohl nicht für $649:
http://www.xtremesystems.org/forums/showthread.php?287551-Nvidia-unveils-the-GeForce-GTX-780-Ti&p=5212549&viewfull=1#post5212549

Dural
2013-10-24, 10:35:42
Seit dem heutigen Tag hab ich so das Gefühl das nicht mal mehr eine 15SMX Version kommen wird.

Warte schon seit Februar drauf, aber das wird wohl nichts mehr ;(
Laut PCGH ist der GK110 @ 14SMX Takt bereinigt mit weniger Bandbreite sogar schneller als Hawaii.

V2.0
2013-10-24, 10:45:48
GK180 wird schon auftauchen, keine Sorge.

Ailuros
2013-10-24, 10:49:48
GK180 wird schon auftauchen, keine Sorge.

780Ti duerfte nur weiterer GK110 Abfall sein. Wenn sie wirklich etwas vom GK180 fuer mainstream auftischen werden wird es auc etwas dauern bis man die diesbezueglichen wafer-runs erstmal ueber den Buckel hat.

V2.0
2013-10-24, 10:55:42
Wenn man sich die Effizienz von GK180 in der K6000 Version im Vergleich zur K20X ansieht, dann hat man 1SMX dazu, ~10% mehr Takt und ~5% weniger TDP. Da ergäbe sich für eine Karte oberhalb der 780ti, eine Option auf 20-25% mehr Leistung als Titan bei gleicher TDP, oder wenn man da die Reserven gegenüber der 290X etwas ausschöpfen will, 25-35%. Eine Option, die man sicher ziehen wird imho, zumindest im Zeitraum bis GM104 aufschlägt. (evtl. auch länger falls GM104 die Titan GK180 nicht knackt)

Skysnake
2013-10-24, 11:04:25
Mit 25% Mehrleistung im Vergleich zur GTXTitan @1Ghz gelocked wäre man laut PCGH 12,5% schneller als die Stock 290X im UberMode. Das ist nichts was nochmals einen Titanpreis rechtfertigen würde. Also zumindest sollte es das nicht.

100€ Aufschlag ok, aber nicht mehr.

Timbaloo
2013-10-24, 11:24:21
Nicht nur 12,5% schneller, sondern dank Gsync auch noch gefühlte 1000% flüssiger *scnr*

Hübie
2013-10-24, 11:32:54
Na aber noch ist gsync ein Papiertiger. So wie mantle und true audio. Brauchts dafür nicht auch einen neuen Monitor? Verschlechtert das P/L-Verhältnis noch mal und bindet dich an einen IHV.

Skysnake
2013-10-24, 11:39:32
ja braucht es.