PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Pascal GP102 (Titan X + 1080 Ti) (Zusammenfassung im Startpost)


Seiten : 1 [2] 3 4 5 6 7

Godmode
2016-07-22, 13:23:44
Vielleicht sollten wir hier die neue ab jetzt im Forum mit TX abkürzen, dann wüsste jeder Bescheid welche gemeint ist :)

TX verwende ich eigentlich schon für die Titan X. Eventuell NTX Für New TX oder PTX, für Pascal TX? TXP? ^^

Schnoesel
2016-07-22, 13:24:17
Das ist jetzt aber nicht der Top Dog von Pascal?! Kommt da noch was schnelleres?

Hübie
2016-07-22, 13:26:02
Ich erinnere mal an die Verwurstungen rund um GK110. :rolleyes: Namen sind nur Schall und Rauch. NVIDIA erinnert uns immer wieder daran.

Godmode
2016-07-22, 13:26:39
Das ist jetzt aber nicht der Top Dog von Pascal?! Kommt da noch was schnelleres?

Es ist der größte Chip, wenn du GP100 nicht mitzählst. Man kann davon ausgehen, dass aktuell nur 28 SMs aktiviert sind und in Wirklichkeit 30 SMs vorhanden sind. Eveventuell kommt später noch einen Pascal Titan X Black mit den vollen 30 SMs nach.

Iruwen
2016-07-22, 13:26:41
TX verwende ich eigentlich schon für die Titan X. Eventuell NTX Für New TX oder PTX, für Pascal TX? TXP? ^^
TXN, Titan X Next :D

y33H@
2016-07-22, 13:26:41
Vollausbau mit GP102 kommt halt noch, aber ob bzw wann als Geforce? kA.

dildo4u
2016-07-22, 13:27:17
Das ist jetzt aber nicht der Top Dog von Pascal?! Kommt da noch was schnelleres?
Jap der volle Chip hat 3840 Cuda Cores.

Hübie
2016-07-22, 13:35:19
Vollausbau mit GP102 kommt halt noch, aber ob bzw wann als Geforce? kA.

Warum nicht? Spätestens als refresh mit 12gbps Chips. Schließlich hat der nix was ihn zum Tesla hieven würde und Quadro hat ebenfalls keine speziellen Hardwareblöcke. ;)

y33H@
2016-07-22, 13:37:12
Ich schließe es ja nicht kategorisch aus, nur habe ich halt keine Details ^^

4Fighting
2016-07-22, 13:42:10
der preis ist natürlich hoch. mich schreckt aber mehr ab, dass es kein vollausbau ist. So viel Geld zahlen, um dann in ein paar Monaten nochmal zu zahlen ist etwas doof :D

Hakim
2016-07-22, 13:48:21
Bezüglich 12GB Vram, ich hab so das Gefühl das Vega jetzt erst Recht mit 16GB kommen wird, was wahrscheinlich wie bei den kleineren Modellen zu Diskussionen, ob 12GB ausreichend in dem Segment sind, führen könnte

Hübie
2016-07-22, 13:54:55
Ich habe mir abgewöhnt Hoffnungen in AMD zu setzen :freak: Aber klar, kann es so kommen.

iuno
2016-07-22, 13:57:25
Bezüglich 12GB Vram, ich hab so das Gefühl das Vega jetzt erst Recht mit 16GB kommen wird, was wahrscheinlich wie bei den kleineren Modellen zu Diskussionen, ob 12GB ausreichend in dem Segment sind, führen könnte
Ist hier zwar etwas OT, aber was die Konkurrenzsituation angeht sieht fuer mich weiterhin so aus:
Konkurrenz zu GP104 wird Vega 10 mit 8 GiB (2 Stacks)
Konkurrenz zu GP102/100 wird Vega 11 mit 16 GiB (4 Stacks)
Jeweils mit Option auf Verdoppelung der Speichermenge, wenn es 8-Hi Stacks gibt (aber wohl wenn dann nur fuer FirePROs).

Thunder99
2016-07-22, 14:08:30
Nette Karte. Wirklich eine Titan classic reloaded :freak:

Ohne Wakü oder 3rd Party Kühler aber nicht zu gebrauchen für einen leisen PC. Eine Black erwarte ich daher auch noch spätestens zum Release von Vega 11.

Godmode
2016-07-22, 14:17:51
der preis ist natürlich hoch. mich schreckt aber mehr ab, dass es kein vollausbau ist. So viel Geld zahlen, um dann in ein paar Monaten nochmal zu zahlen ist etwas doof :D

Von dem Gedanken muss man einfach wegkommen, dann hat man kein Problem. Die Titan war genau wieviel % langsamer als die Titan Black!? Nicht der Rede wert, IMHO. Kopfsache not FTW.

Nette Karte. Wirklich eine Titan classic reloaded :freak:

Ohne Wakü oder 3rd Party Kühler aber nicht zu gebrauchen für einen leisen PC. Eine Black erwarte ich daher auch noch spätestens zum Release von Vega 11.

Das war aber bei allen Titanen so. Da viele Titan User ab sowieso auf Wakü setzen, ist das kein Problem IMHO. Ankreiden kann man hier nur, dass man für eine 1200$ Karten eigentlich einen besseren Luftkühler erwarten könnte. Noch besser wären nackte Boards, ohne den Luftkühler, weil bei mir und vielen anderen auch, fliegt der immer sofort runter.

Hübie
2016-07-22, 14:18:58
War der Takt nicht auch sehr tief angesetzt bei der classic? :|

Godmode
2016-07-22, 14:21:07
War der Takt nicht auch sehr tief angesetzt bei der classic? :|

Ich glaube schon, aber geboostet haben die Karten dann immer deutlich höher, gerade wenn die Kühlung gut war. Mir kommt das alles schon durcheinander, aber ich glaube Titan Classic SLI habe ich noch mit Luft gekühlt. :confused:

iuno
2016-07-22, 14:23:17
Doch, Standardtakt knapp ueber 800, typischer Boost nicht mal bei 900 MHz, iirc.
Natuerlich ist das hauptsaechlich Kopfsache aber deswegen trotzdem nicht zu vernachlaessigen ;)

edit: Tatsache ;) https://www.computerbase.de/2013-02/test-nvidia-geforce-gtx-titan/19/
Naja was heisst "eingebremst". Viel mehr ging damals zu Beginn der 28 nm Fertigung wahrscheinlich auch noch nicht. Man lag ja auch mit der classic schon an Nvidias Limit von 250 Watt

Hübie
2016-07-22, 14:24:52
Wiki sagt 837-876 für Titan bei 3000 MHz VRAM und 889-980 für Titan Black bei 3500 MHz VRAM. Also war der Ur-Titan arg eingebremst worden.

dildo4u
2016-07-22, 14:25:33
Im Prinzip ist das jetzt eine 980 Ti,die boostet doch besser als die Titan X.

Godmode
2016-07-22, 14:26:46
Wiki sagt 837-876 für Titan bei 3000 MHz VRAM und 889-980 für Titan Black bei 3500 MHz VRAM. Also war der Ur-Titan arg eingebremst worden.

Es war auch GM200 auf der Titan X arg eingebremst. Nur mit Mod-BIOS und besser Kühler konnte man das Beast entfesseln. IIRC lief Raffs GK110 Titan mit 1200 MHz?

Im Prinzip ist das jetzt eine 980 Ti,die boostet doch besser als die Titan X.

Naja, weil sie verglichen mit der TX den Strom auf weniger SMs aufteilen kann. Gibst du einer TX mehr Powertarget, boostet sie genau so schön. :) Ich werde versuchen das ich einen GP102 mit mindestens 2,0-2,1 GHz erwische und dann ist wieder für 2 Jahre Ruhe im Gehäuse.

Hübie
2016-07-22, 14:39:08
Hast du das nicht die letzten Male behauptet? :D Okay ich hab auch gesagt ich überspringe Kepler, dann wars Maxwell und nun sage ich, ich überspringe Pascal... Wie macht Jensen das bloß immer? :freak:

Thunder99
2016-07-22, 14:40:47
Ja, Raff seine Titan Classic hat mit AC Extreme 1,2GHz gestemmt.

Denke auch, dass 12GB mehr als ausreichend sind. Gerade auch aus dem Grund das SLI kaum noch bei neueren Games unterstützt wird, außerhalb von DX12 Implementierung und VR

Godmode
2016-07-22, 14:41:16
@Hübie:
Hab doch GP104 übersprungen, mehr habe ich nie gesagt :)

Jetzt GP102 kaufen und auf das Volta Pendant umsteigen.

Ailuros
2016-07-22, 14:41:32
Mit 12Mrd. Transistoren koennt Ihr wohl jegliche die area von "nur" 450mm2 fuer GP102 vergessen.

TheCounter
2016-07-22, 14:42:34
Konkurrenz zu GP104 wird Vega 10 mit 8 GiB (2 Stacks)
Konkurrenz zu GP102/100 wird Vega 11 mit 16 GiB (4 Stacks)

Wenn dann anders herum, Vega 11 wird der schwächere von beiden.

Außerdem glaube ich nicht daran das AMD eine Karte in der Leistungsklasse Titan X bringen wird, wozu denn?

Godmode
2016-07-22, 14:42:58
Mit 12Mrd. Transistoren koennt Ihr wohl jegliche die area von "nur" 450mm2 fuer GP102 vergessen.

Die Zahl steht halt dort, das etwas dort steht. :wink:

Hübie
2016-07-22, 14:43:03
Rein rechnerisch müsste mit GP102 auch überall 4k klappen wenn man auf 4xMSAA verzichtet.

Sunrise
2016-07-22, 14:45:06
Mit 12Mrd. Transistoren koennt Ihr wohl jegliche die area von "nur" 450mm2 fuer GP102 vergessen.
Die Frage ist, warum man bei +50% Einheiten ohne die Chip-Basis nun plötzlich deutlich über 450-480mm² liegen soll. Selbst wenn das SI größer ist und der IMC generell mehr Platz braucht, dann dürfen es keinesfalls mehr als 500mm² sein oder der Chip-Aufbau hat sich irgendwie verändert.

Ich glaube weiterhin an Marketing- bzw. Redundanz-Zahlen, wie Godmode schon sagt, hauptsache es steht was Beeindruckendes da.

Ailuros
2016-07-22, 14:45:42
Knapp 480 wie schon etliche Male erwaehnt wurde.

Godmode
2016-07-22, 14:46:39
Die Frage ist, warum man bei +50% Einheiten ohne die Chip-Basis nun plötzlich deutlich über 450-480mm² liegen soll. Selbst wenn das SI größer ist und der IMC generell mehr Platz braucht, dann dürfen es keinesfalls mehr als 500mm² sein oder der Chip-Aufbau hat sich irgendwie verändert.

Wäre lustig wenn HOT doch recht hätte und das Ding wie GP100 aufgebaut wäre, bis eben HBM2 und NVLINK. Sehr unwahrscheinlich, aber nicht unmöglich.

Hübie
2016-07-22, 14:46:44
Irgendwo hab ich hier 545mm^2 aufgeschnappt...

Godmode
2016-07-22, 14:47:46
Irgendwo hab ich hier 545mm^2 aufgeschnappt...

Das wäre dann in der Tat sehr seltsam, wo die Ganze zusätzliche Die Area hingegangen ist.

Hübie
2016-07-22, 14:48:42
Oder war es drüben im Vega-Thread? :| :redface:

Godmode
2016-07-22, 14:55:22
bei 1200€ erwarte ich eine echte titan, die den namen verdient. 12gb sind ausreichend, aber nicht overkill so wie es tradition ist, das bedeutet 3x des speichers der x080. wo soll sich die ti einordnen? bei 8gb wie die 1080, oder gar ein krüppel?

12gb sind für eine 1200€ titan ZU WENIG!

Lieber 12 GB und 1200€ als 24 GB und 1500€. Für mehr als 12 GB VRAM reicht außerdem die Rohleistung nicht wirklich aus, außer in irgendwelchen konstruierten Szenen. Vielelicht sehen wir ja wirklich noch eine GP100 Aurora, Whatever mit ihren 16 GB HBM2.

Es schadet sicher nicht, wenn man den großen Vega Chip abwartet, bevor man die Katze im Sack kauft. Ich kaufe die TXN aber trotzdem sofort weil verscherbeln geht immer noch.

Zergra
2016-07-22, 14:59:44
btw: inkl oc wird der mehrpreis schon grob mit der mehrleistung korrelieren. nvidia würfelt die preise schließlich nicht.

Nein, das ist doch gerade das Problem. Ein OC Titan X wird nicht doppelt so schnell sein wie eine OC 1080 GTX. 30-50% mehr Leistung für 100% mehr Geld :rolleyes:

Godmode
2016-07-22, 15:01:09
Die letzten 20-30 % kosten einfach immer 50-100% mehr, dass ist leider fast in allen Bereichen so.

Ailuros
2016-07-22, 15:01:28
Die Frage ist, warum man bei +50% Einheiten ohne die Chip-Basis nun plötzlich deutlich über 450-480mm² liegen soll. Selbst wenn das SI größer ist und der IMC generell mehr Platz braucht, dann dürfen es keinesfalls mehr als 500mm² sein oder der Chip-Aufbau hat sich irgendwie verändert.

Ich glaube weiterhin an Marketing- bzw. Redundanz-Zahlen, wie Godmode schon sagt, hauptsache es steht was Beeindruckendes da.

Es kann keine hoehere Packdichte als bei GP100 sein zumindest so nach dem Maul des Loewen. Ich sagte uebrigens nirgends ueber 480 sondern einen Furz darunter. 12Mrd. sind auch grob aufgerundet aber man wird die wohl durch 25Mio/mm2 teilen koennen oder?

Zergra
2016-07-22, 15:05:55
Die letzten 20-30 % kosten einfach immer 50-100% mehr, dass ist leider fast in allen Bereichen so.
Ja macht Intel ja auch so gerne. Aber NV wird sie die paar Chips die sie fertigen halt Vergolden lassen. Außerdem können Sie die 16nm Fertigung für größere Chips testen.

kruemelmonster
2016-07-22, 15:16:43
TX verwende ich eigentlich schon für die Titan X. Eventuell NTX Für New TX oder PTX, für Pascal TX? TXP? ^^

PTXC - Pascal Titan X Classic...um Platz für den Vollausbau zu lassen :)

Lieber 12 GB und 1200€ als 24 GB und 1500€. Für mehr als 12 GB VRAM reicht außerdem die Rohleistung nicht wirklich aus, außer in irgendwelchen konstruierten Szenen. Vielelicht sehen wir ja wirklich noch eine GP100 Aurora, Whatever mit ihren 16 GB HBM2.

Dank G5X wären ja 16 GB möglich gewesen, finde die Menge mit 12 GB aber auch ausreichend....und es muss schließlich der Respektsabstand zur Quadro gewahrt bleiben.

VooDoo7mx
2016-07-22, 15:28:00
Scheiß die Wand an. nVidia kommt so einfach aus dem Nichts mit dem Teil.
Dabei kommt heute gerade mal meine Ersatz 1080 an.
Fuck die geht umgehend ungeöffnet zurück.

Und ganz ehrlich, finde ich bei den extrem gestiegenen Waferkosten, schlechten Yields, GDDR5X Speicher und allgemeiner Inflation eine Preissteigerung von 20% noch relativ human.

24 GiB V-RAM brauch ich nicht. Mir reichen schon die 6 GiB der 980Ti.

Das einzige was mich stört, ist der laute DHE Kühler mit schlechter Kühlleistung.
Bei den Preis wäre eine AIO Wasserkühlung wie bei AMD angebracht. Aber leider ist die Titan X alternativlos...
Wenn man ne venünmftige und von der Lautstärke vertretbare Kühlleistung möchte, wird man über einen Kühlerumbau nicht vorbei kommen.

Mal OC Rechenleistung:
1,8GHz: 12,9 Tflop
1,9GHz: 13,6 Tflop
2,0GHz: 14,3 Tflop

*sabber* Endlcih Witcher 3 in UHD mit 60fps.

Und selbst wenn nVidia nen halbes Jahr später mitm Vollausbau um die Ecke kommt. Wayne? Der hat dann nicht mal 10% mehr Leistung. Käufer der original Titan haben ja auch nicht auf die Titan Black gewechselt, oder ihren Kauf großartig bereut.

Was meint ihr? 0:01 Uhr am 02.08.2016 F5 Taste spammen?

Robspassion
2016-07-22, 15:35:30
Wie wär´s mit Urlaub nehmen und bei Caseking vor der Tür campieren :D? Falls sich Nvidia dazu entscheidet, das doch über andere Händler zu vertreiben.

Hübie
2016-07-22, 15:35:35
Wieso aus dem Nichts? War doch klar das die bald kommt. Okay mach ich selber dachte Vorstellung September, Verkauf Oktober. Aus dem Nichts kam jedenfalls nichts. :D

BlacKi
2016-07-22, 15:35:49
Lieber 12 GB und 1200€ als 24 GB und 1500€. Für mehr als 12 GB VRAM reicht außerdem die Rohleistung nicht wirklich aus, außer in irgendwelchen konstruierten Szenen. Vielelicht sehen wir ja wirklich noch eine GP100 Aurora, Whatever mit ihren 16 GB HBM2.

Es schadet sicher nicht, wenn man den großen Vega Chip abwartet, bevor man die Katze im Sack kauft. Ich kaufe die TXN aber trotzdem sofort weil verscherbeln geht immer noch.
mag sein, aber keine verdoppelung des speichers und trotzdem aufpreis? jahrelang kam die titan immer mit dem doppelten speicher der ti und ausgerechnet als sie den speicher nicht verdoppelt, ja noch nicht mal erhöhen, dann kommt der aufpreis?

mag sein dass das nicht jeden stört, aber mit 24gb wären die 1200$ wenigstens gerechtfertigt.

Scheiß die Wand an. nVidia kommt so einfach aus dem Nichts mit dem Teil.
Dabei kommt heute gerade mal meine Ersatz 1080 an.
Fuck die geht umgehend ungeöffnet zurück.
es gab schon kurz nach dem release hier im pascal speku fred den hinweiß das was im august kommt und irgendein hersteller hatte die 1080ti schon gespoilert. wer weiß vl kommt die 1080ti nicht erst zum ende des jahres sondern schon im september?

uweskw
2016-07-22, 15:43:45
Wie kommt ihr eigentlich darauf dass 1200USD gleich 1200€ werden. Das ist doch mehr als optimistisch. Eher 1449,00 €uro

greetz
US

VooDoo7mx
2016-07-22, 15:44:05
Wie wär´s mit Urlaub nehmen und bei Caseking vor der Tür campieren :D? Falls sich Nvidia dazu entscheidet, das doch über andere Händler zu vertreiben.

Tatsächlich hab ich in der Woche Urlaub. Wenn nv das Ding am 2.08. direkt verschickt, kann ich noch in meiner Urlaubswoche was zum spielen. :usweet:
Bist du dann beim campieren auch mit am Start? Ich bring Würstchen mit und du das Bier?

Wieso aus dem Nichts? War doch klar das die bald kommt. Okay mach ich selber dachte Vorstellung September, Verkauf Oktober. Aus dem Nichts kam jedenfalls nichts. :D

Es gab schon immer wieder Gerüchte. Ail hat auch gemeint, das Ding kommt als salvage im August. Nur so Recht wollte ich das nicht glauben.
Von der 1080, gab es z.b. über einen Monat vorher schon leaks vom Kühler, Wochen vor der nV Presentation schon leak Benchmarks. Von der Titan X gab es aber nix. Kein einziges leak.

Botcruscher
2016-07-22, 15:45:44
Das ist alles so unglaublich öde. Preis kann ja in der Region egal sein aber die Hardwaredaten enttäuschen einfach nur. Mal schauen ob Vega auch nur ein Schluck Wasser wird. Dank der fast totalen Stagnation bei und dem Mangel an Spielen kann es einem ja inzwischen egal sein.

VooDoo7mx
2016-07-22, 15:52:13
mag sein, aber keine verdoppelung des speichers und trotzdem aufpreis? jahrelang kam die titan immer mit dem doppelten speicher der ti und ausgerechnet als sie den speicher nicht verdoppelt, ja noch nicht mal erhöhen, dann kommt der aufpreis?

Von welcher TI redest du? 980Ti, dann hat sie doch doppelten Speicher?

mag sein dass das nicht jeden stört, aber mit 24gb wären die 1200$ wenigstens gerechtfertigt.

Deine Meinung.
Für dier Performance in Games ist das volkommen irrelevant ob 24 oder 12 GiB. In meinen PC hab ich auch nur 16 GiB System RAM.
Wenn ich wollte könnte ich mir locker 128GiB reinknallen. Aber warum mache ich das nicht? Richtig! Weil es im gaming nichts bringt.

es gab schon kurz nach dem release hier im pascal speku fred den hinweiß das was im august kommt und irgendein hersteller hatte die 1080ti schon gespoilert. wer weiß vl kommt die 1080ti nicht erst zum ende des jahres sondern schon im september?

Kein hersteller hat irgendeine 1080Ti gespoilert. So ein Quatsch.

Cubitus
2016-07-22, 15:54:02
Wie kommt ihr eigentlich darauf dass 1200USD gleich 1200€ werden. Das ist doch mehr als optimistisch. Eher 1449,00 €uro

greetz
US

Ach dann machen wir gleich runde 1499 Euro. :freak:
So krumme Preise.. Was soll das denn!?

VooDoo7mx
2016-07-22, 15:58:03
Wie kommt ihr eigentlich darauf dass 1200USD gleich 1200€ werden. Das ist doch mehr als optimistisch. Eher 1449,00 €uro


Gerade bei der GTX 1060 war nVidia mit dem Euro preis sehr fair. 299 USD sind laut aktueller Umrechnung mit 19% Mwst 323€. Verkaufspreis bei nVidia ist aber 319€. Also eine faire Umrechnung.

1200 USD sind mit aktuellen Kurs + 19% Mwst 1296€. Ich gehe von einen Preis von 1299€ oder 1349€ aus. Mehr ist sehr unwarscheinlich.
Je nachdem wieviel Europa Aufschlag nVidia nimmt.

Iruwen
2016-07-22, 15:58:24
Titan X waren iirc doch $1000 MSRP und hier dann 1200€ UVP.

Robspassion
2016-07-22, 16:07:31
Wurde doch schon durchgerechnet:

1200$ = 1088,9€
+ 19% Steuern sind knapp 1.300€

BlacKi
2016-07-22, 16:09:28
Von welcher TI redest du? 980Ti, dann hat sie doch doppelten Speicher?



Deine Meinung.
Für dier Performance in Games ist das volkommen irrelevant ob 24 oder 12 GiB. In meinen PC hab ich auch nur 16 GiB System RAM.
Wenn ich wollte könnte ich mir locker 128GiB reinknallen. Aber warum mache ich das nicht? Richtig! Weil es im gaming nichts bringt.



Kein hersteller hat irgendeine 1080Ti gespoilert. So ein Quatsch.
du schreibst hier quatsch http://www.pcgameshardware.de/Nvidia-Pascal-Hardware-261713/News/gtx-1080-ti-leak-zotac-1196734/

natürlich hast du schon heute vorteile durch 12gb anstatt von 6gb. wie soll das erst in 2 jahren aussehen? wir reden hier nicht von einer 1060, wir reden hier nicht von einer 1080ti!

VooDoo7mx
2016-07-22, 16:14:48
du schreibst hier quatsch http://www.pcgameshardware.de/Nvidia-Pascal-Hardware-261713/News/gtx-1080-ti-leak-zotac-1196734/

natürlich hast du schon heute vorteile durch 12gb anstatt von 6gb. wie soll das erst in 2 jahren aussehen? wir reden hier nicht von einer 1060, wir reden hier nicht von einer 1080ti!

Es gibt keine 1080Ti.

Udn ich hab mehrere hundert Spiele bei Steam, kaufe auch neue AAA titel zum Vollpreis und ich hab keinen einzigen Titel wie die 6GiB der 980Ti irgendwo auch nur ansatzweise ein Problem sind. Und ich spiele ausschließlich in UHD Auflösung. Viele aktuelle AAA kommen in UHD locker mit 3-4 Gib V-Ram aus. Was ich mehr brauch ist nicht irgend nen kack V-RAM sondern mehr Rechenleistung.

Und jetzt geht schon wieder diese rotzdendumme Speicherdiskussion wie bei der GTX 1060 los. Da wurde entgegengesetzt der Fakten spekuliert, das in 2 Jahren 6 Gib nicht ausreichen und jetzt reichen in 2 Jahren schon 12GiB nicht mehr aus. :crazy:
Langsam hat das hier echt Klappsmühlen Niveau.

Und nochmal: wenn deiner Meinung nach dir 12 GiB V-RAM nicht ausreichen. Dann kauf einfach dir Karte nicht und komm nicht mit irgendwelchen spekulativen Hirngespinnsten was in x Jahren so sein wird. Das ist auch erhlich gesagt scheiß egal, Ein Enthusiast,d er sich so eine Karte kauft, hat diese so lange, bis es die nächst schnellere gibt.Das ist nicht wie nen 200€ Käufer der gucken muss ob seine riesige Investition 5 Jahre hät. :facepalm:

Rancor
2016-07-22, 16:20:41
Es gibt keine 1080Ti.

Naja noch nicht. Die wird aber sicherlich kommen :D

BlacKi
2016-07-22, 16:25:42
Naja noch nicht. Die wird aber sicherlich kommen :D
davon bin ich nichtmal mehr überzeugt. da ist einfach kein platz mehr. 10gb wären wohl einfach nur ein schlechter scherz und wenn die die karte mir 12gb bringen würden ( am besten noch im vollausbau^^ ) für 999€ dann, keine ahnung. alles verbaut...

hellibelli
2016-07-22, 16:25:51
ich hoffe das eine 1080Ti kommen wird.

Godmode
2016-07-22, 16:29:30
mag sein, aber keine verdoppelung des speichers und trotzdem aufpreis? jahrelang kam die titan immer mit dem doppelten speicher der ti und ausgerechnet als sie den speicher nicht verdoppelt, ja noch nicht mal erhöhen, dann kommt der aufpreis?

mag sein dass das nicht jeden stört, aber mit 24gb wären die 1200$ wenigstens gerechtfertigt.


Man will sich das Ding halt schönreden, damit's am Konto nicht so weh tut und da schließe ich mich gar nicht aus. :biggrin:

Hakim
2016-07-22, 16:34:33
Na hat ja nicht lange gedauert wie vermutet bezüglich 12GB :). Mich hätte es interessiert wieviel der GP102 zusätzlich von HBM profitiert hätte. Zwar ist ja die Bandbreite mit 384Bit@GDDRX schon sehr hoch, aber wäre interessant gewesen zu sehen wieviel das ausmacht

Ex3cut3r
2016-07-22, 16:38:59
Die 1080ti kommt nicht, zumindest erstmal nicht, liegt auch an AmD ob sie die 1080 überholen oder wenigstens nah rankommen, wenn sie dann aber kommt wirds interessant, mit welche Speichermenge? Weniger als 8GB geht nicht, wegen der 1080, schätze sie kommt mit 12GB normalen GDDR5 aber mit 384bit. 10 GB VRAM machen überhaupt keinen Sinn, wie soll das realiserbar sein mit 384Bit Interface? 6+ 4GB per Krüppelanbindung? Die 970 Sache werden sie hoffentlich nie wiederholen.

hellibelli
2016-07-22, 16:50:38
Naja sollte es wirklich noch so lange bis zur 1080 ti dauern, hält meine 980 Ti auch noch etwas. Möchte halt gerne eine Graka die 4K stemmen kann.

Vielleicht wird es in 2017 endlich soweit sein.

Fragman
2016-07-22, 17:05:15
12gb ram, da stimmt was nicht, geplant waren 16 und dann 32 fuer die quadro.

also entweder nv hat die TI begraben oder wir sehen noch eine titan X+ mit 16.
ueber den preis brauchen wir nicht zu reden, der ist zu hoch fuer 12gb.


spekulation meinerseits:
oder, dank dx12 und vielleicht auch der neuen cuda version, laesst sich der ram von 2 karten verdoppeln. damit man keine konkurenz gegen die quadros im eigenen haus aufbaut, werden die consumerkarten einfach schwaecher bestueckt.

ich tippe aber auch eher auf eine titan+ in 6 monaten oder so...

VooDoo7mx
2016-07-22, 17:07:30
Naja noch nicht. Die wird aber sicherlich kommen :D

Da wäre ich mir in absehbarer Zeit nicht so sicher.

Was Fakt ist, dass TSMCs 16nm Produktion zu 100% ausgelastet ist und nVidia jetzt schon mehr Kapazitäten braucht. Desweiteren ist die Produktion deutlich teurer als noch beim 28nm Prozess und auch die Yiealds sind schlechter.
nVidia kann also in absehbarer Zeit alle GP102 problemlos als Titan an Enthusiasten und Systembauer verkaufen und den Rest noch später als Quadro. Bei der teuren Produktion, geringen Stückzahlen und komplett konkurrenzloser Situation, braucht man nicht ein günstigeres Grafikkartenmodell mit einer kleineren Gewinnmarge auf den Markt bringen. das macht marktwirtschaftlich keinen Sinn.

Ich denke mal eine 1080Ti ist dann warscheinlich, wenn ein weitere TSMC 16nm FAB online geht. Und/Oder AMD Druck macht. Aber Wenn Vega 10 so auf GTX 1080 Niveau ist, wird das auch nichts.

cR@b
2016-07-22, 17:13:12
Da wäre ich mir in absehbarer Zeit nicht so sicher.



Doch glaub ich schon... nicht alle 980Ti Besitzer haben zur GTX 1080 gegriffen und die neue Titan X ist zu teuer für dieses Klientel. Nachdem die 980Ti aber so ein Erfolg war, wird es m.E. auch sehr bald schon eine 1080Ti geben, die ich vermutlich dann holen werde. Die neue TX setze ich diesmal aus u.a. weil nVidias Support die FE Besitzer anfangs ganz schön hängen ließ...

AnarchX
2016-07-22, 17:23:34
12gb ram, da stimmt was nicht, geplant waren 16 und dann 32 fuer die quadro.

also entweder nv hat die TI begraben oder wir sehen noch eine titan X+ mit 16.
ueber den preis brauchen wir nicht zu reden, der ist zu hoch fuer 12gb.

Wenn Micron die 1,5GiB/12Gbit GDDR5X Module noch vorstellt, könnte es eine 18GiB Version geben. Aber 16/32GiB sind bei 384-Bit auszuschließen.

Godmode
2016-07-22, 17:26:49
Wenn Micron die 1,5GiB/12Gbit GDDR5X Module noch vorstellt, könnte es eine 18GiB Version geben. Aber 16/32GiB sind bei 384-Bit auszuschließen.

Sind diese denn schon angekündigt? Die würden dann perfekt zu einer Titan XX mit 3840 SPs passen und dann können sie nochmal eine Schippe beim Preis drauflegen. :freak:

Fragman
2016-07-22, 17:34:44
Wenn Micron die 1,5GiB/12Gbit GDDR5X Module noch vorstellt, könnte es eine 18GiB Version geben. Aber 16/32GiB sind bei 384-Bit auszuschließen.

ich hatte da mehr an hbm speicher gedacht, damit sollte es ja gehen?

Locuza
2016-07-22, 17:42:56
ich hatte da mehr an hbm speicher gedacht, damit sollte es ja gehen?
Ja, aber der GP102 ist mit GDDR5X ausgestattet, nicht mit HBM wie der GP100.

Godmode
2016-07-22, 17:45:23
Die 1080ti kommt nicht, zumindest erstmal nicht, liegt auch an AmD ob sie die 1080 überholen oder wenigstens nah rankommen, wenn sie dann aber kommt wirds interessant, mit welche Speichermenge? Weniger als 8GB geht nicht, wegen der 1080, schätze sie kommt mit 12GB normalen GDDR5 aber mit 384bit. 10 GB VRAM machen überhaupt keinen Sinn, wie soll das realiserbar sein mit 384Bit Interface? 6+ 4GB per Krüppelanbindung? Die 970 Sache werden sie hoffentlich nie wiederholen.

Sagten sie jedes Jahr und dann kam 2 Monate später die Ti. Die Ti kommt sowas von fix und dieses mal wohl sogar mit 12 GB VRAM, aber dafür um 900 USD, damit man weit genug von der 1080 weg ist.

Thunder99
2016-07-22, 17:49:43
Konter wenn einer kommt ist ja Vega 11. Und alle die meinen der ist kleiner sollen es beweisen. AMD vergibt die Nummerierung nach dem Zeitpunkt der Entwicklung, nicht der Klasse.

Eine Ti könnte eine weitere Abspeckung sein oder der Vollausbau. Dann die Black Edition als 24GB Vollausbau

VooDoo7mx
2016-07-22, 18:12:59
Konter wenn einer kommt ist ja Vega 11. Und alle die meinen der ist kleiner sollen es beweisen. AMD vergibt die Nummerierung nach dem Zeitpunkt der Entwicklung, nicht der Klasse.

Eine Ti könnte eine weitere Abspeckung sein oder der Vollausbau. Dann die Black Edition als 24GB Vollausbau

Vega 10 wird so ~400mm² mit mindestens 4096 Cores bzw 64 CUs gegen GP104.

Jo Vega 11 wird nen richtig dicker Chip mit HBM2 und brutal viel Rechenleistung. Der kann durchaus an die 600mm² kommen. Der CHip soll auch für den HPC Bereich kommen, muss sich also mit GP100 und GP102 rumschlagen. Nur wenn AMD sein GCN Design nicht endlich mal auf vordermann bringt, wird sich der mit dem GP102 schon schwertun. Gerade Polaris war für mich sehr enttäuschend was Effizienzsteigerung ohne Fertigungsvorteil anging.

novl
2016-07-22, 18:15:27
Über 1000 EUR und dann nicht einmal HBM?

Bin ich der einzige den das stört? :|

wolik
2016-07-22, 18:18:54
Was hat mann schon gehört ? 1080. Schnell wie 2 Titan X. New King! ( :) ) und weiteres... Jetzt ohne Tests und Presseball... Von 6Gb auf 12Gb... und jetzt von 12 auf 12 ? Ich warte auf Tests. Und vielleicht auf die Karte, welche wirklich eine name TITAN verdient. Dies ist nur 1080Ti.

VooDoo7mx
2016-07-22, 18:19:55
ich hatte da mehr an hbm speicher gedacht, damit sollte es ja gehen?

Ganz ehrlich, ist es doch schon seit Monaten mehr oder weniegr klar, dass der GP100 mit HBM nur für den HPC Markt kommt und der GP102 für Gamer mit GDDR5X. Und die Speicherbandbreite die die Titan X hat ist absolut ausreichend.
Ich geh davon aus, dass nVidia im Gamermarkt bis einschleißlich 2017 nichts mit HBM bringen wird.

GDDR5X Speicher soll es in der letzten Ausbaustufe bis 16gbps geben. das wäre an einen 256 Bit Interface 512GiB/s (so viel wie Fury X mit HBM) an 384 Bit 768GiB/s und 512Bit 1024GiB/s.

Ich sehe da absolut kein Bedarf wieso nVidia in nächster Zeit da unbeidngt HBM brauch.

Über 1000 EUR und dann nicht einmal HBM?

Bin ich der einzige den das stört? :|

Ja, weil du keinen Plan hast.
Dann erklär mir mal wieso die Titan X unbedingt HBM braucht und wo dann die Karte genau davon profitieren würde.

Hakim
2016-07-22, 18:20:26
Über 1000 EUR und dann nicht einmal HBM?

Bin ich der einzige den das stört? :|

DU musst das so sehen, wenn Karte A mit HBM 100% raus holt und Karte B mit GDDRX mit 120%, nimmst du doch auch eher die B. Es wäre halt nur interessant zu wissen ob Karte B mit HBM bei 130% liegen könnte, also ob die 480GB/s die GP102 immer noch bremsen wie bei den GP104ern

Disco_STFU
2016-07-22, 18:20:44
Versendet Nvidia dann aus den USA oder haben die hier Versanzentren in Europa? Ansonsten müsste man ja auch noch Zoll draufrechnen.

dildo4u
2016-07-22, 18:24:03
Über 1000 EUR und dann nicht einmal HBM?

Bin ich der einzige den das stört? :|
Die Karte hat 50% mehr Bandbreite als die 1080 aber nur 30% mehr Rechenleistung.HBM2 hätte die Karte vermutlich noch teurer gemacht.

novl
2016-07-22, 18:35:36
DU musst das so sehen, wenn Karte A mit HBM 100% raus holt und Karte B mit GDDRX mit 120%, nimmst du doch auch eher die B. Es wäre halt nur interessant zu wissen ob Karte B mit HBM bei 130% liegen könnte, also ob die 480GB/s die GP102 immer noch bremsen wie bei den GP104ern

Sehe ich ein, fühlt sich für mich Mitte 2016 dennoch nicht High-End an mit GDDRX. ;)

Hakim
2016-07-22, 18:36:47
Sehe ich ein, fühlt sich für mich Mitte 2016 dennoch nicht High-End an mit GDDRX. ;)

Ja hast schon recht, ich hätte es auch eher mit HBM2 erwartet.

AnarchX
2016-07-22, 18:37:28
Netter wären natürlich 1TB/s + 20 TFLOPs FP16 gewesen, aber dafür ist die Karte nun schon Mitte 2016 erhältlich.

VooDoo7mx
2016-07-22, 18:43:31
Sehe ich ein, fühlt sich für mich Mitte 2016 dennoch nicht High-End an mit GDDRX. ;)

Eine Fury X die trotz HBM und 4096 Cores, nicht mal in die Nähe einer 1080 mit 256Bit GDDR5X kommt, fühlt ist nicht mehr High End an. Und das nicht nur im Kopf sondern driekt beim Spielen, wenn die fps scheiße sind.

Wichtig ist das was hinten raus kommt. Und GDDR5X ist auch ein neuere Speichertechnologie als HBM.

Ailuros
2016-07-22, 19:14:06
Wieso aus dem Nichts? War doch klar das die bald kommt. Okay mach ich selber dachte Vorstellung September, Verkauf Oktober. Aus dem Nichts kam jedenfalls nichts. :D


http://www.forum-3dcenter.org/vbulletin/showpost.php?p=11060799&postcount=6080

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=11061264&postcount=6084

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=11062199&postcount=6095

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=11069867&postcount=12

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=11073642&postcount=49

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=11073717&postcount=53

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=11091470&postcount=117

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=11092482&postcount=144

Ich kann dummerweise aber nicht meinen Post hier finden wo ich zeitgleich zu Erinyes@B3D erwaehnte dass GP102 im naechsten Monat kommen wird.

Über 1000 EUR und dann nicht einmal HBM?

Bin ich der einzige den das stört? :|


Wenn ich als Verbraucher auf einer GP102 SKU mit HBM die gleiche Bandbreite haette als mit GDDR5X aber stattdessen 1200 Euros dafuer blechen muesste waere ich wohl nicht der einzige den es stoeren wuerde ;)

Netter wären natürlich 1TB/s + 20 TFLOPs FP16 gewesen, aber dafür ist die Karte nun schon Mitte 2016 erhältlich.

http://www.anandtech.com/show/10325/the-nvidia-geforce-gtx-1080-and-1070-founders-edition-review/5

NV folgt hier genau die gleiche Strategie wie mit FP64; wer hohen FP16 und hohen FP64 throughput haben will sollte gefaelligst nach einer Tesla und co. greifen. Dass sie mit ihrem ersten Titan und dem hohen FP64 throughput ihre Tesla sales kannibalisierten sahen sie nur zu spaet ein. Macht NV durchaus richtig; von der einen Seite muessen sie die Margen in Profi-Maerkten schuetzen (sonst bekommen sie die hohen Entwicklungskosten nicht mehr rein....) und von der anderen meckerten bis jetzt mainstream users bzw. gamers dass zu viel Schnickschnack fuer HPC in enthusiast GPUs steckt. Jetzt sind wir's los und wieder nicht zufrieden :P

BlacKi
2016-07-22, 20:08:03
ich glaube es kommt keine ti mehr, aber wohl eine titan x black voll aktiviert und vl mit schnellerem speicher. damit wären wenigstens die fehlenden cudacores erklärt.

kdvd
2016-07-22, 20:28:28
ich glaube es kommt keine ti mehr,

Es gibt sicher schon einen Haufen GP102 Salvages ^2, nennen wir sie GP102-300 Chips, die für einen Release Ende Okt. /Anfang Nov. rumliegen /zurückgelegt werden.

Oder wohin wandern dann all die, die es nicht zur neuen Titan X [GP102-400] gebracht haben?

BlacKi
2016-07-22, 20:34:08
Es gibt sicher schon einen Haufen GP102 Salvages ^2, nennen wir sie GP102-300 Chips, die für einen Release Ende Okt. /Anfang Nov. rumliegen /zu rückgelegt werden.

Oder wohin wandern dann all die, die es nicht zur neuen Titan X [GP102-400] gebracht haben?
ich glaub du verstehst nicht, die new titan x ist der salvage chip!

GP102 16 nm 3840 cudacores
https://de.wikipedia.org/wiki/Nvidia-Geforce-10-Serie

new titan x 3.584 cudas
https://www.computerbase.de/2016-07/nvidia-titan-x-vorgestellt/

schlimm genug, verlangen sie aber noch obendrauf 200$ mehr und hat nur 12gb, wie der vorgänger.

Hübie
2016-07-22, 20:38:19
Wieso? Da liegen 1024 ALUs zwischen GP104 fullfat und GP102 cutdown. Da is sicher noch Platz für ein Produkt.

BlacKi
2016-07-22, 20:44:36
Wieso? Da liegen 1024 ALUs zwischen GP104 fullfat und GP102 cutdown. Da is sicher noch Platz für ein Produkt.
möglich, aber ganz ehrlich: komplett unattraktiv. naja, zumindest für 999$, für 700$ könnte man drüber reden, aber dann auch 12gb?

mir geht einfach nicht in den kopf warum die TX nur 12gb hat. die bandbreite ist nicht der grund dafür.

Hübie
2016-07-22, 20:47:14
Weil einfach keine anderen Chips wirtschaftlich produziert werden? Dann müsste man auf GDDR5 zurück gehen.

BlacKi
2016-07-22, 20:49:44
Weil einfach keine anderen Chips wirtschaftlich produziert werden? Dann müsste man auf GDDR5 zurück gehen.
danke, das wäre natürlich ein grund...

kdvd
2016-07-22, 20:50:11
ich glaub du verstehst nicht, die new titan x ist der salvage chip!

Das die neue Titan X ein Salvage ist, ist mir klar.
Ich schrieb ja auch von "GP102 Salvages ^2".

Vergleichbar Ur-Titan und GTX 780.

Korvaun
2016-07-22, 21:34:54
möglich, aber ganz ehrlich: komplett unattraktiv. naja, zumindest für 999$, für 700$ könnte man drüber reden, aber dann auch 12gb?

mir geht einfach nicht in den kopf warum die TX nur 12gb hat. die bandbreite ist nicht der grund dafür.

1080 (256bit 8GB) -> TitanX (384bit 12GB)
Die benutzen die selben Speicherchips. Es ist anzunehmen das es aktuell nur diese eine Sorte (1GB pro Chip, 5GHz eff. Takt) gut verfügbar gibt.

StefanV
2016-07-22, 21:53:42
Wieso? Da liegen 1024 ALUs zwischen GP104 fullfat und GP102 cutdown. Da is sicher noch Platz für ein Produkt.
zwischen GP106 und GP104 doch auch?!

Hübie
2016-07-22, 22:31:36
Nein das sind 640. Zwischen Fullfat und fullfat stimmt deine Aussage. Ich bezog mich auf 3584-2560=1024. 1920-1280=640. So halt. Die Distanz zwischen den jeweiligen Produkten, nicht Chips.

ChaosTM
2016-07-22, 22:42:43
Die 1080ti wird/muss fast kommen. Für viele, u.a. auch mich, sind Preise über 1K einfach nicht akzeptabel.

nismod
2016-07-22, 22:45:07
Aber nicht für alle, es gibt ja genug die sie am liebsten schon vorbestellen würden.

Hübie
2016-07-22, 22:45:55
Definiere genug. :D

nismod
2016-07-22, 23:10:28
Na alleine hier im Forum sind es ja schon mindestens 2 :biggrin:

Thomas Gräf
2016-07-23, 00:08:11
Najo wenns ein nettes 4k Kärtchen werden soll kommen auf die 1300euro dann noch der Kühlerumbau plus das bei nV wohl nötige OC Bios.
Irgendwie nicht sexy das Ganze.

phoenix887
2016-07-23, 02:20:31
Die 1080ti wird/muss fast kommen. Für viele, u.a. auch mich, sind Preise über 1K einfach nicht akzeptabel.

Für mich auch nicht. Habe ja letzter Zeit viel mitgemacht seit der Ur Titan, aber 1200 Dollar, Kurs, Steuer usw.. wird das schon knapp 1500 Euro sein nein Danke.

Da warte ich lieber auf die 1180 oder schaue was AMD macht. Momentan habe ich mit meiner 1080 in 3840x1648 über 50 FPS in den Spielen die ich im Moment spiele...Titan X 2 Muss nicht sein...

mczak
2016-07-23, 02:25:34
Die 1080ti kommt nicht, zumindest erstmal nicht, liegt auch an AmD ob sie die 1080 überholen oder wenigstens nah rankommen, wenn sie dann aber kommt wirds interessant, mit welche Speichermenge? Weniger als 8GB geht nicht, wegen der 1080, schätze sie kommt mit 12GB normalen GDDR5 aber mit 384bit. 10 GB VRAM machen überhaupt keinen Sinn, wie soll das realiserbar sein mit 384Bit Interface? 6+ 4GB per Krüppelanbindung? Die 970 Sache werden sie hoffentlich nie wiederholen.
Die 1080Ti kommt so sicher wie das Amen in der Kirche. Bei den geringen Stückzahlen die man für eine 1200 Euro Grafikkarte erwarten kann würde sich ein eigener Chip ja wohl kaum lohnen.
Ich sehe 3 sinnvolle Möglichkeiten der Speicherbestückung:
1) 384bit 12GB gddr5x - genau wie bei der Titan X. Der Chip müsste dann aber doch ordentlich beschnitten werden sonst ist der dann wirklich gleich schnell (das Problem hatte die Maxwell-Titan zwar auch, aber immerhin hatte die ja den doppelten Speicher...)
2) 320bit 10GB gddr5x
3) 384bit 12GB gddr5
2) und 3) würden in derselben Bandbreite resultieren - 2) hätte auch weniger ROPs (und L2-Cache) was man aber mehr oder weniger vernachlässigen kann. Beides würde immerhin etwas Kosten sparen und sicherstellen dass die tatsächlich langsamer ist (ohne den Chip allzu stark beschneiden zu müssen).
Kann aber sein dass nvidia was anderes macht, also z.B wie bei der GTX 970...

ilibilly
2016-07-23, 05:24:23
Bin mal auf die tests gespannt taktbereinigt vs 1080 ,da wird man sehn inwieweit die bandbreite bei gp104 limitiert,bei 30% mehr cores und 50% bandbreite ,erwarte ich schon 40% mehrleistung,dann wäre dazwischen noch platz bei +20% noch für eine Ti ,aber wirklich ärgerlich das es kein vollausbautitan ist,denn die salvage hatte ich als ti version erwartet.

Leonidas
2016-07-23, 06:05:45
Ich sehe 3 sinnvolle Möglichkeiten der Speicherbestückung:
1) 384bit 12GB gddr5x - genau wie bei der Titan X. Der Chip müsste dann aber doch ordentlich beschnitten werden sonst ist der dann wirklich gleich schnell (das Problem hatte die Maxwell-Titan zwar auch, aber immerhin hatte die ja den doppelten Speicher...)
2) 320bit 10GB gddr5x
3) 384bit 12GB gddr5


4) 384bit 9GB GDDR5X -> 12x 0,75GB-Chips

SamLombardo
2016-07-23, 06:52:31
Eine 1080 ti wird, sofern sie kommt, meine 980ti ersetzen. Am besten wieder im custom Design mit 300W bios:D.
Die wird meine:)

uweskw
2016-07-23, 08:23:58
ich glaube es kommt keine ti mehr, aber wohl eine titan x black voll aktiviert und vl mit schnellerem speicher. damit wären wenigstens die fehlenden cudacores erklärt.

Marktwirtschaft. So kann NV innerhalb eines Jahres drei mal den neuen "Top-Dog" zu Enthusiastenpreisen anbieten. Das freut die Shareholder. Und das Image haben sie sich ja redlich verdient. Hier würden ja einige am liebsten gleich bestellen.

Über 1000 EUR und dann nicht einmal HBM?

Bin ich der einzige den das stört? :|

Wofür? Wenn interessiert bei diesem Preis langlebigkeit? Das ist wie bei einem Ferrari nach dem Spritverbrauch zu fragen.


greetz
US

4Fighting
2016-07-23, 09:19:50
was man auch nicht vergessen sollte:

wie verhält sich nvidia bei RMAs? Bei EVGA gab es ja nie probleme mit Kühlerumbau oder anderem Bios. Das dürfte bei nvidia vermutlich anders aussehen - nicht das ich bisher eine meiner Karten durch einen Umbau oder neues Bios geschrottet hätte, aber es wäre halt sehr ärgerlich, wenn es ausgerechnet dann mal passiert

AnarchX
2016-07-23, 09:35:02
http://www.anandtech.com/show/10325/the-nvidia-geforce-gtx-1080-and-1070-founders-edition-review/5

NV folgt hier genau die gleiche Strategie wie mit FP64; wer hohen FP16 und hohen FP64 throughput haben will sollte gefaelligst nach einer Tesla und co. greifen. Dass sie mit ihrem ersten Titan und dem hohen FP64 throughput ihre Tesla sales kannibalisierten sahen sie nur zu spaet ein. Macht NV durchaus richtig; von der einen Seite muessen sie die Margen in Profi-Maerkten schuetzen (sonst bekommen sie die hohen Entwicklungskosten nicht mehr rein....) und von der anderen meckerten bis jetzt mainstream users bzw. gamers dass zu viel Schnickschnack fuer HPC in enthusiast GPUs steckt. Jetzt sind wir's los und wieder nicht zufrieden :P

Die Titan X wurde nicht ohne Grund einer Profi-Community vorgestellt. Die Instructions für die schnellen Deep Learning Ops besitzen bisher nur die CC6.1-Pascals.
So bleibt das ganze halt nur ein Upgrade knapp über 50% gegenüber Titan X Maxwell und 980 Ti.

Aber eine 11-14TFLOPs GPU schon ab Mitte 2016 einsetzen zu können, ist im Endeffekt auch ein gewisser Wert. Und GP100 darf man vielleicht Ende 2017 doch noch als Endkunde für <$2k erwerben. ;D

SamLombardo
2016-07-23, 10:31:09
Hier würden ja einige am liebsten gleich bestellen
Wieso auch nicht. Eine 1080ti zum Preis der 980ti die 50+ Prozent schneller ist als diese, ist doch nun für Enthusiasten kein sooo schlechter Deal.

uweskw
2016-07-23, 10:58:30
Wieso auch nicht. Eine 1080ti zum Preis der 980ti die 50+ Prozent schneller ist als diese, ist doch nun für Enthusiasten kein sooo schlechter Deal.

du verwechselst da was:freak:

BlacKi
2016-07-23, 11:54:34
https://youtu.be/hcpYcAip6t4?t=1549

seht ihr die namensgebung ähnlich bescheuert wie diese beiden internet kumpels? titan XP(ascal) fände ich auch besser.

W4RO_DE
2016-07-23, 12:36:00
Die sollten einfach beim Namen "Titan" ohne irgendwelche Zusätze bleiben. Apple benennt deren Mac Books auf nicht ständig um - dann unterscheidet man halt nach "Jahrgängen".

Schaffe89
2016-07-23, 14:06:52
Also ich hatte mir die letzte Titan X geholt wegen des Vollausbaus, aber hier sieht es doch ganz danach aus, als ob sich Nvidia den Vollausbau aufspart und später mit der 1090 oder 1080Ti einen Fullchip bringt.
Man machts wohl genauso wie mit der ersten Titan, relativ unsexy für 1200 Dollar.

uweskw
2016-07-23, 14:32:29
Ich weis ja nicht wie ihr das seht. Für mich sieht es so aus:
ich bin dann bereit einen Enthusiastenzuschlag zu zahlen, wenn ich dafür dass beste technisch machbare bekomme. Für eine beschnitte Karte jedoch niemals. Da muss dann der Mehrpreis in reellem Verhältnis zur Mehrleistung stehen.

greetz
US

Ailuros
2016-07-23, 16:52:29
Die Titan X wurde nicht ohne Grund einer Profi-Community vorgestellt. Die Instructions für die schnellen Deep Learning Ops besitzen bisher nur die CC6.1-Pascals.
So bleibt das ganze halt nur ein Upgrade knapp über 50% gegenüber Titan X Maxwell und 980 Ti.

Aber eine 11-14TFLOPs GPU schon ab Mitte 2016 einsetzen zu können, ist im Endeffekt auch ein gewisser Wert. Und GP100 darf man vielleicht Ende 2017 doch noch als Endkunde für <$2k erwerben. ;D

Wieso? GP100 und 102 haben die gleiche Anzahl an SPs im Vollausbau. Sonst haetten sie sich das ganze 102 Theater auch gleich sparen koennen.

scully1234
2016-07-23, 18:13:18
Ob nVIdia schon mehr Infos über Vega hat als wir und sich dachte, dass man schnell noch die Titan launcht, die Leute abkassieren kann, bevor 'die anderen' was passendes auf den Markt bringen?

Hast du das nicht auch bei Gp104/106 und der damaligen Titan X behauptet?


Ich würde eher davon ausgehen ,das sie 1+1 zusammen zählen können, und Vega eher realistisch dort einordnen wo er landen könnte:wink:

scully1234
2016-07-23, 18:17:53
Definiere genug. :D

mindestens 3 aus dem Forum=)

@Titan XP

Ich denke das Lineup ,musste einfach raus, um obenGP102 und untenGP106 die Lage zu entspannen

Die Verfügbarkeit bleibt so wohl über einen längeren Zeitraum garantiert, wenn es für jede Colleure ein kaufbares Produkt gibt

mczak
2016-07-24, 01:40:16
4) 384bit 9GB GDDR5X -> 12x 0,75GB-Chips
Eine interessante Option - ich habe mich noch nicht an diese möglichen krummen Grössen gewöhnt und vergesse die immer :wink:
Bedingt allerdings dass diese 6gb Chips tatsächlich jemand baut.

StefanV
2016-07-24, 02:08:02
...was dann aber auch zu nah an der Titan wäre, ergo kann man sich das abschminken.

Daher eher 320bit Speicher und auch 10GiB, was auch richtig gut zwischen 980 und Titan passt.

iuno
2016-07-24, 02:31:11
4) 384bit 9GB GDDR5X -> 12x 0,75GB-Chips
Gibt es denn inzwischen konkrete Hinweise, ob Micron oder sonst wer solche Chips fertigen will?
Wuerde man aber nicht eher 12 Gb Chips erwarten statt 6? Das braechte neben Geschwindigkeit ja auch einen Kapazitaetsgewinn ein und die schnellsten/neuesten GDDR5 Chips waren auch ueberhaupt nur noch die groessten (8 Gb, 8 Gbps). Ob es sich da lohnt, noch kleinere GDDR5X Chips aufzulegen?

Skysnake
2016-07-24, 03:21:49
Also der "Launch" der GP102 ist schon etwas seltsam.

Kein großes Marketing? Nur auf einer "kleinen" Konferenz? Und dann nur über nVidia Beziehbar, oder halt Systembuilder, denen ziemlich sicher auf die Finger geschaut wird, und wo es eben keine Customs geben wird. (Ob das die Kartenpartner geil finden?)

Und von der Leistung her hätte ich mir jetzt auch etwas mehr erwartet. Wobei man wohl durch die höhere Bandbreite am Ende dann doch einen guten Abstand hinbekommt. Aber ob das wirklich am Ende DEN Preis rechtfertigt?

Dafür aber auch wirklich krass schnell jetzt doch gekommen. Fragst sich nur, ob nicht vielleicht am Ende doch zu schnell und daher die Nachfrage durch die Maßnahmen niedrig zu halten.

Btw. Hat jetzt eigentlich schon jemand die Karte zum Testen? Wenn ja, ist ja alles gut, aber ansonsten würde das schon nen bischen nach nem Schnellschuss aussehen.

Wie dem auch sei, schauen wir mal, was da passiert. Aber das Ding ist schon verdammt untypisch für nVidia.

dildo4u
2016-07-24, 07:42:37
Schätze mal GDDR5X und die großen Pascal Chip haben noch schlechte Yield's,gibt z.b immer noch deutlich weniger 1080 auf Lager bei Geizhals als 1070.Macht Sinn die Karte nicht zu stark zu bewerben wenn sie nur wenig liefern können.

horn 12
2016-07-24, 07:43:24
Oder aber Vega KOMMT SCHNELLER als erwartet und überbietet die GTX 1080
Da will man was Besseres Bieten...

dildo4u
2016-07-24, 08:00:42
Oder aber Vega KOMMT SCHNELLER als erwartet und überbietet die GTX 1080
Da will man was Besseres Bieten...
Sieht nicht so aus GDDR5X wurde vermutlich genutzt weil HBM2 zu weit weg ist bzw noch schlechtere Yields hat.Hier steht ja immer noch 2017 für Vega,es sei denn es gibt ne neuere Roadmap.


http://videocardz.com/59206/amds-official-gpu-roadmap-for-2016-2018

Nightspider
2016-07-24, 08:04:46
Meine Meinung zum Thema beschnittener Chip:

Der Name ist doch völlig egal und es ist genauso egal ob der Chip beschnitten ist oder nicht. Es kommt auf die gebotene Mehrleistung an. Auf nichts anderes. Wem die Mehrleistung reicht und das Geld hat der kann da gerne zuschlagen. Wer beschnittene Chips aus Prinzip nicht kauft sollte sich lieber Gedanken um andere (eigene) Probleme machen, das ist kleingeistliches schwarz-weiß-Denken.

Mir persönlich ist es völlige egal das der Chip beschnitten ist. Der Preis ist einfach unverschämt für einen 450mm2 Chip. Hofentlich kommt noch eine ti für 700 oder wenigstens 800€.

Kriton
2016-07-24, 08:49:27
Sieht nicht so aus GDDR5X wurde vermutlich genutzt weil HBM2 zu weit weg ist bzw noch schlechtere Yields hat.Hier steht ja immer noch 2017 für Vega,es sei denn es gibt ne neuere Roadmap.

Du wirfst die Entscheidung zu dieser Frage aber auch nicht auf der Zielgeraden um. Das sagt gar nichts über die Yields bei HBM, sondern nur über die Nvidia eigenen Projektionen zum Speicher als man es entschieden hat. Und da hat neben den yiels sicher auch einiges anderes eine Rolle gespielt.

Zergra
2016-07-24, 08:55:21
Du wirfst die Entscheidung zu dieser Frage aber auch nicht auf der Zielgeraden um. Das sagt gar nichts über die Yields bei HBM, sondern nur über die Nvidia eigenen Projektionen zum Speicher als man es entschieden hat. Und da hat neben den yiels sicher auch einiges anderes eine Rolle gespielt.
Geld :D, HBM 2 wird bestimmt nicht billig sein. NV wird nicht drauf angewiesen diesen zu nutzen und kommt mit 5X noch gut voran.

Kriton
2016-07-24, 09:01:08
Ist sicher ein Faktor gewesen, aber ich habe es bewusst nicht darauf reduziert.

StefanV
2016-07-24, 09:30:39
Dazu kommt, dass man, wenn man erst die GDDR5x Version bringt und später eine HBM Version, eine neue Karte vorstellen kann und noch etwas Geld 'verdienen'...

scully1234
2016-07-24, 10:12:38
Kein großes Marketing? Nur auf einer "kleinen" Konferenz? Und dann nur über nVidia Beziehbar, oder halt Systembuilder, denen ziemlich sicher auf die Finger geschaut wird, und wo es eben keine Customs geben wird. (Ob das die Kartenpartner geil finden?)

.


Die Kartenpartner werden froh sein, wenn sie das z.Zt nicht auch noch stämmen müssen, was Nvidia da raus haut.

Man kommt mit GP104 schon nicht richtig hinterher, nun folgte der GP106 bei dem sich noch zeigen wird wie gross die Nachfrage ist,jetzt auch noch einen GP102 zu bedienen wird wohl erst laufen wenn der Druck nach lässt, und dann vorzugsweise als 1080ti Brand.

Godmode
2016-07-24, 10:17:41
Meine Titan X habe ich gestern um 650 € verkauft, inkl. Wasserblock. Ich hoffe auf eine nicht all zu angespannte Liefersituation bei der neuen Titan X.

scully1234
2016-07-24, 10:21:20
Das einzige was mir Kopfzerbrechen bereitet ,ist die Garantieabwicklung im Falle eines Falles.

Als konseqenter Wakünutzer, war man bei EVGA immer gut aufgehoben, nur wie wird das jetzt bei Nvidia???

Nicht das mir da jemals eine kaputt gegangen wäre bisher, aber bei ca 1300 Euro wäre da ein Bisschen mehr Klarheit schon nicht verkehrt

Spasstiger
2016-07-24, 10:26:47
Meine Titan X habe ich gestern um 650 € verkauft, inkl. Wasserblock. Ich hoffe auf eine nicht all zu angespannte Liefersituation bei der neuen Titan X.
Teures Hobby hast du da. ;)
Bei über 1300€ erwarte ich keine Engpässe, zumal der GP102 bislang exklusiv für die Titan aufgelegt wird und andere als GP100 nicht für HPC-Großprojekte gesammelt werden muss.

scully1234
2016-07-24, 10:27:30
Quadro???


Edit: bin sowieso erstaunt das man die Titan nicht schon mit 24GB bestückt , das wird dann aber hoffentlich auf der Profikarte geschehen

Godmode
2016-07-24, 11:04:51
Teures Hobby hast du da. ;)
Bei über 1300€ erwarte ich keine Engpässe, zumal der GP102 bislang exklusiv für die Titan aufgelegt wird und andere als GP100 nicht für HPC-Großprojekte gesammelt werden muss.

Findest du? Ich zahle alle 1-1,5 Jahre ~600 Euro auf die neue Karte auf, da ich immer eine alte zu verkaufen habe. Wenn ich sehe was andere Leute für Autos etc. ausgeben, finde ich das richtig günstig.

Spasstiger
2016-07-24, 11:15:30
(Neue) Autos sind sowie Geldvernichtung pur. Naja, durch den Verkauf zum günstigen Zeitpunkt und zeitweiligen Verzicht fängst du natürlich den Wertverlust teilweise auf. Aber wenn es rein um PC-Gaming geht, kann man auch weit günstiger fahren.
Ich finde es halt schade, dass sich die Preisspirale immer weiter nach oben dreht, obwohl der Fortschritt immer langsamer voranschreitet. Nvidia ist an dieser Entwicklung maßgeblich beteiligt mit ihrer Preis- und Produktpolitik. Andererseits liefert Nvidia auch zuverlässig führende Technologie ab.

Hübie
2016-07-24, 11:31:04
Also die yields von GDDR5X sind keineswegs schlecht, die haben jedoch nur sehr wenig Produktionsstraßen. Von GP102 werden die yieldrates wohl sehr bescheiden sein. Ich finde das bisher auch kurios. Hat wohl etwas mit Datenkrake, Titan als Billigtesla und geringer Verfügbarkeit zu tun.
Man legt jedenfalls kein multimillion teures Projekt auf um nachher nur eine Hand voll Chips / Karten zu verkaufen. Der 899/999$ Preisraum steht jedenfalls noch offen und da wird was reingesetzt.

Ich persönlich zieh die Notbremse. 1300€ ist mir der Scheiß in 15 Jahren durch Inflation wert, aber nicht heute.

scully1234
2016-07-24, 11:33:57
Ich persönlich zieh die Notbremse. 1300€ ist mir der Scheiß in 15 Jahren durch Inflation wert, aber nicht heute.

Meinst du wir zahlen in 15 Jahren noch in Euro:biggrin:

Findest du? Ich zahle alle 1-1,5 Jahre ~600 Euro auf die neue Karte auf, da ich immer eine alte zu verkaufen habe. .

Ja der Gegenwert wird meistens nicht einkalkuliert, ''teuer'' ist lediglich die Erstanschaffung

phoenix887
2016-07-24, 11:42:17
Also die yields von GDDR5X sind keineswegs schlecht, die haben jedoch nur sehr wenig Produktionsstraßen. Von GP102 werden die yieldrates wohl sehr bescheiden sein. Ich finde das bisher auch kurios. Hat wohl etwas mit Datenkrake, Titan als Billigtesla und geringer Verfügbarkeit zu tun.
Man legt jedenfalls kein multimillion teures Projekt auf um nachher nur eine Hand voll Chips / Karten zu verkaufen. Der 899/999$ Preisraum steht jedenfalls noch offen und da wird was reingesetzt.

Ich persönlich zieh die Notbremse. 1300€ ist mir der Scheiß in 15 Jahren durch Inflation wert, aber nicht heute.

Wie schon geschrieben, sehe das mit der Notbremse auch so.:)

BlacKi
2016-07-24, 11:58:27
Nvidia ist an dieser Entwicklung maßgeblich beteiligt mit ihrer Preis- und Produktpolitik. Andererseits liefert Nvidia auch zuverlässig führende Technologie ab.
meiner meinung nach zu einseitig gedacht. nv (dem marktführer) alleine die höheren preise zuzuordnen ist jedenfalls schwachsinn. es ist der mangel an konkurenz. wo wäre denn amd wenn sie keine günstigeren angebote machen würde? dann hätte amd vl noch 5% marktanteil.
bist du medizinsch auf die titan angewiesen?^^ dann könnte man über die preisepolitik reden^^

KHJ
2016-07-24, 13:38:41
Die 1080Ti kommt so sicher wie das Amen in der Kirche. Bei den geringen Stückzahlen die man für eine 1200 Euro Grafikkarte erwarten kann würde sich ein eigener Chip ja wohl kaum lohnen.
Ich sehe 3 sinnvolle Möglichkeiten der Speicherbestückung:
1) 384bit 12GB gddr5x - genau wie bei der Titan X. Der Chip müsste dann aber doch ordentlich beschnitten werden sonst ist der dann wirklich gleich schnell (das Problem hatte die Maxwell-Titan zwar auch, aber immerhin hatte die ja den doppelten Speicher...)
2) 320bit 10GB gddr5x
3) 384bit 12GB gddr5
2) und 3) würden in derselben Bandbreite resultieren - 2) hätte auch weniger ROPs (und L2-Cache) was man aber mehr oder weniger vernachlässigen kann. Beides würde immerhin etwas Kosten sparen und sicherstellen dass die tatsächlich langsamer ist (ohne den Chip allzu stark beschneiden zu müssen).
Kann aber sein dass nvidia was anderes macht, also z.B wie bei der GTX 970...

Für mich erscheint eine 320 bit 10GB Vram GDDR5X Lösung am wahrscheinlichsten. Den diese ist dann von den Daten bei der Bandbreite und Speicher genau zwischen einer 1080 und Titan
Und bei der Rohleistung kann man diese je nach Shaderanzahl ja mit dem Takt gut mittig positionieren.

Wer weis vielleicht kommt ja eine Titan Black oder wie immer der Vollausbau heisst doch unerwarteten mit 24 GB vram.
Die Kundschaft die in dem Preisberreich einkauft würde die zusätzlichen 12gb vram auch mitzahlen, ob nun 1800€ oder 2000€ für so ne Karte spielt dann auch keine Rolle mehr.

Hübie
2016-07-24, 14:10:40
So würde ich auch tippen, KHJ. Und der Refresh wird wohl so etwas wie Titan Black.

Agent117
2016-07-24, 14:16:06
Für mich erscheint eine 320 bit 10GB Vram GDDR5X Lösung am wahrscheinlichsten. Den diese ist dann von den Daten bei der Bandbreite und Speicher genau zwischen einer 1080 und Titan
Und bei der Rohleistung kann man diese je nach Shaderanzahl ja mit dem Takt gut mittig positionieren.

Gibt es nicht auch 0,75Gb GDR5X Chips? Dann ginge auch noch 9Gb an vollen 384Bit.

iuno
2016-07-24, 14:25:04
Nein, gibt es nicht.
Spezifiziert sind seitens der JEDEC Chips mit 4, 6, 8, 12 und 16 Gib, also 0,5/0,75/1/1,5 GiB. Micron baut bisher ausschliesslich GDDR5X und die auch nur 8 Gib. Angekuendigt sind da bisher auch nur schnellere 8 Gib Chips, aber keine anderen Groessen.

Hakim
2016-07-24, 14:46:50
Vielleicht lässt man es auch mit der 1080ti und bringt einfach später eine Titan X ultra (vollbestückung , 16GB HBM2?). Dagegen würde der Preis der TXP sprechen.

Hübie
2016-07-24, 15:01:32
HBM2 mit GP102 schließt sich aus. Das PHY müsste komplett neu designed werden und man bräuchte eine neue Maske, welche wiederum ein paar Milliönchen kostet.

iuno
2016-07-24, 15:10:47
HBM waere ja auch nur mit GP100 machbar, sehe aber den Sinn nicht.
Wenn darueber noch was kommen soll: alle SP, etwas mehr Takt, evtl 11 Gbps.

Darunter sehe ich noch mehrere Moeglichkeiten... eine 1080 Ti waere theoretisch auch mit GP104 denkbar, weitere kleinere Ausbaustufen von GP102 koennten als Quadro verkauft werden.

y33H@
2016-07-24, 17:47:12
Hat jetzt eigentlich schon jemand die Karte zum Testen?So zwei drei Titan X sind unterwegs :P

Hübie
2016-07-24, 18:28:03
Pro Kontinent X-D

Robspassion
2016-07-25, 12:24:38
Hab bei Caseking angefragt. Sie werden die Titan X nicht anbieten können :=(.

Wird wohl echt schwer das Teil zu bekommen.

WC_ENTE
2016-07-25, 12:55:44
Also ich hatte mir die letzte Titan X geholt
Also wenn man Forenübergreifend deinem Gelaber nach geht, hast du (in verwendung):
770 4GB, 780ti, Titan X, 980ti, R9 Nano, 1060

:ulol:


B2T:
Ich finde es eigentlich ganz gut,
wenn Firmen wie Nv die so stolze "PC Masterrace" immer mehr zur Kasse bittet.

Ich hoffe noch immer das man mit der Titan XY(Singel-Gpu) 2000euro knacken wird

(3000 euro hatten wir ja schon, Titan Z langsamer als die 295x2 aber doppelt so teuer)

HOT
2016-07-25, 14:15:10
Find ich ja hart, die Quadro P6000 ist der Vollausbau und die neue Titan nur die Salvage-Variante? Also die übertreibens aber auch wirklich...

Edgecrusher86
2016-07-25, 14:26:55
Man wartet einfach, was AMD macht - kommt Big Vega mit 16GB HBM2, wird spätestens H2 2017 halt die "newest TITAN X" (:freak:) oder "TITAN whatever" rausgehauen - ein P6000 mit höheren Taktraten.
Preislich dürfte man dann $1400-1500 MSRP ansetzen. Unter Umständen verbaut man dann auch gleich noch 12 Gbps GDDR5X. Es soll ja angeblich wohl auch eine Pascal-Refresh-Serie geplant sein. Da käme auch ein Enthusiasten-Upgrade wohl genau richtig. ;D

Ich kaufe jedenfalls nicht die kleine X und fahre erstmal 1080 SLI + HB Bridge. Einmal GTX TITAN hat gelangt, wenn ich schon verdammt viel Geld ausgebe, will ich auch das maximal Mögliche dafür erhalten. ;)

E: Die entsprechende News zu Quadro P6000:
http://www.heise.de/newsticker/meldung/Nvidia-Quadro-P5000-und-P6000-Volle-Pascal-Power-fuer-Profis-3277110.html?wt_mc=rss.ho.beitrag.atom

HOT
2016-07-25, 14:57:32
Rebrand-Serie kann sein, oder man bringt Volta doch schon 2017.

Tru
2016-07-25, 17:41:44
Nvidia hat nun übrigens bestätigt, dass der GP102 471 mm² groß ist.

Sunrise
2016-07-25, 17:49:46
Nvidia hat nun übrigens bestätigt, dass der GP102 471 mm² groß ist.
Quelle?

Tru
2016-07-25, 17:52:22
Nvidia-Call unter anderem zur Titan X.

http://www.pcgameshardware.de/Titan-X-Grafikkarte-264712/Specials/Titan-X-Rev-2-GP102-Ankuendigung-1202371/

Sunrise
2016-07-25, 17:54:16
Nvidia-Call unter anderem zur Titan X.

http://www.pcgameshardware.de/Titan-X-Grafikkarte-264712/Specials/Titan-X-Rev-2-GP102-Ankuendigung-1202371/
Danke!

Also wie schon seit etlichen Monaten spekuliert (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10911796#post10911796) (im Januar 2016!), genau +50% von GP104, zumindest soll das von NV im Call erwähnt worden sein. Wo ich das wieder lese, meine GP104-Schätzung war auch nicht schlecht, etwa 300mm² und 150W TDP.

Dann können wir ja dieses Kapitel endlich schließen. :D

Fragman
2016-07-25, 18:21:10
... oder man bringt Volta doch schon 2017.

glaub ich mittlerweile auch.

robbitop
2016-07-25, 18:46:24
Dann bleibt ja noch etwas Reserve für GV102.

HOT
2016-07-25, 19:03:15
So siehts aus. 2. 16nm Generation wird sicherlich wieder größere Chips bringen.
GP100 wird sicherlich einfach gar nicht ersetzt. Ich nehme an, GV100 ist einfach der Nachfolger von GP102. GP100 dürfte ein sehr langfristiges Projekt sein. Dessen Nachfolger wird sicherlich erst in <= 10nm antreten.

robbitop
2016-07-25, 19:38:23
Das macht Sinn. Ähnliches war ja bei GK110 der Fall. Ich wäre auch sehr überrascht, wenn ein ähnlicher Sprung der IPC wie von Kepler auf Maxwell nochmal so bald auf uns zukäme.

Bei Fermi hatte man ja bereits eine sehr hohe IPC die man mit Kepler im Gegenzug zu massiv mehr Ausführungseinheiten etw aufgab. Mit Maxwell kam man wohl in etwa zurück auf Fermi IPC. Pascal brachte eigentlich hauptsächlich höhere Taktraten.


Eher werden Volta Produkte etwas größer. GV104 dann wie GM204 eher Richtung 400sqmm und GV102 dann Richtung 550...600 sqmm.

HOT
2016-07-25, 19:50:38
Das kommt drauf an wobei. NV wird sicherlich darauf achten, dass GV104 unter DX11 in jedem Falle schneller bleibt als Pascal, da könnte ein voller GP102 natürlich kontraproduktiv wirken u.U. Sollte AsyncCompute massiv ins Spiel kommen dürfte Volta doch sehr gute Performancesprünge machen.

robbitop
2016-07-25, 20:10:28
Die IPC wird nicht sinken IMO. AC kann sicher eher noch etwas helfen, vor allem wenn mehr als nur preemption unterstützt wird. Aufgrund der von Haus aus bereits hohen Auslastung ist aber IMO ein geringeres Potenzial als bei GCM zu vermuten, dessen ALUs häufig eher mäßig ausgelastet sind.

Korvaun
2016-07-25, 20:16:46
Paar mehr Details zur TitanX/GP102:

https://www.computerbase.de/2016-07/nvidia-titan-x-details/

VooDoo7mx
2016-07-25, 20:20:58
Eher werden Volta Produkte etwas größer. GV104 dann wie GM204 eher Richtung 400sqmm und GV102 dann Richtung 550...600 sqmm.

Gehe ich auch von aus.

2016: Es kommen noch die mobilen Pascal Ableger und vielleicht noch eine GP106 based GTX 1050.

2017: GV100 Volta nur für HPC.
Gaming Bereich wird weiterhin mit Pascal versorgt. TSMC wird für 16nm finfet mehr Kapazitäten haben, die yields werden besser und somit die Produkte günstiger. Es wird neue Geforce Produkte auf Basis bisheriger Pascal Chips geben. Beispiel: Geforce GTX 1170 mit GP104 vielleicht B Step, 2560 Cores, 1,8 GHz Base, mit 12gbps GDDR5X oder GTX 1180 mit GP 102 Salvage

2018: Volta 2nd 16nm Gaming Gen mit GV 104 GV102 unf GV 106.

AffenJack
2016-07-25, 20:46:13
So siehts aus. 2. 16nm Generation wird sicherlich wieder größere Chips bringen.
GP100 wird sicherlich einfach gar nicht ersetzt. Ich nehme an, GV100 ist einfach der Nachfolger von GP102. GP100 dürfte ein sehr langfristiges Projekt sein. Dessen Nachfolger wird sicherlich erst in <= 10nm antreten.

Im Gegenteil. GP100 wird ein sehr kurzfristiges Produkt. GV100 wird diesen sehr schnell ersetzen und deshalb glaube ich auch nicht an 16nm bei diesem. Es ist einfach kein Platz von Gp100 zu GV100 um die Diefläche zu erhöhen und ohne mehr Fläche wird man seine Projektionen bestimmt nicht halten können. GV100 wird bestimmt in 10nm kommen, aber alles darunter kann durchaus auch einfach als 2te 16nm Gen kommen.

HOT
2016-07-25, 20:46:17
Die IPC wird nicht sinken IMO. AC kann sicher eher noch etwas helfen, vor allem wenn mehr als nur preemption unterstützt wird. Aufgrund der von Haus aus bereits hohen Auslastung ist aber IMO ein geringeres Potenzial als bei GCM zu vermuten, dessen ALUs häufig eher mäßig ausgelastet sind.
Wenn du mehr Einheiten unterbringen willst, die Packdichte erhöhst und dich auf AsyncCompute verlässt wird die IPC pro Recheneinheit automatisch sinken. Das wird nicht anders gehen. Bei DX11 wird die Effizienz leiden.

Im Gegenteil. GP100 wird ein sehr kurzfristiges Produkt. GV100 wird diesen sehr schnell ersetzen und deshalb glaube ich auch nicht an 16nm bei diesem. Es ist einfach kein Platz von Gp100 zu GV100 um die Diefläche zu erhöhen und ohne mehr Fläche wird man seine Projektionen bestimmt nicht halten können. GV100 wird bestimmt in 10nm kommen, aber alles darunter kann durchaus auch einfach als 2te 16nm Gen kommen.
Das macht absolut keinen Sinn, denn in dem Falle wär der GP100 ganz sicher total unwirtschaftlich gewesen. Ich glaube auch nicht, dass die pure Rechenleistung in diesem Bereich derart entscheidend ist, zumal der GP100 auch anders organisiert ist. Man muss sich da ja nur mal die Konkurrenz angucken. Greenland wird nicht viel mehr Rechenleistung liefern und Intel schleppt ja auch noch x86 mit sich herum. Nene, GV100 wird ein reiner Consumerchip. GP100 ist ein ziemlich optimaler Chip für 16nm für HPC. 10nm wird man erst mit der Nachfolgearchtektur bringen können, wie gesagt, gibts da auch überhaupt keinen Druck. GP100 wird vllt. 2019 einen 7nm Nachfolger bekommen, das halte ich für die wahrscheinlichste Variante.

AffenJack
2016-07-25, 20:57:20
Das macht absolut keinen Sinn, denn in dem Falle wär der GP100 ganz sicher total unwirtschaftlich gewesen. Ich glaube auch nicht, dass die pure Rechenleistung in diesem Bereich derart entscheidend ist, zumal der GP100 auch anders organisiert ist. Man muss sich da ja nur mal die Konkurrenz angucken. Greenland wird nicht viel mehr Rechenleistung liefern und Intel schleppt ja auch noch x86 mit sich herum. Nene, GV100 wird ein reiner Consumerchip. GP100 ist ein ziemlich optimaler Chip für 16nm für HPC.
10nm wird man erst mit der Nachfolgearchtektur bringen können, wie gesagt, gibts da auch überhaupt keinen Druck.

Gut möglich, dass er unwirtschaftlich sein wird. GP100 ist ein Testballon der den Weg für Volta frei macht. Erste Erfahrungen mit HBM, Interposern, Nvlink. Da ist einiges zu lernen für Nvidia und ihre Partner beim Anbieten solcher Systeme. Ist halt sowas wie Fury bei AMD. Es ist doch schon klar, dass Volta in Summit und Sierra stecken wird, dementsprechend kann GV100 kein Consumerchip sein. Wann Consumervolta kommen weiß man noch überhaupt nicht, aber HPC Volta wird Ende 2017/Anfang 2018 da sein (zumindest Samples)

AnarchX
2016-07-25, 20:57:32
GV100 steht fest als HPC-Chip.

HOT
2016-07-25, 21:09:31
Gut, andere Variante wäre, dass GV10x dann in 2017 in 16nm kommen und dass GV100 dann erst in 2018 irgendwann in 10nm kommt.

Hübie
2016-07-25, 21:29:13
GV100 wird wohl wie GP100 eine Kleinserie und da ist es wahrscheinlicher die 10-nm-Prozesstechnik zu verwenden. Hier spielt die Marge noch nicht die vorrangige Rolle, auch wenn andere das immer glauben wollen.

Von dem was man bisher hörte wird Volta eine neue Architektur werden. Wobei das zu schwammig ist um da etwas draus zu basteln.

robbitop
2016-07-25, 21:29:46
Wer sagt, dass sich NV auf AC "verlässt"? Ggf packen sie einfach ein paar Einheiten dazu bis die 600 sqmm aufgefüllt sind.

Ailuros
2016-07-26, 17:50:39
http://www.anandtech.com/show/10516/nvidia-announces-quadro-pascal-family-quadro-p6000-p5000

GP102 bzw. 104 fuer die neuen Quadros.

Foobar2001
2016-07-26, 17:57:41
Gut, andere Variante wäre, dass GV10x dann in 2017 in 16nm kommen und dass GV100 dann erst in 2018 irgendwann in 10nm kommt.
10nm in 2018. Guter Witz ;D

10nm GPUs kommen vielleicht 2020. Eher 2021.

Hübie
2016-07-26, 18:45:26
Ich hatte schon Projektionen mit 2019 gesehen. Ist letztendlich wieder die Sache mit dem größten Glauben des Planeten: Geld. Ich könnte mir vorstellen dass consumer-produkte 2020/2021 kommen, aber erste Serien sicherlich schon 2019. So lang kalkuliert nur niemand.

Edit: Ich gebe noch zu bedenken das wir hier von 12 Monaten reden. Ob also Januar 2019 oder Dezember 2019 ist schon ein riesen Unterschied im kaufmännischen / wirtschaftlichen Bereich.

Godmode
2016-07-26, 20:47:55
http://www.anandtech.com/show/10516/nvidia-announces-quadro-pascal-family-quadro-p6000-p5000

GP102 bzw. 104 fuer die neuen Quadros.

Dass die Quadros den vollen Chip bekommen und wir nur Ausschuss, schmeckt mir gar nicht. Vor allem auf der Titan, WTF?

Hübie
2016-07-26, 22:01:45
Tja ich glaube die waren angepisst, weil sich mit Titan Classic und Black so einige Studios günstig langfristig eingedeckt sind / waren. Man reißt nun mit Gewalt alles auseinander. Einerseits beschissene Yields, andererseits muss man die Aktionäre bei der Stange halten (hold :biggrin:).

HOT
2016-07-27, 08:58:19
10nm in 2018. Guter Witz ;D

10nm GPUs kommen vielleicht 2020. Eher 2021.

Bei normalen GPUs ja, für HPC kann man sich 10nm aber gut vorstellen. Technisch machbar wird es sogar sein, da Apple ja schon sehr viel früher auf 10nm agiert.

AffenJack
2016-07-27, 09:45:33
10nm in 2018. Guter Witz ;D

10nm GPUs kommen vielleicht 2020. Eher 2021.

2020 bist du bei 7nm GPUs. Falls es GPU Designs in 10nm gibt, so werden diese 2018 kommen.

scully1234
2016-07-27, 10:58:06
2020 bist du bei 7nm GPUs. .

Erst mal abwarten ob das noch bezahlbar bleibt, die Schnittmenge der Halbleiterhersteller, sieht das wohl nicht mehr so rosig


http://www.pcgameshardware.de/Neue-Technologien-Thema-71240/News/ITRS-20-10-nm-1202775/

Intel und TSMCs genaue Statements wären mal schön.Aber da lässt sich wohl derzeit ,an der Oberfläche ,keiner in die Karten kucken

Thomas Gräf
2016-07-27, 12:12:26
Mit der Semiconductor Industry Association steigt ein Schlüsselsponsor aus, der mit der Semiconductor Research Corporation künftig enger mit der US-Regierung zusammenarbeiten wird.

Jaja Aufträge vom Militär erhaschen um mit Steuergeldern risikolos Spass an der Forschung zu haben. :P
Die soll der Blitz beim ka***en treffen.

HOT
2016-07-27, 12:42:12
2020 bist du bei 7nm GPUs. Falls es GPU Designs in 10nm gibt, so werden diese 2018 kommen.
Glaub ich nicht dran,
http://www.pcgameshardware.de/Neue-Technologien-Thema-71240/News/ITRS-20-10-nm-1202775/
progonstizieren das ja nicht für dumme Nüsse. Man siehts ja auch bei Intel, 2019/20 werden wir 10nm GPUs sehen und danach ist alles total unsicher. 28nm hat 4 Jahre gehalten, 14/16nm hält sicherlich 4-5 Jahre vor, 10nm dann eben auf absehbare Zeit. 5-7nm wird man absehbar gar nicht im GPU-Bereich sehen, maximal gibts da Produkte für HPC.
Im Klartext heißt das, Volta ist 16nm und dessen Nachfolger ebenfalls noch, erst danach wird man 10nm einführen. AMD hingegen wird von 14LPP auf 14HP wechseln, also GloFos eigenen FinFET-Prozess verwenden für Navi und Nachfolger, erst dann wird man "7nm" einsetzen, welcher GloFos 10nm-Prozess ist. Das Zauberwort heißt eben Kosten, du kannst GPUs einfach nicht unendlich teurer machen. Wir sind jetzt schon an einem kritischen Preisniveau angekommen.

AffenJack
2016-07-27, 13:35:35
Die ITRS 10nm entsprechen aber glaube nicht den TSMC und GF 10nm. Die halten sich glaube eher an die phsysikalischen, anstatt Marketinggrößen. Da steht ja auch bei 2015 noch 24nm. Da weiß man gar nicht, wessen Prozess die damit meinen. TSMC 10nm kommt nächstes Jahr in Massenproduktion bei SoCs und wird, wenn es denn bei GPUs verwendet wird, 1 Jahr nach SoCs bei GPUs auftauchen. Ansonsten wird man den 10nm Prozess überspringen und gleich auf den 7nm Prozess gehen, der 2018/2019 kommen wird für SoC. Also ~2020 für GPUs. Würde mich nicht wundern, wenn erst der 5nm TSMC Prozess dem entspricht was ITRS meint. Aber natürlich wird es auch auf die Anwendung ankommen, welchen Prozess man verwendet. GPUs brauchen einfach mehr Transistordichte und weniger Stromverbrauch für große Steigerungen. Um die Designkosten abzubezahlen, braucht man dann einfach 3 Jahre statt 2 pro Generation.

HOT
2016-07-27, 13:47:18
:freak: ne, die sprechen schon von den Fertigungsgrößen der Foundries.

Ravenhearth
2016-07-27, 18:15:27
Ne, da steht explizit "physical gate length" in der Grafik, und die 10nm sollen erst 2021 erreicht werden. Das heißt bei TSMC dann vielleicht "5nm".

PHuV
2016-07-27, 22:12:06
War da jetzt nicht was die Rede von Volta erscheint in 2017 noch mit 16nm?

Leonidas
2016-07-27, 22:58:08
Ne, da steht explizit "physical gate length" in der Grafik, und die 10nm sollen erst 2021 erreicht werden. Das heißt bei TSMC dann vielleicht "5nm".


Die Grafik stammt nicht von ITRS, sondern von einer Berichterstattung darüber. Sie hält sich aber aber dennoch an die PR-Namen: Beispielsweise für 2015 sind 16nm eingezeichnet.

robbitop
2016-07-27, 23:23:56
War da jetzt nicht was die Rede von Volta erscheint in 2017 noch mit 16nm?

IMO wird GV102 einfach die 600sqmm vollmachen. Das wären dann 4800-5000 SPs.
GV104 dann 400 sqmm und 3000-3200 SPs.

Entweder gibt es bis dahin deutlich höher getakteten GDDR5X oder man muss die Breite erhöhn (bzw setzt hbm ein).

Ravenhearth
2016-07-27, 23:34:06
Die Grafik stammt nicht von ITRS, sondern von einer Berichterstattung darüber. Sie hält sich aber aber dennoch an die PR-Namen: Beispielsweise für 2015 sind 16nm eingezeichnet.

Aber nur im 2013 report. Für 2015 sind im 2015 report 24nm eingezeichnet.

Leonidas
2016-07-28, 00:14:07
24nm real dürften doch 10nm PR entsprechen, oder?

Ravenhearth
2016-07-28, 00:57:38
24nm physical gate length passen eher zu den "16/14nm"-Prozessen. Passt also perfekt zu 2015.

HOT
2016-07-28, 08:45:13
5nm Real? Ich hab da Zweifel... wie soll das gehen? ich denke die meinen die Marketinggrößen.

Ravenhearth
2016-07-28, 09:52:45
Das passt aber hinten und vorne nicht.

HOT
2016-07-28, 10:06:55
Klar passt das, es geht doch "nur" um die Wirtschaftlichkeit. Das heißt doch nicht, dass es keine 7 oder 5nm-Produkte geben wird, sondern, dass die Massenprodukte auf 10nm bleiben über 2021 hinaus.
Das einzige, was jetzt in 10nm kommt sind kleine hochpreisige SoCs. Auch ein Cannonlake ist sicherlich nicht größer als 60mm². Das trägt sich kostentechnisch, ein CoffeeLake aber offensichtlich eben nicht. Und genau das wird gemeint sein und wird auch für Grafikchips gelten. Intel baut doch CoffeeLake nicht in 14nm weil das in 10nm nicht geht, sondern weil die Kosten den Aktionären nicht zugemutet werden können. Die eigentliche Kundschaft eines Konzerns sind seine Besitzer.
Intel wird Icelake in 10nm bringen in 2019/20 und sie sind damit die ersten mit 10nm im Massenmarkt abseits der Hochpreis-SoCs, was gut zusammen passt mit dem Bericht - man verkauft die Kostensteigerung eben über einen längeren Zeitraum.
Für AMD und NV gilt, dass sie gezwungen sind zu differenzieren. Zwar kann man Grafikchips sehr teuer verkaufen, aber man muss aufpassen, dass man sich nicht verzockt. Die Entwicklung und die Kostenprognosen für diese Produkte sind immerhin einige Jahre zugange. Wenn man das Risiko für zu hoch hält, dass man die nötigen Margen bei den nötigen Verkäufen nicht hinbekommt, muss man eben Kompromisse eingehen. NV hat das dieses mal ja auch getan, indem man dafür gesorgt hat, dass die Chipgrößen nicht allzusehr ausufern. Man hätte GP102 auch ganz anders designen können und mit 350W auf den Markt werfen können, man ist aber handzahm mit einer kastrierten Titan, was für micht nur zwei Ursachen haben kann:
1.) GP102 ist so riskant in der Produktion und Absatz, dass man die Margen künstlich klein hält
2.) man möchte GV1xx nicht frühzeitig schaden, wenn der quasi schon vor der Tür steht. Aus NVs Sicht ist AMD ja wieder Zahnlos.

Um mal wieder zum Thema zurück zu kommen: Es wird mit dem GP102 sicherlich nicht bei der Titan bleiben. Eine 1080Ti mit 3328 oder 3072 Shadern und 384Bit 8Gbps GDDR5 ist durchaus denkbar.

Setsul
2016-07-28, 11:40:20
24nm physical gate length bezieht sich höchstwahrscheinlich auf den 14nm node.
http://www.electronics-eetimes.com/news/samsung%E2%80%99s-14-nm-lpe-finfet-transistors/page/0/3
Intel hält sich meistens am besten an die ITRS nodes.

Je nachdem wieviele Probleme Intel bekommt sollten sie irgendwann zwischen 2020 und 2022 bei 5nm ankommen. 2020 will TSMC "5nm" haben aber das entspricht dann bestenfalls 7nm.


nVidia hat generell mehrere Möglichkeiten für Volta, wenn man annimmt, dass sie keine wahnsinnigen Effizienzsteigerungen mehr aus der Architektur und 16nm rausbekommen um allein dadurch ihr Effizienzziel zu erreichen (siehe Maxwell).
Entweder man gibt das Ziel einfach auf und bleibt bei 16nm oder man verzögert einfach etwas bis 10nm weit genug ist oder man fängt mit den kleineren Chips an.
TSMC wird 10nm ja definitiv rechtzeitig produzieren können, nur die Yields sind fraglich. GV100 sollten man wieder einfach durchprügeln können dank der lächerlichen Preise.

Hübie
2016-07-28, 12:32:20
Darf ich an der Stelle bitten die Diskussion anderweitig fortzusetzen? Hier geht es nur um die überteuerte Titan X ohne GTX und GeForce. :D Ich klicke immer wieder weil ich denke es gibt neue Infos und dann lese ich das.
Wollte es nur mal erwähnen...

StefanV
2016-07-28, 13:27:13
Um mal wieder zum Thema zurück zu kommen: Es wird mit dem GP102 sicherlich nicht bei der Titan bleiben. Eine 1080Ti mit 3328 oder 3072 Shadern und 384Bit 8Gbps GDDR5 ist durchaus denkbar.
Nein, 320bit Speicherinterface wohl eher, da man damit ja auf 9 (oder warens 10?) GiB RAM kommen würde.
384bit wären, mit den momentan verfügbaren Chips, nur 6 (weniger als die 'normale' 1080) oder 12GiB (=Titan) möglich. Also völlig ausgeschlossen...

320bit Speicherinterface sind da schlüssiger.

Setsul
2016-07-28, 14:38:09
Da ist jetzt aber enorm viel Wunschdenken dabei.

Bis Vega 10 auftaucht passiert garantiert gar nichts.
Wenn Vega 10 nicht schneller ist als GP104 passiert wieder nichts. Und wenn überhaupt dann stark beschnitten. Die MCs hängen doch immernoch an den ROPs? 320bit bedeuten dann automatisch <= 80 ROPs wenn man nicht einen auf reverse 970 machen will. Das heißt auch <=3200 SPs. Dann hat man wieder eine GTX die schneller ist als alles von der Konkurrenz und kann aber weiter Leute für die Titan X blechen lassen.

Wenn Vega 10 daneben geht und die 1080 keine Probleme bekommt, heißt es warten bis 2017 und Vega 11. Dann gibts wahrscheinlich auch 0,75GB GDDR5X Chips. Je nachdem wie Vega 11 sich schlägt zeigt nVidia den Titan X Käufern eventuell den Mittelfinger und bringt eine 1080 Ti oder was auch immer gegen Vega 11 Salvage, mit 12 oder 18GB, eventuell 320 bit je nach Leistung von Vega 11 Salvage, klatscht eine 1090 (SLI will man ja nicht mehr) oder wie auch immer mit 18GB vor den full Vega 11 auf Nivea der Titan X und bringt den vollen GP102 als Titan XYZ mit 24GB.

scully1234
2016-07-28, 14:47:13
Da ist jetzt aber enorm viel Wunschdenken dabei.

Bis Vega 10 auftaucht passiert garantiert gar nichts.
Wenn Vega 10 nicht schneller ist als GP104 passiert wieder nichts. .

Naja was heißt ''passiert nix''

Man wird da schon weitere Kaufanreize schaffen, vor allem um die Weihnachtszeit herum , wäre das sicher nicht unklug

Das da noch ne ''Titan X Black'' kommt, und/oder ein Refresh von GP104 ist durchaus möglich

Völlig unabhängig erst einmal von der Situation AMD/Nvidia

Setsul
2016-07-28, 15:08:51
Dann erinner dich mal an die erste Titan. Ohne Konkurrenz gibt es überhaupt keinen Grund irgendetwas zu ändern.
Die erste Titan X ist zu Weihnachten auch nicht auf einmal billiger geworden.

nVidia hat das jetzt zwei mal genau so gemacht, Titan mit hohem Preis solange wie es geht, erst wenn es Konkurrenz gibt, kommt eine entsprechende nicht Titan Karte. Wenn keine Konkurrenz kommt, gibts auch keine neue Karte.
Ich bezweifel sehr stark, dass nVidia jetzt plötzlich einen auf barmherzigen Samariter macht.

Genau das ist das Wunschdenken, das ich meine.

Godmode
2016-07-29, 09:43:38
Ich frage mich wie stark die Karte wieder vom Powerlimit eingeschnürrt sein wird? 2 GHz Kerntakt wären nett, weil das wären dann ca. 55% mehr Rechenleistung auf meine Titan Classic @1,5 GHz.

robbitop
2016-07-29, 11:10:20
Erinnert sich noch jemand an die Zeiten, in denen es alle 12-18 Monate eine neue Grafikkartengeneration mit >+100% Mehrleistung für 500 € gab?
Heute freuen wir uns über +55% für 1300 €...

Godmode
2016-07-29, 11:15:32
Freuen tut mich das auch nicht, aber was soll man machen? Da ich meine Titan X nicht mehr habe, brauche ich was neues.

dildo4u
2016-07-29, 11:21:25
Erinnert sich noch jemand an die Zeiten, in denen es alle 12-18 Monate eine neue Grafikkartengeneration mit >+100% Mehrleistung für 500 € gab?
Heute freuen wir uns über +55% für 1300 €...
Das war vielleicht der Fall wenn NV oder AMD vorher Müll gebaut wie z.b bei der FX5800 oder 2900XT.

HOT
2016-07-29, 11:41:51
Das war vielleicht der Fall wenn NV oder AMD vorher Müll gebaut wie z.b bei der FX5800 oder 2900XT.
Nene, die Sprünge waren damals immer riesig. TNT auf Geforce, Geforce auf Geforce2 usw, das waren Gewaltsprünge (vielleicht nicht unbedingt immer 100%) im Jahrestakt. Heute gibts einen 60% Sprung innerhalb von 3 Jahren. Ist schon ein irrer Unterschied, aber ist halt so. Das hat aber mehrere Gründe. Zum einen ist in der Fertigung nicht mehr viel zu holen (FinFET war wahrscheinlich für lange Zeit der letzte wirklich große Sprung), zum Zweiten gibts nicht mehr viel Spielraum beim Stromverbrauch, was damals völlig anders war, von der 30W Geforce1 zur 200W Geforce8, und als drittes fallen die Kosten nicht mehr für jede neue Generation, das Chipdesign frisst immer mehr Mannstunden und die Produktion ist sehr teuer im Verhältnis. Als 4. und sehr wichtigen Punkt muss man auch die Softwareentwicklung sehen. Bis 2002 gabs fast jedes Jahr ein neues DX. Ab 9.0a wurden die Sprünge aber immer länger, 9.0c hielt dank DX10-Beschränkung auf Vista sehr lange, DX11 ebenfalls, bis die neuen APIs aus der Taufe gehoben wurden. Wenn man so will kann man noch als 5. Punkt anführen, dass NVs Marktdominanz eine Preistreiberei in Gang setzt, wie das bei Monopolgefahr üblich ist.

Erinnert sich noch jemand an die Zeiten, in denen es alle 12-18 Monate eine neue Grafikkartengeneration mit >+100% Mehrleistung für 500 € gab?
Heute freuen wir uns über +55% für 1300 €...
dafür konntest du deine 500€ Karte dann aber auch nach 2 Jahren wegschmeissen.

BlacKi
2016-07-29, 11:57:09
Freuen tut mich das auch nicht, aber was soll man machen? Da ich meine Titan X nicht mehr habe, brauche ich was neues.
Wie wäre es mit einer günstigen GTX 1080?:biggrin:

Ailuros
2016-07-29, 12:00:18
Wie wäre es mit einer günstigen GTX 1080?:biggrin:

Dann besteht die Gefahr dass er sich vielleicht doch noch zu einer 1080@SLi Loesung wendet und bezahlt am Ende wieder eine aehnliche Summe :freak: ;D

robbitop
2016-07-29, 12:01:53
Man konnte sie nur "wegschmeißen" weil die Entwicklung so schnell voranging. Die ist heute ja massiv gebremst. Die Fortschritte in punkto BQ waren damals riesig verglichen mit der heutigen Zeit. Für das "Wegschmeißen" gab es also auch einen entsprechenden Gegenwert.

Godmode
2016-07-29, 12:59:55
Wie wäre es mit einer günstigen GTX 1080?:biggrin:

Hoffentlich nicht ernst gemeint?

Die 1080 ist verglichen mit meiner alten Karte im Schnitt 10% schneller und hat dazu noch weniger Speicher. Den selben Fehler habe ich schon mit der Titan Classic auf GTX 980 gemacht.

2,0 GHz 1080 vs 1,5 GHz Titan X Classic: http://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/Specials/Benchmark-Test-Video-1195464/2/#a3

Dann besteht die Gefahr dass er sich vielleicht doch noch zu einer 1080@SLi Loesung wendet und bezahlt am Ende wieder eine aehnliche Summe :freak: ;D

Wenn ich wieder ein SLI-System aufbaue, dann nur mit dem großen Chip und sicher nicht mit GP104.

scully1234
2016-07-29, 17:14:05
Ich bezweifel sehr stark, dass nVidia jetzt plötzlich einen auf barmherzigen Samariter macht.


Was hat das mit barmherziger Samariter zu tun wenn sie ihr Portfolio erneuern ,um im Weihnachtsgeschäft attraktivere Produkte zu bieten ?

Derzeit ist doch so oder so Salamitaktik angesagt, da man sich das eben leisten kann

Und weil das so ist , spricht doch nix gegen neue Produkte zum Jahreswechsel, im Gegenteil die Taktik kommt dem Ganzen noch zu Gute

Schliesslich kommt mit dem Umsatz der Gewinn, und da muss auch Nvidia immer mal wieder nachlegen, auch wenn der Mitbewerber nicht mitzieht

Den GP102 hätte man ja ansonsten auch nicht bringen müssen, oder siehst du da eine Notwendigkeit?

Wenn die Chips vorhanden sind für einen Produktlaunch , wird halt rausgehauen was geht, alles andere ist totes Kapital,was im Lager vor sich hin vegetiert

Hoffentlich nicht ernst gemeint?


Wenn ich wieder ein SLI-System aufbaue, dann nur mit dem großen Chip und sicher nicht mit GP104.

.

Die frotzeln doch nur ein Bisschen=)

dargo
2016-07-29, 17:31:00
Erinnert sich noch jemand an die Zeiten, in denen es alle 12-18 Monate eine neue Grafikkartengeneration mit >+100% Mehrleistung für 500 € gab?
Heute freuen wir uns über +55% für 1300 €...
Jepp... das waren noch Zeiten. Diese Salamitaktik heute ist einfach nur noch stink langweilig.

Geächteter
2016-07-29, 22:08:57
Man konnte sie nur "wegschmeißen" weil die Entwicklung so schnell voranging. Die ist heute ja massiv gebremst. Die Fortschritte in punkto BQ waren damals riesig verglichen mit der heutigen Zeit. Für das "Wegschmeißen" gab es also auch einen entsprechenden Gegenwert.
Aber nur physikbedingt, kann man halt nix machen. Sieht man ja auch schon, wie alles am Limit ist, dass es eigentlich nur noch ein Hersteller jeweils bei CPUs und GPUs gibt, die durch ihre Kapitalvorteile noch in der Lage sind, überhaupt noch nennenswert was zu reißen und der Konkurrent eher völlig hilflos in den Seilen hängt. Im Prinzip ging es schon doch schon gefühlt ab der ATI X800 XT (beste Karte damals im Paket) langsamer voran als zuvor, bis dann die fast perfekte 8800-Series von nvidia eine neue Ära einläutete.
Hat sich von da an wieder die Leistung alle 12-18 Monate verdoppelt? Bin gerade zu faul zum Googeln.

Der_Korken
2016-07-29, 23:28:57
Hat sich von da an wieder die Leistung alle 12-18 Monate verdoppelt? Bin gerade zu faul zum Googeln.

Nicht ganz. Die 8800GTX kam Ende 2006, 18 Monate später kam die GTX280 mit +60% Leistung, Ende 2009 die GTX480 mit nochmals +80%. Danach hats bis 2013 gedauert, bis die Titan doppelte Leistung gebracht hat. Allerdings hat sich von der 8800 bis zur 480 auch der Verbrauch verdoppelt. Hätte man heute noch Luft für Faktor 2 mehr Verbrauch, würde es auch heute wohl noch schneller gehen als es das momentan tut.

Nightspider
2016-07-30, 00:15:23
Also ich hätte nichts gegen 500W Karten. :ulol:

Meine Wakü und mein Netzteil schaffen davon sogar noch 2. :D

Leonidas
2016-07-30, 10:30:12
Hätte man heute noch Luft für Faktor 2 mehr Verbrauch, würde es auch heute wohl noch schneller gehen als es das momentan tut.


Richtig. Viel von der rasanten Entwicklung der Anfangsjahre wurder erkauft mit immer höheren Stromaufnahmen. Der Einbruch in der Entwicklungsgeschwindigkeit kam primär dann, also hier Limits á 300W erreicht wurden. Heuer kommt die Teuerungsrate in der Chipfertigung hinzu, das war lange Zeit überhaupt kein Thema.

Godmode
2016-07-30, 11:11:22
Also ich hätte nichts gegen 500W Karten. :ulol:

Meine Wakü und mein Netzteil schaffen davon sogar noch 2. :D

Wäre mir auch ganz recht, solange die FPS mit dem Verbrauch linear skalieren.

Weiß jemand ob Nvidia.de auch nach Österreich versendet?

Raff
2016-07-30, 11:16:32
Nvidia muss mit der Kühlung bei 250W TDP bleiben, sonst wird das 'ne zweite 290X (Uber Mode). ;) Die GTX 1080 ist in Relation zu ihren 180 Watt schon ziemlich laut, was wohl am kleinen Chip liegt. So ein dicker GP102 bietet mehr Angriffsfläche für die Vapor Chambers und Heatpipes dieser Welt, aber wirklich leise wird das nicht. Wenn Platine und BIOS wie bei AMD +50 % Powerlimit erlaubten, würde sich aber bestimmt niemand beschweren ...

MfG,
Raff

BlacKi
2016-07-30, 11:49:15
Nvidia muss mit der Kühlung bei 250W TDP bleiben, sonst wird das 'ne zweite 290X (Uber Mode). ;) Die GTX 1080 ist in Relation zu ihren 180 Watt schon ziemlich laut, was wohl am kleinen Chip liegt. So ein dicker GP102 bietet mehr Angriffsfläche für die Vapor Chambers und Heatpipes dieser Welt, aber wirklich leise wird das nicht. Wenn Platine und BIOS wie bei AMD +50 % Powerlimit erlaubten, würde sich aber bestimmt niemand beschweren ...

MfG,
Raff
wird die drehzahl per chipfläche geregelt oder per temperatur?:wink:

nebenbei ist die 1080 FE leiser als die 980 im cb test.

bei 250w hat gp102 eine niedrigere watt pro chipfläche oder umgekehrt mehr chipfläche um hitze abzugeben als gp104. hilft aber nichts, gp102 wird trotzdem lauter^^

Hübie
2016-07-30, 11:56:10
Es ist doch eine zusammennähende Funktion. Kleine Chipfläche bei konstanter Leistungsaufnahme bedeutet eben weniger Wärmediffusion pro Zeit und Fläche. Verteilt sich somit schlechter und ein Lüfter muss höher drehen. Die Sensorik liegt ja im Chip. Hast du die gleiche Leistungsaufnahme auf großer Fläche ist's eben simpler das an die Umgebung abzugeben. Also versteh ich deinen Einwand nicht.

Ein Teil des Flächenvorteils wird jedoch allein durch die hohe TDP wieder aufgefressen, also erwarte ich bei selber FE-Kühlung keine signifikanten Änderungen.

Skysnake
2016-07-30, 12:05:25
Du meinst wohl eher, dass die Wärmestromdichte zunimmt bei konstanter Leistungsaufnahme aber kleinerer Chipfläche ;)

scully1234
2016-07-30, 13:02:16
Nvidia muss mit der Kühlung bei 250W TDP bleiben, sonst wird das 'ne zweite 290X (Uber Mode). ;)
MfG,
Raff

brauchst doch nur im letzten Titan X Review zu schauen ,dann weisst du wo der Kuehler sich bewegt bei 250Watt

BlacKi
2016-07-30, 13:06:21
brauchst doch nur im letzten Titan X Review zu schauen ,dann weisst du wo der Kuehler sich bewegt bei 250Watt
gp102 ist deutlich kleiner, seine aussage war das es wegen der kleineren chipfläche zu größeren problemen führt die wärme besser an den kühler anzugeben.

und meine aussage war, dass das zwar richtig ist, aber das problem vernachlässigbar ist bei 250w@475mm². höchstens beim OC eine größere rolle spielen wird. da aber bei 2ghz schluss sein wird, wird die zusätzliche wärme durch oc geringer sein als bei gm200.

4Fighting
2016-07-30, 13:24:21
Weiß jemand ob Nvidia.de auch nach Österreich versendet?

Tun sie (zumindest bei der 1080).

Je näher der 02.08 kommt, umso schöner rede ich mir die Karte :D

Edgecrusher86
2016-07-30, 14:44:48
Ich hab mal ein bisschen gerechnet, wieviel FP32-Leistung so bei Big Pascal auf die Straße kommt. Ich bin mal gespannt, was mit den voraussichtlichen 275W so drin ist an Takt - evtl. ist ja bei 1,8 GHz OC Sense - zumindest bei der FE. Mit Stock Targets dürfte sie sich unter Last wohl bei hohen 14xx Mhz einpendeln - in die Targets rennend. Bleibt dann wohl nur noch der Shunt-Mod für Brechstangen-OC über. ;)


Ein kleiner Rohleistungsvergleich zwischen GP104 und GP102:


NVIDIA GeForce GTX 1080 (Pascal GP104 - 2560 SPs)


1,4 GHz - 7,17 TFLOP/s FP32
1,5 GHz - 7,68 TFLOP/s FP32
1,6 GHz - 8,19 TFLOP/s FP32
1,7 GHz - 8,70 TFLOP/s FP32
1,8 GHz - 9,22 TFLOP/s FP32
1,9 GHz - 9,73 TFLOP/s FP32
2,0 GHz - 10,24 TFLOP/s FP32
2,1 GHz - 10,75 TFLOP/s FP32


256-bit SI GDDR5X - 1250/5000 MHz (10 Gbps) - 320 GB/s
256-bit SI GDDR5X OC - 1375/5500 MHz (11 Gbps) - 352 GB/s


NVIDIA TITAN X (Pascal GP102 - 3584 SP)

1,4 GHz - 10,04 TFLOP/s FP32
1,5 GHz - 10,75 TFLOP/s FP32
1,6 GHz - 11,47 TFLOP/s FP32
1,7 GHz - 12,19 TFLOP/s FP32
1,8 GHz - 12,90 TFLOP/s FP32
1,9 GHz - 13,62 TFLOP/s FP32
2,0 GHz - 14,34 TFLOP/s FP32
2,1 GHz - 15,05 TFLOP/s FP32


Spekulativ (evtl. was für die GTC '17) - NVIDIA TITAN X "Full" (Pascal GP102 - 3840 SP)

1,4 GHz - 10,75 TFLOP/s FP32
1,5 GHz - 11,52 TFLOP/s FP32
1,6 GHz - 12,29 TFLOP/s FP32
1,7 GHz - 13,06 TFLOP/s FP32
1,8 GHz - 13,82 TFLOP/s FP32
1,9 GHz - 14,59 TFLOP/s FP32
2,0 GHz - 15,36 TFLOP/s FP32
2,1 GHz - 16,13 TFLOP/s FP32


384-bit SI GDDR5X - 1250/5000 MHz (10 Gbps) - 480 GB/s
384-bit SI GDDR5X OC - 1375/5500 MHz (11 Gbps) - 528 GB/s


So eine Karte analog zur P6000 mitsamt 24GB GDDR5X kann man vermutlich erwarten, wenn AMDs Top Dog Vega-Fury mit 16GB HBM2 kommt. Ich kann es mir zumindest schlecht vorstellen, dass sich NV hier im Prestigeduell mit 4GB weniger VRAM zufrieden geben wird.
Wenn man ehrlich ist, müsste die Karte eigentlich 3-4 way Fat-Pascal-Speed haben, um so eine VRAM-Menge sinnvoll ausnutzen zu können (für Gaming zumindest), aber nun gut....sieht halt schön auf dem Papier aus und hilft den Preis in die Höhe zu treiben. :freak:
Eine $1500 MSRP könnte ich mir schon vorstellen, erst recht, wenn man dann evtl. auch noch 12 Gbps GDDR5X verbauen würde (576 GB/s). Letzeres macht aber eigentlich nur richtig Sinn, wenn es eine komplette Pascal-Refresh-Reihe gibt. Ansonsten wird man es sich wohl für Volta aufsparen. Unter Umständen kann man diesen ja im H2 2017 erwarten, zumindest in Form von GV100 und GV104. GV102, GV106 und GV107 dann wohl im Laufe Q1 2018, aber wer weiß....der frühe Launch von der neuen X ist auch schon eine Überraschung. Man hätte diese frühestens im Oktober diesen Jahres erwartet.

BigBang
2016-07-30, 16:00:31
Jetzt habe ich mal eine Verständnisfrage zu der Auflistung. Wenn eine 1080 mit 2.1Ghz schon so schnell ist wie eine Titan X mit 1.5. Wo bleibt denn da gross der Nutzen einer 1080ti? Allzu schneller darf die ti dann nicht sein wegen der Titan. Und wenn jetzt schon die 1080oc eine Titan knacken kann wird es doch schwierig noch was dazwischen zu drängen.
Konnte die 980 damals auch die Titan knacken?

cR@b
2016-07-30, 16:23:51
Konnte die 980 damals auch die Titan knacken?

Nein aber die 980TI... somit macht ne 1080TI durchaus Sinn. Die 980TI hat sich auch wie geschnitten Brot verkauft ;)

Edgecrusher86
2016-07-30, 16:25:34
Wobei du in dem Fall eine 1080 max OC unter Wasser oder Custom Luft (20xx MHz und lauter) gegen eine relativ moderat taktende X hast. Der Bereich, wo diese von der Leistung her aufholen kann, ist schon relativ limitiert. Ja, eine hypothetische 2016er Ti mit 3200 oder 3328 SPs wird wohl wieder so dicht dran sein wie die Ref GTX 980 Ti zur Ref GTX TITAN X. 3-8% bei gleichen Taktraten Differenz in etwa. Kommt die Ti erst nächstes Jahr nach einem TITAN Vollausbau, erwarte ich dann ebenso 3584 SP für diese bei vermutlich 9 GB GDDR5X.

E: Also mit der 1080 FE konnt ich per OC 1929-1949 MHz halten...Aber es war mit 87 Grad Peak schon warm und entsprechend lauter. Das PT lag so zwischen 112-116%, also bei um die 202-209W.

Up to 60% auf GTX TITAN X und 980 Ti im Falle der neuen TITAN X wird man natürlich nur etwa unter AotS mit AC sehen. Ansonsten wohl eher um die 40-50%.

Auf die 1080 erwarte ich 20-25% im Mittel, zumindest sofern die große Karte um die 13% niedriger taktet. Wird mehr Bandbreite genutzt, könnte es auch etwas darüber sein.

BigBang
2016-07-30, 16:29:01
Nein aber die 980TI... somit macht ne 1080TI durchaus Sinn. Die 980TI hat sich auch wie geschnitten Brot verkauft ;)

Ja aber diesmal knackt ja schon die 1080 die Titan. NV wird die 1080ti bringen, gar keine Frage......aber der Unterschied zwischen den 3 Karten finde ich bis jetzt zu gering. Vielleicht bringen die ersten Titan Benchmarks mehr Erleuchtung in meine Richtung

robbitop
2016-07-30, 16:41:33
War die 980 nicht auch leicht schneller als die Titan Classic? IIRC schon.

Edgecrusher86
2016-07-30, 16:51:24
War die 980 nicht auch leicht schneller als die Titan Classic? IIRC schon.

Homöopathische 0-10%. Worst Case auch mal leicht dahinter. So sah es zumindest zum Launch aus. Mit später erschienen Titeln wie Project Cars war die 980 iirc um die 20-30% flotter.

robbitop
2016-07-30, 17:00:54
Die 1080 ist doch auch nicht wahnsinnig schneller als die Titan X. Die Relationen passen schon ungefähr.

Raff
2016-07-30, 17:06:35
Da die neue TX so ein "Speicherkrüppel" ist, bin ich auf die 1080 Ti gespannt. 320 Bit und 10 GiB sieht kaputt aus, wäre aber naheliegend. Die 8800 GTS mit 640 MiB und auch die GTX 570 lassen grüßen. :)

MfG,
Raff

cR@b
2016-07-30, 19:10:25
Ja aber diesmal knackt ja schon die 1080 die Titan. NV wird die 1080ti bringen, gar keine Frage......aber der Unterschied zwischen den 3 Karten finde ich bis jetzt zu gering. Vielleicht bringen die ersten Titan Benchmarks mehr Erleuchtung in meine Richtung

Naja will nur sagen, dass ne TI nicht viel langsamer sein wird als ne TX2 und das zu nem besseren Preis. Diesmal setze ich die Titan Reihe aus u.a. auch weil die 1080 doch recht gut performt und nV mir des Graut ausgschütt hod...

Ailuros
2016-07-30, 19:34:40
Da die neue TX so ein "Speicherkrüppel" ist, bin ich auf die 1080 Ti gespannt. 320 Bit und 10 GiB sieht kaputt aus, wäre aber naheliegend. Die 8800 GTS mit 640 MiB und auch die GTX 570 lassen grüßen. :)

MfG,
Raff

Die originalen Infos die ich hatte sprachen von einer 24GB/$1399 Titan/GP102 und einer 1080Ti/12GB/$999. Sonst war alles andere TDP inklusive ein und das gleiche. Jetzt haben wir einen Titan mit nur 12GB, wobei erstmal die einzige vorige Differenzierung entfaellt. Es waere logischer dass NV spaeter einen vollen Titan mit 30 clusters und 24GB nachladet und die 1080Ti dann mit 28 clusters/12GB 10Gbps@384bit.

BlacKi
2016-07-30, 19:56:14
Jetzt habe ich mal eine Verständnisfrage zu der Auflistung. Wenn eine 1080 mit 2.1Ghz schon so schnell ist wie eine Titan X mit 1.5. Wo bleibt denn da gross der Nutzen einer 1080ti?
also die 1080 wird die titan XP wohl nicht ganz erreichen können. liegt an dem schlechteren OC was bei pascal möglich ist. maxwell konnte man prozentual besser übertakten. am ende bekommt man vl 15-20% mehr leistung durch oc, die titan xp ist eher 25-35% schneller als eine 1080. meist ist eine ti 5% langsamer als eine titan. also siehst du, das platz da ist.

Leonidas
2016-07-31, 07:49:08
Homöopathische 0-10%. Worst Case auch mal leicht dahinter. So sah es zumindest zum Launch aus. Mit später erschienen Titeln wie Project Cars war die 980 iirc um die 20-30% flotter.


FullHD
480% zu 600%

4K:
62% zu 77%

AnarchX
2016-07-31, 09:57:31
Da die neue TX so ein "Speicherkrüppel" ist, bin ich auf die 1080 Ti gespannt. 320 Bit und 10 GiB sieht kaputt aus, wäre aber naheliegend. Die 8800 GTS mit 640 MiB und auch die GTX 570 lassen grüßen. :)

Mit 11/12Gbps GDDR5X wäre der Bandbreitenunterschied zum New Titan X minimal. Außerdem heißt es doch "Perfect 10". ;)
Aber bis sich NV genötigt fühlt, etwas zwischen 1080 und NTX zu setzen, heißt es auf Vega warten.

HOT
2016-07-31, 10:16:04
Nvidia muss mit der Kühlung bei 250W TDP bleiben, sonst wird das 'ne zweite 290X (Uber Mode). ;) Die GTX 1080 ist in Relation zu ihren 180 Watt schon ziemlich laut, was wohl am kleinen Chip liegt. So ein dicker GP102 bietet mehr Angriffsfläche für die Vapor Chambers und Heatpipes dieser Welt, aber wirklich leise wird das nicht. Wenn Platine und BIOS wie bei AMD +50 % Powerlimit erlaubten, würde sich aber bestimmt niemand beschweren ...

MfG,
Raff
Juhu, endlich mal wieder Fläche-reicht-nicht-Märchenstunde, wie jede neue Fertigungsgeneration. P10 ist deutlich kleiner und bringt auch viel Abwärme mit - problemlos. Die Zotac Extreme liefert über die ach zu kleine Fläche 270W ab, auch problemlos. Und da soll das jetzt ein Limit sein? Nein. Der Kühler ist einfach etwas klein für 180W, so siehts aus.
Ich glaube nicht, dass man bei der Titan X auf 250W bleiben "muss". Aber man bleibt dabei, weil man mit keinerlei ernsthafter Konkurrenz rechnet.
Zudem braucht GP104 für optimalen Betrieb eigentlich 200W. Man verzichtet aber auf ein paar % um den Sparsamkeitsmythos zu nähren.

uweskw
2016-07-31, 10:47:28
Die originalen Infos die ich hatte sprachen von einer 24GB/$1399 Titan/GP102 und einer 1080Ti/12GB/$999. Sonst war alles andere TDP inklusive ein und das gleiche. Jetzt haben wir einen Titan mit nur 12GB, wobei erstmal die einzige vorige Differenzierung entfaellt. Es waere logischer dass NV spaeter einen vollen Titan mit 30 clusters und 24GB nachladet und die 1080Ti dann mit 28 clusters/12GB 10Gbps@384bit.

Da hat NV offensichtlich seine enthusiast Salamitaktik auf 4 Stufen ausgebaut. TitanX - 1080Ti - TitanXi - 1080TiX. Die Shareholder werden es lieben. :rolleyes:
Die scheinen sich ja recht sicher zu sein, dass AMD mit Vega kein ernst zu nehmender Gegner ist.

greetz
US

=Floi=
2016-07-31, 12:26:17
bei dem taktpotential ihrer architektur auch kein wunder.
die 1060er konkurriert mit der 480er und vega dürfte nicht mal mit der normalen 1080er mithalten können.

die salamitaktik hat aber wohl auch wegen der verfügbarkeit ihren sinn, da es G102 auch noch nicht wie sand am meer geben dürfte.

Nightspider
2016-07-31, 12:27:37
Wurden schon Testexemplare von der neuen Titan X an die Tester verschickt?

BlacKi
2016-07-31, 12:30:52
Wurden schon Testexemplare von der neuen Titan X an die Tester verschickt?
http://www.pcgameshardware.de/Nvidia-Pascal-Hardware-261713/News/Titan-X-verschickt-1203142/

Edgecrusher86
2016-07-31, 12:39:19
Besagte CUDA-Benches von Freitag (PCGH News von gestern):
https://abload.de/img/nvidia-geforce-gtx-ti04a1g.jpg

ChipHell lädt so lahm, darum: http://videocardz.com/62723/first-synthetic-benchmarks-of-geforce-gtx-titan-x-pascal-hit-the-web

uweskw
2016-07-31, 12:50:12
.....die salamitaktik hat aber wohl auch wegen der verfügbarkeit ihren sinn, da es G102 auch noch nicht wie sand am meer geben dürfte.


Dann sollten sie mit der Titan noch warten.
Erinnert mich sehr an ein Beispiel von unserem BWL-Prof.
Als der Sohn die Gurkenkonservenfabrik erbt, beschließt er die Einwage pro Glas von 800gr. auf 720gr. zu reduzieren. Und weil das den Profit so schön pusht macht er das 3 Monate später nochmal und geht fast Pleite. Die Kunden reagieren und kaufen jetzt ne andere Marke.
NV muß sich schon sehr sicher sein, dass Vega nicht rankommt.

greetz
US

Edgecrusher86
2016-07-31, 13:08:56
https://www.youtube.com/watch?v=GMHJhP7Y7oM

Wenn man jetzt RX480 CFX grob mit dem kleinen Vega gleich setzt, dürfte dieser idR doch hinter der GTX 1080 landen. Ja, es ist eine schwammige Milchmädchenrechnung, aber da CFX auch nicht immer voll skaliert, könnte der vermeintliche Einheitenunterschied von 12,5% zugunsten des CFX über den 4096 SP Vega 10 wettgemacht werden. Skaliert CFX sehr gut, ist man evtl. knapp 10% vor dem Big Chip. Zumindest vorausgesetzt, dass die Taktraten mehr oder weniger gleich sind.

Natürlich muss man auch bedenken, dass hier 3.0 x8 x8 zum Einsatz kam - nicht so optimal, aber vermutlich in 1440p noch nicht so tragisch wie in 4K, zumindest ohne das Bandbreitenzehrende T.AA. In Fallout 4 kam es zwar zum Einsat, aber die Skalierung ist mit ~76% noch einigermaßen ok.

Vega 11 soll ja angeblich 6144 SPs bekommen - da die AMD Karten bis jetzt nie so toll mit den Einheiten skaliert haben, würde ich mich nicht wundern, wenn dieser 20-30% vor Vega 10 landet, was dann wohl im Durchschnitt grob 10-15% oberhalb der GTX 1080 wäre.

Nun ja, ich lasse mich überraschen. Sollte es so eintreten, dann wäre auch eine 3200/3328 SP GTX 1080 Ti und somit natürlich auch die neue TITAN X im Schnitt noch einige Prozentpunkte oberhalb Vega 11 angesiedelt - Ausnahmen wären vll. AotS, Hitman oder The Division.
Dann könnte man wieder den Satz vom "guten Pferd" bringen. Naja, ist ja noch einiges hin zeitlich - vor Q1 2017 kommt wohl nichts mehr von AMD. Ansonsten wäre Oktober zu BF1 Release (Gaming Evolved Titel) ein passender Zeitpunkt gewesen, zumindest für Vega 10. Aber wie es aussieht, ist hier NV im Vorteil und ich vermute mal, dass trotz des gestiegenen Preises sich die neue X auch wieder sehr gut unter Enthusiasten verkaufen wird. Die Leistung sieht schon gut aus - gerade mit adaptive Sync. Das dürfte dann bei anspruchsvollen Titeln in grob 40-50 fps min. in 4K maxed out münden (ingame SSAA, Resolution Scaling oder 4x TXAA mal außen vor gelassen).

fondness
2016-07-31, 13:27:22
Wenn man jetzt RX480 CFX grob mit dem kleinen Vega gleich setzt, dürfte dieser idR doch hinter der GTX 1080 landen. Ja, es ist eine schwammige Milchmädchenrechnung, aber da CFX auch nicht immer voll skaliert, könnte der vermeintliche Einheitenunterschied von 12,5% zugunsten des CFX über den 4096 SP Vega 10 wettgemacht werden. Skaliert CFX sehr gut, ist man evtl. knapp 10% vor dem Big Chip. Zumindest vorausgesetzt, dass die Taktraten mehr oder weniger gleich sind.

Natürlich muss man auch bedenken, dass hier 3.0 x8 x8 zum Einsatz kam - nicht so optimal, aber vermutlich in 1440p noch nicht so tragisch wie in 4K, zumindest ohne das Bandbreitenzehrende T.AA. In Fallout 4 kam es zwar zum Einsat, aber die Skalierung ist mit ~76% noch einigermaßen ok.


Das Ding heißt nicht ohne Grund Vega10 und nicht Polaris12. Ganz davon abgesehen, dass der CFX-Vergleich natürlich nur sehr ungenau ist.

Nightspider
2016-07-31, 13:29:59
Hatten hier schon welche eine Titan X bestellt?

Tamagothi
2016-07-31, 13:31:24
@ Edgecrusher86

Wenn du die R9 280X und r9 290/390X anschaust Skalieren die Einheiten sogar über 100%.

Edgecrusher86
2016-07-31, 13:31:55
Das Ding heißt nicht ohne Grund Vega10 und nicht Polaris12. Ganz davon abgesehen, dass der CFX-Vergleich natürlich nur sehr ungenau ist.

Tja, leider haben wir derzeit nichts Besseres, irgendwie müssen die Spekulatius vom Band. :freak: Es wäre für mich schon eine Überraschung, wenn der 64 CU Vega das RX 480 CFX hinter sich lassen würde - evtl. ab 4K aufwärts,
wenn die Bandbreite zum Tragen kommt. Wobei zumindest sofern maxed out die Rohleistung einen auch schnell im Stich lässt. :cool:

kdvd
2016-07-31, 14:10:12
Hatten hier schon welche eine Titan X bestellt?

Geht noch nicht, ist erst ab Dienstag im Shop.

Raff
2016-07-31, 14:10:23
Dann sollten sie mit der Titan noch warten.
Erinnert mich sehr an ein Beispiel von unserem BWL-Prof.
Als der Sohn die Gurkenkonservenfabrik erbt, beschließt er die Einwage pro Glas von 800gr. auf 720gr. zu reduzieren. Und weil das den Profit so schön pusht macht er das 3 Monate später nochmal und geht fast Pleite. Die Kunden reagieren und kaufen jetzt ne andere Marke.
NV muß sich schon sehr sicher sein, dass Vega nicht rankommt.

greetz
US

Der Unterschied: Trotz der Farbe gibt es keine Gurken-Fanboys. ;) Es gibt genügend Gurken-Anbieter, aber nur zwei IHVs. Wir haben es alle in der Hand: Bleibt die neue Titan X wie Blei in den Regalen, sinkt der Preis. Wird beides nicht passieren, denn eigentlich geht es uns viel zu gut.

MfG,
Raff