PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Titan V


Seiten : [1] 2

Nuon
2017-12-08, 17:35:55
Es gibt eine neue Titan V mit 14.9 TFLOPS für 3.100 Euro
Diese kann direkt bei NVidia bestellt werden, max. 2 Stk. pro Person.
Screenshot von der Nvidia Seite (https://www.nvidia.de/titan/titan-v/):

Lowkey
2017-12-08, 17:38:33
Eigenschaft|1080 Ti|Titan Xp|Titan V|Leistung Ti vs V
Grafikprozessor-Cluster|6|6|6|0
Streaming-Multiprozessoren|28|30|80|+280%
CUDA-Recheneinheiten|3584|3840|5120|+42%
Textureinheiten|224|240|320|+42%
Basistakt|1480|1405|1200|-19%
MHz Boost-Takt|1582|1582|1455|-8%
Speichertaktung|5500|5700|850
Speicherdatenrate|1,1|1,14|1,7|+54%
L2-Cache|2816|3072|4608|+63%
Videospeicher|11000|12288|12288
Speicherschnittstelle|352|384|3072
Gesamtspeicherbandbreite|484|547,7|652,8|+34%
Texturrate (GigaTexel/s)|340|403|384|+13%
Fertigungsprozess|16nm|16nm|12nm
Anzahl Transistoren|12|12|21.1
Empfohlene Stromaufnahme|600 Watt|600 Watt|600 Watt
TDP|250 Watt|250 Watt|250 Watt
Thermischer Schwellenwert|91° C|96° C |91° C


https://www.nvidia.de/titan/titan-v/

NVIDIA TITAN V Volta
6 Grafikprozessor-Cluster
80 Streaming-Multiprozessoren
5120 CUDA-Recheneinheiten (einfache Genauigkeit)
320 Textureinheiten
1200 MHz Basistakt
1455 MHz Boost-Takt
850 MHz Speichertaktung
1,7 Gbit/s Speicherdatenrate
4608 K L2-Cache
12288 MB HBM2 Videospeicher (Gesamt)
3072-Bit Speicherschnittstelle
652,8 GB/s Gesamtspeicherbandbreite
384 GigaTexel/s Texturrate (bilinear)
12 nm Fertigungsprozess
21.1 MilliardenAnzahl Transistoren
3 DisplayPort 1 HDMI Anschlüsse
Zwei Steckplätze Formfaktor
Einmal 6-polig, einmal 8-polig Stromanschlüsse
600 Watt Empfohlene Stromaufnahme
250 Watt Thermal Design Power (TDP)[1]
91° C Thermischer Schwellenwert

Punkt und Komma (https://language-boutique.de/naithani/blogpost/die-richtige-verwendung-von-punkt-und-komma-als-trennzeichen-bei-zahlen.html)

fondness
2017-12-08, 17:40:52
Nvidia könnte mal wieder ein paar Dollar in die Kühlerentwicklung investieren. Seit wann gibt es jetzt schon den immer gleichen Kühler in anderen Farben? Bei einer $3000-Karte wäre das wohl nicht zu viel verlangt. Ansonsten ist die Karte wohl in erster Linie eine Restverwertung, Karten mit nur 3 Stacks lassen sich sonst wohl nicht so gut verkaufen. Der Chip selbst ist natürlich ein Siliziumgigant und für DP-Berechnungen wo 12 GB VRAM reichen kann das Sinn machen.

BTW, weiß eigentlich jemand einen Grund, warum es GV100 nicht mit 32 GB HBM2 bzw. 8 GB Stacks gibt?

Lowkey
2017-12-08, 18:05:05
Ja natürlich ist es eine Resteverwertung :)

Grendizer
2017-12-08, 19:09:20
Der Preis ist jenseits von gut und böse, aber wenn man das Monster bei 250W betreiben kann, ist das schon nicht schlecht..

Fetza
2017-12-08, 19:22:49
Benchmarks bitte! :)

Lowkey
2017-12-08, 19:26:59
Benchmarks kosten dich 3100 Euro :D

wolik
2017-12-08, 19:42:12
to Lowkey. Ti vs Titan V. SLI / Kein SLI(oder NVLInk) :)

N0rG
2017-12-08, 19:46:35
Ich frag mich auch was das mit den 250W soll... so ein breiter Chip skaliert bestimmt bis 325W sehr gut. Dann noch einen ordentlichen Kühler drauf und es juckt den enthusiast Gamern direkt wieder in den Fingern. Bei 325W wären bestimmt 1080ti + 40% drin. In der jetzigen Form ist die wirklich nur interessant wenn man was mit Tensor Cores anfangen kann.

(del)
2017-12-08, 20:11:49
Hmm ich frage mich ob auf dieser Karte Seti@home "deutlich" schneller laufen würde als auf einer 1080Ti.

scully1234
2017-12-08, 20:20:30
Wie war das mit den 40 TFLOPS

https://wccftech.com/sweeney-need-40-tflops-render-photo-realistic-dynamic-environments-humans-require-computing-power/

wenn die jetzt noch NVlink hätte, auf 2GHZ geprügelt, und zwei davon im Einsatz ,könnte Sweeney seine These mal nachstellen...

Grendizer
2017-12-08, 20:23:43
die 250 Watt vermutlich nur um sich nicht die Blöße zu geben, mehr Strom als Vega zu verbraten :biggrin:

Annator
2017-12-08, 20:29:48
Irgendwer hier im Forum hat die bestimmt schon bestellt. :)

Hasenpfote
2017-12-08, 20:43:15
Der Preis ist jenseits von gut und böse, aber wenn man das Monster bei 250W betreiben kann, ist das schon nicht schlecht..Sind doch nur 0,2BTC! :biggrin:

grizu
2017-12-08, 20:52:21
gute miner karte ;)

AffenJack
2017-12-08, 21:24:01
BTW, weiß eigentlich jemand einen Grund, warum es GV100 nicht mit 32 GB HBM2 bzw. 8 GB Stacks gibt?

Nv wollte ja ursprünglich 32Gb liefern, ist nun aber bei 16 und AMD hat trotzdem 8GB Stacks von Samsung. Da macht nur die Erklärung Sinn, dass Samsung zu spät mit 8GB Stacks dran war oder nur zu wenig davon liefern konnte am Anfang. Bei der Wahl, dass V100 an zu wenig HBM Kapazitäten nagt ist man wohl den sicheren Weg gegangen. Könnte mir zur GTC 2018 ne 32GB Version vorstellen, aber erstmal muss 16GB ne Zeit lang laufen, sonst verärgert man die jetzigen Kunden zu sehr.

scully1234
2017-12-08, 22:04:08
eventuell unterstützt die Karte ja doch SLI , der NVLINK Finger ist auf dem PCB vorhanden laut Bild

Dicker Igel
2017-12-08, 22:10:47
http://www.guru3d.com/news-story/nvidia-titan-v-will-not-support-nvlink-and-does-not-support-sli.html

5CH4CHT3L
2017-12-08, 22:12:55
eventuell unterstützt die Karte ja doch SLI , der NVLINK Finger ist auf dem PCB vorhanden laut Bild
Ist wahrscheinlich wieder so eine inoffizielle Lösung wie bei dem Typ mit 4x Titan X(P) auf Youtube

=Floi=
2017-12-08, 22:12:58
die 250 Watt vermutlich nur um sich nicht die Blöße zu geben, mehr Strom als Vega zu verbraten :biggrin:

wobei der wert eigentlich doppelt pervers ist. Weil es ohne mehr geht und weil das riesige teil so sparsam ist.
Eventuell kann man über tools noch mehr freigeben. Man muss auch bedenken, dass solche karten zum rechnen verwendet werden und man deshalb auch die dauerlast im auge behalten muss.

Cubitus
2017-12-08, 22:15:24
Irgendwer hier im Forum hat die bestimmt schon bestellt. :)

Im Luxx gibts ein paar ;)

Dicker Igel
2017-12-08, 22:16:36
Die sind verrückt! :biggrin:

wolik
2017-12-08, 22:26:50
Wie war das mit den 40 TFLOPS

https://wccftech.com/sweeney-need-40-tflops-render-photo-realistic-dynamic-environments-humans-require-computing-power/

wenn die jetzt noch NVlink hätte, auf 2GHZ geprügelt, und zwei davon im Einsatz ,könnte Sweeney seine These mal nachstellen...
Tim Sweney war wohl nicht bekannt das schon mit GTX Titan X (12GB VRAM übrigens schon damals :) ) (Maxwell) am 03.2015 in Quad SLI 36 TFlops zu verfügung stand... (Bei 999$ pro Stück = 4000$ für ein Traum, gute Preis, aber ich habe mir gegönnt, Tim Sweney wohl nicht)

Jahr 2015. März.

Aber lass uns nach vorn blicken in Jahr 2018 (Auslieferungsdatum 30.12.2017 es ist schon fast 2018). Titan V. 15TFlops. Wau ! Ich habe schon seit März 2017 25 Tflops in meinem Rechner ( und kurze Zeit sogar 50TFlops Quad SLI 1080Ti)
Nur jetzt soll man sich Fragen wieso hat Nvidia SLI begraben ? :cool: Natürlich nicht um so das wenn man 30% Leistung sich wünscht gleich 3100 Euro Ausgeben muss statt sich noch eine 1080Ti Grafikkarte kaufen und 25 TFlops Leistung für nur 750 Euro zu bekommen.

Natürlich nicht....

eventuell unterstützt die Karte ja doch SLI , der NVLINK Finger ist auf dem PCB vorhanden laut Bild
Nö. Nur gleiches PCB wie bei Quadro. Kein SLI oder NVLink :) Übrigens NVLink Bridge 600 Mücken "wert" :confused:

Ich kenne mich ja nicht aus damit aber evtl. kommt ja SLI wieder?
AMD macht das ja inzwischen ohne diese Brücken.
Wäre doch möglich das nVidia das ganze dann auch so realisiert und das ganze dann unter einem anderen Namen vertreibt.. z.B nVidia/Geforce-Link oder so.
Kostet dann wohl nur natürlich mehr in der Lizenz.
Sorry4OT
Leider sogar zwischen SLI vs HB Bridge gibts Performance schwankungen. Nur vielleicht mit PCIe 4.0 (2020?) wird das denkbar. Jetzt auf kein Fall.

http://research.nvidia.com/publication/2017-06_MCM-GPU:-Multi-Chip-Module-GPUs?ClickID=cx7pix44qnzlpwfwfkkn7f7n4psnweka4nsn

SLI 2.0
https://en.wikipedia.org/wiki/NVLink
NVLINK, first announced in March 2014. 160 GByte/s :biggrin:

IceKillFX57
2017-12-08, 22:36:46
Ich kenne mich ja nicht aus damit aber evtl. kommt ja SLI wieder?
AMD macht das ja inzwischen ohne diese Brücken.
Wäre doch möglich das nVidia das ganze dann auch so realisiert und das ganze dann unter einem anderen Namen vertreibt.. z.B nVidia/Geforce-Link oder so.
Kostet dann wohl nur natürlich mehr in der Lizenz.

Sorry4OT

scully1234
2017-12-08, 22:38:02
Ich kenne mich ja nicht aus damit aber evtl. kommt ja SLI wieder?



http://research.nvidia.com/publication/2017-06_MCM-GPU:-Multi-Chip-Module-GPUs?ClickID=cx7pix44qnzlpwfwfkkn7f7n4psnweka4nsn

SLI 2.0

Nightspider
2017-12-09, 01:55:02
Bei ~800mm² lassen sich die paar Watt ja super abführen.

Dann noch eine starke Wakü dran, Spannung hoch und ab geht die Party. ^^

Braucht man nur noch eine Volt-Mod bzw. was fürs Powerlimit. ^^

4Fighting
2017-12-09, 07:39:44
Benchmarks

https://www.3dmark.com/3dm/23847271?

https://www.reddit.com/r/nvidia/comments/7ikhyp/nvidia_titan_v_fire_strike_benchmarks_oc_non_oc/

rentex
2017-12-09, 08:02:53
Einfach irre! Ich hoffe auf erste Benches anfang Januar aus diesem Forum....es wäre einfach nur interessant was die Karte, unter Wasser so leistet. Erwarte mir aber keinen Vorgeschmack auf Ampere....einfach Just for Fun😁

Edgecrusher86
2017-12-09, 08:30:08
Richtig interessant finde ich ja diesen Vergleich - V Ref OC (~1800/972 MHz; 745,6 GB/s) gegen Kinpins alten Rekord mit GTX 1080 Ti (2581/6426 MHz; 565,9 GB/s):

https://benchmark.unigine.com/results/rid_cc82875cd04f43008f1f6c3c4a6e5289
https://benchmark.unigine.com/results/rid_b14953c7cc0c443bac11676f09708d1c

Stock 6700K vs. 6950X 5,x GHz

Beispiel Szene 17 - 2581 MHz Ti/1800 MHz V:
49,9 fps min/53,5 fps min (+7,2%)
54,95 fps avg/59,96 fps avg (+ 9,1%)
63,9 fps max/76,2 fps max (+19,2%)

Nun taktet die Ti ja 43% höher an dieser Stelle. Die V (OC) hat knapp 32% mehr Bandbreite.


E: Hat nochmal nachgelegt - Superposition 1080p Extreme - 9792 Score (https://benchmark.unigine.com/results/rid_4898af74e69e4f6aac0dd62b504f80c6)1080p Extreme 1852-1890/985 MHz V

gleiche Stelle 1852/985 MHz:

54,15 fps min (+8,5%)
61,56 fps avg (+ 12%)
78,1 fps max (+22,2%)

Ein um 39,4% höherer Takt für die geprügelte GP102 und bei ~ 756,5 GB/s für die V, grob 34% mehr Bandbreite als besagte Ti.


Ja, nette Karte die V, wäre nicht der nicht zu verachtende Aufpreis und leider auch nur eine Karte möglich (ja, SLI geht leider den Bach runter, aber wenn es greift, fahre ich gerne mit...aktuell etwa Fallout 4 GoTY...4K für GP102 SGPU unmöglich bei den schwankenden fps - maxed out natürlich...mit SLI halte ich meist mit niedrigen Taktraten die 60..oder zumindest hohe 50er fps..aber kein Vergleich zu einer). :freak:

horn 12
2017-12-09, 08:49:24
Nun, berauschend ist dies nicht für Volta
Ca. 20 bis 25% über einer GTX 1080TI Stock
Mehr würde ich Ampere nicht zutrauen.

Die GTX 1080 TI OC Besitzer, wohl kein Grund zum Wechseln...

IceKillFX57
2017-12-09, 08:59:00
Ist da überhaupt ein richtiger Treiber aktiv? (Oder aktueller)
Beim Benchmark steht ja nur generic VGA...

wolik
2017-12-09, 08:59:53
Nun, berauschend ist dies nicht für Volta
Ca. 20 bis 25% über einer GTX 1080TI Stock
Mehr würde ich Ampere nicht zutrauen.

Die GTX 1080 TI OC Besitzer, wohl kein Grund zum Wechseln...
Und für wem ist diese Karte ? Mit Game Ready Driver :biggrin:

horn 12
2017-12-09, 09:03:17
Ähnlich der AMD Frontier Edition, Wetten
jene ist Gametechnisch identisch zur RX, mit Neuestem Treiber vielleicht plus 5 bis 10 % Vorteil zur RX.
Dies wird sich mit Volta nicht anders verhalten, dann noch Ampere mit GDDR6 mit etwas Geringer Bandbreite als Volta V

wolik
2017-12-09, 09:05:13
Ist da überhaupt ein richtiger Treiber aktiv? (Oder aktueller)
Beim Benchmark steht ja nur generic VGA...
Yo. 62008

Rancor
2017-12-09, 09:05:49
Ampere wird aber vermutlich nicht die Tensor Cores haben, daher kann man das nicht vergleichen. Die sind ja komplett überflüssig im Gaming Bereich. Auch weiss man nicht was Ampere ist und ob die Architektur überhaupt was mit Volta gemein hat.

IceKillFX57
2017-12-09, 09:06:55
Yo. 62008

Ah OK sorry. Habe das nicht gesehen.
Sah nur im 3dmark den Standard VGA Treiber

wolik
2017-12-09, 09:11:32
Ampere wird aber vermutlich nicht die Tensor Cores haben, daher kann man das nicht vergleichen. .
Doch. Schon. Im TFlops oder VRAM menge :wink: Nur wie soll NV Amper mehr Leistung oder Speicher spendieren ohne das Titan V deklassieren ?

Rancor
2017-12-09, 09:30:52
Doch. Schon. Im TFlops oder VRAM menge :wink: Nur wie soll NV Amper mehr Leistung oder Speicher spendieren ohne das Titan V deklassieren ?

Wenn Ampere keine Tensor Units hat ist das doch problemlos möglich, denn die Titan V hat ja einen ganz anderen Einsatzzweck als Ampere. Klar kann man damit auch spielen, aber das ist ja nicht der Sinn.
Für KI Berechnungen zB. wird die Titan V dann trotzdem immer noch extrem viel besser sein als ein Ampere mit 6400 Shaderunits ohne Tensor Core. Nur im Gaming eben nicht, was aber nicht so dramatisch sein sollte.

pixeljetstream
2017-12-09, 09:32:20
Die Vorzüge der Karte sind bessere Deep Learning, FP64 und Raytracing Performance. Das war bisher nur bei den "voll-professionellen" Karten (Tesla V100 und Quadro GP100) verfügbar.

wolik
2017-12-09, 09:41:22
Die Vorzüge der Karte sind bessere Deep Learning, FP64 und Raytracing Performance. Das war bisher nur bei den "voll-professionellen" Karten (Tesla V100 und Quadro GP100) verfügbar.
Vorzüge ? Game Ready Treiber ? Ich denke im Wissenschaftlichen Bereich 4500$ Aufpreis auf eine richtige V100 Karte macht gar nichts aus. Dazu die welche seit etliche Monate schon gibts. Oder ?

pixeljetstream
2017-12-09, 09:56:07
Für Start-ups und kleinere Forschungsgruppen an Unis macht das schon einen Unterschied. Auch für Freelancer und kleine Firmen, die mit DL erstmal etwas ausprobieren wollen. Nicht jede Uni kauft sich nen Cluster.
Unterschiedliche Angebote, mit fließenden Übergängen zwischen den Märkten:
GeForce (consumer)
Titan (Prosumer/semipro)
Quadro (professional, support, Zertifizierung etc.)
Tesla (server, virtualization)

wolik
2017-12-09, 10:45:19
Für Start-ups und kleinere Forschungsgruppen an Unis macht das schon einen Unterschied. Auch für Freelancer und kleine Firmen, die mit DL erstmal etwas ausprobieren wollen. Nicht jede Uni kauft sich nen Cluster.

GeForce (consumer)
Titan (Prosumer/semipro)
Quadro (professional, support, Zertifizierung etc.)
Tesla (server, virtualization)
Ok. Schön das zum Weihnachten Nvidia am "armen" Forscher und Entwickler Ihre "defekten" abgespeckten Chips gespendet hat.

BlacKi
2017-12-09, 11:16:26
Nun, berauschend ist dies nicht für Volta
Ca. 20 bis 25% über einer GTX 1080TI Stock
Mehr würde ich Ampere nicht zutrauen.

Die GTX 1080 TI OC Besitzer, wohl kein Grund zum Wechseln...
es sei denn ich will jene ebenfalls übertakten.

wenn ampere mit einem sub 400mm² für 649-700$ und +20% performance bei 180w kommt, dann wäre das schon eine option, allerdings ohne gefühlten zwang. genau wie bei der 980ti vs 1080 damals.

Raff
2017-12-09, 11:38:40
Gewiss ist die Karte sexy. Sie riecht aber an allen Enden nach künstlicher Kastration, die einen Nachfolger ermöglicht. Im Q2 2018 erscheint dann die Titan V2 mit voller Speicherschnittstelle und 16 GiB. Mit etwas Glück gibt's dann auch, analog zum Schritt Titan X -> Titan Xp, den vollen Chip. Der Spaß kostet dann aber wohl 3.999 USD.

Gegen all das wirkt die Titan Xp Collector's Edition, welche es überraschenderweise ab 1.138 Euro gibt, geradezu günstig und die GTX 1080 Ti wie ein Schnäppchen. Nvidia macht das schon richtig. :ugly:

MfG,
Raff

fondness
2017-12-09, 11:49:53
Die spannendste Frage der TITAN V ist IMO, was das für die Nachfolgegeneration bedeutet. Eine TITAN wird man nicht nach 6 Monaten schon ersetzen, die wird wohl mindestens mal ein Jahr top-of-the-hill sein und bleiben. Was genau ist dann Ampere und wann kommt das Ding?

Jedenfalls für mich ein völlig unerwarteter Schachzug. Ich glaube auch nicht, dass Nvidia ursprünglich vor hatte, dieses Monster in den Consumer-Bereich zu bringen. Bei GP100 hat man sich das ja auch gespart.

Lowkey
2017-12-09, 12:06:44
Wenn man das Durcheinander an Benchmarks sieht, dann ist die Karte kaum 15%-30% schneller, sondern je nach Spiel und Anwendung kommt man zwar vor die 1080 Ti, aber so knapp, dass es sich kaum lohnt. Die Karte benötigt noch einen Wasserkühler oder einen dickeren Kühler.

Es ist kein Wunder, dass Nvidia die Karten nicht auf den regulären Markt bringt. Die paar Prozent im Verhältnis zu den Produktionskosten kann man nicht als 2080 Ti verkaufen. In 6 Monaten wird eine 2080 teils eine ähnliche oder bessere Leistung abliefern.

Dicker Igel
2017-12-09, 13:02:45
Was für einen Nutzen hat die Karte dann? Mining-HW für 3k? Gibt ja für 3D-Tools etc nicht mal explizite Treiber wie für die Quadro's ... Für was zahlt man dann 3k? :D

Lowkey
2017-12-09, 13:09:14
Naaa der Nvidia Heini meinte doch er sei gespannt darauf, was die Leute damit machen :D

BlacKi
2017-12-09, 13:09:26
Was für einen Nutzen hat die Karte dann? Mining-HW für 3k?

NVIDIA TITAN V Transforms the PC into AI Supercomputer. Volta-Powered GPU Delivers 110 Teraflops of Deep Learning Horsepower — 9x Its Predecessor — to Researchers and Scientists

https://nvidianews.nvidia.com/news/nvidia-titan-v-transforms-the-pc-into-ai-supercomputer

Nightspider
2017-12-09, 13:16:46
Was für einen Nutzen hat die Karte dann? Mining-HW für 3k? Gibt ja für 3D-Tools etc nicht mal explizite Treiber wie für die Quadro's ... Für was zahlt man dann 3k? :D

In 5K sollte die Karte durchgängig 30-40fps schaffen.

In 4K konstant 60fps oder mehr.

basix
2017-12-09, 13:18:02
Volta scheint Compute wirklich sehr gut zu liegen. Siehe Superposition Bench bei vegleichbaren Setups mit 6700K.

V100 @ ca. 1.88 GHz = 9961
https://benchmark.unigine.com/results/rid_f7c3383fb49c4093b7c24affa9cc9d3a

GP102 @ 2.02 GHz = 6167
https://benchmark.unigine.com/results/rid_1b8fab30f28148089e4e785a9ad5297b

Der V100 User steht in den Leaderboards sogar noch vor den Extrem-OC Werten von Kingpin ;D
https://benchmark.unigine.com/leaderboards/superposition/1.0/1080p-extreme/single-gpu/page-1

Siehe dazu auch hier:
https://www.reddit.com/user/kons0

Edit:
Naaa der Nvidia Heini meinte doch er sei gespannt darauf, was die Leute damit machen :D
Kaufen natürlich :D

Ex3cut3r
2017-12-09, 13:35:21
Was haben die nur geraucht? 15% mehr Gaming Performance als Titan XP aber mehr als doppelt so teuer?

Na hoffentlich wird 1170/1180 oder 2070/2080 nicht deswegen auch einen neuen Preisrekord aufstellen....wenn doch....dann geh ich zu AMD. Obwohl bis die soweit sind, nach dem für mich persönlich schwachen Vega, werden Sie diesmal wohl +2 Jahre brauchen. :redface:

Dicker Igel
2017-12-09, 13:46:22
Naja, man sieht's ja bei Apple dass alles gekauft wird - egal was es kostet und ob gerechtfertigt. Von daher wird man das sicherlich ausloten und wohl auch Erfolg damit haben.

dildo4u
2017-12-09, 15:04:17
Was haben die nur geraucht? 15% mehr Gaming Performance als Titan XP aber mehr als doppelt so teuer?

Na hoffentlich wird 1170/1180 oder 2070/2080 nicht deswegen auch einen neuen Preisrekord aufstellen....wenn doch....dann geh ich zu AMD. Obwohl bis die soweit sind, nach dem für mich persönlich schwachen Vega, werden Sie diesmal wohl +2 Jahre brauchen. :redface:
Ampere wird ein Monster vorallem wenn man wieder locker 2Ghz packt.

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11572504&postcount=7001

Atma
2017-12-09, 15:11:52
Was haben die nur geraucht? 15% mehr Gaming Performance als Titan XP aber mehr als doppelt so teuer?
Was hast du dir bitte erhofft? Nach der Vorstellung des Chips und allen Details konnte man nicht ernsthaft ein neues Gaming Monster erwarten. GV100 ist ein Arbeitstier für Compute und AI!

Ex3cut3r
2017-12-09, 15:14:35
Etwas mehr, und wann dann schon so wenig, dann bitte für einen Preis, der etwas realistischer ist? Das hier, ist selbst für Enthusiasten etwas lächerlich.

Hmm was ist dann Quadro? Die Titan ist doch weder Fisch noch Fleisch, sei es Gamer oder Wissenschaftler.

Vermutlich wurde ein Umbau auf einen Wasserkühler die "wahre" Leistung offenlegen, nur an einer 3000€ rumschrauben, ich weiß ja nicht, da bekommt man sicherlich etwas schwitzige Hände.

dildo4u
2017-12-09, 15:37:50
http://www.guru3d.com/index.php?ct=news&action=file&id=24692

http://www.guru3d.com/news-story/nvidia-titan-v-graphics-card-benchmarks.html

Thunder99
2017-12-09, 16:17:39
Best case...

Ein Technik Artikel wäre echt nice :D.

Lowkey
2017-12-09, 17:05:48
Superposition ist das Einzige, was bislang mit der Karte gut läuft :D

Bislang ist die Karte eher Rohrkrepierer als Zukunft für Gamer, also abhängig vom Preis.

AffenJack
2017-12-09, 17:10:39
Jedenfalls für mich ein völlig unerwarteter Schachzug. Ich glaube auch nicht, dass Nvidia ursprünglich vor hatte, dieses Monster in den Consumer-Bereich zu bringen. Bei GP100 hat man sich das ja auch gespart.

Man kann sich streiten, ob das noch Consumerbereich ist. Ich würde eher nein sagen. Es war klar, dass Nvidia einen kleineren V100 bringen muss, den man auch in normalen rechnern einsetzen kann. Forschungsteams, Startups etc werden sich nicht reihenweise V100 für 8k Euro kaufen, die man nicht in normalen gehäusen einsetzen kann. Aber gerade diese Gruppen braucht Nvidia.

Ich sehe Titan V eher als das Ende von Titan im Consumerbereich. Durch die Treiberfreischaltungen für den Workstationbereich nach der Frontieredition war eigentlich klar, dass der Preis für die Titan hochgehen wird.

Ich erwarte mit Ampere eher eine neue Klasse von "Titan" mit einem neuen Namen, die eben wieder beschnitten in Sachen Workstationgeschwindigkeit ist. Außer man lässt 2 Titan gleichzeitig laufen, denn ich bin wie du der Meinung, dass die Titan V bestimmt nicht nach paar Monaten eingemottet wird.

Platos
2017-12-09, 17:14:35
Zu beachten wäre bei den Titans ja auch immer, dass es nur Referenz-Modelle gibt. Das ist schon noch ein gewaltiger Unterschied, Wenn man nicht gerade eine Wasserkühlung hat, sind die Titanen im Gaming eigentlich eher 20% hinter den 80Tis. Ein 1950MHz Custom Modell ist immer noch leiser, als eine Referenz, die ständig runter taktet, aber 20% schneller wird man schon etwa sein.

Also die 1080Ti kann man auch schon ohne (relativ teure) WaKü+Block auf 1950MHz betreiben. Mit der WaKü sind dann je nach Karte sowieso nur noch +75-125MHz mehr drinn. Also Custom 1080Ti @ 1950MHz vs TitanV ist dann nicht mehr sooo weit weg.

Und wenn dann in ca. 5-7 Monaten eine 2080 kommt, ist sie dann wahrscheinlich auch nur noch 10& im Vorsprung gegenüber Custom Modellen, die noch ein wenig von Hand übertaktet wurden (unter Luft). Ist natürlich klar, dass das eigentlich keine Gamingkarte ist, aber irgendwie ist sie weder ne halbwegs vernünftige GeForce Karte, noch eine halbwegs vernünftige Tesla/Quadro-Karte.

Fetza
2017-12-09, 19:20:48
Benchmarks kosten dich 3100 Euro :D

Nee, danke - lass mal! :D

Superposition ist das Einzige, was bislang mit der Karte gut läuft :D

Bislang ist die Karte eher Rohrkrepierer als Zukunft für Gamer, also abhängig vom Preis.

Ohne Benchmarks kannst Du das doch noch garnicht wissen. Falls Du welche parat hast, bitte verlinken! :)

Lehdro
2017-12-10, 11:57:57
Zu beachten wäre bei den Titans ja auch immer, dass es nur Referenz-Modelle gibt. Das ist schon noch ein gewaltiger Unterschied, Wenn man nicht gerade eine Wasserkühlung hat, sind die Titanen im Gaming eigentlich eher 20% hinter den 80Tis. Ein 1950MHz Custom Modell ist immer noch leiser, als eine Referenz, die ständig runter taktet, aber 20% schneller wird man schon etwa sein.

Ich würde einfach mal behaupten dass die meisten die eine Titan zum zocken kaufen, diese entweder auf 3rd Party Kühler umrüsten oder direkt Wakü benutzen. Ansonsten läuft auch echt was falsch...

Raff
2017-12-10, 12:06:41
Man wird die Karte bestimmt wieder mit 300 Watt betreiben können. Den Fehler der ersten Titan mit dem lächerlichen Spielraum von sechs Prozent (IIRC) haben sie seitdem nicht wieder begangen. Wobei, die GTX Titan X (Maxwell) ließ sich ab Werk auch höchstens mit 275 Watt betreiben, wenn ich das richtig in Erinnerung habe. Wenn aber 300 Watt möglich sind, dann wird auch die Titan V mit Wasserkühlung und gezieltem Undervolting nahe 2 GHz kommen. Dann ist das Ding auch angenehm schnell, wenn auch keine Offenbarung. Eine hochgezüchtete Titan Xp @ ~2.000/6.000 MHz, mit Nachrüstkühlung kein Problem, dürfte einer luftgekühlten Referenzversion der Titan V aber gefährlich werden, zumal beide über 12 GiB verfügen.

MfG,
Raff

BlacKi
2017-12-10, 13:00:24
leider wissen wir noch garnichts zu diesem chip. welche spannung braucht der 12nm prozess? wo liegt der durchnittliche max takt und bei welcher voltage. wenn bei der TXp 2ghz machbar sind, erwarte ich bei der TV 2100-2300mhz mit shunt mod. der 12nm prozess soll doch auch mehr takt versprechen.

welche taktraten lagen bei den benchmarks eigentlich an? +170 sagt mir erstmal garnicht welcehr takt anlag.

fondness
2017-12-10, 13:07:41
Man wird die Karte bestimmt wieder mit 300 Watt betreiben können. Den Fehler der ersten Titan mit dem lächerlichen Spielraum von sechs Prozent (IIRC) haben sie seitdem nicht wieder begangen. Wobei, die GTX Titan X (Maxwell) ließ sich ab Werk auch höchstens mit 275 Watt betreiben, wenn ich das richtig in Erinnerung habe. Wenn aber 300 Watt möglich sind, dann wird auch die Titan V mit Wasserkühlung und gezieltem Undervolting nahe 2 GHz kommen. Dann ist das Ding auch angenehm schnell, wenn auch keine Offenbarung. Eine hochgezüchtete Titan Xp @ ~2.000/6.000 MHz, mit Nachrüstkühlung kein Problem, dürfte einer luftgekühlten Referenzversion der Titan V aber gefährlich werden, zumal beide über 12 GiB verfügen.

MfG,
Raff

Wenn sie bei einer >3000$ Karte noch immer die TDP künstlich begrenzen wäre das traurig genug. Selbst bei 300W TDP wird man bei dem niedrigen default Takt kaum auf 2 Ghz kommen.

N0Thing
2017-12-10, 13:13:49
Naja, sie wird nicht als Overclockers Dream beworben. Wer $3000 überweist, um sich diese Karte für Spiele und Übertaktung bis zur Grenze zu holen, der macht das wohl aus Spaß an der Freude und nicht, weil das so gedacht oder sinnvoll wäre.

searched4u
2017-12-10, 13:38:18
Über Sinn oder Unsinn braucht man im Enthusiasten Markt wohl nicht wirklich diskutieren :-D

Edgecrusher86
2017-12-10, 14:35:37
Die Benchmarks wurden doch teils mit 120% PT gefahren. ;)

https://abload.de/img/captureuwomh.png

Das Weihnachtsgeld darf nun also locker gemacht werden. ;D

E: Alle Benchmarks wurden auf offiziellen Seiten gelöscht. Nun ja, eh zu spät nun. :biggrin:
Mit 1852-1890/985 MHz MHz lief der höchste Superposition 1080p Extreme Score bei afaik 86 Grad durch (vermutlich um die 65% Autofan, siehe oben) - nicht so schlecht für den Brummer. Unter Wasser dürfte sie schon an den 2 GHz kratzen denke ich. :tongue:

BlacKi
2017-12-10, 14:56:29
kommt man mit +170mhz auf 1900mhz?

Edgecrusher86
2017-12-10, 15:03:25
Es wurde zwar iirc in der Datenbank was von 1950 MHz oder mehr angezeigt, aber oberhalb 1890 MHz lief sie in keiner Szene, grob zur Hälfte mit besagten 1852 MHz. Schade, dass ich hier keine Screenshots gemacht habe....das hat keine Seite gespeichert. :redface:

Lowkey
2017-12-10, 15:25:15
Ohne Benchmarks kannst Du das doch noch garnicht wissen. Falls Du welche parat hast, bitte verlinken! :)

Ein paar Benchmarks oder Hinweise wurden doch hier verlinkt?

Demnach ist die Karte schneller als alle anderen Karten, aber unerheblich schneller. Zudem weiss man nie ob OC im Spiel war oder kennt andere Settings.

=Floi=
2017-12-10, 15:57:45
aber unerheblich schneller.

naja, 40% sind schon ordentlich. So viel mehr wird es auch nicht durch ampere zu sehen geben.

Lowkey
2017-12-10, 16:06:25
40%? Wo? Ich sehe deutlich weniger als 30%

Edgecrusher86
2017-12-10, 21:18:25
Beeindruckend:

Score 10477 Result #1 in superposition 1.0 1080p Extreme (1x GPU) Scored by Slinky PC 10 December 2017 (04:04). (https://benchmark.unigine.com/results/rid_5a16351559cf44229ac71af46f3dd0ea);)

Min. fps: 56,82
Avg. fps: 78,36
Max. fps: 115,63

1792-1837/1066 MHz - Bandbreite scheint dem Chip sehr gut zu schmecken (+25,4% in dem Fall -> ~ 818,7 GB/s zu 652,8 GB/s). :)

Pics, bevor wieder gelöscht wird:
https://abload.de/thumb/1o3pcq.png (http://abload.de/image.php?img=1o3pcq.png) https://abload.de/thumb/2xnrfh.png (http://abload.de/image.php?img=2xnrfh.png) https://abload.de/thumb/39jrjd.png (http://abload.de/image.php?img=39jrjd.png) https://abload.de/thumb/42conf.png (http://abload.de/image.php?img=42conf.png)

135i
2017-12-10, 21:31:19
Schade , dass kein SLI unterstütz wird, sonst wären die V gekauft :freak:

Beeindruckend -

Score 10477 Result #1 in superposition 1.0 1080p Extreme (1x GPU) Scored by Slinky PC 10 December 2017 (04:04). (https://benchmark.unigine.com/results/rid_5a16351559cf44229ac71af46f3dd0ea);)

1792-1837/1066 MHz - Bandbreite scheint dem Chip sehr gut zu schmecken (+25,4% in dem Fall -> ~ 818,7 GB/s zu 652,8 GB/s). :)



Hammer, da musste sich meine unter Wasser ganz schön strecken

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11511347&postcount=232

Edgecrusher86
2017-12-10, 21:34:14
1080p Extreme ist das, zieht ein wenig mehr. Kingpin hat einen Score von 8642 (https://benchmark.unigine.com/results/rid_b14953c7cc0c443bac11676f09708d1c) mit einer knapp sub 2,6 GHz Ti dort. ;)


Mehr User-Benches +30-55% vor GP102 etwa:
https://www.reddit.com/r/nvidia/comments/7iq5tk/just_got_a_titan_v_this_morning_ask_me_to/

135i
2017-12-10, 21:54:07
1080p Extreme ist das, zieht ein wenig mehr. Kingpin hat einen Score von 8642 (https://benchmark.unigine.com/results/rid_b14953c7cc0c443bac11676f09708d1c) mit einer knapp sub 2,6 GHz Ti dort. ;)


Mehr User-Benches +30-55% vor GP102 etwa:
https://www.reddit.com/r/nvidia/comments/7iq5tk/just_got_a_titan_v_this_morning_ask_me_to/

Autsch, ich ging von den FPS Zahlen aus. :eek:

Nun 1080p Extreme: FPS min/avg/max:

Titan V 56.82 / 78.36 / 115.63

TitanXp @max 2050GPUTakt: 42/52.45/63.4

135i
2017-12-10, 22:02:49
1080p Extreme ist das, zieht ein wenig mehr. Kingpin hat einen Score von 8642 (https://benchmark.unigine.com/results/rid_b14953c7cc0c443bac11676f09708d1c) mit einer knapp sub 2,6 GHz Ti dort. ;)


Mehr User-Benches +30-55% vor GP102 etwa:
https://www.reddit.com/r/nvidia/comments/7iq5tk/just_got_a_titan_v_this_morning_ask_me_to/

Übrigens, bei der TitanV sind auf DETAILED SCORE INFO , max GPU Clock 2010 MHz angegeben, die im Monitoring nicht auftauchen und dort die GPU noch nicht mal 1900Mhz aufweist.
Also Vorsicht .

Thunder99
2017-12-10, 22:03:21
Nicht schlecht, aber um welchen Preis ;)

135i
2017-12-10, 22:12:03
nvidia-titan-v-benchmarks-volta-gpu-demolishing-competitors (https://hothardware.com/news/leaked-nvidia-titan-v-benchmarks-volta-gpu-demolishing-competitors)

Edgecrusher86
2017-12-11, 00:55:34
Wenn der Boost sich ähnlich verhält wie Pascal dürfte der default max Boost wohl bei hohen 16xx MHz liegen, dann käme 18xx MHz mit um die 150-170 MHz Offset hin. 19xx-2xxx MHz Peak wäre schön, aber ich halte das nicht für wahrscheinlich, vor allem nicht bei maximal 300W PT.. Mal sehen, was die nächsten Tage so zeigen. Spannungen wäre auch interessant sowie P-States.

Bei 19xx-2xxx MHz wäre der Boost ähnlich gesetzt wie bei GK110.

The_Invisible
2017-12-11, 10:43:55
Autsch, ich ging von den FPS Zahlen aus. :eek:

Nun 1080p Extreme: FPS min/avg/max:

Titan V 56.82 / 78.36 / 115.63

TitanXp @max 2050GPUTakt: 42/52.45/63.4

Also von mir aus kann die 2070er Volta mit TitanXp@2Ghz Leistung kommen. :freak:

Preis würde wohl auch neuen Rekord darstellen :D

Lowkey
2017-12-11, 11:02:04
Bislang sehe ich noch keinen direkten Vergleich der Karten in den Benchmarks. Und in ein paar Monaten gibt es die Leistung dann für 700 Euro.

https://www.3dcenter.org/news/titan-v-zeigt-ersten-benchmarks-erstaunliche-schwaechen-unter-hoeheren-aufloesungen


HA!


Ich fühle mich bestätigt, dass die Karte dann doch bis auf ein paar Ausreißer nicht so gut ist wie gedacht. Es hat also einen Grund warum die Karte nicht als Gamerkarte beworben wird.

Alternativ könnte das auch ein Bug sein, wo wir bei meinem angesprochenen Treiberproblem wären. Aber wird Nvidia speziell für die Karte laufend die Treiber optimieren? Ich denke nicht.

Grendizer
2017-12-11, 13:44:15
Wenn das echt ein Problem von HBM Speicher ist, dann bin ich froh, das ja nVidia in ihren Consumer Karten auf GDDR6 setzten wird.

HBM Speicher scheint irgendwie nicht wirklich die Wunderwaffe zu sein, die man sich ursprünglich erhofft hatte. Auf manchen Herstellerseiten kann man ja dieses heir lesen: Revolutionärer HBM überwindet den Verarbeitungsengpass ...

Edgecrusher86
2017-12-11, 14:18:46
Ein HBM-Bandbreitenskalierungstest in den Benchmarks und Games wäre mal interessant. 652,8 GB/s, ~ 753 GB/s und ~ 818 GB/s, sollten die 1066 MHz aus dem Superposition 1080p Rekord as mögliche Maximum sein. Dort brachte ~ 8,7% mehr Bandbreite und ~ -2,x% weniger GPU Takt an die 6% Plus im Score (ok, CPU leider nicht identisch...7700K OC vermutlich gegen 6700K Stock? Wobei die CPU wohl nicht soviel ausmachen sollte - siehe Kingpin mit 5,x GHz 6950X weit abgeschlagen auf 86xx).


User-Benchmarks: 8700K-Sys - vermutlich default TITAN V - (https://www.reddit.com/r/nvidia/comments/7iq5tk/just_got_a_titan_v_this_morning_ask_me_to/) Spiele 1440p-4K; teils mehr:

Overwatch, all settings maxed out
•While standing at the training level starting point:
•278 fps @ 1080p (100%)
•196 fps @ 1440p (70,5%) [100%]
•107 fps @ 4k (38,5%) [54,6%]
•67 fps @ 5k (24,1%) [34,2%]
•30 fps @ 8k (10,8%) [15,3%]
•In King's Row during a QP match:
•Between 95 and 130 fps @ 4k (100/100%)
•Between 55 and 67 fps @ 5k (57,9%/51,5%)

Deus Ex Mankind Divided
•88 avg 66 min 112 max @ DX11, 1440p, Ultra (100%/100%/100%)
•86 avg 64 min 108 max @ DX12, 1440p, Ultra (97,7%/96,7%/96,4%)
•50.2 avg 36.5 min 62.5 max @ DX11, 2160p (DSR), ultra settings - BUT there were strange flickering black square artifacts constantly. (57%/55,3%/55,8%)
•62.7 avg 50.9 min 76.6 max @ DX11, 2160p (DSR), high settings - still had flickering squares. (71,2%/77,1%/68,4%)

FFXIV Stormblood Benchmark
•18163 @ DX11, 2560x1440, Maximum (100%)
•10907 @ DX11, 3840x2160 (DSR), Maximum (60%)

Witcher 3
•Standing in starting area, default viewport
•120 fps @ 1440p, ultra quality, high postprocessing (83,3%) [100%]
•144 fps @ 1440p, ultra quality but Hairworks turned off, high postprocessing. (100%)
•71 fps @ 4k Ultra (49,3%) [59,2%]
•82 fps @ 4k ultra, no Hairworks (56,9%)

Minecraft with Continuum 1.3 shaders on "Ultra", 16 chunk view distance
•~65-75 FPS @ 1440p while standing on top of a random mountain (100%)
•~37 fps @ 4k (DSR), same mountain (49,3%-56,9%)

Fallout 4
•Standing at the workbench in Sanctuary
•135-200 fps @ 1440p, default ultra settings (100%/100%) [100%/100%]
•130-175 fps @ 1440p, every setting maxed out except godrays (low) ( 96,3%/87,5%) [100%/100%]
•115-150 fps @ 1440p, every setting maxed out (85,2%/75%) [100%/100%]
•86-115 fps @ 4k (DSR), default ultra settings (63,7%/57,5%) [63,7%/57,5%]
•79-87 fps @ 4k (DSR), every setting maxed out except godrays (low) (58,5%/43,5%) [60,8%/49,7%]
•55-75 fps @ 4k (DSR), every setting maxed out (40,7%/37,5%) [47,8%/50%]

XCom 2
•Some random mission where I left off playing
•Maximum settings
•128 fps @ 1080p (100%)
•108 fps @ 1440p (84,4%) [100%]
•65 fps @ 4k (50,8%) [60,2%]

Bioshock Infinite (avg. fps %)
•1440p
•UltraDX11_DDOF - 180.53 avg, 22.00 min, 396.16 max (75%) [100%]
•UltraDX11 - 240.77 avg, 14.24 min, 560.72 max (100%)
•4k
•UltraDX11_DD0F - 109.53 avg, 12.89 min, 181.54 max (45,5%) [60,7%]
•UltraDX11 - 145.89 avg, 45.02 min, 297.83 max (60,6%)


Ich war mal so frei, %-Werte zu ergänzen. Grob im Mittel 50-60% fps in 4K zu 1440p, sieht man von Ausnahmefällen ab.
In () das komplette Verhältnis vom niedrigsten, zum höchsten Setting - in [] ein jeweiliger Vergleich.

Dural
2017-12-11, 16:57:50
Also ich würde die finger von der karte lassen, sollte volta wirklich nicht für gamer kommen dürfte die titan v treiber seitig es sehr schwer haben.

G3cko
2017-12-11, 17:11:10
Sehe ich genauso. Dank der extremen Chipfläche ist die Karte ohne Zweifel die schnellste auf dem Markt, aber Tensor Cores und eine Einzelkarte einer Architektur sprechen hier klar gegen eine sinnvolle Gamer-Karte. Aber gut Titankunden sind sowieso ein spezielles Volk. Mir ist diese Titan -Vermarktung mittlerweile zu Inflationär. Alle 6-12 Monate eine neue Titan.

Also so daneben lag AMD nicht mit Poor Volta. Für AI sicher interessant, für Gamer eher nicht.

Thunder99
2017-12-11, 17:41:58
Daher unter anderem auch der Preis

Loeschzwerg
2017-12-11, 18:19:51
Also ich würde die finger von der karte lassen, sollte volta wirklich nicht für gamer kommen dürfte die titan v treiber seitig es sehr schwer haben.

Ist doch mittlerweile schon klar dass Volta nicht für den normalen Pöbel erscheinen wird :)

horn 12
2017-12-11, 22:57:06
YOUTUBE Titan V

https://www.youtube.com/watch?v=AmCY7OmjSnw

Wake
2017-12-12, 00:15:04
Titan V mining tests livestream:
CW8LOQ2yvO4

Troyan
2017-12-12, 09:03:39
Im Overclockers Forum hat jemand eine Karte und ein paar Benches gepostet: https://forums.overclockers.co.uk/threads/titan-v-announced-2700-15tf-12nm-volta.18803276/page-16

Man muss eigentlich auch kurz inne halten und verinnerlichen, dass dieses 21 Mrd. Transistorenmonster auch mit 1900MHz+ laufen kann... Fast 20TFLOPs...

Dural
2017-12-12, 09:31:39
Noch beeindruckender ist das AMD jetzt schon zwei Generationen hinter NV ist, so was gab es noch nie.

Edgecrusher86
2017-12-12, 09:49:21
https://youtu.be/EsAid14T9bg

Tear-Down GamersNexus


Also als Investment banking Firma würde es wohl lohnen...6x so hohe Kosten wie V64 und knapp 11x Performance. Haha 😂

http://www.overclock.net/t/1643587/twitter-titan-v-revealed/720#post_26495250

Palpatin
2017-12-12, 09:49:25
Noch beeindruckender ist das AMD jetzt schon zwei Generationen hinter NV ist, so was gab es noch nie.
Von den Preisen sind es eher drei Generationen. :rolleyes:

Troyan
2017-12-12, 09:55:51
Also als Investment banking Firma würde es wohl lohnen...6x so hohe Kosten wie V64 und knapp 11x Performance. Haha 😂

http://www.overclock.net/t/1643587/twitter-titan-v-revealed/720#post_26495250

Oben wurde ja das Video mit Mining verlinkt. Es zeigt einfach eindrucksvoll, dass die AMD Karten eben nicht besser bei Compute sind sondern einzig Bandbreite, Latenz und Cache gegenüber Gaming-Pascal helfen. Titan V erreicht rund 80MH/s bei Eth und das mit <= 150W...

Würde mich nicht wundern, wenn Titan V in Spielen, die rein auf AMD optimiert sind, deutlich besser laufen würde.

Dural
2017-12-12, 10:12:15
Ist doch mittlerweile schon klar dass Volta nicht für den normalen Pöbel erscheinen wird :)

So sicher wäre ich nach der Titan V da gar nicht mehr. ;)
Mir ist immer noch nicht klar wie so NV so eine Titan auf den Markt bringt. :confused:

Troyan
2017-12-12, 10:14:22
Weil es genug Leute gibt, die mehr Leistung für Deep Learning benötigen. Und Volta ist ein riesen Schritt nach vorne für nVidia und alle, die die Leistung benötigen.

Platos
2017-12-12, 10:56:46
Von den Preisen sind es eher drei Generationen. :rolleyes:

Je nach dem welchen Bereich man betrachtet, sind noch keine 2 Generationen da. Diese eine Karte, die man eigentlich eh nicht richtig bei GeForce einordnen kann, zählt nicht als Generation (bei GeForce). Wenn dann Ampere kommt und AMD noch nichts in greifbarer Nähe hat, dann Endets böse mit den Preisen.

Auf jeden Fall ist AMD zur Zeit in diesem Bereich richtig am abstinken. Ich hoffe mal die nächste Gen. wird nicht so ein Reinfall wie Vega.

Reaping_Ant
2017-12-12, 11:01:24
Ich muss sagen, als Spieler tangiert mich die Titan V, abseits des ohnehin nur begrenzt moeglichen Ausblicks auf Ampere, nicht besonders.

Aber fuer einen wissenschaftlichen Allzweck-Rechner fuer kleine bis mittlere Simulationen sieht eine Kombination aus Titan V und Threadripper ziemlich lecker aus: fuer ca. 5000 Euro bekommt man ordentlich CPU-Leistung, "klassische" GPU-Leistung (SP und vor allem DP) und zusaetzlich als Bonus noch die Tensorcores fuer Inference, ohne das Forschungsbudget zu sehr zu strapazieren. Ich kenne genug Leute, die (wegen DP) noch auf der Ur-Titan rechnen.

scully1234
2017-12-12, 13:32:44
Also ich würde die finger von der karte lassen, sollte volta wirklich nicht für gamer kommen dürfte die titan v treiber seitig es sehr schwer haben.

Hat es der Quadro Treiber denn schwerer in Games?

https://hothardware.com/reviews/nvidia-quadro-p6000-and-p5000-workstation-gpu-reviews?page=1

Nur weil etwas als Profilösung angepriesen wird, heißt es ja noch lange nicht ,das in den Treiber keinesfalls die Geforce Optimierungen mit einfliessen werden,die architekturbedingt keine Hürde darstellen sollten
https://youtu.be/EsAid14T9bg

Tear-Down GamersNexus


Also als Investment banking Firma würde es wohl lohnen...6x so hohe Kosten wie V64 und knapp 11x Performance. Haha ��

http://www.overclock.net/t/1643587/twitter-titan-v-revealed/720#post_26495250

V_V wird dir jetzt sicher gleich erzählen, das ein Cluster aus 11 Vegas die Zukunft ist,und so ein flexibel einsetzbares monolitisches Monster absolut unangebracht
:eek:

BlacKi
2017-12-12, 13:46:24
gp100 hat nochmals deutlich mehr alleinstellungsmerkmale als andere profi/quadro karten. wenn ampere tatsächlich sich von volta unterscheidet, dann ist GV100 möglicherweise eine sackgasse.

scully1234
2017-12-12, 14:11:48
gp100 hat nochmals deutlich mehr alleinstellungsmerkmale als andere profi/quadro karten. .


Nur in den Teilen die sowieso nicht gebraucht werden für Games, like Tensor Units, 64 bit Units ec pp, der 32bit CudaCore Teil ist genau so ansprechbar wie bei den Geforce Karten, und profitiert dabei auch von Optimierungen die für die "normalen" Karten getroffen werden

Daredevil
2017-12-12, 14:18:27
Ich finde die Karte ziemlich geil. :D

Schon allein, das Nvidia das Selbstvertrauen und die Eier hat, eine 3000€ Grafikkarte auf den Markt zu schmeißen, ist schon unheimlich sympatisch.
Meinetwegen können die auch eine Dual Volta für 10000€ verkaufen, mein Budget ist das eh nicht. Aber schneller ist immer besser. :D

Sehr beeindruckend finde ich aber eher, dass sie dieses riesen Paket und die Leistung in das TPD einer 1080ti quetschen. :eek:
Wenn man nun eine Vega64 daneben stellt, die ja ebenfalls "dick" ist, fliegt die Titan der Vega in Sachen Effizienz ja förmlich davon. Ziemlich beeindruckend!

Dural
2017-12-12, 14:22:23
Weil es genug Leute gibt, die mehr Leistung für Deep Learning benötigen. Und Volta ist ein riesen Schritt nach vorne für nVidia und alle, die die Leistung benötigen.

Wie so gab es den keine GP100 Titan?!

Hat es der Quadro Treiber denn schwerer in Games?

https://hothardware.com/reviews/nvidia-quadro-p6000-and-p5000-workstation-gpu-reviews?page=1

Nur weil etwas als Profilösung angepriesen wird, heißt es ja noch lange nicht ,das in den Treiber keinesfalls die Geforce Optimierungen mit einfliessen werden,die architekturbedingt keine Hürde darstellen sollten


NV wird wohl kaum für eine "hand voll" gamer auf dieser welt die treiber beim GV100 wirklich an spiele anpassen, das ist hinten und vorne nie wirtschaftlich.

scully1234
2017-12-12, 14:26:26
Sehr beeindruckend finde ich aber eher, dass sie dieses riesen Paket und die Leistung in das TPD einer 1080ti quetschen. :eek:


Wenn allle Teile des Chips gleichzeitig angesprochen würden, wäre das gewiss nicht mehr der Fall, bei den Ergebnissen sieht man ja nur den 32 bit Teil des riesen DIEs ackern, alles drum herum liegt still

Dural
2017-12-12, 14:28:48
Naja auch die profi karten haben im vergleich zum vorgänger keine höhere TDP


Ach noch vergessen, wie war das noch mal? ;)

Poor Volta

;D;D;D;D

scully1234
2017-12-12, 14:32:02
NV wird wohl kaum für eine "hand voll" gamer auf dieser welt die treiber beim GV100 wirklich an spiele anpassen, das ist hinten und vorne nie wirtschaftlich.

Las dir das nochmal durch den Kopf gehen:)

der 32bit CudaCore Teil ist genau so ansprechbar wie bei den Geforce Karten, und profitiert dabei auch von Optimierungen die für die "normalen" Karten getroffen werden


welche große Mehrarbeit siehst du denn da aktuell in der Anpassung, wenn sich architektonisch an den Cuda Cores doch nichts signifikant geändert hat zu den Geforce 32bit Part ?

Gut das Speichermanagment braucht HBM bedingt ,vielleicht etwas mehr Aufmerksamkeit

Das ist jetzt nix was unendlich viel Manpower kosten tut, das zu adaptieren auf den Volta Core

Dural
2017-12-12, 14:34:01
das ist mir neu, von wo kommt diese aussage?

und trotzdem glaube ich nicht das es so einfach ist, der gv100 dürfte schon recht anders als pascal sein. man sieht es aktuell ja schon in den benchmarks wo die leistung manchmal nicht wirklich auf die strasse kommt.

scully1234
2017-12-12, 14:41:48
das ist mir neu, von wo kommt diese aussage?


Vom Blockschaltbild , das hat man ja bereits im Mai gezeigt:)

Zudem gibts auch in Cuda keine signifikanten Differenzen, in der Arbeit mit den Volta Cuda Cores zu ihren Pascal Derivaten

Man hat die IPC etwas gepusht u folglich die Effizenz weiter gesteigert,also nichts was jetzt größeren Aufwand bei der Treiber Adaption benötigte

Das wäre ehrlich auch kontraproduktiv für viele Bereiche, wenn man das Rad hier neu erfinden wollte

=Floi=
2017-12-12, 14:46:41
das ist mir neu, von wo kommt diese aussage?

und trotzdem glaube ich nicht das es so einfach ist, der gv100 dürfte schon recht anders als pascal sein. man sieht es aktuell ja schon in den benchmarks wo die leistung manchmal nicht wirklich auf die strasse kommt.

Aber recht anders als ampere wird er nicht sein. Da liegt wohl der eigentliche witz.

scully1234
2017-12-12, 15:03:43
Aber recht anders als ampere wird er nicht sein. Da liegt wohl der eigentliche witz.

Ampere bedient sich bei dem Featureset das Sinn ergibt, da ist auch Maxwell und Pascal noch mit in den Genen, sowohl als auch Voltas gesteigerte Rechenleistung, zusammen mit dem was man noch zusätzlich einpflanzt,oder im Falle von Volta vielleicht ???weglässt ,weil es in nem Gamerchip nicht gebraucht wird.

Ampere könnte aber ebenso noch einen A100 im Portfolio haben , der dort nochmal aufstockt,wo Volta aufgehört hat

Namen sind da ja seit je her inflationär bei Nvidia

Edgecrusher86
2017-12-12, 17:39:47
Gamers Nexus: Titan V Gaming Benchmarks: An Async Future for nVidia

https://youtu.be/03toTq8vDYw

Puh, in Sniper Elite 4 DX12 Async on ist V eine Macht - 90,6 fps min stock vs. 52,2 fps stock Xp. :biggrin:
Allerdings scheint da irgendwas im Argen zu sein oder die Xp taktete enorm runter - Xp OC 62,9 fps min., die Ti FTW3 hat 68 fps min.. Dennoch stark. :cool:

Aber teilweise gibt es noch Probleme - etwa mit Doom Vulkan oder Destiny 2 Frametimes (low fps).


V_V wird dir jetzt sicher gleich erzählen, das ein Cluster aus 11 Vegas die Zukunft ist,und so ein flexibel einsetzbares monolitisches Monster absolut unangebracht
:eek:

Funktioniert doch auch monolitisch - immerhin: V56 > GP102 (@ min. fps)! ;D
Und in einigen Monaten: V64 LC > "GA100/102" + "GA104". Sollte es jeweils umgekehrt sein, sind die Devs mit altbackenen APIs schuld. Punkt. :freak:
Die rote Glückseeligkeit wird auch noch besser (http://www.pcgameshardware.de/AMD-Catalyst-Crimson-Grafikkarte-255517/Specials/Radeon-Software-Adrenalin-17121-Test-Review-1245542/).


Ok, back to Topic. :cool:
Ja, in vielen Titeln scheinen die ganzen Einheiten nicht so zum Tragen zu kommen und höhere Taktraten wären wichtiger. Hoffen wir mal, dass Ampere hier mehr bietet. :)

DrFreaK666
2017-12-12, 22:58:47
Noch beeindruckender ist das AMD jetzt schon zwei Generationen hinter NV ist, so was gab es noch nie.

Das ist traurig, nicht beeindruckend

TGKlaus
2017-12-12, 23:02:02
Dann werden wir ja bald erfahren, ob wenigstens VOLTA AC kann oder sich die Lüge über mittlerweile 3 Generation zieht. :freak:

scully1234
2017-12-13, 01:30:46
Gamers Nexus: Titan V Gaming Benchmarks: An Async Future for nVidia

https://youtu.be/03toTq8vDYw



der holt mit dem Stock Cooler 1927 Mhz aus dem Core und average 1822 Mhz:freak:

Ich hoffe der setzt die noch unter Wasser um zu sehen wo Schluss ist

BlacKi
2017-12-13, 01:47:41
für das monster muss man erstmal was bauen, die zu kühlende fläche ist rießig. 800mm² + 4x hbm, da kann sich die freunding drin schminken in der die fläche.

scully1234
2017-12-13, 01:56:25
für das monster muss man erstmal was bauen, .

damit sollte es gehen,

http://www.aquatuning.de/wasserkuehlung/gpu-kuehler/gpu-chipkuehler/13597/watercool-heatkiller-gpu-x3-core-lc

der soll sich mal nicht so einsch... drauf mit dem Corekühler, und wenns HBM Package knackt Pech gehabt:D

Ps:

Ryan Shrout hat auch eine bekommen

https://www.youtube.com/watch?v=ITa7FJ43xWQ

BlacKi
2017-12-13, 02:10:10
hat das schon jemand vermessen? es sind ist sicher 50mm in der breite oder gar mehr. dein kühler hat vl 55mm breite, das klappt vl gerade so, wenn man die schrauben großzügig mit WLP füllt.

bnoob
2017-12-13, 11:56:29
Weiß jemand, ob nVidia auch unterschiedliche Package-Vendors / Package-Probleme hat wie AMD bei der Vega?

VooDoo7mx
2017-12-13, 12:23:21
Also die ersten Benchmarkwerte sind doch schon ziemlich beeindruckend. Da kommt deutlich mehr bei rum als die zu erst genannten 15-20% zu den aktuellen Topmodellen. Eher sind es 40-50% und das trotz der niedrigen Taktraten, schlechten Kühler, und eng bemessenen Power und Temperature Target.
In Doom ist die Karte stock fast doppelt so schnell wie eine Vega 64, in Sniper Elite IV sogar mehr als doppelt so schnell. Und das sind durchaus AMD Spiele.
Und gerade Async Compute Spiele scheinen Volta sehr gut zu schmecken.

Wenn man das als Aussicht für die nächste Ampere Generation nimmt, die nochmal verbessert ist, wird dann ein 500-600 mm² ~5000 Shader Chip noch konkurrenzloser da stehen, als die eh schon sehr schnellen GP102 Produkte.

Voodoo6000
2017-12-13, 12:27:30
Hardwareluxx
NVIDIA Titan V: Volta-Architektur im Gaming-Test (https://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/45199-nvidia-titan-v-volta-architektur-im-gaming-test.html)

scully1234
2017-12-13, 13:19:13
Die Benchmarks sind ab Seite 19 also erst wirklich sinnvoller, weil man einen Teil der CPU Limitierung kappt

Warum nutzt man da bitte zwei Testsysteme, und fährt das Ding bis Test 19 sozusagen mit angezogener Handbremse.

Ein hochgetakteter Core I7 8700k hätte da allemal ins Auge gefasst werden sollen, um wenigsten so wenig wie möglich ins CPU Limit zu laufen


Das: Intel Core i7-3960X 3,3 @ 3,9 GHz

ist doch wohl nicht wirklich ihr Ernst

Atma
2017-12-13, 13:31:46
Das:

ist doch wohl nicht wirklich ihr Ernst
Da musste ich auch lachen. Ein uralter Sandy Bridge-E von 2011 ... :D

Warum haben die nicht gleich Nehalem genommen? :freak:

AlphaNUSS
2017-12-13, 13:42:44
Wenn man 3000€ für die GPU zahlt, bleibt halt nicht mehr viel für die CPU übrig :D

scully1234
2017-12-13, 13:42:49
Und man sieht sehr gut wie bis Test 19 die Highendkarten fast identische Frames produzieren

Da hätte man ruhig drauf eingehen können und müssen ,das mit so einen Chipmonster erst der Threadripper die Leistung einigermaßen abbilden kann, besser wäre halt auch ein 8700k gewesen. Denn wer sich so eine Grafikkarte steckt,der hat auf der Gegenseite auch das passende CPU Gegenstück, um diese zu füttern mit Daten

X-Bow
2017-12-13, 14:03:35
Naja aber ein echtes CPU Limit ist eigentlich nie irgendwo zu sehen, außer vllt bei Anno. Und durch den TR wird die grundsätzliche Leistung auch nicht besser.

Alles in allem würde ich sagen das die abgebildete Leistung das GPU Limit ist und für eine solches Flächenmonster @ ~1.700 Mhz eher eine schlechte Leistung.

Ich bleib dabei. Ampere wird ~ 30-40% auf Pascal drauf legen, mehr wird's nicht. Wobei ich Überzeugt bin das im Durchschnitt Ampere in LL mehr drauf legen wird als in DX11 gegenüber Pascal.

scully1234
2017-12-13, 14:09:22
Naja aber ein echtes CPU Limit ist eigentlich nie irgendwo zu sehen, außer vllt bei Anno. .

Bei Anno sind wir schon drüber hinaus,dort bricht die CPU vollends weg bei der Versorgung

Bei anderen kann sie wenigstens noch 1080TI Niveau aufrecht erhalten

Was "ohne" Overhead /CPU Limit an CudaCore Leistung frei wird ,sieht man bei Wolfenstein, und ich wette mit einem 8700K auf 5GHZ würde die Schere noch weiter auseinander gehen

Nicht zu vergessen das die dort ja noch mit humanen Taktraten(HWLUXX hat nicht übertaktet), gegen eine der besten Custom 1080Ti antritt, und dort bereits fast 30% davon rennt

Unter Wasser mit knapp 2GHz Coretakt und einem 5GHZ 8700K im Schlepptau, sehen wir da ganz andere Werte

Rancor
2017-12-13, 14:27:55
Intressant ist das die Karte unter LL ziemlich zulegen kann.

X-Bow
2017-12-13, 14:30:05
Ja das was sie in Wolfenstein leistet ist keineswegs beeindruckend sondern sollte von den Daten her deutlich mehr sein.

Das einzige wo Volta von seinen bisherigen Daten wirklich glänzt ist die Perf./W. Alles andere ist für so ein Monster doch eher ein Witz. Doppelte GPU-Fläche als eine Ti aber nur ~30% schneller?
Alles bisher gesehene von Volta entspricht relativ den Roadmaps von vor 2 Jahren. Starker Anstieg von Perf./W gegenüber Pascal, aber nur relativ schwacher Anstieg von Perf./Fläche.

dildo4u
2017-12-13, 14:33:39
Wolf lief laut CB mit dem neusten Patch schlechter auf Nvidia,da ist klar noch Luft von der Game Seite.

http://abload.de/img/wolf39xkvy.png

iuno
2017-12-13, 14:38:48
Das einzige wo Volta von seinen bisherigen Daten wirklich glänzt ist die Perf./W. Alles andere ist für so ein Monster doch eher ein Witz. Doppelte GPU-Fläche als eine Ti aber nur ~30% schneller?
Das Ding hat ja auch massiv mehr "tote Flaeche" als GP102 wenn es rein um Spiele geht. 1/4 des SI ist inaktiv, 1/2 FP64 Leistung und natuerlich das Tensor Zeugs. Der Vergleich hinkt also gewaltig.

scully1234
2017-12-13, 14:44:15
Das einzige wo Volta von seinen bisherigen Daten wirklich glänzt ist die Perf./W. Alles andere ist für so ein Monster doch eher ein Witz. Doppelte GPU-Fläche als eine Ti aber nur ~30% schneller?
.

Schau dir den 32bit Part an, der zur Verfügung steht auf dem DIE, und du weißt wieso da nicht mehr kommen kann

Alles drum herum ist wie IUNO schon sagte "totes" Silizium

Ein Gamer Ampere ,schläppt diesen Ballast nicht mit sich herum, und ist fertigungstechnisch bei TSMC auch eine Stufe weiter, dürfte also bei gleicher Leitung erheblich schmaler ausfallen

X-Bow
2017-12-13, 15:01:19
Hat aber dennoch mehr Fläche wenn Du die nicht leistungsfördernde Fläche heraus rechnest. Auch hast man immer noch Prozentual mehr Fläche als daraus resultierende Leistung. Sprich, grob überschlagen hätte man bei gleicher DIE-Größe eine schlechter Perf. als mit Pascal aktuell. Klar es ist sicherlich nichts für Games optimiert und hier lässt sich bestimmt auch noch was machen, aber dennoch würden nicht die riesen Sprünge heraus kommen welche man doch für eine neue Arch. erwarten sollte.... eigentlich, und ich werde jetzt bestimmt gelyncht, ist Gaming-technisch bis jetzt Volta nVidia's Vega^^ (Stromverbrauch außen vor).

Der_Korken
2017-12-13, 15:03:46
Irgendwie fühle ich mich bei dem Luxx-Test an die Fury erinnert: Gegenüber der 390X mit ordentlich mehr ALUs und Bandbreite, aber davon kommt in den meisten Spielen nichts 1:1 ein, außer bei gut durchoptimierten Spielen wie Battlefront 2 oder LL-APIs wie Wolfenstein. Gut, der Chip muss auch nicht auf Spiele optimiert sein, er wurde für Compute entwickelt, wo er auch liefert. In einigen Spielen färbt die massiven ALU-Leistung und Bandbreite ab, in einigen halt nicht. Gut möglich, dass das die Strategie für Ampere sein wird: Ordentlich ALUs dranhängen und somit in rechenlastigen Spielen punkten. Das Frontend ist eh schon relativ stark.

Lowkey
2017-12-13, 15:04:24
In 4k komme ich auf einen Vorsprung von grob +6,8% gegenüber der zweitplazierten 1080 Ti.
Argh... die Hälfte der Benchmarks wurde mit einem anderen System gemacht. Das sind dort knapp +20% Vorsprung.


Also kann man die Karte als 1080 Ti Besitzer nicht empfehlen, weil sie offensichtlich zu langsam ist. Dahinter steckt auch der Grund warum Nvidia keine Volta als Spielegrafikkarte bringen kann.


Irgendwie läuft das so ab: ich, die Grafikkarte, habe unglaubliche Ressourcen wie massig Shader etc.. Und das Spiel antwortet: mehr als 4xxx Shader spreche ich nicht an. Das ist wie mit Kernen und Takt. Mehr Kerne brauchen Support. Sonst merkt man nix. Meine Prognose: die Karte hat in der Theorie noch Reserven. Doch glaube ich nicht an den besten Treibersupport für das eine Modell. Es ist doch sowieso sicher, dass in 6 Monaten diese Leistung für unter 1000 Euro zu haben sein wird.

iuno
2017-12-13, 15:20:34
eigentlich [...] ist Gaming-technisch bis jetzt Volta nVidia's Vega^^ (Stromverbrauch außen vor).
Tja "poor Volta" :P
Im Ernst: es hat schon einen Grund, dass die Titan jetzt keine GeForce mehr ist. Gaming Fokus gibts ja dann wieder mit Ampere.

Dino-Fossil
2017-12-13, 15:28:57
Für Gamer ist die Karte nur relevant, wenn man gewillt ist absurde Mondpreise für die letzten paar % auszugeben. Wobei sich sicherlich wieder genug Blöde finden.

Interessanter finde ich die Karte persönlich für Leute, die mit den Computefähigkeiten, speziell den Tensorcores etwas anfangen können.
Da kann man sogar den Preis ein Stück weit rechtfertigen, da Alternativen eben noch teurer wären. Forschung im akademischen Bereich wäre da potentielle Kundschaft.

X-Bow
2017-12-13, 15:35:01
Tja "poor Volta" :P
Im Ernst: es hat schon einen Grund, dass die Titan jetzt keine GeForce mehr ist. Gaming Fokus gibts ja dann wieder mit Ampere.

Und genau vor diesen beiden Worten hab ich mich gescheut :biggrin:

Naja, ich bin aber immer noch davon überzeugt das Ampere =Volta-HPC+GDDR6 ist. Und wir die Grundsätzliche Leistung der 2080 (1180) Ti mit der Titan V sehen. Klar es kommen dann noch diverse Anpassungen oben drauf, aber die Leistung wird nicht so ein Sprung machen wie gehofft wird.

=Floi=
2017-12-13, 15:35:31
In 4k komme ich auf einen Vorsprung von grob +6,8% gegenüber der zweitplazierten 1080 Ti.

das ist ne wassergekühlte. die dürfte wohl immer 2ghz anliegen haben...
Volta war nicht übertaktet und bei 250watt gebremst.

Daredevil
2017-12-13, 15:40:06
Man sollte dann auch vielleicht 1080ti Founders bzw. TitanXP gegen die TitanV antreten lassen.
Die Kühllösungen sind ja quasi alle gleich.

dildo4u
2017-12-13, 15:41:22
das ist ne wassergekühlte. die dürfte wohl immer 2ghz anliegen haben...
Volta war nicht übertaktet und bei 250watt gebremst.

Jup das ist mit OC und Async Compute nicht vergessen,das Game wurde von AMD als positiv Beispiel für Vega Performance gepimmt.


http://abload.de/img/nvidia-titan-v-sniper5qqlk.png

https://www.gamersnexus.net/guides/3170-titan-v-gaming-benchmarks-async-future-is-bright-for-volta/page-2

Fetza
2017-12-13, 16:13:39
Ein paar Benchmarks oder Hinweise wurden doch hier verlinkt?

Demnach ist die Karte schneller als alle anderen Karten, aber unerheblich schneller. Zudem weiss man nie ob OC im Spiel war oder kennt andere Settings.

Ja, stimmt, jetzt habe ich es auch gesehen. Najo, in dem Sinne begeistert die Karte also nicht. Aber fürs zocken ist sie ja auch nicht gedacht.

Bucklew
2017-12-13, 16:28:50
eigentlich, und ich werde jetzt bestimmt gelyncht, ist Gaming-technisch bis jetzt Volta nVidia's Vega^^ (Stromverbrauch außen vor).
Nein, wo denn? Die Karte knallt in Wolfenstein mal eben so mehr als +50% auf die Vega64 drauf. Da liegt man an Perf/Diesize über Vega, schließlich ist gut 3/4 des Chips deaktiviert ;D

In Perf/Watt liegt man um Meilen in Front. Angesichts dessen, was GV100 noch so mitschleppt und beim Gaming 0,0 nützt (FP64, TensorCores, NVLink usw. usf.) ist das mehr als nur beeindruckend.

Ich glaube nicht, dass AMD den Ampere-Release gelassen entgegen sieht.

Lowkey
2017-12-13, 16:32:18
Für Gamer ist die Karte nur relevant, wenn man gewillt ist absurde Mondpreise für die letzten paar % auszugeben. Wobei sich sicherlich wieder genug Blöde finden.


Hattest du das nicht mal bei der ersten oder zweiten Titan gesagt? :D



Der Doom Benchmark ruckelt wohl ein wenig und deutet auf fehlende Treiberanpassung hin. Ich würde wetten, dass Nvidia den Treibersupport nicht priorisiert. In einem Jahr stehst du mit der Titan V da (als Luxus Gamer) und hast wesentlich weniger FPS oder gar Grafikprobleme in neuen Spielen. Und Nvidia wird irgendwann den Support inoffiziell streichen. Denn die wenigen Besitzer sind den Support nicht wert. Die Gruppe der SLI Nutzer wird schon größer sein als die Gruppe der Titan V Besitzer.

5CH4CHT3L
2017-12-13, 16:37:07
Sieht aus als wäre die Zeit für 4k 120Hz langsam reif

Dino-Fossil
2017-12-13, 17:27:31
Hattest du das nicht mal bei der ersten oder zweiten Titan gesagt? :D

Ich hatte etwas ähnliches sicherlich mal zu einer Titan gesagt, aber eher später -evtl Titan Xp.
Und ich stehe auch dazu, die Titan Karten sind im Gaming-Bereich primär Prestige-Produkte mit schlechtem P/L Verhältnis.

scully1234
2017-12-13, 18:46:50
die Titan Karten sind im Gaming-Bereich primär Prestige-Produkte mit schlechtem P/L Verhältnis.

Trotzdem wissen es einige zu schätzen den zeitlichen Vorsprung für Leistung von morgen hier on top zu kriegen.

Wenn die Zeit reif ist u die Yield Rate im oberen Drittel , gibts das selbe eben auch im Consumer Bereich

Nvidia deckt hier nur alle Zielgruppen bestmöglich ab

Der zeitliche Vorsprung kostet dann eben auch Luxussteuer, das ist den Kunden auch klar bzw sollte es

robbitop
2017-12-13, 19:05:52
Was ich aus dem Gamersnexus Review entnehme:

- Frametimes offenbar noch nachbesserungswüridg (Treiber)
- wenn man Volta Stock mit TXP Stock vergleicht erhält man grob einen Vergleich über rohleistungsnormierte Performance (also Performance pro ALU und Takt): diese scheint relativ gleich geblieben zu sein bei den meisten Spielen in 4K -> Mehr an Rohleistung wird linear und manchmal etwas weniger als linear an Performance gemünzt aber nicht überlinear ("IPC" steigt also nicht - hier ist rohleistungsnormierte Performance gemeint)
- Perf/W steigt ordentlich - @Stock erhält man rund 25-33% mehr Performance bei vergleichbarer Leistungsaufnahme

Aber: ein Teil der besseren Perf/W kommt aus 12nm vs 16nm:
25% weniger Leistungsaufnahme sind es angeblich bei gleichem Takt und Design:
https://www.semiwiki.com/forum/f293/nvidia-announces-tesla-gv100-gpu-tsmc-12nm-ffn-9285.html

Verbleiben 10...15% Perf/W Erhöhung durch die mArch.

Allerdings auch nachvollziehbar, denn auch bei GPU mArchs greift das Gesetz des sinkenden Grenzertrags irgendwann mal - dann schmiegt man sich an eine Asymptote...

Dural
2017-12-13, 19:08:46
Jup das ist mit OC und Async Compute nicht vergessen,das Game wurde von AMD als positiv Beispiel für Vega Performance gepimmt.


http://abload.de/img/nvidia-titan-v-sniper5qqlk.png

https://www.gamersnexus.net/guides/3170-titan-v-gaming-benchmarks-async-future-is-bright-for-volta/page-2

lol die titan v liegt hier 120% vor der besten vega.

dildo4u
2017-12-13, 19:17:50
Ja scheint ca 90% schneller bei der selben Rechenleistung zu sein,wird langsam Absurd.Ich erwarte jetzt Vega Performance @ 130 Watt für Volta Gameing,also fast das vergleichbar mit einem GTX 1060 Volta Modell.

robbitop
2017-12-13, 19:22:07
100% schneller bei gleicher Rechenleistung? Volta ist in diesem Bezug offenbar nicht besser als Pascal. Die 1080 ist ca auf V64 Niveau. V64 besitzt effektiv je nach Spiel (Taktraten sind ja sehr schwankend - sagen wir mal 1500 MHz) ~12,3 TFLOPs. Die 1080 kommt (boostclock von ~1800 MHz angenommen) auf rund 9,2 TFLOPs. Sind also ~30-35% mehr taktnormierte Leistung (außerhalb von AC+Intrinsic Shader). Für100 % ... da muss dann was querliegen...

vinacis_vivids
2017-12-13, 19:37:49
UXhuIYbm5lE

26-30% schnerller als 1080Ti.

fondness
2017-12-13, 19:45:44
Was ich aus dem Gamersnexus Review entnehme:

- Frametimes offenbar noch nachbesserungswüridg (Treiber)
- wenn man Volta Stock mit TXP Stock vergleicht erhält man grob einen Vergleich über rohleistungsnormierte Performance (also Performance pro ALU und Takt): diese scheint relativ gleich geblieben zu sein bei den meisten Spielen in 4K -> Mehr an Rohleistung wird linear und manchmal etwas weniger als linear an Performance gemünzt aber nicht überlinear ("IPC" steigt also nicht - hier ist rohleistungsnormierte Performance gemeint)
- Perf/W steigt ordentlich - @Stock erhält man rund 25-33% mehr Performance bei vergleichbarer Leistungsaufnahme

Aber: ein Teil der besseren Perf/W kommt aus 12nm vs 16nm:
25% weniger Leistungsaufnahme sind es angeblich bei gleichem Takt und Design:
https://www.semiwiki.com/forum/f293/nvidia-announces-tesla-gv100-gpu-tsmc-12nm-ffn-9285.html

Verbleiben 10...15% Perf/W Erhöhung durch die mArch.

Allerdings auch nachvollziehbar, denn auch bei GPU mArchs greift das Gesetz des sinkenden Grenzertrags irgendwann mal - dann schmiegt man sich an eine Asymptote...

Der HBM bringt auch etwas und der niedrigere Takt bei breiterem Design ebenso.

Der_Korken
2017-12-13, 19:51:25
Im Luxx-Review werden ~1700Mhz als realer Takt für die TV angegeben. Das macht bei 5120SPs etwa 17,4TFlops/s, also 42% mehr als V64 (wobei mir die 12,3TF/1500Mhz für die Air-Variante schon etwas viel vorkommen). Bei doppelten fps hätte die TV also "nur" 40% mehr IPC* als V64.

Wenn man GP102 und GP100 hernimmt, kann man ungefähr sagen, dass man knapp 1/4 der Die-Fläche nur für Computing-Zeugs braucht, die im Gaming-Chip überflüssig sind. Durch die Tensor-Cores vllt noch ein bisschen weniger, sagen wir mal 30% weniger. Das macht dann 815*0,7=570mm² für einen hypothetischen GV102, der dann durch höheren Takt vllt nochmal 10-15% schneller ist als das, was wir bei der TV gesehen haben. Das könnte doch eine realistische Schätzung für GA102 sein.

*Bevor die Begriffsnazis wieder kommen: IPC steht hier für reale Leistung pro theoretischen Flop/s.

wolik
2017-12-13, 19:56:00
Kann mir eine sagen wieso testet man Titan V gegen 1080Ti und nicht gegen Titan Xp :confused:
Um das Titan V überhaupt ein chance hat auf erste Treppchen zu stehen? :biggrin:
Über SLI schweige ich lieber...;D

scully1234
2017-12-13, 19:58:38
lol die titan v liegt hier 120% vor der besten vega.

Und das bei einem Featureset womit eine Fraktion ständig am hausieren war, hoffentlich kehrt jetzt mal langsam wieder Normalität ein, in diesen Asynchronen Hype Zirkus.

Ich fürchte nur sie züchten schon das nächste Schwein was durchs Dorf getrieben wird.


Das könnte doch eine realistische Schätzung für GA102 sein.


Oder gar GA104 DIE sollte sich die Strukturgröße bei TSMC noch verändern...

Nach der Releasepolitik müsste auch erst der Kern kommen, und ca 20-30% auf den Vollausbau GP102 packen(in etwa das was wir jetzt mit der Titan V sehen), wenn man Maxwell/Pascal wiederholen kann

TobiWahnKenobi
2017-12-13, 21:30:26
Jup das ist mit OC und Async Compute nicht vergessen,das Game wurde von AMD als positiv Beispiel für Vega Performance gepimmt.


http://abload.de/img/nvidia-titan-v-sniper5qqlk.png

https://www.gamersnexus.net/guides/3170-titan-v-gaming-benchmarks-async-future-is-bright-for-volta/page-2

danke fürs verlinken, habe das auch grad auf meiner X (pascal) gegengetestet (lange bereiche der ersten mission mitgefrapst) und komme auf reproduzierbare 91fps avg und 67fps min. TV legt da out-of-the-box 30% drauf und 60% mit OC. im grunde nicht schlecht.. bis auf den haken mit der unerschwinglichkeit eigentlich das, was man von einer neuen titan ggü. der alten version erwartet. also ich zumindest..

btw,
mmn sind das nutzlose frames, solange verbreitete UHD-geräte auf 60Hz beschränkt sind, treibt das nur die abwärme und den stromverbrauch hoch. vor dem kontext allerdings schon irgendwie schade, dass es keine AMD-karte gibt, die es schafft, wenigstens die 60fps min zu erreichen.


(..)

mfg
tobi

vinacis_vivids
2017-12-13, 22:48:19
"high" Settings bei SE4 :facepalm: werden hier angebetet.

Wie gut AC angekommen ist, sieht man bei Doom:

https://abload.de/img/screenshot-2017-12-13p6og6.png
https://abload.de/img/screenshot-2017-11-29eqay5.png

Titan V@~1,75Ghz -> 17,9 Tflops (+43%)
Vega56@~1,75Ghz -> 12,5Tflops

Magere ~16% schneller als ne Vega56 taktnormiert. Die uArch ist Maxwell on Speed, hat sich nix verbessert was LL-API angeht.


Bonus:
https://abload.de/img/screenshot-2017-12-13gkjps.png

Ganze 3fps schneller als ne Custom Vega64, ich bin beeindruckt ..... not =)

scully1234
2017-12-13, 23:01:23
"high" Settings bei SE4 :facepalm: werden hier angebetet.

Wie gut AC angekommen ist, sieht man bei Doom:
.

:ucrazy2:


https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11575869&postcount=124

ist aber wahrscheinlich zu hoch für dich die Zusammenhänge zu begreifen ,du baust dir wieder deine eigene CPU limitierte V_V Realität

Warum posteste denn nicht Wolfenstein 2 aus dem selben Test oder stirbt dann die Argumentationskette weg;D

dildo4u
2017-12-13, 23:24:31
"high" Settings bei SE4 :facepalm: werden hier angebetet.

Vega kommt schon bei High nicht auf 60fps locked,der Bench hat in jedem Fall Sinn gemacht für die 500€ Karten.Natürlich muss man für Volta neue Setting's finden.

vinacis_vivids
2017-12-13, 23:30:28
1. Wo ist "Mein Leben"
2. keine Custom Vega64 drin? die ja so schnell ist wie 1080Ti Custom.

Volta ist halt ne Mogelpackung, ab und an ein paar cherry picks und lobhuddelei. Aber wenns hart auf hart ankommt, also GPU-Limit, dann kommt "poor Volta" zum Vorschein.

https://abload.de/img/screenshot-2017-12-13q1oau.png

scully1234
2017-12-13, 23:34:48
:popcorn:

kommst du schon wieder mit CPU Limit Benchmarks angedampft;D

jetzt fehlt nur noch Anno in deiner Belustigungstour

dildo4u
2017-12-13, 23:35:23
Der Chip ist einfach langsamer getaktet als die Gameing Karten dafür ist er halt breiter,und rockt daher nur mit Async Compute.
Volta ist nix anderes als das Gegenstück zu Vega,zu wenig Takt daher läufts kacke unter Dx11.(Beides sind Workstation GPU's)
Das ganze ändert sich mit dem Gameing Karten wo die Tensor Cores wegfallen wieder,da dort dann mehr Luft innerhalb des TDPs ist um wieder auf 1.8Ghz Boost zu kommen.

vinacis_vivids
2017-12-13, 23:49:39
Das Teil rockt höchstens Huangs Brieftasche.

Schaut euch die mageren Hitman, Witcher3, TheDivision usw. nochmals an. 5-20% im Härtefall schneller als 1080Ti FE. 15% vllt. im Schnitt. Das ist der Witz des Jahrhunderts. Noch nie hat eine neue uArch gegenüber dem Vorgänger so schlecht "zugelegt".

dildo4u
2017-12-14, 00:01:09
Entscheide dich mal du selber hast grad erst 25-30% gepostet.

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11576248&postcount=154

Volta ist das Ende für AMD,wenn man es runter Rechnet kommt eine 130Watt GPU auf den Speed einer 300 Watt AMD Karte.Was auch logisch ist wenn jetzt schon die 180 Watt 1080 mithält.

Der_Korken
2017-12-14, 00:08:29
Oder gar GA104 DIE sollte sich die Strukturgröße bei TSMC noch verändern...

Nach der Releasepolitik müsste auch erst der Kern kommen, und ca 20-30% auf den Vollausbau GP102 packen(in etwa das was wir jetzt mit der Titan V sehen), wenn man Maxwell/Pascal wiederholen kann

Das ist mir viel zu optimistisch. Volta ist doch schon in 12nm TSMC gefertigt, also das gleiche, was auch Ampere sehr wahrscheinlich verwenden wird. Da wird sich schon mal nicht viel tun. Alles, was Ampere gegenüber der TV effizienter ist (Perf/Watt und Perf/mm²) muss durch eine effizientere Architektur rausgeholt werden. Und da TV zumindest bei Perf/W nochmal deutlich zugelegt hat, glaube ich nicht, dass Ampere viel mehr bieten wird. Man kann eine bereits effiziente Architektur nicht alle 1-2 Jahre nochmal um 50% effizienter machen (bei gleicher Fertigung). Irgendwann ist sie ausoptimiert und der Ertrag nimmt rapide ab. Siehe Intels CPUs.

vinacis_vivids
2017-12-14, 00:24:30
Entscheide dich mal du selber hast grad erst 25-30% gepostet.

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11576248&postcount=154

Volta ist das Ende für AMD,wenn man es runter Rechnet kommt eine 130Watt GPU auf den Speed einer 300 Watt AMD Karte.Was auch logisch ist wenn jetzt schon die 180 Watt 1080 mithält.


Warum muss ich mich entscheiden? Das waren 2 Games@1440p

Ganze 3fps mehr als Vega64 bei Hitman4k oder 12fps mehr als Vega56@OC bei Doom4k ist halt "poor" für ne 3000€-"NextGen" GPU. =)

scully1234
2017-12-14, 00:37:26
Das ist mir viel zu optimistisch. Volta ist doch schon in 12nm TSMC gefertigt, also das gleiche, was auch Ampere sehr wahrscheinlich verwenden wird. .

waren da die 7nm nicht mal als Option im Gespräch


https://www.macrumors.com/2017/09/15/tsmc-7nm-advanced-info-2018/


the company's first 7-nanometer process node has already had several tape-outs (finalized designs) and expects to reach volume capacity in 2018

Nvidia ist ja nunmal nach Apple einer der Hauptkunden , und da hier von several tape outs die Rede ist...

Der_Korken
2017-12-14, 00:48:16
waren da die 7nm nicht mal als Option im Gespräch


https://www.macrumors.com/2017/09/15/tsmc-7nm-advanced-info-2018/




Nvidia ist ja nunmal nach Apple einer der Hauptkunden , und da hier von several tape outs die Rede ist...

OK, wenn 7nm dazukommen, dann ist das natürlich was anderes. Ich verfolge die Nvidia-Spekulationen nicht regelmäßig, deswegen war ich noch von 12nm und 1H2018 ausgegangen. Aber 7nm schon so früh? Hat zum Launch der ersten 14/16nm-Chips nicht jemand gesagt, dass der Node erstmal ne ganze Weile bleiben wird? Von 28nm auf 14/16nm hat es immerhin 4,5 Jahre gedauert ...

scully1234
2017-12-14, 00:50:44
Wird knapp da sie damals noch H2 als Massenproduktion angegeben hatten, der letzte Artikel auf Mac Rumor ließt sich da aber schon zuversichtlicher, wie die damalige Pressemeldung

http://www.patentlyapple.com/patently-apple/2017/05/tsmc-executive-says-theyre-testing-7nm-chips-for-12-top-customers-will-ramp-up-production-in-h2-2018.html

Von daher, und mit dem Wissen das Intel gerade versucht, in Nvidias Betätigungsumfeld einzudringen, könnten sie das Risiko möglicherweiße eingehen, um noch mehr Abstand zu gewinnen

N0Thing
2017-12-14, 00:55:45
Nvidia ist ja nunmal nach Apple einer der Hauptkunden , und da hier von several tape outs die Rede ist...

Entweder für einen neuen Tegra oder Tesla/Quadro-Chips, aber Mainstream GPUs auf einem Prozess, der normalerweise erst 12 Monate nach den Apple SoCs für GPUs erschwinglich wird? Ziemlich optimistisch.

scully1234
2017-12-14, 01:11:00
Ziemlich optimistisch.

Gewiss ,allerdings hätte auch damals niemand erwartet ,das Nvidia mit Volta so ein 815mm² Die auflegen würde, an der Grenze des machbaren

Auch ein Tegra ergibt Sinn, allerdings gekoppelt an das Pegasus Projekt, würde ich schon annehmen das man den GPU Part auch im selben Node fertigen tut,um die angestrebte Effizienz zu erreichen für die LV5 Boardcomputer , und da ist es dann auch nicht mehr so unwahrscheinlich einen GA104 aufzulegen auf der Fertigungsstrasse,wenn man so oder so schon Vorkehrungen getroffen hat

Wake
2017-12-14, 04:26:12
PCPer NVIDIA TITAN V Review Part 1: Gaming (https://www.pcper.com/reviews/Graphics-Cards/NVIDIA-TITAN-V-Review-Part-1-Gaming)

=Floi=
2017-12-14, 04:37:21
2. keine Custom Vega64 drin? die ja so schnell ist wie 1080Ti Custom.

weil es keine custom vega zu kaufen gibt?! ;D
Und die die gelistet sind kosten so viel wie eine 1080ti

hör auf mit gleich schnell wie 1080ti, weil das nicht stimmt!


DOOM ist wohl extrem limitiert. Da gibt es nichts weiter zu diskutieren.

Dural
2017-12-14, 08:30:43
Jungs der gv100 ist immer noch keine gaming gpu, die spiele treiber dürften überhaupt nicht für den gv100 optimiert sein. Zudem läuft die volta öfter auch mal im cpu limit.

In anbedracht dessen und das wir hier quasi den selben herstellungsprozess haben und das alles in 250w läuft ist die leistung wirklich gut.

Die genanten 130watt für vega leistung dürften sogar in etwa hinkommen. Was auch überzeugt, es ist unglaublich wie sich gv100 für seine grösse takten lässt, erst recht mit der rev. karte.

Bucklew
2017-12-14, 10:37:29
Die genanten 130watt für vega leistung dürften sogar in etwa hinkommen. Was auch überzeugt, es ist unglaublich wie sich gv100 für seine grösse takten lässt, erst recht mit der rev. karte.
Das wäre in der Tat ein Burner - und ein massives Problem für AMD.

Die Leistung von GV100 in Spielen ist auf jeden Fall krass, wenn man sich mal den Focus der GPU anschaut. Dazu der ganze Ballast wie FP64/FP16-FullSpeed, NVLink, TensorCores - und dann ist der Chip auf der TitanV nicht mal voll aktiviert ;D

X-Bow
2017-12-14, 11:23:13
Nein, wo denn? Die Karte knallt in Wolfenstein mal eben so mehr als +50% auf die Vega64 drauf. Da liegt man an Perf/Diesize über Vega, schließlich ist gut 3/4 des Chips deaktiviert ;D

In Perf/Watt liegt man um Meilen in Front. Angesichts dessen, was GV100 noch so mitschleppt und beim Gaming 0,0 nützt (FP64, TensorCores, NVLink usw. usf.) ist das mehr als nur beeindruckend.

Ich glaube nicht, dass AMD den Ampere-Release gelassen entgegen sieht.

Hä? Also wenn ich mir den Die anschau dann sind lediglich ~1/4 des Chips deaktiviert. Wie kommst Du auf 3/4?

Es ist nur beeindruckend, nicht mehr als beeindruckend wenn man begreift das quasi 0 IPC Verbesserung durch die Arch kommt (fast wie bei Vega vs. Fiji) und die Perf/W zum größten Teil "nur" durch den 12nm Prozess.

Sag mal, ist deine Welt zufällig ein Paralleluniversum zu v_v ?:eek:


@Scully1234: Also klar das die CPU Käse ist was Luxx da benutzt hat ist ohne jeden Zweifel, aber sollange die 1080Ti performancetechnisch normal weiter skalliert, und dies sogar über die Titan V hinaus, dann würde ich da eben nicht von einem absoluten CPU Limit sprechen. Vermutlich würde die Performance durch einen geeigneteren Unterbau besser aussehen, aber die der 1080Ti eben auch. Alles andere ist doch nur ein sich schön reden.

Ampere wird nicht in 7nm kommen, das kann ich mir beim beste Willen noch nicht vorstellen. So gern ich auch den Fortschritt in der Technik sehen würde, aber vor Q3/18 sehe ich keine Möglichkeit für Gaming-GPU' in 7nm.
Des weiteren sehe ich die Chancen für Ampere als "Gaming-Volta" abklatsch deutlich realistischer als das Ampere eine wirklich eigene Architektur ist. Wird dann bestimmt auch 11xx und nicht 20xx weil der Performance Sprung nicht sooo hoch ausfallen wird.

Bucklew
2017-12-14, 11:54:17
Hä? Also wenn ich mir den Die anschau dann sind lediglich ~1/4 des Chips deaktiviert. Wie kommst Du auf 3/4?
Stell dir vor: Beim Tippen einfach verdacht, soll mal vorkommen :rolleyes:

Es ist nur beeindruckend, nicht mehr als beeindruckend wenn man begreift das quasi 0 IPC Verbesserung durch die Arch kommt (fast wie bei Vega vs. Fiji) und die Perf/W zum größten Teil "nur" durch den 12nm Prozess.
Der Umstieg von 16 auf 12nm hat eine Perf/Watt Verbesserung von 50%? Halte ich für eine sehr gewagte These.

In Wolfenstein2 z.B. ist die Steigerung ggü der 1080Ti 55% - bei identischem Power Envelope.

Ist echt spannend, wie manche User eine GTX1080 bei 300W Leistungsaufnahme als großartige GPU aller Zeiten bezeichnen, aber die schnellste SingleGPU bei 250W soll ein Fail sein ;D

scully1234
2017-12-14, 12:31:48
@Scully1234: Also klar das die CPU Käse ist was Luxx da benutzt hat ist ohne jeden Zweifel, aber sollange die 1080Ti performancetechnisch normal weiter skalliert, und dies sogar über die Titan V hinaus, dann würde ich da eben nicht von einem absoluten CPU Limit sprechen. Vermutlich würde die Performance durch einen geeigneteren Unterbau besser aussehen, aber die der 1080Ti eben auch. Alles andere ist doch nur ein sich schön reden.
.
Vergleiche einfach nur mal als Beispiel den Witcher bei Ryan Shrout mit dem Quatsch der bei HWLuxx heraus kam in den ersten 19 Tests

https://www.pcper.com/image/view/88080?return=node%2F68910

Sehr schön zu sehen auch das sie je höher die Auflösung wird immer noch weiter zulegt trotz!! potenterer CPU

Der Chip ist also immer noch nicht an seinem Leistungslimit

Da ist nix mit schönreden die CPU in der Konstellation ist einfach nicht zu gebrauchen um die Leistungsdaten abzubilden

Dort wo sie selbst noch unter die Ti einknickt ist für die CPU der Verwaltungsaufwand selbst schon der Worst Case schlechthin

dildo4u
2017-12-14, 13:05:49
Die Karte scheint an der Bandbreite zu hängen wär echt mal interessant wie sie mit 4 Stacks performt.

http://abload.de/img/hellbaldeijq75.png

Bei PCPer nutzt sie nicht mal die 250 Watt aus,das ganze ist absurd effektiv.

Bei 220 Watt 100% schneller als Vega@350 Watt.

https://www.pcper.com/reviews/Graphics-Cards/NVIDIA-TITAN-V-Review-Part-1-Gaming/Gaming-Conclusions

Vega LC bei PCPER:

https://www.pcper.com/image/view/85438?return=node%2F68291

https://www.pcper.com/image/view/85437?return=node%2F68291

X-Bow
2017-12-14, 13:08:51
Stell dir vor: Beim Tippen einfach verdacht, soll mal vorkommen :rolleyes:

Ach so, hab mich eben wie bemerkt massive gewundert^^


Der Umstieg von 16 auf 12nm hat eine Perf/Watt Verbesserung von 50%? Halte ich für eine sehr gewagte These.

In Wolfenstein2 z.B. ist die Steigerung ggü der 1080Ti 55% - bei identischem Power Envelope.

Ist echt spannend, wie manche User eine GTX1080 bei 300W Leistungsaufnahme als großartige GPU aller Zeiten bezeichnen, aber die schnellste SingleGPU bei 250W soll ein Fail sein ;D

Nein, der Umstieg sind ungefähr 30% und ~20% durch die Architektur. Deswegen hab ich ja geschrieben "zum größten Teil" :wink:
Huch, den Teil meines Lebens habe ich wohl verpasst als ich die 1080 als "großartigste GPU aller Zeiten" bezeichnet hab ;)
Außerdem hab ich nie gesagt das Volta ein Fail ist, sondern das Volta einfach nicht ein gigantischer Sprung ist sondern moderate Verbesserung (auf Gaming bezogen!)

BlacKi
2017-12-14, 13:31:59
hat jemand ne ahnung mit welcher voltage volta boostet?

Achim_Anders
2017-12-14, 13:42:19
Stark dildo, vega@350W sind 4% Mehrleistung bei 20% mehr Stromverbrauch zu Vega @300W
Vega @250W macht es wahrscheinlich noch besser in perf./watt... Wenn auch nicht gut, lass doch vielleicht diese dämlichen Vergleiche ;)

Bucklew
2017-12-14, 14:08:52
Wenn auch nicht gut, lass doch vielleicht diese dämlichen Vergleiche ;)
Ganz ehrlich: Was kann er für die wahnwitzigen Taktspielchen von AMD? 350W ist eine Referenzkarte von AMD (Vega Liquid). Beschwer dich doch bitte in Sunnyvale.

Ex3cut3r
2017-12-14, 14:31:30
Also die Benchmarks von PCPer sind nicht schlecht, da wird oft 80-100% auf Vega Liquid 8GB draufgelegt. Fazit AMD ist mittlerweile 1,5 Gens zurück. ;D

BlacKi
2017-12-14, 14:45:46
Also die Benchmarks von PCPer sind nicht schlecht, da wird oft 80-100% auf Vega Liquid 8GB draufgelegt. Fazit AMD ist mittlerweile 1,5 Gens zurück. ;D
auch hier gilt volta ist keine gaming karte. ich erwarte in 4-6monaten einen ca 250mm² und ca 125w einen 300€ GA106 chip der es mit der vega liquid aufnimmt und mit OC dann davonzieht. die 1080 ist eben schon fast 2 jahre alt...

Ex3cut3r
2017-12-14, 14:59:36
auch hier gilt volta ist keine gaming karte. ich erwarte in 4-6monaten einen ca 250mm² und ca 125w einen 300€ GA106 chip der es mit der vega liquid aufnimmt und mit OC dann davonzieht. die 1080 ist eben schon fast 2 jahre alt...

Stimmt, das ist vollkommen Realtisch, und man muss eigentlich den Hut vor Nvidia ziehen, die ziehen ihr Ding eiskalt durch.

Der_Korken
2017-12-14, 16:04:20
auch hier gilt volta ist keine gaming karte. ich erwarte in 4-6monaten einen ca 250mm² und ca 125w einen 300€ GA106 chip der es mit der vega liquid aufnimmt und mit OC dann davonzieht. die 1080 ist eben schon fast 2 jahre alt...

Ich hätte eher die Sorge, dass Nvidia das Midrange-Teil trotzdem für 500€ verkauft, wenn es schneller als die 1080 ist.

scully1234
2017-12-14, 16:20:01
Wäre daselbe wie zum Gp104 Release wo die Flanders Edition raus kam

X-Bow
2017-12-14, 16:22:28
auch hier gilt volta ist keine gaming karte. ich erwarte in 4-6monaten einen ca 250mm² und ca 125w einen 300€ GA106 chip der es mit der vega liquid aufnimmt und mit OC dann davonzieht. die 1080 ist eben schon fast 2 jahre alt...

Na dann viel Spaß beim warten. Das was wir mit Volta gerade sehen wird in 4-6 Monaten 1180Ti sein, vllt noch paar % mehr aber das wars. nVidia wird mit Ampere schauen das die Preise gleich oder etwas höher auslegen können und dabei die Produktionskosten weitestgehend senken. Der Rest ergibt sich. Sprich vermutlich werden die Chips nicht viel Leistung mehr haben als aktuell, dafür aber kleiner werden damit die Abzo... äh Gewinnmarge größer wird. ;D

Bucklew
2017-12-14, 16:29:34
Ich hätte eher die Sorge, dass Nvidia das Midrange-Teil trotzdem für 500€ verkauft, wenn es schneller als die 1080 ist.
Sagen wir es mal so: Wäre das die Karte nicht wert?

Lowkey
2017-12-14, 16:31:22
Schau mal ... der hat nur eine Nvidia GTX 2060 "Midrange-500-Euro-Einsteiger-Lösung" ;)

rentex
2017-12-14, 16:31:47
Der beste Satz im PCP Review: Please. Listen to the words that I am typing to you. Do. Not. 😂

X-Bow
2017-12-14, 16:35:50
Sagen wir es mal so: Wäre das die Karte nicht wert?

Nein, egal wie schnell die Einsteigerlösung wird, sie muss "billig" sein. Und egal wie toll man eine Firma auch finden kann, das Sie eine Abzock-Gewinnmarge fährt ist nie gut. Denn die Firma versucht dann mit Absicht Dir zu schaden.

Bucklew
2017-12-14, 16:39:22
Nein, egal wie schnell die Einsteigerlösung wird, sie muss "billig" sein. Und egal wie toll man eine Firma auch finden kann, das Sie eine Abzock-Gewinnmarge fährt ist nie gut. Denn die Firma versucht dann mit Absicht Dir zu schaden.
Diese "Einsteigerlösung" liefert die Performance der HighEnd-Karte der Konkurrenz bei der Hälfte an Leistungsaufnahme - und ist sogar noch 100-200€ günstiger.

Und das soll dann Abzocke sein? ;D

Dieses Forum ist manchmal echt sowas von großartig skurril! :freak:

BlacKi
2017-12-14, 16:39:48
Na dann viel Spaß beim warten. Das was wir mit Volta gerade sehen wird in 4-6 Monaten 1180Ti sein, vllt noch paar % mehr aber das wars. nVidia wird mit Ampere schauen das die Preise gleich oder etwas höher auslegen können und dabei die Produktionskosten weitestgehend senken. Der Rest ergibt sich. Sprich vermutlich werden die Chips nicht viel Leistung mehr haben als aktuell, dafür aber kleiner werden damit die Abzo... äh Gewinnmarge größer wird. ;D
zunächsteinmal wird es wohl keine 2080ti vor 2019 geben.

ausserdem machen sie mehr profit damit, neue produkte an den man zu bringen, als gewinnmargen auszulutschen. wenn die GA106 500€ kosten wird, dann wechselt keiner. ergo verdient nvidia nix. deshalb glaube ich an einen 300€ preis für den GA106.

SRY für OT.

X-Bow
2017-12-14, 17:31:37
Diese "Einsteigerlösung" liefert die Performance der HighEnd-Karte der Konkurrenz bei der Hälfte an Leistungsaufnahme - und ist sogar noch 100-200€ günstiger.

Und das soll dann Abzocke sein? ;D

Dieses Forum ist manchmal echt sowas von großartig skurril! :freak:

Ach hast Du etwa schon eine daheim liegen? :eek:

Denn aktuell liefert die Einsteigerkarte in etwa so viel wie die Einsteigerkarte der Konkurrenz. Und wenn ich mir die aktuelle Performance der Volta anschaue dann ist die IPC nicht wirklich höher als bei Pascal. Das würde bedeuten das bei 250mm² landet die GA106 maximal auf 1070... und die schafft ja noch nicht einmal die kleine Vega der Konkurrenz. ;D

Meine These: GA106 wird 15% schneller als GP106, 10% teurer und 15% kleiner von der Fläche. Das nennt man Gewinnoptimierung. :D



E: @BlacKi: Das behaupte auch nicht ich das die 500€ kosten wird^^ Ich sag nur das wenn Vol..äh Ampere DER große Wurf wird, dann werden die nicht eine GA106 mit der Leistung der 1080 (ti) bringen sondern den Chip kleiner machen. Sodass mehr Leistung als 1060 vorhanden ist, aber die Produktionskosten geringer ausfallen.

BlacKi
2017-12-14, 17:35:39
Ach hast Du etwa schon eine daheim liegen? :eek:

Denn aktuell liefert die Einsteigerkarte in etwa so viel wie die Einsteigerkarte der Konkurrenz. Und wenn ich mir die aktuelle Performance der Volta anschaue dann ist die IPC nicht wirklich höher als bei Pascal. Das würde bedeuten das bei 250mm² landet die GA106 maximal auf 1070... und die schafft ja noch nicht einmal die kleine Vega der Konkurrenz. ;D

Meine These: GA106 wird 15% schneller als GP106, 10% teurer und 15% kleiner von der Fläche. Das nennt man Gewinnoptimierung. :D
SRY aber wieso ziehst du überhaupt schlussfolgerungen von volta auf ampere???

scully1234
2017-12-14, 18:54:13
Nein, egal wie schnell die Einsteigerlösung wird, sie muss "billig" sein. Und egal wie toll man eine Firma auch finden kann, das Sie eine Abzock-Gewinnmarge fährt ist nie gut. Denn die Firma versucht dann mit Absicht Dir zu schaden.

Sorry aber das fett markierte ist mal völliger Quatsch.Wie kann eine Firma dir schaden wenn du von ihr nichts kaufst,und wenn du kaufst und dann rumheulst,ist das ziemliche Heuchelei, denn du selbst hast es in der Hand,die Firma nur das Produkt

Und das Prozedere dazu nennt sich Marktwirtschaft/Angebot u Nachfrage

Sollte jedem einleuchten das der mit dem besten Produkt in weiter Flur auch den Preis diktiert

Und "schaden" kann die Firma nur dem, der sich damit arrangiert, weil ihm das geschnürte Paket passt

Warum man da immer wieder die Firmen für verantwortlich macht,das sie ihr Fell so teuer als möglich verkaufen,ist mir ein Rätzel

Keiner der das so sieht ,wird irgendwo erfolgreich ein Unternehmen führen, das ist mal absolut fakt

Das da draußen ist kein Streichelzoo, oder irgendeine verquerte marxistische Traumwelt, das ist immer noch der Kapitalismus mit all seinen Regeln

hq-hq
2017-12-14, 23:17:31
hat es anfangs nicht geheissen das Package (GV100) gpu+hbm würde in der Herstellung an die 1000USD kosten, von daher wären ~1250€ nie drin gewesen

und wenn jemand "schadet" dann wohl eher die Shareholder :biggrin:
naja von nix kommt nix

Wake
2017-12-15, 20:22:56
2 weitere Review-Artikel:
HotHardware NVIDIA TITAN V Review: Volta Compute, Mining, And Gaming Performance Explored (https://hothardware.com/reviews/nvidia-titan-v-volta-gv100-gpu-review)

PCPer NVIDIA TITAN V Review Part 2: Compute Performance (https://www.pcper.com/reviews/Graphics-Cards/NVIDIA-TITAN-V-Review-Part-2-Compute-Performance)

dildo4u
2017-12-16, 00:09:26
PCPer NVIDIA TITAN V Review Part 2: Compute Performance (https://www.pcper.com/reviews/Graphics-Cards/NVIDIA-TITAN-V-Review-Part-2-Compute-Performance)[/B]

Schätze mal Vega64=Vega FE oder kann die mehr?

http://abload.de/img/luxmark_0basen.png

http://abload.de/img/vray3yptl.png

https://www.pcper.com/reviews/Graphics-Cards/NVIDIA-TITAN-V-Review-Part-2-Compute-Performance/Rendering-and-Compute-Perfor

Bucklew
2017-12-16, 13:15:36
Warum werden einfach stillschweigend Postings gelöscht?

Meine These: GA106 wird 15% schneller als GP106, 10% teurer und 15% kleiner von der Fläche. Das nennt man Gewinnoptimierung. :D
Völliger Blödsinn. NVIDIA muss, um Ampere zu verkaufen, Pascal schlagen und das deutlich. AMD ist für die aktuell völlig egal, die sind bis Ende 2018 oder 2019 weg vom Fenster. NVIDIA muss Pascal-Besitzer zum Upgrade bewegen, das schafft man nicht mit 15% mehr. Volta zeigt ja schön, wo die Reise hin geht, 50% schneller als Pascal sollte das Ziel sein.

Unterlass also bitte das Trolling, es nervt.

Ultron
2017-12-16, 15:18:38
Beeindruckend! Ich denke in den Games, in der die TV zurück liegt, sind noch Treiberanpassungen notwendig.

Wird in 5 Monaten als 1180 Ti für ~900€ gekauft. Hoffentlich lässt sie sich unter kaltem Wasser gut takten. :D

Nur noch eine weitere Performance Verdopplung und wir haben UHD VR 3D mit 90fps =)

Lowkey
2017-12-16, 16:14:05
Naaaa... Volta ist auf Ampere schlecht umzurechnen. Ampere ohne HBM2 und ohne die Masse an Shadern wird anders. Die 15-30% Mehrleistung sind Pflicht.

Edgecrusher86
2017-12-17, 19:54:13
Heute sind einige Rekorde gefallen - Vor allem Slinky PC (HWBot - H2o vs. Ln2 (http://hwbot.org/user/h2o_vs_ln2/)) hat wieder zugeschlagen:


VRMark - Blue Room - 5480 marks - Titan V @ 2092/1077MHz (http://hwbot.org/submission/3737067_)

3DMark - Fire Strike - 34961 marks - Titan V @ 2092/1082MHz (http://hwbot.org/submission/3736862_)
3DMark - Fire Strike Extreme - 19194 marks - Titan V @ 2077/1067MHz (16.12.) (http://hwbot.org/submission/3736895_)
3DMark - Fire Strike Ultra - 9937 marks - Titan V @ 2092/1067MHz
(http://hwbot.org/submission/3737040_)
3DMark - Time Spy - 16368 marks - Titan V @ 2075/2106MHz (14.12.) (http://hwbot.org/submission/3734174_)
3DMark - Time Spy Extreme - 8424 marks - Titan V @ 2070/1053MHz (http://hwbot.org/submission/3737000_)


4K Game-Benchmarks maxed out mit solchen Taktraten wären ganz interessant. :D

E: Es waren keine Pics mit der V - aber sicherlich auch GPU-only Wakü. ;)


Außerdem neue Videos von Gamers Nexus:
TITAN V Hybrid Mod Build: Liquid Cooling a $3000 GPU (https://www.youtube.com/watch?v=jrAIb7o-6lE)
Live: Titan V - Attempting World Record Overclock (Top 10) (https://www.youtube.com/watch?v=vC69FzVu5WU)

Die V mit AiO wird später noch einen Shunt-Mod bekommen. ;)

scully1234
2017-12-17, 20:26:00
Danke Edge:up:

Die rennt also genau so weit wie der kleine Pascal

Edit: von der Taktrate meine ich




Außerdem neue Videos von Gamers Nexus:
TITAN V Hybrid Mod Build: Liquid Cooling a $3000 GPU (https://www.youtube.com/watch?v=jrAIb7o-6lE)
Die V mit AiO wird später noch einen Shunt-Mod bekommen. ;)


Der hat Eier in der Hose gleich mal geliked:D

Edgecrusher86
2017-12-17, 20:40:53
Bitte sehr der Herr - ja, es ist schon enorm, dass das Monster auch so gut geht. ;)
Eventuell hat er die Karte ja schon einem Shunt-Mod unterzogen, fallen die Taktraten doch einiges höher als bei Nexus (2017-2040 MHz im FireStrike) mit AiO aus. Und sollte Slinky was abrauchen, er hat ja noch mindestens 3 weitere V. Oder einfach eine gute Lotterie. :freak:

E: Ja, auf jeden Fall. Sehr couragiert von Steve für das gemeine Volk so etwas an einer 3100€ Karte durchzuführen. :biggrin:

GSXR-1000
2017-12-18, 07:29:34
Bitte sehr der Herr - ja, es ist schon enorm, dass das Monster auch so gut geht. ;)
Eventuell hat er die Karte ja schon einem Shunt-Mod unterzogen, fallen die Taktraten doch einiges höher als bei Nexus (2017-2040 MHz im FireStrike) mit AiO aus. Und sollte Slinky was abrauchen, er hat ja noch mindestens 3 weitere V. Oder einfach eine gute Lotterie. :freak:

E: Ja, auf jeden Fall. Sehr couragiert von Steve für das gemeine Volk so etwas an einer 3100€ Karte durchzuführen. :biggrin:
Jo der hat schon soooooooooo balls of steel.
Der wird ja auch kaum gesponsort und verdient nebenbei sein geld mit der show...aber heldenverehrung ist angebracht. Davon lebter ja schliesslich.

Edgecrusher86
2017-12-18, 10:37:18
Keine Heldenverehrung - nur der, der die meisten Videos zur Karte im Netz dreht und somit auch interessante Infos zur Karte beisteuert. ;)

Thunder99
2017-12-18, 12:40:29
Wahrscheinlich abartigen Verbrauch bei dem Takt ;D

Edgecrusher86
2017-12-18, 13:26:30
NVidia's 16-Phase Titan V VRM Analysis & Shunt Mod Guide (https://www.youtube.com/watch?v=xDJKgarGp6Y)

Buildzoid analyzes the nVidia Titan V PCB & VRM, along with some information on a potential shunt mod for the card (using liquid metal).

scully1234
2017-12-18, 15:48:18
Keine Heldenverehrung - nur der, der die meisten Videos zur Karte im Netz dreht und somit auch interessante Infos zur Karte beisteuert. ;)

Genau ich sehe ihn da auch derzeit ziemlich allein auf weiter Flur, die anderen Tests der Karte beschrenken sich da bisweilen nur auf das übliche

Steve liefert da Enthusiasten Content abseits des Mainstream, und dafür gibts natürlich nen Daumen hoch

BlacKi
2017-12-18, 16:16:02
naja, bei ihm stimmt so die richtung in die er geht, aber er selbst hat kaum erfahrung, wo er hoffentlich bald schnell aufholt. aka world's smallest heatpipe XD

scully1234
2017-12-18, 21:13:59
Bastellösung ade hello Full Cover

EKWB Support (Keenan) (EKWB Support)
Dec 12, 19:57 CET
Hello Jordan,

Thank you for contacting us,
Yes, we do have plans of making a water block for this card. Sadly we don't have any ETAs yet as it is still in development but I hope we will offer it soon.

Best regards, Keenan (http://www.overclock.net/t/1643589/waterblock-for-titan-v#post_26496589)

Raff
2017-12-19, 13:47:02
Hat hier echt noch niemand zugeschlagen? Wenigstens bestellt? Das sollte Nvidia zu denken geben. ;)

MfG,
Raff

Dampfkanes
2017-12-19, 13:50:56
ich hab (seit gestern dann sogar ausgepackt), bin hier aber nicht besonders aktiv. Eigentlich nur lesend.
Bin eher im Hardwareluxx zuhause.

wohl sogar nur 10km von der Redaktion entfernt.;)

scully1234
2017-12-19, 14:49:06
Hat hier echt noch niemand zugeschlagen?

MfG,
Raff

Ich darf nicht die Frau will 2018 nach Kuba mit unserer Tochter::)

Die „Planfinanzierung“ hat also eine beträchtliche Lücke...

Edgecrusher86
2017-12-19, 15:11:40
Zu denken geben? Eigentlich nicht, denn bezüglich ihrer Kernkompetenzen AI und FP64 ist die V ein Schnäppchen verglichen mit der V100-PCI-E 16GB mit grob 11k Euro.

Die Zentrale des Wahnsinns bezüglich Besitzer ist ganz klar Overclock.net. 😎

Hätte ich das doppelte oder dreifache Gehalt (inkl. Weihnachtsgeld ^^), ich hätte sofort bestellt. Dann wäre es nur schade, dass kein SLI geht. 😂

Nun ja, auf Ampere TITAN zu warten, ist deutlich besser als Gamer. Hoffentlich ist sie nicht mehr als halb so teuer wie die V.

So macht der Kauf keinen Sinn, selbst wenn es möglich wäre. Das ist ähnlich sinnvoll wie ein 7980XE im Zocker-System, wo locker 20T Däumchen drehen. OK, im Vergleich leistet die V sicher mehr bezüglich fps, aber fast den 3-fachen Xp CE Preis ist es dennoch nie wert. Eventuell als Enthusiast bei doppelter Leistung. 😀

Mal etwas Anderes: Können es in manchen Titeln vielleicht vorkommen, dass die ROPs limitieren? Da, wo man zum Beispiel nur 15-20% über Pascal landet. Die teure TESLA hat ja mit 128 Einheiten 1/3 mehr.
Die Bandbreite ist ja nicht so schlecht im Verhältnis zu GP102, vor allem mit OC bei 750-800+ GB/s.

donjulio
2017-12-19, 18:02:51
Die NVIDIA Titan V auf heimischen Boden: https://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/45255-die-nvidia-titan-v-im-workstation-und-compute-einsatz.html

Dural
2017-12-20, 09:33:38
Der GV100 ist unglaublich, fast im gleichen Herstellungsprozess und lässt den "alten" GP100 quasi stehen und das bei gleichem Verbrauch.

und die unglaubliche stärke bei Deep Learning ist ja der Wahnsinn :eek:

Nvidia sind einfach die einzigen die regelmässig noch solche Wow Effekt hinbekommen, bei allen anderen kommt nur noch standardkost.


Mal etwas Anderes: Können es in manchen Titeln vielleicht vorkommen, dass die ROPs limitieren? Da, wo man zum Beispiel nur 15-20% über Pascal landet. Die teure TESLA hat ja mit 128 Einheiten 1/3 mehr.
Die Bandbreite ist ja nicht so schlecht im Verhältnis zu GP102, vor allem mit OC bei 750-800+ GB/s.

Davon kann man sicher ausgehen, es ist ja nicht nur die Anzahl der ROPs weniger, sondern die Takten auch geringer. Weiss man ob der Chip 128ROPs hat? Oder sind es nur 96? Logisch wären ja 128ROPs mit den 16GB Speicher.

robbitop
2017-12-20, 11:07:51
Naja. Der Anteil an Mehrleistung kommt von linear mehr Transistoren. Der 12 nm Prozess und HBM reduzieren jeweils die Leistungsaufnahme. Ausgehend von Pascal ist seitens perf/W rein bezogen auf mArch jetzt auch nicht sooo unglaublich viel passiert. Maxwell brachte ordentlich mehr Perf/Transistor.

Troyan
2017-12-20, 11:24:51
Die Aussage macht keinen Sinn. GP100 verwendet auch HBM und GV100 ist ohne Mehrverbrauch erheblich schneller.

Im Luxmark ist Titan V 80% schneller als GP100: https://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/45255-die-nvidia-titan-v-im-workstation-und-compute-einsatz.html?start=1

Die komplette Architektur von Volta ist abseits jeder Realität.

robbitop
2017-12-20, 11:56:09
OK - kein hbm für gp100 aber 12 nm. Der spart ggü 16 nm wohl nicht unerheblich Leistungsaufnahme ein.

Die höhere Mehrperformance in Computeanwendungen kommt durch das hohe Investment in Double Precision ALUs.

AffenJack
2017-12-20, 12:25:42
Niemand weiß wieviel 12nm gegenüber 16nm spart. Es gibt nur Nummern für 12FFC vs 16FFC. Aber 16FF+ ist wohl an sich schon besser als 16FFC. Dazu hat Nv nichtmal den Standard 12FFC Prozess. Daher kann der Großteil genauso von der Architektur kommen. Wir wissen es einfach nicht.

Nein, die hohe Mehrperformance kommt wohl durch den neuen großen und schnellen L1. DP hatte GP100 auch. Überall wo mehr als 40% Mehrleistung rauskommen ist es der neuen Cachearchitektur geschuldet.

PHuV
2017-12-20, 13:01:24
Hat hier echt noch niemand zugeschlagen? Wenigstens bestellt? Das sollte Nvidia zu denken geben. ;)
Da mich DeepLearing und Co. nicht so interessiert, ist die Mehrausgabe eher nicht angebracht. Obwohl, mehr FPS in Witcher 3... :uponder:...

Dural
2017-12-20, 16:43:47
ganz ehrlich, wenn das teil 16GB hätte und die GPU voll aktiv wäre, würde ich die 3000.- wohl hinlegen. :freak:

das sollte NV zu denken geben :wink:

Der_Korken
2017-12-20, 17:15:32
Nein, die hohe Mehrperformance kommt wohl durch den neuen großen und schnellen L1. DP hatte GP100 auch. Überall wo mehr als 40% Mehrleistung rauskommen ist es der neuen Cachearchitektur geschuldet.

Da mich das gerade interessiert, habe ich mal ins Volta Whitepaper geschaut: 128kB Speicher als L1 und shared memory pro SM. Das macht 21MB10,5MB L1, wenn man alle 84 SMs zusammenrechnet. Dazu insgesamt 6MB L2. Das kommt mir im Vergleich zu CPUs extrem wenig vor. Ryzen ist nur 1/4 so groß, hat aber fast genauso viel deutlich mehr Datencache (20,25MB um genau zu sein). Warum verbaut man nicht größere und mehr Cache-Stufen in einer GPU? Bringt das zu wenig? Fläche kostet es ja kaum im Vergleich zu der monströsen Größe von Highend-GPUs, man könnte bestimmt locker 32MB LLC verbauen.

fondness
2017-12-20, 19:18:37
In Spielen exakt 19,7% schneller wie eine TITAN Xp:
https://www.3dcenter.org/news/erste-spiele-benchmarks-der-titan-v-sehen-gut-20-mehrperformance-zur-titan-xp

5CH4CHT3L
2017-12-20, 20:20:59
In Spielen exakt 19,7% schneller wie eine TITAN Xp:
https://www.3dcenter.org/news/erste-spiele-benchmarks-der-titan-v-sehen-gut-20-mehrperformance-zur-titan-xp
als
(muss leider sein sorry)

Wake
2017-12-20, 23:35:43
Anandtech hat mittlerweile auch ein Preview (https://www.anandtech.com/show/12170/nvidia-titan-v-preview-titanomachy) welches Compute- und Gaming-Leistung im Vergleich zu den anderen Titans betrachtet.

deekey777
2017-12-21, 10:09:39
Anandtech hat mittlerweile auch ein Preview (https://www.anandtech.com/show/12170/nvidia-titan-v-preview-titanomachy) welches Compute- und Gaming-Leistung im Vergleich zu den anderen Titans betrachtet.
- Das ist ein Monster, bringt es um!
- Das ist kein Monster, das ist die Titan V!
- Oh, unsere Titan V, bringt sie um!

Hübie
2017-12-21, 13:41:14
In Spielen exakt 19,7% schneller wie eine TITAN Xp:
https://www.3dcenter.org/news/erste-spiele-benchmarks-der-titan-v-sehen-gut-20-mehrperformance-zur-titan-xp

Als!
Fünf Spiele, ein Benchmark wovon ein Spiel (Wildlands) nicht skaliert (warum interessiert dich ja nicht:confused:) und abgesehen von Hellblade schon ziemlich angestaubt sind (SE4 ist von Anfang 2017, grenzwertig). Doom 2016.

Kurz: Keine voreiligen Schlüsse ziehen, da der Treiber wohl noch etwas Zeit braucht. :wink:

Bucklew
2017-12-21, 13:50:02
Bei OC sogar +40%. Da ist noch ordentlich Luft nach oben.

Für einen HPC-Chip mit TensorCores, NVLink, FP64 ist das schon ziemlich ordentlich. Den Ballast weg, da wird Ampere der Hammer :cool:

robbitop
2017-12-21, 13:57:03
Takt- und Einheitennormiert ist das Ding in Spielen auf Pascal Level. Nichts atemberaubendes im aktuellen Zustand. Wobei der Treiber sicher nicht das Potenzial abschöpft. Die Frametimes sagen das ja schon in einigen Tests.

TGKlaus
2017-12-21, 18:21:59
Hat hier echt noch niemand zugeschlagen? Wenigstens bestellt? Das sollte Nvidia zu denken geben. ;)


Wenns nicht so ein VRAM-Krüppel für den Preis wäre, hätte ich darüber nachgedacht. Zumindest temporär.

Dann hätte der Spaß halt paar hundert Euro gekostet (Zeitwertwertlust).

Dieses verkrüppeln was Nvidia macht ist einfach Scheiße.
Siehe auch die 1080 Ti mit 11 lol GB

11 GB ist keine Optimierungsstufe und wird nie eine werden.
Und bei 12 GB ist das bestenfalls ne 50:50 Chance.

Hübie
2017-12-21, 18:27:58
Also wenn wir von Spielen sprechen, sehe ich da wenig bis keine Probleme, da moderne APIs ja mehr direkte Kontrolle zulassen. Wird halt abgefragt wie viel da ist und dann eben X/n-tel allokiert. Das ist ja eher ne Zwangsmaßnahme zur Gewinnmaximierung bedingt durch das strikte Crossbar-Design. Die haben da also keine Wahl bei ihrer Ausschussware. Aber wenn man eben Effizienz will muss man Opfer bringen. ;)

TGKlaus
2017-12-21, 18:57:11
Ich hatte ne Zeit lang ne FE zum ausgiebigen "testen". (Mit Adrenalin läuft die FE allerdings gerade nicht so rund.)

Die 16GB waren /sind echt nice.

Die Titan hat mehr Power. Da wären die 16GB gut angelegt.

So ist das etwas wie die Wahl zwischen Not und Elend.

Klar - Meckern auf hohen Niveau, aber da ist ja auch der Preis. :wink:

dildo4u
2017-12-22, 15:03:19
PCPER Deep Learning Tests.

https://www.pcper.com/reviews/Graphics-Cards/NVIDIA-TITAN-V-Review-Part-3-Deep-Learning-Performance

TGKlaus
2017-12-22, 21:41:44
Naja, die Balken sind lang. Wirklich effektiv nutzen läßt sich nicht viel davon.

Wenn in der nächsten Generation die nativ berechenbare Matritzengröße 7 oder noch besser 9 ist/ wäre. Würde man Nvidia die Dinger aus der Hand reißen. Da würde der Chip definitiv nicht im Gamingbereich verramscht werden.

So ist die Frage, ob bis dahin nicht vielleicht ein ASIC das besser und/oder preiswerter macht.
Z.B. der von Jim Keller oder die Eigenentwicklung von Google?
Auch Facebook forscht selbst in der Richtung.

Die Konkurrenz hier wird in kürzester Zeit riesig sein. Einfach weil der zu erwartende Markt absolut gigantisch ist.

Edit: Ich hab INTEL vergessen. Aber nach dem, was man in der Branche hört, hängen die weit zurück. Bekannt geworden sind hier bisher nur Fehlschläge.

Hübie
2017-12-22, 22:37:22
GPUs haben immer noch den Vorteil viele Bereiche abdecken zu können. Also nicht nur Training und Inference sondern auch Rendering. Dazu hat man ja noch Video-Fähigkeiten.

dildo4u
2017-12-22, 22:59:23
Naja, die Balken sind lang. Wirklich effektiv nutzen läßt sich nicht viel davon.

Wenn in der nächsten Generation die nativ berechenbare Matritzengröße 7 oder noch besser 9 ist/ wäre. Würde man Nvidia die Dinger aus der Hand reißen. Da würde der Chip definitiv nicht im Gamingbereich verramscht werden.

So ist die Frage, ob bis dahin nicht vielleicht ein ASIC das besser und/oder preiswerter macht.
Z.B. der von Jim Keller oder die Eigenentwicklung von Google?
Auch Facebook forscht selbst in der Richtung.

Die Konkurrenz hier wird in kürzester Zeit riesig sein. Einfach weil der zu erwartende Markt absolut gigantisch ist.

Edit: Ich hab INTEL vergessen. Aber nach dem, was man in der Branche hört, hängen die weit zurück. Bekannt geworden sind hier bisher nur Fehlschläge.
Volta steht doch komplett alleine da was FP 64 angeht,die Tensor Cores sind nur die Sahne auf der Torte.

https://www.pcper.com/image/view/88122?return=node%2F68915

https://www.pcper.com/image/view/88117?return=node%2F68915

https://www.pcper.com/image/view/88125?return=node%2F68916

Die letzte Titan bei der FP 64 nicht extrem beschnitten war ist von 2014.
Die Titan Black hatte 1.7 Tflops unter FP 64,Titan V 6.9 Tflops.

https://en.wikipedia.org/wiki/Volta_(microarchitecture)

scully1234
2017-12-23, 01:41:23
Volta steht doch komplett alleine da

Merkst du nicht das er nur versucht zu relativieren, und das nicht sonderlich von Erfolg gekrönt =)

TGKlaus
2017-12-23, 10:26:32
Volta steht doch komplett alleine da was FP 64 angeht,

Das stimmt. Mir ging es um die Tensor Cores.

Der Anwendungsbereich dieser wird einfach riesig werden.

Mehrere R&D Abteilungen bei uns im Konzen würden Ihre Großmütter (und teils auch Ehefrauen) verkaufen, wenn die von mir genannten Größen nativ berechnet werden könnten.

Wenn hier Nvidia zeitnah nachschieben könnte, gern auch mit deutlich weniger Shadern ... => Goldgrube

Hübie
2017-12-23, 17:07:22
Jetzt muss ich mal ganz doof fragen: Was ist aktuell die höchste Matrizengröße und welche Hardwarekomponenten beeinflussen diese Fähigkeit (Register, Rasterfrontend aka GPC, Anzahl der SM samt Dispatcher etc...?)?

TGKlaus
2017-12-25, 03:42:49
Die Frage ist falsch gestellt. Aber ich denke das weißt du selber.
Du kannst selbst mit nem Ra-Pi "fette Matrizen" berechnen.

Wenn wir wirklich darüber diskutieren wollen.
Schau dir die (einzigartigen) Möglichkeiten an, die GV100 in dem Bereich bietet.
Führ dir das White-Paper zu Gemüte.

Ich geb dann gern ein paar praktische Einblicke.
Wie Grenzen durch die derzeitig Implementierung und zuk. Möglichkeiten.
Michwegen mit echten Praxisanwendungen von "KI" und DeepLearning (und das nicht nur als Schlagwort und Marketing Gesülze)


Edit:

Funfact von Nvidia --- der Lacher überhaupt:

Nvidia untersagt Deep Learning auf Geforces (betrifft auch die Titan V)

BlacKi
2017-12-25, 03:59:02
quelle? danke.

rentex
2017-12-25, 07:34:09
https://www.golem.de/news/treiber-eula-nvidia-untersagt-deep-learning-auf-geforces-1712-131848.html