PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Titan V


Seiten : 1 [2]

AffenJack
2017-12-25, 08:42:16
https://www.golem.de/news/treiber-eula-nvidia-untersagt-deep-learning-auf-geforces-1712-131848.html

Macht golem jetzt einen auf Bild-Zeitung? Die Überschrift hat nur mäßig was mit dem Inhalt der Eula zu tun. Nv untersagt den Einsatz in Datenzentren von Geforce Produkten. Das wars dann aber auch. Wie Marc sich daraus den Rest zusammendichtet ist mir unklar.

TGKlaus
2017-12-25, 10:45:12
Das wars dann aber auch. Wie Marc sich daraus den Rest zusammendichtet ist mir unklar.

Aus Veröffentlichen von Firmen wie SAKURA, welche u.a. ihre shareholder warnen, von Nvidia angeschrieben worden zu sein, zbgl ihrer 4-GPU Systeme auf Titanbasis (inkl. Pascal u. Maxwell) und deren Nutzung.

AffenJack
2017-12-25, 10:57:40
Jo, weil die massenweise Geforces in Datenzentren einsetzen. Da schiebt Nv nun einen Riegel vor, indem in Datenzentren Teslas genutzt werden müssen laut Lizenz. Mit Deap Learning hat das immernoch nix zutun, außer das einige in Datenzentren nun für Deap Learning Teslas statt wie vielleicht gehofft Titan V einsetzen müssen. Am Einsatzzweck der Titan V in Universitäten oder Start-ups in Desktops ändert das gar nix, obwohl golem das mit dem Artikel suggerieren will.

Wie auch immer das Nv prüfen will, ob das hier überhaupt rechtlich durchsetzungsfähig oder wie böse Nvidia doch ist kann man alles gerne diskutieren. Aber leider ist der Kerninhalt der News einfach falsch.

TGKlaus
2017-12-25, 11:08:23
Kannst ja gerne bei DeepLearning / KI 1-GPU Systeme nutzen und dich damit lächerlich machen.


Des weiteren für Unis, welche Üblicherweise Kooperationen mit Unternehmen haben (denn fast ausschließlich so kommen Sie heutzutage an moderne Systeme) ist das eine Katastrophe.

Ich brauch da nur an die Kooperationen denken, die wir übers Fraunhofer haben ...

Sieht aus, als wirds im Januar verdammt stressig für mich.

AffenJack
2017-12-25, 11:28:48
Du kannst dir auch 4 Titan V in einen Rechner packen, dann biste immerhin schon bei einem halben DGX-1, welcher oft einzeln genutzt wird. Selbst wenn du davon 2,3 hast, ist das noch immer kein Rechenzentrum und es wird niemand was sagen. Im richtigen rechenzentrum bei uns an der Uni haben wir dagegen Teslas.

Haben Fraunhofer nur Geforcegpus in ihren Datenzentren oder was willst damit sagen?

TGKlaus
2017-12-25, 12:47:35
Selbst wenn du davon 2,3 hast, ist das noch immer kein Rechenzentrum

Aha. Und das gibst du rechtsverbindlich?
Und trägst sämtliche Kosten falls das Nvidia anders sieht?
Alles klar, dann gib mal deine Kontakdaten!



Haben Fraunhofer nur Geforcegpus

:facepalm:


Das nur ist scheißegal. Tatsache ist, das diese auch genutzt werden. Und gerade in den Technologiezentren der Unis.
Und zwar massenweise, seit Nvidia sich gezwungen sah wg VEGA den PRO-Treiber für die Titan freizugeben.
Wir reden hier über Größenordnungen von Titan (P).


Aber das ist ja alles kein Problem. Du deckst ja jetzt die NEUEN, NACHTRÄGLICHEN RISIKEN ab.

scully1234
2017-12-25, 13:03:05
Jo, weil die massenweise Geforces in Datenzentren einsetzen. Da schiebt Nv nun einen Riegel vor, indem in Datenzentren Teslas genutzt werden müssen laut Lizenz. Mit Deap Learning hat das immernoch nix zutun, außer das einige in Datenzentren nun für Deap Learning Teslas statt wie vielleicht gehofft Titan V einsetzen müssen. Am Einsatzzweck der Titan V in Universitäten oder Start-ups in Desktops ändert das gar nix, obwohl golem das mit dem Artikel suggerieren will.



Titan V fällt doch gar nicht mehr unter das Geforce Label,genausowenig wie die Titan XP...

Von daher müsste da erstmal geklärt werden ,ob diese auch im Fokus ist, wenn dort von Geforce die Rede ist

Nvidia wirbt dort zudem aktiv mit folgendem

FÜR VOLTA OPTIMIERTE SOFTWARE
Grafikprozessorbeschleunigte Frameworks und Anwendungen

Datenwissenschaftler müssen häufig zwischen der Realitätsnähe eines Modells und längeren Einsatzzeiten abwägen. Da verschiedene CUDA- und NVIDIA Deep Learning SDK-Bibliotheken wie cuDNN, NCCL, und TensorRT für Volta optimiert sind, können die branchenweit wichtigsten Frameworks und Anwendungen die Leistung von Volta ganz einfach nutzen. So gelangen Datenwissenschaftler und Forscher schneller als je zuvor zu wertvollen Erkenntnissen.

x-force
2017-12-25, 13:07:09
euch ist schon klar, daß die lizenz vor dem kauf einsehbar sein muss?
da sind bisher die meisten raffzähne dran gescheitert, weil sie nicht wissen, daß sie nicht bedingungslos in d gültig ist.

Fisch
2017-12-25, 13:13:50
2.1 Rechte und Beschränkungen der Lizenzgewährung: NVIDIA gewährt dem Kunden hiermit mit folgenden Einschränkungen eine nicht ausschließliche, nicht übertragbare Lizenz für die Installation und Nutzung der SOFTWARE in Verbindung mit Hardwareprodukten mit NVIDIA GeForce- oder Titan-Branding im Eigentum des Kunden:
Gilt also auch für Titan.
Haben die open-source Treiber unter linux die gleiche EULA?

AffenJack
2017-12-25, 13:26:15
Aha. Und das gibst du rechtsverbindlich?
Und trägst sämtliche Kosten falls das Nvidia anders sieht?
Alles klar, dann gib mal deine Kontakdaten!

Stell ne Anfrage an Nvidia, ich zweifle, dass die sich da groß drum scheren werden. Falls doch, dann ist es ein Problem.


Das nur ist scheißegal. Tatsache ist, das diese auch genutzt werden. Und gerade in den Technologiezentren der Unis.
Und zwar massenweise, seit Nvidia sich gezwungen sah wg VEGA den PRO-Treiber für die Titan freizugeben.
Wir reden hier über Größenordnungen von Titan (P).


Der Pro-Treiber ist nicht freigegeben, sondern einige Workstationprogramme laufen schneller. Der großteil davon sind eh Programme, die nicht in einem Datenzentrum eingesetzt werden. Mal abgesehen davon, dass in den paar Monaten bestimmt keine Größenordnungen an die Unis nur deswegen gegangen sind. Dafür sind Unis viel zu träge.

Titan V fällt doch gar nicht mehr unter das Geforce Label,genausowenig wie die Titan XP...

Von daher müsste da erstmal geklärt werden ,ob diese auch im Fokus ist, wenn dort von Geforce die Rede ist

Nvidia wirbt dort zudem aktiv mit folgendem

Der Treiber ist der Geforcetreiber. Also auch für titan, aber eben für Datacenter und damit eher kaum für jede x-beliebige Titan, die Leute sich reinschrauben, sondern eher um den großen Stil.

Golem hat seine News übrigens auch geändert, so wie sie jetzt ist, ist sie gut und man müsste nur auf ne Stellungnahme von Nv warten, was sie als Datacenter definieren.

TGKlaus
2017-12-25, 13:44:58
Der Pro-Treiber ist nicht freigegeben,

Klar gibts seit ein paar Monaten den PRO-Treiber für die Titan (P).
Also laber nicht, das ist ein Fakt.


Mal abgesehen davon, dass in den paar Monaten bestimmt keine Größenordnungen an die Unis nur deswegen gegangen sind. Dafür sind Unis viel zu träge.

Hier gehts nicht darum, das die Uni ihren Studenten irgendwas hinstellt.

Hier gehts um Wirtschaftskooperationen. Und da werden die Verträge geschlossen, sobald die Finanzierungszusagen der Unternehmen da sind und das oft genug durch den Einkauf eines der / des Unternehmens da diese zumeist deutlich bessere Konditionen bekommen.

Und entscheidend dabei ist der Moment der Unterschrift und nicht, wenn z.B. ein "größeres Maschinchen" gebaut wird, der Zeitpunkt zu dem es dann einsatzbereit ist.

basix
2017-12-29, 10:28:42
Takt- und Einheitennormiert ist das Ding in Spielen auf Pascal Level. Nichts atemberaubendes im aktuellen Zustand. Wobei der Treiber sicher nicht das Potenzial abschöpft. Die Frametimes sagen das ja schon in einigen Tests.

Aus meiner Sicht ist das erstere relativ egal. Der wesentlich wichtigere Punkt ist Energieeffizienz, weil das definiert die Leistungsobergrenze.

Und ausserdem: Sobald viel Compute im Spiel ist, ist die Titan V wesentlich schneller als eine Pascal Karte (siehe z.B. Superposition Benches). Bei Hellblade sind es ebenfalls mehr als 35% gegenüber einer Xp.

Was mich eher ein wenig wundert sind die stark schwankenden min. FPS Werte. Zum Teil da, wo man sie erwarten würde. Zum Teil grottenschlecht. Ist evtl. noch zu wenig Treiberliebe eingepflegt worden oder sonst ein Problem evtl. aufgrund HBM anstatt GDDR?

Birdman
2017-12-29, 12:09:35
Was mich eher ein wenig wundert sind die stark schwankenden min. FPS Werte. Zum Teil da, wo man sie erwarten würde. Zum Teil grottenschlecht.
Auf min. FTP gebe ich nicht mehr viel.
Wenn da nicht die tiefsten 0.1% rausgefiltert werden, sieht man sehr oft "komische" Werte - egal was für Karten.
Bei den relativ aktuellen Custom Vega Reviews habe ich mehrfach gesehen, dass die min. FPS Werte von z.B. GTX1080 und GTX1080ti öfters mal massiv unterschiedlich waren und das nicht selten zu ungunsten der 1080ti.

basix
2017-12-29, 13:15:25
Auf min. FTP gebe ich nicht mehr viel.
Wenn da nicht die tiefsten 0.1% rausgefiltert werden, sieht man sehr oft "komische" Werte - egal was für Karten.

OK, dann habe ich mich zu wenig klar ausgedrückt. Bei den erwähnten Tests waren das 0.1% und 1% Low FPS.

Edgecrusher86
2017-12-29, 18:47:44
Der Shunt-Mod hat wohl ausgedient bei der V:

https://youtu.be/3pflC72NfnU

Raff
2017-12-29, 19:32:53
Der Shunt-Mod hat wohl ausgedient bei der V:

https://youtu.be/3pflC72NfnU

Wieso? Es funktioniert doch. Ich habe mir gerade mal aus Neugier das ganze Video angesehen. Steve erläutert, dass man da durchaus mit einem Esslöffel ;) Flüssigmetall rangehen muss, damit sich die Karte austricksen lässt, aber es geht. Das Risiko des Abfackelns ist natürlich hoch, da man nie genau weiß, was das Kurzschließen für einen "Multiplikator" ergibt. Dort sieht man Peaks auf über 400 Watt, nur über die PEG-Kabel – dazu kommen noch ~50 Watt über den Slot. Die Herren kühlen die nackten VRMs nur mittels Luftzug, das nenne ich Cojones. Genie und Wahnsinn (und möglicherweise auch Reichtum) liegen so nah beisammen ... :biggrin:

Bei Pascal-Larten führt das Shunt-Bemalen doch auch nur dazu, dass die GPU mehr saufen darf, ergo recht stabil auf 2,1 GHz geprügelt werden kann, oder nicht? Hier gibt's doch paar Leute mit Shunt-Mod-Erfahrungen. Viel Aufriss für stabile +3 Prozent. Wie wird das denn eigentlich von Tools ausgelesen? Wenn die GPU "glaubt", dass sie sparsam ist, dann muss das auch in den Programmen stehen, sodass die Power-Auslesung per Software wertlos wird.

MfG,
Raff

=Floi=
2017-12-29, 19:50:45
ja die tools zeigten dann um die ~60% an und sind nutzlos.

Warum verbaut NV eigentlich das bios so?

Aufgrund des stromflusses kann das flüssigmetall auch regieren. Der leistungsgewinn steht auch in keinem verhältniss zum gewinn. Bei den customs geht es ja richtung 325watt und das ist wohl auch genug .

Edgecrusher86
2017-12-29, 20:49:01
Der Performancegewinn mit der HY-Lösung ist schon recht homoöpatisch in diesem Fall.

E: OK, es sind best case je nach Szene wohl 100 MHz mehr als normal mit HY.. Ich habe es unterwegs ohne Ton nur überflogen...500 MHz Skala ist es ja. Nun ja, die erste Szene sind vielleicht 30-40 MHz über Stock HY...

Dann wird's wohl sehr selten etwas mit 2,1 GHz a la Slinky @ HWBot wie es scheint.. grob

Gut, im Endeffekt auch nur minimal vor 2 GHz, aber gut für ein paar Rekorde.

OC_Burner
2017-12-29, 20:50:22
Der Sinn der damaligen Bios-Mods und nun Shunt-Mods liegt tatsächlich vordergründig nur darin das man auch im Worst-Case-Szenario die Taktraten stabil gehalten bekommt. Einmal FurMark angeschmissen, kein Problem die Taktraten sitzen. Wenn durch den Shunt-Mod keine höhere Taktraten möglich sind dann limitert entweder die Kühlung oder der Chip selbst.

Wirklich schade, dass das Hochsetzen des Power-Limits nicht mehr per Bios möglich ist, da auch viel akkurater. Warum das Bios gesperrt wurde läßt sich nur vermuten aber mit ganz hoher Wahrscheinlichkeit lag das am fröhlichen Manipulieren der Biosfiles. Efi sei da auch noch als Stichwort genannt.

Wie heiß werden eigentlich die HBM Stacks auf der Titan V? Ähnlich wie auf der Vega?

Daredevil
2017-12-29, 20:58:07
Bei Pascal-Larten führt das Shunt-Bemalen doch auch nur dazu, dass die GPU mehr saufen darf, ergo recht stabil auf 2,1 GHz geprügelt werden kann, oder nicht? Hier gibt's doch paar Leute mit Shunt-Mod-Erfahrungen. Viel Aufriss für stabile +3 Prozent. Wie wird das denn eigentlich von Tools ausgelesen? Wenn die GPU "glaubt", dass sie sparsam ist, dann muss das auch in den Programmen stehen, sodass die Power-Auslesung per Software wertlos wird.
So isses auch. :)
Ich kam mit der 1080 FE LuKü hochgeprügelt auf ~2Ghz bei 100% Speed ohne irgendein Mod und mit WaKü und Shunt Mod geht das ganze nun stable bis 2,13Ghz @1.062v. Ich wollte halt nicht erst die Karte ohne Shunt Mod installieren, weil ich auf das ganze umgebaue nun auch kein Bock hatte. Die Karte läuft sonst eh mit 2.1Ghz bei 1.03v, also komme ich vermutlich vielleicht mal so gerade an die Grenze, wo der Mod greift.

Der Verbrauch, der nun ausgelesen wird, ist natürlich davon beeinflusst.
Gelohnt hats nun nicht wirklich, ich hab aber auch eher 2,2Ghz+ angepeilt, aber ich kann soviel Saft geben, wie ich will, da tut sich nix mehr. :D

Lehdro
2017-12-30, 01:05:58
Pascal ist eine Krücke was das angeht. Wenn ich da an Kepler und Maxwell zurückdenke, die skalierten noch gut mit Spannung (die BIOS Mods waren aber auch echt nötig bei den Titans damals). Bei Pascal schneidet man sich mit zu viel Spannung eh in den Finger, weil dann die Leistungsaufnahme weit jenseits der normal nötigen Werte befindet für ein paar lächerliche Megaherz mehr.

Noch dazu wenn die Shuntmods dann die Karte schrotten, wie schon mehrmals geschehen.

=Floi=
2017-12-30, 01:58:42
Das ist aber relativ, weil der chip mit wenig spannug an sein maximum kommt und ziemlich stark richtung 1500-2000mhz optimiert wurde. So wie es jetzt ist finde ich es ganz ok. Es kommen mit passender kühlung auch gut 90% über die 1900mhz marke. (Das ist mir als normaler kunde viel wichtiger, weil das gpu-lotto relativ risikolos ist.)
Du musst auch bendenken, wo die power targets liegen.

Nebenbei skaliert von der 1050er bis zur volta über 2 fabs der chip fast gleich gut.

gravitino
2018-02-02, 12:19:44
Benchmarks bitte! :)
Speedups von 1,3 bis 1,5 in CUDA-Applikationen gegenüber einer Titan Xp.

gravitino
2018-02-02, 12:22:52
Die Frage ist falsch gestellt. Aber ich denke das weißt du selber.
Du kannst selbst mit nem Ra-Pi "fette Matrizen" berechnen.

Wenn wir wirklich darüber diskutieren wollen.
Schau dir die (einzigartigen) Möglichkeiten an, die GV100 in dem Bereich bietet.
Führ dir das White-Paper zu Gemüte.

Ich geb dann gern ein paar praktische Einblicke.
Wie Grenzen durch die derzeitig Implementierung und zuk. Möglichkeiten.
Michwegen mit echten Praxisanwendungen von "KI" und DeepLearning (und das nicht nur als Schlagwort und Marketing Gesülze)


Edit:

Funfact von Nvidia --- der Lacher überhaupt:

Nvidia untersagt Deep Learning auf Geforces (betrifft auch die Titan V)

Die Titan V (sowie die Titan Xp) ist keine Geforce und wurde mit Deep Learning beworben. CUDNN läuft weiter mit Geforce-Karten, sie dürfen nur nicht in Data Center betrieben werden. Das sagt die Lizenz. Du kannst es ja gern weiter tun, nur verfällt die Garantie.

gravitino
2018-02-02, 12:29:25
Was für einen Nutzen hat die Karte dann? Mining-HW für 3k? Gibt ja für 3D-Tools etc nicht mal explizite Treiber wie für die Quadro's ... Für was zahlt man dann 3k? :D

Du bekommst "Independent Thread Scheduling" und "120 HP Tensor Flops für 4x4 GEM".

gravitino
2018-02-02, 12:41:10
ganz ehrlich, wenn das teil 16GB hätte und die GPU voll aktiv wäre, würde ich die 3000.- wohl hinlegen. :freak:

das sollte NV zu denken geben :wink:

Dann solltest du eher mit 8000€ bis 10000€ kalkulieren. Die DGX1 workstation (4x GV100 16 GB HBM) bekommt man mit gutem Verhandlungsgeschickt für $50000 ohne Steuern. Dann ziehst du $10000 für den restlichen Rechner ab und kommt bei $10000 pro Karte an. Eine Quadro GP100 kostet immer noch 10000€.

Hübie
2018-02-02, 13:13:47
Dir ist die Editierfunktion bekannt? ;)

dildo4u
2018-02-16, 12:06:25
Kranke Leistung für 1.4GHz.

http://abload.de/img/titanvc6j51.png

http://www.pcgameshardware.de/Komplett-PC-Hardware-217554/Tests/Blackbox-PRO-Intel-Core-i9-7900X-Nvidia-Titan-V-1250265/

N0Thing
2018-02-16, 15:05:07
Bei Quantum Break in 4K sieht es noch extremer aus.

Edgecrusher86
2018-03-21, 00:07:56
Neues Review (inkl. OC für alle Benches):
[H]ardOCP - NVIDIA TITAN V Video Card Gaming Review (https://www.hardocp.com/article/2018/03/20/nvidia_titan_v_video_card_gaming_review/1)

Bestcase ist das noch immer nicht wirklich gut laufende Kingdom Come:

https://abload.de/img/1521489894oha215o50c_91uir.png
Schon eine enorme Leistung mit OC mit vermutlich 17xx MHz, siehe Artikel Seite 4.

The new game Kingdom Come: Deliverance did very well with TITAN V delivering 40% more performance than GTX 1080 Ti FE at 4K. When we pushed the settings higher at 4K that increased to 44% faster performance. At 1440p the difference dropped to 21%.


Naja, es bleibt dabei - es technischer Sicht natürlich ein sehr interessantes Stück Technik, dass aber schon semi-professionell genutzt werden muss, damit sich der Preis rentiert.

=Floi=
2018-03-21, 00:27:06
wobei die reine möglichkeit, dass man das teil überhaupt kaufen kann und es grafiktreiber gibt schon richtig geil ist. Das muss man einfach so stehen lassen.

Relevant ist die karte nicht wirklich, aber es gibt sie einfach. Das ist wie mit einem 400000€ lambo.
Die letzte solche karte war imho die V6000.

Schade, dass es zu der ganzen geschichte keine interviews gibt, warum es NV genau gemacht hat.

Nightspider
2018-03-21, 00:29:38
Schade das es den Vollausbau nicht für Gamer gibt. :D

dildo4u
2018-03-21, 10:03:07
Quantum Break sieht noch deutlich kranker aus.

http://abload.de/img/qautumbreakgpruxk.png

http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Specials/Rangliste-GPU-Grafikchip-Benchmark-1174201/2/

Edgecrusher86
2018-03-21, 13:42:22
https://abload.de/img/1521489894oha215o50c_a2raj.png

https://abload.de/img/1521489894oha215o50c_u8ufn.png

Bezüglich Low-Level sieht es ja auch recht gut aus. Die V OC dürfte ja ähnlich boosten wie die Ti von Haus aus (~1700+ MHz in Benches grob), so dass hier nicht von einem großen Taktplus gesprochen werden können dürfte.
Die Maximum-fps bei Sniper 4 scheinen mir Ausreißer zu sein, aber viel wichtiger ist eh, was Minimum und Average geliefert wird. Das ist schon ein großer Sprung.
Etwas schade ist, dass man nicht noch zusätzlich alle Benches mit mit V OC @ WaKü bzw. 2 GHz Ti OC zusätzlich machen konnte. :D

Der riesen Vorsprung bei QB sieht aber schon etwas seltsam aus. Nur Einheiten und Bandbreite können es eigentlich nicht sein, die solch ein Plus erbringen. Der Taktnachteil von grob -100 bis -200 MHz auf GP102 kommt ja auch noch hinzu.
Das Ergebnis bringt in der Praxis aber auch wenig, haben wir doch bei den anderen Karten eine flotte Diashow, und bei der V mag es gerade so spielbar sein, aber sich vermutlich immer noch sehr nach Kaugummi anfühlen.
Selbst eine V OC @ WaKü dürfte hier kaum mehr als 30/36 fps liefern -> 2020/21er Gen Big Chip @ 7FF, please. ;)

Hübie
2018-03-21, 13:58:49
Ohne Vergleich zu D3D11 ist SE4 erst mal wertlos mit der Aussage D3D12 sei hier gut.

Sind die 13.500 bei Wolfenstein II die Millisekunden? Warum ist das nicht beschriftet und warum fehlen da die Min/Max? Warum keine 1% low??? :facepalm:

dildo4u
2018-03-21, 14:05:19
Doom skaliert sogar besser als Wolfenstein,The Division DX12 liegt auch bei 30%+.Die Gameing Karte wird Low Level weniger brauchen,da sie ein höheren Takt und weniger Cores haben wird.Aber das ganze ist Interessant für die 2019 Titan.

Edgecrusher86
2018-03-21, 14:21:56
DX12 in SE4 läuft sogar auf FHD @ 1070 etwas flotter als 11. ;)
https://www.youtube.com/watch?v=yUF1VNDzvZ0

Das trifft übrigens auch auf MGPU zu; die Auslastung ist echt top und nur ok unter DX11:
https://www.youtube.com/watch?v=PYirYgVQkjM

Ja, vermutlich die Millisekunden in W II. Auch min und max hätte er schon beschriften dürfen. Kann man zwar einigermaßen ablesen, aber besser wäre es ausführlicher, auch im Bezug auf die 1% low fps.
Der einzige spontane Grund, der mir ersichtlich ist, dass die fps von 30 bis 200 ausschlagen. Da sind avg. Werte doch deutlich besser. :D


Stimmt, Doom hat mit der neueren Vulkan Version im 391er Treiber einen riesen Sprung gemacht und ist nun auch mit NV immer OGL vorzuziehen. Lange Zeit war es umgekehrt (NV):

https://abload.de/img/1521489894oha215o50c_8zqu0.png

Blaire hatte mir mitgeteilt, an einer Vergleichsstelle in 4K mit X(P), 120 statt 90 fps gemessen zu haben (391er zu 388er Treiber). Vulkan 1.0.65 vs. 1.0.50. :)

bnoob
2018-03-21, 21:39:04
http://www.theregister.co.uk/2018/03/21/nvidia_titan_v_reproducibility/

Computing ist wohl eher schwierig :D

M4xw0lf
2018-03-21, 21:43:23
http://www.theregister.co.uk/2018/03/21/nvidia_titan_v_reproducibility/

Computing ist wohl eher schwierig :D
Oha. Nvidias eigener FDIV-Bug? :freak:

dildo4u
2018-03-21, 22:50:55
Will NV nicht noch Quadros verkaufen wenn die Karte eh alles kann kauft man ja eher zwei Titan als eine Quadro.

GP100 ist noch lieferbar.

https://www.nvidia.de/design-visualization/quadro-store/

BiZiNiZz
2018-03-27, 18:38:03
Die Volta Quadro mit GV100 und 32GB HBM2 wurde gerade vorgestellt

Bestellbar für 8699€
https://www.nvidia.de/design-visualization/quadro-store/

y33H@
2018-03-27, 18:42:37
Jupp: https://www.golem.de/news/workstation-grafikkarte-die-quadro-gv100-hat-32-gbyte-hbm2-1803-133539.html

Hat NV Link um zwei in der Workstation zu koppeln.

Tarkin
2018-03-27, 19:22:41
Der hat den einen Satz gut gelernt. "The more you buy, the more you save"

Kann ich nur dazu sagen... The "more ich der A...geige zuschaue, the more bekomme ich Brechreiz!"

Sorry für OT, aber ich halten den Typen einfach nicht aus... so eine dermaßen unsympathische Person... wie ein Gebrauchtwagenhändler!

dildo4u
2018-03-27, 19:32:55
Jenson ist doch geil der Labert wie er Will und muss niemanden Antworten,alle anderen CEO sind Puppen ihres Boards und zitieren nur ihr vorher vom Anwalt abgenommen Script.

Korvaun
2018-03-27, 19:42:51
Man mag ihn sympatisch finden oder nicht, und auch die typisch amerikanische Art "alles supidupi, ihr seid alle toll, ich liebe euch alle" ist etwas gewöhnungsbedürftig. Aber der Vortrag (zumindest die erste Stunde) an sich was sehr gut mMn, sehr flüssig und frei, gut verständlich und auf den Punkt, kein endloses banales Geschwafel.

Linmoum
2018-03-27, 19:48:15
Hoffentlich rechnet sie richtig.

wolik
2018-03-27, 19:49:39
del

TobiWahnKenobi
2018-04-04, 13:12:27
so, meinerseine ist auch da.

https://abload.de/thumb/3dc624f2-8a85-41e7-a6urgv.jpeg (http://abload.de/image.php?img=3dc624f2-8a85-41e7-a6urgv.jpeg) https://abload.de/thumb/16316faf-5860-4db4-8i6q9m.jpeg (http://abload.de/image.php?img=16316faf-5860-4db4-8i6q9m.jpeg)

singleslot ist sexy.




(..)

mfg
tobi

(del)
2018-04-04, 14:02:19
so, meinerseine ist auch da.
singleslot ist sexy.

Ohje, wenn das mal kein Fehler war die Titan V zu kaufen.
Am Ende ist eine Turing Karte zumindest genauso oder eventuell schneller in Spielen zu einem deutlich geringeren Preis.

Elite_Warrior
2018-04-04, 14:03:43
Bekommt man da nicht Muffensausen so eine teure Karte umzubauen? :biggrin:

TobiWahnKenobi
2018-04-04, 14:28:44
ich habe meine beiden TXP verlustfrei verkaufen können und die TV kostete meinen sparstrumpf nicht mehr als ne 1080Ti beim händler um die ecke. ;)

der umbau ging fixer als sonst.. man spart sich das geschnippel der WLPads weil es keine BGAs mehr gibt.

mehr kann ich atm nicht sagen.. ich schaue heute abend ob sie funzt.. also mit spielen.


(..)

mfg
tobi

Hübie
2018-04-04, 18:15:38
Ja cool. Hast Jensen das Pflegemittel für die Lederjacke gesponsort. :up: Mach doch ein paar Bilder und nette Benchmarks im Vergleich zu deinen TXp (hattest du SLi oder zwei in zwei PCs). :D

5CH4CHT3L
2018-04-04, 18:28:06
Ohje, wenn das mal kein Fehler war die Titan V zu kaufen.
Am Ende ist eine Turing Karte zumindest genauso oder eventuell schneller in Spielen zu einem deutlich geringeren Preis.
Nicht schlechtreden! Wenn er eben die Performance jetzt braucht / will?

scully1234
2018-04-05, 00:38:48
Ohje, wenn das mal kein Fehler war die Titan V zu kaufen.
Am Ende ist eine Turing Karte zumindest genauso oder eventuell schneller in Spielen zu einem deutlich geringeren Preis.

Nach der Prämisse dürfte man gar nix mehr kaufen


Von daher gib Gas Tobi=)

N0Thing
2018-04-05, 00:54:03
Nach der Prämisse dürfte man gar nix mehr kaufen


Nicht wirklich. Eine neue Generation kommt nicht jede Woche auf den Markt.


Von daher gib Gas Tobi=)


https://www.forum-3dcenter.org/vbulletin/images/icons/icon7.gifhttps://www.forum-3dcenter.org/vbulletin/images/icons/icon14.gif Definitiv, nach tombman ist jeder Verrückte Gold wert.

TobiWahnKenobi
2018-04-05, 01:12:58
Ja cool. Hast Jensen das Pflegemittel für die Lederjacke gesponsort. :up: Mach doch ein paar Bilder und nette Benchmarks im Vergleich zu deinen TXp (hattest du SLi oder zwei in zwei PCs). :D

ich hatte eine TXp in einem 6700k (verkauft), und zwei TXP in der kiste, in welcher jetzt die TV haust. auf den superposition score der TXp (7000P @1080 extreme) konnte ich auf die schnelle mit der TV 50% drauflegen.

das mit der ausladende bilderorgie kriege ich atm zeitlich nicht auf die kette.
konnte 2 stunden benchen und spielen
(farcry5, battlefront2, superposition, timespy, skyrim vr).

was ich bis jetzt sagen kann:

TV lässt sich schnell umbauen
unter last hört man sie rechnen
sie ist schneller als TXP und TXp
und weil sie auf ARF verzichtet, ist sie eigentlich auch
schneller als zwei TXP; selbst wenn ihr 10fps avg fehlen
frequenzen um die 2GHz sind möglich; bei geringerer auflösung als 2160p
habe ich auch über 2GHz gesehen
temperatur meiner karte knapp unter 60°C bei ca. 30°C wassertemperatur
die frameraten und das spielgefühl in far cry 5 und star wars battlefront 2 sind gut; minframes immer deutlich über dem refresh.

tjo.. und da war der tag auch schon zuende.

jetzt liegt hier noch skyrim VR rum, aber für den rift-crap bin ich schon zu müde. hab mir nur kurz das intro angeschaut um zu checken, ob die rift noch funzt. ggü. der version für die PSVR übrigens eine grafische offenbarung.

fazit
TV ist geil - TV ist zu teuer - TV gehört unter wasser - wussten wir alles vorher!

https://abload.de/img/150150tv2010rasgv.jpg

ich gehe (höchST zufrieden) schlafen.


(..)

mfg
tobi

Hübie
2018-04-05, 01:51:53
Ist auch echt ein Biest. Hab zu spät gesehen dass du hier eine Seite vorher und im anderen Thread Bilder hattest. :D Insgesamt hast du also ein lohnendes Upgrade aus Sicht des Basteldrangs, dem Verbrauch und der gefühlten Leistung gemacht? Preis steht hier natürlich nicht zur Debatte. Die wenigsten wären bereit so viel zu investieren (oder können es nicht:D).

scully1234
2018-04-05, 02:28:48
frequenzen um die 2GHz sind möglich; bei geringerer auflösung als 2160p
habe ich auch über 2GHz gesehen
temperatur meiner karte knapp unter 60°C bei ca. 30°C wassertemperatur



schon erstaunlich das die Tendenz nach allem was man so H2O gekühlt sieht, für diesen riesen Chip durchaus wieder bei 2GHZ liegt ,wie schon bei den beiden kleineren Pascal Vorgängern

TobiWahnKenobi
2018-04-05, 09:38:39
heute früh zwischen wecker, erstem kaffee und zahnbürste habe ich mal kurz in den witscher reingeschaut. nicht gefrapst - nur reingeschaut. auch hier liegen die frames immer über dem refresh.. im mittel wohl bei 70-80fps avg. UHD mit gameworks und dem ganzen brimborium.. also die eigentlich absurde "alle regler rechts" einstellung.

ich stelle jetzt mal eine behauptung in den raum -> eine H2O-TV ist eine UHD-karte.

https://abload.de/thumb/witcher3_2018_tvjeugg.jpg (http://abload.de/image.php?img=witcher3_2018_tvjeugg.jpg)

btw,
"grafikfehler" haben mich bis jetzt keine angesprungen. es gibt während des farcry5 benches eine stelle auf dem wasser, die reproduzierbar flackert. das war aber auch mit den pascalkarten schon so. im spiel fällt nichts dergleichen auf.

https://abload.de/thumb/farcry5_2018hhsvw.jpg (http://abload.de/image.php?img=farcry5_2018hhsvw.jpg)


(..)

mfg
tobi

Rancor
2018-04-05, 09:40:36
Sehr sehr nice :)

Hübie
2018-04-05, 09:58:24
Das zeichnete sich bei Gamers Nexus schon ab, dass dies eine UHD-Karte ist. Eine erstaunliche Leistung, die NV da jetzt schon auf die Beine gestellt hat.

Rancor
2018-04-05, 10:02:28
Zumindest für UHD @ 60 FPS :)

wolik
2018-04-05, 11:15:16
UHD ? Mit 12Gb VRAM ? Es ist wichtigste (abgesehen von wahnsinnige Preis) Grund wieso ich nicht auf Titan V (TV :) ) umsteigen vorhabe. Dazu noch im Sommer zwei (SLI) 2080 (16Gb-24Gb VRAM ?) werden wohl das ganze TV deklassieren.
Auf alle Fälle, Herzliche Glückwunsch! Mit jedem neuen Spielzeug hat man mehr Spass als mit Spielen für welchem man das überhaupt das Zeug kauft :)
Und wenn von UHD 4K/60 fps die rede ist, Tobi kannst du mal schauen was erreicht TV bei FF15 4K max?

Swissr
2018-04-05, 11:35:54
Könntest du bei bitte Gelegenheit diese beiden Szenen mit 3440x1440 laufen lassen? Würde mich interessieren ob diese 4k@ 60FPS auch eine 3440UWHD@100 FPS sein könnte :)

Digidi
2018-04-05, 15:17:56
Ja cool. Hast Jensen das Pflegemittel für die Lederjacke gesponsort. :up: Mach doch ein paar Bilder und nette Benchmarks im Vergleich zu deinen TXp (hattest du SLi oder zwei in zwei PCs). :D
Eher das Poliermittel für seine Porsches und Tesslas.

nordic_pegasus
2018-04-05, 18:15:15
was ich bis jetzt sagen kann:
...
unter last hört man sie rechnen
...
mfg
tobi

ist das eine euphemistische Umschreibung für (starkes?) Spulenfiepen?

TobiWahnKenobi
2018-04-05, 18:21:37
ja und nein. es ist hörbar, aber zu ertragen, weil nicht hochfrequent. kenne schlimmere geräusche von anderen grafikkarten..


(..)

mfg
tobi

vinacis_vivids
2018-04-05, 18:23:29
Kannst du FC5@5k laufen lassen? Bin interessiert ob TV da 60fps schafft.

(del)
2018-04-05, 18:25:52
Könntest du vielleicht ein paar Seti@home Workunits testen mit den Cuda Client Verbesserungen Lunatics Win64 0.45 Beta 6 (http://mikesworld.eu/download.html)
Falls du Seti nicht hast ist es denke ich zu umständlich, also nur falls du das schon hast.

TobiWahnKenobi
2018-04-05, 21:39:19
Kannst du FC5@5k laufen lassen? Bin interessiert ob TV da 60fps schafft.

nein, keine 60fps - zumindest nicht auf ultra mit kantenglättung.

http://abload.de/img/farcry5_5k_ultra_tv_oy6sie.jpg


@lemon wolf
seti habe ich schon seit 20 jahren nicht mehr gesehen, sorry. bin da etwas raus.


(..)

mfg
tobi

robbitop
2018-04-05, 21:59:41
UHD ? Mit 12Gb VRAM ? Es ist wichtigste (abgesehen von wahnsinnige Preis) Grund wieso ich nicht auf Titan V (TV :) ) umsteigen vorhabe. Dazu noch im Sommer zwei (SLI) 2080 (16Gb-24Gb VRAM ?) werden wohl das ganze TV deklassieren.
Auf alle Fälle, Herzliche Glückwunsch! Mit jedem neuen Spielzeug hat man mehr Spass als mit Spielen für welchem man das überhaupt das Zeug kauft :)
Und wenn von UHD 4K/60 fps die rede ist, Tobi kannst du mal schauen was erreicht TV bei FF15 4K max?

SLI ist schon längst mangels Entwicklersupport nicht mehr zu empfehlen. Ich hatte es zuletzt mit Kepler und fand es scheusslich. Skaliert nicht selten schlecht, buggt, mRuckler und und und.
GT104 wird traditionell nicht massiv schneller als GP102. GT102 sollte dann wieder richtig was bringen. Aber ob das Ding dann deutlich schneller als GV100 @2GHz wird? Könnte eng werden.
GV100 ist preislich halt leider unattraktiv und es kann sein, dass es nie so viel spielespezifische Optimierung bekommt, wie Pascal oder Turing, da es keine Spiele GPU mArch zu sein scheint. Für die paar GV100 Spieler wird man sicher nicht alle Optimierungen auf Volta portieren.
Die ersten Tests zeigten mWn auch stellenweise durchwachsene Frametimes und minfps mit gv100. Das spricht ein wenig dafür...

TobiWahnKenobi
2018-04-05, 22:28:06
Könntest du bei bitte Gelegenheit diese beiden Szenen mit 3440x1440 laufen lassen? Würde mich interessieren ob diese 4k@ 60FPS auch eine 3440UWHD@100 FPS sein könnte :)

ja, kommt hin -> 100 min 120 avg und 140 max

@wolik
FF15 habisch net



(..)

mfg
tobi

Swissr
2018-04-05, 22:42:39
Hi Tobi

Super, danke dir!

Noch eine Frage: undervolten mit afterburner Kurve geht (noch) nicht, oder?

wolik
2018-04-06, 02:18:42
@wolik
FF15 habisch net

Ich meinte bench: http://benchmark.finalfantasyxv.com/na/

TobiWahnKenobi
2018-04-06, 09:55:46
Ich meinte bench: http://benchmark.finalfantasyxv.com/na/

ja, kann ich machen. gibt zwar ein-zwei ruckler, die da irgendwie nicht reingehören (möglich dass man es mehrfach laufen lassen muss) aber geht schon.

http://abload.de/img/ffb96o1h.jpg


+33% auf den TV-score, der schon in deren liste war.



(..)

mfg
tobi

BlacKi
2018-04-06, 11:14:08
shunt mod? und welche voltage legst du für 2ghz an? ist bei 1000mhz ram oc schluss?

Godmode
2018-04-06, 11:41:07
Glaube ich nicht, bringt ja IIRC auch nicht wirklich was bei Pascal. Die Karte ist unter Wasser und erreicht dadurch eine höhere Taktrate.

scully1234
2018-04-06, 12:05:37
Ja mei Godmod du bist ja auch mal wieder on Tour welcome back=)

Fehlt nur noch Ailuros...

TobiWahnKenobi
2018-04-06, 12:29:30
nein, kein schund-mod - von sowas halte ich gar nichts.

die TV ist etwas anders als pascal. ich bin für verlässliche messungen und einstellungen auf den NVi und GPU-Z angewiesen.

mit tools wie arschbrenner oder precision X ist da nichts zu holen. die taugen nur fürs OSD.
+150MHz im NVi übernimmt der afterburner z.b. mit +75MHz.

was beim speicher noch geht habe ich nicht versucht. 1000MHz ist doch eine schönere zahl, als 1067,5MHz.

voltage lässt sich über den NVi nicht einstellen. mit dem arschbrenner kann ich zwar alles mögliche einstellen, aber wirklich sinnvoll ist der nur, wenn ich mein system richtung hardreset abschiessen möchte. crap wie die curve-settings, undervolting usw. gibts nicht.

wie gesagt, ich protokolliere takte mit GPU-Z und stelle sie mit dem inspector ein.

btw,
letzte nacht, animiert durch die tabelle in PCGH 4/18, habe ich noch in ein paar spiele reingeschaut.. ich konnte auch die bemängelten bildfehler entdecken (battlefront2-menu unter DX11 und suddenstrike 4), auf viele der getesteten spiele, konnte ich eine ordentliche schippe drauflegen. elex etwa.. dort misst PCHG mit der TV 29fps (in deren 4k einstellung mit 150% resolution scale); ich schaffe über 40fps.. das sind mal eben über 40% delta. der witcher3.. voll aufgerotzt.. PCGH misst 54fps.. ich kriege im witscher über 70fps zustande.. star wars battlefront 2 (eines der spiele, die ich wirklich spiele) bei PCGH 72fps.. bei tobi 100-120fps..



(..)

mfg
tobi

BlacKi
2018-04-06, 12:45:20
kannst du die voltage denn auslesen die anliegt?

scully1234
2018-04-06, 12:48:02
Interessant wäre auch ne Gegenüberstellung mit der alten TX P@ 2Ghz falls da noch alte Daten vorhanden sind Tobi

TobiWahnKenobi
2018-04-06, 12:58:42
kannst du die voltage denn auslesen die anliegt?


weiss grad nicht - aber ich meine nein.

@scully
habe ich bestimmt noch irgendwo.. bei den schnullermarks online.. und in meinem kopf.. battlefront2 lief auf TXP mit 80fps.. mit zweien ebenfalls.. jetzt habe ich 40fps mehr. UHD fühlt sich jetzt so an, wie vormals 1440p.

die gamebenches vom timespy attestieren der TV +40% ggü. TXP @max.

selbst ein altes GTAV macht jetzt richtig freude.. endlich mit ultragras :)

ich hätte gern mehr zeit - aber ich kann atm nur nachts computerkram machen und das geht mir vom schlaf ab. bin grad nur mobil mit dem macbook on the lein. alles was ich gestartet habe lief signifikant und spürbar schneller als mit allen anderen grafiksetups zuvor. SLi jetzt mal ausgeklammert; mGPU ist in den letzten monaten zu größerem müll verkommen als eh schon immer war. nach wie-vor ziehe ich sGPU @70fps den AFR-frameraten (2x 40fps |= 80fps) vor.


(..)

mfg
tobi

King_Of_Fortune
2018-04-06, 16:06:14
Titan X Pascal Alles auf Basic.....Würde das gerne mal in SLI testen...gibt es da irgend nen profil für?

PS: die Titan X lief durch die wakü ohne Oc mit 1800mhz bei 48°C

https://i.gyazo.com/ad329c80ff61f9cb5a2c566eb031be2c.png

Godmode
2018-04-06, 16:25:13
Ja mei Godmod du bist ja auch mal wieder on Tour welcome back=)

Fehlt nur noch Ailuros...

Thx! :biggrin:

Jo leider viel zu wenig Zeit fürs Hobby.

@TWK: Schön dass zumindest einer aus dem Forum die Karte hat, weil sonst wäre es irgendwie schon zum schämen. :wink:

Interessant wäre, ob man über NVLINK besseres SLI haben könnte, weil die Schnittstelle hätte die TV ja eigentlich? Die Bandbreite dürfte ja um einiges höher sein also über die SLI-Brücken.

wolik
2018-04-06, 16:53:34
Titan X Pascal Alles auf Basic.....Würde das gerne mal in SLI testen...gibt es da irgend nen profil für?

PS: die Titan X lief durch die wakü ohne Oc mit 1800mhz bei 48°C

https://i.gyazo.com/ad329c80ff61f9cb5a2c566eb031be2c.png
Ja. Hier: https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11643914&postcount=2758
:smile:

King_Of_Fortune
2018-04-06, 17:22:23
Ja. Hier: https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11643914&postcount=2758
:smile:


https://i.gyazo.com/1020d00e6a8077b4890ffbdbee2cf393.png

Mit SLI profil und powerlimit auf 120% und trotzdem knapp 600 punkte weniger obwohl davor powerlimit auf 100 % :(

wolik
2018-04-06, 17:51:26
ja, kann ich machen. gibt zwar ein-zwei ruckler, die da irgendwie nicht reingehören (möglich dass man es mehrfach laufen lassen muss) aber geht schon.

http://abload.de/img/ffb96o1h.jpg


+33% auf den TV-score, der schon in deren liste war.
mfg
tobi
6839 Holy Shit.
Ich habe mit eine 1080Ti 2063/+400 5156. Mit SLI 6337.
Ok. Wenn man von Amis holt dann kostet TV "nur" 2,6K Euronen.
:rolleyes:


https://i.gyazo.com/1020d00e6a8077b4890ffbdbee2cf393.png

Mit SLI profil und powerlimit auf 120% und trotzdem knapp 600 punkte weniger obwohl davor powerlimit auf 100 % :(
Läuft SLI wirklich ? Bei mir sogar 99%/99% manchmal Auslastung. Ok, bei kampfszehnen geht Auslastung runter. Nur in Spiel kann ich so einstehlen das ich stabil 60 fps habe (mit SLI) auch im Kampf (weil dort ist bessonders wichtig stab. frames zu haben)

King_Of_Fortune
2018-04-06, 17:56:17
Titan X Pascal Solo @2ghz

https://i.gyazo.com/16426e954516f2b8a90f01706e94ce4c.png


Schätze mal Sli geht bei mir nicht wegen dem 16x/8x auch wenn mein Board angeblich 16/16 machen soll.:confused::confused:

Edit: Im sli profil liegt die auslastung zwischen 70 und 40% schwankend bei beiden karten.....es wirkt auch so als wenn der benchmakr bei 40fps gelocked ist.Habe ja im solo Betrieb schon mehr fps.

TobiWahnKenobi
2018-04-06, 18:56:28
ich bin bestimmt nicht der einzige, der zwei pascal TXen aus 2016 zuhause liegen hat(te), die man - dem kaputten markt sei dank - zu zwei dritteln des TV-preises loswerden kann. dann ist der fehlende rest nicht teurer, als eine 1080Ti beim computerkrauter umme ecke. dafür ist das produkt als komplettpaket dann wirklich fantastisch amazing.

ich habe mich noch nicht einmal über die anschaffung geärgert, seit titan auf den kartons steht refinanziert sich die kartenwechsellei immer wieder fantastisch und die hardware stellt zufrieden bzw. erfüllt immer meine im vorfeld gehegten erwartungen.

ist es doch toll, wenn jensen sich auch freut - win:win - alle freuen sich.


(..)

mfg
tobi

Hübie
2018-04-06, 19:16:53
Mirkoökonomisch betrachtet hat jeder Haushalt seine eigene Inflation und vor allem ein eigenes Bruttoprodukt. Ich finde es muss sich niemand für eine Anschaffung außerhalb der durchschnittlichen Käuferschaft rechtfertigen, wenn es nicht weh tut.
Ich kenne Personen die sich PCs für 1000-1500 € finanzieren. Das sehe ich zwar wirtschaftlich aus Haushaltsperspektive als eine starke Fehlleistung, aber andererseits tut es diesen Menschen gut. So, why not?! ;)
Hermann Heinrich Gossen postulierte bereits 1854 das zweite Gossen'sche Gesetz womit ich sehr weit konform gehe:
2. Nach dem zweiten Gossenschen Gesetz verteilt (bei rationalem Verhalten) ein Haushalt sein Einkommen so auf die verschiedenen Güter seines Begehrskreises, dass der in Geldeinheiten gemessene Grenznutzen des Einkommens in allen Verwendungen gleich ist (Gesetz von Ausgleich der Grenznutzen).

Quelle: Gabler Wirtschaftslexikon (https://wirtschaftslexikon.gabler.de/definition/gossensche-gesetze-34811)

Grüße und sonniges Wochenende. :smile:

scully1234
2018-04-06, 20:51:18
ich habe mich noch nicht einmal über die anschaffung geärgert,

(..)

mfg
tobi

Tobi nicht rechtfertigen,einfach freuen über das neue Spielzeug

Wie schonmal gesagt wurde seit Tombman nicht mehr ist ,gibts viel zu wenig "Verrückte" die hier solche abgefahrenen Projekte durchziehen

Ich weiß auch nicht was das immer soll , das man anderen Leuten vorschreiben will, wie sie ihr eigenes verdientes Kapital anlegen:confused:



Grüße und sonniges Wochenende. :smile:


Zeit wirds nach der langen kalten Durststrecke

(del)
2018-04-06, 22:41:19
Wie im Kindergarten hier.

Schade das du Seti nicht installiert hast, wäre interessant gewesen zu sehen wie viel Mehrleitung durch die vielen Cuda Cores herum kommt.
Hast du vielleicht SPECviewperf12? Wäre spannend zu sehen wie gut sich die Karte im Revier von den Quadros macht.

Ex3cut3r
2018-04-06, 23:12:07
Nja, es gibt ja auch noch andere GPUs zu normalen Preisen, die Titan V ist halt so der Bugatti Chiron. :freak:

Wenn ich es wollte, könnte ich auch eine holen, spätestens nach 2 oder 3 Monatsgehalten mit entsprechen "zur Seite legen" Ich sehe da aber keinen Sinn für mich, die 1070 reicht für Far Cry 5 und BF1 welches ich momentan zocke locker. Für mich macht es eher Sinn auf Turing zu warten.

Swissr
2018-04-06, 23:16:55
Mit Verlaub, das ist quatsch. Wenn keiner die teuren Produkte kaufen würde, gäbe es sie halt nicht. Und Computerhardware war früher deutlich teurer und wesentlich schneller veraltet. Wann hast du zuletzt einen Consumer Intel Prozessor für 1000 Dollar gesehen? Oder für einen 21 Zoll 1600x1200 Röhrenmonitor 1000 Euro gezahlt?

Für FullHD reicht heute ne GTX 1060, ausser Leute können die Regler in den Einstellungen nicht bedienen. Aber FullHD ist halt nicht mehr hipp, und es hat sich nun mal ein Markt entwickelt wo Leistung noch gebraucht wird (4K, 144fps etc.) Aber da wird ja keiner gezwungen das zu nutzen..

Digidi
2018-04-06, 23:19:54
Natürlich würde Nvidia noch die neuen Chips raushauen. Sie müssen Umsatz generrieren das sind sie Ihren Aktionären schuldig. Wen keiner die neuen Karten kauft müssten sie billig werden und zwar so billig das man über die Masse wieder den zu erzielenden Gewinn wieder einholt.

Die Hardwareproduktionskosten haben sich auch nicht großartig Geändert. Heute ist man bei 14nm und größeren Wafern. Was glaubst du wie viele Chips du heute aus einem Wafer rausholen kannst?

Was glaubst du wieso Nvidia so hohe Gewinne einfährt. Bestimmt nicht weil die Hardware teurer wurde ;)

Swissr
2018-04-06, 23:39:53
Natürlich würde Nvidia noch die neuen Chips raushauen. Sie müssen Umsatz generrieren das sind sie Ihren Aktionären schuldig. Wen keiner die neuen Karten kauft müssten sie billig werden und zwar so billig das man über die Masse wieder den zu erzielenden Gewinn wieder einholt.

Natürlich würde Nvidia die Titan V dann nicht raushauen (ich rede nicht von neuen Chips, sondern von der Titan V die sicher Nvidia sicherlich in der Gesamkostenrechnung mehr als eine 1080er kostet). Sie müssen Gewinn generieren, das sind sie ihren Aktionären schuldig. Wenn keiner die teuren Karte kaufen würde, müssten sie sie dann auch nicht billiger verramschen und damit zwangsläufig Verluste machen.

Die Hardwareproduktionskosten haben sich auch nicht großartig Geändert. Heute ist man bei 14nm und größeren Wafern. Was glaubst du wie viele Chips du heute aus einem Wafer rausholen kannst?
Bist du dir sicher dass die Wafer auf 14nm nicht mehr kosten? Denkst du Waferkosten sind der Hauptanteil an den Kosten bei der Chipentwicklung?

Aber ja, beim letzten Punkt gebe ich dir Recht: Nvidia ist ein Börsenorientiertes Unternehmen und will Gewinne machen und verlangt mehr als es sein müsste. Aber das geht eben solange AMD nichts konkurrenzfähiges bringt.

Digidi
2018-04-06, 23:47:31
Natürlich würde Nvidia die Titan V dann nicht raushauen (ich rede nicht von neuen Chips, sondern von der Titan V die sicher Nvidia sicherlich in der Gesamkostenrechnung mehr als eine 1080er kostet). Sie müssen Gewinn generieren, das sind sie ihren Aktionären schuldig. Wenn keiner die teuren Karte kaufen würde, müssten sie sie dann auch nicht billiger verramschen und damit zwangsläufig Verluste machen.


Bist du dir sicher dass die Wafer auf 14nm nicht mehr kosten? Denkst du Waferkosten sind der Hauptanteil an den Kosten bei der Chipentwicklung?

Aber ja, beim letzten Punkt gebe ich dir Recht: Nvidia ist ein Börsenorientiertes Unternehmen und will Gewinne machen und verlangt mehr als es sein müsste. Aber das geht eben solange AMD nichts konkurrenzfähiges bringt.

Du hast es nicht verstanden. Nvidia muss es nicht Verlussmäsig raushauen. Du glaubst doch wohl nicht das die selbst bei 1500 Euro Verlust machen mit der Titan V.

Ja Waferkosten und die Belichtung sind die Kostentreiber. Der Rest sind Standartkomponenten die kosten ein Apple und ein Ei.

Swissr
2018-04-06, 23:56:19
Du hast es nicht verstanden. Nvidia muss es nicht Verlussmäsig raushauen. Du glaubst doch wohl nicht das die selbst bei 1500 Euro Verlust machen mit der Titan V.

Ja Waferkosten und die Belichtung sind die Kostentreiber. Der Rest sind Standartkomponenten die kosten ein Apple und ein Ei.

Ja ok, ICH habs nicht verstanden. Und ja ok, die anderen Komponenten wie Ram, alle Entwicklungskosten, sämtliche Manpower etc. etc. für den einen Chip sind nur ein Apple (sic!) und ein Ei.

Und ja, Troyan hat noch nie gearbeitet.

Ich glaube ich lasse die Diskussion jetzt, bringt eh nix.

AffenJack
2018-04-06, 23:59:54
Du glaubst doch wohl nicht das die selbst bei 1500 Euro Verlust machen mit der Titan V.

Nein, aber sie hätten bei ihrem High-End Produkt, dessen Entwicklungskosten bestimmt nicht gerade billig war, die wohl schlechteste Marge aller ihrer Produkte gehabt. Wieso sollte ein Unternehmen sowas tun? V100 hat zumindest am Anfang 800,900$ Produktionskosten gekosten, da würde kein Hersteller, auch nicht AMD das DIng für 1500$ verkaufen.

Digidi
2018-04-07, 00:09:33
Nein, aber sie hätten bei ihrem High-End Produkt, dessen Entwicklungskosten bestimmt nicht gerade billig war, die wohl schlechteste Marge aller ihrer Produkte gehabt. Wieso sollte ein Unternehmen sowas tun? V100 hat zumindest am Anfang 800,900$ Produktionskosten gekosten, da würde kein Hersteller, auch nicht AMD das DIng für 1500$ verkaufen.


Bei 800 Produktionskosten und verkauf für 1500 ist das ein Gewinn um die 90% davon träumen die meisten Firmen nur.

wolik
2018-04-07, 01:49:09
SLI ist schon längst mangels Entwicklersupport nicht mehr zu empfehlen. Ich hatte es zuletzt mit Kepler und fand es scheusslich. Skaliert nicht selten schlecht, buggt, mRuckler und und und.

Ich frage nur... wieso Mehrkern CPU seit CoreDuo keine Thema mehr ist? Wieso bei CPU gibts kein anderes weg? Nur weil das einzige schnellere Weg ist Leistung bereit zu stellen. So wie mGPU. Quad aus 1080Ti/Titan Xp hat/hätte haben könnte 50 TFlops. Im wieviel Jahren werden wir eine sGPU (50 Tflops) Lösung haben und für welches Preis ? 2025-2030 ? 10K $ ?
Ich denke, das NV SLI Technologie (Quad) als Gewinnmindernd angesehen hat.

basix
2018-04-07, 09:25:23
Ich finde die Infos von TWK ebenfalls sehr interessant. Das gibt nämlich Ausblick auf Turing und 4k Leistungsfähigkeit ;) Und gönnen tu ich es ihm auch, denn ich würde selbst gerne eine haben :D
Ich könnte mir eine TV ohne Probleme leisten, habe aber zu wenig Zeit es wirklich zu nutzen. Jetzt ist dann eh Sommer und da bin ich noch mehr nicht vor dem Computer. Ich bin ein HW Sammler und habe von Radeon 9700 Pro, über GTX 8800 und GTX Titan bis 980 Ti und R9 Nano alle Meilensteine von AMD und Nvidia hier (Pascal ist mit einer 1050 Ti vertreten). Da würde sich die TV in der Sammlung sehr gut machen :D Naja, vielleicht werde ich doch noch schwach, mit Rationalität hat das nichts mehr zu tun ;) Wenn man nur mehr wüsste über Turing. Aber das ist gar nicht im Sinn von Nvidia, denn das würde die Pascal Verkäufe schmälern.

AffenJack
2018-04-07, 09:55:23
Bei 800 Produktionskosten und verkauf für 1500 ist das ein Gewinn um die 90% davon träumen die meisten Firmen nur.

Es wäre ne Marge von 46% und das ist für ein High-End Produkt grottig.
Ich schlage vor du gehst auch in die Prozessorenthreads und verteufelst z.B. alle 1800X Käufer. Schließlich hat AMD da wohl ähnliche Margen wie Nv bei der Titan V.

Und wieder hast du es nicht verstanden scully1234. Bei 800 Dollar für den Chip gehe ich davon aus das hier schon die Entwicklung in den Produktionskosten mit drinnen stecken.

Niemand zählt die Entwicklungskosten in die Chipkosten mit rein. Ein riesiger Chip hat einfach eine grottige Yield. AMD hatte bei der Epyc Presentation da schöne Folien zu. Ein 213mm² Chips kostet 15% soviel, wie ein 777mm² Chip.

BlacKi
2018-04-07, 11:20:42
Ein 213mm² Chips kostet 15% soviel, wie ein 777mm² Chip.
15 mal soviel, macht gramatisch mehr sinn als eine prozentangabe^^


@digi: die titan v ist kein massenchip wie gp102 oder gar gp104. die titan v gibts nur, weil sie ein paar defekte übrig hatten und sie erheblich günstiger verkaufen wollten.

stell dir doch einfach mal vor die hätten die titan v für 800€ verkauft. dann hätte trotzdem nicht jeder sich eine leisten können und auch nicht jeder hätte überhaupt die chance gehabt überhaupt eine zu kaufen. wäre es ein massenchip, würde ich das nicht so schreiben.

AffenJack
2018-04-07, 11:31:05
15 mal soviel, macht gramatisch mehr sinn als eine prozentangabe^^


15 mal soviel past auch nicht, ich meine Kosten 213 mm³ =0,15 , Kosten 777mm² =1 oder anders gesagt, ein 777 mm² Die kostet laut AMD 6,66 mal soviel wie ein 213 mm² Die.

BlacKi
2018-04-07, 12:54:05
danke für die klarstellung

Digidi
2018-04-07, 13:42:33
15 mal soviel past auch nicht, ich meine Kosten 213 mm³ =0,15 , Kosten 777mm² =1 oder anders gesagt, ein 777 mm² Die kostet laut AMD 6,66 mal soviel wie ein 213 mm² Die.

Dann schreib doch Mal dazu was der 215mm² Kostet. Das sind 25 Dollar für den Chip ×7 waren das 175 Dollar für den 777mm² Chip. Da sieht man das bei den 800 Dollar schon die Entwicklung mit eingeflossen sind, denn am teuersten dürfte bei so einem Chip die Entwicklungskosten der Produktion sein und die sind in den 800 Dollar enthalten weil diese Kosten nicht Nvidia sondern TSMC bezahlt und sie dann pro Chip Nvidia in Rechnung stellt.

Und nein Neidisch bin ich nicht wieso auch wenn ich sie mir selbsteisten kann.

AffenJack
2018-04-07, 14:20:16
Dann schreib doch Mal dazu was der 215mm² Kostet. Das sind 25 Dollar für den Chip ×7 waren das 175 Dollar für den 777mm² Chip. Da sieht man das bei den 800 Dollar schon die Entwicklung mit eingeflossen sind, denn am teuersten dürfte bei so einem Chip die Entwicklungskosten der Produktion sein und die sind in den 800 Dollar enthalten weil diese Kosten nicht Nvidia sondern TSMC bezahlt und sie dann pro Chip Nvidia in Rechnung stellt.

Und nein Neidisch bin ich nicht wieso auch wenn ich sie mir selbsteisten kann.

Was bitte sollen Entwicklungskosten der Produktion sein? Gut bei 12nm kann die Optimierung des Mobile Prozesses auf HPC in der Tat etwas kosten und dafür Nv höhere Waferkosten haben als sonst. Alles andere, wie Masken, Tapeout, Chipentwicklung wird aber nicht in die Produktionskosten, sondern zu F&E gezählt.

Woher kommen deine 25 Dollar für den 215mm² Chip. Wenn der so wenig kosten würde, wären AMDs Margen deutlich besser als nur 35%. Und falls der Wert stimmt ist es noch schockierender, dass AMD einen 25$ Chip für 300$ verkauft.
Ich bin da ganz bei dir. Wir müssen unbedingt eine Boykottaktion gegenüber den teuren CPUs von AMD starten. Mal am besten schonmal die Plakate für die Demos.

Bei der GPU kommen außerdem noch HBM, wohl 200-300$, Interposer und Board dazu.

Digidi
2018-04-07, 14:47:22
Hbm Kostet auch keine 200- 300 Dollar. Microsoft bezahlt für 360mm2 110 Dollar für eine CPU/GPU. Rechnet man mit einer Gewinnspanne von 100% bist du bei ca 50 Dollar Produktionskosten bei AMD und das ist eine APU die nochmals schlechter Herzustellen ist wegen den unterschiedlichen Anforderungen von CPU und GPU.
https://www.pcwelt.de/news/So_viel_kostet_die_Xbox_One_in_der_Herstellung-IHS-8329401.html

Es gibt Entwicklungskosten für die Architektur und für die Produktion. Die für Architektur bezahlt Nvidia und TSMC bezahlt die Entwicklung der Produktion und legt die Kosten dann auf den Produktionspreis um. Bei 800mm² dürften die Entwicklungskosten in der Produktion und damit auch die Produktionskosten ehreheblich teurer sein als die Architektur kosten. Die Kosten für das Design sind bei Volta wohl nicht viel höher als für Pascal. Zumal Volta eher eine Evolution stats Revolution ist.

Die Marge oben ist 90% man geht immer 100%=Basiswert (800$) aus. ;)

Ps. Und bei Zahlen wissen wir ja das Jensen es nicht immer so genau nimmt.

scully1234
2018-04-07, 15:28:18
Hbm Kostet auch keine 200- 300 Dollar. Microsoft bezahlt für 360mm2 110 Dollar für eine CPU/GPU. Rechnet man mit einer Gewinnspanne von 100% bist du bei ca 50 Dollar Produktionskosten bei AMD und das ist eine APU die nochmals schlechter Herzustellen ist wegen den unterschiedlichen Anforderungen von CPU und GPU.

Was für ein wirres hin u her Gerechne mit einem Chip von Intel der nicht mal halb so groß und komplex ist ,wie der um den es hier eigentlich geht. Dazu dann noch das Dementi zu den Kosten der Stapelchips nebst Interposer, und Entwickeln tut nun mittlerweile TSMC den Chip nicht mehr die Nvidia eigenen Labore

Bekommst du das eigentlich alles noch in nen sinnvollen Zusammenhang, der auch nur irgendwas belegt?

Im Gegensatz dazu glaub ich nicht das Jensen seine Hauptaktionäre auf eben deren Versammlung belügen tut, womit gleich das nächste Märchen von dir folgt

Digidi
2018-04-07, 15:39:13
TsMc entwickelt nicht den Chip aber die Produktion des Chips sehr wohl. Das Produktionsrisiko liegt bei TSMC das ist ja gerade der Vorteil der Ausgelagerten Foundries. Das Haupt Risiko bei der Produktion trägt TSMC.TSMC muss die Masken entwickeln nicht Nvidia. Nvidia gibt nur vor wie die Schaltungen auszusehen haben.

AffenJack
2018-04-07, 16:32:55
Hbm Kostet auch keine 200- 300 Dollar. Microsoft bezahlt für 360mm2 110 Dollar für eine CPU/GPU. Rechnet man mit einer Gewinnspanne von 100% bist du bei ca 50 Dollar Produktionskosten bei AMD und das ist eine APU die nochmals schlechter Herzustellen ist wegen den unterschiedlichen Anforderungen von CPU und GPU.
https://www.pcwelt.de/news/So_viel_kostet_die_Xbox_One_in_der_Herstellung-IHS-8329401.html

Bei Konsolen wirst du einen viel kleineren Gewinn haben. Da wird AMD auf keinen Fall soviel verdienen. Große langfristige Deals haben immer kleinere Gewinnspannen. Zu HBM, außer den spekulierten Zahlen, dass die 8 GB von Vega am Anfang 160$ gekostet haben, gibts nicht viel. Aber Hynix selber meitne auch, dass sie sehr froh darüber sind, da sie mehr als 2mal soviel verlangen können, wie bei GDDR. Billig wird er daher bestimmt nicht.


Es gibt Entwicklungskosten für die Architektur und für die Produktion. Die für Architektur bezahlt Nvidia und TSMC bezahlt die Entwicklung der Produktion und legt die Kosten dann auf den Produktionspreis um. Bei 800mm² dürften die Entwicklungskosten in der Produktion und damit auch die Produktionskosten ehreheblich teurer sein als die Architektur kosten. Die Kosten für das Design sind bei Volta wohl nicht viel höher als für Pascal. Zumal Volta eher eine Evolution stats Revolution ist.

Die Marge oben ist 90% man geht immer 100%=Basiswert (800$) aus. ;)

Ps. Und bei Zahlen wissen wir ja das Jensen es nicht immer so genau nimmt.

Ähmm, nein, TSMC zahlt nix an der Entwicklung der Produktion. TSMC macht Design rules, wie ein Chip designt werden soll, Nvidia übergibt TSMC den designten Chip. TSMC produziert Masken, die von Nv bezahlt werden. Anschließend produziert TSMC basierend auf den Masken. Entwicklung macht TSMC da überhaupt nicht und TSMC hat auch keine Verantwortung für die Masken, wenn sich Nv nicht an die Design rules hält. Gab da mal ne Geschichte mit Nv und TSMC oder vielleicht war es der Chip bei IBM. Auf jeden Fall meine ich, dass Nv sich nicht an die Design rules gehalten hat und dann alles komplett tot zurück gekriegt hat. Nur hatte der Fertiger damit nix am Hut, weil er nichts mit der Entwicklung am Hut hat. Er kann kleine Prozessoptimierungen machen, aber das wars.

Ich habe nicht von Gewinnspannen geredet, sondern von Bruttomarge oder Gross profit, wie die Amis es nennen.

Godmode
2018-04-07, 17:18:04
Schade das es für die Quadro GV100 keinen Geforce Treiber gibt, sonst könnte man sich diese auch noch kaufen und hätte dann die 32 GB RAM und das volle Speicherinterface.

Dicker Igel
2018-04-07, 17:30:03
Man kann sich afaik einen entsprechenden Treiber zusammenfrickeln - die GV100 ist btw aber erst recht nix für Krankenschwestern :biggrin:

phoenix887
2018-04-07, 17:47:01
Man kann sich afaik einen entsprechenden Treiber zusammenfrickeln - die GV100 ist btw aber erst recht nix für Krankenschwestern :biggrin:

Bevorzuge die Bezeichnung Pflegefachkraft. Ist Geschlechterneutral:D die Berufsbezeichnung Krankenschwester gibt es sowieso nicht mehr.

pixeljetstream
2018-04-07, 18:23:12
TsMc entwickelt nicht den Chip aber die Produktion des Chips sehr wohl. Das Produktionsrisiko liegt bei TSMC das ist ja gerade der Vorteil der Ausgelagerten Foundries. Das Haupt Risiko bei der Produktion trägt TSMC.TSMC muss die Masken entwickeln nicht Nvidia. Nvidia gibt nur vor wie die Schaltungen auszusehen haben.

Die Firmen kooperieren schon ein bisschen mehr als nur "hier mach Mal".
https://www.fool.com/investing/2017/05/17/nvidia-corp-relationship-taiwan-semiconductor.aspx
Wer welche Risiken und Kosten zu tragen hat ist nicht öffentlich, daher kannst du das imo nicht so eingleisig darstellen. Alle Topfirmen die fertigen lassen haben auch Ingenieure die sich hochgradig bei der Fertigungstechnik auskennen, weil nur wenn alle eng zusammen arbeiten können wird es für beide ein Erfolg.
Es hat daher imo weniger mit Risiko als mit den immensen Kosten zu tun, die für einen einzelnen sinnfrei wären und dann noch Symbiose-effekt das mehr geballte Expertise zusammenkommt die Technik weiter zu entwickeln, wenn sich einer auf das Thema allein konzentriert. Oder ich verstand deine Aussage zum Risiko falsch.

Digidi
2018-04-07, 20:34:15
Die Firmen kooperieren schon ein bisschen mehr als nur "hier mach Mal".
https://www.fool.com/investing/2017/05/17/nvidia-corp-relationship-taiwan-semiconductor.aspx
Wer welche Risiken und Kosten zu tragen hat ist nicht öffentlich, daher kannst du das imo nicht so eingleisig darstellen. Alle Topfirmen die fertigen lassen haben auch Ingenieure die sich hochgradig bei der Fertigungstechnik auskennen, weil nur wenn alle eng zusammen arbeiten können wird es für beide ein Erfolg.
Es hat daher imo weniger mit Risiko als mit den immensen Kosten zu tun, die für einen einzelnen sinnfrei wären und dann noch Symbiose-effekt das mehr geballte Expertise zusammenkommt die Technik weiter zu entwickeln, wenn sich einer auf das Thema allein konzentriert. Oder ich verstand deine Aussage zum Risiko falsch.

Natürlich Arbeiten sie Zusammen aber TSMC trägt das finanzielle Risiko wenn der Chip nicht zu den vorher vereinbarten Bedingungen gefertigt wird. Für Nvidia wäre das auch nicht super aber die Kosten wären Minimal und berechenbar.

In allen Techbranchen hat man solche Zulieferverträger, Firmen wie Vw bezahlen dann auch meistens mehr für eine Komponente als wenn sie selbst bauen würden dafür minimieren sie aber Maximal ihr Risiko.

Das beste Beispiel kann man ja beim Airbag Hersteller takata nachlesen ;)

wolik
2018-04-07, 21:25:12
In allen Techbranchen hat man solche Zulieferverträger, Firmen wie Vw bezahlen dann auch meistens mehr für eine Komponente als wenn sie selbst bauen würden dafür minimieren sie aber Maximal ihr Risiko.
:facepalm: Ich komme aus Wolfsburg und Arbeite in dieser Branche. Hör doch bitte auf, diese Thread zumüllen. https://www.youtube.com/watch?v=2eEO09FNTbE Mach auch dir Mühe und liess Kommentare unter das Video.
Tobi hast du was neues für uns ? Hast du nicht zufällig Star Citizen ?

scully1234
2018-04-07, 22:14:12
Schade das es für die Quadro GV100 keinen Geforce Treiber gibt, sonst könnte man sich diese auch noch kaufen und hätte dann die 32 GB RAM und das volle Speicherinterface.

Ich frag mich sowieso ob das NVLink Interface bei der Titan V nur per Software deaktiviert ist, oder ob da ein Hardware Cut vorhanden ist

Und ob sie das bei Turing eventuell als SLI Ersatz verwenden werden


Man kann sich afaik einen entsprechenden Treiber zusammenfrickeln - die GV100 ist btw aber erst recht nix für Krankenschwestern :biggrin:

Aber für Kranke...Schwestern:P:D

Alle Topfirmen die fertigen lassen haben auch Ingenieure die sich hochgradig bei der Fertigungstechnik auskennen, weil nur wenn alle eng zusammen arbeiten können wird es für beide ein Erfolg.
.

Es gab hier auch mal einen kleinen Einblick in die Labore und Arbeitsprozesse Nvidia intern, während der Chipentwicklung

pRz_CG3DZb4

650yVg9smfI

Bubba2k3
2018-04-08, 11:35:17
So und nun wieder nur beim Thema bleiben !

Godmode
2018-04-08, 11:42:23
Ich frag mich sowieso ob das NVLink Interface bei der Titan V nur per Software deaktiviert ist, oder ob da ein Hardware Cut vorhanden ist

Und ob sie das bei Turing eventuell als SLI Ersatz verwenden werden



Ja, gerade für SLI wäre NVLINK sehr interessant. Mit 200 GB/s sollte doch schon einiges gehen. Aber wahrscheinlich scheuen sie den Aufwand, weil die Zielgruppe doch sehr klein ist. Die NVLINK-Brigge kostet übrigens schlappe 599 USD. :ulol3:

https://abload.de/img/screenshot2018-04-08adcqly.png

scully1234
2018-04-08, 12:39:09
Die NVLINK-Brigge kostet übrigens schlappe 599 USD. :ulol3:


Was tut man nicht alles um den PCIe Bus zu entlasten, ist bei den Preisen der Karten da eh nur noch Makulatur:D

Aber ich hab noch keinen gesehen der versucht hat den Link mit ner zweiten Karte und gepatchten Treibern aktivieren zu wollen

Tobi:uponder: :P

TobiWahnKenobi
2018-04-08, 13:40:30
mGPU krankt nicht mehr an der verbindung seit es die hb-bridge gibt; SLi ist gurkig weil das spiel bezw. die engine kompatibel mit AFR sein muss.

btw
die nvlink-bridge passt nicht auf eine mit wasserkühler verzierte karte.

wer sitzt bei diesem wetter am PC?


(..)

mfg
tobi

scully1234
2018-04-08, 14:03:56
mGPU krankt nicht mehr an der verbindung seit es die hb-bridge gibt; SLi ist gurkig weil das spiel bezw. die engine kompatibel mit AFR sein muss.


(..)

mfg
tobi

Denk mal an RTX...Optix ec pp =)





btw
die nvlink-bridge passt nicht auf eine mit wasserkühler verzierte karte.


mfg
tobi

Ist der Finger dann blockiert vom Kupferblock , oder ist die Bridge so dick, bzw beides?

Edgecrusher86
2018-04-08, 14:23:47
Er hier hat 2x V + NVL Bridges und will probieren, den GV100 Treiber zu modden:

http://www.overclock.net/forum/69-nvidia/1644280-official-nvidia-titan-v-owner-s-club-22.html#post27109937
http://www.overclock.net/forum/69-nvidia/1644280-official-nvidia-titan-v-owner-s-club-22.html#post27115913

P.S.: In 3DM wird aber auch mal wieder kräftig gesungen:
https://www.youtube.com/watch?v=_kh7D8pW5rE


E: Die NVL-Bridges passen nicht auf den EKWB, aber auf den Bitspower (mit etwas Arbeit). ;)

https://abload.de/img/20180326_225517_1522147rz7.jpg

http://www.overclock.net/forum/69-nvidia/1644280-official-nvidia-titan-v-owner-s-club-15.html#post27036489

E2: Allerdings musste er dafür auch die Plastikabdeckung der rechten Bridge entfernen, sonst ist diese zu dick für den Block:
Had to remove the plastic casing on the right NVLink bridge to fit it next to the Bitspower bridge block.

scully1234
2018-04-08, 14:25:21
Geil danke Edge hab ich noch gar nicht erspät:up:

Edgecrusher86
2018-04-08, 14:33:09
Gern geschehen scully; ja, das ist quasi das HQ, wenn es um V-Enthusiasten geht. ;)

P.S.: Erster Benchmark GV100 vs TITAN V (Offset +50/50 jeweils).
Leider geht bei Quadro kein DSR, aber das OC hat man gelassen; auch wenn mit 250W wohl vermutlich unter Luft nur 16xx bis knapp 1700 MHz drin sein dürfte mit 100% RPM. :D

https://www.reddit.com/r/nvidia/comments/87jvsv/nvidia_announces_quadro_gv100_voltapowered/


Working on some stuff now. I had done my Titan V benchmarks in 4k, but the Quadro doesn’t seem to support DSR so I can’t compare apples and apples.

So far: Unigen Heaven 1440p/max/8xAA is 2753 for Quadro vs 2724 Titan V (both with +50/50 OC)


E: Leider wenig aussagekräftig - die ASIC Quali könnte einfach nur ein wenig höher bei der Quadro gewesen sein, sodass der Boost ein wenig über dem der V liegt. Hier hätte ich mir die Angabe von Taktraten während dem Benchmark gewünscht.
Hoffentlich kommt die Tage noch mehr. Interessant wäre sicherlich auch ein Bandbreiten-Scaling Test GV100 vs. TITAN V.

Bei der V hatte HBM-OC in 4K ja schon ein paar fps gebracht:
https://www.youtube.com/watch?v=-kHUSRLOeYw

scully1234
2018-04-08, 14:43:55
Die Quadro Karte kann auch schon den NVLink 2 supporten ,was man bei der neuen DGX Station präsentiert hatte???

Quasi könnte man hier auch 8 Stück auf einem Board verschalten, wenn das wahr ist:devil:

robbitop
2018-04-08, 15:54:34
Was aber für Spiele nichts bringt, da es nicht wie eine für die Anwendung transparente GPU wirkt. Dafür sind die Latenzen sicherlich deutlich zu hoch.

scully1234
2018-04-08, 16:06:25
Was aber für Spiele nichts bringt, da es nicht wie eine für die Anwendung transparente GPU wirkt. Dafür sind die Latenzen sicherlich deutlich zu hoch.

Wie hat denn Epic mit seiner Engine diese Star Wars Demo in Real Time gestemmt?

Das waren doch nach Aussagen auch 4 verschaltete Volta Karten ,die als GPGPU Cluster mit Optix RTX den Stoff abgearbeitet haben, wenn das so richtig rüber kam

pixeljetstream
2018-04-08, 16:36:13
Expliziter mGPU Support der Engine.
Afaik war das auch nicht Optix sondern DXR.
Optix ist higher level und kann schon lange automatisches mGPU.

Nvlink ist zwar flott aber nicht so schnell dass man bediengslos sagen kann es werden aus 32GB dann 64 oder mehr. Der Zugriff ist nachwievor lahmer als nativ, aber kann je nach Anwendungsfall schnell genug sein.

Godmode
2018-04-08, 17:02:06
Was aber für Spiele nichts bringt, da es nicht wie eine für die Anwendung transparente GPU wirkt. Dafür sind die Latenzen sicherlich deutlich zu hoch.

Und das ist eben die Frage, ob man mit den 200 GB/s zwischen den GPUs, zwei GPUs nicht als eine erscheinen lassen könnte? Man hätte also eine Shared-Memory-Architektur mit zwei GPUs. Eventuell sind aber die Latenzen das Hauptproblem.

robbitop
2018-04-08, 17:51:18
Wie hat denn Epic mit seiner Engine diese Star Wars Demo in Real Time gestemmt?

Das waren doch nach Aussagen auch 4 verschaltete Volta Karten ,die als GPGPU Cluster mit Optix RTX den Stoff abgearbeitet haben, wenn das so richtig rüber kam

In LL APIs kann man mGPU relativ flexibel einsetzen AFAIK. AFR, SFR, geteilte Rendertargets, Aufteilung der Renderpässe etc. Das muss der Entwickler entsprechend implementieren. Für eine Demo wird man das sicherlich getan haben.

edit: zu spät. Pixeljetstream hat schon entsprechend geantwortet...

Und das ist eben die Frage, ob man mit den 200 GB/s zwischen den GPUs, zwei GPUs nicht als eine erscheinen lassen könnte? Man hätte also eine Shared-Memory-Architektur mit zwei GPUs. Eventuell sind aber die Latenzen das Hauptproblem.
Ein vereinigter VRAM ist ja längst nicht alles. Caches müssten kohärent sein. Frontend, Backend etc müssen sich entsprechend abstimmen um nach außen wie eine GPU wirken zu können. Dazu braucht es wesentlich mehr Bandbreite und sehr kurze Latenzen.
Wenn sowas mal funktionieren sollte, müsste es wohl wenigstens auf dem selben Package liegen... (zumindest für Spiele, so dass es für die Anwendung transparent funktionieren soll)

scully1234
2018-04-08, 22:04:45
Expliziter mGPU Support der Engine.
Afaik war das auch nicht Optix sondern DXR.
Optix ist higher level und kann schon lange automatisches mGPU.


Danke erstmal pixeljetstream u robbitop=)

Also hat das Epic selbst implementiert

Jetzt steht aber immer noch im Raum, ob der NVLink dabei auch Verwendung fand, als zusätzlicher Datenbus zur Kommunikation der 4 Karten untereinander

Dann könnte Turing eventuell auch die aufgebohrte Schnittstelle nutzen für solche "Spielereien" falls es preislich schon so weit wäre, den Link im Mainstream zu vermarkten...

Er ist ja nachweislich immer noch um einiges flotter wie die herkömmlichen Highbandwidth Bridges

In LL APIs kann man mGPU relativ flexibel einsetzen AFAIK. AFR, SFR, geteilte Rendertargets, Aufteilung der Renderpässe etc. Das muss der Entwickler entsprechend implementieren. Für eine Demo wird man das sicherlich getan haben.


Ist das in der Konstellation noch der selbe Ablauf , wenn das vollständiges Raytracing war wie dargelegt?

Edgecrusher86
2018-04-09, 11:52:16
E: Habe den GPU-Z Preview-Screenshot der Quadro GV100 mal in den Volta-Thread verschoben, da passt er besser rein:

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11668526&postcount=1586

TobiWahnKenobi
2018-04-21, 00:52:06
interessiert sich hier noch jemand für die TV?

ich bin in nem anderen forum gebeten worden, mal computemark 2.1 über die volta laufen zu lassen. für den einen vllt. nützlich zum vergleich; kostet nix.

http://abload.de/img/computemarktv_2gzzq67.jpg
Titan V @ ~2GHz


und ich habe ein bisschen mit farcry 5 rumgespielt.

https://abload.de/img/farcry5_uhd_ultra_txptps4b.jpg
2x Titan X (Pascal) @ ~2GHz -> 90 AFR-fps

http://abload.de/img/farcry5_2018_04_20_23iusf0.jpg
1x Titan V (Volta) @ ~2GHz -> 80fps sGPU-fps (!!)

ich komme mit der TV schon verdammt nah an meinen beiden alten TXen ran. sofern ich es auf nackte zahlen runterbreche. was ich wohl niemals einholen werde, sind die 2x 300W :) das geht ja (zum glück) diesmal nicht.

------
unterm strich will keine richtige trauer über den auszug der TXen aufkommen.


(..)

mfg
tobi

gravitino
2018-05-09, 08:16:06
Was tut man nicht alles um den PCIe Bus zu entlasten, ist bei den Preisen der Karten da eh nur noch Makulatur:D

Aber ich hab noch keinen gesehen der versucht hat den Link mit ner zweiten Karte und gepatchten Treibern aktivieren zu wollen

Tobi:uponder: :P

Die NVLINK-Brücke ist eher für den HPC-Bereich gedacht. Interessanterweise wären technisch sogar 6 x 45 GB/s drin. Spätestens wenn Du Daten zwischen GPUs hin und her schicken musst (Gradientenakkumulation im Deep Learning), machen sich die 200GB/s im Vergleich zu 12 GB/s PCIe bezahlt.

gravitino
2018-05-09, 08:18:13
Die Quadro Karte kann auch schon den NVLink 2 supporten ,was man bei der neuen DGX Station präsentiert hatte???

Quasi könnte man hier auch 8 Stück auf einem Board verschalten, wenn das wahr ist:devil:

Dann müsstest Du das Ganze so verkabeln:

https://www.nvidia.com/content/dam/en-zz/Solutions/Data-Center/hgx-1/data-center-hgx-volta-whitepaper-graphic-625-t@2x.png

gravitino
2018-05-09, 08:23:09
Was aber für Spiele nichts bringt, da es nicht wie eine für die Anwendung transparente GPU wirkt. Dafür sind die Latenzen sicherlich deutlich zu hoch.

NVLINK hat deutlich kleinere Latenzen als PCIe (DGX1 Volta)

Bei 8 10^-6 s Latenz + 30 MB pro 4k Bild transferiert mit > 45 GB/s sind 120 FPS wohl locker drin.


P2P Connectivity Matrix
D\D 0 1 2 3 4 5 6 7
0 1 1 1 1 1 0 0 0
1 1 1 1 1 0 1 0 0
2 1 1 1 1 0 0 1 0
3 1 1 1 1 0 0 0 1
4 1 0 0 0 1 1 1 1
5 0 1 0 0 1 1 1 1
6 0 0 1 0 1 1 1 1
7 0 0 0 1 1 1 1 1

Unidirectional P2P=Disabled Bandwidth Matrix (GB/s)
D\D 0 1 2 3 4 5 6 7
0 726.07 8.97 10.02 10.02 10.03 10.00 10.07 10.03
1 8.97 724.72 10.03 10.04 10.02 10.00 10.01 10.03
2 9.99 9.99 728.78 9.12 10.10 10.10 10.01 10.04
3 10.02 10.02 9.18 726.07 10.17 10.13 10.06 10.07
4 10.20 10.21 10.08 10.11 723.38 8.99 10.02 10.02
5 10.14 10.16 10.03 10.06 9.08 727.42 10.03 10.00
6 10.22 10.21 10.12 10.16 9.99 10.00 732.88 9.16
7 10.17 10.19 10.13 10.13 10.02 10.00 9.10 724.72

Unidirectional P2P=Enabled Bandwidth Matrix (GB/s)
D\D 0 1 2 3 4 5 6 7
0 728.78 24.10 24.12 47.84 47.89 10.00 9.98 10.03
1 24.11 726.07 47.83 24.11 10.03 47.85 10.05 10.04
2 24.11 47.88 727.42 47.92 10.03 10.05 24.14 10.04
3 47.92 24.14 47.93 716.74 10.16 10.19 10.14 24.13
4 47.85 10.10 10.02 10.06 726.07 24.12 24.12 47.90
5 10.14 47.84 10.08 10.11 24.11 726.07 47.85 24.11
6 10.22 10.23 24.14 10.14 24.12 47.90 732.88 47.97
7 10.22 10.22 10.16 24.13 47.90 24.14 47.93 732.88

Bidirectional P2P=Disabled Bandwidth Matrix (GB/s)
D\D 0 1 2 3 4 5 6 7
0 752.65 9.12 16.88 16.77 16.75 16.05 16.86 16.61
1 9.17 751.92 16.15 16.22 16.24 15.99 16.19 16.18
2 16.80 16.30 759.23 9.16 16.67 16.16 16.87 17.01
3 16.64 16.29 9.25 761.45 17.16 16.35 16.72 16.57
4 16.63 16.18 16.65 16.75 758.50 9.15 17.07 16.92
5 16.49 15.98 16.63 16.41 9.17 757.03 16.36 16.43
6 16.90 16.22 16.92 16.57 16.51 16.10 758.50 9.18
7 16.63 16.19 17.07 17.27 17.16 16.42 9.15 761.45

Bidirectional P2P=Enabled Bandwidth Matrix (GB/s)
D\D 0 1 2 3 4 5 6 7
0 758.50 48.13 48.11 95.48 95.30 16.34 16.50 16.46
1 48.12 759.23 95.32 48.15 16.22 95.34 16.43 16.19
2 48.15 95.41 762.94 95.51 16.50 16.35 48.21 17.07
3 95.44 48.13 95.65 760.71 16.82 16.26 16.85 48.20
4 95.25 16.03 16.75 16.88 759.23 48.14 48.20 95.69
5 16.63 95.46 16.77 16.48 48.15 757.76 95.51 48.13
6 16.66 16.17 48.13 16.78 48.14 95.07 766.68 95.51
7 16.57 16.13 16.80 48.14 95.25 48.14 95.72 759.97

P2P=Disabled Latency Matrix (us)
D\D 0 1 2 3 4 5 6 7
0 4.10 22.54 21.81 21.28 22.15 21.87 21.43 21.17
1 22.33 4.06 22.19 21.78 22.53 22.79 21.68 21.29
2 21.72 21.68 3.81 21.01 21.55 21.74 20.39 20.10
3 22.12 21.79 20.63 4.00 21.79 21.83 20.12 19.87
4 23.21 22.91 21.70 21.62 3.94 22.51 20.88 20.81
5 23.17 22.93 21.73 21.78 21.33 3.65 20.98 20.86
6 22.08 21.89 20.68 20.64 20.82 21.00 3.49 19.78
7 21.88 21.61 20.63 20.40 20.84 21.28 19.49 3.83

P2P=Enabled Latency Matrix (us)
D\D 0 1 2 3 4 5 6 7
0 3.79 10.66 10.38 11.05 10.95 22.60 21.79 21.06
1 10.42 4.04 10.42 10.42 21.93 10.45 21.37 21.90
2 9.29 9.43 3.68 9.37 21.14 20.98 9.32 20.39
3 9.33 9.25 9.30 4.02 21.13 21.08 19.84 8.25
4 9.98 22.45 21.33 21.60 3.84 9.62 9.85 9.81
5 22.70 10.19 21.41 21.70 10.00 3.65 10.15 10.21
6 21.83 21.80 8.57 20.36 8.15 8.57 3.45 8.52
7 21.64 21.58 20.08 8.23 8.68 8.70 8.83 3.86

Skysnake
2018-05-09, 13:54:58
Was ist da wie aufgetragen? Bei welcher Message Größe? Und mit welchen Devices mit welcher Topologie?

20 us sind verdammt viel. Das wird mit Latenz nicht mehr viel zu tun haben sonden mehr mit der Bandbreite.

Meine Benchmarks mit GP100 pcie vs NVLink haben keinen Vorteil nur nvlink gezeigt. Teilweise war es für kleine Messages sogar langsamer....

Keine Ahnung wie es für Volta aussieht aber apriori ist es nicht klar das nvlink irgendwelche Vorteile bei der Latenz bringt. Also für kleine Messages.

gravitino
2018-05-09, 21:58:29
Was ist da wie aufgetragen? Bei welcher Message Größe? Und mit welchen Devices mit welcher Topologie?

20 us sind verdammt viel. Das wird mit Latenz nicht mehr viel zu tun haben sonden mehr mit der Bandbreite.

Meine Benchmarks mit GP100 pcie vs NVLink haben keinen Vorteil nur nvlink gezeigt. Teilweise war es für kleine Messages sogar langsamer....

Keine Ahnung wie es für Volta aussieht aber apriori ist es nicht klar das nvlink irgendwelche Vorteile bei der Latenz bringt. Also für kleine Messages.

Das ist wie angegeben eine DGX1 Volta, sprich 3 disjunkte Ringe als augmentierter Hypercube angeordnet.

https://images.anandtech.com/doci/12581/nvlink20.png

Der Benchmark ist CUDA_HOME/samples/1_Utilities/p2pBandwidthTestLatency (https://github.com/zchee/cuda-sample/blob/master/1_Utilities/p2pBandwidthLatencyTest/p2pBandwidthLatencyTest.cu#L171). Es sind 10000000*sizeof(int) = 40 MB pro Kante. Ich kann die Aussage bezüglich der P100 nicht bestätigen, wir haben hier 4x P100 via 2 PCIe Switches und eine andere Kiste mit zusätzlichem NVLINK Interconnect.

https://www.microway.com/wp-content/uploads/SYS-1028GQ-TXR_Rev3.png

Bandbreiten bleiben selbst bei wenigen 100 MB stabil at > 200 GB/s akkumuliert über alle Kanten bei ähnlichen Latenzvorteilen zugunsten NVLINK. Oben sieht man schön, dass bei aktiver NVLINK-Kante die Latenz 8us vs 20us bei PCIe-Kante ist, als 2x kleinere Latenz bei NVLINK. Zudem muss man feststellen, dass die Bandbreiten oben für PCIe sequentiell gequeried worden, sprich völlig überschätzt sind. In Summe können die 4 PCIe-Switches nur ungefähr 40 GB/s schaufeln, währenddessen die NVLINK-Performance selbst dann noch 45 GB/s pro Kante ist, wenn man alle Kanten auf einmal befuhrwerkt, was unglaublichen 8 (GPUs)*6 (NVLINK-Anschlüsse)/2(Kante)*45 GB/s = 1080 GB/s entspricht.

Skysnake
2018-05-10, 00:40:54
Wie gesagt wenn du MB geschweige denn 40 oder 100 überträgt, dann hat das NICHT mit Latenz zu tun sondern mit Bandbreite.

Mach mal nochmal den Test mit 8 Byte also 1 DP Wert.

Wobei x86 vs Power8+ nicht ganz vergleichbar sind. Mehr kann ich dazu nicht sagen.

Aber rein prinzipiell kann man mit dem Test nur die maximale Bandbreite betrachten, aber nicht die Latenz von einem Interconnect, also die small message performance.

Hübie
2018-05-10, 09:00:26
Da frage ich mich wie praxisrelevant es ist so kleine Informationseinheiten zu versenden. Soviel ich noch weiß benötigt man Bandbreite zwischen den GPUs und Speicherplatz auf den GPUs (daher das Upgrade auf 32 GB). Selbst wenn man so kleine Einheiten versenden muss, kann man Batchen oder? ;)

gravitino
2018-05-10, 09:43:13
Wie gesagt wenn du MB geschweige denn 40 oder 100 überträgt, dann hat das NICHT mit Latenz zu tun sondern mit Bandbreite.

Mach mal nochmal den Test mit 8 Byte also 1 DP Wert.

Wobei x86 vs Power8+ nicht ganz vergleichbar sind. Mehr kann ich dazu nicht sagen.

Aber rein prinzipiell kann man mit dem Test nur die maximale Bandbreite betrachten, aber nicht die Latenz von einem Interconnect, also die small message performance.

Wozu sollte ich für SLI-äquivalente Funktionalität 8 Byte verschicken? Ich rendere das halbe Bild, versende es an den Peer und der schreibt es raus. Die Bandbreite von 2nd Generation NVLINK kommt nicht nur da oben im Benchmark raus (was übrigens ein reales Programm auf einer DGX1 ausgeführt ist und nicht aus irgendeinem Whitepaper abgeschrieben wurde), sondern wird in jedem unserer selbstentwickelten Programme mit P2P-Access Tag für Tag bestätigt. NVLINK ist abstrus schnell und NVSWITCH in der DGX2 wird neue Bandbreitenmaßstäbe setzen.

gravitino
2018-05-10, 10:09:04
Da frage ich mich wie praxisrelevant es ist so kleine Informationseinheiten zu versenden. Soviel ich noch weiß benötigt man Bandbreite zwischen den GPUs und Speicherplatz auf den GPUs (daher das Upgrade auf 32 GB). Selbst wenn man so kleine Einheiten versenden muss, kann man Batchen oder? ;)

Das Upgrade auf 32GB für V100 und GV100 ist hauptsächlich Deep Learning geschuldet, damit man größere Models für Datenparallelismus fahren kann. Modelparallelismus erlaubt zwar signifikant größere Modelle, da der Speicherplatz mit der Anzahl der GPUs wächst, skaliert leider aber nicht in Performance über viele GPUs => mach den RAM einfach größer. NVSWITCH in der DGX2 kam dazu, weil eine 16 GPU NVLINK Topologie mit nur 6 Kabeln pro Karte ziemlich sparse und zudem schwer zu programmieren wäre.

Skysnake
2018-05-10, 10:21:09
Da frage ich mich wie praxisrelevant es ist so kleine Informationseinheiten zu versenden. Soviel ich noch weiß benötigt man Bandbreite zwischen den GPUs und Speicherplatz auf den GPUs (daher das Upgrade auf 32 GB). Selbst wenn man so kleine Einheiten versenden muss, kann man Batchen oder? ;)
Ganz einfach. Weil du z.b. Einen iterative solver hast bei dem du schauen musst ob du konvergiert oder nicht. Auch ansonsten habt es viele Verfahren bei denen immer wieder z.b. ein Allreduce gemacht werden muss. Oder für jedwede barrier. Da sind es sogar 0 Byte die man versendet...

Es ist also SEHR praxisrelevant. Ich habe genug Code Analysen von HPC Codes gemacht bzw gelesen und da hattest du praktisch nie Messages die auch nur 1kb groß waren. Selbst wenn man 100GB+ an Daten im RAM hatte.

Du willst ja an sich gar nicht große Messages haben, weil du dann aufwendig asynchrone Kommunikation implementieren musst. Und gerade bei GPUS hast du oft den Fall dass das übertragen aller Daten etwa so angenehm dauert wie die Berechnung an sich. Und das liegt öfters nicht an mangelnder Bandbreite sondern einfach der Latenz.

Und wie gesagt Latenz misst man mit 0 oder maximal 1 Byte Messages. Danach schaut man dann ab welcher Größe man Bandbreiten limitiert ist. Das sind in der Regel aber einige hundert KByte bis einstellige MB. Bei 40MB+ ist man rein Bandbreiten limitiert. Kann also keinerlei Aussage mehr über die Latenz machen.

gravitino
2018-05-10, 12:12:39
Ganz einfach. Weil du z.b. Einen iterative solver hast bei dem du schauen musst ob du konvergiert oder nicht. Auch ansonsten habt es viele Verfahren bei denen immer wieder z.b. ein Allreduce gemacht werden muss. Oder für jedwede barrier. Da sind es sogar 0 Byte die man versendet...

Es ist also SEHR praxisrelevant. Ich habe genug Code Analysen von HPC Codes gemacht bzw gelesen und da hattest du praktisch nie Messages die auch nur 1kb groß waren. Selbst wenn man 100GB+ an Daten im RAM hatte.

Du willst ja an sich gar nicht große Messages haben, weil du dann aufwendig asynchrone Kommunikation implementieren musst. Und gerade bei GPUS hast du oft den Fall dass das übertragen aller Daten etwa so angenehm dauert wie die Berechnung an sich. Und das liegt öfters nicht an mangelnder Bandbreite sondern einfach der Latenz.

Und wie gesagt Latenz misst man mit 0 oder maximal 1 Byte Messages. Danach schaut man dann ab welcher Größe man Bandbreiten limitiert ist. Das sind in der Regel aber einige hundert KByte bis einstellige MB. Bei 40MB+ ist man rein Bandbreiten limitiert. Kann also keinerlei Aussage mehr über die Latenz machen.

Du solltest Deine Daten-Distribution-Patterns überdenken, wenn global Barriers Dein major Bottleneck sind. Vielleicht ist ja CUDA-Programmierung nichts für Dich. Denn würdest Du den Quellcode aus den CUDA-Samples mal lesen, dann hättest Du gesehen, dass dort 40 MB für Bandbreite und 1 Byte Messages für Latenz benutzt wurden.

https://github.com/zchee/cuda-sample/blob/master/1_Utilities/p2pBandwidthLatencyTest/p2pBandwidthLatencyTest.cu#L296

Wenn Du allerdings nur die Zeit anderer Menschen mit Schwachsinnsaussagen zumüllen möchtest in der Hoffnung so etwas wie Kompetenz auszustrahlen, möchte ich Dich anhalten, Dir einen anderen Gesprächspartner zu suchen. Ich weiß auch gar nicht, warum ich von Dir angehalten werde, hier ständig etwas beweisen zu müssen, wenn die Aussage "8*10^{-6} Sekunden Latenz + 45 GB/s Bandbreite reichten für SLI-äquivalentes Rendern bei 120 FPS aus" zur Diskussion stehen. Ich wurde nach Größen für Bandbreite gefragt, und ich antworte korrekt, daraufhin unterstellst Du mir schlichtweg, dass Latenz auf der gleichen Größe gemessen wurde. Warum eigentlich sollte das Issuen (Latenz) einer 1B Message mehr Zeit brauchen als für 40 MB. Verwechselst Du vielleicht Contention auf die shared resource "Memory Controller" mit Latenz? Und wie oben gesagt, wenn Du 40 MB in 1B chunks verschickst in einer Endlosschleife ohne Rechnung dazwischen, dann ist Dir auch nicht mehr zu helfen. Ich würde mich freuen, wenn Du in Zukunft von dieser Art zu argumentieren Abstand nehmen würdest. Es ist letztlich egal, ob Deine Meinung persistiert, wenn die Fakten das Gegenteil aufzeigen. Das ärgert mich maßlos! Wie wäre es, wenn Du mal mit Fakten oder Benchmarks von Dir ausgeführt auf State-of-the-Art Hardware vorbeikommst, wenn wir hier schon akademische Maßstäbe an Aussagen legen. Vielleicht aber hast auch Du Recht und ich distanziere mich von 3 GTC-Talks, zwei Buchkapitel über CUDA bei Morgan Kaufman, und meinem Doktortitel auf diesem Gebiet. Und nein, ich entschuldige mich auch nicht für das Gesagte.

Skysnake
2018-05-10, 13:23:33
Du solltest Deine Daten-Distribution-Patterns überdenken, wenn global Barriers Dein major Bottleneck sind.
Das ist nicht die Beschreibung meines Problems sondern die Quintessenz aus der Analyse von rund 5 Dutzend HPC Codes die teilweise auf tausenden von Knoten laufen über Wochen und Monate. Das sind also dutzende von Millionen von Zeiten Code die dutzende bis hunderte von Entwicklern über Jahre teils sogar Jahrzehnte produziert haben und die zusammen Unmengen an Ressourcen pro Jahr verbrauchen. Kannst dir ja mal überlegen wieviel Leute auf diesen Codes promoviert haben...

Die werden sicherlich alle nicht wissen was Sie tun.


Vielleicht ist ja CUDA-Programmierung nichts für Dich. Denn würdest Du den Quellcode aus den CUDA-Samples mal lesen, dann hättest Du gesehen, dass dort 40 MB für Bandbreite und 1 Byte Messages für Latenz benutzt wurden.

Ich programmiere seit Jahren mit CUDA, ahne Lehre gemacht und mit nVidia auch schon mehrfach direkt zusammengearbeitet, wobei sie mit den Ergebnissen zufrieden waren.

Aber ja, in den Quellcode der Samples habe ich schon länger nicht mehr geschaut, aber vor allem kann ich dir nicht in den Kopf schauen um zu wissen was du wann wo wie mit welcher Version und welchem Tuning gemacht hast. Daher erdreiste ich mir auch nachzufragen...

Aber nur mal so am Rande. Die Nvidia Samples sind ganz nett, zeigen einem aber nicht alles. Vor allem nicht, wenn man sich das Zeug wie ich mit dem Hintergedanken Applikationen auf tausenden von Knoten laufen zu lassen.


https://github.com/zchee/cuda-sample/blob/master/1_Utilities/p2pBandwidthLatencyTest/p2pBandwidthLatencyTest.cu#L296

Wenn Du allerdings nur die Zeit anderer Menschen mit Schwachsinnsaussagen zumüllen möchtest in der Hoffnung so etwas wie Kompetenz auszustrahlen, möchte ich Dich anhalten, Dir einen anderen Gesprächspartner zu suchen. Ich weiß auch gar nicht, warum ich von Dir angehalten werde, hier ständig etwas beweisen zu müssen, wenn die Aussage "8*10^{-6} Sekunden Latenz + 45 GB/s Bandbreite reichten für SLI-äquivalentes Rendern bei 120 FPS aus" zur Diskussion stehen. Ich wurde nach Größen für Bandbreite gefragt, und ich antworte korrekt, daraufhin unterstellst Du mir schlichtweg, dass Latenz auf der gleichen Größe gemessen wurde. Warum eigentlich sollte das Issuen (Latenz) einer 1B Message mehr Zeit brauchen als für 40 MB. Verwechselst Du vielleicht Contention auf die shared resource "Memory Controller" mit Latenz? Und wie oben gesagt, wenn Du 40 MB in 1B chunks verschickst in einer Endlosschleife ohne Rechnung dazwischen, dann ist Dir auch nicht mehr zu helfen. Ich würde mich freuen, wenn Du in Zukunft von dieser Art zu argumentieren Abstand nehmen würdest. Es ist letztlich egal, ob Deine Meinung persistiert, wenn die Fakten das Gegenteil aufzeigen. Das ärgert mich maßlos!
Schau auch mal über den eigenen Tellerrand. Nvlink ist für mache Einsatzbereiche sehr schick, für andere aber ist der Vorteil sehr klein bzw nicht existent. Meine Aussagen beziehen sich hierbei auf Minsky also power8+ kist3n mit p100. X86 sieht etwas anders aus, das weiß ich aber Prinzipiell sollte es zu d2n gleichen Ergebnissen kommen.



Wie wäre es, wenn Du mal mit Fakten oder Benchmarks von Dir ausgeführt auf State-of-the-Art Hardware vorbeikommst, wenn wir hier schon akademische Maßstäbe an Aussagen legen. Vielleicht aber hast auch Du Recht und ich distanziere mich von 3 GTC-Talks, zwei Buchkapitel über CUDA bei Morgan Kaufman, und meinem Doktortitel auf diesem Gebiet. Und nein, ich entschuldige mich auch nicht für das Gesagte.

Die Sachen in Büchern und von nVidia kannste als Ausgangspunkt nehmen, aber da werden nie die Schwächen gezeigt sondern die Szenarien bei denen es flutscht.

Wo es nicht flutscht kommt mal gerne ein NDA drauf, wenn man mit nVidia an der Lösung arbeitet.

@Topic hast du die Prozesse gepinnt und auf Performance governor gestellt? Wenn nicht kannste die Latenzwerte eh vergessen.

gravitino
2018-05-10, 14:48:22
Das ist nicht die Beschreibung meines Problems sondern die Quintessenz aus der Analyse von rund 5 Dutzend HPC Codes die teilweise auf tausenden von Knoten laufen über Wochen und Monate. Das sind also dutzende von Millionen von Zeiten Code die dutzende bis hunderte von Entwicklern über Jahre teils sogar Jahrzehnte produziert haben und die zusammen Unmengen an Ressourcen pro Jahr verbrauchen. Kannst dir ja mal überlegen wieviel Leute auf diesen Codes promoviert haben...

Die werden sicherlich alle nicht wissen was Sie tun.


Und die schreiben da alle "Sharing embarassingly parallel and independent rendering pipelines is considered intractable at 8 micro seconds latency and 45 GB/s bandwidth."


Ich programmiere seit Jahren mit CUDA, ahne Lehre gemacht und mit nVidia auch schon mehrfach direkt zusammengearbeitet, wobei sie mit den Ergebnissen zufrieden waren.


Siehe meine Bemerkung zu Possessivpronomen unten.


Aber ja, in den Quellcode der Samples habe ich schon länger nicht mehr geschaut, aber vor allem kann ich dir nicht in den Kopf schauen um zu wissen was du wann wo wie mit welcher Version und welchem Tuning gemacht hast. Daher erdreiste ich mir auch nachzufragen...


Nicht etwa dass sie in jeder CUDA-Installation liegen oder ich gar eine äquivalente Version auf Deine Nachfrage verlinkt hätte. Mir düngt, es ist Dir egal, was ich sage, solange Du widersprechen kannst.


Aber nur mal so am Rande. Die Nvidia Samples sind ganz nett, zeigen einem aber nicht alles. Vor allem nicht, wenn man sich das Zeug wie ich mit dem Hintergedanken Applikationen auf tausenden von Knoten laufen zu lassen.


Genau das war ja auch der Claim von mir, dass NVLINK + Infiniband/Omnipath ideal als SLI-Ersatz verwendet werden kann, not.


Schau auch mal über den eigenen Tellerrand. Nvlink ist für mache Einsatzbereiche sehr schick, für andere aber ist der Vorteil sehr klein bzw nicht existent. Meine Aussagen beziehen sich hierbei auf Minsky also power8+ kist3n mit p100. X86 sieht etwas anders aus, das weiß ich aber Prinzipiell sollte es zu d2n gleichen Ergebnissen kommen.


Es geht um die Feasibility von NVLINK für SLI-äquivalente Zwecke. Es geht nicht um Power8, es geht nicht um iterative Fixpunktverfahren, es geht nicht um Host to Device Kommunikation sondern Device to Device Kommunikation, soll ich fortfahren mit Deinem Whataboutismus nur zum Zwecke mir widersprechen zu können.



Die Sachen in Büchern und von nVidia kannste als Ausgangspunkt nehmen, aber da werden nie die Schwächen gezeigt sondern die Szenarien bei denen es flutscht.

Wo es nicht flutscht kommt mal gerne ein NDA drauf, wenn man mit nVidia an der Lösung arbeitet.


Vielleicht hätte ich Possessivpronomen in dem Satz verwenden sollen, damit der Sinn klar wird.


@Topic hast du die Prozesse gepinnt und auf Performance governor gestellt? Wenn nicht kannste die Latenzwerte eh vergessen.

Das ist ein sequentielles Programm, vielleicht solltest Du den Quelltext in den Samples wirklich mal lesen. Es sind weder mehrere Threads noch Prozesse involviert.

Am Rande, kannst Du meinen Hang zur unfreundlichen Antwort langsam nachvollziehen? Du ignorierst völlig was ich sage, Du ignorierst verlinkte Quellen, nach denen DU explizit gefragt hast und behauptest dann irgendwas anderes. Was kommt als nächstes: "NVLINK performs bad at Tegra chips?" Ich beende das hier mal, weil es niemanden etwas bringt, noch nicht einmal uns beiden.

Skysnake
2018-05-10, 16:18:49
Pinning hat nichts mit multithread oder mehreren Prozessen zu tun..Auch sequenzielle Programme profitieren davon. Vor allem weil die Zeitmessung auf der CPU stattfindet...

Und ich habe nirgends gesagt, das nvlink grundsätzlich schlecht ist... Wenn du große Messages hast, die du austauschen musst ist der Vorteil klar. Aber nvlink rückt nicht immer. Mehr wollte ich nicht sagen. Du hast oben meiner Meinung nach einfach nur verallgemeinert und dich missverständlich ausgedrückt.

Ansonsten wäre es schon interessant zu wissen, wenn sich nvlink vs pcie auf gdx1 anders verhält als auf Power.

Dafür müsste man aber eben klar sagen was man genau gemacht hat und wie gesagt ohne Performance governor und Pinning brauchen wir nicht drüber reden.

Die Antwort wirst du btw auch von nvidia bekommen wenn du mit deren Devs zusammen arbeitest. Wobei x86 weniger empfindlich sein soll als Power. Es soll aber in beiden Fällen nicht egal sein.

Vielleicht haben Sie aber auch inzwischen was daran geändert. Ist immerhin schon mehr als ein Jahr her

gravitino
2018-05-11, 11:47:53
Pinning hat nichts mit multithread oder mehreren Prozessen zu tun..Auch sequenzielle Programme profitieren davon. Vor allem weil die Zeitmessung auf der CPU stattfindet...


Dort wurden CUDA-Events zur Zeitmessung verwendet ... Jenes Eventsystem, das eben nicht auf der CPU läuft, weil es zu Synchronisatuonszwecken auf der GPU benutzt wird. Keines Deiner Argumente hält. Was machst Du denn jetzt, wenn ich den einen Prozess nur für dich pinne und es kommt das Gleiche raus? Was ist dann schuld, dass da 8 micro seconds für Latenz rauskommt?

"The function cudaEventSynchronize() blocks CPU execution until the specified event is recorded. The cudaEventElapsedTime() function returns in the first argument the number of milliseconds time elapsed between the recording of start and stop. This value has a resolution of approximately one half microsecond."


Und ich habe nirgends gesagt, das nvlink grundsätzlich schlecht ist... Wenn du große Messages hast, die du austauschen musst ist der Vorteil klar. Aber nvlink rückt nicht immer. Mehr wollte ich nicht sagen. Du hast oben meiner Meinung nach einfach nur verallgemeinert und dich missverständlich ausgedrückt.

Ansonsten wäre es schon interessant zu wissen, wenn sich nvlink vs pcie auf gdx1 anders verhält als auf Power.

Dafür müsste man aber eben klar sagen was man genau gemacht hat und wie gesagt ohne Performance governor und Pinning brauchen wir nicht drüber reden.


Es ist klar gesagt worden, was gemacht wurde. Du bist bloß brutal ignorant.

Skysnake
2018-05-11, 17:37:00
Dann wundere ich mich weil nvidia sich mal geweigert hat ohne Pinning und Performance governor Werte zu akzeptieren.

Wobei das hier nur die minimale Latenz sein sollten, wenn ich mich recht erinnere. Muss heute abend mal in die Sourcen schauen.

BlackArchon
2018-05-11, 17:55:31
Eine kurze Frage an die Titan V-Experten: vor einigen Wochen hatte doch ein Forscher behauptet, dass sich die Titan V verrechnen würde. Hat sich da inszwischen irgendetwas Neues ergeben, oder war das nur falscher Alarm?

Skysnake
2018-05-11, 21:36:21
Ich habe davon nichts mehr gehört.

Die GeForce sind verbrannt seit der EULA Änderung das man sie nicht mehr in Rechenzentren einsetzen darf.

Ich denke daher wird es auch nicht mehr so viele interessieren.

gravitino
2018-05-11, 22:20:37
Eine kurze Frage an die Titan V-Experten: vor einigen Wochen hatte doch ein Forscher behauptet, dass sich die Titan V verrechnen würde. Hat sich da inszwischen irgendetwas Neues ergeben, oder war das nur falscher Alarm?

Das gleiche Programm hatte auf Maxwell Fehler. Die letzte Karte, welche von Werk aus Bitflips im RAM hatte, die man mit endlicher Rechenzeit nachweisen konnte, war die GTX 780Ti.

BlackArchon
2018-05-11, 22:21:32
Also war es nur ein Programmierfehler (des Anwenders) und kein Nvidia-Problem?

gravitino
2018-05-12, 10:44:28
Also war es nur ein Programmierfehler (des Anwenders) und kein Nvidia-Problem?

Korrekt. Man muss dazu wissen, dass CUDA 9 ein leicht anderes Programmiermodell hat, welches Code mit impliziten Annahmen über Warpsynchronität leider bricht. Meines Erachtens keine so schlaue Entscheidung von NVIDIA; es erinnert ein wenig an das Python2 -> Python3 Debakel. Es könnte sein, dass besagter closed source code implizit Warpsynchronizität vorausgesetzt hat.

Skysnake
2018-05-12, 11:17:09
Wobei das schon immer Bad practice gewesen wäre

BlackArchon
2018-05-13, 19:26:22
Korrekt. Man muss dazu wissen, dass CUDA 9 ein leicht anderes Programmiermodell hat, welches Code mit impliziten Annahmen über Warpsynchronität leider bricht. Meines Erachtens keine so schlaue Entscheidung von NVIDIA; es erinnert ein wenig an das Python2 -> Python3 Debakel. Es könnte sein, dass besagter closed source code implizit Warpsynchronizität vorausgesetzt hat.
Ok, danke für die Erklärung. :)

F4USt
2018-05-25, 12:34:55
Test bei Computerbase

Mifcom miniBOSS i9-7980XE im Test: Titan V schlägt 1080 Ti in Spielen um bis zu 50 Prozent (https://www.computerbase.de/2018-05/mifcom-miniboss-titan-v-test/)

Ex3cut3r
2018-05-25, 13:56:50
Teilweise beeindruckende Leistung, die GTX 1080Ti und erst recht die Vega 64 werden teilweise deklassiert. Ich sage das nur ungern, aber AMD hat den Zug verpasst, erst nächstes Jahr soll ein Vega Nachfolger erscheinen, wie will man noch +1 Jahr konkurrenzfähig sein?

Man muss davon ausgehen, dass Turing eben ein "netter" Wurf wird. Vega ist auf dem Leistungs Niveau von einer GTX 1080 die kam im Juni 2016, das sind 2 Jahre + 1 Jahr bis der Vega Nachfolger kommt, macht satte 3 Jahre!!! Auf einem Leistung Niveau....wtf!!!! :(

Das macht die GTX 2070 garantiert zur 750€ Karte. :redface:

Da mach ich nicht mehr mit, irgendwann ist auch mal gut. :mad:

Nosferatu1
2018-05-25, 14:21:04
50% wasn monster bei gleichem verbrauch :O Quasi die 1180TI Leistung wie immer oder?

Linmoum
2018-05-25, 14:49:35
Es sind im Schnitt rund 30%, man sollte mehr als nur Clickbait-Überschriften (in der aber auch nur bis zu steht) lesen.

Ansonsten nichts neues. Deckt sich mit den bisherigen Benchmarks, PCGH u.a. hatte sie ja auch schon im Labor.

Nosferatu1
2018-05-25, 14:50:59
Bei gleichem Verbrauch. Klasse fortschritt. Bin auf die gamerversion gespannt.

Nightspider
2018-05-25, 14:51:45
Den Test hätte sich Computerbase eigentlich sparen können.

Nosferatu1
2018-05-25, 14:52:22
Warum ich kannte ihn noch nicht :) sprich nicht für alle.

Nightspider
2018-05-25, 14:53:51
Wenn du noch keinen Test einer Titan V gelesen hast lebst du aber auch hinterm Mond. ^^

Das einzige was jetzt interessiert ist die nächste Generation die in 2-3 Monaten kommt.

Nosferatu1
2018-05-25, 14:55:28
Möglich woher soll ich das auch herbekommen ich google nicht nach sowas sondern schnapp es zufällig auf :)

Da kommt gar nix bis Navi kommt und nvidia kontern kann.

Daredevil
2018-05-25, 15:00:27
Für eine NextGen Titan finde ich den Sprung ebenfalls nicht wirklich groß, 30% sind nett, aber das schafft eine 1080ti auch im Vergleich zur 1080 und das halt innerhalb einer Generation.
Ich hoffe also auf eine ... "Titan T"?! wo wirklich geklotzt wird. :D

TobiWahnKenobi
2018-05-25, 15:03:00
es sind bei mir crossover gut 40-50% über meiner TXP, beide unter wasser und beide mit ca. 2GHz GPU-takt. wie weiter vorn schon steht, hat TV zwei TXP ersetzen können. EASY!


(..)

mfg
tobi

dildo4u
2018-05-25, 15:06:40
Das ganze zeigt einfach das die meisten Games CPU limitiert sind Sniper Elite DX12 scheint als einziges halbwegs zu skalieren 54fps Vega 100fps Titan V.
Luxmark zeigt Verglichbare 90%+.

Korvaun
2018-05-25, 15:19:40
Na dafür das Volta keine "Gamer-GPU" ist sind die Werte beeindruckend, wenn man jetzt mal den Hardwareaufwand und den Preis aussen vor läßt ;)

Bin gespannt was Nv mit der GTX1180/GTX2080 aus dem Hut zaubert...
0

vinacis_vivids
2018-05-25, 15:19:51
Naja, im LL-Umbau ist nicht viel angekommen. Ein weiterer aufgeblähter M(P)axwell.

https://abload.de/img/titanvwoiis8suu.png

HBCC "on" bei Vega habe ich etwas vermisst, stattdessen gabs das sinnfreie OC.

maximus_hertus
2018-05-25, 15:26:25
Bei gleichem Verbrauch. Klasse fortschritt. Bin auf die gamerversion gespannt.

Dir ist klar das die Titan V bzw. der Volta Chip 815 mm² Fläche einnimmt?

Alleine schon diese Tatsache sorgt dafür, dass man nicht sinnvoll auf Turing projizieren kann.

Ein "doppelter" Vega mit Takt im Sweet Sport würde locker +50% fps auf Vega 64 drauflegen und dabei den gleichen Stromverbrauch haben. Aber wie gesagt, Turing ist nicht Volta und es sind ja nur noch 2-3 Monate, bis wir mehr wissen werden.

dildo4u
2018-05-25, 15:28:29
Wolf läuft nicht wirklich optimal,Doom skaliert deutlich besser.
Der Engine Entwickler selber wird immer das Optimale aus der Engine rausholen.

http://abload.de/img/doomtitanvjys37.png

Ex3cut3r
2018-05-25, 15:40:45
Eine "kleine" 5K Karte, das 1440p der Zunkunft, wo bleiben die 5K 32" Monitor mit 120HZ und OLED? ^^

Den Sinn von DX12 in 5K und akuellen Konsolen Ports mit halbwegs akutellen CPUs (ab Haswell i7) muss man mir auch nochmal genauer erklären. ^^

Daredevil
2018-05-25, 15:42:07
es sind bei mir crossover gut 40-50% über meiner TXP, beide unter wasser und beide mit ca. 2GHz GPU-takt. wie weiter vorn schon steht, hat TV zwei TXP ersetzen können. EASY!


(..)

mfg
tobi
Absolut hat sich das für dich gelohnt. Mit Wakü und Takt wird es natürlich nochmal eine Ecke mehr, den Einblick bekommt man nun einmal nicht bei Stock vs. Stock Tests. :D
SLI ist leider ja auch nicht mehr für konstante und gute Skalierung bekannt. ^^

vinacis_vivids
2018-05-25, 15:53:17
Doom!=WolfensteinII
Vega hat einen LL-Sprung gemacht während Volta einfach nur stagniert und aufbläht.
Auch FC5 nicht überzeugend:

https://abload.de/img/titanvfc5b9spf.png

2xVega machen da smoothe 60fps

Man sieht schon das Limit dieser veralteten uArch. Insgesamt enttäuschende min. fps.

robbitop
2018-05-25, 16:43:07
So beeindruckend ist das IMO nicht. 21 statt 12 Mrd Transistoren. Man ist breiter und kann niedriger takten (besserer Betriebspunkt) und hat auch noch das modernere Fertigungsverfahren. Da bleibt für die mArch nicht viel von den 50% übrig mMn.

Botcruscher
2018-05-25, 16:44:33
Doom!=WolfensteinII
Vega hat einen LL-Sprung gemacht während Volta einfach nur stagniert und aufbläht.
Man sieht schon das Limit dieser veralteten uArch. Insgesamt enttäuschende min. fps.

:ulol: Echt für Freunde des guten Humors....

Raff
2018-05-25, 16:55:40
Man muss Nvidia wirklich sehr hassen und sich AMD sehr hochprozentig schönsaufen, um eine Vega 64 einer Titan V vorzuziehen. :ugly: Aus Preis-Leistungs-Sicht ist die Sache klar, aber darum kann es im Kontext einer Titan V (http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Specials/Nvidias-Goldjunge-Titan-V-im-Test-1252002/) eigentlich nicht gehen.

MfG,
Raff

r3ptil3
2018-05-25, 17:19:51
Nosferatu1 macht den Thread wirklich lustig hier. :ulol:


Also die 30% sind grundsätzlich schon etwas mager...
Mal ganz abgesehen von der Chipfläche, aber ohne Konkurrenz braucht es wohl nicht mehr Leistung.

Bin mehr als gespannt wo die 1180 preislich stehen wird.

Meine Hoffnung als Konkurrenz liegt bei Intel.
Von AMD wird da die nächsten 3-4 Jahre wohl kaum was kommen.

Nosferatu1
2018-05-25, 17:22:07
Warum was habe ich lustiges gesagt kannst nix wiederlegen das ist viel witziger allgemein :). Warum will jeder neue karten die 1080ti reicht für alles locker, wegen den 3% die jammern wird nvidia sicher was raushauen ohne konkurrenz.

scully1234
2018-05-25, 18:36:47
Das ganze zeigt einfach das die meisten Games CPU limitiert sind Sniper Elite DX12 scheint als einziges halbwegs zu skalieren 54fps Vega 100fps Titan V.
Luxmark zeigt Verglichbare 90%+.


Besonders wenn man wie im CB Test beschrieben die CPU der Mifcom Box nur mit 4.4 GHZ taktet, und dann noch dazu den I9 samt Plattform mit seinem lahmen Mesh dazu packt

Wo soll da die Titan V skallieren?

I 8700K geköpft ,wassergekühlt und auf 5.2 GHZ geknallt, so wird ein Schuh draus, um das Monster zu füttern

Dann endet das dann auch in etwa da

es sind bei mir crossover gut 40-50% über meiner TXP, beide unter wasser und beide mit ca. 2GHz

(..)

mfg
tobi



Vega hat einen LL-Sprung gemacht

Und du glaubst hier interessiert sich wer für das rote Tuk Tuk ?

N0Thing
2018-05-26, 02:59:17
Ganz interessant ist auch, dass die Titan V mit Async Compute und DX12 besser zurecht kommt als Pascal.

https://www.computerbase.de/2018-05/mifcom-miniboss-titan-v-test/3/

Scheint wohl doch nicht per se an gekauften Entwicklern und schlechter AMD-Architektur zu liegen, wie man es hier so oft liest.
Auf jeden Fall interessantes Review und man sieht den drastischen Vorsprung von Nvidia gegenüber AMD ziemlich deutlich.

Nosferatu1
2018-05-26, 07:55:17
Selten trifft es noch nicht mal.....

Wann wird der Preis der Titan V fallen falls überhaupt?

Ex3cut3r
2018-05-26, 12:16:03
Gar nicht, eine Titan sinkt eigentlich nicht im Preis, warte einfach auf Turing bzw. auf die GTX 2080 Ti.

Mach dich aber auf neue Spitzen Preise auch für die „Normalen“ GPUs gefasst, ich denke eine GTX 2070 für 750€ Startpreis ist gar nicht so unrealistisch.

TobiWahnKenobi
2018-05-26, 12:28:47
das ist einer der schönen nebeneffekte, wenn titan auf dem karton steht. :) man wird sie immer gut wieder los. wüsste nicht, dass ich jemals verlust mit titanen gemacht hätte.. und ich hatte nicht nur alle; ich hatte die meisten sogar doppelt. TV wird die ausnahme bleiben, da gibts zum glück kein mGPU mehr.. :)

den teil mit dem media markt habe ich nicht verstanden.


(..)

mfg
tobi

Nosferatu1
2018-05-26, 12:45:27
Was ist eine gtx 270? Es ist bestätigt von nvidia das die neuen karten 11 vorne haben werden und nicht 20. und ich soll keine ahnung haben :D

hmmm
2018-05-26, 13:02:14
Man muss Nvidia wirklich sehr hassen und sich AMD sehr hochprozentig schönsaufen, um eine Vega 64 einer Titan V vorzuziehen. :ugly: Aus Preis-Leistungs-Sicht ist die Sache klar, aber darum kann es im Kontext einer Titan V (http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Specials/Nvidias-Goldjunge-Titan-V-im-Test-1252002/) eigentlich nicht gehen.

MfG,
Raff
Macht die Paywall weg, peinlicher geht es ja wohl nicht mehr.

SKYNET
2018-05-26, 13:37:33
Man muss Nvidia wirklich sehr hassen und sich AMD sehr hochprozentig schönsaufen, um eine Vega 64 einer Titan V vorzuziehen. :ugly: Aus Preis-Leistungs-Sicht ist die Sache klar, aber darum kann es im Kontext einer Titan V (http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Specials/Nvidias-Goldjunge-Titan-V-im-Test-1252002/) eigentlich nicht gehen.

MfG,
Raff

man nimmt keine von den beiden sondern ne 1080 Ti, beste P/L verhältnis für die gebotene leistung, punkt.

Nosferatu1
2018-05-26, 14:52:09
man nimmt keine von den beiden sondern ne 1080 Ti, beste P/L verhältnis für die gebotene leistung, punkt.
Auch viel zu teuer für nur 30-40 % mehr zahle ich ja fast das doppelte für nur dieses plus an performance.

=Floi=
2018-05-26, 15:13:59
Macht die Paywall weg, peinlicher geht es ja wohl nicht mehr.

ach komm, so gehen sie schneller unter. das funktioniert in D nicht und kapieren wollen sie es auch nicht.

Ex3cut3r
2018-05-26, 15:14:27
das ist einer der schönen nebeneffekte, wenn titan auf dem karton steht. :) man wird sie immer gut wieder los. wüsste nicht, dass ich jemals verlust mit titanen gemacht hätte.. und ich hatte nicht nur alle; ich hatte die meisten sogar doppelt. TV wird die ausnahme bleiben, da gibts zum glück kein mGPU mehr.. :)

den teil mit dem media markt habe ich nicht verstanden.


(..)

mfg
tobi

Ist fast wie mit einem iPhone. :biggrin:

Was ist eine gtx 270? Es ist bestätigt von nvidia das die neuen karten 11 vorne haben werden und nicht 20. und ich soll keine ahnung haben :D

Jaaa, sry hatte mich verschrieben sollte natürlich 2070 heißen, woher hast du das mit der 11? Link?

Emil_i_Lönneberga
2018-05-26, 15:25:12
Macht die Paywall weg, peinlicher geht es ja wohl nicht mehr.

ach komm, so gehen sie schneller unter. das funktioniert in D nicht und kapieren wollen sie es auch nicht.


Das ist neuerdings ein Zusatzangebot, womit Heftartikel einzeln bezogen werden können, ohne das gesamte Heft zu kaufen. Also geht mit eurem Sonnenstich erstmal aus der Sonne und informiert euch über Dinge, die ihr kommentieren möchtet, bevor ihr euch blamiert. Danke, gern geschehen.;D

Ex3cut3r
2018-05-26, 15:27:21
Also ich habe mir den Artikel gekauft, ist doch keine Schande :redface:

Emil_i_Lönneberga
2018-05-26, 15:36:07
Ist auch keine Schande, sondern ein echter Mehrwert ohne die Inhalte des bisherigen Internetauftritt einzuschränken. Habe es auch schon genutzt.

Rampage 2
2018-05-26, 21:45:52
Mach dich aber auf neue Spitzen Preise auch für die „Normalen“ GPUs gefasst, ich denke eine GTX 2070 für 750€ Startpreis ist gar nicht so unrealistisch.

700< Euro für eine Performance-Karte am unteren Ende des Spektrums:ulol:

Sorry, aber das ist wirklich absurd - auch für Nvidia! Irgendwann wird die Grenze erreicht sein (auch für Nvidia!)... das habe ich früher schon einmal gesagt und ich sage es nochmal! Wir reden hier von einem Midrange-Chip, der aber als HighEnd verkauft wird - aber selbst High-End endet zwischen 600-700$ MSRP! (die Fool's Edition wird wohl tatsächlich über 700$ kosten, aber die zählt ja nicht...)

Selbst wenn NV diese Karten jenseits von 700€ anbietet - wer wie Viele können sich so eine Karte kaufen!?


Meine Preis-Speku zu 2070 & 2080:

2080: 650$ MSRP

2070: 450$ MSRP

R2

Blediator16
2018-05-26, 22:16:13
700< Euro für eine Performance-Karte am unteren Ende des Spektrums:ulol:

Sorry, aber das ist wirklich absurd - auch für Nvidia! Irgendwann wird die Grenze erreicht sein (auch für Nvidia!)... das habe ich früher schon einmal gesagt und ich sage es nochmal! Wir reden hier von einem Midrange-Chip, der aber als HighEnd verkauft wird - aber selbst High-End endet zwischen 600-700$ MSRP! (die Fool's Edition wird wohl tatsächlich über 700$ kosten, aber die zählt ja nicht...)

Selbst wenn NV diese Karten jenseits von 700€ anbietet - wer wie Viele können sich so eine Karte kaufen!?


Meine Preis-Speku zu 2070 & 2080:

2080: 650$ MSRP

2070: 450$ MSRP

R2

Mehr als genug. Offensichtlich können sie diese Preise verlangen :freak:

BlacKi
2018-05-26, 22:27:20
Mehr als genug. Offensichtlich können sie diese Preise verlangen :freak:
wenigstens platz für die konkurenz.

Ex3cut3r
2018-05-27, 02:08:39
700< Euro für eine Performance-Karte am unteren Ende des Spektrums:ulol:

Sorry, aber das ist wirklich absurd - auch für Nvidia! Irgendwann wird die Grenze erreicht sein (auch für Nvidia!)... das habe ich früher schon einmal gesagt und ich sage es nochmal! Wir reden hier von einem Midrange-Chip, der aber als HighEnd verkauft wird - aber selbst High-End endet zwischen 600-700$ MSRP! (die Fool's Edition wird wohl tatsächlich über 700$ kosten, aber die zählt ja nicht...)

Selbst wenn NV diese Karten jenseits von 700€ anbietet - wer wie Viele können sich so eine Karte kaufen!?


Meine Preis-Speku zu 2070 & 2080:

2080: 650$ MSRP

2070: 450$ MSRP

R2

Ach Miner kaufen das. Keine Sorge. Wieso nicht? Wo ist die Konkurrenz? Vega 64? Hat eine GTX 1080 von Juni 2016 bereits im Griff. Bei Maxwell waren es noch 350€ für die 970. Bei Pascal waren dann schon knapp 500€ zum rls fällig für die 1070....merkste was? 2070 -> nochmal 200 bis 250€ drauf sind wir bei 750€ :freak:

Ganz einfach, und auch so werden genug Miner und auch Gamer die noch eine Maxwell (970) im Recher haben wechseln. Nvidia wird es einfach so verkaufen: GTX 2070 = selbste Leistung wie die Titan XP aber für 750€ anstatt der 1.299€. Und vlt. 16GB VRAM...umso besser fürs Marketing.

BlacKi
2018-05-27, 02:33:49
Nvidia wird es einfach so verkaufen: GTX 2070 = selbste Leistung wie die Titan XP aber für 750€ anstatt der 1.299€. Und vlt. 16GB VRAM...umso besser fürs Marketing.
haben sie in der vergangenheit nicht, werden sie auch weiter nicht tun.

Rampage 2
2018-05-27, 04:06:48
Ach Miner kaufen das. Keine Sorge. Wieso nicht? Wo ist die Konkurrenz? Vega 64? Hat eine GTX 1080 von Juni 2016 bereits im Griff. Bei Maxwell waren es noch 350€ für die 970. Bei Pascal waren dann schon knapp 500€ zum rls fällig für die 1070....merkste was? 2070 -> nochmal 200 bis 250€ drauf sind wir bei 750€ :freak:



500€ (bzw. Dollar) für die Fool's Edition - die reguläre 1070 kostete anfangs 400$ MSRP und später nur noch 350$ MSRP... leider kam von der 50$ Preissenkung kaum etwas nach Euro-Land rüber; vermutlich wegen des Mining-Booms:mad:

Edit: 16GB VRAM könnte ich mir, wenn überhaupt, für die 2080 vorstellen - die 2070 würde dann 12GB spendiert bekommen. Ist aber leider eher unwahrscheinlich, so wie wir Nvidia kennen. Auch die 2080 wird nur 12GB bekommen (8x 1,5GB) da mit G5X/G6 auch krumme Speicherbestückungen möglich werden und die 2070 ebenfalls 12GB, aber eventuell "nur" ein 192Bit SI mit 16 oder 18 Gbps GDDR6 :redface: (da sind dann auch keine krummen Anordnungen mehr nötig...)

Und zum Preis kommen nicht 200+ $ sondern 50-100$ (höchstens) - Nvidia macht das immer scheibchenweise pro neuer Generation und auch das muss dringend ein Ende haben...

R2

scully1234
2018-05-27, 11:29:33
Und zum Preis kommen nicht 200+ $ sondern 50-100$ (höchstens) - Nvidia macht das immer scheibchenweise pro neuer Generation und auch das muss dringend ein Ende haben...

R2

So wie die Inflation auch stehen bleibt?

Gefprce 2 ultra und 1080 Ti mal verglichen vom Preisgefüge inklusive wandernder Inflationsrate?


Dann sollte schnell klar werden, das die Preistreiberei ,gar nicht in dem hohen Maße existiert wie immer angenommen,schon gar nicht wenn die Ressourcen auch immer weiter verteuern, ebenso wie der eigentliche Herstellungsprozess nebst Entwicklung

Die Löhne bewegen sich nur konträr zur Inflation , oder besser gesagt stagnieren in einem Verhältnis was nicht passt

pixeljetstream
2018-05-27, 13:27:50
Die Preisleistung ist bei beiden Herstellern im großen und ganzen über die Jahre besser geworden (0-700$). Kann man anhand der MSRP Daten von hier
https://en.wikipedia.org/wiki/List_of_Nvidia_graphics_processing_units
https://en.wikipedia.org/wiki/List_of_AMD_graphics_processing_units
und den 3dcenter perf indices korrelieren.
Würde sagen NV hat seine kurven etwas steiler hinbekommen und geradliniger.

=Floi=
2018-05-27, 13:38:49
P/L skaliert bei NV ja ziemlich linear. Das kann man eigentlich nicht als argument nehmen, weil die 1060er eben pro € genau so viel fps bringt wie die 1080ti.
Hier gibt es echt nichts negatives zu bemängeln, weil imho die kleinen karten dadurch stärker angeglichen wurden.

Die mittelklasse reicht für alles aus und nur enthusiast braucht eine 1080ti.

Korvaun
2018-06-21, 15:48:03
Der Jensen der olle Fuchs hat doch immer noch was in der Hinterhand ;)

https://www.computerbase.de/2018-06/nvidia-titan-v-32-gb-hbm2/

Lehdro
2018-06-21, 15:54:05
CEO Edition, ich brech ab :freak:

Was wohl der Preis sein wird? :rolleyes:

basix
2018-06-21, 15:58:31
Der Jensen der olle Fuchs hat doch immer noch was in der Hinterhand ;)

https://www.computerbase.de/2018-06/nvidia-titan-v-32-gb-hbm2/

;D;D

Edgecrusher86
2018-06-21, 16:01:18
5000-6000 Dollar dürfte realistisch sein. Nun ja, ist ja noch ein wenig Zeit, bis zum öffentlichen Launch der Kleinserie. Da können die Interessenten noch ein wenig sparen. ;D
Ich verstehe nur nicht, warum kein schwarzes Lederband genommen wurde - ein entsprechendes Autogramm fehlt auch noch auf dem Karton. :freak:

Zudem sind 125 TFLOPs AI Power angegeben (110 TITAN V). Klingt nach Vollausbau plus höheren Taktraten - ansonsten müsst man wohl um die 15% im Takt anziehen, wenn es weiterhin bei 640 TC bliebe.


https://blogs.nvidia.com/blog/2018/06/20/nvidia-ceo-springs-special-titan-v-gpus-on-elite-ai-researchers-cvpr/

https://www.anandtech.com/show/13004/nvidia-limited-edition-32gb-titan-v-ceo-edition

Emperator
2018-06-21, 16:30:56
CEO Edition, ich brech ab :freak:

Was wohl der Preis sein wird? :rolleyes:

Sicher fünfstellig, der Name deutet doch schon darauf hin, das man CEO sein muss um sich so einen Karte leisten zu können :-P

Raff
2018-06-21, 16:38:16
CEO: Completely, extraordinary overpriced?

Leider geil, aber ein weiterer Schritt in den Schlund des Wahnsinns.

MfG,
Raff

dildo4u
2018-06-21, 16:45:33
Das sind doch gute Nachrichten daran sieht man das HBM2 ständig billiger wird,das Ding wird vermutlich die Hälfte der Tesla Karten kosten.
Damit wird es realistisch,das die näste "Gameing" Titan mit 16GB HBM2 kommt.

Nightspider
2018-06-21, 17:27:39
Das sind doch gute Nachrichten daran sieht man das HBM2 ständig billiger wird,das Ding wird vermutlich die Hälfte der Tesla Karten kosten.
Damit wird es realistisch,das die näste "Gameing" Titan mit 16GB HBM2 kommt.

lol

Edgecrusher86
2018-06-25, 13:26:26
https://ebay.com/itm/NVIDIA-Titan-V-CEO-Edition-1-of-only-20-THE-FASTEST-BEST-GPU-IN-THE-WORLD/323316537765?_mwBanner=1&_rdt=1

Wer will nochmal, wer hat noch nicht?
Soviel zu AI Research - sehr lustige Anzeige (Bilder). :-)

Der Erlös soll aber wohl gespendet werden - in dem Fall wäre es ja okay.

E: Und weg ist sie, die CEO Edition - gab wohl Post von Team Green (der Startpreis lag bei $5000). ;D

HPVD
2018-07-03, 21:48:11
Deep Learning Deep Dive:
https://www.anandtech.com/show/12673/titan-v-deep-learning-deep-dive