PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce GTX Titan Z: (P)Review-Thread


Seiten : [1] 2 3 4

AnarchX
2014-03-25, 17:54:05
http://abload.de/img/gtc-2014-028w8fmx.jpg (http://abload.de/image.php?img=gtc-2014-028w8fmx.jpg)

2x GK110 : 5760SPs @ ~700MHz
2x 6GiB GDDR5
-> 2999 USD

http://blogs.nvidia.com/blog/2014/03/25/titan-z/

705/875 (600 DP) MHz GPU und 7Gbps für die am 29.4. ursprünglich geplante Titan Z (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10194401#post10194401)

Titan Z Preview @ HKEPC: http://www.hkepc.com/11203

Raff
2014-03-25, 17:56:10
Nvidia macht aus 2x Titan Black à 900 Euro (überteuert) eine Titan Z für 2.999 Dollar mit weniger Takt (erkennbar an den TFLOPS ungleich 10). :ulol:

MfG,
Raff

Knuddelbearli
2014-03-25, 17:58:18
zumindest nicht wieder ein Nv typischer VRAM SLI Krücke ^^

Raff
2014-03-25, 17:59:23
Da das Teil an Semi-Profis gerichtet ist, ist der Speicherausbau Pflicht.

MfG,
Raff

Knuddelbearli
2014-03-25, 18:00:19
und trotzdem wette ich das man einige typische Nv fanboys hier damit sehen wird ^^

Raff
2014-03-25, 18:03:08
Bestimmt. Ist aber ziemlicher Unsinn, IMO. Das Design bläst die Hälfte der Abwärme ins Gehäuse und kostet mehr als zwei Titan Black, die schneller sind und die Hitze per DHE abführen. Aber gut, die GTX 690 hat sich auch verkauft ...

MfG,
Raff

Matrix316
2014-03-25, 18:05:38
Ich nehme vier für Quad SLI. ;)

Eigentlich müsste die ja unter Quadro laufen, denn mit Consumerkarte hat das nix mehr zu tun.

Raff
2014-03-25, 18:08:38
8 TFLOPS = 2x 4 TFLOPS von 2x GK110 (voll) @ ~694 MHz. Immer noch sexy? ;) Derart untertaktet könnte das Ding aber (relativ) leise sein ... wie die GTX 690 auch.

MfG,
Raff

Knuddelbearli
2014-03-25, 18:11:24
man muss aber sagen, die Karte sieht sexy aus vor allem der Luftausgang

Botcruscher
2014-03-25, 18:51:43
Kann man sich ja mit ein paar Spax an die Wand schrauben...

fondness
2014-03-25, 18:57:38
Kann IMO nur als Test verstanden werden wie weit man gehen kann. Ohne Quadro-Treiber kann das Ding einfach nicht ernst gemeint sein.

"Built around two Kepler GPUs and 12GB of dedicated frame buffer memory, TITAN Z is engineered for next-generation 5K and multi-monitor gaming" :ugly:

Also jeder der das kauft ist Schuld wenn das bald normale Preise sind.
Schon $2000 wäre frech bei den geringen Taktraten, aber $3000 ist schon ein starkes Stück.

LSSJBroly
2014-03-25, 18:58:41
Derart untertaktet könnte das Ding aber (relativ) leise sein ... wie die GTX 690 auch.


Dazu scheint das Teil auch 2 1/2 Slots breit zu sein ...
http://www.computerbase.de/bildstrecke/56334/2/

Raff
2014-03-25, 19:01:18
Yep, so sah es im Rendering aus. Das wäre neiß. Als "Jensen" das Puppy in seinen Händen hielt, war das aber IMO nicht eindeutig.

MfG,
Raff

Naennon
2014-03-25, 19:02:52
schönes Ding :)

für 1500€ wäre es gekauft, aber so bleibens wohl die 2 Kingpin erstma

zu Maxwell gabs ja nix besonderes außer GM104/106 oder?

Rente
2014-03-25, 19:10:45
Es gab quasi keine Infos zu Maxwell.

Mal schauen wie sich der Straßenpreis der Z entwickelt und ob sie auch ungezähmt betrieben werden kann (TDP >300 Watt).

Naennon
2014-03-25, 19:13:33
geht die Konferenz noch ne Weile oder gibts mal wieder gar nix zu Maxwell

ja Kacke alles
der ROG Swift verspätet sich bis Juni
Has-E ebenfall
4k native mit 60 Hz bzw 60 FPs stemmen auch 2 780ti/Titan Black
3way aus meinem SLI machen ist daher Unfug


blöd und langweilig, was machen :)
jetzt noch X79 und Co kaufen is auch nix, die Karte da lohnt net und sonst gibts nix

fondness
2014-03-25, 19:14:50
Konferenz ist schon lange aus, da kommt nichts mehr zu Maxwell. Das war wohl nur ein PR-Stunt um möglichst viel Zuseher zu motivieren rein zu sehen.

Naennon
2014-03-25, 19:15:47
versteh den Laden nicht, außer das er Kepler ganz schön ausquetscht :D

dildo4u
2014-03-25, 20:56:31
Karte kommt im April.

If you’re looking for the ultimate in gaming power, GeForce GTX TITAN Z is your card. Arriving early April.

http://www.geforce.com/whats-new/articles/announcing-the-geforce-gtx-titan-z

Mancko
2014-03-25, 20:58:48
versteh den Laden nicht, außer das er Kepler ganz schön ausquetscht :D

Was erwartest Du? Die stehen derzeit nicht unter Druck und Unternehmen die nicht unter Druck stehen machen halt das Notwendigste. AMD wird wohl auch mit einer Dual Karte kommen wollen. Nvidia war halt wieder schneller und hat sicherlich ganz bewusst die Taktraten so gesenkt. Bin mal gespannt mit welcher Geräuschkulisse AMD uns dann wieder beglücken möchte.

aufkrawall
2014-03-25, 21:01:45
Notfalls müssten sie halt wie AMD per Treiber im Nachhinein an der Lüfterkurve rumpfuschen. :freak:
Wird aber wohl nicht nötig sein, mit guter Kühlung rechnet bei Dual-Hawaii wohl niemand.

Raff
2014-03-25, 21:04:44
Notfalls müssten sie halt wie AMD per Treiber im Nachhinein an der Lüfterkurve rumpfuschen. :freak:
Wird aber wohl nicht nötig sein, mit guter Kühlung rechnet bei Dual-Hawaii wohl niemand.

Nachdem Gerüchte mit einer Kompakt-WaKü aufkamen: doch. Bin gespannt. Auf beide!

MfG,
Raff

fondness
2014-03-25, 21:12:28
Notfalls müssten sie halt wie AMD per Treiber im Nachhinein an der Lüfterkurve rumpfuschen. :freak:
Wird aber wohl nicht nötig sein, mit guter Kühlung rechnet bei Dual-Hawaii wohl niemand.

Wenn SLi nicht oder nicht ordentlich skaliert verliert das Teil mit den Taktraten gegen jede GTX780, da kann ich mir dann von vielleicht leisen Lüfter auch nichts kaufen, schon gar nicht um $3000.

Ich sehe auch nichts tolles an so niedrigen Taktraten, undervolten und runter takten kann ich auch selbst wenn mir etwas zu laut ist oder zu viel Strom schluckt.
Doch um $3000 hätte ich schon gerne 1Ghz Takt pro GPU garantiert. Oder eben beides mit einem Art Quiet und Uber-Mode wie bei AMD.

Sven77
2014-03-25, 21:34:17
Kann IMO nur als Test verstanden werden wie weit man gehen kann. Ohne Quadro-Treiber kann das Ding einfach nicht ernst gemeint sein.

Du kapierst es nicht.. für den ganzen Computing-Kram braucht man keine Quadro-Treiber, auch nicht im Pro-Umfeld..

fondness
2014-03-25, 21:46:34
Du kapierst es nicht.. für den ganzen Computing-Kram braucht man keine Quadro-Treiber, auch nicht im Pro-Umfeld..

Wenn es wirklich nur um Rechleistung geht gibt es billigere Alternativen.
Ansonsten kann ich auch wesentlich billiger eine oder wenn das wirklich nicht reichen sollte zwei Titans nehmen.

Im übrigen bewirbt NV die Karte eindeutig als Gamer-Karte.
Für mehr als zu Testzwecken fehlt dem Ding ohnehin der ECC-Speicher der Tesla, auch Remote kann man die Karte nicht ansteuern.

Sven77
2014-03-25, 21:56:50
Das mag alles sein, nur sollte man von dem Gedanken weggehen das man eine Quadro im Proumfeld braucht, das trifft eben nur auf bestimmte Anwendungen zu bei denen die Software aus Zertifizierungsgründen Quadros vorraussetzt (CAD) oder für ganz seltene Features (3D Vision ausserhalb von Games). Wollte das nur nochmal richtig stellen..

Disconnected
2014-03-25, 22:43:05
Da das Teil an Semi-Profis gerichtet ist, ist der Speicherausbau Pflicht.

MfG,
Raff

Warum wird es dann mit the ultimate in gaming power beworben? Diese Karte ist ein Witz, vor allem für den Preis. Wer diese "gaming power" unbedingt braucht, ist mit GTX780 Ti SLI besser beraten.

Bitte, NV, meldet Euch wieder, wenn es 780 TI Power (oder besser) für < 200 W gibt. Danke.

Rente
2014-03-25, 23:24:31
Die Aussage wäre letztendlich doch korrekt (den Geld-Aspekt mal außen vor gelassen), immerhin kann man auch 2 Titan Z im SLI betreiben.
Im offiziellen Blog findet sich aber dieser Aussage auch gar nicht, es wird nur die Eignung für 4K und Multimonitor-Gaming erwähnt: http://blogs.nvidia.com/blog/2014/03/25/titan-z/

Der Satz ist da doch eher sinnbildlich: If you’re in desperate need of a supercomputer that you need to fit under your desk, we have just the card for you.

Schrotti
2014-03-25, 23:57:53
Wasserkühler rauf und ab geht der Lutzi.

Knuddelbearli
2014-03-26, 00:27:23
Bitte, NV, meldet Euch wieder, wenn es 780 TI Power (oder besser) für < 200 W gibt. Danke.

Scheiss auf die Watt! bitte melden wenn es eine 780 TI günstiger als eine R9 290X ( 400€ ) gibt bevorzugt noch mit dx11.2b muss aber nicht sein.

Hübie
2014-03-26, 01:54:57
:facepalm: Was manch einer hier wieder trollt...

@fondness: Natürlich kann man per Remote damit ansteuern (TCC-Driver modifizieren / installieren, ggf auf loc umstellen und gut is). Geh mal ins cudadev-Forum dann weißt du warum es diese Karte gibt. ;) Die fallen da wahrscheinlich gerade reihenweise um...
ECC braucht man bei so niedrigen Frequenzen eh nicht da die Fehlerquote gering ist und man das per software kompensieren könnte.

Skysnake
2014-03-26, 08:23:42
:facepalm: Was manch einer hier wieder trollt...

@fondness: Natürlich kann man per Remote damit ansteuern (TCC-Driver modifizieren / installieren, ggf auf loc umstellen und gut is). Geh mal ins cudadev-Forum dann weißt du warum es diese Karte gibt. ;) Die fallen da wahrscheinlich gerade reihenweise um...

Schick mir mal bitte nen Link/PM mit den entsprechenden Infos. Wir am Institut sagen NIE nein, wenn wir ne Menge Geld sparen können ;)


ECC braucht man bei so niedrigen Frequenzen eh nicht da die Fehlerquote gering ist und man das per software kompensieren könnte.
[ ] ich habe verstanden für was ECC RAM gut ist.
[x] ich habe nicht verstanden für was ECC RAM gut ist.

ECC-RAM nutzt man nicht wegen Übertragungsfehlern, dafür hat man in aller Regel ne CRC im physikalischen Übertragungslayer bzw eine Stufe drüber, sondern um BIT-Flips im RAM zu erkennen UND zu beheben.

Stell dir mal vor, du hast ne Datenbank mit Kontoständen, und jetzt kippt ein Bit wegen kosmischer Strahlung von 0 auf 1 oder von 1 auf 0. Was glaubste was los ist, wenn du plötzlich statt eine Millionen Plus eine Millionen Minus hat ;) usw usw.

Das willst du mit ECC-RAM verhindern.

Da das Teil an Semi-Profis gerichtet ist, ist der Speicherausbau Pflicht.

MfG,
Raff
Naja, das ist wieder ne Pauschalaussage, die nicht ganz richtig ist.

Im Quadro-Markt für die großen Karten ja, da ist viel RAM Pflicht. Das Problem ist nur, die Karte hat keinen Quadro Treiber und wird ziemlich sicher bei den Darstellungen, bei denen der Mehrram was bringt, eh schon hoffnungslos überfordert sein, einfach weil der angepasste Treiber fehlt.

Und im Tesla-Bereich kommts halt drauf an. Da gibts genug Anwendungsfälle, in denen man fast gar keinen RAM braucht, was btw oft Probleme sind, die gut auf GPUs fitten, weil Sie in der Regel Computebound sind, wofür GPUs praktisch wie geschaffen sind, oder man hat wirklich große Datenmengen, dann tut aber das Fehlen von GPUDirect2 und damit RDMA weh, genau wie das Fehlen des ECC Schutzes.

Das Ding ist sicherlich interessant, aber weder Fisch noch Fleisch, wird aber zum Preis von Kaviar mit Trüffeln angepriesen...

Dural
2014-03-26, 09:14:10
Geile Karte, aber der Preis... :eek:

Das ist nicht mehr Normal :rolleyes:

Ronny G.
2014-03-26, 09:36:13
Haben sie es nun getan ...die absolute Oberkrone der Preisgestaltung @ NVidia :freak:;D ....und klaro werden hier bald ein paar verrückte Erscheinen bzw. ganz bewußt >KOMMEN< , die das Ding haben ....dann werden se das Gerät übertakten und wieder irgendwelche Lücken finden ;D

Das ganze dann als Quad SLI samt rest Rechner im Wert von ~15-20.000€ als "PC" in der Sig stehen haben und die 3DMark Kiddie Charts stürmen ^^

horn 12
2014-03-26, 09:58:38
Da wird ihnen AMD aber den Hammer Zeigen, vor Allem beim Preis
Freitag sollte die R9 295X2 wohl vorgestellt werden, wohl um die 800/ 840 Euro sollte das Gerät kosten.

fondness
2014-03-26, 10:25:59
ECC braucht man bei so niedrigen Frequenzen eh nicht da die Fehlerquote gering ist und man das per software kompensieren könnte.

Niemand würde eine Tesla-Karte in einem Server verbauen ohne ECC. Den Rest hat Skysnake ja schon gesagt. Die Karten kann man vielleicht zu Testzwecken oder für wenig sensible Daten verwenden, aber das wars dann auch schon.

Es hat schon seinen Grund das Nvidia die Titan-Karten alle eindeutig als Gaming-Karten bewirbt. Jede Wette das >90% der Käufer auch Spieler sind. Das Supercomputer-Gefasel ist Marketing:

Mit der Technologie der weltweit schnellsten Supercomputer und NVIDIA® Kepler™ Architektur steht die GeForce GTX TITAN Grafikkarte für überragende PC-Gamingleistung. Die GeForce GTX TITAN Grafikkarte kombiniert überragende Leistung, fortschrittliche Steuerung und hervorragende thermische und akustische Merkmale und ermöglicht damit erstmals echtes Supercomputer-Gaming.

http://www.nvidia.de/object/geforce-gtx-titan-de.html

Iruwen
2014-03-26, 12:26:25
Das wird wohl die erste Karte die sich selbst hier niemand kauft? :D

Blediator16
2014-03-26, 12:39:32
Die Titan war eine Gamerkarte und die Z ist das auch. Dieses PR Gewäscht funktioniert sowieso nur bei einigen wenigen wie man merkt. Man darf sich gerne auch andere Foren anschauen und ebenso hier wurde AMD für ihre Preisgestaltung bemängelt. Die PR Leute lachen sich einen ab, wenn sie sehen dass dieser Preis verdeidigt wird und klopfen sich auf die Schulter, dass der Bergiff "semiprofis" oder sowas in der Art fällt, denn damit haben sie ihre Arbeit gut gemacht :D

Screemer
2014-03-26, 13:02:12
supercomputer-gaming, my ass. langsam wirds preislich doch lächerlich. mal schaun ob sich hier im board jemand so ein monster kauft.

gnahr
2014-03-26, 13:05:10
och, dann erinnern sich die ersten zurück was für unsummen sie mal nur für ne cpu vor knapp 40 jahren bezahlt haben...
es kratzt ja doch so viele, sonst gäb es nicht die ganzen neid-kommentare. :)

Iruwen
2014-03-26, 13:22:19
Das Ding kann aber schlicht und ergreifend nichts Besonderes. Das ist nichtmal Super-High-End wenn es eine 6GB 780 Ti gibt.

Hübie
2014-03-26, 13:23:02
[ ] ich habe verstanden für was ECC RAM gut ist.
[x] ich habe nicht verstanden für was ECC RAM gut ist.

ECC-RAM nutzt man nicht wegen Übertragungsfehlern, dafür hat man in aller Regel ne CRC im physikalischen Übertragungslayer bzw eine Stufe drüber, sondern um BIT-Flips im RAM zu erkennen UND zu beheben.


Äääähm. Ich denke da eher an private Anwender oder kleinere Unternehmen. Da ist ECC zu 90% nicht nötig. Mit per Software kompensieren meinte ich eher sowas wie Checksum / hash-tag.
Schau doch mal selber im cuda-dev-Forum nach modifizierten TCC-driver. Da hat man schon viele Kepler (von GTX 650 bis Titan) "misshandelt". Das sollte bei Titan Z nicht anders sein. "nvidia-smi.exe --force-driver-model=1" forciert dann den TCC-Modus (auch wenn ein display angeschlossen ist).

Skysnake
2014-03-26, 13:42:42
Wie gesagt, schick mir bitte nen Link oder ne PM, hab keine Zeit da ewig zu suchen.

Für mich hört sich das aber nach nem Windows hack an, und damit eher uninteressant.

N0Thing
2014-03-26, 13:49:53
Eine Neid-Debatte finde ich auch sinnlos, immerhin kann die Titan Z nichts besser, was man nicht auch mit zwei Titan Black bekommen könnte. Wo eine Titan für Gamer schon ein Produkt für Konsumopfer war, legt die Titan Z nochmal eine Schippe drauf.
Mit einer normalen 780Ti fährt man als Spieler immer besser und hat dazu den Vorteil, zwischen unterschiedlichen Kühllösungen wählen zu können.

TobiWahnKenobi
2014-03-26, 14:15:50
kommt drauf an, womit man lieber spielt. mit hard- oder mit software..

..und natürlich wie ambitioniert man damit ist, die wurzel allen übels zu horten.


(..)

mfg
tobi

Effe
2014-03-26, 14:16:40
Nvidia hat es durch den absurden Preis geschafft, daß die Titan Black wie ein Schnäppchen aussieht.
Als nächsten GK110-Release bitte den Nachfolger der Voodoo5 6000 mit 4 Chips für 10.000€

Godmode
2014-03-26, 14:26:21
Für einen SFF-PC wäre das Ding ganz nett, allerdings wird dann die heiße Luft ins Gehäuse geblasen, was gerade bei einem kleinen ganz schön aufgeheizt werden würde. Sonst fährt man mit zwei Titan Black immer besser, alleine schon wegen dem 2x375W > 1x375W.

Also den Sinn hinter dieser Karte verstehe ich auch nicht wirklich. Wenn sie maximal 2-Slots Breit wäre, könnte man noch damit argumentieren, 4 davon zu verbauen fürs GPU-Computing, aber mit 2,5 Slots hat man ja schon ein Problem?

Lyka
2014-03-26, 14:29:20
Geile Karte, aber der Preis... :eek:

Das ist nicht mehr Normal :rolleyes:

Tombi hätte sich einen gekauft :( oder zwei

:frown:

N0Thing
2014-03-26, 14:32:07
Der hätte schon vier Titan Black gehabt und über das Dingen gelacht. ;)

Godmode
2014-03-26, 14:33:52
Tombi hätte sich einen gekauft :( oder zwei

:frown:

Das in meinem Avatar sind zwei GTX690 und nein das willst du nicht haben und auch Tombman hätte das nicht haben wollen. Der hätte zwei GTX Titanblack mit Wakü und Modbios, bzw. zwei 780 Ti Kingping Edition.

AnarchX
2014-03-26, 14:36:46
Also den Sinn hinter dieser Karte verstehe ich auch nicht wirklich. Wenn sie maximal 2-Slots Breit wäre, könnte man noch damit argumentieren, 4 davon zu verbauen fürs GPU-Computing, aber mit 2,5 Slots hat man ja schon ein Problem?
In der Tat seltsam, dass man noch keine baugleiche Quadro/Tesla vorgestellt hat. Da hätte der Formfaktor wohl deutliche Vorteile geboten. Aber vielleicht tut man dass noch im Laufe der GTC.

Mal sehen ob heute Abend AMD eine 2x8GiB FirePro vorstellt. Eine Endkundenvariante wäre da wohl selbst für $1499 noch ein "Schnäppchen". Mit Hybrid-Kühler schlägt man da vielleicht auch die Titan Z beim Verbrauch/Laustärke.


Wer sich Anfang 2013 ein Titan SLI gekauft hat, es unter Wasser gesetzt und auf 1,2GHz übertaktet erreicht wohl das gleiche Niveau eines Titan Z Quad-SLIs ohne OC, bei wohl weniger als 1/2 der Anschaffungskosten. Und damals war Titan-Leistung immerhin noch exklusiv und Maxwell weit entfernt...

Skysnake
2014-03-26, 16:16:48
Ok, sie braucht 2x8-Pin

http://www.golem.de/news/geforce-gtx-titan-z-nvidias-doppel-titan-fuer-3-000-us-dollar-1403-105369.html

Thunder99
2014-03-26, 17:09:43
Sinn in meinen Augen: Technisch machbare zeigen zu einem exklusiv Preis

War es nicht so das nvidia kaum noch Quad SLI supportet wegen dem Aufwand (und das es nicht so skaliert wie man es sich wünscht) ?

Blaire
2014-03-26, 19:01:22
Support schon, aber nicht jedes Game ist auch dafür ausgelegt/vorbereitet. Unterstützt ein Game kein 4-Way AFR, kann NV dann auch nicht immer Support gewährleisten. Ausnahmen gibts sicher, aber das ist eher selten.
2-Way SLI ist wesentlich unkomplizierter, wird auch besser unterstützt. Ausnahmen gibts aber auch da, wie z.b. ein TitanFall oder Total War: Rome II wo immer noch kein SLI-Support möglich. Was aber in Kürze behoben werden soll. Es hängt also vorrangig von den Entwicklern ab, ob sie Multi-GPU vernünftig unterstützen und zuletzt wird da ziemlich geschlampt, kann man nicht anders sagen, sei es aus Zeitdruck oder auch fehlender Testhardware. Es ist sozusagen immer ein geben und nehmen, deshalb ist wichtig das NV mit den Devs zusammenarbeitet, damit sowas nicht passiert.
Siehe auch: http://blogs.nvidia.com/blog/2014/03/19/titanfall/

Black-Scorpion
2014-03-26, 19:04:27
Wenn ich das Machbare zeigen will dann ganz sicher nicht mit halber Kraft und einer Karte die das dreifache kostet aber höchstens 50% schneller wie eine Single Karte.

fondness
2014-03-26, 19:06:27
Ein paar Tweets von AMD zur Titan Z:

[..] well we really care. You are going to love, love whats coming!
[..] we have something much better coming, stay Team Red. :)
[..] we love you and have something special coming you will love. @AMDRadeon

gnahr
2014-03-26, 19:13:10
Ein paar Tweets von AMD zur Titan Z:
bitte interpretier das mal... nuffin!

akuji13
2014-03-27, 15:54:22
Das wird wohl die erste Karte die sich selbst hier niemand kauft? :D

Sicher? ;)

es kratzt ja doch so viele, sonst gäb es nicht die ganzen neid-kommentare. :)

So sieht es aus.

Ich weiß da immer nicht ob ich lachen oder weinen soll.

Da kaufen die Leute einen ostukrainischen Teigling beim Bäcker für 3x soviel Geld wie in der Backecke des Supermarktes und haben exakt das gleiche minderwertige Produkt aber bei einem nicht benötigten Artikel wie einer Grafikkarte machen sie ein Faß auf. :rolleyes:

Das Ding kann aber schlicht und ergreifend nichts Besonderes.

Viele Produkte können nix besonderes.

Eine Neid-Debatte finde ich auch sinnlos, immerhin kann die Titan Z nichts besser, was man nicht auch mit zwei Titan Black bekommen könnte.

Doch.

Nur 1 PCIe Slot benötigen. ;)

Um mal den geliebten/gehassten Autovergleich zu bringen:

Ein GTI mit 20% weniger PS, dafür aber so schmal, das ich 2 ins Carport kriege. ;)

AnarchX
2014-03-27, 16:07:12
Um mal den geliebten/gehassten Autovergleich zu bringen:

Ein GTI mit 20% weniger PS, dafür aber so schmal, das ich 2 ins Carport kriege. ;)
Die 50% Aufpreis sollte man nicht unterschlagen und die Basis ist wohl eher kein GTI, sondern schon ein relativ teurer Sportwagen, wo der Käufer wohl eine entsprechende Garage (Board mit 2 Slots) haben sollte. ;)

Da mehr als 2-Way-SLI fraglich ist, macht die Titan Z wohl eher Sinn in Workstations, wo NV 3 Stück in einem System präsentiert hat oder halt in einem platzbeschränkten HTPC für >4000€. ;D

gedi
2014-03-27, 16:09:06
Sicher? ;)





Nur 1 PCIe Slot benötigen. ;)

Um mal den geliebten/gehassten Autovergleich zu bringen:

Ein GTI mit 20% weniger PS, dafür aber so schmal, das ich 2 ins Carport kriege. ;)


Also nen Smart 4two :confused:

kunibätt
2014-03-27, 16:36:46
nVidias nächster Performancechip (~300mm) @ 20nm wird somit bei ca. 999€ liegen.

N0Thing
2014-03-27, 17:28:53
Doch.

Nur 1 PCIe Slot benötigen. ;)

Um mal den geliebten/gehassten Autovergleich zu bringen:

Ein GTI mit 20% weniger PS, dafür aber so schmal, das ich 2 ins Carport kriege. ;)

Um mal den unnötigen Autovergleich direkt wieder abzuwürgen:

Man bezahlt also lieber 1000€ extra, anstatt sich für 100€ ein Mainboard mit mehr PCIe-Slots zu kaufen? Das ruft immer noch keinen Neid hervor. ;)

Bei der ersten Titan konnte ich es ja noch verstehen, da hat man für ein Schweinegeld immerhin die schnellste single-GPU bekommen. Und wer das Geld übrig hatte, sich solch eine Karte zu kaufen, dem hab ich es auch gegönnt sich daran zu erfreuen.
Für Spieler gibt es im Fall der Titan Z nur eben Alternativen, die billiger und schneller sind.

Schrotti
2014-03-27, 18:13:54
Ich lese hier immer nur mimimi.....

Es wird schon Freaks geben die so viel Geld ausgeben werden. Und zwei davon im SLI sind doch nett (allerdings nur mit Wakü).

Akkarin
2014-03-27, 20:00:53
4 Blacks mit wakü sehn aber noch cooler aus.

Blediator16
2014-03-27, 20:02:21
Kann man dann noch auf Facebook posten. Sehen doch cool aus :D

N0Thing
2014-03-27, 20:34:11
Ich lese hier immer nur mimimi.....

Ich lese hier vor allem keine Argumente pro Titan Z, sondern nur: "Ihr seid alle neidisch!"

Sollte doch eigentlich nicht so schwer sein, sich sachlich mit dem Thema auseinander zu setzen, ohne daraus eine Fanyboy- oder Sozialdebatte zu machen.

Daß die Karte für manche Firmen oder in der Forschung sinnvoll sein kann, wird ja gar nicht bestritten. Auch als Prestige-Objekt hat die Titan Z eine Funktion. Nur was spricht für die Karte, wenn man sie nur zum zocken einsetzen würde?

Black-Scorpion
2014-03-27, 21:17:21
Kurze Antwort: Nichts

P/L schlichtweg eine Frechheit.

StefanV
2014-03-27, 21:46:10
Sollte doch eigentlich nicht so schwer sein, sich sachlich mit dem Thema auseinander zu setzen, ohne daraus eine Fanyboy- oder Sozialdebatte zu machen.
Dafür ist diese Grafikkarte schlicht zu teuer...
Sie kostet 3000€ und bietet Leistung, die man für 700-850€ haben kann, wenn man denn wollen würde...

Das ist halt das Problem. Kurz: Dieses Kärtel ist schlicht ein Prestigeobjekt, wie ein dicker Benz/Audi/BMW auch...

Hugo78
2014-03-27, 21:57:43
Nvidia hängt halt etwas in den Seilen solang 20nm noch nicht wirtschaftlich ist, für die neuen Maxwell Chips.

Also mMn ist die "Titan Z" ein Lückenfüller für den Workstationbereich bis Maxwell kommt, damit die Leute 2,7 TFLOPs DP in einer möglichst kompakten Form,
für ~ 1000 USD weniger als bei AMD mit ihrer neuen W9100 bekommen, wenn die Leute denn eine Alternative suchen.
Das "Geforce GTX" ist bei der "Z" natürlich noch weniger Gaming relevant als bei der Titan Black.

Es ist von der PR her einfach nur angenehmer eine billige Geforce GTX als teure Semi Pro zuverkaufen, statt eine teure Quadro als "Quadro K6000 GX2" plötzlich für nur 3000 USD zuverramschen,
statt dafür 6000-8000 € zunehmen, bei den aktuellen Preisen für die K6000.

Skysnake
2014-03-28, 05:39:53
Daß die Karte für manche Firmen oder in der Forschung sinnvoll sein kann, wird ja gar nicht bestritten. Auch als Prestige-Objekt hat die Titan Z eine Funktion. Nur was spricht für die Karte, wenn man sie nur zum zocken einsetzen würde?
Eigentlich nicht :ugly:

Das ist ja die Kruks an der Sache. Für die, die sich nen Consumerkarte holen, weil Sie schlicht billiger ist, und Sie kein ECC brauchen, ist Platz auch kein Problem. Da nimmste also lieber zwei GTX Titan Black.

Und für die, für die Platz ein Problem ist, und die sich daher ne Z eventuell holen würden, für die fällt Sie definitiv raus, weil eben kein ECC mehr da ist, und bei den MEngen an Karten die die dann normal haben ist das einfach ein Showkiller.

Das Ding geht zu dem Preis einfach an jedweder Zielgruppe vorbei, außer halt als HTPC/ITX-System-Karte. wo man eben nur einen PCI-E Slot hat und gut ist. Nur passt das Ding wohl in die meisten System nicht rein, weil eben 3 Slots nötig sind...

Ansonsten taugt das Ding zu dem Preis einfach nur als Schwanzverlängerung. Der Preis killt einfach alles, und wir reden nicht von 50 oder 100€, sondern von so 1-2k€, die das Ding runter müsste, damit es wirklich interessant wird.

TobiWahnKenobi
2014-03-28, 08:41:24
nach der erfahrung mit GTX680SLi vs. GTX690 anno 2012 würde ich auch jederzeit eine Titan Z zwei einzelnen vorziehen. GTX690 war problemloser, kühler, leiser, hübscher und verheizte weniger saft.


(..)

mfg
tobi

Felixxz2
2014-03-28, 08:56:12
Und hatte ausreichend VRAM. Aber das ist ein anderes Thema :D

Für mich ist der Preis hier aber auch das höchst unlogische. Wieso soll ich 1000€ extra bezahlen, nur damit die Karten mit wenig Takt auf einem PCB laufen? Macht alles keinen Sinn. Wieso keine 3 Titan Black für den Preis kaufen? Sind doppelt so schnell.

StefanV
2014-03-28, 09:28:56
nach der erfahrung mit GTX680SLi vs. GTX690 anno 2012 würde ich auch jederzeit eine Titan Z zwei einzelnen vorziehen. GTX690 war problemloser, kühler, leiser, hübscher und verheizte weniger saft.
Auch wenns preislich 3 vs. 1 ist?
Also 3 'normale' Titanen, die du dir für das Geld einer Titan Z kaufen kannst?

DAS ist das Problem gerade!

Raff
2014-03-28, 09:30:18
Lustig wird's, wenn AMD die 295X2 mit 2x 8 GiB und einer Kompakt-Wakü bestückt, die Titan Z abzieht und dafür "nur" 999 Dollar verlangt. :ugly:

MfG,
Raff

fondness
2014-03-28, 10:48:18
Lustig wird's, wenn AMD die 295X2 mit 2x 8 GiB und einer Kompakt-Wakü bestückt, die Titan Z abzieht und dafür "nur" 999 Dollar verlangt. :ugly:

MfG,
Raff

Nichts davon erscheint mir unrealistisch, auch wenn ich nur an 2x 4GiB glaube.

AnarchX
2014-03-28, 10:59:09
Mit den 4Gbit GDDR5 Chips sind die 2x8GiB greifbar. NV muss auf der Titan Z auch 4Gbit verbauen, denn für 2x 24 Chips hat man wohl eher keinen Platz.

Selbst $1499 wären wohl halbwegs angemessen, vom Titan Preispunkt ausgehend.

Skysnake
2014-03-28, 11:24:29
Lustig wird's, wenn AMD die 295X2 mit 2x 8 GiB und einer Kompakt-Wakü bestückt, die Titan Z abzieht und dafür "nur" 999 Dollar verlangt. :ugly:

MfG,
Raff
Haben das die Vögelchen dir auch gezwitschert? :biggrin:

Warum schreibt ihr das nicht auf der PCGH-Main, oder habe ich die Meldung verpasst?

Ob die Kompakt-WaKü aber wirklich kommt und vor allem ob Sie am Ende auch was taugt wird sich erst noch zeigen müssen.

M4xw0lf
2014-03-28, 11:45:02
Lustig wird's, wenn AMD die 295X2 mit 2x 8 GiB und einer Kompakt-Wakü bestückt, die Titan Z abzieht und dafür "nur" 999 Dollar verlangt. :ugly:

MfG,
Raff

Nur wird die 295X ja wohl wie die 290er mit DP:SP 1:8 kommen.

Screemer
2014-03-28, 12:19:38
welchen unterschied macht das im angepeilten gamer-markt?

meiner meinung nach allerdings OT.

Knuddelbearli
2014-03-28, 12:22:12
nach der erfahrung mit GTX680SLi vs. GTX690 anno 2012 würde ich auch jederzeit eine Titan Z zwei einzelnen vorziehen. GTX690 war problemloser, kühler, leiser, hübscher und verheizte weniger saft.


(..)

mfg
tobi


wobei das meiste davon Wissenschaftlich gar nicht möglich sein kann, außer wenn du außer acht lässt das 680 sli deutlich schneller ist.
2 Karten kann man leiser und besser kühlen als 1 erst recht wenn die eine auch noch einen höhern verbrauch hat.
hübscher als Argument ähm ja. Dann kauf dir ne Wakü das das einzig wirkliche hübsche ^^
Weniger Saft aber dafür halt auch langsamer. Hättest ja die 680 auch auf 690 Niveau runtertakten können dann wäre es der gleiche Verbrauch gewesen ( und um welten leiser / kühler )

Knuddelbearli
2014-03-28, 12:22:56
Nur wird die 295X ja wohl wie die 290er mit DP:SP 1:8 kommen.

Sollte doch kein Problem sein das auf 1:4 anzuheben. Ist ja nur per Software limitiert.

dildo4u
2014-03-28, 12:25:18
wobei das meiste davon Wissenschaftlich gar nicht möglich sein kann, außer wenn du außer acht lässt das 680 sli deutlich schneller ist.
2 Karten kann man leiser und besser kühlen als 1 erst recht wenn die eine auch noch einen höhern verbrauch hat.
hübscher als Argument ähm ja. Dann kauf dir ne Wakü das das einzig wirkliche hübsche ^^
Weniger Saft aber dafür halt auch langsamer. Hättest ja die 680 auch auf 690 Niveau runtertakten können dann wäre es der gleiche Verbrauch gewesen ( und um welten leiser / kühler )
Eine Dual Karte ist effizienter da der Strom nur durch ein Satz Wandeler muss.

TobiWahnKenobi
2014-03-28, 12:26:49
wobei das meiste davon Wissenschaftlich gar nicht möglich sein kann, außer wenn du außer acht lässt das 680 sli deutlich schneller ist.
2 Karten kann man leiser und besser kühlen als 1 erst recht wenn die eine auch noch einen höhern verbrauch hat.
hübscher als Argument ähm ja. Dann kauf dir ne Wakü das das einzig wirkliche hübsche ^^
Weniger Saft aber dafür halt auch langsamer. Hättest ja die 680 auch auf 690 Niveau runtertakten können dann wäre es der gleiche Verbrauch gewesen ( und um welten leiser / kühler )

ich würde - an deiner stelle - nur zu dingen senf abgeben, die du aus eigener erfahrung kennst. ich schätze wenn du facebook bemühst oder hier im forum rumsuchst, findest du bestimmt genug von mir zu dem thema geschriebenes - auch wenn es 2 jahre zurückliegt.

ich hatte drei palit jetstream und alle wurden zu heiss im SLi - erst die 690 hat die erlösung gebracht. eine 680 ist mit über 90°C sogar verreckt.

http://abload.de/thumb/542344_378353862236383tact.jpg (http://abload.de/image.php?img=542344_378353862236383tact.jpg)

btw,
und rein "wissenschaftlich" waren die beiden GTX680 extern "nur" über PCIe-2.0 mit ja 8 lanes verbunden. GTX690 extern mit vollen 16 lanes und intern ebenfalls.. oder waren es gar 32 intern?? laaaaaange her und heute sowas von uninteressant.

dass kuhle "weil ich es kann" hardware von denen, die es nicht können kleingequatscht wird, ist nix neues.. ach, wenn ich nur geld hätte würde ich mir sowas direkt kaufen, nur um damit anzugeben.. aber leider bin ich zu arm und kann schon mit titan nix anfangen - spiele nur noch 2-5 stunden pro jahr...


(..)

mfg
tobi

Nakai
2014-03-28, 12:32:30
Nvidia hängt halt etwas in den Seilen solang 20nm noch nicht wirtschaftlich ist, für die neuen Maxwell Chips.

Also mMn ist die "Titan Z" ein Lückenfüller für den Workstationbereich bis Maxwell kommt, damit die Leute 2,7 TFLOPs DP in einer möglichst kompakten Form,
für ~ 1000 USD weniger als bei AMD mit ihrer neuen W9100 bekommen, wenn die Leute denn eine Alternative suchen.
Das "Geforce GTX" ist bei der "Z" natürlich noch weniger Gaming relevant als bei der Titan Black.

Es ist von der PR her einfach nur angenehmer eine billige Geforce GTX als teure Semi Pro zuverkaufen, statt eine teure Quadro als "Quadro K6000 GX2" plötzlich für nur 3000 USD zuverramschen,
statt dafür 6000-8000 € zunehmen, bei den aktuellen Preisen für die K6000.

Hat die Titan Z professionelle Treiber?
Die Titan Z benötigt 3 Slots, die W9100 nur 2.
Wenn man wirklich den gesamten professionellen "Einsatz" erleben möchte, kommt nicht nur eine Karte ins System. Bei einer 8 Slot-Workstation passen nur zwei Titan Z ins System, aber dagegen 4 W9100. Das ganze sieht wieder anders aus, wenn mit Wasserkühlern gekühlt wird, was eher der Fall sein wird.
Leider baut man in einer Workstation nicht so per Hand rum.

Ich hab mir auch zwar ein HP ZBook 14 "gegönnt", kommt zwar vom Preis her, nicht an eine Titan Z ran, aber wer mehr als 1000€ für eine Nicht-Professionelle Karte ausgibt hat nen Schatten. Ich sehe da nicht die Relation...

AnarchX
2014-03-28, 12:36:36
ich würde - an deiner stelle - nur zu dingen senf abgeben, die du aus eigener erfahrung kennst. ich schätze wenn du facebook bemühst oder hier im forum rumsuchst, findest du bestimmt genug von mir zu dem thema geschriebenes - auch wenn es 2 jahre zurückliegt.

ich hatte drei palit jetstream und alle wurden zu heiss im SLi - erst die 690 hat die erlösung gebracht. eine 680 ist mit über 90°C sogar verreckt.

http://abload.de/thumb/542344_378353862236383tact.jpg (http://abload.de/image.php?img=542344_378353862236383tact.jpg)

Für SLI wären vielleicht zwei DHE-Karten angebrachter. ;)

TobiWahnKenobi
2014-03-28, 12:41:38
Für SLI wären vielleicht zwei DHE-Karten angebrachter. ;)

definitiv. das ist ja auch der grund, warum ich und die anderen MGPU-user hier im forum oft zu DHE raten und die customs verteufeln. allerdings muss man damit erstmal erfahrungen gesammelt haben. idealerweise auch über einen längeren zeitraum.


(..)

mfg
tobi

Knuddelbearli
2014-03-28, 12:56:03
ich würde - an deiner stelle - nur zu dingen senf abgeben, die du aus eigener erfahrung kennst.

Tolle Argumentation :rolleyes:

i
ich hatte drei palit jetstream und alle wurden zu heiss im SLi - erst die 690 hat die erlösung gebracht. eine 680 ist mit über 90°C sogar verreckt.

http://abload.de/thumb/542344_378353862236383tact.jpg (http://abload.de/image.php?img=542344_378353862236383tact.jpg)

Na bei 3 kein Wunder. Hattest aber auch grob die doppelte 690 Leistung! und wegen 90C° verreckt dir keine Graka. Die wäre auch so gestorben halt eventuell paar Wochen später.
Und Custom für SLI ist sowieso Mist³ hättest auch vorher wissen können/müssen. Das geht nur wenn mindestens 1 Slot dazwischen frei ist also nur bei Dual SLI.


und rein "wissenschaftlich" waren die beiden GTX680 extern "nur" über PCIe-2.0 mit ja 8 lanes verbunden. GTX690 extern mit vollen 16 lanes und intern ebenfalls.. oder waren es gar 32 intern?? laaaaaange her und heute sowas von uninteressant.

x8 statt x16 sind paar Prozent ( Worstcase in Spielen wohl 10% ( kA mehr welches Spiel das war ) meist aber eher 2-4% ) das ändert nichts an fast doppelter Leistung deines Trippe SLI
x32 statt x16 wären sogar nur 1-2%


und auf der Erfahrung jetzt für 50% mehr kosten eine 33% langsamer Karte Empfehle? ähm ja ...

Knuddelbearli
2014-03-28, 13:01:02
Eine Dual Karte ist effizienter da der Strom nur durch ein Satz Wandeler muss.


Also verwendet man für eine Einzelkarte Spawas die für die Doppelte Leistung ausgelegt sind? Ich glaube nicht Dildo ;-). Und selbst wenn, was ich massivst bezweifle, dann würde sich das sowieso eher im idle auswirken. Da bei 100% Auslastung die Effizienz kaum nicht besser ist als bei 50% da, soweit ich das von früher im Kopf habe, sich da Spawas ganz ähnlich wie Netzteile verhalten.

dildo4u
2014-03-28, 13:08:28
Zwei 780TI sind für 500Watt ausgelegt die Titan Z vermutlich für 300,der Kühler wird dort sein Limit haben wenn die Karte wie versprochen leise ist,das SLI ist niemals so viel schneller das es 200Watt Mehrverbrauch rechtfertigt.

Hugo78
2014-03-28, 13:24:16
@Nakai
Ich sag nicht, dass selbst NV glaubt, die Titan Z wäre immer und überall eine gute oder gar bessere Alternative.
Aber der Reihe nach.
Hat die Titan Z professionelle Treiber?
Sicherlich nicht, aber für Leute die nur mit CUDA Software arbeiten, also reine Rechenleistung brauchen ist das eher zweitrangig.
Bei OpenGL schaut das dann wieder anders aus.
Die Titan Z benötigt 3 Slots, die W9100 nur 2.
Moment mal, es sind 2,5 ... soviel Zeit muss sein. *hust* ;)

Wenn man wirklich den gesamten professionellen "Einsatz" erleben möchte, kommt nicht nur eine Karte ins System. Bei einer 8 Slot-Workstation passen nur zwei Titan Z ins System, aber dagegen 4 W9100.
Solang dieses 4*W9100 System dann in einem anderem Raum steht, weils sicher höllisch laut werden wird und nicht Software benutzt wird die auf Nvidia besser läuft, dann ist die W9100 sicherlich die bessere Wahl, keine Frage.

Das ganze sieht wieder anders aus, wenn mit Wasserkühlern gekühlt wird, was eher der Fall sein wird.
Ist das wirklich so? Bei 4*W9100 ist es sicherlich zwingend erforderlich, wenn man gleich daneben sitzt, aber macht man sich diesen Streß als Profi wirklich? Ist ja auch ein Risikofaktor, Wasser in einem ~20000 USD System und seine Garantie ist man durch den Umbau so oder so los.

Knuddelbearli
2014-03-28, 13:24:33
Klar sind Karten mit niedrigeren takt effizienter :rolleyes:
Aber dann kauf dir halt 2 Titan Black für 2.000$ und takte sie auf die Black werte runter. dann hast +/-5W den selben Verbrauch.
Oder kauf dir 2 780 6Gb für 1200$ wenn DP egal und selbst nach 20 Jahren Dauerlast hast du den Preisunterschied durch Stromkosten noch nicht raus.

Nightspider
2014-03-28, 13:37:05
nach der erfahrung mit GTX680SLi vs. GTX690 anno 2012 würde ich auch jederzeit eine Titan Z zwei einzelnen vorziehen. GTX690 war problemloser, kühler, leiser, hübscher und verheizte weniger saft.


(..)

mfg
tobi

Erfahrung ja, Ahnung nein. :tongue:

Wenn du diese überteuerte Karte mit zwei schlechten 680Karten vergleichst schon.
Zwei 680 mit einem guten Kühler, welcher die Luft aus dem Gehäuse bläst, sind schneller oder leiser.

Für das Geld kriegst du zwei super gekühlte GTX670 die deutlich schneller sind als eine 690. Meine GTX670 Karten habe ich im SLI mit 1,2 Ghz betrieben. Mit den mickrigen 915Mhz wird die GTX690 da deutlich geschlagen. Selbst mit ~1050Mhz wird die 690 deutlich geschlagen bei geringerer Lautstärke.

Und wenn man gar nicht auf OC steht stehen zwei 670 oder 680 mit gutem Kühler immer noch besser da als eine 690. Vorausgesetzt natürlich, dass das Gehäuse gut belüftet wird.

Wobei zwei GTX680 Karten mit DHE Kühler und einem Slot Abstand dazwischen auch ohne tolle Gehäusebelüftung gut klar kommen sollten.

fondness
2014-03-28, 13:51:00
Zwei 780TI sind für 500Watt ausgelegt die Titan Z vermutlich für 300,der Kühler wird dort sein Limit haben wenn die Karte wie versprochen leise ist,das SLI ist niemals so viel schneller das es 200Watt Mehrverbrauch rechtfertigt.

Die Titan Z hat 2x 8Pin, also wohl bis zu 375W.
Ansonsten ist es nur logisch das herunter getaktete Chips energieeffizienter sind. Das kann ich allerdings auch mit den zwei 780Ti machen.

Nakai
2014-03-28, 13:56:30
@Nakai
Ich sag nicht, dass selbst NV glaubt, die Titan Z wäre immer und überall eine gute oder gar bessere Alternative.
Aber der Reihe nach.

Sicherlich nicht, aber für Leute die nur mit CUDA Software arbeiten, also reine Rechenleistung brauchen ist das eher zweitrangig.
Bei OpenGL schaut das dann wieder anders aus.

Moment mal, es sind 2,5 ... soviel Zeit muss sein. *hust* ;)

Solang dieses 4*W9100 System dann in einem anderem Raum steht, weils sicher höllisch laut werden wird und nicht Software benutzt wird die auf Nvidia besser läuft, dann ist die W9100 sicherlich die bessere Wahl, keine Frage.

Ist das wirklich so? Bei 4*W9100 ist es sicherlich zwingend erforderlich, wenn man gleich daneben sitzt, aber macht man sich diesen Streß als Profi wirklich? Ist ja auch ein Risikofaktor, Wasser in einem ~20000 USD System und seine Garantie ist man durch den Umbau so oder so los.

Man muss es immer in Relation sehen. Was für ein System hat man? Was will ich damit machen? Professionelle Karten sind auch dementsprechend zertifiziert, nicht nur von den Komponenten, sondern auch von der Software. Es kommt immer drauf an...ich sehe bei der Titan Z aber keine definitive professionelle Lösung, was nicht heißt, dass sie nicht dafür eingesetzt werden wird. Im Endeffekt gibt es in jeglichen professionellen Bereichen immer Produkte, die für einen spezifischen Einsatzzweck angepasst sind.
Selbst die S10000 (http://www.amd.com/de/products/workstation/graphics/firepro-remote-graphics/S10000/Pages/S10000.aspx) von AMD ist eine reine zwei Slot-Karte, trotz ähnlich hoher TDP. Nein, die Titan Z ist kein Produkt, welches für einen speziellen professionellen Einsatzzweck entwickelt ist.

NV sagt http://blogs.nvidia.com/blog/2014/03/25/titan-z/:

Built around two Kepler GPUs and 12GB of dedicated frame buffer memory, TITAN Z is engineered for next-generation 5K and multi-monitor gaming.

“If you’re in desperate need of a supercomputer that you can fit under your desk, we have just the card for you,” Jen-Hsun said.

Es ist und bleibt eine Gamingkarte, welche natürlich(wie fast alle NV-Gamingkarten) für CUDA benutzt werden kann. Spielerkarte für semi-professionellen Computeeinsatz.

€: Ahja, Serversysteme müssen gekühlt werden, da sie unglaublich viel thermische Energie abgeben. Das sind keine kleinen Systeme mehr, sondern die Kühlung und Leistungsaufnahme definiert den Einsatzbereich.

Knuddelbearli
2014-03-28, 14:04:56
Eine Dual Karte ist effizienter da der Strom nur durch ein Satz Wandeler muss.

So gerade gesucht obwohl ich es eigentlich nicht suchen wollte da du was ohne Quelle behauptet hast.

Sofern ich nichts auf dem PCB übersehen habe hat die GTX 690 10 Spawas die 680 nur 4!
Nach deiner Argumentation verbraucht die 690 also sogar mehr.
Soviel dazu ...

TobiWahnKenobi
2014-03-28, 14:08:41
@nightspider

Das was du da als schneller herauszustellen versuchst, ist mir die zeit nicht wert drüber nachzudenken. 670er sind kastrierte 680er - GTX690 zwei vollwertige Chips. Das eine ist ne 600€ Lösung; die andere kostete 1.000€.

Meine 690 taktete nicht anders als 6 Monate später Titan (ca. 1137-1150 MHz). Benches aus alten Tagen findest du in den jeweiligen Threads.

Hier gehts um die neue endgeile dual-GPU-Lösung und nicht um veraltete Hardware von 2011/12 oder was man wie erreichen kann. Die meisten hier müssen zwangsläufig mit billigerer Hardware rumstokeln, weil sie von 3.000€ Spaßgeld nur träumen können. Ich klammere mich da nichtmal aus - 2014 wird nichts im PC versenkt; hab 19 Kilo Euro anderweitig investiert und bin jetzt arm. Und es fehlt auch der bock zum xten mal DX11 zu kaufen. Hd7970 (3), gtx680 (3), gtx690 (1), Titan (1), R9 290 (1).. Jetzt ist Schluss mit Schwachsinnsausgaben.. Auch wenn ich Titan z sehr gern hätte.. Auch wenn es dabei nur um Gewohnheit geht.


(..)

mfg
tobi

fondness
2014-03-28, 14:18:31
Es ist und bleibt eine Gamingkarte, welche natürlich(wie fast alle NV-Gamingkarten) für CUDA benutzt werden kann. Spielerkarte für semi-professionellen Computeeinsatz.


Das Supercomputer-Geschwafel ist einfach nur peinlich. Bei NV ist einfach alles ein Supercomputer, selbst Tegra ist ja ein Supercomputer. Titan und Titan Z sind ganz normale Gaming-Karten, welche durch eine höhere DP-Leistung einen semi-professionellen Anstrich bekommen um irgendwie den völlig irrational hohen Preis zu rechtfertigen. Für den Einsatzzweck ist das allerdings völlig irrelevant.

TobiWahnKenobi
2014-03-28, 14:21:45
Das Supercomputer-Geschwafel ist einfach nur peinlich. Bei NV ist einfach alles ein Supercomputer, selbst Tegra ist ja ein Supercomputer. Titan und Titan Z sind ganz normale Gaming-Karten, welche durch eine höhere DP-Leistung einen semi-professionellen Anstrich bekommen um irgendwie den völlig irrational hohen Preis zu rechtfertigen. Für den Einsatzzweck ist das allerdings völlig irrelevant.

Das beste am DP Schalter im CP ist, dass es den Boost abschaltet.

(..)

mfg
tobi

Nightspider
2014-03-28, 14:21:52
Sparlösung hin oder her aber gute 670 Karten sind im SLI schneller oder gleich schnell wie eine 690 weil sie einfach noch höher boosten, dank deutlich mehr Kühlfläche bei zB. ASUS 670DC2.
(Gut das mit 915Mhz war Quatsch was ich erzählt habe, die 690 boostete ja auch aber sicherlich nicht auf 1,2 Ghz wie manche 690 Karten)

Die 690 schleudert immerhin die Hälfte der Wärme zurück ins Gehäuse, genau wie die Titan Z. Das machen zwar auch viele hochwertige "kleine" Karten.

Demnächst kommen wohl noch GTX 780ti Karten mit 6GB VRAM. Zwei davon mit dicken Kühlern und jeweils 3 Lüftern wären jeder Titan Z vorzuziehen aufgrund fast doppelter Kühlfläche.

Titan Z ist eher die Bonzenlösung für Leute die zu viel Geld haben und nicht nachdenken. Wenn du in dem Forum bist gehörst du eher zu den Leuten die nachdenken und deswegen solltest du dir auch niemals eine Titan Z holen, selbst wenn du gerade nicht 19.000 Euro anderweitig versenkt hättest.

(Rein auf Gamer bezogen! Das die Titan Z für Workstations vielleicht eine Daseinsberechtigung hat bestreite ich nicht)

Nakai
2014-03-28, 15:24:22
Das Supercomputer-Geschwafel ist einfach nur peinlich. Bei NV ist einfach alles ein Supercomputer, selbst Tegra ist ja ein Supercomputer. Titan und Titan Z sind ganz normale Gaming-Karten, welche durch eine höhere DP-Leistung einen semi-professionellen Anstrich bekommen um irgendwie den völlig irrational hohen Preis zu rechtfertigen. Für den Einsatzzweck ist das allerdings völlig irrelevant.

Seien wir mal ehrlich. DP-Berechnungen sind nur dann notwendig, wenn wirklich eine höhere Präzision benötigt wird. Ich finde es jedoch schade, dass AMD mit Hawaii im Gamingmarkt keine "normale" DP-Geschwindigkeit bereitstellt. 1/4 wäre wünschenswert. Aber im Endeffekt fühlt sich die HPC-Programmierung mittels OpenCL und CUDA, bis auf, dass keine GS bereitgestellt wird, schon ähnlich an, wie Programmierung wie OpenMP, ergo schon hohe Parallelisierung.

Das beste am DP Schalter im CP ist, dass es den Boost abschaltet.

Nichts ist umsonst.

fondness
2014-03-28, 15:48:33
Ich finde es jedoch schade, dass AMD mit Hawaii im Gamingmarkt keine "normale" DP-Geschwindigkeit bereitstellt. 1/4 wäre wünschenswert.

1/8 ist noch immer weit mehr wie die Konkurrenz bereit stellt.

fondness
2014-03-28, 15:51:12
Lustig wird's, wenn AMD die 295X2 mit 2x 8 GiB und einer Kompakt-Wakü bestückt, die Titan Z abzieht und dafür "nur" 999 Dollar verlangt. :ugly:

MfG,
Raff

http://www.computerbase.de/2014-03/amd-radeon-r9-295-x2-kommt-am-8.-april/

;)

Hugo78
2014-03-28, 16:36:00
Titan und Titan Z sind ganz normale Gaming-Karten, welche durch eine höhere DP-Leistung einen semi-professionellen Anstrich bekommen um irgendwie den völlig irrational hohen Preis zu rechtfertigen. Für den Einsatzzweck ist das allerdings völlig irrelevant.

Wären die Rollen vertauscht und AMD wäre im Profimarkt in Nvidias Position, würden sie den Markt genauso unterteilen.
Und je stärker AMD in dem Markt wird, desto weniger DP Leistung wirst du in Zukunft bei den künftigen Radeons sehen.

Dural
2014-03-28, 16:36:59
Wie zwei Hawaii zwei GK110 abziehen könnten, ausser wahrscheinlich beim Verbrauch :P

Und überhaupt, keine volle GPUs drauf?! geht mal gar nicht!

Zweimal „Hawaii“ und 5.120 ALUs unter Wasser

Skysnake
2014-03-29, 06:39:40
Wären die Rollen vertauscht und AMD wäre im Profimarkt in Nvidias Position, würden sie den Markt genauso unterteilen.
Und je stärker AMD in dem Markt wird, desto weniger DP Leistung wirst du in Zukunft bei den künftigen Radeons sehen.
Absolut richtig!

Und genau deswegen hoffe ich, das nVidia die DP-Beschneidung ihrer GeForce Karten reduziert, oder gar ganz wegfallen lässt :devil:

Das wäre für uns Kunden die optimale Lösung. Allerdings befürchte ich, das nVidia nichts tun wird und AMD sich einfach anpasst, weil Sie es sich jetzt eben leisten können :(

Black-Scorpion
2014-03-29, 10:17:20
@nightspider

Das was du da als schneller herauszustellen versuchst, ist mir die zeit nicht wert drüber nachzudenken. 670er sind kastrierte 680er - GTX690 zwei vollwertige Chips. Das eine ist ne 600€ Lösung; die andere kostete 1.000€.

Meine 690 taktete nicht anders als 6 Monate später Titan (ca. 1137-1150 MHz). Benches aus alten Tagen findest du in den jeweiligen Threads.

Hier gehts um die neue endgeile dual-GPU-Lösung und nicht um veraltete Hardware von 2011/12 oder was man wie erreichen kann. Die meisten hier müssen zwangsläufig mit billigerer Hardware rumstokeln, weil sie von 3.000€ Spaßgeld nur träumen können. Ich klammere mich da nichtmal aus - 2014 wird nichts im PC versenkt; hab 19 Kilo Euro anderweitig investiert und bin jetzt arm. Und es fehlt auch der bock zum xten mal DX11 zu kaufen. Hd7970 (3), gtx680 (3), gtx690 (1), Titan (1), R9 290 (1).. Jetzt ist Schluss mit Schwachsinnsausgaben.. Auch wenn ich Titan z sehr gern hätte.. Auch wenn es dabei nur um Gewohnheit geht.


(..)

mfg
tobi
Endgeile Karte?
Das Ding ist überteuerter Abfall und sonst nichts.
Und das hat auch mit Spaßgeld nichts zu tun. Sag mir einen vernünftigen Grund für eine Karte die bis zu 50% schneller wie die Single Karte ist für den dreifachen Preis zu kaufen.

Aber ich schätze dir wird sicher irgendein Fadenscheiniger einfallen.

Raff
2014-03-29, 10:24:49
Nein, es ist wie bei der Titan: Das Ding ist gewiss ein begehrenswertes Spielzeug, allerdings muss man Nvidias Marketing nun endgültig Größenwahn vorwerfen. Man hat gesehen, dass es offenbar mehr als 50 private Freaks gibt, denen man 1.000-Euro-Produkte andrehen kann, also reizt man dieses Spiel nun maximal aus. Ist das ebenfalls von Erfolg gekrönt – ich bezweifle, dass sich die Titan Z zu diesem Preispunkt ähnlich gut verkauft –, wird man sich die Speerspitzen weiter vergolden lassen ...

MfG,
Raff

PS: Warum kostet ein Bugatti Veyron nochmal so viel? ;)

Godmode
2014-03-29, 10:33:31
Ich finde das Ding nicht sehr kaufenswert, da nehme ich doch lieber zwei Titan Black und hab mehr Leistung für viel weniger Geld.

Raff
2014-03-29, 10:37:08
Wie man sieht, hängen wir uns alle nur am Preis auf, denn das ist, wie bei der Titan Classic, voraussichtlich der einzige Kritikpunkt an diesem Produkt (sieht man von SLI ab, aber wir setzen hier voraus, dass SLI/Crossfire gewollt ist und mit SLI/Crossfire verglichen wird ;)). Hätte Nvidia "499 USD" geschrieben, gingen hier Vorbestellungen raus wie Pilze im Herbst ...

MfG,
Raff

TobiWahnKenobi
2014-03-29, 10:53:05
Wie man sieht, hängen wir uns alle nur am Preis auf, denn das ist, wie bei der Titan Classic, voraussichtlich der einzige Kritikpunkt an diesem Produkt (sieht man von SLI ab, aber wir setzen hier voraus, dass SLI/Crossfire gewollt ist und mit SLI/Crossfire verglichen wird ;)). Hätte Nvidia "499 USD" geschrieben, gingen hier Vorbestellungen raus wie Pilze im Herbst ...

MfG,
Raff

ja, sehr wahr.. aber so isses ja irgendwie immer.. dabei könnte man die preisgrundlage - egal um welche graka es sich handelt - doch auf jedes segment runterbrechen und dann dürften alle sparfüchse nur noch AMD kaufen. NVidia kostet immer mehr.. apple ist auch immer teurer als der mitbewerb.. oder ariel.. sowas gibts.

gut, dass es nicht möglich ist, aber ich würde manchmal schon gern wissen, wieviele porsche ich in 30 jahren EDV in vergänglicher hardware versenkt habe.. prinzip schwachsinnsausgaben, die im grunde nichts bringen.


(..)

mfg
tobi

Godmode
2014-03-29, 11:01:01
Wie man sieht, hängen wir uns alle nur am Preis auf, denn das ist, wie bei der Titan Classic, voraussichtlich der einzige Kritikpunkt an diesem Produkt (sieht man von SLI ab, aber wir setzen hier voraus, dass SLI/Crossfire gewollt ist und mit SLI/Crossfire verglichen wird ;)). Hätte Nvidia "499 USD" geschrieben, gingen hier Vorbestellungen raus wie Pilze im Herbst ...

MfG,
Raff

Also wenn sie die Karte für 1500 Euro raushauen würden, könnte man ja noch ein Auge zudrücken, aber warum bitte 3.000€? Ich könnte mir jetzt ohne mit der Wimper zu zucken, so eine Karte kaufen, aber was hätte ich davon? Wenn ich damit 3x Titan Black Leistung bekommen würde, dann würde das passen, ober so sicher nicht.

fondness
2014-03-29, 11:09:58
PS: Warum kostet ein Bugatti Veyron nochmal so viel? ;)

Der Vergleich hinkt, denn Bugatti ist ein Verlustgeschäft und reines Prestige. NV hingegen lässt sich das recyceln eines schon lange produzierten Chips vergolden.

Raff
2014-03-29, 11:11:37
Vielleicht besteht der dicke Titan-Z-Kühler aus einer AlCu-Diamant-Legierung, ist damit konkurrenzlos leistungsfähig und die Bugatti-Analogie trifft damit zu? :ulol:

MfG,
Raff

TobiWahnKenobi
2014-03-29, 11:13:41
vllt. können wir hochpreisige hardware demnächst personlisiert in unterschiedlichen farben ordern - beim autokauf hat mir dieses lifestyle-anpass-unikat-feature sehr gut gefallen.. beim eifon ebenfalls.. endlich wieder bunt und nicht immer gleich und die möglichkeit zur gravur der alubodies haben wir ja auch schon immer..


(..)

mfg
tobi

fondness
2014-03-29, 11:34:11
Angeblich ist auch eine GTX790 für "normalsterbliche" auf dem Weg.

By the way, if you’re wondering what is GTX 790 still doing in this table — nobody said it’s canceled, or TITAN Z is actually 790. In fact GTX 790 is still on track, although NVIDIA will release it after R9 295X2.

http://videocardz.com/50082/amd-radeon-r9-295-x2-arrives-april-8th

Könnte ähnlich laufen wie bei 780Ti und Titan Black, ein paar Mhz mehr und doppelter VRAM für ein paar Tausend Euro Aufpreis. :ugly:

Godmode
2014-03-29, 14:44:23
Angeblich ist auch eine GTX790 für "normalsterbliche" auf dem Weg.



http://videocardz.com/50082/amd-radeon-r9-295-x2-arrives-april-8th

Könnte ähnlich laufen wie bei 780Ti und Titan Black, ein paar Mhz mehr und doppelter VRAM für ein paar Tausend Euro Aufpreis. :ugly:

Von mir aus könnten sie die DP Rate beschränken und dafür einen normalen Preis verlangen.

Schaffe89
2014-03-29, 16:49:16
Und überhaupt, keine volle GPUs drauf?! geht mal gar nicht!

Entweder ich beschneide die Karte bei den Cu´s oder ich senke den Takt.
Eine 290x mit 2816 Shadern ist auch keine volle Karte, nur mal so nebenbei, der Refresh kommt wahrscheinlich mit 3072 Shadern und 48 Cu´s.

HarryHirsch
2014-03-29, 16:54:23
Nein.

http://forum.beyond3d.com/showpost.php?p=1817984&postcount=2269 Diese Spekulation sollte man damit beenden.

Raff
2014-03-29, 16:58:30
2x 40 CUs fände ich dennoch kurios, da man sich allgemein einig darüber ist, dass ein breiter, niedrig getakteter Chip eine geringere Leistungsaufnahme provoziert als ein beschnittener, hochgetakteter. Man könnte angesichts vieler Benchmarks meinen, dass GCN "dort oben" nicht mehr vernünftig skaliert, allerdings punktet eine 290X gegenüber der 290 sehr wohl, wenn es darum geht, möglichst viele Pixel zu zeichnen (Front- und Back-End bleiben ja gleich).

MfG,
Raff

Hübie
2014-03-29, 18:18:29
Noch mal: nVidia will doch bewusst Spieler von dem Teil fern halten und sich gleichzeitig den aufwändigen Support für Semi-Profis ersparen. Ich weiß nicht was es da noch zu quatschen gibt.

@skysnake: Ich habe ebenso wenig Zeit wie du als melde dich bei nVidia als Dev an (wenn du das noch nicht bist), geh dort ins Forum und frage die Leute da direkt.

Edit: Und ja ich meinte damit Windows sowie die damit verbundenen Nachteile. Es gibt aber schon so einige die Zuhause mit sowas rechnen...

StefanV
2014-03-29, 19:14:26
2x 40 CUs fände ich dennoch kurios, da man sich allgemein einig darüber ist, dass ein breiter, niedrig getakteter Chip eine geringere Leistungsaufnahme provoziert als ein beschnittener, hochgetakteter. Man könnte angesichts vieler Benchmarks meinen, dass GCN "dort oben" nicht mehr vernünftig skaliert, allerdings punktet eine 290X gegenüber der 290 sehr wohl, wenn es darum geht, möglichst viele Pixel zu zeichnen (Front- und Back-End bleiben ja gleich).

MfG,
Raff
Oder man macht etwas ganz verrücktes, bei AMD:
Man agiert taktisch.

Man schmeißt erst einmal eine Revision 1 Karte auf den Markt und zwingt so den Mitbewerber zu reagieren. Dann wartet man die Reaktionen ab und macht 'ne 'nonplusultra überedition' mit vollen Chips, die dann in der Lage ist den Mitbewerber (also die GTX 790) knapp zu schlagen.

robbitop
2014-03-31, 13:36:42
Eine 290x mit 2816 Shadern ist auch keine volle Karte, nur mal so nebenbei, der Refresh kommt wahrscheinlich mit 3072 Shadern und 48 Cu´s.
Die Aussage ergibt keinen Sinn. Hawaii als solches hat nur 2816 SPs. Da ist keine Redundanz vorhanden. Das hat Dave Bauman jedenfalls gesagt - der weiß wovon er spricht und arbeitet nebenbei bei AMD.

Sollte es einen Refresh geben mit einem neuen Kern, wird Hawaii dadurch nicht beschnitten sein. Aber von einem solchen milden Refresh höre ich das erste Mal. Wo hast du das denn her?

2x 40 CUs fände ich dennoch kurios, da man sich allgemein einig darüber ist, dass ein breiter, niedrig getakteter Chip eine geringere Leistungsaufnahme provoziert als ein beschnittener, hochgetakteter. Man könnte angesichts vieler Benchmarks meinen, dass GCN "dort oben" nicht mehr vernünftig skaliert, allerdings punktet eine 290X gegenüber der 290 sehr wohl, wenn es darum geht, möglichst viele Pixel zu zeichnen (Front- und Back-End bleiben ja gleich).

MfG,
Raff
Oder es ist Taktik. NV will die GTX790 ja erst nach der X2 rausbringen. Dann könnte man nochmal darauf reagieren...

edit: sehe gerade Stefan hat das gerade ebenfalls vorgeschlagen :eek:

Wie skaliert Hawaii eigentlich. Die 8 CUs mehr bringen IIRC deutlich weniger als sie taktnormiert bringen müssten. IIRC ist bei gleichem Takt die 290X 5-7 % schneller, hat aber 20 % mehr ALUs, die widerum vermutlich linear mehr Leistungsaufnahme mit sich bringen.
Da könnte es eventuell in diesem Falle doch "schlauer" sein, bei 40 CUs zu bleiben und beim Takt nicht all zu sehr einbüßen zu müssen...

akuji13
2014-04-01, 09:54:56
Also nen Smart 4two :confused:

Wir reden von Autos. ;)

Die 50% Aufpreis sollte man nicht unterschlagen und die Basis ist wohl eher kein GTI, sondern schon ein relativ teurer Sportwagen

Aufgrund des reduzierten Taktes ist sie kein Sportwagen. :wink:

Man bezahlt also lieber 1000€ extra, anstatt sich für 100€ ein Mainboard mit mehr PCIe-Slots zu kaufen?

Was eine Umstellung des Systems bedingt, die weder immer nötig, noch gewollt, noch möglich ist. ;)

Das ruft immer noch keinen Neid hervor. ;)

Für 3000$ willst du sie nicht kaufen, für 300$ würdest du es und beschwerst dich das sie Leute für 3000$ kaufen werden und das NV zu hohe Preise verlangt...mMn kann man das als Neid auslegen. :wink:

Ich würde sie gerne haben, obwohl ich ein Titan Sli betreibe.

Nur was spricht für die Karte, wenn man sie nur zum zocken einsetzen würde?

Die Exklusivität. ;)
Und immer noch der Platz, die leichtere Installation (z. B. Kabel).
Dadurch bessere Optik wenn man drauf Wert legt.

Bevor ich es vergesse:
Hast du schon mal ein Sli verbaut mit 2x 2.5/3 Slot breiten Kühlern, dazu eine PhysX Karte, eine Soundkarte und wolltest noch den USB 3.0 Anschluß unten am Board nutzen? ;)
Genau vor dem (Luxus)Problem stehe ich, mit einer Z wäre alles kein Thema.

Außerdem will halt nicht jeder ne Grafikkarte die viele haben, ist da nicht anders als bei anderen Produkten.

Was bitte spricht für eine 290X/780Ti, wenn die Klasse darunter fast die gleiche Leistung bringt für deutlich weniger Geld?
Titan, 780Ti oder 290X sind für die meisten überflüssig, die Z halt noch deutlich überflüssiger.

Klar kann man darüber sprechen und es kritisieren, aber dieser missionarische Einsatz dagegen der immer betrieben wird mutet für mich an, als wollte man die Richtung der Erdrotation ändern.

TobiWahnKenobi
2014-04-01, 11:12:01
darum gehts - platz im case und man verbaut sich nix, einfache haptik und keine probleme mit der kühlung, exklusitivät und nicht jeder hats, ausreichend puste für lustige videospiele (auch wenn mir die mit bald 40 shice egal sind), hübsch anzusehen wenn das case mal offen ist..

ansonsten ist es natürlich pure zeitverschwendung überhaupt drüber zu philosophieren, ob es nötig ist oder ob es günstig oder teuer ist. wer kann und bock hat -> kaufts. solange nvidia draufsteht ärgert man sich wenigstens nicht über die investition.


(..)

mfg
tobi

Hübie
2014-04-01, 11:29:21
Die Aussage ergibt keinen Sinn. Hawaii als solches hat nur 2816 SPs. Da ist keine Redundanz vorhanden. Das hat Dave Bauman jedenfalls gesagt - der weiß wovon er spricht und arbeitet nebenbei bei AMD.

Sollte es einen Refresh geben mit einem neuen Kern, wird Hawaii dadurch nicht beschnitten sein. Aber von einem solchen milden Refresh höre ich das erste Mal. Wo hast du das denn her?


Oder es ist Taktik. NV will die GTX790 ja erst nach der X2 rausbringen. Dann könnte man nochmal darauf reagieren...

edit: sehe gerade Stefan hat das gerade ebenfalls vorgeschlagen :eek:

Wie skaliert Hawaii eigentlich. Die 8 CUs mehr bringen IIRC deutlich weniger als sie taktnormiert bringen müssten. IIRC ist bei gleichem Takt die 290X 5-7 % schneller, hat aber 20 % mehr ALUs, die widerum vermutlich linear mehr Leistungsaufnahme mit sich bringen.
Da könnte es eventuell in diesem Falle doch "schlauer" sein, bei 40 CUs zu bleiben und beim Takt nicht all zu sehr einbüßen zu müssen...

Da war mal irgendwo im Netz das Gerücht es seien 48 CUs in Hawaii wovon nur 44 aktiv wären. Dass dies im aktuellen Zustand physikalisch nicht möglich ist wurde dabei ausser acht gelassen. Der vermeintliche Author ging wohl einem fake-screenshot auf dem Leim.
Also vergiss das ganz schnell wieder ;D
Kommt da jetzt noch was nach der Titan Z mit GK110? Hieß es nich 2*2496 ALUs bei 320 bit oder so? Sind vier DMA-copy-engines auf Titan Z aktiviert? Wie stehts mit framemetering? Sollte hier doch noch mal ne Spur besser sein oder?

Edit: @tobi: Mit 40 keine Videospiele mehr spielen aber Spielzeugautos kaufen, wa? X-D scnr

Godmode
2014-04-01, 12:33:53
Außerdem will halt nicht jeder ne Grafikkarte die viele haben, ist da nicht anders als bei anderen Produkten.


Dieses Argument werde ich nie verstehen. Ich habe einen Freund, der ein iPhone Early Adopter war. Er hat beim Release ein iPhone aus den USA importiert und damals hatte hier in AT wirklich niemand ein iPhone. Jetzt ist er komplett von weg von den iPhones, weil er meint, jeder Migrant hat schon eins.

Wenn ich mir was leiste, dann geht es mir primär darum, einen Nutzen in der Neuanschaffung zu sehen.
neue Grafikkarte -> mehr FPS, höhere AA Mode, Leise, ..
neues Auto -> mehr Fahrspass, mehr Komfort, weniger Verbrauch, ...

Gibt es wirklich so viele Leute die nur was haben wollen, weil es die anderen nicht haben können? :fresse:

Hübie
2014-04-01, 12:43:23
Ja weil Neid und Missgunst manche Leute einfach befriedigt. Allerdings eben auf Seiten der Beneideten und Missgünstigten (Neogolismus pur ;D).
Negative Emotionen haben eben eine geringe Reizschwelle der Auslösung. Aber das ist total off topic.

Ich sehe als Hauptvorteil der Titan Z eben dass man massive compute-power in ein Desktop-System bekommt. Vier Karten könnten bei sinnvoller Slot-Anordnung (glaub ich) drin sein. Das wären 8 massiv parallel rechnende Werke. Manche Uni hat nicht mal soviel Power ;D

TobiWahnKenobi
2014-04-01, 12:43:47
klar gibt es das - es gibt ja auch "bock auf was neues". egal, ob PC, auto, frau oder job..

das rumzeigen von zukünftigem elektronikschrott ist ja sowas wie eine treibende kraft für den markt.


(..)

mfg
tobi

StefanV
2014-04-01, 12:43:53
2 zu 3 zu 1....
2 Grafikkarten zum Preis von drei, auf einem PCB.

Bin ich der einzige, der das nicht versteht???
Vorallen dne Preis einer Titan dazu, nur weil beide auf einem PCB hocken?! Ähh, ja, nee, is klar...

Raff
2014-04-01, 12:46:27
Nvidia lässt sich den kompakten Zusammenschluss, die Hochtechnologie dahinter, eben vergolden.

MfG,
Raff

akuji13
2014-04-01, 12:56:28
Dieses Argument werde ich nie verstehen.

So unterschiedlich sind die Menschen.
Ich hatte 2 Wochen vor Japan release ein Dreamcast für 1500DM importiert. :wink:

Wenn ich mir was leiste, dann geht es mir primär darum, einen Nutzen in der Neuanschaffung zu sehen.

Mein Nutzen = Spaß.

neues Auto -> mehr Fahrspass, mehr Komfort, weniger Verbrauch, ...

Ok, wir ticken völlig anders.
Mein Spaßauto fährt sich weder komfortabel noch verbraucht es wenig...es ist einach nur sauschnell. :biggrin:
Und sehr selten. ;)

Das resultiert für mich in mehr Fahrspaß. :wink:

Gibt es wirklich so viele Leute die nur was haben wollen, weil es die anderen nicht haben können? :fresse:

Ja.

Ich würde (auch deswegen) mir nie ein Eierphone zulegen weil das jeder hat, da kaufe ich lieber ein HTC.
Deshalb fahre ich auch keinen Golf und trage keine Seiko.

Blaire
2014-04-01, 13:08:34
2 zu 3 zu 1....
2 Grafikkarten zum Preis von drei, auf einem PCB.

Bin ich der einzige, der das nicht versteht???
Vorallen dne Preis einer Titan dazu, nur weil beide auf einem PCB hocken?! Ähh, ja, nee, is klar...

Exklusivität lässt man sich halt teuer bezahlen, wer das nötige Kleingeld hat, bekommt die Dual-Variante schon frühzeitig, zu entsprechenden Konditionen. Premium eben, nichts für die Masse, das sollte nach der mittlerweile dritten Auflage klar ersichtlich sein.

Rente
2014-04-01, 13:13:01
Ist das nicht die 4. Auflage? GTX295, GTX590, GTX690, Titan Z?

Iruwen
2014-04-01, 13:19:48
Die dritte Auflage Titan oder? Die anderen waren jetzt nicht so Premium, die GTX295 hatte ich sogar.

N0Thing
2014-04-01, 14:03:20
Für 3000$ willst du sie nicht kaufen, für 300$ würdest du es und beschwerst dich das sie Leute für 3000$ kaufen werden und das NV zu hohe Preise verlangt...mMn kann man das als Neid auslegen. :wink:

Nein, nicht wirklich. Ich habe kein Interesse an Mulit-GPU-Setups, würde eine solche Karte also sowieso nicht kaufen. Also spare dir doch deiner Unterstellungen, danke. :)
Und wie ich schon früher schrieb, stört es mich kein bisschen, wenn sich jemand anderes eine teure Karte kauft und daran Spaß hat. Ich habe mich aber daran gestört, wenn Kritik an der Karte und ihrer Preisgestaltung pauschal als Neid abgewertet wird, wie du es hier nochmal schön vormachst. Und ich habe in Frage gestellt, ob die Karte für Spieler denn irgendwelche rationellen Vorteile gegenüber einem 780Ti-SLI-System bietet.



Die Exklusivität. ;)
Und immer noch der Platz, die leichtere Installation (z. B. Kabel).
Dadurch bessere Optik wenn man drauf Wert legt.

Das sind valide Argumente und wenn jemand sagt mir ist der Preis egal, ich will das so, ich möchte das so, spricht ja auch nichts dagegen.
Wobei das Thema Exklusivität meiner Meinung nach ein Scheinargument ist. Bis zum cleveren Marketing der Titan-Reihe gab es hier im Forum auch nicht so viele Leute, die sich eine KFA² white Edition oder gar eine Quadro K6000 gekauft haben, nur um was Besonderes zu haben.

Aber gut, bleiben die Vorteile des geringeren Platzbedarfs, leichtere Installation und weniger Kabelsalat. Dazu die Egokomponenten Optik und Exklusivität.


Klar kann man darüber sprechen und es kritisieren, aber dieser missionarische Einsatz dagegen der immer betrieben wird mutet für mich an, als wollte man die Richtung der Erdrotation ändern.

Missionarischen Eifer sehe ich dagegen eher bei dir, der aus welchem Grund auch immer die Neid-Debatte weiter anfeuert. Es ist ja möglich sachlich über die Vor- und Nachteile der Karte zu reden, ohne Andersdenkenden die Diskussionsfähigkeit abzusprechen. Man sollte dabei nur vielleicht Dinge wie messbare Faktoren und Wohlfühlfaktoren auseinander halten, dann wird es einfacher auf der gleichen Ebene zu reden. ;)

Felixxz2
2014-04-01, 17:21:01
Egal wie manche das hier drehen und wenden. Mir doch egal was nVidia sich vergolden lassen will. Können auch 10.000€ verlangen, der Preis bleibt ein Witz. Wie schon 1000x gesagt zahlt man 1000 dafür dass die Chips auf einem PCB sind. Das ist weder Hochtechnologie noch Luxus, das ist einfach nur (aus sicht eines gamers) frech und abzocke. Versteh nicht wie man das verteidigen kann.

Im Endeffekt ist es natürlich so, dass die Karte allen egal ist und wer nicht will, eben nicht kauft. In einer Diskussion darf man aber wohl trotzdem mal nachfragen ob die bei nVidia noch ganz sauber sind.

Loeschzwerg
2014-04-01, 18:31:12
Auch wenn ich die Diskussion hier nicht weiter antreiben möchte, aber es gibt Sammler von selten, nicht alltäglichen Dingen und diese Fraktion ist bereit für dieses Hobby entsprechend zu zahlen. Schaut man sich die HW Sammler an (zu denen ich auch gehöre) dann drehen sich hier eh total verrückte Dinge ab... 3dfx Rampage mit ~10.000€, Voodoo 5 6000 mit 2000-3000€, ARES/MARS 1000€, Tseng ET 6000 aktuell ~100€ bis mehr (für eine popelige 2D Karte!)...

Ich finde die 3000$ ebenfalls überzogen, schlichtweg weil die HW für mich noch viel zu gewöhnlich ist (da warte ich erst noch 10 Jahre :D), aber solange es Leute gibt die sowas kaufen, who cares?

Black-Scorpion
2014-04-01, 18:32:32
Wenn es ja nur der Preis wäre. Die Karte hat im besten Fall 50% mehr Leistung wie eine Single Karte.
Wie manche das echt gut reden ist mir schleierhaft.

Loeschzwerg
2014-04-01, 18:39:07
Wie manche das echt gut reden ist mir schleierhaft.

Mindestens genauso blöd wie die Fraktion die wegen des Preises jammert ;)

Es gibt genügend Karten mit genialem P/L, wo ist das Problem? :) Je weniger Leute die Karte besitzen umso eher verschwindet das Ding in der Belanglosigkeit. (und wird damit irgendwann umso interessanter für mich :D)

boxleitnerb
2014-04-01, 18:44:23
Nun das ist in der TDP-Klasse normal. Die GTX 590 hatte auch nur knapp 60% mehr Leistung als die GTX 580, weil mehr einfach nicht ging ohne alle Grenzen zu sprengen.

kruemelmonster
2014-04-01, 18:52:16
Die Gelddiskussion war schon bei Titan Classic langweilig und ist nicht interessanter geworden. Prestige und Luxus entsteht nunmal nicht durch Vernunft und ein gutes P/L-Verhältnis, eher im Gegenteil.
Die Frage ist nur ob man es vermarkten und verkaufen kann, und mir kann keiner erzählen dass AMD nicht auch gerne eine Karte mit solch einer Marge verkaufen würde.
Wenn die Klientel durch die Z mit zusätzlichen 1000€ Einsatz die Luxussorge "mein Case ist bei zwei Titan Black zu voll" loswerden kann ist doch allen geholfen: der Kunde ist zufrieden, NV hat Einkommen für R&D (je nach Blickwinkel auch für Pläne bzgl der Weltherrschaft oder für Holzschraubenaktien :freak:), und mir wird meine nächste GPU-Entwicklung querfinanziert.

Also los, kauft die Z! ;D

dildo4u
2014-04-01, 19:43:28
AMD wollte 750€ für diesen Schrott haben mehr muss man dazu nicht sagen.

http://preisvergleich.pcgameshardware.de/?phist=973468

Black-Scorpion
2014-04-01, 19:45:18
Hast du wieder was gefunden zum trollen?
Äpfel und Birnen

Iruwen
2014-04-01, 19:48:54
Er bezieht sich vermutlich auf

Je weniger Leute die Karte besitzen umso eher verschwindet das Ding in der Belanglosigkeit. (und wird damit irgendwann umso interessanter für mich :D)

Uninteressante Produkte fallen evtl. deutlich im Preis. Wobei die normale Titan offenbar noch soviel kostet wie die Black, insofern...

dildo4u
2014-04-01, 19:49:07
Stimmt ist Äpfel und Birnen Titan Z ist ein Produkt das man haben will.

Hugo78
2014-04-01, 19:49:56
Der Vergleich passt in der Tat nicht, da ein 700€ 8Core, 5GHz AMD FX-9590 von einem 150€, 3GHz, 4Core Intel i5 in den meisten Spielen, bei der hälfe der Leistungsaufnahme geplättet wird.

Den Vergleich hat Titan Z bei aller Kritik nicht verdient! :biggrin:

aufkrawall
2014-04-01, 19:50:27
Man will AFR und DP-Leistung haben? :freak:

Loeschzwerg
2014-04-01, 20:32:11
Uninteressante Produkte fallen evtl. deutlich im Preis. Wobei die normale Titan offenbar noch soviel kostet wie die Black, insofern...

Titan/Titan Black sind ja noch halbwegs bezahlbar und es besitzen auch genügend Enthusiasten so eine Karte. Das hat dann auch eine andere Relevanz in Benchmarkvergleichen.

Die Z verschwindet hier vermutlich genauso schnell wie eine ARES/MARS.

Iruwen
2014-04-01, 20:52:05
Hat hier eigentlich jemand eine dieser Karten?

Blediator16
2014-04-01, 21:11:46
Sollen wir nun Tegra auch mit ins dreckige Spiel bringen oder wo sind wir hier nun angekommen.

Hugo78
2014-04-01, 21:48:22
Kein Tegra saugt so hart wie die letzten FX CPUs.

Black-Scorpion
2014-04-02, 20:01:51
Leider weiß keiner wie die bei NV aussehen würden.

Nur gut es es hier um die Titan geht und nicht um FX CPUs.

AnarchX
2014-04-19, 12:07:32
"April", da muss NV langsam beeilen. Oder hat man sich von der 295X2 überraschen lassen?

Es wäre wohl nicht verkehrt, wenn man mit Premiumpartner wie EVGA gleich zum Start auch eine Kompakt-WaKü-Version anbieten könnte.

Raff
2014-04-19, 12:13:06
Möglicherweise feilt Nvidia tatsächlich gerade an einer Titan ... Moment, was kommt nach Z im Alphabet? ;) Aktenzeichen XY ungelöst. Ohne Änderungen gäb's in den Benchmarks reichlich Haue von der 295 X2, da muss man sich nichts vormachen. Eventuell wird sie auch einfach preiswerter, bei 1.500 Euro wäre ja fast alles im Lot. :ugly:

MfG,
Raff

dildo4u
2014-04-19, 12:27:12
Eine Maxwell 890 erscheint mir wesentlich sinnvoller als beide Karten,da Maxwell in 28nm kommt wäre die vermutlich im Sommer möglich als 8GB Version.Die wäre leise mit luft machbar bei max Takt und man hätte nicht das Problem mit dem 3GB pro GPU der 384 Bit Karten,eine 12GB Karte wird dieses Jahr niemand für nicht absurde Preise anbieten können.

AnarchX
2014-04-19, 12:42:40
Angekündigt ist die Karte aber nun. Aber es gab ja auch noch Gerüchte zu einer GTX 790, welche dann vielleicht ein günstigere Endkunden-Version ist.

fondness
2014-04-19, 12:58:51
Allerdings wäre es auch ziemlich seltsam wenn die GTX790 schneller wäre als die TITAN Z. Zumindest war es bis jetzt immer anders. Mich würde es nicht wundern wenn NV das Ding einstampft oder alternativ ebenfalls eine WaKü-Version bringt. Alles andere würde IMO ziemlich lächerlich wirken, gerade wenn man auch noch später dran ist als AMD.

horn 12
2014-04-19, 13:30:07
Die R9 295 X2 ist aber bereits für 1247 Euro gelistet, und wird von Anfang Mai an um die 1100 bis 1150 Euro zu haben sein.
Da wird eine GTX 790 es kaum aufnehemn können, Preislich vor Allem!

Rechne stark diese Dual Karte geht an AMD

uweskw
2014-04-19, 14:54:20
Möglicherweise feilt Nvidia tatsächlich gerade an einer Titan ... Moment, was kommt nach Z im Alphabet? ;) Aktenzeichen XY ungelöst. Ohne Änderungen gäb's in den Benchmarks reichlich Haue von der 295 X2, da muss man sich nichts vormachen. Eventuell wird sie auch einfach preiswerter, bei 1.500 Euro wäre ja fast alles im Lot. :ugly:

MfG,
Raff

Bei 3-400€ Mehrpreis und ca. 20-30% weniger Performance alles im Lot? Hälst du die NV-Fans für sooo bescheuert?

Greetz
U.S.

TobiWahnKenobi
2014-04-19, 16:00:28
Die R9 295 X2 ist aber bereits für 1247 Euro gelistet, und wird von Anfang Mai an um die 1100 bis 1150 Euro zu haben sein.
Da wird eine GTX 790 es kaum aufnehemn können, Preislich vor Allem!

Rechne stark diese Dual Karte geht an AMD

diese dualkarte lässt sich bei mir nicht mal ins gehäuse bauen, weil ich gar nicht wüsste, wo ich mit dem zusätzlichen radiator hin soll. also bin ich raus und somit ist einer von 10 potenziellen käufern schonmal weg.

rechne stark diese Dual Karte bleibt bei AMD


(..)

mfg
tobi

Schaffe89
2014-04-19, 16:07:29
Hast du bei deinem Gehäuse auf der Rückseite 2 Lüfter verbaut?
Also bei mir gibt es einen 120mm und drüber noch nen 80ger für den Radiator.

fondness
2014-04-19, 16:13:11
diese dualkarte lässt sich bei mir nicht mal ins gehäuse bauen, weil ich gar nicht wüsste, wo ich mit dem zusätzlichen radiator hin soll. also bin ich raus und somit ist einer von 10 potenziellen käufern schonmal weg.

rechne stark diese Dual Karte bleibt bei AMD


(..)

mfg
tobi

Du hast in deinem Gehäuse nicht mal Platz für einen 120mm Lüfter? Was für ein Gehäuse hast du bitte?

TobiWahnKenobi
2014-04-19, 17:37:45
http://abload.de/img/engjxkl9.jpg
CM HAF XM, CPU wakü, R9 290, Titan


(..)

mfg
tobi

Hugo78
2014-04-19, 17:58:23
Ich glaub nicht dass man die GTX 790 überhaupt gegen die R9 295X stellt.
Nvidia wäre schön blöd AMD nachzuäffen, NV sollte weiterhin die beste Perf/W. anpeilen, nicht FPS um jeden Preis.

Es reicht völlig wenn die 790 schneller als eine 780 Ti ist und man einen markant besseren Verbrauch als ein GTX 780 SLI bietet, zb. < 350W statt 440W.
Dazu der Formfaktor und "der DAU-Sicher-Faktor" das man mit unter 350W bei 2*8Pin (bis zu 375W) auch innerhalb der Specs bleibt und nicht 200W drüber liegt wie die R9 295X mit ihren 560W.
Damit wäre die 790 ein rundes, zeitgemässes und sicheres Produkt für die Leute die unbedient ein SLI wollen ohne dafür den Platz zuhaben.

Blediator16
2014-04-19, 20:04:41
Ich glaub nicht dass man die GTX 790 überhaupt gegen die R9 295X stellt.
Nvidia wäre schön blöd AMD nachzuäffen, NV sollte weiterhin die beste Perf/W. anpeilen, nicht FPS um jeden Preis.

Es reicht völlig wenn die 790 schneller als eine 780 Ti ist und man einen markant besseren Verbrauch als ein GTX 780 SLI bietet, zb. < 350W statt 440W.
Dazu der Formfaktor und "der DAU-Sicher-Faktor" das man mit unter 350W bei 2*8Pin (bis zu 375W) auch innerhalb der Specs bleibt und nicht 200W drüber liegt wie die R9 295X mit ihren 560W.
Damit wäre die 790 ein rundes, zeitgemässes und sicheres Produkt für die Leute die unbedient ein SLI wollen ohne dafür den Platz zuhaben.

Da bin ich ja mal gespannt :freak:

Schaffe89
2014-04-19, 22:18:06
Es reicht völlig wenn die 790 schneller als eine 780 Ti ist und man einen markant besseren Verbrauch als ein GTX 780 SLI bietet, zb. < 350W statt 440W.

Grade im Highend ist jetzt der Verbrauch eher sekundär.
Was hast du von einer Dualkarte die nur etwas schneller wie eine OC 780 Ti ist? Nichts.

Dazu der Formfaktor und "der DAU-Sicher-Faktor" das man mit unter 350W bei 2*8Pin (bis zu 375W) auch innerhalb der Specs bleibt und nicht 200W drüber liegt wie die R9 295X mit ihren 560W.

560 Watt ist Peak, kein Durchschnittsverbrauch, der liegt etwa bei 500 watt. Welcher DAU baut sich ne 295 ins System?

Damit wäre die 790 ein rundes, zeitgemässes und sicheres Produkt für die Leute die unbedient ein SLI wollen ohne dafür den Platz zuhaben.

Ich weiß ja nicht ob dus selbst merkst, aber die Lobhudelei auf Nvidia schwingt bei dir in dem Kommentar schon extrem mit.
Die Nvidia Karte kriegt den von der Redaktionen den Sicherheitsaward.

Hugo78
2014-04-19, 23:03:36
Die 560 Watt sind das Höchste aus Anno 2070 und BFBC2, schon klar. (link (http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Tests/Radeon-R9-295X2-Test-Review-1116145/))
Aber das als reinen Peak abzutun ist sportlich, es handelt sich um Spiele nicht um reine Benchmarks oder Belastungstools.

Die 295X ist als Machbarkeits-Studie ne tolle Karte und wäre AMD so ehrlich und würde drei 8 Pin + einen 6 Pin Stecker verbauen, sogar guten Gewissens empfehlenswert.
Aber so ist es nur was für Leute die wirklich wissen was sie tun und als Nachrüstkarte für Mini-Gaming Gehäuse wo die heute typischen 550-750W Netzteile verbaut sind, kommt sie nicht in Frage.

Aber mit zunehmender Minimierung der mRuckler, muss man mGPU Karten auch nicht zwangläufig immernur nach dem Motto "höher, schneller, weiter" bauen.
Wenn die GTX 790 mit einem GTX 780 SLI gleichzieht, dabei 50-90W weniger verbaucht und dann dank zusätzlicher Logik zur Reduzierung der mRuckler, ein auch wirklich flüssiges Spielerlebniss bietet, dass ganze ohne Orkan-Lautheit, dann wäre sie sicherlich für viele die bessere Wahl, wenn man die höchste Leistung auf kleinstem Raum haben will, in einem alltagstauglichen Format.

HisN
2014-04-19, 23:53:51
Ich hab das SLI wieder abgeschafft, da ich zur Zeit ständig über Games stolpere (bzw. mein LIeblingsgame eins dieser Games ist) die nicht mit SLI umgehen können, und auch nicht umgehen können werden, weil die Software-Buden nix drauf geben.
Also beide Titanen raus und eine Titan Black rein, und schon gehts sich wieder aus. Auch in 5760x1080.
Aber die Z richtet sich ja sowieso nicht an zocker^^

gedi
2014-04-20, 02:02:29
Dumme Frage, aber wer kauft sich denn so eine Karte für den Preis? Der Käuferkreis erschließt sich mir nicht wirklich.

AnarchX
2014-04-20, 11:15:53
Aber die Z richtet sich ja sowieso nicht an zocker^^
"Die GeForce® GTX™ TITAN Z ist ein wahres Gaming-Ungetüm" (http://www.nvidia.de/object/announcing-the-geforce-gtx-titan-z-25032014-de.html)
;)

Wäre es eine echte Profi-Karte, so hieße sie Quadro. So ist es nur ein halbgare Lösung, die sich eher an Gamer mit überschüssigen Finanzen richtet.

fondness
2014-04-24, 10:41:02
Die Karte wird angeblich ab nächste Woche ohne offiziellen Reviews in den Handel entlassen:
http://videocardz.com/50324/nvidia-geforce-gtx-titan-z-stores-next-week

Matrix316
2014-04-24, 10:53:50
Was ich nicht ganz verstehe, eine Titan Black kostet 900 Euro und zwei auf einer Karte kosten mehr als das dreifache? Irgendwer kann da nicht rechnen. ;)

Mal abgesehen, dass man mit zwei 780 (TI) nicht viel langsamer aber deutlich günstiger unterwegs sein dürfte. ;)

Raff
2014-04-24, 10:55:57
Mal abgesehen, dass man mit zwei 780 (TI) nicht viel langsamer aber deutlich günstiger unterwegs sein dürfte. ;)

Zwei Ti-Karten sind schneller. Deutlich. Solange 2 × 3 GiB ausreichen.

MfG,
Raff

Hübie
2014-04-24, 15:10:38
Was ich nicht ganz verstehe, eine Titan Black kostet 900 Euro und zwei auf einer Karte kosten mehr als das dreifache? Irgendwer kann da nicht rechnen. ;)

Mal abgesehen, dass man mit zwei 780 (TI) nicht viel langsamer aber deutlich günstiger unterwegs sein dürfte. ;)

Irgendwann hat auch der letzte hier verstanden was Titan Z ist :rolleyes:

phoenix887
2014-04-24, 15:54:21
" schnellste Grafikkarte aller Zeiten.." Frage mich wer für den Text bei Nvidia verantwortlich war. Als würde es danach keine neue Generationen mehr geben.:rolleyes:

Black-Scorpion
2014-04-24, 17:57:10
Was ich nicht ganz verstehe, eine Titan Black kostet 900 Euro und zwei auf einer Karte kosten mehr als das dreifache? Irgendwer kann da nicht rechnen. ;)

Mal abgesehen, dass man mit zwei 780 (TI) nicht viel langsamer aber deutlich günstiger unterwegs sein dürfte. ;)
Das Ding ist im besten Fall 50% schneller wie eine Single Karte.

fondness
2014-04-24, 18:03:03
" schnellste Grafikkarte aller Zeiten.." Frage mich wer für den Text bei Nvidia verantwortlich war. Als würde es danach keine neue Generationen mehr geben.:rolleyes:

Die Aussage ist ja schon heute falsch.

LSSJBroly
2014-04-24, 18:10:35
Zwei Ti-Karten sind schneller. Deutlich. Solange 2 × 3 GiB ausreichen.


Da wäre ich mal gar nicht so sicher. nvidia gibt eigentlich immer die Rechenleistung beim Basistakt an (siehe GTX Titan, 780, 780 Ti, Titan Black) - in der Praxis könnte solch eine Titan Z schon mit über 800 MHz takten.

Knuddelbearli
2014-04-24, 18:56:12
und? 800mhz ist noch weit weg von den 1ghz+ der TIs.

denke mal du hast das ti überlesen und meintest 2 nun ti?

LSSJBroly
2014-04-24, 19:10:22
und? 800mhz ist noch weit weg von den 1ghz+ der TIs.


Eine referenz-780 Ti taktet in der Praxis auch "nur" mit rund 900 bis 950 MHz und ist folglich auch nicht soweit weg ;) Mit optimierung + selektion sollten auch richtung 900 MHz bei der Titan Z drin sein (ja, auch in max. 375 Watt).

Vielleicht ist ein direkter Vergleich zur GTX 690 nicht ganz ziehlführend, aber bei rund 60% mehr Verbrauch (etwa 170 Watt gegen 270 Watt) erreicht diese trotzdem annähernd die selben, hohen Taktraten wie die 680. Überträgt man das nun, kann es schon funktionieren. Eine Titan Classic verbraucht stock (durch Temp-Target) auch meistens nur zwischen 200 und 220 Watt. Da die 60% draufrechnen und man ist bei rund 330 bis 350 Watt.

Naja, mal abwarten was kommt. Dauert ja nicht mehr lange. Dass man eine 295X2 nicht schlagen wird/kann, sollte aber klar sein. Dafür ist das Teil (die Radeon) einfach zu unvernümpftig geil und kompromisslos:D

Raff
2014-04-26, 11:49:17
Geforce GTX Titan Z im Vorab-Test: Simulation der 3.000-Dollar-Grafikkarte (http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Tests/Geforce-GTX-Titan-Z-Vorab-Test-1118655/)

Simulation auf Basis der von Nvidia angegebenen 8 TFLOPS SP-Leistung, also quasi die Mindestleistung der Titan Z. Wer Werte mit 800 MHz haben möchte (Anzeichen dafür gibt es noch keine), der rechnet einfach 12 Prozent auf die Fps drauf. ;) Besonders spannend ist der Vergleich mit der mitgetesteten GTX 780 Ti @ 1.300 MHz. :naughty:

MfG,
Raff

135i
2014-04-26, 11:55:21
Geforce GTX Titan Z im Vorab-Test: Simulation der 3.000-Dollar-Grafikkarte (http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Tests/Geforce-GTX-Titan-Z-Vorab-Test-1118655/)

Simulation auf Basis der von Nvidia angegebenen 8 TFLOPS SP-Leistung, also quasi die Mindestleistung der Titan Z. Wer Werte mit 800 MHz haben möchte (Anzeichen dafür gibt es noch keine), der rechnet einfach 12 Prozent auf die Fps drauf. ;) Besonders spannend ist der Vergleich mit der mitgetesteten GTX 780 Ti @ 1.300 MHz. :naughty:

MfG,
Raff

Selbst 3x 780Ti und Wasserkühlung@1300Mhz, sind ein Schnäppchen für Gamer, gegenüber der "Z"

fondness
2014-04-26, 12:02:08
Ich finde es schon beachtlich wie handzahm eine solche Karte angefasst wird, man könnte meinen manche Redakteure ergötzen sich an der $3000 Kaufpreis, das ist nämlich das einzige was bei dieser Karte groß ist.

dildo4u
2014-04-26, 12:05:25
Raff hat ne OC 780 TI dazu gestellt das hätte er nicht machen müssen und das zeigt am meisten wie Absurd die Karte ist.

Raff
2014-04-26, 12:07:27
Ich finde es schon beachtlich wie handzahm eine solche Karte angefasst wird, man könnte meinen manche Redakteure ergötzen sich an der $3000 Kaufpreis, das ist nämlich das einzige was bei dieser Karte groß ist.

Bitte erläutern. Nochmals: Das ist eine Simulation, in diesem Fall ist der Konjunktiv ein sehr schönes, passendes Element.

MfG,
Raff

fondness
2014-04-26, 12:17:37
Bitte erläutern. Nochmals: Das ist eine Simulation, in diesem Fall ist der Konjunktiv ein sehr schönes, passendes Element.

MfG,
Raff

Was erwartest du denn? Das die Karte noch eine integriertes Multifunktions-Taschenmesser mitliefert? Die Specs sind kein Geheimnis. Die Karte ist ganz offensichtlich völlig überteuert und durch die niedrigen Taktraten schlicht sinnlos, das kann man auch mal erwähnen. Aber das war jetzt auch nicht speziell auf dich bezogen, ich finde allgemein die Berichterstattung fragwürdig, wo die Karte alleine schon deshalb als was besonderes dargestellt wird und ungewöhnlich viel Publicity bekommt, weil sie absurd teuer ist. Würde die Karte $999 kosten würde sie wohl niemanden interessieren.

Ailuros
2014-04-26, 12:47:08
Aber das war jetzt auch nicht speziell auf dich bezogen, ich finde allgemein die Berichterstattung fragwürdig, wo die Karte alleine schon deshalb als was besonderes dargestellt wird und ungewöhnlich viel Publicity bekommt, weil sie besonders teuer ist.

Den letzten Satz koennte ich persoenlich fuer so alle high end mGPU reviews anwenden egal was damit getestet wird.

Das einzige was ich zur Z als GPU zu fragen haette, ist wieviel DP FLOPs das Tier insgesamt erreicht um zu sehen ob man wenigstens fuer einen fraglichen Punkt den enormen MSRP "gerechtfertigen" kann.

Hübie
2014-04-26, 13:18:13
Ja kann man. nVidia machts doch (aus deren Sicht) richtig. Man positioniert das Produkt exakt zwischen Gamer und Enterprise, deklariert es aber als Gamer in dem Wissen dass nur (Semi-) Profis das Ding einsetzen werden und hält sich so den tobenden Mob fern wenns um Support geht.
Aber Hauptsache man kann hier meckern, yeah! :rolleyes:
Besser fände ich wenn es eine neue Serie gäbe die sich an Profis (oder Enterprise light) richtet aber dabei den Support weg lässt. Das kann man ja offen kommunizieren und vermarkten. So siehts halt eher nach falschen Spiel mit Roger Rabbit aus ...

Edit: und die s.g. Simulation ist nix wert.

robbitop
2014-04-27, 18:03:39
Naja für billige Lösung für Semiprofis wären Titan (Black) die bessere Lösung pro EURO. Auch dort ist die Titan Z nicht wirklich gut.

Warum ist die Simulation nichts wert?

fondness
2014-04-27, 18:31:53
Ja kann man. nVidia machts doch (aus deren Sicht) richtig. Man positioniert das Produkt exakt zwischen Gamer und Enterprise, deklariert es aber als Gamer in dem Wissen dass nur (Semi-) Profis das Ding einsetzen werden und hält sich so den tobenden Mob fern wenns um Support geht.

Was für ein abenteuerliches Konstrukt. "Semi-Profis" die wirklich auf die DP-Leistung angewiesen sind (ansonsten kann man auch gleich eine Geforce nehmen) werden auch auf ECC Speicher angewiesen sein. Wenn NV eine Profi-Karte ohne Support anbieten will dann wird man diese auch so vermarkten, oder warum genau sollte für "Semi-Profis" eine Gamer-Karte besonders attraktiv sein? In Wahrheit versucht man Gamer mit dem Supercomputer-Anstrich zu locken, nichts weiter. Und genau so wird die Karte auch vermarktet.

Hübie
2014-04-27, 19:18:13
Naja für billige Lösung für Semiprofis wären Titan (Black) die bessere Lösung pro EURO. Auch dort ist die Titan Z nicht wirklich gut.

Warum ist die Simulation nichts wert?

Rechenpower pro Slot ;D So banal es klingt.
@fondness: Die Grenze verschwimmt doch eh immer mehr. TPM und ECC gibt's mittlerweile auch auf consumer-boards. Warum also nicht auch mit Grakas. Kenne ein paar kleine Werbestudios die sich über so "billige" Renderfarmen sehr freuen würden ;)

Raff
2014-04-27, 20:08:45
Rechenpower pro Slot ;D So banal es klingt.

Selbst das funktioniert nicht ordentlich. ;) Die Titan Z benötigt drei Slots und liefert ~8 TFLOPS. Zwei GTX 780 Ti im Referenzdesign brauchen vier Slots und liefern rund ~11 TFLOPS. Damit steht's zu 2,66 zu 2,75 TFLOPS pro Slot. :freak:

MfG,
Raff

Hübie
2014-04-27, 20:33:01
Oh ich ging von dual-slot aus. Dann ists in der Tat Unsinn ;)
Edit: Bilder sagen 2-Slots...

Rente
2014-04-27, 20:40:14
Selbst das funktioniert nicht ordentlich. ;) Die Titan Z benötigt drei Slots und liefert ~8 TFLOPS. Zwei GTX 780 Ti im Referenzdesign brauchen vier Slots und liefern rund ~11 TFLOPS. Damit steht's zu 2,66 zu 2,75 TFLOPS pro Slot. :freak:

MfG,
Raff
Es sind nur 2,5 Slots, die obere Blende wird nur zur Hälfte genutzt, ergibt dann 3,2 TFlops pro Slot:

http://abload.de/img/gtx-titan-z-ultimate-8mzcg.jpg

Hat nVidia die Taktraten für die Titan Z offiziell eigentlich bestätigt? Ich könnte mir durchaus vorstellen, dass sie in der Zwischenzeit noch etwas an der Taktschraube gedreht haben, ich finde jedenfalls keine Pressemitteilung in der die Rechenleistung oder der Takt auftaucht.
Siehe auch hier: http://www.computerbase.de/2014-04/nvidia-geforce-gtx-titan-z-ab-29.-april/

Raff
2014-04-27, 20:43:52
Effektiv sind das trotzdem 3 Slots, man kann nämlich keine 0,5-Slot-Karte daneben stecken. :ugly:

MfG,
Raff

fondness
2014-04-27, 20:52:38
Es sind nur 2,5 Slots, die obere Blende wird nur zur Hälfte genutzt, ergibt dann 3,2 TFlops pro Slot:


Es werden trotzdem drei Slots belegt, das bisschen Abstand benötigt man alleine schon deshalb das der Lüfter nicht völlig verhungert wenn eine weitere Karte darunter steckt.

http://s2.postimg.org/ghtndwhzd/TITAN_Z_Chinese_2.jpg (http://postimage.org/)

occ-kh@Mirko
2014-04-27, 20:58:02
Kann man so genau nicht sagen, es gibt sehr viele unterschiedliche Bilder als gäbe es zwei Varianten der Karte!

Eine Karte im 3 Slot Design eine mit 2,5 und eine mit 2,5 wo der Kühler garnicht so hoch ist wie die Blende.

http://www.fotos-hochladen.net/uploads/titanzypw9dasv2f.jpg (http://www.fotos-hochladen.net)

3 Slot als wolle Nvidia der Karte den nötigen Platz verschaffen?

Knuddelbearli
2014-04-27, 21:01:55
Effektiv sind das trotzdem 3 Slots, man kann nämlich keine 0,5-Slot-Karte daneben stecken. :ugly:

MfG,
Raff

vermisse den fanboys doch nicht den einzigen Grund für eine Titan Z ^^

occ-kh@Mirko
2014-04-27, 21:26:08
Kann man einem Fan etwas vermiesen? Eher nicht. Inno3d basteln eh an einem 2 Slotdesign: http://www.hardwareluxx.de/index.php/fotostrecken/news-galerien/inno3d-geforce-gtx-titan-z-im-custom-design/inno3d-titanz-wccftech-192cad69.html

Knuddelbearli
2014-04-27, 21:34:03
ähm und wie soll das bei 2 platinen funktionieren? soll die luft durch diese mini öffnungen richtung MB und gehäusewand rein und raus? oO

occ-kh@Mirko
2014-04-27, 21:46:14
Lustig..;). Schon mal 2 x Mars II in Aktion erlebt, dass ist ein 3 Slot Design!!!

http://www.fotos-hochladen.net/uploads/mars2fjlnvhdyk5.jpg (http://www.fotos-hochladen.net)

Knuddelbearli
2014-04-27, 22:28:33
ja 3 slot ist was anderes
Lüfter nehmen immer gleichviel Platz ein also hat man effektiv auf einmal locker doppelt soviel Platz zur verfügung.

es ging aber eben um 2 Slot Custom kühlung

occ-kh@Mirko
2014-04-27, 22:52:47
Ich kann dir nicht folgen. Wenn zwei 3 Slot Karten als Customdesign genug Abstand haben um Luft zu bekommen, dann schaffen das zwei Bords der Titan Z (mit offenem GK110-B) um Taktraten zwischen 700 bis Boost 830-870 nicht? Zumal dort 3 Lüfter werkeln? Du scheinst Inno3d zu unterschätzen.

Man kauft sich ein passendes Mainbord, dürfte bei dem Preis von 2 Z nicht mehr auffallen. Wenn Cutsom Designs schon so früh zu sehen sind, ist fraglich ob die Titan Z überhaupt im Referenzdesign lange zu haben sein wird. Daher ist das Thema 2,5 oder 3 Slot doch eigentlich garnicht relevant um den Fan etwas vermiesen zu wollen/können. Die Mars II ist eine Nvidia Basis, was wurde da jetzt besser umgesetzt? Die wurde auch gekauft.

Wenn wir über den direkten Preisvergleich reden mags anders aussehen, aber Enthusiastenhardware ist nun mal nicht jedermanns Sache, schon dann nicht wenn wir von einer DP Leistung von 2,86 TFlops pro Karte ausgehen könnten und dabei weniger Verbrauch als 2 SLI Titanen annehmen..., naja vielleicht hat auch ein solches Bord seine Daseinberechtigung. Muss man definitiv abwarten was Nvidia mit der Karte bezweckt.

OC_Burner
2014-04-27, 23:22:11
Wer wirklich alles mit der Titan Z zuknallen will soll sich halt ein paar PCIe-Riser-Kabel mit integriertem Splitter holen. Da wären locker 8 solcher Karten auf einem Mainboard möglich.

http://www.google.de/imgres?imgurl=http%3A%2F%2Fcdn.diymediahome.org%2Fwp-content%2Fuploads%2FDual_PCI-Express_Splitter_Riser.jpg&imgrefurl=http%3A%2F%2Fdiymediahome.org%2Fdual-tuner-mini-itx-build%2F&h=417&w=500&tbnid=CG3SKl6hKSSswM%3A&zoom=1&docid=8b8Y_cB-zAjkNM&ei=KHNdU_mNDeOSywPjl4DoCg&tbm=isch&iact=rc&uact=3&dur=536&page=1&start=0&ndsp=40&ved=0CGsQrQMwBw
http://abload.de/img/dual_pci-express_spli47ev1.jpg

Screemer
2014-04-28, 00:22:47
solche riser sind hässlich. warum nicht gleich richtig?

http://cdn.pcper.com/files/imagecache/article_max_width/news/2014-01-29/riser3.jpg

leider sind die riser mit den hübschen kabeln wohl nur pcie 1x auf pcie 16x.

occ-kh@Mirko
2014-04-28, 08:57:08
Alles viel zu umständlich, in einem minning rig haben mit vollen lans auch 8 x HD7990 Platz. Da braucht man keine riser. Alles andere ist einfach nur Show.

Wenn 4 Z auf 10 TFlops DP Leistung kommen, dürften die Argumente überflussig werden. Wo wollte man z.b. mit den Radiatoren der Wasserkühlkonstruktion der 295 hin?

Hier denken ein paar ziemlich einseitig. Über den Nvidia-Slogan schnellste Gamingkarte müssen sie wohl noch mal nachdenken.

https://securityledger.com/wp-content/uploads/2012/12/Password_Cracking_HPC.jpg

Knuddelbearli
2014-04-28, 12:11:30
schnellste Gamingkarte kann es eh nicht sein, sind ja 2 Karten ^^

robbitop
2014-04-28, 14:28:07
Es sind 2 GPUs. Aber nur eine Grafikkarte. Allerdings macht die 295 dem einen Strich durch die Rechnung.

TobiWahnKenobi
2014-04-28, 14:49:29
Es sind 2 GPUs. Aber nur eine Grafikkarte. Allerdings macht die 295 dem einen Strich durch die Rechnung.

sehe ich nicht so - die 295 ist eher ne grafikstudie + externe kühlsystemerweiterung.. quasi ein zweiteiler.. unhandlich und so..

das dings von nvidia ist zwar für euch zu teuer, aber man kann es mit einer hand halten und einfach in fast beliebige systeme stecken.


(..)

mfg
tobi

Knuddelbearli
2014-04-28, 15:00:34
Also wenn das das einzige Argument pro Titan Z ist ... ^^

robbitop
2014-04-28, 15:24:39
sehe ich nicht so - die 295 ist eher ne grafikstudie + externe kühlsystemerweiterung.. quasi ein zweiteiler.. unhandlich und so..

das dings von nvidia ist zwar für euch zu teuer, aber man kann es mit einer hand halten und einfach in fast beliebige systeme stecken.


(..)

mfg
tobi
Und davon hat man am Ende wenig. Von den ~ +50 % Mehrleistung gegenüber einer Titan Black fällt mindestens gefühlt die Hälfte hinten wieder runter durch SLI Skalierung und µ-Ruckler. Am Ende ist eine Titan Z gefühlt kaum schneller als eine Titan Black.

Dass MultiGPU Karten generell unpraktisch sind, ist klar. Abwärme, Bauraum, Leistungsaufnahme, Skalierung, Profile, µ-Ruckler, Preis. Das ist soziemlich in jedem Fall etwas für Enthusiasten.

Enthusiasten haben mit all diesen Dingen kein Problem. Insofern ist das Argument etwas weniger valide.

Die Titan Z ist IMO interessant, was Bauraum und TDP angeht. Die Frage ist nur, welcher Markt für ein solches Produkt auch real vorhanden ist.

Blediator16
2014-04-28, 15:24:59
Das ist nichtmal ein pro Argument.

TobiWahnKenobi
2014-04-28, 15:51:44
ich hatte bisher nur eine multiGPU-karte und das war GTX690. die hat mich in allem überzeugt, ausser in ihrer MGPU-üblichen AFR-gummiband-krankheit. ggü. meinen drei einzelkarten (palit jetstream GTX680) hat sie alles was mit hitze und energie zu tun hat besser gemacht. kompakter/handlicher und hübscher war sie sowieso..

sie ist auch irgendwie schuld dass ich vor etwas über einem jahr titan gekauft habe.

naja.. mal gucken, ob es noch grafikkarten gibt, wenn ich mal wieder bock auf was neues unterm tisch habe. im moment würde ich titan Z oder die 295 nur zum rumzeigen kaufen (spiele ja nicht mehr wirklich) und davon hat keiner was..


(..)

mfg
tobi

occ-kh@Mirko
2014-04-28, 17:08:58
Enthusiasten haben mit all diesen Dingen kein Problem. Insofern ist das Argument etwas weniger valide.

Genau so sieht's aus. Die orientieren sich eher an der Preisstabilität gewisser Produkte.Wenns man es richtig nimmt sind auch double SLI oder CF Systeme den Aufwand nicht Wert, man bekommt keine 100% Mehrleistung und muss trotzdem 100% mehr bezahlen. Das rückt dann in den Hintergrund, wenn ein bestimmtes Ziel erreicht wird, eben Anwendung a, b oder c entsprechend zu beschleunigen. Genau draufhin wird gearbeitet und dann eben auch das Geld dafür ausgegeben. Das tut denen aber nicht weh. Einem Enthusiasten vorzuwerfen er kaufe blödsinnige Hardware, naja, irgendwie eine komische Auffassung. Genau dort machen die Unternehmen ihre Gewinne. Es gibt Minnigtypen die mit der Abwärme der GPUs ihr Haus heizen und 150t bis 300t in Hardware investiert haben. Genau solche Leute warten auf sowas wie die Z, die dann vllt. ziemlich effizient zu Werke gehen kann.

Und wenn man mal ehrlich ist, wer hätte je gedacht das er irgendwann sowas wie eine Titan in den Händen halten kann, im Retailmarkt, also einen Tesla K20 oder K40. Für einen Tausender? Man das sind Peanauts für solche Dinger. Der Markt ist definitiv vorhanden und die haben Nvidia die Karten aus der Hand gerissen.

AMD geht doch völlig andere Wege und mehr als zwei 295 machen schon wegen der Kühllösung keinen Sinn. Die zeigen einfach das sie nicht tot sind und auch könnten wenn sie wollen. Da soll aber der Spieler die erste Geige spielen. Auch ein Weg!

Hübie
2014-04-28, 17:49:15
Amen. Treffend formuliert. Titan Z ist keine Gamerkarte. Auch wenns drauf steht. nVidia schreibt auch D3D11.1 rauf selbst wenns nich drin ist... :rolleyes:

fondness
2014-04-28, 18:03:59
Wer hätte das gedacht:

NVIDIA GeForce GTX TITAN Z launch postponed because it was slower than R9 295X2? (http://videocardz.com/50349/nvidia-geforce-gtx-titan-z-launch-postponed)

At GTC2014 NVIDIA announced its Dual-GPU TITAN Z planned for April. No one expected to wait till the end of the month. The latest information suggest we will wait few more days, or maybe even weeks.

GeForce GTX TITAN Z, which is technically still a gaming card with some computing capabilities unlocked, will cost $2999 (€2999). This is exactly twice the price of Radeon R9 295X2, while ‘supposedly’ offering worse performance. I wouldn’t be surprised to see an immediate price cut few days after it finally arrives.

That’s all for now, I hope to see some official materials very soon, so stay tunned for more TITAN zZzZzZzz boring news.

Soviel zum Thema keine Gaming-Karte.

Hübie
2014-04-28, 18:22:55
Wenn der Preis auf 2000 $ reduziert wird rutscht die automatisch in den gaming Bereich. Aber so wie es jetzt aussieht ist das einfach keine gamer-Karte!
Selbst die Ober-Enthusiasten aus dem Luxx kaufen das Teil nicht.

Edit: Wenn ich mal was persönliches dazu sagen darf: ICH glaube ja dass man mit diesem Ding einfach mal die Grenze der Blindheit testen will. Getreu dem Motto: "Mal sehen wie blöd die Kunden sind."

Mr. Lolman
2014-04-28, 18:27:40
Aber geh Nv, warum? Mit einem guten Kühler und ordentlicher Übertaktbarkeit wären die 3k für die TitanZ schon legitim gewesen. :cool:

fondness
2014-04-28, 18:29:35
Edit: Wenn ich mal was persönliches dazu sagen darf: ICH glaube ja dass man mit diesem Ding einfach mal die Grenze der Blindheit testen will. Getreu dem Motto: "Mal sehen wie blöd die Kunden sind."

Das habe ich schon ganz zu beginn angemerkt das die Karte für mich eigentlich nur ein Test sein kann wie weit man gehen kann.

Hübie
2014-04-28, 18:30:19
Du meinst mit dual-slot-Kühler? Ja dann, ja.

@fondness: Okay das hatte ich so nicht verstanden ;)

occ-kh@Mirko
2014-04-28, 18:32:55
http://www.sweclockers.com/nyhet/18681-nvidia-skjuter-upp-geforce-gtx-titan-z

Sind sie vllt. auch, die klatschen jetzt einen @Wakü drauf scheißen auf Standards und gut. Da gewinnt keiner was. Wie gesagt, wers brauch soll es kaufen.

fondness
2014-04-28, 18:34:49
http://www.sweclockers.com/nyhet/18681-nvidia-skjuter-upp-geforce-gtx-titan-z

Sind sie vllt. auch, die klatschen jetzt einen @Wakü drauf scheißen auf Standards und gut. Da gewinnt keiner was. Wie gesagt, wers brauch soll es kaufen.

Macht immer noch mehr Sinn als eine Titan Z die defacto kaum einen Mehrwert ggü. einer Single-GPU bringt.

occ-kh@Mirko
2014-04-28, 18:39:27
Macht immer noch mehr Sinn als eine Titan Z die defacto kaum einen Mehrwert ggü. einer Single-GPU bringt.
Wieso, ist doch das Selbe in rot wie grün, wo siehst du da Unterschiede. Der Normalo AMD User soll 1,4t für "eine" Graka ausgeben? Nimmer. Und einen 120 Radi für zwei Highend GPU's...ehrlich mal, was willste damit? Als Briefbeschwerer benutzen? :wink:

Hier PCGH: http://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/News/Geforce-GTX-Titan-Z-verschoben-Spezifikationen-1119042/

AnarchX
2014-04-28, 18:47:24
Vielleicht doch noch ein Switch auf GK210 (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=10190243#post10190243)?
Damit könnte man die Exklusivität der Titan Z deutlich steigern. Und GK210 hat vielleicht das Potential für eine nochmals verbesserte Pro-Watt-Leistung und mehr Compute Durchsatz.

occ-kh@Mirko
2014-04-28, 18:51:56
Und GK210 hat vielleicht das Potential für eine nochmals verbesserte Pro-Watt-Leistung und mehr Compute Durchsatz.

Möglich, aber stand da nicht mal im Raum, dass es im Retailmarkt garkeine neue GPU sein soll sondern einfach eine Bezeichnung für eine DUAL-GPU Karte?

AnarchX
2014-04-28, 18:54:31
Möglich, aber stand da nicht mal im Raum, dass es im Retailmarkt garkeine neue GPU sein soll sondern einfach eine Bezeichnung für eine DUAL-GPU Karte?
Alle Hinweise sprechen für ein dediziertes Design mit Funktionserweiterungen (CC 3.7), einfach mal den GK2xx-Thread lesen.

boxleitnerb
2014-04-28, 18:56:20
Wäre das nicht ziemlich viel Aufwand für ein einziges Produkt? Ok, Tesla usw noch, aber die haben ja sehr geringe Volumina. Lange würde das Ding in GeForce evtl. auch nicht leben, wenn GM204 dann bald kommt. D.h. es bliebe wirklich nur Tesla/Quadro, bis GM200 fertig ist.

occ-kh@Mirko
2014-04-28, 18:56:45
Alle Hinweise sprechen für ein dediziertes Design mit Funktionserweiterungen (CC 3.7), einfach mal den GK2xx-Thread lesen.
Hmm, würde dann eher meinen der heisst GM2xx.

Shit 127 Seiten...man...;).

AnarchX
2014-04-28, 19:01:03
Wäre das nicht ziemlich viel Aufwand für ein einziges Produkt? Ok, Tesla usw noch, aber die haben ja sehr geringe Volumina. Lange würde das Ding in GeForce evtl. auch nicht leben, wenn GM204 dann bald kommt. D.h. es bliebe wirklich nur Tesla/Quadro, bis GM200 fertig ist.
Zusammen mit dem toten GK180 hat man für diesen überarbeiteten GK110 wohl bald über ein Jahr benötigt. Als irgendetwas muss man ihn wohl auch verkaufen.


Hmm, würde dann eher meinen der heisst GM2xx.

Shit 127 Seiten...man...;).
Alles wichtige auf Seite 1: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9536179#post9536179 ;)

Knuddelbearli
2014-04-28, 19:23:40
Genau so sieht's aus. Die orientieren sich eher an der Preisstabilität gewisser Produkte.Wenns man es richtig nimmt sind auch double SLI oder CF Systeme den Aufwand nicht Wert, man bekommt keine 100% Mehrleistung und muss trotzdem 100% mehr bezahlen.

das gilt doch für alle karten, auch eine 780ti leistet nicht ( annähernd ) das doppelte ein halb so teuren karte

occ-kh@Mirko
2014-04-28, 19:47:08
Alles wichtige auf Seite 1: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9536179#post9536179 ;)
Schon mal dran gedacht das der eventuell schon drauf ist und es eher um die Stromversorgung geht? So wie sich das andeutet sind 732 Boost nicht gerade Energiehungrig! Sollte die Z nicht 300Watt TDP einhalten? Wenn ich jetzt mehr Leistung brauche muss ich die Stromversorgung überarbeiten. Leistungstechnisch könnten zwei GK110-B wohl mithalten. Der DX FL 11.1 Support ist natürlich ein anderes Argument. Bei dem Preis muss es wohl dabei sein.

...das gilt doch für alle karten...
Genau, darum ging es ja, wozu drüber aufregen wenns sowieso "alle" Karten betrifft. Ist doch ein existierender Zustand der nicht neu ist und durch jeden Käufer hingenommen wird. Zwei 290x sind ja auch nicht viel langsamer als eine 295 und kosten bedeutet weniger. Bei der Z siehst da ja auch nicht anders aus, misst sich nur in "Nvidia" Dimensionen. Aber eben auch nicht unbedingt neu.

Wie geschrieben...wers braucht. Ich verurteile das nicht und bei mir muss sich auch niemand rechtfertigen. Jeder hat die freie Wahl.

Skysnake
2014-04-28, 21:12:12
Wenn der Preis auf 2000 $ reduziert wird rutscht die automatisch in den gaming Bereich. Aber so wie es jetzt aussieht ist das einfach keine gamer-Karte!
Selbst die Ober-Enthusiasten aus dem Luxx kaufen das Teil nicht.

Edit: Wenn ich mal was persönliches dazu sagen darf: ICH glaube ja dass man mit diesem Ding einfach mal die Grenze der Blindheit testen will. Getreu dem Motto: "Mal sehen wie blöd die Kunden sind."
Das rein am Preis zu machen ist doch Blödsinn..

Ganz abgesehen davon will das Ding einfach kein Mensch abseits von den reinen "HabenWILL!!!"-Leuten/Sammlern.

Godmode
2014-04-28, 22:49:32
Wenn der Preis auf 2000 $ reduziert wird rutscht die automatisch in den gaming Bereich. Aber so wie es jetzt aussieht ist das einfach keine gamer-Karte!
Selbst die Ober-Enthusiasten aus dem Luxx kaufen das Teil nicht.

Edit: Wenn ich mal was persönliches dazu sagen darf: ICH glaube ja dass man mit diesem Ding einfach mal die Grenze der Blindheit testen will. Getreu dem Motto: "Mal sehen wie blöd die Kunden sind."


Wenn sie ein wirkliches Enthusiasten Produkt bauen wollen, dann gehören auf die Titan Z zwei volle Chips mit voller Taktrate und je 6 GB Speicher drauf. Dazu noch eine leise Wakü und eine ordentliche Stromversorgung mit 3-4 8-Pin Steckern, je nach Verbrauch.

Das was man jetzt als Titan-Z kaufen kann ist einfach lausig für den Preis und verglichen mit der Konkurrenz. Das sage ich als ex-Enthusiast und langjähriger Nvidia only Käufer. Auch für nur 1.500 Euro würde ich diese Karte nicht kaufen, weil es einfach nichts halbes und nichts ganzes ist.

Hübie
2014-04-29, 04:39:24
Das rein am Preis zu machen ist doch Blödsinn..

Ganz abgesehen davon will das Ding einfach kein Mensch abseits von den reinen "HabenWILL!!!"-Leuten/Sammlern.

Nope. Siehe godmode...
Zeimal Titan Black auf einem PCB und dual-Slot-Kühlung. Dann kannste 3000 $ verlangen und bekommst die sogar von so einigen ;)

Skysnake
2014-04-29, 09:06:56
Titan Z ist aber weder zeimal Titan Block noch! Dual-Slot...

Also wenn sollten wie schon über reale Produkte reden, und nicht über wünsch-dir-was Produkte

Iruwen
2014-04-29, 10:08:23
Darum gings Godmode doch gerade :D

AnarchX
2014-04-29, 13:09:13
Folien von Galaxy zur Titan Z: http://www.chiphell.com/thread-1023998-1-1.html / http://item.jd.com/1117648.html

Raff
2014-04-29, 13:17:11
Demnach 8,1 TFLOPS SP und 2,3 TFLOPS DP bei 705 MHz, vermutlich ist das der Basistakt. Die 876 MHz passen nicht dazu, das kann nur eine Art "Best Case Boost" sein.

MfG,
Raff

AnarchX
2014-04-29, 13:19:39
DP-Mode sind wohl nur ~600MHz.

occ-kh@Mirko
2014-04-29, 13:53:51
Es gibt bisher keine finalen Taktraten die von Nvidia stammen. Die suchen noch. Taktraten waren wohl was um 695-730?, BC 815 abgeändert auf 695-705, BC 875 jedoch nicht final. Könnte dann auch direkt mit der Lüftergeschwindigkeit zu tun haben. Siehe Boost 2.0 Temptarget und Lüfterlärm. Daher ist es möglich das die Karte nicht im bekannten (bisher gezeigten) Referenzdesign erscheint.

AnarchX
2014-04-29, 16:27:34
Offenbar doch ein "Launch": http://www.guru3d.com/news_story/asus_announces_geforce_gtx_titan_z_dual_gpu_graphics_card.html

Die gleichen Daten wie bei Galaxy.

boxleitnerb
2014-04-29, 16:36:28
Soviel zur PCGH-Simulation mit 700 MHz Boosttakt, wo dieser zumindest laut Spec bei 876 MHz liegen könnte (oder gar darüber bei guter Kühlung). Von solchen Simulationen halte ich aus genau diesen Gründen rein gar nichts, weil man sich damit eben massiv vertun kann.

Blediator16
2014-04-29, 16:51:01
Soviel zur PCGH-Simulation mit 700 MHz Boosttakt, wo dieser zumindest laut Spec bei 876 MHz liegen könnte (oder gar darüber bei guter Kühlung). Von solchen Simulationen halte ich aus genau diesen Gründen rein gar nichts, weil man sich damit eben massiv vertun kann.

Es wurde allerdings gesagt, dass man nicht weiß ob und wie hoch der Boost ist was an der Tatsache nichts ändert, dass man mit 870mhz AMD die Butter nicht vom Brot nehmen kann.

boxleitnerb
2014-04-29, 16:56:23
Es wurde allerdings gesagt, dass man nicht weiß ob und wie hoch der Boost ist was an der Tatsache nichts ändert, dass man mit 870mhz AMD die Butter nicht vom Brot nehmen kann.

Wenn man es nicht weiß, warum nimmt man dann irgendwas an? Warum wartet man nicht einfach ab, statt ein Produkt im Vornherein mit großer Wahrscheinlichkeit falsch darzustellen?
876 MHz sind über 20% mehr wie 700 MHz - für einen Gleichstand mit der 295X reicht das natürlich immer noch nicht ganz, aber es wäre definitiv nicht zu vernachlässigen. Das sollte man objektiverweise anerkennen.

Und sei bitte nicht so naiv zu glauben, dass die Bildchen und Benchmarks nicht hängenbleiben, auch wenn mit dem einen Satz vorher relativiert wird. Für mich ist das einfach schlechter Journalismus, Punkt.

Raff
2014-04-29, 16:57:05
Soviel zur PCGH-Simulation mit 700 MHz Boosttakt, wo dieser zumindest laut Spec bei 876 MHz liegen könnte (oder gar darüber bei guter Kühlung). Von solchen Simulationen halte ich aus genau diesen Gründen rein gar nichts, weil man sich damit eben massiv vertun kann.

705 MHz Basis- und 876 MHz Boost-Takt: Das passt hinten und vorne nicht, die Differenz ist viel zu groß.

GTX Titan: 837 Base, 876 Boost (+5 %)
GTX 780 Ti: 876 Base, 928 Boost (+6 %)
Titan Black: 928 Base, 980 Boost (+6 %)

Die 8,1 TFLOPS auf der Galaxy-Folie ergeben sich indes durch den Basistakt.

MfG,
Raff

dildo4u
2014-04-29, 17:00:13
Scheint so also ob man noch am TDP schrauben kann,noch mal 20% auf 876mhz?

http://abload.de/img/rbeqwfnd0fciaaaaaadcnx9jzv.jpg

boxleitnerb
2014-04-29, 17:06:22
705 MHz Basis- und 876 MHz Boost-Takt: Das passt hinten und vorne nicht, die Differenz ist viel zu groß.

GTX Titan: 837 Base, 876 Boost (+5 %)
GTX 780 Ti: 876 Base, 928 Boost (+6 %)
Titan Black: 928 Base, 980 Boost (+6 %)

Die 8,1 TFLOPS auf der Galaxy-Folie ergeben sich indes durch den Basistakt.

MfG,
Raff

Warum passt es nicht? Du weißt doch selbst, wie z.B. Hawaii takten kann, da ist alles von 6xx bis 10xxx MHz dabei je nach Bedingungen. Es wäre voreilig, sowas bei Titan Z auszuschließen, nur weil es bei Nvidia bisher anders war. Manchmal ändert sich etwas nunmal. Statt einen "Test" zur Klickgenerierung zu produzieren, könnte man eben auch abwarten, bis man das finale Produkt in den Händen hält.

dildo4u
2014-04-29, 17:07:18
Jup bei 3000$ kann man halt mal wirklich selektieren.

Blediator16
2014-04-29, 17:08:01
Scheint so also ob man noch am TDP schrauben kann,noch mal 20% auf 876mhz?

http://abload.de/img/rbeqwfnd0fciaaaaaadcnx9jzv.jpg

Das dürfte ja dann wohl auch einen Shitstorm geben, da nur 2x8Pin. :freak:

Bei 3000dollar ist die Karte im Geforcebereich eine Frechheit und wäre bei AMD ein riesen Fail ;)

boxleitnerb
2014-04-29, 17:09:27
Scheint so also ob man noch am TDP schrauben kann,noch mal 20% auf 876mhz?

http://abload.de/img/rbeqwfnd0fciaaaaaadcnx9jzv.jpg

Was steht da, kann hier nicht drauf zugreifen auf Arbeit :freak: