PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Launch-Analyse: nVidia GeForce GTX Titan


Leonidas
2013-02-22, 13:51:24
Link zum Artikel:
http://www.3dcenter.org/artikel/launch-analyse-nvidia-geforce-gtx-titan


Sorry, kommt spät - ich hab mich ein wenig verloren beim schreiben und nachforschen.

Rente
2013-02-22, 13:54:19
Vielleicht bin ich zu ungeduldig aber: Zugriff verweigert.

€: Ah, jetzt ist er da. ;)

dildo4u
2013-02-22, 14:05:28
Letzte Seite:

sinnvoll ist GeForce GTX Titan wie gesagt nur in Ersatz der DualChip-Lösungen Radeon HD 7990 und GeForce GTX 680 muss 690

LSSJBroly
2013-02-22, 14:19:38
Super Analyse. Das Ergebnis entspricht genau meiner Meinung:)

M4xw0lf
2013-02-22, 14:36:03
Jo, den Artikel würd ich so unterschreiben :)

Leonidas
2013-02-22, 14:54:45
Letzte Seite:
muss 690


Gefixt :)

CD-LABS
2013-02-22, 16:25:08
Mich würde ja mal interessieren, in wie weit das Zusammenspiel zwischen FPS-Limiter und GPU Boost verbessert wurde!

Denn eigentlich war der Sinn hinter GPU Boost ja, dass zu glatteren Frameverläufen und Leistungsaufnahmereduktionen beigetragen wird, indem die Karten nur soviel Performance bereitstellen, wie für die Szene gebraucht wird um sich bei anspruchsvolleren Szenen wiederrum stark selbst übertakten können!


P.s.: Übrigens ein grandioses Fazit abgeliefert!

Flusher
2013-02-22, 16:46:31
Sehr gute Analyse. Kann mich den Schlussfolgerungen nur anschliessen. Traurig ist auch, dass die Karte mit ihrem derzeitigen Preis auch absolut gar keinen Preisdruck auf die übrigen Karten ausüben kann. Ich hatte gehofft, dass die Preise mit dem erscheinen der Titan etwas nach unten rutschen werden. Bei einer solchen Preis/Leistung sieht sich weder AMD noch NVIDIA dazu gezwungen den Preis der 7970 und 680 nach unten zu korrigieren.

Simon
2013-02-22, 17:04:01
Kleiner Typo auf Seite 2:
in einem ungefähren Performance-Unterschied von 35 bis 40 Prozent zwischen GeForce GTX 680 und Titen münden.
Da fehlt ein "t" :biggrin:

Die zweite Neuerung von GeForce GTX Titan ist erneut ein Software-Feature: Mittels "Display Overclocking" kann man die Refreshrate des eigenen Monitors übertakten und damit auch real mehr fps auf dem Display sehen. Dabei macht sich nVidia den Umstand zunutze, daß die Elektronik der meisten heutigen Displays mehr kann als die offiziellen 60 Hertz Bildwiederholrate – und steuert den Monitor dann einfach mit einer höheren Hertz-Zahl an. ...
Ich versteh nicht, was daran so neu ist. Das funktioniert auf Radeon-Karten schon lange und meine GTX 560 Ti kann das auch, allerdings limitiert durch den RAMDAC auf ~90Hz. Zusammen mit einem Yamakasi Catleap (http://www.120hz.biz/yamakasi-catleap-q270-2b-extreme-oc/) (27" IPS mit 2560x1440) mit abgewandelter Display-Elektronik werden die 90Hz auch erreicht. Die VSync-Limits passen sich dementsprechend an und zumindest Rage spielt sich mit 90Hz "gefuehlt" definitiv anders als mit 60Hz. Haengt natuerlich vom Spiel ab.
Edit: Und die PCGH hatte doch letztens einen Artikel dazu. Da ging das auch ohne Titan ...

FlashBFE
2013-02-22, 17:18:57
Zudem wird der allgemeine Grafikkarten-Käufer mittels GeForce GTX Titan gut darauf konditioniert, auch zukünftig 400-Euro-Preislagen für Grafikkarten basierend auf nur 300mm² großen Grafikchips zu akzeptieren
Da weiß ich nicht, ob ich lachen oder weinen soll. Haben wir damit die P/L-Kracher von früher endgültig hinter uns? Wer weiß, wo die nächste Generation preislich landen wird. Vielleicht noch oben drauf?

Ich habe mich jedenfalls schon drauf eingestellt, für die nächste Grafikkarte statt 200€ lieber 400€ auszugeben.

CD-LABS
2013-02-22, 17:32:58
Da weiß ich nicht, ob ich lachen oder weinen soll. Haben wir damit die P/L-Kracher von früher endgültig hinter uns? Wer weiß, wo die nächste Generation preislich landen wird. Vielleicht noch oben drauf?

Ich habe mich jedenfalls schon drauf eingestellt, für die nächste Grafikkarte statt 200€ lieber 400€ auszugeben.
Wieso?!
HD 7850 und HD 7870 sind doch nachwievor P/L-Kracher!
Dass Nvidia sich nochmal einen solchen Ausrutscher nach oben wie bei der GTX 460 erlauben wird, das halte ich aber für wirklich unwahrscheinlich!

ZipKaffee
2013-02-22, 18:02:12
Wie immer sehr gut geschrieben und alle wesentlichen Punkte genau analysiert.

Konami
2013-02-22, 18:11:37
Dass es "Display Overclocking" exklusiv bei der Titan gibt, stimmt nicht. Das geht auch mit anderen Karten via benutzerdefinierter Auflösungen. Damit hab ich schon herumexperimentiert, als ich meine Downsampling-Auflösungen erstellt hab.

Schnitzl
2013-02-22, 21:18:12
Das Problem ist doch dass die "normalen" Karten HD7970 und GTX680 schon zu teuer sind
Unter dem Gesichtspunkt ist der Preis schon fast grotesk.

P.S.: Wer kauft denn bitte die schnellste Karte zum Stromsparen?

seba86
2013-02-22, 21:19:35
Die Karte hat keinen R9700Pro bzw. 8800GTX Flair :(

Ätznatron
2013-02-23, 10:08:39
Allgemein wird Titan ja als gelungenes Marketinginstrument bzgl. "schnellste Single-GPU der Welt" gefeiert, welches nVidia weitere Kunden zutreiben soll.

Mittlerweile bin ich mir nicht mehr sicher, ob das überhaupt noch gelingen kann.

Denn im Fokus der Forensdiskussionen und der Berichterstattung steht weniger die Leistung der Karte, sondern in erster Linie die als völlig überzogen angesehene Preisgestaltung seitens nVidias und das gleichzeitige (gefühlte?) "Downgraden" der bisher als High End Karte zu stolzem (dachte man zumindest bisher) High End Preis verkauften GTX 680 in das leistungs- und preistechnische Mainstreamsegment ("GTX 680 nie als High End gedacht, sondern eigentlich immer nur Performance" usw).

Und da entsteht rasch der Eindruck (und der verfestigt sich mittlerweile, wenn ich so den allgemeinen Tenor in den Foren richtig erfasse), dass der Kunde von nVidia ziemlich dreist übervorteilt wird.

Und dieses Gefühl des Abgezocktwerdens bleibt nachhaltiger im Gedächtnis, als irgendeine momentane Leistungskrone, die morgen ohnehin schon wieder Schall und Rauch ist.

Kladderadatsch
2013-02-23, 11:01:57
Und dieses Gefühl des Abgezocktwerdens bleibt nachhaltiger im Gedächtnis, als irgendeine momentane Leistungskrone, die morgen ohnehin schon wieder Schall und Rauch ist.
so wie bei porsche meinst du?

ist es nicht viel eher so, dass der markt bzw. absatz schrumpft, während die entwicklungskosten ja irgendwie wieder reinkommen müssen?

Flusher
2013-02-23, 11:29:05
so wie bei porsche meinst du?

ist es nicht viel eher so, dass der markt bzw. absatz schrumpft, während die entwicklungskosten ja irgendwie wieder reinkommen müssen?

Naja im Hinblick darauf, dass Titan im Grunde nur ein aufgeblähter Kepler ist, dürften die Entwicklungskosten wohl auch nicht alle Rahmen gesprengt haben.

Ätznatron
2013-02-23, 11:32:32
so wie bei porsche meinst du?

ist es nicht viel eher so, dass der markt bzw. absatz schrumpft, während die entwicklungskosten ja irgendwie wieder reinkommen müssen?

Fühlen Porsche-Käufer sich abgezockt?

Mein Punkt ist:

Wenn Titan für nVidia dank der Leistungskrone Werbeinstrument sein soll für Karten unterhalb des Enthusiastensegments, jetzt aber in den Foren fast auschließlich dessen - um es milde auszudrücken - gehobener Preis im Vordergrund steht (und damit letztlich die komplette Preisgestaltung und Modellpolitik seitens nVidias), ist das doch so, wie es gerade abläuft, fürs Image verheerend.

Der "normale" Endkunde wird sich kaum Gedanken über schrumpfende Märkte und steigende Entwicklungskosten machen (die den aufgerufenen Preis rechtfertigen könnten), dem bleibt im Gedächtnis, dass Titan für das Gebotene viel zu teuer sei und das Mainstreamkarten früher z.B. nur 100€ gekostet hätten, aber nVidia mittlerweile dafür 400 € verlange.

Das ramponiert das Ansehen.

blackbox
2013-02-23, 11:47:30
Es gibt nur quasi 2 Hersteller von Grafikchips........
AMD hat die neue Generation verschoben..... Nivida kommt just mit einem neuem Grafikchip...... die Preise sind hoch..... das stinkt, und wie.

Und bei den Prozessoren kann Intel aufgrund der Schwäche von AMD machen, was sie wollen.

Wir haben zurzeit keine reellen Preise. Das sollte man begreifen.

Leonidas
2013-02-23, 12:08:38
Kleiner Typo auf Seite 2:

Da fehlt ein "t" :biggrin:
.


Jaaaaa .... freudscher Vertipper? Jedenfalls gefixt.







Ich versteh nicht, was daran so neu ist. Das funktioniert auf Radeon-Karten schon lange und meine GTX 560 Ti kann das auch, allerdings limitiert durch den RAMDAC auf ~90Hz. Zusammen mit einem Yamakasi Catleap (http://www.120hz.biz/yamakasi-catleap-q270-2b-extreme-oc/) (27" IPS mit 2560x1440) mit abgewandelter Display-Elektronik werden die 90Hz auch erreicht. Die VSync-Limits passen sich dementsprechend an und zumindest Rage spielt sich mit 90Hz "gefuehlt" definitiv anders als mit 60Hz. Haengt natuerlich vom Spiel ab..



Hast natürlich Recht: Neu nur als integriertes Feature. Muß ich entsprechend ausbessern.

Flusher
2013-02-23, 12:09:39
Es gibt nur quasi 2 Hersteller von Grafikchips........
AMD hat die neue Generation verschoben..... Nivida kommt just mit einem neuem Grafikchip...... die Preise sind hoch..... das stinkt, und wie.

Und bei den Prozessoren kann Intel aufgrund der Schwäche von AMD machen, was sie wollen.

Wir haben zurzeit keine reellen Preise. Das sollte man begreifen.

Kurzer Einwurf: Gerade weil AMD so schwach ist, kann Intel nicht machen was sie wollen. Würde da ein echter Konkurrenzkampf entstehen, könnten wir schon Heute die Architektur von Morgen in den Händen halten.

Kladderadatsch
2013-02-23, 12:23:31
Fühlen Porsche-Käufer sich abgezockt?

eben nicht. sie fahren schließlich meist das schnellste weit und breit. und so sehe ich das hier auch.

Ätznatron
2013-02-23, 12:46:18
eben nicht. sie fahren schließlich meist das schnellste weit und breit. und so sehe ich das hier auch.


Meine Frage war auch rhetorisch gemeint. :wink:

Der Porsche-Käufer fühlt sich sicher nicht abgezockt, der Titan-Käufer auch nicht.

Aber genau um die geht es nicht.

Porsche hat auch keine Produkte für den Massenmarkt, nVidia schon. Und um die und deren potentielle Kundschaft geht es.

Kladderadatsch
2013-02-23, 12:53:05
Porsche hat auch keine Produkte für den Massenmarkt, nVidia schon. Und um die und deren potentielle Kundschaft geht es.
high end war doch auch nie massenmarkt. ich weiß gar nicht, ob man bei solcher (auch mainstream) retail-hardware im wert mehrerer hundert euro überhaupt von einem massenmarkt sprechen kann? da ist der porsche-vergleich vielleicht gar nicht so birne.

Ätznatron
2013-02-23, 12:56:13
high end war doch auch nie massenmarkt. ich weiß gar nicht, ob man bei solcher (auch mainstream) retail-hardware im wert mehrerer hundert euro überhaupt von einem massenmarkt sprechen kann? da ist der porsche-vergleich vielleicht gar nicht so birne.

Es geht nicht so sehr um den High End Markt, sondern um den Markt für Produkte darunter, Karten so im Preisbereich bis vielleich 150 € oder max. 200 €.

Kladderadatsch
2013-02-23, 12:59:01
Es geht nicht so sehr um den High End Markt, sondern um den Markt für Produkte darunter, Karten so im Preisbereich bis vielleich 150 € oder max. 200 €.
und warum sollten die sich an einer teuren high end karte stören? die karte käme auch für 200 euro weniger nicht in frage. sry, versteh ich nicht. der markt bestimmt den preis und nv ist keine karitative gemeinschaft.

Ätznatron
2013-02-23, 13:02:56
und warum sollten die sich an einer teuren high end karte stören? die karte käme auch für 200 euro weniger nicht in frage. sry, versteh ich nicht. der markt bestimmt den preis und nv ist keine karitative gemeinschaft.

Weil hängenbleiben wird, dass nVidia überteuert ist (und die Vermutung dann für alle anderen Produkte natürlich auch gilt).

Knuddelbearli
2013-02-23, 13:40:46
der Porsche Vergleich ist unsinnig

Vergleichbare wäre eher wie wenn VW den Golf einfach mal im Preis verdoppeln würde, sind ja immerhin das beste im Mittelklassensegment.

Kladderadatsch
2013-02-23, 13:45:11
titan ist ja auch nicht mittelklasse. (porsche dafür aber vw:tongue:)

Max944
2013-02-23, 14:26:29
William Shakespeare @ 2013 :

"GTX 690 oder Titan, das ist hier die Frage"

Egal welche es werden sollte, ich habe bei beiden nicht das Gefühl das es optimal ist. Der GTX 690 mangelt es an Bandbreite / Speicher und für die Titan bräuchte man zwingend eine WaKü damit sie nicht throttled :( AMD ist leider keine Alternative wegen 3D Vision und SLI (mit weniger Mikrorucklern).

Gast
2013-02-25, 02:32:45
von http://docs.nvidia.com/cuda/kepler-tuning-guide/index.html
"since SMX's warp scheduler issues one or two independent instructions from each of four warps per clock"

1. soll heissen, es muss 42warps geben damit die GPU 'utilized' sein kann und die instruktionen sollen nicht voneinander abhängig sein?

2. macht das nicht den compiler aufwendiger und die ausnutzung im schnitt schlechter, was eigentlich ein schritt zurück ist gegenüber GF110 ?

http://www.geforce.com/Active/en_US/en_US/pdf/GeForce-GTX-680-Whitepaper-FINAL.pdf
GF110 hat 48Warps per SM bei 32Cores und GK110 hat 64Warps per SMX bei 192Cores, das sind 48Threads/Core vs 10Threads/Core.
3. wenn nun ein speicherzugriff fehlschlägt, was laut Cuda Doku ca 300cycles kostet, hat die GF110 ca 300:48 also ca 1Mem:6ALU instruktionen damit die balanz bleibt, GK hat dann 1Mem:30ALU instruktionen???

ist das der grund weshalb rein compute intensive dinge, wie Matrix multiplikationen mit koherentem bzw local memory optimierten zugriffen den Kepler so gut stehen und auf der anderen seite die random zugriff dinge wie luxmark langsammer sind als bei fermi und tahiti?


4. ist es zu erwarten dass Maxwell weiter in diese richtung geht? oder war Kepler wegen Exascale computing ein ausreisser und purpose optimiert auf linpack oder womit auch immer exaflop verifiziert wird?

G3cko
2013-02-25, 14:22:20
Warum wird Hardware.fr bei der Verlustleistung berücksichtigt, aber nicht bei der Performance. Immerhin haben sie unter rellen Bedingungen getestet und den Umstand auch aufgedeckt?

Auf CB wird nicht einmal auf den Preis oder fehlendes Dx11.1 nach über einem Jahr nach 7970-Release eingegangen.

28°C bei PCGH sind zwar der richtige Ansatz, aber im Sommer sollte es in einem Gehäuse noch deutlich wärmer sein.

Gast
2013-02-25, 14:49:43
Wo soll denn bitteschön das Problem des Boosttaktes im Sommer liegen?
TDP lässt sich minimal nach oben verschieben - Temperatur auf bis 95 Grad.
Damit dürfte die Karte wohl auch im Sommer klar über 874Mhz takten.

So oder so - mit der Radeon 7970 wischt sie auf jeden Fall den Boden auf

M4xw0lf
2013-02-25, 15:20:16
Warum wird Hardware.fr bei der Verlustleistung berücksichtigt, aber nicht bei der Performance. Immerhin haben sie unter rellen Bedingungen getestet und den Umstand auch aufgedeckt?

Auf CB wird nicht einmal auf den Preis oder fehlendes Dx11.1 nach über einem Jahr nach 7970-Release eingegangen.

28°C bei PCGH sind zwar der richtige Ansatz, aber im Sommer sollte es in einem Gehäuse noch deutlich wärmer sein.

Die "Frisch"luft, die die Karte ansaugt, kommt bei ordentlichem Airflow aber ja von außerhalb des Gehäuses, also schon eher mit Zimmertemperatur.

G3cko
2013-02-25, 16:22:01
Die Temperatur wird aber immer durch Verwirbelungen, durch andere Komponenten zb die Festplatten im vorderen Bereich höher sein. Es sei den du hast dir eine Vorrichtung gebastelt welche die Frischluft direkt zur Karte leitet.

zb. sowas für CPU-Kühler
http://hollii.de/temp/2x2133mhz_luefter.jpg

Wenn die CPU/GPU Temp im Idle der Raumtemp entspricht ist es ein Auslesefehler. Selbst bei Wakü.

Cubitus
2013-02-25, 16:28:14
Titan bräuchte man zwingend eine WaKü damit sie nicht throttled :( AMD ist leider keine Alternative wegen 3D Vision und SLI (mit weniger Mikrorucklern).

So wie ich gelesen habe, kann man mit dem Evga Pericision die Fan-Curve auf 95 Grad prügeln. Das passt dann schon.
Ich denke man kann die Karte bei größerem Case und in kauf nehmen der höheren Lautstärke, an die 1000 Mhz rauskitzeln.

Lebenszeit iss auch egal, spätestens nach zwei Jahren fliegt die Karte eh wieder raus. Born to be wasted..

gnahr
2013-02-25, 16:58:06
Die Temperatur wird aber immer durch Verwirbelungen, durch andere Komponenten zb die Festplatten im vorderen Bereich höher sein. Es sei den du hast dir eine Vorrichtung gebastelt welche die Frischluft direkt zur Karte leitet.
schön, was verbrauchen aktuelle festplattenmotoren im betrieb? 2,3watt? lass es fünf sein, das sind peanuts. schonmal von elektrischer energie in thermische umgerechnet bei sagen wir mal 100cfm pro minute? da kommt nix hinten raus. qualitativ hast du recht, die temperatur wird wohl höher sein. quantitativ werden 2 von 100 leuten nur ein messgerät daheim haben um den untersched quantitativ nachzuweisen.

wenn titan ein thermisches problem bekommt... mit welchen parametern ist die hd4890 nochmal gelaufen? ;D

Blediator16
2013-02-25, 17:06:54
schön, was verbrauchen aktuelle festplattenmotoren im betrieb? 2,3watt? lass es fünf sein, das sind peanuts. schonmal von elektrischer energie in thermische umgerechnet bei sagen wir mal 100cfm pro minute? da kommt nix hinten raus. qualitativ hast du recht, die temperatur wird wohl höher sein. quantitativ werden 2 von 100 leuten nur ein messgerät daheim haben um den untersched quantitativ nachzuweisen.

wenn titan ein thermisches problem bekommt... mit welchen parametern ist die hd4890 nochmal gelaufen? ;D

Hatte ATI darmals diesen Boost Scheiss, der die Karte taket wie sie grad lustig ist?

gnahr
2013-02-25, 17:42:04
leider nein, aber sowohl der fäkalausdruck als auch das flappsige "wie sie gerade lustig ist" suggerieren, dasss dir der mehrwert und die neuen funktionen nicht ganz aufgegangen sind. wollen wir das mal gesondert sauber ausführen? warum es n unterschied ist ob man powertarget oder target-temperature priorisiert usw...

ich fress sowiso n besen wie man das als hersteller rausnehmen kann... ok, ich versteh es wenn man keine guten kühler hat und mit irgend nem fixen maximaltakt werben kann, aber in der realität brauchen das eh nur marketing-fuzzis und leute die statisch übertakten wie vor 10 jahren. :)

Leonidas
2013-02-26, 07:46:42
Warum wird Hardware.fr bei der Verlustleistung berücksichtigt, aber nicht bei der Performance. Immerhin haben sie unter rellen Bedingungen getestet und den Umstand auch aufgedeckt?



Dazu habe ich keine klaren Aussagen gefunden. Sie haben das Problem zwar angeschnitten, aber ich habe den Hinweis vermisst, unter welchen Bedingungen die ganzen Benchmarks dann entstanden sind. Natürlich macht die Sprachbarriere das Erkennen dessen, was die genau getan haben, nicht einfacher.





Wo soll denn bitteschön das Problem des Boosttaktes im Sommer liegen?
TDP lässt sich minimal nach oben verschieben - Temperatur auf bis 95 Grad.
Damit dürfte die Karte wohl auch im Sommer klar über 874Mhz takten.



Nichtsdestotrotz wird die Karte im Winter deutlich anders takten als im Sommer, damit auch eine andere Performance liefern. Natürlich kann man die Vorgaben höher setzen - aber wieso nicht auch im Winter auf 95°C, wenn man es im Sommer so setzt?

Knuddelbearli
2013-02-26, 08:55:36
abgesehen davon das 95C° nunmal OC ist ...

(del676)
2013-02-26, 09:34:40
Sehr guter Artikel, der sich zu 99% mit meiner Meinung deckt.
GPU Boost ist und bleibt automatisches Overclocking fuer Dummies. Overclocking kann man mit jeder Grafikkarte betreiben, nvidia macht das nun halt automatisch, damits in Reviews (in denen nur schnell EIN Benchmark Run mit einer kalten Karte) etwas besser aussieht.

G3cko
2013-02-26, 10:17:52
quantitativ werden 2 von 100 leuten nur ein messgerät daheim haben um den untersched quantitativ nachzuweisen.

Nicht wirklich. Es geht hier nicht nur um die Festplatten, sondern um generell alle Komponenten. Auch um Effekte wie Wärmestrahlung. Deshalb wird ein Voll-Alu-Gehäuse auch überall etwas wärmer was auch wiederum einen Effekt auf die Luft hat. Nichteinmal mit 6 Deltas (65db) wirst du auf Raumtemp kommen. :freak:

Zumal der Kühler ja die Abluft in beide Richtungen abgibt. Das heißt egal wie du dein Lüftungskonzept aufbaust. Verwirbelungen, oder verhindern, dass die Karte die eigene erwärmte Luft teilweise wieder einsaugt kannst du nicht. ;)

Würde mich echt über Benchs mit Raumtemps von 30°C freuen. ;D

Leonidas
2013-02-26, 11:00:51
Würde mich echt über Benchs mit Raumtemps von 30°C freuen. ;D


NV brauch mich nur anliefern ;)

PS: Aber es existiert sicherlich kein echtes Interesse an der Wahrheit. Woher auch - NV will primär gfx verkaufen.

Gast
2013-03-08, 11:46:40
In der Tabelle steht unter AMD Radeon HD 7990 "Dual Slot", afaik gibts die aber nur als "Triple Slot".

Leonidas
2013-03-15, 06:18:46
Der Gast hat Recht! Wird umgehend geändert.