PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Geforce GTX Titan: (P)Review-Thread


Seiten : [1] 2 3 4 5 6 7 8 9

fondness
2013-02-21, 15:57:47
http://www.computerbase.de/artikel/grafikkarten/2013/test-nvidia-geforce-gtx-titan/
http://www.pcgameshardware.de/Grafikkarten-Hardware-97980/Tests/Test-Geforce-GTX-Titan-1056659/
http://www.anandtech.com/show/6774/nvidias-geforce-gtx-titan-part-2-titans-performance-unveiled
http://www.hardware.fr/articles/887-1/nvidia-geforce-gtx-titan-big-kepler-debarque-enfin.html
http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/25462-test-nvidia-geforce-gtx-titan-im-3-way-sli.html
http://www.tomshardware.de/geforce-gtx-titan-performance-review,testberichte-241213.html
http://www.gamestar.de/hardware/grafikkarten/nvidia-geforce-gtx-titan/test/nvidia_geforce_gtx_titan,630,3009548.html

Wer noch Tests hat immer her damit...

Effe
2013-02-21, 15:59:23
HWLuxx: http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/25462-test-nvidia-geforce-gtx-titan-im-3-way-sli.html
Tom's Hardware: http://www.tomshardware.de/geforce-gtx-titan-performance-review,testberichte-241213.html
Gamestar: :D http://www.gamestar.de/hardware/grafikkarten/nvidia-geforce-gtx-titan/test/nvidia_geforce_gtx_titan,630,3009548.html

Thunder99
2013-02-21, 15:59:46
http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/25462-test-nvidia-geforce-gtx-titan-im-3-way-sli.html

Karte soweit gut, aber Preis ist sowas von :down:

Edit:
und hier: http://www.tomshardware.de/geforce-gtx-titan-performance-review,testberichte-241213.html

dildo4u
2013-02-21, 16:01:34
Krass wie viel besser sie als die 680 ist wenn die Shaderleistung limitiert.

http://www.abload.de/img/metro200337cpaa.jpg

http://www.abload.de/img/cerrbpud.jpg

http://www.pcgameshardware.de/Grafikkarten-Hardware-97980/Tests/Test-Geforce-GTX-Titan-1056659/

Die min FPS.:eek:

http://www.abload.de/img/clipboard05iyikc.jpg

http://www.hardocp.com/article/2013/02/21/nvidia_geforce_gtx_titan_video_card_review/1#.USZUNVebM5s

derguru
2013-02-21, 16:09:01
habe mein hartz4 titan gerade bekommen für 311€. :ass:

http://www.abload.de/thumb/dscn0496xyr1m.jpg (http://www.abload.de/image.php?img=dscn0496xyr1m.jpg)

Knuddelbearli
2013-02-21, 16:11:33
wtf polierst du deine maus das die so glänzt?

Lowkey
2013-02-21, 16:12:12
habe mein hartz4 titan gerade bekommen für 311€. :ass:

http://www.abload.de/thumb/dscn0496xyr1m.jpg (http://www.abload.de/image.php?img=dscn0496xyr1m.jpg)


Titan light?

Wo ist der silberne Textmarker für den "Titan" Schriftzug?

PS: das Foto ist leicht unscharft. Der Fotograf hat bestimmt vor Freude gezittert.

Raff
2013-02-21, 16:12:25
habe mein hartz4 titan gerade bekommen für 311€. :ass:

http://www.abload.de/thumb/dscn0496xyr1m.jpg (http://www.abload.de/image.php?img=dscn0496xyr1m.jpg)

Sorry, aber das ist einfach nicht dasselbe. ;) Die Titan ist "leider geil". Durchgängig, als Grafikkarte. Nur der Preis vermittelt etwas überdeutlich, dass Nvidia sich des exzellenten Gesamtpakets bewusst ist.

Meine Lieblingsbenchmarx finden übrigens in 3.840x2.160 bzw. 5.120x2.880 statt. (http://www.pcgameshardware.de/Grafikkarten-Hardware-97980/Tests/Test-Geforce-GTX-Titan-1056659/7/) :naughty: =)

MfG,
Raff

Lowkey
2013-02-21, 16:14:09
Wo bleibt das Bild mit Raff und drei Titans unter dem Arm/im Arm?

Schrotti
2013-02-21, 16:14:34
Die Performance ist ganz ok nur Preis/Leistung ist für den Hint...

Knuddelbearli
2013-02-21, 16:16:35
naja das Boost verahlten ist definitiv unter jeder Sau und ihmo reines Cheating,wenn sich dann auch noch bewahrheitet das NV empfiehlt beim testen dem raum so kühl wie möglich zu halten ...

Würde mich nicht wundern wenn einige Seiten wie der Luxx bei geöffnetem Fenster Benchen ^^

Iceman346
2013-02-21, 16:17:47
Leistungsaufnahme und Kühlung im CB Review sind beeindruckend. Die ~30% Mehrleistung zu meiner 7970 im Verhältnis zum Preis lachhaft.

kunibätt
2013-02-21, 16:18:05
@ Raff: Habt ihr die Karte noch?

derguru
2013-02-21, 16:21:05
Titan light?

Wo ist der silberne Textmarker für den "Titan" Schriftzug?

PS: das Foto ist leicht unscharft. Der Fotograf hat bestimmt vor Freude gezittert.
zu schwer ,was für ein brocken.:biggrin:
Sorry, aber das ist einfach nicht dasselbe. ;) Die Titan ist "leider geil". Durchgängig, als Grafikkarte. Nur der Preis vermittelt etwas überdeutlich, dass Nvidia sich des exzellenten Gesamtpakets bewusst ist.

Meine Lieblingsbenchmarx finden übrigens in 3.840x2.160 bzw. 5.120x2.880 statt. (http://www.pcgameshardware.de/Grafikkarten-Hardware-97980/Tests/Test-Geforce-GTX-Titan-1056659/7/) :naughty: =)

MfG,
Raff
du schreibst von durchgängig geil und postet dann diesen link?:confused:
der abstand ist doch peanuts.

ich finde die auch geil für ~500-600€.:biggrin:

Thunder99
2013-02-21, 16:24:45
Wo bleibt das Bild mit Raff und drei Titans unter dem Arm/im Arm?
+1 :D :D :D

Gut finde ich die Analyse von CB mit dem Turbo (http://www.computerbase.de/artikel/grafikkarten/2013/test-nvidia-geforce-gtx-titan/19/). Damit zeigt sich das eine exellente Luftkühlung oder Wakü Pflicht ist für ordentliche (>40%+) Performace :wink:

Godmode
2013-02-21, 16:44:23
zu schwer ,was für ein brocken.:biggrin:

du schreibst von durchgängig geil und postet dann diesen link?:confused:
der abstand ist doch peanuts.

ich finde die auch geil für ~500-600€.:biggrin:

Verstehe auch nicht was daran geil sein soll, vor allem im Vergleich zur Toxic.

Knuddelbearli
2013-02-21, 16:45:21
es ist NV ^^

wenn ich ein Bankster wäre mit Mio Bonus würde ich mir auch 4 davon kaufen ^^

pest
2013-02-21, 16:47:51
Irgendwann haben wir Grafikkarten die im Winter super sind und im Sommer auf Geforce2 Niveau rumkrebsen

john carmack
2013-02-21, 16:50:48
hmmm... nur die PCGH den Vergleich zum mMn eigentlichen Konkurrenten - der 6GB Toxic?

Raff
2013-02-21, 16:52:30
hmmm... nur die PCGH den Vergleich zum mMn eigentlichen Konkurrenten - der 6GB Toxic?

Die Toxic ist bestenfalls 14 Prozent schneller als eine normale GHz-Edition. Die Titan ist für einen aktuellen Tahiti nur in den seltensten Fällen einholbar.

MfG,
Raff

john carmack
2013-02-21, 16:53:17
Die Toxic ist bestenfalls 14 Prozent schneller als eine normale GHz-Edition. Die Titan ist für einen aktuellen Tahiti nur in den seltensten Fällen einholbar.

MfG,
Raff


das weiß ich auch... schade nur das die tester darauf nicht eingehen...

Knuddelbearli
2013-02-21, 16:54:55
och die Titan mit fixiertem Boost ist ja selten über 20% weg von der 7970

beide kann man aber wohl gleichgut OCen unter Wakü sogar eher die Titan besser rechne dort eigentlich mit über 1,1Ghz wobei die Frage ist wiesehr die Spannung limitiert habe dazu bisher noch nichts gefunden

Raff
2013-02-21, 16:58:42
das weiß ich auch... schade nur das die tester darauf nicht eingehen...

Btw: Titan gegen Toxic in Crysis 3 (http://www.pcgameshardware.de/Crysis-3-PC-235317/Tests/Crysis-3-Benchmark-Test-Grafikkarten-1056218/). =)

Da sieht die Radeon alt aus.

MfG,
Raff

Knuddelbearli
2013-02-21, 16:59:42
pah dafür rockt dort die AMD CPU! ^^

dildo4u
2013-02-21, 17:04:08
Btw: Titan gegen Toxic in Crysis 3 (http://www.pcgameshardware.de/Crysis-3-PC-235317/Tests/Crysis-3-Benchmark-Test-Grafikkarten-1056218/). =)

Da sieht die Radeon alt aus.

MfG,
Raff
Einfach zu viele Polys für die AMD,hier mal ein Tesselation Bench legt ordentlich zu zur 680.

http://www.abload.de/img/53402o9qsx.png

http://www.anandtech.com/show/6774/nvidias-geforce-gtx-titan-part-2-titans-performance-unveiled/14

MorPheuZ
2013-02-21, 17:04:44
Also ich finde wenn man ne Toxic als Vergleich nimmt solte man auch entsprechende Custom Titans abwarten... da ändert sich das Bild auch nochmal.

Raff
2013-02-21, 17:07:27
Also ich finde wenn man ne Toxic als Vergleich nimmt solte man auch entsprechende Custom Titans abwarten... da ändert sich das Bild auch nochmal.

Nicht unbedingt, denn hier geht's schlicht um die Beantwortung der Frage, was man fürs Geld kriegt – die Toxic ist die schnellste und teuerste Single-Radeon (um 600 Euro).

MfG,
Raff

Blaire
2013-02-21, 17:07:57
Btw: Titan gegen Toxic in Crysis 3 (http://www.pcgameshardware.de/Crysis-3-PC-235317/Tests/Crysis-3-Benchmark-Test-Grafikkarten-1056218/). =)

Da sieht die Radeon alt aus.


Warum keine SGSSAA Benchmarks? :naughty: Hardwareluxx zeigt sehr gut, was geht, wenns drauf ankommt...
http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/25462-test-nvidia-geforce-gtx-titan-im-3-way-sli.html?start=26

Mr.Magic
2013-02-21, 17:15:04
Frage:
Gibt es irgendwo Tests mit 3D Vision?

Anmerkung:
Bei dem PL-Verhältnis können sie ihre Karten behalten. Ich bin froh mir letzte Woche für 200€ eine 480 Amp für SLI geangelt zu haben.

dildo4u
2013-02-21, 17:15:59
Wieder verdammt nahe an der 690 unter echter Last.

http://www.abload.de/img/img00405527uij8.gif

http://www.hardware.fr/articles/887-12/benchmark-3dmark-unigine.html

Godmode
2013-02-21, 17:27:40
Frage:
Gibt es irgendwo Tests mit 3D Vision?

Anmerkung:
Bei dem PL-Verhältnis können sie ihre Karten behalten. Ich bin froh mir letzte Woche für 200€ eine 480 Amp für SLI geangelt zu haben.

3D Vision würde mich auch interessieren.

Zum Preis: Nach dieser lächerlichen Vorstellung wird der Preis in den nächsten Wochen wohl fallen.

kunibätt
2013-02-21, 17:32:24
Könnte sogar stimmen, aber dazu müssen die Karten echt wie Blei in den Regalen liegen.

Mr. Lolman
2013-02-21, 17:33:49
Ich versteh bloss nicht warum bei einem derartigen Leistungsmonster bei steigender Pixellast der Abstand zur HD7970GE schrumpft. In 2560 mit höchsten Details ist lt. Hardware.fr die AMD Karte näher bei der Titan als bei der 680:

http://www.abload.de/img/img00405748bpyh.gif (http://www.abload.de/image.php?img=img00405748bpyh.gif)

www.hardware.fr/articles/887-27/recapitulatif-performances.html

LSSJBroly
2013-02-21, 17:35:50
Das ist hier noch viel extremer:
http://www.pcgameshardware.de/Grafikkarten-Hardware-97980/Tests/Test-Geforce-GTX-Titan-1056659/7/
Und Titan ist noch ziehmlich übertaktet:D

Sunrise
2013-02-21, 17:40:39
Speicher-OC scheint Titan laut Hardwareluxx überhaupt nicht zu interessieren. Da sind maximal Unterschiede von Werten hinter dem Komma.

http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/25462-test-nvidia-geforce-gtx-titan-im-3-way-sli.html?start=27

Ailuros
2013-02-21, 17:40:46
Uebrigens da es vielleicht sein kann dass es die Herren von PCGH nicht im Speku-forum sehen da der GK110 thread dort geschlossen wurde:

Herzlichen Glueckwunsch fuer den ausgezeichneten review. :smile:

LSSJBroly
2013-02-21, 17:43:31
Speicher-OC scheint Titan laut Hardwareluxx überhaupt nicht zu interessieren. Da sind maximal Unterschiede von Werten hinter dem Komma.

http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/25462-test-nvidia-geforce-gtx-titan-im-3-way-sli.html?start=27


Naja, sobald auf GK110 aber mehr Takt drauf kommt, geht die durch mehr Speichertakt schon ziehmlich ab (Valley). 14,9% mehr Bandbreite münden in 8,3% mehr Leistung. Ähnlich viel wie bei der 680. BF3 skaliert aber sogut wie gar nicht...?

Sunrise
2013-02-21, 17:50:50
Naja, sobald auf GK110 aber mehr Takt drauf kommt, geht die durch mehr Speichertakt schon ziehmlich ab (Valley). 14,9% mehr Bandbreite münden in 8,3% mehr Leistung. Ähnlich viel wie bei der 680. BF3 skaliert aber sogut wie gar nicht...?
Ja, aber nur der Speichertakt alleine bringt mikrige Zuwächse, wenn überhaupt. Da reagiert meine 580er noch etwas anders. War das bei der 680er auch schon so? Die 680 war doch sehr stark Bandbreiten-beschränkt? Wenn der Takt mit hochgezogen wird, ergeben sich natürlich deutlichere Unterschiede.

http://www.hardwareluxx.de/images/stories/galleries/reviews/2013/geforce-titan/bench/speicher-oc-4.jpg

LSSJBroly
2013-02-21, 17:51:40
War das bei der 680er auch schon so?

Siehe: Meine Signatur

M4xw0lf
2013-02-21, 17:59:15
Ich tu mir jetzt den Gamestar-"Test" an. Wenn ich in ner Viertelstunde nicht meine Verachtung zum Ausdruck gebracht habe, bin ich vermutlich an Lachkrämpfen verendet.

][immy
2013-02-21, 18:00:45
Also 1 GHz (ab Werk) ist wohl mit dem Ding nicht drin (aber aktuell auch völlig unnötig :) ). Stellt man die Zieltemp auf max geht der Verbrauch (laut Computerbase) um 75 Watt nach oben und überholt im verbrauch sogar die 7970 Ghz.

Wie weit muss man das ding eigentlich runtertakten um auf dem Stand der GTX680 zu sein und wie sieht dann der Verbrauch aus? Hat das eine Seite getestet?

Schlammsau
2013-02-21, 18:02:52
falscher thread

Thunder99
2013-02-21, 18:05:17
Ja, aber nur der Speichertakt alleine bringt mikrige Zuwächse, wenn überhaupt. Da reagiert meine 580er noch etwas anders. War das bei der 680er auch schon so? Die 680 war doch sehr stark Bandbreiten-beschränkt? Wenn der Takt mit hochgezogen wird, ergeben sich natürlich deutlichere Unterschiede.

http://www.hardwareluxx.de/images/stories/galleries/reviews/2013/geforce-titan/bench/speicher-oc-4.jpg
Dann macht AMD´s Pläne mit ihrem Turbo 2.0 GPU und RAM zu übertakten mehr Sinn als nvidias Boost 2.0

Kann man eigentlich den Boost abschalten, also generell?

dildo4u
2013-02-21, 18:06:25
Die min FPS.:eek:


http://www.abload.de/img/clipboard05iyikc.jpg

http://www.hardocp.com/article/2013/02/21/nvidia_geforce_gtx_titan_video_card_review/1#.USZUNVebM5s

(del676)
2013-02-21, 18:09:44
Fuer mich ist die Karte ein Epic Fail.
Nicht weil sie mehr verbraucht oder lauter ist als eine 7970GHE - das waer mir egal, aber bei DEM Preis muesste die Karte schon Wunder wirken koennen. 20-30% Vorsprung bei HD Aufloesung zaehlt nicht als Wunder.
(laut http://www.computerbase.de/artikel/grafikkarten/2013/test-nvidia-geforce-gtx-titan/7/ ist sie bei 1920x1080 25% schneller als eine GHE, in 2560x1600 nur mehr 22%? LOL)

Ergo - mindestens 400 Euro zu teuer -> Fail!

M4xw0lf
2013-02-21, 18:11:18
Der Gamestartest ist wirklich unfassbar schlecht. Benchen die wirklich sogar über ein Drittel ihrer Ergebnisse komplett ohne AA und AF... ich packs nicht.

][immy
2013-02-21, 18:13:01
Fuer mich ist die Karte ein Epic Fail.
Nicht weil sie mehr verbraucht oder lauter ist als eine 7970GHE - das waer mir egal, aber bei DEM Preis muesste die Karte schon Wunder wirken koennen. 20-30% Vorsprung bei HD Aufloesung zaehlt nicht als Wunder.
(laut http://www.computerbase.de/artikel/grafikkarten/2013/test-nvidia-geforce-gtx-titan/7/ ist sie bei 1920x1080 25% schneller als eine GHE, in 2560x1600 nur mehr 22%? LOL)

Ergo - mindestens 400 Euro zu teuer -> Fail!
naja, das ist halt cherry picking ab werk.
die Ausbeute kann wohl nicht all zu gut sein wenn man die Karte nicht breitflächig anbietet und trotzdem noch einen teil deaktiviert hat. Das kostet halt.

für NVidia dürfte es vom umsatz her keinen unterschied machen ob die karte sich verkauft oder nicht. ist einfach nur prestige und damit marketingwirksam.

boxleitnerb
2013-02-21, 18:17:04
Das ist hier noch viel extremer:
http://www.pcgameshardware.de/Grafikkarten-Hardware-97980/Tests/Test-Geforce-GTX-Titan-1056659/7/
Und Titan ist noch ziehmlich übertaktet:D

Extremer ist es nicht, ich schätze mal der Turbo funkt dem OC rein wie bei CB auch. Titan ist in diesen Auflösungen ungefähr soviel schneller wie er mehr Rechenleistung hat, so 10-15% (4,7 TFLOP vs 4,3 TFLOP).

Die Karte an sich ist ziemlich gut. Mit 900 MHz, ohne Boost, wäre die Leistungsaufnahme wohl auf GTX580 Niveau bei ca. 90% mehr Leistung. Für um die 700 Euro hätte ich dann auch zugeschlagen. Der Chip ist ziemlich effizient, nur ist es ein bisschen wie bei SB-E - der Boost macht die Effizienz dann wieder etwas kaputt. Wie sehr, hat leider noch keine Seite so richtig untersucht.

Was ich mir von PCGH wünschen würde ist so ein Effizienztest wie beim GTX680-Launch. Weniger Spiele, dafür bei Titan eure drei Betriebsmodi. Ist viel Arbeit, ich weiß, aber vielleicht hat ja jemand Zeit und Lust :D

Iruwen
2013-02-21, 18:17:30
Ich scheine andere Reviews zu sehen als der Rest. Wobei der Rest unüberraschenderweise auch wieder aus den üblichen Verdächtigen besteht :rolleyes:
Gute Karte, viel zu teuer. Von einem "Fail" kann da nicht ansatzweise die Rede sein.

cR@b
2013-02-21, 18:21:45
@PCGH

Also muss sagen echt geniales Review! Meine Frage von gestern bezüglich Sommertemps ist damit beantwortet. Es ist überwiegend so, dass dann der Boost wegfällt.
Kann man den Boost also wieder abstellen und einen festen OC Wert einstellen wenn ich das richtig sehe? Dann wäre das wieder i.O. aber so...
Achja wie weit ging euer max. dyn. Boost eigenbtlich so?
Ich mag die Boosttechnik einfach nicht! Ist mir zu schwammig :rolleyes:

PCGH_Carsten
2013-02-21, 18:26:14
Ich versteh bloss nicht warum bei einem derartigen Leistungsmonster bei steigender Pixellast der Abstand zur HD7970GE schrumpft. In 2560 mit höchsten Details ist lt. Hardware.fr die AMD Karte näher bei der Titan als bei der 680:

[/URL][URL]http://www.abload.de/img/img00405748bpyh.gif (http://www.abload.de/image.php?img=img00405748bpyh.gif)

www.hardware.fr/articles/887-27/recapitulatif-performances.html (http://www.hardware.fr/articles/887-27/recapitulatif-performances.html)

33,48 zu 32 GPix/s. Füllrate ist immer noch wichtig. Zumindest wäre das eine für mich naheliegende Erklärung.

Uebrigens da es vielleicht sein kann dass es die Herren von PCGH nicht im Speku-forum sehen da der GK110 thread dort geschlossen wurde:

Herzlichen Glueckwunsch fuer den ausgezeichneten review.
@PCGH

Also muss sagen echt geniales Review! Meine Frage von gestern bezüglich Sommertemps ist damit beantwortet. Es ist überwiegend so, dass dann der Boost wegfällt.

Danke! :)

Godmode
2013-02-21, 18:27:17
Ich scheine andere Reviews zu sehen als der Rest. Wobei der Rest unüberraschenderweise auch wieder aus den üblichen Verdächtigen besteht :rolleyes:
Gute Karte, viel zu teuer. Von einem "Fail" kann da nicht ansatzweise die Rede sein.

Wenn das Ding 550-600 kosten würde, würde auch niemand meckern. Aber so?

Ailuros
2013-02-21, 18:27:46
Ich scheine andere Reviews zu sehen als der Rest. Wobei der Rest unüberraschenderweise auch wieder aus den üblichen Verdächtigen besteht :rolleyes:
Gute Karte, viel zu teuer. Von einem "Fail" kann da nicht ansatzweise die Rede sein.

Der Preis ist es eben der den ganzen Brei versauht.

Godmode
2013-02-21, 18:29:22
Der Preis ist es eben der den ganzen Brei versauht.

Wenn die Leistung passen würde, wäre mir der Preis sogar egal. Ein so winzige Leistungssteigerung ist dann selbst mir zu blöd.

Ailuros
2013-02-21, 18:29:32
Wenn das Ding 550-600 kosten würde, würde auch niemand meckern. Aber so?

Na da wuerde ich keine Wetten eingehen ;) Es ist aber so oder so sinnlos da die GPU ausser Reichweite fuer die Mehrzahl ist.

LSSJBroly
2013-02-21, 18:29:59
Der Preis ist es eben der den ganzen Brei versauht.

Aber so richtig... Gerade mal etwas um 20-30% schneller als die zweit schnellste Single-GPU, aber gleich 2,5x so teuer...:mad:

Iruwen
2013-02-21, 18:31:50
Die GTX 480 war ein Fail. Titan ist einfach schweineteuer.

cR@b
2013-02-21, 18:32:56
Denke wird aber trotzdem nicht der Endpreis sein. Hoffe in 2-3 Wochen sehen wir einen Preisdrop :D

Godmode
2013-02-21, 18:34:16
Die GTX 480 war ein Fail. Titan ist einfach schweineteuer.

Kann mich nicht mehr genau daran erinnern, nur das sie viel Strom brauchte und sehr laut war. Aber sie hat ordentlich Dampf gebracht.

http://www.computerbase.de/artikel/grafikkarten/2010/test-nvidia-geforce-gtx-480/21/

Denke wird aber trotzdem nicht der Endpreis sein. Hoffe in 2-3 Wochen sehen wir einen Preisdrop :D

Das denke ich auch, weil so viele Verrückte gibt es dann doch nicht, die für 35% Mehrleistung 200% mehr bezahlen

Dimon
2013-02-21, 18:34:36
Aber so richtig... Gerade mal etwas um 20-30% schneller als die zweit schnellste Single-GPU, aber gleich 2,5x so teuer...:mad:

In einigen einstellungen, wie in einigen reviews einige male mehr als doppelt so schnell wie die konkurrenz :freak:

M4xw0lf
2013-02-21, 18:34:57
Die GTX 480 war ein Fail. Titan ist einfach schweineteuer.

Ab einem gewissen Preis/Leistungs-Verhältnis (Unverhältnis vielmehr) wird aber wohl sogar der Toleranzbereich von Enthusiasten überschritten ;)

LSSJBroly
2013-02-21, 18:41:59
In einigen einstellungen, wie in einigen reviews einige male mehr als doppelt so schnell wie die konkurrenz :freak:

Und wo bitte?
Ich rede vom Durchschnitt.

Ab einem gewissen Preis/Leistungs-Verhältnis (Unverhältnis vielmehr) wird aber wohl sogar der Toleranzbereich von Enthusiasten überschritten ;)
Sehe ich auch so. Spätestens seit der 680 dürfte das der Fall sein, indem man ne Performance-GPU als High-End vermarktet hat...


Das ist auch geil:
http://www.pcgameshardware.de/Geforce-Titan-Hardware-256920/Specials/Geforce-Titan-Interview-mit-Nvidia-1056822/
Lars Weinand, Nvidia: Da besteht für uns kein direkter Zusammenhang. Die GTX Titan ist in einem ganz anderen Segment angesiedelt als die GTX 680, die ein unserer Meinung nach herausragendes Preis-/Leistungsverhältnis besitzt.
Ich glaube, Nvidia ist einfach nur noch größenwahnsinnig geworden. Soetwas hat man echt selten gelesen...

Ailuros
2013-02-21, 18:42:22
Wenn die Leistung passen würde, wäre mir der Preis sogar egal. Ein so winzige Leistungssteigerung ist dann selbst mir zu blöd.

Wenn sich der Staub erstmal setzt und NV noch etwas an den Treibern dreht koennte sich der erste Eindruck schon etwas verbessern. Das soll jetzt kein Trost sein, denn ich werde den Verdacht eben nicht los dass die Titan Treiber nicht zu 100% ausgebuegelt sind und bei einem so teuren Produkt hab ich zich Mal weniger Nachsicht. Titan ist von allen Ecken eine Frechheit mit dem MSRP.

Ich wuerde nicht denken dass jemand wie Du nicht beim G80 launch aktiv dabei war. War die Leistung in allen Faellen so wie sein sollte und gab es keinen einzelnen Schimmer an Meckerei dass die 8800GTX nicht besonders viel schneller ist als R580? Haben sie auch nicht damals heftig mit Leistungs-treibern nachgeschoben? Oder gab es keine Beschwerden was den Stromverbrauch betrifft? Nun gut G80 war auch ein Einzelfall, aber nuechtern betrachtet ist ein Titan im Vergleich zu einer GTX580 schon ein anstaendiger upgrade wenn der Preis nur nicht so verrueckt hoch waere.

Nebenbei ist Kyle@HardOCPs These interessant dass NV nie eine desktop GK110 plante, sie glaubten dass AMD Curacao frueher auftischt und wollten mit GK110 reagieren. Zu 100% bullshit, und da sie schon vor Ausklang von 2012 wussten dass von AMD nichts mehr in H1 2012 kommt, haetten sie ihren Plan auch zurueckziehen koennen und die paar GK110 chips fuer Quadros bzw. HPC verkauft.

Hugo78
2013-02-21, 18:42:32
Man kann sich über den Preis eines 950€ teuren Männer/Papa-Spielzeugs echauffieren,
nur in einer Welt in der sogar bald jeder zweite Student ein (unnötig)teures MacBook hat wird es nichts nützen.
Titan wird sich gut verkaufen, egal ob als Spielzeug für Papa, oder gar als "budget Quadro".

cR@b
2013-02-21, 18:43:52
Ich hab die 8800 Ultra ausgesetzt, ich hab die GTX 285 ausgesetzt, ich hab die GTX 580 ausgesetzt und ich hätte sicherlich keine Probleme auch einen Titan auszusetzen... falls der Preis sich tatsächlich kaum bis garnicht ändern sollte.

Theoretisch kaufen könnte ich mir Titanen von der Anzahl im zweistelligen Bereich aber der Verstand hat mich da glücklicherweise fest im Griff!

M4xw0lf
2013-02-21, 18:44:34
Man kann sich über den Preis eines 950€ teuren Männer/Papa-Spielzeugs echauffieren,
nur in einer Welt in der sogar bald jeder zweite Student ein (unnötig)teures MacBook hat wird es nichts nützen.
Titan wird sich gut verkaufen, egal ob als Spielzeug für Papa, oder gar als "budget Quadro".
Ich sitze hier an meinem preiswerten Lenovo Ideapad :tongue:

Ailuros
2013-02-21, 18:50:19
Man kann sich über den Preis eines 950€ teuren Männer/Papa-Spielzeugs echauffieren,
nur in einer Welt in der sogar bald jeder zweite Student ein (unnötig)teures MacBook hat wird es nichts nützen.
Titan wird sich gut verkaufen, egal ob als Spielzeug für Papa, oder gar als "budget Quadro".

Je hoeher der Preis desto kleiner das Volumen; dafuer gibt es keinen Ausweg. Und wenn NV vorhat mit den hohen Margen so weiter zu machen koennte es verdammt gefaehrlich werden. Noch mal: was NV an Volumen bei standalone GPUs insgesamt verliert, gewinnen sie bis jetzt keineswegs an Volumen mit ihren Tegras dazu. Und das daemliche ist eben dass die Entwicklungskosten fuer SoCs ohnehin schon daemlich hoch sind und auch in absehbarer Zukunft noch brutaler dazuwachsen werden.

Ich bin zwar der wirklich allerletzte der sich eine Welt ohne einen GPU IHV wie NVIDIA wuenschen wuerde, aber ein ziemlich hohes Risiko gehen sie schon ein. Wenn alles nach Plan laeuft dann haben sie natuerlich doppelt so viel dazugewonnen; im Gegenfall wird's verdammt weh tun.

LSSJBroly
2013-02-21, 18:52:17
Wenn alles nach Plan laeuft dann haben sie natuerlich doppelt so viel dazugewonnen; im Gegenfall wird's verdammt weh tun.

Da könnte man ja fast schon hoffen, dass Fall zwei eintreten würde:freak:

Ailuros
2013-02-21, 19:01:06
Da könnte man ja fast schon hoffen, dass Fall zwei eintreten würde:freak:

Bis irgendwo Herbst 2012 dachte ich selber dass sie wirklich einen verdammt guten Plan haben; aber ich erhoffte mir auch dummerweise dass sie vorhaben die 28nm GPU Preise ernsthaft zu reduzieren da die Kapazitaeten bei TSMC fuer 28nm seit Q3 12' gesteigert haben und auch die Herstellung um einiges billiger geworden ist seit Anfang 12'. Somit haetten sie auch anstaendigere Volumen insgesamt verkauft.

Diese Masche wir verkaufen teuer aber weniger klingt auf laengere Zeit bezogen nicht als die beste Loesung.

Godmode
2013-02-21, 19:01:06
Wenn sich der Staub erstmal setzt und NV noch etwas an den Treibern dreht koennte sich der erste Eindruck schon etwas verbessern. Das soll jetzt kein Trost sein, denn ich werde den Verdacht eben nicht los dass die Titan Treiber nicht zu 100% ausgebuegelt sind und bei einem so teuren Produkt hab ich zich Mal weniger Nachsicht. Titan ist von allen Ecken eine Frechheit mit dem MSRP.

Ich wuerde nicht denken dass jemand wie Du nicht beim G80 launch aktiv dabei war. War die Leistung in allen Faellen so wie sein sollte und gab es keinen einzelnen Schimmer an Meckerei dass die 8800GTX nicht besonders viel schneller ist als R580? Haben sie auch nicht damals heftig mit Leistungs-treibern nachgeschoben? Oder gab es keine Beschwerden was den Stromverbrauch betrifft? Nun gut G80 war auch ein Einzelfall, aber nuechtern betrachtet ist ein Titan im Vergleich zu einer GTX580 schon ein anstaendiger upgrade wenn der Preis nur nicht so verrueckt hoch waere.

Nebenbei ist Kyle@HardOCPs These interessant dass NV nie eine desktop GK110 plante, sie glaubten dass AMD Curacao frueher auftischt und wollten mit GK110 reagieren. Zu 100% bullshit, und da sie schon vor Ausklang von 2012 wussten dass von AMD nichts mehr in H1 2012 kommt, haetten sie ihren Plan auch zurueckziehen koennen und die paar GK110 chips fuer Quadros bzw. HPC verkauft.

Ja da hast du wohl recht. Das Problem ist halt, man vergleicht mit einer 680 und nicht mit einer 580. Ja auch beim G80 Launch gab es sicher Punkte wo man gemeckert hat, aber alles auf sehr hohem Niveau. Im Prinzip braucht die Karte eine Wakü, damit sie richtig abgeht. Hab jetzt das CB-Review nochmal in Ruhe studiert und da kommt sie schon auf 45-50% zur 680 mit Max Boost. Keine Ahnung was da dann noch durch Ocing geht, oder ob das schon das Maximum ist.

Je hoeher der Preis desto kleiner das Volumen; dafuer gibt es keinen Ausweg. Und wenn NV vorhat mit den hohen Margen so weiter zu machen koennte es verdammt gefaehrlich werden. Noch mal: was NV an Volumen bei standalone GPUs insgesamt verliert, gewinnen sie bis jetzt keineswegs an Volumen mit ihren Tegras dazu. Und das daemliche ist eben dass die Entwicklungskosten fuer SoCs ohnehin schon daemlich hoch sind und auch in absehbarer Zukunft noch brutaler dazuwachsen werden.

Ich bin zwar der wirklich allerletzte der sich eine Welt ohne einen GPU IHV wie NVIDIA wuenschen wuerde, aber ein ziemlich hohes Risiko gehen sie schon ein. Wenn alles nach Plan laeuft dann haben sie natuerlich doppelt so viel dazugewonnen; im Gegenfall wird's verdammt weh tun.

Wenn du mich fragst sind sie die größten Trottel die rumlaufen. Mit so einer Strategie kann man langfristig nur einfahren. IMO denken sie aber so: jetzt ne 40% bessere Karte verkaufen und in einem Jahr wieder eine mit 40-50%. Es stimmt schon, wenn jetzt die Überkarte verkauft hätten, wäre die Kunden lange darauf sitzen geblieben. Wenn Crossfire nicht so ein großer Schrott Mysterium wäre, würde ich sofort 4 Stück Ghz Editionen bestellen...

OC_Burner
2013-02-21, 19:02:00
Lustig das neue Feature für Display-Overclocking. Ich sehe schon die ersten fehlerhaften Kompatibilitätslisten in denen Monitore angepriesen werden die mit mehr als 60hz umgehen können. Tatsächlich wird es aber wohl so einige Monitore geben die zwar mit mehr als 60hz laufen können, keinesfalls aber auch genauso viele Bilder darstellen. In Wirklichkeit werden Bilder dann einfach ausgelassen.;D

LSSJBroly
2013-02-21, 19:07:04
Hab jetzt das CB-Review nochmal in Ruhe studiert und da kommt sie schon auf 45-50% zur 680 mit Max Boost.

Naja, der standardwert ist viel entscheidender - da schließlich eben stock vs stock verglichen wird. Und da kommen eben oft nur 30- bax. 40% raus. Aber zum glück sind wir uns einig. Nvidia will uns wohl einfach nur verarschen. Was anderes lässt sich bei solchen Preisen auch gar nicht zu erklären.

Ailuros
2013-02-21, 19:08:31
Ja da hast du wohl recht. Das Problem ist halt, man vergleicht mit einer 680 und nicht mit einer 580. Ja auch beim G80 Launch gab es sicher Punkte wo man gemeckert hat, aber alles auf sehr hohem Niveau. Im Prinzip braucht die Karte eine Wakü, damit sie richtig abgeht. Hab jetzt das CB-Review nochmal in Ruhe studiert und da kommt sie schon auf 45-50% zur 680 mit Max Boost. Keine Ahnung was da dann noch durch Ocing geht, oder ob das schon das Maximum ist.

Du scheinst aber auch zu vergessen dass Titan lediglich eher der Produktions-"Abfall" von HPC wafer runs am Ende ist. Bei theoretischem Vollausbau und 10% mehr Takt wuerde das Ding nochmal um 15% besser dastehen, aber da sie wissen dass sich Titan auch so in begrenzten Mengen verkaufen kann behalten sie wohl die Trumpfkarte fuer spaeter als eine Antwort fuer Curacao. Und nein es haetten eben nicht viele gemeckert wenn der TDP bei sagen wir mal 260+W gewesen waere im Notfall.

HarryHirsch
2013-02-21, 19:10:05
Das ist auch geil:
http://www.pcgameshardware.de/Geforce-Titan-Hardware-256920/Specials/Geforce-Titan-Interview-mit-Nvidia-1056822/

Lars Weinand, Nvidia: Da besteht für uns kein direkter Zusammenhang. Die GTX Titan ist in einem ganz anderen Segment angesiedelt als die GTX 680, die ein unserer Meinung nach herausragendes Preis-/Leistungsverhältnis besitzt.

Ich glaube, Nvidia ist einfach nur noch größenwahnsinnig geworden. Soetwas hat man echt selten gelesen...

das ist echt die härte. wenn es nicht so weh tun würde würde ich wahrscheinlich heulen vor lachen.

LSSJBroly
2013-02-21, 19:11:28
das ist echt die härte. wenn es nicht so weh tun würde würde ich wahrscheinlich heulen vor lachen.

Jup. Soviel lächerlichkeit, da kann man eigentlich nur sauer werden...

Godmode
2013-02-21, 19:12:12
das ist echt die härte. wenn es nicht so weh tun würde würde ich wahrscheinlich heulen vor lachen.

Was willst vom Lars auch erwarten, ist halt ein Marketing Depp, der irgendwas positives übers Produkt sagen muss, dafür wird er auch bezahlt.

Naja, der standardwert ist viel entscheidender - da schließlich eben stock vs stock verglichen wird. Und da kommen eben oft nur 30- bax. 40% raus. Aber zum glück sind wir uns einig. Nvidia will uns wohl einfach nur verarschen. Was anderes lässt sich bei solchen Preisen auch gar nicht zu erklären.

Naja aber wenn die Temps passen, sollte Boost Max doch erreicht werden, meinst nicht? Das sollte auf jeden Fall genauer untersucht werden.

Du scheinst aber auch zu vergessen dass Titan lediglich eher der Produktions-"Abfall" von HPC wafer runs am Ende ist. Bei theoretischem Vollausbau und 10% mehr Takt wuerde das Ding nochmal um 15% besser dastehen, aber da sie wissen dass sich Titan auch so in begrenzten Mengen verkaufen kann behalten sie wohl die Trumpfkarte fuer spaeter als eine Antwort fuer Curacao. Und nein es haetten eben nicht viele gemeckert wenn der TDP bei sagen wir mal 260+W gewesen waere im Notfall.

Ja natürlich, genau sowas hätte ich mir gewünscht. Von mir aus auch mit 350W oder so.

Ailuros
2013-02-21, 19:14:47
Was willst vom Lars auch erwarten, ist halt ein Marketing Depp, der irgendwas positives übers Produkt sagen muss, dafür wird er auch bezahlt.

Lars ist kein Depp; es ist nur sein Job der total beschissen ist.

Godmode
2013-02-21, 19:15:37
Lars ist kein Depp; es ist nur sein Job der total beschissen ist.

Das war nicht auf seine Person bezogen sondern auf seinen Job. Finde ihn sonst recht nett und sympatisch.

(del676)
2013-02-21, 19:16:49
Die wichtigste Frage, bekommt man auch noch Items im """Wert""" von 450 Euro fuer F2P Games dazu? :rolleyes: :lol:

Schaffe89
2013-02-21, 19:17:38
Die HD 8970 wird den Preis der Titan ad absurdum führen, spätestens Q4 ist die Karte nur 400 bis 500 Euro wert, vielleicht sogar weniger.

Die 25 Mehrleistung wird selbst AMD aus der Karte pressen.

Vll kommt ja noch eine HD 7980 Zeus, mit 1200/1600, würde Nvidia schon etwas in die Suppe spucken. :D

Godmode
2013-02-21, 19:18:18
Die wichtigste Frage, bekommt man auch noch Items im """Wert""" von 450 Euro fuer F2P Games dazu? :rolleyes: :lol:

Das denke ich nicht, wenn sie sogar den Magnesium Rahmen durch Alu ersetzen. Kostet ja schließlich alles viel Geld und muss positiven Deckungsbeitrag haben. :facepalm:

Die HD 8970 wird den Preis der Titan ad absurdum führen, spätestens Q4 ist die Karte nur 400 bis 500 Euro wert, vielleicht sogar weniger.

Die 25 Mehrleistung wird selbst AMD aus der Karte pressen.

Bringt aber nichts, da die Karte erst Q4 kommt. Solange können sie sich diesen absurden Preis erlauben. Ich hoffe echt das Teil bleibt liegen wie ein Ziegel.

Sunrise
2013-02-21, 19:23:42
Das denke ich auch, weil so viele Verrückte gibt es dann doch nicht, die für 35% Mehrleistung 200% mehr bezahlen
Ich hoffe, NV wird/ist das bewusst. Hoffen wir mal, dass die auf Bergen davon liegen bleiben. Wenn schon die Enthusiasten hier im Forum zu NEIN tendieren, dann gäbe mir das zu denken.

Godmode
2013-02-21, 19:25:32
Kann mir wer beantworten, was passiert, wenn ich den Lüfter auf zb. 90% stelle? Erhalte ich dann einen besser Boost Takt?

Ich hoffe, NV wird/ist das bewusst. Hoffen wir mal, dass die auf Bergen davon liegen bleiben. Wenn schon die Enthusiasten hier im Forum zu NEIN tendieren, dann gäbe mir das zu denken.

Es wird ihnen egal sein, da die Karte ein Nischenprodukt ist und nicht wesentlich zum Umsatz beiträgt.

cR@b
2013-02-21, 19:27:14
Besser vermutlich nicht aber garantiert länger.

Was mich interessiert was die Karte in der kompletten Herstellung kostet. Bin mir fast schon 100% sicher, dass da noch was geht am Preis und nV trotzdem Kohle machen kann.

Cubitus
2013-02-21, 19:29:16
Also ich werde auch nicht kaufen...
Da ich aber ein Ersatz für meine 690er brauche, werde ich zu 2x680er inklusive 4GB pro Karte greifen und fertig. Also ich bin schon ein wenig enttäuscht. 1900 Euro ists mir dann doch ned Wert ^^.
Wenn die Karte einen Vollausbau hätte, und Boost 2.0 nicht so "mies" wäre, hätte ich zugegriffen aber so ne sorry Nvidia sucht euch einen Anderen..

Und das Interview schießt den Vogel ab...

Sunrise
2013-02-21, 19:31:21
Es wird ihnen egal sein, da die Karte ein Nischenprodukt ist und nicht wesentlich zum Umsatz beiträgt.
Zu diesem Preis sicher nicht. Die 10.000 GPUs kannst du aber auch auf anderen Karten (K20/K20X, Quadro) mit wesentlich besseren Margen/höheren Preisen verbauen und du bekommst sie evtl. an einen/mehrere große Kunden los. Ich glaube kaum, dass NV gerne ihre GPUs vergammeln lässt, wenn es nicht sein muss. Evtl. ist der Preis im Moment auch nur so hoch, weil NV die Nachfrage gerne abschätzen möchte (gibt ohnehin aktuell keine Konkurrenz) und ein hoher Preis bei "nur" 10.000 Karten sorgt zumindest mal dafür, dass die ne Weile reichen.

Ailuros
2013-02-21, 19:36:29
Zu diesem Preis sicher nicht. Die 10.000 GPUs kannst du aber auch auf anderen Karten (K20/K20X) mit wesentlich besseren Margen/höheren Preisen verbauen und du bekommst sie evtl. an einen/mehrere große Kunden los. Ich glaube kaum, dass NV gerne ihre GPUs vergammeln lässt, wenn es nicht sein muss. Evtl. ist der Preis im Moment auch nur so hoch, weil NV die Nachfrage gerne abschätzen möchte und ein hoher Preis bei "nur" 10.000 Karten sorgt zumindest mal dafür, dass die ne Weile reichen.

Ich bezweifle dass NV das mickrige Volumen an Titans nicht verkaufen wird. Im Gegenfall ist es dann auch nicht so leicht den Preis schlagartig zu normalisieren denn dann blamieren sie sich auch ziemlich schoen und des wird dann eben verdammt klar wie hoch die Gewinn-margen wirklich sind.

Raff
2013-02-21, 19:36:38
Die HD 8970 wird den Preis der Titan ad absurdum führen, spätestens Q4 ist die Karte nur 400 bis 500 Euro wert, vielleicht sogar weniger.

Die 25 Mehrleistung wird selbst AMD aus der Karte pressen.

Vll kommt ja noch eine HD 7980 Zeus, mit 1200/1600, würde Nvidia schon etwas in die Suppe spucken. :D

Eine HD 7970 @ 1,2 GHz ist nur in Ausnahmefällen so schnell wie der junge Titan. Um dem GK110 ernsthaft zu begegnen, bräucht's 1,4 GHz – und das kannst du knicken. Ein Tahiti-Verschnitt mit 2.560 ALUs @ 1,2 GHz hingegen könnte es richten.

MfG,
Raff

Godmode
2013-02-21, 19:38:08
Zu diesem Preis sicher nicht. Die 10.000 GPUs kannst du aber auch auf anderen Karten (K20/K20X, Quadro) mit wesentlich besseren Margen/höheren Preisen verbauen und du bekommst sie evtl. an einen/mehrere große Kunden los. Ich glaube kaum, dass NV gerne ihre GPUs vergammeln lässt, wenn es nicht sein muss. Evtl. ist der Preis im Moment auch nur so hoch, weil NV die Nachfrage gerne abschätzen möchte (gibt ohnehin aktuell keine Konkurrenz) und ein hoher Preis bei "nur" 10.000 Karten sorgt zumindest mal dafür, dass die ne Weile reichen.

Das mit den nur 10k Karten wurden schon längst von Nvidia dementiert.

Effe
2013-02-21, 19:38:34
Vll kommt ja noch eine HD 7980 Zeus, mit 1200/1600, würde Nvidia schon etwas in die Suppe spucken. :D
2XPitcairn zusammenpappen, auf 1,3Ghz hochprügeln und Sputnik nennen. Das sollte Schock genug sein.

Godmode
2013-02-21, 19:39:38
Eine HD 7970 @ 1,2 GHz ist nur in Ausnahmefällen so schnell wie der junge Titan. Um dem GK110 ernsthaft zu begegnen, bräucht's 1,4 GHz – und das kannst du knicken. Ein Tahiti-Verschnitt mit 2.560 ALUs @ 1,2 GHz hingegen könnte es richten.

MfG,
Raff

Würdest du eine Titan kaufen wenn dir das Geld egal wäre?

btw: Netter Test, freue mich schon auf das Heft. Was noch interessant gewesen wäre, wäre 38*21 mi 8xAA statt 4xAA.

cR@b
2013-02-21, 19:39:42
Zu diesem Preis sicher nicht. Die 10.000 GPUs kannst du aber auch auf anderen Karten (K20/K20X, Quadro) mit wesentlich besseren Margen/höheren Preisen verbauen und du bekommst sie evtl. an einen/mehrere große Kunden los. Ich glaube kaum, dass NV gerne ihre GPUs vergammeln lässt, wenn es nicht sein muss. Evtl. ist der Preis im Moment auch nur so hoch, weil NV die Nachfrage gerne abschätzen möchte (gibt ohnehin aktuell keine Konkurrenz) und ein hoher Preis bei "nur" 10.000 Karten sorgt zumindest mal dafür, dass die ne Weile reichen.

Das klingt logisch aber Freunde machen sie sich mit dem Preis trotzdem nicht. Wenn ich eine GTX690 und deren Preis sehe, dann passt das einfach zusammen und ich finde alles ok aber hey das Ding ist wenn man es genauer betrachtet einfach keine 950€ Wert und gehört irgendwo zwischen GTX690 und 680 preislich platziert.

boxleitnerb
2013-02-21, 19:40:30
Im Grunde hätte Nvidia das Temptarget auf 94° setzen und/oder die Lüfterkurve verschieben sollen. So hätte die Karte auch in allen Reviews schön auf 950+ MHz getaktet und wäre halt etwas wärmer und/oder lauter geworden.

Raff
2013-02-21, 19:40:38
Würdest du eine Titan kaufen wenn dir das Geld egal wäre?

Klar, die Kiste ist in so gut wie jeder Hinsicht besser als (m)eine HD 7970. Ich unterstütze Gier aber nicht. ;) Erschwerend kommt hinzu, dass ich mit meiner GPU gerade sehr zufrieden bin. :)

MfG,
Raff

Sunrise
2013-02-21, 19:42:24
Das mit den nur 10k Karten wurden schon längst von Nvidia dementiert.
Ja? Danke für die Info, das habe ich nicht mitbekommen.

cR@b
2013-02-21, 19:42:31
Ich bezweifle dass NV das mickrige Volumen an Titans nicht verkaufen wird. Im Gegenfall ist es dann auch nicht so leicht den Preis schlagartig zu normalisieren denn dann blamieren sie sich auch ziemlich schoen und des wird dann eben verdammt klar wie hoch die Gewinn-margen wirklich sind.

Ging doch bei der GTX 280 auch :D Ich bin damals voll reingefallen... auch wenn ich beim Verkauf dann wenigstens noch 200€ dafür bekommen habe (zu 480er Release) :rolleyes:

Godmode
2013-02-21, 19:44:18
Klar, die Kiste ist in so gut wie jeder Hinsicht besser als (m)eine HD 7970. Ich unterstütze Gier aber nicht.

MfG,
Raff

Ok, dann haben wir das selbe Problem. :)
Monetär könnte ich 4 kaufen, ohne das ich jetzt ne Niere verkaufen müsste. Aber so eine Preispolitik will ich nicht unterstützen, auch wenn es mich stark jucken würde, sofort irgendwo zu bestellen. ;D

Ailuros
2013-02-21, 19:45:04
Ich unterstütze Gier aber nicht. ;)


:love:

MadManniMan
2013-02-21, 19:46:22
Lars ist kein Depp; es ist nur sein Job der total beschissen ist.

Da würde mich mal interessieren, ob Borsti den Wechsel zur dunklen Seite der Macht bereut :D

Godmode
2013-02-21, 19:50:14
btw. neuer Poll:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=539116

Ailuros
2013-02-21, 19:52:09
Da würde mich mal interessieren, ob Borsti den Wechsel zur dunklen Seite der Macht bereut :D

Du wuerdest es verdammt schwer haben einen Job bei NVIDIA zu bereuen.

M4xw0lf
2013-02-21, 19:56:42
Das mit den nur 10k Karten wurden schon längst von Nvidia dementiert.
Sie sagen die ganze Zeit, dass die Verfügbarkeit gegeben sein wird - aber bei den wenigen Käufern heißt das alles und nichts.

Godmode
2013-02-21, 19:57:12
Um nochmal zurück zum Preis zu kommen: Ich hab letztes Jahr zwei GTX 690 für je 1.000 € gekauft, das war es mir Wert. Wenn sie jetzt ein gutes Angebot gemacht hätten, hätte ich wieder zugeschlagen und hätte mir 3 Karten um zb. je 700 € gekauft. So wie es jetzt ist, machen sie gar kein Geld mit mir. So veräppelt man die Whales, falls jemand diesen Ausdruck von Social Game Monetarisierung kennt.

LSSJBroly
2013-02-21, 20:05:17
Um nochmal zurück zum Preis zu kommen: Ich hab letztes Jahr zwei GTX 690 für je 1.000 € gekauft, das war es mir Wert.

Naja, ne 690 bietet meistens auch rund 80-95% mehr Leistung als ne GTX 680 (welche damals auch rund 500-550€ gekostet hat) -> Also billiger als SLI, weniger MR, kühler, weniger Verbrauch... Von daher war das P/L verhältnis nicht viels chlechter als bei der 680, bzw. ziehmlich ähnlich. Titan schießt da aber einfach den Vogel ab.

ZipKaffee
2013-02-21, 20:11:26
Die Titan hat 7,1 Mrd Transistoren und die Radeon 7970 4,3 Mrd. Transistoren, da frage ich mich warun die Titan so verdammt gut ist bei der Leistungsaufnahme?! Selbst wenn man das Power Target und Temp Target hoch stellt.

dildo4u
2013-02-21, 20:20:32
Die Titan hat 7,1 Mrd Transistoren und die Radeon 7970 4,3 Mrd. Transistoren, da frage ich mich warun die Titan so verdammt gut ist bei der Leistungsaufnahme?! Selbst wenn man das Power Target und Temp Target hoch stellt.
Das sind zwar Abfall Chip's aber halt von 3000€ Tesla Karten,das Binning sollte deutlich strenger als bei den Gamer GPU's sein.

Marty98
2013-02-21, 20:24:49
naja das Boost verahlten ist definitiv unter jeder Sau und ihmo reines Cheating,wenn sich dann auch noch bewahrheitet das NV empfiehlt beim testen dem raum so kühl wie möglich zu halten ...

Das ist komplett erfunden. NVidia hat geschrieben dass am besten in einem Raum mit kontrollierter, also konstanter Temperatur gemessen werden sollte. Von kühl war weit und breit keine Rede.

Ailuros
2013-02-21, 20:28:48
Das sind zwar Abfall Chip's aber halt von 3000€ Tesla Karten,das Binning sollte deutlich strenger als bei den Gamer GPU's sein.

NV hat nie getrennte wafer runs fuer Quadros bzw. Teslas gemacht. Fuer Teslas werden die chips wohl schon ausgesucht, aber das beantwortet seine Frage auch nicht.

Wenn man auf einer Tesla K20X mit 732MHz einen TDP von 235W hat dann sollte ein 250W TDP bei 837MHz nicht besonders merkwuerdig erscheinen, ueberhaupt da die FP64 Einheiten um einiges an Strom verbrauchen. Interessant waere zu wissen was ein Titan gegen eine K20X mit FP64 in spezifischen Applikationen verbraucht. Mein Bauchgefuehl sagt mir dass es keine besondere Unterschiede geben wird wenn ueberhaupt.

Godmode
2013-02-21, 20:37:47
btw. anscheinend geht auch wieder 4-Way-SLI:
https://www.youtube.com/watch?feature=player_embedded&v=XDAA7KNoqec

MadManniMan
2013-02-21, 21:09:19
Du wuerdest es verdammt schwer haben einen Job bei NVIDIA zu bereuen.

Ich weeeeeiß nich, ich weeeeeiß nich ... es hat schon seine Gründe, warum ich aus dem Marketing meiner aktuellen Firma perspektivisch raus will :D

(del676)
2013-02-21, 21:35:27
btw. anscheinend geht auch wieder 4-Way-SLI:
https://www.youtube.com/watch?feature=player_embedded&v=XDAA7KNoqec

LOL

"play worlds most demanding games at highest blahblahblahblah" und dann zeigen sie Borderlands 2 :lol: :lol:

aufkrawall
2013-02-21, 21:41:28
LOL

"play worlds most demanding games at highest blahblahblahblah" und dann zeigen sie Borderlands 2 :lol: :lol:
Und? Das zieht im MP ganz schön, auch ohne PhysX.

(del676)
2013-02-21, 21:44:27
Hm, haett ich nie was gemerkt. Nie unter 60 fps gehabt.

Marty98
2013-02-21, 22:15:01
Ok, dann haben wir das selbe Problem. :)
Monetär könnte ich 4 kaufen, ohne das ich jetzt ne Niere verkaufen müsste. Aber so eine Preispolitik will ich nicht unterstützen, auch wenn es mich stark jucken würde, sofort irgendwo zu bestellen. ;D

Auf wie viel müsste der Preis fallen damit du zugreifst?

Fetza
2013-02-21, 22:18:37
Also ich finde die titan eigentlich jetzt weniger imposaunt bezüglich ihrer leistungsfähigkeit, als vielmehr bezüglich ihrer tdp und geräuschentwicklung. Im schnitt 30 bis 40% mehr leistung im vergleich zum volks-high-end finde ich bei den rohdaten hingegen unspektakulär.
Aber als leistungsfähige und leise single-gpu mit luftkühlung ist sie schon interessant!

Godmode
2013-02-21, 22:18:52
Auf wie viel müsste der Preis fallen damit du zugreifst?

700 habe ich angekreuzt, aber schwach werde ich wohl schon bei 800...
Gerade Crysis 3 gespielt und es stoned ziemlich, allerdings nervt das geflimmere und die Framerate.

Edit: Habe jetzt etwas rum gerechnet und es sieht nicht so schlecht aus.

3 Titan @ 950 € = 1400 € Kosten
3 Titan @ 800 € = 1040 € Kosten
3 Titan @ 700 € = 792 € Kosten

Dabei ist ein neues 250 € Netzteil inbegriffen und meine alten 690 rechne ich zusammen mit 1.400 Brutto.

Die Kosten sind Netto, da ich keine MWst bezahlen muss.

BigKid
2013-02-22, 00:07:12
700 habe ich angekreuzt, aber schwach werde ich wohl schon bei 800...
Gerade Crysis 3 gespielt und es stoned ziemlich, allerdings nervt das geflimmere und die Framerate.
Du spielst aktuell auf was ?
2 oder 4 sli ?

Ich war am überlegen ob ich mir jetzt eine zweite GTX670 ordere - aber deine Aussage bezüglich "geflimmerer" irritiert mich jetzt.

Godmode
2013-02-22, 00:14:33
Du spielst aktuell auf was ?
2 oder 4 sli ?

Ich war am überlegen ob ich mir jetzt eine zweite GTX670 ordere - aber deine Aussage bezüglich "geflimmerer" irritiert mich jetzt.

Momentan nur mit einer 690 also 2-Way SLI. Mit geflimmere bezog ich mich auf lästige Kanten und Shaderaliasing.

BigKid
2013-02-22, 00:21:55
Momentan nur mit einer 690 also 2-Way SLI. Mit geflimmere bezog ich mich auf lästige Kanten und Shaderaliasing.

Ok... Danke - also für mich quasi "entwarnung" :)
Karten scheinen so langsam bestellbar zu sein... Preis aber so abgehoben wie bekannt...
Nää... Ich werde es mit 670 2fach SLI versuchen... Ich hoffe dass mir das erstmal reicht...

Ich bin da eigentlich pflegeleicht und erst durch meinen neuen Monitor mit 2560x1440 sehe ich überhaupt erstmalig Bedarf für sowas...

BesenWesen
2013-02-22, 02:33:53
Schön zu sehen, daß Nvidia die Eier und und Kohlen hat, so ein Nischenprodukt auf den Markt zu bringen. Wo von vielen schon (zum wiederholten mal) das Ende des Gaming-PCs daherorakelt wurde, kommt doch immer wieder High-End Kram, der zeigt, daß sich nicht alle Gamer mit Konsolen- oder gar Tablet- und Smartphone-Kram abspeisen lassen.
Ich werde mir dieses Ding niemals leisten können bzw. wollen, es sei denn, ich gewinne im Lotto :) Aber gut, daß es solche Produkte gibt!

dildo4u
2013-02-22, 02:44:50
NVIDIA GeForce GTX TITAN 6GB Live Review Recap - PC Perspective

http://youtu.be/qsuvlg8cuWA

Knuddelbearli
2013-02-22, 06:22:31
Es gab ja hier ein Bild wo die Titan gegenüber GTX 690 in Crysis 3 mit höher Auflösung zurückfällt

Könnte es nicht am Boost 2.0 liegen? je höher die GPU Last / das GPU Limit desto niedriger boostet sie. Da der Verbrauch höher ist und die Karte sich somit schneller erwärmt.

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9665530&postcount=27

mit Ausnahme von Skyrim sinkt der Unterschied zwischen fixierter Taktrate und Boost mit höherer Auflösung.

ZipKaffee
2013-02-22, 07:07:00
Ende das Jahres sehen wir die Titan als 780 wieder, hier und da ein paar kleinen Änderungen. Mit einem anständigen Preis von max 450 Euro.

horn 12
2013-02-22, 07:16:50
Rechne ich auch, zudem kommt in 2 Monaten das Frühlings,- und Sommerloch.
Dann im Herbst/ Spätherbst der schöne Refresh beider Konkurrenten AMD - NV !!

boxleitnerb
2013-02-22, 07:31:08
@PCGH:
Unter welchen Bedingungen habt ihr eigentlich die Leistungsaufnahme getestet?
Bei 28-Grad-Taktraten, bei 876MHz fix oder bei voller Boostentfaltung? Alle drei Werte wären für einen Vergleich interessant.

M4xw0lf
2013-02-22, 07:50:10
@PCGH:
Unter welchen Bedingungen habt ihr eigentlich die Leistungsaufnahme getestet?
Bei 28-Grad-Taktraten, bei 876MHz fix oder bei voller Boostentfaltung? Alle drei Werte wären für einen Vergleich interessant.

Ich vermute mal stark, das landet im Heft ;)

Ailuros
2013-02-22, 07:50:17
Ende das Jahres sehen wir die Titan als 780 wieder, hier und da ein paar kleinen Änderungen. Mit einem anständigen Preis von max 450 Euro.

So schoen wie es fuer manche von uns klingen mag, behalt ich meinen Optimismus erstmal bis sich so etwas bestaetigt. Ich hab keinen Bock auf weitere Enttaeuschungen.

------------------------------------------------------------------------------------------------------------------------

***edit: Ich hab das Gefuehl dass ich womoeglich wieder falsch gelegen habe bezueglich Kyles@HardOCP Kommentar. Es stellt sich nun heraus dass AMD marketing - bis zum Punkt wo es zur Presse raussickerte dass sie Curacao und co. spaeter angelegt haben - ueberall versicherten dass der launch Anfang 2013 kommen soll und dazu noch zu Leuten die ihnen auf persoenlichem Nivaeu vertrauten. Ich bezweifle dass AMD ihre Meinung so kurzfristig geaendert hat und es klingt wohl doch eher danach als ob AMD NV einfach mit Absicht auf die Palme getrieben hat. Erstens hat AMD nichts besonderes zu verlieren mit so einem brutalem MSRP fuer Titan und zweitens wissen sie schon mit absoluter Sicherheit wie GK110 desktop aussieht und koennen um zich Mal besser einschaetzen was NV damit genau anrichten kann.

Wenn's stimmt: 1:0 fuer AMD.

BigKid
2013-02-22, 08:10:01
Schön zu sehen, daß Nvidia die Eier und und Kohlen hat, so ein Nischenprodukt auf den Markt zu bringen. Wo von vielen schon (zum wiederholten mal) das Ende des Gaming-PCs daherorakelt wurde, kommt doch immer wieder High-End Kram, der zeigt, daß sich nicht alle Gamer mit Konsolen- oder gar Tablet- und Smartphone-Kram abspeisen lassen.
Ich werde mir dieses Ding niemals leisten können bzw. wollen, es sei denn, ich gewinne im Lotto :) Aber gut, daß es solche Produkte gibt!
Das wäre so wenn Titan tätsächlich etwas nie da gewesenes wäre und nicht einfach nur der richtig gut gewordene dicke Keppler.
So ist es einfach nur unverschämte Abzocke.
Die paar Euro mehr die die Karte in der Herstellung kosten dürfte rechtfertigen den Preis auf gar keinen Fall.
Es fehlt imho was - zB ne wirklich herausragende Kühlung. Das Ding mag zwar einen der besten Serienkühler haben - aber so wie ich das sehe wird er von den guten Customs immernoch geschlagen.

Und zu was PC Gamer bereit sind zeigt sich doch schon ab gtx670 Customs die zu Preisen > ganze Konsole verkauft werden...

PCGH_Carsten
2013-02-22, 08:44:22
@PCGH:
Unter welchen Bedingungen habt ihr eigentlich die Leistungsaufnahme getestet?
Bei 28-Grad-Taktraten, bei 876MHz fix oder bei voller Boostentfaltung? Alle drei Werte wären für einen Vergleich interessant.

Die Online-Werte bei Standard-Boost, also keine künstlichen Eingriffe, um Vergleichbarkeit zu den ansonsten ermittelten Werten zu haben.

Ich vermute mal stark, das landet im Heft ;)

Röschdösch!! :) Da haben wir auch mal mit OC und anderen Lasten gemessen.


***edit: Ich hab das Gefuehl dass ich womoeglich wieder falsch gelegen habe bezueglich Kyles@HardOCP Kommentar. Es stellt sich nun heraus dass AMD marketing - bis zum Punkt wo es zur Presse raussickerte dass sie Curacao und co. spaeter angelegt haben - ueberall versicherten dass der launch Anfang 2013 kommen soll und dazu noch zu Leuten die ihnen auf persoenlichem Nivaeu vertrauten. Ich bezweifle dass AMD ihre Meinung so kurzfristig geaendert hat und es klingt wohl doch eher danach als ob AMD NV einfach mit Absicht auf die Palme getrieben hat. Erstens hat AMD nichts besonderes zu verlieren mit so einem brutalem MSRP fuer Titan und zweitens wissen sie schon mit absoluter Sicherheit wie GK110 desktop aussieht und koennen um zich Mal besser einschaetzen was NV damit genau anrichten kann.

Wenn's stimmt: 1:0 fuer AMD.

Doch - AMD hat etwas zu verlieren und zwar etwas ziemlich wichtiges was du auch ansprichst: Vertrauen. Vertrauen wäre nur unwichtig, wenn man eh bald aus dem Markt aussteigen wollen würde - dann kann man's ruhig verspielen.

boxleitnerb
2013-02-22, 08:53:13
Danke. Dann geh ich wohl das Heft kaufen :D

Edit:
Gibts das auch Online?

Ailuros
2013-02-22, 09:14:54
Doch - AMD hat etwas zu verlieren und zwar etwas ziemlich wichtiges was du auch ansprichst: Vertrauen. Vertrauen wäre nur unwichtig, wenn man eh bald aus dem Markt aussteigen wollen würde - dann kann man's ruhig verspielen.

Da aber GPUs nicht AMD's Kerngeschaeft sind, waere der hypothetische "Schaden" bei einem Vertrauensverlust groesser. Denn wenn ich einer Firma nicht mehr trauen kann dann wohl als Firma insgesamt und nicht nur einer Sparte.

Es haengt davon ab wie viel davon stimmt und wie es AMD weiterhin behandeln wuerde. Angenommen ich werde von IHV X anfangs angelogen von einem ihrer Angestellten dem ich vertraue; am Anfang wird es mir sicher nicht schmecken, aber wenn im Lauf der Zeit eine anstaendige Erklaerung ankommt kann ich zumindest auch genug Verstaendnis dafuer finden.

Grestorn
2013-02-22, 09:16:52
GPUs sind nicht AMDs Kerngeschäft?!

Das wäre mir neu. AMD hat zwei Kerngeschäfte. Eines davon sind sicher GPUs. Insbesondere, wenn man sich deren Zahlen ansieht.

Raff
2013-02-22, 09:18:41
Neben den Vertrauen hat AMD noch etwas verloren: die Krone. Sowas färbt bekanntlich auf die kleineren Grafikkarten ab. Dennoch ist die GHz Edition ein schnelles, bezahlbares Teil.

MfG,
Raff

yamo
2013-02-22, 09:24:40
Neben den Vertrauen hat AMD noch etwas verloren: die Krone. Sowas färbt bekanntlich auf die kleineren Grafikkarten ab. Dennoch ist die GHz Edition ein schnelles, bezahlbares Teil.

MfG,
Raff

Nur schade, daß NV nicht die Treiber für AMD strickt. Dann hätte ich schon 7970 CFX:freak:
Kompliment für das wirklich gelungene Review an Euch. Freu mich schon auf das Heft.

MadManniMan
2013-02-22, 09:30:32
Neben den Vertrauen hat AMD noch etwas verloren: die Krone. Sowas färbt bekanntlich auf die kleineren Grafikkarten ab. Dennoch ist die GHz Edition ein schnelles, bezahlbares Teil.

Der sich hartnäckig haltende, niemals verifizierte Mythos schlechthin :D Hat das jemals jemand ernsthaft untersucht?

Ailuros
2013-02-22, 09:42:09
GPUs sind nicht AMDs Kerngeschäft?!

Das wäre mir neu. AMD hat zwei Kerngeschäfte. Eines davon sind sicher GPUs. Insbesondere, wenn man sich deren Zahlen ansieht.

Es war nicht so gemeint dass GPUs unwichtig sind fuer AMD. Der Punkt ist lediglich dass wenn man jegliches Vertrauen fuer einen wichtigen Anteil der Firma verliert, koennte sich kinderleicht der Vertrauensverlust auf die gesamte Firma erweitern.

M4xw0lf
2013-02-22, 09:43:33
Der sich hartnäckig haltende, niemals verifizierte Mythos schlechthin :D Hat das jemals jemand ernsthaft untersucht?
Es ist wohl eine ebenso gute Hypothese für Nvidias besseres Image wie alles andere.

Ailuros
2013-02-22, 09:46:06
Neben den Vertrauen hat AMD noch etwas verloren: die Krone. Sowas färbt bekanntlich auf die kleineren Grafikkarten ab. Dennoch ist die GHz Edition ein schnelles, bezahlbares Teil.

MfG,
Raff

Zugegeben bin ich wohl eine Ausnahme, aber fuer mich insgesamt hat Titan mein Bild fuer AMD's GPUs nicht negativ beinflusst sondern eher das Gegenteil. Dafuer brauch ich nichtmal die 7970GE in Betracht nehmen; eine stinknormale 7970 hat ein noch besseres Preis-/Leistungsverhaeltnis.

fondness
2013-02-22, 09:48:45
Zugegeben bin ich wohl eine Ausnahme, aber fuer mich insgesamt hat Titan mein Bild fuer AMD's GPUs nicht negativ beinflusst sondern eher das Gegenteil.

Ich glaube das bist du auch nicht die Ausnahme. Nach dem Titan-Launch sind in den Geizhals-Top10 bsw. die Radeon-Karte ziemlich nach oben geschossen: http://geizhals.at/de/?o=8

Ailuros
2013-02-22, 09:51:42
Ich glaube das bist du auch nicht die Ausnahme. Nach dem Titan-Launch sind in den Geizhals-Top10 bsw. die Radeon-Karte ziemlich nach oben geschossen: http://geizhals.at/de/?o=8

Da ich Geizhals nicht verfolge, wie hat es in etwa davor ausgesehen?

Dural
2013-02-22, 09:53:30
Titan könnte sogar eine gute OC karte sein, jedoch findet man im ganzen www leider nichts dazu.

immer nur standard müll, keiner mit alles max bei spannung und lüfter getestet?
die 1175MHz bei luxx sind jedenfalls schon mal gut, da dürfte mit den meisten karten unter wakü die 1,2GHz drin liegen.
zum vergleich, meine 690er macht auch gerade mal 1175MHz takt mit stock kühler.

fondness
2013-02-22, 09:58:54
Da ich Geizhals nicht verfolge, wie hat es in etwa davor ausgesehen?

Es war relativ ausgeglichen, mal die einen mal die anderen vorne. Aber das die erste 7 Plätze von AMD-Karten belegt waren habe ich noch nie so gesehen.

Dural
2013-02-22, 10:08:15
ja klar wie titan da etwas ausrichten könnte ;D

manche haben echt ne komische fantasie :rolleyes:

und ganz ehrlich, einer der eine AMD karte für 350.- kauft, würde sich auch nie einen titan für 600.- kaufen :P

Edit:

http://www.toppreise.ch/grp2_7.html

http://www.toppreise.ch/top100.html?cat=7

unter top produkte (fast) alles NV karten, die schweizer haben es halt in der tasche, nicht so wie die deutschen :wink:

Sunrise
2013-02-22, 10:14:31
Zugegeben bin ich wohl eine Ausnahme, aber fuer mich insgesamt hat Titan mein Bild fuer AMD's GPUs nicht negativ beinflusst sondern eher das Gegenteil. Dafuer brauch ich nichtmal die 7970GE in Betracht nehmen; eine stinknormale 7970 hat ein noch besseres Preis-/Leistungsverhaeltnis.
Wenn wir ehrlich sind, fing das eigentlich auch schon bei der 680er an. Titan schießt jetzt den Vogel ganz ab.

M4xw0lf
2013-02-22, 10:18:27
ja klar wie titan da etwas ausrichten könnte ;D

manche haben echt ne komische fantasie :rolleyes:

und ganz ehrlich, einer der eine AMD karte für 350.- kauft, würde sich auch nie einen titan für 600.- kaufen :P

Edit:

http://www.toppreise.ch/grp2_7.html

http://www.toppreise.ch/top100.html?cat=7

unter top produkte (fast) alles NV karten, die schweizer haben es halt in der tasche, nicht so wie die deutschen :wink:

Europaweit ist die Ares II ganz oben: http://geizhals.at/eu/?o=8

yamo
2013-02-22, 10:20:21
ja klar wie da titan etwas ausrichten könnte ;D

manche haben echt ne komische fantasie :rolleyes:

und gnaz ehrlich, einer der eine AMD karte für 350.- kauft, würde sich auch nie einen titan für 600.- kaufen :P

Warum? Das ist doch -sorry- Unsinn. Jetzt wissen wir um die Mehrleistung der Titan im Vergleich zur 7970 GE. Davon bekommt man 2 in der 6GiB Version für knapp 900 T€uronen. Die Leute sind auch nicht blöd und wenn CFX nicht so daneben wäre wie AMD´s Treiberentwicklung, wäre ich schon im roten Lager.
Selbst mit 2 evga 680 ultra HC käme ich leistungsmäßig besser weg, weil single Titan hohe Auflösungen mit entsprechendem SG/OGSSAA schlichtweg nicht stemmen kann.

Dural
2013-02-22, 10:27:56
frag mich echt was ihr erwartet habt, zwei karten im SLI / CF waren schon immer schneller als die schnellste single GPU, ich kann mich an keine einzige generation erinnern wo dies nicht der fall war.

der preis ist überteuert, das ist so. NV kann sich der preis aber offensichtlich leisten, den es ist die mit abstand beste Grafikkarte auf dem Markt.

Spasstiger
2013-02-22, 10:30:11
frag mich echt was ihr erwartet habt, zwei karten im SLI / CF waren schon immer schneller als die schnellste single GPU, ich kann mich an keine einzige generation erinnern wo dies nicht der fall war.
Zwei 8600 GTS waren langsamer als eine 8800 GTX. Und dazwischen gabs bis zum G92 und G94 nix mit kleinerem Chip als G80.

(del676)
2013-02-22, 10:30:18
War eigentlich frueher STANDARD.
Ein Voodoo 2 SLI war bestenfalls gleich schnell wie eine Voodoo3, aber eben oft auch weit abgeschlagen (Quake 3 z.b.)

Dural
2013-02-22, 10:33:28
Zwei 8600 GTS waren langsamer als eine 8800 GTX. Und dazwischen gabs bis zum G92 und G94 nix mit kleinerem Chip als G80.

G8x gilt meiner meinung nach nicht, den es gab da nie einen richtigen mainstream chip.


G71 (7900GT) im SLI schneller als 7900GTX (G71)

G92 im SLI schneller als GT200

GF104 im SLI schneller als 480

GF114 im SLI schneller als 580

1950 PRO im CF schneller als 1950XTX

:rolleyes:

Ailuros
2013-02-22, 10:34:47
ja klar wie titan da etwas ausrichten könnte ;D

Bleibt abzusehen wie die Verbraucher reagieren werden.

manche haben echt ne komische fantasie :rolleyes:

Es gibt Leser hier die Deine Fantasie noch komischer finden wuerden.

und ganz ehrlich, einer der eine AMD karte für 350.- kauft, würde sich auch nie einen titan für 600.- kaufen :P

Wenn der Leistungsabstand gering genug waere wohl schon; der Leistungsabstand ist groesser und Titan kostet auch nicht "nur" 600. Dein Punkt nochmal?


unter top produkte (fast) alles NV karten, die schweizer haben es halt in der tasche, nicht so wie die deutschen :wink:

Dann sollte NV das Ding nur in der Schweiz, Kuweit und Schweden verkaufen.


der preis ist überteuert, das ist so. NV kann sich der preis aber offensichtlich leisten, den es ist die mit abstand beste Grafikkarte auf dem Markt.

Sie waere NUR fuer NV's GIER schlechter wenn sie weniger kosten wuerde. Leisten kann sich jede Firma vieles; ob es nur positive Folgen haben wird bleibt abzusehen.

dildo4u
2013-02-22, 10:35:36
Es war relativ ausgeglichen, mal die einen mal die anderen vorne. Aber das die erste 7 Plätze von AMD-Karten belegt waren habe ich noch nie so gesehen.

Die AMD,s sind wegen der Spielebundels vorne sonst waren immer noch GTX 660/670 dabei.

Dural
2013-02-22, 10:37:06
Die AMD,s sind wegen der Spielebundels vorne sonst waren immer noch GTX 660/670 dabei.

sehe ich auch so.

einfach nur lächerlich zu sagen wegen Titan kaufen jetzt alle AMD, so ein blödsinn hoch 3 :rolleyes:

zudem die listung bei geizhals rein gar nichts über die tatsächlichen verkäufe sagen, nur so mal am rande bemerkt. :freak:

yamo
2013-02-22, 10:37:39
frag mich echt was ihr erwartet habt, zwei karten im SLI / CF waren schon immer schneller als die schnellste single GPU, ich kann mich an keine einzige generation erinnern wo dies nicht der fall war.

der preis ist überteuert, das ist so. NV kann sich der preis aber offensichtlich leisten, den es ist die mit abstand beste Grafikkarte auf dem Markt.

Mir geht´s nicht um "schneller", sondern um bessere BQ bei spielbaren fps und das liefert Titan nicht. Schneller bin ich wahrscheinlich sogar mit meinen 3 ollen Fermis. Für den Aufpreis bleiben die auch drin.
Für ne tolle Sig oder Bench á la cockus longus bin ich langsam zu alt:wink:

kunibätt
2013-02-22, 10:38:40
Defakto hat man jetzt als Poweruser nur ein Problem, wenn man eben kein SLI oder Crossfire möchte. Ansonsten wäre 2x 670 4gb eine recht schöne Kombo.

Dural
2013-02-22, 10:40:00
Mir geht´s nicht um "schneller", sondern um bessere BQ bei spielbaren fps und das liefert Titan nicht. Schneller bin ich wahrscheinlich sogar mit meinen 3 ollen Fermis. Für den Aufpreis bleiben die auch drin.
Für ne tolle Sig oder Bench á la cockus longus bin ich langsam zu alt:wink:

:confused:

bei welcher letzten High-End GPU hattest du den die bessere bildqualität gegenüber der Mainstream version? das musst du mir aber jetzt sagen :)

Ailuros
2013-02-22, 10:42:13
:confused:

bei welcher letzten High-End GPU hattest du den die bessere bildqualität gegenüber der Mainstream version? das musst du mir aber jetzt sagen :)

G80, G80 und G80 :P

Ätznatron
2013-02-22, 10:45:13
Die AMD,s sind wegen der Spielebundels vorne sonst waren immer noch GTX 660/670 dabei.

Hm, nVidia kontert das doch mit etwas ganz Besonderem:

http://www.nvidia.de/object/free-2-play-bundle-de.html

http://www.3dcenter.org/news/nvidia-kontert-mit-free-play-itembundle-fuer-kepler-grafikkarten

:biggrin:

yamo
2013-02-22, 10:57:36
:confused:

bei welcher letzten High-End GPU hattest du den die bessere bildqualität gegenüber der Mainstream version? das musst du mir aber jetzt sagen :)

Ich rechne jetzt mal die 470 SLI Wakü (heftich oc) mit dazu (480 zu teuer+zu heiß).->evga stepup auf 580 SLI. Davor hatte ich 280 SLI. Insgesamt waren die Steigerungen beachtlich. Letztes Jahr kam noch eine Evga 580 SC gebraucht hinzu. Bis auf den -mittlerweile- geringen Vram bin ich mit der Performance nicht unzufrieden. Dank SMAA lüppt auch Skyrim auf 2160p mit Mods, oder Far Cry 3 DX9 in 4k (mit fps limiter).
Titan bietet bei PCGH im worst case Crysis 3 bei 1600p min 31 - max. 36,5 an. Spielbar ist was anderes. Unter H2O mag das anders aussehen, aber 1k bzw. 2k.€ sind mir diese BQ Steigerungen wirklich nicht wert.
Fazit bleibt: SLI ist nur durch SLi zu ersetzen.
Leider

M4xw0lf
2013-02-22, 10:59:33
Hm, nVidia kontert das doch mit etwas ganz Besonderem:

http://www.nvidia.de/object/free-2-play-bundle-de.html

http://www.3dcenter.org/news/nvidia-kontert-mit-free-play-itembundle-fuer-kepler-grafikkarten

:biggrin:

Da hast du recht, das schlägt auch bombig ein! ;D
http://www.3dcenter.org/node/6716/results

dildo4u
2013-02-22, 11:24:07
Da hast du recht, das schlägt auch bombig ein! ;D
http://www.3dcenter.org/node/6716/results
Das hilft nur meinem Argument das die Karten nicht wegen der Hardware vorne sind.

Blediator16
2013-02-22, 11:29:10
Das hilft nur meinem Argument das die Karten nicht wegen der Hardware vorne sind.

Ist nicht schlimm AMD ist scheinbar auf dem besten Weg den schlechten Ruf abzulegen. Zumindest versuchen sie es :biggrin:

BigKid
2013-02-22, 11:31:05
Der Titan ist zu teuer und NV hat den Bogen auch bei mir überspannt.
Eigentlich sollte man geradezu zum Boykott aufrufen und auch die, die es sich leisten könnten sollten Bedenken: Wenn NV damit durchkommt, dann machen sies garantiert WIEDER...
Und VERSCHENKEN wollen doch wohl die wenigesten was ?

Pff... Habe jetzt drüber geschlafen und mir jetzt eine zweite GTX670 DC2 geholt und werde mein Glück mit SLI versuchen...

Sollte meine durch den neuen 27er mit 2560x1440 Pixeln (leicht) gestiegenen Bedürfnisse eigentlich befriedigen können...
Nur die 2GB könnten mir Ärger machen, aber so ist es halt jetzt...
Die erste Karte zu verkaufen und sich 2 mit 4GB zu kaufen - dann wäre ich wieder in Titanischen Preisregionen...

Nu hoffe ich bloß mal dass der Preis des Titanen nun nicht demnächst 100-200 Euro nachgiebt...


Das hilft nur meinem Argument das die Karten nicht wegen der Hardware vorne sind.
Also wegen des Treibers sind sies sicher auch nicht ;)
Das Never Settle ist ein gutes Argument und ein echter Mehrwert... Da muss sich NVidia echt mit seinem F2P billigheimer Bundle schämen imho...

kmf
2013-02-22, 12:18:44
Wenn sich diese unverschämte Preisgestaltung als Trend etabliert, dann gute Nacht ... :mad:

Aber extrem geiles Stück Hardware :D

Thunder99
2013-02-22, 12:19:38
Seit dem R600 hatte AMD keine GPU mehr die eine Chance hatte auf den Thron. Der R1000/Thaiti hat dies erstmalig geschafft, auch dank nvidias Politik.
Der Titan ist durch seinen Preis daher ein Nischenprodukt ohne "Familie" also ein Alleinstellungsprodukt. Das machts für AMD echt gut zu kontern :eek:

Kurzum, was AMD im CPU Geschäft aufgeben mussten konnten sie wieder im GPU Bereich realisieren. Die schnellste Single GPU (vor Titan) zu präsentieren. Daher steht AMD seit R600 besser da als jemals zuvor. Nvidia hat sich einfach selbst ins Bein geschossen mit ihrem Preis ;D

Btw, für unsere Wakü und SLI Freunde: http://www.computerbase.de/news/2013-02/ekwb-bringt-wasserkuehler-fuer-nvidia-geforce-gtx-titan/

Matrix316
2013-02-22, 12:21:22
Früher haben GeForce 2 Ultras auch mal eine Menge neu gekostet. Dafür kam dann die GeForce 2 Pro raus, die für den Mainstream war. http://www.tomshardware.de/mega-power-zum-mega-preis-die-elsa-gladiac-ultra,testberichte-227-9.html
Bei einem Preis von 1500 Mark muss der Spieleenthusiast tief in die Tasche greifen, selbst wenn man dafür eine Grafikkarte wie die Gladiac Ultra bekommt.

kunibätt
2013-02-22, 12:30:20
Wie man absolute Enthusiaten-Karten an den Mann bringt 101 und es beim Marketing reinregnet:

1.) Garantie bei Kühlerwechsel, egal bei welchem Hersteller:
Die anvisierte Zielgruppe wird mit an Sicherheit grenzender Wahrscheinlichkeit ohnehin einen AfterMarket-/Wasserkühler benutzen. Mal davon abgesehen, dass sich bei einer 950€- Karte dazu überhaupt die Notwendigkeit ergibt, bereitet der Verlust der Garantie selbst Enthusiasten ein großes Zaudern.
Eine Extreme Edition-CPU kriege ich schließlich auch ohne den Originalkühler weiterverkauft - empfinde dieses "Zurückfummeln" an Grafikkarten einfach antiquitiert.

2.) 6+8 ist nicht 16:
Nachdem man dann eigenständig für eine angemessene Kühlung gesorgt hat, macht dann das TDP-Limit zu. Ganz, klasse :rolleyes:
Schließlich muss man bei einer 950€-Karte ja unbedingt an den Spannungswandlern sparen. Macht lieber den Stock-Kühler billig, der kommt eh runter siehe Punkt 1.

3.) Dieser GPU-Boost ist eine Erfindung um Materialkosten zu sparen, sich kurzzeitig Leistung zu erschleichen und Übertaktern mit der strengen Hand an der Nase zu ziehen. Also nicht gut.

4.) 14 = Kein Problem
Ich persönlich sehe in dem fehlenden Cluster weit weniger ein Problem als andere.

Fazit: Wenn ich 950€ zahlen soll, dann lasst mich das Ding sezieren und mich richtig daran befriedigen. Und behaltet den Boost für Midrange-Karten. Danke.

Eure Uhrensohn

Sunrise
2013-02-22, 12:48:35
Wie man absolute Enthusiaten-Karten an den Mann bringt 101 und es beim Marketing reinregnet:
Wenn erste custom-designs rauskommen, sind viele Einwände allerdings evtl. beseitigt. Bleibt eben immer wieder der Preis als Haupt-Kritikpunkt.

Mit einem Arctic Extreme III z.B. wäre das Teil auch ohne Boost verdammt schnell, kühl, sparsam und vor allem flüsterleise (auch ohne Wakü).

Der Kühler ist einfach nichts Halbes und nichts Ganzes, bei so einem teuren Stück Hardware. Und dann gibt es ja noch die Aussage von NV, dass Sie beim Kühler beim Material gespart haben, weil es sonst zu teuer würde. Sorry, aber da hört es dann wirklich auf bei mir.

kunibätt
2013-02-22, 13:06:21
Gabs mal gescheite Karten mit einem AC3?
Hatte mal eine Galaxy GTX 275 mit einem Accelero, hatte aber keine Spawakühler, also war wieder Basteln und Garantieverlust angesagt.
Du weißt ja: Der Nerd ist der natürliche Feind der Garantie ;)

N0Thing
2013-02-22, 13:15:36
Neben den Vertrauen hat AMD noch etwas verloren: die Krone. Sowas färbt bekanntlich auf die kleineren Grafikkarten ab. Dennoch ist die GHz Edition ein schnelles, bezahlbares Teil.

MfG,
Raff

Wenn man es so sieht, könnte auf Nvidias andere Karten auch der Makel der überteuerten Preise abfärben. ;)

Sunrise
2013-02-22, 13:17:39
Gabs mal gescheite Karten mit einem AC3?
Hatte mal eine Galaxy GTX 275 mit einem Accelero, hatte aber keine Spawakühler, also war wieder Basteln und Garantieverlust angesagt.
Du weißt ja: Der Nerd ist der natürliche Feind der Garantie ;)
Ich glaub der Accelero Xtreme Plus II war der letzte, der serienmäßig verbaut wurde, z.B. auf meiner GTX 580 Anarchy oder der Sparkle Calibre (dort dreht er aber zu hoch ab Werk). Bin dermaßen glücklich mit dem Teil, ich will einfach nichts anderes mehr, außer es ist vergleichbar.

Ich hab meine Karte schon dermaßen gequält - das Teil steckt einfach alles weg und dreht lustig weiter bei 30% Lüfter. Und das bei völlig un-optimierter Front-Belüftung.

Und ja, die Garantie ist mir auch wichtig bei Preisen ab 400 EUR, daher der Kauf der Anarchy wo das Teil ab Werk verbaut war. Es gab mal nen Zack-Zack Angebot für um die 369 EUR für die Karte, das war der Sensationspreis schlechthin, hätte ich nicht schon eine gehabt...

Raff
2013-02-22, 13:19:40
Wenn man es so sieht, könnte auf Nvidias andere Karten auch der Makel der überteuerten Preise abfärben. ;)

Tut's offenbar nicht, denn die teure GTX 680, 670 & Co. verkaufen sich gut. Verstehe einer die Menschen. ;)

MfG,
Raff

boxleitnerb
2013-02-22, 13:24:06
Ich bin mal optimistisch und behaupte, dass man sowas nur einmal wird bringen können. Also so eine Stagnation beim Preisleistungsverhältnis. Der kleine Maxwell kann nicht wieder 500 Euro kosten und nur 35% schneller als die 680 sein. Dasselbe mit einem möglichen Titan-Nachfolger.
Wenn es allerdings blöd kommt, passiert genau das, und wir bekommen pro Generation nicht mehr 60-70% für dasselbe Geld, sondern eben nur noch 30-35%. Kann ich aber nicht so ganz dran glauben.

dildo4u
2013-02-22, 13:28:37
Tut's offenbar nicht, denn die teure GTX 680, 670 & Co. verkaufen sich gut. Verstehe einer die Menschen. ;)

MfG,
Raff
Die 680 nich wirklich auch bei Nvidia guckt man nach Preis/Leistung.

670 vor 680.
http://store.steampowered.com/hwsurvey/directx/

Schätze mal wie die Generationen davor das bald die 660 und 660 TI die meist verkauften Karten sind.

Grestorn
2013-02-22, 13:42:05
Kaum überraschend, dass sich die 670 besser verkauft, sie hat unzweifelhaft ein deutlich besseres Preis/Leistungsverhältnis.

Dennoch wird die 680 erstaunlich gut verkauft. Es gibt offenbar genug Leute wie mich, die gerne etwas mehr ausgeben, auch wenn die Leistung nicht linear mit dem Preis mitsteigt.

BigKid
2013-02-22, 13:52:41
Seit dem R600 hatte AMD keine GPU mehr die eine Chance hatte auf den Thron. Der R1000/Thaiti hat dies erstmalig geschafft, auch dank nvidias Politik.
Ich finde es immer wieder interessant wie subjektiv Wahrnehmung sein kein.

Meine Wahrnehmung war:
AMD war diesmal so schwach dass NVidia Problemlos bis ins HeighEnd segment mit dem ursprünglich fürs Mainstream-Segment gedachten, kleinen Chip auf den MArkt gehen konnte.
Da für NVIDIA Karten schon immer ein kleiner Premium Aufschlag im Vergleich zu AMD fällig war (besseres Image, stabiliere Treiber,...) und AMD schon vorgemacht hatte, dass man mit der Ausrede des ach so schwierigen neuen Fertigungsverfahrens Mondpreise verlangen kann hat NVIDIA einfach das getan, was sie immer tun - noch etwas mehr verlangen als AMD...
Damit sind sie ziemlich erfolgreich.
Wie das Preis-Experiment mit der Titan, der AMD nun von der Leistung her gar nix mehr entgegen zu setzen hat ausgeht - werden die nächsten Wochen zeigen...

Eine Realität - zwei Wahrnehmungen...

boxleitnerb
2013-02-22, 13:54:52
Es wäre komplett anders gewesen, wenn AMD direkt zu Release die GHZ Edition und gescheite Treiber herausgebracht hätte. Damit wäre man ca. 20% schneller gewesen, und die Preise hätten anders ausgesehen.

LSSJBroly
2013-02-22, 14:09:41
Es wäre komplett anders gewesen, wenn AMD direkt zu Release die GHZ Edition und gescheite Treiber herausgebracht hätte. Damit wäre man ca. 20% schneller gewesen, und die Preise hätten anders ausgesehen.


Ja, wäre interessant gewesen, was dann passiert wäre. Mit nem GK104 hätte man dann wohl nichts mehr reißen können:D

Naja... Mal abwarten was kommt. So werde ich mir sicherlich nicht ne Titan kaufen- das ist einfach nur ne Frechheit das ding so teuer verkaufen zu wollen. Bei 750 oder gar 800€ UVP hätte warscheinlich kaum einer gemeckert. Titan liefert ja auch ein tolles Gesamtpaket. Aber so...

BigKid
2013-02-22, 14:37:54
Ja, wäre interessant gewesen, was dann passiert wäre. Mit nem GK104 hätte man dann wohl nichts mehr reißen können:D

Naja... Mal abwarten was kommt. So werde ich mir sicherlich nicht ne Titan kaufen- das ist einfach nur ne Frechheit das ding so teuer verkaufen zu wollen. Bei 750 oder gar 800€ UVP hätte warscheinlich kaum einer gemeckert. Titan liefert ja auch ein tolles Gesamtpaket. Aber so...

Was meint ihr was in den nächsten 6 Monaten den kleineren Preisverfall hat:
2 Gute Custom GTX670 (Dc2 z.B.) NP a 720 Euro.
Oder eine Titan a 900 Euro ?

Effe
2013-02-22, 14:48:59
Was meint ihr was in den nächsten 6 Monaten den kleineren Preisverfall hat:
2 Gute Custom GTX670 (Dc2 z.B.) NP a 720 Euro.
Oder eine Titan a 900 Euro ?

Rhetorische Frage?
Die 670 wird vielleicht 30-50€ billiger, wenn überhaupt.
Die Titan schätze ich auf 100-150€ billiger, höchstens 200€.

BigKid
2013-02-22, 14:51:34
Rhetorische Frage?
Die 670 wird vielleicht 30-50€ billiger, wenn überhaupt.
Die Titan schätze ich auf 100-150€ billiger, höchstens 200€.
Ne Ernst gemeint... Ich hatte Zugzwang... Selbstbelohnungzwang... DankNeuemMonitorZuNiedrigereFPSZwang... Ich hab die zweite GTX670 heute Morgen geordert und Versuche nun mich zu versichern, dass das die richtige Entscheidng war :)

So klar ist das nicht...
Was wenn NV die Refreshgeneration knapp unter der Titan hält von der Leistung und Titan die schnellste SingleGPU bleibt (mit 5-10% Vorsprung) ?
Preisverfall bei den "kleinen" ist dann Vermutlich hoch wärend die Titan teurer bleiben dürfte...

kruemelmonster
2013-02-22, 14:56:54
Ganz ehrlich, ich seh das Problem bei dem Preis nicht. Der Titan ist das neue Halo-Produkt und soll einfach nur ein Statement sein wie der Bugatti Veyron. Damit so ein Produkt aber den gewünschten PR-Effekt bringt muss der Preis unvernünftig hoch sein, unabhängig davon ob sich der Preis durch die Leistung rechtfertigt. Die ganze Karte schreit Premium! von vorne bis hinten, das will NV sich nicht durch einen "fairen" Preis verwässern.
Und wer für ne Graka 700€ hinlegen kann&will, der kann das mMn auch 200€ weiter nördlich tun, auch und gerade mit SLI - that seperates the men from the boys ;)

BigKid
2013-02-22, 15:12:54
Ganz ehrlich, ich seh das Problem bei dem Preis nicht. Der Titan ist das neue Halo-Produkt und soll einfach nur ein Statement sein wie der Bugatti Veyron. Damit so ein Produkt aber den gewünschten PR-Effekt bringt muss der Preis unvernünftig hoch sein, unabhängig davon ob sich der Preis durch die Leistung rechtfertigt. Die ganze Karte schreit Premium! von vorne bis hinten, das will NV sich nicht durch einen "fairen" Preis verwässern.
Und wer für ne Graka 700€ hinlegen kann&will, der kann das mMn auch 200€ weiter nördlich tun, auch und gerade mit SLI - that seperates the men from the boys ;)
Ja klar... Nur vermutlich genau anders herum als du es hier verkaufen willst...
Ich hätte die Kohle - sogar für 2 davon - das KIND in mir will sie auch haben - aber den MANN trifft eine vernünftigere Entscheidung... ;)

Und das Problem mit dem Preis habe ich, weil er die Spitze einer Entwicklung darstellt, die mir von vorne herein nicht gefallen hat...
Nämlich den Performance Chip zu Highend Preise zu verkaufen... Ich habs zwar hingenommen und konnte es verstehen - aber GEFALLEN muss es mir nicht...

Und nochmal was anderes wäre es wenn Titan nicht letzlich nur ein "Glücklicher Zufall" gewesen wäre... Titan ist eben kein GK120 ... Es ist "nur" ein GK110... Also eigentlich mal nix so Besonderes... Und auch der Kühler ist Nix besonderes... Hätten wenigstens sie hier richtig aus dem Vollen geschöpft - dann würde ich auch nix sagen... Aber so muss doch letzlich doch wieder ne Wakü drauf oder ein RICHTIG guter Custom Kühler... Und dabei Ärgert mich noch nicht mal der Spruch mit dem Magnesium... Ist mir wurscht aus was er iss - er ist eben NICHT die spitze des machbaren - das geht besser...

Raff
2013-02-22, 15:22:06
Und wer für ne Graka 700€ hinlegen kann&will, der kann das mMn auch 200€ weiter nördlich tun, auch und gerade mit SLI - that seperates the men from the boys ;)

That separates insanity from sanity. ;)

MfG,
Raff

Dural
2013-02-22, 15:52:03
Seit dem R600 hatte AMD keine GPU mehr die eine Chance hatte auf den Thron. Der R1000/Thaiti hat dies erstmalig geschafft, auch dank nvidias Politik.
Der Titan ist durch seinen Preis daher ein Nischenprodukt ohne "Familie" also ein Alleinstellungsprodukt. Das machts für AMD echt gut zu kontern :eek:

Kurzum, was AMD im CPU Geschäft aufgeben mussten konnten sie wieder im GPU Bereich realisieren. Die schnellste Single GPU (vor Titan) zu präsentieren. Daher steht AMD seit R600 besser da als jemals zuvor. Nvidia hat sich einfach selbst ins Bein geschossen mit ihrem Preis ;D


hast du ein kurzzeit gedächnis?

AMD stand mit der 4870 und 5870 hervoragend da, GK110 ist für AMD mit Thaiti sehr sehr weit weg :rolleyes:

und viele vergessen offensichtlich immer wieder das GK104 ein mainstream chip ist, Tahiti und GK110 sind das hingegen nicht.
übrigens ist die 680 schneller als die normale 7970, in gegensatz zu AMD hat es NV aber nicht nötig eine OC version auf den markt zu werfen.

Wenn man bedenkt wie extrem schnell der GK104 ist, frage ich mich ernsthaft wo genau NV versagt haben will? weil sie in gegensatz zu AMD damit was verdienen? :rolleyes:

kruemelmonster
2013-02-22, 15:55:10
That separates insanity from sanity. ;)

MfG,
Raff

Und die Benchmarker von den Urlaubern. ;)

@BigKid: Gefallen muss es mir genauso wenig wie dir; ich hätte den GK104 auch lieber auf der GTX 660 und den GK110 auf der 680 gesehen, gibts aber nunmal nicht; und ich wollte nur meine Sichtweise darlegen warum Titan so am Markt positioniert ist.

mironicus
2013-02-22, 16:09:00
Versteh ich das richtig, dass der Titan eigentlich mal die 680 sein sollte, während die jetzige 680 eher die 660 sein sollte...?

Mr. Lolman
2013-02-22, 16:13:06
Ja, wäre interessant gewesen, was dann passiert wäre. Mit nem GK104 hätte man dann wohl nichts mehr reißen können:D


Doch, die hätten den GK104 wohl als Thermi 2.0 rausgebracht, mit hohen Taktraten und brutaler TDP ;)

hast du ein kurzzeit gedächnis?

AMD stand mit der 4870 und 5870 hervoragend da, GK110 ist für AMD mit Thaiti sehr sehr weit weg :rolleyes:

Naja, 20-25% im Schnitt. Je nach Test/Spiel bleibt bei Eyefinity tw. sogar kaum was übrig vom Vorspung. (Bei manchen Spielen wie zB. Metro2033 scheint die brutal hohe Shaderleistung der Titan doch zu wirken, denn da sind alle anderen GraKas wirklich ziemlich abgeschlagen) Ich schätz aber trotzdem, dass AMD die letzten 14 Monate nicht geschlafen hat und mit der nächsten Generation zumindest 30% zulegen kann, womit man wieder auf Augenhöhe wär. Das Ding darf dann halt bloß keine 1000€ kosten ;)

Godmode
2013-02-22, 16:17:27
Versteh ich das richtig, dass der Titan eigentlich mal die 680 sein sollte, während die jetzige 680 eher die 660 sein sollte...?

Richtig, das war der ursprüngliche Plan.

Effe
2013-02-22, 16:19:44
GK110 ist für AMD mit Thaiti sehr sehr weit weg :rolleyes:

Ganz doll NV! Sagenhafte 30% Vorsprung über ein Jahr später nachgelegt, für den doppelten Preis. :uclap:

übrigens ist die 680 schneller als die normale 7970
Kommt auf den Benchmark an. Eigentlich ist es ein Unentschieden.

BigKid
2013-02-22, 16:41:38
Ganz doll NV! Sagenhafte 30% Vorsprung über ein Jahr später nachgelegt, für den doppelten Preis. :uclap:
Ganz Toll AMD ! Danke dass ihr nix gerissen habt in der Generation und NV daher so ziemlich verlangen kann was sie wollen... Danke AMD dass ihr als Konkurrenz versagt habt. Danke, dass ihr euren Vorsprung von über einem Jahr nicht genutzt habt um was auf die Beine zu stellen und zulasst, dass NV nun mit einem ein Jahr alten Chip von dem klar war dass er funktioniert und existiert den Boden mit euch aufwischt... Danke dass ihr nicht zu potte kommt und meint euch sogar NOCH länger zurücklehnen zu können :cool:
Ehrlich... Die Wahrheit liegt irgendwo dazwischen also bitte mal die Fanboy Brille abziehen...

Ich schätz aber trotzdem, dass AMD die letzten 14 Monate nicht geschlafen hat und mit der nächsten Generation zumindest 30% zulegen kann, womit man wieder auf Augenhöhe wär. Das Ding darf dann halt bloß keine 1000€ kosten ;)
Das hoffe ich sehr weil mir die Preise auf den Zeiger gehen... Aber ich glaube auch nicht, dass NVidia die letzten Monate auf der faulen Haut lag. Dort wird man genauso an der nächsten Generation gearbeitet haben...

Effe
2013-02-22, 16:52:52
Ich habe keine Fanboybrille auf. Ich kaufe meine Grafikkarten nach P/L. Da ist AMD meist besser. Letztens mit der 7850er 125€ Casekingaktion zB. Ich würde mir gerne auch mal ne Nvidia kaufen. Nur sind die immer zu teuer im Vergleich.
Und selbst wenn ich morgen 6 Richtige hätte, würde ich beim Titan noch warten bis die 7 vorne steht. Der Preis ist zu absurd.

LSSJBroly
2013-02-22, 17:11:57
Doch, die hätten den GK104 wohl als Thermi 2.0 rausgebracht, mit hohen Taktraten und brutaler TDP ;)


Naja, gut... Man hätte GK104 auch 1100MHz Basis und 1200MHz Boost und 3500MHz Speichertakt geben können, also +15% gegenüber der Standardkarte. Und ner Vapor-chamber udnd as ding hätte durch niedrigere Temperaturen auch nicht allzuviel mehr verbraucht:D Aber dann ist auch schluss. Mehr als 15-20% kann ein GK104 nur mit mehr Bandbreite werden, ergo 320 oder gar 384Bit SI.

Naja, irgendwie hab ich das Gefühl, dass nVidia ende des Jahres ne GTX 780 mit nem 15SMX GK110 bringt, der mit 1006MHz Basis taktet:freak:

boxleitnerb
2013-02-22, 17:14:04
Wo gibts das Kraut, das will ich auch rauchen :D

Ailuros
2013-02-22, 17:32:01
Richtig, das war der ursprüngliche Plan.

Der originale SKU Name war aber immer noch GTX680. Das PCB war winzig und ebenso der Kuehler und der TDP war irgendwo ueber 150W (ich hab's schlecht in Erinnerung).

Godmode
2013-02-22, 17:36:05
Der originale SKU Name war aber immer noch GTX680. Das PCB war winzig und ebenso der Kuehler und der TDP war irgendwo ueber 150W (ich hab's schlecht in Erinnerung).

Also ich hab da nicht so dein Einblick wie du, aber IMO wurde doch kurz vor dem GTX680 Lauch 670 Bilder gespoilert, oder täusche ich mich da?

Ich kann mir auch nicht vorstellen, das GK110 als GTX680 hätte kommen sollen, vor allem da das Tapeout erst im März war. Wann ist Tahiti gleich nochmal erschienen? Das wäre ja eine krasse Verspätung für Highend Desktop gewesen.

Ailuros
2013-02-22, 17:51:10
und viele vergessen offensichtlich immer wieder das GK104 ein mainstream chip ist, Tahiti und GK110 sind das hingegen nicht.

Seit wann ist ein 350mm2 die ploetzlich high end?

übrigens ist die 680 schneller als die normale 7970, in gegensatz zu AMD hat es NV aber nicht nötig eine OC version auf den markt zu werfen.

Welches beweisst dass Tahiti ein high end chip ist oder :rolleyes:

Wenn man bedenkt wie extrem schnell der GK104 ist, frage ich mich ernsthaft wo genau NV versagt haben will? weil sie in gegensatz zu AMD damit was verdienen? :rolleyes:

Sie verdienen um einiges mehr daran. Aber ich wuerde gerade von DIR nicht erwarten dass Du Dein eigenes Interesse als Verbraucher unterstuetzen wuerdest. Lieber NV unterstuetzen obwohl Du am Ende davon kein bisschen etwas zu gewinnen hast. Durchaus ueberzeugend :rolleyes::rolleyes::rolleyes:

Also ich hab da nicht so dein Einblick wie du, aber IMO wurde doch kurz vor dem GTX680 Lauch 670 Bilder gespoilert, oder täusche ich mich da?

Nein. Es gab Bilder vom PCB ohne den Kuehler und auch mit. Dass das Ding "GTX680" haette heissen sollen kommt von vertraulichen Dokumenten aus 2011 von MSI wo auf der roadmap lediglich GTX680/2GB stand und da NV vendors nicht eingeweiht hatten dachten die meisten es sei GK110 unter der Haube. Mit 2GB? :freak:

Ich kann mich noch an einiges erinnern da ich mit einem bekannten Redakteur ein unendliches hin und her hatte...er behauptete etliche Zahlen ueber 300mm2 und ich bestand auf 294mm2.

Ich kann mir auch nicht vorstellen, das GK110 als GTX680 hätte kommen sollen, vor allem da das Tapeout erst im März war. Wann ist Tahiti gleich nochmal erschienen? Das wäre ja eine krasse Verspätung für Highend Desktop gewesen.

Die story so wie ich sie weiss ist dass die "1" bei GK110 Absicht war und sie hatten auch stets vor eine ganz andere Schiene damit zu fahren. Jetzt mit "Titan" und keiner Zahl ist es um einiges klarer.

Naja, gut... Man hätte GK104 auch 1100MHz Basis und 1200MHz Boost und 3500MHz Speichertakt geben können, also +15% gegenüber der Standardkarte. Und ner Vapor-chamber udnd as ding hätte durch niedrigere Temperaturen auch nicht allzuviel mehr verbraucht:D Aber dann ist auch schluss. Mehr als 15-20% kann ein GK104 nur mit mehr Bandbreite werden, ergo 320 oder gar 384Bit SI.

Fuer GK104 vor einem Jahr war das finale Angebot nicht zu weit am Rand der Faehigkeiten des chips. Als NV GK104 festlegte sagten sie off the record dass sie vorhaben Tahiti anzugreifen aber dass es ihnen auch bewusst ist dass Tahiti mehr durch Treiber mit der Zeit erreichen kann und auch bessere Uebertaktungs-chancen hat. IHVs nehmen stets konkurrierende hw unter die Lupe sobald sie erhaeltlich ist.

Naja, irgendwie hab ich das Gefühl, dass nVidia ende des Jahres ne GTX 780 mit nem 15SMX GK110 bringt, der mit 1006MHz Basis taktet:freak:

Ja zum Rest aber mit aller Wahrscheinlichkeit nein zum Namen. Wohl eher etwas in der Richtung wie TitanII oder TitanOS (on steroids) ;)

Dural
2013-02-22, 18:01:39
Naja, 20-25% im Schnitt. Je nach Test/Spiel bleibt bei Eyefinity tw. sogar kaum was übrig vom Vorspung. (Bei manchen Spielen wie zB. Metro2033 scheint die brutal hohe Shaderleistung der Titan doch zu wirken, denn da sind alle anderen GraKas wirklich ziemlich abgeschlagen) Ich schätz aber trotzdem, dass AMD die letzten 14 Monate nicht geschlafen hat und mit der nächsten Generation zumindest 30% zulegen kann, womit man wieder auf Augenhöhe wär. Das Ding darf dann halt bloß keine 1000€ kosten ;)

auf titan ist kein voller GK110, da sind ca. 10% mehr zu holen.

die 7970GE läuft aber ziemlich am limit was verbrauch anbelangt.

zwischen den beiden chips liegen min 30% wenn nicht mehr.

ihr könnt es drehen wie ihr es gerne haben möchtet, GK110 / NV ist AMD klar überlegen, derzeit.

Seit wann ist ein 350mm2 die ploetzlich high end?



seit es 384Bit und 3/6GB Speicher hat ;)

oder stellst du GK104 in die selbe riege wie tahiti? eine 7970GE dürfte in der herstellung deutlich teurer sein als eine 680, was zur folge hat das AMD mal wieder nichts verdient.
mit was wollen die ihre entwicklung eigentlich genau noch finanzieren???

Slipknot79
2013-02-22, 18:09:56
Kann man abschätzen, ob eine GeForce Titten :redface: etwa so schnell ist wie 2 Stück 580 GTX (wenn die GPU gefordert wird)? Letztere gäbe es um 265EUR laut geizhals.at ^^

Felixxz2
2013-02-22, 18:10:48
@BigKid
Wieso lobst du nVidia für Titan? Eine der unnötigsten Karten seit langem. Der Chip ist super, aber genau wie GK104 im Vergleich zur 7970 viel zu teuer. AMD ist hier eig die gute Konkurrenz und bietet IMO ein TOP P/L. +30% sind für fast den dreifachen Preis einfach nur lächerlich.

Dass du hier von "Boden aufwischen" redest ist lächerlichst. Natürlich ist Titan schneller, erkauft das aber mit wahnsinnig vielen Transistoren und einem noch wahnsinnigeren Preis. Das Teil kann keiner kaufen und wird auch NIE in irgendeiner Kaufberatung/Auswahl erscheinen. Toll das es sie gibt, aber für Gamer einfach nur unnötig. Wenn nVidia das Teil nicht gebracht hätte, hätte sich im Gaming-Markt genau 0,0 geändert.

Ich könnte genauso argumentieren, dass ich für ne Titan fast 3x7970 bekomme. Selber unnötiger Kostenpunkt, mit MGPU Problemen, aber VIEL mehr Leistung. AMD wischt bei gleichem Preis also den Boden mit nVidia....genauso gehaltvoll wie deine Aussage.

LSSJBroly
2013-02-22, 18:11:30
Ja zum Rest aber mit aller Wahrscheinlichkeit nein zum Namen. Wohl eher etwas in der Richtung wie TitanII oder TitanOS (on steroids) ;)

Name ist ja erstmal egal. Wobei.. irgendwie wurmt mich das doch - In keinem Review sehe ich werte, die solch eine besondere Klassifzierung rechgeben würden. Ich meine, Bei G80 und 70-100% Vorsprung vor der direkten Konkurenz... Ok, da wäre vllt soetwas ganz nett. Aber bei nur 20-25% Vorsprung vor der zweit schnellsten Karte? Und die holt mit höheren Auflösungen sogar noch auf:freak:... Naja, gut möglich, dass durch weitere Treiber der Abstand noch kleiner wird...

Dural
2013-02-22, 18:11:37
Kann man abschätzen, ob eine GeForce Titten :redface: etwa so schnell ist wie 2 Stück 580 GTX (wenn die GPU gefordert wird)? Letztere gäbe es um 265EUR laut geizhals.at ^^

wahrscheinlich ist titan sogar etwas schneller.

aber für sparschweine ist titan noch immer nicht gedacht :wink:


@BigKid
Wieso lobst du nVidia für Titan? Eine der unnötigsten Karten seit langem. Der Chip ist super, aber genau wie GK104 im Vergleich zur 7970 viel zu teuer. AMD ist hier eig die gute Konkurrenz und bietet IMO ein TOP P/L. +30% sind für fast den dreifachen Preis einfach nur lächerlich.



die schnellste single chip grafikkarte kann gar nicht unnötig sein ;)

LSSJBroly
2013-02-22, 18:18:15
@BigKid
Wieso lobst du nVidia für Titan? Eine der unnötigsten Karten seit langem.
Naja, ich könnte die Leistung schon gebrauchen. 3Gib finde ich zwar etwas übertrieben (3GiB und mehr Takt fände ich besser) Schließlich wollen einige eben mit SGSSAA oder sonstiges spielen, und nicht nur mit MSAA:freak:

Spasstiger
2013-02-22, 18:20:31
In Sachen Geometriedurchsatz ist die Titan übrigens ein Biest: http://www.hardware.fr/articles/887-8/performances-theoriques-geometrie.html.
Ohne Tessellation ein 70% höherer Peak-Durchsatz (culled) als bei der GTX 680 und sogar das Dreifache der Radeon HD 7970 GHz Edition. :eek:
Mit Tessellation ist es im Rahmen dessen, was man aufgrund von SMX-Anzahl und Takt erwartet.

Ailuros
2013-02-22, 18:22:32
Name ist ja erstmal egal. Wobei.. irgendwie wurmt mich das doch - In keinem Review sehe ich werte, die solch eine besondere Klassifzierung rechgeben würden. Ich meine, Bei G80 und 70-100% Vorsprung vor der direkten Konkurenz... Ok, da wäre vllt soetwas ganz nett. Aber bei nur 20-25% Vorsprung vor der zweit schnellsten Karte? Und die holt mit höheren Auflösungen sogar noch auf:freak:... Naja, gut möglich, dass durch weitere Treiber der Abstand noch kleiner wird...

R600 war aus vielen Gruenden ein quasi flop und auch eine Ausnahme. Danach schaffte AMD bis zur GTX580 mit ihren performance chips ungefaehr immer mehr oder weniger einen -15% Abstand zu NV single core high end zu haben. Das "nur" ist relativ fuer Tahiti beim heutigen Unterschied.

LSSJBroly
2013-02-22, 18:27:03
R600 war aus vielen Gruenden ein quasi flop und auch eine Ausnahme. Danach schaffte AMD bis zur GTX580 mit ihren performance chips ungefaehr immer mehr oder weniger einen -15% Abstand zu NV single core high end zu haben. Das "nur" ist relativ fuer Tahiti beim heutigen Unterschied.

Gut, hätte beischreiben müssen, dass damals die Lage einfach optimal für G80 war. Nun ja, wird wohl auch nie wieder soetwas geben. Mal abwarten, was uns wirklich noch dieses Jahr erwartet.

Ailuros
2013-02-22, 18:31:31
seit es 384Bit und 3/6GB Speicher hat ;)

Fuer compute hauptsaechlich. Da AMD keinen groesseren core entwickelt (und nein sie sind seit Jahren nicht ueber die 400mm2 Grenze gestiegen) haetten sie compute wo genau reinstecken sollen?

oder stellst du GK104 in die selbe riege wie tahiti? eine 7970GE dürfte in der herstellung deutlich teurer sein als eine 680, was zur folge hat das AMD mal wieder nichts verdient.

Es passt Dir nur zu behaupten dass AMD an der 7970GE nichts verdient weil Du sonst eingestehen wuerdest dass NV ziemlich grossen Gewinn mit ihren konkurrienden GPUs macht. Und ja beide chips sind performance GPUs egal wie Du es verdrehen willst.


mit was wollen die ihre entwicklung eigentlich genau noch finanzieren???

Sie haben mit geringeren Preisen offensichtlich geringere Gewinnmargen und sind eben nicht so unverschaemt geldgierig wie NV. Weisst Du ueberhaupt wie viel ein 28HP wafer seit Q3 12' kostet als einfacher Anfang oder schmeisst Du hier nur mit Sachen herum die Du selber nicht verstehst?

Gut, hätte beischreiben müssen, dass damals die Lage einfach optimal für G80 war. Nun ja, wird wohl auch nie wieder soetwas geben. Mal abwarten, was uns wirklich noch dieses Jahr erwartet.

Also ich wuerde es trotz allem schoen finden; ich war mit meinen ehemaligen 9700PRO bzw. 8800GTX mehr als nur zufrieden aus gutem Grund ;)

dildo4u
2013-02-22, 18:36:20
In Sachen Geometriedurchsatz ist die Titan übrigens ein Biest: http://www.hardware.fr/articles/887-8/performances-theoriques-geometrie.html.
Ohne Tessellation ein 70% höherer Peak-Durchsatz (culled) als bei der GTX 680 und sogar das Dreifache der Radeon HD 7970 GHz Edition. :eek:
Mit Tessellation ist es im Rahmen dessen, was man aufgrund von SMX-Anzahl und Takt erwartet.
Hab hier das dazu gelesen interresant das dort die Architektur an anderer Stelle noch was bringt.Und sollte die 7970 nich in der Nähe der 660 liegen?AMD war doch zumindest auf Midrange Level was Tesslation angeht ab der 7000 Serie.

The big Kepler continues that tradition, easily leading the GeForce GTX 680, even though its peak theoretical rasterization rate isn't much higher. Most likely, the GK110's larger L2 cache and higher memory bandwidth should be credited for that outcome.

http://techreport.com/review/24381/nvidia-geforce-gtx-titan-reviewed/6

Slipknot79
2013-02-22, 18:45:38
wahrscheinlich ist titan sogar etwas schneller.

aber für sparschweine ist titan noch immer nicht gedacht :wink:




"Wahrscheinlich" klingt so in etwa wie "etwa so schnell wie eine Titten :redface:", dann würde sich wohl eher eine zusätzliche 580 GTX lohnen statt einer Titten :redface: um 950EUR :(. Dunno was sie sich dabei gedacht haben eine 950EUR Karte auf den Markt zu werfen wenn man in etwa die selbe Leistung mit 2 580 GTXen becumt? Single GPU und kein Mikroruckeln kann ja nicht alleine Argument sein.

Spasstiger
2013-02-22, 18:53:43
AMD war doch zumindest auf Midrange Level was Tesslation angeht ab der 7000 Serie
Die GTX 660 hat immerhin 5 Polymorph-Engines, welche jeweils einen Peak-Durchsatz (ohne Tessellation) von 0,5 Dreiecken pro Takt haben (bei Fermi waren es noch 0,25 Dreiecke pro Takt). Für den gesamten GK106 bedeutet das einen maximalen Durchsatz von 2,5 Dreiecken pro Takt. Tahiti kann maximal 2 Dreiecke pro Takt verarbeiten.
Mit Tessellation reduziert sich dieser Durchsatz zwar, aber wenn die Tessellation ähnlich effizient funktioniert, sollte GK106 auch mit Tessellation den höheren Durchsatz bei gleichem Takt haben. Und taktmäßig liegen die GTX 660 und die Radeon HD 7970 GHz Edition nicht weit auseinander.

BigKid
2013-02-22, 18:59:30
@BigKid
Wieso lobst du nVidia für Titan? Eine der unnötigsten Karten seit langem. Der Chip ist super, aber genau wie GK104 im Vergleich zur 7970 viel zu teuer. AMD ist hier eig die gute Konkurrenz und bietet IMO ein TOP P/L. +30% sind für fast den dreifachen Preis einfach nur lächerlich.
Ich könnte genauso argumentieren, dass ich für ne Titan fast 3x7970 bekomme. Selber unnötiger Kostenpunkt, mit MGPU Problemen, aber VIEL mehr Leistung. AMD wischt bei gleichem Preis also den Boden mit nVidia....genauso gehaltvoll wie deine Aussage.
Soll ich das Kompliment jetzt einfach zurückgeben ?
Meine Antwort war eine Reaktion auf eines der vielen "Titan ist ein Fail und Nvidia Sucks"... Kann man jetzt wunderbar aus dem Zusammenhang reissen aber mehr wie FETT noch drunter zu schreiben:
"Ehrlich... Die Wahrheit liegt irgendwo dazwischen also bitte mal die Fanboy Brille abziehen..." ... kann ich auch nicht...
Ich habe NV schon X mal für den PREIS kiritisiert...
Und im übrigen kann ich auch nicht erkennen, dass ich NV gelobt habe - vielmehr hab ich einfach nur den Spiess umgedreht und mal auf AMD geschimpft - die an der aktuellen Situation auch ihren Teil tragen. Dabei habe ich genauso übertrieben wie viele AMD Fanboys die sich zum trollen hierher verirren...
Also: Brille abziehen ? B-)

dildo4u
2013-02-22, 19:03:06
Die GTX 660 hat immerhin 5 Polymorph-Engines, welche jeweils einen Peak-Durchsatz (ohne Tessellation) von 0,5 Dreiecken pro Takt haben (bei Fermi waren es noch 0,25 Dreiecke pro Takt). Für den gesamten GK106 bedeutet das einen maximalen Durchsatz von 2,5 Dreiecken pro Takt. Tahiti kann maximal 2 Dreiecke pro Takt verarbeiten.
Mit Tessellation reduziert sich dieser Durchsatz zwar, aber wenn die Tessellation ähnlich effizient funktioniert, sollte GK106 auch mit Tessellation den höheren Durchsatz bei gleichem Takt haben. Und taktmäßig liegen die GTX 660 und die Radeon HD 7970 GHz Edition nicht weit auseinander.
Ah ok gut für AMD das sie den PS4 und Xbox 3 Deal bekommen haben.

BigKid
2013-02-22, 19:14:46
"Wahrscheinlich" klingt so in etwa wie "etwa so schnell wie eine Titten :redface:", dann würde sich wohl eher eine zusätzliche 580 GTX lohnen statt einer Titten :redface: um 950EUR :(. Dunno was sie sich dabei gedacht haben eine 950EUR Karte auf den Markt zu werfen wenn man in etwa die selbe Leistung mit 2 580 GTXen becumt? Single GPU und kein Mikroruckeln kann ja nicht alleine Argument sein.
Na garantieren wird dir das niemand...
Schau doch mal den Crysis 3 Bench der PC Games an oder die ZIG 3DMark Werte...

1900x1080:
Titan 46min fps / 53,4 durchschnitt
580: 23 min fps / 28,1 max fps

2560x1440:
Titan 33min fps / 37,8 durchschnitt
580: 16min fps / 19,3 max fps

Wenn du jetzt für SLI ne effizienz von 0.8 ansetzt dann ist Tittan (um mich mal anzupassen) also sehr sicher schneller...
Und das schon bei Launch (ja die Architektur und der Treiber sind ausgereift aber ein paar % werden wohl noch kommen)...

Felixxz2
2013-02-22, 19:59:00
die schnellste single chip grafikkarte kann gar nicht unnötig sein ;)

Doch absolut. Der Preis ist SO hoch, dass Titan einfach keinem empfohlen werden kann bzw. nie in irgendwelche Kaufentscheidungen miteinfließen wird. Und was bringt das Teil dann? Schön für die 0,1% die sichs kaufen? Toll für Alternate, weil sie 5 Stück davon rumliegen haben?

Soll ich das Kompliment jetzt einfach zurückgeben ?
Meine Antwort war eine Reaktion auf eines der vielen "Titan ist ein Fail und Nvidia Sucks"... Kann man jetzt wunderbar aus dem Zusammenhang reissen aber mehr wie FETT noch drunter zu schreiben:
"Ehrlich... Die Wahrheit liegt irgendwo dazwischen also bitte mal die Fanboy Brille abziehen..." ... kann ich auch nicht...
Ich habe NV schon X mal für den PREIS kiritisiert...
Und im übrigen kann ich auch nicht erkennen, dass ich NV gelobt habe - vielmehr hab ich einfach nur den Spiess umgedreht und mal auf AMD geschimpft - die an der aktuellen Situation auch ihren Teil tragen. Dabei habe ich genauso übertrieben wie viele AMD Fanboys die sich zum trollen hierher verirren...
Also: Brille abziehen ? B-)


Nö AMD macht atm eig nichts falsch und man kann ihnen auch (fast) nichts vorwerfen. Sie haben gute Produkte, gute Preise und GK110 ist im Vergleich zur 7970 GE nur mäßig schneller, aber keineswegs Welten entfernt.

Du beschwerst dich, dass AMD keine neue High End Karte bietet? Warum beschwerst du dich nicht bei nVidia, dass sie keine neue (kaufbare) High-End Karte bringen?

Das viele hier auf Titan und nVidia schimpfen hat ja einen Grund: Die ganze Sache IST ein Fail. Nicht von der Technik, die ist top, aber von der Martkpositionierung. Wie gesagt, nVidia hätte sich die Karte auch sparen können. Enthusiasten sind für 1000€ wschl. immer noch besser mit CF/SLI beraten.

dargo
2013-02-22, 20:26:41
ihr könnt es drehen wie ihr es gerne haben möchtet, GK110 / NV ist AMD klar überlegen, derzeit.

Ja... vorallem beim Preis. :uup:

Ailuros
2013-02-22, 21:18:46
Ich seh es anders: es besteht eine gute Moeglichkeit dass AMD NV einen ziemlich ueblen Streich gespielt hat und die NV fans freuen sich darueber.... :eek::freak:

Botcruscher
2013-02-22, 21:23:48
Ist doch gut. Da fallen die Preise.:tongue:

BigKid
2013-02-22, 21:35:36
Ich seh es anders: es besteht eine gute Moeglichkeit dass AMD NV einen ziemlich ueblen Streich gespielt hat und die NV fans freuen sich darueber.... :eek::freak:
Erklär mir das bitte... ich kann dir nicht folgen...

Ailuros
2013-02-22, 22:05:07
Erklär mir das bitte... ich kann dir nicht folgen...

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9665574&postcount=127

HarryHirsch
2013-02-22, 23:20:59
abgesehen davon das es ein leichtes wäre diesen brocken zu schlagen, glaube ich nicht so recht daran.

LSSJBroly
2013-02-22, 23:28:22
abgesehen davon das es ein leichtes wäre diesen brocken zu schlagen, glaube ich nicht so recht daran.

Naja, leicht wird es sicherlich nicht. Schließlich ist das Gesamtpakte schon ziehmlich übel. Ich meine, die Karte, ist anders als die GTX 480 damals, durch und durch optimiert. Das ding dürfte effizienter als ne GTX 680 sein, verbraucht kaum mehr und leistet dafür aber immer noch wirklich viel. Wie gesagt, bis auf den hohen preis spricht gar nichts gegen eine GTX Titan.

HarryHirsch
2013-02-22, 23:37:41
ganze 6% powertarget! ein oc wunder!
wer dafür 900€ lässt ist sponsored by nv oder papi.
mit wakü ist man min. nochmal 150€ los. bitte

LSSJBroly
2013-02-22, 23:46:05
Ich rede von der Karte im allgemeinen (stock). Und auch die 106% reichen aus, um die Karte auf rund 1150-1200MHz zu treiben, eben mit ner WaKü konstant möglich.
Wie ich auchs chrieb, die Karte ist super, nur das rechtfertigt den Preis immer noch nicht.

HarryHirsch
2013-02-22, 23:53:08
Ich rede von der Karte im allgemeinen (stock). Und auch die 106% reichen aus, um die Karte auf rund 1150-1200MHz zu treiben, eben mit ner WaKü konstant möglich.
Wie ich auchs chrieb, die Karte ist super, nur das rechtfertigt den Preis immer noch nicht.

link? und konstant ist da garnix möglich.

die gpu find ich auch geil, aber nicht so.

LSSJBroly
2013-02-23, 00:05:39
link? und konstant ist da garnix möglich.


Gibt doch wohl genug reviews - gut, dann geh eben von 1137MHz aus:freak:
Und mit ner WaKü dürfte GK110 nicht heißer als 50-60°C, gar noch kühler werden ->Leistungsaufnhame sinkt ->mehr Spielraum, was den takt angeht.

HarryHirsch
2013-02-23, 00:17:06
dann würde ich an deiner stelle aber schnell zuschlagen.

Pentium M
2013-02-23, 00:19:01
hast du ein kurzzeit gedächnis?

AMD stand mit der 4870 und 5870 hervoragend da, GK110 ist für AMD mit Thaiti sehr sehr weit weg :rolleyes:

und viele vergessen offensichtlich immer wieder das GK104 ein mainstream chip ist, Tahiti und GK110 sind das hingegen nicht.
übrigens ist die 680 schneller als die normale 7970, in gegensatz zu AMD hat es NV aber nicht nötig eine OC version auf den markt zu werfen.

Wenn man bedenkt wie extrem schnell der GK104 ist, frage ich mich ernsthaft wo genau NV versagt haben will? weil sie in gegensatz zu AMD damit was verdienen? :rolleyes:

Tahiti gegen GK104 Gleichstand.Tahiti gegen GK 110 40-50% schneller.AMD ein Chip gegen GK 104 und GK 110.Wer arbeitet wohl kostengünstiger.Trotzdem ist Titan eine Demonstration was technisch möglich ist.Obwohl bei GPGPU hätte ich einen interessanten Link (http://www.rechenkraft.net/phpBB/viewtopic.php?t=12732&p=137658).

Zweiter Beitrag. :wink:

Godmode
2013-02-23, 00:19:42
Blöd das erst ein Tag seit dem Launch vergangen sind. Warum können nicht schon 2 Monate vergangen sein und die Karte um 250 € im Preis gesunken sein?

LSSJBroly
2013-02-23, 00:48:52
Blöd das erst ein Tag seit dem Launch vergangen sind. Warum können nicht schon 2 Monate vergangen sein und die Karte um 250 € im Preis gesunken sein?

Denke ich auch gerade:D

Naja, mal abwarten, was die Shops Anfang kommender Woche wirklich verlangen werden. Gut möglich, dass die Presie doch unter 900€ liegen...

Godmode
2013-02-23, 00:51:59
Denke ich auch gerade:D

Naja, mal abwarten, was die Shops Anfang kommender Woche wirklich verlangen werden. Gut möglich, dass die Presie doch unter 900€ liegen...

Kann ich mir in der 1. Woche wirklich nicht vorstellen. Jetzt werden erstmal die Early Adopters geschröpft. ;)

horn 12
2013-02-23, 01:14:36
Der Hohe Preis treibt doch vielerseits zur Konkurrenz und jene bauen sich ein CF System mit HD7950 / 7970 au, oder nehmen auch nur eine Einzelne HD7950 / 70 unter 250 / bzw. gerade mal 300 Euro.
Da hat NV wohl komplett in Fettnäpfchen getreten, entweder man senkt den Preis auf unter 700 Euro oder man verliert treue Kunden an die Konkurrenz...

Pentium M
2013-02-23, 01:21:10
950 Euro sind doch für manche gerade der Anreiz. Kann sich nicht jeder leisten .

LSSJBroly
2013-02-23, 01:29:57
950 Euro sind doch für manche gerade der Anreiz. Kann sich nicht jeder leisten .

Und? Braucht man so ein schickes teil um es sich und anderen zu beweisen, wieviel Geld man hat? 500€ geben auch die wenigstens für ne Graka aus, selbst 200€ Karten sind eher selten in der Breiten Masse.
Es geht bei 950€ in erster Linie nur ums Prinzip, dass es einfach ne Frechheit ist, ne GPU, die ins geläufige Schema gehört -sprich normales High End ist - für solche Preise verkaufen zu wollen.
Schließlich würde ein Kauf nichts anderes bedeuten, als dass wir auch bereit wären, noch mehr dafür zu bezahlen und es uns nicht interessiert, dass die Karten so teuer werden. Das ist aber ganz klar nicht der Fall.

Hab nochmal nachgeschaut. Titan hat ne UVP von 950€, die 690 hatte nur eine von 850€... Da gibt es einfach nichts zu rechtfertigen.

Pentium M
2013-02-23, 01:42:14
Titan hat GPGPU mehr zu bieten als GTX 690 aber gegenüber Tahiti wird der
Abstand noch geringer 10-20%.

dargo
2013-02-23, 01:45:06
950 Euro sind doch für manche gerade der Anreiz. Kann sich nicht jeder leisten .
Von "können" kann kaum die Rede bei vielen sein. Eher von "wollen". Nur weil ich es kann muss ich den Schwachsinn noch lange nicht unterstützen.

Pentium M
2013-02-23, 01:56:39
Bin voll auf deiner Seite habe mir gerade eine 7970 Powercolor V3 bestellt.Warum Abmessungen: 265x111.2x38mm Ist die einzige die in mein Case passt.Auf Curacao zu warten habe ich aufgegeben.

gnahr
2013-02-23, 02:04:18
Blöd das erst ein Tag seit dem Launch vergangen sind. Warum können nicht schon 2 Monate vergangen sein und die Karte um 250 € im Preis gesunken sein?
nö, ein bisschen sicher, aber nicht so viel für nix.
im gegenteil, erst kommen ja noch echte performance-treiber raus und pushen die leistung im schnitt um bis zu 10%, dann fällt es wieder 2000-3000leuten leichter zuzuschlagen und nicht anderen sachen madig zu reden. neid ist schließlich lebenszeitverkürzend. ;D

Pentium M
2013-02-23, 02:17:51
Madig reden macht hier keiner.Es ist einfach nur der Preis.

Lu
2013-02-23, 06:35:10
Mich würde interessieren wie hoch Titan taktet bei einer GPU Temperatur von 20° bis 30° (bei Volllast) und wie viel von der Leistung dann auch ankommt.

Angiesan
2013-02-23, 08:33:41
:mad:Hier Stand Unfug habe ein Detail vergessen

Odal
2013-02-23, 10:40:10
das Ding liegt von der Performance her gesehen gerade noch im Rahmen für normale "Weiterentwicklung" vom gk104
nur das der gk104 schon nicht der Highend Chip war sondern der hier vor nem Jahr sein sollte.
Erwartet hätte ich hier eher einen Release Preis von ca. 450€

also in dem Lineup für mich definitiv nix dabei (7870 reicht mir eh noch)

Ailuros
2013-02-23, 11:23:58
nö, ein bisschen sicher, aber nicht so viel für nix.
im gegenteil, erst kommen ja noch echte performance-treiber raus und pushen die leistung im schnitt um bis zu 10%, dann fällt es wieder 2000-3000leuten leichter zuzuschlagen und nicht anderen sachen madig zu reden. neid ist schließlich lebenszeitverkürzend. ;D

Wenn Titan in der Zwischenzeit nicht billiger werden wird, wird sich bei den meisten nichts besonderes aendern. Es ist uebrigens auch nicht so dass die bisherige Nachfrage so begrenzt ist, dass NV auf den Dingern hocken bleibt.

Was den letzten Satz betrifft, sehe ich solche indirekte Anspielungen nicht besonders gerne. Ich hab gestern aus einem Deinem Posts einen direkten Angriff auf einen anderen User entfernt und will hoffen dass Du es schaffen kannst so sachlich wie moeglich beim jeglichen Thema zu bleiben, eben um Deine "Lebenszeit" hier im Forum zu verlaengern.

Die Kritik fuer die zu hohen Preise sind generell ueber's Netz verstreut und sind durchaus gerechtfertigt.

Skysnake
2013-02-23, 12:02:46
Wenn sich der Staub erstmal setzt und NV noch etwas an den Treibern dreht koennte sich der erste Eindruck schon etwas verbessern. Das soll jetzt kein Trost sein, denn ich werde den Verdacht eben nicht los dass die Titan Treiber nicht zu 100% ausgebuegelt sind und bei einem so teuren Produkt hab ich zich Mal weniger Nachsicht. Titan ist von allen Ecken eine Frechheit mit dem MSRP.

Absolut, und deswegen verstehe ich auch GAR NICHT! warum komplett unter den Teppich gekehrt wird, das nVidia mit den Treibern nen RIESEN Fail hingelegt hat. Im CB-Test laufen nichtmal alle GPGPU-Tests :down:

Hallo? Titan kommt nach der Tesla, kostet schweine teure 900+€, hat endlich keine beschnittene DP-Leistung, und dann failen die so derbe bei den Treibern? :mad:

Hallo gehts noch???

Da wird das Gemeckere über AMDs Treiber schon echt zum running Gag...


Ich wuerde nicht denken dass jemand wie Du nicht beim G80 launch aktiv dabei war. War die Leistung in allen Faellen so wie sein sollte und gab es keinen einzelnen Schimmer an Meckerei dass die 8800GTX nicht besonders viel schneller ist als R580? Haben sie auch nicht damals heftig mit Leistungs-treibern nachgeschoben? Oder gab es keine Beschwerden was den Stromverbrauch betrifft? Nun gut G80 war auch ein Einzelfall, aber nuechtern betrachtet ist ein Titan im Vergleich zu einer GTX580 schon ein anstaendiger upgrade wenn der Preis nur nicht so verrueckt hoch waere.

Mit den Treibern muss man schauen. Aktuell gibt es ja (GPGPU) einige Totalausfälle. Das würde es aber nicht besser machen. Warum launcht man dann überhaupt? Vor allem bei SO einem teuren Produkt, und GK110 ist eh schon lange drausen...

Und die Sache mit dem Stromverbrauch ist auch so eine Sache. Der Turbo ist halt ein echt zweischneidiges Schwert. Je niedriger die Last, desto besser für die Balken. Je höher die Last aber ist, desto schlechter, weil man nicht mehr so hoch takten kann :ugly:

Also gerade bei den Min-FPS ist das bedenklich. Da muss sich in Zukunft zeigen, ob das aufgeht, oder eben nicht. Vor allem, wie sieht es aus, wenn die Karte mal 3 Monate gelaufen ist?

Für mich scheint das ganze ziemlich wackelig bzgl den Ergebnissen zu sein.

Ich freu mich auf jeden Fall auf den hoffentlich SEHR ausführlichen Test dazu in den nächsten PCGH! Ich kauf mir die definitiv allein deswegen.

Lars ist kein Depp; es ist nur sein Job der total beschissen ist.
/sign
Das denke ich nicht, wenn sie sogar den Magnesium Rahmen durch Alu ersetzen. Kostet ja schließlich alles viel Geld und muss positiven Deckungsbeitrag haben. :facepalm:

Das ist eh die absolute Frechheit...:down:

Da bekommste als Kunde ECHT das Kotzen bei dieser Überheblichkeit einer Firma....

nVidia sollte echt von diesem Trip runter kommen, den Sie schon einige Zeit fahren, ansonsten wird ihnen das auf lange Sicht echt noch das Genick brechen...

Aber scheinbar haben Sie absolut NICHTS aus ihrem durch Überheblichkeit verhunzten China-Deal gelernt...


Bringt aber nichts, da die Karte erst Q4 kommt. Solange können sie sich diesen absurden Preis erlauben. Ich hoffe echt das Teil bleibt liegen wie ein Ziegel.
Das hoffe ich auch, wenn man sich aber anschaut, wie gut nVidia inzwischen ihre "Fans" durch Marketing an sich gebunden hat, dann bin ich da doch etwas am Zweifeln, ob es kommt. Bei Apple wäre ich mir 100% sicher, das die dennoch kaufen.

Bei nVidia stehts auf der Kippe. Es werden sicherlich genug die Karte kaufen zu dem Preis, (vorallem für Unis doch ganz interessant) aber das selbst hier eine überraschend hohe Zahl an Leuten sagen, dass der Preis überzogen ist, stimmt positiv, das sich die Karte doch nicht so gut absetzt, wie von nVidia erhofft.

Eine Prognose kann und will ich da aber wirklich nicht abgeben.

Eine HD 7970 @ 1,2 GHz ist nur in Ausnahmefällen so schnell wie der junge Titan. Um dem GK110 ernsthaft zu begegnen, bräucht's 1,4 GHz – und das kannst du knicken. Ein Tahiti-Verschnitt mit 2.560 ALUs @ 1,2 GHz hingegen könnte es richten.

MfG,
Raff
Nen Tahiti @1,2GHz mutiert aber langsam zum echten Säufer... Also das wird eng würde ich sagen. Lieber etwas breiter und dafür weniger Takt. Insbesondere sollte man einfach mal die alten Baustellen angehen. Davon verspreche ICH mir mehr als von allem anderen.

Klar, die Kiste ist in so gut wie jeder Hinsicht besser als (m)eine HD 7970. Ich unterstütze Gier aber nicht. ;) Erschwerend kommt hinzu, dass ich mit meiner GPU gerade sehr zufrieden bin. :)

MfG,
Raff
:ulove4:
Dem kann ich mich nur anschließen. Als Gamer sollte man die Karte definitiv nicht kaufen. Der Preis ist einfach fern ab jeder Realität...

Als Uni würde ich mir dafür aber direkt eine zum Testen holen :ugly: Der Preis ist da schon bombe, wenn da nicht die Kack-GPGPU-Treiber wären.... :down:
DAS ist so hirnverbrannt....

Bei so nem Produkt, und ENDLICH voller DP-Leistung verkacken Sie dermaßen den GPGPU-Part der Treiber :mad:

Fuer compute hauptsaechlich. Da AMD keinen groesseren core entwickelt (und nein sie sind seit Jahren nicht ueber die 400mm2 Grenze gestiegen) haetten sie compute wo genau reinstecken sollen?

Es passt Dir nur zu behaupten dass AMD an der 7970GE nichts verdient weil Du sonst eingestehen wuerdest dass NV ziemlich grossen Gewinn mit ihren konkurrienden GPUs macht. Und ja beide chips sind performance GPUs egal wie Du es verdrehen willst.

/sign

Das ist eh der runninggag. Die Leute meinen AMD würde an ihren Karten nichts verdienen... Weit gefehlt... nVidia bekommt einfach nur nicht den Rachen voll :down:

Das die Leute das dann auch noch schön reden, lässt mich immer die Haare raufen. Da freut man sich über hohe Preise :facepalm:


Sie haben mit geringeren Preisen offensichtlich geringere Gewinnmargen und sind eben nicht so unverschaemt geldgierig wie NV. Weisst Du ueberhaupt wie viel ein 28HP wafer seit Q3 12' kostet als einfacher Anfang oder schmeisst Du hier nur mit Sachen herum die Du selber nicht verstehst?

Ich weiß nicht wo es war, aber du weißt das sicherlich ;)

Es war hier mal irgendwo ein Zitat von AMD, wonach im Januar mehr Karten verkauft hätten, als irgendwann in vorher in 2012. Das lässt hoffen, dass Sie trotz geringerer Marge richtig gut Geld machen.

Eine hohe Marge bringt nämlich absolut nichts, wenn man einfach nichts absetzt.

gnahr
2013-02-23, 12:35:25
skysnake, was hat der treiber einer karte die es noch nicht mal im handle gibt zu tun mit denen einer karte die sagen wir mal... den release von gta iv um wochen verkackt? "nagnag, die ist uns zu teuer, da machen wir jetzt wieder EXTRA ne welle!"

und was ist es für ne frechheit mit dem magnesium? dir wär es doch sicher nicht mal aufgefallen wenn eine karte so und die andere alu auf nem bild nebeneinander auf dem tisch liegen, geschweige wird jemand seine karte im rechner anbohren. aber erstmal ordentlich dampf rausposaunen.
sowiso, paar gute infos sind ja in den post, aber diese schwellige tendenziösität in verbindung mit den massen an "ich ..."-sätzen sind kein schöner anblick.

Skysnake
2013-02-23, 12:54:05
Ich kann eben nur für MICH reden, und ich weiß auch, das ICH ziemlich aus dem 0815-Kunden raus falle. Wenns danach gehen würde, wäre nämlich von nVidia bis zur Titan rein gar nichts auch nur annährend eine Empfehlung wert gewesen seit mindestens GF100...

Und ob ich das merke mit dem anderen Material spielt gar keine Rolle. Es geht nur um die Aussage seitens nVidia, die eben unter aller Kanone ist...

Und sorry, das ich bei ner Karte, die als "The Gaming Supercomputer is born (http://www.originpc.com/landing/nvidia-titan/)" beworben wird, und knapp 1k€ kostet, erwarte, dass die Treiber funktionieren. Zwischen schlecht funktionieren und gar nicht liegen nämlich noch immer welten....

Godmode
2013-02-23, 12:56:57
Und sorry, das ich bei ner Karte, die als "The Gaming Supercomputer is born (http://www.originpc.com/landing/nvidia-titan/)" beworben wird, und knapp 1k€ kostet, erwarte, dass die Treiber funktionieren. Zwischen schlecht funktionieren und gar nicht liegen nämlich noch immer welten....

Wenn du GPGPU willst, dann kauf dir ne Tesla und gut ists. Dort werden die Treiber wohl ausgereifter sein. GTX Titan hat doch überhaupt nicht den Anspruch für GPGPU eingesetzt zu werden, oder liege ich da falsch? Etwas runterkommen und nicht immer soviel aufregen. Keep Cool. :cool:

Skysnake
2013-02-23, 13:03:33
Den link angeklickt und angeschaut? :ugly:

Und die volle DP-Leistung sagt auch was anderes...

AffenJack
2013-02-23, 13:30:34
Den link angeklickt und angeschaut? :ugly:

Und die volle DP-Leistung sagt auch was anderes...

Link selber angeschaut? Es wird nur von Gaming geredet und nicht von Gpgpu.
Supercomputer steht da nur, weil der gleiche Chip wie in Titan ist.

skysnake, was hat der treiber einer karte die es noch nicht mal im handle gibt zu tun mit denen einer karte die sagen wir mal... den release von gta iv um wochen verkackt? "nagnag, die ist uns zu teuer, da machen wir jetzt wieder EXTRA ne welle!"


Das ist doch bei unserm Forencharlie immer so, die richtige Aussage wäre : "nagnag, die Karte ist von Nvidia, da machen wir jetzt wieder EXTRA ne welle!"
Bei Amd wäre das alles kein Problem gewesenl.

PCGH_Carsten
2013-02-23, 13:31:10
Ich frage mich gerade, warum für jemanden, der die Titan aus Entwickler- und GPGPU-Sicht sieht, das vernachlässigte (aber nicht funktionslose) OpenCL so wichtig ist. Wenn du wirklich Performance willst, nimmst du für so ein Ding doch eh Cuda, oder?

Ich meine, einige GK110-exklusive Sachen außer Hyper-Q muss man ja direkt anprogrammieren, oder? Geht das unter OpenCL im Standard-Pfad oder nur über proprietäre Extensions - wo wir ja schon fast wieder dabei wären, dass man genausogut Cuda nutzen könnte, wenn man nicht gerade eine religiöse Abneigung gegen sowas hegt.

dildo4u
2013-02-23, 13:32:31
Nvidia scheint Opencl nicht zu jucken die wollen das man Cuda nutzt.

Hab die genaue Stelle nich gefunden aber dort erwähnt er das.

http://youtu.be/qsuvlg8cuWA