Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GK110 - High-End-Kepler - Q1 2013


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 [16]

Ailuros
2013-02-20, 18:29:37
Hab ich doch unter "schlechter Isolierung" erwaehnt; oder glaubt Ihr dass das Glasdach-Beispiel ein Zufall ist?

gnahr
2013-02-20, 18:30:04
letzten sommer hatten wir echte 40grad draußen und auch deutlich über 30 drinnen, aber da denkt man sicher nicht ans pc anmachen. :)
es gab aber schon immer wärmere zonen wo eben nix geboostet wurde sondern die lüfter zum bsp. schon seit je her lauter waren. fragt doch mal paar hardwareseiten aus ägypten und co ob das auch solche apologeten leben oder die leute wissen was war und wie es bleiben wird.

cR@b
2013-02-20, 18:36:10
Ich wohne direkt unter einem Dachspeicher. Der gibt über mehrere Tage kontinuierlich Hitze ab. Gemessen habe ich nicht aber ich bin mir fast schon sicher, dass meine Karte nicht mehr mit 1084Mhz lief wie sonst eigentlich oftmals. So 30-35 Grad könnte es u.U. schonmal gewesen sein. Im Rechner selbst dann evtl. mehr oder ähnlich...
Ich fand diesen Boosttakt bereits bei Ankündigung nicht so prickelnd und dann kommt auch noch das Glück eines guten Chips dazu bzw. die AIB Auslegung, somit wäre sogut wie jede Karte ein Unikat was evtl. den Preis mehr erklärt :D

Iruwen
2013-02-20, 20:32:30
Um das mal zu beenden, da das Temperature Target standardmäßig schon bei 80°C liegt und man es noch erhöhen kann spielt das in der Praxis einfach mal keine Rolle. Bei mehr als 90°C sollte man die GPU eh nicht betreiben.

aufkrawall
2013-02-20, 20:53:03
Haste gut geplonkt. :D
Mal wieder nen Elefanten aus nem Furz gemacht...

gnahr
2013-02-20, 20:59:11
die regelkurve des lüfters ist weiterhin an die chip-temperatur gepinnt.
also kann man 1 zu 1 wählen ob man
a) low= leise oder
b) high= extra power möchte.

was manche da schon wieder auf die palme gehen...
lustig wär es das ganze noch mit etwas fuzzy-logik zur lastvorhersage zu verknüpfen. also nicht nur wie bei den radeons "wenn lange low, dann high+1 für kurz".
hm, da kommt mir gerade die lasterkennung per exe-namen über den treiber in den sinn, das ist natürlich auch nicht wieder erstrebenswert.

G3cko
2013-02-20, 21:59:21
Ein ruhender Durchschnittsmensch strahlt laut Wikipedia ca. 90W ab. Müsste verdammt heiß werden wenn ich mit meiner Familie im Wohnzimmer sitze :rolleyes:
90 Watt

Das ist wirklich nicht unerheblich. Im Wohnzimmer mit 4-5 personen zu vernachlässigen, aber bei dichtem Gedränge bei Veranstaltungshalen in der Tat zu berücksichtigen. Messehallen werden Beispielsweise Mittags schon gekühlt.

Mit meinem alten Setup habe ich auch ein 16qm Zimmer ohne Probleme beheizen können. Q6600+8800GT waren 220Watt im Idle. Dazu der "sparsame" CRT. Also mindestens 300Watt. :freak:

Selbst im Winter mit Fenster auf kipp war kein Problem. Der TFT und die neue Graka machen sich aber schon deutlich bemerkbar.

Gipsel
2013-02-20, 22:42:35
lustig wär es das ganze noch mit etwas fuzzy-logik zur lastvorhersage zu verknüpfen. also nicht nur wie bei den radeons "wenn lange low, dann high+1 für kurz".
hm, da kommt mir gerade die lasterkennung per exe-namen über den treiber in den sinn, das ist natürlich auch nicht wieder erstrebenswert.Irgendwie hast Du meine längliche Erklärung oben wohl nicht gelesen. Radeons analysieren ständig die Last, die tatsächlich anliegt. Die gehen also nicht nur auf den Boost, wenn vorher nichts oder wenig anlag, sondern immer, wenn die aktuelle Last den Stromverbrauchsrechner nicht über die TDP schnellen läßt.

gnahr
2013-02-21, 06:45:24
schön und gut für sie, aber damit kann ich weniger anfangen.
ich sitz nicht wie andere radeon-besitzer neben dem stromzähler und jubiliere wenn der stromzähler mal 20milisekunden länger für die runde braucht. zudem sind meine netzteile auch alle groß genug, von daher ist das tdp-target immer maximum.
was nicht egal ist: wie laut die sachen sind und genau da kommt bei nvidia boost2.0 ins spiel. von mir aus kann sie auch mal 30watt mehr verballern, solange sie leise genug bleibt. wie wird das sicher gestellt? durch ne an die temperaturen gepinnte regelkurve des lüfters an die (nun festlegbare) zieltemperatur des chips.

dieses "rechenmodell" ist doch auch nur wieder "woho, wir machen hier heftige zauberei im hintergrund und verraten euch nur rudimentär was wo wie an- und eingreift." die lüfterkurve kann man dagegen mit 2 mausklicks verstellen zur temperatur, da liegen also alle zügel in userhand.
Radeons analysieren ständig die Last, die tatsächlich anliegt. Die gehen also nicht nur auf den Boost, wenn vorher nichts oder wenig anlag, sondern immer, wenn die aktuelle Last den Stromverbrauchsrechner nicht über die TDP schnellen läßt.boost1.0 und in der ausprägung mit den stufen nun wirklich kein kunststück was man in die versionen zusammen mit den gesteigerten taktraten hätte reinpatchen müssen. ich seh da keinen mehrwert, die technik hechelt eher der klassischen "best practice" am markt hinterher was bei einführung bereits von nem anderen hersteller über dessen gesamtes marktportfolio gelegt wurde.

4Fighting
2013-02-21, 06:56:33
dum di dum

http://www.3dmark.com/3dm11/5966935

kp ob fake oder net :o

boxleitnerb
2013-02-21, 07:00:45
Soweit ich weiß unterstützt der 313er Treiber Titan noch nicht, erst recht nicht den Boost. Daher schätze ich Fake.

4Fighting
2013-02-21, 07:07:14
Soweit ich weiß unterstützt der 313er Treiber Titan noch nicht, erst recht nicht den Boost. Daher schätze ich Fake.

Hast natürlich Recht.

Aber da die Hardware ja über Futuremark Sysinfo (oder so) zum Großteil ausgelesen wird, sollte ja zumindest die Anzahl der Grafikkarten beispielsweise bzw. der SLI Status stimmen (oder?). Wobei 32GB natürlich murks sind beim VRAM.

Von daher fällt mir aber keine Single GPU ein mit den Ergebnissen.:confused:

/edit

okay ich habe gerade geguckt. Gibt wohl doch selbst 680er die 4500 Punkte schaffen :D

boxleitnerb
2013-02-21, 09:30:05
Es geht los:
http://www.abload.de/thumb/14883039x7qpv.png (http://www.abload.de/image.php?img=14883039x7qpv.png) http://www.abload.de/thumb/image20swgjqyv.png (http://www.abload.de/image.php?img=image20swgjqyv.png) http://www.abload.de/thumb/73533766h7r7g.png (http://www.abload.de/image.php?img=73533766h7r7g.png) http://www.abload.de/thumb/61610530p1qvq.png (http://www.abload.de/image.php?img=61610530p1qvq.png)

Dural
2013-02-21, 09:34:09
in crysis2 fällt titan in der 2560 auflösung hinter die 690, sonst immer vor der 690 :eek:

Skysnake
2013-02-21, 09:34:50
Den 3DScheis11 kann man sich sonst wo hin schieben..

Crysis2 ist da schon deutlich aussagekräftiger.

FireStrike Extreme ist so lala.. So wirklich überzeugen bzgl Vergleichbarkeit kann das Ding auch nicht, aber auf jeden Fall um 1000 mal besser als die anderen 3D Marks...

in crysis2 fällt titan in der 2560 auflösung hinter die 690, sonst immer vor der 690 :eek:
Ja, und das wo man doch gerade bei extremen Auflösungen Titan eher vorne gesehen hat :ugly:

boxleitnerb
2013-02-21, 09:35:11
Bei der miesen Skalierung in dem Test auch kein Wunder ;)

@Skysnake:
Ich hab doch schon kürzlich mit verlinkten Benchmarks bewiesen, dass das im Schnitt gut hinkommt. Und die defätistische Ausdrucksweise...naja.

Dural
2013-02-21, 09:37:42
in 1920x1200 sind es satte 54% vor der 680er :eek:

also wenn sich das bestätigt... hut ab!
so eine dominante GPU gab es bis jetzt zwei mal, nämlich R300 und G80

(del676)
2013-02-21, 09:40:05
Falsch. Frueher wars mal die Regel, dass die neue Generation fast 100% schneller war.
TNT2 -> Geforce 256DDR -> Geforce 2

Sollte das NDA nicht erst um 15:00 fallen?

boxleitnerb
2013-02-21, 09:41:56
http://www.abload.de/thumb/titaneishe.jpg (http://www.abload.de/image.php?img=titaneishe.jpg) http://www.abload.de/thumb/titankfsqe.png (http://www.abload.de/image.php?img=titankfsqe.png) http://www.abload.de/thumb/titan2iesq7.jpg (http://www.abload.de/image.php?img=titan2iesq7.jpg)

Und der Wasserblock:
http://www.abload.de/thumb/fc-titan_detail_np_80rjsb5.jpg (http://www.abload.de/image.php?img=fc-titan_detail_np_80rjsb5.jpg) http://www.abload.de/thumb/fc-titan_front_ca_800dvs8q.jpg (http://www.abload.de/image.php?img=fc-titan_front_ca_800dvs8q.jpg) http://www.abload.de/thumb/fc-titan_front_cp_800xgs5m.jpg (http://www.abload.de/image.php?img=fc-titan_front_cp_800xgs5m.jpg) http://www.abload.de/thumb/fc-titan_front_np_800ays9h.jpg (http://www.abload.de/image.php?img=fc-titan_front_np_800ays9h.jpg)

BigKid
2013-02-21, 09:44:30
Falsch. Frueher wars mal die Regel, dass die neue Generation fast 100% schneller war.
TNT2 -> Geforce 256DDR -> Geforce 2
Und auch wenn es NOCH so oft wiederholt wird...
GK110 IST KEINE NEUE GENERATION !
Egal wie gerne das manche herbeireden würden...
GK110 ist die Dicke Variante von GK104 und gehört der selben Generation an.
Und egal ob ich jetzt provoziere: Wenn AMD was schlagkräftigeres gebracht hätte, hätte sich NVIDIA nicht so bequem in der Hängematte zurücklehnen und erstmal langezeit mit dem kleinen Chip alles abfischen können.
Dann würden wir heute vermutlich schon lange eine gtx685, ti oder sonstwas mit GK110 für deutlich weniger Kohle haben...

Bei GF104 kam doch niemand auf die Idee zu behaupten er wäre eine neue Generation ?!

P@trick
2013-02-21, 09:46:26
Reichlich durchwachsen,einige hier wissen die Gründe sicher besser.Die letzten 2 Bilder:Im Fire Strike X Mode gute 45% ,Crysis 2 1600p nahezu 70%.

Ailuros
2013-02-21, 09:46:34
Ich hab doch schon kürzlich mit verlinkten Benchmarks bewiesen, dass das im Schnitt gut hinkommt. Und die defätistische Ausdrucksweise...naja.

Kannst Du es nochmal schnell fuer mich bitte wiederholen? Irgendwo muss ich etwas verpassen fuer Crysis2@2560. Unter normalen Umstaenden sollte Titan auch hier die 690 schlagen wie in den anderen Aufloesungen.

boxleitnerb
2013-02-21, 09:47:50
Kannst Du es nochmal schnell fuer mich bitte wiederholen? Irgendwo muss ich etwas verpassen fuer Crysis2@2560. Unter normalen Umstaenden sollte Titan auch hier die 690 schlagen wie in den anderen Aufloesungen.

Gern:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9646396&postcount=2541

http://www.abload.de/thumb/gtxtitan645jrpc.jpg (http://www.abload.de/image.php?img=gtxtitan645jrpc.jpg) http://www.abload.de/thumb/gtxtitan65dkpxz.jpg (http://www.abload.de/image.php?img=gtxtitan65dkpxz.jpg)

Dural
2013-02-21, 09:48:45
in crysis ist GK110 der hammer, der ist ja fast schneller als es die daten zulassen sollten?!

boxleitnerb
2013-02-21, 09:52:45
50% zur 680, passt doch.

Dural
2013-02-21, 09:54:35
in 2560 sind es aber fast 70% :biggrin:

eventuell limitiert da schon der speicher der 680

Ailuros
2013-02-21, 09:55:11
Gern:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9646396&postcount=2541

Hab etwas Geduld mit mir ich bin ueberarbeitet und mir fehlt Schlaf....ich kapier es immer noch nicht. In 2560*1600 ist jeglicher CPU Limit kleiner als in den anderen Aufloesungen; die 690 hat weniger Speicher und weniger Bandbreite als Titan pro frame, ergo muesste Titan in Crysis2 unter normalen Umstaenden auch schneller sein. Was verpass ich gerade? (renn nochmal schnell fuer extra Kaffee Reserven...)

boxleitnerb
2013-02-21, 09:57:38
Das war eher als Antwort auf die Frage, ob 3DMark11 im Schnitt ein guter Performanceindikator ist oder nicht. Dass es Unstimmigkeiten in Einzelfällen gibt, ist immer klar. Das kann ich im vorliegenden Fall auch nicht erklären.

Btw verstößt es gegen die Forenregeln, solche Leaks zu posten? Wenn ja, nehm ichs wieder raus.

P@trick
2013-02-21, 10:04:26
Hab etwas Geduld mit mir ich bin ueberarbeitet und mir fehlt Schlaf....ich kapier es immer noch nicht. In 2560*1600 ist jeglicher CPU Limit kleiner als in den anderen Aufloesungen; die 690 hat weniger Speicher und weniger Bandbreite als Titan pro frame, ergo muesste Titan in Crysis2 unter normalen Umstaenden auch schneller sein. Was verpass ich gerade? (renn nochmal schnell fuer extra Kaffee Reserven...)


Wenn du das Bild von boxleitnerb Crysis 2 1600p meinst,denke ich ,dass SLI in der Auflösung ein wenig ,nicht viel,aber ein wenig besser skaliert?

Palpatin
2013-02-21, 10:04:43
Außer die sehr komischen Crysis 2 Werte, sieht imo alles nach ca. GTX 680 + ~40% und 7970 + ~30% aus.

boxleitnerb
2013-02-21, 10:06:27
Das ist angeblich die Analyse der Ergebnisse von guru3d in 1600p:
http://www.abload.de/thumb/900x900px-ll-8d67f571boz3.jpeg (http://www.abload.de/image.php?img=900x900px-ll-8d67f571boz3.jpeg)
http://www.overclock.net/t/1362327/various-gtx-titan-previews/1550

1080p:
http://www.abload.de/thumb/7lcls.jpg (http://www.abload.de/image.php?img=7lcls.jpg)

BigKid
2013-02-21, 10:08:52
Das ist angeblich die Analyse der Ergebnisse von guru3d in 1600p:
http://www.abload.de/thumb/900x900px-ll-8d67f571boz3.jpeg (http://www.abload.de/image.php?img=900x900px-ll-8d67f571boz3.jpeg)
http://www.overclock.net/t/1362327/various-gtx-titan-previews/1550
Wenn sich das bewahrheitet und der Preis nicht wäre...
Verdammt...

Mal schnell Rechnen...
A) nen dummen bei eBay finden und die GTX670 DC2 für 299 Euro loswerden, Titan für 900 Euro kaufen = 600 Euro
oder
B) ne zweite GTX670 DC2 dazu = 360 Euro

Grob Vergleichbare Leistung... Hmpfgrml...
Was wohl leiser ist ?

Ailuros
2013-02-21, 10:14:47
Wenn du das Bild von boxleitnerb Crysis 2 1600p meinst,denke ich ,dass SLI in der Auflösung ein wenig ,nicht viel,aber ein wenig besser skaliert?

Ja aber wieso skaliert die 690 hier genau besser? Wenn es in den anderen Aufloesungen genau so waere waere es auch kein Punkt zur Debatte. Ausser ich verpass hier etwas wesentliches klingt es mir eher nach einer Treiber-blase fuer Titan.

MadManniMan
2013-02-21, 10:18:50
Sieht für mich so aus, als würde SLI vielleicht vom Verwaltungsaufwand gebremst?

Skysnake
2013-02-21, 10:22:13
Bei der miesen Skalierung in dem Test auch kein Wunder ;)

@Skysnake:
Ich hab doch schon kürzlich mit verlinkten Benchmarks bewiesen, dass das im Schnitt gut hinkommt. Und die defätistische Ausdrucksweise...naja.
Die 3DMarks, außer der FireStrike Extreme sind aber verdammt CPU abhängig....

Deswegen kannste die Werte ziemlich in die Tonne treten.

Das war eher als Antwort auf die Frage, ob 3DMark11 im Schnitt ein guter Performanceindikator ist oder nicht. Dass es Unstimmigkeiten in Einzelfällen gibt, ist immer klar. Das kann ich im vorliegenden Fall auch nicht erklären.

Btw verstößt es gegen die Forenregeln, solche Leaks zu posten? Wenn ja, nehm ichs wieder raus.
Was ich extrem seltsam finde ist, das man bei den MinFPS auf ziemlich ähnliche Werte bei GTX680 und GTX Titan kommt.

Ich hoffe, das es da nur CPU-limits sind, die dazu führen.

boxleitnerb
2013-02-21, 10:27:32
Die 3DMarks, außer der FireStrike Extreme sind aber verdammt CPU abhängig....

Deswegen kannste die Werte ziemlich in die Tonne treten.


Das Extreme Preset, um das es schon damals ging, nicht.

Ailuros
2013-02-21, 10:30:32
Sieht für mich so aus, als würde SLI vielleicht vom Verwaltungsaufwand gebremst?

Ich bin positiv eingestellt und hoffe auf stellenweise Treiberblasen fuer 2560 im Titan. Waere auch nicht das erste Mal.

BigKid
2013-02-21, 10:33:30
Ich bin positiv eingestellt und hoffe auf stellenweise Treiberblasen fuer 2560 im Titan. Waere auch nicht das erste Mal.
Kannst du kurz erklären was du meinst ?
Treiberblase = Inneffizienz durch nicht optimierten Code ?

Psychopat
2013-02-21, 10:45:07
Wenn sich das bewahrheitet und der Preis nicht wäre...
Verdammt...

Mal schnell Rechnen...
A) nen dummen bei eBay finden und die GTX670 DC2 für 299 Euro loswerden, Titan für 900 Euro kaufen = 600 Euro
oder
B) ne zweite GTX670 DC2 dazu = 360 Euro

Grob Vergleichbare Leistung... Hmpfgrml...
Was wohl leiser ist ?

Du hast noch einen Punkt vergessen:
Wenn der Titan Preis fällt kannst du dem einen Titan noch einen zweiten zur Seite stellen...

MadManniMan
2013-02-21, 10:46:19
Ich bin positiv eingestellt und hoffe auf stellenweise Treiberblasen fuer 2560 im Titan. Waere auch nicht das erste Mal.

Wenn ich jetzt weiter darüber nachdenke, vermute ich immer mehr, dass durch SLI einfach andere Flaschenhälse greifen.

BigKid
2013-02-21, 10:53:10
Du hast noch einen Punkt vergessen:
Wenn der Titan Preis fällt kannst du dem einen Titan noch einen zweiten zur Seite stellen...
Mann soll niemals nie sagen... Aber... Öhmm... Eher nicht :-)

Was ich aber vergessen habe:
Meine aktuelle GTX670 hat "nur" 2GB... DAS ist schon eher ein Punkt...

robbitop
2013-02-21, 11:16:43
~40 % Vorsprung vor einer 7970 GE. Nicht schlecht.
Das passiert, wenn man eine High End Karte (550 sqmm) gegen eine eigentliche Midrange Karte (~350 sqmm) stellt, weil AMD keine High End Karte im Angebot hat.

Schade, dass NV dort keine Konkurrenz hat, sonst würde der Preis sehr schnell auf ~ 600 € fallen. Aber ohne Konkurrenz ist der Markt leider ein Verkäufermarkt :(

boxleitnerb
2013-02-21, 12:12:39
Also das sind die besten Benchmarks ever:
http://www.youtube.com/watch?v=iJ30QIetdkk&feature=player_embedded

;D

Godmode
2013-02-21, 12:16:28
Also das sind die besten Benchmarks ever:
http://www.youtube.com/watch?v=iJ30QIetdkk&feature=player_embedded

;D

Hat der Linus so eine große Audience oder warum hat der net Titan?

derguru
2013-02-21, 12:31:20
hier ist auch noch ein resultat, hat boxleitnerb vergessen gehabt.

http://www.abload.de/img/78e3681e_avpocv6s5h.jpeg

Sunrise
2013-02-21, 12:36:28
hier ist auch noch ein resultat, hat boxleitnerb vergessen gehabt.

http://www.abload.de/img/78e3681e_avpocv6s5h.jpeg
Diese total sinnlosen einzelnen Benches ohne jegliche technische Angaben sind so nervig. Hoffentlich ist bald das techreport review oben.

Knuddelbearli
2013-02-21, 12:37:11
ich glaub irgendwie nicht das er das vergessen hat *hüstel* *duck*

boxleitnerb
2013-02-21, 12:38:39
War ja klar, wer wieder trollt. Knuddelbearli. Süss.
AvP hängt ziemlich an der Bandbreite, da ist es kein Wunder, dass sich Titan nicht absetzen kann ;)

Knuddelbearli
2013-02-21, 12:40:37
und deswegen zählt es nicht?

Skysnake
2013-02-21, 12:41:09
Jo, der sieht nämlich zienlich bescheiden aus : :eek:

Kann ich mir gar nicht vorstellen, das man da nur auf 80 FPS kommt :freak:

Und vorallem, mit OC nur 87???

Die Karte soll doch "locker" über 1GHz gehen :confused:

Das wären doch schon 14% Vorsprung Mehrleistung. Da dann nu 8,8% Mehrleistung :confused:

Die werden die Karte ja wohl hoffentlich geprügelt haben...

Und vor allem hoffe ich, dass Sie da wirklich nur mit 876MHz gelaufen ist, ansonsten sind die Ergebnisse ja noch schlechter @stock :(

mapel110
2013-02-21, 12:47:00
Beeindruckende Zahlen, wenn sie sich denn bewahrheiten. Preis wäre angemessen bei der Leistung imo.

Knuddelbearli
2013-02-21, 12:47:20
sind jaa nur noch 2 std

bleibe extra wach obwohl ich nachtschicht hatte und seit 22 auf den Beinen bin ^^

Matrix316
2013-02-21, 12:49:21
Wenn sich das bewahrheitet und der Preis nicht wäre...
Verdammt...

Mal schnell Rechnen...
A) nen dummen bei eBay finden und die GTX670 DC2 für 299 Euro loswerden, Titan für 900 Euro kaufen = 600 Euro
oder
B) ne zweite GTX670 DC2 dazu = 360 Euro

Grob Vergleichbare Leistung... Hmpfgrml...
Was wohl leiser ist ?
Ich hol mir ne zweite 680 und verkauf beide: Dann ist der Aufpreis auf eine Titan nur noch minimal. ;) *g*

Nee, also im Moment lohnt sich glaube ich wenn man eine 680 schon hat, eine zweite eher als eine Titan. Erst wenn der Preis so auf 500 Euro sinkt, lohnt sich glaube ich der Tausch.

Sunrise
2013-02-21, 12:52:54
sind jaa nur noch 2 std

bleibe extra wach obwohl ich nachtschicht hatte und seit 22 auf den Beinen bin ^^
Playstation 4? ;)

Aber mal im Ernst, es wird Zeit für gescheite Reviews. Ich bin zwar nicht ganz so heiß auf Titan wie sonst, aber endlich mal wieder richtiges single GPU High-End ist trotz des Preises sehr erfrischend. Auch wenn´s anhand der Specs jetzt nicht die Offenbarung ist, auf die ich gehofft hatte.

boxleitnerb
2013-02-21, 13:02:16
und deswegen zählt es nicht?

Hab ich das gesagt? Nein.
Skysnake, vergiss die Beruhigungspillen nicht ;)

Hier mal ein Benchmark, der die Bandbreitenabhängigkeit in AvP sehr schön zeigt. In der Auflösung bringen bei einer GTX680 16,6% mehr Speichertakt 11,2% mehr fps. Nvidia geht zwar effizient mit Rohleistung und Bandbreite um, aber zaubern können sie auch nicht. Es wird sicherlich auch mal solche Fälle geben, wo 7970 GE und Titan recht nah zusammenliegen, weil sie beide dieselbe Bandbreite haben.
http://www.abload.de/img/alienvs.predatorultra8ksca.png (http://www.abload.de/image.php?img=alienvs.predatorultra8ksca.png)

Knuddelbearli
2013-02-21, 13:11:55
Playstation 4? ;)

Aber mal im Ernst, es wird Zeit für gescheite Reviews. Ich bin zwar nicht ganz so heiß auf Titan wie sonst, aber endlich mal wieder richtiges single GPU High-End ist trotz des Preises sehr erfrischend. Auch wenn´s anhand der Specs jetzt nicht die Offenbarung ist, auf die ich gehofft hatte.

nö PS4 ist zwar von den Daten interessant aber für sowas schaue ich doch keinen Livestream mitten in der Nacht an, aus dem Alter bin ich schon lange raus ^^

M4xw0lf
2013-02-21, 13:15:36
Beeindruckende Zahlen, wenn sie sich denn bewahrheiten. Preis wäre angemessen bei der Leistung imo.

Angemessen? :freak:

BigKid
2013-02-21, 13:26:30
Angemessen? :freak:
Jup... Also selbst als Pro-NVidia-Biased kann ich da nix angemessenes mehr sehen... Wenn der Preis so auf der Strasse ankommt, dann ist das alles, aber nicht angemessen...

Sunrise
2013-02-21, 13:29:37
nö PS4 ist zwar von den Daten interessant aber für sowas schaue ich doch keinen Livestream mitten in der Nacht an, aus dem Alter bin ich schon lange raus ^^
Jup, same here. Am Ende landen doch wieder alle beim PC, die ordentlich Gas geben und sich was eigenes zusammenbauen wollen. Ohne das alles, fehlt einfach was.

Iruwen
2013-02-21, 13:34:57
Ich werd bei den Zahlen langsam wuschig, aber angemessen, soweit würde ich dann auch nicht gehen :D

boxleitnerb
2013-02-21, 13:43:45
Anscheinend nehmen auch andere Seiten so langsam die Frametimegeschichte auf. Das sollte Hardwarecanucks sein, wenn mich nicht alles täuscht:
http://www.abload.de/img/900x900px-ll-7ad3adbjyqs8.jpeg (http://www.abload.de/image.php?img=900x900px-ll-7ad3adbjyqs8.jpeg)

http://www.abload.de/thumb/c3c67511_143404111518fqrlm.png (http://www.abload.de/image.php?img=c3c67511_143404111518fqrlm.png) http://www.abload.de/thumb/fa00791f_14340411152132r7z.png (http://www.abload.de/image.php?img=fa00791f_14340411152132r7z.png) http://www.abload.de/thumb/q2obp.png (http://www.abload.de/image.php?img=q2obp.png)

Crysis 3 geht ziemlich ab (ggü. der 680).

derguru
2013-02-21, 13:55:17
ram bedingt,anders kann ich mir auch den abstand zur 7970 nicht vorstellen.

boxleitnerb
2013-02-21, 13:58:09
In 1600p unwahrscheinlich. Titan hat halt ziemlich viel Rechenleistung und vor allem Füllrate.

Godmode
2013-02-21, 13:59:43
ram bedingt,anders kann ich mir auch den abstand zur 7970 nicht vorstellen.

Kann ich mir nicht vorstellen, die Radeon hat doch 3Gb?

derguru
2013-02-21, 14:01:46
In 1600p unwahrscheinlich. Titan hat halt ziemlich viel Rechenleistung und vor allem Füllrate.
1600p mit 8xmssaa müsste locker über die 2gb gehen,der abstand von 680gtx zur 7970 ist imo zu groß.
Kann ich mir nicht vorstellen, die Radeon hat doch 3Gb?
die rede ist auch nicht von der 7970.

Knuddelbearli
2013-02-21, 14:04:54
40-50% können es schon sein je anchdem was in dem spiel limitiert und wie sehr der boost aufdreht

aber dort steht überall nur 7970 nicht 7970 GE :-/

Godmode
2013-02-21, 14:05:29
1600p mit 8xmssaa müsste locker über die 2gb gehen,der abstand von 680gtx zur 7970 ist imo zu groß.

die rede ist auch nicht von der 7970.

Axo, das hab ich überlesen. Ja der 680 geht wohl da der Ram langsam aus.

Godmode
2013-02-21, 14:59:16
http://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_Titan/1.html

HPVD
2013-02-21, 15:03:23
kleines nettes Detail:: der Idle stromverbrauch im Multimonitor Betrieb ist endlich auch schön niedrig :-)
http://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_Titan/25.html

MartinRiggs
2013-02-21, 15:08:54
Hab grade mal bei PCGH und CB gelesen, das Ding ist irgendwie hohl.
Die Leistung liegt im Rahmen eines Refreshs, Lautstärke ist i.O. und dann verlangt NV doppelt soviel Kohle wie früher.:crazy:

derguru
2013-02-21, 15:09:11
ganz ehrlich,mit der titan werden die spiele die eh wenig fps haben auch nicht spielbarer.

zu teuer ist gar kein ausdruck mehr für das geleistetete, nur 22% gegenüber einer ~320€ karte bei 1600p/ 4xmsaa/ssaa/16xaf.(cb)

mironicus
2013-02-21, 15:11:15
Die Benchmarks bei CB sind ernüchternd. Geile Karte, aber der Preis??? Die 7970 GHZ liegt bei vielen Spielen in Schlagweite, nicht mal 10-20% langsamer, aber 600 Euro günstiger... :D

Knuddelbearli
2013-02-21, 15:11:44
Mit der Standardeinstellung ist zudem gut zu sehen, wie der GPU-Boost die Taktfrequenz bei steigender Temperatur verringert. So startet die GeForce GTX Titan immer mit satten 1.006 MHz, um dann kurze Zeit später auf 993 MHz zu fallen. Kurz darauf wird die Taktrate sowie die GPU-Spannung dann schrittweise immer weiter bis zur endgültigen Frequenz verringert.

http://www.computerbase.de/artikel/grafikkarten/2013/test-nvidia-geforce-gtx-titan/19/

habe ich es nicht gesagt ...
gut 130 Mhz ertrickst ...

BigKid
2013-02-21, 15:13:20
Hab grade mal bei PCGH und CB gelesen, das Ding ist irgendwie hohl.
Die Leistung liegt im Rahmen eines Refreshs, Lautstärke ist i.O. und dann verlangt NV doppelt soviel Kohle wie früher.:crazy:
Es ist auch kein Refresh...
Leute ich bin mit dem Preis auch nicht einverstanden aber hört endlich auf das Ding als neue Generation oder Refresh zu bezeichnen...
Es ist GK110 und verhält sich zu GK104 wie GF110 zu GF104 verflucht...

derguru
2013-02-21, 15:15:47
schon richtig aber wenn es 1 jahr später erst auf den markt kommt....

MartinRiggs
2013-02-21, 15:15:55
Das ist mir doch ehrlich gesagt scheissegal, für mich als Spieler zählt was auf dem Monitor ankommt und das ist lächerlich für 950€:freak:

fondness
2013-02-21, 15:16:37
Also die Werte von PCGH mit @28°C finde ich schon etwas ernüchternd und dabei ist 28°C noch human, im Gehäuse kann es im Sommer auch mal 40°C haben. Im Sommer bleibt von der tollen Leistung wohl nur noch die Hälfte über...

Duplex
2013-02-21, 15:16:56
Nur 25% schneller als die HD7970 Ghz.
AMD kann mit einem neuen Modell und besseres P/L die 950 € Karte ins lächerliche stürzen.
Für 25% mehr Leistung braucht AMD nichtmal das Frontend anfassen, mehr Einheiten + mehr Takt für 600 Euro und die Karte ist besiegt.

Blaire
2013-02-21, 15:18:11
OMG :eek: Wie geil ist das denn? Da wo es drauf ankommt, ist Geforce Titan enorm stark. :up:
http://www.hardwareluxx.de/images/stories/galleries/reviews/2013/geforce-titan/bench/skyrim10.jpg
http://www.hardwareluxx.de/images/stories/galleries/reviews/2013/geforce-titan/bench/bf10.jpg

Duplex
2013-02-21, 15:19:35
@Blaire
Guck dir mal dir min FPS an, merkste was?
Damit kannste nicht flüssig zocken.

BigKid
2013-02-21, 15:20:18
schon richtig aber wenn es 1 jahr später erst auf den markt kommt....
Hätte, könnte, sollte, müsste...
Ich sags nochmal - wäre AMD stark genug aufgestellt um auch nur gk104 paroli zu bieten, dann wäre der gk110 schon lange und billiger da...
Solche Gedankenspiele bringen doch nix... Das Ding ist ne Alternative für Leute die annähernd GTX690 Performance wollen, aber kein SLI - oder für die paar Extremisten, die sich gleich 2-3 Titans reinhauen... So gesehen passt der Preis aus NV-Sicht. GTX690 verkauft sich ja auch...

(Und nur weils gerne überlesen wird - MIR passen die hohen Preise auch nicht)

mironicus
2013-02-21, 15:22:36
So ein Titan ist gut für das eigene Ego und die Signatur. :D

fondness
2013-02-21, 15:23:07
Also in 4K Auflösungen geht der Titan bei PCGH baden:
http://www.pcgameshardware.de/Grafikkarten-Hardware-97980/Tests/Test-Geforce-GTX-Titan-1056659/7/

Beachtlich: Während die Geforce GTX 680 weit abgeschlagen ist, liefern sich die mit Maximalboost laufende Geforce GTX Titan und Sapphires Toxic Radeon HD 7970, ebenfalls mit 6 GiByte VRAM bestückt, ein Kopf-an-Kopf-Rennen. Im kaum mehr spielbaren Bereich erringt die 1,2-GHz-Radeon sogar einen Achtungssieg mit 13,9 zu 13,6 Fps. Bei Serious Sam 3 fällt der Abstand zum Titan-Bestcase ebenfalls gering aus, mit dem üblichen Boost unter 900 MHz wäre ein grober Gleichstand zu verzeichnen.

derguru
2013-02-21, 15:23:44
Hätte, könnte, sollte, müsste...
Ich sags nochmal - wäre AMD stark genug aufgestellt um auch nur gk104 paroli zu bieten, dann wäre der gk110 schon lange und billiger da...
Solche Gedankenspiele bringen doch nix... Das Ding ist ne Alternative für Leute die annähernd GTX690 Performance wollen, aber kein SLI - oder für die paar Extremisten, die sich gleich 2-3 Titans reinhauen... So gesehen passt der Preis aus NV-Sicht. GTX690 verkauft sich ja auch...
nichts für ungut aber amd ist stark aufgestellt gegen die gk104 gurke.

Knuddelbearli
2013-02-21, 15:24:58
irgendwie schon witzig boxleitnerb flammt mich weill ich bezüglich titan so pessimistisch bin und jetzt stellt sich raus das ich sogar noch zu optimistisch war XD

Dachte nicht das NV für 1k€ so nen fail ablässt, da bleibt wirklich nur OC als Rettungsanker

cR@b
2013-02-21, 15:25:05
Kann mir Jemand sagen was die Titan max Variante bei dem CB Review ist? Ich finde das in der Einleitung bzw. unter Testsystem nicht :(

HarryHirsch
2013-02-21, 15:26:41
bevor hier jemand fail schreit:

fail!

erster! :biggrin:

Knuddelbearli
2013-02-21, 15:26:48
106% powertune und 95C° statt 80C° steht auch dort

Godmode
2013-02-21, 15:27:16
Titan kommt nur in Frage wenn:
- ich die schnellste Single GPU will
- ich die maximal mögliche Leistung mit SLI haben will

und mir dabei der Preis egal ist. Sonst ist die Karte für nichts zu gebrauchen. Die Lautstärke gibt noch einen Bonuspunkt.

@CB Review: Die haben den Worst Case gemessen. Ein Gehäuse mit zwei langsam drehenden Lüftern.

cR@b
2013-02-21, 15:28:57
106% powertune und 95C° statt 80C° steht auch dort

Wo steht das? Also kurz von den Benches nicht oder bin ich blind...
Es müsste eigentlich unter Testsystem mit aufgelistet sein aber steht anscheinend nur unter "Wie hoch taktet der Turbo".

Grindcore
2013-02-21, 15:34:44
Also die Performance in Metro 2033, wo eine GTX680 ja richtig übel verdroschen wurde von der 7970, ist schon ziemlich beeindruckend.

Dural
2013-02-21, 15:35:17
zuwenig für den preis.

für 900.- hätte man einen vollen GK110 mit 10% mehr takt erwarten können, da hätte ich gesagt OK aber so :rolleyes:

Schaffe89
2013-02-21, 15:35:22
OMG Wie geil ist das denn? Da wo es drauf ankommt, ist Geforce Titan enorm stark

Du findest auch irgendwo ein Korn oder?
Die Karte ist der reinste Fail, wenn man die Erwartungen, besonders deine als Maßstab nimmt.
Nun sinds 30% zur GTX 680 in Full HD und 24% zur HD 7970 ghz.

Wenn man die Karte nicht limitiert zieht sie gleich mehr wie die HD 7970 ghz.
Man hat die Karte so lange limitiert bis der Verbrauch stimmt, deswgegen hat man auch die Daten und den angeblichen Verbrauch als erstes Veröffentlicht und alle Tester angehalten, bitte die Bremse drinn zu lassen.

Ohne Bremse also 7% Merhleistung bei 70 Watt mehr verbrauch, super.

Wenn der Preis so bleibt ist die Karte einfach nur scheiße und wird verstauben.

Käsetoast
2013-02-21, 15:36:30
Wow - hätte ich nicht gedacht dass die so schlecht abschneidet. Ich hatte fest damit gerechnet, dass die mit allen bisherigen Karten den Boden wischt. Anscheinend hat NVIDIA hier aber was Spiele angeht mit denselben Problemen zu kämpfen wie AMD mit seiner 7900er Serie - die Mehrleistung der zusätzlichen Einheiten verpufft größtenteils im Nichts wenn es um Spiele geht...

Da kann AMD sich in der Tat Hoffnungen auf die nächste Krone bei den Single-GPU-Grafikkarten machen auch ohne die Chipgröße stark erhöhen zu müssen...

dildo4u
2013-02-21, 15:37:59
Krass wie viel besser als die 680 sie ist wenn die Shaderleistung limitiert.

http://www.abload.de/img/metro200337cpaa.jpg

http://www.abload.de/img/cerrbpud.jpg

http://www.abload.de/img/cdfgyp1x.jpg

Knuddelbearli
2013-02-21, 15:38:48
@CB Review: Die haben den Worst Case gemessen. Ein Gehäuse mit zwei langsam drehenden Lüftern.
Nein das ist noch nicht das worstcase. im Raum sind es ja immer noch maximal 20C° :wink:
Und wer hat in Europa schon im Sommer alles ne Klimaanlage? Außerdem heizt CB nicht vor sondern bencht ganz normal.


Was auch interessant ist.
Mit einheizen sieht man auf CB schön das nichtmal der Garantierte Boost immer gehalten wird. Und bei PCGH sieht man dann schön wieviel diese Trickserei bringt. Da sie 1 mal normal und 1 mal mit garantierten Boost testen. Und die Unterschiede sind teilweise enorm ... Teilweise fast 20% !!!!

ChaosTM
2013-02-21, 15:40:51
Fail ist nur der Preis.
+35% zur 7970ghz sind OK. -> http://www.computerbase.de/artikel/grafikkarten/2013/test-nvidia-geforce-gtx-titan/7/ 1080p mit 8×AA/16 , bei 1600p schaut es ähnlich aus.

Ätznatron
2013-02-21, 15:42:07
Wo steht das? Also kurz von den Benches nicht oder bin ich blind...
Es müsste eigentlich unter Testsystem mit aufgelistet sein aber steht anscheinend nur unter "Wie hoch taktet der Turbo".

Kursiv unter jedem Benchmark.

M4xw0lf
2013-02-21, 15:45:18
Randnotiz: Ich finde es zum Kotzen, dass ht4u von Nvidia nicht mehr beliefert wird. Der Test fehlt mir grade.

LSSJBroly
2013-02-21, 15:46:30
Krass wie viel besser als die 680 sie ist wenn die Shaderleistung limitiert.


In metro liegt es in erster Linie an der Bandbreite. eine GTX 680 mit +15% Speicher-OC kommt schon an die 40Fps marke. GK110 besitzt rund 50% mehr davon ->mit Boost kommen da auch rund 50% (47%) raus.
Allerdinsgs cheint GK110 doch nicht so Bandbreitenlimitiert zu sein. Der höhere GPU-Takt kommt ja recht gut an...

Schaffe89
2013-02-21, 15:47:22
Nvidia cheatet da mit ihrem Boost kack enorm. Bei CB wird ja nichtmal der garantierte Boost gehalten.

Ich hoff der scheiß kommt nicht bei AMD.

HarryHirsch
2013-02-21, 15:47:29
Randnotiz: Ich finde es zum Kotzen, dass ht4u von Nvidia nicht mehr beliefert wird. Der Test fehlt mir grade.

#1

BigKid
2013-02-21, 15:50:01
Also bei solchen Resultaten von Fail zu sprechen ?
Zu teuer... Ja... Aber Fail ?!?

Wenn man die Karte nutzen will, dann ja weil man hohe Settings und Auflösungen fährt...
http://www.pcgameshardware.de/screenshots/original/2013/02/Geforce-GTX-Titan-Crysis-3-SLI-1600p.png

fondness
2013-02-21, 15:50:57
Nvidia cheatet da mit ihrem Boost kack enorm. Bei CB wird ja nichtmal der garantierte Boost gehalten.

Ich hoff der scheiß kommt nicht bei AMD.

Schau dir doch die nicht-deutschen Tests an. So gut wie das funktioniert kommt das garantiert auch von AMD. Wenn man ein paar Minuten spielt und die Karte und das Gehäuse richtig aufgeheizt ist können die fps schon man um 20% runter sacken.

cR@b
2013-02-21, 15:52:23
Kursiv unter jedem Benchmark.

Bei mir nicht...

john carmack
2013-02-21, 15:52:41
http://www.computerbase.de/artikel/grafikkarten/2013/test-nvidia-geforce-gtx-titan/

john carmack
2013-02-21, 15:55:14
gibts irgendwo nen test gegen die 7970Toxic?

Knuddelbearli
2013-02-21, 15:56:09
bei PCGH zumindest unter extremauflösungen

http://www.pcgameshardware.de/Grafikkarten-Hardware-97980/Tests/Test-Geforce-GTX-Titan-1056659/7/

LSSJBroly
2013-02-21, 15:57:55
bei PCGH zumindest unter extremauflösungen

http://www.pcgameshardware.de/Grafikkarten-Hardware-97980/Tests/Test-Geforce-GTX-Titan-1056659/7/

Erschreckend, wie schwach Titan da ist... Und das ist beides mal ne Titan mit 1006MHz, also 15% übern Boost und 20% übern Base-Clock...

Knuddelbearli
2013-02-21, 15:58:30
vor allem das ist ja ein OC Titan ^^

dafür kackt AMD aber bei SGSSA ab

Palpatin
2013-02-21, 15:58:46
Fail ist nur der Preis.
Der ist dafür aber leider EPIC FAIL.
Für 500 wär das Teil ok gewesen.
Bei 600 hätte man über den Preis diskutieren können.
700 wär FAIL gewesen.
900 ist einfach nur total :crazy:

dildo4u
2013-02-21, 16:00:34
Erschreckend, wie schwach Titan da ist... Und das ist beides mal ne Titan mit 1006MHz, also 15% übern Boost und 20% übern Base-Clock...
SS3 hat sie 34 vs 19fps gegen die 680 ein Monster Sprung.

M4xw0lf
2013-02-21, 16:00:47
Die Titan kann in Dirt Slowdown jetzt sogar mit der 7970GHz mithalten :D
http://www.hardware.fr/articles/887-20/benchmark-dirt-showdown.html

Bei Hardware.fr dürfte das Abschneiden auch das schlechteste aller Reviews sein :eek: http://www.hardware.fr/articles/887-27/recapitulatif-performances.html

BigKid
2013-02-21, 16:01:37
Der ist dafür aber leider EPIC FAIL.
Für 500 wär das Teil ok gewesen.
Bei 600 hätte man über den Preis diskutieren können.
700 wär FAIL gewesen.
900 ist einfach nur total :crazy:
Sicher - nur ist so gesehen jeder Porsche oder Ferrari auch ein Fail...
Oder glaubst du die Preise dieser Karren lassen sich emotionslos und sachlich betrachtet irgendwie rechtfertigen ?

kunibätt
2013-02-21, 16:02:31
In den DS-Auflösungen minimal schneller als eine 7970GE....
Das gibt´s doch nicht.

dildo4u
2013-02-21, 16:03:58
Die Titan kann in Dirt Slowdown jetzt sogar mit der 7970GHz mithalten :D
http://www.hardware.fr/articles/887-20/benchmark-dirt-showdown.html

Wow so gut wie die 690 in hoher Auflösung,wie gesagt für die Zukunft ein Monster zeigt sich noch nicht in allen Games.

john carmack
2013-02-21, 16:08:25
wer hätte gedacht das die Titan gegen die Toxic soo "schlecht" ist
...ok bei SGSSA...

Hätte trotzdem mehr erwartet.

boxleitnerb
2013-02-21, 16:14:36
irgendwie schon witzig boxleitnerb flammt mich weill ich bezüglich titan so pessimistisch bin und jetzt stellt sich raus das ich sogar noch zu optimistisch war XD

Dachte nicht das NV für 1k€ so nen fail ablässt, da bleibt wirklich nur OC als Rettungsanker

Verwechselst du da nicht grad was? :)
Aber troll ruhig weiter.

cR@b
2013-02-21, 16:16:17
Nehmen wir an nV verkauft

10000 für 950.- = 9500000

warum nicht

15000 für 650.- = 9750000

Vermutlich würde sie durch einen 300.- Preiscut noch mehr Kunden bekommen und somit mehr Chips/Karten absetzen und mehr Kohle einfahren.

Aufgehts nV für 650.- kauf ich sie! :D

LSSJBroly
2013-02-21, 16:16:58
SS3 hat sie 34 vs 19fps gegen die 680 ein Monster Sprung.

Und? AMDs Karte ist dennoch fast dran...

Fakt ist, dass Titan doch ziehmlich enttäuscht. Man hat eigentlich mindestens +50% erwartet, auch in 1080p (GPU-limit)...

Knuddelbearli
2013-02-21, 16:20:53
Als ob das Ironie wäre. Von manchen Leuten kommt halt überwiegend Negatives, bevor das Produkt überhaupt draußen ist. Da bekomme ich den Eindruck, dass das Absicht ist, wenn ich mir die Postingfrequenz, -historie und -formulierung so ansehe. Nachher kann man natürlich behaupten es wäre Ironie... Ich kann Schlechtreden eben nicht ausstehen, tut mir leid, da bin ich ganz ehrlich.


und ich behielt LEIDER recht selbst ohne meine Extrembeispiele ...
War sogar noch zu optimistisch :mad:

Sunrise
2013-02-21, 16:40:35
Nehmen wir an nV verkauft

10000 für 950.- = 9500000

warum nicht

15000 für 650.- = 9750000

Vermutlich würde sie durch einen 300.- Preiscut noch mehr Kunden bekommen und somit mehr Chips/Karten absetzen und mehr Kohle einfahren.

Aufgehts nV für 650.- kauf ich sie! :D
Vermutlich weil sie nur ca. 10.000 von den A1 wafer runs (wenn ich mich nicht irre, gab es auch noch AB?) noch übrig hatten und nicht mehr. Sie verkaufen uns also die Reste weiter und verpacken das schick mit ein paar Gamer-Features und einem schönen "Blendkühler" drumherum für knappe 1000 EUR.

Das ist zwar Spekulation, aber dafür sind wir ja in diesem Thread.

Godmode
2013-02-21, 16:46:26
Ich denke den Thread kann man schließen. Gibt jetzt nen Review Thread.

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=539111

Raff
2013-02-21, 16:47:05
Wow so gut wie die 690 in hoher Auflösung,wie gesagt für die Zukunft ein Monster zeigt sich noch nicht in allen Games.

Daher sollte man ja hohe Auflösungen testen, das zeigt die Richtung. :) Andererseits verschiebt es auch Limits, in diesem Fall zugunsten AMDs ...

MfG,
Raff

M4xw0lf
2013-02-21, 16:48:26
Nehmen wir an nV verkauft

10000 für 950.- = 9500000

warum nicht

15000 für 650.- = 9750000

Vermutlich würde sie durch einen 300.- Preiscut noch mehr Kunden bekommen und somit mehr Chips/Karten absetzen und mehr Kohle einfahren.

Aufgehts nV für 650.- kauf ich sie! :D

Äh, weil 15000x950 deutlich mehr ist als 975000? ;D

BigKid
2013-02-21, 16:51:30
Kann mir mal jemand erklären wie man Denken muss um eine Karte bzw. einen Chip als Fail zu deklarieren, der einfach mal mit allem den Boden aufwischt was es so gibt ? Es hat schon fast was tragisch komisches wie manche hier nach einem Haar in der Suppe suchen... Um das zu verstehen muss man vermutlich die Fanboy Brille aufziehen - oder hab ich jetzt die Reviews alle falsch verstanden ?

Computerbase:
"die GeForce GTX Titan ein faszinierendes Stück Hardware und schlussendlich die aktuell mit Abstand beste Grafikkarte auf dem Markt "
"Schwachstellen gibt es an Nvidias GeForce GTX Titan eigentlich keine"

PCGamesHardware:
"Die PCGH-Grafikkartentester sind sich einig: Die Geforce GTX Titan ist eine fantastische Grafikkarte, an der es kaum etwas auszusetzen gibt."
"Die GeForce GTX Titan verkörpert schlussendlich all das, was sich ein Hardware- und Grafik-Enthusiast wünscht."

PC Perspective:
"At 2560x1440 the TITAN definitely perks up and finds itself easily the most powerful single GPU on the planet."

Und nein - mir ist das auch zu teuer ich werde mir für Crysis 3 und meinen neuen Monitor vermutlich eine zweite GTX670 dazuhängen wenn ich in Probleme laufe...
Aber deswegen ist der Chip/die Karte immernoch kein Fail sondern einfach nur zu teuer...

kunibätt
2013-02-21, 16:58:51
Die DS-Werte bei PCGH nicht gesehen?

HarryHirsch
2013-02-21, 16:58:53
Kann mir mal jemand erklären wie man Denken muss um eine Karte bzw. einen Chip als Fail zu deklarieren, der einfach mal mit allem den Boden aufwischt was es so gibt ? Es hat schon fast was tragisch komisches wie manche hier nach einem Haar in der Suppe suchen... Um das zu verstehen muss man vermutlich die Fanboy Brille aufziehen - oder hab ich jetzt die Reviews alle falsch verstanden ?

Computerbase:
"die GeForce GTX Titan ein faszinierendes Stück Hardware und schlussendlich die aktuell mit Abstand beste Grafikkarte auf dem Markt "
"Schwachstellen gibt es an Nvidias GeForce GTX Titan eigentlich keine"

PCGamesHardware:
"Die PCGH-Grafikkartentester sind sich einig: Die Geforce GTX Titan ist eine fantastische Grafikkarte, an der es kaum etwas auszusetzen gibt."
"Die GeForce GTX Titan verkörpert schlussendlich all das, was sich ein Hardware- und Grafik-Enthusiast wünscht."

PC Perspective:
"At 2560x1440 the TITAN definitely perks up and finds itself easily the most powerful single GPU on the planet."

Und nein - mir ist das auch zu teuer ich werde mir für Crysis 3 und meinen neuen Monitor vermutlich eine zweite GTX670 dazuhängen wenn ich in Probleme laufe...
Aber deswegen ist der Chip/die Karte immernoch kein Fail sondern einfach nur zu teuer...

boden aufwischen? cherry pinking?

http://www.abload.de/img/img00405656acrm.gif (http://www.abload.de/image.php?img=img00405656acrm.gif)

eventuell solltest du erst mal deine brille absetzen.

Ailuros
2013-02-21, 17:00:47
Vermutlich weil sie nur ca. 10.000 von den A1 wafer runs (wenn ich mich nicht irre, gab es auch noch AB?) noch übrig hatten und nicht mehr. Sie verkaufen uns also die Reste weiter und verpacken das schick mit ein paar Gamer-Features und einem schönen "Blendkühler" drumherum für knappe 1000 EUR.

Das ist zwar Spekulation, aber dafür sind wir ja in diesem Thread.

Es stimmt aber leider.

----------------------

Sonst herzlichen Glueckwunsch an PCGH fuer den ausgezeichneten review. Nebenbei hat Titan Damien Triolet auch nicht aus den Socken reissen koennen.

Ailuros
2013-02-21, 17:37:19
Hier geht es weiter: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=539111