Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GK110 - High-End-Kepler - Q1 2013
Seiten :
1
2
3
4
5
6
7
8
9
10
11
12
13
14
[
15]
16
AnarchX
2013-02-19, 15:26:40
>1GHz automatischer OC:
http://images.hardwarecanucks.com/image//skymtl/GPU/GTX-TITAN/GTX-TITAN-29.jpg
http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/59752-nvidia-geforce-gtx-titan-gk110-s-opening-act-5.html
We’ve had Titan already clocked at over 1.1GHz in our own testing. Can you imagine what severe coolness this means with liquid cooling?
http://www.guru3d.com/articles_pages/geforce_gtx_titan_preview_reference,4.html
lieber 3x670iger.:)
AAAAAAAAAH!
MfG,
Raff
M4xw0lf
2013-02-19, 15:28:43
Fünfhundertsiebzsch mm². Good grace.
dildo4u
2013-02-19, 15:30:35
PCGH hat 214Watt gemessen und leiser als 680.
http://www.pcgameshardware.de/Geforce-Titan-Hardware-256920/Specials/Geforce-GTX-Titan-Preis-Release-1056222/
BigKid
2013-02-19, 15:31:42
Greift NV jetzt tatsächlich das Monitor "occen" auf ?
http://www.anandtech.com/show/6760/nvidias-geforce-gtx-titan-part-1/6
Wäre cool... Denn das Feature müsste ja auch eigentlich "nur" auf Treiberseite machbar sein oder ?
Muss mich zuhause mal mit dem Thema befassen... Reizt schon...
derguru
2013-02-19, 15:37:01
AAAAAAAAAH!
MfG,
Raff
hehe bevor ich das geld in 2x680iger oder titan investiere,bezogen auf mr coffee.
für 600€ wäre der titan herzlich willkommen in meiner kiste aber so, never.:biggrin:
HarryHirsch
2013-02-19, 15:37:24
Porsche Leistung, Ferrari Preis, Toyota Verbrauch.
Hier stimmt die Mischung nicht.
Die hätten das Teil mal lieber auf 1,2 GHZ prügeln sollen dann könnten wir auch über 900€ reden und die Leistungsaufnahme intressiert bei 900 wirklich niemand.
dann bräuchte das kärtchen aber 3x8pcie stromanschlüsse.
Godmode
2013-02-19, 15:37:44
>1GHz automatischer OC:
http://images.hardwarecanucks.com/image//skymtl/GPU/GTX-TITAN/GTX-TITAN-29.jpg
http://www.hardwarecanucks.com/forum/hardware-canucks-reviews/59752-nvidia-geforce-gtx-titan-gk110-s-opening-act-5.html
http://www.guru3d.com/articles_pages/geforce_gtx_titan_preview_reference,4.html
Hmm das schmeckt mir schon eher. ;D
dargo
2013-02-19, 15:40:55
gute 50W weniger verbrauch im spiel gegenüber einer 7970ghz ist schon heftig.
Nimm die Effizienz vom NT weg, dann den höheren Verbrauch aufgrund vom Referenzkühler bei AMD und schon sind es ~30W.
Edit:
Wenn ich mir das anschaue könnte die Sapphire Vapor-X sogar bei der Leistungsaufnahme mit dem Titan gleichauf liegen.
http://www.hardocp.com/article/2012/09/24/sapphire_vaporx_radeon_hd_7970_ghz_edition_review/9
derguru
2013-02-19, 15:43:34
immer noch nice,die ist ja nicht langsamer.:wink:
bei der pcgh ist es übersichtlicher.
http://www.abload.de/img/2skeeh.jpg
Duplex
2013-02-19, 15:43:34
Fünfhundertsiebzsch mm². Good grace.
Laut HWLUXX Screen sind es 550mm²
http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/25462-test-nvidia-geforce-gtx-titan-im-3-way-sli.html?start=1
Ronny145
2013-02-19, 15:46:16
Karten werden in Europa zu Beginn von Asus, EVGA, Gainward & Palit, Gigabyte und Zotac im Handel erwartet. Dabei werden die GTX Titan auch mit alternativen Luftkühlern angeboten, auch vorbereitete Lösungen mit Wasserkühlung werden kommen. Darüber hinaus dürfen die Hersteller auch bei den Taktraten Hand anlegen.
Dann erscheint das mit der limitierten Auflage von 1000 Stück eher unglaubwürdig, oder? Oder bekommt jeder Hersteller nur jeweils 100 Stück? :freak:
dargo
2013-02-19, 15:47:36
immer noch nice,die ist ja nicht langsamer.:wink:
Und wieviele Jahrzehnte musst du die dann nutzen damit das sich in den Stromkosten gegenrechnet? ;D
PCGH_Carsten
2013-02-19, 15:48:14
Fünfhundertsiebzsch mm². Good grace.
Typo, bzw. nicht die offizielle Nvidia-Angabe von 551 mm². Das wird gerade behoben. :)
Godmode
2013-02-19, 15:48:43
http://www.youtube.com/watch?v=hUPsFBmZr9A
Das zeigt schon mal was das Teil wirklich kann, bzgl. Takt.
BigKid
2013-02-19, 15:48:44
Dann erscheint das mit der limitierten Auflage von 1000 Stück eher unglaubwürdig, oder? Oder bekommt jeder Hersteller nur jeweils 100 Stück? :freak:
Zotac Titan mit AMP! Triple Slot :)
Aber naja... Ich glaube ich werde tatsächlich eher eine zweite GTX670 DC2 reinmachen und das erste mal ever SLI nutzen...
M4xw0lf
2013-02-19, 15:49:33
Okay ^^ 550 sind auch noch ziemlich gigantisch.
Screemer
2013-02-19, 15:49:50
bei den luxxern relativiert sich auch die leistungsaufnahme im vergleich zu einer 7970ghz-ed.
http://www.hardwareluxx.de/images/stories/galleries/reviews/2013/geforce-titan/bench/mess2.jpg (http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/25462-test-nvidia-geforce-gtx-titan-im-3-way-sli.html?start=11)
und bei der lautstärke sieht man mal was das testverfahren ausmacht:
Luxx:
http://www.hardwareluxx.de/images/stories/galleries/reviews/2013/geforce-titan/bench/mess6.jpg
cb:
http://www.computerbase.de/news/2013-02/nvidia-stellt-geforce-gtx-titan-gk110-vor/
http://www.youtube.com/watch?v=hUPsFBmZr9A
Das zeigt schon mal was das Teil wirklich kann, bzgl. Takt.
davor läuft bei mir werbung für haarfärbemittel :ugly:
Botcruscher
2013-02-19, 15:51:47
Insgesamt eine nette Karte. Schnell, wenig Verbrauch und ein grandioser Kühler. Aber der Preis...
Duplex
2013-02-19, 15:51:47
Die Karte finde ich beeindruckend, bei 750-800 € würde ich die Karte sofort kaufen!
Ein guter Wasserkühler kostet mit Backplate nochmal ca. 150 €...
derguru
2013-02-19, 15:51:50
Und wieviele Jahrzehnte musst du die dann nutzen damit das sich in den Stromkosten gegenrechnet? ;D
wayne interessieren die stromkosten.
BigKid
2013-02-19, 15:53:11
Die Karte finde ich beeindruckend, bei 750-800 € würde ich die Karte sofort kaufen!
Mein Herz sagt ja - mein Hirn sagt: GTX670 2x SLI mal ausprobieren... Mehr Leistung für weniger Geld... Viel weniger wenn ich berücksichtige, dass ich schon eine GTX670 drinn habe...
boxleitnerb
2013-02-19, 15:53:50
http://www.abload.de/img/gtxtitan-vs-gtx6809hqiw.png (http://www.abload.de/image.php?img=gtxtitan-vs-gtx6809hqiw.png)
Mit Hilfslinien geschätzt:
29/18 = 61%
36/25 = 44%
49/37 = 32%
49/35 = 40%
50/35 = 43%
55/38 = 45%
58/42 = 38%
61/46 = 33%
63/48 = 31%
64/43 = 49%
68/46 = 48%
99/66 = 50%
101/71 = 42%
102/71 = 44%
107/76 = 41%
124/91 = 36%
130/83 = 57%
Skysnake
2013-02-19, 15:55:11
Also die ganzen Angaben sind schon alle etwas seltsam...
OC nur bei 70°C über 1GHz?
Überhaupt muss sich die Temperaturabhängigkeit noch bewahren. Der Verbrauch steigt ja teils massiv an mit der Temperatur. Das hilft einem natürlich extrem, niedrigere Temps zu haben.
Es ist aber echt verblüffend, das man mit so "wenig" Spannung bei so einem riesen Chip die 1 GHz knackt.
Wenn ich mir dann aber anschaue, welche Leistungswerte nVidia angibt, dann wird das NOCH VIEL seltsamer mit dem geringen Abstand :ugly:
@stock bis knapp 1GHz und dann dennoch nur so wenig Mehrperformance???
Also ich bin nach diesem "Launch" verwirrter als zuvor :ugly:
Ich warte da mal echt auf die Werte der Test.
Ich will da dann aber bei ALLEN! Die Raumtemperatur dazu haben, und eine Untersuchung bzgl Leistungsentwicklung im GESCHLOSSENEN CASE! über >30 Minuten haben...
Godmode
2013-02-19, 15:56:46
Die Karte finde ich beeindruckend, bei 750-800 € würde ich die Karte sofort kaufen!
Ein guter Wasserkühler kostet mit Backplate nochmal ca. 150 €...
Darf ich fragen warum jeder ne Backplate haben will, mir hat sich der Sinn noch nicht erschlossen? :confused:
@Sky: Dito!
Screemer
2013-02-19, 15:57:16
mit dem evga oc tool hat unwinder saubere arbeit geleistet. nochn bisschen buggy was die ov einstellungen angeht. sonst aber :up:
Skysnake
2013-02-19, 15:58:15
bei den luxxern relativiert sich auch die leistungsaufnahme im vergleich zu einer 7970ghz-ed.
http://www.hardwareluxx.de/images/stories/galleries/reviews/2013/geforce-titan/bench/mess2.jpg (http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/25462-test-nvidia-geforce-gtx-titan-im-3-way-sli.html?start=11)
und bei der lautstärke sieht man mal was das testverfahren ausmacht:
Luxx:
http://www.hardwareluxx.de/images/stories/galleries/reviews/2013/geforce-titan/bench/mess6.jpg
cb:
http://www.computerbase.de/news/2013-02/nvidia-stellt-geforce-gtx-titan-gk110-vor/
davor läuft bei mir werbung für haarfärbemittel :ugly:
Jo, die Unterschiede sind da wirklich schon krass.
Es wird wohl nen großen Unterschied machen, ob man in nem offenen Banchtable die Benches macht, oder in nem geschlossenen Gehäuse usw usw usw.
Die Vergleichbarkeit der Werte nimmt damit echt massiv ab :(
Von selektieren Review-Karten, die es immer im gewissen Umfang gibt, egal bei wem, will ich mal nicht anfangen...
Ich freu mich schon auf die unterschiedlichen Ergebnisse :freak:
Nakai
2013-02-19, 15:58:18
Der Stromverbrauch ist gut.
Die Leistung ist dementsprechend schwächer als erwartet.
~40 Mehrperformance im Schnitt. Bei der Rohleistung hätte man eher 50% erwartet. Hier und da werden sich die niedrigere ROP-Leistung und kleineres Frontend doch etwas aus. Ist dennoch besser, als ich gestern erwartet hätte.
Ronny145
2013-02-19, 15:58:49
http://www.abload.de/img/gtxtitan-vs-gtx6809hqiw.png (http://www.abload.de/image.php?img=gtxtitan-vs-gtx6809hqiw.png)
Mit Hilfslinien geschätzt:
29/18 = 61%
36/25 = 44%
49/37 = 32%
49/35 = 40%
50/35 = 43%
55/38 = 45%
58/42 = 38%
61/46 = 33%
63/48 = 31%
64/43 = 49%
68/46 = 48%
99/66 = 50%
101/71 = 42%
102/71 = 44%
107/76 = 41%
124/91 = 36%
130/83 = 57%
Vor ein paar Tagen wäre ich erst mit 50% zufrieden gewesen, nun sieht es eher nach 40% aus. Allerdings habe ich mit knapp unter 300W Verbrauch gerechnet. Jetzt nachdem ich erste Verbrauchsmessungen gesehen habe muss ich sagen, dass die Karte im Gesamtpaket (Preis ausgeklammert) eine beachtenswerte Leistung hinlegt. Die Kombination aus Leistung und Verbrauch sieht echt stark aus.
dildo4u
2013-02-19, 15:59:49
http://www.abload.de/img/gtxtitan-vs-gtx6809hqiw.png (http://www.abload.de/image.php?img=gtxtitan-vs-gtx6809hqiw.png)
Mit Hilfslinien geschätzt:
29/18 = 61%
36/25 = 44%
49/37 = 32%
49/35 = 40%
50/35 = 43%
55/38 = 45%
58/42 = 38%
61/46 = 33%
63/48 = 31%
64/43 = 49%
68/46 = 48%
99/66 = 50%
101/71 = 42%
102/71 = 44%
107/76 = 41%
124/91 = 36%
130/83 = 57%
Wie erwartet wenn die Shaderleistung limitiert ist die Karte ein Monster.(Metro 2033 nutzt für DOF ein Compute Shader)
Screemer
2013-02-19, 16:00:37
Es ist aber echt verblüffend, das man mit so "wenig" Spannung bei so einem riesen Chip die 1 GHz knackt.
Wenn ich mir dann aber anschaue, welche Leistungswerte nVidia angibt, dann wird das NOCH VIEL seltsamer mit dem geringen Abstand :ugly:
@stock bis knapp 1GHz und dann dennoch nur so wenig Mehrperformance???
schau dir mal das video von den luxxern an. da siehst du wie sich takt, powertarget, temp, spannung, etc. verhalten. 1,1ghz bei <85°C wohl kein prob.
aufkrawall
2013-02-19, 16:00:37
~40 Mehrperformance im Schnitt. Bei der Rohleistung hätte man eher 50% erwartet. Hier und da werden sich die niedrigere ROP-Leistung und kleineres Frontend doch etwas aus. Ist dennoch besser, als ich gestern erwartet hätte.
Ist offenbar da schnell, wo die 680 an der Bandbreite verhungert (etwa SC2 mit 2k & Deferred MSAA).
Ansonsten, naja. Muss es OC richten, wenns denn hoffentlich geht.
AnarchX
2013-02-19, 16:01:19
Titan im Konsolen-Formfaktor: http://www.anandtech.com/show/6763/highend-meets-small-form-factor-geforce-titan-in-falcon-northwests-tiki
Aber wohl fast 10-mal so teuer wie eine Next-Gen-Konsole.
derguru
2013-02-19, 16:01:36
Vor ein paar Tagen wäre ich erst mit 50% zufrieden gewesen, nun sieht es eher nach 40% aus. Allerdings habe ich mit knapp unter 300W Verbrauch gerechnet. Jetzt nachdem ich erste Verbrauchsmessungen gesehen habe muss ich sagen, dass die Karte im Gesamtpaket (Preis ausgeklammert) eine beachtenswerte Leistung hinlegt. Die Kombination aus Leistung und Verbrauch sieht echt stark aus.
finde ich auch nur der wucherpreis ist zu heftig.
Duplex
2013-02-19, 16:04:47
Mein Herz sagt ja - mein Hirn sagt: GTX670 2x SLI mal ausprobieren... Mehr Leistung für weniger Geld... Viel weniger wenn ich berücksichtige, dass ich schon eine GTX670 drinn habe...
Habe auch eine GTX670 @1.1Ghz, aber Titan @OC finde ich besser als das ganze sli zeug oder nicht?
Darf ich fragen warum jeder ne Backplate haben will, mir hat sich der Sinn noch nicht erschlossen? :confused:
Damit die Karte einfach besser aussieht, die 25 € mehr...
BigKid
2013-02-19, 16:05:42
finde ich auch nur der wucherpreis ist zu heftig.
Ist denn die Geringe Stückzahl bestätigt oder gibts Hoffnung ?
Es ist aber echt verblüffend, das man mit so "wenig" Spannung bei so einem riesen Chip die 1 GHz knackt.
Der Chip ist doch nur breiter als die anderen. Warum sollte er dann mehr Spannung benötigen?
mr coffee
2013-02-19, 16:06:30
hehe bevor ich das geld in 2x680iger oder titan investiere,bezogen auf mr coffee.
für 600€ wäre der titan herzlich willkommen in meiner kiste aber so, never.:biggrin:
Ja ich hantiere hier noch mit einer 560TI (die alte) rum, von daher wollte ich demnächst mal was schnelleres einbauen, aber 3 sind mir eigentlich zu viel. Für 600 wäre die Titan gekauft, 700 wäre auch noch mit beiden Augen zugedrückt möglich aber drüber ist mir zu viel für eine einzelne Karte. Daher kam mir der Gedanke mit den 2x 680ern...
Dural
2013-02-19, 16:06:55
nur A1 :eek:
die karte würde ich auf keinen fall kaufen, man stelle sich vor was mit A2/3 oder sogar einen B1/2 GK110 möglich ist. :rolleyes:
die leistungsaufnahme ist aber trotzdem der ober hammer :eek:
M4xw0lf
2013-02-19, 16:08:25
Ist denn die Geringe Stückzahl bestätigt oder gibts Hoffnung ?
Der Preis deutet ganz stark auf winzige Mengen hin.
Botcruscher
2013-02-19, 16:08:49
Die Karte finde ich beeindruckend, bei 750-800 € würde ich die Karte sofort kaufen!
In der letzten Generation gab es diese Leistungsklasse für 330€ für das Restestück und 450 für den Vollausbau. Masochisten dürfen natürlich bedenkenlos zugreifen.
Spasstiger
2013-02-19, 16:11:29
Für den 1/3 DP Mode wird tatsächlich gedrosselt: http://www.anandtech.com/show/6760/nvidias-geforce-gtx-titan-part-1/4
Erstaunlich genug, dass man überhaupt eine Option anbietet, das 1:3-Ratio zu verwenden. Damit schafft man Konkurrenz zu den Tesla-Produkten aus dem eigenen Haus. Dazu noch den großzügig bemessenen VRAM mit der beachtlichen Bandbreite. Ist ECC bei Titan verfügbar?
P.S.: Nur 214 Watt Spieleverbrauch laut PCGH? Warum greift Turbo Boost 2.0 nicht ein und reizt die 250 Watt aus? Temperaturlimit schon erreicht? Bei nur 3,2 Sone Lautstärke müsste eigentlich noch gut Temperaturspielraum sein.
BigKid
2013-02-19, 16:11:34
Habe auch eine GTX670 @1.1Ghz, aber Titan @OC finde ich besser als das ganze sli zeug oder nicht?
Ja - dachte ich bisher auch... Bisher hatte ich aber auch keine Not und das waren Gedankenspiele...
Mit dem neuen Eizo 27er mit 2560x1440 bekomme ich oft <30FPS ...
Ergo irgendwie Zugzwang... Und wenn ich jetzt konkret darüber Nachdenke 900Euro auszugeben dann siehts irgendwie ander aus...
Die Frage ist auch - die Benchmarks die wir haben - wurden die mit oder ohne OC gemessen und wenn ja - wie viel ?
Skysnake
2013-02-19, 16:15:37
Der Chip ist doch nur breiter als die anderen. Warum sollte er dann mehr Spannung benötigen?
Weil man längere Signalwege hat, mehr Streuung usw usw usw
Große Chips brauchen eigentlich immer höhere Spannungen als kleine, wenn Sie die gleiche Architektur und gleiche Fertigung verwenden.
TheCounter
2013-02-19, 16:16:34
Die Karte ist schon der Wahnsinn. Hätt ich das nötige Kleingeld würde ich sie sofort kaufen.
Mal gucken wie weit der Preis im laufe des Jahres runtergeht.
derguru
2013-02-19, 16:23:12
die wird wenn überhaupt teurer in nächster zeit denn ich tippe die nachfrage wird größer sein als das angebot(und die händler gieriger),krank bei dem preis aber imo wird es so laufen.günstiger erst wenn amd zu potte kommt aber das kann noch dauern.
Schaffe89
2013-02-19, 16:26:07
Nvidia bittet darum die Karte in reviews kühl zu betreiben.
Was soll das für ein Mumpitz sein?
Die Performance zählt nur bei angewärmtem Chip.
Ansonsten geile Karte.
derguru
2013-02-19, 16:26:55
vielleicht wird ein kühlschrank bei dem preis gleich mit geliefert.:biggrin:
boxleitnerb
2013-02-19, 16:28:03
Ich hab übrigens mal vom Luxx Video unten beim Frameratetarget die fps abgelesen, während sie den Valley Benchmark laufen haben lassen :D
Erste Sequenz:
Titan: 53-57fps
GTX 580: 25-27fps
Gut doppelt so schnell wie meine 580.
Einer mit ner 680 hat sich das auch angeschaut:
Also im zweiten Video sieht man ja die FPS Zahl des Valley Benchmarkes.
Damit als Vergleichswerte:
GTX 680@1Ghz:
1. Szene: 30~35FPS
2. Szene: 54~44FPS (Abfall der FPS mit Dauer)
3. Szene: 35~40FPS
GTX Titan@1Ghz:
1. Szene: 50~55FPS
2. Szene 89~70FPS (Abfall der FPS mit Dauer)
3. Szene: 50~60FPS
GTX680@1130Mhz
40FPS
GTX Titan@1130Mhz
60FPS
Also wie es ausschaut, bei selber Taktung sind es ca. 50% mehr Leistung bei etwas mehr als +100% des Preises.
TheCounter
2013-02-19, 16:28:18
günstiger erst wenn amd zu potte kommt aber das kann noch dauern.
Na das kann dauern. Ich denke mal das selbst die neuen AMD Karten die evtl. ende des Jahres kommen sollen an eine Titan rankommen werden.
Mal gucken.
HarryHirsch
2013-02-19, 16:28:24
gpu-boot 1.0 war doch auch totaler müll. in kurzen benches hui noch längerem spielen pfui.
wird wohl wieder ein fall für ht4u. :D
derguru
2013-02-19, 16:29:26
Ich hab übrigens mal vom Luxx Video unten beim Frameratetarget die fps abgelesen, während sie den Valley Benchmark laufen haben lassen :D
Erste Sequenz:
Titan: 53-57fps
GTX 580: 25-27fps
Gut doppelt so schnell wie meine 580.
ist das die 1080p auflösung inkl. extrem hd settings?
boxleitnerb
2013-02-19, 16:32:20
ist das die 1080p auflösung inkl. extrem hd settings?
1200p, 8xMSAA, Ultra
dildo4u
2013-02-19, 16:35:08
ist das die 1080p auflösung inkl. extrem hd settings?
http://youtu.be/hUPsFBmZr9A?t=1m45s
y33H@
2013-02-19, 16:38:03
Gut doppelt so schnell wie meine 580.Was bei den Specs im Rahmen der Erwartungen liegt.
Skysnake
2013-02-19, 16:41:17
ist das die 1080p auflösung inkl. extrem hd settings?
Jup, hab ich grad gemacht.
Die Szene mit dem Bäumen links, wos Regnet
HD7970@1050/1675MHz hab ich in 1080p 28-30 FPS
Im Luxx Video ist man da bei 38-41 FPS :freak:
Und die haben sicherlich noch ne etwas stärkere CPU als ich. Ich merk schon, dass da wohl mit ner anderen CPU nochmal 1-2 FPS mehr drin sein sollten.
Ok, die haben 1920*1200, also 11% mehr Bild, aber die Karte rennt da auch mit ~1GHz :freak:
Also 30-40% bei maximalem Turbo auf ne 7970GHz? :freak:
Kann ich mir irgendwie nicht vorstellen.
Auch scheint mir die Karte insbesondere bei den Max-FPS richtig gut zu zu legen im Vergleich zu bei mir. Kann aber auch wie gesagt an der CPU liegen.
Dennoch sollte man wirklich genau auf die MIN-FPS achten, wie es scheint.
boxleitnerb
2013-02-19, 16:42:26
Was bei den Specs im Rahmen der Erwartungen liegt.
Jup. Und in neueren Spielen kann es nur besser werden. Langfristig schätze ich Faktor x2.25
@Skysnake:
Es ist 1200p, nicht 1080p.
dildo4u
2013-02-19, 16:43:51
Fire Strike Extreme wäre extreme interresant.
boxleitnerb
2013-02-19, 16:46:02
Fire Strike Extreme wäre extreme interresant.
Die Werte von OBR dürften stimmen. Titan@1GHz hat gute 60% mehr Rechenleistung, Bandbreite ist 3DMark egal. Titan war da ca. 65% schneller als eine 680.
Weil man längere Signalwege hat, mehr Streuung usw usw usw
Große Chips brauchen eigentlich immer höhere Spannungen als kleine, wenn Sie die gleiche Architektur und gleiche Fertigung verwenden.
Ok, wenn du meinst. Ich hatte jetzt die Analogie zu CPUs gesucht. Ein Quadcore braucht ja auch nicht zwingend mehr Spannung als ein DualCore.
Edit: Grad mal die HT4u-Tests von HD 7870 und 7770 verglichen. Bei gleichem Takt gleiche Spannung.
PCGH_Carsten
2013-02-19, 16:49:16
P.S.: Nur 214 Watt Spieleverbrauch laut PCGH? Warum greift Turbo Boost 2.0 nicht ein und reizt die 250 Watt aus? Temperaturlimit schon erreicht? Bei nur 3,2 Sone Lautstärke müsste eigentlich noch gut Temperaturspielraum sein.
Das wird im Heft errläutert, aus dem die Tabelle einfach so entnommen wurde. :)
Godmode
2013-02-19, 16:50:01
Tomshardware: "Drei GTX Titan sind einfach totaler Overkill aber – leider geil.";D
derguru
2013-02-19, 16:50:14
Jup, hab ich grad gemacht.
Die Szene mit dem Bäumen links, wos Regnet
HD7970@1050/1675MHz hab ich in 1080p 28-30 FPS
Im Luxx Video ist man da bei 38-41 FPS :freak:
Und die haben sicherlich noch ne etwas stärkere CPU als ich. Ich merk schon, dass da wohl mit ner anderen CPU nochmal 1-2 FPS mehr drin sein sollten.
Ok, die haben 1920*1200, also 11% mehr Bild, aber die Karte rennt da auch mit ~1GHz :freak:
Also 30-40% bei maximalem Turbo auf ne 7970GHz? :freak:
Kann ich mir irgendwie nicht vorstellen.
Auch scheint mir die Karte insbesondere bei den Max-FPS richtig gut zu zu legen im Vergleich zu bei mir. Kann aber auch wie gesagt an der CPU liegen.
Dennoch sollte man wirklich genau auf die MIN-FPS achten, wie es scheint.
valley ist nicht gerade die paradedisiziplin einer 7970,die ist sogar ein wenig lansgamer als die die gtx680.
wenn das stimmt was der luxxtyp erzählt geht der takt bei jedem spiel auf 1ghz und so entstanden auch die benchwerte da in reviews nie und nimmer geschlossene gehäuse verwendet werden.
aber bei 1ghz solch gute verbrauchswerte abzuliefern ist nice.(in spielen)
AnarchX
2013-02-19, 16:52:16
Das wird im Heft errläutert, aus dem die Tabelle einfach so entnommen wurde. :)
Also wohl wieder mit fixiertem Boost?
Mit verschiedenen Taktraten, aufwendig ermittelt. :)
Tomshardware: "Drei GTX Titan sind einfach totaler Overkill aber – leider geil.";D
Nie war "leider geil" wahrer. X-D
MfG,
Raff
MartinRiggs
2013-02-19, 16:54:42
Eigentlich brauch man sich die Tests am Donnerstag gar nicht mehr durchlesen.
Die Karte ist doch der größte Müll den ein IHV jemals rausgebracht hat.
Früher hätte man sie ganz normal GTX685 genannt und sie wäre für max. 600€ rausgekommen.
Jetzt sind die bei NV ausgeklinkt, nennen das Ding Titan und wollen die Graka für ca. 900€ verkloppen.:ucrazy::ucrazy2:
M4xw0lf
2013-02-19, 16:57:33
Nie war "leider geil" wahrer. X-D
MfG,
Raff
Der Preis ist wirklich sehr "leider".
Blaire
2013-02-19, 16:58:30
Tomshardware: "Drei GTX Titan sind einfach totaler Overkill aber – leider geil.";D
4-Way SLI sollte auch klappen, nur halt experimentell. ;)
derguru
2013-02-19, 16:59:18
hau rein Blaire,schnäppchen 3800€.;D
dildo4u
2013-02-19, 16:59:22
7000$ System.lol ein fuck you an MS kommt mit Win7.
http://www.abload.de/img/originpc-full-titan-f83rh1.jpg
http://www.anandtech.com/show/6760/nvidias-geforce-gtx-titan-part-1/7
Godmode
2013-02-19, 16:59:22
Nie war "leider geil" wahrer. X-D
MfG,
Raff
Und das aus deinem Munde? :eek:
Ist jetzt Multi GPU doch auf einmal geil? :tongue:
Godmode
2013-02-19, 17:00:10
4-Way SLI sollte auch klappen, nur halt experimentell. ;)
Warum nur experimentell? Bei der 690 gings ja dann zum Ende hin auch recht gut?
M4xw0lf
2013-02-19, 17:00:52
Ich nehme an das bezieht sich auf den Preis eines einzelnen Titäns.
BigKid
2013-02-19, 17:02:30
Eigentlich brauch man sich die Tests am Donnerstag gar nicht mehr durchlesen.
Die Karte ist doch der größte Müll den ein IHV jemals rausgebracht hat.
Früher hätte man sie ganz normal GTX685 genannt und sie wäre für max. 600€ rausgekommen.
Jetzt sind die bei NV ausgeklinkt, nennen das Ding Titan und wollen die Graka für ca. 900€ verkloppen.:ucrazy::ucrazy2:
Pfff... Und schon haben die Preise der GTX670 (DC2) wieder angezogen nachdem sie gestern etwas nachgegeben haben... Erstmal "nur" um 12 Euro aber trotzdem...
Ich nehme an das bezieht sich auf den Preis eines einzelnen Titäns.
Gaynow. Irgendwo (d.h. weit jenseits von 500 €uro), hört auch das nerdigste Geektum auf. IMO.
MfG,
Raff
boxleitnerb
2013-02-19, 17:05:01
Gaynow. Irgendwo (d.h. weit jenseits von 500 €uro), hört auch das nerdigste Geektum auf. IMO.
MfG,
Raff
Ist der Preis zu hart, bist du zu schwach :freak:
Benutzt ihr wenigsten einen auf 5 GHz getakteten 3960X für die 3-way SLI Benchmarks? SGSSAA macht ihr ja schon, Downsampling wäre auch mal interessant. Oder auf dem 4K-Display, habt ihr das noch?
Wir müssen nicht jeden Wahnsinn mitmachen. Angebot und Nachfrage. :naughty:
MfG,
Raff
BigKid
2013-02-19, 17:06:10
Ist der Preis zu hart, bist du zu schwach :freak:
Ob das jetzt Schwäche ist einer Versuchung aus reiner Vernunft zu wiederstehen ist eine philosophische Frage... ;D
Ich warte noch die Benches ab aber ich denke mein Weg ist dann auch eher eine 2te 670er DC2 im SLI... Wenn das ins Gehäuse passt... öhmm... Mal gucken...
Godmode
2013-02-19, 17:07:38
hau rein Blaire,schnäppchen 3800€.;D
Es ginge ohne Probleme, sogar ohne MwSt, aber ich will diesen Wahnsinn eigentlich nicht nochmal unterstützen. Nächstes mal verlangen sie dann schon 1.500 €...
In der Ruhe liegt die Kraft.
john carmack
2013-02-19, 17:08:52
Tomshardware: "Drei GTX Titan sind einfach totaler Overkill aber – leider geil.";D
warum lese ich immer wieder tests/previews/reviews... mit triple SLI/CF obwohl auch Quad oder sogar mehr geht...?!
fondness
2013-02-19, 17:10:03
Ich würde mal abwarten wie sich die Preise Einpendeln. Sofern NV drauf kommt das der Preis doch zu hoch ist könnte es hier noch zu einen Korrektur kommen.
Ansonsten muss man IMO schon ziemlich verrückt sein um einen solchen Preis zu zahlen. Der Wertverlust wird enorm sein und spätestens mit 20nm bekommt man was deutlich schnelleres zum halben Preis.
dildo4u
2013-02-19, 17:10:28
warum lese ich immer wieder tests/previews/reviews... mit triple SLI/CF obwohl auch Quad oder sogar mehr geht...?!
Weil die Karte 6GB Vram hat und damit in Mulitmonitor Auflösungen,die 680 und 690 mit 2GB zerstört.Und Tri SLI scalt besser als Quad daher nur Tri.
derguru
2013-02-19, 17:12:11
Es ginge ohne Probleme, sogar ohne MwSt, aber ich will diesen Wahnsinn eigentlich nicht nochmal unterstützen. Nächstes mal verlangen sie dann schon 1.500 €...
In der Ruhe liegt die Kraft.
achwas, deine untersützung wird daran nichts ändern,also hau rein mit den 4.:tongue:
Godmode
2013-02-19, 17:12:11
Ansonsten muss man IMO schon ziemlich verrückt sein um einen solchen Preis zu zahlen. Der Wertverlust wird enorm sein und spätestens mit 20nm bekommt man was deutlich schnelleres zum halben Preis.
Aber auch noch ein Jahr warten. Ja und der Preis stinkt kräftig.
boxleitnerb
2013-02-19, 17:12:15
Wir müssen nicht jeden Wahnsinn mitmachen. Angebot und Nachfrage. :naughty:
MfG,
Raff
Sag mal eure Leistungsaufnahme- und Lautheitswerte für Multi-GPU sind dieselben wie bei Single-GPU. Könnt ihr die bitte noch richtig eintragen?
@fondness:
20nm Karten, die Titan schlagen, würde ich nicht vor H2 2014 erwarten. Erstmal kommt mMn noch ein 28nm Refresh.
AnarchX
2013-02-19, 17:12:36
http://www.youtube.com/watch?feature=player_embedded&v=bgQbcQlRoNE#!
Der wiedergeborene Tombman? ;)
Godmode
2013-02-19, 17:15:02
http://www.youtube.com/watch?feature=player_embedded&v=bgQbcQlRoNE#!
Der wiedergeborene Tombman? ;)
Meinst du den/die klein(e)n, oder?
john carmack
2013-02-19, 17:15:37
Ich würde mal abwarten wie sich die Preise Einpendeln. Sofern NV drauf kommt das der Preis doch zu hoch ist könnte es hier noch zu einen Korrektur kommen.
Ansonsten muss man IMO schon ziemlich verrückt sein um einen solchen Preis zu zahlen. Der Wertverlust wird enorm sein und spätestens mit 20nm bekommt man was deutlich schnelleres zum halben Preis.
fragt sich nur wann das sein wird wenn AMD seine 28nm refresh karten so weit nach hinten verschiebt.... vielleicht doch erst 2015?
Jedenfalls schreit die Titan geradezu nach einem Duell gegen die 7970Toxic! :D
Würd mich wirklich interessieren wie weit die Titan vorne dran ist.
Nightspider
2013-02-19, 17:18:45
Wann kommt das A2 Stepping und die vollaktivierte GK110 Version? :(
God damn it zeigt mir Wakü Benchmarks und die resultierende Taktrate.
BigKid
2013-02-19, 17:19:17
fragt sich nur wann das sein wird wenn AMD seine 28nm refresh karten so weit nach hinten verschiebt.... vielleicht doch erst 2015?
Ich lebe JETZT... Ob ich dann noch lebe... Grade wieder mitbekommen wie schnell es gehen kann...
Also ist die Frage für mich zwar schon "Kann ich es mir heute Leisten ohne Morgen auf der Strasse zu sitzen" - aber nicht "Mache ich damit nicht zuviel Geld kaputt weil in 6 Monaten könnte ja..."...
Trotzdem scheiterts bei mir grad an "Will ich soviel Geld ausgeben ?"
HURAAA... Ich bin meinen Goldst*nder los !
Godmode
2013-02-19, 17:19:31
Wann kommt das A2 Stepping und die vollaktivierte GK110 Version? :(
Wohl zu Weihnachten 2013.
PCGH_Carsten
2013-02-19, 17:24:17
Sag mal eure Leistungsaufnahme- und Lautheitswerte für Multi-GPU sind dieselben wie bei Single-GPU. Könnt ihr die bitte noch richtig eintragen?
Dabei handelt es sich um ein Mißverständnis. Das ist 1x Titan gegen die M-GPU-Karten. Die neue Bildunterschrift sollte das klarstellen.
Zergra
2013-02-19, 17:24:27
Wann kommt das A2 Stepping und die vollaktivierte GK110 Version? :(
God damn it zeigt mir Wakü Benchmarks und die resultierende Taktrate.
Das glaubst du doch selber nicht das die noch kommt ;)
john carmack
2013-02-19, 17:25:58
wieviele einheiten sind denn in einem vollaktiviertem Chip?
M4xw0lf
2013-02-19, 17:26:38
2880. (+192)
Skysnake
2013-02-19, 17:27:19
Jup. Und in neueren Spielen kann es nur besser werden. Langfristig schätze ich Faktor x2.25
@Skysnake:
Es ist 1200p, nicht 1080p.
Das ist mir auch klar, deswgen sagte ich doch bei 11% weniger Aufwand/Pixel
valley ist nicht gerade die paradedisiziplin einer 7970,die ist sogar ein wenig lansgamer als die die gtx680.
wenn das stimmt was der luxxtyp erzählt geht der takt bei jedem spiel auf 1ghz und so entstanden auch die benchwerte da in reviews nie und nimmer geschlossene gehäuse verwendet werden.
aber bei 1ghz solch gute verbrauchswerte abzuliefern ist nice.(in spielen)
Na noch schlimmer :ugly:
Vor allem, was zieht die Karte bei 1GHz? Etwa auch nur die 250W? Sollte Sie eigentlich oder?
Auf jeden Fall wäre der Abstand dann schon ziemlich klein, weil arg viel mehr wird bei der GTX Titan wohl nicht mehr gehen. Bei der 7970 kann ich locker noch 10% mehr Takt drauf schmeisen. Damit wäre man, wenn man ähnliche Prozessoren annimmt, wohl bei <=30% Leistungsunterschied :ugly:
Und wenn du jetzt sagst, der Bench liegt Tahiti nicht mal, dann wirds noch abstruser :ugly:
Also ich bin jetzt total verwirrt.
Godmode
2013-02-19, 17:33:11
Also wenn man sieht, dass der Lüfter grad mal auf 50-60 % läuft und die Karte bei 1.1 GHz taktet, geht da noch mehr.
Nightspider
2013-02-19, 17:34:57
Wohl zu Weihnachten 2013.
Ein neues Stepping erst nach 1,5 Jahre? :|
dildo4u
2013-02-19, 17:35:45
Das ist mir auch klar, deswgen sagte ich doch bei 11% weniger Aufwand/Pixel
Na noch schlimmer :ugly:
Vor allem, was zieht die Karte bei 1GHz? Etwa auch nur die 250W? Sollte Sie eigentlich oder?
214 Watt laut PCGH,der Boost wird immer im Bereich von 1Ghz liegen,die 867mhz sind nur der Schlimmste Fall also Furmark ohne Begrenzer.Valley ist bei mir nicht schlimmer als normale Games(Wie BF3) was den Verbauch angeht.(660TI immer um 1.2Ghz Boost)
Godmode
2013-02-19, 17:36:00
Ein neues Stepping erst nach 1,5 Jahre? :|
Wie lange hat es don von der GF100 zu GF110 gedauert? War da nicht auch in Jahr dazwischen?
boxleitnerb
2013-02-19, 17:38:23
Warum hat Nvidia dann 876 MHz angegeben? Ich dachte das wäre der durchschnittliche Boost, eben wie die 1058 MHz der 680. Die 876 kommen mir dann zu niedrig vor.
Nightspider
2013-02-19, 17:38:32
Wie lange hat es don von der GF100 zu GF110 gedauert? War da nicht auch in Jahr dazwischen?
9 Monate und GK110 wird seit 5 Monaten produziert wenn ich mich nicht irre.
derguru
2013-02-19, 17:39:30
Also wenn man sieht, dass der Lüfter grad mal auf 50-60 % läuft und die Karte bei 1.1 GHz taktet, geht da noch mehr.
das liegt daran weil der valleybench die gpus nicht ausgiebig anheizt,in spielen mit ssgsaa habe ich aber ganz locker 10-15°C mehr.
M4xw0lf
2013-02-19, 17:40:52
Warum hat Nvidia dann 876 MHz angegeben? Ich dachte das wäre der durchschnittliche Boost, eben wie die 1058 MHz der 680. Die 876 kommen mir dann zu niedrig vor.
1058 waren doch der "garantierte" Boost, oder? Wird hier vielleicht auch so sein.
y33H@
2013-02-19, 17:42:37
Der Mindest-Boost halt, denn NV für jeden noch so crappigen Chip garantiert.
boxleitnerb
2013-02-19, 17:44:12
Wenn man den Speicher um 15% übertaktet, für gute Temps und ne starke CPU sorgt, könnten im Schnitt die 60% wirklich rauskommen. Das wäre schon top.
Undertaker
2013-02-19, 17:52:11
Also wenn man sieht, dass der Lüfter grad mal auf 50-60 % läuft und die Karte bei 1.1 GHz taktet, geht da noch mehr.
Jep, zusammen mit der geringen Lautstärke kann man wohl problemlos noch deutlich höhere Drehzahlen und damit auch Taktraten fahren. Die 7970 brüllt ja schon ohne OC mächtig, die GHz-Version noch schlimmer. :freak:
Also rein technisch gibt's an der Karte wirklich nix zu mäkeln, sogar das OC-Potential scheint beträchtlich (und nicht kleiner als bei der 7970 GHz). Einziger (und leider ziemlich großer) Kritikpunkt ist wirklich der immense Preis...
Die 876 kommen mir dann zu niedrig vor.
Ganz normal, nachdem der Sommer erst noch vor der Tür steht ;) :D Bei 29 Grad Zimmertemp wie bei mir letztes Jahr ist Schluss mit Lustig...
Ich hoffe CB macht da wirklich gute Tests!
Iruwen
2013-02-19, 17:52:54
Ansonsten muss man IMO schon ziemlich verrückt sein um einen solchen Preis zu zahlen. Der Wertverlust wird enorm sein und spätestens mit 20nm bekommt man was deutlich schnelleres zum halben Preis.
Definiere deutlich und halber Preis. Die 680 ist nur ~35% schneller als die fette 580 und vom Preis reden wir mal lieber nicht. Und bis 20nm wirds noch dauern.
boxleitnerb
2013-02-19, 17:54:54
Zumal ich hier nicht davon ausgehen würde, dass 20nm so günstig wird, wie hier manche glauben. Bei 28nm wurden wir gemolken, bei 20nm wirds noch viel schlimmer, erinnert euch an meine Worte ;)
dargo
2013-02-19, 17:55:53
Eigentlich brauch man sich die Tests am Donnerstag gar nicht mehr durchlesen.
Die Karte ist doch der größte Müll den ein IHV jemals rausgebracht hat.
Früher hätte man sie ganz normal GTX685 genannt und sie wäre für max. 600€ rausgekommen.
Jetzt sind die bei NV ausgeklinkt, nennen das Ding Titan und wollen die Graka für ca. 900€ verkloppen.:ucrazy::ucrazy2:
Naja... wenn ich einzelne Szenen mit 50-60% Mehrleistung gegenüber GTX680 sehe dann würde GTX685 nicht passen. GTX780 stände der Karte aber ganz gut.
fondness
2013-02-19, 18:01:21
Definiere deutlich und halber Preis. Die 680 ist nur ~35% schneller als die fette 580 und vom Preis reden wir mal lieber nicht. Und bis 20nm wirds noch dauern.
Du gibst dir die Antwort eh schon selbst. Wenn es bei den 20nm Chips genau so ist wäre eine GK204 also 35% schneller und würde unter 500EUR kosten -> Deutlich schneller zum halben Preis.
Ich will eh niemanden davon abhalten. Wer bereit ist für das letzte Quäntchen an Leistung einen derartigen Preis zu bezahlen soll das gerne tun. Aber ich bin nicht der Meinung das man mit einer GTX680/7970 etwas wesentliches verpasst. Wenn die Karte doppelt so schnell wäre okay, aber so reicht das vielleicht für etwas mehr AA/Auflösung und schon ist die zusätzliche Leitung weg.
Ailuros
2013-02-19, 18:03:26
Uebrigens muss ich mich selbst korrigieren und auch entschuldigen weil:
With that said, there is a catch. NVIDIA has stripped GK110 of some of its reliability and scalability features in order to maintain the Tesla/GeForce market segmentation, which means Titan for compute is left for small-scale workloads that don’t require Tesla’s greater reliability. ECC memory protection is of course gone, but also gone is HyperQ’s MPI functionality, and GPU Direct’s RDMA functionality (DMA between the GPU and 3rd party PCIe devices). Other than ECC these are much more market-specific features, and as such while Titan is effectively locked out of highly distributed scenarios, this should be fine for smaller workloads.
There is one other quirk to Titan’s FP64 implementation however, and that is that it needs to be enabled (or rather, uncapped). By default Titan is actually restricted to 1/24 performance, like the GTX 680 before it. Doing so allows NVIDIA to keep clockspeeds higher and power consumption lower, knowing the apparently power-hungry FP64 CUDA cores can’t run at full load on top of all of the other functional units that can be active at the same time. Consequently NVIDIA makes FP64 an enable/disable option in their control panel, controlling whether FP64 is operating at full speed (1/3 FP32), or reduced speed (1/24 FP32).
http://www.anandtech.com/show/6760/nvidias-geforce-gtx-titan-part-1/4
Ergo NV hat zwar EEC und co. abgeschaltet fuer Titan, aber volle FP64 Leistung kann im Treiber eingestellt werden, welches zum ersten Mal passiert. Die GPU taktet damit einfach runter und schaltet den turbo boost ab, erreicht aber trotz allem die 1.3 TFLOPs DP einer Tesla K20X.
Erklaert erstmal um einiges besser den 6GB framebuffer und ist eben auch eine marketing-technische "Gerechtfertigung" fuer den obszoenen Preis. Falls es schon gepostet wurde und ich hab's uebersehen, lasst es mich wissen und ich editier den Ueberfluss raus; ich bin mal wieder ueberarbeitet *seufz*
dildo4u
2013-02-19, 18:04:30
Ebend das ist ne schweine billig Tesla,die geht weg wie nix.
Ailuros
2013-02-19, 18:05:57
Ebend das ist ne schweine billig Tesla,die geht weg wie nix.
Skysnake waere einer der wenigen Kandidaten der darueber jubeln wuerde pah....
Ebend das ist ne schweine billig Tesla,die geht weg wie nix.
Welcher Gamer wollte das?
kunibätt
2013-02-19, 18:09:31
Welcher Gamer braucht 6GB VRAM?
derguru
2013-02-19, 18:11:22
Welcher Gamer braucht 6GB VRAM?
skyrimgamer mit ds 3840*2160 und 8xmsaa/sgssaa +ohne ende mods.:biggrin:
kunibätt
2013-02-19, 18:14:06
Ich wollte damit nur zum Ausdruck bringen, dass es eben noch einen semiprofessionellen Abnehmerkreis gibt, und Gamer wohl eher nicht dazu zählen.
Ailuros
2013-02-19, 18:14:37
skyrimgamer mit ds 3840*2160 und 8xmsaa/sgssaa +ohne ende mods.:biggrin:
Es wird Zeit dass Microsoft in zukuenftigen APIs endlich 2bpp/4pp TC Formate integriert. Ueberhaupt fuer Konsolen waere es ein Schweine-vorteil.
Skysnake
2013-02-19, 18:16:38
Der Mindest-Boost halt, denn NV für jeden noch so crappigen Chip garantiert.
Dann hoffe ich aber auch, dass ihr die Karte bei 20/25/30°C Umgebungstemperatur mal bencht, wenn ihr Sie im offenen Zustand testet.
Ebend das ist ne schweine billig Tesla,die geht weg wie nix.
Jaein.
Das HyperQ (nur für MPI?) fehlt, ist schon scheise... Genau wie GPUDirect. Für den Preis aber verschmerzbar, wenn man sich auf sehr wenige Knoten beschränkt, oder gar nur einzelne Rechner benutzt.
Skysnake waere einer der wenigen Kandidaten der darueber jubeln wuerde pah....
Was heißt wäre? :biggrin:
Ich freu mich definitiv ziemlich sogar :biggrin:
Das Problem ist halt, mir sind die 1k€ immer noch viel zu viel. Ich werde das aber mal an die entsprechenden Stellen bei uns raus lassen. Vielleicht gibts ja paar Titan für die Studenten :cool:
Bis jetzt müssen wir ja mit ner GTX460 vorlieb nehmen :freak: Jetzt mal abgesehen von den beiden M2090 und K20, aber die K20 sind eh im Prinzip komplett anderweitig belegt. Daher wäre es schon ganz schick :biggrin:
Für mich @home aber nichts. Ich hab eh keinen Zeit, meinem Spieltrieb mit der Karte noch weiter aus zu leben. Ich hab dafür die 7970, wo ich direkt dran rum schrauben kann beim programmieren.
Und ansonsten kann ich in der Uni jederzeit auf die Karten zugreifen. Von daher hab ich da wirklich keinen Druck.
Wäre ich aber fertig, wäre, würde ich es mir aber überlegen, so ne Karte zu holen. Wobei 900 echt hart sind. Für 700 würde ich da sofort zuschlagen ;D
Ich wollte damit nur zum Ausdruck bringen, dass es eben noch einen semiprofessionellen Abnehmerkreis gibt, und Gamer wohl eher nicht dazu zählen.
Die Karte wird als Supercomputerkarte für PC Gamer angepriesen, sorry aber dann stimmt was mit dem angedachten Klientel nicht...
dildo4u
2013-02-19, 18:31:39
Kleiner Quer Vergleich,die 680 bei 23 wäre Titan wohl fast an den 37 vom SLI.
http://www.guru3d.com/miraserver/images/2012/gtx680-sli/Untitled-16.png
http://www.abload.de/img/1d6pix.png
kunibätt
2013-02-19, 18:35:06
@ crab
Wenn du die DP-Leistung und den VRAM brauchst, hast du im Grunde gar keine Wahl - außer eben einer Quaddro oder Tesla und die sind nochmal deutlich teurer.
boxleitnerb
2013-02-19, 18:35:59
Wie soll das passen, wenn man nicht weiß, welche Szene gebencht wurde mit welchen Einstellungen genau (bei guru3d keine Angabe)? 18 fps bei Nvidia, 23fps bei guru3d für die 680...
dildo4u
2013-02-19, 18:36:59
Wie soll das passen, wenn man nicht weiß, welche Szene gebencht wurde mit welchen Einstellungen genau (bei guru3d keine Angabe)? 18 fps bei Nvidia, 23fps bei guru3d für die 680...
Jo klar aber der Abstand,680 vs SLI und Titan vs 680 ist bekannt.(Die 680 bei 23 wäre Titan wohl fast an den 37 vom SLI)
kunibätt
2013-02-19, 18:37:29
Wohl den integrierten Bench des Rangerpacks. Der eine Wert ist auch ohne AA.
derguru
2013-02-19, 18:38:56
Kleiner Quer Vergleich,die 680 bei 23 wäre Titan wohl fast an den 37 vom SLI.
http://www.guru3d.com/miraserver/images/2012/gtx680-sli/Untitled-16.png
http://www.abload.de/img/1d6pix.png
nimm das als vergleich,da passen auch die fpswerte der gtx680 und auch die 7970 werte hauen hin, ist anscheinend der metrobenchmark.
http://www.abload.de/img/2fmpuz.jpg
mboeller
2013-02-19, 18:39:15
ist das ein Scherz:
Zitat
For optimum performance, it’s important that the GeForce GTX TITAN GPU run as cool as possible. In order to ensure consistent performance testing results, it’s also highly recommended that you conduct your testing in a temperature-controlled environment, maintaining the same ambient temperature throughout all of your testing.
http://www.computerbase.de/news/2013-02/nvidia-stellt-geforce-gtx-titan-gk110-vor/
Godmode
2013-02-19, 18:40:36
achwas, deine untersützung wird daran nichts ändern,also hau rein mit den 4.:tongue:
Hab gerade im Gehäuse nachgesehen ob genug Platz vorhanden ist und ja in der Tat.
Alles ohne MwSt.
3.166 € für 4xTitan
250 € für ein neues Netzteil
-1.166 Erlös von den 690ern
= 2.250 €
Aufpreis für 4 Stück Titan und neues Netzteil.
Ich denke mit etwas Geduld wird der Preis noch um 300-400 Euro sinken.
Man muss es sich nur schön rechnen. ;)
kunibätt
2013-02-19, 18:43:08
Nein, wieso auch ?
HarryHirsch
2013-02-19, 19:07:47
erst mal sehen wie lange diese schnäppchen-tesla überhaupt verfügbar sind. ;D
dildo4u
2013-02-19, 19:22:14
Guru 3D
I mention this specifically as the Geforce GTX Titan has been designed to overclock. The AIB partners will be allowed to offer voltage unlocked SKUs. And combined with GPU Boost 2.0 you will see this product boosting towards the 1100~1150 MHz range once you tweak it
we got it running at 1176 MHz my man.
http://www.guru3d.com/articles_pages/geforce_gtx_titan_preview_reference,1.html
LSSJBroly
2013-02-19, 19:37:53
Das finde ich echt über:D
Leider ließ uns Nvidia aber auch wissen, dass die aus einer Magnesiumlegierung bestehende Verkleidung zu teuer war, und so besteht die gesamte Verschalung (bis auf das Kunststofffenster – eine weitere Anleihe bei der GTX 690) aus Aluminium
Das muss man sich auf der Zunge vergehen lassen: "War uns zu teuer" - bei ner 950€ Karte :freak:
boxleitnerb
2013-02-19, 19:39:02
Lol, also das ist echt mal armselig :D
M4xw0lf
2013-02-19, 19:40:51
Oookay. Das ist doch echt nicht zu fassen :ulol2:
LSSJBroly
2013-02-19, 19:41:49
Lol, also das ist echt mal armselig :D
Aber so richtig:D Eigentlich ne ungaubliche Frechheit. Als ob Die Karte (der Chip) so teuer wäre. Ich glaube weiterhin, dass man solch eine Karte auch für um die 600€ auf dem Markt hätte werfen können, und selbst dann noch gewinn damit macht. Die wollen uns diesesmal einfach so ausnehmen, wie Weihnachtsgänse. Nun ja, nicht mit mir. Wenn, kaufe ich mir wohl eine gebrauchte. 950€ sind einfach zu viel des guten.
Wenn ich mir irgendwann mal eine Kaufe, wird der Bandbreitet-test aktualisiert. Bei über 1006MHz Boost schreit GK110 ja regelrecht nach mehr Bandbreite...
Godmode
2013-02-19, 19:46:18
Das finde ich echt über:D
Das muss man sich auf der Zunge vergehen lassen: "War uns zu teuer" - bei ner 950€ Karte :freak:
Und bei der 690 ist es Magnesium oder wie jetzt? Ich verstehe den Satz nicht.
Schaffe89
2013-02-19, 19:47:01
Das OC Potenzial ist fett, aber dieser verkackte Turbomodus geht mir aufn Sack, wenn man dann nicht mal Reviews richtig miteinander vergleichen kann, weil der eine Depp den PC gleich in der Tiefkühltruhe testet und der andere den in den Backofen stellt.
Verliert die Karte dann im Sommer 15% Leistung??!!
Bitte liebe Tester, testet ordentlich mit 10 minütiger Vorlaufzeit.
Aber die PCGH wird das schon machen, bei Computerbase habe ich Zweifel bezüglich der Professionalität.
LSSJBroly
2013-02-19, 19:47:25
Und bei der 690 ist es Magnesium oder wie jetzt? Ich verstehe den Satz nicht.
Richtig:D
Bitte liebe Tester, testet ordentlich mit 10 minütiger Vorlaufzeit.
Aber die PCGH wird das schon machen, bei Computerbase habe ich Zweifel bezüglich der Professionalität.
Die werden wohl wieder mit 876MHz messen -> was ich als vollkommen richt sehe. So hat man schließlich einen wert, den man zumindest immer und überall bekommt. Alles, was darauf kommt, ist ein Plus für den Käufer.
M4xw0lf
2013-02-19, 19:47:36
Und bei der 690 ist es Magnesium oder wie jetzt? Ich verstehe den Satz nicht.
Ja, eine Magnesiumlegierung - was auch immer da genau noch drin ist.
Warum haben sie das Teil nicht mit TITAN verkleidet, hä? Da hat jemand gepennt! :biggrin:
VooDoo7mx
2013-02-19, 19:48:33
Ich bin mal auf die Herstellerkarten gespannt mit anderen Kühlern.
Der Arctic Accelero Extreme III dürfte perfekt für diese Karte sein. Der Referenzkühler ist zwar nicht schlecht, das Design sieht auch richtig geil aus, nur ist der mir mit 3-4 Sone im Lastbetrieb noch viel zu Laut. Meine GTX 680 mit Twin Turbo II kommt nicht mal auf 2 Sone...
Bei den Preis könnte nVidia zu mindestens auch mal ein ordentliches Spiele Bundle mit rüberwachsen lassen. :ugly:
boxleitnerb
2013-02-19, 19:49:25
Das OC Potenzial ist fett, aber dieser verkackte Turbomodus geht mir aufn Sack, wenn man dann nicht mal Reviews richtig miteinander vergleichen kann, weil der eine Depp den PC gleich in der Tiefkühltruhe testet und der andere den in den Backofen stellt.
Verliert die Karte dann im Sommer 15% Leistung??!!
Bitte liebe Tester, testet ordentlich mit 10 minütiger Vorlaufzeit.
Aber die PCGH wird das schon machen, bei Computerbase habe ich Zweifel bezüglich der Professionalität.
Kannst doch das Temperaturtarget hochstellen, dann sollte die Performance nicht großartig fallen. Könnte man das nicht einstellen, hätte mich das auch gestört.
Blediator16
2013-02-19, 19:49:29
Ich bin mal auf die Herstellerkarten gespannt mit anderen Kühlern.
Der Arctic Accelero Extreme III dürfte perfekt für diese Karte sein. Der Referenzkühler ist zwar nicht schlecht, das Design sieht auch richtig geil aus, nur ist der mir mit 3-4 Sone im Lastbetrieb noch viel zu Laut. Meine GTX 680 mit Twin Turbo II kommt nicht mal auf 2 Sone...
Wenn das mit der Tempabhängigkeit stimmt, dann ist Wasser oder ln2 das optimalste für die Karte.
HarryHirsch
2013-02-19, 19:53:59
Wenn das mit der Tempabhängigkeit stimmt, dann ist Wasser oder ln2 das optimalste für die Karte.
selbst gpu-boost 1.0 arbeitet temp-abhängig. mit 2.0 kannst du es nur verstellen.
Schaffe89
2013-02-19, 19:59:27
Kannst doch das Temperaturtarget hochstellen, dann sollte die Performance nicht großartig fallen.
Wenn es kein Limit gibt, schlag ich bei der Karte zu, wenn sie auf 800 ist :D
boxleitnerb
2013-02-19, 20:01:02
Wenn es kein Limit gibt, schlag ich bei der Karte zu, wenn sie auf 800 ist :D
Bis 94 Grad kannst es glaub hochsetzen. Ab da muss man sich dann bei keiner Karte wundern, wenn sie zu throttlen anfängt ;)
Liszca
2013-02-19, 20:03:26
Bestelle mal den hier:
http://shop.aquacomputer.de/product_info.php?products_id=2979
Danach hoffe ich mal auf einen WaKü von AquaComputer für die Titan.
PCGH_Carsten
2013-02-19, 20:05:15
Richtig:D
Die werden wohl wieder mit 876MHz messen -> was ich als vollkommen richt sehe. So hat man schließlich einen wert, den man zumindest immer und überall bekommt. Alles, was darauf kommt, ist ein Plus für den Käufer.
Dann hoffe ich aber auch, dass ihr die Karte bei 20/25/30°C Umgebungstemperatur mal bencht, wenn ihr Sie im offenen Zustand testet.
Wie immer werden wir versuchen, alle glücklich zu machen. :)
Ailuros
2013-02-19, 20:08:03
Wie immer werden wir versuchen, alle glücklich zu machen. :)
Warum hab ich mir nur keinen Titan umsonst gewuenscht? :D
aufkrawall
2013-02-19, 20:12:17
Wie immer werden wir versuchen, alle glücklich zu machen. :)
Wär interessant, wie groß der Abstand zur 680 bei SGSSAA.
Ist der eher geringer als der Durchschnitt, weil der 680 das eh schon besser liegt, oder bleibts gleich etc.
kunibätt
2013-02-19, 20:13:17
Mal wieder meine Standardfragen (waren davor auch nie Teil der DNA):
1.) VRM-Kühler lässt sich separat nutzen ?
2.) VRM-Kühler lässt sich mit AC3 nutzen :biggrin: ?
gnahr
2013-02-19, 20:15:04
Wenn das mit der Tempabhängigkeit stimmt, dann ist Wasser oder ln2 das optimalste für die Karte.
in fachkreisen nimmt man zombie-mods her.
dabei wird die spannungsversorgung mit all ihren schutzeinrichtungen einfach abgeklemmt und die stromversorgung des chips über ne halbe platine von hoher qualität einer völlig anderen grafikkarte (oft 580er ligthnings und degleichen) realisiert. dann sind auch 1,9volt wie bei den weltrekorden wieder drinnen. =)
vaccochamber schön und gut, aber solch ein monster von chip mit gpgpu und mehr vram unterbietet ne 7970 in lautstärke und verbrauch bei mehr leistung. :eek: ich muss mir an den hut faßen wie man hier scheinbar nen zweiten sweet-spot rund um amds grakas aufzieht.
und ob nun magnesium-legierung oder aluminium... den bildern wurde vor release als leak von mehreren usern als "sexy" bis "cool" bezeichnet. wie oft macht man auch schon ne materialanalyse wenn man ne top-graka im rechner hat? ;D sieht gut aus, liefert ordentlich dampf ohne wie ein kessel zu pfeifen... ich glaub ich hab mich verliebt. hoffentlich bekommt die gtx660 nix mit.
N0Thing
2013-02-19, 20:15:28
Wie lange hat es don von der GF100 zu GF110 gedauert? War da nicht auch in Jahr dazwischen?
Das war auch nicht der Normalfall. Bei dem Krüppel GF100 mußte Nvidia nachlegen und konnte nicht über ein Jahr lang warten.
Wie immer werden wir versuchen, alle glücklich zu machen. :)
Wann kommt denn euer Heft mit den entsprechenden Tests zu Titan in den Handel / zu pubbles? :)
boxleitnerb
2013-02-19, 20:19:03
Wär interessant, wie groß der Abstand zur 680 bei SGSSAA.
Ist der eher geringer als der Durchschnitt, weil der 680 das eh schon besser liegt, oder bleibts gleich etc.
Ich schätze, das wird sich in etwa an der Rohleistung orientieren (Bandbreite nicht inbegriffen). Schätze 50-65% je nachdem welcher Boost bei beiden Karten anliegt.
LSSJBroly
2013-02-19, 20:20:42
Wär interessant, wie groß der Abstand zur 680 bei SGSSAA.
Ist der eher geringer als der Durchschnitt, weil der 680 das eh schon besser liegt, oder bleibts gleich etc.
Das Verhältnis dürfte möglicherweise etwas größer werden, da bei SGSSAA vor allem rechenpower gefragt ist. Und bei 950-1006 Mhz besitzt GK110 schon rund 66,5% mehr davon als GK104 mit 1058MHz.
Wie immer werden wir versuchen, alle glücklich zu machen. :)
Deswegen hab ich ja auch ein Abo:D
Duplex
2013-02-19, 20:31:22
@Ailuros
Wann rechnest du mit einem 28nm Maxwell Chip (GM104), zum Weihnachtsgeschäft?
Oder gehst du davon aus das Nvidia die GTX680 & GTX670 als GTX780 & 770 umlabbeln wird?
Skysnake
2013-02-19, 20:31:39
Wie immer werden wir versuchen, alle glücklich zu machen. :)
Das wäre echt klasse :up:
Weil so kann man absolut nicht einschätzen, ob das jetzt große Auswirkungen hat, oder nicht.
LSSJBroly
2013-02-19, 20:35:42
Interessant wäre auch ein vergleich, wenn man GK110 mit 876MHz laufen lässt, und einmal ohne drossel mit max-Boost. So, wie in PCGH Ausgabe//2012 mit der GTX 670.
Blaire
2013-02-19, 21:50:44
Warum nur experimentell? Bei der 690 gings ja dann zum Ende hin auch recht gut?
Richtig supportet wirds nur bis 3-Way SLI, alles darüber hinaus ist halt nicht so einfach, daher auch experimentell. 4-Way funktioniert natürlich trotzdem gut, du kennst es ja bereits von 2x GTX690 :)
watugonad00?
2013-02-19, 21:55:58
Die Karte hielten wir aber erst am Donnerstag in Händen und was zunächst nach einem nicht mehr existenten Wochenende aussah, spitzte sich noch weiter zu, als NVIDIA keinen Treiber zur Verfügung stellen konnte. Der Dienstag als Tag der Benchmarks war also kaum noch zu halten und dies hat wohl auch NVIDIA eingesehen und verschob den Launch der GeForce GTX Titan auf den heutigen Tag mit allen technischen Spezifikationen und Features.
es gibt nur deswegen keine benchmarks, weil nvidia keinen treiber zur verfügung stellen konnte?
wo bleibt der shitstorm bitte?
Godmode
2013-02-19, 21:58:49
Richtig supportet wirds nur bis 3-Way SLI, alles darüber hinaus ist halt nicht so einfach, daher auch experimentell. 4-Way funktioniert natürlich trotzdem gut, du kennst es ja bereits von 2x GTX690 :)
Richtig, also eigentlich wars ja ganz in O, für das dass es nur experimentell ist. Weißt du schon ob du auf Titan umrüstest?
Duplex
2013-02-19, 22:08:16
es gibt nur deswegen keine benchmarks, weil nvidia keinen treiber zur verfügung stellen konnte?
Die haben da wohl in letzter Sekunde noch daran gefeilt :freak:
TurricanM3
2013-02-19, 22:13:35
Ich finds genial, das sich die Karte so schön hochziehen lässt. Mit Wakü und leicht erhöhter Spannung (VMod?) sind 1200+ vermutlich spielend drin und das so gut wie lautlos (Radi-Lüfter max. 500rpm). :smile:
Hab gerade im Gehäuse nachgesehen ob genug Platz vorhanden ist und ja in der Tat.
Alles ohne MwSt.
3.166 € für 4xTitan
250 € für ein neues Netzteil
-1.166 Erlös von den 690ern
= 2.250 €
Aufpreis für 4 Stück Titan und neues Netzteil.
Ich denke mit etwas Geduld wird der Preis noch um 300-400 Euro sinken.
Man muss es sich nur schön rechnen. ;)
Die Investition ist ja nicht weg, kost dich "nur" den Wertverlust über den Nutzungszeitraum.
Den Krach könnte ich aber nicht ertragen. Eine soll schon über 3 Sone laut werden und die Karten dichten sich ja gegenseitig noch ab. Würde dich das denn nicht stören?
Leider ist Wakü immer so ein Gefrickel, sonst würde ich mir zwei einbauen, aber so selten wie ich zocke macht das kaum Sinn, von den SLI Nachteilen mal gar nicht angefangen.
Godmode
2013-02-19, 22:21:08
Ich finds genial, das sich die Karte so schön hochziehen lässt. Mit Wakü und leicht erhöhter Spannung (VMod?) sind 1200+ vermutlich spielend drin und das so gut wie lautlos (Radi-Lüfter max. 500rpm). :smile:
Die Investition ist ja nicht weg, kost dich "nur" den Wertverlust über den Nutzungszeitraum.
Den Krach könnte ich aber nicht ertragen. Eine soll schon über 3 Sone laut werden und die Karten dichten sich ja gegenseitig noch ab. Würde dich das denn nicht stören?
Leider ist Wakü immer so ein Gefrickel, sonst würde ich mir zwei einbauen, aber so selten wie ich zocke macht das kaum Sinn, von den SLI Nachteilen mal gar nicht angefangen.
Also bei Dual-690 hat es mich überhaupt nicht genervt, die waren auch bis zum Anschlag übertaktet. Wenn ich spiele, trage ich ein geschlossenes Headset und höre nichts mehr von der Außenwelt. Die Frage ist halt, wie sich 4 Titan zu zwei 690 in Wärmentwicklung und Lautstärke verhalten. Könnt mir vorstellen, dass 4-Way-SLI mit Titan sogar leiser ist, da die Last dann auf vier Karten verteilt ist und es schwierig wird alle vier Karten auf 100% Last zu bringen. Hatte mal ein 570 SLI und das war ziemlich schlimm, dass hab ich sogar durch die Kopfhörer durchgehört ^^
edit: Ich glaub Titan kann die Luft auch hinten ansaugen, oder täusche ich mich da?
aufkrawall
2013-02-19, 22:29:46
Hat mal ein 570 SLI und das war ziemlich schlimm, das hab ich sogar durch den die Kopfhörer durchgehört ^^
Ich hatte mal eine 570 von Palit, mit OC war das ein übler Föhn (Lüfter ständig @100%, 97°C und jede menge heiße Luft). :eek:
Eigentlich war es auch ohne OC ein übler Föhn.
/OT ;)
TurricanM3
2013-02-19, 23:01:37
edit: Ich glaub Titan kann die Luft auch hinten ansaugen, oder täusche ich mich da?
Ist nur für Abluft.
dildo4u
2013-02-19, 23:12:09
es gibt nur deswegen keine benchmarks, weil nvidia keinen treiber zur verfügung stellen konnte?
wo bleibt der shitstorm bitte?
Der Crysis 3 Treiber hat gefehlt das ist nunmal das wichtigste zur Zeit,außerdem kann man die Karten eh noch nich kaufen.
Hübie
2013-02-19, 23:15:22
Hä? Das müsste fifty fifty sein da es sich doch um einen Radiallüfter handelt oder hab ich n Denkfehler?
Godmode
2013-02-19, 23:21:20
Hä? Das müsste fifty fifty sein da es sich doch um einen Radiallüfter handelt oder hab ich n Denkfehler?
Irgendwo haben sie geschrieben, das bei der Titan - im Gegensatz zur 690 - die gesamte Abluft aus dem Gehäuse befördert wird. :confused:
Ja, eine Magnesiumlegierung - was auch immer da genau noch drin ist.
Warum haben sie das Teil nicht mit TITAN verkleidet, hä? Da hat jemand gepennt! :biggrin:
Und wenn der Nachfolger dann Uranos heißt? ;D (Obwohl egal, mit den ganzen Planet/Mythologie-Elementen außer Helium gäbs wohl paar bestimmte Probleme, mit Helium bleibt die Karte wenigstens kühl :biggrin: )
Insgesamt hat die LA, das OC Potential und der Kühler doch den Crapler aus Titanchen genommen - hätte ich nichtmehr zu hoffen gewagt. Nach den NV eigenen! üblicherweise cherrypicked Folien dachte ich eher an le mot de Cambronne-Karten; überteuert und am Limit.
Preis ist natürlich weiterhin ...
600 wären ok zum Launch, aber wer nicht will der kann mich ... :freak:
Hugo78
2013-02-20, 00:01:30
Irgendwo haben sie geschrieben, das bei der Titan - im Gegensatz zur 690 - die gesamte Abluft aus dem Gehäuse befördert wird. :confused:
Ein Teil geht scheinbar auch über die Spannungswandler ins Gehäuseinnere.
wo bleibt der shitstorm bitte?
Shitstorm für was, bei einem Produkt das 99,9% nie kaufen werden?!
Nvidia hat den Release fast perfekt hingelegt.
Preview mit Featuretest aka Verbrauch & Lautheit, dann 1-2 Tage Zeit um die finale Leistung mit und ohne Boost zubewerten.
Das ist wichtig, denn ohne dass wären die Benchens sicher "enttäuschend" am Donnerstag.
So aber reift die Erkenntnis, dass mit OC-Boost sehr viel mehr drin sein wird, als die ersten Benches hergeben werden.
Der Preis bleibt fürn Popo, aber auf ein Refresh zum Jahreswechsel bin ich dennoch gespannt.
Solang wird meine 670 durchhalten müssen.
N0Thing
2013-02-20, 00:25:53
Ich hatte mal eine 570 von Palit, mit OC war das ein übler Föhn (Lüfter ständig @100%, 97°C und jede menge heiße Luft). :eek:
Eigentlich war es auch ohne OC ein übler Föhn.
/OT ;)
Hattest wohl eine defekte Karte. Anders kann ich mir 100% Lüfter Drehzahl nicht erklären.
OgrEGT
2013-02-20, 06:32:59
Hattest wohl eine defekte Karte. Anders kann ich mir 100% Lüfter Drehzahl nicht erklären.
Kann gut sein... ich hatte mit meiner GTX570 das gleiche Problem sogar schon mit Standard Settings... Das war echt nicht zum Aushalten... Seit ich den Accelero drauf habe ist Ruhe :)
Ailuros
2013-02-20, 09:28:39
Und wenn der Nachfolger dann Uranos heißt? ;D (Obwohl egal, mit den ganzen Planet/Mythologie-Elementen außer Helium gäbs wohl paar bestimmte Probleme, mit Helium bleibt die Karte wenigstens kühl :biggrin: )
Spass beiseite und ja es ist eine nebenwichtige Einzelheit aber "Titan" als Marketing-name fuer die desktop GPU kommt direkt vom Oak Ridge Supercomputer welcher rein zufaellig auch Titan heisst. Es ist auch wohl eine gewollte Anspielung auf das vorige, da GTX Titan diesmal auch viel mehr DP Leistung bietet als jeglicher seiner Vorgaenger.
Skysnake
2013-02-20, 09:50:47
Jup, und damit passt Titan auch vollumfänglich.
MorPheuZ
2013-02-20, 09:54:05
Ist es nicht ein bisschen verwunderlich dass der Chip A1 ist? Ich dachte Ail sagte mal was von Respin... oder wird von Tesla auf GeForce neu hochgezählt inkl. respin?
Ansonsten macht das Teil einen "fetten" Eindruck.
Ailuros
2013-02-20, 10:03:30
Ist es nicht ein bisschen verwunderlich dass der Chip A1 ist? Ich dachte Ail sagte mal was von Respin... oder wird von Tesla auf GeForce neu hochgezählt inkl. respin?
Ansonsten macht das Teil einen "fetten" Eindruck.
Ich sagte lediglich dass ein metal spin moeglich waere um hoehere Frequenzen zu erreichen. Ein respin ist dann schon eine ganz andere Geschichte und sie haetten ihn so oder so nie im Leben zwischen Anfang September und Anfang 2013 geschafft. Ich sagte aber auch nebenbei dass sie um ca. 850MHz core clock zu erreichen theoretisch nichtmal einen metal spin brauchen sollten, ergo voila. Den TDP haette ich aber trotz allem eher bei ca. 260+W eingeschaetzt.
Offensichtlich haben sie gar nichts angerichtet und veroeffentlichen eher quasi die "Ueberreste" der HPC wafer runs. Fuer die absehbare Zukunft haben sie theoretisch jetzt tatsaechlich die Moeglichkeit spaeter einen 15SMX refresh mit ca. 10% mehr Takt (mit metal spin fuer den chip um den Stromverbrauch gleich zu halten) vorzustellen, moeglicherweise mit einem ebenso "fettem" MSRP wie heute.
Knuddelbearli
2013-02-20, 10:08:27
naja sin laut Luxx ja sogar eher 1 Ghz oO
Ailuros
2013-02-20, 10:13:46
naja sin laut Luxx ja sogar eher 1 Ghz oO
http://www.geforce.com/hardware/desktop-gpus/geforce-gtx-titan/specifications
Offiziell bei 837MHz@250W TDP. Bei jeglicher Uebertaktungs-Uebung bleibt der TDP wohl nicht gleich.
AnarchX
2013-02-20, 10:16:39
Die 1GHz sind keine Übertaktung, sondern der Boost auf guten Exemplaren.
btw.
Bei Anandtech gibt es übrigens ein Bild einer AB-Revision (http://images.anandtech.com/doci/6760/GeForceGTX_Titan_Front1.jpg)zu sehen, aus der 31. Woche 2012. Die finalen Karten haben einer A1-Die aus der 50. Woche.
boxleitnerb
2013-02-20, 10:17:57
Wir haben ja schon ein paar Verbrauchsmessungen, sogar eine nur mit Karte allein von PCGH. Da wird überall 100pro der Turbo angelegen haben in Richtung 900 MHz und darüber, wenn man sich so die Videos anschaut. Da die Karte bei 250W ja eigentlich dichtmachen sollte, passt da irgendwas nicht zusammen.
Die GTX680 taktet ja auch gerne mal mit 1,1 GHz, 10% über ihrem Basistakt und bleibt trotzdem brav in ihrer TDP.
Skysnake
2013-02-20, 10:37:52
http://www.geforce.com/hardware/desktop-gpus/geforce-gtx-titan/specifications
Offiziell bei 837MHz@250W TDP. Bei jeglicher Uebertaktungs-Uebung bleibt der TDP wohl nicht gleich.
/Sign
Das Video von HWLuxx zeigt aber klar 1GHz auf der GPU...
Die Performance passt aber GAR NICHT! dazu Nur ~30% schneller als ne default 7970GHz Edition :ugly: Das KANN nicht stimmen. :freak:
Wenn doch, dann wäre die Karte ARSCH langsam, wenn Sie nur mit dem standard-Boost läuft.
Und die 1GHz waren auch nur da, so lange die Karte kalt war. Danach musste man an den SChrauben drehen um den Takt zu halten. Und das sogar im wahrscheinlich offenen Benchtable. :freak:
Die ganzen Daten/Fakten, die man bisher kennt passen NULL zusammen...
Wir haben ja schon ein paar Verbrauchsmessungen, sogar eine nur mit Karte allein von PCGH. Da wird überall 100pro der Turbo angelegen haben in Richtung 900 MHz und darüber, wenn man sich so die Videos anschaut. Da die Karte bei 250W ja eigentlich dichtmachen sollte, passt da irgendwas nicht zusammen.
Die GTX680 taktet ja auch gerne mal mit 1,1 GHz, 10% über ihrem Basistakt und bleibt trotzdem brav in ihrer TDP.
Da passt so einiges nicht zusammen...
Ich befürchte ja inzwischen folgendes:
Wir verlassen uns ja ALLE BLIND! auf die Anzeige vom EVGA-Tool. Aus der Erfahrung mit dem MSI-Afterburner sollten wir aber ALLE WISSEN!, das man auf die Angaben nen feuchten haufen setzen kann...
Auch der Afterburner hat immer mal wieder das kurzzeitige runtertakten von GPUs NICHT! angezeigt. Genau das Gleiche könnte hier der Fall sein. Sprich die Taktrate springt in wirklichkeit ständig zwischen 1GHz und z.B. 876MHz hin und her...
Das würde auch erklären, warum die KArte für den eigentlich angezeigten Takt viel zu langsam ist.
Loeschzwerg
2013-02-20, 10:41:35
Die 1GHz sind keine Übertaktung, sondern der Boost auf guten Exemplaren.
btw.
Bei Anandtech gibt es übrigens ein Bild einer AB-Revision (http://images.anandtech.com/doci/6760/GeForceGTX_Titan_Front1.jpg)zu sehen, aus der 31. Woche 2012. Die finalen Karten haben einer A1-Die aus der 50. Woche.
Zu der Karte von Anand unterscheidet sich auch die PCB Revision:
180-12083-1102-B00 -> GK110 AB von Anand
180-12083-1102-A04 -> GK110 A1 von HWLuxx
boxleitnerb
2013-02-20, 10:42:25
Wieso passt das nicht zusammen? Die Karte ist 50% schneller als die 680 im Valley Benchmark und hat 50% mehr Bandbreite. Titan hat auch keinen Deut mehr Bandbreite als die 7970 GHz. Es sei denn, Nvidia hat doch ein 512bit Interface irgendwo versteckt :D
Es täte dir vielleicht gut, dich nicht gleich wieder so aufzuregen, mit den WTF-Smileys um dich zu werfen und die Tests abzuwarten, bevor du die Karte zerreisst ;)
Wissen wir überhaupt, was das für Leistungsaufnahmewerte sind? Durchschnitt oder Maximum? Wie genau gemessen über welchen Zeitraum?
Ailuros
2013-02-20, 10:46:18
Die GTX680 taktet ja auch gerne mal mit 1,1 GHz, 10% über ihrem Basistakt und bleibt trotzdem brav in ihrer TDP.
Βei welchen genau Zimmertemperaturen? Ich geh mit Dir jegliche Wette ein dass Du mit einem solchen System hier bei mir im Hochsommer solche Frequenzen ohne Klima-anlage auf Hochfahrten und ohne zusaetzliche Kuehlungsmassnahmen fuer die GPU nicht so leicht erreichen wirst.
Skysnake
2013-02-20, 10:47:56
Die Karte läuft aber, wie gesagt, mit 14% OC, und soll nur 250W verbrauchen.
Da passt so einiges einfach nicht zusammen aktuell.
Daher muss man sich die Sachen GENAU anschauen...
Aber genau das hat nVidia wohl beabsichtigt mit ihren getrennten NDA-Terminen.. :down:
Man bekommt von den Testern die unreflektierten Werte von nVidia groß presentiert, es bleiben aber unglaublich viele Fragezeichen bestehen. Das Bild bzgl einer gewissen Leistungseinschätzung prägt sich aber schon bei den Leuten ein.
Wir brauchen ECHT detailierte Tests zu der Karte. So ist das doch alles für die Tonne...
boxleitnerb
2013-02-20, 10:50:49
Βei welchen genau Zimmertemperaturen? Ich geh mit Dir jegliche Wette ein dass Du mit einem solchen System hier bei mir im Hochsommer solche Frequenzen ohne Klima-anlage auf Hochfahrten und ohne zusaetzliche Kuehlungsmassnahmen fuer die GPU nicht so leicht erreichen wirst.
Natürlich hängt es auch an der Temperatur. Ich wollte nur sagen, bei "normalen" Umgebungsbedingungen kann man einen 10% Boost schonmal in freier Wildbahn beobachten :wink:
Skysnake, nimm mal ein Tuch zur Hand, ich seh den virtuellen Sabber ja schon. Komm einfach mal bissl runter, morgen kannst immer noch meckern :)
Ailuros
2013-02-20, 11:08:00
Natürlich hängt es auch an der Temperatur. Ich wollte nur sagen, bei "normalen" Umgebungsbedingungen kann man einen 10% Boost schonmal in freier Wildbahn beobachten :wink:
Was genau sind "normale" Umgebungsbedingungen? Wenn ich nur statistisch die US nehme (welches auch ein ziemlich fetter Brocken des gaming Markts darstellt), gibt es ziemlich grosse Unterschiede was das Klima je nach Bereich betrifft. Ein jeglicher Hersteller muss sich zwangsmaessig auch an worst case scenarios richten. Jegliche turbo boost Implementierung haengt hauptsaechlich von der Temperatur ab und nicht nur "auch". Denn Temperatur ist auch davon abhaengig wie viel freier Raum es in einem PC case gibt und wie gut dieser gelueftet wird.
Offiziell von NV sind es 837/876MHz die auch logischerweise immer erreichbar sind. Dass man in sehr vielen Faellen mehr turbo erreichen koennte sollte klar sein und ich hab auch keinen Zweifel dass wenn man bei Minustemperaturen draussen ohne Heizung im Zimmer zittert sogar einiges mehr als 1100MHz erreichen koennte.
Knuddelbearli
2013-02-20, 11:13:22
wie schon wo anders gesagt ich wäre dafür das einfach nur bei 40C° als worst case getestete wird ^^
Außerdem ein Schelm wer denkt es sei zufall das er mitten im Winter rauskommt XD
boxleitnerb
2013-02-20, 11:18:03
Genau, weil jeder bei 40 Grad im Zimmer sitzt. Also da wäre der niedrigere Takt mein geringstes Problem. Und Nvidia richtet sich nach den Jahreszeiten, natürlich. So einen Launch verschiebt oder zieht man einfach mal um 4-5 Monate vor.
Man sollte das Gehirn vor dem Posten vielleicht mal einschalten. So Untersuchungen wie PCGH sie wohl macht sind sehr willkommen, genau wie die Aufwärmphase die ht4u macht. Aber das was ich hier lese ist so großer Blödsinn, das geht auf keine Kuhhaut mehr.
dildo4u
2013-02-20, 11:18:36
Das würde auch erklären, warum die KArte für den eigentlich angezeigten Takt viel zu langsam ist.
Was laberst du eigentlich die solltest dich fragen warum die AMD so langsam ist nicht Titan.Bandbreite gleich Rechenleistung 4TF vs 4.5TF trotzdem ist die Karte vermutlich 30% schneller.
Dural
2013-02-20, 11:20:08
was gibt es am luxx Video nicht zu verstehen?
es wird ja alles genau erklärt :rolleyes:
die Karte im luxx Video hat ja sogar mit OC auf über 1,1GHz getaktet bei nur 1,160Volt und das ist für so ein grosser Chip in der A1 Version schon extrem beeindruckend.
GK104 läuft dagegen sogar recht bescheiden für seine grösse, ich glaube da gibt es nicht ohne grund eine 1 bei GK110 in der bezeichnung.
@Skysnake nur 30% schneller als eine 7970 GHz?!? wohl gemerkt bei sogar etwa weniger Verbrauch und das mit dem exakt selben Herstellungsprozess und aus derselben Fabrik. in der ganzen GPU Geschichte gab es nicht viele Fälle wo man so was erleben konnte... das ist beeindruckend!
Ailuros
2013-02-20, 11:20:23
wie schon wo anders gesagt ich wäre dafür das einfach nur bei 40C° als worst case getestete wird ^^
40C ist auch nicht representativ, ausser Du verfrachtest Deine Knie waerend PC gaming hinter Deinen Ohren bei irgend einem Yoga Zeug welches dann auch verrueckt hoehe Feuchtigkeit in der Umgebung vorraussetzt. :biggrin:
Weder Sauna noch Kuehltruhe bitte ;)
Knuddelbearli
2013-02-20, 11:21:47
Genau, weil jeder bei 40 Grad im Zimmer sitzt. Also da wäre der niedrigere Takt mein geringstes Problem. Und Nvidia richtet sich nach den Jahreszeiten, natürlich. So einen Launch verschiebt oder zieht man einfach mal um 4-5 Monate vor.
Man sollte das Gehirn vor dem Posten vielleicht mal einschalten. So Untersuchungen wie PCGH sie wohl macht sind sehr willkommen, genau wie die Aufwärmphase die ht4u macht. Aber das was ich hier lese ist so großer Blödsinn, das geht auf keine Kuhhaut mehr.
noch nie was von Ironie und Worstcase gehört?
manchmal Frage ich mich echt ob du das mit Absicht machst
andere Leute immer extrem falsch verstehen und alles ernst nehmen aber wenn dich mal einer falsch versteht schreibst du gleich was ihm einfällt hier zu lügen ...
Knuddelbearli
2013-02-20, 11:23:33
40C ist auch nicht representativ, ausser Du verfrachtest Deine Knie waerend PC gaming hinter Deinen Ohren bei irgend einem Yoga Zeug welches dann auch verrueckt hoehe Feuchtigkeit in der Umgebung vorraussetzt. :biggrin:
Weder Sauna noch Kuehltruhe bitte ;)
also ich habe hier im Sommer bis zu 35C° in Wien ( zuhause in Südtirol auch bis zu 39C° ) dazu ist es im Case immer paar Grad wärmer als das Zimmer selbst, bzw aufm Benchtable, egal wie gut die Gehäuselüftung ist
boxleitnerb
2013-02-20, 11:28:38
noch nie was von Ironie und Worstcase gehört?
manchmal Frage ich mich echt ob du das mit Absicht machst
andere Leute immer extrem falsch verstehen und alles ernst nehmen aber wenn dich mal einer falsch versteht schreibst du gleich was ihm einfällt hier zu lügen ...
Als ob das Ironie wäre. Von manchen Leuten kommt halt überwiegend Negatives, bevor das Produkt überhaupt draußen ist. Da bekomme ich den Eindruck, dass das Absicht ist, wenn ich mir die Postingfrequenz, -historie und -formulierung so ansehe. Nachher kann man natürlich behaupten es wäre Ironie... Ich kann Schlechtreden eben nicht ausstehen, tut mir leid, da bin ich ganz ehrlich.
Knuddelbearli
2013-02-20, 11:31:33
und von anderen wird es hochgehypt
ich werde lieber positiv überrascht als negativ
und in dem fall geht es um was das man ja schon bisher kannte und jetzt noch extremer wird
Ailuros
2013-02-20, 11:36:19
also ich habe hier im Sommer bis zu 35C° in Wien ( zuhause in Südtirol auch bis zu 39C° ) dazu ist es im Case immer paar Grad wärmer als das Zimmer selbst, bzw aufm Benchtable, egal wie gut die Gehäuselüftung ist
Zimmertemperaturen? Komischerweise erreiche ich ein paar tausend Kilometer suedlicher in einem subtropischen Klima selbst bei einer Hitzewelle keine solchen Zimmertemperaturen. Das Thermometer sollte fuer solche Faelle weder draussen und schon gar nicht in der prallenden Sonne liegen ;)
boxleitnerb
2013-02-20, 11:36:40
Siehste, das meine ich. Wir wissen doch noch gar nicht ob es extremer wird. Zumal du wie gesagt jetzt auch ein Handhabe mit der Temperaturregelung hast, was du mit Boost v1 nicht hattest. Irgendwo wirst du immer Kompromisse eingehen, die niedrige Lautstärke ist nicht umsonst. Das hat noch niemand angesprochen...wenn man hier für Gleichheit zwischen Referenz 680 und Referenz Titan sorgt, wer weiß nicht, ob sich der Boost dann nicht ähnlich wenn nicht gar besser auf Titan verhält? Aber Hauptsache erstmal sagen es ist schlechter...
Mancko
2013-02-20, 11:38:41
Was laberst du eigentlich die solltest dich fragen warum die AMD so langsam ist nicht Titan.Bandbreite gleich Rechenleistung 4TF vs 4.5TF trotzdem ist die Karte vermutlich 30% schneller.
Nicht nur das. Die Karte kommt aus dem gleichen Herstellungsverfahren, hat doppelt soviel RAM dabei wie die direkte Konkurenz und genehmigt sicht unter Last gleich viel Saft bei deutlich geringerer Lautstärke. Das ist technisch gesehen schon extrem beeindruckend und spricht für ein sehr hochwertiges Produkt.
Knuddelbearli
2013-02-20, 11:39:57
scheiß auf die Lautstärke ich habe wakü ...
und mir geht es hier vor allem um die Vergleichbarkeit und klar kann man Temperaturlimit verstellen aber was nützt das in einem Test? Oder warst du dafür AMD Powertune auch zu erhöhen? Bezweifle ich irgendwie ^^
@AIluros
http://www.wien.gv.at/statistik/lebensraum/images/temperatur.jpg
Skysnake
2013-02-20, 11:40:32
@Skysnake nur 30% schneller als eine 7970 GHz?!? wohl gemerkt bei sogar etwa weniger Verbrauch und das mit dem exakt selben Herstellungsprozess und aus derselben Fabrik. in der ganzen GPU Geschichte gab es nicht viele Fälle wo man so was erleben konnte... das ist beeindruckend!
Dier Werte passen aber 0 zu den Werten von nVidia...
Entweder, man hat nicht wirklich die 1GHz, nVidia hats bei GK110 mit Unigine Valley total verkackt, oder aber die nVidia Werte sonst sind auch mit ~1GHz gebencht...
Es geht doch darum, das man einen gewissen Abstand zwischen 7970 und GTX Titan zu sehen bekommen hat, der so ~30-40% beträgt. nVidia gibt 876MHz als Boost an. Also gingen ALLE davon aus, dass die gezeigten Werte eben auch mit 876MHz erreicht wurden....
Wenn ich mir aber UnigineValley bei mir anschaue, und das mit dem HWLuxx Video vergleiche, dann kann das kaum stimmen, da ausgehend davon, dass die Werte in den nVidia Slides eben mit 876MHz erreicht wurden, die Karte zu langsam ist.
DARUM und um nichts anderes gehts aktuell.
Und das ist schon sehr seltsam. Der Abstand sollte einfach größer sein... Und ja mir ist klar, das eine Vergleichbarkeit über Videos nur sehr begrenzt ist. Die Szene, die ich mir angeschaut habe ist aber ziemlich stabil von den FPS her, und auch eine der niedrigsten im ganzen Bench.
Wie gesagt, das passt aktuell noch nicht so recht zusammen, weshalb man eben GENAU hinsehen muss.
Iruwen
2013-02-20, 11:42:10
scheiß auf die Lautstärke ich habe wakü
This! Insofern auch: scheiß auf Umgebungstemperaturen.
/e: Snake, wäre es möglich die Frequenz der Fäkalausdrücke in deinen Beiträgen zu reduzieren? Ich hab noch Luft nach oben, aber bei dir mach ich mir langsam Sorgen um dein Herz.
boxleitnerb
2013-02-20, 11:43:02
Ich auch, aber darum geht es nicht. Man muss schon alle Aspekte beachten. AMDs Boost ist nicht temperaturabhängig soweit ich weiß, da muss man nix hochsetzen.
dildo4u
2013-02-20, 11:44:07
Geforce GTX Titan - Nvidia-Karte im Unboxing Video
http://youtu.be/9UECcmJNPkg
Dort läuft Firestrike Extreme hat wer die Full und kanns nachstellen?
Ailuros
2013-02-20, 11:44:47
Siehste, das meine ich. Wir wissen doch noch gar nicht ob es extremer wird. Zumal du wie gesagt jetzt auch ein Handhabe mit der Temperaturregelung hast, was du mit Boost v1 nicht hattest. Irgendwo wirst du immer Kompromisse eingehen, die niedrige Lautstärke ist nicht umsonst. Das hat noch niemand angesprochen...wenn man hier für Gleichheit zwischen Referenz 680 und Referenz Titan sorgt, wer weiß nicht, ob sich der Boost dann nicht ähnlich wenn nicht gar besser auf Titan verhält? Aber Hauptsache erstmal sagen es ist schlechter...
Ich mach es Dir mal etwas realistischer: ohne zusaetzliche Kuehlungsmassnahmen, bei ausgezeichneter Case-Lueftung und durchschnittlichen Zimmertemperaturen von ueber 25C kann ich hier im Sommer jegliche OC-Turnereien von jeglicher hw schnell vergessen. Es waere auch schon ziemlich daemlich wenn ich ein paar Monate uebertakte und ein paar Monate nicht.
In der breitesten Mehrzahl der Faelle ist bei solchen Umgebungen auch nicht der Rede wert, wenn man bedenkt wieviel man die hw auf Stress legt und wieviel man dadurch das theoretische Leben der hw auch verkuerzt. Natuerlich gibt es stets Aussnahmen aber mit so teuren Spielzeugen wie eine 1k Euro GPU wuerde ich persoenlich die Finger davon lassen.
Godmode
2013-02-20, 11:46:06
Und das ist schon sehr seltsam. Der Abstand sollte einfach größer sein... Und ja mir ist klar, das eine Vergleichbarkeit über Videos nur sehr begrenzt ist. Die Szene, die ich mir angeschaut habe ist aber ziemlich stabil von den FPS her, und auch eine der niedrigsten im ganzen Bench.
Speicherbandbreite FTW. Könnte doch sein das hier dann recht schnell ein Limit auftritt. Mit SGSSAA sollte man dem etwas entgenwirken können, IMO.
Knuddelbearli
2013-02-20, 11:47:09
es ist wei auch bei der 680 indirekt auch temperaturabhängig.
1.) ab einer bestimmten Temperatur wird turbo zurückgefahren
2.) je höher die Temperatur desto höher die Leistungsaufnahme ( sieht man bei fermi ja besonderen extrem selbe karte unter wakü sind plötzlich 50W weniger
@Iruwen ihr kapiert es einfach nicht .... mir geht es um die Tests / Vergleichbarkeit
Fängt bei den benchtables an geht darum was passiert wenn ein Konkurrent im Sommer erscheint und nicht immer Nachgetestet wird weiter über OCs die in 3 Monaten nicht mehr funktionieren und hört damit auf das nicht jeder Tester einen Vollklimatisierten Testraum hat
boxleitnerb
2013-02-20, 11:52:15
Geforce GTX Titan - Nvidia-Karte im Unboxing Video
http://youtu.be/9UECcmJNPkg
Dort läuft Firestrike Extreme hat wer die Full und kanns nachstellen?
7970@1120MHz.
Sieht man leider schlecht, ich kanns nicht ganz erkennen:
http://www.youtube.com/watch?feature=player_detailpage&v=nQ4Dea_ArDw#t=164s
dildo4u
2013-02-20, 11:54:20
http://www.abload.de/img/firetxshj.jpg
http://www.tweakpc.de/benchmarks/3dmark/s08.php
Knuddelbearli
2013-02-20, 11:58:35
und wo ist da jetzt Titan? ^^
Ailuros
2013-02-20, 11:59:04
@AIluros
Jetzt mal ehrlich: kannst Du Zimmertemperaturen von Lufttemperaturen (aussen) unterscheiden oder nicht? Dass Du ein Glasdach hast im Haus kann ich wohl beruhigt bezweifeln und ich gehe auch stets von einer anstaendigen Isolierung einer jeglichen Wohnflaeche heutzutage aus.
dildo4u
2013-02-20, 11:59:14
und wo ist da jetzt Titan? ^^
Die FPS sieht man im Video sind vermutlich 25 im Schnitt.
boxleitnerb
2013-02-20, 12:01:51
Bei Test 1, Sekunde 25 sind es 20fps für die 7970@1120 und 26fps für Titan@OC, wobei er ja laut Skysnake auch schön runtergetaktet haben kann ;)
Iruwen
2013-02-20, 12:02:34
mir geht es um die Tests / Vergleichbarkeit
Fängt bei den benchtables an geht darum was passiert wenn ein Konkurrent im Sommer erscheint und nicht immer Nachgetestet wird weiter über OCs die in 3 Monaten nicht mehr funktionieren und hört damit auf das nicht jeder Tester einen Vollklimatisierten Testraum hat
Ich zock bei ~22°C. Im Sommer steigt die Temperatur wenns blöd läuft mal auf 30°C (in meiner alten Dachwohnung), das schlägt aber nicht 1:1 auf die GPU durch. Sollen sie halt bei 25°C Raumtemperatur testen. Mehr als 30°C hat man normalerweise nicht im Zimmer, das wäre dann schon ein Extremfall. Dann müsste man auch mal bei 0°C für die Eskimos benchen :freak:
/e: what Ailuros said.
derguru
2013-02-20, 12:03:23
http://www.abload.de/img/firetxshj.jpg
http://www.tweakpc.de/benchmarks/3dmark/s08.php
omg wartet doch bis morgen ab als videos in vergleiche mit einzubeziehen,so flüssig sieht es bei meiner 7970 jedenfalls nicht aus.
dildo4u
2013-02-20, 12:03:40
Bei Test 1, Sekunde 25 sind es 20fps für die 7970@1120 und 26fps für Titan@OC, wobei er ja laut Skysnake auch schön runtergetaktet haben kann ;)
In deinem Video kraucht die bei 12-16fps rum.
boxleitnerb
2013-02-20, 12:07:41
In deinem Video kraucht die bei 12-16fps rum.
Ne, schau mal bei 2:10. Ich hab etwas vorgespult zum Anfang von Test 1, weil das verlinkte Video von der 7970 auf der Brücke zu Beginn sehr unscharf ist und man die fps nicht ablesen kann.
Knuddelbearli
2013-02-20, 12:09:19
Jetzt mal ehrlich: kannst Du Zimmertemperaturen von Lufttemperaturen (aussen) unterscheiden oder nicht? Dass Du ein Glasdach hast im Haus kann ich wohl beruhigt bezweifeln und ich gehe auch stets von einer anstaendigen Isolierung einer jeglichen Wohnflaeche heutzutage aus.
Also ich hab eigentlich immer das Fenster offen, wenn nicht wird es dank PC ja eher noch heißer als draußen
Mit meinem aktuellen PC brauche ich nach 1-2 Std selbst im Winter keine Heizung mehr bzw öffne sogar teils das Fenster ( Thermi halt ^^ )
Skysnake
2013-02-20, 12:09:35
This! Insofern auch: scheiß auf Umgebungstemperaturen.
/e: Snake, wäre es möglich die Frequenz der Fäkalausdrücke in deinen Beiträgen zu reduzieren? Ich hab noch Luft nach oben, aber bei dir mach ich mir langsam Sorgen um dein Herz.
Jetzt fang nicht auch du noch damit an :cool: :P
Und ja, ich kann die "Frequenz" reduzieren, aber mir liegt meist das Herz auf der Zunge ;)
Ich verbieg mich für keinen, und sag den Leuten das, was ich denke in 99% der Fälle. Ist btw sehr geil teilwese ;D
Freundin von meiner Verlobten: "Hey, ich hab mir die Haare kurz schneiden lassen, wie findet ihrs"
Ich: "Sieht scheise aus, steht dir gar nicht, die langen Haare haben mir besser gefallen"
Sie: "Schweigen, und nen langes Gesicht"
Verlobte: [Killerblick :crazy2:]
Ich: [fuck :ubigboy::uhammer2:]
Inzwischen hat die Freundin es auch verdaut und frägt mich auch weiterhin, Sie weiß aber auch, das ich ehrlich bin, und >90% der Fälle bekommt Sie ja auch was nettes zu hören :wink:
Speicherbandbreite FTW. Könnte doch sein das hier dann recht schnell ein Limit auftritt. Mit SGSSAA sollte man dem etwas entgenwirken können, IMO.
Wenn die Karte nur ~40 FPS schafft, und an der Stelle verdammt viel Postprocessing drüber rattert? hm... Wäre möglich, aber dann wärs dennoch nicht gut, weil das für den realen Einsatz dann eben wohl auch recht häufig zutreffen würde
es ist wei auch bei der 680 indirekt auch temperaturabhängig.
1.) ab einer bestimmten Temperatur wird turbo zurückgefahren
2.) je höher die Temperatur desto höher die Leistungsaufnahme ( sieht man bei fermi ja besonderen extrem selbe karte unter wakü sind plötzlich 50W weniger
@Iruwen ihr kapiert es einfach nicht .... mir geht es um die Tests / Vergleichbarkeit
Fängt bei den benchtables an geht darum was passiert wenn ein Konkurrent im Sommer erscheint und nicht immer Nachgetestet wird weiter über OCs die in 3 Monaten nicht mehr funktionieren und hört damit auf das nicht jeder Tester einen Vollklimatisierten Testraum hat
/sign
Ist aber nicht nur bei GF1x0 so. Tahiti sieht das ziemlich ähnlich aus. Da kannste auch mal schnell 1W/°C TEmperaturdifferenz auf der GPU erreichen, und das mit Standardspannung und Standardtaktraten, also nur 925MHz!
[einfach im Link von mir etwas hoch scrollen]
Und wenn man undervoltet, dann kann man sogar mal schnell 60W einsparen :freak:
http://extreme.pcgameshardware.de/grafikkarten/255983-xfx-r7970-double-dissipation-edition-im-pcghx-test-update-schnellste-stock-hd7970-im-hwbot-pcgh-team-heaven.html#a8
Also das ist echt heftig, was da z.B. bei AMD an Potenzial brach liegt. Da merkt man halt die ein Jahr alte Produktion.
Dennoch sind die Werte von der GTX Titan sehr überraschend.
Skysnake
2013-02-20, 12:19:26
Ich zock bei ~22°C. Im Sommer steigt die Temperatur wenns blöd läuft mal auf 30°C (in meiner alten Dachwohnung), das schlägt aber nicht 1:1 auf die GPU durch. Sollen sie halt bei 25°C Raumtemperatur testen. Mehr als 30°C hat man normalerweise nicht im Zimmer, das wäre dann schon ein Extremfall. Dann müsste man auch mal bei 0°C für die Eskimos benchen :freak:
/e: what Ailuros said.
20/25/30 wären durchaus gut.
Mindestens aber 20 und 25 °C.
In Wohnräumen sollte man auch im Winter nicht unter 20°C haben, um Tau und folgende Schimmelbildung zu verhindern.
Und im Sommer sollte es in der Wohnung (abgesehen von schlecht isolierten Dachwohnungen) nicht mehr als 25°C warm werden. Im Extremfall mal 30, dann kannste die Dachwohnung meist auch dazu rechnen.
Und ja ich weiß, das einige bei 17°C im Schlafzimmer zocken und auch eventuell drunter :rolleyes:
Das wird durchs zocken aber wohl mehr ;)
dildo4u
2013-02-20, 12:20:53
Die Werte sind nicht überraschend wenn sie die 690 weiter verkaufen wollen, sieht man ja am Verbrauch das man mit Absicht viel Luft gelassen hat.
Knuddelbearli
2013-02-20, 12:42:54
http://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/25550-galaxys-geforce-gtx-titan-ohne-boost-aber-mit-boost-takt.html
wieso gibt es das nicht von der 680 ...
boxleitnerb
2013-02-20, 12:47:14
Das ist interessant, vor allem mit der TDP-Angabe. Die zusätzlichen 15W könnten durchaus reichen, um etwas höher zu gehen. Wie hoch, müssen die Tests mit den Boost-Modellen klären.
Skysnake
2013-02-20, 12:49:21
http://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/25550-galaxys-geforce-gtx-titan-ohne-boost-aber-mit-boost-takt.html
wieso gibt es das nicht von der 680 ...
Fragt sich nur, ob dann nicht Spannung und Takt gelocked sind. :confused:
LSSJBroly
2013-02-20, 12:50:24
Es soll im Treiber nun auch eine funktion für GPGPU geben, die den Boost deaktiviert.
Knuddelbearli
2013-02-20, 12:55:35
ja dafür aber den takt senkt und OC deaktiviert
sonst würde ja keiner mehr teslas kaufen ^^
boxleitnerb
2013-02-20, 12:57:06
Mit einer Tesla bekommst du mehr als nur die Karte schätze ich. Treiber, Support, Zugang zu spezieller Software und Bibliotheken. Wer das nicht braucht, ok.
LSSJBroly
2013-02-20, 13:02:13
ja dafür aber den takt senkt und OC deaktiviert
sonst würde ja keiner mehr teslas kaufen ^^
Soweit ich weiß wird dadurch nur GPU-Boost deaktiviert und die Karte läuft mit 837MHz. Ocen soll wohl weiterhin möglich sein.
Iruwen
2013-02-20, 13:07:31
Mit dem Kepler BIOS Editor kann man ja bei GK104 mittlerweile auch so ziemlich alles einstellen, außer der Temperatur ab der gedrosselt wird und der Spannung jenseits von 1,21V iirc. Wenn sich beim Titan beides wieder weitestgehend frei einstellen lässt und NV vor allem den AIB Partnern freie Hand lässt haben sie ganz offensichtlich ein Herz und ein offenes Ohr für Enthusiasten.
fondness
2013-02-20, 13:37:16
Mit dem Kepler BIOS Editor kann man ja bei GK104 mittlerweile auch so ziemlich alles einstellen, außer der Temperatur ab der gedrosselt wird und der Spannung jenseits von 1,21V iirc. Wenn sich beim Titan beides wieder weitestgehend frei einstellen lässt und NV vor allem den AIB Partnern freie Hand lässt haben sie ganz offensichtlich ein Herz und ein offenes Ohr für Enthusiasten.
Aber anscheinend nur für Leute die bereit sind 1K EUR hin zulegen. Bisher gehörte so etwas bei jeder Karte zum guten Ton.
Aber so kann man Leute natürlich auch verarschen. Zuerst allerlei Restriktionen einführen um sie dann bei einer Schweine-teuren Karte wieder abzuschaffen und sich dafür auch noch feiern zu lassen.
BigKid
2013-02-20, 13:57:35
Aber anscheinend nur für Leute die bereit sind 1K EUR hin zulegen. Bisher gehörte so etwas bei jeder Karte zum guten Ton.
Aber so kann man Leute natürlich auch verarschen. Zuerst allerlei Restriktionen einführen um sie dann bei einer Schweine-teuren Karte wieder abzuschaffen und sich dafür auch noch feiern zu lassen.
Ohen das jetzt Rechtfertigen zu wollen - aber hat Intel das mit den CPUs nicht vorgemacht ? Multiplikator locken, Übertakten über den FSB verhindern um es dann bei den teureren K-Modellen (Multiplikator wieder offen) wieder zuzulassen ?
dargo
2013-02-20, 15:20:05
Genau, weil jeder bei 40 Grad im Zimmer sitzt.
Es geht nicht um 40°C im Zimmer sondern um bsw. 40°C Umgebungstemperatur bei der Grafikkarte. Und das ist in einem geschlossenem Gehäuse schnell erreicht.
Ohen das jetzt Rechtfertigen zu wollen - aber hat Intel das mit den CPUs nicht vorgemacht ? Multiplikator locken, Übertakten über den FSB verhindern um es dann bei den teureren K-Modellen (Multiplikator wieder offen) wieder zuzulassen ?
Bei Intel ist der Preisunterschied zwischen K und nicht K bei gleichem Takt wie hoch nochmal? :freak:
Palpatin
2013-02-20, 15:31:42
Ohen das jetzt Rechtfertigen zu wollen - aber hat Intel das mit den CPUs nicht vorgemacht ? Multiplikator locken, Übertakten über den FSB verhindern um es dann bei den teureren K-Modellen (Multiplikator wieder offen) wieder zuzulassen ?
Die K-Modelle waren eher Antwort auf die Black Editions von AMD wenn ich mich recht erinnere. Allerdings hat AMD nie dem FSB übertakten einen Riegel vorgeschoben soweit ich mich entsinne.
Knuddelbearli
2013-02-20, 15:35:27
BE gabs schon zu Core 2 Duo zeiten und Referenztakt lock gabs erst mit Sandy also 1 generation und 1 Refresh später
und wo ist da jetzt Titan? ^^
Ich hab leider keine und bekomme auch keine :mad:
;)
25 fps halte ich aber für realistisch.
boxleitnerb
2013-02-20, 15:41:12
Es geht nicht um 40°C im Zimmer sondern um bsw. 40°C Umgebungstemperatur bei der Grafikkarte. Und das ist in einem geschlossenem Gehäuse schnell erreicht.
Das kann man ja als Sondertest anbieten, aber dann bitte mit allen Karten. So wie ich das verstanden habe, verhalten sich alle AMD-Karten gleich, aber eben nur unter identischen Bedingungen.
Gipsel
2013-02-20, 15:54:50
Das kann man ja als Sondertest anbieten, aber dann bitte mit allen Karten. So wie ich das verstanden habe, verhalten sich alle AMD-Karten gleich, aber eben nur unter identischen Bedingungen.Solange die nicht 100°C oder so erreichen und dann hart throtteln um Schäden an der Hardware zu vermeiden, verhalten die sich auch unter allen Temperaturen exakt gleich. Da gibt es keine Performanceunterschiede, egal ob die die unter 0°C irgendwo in Ostsibirien im Freien betreibst oder den Chip 90° warm werden läßt. Die Temperatur fließt bei Powertune nicht mit ein.
Knuddelbearli
2013-02-20, 15:58:12
wie sieht das aber wegen drosselung wegen Leistungsaufname aus?
zwischen 50C° und 90C° liegen ja schonmal 40W
wobei soweit ich mich erinnere misst AMD die Leistungsaufnahme ja nicht sondern schätzt sie oder?
boxleitnerb
2013-02-20, 16:03:27
Das wollte ich noch dazuschreiben, danke für den Hinweis. Denn der Boost wäre kein Boost, wenn es nicht Bedingungen geben würde für dessen Aktivierung. Dann wäre es ganz normaler fester Basistakt.
M4xw0lf
2013-02-20, 16:46:56
Ist schon irgendwo ein richtiges Review geleakt? ;)
Ailuros
2013-02-20, 17:24:08
Also ich hab eigentlich immer das Fenster offen, wenn nicht wird es dank PC ja eher noch heißer als draußen
Mit meinem aktuellen PC brauche ich nach 1-2 Std selbst im Winter keine Heizung mehr bzw öffne sogar teils das Fenster ( Thermi halt ^^ )
Macht doch auch so keinen Sinn; wenn Du selbst mit offenem Fenster immer noch 35-39C im Zimmer hast, hast Du entweder tatsaechlich eine Glasdecke oder der Raum ist verdammt winzig, damit ein PC selbst mit einer GPU mit hohem Verbrauch diesen ueberhaupt annaehernd "heizen" koennte. Glaubst Du ehrlich dass irgend jemand diese brutalen Uebertreibungen glauben kann?
--------------------------------------------------------------------
Schwamm drueber und da es schon OT ist noch ein OT aber relevant zu vorigen OT Abschweifungen:
http://www.techpowerup.com/180389/Jon-Peddie-Research-Reports-Graphics-Market-Down-8.2-in-Q4-2012.html
Nvidia's quarter-to-quarter desktop discrete shipments fell 15.1% from last quarter; and, the company's mobile discrete shipments dropped 18.4%. The company's overall PC graphics shipments declined 16.7%.
Kann natuerlich NV scheissegal sein mit den Preisen die sie generell verkaufen.
Iruwen
2013-02-20, 17:39:24
Ein ruhender Durchschnittsmensch strahlt laut Wikipedia ca. 90W ab. Müsste verdammt heiß werden wenn ich mit meiner Familie im Wohnzimmer sitze :rolleyes:
Und wie wie viel "Watt" strahlt man beim Sport ab? Ich habe zuhause mal durch ordentliches Training die Raumtemperatur um 2 Grad Celsius erhöht. :biggrin:
MfG,
Raff
Ailuros
2013-02-20, 18:06:35
Und wie wie viel "Watt" strahlt man beim Sport ab? Ich habe zuhause mal durch ordentliches Training die Raumtemperatur um 2 Grad Celsius erhöht. :biggrin:
MfG,
Raff
Ich hab eine bessere Antwort als von Euch beiden Kerlen parat, aber ich muss mich leider benehmen und fuer "back on topic" die Peitsche schleudern ;)
Gipsel
2013-02-20, 18:12:14
wie sieht das aber wegen drosselung wegen Leistungsaufname aus?
zwischen 50C° und 90C° liegen ja schonmal 40W
wobei soweit ich mich erinnere misst AMD die Leistungsaufnahme ja nicht sondern schätzt sie oder?
Das wollte ich noch dazuschreiben, danke für den Hinweis. Denn der Boost wäre kein Boost, wenn es nicht Bedingungen geben würde für dessen Aktivierung. Dann wäre es ganz normaler fester Basistakt.
Langsam könnte man das aber schon mal irgendwo gelesen haben, wie das funktioniert. :rolleyes:
Aber gut, dann nochmal, zuerst das "Original-Standard"-Powertune:
AMD überwacht ständig, was bzw. wieviel jede Einheit auf dem Chip zu tun hat. Aus all diesen Daten wird mit einem Modell ausgerechnet, wieviel der Chip bei maximal erlaubter Temperatur (also bevor er aus Temperaturgründen anfängt zu drosseln) verbrauchen müßte. Liegt das oberhalb der TDP (bzw. dem über das Treiber festgelegten Powertarget), wird der Takt in ~4MHz Schritten verringert.
Mit einem Treiber-Update (Das Ganze wird zwar von Hardware erledigt, allerdings von programmierbarer Hardware. Der Algorithmus ist also nicht festverdrahtet, sondern kann per BIOS bzw. Treiberupdate ähnlich wie bei einem µCode-Update bei einer CPU geändert werden) wurde dann später (zum gleichen Zeitpunkt, als der Boost kam) eine Art History-Funktion dazugepackt. Wenn der Chip einige Zeit deutlich unterhalb des Powerlimits betrieben wurde, steht kurzzeitig ein höheres Powerlimit zur Verfügung. Zur Bestimmung der Zeitkonstanten wird dabei wohl (das stand mal auf irgendeiner Präsentationsfolie, glaube ich) die Güte des Referenzkühlers angenommen (also dessen thermischer Widerstand und Wärmekapazität im Worst Case). Die Idee dahinter ist, daß selbst wenn so ziemlich alle ungünstigen Bedingungen zusammenkommen, unter Teillast oder im idle die Temperatur des Chips sinkt und wieder eine Weile benötigt, um sich danach bei Vollast wieder aufzuheizen. Diese niedrigere Temperatur kann man also benutzen, um später abzuregeln (weil ein Chip bei niedrigerer Temperatur weniger verbraucht, AMD nutzt da einfach eine Kennlinie, die bei der Charakterisierung des Chips rausgekommen ist). Dabei wird aber wiederum nicht die gemessene Temperatur benutzt (die dient nur für den Notfall der Überhitzung), sondern die worst-Case Abschätzung, die eben reproduzierbar ist, und für alle Chips genau gleich ausfällt (bei gleichem Lastprofil). In diesem Modus funktionieren heutzutage (mit einem aktuellen Treiber) die älteren, nicht boostfähigen Karten.
Bei den Karten mit Boost, gibt es schlicht noch einen zusätzlichen, höheren Powerstate als P0 (die Basisfrequenz und Spannung) mit höherer Frequenz und Spannung. Bestehen im P0 noch Reserven, geht er auf P_boost. Überschreitet er im P_boost das Powertarget (nach Berücksichtigung der History, die hier standardmäßig an Bord ist), throttelt er wieder mit den ~4MHz Schritten zwischen P_boost und P0.
Also im Prinzip hat boxleitnerb fast schon Recht, der Boost-Takt ist fast sowas wie ein höherer Standardtakt, bei dem AMD nur weiß, daß der auch schon bei normalen Anwendungen/Spielen nicht immer gehalten werden kann (solange man Powertune nicht hochregelt). Aber sonstige Temperatureinschränkungen oder sowas gibt es nicht. Der geht da nur runter, wenn die Auslastung der Karte zu hoch wird, wie auch beim normalen Powertune. Nur das Powerlimit ist halt relativ gesehen ein wenig knapper.
boxleitnerb
2013-02-20, 18:15:42
Danke für die ausführliche Erklärung :up:
Skysnake
2013-02-20, 18:23:35
Macht doch auch so keinen Sinn; wenn Du selbst mit offenem Fenster immer noch 35-39C im Zimmer hast, hast Du entweder tatsaechlich eine Glasdecke oder der Raum ist verdammt winzig, damit ein PC selbst mit einer GPU mit hohem Verbrauch diesen ueberhaupt annaehernd "heizen" koennte. Glaubst Du ehrlich dass irgend jemand diese brutalen Uebertreibungen glauben kann?
Also ich kann ihm das durchaus glauben.
Der Bruder meiner Verlobten war unterm Dach, und der hatte im Sommer >30°C im Zimmer, und das regelmäßig.
Godmode
2013-02-20, 18:25:03
Also ich kann ihm das durchaus glauben.
Der Bruder meiner Verlobten war unterm Dach, und der hatte im Sommer >30°C im Zimmer, und das regelmäßig.
Hatte bis zu 35°C unterm Dach, dann hab ich ne Klimaanlage einbauen lassen.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.