Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GK110 - High-End-Kepler - Q1 2013


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 [13] 14 15 16

Popopinsel
2013-02-16, 16:40:35
Immer auf den maximalen Wert jedes Benchmarks bezogen.

Jetzt ist der Groschen auch bei mir gefallen! :D

boxleitnerb
2013-02-16, 16:40:50
Jo ich meinte die Rechnung macht Sinn, das Rating nicht.

M4xw0lf
2013-02-16, 16:43:18
M4xw0lf wozu dazu hast du ja das mausover und kannst selber den referenzwert bestimmen

Hmm gut, allerdings könnte ja einfach die Standardanzeige immer schon auf den höchsten Wert normiert sein, und dann per Mausover immer auf den ausgewählten - das wäre dann weniger mysteriös.

TurricanM3
2013-02-16, 16:53:47
Ich finde es erstaunlich, dass es noch immer keinen eindeutigen Leak gab oder auch nur ein Bild der Karte. Wie verhindert Nvidia, dass niemand einen Foto der Karte hochlädt?

Knuddelbearli
2013-02-16, 17:04:00
nur einige wenige seiten haben welche bekommen ^^

G 80
2013-02-16, 17:24:47
HT4U gehöhrt warscheinlich nicht zu den auserwählten, zumindest hat, glaub ich, Peter mal was dahingehend angedeuted.

Sehr, sehr schade wäre das. Hab immer gerne dort gelesen wenn ich mal bischen Zeit hatte.

€: @ KNB: Eben! :frown:

Knuddelbearli
2013-02-16, 17:26:59
ht4u wurde doch bereits bei der 690 und 680 außen vor gelassen

y33H@
2013-02-16, 17:27:56
Warum normiert man die Werte dann nicht am Schluss auf 100 Prozent?

Spasstiger
2013-02-16, 18:17:25
3 tests 690 vs 7970 rein theoretische werte:

690: 100% 100% 70%
7970: 85% 85% 100%

690 hat am ende dann 90% ebenso die 7970
Wobei man Verhältnisse streng genommen geometrisch und nicht arithmetisch mitteln sollte, sonst kommt je nach Wahl der Referenz ein anderes Verhältnis der Mittelwerte raus. *) Das Thema hab ich aber schon hier und bei CB durchgekaut und zumindest bei CB stößt man auf taube Ohren.
Ich glaube, die Leute, die den Index erstellen, hauen die Benchmarkergebnisse ohne nachzudenken in ein Excel-Sheet rein und lesen dann einfach ab.

*) Um das mal am Beispiel auszuführen, man kann ja auch jeweils die langsamste Karte als Referenz setzen. Dann käme raus:
690: 117,6% 117,6% 100% -> arithmetischer Mittelwert 111,7%
7970: 100% 100% 142,9% -> arithmetischer Mittelwert 114,3%
Mit der jeweils schnellsten Karte als Referenz sind beide Karten mit 90% gleich schnell im Rating. Mit der jeweils langsamsten Karte als Referenz dagegen ist die 7970 im Rating besser bewertet. Arbeitet man mit dem geometrischen Mittel, hat man das Problem nicht.

M4xw0lf
2013-02-16, 18:30:36
Warum normiert man die Werte dann nicht am Schluss auf 100 Prozent?

Das Mouseover tut das ja wie gesagt - nur könnte die Standardansicht ja auch gleich mal auf den höchsten Wert normiert werden.

AnarchX
2013-02-16, 20:44:05
Wohl 837MHz Basistakt und 876MHz Durchschnitts-Boost: http://wccftech.com/nvidia-geforce-gtx-titan-final-specifications-clock-speeds-confirmed-nda-lifts-18th-february/

Und ein Benchmark-Diagramm von PHK, wo man wohl gute 50% schneller als die GTX 680 ist.

Godmode
2013-02-17, 03:08:31
Wohl 837MHz Basistakt und 876MHz Durchschnitts-Boost: http://wccftech.com/nvidia-geforce-gtx-titan-final-specifications-clock-speeds-confirmed-nda-lifts-18th-february/

Und ein Benchmark-Diagramm von PHK, wo man wohl gute 50% schneller als die GTX 680 ist.

4 Stücke wären nett, aber für 1k Euro? :confused: 700 € wäre mir das Teil Wert, mehr sicher nicht.

@Skysnake: +1 für dich, ich hätte nicht gedacht das wirklich nur 14 SMX kommen.

4Fighting
2013-02-17, 09:13:12
4 Stücke wären nett, aber für 1k Euro? :confused: 700 € wäre mir das Teil Wert, mehr sicher nicht.



Sofern das Referenz-Design stimmt in Bezug auf Lautstärke und Temps komme ich auch echt ins Grübeln;D

Ailuros
2013-02-17, 10:20:23
Kann man ja mal bezeichnen als Kepler "1" wenn es die 1.Generation der Architektur ist :D . Habs mal frei erfunden, daher auch nicht weiter beachtenswert. Habt scho Recht die Dinge beim richtigen Namen zu nenen :redface:

Warum was überproportional besser skalieren soll kam mir nur in den Sinn, da es 1x Wunschdenken ist :D und 2. ja mehr drin steckt im GK110 als im GK104. Ob sich das positiv auswirkt wird sich zeigen müssen.
Und das man GF und GK nicht direkt vergleichen kann ist mir bewusst, aber irgendein Anhaltspunkt braucht man ja.

Der eigentliche Punkt der Sache ist eben dass GK104 sogar mehr Leistung liefert als GF114, aber natuerlich auch auf Kosten des TDPs. Wenn auf dem Titan der Stromverbrauch in etwa auch so sehenswert steigen wuerde, waere es wieder eine andere Geschichte mit der Leistung vom letzteren. Es ist eben stets eher eine Angelegenheit wo ein jeglicher IHV halt machen will weil es "gut genug" erscheint.

Im gegebenen Fall ist der Anhaltspunkt eben schlecht. Wenn ich jetzt sage dass die GTX680 "nur" um =/>30% schneller ist als eine GTX580 und dabei total uebersehe dass es 294mm2@28nm vs. 530mm2@40nm ist, dann ist es trotz allem kein logischer Vergleich.

boxleitnerb
2013-02-17, 12:16:26
Wohl 837MHz Basistakt und 876MHz Durchschnitts-Boost: http://wccftech.com/nvidia-geforce-gtx-titan-final-specifications-clock-speeds-confirmed-nda-lifts-18th-february/

Und ein Benchmark-Diagramm von PHK, wo man wohl gute 50% schneller als die GTX 680 ist.

Sowas hätte ich von einer GTX780 nach altem Schema erwartet, für 500-550 Euro :freak: (mit 3GB dann).
Verbraucht der viele Speicher eigentlich (viel) Saft, wenn er nicht genutzt wird? Wenn nicht, könnte der Verbrauch im Schnitt ein gutes Stück unterhalb der 250W liegen und der Turbo könnte höher takten (oder man hilft manuell nach), ohne dass die Leistungsaufnahme sich allzusehr von den 250W entfernt.

Spasstiger
2013-02-17, 12:31:24
Verbraucht der viele Speicher eigentlich (viel) Saft, wenn er nicht genutzt wird?
Bei der GTX 660 Ti 3 GiB ist im idle kein Mehrverbrauch gegenüber den 2-GiB-Varianten erkennbar: http://ht4u.net/reviews/2012/evga_geforce_gtx_660_ti_sc_3_gb_test/index46.php.
Der Speicher benötigt in genau in zwei Fällen Strom: Bei Zugriffen und wenn der Inhalt alle 32 oder 64 Milisekunden aufgefrischt wird (Refreshzyklus).
Die sechs 64-Bit-Speichercontroller von GK110 werden aber vermutlich generell mehr Saft brauchen als die vier 64-Bit-Speichercontroller von GK104.

aufkrawall
2013-02-17, 12:40:13
:confused: 700 € wäre mir das Teil Wert, mehr sicher nicht.

Dito. So viel hab ich für mein 670 SLI bezahlt, da wäre Titan selbst nach Mikrorucklerkorrektur immer noch ein Downgrade bei 1080p nach jetzigem Stand.

Raff
2013-02-17, 12:42:36
Schon die GTX 670 ist IMO überteuert.

MfG,
Raff

aufkrawall
2013-02-17, 12:46:22
Schon die GTX 670 ist IMO überteuert.

MfG,
Raff
Ist sie definitiv, aber deutlich besserer Preis als die 680 und bei OC in vielen Fällen die gleiche Leistung (mit Custom Design).
Selbst die 670 ist oft im Bandbreitenlimit, da erschien mir die 680 ziemlich sinnfrei zum Kauf.

boxleitnerb
2013-02-17, 12:46:35
Bei der GTX 660 Ti 3 GiB ist im idle kein Mehrverbrauch gegenüber den 2-GiB-Varianten erkennbar: http://ht4u.net/reviews/2012/evga_geforce_gtx_660_ti_sc_3_gb_test/index46.php.
Der Speicher benötigt in genau in zwei Fällen Strom: Bei Zugriffen und wenn der Inhalt alle 32 oder 64 Milisekunden aufgefrischt wird (Refreshzyklus).
Die sechs 64-Bit-Speichercontroller von GK110 werden aber vermutlich generell mehr Saft brauchen als die vier 64-Bit-Speichercontroller von GK104.

Im idle werden sicher keine 3GB benutzt. Ich schreib doch extra dazu, wenn er benutzt wird ;)
Werden alle Speicherzellen refreshed oder weiß der Controller, welche leer sind und macht es dort nicht?

Spasstiger
2013-02-17, 13:12:00
Im idle willst du den Speicherinhalt auch nicht verlieren.
Der ultimative Stromsparmodus von GDDR5 ist afaik der Self-Refresh-Modus. In diesem Fall kann der Speichercontroller komplett schlafen gelegt werden und der GDDR5-RAM erhält selbstständig den Speicherinhalt aller Zellen.

boxleitnerb
2013-02-17, 13:17:45
Ok anders gefragt:

Man spielt ein Spiel mit 8xMSAA in hoher Auflösung, bei dem die üblichen Tools ca. 3GB Speichernutzung anzeigen. Brauchen die restlichen 3GB genausoviel die die belegten 3GB?

Spasstiger
2013-02-17, 13:21:00
Es macht bei der Leistungsaufnahme unter Last - also mit ständigen Speicherzugriffen - kaum einen Unterschied, ob 3 von 3 GiB, 3 von 6 GiB oder 6 von 6 GiB genutzt werden, solange die Zugriffe immer mit der gleichen Speicherbandbreite stattfinden.

boxleitnerb
2013-02-17, 13:23:05
Kannst du das etwas näher erläutern? Titan wird ja doppelt soviele Speicherchips wie eine 7970 z.B. haben, und jeder Chip braucht Strom beim Zugriff. Es sollte doch einen Unterschied machen, ob ich 12 Chips komplett schlafenlegen kann und die anderen 12 benutze oder ob alle 24 aktiv sind, oder?

AnarchX
2013-02-17, 13:24:56
Theoretisch könnten die zusätzlichen 12 Chips die TDP um fast 30W erhöhen.

Skysnake
2013-02-17, 13:26:15
Sowas hätte ich von einer GTX780 nach altem Schema erwartet, für 500-550 Euro :freak: (mit 3GB dann).
Verbraucht der viele Speicher eigentlich (viel) Saft, wenn er nicht genutzt wird? Wenn nicht, könnte der Verbrauch im Schnitt ein gutes Stück unterhalb der 250W liegen und der Turbo könnte höher takten (oder man hilft manuell nach), ohne dass die Leistungsaufnahme sich allzusehr von den 250W entfernt.
GDDR5 RAM braucht vor allem im Speichercontroller relativ viel Saft. Der Refresh hält sich in Grenzen, sollte für 3GB aber wohl dennoch einen Wert von <=10W ausmachen. Genau Zahlen müsste man bei den Chipherstellern nachschauen.

Im idle werden sicher keine 3GB benutzt. Ich schreib doch extra dazu, wenn er benutzt wird ;)
Werden alle Speicherzellen refreshed oder weiß der Controller, welche leer sind und macht es dort nicht?
Und was verstehst du nicht daran, das man die Speicherzellen refreshen muss? Es ist komplett irrelevant, ob auf den Specher zugegriffen wird, oder eben nicht. Die Daten, die im Speicher drin stehen, werden refreshed. Der Speichercontroller weiß auch apriori nicht, welche Bereiche benutzt werden, und daher refreshed werden müssen, und welche ungenutzt rum liegen, und daher nicht zwingend refreshed werden müssen.

Wenn man es genau nimmt, müsste aber, wenn ich mich recht erinnere, der Refresh einer Speicherzelle mit 0 weniger Energie beötigen, als einer mit einer 1. Nagel mich darauf aber bitte nicht genau fest. Ist schon länger her, das ich mich mal mit der Thematik des Speicherrefreshs beschäftigen musste.

Auf jeden Fall kostet RAM IMMER eine gewisse Menge an Strom, um ihn einfach bereit zu halten. Das Benutzen braucht natürlich viel mehr Strom, weil man eben die Signale treiben muss, aber das ist von der Menge des Speichers unabhängig. Wenn man das Interface sättigt, dann braucht man halt ne gewisse Menge an Energie, um die Daten zu übertragen.

Nur der Verbrauch für den Refresh bleibt halt konstant.

Spasstiger
2013-02-17, 13:31:30
Kannst du das etwas näher erläutern? Titan wird ja doppelt soviele Speicherchips wie eine 7970 z.B. haben, und jeder Chip braucht Strom beim Zugriff. Es sollte doch einen Unterschied machen, ob ich 12 Chips komplett schlafenlegen kann und die anderen 12 benutze oder ob alle 24 aktiv sind, oder?
Es werden immer 24 Chips benutzt, die sind bei einem 384-Bit-Interface im Clamshell-Modus verschaltet. Und das, was den Löwenanteil ausmacht, ist das Treiben der 384 Datenleitungen durch die Speichercontroller in der GPU.

Skysnake
2013-02-17, 13:32:05
Kannst du das etwas näher erläutern? Titan wird ja doppelt soviele Speicherchips wie eine 7970 z.B. haben, und jeder Chip braucht Strom beim Zugriff. Es sollte doch einen Unterschied machen, ob ich 12 Chips komplett schlafenlegen kann und die anderen 12 benutze oder ob alle 24 aktiv sind, oder?
So funktioniert das aber im Normalfall nicht... Zumindest wäre mir bei GDDR5 keine Implementierung/Spezifikation bekannt, in der man unbenutze Chips erkennen und schlafen legen kann. Macht ja auch absolut keinen Sinn bei Einfachbestückung, da man ja die maximale Bandbreite nur erreicht, wenn man auch alle Chips benutzt.... Erst bei Doppelbestückung jedes Speicherchannels/Controllers macht es einen Unterschied, weil man den zweiten Chip ja noch nicht zwingend mit Daten befüllen muss. Diesen besonderen Spezialfall wird man aber nicht extra Implementiert haben. Mir wäre zumindest nichts derartiges bekannt.

Daher macht es auch absolut keinen Unterschied, wo die Daten liegen...

Der Gesamtverbrauch ergibt sich aus 2 Größen

Refresh für alle Chips x Watt (fix)
Vorzeitiger Refresh durch lesen eines Wertes+Übertragen des Wertes über das Speicherinterface (Bandbreitenabhängig)

WO die Daten liegen spielt dabei keine Rolle. Bei dem Bandbreitenabhängigen Teil macht sogar die genaue Bestückung keinen Ausschlag. Ok, ganz richtig ist das nicht, weil die Wege tendenziell etwas länger werden, und man tendenziell etwas höhere Spannungen nutzen muss usw usw. Das liegt aber an der realen Implementierung, und sollte nur marginal etwas ausmachen.

boxleitnerb
2013-02-17, 13:32:50
Das Benutzen braucht natürlich viel mehr Strom, weil man eben die Signale treiben muss, aber das ist von der Menge des Speichers unabhängig. Wenn man das Interface sättigt, dann braucht man halt ne gewisse Menge an Energie, um die Daten zu übertragen.


Das leuchtet mir nicht ganz ein. Meinem Verständnis nach wird Energie am Speichercontroller (in der GPU selbst) aber auch in den Speicherchips selbst verbraten für die einzelnen Lese- bzw. Schreiboperationen. Ich würde dir evtl. noch zustimmen, wenn wir nur einen Speicherchip hätten, aber wenn es welche gibt, die "aktiv" sind und welche, die es nicht sind, könnte das doch anders aussehen.

Nightspider
2013-02-17, 13:34:40
Und das, was den Löwenanteil ausmacht, ist das Treiben der 384 Datenleitungen durch die Speichercontroller in der GPU.

Ich dachte immer, man treibt Daten durch die Datenleitung und nicht Datenleitungen durch einen Controller. :tongue:

Skysnake
2013-02-17, 13:39:22
Es sind aber entweder alle oder keine "Aktiv"

Der Refresh ist 100% unabhängig von Zugriffen. Der fällt einfach immer an.

Und der gesonderte Refresh durch lesen/schreiben rechnet man halt dem Lesen/Schreiben zu. Das ist aber eben Bandbreitenabhängig. Wenn man mehr liest/schreibt, braucht man auch mehr Energie dafür. Ist ja logisch.

Machen wir mal ein anschauliches Bild:

Du hast 12/24 LKW und 12 Fahrer. Die LKW müssen immer von A-B fahren, und die Motoren laufen bei allen. Da macht es am Verbrauch durchs Fahren absolut keinen Unterschied, ob da jetzt 12, 24 oder 1024 LKW stehen. Du hast halt nur 12 Fahrer...

Der "Leerlaufverbrauch" steigt aber mit mehr LKWs ;)

Und wenn man es GANZ genau nimmt, wird auch der Verbrauch durchs fahren minimal höher, weil du halt beim aus dem "Parkplatz" fahren minimal längere Wege hast. Das wars dann aber auch schon.

Ich hoffe du verstehst es durch diese "Analogie"

Spasstiger
2013-02-17, 13:40:32
Ich dachte immer, man treibt Daten durch die Datenleitung und nicht Datenleitungen durch einen Controller. :tongue:
;)
Du legst eine definierte Spannung an die Datenleitung an und musst einen gewissen Strom für die Last und die Terminierung bereitstellen. Das nennt man treiben.

@boxleitnerb: Du hast nur eine Datenbreite von 384 Bit, wenn du auf alle 24 Chips gleichzeitig zugreifst.

boxleitnerb
2013-02-17, 13:42:18
Es sind aber entweder alle oder keine "Aktiv"

Der Refresh ist 100% unabhängig von Zugriffen. Der fällt einfach immer an.

Und der gesonderte Refresh durch lesen/schreiben rechnet man halt dem Lesen/Schreiben zu. Das ist aber eben Bandbreitenabhängig. Wenn man mehr liest/schreibt, braucht man auch mehr Energie dafür. Ist ja logisch.

Machen wir mal ein anschauliches Bild:

Du hast 12/24 LKW und 12 Fahrer. Die LKW müssen immer von A-B fahren, und die Motoren laufen bei allen. Da macht es am Verbrauch durchs Fahren absolut keinen Unterschied, ob da jetzt 12, 24 oder 1024 LKW stehen. Du hast halt nur 12 Fahrer...

Der "Leerlaufverbrauch" steigt aber mit mehr LKWs ;)

Und wenn man es GANZ genau nimmt, wird auch der Verbrauch durchs fahren minimal höher, weil du halt beim aus dem "Parkplatz" fahren minimal längere Wege hast. Das wars dann aber auch schon.

Ich hoffe du verstehst es durch diese "Analogie"

Gutes Beispiel, danke. Die Fahrer sind in dem Fall die Bandbreite schätze ich.

Skysnake
2013-02-17, 13:52:54
Nein, die Controller/Datenleitungen.

Da wird die Analogie halt etwas "blöd". Du hast im Prinzip ja eine Straße pro Fahrer ;D

Aber ich denke, das Prinzip versteht man :up:

AnarchX
2013-02-17, 15:33:35
Titan Bilder:
http://www.chiphell.com/thread-678038-1-1.html

300W (6+8-Pin) PCB.

Nightspider
2013-02-17, 15:40:01
Damit ist wohl bestätigt, das es keine custom PCBs geben wird.

boxleitnerb
2013-02-17, 15:40:04
Sieht wertig aus. 8+8pin hätte es aber schon sein können.

LSSJBroly
2013-02-17, 15:43:19
Allerdings hatte man recht: Das Design sieht das einer 690 mehr als nur ähnlich, richtig Edel. Immerhin keine solche Billiglösung wie auf der 670/680.

Superheld
2013-02-17, 15:43:41
ich seh drei:tongue:

schickes Teil:)

Godmode
2013-02-17, 16:09:40
Titan Bilder:
http://www.chiphell.com/thread-678038-1-1.html

300W (6+8-Pin) PCB.

:love:

Atma
2013-02-17, 16:11:56
Sieht echt sehr sexy aus :love4:

fondness
2013-02-17, 16:16:34
Also wenn die Karte dasselbe wie eine GTX690 kostet kann man sich eigentlich nicht beschweren. Ein 550mm² Chip ist in der Fertigung mit Sicherheit teurer als zwei 294mm² Chips. Dazu gibts 6 GB GDDR5 anstatt 4 bei der gtx690. Stromverbrauch und damit Stromversorgung dürften auf ähnlichem Niveau liegen. Bevor ich den Speicherkrüppel GTX690 mit den SLI-Problemen oder eine überteuerte GTX680 kaufe, kaufe ich zehnmal vorher diese Titan-Karte. Was mich allerdings extrem nervt ist das der Chip offenbar nicht voll aktiviert ist. Das riecht nach großem Wertverlust bei einem baldigen Refresh.

Mit den Bildern sind im übrigen die 6GB GDDR5 bestätigt, da wäre also noch Potential für eine billigere 3GB Version.

4Fighting
2013-02-17, 16:17:58
Titan Bilder:
http://www.chiphell.com/thread-678038-1-1.html

300W (6+8-Pin) PCB.

Warum spiegelt sich eigentlich beim 1. Bild die Lampe derart extrem in den Lamellen ? Ist da Plexi-Glas vor ?:freak:

Thunder99
2013-02-17, 16:18:43
erinnert mich an die Zeit wo die Geforce 2 Ultra oder auch die GTX880 Ultra vergoldet verkauft wurden :freak:

Karte sieht hochwertig aus aber außerhalb meines Budgets wo ich kaufe ;)

Raff
2013-02-17, 16:20:46
Warum spiegelt sich eigentlich beim 1. Bild die Lampe derart extrem in den Lamellen ? Ist da Plexi-Glas vor ?:freak:

Ist bei der GTX 690 ebenfalls so. Die Lamellen sind natürlich "gedeckelt", damit der Luftstrom nicht verwirbelt. :)

MfG,
Raff

Ailuros
2013-02-17, 16:25:10
Das riecht nach großem Wertverlust bei einem baldigen Refresh.

Der Wertverlust koennte auch kinderleicht ohne jeglichen Refresh kommen.

P@trick
2013-02-17, 16:25:32
Thanks AnarchX.
Schön, das wertige Design der GTX 690.
Was mich neben der Leistung auch vor allem interessiert,ist die Stückzahl an produzierten Karten die nächsten 6 Monate und ob das Objekt der Begierde echt so schw**ne teuer wird wie die Dual-GPU.

Spasstiger
2013-02-17, 16:32:01
Der Wertverlust koennte auch kinderleicht ohne jeglichen Refresh kommen.
Das denke ich auch. AMD muss nichtmal mit Preisnachlässen kontern, weil die Titan anfangs so absurd teuer sein wird.

Dural
2013-02-17, 16:34:21
jetzt noch ein voller chip drauf und die karte ist zu 100% gekauft. sieht hammer aus!

wenn es wirklich nur 2688 shader sind, muss ich mir das sehr gut überlegen. bei einem so hohen preis zu zuschlagen fällt mir da extrem schwer. :rolleyes:

aber eine grafikkarte titan zu nennen ohne vollen chip drauf? kann man das NV zutrauen :confused:

boxleitnerb
2013-02-17, 16:34:50
Für mindestens ein halbes Jahr kommt da vermutlich kein Konter. Und selbst danach wird Titan wahrscheinlich die schnellste SGPU-Karte bleiben. Ist die Frage, was dieser Bonus wert ist. 500 Euro ist schon hart. Gut, der extra Speicher. Sagen wir 300 Euro.

Spasstiger
2013-02-17, 16:35:59
wenn es wirklich nur 2688 shader sind, muss ich mir das sehr gut überlegen. bei einem so hohen preis zu zuschlagen fällt mir da extrem schwer. :rolleyes:
Mit nur 2688 SPs und einem durchschnittlichen Turbo von 876 MHz wird die Karte ihrem Hype nicht gerecht werden und einige enttäuschte Gesichter zurücklassen. Aber es scheint, als ob NV sich noch etwas Spielraum für 2013 lässt.

Schaffe89
2013-02-17, 16:36:02
Mit den Daten kann die Leistung vielleicht 30 bis 35% über der HD 7970 ghz liegen bei wohl 20 bis 30 Watt Merhverbrauch.
Warum sich AMD nicht zu einem HD7980 Tahiti @1150/1600 hinreißen lässt versteh ich nicht ganz,
Immerhin wäre das ohne viel Aufwand möglich.
Meine HD 7970 DCII schafft 1150 von 925mhz weg ohne Spannungserhöhung. ^^

fondness
2013-02-17, 16:36:58
500 Euro ist schon hart. Gut, der extra Speicher. Sagen wir 300 Euro.

3GB GDDR5 kosten sicher keine 200EUR. ;)
Und dann bleibt noch immer die Frage für was man 6GB brauchen soll. Für 4K Auflösungen plus hohe AA-Stufen wird auch diese Karte zu schwach sein, für alles andere würden auch 3GB reichen.

Ailuros
2013-02-17, 16:40:33
Für mindestens ein halbes Jahr kommt da vermutlich kein Konter. Und selbst danach wird Titan wahrscheinlich die schnellste SGPU-Karte bleiben. Ist die Frage, was dieser Bonus wert ist. 500 Euro ist schon hart. Gut, der extra Speicher. Sagen wir 300 Euro.

500 bzw. 300 Euro im Vergleich zu was? GK104? Selbst wenn sie heute die GTX680 mit ~300 Euro verkaufen wuerden, haetten sie immer noch Gewinnraten.

fondness
2013-02-17, 16:44:17
Mit nur 2688 SPs und einem durchschnittlichen Turbo von 876 MHz wird die Karte ihrem Hype nicht gerecht werden und einige enttäuschte Gesichter zurücklassen. Aber es scheint, als ob NV sich noch etwas Spielraum für 2013 lässt.

~45% mehr als die GTX680 sollte schon drinnen sein, sofern der GTX680 nicht der Speicher ausgeht. Immerhin steigt die Bandbreite um 50%.

boxleitnerb
2013-02-17, 16:45:12
3GB GDDR5 kosten sicher keine 200EUR. ;)
Und dann bleibt noch immer die Frage für was man 6GB brauchen soll. Für 4K Auflösungen plus hohe AA-Stufen wird auch diese Karte zu schwach sein, für alles andere würden auch 3GB reichen.

Das nicht (im Einkauf), aber das ist in etwa die Differenz zwischen 7970 3GB und 7970 6GB, also in etwa das, was man den Käufern zumuten kann.
Zur Speichermenge: Macht mMn nur mit mindestens 2 Karten Sinn. Evtl. sind einige Spiele 2013 und besonders 2014 etwas anspruchsvoller in dieser Hinsicht als heutige Titel.

500 bzw. 300 Euro im Vergleich zu was? GK104? Selbst wenn sie heute die GTX680 mit ~300 Euro verkaufen wuerden, haetten sie immer noch Gewinnraten.

Bezogen auf GTX780 bzw. HD8970. Eben die zweitschnellste (vermutlich) Karte ab Q4. Ich sag ja, es ist hart, nicht wirklich gerechtfertigt.

Spasstiger
2013-02-17, 16:45:30
Warum sich AMD nicht zu einem HD7980 Tahiti @1150/1600 hinreißen lässt versteh ich nicht ganz
Das würde eher für schlechte Presse sorgen, weil man ohnehin nicht an die Titan rankommt, aber der Stromverbrauch explodiert. Und OC-Versionen der HD 7970 GHz Edition gibt es bereits am Markt, die sind wahrscheinlich sogar günstiger als es eine offizielle 7980 wäre.
AMD fährt am Besten, wenn sie bei Bedarf den Preis der 7970 GHz Edition senken. In diesem Jahr können sie ohnehin nicht um die Performancekrone mitkämpfen.
Ich kann mir schon die Fazits zur Titan denken: Beste Single-GPU-Performance und akkzeptabler Verbrauch, aber zu teuer im Vergleich zur HD 7970 GHz Edition.

=Floi=
2013-02-17, 16:45:49
warum gibt es diesmal keinen vollen chip?
-preis wird wohl bei 800€ liegen
-kein neuer prozess
-es gibt schon seit einiger zeit die GK100 gpus

wo liegt diesmal das problem?

OgrEGT
2013-02-17, 16:47:41
AMD fährt am Besten, wenn sie bei Bedarf den Preis der 7970 GHz Edition senken. In diesem Jahr können sie ohnehin nicht um die Performancekrone mitkämpfen.

(...) Single-GPU Performancekrone :D

OgrEGT
2013-02-17, 16:49:41
warum gibt es diesmal keinen vollen chip?
-preis wird wohl bei 800€ liegen
-kein neuer prozess
-es gibt schon seit einiger zeit die GK100 gpus

wo liegt diesmal das problem?

Aller Wahrscheinlichkeit nach an der Ausbeute von 15SMX Versionen bei vorgegebenem Powerlimit und Frequenz, oder einfach eine strategische Entscheidung, um später noch was nachlegen zu können.

Edit wobei ja bei sonst identischen Specs 14:15 SMX auch keinen wirklich großen Unterschied machen... Das ist wohl dann eher eine Prestigefrage...

Spasstiger
2013-02-17, 16:51:20
(...) Single-GPU Performancekrone :D
Von der HD 7990 gibt es kein Referenzdesign und wahrscheinlich kommt auch keins mehr, nachdem bereits zwei Herstellerversionen am Markt sind. Und zwei Titan werden auch eine Ares II in den Schatten stellen bei ähnlichem Verbrauch. Vielleicht bringt Asus noch eine Mars III oder Mars IV mit zwei GK110.

boxleitnerb
2013-02-17, 16:52:35
Gab es das schonmal, dass so teure und spezielle Karten ein Update erhielten? Mir fiele nur 8800 GTX und 8800 Ultra ein, wobei die 8800 GTX ja noch halbwegs normal war vom Preis her. Ich glaube eher nicht, dass Titan einen vollausgebauten Nachfolger bekommt.

OgrEGT
2013-02-17, 16:52:59
Von der HD 7990 gibt es kein Referenzdesign und wahrscheinlich kommt auch keins mehr, nachdem bereits zwei Herstellerversionen am Markt sind. Und zwei Titan werden auch eine Ares II in den Schatten stellen bei ähnlichem Verbrauch.

Klar wenn die auch noch in 2013 erscheint :uexplode:

OgrEGT
2013-02-17, 16:53:38
Gab es das schonmal, dass so teure und spezielle Karten ein Update erhielten? Mir fiele nur 8800 GTX und 8800 Ultra ein, wobei die 8800 GTX ja noch halbwegs normal war vom Preis her. Ich glaube eher nicht, dass Titan einen vollausgebauten Nachfolger bekommt.

GTX280 ... GTX285
Edit
GTX480 ... GTX580 :D

Nakai
2013-02-17, 16:54:13
Mit den Daten kann die Leistung vielleicht 30 bis 35% über der HD 7970 ghz liegen bei wohl 20 bis 30 Watt Merhverbrauch.
Warum sich AMD nicht zu einem HD7980 Tahiti @1150/1600 hinreißen lässt versteh ich nicht ganz,
Immerhin wäre das ohne viel Aufwand möglich.
Meine HD 7970 DCII schafft 1150 von 925mhz weg ohne Spannungserhöhung. ^^

Dein Wort in AMDs Ohr...;)

Wieso sollte man das eigentlich tun? AMD kann froh sein, dass NV so locker auftritt. Und nein, ein Titan Refresh(Full-Titan) gibt es bestimmt nicht vor Ende des Jahres. AMD wird gar nichts tun. Die bringen eher Oland mit einem neuen oder alten NeverSettle-Bundle.
Die HD 7970GHz reicht ja bei "diesem" Titan locker aus. Vll kommt doch eine GHz+Edition.

Nvidia machts richtig. Mit einem teildeaktivierten Chip, wie bei GF100 und GF110, ordentlich Premiumaufschlag bekommen. Wieso sollte auch eine ganzer GK110 verwendet werden? Die Single-GPU-Krone bekommt man sowieso.

Nightspider
2013-02-17, 16:56:19
GTX280 ... GTX285
Edit
GTX480 ... GTX580 :D

285 war in einem kleineren Fertigungsprozess

mapel110
2013-02-17, 16:56:40
Wenn die Ausbeute an voll aktivierbaren Chips stimmt, werden die sicher auch noch kommen. Kann mir kaum vorstellen, dass nvidia schon wieder so einen Bockmist gebaut hat, dass nur 1 Chip vom Wafer kommt.

derguru
2013-02-17, 16:56:43
vielleicht liegt der preis auch eher im 600-700er bereich,genau zwischen der 680 und der 690. ich würde es jedenfalls begrüßen aber dann wären die 10k schnell aus den regalen und kein nachschub mehr da.:D

Duplex
2013-02-17, 16:57:45
Beim Salvage Part des GT200 hat Nvidia damals ein Update gemacht, statt 192 waren es dann 216 Shader. Ein Update auf GK110 Basis kommt nur dann wenn AMD neue Modelle mit ähnlicher Leistung bringt.

OgrEGT
2013-02-17, 16:58:11
Dein Wort in AMDs Ohr...;)

Wieso sollte man das eigentlich tun? AMD kann froh sein, dass NV so locker auftritt. Und nein, ein Titan Refresh(Full-Titan) gibt es bestimmt nicht vor Ende des Jahres. AMD wird gar nichts tun. Die bringen eher Oland mit einem neuen oder alten NeverSettle-Bundle.
Die HD 7970GHz reicht ja bei "diesem" Titan locker aus. Vll kommt doch eine GHz+Edition.

Nvidia machts richtig. Mit einem teildeaktivierten Chip, wie bei GF100 und GF110, ordentlich Premiumaufschlag bekommen. Wieso sollte auch eine ganzer GK110 verwendet werden? Die Single-GPU-Krone bekommt man sowieso.

Mal abwarten wie die HD8970 am Ende gegen den Titan steht. Könnte eine ähnliche Situation werden wie HD5870 vs GTX 480... NUr dass NV auf den Titan nicht so angewiesen war wie auf dei GTX 480 damals. Die "normale" "Highend" Serie GTX780 leitet sich dann ja von GK114 ab.

OgrEGT
2013-02-17, 17:00:04
285 war in einem kleineren Fertigungsprozess

Er hat ja nicht gesagt, dass der Prozess der gleiche sein muss. Es war jedenfalls ein Update einer heftig teuren Karte... GTX280 649EUR:freak:

Nightspider
2013-02-17, 17:02:08
Ich weiß. Ist aber ein Fakt den man nicht weglassen sollte.

Nakai
2013-02-17, 17:03:27
Mal abwarten wie die HD8970 am Ende gegen den Titan steht. Könnte eine ähnliche Situation werden wie HD5870 vs GTX 480... NUr dass NV auf den Titan nicht so angewiesen war wie auf dei GTX 480 damals. Die "normale" "Highend" Serie GTX780 leitet sich dann ja von GK114 ab.

Naja kaum besser, die ist nämlich ne OEM-Karte.;)
Wird eher ne HD9xxx Ende des Jahres. Aber so an den derzeitigen Titan wird man schon rankommen, schätz ich.:)

boxleitnerb
2013-02-17, 17:10:18
GTX280 ... GTX285
Edit
GTX480 ... GTX580 :D

Das waren "normale" Highendkarten und keine speziellen bzw. speziell vermarkteten 1000 Euro Dinger ;)

OgrEGT
2013-02-17, 17:14:12
Das waren "normale" Highendkarten und keine speziellen bzw. speziell vermarkteten 1000 Euro Dinger ;)

Na das war die 8800GTX aber auch. Die 8800Ultra bekam iirc kein Update mehr...
Edit: Dann gab es das also noch nie, dass eine Ultrahighend Karte ein Update bekam...

Angiesan
2013-02-17, 17:17:05
Na Super, da ist ein wenig Alu Verbaut und schon finden es alle Sexy:rolleyes:
Was ich viel schlimmer finde, dass man bei so einer Karte schon wieder auf einen 85er Radial-Lüfter setzt:confused: Das kann bei der vermuteten Leistungsaufnahme unmöglich leise zu Werke gehen ich befürchte, dass wir hier einen neuen Schreihals bekommen.
Ich hoffe wirklich, dass die GTX 690 nun im Preis fallen wird den für 600 Euro könnte ich mir sowas gut vorstellen :biggrin:

=Floi=
2013-02-17, 17:21:16
wird es auch einen nachfolger der 570er geben?

edit
die 580er ist auch nicht wirklich "laut"

OgrEGT
2013-02-17, 17:22:54
wird es auch einen nachfolger der 570er geben?
:confused: Nachfolger der GTX670?

Blaire
2013-02-17, 17:23:03
Titan Bilder:
http://www.chiphell.com/thread-678038-1-1.html

300W (6+8-Pin) PCB.

Schick Schick, da lacht das Enthusiasten-Herz :cool:

Hübie
2013-02-17, 17:27:23
Sieht wertig aus. 8+8pin hätte es aber schon sein können.

Und 15 SMx. Für so einen Mondpreis... :mad:

boxleitnerb
2013-02-17, 17:28:12
Im Luxx heißt es schon "Was will ich mit Optik, da kommt Wakü druff und dann wird das Ding auf 1 GHZ geprügelt!" :D

Ich mach auch Wakü drauf. Was glaubt ihr, wieviele Titan-Käufer auf Wasser setzen werden und wieviele auf Luft?

Thunder99
2013-02-17, 17:28:49
Wie sicher ist das GK114/204 als GTX780 kommt? ;)

Sollten sich die 14SMX bewahrheiten könnte ich mir eher vorstellen, dass GK110 Vollausbau als GTX780 kommt und der GK104 Refresh als 760er Serie. GTX580 reloaded :cool: :freak:

LSSJBroly
2013-02-17, 17:30:17
Wenn ich mir Titan kaufe, dann sicherlich nur mit LuKü, also Referenz. Sieht optisch gut aus und wird die Karte wohl ähnlich kühlen wie die 580 oder 680 von der lautstärke her. Irgendwie wären mir 800-900€ zu schade, um die Karte dann mit ner WaKü zu verschändeln :freak:

Hübie
2013-02-17, 17:30:41
Wie sicher ist das GK114/204 als GTX780 kommt? ;)

Sollten sich die 14SMX bewahrheiten könnte ich mir eher vorstellen, dass GK110 Vollausbau als GTX780 kommt und der GK104 Refresh als 760er Serie. GTX580 reloaded :cool: :freak:

:| Wo lebst du? Titan soll oben in der Nahrungskette stehen. Sonst hätten die das Teil einfach GTX 695 genannt.

Witzig wie leicht man euch verschaukeln kann. Man nehme etwas Magnesium und Plexi-Glas schon sitzt das Portemoné locker ;D

yamo
2013-02-17, 17:31:16
3GB GDDR5 kosten sicher keine 200EUR. ;)
Und dann bleibt noch immer die Frage für was man 6GB brauchen soll. Für 4K Auflösungen plus hohe AA-Stufen wird auch diese Karte zu schwach sein, für alles andere würden auch 3GB reichen.

Befürchte ich auch, aber die Hoffnung stirbt zuletzt:wink:
Wie weit könnte man das Biest bei den jetzt bekannten Daten+oc treiben?
4K+4AA könnten drin sein, ob die noch zusätzlich SGSSAA mitmacht?:freak:
So sexy das Teil auch ist, für den Preis hänge ich mir kein SLI in den Rechner.
(sage ich jetzt, wahrscheinlich werde ich doch wieder schwach:rolleyes:)

Nightspider
2013-02-17, 17:32:45
So eine Grafikkarte nicht unter Wasser zu setzen wäre eine Schande.

[x] Wasser

LSSJBroly
2013-02-17, 17:33:27
Witzig wie leicht man euch verschaukeln kann. Man nehme etwas Magnesium und Plexi-Glas schon sitzt das Portemoné locker ;D

Mir ist die Karte auch keine >700€ wert;) Ich warte erstmal ab, wie sich die Preise entwickeln. Wenn die anch ein paar Wochen fallen, gut für mich. Wenn nicht, tja, pech gehabt und dann eben auf den nachfolger warten oder ne zweite GTX 680 anschaffen. So wird Titan auch nur rund 30% schneller als meine 680... (wie weit man Titan ocen kann, muss sich noch herausstellen...)

=Floi=
2013-02-17, 17:51:58
:confused: Nachfolger der GTX670?


abgespeckte GK100 version!

watugonad00?
2013-02-17, 17:54:54
http://www.abload.de/img/rjmuqbiuwqp5.jpg

Nightspider
2013-02-17, 17:55:23
alt!

Godmode
2013-02-17, 17:58:51
Ich frage mich was passiert, wenn man 3 oder 4 von denen nebeneinander Pack? Ersticken dann alle bis auf eine, oder reicht die leichte Versenkung des Lüfters, um trotzdem noch eine gute Luftzufuhr zu erreichen? :confused:

Eventuell kann ja Blaire was dazu sagen, bei seinem 4-Way aus 680ern ists ja genau so.

Nightspider
2013-02-17, 18:03:33
Die 8800 hatte gar keine Versenkung. Die kam erst ab der Ultra.

Das Ganze wird auch nicht zwingend benötigt für SLI.

Außerdem ist SLI ohne Wasser eh nur was für pseudo HighEnder. :tongue:

Godmode
2013-02-17, 18:08:08
Die 8800 hatte gar keine Versenkung. Die kam erst ab der Ultra.

Das Ganze wird auch nicht zwingend benötigt für SLI.

Außerdem ist SLI ohne Wasser eh nur was für pseudo HighEnder. :tongue:

Ich will aber keine Wakü, das ist mir zu aufwändig.

LSSJBroly
2013-02-17, 18:08:55
Mmm.. bei der 580 und der 680 ist das zumindest so, dass der Lüfter auch noch etwas luft bekommt, wenn beide Karten direkt übereinander sitzen - Die Fläche, wo der Lüfter sitzt, ist da etwas niedriger
Könnte bei Titan ähnlich sein.

Edit: hab mir die pics nochmal genauer angeschaut, sieht eher so aus:
In etwa so:

GTX 580/GTX 680 SLI
http://www.abload.de/img/fdfddfzzrzy.jpg

GTX Titan SLI
http://www.abload.de/img/bvbvvtitanxnsiw.jpg


Die obere Titan im Referenz-SLI scheint nicht ganz soviel Luft zu bekommen, eben wohl genauso wie zwei GTX 690er, würde ich jetzt anhand der Bilder so sehen.

aufkrawall
2013-02-17, 18:27:49
Im Luxx heißt es schon "Was will ich mit Optik, da kommt Wakü druff und dann wird das Ding auf 1 GHZ geprügelt!" :D

Na, ob Nvidia einem bei OC nicht einen dicken Strich durch die Rechnung macht...?

boxleitnerb
2013-02-17, 18:28:52
Verzage nicht...mehr sag ich nicht ;)

Godmode
2013-02-17, 18:34:08
Mmm.. bei der 580 und der 680 ist das zumindest so, dass der Lüfter auch noch etwas luft bekommt, wenn beide Karten direkt übereinander sitzen - Die Fläche, wo der Lüfter sitzt, ist da etwas niedriger
Könnte bei Titan ähnlich sein.

Edit: hab mir die pics nochmal genauer angeschaut, sieht eher so aus:
In etwa so:

GTX 580/GTX 680 SLI
http://www.abload.de/img/fdfddfzzrzy.jpg

GTX Titan SLI
http://www.abload.de/img/bvbvvtitanxnsiw.jpg


Die obere Titan im Referenz-SLI scheint nicht ganz soviel Luft zu bekommen, eben wohl genauso wie zwei GTX 690er, würde ich jetzt anhand der Bilder so sehen.

Danke für die Skizzen.

Ja das könnte sich ausgehen. Hatte mal zwei 570 die direkt nebeneinander gesteckt sind und die haben gebrüllt. Das ganze wird eh nur ein Problem, wenn ich mehr als zwei Karten einbaue. Mit nur zwei Titan, sieht es genau so aus wie jetzt. (siehe Avatar)

Nakai
2013-02-17, 18:36:47
Das Ding wird schon abgehen. Mit nur 10 bis 20% Mehrverbrauch(zur GTX680) ist das Ding ziemlich stromsparend. Mal gucken wie Titan skaliert. Sollte eigentlich ab 35%+ Mehrperformance(zur GTX680) drin sein. Je nachdem, wie Caches und zusätzlichen Verbesserungen skalieren. Mehr als 50% sehe ich nur in ausgewählten Benchmarks.

Ist echt ne nette Karte. Wird eine gute Eiffizienz(Perf/Watt) mit sich bringen.

Godmode
2013-02-17, 18:38:03
Mal gucken wie Titan skaliert. Sollte eigentlich ab 35%+ Mehrperformance(zur GTX680) drin sein. Je nachdem, wie Caches und zusätzlichen Verbesserungen skalieren. Mehr als 50% sehe ich nur in ausgewählten Benchmarks.

Ist echt ne nette Karte. Wird eine gute Eiffizienz(Perf/Watt) mit sich bringen.

Das ist aber jetzt extrem pessimistisch. Alleine schon von den reinen Daten muss die Karte schneller als 35% werden.

LSSJBroly
2013-02-17, 18:40:54
Das ist aber jetzt extrem pessimistisch. Alleine schon von den reinen Daten muss die Karte schneller als 35% werden.

Wollte ich auch gerade sagen:D 250 Watt sind knapp 50% mehr als bei der 680 (47,1%) Und mit der höheren Bandbreite und der +45% Rechenleistung kommt da auch wohl +47% auf ne GTX 680 raus ->also eben so, wie erwartet. Das würde aber auch bedeuten, dass die Karte weiterhin so effizient wie die 680 wäre:D irgendetwas zwischen 40-50% wird es am Ende wohl werden.

Ja, in deinem System werden zwei Titans wohl genauso ausehen, wie jetzt die beiden 690er. Warscheinlich brauchst du das Bild nicht mal ändern, Titan sieht von der Seite ja genauso aus:freak:

boxleitnerb
2013-02-17, 18:45:02
Viele Bilder:
http://www.egypthardware.com/?p=7767

Die interessantesten:
http://www.abload.de/thumb/2376frmw.jpg (http://www.abload.de/image.php?img=2376frmw.jpg) http://www.abload.de/thumb/332eyptr.jpg (http://www.abload.de/image.php?img=332eyptr.jpg) http://www.abload.de/thumb/442bxoya.jpg (http://www.abload.de/image.php?img=442bxoya.jpg)

Da ist noch Platz für einen zusätzlichen 8pin :D

Duplex
2013-02-17, 18:47:11
Auf der rechten Seite des PCBs ist noch einiges an freie Fläche, warum hat man das PCB dann nicht etwas kleiner gemacht?

Godmode
2013-02-17, 18:52:07
Wollte ich auch gerade sagen:D 250 Watt sind knapp 50% mehr als bei der 680 (47,1%) Und mit der höheren Bandbreite und der +45% Rechenleistung kommt da auch wohl +47% auf ne GTX 680 raus ->also eben so, wie erwartet. Das würde aber auch bedeuten, dass die Karte weiterhin so effizient wie die 680 wäre:D irgendetwas zwischen 40-50% wird es am Ende wohl werden.

Ja, in deinem System werden zwei Titans wohl genauso ausehen, wie jetzt die beiden 690er. Warscheinlich brauchst du das Bild nicht mal ändern, Titan sieht von der Seite ja genauso aus:freak:

Ja davon gehe ich auch aus. Hatte einige Situationen wo mir der RAM ausging, von daher bin ich schon gespannt was Titan hier leisten kann.

LSSJBroly
2013-02-17, 18:54:29
Den mehr-Ram würde ich wohl besonders in Skyrim mit noch mehr Hi-res texturen merken:D Aber sonst... Wohl noch in 2x2 OGSSAA, aber selbst dafür reichen oft 2GiB schon aus. Naja, eben keine Nachladeruckler mehr, hat ja auch was tolles:D

Godmode
2013-02-17, 18:56:24
Viele Bilder:
http://www.egypthardware.com/?p=7767

Die interessantesten:
http://www.abload.de/thumb/2376frmw.jpg (http://www.abload.de/image.php?img=2376frmw.jpg) http://www.abload.de/thumb/332eyptr.jpg (http://www.abload.de/image.php?img=332eyptr.jpg) http://www.abload.de/thumb/442bxoya.jpg (http://www.abload.de/image.php?img=442bxoya.jpg)

Da ist noch Platz für einen zusätzlichen 8pin :D

Keine Dau-Kappe? Der Stecker ist auf jeden Fall mysteriös. :confused:

Den mehr-Ram würde ich wohl besonders in Skyrim mit noch mehr Hi-res texturen merken:D Aber sonst... Wohl noch in 2x2 OGSSAA, aber selbst dafür reichen oft 2GiB schon aus. Naja, eben keine Nachladeruckler mehr, hat ja auch was tolles:D

Hatte irgendwo Probleme mit 4k + AA. Ging nicht, obwohl noch Leistung vorhanden war.

boxleitnerb
2013-02-17, 19:03:29
Hab mal nachgemessen, sieht nach 11" aus.

LSSJBroly
2013-02-17, 19:09:24
Hab mal nachgemessen, sieht nach 11" aus.


Uh... nVidias längste Single-GPU Karte seit Jahren:biggrin: Sogar länger als AMDs High-End Karten^^ (28cm gegen 27,5cm :freak:)

Botcruscher
2013-02-17, 19:13:06
In einem halben Jahr kommt dann die Version mit mehr freigeschalteten Einheiten. Diese unsägliche Methode gab es bis jetzt ja nur bei der Massenware.

M4xw0lf
2013-02-17, 19:13:22
Der Kühler ist schon sexy :)

boxleitnerb
2013-02-17, 19:14:14
Uh... nVidias längste Single-GPU Karte seit Jahren:biggrin: Sogar länger als AMDs High-End Karten^^ (28cm gegen 27,5cm :freak:)

Kann ja nochmal jemand gegenprüfen. Ich hatte grad Bedenken, dass die Karte nicht in das neue Murdermod MKII passt, aber Charles meinte, sie würden darauf schon achten. Uff :)

M4xw0lf
2013-02-17, 19:15:15
Hier sind auch noch zwei hübsche Bilder: http://www.computerbase.de/news/2013-02/angebliche-bilder-und-spezifikationen-der-geforce-gtx-titan/

LSSJBroly
2013-02-17, 19:28:14
Auch nochmal hier:

Jemand ne Ahnung, wieso hier auch noch Kühllamellen sitzen?
http://www.abload.de/img/dddd3342234ipp44.jpg
http://www.abload.de/img/gggggpwq8w.jpg

Sitzen da irgendwelche Bausteine, die Aktiv gefühlt werden müssen? Ich sehe da nichts... außer den GPU-Boost chip, welcher zumindest auf der 680 auf der Rückseite des PCBs liegt und daher nicht gekühlt werden muss.

Nightspider
2013-02-17, 19:53:14
Hatten die Highend GPUs der letzten Generationen nicht alle einen Heatspreader?

GK110 scheint ja keinen mehr zu haben. Das würde die Wärmeübetragung zumindest verbessern.

LSSJBroly
2013-02-17, 19:54:24
Hatten die Highend GPUs der letzten Generationen nicht alle einen Heatspreader?

GK110 scheint ja keinen mehr zu haben.

Sieht so aus, die 680er hat ja auch keinen mehr. Möglicherweise besser, um effizienter wärme abzutransportieren?

M4xw0lf
2013-02-17, 19:56:45
Sieht so aus, die 680er hat ja auch keinen mehr. Möglicherweise besser, um effizienter wärme abzutransportieren?

Das auf jeden Fall.

LSSJBroly
2013-02-17, 20:02:19
Ich hoffe nur, dass die Karte nicht lauter als die GTX 680 wird. Dann wäre ich schon zufrieden:freak:

M4xw0lf
2013-02-17, 20:05:41
Kann ich mir kaum vorstellen - aber schon in einigen Stunden sollten wir mehr wissen ;)

gnahr
2013-02-17, 20:05:50
bei gleicher leistung... kein problem.
bei 50% mehrleistung bist du hoffentlich etwas großzügiger. :)

Angiesan
2013-02-17, 20:09:03
Na lange kann es ja nicht mehr dauern bis der erste Test online ist :wink:
Die Foren kochen ja mal richtig :biggrin:
Ich denke da haben sich schon einige wegen dem Eifer die Achselpads untergeschnalt um den Hyperventilationsschweiß noch Herr zu werden :biggrin:

Hübie
2013-02-17, 20:13:40
Was ich ehrlich gesagt gar nicht verstehen kann. Manche stehen offenbar nur noch auf um Titan-News zu lesen :freak:
Wenn die das mal "von oben" betrachten werden die feststellen dass es total unwichtig ist. GK110 beeinflusst die Welt da drausen ganz wo anders. Ist euch mal aufgefallen das immer mehr Weltraum-Dokus und auch Filme in immer kürzerer Zeit entstehen? :smile:

LSSJBroly
2013-02-17, 20:15:54
Kann ich mir kaum vorstellen

Wieso? Auf der 680 sitzt nur ein Kühler mit Heatpipes, auf der 580 einer mit ner Vapor-Chamber. Die 580 hat zwar einiges mehr verbraucht, wurde auch heißer, ist aber genauso laut wie die 680. Und die Vapor-chamber auf Titan sieht sogar noch größer aus, als die die auf der 580 sitzt.

Thunder99
2013-02-17, 22:37:33
:| Wo lebst du? Titan soll oben in der Nahrungskette stehen. Sonst hätten die das Teil einfach GTX 695 genannt.

Witzig wie leicht man euch verschaukeln kann. Man nehme etwas Magnesium und Plexi-Glas schon sitzt das Portemoné locker ;D
Spekulationen da sie ja sonst auch 15SMX bringen könnten.

Ein aufgebohrter GK104 könnte sonst dem Titan gefährlich Nahe kommen, oder wie schon jemand behauptet hat gibts ne Titan Reloaded :confused:

Zergra
2013-02-17, 23:02:04
Spekulationen da sie ja sonst auch 15SMX bringen könnten.

Ein aufgebohrter GK104 könnte sonst dem Titan gefährlich Nahe kommen, oder wie schon jemand behauptet hat gibts ne Titan Reloaded :confused:
Denke nicht das die Titan noch mit 15SMX rausbringen, die werden einfach eine schlechte Ausbeute bei den 15SMX haben, das sie die komplett gestrichen haben. Sowas habe ich schon vor längerer Zeit gehört ;)

maximus_hertus
2013-02-17, 23:03:00
GK104 ist doch schon jetzt (deutlich) Bandbreitenlimitiert. Ergo wird es keine großen Steigerungen geben (+- 10%, vielleicht 15%) und Titan wird deutlich genug vorne liegen. Im Prinzip ähnlich zu GTX 580 und 560 Ti (rund 35 - 40% + für die große Karte).

Thunder99
2013-02-17, 23:15:11
GK104 ist doch schon jetzt (deutlich) Bandbreitenlimitiert. Ergo wird es keine großen Steigerungen geben (+- 10%, vielleicht 15%) und Titan wird deutlich genug vorne liegen. Im Prinzip ähnlich zu GTX 580 und 560 Ti (rund 35 - 40% + für die große Karte).
Größeres Speicherinterface + weitere SMX und fertig ist ein Refresh. Anderes kann ich mir diesen nicht vorstellen da ja wie gesagt Titan als TopDog da steht.

Weiter könnte es auch sein das der GF100/110 der letzte Serien/Massen Chip für uns war. Daher auch die Variante mit GK104 und einem Sondermodell alla Titan für den GK110 (damit dieser nur in geringen Mengen für den Gamer-Markt produziert werden muss)

DavChrFen
2013-02-17, 23:37:02
Umj wieviel Uhr fällt eigentlich das NDA? Wie war das in der Vergangenheit?

LSSJBroly
2013-02-17, 23:38:10
Dürfte am Montag Nachmittag, um 15 Uhr fallen:)

derguru
2013-02-18, 00:19:59
heute nacht kommen noch die ersten leaks, ausversehen mal wieder von tomshardware und co. und dann stunden später wieder zu entfernen.:biggrin:

Maniac007
2013-02-18, 00:56:48
Dann bin ich mal gespannt, insbesondere erwarte ich mir in den nächsten Stunden und Tagen auf folgende Fragen eine klare Antwort:

- Zu welchem Preis kommt die Karte auf den Markt / Ist Sie wirklich auf 10.000 Stück limitiert? Ich bin mir noch nicht sicher ob die bisherigen Angaben nicht nur dem Hype geschuldet sind und die Karte doch für vieleicht ~650€ angeboten wird.
- Wie wird der Preis der 680 reagieren? Ich hoffe ja, dass diese evtl. bald etwas günstiger zu haben sein wird.
- Und natürlich: Wie wird Titan in Benchmarks nun abschneiden? Eher 30 Prozent oder eher 60 Prozent schneller als eine 680GTX?

maximus_hertus
2013-02-18, 01:14:57
Größeres Speicherinterface + weitere SMX und fertig ist ein Refresh. Anderes kann ich mir diesen nicht vorstellen da ja wie gesagt Titan als TopDog da steht.

Sehe ich nicht, da der xx4-Chip den Preisrahmen ab 200/250 Euro abdecken muss. Da wird es so schnell kein 384-bit Interface geben.
Vor allem gibts bis Q4/2013 nix neues von AMD (High-End bzw. Performance), ergo kein Druck da was großes aufzulegen. Ausserdem hatte jeder Refresh nur einen kleinen Performancezuwachs bedeutet: 8800GTX-8800Ultra, 9800GTX-9800GTX+,GTS250, GTX460-560. Wobei letzterer durch die sehr niedrigen Taktraten der 460er etwas größer war.

Mein Spekulatius: Nach Titan passiert nix mehr. Q4 kommt AMD mit einem Refresh und nVidia wird da nicht reagieren, da Titan weiterhin die Krone innehat. Evtl. gibts ja einen (leicht kastrierten) GM104@28nm im H1/2014?

Hübie
2013-02-18, 01:39:12
- Zu welchem Preis kommt die Karte auf den Markt / Ist Sie wirklich auf 10.000 Stück limitiert?

Die Charge für West-Europa wird wohl nicht viel größer sein. Wären 8 Mio Umsatz im Einzelhandel.

Ich bin mir noch nicht sicher ob die bisherigen Angaben nicht nur dem Hype geschuldet sind und die Karte doch für vieleicht ~650€ angeboten wird.

Damit man sich bei nVidia ins eigene Bein schießt? Wohl nicht.

- Wie wird der Preis der 680 reagieren? Ich hoffe ja, dass diese evtl. bald etwas günstiger zu haben sein wird.

Gar nicht denn sonst kann man doch nicht das Beste vom Kunden haben (maximalen Gewinn bei minimalem Kostenfaktor ist ja die oberste Maxime eines Unternehmens).


- Und natürlich: Wie wird Titan in Benchmarks nun abschneiden? Eher 30 Prozent oder eher 60 Prozent schneller als eine 680GTX?

Wenn Titan = 100 % dann GTX 680 = 70%.

Maniac007
2013-02-18, 01:52:30
Die Charge für West-Europa wird wohl nicht viel größer sein. Wären 8 Mio Umsatz im Einzelhandel.

Damit man sich bei nVidia ins eigene Bein schießt? Wohl nicht.

Gar nicht denn sonst kann man doch nicht das Beste vom Kunden haben (maximalen Gewinn bei minimalem Kostenfaktor ist ja die oberste Maxime eines Unternehmens).Was spricht denn - abgesehen von den Gerüchten - dagegen, dass Titan das ganz normale High End Produkt des Jahres 2013 wird, die Rolle der 680GTX übernimmt und diese einen Platz nach unten drückt?

Für 650 EUR wird man schließlich andere Stückzahlen absetzen können als für 800 EUR, außerdem stellt sich die Frage, ob die High End Kundschaft nicht mittlerweile mit der 680 versorgt ist und es Sinn macht, diese billiger an die weniger zahlungsbereiten Kunden zu verkaufen, während man der High End Kundschaft die Titan anbietet. Das wäre immerhin ein ganz normaler Produktlebenszyklus.

Hübie
2013-02-18, 02:03:04
Dagegen spricht dass die Unternehmen immer das Beste von dir wollen. Warum soll ich ein Produkt günstig machen wenn es Leute gibt den noch zwei, drei, zehn Schippen oben drauf legen? :confused:

Ausserdem will nVidia die Dinger gar nicht im großen Volumenmarkt absetzen. Das signalisieren die ja schon mit dem PlatinMagnesium-Gehäuse des Kühlkörpers. ;D Wenn die yields shice sind und die Nachfrage hoch ist, ziehen die nur unnötig den Ärger vom gemeinen Mob auf sich.

Maniac007
2013-02-18, 02:17:53
Dagegen spricht dass die Unternehmen immer das Beste von dir wollen. Warum soll ich ein Produkt günstig machen wenn es Leute gibt den noch zwei, drei, zehn Schippen oben drauf legen? :confused:

Ausserdem will nVidia die Dinger gar nicht im großen Volumenmarkt absetzen. Das signalisieren die ja schon mit dem PlatinMagnesium-Gehäuse des Kühlkörpers. ;D Wenn die yields shice sind und die Nachfrage hoch ist, ziehen die nur unnötig den Ärger vom gemeinen Mob auf sich.Warum hat man dann nicht auch die 680 GTX vor einem Jahr für 800 EUR auf den Markt gebracht? Und warum verkauft man die 690 GTX nicht für 1.200 EUR? Antwort: Weil es eben nicht genug Kunden gibt, die solche Preise zahlen.

Gehen die 6XX-Karten zu den aktuellen Preisen wirklich noch in nennenswerter Menge über den Ladentisch? Oder braucht es eine neue Runde mit neuer Technik und Preissenkungen um die Nachfrage wieder anzukurbeln? Wieviel kostet Nvidia nun ein GK110 wirklich in der Produktion? All das wissen wir nicht sicher oder kennen nur Gerüchte.

Und was den Kühler angeht: Auch für 650 EUR wäre die Titan nicht wirklich eine Karte für den Massenmarkt.

Vieleicht ist eine Titan für 650 EUR und ein Preisrutsch für die 680 GTX Wunschdenken, aber ich warte lieber erstmal ab, bevor ich die Möglichkeit abschreibe.

Blaire
2013-02-18, 02:39:53
Ich frage mich was passiert, wenn man 3 oder 4 von denen nebeneinander Pack? Ersticken dann alle bis auf eine, oder reicht die leichte Versenkung des Lüfters, um trotzdem noch eine gute Luftzufuhr zu erreichen? :confused:
Eventuell kann ja Blaire was dazu sagen, bei seinem 4-Way aus 680ern ists ja genau so.

Hatte da nie irgendwelche Probleme mit, die beiden obersten Karten heizen etwas mehr sicherlich, aber die Temps waren immer noch im grünen Bereich zwischen 80-90 Grad (Last), das können die Karten locker ab. Geforce Titan wird diesbezüglich auch Verbesserungen mitbringen. Lassen wir uns überraschen. :)

boxleitnerb
2013-02-18, 05:22:13
Doch 10.5", hab mich vertan:

http://www.abload.de/thumb/12210794.jpg.pagespeeuxs4i.jpg (http://www.abload.de/image.php?img=12210794.jpg.pagespeeuxs4i.jpg)

Knuddelbearli
2013-02-18, 05:56:22
heute nacht kommen noch die ersten leaks, ausversehen mal wieder von tomshardware und co. und dann stunden später wieder zu entfernen.:biggrin:


bisher nichts nur tomshardware war für ca ne halbe std nicht zu erreichen ( ping ging aber webseite im browser antwortete komischerweise nicht )

Skysnake
2013-02-18, 06:45:26
Tja, war wohl nix mit 5 bzw 6 Uhr.

Wann soll dieses Event nun genau sein?

Knuddelbearli
2013-02-18, 06:55:06
680 Test war um 14.00
690 um 15.00
670 15.00
640 15.00
660 TI 15.00
660 15.00
650 17.45
650 TI 15.00



also wahrscheinlich 15 uhr eventuell 14 uhr


AMD dagegen ist immer um 06:01

M4xw0lf
2013-02-18, 07:30:53
Benutzen wir doch Nvidias Problemreport, um sie damit vollzuspammen wie sehr der NDA-Ablauftermin saugt :freak:

Skysnake
2013-02-18, 07:38:45
Funktioniert der ueberhaupt wieder?

Ich wollte mal vor monaten nen Bug melden, aber da war das Ding noch immer wegen dem Hack offline von nem halben Jahr oder so davor :ugly:

Dural
2013-02-18, 09:31:11
sehr ruhig, das NDA scheint in letzter zeit ziemlich gut zu halten.

robbitop
2013-02-18, 09:51:19
Man hat einfach viel weniger Karten herausgegeben. Und offensichtlich an ausgesuchte Redaktionen, die den Mund halten.

M4xw0lf
2013-02-18, 10:08:33
Und möglicherweise kommt heute noch gar nix. :mad:
http://www.computerbase.de/news/2013-02/angebliche-bilder-und-spezifikationen-der-geforce-gtx-titan/
Wie Nordichardware berichtet, soll der große Start der GeForce GTX Titan nicht schon in den kommenden Stunden erfolgen, sondern erst am 21. Februar. Am 19. Februar soll es der Presse erlaubt sein, die technischen Daten sowie Produktbilder der Karte zu veröffentlichen, ehe dann zwei Tage später die Tests folgen dürfen.

Lowkey
2013-02-18, 10:30:34
Wenn doch sehr wahrscheinlich Computerbase eine Karte vorliegen hat, dann wissen sie doch wann sie ihren Test veröffentlichen dürfen und müssen nicht irgendeine Hardwareseite zitieren?

boxleitnerb
2013-02-18, 10:33:00
Diese Infos sind aber auch unter NDA, d.h. sie dürfen es nicht von sich aus sagen, sondern müssen andere Quellen zitieren.

ndrs
2013-02-18, 10:33:01
Doch, um das NDA nicht zu brechen. Gerüchte zitieren ist erlaubt.

P@trick
2013-02-18, 10:55:25
Och nee,...nee ,habe auch gerade das Update "9.55Uhr" auf CB gelesen.Sofern zutreffend ,werden sich sicher heute alle schön freuen auf die Verschiebung der offiziellen Tests;D.

Angiesan
2013-02-18, 11:06:48
Na dann können sie Karte ja auch gleich mit den Crysis 3 Benshes raushauen,
ich denke mal das dies mit ein Grund sein könnte:wink:

"nun Verschwörungsmodus an" Dann den Treiber nicht auf die 600er Serie angepasst und schon passt das auch mit den 80-85 % :D:weg:

Superheld
2013-02-18, 11:08:52
och ne:P

na wenigsten kommen heut die ersten Crysis3 Bilder mit Tessellation usw (vllt) :D

http://forums.guru3d.com/showpost.php?p=4530335&postcount=1117

Godmode
2013-02-18, 13:31:53
Btw. gerade bei den Luxxern gefunden:
http://www.abload.de/img/ls7mbxysrb99ylss01knjqjs.jpg

M4xw0lf
2013-02-18, 13:37:52
Was soll das mit den 90 Fps und 80 Hz/80 FPS bedeuten? Wenn der Bildschirm keine 80 Hz mitmacht, ist das doch hinfällig...

Godmode
2013-02-18, 13:40:26
Was soll das mit den 90 Fps und 80 Hz/80 FPS bedeuten? Wenn der Bildschirm keine 80 Hz mitmacht, ist das doch hinfällig...

Bessere Input Latenz, IMHO.

AnarchX
2013-02-18, 13:58:08
Die 80Hz sind wohl nur ein schlecht gewählter Beispielswert für die gesyncte Ausgabefrequenz, die wohl nun entkoppelt von der internen Berechnungsfrequenz ist.

cR@b
2013-02-18, 14:01:30
Bessere Input Latenz, IMHO.

Da steht aber, dass die frames durch V- Sync on erhöht werden. Dadurch dass die Graka 90fps liefert, gibt es keine dropdowns und durchgehend 80fps was dem Spielgefühl mehr fps vermittelt? Keine Ahnung... klingt aber für mich als Dauer V-Sync Nutzer interessant.
Wie wir wissen bringt jeder noch so kleine fps drop unter der nativen Hz Ruckler auf den Bildschirm. Bin mal gespannt was es tatsächlich damit auf sich hat...

Gipsel
2013-02-18, 14:02:26
Also das, was das gute alte Triple Buffering (und nicht diese schlecht gemanagte 3 Frame Flipqueue, die heutzutage viele anstelle von TB benutzen) eigentlich macht? :rolleyes:

boxleitnerb
2013-02-18, 14:03:42
Die 80Hz sind wohl nur ein schlecht gewählter Beispielswert für die gesyncte Ausgabefrequenz, die wohl nun entkoppelt von der internen Berechnungsfrequenz ist.

Im Klartext? Bei 80Hz und 80fps ändert sich doch nix zu jetzt. Oder 70Hz und 70fps.

Es sei denn, 80fps würden bei 60Hz gehen z.B. Warum in dem Beispiel aber 10fps verloren gehen, erschließt sich mir nicht.

AnarchX
2013-02-18, 14:10:47
Die GPU berechnet wohl möglich soviel FPS wie sie kann, der Bildschirm bekommt jedoch entsprechend der Refreshrate seine Anzahl an Bilder.

Lucid Logix bietet wohl etwas ähnliches schon länger mit Virtual VSync an.

boxleitnerb
2013-02-18, 14:14:19
Und wo genau ist das dann neu? Normaler VSync hätte dasselbe Resultat - die Refreshrate begrenzt die fps.

Spasstiger
2013-02-18, 14:20:55
Ist vermutlich eine Variation vom Triple Buffering, die Backbuffer werden wohl immer geswapt. Bisher ist es ja so, dass die Grafikkarte auf den nächsten Refresh wartet, wenn alle Buffer überschrieben sind, d.h. sie rechnet maximal soviele Frames pro Sekunde wie der Bildschirm darstellen kann.

boxleitnerb
2013-02-18, 14:25:53
Auch wenn es nix für mich persönlich ist, find ich toll, dass Nvidia soviel neue Sachen bringt. VSync smooth, adaptive VSync, jetzt das. Das ist die Würze, die einen Launch immer noch ein Stückchen spannender macht.

fondness
2013-02-18, 14:29:12
Oder das ist "Vsync smooth" ;)
Passt auch perfekt zu den ~10fps die Leute damit angeblich an Leistung verlieren...

boxleitnerb
2013-02-18, 14:33:08
VSync smooth ist für SLI:
http://nvidia.custhelp.com/app/answers/detail/a_id/3283/~/what-is-smooth-vsync%3F

fondness
2013-02-18, 14:36:16
Ich habe es bewusst unter Anführungszeichen gesetzt. Keine Ahnung wie der korrekte Name jetzt ist, ich meine das inoffizielle Feature welche angeblich den AFR-Lag wie durch Zauberhand beseitigen soll.

MadManniMan
2013-02-18, 14:37:38
Ist vermutlich eine Variation vom Triple Buffering, die Backbuffer werden wohl immer geswapt. Bisher ist es ja so, dass die Grafikkarte auf den nächsten Refresh wartet, wenn alle Buffer überschrieben sind, d.h. sie rechnet maximal soviele Frames pro Sekunde wie der Bildschirm darstellen kann.

Was bedeutet das eine wie das andere für den Input-Lag?

boxleitnerb
2013-02-18, 14:38:36
Jo :)

Btw ich überleg grade...die teuren Karten, die aktuell gelistet sind, sind alles Asus. Kann es sein, dass die Asus Titan ein OC-Modell ist und deshalb so teuer? Ich hab irgendwo mal gelesen, dass Nvidia bei Titan OC-Varianten erlaubt. Das würde in Grenzen auch beim Referenzdesign gehen. Würde auch den hohen Preis erklären, und die normale langsamere Titan könnte etwas darunter liegen.

fondness
2013-02-18, 14:43:37
Was bedeutet das eine wie das andere für den Input-Lag?

Das reduziert natürlich den Input-Lag im Vergleich zu normalen 60hz Vsync, kann aber keinerlei AFR spezifischen Probleme beheben.

Ronny145
2013-02-18, 14:43:38
Jo :)

Btw ich überleg grade...die teuren Karten, die aktuell gelistet sind, sind alles Asus. Kann es sein, dass die Asus Titan ein OC-Modell ist und deshalb so teuer? Ich hab irgendwo mal gelesen, dass Nvidia bei Titan OC-Varianten erlaubt. Das würde in Grenzen auch beim Referenzdesign gehen. Würde auch den hohen Preis erklären, und die normale langsamere Titan könnte etwas darunter liegen.


Viel mehr Herstellerauswahl als Asus kann es doch gar nicht geben wenn nur EVGA und Asus Titan bringen dürfen.

boxleitnerb
2013-02-18, 14:44:33
MSI war auch noch im Gespräch. Aber wahrscheinlicher ist, dass die Taktraten von der 690 übernommen wurden, TPU das immer noch nicht korrigiert hat in ihrer Datenbank und alle Titans gleich hoch takten.

M4xw0lf
2013-02-18, 15:04:37
Soo, es ist nach 15.00 und passiert ist nix. Grmpf.

kunibätt
2013-02-18, 15:08:33
Dafür wurde RE 1.5 geleakt :freak:

Lowkey
2013-02-18, 15:11:56
Titan wurde doch auf den 21. Februar verschoben?

Hugo78
2013-02-18, 15:12:34
Soo, es ist nach 15.00 und passiert ist nix. Grmpf.

Die PR-trächtigen Karten hat NV in der jüngsten Vergangenheit immer an einem Donnerstag gebracht.

Gipsel
2013-02-18, 15:15:54
Ist vermutlich eine Variation vom Triple Buffering, die Backbuffer werden wohl immer geswapt. Bisher ist es ja so, dass die Grafikkarte auf den nächsten Refresh wartet, wenn alle Buffer überschrieben sind, d.h. sie rechnet maximal soviele Frames pro Sekunde wie der Bildschirm darstellen kann.
Das ist keine Variation von Triple Buffering, das ist das klassische Triple Buffering. Was Du als bisherigen Zustand beschreibst, ist eine (schlecht verwaltete) 3 Frame lange Queue, was uns heutzutage oft als Triple Buffering verkauft wird.

Godmode
2013-02-18, 15:18:53
Soo, es ist nach 15.00 und passiert ist nix. Grmpf.

So eine nervigen Launch hatte wir schon lange nicht mehr. :mad:

boxleitnerb
2013-02-18, 15:26:36
http://www.abload.de/thumb/1icfsd.png (http://www.abload.de/image.php?img=1icfsd.png) http://www.abload.de/thumb/21be5k.png (http://www.abload.de/image.php?img=21be5k.png) http://www.abload.de/thumb/33dcnb.png (http://www.abload.de/image.php?img=33dcnb.png) http://www.abload.de/thumb/4l0f3a.png (http://www.abload.de/image.php?img=4l0f3a.png) http://www.abload.de/thumb/5wsi7w.png (http://www.abload.de/image.php?img=5wsi7w.png) http://www.abload.de/thumb/6dhc3o.png (http://www.abload.de/image.php?img=6dhc3o.png)

kruemelmonster
2013-02-18, 15:28:04
Dafür wurde RE 1.5 geleakt :freak:

Resident Evil :confused:

Nicht jeder kennt alle Abkürzungen, und nicht alle Abkürzungen sind Allgemeinbildung.

fondness
2013-02-18, 15:33:19
Also bei den Surround-Gaming-Benchmarks geht der GTX690 sowas von sicher der VRAM aus.

derguru
2013-02-18, 15:33:50
die crysis 3 fps hauen mich aber gar nicht aus den socken,immerhin ein bissel leiser. knapp 40fps zu 50fps,naja. wenn das alles ist kann der preis nie und nimmer bei stolzen 800€ liegen oder die haben ein dachschaden.

boxleitnerb
2013-02-18, 15:36:03
Also bei den Gaming-Benchmarks geht der GTX690 sowas von sicher der VRAM aus.

Bei zwei zumindest. Bei den anderen sieht es nach ca. 30% aus. Schwach :mad:

AnarchX
2013-02-18, 15:38:23
Limitiert wohl möglich doch die Geometrie-Leistung?

Aber wohl immerhin wird nicht die DP-Leistung beschnitten und man hat mit Titan eine "günstige" Alternative zu K20/K20X.

fondness
2013-02-18, 15:38:24
die crysis 3 fps hauen mich aber gar nicht aus den socken,immerhin ein bissel leiser. knapp 40fps zu 50fps,naja. wenn das alles ist kann der preis nie und nimmer bei stolzen 800€ liegen oder die haben ein dachschaden.

Ich sehe 37fps bei der GTX680 ggü. 48 bei der Titan. Ziemlich exakt 30%. Und da NV in den Marketingfolien wohl kaum understatement betreiben wird muss man wohl froh sein wenn diese 30% sich über alle Benchmarks bestätigen. Dafür kann man IMO nie und nimmer 800 EUR verlangen. Eine 7970Ghz dürfte kaum mehr als 10% langsamer sein und kostet 360EUR.

dildo4u
2013-02-18, 15:39:52
Bei zwei zumindest. Bei den anderen sieht es nach ca. 30% aus. Schwach :mad:
Ist das Scaling so schlecht mit 4GPU's?Immherin ist man bei BF3 scheinbar nich V-Ram limitiert spart aber ne komplette GPU.

derguru
2013-02-18, 15:40:21
Ich sehe 37fps bei der GTX680 ggü. 48 bei der Titan. Ziemlich exakt 30%. Und da NV in den Marketingfolien wohl kaum understatement betreiben wird muss man wohl froh sein wenn diese 30% sich über alle Benchmarks bestätigen.

~30% + gegenüber einer 680 ist ein witz und von cpulimit müsste eigentlich nicht die rede sein bei den settings von 1080p/4xaa/16xaf.

die surroundbenchs kann man ignorieren,imo nur der crysis 3 bench brauchbar und das ist echt wenig.

HarryHirsch
2013-02-18, 15:40:59
http://www.abload.de/thumb/1icfsd.png (http://www.abload.de/image.php?img=1icfsd.png) http://www.abload.de/thumb/21be5k.png (http://www.abload.de/image.php?img=21be5k.png) http://www.abload.de/thumb/33dcnb.png (http://www.abload.de/image.php?img=33dcnb.png) http://www.abload.de/thumb/4l0f3a.png (http://www.abload.de/image.php?img=4l0f3a.png) http://www.abload.de/thumb/5wsi7w.png (http://www.abload.de/image.php?img=5wsi7w.png) http://www.abload.de/thumb/6dhc3o.png (http://www.abload.de/image.php?img=6dhc3o.png)

sind die echt? wie lautet die quelle?

boxleitnerb
2013-02-18, 15:41:41
(Auch) von hier, s.u.

Nvidia has detailed its latest high end graphics card, the GTX Titan, confirming its existence with some impressive numbers that should cement its position as the world's fastest GPU.

Built around the GK110 Tesla technology first used in the Titan supercomputer - hence the name - the GTX Titan is Nvidia's most powerful graphics card to date, with a whopping 2,688 CUDA cores and 7.1 billion transistors, which produce 4,500 Gigaflops of processing power. Each card comes with 6GB of GDDR5 RAM, running along a 384-bit interface which should be more than sufficient for playing the latest games at above HD resolution. It's DirextX 11.1 compatible, so should support all the latest graphics tweaks such as tessellation, and Nvidia's own PhysX physics effects.

Designed as a single-GPU replacement for the current top-end GTX 690, which is actually two GTX 680 cores bolted to one PCB, the GTX Titan promises improved performance while using less power and producing less heat. A redesigned cooler with an extended aluminium heat stack dissipates heat faster than Nvidia's current design, while the 90mm fan is tied to both RPM and voltage control to more accurately determine when to kick in. With a TDP of 250w, you'll certainly need it.

SLI is fully supported, so if you have a capable power supply and bottomless pockets you could potentially run multiple Titans for high frame rates even at multi-monitor resolutions. Although Nvidia has yet to share exact benchmark results, some rough figures suggest games like Crysis 3, Far Cry 3 and Max Payne 3 can expect roughly twice the performance over a GTX690 setup.

Perhaps more exciting news is the addition of GPU Boost 2.0, an evolution of the software introduced with Nvidia's 600-series graphics cards. Built into the video driver, GPU Boost 2.0 will let Titan owners overclock and olvervolt their cards, with higher limits than with previous cards and optimisations for water-cooling setups.
:D:D:D

It will also allow you to "overclock" your display, running it at a faster sync rate than it officially supports to squeeze out some extra frames per second. As an example, a monitor rated for 60Hz refresh only could run at up to 80Hz, meaning twenty extra frames per second are being displayed.

The one sticking price will almost certainly be the price - Nvidia would only confirm RRP pricing with us today, as it will be up to its hardware partners to set their own prices when the cards launch later this week, but you'll easily be paying over £800 per card. We'll have to wait until then to see whether the benchmark scores can back up Nvidia's claims that the Titan is the fastest card around, but the early indications look promising.

http://www.expertreviews.co.uk/graphics-cards/1297972/nvidia-gtx-titan-graphics-card-announced

BigKid
2013-02-18, 15:41:46
Bei zwei zumindest. Bei den anderen sieht es nach ca. 30% aus. Schwach :mad:

Sollten die Folien echt sein, stimmt mich das auch nicht so freundlich...
Wenn die Titan so stark wäre würde es keinen Sinn machen, dass man die Vergleichbarkeit erschwert in dem man Quad-Sli (also vermutlich 2xGTX690) gegen 3 way SLI Titan antreten läßt...
3x Titan - also wirklich...

dildo4u
2013-02-18, 15:42:36
~30% + gegenüber einer 680 ist ein witz .
Kommt auf den Preis an,der Sprung ist ganz normal für 1Jahr.

derguru
2013-02-18, 15:44:22
klar der sprung ist nicht verkehrt aber du weißt schon über welche performancesprünge hier spekuliert wurde? und vergiss den spekulierten preis nicht.:biggrin:

imo 600€ wert und kein penny mehr.

fondness
2013-02-18, 15:44:48
Limitiert wohl möglich doch die Geometrie-Leistung?

Aber wohl immerhin wird nicht die DP-Leistung beschnitten und man hat mit Titan eine "günstige" Alternative zu K20/K20X.

Ja finde ich auch höchst spannend das man hier die volle DP-Leistung frei gibt. Volle 6GB RAM, mehr Takt, volle DP-Leistung und weniger Preis als eine Tesla.

BigKid
2013-02-18, 15:48:10
http://www.expertreviews.co.uk/graphics-cards/1297972/nvidia-gtx-titan-graphics-card-announced
Und weg ist die News


404 Error - Page not available

Something's gone wrong

EDIT:
Dabei findet die suchfunktion von Expert Reviews den toten link sogar selbst... :)

Nvidia GTX Titan graphics card announced | Expert Reviews
52 minutes ago ... Nvidia has announced the GTX Titan, its latest high-end graphics card which is based on supercomputer technology.
www.expertreviews.co.uk/.../nvidia-gtx-titan-graphics-card-announced
LabeledReviewsNews

boxleitnerb
2013-02-18, 15:49:06
Wie kommt ihr darauf, dass da nix beschnitten ist?

Edit:
1.3 TFLOPs, überlesen...

fondness
2013-02-18, 15:54:49
klar der sprung ist nicht verkehrt aber du weißt schon über welche performancesprünge hier spekuliert wurde? und vergiss den spekulierten preis nicht.:biggrin:

imo 600€ wert und kein penny mehr.

Jetzt bin ich wirklich gespannt was da über bleibt, wenn schon NVs Vorzeigewert nur 30% über der GTX680 liegt. Speziell auch wie es bei hohen Auflösungen aussieht. Das reicht gerade so um die 7970Ghz eindeutig zu schlagen, für mehr aber auch nicht. Wie man den Preis rechtfertigen will verstehe ich nicht.

dildo4u
2013-02-18, 15:55:17
Im Prinzip hat man die selbe Performance pro Watt wie der Gameing Kepler,das ist schon beachtlich mit dem ganzen Compute Kram drauf,kommt vermutlich vom geringem Takt.

Wie man den Preis rechtfertigen will verstehe ich nicht.
Preis wird von Angebot Nachfrage festgelegt siehe oben.

aufkrawall
2013-02-18, 15:56:36
Toll. Das beste am Launch ist ein "neues" Vsync. :freak:

derguru
2013-02-18, 15:59:24
Jetzt bin ich wirklich gespannt was da über bleibt, wenn schon NVs Vorzeigewert nur 30% über der GTX680 liegt. Speziell auch wie es bei hohen Auflösungen aussieht. Das reicht gerade so um die 7970Ghz eindeutig zu schlagen, für mehr aber auch nicht. Wie man den Preis rechtfertigen will verstehe ich nicht.
ok ist nur ein bench bisher aber wenn sich das wirklich bewahrheit kann ich den spekulierten preis nicht glauben,so viel wird es dann auch nicht.die armen 690 besitzer die ihre schon vertickt haben wegen dem titan.;D

Godmode
2013-02-18, 15:59:42
Im Prinzip hat man die selbe Performance pro Watt wie der Gameing Kepler,das ist schon beachtlich mit dem ganzen Compute Kram drauf,kommt vermutlich vom geringem Takt.


So ein scheiss interessiert aber nicht. Ich will ne Karte mit 300W und ordentlich Dampf.

Gipsel
2013-02-18, 16:00:00
Wie kommt ihr darauf, dass da nix beschnitten ist?

Edit:
1.3 TFLOPs, überlesen...
http://www.abload.de/img/6dhc3o.png

Ist aber irgendwie trotzdem komisch. DP Rate 1:3,5?!? Wie kommen die denn da drauf? Oder taktet die Karte bei DP-Anweisungen auf 725 MHz runter, damit man nicht schneller als die K20X wird? :freak:

Godmode
2013-02-18, 16:00:22
die armen 690 besitzer die ihre schon vertickt haben wegen dem titan.;D

Genau das hab ich mir auch gedacht... eine hab ich ja noch ;)

dildo4u
2013-02-18, 16:00:31
So ein scheiss interessiert aber nicht. Ich will ne Karte mit 300W und ordentlich Dampf.
Die Karte kann 300Watt ab musste halt auf OC Tests warten.

Godmode
2013-02-18, 16:01:20
Die Karte kann 300Watt ab musste halt auf OC Tests warten.

Ich denke da liegt die wahre Stärke, hoffe ich zumindest.

fondness
2013-02-18, 16:02:19
ok ist nur ein bench bisher aber wenn sich das wirklich bewahrheit kann ich den spekulierten preis nicht glauben,so viel wird es dann auch nicht.die armen 690 besitzer die ihre schon vertickt haben wegen dem titan.;D

Schau dir die Surround-Werte an wo der GTX690 hoffentlich nicht oder nur knapp der VRAM ausgeht. Selbst wenn man annimmt das 4Way-SLI gleich gut skaliert wie 3Way SLI bleiben dort kaum mehr als 30% über. Wenn 4Way Sli etwas schlechter skaliert oder die GTX690 leichte VRAM-Überlaufe hat sind wir schnell noch niedriger.

G 80
2013-02-18, 16:03:20
Aber wohl immerhin wird nicht die DP-Leistung beschnitten und man hat mit Titan eine "günstige" Alternative zu K20/K20X.


Echt jetzt? Desktop Chip, bzw. eher Treiber, mit voller DP Leistung? (Um es noch mal klarzustellen, fällt mir schwer zu glauben)


€: Jede GPU mehr im MGPU Verbund skaliert schlechter und bie 4 Way hab ich als Hausnummer 60-80 % im Hinterkopf ....

HarryHirsch
2013-02-18, 16:04:29
Echt jetzt? Desktop Chip, bzw. eher Treiber, mit voller DP Leistung? (Um es noch mal klarzustellen, fällt mir schwer zu glauben)

würde aber den preis erklären.

boxleitnerb
2013-02-18, 16:04:38
http://www.abload.de/img/6dhc3o.png

Ist aber irgendwie trotzdem komisch. DP Rate 1:3,5?!? Wie kommen die denn da drauf? Oder taktet die Karte bei DP-Anweisungen auf 725 MHz runter, damit man nicht schneller als die K20X wird? :freak:

Typo?

Godmode
2013-02-18, 16:05:09
Was ist nicht verstehe ist, warum man bitte mit so einer schwachen CPU testet. Ka wie stark C3 an der CPU hängt?

dildo4u
2013-02-18, 16:06:32
Was ist nicht verstehe ist, warum man bitte mit so einer schwachen CPU testet. Ka wie stark C3 an der CPU hängt?
Die haben mit MSAA gesteset,das ist komplett GPU limtiert.Die CPU schafft locker 100fps.

35 fps mit einer 680 mit 4XAA.
http://www.pcgameshardware.de/Crysis-3-PC-235317/Tests/Crysis-3-Beta-Test-Erste-Benchmarks-1046328/

M4xw0lf
2013-02-18, 16:06:45
So, also werden alle Untergrenzen der Prognosen erreicht. 14 SMX, 837 MHz, maximal 50% Mehrleistung gegenüber der 680 (und zumindest in Crysis 3 grade mal 30%).

Angiesan
2013-02-18, 16:07:03
Vielen Dank Boxleitnerb auch wenn das zuerst mal ernüchternd ist.
Ich denke, dass der ausgerufene Preis dann deutlich niedriger ausfallen muss denn 1 Titan kann so wie sich das jetzt zeigt wohl kaum ein SLi Gespann ob nun 580/670 oder 680 anständig ersetzen.

Undertaker
2013-02-18, 16:08:41
Und weg ist die News

Google Cache:

http://webcache.googleusercontent.com/search?q=cache:http://www.expertreviews.co.uk/graphics-cards/1297972/nvidia-gtx-titan-graphics-card-announced

dildo4u
2013-02-18, 16:10:25
Google Cache:

http://webcache.googleusercontent.com/search?q=cache:http://www.expertreviews.co.uk/graphics-cards/1297972/nvidia-gtx-titan-graphics-card-announced

Built into the video driver, GPU Boost 2.0 will let Titan owners overclock and olvervolt their cards, with higher limits than with previous cards and optimisations for water-cooling setups

Der Chip kann vermutlich einiges aber dann muss halt deutlich mehr Wärme abgeführt werden.

G 80
2013-02-18, 16:10:34
Ich denke, dass der ausgerufene Preis dann deutlich niedriger ausfallen muss denn 1 Titan kann so wie sich das jetzt zeigt wohl kaum ein SLi Gespann ob nun 580/670 oder 680 anständig ersetzen.



Ach Titan nimmts doch scheinbar mit Quad 580 auf .... im Neu-Preis. :upicard::ulol4::ubash2:

boxleitnerb
2013-02-18, 16:12:01
http://www.abload.de/thumb/f6f21e67-29b8-4834-81nfesw.jpg (http://www.abload.de/image.php?img=f6f21e67-29b8-4834-81nfesw.jpg)

BigKid
2013-02-18, 16:13:40
So... Jetzt könnte so um 17:00 Uhr noch was kommen...
Und dann heissts wieder warten...
Naja... Lang ists bis zum 1.4 ja auch nicht mehr... Langsam mutets so an...

M4xw0lf
2013-02-18, 16:15:31
http://www.abload.de/thumb/f6f21e67-29b8-4834-81nfesw.jpg (http://www.abload.de/image.php?img=f6f21e67-29b8-4834-81nfesw.jpg)

Das sieht auch mehr nach der Performance aus, die man von nem GK104-Refresh erhofft hätte ^^

BigKid
2013-02-18, 16:16:27
Das sieht auch mehr nach der Performance aus, die man von nem GK104-Refresh erhofft hätte ^^
Naja... Neee... die letzten Refreshes lagen so bei 25-30%...
Von Ausnahmen wo was schiefging (GTX480/470) mal abgesehen...

EDIT: Hier stand: 50% maximal wären mau... Kurz drüber Nachgedacht und Meinung geändert... SOOO mau auch nicht...

Da wären 50% schon ganz ordentlich... Letzlich stehts und fällt es mit dem Preis....
Nur leider sind es nicht durchgängig 50% ... in FC3 sinds nur noch 36%...
WENN obige Zahlen echt sind...

So DARF es eigentlich nicht mehr kosten als ne GTX690 - wird es aber... Single-Chip performance Krone und so...

fondness
2013-02-18, 16:17:28
Jupp maximal 50% wäre mau...

Naja das sieht schon deutlich besser aus als auf den NV-Folien.

Dural
2013-02-18, 16:19:17
rechnerisch müsste die karte rund 40-50% schneller als die GTX680 sein :rolleyes:

da scheint im chip etwas zu limitieren :frown:


können sie gerne behalten, wie immer ist wohl erst der zweite chip brauchbar (280-285 / 480-580 etc.)

Botcruscher
2013-02-18, 16:19:18
Das sieht auch mehr nach der Performance aus, die man von nem GK104-Refresh erhofft hätte ^^
Es ist ja auch "nur" ein überfälliger Nachzügler. Damit die Verarsche beim Preis nicht so auffällt bekommt er ja auch einen eigenen Namen.
Naja... Neee... die letzten Refreshes lagen so bei 25-30%...

Es ist aber kein Refresh.

boxleitnerb
2013-02-18, 16:19:23
Naja das sieht schon deutlich besser aus als auf den NV-Folien.

Witzig, sollte eigentlich andersherum sein :freak:
Vielleicht hat der Praktikant geschlafen und sich dann auch bei den DP-FLOPs vertippt.

dildo4u
2013-02-18, 16:20:28
Witzig, sollte eigentlich andersherum sein :freak:
Vielleicht hat der Praktikant geschlafen und sich dann auch bei den DP-FLOPs vertippt.
Die Folien sind halt älter der Performacne Treiber kam erst Heute.(314.07)

fondness
2013-02-18, 16:20:52
Witzig, sollte eigentlich andersherum sein :freak:
Vielleicht hat der Praktikant geschlafen und sich dann auch bei den DP-FLOPs vertippt.

Vorsprung zur GTX680:

53,8%
49,2%
23,4%
53,8%
36,9%
36,9%

im Schnitt: +42,3%

Zur 7970:

47%
29,8%
31,5%
35,1%
42,8%
23,4%

im Schnitt: 34,9%

M4xw0lf
2013-02-18, 16:21:50
Die Folien sind halt älter der Performacne Treiber kam erst Heute.(314.07)
Er wurde erst heute veröffentlicht - die Tester können ihn schon gehabt haben.

Godmode
2013-02-18, 16:22:04
Also einfach mal abwarten bis es offizielle Tests gibt, weil sonst wird man hier noch verrückt.

dildo4u
2013-02-18, 16:22:44
Er wurde erst heute veröffentlicht - die Tester können ihn schon gehabt haben.

Die Folien können noch älter sein,der Treiber wurde mit Sicherheit bis zu letzt möglichen Termin optimiert um Optimale Performance in C3 zu haben.

LSSJBroly
2013-02-18, 16:23:28
Vorsprung zur GTX680:

53,8%
49,2%
23,4%
53,8%
36,9%
36,9%

im Schnitt: +42,3%

Würde so in etwa auch passen. Allerdings dürfte der 3DMark Vantage mehr als stark CPU-limitiert sein.

Botcruscher
2013-02-18, 16:24:34
Vorsprung zur GTX680:
im Schnitt: +42,3%

Halt das was man von einem Oberes-Midrange zu einem High-End Chip erwartet. Die richtige 680ter ist endlich raus und verweist den 660er Möchtegern auf seine Plätze.:freak:

M4xw0lf
2013-02-18, 16:24:56
Die Folien können noch älter sein,der Treiber wurde mit Sicherheit bis zu letzt möglichen Termin optimiert um Optimale Performance in C3 zu haben.

Joa aber zumindest die GTX680 gewinnt grade mal 5% dazu mit dem neuen Treiber. (Also 5% laut Releasenotes... : Neu bei Treiberversion 314.07
Steigert die Leistung bei Crysis 3 um bis zu 5 % (gemessen mit GeForce GTX 680 bei hohen Einstellungen mit einer Auflösung von 1920 × 1080). - "bis zu" 5% sind mal keine Sensation ^^)

dildo4u
2013-02-18, 16:25:11
Würde so in etwa auch passen. Allerdings dürfte der 3DMark Vantage mehr als stark CPU-limitiert sein.
Ja Vantage und Hitman sind CPU limitiert,denkt man bei Hitman nich ist aber extrem vorallem beim eingebauten Benchmark.(Mein AMDX6 kackt total ab)

BigKid
2013-02-18, 16:25:49
Es ist aber kein Refresh.
Du hast doch das Zitat auf das ich geantwortet habe mit gequotet...
Es war eine direkte Antwort auf "Das sieht auch mehr nach der Performance aus, die man von nem GK104-Refresh erhofft hätte ^^"
Ich habe nie behauptet Titan wäre ein Refresh - ich sagte nur, dass die Refreshes der letzten Zeit weniger Mehr-Leistung brachten...

boxleitnerb
2013-02-18, 16:30:05
Die Folien sind halt älter der Performacne Treiber kam erst Heute.(314.07)

Woher weißt du, dass der 314.07 ein Performancetreiber ist? Und Titan unterstützt?

Blediator16
2013-02-18, 16:33:37
Theoretisch müsste Titan doch bereits unterstützt werden, da es ja schon die compute Karten gibt.

BigKid
2013-02-18, 16:34:10
Na jemand Risikofreudig ? Geforce Titan auf eBay...
http://www.ebay.com/itm/Asus-Nvidia-GTX-TITAN-GPU-6gb-GK110-/200897669690?pt=PCC_Video_TV_Cards&hash=item2ec66f2a3a

derguru
2013-02-18, 16:35:00
kein wunder warum amd sich nicht schert was neues rauszubringen, angst und bange wird denen sicher nicht.

wer wird denn jetzt noch die karte für die angeblichen 800€ kaufen, wohl nur die ganz hart gesottenen ohne jegliches rl.

meine preisspekulatio lautet bei der leistung maximal 600€.

interessant werden benchs werden wo eine 7970 ghz schon deutlich stärker als die gtx680 war wie z.b. metro,dirt showdown,ss3,sleeping dogs. mal schauen wie sich der titan bei den titeln verhält.

G 80
2013-02-18, 16:38:34
Bisher siehts nach ~85 % auf eine 580 drauf aus. Das ist maximal aureichend.

Sowohl der nahme Titan als auch der Preis sind unangemessen.


ATI täte gut daran ihre (leider auch irgendwan erscheinende Karte ....) Archon/Solon zu nennen ...:naughty: :rolleyes:

dildo4u
2013-02-18, 16:42:22
Am Anfang war die 680 bei alten Games auch nur 30% schneller als die 580,Heute sinds bei BF3 und C2 fast 50%.

Mit FXAA +47%
http://www.computerbase.de/artikel/grafikkarten/2013/test-17-grafikkarten-im-vergleich/26/

BF 3 680 60% + ohne MSAA,48% mit.
http://www.computerbase.de/artikel/grafikkarten/2013/test-17-grafikkarten-im-vergleich/25/

Interessant wird Titan dann Ende 2013 wenn ne ganze Masse Next-Gen Titel der neuen Konsolen für PC kommen,(StarWars 1313,Watchdogs)die wesentlich Compute bzw Shaderlastiger werden.

M4xw0lf
2013-02-18, 16:43:17
Am Anfang war die 680 bei alten Games auch nur 30% schneller als die 580,Heute sinds bei BF3 und C2 fast 50%.
http://www.computerbase.de/artikel/grafikkarten/2013/test-17-grafikkarten-im-vergleich/26/

http://www.computerbase.de/artikel/grafikkarten/2013/test-17-grafikkarten-im-vergleich/25/

Interessant wird Titan dann Ende 2013 wenn ne ganze Masse Next-Gen Titel ,der neuen Konsolen für PC kommen,(StarWars 1313,Watchdogs)die wesentlich Compute bzw Shaderlastiger werden.

Und optimiert sind für GCN ;D

boxleitnerb
2013-02-18, 16:44:05
Da GK110 und GK104 im Grunde dieselbe Architektur sind, sehe ich kein besonderes Optimierungspotential für Titan ggü. GK104.

Gipsel
2013-02-18, 16:45:49
ATI täte gut daran ihre (leider auch irgendwan erscheinende Karte ....) Archon/Solon zu nennen ...:naughty: :rolleyes:Ach Quatsch, gegen die Titanen werden die Hekatoncheiren in Stellung gebracht. Die haben die Titanen ja schon mal bezwungen. :rolleyes:

M4xw0lf
2013-02-18, 16:48:24
http://www.fudzilla.com/home/item/11056-amds-hecatoncheires-gpu-family-codenames-revealed

Wenns nach 2009-Fuad geht, sind die schon lang erschienen ^^

derguru
2013-02-18, 16:48:53
das wäre ein sehr reizvoller test, ob eine 7970@1200 vs. titan default paroli bieten könnte?könnte knapp werden.:biggrin:

Blaire
2013-02-18, 16:51:47
interessant werden benchs werden wo eine 7970 ghz schon deutlich stärker als die gtx680 war wie z.b. metro,dirt showdown,ss3,sleeping dogs. mal schauen wie sich der titan bei den titeln verhält.

Eine Brise SGSSAA dazu und schon ist es mit der Herrlichkeit vorbei. ;) Wartet doch mal richtige Benchmarks ab, dann kann man immer noch meckern.

boxleitnerb
2013-02-18, 16:52:15
Und dann taktest den Titan auf 1-1,1 GHz und schon sieht es wieder anders aus ;)

fondness
2013-02-18, 16:52:18
Wenn man genug Chips hat sollte man einfach eine 3GB Version mit billigerem PCB bringen und dazu custom designs der Hersteller erlauben. Das würde den Preis schon deutlich drücken. Ich glaube allerdings das es genau daran scheitert und man nur deswegen 6GB verbaut und den Preis so hoch ansetzt: Eben weil man kaum Chips hat.

M4xw0lf
2013-02-18, 16:53:17
Und dann taktest den Titan auf 1-1,1 GHz und schon sieht es wieder anders aus ;)

Ja, denn dann wird der Raum vom warmen Glanz geschmolzenen Magnesiums erleuchtet, wenn dir der Kühler durch den Rechner tropft :D

dildo4u
2013-02-18, 16:55:33
Da GK110 und GK104 im Grunde dieselbe Architektur sind, sehe ich kein besonderes Optimierungspotential für Titan ggü. GK104.
Die Rechenleistung ist 45% höher wenn das Game komplett Shaderlimtiert ist kann man das erreichen.

boxleitnerb
2013-02-18, 16:59:04
Die Rechenleistung ist 45% höher wenn das Game komplett Shaderlimtiert ist kann man das erreichen.

Das stelle ich ja nicht in Abrede, sondern frage mich, warum das nicht bei den Nvidia-eigenen Benchmarks schon der Fall ist. Warum sollte man im CPU-Limit testen, ich meine die müssen das doch auch langsam mal kapieren. Immer der dämliche 3960X@stock und nur MSAA...wäre ich im Marketing, würde ich mit SGSSAA und AO und schießmichtot benchen.

derguru
2013-02-18, 16:59:07
Eine Brise SGSSAA dazu und schon ist es mit der Herrlichkeit vorbei. ;) Wartet doch mal richtige Benchmarks ab, dann kann man immer noch meckern.
klar warte ich ab und mit sgssaa wird sich das auch kaum ändern,nur weil ein,zwei spiele schlechter abschneiden ist es sicherlich nicht der normalfall.;)

Ronny145
2013-02-18, 17:00:11
250W TDP? Überraschend niedrig, war nicht immer von knapp unter 300W die Rede?

boxleitnerb
2013-02-18, 17:00:15
klar warte ich ab und mit sgssaa wird sich das auch kaum ändern,nur weil ein,zwei spiele schlechter abschneiden ist es sicherlich nicht der normalfall.;)

Doch, das ist fast überall so. Gibt wenige Ausnahmen (Metro 2033, BF3). Das kannst du hier im Forum im Benchmarkunterforum oder bei den Computerbaseergebnissen schön sehen.