PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GK110 - High-End-Kepler - Q1 2013


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 [14] 15 16

fondness
2013-02-18, 17:03:20
Doch, das ist fast überall so. Gibt wenige Ausnahmen (Metro 2033, BF3). Das kannst du hier im Forum im Benchmarkunterforum oder bei den Computerbaseergebnissen schön sehen.

Naja, im Schnitt über alle Werte ist der Unterschied zwischen MSAA und SSSA bei GTX680 vs. 7970 deutlich <5%:

http://www.computerbase.de/artikel/grafikkarten/2013/test-17-grafikkarten-im-vergleich/4/
http://www.computerbase.de/artikel/grafikkarten/2013/test-17-grafikkarten-im-vergleich/3/

In 1600p mit 4xMSAA 7970 10% vor GTX680, mit 4xSSAA 7970 8% vor GTX680

boxleitnerb
2013-02-18, 17:05:29
Naja, im Schnitt über alle Werte ist der Unterschied zwischen MSAA und SSSA bei GTX680 vs. 7970 deutlich <5%:

http://www.computerbase.de/artikel/grafikkarten/2013/test-17-grafikkarten-im-vergleich/4/
http://www.computerbase.de/artikel/grafikkarten/2013/test-17-grafikkarten-im-vergleich/3/

Weil bei denen unter SSAA auch mal OGSSAA läuft Witcher 2, Hitman, was natürlich kein SGSSAA ist. Und Computerbase traue ich nicht mit ihren Ratings, die verkorksten das oft genug. Ich schau mir lieber die Einzelergebnisse an, und da sieht es bis auf die beiden erwähnten Ausnahmen eben so aus und setzt sich hier im Forum auch fort.

Teilweise ist es auch so, dass die 680 davon nicht profitieren kann, die 670 z.B. aber schon. Merkwürdig.

dildo4u
2013-02-18, 17:07:54
Das stelle ich ja nicht in Abrede, sondern frage mich, warum das nicht bei den Nvidia-eigenen Benchmarks schon der Fall ist. Warum sollte man im CPU-Limit testen, ich meine die müssen das doch auch langsam mal kapieren. Immer der dämliche 3960X@stock und nur MSAA...wäre ich im Marketing, würde ich mit SGSSAA und AO und schießmichtot benchen.
Crysis 3 mit MSAA ist massiv GPU limitiert sonst würde die 690 nich so ideal skalieren.

http://www.geforce.com/Active/en_US/shared/images/articles/nvidia-geforce-314-07-whql-drivers/nvidia-geforce-314-07-whql-drivers-crysis-3-performance-chart-650.png

derguru
2013-02-18, 17:08:49
Doch, das ist fast überall so. Gibt wenige Ausnahmen (Metro 2033, BF3). Das kannst du hier im Forum im Benchmarkunterforum oder bei den Computerbaseergebnissen schön sehen.
na sicher doch,fast überall.:rolleyes:

bulletstorm,mass effect 3,avp3 nur die mir auf anhieb einfallen + deine angebenen sind mehr als ein hitman,dirt 3 oder far cry 3.

Naennon
2013-02-18, 17:16:17
das wäre ein sehr reizvoller test, ob eine 7970@1200 vs. titan default paroli bieten könnte?könnte knapp werden.:biggrin:

nur das ne 680 @ 1200 auch mit ner 7970 mitspielt nech...
vergesst es einfach das ne 7970 auch nur in die Nähe des Titan kommt

boxleitnerb
2013-02-18, 17:16:43
na sicher doch,fast überall.:rolleyes:

bulletstorm,mass effect 3,avp3 nur die mir auf anhieb einfallen + deine angebenen sind mehr als ein hitman,dirt 3 oder far cry 3.

Ja in allen diesen Titeln verringert sich der Abstand mit SGSSAA zugunsten Nvidias. Nur Mass Effect 3 war am Anfang noch kaputt, wenn du auf den frühen Test bei CB anspielen solltest. Das wurde soweit ich weiß längst gefixt (auch mit MSAA).

aufkrawall
2013-02-18, 17:22:37
Spiele mit forciertem AA (ME3...) zu vergleichen ist eh hirnrissig, weil es Qualitätsunterschiede gibt.

RaptorFX
2013-02-18, 17:23:56
Was sagt ihr eigentlich dazu, dass die Titan doch nicht so Titan ist?:(:(:facepalm:

kunibätt
2013-02-18, 17:24:37
Bannon!

boxleitnerb
2013-02-18, 17:24:48
Wir können ja gerne mal ein SGSSAA-Shootout machen. Stock vs Stock, 7970 (GHz) vs Titan, MSAA vs SGSSAA. Um das zu klären ;)

Godmode
2013-02-18, 17:32:48
Was sagt ihr eigentlich dazu, dass die Titan doch nicht so Titan ist?:(:(:facepalm:

Ich warte jetzt erstmal auf offizielle Tests und dann sehen wir weiter. Was bis jetzt gezeigt wurde, überzeugt nicht im geringsten.

derguru
2013-02-18, 17:33:09
´nur das ne 680 @ 1200 auch mit ner 7970 mitspielt nech...
vergesst es einfach das ne 7970 auch nur in die Nähe des Titan kommt

wenn ich das bisherige an benchs sehe wird es manchmal nicht nur bei der" in der nähe" bleiben.:wink:
Ja in allen diesen Titeln verringert sich der Abstand mit SGSSAA zugunsten Nvidias. Nur Mass Effect 3 war am Anfang noch kaputt, wenn du auf den frühen Test bei CB anspielen solltest. Das wurde soweit ich weiß längst gefixt (auch mit MSAA).
das mag sein und trotzdem ist die radeon mit sgssaa meilenweit vor in den angegebenen spielen.

imo die größte schwäche von gcn ist 8xmsaa/sgssaa,da kacken sie teilweise heftig ab auch gegenüber dem cayman.(prozentualgesehen)

warten wir mal die tests ab.

Nakai
2013-02-18, 17:34:56
Was sagt ihr eigentlich dazu, dass die Titan doch nicht so Titan ist?:(:(:facepalm:

Im Luxx hätte man dir jetzt eine Morddrohung an den Kopf geschmissen!;D:freak:

Ansonsten, ja. Titan muss nicht so Titan sein, weil es der Markt nicht braucht. Außerdem ist Titan nur auf 10.000 Stückzahl beschränkt. Man wird unter GTX690-Niveau sein, dafür ist es nur eine GPU. Das AMD gegen Titan mit einer HD7990 konkurrieren wird, sagt genug über Titan aus.

Spasstiger
2013-02-18, 17:37:18
Wieviel ROPs und wieviele Raster-Engines sind es jetzt eigentlich 48 ROPs, 5 Raster-Engines?

derguru
2013-02-18, 17:39:51
Im Luxx hätte man dir jetzt eine Morddrohung an den Kopf geschmissen!;D:freak:

Ansonsten, ja. Titan muss nicht so Titan sein, weil es der Markt nicht braucht. Außerdem ist Titan nur auf 10.000 Stückzahl beschränkt. Man wird unter GTX690-Niveau sein, dafür ist es nur eine GPU. Das AMD gegen Titan mit einer HD7990 konkurrieren wird, sagt genug über Titan aus.
das der marketingabteilung das immer wurscht ist eine multigpu mit einer singlegpu zu vergleichen nervt aber anscheinend ist nur wichtig was auf eine platine passt.

Blediator16
2013-02-18, 17:40:50
Im Luxx hätte man dir jetzt eine Morddrohung an den Kopf geschmissen!;D:freak:

Ansonsten, ja. Titan muss nicht so Titan sein, weil es der Markt nicht braucht. Außerdem ist Titan nur auf 10.000 Stückzahl beschränkt. Man wird unter GTX690-Niveau sein, dafür ist es nur eine GPU. Das AMD gegen Titan mit einer HD7990 konkurrieren wird, sagt genug über Titan aus.

Dass AMD in den letzten Gens. nur Dualgpu gegen die riesen NV Dies gestellt hat ist doch nichts besonderes. Business as usual.

Angiesan
2013-02-18, 17:43:30
Solange Nvidia SSAA nicht im Treiber unterstützt sind diese Tests für den:ass2: ich meine für die Füße.
Gut bei Titan kann man noch argumentieren das dort die Enthusiasten angesprochen werden die eben mit dem Inspector umgehen können, ansonsten bietet und das wird hier immer wieder vergessen AMD SSAA via Treiber an, die Titan kann das ja gar nicht.....offiziell. Wenn manin etwas besonders gut ist dann sollte man es auch offiziell unterstützen :wink:

Blediator16
2013-02-18, 17:46:25
NV wird da sicher nachziehen.

boxleitnerb
2013-02-18, 17:48:06
Als ob das jetzt so schwierig wäre, den Inspector zu bedienen. Ich behaupte mal, die die sich überhaupt für SGSSAA interessieren, haben damit Null Probleme. Solche Tests finde ich notwendig, denn nicht jeder hat 3 Monitore. Man will seine Karten ja auch entsprechend fordern und die Qualität genießen.

Angiesan
2013-02-18, 17:50:55
Das hoffe ich schon länger, es ist auch nicht wirklich verständlich nachdem sie mit der Lod -Anpassung ja schon nachgezogen haben und dazu noch das deutlich variablere Paket haben, eigentlich nur Vorteile:confused:

Godmode
2013-02-18, 17:52:31
Das hoffe ich schon länger, es ist auch nicht wirklich verständlich nachdem sie mit der Lod -Anpassung ja schon nachgezogen haben und dazu noch das deutlich variablere Paket haben, eigentlich nur Vorteile:confused:

Ich muss sagen ich stelle das lieber im Inspector ein, einfach weil der ne super Usability hat.

Hugo78
2013-02-18, 17:53:39
Ich muss sagen ich stelle das lieber im Inspector ein, einfach weil der ne super Usability hat.

Geht mir auch so.

derguru
2013-02-18, 17:54:15
kannst du ja aber in tests haben sie dann trotzdem nichts zu suchen,genauso wie aa/sli-bit gefrickel.

cR@b
2013-02-18, 17:54:42
Das hoffe ich schon länger, es ist auch nicht wirklich verständlich nachdem sie mit der Lod -Anpassung ja schon nachgezogen haben und dazu noch das deutlich variablere Paket haben, eigentlich nur Vorteile:confused:

Dann muss man sich aber auch fragen, warum ATI solange gebraucht SSAA überhaupt zu integrieren. Glaube da war nV genauso wie mit AF den Roten voraus...

Angiesan
2013-02-18, 17:54:46
Als ob das jetzt so schwierig wäre, den Inspector zu bedienen. Ich behaupte mal, die die sich überhaupt für SGSSAA interessieren, haben damit Null Probleme. Solche Tests finde ich notwendig, denn nicht jeder hat 3 Monitore. Man will seine Karten ja auch entsprechend fordern und die Qualität genießen.
Ja ist es wenn man sich nicht mit dem Thema sehr beschäftigt. Ich will ja nicht den Inspector abschaffen sondern das SSAA im Treiber ermöglichen, Du bist doch i.d.R. sehr gut informiert, woran liegt das denn? Aus Leistungsgründen ja sicherlich nicht mehr.

Nakai
2013-02-18, 17:54:47
Dass AMD in den letzten Gens. nur Dualgpu gegen die riesen NV Dies gestellt hat ist doch nichts besonderes. Business as usual.

Ich sehe da keinen Vergleich. Single GPU ist und bleibt besser. Ich denke, das denkt jeder hier so. Und ja, natürlich ist es ein Witz von der Marketingabteilungen. Nur diesmal wird Titan näher an MultiGPU sein, als frühers.

Angiesan
2013-02-18, 17:55:27
Dann muss man sich aber auch fragen, warum ATI solange gebraucht SSAA überhaupt zu integrieren. Glaube da war nV genauso wie mit AF den Roten voraus...
Nein

cR@b
2013-02-18, 17:56:07
Nein

Mit AF definitiv!

dargo
2013-02-18, 17:56:34
Kommt auf den Preis an,der Sprung ist ganz normal für 1Jahr.
Ich sehe:

GK104 = 3,54 Milliarden Transistoren
Tahiti = 4,31 Milliarden Transistoren
GK110 = 7,1 Milliarden Transistoren

Wenn GK110 30% schneller ist als GK104 ist das die Lachnummer schlechthin von Nvidia dieses Jahr.

Blediator16
2013-02-18, 17:57:24
Ich sehe da keinen Vergleich. Single GPU ist und bleibt besser. Ich denke, das denkt jeder hier so. Und ja, natürlich ist es ein Witz von der Marketingabteilungen. Nur diesmal wird Titan näher an MultiGPU sein, als frühers.

Das steht ausser Frage. Aber es gibt welche, die meinen AMD ist scheisse, weil sie nix können ausser kleine Chips. Ich frage mich wieso NV dann nicht einfach einen guten Tegra baut und damit den Markt aufräumt ;)

dildo4u
2013-02-18, 17:57:43
Dass AMD in den letzten Gens. nur Dualgpu gegen die riesen NV Dies gestellt hat ist doch nichts besonderes. Business as usual.
Das stimmt dismal nicht,selbst AMD weiss wie schrottige ihr Crossfire ist,daher gibt es offizell auch keine 7990.Die haben noch ein langen Weg zu gehen erstmal muss man die Single GPU Microruckler beseitigen.

http://www.computerbase.de/artikel/grafikkarten/2013/test-17-grafikkarten-im-vergleich/7/

boxleitnerb
2013-02-18, 17:58:11
Ja ist es wenn man sich nicht mit dem Thema sehr beschäftigt. Ich will ja nicht den Inspector abschaffen sondern das SSAA im Treiber ermöglichen, Du bist doch i.d.R. sehr gut informiert, woran liegt das denn? Aus Leistungsgründen ja sicherlich nicht mehr.

Keine Ahnung ehrlich gesagt. Manchmal gibts Probleme (Blur wenn es sich mit Posteffekten streitet oder in Batman AC wird alles rot). Nvidia scheint mir immer auf Nummer sicher gehen zu wollen, bei allem eigentlich.

Godmode
2013-02-18, 17:59:07
Ich sehe:

GK104 = 3,54 Milliarden Transistoren
Tahiti = 4,31 Milliarden Transistoren
GK110 = 7,1 Milliarden Transistoren

Wenn GK110 30% schneller ist als GK104 ist das die Lachnummer schlecht hin von Nvidia dieses Jahr.

Dann gehören sie massiv ausgelacht und Jensen ein heftiger Arschritt. Sollte sich das wirklich bewahrheiten, bekommen sie keinen Cent von mir und ich kauf mir meine zweite 690 wieder billig auf Ebay zurück. ;D

M4xw0lf
2013-02-18, 18:00:29
Das stimmt dismal nicht,selbst AMD weiss wie schrottige ihr Crossfire ist,daher gibt es offizell auch keine 7990.Die haben noch ein langen Weg zu gehen erstmal muss man die Single GPU Microruckler beseitigen.

http://www.computerbase.de/artikel/grafikkarten/2013/test-17-grafikkarten-im-vergleich/7/

sGPU-Microruckler haben doch null mit Crossfire zu tun. Abgesehen davon, dass da auch teils wieder heillos übertrieben wird - im CB-Test schreiben sie ja auch, dass es nur in einem Fall überhaupt spürbare Latenzen gibt.

Angiesan
2013-02-18, 18:02:30
Mit AF definitiv!
Ja und nein aber das wäre zu sehr OT es war mal so und mal so aber in den letzten 3 Generationen GPU´s prä Tahiti ja da hast du recht mit dem AF.

derguru
2013-02-18, 18:02:36
Dann gehören sie massiv ausgelacht und Jensen ein heftiger Arschritt. Sollte sich das wirklich bewahrheiten, bekommen sie keinen Cent von mir und ich kauf mir meine zweite 690 wieder billig auf Ebay zurück. ;D
da wären mir aber 3 titan lieber als ein quad 690,allein aus ramgründen.
schade das sie nicht mehr power hat ehrlich gesagt,für die angeblichen 800 tacken muss mehr her.

sGPU-Microruckler haben doch null mit Crossfire zu tun. Abgesehen davon, dass da auch teils wieder heillos übertrieben wird - im CB-Test schreiben sie ja auch, dass es nur in einem Fall überhaupt spürbare Latenzen gibt.

aber in verbindung von 2 oder mehr karten eventuell schon,das summiert sich doch.

dildo4u
2013-02-18, 18:02:52
sGPU-Microruckler haben doch null mit Crossfire zu tun.
Natürlich summiert sich das,daher hat Crossfire keine Chance gegen die 690 was flüssiges zocken angeht.(Dicke Balken sind nich alles)

Nvidia betont seit einiger Zeit, dass man sowohl in der Hard- als auch in der Software Maßnahmen integriert habe, welche der unregelmäßigen Bildausgabe entgegenwirken. Tatsächlich haben wir beim Test der Geforce GTX 690 eine fühl- und messbare Symptomlinderung festgestellt. Das Mikroruckeln ist bei üblichen Bildraten jenseits der 40-Fps-Marke in vielen Spielen relativ dezent.

Asus' Ares II unterstreicht die Vorstellung der alten Radeon HD 6990: AMD hat offensichtlich keine Maßnahmen ergriffen, um das Mikroruckeln zu mindern. Beim Test der Ares II fiel uns in fast jedem Spiel Mikroruckeln auch jenseits von 40 Fps auf, in den meisten Fällen übersteigt das die Ausmaße der GTX 690.

http://www.pcgameshardware.de/AMD-Radeon-Hardware-255597/Tests/Asus-Ares-II-Test-1046866/

Godmode
2013-02-18, 18:05:42
da wären mir aber 3 titan lieber als ein quad 690,allein aus ramgründen.
schade das sie nicht mehr power hat ehrlich gesagt,für die angeblichen 800 tacken muss mehr her.



aber in verbindung von 2 oder mehr karten eventuell schon.

Ich bilde mir mein Urteil erst am Release Tag, alles andere hat nicht viel Sinn. Vielleicht hat sie ja wirklich sehr gutes OC Potential unter Wasser, was weiß ich.

boxleitnerb
2013-02-18, 18:06:05
sGPU-Microruckler haben doch null mit Crossfire zu tun. Abgesehen davon, dass da auch teils wieder heillos übertrieben wird - im CB-Test schreiben sie ja auch, dass es nur in einem Fall überhaupt spürbare Latenzen gibt.

Nö, in drei ;)
Und das ist ja nicht der einzige Test, der das bescheinigt. Da gibts schon Probleme aktuell. Hoffentlich wird das flott gefixt.

dargo
2013-02-18, 18:13:34
Gibt es eigentlich einen besonderen Grund warum es keine Titan mit 3GB geben wird? Immerhin würde das doch den Preis etwas nach unten drücken. Ich finde 6GB eh ziemlich Overkill, zumindest bei einer Titan. Oder würden 3GB gegen die "Titanregeln" verstoßen? :D

maximus_hertus
2013-02-18, 18:15:49
Die 3GiB-VRAM werden keinen großen Preisunterschied machen. Ob 850 oder 800 Euro, macht fast keinen Unterschied.

Blaire
2013-02-18, 18:17:39
Das hoffe ich schon länger, es ist auch nicht wirklich verständlich nachdem sie mit der Lod -Anpassung ja schon nachgezogen haben und dazu noch das deutlich variablere Paket haben, eigentlich nur Vorteile:confused:

US Markt ist wichtiger, die Leute wünschen eher Performance-AA (FXAA,TXAA), SGSSAA Nachfrage ist vergleichsweise gering. Und danach richten sie sich. Wenn mehr Nachfrage vorhanden wäre, würden sie es längst offiziell unterstützen.

dargo
2013-02-18, 18:32:25
Die 3GiB-VRAM werden keinen großen Preisunterschied machen. Ob 850 oder 800 Euro, macht fast keinen Unterschied.
Naja.. für 50€ mehr bekommst du sicherlich keine zusätzlichen 3GB @1500Mhz Vram. Bei Tahiti beträgt der Endkundenpreisunterschied 145€.

fondness
2013-02-18, 18:35:03
Dann gehören sie massiv ausgelacht und Jensen ein heftiger Arschritt. Sollte sich das wirklich bewahrheiten, bekommen sie keinen Cent von mir und ich kauf mir meine zweite 690 wieder billig auf Ebay zurück. ;D

Was habt ihr denn erwartet? Die vorne verlinkten Werte zeigen ~+45% zur GTX680 bei GPU-limitierten Szenen. Mehr ist auch theoretisch nicht drinnen. Der Crysis 3 Wert ist etwas schwach, aber sonst ist doch alles im Plan oder nicht?

maximus_hertus
2013-02-18, 18:36:28
Bei der GTX 670 2 zu 4 GiB sind es <30 Euro Preisunterschied. Ergo sollten 50 ganz gut hinkommen. Bei der 7970 6 GiB (Toxic) zahlt man ja noch den "Premium-Aufschlag"/Kühler/OC/etc pp mit.

Radeonfreak
2013-02-18, 18:36:39
Was habt ihr denn erwartet? Die vorne verlinkten Werte zeigen ~+45% zur GTX680 bei GPU-limitierten Szenen. Mehr ist auch theoretisch nicht drinnen. Der Crysis 3 Wert ist etwas schwach, aber sonst ist doch alles im Plan oder nicht?

Also höchstens 30% zu meiner?

Akkarin
2013-02-18, 18:36:42
Ist AMD mit RadeonPro nicht genauso gut wie nVidia ? Ja, es ist n third party tool, aber solange man bei nVidia den inspektor braucht, kann man RadeonPro auch voraussetzen.

dildo4u
2013-02-18, 18:37:24
Was habt ihr denn erwartet? Die vorne verlinkten Werte zeigen ~+45% zur GTX680 bei GPU-limitierten Szenen. Mehr ist auch theoretisch nicht drinnen. Der Crysis 3 Wert ist etwas schwach, aber sonst ist doch alles im Plan oder nicht?
Es kann mehr sein wenn man den V-Ram überlädt,für eine 680 sind 2GB ok aber für ne 690 sinds imo ein Witz.

Also höchstens 30% zu meiner?
Man kann Titan vermutlich besser OC(Man kann wieder Spannung erhöhen) als nein nich 30% zu deiner.

Angiesan
2013-02-18, 18:39:02
US Markt ist wichtiger, die Leute wünschen eher Performance-AA (FXAA,TXAA), SGSSAA Nachfrage ist vergleichsweise gering. Und danach richten sie sich. Wenn mehr Nachfrage vorhanden wäre, würden sie es längst offiziell unterstützen.

Jo die Amis wenn jetzt einer mitlesen sollte nicht böse sein aber :crazy:
NV müsste mal eine IQ spezial-Edition auflegen die nur in Europa erhältlich ist,
mal sehen wie schnell wir unsere amerikanischen Kollegen dann zur Bildqualität bekehren können :biggrin:

maximus_hertus
2013-02-18, 18:40:13
Also höchstens 30% zu meiner?

Jein, kommt aufs Game an. Bei eine Speicherbandbreitenlimitierung kann es mehr sein. Ausserdem kann man Titan auch OCen (wohl sogar deutlich besser als die GK104 Karten...)

OgrEGT
2013-02-18, 18:40:43
Man darf nicht auf den ersten Blick 2xGTX680 aka 7Mrd Transistoren mit 1xTitan aka 7Mrd Transistoren vergleichen. Erstaml hat die Titan nicht die doppelte Anzahl an Rechenwerken, und vor allem auch nicht die gleiche Taktfrequenz.

Alles in allem bleibt aber Angesichts des kolportierten Preises von 800Eur aufwärts ein eher ernüchternder Eindruck. Alledrings muss man auch sehen, dass der Preis nicht rein leistungsgemäß zu verstehen ist, sondern auch die limitierte Verfügbarkeit bedingt. Ein eher leistungsgerechter Preis hätte eine der Verfügbarkeit nicht angemessene Nachfrage zur Folge.

Es bleibt spannend wie sich Titan gegen CI positioniert. Außerdem sehen wir mit Titan das für diese Architektur beim derzeitigen Fertigungsprozessvon 28nm maximal Machbare. NV wird hier nicht mehr groß nachlegen können. Es zeigt sich immer mehr, dass ein zu frühes Ausreizen des Fertigungsprozesses nicht lohnt, da man die Erwartungen immer wendiger erfüllen kann in Bezug auf Leistung und Deckung der Nachfrage.

Ailuros
2013-02-18, 18:42:17
NV wird da sicher nachziehen.

Dann veroeffentlicht man keinen "Titan" wenn man ihn nicht braucht ueberhaupt wenn er ueberselten und ueberteuert ist.

Nightspider
2013-02-18, 18:43:41
Also höchstens 30% zu meiner?

Nein.

VooDoo7mx
2013-02-18, 18:57:38
Ich sehe:

GK104 = 3,54 Milliarden Transistoren
Tahiti = 4,31 Milliarden Transistoren
GK110 = 7,1 Milliarden Transistoren


Ja weil Transistorenanzahl ja ein Indikator für Performance ist. :facepalm:
Ein GK110 Produkt mit 500MHz Takt ist langsamer als eine GTX680.

dargo
2013-02-18, 19:00:31
Bei der GTX 670 2 zu 4 GiB sind es <30 Euro Preisunterschied. Ergo sollten 50 ganz gut hinkommen. Bei der 7970 6 GiB (Toxic) zahlt man ja noch den "Premium-Aufschlag"/Kühler/OC/etc pp mit.
30€? Das wäre wirklich billig. Hier sehe ich aber ca. 60€.
http://geizhals.at/de/?cat=gra16_512&xf=1439_GTX+670%7E545_Gigabyte#xf_top

Ronny145
2013-02-18, 19:01:47
Ist AMD mit RadeonPro nicht genauso gut wie nVidia ? Ja, es ist n third party tool, aber solange man bei nVidia den inspektor braucht, kann man RadeonPro auch voraussetzen.


RadeonPro (oder besser gesagt AMD) bietet nicht die Einstellungsvielfalt des Inspectors.

dildo4u
2013-02-18, 19:02:25
30€? Das wäre wirklich billig. Hier sehe ich aber ca. 60€.
http://geizhals.at/de/?cat=gra16_512&xf=1439_GTX+670%7E545_Gigabyte#xf_top

http://geizhals.at/de/?cat=gra16_512&xf=545_Zotac~132_2048~1439_GTX+670#xf_top

horn 12
2013-02-18, 19:03:22
Morgen wird Crysis 3 veröffentlicht, Grund das Titan(chen) etwas in der Presse untergehen lassen zu können,- denn die Test kommen erst am Donnerstag.
Vielleicht doch nicht sooo stark wie viele angenommen und dafür HD7970 Ghz + verkauft...

fondness
2013-02-18, 19:05:41
RadeonPro (oder besser gesagt AMD) bietet nicht die Einstellungsvielfalt des Inspectors.

Nein die Frage kann man nicht mit einem einfachen ja/nein beantworten. RadeonPRO ist mittlerweile das einzige Tool welches ich noch verwende, es kann von OCing über OSD-Anzeige bis zu allen nur erdenklichen Einstellungen und exklusiven Features/AA-Modi einfach alles was man nur irgendwo einstellen kann.

aufkrawall
2013-02-18, 19:06:09
RadeonPro (oder besser gesagt AMD) bietet nicht die Einstellungsvielfalt des Inspectors.
Und durch RadeonPro werden AA & Texturfilterung auch nicht besser. :redface:

dargo
2013-02-18, 19:06:26
http://geizhals.at/de/?cat=gra16_512&xf=545_Zotac~132_2048~1439_GTX+670#xf_top
Lol... sogar nur 20€. :freak: Hätte nie gedacht, dass die Preise dermaßen im Keller sind.

Angiesan
2013-02-18, 19:10:53
Du wirst es auch nicht Leid das Gebetsmühlenabartig zu predigen:biggrin:
Obwohl das in den Standardeinstellugen oft nicht richtig ist und nur mit dem Inspector und Bitgefrickel besser wird :wink:

Ronny145
2013-02-18, 19:13:44
bis zu allen nur erdenklichen Einstellungen und exklusiven Features/AA-Modi einfach alles was man nur irgendwo einstellen kann.


Du kannst keine AA Bits kombinieren, du kannst das Lod unter dx11 nicht verstellen oder deaktivieren mit SGSSAA und du kannst keine erdenklichen AA Modi auswählen wie OGSSAA oder Mischmodi.

aufkrawall
2013-02-18, 19:19:07
Du wirst es auch nicht Leid das Gebetsmühlenabartig zu predigen:biggrin:

Nur wenn Leute was anderes behaupten. :)
Ich mein, srsly? (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9441237&postcount=223)


Obwohl das in den Standardeinstellugen oft nicht richtig ist und nur mit dem Inspector und Bitgefrickel besser wird :wink:
Was heißt "oft nicht richtig"?
Du siehst doch oben, dass es immer nicht richtig ist.
Das "Bitgefrickel" ist dann eher noch ein Sahnehäubchen, das eins drauf setzt.

Eigentlich ist SGSSAA bei AMD ziemlich unbrauchbar.
Selbst bei altem Kram wie TF2 funzt es nicht richtig, bei neueren DX9-Titeln greift es nicht richtig oder gar nicht und bei DX11, wo es das anwendungsbedingt meist auch nicht tut, macht einem dann die kaputte und nicht anpassbare LOD-Verschiebung das Bild kaputt. :freak:
So einen Schrott können die gern behalten, nichtmal geschenkt tu ich mir das an.
Kommt noch hinzu, dass bei SGSSAA der Vorsprung von Tahiti gerne mal wegfällt und Crossfire kann man, nachdem was man so liest, ja auch an der Pfeife rauchen.

derguru
2013-02-18, 19:30:42
da sogut wie nur noch dx11 games rauskommen ist es eh wurscht mit dem aa-gefrickel und unterschiede beim af minimal und wer zu sgssaa greift wird eh kein unterschied sehen.
das heißt ein bioshock,tombraider und co. werden im traum eine bessere bildqualität auf nv haben und so wird das nun immer weiter gehen.anscheinend ist das ingame ssaa in mode gekommen und da zieht amd ja eh die kreise.

G 80
2013-02-18, 19:31:48
Am Anfang war die 680 bei alten Games auch nur 30% schneller als die 580,Heute sinds bei BF3 und C2 fast 50%.



Das stimmt zwar aber um vergleichbarkeit zu erhalten behelfe ich mir mit Initial-Zahl + Abstand zwischen den beiden Karten einer Arch./Node.

Ansonnsten können einfach mal kurz daran denken wie sich der echte Titan - G 80 genannt im Verlauf der Zeit zu G7x entwickelt hat.
Oder wenn wir schon dabei sind auch zu R 600 .....:freak:
Einzig die letzte Uber-ATI-Generation kann sich dagegen wacker halten ...


Ja weil Transistorenanzahl ja ein Indikator für Performance ist. :facepalm:
Ein GK110 Produkt mit 500MHz Takt ist langsamer als eine GTX680.

Das stimmt zwar ebenfalls ( :D), Bulldozer ist das beste und abschreckenste Bespiele neben R 600, aber schau mer mal welche Chip dann auch noch am schnellsten ist wenn wir ein TDP Budget für beide festlegen wie ihn der GK 110 bei 500 Mhz takt braucht. Etwas mitdenken bitte, und nicht Äpfel/Birnen.

aufkrawall
2013-02-18, 19:38:00
da sogut wie nur noch dx11 games rauskommen ist es eh wurscht mit dem aa-gefrickel und unterschiede beim af minimal und wer zu sgssaa greift wird eh kein unterschied sehen.

Komische Aussage.
Wenns AA nicht richtig greift, wovon auszugehen ist, gibts mit AMD unangenehme Unterfilterung, durch die kaputte LOD-Verschiebung flimmert das übel.
So viel zu "eh kein Unterschied".


das heißt ein bioshock,tombraider und co. werden im traum eine bessere bildqualität auf nv haben und so wird das nun immer weiter gehen.anscheinend ist das ingame ssaa in mode gekommen und da zieht amd ja eh die kreise.
Mal schauen, wie sich das mit TXAA weiter entwickelt. Das sah in der Crysis 3 Beta schon stellenweise sehr vielversprechend aus, deutlich besser als zu SGSSAA aufgewertetes MSAA oder irgendwas mit SMAA.
Wenn das, weil SGSSAA nicht mehr gut funktioniert, die einzige Methode ist, ein halbwegs glattes Bild zu kommen, wäre das ein Vorteil für Nvidia.
Zumal man es auch wieder mit SGSSAA/TrSSAA kombinieren kann. ;)

Raff
2013-02-18, 19:40:47
Eigentlich ist SGSSAA bei AMD ziemlich unbrauchbar.
Selbst bei altem Kram wie TF2 funzt es nicht richtig, bei neueren DX9-Titeln greift es nicht richtig oder gar nicht und bei DX11, wo es das anwendungsbedingt meist auch nicht tut, macht einem dann die kaputte und nicht anpassbare LOD-Verschiebung das Bild kaputt. :freak:

Sorry, aber das ist echt Unfug. SGSSAA ist weder unbrauchbar noch kaputt. Trotzdem kann es von Vorteil sein, Bits verändern zu dürfen (GeForce). :)

[...]anscheinend ist das ingame ssaa in mode gekommen und da zieht amd ja eh die kreise.

Der Abstand bei dicken Pixelmengen funktioniert aber nur, solange die Radeon-GPUs ihre höheren FLOPS auf die Straße bringen. Titan bietet theoretisch mehr Flöpper als Tahiti XT2. Und in Low-Res gewinnen Radeons sowieso keinen Blumentopf.

MfG,
Raff

G 80
2013-02-18, 19:42:56
@ Krawall: YT findet zwar n Haufen zu TXAA aber hast du ein Video zu Hand wo ich nicht vor Artefakten blind werde bevor ich von den Stufen ohne TXAA Augenkrebs kriege .....

Das Offizielle NV Page Vid (http://www.geforce.com/landing-page/txaa) ist noch das schlimmste ...

fondness
2013-02-18, 19:42:58
Du kannst keine AA Bits kombinieren, du kannst das Lod unter dx11 nicht verstellen oder deaktivieren mit SGSSAA und du kannst keine erdenklichen AA Modi auswählen wie OGSSAA oder Mischmodi.

Soll ich dir jetzt auch ein paar Features um die Ohren werfen die du mit dem Inspector nicht kannst? Aber das führt zu nichts. Und btw. ich bin froh das ich nicht mit Bits herum fuchteln muss.

Skysnake
2013-02-18, 19:47:52
Ja finde ich auch höchst spannend das man hier die volle DP-Leistung frei gibt. Volle 6GB RAM, mehr Takt, volle DP-Leistung und weniger Preis als eine Tesla.
Das wäre schon wirklich gut. Wenn dem so ist, dann können sich mal ALLE! hier bei AMD dafür bedanken, dass Sie stur ihre Karten nicht beschnitten haben, und nVidia so ziemlich vorgeführt haben, so dass diese am Ende doch auch reagieren mussten.

Für uns als Endkunden WIRKLICH super. :up:

http://www.abload.de/img/6dhc3o.png

Ist aber irgendwie trotzdem komisch. DP Rate 1:3,5?!? Wie kommen die denn da drauf? Oder taktet die Karte bei DP-Anweisungen auf 725 MHz runter, damit man nicht schneller als die K20X wird? :freak:
Davon ist wohl aus zu gehen. Wenn die DP-Leistung nicht beschnitten ist, kann man davon ausgehen, dass Sie den Takt dann reduzieren. Das können Sie sich kaum erlauben, dass die Konsumerkarte dann auch noch schneller ist, und womöglich auch noch bei weniger Verbrauch :ugly:

Eventuell steigt aus irgendeinen Grund aber auch die Leistungsaufnahme unter DP :confused:
Ich kanns mir zwar kaum vorstellen, aber eventuell gibts ja doch Gründe.

Built into the video driver, GPU Boost 2.0 will let Titan owners overclock and olvervolt their cards, with higher limits than with previous cards and optimisations for water-cooling setups

Der Chip kann vermutlich einiges aber dann muss halt deutlich mehr Wärme abgeführt werden.
hm...

Also wunder würde ich keine erwarten. Ein derartig großer Chip, der dann auch noch beschnitten werden muss, verlangt sicherlich schnell nach viel mehr Spannung und wird zum übelsten Säufer...

Wenn die Verbrauchs<->Wärme Abhängigkeit eventuell sogar noch größer ist als bei Tahiti XT mit >=1W/°C, wovon aus zu gehen ist, dann könnte eine gute WaKü nochmal Luft verschaffen für OC, gleichzeitig bei bereits @stock 250W TDP :ugly: nicht mehr viel möglich sein.

kein wunder warum amd sich nicht schert was neues rauszubringen, angst und bange wird denen sicher nicht.

wer wird denn jetzt noch die karte für die angeblichen 800€ kaufen, wohl nur die ganz hart gesottenen ohne jegliches rl.

meine preisspekulatio lautet bei der leistung maximal 600€.

interessant werden benchs werden wo eine 7970 ghz schon deutlich stärker als die gtx680 war wie z.b. metro,dirt showdown,ss3,sleeping dogs. mal schauen wie sich der titan bei den titeln verhält.
Ja, ich muss auch sagen, das wird jetzt schon verständlicher. nVidia wird wie eigentlich IMMER CherryPicking in den Bench-Folien gemacht haben, und wenn da nur teils 30% bei rum kommen, ann verheist das echt nichts gutes. Eventuell ist das Turboverhalten bei GK110 auch komplett anders als bei GK104, wo ja eigentlich immer der volle Turbo anliegt. Das könnte durchaus die "niedrigen" Werte erklären.

Ich muss echt sagen, dass entspricht etwa dem, was ich erwartet habe, aber NIEMALS dem, was ich von den nVidia-Folien erwartet hätte :freak: Das ist echt deutlich drunter...

Ich sehe:

GK104 = 3,54 Milliarden Transistoren
Tahiti = 4,31 Milliarden Transistoren
GK110 = 7,1 Milliarden Transistoren

Wenn GK110 30% schneller ist als GK104 ist das die Lachnummer schlechthin von Nvidia dieses Jahr.
Ja, da muss man schon kurz schlucken. Vorallem auch, wenn man sich anschaut, wie gut Tahiti auch bei Compute performt. Klar, man kommt nicht an GK110 ran, aber dennoch, für den Chip hat man echt ne gute Leistung, und mit der S10000 eh.

Naja.. für 50€ mehr bekommst du sicherlich keine zusätzlichen 3GB @1500Mhz Vram. Bei Tahiti beträgt der Endkundenpreisunterschied 145€.
Endkundenpreis != Einkaufspreis ;)

Im Einkauf werden 3 GB wohl weniger als 20€ ausmachen.

Man darf nicht auf den ersten Blick 2xGTX680 aka 7Mrd Transistoren mit 1xTitan aka 7Mrd Transistoren vergleichen. Erstaml hat die Titan nicht die doppelte Anzahl an Rechenwerken, und vor allem auch nicht die gleiche Taktfrequenz.

Alles in allem bleibt aber Angesichts des kolportierten Preises von 800Eur aufwärts ein eher ernüchternder Eindruck. Alledrings muss man auch sehen, dass der Preis nicht rein leistungsgemäß zu verstehen ist, sondern auch die limitierte Verfügbarkeit bedingt. Ein eher leistungsgerechter Preis hätte eine der Verfügbarkeit nicht angemessene Nachfrage zur Folge.

Da hast du recht, aber es ist schon SEHR ernüchternd, wenn man sich die Huldigungen an Titan von so manchen Leuten anschaut ;D

Die Vorstellungen/Wunschträume, waren zwar wirklich lachhaft, aber man hat ja alles mögliche zu hören bekommen, wenn man versucht hat die Leute mal auf den Boden der Realität zurück zu holen :rolleyes:

Ich hätte aber zumindest in nVidias-Marketingfolien MEHR erwartet. Das sind Werte, wie ich Sie von Hardwareseiten erwartet hätte. Die werden aber wohl eher nochmals nen ticken schlechter ausfallen. Also selbt ich bin mit meinen recht konservativen Erwartungen doch schon etwas überrascht.


Es bleibt spannend wie sich Titan gegen CI positioniert. Außerdem sehen wir mit Titan das für diese Architektur beim derzeitigen Fertigungsprozessvon 28nm maximal Machbare. NV wird hier nicht mehr groß nachlegen können. Es zeigt sich immer mehr, dass ein zu frühes Ausreizen des Fertigungsprozesses nicht lohnt, da man die Erwartungen immer wendiger erfüllen kann in Bezug auf Leistung und Deckung der Nachfrage.
Jup, und das sage ich ja schon seid einiger Zeit, das AMD in einer WIRKLICH guten Ausgangssituation mit Tahiti/GCN ist. Die Chips lassen noch einiges an Luft nach oben, und die Architektur passt auch, und kann relativ einfach noch gut aufgebohrt werden.

Für nVidia sehe ich für die GTX700er absolut kein Entwicklungspotenzial. Die haben sich mit GK110 halt selbst ne Schranke auferlegt, und GK104 ist einfach zu stark im Vergleich, weil man ihn halt nochmal etwas geprügelt hat. Das rächt sich jetzt dann halt.

Ich erwarte erst mit Maxwell von nVidia wieder größere Sprünge.

M4xw0lf
2013-02-18, 19:48:51
Soll ich dir jetzt auch ein paar Features um die Ohren werfen die du mit dem Inspector nicht kannst?

Das würde mich jetzt interessieren - was kann man denn mit dem Inspector nicht?

Raff
2013-02-18, 19:50:20
Das würde mich jetzt interessieren - was kann man denn mit dem Inspector nicht?

Spontan: SMAA einschalten, SweetFX steuern. Ersteres ist integriert, Letzteres muss man getrennt herunterladen.

MfG,
Raff

aufkrawall
2013-02-18, 19:52:12
Sorry, aber das ist echt Unfug. SGSSAA ist weder unbrauchbar noch kaputt.

Im Vergleich zur Nvidia-Implementierung schon.
Beispiele hab ich ja genug gegeben.


Trotzdem kann es von Vorteil sein, Bits verändern zu dürfen (GeForce). :)

Diese Bits haben aber damit nichts zu tun, dass Treiber forciertes AA bei AMD gerne mal mit PP etc. versagt.
Das ist ne andere Baustelle. Genau so wie der AA-Fehler, den ich oben verlinkt habe.

Dieses OGSSAA kommt eigentlich auch nur bei von AMD gepushten Spielen vor.
Ein Schelm, wer Böses dabei denkt...

Eigentlich ist man mittlerweile ja schon weiter, wie Crysis 3 zeigt.
AMD promotet jedoch fröhlig weiter MLAA + OGSSAA...

Skysnake
2013-02-18, 19:53:52
Btw.

Bei einer Sache bekomme ich ECHT Kopfschmerzen..

Und zwar bei der Sache mit den 80Hz für den Monitor.

Wie soll denn das funktionieren???

Ist das nur dummes Marketing-Geblubber?

Wenn die wirklich die Monitore versuchen mit höheren Frequenzen zu betreiben, dann ist das mal ein GANZ böser Hack, den ich gar nicht gut heisen kann. Da würde ich dann auch nur auf die ersten Berichte von sich vernichtenden Monitoren warten...

@Aufkrawall:
Du neigst mal wieder zu maßloser Übertreibung...

Und bzgl dem AMD-Spielesuppert:
Was ist dann bitte das, was nVidia mit TWIMTBP macht? Ich sag nur Crysis 2 und komplett sinnfreies hochgezüchtetes Tesselation...

Also bei dem Punkt habe ich wirklich Bauchschmerzen...

aufkrawall
2013-02-18, 19:54:47
Also bei dem Punkt habe ich wirklich Bauchschmerzen...
Nichts wird so heiß gegessen wie es gekocht wird.

Akkarin
2013-02-18, 20:06:54
Crossfire kann man, nachdem was man so liest, ja auch an der Pfeife rauchen

Afaik stimmt das seit RadeonPro nicht mehr und AMD ist beim thema microruckler gleichauf. Den Inspector hatte ich nur erwähnt um hervorzuheben, dass das Argument "nicht von AMD" nicht zieht.

Ronny145
2013-02-18, 20:07:22
Soll ich dir jetzt auch ein paar Features um die Ohren werfen die du mit dem Inspector nicht kannst?


Na dann mach mal. Aber komm mir jetzt nicht mit OC oder SMAA, die schon immer auf beiden IHV möglich waren und kein exklusives Treiberfeature darstellen. Benenne exklusive Sachen, die auf einer Nvidia Karte nicht möglich sind. Ich nenne dir noch eine fehlende Möglichkeit: 3840x2160@1920x1080 Treiber Downsampling. Dafür braucht es noch nicht mal den Inspector zu deiner Beruhigung.

Und btw. ich bin froh das ich nicht mit Bits herum fuchteln muss.


Das musst du auch bei Nvidia nicht, keiner zwingt dich dazu. Dann aber musst du ggf. mit minderwertiger Qualität leben.

dargo
2013-02-18, 20:07:30
Endkundenpreis != Einkaufspreis ;)

Schon klar. Nur zahlst du ersteres und nicht letzteres. ;)

aufkrawall
2013-02-18, 20:12:33
Afaik stimmt das seit RadeonPro nicht mehr und AMD ist beim thema microruckler gleichauf.
Meinst du jetzt den per Hotkey anpassbaren fps-Limiter?
Wow, muss ich unbedingt haben. :freak:

Von den Frametimes kannst du bei Crossfire nur träumen:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9658043&postcount=461

Da kannst du eigentlich auch bei ner einzelnen AMD nur von träumen:
http://www.computerbase.de/artikel/grafikkarten/2013/test-17-grafikkarten-im-vergleich/7/

Timbaloo
2013-02-18, 20:17:17
Wenn die Verbrauchs<->Wärme Abhängigkeit eventuell sogar noch größer ist als bei Tahiti XT mit >=1W/°C
Was soll denn "Verbrauchs<->Wärme Abhängigkeit" sein?

derguru
2013-02-18, 20:17:58
bin froh das jemand überhaupt ogssaa+mlaa/fxaa anbietet,kann ich amd nur danken und ob das beabsichtigt ist oder nicht juckt mich wenig solang es solche möglichkeiten gibt und die für jeden offen sind und nicht nur für amdler.

HarryHirsch
2013-02-18, 20:19:02
@ krawall
wie du es immer wieder schaffst threads in ein amd is kagge nv ist viel besser gespamme zu ziehen. :uclap:

DavChrFen
2013-02-18, 20:19:43
Was soll denn "Verbrauchs<->Wärme Abhängigkeit" sein?
Desto höher die Temperatur, desto mehr verbraucht die GPU.

aufkrawall
2013-02-18, 20:21:30
bin froh das jemand überhaupt ogssaa+mlaa/fxaa anbietet,kann ich amd nur danken und ob das beabsichtigt ist oder nicht juckt mich wenig solang es solche möglichkeiten gibt und die für jeden offen sind und nicht nur für amdler.
Ja, besser als nichts ist schon mal besser als nichts.
Bei Nvidia geht der Krüppel halt eh per DS bei 1080p, sieht trotzdem schei.. aus.
Von daher hält sich meine Dankbarkeit gegenüber AMD in Grenzen.

@HarryHirsch: Danke. Das konnte man ja nicht so lassen, diese Schönfärberei.

Angiesan
2013-02-18, 20:27:17
Btw.

Bei einer Sache bekomme ich ECHT Kopfschmerzen..

Und zwar bei der Sache mit den 80Hz für den Monitor.

Wie soll denn das funktionieren???

Ist das nur dummes Marketing-Geblubber?

Wenn die wirklich die Monitore versuchen mit höheren Frequenzen zu betreiben, dann ist das mal ein GANZ böser Hack, den ich gar nicht gut heisen kann. Da würde ich dann auch nur auf die ersten Berichte von sich vernichtenden Monitoren warten...

@Aufkrawall:
Du neigst mal wieder zu maßloser Übertreibung...

Und bzgl dem AMD-Spielesuppert:
Was ist dann bitte das, was nVidia mit TWIMTBP macht? Ich sag nur Crysis 2 und komplett sinnfreies hochgezüchtetes Tesselation...

Also bei dem Punkt habe ich wirklich Bauchschmerzen...

Könnte ja auch sein, das sie das nur bei einem Monitor zulassen, der eh höher kann, also alle 120 HZ Monitore. Wäre dann nichts anderes wie ein erweitertes VSync das halt mit allem zurecht kommt je nach dem was die GPU an FPS liefern kann, denn das schein dynamisch zu sein und nicht auf 80 HZ gefixt wenn ich das richtig verstanden habe.

Skysnake
2013-02-18, 20:36:27
Was soll denn "Verbrauchs<->Wärme Abhängigkeit" sein?
Guckst du hier ;)
7.13 Leistungsaufnahme (http://extreme.pcgameshardware.de/grafikkarten/255983-xfx-r7970-double-dissipation-edition-im-pcghx-test-update-schnellste-stock-hd7970-im-hwbot-pcgh-team-heaven.html#a8)

Könnte ja auch sein, das sie das nur bei einem Monitor zulassen, der eh höher kann, also alle 120 HZ Monitore. Wäre dann nichts anderes wie ein erweitertes VSync das halt mit allem zurecht kommt je nach dem was die GPU an FPS liefern kann, denn das schein dynamisch zu sein und nicht auf 80 HZ gefixt wenn ich das richtig verstanden habe.
Das ist aber dann auch irgendwie sehr seltsam. Wo soll man da einen Nutzen haben?

N0Thing
2013-02-18, 20:38:36
Komische Aussage.
Wenns AA nicht richtig greift, wovon auszugehen ist, gibts mit AMD unangenehme Unterfilterung, durch die kaputte LOD-Verschiebung flimmert das übel.
So viel zu "eh kein Unterschied".

Seit wann ist die LOD-Verschiebung bei AMD kaputt? Bis Nvidia endlich nachgezogen hat, galt das für AMD immer als Pluspunkt in den Bewertungen.

Könnte ja auch sein, das sie das nur bei einem Monitor zulassen, der eh höher kann, also alle 120 HZ Monitore.

Laut irgendeiner hier im Thread zitierten Textstelle, sollen 60Hz Monitore mit 80Hz betrieben werden, wodurch die nutzbaren fps steigen. Ich würde da die Reviews abwarten, die Tester und Schreiberlinge sollten wissen was dahinter steckt. ;)

boxleitnerb
2013-02-18, 20:43:00
^ die Anpassung, ja. Das Geflimmere bei negativem LOD ist was anderes. Wobei ich das bei Nvidia schon nicht gemerkt habe, da schätze ich, dass es auch bei AMD ein eher theoretisches Problem ist.

aufkrawall
2013-02-18, 20:52:43
^ die Anpassung, ja. Das Geflimmere bei negativem LOD ist was anderes. Wobei ich das bei Nvidia schon nicht gemerkt habe, da schätze ich, dass es auch bei AMD ein eher theoretisches Problem ist.
Bei welchem DX11-Spiel hast du denn SGSSAA genutzt?
Bei DX9 ist klar, dort greift das AA ja auch perfekt (bei Nvidia).

Du kannst ja mal auf Q-Filterung stellen, dann sieht es aus wie bei AMD, und dir damit BF3 MP geben (etwa Firestorm).
Sieht übel aus.

Timbaloo
2013-02-18, 20:56:12
Guckst du hier ;)
7.13 Leistungsaufnahme (http://extreme.pcgameshardware.de/grafikkarten/255983-xfx-r7970-double-dissipation-edition-im-pcghx-test-update-schnellste-stock-hd7970-im-hwbot-pcgh-team-heaven.html#a8)
Ah jetzt.

M4xw0lf
2013-02-18, 21:00:56
Spontan: SMAA einschalten, SweetFX steuern. Ersteres ist integriert, Letzteres muss man getrennt herunterladen.

MfG,
Raff

Nuja, ich hätte dann doch lieber AA-bits in RadeonPro :biggrin:

boxleitnerb
2013-02-18, 21:03:53
Bei welchem DX11-Spiel hast du denn SGSSAA genutzt?
Bei DX9 ist klar, dort greift das AA ja auch perfekt (bei Nvidia).

Du kannst ja mal auf Q-Filterung stellen, dann sieht es aus wie bei AMD, und dir damit BF3 MP geben (etwa Firestorm).
Sieht übel aus.

War nicht unser Konsens damals, dass wir das kaputte negative LOD in der Praxis nicht bemerken? Ich hab wirklich nie was gesehen und ich hab es in BF3, Shogun 2, AVP3 und Just Cause 2 benutzt.

Akkarin
2013-02-18, 21:15:36
Was ist von den ägyptischen Quellen zu halten: http://cdn3.wccftech.com/wp-content/uploads/2013/02/GTX-Titan.png ?

Leonidas
2013-02-18, 21:18:15
Was ist von den ägyptischen Quellen zu halten: http://cdn3.wccftech.com/wp-content/uploads/2013/02/GTX-Titan.png ?


Schwierig zu beurteilen, da bisher nie groß aufgefallen. Stylistisch ist die Seite komplett "Arab PC World", die bisher schon durch Verbreitung gefälschter 3DMark-Screens aufgefallen sind.

Zudem dürften in Ägypten keine solche Karten vorliegen. Wenn, dann sind die Werte irgendwoher kompiliert. Wenn überhaupt.

aufkrawall
2013-02-18, 21:32:12
War nicht unser Konsens damals, dass wir das kaputte negative LOD in der Praxis nicht bemerken?

Kommt drauf an was wir meinen.
Den Bug bei D3D9, dass es übles Banding geben konnte, haben wir ja alle bei HL2 bemerkt.
Bei vielen anderen Anwendungen hat der natürlich wiederum so gut wie gar nicht gestört.
Das andere Problem, das wir im Filtertester sahen bzw. mit Q & AMD sehen, haben wir bei D3D9 nicht bemerkt, weil das bei den meisten Texturen offenbar keine Rolle spielt, sofern die Glättung perfekt ist.
Bei AMD ist die Glättung bei D3D9 aber meist nicht perfekt. ;)
Bei D3D11 natürlich auch mit Nvidia nicht, aber da ist die LOD-Verschiebung ja jetzt auch besser (und hoffentlich irgendwann auch mal noch bei D3D9 vollständig gefixt :) ).



Ich hab wirklich nie was gesehen und ich hab es in BF3, Shogun 2, AVP3 und Just Cause 2 benutzt.
Asphalt und Wüstenboden sind bei BF3 Firestorm eh schon schlimm, da ist die kaputte LOD-Verschiebung mit nicht greifendem SGSSAA Gift.
Das flimmert bei AMD deutlich mehr als bei Nvidia mit HQ.
Insofern würde ich dir da etwas widersprechen wollen, dass wir das nie bemerkt haben. :D
Wobei ich da lieber die LOD-Verschiebung ausstelle (was ja zum Glück bei NV geht), bei dem Kackspiel flimmert schon zu viel als dass man sich da noch ein paar Texturdetails mehr gönnen könnte...

Knuddelbearli
2013-02-18, 21:36:54
hm...

Also wunder würde ich keine erwarten. Ein derartig großer Chip, der dann auch noch beschnitten werden muss, verlangt sicherlich schnell nach viel mehr Spannung und wird zum übelsten Säufer...

Wenn die Verbrauchs<->Wärme Abhängigkeit eventuell sogar noch größer ist als bei Tahiti XT mit >=1W/°C, wovon aus zu gehen ist, dann könnte eine gute WaKü nochmal Luft verschaffen für OC, gleichzeitig bei bereits @stock 250W TDP nicht mehr viel möglich sein.

also mein GF100 lässt sich selbst bei knapp 400W noch gut kühlen ( nur ca 25 Kelvin )

Nakai
2013-02-18, 21:37:58
Ich sehe:

GK104 = 3,54 Milliarden Transistoren
Tahiti = 4,31 Milliarden Transistoren
GK110 = 7,1 Milliarden Transistoren

Wenn GK110 30% schneller ist als GK104 ist das die Lachnummer schlechthin von Nvidia dieses Jahr.

Naja GK110 ist ein reiner Compute-Chip. Dass Titan jetzt im Gamingmarkt aufschlägt, ist einfach nicht richtig. Das Ding wurde schon ziemlich aufgebohrt bei Compute(DP:SP = 1:3).

Ich finde es auch sehr interessant, dass solche Aussagen, erst seit AMDs GCN kommen. AMD hat schon seit RV770 die effizienteren Architekturen.

Das steht ausser Frage. Aber es gibt welche, die meinen AMD ist scheisse, weil sie nix können ausser kleine Chips. Ich frage mich wieso NV dann nicht einfach einen guten Tegra baut und damit den Markt aufräumt ;)

AMD hat seit dem R600 eine verdammt gute Execution hingelegt. Mit jeder Gen ist man näher an Nvidia rangekommen(und zwar Performance gegen Highend). Oke, HD69xx war ein kleiner Rückschlag. Die Tendenz ist jedoch erkennbar. Man hat es immer besser geschafft mit einem kleineren Chip in den ähnlichen Regionen des Überchips von Nvidia zu kommen. Mit Tahiti hat man endlich auch eine gute Compute-Architektur.


Jup, und das sage ich ja schon seid einiger Zeit, das AMD in einer WIRKLICH guten Ausgangssituation mit Tahiti/GCN ist. Die Chips lassen noch einiges an Luft nach oben, und die Architektur passt auch, und kann relativ einfach noch gut aufgebohrt werden.

Für nVidia sehe ich für die GTX700er absolut kein Entwicklungspotenzial. Die haben sich mit GK110 halt selbst ne Schranke auferlegt, und GK104 ist einfach zu stark im Vergleich, weil man ihn halt nochmal etwas geprügelt hat. Das rächt sich jetzt dann halt.

Ich erwarte erst mit Maxwell von nVidia wieder größere Sprünge.

Abwarten. GK110 ist noch nicht im Vollausbau. Falls AMD keinen Überchip(>400mm²) bringt, bleibt die SingleGPU-Krone bei NVidia für 2013.

GCN ist und bleibt eine verdammt gute Basis. Nur das FrontEnd ist etwas mau...

Maxwell wird verdammt interessant.

horn 12
2013-02-18, 22:17:20
@Nakai
Welchen Performance Vorteil wird somit GK110 (Titan) gegenüber GTX 680 schlussendlich erzielen, knappe 40% oder nicht mal das ?

dildo4u
2013-02-18, 22:18:22
Welchen Performance Vorteil wird somit GK110 (Titan) gegenüber GTX 680 schlussendlich erzielen, knappe 40% oder nicht mal das ?
45% Wenn die Shaderleistung limitiert mehr wenn der V-Ram bei der 680 alle wird.

Nakai
2013-02-18, 22:21:31
Naja NV sagt das:
http://www.3dcenter.org/dateien/abbildungen/nVidia-GeForce-GTX-Titan-Benchmarks1.jpg

Von der 3DC-Hauptseite.

45% Wenn die Shaderleistung limitiert mehr wenn der V-Ram bei der 680 alle wird.

Mich würden 60% in bandbreitenlimitierenden Fällen nicht wundern. Aber die eigenen Crysis-Tests lassen ja nicht soviel Zugewinn erahnen.

G 80
2013-02-18, 22:24:19
AMD hat seit dem R600 eine verdammt gute Execution hingelegt. Mit jeder Gen ist man näher an Nvidia rangekommen(und zwar Performance gegen Highend).


Kann man nicht völlig von der Hand weisen was du sagst möchte aber die Tendenz die du siehst oder konsturierst doch etwas in Abrede stellen: Vergessen wir nicht das NV auch den "kleinen" Chip in Tahiti Regionen geprügelt hat, das ist keine Kunst.

R 600 brauchen wir nicht drüber reden. Muss tw vor ner X1950 XT fast Angst haben. Säuft und heizt unheimlich und ist trotz 80 nm rießig.
RV 670 war wohl nichts. Außerdem Verbrauch bei der Leistung wäre nichtmal gegen nen G 80 gut. Insgesamt etwas weniger schlecht, dafür brauchtes auch 55nm. Wollen wir ne 285 GTX hohlen? ;D

RV 770 woha sogar mal über G 80 Performance. Hat ja nur bis 55 nm gedauert. Wenn ich mir den Verbrauch der 4850 ( 88 GTX Niveau) anschaue ist das traurig, va weil FPS-Schlampe gegen Anbruch des GPGPU Zeitalters.
RV 790 = Thermi/Brechstange. Ne GTS 250 non green Crap und auf Crack ist ein gefährlicher Gegner.

Evergreen/Cypres: Brauchbar. Kontrastiert aber hauptsächlich durch den kaputten Thermi mit Brecheisen. Tess Implementierung für Arme. Ingesamt der einzig brauchbare (große) VLIW Chip. (OK RV 740 war auch n1 aber anderer Prozess - was würde bei GK 104 gegen Cayman wohl rauskommen? ;D)

Northern Island/Cayman: ;D. Sieht interessanterweise nichtmehr so gut aus gegen Thermi the-tatsächlich-brauchbar-Edition-110.

Southern Islands/Tahiti: Ansich brauchbar, nein sogar gut nur interessanterweise Probleme gegen nen Chip von unten auf Crack; aus dem eigenen Haus und natürlich noch mehr von NV. Dafür hat jetzt ATI auch mal geile HW die mehr kann als FPS Schlampe spielen. Daher brenne in der Hölle VLIW lang lebe GCN.


Und genau DAS ist die wesentliche Information. So wie du schreibst kommt mir das vor wie Leute die einfach stur Koordinaten einer Punktwolke eingeben und ihren Solver der reihe nach quadratisch, kubisch, etc drüberjagen ohne auf die Modalitäten des Szenarios einzugehen/drüber nachzudenken.

Das "Performance" Chips ne mächtige Waffe sind ist nicht neues. Das ich sie mit dem Brecheisen idR auf die Leistung von nem größeren Krieg auch nicht.
Letztlich das mehr als ne FPS Schlampe zu sein, auch nicht umsonnst ist, rundets dann noch ab.


Ich hoffe es kommt nicht zu grob rüber, so ists nicht gemeint aber dieses verquere Verbindungssuchen errinert an _Männer mit Glatze verdienen mehr_ und _auf ner 88 GTS 640 sind 1/4 der Shader und 1/6 überflüssig die kommt auch so auf GTX Leistung_. So im O-Ton gehöhrt. :rolleyes:
Nicht zu vergessen wie ein voller GF 114 auf Crack böse Sachen mit einem kaputten GF 100 macht bei Verbrauch, Größe, und Leistung ... auch NV unterliegt dem Vergleich im eigenen Hause.

Was ATI zweifelsfrei seit R600 macht ist neue Fertigungsprozesse aggresiv und aktiv anzugehen. Nach G80 bis vor Kepler/GCN wohl auch mit größerem Erfolg als NV mit der Riesen Chip zuerst strat.

Jetzt wo Performance gegen Performance + @ steht und endlich mal in etwa gleiches mit gleichem verglichen auf gleichem Prozess verglichen wird sehe ich wie erwartet kaum Unterschiede.

Tahit Leistet etwas mehr, kann etwas mehr, istetwas größer und verbraucht etwas mehr. Überraschung, not.


€: Und der Teil mit den Fertigunsprozessen wird interessant, da _40 nm, 28 nm, 22 nm_ eine Ähnliche Melodie aufweist wie _Waterloo, Verdun, Stalingrad_.

LSSJBroly
2013-02-18, 22:27:01
Naja GK110 ist ein reiner Compute-Chip.
Wenn das so wäre, bräuchte GK110 keine TMUs oder ROPs, sind für GPGPU nicht von Belang, hatte diese aber von Anfang an. Natürlich war es von Anfang an Plan, GK110 als Geforce zu vermarkten. Nur als Tesla/Quadro hätte man niemals die Entwicklungskosten und auch darauffolgende Gewinne decken können.

Ailuros
2013-02-18, 22:31:13
Naja NV sagt das:
Von der 3DC-Hauptseite.
Mich würden 60% in bandbreitenlimitierenden Fällen nicht wundern. Aber die eigenen Crysis-Tests lassen ja nicht soviel Zugewinn erahnen.

Och wir koennten Stunden verbringen darueber zu argumentieren wie der Fetzen an Leistung da besser aussieht und der andere schlechter, aber es aendert am Ende nicht besonders viel daran dass Titan ueberselten und viel zu teuer ist. Und leider hatte wohl mein reines Bauchgefuehl mal wieder recht dass man sich eben von bunten geleakten 3dfurz Resultaten nicht haette beinflussen sollen.

Wuerde das Ding fuer ca. 600 Euro ankommen wuerde ich ernsthaft nachdenken mir eins zu holen und dabei waere es mir wurscht wenn es nur 30% Leistungsunterschied sind in einem Spiel dass ich bis jetzt noch nicht spielen konnte aus offensichtlichen Gruenden.

Godmode
2013-02-18, 22:36:16
Och wir koennten Stunden verbringen darueber zu argumentieren wie der Fetzen an Leistung da besser aussieht und der andere schlechter, aber es aendert am Ende nicht besonders viel daran dass Titan ueberselten und viel zu teuer ist. Und leider hatte wohl mein reines Bauchgefuehl mal wieder recht dass man sich eben von bunten geleakten 3dfurz Resultaten nicht haette beinflussen sollen.

Wuerde das Ding fuer ca. 600 Euro ankommen wuerde ich ernsthaft nachdenken mir eins zu holen und dabei waere es mir wurscht wenn es nur 30% Leistungsunterschied sind in einem Spiel dass ich bis jetzt noch nicht spielen konnte aus offensichtlichen Gruenden.

Sollte sich das wirklich alles Bewahrheiten (30%, 800€), dann ist das der größte Fail des Jahres 2013. :freak:

LSSJBroly
2013-02-18, 22:38:41
Sollte sich das wirklich alles Bewahrheiten (30%, 800€), dann ist das der größte Fail des Jahres 2013. :freak:

Jup, und aus Titan wird Titanchen:biggrin:

Hier mal das neue EVGA-Precision Tool, welches Titan unterstützen soll:
http://benchmarkreviews.com/images/news/NVIDIA/GeForce/GTX-Titan/EVGA-Precision-4.0.0-GUI.jpg

http://benchmarkreviews.com/index.php?option=com_content&task=view&id=22051&Itemid=47

dildo4u
2013-02-18, 22:39:10
600€ kannste vergessen,die 680 mit 4GB kostet 470€.Rechne da mal 35%,+50€ für den Speicher drauf.Die wird sich vermutlich bei 700€ Einpendeln.

Nakai
2013-02-18, 22:41:36
Wenn das so wäre, bräuchte GK110 keine TMUs oder ROPs, sind für GPGPU nicht von Belang, hatte diese aber von Anfang an. Natürlich war es von Anfang an Plan, GK110 als Geforce zu vermarkten. Nur als Tesla/Quadro hätte man niemals die Entwicklungskosten und auch darauffolgende Gewinne decken können.

Das mag in einiger Hinsicht so sein, jedoch ist es schon sinnvoll, dass er GPU-Fähigkeiten hat. OpenCL<>OpenGL kann interoperieren. Dx -Directcompute sollte auch kombinierbar sein. Deswegen ist es eben schon sinnvoll die APIs dahingehend auszunutzen. Oder willst du Texturoperationen in den Shadern machen?

Och wir koennten Stunden verbringen darueber zu argumentieren wie der Fetzen an Leistung da besser aussieht und der andere schlechter, aber es aendert am Ende nicht besonders viel daran dass Titan ueberselten und viel zu teuer ist. Und leider hatte wohl mein reines Bauchgefuehl mal wieder recht dass man sich eben von bunten geleakten 3dfurz Resultaten nicht haette beinflussen sollen

Lol, du hättest gerne einen Titan gehabt?;)

Ja, du hast recht. Für den Preis ist das Ding eine Frechheit.

dildo4u
2013-02-18, 22:46:03
Raff scheint die Karte zu gefallen.

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9659674&postcount=2013

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9659704&postcount=2016

LSSJBroly
2013-02-18, 22:48:16
Schon gesehen?:freak:
http://www.nvidia.de/object/geforce-gtx-Titan-de.html#pdpContent=2
Nvidia sorgt selbst für leaks^^

Dass Raff die Karte gefällt ist ja klar, etwas schnelleres als Single-GPU gibt es ja nicht:D

Godmode
2013-02-18, 22:48:20
Raff scheint die Karte zu gefallen.

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9659674&postcount=2013

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9659704&postcount=2016

Dann hoffen wir mal, dass wir ihn richtig interpretieren.

Nightspider
2013-02-18, 22:50:22
Solche Sätze hat hier nicht schon jeder fünfte im Thread geschrieben. :rolleyes:

derguru
2013-02-18, 22:51:04
Raff scheint die Karte zu gefallen.

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9659674&postcount=2013

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9659704&postcount=2016
kann ich daraus nicht erkennen,was du alles so raus liest.

dildo4u
2013-02-18, 22:51:09
Solche Sätze hat hier nicht schon jeder fünfte im Thread geschrieben. :rolleyes:
Was meinst du Raff ist der einzige mit der Karte.
kann ich daraus nicht erkennen,was du alles so raus liest.
Er schreibt das 30% zu wenig sein bei den Spec's was ist daran nich deutlich?

Nightspider
2013-02-18, 22:52:16
Trotzdem voll die Erkenntnisse. :rolleyes:

Godmode
2013-02-18, 22:53:47
Schon gesehen?:freak:
http://www.nvidia.de/object/geforce-gtx-Titan-de.html#pdpContent=2
Nvidia sorgt selbst für leaks^^


Ich kann es nur wiederholen, das ist der verkackteste Launch seit langem.

dildo4u
2013-02-18, 22:55:18
Trotzdem voll die Erkenntnisse. :rolleyes:
Das einzige interessante die ganzen letzten Seiten imo,der Rest wie immer langweiliges Gebashe von Beiden Seiten.

Nightspider
2013-02-18, 22:57:07
Das die Leistungssteigerung von den Einstellungen abhängig ist, ist für dich neu und interessant? :ugly:

dildo4u
2013-02-18, 22:58:03
Das die Leistungssteigerung von den Einstellungen abhängig ist, ist für dich neu und interessant? :ugly:
Das es mehr als 30% sind weil einige hier schon Heulen oder andere hoffen es ist weniger ist je nach Fanboy Farbe.

Spasstiger
2013-02-18, 23:01:28
Mit den Specs würde ich knapp 40% mehr Performance erwarten als bei der GTX 680.

Godmode
2013-02-18, 23:08:26
Mit den Specs würde ich knapp 40% mehr Performance erwarten als bei der GTX 680.

Kommt wohl gut hin. Interessant wird aber was mit OC geht. Ich habe den verdacht, dass man dieser Karte deutlich mehr Hertz entlocken kann, als einer GTX 680.

derguru
2013-02-18, 23:08:37
Er schreibt das 30% zu wenig sein bei den Spec's was ist daran nich deutlich?
und?woran erkennst du das es Raff gefällt?zeit für ne frische brise.
Das es mehr als 30% sind weil einige hier schon Heulen oder andere hoffen es ist weniger ist je nach Fanboy Farbe.
ehrlich gesagt hatte ich mir mehr erhofft selbst aus der amdbrille,interesse bestand soweit aber sicher nicht bei 800€ für 15-20% über der 7970ghz.

dildo4u
2013-02-18, 23:12:06
Also Vermutlich 680 4GB 470€,Titan + 40%+50€ für 2GB mehr Ram = 700€ und dann die 690 +65% 850€.

Wenn Titan für 800€ kommt wird der Markt noch 100€ runter Regeln siehe 690.Frage ist ob sie dann noch Karten haben. :freak:

http://geizhals.at/de/?phist=772303&age=9999

Nakai
2013-02-18, 23:15:21
Warum seid ihr alle so negativ. ;D

Für Nvidia ist die Karte wertlos. 10K für je 1000€ sind max 10Mio€ Umsatz. Dem gegenüber steht ein eigenes Boarddesign, Marketing und die gesamte Entwicklung des Chips(welche eher durch den Profibereich abgedeckt wird). Das ist keine wichtige Karte für Nvidia. Es geht nur darum, die schnellste SingelGPU zu liefern. Kaum jemand wird soviel Geld für die Karte ausgeben(außer totale Enthusiasten). Der Karte sieht man doch schon an, dass NV keine Lust hatte in den totalen Vollen zu gehen. Mussten sie ja auch nicht...

Godmode
2013-02-18, 23:18:30
Warum seid ihr alle so negativ. ;D

Für Nvidia ist die Karte wertlos. 10K für je 1000€ sind max 10Mio€ Umsatz. Dem gegenüber steht ein eigenes Boarddesign, Marketing und die gesamte Entwicklung des Chips(welche eher durch den Profibereich abgedeckt wird). Das ist keine wichtige Karte für Nvidia. Es geht nur darum, die schnellste SingelGPU zu liefern. Kaum jemand wird soviel Geld für die Karte ausgeben(außer totale Enthusiasten). Der Karte sieht man doch schon an, dass NV keine Lust hatte in den totalen Vollen zu gehen. Mussten sie ja auch nicht...

Weil ich kompromisslose Leistung will und nicht so eine 250W Kindergarten Karte. Für was bitte gibt es den 2x8 Pin... ;D

Bis Donnerstag warte ich noch, bis dorthin halte ich mich zurück...

Exxtreme
2013-02-18, 23:19:10
Und kein DirectX 11.1 ... FAIL! X-D

Ja, das Ding ist irgendwie strange. So mehr mit dem Kopf durch die Wand und so.

dildo4u
2013-02-18, 23:21:21
Und kein DirectX 11.1 ... FAIL! X-D

Ja, das Ding ist irgendwie strange. So mehr mit dem Kopf durch die Wand und so.
Das ist die 7970Ghz schweine laut und Stromhungrig,Titan wird bessere Leistung pro Watt haben und wesentlich leiser sein.

Godmode
2013-02-18, 23:24:41
Das ist die 7970Ghz schweine laut und Stromhungrig,Titan wird bessere Leistung pro Watt haben und wesentlich leiser sein.

15 SMX, 1,1 GHz, 350-400W das wäre ein Traum gewesen. Das dann unter Wasser mit zwei Karten und das 690 Quad-SLI kann in Rente geschickt werden.

dildo4u
2013-02-18, 23:27:44
Die wollen die 690 noch weiter verkaufen,daher hat man sich auf 250W beschränkt.Die werden noch massig GK104 haben die sie los werden müssen.

Blaire
2013-02-18, 23:27:54
Und kein DirectX 11.1 ... FAIL! X-D


LOL :)

DavChrFen
2013-02-18, 23:30:34
Weiß man schon, wie hoch der Speicher getacktet ist? Ich blick gerade nicht mehr durch.

Godmode
2013-02-18, 23:32:09
Weiß man schon, wie hoch der Speicher getacktet ist? Ich blick gerade nicht mehr durch.

Laut Nvidia sind es 6 Gbps Module.

Knuddelbearli
2013-02-18, 23:47:46
Das ist die 7970Ghz schweine laut und Stromhungrig,Titan wird bessere Leistung pro Watt haben und wesentlich leiser sein.


aber da es von der Titan keine custom design gibt immer noch weit lauter als eine gute custom 7970 GE ;-)

aufkrawall
2013-02-18, 23:49:42
aber da es von der Titan keine custom design gibt immer noch weit lauter als eine gute custom 7970 GE ;-)
Und welches Luftkühlerdesign wird der GE wirklich gerecht?
Mir fällt da gerade nur das DCII ein, und der Karte hat Asus einen Vcore-Lock verpasst.

dargo
2013-02-19, 00:01:24
Das ist die 7970Ghz schweine laut und Stromhungrig...
Hä? Wo lebst du denn? :|
http://www.hardocp.com/article/2012/09/24/sapphire_vaporx_radeon_hd_7970_ghz_edition_review/9#.USKyamczerg

Die Karte kostet übrigens 380€ (3GB Vram).
http://geizhals.at/de/804863

dildo4u
2013-02-19, 00:11:47
Hä? Wo lebst du denn? :|
http://www.hardocp.com/article/2012/09/24/sapphire_vaporx_radeon_hd_7970_ghz_edition_review/9#.USKyamczerg
Wo sind dort Lautstärke Messungen und die Karte braucht auch dort ca 240Watt wenn man von der 680 ausgeht.Titan wird schneller sein und das ca selbe Verbrauchen.(Bessere Performance pro Watt)

Skysnake
2013-02-19, 00:23:41
Och wir koennten Stunden verbringen darueber zu argumentieren wie der Fetzen an Leistung da besser aussieht und der andere schlechter, aber es aendert am Ende nicht besonders viel daran dass Titan ueberselten und viel zu teuer ist. Und leider hatte wohl mein reines Bauchgefuehl mal wieder recht dass man sich eben von bunten geleakten 3dfurz Resultaten nicht haette beinflussen sollen.

Wuerde das Ding fuer ca. 600 Euro ankommen wuerde ich ernsthaft nachdenken mir eins zu holen und dabei waere es mir wurscht wenn es nur 30% Leistungsunterschied sind in einem Spiel dass ich bis jetzt noch nicht spielen konnte aus offensichtlichen Gruenden.
Ja, ich hatte auch STARKE bedenken, als ich 3D Mark +GTX690 gelesen habe....

Das ist halt cherrypicking at its best...

So schlecht wie der Crysis 3 Bench suggeriert hätte ich es aber wirklich nicht erwartet. Und man muss ja wie schonmal gesagt bedenken, dass das die Benches von nVidia sind, also eher die Bestcase Szenarios...

Das ist halt echt heftig. Aber ich wurde ja von vielen als Schwarzmaler usw betitelt... :down::P

Dabei wars einfach nur ne realistische Einschätzung, die jetzt wies unterm Strich aussieht wohl sogar noch real etwas unterschritten wird... Nur mit den 12-14 SMX lag ich nicht ganz richtig. Ich hatte ja eher 12-13 erwartet als 14. Jetzt sind es halt doch die 14 SMX geworden. Dafür halt etwas weniger Takt, als ich mit 12-13 erwartet hätte. Von daher passts auch wieder.

Insgesamt bisher aber ein wirklich enttäuschender "Launch", und das jetzt komplett ohne den ganzen Hype um GK110 und "Titan" zu berücksichtigen. Wenn man das noch dazu nimmt, dann kann ich ihn bisher einfach nur noch als desaströs bezeichnen in meinen Augen :( Ich hoffe ja echt noch, dass die Tester ein etwas positiveres Fazit noch ziehen, aber so recht dran glauben kann ich nicht.

Man kann echt nur hoffen, dass die Karte so wie Sie ist, zu dem Preis wie BLEI in den Regal liegt, und Sie schnell auf <=600€ fällt. Das ist Sie wies scheint wert, aber auf keinen Fall mehr.

Also Vermutlich 680 4GB 470€,Titan + 40%+50€ für 2GB mehr Ram = 700€ und dann die 690 +65% 850€.

Wenn Titan für 800€ kommt wird der Markt noch 100€ runter Regeln siehe 690.Frage ist ob sie dann noch Karten haben. :freak:

http://geizhals.at/de/?phist=772303&age=9999
Viel zu viel. 600€ seh ich noch als halbwegs gerechtfertigt an, aber auf keinen Fall mehr.

Wo sind dort Lautstärke Messungen und die Karte braucht auch dort ca 240Watt wenn man von der 680 ausgeht.Titan wird schneller sein und das ca selbe Verbrauchen.(Bessere Performance pro Watt)
Da sollten wir doch lieber noch unabhängige Tests abwarten, bevor wir uns da ein Urteil bilden ;)

dildo4u
2013-02-19, 00:25:18
Viel zu viel. 600€ seh ich noch als halbwegs gerechtfertigt an, aber auf keinen Fall mehr.


Bitte 6GB 7970 kosten 500€,wenn die Karte 30% schneller ist kommt 600€ nich hin.

http://geizhals.at/de/?cat=gra16_512&xf=132_6144~545_Sapphire#xf_top

MadManniMan
2013-02-19, 00:26:02
Jau, im aktuellen Gefüge wären 650 bis 700 Euro ein guter Preispunkt, wenn sich die ~35 % über der GTX 680 bestätigen, aber eigentlich sollte damit (also der Einführung einer neuen Monsterkarte, egal wie fernab von den anderen Sachen) auch ein Impuls über das gesamte Preisgefüge gehen.

Mal sehen, was sich tut!

dargo
2013-02-19, 00:26:08
Titan wird schneller sein und das ca selbe Verbrauchen.(Bessere Performance pro Watt)
Na Wahnsinn... 20-30% auf Tahiti GE für den doppelten Preis. :uclap: Ok... zieh mal die ~50€ für den doppelten Vram von Titan ab. Wird auch nicht viel besser.

G 80
2013-02-19, 00:27:13
600€ seh ich noch als halbwegs gerechtfertigt an, aber auf keinen Fall mehr.




Als Launch Preis und in den ersten 1-3 Wochen, ok - aber nicht für den Rest des Jahres .... und wmgl noch länger. :freak:

dargo
2013-02-19, 00:29:04
Bitte 6GB 7970 kosten 500€,wenn die Karte 30% schneller ist kommt 600€ nich hin.
Vor paar Seiten hieß es noch 20€ Unterschied zwischen 2GB und 4GB @1500Mhz. Macht bei mir ~30€ zwischen 3 und 6GB. ;) Dass die 6GB Karte @Tahiti GE wesentlich mehr kostet wird wohl andere Gründe haben. Vermutlich auch ein saftiger Aufpreis weils die schnellste Single-GPU mit dem dicksten Vram ist.

Edit:
Man kann es drehen wie man will. Eine Grafikkarte mit einer 7,1 Milliarden Transistoren GPU kann man nicht für 600€ anbieten wenn eine Grafikkarte mit einer 3,54 Milliarden Transitoren GPU für ~400€ angeboten wird. Zumal erstere Karte ein aufwendigeres PCB, eine aufwendigere Kühlung und 3x so viel Speicher hat.

dildo4u
2013-02-19, 00:30:36
Vor paar Seiten hieß es noch 20€ Unterschied zwischen 2GB und 4GB @1500Mhz. Macht bei mir ~30€ zwischen 3 und 6GB. ;) Dass die 6GB Karte @Tahiti GE wesentlich mehr kostet wird wohl andere Gründe haben. Vermutlich auch ein saftiger Aufpreis weils die schnellste Single-GPU mit dem dicksten Vram ist.
Jo und jetzt ist Titan die schnellste Single GPU und muss für 600€ raus warum genau? lol.:rolleyes:

dargo
2013-02-19, 00:33:54
Träum weiter mit deinen 600€.

dildo4u
2013-02-19, 00:35:12
Träum weiter mit deinen 600€.
Lesen ich halte es für lächerlich zu verlangen das NV nur 600€ dafür will wie Skysnake es fordert,achte doch mal drauf was ich zitiert hatte.

Skysnake
2013-02-19, 00:43:15
Bitte 6GB 7970 kosten 500€,wenn die Karte 30% schneller ist kommt 600€ nich hin.

http://geizhals.at/de/?cat=gra16_512&xf=132_6144~545_Sapphire#xf_top
Die Karte ist auch lächerlich überteuert.... :down:

Die HD7970 im Customdesign geht bei ~300€ los. Bis 400€ sind da für nen ausgefallenes GHzEdition Customdesign mit 6 GB noch gerade so im Rahmen, wenn man das NeverSettle Bundle berücksichtigt!

Das wars dann aber auch. Das sind wohl 500€ Unterschied + fehlendes Spielebundle für ~30% Mehrleistung? Und das bei ner neuen Karte im Vergleich zu einer Karte, die jetzt schon seid ~1 Jahr auf dem Markt ist... Da muss einfach was am Preis gehen....

Wo ist sonst der Fortschritt? Preis/Leistung muss genau so steigen wie Performance/Watt....

Alles andere ist für die Mülltonne, da Stagnation...

Und Stagnation ist in der IT-Welt bekanntlich gleich einem Rückschritt....:down:

dargo
2013-02-19, 00:48:53
Diese ganze Geschichte mit den 6GB Vram bei Tahiti GE führt eh zu nichts. Es gibt nur einen Hersteller der 6GB im Programm hat. Keine Konkurrenz, kein Preisdruck.

Skysnake
2013-02-19, 01:01:48
So siehts aus. Deswegen muss man das aber noch lange nicht gut heisen...

Da wird halt der Rahm oben abgeschöpft so gut es nur geht.

Die GTX Titan hat aber praktisch nichts besonderes an sich. Zumindest nicht, was einen derartigen Preis nach den bisherigem Wissensstand rechtfertigt. Zum Launch lass ich mir vielleicht sogar noc mit gutem Willen 700€ eingehen, aber das Ding muss in absehbarer Zeit einfach unter die 600€ Marke fallen, oder knapp drüber bleiben, dann aber ein Vergleichpares Spielebundle wie AMD bringen aktuell.

Für ~30% Mehrleistung >100% Aufschlag ist einfach total überzogen meiner Meinung nach.

dildo4u
2013-02-19, 01:03:15
Mit was anderem kann man Titan aber nicht vergleichen und scheinbar geht die Karte ja weg für den Preis.Gibt sicherlich Enthusiasten,die die im Crossfire für Mulitmonitor Einsatzt nutzen,in die Richtung wird auch Titan verkauft daher die Folie im Tri SLI mit 5xxx Auflösung.

Skysnake
2013-02-19, 01:05:16
Sie ist aber nicht mehr Einzigartig mit der Erscheinung der GTX Titan, und muss damit eigentlich im Preis fallen.

Wie gesagt, die Karten sind eigentlich ziemlich alt, und treten praktisch gegen eine komplett neue Generation an. Da muss einfach was gehen. Das hier ist aus Preis/Leistungssicht aber einfach nen gewaltiger Schritt nach hinten. Selbst wenn man die hohen Launchpreise von vor mehr als einem Jahr bedenkt...

fulgore1101
2013-02-19, 03:59:35
Gibts Information wann von Titan kleinere Ableger kommen? 770 oder 760? Oder bleibt Titan Titan und die 700er kommen noch später?

dildo4u
2013-02-19, 04:07:02
Gibts Information wann von Titan kleinere Ableger kommen? 770 oder 760? Oder bleibt Titan Titan und die 700er kommen noch später?Die Ableger ist die 600 Serie.

Edgecrusher86
2013-02-19, 05:37:19
Er meint sicher einen GK110 Salvage-Part. ;)

Nein, dazu gibt es noch keine Infos wann und ob überhaupt so etwas geplant ist - eventuell bleibt es ja beim GK104 Refresh unterhalb von Titan.

Knuddelbearli
2013-02-19, 05:44:58
das ist doch der GK110 SalvagePart ^^

OgrEGT
2013-02-19, 06:37:38
Es ist sinnlos den Preis zu diskutieren da dieser nicht leistungsgerecht ist. Diese Karte ist in dieser Form für den Massenmarkt nicht gedacht. Demzufolge wird sich der Preis auch nicht nach dessen Gesetzen einpendeln. Die Karte ist ein reines Prestigeprojekt (geworden) da sie sich nicht vernünftig in Masse für den Gamermarkt produzieren lässt. Das ist der große Unterschied zu den Vorgängerserien.

NV hat in dieser Generation erstmalig den Weg verlassen (müssen) den > 500 mm2 Chip für den Massen-Gamermarkt zu bringen. Man darf gespannt sein ob das in Zukunft wieder gelingt...

4Fighting
2013-02-19, 07:01:37
http://www.egypthardware.com/wordpress/wp-content/uploads/19-635x539.png

wieder die ägypter...:biggrin:

Leonidas
2013-02-19, 07:18:38
Ja, vielleicht sind diesesmal die Fakes besser (aka nicht so einfach zu entlarven) .... ich glaub einfach nicht, das man solche HW vor Launch nach Ägypten sendet. Kein dafür entsprechender Markt und keinerlei Sicherheiten.

Knuddelbearli
2013-02-19, 07:20:16
ersteres wären wieder ca 30% ne 680 hat 99xx
extrem kann man nicht viel sagen nur das halt eine 680 3400 Punkte hat schätz also mal das das knapp 4500 sind also wieder 30% ^^



@ Lonaidas theoretisch können sie die Ergebnisse ja auch nur zugespielt bekommen, kann ja gut sein das einige der Redakteure ins Ausland geflüchtet sind ^^

4Fighting
2013-02-19, 07:21:53
Ja, vielleicht sind diesesmal die Fakes besser (aka nicht so einfach zu entlarven) .... ich glaub einfach nicht, das man solche HW vor Launch nach Ägypten sendet. Kein dafür entsprechender Markt und keinerlei Sicherheiten.

Jap und selbst wenn man 1-2 Redaktionen damit ausstattet ist das Risiko erwischt zu werden recht hoch;D

=Floi=
2013-02-19, 07:41:47
Diese Karte ist in dieser Form für den Massenmarkt nicht gedacht. Demzufolge wird sich der Preis auch nicht nach dessen Gesetzen einpendeln. Die Karte ist ein reines Prestigeprojekt (geworden) da sie sich nicht vernünftig in Masse für den Gamermarkt produzieren lässt. Das ist der große Unterschied zu den Vorgängerserien.

NV hat in dieser Generation erstmalig den Weg verlassen (müssen) den > 500 mm2 Chip für den Massen-Gamermarkt zu bringen. Man darf gespannt sein ob das in Zukunft wieder gelingt...


käse

M4xw0lf
2013-02-19, 07:55:40
Ja, vielleicht sind diesesmal die Fakes besser (aka nicht so einfach zu entlarven) .... ich glaub einfach nicht, das man solche HW vor Launch nach Ägypten sendet. Kein dafür entsprechender Markt und keinerlei Sicherheiten.

Bilder von der echten Karte hatte der Ägypter auch als erstes - und wer sagt, dass er sich IN Ägypten aufhält? :wink:

mr coffee
2013-02-19, 08:21:29
Vielleicht ist es auch Mursi :-)

AffenJack
2013-02-19, 08:27:17
Ja, vielleicht sind diesesmal die Fakes besser (aka nicht so einfach zu entlarven) .... ich glaub einfach nicht, das man solche HW vor Launch nach Ägypten sendet. Kein dafür entsprechender Markt und keinerlei Sicherheiten.

Kein Markt? Kommt ganz drauf an. Du vergisst das Egypthardware auch den ganzen arabischen Markt bedienen kann und wieviele Hardwareseiten von dort kennt man denn hier? Wenn Egypthardware da groß ist, dann erreicht man dort genug Kunden und solche Karten sind doch perfekt für die Scheichskinder.

G 80
2013-02-19, 08:38:59
Und dafür dann Egypt HW?

Eher Al-Saud HW oder Rosenblatt HW .... je nachdem.

Das wäre so als würde eine Österreichische HW Bude priorität kriegen, der Rest von Europa nichts, aber ein Martk ist ja da ....

fondness
2013-02-19, 08:40:02
War nicht unser Konsens damals, dass wir das kaputte negative LOD in der Praxis nicht bemerken? Ich hab wirklich nie was gesehen und ich hab es in BF3, Shogun 2, AVP3 und Just Cause 2 benutzt.

Na zumindest gibt es hier noch einen der sich noch an der erinnern kann was er vor kurzem gesagt hat und sich nicht wie eine Fahne im Wind dreht. Schon mehr als bezeichnend wie hier andere, die jahrelang das negative LOD bei NV herunter gespielt haben plötzlich herum flamen. Aber es ist definitiv so das das zumindest laut Filtertester NV aktuell die weniger flimmeranfällige negative LOG-Verschiebung aufweisen kann.

Botcruscher
2013-02-19, 08:47:35
das ist doch der GK110 SalvagePart ^^

Erstens das und zweitens gehen die anderen Karten in den Profimarkt.

Gaestle
2013-02-19, 08:55:42
Und drittens sind nur 10k geplant. Somit dürfte es auch wenig "Ausschuss" geben.

Ich verstehe nicht, warum manche hier so reagieren. Es wird seid Monaten gepredigt, was sich jetzt offiziell bestätigt.

Das einzig überraschende ist vielleicht, dass man die DP-Fähigkeiten NICHT beschnitten hat, bei Titan. Ansonsten liegt die Leistung absolut im Soll, was die Vorhersagen und die relative Stellung innerhalb der Chipfamilie angeht, mit der ebenfalls seit langem bekannten Ausnahme, dass GK104 ein bisschen schneller ist, als für seine Stellung in der Chipfamilie üblich.

Dass schon GK104 unüblich hochpreisig ist, ist ebenfalls seit dessen Erscheinen bekannt. Und dass sowohl NV (nach den Tegra-Problemen) AMD (nach dem Bulldozer-Problem) diese Situation gut gebrauchen können, ist ebenfalls nicht neu.

Dass die letzten 30% Leistung überproportional teuer sind und zwar in Bezug auf Preis und Hardwareaufwand, kennt man seit GeForce 2 vs. Geforce 2 MX. Also auch ein ganz ganz alter Hut.

Statt dem ganzen Gejammer wpürden mich persönlcih mehr technische Spekus interessieren. Das ist schließlich ein Speku- und kein Jammerthread.

Botcruscher
2013-02-19, 09:03:04
TSMC und die begrenzte Liefermenge von 28nm Wafern kommt da noch entscheidend dazu. Einen Preiskampf gab es nicht dank der vergleichbaren Leistung. Für einen frühen GK110 waren dann weder die Wafer, noch der Wille einen Preisdruck zu erzeugen, vorhanden. Eigentlich alles seit dem Start von GK104 bekannt.

MadManniMan
2013-02-19, 09:14:28
@ Lonaidas theoretisch können sie die Ergebnisse ja auch (...)

X-D

http://cdn.memegenerator.net/instances/400x/35074047.jpg

SRKTHX4SPAM ;(

G 80
2013-02-19, 09:15:28
Was heißt Überproportional? Wenn die Karte zB 30% auf eine 7970 drauflegt (320 im Land der Teuren Karten) und Titan irgendwas zwischen 800-900 kostet kann ich das ganz bequem mit 1,3^4 näherungsweise Beschreiben.


Leistungsfaktor als Preisfaktor HOCH gdmn 4 (für 920...)!

Wer das nicht Krank findet dem ist echt nicht zu helfen, va da AMD ja seine Bundle Aktion hat.

schreiber
2013-02-19, 09:17:58
für 10000 und bissl profimarkt baut man keinen Chip. da kommt auf jeden Fall mehr.

Godmode
2013-02-19, 09:19:01
für 10000 und bissl profimarkt baut man keinen Chip. da kommt auf jeden Fall mehr.

Eventuell gibt es da noch geheime Aufträge von denen wir gar nichts wissen? Also abseits des Titan Super Computers. NSA und Co. können ja auch gar nicht genug Leistung haben...

Spasstiger
2013-02-19, 09:19:01
Bei all der berechtigten Preis- und Produktkritik muss man aber auch mal anerkennen, dass Nvidia seit dem G80 keine derart dominante GPU mehr am Markt hatte. NV kann in diesem Jahr nach Belieben nachlegen, wenn AMD "aufmucken" sollte. Die Kepler-Architektur ist Nvidias bester Wurf seit dem G80.
Ob AMD mit einem größeren Die überhaupt soviel dazu gewinnen könnte, dass man allen denkbaren GK110-Varianten Paroli bieten könnte, ist fraglich. Die Skalierung von Pitcairn zu Tahiti ist ja schon suboptimal. Ok, da kommt noch der ganze GPGPU-Kram dazu, aber den schleppt GK110 ja auch mit sich rum.

Skysnake
2013-02-19, 09:21:48
...
Statt dem ganzen Gejammer wpürden mich persönlcih mehr technische Spekus interessieren. Das ist schließlich ein Speku- und kein Jammerthread.
Was willst du darüber noch spekulieren? :ugly:
nVidia hat doch die Specs schon selbst raus gehauen -.-

TSMC und die begrenzte Liefermenge von 28nm Wafern kommt da noch entscheidend dazu. Einen Preiskampf gab es nicht dank der vergleichbaren Leistung. Für einen frühen GK110 waren dann weder die Wafer, noch der Wille einen Preisdruck zu erzeugen, vorhanden. Eigentlich alles seit dem Start von GK104 bekannt.
Na, das kann ich mir beim besten Willlen nicht mehr vorstellen. AMD ist ja z.B: in der Lage inzwischen ganz gute Angebote zu machen (zumindest im Vergleich) und es sollten sich ja auch Ende letzten Jahres die Kapazitäten deutlich steigern. Also ohne irgendwelche Meldungen bzgl unzureichenden Kapazitäten geb ich auf die Spekulatione einfach gar nichts.

Es gibt einfach gar keine Anzeichen dafür. Das Kapazitätsgejammer der Hersteller ist schon LANGE verklungen...

nVidia ist sich seiner Fan(boy)s halt voll auf bewusst und schröpft Sie wos nur geht. Die verteidigen Sie ja auch noch dafür... (Siehe Luxx)

Was will man mehr?

PS:
Luxx ist wirklich lustig. Da wird wieder schöngeredet, und jetzt mit möglichem Wunder-OC um sich geschmissen ;D Und die Spannung soll ja auch wieder freier sein, und deswegen ja auch richtiges OC zulassen usw :rolleyes:

:popcorn: Aber ne GANZ große Tüte dazu, und der Tag wird heiter, egal wie schlecht das Wetter ist ;D

EDIT:
Bei all der berechtigten Preis- und Produktkritik muss man aber auch mal anerkennen, dass Nvidia seit dem G80 keine derart dominante GPU mehr am Markt hatte. NV kann in diesem Jahr nach Belieben nachlegen, wenn AMD "aufmucken" sollte. Die Kepler-Architektur ist Nvidias bester Wurf seit dem G80.
Ob AMD mit einem größeren Die überhaupt soviel dazu gewinnen könnte, dass man allen denkbaren GK110-Varianten Paroli bieten könnte, ist fraglich. Die Skalierung von Pitcairn zu Tahiti ist ja schon suboptimal. Ok, da kommt noch der ganze GPGPU-Kram dazu, aber den schleppt GK110 ja auch mit sich rum.

nVidia kann da rein gar nichts mehr machen...

Du darfst nicht vergessen, dass du hier Chips die als erste 28nm Chips auf den Markt kamen, bzw kurz danach (Tahiti XT2) mit Chips vergleichst, die >=9 Monate später in Produktion gingen. In GK110 sind sicher die ersten Erfahrungen aus der 28nm Serienproduktion eingegangen. Zudem hatte man jetzt >3 Monate Zeit, um sich die GeForce Kartezurecht zu legen...

Das wird ziemlich sicher das Optimum sein. Man hat ja anscheinend im Vergleich zu K20(x) schon einiges an Effizienz rausgeholt. Die 867 MHz bei 250W sind schon ne Nummer, wenn man an die Leistungsaufnahme der K20x denkt! Da kann man echt nicht mehr viel erwartet. Die möglichen Stellschrauben fehlen da einfach.

Was bleibt einem denn noch? Ok, nen neues Stepping inkl eventuellem Bugfixing, aber das wars dann auch. Wobei ja nicht mal klar ist, ob man das nicht schon gemacht hat. PCI-E 3.0 funktioniert ja scheinbar jetzt.

Godmode
2013-02-19, 09:26:18
PS:
Luxx ist wirklich lustig. Da wird wieder schöngeredet, und jetzt mit möglichem Wunder-OC um sich geschmissen ;D Und die Spannung soll ja auch wieder freier sein, und deswegen ja auch richtiges OC zulassen usw :rolleyes:


An irgendwas muss man sich klammern, falls die 30% wirklich stimmen sollten. Warum sonst nenne ich eine Karte Titan, etwa um die Kundschaft zu veräppeln?

AnarchX
2013-02-19, 09:29:17
Bei all der berechtigten Preis- und Produktkritik muss man aber auch mal anerkennen, dass Nvidia seit dem G80 keine derart dominante GPU mehr am Markt hatte. NV kann in diesem Jahr nach Belieben nachlegen, wenn AMD "aufmucken" sollte. Die Kepler-Architektur ist Nvidias bester Wurf seit dem G80.

Mal sehen wie sich GK110 in Compute-Benchmarks behauptet, wo GK104 deutliche Probleme gegen Tahiti hatte.

Aber im Bezug auf die Gaming-Leistung ist NV wohl durchaus deutlich im Vorteil. Vielleicht darf EVGA noch einen Prestige Titan mit WaKü und 10-15% mehr Leistung bauen. Mit den 4Gbit Speichermodulen könnte man 2013 wohl auch noch eine 12GiB Version bauen. :freak:


Luxx ist wirklich lustig. Da wird wieder schöngeredet, und jetzt mit möglichem Wunder-OC um sich geschmissen ;D Und die Spannung soll ja auch wieder freier sein, und deswegen ja auch richtiges OC zulassen usw :rolleyes:

Mit ordentlicher Kühlung konnte man NVs >500mm² GPUs doch häufig an die Taktgrenzen des Prozesses bringen. Durchaus denkbar, dass man hier auch ~1,1GHz erreichen kann.

fondness
2013-02-19, 09:32:51
Die Vorgehensweise von NV ist ja auch sehr amüsant, zuerst schränkt man die Leute bei Overclocking mächtig ein und dann bringt man eine "Titan"-Karte wo endlich wieder "normales" OCing möglich sein soll und alle jubeln. :D

So kann man auch Features verkaufen, wenn man schon keine neuen Features hat.

Dural
2013-02-19, 09:34:17
wenn die 40% eintreffen wird ein voller GK110 mit etwas mehr takt rund 50% schneller sein als eine GTX680

ich kann mich gar nicht mehr erinnern wann der topdog chip so einen grossen vorsprung hatte. :rolleyes:


aber die AMDboys müssen alles schlecht reden weil AMD selber zu doof ist solche chips herzustellen...

und nein der Titan haut mich nicht vom hocker und AMD ist mit dem Tahiti gar nicht mal so schlecht

AnarchX
2013-02-19, 09:36:49
wenn die 40% eintreffen wird ein voller GK110 mit etwas mehr takt rund 50% schneller sein als eine GTX680

ich kann mich gar nicht mehr erinnern wann der topdog chip so einen grossen vorsprung hatte. :rolleyes:
Bei GF114 vs GF110 gab es diesen Unterschied doch häufiger. Zumal GF110 bei Tessellation und viel Geometrie noch einen grö0eren Vorteil hatte: 4 GPCs/16Tess. vs 2GPC/4Tess.
Mit 5 unveränderten GPCs wäre GK110 hier kaum schneller als GK104.

Dural
2013-02-19, 09:38:06
nein da waren es auch genau die 40% im schnitt

http://www.computerbase.de/artikel/grafikkarten/2011/test-nvidia-geforce-gtx-560/5/

in 1080 und 4AA/16AF sogar nur 33%

Knuddelbearli
2013-02-19, 09:42:11
Bei all der berechtigten Preis- und Produktkritik muss man aber auch mal anerkennen, dass Nvidia seit dem G80 keine derart dominante GPU mehr am Markt hatte. NV kann in diesem Jahr nach Belieben nachlegen, wenn AMD "aufmucken" sollte. Die Kepler-Architektur ist Nvidias bester Wurf seit dem G80.
Ob AMD mit einem größeren Die überhaupt soviel dazu gewinnen könnte, dass man allen denkbaren GK110-Varianten Paroli bieten könnte, ist fraglich. Die Skalierung von Pitcairn zu Tahiti ist ja schon suboptimal. Ok, da kommt noch der ganze GPGPU-Kram dazu, aber den schleppt GK110 ja auch mit sich rum.


was ist an dem GK110 ( mit 14 SMX ) bitte dominant ?
4870 vs gtx 285 war ca das gleiche und 6970 vs 580 nicht weit entfernt

Dazu bietet AMD mit GCN jetzt GPGPU mäßig die gleiche Hardware wie NV
NV hat ein fast 50% größeres DIE und liegt damit scheinbar ca 30% vorne

also ich sehe da nichts dominantes ...

Knuddelbearli
2013-02-19, 09:44:09
und damit ihr mich nicht falsch versteht wenn Titan wirklich freies OC ermöglicht und max 649€ kostet überlege ich selber nen kauf ^^
meine 400W GTX 480 ( 960 Mhz ) langweilt mich langsam ^^

Dimon
2013-02-19, 09:48:33
Kannst sie mir dann ja schenken :freak:

Steht nunmehr eig. sicher fest das die titan nicht im vollausbau kommt? wie soll dann die nächste titan heissen? Etwa übertitan?

mfg

Iruwen
2013-02-19, 09:49:14
Supertitan halt.

Skysnake
2013-02-19, 09:51:24
Bei all der berechtigten Preis- und Produktkritik muss man aber auch mal anerkennen, dass Nvidia seit dem G80 keine derart dominante GPU mehr am Markt hatte. NV kann in diesem Jahr nach Belieben nachlegen, wenn AMD "aufmucken" sollte. Die Kepler-Architektur ist Nvidias bester Wurf seit dem G80.
Ob AMD mit einem größeren Die überhaupt soviel dazu gewinnen könnte, dass man allen denkbaren GK110-Varianten Paroli bieten könnte, ist fraglich. Die Skalierung von Pitcairn zu Tahiti ist ja schon suboptimal. Ok, da kommt noch der ganze GPGPU-Kram dazu, aber den schleppt GK110 ja auch mit sich rum.
Genug Stellschrauben hätten Sie auf jeden Fall mal. Die Frage ist nur, ob Sie diese auch richtig einsetzen, oder überhaupt anfassen...

Neuer<->gereifter Prozess
Überhöhte Spannungen->absenken selbiger
Neue Architektur->zweite Generation einer Architektur
1:4 -> 1:2 DP:SP,wobei das sich nur für den TopDog lohnen würde, und eher auf Compute abziehlen würde. Da nVidia aber jetzt den ersten Schritt hin zu unterschiedlichen Taktraten für SP und DP gemacht hat (1,3 und 4,5 TFlops, was nur mit unterschiedlichen Taktraten geht), könnte AMD da eventuell nachziehen. Das wäre für nVidia wohl ein ziemlicher Brocken
Alter Frontend->neues Frontend Alternativ Schmales altes Frontend -> breites altes Frontend
~150mm² platz für nen größeren Chip.

Also da hat AMD schon noch ne menge Spielraum. Ist halt die Frage, ob Sie es nutzen, und die Frage ist WIRKLICH berechtigt. Für Gamer entscheidend wird wohl die Frage sein, ob man sich ein neues Frontend gönnt, oder eben nicht.

Für GPGPU Leute wäre 1:2 DP:SP der "heilige Graal".

Ich bezweifle aber STARK das beides kommen wird!

Am wahrscheinlichsten (oder sagen wir mal so, das was ich mir am ehesten erhoffe. Ich spreche mir hier selbst einfach mal die Objektivität ab!) ist, ist das man den Pitcairn-Nachfolger etwas aufbläht für Gamer, und den Tahiti-Nachfolger die DP:SP Verbesserungen zu teil wird, damit man im GPGPU-Markt richtig rocken kann.

An irgendwas muss man sich klammern, falls die 30% wirklich stimmen sollten. Warum sonst nenne ich eine Karte Titan, etwa um die Kundschaft zu veräppeln?
NEIN :eek:

Sag doch so was nicht! DAS IST BLASPHEMIE!!!!:ubash:http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=45044&stc=1&d=1361263669:ubash2:


Mit ordentlicher Kühlung konnte man NVs >500mm² GPUs doch häufig an die Taktgrenzen des Prozesses bringen. Durchaus denkbar, dass man hier auch ~1,1GHz erreichen kann.
Das sind 50% mehr Takt als bei der K20x und noch immer 27% mehr Takt, als im maximalen Turbo. Das ist ziemlich sportlich. Unter Wasser will ich es aber nicht kategorisch ausschließen. Man sollte dann aber nicht vor >350W Leistungsaufnahme zurückschrecken. Und genau hier habe ich eben so meine Bedenken bei dem Refdesign von nVidia. Wir erinnern uns doch alle an die GTX590.

aufkrawall
2013-02-19, 09:54:39
Na zumindest gibt es hier noch einen der sich noch an der erinnern kann was er vor kurzem gesagt hat und sich nicht wie eine Fahne im Wind dreht. Schon mehr als bezeichnend wie hier andere, die jahrelang das negative LOD bei NV herunter gespielt haben plötzlich herum flamen. Aber es ist definitiv so das das zumindest laut Filtertester NV aktuell die weniger flimmeranfällige negative LOG-Verschiebung aufweisen kann.
Du kannst gerne versuchen, mich auf inhaltlicher Ebene zu widerlegen, aber ansonsten spar dir doch bitte das Getrolle.

Godmode
2013-02-19, 09:55:46
Das sind 50% mehr Takt als bei der K20x und noch immer 27% mehr Takt, als im maximalen Turbo. Das ist ziemlich sportlich. Unter Wasser will ich es aber nicht kategorisch ausschließen. Man sollte dann aber nicht vor >350W Leistungsaufnahme zurückschrecken. Und genau hier habe ich eben so meine Bedenken bei dem Refdesign von nVidia. Wir erinnern uns doch alle an die GTX590.

Genau so etwas wünsche ich mir. Dafür würde ich sogar ne Wakü anschaffen. Dann kann der von mir aus auch 400W saufen. Zwei im SLI und gut ists.

boxleitnerb
2013-02-19, 09:57:47
Galaxy ist doch eher ne unbekannte Marke und sicherlich kein Premium. Und ich dachte, es gibt nur Referenz, auch bei den Taktraten:

GALAXY GeForce GTX Titan is still part of the Kepler family based on the GK110 the core, based on 28nm process technology, built 2688 stream processors, PCIe 3.0 x16 bus interface, will be equipped with 384 6GB GDDR5 memory, support for DirectX 11.1, Shader Model 5.0 , supports OpenGL 4.3, support Open CL 1.2.
GALAXY GeForce GTX Titan core frequency of 875MHz, but did not use the GPU Boost technology. Aspects of memory, GTX Titan used GDDR5 memory equivalent frequency 6008MHz, Memory Interface 384bit memory capacity will reach 6GB.
The card uses a dual-slot design, while the TDP is designed for 235W, 8pin +6 pin power connector.
Interfaces, GeForce GTX Titan will be equipped with two DVI, one HDMI and one DisplayPort interface.

http://www.abload.de/thumb/8241724601svk.jpg (http://www.abload.de/image.php?img=8241724601svk.jpg)

AnarchX
2013-02-19, 09:58:17
Das sind 50% mehr Takt als bei der K20x und noch immer 27% mehr Takt, als im maximalen Turbo. Das ist ziemlich sportlich.
GF110: M2090 mit 650MHz, EVGA mit 900MHz Werks-OC, User-OC teilweise 1GHz.

Gaestle
2013-02-19, 09:58:30
Was heißt Überproportional? Wenn die Karte zB 30% auf eine 7970 drauflegt (320 im Land der Teuren Karten) und Titan irgendwas zwischen 800-900 kostet kann ich das ganz bequem mit 1,3^4 näherungsweise Beschreiben.

Das ist quasi seit Jahrzehnten so. Das ist der ganz normale High-End-"Bonus". Das besipiel GeForce2 vs. GeForce 2 MX hatte ich bereits genannt, es gibt bei NV noch weitere Beispiele (selbst bis in TNT-Zeiten zurück), man kann aber auch bei ATi entsprechende Beispiele finden.

Und bitteschön innerhalb eines Herstellers bleiben. Und da lautet der Vergleich: GK104 vs. GK110 und dort ist es die 1,4-fache Leistung für den 2,2-fachen Preis. Aller uralter, kalter Kaffee.

Bei all der berechtigten Preis- und Produktkritik muss man aber auch mal anerkennen, dass Nvidia seit dem G80 keine derart dominante GPU mehr am Markt hatte. NV kann in diesem Jahr nach Belieben nachlegen, wenn AMD "aufmucken" sollte.

Ich denke Du siehst das zu optimistisch. GK110 ist sicherlich am Limit.
Der zentrale Punkt ist IMHO aber, dass AMD nicht "aufmucken" wird. Sie müssen die Konsolendeals über die Bühne kriegen, und da wurde angeblich nicht nur IP verkauft, sondern Chips. Die APUs kommen, auch da geht es um Chips. Also muss AMD in beiden Fällen auch die Produktion wuppen. Für AMD ist die Situation im kleiner werdenden GraKa-Markt nicht schlecht. Warum sollten die in einem schrumpfenden Markt OHNE NOT Kohle reininvestieren? Sie haben es schlicht nicht nötig und können ihre knappen Ressourcen dort nutzen, wo es strategisch und finanziell zu besseren Ergebnissen führt.

Mancko
2013-02-19, 10:01:33
Was hier schon wieder für ein Theater gemacht wird um Preise und bla. Die Karte ist noch überhaupt nicht draußen, es gibt keine Reviews und die liegt auch noch nicht seit ein paar Wochen in den Regalen so dass man ein Preisbild definieren kann.

Das sich Nvidia die Mehrleistung bezahlen lassen wird ist doch klar. 30% und mehr Vorsprung (k.a. wieviel es jetzt am Ende im Schnitt ist) sind erstmal deutlich genug um bei Messungen aufzufallen und um es auch beim Spielen zu spüren. Das kann man umgedreht beim Duell Thahiti vs GK104 so nicht sagen. Das ist doch sehr nah beieinander und eher eine Brühe.

Das Nvidia aller Voraussicht nach den Leistungsvorsprung über weite Strecken des Jahres 2013 haben dürfte ist sicherlich ebenfalls ein Faktor der in die Preisbildung eingehen wird. High End Leistung war noch nie proportional zur Mehrperformance. In den Grenzbereichen muss man eben überproportional für gebotene Mehrleistung bezahlen. Dass AMD nun permanent seine Produkte verramscht ist ja nun auch nicht unbedingt Nvidia's Problem. Die billigen Preise reichen offenbar noch nicht also muss man noch haufenweise Beigaben dazu packen.

Ich sags mal so. Man kann sich sein Image mit zu günstigen Preisen halt auch kaputt machen. Gut bei AMD gabs noch nie ein gescheites Image - weder bei GPUs noch bei CPUs. Insofern führen Sie nur das weiter was sie schon immer machen. Bei Nvidia ist die Sache ein bisschen anders. Die haben schon immer von Ihrer starken Brand ein wenig mitverdient und werden das sicher auch weiter so pflegen wollen. Ihr werdet jetzt auch nicht erleben, dass Apple sein neuestes iPhone preislich gleich oder unterhalb der Konkurenz ansiedelt obwohl die vielleicht sogar gleichwertig ist. Die Premium Marke möchte halt gepflegt werden.

Außerdem muss Nvidia auch darauf achten professionelle Käufer nicht zu sehr zu vergraulen indem gleichwertige Consumer Hardware zu günstig angeboten wird. Man kann zwar für Treiber, Software und Support einen gewissen Mehrpreis rechtfertigen aber auch das muss halt noch ein rundes Bild abgeben.

Skysnake
2013-02-19, 10:03:21
GK104 ist aber schon maßlos überteuert im Vergleich zur Konkurrenz, und die muss man halt IMMER berücksichtigen...

Auch nVidia lebt in keiner Seifenblase und muss sich der Konkurrenz stellen...

Iruwen
2013-02-19, 10:05:30
Wenn man sich die Quartalszahlen ansieht muss sich NV offenbar für seine Managemententscheidungen im Gegensatz zu AMD nicht kritisieren lassen.

Skysnake
2013-02-19, 10:15:06
Der Bummerang kommt aber erst nach halber Strecke zurück ;)

Bis jetzt waren die 28nm Entscheidungen eigentlich ganz ok. Am Ende wird aber abgerechnet. nVidia hat halt am Anfang schon gut zugelangt, und hat daher nicht mehr so viel Spiel nach oben.

Ich weiß jetzt nicht wo es war. Ich glaub hier im HD8k Thread, da war ne Meldung zu AMD, dass Sie im Januar mehr Karten der HD7k verkauft hätten, als zu jedem Zeitpunkt zuvor.

Also ein abschließendes Fazit, würde ich da WIRKLICH erst am Ende der 28nm Produktion ziehen.

boxleitnerb
2013-02-19, 10:22:56
Nvidia kann die Preise immer noch senken wenn sie müssen, dadurch verschwinden die hohen Verkäufe bis jetzt ja nicht :)

Im XS Forum meint einer, Galaxy wäre nicht der einzige Partner, der die 875 ohne Boost bringt, es gäbe auch eine 900MHz Version von einem anderen AIB.

Knuddelbearli
2013-02-19, 10:26:37
wenn ich da an den aufstand damals bei der 280er denk kann das NV eher nicht auch wenn NV Fanboys sehr vergesslich sind ^^

Ailuros
2013-02-19, 10:37:54
Was hier schon wieder für ein Theater gemacht wird um Preise und bla. Die Karte ist noch überhaupt nicht draußen, es gibt keine Reviews und die liegt auch noch nicht seit ein paar Wochen in den Regalen so dass man ein Preisbild definieren kann.

Und es gibt wieviele Chancen genau dass der MSRP nicht bei $899 liegen wird bzw. wieviele Chancen genau dass finale reviews zeigen werden dass Titan um 60-80% im Durschnitt schneller sein wird als eine GTX680? Tut mir leid aber der breitesten Mehrzahl der Verbraucher ist eben der Endpreis nicht egal eben weil nur sehr wenige mit Geld nur so herumschmeissen koennen.

Das sich Nvidia die Mehrleistung bezahlen lassen wird ist doch klar. 30% und mehr Vorsprung (k.a. wieviel es jetzt am Ende im Schnitt ist) sind erstmal deutlich genug um bei Messungen aufzufallen und um es auch beim Spielen zu spüren. Das kann man umgedreht beim Duell Thahiti vs GK104 so nicht sagen. Das ist doch sehr nah beieinander und eher eine Brühe.

Natuerlich ist alles "klar". Es ist aber auch beiden IHVs "klar" und wohl NV noch mehr dass sie mit solchen Strategien zu hoeheren Margen aber kleineren Volumen am Ende kommen. Anders ein Fortschritt der durch problematische Prozesse gebremst wird, wird durch die IHVs selber um noch ein Stueck noch mehr gebremst.

Das Nvidia aller Voraussicht nach den Leistungsvorsprung über weite Strecken des Jahres 2013 haben dürfte ist sicherlich ebenfalls ein Faktor der in die Preisbildung eingehen wird. High End Leistung war noch nie proportional zur Mehrperformance. In den Grenzbereichen muss man eben überproportional für gebotene Mehrleistung bezahlen. Dass AMD nun permanent seine Produkte verramscht ist ja nun auch nicht unbedingt Nvidia's Problem. Die billigen Preise reichen offenbar noch nicht also muss man noch haufenweise Beigaben dazu packen.

Was aber genau einem um 80% hoeheren MSRP fuer Titan gegen GTX580 genau gerechtfertigen soll hat mir noch keiner erklaeren koennen. Es ist zwar schoen wenn man in NV's Verteidigung ihre eigenen Interessen unterstuetzen will, aber ob es wirklich das eigentliche Interesse des Endverbrauchers unterstuetzt kann wohl keiner so leicht erklaeren.

Von mir aus kann NV so weiter machen, aber die Mehrzahl der Verbraucher sind auch keine besoffene Idioten die sich immer und alles gefallen lassen, oder die auch nicht verstehen koennen was dahinter liegt.

Ich sags mal so. Man kann sich sein Image mit zu günstigen Preisen halt auch kaputt machen. Gut bei AMD gabs noch nie ein gescheites Image - weder bei GPUs noch bei CPUs. Insofern führen Sie nur das weiter was sie schon immer machen. Bei Nvidia ist die Sache ein bisschen anders. Die haben schon immer von Ihrer starken Brand ein wenig mitverdient und werden das sicher auch weiter so pflegen wollen. Ihr werdet jetzt auch nicht erleben, dass Apple sein neuestes iPhone preislich gleich oder unterhalb der Konkurenz ansiedelt obwohl die vielleicht sogar gleichwertig ist. Die Premium Marke möchte halt gepflegt werden.

Na mahl sehen wie lange der Trend im PC GPU Markt noch weitergehen wird oder ob NV am Ende mehr Kundschaft in den SFF mobilen Markt indirekt zuschickt und davon wird natuerlich Samsung, Qualcomm und Apple am meisten profitieren und NV wird fuer eine geraume Zeit den kuerzeren ziehen.

Außerdem muss Nvidia auch darauf achten professionelle Käufer nicht zu sehr zu vergraulen indem gleichwertige Consumer Hardware zu günstig angeboten wird. Man kann zwar für Treiber, Software und Support einen gewissen Mehrpreis rechtfertigen aber auch das muss halt noch ein rundes Bild abgeben.

Wieso hat Titan offiziell die gleichen Geometrie bzw. DP FLOP Raten freigeschaltet wie Kepler Quadros und Teslas? Was genau wird ein Profi bzw. eine HPC relevante Organisation mit den pissat Geometrie/DP FLOP Raten auf Titan genau anstellen koennen?

Wenn man sich die Quartalszahlen ansieht muss sich NV offenbar für seine Managemententscheidungen im Gegensatz zu AMD nicht kritisieren lassen.

Und wie sieht die Projektion seitens NV selber fuer das naechste Quartal aus und wieso genau? Der springende Punkt ist hier nicht ob man kurzfristig mit hohen Margen fett kassieren kann, sondern ob und wie lange sich der Trend aufrecht erhalten kann bis das Ganze als boomerang wieder zurueck ins Gesicht knallt.

NVIDIA's Kerngeschaeft ist bis jetzt standalone GPUs, aber fuer wie lange genau noch wenn man alle R&D Investitions-Projekte die momentan im Hintergrund ablaufen mitberechnet? Ich bin jetzt so brutal frech und behaupte dass NV so viel Moneten schaufelt um eine moegliche temporaere Firmenkrise um einiges leichter ueberbruecken zu koennen. Und jetzt versuch mal mich ueber das Gegenteil zu ueberzeugen wenn die brutale Mehrzahl von Semis mehr und mehr Ruecksatz pro Jahr sehen und nur mit wenigen Aussnahmen wie Qualcomm brutale Wachstumsraten. Wie waere es mit einer globalen Perspektive als Abwechslung?

Sunrise
2013-02-19, 10:45:05
Außerdem muss Nvidia auch darauf achten professionelle Käufer nicht zu sehr zu vergraulen indem gleichwertige Consumer Hardware zu günstig angeboten wird. Man kann zwar für Treiber, Software und Support einen gewissen Mehrpreis rechtfertigen aber auch das muss halt noch ein rundes Bild abgeben.
In diesem Sektor/Umfeld sind ganz andere Dinge relevant als der Preis, wie du ja eigentlich auch schon angesprochen hast.

NV will auf Teufel komm raus die schnellste single GPU liefern. Man pappt ein paar "Gamer"-Features dazu und fertig ist Titan für den "Gamer"-Markt. Warum sich hier überhaupt die Mühe machen, das Ding zu limitieren. Der Gamer kann damit rein garnichts anfangen.

Der Mehrpreis auf eine GTX580 ist einfach abartig und nur dadurch zu rechtfertigen, dass man eben auf absehbare Zeit die schnellste single GPU haben wird.

boxleitnerb
2013-02-19, 10:53:21
Von der ganzen Preisdiskussion mal abgesehen hat sich Nvidias Lage aber schon gebessert im Vergleich zur letzten Generation. Da war man gerade mal 10-15% schneller mit der 580 als die 6970 bei klar höherem Verbrauch. Jetzt wird man sicherlich im Schnitt diesen Vorsprung verdoppeln, also 20-30% bei vermutlich sehr ähnlichem Verbrauch zur 7970 GE. Das finde ich schon beachtlich.

Ailuros
2013-02-19, 11:00:13
Von der ganzen Preisdiskussion mal abgesehen hat sich Nvidias Lage aber schon gebessert im Vergleich zur letzten Generation. Da war man gerade mal 10-15% schneller mit der 580 als die 6970 bei klar höherem Verbrauch. Jetzt wird man sicherlich im Schnitt diesen Vorsprung verdoppeln, also 20-30% bei vermutlich sehr ähnlichem Verbrauch zur 7970 GE. Das finde ich schon beachtlich.

Ja aber auch nur weil Curacao wohl um 2 Quartale spaeter ankommt :P

boxleitnerb
2013-02-19, 11:01:55
Lass Curacao nochmal 15% effizienter werden, Nvidia hätte immer noch einen kleinen Perf/W-Vorteil, wo sie vorher bestenfalls Gleichstand hatten. Im Highend jedenfalls ;)

N0Thing
2013-02-19, 11:07:24
Vor paar Seiten hieß es noch 20€ Unterschied zwischen 2GB und 4GB @1500Mhz. Macht bei mir ~30€ zwischen 3 und 6GB. ;) Dass die 6GB Karte @Tahiti GE wesentlich mehr kostet wird wohl andere Gründe haben.

Die 6GB Version der HD 7970 kann man als eine Sonderanfertigung ansehen, die auf dem Endkundenmarkt dazu auch keine echte Nachfrage vorfindet. 3GB sind bei den üblichen Full-HD Auflösungen schwer voll zu bekommen, wenn man seine Spiele nicht mit Texturmods versieht.


Galaxy ist doch eher ne unbekannte Marke und sicherlich kein Premium.

Afaik ist Galaxy außerhalb von Europa eine sehr bekannte Marke und sie bieten oft Premium-Modelle an. Sogar hier in Europa: http://geizhals.de/eu/885089

M4xw0lf
2013-02-19, 11:12:17
Galaxy/KFA² hatten auch Fermis mit dem Arcitc Cooling Xtreme drauf - wenn das mal kein Premium ist, weiß ich auch nich ^^

Henroldus
2013-02-19, 11:25:18
Von der ganzen Preisdiskussion mal abgesehen hat sich Nvidias Lage aber schon gebessert im Vergleich zur letzten Generation. Da war man gerade mal 10-15% schneller mit der 580 als die 6970 bei klar höherem Verbrauch. Jetzt wird man sicherlich im Schnitt diesen Vorsprung verdoppeln, also 20-30% bei vermutlich sehr ähnlichem Verbrauch zur 7970 GE. Das finde ich schon beachtlich.
moment mal, du vergleichst die künftige Titan-Generation also mit der aktuellen von AMD?
die HD7k serie kam vor der GTX6** heraus und ist noch immer schneller(Single GPU)
Klar wird sich Nvidia damit wieder(mit der Brechstange->Preis) an die Spitze setzen. Im bezahlbaren Rahmen sind sie aktuell aber nicht Konkurrenzfähig.
Rein Performance/Preis mäßig landet man zwangsläufig bei AMD.

Duplex
2013-02-19, 11:29:01
Galaxy/KFA² hatten auch Fermis mit dem Arcitc Cooling Xtreme drauf - wenn das mal kein Premium ist, weiß ich auch nich ^^
Zotac bietet auch Karten mit alternativ Kühler an.

boxleitnerb
2013-02-19, 11:34:24
moment mal, du vergleichst die künftige Titan-Generation also mit der aktuellen von AMD?
die HD7k serie kam vor der GTX6** heraus und ist noch immer schneller(Single GPU)
Klar wird sich Nvidia damit wieder(mit der Brechstange->Preis) an die Spitze setzen. Im bezahlbaren Rahmen sind sie aktuell aber nicht Konkurrenzfähig.
Rein Performance/Preis mäßig landet man zwangsläufig bei AMD.

Ne, ich vergleiche Titan mit 7970 GHz und berücksichtige einen Refresh von AMD mit diesen 15%.

robbitop
2013-02-19, 11:46:38
IMO ist Titan eine Prestigekarte. Sie hatten GK110 doch sowieso aus der Tesla Sparte. Wieso nicht mit +/-0 am Ende herauskommen, dafür aber diese Karte launchen? Eine bessere Werbung als ein Prestigeobjekt gibt es selten. Deshalb muss sie vieleicht auch kein besonders gutes P/L haben sondern einfach nur für eine gewisse Anzahl von Abnehmern bezahlbar sein.
Davon können Automobilhersteller sicher ein Liedchen singen.

Marty98
2013-02-19, 11:56:46
GK104 ist aber schon maßlos überteuert im Vergleich zur Konkurrenz, und die muss man halt IMMER berücksichtigen...

Auch nVidia lebt in keiner Seifenblase und muss sich der Konkurrenz stellen...

Würde man bei den AMD 7xxx Fps Balken 30% abziehen wegen der Mikroruckler, würde GK104 plötzlich sehr preiswert werden.

Gaestle
2013-02-19, 12:02:04
@Ail
Ich vermute NIEMAND hier findet die Preise gut. Aber weder Leistung noch Preis sind jetzt auf einmal aufgeploppt und waren vorher nicht zu antizipieren (nicht zuletzt auch dank Deiner Hinweise). Darum geht's nur.

Ärgerlich ist der Preis, ganz ohne Frage. Aber es war eben auch absehbar. Und für meinen Geldbeutel ist HighEnd (auch in den "alten" Preisregionen) generell keine Option.

@robbi
Mal sehen wie groß die Aufregung wegen dem Preis noch wird und ob es am Ende nicht auch für's Prestige kontraproduktiv war.

=Floi=
2013-02-19, 12:10:49
TSMC und die begrenzte Liefermenge von 28nm Wafern kommt da noch entscheidend dazu. Einen Preiskampf gab es nicht dank der vergleichbaren Leistung. Für einen frühen GK110 waren dann weder die Wafer, noch der Wille einen Preisdruck zu erzeugen, vorhanden. Eigentlich alles seit dem Start von GK104 bekannt.


ach ja, un die teuren 680er verkaufen sich zigmal mehr als frühere produkte? ebenfalls ist der 28nm prozess auch schon "alt".

Spasstiger
2013-02-19, 12:36:02
Ich denke Du siehst das zu optimistisch. GK110 ist sicherlich am Limit.
15 SMX, 1 GHz Chiptakt, 2*8-Pin-PCIe (gibts ja bei den Dual-GPU-Karten auch offiziell), ich sehe da noch Spielraum für rund 20% Mehrleistung gegenüber Titan. Damit wäre GK110 um nicht nur 30% schneller als die Radeon HD 7970 GHz Edition, sondern schon 55% schneller.
Im Prinzip wäre es ja auch das, was man sich von Titan erhofft hatte.
Bei den letzten Generationen seit der GTX 280 lag der Vorsprung von Nvidias High-End-Karten mit GPU-Die-Flächen über 400 mm² immer bei rund 15% gegenüber AMD.

BigKid
2013-02-19, 12:48:46
15 SMX, 1 GHz Chiptakt, 2*8-Pin-PCIe (gibts ja bei den Dual-GPU-Karten auch offiziell), ich sehe da noch Spielraum für rund 20% Mehrleistung gegenüber Titan. Damit wäre GK110 um nicht nur 30% schneller als die Radeon HD 7970 GHz Edition, sondern schon 55% schneller.
Im Prinzip wäre es ja auch das, was man sich von Titan erhofft hatte.
Bei den letzten Generationen seit der GTX 280 lag der Vorsprung von Nvidias High-End-Karten mit GPU-Die-Flächen über 400 mm² immer bei rund 15% gegenüber AMD.

Und auch wenn es uns als Verbraucher nicht passt frage ich nochmal weil ich es immernoch nicht verstanden habe...

Bei der aktuellen Sachlage (was irgendwann mal wie geplant war spielt im nachhinein für diese Überlegungen KEINE Rolle)

WARUM sollte NVidia das tun ?

Es (Titan mit 14smx) reicht um sich die Single-Chip Krone zu holen - und zwar streng genommen mit einem "salvage" part (also Teildeaktiviert). Es reicht ja wenn man die Krone hat - ich glaube um nix anderes gehts...

Für den selben Chip (ist er doch - oder ?) gibt es als Tessla das x-fache an Kohle ? Wenn also Vollausbau (mit angenommen niedriger Ausbeute) - wieso sollten sie diesen überhaupt ausserhalb der Tesslas anbieten ?

Das eigentliche Geld im Desktopbereich scheffelt man doch bereits sehr erfolgreich mit GK104...

Mir scheint es als wäre GK110 seit sich herausgestellt hat wie stark GK104 ist gar nicht mehr in Stückzahlen für den Desktop geplant... Und auch nicht nötig (aus Sicht von NV).

Es reicht NV doch Marketingtechnisch wenn ein paar User mit Titans in den 3DMarks dieser Welt ganz oben stehen... Je teurer das Ding ist, desto größer doch die Warscheinlichkeit dass sich nur ein paar Absolute Freaks mit High-End Boliden das Ding einbauen und die längsten Balken holen... "Mission Acomplished" oder so...

Spasstiger
2013-02-19, 12:51:53
WARUM sollte NVidia das tun ?
Sie werden das nicht tun, ich wollte einfach nur nochmal darlegen, warum ich GK110 für besonders dominant halte im Vergleich zu den letzten High-End-GPUs von NV.

BigKid
2013-02-19, 12:55:36
Sie werden das nicht tun, ich wollte einfach nur nochmal darlegen, warum ich GK110 für besonders dominant halte im Vergleich zu den letzten High-End-GPUs von NV.
Du vlt. nicht aber viele andere haben bis zuletzt gesagt, der kommt schon...
Viele haben nicht in Betracht gezogen dass er überhaupt nicht oder nur in kleinen Stückzahlen kommt - das Argument war dass man sich das nicht leisten könnte von wegen "R&D" Aufwand etc...

Dural
2013-02-19, 13:11:19
Sie werden das nicht tun, ich wollte einfach nur nochmal darlegen, warum ich GK110 für besonders dominant halte im Vergleich zu den letzten High-End-GPUs von NV.

wie so sollte so eine karte nicht kommen?

ende jahr mit "kepler2" kann sowas durch aus auf den markt gelangen, wahrscheinlich nicht gerade mit 1000MHz und 300Watt, aber 900-950MHz mit den 15SMX und OC karten bis 1000MHz halte ich da für gut möglich!

Gaestle
2013-02-19, 13:19:34
ebenfalls ist der 28nm prozess auch schon "alt".


15 SMX, 1 GHz Chiptakt, 2*8-Pin-PCIe (gibts ja bei den Dual-GPU-Karten auch offiziell), ich sehe da noch Spielraum für rund 20% Mehrleistung gegenüber Titan.

Ails Hinweisen entnehme ich nach wie vor, dass 28nm immer noch nicht "rund" läuft. Wenn NV sagt, sie brauchen den 15. SMX als Redundanz, um 14 funktionierende SMX zu erreichen, dann kann ich das nachvollziehen.

Die 10K-Chips bringen nur 4-5Mio. Umsatz für NV. Das ist irgendwie eine komische Sache. Für die R&D-Gegenrechnung dürfte es fast egal sein, dazu kostet ein Launch ja auch Geld. D.h. der Reingewinn aus der "GK110 für Desktop"-Sache sind bei einer Stückzahl von 10K eher überschaubar. Und bei den Preisen werden es auch 10K bleiben (+/-). Vielleicht handelt es sich um nicht verkaufte Chips aus dem Tesla-Programm, die ursprünglich nicht für Desktop vorgesehen waren?

fondness
2013-02-19, 13:19:35
15 SMX, 1 GHz Chiptakt, 2*8-Pin-PCIe (gibts ja bei den Dual-GPU-Karten auch offiziell), ich sehe da noch Spielraum für rund 20% Mehrleistung gegenüber Titan. Damit wäre GK110 um nicht nur 30% schneller als die Radeon HD 7970 GHz Edition, sondern schon 55% schneller.
Im Prinzip wäre es ja auch das, was man sich von Titan erhofft hatte.
Bei den letzten Generationen seit der GTX 280 lag der Vorsprung von Nvidias High-End-Karten mit GPU-Die-Flächen über 400 mm² immer bei rund 15% gegenüber AMD.

Naja, wenn dann musst du schon mit der selben TDP vergleichen. Auch die anderen High-End-Chips von NV hätten durchaus noch mehr Takt vertragen mit mehr TDP.

BigKid
2013-02-19, 13:20:44
wie so sollte so eine karte nicht kommen?

ende jahr mit "kepler2" kann sowas durch aus auf den markt gelangen, wahrscheinlich nicht gerade mit 1000MHz und 300Watt, aber 900-950MHz mit den 15SMX und OC karten bis 1000MHz halte ich da für gut möglich!
Nehmen wir mal an 15SMX sind tatsächlich seltener - solange sie diese als Teslas noch um ein vielfaches teurer absetzen können - warum SOLLTEN sie billiger im Desktop bringen?
Warum ? Weil sie so nette Menschen sind ? Und komm mir jetzt nicht mit "Umsatz" und "muss" wegen R&D Kosten...

Die Faktenlage ist doch einfach:
GL104 ist stark genug und bedient GTX680 und 690. Teslas verkaufen sich. Ausbeute ist wie sie ist. R&D kosten sind abgeschrieben...
Und Titan (in Minni-Auflage) reicht für die Performance Krone in dieser Generation (von der ATI bereits angekündigt hat dass sie uns etwas länger erhalten bleibt...). Also - Warum ?

Gaestle
2013-02-19, 13:21:36
Vielleicht ist der Tesla-Markt gesättigt/voll?

AnarchX
2013-02-19, 13:28:15
Vielleicht sind mehr als 14 aktive SMX überhaupt nicht vorgesehen?

Bei Tesla kann man wohl auf jeden Fall einen Refresh mit 12/10GiB erwarten, auf Basis der 4Gbit Speicherchips. Ebenso sind auf GK110-Basis auch noch Quadro-Karten zu erwarten. Da sollten sich schon ausreichende Stückzahlen ergeben.

Dural
2013-02-19, 13:29:33
hab ich mir auch schon überlegt!


wenn nicht:
ich glaube im Tesla markt ist es so ziemlich egal ob man 14 oder 15 SMX hat. da geht es nicht um prestige und NV ist mit GK110 da so wie so gut aufgestellt.

zudem drüfte ende jahr mit einem GK110 refresh und der besseren 28nm fertigung genügend 15 SMX versionen verfügbar sein.

Nakai
2013-02-19, 13:51:22
Ich glaube kaum, dass ein 15SMX Chip noch als GK110 irgendwann anzufinden sein wird.

Um es mal ganz sarkastisch zu betrachten(ich hab gestern mal den alten Tahiti/SI-Spekuthread herausgekramt). AMD hat vor über einem Jahr ihren Tahiti gebracht. Damals im November/Oktober 2011 wurde schon über Titan für H1 2012 spekuliert. Tahiti wurde sogar vor dem Release als schwächere Karte geahndet. Und was ist passiert? Tahiti war über einem Jahr der schnellste Chip. GK110 kam ein Jahr später, als es hier spekuliert wurde. Ich selber habe einen Tahiti-Refresh Ende 2012 vorhergesagt.
Was ist passiert? Alles ist anders gekommen. Die Sprünge sind kleiner ausgefallen, die Releasezeiten haben sich in die Länge gezogen, etc.
Der Markt hat sich verändert.

Was ich damit sagen will? Titan ist da und schon wird über einem Nachfolger spekuliert. Wir sollten die Lage mal nüchtern betrachten. Titan ist so gekommen, weil es die Lage eben nicht anders zugelassen hat. Physikalische Grenzen und ökonomische Grenzen lassen einfach keine stärkeren Sprünge zu. Ja, klar Titan wird sich übertakten lassen. Klar, es gibt womöglich 15 SMX-Chips...irgendwo. NV hat mit Titan keinen neuen G80 gebracht, weil es einfach nicht notwendig und nicht geplant war. Die meisten haben wohl 15 SMX bei >900MHz erwartet. Das könnte irgendwann kommen, aber so schnell nicht. Frühestens in einem Jahr, eher ab H2 2014. Und ja, dass AMD ihre neuen 28nm-Chips auf Ende des Jahres gelegt hat, spricht eher dafür, dass es kein zweiten 28nm-Refresh gibt. Evtl. gibt es eine HD8xxx GHz-Edition für H2 2014, aber da ist es noch lange hin.

€: GK110 gibt es bereits seit einem halben Jahr. Es sollte mittlerweile genug Chips geben, die 15SMX schaffen. Wieso hat der Gaming-Markt den nicht bekommen? Wenn mir das jemand sagen kann, der bekommt einen Keks.

Thunder99
2013-02-19, 14:29:41
Es ist schon verdammt lustig wie ihr euch alle so unterhaltet ;D

Sehe es so, dass dem Titan der Takt fehlt um richtig gut zu performen. Wie beispielsweise die HD7970 mit der GE Edition (bzw über 1GHz) erst richtig gut abgeht ;)

boxleitnerb
2013-02-19, 14:35:43
Custom Designs doch erlaubt?

In the first batch only ASUS and EVGA will launch the GeForce GTX Titan. This will be followed by Colorful, Gainward, Galaxy, Gigabyte, Inno3D, MSI and Palit with more models. NVIDIA did not forbid to modify the cards, meaning, manufactures are free to introduce custom models, maybe even with a custom cooling. The MSRP is not yet officially confirmed but it seems that $900/€900 mark is the final price.
http://videocardz.com/39721/nvidia-geforce-gtx-titan-released

Nakai
2013-02-19, 14:41:25
Eine andere Frage:
Wieviele Rasterengines hat Titan eigentlich?
Bei GK104 sind 2 SMX immer an einer Rasteengine(jaja, wahrscheinlich nicht direkt dediziert, sondern dynamisch). Bei 8 SMX sind das 4 Rasterengines. Bei GK106 sind es sogar 3 Rasterengines für 5 SMX.

Ich geh mal bei Titan von 5 aus. Ergo 3 SMX pro Rasterengine.

Wenn das stimmt, dann hat Titan deutlich weniger Rasterleistung im Vergleich zur Rohleistung. Eigentlich sollte das nicht zu einem Problem führen, da NV ein verdammt heftiges Frontend hat. Dennoch könnte diese "Ungleichheit" zu einer schlechteren Skalierung führen. Damit wäre der niedrige Performancesprung(siehe Crysis 3 auf NV-Folie) erklärbar...

€: Arrrgh, man sollte nicht so flott antworten. Sind doch eher 6 Rasterengines, laut Dieshot. Die Frage ist, ob alle aktiviert sind. Ich sehe auf keiner Folie irgendwo einen Anhaltspunkt. Titan müsste 7 Rasterengines in dieser Form haben, um eine ähnliche Rasterleistung wie GK104 zu besitzen.

Spasstiger
2013-02-19, 14:57:02
Es sind wohl 5 GPCs und damit 5 Rasterengines. Die GPCs sind von den SMX-Blöcken sowieso entkoppelt. Vermutlich gibt es ein Kommunikationsprotokoll, bei dem die GPCs nach freien SMX-Blöcken fragen, wenn Datenpakete abgeholt werden sollen. Wenn sich ein GPC und ein SMX einig werden, wird die Crossbar entsprechend geschaltet.
Eventuell ist das mit einer gewissen Granularität verbunden, um die Wege auf dem Chip kurz zu halten. In diesem Fall könnte nicht jedes GPC mit jedem SMX.

derguru
2013-02-19, 15:02:15
Nvidia stellt GeForce GTX Titan (GK110) vor (http://www.computerbase.de/news/2013-02/nvidia-stellt-geforce-gtx-titan-gk110-vor/)

dildo4u
2013-02-19, 15:05:54
Massig Luft zum OC nur 20Watt mehr als die 680 und der Kühler scheint der Hammer zu sein.

Gaestle
2013-02-19, 15:06:57
Sie übertakten den Bildschirm ;D

derguru
2013-02-19, 15:07:54
gute 50W weniger verbrauch im spiel gegenüber einer 7970ghz ist schon heftig.

und weiter gehts.

Geforce GTX Titan: Preis, Release, Unboxing-Video - Test folgt am Donnerstag (http://www.pcgameshardware.de/Geforce-Titan-Hardware-256920/Specials/Geforce-GTX-Titan-Preis-Release-1056222/)

omg:freak:

Ab Ende Februar soll es soweit sein - bis dahin können Sie Ihr Sparschwein mästen, denn Nvidia lässt sich die Leistung der Geforce GTX Titan mit rund 950 Euro vergolden (800 + VAT).

Effe
2013-02-19, 15:10:26
Für nur 925€! Kaufen sie jetzt!
Nicht schlecht die bekannten Werte, aber lieber mal den Rest abwarten, bevor man ein Fazit ziehen kann.

fondness
2013-02-19, 15:13:21
gute 50W weniger verbrauch im spiel gegenüber einer 7970ghz ist schon heftig.


Naja das Ref.-Design der 7970Ghz ist deutlich ineffizienter als custom-Karten. Allerdings trotzdem beachtlich. Nicht so toll finde ich hingegen den neuen Turbo, der die Leistung der Karte mit steigender Temperatur herunter dreht. Das dürfte doch zu einer gewissen Diskrepanz zwischen Benchmarkwerten und dem Spielebetrieb führen. Und das sie ernsthaft den Monitor einfach mit einer höheren Refresh-Rate anfahren finde ich mehr als mutig - wer haftet wenn das der Monitor nicht auf Dauer aushält?

Nakai
2013-02-19, 15:13:27
Was die GK-Architektur leistet sieht man an GK104. GK110 ist nicht im Vollausbau und am Taktlimit der Architektur. Dennoch ist man am Limit für Stromverbrauch und Temperatur. Dass AMD Tahiti so hoch prügelt und dabei der Stromverbrauch hochgeht ist nicht verwunderlich. Da sind noch reservern für OC. Der Chip ist dennoch am Limit.

M4xw0lf
2013-02-19, 15:13:41
Die Leistungsaufnahme sieht überraschend gut aus, muss man sagen :) (wobei auch wieder nicht so überraschend, der niedrige Takt kommt da zur Geltung)
Aber ehrlich - NEUNHUNDERTFÜNFZICH??

dildo4u
2013-02-19, 15:14:22
http://www.abload.de/img/titan21wrb5.jpg

http://www.geforce.com/hardware/desktop-gpus/geforce-gtx-titan/performance

Raff
2013-02-19, 15:15:01
Ich nehm drei! :ugly:

... und zu Weihnachten kommt dann der Vollausbau und die Fans start crying a river.

MfG,
Raff

Gaestle
2013-02-19, 15:15:23
---

M4xw0lf
2013-02-19, 15:17:29
Der Leistungszuwachs gegenüber der 680 ist ja doch... überschaubar. Selbst unter 1600p + AA.

Undertaker
2013-02-19, 15:17:37
Also man muss schon sagen, das Gesamtpaket aus Performance, Leistungsaufnahme und Lautstärke ist extrem beeindruckend. Gemessen an den aktuellen High-End-Karten (Single-GPU) wäre ein Preis von gut 600€ sicherlich gerechtfertigt. 950 Euro sind allerdings einfach nur krank - eine Art Extreme Edition im GPU-Markt.

BigKid
2013-02-19, 15:18:13
Custom Designs doch erlaubt?
http://videocardz.com/39721/nvidia-geforce-gtx-titan-released
Das wäre für mich fast schon eine Grundvorraussetzung... Es sei denn der Stock Kühler ist diesmal richtig richtig gut...

derguru
2013-02-19, 15:18:58
http://www.abload.de/img/titan21wrb5.jpg

http://www.geforce.com/hardware/desktop-gpus/geforce-gtx-titan/performance

hmm also ungefähr die spekulierte performancesteigerung, wie gesagt in manchen spielen dürfte selbst eine 7970 ghz edition ohne oc schon in der nähe sein wie z.b. metro. edit:das müsste der benchmark vom spiel sein,ca.28fps in den settings ist schon ordentlich,eine 7907ghz sollte auf die 22fps kommen.



aber der preis ist heftig,heftig,heftig.


mal ein quad einbauen für 3800€.:freak: neeee ich bleib meiner 7970 oc,dat reicht mir.:biggrin:

Gaestle
2013-02-19, 15:19:21
Also man muss schon sagen, das Gesamtpaket aus Performance, Leistungsaufnahme und Lautstärke ist extrem beeindruckend. Gemessen an den aktuellen High-End-Karten (Single-GPU) wäre ein Preis von gut 600€ sicherlich gerechtfertigt. 950 Euro sind allerdings einfach nur krank - eine Art Extreme Edition im GPU-Markt.

Computerbase hat es auch mit der EE von INTEL verglichen.

Das "Game Performance" Diagramm sieht ja in der Tat nach 30-50% mehr im Vgl. zur 680 aus.

Nakai
2013-02-19, 15:21:34
Die Leistungsaufnahme sieht überraschend gut aus, muss man sagen :) (wobei auch wieder nicht so überraschend, der niedrige Takt kommt da zur Geltung)
Aber ehrlich - NEUNHUNDERTFÜNFZICH??

Grobe Abschätzung(Annahme: quadratische Skalierung bei Stromverbrauch).

(0,85/1,05)²*(14/8) = 1,14 => Irgendwo zwischen 10 bis 20% Mehrverbrauch.
Wenn noch Spannung etwas reduziert wird, dann geht das schon.;)

mr coffee
2013-02-19, 15:22:22
Also mit anderen Worten, dieses mal rentiert sich ein SLI-System mit "langsameren" Karten. Für das Geld der Titan bekomm ich 2xGTX680 und bin schneller - sehe ich das richtig?

AnarchX
2013-02-19, 15:22:49
Für den 1/3 DP Mode wird tatsächlich gedrosselt: http://www.anandtech.com/show/6760/nvidias-geforce-gtx-titan-part-1/4

Lowkey
2013-02-19, 15:25:07
Ich hoffe doch sehr, dass das Übertaktungstool für Bildschirme in die freie Welt entlassen wird. Dann gibt es demnächst bei Monitorkaufempfehlungen Geräte mit IPS und 120hz ;)

Knacki99
2013-02-19, 15:25:21
Sicher ein beeindruckendes Teil - Aber 925€ sind mir zuviel. GK104 Refresh kommt ja eh.

derguru
2013-02-19, 15:25:43
Also mit anderen Worten, dieses mal rentiert sich ein SLI-System mit "langsameren" Karten. Für das Geld der Titan bekomm ich 2xGTX680 und bin schneller - sehe ich das richtig?
lieber 3x670iger.:)

Palpatin
2013-02-19, 15:25:50
Porsche Leistung, Ferrari Preis, Toyota Verbrauch.
Hier stimmt die Mischung nicht.
Die hätten das Teil mal lieber auf 1,2 GHZ prügeln sollen dann könnten wir auch über 900€ reden und die Leistungsaufnahme intressiert bei 900 wirklich niemand.

Duplex
2013-02-19, 15:25:56
Laut PCGH heiß Titan GK114
Der Chip soll 570mm² groß sein (ähnlich zu GT200 65nm)

http://www.pcgameshardware.de/Geforce-Titan-Hardware-256920/Specials/Geforce-GTX-Titan-Preis-Release-1056222/

http://www.abload.de/thumb/titanizssj.png (http://www.abload.de/image.php?img=titanizssj.png)