PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce GTX 660: (P)Review-Thread


Leonidas
2012-09-13, 13:10:52
GeForce GTX 660
nVidia GK106
960 Shader-Einheiten
80 TMUs
24 ROPs
192 Bit DDR Speicherinterface
980/1033/3000 MHz
2 GB GDDR5
TDP: 140W
Listenpreis: 229$
deutsche Preisempfehlung: 225€

GK106-Chip:
offiziell 221mm² (GK104: 294mm², GK107: 118mm²)
offiziell 2,54 Mrd. Transistoren (GK104: 3,54 Mrd., GK107: 1,3 Mrd.)
5 oder 6 SMX - dies bleibt weiterhin unklar

3DC Launch-Analyse (http://www.3dcenter.org/artikel/launch-analyse-nvidia-geforce-gtx-660)

Links zu Testberichten (darf gern erweitert werden):

deutsch:
HT4U (http://ht4u.net/reviews/2012/nvidia_geforce_gtx_660_evga_gtx660_sc_msi_n660gtx_tf_oc_test/)
ComputerBase (http://www.computerbase.de/artikel/grafikkarten/2012/test-nvidia-geforce-gtx-660/)
Hardwareluxx (http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/23678-test-nvidia-geforce-gtx-660.html)
PC Games Hardware (http://www.pcgameshardware.de/Grafikkarten-Hardware-97980/Specials/Test-Geforce-GTX-660-Nvidias-Kepler-fuer-die-Masse-1023513/)

englisch:
AnandTech (http://www.anandtech.com/show/6276/nvidia-geforce-gtx-660-review-gk106-rounds-out-the-kepler-family)
HardOCP (http://www.hardocp.com/article/2012/09/12/asus_geforce_gtx_660_directcu_ii_video_card_review/)
Hot Hardware (http://hothardware.com/Reviews/NVIDIA-GeForce-GTX-660-RoundUp-MSI-ZOTAC-Gigabyte/)
TechSpot (http://www.techspot.com/review/572-nvidia-geforce-gtx-660/)
The Tech Report (http://techreport.com/review/23527/nvidia-geforce-gtx-660-graphics-card)
X-bit Labs (http://www.xbitlabs.com/articles/graphics/display/geforce-gtx-660.html)

sonstige Sprachen:
Hardware.fr (http://www.hardware.fr/articles/876-1/nvidia-geforce-gtx-660-asus-directcu-ii-top-sli-test.html)

Raff
2012-09-13, 13:26:40
WTF? Hast du die URLs einfach geraten? ;)

MfG,
Raff

Gipsel
2012-09-13, 13:34:42
GK106-Chip:
offiziell 221mm² (GK104: 294mm², GK107: 118mm²)
offiziell 2,54 Mrd. Transistoren (GK104: 3,54 Mrd., GK107: 1,3 Mrd.)
5 oder 6 SMX - dies bleibt weiterhin unklar [GK104: 8 SMX, GK107: 2 SMX]
[2 oder 3 Setup/Raster? (GK104: 4, GK107: 1)
[24 ROPs, 192 Bit Speicherinterface (GK104: 32/256, GK107: 16/128)]
Mal zur Einordnung:
Pitcairn:
212 mm² (Tahiti: 365mm², CapeVerde: 123 mm²)
2,8 Mrd. Transistoren (Tahiti: 4,31 Mrd., CapeVerde: 1,5 Mrd.)
20 CUs (Tahiti: 32, CapeVerde: 10)
2 Setup/Raster (Tahiti: 2, CapeVerde: 1)
32 ROPs, 256Bit Speicherinterface (Tahiti: 32/384, CapeVerde: 16/128)

maximus_hertus
2012-09-13, 13:35:27
Keine Überraschungen. Interessant wird der Strassenpreis, gerade wenn AMD die 7870 weiter im Preis senkt.

Gipsel
2012-09-13, 13:40:00
Keine Überraschungen. Interessant wird der Strassenpreis, gerade wenn AMD die 7870 weiter im Preis senkt.
Da Performance-Angabe aus dem Review-Guide ist mit Vorsicht zu genießen. Da gab es auch schon eine News von Leo zu. Zumal es auch noch die 900MHz-Version der 7850 gibt.

Raff
2012-09-13, 13:43:15
900 statt 860 MHz ist nicht die Welt.

MfG,
Raff

maximus_hertus
2012-09-13, 13:48:40
Da Performance-Angabe aus dem Review-Guide ist mit Vorsicht zu genießen. Da gab es auch schon eine News von Leo zu. Zumal es auch noch die 900MHz-Version der 7850 gibt.

Ist mir klar. Ich erwarte die 660 nicht auf 7870-Niveau. Im Schnitt eher zwischen der 7870 und der 7850. Die 660er liegt auch schon seit gestern im Laden (soll bei uns glaub ich 279 Euro kosten bzw Onlinepreise bei rund 220 - 240 Euro)

Spasstiger
2012-09-13, 13:49:41
Mit 2,54 Mrd. Transistoren sind es imo 5 SMX-Blöcke.
Die Mitte von 3,54 Mrd. (GK104) und 1,3 Mrd. (GK107) wären 2,42 Mrd., also 5% weniger Transistoren als bei GK106.
Die Mitte der Anzahl an ROP-SI-Clustern wären (4+2)/2=3 und der Anzahl an SMX-Blöcken (8+2)/2=5. Genau so wie es von Nvida kommuniziert wird. Da gewisse Teile bei allen Chips gleich groß sind (die vier Display-Engines und PCIe), passen die 5% mehr Transistoren gegenüber der gemittelten Transistorzahl wie die Faust aufs Auge zu den Specs. Ein ganzer SMX-Block passt in die 5% imo nicht rein.
/EDIT: Und die 3 Raster-Engines von GK106 sollte man nicht vergessen, das ist etwas mehr als die Mitte (4+1)/2=2,5, was imo mit den 5% zusammengeht.

An Leonidas Stelle würde ich auf der Hauptseite den GK106 vorerst nicht mehr mit möglicherweise 6 SMX-Blöcken angeben, solange die Faktenlage unverändert bleibt.

dildo4u
2012-09-13, 14:06:14
Gut das AMD die Preise gesenkt hat über 200€ kann sich NV nicht erlauben,die Karte wäre perfekt von meiner 460 aus gesehen.Dürfte ziehmlich genau 570 Speed haben,die liegt bei CB nur 9% vor der 7850 NV sieht die 660 weiter vorne,da muss man natürlich was abziehen.

Raff
2012-09-13, 14:12:16
Die GTX 660 Ti hat 580-Speed, wie soll das dann die 660 auch schaffen? ;)

MfG,
Raff

dildo4u
2012-09-13, 14:14:18
Hab bei den 8XMSAA Benches geguckt,bei 4XAA ist die 580 viel weiter vor der 7850.Sry


Nur 4% bei 1920x1080 8xAA/16xAF.
http://www.computerbase.de/artikel/grafikkarten/2012/test-amd-radeon-hd-7750-mit-900-mhz/4/

mczak
2012-09-13, 14:15:02
/EDIT: Und die 3 Raster-Engines von GK106 sollte man nicht vergessen, das ist etwas mehr als die Mitte (4+1)/2=2,5, was imo mit den 5% zusammengeht.

Woher weisst du denn dass es 3 Rasterblöcke sind? Es wären doch auch bloss 2 denkbar.
Ich gebe dir aber Recht 6 SMX scheinen mir auch eher unwahrscheinlich.

Leonidas
2012-09-13, 14:15:32
Ich denke nicht, das man von 580er Speed reden kann. Die CB-Benchmarks sind diesbezüglich etwas sehr optimistisch für die neueren Karten, im Schnitt vieler Messungen liegt die 660Ti exakt auf 580er Niveau. Die 660 ist demzufolge genauso oder leicht schneller wie die 570.

Gipsel
2012-09-13, 14:29:08
900 statt 860 MHz ist nicht die Welt.Argh, jetzt habe ich das doch glatt mit der 7750 verwechselt (da ist der Sprung von 800 auf 900MHz durchaus etwas erheblicher).

dildo4u
2012-09-13, 14:30:19
AMD muss die 7850 nicht schneller machen,die ist billig genug.

Gipsel
2012-09-13, 14:35:04
AMD muss die 7850 nicht schneller machen,die ist billig genug.
Ich denke auch, daß eher die 7870 der preisliche Gegner wird. Und da wird sich nV schon etwas strecken müssen, um bei der Performance dagegenzuhalten.

Raff
2012-09-13, 14:50:05
Argh, jetzt habe ich das doch glatt mit der 7750 verwechselt (da ist der Sprung von 800 auf 900MHz durchaus etwas erheblicher).

Macht nix, die wollen offenbar nicht, dass noch jemand durchblickt. X-D

MfG,
Raff

M4xw0lf
2012-09-13, 14:52:45
Dumdidum... her jetzt mit den Tests, ich hab ja nicht den ganzen Tag Zeit :freak:

AnarchX
2012-09-13, 14:58:46
Diverse 660 @ TPU: http://www.techpowerup.com/reviews/

3 GPCs
Nur ~10W im Idle mit zwei Monitoren. Neuer Rekord für diese Leistungsklasse.

Raff
2012-09-13, 15:02:27
PCGH – Geforce GTX 660 im Test: Nvidias Kepler für die Masse (http://www.pcgameshardware.de/Grafikkarten-Hardware-97980/Specials/Test-Geforce-GTX-660-Nvidias-Kepler-fuer-die-Masse-1023513/)

MfG,
Raff

dildo4u
2012-09-13, 15:03:24
Verbrauch auf 7850 Level Performance ca 15% drüber laut CB.


CB Review
http://www.computerbase.de/artikel/grafikkarten/2012/test-nvidia-geforce-gtx-660/

225€ viel zu teuer wird sich wie bei der 660Ti bald selber Regeln.

Raff
2012-09-13, 15:08:15
Es gibt schon welche für 220: http://www.alternate.de/html/product/GIGABYTE/Geforce_GTX_660_OC/1031506/

MfG,
Raff

AnarchX
2012-09-13, 15:08:16
Die Die-Size wurde nochmal auf 214mm² reduziert? :D

dildo4u
2012-09-13, 15:13:03
Es gibt schon welche für 220: http://www.alternate.de/html/product/GIGABYTE/Geforce_GTX_660_OC/1031506/

MfG,
Raff
Das passt fast liegt mit der 7870 gleich auf für 210€ wärs ok.

http://www.techpowerup.com/reviews/Gigabyte/GTX_660_OC/27.html

Nightspider
2012-09-13, 15:14:58
Traurig ist nur, das eigentlich die GTX680 nur so viel kosten müsste wie die GTX660. :(

Ist doch echt ein Witz...dieses kleine Kärtchen...mit dem winzigen PCB, winzigem Kühler und winzigem Chip. :usad:

Leonidas
2012-09-13, 15:20:02
Ist doch echt ein Witz...dieses kleine Kärtchen...mit dem winzigen PCB, winzigem Kühler und winzigem Chip. :usad:


... Glaskugel: Steht in einem Jahr bei 130 Euro.

Ronny145
2012-09-13, 15:21:39
Naja im Prinzip keine schlechte Karte. Zu bemängeln ist der Preis, der müsste unter 200€ fallen. Preislich liegen HD7870 und GTX660 gleichauf, ungeachtet von Treibervorteilen wäre mir die 7870 attraktiver.

dildo4u
2012-09-13, 15:27:01
Traurig ist nur, das eigentlich die GTX680 nur so viel kosten müsste wie die GTX660. :(

Ist doch echt ein Witz...dieses kleine Kärtchen...mit dem winzigen PCB, winzigem Kühler und winzigem Chip. :usad:
Die 460 hat zum Start auch über 200€ gekostet erst später 140€.Die 660 ist eigentlich die ersten Kepler Karte,die nicht total überteuert ist,nicht vergessen AMD hat grad erst die Preise gesenkt.

http://www.computerbase.de/artikel/grafikkarten/2010/test-nvidia-geforce-gtx-460/27/

AnarchX
2012-09-13, 15:28:55
Naja im Prinzip keine schlechte Karte. Zu bemängeln ist der Preis, der müsste unter 200€ fallen. Preislich liegen HD7870 und GTX660 gleichauf, ungeachtet von Treibervorteilen wäre mir die 7870 attraktiver.

Mit $229 liegt die GTX 660 theoretisch unter dem MSRP der 7870 mit $249.

fondness
2012-09-13, 15:34:45
Verbrauch auf 7850 Level Performance ca 15% drüber laut CB.


Genau wegen solcher Aussage bemängle ich Leistungsaufnahmetests mit nur einer Anwendung - weil dann eine allgemein gültige Annahme getroffen wird. Die Leistungsuafnahme liegt bei Alan Wake ca. auf 7850 Level, allerdings liegt die Leistung in diesem Spiel bei CB auch nur auf 7850-Level. Die Perf/Watt ist also in dieser Anwendung und in der Szene von CB ebenbürtig zu den AMD-Produkten. Bei anderen Spielen kann es anders aussehen.

Bei PCGH verbaucht die GTX660 bsw. mehr Strom als eine HD7870 in BC2. Man sieht also das NV auch nicht zaubern kann und die Kepler-Architektur auch nicht effizienter ist solange man Apples mit Apples vergleicht. Vorteile hat man gegen Tahiti aufgrund des HPC-Ballastes.

AnarchX
2012-09-13, 16:00:39
Bei HW.fr ist die 660 auch bei der Pro-Watt-Leistung den 7800ern unterlegen: http://www.hardware.fr/articles/876-6/consommation-performances-watt.html

Trotz allem im Vergleich zu Fermi ein vernünftiges Niveau.

larodar
2012-09-13, 16:08:48
Ich warte gespannt auf die 3DC Zusammenfassung

Hab mich durch die Reviews geklickt und bin so schlau wie zuvor, hier und da hängt die 660 an der 7870 dran, bei CB deutlich abhängt.

Was die Leistungsaufnahme angeht bekommt man auch kein einheitliches Bild hin, meißt liegt die 660er besser als ne 7870, bei Techpowerup aber wieder gar nicht.

Kompliziert wird das ganze dadurch dass die Tester oft nur noch die Hände an OC Varianten bekommen und nicht Stock vs Stock verglichen wird.

M4xw0lf
2012-09-13, 16:15:34
Genau wegen solcher Aussage bemängle ich Leistungsaufnahmetests mit nur einer Anwendung - weil dann eine allgemein gültige Annahme getroffen wird. Die Leistungsuafnahme liegt bei Alan Wake ca. auf 7850 Level, allerdings liegt die Leistung in diesem Spiel bei CB auch nur auf 7850-Level. Die Perf/Watt ist also in dieser Anwendung und in der Szene von CB ebenbürtig zu den AMD-Produkten. Bei anderen Spielen kann es anders aussehen.

Bei PCGH verbaucht die GTX660 bsw. mehr Strom als eine HD7870 in BC2. Man sieht also das NV auch nicht zaubern kann und die Kepler-Architektur auch nicht effizienter ist solange man Apples mit Apples vergleicht. Vorteile hat man gegen Tahiti aufgrund des HPC-Ballastes.

Man sieht vielmehr, dass Tahiti wesentlich ineffizienter ist als Pitcairn. Aber wie schon von dir erwähnt liegt das eben am Compute-Kram - Tahiti muss eben als Allzweckwaffe herhalten und fällt deswegen bei der reinen Spieleeffizienz zurück.

ndrs
2012-09-13, 16:48:52
Die Perf/Watt ist also in dieser Anwendung und in der Szene von CB ebenbürtig zu den AMD-Produkten. Bei anderen Spielen kann es anders aussehen.
Bei CB gibts noch mehr Leistungsaufnahmemessungen im Spoiler:
Bei BF3 scheint die Effizienz deutlich besser, bei Anno deutlich schlechter als bei AMD zu sein.

Hakim
2012-09-13, 17:54:41
Ich kann mich einfach nicht entscheiden, die Karten sehen ja fast wie OEM Dinger aus, da ist ja meine alte TV -karte deutlich größer gewesen. Dagegen ist ja mein derzeitige Graka ein Monster.

Leonidas
2012-09-13, 17:55:41
Ich warte gespannt auf die 3DC Zusammenfassung

Hab mich durch die Reviews geklickt und bin so schlau wie zuvor, hier und da hängt die 660 an der 7870 dran, bei CB deutlich abhängt.




Vorab-Version:
http://www.3dcenter.org/artikel/launch-analyse-nvidia-geforce-gtx-660

Bitte noch nicht als final betrachten, da Fazit, Schreibkorrektur und Kleinigkeiten noch fehlen. Aber die Werte-Zusammenfassung steht schon mal.

Effe
2012-09-13, 18:08:33
@Leonidas: In den Tabellen wird die 7970 anstatt der 7870 ausgewiesen.

Zu der Karte: Nicht übel, lasst die Preise fallen! Auf die 650 bin ich gespannt.

Leonidas
2012-09-13, 18:18:25
@Leonidas: In den Tabellen wird die 7970 anstatt der 7870 ausgewiesen.


Soll 7870 heissen, wird korrigiert.

Gipsel
2012-09-13, 18:33:23
Die Die-Size wurde nochmal auf 214mm² reduziert? :DWie schon mal im anderen Thread gesagt, geisterte seit dem späten Frühjahr etwas von ziemlich genau Pitcairn-Größe (212mm²) durch die Gegend. Edit (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9365870#post9365870), etwas später noch mal explizit (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9381375#post9381375).

Popeljoe
2012-09-13, 19:48:21
PCGH – Geforce GTX 660 im Test: Nvidias Kepler für die Masse (http://www.pcgameshardware.de/Grafikkarten-Hardware-97980/Specials/Test-Geforce-GTX-660-Nvidias-Kepler-fuer-die-Masse-1023513/)

MfG,
Raff
Hm: die Ti kommt bei euch rüber, wie ein gedopter Sprinter, der aber 800m laufen soll.
Die 192 Bit sind da ein echter Flaschenhals, der sich bei der GTX nicht ergibt.
Leider kommt die Karte ein halbes Jahr nach der 78XX Serie von AMD und ist im PL Verhältnis nicht unbedingt besser.
Der Sprung von der 560 TI ist außerdem zu gering.
Erst mit einer 460 lohnt sich der Umstieg wirklich.
Für eine zu spät kommende Karte eher mau...

Nightspider
2012-09-13, 23:07:30
Die 460 hat zum Start auch über 200€ gekostet erst später 140€.Die 660 ist eigentlich die ersten Kepler Karte,die nicht total überteuert ist,nicht vergessen AMD hat grad erst die Preise gesenkt.

http://www.computerbase.de/artikel/grafikkarten/2010/test-nvidia-geforce-gtx-460/27/

Für 200 Euro hat man damals aber auch einen Chip bekommen der größer war als der chip der heutigen GTX680. ;)

M4xw0lf
2012-09-14, 09:07:52
Für 200 Euro hat man damals aber auch einen Chip bekommen der größer war als der chip der heutigen GTX680. ;)

Das spricht nur für die mangelhafte Integrationsdichte bei Fermi :wink:

Pirx
2012-09-14, 09:24:02
Für 200 Euro hat man damals aber auch einen Chip bekommen der größer war als der chip der heutigen GTX680. ;)
Größe ist halt nicht alles:biggrin:

Allerdings verbinde ich diese ganzen GTX650/660 mit ihren komischen Speicherinterfaces (hat sich das ein BWLer ausgedacht?) irgendwie immer mit "Verkrüppelung".. und irgendwann muß sich das doch auch mal zeigen, nV hat sowieso immer ein Talent dafür, bei den Launchartikeln besonders gut dazustehen.

MadManniMan
2012-09-14, 09:34:15
Laaangweilig.

Die Karte ist genau das, was ich vom 28-nm-Ersatz der 550 Ti erwartet habe, also vom Namen wie vom Preis her "eine Stufe zu hoch".

OK, ja, nV hat wohl den GK106 nochmal dicker gemacht, aber an der grundsätzlichen Einordnung ändert das nur wenig.

Next, pls.

Spasstiger
2012-09-14, 09:38:51
OK, ja, nV hat wohl den GK106 nochmal dicker gemacht, aber an der grundsätzlichen Einordnung ändert das nur wenig.
Alle GTX 660er sind schneller als alle GTX 560er, insofern kann man NV bei der Namenswahl keine Vorwürfe machen.

Botcruscher
2012-09-14, 09:51:43
Dank der miesen Fertigung ist doch eh alles lächerlich verschoben. Es hat gar keine Zweck sich da aufzuregen. Die Karte müsste eigentlich in den 100 bis 130€ Bereich. Aber so wie es scheint, kauft die Dinger ja trotzdem jemand.

AnarchX
2012-09-14, 09:58:05
Einzig bemängeln könnte man vielleicht, dass es nicht gleich zum Start ähnlich wie bei der GTX 460 eine <=$199 Version gibt, hier vielleicht mit 1,5GiB 5Gbps.
Aber da könnte wohl auch die 28nm Kapazität eine Rolle spielen.

boxleitnerb
2012-09-14, 10:39:31
Ich find es ja immer witzig, wie man krampfhaft versucht, Midrangekarten mit 8xMSAA oder 2560x1440 abzuwürgen, nur um AMD besser dastehen zu lassen. Das hab ich jetzt schon in mehreren Foren gelesen und mir mal die Mühe gemacht, Gameplay-Benchmarkwerte von der 660 zusammenzusuchen von aktuellen bzw. populären Spielen. Alles in 1080p mit 4xMSAA wo möglich.

Batman AC: 40 fps (Hardwarecanucks)
BF3: 48 fps (Hardwarecanucks)
Crysis 2: 40 fps (Computerbase)
Skyrim+ENB: 38 fps (Computerbase)
Metro 2033: 24 fps (Computerbase)
Max Payne 3: 29 fps (Computerbase)
Shogun 2: 38 fps (Hardwarecanucks)
Dragon Age 2: 38 fps (Computerbase)
The Witcher 2: 43 fps (Hardwarecanucks)

Die 660 bzw. die 7870 schaffen gerade so mit Anstrengung halbwegs passable fps-Raten in dieser Einstellung, und da sind noch keine Drops unterhalb den Mittelwert aufgezeigt. In welchem Universum dann z.B. 24 fps vs 20 fps spielbar sein soll, erschließt sich mir nicht.

Raff
2012-09-14, 10:40:54
Spielbar ist das durchaus (frag doch mal die Konsoleros). Aber nicht flüssig. ;)

MfG,
Raff

boxleitnerb
2012-09-14, 10:45:11
Ja grad so. Was passiert dann wohl, wenn man auf 1440p oder 8xMSAA geht oder die gerne zitierten "zukünftigen Spiele" mit reinbringt? Da wird auch der eher anspruchslose Spieler wegen dem Ruckeln frustriert die Maus in die Ecke werfen.

Meiner Ansicht nach sind diese Karte am besten in 1080p mit wenig MSAA/FXAA oder in 1680x1050 mit 4xMSAA zu Hause.

Raff
2012-09-14, 10:52:08
Ich halte auch nichts davon, die Hi-Qual-Werte überzubewerten. Das sind definitiv 1080p-Karten (oder von mir aus 1200p). Aber die Extremtests zeigen schön, wohin die Reise geht, wenn die Kacke am Dampfen ist.

MfG,
Raff

MadManniMan
2012-09-14, 10:54:01
Alle GTX 660er sind schneller als alle GTX 560er, insofern kann man NV bei der Namenswahl keine Vorwürfe machen.

Von diesem Standpunkt aus hast Du völlig Recht, allein ich teil ihn nicht.

Ich denke eher in Verlustleistungskategorien, sry ;(

Iruwen
2012-09-14, 11:41:11
nV hat sowieso immer ein Talent dafür, bei den Launchartikeln besonders gut dazustehen.

Ist halt so wenn man nicht erst Monate nach Launch eines populären Spiels brauchbare Treiber nachschiebt :tongue:

Raff
2012-09-14, 11:43:37
Und daraus entsteht dann die Interpretation, dass Ati-Grafikkarten "zukunftssicherer" (ein herrlich kaputtes Wort) sind. :ulol:

MfG,
Raff

boxleitnerb
2012-09-14, 11:55:44
Raff, könntet ihr bitte mal den GK106 auf Downsampling überprüfen? Gibt es da auch den Redscreenbug bei 2160p? Vielleicht ist bei der Karte ja irgendwas anders und es geht.

Hugo78
2012-09-14, 12:52:35
F1 2012 Demo Bench
http://www.computerbase.de/news/2012-09/f1-2012-erste-cpu-und-grafikkartenbenchmarks/

ux-3
2012-09-14, 13:38:34
F1 2012 Demo Bench
http://www.computerbase.de/news/2012-09/f1-2012-erste-cpu-und-grafikkartenbenchmarks/
Oh man! Danke, das klau ich mal...

larodar
2012-09-14, 13:55:00
Da fehlt irgendwie eine HD 7870 ....

boxleitnerb
2012-09-14, 13:56:29
Man kann sich doch selber ausrechnen, wo die läge. Die Leute bei Computerbase mosern auch schon rum, dabei ist das ein Haufen Arbeit, der nicht wirklich nötig ist, wenn die Leser etwas mitdenken können. Eine Karte jeder Familie (Pitcairn, GK104 etc.) reicht aus.

Spasstiger
2012-09-14, 14:21:24
F1 2012 Demo Bench
http://www.computerbase.de/news/2012-09/f1-2012-erste-cpu-und-grafikkartenbenchmarks/
Keplers neuer Liebling? :biggrin:

Raff
2012-09-14, 14:24:44
Eigenartig. Codemasters-Spiele mit Ego-Engine:

- Dirt 3: Lief erst ausgewogen, derzeit hat HD 7000 ggü. Fermi UND Kepler Probleme
- Dirt Showdown: Hat neues Lighting mit GCN-Optimierung und liebt daher HD 7000
- F1 2012: Steht anscheinend auf Kepler, Details erbeten

MfG,
Raff

Spasstiger
2012-09-14, 14:33:29
Man wird den Verdacht nicht los, dass Codemasters Shaderprogramme von extern bezieht. ;)

dildo4u
2012-09-14, 14:53:52
F1 stellt deutlich mehr Fahrzeuge dar vieleicht hilft dort die Polygone Leistung der Nvidia Karten.F1 scheint immer 1 Jahr hinten zu sein was die Engine angeht,mal sehen ob sich AMD Grid 2 sichert und dort die neue Beleuchtung einbaut.

Hakim
2012-09-14, 15:26:21
Ich denke bei 180-190 € Bestelle ich mir endgültig eine GTX660, die Ti überzeugt mich nicht irgendwie, vor allem bei Spielsituation wo durch die Speicheranbindung die Min Werte mit denen der nonTi gleich sind. Am meisten juckt mich ja die HD7950, aber ich lasse eigentlich immer TV nebenbei über den PC laufen und die 40-50% mehr Energiebedarf stören mich da einfach zu sehr. Ich wollte auch evt demnächst wieder ein zweit Moni anschließen.

ChaosTM
2012-09-14, 17:01:56
Leider künstlich verkrüppelt, das die max. Volt-Einstellung von ca. 115W ein Übertakten praktisch wirkungslos macht.

..aber das dürfte hoffentlich bald umgangen sein.

Schaffe89
2012-09-15, 17:09:10
Naja, ich finde die Karte mMn deutlich ausgewogener als die GTX 660 Ti und eine auch preislich gute Alternative zur HD 7870.

GPU Physx und die gute Effizienz, vor allem unter dem zwei Monitor Betrieb, könnten mich zu einem Kauf hinreißen lassen.:smile:

medi
2012-09-15, 22:56:39
Naja, ich finde die Karte mMn deutlich ausgewogener als die GTX 660 Ti und eine auch preislich gute Alternative zur HD 7870.

GPU Physx und die gute Effizienz, vor allem unter dem zwei Monitor Betrieb, könnten mich zu einem Kauf hinreißen lassen.:smile:

Seh ich auch so. Sobald die Asus unter 200,- geht hol ich sie mir.

Raff
2012-09-15, 23:15:05
Die Effizienz beim Idlen ist eigentlich das einzige, was im Vergleich mit einer HD 7870 ernsthaft für die GTX 660 spricht.

MfG,
Raff

Schaffe89
2012-09-15, 23:42:49
Die GTX 660 gibts aktuell schon für 196 Euro uich denke das P/L ist ok.
Ganz im gegenteil zur GTX 650, die Karte ist so überflüssig wie ein Kropf, kaum schneller als die HD 7750 800mhz und preislich nicht billiger wie ne HD 7770, obwohl jene 20 bis 25% schneller ist und auch mehr Taktreserven hat.

@ Raff

Euer Online Test ist von der spieleauswahl echt mega Nvidialastig, wie kommt das?

aufkrawall
2012-09-15, 23:46:57
Die 650 ist ideal für HTPCs, die noch etwas Shader-/Renderpower brauchen, und man keinen Bock auf AMD hat.
Die wird sich auch verkaufen.

Schaffe89
2012-09-15, 23:51:04
Das mag schon stimmen ich hab aber noch nieein Problem gehabt, egal welcher Hersteller, ergo gehe ich nach dem Preis. ;)

aufkrawall
2012-09-15, 23:52:21
Das mag schon stimmen ich hab aber noch nieein Problem gehabt, egal welcher Hersteller, ergo gehe ich nach dem Preis. ;)
Klingt vernünftig.

dildo4u
2012-09-16, 00:50:11
Die Effizienz beim Idlen ist eigentlich das einzige, was im Vergleich mit einer HD 7870 ernsthaft für die GTX 660 spricht.

MfG,
Raff

Tesselation Leistung scheint deutlich besser zu sein noch ein Punkt wo sie besser dasteht als ihre Vorgänger fast 2X der 560TI.
http://www.ocaholic.ch/xoops/html/modules/smartsection/item.php?itemid=842&page=7

Raff
2012-09-16, 12:39:22
Tesselation Leistung scheint deutlich besser zu sein noch ein Punkt wo sie besser dasteht als ihre Vorgänger fast 2X der 560TI.
http://www.ocaholic.ch/xoops/html/modules/smartsection/item.php?itemid=842&page=7

Pitcairn tesselliert wie Tahiti, wenn man den Verlauf betrachtet (die Pitcairn-Fps sind natürlich eine Nummer darunter). Das heißt auch: Bei vernünftigen Faktoren bis schlimmstenfalls 16x ist die Radeon gut dabei oder gar schneller als Kepler/Fermi, erst darunter verreckt Ati total.

MfG,
Raff

dildo4u
2012-09-16, 13:12:03
Pitcairn tesselliert wie Tahiti, wenn man den Verlauf betrachtet (die Pitcairn-Fps sind natürlich eine Nummer darunter). Das heißt auch: Bei vernünftigen Faktoren bis schlimmstenfalls 16x ist die Radeon gut dabei oder gar schneller als Kepler/Fermi, erst darunter verreckt Ati total.

MfG,
Raff

Bei Crysis 2 scheint es sich schon auszuwirken unter 1080p schneller als 7870,da drüber liegt die AMD vorne aber mit unspielbaren fps.
http://www.computerbase.de/artikel/grafikkarten/2012/test-nvidia-geforce-gtx-660/29/

Limitiert whol jeweils Tesselation und dann wieder Rechenleistung.

Blediator16
2012-09-16, 13:22:03
Werden bei C2 immernoch flache Wände, weit entferntes Terrain und Stellen, die der Spieler garnicht sieht tessliert?

dildo4u
2012-09-16, 13:35:27
Werden bei C2 immernoch flache Wände, weit entferntes Terrain und Stellen, die der Spieler garnicht sieht tessliert?
Nein das wurde von einem Dev entkräftet.Dort gibt's ein paar Post's dazu,das was man im Wireframe Modus zu sehen bekommt entspricht nich dem was die Karte beim Zocken berechnen muss.

The wireframes may look overtessellated, but it's the nature of the technique. Also, wireframe mode has no culling - you can see everything behind anything in wireframe mode, including the ocean. It doesn't necessarily mean you can see these things in normal mode. I hope everyone takes this into account when they're judging tessellation in wireframe mode

Our tessellation system LODs heavily so the complaints about it being "over-tessellated" (which in itself is an oxymoron because the whole point of tessellation is to massively increase the triangle count with minimal performance impact, which is exactly what Crysis 2's DX11 implementation does) don't make sense because objects are at their highest detail when you're up close and drop tris when you're at a distance, just like any normal LOD system but with tessellation, many more triangles up close.



http://www.crydev.net/viewtopic.php?p=889047

Ist ja auch nich so das die AMD's total wegbrechen wäre das der Fall,könnte man das Game z.b mit na 560TI vergessen.Es zeigt aber das sich die Tesselationsleistung positiv auswirken kann und das nich nur in Theorie Benches.

M4xw0lf
2012-09-16, 14:40:44
Bei Crysis 2 scheint es sich schon auszuwirken unter 1080p schneller als 7870,da drüber liegt die AMD vorne aber mit unspielbaren fps.
http://www.computerbase.de/artikel/grafikkarten/2012/test-nvidia-geforce-gtx-660/29/
Limitiert whol jeweils Tesselation und dann wieder Rechenleistung.
Ist ja auch nich so das die AMD's total wegbrechen wäre das der Fall,könnte man das Game z.b mit na 560TI vergessen.Es zeigt aber das sich die Tesselationsleistung positiv auswirken kann und das nich nur in Theorie Benches.

Wenn das der Fall wäre (Tesselation als limitierender Faktor), dann müsste die HD7870 dank 1GHz Standardtakt schneller sein als die 7950, sogar als die 7970 non-GHZ Edition, da gleiches Frontend... oder nicht? (Im Tessmark wird die 7950 auch sauber gepwnt von der 7870.)

Schaffe89
2012-09-16, 19:24:43
Für Tesselationpower sind eigentlich nur die verbauten Tesselatoren und der Chiptakt wichtig.
Ergo müsste hier die HD 7870 vor der HD 7950 sein, wie es M4xw0lf bereits gesagt hat.

Es limitiert scheinbar etwas anderes.

Iruwen
2012-09-17, 14:06:24
Nein das wurde von einem Dev entkräftet.Dort gibt's ein paar Post's dazu,das was man im Wireframe Modus zu sehen bekommt entspricht nich dem was die Karte beim Zocken berechnen muss.

http://www.crydev.net/viewtopic.php?p=889047

Ist ja auch nich so das die AMD's total wegbrechen wäre das der Fall,könnte man das Game z.b mit na 560TI vergessen.Es zeigt aber das sich die Tesselationsleistung positiv auswirken kann und das nich nur in Theorie Benches.

Komisch dass er hier praktisch das Gegenteil schreibt:
http://www.crydev.net/viewtopic.php?f=126&t=74825&start=30
Gabs Ärger vom Chef?

geezer
2012-09-18, 17:08:14
Traurig ist nur, das eigentlich die GTX680 nur so viel kosten müsste wie die GTX660. :(

Ist doch echt ein Witz...dieses kleine Kärtchen...mit dem winzigen PCB, winzigem Kühler und winzigem Chip. :usad:
Dank der miesen Fertigung ist doch eh alles lächerlich verschoben. Es hat gar keine Zweck sich da aufzuregen. Die Karte müsste eigentlich in den 100 bis 130€ Bereich. Aber so wie es scheint, kauft die Dinger ja trotzdem jemand.


Danke, ihr sprecht mir aus der Seele!

Da wird einem einem ein Mainstream-Chip zum Preis des Performance-Chips der Vorgängergeneration im Vollausbau(!) angeboten (Launchpreise IIRC) und alle so ... yeah, P/L-Verhältnis voll in Ordnung, kann man kaufen! WTF?!?

Warum wird hier so bekackt gottergeben jeder neue 28nm-Wurf in Empfang genommen?! Nur weil der Makt einfach so ist und die Fertigung schlecht läuft? Das kann es doch nicht sein ...

Die Launch-Analyse ist mir da auch viel zu zahm. Das bisschen Performance, was man für das gleiche Geld oben drauf bekommt, spottet doch jeder Beschreibung. Natürlich schön, dass mit Mainstream-Ware die Performance einer kastrierten Highend-Fermi-GPU erreicht wird. Aber für den Preis sollten ganz andere Sprünge drin sein :mad:

dildo4u
2012-09-18, 17:23:17
Was ist hier neu genau?Will man mehr als 50% Leistung für's gleiche Geld haben muss man 2 Jahre warten,das war seit der 8800GTX das selbe Spiel.2006 GTX 8800,dann 9800 Refrech(Selbe Leistung) und erst 2008 kam die GTX280,der Näste großer Sprung wieder 2 Jahre später GTX480.Die 660 ist 60% schneller als der Vorgänger aus 2010.(GTX460)Viele verpeilen,das die 460 zum Launch über 200€ gekostet hat die haben die späteren Preise im Kopf,keine Frage das die 660 noch deutlich billiger wird im Laufe der Zeit.Und die 460 galt als eine sher gute Preis/Leistungskarte.

geezer
2012-09-18, 17:35:12
Na die Fertigung ist neu. Und da passt es nicht zusammen, dass Karten bei sehr ähnlichen Chipgrößen und Verlustleistungsklassen nicht zu annähernd gleichen Preisen verkauft werden.

Aber ich verstehe dich schon: Abgerechnet wird zum 28nm-Refresh.

Zergra
2012-09-18, 17:46:07
Na die Fertigung ist neu. Und da passt es nicht zusammen, dass Karten bei sehr ähnlichen Chipgrößen und Verlustleistungsklassen nicht zu annähernd gleichen Preisen verkauft werden.

Aber ich verstehe dich schon: Abgerechnet wird zum 28nm-Refresh.
Eine neue Fertigung ist nicht Billiger, sonder immer Teurer denn die Entwicklung wird immer aufwendiger und Teuerer. Da macht die Chipverkleinerung den Kohl nicht Fett.

geezer
2012-09-18, 17:50:05
Jo, aber allzu sehr sollte man sich davon nicht einlullen lassen. Denn genau das geht mir gerade in der Berichterstattung mächtig auf den Keks. Also ob die Verkleinerung nicht einen entsprechenden preislichen Effekt haben könnte ...

dildo4u
2012-09-18, 17:58:57
Na die Fertigung ist neu. Und da passt es nicht zusammen, dass Karten bei sehr ähnlichen Chipgrößen und Verlustleistungsklassen nicht zu annähernd gleichen Preisen verkauft werden.

Intel macht das genau so die neuen i5/i7 werden immer kleiner,kosten aber das selbe wie die Vorgänger.Man muss aber zu gute halten,das die Yields wirklich immer schlechter werden je kleiner die Fertigung wird,Nvidia hätte die 660 sicherlich gerne viel früher gegen die 7800 gestellt.Freiwillig überlasst man nich den relativ großen Midrange Markt.

Zergra
2012-09-18, 19:56:34
Intel macht das genau so die neuen i5/i7 werden immer kleiner,kosten aber das selbe wie die Vorgänger.Man muss aber zu gute halten,das die Yields wirklich immer schlechter werden je kleiner die Fertigung wird,Nvidia hätte die 660 sicherlich gerne viel früher gegen die 7800 gestellt.Freiwillig überlasst man nich den relativ großen Midrange Markt.
Naja sie haben ja mit den gleichen Problemen zu Kämpfen, wieso NV so lange gewartet hat oder warten musste wissen wir nicht, dort kann auch das Design Probleme gemacht haben.

dargo
2012-09-18, 20:20:02
Intel macht das genau so die neuen i5/i7 werden immer kleiner,kosten aber das selbe wie die Vorgänger.
Intel ist momentan konkurrenzlos unterwegs, zudem einen Fertigungsprozess im voraus. Das kann Nvidia von sich nicht behaupten.

Mike
2012-09-18, 20:30:36
Da wird einem einem ein Mainstream-Chip zum Preis des Performance-Chips der Vorgängergeneration im Vollausbau(!) angeboten (Launchpreise IIRC) und alle so ... yeah, P/L-Verhältnis voll in Ordnung, kann man kaufen! WTF?!? Und wer definiert, was hier Mainstream ist und was nicht? Du? Mainstream dürfte sich wohl am besten über den Preis [und den Verkaufszahlen] definieren lassen.

Und da passt es nicht zusammen, dass Karten bei sehr ähnlichen Chipgrößen und Verlustleistungsklassen nicht zu annähernd gleichen Preisen verkauft werden. Wen interessiert denn Chipgröße und Verlustleitungsklasse? Primär ausschlaggebend ist doch die Leistung - bieten sie mehr Leistung, können die Hersteller auch mehr verlangen, ganz einfach. Das sind doch keine Wohlfahrtsorganisationen.

Im Übrigen, schau mal wie groß der Kühler beispielsweise einer guten alten Geforce 2 GTS ist, und in welcher Verlustleistungsklasse die gespielt hat. Will sagen: Verlustleistungen etc. sind nicht konstant in einer "Marktklasse" - und ich finde es gar nicht so schlecht, dass der allgemeine Trend zu immer höheren Verlustleistungen in einer Klasse endlich mal gestoppt und momentan gar umgekehrt wurde. Die neuen Grafikkarten verbrauchen weniger elektische Energie als ihre preislichen Vorgänger, und obendrein bekommt man auch noch etwas mehr Rechenleistung - das ist doch toll! ;)
Genauso übrigens wie kleinere PCBs, ich konnte noch nie überlange Monster leiden, wo man in kompakteren Gehäusen schon Platzangst bekommt. Der Umwelt tun sie durch weniger ressourcenintensive Herstellung auch gut.
Man muss also nicht immer alles negativ sehen.
Und falls jemand glaubt, etwas Ironie in dem Beitrag erkennen zu können, dann könnte er richtig liegen.

geezer
2012-09-19, 16:35:18
G K 110

Sagt dir was, oder? Welche Kategorie wird das sein? Hyper-Highend? Wieviel sollen diese Karten kosten? 600 Euro? 700 Euro?

Natürlich interessiert die Chipgröße, sie korreliert (nach Abzug der Mehrkosten durch immer größeren Aufwand bei kleineren Fertigungsstrukturen) ohne jede Frage mit dem Preis. Bei normalem Yield mehr Chips pro Wafer und so ...

Falls die Äußerungen auch im Ironiebereich gelegen haben sollten, weißte Bescheid, wie du mit meiner Antwort umzugehen hast ;)

Mike
2012-09-19, 19:57:41
G K 110

Sagt dir was, oder? Welche Kategorie wird das sein? Hyper-Highend? Wieviel sollen diese Karten kosten? 600 Euro? 700 Euro? Den gibt's schlicht noch nicht im normalen Endkundenmarkt. Zuerst wird anscheined der professionelle Bereich beliefert, wo die Preise wohl im vierstelligen Bereich liegen, also ja, wegen mir [momentan noch] Hyper-Highend. ;)

Natürlich interessiert die Chipgröße, sie korreliert (nach Abzug der Mehrkosten durch immer größeren Aufwand bei kleineren Fertigungsstrukturen) ohne jede Frage mit dem Preis. Bei normalem Yield mehr Chips pro Wafer und so ... Das mag ja stimmen, aber wir bezahlen ja nicht direkt TSMC, sondern das macht nVidia. Demzufolge interessiert nVidia die Chipgröße und ihre Gewinnspanne, dem Endkunden kann das ja erstmal egal sein, ob nVidia (bei gleichem Endkundenpreis) etwas mehr oder weniger Gewinn macht. ;)

geezer
2012-09-20, 17:25:20
Nee, egal ist es mir nicht, wenn sich die Gewinnspanne auf Kosten des Endkunden unangemessen ausdehnt. Dafür ist der Markt dann doch zu transparent.

Mike
2012-09-20, 21:01:38
Nee, egal ist es mir nicht, wenn sich die Gewinnspanne auf Kosten des Endkunden unangemessen ausdehnt. Dafür ist der Markt dann doch zu transparent.
Naja, ich schaue nur auf den Endkundenpreis und das Preis-Leistungsverhältnis, ich habe mir noch nie die Mühe gemacht, zu versuchen und auszurechnen, was nvidia und der Grafikkartenhersteller an ner Karte verdienen, zumal das vermutlich ja auch nur sehr grobe Abschätzungen werden könnten.
Und ob es das Wort "unangemessen" im Kapitalismus im Zusammenhang mit Gewinn gibt.. :D

Aber an dieser Stelle sollten wir wohl die Diskussion beenden und zum Topic zurückfinden, hoffen wir schlicht, dass die Preise noch etwas nachgeben.

starsnake
2012-09-21, 11:06:36
Ich erwarte schon sehnsüchtig den ersten echten Erfahrungsbericht hier...

zum Thema Preis, nun hier auf dem Marktplatz wird derzeit eine gebrauchte 460er 1 GB für 90 Euro angeboten, 660er um die 50 Prozent schneller, neu um die 200, also so vollkommen überteuert ist sie wohl nicht.

Ich spiele mit dem Gedanken für meinen nächsten Monitor mit Full HD oder 1920:1200 mir diese Karte ( aber non OC ) zu kaufen. Derzeit habe ich auch noch eine 460GTX.

bis denne
Henning

dargo
2012-09-21, 11:32:23
zum Thema Preis, nun hier auf dem Marktplatz wird derzeit eine gebrauchte 460er 1 GB für 90 Euro angeboten, 660er um die 50 Prozent schneller, neu um die 200, also so vollkommen überteuert ist sie wohl nicht.

Ich kann auch eine 460-er für 200€ anbieten. Wer ist denn so behämmert und zahlt 90€ für eine gebrauchte 460-er? Das Ding ist höchstens noch 60€ wert, wohl eher 50€.

Undertaker
2012-09-21, 11:32:53
Vor genau dieser Überlegung stand ich auch, habe mich aber letztlich dagegen entschieden. Die GTX460 lässt sich idR exzellent übertakten, so dass mir der Leistungssprung letztlich zu klein wäre.

larodar
2012-09-21, 11:50:28
Bei mir wirds wohl auch die 660 werden obwohl ich wohl 5€ mehr zahlen werde als für ne 7870

Aber die Treiber bei meiner 6850 sind mir einfach zu beschnitten deswegen wirds jetzt ne Nvidia + Lautstärke/Hitze/Stromaufnahme sind bei der 660 einfach besser besonders bei den Asus Modellen kann man von silent reden.

Raff
2012-09-21, 11:51:33
Eine GTX 660 kannst du auch auf einen Boost um 1.250 MHz prügeln, das bringt gegenüber dem Standard auch ~20 Prozent und damit grob Ti-Leistung. Eine HD 7870 ist trotzdem das potentere Produkt. Die GTX 460 sollte man mittlerweile nicht überschätzen, die ist tatsächlich auch übertaktet arschlahm. :biggrin:

MfG,
Raff

starsnake
2012-09-21, 12:12:23
Eine GTX 660 kannst du auch auf einen Boost um 1.250 MHz prügeln, das bringt gegenüber dem Standard auch ~20 Prozent und damit grob Ti-Leistung. Eine HD 7870 ist trotzdem das potentere Produkt. Die GTX 460 sollte man mittlerweile nicht überschätzen, die ist tatsächlich auch übertaktet arschlahm. :biggrin:

MfG,
Raff

na ja, okay, für 1680:1050 geht`s aber noch ganz gut.
Wie dem auch sei, jeder hat auch unterschiedliche Ansprüche.
Was wir gelernt haben: 90 Euro für eine 460er jetzt ist zuviel:smile:

bis denne
Henning

Undertaker
2012-09-21, 12:14:14
Eine GTX 660 kannst du auch auf einen Boost um 1.250 MHz prügeln, das bringt gegenüber dem Standard auch ~20 Prozent und damit grob Ti-Leistung. Eine HD 7870 ist trotzdem das potentere Produkt. Die GTX 460 sollte man mittlerweile nicht überschätzen, die ist tatsächlich auch übertaktet arschlahm. :biggrin:

MfG,
Raff

Ich habe nur einige Reviews überflogen, bei CB war bei ~1,1 GHz Schluss - aber OK, wenn du von "prügeln" sprichst. :D

Die GTX 460 steht gegen so manch aktuelle Performancekarte tatsächlich ziemlich schwach da, allerdings haben sich die Leistungsanforderungen bei Verzicht auf AA in den letzten Jahren auch ungewohnt langsam entwickelt - zumindest für mich Anlass genug, noch auf den 28nm-Refresh zu warten. ;)

Edit: Wahnsinn, meine GTX 460 werkelt tatsächlich schon mehr als 2 Jahre hier... Einen so geringen "Leidensdruck" hatte ich nach so langer Aufrüstpause wohl noch nie. Wenn mich aktuell etwas an der GTX 660 reizt, dann ist das vor allem die extrem geringe Leistungsaufnahme im Leerlauf/Multimedia/Dual-Moni Betrieb.

Matrix316
2012-09-21, 13:02:32
G K 110

Sagt dir was, oder? Welche Kategorie wird das sein? Hyper-Highend? Wieviel sollen diese Karten kosten? 600 Euro? 700 Euro?

Natürlich interessiert die Chipgröße, sie korreliert (nach Abzug der Mehrkosten durch immer größeren Aufwand bei kleineren Fertigungsstrukturen) ohne jede Frage mit dem Preis. Bei normalem Yield mehr Chips pro Wafer und so ...

Falls die Äußerungen auch im Ironiebereich gelegen haben sollten, weißte Bescheid, wie du mit meiner Antwort umzugehen hast ;)
Also die GTX 680 und 7970 haben Anfangs ja um 500 gekostet und eine 690 das doppelte, also kann es schon sein, dass eine etwaige GTX 780 auch so 500-600 Euro kosten wird.

Und ist es nicht lustig, dass AMD gerade bei 7800 und 7900 ist, wo Nvidia auch mal vor 5 Jahren war?! ;)

medi
2012-09-21, 13:11:30
Bei mir wirds wohl auch die 660 werden obwohl ich wohl 5€ mehr zahlen werde als für ne 7870

Aber die Treiber bei meiner 6850 sind mir einfach zu beschnitten deswegen wirds jetzt ne Nvidia + Lautstärke/Hitze/Stromaufnahme sind bei der 660 einfach besser besonders bei den Asus Modellen kann man von silent reden.

Geht mir genauso. Hab zwar mit ner XFX 7870 Double Dissipation Edition geliebäugelt aber die verbrät unter Last 185W ... das ist mir zuviel des Guten ... 150W ist meine Schmerzgrenze. Da wart ich lieber noch bissl auf die 660er von Asus. Für PortRoyal2 brauch ich eh keine von beiden :D

Raff
2012-09-21, 13:16:00
Geht mir genauso. Hab zwar mit ner XFX 7870 Double Dissipation Edition geliebäugelt aber die verbrät unter Last 185W ...

185? Nee. Wo hast du das her? HD-7870-OC-Karten liegen eigentlich im Bereich 130 bis 150 Watt (Quelle: PCGH).

MfG,
Raff

dargo
2012-09-21, 13:16:56
185? Nee. Wo hast du das her?
Wahrscheinlich von Geizhals. ;D

larodar
2012-09-21, 14:56:24
http://ht4u.net/reviews/2012/nvidia_geforce_gtx_660_evga_gtx660_sc_msi_n660gtx_tf_oc_test/index14.php

HT4U sagt für OC Versionen ~ 150W

http://www.techpowerup.com/reviews/Powercolor/HD_7870_PCS_Plus_Vortex_II/25.html

Techpowerup differenziert 130/144/174 (Crysis 2 Average/Peak/Furmark)

medi
2012-09-21, 15:06:54
185? Nee. Wo hast du das her? HD-7870-OC-Karten liegen eigentlich im Bereich 130 bis 150 Watt (Quelle: PCGH).

MfG,
Raff

http://ht4u.net/reviews/2012/xfx_radeon_hd_7870_black_edition_test/index12.php (ok, sind "nur" 180W)

Zumindest im furmark was wohl der absolute Maximalverbrauch ist, den die Graka -im schlimmsten Fall - haben kann oder irre ich mich da?

Raff
2012-09-21, 15:07:58
Dieses Niveau wird aber in keinem neuen oder alten Spiel erreicht und ist daher Irrelephant.

MfG,
Raff

dildo4u
2012-09-21, 15:25:51
GTX660 Borderlands 2 Performance

CPU Limit bei den Karten über 250€?
http://www.abload.de/img/2560n1u2m.png

http://www.techspot.com/review/577-borderlands-2-performance/page4.html

Raff
2012-09-21, 15:31:47
Ich habe hier andere Werte. Ist das mit dem intrigierten ;) Benchmark? Solche Angaben müssen einfach dranstehen!

MfG,
Raff

dildo4u
2012-09-21, 15:34:27
We'll use Fraps to measure frame rates during 90 seconds of gameplay footage from Borderlands 2's second level, "Southern Shelf." The test begins at the start of the level and here the frame rate is quite high as there is little scenery. However, the frame rate quickly dives as the player walks out into an open area and battles some Brat Bullymong..

Die sind böse im CPU Limit selbst mit dem 3960X.

Ronny145
2012-09-21, 15:36:03
Gibt es ein 75 fps Limit oder was sollen die 1680 Ergebnisse? Kein Wunder das die schnelleren sich nicht absetzen können, die werden schließlich vom 75 fps Limit härter getroffen.

dildo4u
2012-09-21, 15:37:02
Gibt es ein 75 fps Limit oder was sollen die 1680 Ergebnisse? Kein Wunder das die schnelleren sich nicht absetzen können, die werden schließlich vom 75 fps Limit härter getroffen.
CPU Limit möglich das Raff weiter kommt mit dem 4.5Ghz 3770.
http://www.techspot.com/review/577-borderlands-2-performance/page6.html

boxleitnerb
2012-09-21, 15:37:17
VSync und 75 Hz?

Raff
2012-09-21, 15:37:59
Im Spiel darf man diverse Framelimits auswählen, ein solches aber auch abschalten.

MfG,
Raff

dildo4u
2012-09-21, 15:39:30
Sieh mein Link die kommen über 75 fps mit dem 4.5Ghz 3770.

Mike
2012-09-21, 15:46:10
Ich kann auch eine 460-er für 200€ anbieten. Wer ist denn so behämmert und zahlt 90€ für eine gebrauchte 460-er? Das Ding ist höchstens noch 60€ wert, wohl eher 50€.
Zumindest der Ebay-Marktpreis von MSI GTX460 Cyclone Modellen lag vor kurzem wirklich noch bei 85-90 Euro, diese Karten sind aber immerhin relativ leise.

Ronny145
2012-09-21, 15:52:08
CPU Limit möglich das Raff weiter kommt mit dem 4.5Ghz 3770.
http://www.techspot.com/review/577-borderlands-2-performance/page6.html


Aber nicht bei den GPU Benchmarks.


The frame rate would spike to around 120fps with the higher-end cards, however, out on the ice ledge where the majority of the test took place, the frame rate was limited to 75fps.

Raff
2012-09-21, 22:42:30
Hier sind übrigens die PCGH-Benchmarks zu Bordelaise 2 ;):

Borderlands 2 im Test mit 20 Grafikkarten - spielbar selbst mit 2006er-Hardware (http://www.pcgameshardware.de/Borderlands-2-PC-234034/Tests/Borderlands-2-im-Test-mit-20-Grafikkarten-1025812/)

Die Radeons "sucken", aber nicht dramatisch – die Legacy-Modelle ausgenommen.

MfG,
Raff

dildo4u
2012-09-21, 22:50:47
Kein Wunder das NV PhysX pusht,ohne läuft es wirklich gut genug auf na 100€ Karte.650 dürfte Ideal sein.

Raff
2012-09-21, 22:56:36
Ich finde die Effekte ja auch geil, aber gescheite Kantenglättung wäre noch toll gewesen. Dummerweise pusht Nvidia nämlich nicht nur PhysX, sondern auch das grützige, schnell zu implementierende FXAA. SGSSAA an seiner statt wäre schön gewesen. Wäre das ein AMD-Spiel, gäb's zum FXAA wohl OGSSAA/Downsampling dazu; Sleeping Dogs (http://www.pcgameshardware.de/Sleeping-Dogs-PC-233842/Tests/Sleeping-Dogs-im-DirectX-11-Test-1020709/) ahoi. :biggrin:

MfG,
Raff

dildo4u
2012-09-21, 23:02:10
Ich finde die Effekte ja auch geil, aber gescheite Kantenglättung wäre noch toll gewesen. Dummerweise pusht Nvidia nämlich nicht nur PhysX, sondern auch das grützige, schnell zu implementierende FXAA. SGSSAA an seiner statt wäre schön gewesen. Wäre das ein AMD-Spiel, gäb's zum FXAA wohl OGSSAA/Downsampling dazu; Sleeping Dogs (http://www.pcgameshardware.de/Sleeping-Dogs-PC-233842/Tests/Sleeping-Dogs-im-DirectX-11-Test-1020709/) ahoi. :biggrin:

MfG,
Raff

Ich glaube nich das NV verhindert hat das der UE 3.5 DX11 Renderer(Und damit MSAA) genutzt wird,denke eher das liegt an Gearbox.Die bewegen sich Techweise extrem langsam,z.b deren Neues Alien Game sieht auch aus wie das letzte von 2010 nur ohne Tesselation. lol.

aufkrawall
2012-09-21, 23:04:52
Gibts irgendein UE DX11 Spiel mit gescheiter Glättung?

Raff
2012-09-21, 23:07:27
Buttman: Arkham City


Ich glaube nich das NV verhindert hat das der UE 3.5 DX11 Renderer(Und damit MSAA) genutzt wird,denke eher das liegt an Gearbox.Die bewegen sich Techweise extrem langsam,z.b deren Neues Alien Game sieht auch aus wie das letzte von 2010 nur ohne Tesselation. lol.

Ach komm, Duke Nukem Forever ist doch voll hübsch geworden. X-D :ulol:

MfG,
Raff

aufkrawall
2012-09-21, 23:08:53
Das greift nicht so dolle/sieht aufgewertet zu SGSSAA auch nicht gut aus.
Wenigstens kann man bei DX9 über den Treiber erzwingen.

dildo4u
2012-09-21, 23:09:23
Timothy Lottes wollte TXAA im Game haben,ging aber nich weil Gearbox nur DX9 eingebaut hat.Denke NV wird da schon sauer sein,weil das im vorraus beworben wurde.

http://forums.anandtech.com/showpost.php?p=33856875&postcount=365

TXAA wär imo schon cool gekommen,weil's eh keine High Detail Texturen gibt die zerstört werden können. *g*

Raff
2012-09-21, 23:15:39
Yop, Borderlands 2 hat das Zeug zum TXAA-Showcase. War aber nichts. Wo also bleibt SGSSAA? Ach, das funktioniert angeblich schon (http://extreme.pcgameshardware.de/news-kommentare-zu-action-spielen/237799-borderlands-2-im-test-mit-20-grafikkarten-spielbar-selbst-mit-2006er-hardware.html#post4579121) ... :naughty:

MfG,
Raff

aufkrawall
2012-09-21, 23:17:05
Wo also bleibt SGSSAA? Ach, das funktioniert angeblich schon (http://extreme.pcgameshardware.de/news-kommentare-zu-action-spielen/237799-borderlands-2-im-test-mit-20-grafikkarten-spielbar-selbst-mit-2006er-hardware.html#post4579121) ... :naughty:
Ist bekannt ;) :
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9470137&postcount=3275

C1 tuts auch.

larodar
2012-09-26, 17:05:07
So, ich hab zugeschlagen, für 210€ ist es die non-OC Version von Asus geworden.

Für das Geld hätte man zwar etwas schnellere Karten bekommen (OC-660, 7870 oder OC-7870) aber da mein primäres Ziel ja immernoch ist einen Silent PC zu haben, gab es nur diese eine Karte.

Fazit:
Performancesteigerung zur HD6850: etwas mehr als verdoppelt
PC weiterhin ultraSilent: definitiv

Bin vollauf zufrieden

BZ
2012-10-17, 19:14:10
Gibts schon einen Editor für das Kartenbios?
Mir sind die Lüfter von meiner Gigabyte GTX660 im Leerlauf zu schnell.
40% 1320RPM.
Danke Euch.

Iruwen
2012-10-18, 11:05:07
Editor gibts nicht und wirds evtl. auch nicht geben, zumindest zeitnah nicht. Muss man selbst handanlegen.

BZ
2012-10-18, 12:57:55
Hast Du mal einen Tip Iruwen?
Mit Software kann ich das nicht regeln,
weil die 40% Anfangsgeschwindigkeit fest im Bios eingestellt sind.
Danke.

larodar
2012-10-18, 14:16:53
Das Bios überschreibt die Einstellungen?

Bei meiner Asus funktioniert es einwandfrei im Asus GPU Tweak, 10% ~1050rpm eingestellt und gut ist :)

BZ
2012-10-18, 14:38:25
Das geht ja eben nicht,
bei mit beginnt es erst bei 40%,
kann dann bis 100% regeln.

Thunder99
2012-10-24, 13:07:47
MSI bringt ja diese Tage ihre Hawk Edition raus. Ist da schon bekannt in wie weit man da das Power Target hoch setzen kann?

dildo4u
2013-02-05, 21:49:15
3DMark - Fire Strike

http://www.computerbase.de/artikel/software/2013/futuremark-3dmark/5/

Interessant die 660 ist beim Exterme Test 35% schneller als eine 580,normal sollte das doch nich möglich sein mit dem Verkrüppelten Anbindung der letzten 512mb.Kann die 660 die 2GB doch Sinnvoll nutzen?

aufkrawall
2013-02-05, 21:51:28
Das war doch nur bei der Ti so.

dildo4u
2013-02-05, 21:58:18
Die haben beide die selbe Anbindung.Mich wundert es nur das sie sich 30% absetzen kann ich kann mir nicht vorstellen,das es mit einem 256 Interface viel mehr wäre.

Die GeForce GTX 660 kommt mit drei 64-Bit-Speichercontrollern daher, was ein 192 Bit breites Interface ergibt. An dieses wird ein zwei Gigabyte großer Speicher mit 3.004 MHz angeschlossen, wobei ein Controller 1.024 MB versorgt und die beiden anderen jeweils 512 MB. 1,5 GB können dadurch per „Interleaving“ mit den vollen 192 Bit angesteuert werden, während die restlichen 512 MB nur einen einzelnen Controller, sprich 64 Bit, nutzen können. Dasselbe gilt schon für die GeForce GTX 660 Ti und kostet dort, wenn überhaupt, nur minimal an Performance. Wie die Hardware beziehungsweise der Treiber die Daten auf den Speicher aufteilt, ist unklar und gibt Nvidia nicht bekannt. Es ist aber anzunehmen, dass zuerst die schnellen 1,5 Gigabyte genutzt werden und dann nur im Notfall die langsameren, restlichen 512 MB.

http://www.computerbase.de/artikel/grafikkarten/2012/test-nvidia-geforce-gtx-660/

aufkrawall
2013-02-05, 22:07:54
Das wusst ich nicht, dachte es wär nur bei der Ti so.

Ist jetzt die Frage, wie sehr bei Firestrike die Bandbreite eine Rolle spielt.
Die Ti hatte jedenfalls nicht unbedingt bei Spielen mit hohem VRAM-Verbrauch besonders schlecht abgeschnitten.

Spasstiger
2013-02-05, 23:08:51
Fire Strike Extreme dürfte stark an der arithemtischen Rechenleistung hängen (dynamische Partikeleffekte, aufwändiges Shading) und das ist nunmal bei einfacher Präzision nicht die Stärke der GTX 580 im Vergleich zu den anderen Karten im Test. Die GTX 660 hat 1882 GFlops SP (ohne Turbotakt), die GTX 580 nur 1581 GFlops. Möglicherweise spielt auch die Texelfüllrate eine Rolle, hier hat die GTX 660 sogar einen theoretischen Vorteil von fast 60%.
Außerdem leiden die Kepler-Karten nicht sehr stark unter der asymmetrischen Speicherbestückung, da muss man schon nach synthetischen Spezialfällen Ausschau halten. Und natürlich sind 1,5 GiB @ 144 GB/s + 0,5 GiB @ 48 GB/s immer noch besser als 1,5 GiB @ 192 GB/s + 0,5 GiB @ 8 GB/s (PCIe 2.0 x16). Wenn man annimmt, dass man einmal die kompletten 2 GiB auslesen möchte, würde es nämlich im ersten Fall (asymmetrische Speicherbestückung) mindestens rund 22 ms dauern und im zweiten Fall mindestens rund 75 ms. D.h. die effektive Bandbreite der ersten Variante wäre mehr als dreimal so hoch.

dildo4u
2013-02-05, 23:11:19
Fire Strike Extreme dürfte stark an der arithemtischen Rechenleistung hängen (dynamische Partikeleffekte, aufwändiges Shading) und das ist nunmal bei einfacher Präzision nicht die Stärke der GTX 580 im Vergleich zu den anderen Karten im Test. Die GTX 660 hat 1882 GFlops SP (ohne Turbotakt), die GTX 580 nur 1581 GFlops. Möglicherweise spielt auch die Texelfüllrate eine Rolle, hier hat die GTX 660 sogar einen theoretischen Vorteil von fast 60%.
Außerdem leiden die Kepler-Karten nicht sehr stark unter der asymmetrischen Speicherbestückung, da muss man schon nach synthetischen Spezialfällen Ausschau halten.
Jo aber warum ist die 660 dann beim 1080p Test nicht auch 30% besser?

Spasstiger
2013-02-05, 23:25:22
Jo aber warum ist die 660 dann beim 1080p Test nicht auch 30% besser?
Weniger Shaderlast, der Extreme-Modus erhöht ja nicht nur die Auflösung, sondern auch den Detailgrad.

dildo4u
2013-02-05, 23:29:39
Ah ok dann scheint Kepler ja recht gut für die Zukunft ausgelegt zu sein.Hätte nich gedacht das sie sich mal 30% von der 580 absetzt.

Spasstiger
2013-02-05, 23:31:40
Es spricht ja in diesem Szenario sowieso alles für die GTX 660 gegenüber der GTX 580 1,5 GiB. Mehr Rechenleistung, deutlich mehr Texelfüllrate und wenns an die Auslastung von 2 GiB VRAM geht auch mehr effektive Speicherbandbreite.
Um die Frage abschließend zu klären, müsste man noch eine GTX 660 mit 1,5 GiB oder eine GTX 580 mit 3 GiB testen.
Ich sehe die Kepler-Karten generell auch deutlich besser für die Zukunft gerüstet als die Fermi-Karten. Rechenleistung wird immer wichtig sein. Mit dynamischen Partikeleffekten per Compute Shader ist ja auch ein Anwendungsgebiet gefunden, wo kinderleicht die Teraflops verbraten werden können. ;)
/EDIT: Hier ist die GTX 580 bei Computeshader-Tests aber meist im Vorteil: http://www.computerbase.de/artikel/grafikkarten/2012/test-nvidia-geforce-gtx-660/9/. :confused:

Und bei der PCGH ist der Unterschied zwischen der GTX 660 und der GTX 580 in Fire Strike Extreme nur knapp 10% klein: http://www.pcgameshardware.de/3DMark-Software-122260/Tests/3DMark-im-Test-Benchmarks-Download-1047157/. Das passt wunderbar zum Unterschied bei der theoretischen Rechenleistung. Laut PCGH nutzt der Test auch nur 1,5 GiB VRAM und nicht 2 GiB, womit die GTX 580 ausreichend bestückt sein sollte.

Angiesan
2013-02-06, 00:02:48
Ja es ist schon erstaunlich, was der"kleine" Kepler alles kann.
Ich habe mir eine Zotac 660 AMP für mein Minirechner mit Coolcube Gehäuse gekauft und dieser einen Core i3 3220 zur Seite gestellt, die GTX 660 ist sehr ausgewogen und das 192 Bit SI scheint keine große Sache zu sein.
Da ich beim Spielen auch den Speicherverbrauch mitlaufen lasse kann ich mit absoluter Sicherheit sagen, dass NV bei der Karte was anders macht wie bei den großen Keplers.
Es ist mir mehrmals aufgefallen, das die Karte sich oft bei 14xx MB festsetzt.
Eine ebenfalls hier betriebene GTX 670 verbraucht bei dem gleichen Spiel bei der gleichen Szene auch schon mal 16xx MB und dies bei gleichen Einstellungen, ich habe den Cube mit der gleichen Platte zum Probelauf gebeten :-).Auch zeigen Test z.B. bei Hardware Luxx wo man gleich mehrere 660 Ti´s gegeneinander laufen ließ unter anderem die Evga mit 3 GB das diese Karte keinen Nutzen aus der theoretisch schnelleren Anbindung für die oberen 512 MB bzw in diesem Fall 1GB ziehen konnte. Und dies nicht nur unter Full HD sondern auch in 1600er Auflösung und AA wo es sicherlich eher vorkommt das dieser Speicherbereich genutzt wird. NV hat mit dieser Karte die Hausaufgaben erledigt, ich bin sehr begeistert von dem kleinen Kepler und hätte nicht gedacht das die Karte so eine Leistung bringt der Unterschied ist natürlich messbar, aber bei vielen Spielen die ich zur Zeit spiele ist der unterschied nicht fühlbar da immer noch genug FPS zur verfügung stehen.
Und eine Besonderheit, Far Cry 3 läuft auf der GTX 660 langsamer wie auf der GTX 670 aber viel gleichmäßiger, das Spielgefühl ist subjektiv besser wie auf dem großen System, ich konnte nicht herausfinden woran dies liegt:mad: Ich habe die CPU in Verdacht das System mit der GTX 670 arbeitet mit einem i5 2400 @3600 MHz auf einem P67 und der Cube wie schon beschrieben mit einem i3 mit einem B75 Chipsatz.

Knuddelbearli
2013-02-06, 01:08:50
naja Ramverbrauch ist nicht gleich ramverbrauch

normalerweise wird alles solange es geht im VRAM gelassen erst wenn es richtung 100% geht wird angefangen zu löchen

bei der 660 mit asynchronen Speicherinterface scheint NV da einfach die grenze bei 14xx zu ziehen. der langsam speicher wird also nicht benutzt. erst wenn man darüber muss da mehr als 1400 für die aktuelle szene benötigt wird wird drüber gegangen da 48GB/s immer noch merh als 8Gb/s des PCI-E sind.

Raff
2013-02-06, 09:29:15
Der neue 3DMark läuft ab Werk ohne MSAA, da ist's kein Wunder, dass auch kleine Keplerchen mitkommen. Wäre bei einem Preset 4x oder gar 8x MSAA an, hätten die großen Fermis bessere Chancen.

MfG,
Raff

boxleitnerb
2013-02-06, 09:49:32
Hat Computerbase dann Mist gebencht? Wenn die Differenz bei PCGH 10%, bei CB aber 35% ist, stimmt irgendwas nicht.

Raff
2013-02-06, 10:18:56
PCGH bencht mit dem "garantierten Boost", also fixiertem Kepler-Maximaltakt, bei CB weiß ich's nicht. Das kann schon mal fünf Prozent gegenüber einem selektierten, boostfreudigen Sample ausmachen, aber daran kann's nicht liegen.

MfG,
Raff

dargo
2013-02-06, 10:35:19
Fire Strike Extreme dürfte stark an der arithemtischen Rechenleistung hängen (dynamische Partikeleffekte, aufwändiges Shading) und das ist nunmal bei einfacher Präzision nicht die Stärke der GTX 580 im Vergleich zu den anderen Karten im Test. Die GTX 660 hat 1882 GFlops SP (ohne Turbotakt), die GTX 580 nur 1581 GFlops.
Nur sind die GFlops von Kepler gar nicht vergleichbar mit GFlops von Fermi. ;)

Ronny145
2013-02-06, 15:09:07
Hat Computerbase dann Mist gebencht? Wenn die Differenz bei PCGH 10%, bei CB aber 35% ist, stimmt irgendwas nicht.


Bei den PCGH Werten wäre ich vorsichtig, der 660 Ti Wert in Cloud Gate liegt viel zu niedrig. Nicht auszuschließen, dass andere Werte eine ähnliche Unstimmigkeit aufweisen.

Raff
2013-02-06, 16:41:28
Bei den PCGH Werten wäre ich vorsichtig, der 660 Ti Wert in Cloud Gate liegt viel zu niedrig. Nicht auszuschließen, dass andere Werte eine ähnliche Unstimmigkeit aufweisen.

Die Werte der GTX 680 und HD 7970 stimmen zwischen CB und PCGH übrigens fast 1:1. Das nur als Beispiel und Anregung.

MfG,
Raff

Knuddelbearli
2013-02-06, 17:28:19
PCGH bencht mit dem "garantierten Boost", also fixiertem Kepler-Maximaltakt, bei CB weiß ich's nicht. Das kann schon mal fünf Prozent gegenüber einem selektierten, boostfreudigen Sample ausmachen, aber daran kann's nicht liegen.

MfG,
Raff


bei AMD auch? besonders der 7870 Boost

lingua
2013-02-06, 19:34:29
Nur sind die GFlops von Kepler gar nicht vergleichbar mit GFlops von Fermi. ;)

GFlops != GFlops? Denke es geht darum, was auf die "Strasse" kommt?

Geht's genauer?

Ronny145
2013-02-06, 19:48:06
Die Werte der GTX 680 und HD 7970 stimmen zwischen CB und PCGH übrigens fast 1:1. Das nur als Beispiel und Anregung.

MfG,
Raff


Ich habe nicht jede Karte auf Verdachtsmomente hin untersucht, wenn aber in einem review Werte einer Karte viel zu niedrig angegeben sind, wäre ich mehr als vorsichtig bei Quervergleichen zwischen zwei unterschiedlichen reviews. Die Vertrauensbasis ist dann nämlich gestört. Im übrigen sollte der fixierte Takt zwingend im Test mit angegeben sein. Davon halte ich nebenbei erwähnt nichts.

aufkrawall
2013-02-06, 20:38:42
Davon halte ich nebenbei erwähnt nichts.
Ich auch nicht. Es sollte stattdessen sichergestellt werden, dass der Boost vom Sample in etwa dem Mittelwert entspricht, also durch Selektion bei der Karte sichergestellt wird, nicht durch Softwarehacks.
Oder man selektiert gar nicht und weist darauf hin, dass wegen dem Boost die Ergebnisse naturgemäß streuen können.

Stimmt denn das mit den 5% Streuung wirklich?
Kann ich mir zumindest bei GK104 nicht vorstellen.

Ronny145
2013-02-06, 21:06:02
Ich würde weder selektieren noch fixieren. Bei der Fixierung entfernt man sich doch weiter vom praxisnahen Bereich als wenn man ein Modell mit schwachen oder starken Boostverhalten ohne Fixierung testet. Meine Gigabyte boostet bis auf 1215 Mhz, die PCGH würde das dann auf 1111 Mhz fixieren. Oder gar nur den Basis Takt von 1032 Mhz? Fixierte Taktraten sollte man wenigstens im Test erwähnen. Ob die 5% stimmen weiß ich nicht, bei der Gigabyte gibt es Meldungen zwischen 1200-1228 Mhz.

Knuddelbearli
2013-02-06, 21:38:55
problem ist halt auch die testmethotik

ht4u hat ja gezeigt das in manchen spielen in längeren spielesessions der turbo teils massiv sinkt

Rente
2013-02-06, 21:56:13
Das ist wohl quasi allein von der Kühlung abhängig.
Solang meine Gigabyte 670er nicht über 71°C geht bleibt der Boost absolut stabil, wenn es sein muss auch über eine Stunde oder mehr.
Erst bei mehr als diesen 71° geht er minimal runter (natürlich vorausgesetzt das sie ausgelastet bleibt).

aufkrawall
2013-02-06, 23:20:29
Das ist wohl quasi allein von der Kühlung abhängig.
So ist es wohl.
Wie der Turbo bei vernünftigen Temperaturen "massiv sinken" soll, erschließt sich mir nicht.

Ronny145
2013-02-06, 23:26:36
Die TDP kann auch limitieren und zur Turbosenkung führen. Lässt sich leicht in Furmark beobachten.

N0Thing
2013-02-07, 01:39:24
Ich hab in Benchmarks lieber einen fixen maximalen Takt, als daß Kartenhersteller, Modell, Gehäuse und dessen Belüftung auf die Benchmarkergebnisse Einfluß nehmen.

Wenn die eigene Karte höher takten kann, dann sollte der mündige und erfahrene Anwender die Benchmarkergebnisse ja halbwegs interpolieren können. ;)

Ronny145
2013-02-07, 05:50:16
Ich hab in Benchmarks lieber einen fixen maximalen Takt, als daß Kartenhersteller, Modell, Gehäuse und dessen Belüftung auf die Benchmarkergebnisse Einfluß nehmen.

Wenn die eigene Karte höher takten kann, dann sollte der mündige und erfahrene Anwender die Benchmarkergebnisse ja halbwegs interpolieren können. ;)


Der Einfluss vom fixierten Takt ist noch größer als die kleinen Schwankungen vom Maximalturbo. Entscheidend ist für mich der Praxisbezug, eine Fixierung entfernt sich davon. Ist ähnlich wie beim CPU Turbo, PCGH hat sich dem lange verweigert und musste letztendlich doch einsehen, dass dieser dazugehört. Es sollte immer ohne künstlichen Eingriff getestet werden.

Raff
2013-02-07, 08:55:53
Der Einfluss vom fixierten Takt ist noch größer als die kleinen Schwankungen vom Maximalturbo. Entscheidend ist für mich der Praxisbezug, eine Fixierung entfernt sich davon. Ist ähnlich wie beim CPU Turbo, PCGH hat sich dem lange verweigert und musste letztendlich doch einsehen, dass dieser dazugehört. Es sollte immer ohne künstlichen Eingriff getestet werden.

... und Manipulation durch selektierte Samples sind Tür und Tor geöffnet. Glaub mir, sowas entscheidet man nicht zwischen ebendieser Tür und dessen Angel. ;)

MfG,
Raff

dargo
2013-02-07, 09:18:12
GFlops != GFlops? Denke es geht darum, was auf die "Strasse" kommt?

Geht's genauer?
Eine GTX680 hat fast doppelt soviele GFlops wie eine GTX580.
http://www.computerbase.de/artikel/grafikkarten/2012/test-nvidia-geforce-gtx-680/2/

Sie ist aber weit davon entfernt doppelt so schnell zu sein. Das Design bei Kepler wurde ziemlich umgekrempelt um Strom zu sparen. Näheres steht hier:
http://www.computerbase.de/artikel/grafikkarten/2012/test-nvidia-geforce-gtx-680/3/

lingua
2013-02-07, 09:48:04
Das bei Kepler die Hälfte der Shadereinheiten ggü. Fermi da sind, um den Wegfall der Hotclock zu kompensieren, ist bekannt.

Aber das die Fermi-Recheneinheiten (Shader) mächtiger sein sollen, als die Kepler-Variante bezweifle ich. Beide 2 MADD/Takt/Einheit

Es scheint doch eher ein Problem der Ausgewogenheit zu sein - ? Wird hohe Rechenleistung alleine gefordert, dürfte Kepler seine Muskeln besser zeigen können.

Man beachte bei GTX660 vs. GTX660Ti die oftmals geringen Unterschiede in der Renderleistung, obwohl der (beschnittene) GK104 doch deutlich mehr Einheiten bietet.

Raff
2013-02-07, 09:59:54
Sie ist aber weit davon entfernt doppelt so schnell zu sein. Das Design bei Kepler wurde ziemlich umgekrempelt um Strom zu sparen. Näheres steht hier:
http://www.computerbase.de/artikel/grafikkarten/2012/test-nvidia-geforce-gtx-680/3/

Weit nicht. Kommt es tatsächlich nur auf die Rechenleistung an, d.h. man nimmt eine fortschrittliche Engine und lässt MSAA aus, dann kann sich eine GTX 680 um mindestens 60 Prozent von einer GTX 580 distanzieren. Je mehr MSAA, desto geringer der Abstand.

MfG,
Raff

aufkrawall
2013-02-07, 10:03:27
Wobei der SGSSAA wiederum richtig gut liegt.

dargo
2013-02-07, 11:18:22
Weit nicht. Kommt es tatsächlich nur auf die Rechenleistung an, d.h. man nimmt eine fortschrittliche Engine und lässt MSAA aus, dann kann sich eine GTX 680 um mindestens 60 Prozent von einer GTX 580 distanzieren. Je mehr MSAA, desto geringer der Abstand.

MfG,
Raff
Was ist für dich eine fortschrittliche Engine? Ich sehe bei CB nur bei Dirt Showdown +54% ohne MSAA.
http://www.computerbase.de/artikel/grafikkarten/2012/test-vtx3d-hd-7870-black-tahiti-le/27/

Und an der Engine von Dirt sehe ich nichts Fortschrittliches. ;) Zumindest visuell nicht. Bei Arma II sind es +49%
http://www.computerbase.de/artikel/grafikkarten/2012/test-vtx3d-hd-7870-black-tahiti-le/18/

Alles andere liegt drunter bis deutlich drunter. Selbst aktuelle Engines @CE3 und FB2 liegen einiges drunter.
http://www.computerbase.de/artikel/grafikkarten/2012/test-vtx3d-hd-7870-black-tahiti-le/25/
http://www.computerbase.de/artikel/grafikkarten/2012/test-vtx3d-hd-7870-black-tahiti-le/26/

Und das bei sogar knapp über Faktor 2 der Shaderleistung von Kepler (der Boosttakt ist nämlich gar nicht in der Rechnung von CB inbegriffen) gegenüber Fermi. Deshalb sage ich ja, dass GFlops von Fermi und Kepler nicht vergleichbar sind.

Ronny145
2013-02-07, 12:11:26
... und Manipulation durch selektierte Samples sind Tür und Tor geöffnet. Glaub mir, sowas entscheidet man nicht zwischen ebendieser Tür und dessen Angel. ;)

MfG,
Raff


Dann müsst ihr in den sauren Apfel beißen und Karten aus dem Handel erwerben. Die Angaben zur fixierten Taktrate fehlt immer noch. Habt ihr etwas zu verbergen oder warum fehlt das?

Psychopat
2013-02-07, 15:08:35
Dann müsst ihr in den sauren Apfel beißen und Karten aus dem Handel erwerben. Die Angaben zur fixierten Taktrate fehlt immer noch. Habt ihr etwas zu verbergen oder warum fehlt das?

Bei solchen Facepalms sollte Dir echt mal das Posten verboten werden.

Wenn man am Launchtag ein Review haben will, kann man schlecht Karten aus dem Handel nehmen. Spätere Reviews liest kaum jemand mehr.

Ronny145
2013-02-07, 15:18:54
Bei solchen Facepalms sollte Dir echt mal das Posten verboten werden.

Wenn man am Launchtag ein Review haben will, kann man schlecht Karten aus dem Handel nehmen. Spätere Reviews liest kaum jemand mehr.


Guten Morgen, der Kepler launch liegt lange hinter uns. Mach besser die Augen auf vorm Posten. Vorschlag des Tages: Postingverbot Psychopat für Dummschwätzerei.

Psychopat
2013-02-08, 13:30:22
Und der Titan Launch steht kurz bevor. Oder bist Du der Meinung, die Geforce 660 war die letzte GraKa aller Zeiten die ein Boost Feature hat? Oder bist Du der Meinung, man sollte jede GraKa anders Testen, was den Boost Modus angeht?

Man merkt schon, Du bist mit dem Konzept von reproduzierbaren Messergebnissen und abschalten von unkontrollierbaren Variablen total überfordert. Deswegen forderst Du auch alles so zu testen wie man es kaufen kann. Benchmarks die man interpretieren muss verwirren Dich zu sehr.

Ronny145
2013-02-08, 13:49:03
Und der Titan Launch steht kurz bevor. Oder bist Du der Meinung, die Geforce 660 war die letzte GraKa aller Zeiten die ein Boost Feature hat?

Sollte die PCGH der Meinung sein, sie bekommen ein manipuliertes Modell zugeschickt, sollen sie von mir aus für den launch Test mit fixiertem Takt testen. Dann aber muss das zwingend erwähnt werden und es muss darauf hingewiesen werden, dass Default Modelle wahrscheinlich besser abschneiden als in ihrem Test. Ein Nachtest ist erforderlich, sobald es die Karte im Handel zu erwerben gibt. Es ist kein Argument, Monate nach launch der Karten Spieletests mit fixiertem Takt zu testen. Im 3dmark Test fehlen noch immer Frequenzangaben zur Fixierung. Da kann so niemand nachvollziehen, von der hochgelobten PCGH Transparenz ist nicht viel zu sehen. Auch ist der fehlerhafte 660 Ti Wert noch nicht ausgebessert. Mit diesem Test hat sich die PCGH keinen Gefallen getan.


Oder bist Du der Meinung, man sollte jede GraKa anders Testen, was den Boost Modus angeht?

Nein, man sollte so testen wie der Kunde die Karte out of the box betreibt. Der Kunde wird den Takt nicht fixieren. Es geht um paxistaugliche Werte für den Leser und für potenzielle Käufer, der sich anhand der Tests ein Leistungsbild verschaffen möchte. Eine Fixierung entfernt sich davon.


Man merkt schon, Du bist mit dem Konzept von reproduzierbaren Messergebnissen und abschalten von unkontrollierbaren Variablen total überfordert. Deswegen forderst Du auch alles so zu testen wie man es kaufen kann. Benchmarks die man interpretieren muss verwirren Dich zu sehr.

Ein User der sich Psychopat nennt und sich so verhält, sollte sich zuerst Gedanken über seinen Geisteszustand machen. Von Tests hast du bekanntlich keinen blassen Schimmer, das hat sich in der Vergangenheit gezeigt und setzt sich heute fort. Ein Mitspracherecht steht dir normalerweise gar nicht zu.

Undertaker
2013-02-08, 14:05:02
Ich bitte darum, den Ton beiderseits wieder etwas zu mäßigen. :)

kruemelmonster
2013-02-08, 14:27:14
Die PCGH sollte definitiv den fixierten Turbo-Takt mit angeben, das gehört zwingend dazu. Die Fixierung selber finde ich nicht großartig schlimm wenns mit der "richtigen" Taktrate gemacht wird.
Dazu ein Zitat von HT4U (https://ht4u.net/reviews/2012/nvidia_geforce_gtx_680_kepler_sli_evga_zotac_test/index15.php) zum 680er Launch: Im Mittel schneidet der festgesetzte Takt von 1060 MHz um einen Prozentpunkt schlechter ab, als unsere beiden regulären Muster ab. Damit zeigt man sich mit dem durchschnittlichen Resultat auf Augenhöhe zur gezeigten Benchmarkserie mit Wartezeiten vor dem Benchmarkstart. Daraus wiederum könnte man die Schlussfolgerung ableiten, dass im Mittel über alle Benchmarks, eine typische GeForce GTX 680 praktisch so schnell agiert, als würde sie fix mit 1060 MHz GPU-Takt arbeiten. Und so schließt sich auch dann der Kreis beim GPU-Boost, denn 1058 MHz ist eben jener Wert den NVIDIA als "mittleren" Boost-Takt über die untersuchten Applikationen angibt.

IMO können die Referenzkarten ruhig auf die Taktraten des mittleren Boost fixiert werden um sich nicht von Golden Samples oder custom designs (meine Gigabyte GTX 670 mit WF3 Kühler boostet @ default auf konstante 1176 MHz) die Relationen versauen zu lassen.

Angiesan
2013-02-08, 15:58:01
Ja das was da steht, stimmt bei der GTX 680 wie auch bei der GTX 660 aber bei der GTX 660 Ti und GTX670 nicht. Bei den beiden erst genannten gibt es bei denn Standard Modellen halt nur 3 Steps im Boost Modus. Bei der GTX 660 Ti und 670 TI jedoch 6 und dort ist der Unterschied i.d.R: deutlich größer.


Sehe gerade Ronny hat so eine GTX 660Ti und ja 99,9 % der Modelle in freier Wildbahn dürften leicht differente Ergebnisse zu den PCGH Messungen erreichen, im Positiven Sinne, bei der 680er und 660 dürfte das passen.
Die Hersteller sind aber auch selbst daran schuld und ich kann die Reaktion von der PCGH gut verstehen wenn MSi oder Asus da Testexemplare ausliefern die man so im Büro oder Spielezimmer eher nicht antreffen wird, 1306 Boost habe ich noch nie gesehen ohne das man an der Taktschraube gedreht hat und die meissten Exemplare erreichen das noch nicht mal mit Mod-Bios und höhere Spannung.

Wenn man sich dann mal die Bioses anschaut mit diesem Tool http://www.hardwareluxx.de/community/f14/nvidia-geforce-gtx-600-serie-bios-files-932143-35.html#post20114870 und dann mit eigenen Augen sehen kann das z.B: Asus mit dem As3 Bios selbst die ATX Spezifikationen missachtet muss ich PCGH einfach recht geben.

DanMan
2013-04-07, 15:35:28
... Glaskugel: Steht in einem Jahr bei 130 Euro.
Könnte hinhauen. Im Moment sind wir, dank 650 Ti Boost, schon bei 160€ (http://geizhals.at/de/?cat=gra16_512&xf=1439_GTX+660), ist also noch reichlich Zeit bis September. Bin schon am Überlegen, ob ich meine 460 (mit 800MHz Chiptakt statt 675) in Rente schicken soll, da die Shader-Leistung doch um einiges höher ist bei der 660 (http://www.anandtech.com/bench/Product/519?vs=660). Andererseits bräuchte ich für durchgehend doppelte, reale Leistung eher eine 670, aber die kostet immernoch um die 300€ - viel zu viel.

Die miesen Tricks die MSI und Asus allerdings abziehen rufen bei mir nicht gerade Vertrauen in die Hardware hervor.

Spasstiger
2013-04-07, 20:35:23
GTX 660 OC ab 155€? So langsam werden die Preise vernünftig, da kann man sich als Besitzer einer GTX 460 tatsächlich den Umstieg überlegen.

Sontax
2013-04-07, 22:20:56
wollte mir eigentlich ne asus zulegen, aber hatte bisher meistens schlechte erfahrungen gehabt obwohl die kühllösungen top sind. wandlertemperaturen mal aussen weg gelassen.
schweizer markt:
gtx 660 die billigste 164 euro ohne versandkosten, teuerste 200 euro.
gtx 660 ti billigste 200 euro ohne versandkosten, teuerste 288 euro.

hab ne gtx460 oc im betrieb. 660 oc wäre interessant zu den preisen, ich schaue aber auf ne TI version.

Ronin2k
2013-12-02, 21:33:45
Welche HDMI Version ist in der 660er Serie verbaut, 1.3 oder 1.4 oder gar 1.4a?

dildo4u
2013-12-02, 22:06:35
Welche HDMI Version ist in der 660er Serie verbaut, 1.3 oder 1.4 oder gar 1.4a?
1.4A.

http://en.wikipedia.org/wiki/GeForce_600_Series