PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce GTX 680: (P)Review-Thread


Seiten : 1 2 3 4 [5] 6

Skysnake
2012-04-22, 14:28:50
jaien, wenn man die Turbostufen und die Spannung dazu einstellen könnte wäre es sogar recht genial. Dafür muss man aber wohl ein Bios-mod machen, oder kann man es von Hand einstellen?

Man müsste halt jede! Turbostufe sich einzeln vornehmen, was verdammt viel arbeit ist.

uweskw
2012-04-22, 14:38:20
Ich dachte das Bios wäre verschlüsselt?

Skysnake
2012-04-22, 15:19:16
wenn ja, muss man halt mittel und wege finden ;)

AnarchX
2012-04-23, 13:41:06
4GiB Ownage: http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/22235%20%20.html?start=16

Interessant dass zwischen 8xMSAA+2xSGSSAA und 8xSGSSAA solche Unterschiede liegen, eigentlich müsste der Framebuffer vergleichbar groß sein. Aber da setzt man wohl mittlerweile intelligentere Sparmechanismen ein.

boxleitnerb
2012-04-23, 17:32:53
4GiB Ownage: http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/22235%20%20.html?start=16

Interessant dass zwischen 8xMSAA+2xSGSSAA und 8xSGSSAA solche Unterschiede liegen, eigentlich müsste der Framebuffer vergleichbar groß sein. Aber da setzt man wohl mittlerweile intelligentere Sparmechanismen ein.

Ich hab einen Test in Skyrim gemacht (viele Mods, Texuren, Tweaks, AO usw.). Jeweils zwei ganze Drehungen, bis der VRAM-Verbrauch stabil war:

1280x1024
ohne AA: 1777MB
8xMSAA: 1989MB
8xTrSSAA: 1988MB
8xSGSSAA einfach zugeschaltet (kein enhance oder override): 1999MB
8xSGSSAA einfach zugeschaltet + LOD= -1.5: 2001MB
8xSGSSAA enhanced: 2000MB
8xSGSSAA enhanced + LOD = -1.5: 1988MB
8xSGSSAA override + LOD = -1.5: 3056MB
8xMSAA override: 3057MB

Das einzige, was viel frisst, ist override. SGSSAA oder MSAA ist völlig egal.
Es ist auch wurst, ob es 8xMSAA+2/4/8xSGSSAA ist. Die Sampleanzahl bleibt gleich, der Speicherverbrauch auch. Was bei HWL den Ausschlag gibt ist die hohe Auflösung und 8 Samples. Wobei ich sehr skeptisch bin, dass das eine typische Situation ist mit diesen Einstellungen, dass eine 2GB-Karte derart absackt.

Blaire
2012-04-24, 19:30:58
Noch ein weiterer GTX680 vs. HD7970 SLI Vergleich...
http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/22284-test-amd-radeon-hd-7970-crossfire-vs-nvidia-geforce-gtx-680-sli.html

aufkrawall
2012-04-24, 19:43:02
Noch ein weiterer GTX680 vs. HD7970 SLI Vergleich...
http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/22284-test-amd-radeon-hd-7970-crossfire-vs-nvidia-geforce-gtx-680-sli.html
Kann sein, dass die bei Skyrim das Vsync-Limit bei Radeons nicht geschnallt haben?

boxleitnerb
2012-04-24, 19:44:17
Was macht denn die Radeons unter Crysis so stark? Jetzt hat Nvidia mehr Füllrate und fast dieselbe Shaderleistung und liegt immer noch zurück.

Raff
2012-04-24, 19:44:59
Kann sein, dass die bei Skyrim das Vsync-Limit bei Radeons nicht geschnallt haben?

Wieso, da kommen doch reihenweise Radeöner über 60 und auch über 120 Fps.

MfG,
Raff

aufkrawall
2012-04-24, 19:46:28
Wieso, da kommen doch reihenweise Radeöner über 60 und auch über 120 Fps.

MfG,
Raff
Bei 120 ist Schluss, diese Kommazahl ist bestimmt eine Messungenauigkeit.
120 Hz Monitor. ;)

Blaire
2012-04-24, 20:24:48
Was macht denn die Radeons unter Crysis so stark? Jetzt hat Nvidia mehr Füllrate und fast dieselbe Shaderleistung und liegt immer noch zurück.

Was speziell meinst du? Das CF öfter mal besser skaliert, dafür mehr MR fabriziert ist doch nix neues. Quality vs. HQ könnte auch einen kleinen Unterschied ausmachen.

boxleitnerb
2012-04-24, 20:27:28
Was speziell meinst du? Das CF öfter mal besser skaliert, dafür mehr MR fabriziert ist doch nix neues.

Eine GPU.

aufkrawall
2012-04-24, 20:30:12
Eine GPU.
Es gab bei Radeons einen "Bug", dass MSAA ab einer bestimmten Entfernung einfach nicht mehr griff.
Für den Vorsprung ohne AA hab ich auch keine Erklärung.
Ich wüsste aber gerne mal, ob das mit DX9 genau so aussieht.

Blaire
2012-04-24, 20:41:25
Es gab bei Radeons einen "Bug", dass MSAA ab einer bestimmten Entfernung einfach nicht mehr griff.
Für den Vorsprung ohne AA hab ich auch keine Erklärung.
Ich wüsste aber gerne mal, ob das mit DX9 genau so aussieht.

Ich glaube das DOF scheint dann nicht mehr richtig zu funktionieren, daher sahen die Palmen weniger geglättet aus, das könnte auch ohne AA der Fall sein (muss aber nicht). Beim alten Crysis hab ich seiner Zeit einige Ungereimtheiten entdeckt, da fehlten die Wasser-Reflektionen im Harbor-Level usw. sowas sieht man aber meist nur beim direkten Vergleich.

AMD:
http://www.abload.de/img/crysis642011-03-1321-2ifav.png
NV:
http://www.abload.de/img/nvwaves5epf.png

boxleitnerb
2012-04-24, 20:41:49
Es gab bei Radeons einen "Bug", dass MSAA ab einer bestimmten Entfernung einfach nicht mehr griff.
Für den Vorsprung ohne AA hab ich auch keine Erklärung.
Ich wüsste aber gerne mal, ob das mit DX9 genau so aussieht.

Quelle? Ich kenne die AA-Vergleichsbilder aus dem guru3d-Forum. Bzw. ein Bild von einem User. Das ist wohl kaum ein Beweis.

aufkrawall
2012-04-24, 21:19:43
Ich glaube das DOF scheint dann nicht mehr richtig zu funktionieren, daher sahen die Palmen weniger geglättet aus, das könnte auch ohne AA der Fall sein (muss aber nicht). Beim alten Crysis hab ich seiner Zeit einige Ungereimtheiten entdeckt, da fehlten die Wasser-Reflektionen im Harbor-Level usw. sowas sieht man aber meist nur beim direkten Vergleich.

AMD:
http://www.abload.de/img/crysis642011-03-1321-2ifav.png
NV:
http://www.abload.de/img/nvwaves5epf.png
Mit was für ner Radeon wurde das Bild denn gemacht?
Wenn das mit SI auch noch so ist...
Bei mir war früher definitiv mit Cypress MSAA in der Entfernung aus. Trotz des DOFs war das Aliasing gut zu sehen, bei Bewegung flimmerte auch alles entsprechend.
Mit Nvidia (9600 GT) wars geglättet.

Quelle? Ich kenne die AA-Vergleichsbilder aus dem guru3d-Forum. Bzw. ein Bild von einem User. Das ist wohl kaum ein Beweis.
Ich war der User und ich kann dir versichern, dass ich sauber und akribisch getestet hatte, ich konnts ja selber kaum glauben.
Ich hatte mehrmals die Karten umgebaut und jedes Mal war es auf der Radeon nicht mehr geglättet.
Ist klar, dass das weniger Leistung braucht.

boxleitnerb
2012-04-24, 21:25:07
Ach du warst das. Na vielleicht kann man das ja bei Gelegenheit nochmal mit aktuellen Karten testen.

aufkrawall
2012-04-24, 21:25:49
Ach du warst das. Na vielleicht kann man das ja bei Gelegenheit nochmal mit aktuellen Karten testen.
Ja, da wär ich auch sehr dafür.
Alles vor SI interessiert ja eh nicht mehr.

boxleitnerb
2012-04-24, 21:31:20
Dural liest doch hier mit...Dural, willst das kurz mittesten? :)

Blaire
2012-04-24, 21:41:57
Mit was für ner Radeon wurde das Bild denn gemacht?
Wenn das mit SI auch noch so ist...
Bei mir war früher definitiv mit Cypress MSAA in der Entfernung aus. Trotz des DOFs war das Aliasing gut zu sehen, bei Bewegung flimmerte auch alles entsprechend.
Mit Nvidia (9600 GT) wars geglättet.

HD6950 keine Ahnung ob es jetzt immer noch so ist. Kann ja jeder nachtesten einfach "Map Harbor" eingeben und die Stelle aufsuchen.

Mr. Lolman
2012-04-25, 08:13:20
Ich glaube das DOF scheint dann nicht mehr richtig zu funktionieren, daher sahen die Palmen weniger geglättet aus, das könnte auch ohne AA der Fall sein (muss aber nicht). Beim alten Crysis hab ich seiner Zeit einige Ungereimtheiten entdeckt, da fehlten die Wasser-Reflektionen im Harbor-Level usw. sowas sieht man aber meist nur beim direkten Vergleich.

AMD:
http://www.abload.de/img/crysis642011-03-1321-2ifav.png
NV:
http://www.abload.de/img/nvwaves5epf.png

Das war vor mehr als einem Jahr. Glaubst du dass das immernoch so ist? Außerdem erkennt man auf den Screenshots überhaupt nix. Besser eine Szene bei Tag suchen.

Scose
2012-04-25, 15:50:41
Ich könnte meine 3xGTX580 3GB gegen 2xGTX680 eintauschen.
Abgesehen vom massiv niedrigeren Stromverbrauch und Lautstärke, performancemässig nehmen die sich nicht viel oder? (gehen wir von sehr guter Skalierung aus). Auf das 1GB Ram kann ich verzichten.

Was würdet ihr tun?

boxleitnerb
2012-04-25, 15:52:15
Behalten und frühestens 2x GK110 kaufen. So ist das imo nur rausgeworfenes Geld.

Scose
2012-04-25, 15:53:19
Behalten und frühestens 2x GK110 kaufen. So ist das imo nur rausgeworfenes Geld.

Eintauschen im Sinne von ohne Geldverlust ;)
GK110 ist klar, nur krieg ich momentan noch gutes Geld für die 580er.
In nem halben Jahr sieht das sicher schlechter aus.

boxleitnerb
2012-04-25, 16:04:20
Ich hab auch zwei 580er mit 3GB. Mehr wie 250 kriegt man doch nicht mehr dafür oder? Die 7870 gibts ab 285 Euro neu, und die ist fast gleichschnell.

dildo4u
2012-04-25, 16:10:34
Ich könnte meine 3xGTX580 3GB gegen 2xGTX680 eintauschen.
Abgesehen vom massiv niedrigeren Stromverbrauch und Lautstärke, performancemässig nehmen die sich nicht viel oder? (gehen wir von sehr guter Skalierung aus). Auf das 1GB Ram kann ich verzichten.

Was würdet ihr tun?
Weniger GPU's bedeutet eigentlich besseres Scaling + weniger Microruckler,wenns dich im Alltag aber nicht stört auf die 780 warten.Wegen der Dual GPU 690 wird Nvidia in näster Zeit wohl Hauptsächlich am 2 GPU scaling feilen.

Scose
2012-04-25, 16:37:09
Ich hab auch zwei 580er mit 3GB. Mehr wie 250 kriegt man doch nicht mehr dafür oder? Die 7870 gibts ab 285 Euro neu, und die ist fast gleichschnell.

Gebrauchte wechseln atm für ca. 350CHF den Besitzer und ich könnte zwei 680er für knapp unter 1000CHF haben (Einkaufspreis + 2% Mitarbeiterabzocke...)

Von daher sollte ich keine weiteren Auslagen haben.
Mir ist auch der Energievebrauch wichtig nur müsste ich mich dann wohl auch von Gulftown und x58 trennen um konsequent zu sein. Idle-Vebrauch liegt bei knapp 270Watt.

boxleitnerb
2012-04-25, 16:38:56
Hoppla. Der Untersatz ist hauptverantwortlich. Ich komme mit zwei 580ern auf 115W.

HardOCP 3-way SLI vs. Tri-Fire:
http://www.hardocp.com/article/2012/04/25/geforce_gtx_680_3way_sli_radeon_7970_trifire_review/1

Den einzigen Stich macht AMD bei BF3, wo den 680ern der VRAM ausgeht (jedenfalls, was die angezeigten fps angeht), ansonsten ist es recht deutlich, dass SLI CF-X weiterhin klar überlegen ist, auch bzw. vor allem bei der gefühlten Framerate.

aufkrawall
2012-04-26, 22:12:05
Bei mir war früher definitiv mit Cypress MSAA in der Entfernung aus. Trotz des DOFs war das Aliasing gut zu sehen, bei Bewegung flimmerte auch alles entsprechend.
Mit Nvidia (9600 GT) wars geglättet.

Und es ist auch heute noch so mit SI.
dargo hatte sich netterweise bereit erklärt, Tests mit SI durchzuführen. :)

Guckt euch einfach die Bilder in nativer Auflösung an (nicht runterskaliert!):

Crysis DX9@Very High

Fermi enhanced 8xSGSSAA DOF:
http://www.ld-host.de/uploads/thumbnails/50dc19fb3cafa776c7d0c7e436e64929.png (http://www.ld-host.de/show/50dc19fb3cafa776c7d0c7e436e64929.png)

SI enhanced 8xSGSSAA DOF:
http://www.ld-host.de/uploads/thumbnails/df52f0b049bd3a3e444194a48561b6d3.png (http://www.ld-host.de/show/df52f0b049bd3a3e444194a48561b6d3.png)

Fermi enhanced 8xSGSSAA w/o DOF:
http://www.ld-host.de/uploads/thumbnails/9f99429416ff648f3596d7aae0cd5717.png (http://www.ld-host.de/show/9f99429416ff648f3596d7aae0cd5717.png)

SI enhanced 8xSGSSAA w/o DOF:
http://www.ld-host.de/uploads/thumbnails/88b4e4a12dbd34a280a5742a12276188.png (http://www.ld-host.de/show/88b4e4a12dbd34a280a5742a12276188.png)

Es ist klar zu erkennen, dass bei der Radeon die ganze Vegetation ab einer gewissen Sichtweite nicht mehr geglättet ist, das Palmenblatt im Vordergrund links ebenfalls nicht mehr wirklich.
Die Palmen bestehen nicht nur aus Alphatexturen, die Stämme sind auch auf Entfernung echte Geometrie.
Die Reflexionen auf dem Wasser scheinen aber ziemlich identisch zu sein.
Das Problem tritt unabhängig von DOF auf.

Es ist also klar, dass auch nur mit MSAA (kein SGSSAA oder TSSAA/AAA) Radeons einen unsauberen Performancevorteil in Benchmarks gegenüber Geforces bei dem Spiel haben.
Man hat gar keine Möglichkeit, das Bild wirklich glatt zu bekommen, außer mit dem SSAA-Tool und DX10.
Bei Nvidia kann man unter DX9 perfektes AA per Custom Bit erzwingen, wenn man die Leistung hat und einem das in-game AA nicht gut genug greift, siehe hier (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9225604&postcount=2280).

Skysnake
2012-04-26, 22:29:22
Also perfekt ist was anderes.

Das Bild bei Fermi ist ziemlich milchig. Zudem ist die Vegitation am Berg ziemlich verwaschen, genau wie die Felsentextur.

Das sieht bei SI deutlich besser aus nach meinem Dafürhalten. Einzig die Vegitation auf der selben Ebene ist schon deutlich kantig.

Mir sieht das eher so aus, als ob Crytek irgend was komisches macht mit dem entfernten Bildteil, und man eben zwei unterschiedliche Lösungen davon sieht. Einmal mehr Schärfe, dafür das Problem mit den Palmen am Meer, und das andere mal eben ein milchiges Bild.

uweskw
2012-04-26, 22:41:09
@krawall

NV sieht wirklich recht verwaschen aus. Wie hast du LOD eingestellt?

Blaire
2012-04-26, 22:41:26
Und es ist auch heute noch so mit SI.
dargo hatte sich netterweise bereit erklärt, Tests mit SI durchzuführen. :)

Guckt euch einfach die Bilder in nativer Auflösung an (nicht runterskaliert!):

Crysis DX9@Very High

Fermi enhanced 8xSGSSAA DOF:
http://www.ld-host.de/uploads/thumbnails/50dc19fb3cafa776c7d0c7e436e64929.png (http://www.ld-host.de/show/50dc19fb3cafa776c7d0c7e436e64929.png)

SI enhanced 8xSGSSAA DOF:
http://www.ld-host.de/uploads/thumbnails/df52f0b049bd3a3e444194a48561b6d3.png (http://www.ld-host.de/show/df52f0b049bd3a3e444194a48561b6d3.png)

Fermi enhanced 8xSGSSAA w/o DOF:
http://www.ld-host.de/uploads/thumbnails/9f99429416ff648f3596d7aae0cd5717.png (http://www.ld-host.de/show/9f99429416ff648f3596d7aae0cd5717.png)

SI enhanced 8xSGSSAA w/o DOF:
http://www.ld-host.de/uploads/thumbnails/88b4e4a12dbd34a280a5742a12276188.png (http://www.ld-host.de/show/88b4e4a12dbd34a280a5742a12276188.png)

Es ist klar zu erkennen, dass bei der Radeon die ganze Vegetation ab einer gewissen Sichtweite nicht mehr geglättet ist, das Palmenblatt im Vordergrund links ebenfalls nicht mehr wirklich.
Die Palmen bestehen nicht nur aus Alphatexturen, die Stämme sind auch auf Entfernung echte Geometrie.
Die Reflexionen auf dem Wasser scheinen aber ziemlich identisch zu sein.
Das Problem tritt unabhängig von DOF auf.

Es ist also klar, dass auch nur mit MSAA (kein SGSSAA oder TSSAA/AAA) Radeons einen unsauberen Performancevorteil in Benchmarks gegenüber Geforces bei dem Spiel haben.
Man hat gar keine Möglichkeit, das Bild wirklich glatt zu bekommen, außer mit dem SSAA-Tool und DX10.
Bei Nvidia kann man unter DX9 perfektes AA per Custom Bit erzwingen, wenn man die Leistung hat und einem das in-game AA nicht gut genug greift, siehe hier (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9225604&postcount=2280).

Sieht so aus, als würde das DOF bei AMD nicht richtig funktionieren. ;)

aufkrawall
2012-04-26, 22:41:57
Also perfekt ist was anderes.

Ein Bild mit forciertem AA ist ja auch nicht dabei. ;)


Das Bild bei Fermi ist ziemlich milchig. Zudem ist die Vegitation am Berg ziemlich verwaschen, genau wie die Felsentextur.

Wahrscheinlich kriegt die DOF mit der Geforce wie der Rest vom Bild mehr AA ab, was die Unschärfe verschärfen könnte.
Wäre also quasi "by design".
Man kann ja DOF ausschalten.
Hier mal ein Bild von forciertem SGSSAA ohne DOF:
http://www.ld-host.de/uploads/thumbnails/c4025d8b15c8d23fed5a814983e28b92.png (http://www.ld-host.de/show/c4025d8b15c8d23fed5a814983e28b92.png)
Das ist perfekt. Mehr ist mit 8 Samples bei HDR und feinen Strukturen einfach nicht drin.

Blaire
2012-04-26, 22:46:55
@Krawall. Such mal die Stelle im Harbor-Level auf , einfach "map Harbor" dann den Berg hoch, dafür muss aber DX10 und VeryHigh aktiv sein.

aufkrawall
2012-04-26, 22:49:42
Sieht so aus, als würde das DOF bei AMD nicht richtig funktionieren. ;)
Wieso?
Ist ist auch ohne DOF bei AMD ungeglättet.

@Krawall. Such mal die Stelle im Harbor-Level auf , einfach "map Harbor" dann den Berg hoch, dafür muss aber DX10 und VeryHigh aktiv sein.
Warum DX10?
Bis auf die Bewegungsunschärfe für Objekte hab ich noch keinen Unterschied zwischen DX9 & 10 gesehen.
Außerdem müsste ich dargo wieder nerven. ;)

dargo
2012-04-26, 22:57:11
Außerdem müsste ich dargo wieder nerven. ;)
Ach... das bin ich schon gewohnt. :devil: ;)

Blaire
2012-04-27, 00:13:53
Wieso?
Ist ist auch ohne DOF bei AMD ungeglättet.

Ich hatte nur mit DOF enabled verglichen.

Warum DX10?
Bis auf die Bewegungsunschärfe für Objekte hab ich noch keinen Unterschied zwischen DX9 & 10 gesehen.
Außerdem müsste ich dargo wieder nerven. ;)

Wegen der Vergleichbarkeit. Außerdem wusste ich nicht, das du Dargo für die Tests "missbrauchst". :freak::wink:

Skysnake
2012-04-27, 01:25:38
Ein Bild mit forciertem AA ist ja auch nicht dabei. ;)


Wahrscheinlich kriegt die DOF mit der Geforce wie der Rest vom Bild mehr AA ab, was die Unschärfe verschärfen könnte.
Wäre also quasi "by design".
Man kann ja DOF ausschalten.
Hier mal ein Bild von forciertem SGSSAA ohne DOF:
http://www.ld-host.de/uploads/thumbnails/c4025d8b15c8d23fed5a814983e28b92.png (http://www.ld-host.de/show/c4025d8b15c8d23fed5a814983e28b92.png)
Das ist perfekt. Mehr ist mit 8 Samples bei HDR und feinen Strukturen einfach nicht drin.

Ja sieht ganz gut aus, aber mich stört der milchige Eindruck noch immer. Da finde ich die satteren Farben bei AMD schon besser. Die Filterung der Palmen am Strand ist aber sehr gut, und auch die restliche recht gut, nur am Berg wirds teilweise für meinen Geschmack zu verwaschen, wodurchs eher gemalt wirkt. Das kann aber auch durch den milchigen Schleier kommen.

Das ist mir aber allgemein bei nVidia schon aufgefallen. die Bilder haben irgendwie immer nen Schleier drauf.

aufkrawall
2012-04-27, 02:42:08
Ich hatte nur mit DOF enabled verglichen.

Was aber komisch ist, dass die Glättung von AMD ohne DOF genau da versagt, wo welches, falls eingeschaltet, wäre.
Vielleicht besteht da doch irgendein Zusammenhang.


Wegen der Vergleichbarkeit. Außerdem wusste ich nicht, das du Dargo für die Tests "missbrauchst". :freak::wink:
Ich denke mal, wenn dargo morgen hoffentlich das auch noch testet und die Ergebnisse von heute mit DX9 so sind wie damals mit DX10, dass es dann anders herum sicherlich genau so wäre. :)

Ja sieht ganz gut aus, aber mich stört der milchige Eindruck noch immer. Da finde ich die satteren Farben bei AMD schon besser. Die Filterung der Palmen am Strand ist aber sehr gut, und auch die restliche recht gut, nur am Berg wirds teilweise für meinen Geschmack zu verwaschen, wodurchs eher gemalt wirkt. Das kann aber auch durch den milchigen Schleier kommen.

Das ist mir aber allgemein bei nVidia schon aufgefallen. die Bilder haben irgendwie immer nen Schleier drauf.
Könntest du mir den milchigen Schleier markieren?
Ich hab so einen kleinen Monitor, da ist das Suchen bei großen Bildern immer so anstrengend. :D

Mr. Lolman
2012-04-27, 07:10:38
Was aber komisch ist, dass die Glättung von AMD ohne DOF genau da versagt, wo welches, falls eingeschaltet, wäre.
Vielleicht besteht da doch irgendein Zusammenhang.

Da ist ja eh AA aktiv. NV sieht hier mal besser (?) / verwaschener aus. Wer weiss warum. Dass beide IHV so ziemlich jeden Shader von Crysis schon getauscht haben ist eh kein Geheimnis mehr. Kaum an einem Spiel wurde soviel herumoptimiert wie an Crysis.

Andererseits: Crysis ist 4.5 Jahre alt! Sucht euch doch mal ein neueres Spiel zum herumanalysieren. V.a. weil man die Crysisergebnisse ja ohnehin nicht auf andere Spiele übertragen kann, zuviel wurde da schon treiberseitig herumgedoktort.

derguru
2012-04-27, 10:26:14
da ist irgendwas kaputt,hab ich mir mal gestern angeschaut.wenn man in crysis steht sieht es aus als ob aa nicht aktiv wäre und beim gehen/laufen sieht es total matschig aus,mitnichten wird aber performance dadurch gespart.(cat 12.4)

ein bug der keinen außer ein paar palmenwedlern interessiert weil 6959 mal durchgespielt.:freak:

Und es ist auch heute noch so mit SI.
dargo hatte sich netterweise bereit erklärt, Tests mit SI durchzuführen. :)

Guckt euch einfach die Bilder in nativer Auflösung an (nicht runterskaliert!):

Crysis DX9@Very High

Fermi enhanced 8xSGSSAA DOF:
http://www.ld-host.de/uploads/thumbnails/50dc19fb3cafa776c7d0c7e436e64929.png (http://www.ld-host.de/show/50dc19fb3cafa776c7d0c7e436e64929.png)

SI enhanced 8xSGSSAA DOF:
http://www.ld-host.de/uploads/thumbnails/df52f0b049bd3a3e444194a48561b6d3.png (http://www.ld-host.de/show/df52f0b049bd3a3e444194a48561b6d3.png)

Fermi enhanced 8xSGSSAA w/o DOF:
http://www.ld-host.de/uploads/thumbnails/9f99429416ff648f3596d7aae0cd5717.png (http://www.ld-host.de/show/9f99429416ff648f3596d7aae0cd5717.png)

SI enhanced 8xSGSSAA w/o DOF:
http://www.ld-host.de/uploads/thumbnails/88b4e4a12dbd34a280a5742a12276188.png (http://www.ld-host.de/show/88b4e4a12dbd34a280a5742a12276188.png)

Es ist klar zu erkennen, dass bei der Radeon die ganze Vegetation ab einer gewissen Sichtweite nicht mehr geglättet ist, das Palmenblatt im Vordergrund links ebenfalls nicht mehr wirklich.
Die Palmen bestehen nicht nur aus Alphatexturen, die Stämme sind auch auf Entfernung echte Geometrie.
Die Reflexionen auf dem Wasser scheinen aber ziemlich identisch zu sein.
Das Problem tritt unabhängig von DOF auf.

Es ist also klar, dass auch nur mit MSAA (kein SGSSAA oder TSSAA/AAA) Radeons einen unsauberen Performancevorteil in Benchmarks gegenüber Geforces bei dem Spiel haben.
Man hat gar keine Möglichkeit, das Bild wirklich glatt zu bekommen, außer mit dem SSAA-Tool und DX10.
Bei Nvidia kann man unter DX9 perfektes AA per Custom Bit erzwingen, wenn man die Leistung hat und einem das in-game AA nicht gut genug greift, siehe hier (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9225604&postcount=2280).

nur damit das klar ist,bei nv ohne aa-bit gefrickel aber mit LOD-anpassung die bilder gemacht?

Skysnake
2012-04-27, 11:39:56
Könntest du mir den milchigen Schleier markieren?
Ich hab so einen kleinen Monitor, da ist das Suchen bei großen Bildern immer so anstrengend. :D
Einfach der gesamte hintere Bereich. Das ist ein fließender Übergang. Halt wie wenn man an einem diesigen Tag in die Ferne blickt.

Das kann gewollt sein. In OpenGL zum Beispiel gibt es für diesen Effekt ja extra funktionen, bei AMD ist dies aber nicht der Fall, und so ein "Schleier" macht dir das Leben halt massiv einfacher bzgl. Kanten, da alles schon weniger Kontrast hat. Das kommt dir bei jedem Filter zum glätten sehr entgegen.

aufkrawall
2012-04-27, 16:11:40
Da ist ja eh AA aktiv. NV sieht hier mal besser (?) / verwaschener aus. Wer weiss warum.

Bei den Bildern ohne DoF ist ihmo nichts verwaschen, weder mit SI noch Fermi.
Das Spiel hat auf Entfernung einfach keine scharfe Grafik, liegt bestimmt am Colorgrading und anderen PP-Effekten.


Andererseits: Crysis ist 4.5 Jahre alt! Sucht euch doch mal ein neueres Spiel zum herumanalysieren. V.a. weil man die Crysisergebnisse ja ohnehin nicht auf andere Spiele übertragen kann, zuviel wurde da schon treiberseitig herumgedoktort.
Es ging jetzt nicht darum, die Radeon zu bashen, sondern eventuelle Gründe zu finden, warum sie in Benchmarks bei Crysis immer noch einen ungewöhnlich großen Vorsprung hat.


mitnichten wird aber performance dadurch gespart.(cat 12.4)

Sicher? Mach doch mal einen Benchmark ohne AA und einen mit SGSSAA.


nur damit das klar ist,bei nv ohne aa-bit gefrickel aber mit LOD-anpassung die bilder gemacht?
LOD war -1,25.

Bei Radeons wirken die Hintergrundpflanzen etwas voluminöser.
Könnte es sein, dass bei 8xSGSSAA der LOD eventuell nun auf -1,5 geschoben wird?

aufkrawall
2012-04-27, 18:29:05
Hier noch der Reflexionsvergleich (noch mal thx@dargo):

SI:
http://www.ld-host.de/uploads/thumbnails/4759cb676cd88800b395a3b7600657eb.png (http://www.ld-host.de/show/4759cb676cd88800b395a3b7600657eb.png)

Fermi:
http://www.ld-host.de/uploads/thumbnails/44d8438e47559ecb61ea114c95f49ff9.png (http://www.ld-host.de/show/44d8438e47559ecb61ea114c95f49ff9.png)

Die Reflexionen sind ziemlich identisch, allerdings sind merkwürdige weiße Pixel bei der Radeon zu sehen (damit mein ich nicht das fehlende AA).

Blaire
2012-04-27, 18:33:31
Ist das DX9 oder DX10? :)

aufkrawall
2012-04-27, 18:36:22
DX9.
Du kannst ja dargo fragen, ob er auch noch DX10 testen will. :)

Blaire
2012-04-27, 18:38:23
DX9.
Du kannst ja dargo fragen, ob er auch noch DX10 testen will. :)

Ja. Mich würde DX10 VeryHigh sehr interessieren, egal ob 32/64Bit. :)

boxleitnerb
2012-04-27, 18:41:01
Wieso kann ich die Bilder nicht unskaliert sehen? Ich klicke drauf und es passiert nix.

dargo
2012-04-27, 18:54:29
Das SGSSAA scheint bei AMD eh irgendwie kaputt zu sein in Crysis. Im Hintergrund auf dem Berg leuchten einzelne Pixel. Schalte ich auf MSAA um sind die weg.

Mr. Lolman
2012-04-27, 19:07:36
Die Reflexionen sind ziemlich identisch, allerdings sind merkwürdige weiße Pixel bei der Radeon zu sehen (damit mein ich nicht das fehlende AA).
Die "merkwürdigen" weissen Pixel kommen vom Specularlighting, was merkwürdigerweise bei NV nicht da ist* :rolleyes:

Das SGSSAA scheint bei AMD eh irgendwie kaputt zu sein in Crysis. Im Hintergrund auf dem Berg leuchten einzelne Pixel. Schalte ich auf MSAA um sind die weg.

*Das liegt an der LOD-Anpassung. Verschiebt mal das Textur-LOD und wundert euch über noch mehr merkwürdige Pixel. :rolleyes:


Es ging jetzt nicht darum, die Radeon zu bashen, sondern eventuelle Gründe zu finden, warum sie in Benchmarks bei Crysis immer noch einen ungewöhnlich großen Vorsprung hat.

Darf sie das nicht? Es unterstellt doch auch niemand NV bei WoW cheating, weil die da einen "ungewöhnlich großen Vorsprung" haben...


BTW: Es fehlt auch bei AMD kein AA. Es ist nur anders gewichtet. Hat man schon damals bei den ersten HL2 Vergleichen auf den Stromkabeln sehen können. Oder im Naturetest vom 3dmark03. Wers nicht glaubt, soll einfach ein paar noAA Vergleiche machen. AMD hatte ja auch irgendwann die Schattenshader bei Crysis ausgetauscht. Mit dem Ergebnis, dass sie schneller laufen und besser (!) aussahen. NV hat dafür fleissig bei diversem Reflexionsshadern herumgedoktort. Und nu?

dargo
2012-04-27, 19:15:24
Das liegt an der LOD-Anpassung. Verschiebt mal das Textur-LOD und wundert euch über noch mehr merkwürdige Pixel. :rolleyes:

Hey... ich schildere nur das was ich sehe. Außerdem habe ich gesagt, dass ich ein AMD-Noob bin. ;) War wohl im anderen Thread.

Wie kann ich den Fehler wieder beheben? Im CCC finde ich nichts mit LOD-Anpassung.

Mr. Lolman
2012-04-27, 19:19:33
Hey... ich schildere nur das was ich sehe. Außerdem habe ich gesagt, dass ich ein AMD-Noob bin. ;) War wohl im anderen Thread.

Wie kann ich den Fehler wieder beheben? Im CCC finde ich nichts mit LOD-Anpassung.

Nochmal: Das ist kein Fehler sondern das Specular Lighting. Also Lichtreflexionen auf den Blättern. (Die durch die LOD-Verschiebung eben mehr Details besitzen, wie eben auch das Specularlighting, was auf einer geringeren Mipstufe augenscheinlich nicht mehr sichtbar ist) Wenn du das unbedingt loswerden willst, installier die zB die Ati Tray Tools. Da kann man das LOD manuell verschieben.

Mich wunderts eher warum das bei LOD-Verschiebung nicht auch auf den NV Karten zu sehen ist. Oder war die auf dem oberen Screenshot nicht aktiv? Liegt aber womöglich auch daran, dass beide GraKas mit unterschiedlichen Shadern arbeiten. Deswegen, wie gesagt: Vergesst am besten Crysis. Aus dem Shaderflickwerk pixelweise Screenshotvergleiche zu machen ist imo nicht besonders zielführend...

Blaire
2012-04-27, 19:25:22
Das SGSSAA scheint bei AMD eh irgendwie kaputt zu sein in Crysis. Im Hintergrund auf dem Berg leuchten einzelne Pixel. Schalte ich auf MSAA um sind die weg.

Wundert mich nicht. Auf NV stellt man es ein und es funktioniert fehlerfrei.
Denk an VeryHigh DX10 (will nur wissen ob der Bug (nicht Cheat) gefixt ist oder nicht)

aufkrawall
2012-04-27, 19:28:13
Wieso kann ich die Bilder nicht unskaliert sehen? Ich klicke drauf und es passiert nix.
Ist irgendwie ein Fehler von ld-Host, der tritt seit einiger Zeit auf.
Egal, kannst es ja runterladen und mit IrfanView unskaliert anschauen. :)

Skysnake
2012-04-27, 19:31:04
Hier noch der Reflexionsvergleich (noch mal thx@dargo):

SI:
http://www.ld-host.de/uploads/thumbnails/4759cb676cd88800b395a3b7600657eb.png (http://www.ld-host.de/show/4759cb676cd88800b395a3b7600657eb.png)

Fermi:
http://www.ld-host.de/uploads/thumbnails/44d8438e47559ecb61ea114c95f49ff9.png (http://www.ld-host.de/show/44d8438e47559ecb61ea114c95f49ff9.png)

Die Reflexionen sind ziemlich identisch, allerdings sind merkwürdige weiße Pixel bei der Radeon zu sehen (damit mein ich nicht das fehlende AA).
Ich seh absolut nicht, was du meinst. Mach mal nen roten Kreis drum ;)


Nochmal: Das ist kein Fehler sondern das Specular Lighting. Also Lichtreflexionen auf den Blättern. (Die durch die LOD-Verschiebung eben mehr Details besitzen, wie eben auch das Specularlighting, was auf einer geringeren Mipstufe augenscheinlich nicht mehr sichtbar ist) Wenn du das unbedingt loswerden willst, installier die zB die Ati Tray Tools. Da kann man das LOD manuell verschieben.

Mich wunderts eher warum das bei LOD-Verschiebung nicht auch auf den NV Karten zu sehen ist. Oder war die auf dem oberen Screenshot nicht aktiv? Liegt aber womöglich auch daran, dass beide GraKas mit unterschiedlichen Shadern arbeiten. Deswegen, wie gesagt: Vergesst am besten Crysis. Aus dem Shaderflickwerk pixelweise Screenshotvergleiche zu machen ist imo nicht besonders zielführend...
Da pflichte ich dir absolut bei! Schon die Palmenblätter sehen gar nicht mehr gleich aus bei AMD und nVidia. Die von nVidia sind weniger detailiert, dafür aber besser gefilltert usw.

Das ist aber bei fast jedem Spiel doch immer wieder das Gleiche. Mal macht der eine dies besser, und mal der andere. Es kommt halt echt immer aufs Spiel und auf die verwendete Scene drauf an.

Ronny145
2012-04-27, 19:35:35
Wieso kann ich die Bilder nicht unskaliert sehen? Ich klicke drauf und es passiert nix.

Rechte Maustaste Grafik anzeigen.


Wie kann ich den Fehler wieder beheben? Im CCC finde ich nichts mit LOD-Anpassung.


LODAdj in der registry hinzufügen und dort das Lod einstellen.

aufkrawall
2012-04-27, 19:41:57
Mich wunderts eher warum das bei LOD-Verschiebung nicht auch auf den NV Karten zu sehen ist. Oder war die auf dem oberen Screenshot nicht aktiv?

Eben, bei AMD ist nämlich ganz sicher für weite Teile der Szene kein AA aktiv.
Wenn dann da trotzdem das LOD verschoben ist, könnte das beim Specular Lighting doch übel reinhauen.
Das würde erklären, warum es nur mit MSAA nicht auftritt.

Blaire
2012-04-27, 19:52:35
Hier noch der Reflexionsvergleich (noch mal thx@dargo):

SI:
http://www.ld-host.de/uploads/thumbnails/4759cb676cd88800b395a3b7600657eb.png (http://www.ld-host.de/show/4759cb676cd88800b395a3b7600657eb.png)

Fermi:
http://www.ld-host.de/uploads/thumbnails/44d8438e47559ecb61ea114c95f49ff9.png (http://www.ld-host.de/show/44d8438e47559ecb61ea114c95f49ff9.png)

Die Reflexionen sind ziemlich identisch, allerdings sind merkwürdige weiße Pixel bei der Radeon zu sehen (damit mein ich nicht das fehlende AA).

Dargo hats getestet und der Bug ist immer noch vorhanden.
http://www.abload.de/thumb/dargo1xnxsm.png (http://www.abload.de/image.php?img=dargo1xnxsm.png)

aufkrawall
2012-04-27, 19:54:20
Dargo hats getestet und der Bug ist immer noch vorhanden.
http://www.abload.de/thumb/dargo1xnxsm.png (http://www.abload.de/image.php?img=dargo1xnxsm.png)
Tatsächlich, hätte ich jetzt nicht erwartet.
lol :freak:

Halten wir mal kurz fest: Crysis-Benchmarks sind mit Radeons für die Tonne. :rolleyes:

Blaire
2012-04-27, 19:55:33
Ob das jetzt Performance bringt, bezweifel ich, ich denke das ist ein Bug. Aber mit dem weniger PP-Effekten auf AMD Karten, das bringt sicher mehr FPS, jeder der Crysis genauer kennt, der weiss wie stark z.b. MotionBlur reinhaut.

aufkrawall
2012-04-27, 19:56:39
Meinst du, bei MB setzt das AA auch aus?

derguru
2012-04-27, 20:05:12
Es ging jetzt nicht darum, die Radeon zu bashen, sondern eventuelle Gründe zu finden, warum sie in Benchmarks bei Crysis immer noch einen ungewöhnlich großen Vorsprung hat.
was für ein großer vorsprung?die 680gtx ist mindestens gleich schnell.
http://www.pcgameshardware.de/aid,873907/Test-Geforce-GTX-680-Kepler-GK104/Grafikkarte/Test/?page=7



Sicher? Mach doch mal einen Benchmark ohne AA und einen mit SGSSAA
was habe ich davon wenn ich das benche?ich wüsste nicht das 2,4,8x sgssaa fro free ist und spätestens dann wäre es aufgefallen,dazu gibt es auch ein benchthread. paar posts drüber sagte ich ja das in crysis sgssaa sich merkwürdig verhält sie tube.keine gutee qualität aber reicht für den zweck.
http://www.youtube.com/watch?v=q1kFsoRvF24&list=HL1335549975&feature=mh_lolz

Blaire
2012-04-27, 20:09:00
@aufkrawall : Nicht unbedingt, stell doch mal MotionBlur von VeryHigh auf High zurück oder r_depthoffield auf "0", das bringt schon ein paar FPS. Für genauere Vergleiche bräuchte man beide Karten, alles weitere ist nur Spekulation. Das es da Ungereimtheiten gibt, steht außer Frage.

Skysnake
2012-04-27, 20:13:47
Ich seh absolut nicht, was du meinst. Mach mal nen roten Kreis drum ;)

Ich seh jetzt was du meinst. Vorher hat noch die Sonne etwas aufs Display gescheint, da hat man die Punkte nicht gesehen bei der Vegitation hinten am Berg.

Sieht wirklich sehr seltsam aus. Würde sagen, dass das ein Bug ist.

aufkrawall
2012-04-27, 20:20:46
was für ein großer vorsprung?die 680gtx ist mindestens gleich schnell.
http://www.pcgameshardware.de/aid,873907/Test-Geforce-GTX-680-Kepler-GK104/Grafikkarte/Test/?page=7

Es ging um den Test:
http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/22284-test-amd-radeon-hd-7970-crossfire-vs-nvidia-geforce-gtx-680-sli.html?start=9
Wahrscheinlich ist der auch einfach banane.

derguru
2012-04-27, 21:01:49
kann doch stimmen was luxx da bencht,mal abgesehen davon das dort ohne aa die 7970 auch schneller ist.der performanceverlust durch 8xmsaa ist prozentual in etwa in der selben höhe wie bei der gtx680,mal wieder lärm um nichts.:rolleyes:

boxleitnerb
2012-04-29, 15:21:32
Gleich in vier Spielen rennt die 7970 der 680 weg. Was ist da los?
http://www.computerbase.de/artikel/grafikkarten/2012/bericht-nvidia-geforce-gtx-680/5/#abschnitt_neue_spielebenchmarks

Treiberprobleme, doch zu wenig VRAM oder architekturbedingt?

dildo4u
2012-04-29, 15:37:34
Vermutlich Treiber im ersten CB Test liegt die 680 33% von der 580 hier nur 18%.Wobei ich nicht drauf wetten würde,das NV da noch viel dran schraubt sind alles DX9 Games wo sie abkackt.Bei C.A.R.S das in DX11 läuft rennt sie davon,vermutlich wird sich NV beim Optimieren auf DX11 konzentrieren.Macht auch Sinn,da der Großteil auf die DX11 Performance schauen wird,sowohl die oberflächlichen Tester als auch Käufer.

derguru
2012-04-29, 16:03:13
das sie in C.A.R.S davon rennt muss ja nicht zwingend mit dx11 zu tun haben,ist ja nicht so das amd in dx11 games abkackt,engine bedingt imo.(die 7970 kann sich ja kaum von der 580 absetzen)

der abstand von ~25% einer gtx680 zur 580 ist doch immer gegeben,sieht alles nach normalfall aus.

alan wake mit sgssaa funzt doch gar nicht,kein effekt und heftige performancedrops wie man sieht.

Ronny145
2012-04-29, 17:42:43
CARS lief auf meiner HD6850 in dx9 und dx11 ähnlich übel im Vergleich zur GTX560 (~50% langsamer). Das liegt eher am Spiel/Engine weil AMD generell in dem Spiel schlecht performt. Hat CB überhaupt im dx11 Modus getestet? Im hardware.fr (http://www.hardware.fr/articles/848-23/benchmark-project-cars.html) Test sah das ähnlich aus, erst in 1600p kann sich Tahiti vor die GTX580 setzen. Schön das Trine 2 mitgetestet wurde.

Blaire
2012-04-29, 17:48:04
Die meisten Games rennen eh schnell genug, von daher ist das ok. Man findet auch andere Fälle z.b. Resident Evil5 , Lost Planet 2 aber dann hätte sich CB-Wolfgang wieder anhören müssen nur NV freundliche Games zu testen. :biggrin:
Man findet immer mal Titel die der einen Seite besser liegen...

aufkrawall
2012-04-29, 19:01:18
Kann sein, dass CB das falsch verstanden hat mit dem Kombinieren der AA-Samples bei Nvidia?
4xMSAA + 2xSGSSAA bedeutet ja nicht 4 Farb- + 2 Supersamples, sondern 2 Farb- + 2 Supersamples.
Außerdem soll die Sampleverteilung bei dieser Kombination ja eher unvorteilhaft sein.

Außerdem: Warum wird bei DX9 mit Nvidia nicht manuell das LOD verschoben?
Wenn man ein inoffizielles Feature testet, muss man das berücksichtigen.
Oder man prangert an, dass es als offizielles Feature fehlt und testet es gar nicht.

y33H@
2012-05-01, 11:52:48
HT4U sind online: http://ht4u.net/reviews/2012/nvidia_geforce_gtx_680_kepler_sli_evga_zotac_test/

mironicus
2012-05-01, 12:02:04
Oha, bei HT4u ist die GTX 680 in allen Auflösungen langsamer (Querschnitt aller getesteten Games) als eine nicht übertaktete 7970. :D

M4xw0lf
2012-05-01, 12:22:17
Kommt es mir nur so vor, oder ist der Ton schon in der Einleitung ziemlich bissig? Ist da jemand nachtragend? ;) GPU-Boost, sparsamer Betrieb unter hoher Spielelast, höchste Performance. Diese Faktoren beschreiben die NVIDIA GeForce GTX 680 am besten, wenn es nach den Aussagen der Marketing-Abteilung geht. Doch was steckt tatsächlich hinter diesen geheimnisvollen "Schlagworten"? Wie verhält es sich in Wirklichkeit, wenn man eine EVGA GeForce GTX 680 und eine Zotac GeForce GTX 680 gegen die hauseigenen Vorgänger und Highend-Gegener wie die AMD Radeon HD 7970 antreten lässt?

fondness
2012-05-01, 12:24:14
Oha, bei HT4u ist die GTX 680 in allen Auflösungen langsamer (Querschnitt aller getesteten Games) als eine nicht übertaktete 7970. :D

Ist auch bei ComputerBase der Fall, wenn man sich den Nachtest mit den neueren Spielen ansieht.

y33H@
2012-05-01, 12:27:04
Bei CB im Nachtest ist die GTX in 1080p schneller und in 1600p langsamer als die HD.

fondness
2012-05-01, 12:27:49
Bei CB im Nachtest ist die GTX in 1080p schneller und in 1600p langsamer als die HD.

Nur im Rating wo man MassEffekt 3 heraus genommen hat.

Knuddelbearli
2012-05-01, 12:33:18
und pcgh dürfte da ja eher nicht gutheissen sc2 nehmt ihr ja auch nicht raus nur weill amd da mit aa abkackt ^^

aufkrawall
2012-05-01, 12:33:33
Kommt es mir nur so vor, oder ist der Ton schon in der Einleitung ziemlich bissig? Ist da jemand nachtragend? ;)
Ich will nichts unterstellen, aber zumindest die SSAA-Benchmarks sind systembedingt eher pro AMD, da nur auf OGSSAA gesetzt wird.
Wie wir wissen hat Nvidia da wegen vermutlich geringerer Bandbreite eher einen Nachteil.
Bei SGSSAA kann das je nach Anwendung ganz anders aussehen.

Btw: Die 7970 ist bei Spielen mit Abstand die lauteste Karte. :eek:

fondness
2012-05-01, 12:36:05
Ich will nichts unterstellen, aber zumindest die SSAA-Benchmarks sind systembedingt eher pro AMD, da nur auf OGSSAA gesetzt wird.
Wie wir wissen hat Nvidia da wegen vermutlich geringerer Bandbreite eher einen Nachteil.
Bei SGSSAA kann das je nach Anwendung ganz anders aussehen.

Btw: Die 7970 ist bei Spielen mit Abstand die lauteste Karte. :eek:

Beide haben SGSSAA.

Skysnake
2012-05-01, 12:36:39
das fällt doch aus dem üblichen Rahmen und kann ich auch nicht so ganz nachvollziehen

y33H@
2012-05-01, 12:38:36
SC2 ist lange nicht so krank wie das, was CB in ME3 aufzeigt - es ist Wolles Entscheidung Spiele aus dem Ranking wegzulassen. Wenn die GTX da halt einbricht, bricht sie halt ein *Schulter zuck*

aufkrawall
2012-05-01, 12:41:06
Beide haben SGSSAA.
Nein, da steht immer 2x2, also doppelte Auflösung pro Achse.
Das ist nur OG, nicht SG.

dildo4u
2012-05-01, 12:48:22
AMD hatte 3 Monate mehr zum Treiber optimieren,da wird auch noch was von NV kommen,irgendwann ist aber das Maximum rausgeholt,wobei klar sein sollte das AMD logischerweise schon näher am Optimum ist.

fondness
2012-05-01, 12:48:23
Nein, da steht immer 2x2, also doppelte Auflösung pro Achse.
Das ist nur OG, nicht SG.

Es gibt kein OG bei AMD.

Blediator16
2012-05-01, 12:55:23
AMD hatte 3 Monate mehr zum Treiber optimieren,da wird auch noch was von NV kommen,irgendwann ist aber das Maximum rausgeholt,wobei klar sein sollte das AMD logischerweise schon näher am Optimum ist.

Naja 3 Monate würde ich absolut nicht sagen zumal die 680 eigentlich früher gekommen wäre hätte man sie nicht an die 7970 anpassen wollen. Die sind sicher kaum ausseinander, was den Treiberoptimierungsstand angeht.

aufkrawall
2012-05-01, 13:11:31
Es gibt kein OG bei AMD.
Es gibt auch OG bei AMD, wenn die Anwendung es selbst macht.

M4xw0lf
2012-05-01, 13:19:38
TW2 hat in-game OGSSAA, weiß jemand was es bei Serious Sam 3 ist?

aufkrawall
2012-05-01, 13:21:59
TW2 hat in-game OGSSAA, weiß jemand was es bei Serious Sam 3 ist?
Auch, deshalb steht bei HT4U ja auch korrekterweise überall 2x2.

derguru
2012-05-01, 13:31:25
Oha, bei HT4u ist die GTX 680 in allen Auflösungen langsamer (Querschnitt aller getesteten Games) als eine nicht übertaktete 7970. :D
ich weiß schon warum ich meine gtx680 zurückgegeben habe und die war auch noch ein hunni teurer.:smile:
die gtx680 ist nur in den werbeträchtigen spielen wie z.b. bf3 oder skyrim schneller aber ganz sicher nicht im mittel.

AMD hatte 3 Monate mehr zum Treiber optimieren,da wird auch noch was von NV kommen,irgendwann ist aber das Maximum rausgeholt,wobei klar sein sollte das AMD logischerweise schon näher am Optimum ist.
ist ja nicht so das wir nicht auf den horny-treiber warten.:lol:

Dural
2012-05-01, 13:57:30
HT4U sind online: http://ht4u.net/reviews/2012/nvidia_geforce_gtx_680_kepler_sli_evga_zotac_test/

100Watt weniger Verbauch als 7970 unter Furmark :eek:

Drosselt da die GTX680 schon?

Knuddelbearli
2012-05-01, 15:22:13
am interessantesten finde ich die passage


Der Index zeigt das Mittel über unsere Benchmarks und macht deutlich, dass das TDP-Verhalten sich durchaus auf die finale Performance auswirken kann. Wartet man mit dem starten der Benchmark-Messung einige Zeit, so heizt sich die GPU auf und das Benchmark-Ergebnis fällt etwas schlechter aus (im Mittel um 1 Prozent). Setzt man das Power Target (im Diagramm als TDP hoch eingetragen) auf 225 Watt hoch, so ergibt dies dann eine Performance-Steigerung um 1 Prozent im Mittel.

An diesem Punkt stellt sich somit natürlich die Frage nach dem Sinn des Boost-Verhaltens für Spieler. Gerade in besonders fordernden Szenen eines Spiels, wo die GPU-Auslastung eben das Maximum erreicht, braucht der Spieler höhere Frameraten. Dort bricht der GPU-Boost dann allerdings schnell weg, wohingegen er in weniger fordernden Bereichen für die GPU mehr Frames per Second zu liefern im Stande ist.

vor allem der 2te teil ist genau das was ich immer gesagt habe

Godmode
2012-05-01, 15:35:33
am interessantesten finde ich die passage



vor allem der 2te teil ist genau das was ich immer gesagt habe

Ja das haben eh viele Leute befürchtet, wobei ich das ganze generell in Frage stelle, weil +/- 1% Leistung bringts halt dann wirklich nicht...

Hab meine Karten immer OCed, aber wenn man dann gemessen hat wieviel es wirklcih gebracht hat, wars meistens ernüchternd. In Szenen wo es kritisch wurde, hat OCing meistens auch nichts gebracht. Da muss man dann schon zu deftigeren Lösungen greifen wie zb mGPU oder einfach die Settings runter. Alles was sich im +/- 10% Bereich bewegt spürt man eh nicht.

Alles IMHO.

Skysnake
2012-05-01, 16:25:01
am interessantesten finde ich die passage



vor allem der 2te teil ist genau das was ich immer gesagt habe

Das könnte eventuell das etwas schlechtere Abschneiden der GTX680 im Vergleich zur HD7970 erklären. Keine Ahnung, ob die anderen Tester die Karte auch "vorheizen" für ihre Benchmarks :ugly:

Vor allem, es kommt damit wohl wirklich so wie ich gesagt habe.

Im Sommer hat die Karte weniger FPS als im Winter ;D

Knuddelbearli
2012-05-01, 16:28:39
? da steht nicht das sie das gemacht haben, nur das sie das beobachtet haben

Sir Integral Wingate Hellsing
2012-05-01, 17:08:49
Nach Lesen des HT4U-Artikels wirkt die GTX680 nicht mehr wie eine High-End-Karte...

boxleitnerb
2012-05-01, 17:10:42
Das ist sie auch nicht ;)

y33H@
2012-05-01, 17:11:26
Schön, dass das so laaangsam ankommt :ulol:

Hugo78
2012-05-01, 17:35:19
die gtx680 ist nur in den werbeträchtigen spielen wie z.b. bf3 oder skyrim schneller aber ganz sicher nicht im mittel.

Warum sollte sich jemand eine HD7970 kaufen, wenn AMD nicht so gut auf angesagte Spiele wie ebend Skyrim, Crysis 2, Starcraft II, Battlefield 3 oder das immernoch beliebte WoW optimiert?

Ein Mafia II oder Serious Sam 3 rettet auch'n Arsch voll SGSSAA nicht vor dem Mittelmaß in Sachen Spielspaß.

Sir Integral Wingate Hellsing
2012-05-01, 17:40:15
Schön, dass das so laaangsam ankommt :ulol:

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=523590

Sie kam mir bei der Vorstellung schneller vor als sie es jetzt tatsächlich ist.
So richtig vom Thron stürzen tut sie die 7970 nämlich nicht.
Dafür brauchts den GK110 zu Mondpreisen.

EDIT: Laut Geizhals liegen die HD 7970-Karten bei ca. 400 EUR+ (lagernd) & die GTX 680er bei ca. 475 EUR+

Blaire
2012-05-01, 20:06:16
die gtx680 ist nur in den werbeträchtigen spielen wie z.b. bf3 oder skyrim schneller aber ganz sicher nicht im mittel.

Dirt3, Crysis2, Batman AC und und und... ;)

aufkrawall
2012-05-01, 20:10:58
Dirt3, Crysis2, Batman AC und und und... ;)
Erstaunlich ist, dass bei vielen Benchmarks mit AA Kepler häufig um einiges schneller ist als SI, je nach Anwendung.
MSAA/SGSSAA war mit NI ja eigentlich eher noch AMDs Bereich.
Vielleicht liegts aber auch an geänderten Benchmarks.

gedi
2012-05-01, 20:11:12
Batman AC? Zudem liefert die 7970 immer spielbare FPS-sieht imo in Metro bei ner 680 nicht wirklich so aus;D

aufkrawall
2012-05-01, 20:13:25
Batman AC? Zudem liefert die 7970 immer spielbare FPS-sieht imo in Metro bei ner 680 nicht wirklich so aus;D
Laut Blaire soll ja für Metro noch was für Kepler kommen.
Außerdem läufts mit der 7970
a.) auch nicht wirklich flüssig und
b.) wohl auch nur schneller mit dieser dösigen Compute-DoF.

samm
2012-05-01, 21:45:02
100Watt weniger Verbauch als 7970 unter Furmark :eek:

Drosselt da die GTX680 schon?Wird schön erläutert, der Test ist echt lesenswert :) Kuck dir die Passagen zu Power-Target und Boost an. Kurz gesagt: Ja, wird es. Die Karte kann nicht mehr verbrauchen :)

Knuddelbearli
2012-05-02, 06:11:37
naja stimmt so nicht mit oc verbraucht sie im furemark mehr.
Würde schon sagen das da wohl eine softwaredrossel anspringt.
müsste man furemark als benchmark nutzen und mit der 7970 vergleichen

Peter Gräber
2012-05-02, 22:18:11
naja stimmt so nicht mit oc verbraucht sie im furemark mehr.
Würde schon sagen das da wohl eine softwaredrossel anspringt.
müsste man furemark als benchmark nutzen und mit der 7970 vergleichen

Warum sollte man, wenn man ein absolutes Limit verbaut hat, zusätzlich auch noch ein Software-Limit implementieren? Ich bezweifele das sehr. Bis auf ein paar Watt, geschuldet den Reaktionszeiten der Chips sollte das wohl dicht sein. Jeder weitere Arbeitsgang wäre Verschwendung. Wir haben das absolute 225 Watt Limit nicht erreicht - wir waren kurz davor. Andere Messungen sprechen von leicht höherer Leistungsaufnahme - könnte aber wieder Toleranzen der eingesetzten Geräte geschuldet sein.

BigKid
2012-05-03, 09:56:29
http://geizhals.at/de/767447

Asus Direct Cut ?
Triple Slot ?
Endlich mal leise ?

http://www.techpowerup.com/reviews/ASUS/GeForce_GTX_680_Direct_Cu_II/
Hat schon jemand weitere Tests gefunden ?

Suche immernoch nach einer möglichst leisen Karte, möglichst mit gutem Custom Design (Spannungsversorgung).

Raff
2012-05-03, 10:03:15
Asus Direct Cut ?
Triple Slot ?
Endlich mal leise ?

Hat schon jemand einen Test gefunden ?
http://geizhals.at/de/767447

Suche immernoch nach einer möglichst leisen Karte, möglichst mit gutem Custom Design (Spannungsversorgung).

http://www.pcgameshardware.de/aid,880471/17-Seiten-Test-und-Praxis-zu-HD-7970-und-GTX-680-Vorschau-auf-PCGH-Ausgabe-06/2012/PCGH-Heft/Test/
http://www.pcgameshardware.de/aid,878985/Asus-Geforce-GTX-680-Direct-Cu-II-TOP-mit-1137-MHz/Grafikkarte/News/

;)

MfG,
Raff

BigKid
2012-05-03, 10:09:48
Danke :-) Nur kann ich da irgendwie keine Informationen rausziehen ausser dass ich mir das aktuelle Heft kaufen müsste...

Habe durch googeln mit angepasstem Suchbegriff noch den von Hardtech gefunden...

Die TGT gibts mittlerweile zwar zu kaufen aber immernoch keine Infos auf der deutschen Webseite ?!?

y33H@
2012-05-03, 10:21:21
Nimm die 4€ halt in die Hand - denn wie so oft lautet die Antwort: Steht im Heft ;D

BigKid
2012-05-03, 10:24:06
Nimm die 4€ halt in die Hand - denn wie so oft lautet die Antwort: Steht im Heft ;D

Schleichwerbung :-) wobei so schleichen tut die ja nichtmal... Zaunpfahlwerbung ?
Aber ja - ich denke darüber nach - wenn ich schon 500Euro für ne Grafikkarte hinblättere...

Raff
2012-05-03, 10:56:08
Tjaaa. Würden alle mal selbstständig das Heft kaufen, wären alle viel schlauer und wir müssten nicht dauernd alle Fragen gebetsmühlenartig beantworten. :biggrin:

MfG,
Raff

Mr. Lolman
2012-05-03, 11:18:36
Laut Blaire soll ja für Metro noch was für Kepler kommen.
Außerdem läufts mit der 7970
a.) auch nicht wirklich flüssig und
b.) wohl auch nur schneller mit dieser dösigen Compute-DoF.

46fps in FullHD mit AA ist schon ganz ok. imo.

aufkrawall
2012-05-03, 11:28:56
46fps in FullHD mit AA ist schon ganz ok. imo.
Ja, ist so sicherlich gut spielbar.
Ist auch schön, dass Tahiti seine Shaderpower bei dem Spiel schön ausspielen kann.
Aber auf der anderen Seite sollte es doch eigentlich nicht sein, dass so ein Zusatzeffekt die fps um mehr als 30% reduziert.
Da nimmt man besser SGSSAA.

SI war übrigens auch erst nach einem Treiberupdate bei dem Spiel schnell.
Also mal abwarten, ob da nicht noch was für Kepler kommt.

dargo
2012-05-03, 12:00:18
@aufkrawall
Tahiti performt in Metro 2033 nicht nur so gut wegen erweitertem DoF. Ich hab allerdings Tahiti vs. Fermi verglichen. Die Frames waren selbst ohne erweitertes DoF, allerdings mit 4xMSAA schon mit der HD7950 @960/1300Mhz deutlich höher als bei der GTX480 @820/1000Mhz.

Blaire
2012-05-03, 16:30:44
SC2 ist lange nicht so krank wie das, was CB in ME3 aufzeigt - es ist Wolles Entscheidung Spiele aus dem Ranking wegzulassen. Wenn die GTX da halt einbricht, bricht sie halt ein *Schulter zuck*

NVIDIA hat die Mass Effect3 AA-Bits geupdated im 301.34 ganz unauffällig ;) (bei AMD wird sowas ja immer als Wunder gefeiert ;D ) , jedenfalls sollte wieder alles in normalen Bahnen verlaufen.

Hübie
2012-05-04, 07:43:15
Bei ME3 stimmte sowie so was net. Im CB-Test ging das mit 8 x MSAA auf ~35 fps runter (http://www.computerbase.de/artikel/grafikkarten/2012/bericht-nvidia-geforce-gtx-680/8/#abschnitt_mass_effect_3) :| Selbst auf meiner Gurken-GTX-580 lief das mit 4 x SGSSAA nur an einer einzigen Stelle mit unter 30 fps. Sonst immer über 35.
Welche bits sind denn jetzt gesetzt? Bei mir sinds noch 0x00200145... CB nutzt auch nie Inspector. Da wird immer alles belassen. Eigentlich schade, denn so verbreitet man kein Wissen.

aufkrawall
2012-05-04, 07:57:19
Bei ME3 stimmte sowie so was net. Im CB-Test ging das mit 8 x MSAA auf ~35 fps runter (http://www.computerbase.de/artikel/grafikkarten/2012/bericht-nvidia-geforce-gtx-680/8/#abschnitt_mass_effect_3) :| Selbst auf meiner Gurken-GTX-580 lief das mit 4 x SGSSAA nur an einer einzigen Stelle mit unter 30 fps. Sonst immer über 35.
Welche bits sind denn jetzt gesetzt? Bei mir sinds noch 0x00200145... CB nutzt auch nie Inspector. Da wird immer alles belassen. Eigentlich schade, denn so verbreitet man kein Wissen.
Vielleicht war wirklich was an dem alten Bit schlecht, sodass so viel Leistung gezogen wurde.
Mit den SGSSAA Custom Bits gab es so ein Problem aber nicht, ich konnte die Demo bei 1,3 MP mit 8xSGSSAA und den C1-Bits meist konstant mit 60fps spielen.
BQ-Vergleiche gibts bei Benchmarks ja leider auch nicht -> der AMD-Vorsprung bei Bulletstorm SGSSAA ist womöglich eher zweifelhafter Natur.
Und dass zu den Bits kein Wort verloren wird, ist wirklich etwas ärgerlich.

Blaire
2012-05-04, 09:29:53
Bei ME3 stimmte sowie so was net. Im CB-Test ging das mit 8 x MSAA auf ~35 fps runter (http://www.computerbase.de/artikel/grafikkarten/2012/bericht-nvidia-geforce-gtx-680/8/#abschnitt_mass_effect_3) :| Selbst auf meiner Gurken-GTX-580 lief das mit 4 x SGSSAA nur an einer einzigen Stelle mit unter 30 fps. Sonst immer über 35.

Passt schon, die waren eher auf Kompatibilität ausgelegt, weniger auf Speed, zunächst wollten sie garkeine AA-Bits einbaun, da es bereits Ingame FXAA gab, aber sie haben dann doch zum Wohle der Kunden entschieden.

Welche bits sind denn jetzt gesetzt? Bei mir sinds noch 0x00200145...

Seit den 301.34 die "0x080100C5"

Hübie
2012-05-04, 11:23:55
Vielleicht war wirklich was an dem alten Bit schlecht, sodass so viel Leistung gezogen wurde.
Mit den SGSSAA Custom Bits gab es so ein Problem aber nicht, ich konnte die Demo bei 1,3 MP mit 8xSGSSAA und den C1-Bits meist konstant mit 60fps spielen.
BQ-Vergleiche gibts bei Benchmarks ja leider auch nicht -> der AMD-Vorsprung bei Bulletstorm SGSSAA ist womöglich eher zweifelhafter Natur.
Und dass zu den Bits kein Wort verloren wird, ist wirklich etwas ärgerlich.

Das Problem dabei ist denke ich, dass man immer den kleinsten gemeinsamen Nenner versucht zu bedienen. Oder anders ausgedrückt: damit jeder Dussel die Artikel verdauen kann werden nicht zu anspruchsvolle Infos mit eingebracht. Meiner Meinung nach sollte man in jeden Artikel Anspruch einbringen. Wer sich damit nicht beschäftigen will glotzt dumm auf die Balken, gibt ein hohlen Kommentar im Forum ab und kauft was anderes.

Raff & Co (PCGH) testen meistens so wie ich auch spiele. Nicht zuletzt dank deren Eigeninitiative sondern auch der hier vorhandenen Forenaktivität sind die meist einen Schritt voraus. Technisch ist ht4u.net das Maß der Dinge. CB ist und bleibt mainstream. Dort wird nur erwähnt das man mit externen tools Änderung vornehmen kann. Aber das geschieht immer zum Wohle der Objektivität. Dennoch weiß ich die Arbeit stets zu schätzen (allein des Aufwands wegen).
Der durchschnittliche Intelligenzquotient sollte aber in der Lage sein ein paar klicks auszuführen und eine Buchstaben- und Zahlenkombination in ein bestimmtes Feld einzutragen. Man muss ja net mal kapieren was man da eigentlich macht.

Sei es drum. Hier gehts um die lächerlich überteuerte GTX 680 die Performance sein soll und highend ist ;D Ich persönlich empfinde die aktuelle Marktlage erbärmlich.

Wo bleiben eigentlich die 1,5+ GHz Modelle??

Edit: @Blaire: Hast im Lotto gewonnen oder einen Sponsor gefunden?? ;D

Knuddelbearli
2012-05-04, 13:57:59
aufkrawall und woher ziehst du diese behauptung in bulletstorm ?

aufkrawall
2012-05-04, 20:10:08
aufkrawall und woher ziehst du diese behauptung in bulletstorm ?
Ich hatte damals mit Unreal Tournament 3 (UE3 wie Bulletstorm) getestet und mit G92 war das Bild klar besser geglättet als mit Cypress. Das kostet natürlich Performance.
Außerdem wird man auch nicht schlau draus, wie CB überhaupt das SGSSAA getestet hat.
Das Nvidia AA Behavior Flag bei Bulletstorm ist so gesetzt, dass man eigentlich kein AA erzwingen kann. Haben die also in-game AA zu SGSSAA erweitert?
Dann gibts nämlich Grafikfehler und der Test würde eh nichts aussagen.

Bei PCGH werden solche Details für ME3 auch nicht genannt:
http://www.pcgameshardware.de/aid,873907/Test-Geforce-GTX-680-Kepler-GK104/Grafikkarte/Test/?page=11

Ich frage mich auch, warum bei Batman nur mit der Geforce kein SGSSAA möglich sein soll.
afair hatte hier damals auch jemand mit SI berichtet, dass auch damit Grafikfehler auftreten.
Gibts irgendwo einen Beleg, dass es auf der Radeon nun funktioniert?
Und wie siehts bei Dragon Age 2 aus?
Das wird im Artikel ja alles gar nicht kommentiert.

Außerdem heißt es im Artikel:
Es gibt aber genauso einen recht großen Haken, da Nvidia die notwendige, automatische LOD-Anpassung (ab wann die nächsthöher aufgelöste Texturstufe angewendet werden soll) nur unter DirectX 9, nicht aber unter DirectX 10 sowie DirectX 11 durchführt...
Auch bei DX9 wird nichts automatisch verschoben.

Knuddelbearli
2012-05-04, 20:15:51
sorry aber du vergleichst hier mit cypress um dann gegen Southern zu hauen? ähm ja ...
vor allem die ebahuptung das deshalb amd schneller ist sowieso quatsch² ist siehe af, da war durch das schlechtere af nichts schneller ...



zum cb quote denke mal da haben sie sich "vertippt"
müsste heissen mit dx10+ gar keine lod verstellung möglich

aufkrawall
2012-05-04, 20:38:50
sorry aber du vergleichst hier mit cypress um dann gegen Southern zu hauen? ähm ja ...

Ich haue gegen gar nichts, sondern äußere nur den Verdacht, dass die Ergebnisse womöglich nicht völlig vergleichbar sind.
Und wie die AA-Profile bei AMD funktionieren, spielt es mit Sicherheit überhaupt keine Rolle, ob man mit Evergreen, NI oder SI testet.


vor allem die ebahuptung das deshalb amd schneller ist sowieso quatsch²

Das weißt du doch gar nicht.


ist siehe af, da war durch das schlechtere af nichts schneller ...

Wie du jetzt auf die AF kommst, ist mir ein absolutes Rätsel.

samm
2012-05-04, 20:53:04
Bei PCGH werden solche Details für ME3 auch nicht genannt:
http://www.pcgameshardware.de/aid,873907/Test-Geforce-GTX-680-Kepler-GK104/Grafikkarte/Test/?page=11
Funzt bei AMD 7970 direkt, wenn man im Treiber SSAA forciert. Weshalb sollte das bei Nvidia nicht ebenso sein?


Wie du jetzt auf die AF kommst, ist mir ein absolutes Rätsel.Dürfte wegen deiner Vermutung sein, dass das aus deiner Sicht subjektiv schlechtere AA in UT3 für Geschwindigkeit sorgt - evt. liegt da ein Bug vor wie beim AF, oder ein Problem des AA-Musters, whatever, das halt schlechtere Qualität verursacht aber nichts für die Performance bringt. Ich hab das Spiel nicht und keine aktuelle Nvidia-Karte, drum ebenfalls reine Vermutungen meinerseits ;)

aufkrawall
2012-05-05, 00:44:29
Funzt bei AMD 7970 direkt, wenn man im Treiber SSAA forciert. Weshalb sollte das bei Nvidia nicht ebenso sein?

Ok, tut es in dem konkreten Fall auch bei Nvidia.


Dürfte wegen deiner Vermutung sein, dass das aus deiner Sicht subjektiv schlechtere AA in UT3 für Geschwindigkeit sorgt - evt. liegt da ein Bug vor wie beim AF, oder ein Problem des AA-Musters, whatever, das halt schlechtere Qualität verursacht aber nichts für die Performance bringt.

Das glaube ich nicht, vermutlich funktioniert das Treiber-AA mit den Profilen bei AMD teilweise ganz anders.
Man kann bei AMD doch afair auch mit einem alten Treiber, der das Spiel gar nicht kennen kann, AA erzwingen.
Das ist mit dem Nvidia-System mit den einzelnen Profilen für fast jede Anwendung so nicht möglich.
Nun ist die Frage, wie das bei AMD funktioniert. Ich tippe, es wird irgendwie allgemein verträglicher AA erzwungen, was nicht unbedingt eine spezielle Anpassung benötigt und etwas schneller ist, dabei aber schlechter aussieht.
Ich geh jede Wette ein, dass UT3 immer noch schlechter geglättet ist.
Bei Crysis hat sich ja auch nichts getan (ist zwar ein völlig anderes Thema, aber trotzdem).
Das lässt sich bestimmt auf andere UE3-Spiele übertragen.

Knuddelbearli
2012-05-05, 12:21:54
Ich tippe, es wird irgendwie allgemein verträglicher AA erzwungen, was nicht unbedingt eine spezielle Anpassung benötigt und etwas schneller ist, dabei aber schlechter aussieht.

und was bewegt dich zu der Behauptung? viel wahrscheinlicher und logisch ist doch

Ich tippe, es wird irgendwie allgemein verträglicher AA erzwungen, was nicht unbedingt eine spezielle Anpassung benötigt, dadurch auch langsamer ist und dabei auch noch schlechter aussieht.

aufkrawall
2012-05-05, 18:38:04
und was bewegt dich zu der Behauptung? viel wahrscheinlicher und logisch ist doch
Ich würde eher vermuten, dass weniger Glättung auch weniger Leistung kostet.

digidoctor
2012-05-06, 09:16:21
EVGA Superclocked geordert inklusive vormontiertem Aquacomputer Wasserkühler; also volle Garantie. Ich bin gespannt. Sie ersetzt die bereits wassergekühlte GTX580.

Hat jemand Interesse an der alten? :D

TobiWahnKenobi
2012-05-06, 10:24:43
noch schnell meine 2 cents zur GTX680

-> :-)



(..)

mfg
tobi

Dural
2012-05-08, 09:55:33
2GHz Boost Takt dafür ein Power Target von nur 113% ;D :freak:

http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/22329-test-4x-geforce-gtx-680-wassergekuehlt-extreme-und-leise.html?start=3

Godmode
2012-05-08, 10:01:02
2GHz Boost Takt dafür ein Power Target von nur 113% ;D :freak:

http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/22329-test-4x-geforce-gtx-680-wassergekuehlt-extreme-und-leise.html?start=3

In den Benchmarks keine Spur von 2 GHz, schade.

Iruwen
2012-05-09, 10:34:00
Zeigt zumindest dass die Asus DCU2 ihr Geld wert ist.

boxleitnerb
2012-05-09, 15:15:45
Ich hatte anfangs vermutet/behauptet, dass bei erzwungenem VSync auch automatisch Triple Buffering aktiv ist, denn ich hatte nie die Drops von 60 auf 30/20/15 erlebt, die es ohne Triple Buffering geben würde.

Bis jetzt. Metro 2033, 296.10.
Single 580, VSync anwendungsgesteuert vs. VSync erzwungen
http://www.abload.de/thumb/singleapp4oipz.png (http://www.abload.de/image.php?img=singleapp4oipz.png)http://www.abload.de/thumb/singleonmgero.png (http://www.abload.de/image.php?img=singleonmgero.png)

Dasselbe mit SLI:
http://www.abload.de/thumb/sliapp6felw.png (http://www.abload.de/image.php?img=sliapp6felw.png)http://www.abload.de/thumb/slionhdcvg.png (http://www.abload.de/image.php?img=slionhdcvg.png)

Ist mit AFR automatisch TB aktiv?

BigKid
2012-05-10, 09:41:53
So jetzt betritt die Zotac AMP auch noch die Bühne...
Wenn es tatsächlich eine GTX680 wird, dann gibt es für mich aktuell fast nur 3 Möglichkeiten die in betracht kommen:
Entweder Custom und eine ASUS Direct Cut oder die Zotac Amp ... (test hier http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/22405-test-zotac-geforce-gtx-680-amp-edition.html?start=4)

Oder eine 0815 GTX680 von eVGA und Umbau mit Arctic....

Aktuell beobachte ich aber auch sehr interessiert die GTX570... Sollte die wirklich nur 5% Abstand haben und in ein paar Wochen preislich interessant sein, dann geht die Suche von neuem los...

Grindcore
2012-05-10, 10:34:52
Also die AMP! Version sieht ja mal alles andere als vertrauenerweckend aus, kein Vergleich zu den Fermi-Ablegern.

BigKid
2012-05-10, 10:44:58
Öhmm... Sagtmal in den spezifikationen vom Accelero III grade gelesen dass er nur mit GTX680 kompatibel ist, die NICHT den Doppeldecker-Stecker haben.
Welche non customs haben den denn bitte nicht ?

gnomi
2012-05-10, 12:48:09
Keine. Zum Referenzdesign ist der Kühler inkompatibel.

Hübie
2012-05-10, 13:04:41
Schlau von denen, nicht wahr? ;D

@grindcore: Was genau meinst du? Das ist ne Grafikkarte und kein Versicherungsvertreter.

digidoctor
2012-05-10, 19:50:58
So, ich hab jetzt mal bei Caseking zugeschlagen. Die bieten eine EVGA 680 Superclocked mit bereits umgebauten Aquacomputer-Wasserkühler an. Volle Garantie.

Grindcore
2012-05-14, 13:22:45
Schlau von denen, nicht wahr? ;D

@grindcore: Was genau meinst du? Das ist ne Grafikkarte und kein Versicherungsvertreter.

Damit meine ich, dass der Kühler aussieht als wäre er in einer Nacht- und Nebelaktion zusammengedengelt worden und damit kein Vergleich zum VF3000 der Fermi-Amps ist. Die Ergebnisse der Lautstärkemessungen sagen alles.

ashley
2012-05-14, 18:43:35
Nvidia Geforce GTX 680: Vsync löst Bildhänger aus, Hersteller sucht nach Lösung


www.pcgames.de/Geforce-GTX-680-Thema-239723/News/Nvidia-Geforce-GTX-680-Vsync-loest-Bildhaenger-aus-Hersteller-sucht-nach-Loesung-883176/


http://playmassive.de/mmo-news/id39272/nvidia-gtx-680-gravierenden-problemen.html

mironicus
2012-05-16, 22:07:10
Endlich leise...?

http://www.computerbase.de/news/2012-05/point-of-view-geforce-gtx-680-exo-mit-riesen-kuehler/

TobiWahnKenobi
2012-05-16, 22:26:24
na da bin ich mal gespannt... finde jetzt nicht, dass das kühlerkonstrukt auf der jetstream so anders aussieht.. zumindest was den zirkus mit drei lüftern angeht, die in unterschiedliche richtungen drehen.


(..)

mfg
tobi

ashley
2012-05-19, 21:31:39
Lots of trouble, when we look at the time spent on long-latency frames. What happened to the GTX 680? Well, look up at the plots above, and you'll see that, very early in our test run, there was a frame that took nearly 180 ms to produce—nearly a fifth of a second. As we played the game, we experienced this wait as a brief but total interruption in gameplay. That stutter, plus a few other shorter ones, contributed to the 680's poor showing here. Turns out we ran into this problem with the GTX 680 in four of our five test runs, each time early in the run and each time lasting about 180 ms.]
Nvidia tells us the slowdown is the result of a problem with its GPU Boost mechanism that will be fixed in an upcoming driver update.

techreport.com

Lest euch die letzten beiden seiten durch ;

http://forums.nvidia.com/index.php?showtopic=226227&st=800

Es liegt nicht am treiber, es liegt an der Karte !

Skysnake
2012-05-20, 09:24:55
Ist das jetzt Propaganda?

Wie kommst du darauf, dass es KEIN Treiber Problem ist?

Es gibt absolut keine Anzeichen dafür. Zumal da ja sogar paar Wörter weiter steht, dass es in einem kommenden Treiber behoben werden soll, was halt auch einige Zeit dauern kann, aber das ist ein anderes Thema.

Hugo78
2012-05-20, 10:43:54
Man sollte mal auf den original Artikel verweisen.
Da geht es um 1% der fps in Batman: Arkham City.
Und da haben andere Karten scheinbar noch ganz andere Probleme.

A broader look at the latency picture shows that the GTX 680 generally produces lower-latency frames than the 7970,
which is why its FPS average is so high. However, that last 1% gives it trouble.

http://techreport.com/r.x/geforce-gtx-680/arkham-50ms.gif
- http://techreport.com/articles.x/22653/9

Es gibt also auf 100fps, einen Frame der übermässig lang gerendert wird, aber man sieht es, das Problem haben andere Karten auch.
Mal mehr mal weniger.

digidoctor
2012-05-20, 11:16:27
Ich habe jetzt eine wassergekühlte GTX680. Im Turbo gehts nicht über 1250 stabil.So bis 1200-1240 läuft es gut. Also mittlerer Chip würde ich sagen. Auch wenn die restlichen 4% am Takt bis 1300 MHz nicht viel an FPS ändern, so wäre es natürlich schön gewesen.

40-42 Grad sinds dann bei 1215 MHz

TobiWahnKenobi
2012-05-20, 11:56:19
joa.. sind die grenzen, die ich auch für mich festgestellt habe.

mal abwarten wie die teile mit mehr saft laufen..



(..)

mfg
tobi

digidoctor
2012-05-20, 12:09:44
Oh, wie willst du das anstellen? Mod-Bios?

Kennt jemand diese Seite?

http://www.mvktech.net/component/option,com_remository/Itemid,26/func,select/id,60/orderby,4/

sowas oder ähnlich: http://www.mvktech.net/component/option,com_joomlaboard/Itemid,34/func,view/id,63002/catid,10/limit,10/limitstart,250/

Cyv
2012-05-20, 12:23:56
Wie seht ihr das vsync-Problem? Habt ihr auch Probleme? Bisher habe ich nur von der gtx680 gelesen, müsste dann doch aber auch die 670 betreffen oder gar die ganze 600-er Reihe...
Ich kann ehrlich gesagt nicht an einen Fehler im Treiber glauben...

TobiWahnKenobi
2012-05-20, 12:27:52
ich bin von der HD7970 ganz andere fehler gewohnt..

davon ab, gebe ich nicht 500€ aus, um dann hier zuhause weiter haare in der suppe zu finden.

..wenn sie mich anspringen (die haare), dann ist das was anderes.


(..)

mfg
tobi

Cyv
2012-05-20, 12:34:02
ich bin von der HD7970 ganz andere fehler gewohnt..

davon ab, gebe ich nicht 500€ aus, um dann hier zuhause weiter haare in der suppe zu finden.

..wenn sie mich anspringen (die haare), dann ist das was anderes.


(..)

mfg
tobi
Naja, wir sind hier im 680-Thread und der Fehler scheint kein kleines Haar in der Suppe zu sein, sondern ein fundementales Problem im Treiber oder GPU-Design... Daher sollten wir das schon hier thematisieren. Ich bin kurz vor dem kauf eines GK104-Chip und sowas trägt deutlich zur Kaufentscheidung bei!

TobiWahnKenobi
2012-05-20, 13:05:40
pff... wenn du das geld hast kauf dir eine und wenn du auf zu heftige probleme stößt, die deinen kaufentscheid beeinflussen können, schickste das dings zurück.


ich hab mir spiele gekauft.


(..)

mfg
tobi

Cyv
2012-05-20, 13:19:29
pff... wenn du das geld hast kauf dir eine und wenn du auf zu heftige probleme stößt, die deinen kaufentscheid beeinflussen können, schickste das dings zurück.


ich hab mir spiele gekauft.


(..)

mfg
tobi

Warum zum Henker willst du das Problem denn totschweigen?
Mir gehts hier nicht ums Geld.
Wenn du nen Porsche hast, der im Comfort-Modus Motoraussetzer hat, akzeptierst du das dann auch, nur weil er viel Geld gekostet hat?

Grade weil der GK104 neu und teuer ist, sollte man auf das Vsync-Problem eingehen und mal herausfinden welche Karten es betrifft und woher das Problem rührt. Theoretisch sollte dann auch die GTX690 betroffen sein...

TobiWahnKenobi
2012-05-20, 13:24:20
was hat das mit totschweigen zu tun.. würde mein vsync nicht funktionieren, könnte ich ihn nicht nutzen und da ich ihn sehr gern benutze (120Hz TFT + 120Hz beamer + stereo-3D), würde ich bei problemen einfach auf einen neuen treiber warten. bei der 7970 hab ich vier treiber abgewartet bevor sie geflogen ging.. *gg*

creative hat mit seinem rotz auch immer wieder ne chance gekriegt und imo läufts, auch wenn es releases gab, die gruselig waren.

ich bezweifle, dass du oder dieser thread irgendwelche probleme löst. die zeit lässt sich besser nutzen, wenn man ne GTX680 gekauft hat.

btw,
es müssen ja "probleme" sein, die jemand mit GTX680 erstmal nachbauen muss.. wie jedesmal..

als ihr alle rumgeheult habt, dass eine GTX460 hohe latenzen erzeugt, musste man das auch erstmal mit irgendwelchen tools checken, von denen 101 von 100 leuten zuvor noch nie was gehört hatten.


(..)

mfg
tobi

Blaire
2012-05-20, 13:28:54
Ich kann ehrlich gesagt nicht an einen Fehler im Treiber glauben...

Es wurde doch bereits offiziell bestätigt, das der Treiber-Fix für Juni geplant ist. Was gibt es da noch großartig anzuzweifeln?

dildo4u
2012-05-20, 13:29:51
Warum zum Henker willst du das Problem denn totschweigen?
Mir gehts hier nicht ums Geld.
Wenn du nen Porsche hast, der im Comfort-Modus Motoraussetzer hat, akzeptierst du das dann auch, nur weil er viel Geld gekostet hat?

Grade weil der GK104 neu und teuer ist, sollte man auf das Vsync-Problem eingehen und mal herausfinden welche Karten es betrifft und woher das Problem rührt. Theoretisch sollte dann auch die GTX690 betroffen sein...
NV arbeitet am Problem zwingt dich ja keiner jetzt ne Karte zu kaufen und wenns dir zu lange dauert gibt's ja Alternativen bei AMD.

http://www.pcgames.de/Geforce-GTX-680-Thema-239723/News/Nvidia-Geforce-GTX-680-Vsync-loest-Bildhaenger-aus-Hersteller-sucht-nach-Loesung-883176/

Cyv
2012-05-20, 13:32:03
Betrifft es denn nur die 680? was ist mit der 690? Sie besitzt ja identische gpu's.

Blaire
2012-05-20, 13:36:53
Betrifft es denn nur die 680? was ist mit der 690? Sie besitzt ja identische gpu's.

Alle Kepler

dildo4u
2012-05-20, 13:39:57
Hängt mit dem Boost zusammen.

Turns out we ran into this problem with the GTX 680 in four of our five test runs, each time early in the run and each time lasting about 180 ms. Nvidia tells us the slowdown is the result of a problem with its GPU Boost mechanism that will be fixed in an upcoming driver update

http://techreport.com/articles.x/22653/9

Tritt aber nich immer auf die anderen Games im Test laufen sauber.

Skysnake
2012-05-20, 18:02:00
Man muss nichts tot schweigen, aber auch keine Hiobsbotschaft draus machen.

Die Leute sollten definitiv von der Problematik VOR dem Kauf wissen. Das gehört sich einfach so! Von einem Hardwarebug zu sprechen ist aber verfrüht und unberechtigt, wenn Sie scheinbar den Fehler gefunden haben.

Was man aber auch auf jeden Fall sagen muss ist, dass das noch bis Juni dauern wird, was sicherlich die Kaufentscheidung so manch einen beeinflussen wird. Das ist halt doch eine ganz schön lange Zeit für die IT-Wet.

Zudem muss man natürlich auch immer sagen, dass das Problem im Juni dann nicht zwingend gelöst sein muss. Hersteller haben schon oft gesagt, das etwas bis da und da gefixed ist, und dann hats am Ende SEHR viel länger gedauer, bzw. wurde teils auch nie gefixed... Man sollte also mit einer gesunden Portion Skepsis an die Sache ran gehen.

Atm. würde ich wegen so etwas im Zweifel den Kauf aufschieben. Man hat dann eh gute Chancen, dass die KArten billiger sind als jetzt, und kann sich davon vor dem Kauf überzeugen, ob das Problem beseitigt wurde doer aber nicht.

Was mir allerdings sauer! aufstößt, ist die Tatsache, das nVidia laut PCGH die Problematik seit März bekannt war, und man nicht wirklich die Leute darüber informiert hat, bzw. mit mehr Druck an der Lösung von selbigem gearbeitet hat. März bis Juni sind eine verdammt lange Zeit....

Hugo78
2012-05-20, 18:02:34
Gigabyte GTX 680 OC mit neuem Bios für leiseren Idle.
http://www.tomshardware.de/Gigabyte-GTX-680-OC-Windforce-3X-BIOS,news-247532.html#xtor=RSS-1211

Blaire
2012-05-20, 18:55:39
Was mir allerdings sauer! aufstößt, ist die Tatsache, das nVidia laut PCGH die Problematik seit März bekannt war, und man nicht wirklich die Leute darüber informiert hat, bzw. mit mehr Druck an der Lösung von selbigem gearbeitet hat. März bis Juni sind eine verdammt lange Zeit....

Was falsch ist, in dem Thread geht es ganz allein um diesen Vsync-Bug und nix anderes. Das was Techreport da berichtet, dürfte inzwischen längst gefixt sein, leider wird alles wieder in einen Topf geschmissen und jeder der irgendwo einen Ruckler findet, fühlt sich sofort angesprochen. :freak:

Iruwen
2012-05-21, 13:22:18
Ich hab jetzt nur die verlinkte Seite des Threads gelesen und fühle mich schon dümmer :freak: Ist ja schlimmer als YT Kommentare.

Dural
2012-05-21, 13:52:33
Atm. würde ich wegen so etwas im Zweifel den Kauf aufschieben. Man hat dann eh gute Chancen, dass die KArten billiger sind als jetzt, und kann sich davon vor dem Kauf überzeugen, ob das Problem beseitigt wurde doer aber nicht.



wenn das so ist dürfte man ja gar keine AMD Produkte mehr kaufen... aber ist schon komisch das man von dir in diese richtung nie was hört ;D :rolleyes:


NV ist in sachen support beispielhaft und da könnte sich so manches unternehmen eine scheibe davon abschneiden.
ich wage zubehaupten, wenn es NV nicht gäbe wäre PC gaming schon längst tot!

Effe
2012-05-21, 14:37:42
Das Fanboymeter hat grad sehr große Aussschläge...

Feuerteufel
2012-05-22, 21:28:27
funktioniert bei euch Nvidia Design Garage?

Bei mir kommt immer "Design Garage funktioniert nicht mehr"

Blaire
2012-05-23, 15:37:58
Bei mir auch. Welcher Treiber lief zuletzt damit?

Feuerteufel
2012-05-23, 19:55:04
Bisher hatte ich nur den 301.10 Treiber drauf. Damit hats auch nicht funktioniert. Schon komisch Nvidia Demo läuft auf Nvidia Karte nicht.

Cubitus
2012-05-23, 21:15:18
Das Stuttering (Vsync-Bug) tritt eigentlich immer nach einem Treibreset auf,
blöd das man es manchmal gar nicht merkt, dass sich der Treiber auf hängte.

Bzw. die Framtime Glättung der GTX690 leidet auch sehr darunter.

AnarchX
2012-05-31, 19:39:34
http://www.sweclockers.com/image/red/2012/05/30/Gtx_680_0001_Layer+2.jpg?t=paneBanner&k=79cc2c9f
http://www.sweclockers.com/nyhet/15478-nvidia-geforce-gtx-680-saljer-60-procent-battre-an-gtx-580

dargo
2012-05-31, 19:50:47
http://www.sweclockers.com/image/red/2012/05/30/Gtx_680_0001_Layer+2.jpg?t=paneBanner&k=79cc2c9f
http://www.sweclockers.com/nyhet/15478-nvidia-geforce-gtx-680-saljer-60-procent-battre-an-gtx-580
Man kann sich auch alles schönreden. :rolleyes:

Die gleiche Grafik bitte nochmal mit einer GTX480. ;D Mal ehrlich, die GTX580 war nur ein warmer Aufguss der GTX480. Wer eine 480-er hatte hatte kaum einen Grund upzugraden. Folge... weniger GTX580 User. Außerdem wer kauft sich noch eine GTX580 nach dem Release der GTX680? Das machen auch nur die wenigsten. Für einen richtigen Abverkauf der GTX580 war der Preis immer noch zu hoch.

PingpiN
2012-05-31, 22:39:12
Nvidia halt.Frag mich eigentlich wie ich ein Ati fanboy vor 10 jahren werden konnte,:biggrin:

dildo4u
2012-05-31, 22:40:39
Außerdem wer kauft sich noch eine GTX580 nach dem Release der GTX680? Das machen auch nur die wenigsten. Für einen richtigen Abverkauf der GTX580 war der Preis immer noch zu hoch.
Was hat das mit der Grafik zu tun?Das geht's jeweils um die ersten 6 Wochen nach dem Launch.Und die 580 hat ein wesentlich besseren Ruf als die 480,ich wette die hat sich deutlich besser verkauft.

Hugo78
2012-05-31, 23:34:43
Bei der Sale Out Analyse gehts es einfach darum, aufzuzeigen, dass NV primär keine Kapazitätsprobleme hat, sondern sich die 680 einfach nur gut verkauft.

aufkrawall
2012-06-01, 01:04:11
Wieviel ist das Ding eigentlich wirklich wert?
Die Hälfte, oder doch nur ein Drittel?

Hübie
2012-06-01, 01:58:56
Was hat das mit der Grafik zu tun?Das geht's jeweils um die ersten 6 Wochen nach dem Launch.Und die 580 hat ein wesentlich besseren Ruf als die 480,ich wette die hat sich deutlich besser verkauft.

Das sehe ich aber auch so. Hat dargo wohl zu schnell geschossen, wa? ;D Gefühlt verkaufte sich die GTX 680 sogar besser als die HD 7970 wenn wir jeweils 6 Wochen nach dem Start mal schauen. Mittlerweile wird letztere aber attraktiver. 370€ für ne Ref-Karte der HD 7970 ziehen sicher viele der 100€ teureren GTX 680-Ref vor. Zu mal die momentan nicht gerade mit tollen News um sich schmeißt.
Ich lasse die einfach mal aus und warte noch ein wenig :freak:

@krawall: Im Endverkauf 300-320€. Mehr nicht. Aber hey: würdest du die Kuh nicht auch melken bis sie nix mehr gibt :confused: ;)

Knuddelbearli
2012-06-01, 04:16:31
nur gabs beid er 580 auch gleich die 570 wärend die 680 lange zeit alleine dastand

aber wie schon gesagt man kann sich jede statistik schonbasteln ...

Hübie
2012-06-01, 04:56:15
Alter hast du gesoffen oder bist du noch net richtig wach? ;D
Ausserdem kam nach ein einhalb Monaten schon die GTX 670. Die Grafik ist einfach fürn Arsch weil da lustige Prozentchen stehen. Von 10 auf 16 sind auch 60%!

Knuddelbearli
2012-06-01, 06:28:10
eineinhalb Monate sind wievielt Wochen? 6?
und wie viele Wochen zeigt die Grafik? ;-) ^^

ansonsten hast natürlich recht

aufkrawall
2012-06-01, 10:36:09
@krawall: Im Endverkauf 300-320€. Mehr nicht. Aber hey: würdest du die Kuh nicht auch melken bis sie nix mehr gibt :confused: ;)
Na klar, aus wirtschaftlicher Sicht ist Nvidia mit dem Ding mal wieder sehr erfolgreich.
Aber schon ulkig, wie Nvidia es geschafft hat, bereits so viele Leute so viel für das Ding den Preis zahlen zu lassen.
Und das, wo der Turbo nervt, adaptives Vsync überflüssig ist, Vsync rumspinnt, nur 2 GB RAM, teilweise bandbreitenlimitiert, keine BQ-Verbesserungen...

Hugo78
2012-06-01, 12:48:47
@aufkrawall

Betreibst du jetzt hier Mythenbildung um deine eigene Kaufentscheidung zurechtfertigen?

Der Turbo läuft 1A, 2GB reicht überall, ob man adaptives Vsync braucht muss auch jeder für sich entscheiden.
Mit Vsync hab ich bisher nur Skyrim gespielt, da gibts keine Probleme, also wer-wie-was spinnt da genau?
Die Bandbreite limitiert erst, wenn auch die Radeons in den <20fps Bereich fallen, vorher ist die 680 normalerweise immer schneller.
Und wenn man schon von dem Level, der "so-gut-wie-wunschlos-glücklich-BQ" kommt, bleibt nicht viel was man verbessern kann.

aufkrawall
2012-06-01, 13:39:13
@aufkrawall

Betreibst du jetzt hier Mythenbildung um deine eigene Kaufentscheidung zurechtfertigen?

Hab gerade ne Geforce drin und obs wieder ne Radeon wird, ist noch gar nicht wirklich gegessen.
Also lass mal stecken.


Der Turbo läuft 1A

Er nervt beim OCen nur rum und wenn den jemand als Argument anführt, dass er beim Energiesparen hilft, dann ist ne vermeintliche High End Karte die falsche für ihn.


2GB reicht überall

Noch so ne Übertreibung...


ob man adaptives Vsync braucht muss auch jeder für sich entscheiden.

Nenn mir mal ein konkretes Spiel, bei dem es Sinn macht.


Mit Vsync hab ich bisher nur Skyrim gespielt, da gibts keine Probleme, also wer-wie-was spinnt da genau?

Du weißt ganz genau, dass selbst Nvidia das Problem bestätigt hat.


Die Bandbreite limitiert erst, wenn auch die Radeons in den <20fps Bereich fallen, vorher ist die 680 normalerweise immer schneller.

Die Bandbreite limitiert vor allem dann, wenn man OCed.

Hübie
2012-06-01, 13:48:07
eineinhalb Monate sind wievielt Wochen? 6?
und wie viele Wochen zeigt die Grafik? ;-) ^^

ansonsten hast natürlich recht

Äh ja :redface: Das ist mir jetzt etwas peinlich...

Du hast aber immer noch nicht beantwortet ob besoffen oder verpennt :freak:

Übrigens braucht hier keine troll0rn weil die Radeons auch macken haben. Spulenfiepen z.B. - so ist das halt. Manche tun so als sei Unternehmen X ein Kuscheltier und Unternehmen Y eine reißende Bestie sei. Dabei wollen alle nur euer sauer verdientes Geld.

aufkrawall
2012-06-01, 13:54:39
Übrigens braucht hier keine troll0rn weil die Radeons auch macken haben
Und ich dachte, es wär ein Thread über die Geforce, und nicht über Radeons. ;)

Hübie
2012-06-01, 14:05:27
Das mit dem Denken klappt wohl net so richtig :tongue: ;D

Ich sag euch mal was: Als nVidia sah, dass Tahiti in Schlagweite ist haben sie die Bastellösung namens Turbo drangepappt und zack waren sie Sieger. Das war sicher (mit) ein Grund für die Verzögerung. *troll0-lOl0* Wie sonst erklärt man sich die Papp-Platine welche erst später ins PCB-Design integriert wurde?

Kann denn eigtl. jemand bestätigen dass die Turbotaktraten, die in den ersten 5-10 Minuten anliegen, im späteren Verlauf abfallen? Ich meine man spielt ja oft ein paar Stunden.

TobiWahnKenobi
2012-06-01, 14:23:07
vielleicht ist es einfach zeit, die jahrzehntelangen zöpfe mit dem manuellen OC abzuschneiden.. mir ist jedenfalls am turbo noch nichts negatives aufgefallen.

im gegenteil, warum soll ich mit mannigfaltigen spielen und applikationen eine pseudostabilität ausloten, was dazu auch noch unmengen zeit verschlingt, wenn es die automatik viel besser kann als ich?!

nur weil es immer so war? pff... zeiten ändern sich.


(..)

mfg
tobi

aufkrawall
2012-06-01, 14:42:13
im gegenteil, warum soll ich mit mannigfaltigen spielen und applikationen eine pseudostabilität ausloten, was dazu auch noch unmengen zeit verschlingt, wenn es die automatik viel besser kann als ich?!

Wenn sie das kann, dann spricht das nicht unbedingt für dich. :tongue:

TobiWahnKenobi
2012-06-01, 14:49:27
Wenn sie das kann, dann spricht das nicht unbedingt für dich. :tongue:

LOL - dein posts hatten auch schonmal mehr inhalt, freund sonne.


(..)

mfg
tobi

Knuddelbearli
2012-06-01, 14:50:07
Kann denn eigtl. jemand bestätigen dass die Turbotaktraten, die in den ersten 5-10 Minuten anliegen, im späteren Verlauf abfallen? Ich meine man spielt ja oft ein paar Stunden.


HT4U hat das getestet im extremfall ist die Leistung um ca 6% Abgefallen

aufkrawall
2012-06-01, 15:02:28
LOL - dein posts hatten auch schonmal mehr inhalt, freund sonne.

Sorry, aber der Turbo findet nichts optimales selber raus.
Bei so nem kleinen Chip in 28nm will ich die Spannung erhöhen und da stabil Takt drauf buttern.
Funktioniert bei den anderen ja auch.

Hugo78
2012-06-01, 17:58:23
Er nervt beim OCen nur rum
Max. Powertarget, passendes Offset + ne gute Kühlung die die Karte unter 80°C hält und du erhälst die maximal stabilen Ergebnisse.
Alles darüber wäre so oder so fürn Popo.

Noch so ne Übertreibung...
Dann hol dir doch ne 4GB.

Nenn mir mal ein konkretes Spiel, bei dem es Sinn macht.
GTA 4, da gibts genug Bereiche wo man an der 30fps Kotzgrenze ist und dann wieder steht man vor einer Wand ect. mit 1k fps ohne Vsync...


Du weißt ganz genau, dass selbst Nvidia das Problem bestätigt hat.

Nö, ich bin nicht NVs Serviceabteilung und wie viele andere hier kümmert es mich auch nicht, solang ich selber nicht davon betroffen bin.
Ich finds auch immer ätzend, wenn Leute so Zeug in den den Raum werfen ohne Verlinkung, als wenn alle Welt ihr Problem kennen muss.

Aber wie ich grad nach eigener Recherche gelesen hab, sagt NV sie seinen dran, wenn gleich sie sich für den Fix mehr Zeit nehmen wollen.
Fix irgendwann im Juni.


Kann denn eigtl. jemand bestätigen dass die Turbotaktraten, die in den ersten 5-10 Minuten anliegen, im späteren Verlauf abfallen? Ich meine man spielt ja oft ein paar Stunden.

Neben dem Extremfall den Knuddelbearli anspricht, verliert der Rest irgendwo um die 1% im Mittel.
Wartet man mit dem starten der Benchmark-Messung einige Zeit, so heizt sich die GPU auf und das Benchmark-Ergebnis fällt etwas schlechter aus (im Mittel um 1 Prozent).

http://ht4u.net/reviews/2012/nvidia_geforce_gtx_680_kepler_sli_evga_zotac_test/index13.php

Aber das alles bezieht sich auch wieder nur auf das Ref.Design, wo die Kühlung die Temps nicht immer unter 80°C halten kann, was so nicht mit AIB Designs vergleichbar ist.
Meine Asus 670 DCUII zb. kommt nicht über 76°C.

Mein knapp 10min Mitschnitt (Test selber war länger) mit occt, was das Powertarget von Anfang an vernascht.
http://www.youtube.com/watch?v=fpz6NDj4OMU
Da fällt nix ab, der Turbo hält die knapp 1200Mhz.

Sorry, aber der Turbo findet nichts optimales selber raus.
Bei so nem kleinen Chip in 28nm will ich die Spannung erhöhen und da stabil Takt drauf buttern.
Funktioniert bei den anderen ja auch.

Nur das Nvidia sowas nicht für jeden DAU anbieten kann.
Der Turbo erlaubt aber jetzt Software OC ohne Garantieverlust.
Für den Hardcore OCler sicher ganz traurig, für den Rest genau das Richtige.

Im Übrigen hat uns NVIDIA bestätigt, dass das Hochsetzen des Power Target nicht zum Garantieverlust führe.
http://ht4u.net/reviews/2012/nvidia_geforce_gtx_680_kepler_sli_evga_zotac_test/index13.php

Mancko
2012-06-01, 21:32:01
vielleicht ist es einfach zeit, die jahrzehntelangen zöpfe mit dem manuellen OC abzuschneiden.. mir ist jedenfalls am turbo noch nichts negatives aufgefallen.

im gegenteil, warum soll ich mit mannigfaltigen spielen und applikationen eine pseudostabilität ausloten, was dazu auch noch unmengen zeit verschlingt, wenn es die automatik viel besser kann als ich?!


Vor allem bleibst innerhalb der Garantie. Ich find den Turbo auch gut. Habe selber auch keine Lust lange rumzufummeln. Lieber knall ich das Ding rein und fang direkt an zu zocken.

dildo4u
2012-06-05, 18:30:19
Die neue Dawn Nvidia Techdemo

http://www.geforce.co.uk/whats-new/articles/new-dawn/

TobiWahnKenobi
2012-06-05, 18:53:55
required zwei GTX600-karten.. ist klar.. bissl früh geschlüpft.. die neue dawn..


(..)

mfg
tobi

Cubitus
2012-06-05, 19:05:51
Zur Bandbreite, die 680 GTX geht unter 1080p ab wie ein Zäpfchen. Allerdings unter Highend Auflösungen mit Highend AA, ist die Karte kein Highend mehr sondern eher eine gute Performance Karte. Massives oc beim Speicher schafft hier Abhilfe. Bigk muss es in diesem Punkt richten. Aber man sollte diese Auslegung auf die 1080p und den Split weg von HPC nicht nvidia zum Vorwurf machen. Sie taten das was von der Masse verlangt wurde. Thermie war ja zu stromlastig und viel zu ineffizient. Glaubt ihr das wird beim Bigk anders werden!?
Dieses Monster wird ebenfalls ein Tribut an den Verbrauch und an die Lautstärke fordern....Dafür bekommt der Enthusiast wirkliches Highend geliefert. Oder wie Max Payne sagen würde. You get what you pay for.

required zwei GTX600-karten.. ist klar.. bissl früh geschlüpft.. die neue dawn..


(..)

mfg
tobi

Wundert mich nicht... BigK lässt Grüßen..

seaFs
2012-06-05, 19:28:08
required zwei GTX600-karten.. ist klar.. bissl früh geschlüpft.. die neue dawn..


(..)

mfg
tobi

Als die kleine Dawn rauskam, konnte sich das auch kaum jemand angucken, da die FX5800 Ultra so gut wie nicht zu bekommen war.

TobiWahnKenobi
2012-06-05, 20:02:55
als ich mir damals dusk und dawn angeschaut habe, hatte ich ne FX5900 mit zermoddetem bios, hohem takt, pfeiffenden spulen und wasserkühlung.. *gg*

alles dinge, die heute nicht gegeben sind.


(..)

mfg
tobi

dargo
2012-06-05, 22:01:37
Thermie war ja zu stromlastig und viel zu ineffizient.
Wie kommst du darauf? Ich würde zu gern einen GF110 in 28nm sehen. Ich glaube nicht, dass es da einen großen Unterschied zum GK104 bei vergleichbarer Leistung geben würde wenn ich mir so die Abstände in einigen Games angucke.

Skysnake
2012-06-06, 00:20:22
Sorry, aber jetzt mal ganz im ernst, wo verbrauchen die da bitte die Leistung von zwei GTX670? :ugly:

Ok, du hast farbige Lichtquellen, welche die Umgebung beleuchten, aber das sind nicht mal 10 Stück.

Gut, die Haare werden wohl einiges fressen, auch wenn Sie sich extrem scheise bewegen. Da hat nVidia schon bessere Haare hinbekommen.

Haut sieht auch ganz nett aus, aber das wars auch.

Umwelt. Jo, sieht ganz nett aus, aber relativ künstlich. Ganz abgesehen davon hat man halt 0 Fernsicht. Also irgendwie ist das so ziemlich die unspektakulärste Demo, die ich von nVidia in letzter Zeit gesehen habe :(

Und dann diese Leistungsanforderung...

AffenJack
2012-06-06, 23:44:02
Gefühlt verkaufte sich die GTX 680 sogar besser als die HD 7970 wenn wir jeweils 6 Wochen nach dem Start mal schauen. Mittlerweile wird letztere aber attraktiver. 370€ für ne Ref-Karte der HD 7970 ziehen sicher viele der 100€ teureren GTX 680-Ref vor.

Je nachdem wo man guckt verkauft sie sich immernoch verdammt gut und deutlich schneller als die 7970. Aber da können sich die Leute ruhig wieder den Kopf zerbrechen und flamen ob Steam ne aussagekraft hat;)

Von links nach rechts Januar - Mai.
http://www.abload.de/img/unbenannt4xez3.png (http://www.abload.de/image.php?img=unbenannt4xez3.png)
http://store.steampowered.com/hwsurvey/videocard/

Mancko
2012-06-07, 10:27:20
Von links nach rechts Januar - Mai.
http://www.abload.de/img/unbenannt4xez3.png (http://www.abload.de/image.php?img=unbenannt4xez3.png)
http://store.steampowered.com/hwsurvey/videocard/

Ich denke da braucht man nicht groß rum flamen. Das dürfte fakt sein. Der Markt für Nvidia Karten vor allem im Performance und High End Segment ist bekanntermaßen größer als für AMD Karten. Und Steam dürfte genau für diese Segmente deutlich aussagekräftiger sein als die ganzen JPR, Mercury sonstwas Studien, die im Endeffekt nur den Channel bewerten und deren Ergebnisse durch APUs total verfälscht werden.

Cubitus
2012-06-07, 10:32:01
Wie kommst du darauf? Ich würde zu gern einen GF110 in 28nm sehen. Ich glaube nicht, dass es da einen großen Unterschied zum GK104 bei vergleichbarer Leistung geben würde wenn ich mir so die Abstände in einigen Games angucke.

Das sagte ja nicht, das ist die Meinung von "renommierten" Reviews-Seiten gewesen. Ich war mit meinen 480ern zufrieden und hatte diese auch über zwei Jahre im Einsatz!
Ich glaube die Leistung zum 104er wird besonders in hohen Auflösungen+AA erheblich besser ausfallen.

aufkrawall
2012-06-09, 16:53:02
GTA 4, da gibts genug Bereiche wo man an der 30fps Kotzgrenze ist und dann wieder steht man vor einer Wand ect. mit 1k fps ohne Vsync...

Vielleicht ist es dir entgangen, aber man kann meist/immer TB Vsync nutzen.
Input-Lag Unterschied zwischen DB und TB ist meist auch minimal.

Hugo78
2012-06-09, 20:34:09
Hab ich behauptet das man kein klassisches VSync mit Inputlag haben kann?
Nö.

Du wolltes ein konkretes Beipiel, wo ad.VSync was nutzt.

Und ob man den Inputlag bei klassischem Vsync jetzt als störend oder nicht empfindet,
ist nur in soweit das Thema, als das man mit adaptive VSync jetzt die Möglichkeit hat, den Inputlag völlig zu eliminieren.

Es ist ebend wieder eins von diesen vielen, kleinen, aber praktischen Freatures bei Nvidia, wo man im Fall der Fälle einfach froh ist, wenn man es denn wirklich braucht.
Und sei es nur. weil TB Vsync, noch mal extra VRAM braucht.

Ein Must Have ist es nicht unbedindigt, aber es ist es auch nicht nötig es als unsinnig darzustellen, weil diese Darstellung einfach nicht stimmt.

Knuddelbearli
2012-06-09, 20:37:25
wo vermeidet man bitte den inputlag bei adaptiven vsynch ?

eher ist er noch viel schlimmer dort da es dauernt zwischen inputlag und kein inputlag wechselt

Hugo78
2012-06-09, 20:41:00
Es geht um den zähflüssigen Inputlag bei <60fps.

aufkrawall
2012-06-09, 21:43:43
Und ob man den Inputlag bei klassischem Vsync jetzt als störend oder nicht empfindet,
ist nur in soweit das Thema, als das man mit adaptive VSync jetzt die Möglichkeit hat, den Inputlag völlig zu eliminieren.

Das stimmt doch gar nicht.
Mit 60fps hast du damit nen deutlich höheren Input-Lag als mit 59fps.


Es ist ebend wieder eins von diesen vielen, kleinen, aber praktischen Freatures bei Nvidia, wo man im Fall der Fälle einfach froh ist, wenn man es denn wirklich braucht.

Bevor ich mit 30 bis 40fps rumeiere, reduzier ich bei den meisten Spielen lieber die Details oder mach Vsync ganz aus.
Zumal bei niedriger fps-Rate Tearing besonders eklig wird.


Und sei es nur. weil TB Vsync, noch mal extra VRAM braucht.

Wie viel denn? 5MB?
Ich konnte bei L4D2 keinen wirklichen Unterschied beim VRAM-Verbrauch zwischen den verschiedenen Bufferstufen und Vsync off messen.
Scheint mir völlig irrelevant zu sein.

Hugo78
2012-06-09, 23:03:41
Wer >60fps Inputlag höher bewertet als <60fps, hat ein recht einsames Problem.

Tearing bei <60fps findet nicht statt, wenn doch hat man einen grausam schlechten TFT.
Und ob der zusätzliche VRAM Verbrauch bei TB Sync, jetzt irrelevant ist oder nicht, entscheidet dann wieder Programm XY.
Eine allgemeine Aussage läst sich hier nicht finden.

Aber das braucht es auch garnicht.
Ad.Vsync ist ja letztlich für Leute, die sensibel genug für TB Vsync sind.

aufkrawall
2012-06-09, 23:12:44
Wer >60fps Inputlag höher bewertet als <60fps, hat ein recht einsames Problem.

lol
Du hast gesagt, mit dem adaptiven Vsync ließe sich Input-Lag komplett vermeiden, obwohl Knuddelbearli vorher das nochmal mit dem schwankenden Input-Lag durch Vsync an/aus/an... aufgezeigt hat... :freak:


Tearing bei <60fps findet nicht statt, wenn doch hat man einen grausam schlechten TFT.

Was hat der TFT damit zu tun, wenn die Grafikkarte zur Bildwiederholfrequenz unpassend die Frames raushaut?
Welcher TFT soll denn deiner Meinung nach nicht tearen ohne Vsync? ;D


Und ob der zusätzliche VRAM Verbrauch bei TB Sync, jetzt irrelevant ist oder nicht, entscheidet dann wieder Programm XY.
Eine allgemeine Aussage läst sich hier nicht finden.

Doch. Mit massig VRAM ist die ganze Diskussion um VRAM-Knappheit irrelevant, etwa bei Tahiti XT oder Kepler mit 4 GB, GTX 580 mit 3..


Ad.Vsync ist ja letztlich für Leute, die sensibel genug für TB Vsync sind.
Aber klar doch.

dargo
2012-06-10, 00:01:27
Tearing bei <60fps findet nicht statt, wenn doch hat man einen grausam schlechten TFT.

What? :ulol:

wn612953
2012-06-10, 02:05:06
Wie viel denn? 5MB?

Eine allgemeine Aussage läst sich hier nicht finden.

Siehe beispielsweise:

[Verständnisfrage] Wieviel RAM bei Tripple Buffering

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=508688


;D:D;)

aufkrawall
2012-06-10, 02:08:59
Thx wn612953.
TB spielt also so gut wie keine Rolle für den VRAM.

Hugo78
2012-06-10, 11:22:31
Jo, zieht euch nur kräftig an jedem Satzzeichen hoch und macht ne Zitate-Schlacht draus.
Es ändert aber nichts daran, dass adaptives Vsync eine sinnvolle Option für den Fall ist, wo der Inputlag unterhalb von 60fps unspielbar zähflüssig wird.
Dann muss dieser Inputlag @ <60fps komplett weg, und das bietet Nvidia jetzt ebend an.

M4xw0lf
2012-06-10, 11:37:31
Das größere Problem als der Inputlag ist doch die Reduzierung auf 30 FPS sobald die 60 nicht mehr erreicht werden.

Skysnake
2012-06-10, 12:17:34
/sign

aufkrawall
2012-06-10, 12:51:09
Das größere Problem als der Inputlag ist doch die Reduzierung auf 30 FPS sobald die 60 nicht mehr erreicht werden.
Aber doch nur bei DB.
Etwa Risen 2 lief auch noch mit 45fps TB Vsync akzeptabel.

AnarchX
2012-06-11, 09:49:10
Passive GTX 680 von Colorful:
http://img5.pcpop.com/ArticleImages/picshow/0x0/20120607/2012060716383406525.JPG
http://tu.pcpop.com/pic-802820.htm#17

Dr. Lloyd
2012-06-11, 10:00:00
Sieht absolut top aus! :up:

Dieses Kühlerdesign würde perfekt in mein Gehäuse passen. Dort kann man die Karte im unteren PCIe-16x-Slot montieren und der mächtige Kühlblock könnte von zwei im Mesh-Gitterboden montierten 120er Gehäuselüfter direkt gekühlt werden. Ein Traum!

M4xw0lf
2012-06-11, 10:22:04
Alter Schwede, mit dem Haufen Metall können im Normalfall 3-4 Grafikkarten gekühlt werden ^^

derguru
2012-06-11, 11:51:03
ich finds geil,eine "highend"karte passiv gekühlt gabs bisher noch nicht.

dargo
2012-06-11, 11:57:21
Ich finds gar nicht geil. Was meinst du wieviel Abwärme die im Gehäuse abstrahlt? Das wird ein schöner Backofen. X-D Zudem dürfte die Karte extrem schwer sein. Wie wird das untere Teil am Gehäuse überhaupt befestigt?

derguru
2012-06-11, 12:01:36
ein vernünftig belüftetes gehäuse wird damit keine probleme haben und mit dem gewicht auch nicht.;)

klar wenn man so ein wellbelchgehäuse hat könnte es probleme geben.;D

dargo
2012-06-11, 12:03:11
ein vernünftig belüftetes gehäuse wird damit keine probleme haben und mit dem gewicht auch nicht.;)
Wozu dann eine passive Graka wenn du eh schon Lüfter verbaust? Völlig sinnlos sowas.

derguru
2012-06-11, 12:07:20
lol,schonmal was von leisen gehäuselüftern gehört?

und für offene gehäuse erst recht geeignet.

dargo
2012-06-11, 12:13:36
Nochmal extra für dich... eine passive Grafikkarte ist völlig sinnlos wenn der CPU-Kühler, das Netzteil einen Lüfter verwendet und/oder Gehäuselüfter vorhanden sind. Da kannst du gleich direkt große, langsam drehende Lüfter auf die passive Fläche der Graka pusten lassen. Wird erstens deutlich kühler und zweitens geht das Geräusch dieser Lüfter (wenn man sie bedacht wählt) eh unter den anderen Geräuschen unter.

derguru
2012-06-11, 12:16:02
nochmal für dich,für dich völlig sinnlos.:wink:

dargo
2012-06-11, 12:16:52
lol,schonmal was von leisen gehäuselüftern gehört?

und für offene gehäuse erst recht geeignet.
Du sprichst von leisen Gehäuselüftern und gleichzeitig von offenen Gehäusen. :freak: Also wenn du die üblichen Geräusche eines Computers (und dabei meine ich noch nichtmal Luftrauschen der Lüfter) beim offenen Gehäuse nicht wahrnimmst dann brauchen wir auch gar nicht weiter darüber zu diskutieren.

aufkrawall
2012-06-11, 12:22:27
Ohne HDD und wenn nichts zirpt ( ;) )...

derguru
2012-06-11, 12:26:57
Du sprichst von leisen Gehäuselüftern und gleichzeitig von offenen Gehäusen. :freak: Also wenn du die üblichen Geräusche eines Computers (und dabei meine ich noch nichtmal Luftrauschen der Lüfter) beim offenen Gehäuse nicht wahrnimmst dann brauchen wir auch gar nicht weiter darüber zu diskutieren.
ein offenes gehäuse als weitere option denn dann braucht man keine gehäuselüfter mehr und es soll leute geben die die cpu unter wasser haben.
Ohne HDD und wenn nichts zirpt ( ;) )...
es soll auch leute geben die nur noch ssd haben und ja zirpen ist eine gefahr.;)

aufkrawall
2012-06-11, 12:29:25
es soll auch leute geben die nur noch ssd haben und ja zirpen ist eine gefahr.;)
OT:
Ich überleg mir gerade auch, ne HDD ins LAN zu verlegen und nur noch ne SSD zu verbauen.
Bei offenem Gehäuse können auch die Gehäuselüfter weit runtergedreht werden, sodass es im Leerlauf fast keine Geräusche mehr geben sollte.

dargo
2012-06-11, 12:30:15
Ohne HDD und wenn nichts zirpt ( ;) )...
Von meiner HDD hört man eh nichts. Die ist im Käfig verbaut. Und nein ich meine kein Zirpen vom Tahiti. :wink:

Cubitus
2012-06-11, 12:31:12
Einerseits gut, andererseits gehen vier!? Slots damit drauf.
Wer zusätzlich noch eine Soundkarte oder sonstige Peripherie im Rechner hat, kann so ein Kühler-Vorbau vergessen.

dargo
2012-06-11, 12:31:44
ein offenes gehäuse als weitere option denn dann braucht man keine gehäuselüfter mehr und es soll leute geben die die cpu unter wasser haben.

Und die Pumpe arbeitet natürlich lautlos geräuschlos. :rolleyes: Vergiss es, EOD für mich hier.

aufkrawall
2012-06-11, 12:31:56
Und nein ich meine kein Zirpen vom Tahiti. :wink:
Was denn sonst? :confused:
Meine Elektronik macht sonst keine Geräusche. ;)
Ich hör gerade mit offenem Gehäuse nur Lüfter und Festplattenscheibenmotoren.

derguru
2012-06-11, 12:37:46
Und die Pumpe arbeitet natürlich lautlos geräuschlos. :rolleyes: Vergiss es, EOD für mich hier.
ja genau,vergiss es als ob die pumpe großartig laute von sich gibt wenn es es kein billigscheiss ist.:rolleyes:
das zirpen hat wohl auf die birne ausgeschlagen.

dargo
2012-06-11, 12:40:43
Meine Elektronik macht sonst keine Geräusche. ;)

Natürlich... klemm mal alle Lüfter ab und begib dich mit deinen Lauschern direkt Richtung Mainboard. Das ganze am besten Nachts bei geschlossenem Fenster, sprich völlig lautlosem Zimmer. Wenn du da immer noch nichts wahrnimst dann empfehle ich den hier. :wink:
http://www.jameda.de/aerzte/hno-aerzte-hals-nase-ohren/fachgebiet/

Dass die Minigeräusche bereits ab wenigen Zentimetern Abstand untergehen ist für mich nichts Neues.

aufkrawall
2012-06-11, 12:45:08
Natürlich... klemm mal alle Lüfter ab und begib dich mit deinen Lauschern direkt Richtung Mainboard. Das ganze am besten Nachts bei geschlossenem Fenster, sprich völlig lautlosem Zimmer.
Du sollst das Ding ja auch nicht als Kopfkissen missbrauchen. ;D

dargo
2012-06-11, 12:49:53
Du sollst das Ding ja auch nicht als Kopfkissen missbrauchen. ;D
Darum gehts mir nicht. Einige verstehen den Sinn einer passiven Kühlung anscheinend nicht. Es geht darum absolut keine Lüftergeräusche zu erzeugen. Wenn man die aber dafür mit anderen erzeugt ist das ziemlich... :ucrazy2:

Edit:
Ich kann dir aber gerne sagen was imo am meisten Sinn bei dieser Art Kühlung machen würde. Die Heatpipes nach draußen führen und die große Kühlfläche hinten am Gehäuse befestigen. Somit wäre die gesamte Wärmeabgabe gleich draußen. Aber dafür braucht man leider standarisierte Gehäuse.

Mayk-Freak
2012-06-11, 22:34:08
Mit 1440 Mhz schaft meine Asus DC 2 Top 4233 Punkte im 3DMark11 Extreme.:smile:

http://www.abload.de/thumb/4233gzupz.png (http://www.abload.de/image.php?img=4233gzupz.png)
http://3dmark.com/3dm11/3632985

Raff
2012-06-11, 22:37:45
Hast du der Karte 'ne Hardmod verpasst oder wie kommst du stabil über ~1.300 MHz/1,175V?

MfG,
Raff

Mayk-Freak
2012-06-11, 23:01:34
Das ist Asus VGA Hotwire dazu muß man der Karte den Hardmod verpassen und dann kann man die GPU, Ram und PLL Spannung im Bios des Mainboards einstellen.
http://www.asus.de/Motherboards/Intel_Socket_2011/Rampage_IV_Extreme/

3DMark11 Performens mit 1460 Mhz GPU Takt
http://3dmark.com/3dm11/3622504

Hugo78
2012-06-11, 23:27:50
1460MHz?! ... woow! :D
Mit P12616 biste nur noch 18% von einer GTX 690 entfernt.

Raff
2012-06-11, 23:32:05
Bei derart hohem Kerntakt ist die GPU kein Problem mehr – mehr Speichertransferrate braucht der Kepler. Nur da ist kaum etwas zu holen.

MfG,
Raff

john carmack
2012-06-12, 13:27:54
Hi Leute,

kann mir bitte jemand meine Fragen beantworten? :-)

Danke :-)

1. Hat jemand ne Ahnung wie weit man ungefähr eine GTX680 4GB gainward phantom übertakten kann?

2. Welcher Hersteller bietet die im Moment schnellste GTX 680 an?

3. Wo liegt im Moment der Flaschenhals der 680? - Hab irgendwann mal was von der Speicherbandbreite gelesen, stimmt das?

aufkrawall
2012-06-12, 13:30:01
Vielleicht sind 15% mehr fps drin.

digidoctor
2012-06-13, 12:35:13
Mit 1440 Mhz schaft meine Asus DC 2 Top 4233 Punkte im 3DMark11 Extreme.:smile:


Hard drive model 640GB WDC WD6401AALS-00L3B2 ATA Device


:D