PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce GTX 690: (P)Review-Thread


Seiten : [1] 2

AnarchX
2012-04-29, 06:51:04
http://www.geforce.com/whats-new/articles/article-keynote/
Deutsch: http://www.nvidia.de/object/article-keynote-de.html

CUDA-Kerne 3072
Base-Clock 915 MHz
Boost-Clock 1019 MHz
Speicher-Configuration 4GB / 512-bit GDDR5
Speichergeschwindigkeit 6.0 Gbps
Stromanschlüsse 8-pin + 8-pin
TDP 300W
Ausgänge 3x DL-DVI; Mini-Displayport 1.2
Bus-Schnittstelle PCI Express 3.0

"Kepler introduces hardware based frame rate metering, a technology that helps to minimize stuttering"

"At a MSRP of $999, it's not a graphics card for everyone."


Mehr Bilder bei Anandtech:http://www.anandtech.com/show/5795/nvidia-unveils-geforce-gtx-690-dual-gk104-flagship-launching-may-3rd

Reviews:
http://ht4u.net/reviews/2012/nvidia_geforce_gtx_690_im_test/
http://www.computerbase.de/artikel/grafikkarten/2012/test-nvidia-geforce-gtx-690/
http://www.pcgameshardware.de/aid,881163/Test-Geforce-GTX-690-Die-schnellste-Grafikkarte-der-Welt/Grafikkarte/Test/

http://www.anandtech.com/show/5805/nvidia-geforce-gtx-690-review-ultra-expensive-ultra-rare-ultra-fast
http://www.hardocp.com/article/2012/05/03/nvidia_geforce_gtx_690_dual_gpu_video_card_review
http://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_690/
http://www.hardware.fr/articles/864-1/nvidia-geforce-gtx-690-carte-1000-test.html

[dzp]Viper
2012-04-29, 06:56:03
1000$ :ulol:

Aber sieht schon verdammt sexy aus das gute Stück ;)

AnarchX
2012-04-29, 07:09:52
Für $999 hätte man aber auch 2x4GiB verbauen können...

NVIDIA tells us the sound profile of the GeForce GTX 690 will be 36db at idle and a mere 46db under full gaming load.
http://www.hardocp.com/article/2012/04/28/geforce_gtx_690_perfection_inside_out

Hugo78
2012-04-29, 07:54:45
Kepler introduces hardware based frame rate metering

Wichtigstes Detail des Tages.
Sofern es denn auch den gewünschten Effekt haben sollte...

boxleitnerb
2012-04-29, 08:00:25
Wichtigstes Detail des Tages.
Sofern es denn auch den gewünschten Effekt haben sollte...

Äh, gibts das nicht jetzt schon? Nvidia hat das in einem Interview doch mal erwähnt. Oder ist das nur Software gewesen?

Hugo78
2012-04-29, 08:26:27
Es gibt bisher einen softwareseitigen Fps-Puffer, richtig.
Aber es gab noch keine Logik in HW gegen µRuckler, ausser mir ist da was entgangen.

boxleitnerb
2012-04-29, 08:27:47
Woher hast du die Info? Wie das Frame Metering genau arbeitet, wissen wir doch nicht so genau, oder? In dem Interview mit Lars Weinand war die Erklärung etwas oberflächlich, wenn ich mich recht erinnere.

Jedenfalls hoffe ich, dass Nvidia das aggressiv bewirbt und alle Reviews dieses Feature mittesten - vor allem im Vergleich zur 7990 später. Die Zeit, an der nur stur die fps gezählt wurden, muss vorbei sein.

Hugo78
2012-04-29, 08:30:23
Ja Gott, es steht halt "hardware based"" da, nicht "driver-based".
Das lässt erstmal hoffen, dass da endlich mal ne Logik in HW was gegen µRuckler tut.

Wenn nicht, dann ebend nicht.

AnarchX
2012-04-29, 08:32:55
Ähnliche Aussagen gab es schon vor Kepler:
In fact, in a bit of a shocking revelation, Petersen told us Nvidia has "lots of hardware" in its GPUs aimed at trying to fix multi-GPU stuttering

http://techreport.com/articles.x/21516/11

boxleitnerb
2012-04-29, 08:39:25
Ich würde Nvidia zutrauen, uns Altes neu zu verkaufen. Vielleicht hat man nun einen Weg gefunden, die am Ende der Pipeline für den User fühlbaren frametimes zu messen, so dass das dann auch in Reviews dargestellt werden kann, was schon längst Fakt ist? Nvidia arbeitet da z.B. schon mit hardocp zusammen. Dort wurde erwähnt, man müsse sich dafür extra Hardware anschaffen (Messgeräte?).

Eine sehr interessante Frage wäre auch, ob Nutzer separater Karten wie mit einem GTX680 SLI davon profitieren, oder ob das der 690 vorbehalten bleibt.

Edit:
Okay, da war ich voreilig. Sie schreiben ja "improved". Bin mal gespannt, was das letztendlich bringt.

Mark3Dfx
2012-04-29, 08:45:10
http://www.nvidia.de/content/EMEAI/Videos/geforce/2012/NV_GEFORCE_DEMO_FINAL.swf

Hugo78
2012-04-29, 08:51:56
Das Design ist edel, hat was.

@boxleitnerb
Ich nehm an es wäre sicherlich leichter, so eine Logik auf einer mGPU Karte laufen zulassen, als im SLI.
Und wenn das zumindest auf einer mGPU funst, würden sich auch kleinere mGPU Karten wieder für die breite Masse lohnen.
Sowas wie zb. EVGAs GTX 560 Ti 2Win, war ja zuletzt eher was für Liebhaber, mit entsprechenden Preisen.

boxleitnerb
2012-04-29, 09:06:05
Denke ich auch. Die Latenzen über mehrere separate Steckplätze dürften so eine hardwarebasierte Lösung unmöglich machen.

Dural
2012-04-29, 09:18:20
999.- :eek:

etwas weniger GPU takt, Speicher bleibt gleich (gutes Anzeichen dafür das die Bandbreite eher etwas zu gering für GK104 ist.)

300Watt ist OK für die Karte.


fazit: die "coolste" referenz karte die es jemals gab.

fondness
2012-04-29, 10:22:53
Kommen da jetzt noch Reviews, oder war das nur ein reiner Paperlaunch? Interessant finde ich das man nur auf 300W geht, obwohl man 2x 8 Pin verbaut. Da lässt man für AMD die Tür ja ziemlich weit offen um das zu überbieten. Aber wenn diese neuen Einheiten zur Framesync ordentlich funktionieren wäre das die erste Dual-GPU,die zumindest ansatzweise Sinn macht.

Für $999 hätte man aber auch 2x4GiB verbauen können...


Für 2x 4Gb benötigt man halt dann auch 32 Speicherbausteine, das würde das routing am Board schon wesentlich komplexer machen.

boxleitnerb
2012-04-29, 10:34:10
Der Boost liegt mit 1019MHz nur 2,8% unterhalb der 1059MHz einer GTX680. Wüsste nicht, wie AMD das überbieten soll innerhalb der 375W TDP.

Blaire
2012-04-29, 10:34:14
Eine sehr interessante Frage wäre auch, ob Nutzer separater Karten wie mit einem GTX680 SLI davon profitieren, oder ob das der 690 vorbehalten bleibt.


Wenn das nich funkt, gibts Ärger. :cool:

boxleitnerb
2012-04-29, 10:47:42
Wenn das nich funkt, gibts Ärger. :cool:

Naja stellst du eine Verbesserung fest ggü. den 480ern? Bei denselben fps wohlgemerkt.
Ich glaube, es ist schon exklusiv für die 690er. Man muss die frames schnell genug glätten können, das geht sicher nicht so gut, wenn die Daten diesbezüglich erstmal von einem Slot zum nächsten und zurück wandern müssen.

Ronny145
2012-04-29, 10:58:08
Nur 2x2 GB VRAM? Was ist das für ein Scheiß? Bei der GTX680 kann man 2GB ja noch einsehen, da meist eh die Leistung zuerst limitiert und nicht der VRAM. Für den Preis kann man mehr verlangen.

V2.0
2012-04-29, 11:07:18
Optisch die geilste Referenzkarte ever. Ansonsten ein nettes Spielzeug. Hoffen wir,dass NV sich auch beim Kühler der 670 bemüht hat ihn leise zu kriegen.

Skysnake
2012-04-29, 11:53:33
Jup, die Optik ist mal wirklich gut gelungen, aber der Preis... Und dann bei so ner Karte nur 2x2GB...

Gerade die sind doch für extreme Auflösungen vorgesehen, nochmals deutlich stärker als die GTX680. Da hätte man durchaus auch 2x4GB nehmen können...

Hugo78
2012-04-29, 13:54:39
Das hat was.
http://venturebeat.files.wordpress.com/2012/04/nvidia-kepler-dual.jpg

Skysnake
2012-04-29, 14:01:30
Hmm das Case von CoolerMaster :D

Das Ding hat was :D

Felixxz2
2012-04-29, 14:47:17
Jup, die Optik ist mal wirklich gut gelungen, aber der Preis... Und dann bei so ner Karte nur 2x2GB...

Gerade die sind doch für extreme Auflösungen vorgesehen, nochmals deutlich stärker als die GTX680. Da hätte man durchaus auch 2x4GB nehmen können...

Sicher richtig, laut den GTX680 SLI Tests bringt das aber nix oder nur ganz ganz selten. Es wär sicher schön und auch richtig 2x4GB zu verbauen, es ist aber nicht so notwendig wie bei der GTX590.

Duplex
2012-04-29, 14:55:40
Für $999 hätte man aber auch 2x4GiB verbauen können...
Wahrscheinlich hat erst die GK110 Dual Karte (Anfang 2013) 2x 4GB ;)

Skysnake
2012-04-29, 16:06:10
Sicher richtig, laut den GTX680 SLI Tests bringt das aber nix oder nur ganz ganz selten. Es wär sicher schön und auch richtig 2x4GB zu verbauen, es ist aber nicht so notwendig wie bei der GTX590.

Wie soll man denn das testen? Gibt doch meines Wissens noch keiner GTX680 mit 4GB zu kaufen oder?

Und gerade in Hohen Auflösungen usw. bricht die nVidia durchaus ein, wobei da noch zu klären ist, wieviel davon auf das SI und wieviel auf den Speicherausbau entfällt.

Bei 4 Monitoren im Einsatz bekomm zumindest ich auf jeden Fall Bauchschmerzen bei nur 2 GB-Ram.

V2.0
2012-04-29, 16:22:21
Wahrscheinlich hat erst die GK110 Dual Karte (Anfang 2013) 2x 4GB ;)

Auf die Karte würde ich nicht warten...

dildo4u
2012-04-29, 16:24:52
Bei 4 Monitoren im Einsatz bekomm zumindest ich auf jeden Fall Bauchschmerzen bei nur 2 GB-Ram.
Es sind "nur" 3,der 4 kann nicht für Gaming genutzt werden.

Shakti
2012-04-29, 16:32:21
Mit Texturepacks reichen 2 GB schon bei Skyrim in 2560x1600 nicht mehr aus.

Duplex
2012-04-29, 16:51:30
Auf die Karte würde ich nicht warten...
Bei 375w sehe ich kein Problem.
Die Karte muss dann evtl. mit Sea Islands Dual Karte konkurrieren.

Blaire
2012-04-29, 17:40:04
Mit Texturepacks reichen 2 GB schon bei Skyrim in 2560x1600 nicht mehr aus.

Gerade Skyrim bietet genug Optionen um es garnicht soweit kommen zu lassen. In der Regel sind die 2GB selbst bei hohen Auflösungen mehr als ausreichend.

VooDoo7mx
2012-04-29, 18:39:45
Mit Texturepacks reichen 2 GB schon bei Skyrim in 2560x1600 nicht mehr aus.

Man kann praktisch jedes uralt Spiel mit irgendwelchen Texturmods dahin aufblähen das da Gigabyteweise Speicher drauf geht.
Nur ob dies dahingegend sinnvoll ist, darüber lässt sich streiten.
Mit irgendwelchen wahnwitzigen Settings oder Mods wo man die Bildqualitätsverbesserung erst bei 10facher Vergrößerung sieht kann man quasi jede Grafikkarte in die Knie zwingen. Nur ist dies nicht der Maßstab an dem man messen sollte.
nVidia passt die Produkte an Spiele an die auf dem Markt sind und auf den Markt erscheinen, man kann da keine eventuellen Texturmods einplanen.

Fakt ist das 2048MB für alle Spiele Out of The Box bis zur Handelsüblichen 30" Auflösung mehr als genug ist.

Spasstiger
2012-04-29, 19:40:15
Die GTX 690 hat ja schon einen PCIe-3.0-Bridgechip, könnte auf PCIe-2.0-Mainboards Vorteile bei der SLI-Skalierung gegenüber zwei GTX 680 bedeuten.

Skysnake
2012-04-29, 20:03:20
Es sind "nur" 3,der 4 kann nicht für Gaming genutzt werden.
Ich weiß, aber trotzdem müssen 4 Monitore dargestellt werden :ugly:

Scose
2012-04-30, 02:22:53
Naja irgendwie kann ich mir nicht vorstellen, dass nv das Feature extra erwähnt nur um es dann bei 2x GTX690 nicht verwenden zu können.

Ich find die Karte richtig sexy und eine gute Alternative zu 2x Referenz-GTX680.

Spasstiger
2012-04-30, 09:05:54
Wenn die Karte tatsächlich für 900€ auf den Markt kommt, ist sie aber nicht mehr so wahnsinnig sexy, vor allem wenn man den absehbaren Wertverlust bis Ende des Jahres berücksichtigt.

Gaestle
2012-04-30, 09:06:07
Hoffentlich kommen bald Tests.

Da weiß man auch, ob das Mirkorucklerproblem nun wirklich gelindert oder gelöst wurde, oder ob nur Marketingmärchen erzählt werden.

Raff
2012-04-30, 09:07:07
Fakt ist das 2048MB für alle Spiele Out of The Box bis zur Handelsüblichen 30" Auflösung mehr als genug ist.

Das möchte ich an dieser Stelle mal unterstreichen.

MfG,
Raff

Dural
2012-04-30, 09:36:28
zudem die meisten die hier mekern max 1080 haben und da muss man den speicher schon richtig sinnlos vollstopfen bis der überläuft ;)


aber ja 2x4GB wäre schöner gewesen


ach ja, AMD hat auch nur 3GB wegen dem SI, mit 256Bit hätten sie genau so "nur" 2GB und keine 4GB wie sie hier gefordert werde...

Knuddelbearli
2012-04-30, 09:51:17
Das möchte ich an dieser Stelle mal unterstreichen.

MfG,
Raff


für out of the box braucht man so eine grafikkarte nicht

alleine das sli nicht immer out of the box funktioniert spricht da schon dagegen ;-)

M4xw0lf
2012-04-30, 10:19:34
Für 900€ kann man auch 2 GTX680 nehmen.

Raff
2012-04-30, 10:26:40
Für 900€ kann man auch 2 GTX680 nehmen.

Für die braucht's aber ein passendes Board. Vermutlich sind sie auch lauter und lutschen mehr Strom als eine GTX 690. Die GTX 690 ist, sofern man vom "Fail by design" bei MGPU-Lösungen generell absieht, besser als zwei Einzelkarten, da sie weder krass untertaktet ist noch beim Speicher beschnitten wurde.

MfG,
Raff

Odal
2012-04-30, 10:33:03
, sofern man vom "Fail by design" bei MGPU-Lösungen generell absieht

und das von jemanden mit voodoo 5 6k :biggrin: jaja ich weiß kein afr aber die bemerkung musste dennoch sein :tongue:

Hugo78
2012-04-30, 11:09:20
@Raff
Wird es bei euch bis Donnerstag einen Test geben?

Raff
2012-04-30, 11:24:02
Bestimmt. Alles, was in einem gefühlten Testzeitraum von 10 Minuten so möglich ist.

MfG,
Raff

Ailuros
2012-04-30, 11:38:59
Bestimmt. Alles, was in einem gefühlten Testzeitraum von 10 Minuten so möglich ist.

MfG,
Raff

Na zumindest darf jeder von Euch fuer ein paar Sekunden an dem Ding riechen :biggrin:

Hugo78
2012-04-30, 11:57:00
Bestimmt. Alles, was in einem gefühlten Testzeitraum von 10 Minuten so möglich ist.

MfG,
Raff

Skyrim, BF3, µRuckler (rein subjektiv im Vergleich zu einem 680 SLI), Lautstärke und Verbrauch würden mir reichen. :biggrin:

boxleitnerb
2012-04-30, 11:58:27
Ich dachte am 3. ist Launch mit normalen Reviews?

y33H@
2012-04-30, 11:59:24
So hat es Nvidia angekündigt, ja.

Skysnake
2012-04-30, 12:06:17
aber die karten sind noch nicht da?

Ailuros
2012-04-30, 12:14:17
aber die karten sind noch nicht da?

Ich will hoffen dass es mehr insgesamt Exemplare geben wird beim launch als nur die paar Dinger die zur Presse verschickt werden.

Gaestle
2012-04-30, 12:24:29
Skyrim, BF3, µRuckler (rein subjektiv im Vergleich zu einem 680 SLI), Lautstärke und Verbrauch würden mir reichen. :biggrin:


Vebrauch und Lautstärke wäre mir total boogey.

Mir wäre fast eine reine Mickroruckler-Betrachtung ausreichend.

Raff
2012-04-30, 12:25:09
Ich will hoffen dass es mehr insgesamt Exemplare geben wird beim launch als nur die paar Dinger die zur Presse verschickt werden.

Die "richtige" Verfügbarkeit stellt sich laut Nvidia ja erst am 7. Mai ein. Warum man dann schon am 3. einen Spontan-Papierstart hinlegt, erschließt sich mir nicht.

MfG,
Raff

Knuddelbearli
2012-04-30, 12:33:38
*spekulatius on*

eventuell kommt ja ne 7980 von amd und nv will schnell noch die krone behalten XD

*spekualtius off*

uweskw
2012-04-30, 12:47:42
[QUOTE=VooDoo7mx;9274689......

Fakt ist das 2048MB für alle Spiele Out of The Box bis zur Handelsüblichen 30" Auflösung mehr als genug ist.

[/QUOTE]

Wer "Out of the Box" spielt braucht keine 690er. Ohne DS oder SSAA macht das Teil überhaupt keinen Sinn. Trotzdem werden wir wieder massenweise Tests in 1080 mit 4AA sehen...

y33H@
2012-04-30, 12:47:56
Der Spekulatius schmeckt nicht ;-)

Raff
2012-04-30, 12:49:04
Es ist eindeutig zu warm für Spekulatius und spannende Brechstangen-Aktionen. :biggrin:

MfG,
Raff

boxleitnerb
2012-04-30, 12:49:50
Wer "Out of the Box" spielt braucht keine 690er. Ohne DS oder SSAA macht das Teil überhaupt keinen Sinn. Trotzdem werden wir wieder massenweise Tests in 1080 mit 4AA sehen...

SGSSAA braucht nicht mehr VRAM als MSAA. Und mit DS ist kaum noch AA möglich, jedenfalls in neueren Spielen, wo man von mehr als 2GB profitieren würde. Ich bezweifle, dass zwei 680er 3840x2160 mit 4xAA überhaupt stemmen können von der Rohleistung her, so dass man im mikrorucklerfreien Bereich ist. Wenn man drei oder vier verbaut, dann kann man über die 4GB nachdenken. Da gibt man eh soviel Kohle aus, dass die 150 Euro Aufpreis pro Karte eher weniger ins Gewicht fallen.

Ach ja:
Eine 680 schafft nicht alle Spiele in maximaler Qualität in 1080p (mit SGSSAA z.B.) mit 60fps. Muss man einen großen Monitor haben (mit gleicher Pixeldichte, bäh), um von der Performance zweier 680er bzw. einer 690 profitieren zu können? Ich denke nicht.

dargo
2012-04-30, 13:16:44
Für die braucht's aber ein passendes Board. Vermutlich sind sie auch lauter und lutschen mehr Strom als eine GTX 690. Die GTX 690 ist, sofern man vom "Fail by design" bei MGPU-Lösungen generell absieht, besser als zwei Einzelkarten, da sie weder krass untertaktet ist noch beim Speicher beschnitten wurde.

Ich finds erstaulich, dass sie die Karte innerhalb 300W betreiben. Der Takt wurde ja kaum gesenkt. Ist die Spannung wesentlich tiefer? Sind das eventuell selektierte Chips?

Raff
2012-04-30, 13:34:17
Ich find's nicht erstaunlich, da derzeitige Retailkarten idR zwischen 150 und 170 Watt ziehen (in Spielen; Quelle: PCGH). Wenn die Spannung bei der GTX 690 selbst unter Boost-Last bei höchstens 1 Volt bleibt (realistisch) und man generell davon ausgeht, dass eine Dual-Karte weniger saugt als zwei Solisten, passt das schon. :)

MfG,
Raff

Dural
2012-04-30, 13:59:57
die spannung würde mich auch sehr interessieren, von mir ausgesehen gehört die so wie so in jeden guten test (ausgelesen und gemessen) :)


wenn es wirklich selektierte GPUs sind werde ich wohl zu schlagen.
so 2x 1,3GHz mit dem stock Kühler wäre doch lecker ;)

Godmode
2012-04-30, 14:46:13
Wie es aussieht bläst der Lüfter einen Teil der heißen Luft wieder zurück ins Gehäuse, sehe ich das richtig?

y33H@
2012-04-30, 14:59:25
Richtig, ja. Dadurch leiser und kühler.

dargo
2012-04-30, 15:04:28
Ich find's nicht erstaunlich, da derzeitige Retailkarten idR zwischen 150 und 170 Watt ziehen (in Spielen; Quelle: PCGH).
Moment... eine Karte gibt NV mit 195W TDP an, die 690 mit 300W TDP. Sag bloß NV gewichtet die TDP bei der 690 anders. :|

y33H@
2012-04-30, 15:32:08
Das Power Budget liegt bei 170W.

Godmode
2012-04-30, 15:39:36
Richtig, ja. Dadurch leiser und kühler.
Und damit das Gehäuse etwas wärmer.

Wie viel wird die Karte wohl in Euro kosten?

y33H@
2012-04-30, 15:55:52
Wer eine 1k USD Karte kauft und dann weint, weil sein Case 3° wärmer wird, der macht definitiv was falsch ;-)

Godmode
2012-04-30, 16:42:35
Wer eine 1k USD Karte kauft und dann weint, weil sein Case 3° wärmer wird, der macht definitiv was falsch ;-)

Von weinen war nicht die Rede! War nur ne allgemeine Feststellung.

Bin momentan wirklich unentschlossen was ich mir holen soll. 2x680 oder eine 690 oder doch auf GK110 warten...

Blediator16
2012-04-30, 16:43:47
Von weinen war nicht die Rede! War nur ne allgemeine Feststellung.

Bin momentan wirklich unentschlossen was ich mir holen soll. 2x680 oder eine 690 oder doch auf GK110 warten...

Als normaler Kunde ist es wohl sinnlos auf den BigK zu warten.

Godmode
2012-04-30, 16:48:30
Als normaler Kunde ist es wohl sinnlos auf den BigK zu warten.

Meine Befürchtung ist das GK110 sehr spät kommt und ich mit GK104 eh gut dran gewesen wäre. Jetzt warte ich erst mal bis. 10. Mai und dann sehen wir weiter. Vielleicht tut sich bei den GTX 680 Preisen ja noch was, weil irgendwie hab ich eine Abneigung für so eine Karte 450-500 € zu bezahlen.

Nightspider
2012-04-30, 16:59:21
Wie es aussieht bläst der Lüfter einen Teil der heißen Luft wieder zurück ins Gehäuse, sehe ich das richtig?

Alles Andere ist bei DualGPU auch nicht sinnvoll. Sonst würde eine GPU immer deutlich heißer laufen als die andere.
Dadurch sinkt auch die durchschnittliche Temperatur beider GPUs.

y33H@
2012-04-30, 17:02:41
War nur ne allgemeine Feststellung.Die wird bei non-DHE immer wieder gerne gebracht und ich kann es nicht nachvollziehen. Eine gute offene axiale Kühlung samt Platte auf den VRMs ist idR leiser und kühler als DHE; das bissl warme Abluft muss per Gehäuselüfter raus, die eh jeder braucht, wenn nicht grade ein 45W-Chip mit iGPU im idle rumdümpelt.

VooDoo7mx
2012-04-30, 17:15:14
Wer "Out of the Box" spielt braucht keine 690er. Ohne DS oder SSAA macht das Teil überhaupt keinen Sinn. Trotzdem werden wir wieder massenweise Tests in 1080 mit 4AA sehen...
Sorry, aber das ist quatsch.
Eine einzelne GTX680 ist bei vielen Titeln mit max Details und MSAA schon meist zu langsam um in 30" Auflösung 60 min FPS zu halten was imho erst wirklich flüssig ist.
Und gerade da bietet sich eine GTX 690 an.
Und was sollen erst die Leute mit 120Hz Monitoren sagen? Demnächst schlagen sicher auch mehr High End Monitore mit 4K Auflösung auf, auch da wird eine einzelne GTX680 bei vielen Titeln schwer zu knabbern haben um überhaupt auf 60fps zu kommen. Oder 4k +120hz :ugly:

Blaire
2012-04-30, 17:35:47
Skyrim, BF3, µRuckler (rein subjektiv im Vergleich zu einem 680 SLI), Lautstärke und Verbrauch würden mir reichen. :biggrin:

Da ist nichts anders :wink:

Duplex
2012-04-30, 21:03:33
In 3 Tagen gehts los http://www.hardwareluxx.de/index.php?option=com_content&view=article&id=22382%20%20&catid=38&Itemid=101

Hugo78
2012-04-30, 23:18:42
Unbocking @ PCGH
http://www.pcgameshardware.de/aid,880903/Geforce-GTX-690-Unboxing-Video/Grafikkarte/News/


@Blaire

Na in Punkto µRuckler könnte, sollte, müsste man ja auf einem PCB mal ne Logik hinbekommen, die effektiver unterdrückt/steuert.

NV behauptet ja selber:
Verbesserte Bildraten-Dosierung

Mit der Kepler-Architektur wird eine Hardware-basierte Bildraten-Dosierung eingeführt – eine Technologie, die zur Minimierung von Ruckeln bei der GeForce GTX 690 beiträgt. Im SLI-Modus teilen sich zwei GPUs die Last, indem sie aufeinanderfolgende Frames berechnen – eine GPU berechnet das aktuelle Bild, während die andere GPU am nächsten Bild arbeitet. Aber da die Arbeitsbelastung der einzelnen Frames unterschiedlich ist, vervollständigen die beiden GPUs ihre Bilder zu verschiedenen Zeiten. Das Senden der Bilder an den Monitor kann daher zu Ruckeln führen.

Die GeForce GTX 690 verfügt über einen Mechanismus, um den Fluss der Bilder regulieren. Durch die Überwachung und Anpassung, wie Bilder an den Monitor gesendet werden, wird die gesamte Bildausgabe flüssiger und gleichmäßiger.
- http://www.nvidia.de/object/article-keynote-de.html

Shakti
2012-04-30, 23:44:28
Schon erstaunlich, ca. 100% Preissteigerung gegenueber den letzten Dualkarten.

Blaire
2012-04-30, 23:54:42
@Blaire
Na in Punkto µRuckler könnte, sollte, müsste man ja auf einem PCB mal ne Logik hinbekommen, die effektiver unterdrückt/steuert.

NV behauptet ja selber:
- http://www.nvidia.de/object/article-keynote-de.html

Es handelt sich dabei um den treiber-internen FPS-Limiter, den man u.a. im EVGA Precision-X Tool aktivieren kann.

HarryHirsch
2012-05-01, 00:33:45
Es handelt sich dabei um den treiber-internen FPS-Limiter, den man u.a. im EVGA Precision-X Tool aktivieren kann.

sicher? ich war schon heiß.

Blaire
2012-05-01, 00:57:30
sicher? ich war schon heiß.

Ja ganz sicher. Im Grunde sind aber 2 Dinge damit gemeint, nur etwas umschrieben. :)

HarryHirsch
2012-05-01, 01:02:21
hmm, dann werd ich wohl nen kleinen urlaub machen. ;)

Dural
2012-05-01, 10:01:07
Erste, eigene Bilder der Nvidia GeForce GTX 690

http://www.computerbase.de/news/2012-05/erste-eigene-bilder-der-nvidia-geforce-gtx-690/

y33H@
2012-05-01, 10:17:13
Hier ebenfalls: http://www.pcgameshardware.de/aid,880903/Geforce-GTX-690-Unboxing-Video/Grafikkarte/News/bildergalerie/?iid=1659205

mironicus
2012-05-01, 10:34:38
Wie lang ist die Karte?

Godmode
2012-05-01, 10:46:30
Hier ebenfalls: http://www.pcgameshardware.de/aid,880903/Geforce-GTX-690-Unboxing-Video/Grafikkarte/News/bildergalerie/?iid=1659205

Schon lustig was sich das Marketing alles einfallen lässt. ;D

Auf das Gewicht bin ich auch schon gespannt! Je mehr ich von der GTX 690 sehe, deste besser gefällt sie mir :)

Dural
2012-05-01, 10:55:50
wenn ich eine GTX690 bestelle, bekomm ich dann auch so eine Holzkiste inkl. Brechstange über? ;D

Naennon
2012-05-01, 17:21:32
Es handelt sich dabei um den treiber-internen FPS-Limiter, den man u.a. im EVGA Precision-X Tool aktivieren kann.

also ist ne verlötete Hardware was Treiberinternes? interessant...

Skysnake
2012-05-01, 17:58:36
Das GEILSTE ist ja, MSI hat für AMD jetzt ja auch die Möglichkeit für nen FPS-limiter ;D

Und das Ding funktioniert nach meinen ersten Tests 1A! Selbst bei meinem selbstgeschriebenen OpenGL-Programm werden jetzt statt 8k Frames nur noch 150 dargestellt :up:

Damit könnte der Effizienzvorteil der GTX6x0 auch schrumpfen. Die HD7970 verpulvert ja teilweise unnötig Saft für hohe Frameraten, je nach Anwendung

boxleitnerb
2012-05-01, 18:12:48
Jetzt? Das ging schon die ganze Zeit, da gibts nichts Neues. Runtertakten und Spannung senken kann AMD aber weiterhin nicht damit.

PrefoX
2012-05-01, 18:21:24
Das GEILSTE ist ja, MSI hat für AMD jetzt ja auch die Möglichkeit für nen FPS-limiter ;D

Und das Ding funktioniert nach meinen ersten Tests 1A! Selbst bei meinem selbstgeschriebenen OpenGL-Programm werden jetzt statt 8k Frames nur noch 150 dargestellt :up:

Damit könnte der Effizienzvorteil der GTX6x0 auch schrumpfen. Die HD7970 verpulvert ja teilweise unnötig Saft für hohe Frameraten, je nach Anwendung
wie heisst das prog? wills mit meiner ati mal probieren

Skysnake
2012-05-01, 18:46:27
MSI On-Screen Display Server

Da dann auf den Schlüssel oben rechts und im Menü einstellen.


Jetzt? Das ging schon die ganze Zeit, da gibts nichts Neues. Runtertakten und Spannung senken kann AMD aber weiterhin nicht damit.
Bei mir funktionierts trotzdem hevorragend! :P

Statt 210Watt in meiner selbst geschriebenen Anwendung nur noch 140W. Das sind 70W!!! Unterschied! Das lässt sich sehen. Ok, ich drop auch von 7-8k frames auf 150, aber trotzdem zeigt es, das es funktioniert, und man damit strom sparen kann.

Ganz abgesehen davon beseitigt es das Spulenfiepen, bzw. die hochfrequente Einkopplung der GPU in den onboard Soundchip, womit ich sonst in Menüs immer ein pfeifen hab ansonsten bei hohen Frameraten.

boxleitnerb
2012-05-01, 19:06:59
Bei mir funktionierts trotzdem hevorragend! :P

Statt 210Watt in meiner selbst geschriebenen Anwendung nur noch 140W. Das sind 70W!!! Unterschied! Das lässt sich sehen. Ok, ich drop auch von 7-8k frames auf 150, aber trotzdem zeigt es, das es funktioniert, und man damit strom sparen kann.

Ganz abgesehen davon beseitigt es das Spulenfiepen, bzw. die hochfrequente Einkopplung der GPU in den onboard Soundchip, womit ich sonst in Menüs immer ein pfeifen hab ansonsten bei hohen Frameraten.

Irgendwie hab ich den Eindruck, dass es dich gerade wahnsinnig freut, dass Nvidia ein Alleinstellungsmerkmal weniger hat. Aber das ist wie gesagt nichts Neues, weiß gar nicht warum da so ein Trara gemacht wird. Dass es funktioniert, wurde ja auch nie bezweifelt. Die Geforce geht eben noch einen Schritt weiter.

Blaire
2012-05-01, 19:30:16
also ist ne verlötete Hardware was Treiberinternes? interessant...

Das eine schließt das andere ja nicht aus. ;) Lassen wir uns überraschen.

Godmode
2012-05-01, 20:19:46
829 + MWst. sagt der Thilo im Video :)

y33H@
2012-05-01, 20:21:35
Macht *Trommelwirbel* 959 Euro.

Aber das ist wie gesagt nichts Neues, weiß gar nicht warum da so ein Trara gemacht wird. Der Fps Limiter Version 0.2 ist vom 11/15/2007 ;D

SamLombardo
2012-05-01, 20:46:07
Als normaler Kunde ist es wohl sinnlos auf den BigK zu warten.
Sorry für OT, aber: Wieso ist es sinnlos auf den Gamer GK 110 zu warten? Ich tue das nämlich. Hab ich in dieser Beziehung irgendwas neues verpasst?

Gruss Sam

boxleitnerb
2012-05-01, 20:54:44
Macht *Trommelwirbel* 959 Euro.

Der Fps Limiter Version 0.2 ist vom 11/15/2007 ;D

Oder Dxtory, Bandicam...und den beim Afterburner gabs auch schon vor der 680.

Blediator16
2012-05-01, 21:25:35
Sorry für OT, aber: Wieso ist es sinnlos auf den Gamer GK 110 zu warten? Ich tue das nämlich. Hab ich in dieser Beziehung irgendwas neues verpasst?

Gruss Sam

Weil laut einigen Schätzungen der Endkunden BigK erst sehr spät kommen wird und man noch nicht genau weiß was an Spieleleistung am Ende rauskommen wird. Da wird von 40% zur 680 bis hin zu 80% spekuliert.

boxleitnerb
2012-05-01, 21:27:22
Es verteilt sich halt halbwegs regelmäßig. Dafür gibts keinen klassischen Refresh schätze ich. Und bis wir 20nm Chips sehen, ist es eh sehr weit hin, 18-24 Monate vermutlich. Da kann man in der Halbzeit den dicken Brummer nachschieben.

Duplex
2012-05-01, 21:29:55
Im Profi Segment wird man sowieso neue Karten präsentieren müssen.

SamLombardo
2012-05-01, 21:37:00
Weil laut einigen Schätzungen der Endkunden BigK erst sehr spät kommen wird und man noch nicht genau weiß was an Spieleleistung am Ende rauskommen wird. Da wird von 40% zur 680 bis hin zu 80% spekuliert.
Ahso. Ok.

RoughNeck
2012-05-01, 22:25:13
Macht *Trommelwirbel* 959 Euro.



960€?

Nvidia hat echt einen an der Waffel :freak:

y33H@
2012-05-01, 22:27:46
Muss keiner kaufen, ist ja freiwillig ;-)

Zergra
2012-05-01, 22:30:13
960€?

Nvidia hat echt einen an der Waffel :freak:
Naja liegt wohl daran das dort kaum Chips vorhanden sind und die paar die vorhanden sind werden für eine Dual-GPU verschwendet :D.

Godmode
2012-05-01, 22:34:38
Muss keiner kaufen, ist ja freiwillig ;-)

Vor ein paar Wochen hab ich noch über mGPU Crap geschimpft und jetzt werde ich immer schwächer. Die drei Fragezeichen in meiner Sig müssen jetzt endlich mal weg...

Weiß man schon wann die Karten im Handel erhältlich sein werden? Könnte mir vorstellen dass diese Karte einen gewissen Seltenheitswert haben könnte, vor allem das Ref-Design.

y33H@
2012-05-01, 22:42:03
Ab dem 3ten bzw 7ten Mai.

Godmode
2012-05-01, 22:51:44
Ab dem 3ten bzw 7ten Mai.

Bin schon gespannt was sie dann wirklich kostet, bei diesen geringen Stückzahlen.

btw: http://www.gamestar.de/hardware/grafikkarten/nvidia-geforce-gtx-690/news-artikel/nvidia_geforce_gtx_690,487,2567274.html

Für 755 würde ich sofort zuschlagen

Die gelbe Eule
2012-05-01, 23:07:14
Biete natürlich wieder den Service wie bei den 680ern an.
Sollte atelco, anobo, hwv, avelectronix welche da haben, gebe ich das gegen 14:00 Uhr morgen durch. 900€ denke ich wäre der vorsichtige Straßenpreis. Schließlich sind zwei 680er auch so teuer.

Blaire
2012-05-01, 23:35:58
Vor ein paar Wochen hab ich noch über mGPU Crap geschimpft und jetzt werde ich immer schwächer. Die drei Fragezeichen in meiner Sig müssen jetzt endlich mal weg...

2-Way SLI ist schon ok, insgesamt gesehen machst du damit sicher nix falsch, es gibt ja auch noch Verbesserungen per Frame-Metering und-Limiter. :)

Godmode
2012-05-02, 05:42:57
Biete natürlich wieder den Service wie bei den 680ern an.
Sollte atelco, anobo, hwv, avelectronix welche da haben, gebe ich das gegen 14:00 Uhr morgen durch. 900€ denke ich wäre der vorsichtige Straßenpreis. Schließlich sind zwei 680er auch so teuer.

900 hört sich nicht so schlecht an, wobei die PCGH Leute im Video ja von mehr sprechen, siehe y33H@.

2-Way SLI ist schon ok, insgesamt gesehen machst du damit sicher nix falsch, es gibt ja auch noch Verbesserungen per Frame-Metering und-Limiter. :)

oT: Wie gehts dir eigentlich mit deinem Q-SLI, soweit zufrieden?

Blaire
2012-05-02, 08:08:07
oT: Wie gehts dir eigentlich mit deinem Q-SLI, soweit zufrieden?

4-Way SLI ist nicht ganz so unproblematisch, da es mehr Anpassungen erfordert um alle 4 GPUs richtig auszulasten. Zufrieden? Eigentlich schon, obwohl es mittlerweile mehr Spielerei ist um Grenzen auszuloten, was ist maximal machbar an Settings usw.
2-Way SLI ist ausreichend und wesentlich reifer, auch dank des sehr aktuellen Profil-Supports seitens NVIDIA.

Godmode
2012-05-02, 08:49:57
4-Way SLI ist nicht ganz so unproblematisch, da es mehr Anpassungen erfordert um alle 4 GPUs richtig auszulasten. Zufrieden? Eigentlich schon, obwohl es mittlerweile mehr Spielerei ist um Grenzen auszuloten, was ist maximal machbar an Settings usw.
2-Way SLI ist ausreichend und wesentlich reifer, auch dank des sehr aktuellen Profil-Supports seitens NVIDIA.

Danke für die Info. Dann warte ich jetzt noch die GTX 690 ab und dann wird zugeschlagen.

Raff
2012-05-02, 09:07:07
Ich würd's anders formulieren, mit ausdrücklicher Info "SLI ist für Bastler". Wenn du einfach nur mit bester Qualität spielen möchtest, dann ist das nichts – für sowas greifst du besser zu einer hochgekeulten Single-GPU.

- Single-GPU: fast immer unproblematisch
- Dual-GPU: Regelmäßige Profil-Aussetzer, Mikroruckeln & Co. => Bastler haben's im Griff, erhalten aber nie 100 % ihre monetäre Investition zurück.
- Triple- & Quad-GPU: O M F G ;)

MfG,
Raff

Dural
2012-05-02, 10:19:30
zum Benchen ist 3/4-Way CF/SLI ganz OK, für das Spielen ist es ein Witz

Hatte damals wegen Crysis ein GTX280 @ 780MHz 3-Way SLI System mit WaKü und CPU unter KoKü... und wirklich alles unter 50FPS fand ich als unspielbar, erst ab 60FPS war es OK. Das für mich bessere Ergebnis hatte ich mit einer GTX280 @ 830MHz, obwohl ich kaum 30FPS hatte :rolleyes:

Seit dem sag ich immer: Lieber eine Fette GPU mit Fetter Kühlung und viel Takt als 3-4 Luschen unter dem Stock Kühler ;)

Godmode
2012-05-02, 10:39:16
Ich würd's anders formulieren, mit ausdrücklicher Info "SLI ist für Bastler". Wenn du einfach nur mit bester Qualität spielen möchtest, dann ist das nichts – für sowas greifst du besser zu einer hochgekeulten Single-GPU.

- Single-GPU: fast immer unproblematisch
- Dual-GPU: Regelmäßige Profil-Aussetzer, Mikroruckeln & Co. => Bastler haben's im Griff, erhalten aber nie 100 % ihre monetäre Investition zurück.
- Triple- & Quad-GPU: O M F G ;)

MfG,
Raff

Eine einzelne ist mir zu langsam, da müssen schon mindestens zwei her. Ich warte jetzt erstmal die GTX 690 ab und dann entscheide ich ob 2 680er nehme oder eine 690 gekauft wird.

Hatte vor ca. 1 Jahr ein 570er SLI und ja wenns funktioniert hat, wars super. Die Basteleien waren halt oft nervig...

Wenns doch GK110 schon gäbe... :mad:


zum Benchen ist 3/4-Way CF/SLI ganz OK, für das Spielen ist es ein Witz

Hatte damals wegen Crysis ein GTX280 @ 780MHz 3-Way SLI System mit WaKü und CPU unter KoKü... und wirklich alles unter 50FPS fand ich als unspielbar, erst ab 60FPS war es OK. Das für mich bessere Ergebnis hatte ich mit einer GTX280 @ 830MHz, obwohl ich kaum 30FPS hatte :rolleyes:

Seit dem sag ich immer: Lieber eine Fette GPU mit Fetter Kühlung und viel Takt als 3-4 Luschen unter dem Stock Kühler ;)


Auch wieder wahr. Aber mit normalen SLI sollte es nicht so schlimm sein wie TRI oder QUAD.

Gaestle
2012-05-02, 12:41:26
- Dual-GPU: Regelmäßige Profil-Aussetzer, Mikroruckeln & Co. => Bastler haben's im Griff, erhalten aber nie 100 % ihre monetäre Investition zurück.


Ändert sich dieser Punkt mit der 690?

y33H@
2012-05-02, 12:52:27
Profile braucht's immer und "dank" AFR wird sich an den Rucklern allem zum Trotz auch nicht sooo viel ändern.

Shakti
2012-05-02, 14:33:05
Nach Jahren Multi GPU (ATI) auf einer Karte\n wuerde ich immer 2 getrennte Karten vorziehen, und noch besser nur eine gute Karte, warte daher auch auf den BigChip.

Naennon
2012-05-02, 14:33:35
@ yeeha: nette Aussage ;) reicht mir mal wieder

680 DCII unterwegs!

Dural
2012-05-02, 14:43:36
am meisten gespannt bin ich auf die qualität der verbauten GPUs, alles andere ist mir fast egal beziehungsweisse ist durch die GTX680 praktisch alles bekannt.

Naennon
2012-05-02, 15:16:15
mich interessiert nur die aktive/hardwareseitigen µRuckler Gegenmaßnahmen
oder obs doch nur adaptive VSync und Framelimiter ist

Godmode
2012-05-02, 15:19:51
am meisten gespannt bin ich auf die qualität der verbauten GPUs, alles andere ist mir fast egal beziehungsweisse ist durch die GTX680 praktisch alles bekannt.

Das ist auch das was mich interessiert. Ich gehe davon aus, dass sie sehr genau selektiert werden und sich somit auch besser übertakten lassen?

Blaire
2012-05-02, 15:26:30
Ich würd's anders formulieren, mit ausdrücklicher Info "SLI ist für Bastler".

3-Way/4-Way ja.
2-Way SLI eher weniger, das ist recht unproblematisch. Es gibt auch andere Dinge wofür man eine zweite Karte(GPU) nutzen kann z.b. 3D Vision <-- wird leider nur viel zu wenig getestet.

Wenn du einfach nur mit bester Qualität spielen möchtest, dann ist das nichts – für sowas greifst du besser zu einer hochgekeulten Single-GPU.

Eine Single-Card macht in BF3 auf Ultra und FullHD einfach keinen Spass, erst mit SLI GTX680 kommt richtig Multiplayer-Fun auf. Und derart Beispiele könnte ich sehr viele nennen. :smile:

aufkrawall
2012-05-02, 15:27:18
60 fps mit Vsync ruckeln sicher auch nicht.

Gaestle
2012-05-02, 16:07:38
mich interessiert nur die aktive/hardwareseitigen µRuckler Gegenmaßnahmen
oder obs doch nur adaptive VSync und Framelimiter ist

DAS ist auch mein Punkt.

IMHO ist das doch das zentrale Problem von mGPU-Lösungen.

aufkrawall
2012-05-02, 16:15:08
DAS ist auch mein Punkt.

IMHO ist das doch das zentrale Problem von mGPU-Lösungen.
Bei 60fps mit Vsync ruckelt es doch bestimmt nicht oder kaum, wo ist da das Problem?
Die fps zu erreichen, sollte bei den allermeisten Anwendungen mit 2xGTX 680 doch möglich sein.

Naennon
2012-05-02, 16:25:36
wen interessiert VSync und 60 FPS

wenn du mit sowas gern online zockst > bitte

aufkrawall
2012-05-02, 16:27:47
wen interessiert VSync und 60 FPS

wenn du mit sowas gern online zockst > bitte
Für viele Spiele ist alles andere Schwachsinn.

Naennon
2012-05-02, 16:56:51
hab nicht anderes behauptet, aber für genauso viele ist VSync nicht die idealste Option

aufkrawall
2012-05-02, 17:01:13
hab nicht anderes behauptet, aber für genauso viele ist VSync nicht die idealste Option
Viele moderne Engines haben allerdings bei Vsync kaum noch mit Input-Lag zu kämpfen.
Etwa Frostbyte 2 oder Cryengine 2 u. 3 sind auch mit TB Vsync sehr reaktionsschnell.
Außerdem laufen viele Spiele mit gesyncten 60fps weicher als mit ungesyncten 80.

Für einen weichen Bildablauf ohne Vsync braucht man häufig >100fps, da führt dann um SLI eh kein Weg herum.

y33H@
2012-05-02, 17:16:31
Es heißt Frostbite und nicht Frostbyte :usad:

Iruwen
2012-05-02, 17:18:42
Heißt Crytek eigentlich Crytek weil die so gern rumheulen (http://www.pcgameshardware.de/aid,880960/Crysis-3-Crytek-will-sich-vor-Raubkopien-schuetzen/Action-Spiel/News/)?
OT aber scnr. Einfach mal gute Spiele statt Grafikdemos machen.

/e: das passt jetzt mal gar nicht aber irgendwie kam ich von Criengine drauf, ein verworrener Geist sorry.

Gaestle
2012-05-02, 17:22:53
Bei 60fps mit Vsync ruckelt es doch bestimmt nicht oder kaum, wo ist da das Problem?
Die fps zu erreichen, sollte bei den allermeisten Anwendungen mit 2xGTX 680 doch möglich sein.


Titel, in denen bei mGPU auch mit sehr hohen Einstellungen sehr hohe fps erreicht werden, sind i.d.R. auch mit einer einzelnene GPU nicht so kritisch. Wichtiger sind IMHO eher Titel bzw. Einstellungen, bei denen man auch mit mGPU bei nur 50-70 fps liegt. Hier könnten Mikroruckler möglicherweise spürbar und dann eben sehr ärgerlich sein. Denn genau für solche Bereiche kauft man doch IMHO so ein Monster. Um beim maximum was geht noch ein flüssiges Spielerlebnis ohne Ruckler und Hänger zu haben.

boxleitnerb
2012-05-02, 17:27:40
Ab 50fps ist es (imo) eh mikrorucklerfrei. Ich bin inzwischen teilweise auch vom Limiter weggekommen. Man verschenkt zu oft fps, und limitierte 40 sind zwar besser als ohne Limiter auf 40 zu fallen, aber auch nicht wirklich flüssig für mein Empfinden.

aufkrawall
2012-05-02, 17:31:36
Wichtiger sind IMHO eher Titel bzw. Einstellungen, bei denen man auch mit mGPU bei nur 50-70 fps liegt.

Mir fällt außer Metro spontan kein weiterer solcher Titel ein. :confused:
Einzig SSAA killt.

boxleitnerb
2012-05-02, 17:34:48
2560x1600...in mehr als der Hälfte der Titel im CB-Test erreichen die 680 und 7970 nur 25-35fps avg dort.

aufkrawall
2012-05-02, 17:37:35
2560x1600...in mehr als der Hälfte der Titel im CB-Test erreichen die 680 und 7970 nur 25-35fps avg dort.
Ok, ist ein Argument.
Ich war von 1080p ausgegangen.
Bei 2560x1600 wird man mit MGPU aber doch auch über 50fps haben, immer noch besser als 25 mit SGPU.

Gaestle
2012-05-02, 19:00:32
Ok, ist ein Argument.
Ich war von 1080p ausgegangen.
Bei 2560x1600 wird man mit MGPU aber doch auch über 50fps haben, immer noch besser als 25 mit SGPU.

solange sich die 50fps auch wie 50fps anfühlen, sicher.

aufkrawall
2012-05-02, 19:03:44
solange sich die 50fps auch wie 50fps anfühlen, sicher.
Das ist ja auch von Anwendung zu Anwendung unterschiedlich, mal ganz von MGPU abgesehen.
BF3 läuft schon ziemlich kacke mit 50fps.

uweskw
2012-05-03, 02:24:39
Hmm, allzu groß scheint der Hype ja nicht zu sein. Keine Leaks? Dachte am 03.05. würde das NDA fallen..

dildo4u
2012-05-03, 02:29:07
Hmm, allzu groß scheint der Hype ja nicht zu sein. Keine Leaks? Dachte am 03.05. würde das NDA fallen..
Werden wohl die eh schon wenigen Karten nur zu den extrem NDA treuen Seiten geschickt worden sein.

Godmode
2012-05-03, 06:17:29
Hmm, allzu groß scheint der Hype ja nicht zu sein. Keine Leaks? Dachte am 03.05. würde das NDA fallen..

Wundert mich auch? Normalerweise gibts ja schon Tage vor NDA Fall ein paar Leaks...

N0Thing
2012-05-03, 07:57:05
In den USA ist noch nicht überall der 03.05. ;)
http://en.wikipedia.org/wiki/Pacific_time

dargo
2012-05-03, 08:53:56
Hmm, allzu groß scheint der Hype ja nicht zu sein. Keine Leaks? Dachte am 03.05. würde das NDA fallen..
Was gibts denn bei SLI zu hypen? :| Die Karte ist für die meisten sowas von uninteressant. Die gleiche Leistung in einer GPU und du siehst Leaks ohne Ende. ;)

Godmode
2012-05-03, 09:34:54
Was gibts denn bei SLI zu hypen? :| Die Karte ist für die meisten sowas von uninteressant. Die gleiche Leistung in einer GPU und du siehst Leaks ohne Ende. ;)

Naja vielleicht gibts ja doch irgendwas neues was interessant ist.

edit: Wann gehen die Reviews online, 15:00?

Godmode
2012-05-03, 15:00:30
endlich:

http://www.computerbase.de/artikel/grafikkarten/2012/test-nvidia-geforce-gtx-690/

interessant:
http://www.computerbase.de/artikel/grafikkarten/2012/test-nvidia-geforce-gtx-690/8/

V2.0
2012-05-03, 15:08:26
Der Kühler ist klasse. Leiser / gleich laut wie eine 680.

y33H@
2012-05-03, 15:09:26
Nvidia hat sich echt an die Mikroruckler gemacht =) http://www.pcgameshardware.de/aid,881163/Test-Geforce-GTX-690-Die-schnellste-Grafikkarte-der-Welt/Grafikkarte/Test/?page=3

Undertaker
2012-05-03, 15:13:50
Imo die erste brauchbare Multi-GPU-Karte überhaupt, auch wenn der Preis natürlich jenseits von gut und böse ist. Die Performance ist besser als (von mir) erwartet, Nvidia scheint gut zu selektieren, um einen so hohen Takt bei vergleichsweise moderatem Verbrauch fahren zu können.

V2.0
2012-05-03, 15:14:39
Nvidia hat sich echt an die Mikroruckler gemacht =) http://www.pcgameshardware.de/aid,881163/Test-Geforce-GTX-690-Die-schnellste-Grafikkarte-der-Welt/Grafikkarte/Test/?page=3

Wow, Ihr vergleicht mit der Göttin... :eek:

Raff
2012-05-03, 15:16:14
Wow, Ihr vergleicht mit der Göttin... :eek:

Niemals. ;D 5500, nicht 6000. ;)

MfG,
Raff

Blaire
2012-05-03, 15:18:49
Nvidia hat sich echt an die Mikroruckler gemacht =) http://www.pcgameshardware.de/aid,881163/Test-Geforce-GTX-690-Die-schnellste-Grafikkarte-der-Welt/Grafikkarte/Test/?page=3

Leider werden sie sich erst später dazu genauer äußern.

Godmode
2012-05-03, 15:22:45
Und wo kann man die Karte jetzt kaufen? :confused:
http://geizhals.at/?in=&fs=gtx+690

dildo4u
2012-05-03, 15:29:23
Alternate hat sie gelistet aber noch nix auf Lager.

http://www.alternate.de/html/product/listing.html?navId=15420&tk=7

Hugo78
2012-05-03, 15:36:45
Nvidia hat sich echt an die Mikroruckler gemacht =) http://www.pcgameshardware.de/aid,881163/Test-Geforce-GTX-690-Die-schnellste-Grafikkarte-der-Welt/Grafikkarte/Test/?page=3

Also gibts da doch was in Hardware. :love2:
Damit werden auch kleinere mGPU Ableger wieder interessant.

Btw .. die Darstellung zum Thema bei CB schaut sogar noch ...ähm ... drastischer aus. :biggrin:
- http://www.computerbase.de/artikel/grafikkarten/2012/test-nvidia-geforce-gtx-690/8/#abschnitt_mikroruckler

http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=42693&stc=1&d=1336051763

Dural
2012-05-03, 15:37:00
laut nummer auf der GPU sind die Chips auf der 690 sogar minderwertiger (355) als auf der GTX680 (400) für den Preis geht das mal gar nicht! :eek: :mad:

Leonidas
2012-05-03, 15:37:03
Nvidia hat sich echt an die Mikroruckler gemacht =) http://www.pcgameshardware.de/aid,881163/Test-Geforce-GTX-690-Die-schnellste-Grafikkarte-der-Welt/Grafikkarte/Test/?page=3


HT4U ist da anderer Meinung:
http://ht4u.net/reviews/2012/nvidia_geforce_gtx_690_im_test/index3.php

Blaire
2012-05-03, 15:39:10
HT4U ist da anderer Meinung:
http://ht4u.net/reviews/2012/nvidia_geforce_gtx_690_im_test/index3.php

Es ist wohl wie so oft Szenenabhängig...

dildo4u
2012-05-03, 15:39:49
HT4U ist da anderer Meinung:
http://ht4u.net/reviews/2012/nvidia_geforce_gtx_690_im_test/index3.php
Nope PCGH zeigt das es deutlich besser als vorher ist aber natürlich nicht auf dem Level einer Single GPU.ht4u vergleicht nicht die Besserung gegenüber dem alten SLI.

PCGH:
"Die Geforce GTX 690 gibt ihre Frames zwar nicht tadellos aus, die Verteilung reicht in vielen Fällen jedoch näher an Single-GPU-Grafikkarten heran als bei anderen Dual-Gespannen."

derguru
2012-05-03, 15:45:23
sieht mir nicht nach hardwarebasierendem aus wenn ich die frameverläufe in HT4U sehe,vor allem in metro und the witcher 2.

uweskw
2012-05-03, 15:46:38
Wenn AMD in Sachen Microruckler nicht nachzieht sieht es fuer ihre DualGPU seeeehr schlecht aus.
Wie wird das Thema denn in der internationalen Presse behandelt? Oder kuemmert das nur die "BQ-Nazis"?

dildo4u
2012-05-03, 15:47:13
sieht mir nicht nach hardwarebasierendem aus wenn ich die frameverläufe in HT4U sehe,vor allem in metro und the witcher 2.
Ist ne Softwarelösung das 680 SLI wird mit dem 690 Treiber das selbe Verhalten zeigen gegenüber dem alten SLI.

M4xw0lf
2012-05-03, 15:51:36
Hat CB wieder unterschiedliche Treiberversionen am Start, oder warum ist da die 690 schneller als GTX680 SLI?

derguru
2012-05-03, 15:52:34
Ist ne Softwarelösung das 680 SLI wird mit dem 690 Treiber das selbe Verhalten zeigen gegenüber dem alten SLI.
naja,hat aber anscheinend noch große macken siehe HT4U-frameverläufe.die haben wenigstens gleich ein paar spiele genommen und nicht wie cb oder pcgh ein spiel und sich daraus gleich ein urteil gebildet.

dildo4u
2012-05-03, 15:52:41
Hat CB wieder unterschiedliche Treiberversionen am Start, oder warum ist da die 690 schneller als GTX680 SLI?
CB Fazit:
"Darüber hinaus hält die Karte interessanterweise das SLI-Gespann der GeForce GTX 680 in Schach, was wohl primär mit der besseren PCIe-Anbindung begründet ist (Sandy Bridge liefert nur zwei Mal acht PCIe-Lanes der zweiten Generation), was bereits bei zwei GeForce-GTX-570-Karten drei Prozent Performance kostet. "


naja,hat aber anscheinend noch große macken siehe HT4U-frameverläufe.die haben wenigstens gleich ein paar spiele genommen und nicht wie cb oder pcgh ein spiel und sich daraus gleich ein urteil gebildet.
Die Karten sind eh von Profilen abhängig ich würde erwarten wenn sie jetzt ein neues erstellen oder ein altes Verbessern,das sie die neue Softwarelösung integrieren.Aber klar werden da einige Games aus welchem Grund auch immer auf der Strecke bleiben,also alles so wie immer bei den Multi GPU Lösungen.(AMD hat z.b kein BFBC2 Profil WTF)

M4xw0lf
2012-05-03, 16:04:56
CB Fazit:
"Darüber hinaus hält die Karte interessanterweise das SLI-Gespann der GeForce GTX 680 in Schach, was wohl primär mit der besseren PCIe-Anbindung begründet ist (Sandy Bridge liefert nur zwei Mal acht PCIe-Lanes der zweiten Generation), was bereits bei zwei GeForce-GTX-570-Karten drei Prozent Performance kostet. "

Diese Erklärung erscheint mir nicht sehr einleuchtend - prozentual hat jede GPU auf der GTX690 mit 1x PCIe x16-Anbindung ja auch nicht mehr Bandbreite als 2 GTX680 mit jeweils PCIe x8. Aber dann ist 50% + 50% plötzlich = 103% ? Aaha.

Raff
2012-05-03, 16:05:34
naja,hat aber anscheinend noch große macken siehe HT4U-frameverläufe.die haben wenigstens gleich ein paar spiele genommen und nicht wie cb oder pcgh ein spiel und sich daraus gleich ein urteil gebildet.

Moment. PCGH hat natürlich nicht nur ein Spiel auf Mikrosucken untersucht – es ist lediglich nur eines abgebildet.

MfG,
Raff

Mr. Lolman
2012-05-03, 16:09:15
interessant:
http://www.computerbase.de/artikel/grafikkarten/2012/test-nvidia-geforce-gtx-690/8/

Ich seh aber den Vorteil zu einer SingleGPU Karte nicht. Oder waren das andere Grafiksettings?

Palpatin
2012-05-03, 16:10:05
Moment. PCGH hat natürlich nicht nur ein Spiel auf Mikrosucken untersucht – es ist lediglich nur eines abgebildet.

MfG,
Raff
Habt ihr die Witcher 2 und Metro untersucht? Da scheints besonders schlimm zu sein.

Blaire
2012-05-03, 16:11:43
In Skyrim und Crysis kann ich die guten Frametimes auf jeden Fall mit 4-Way GTX680 bestätigen, hier mal ein kleines Beispiel-Frametimes-Log aus Crysis mit fordernenden Setting und 2560x1600 8xSGSSAA wo die FPS auch mal in den 30er Bereich rutschen, butterweich und präzisere Steuerung ist die Folge, ein FPS Limiter ist dort jedenfalls nicht mehr nötig.
http://www.abload.de/thumb/4waycryprzhj.png (http://www.abload.de/image.php?img=4waycryprzhj.png)
Aber das ist ein Idealfall, es gibt auch Games wo es sich weniger gut anfühlt.

dildo4u
2012-05-03, 16:12:13
Mal sehen ob sich NV dazu äußert ob sie für Jedes Game was testen müssen um im Profil ne optimale Einstellung ablegen zu können(z.b wie viele FPS "gecasht" werden müssen) und es deshalb nicht automatisch funzt.

derguru
2012-05-03, 16:16:56
Moment. PCGH hat natürlich nicht nur ein Spiel auf Mikrosucken untersucht – es ist lediglich nur eines abgebildet.

MfG,
Raff
wenn ihr euch die mühe macht,wieso postet ihr das nicht?für das heftchen?
Habt ihr die Witcher 2 und Metro untersucht? Da scheints besonders schlimm zu sein.
anscheinend nicht.:wink:

mehr schein als sein,jedenfalls bisher.

PHuV
2012-05-03, 16:18:34
Das die GTX 690 im Vergleich zu 2xGTX 680 so gut abschneidet, hätte ich nicht gedacht. Das ist definitiv ein Highlight.

Geht damit auch 3 oder 4xGTX690? :tongue:

dildo4u
2012-05-03, 16:20:12
Das die GTX 690 im Vergleich zu 2xGTX 680 so gut abschneidet, hätte ich nicht gedacht. Das ist definitiv ein Highlight.

Geht damit auch 3 oder 4xGTX690? :tongue:
Nö ist auf 4 GPUs beschränkt,deshalb nur 1 SLI Connector.

Palpatin
2012-05-03, 16:23:04
mehr schein als sein,jedenfalls bisher.
Mal abwarten ansonsten ist die Karte bis auf den Preis ja sehr gut gelungen, im Gegesatz zur 680 scheint man hier nicht am Kühler gespart zu haben. Der etwas niedrigere Takt wirkt sich laut den Tests auch nicht wirklich aus.

Iruwen
2012-05-03, 16:24:52
Schön dass Nvidia überhaupt weiterhin was dagegen tut, AMD scheint das Problem ja komplett zu ignorieren.

Raff
2012-05-03, 16:27:09
Habt ihr die Witcher 2 und Metro untersucht? Da scheints besonders schlimm zu sein.

Ich hätte nicht gedacht, dass ich das mal sagen würde, aber das Mikroruckeln auf einer GTX 690 ist in vielen Fällen ok – aber längst nicht perfekt. Stets unter der Prämisse, dass man jenseits von 30 Fps unterwegs ist, ab 40 schaut's meist weitgehend brauchbar aus. Bei 30 oder noch weniger Fps kommt die "Anti-Ruckel-Instanz" anscheinend ins Wanken und das Gesucke wird schlimmer. Hinzu kommt, dass in diesem Fps-Milieu der AFR-Lag (Eingabelatenz größer) nicht gerade für direkten Input sorgt. Bei der GTX 690 hat mich die schwammige Eingabe oft mehr gestört als das Mikroruckeln ... :| Auf einer HD 6990 hatte ich andere Sorgen, da ist das Mikro- oft ein Makro-Ärgernis.

Dennoch möchte ich hinzufügen, dass die GTX 690 nicht der Heilige Gral ist. Das Ding ist eine AFR-basierte Dual-GPU-Karte mit allen daranhängenden Problemen – ein paar der Symptome wurden nur etwas besser.

MfG,
Raff

dildo4u
2012-05-03, 16:28:56
Schön dass Nvidia überhaupt weiterhin was dagegen tut, AMD scheint das Problem ja komplett zu ignorieren.
Jo und das obwohl z.b Anandtech wieder nix dazu hat enttäuschend das es nicht mehr US Seiten aufgreifen.

Godmode
2012-05-03, 16:29:10
Ich hätte nicht gedacht, dass ich das mal sagen würde, aber das Mikroruckeln auf einer GTX 690 ist in vielen Fällen ok – aber längst nicht perfekt. Stets unter der Prämisse, dass man jenseits von 30 Fps unterwegs ist, ab 40 schaut's meist weitgehend brauchbar aus. Bei 30 oder noch weniger Fps kommt die "Anti-Ruckel-Instanz" anscheinend ins Wanken und das Gesucke wird schlimmer. Hinzu kommt, dass in diesem Fps-Milieu der AFR-Lag (Eingabelatenz größer) nicht gerade für direkten Input sorgt. Bei der GTX 690 hat mich die schwammige Eingabe oft mehr gestört als das Mikroruckeln ... :|

MfG,
Raff

Also ist der Lag doch spürbar? Bei 100 FPS dürfte das aber unter den Tisch fallen, oder?

Raff
2012-05-03, 16:31:40
Ja, bei niedrigen Fps stört der/die/das Lag. Und das lässt sich nicht einfach "wegoptimieren". Bei 100 Fps fällt die Latenz nicht ins Gewicht. Bei 100 Fps brauchst du aber auch keine GTX 690, weil eine GTX 680 dann lupenreine 50-60 Fps packt. ;)

MfG,
Raff

Blaire
2012-05-03, 16:34:53
Bei 30 oder noch weniger Fps kommt die "Anti-Ruckel-Instanz" anscheinend ins Wanken und das Gesucke wird schlimmer. Hinzu kommt, dass in diesem Fps-Milieu der AFR-Lag (Eingabelatenz größer) nicht gerade für direkten Input sorgt.

Du hast auch mit SingleGPU nicht immer ein perfektes FPS-Gefühl (siehe BF3) erst mit SLI kommt wirklich Freude auf. Das ist mir einfach zu pauschal. Lass 10 Leute an den Rechner keiner weiss, welche Karten im Rechner im Stecken , ich wette mit dir über 90% von denen , würde sich für SLI entscheiden. ;)

Raff
2012-05-03, 16:36:26
Du hast auch mit SingleGPU nicht immer ein perfektes FPS-Gefühl (siehe BF3) erst mit SLI kommt wirklich Freude auf. Das ist mir einfach zu pauschal.

Bei 30 Fps auf einer Single-GPU habe ich aber ein besseres Spielgefühl als mit 40 Fps auf einer Dual-Karte. Und dafür muss nicht mal der Mikromist stören, es hängt am AFR-Lag.

MfG,
Raff

Blaire
2012-05-03, 16:40:52
Bei 30 Fps auf einer Single-GPU habe ich aber ein besseres Spielgefühl als mit 40 Fps auf einer Dual-Karte.

Du kannst ein Metro2033 sicher nicht mit 30fps Average auf einer SingleGPU spielen, da die Steuerung einfach nur träge wirkt, erst ab 50fps fängts an Spass zu machen. Schon ist deine Theorie wieder dahin. Ich meine, einige Games brauchen auch bei SingleGPU eine gewisse Average FPS bevor sie anfangen Spass zu machen , da gibt es viele Beispiele für (Unreal3 Engine Games z.b.).
Über Mikroruckler da brauchen wir nicht reden, die kenne ich gut genug, sind störend ja... aber ich lese oft immer von diesen 30-40fps ...so einfach ist es aber nicht. Da SingleGPU dort auch nicht perfekt genug ist durch die Bank weg.

kmf
2012-05-03, 16:46:18
Oh bitte! - net schon wieder die blöde Microruckler-Diskussion. ;(

Merawen
2012-05-03, 16:52:46
Mich wundert dass die 690 im Vergleich mit 680 SLI leistungsmässig so gut abschneidet.

Blaire
2012-05-03, 17:00:34
Oh bitte! - net schon wieder die blöde Microruckler-Diskussion. ;(

Nene... ich denke Raff wird das gut einzuordnen wissen, das ich damit sicher nicht ganz so Unrecht habe. :) Das SingleGPU problemloser ist, Mikroruckler angeprangert gehören, da schreib ich ja nix gegen.

Skysnake
2012-05-03, 17:00:39
Diese Erklärung erscheint mir nicht sehr einleuchtend - prozentual hat jede GPU auf der GTX690 mit 1x PCIe x16-Anbindung ja auch nicht mehr Bandbreite als 2 GTX680 mit jeweils PCIe x8. Aber dann ist 50% + 50% plötzlich = 103% ? Aaha.
Die GTX690 arbeitet intern zwischen den Chips aber mit 16x PCI-E3.0. Da haste dann also die vierfache Bandbreite im Vergleich zu einem GTX680 SLI.

derguru
2012-05-03, 17:04:01
Mich wundert dass die 690 im Vergleich mit 680 SLI leistungsmässig so gut abschneidet.
braucht dich nicht zu wundern,anderer/neuer treiber.

Dural
2012-05-03, 17:22:23
gleicher speichertakt und die diverenz zwischen dem turbo takt der beiden karten ist auch nicht wirklich gross.

EDIT:

für mich eine der entäuschesten karten die NV jemals auf den markt gebracht hat, gerade bei diesem preis hätte man deutlich mehr erwarten können, gerade auch in sachen GPU qualität! für 1000.- ist die Karte ein witz da könnte man min. hochwertigere GPUs als auf der GTX680 erwarten :P

PHuV
2012-05-03, 17:39:08
Nene... ich denke Raff wird das gut einzuordnen wissen, das ich damit sicher nicht ganz so Unrecht habe. :) Das SingleGPU problemloser ist, Mikroruckler angeprangert gehören, da schreib ich ja nix gegen.

Nichtsdestotrotz geht in 3D bei den aktuellen Spielen ohne SLI fast nichts. Von dem her wird man noch eine Weile dann mit so einem Problem leben müssen.

Nightspider
2012-05-03, 17:40:48
Weshalb gibt es eigentlich immer noch keinen speziellen 3D-SLI Modus, wo jede GPU die Bilder für ein Auge berechnet? :|

boxleitnerb
2012-05-03, 17:41:36
Sehr schöne Karte, da wird es die 7990 bis auf den Preis verdammt schwer haben. Sehr schade finde ich, dass sich wieder mal nur die deutschen Seiten die Mikroruckler angeschaut haben. Langsam muss man sich fragen, was für Leute im Ausland die Produkte testen. Lieblos drüberrutschen und weg. :(

Naennon
2012-05-03, 17:45:22
Dennoch möchte ich hinzufügen, dass die GTX 690 nicht der Heilige Gral ist. Das Ding ist eine AFR-basierte Dual-GPU-Karte mit allen daranhängenden Problemen – ein paar der Symptome wurden nur etwas besser.

MfG,
Raff

wise words from a wise man :)

danke, dann wirds halt doch die 680 DCII

obwohl meine Gigabyte 680 schon mit 1280 MHz ne Hausnummer ist, mal sehen was die so kann

Gaestle
2012-05-03, 17:46:32
Nvidia hat sich echt an die Mikroruckler gemacht =) http://www.pcgameshardware.de/aid,881163/Test-Geforce-GTX-690-Die-schnellste-Grafikkarte-der-Welt/Grafikkarte/Test/?page=3


Ihr könntet auf dieser Seite mal die Y-Achse der Diagramme beschriften. Sind das Millisekunden?

pest
2012-05-03, 18:42:06
Ihr könntet auf dieser Seite mal die Y-Achse der Diagramme beschriften. Sind das Millisekunden?

Hm, Beschriftungen gehören an die Achsen mit entsprechender Skala. Ich verstehe auch nicht was die "Rote-Version" soll. Mittelwert, über was? Der Mittelwert einer Zeitreihe ist eine Konstante.


In diesem Falle bedeutet das, dass die roten Werte durch Mittelwertbildung errechnet sind.

M4xw0lf
2012-05-03, 18:46:39
Ihr könntet auf dieser Seite mal die Y-Achse der Diagramme beschriften. Sind das Millisekunden?

Wenn die zugehörigen Bildraten bei 30-100 Frames Per Second liegen, ist es ziemlich offensichtlich, dass man es mit Frametimes in Millisekunden zu tun hat ;)

Hm, Beschriftungen gehören an die Achsen mit entsprechender Skala. Ich verstehe auch nicht was die "Rote-Version" soll. Mittelwert, über was? Der Mittelwert einer Zeitreihe ist eine Konstante.

Der "Mittelwert" war mir auch nicht klar - es ist immer der Mittelwert zweier aufeinanderfolgender Frames, wie Carsten Spille im Forum erklärt hat (http://extreme.pcgameshardware.de/news-kommentare-zu-grafikkarten/215907-test-der-nvidia-geforce-gtx-690-die-schnellste-grafikkarte-der-welt-5.html#post4181282).

pest
2012-05-03, 19:10:17
Der "Mittelwert" war mir auch nicht klar - es ist immer der Mittelwert zweier aufeinanderfolgender Frames, wie Carsten Spille

das ist immer noch ungenau. wenn t der aktuelle Zeitpunkt ist werden dann die Frames von t und t-1 gemittelt oder t und t+1?

Anderseits sollte ein "Idealverlauf" mehr Datenpunkte zur stärkeren Glättung verwenden und im Falle eines nicht kausalen Filters zentral arbeiten.
d.h. z.B. Mittelwert aus t-2, t-1, t, t+1, t+2 bildet den neuen Wert für t. Der neue Wert für t+1 wird natürlich nicht mit den geglättenden Werten berechnet.

Der Nachteil des gleitenden Mittelwertes ist das Wegfallen von Datenpunkten am Anfang und Ende der Zeitreihe, deshalb ist das exponentielle Glätten beliebt.
z.b. y'=y1 ist Frametime des 1-Frame: y1
dann sind die nachfolgenden Mittelwerte y':=(1-alpha)*y'+alpha*yt
alpha zwischen 0 und 1 steuert dann das Gewicht der neuen Werte.
Die exponentielle Glättung "hinkt" daher etwas hinterher.

Godmode
2012-05-03, 19:47:12
979 € inkl MWst
http://geizhals.at/eu/772226

eine oder zwei? ;D

|MatMan|
2012-05-03, 19:55:21
das ist immer noch ungenau. wenn t der aktuelle Zeitpunkt ist werden dann die Frames von t und t-1 gemittelt oder t und t+1?Wo soll denn da der relevante Unterschied sein? Die Annahme ist, dass man Mikroruckler durch einen sägezahnartigen Verlauf hat. Dabei folgt einem "schnellen" direkt ein "langsames" Frame und dem wieder ein "schnelles" und so weiter. Daher ist es doch völlig egal ob ich mit dem Frame t-1 oder t+1 mittele.

Mittelwert aus t-2, t-1, t, t+1, t+2 bildet den neuen Wert für t. Der neue Wert für t+1 wird natürlich nicht mit den geglättenden Werten berechnet.Klar je mehr man mittelt desto glatter wird der "Idealverlauf", aber was ist ideal? Wird das Fenster zu groß bügelt man auch reale Frameratenschwankungen weg. Eine ungerade Anzahl an Datenpunkte ist übrigens nicht ideal, da dann unterschiedlich viele "schnelle" bzw. "langsame" Frames in die Berechnung eingehen (wenn die Annahme von oben stimmt)...

Der Nachteil des gleitenden Mittelwertes ist das Wegfallen von Datenpunkten am Anfang und Ende der Zeitreihe, deshalb ist das exponentielle Glätten beliebt.Naja die 2 Datenpunkte am Anfang und am Ende für dein Beispiel von einer Fensterbreite von 5 von oben kann man bei der Menge sicher verschmerzen. Von der exponentiellen Glättung halte ich hier nicht viel. Das macht das ganze nur unnötig kompliziert, auch ist der alpha Parameter ziemlich subjektiv festzulegen...

Einen guten "Idealverlauf" zu finden ist gar nicht so einfach. Vielleicht könnte man versuchen den Single-GPU Verlauf hochzuskalieren...

pest
2012-05-03, 20:32:48
Die Annahme ist, dass man Mikroruckler durch einen sägezahnartigen Verlauf hat.


Mikroruckler folgen Kaskaden. t und t+1 wäre nicht kausal weshalb man dann zentral arbeiten sollte.


Klar je mehr man mittelt desto glatter wird der "Idealverlauf", aber was ist ideal? Wird das Fenster zu groß bügelt man auch reale Frameratenschwankungen weg.


reale Schwankungn erkennt man durch die nicht geglätteten Werte.


Eine ungerade Anzahl an Datenpunkte ist übrigens nicht ideal, da dann unterschiedlich viele "schnelle" bzw. "langsame" Frames in die Berechnung eingehen (wenn die Annahme von oben stimmt)...


bei einem nicht kausalen Filter und ungerader Anzahl ist die Gewichtung verschoben. t und t-1 ist sinnvoll, hebt sich aber nicht wirklich vom ungeglätteten Verlauf ab und das ist ja der sinn der sache.


unnötig kompliziert


so eine multiplikation und eine addition ist hoch spektakulär


auch ist der alpha Parameter ziemlich subjektiv festzulegen...


genauso wie anzahl, verteilung und gewichtung der datenpunkte beim gleitenden mittelwert. wie wäre es mit alpha=0.99 :freak:

Godmode
2012-05-03, 21:17:14
GTX 690 Verfügbarkeit + Bestellstatus Thread
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=525388

Telema
2012-05-03, 22:03:07
Also ich muss sagen das mich die Karte sehr reizt....Auch wenn sie sehr teuer ist. Mit 3D Vision ist man doch sehr schnell am Ende mit einer Singel GPU

Godmode
2012-05-03, 22:34:28
Also ich muss sagen das mich die Karte sehr reizt....Auch wenn sie sehr teuer ist. Mit 3D Vision ist man doch sehr schnell am Ende mit einer Singel GPU

3D Vision, DS, SSAA, Ambient Occlusion, Multi Monitor und am besten noch mehr als 60 FPS damits auch flüssig wirkt.

Finde es immer lustig wenn irgendwelche Leute meinen: "Die Hardware ist den Spielen ja sowiso Jahre voraus, nur Konsolenports, mehr als ne 200 € Graka macht keinen Sinn"...

uweskw
2012-05-03, 23:18:09
das ist immer noch ungenau. wenn t der aktuelle Zeitpunkt ist werden dann die Frames von t und t-1 gemittelt oder t und t+1?

Anderseits sollte ein "Idealverlauf" mehr Datenpunkte zur stärkeren Glättung verwenden und im Falle eines nicht kausalen Filters zentral arbeiten.
d.h. z.B. Mittelwert aus t-2, t-1, t, t+1, t+2 bildet den neuen Wert für t. Der neue Wert für t+1 wird natürlich nicht mit den geglättenden Werten berechnet.

........


Anscheinend folgt da grundsätzlich auf einen schnellen ein langsamer Output. Also hinkt eine Karte hinterher.


http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=42693&stc=1&d=1336051763

Kann mir einer der Statistik-Freaks ausrechnen wie hoch die Wahrscheinlichkeit ist dass schnelle und langsame Frames sich genau abwechseln? Jrgend wie leuchtet das mir nicht richtig ein.

Greetz
U.S.

robbitop
2012-05-03, 23:24:09
Spätestens wenn GK110 erscheint, ist die 690 wie jedes AFR Performancegespann uninteressant. Etwas weniger FPS aber dafür höhere gefühlte Leistung, geringere Leistungsaufnahme und keine Basteleien.

boxleitnerb
2012-05-03, 23:28:12
Die Frage ist, was die Engine macht. Wie werden die Aufträge, Bilder zu berechnen, herausgegeben:
http://www.abload.de/thumb/2gpus40fpsocdf.png (http://www.abload.de/image.php?img=2gpus40fpsocdf.png)

Wenn am Anfang beide GPUs sofort losrechnen sollen und im weiteren Verlauf keine Glättung erfolgt, pflanzt sich dieser Versatz ewig fort. So ähnlich wie wenn Audio und Video nicht synchronisiert sind - du wirst die ganze Zeit denselben Versatz haben, bis du eingreifst und eine Spur ggü. der anderen verschiebst.

uweskw
2012-05-03, 23:40:44
....
Wenn am Anfang beide GPUs sofort losrechnen sollen und im weiteren Verlauf keine Glättung erfolgt, pflanzt sich dieser Versatz ewig fort. So ähnlich wie wenn Audio und Video nicht synchronisiert sind - du wirst die ganze Zeit denselben Versatz haben, bis du eingreifst und eine Spur ggü. der anderen verschiebst.
Wenn es wirklich so einfach ist, warum ist das dann noch nicht implementiert?

boxleitnerb
2012-05-03, 23:54:44
Wenn es wirklich so einfach ist, warum ist das dann noch nicht implementiert?

Weil man nicht vorhersehen kann, wie lange das nächste Frame braucht. Das kann ordentlich nach hinten losgehen schätze ich.

uweskw
2012-05-04, 00:27:07
wenn die 1x pro sec. syncronisieren, was soll da nach hinten los gehen? Kommt ja nicht ständig vor dass der Berechnungsaufwand von einem Frame zum nächsten so unterschiedlich ist.

schreiber
2012-05-04, 00:29:34
1x pro sekunde? kannst ja mal einen Quaker fragen, wie oft sich innerhalb dieser Zeitspanne der Bildschirminhalt komplett ändern kann. ^^

PHuV
2012-05-04, 00:33:51
Spätestens wenn GK110 erscheint, ist die 690 wie jedes AFR Performancegespann uninteressant. Etwas weniger FPS aber dafür höhere gefühlte Leistung, geringere Leistungsaufnahme und keine Basteleien.

Weißt Du schon etwas, was wir nicht wissen?

Nightspider
2012-05-04, 00:38:37
Selfquote rules....

Weshalb gibt es eigentlich immer noch keinen speziellen 3D-SLI Modus, wo jede GPU die Bilder für ein Auge berechnet? :|

Ist das überhaupt möglich bzw. gab es da schon Ansätze oder ist die Idee dumm von mir?

uweskw
2012-05-04, 00:53:09
1x pro sekunde? kannst ja mal einen Quaker fragen, wie oft sich innerhalb dieser Zeitspanne der Bildschirminhalt komplett ändern kann. ^^

Schau dir die Framtimes doch an! Wenn eine Karte erstmal "hinterher hinkt" bleibt es eine ganze zeitlang so. Frag doch mal die Statistiker wie hoch die Wahrscheinlichkeit ist dass sich die Berechnungsdauer von einem Frame zum nächsten drastisch ändert. Selbst Explosionen/Rauch etc. fangen klein an.

edit: Hat eigentlich irgend wer untersucht ob/wie sich adaptive V-sync auswirkt?

uweskw
2012-05-04, 01:03:52
Selfquote rules....



Ist das überhaupt möglich bzw. gab es da schon Ansätze oder ist die Idee dumm von mir?

Da beide dann jeweils das gleich Bild rendern, nur um ein paar cm verschoben, dürften so in 3D keine Microruckler entstehen. Sofort patentieren lassen!!=)

Nightspider
2012-05-04, 01:34:01
Naja aber es gibt ja wirklich noch Spiele, wo 3D Richtung 50% Leistung frisst oder?
Ich selbst besitze ja kein 3D am PC.
Aber zumindest wäre so ein 3D-SLI Modus für die Spiele sinnvoll, die schlecht bei 3D skalieren.

Langenscheiss
2012-05-04, 01:45:49
Anscheinend folgt da grundsätzlich auf einen schnellen ein langsamer Output. Also hinkt eine Karte hinterher.

Kann mir einer der Statistik-Freaks ausrechnen wie hoch die Wahrscheinlichkeit ist dass schnelle und langsame Frames sich genau abwechseln? Jrgend wie leuchtet das mir nicht richtig ein.

Greetz
U.S.

Was genau meinst du mit schnellen Frames? Es kommen halt zwei Frames relativ dicht gepackt und dann dauert es wieder bis die nächsten 2 Frames kommen, d.h. auf einem FPS-Peak folgt ein FPS-Tal (wenn man FPS nicht wörtlich versteht, sondern als exakte Zeitableitung der Framezahl). Wie stark das "Framebunching" ist und wie stark das statistisch fluktuiert, hängt vermutlich von vielen internen Faktoren ab. Da wird dir einer mit Expertenwissen zu AFR wohl mehr sagen können, als ein Statistiker, ich weiß nämlich nicht, in wie fern man hier von einem stochastischen Prozess ausgehen kann???

Aber was anderes: Wieso produzieren einige Tester (mir ist es bei PCGH und dem ansonsten schönen CB-Test aufgefallen) beim Thema Mikroruckler eigentlich diesmal (hab vorher nicht so drauf geachtet, deshalb betone ich das) so schlampige Plots? Damit meine ich nicht die grundsätzlichen Ergebnisse oder das Design, sondern schlicht Dinge wie korrekte Achsenbeschriftungen. Und schon mal was von Bildunterschriften gehört. Falls bestimmte Dinge gesondert erklärt werden müssen, gehören diese Erklärungen zumindest in eine Bildunterschrift, auch wenn man sich dann im Text teilweise wiederholt. HT4U hat das z.B. vernünftig gemacht.

SamLombardo
2012-05-04, 07:22:56
Naja aber es gibt ja wirklich noch Spiele, wo 3D Richtung 50% Leistung frisst oder?.
da bei 3D Vision jedes Frame doppelt gerendert wird, sind 50 Prozent nicht die Ausnahme, sondern die Regel. Insofern ist die Karte dafür schon nicht uninteressant...

Palpatin
2012-05-04, 08:01:20
Spätestens wenn GK110 erscheint, ist die 690 wie jedes AFR Performancegespann uninteressant. Etwas weniger FPS aber dafür höhere gefühlte Leistung, geringere Leistungsaufnahme und keine Basteleien.
Abgesehen von der "Mikroruckel" Problematik welche ja so wie es scheint zummindest bei einigen Vorzeige-Spielen beseitig wurde ist die 690 nochmal effizienter als die 680. ca 180% Frames bei ca 155% -165% Leistungsaufnahme.
Ich kann mir beim besten Willen nicht vorstellen das der GK110 mit dem zusätzlichen GPGPU Ballast da rankommt was Effizenz angeht.
Beim GK110 würd ich imo eher von 40%-50% mehr Leistung gegenüber GTX680 bei 60-70% mehr Leistungsaufnahme ausgehen. Je nachdem bei wie gut und bei wievielen Games sie das mit dem Mikroruckeln in den Griff kriegen hat man dann mit der 690 evtl sogar die bessere Karte.
Der Preis ist natürlich eine andere Sache, genauso wie der Erscheinungstermin des GK110 der vielleicht erst 2013 kommt.

Spasstiger
2012-05-04, 09:21:13
Kann mir einer der Statistik-Freaks ausrechnen wie hoch die Wahrscheinlichkeit ist dass schnelle und langsame Frames sich genau abwechseln? Jrgend wie leuchtet das mir nicht richtig ein.

Greetz
U.S.
Ich lese an dem regelmäßigen Muster ab, dass beide Karten des Crossfire-Verbunds gleich schnell arbeiten. Problem ist nur, dass beide Karten fast gleichzeitig mit der Berechnung eines neuen Frames beginnen. Das Bild von der Karte, die etwas früher mit dem neuen Frame beginnt, wird nur kurz angezeigt und das Bild von der Karte, die etwas später beginnt, dominiert den subjektiven Eindruck. Außerdem - und das ist das eigentliche Problem - ist die Bildinformation beider Frames zeitlich gesehen nahezu identisch. So als ob beide Karten unabhängig voneinander denselben Frame berechnet hätten. Dieses Problem lässt sich auch nicht durch ein Verzögern der Ausgabe des späteren Frames lösen, höchstens abmildern, weil sich dann in Konsequenz die Zeitpunkte verschieben, zu denen die Berechnung eines Frames beginnt (bedingt durch die verzögerten Bufferswaps).

Peter Gräber
2012-05-04, 09:22:33
Finde es immer lustig wenn irgendwelche Leute meinen: "Die Hardware ist den Spielen ja sowiso Jahre voraus, nur Konsolenports, mehr als ne 200 € Graka macht keinen Sinn"...

Das ist doch im Gros der Fälle auch so. Die meisten Spieler spielen unter 1680 x 1050 und ein Teil auf 1920 x 1080. Da muss man die Titel wirklich schon suchen gehen, welche dort eine GTX 680 oder eine HD 7970 fordern. Fündig wird man wohl nicht.

Nur ein sehr kleiner Teil setzt dann eben auf Dinge wie Surround / Eyefinity oder 3D, ein anderer Teil steckt die gewonnene Performance in SSAA. Schließt man diesen Teil der Anwender aus, sind die neuen Topmodelle schlicht unterfordert. Da ist auf Seiten AMD und NVIDIA wirklich Überzeugungsarbeit bei den Spieleentwicklern gefordert. Wenn man bedenkt, dass viele Spiele inzwischen mit FXAA / MLAA in den Markt kommen und dafür auf MSAA verzichten, sieht man gewisse Tendenzen.

Spasstiger
2012-05-04, 09:37:35
Spätestens wenn GK110 erscheint, ist die 690 wie jedes AFR Performancegespann uninteressant. Etwas weniger FPS aber dafür höhere gefühlte Leistung, geringere Leistungsaufnahme und keine Basteleien.
30 fps auf einer GTX 690 sollen sich laut Computerbase so gut anfühlen wie 30 fps mit einer Single-GPU, 40 fps mit GTX 680 SLI (ohne Frame Rate Metering) und 50 fps mit Crossfire.
Damit dürfte die Performancekrone auch gefühlt bei der GTX 690 bleiben, wenn die Single-GK110-GeForce (GTX 780?) erscheint.

Raff
2012-05-04, 09:39:43
Nochmals: Der/die/das AFR-Lag tritt in den Vordergrund, sobald die Frameverteilung glattgebügelt wurde. Das passiert bei der GTX 690 recht oft. 30 Fps sind im AFR-Modus kein Spaß (noch weniger als mit einer GPU). Und das lässt sich auch nicht beseitigen, nur verbessern – mit mehr Fps und/oder Double-Buffering ohne Vsync im Spiel forcieren.

MfG,
Raff

fondness
2012-05-04, 10:07:51
30 fps auf einer GTX 690 sollen sich laut Computerbase so gut anfühlen wie 30 fps mit einer Single-GPU,

Also wenn man sich die Frameverteilung bei HT4U ansieht kann das wohl nur ein Scherz sein. Kein einziges der fünf dort getesteten Spiele ist Mikroruckler-frei. Es ist nach wie vor ein Glücksspiel wie stark es zu Mirkoruckler kommt. Einen offensichtlichen Fortschritt zu den letzten Tests sieht man auch nicht. Eine Hardwareglättung ist definitiv nicht vorhanden: http://ht4u.net/reviews/2012/nvidia_geforce_gtx_690_im_test/index3.php

Von dem Lag den Raff oben erwähnt ganz zu schweigen.

Palpatin
2012-05-04, 10:08:47
Das ist doch im Gros der Fälle auch so. Die meisten Spieler spielen unter 1680 x 1050 und ein Teil auf 1920 x 1080. Da muss man die Titel wirklich schon suchen gehen, welche dort eine GTX 680 oder eine HD 7970 fordern. Fündig wird man wohl nicht.

Prizipelle hast du natürlich recht, aber so verbreitet wie man vielleicht denkt ist die 1680er nicht mehr, zummindest bei Gamer. Laut Steam Hardware Umfrage nutzen sie nur 10%. Im vergleich 1920x1080 25%.

Iruwen
2012-05-04, 10:22:37
Also wenn man sich die Frameverteilung bei HT4U ansieht kann das wohl nur ein Scherz sein. Kein einziges der fünf dort getesteten Spiele ist Mikroruckler-frei. Es ist nach wie vor ein Glücksspiel wie stark es zu Mirkoruckler kommt. Einen offensichtlichen Fortschritt zu den letzten Tests sieht man auch nicht.

Stimmt, sieht man nicht weil nicht aufgeführt :freak: Guck dir mal die Vergleichsdiagramme der anderen Reviews mit GTX 590 und HD 6990 an. Die Mikroruckler sind nicht weg aber soweit abgeschwächt dass sie für die meisten unter die Wahrnehmungsgrenze fallen sollten oder halt von anderen Problemen überschattet werden.

pest
2012-05-04, 11:35:19
i don't think so

http://images.ht4u.net/reviews/2012/nvidia_geforce_gtx_690_im_test/witcher2_th.png

http://images.ht4u.net/reviews/2012/nvidia_geforce_gtx_690_im_test/metro2033_th.png

oder die haben die Diagramme vermurkst...am Anfang schreiben sie von Crossfire zeigen aber ein Bild der GTX690

dildo4u
2012-05-04, 11:54:16
Wie oft kaut ihr das Ganze hier noch durch es scheint nicht bei allen Games optimiert zu sein,es ist ne Software Lösung also möglich das es mit Profil Update's besser wird.

Iruwen
2012-05-04, 12:07:53
i don't think so

http://images.ht4u.net/reviews/2012/nvidia_geforce_gtx_690_im_test/witcher2_th.png

http://images.ht4u.net/reviews/2012/nvidia_geforce_gtx_690_im_test/metro2033_th.png

oder die haben die Diagramme vermurkst...am Anfang schreiben sie von Crossfire zeigen aber ein Bild der GTX690

Und wo genau sieht man in den Graphen GTX 590 und HD 6990?

Blaire
2012-05-04, 12:11:14
Also Frame-Metering ist für alle Kepler-Grafikkarten in Hardware, für Fermi ist es softwarebasiert. Die Info stammt von NVIDIA. Es funktioniert derzeit aber noch nicht mit Adaptive VSYNC.

boxleitnerb
2012-05-04, 12:14:45
Also Frame-Metering ist für alle Kepler-Grafikkarten in Hardware, für Fermi ist es softwarebasiert. Die Info stammt von NVIDIA.

Und kann es mit Fraps gemessen werden oder nicht? Bei der Softwarelösung ging dies nicht. Vielleicht sind alle diese Diagramme ja hinfällig.

dildo4u
2012-05-04, 12:25:50
Also Frame-Metering ist für alle Kepler-Grafikkarten in Hardware, für Fermi ist es softwarebasiert. Die Info stammt von NVIDIA. Es funktioniert derzeit aber noch nicht mit Adaptive VSYNC.
Hä du hast doch selber gesagt das es erst mit dem neuen Treiber klappt,dann ist halt ne Kombi Lösung es ging nur darum das es wohl Abhänig von Profilen/Treiber ist.Also obs schon ans jeweilige Game angepasst wurde.

Blaire
2012-05-04, 12:34:16
Hä du hast doch selber gesagt das es erst mit dem neuen Treiber klappt,dann ist halt ne Kombi Lösung es ging nur darum das es wohl Abhänig von Profilen/Treiber ist.Also obs schon ans jeweilige Game angepasst wurde.

So genauen Einblick habe ich da auch nicht, keine Ahnung. Ich hab mich nur schlau gemacht, ob es momentan bereits im Treiber integriert ist bzw. ob es Hard-oder-Software-basiert ist.

pest
2012-05-04, 12:34:49
Und wo genau sieht man in den Graphen GTX 590 und HD 6990?

völlig irrelefant, du schriebst "unter der Wahrnehmungsgrenze", was mitnichten der Fall ist

MechWOLLIer
2012-05-04, 12:56:51
30 fps auf einer GTX 690 sollen sich laut Computerbase so gut anfühlen wie 30 fps mit einer Single-GPU, 40 fps mit GTX 680 SLI (ohne Frame Rate Metering) und 50 fps mit Crossfire.
Damit dürfte die Performancekrone auch gefühlt bei der GTX 690 bleiben, wenn die Single-GK110-GeForce (GTX 780?) erscheint.
Das haben wir so nicht gesagt :)
Es gibt immer noch Mikroruckler. Nur stören diese kaum noch.

Godmode
2012-05-04, 13:01:11
Das haben wir so nicht gesagt :)
Es gibt immer noch Mikroruckler. Nur stören diese kaum noch.

Man müsste das ganze wohl mit einer Highspeed Kamera aufnehmen um wirklich sicher gehen zu können.

Iruwen
2012-05-04, 13:22:34
völlig irrelefant, du schriebst "unter der Wahrnehmungsgrenze", was mitnichten der Fall ist

Und das machst du an dem Diagramm fest oder hast du 'ne GTX 690? PCGH sagt was anderes. Außerdem sieht die Wahrnehmungsgrenze für jeden anders aus.

/e: CB sagts wie man sieht auch.

Knuddelbearli
2012-05-04, 14:03:37
toll cb hat 1 spiel getestet XD

Mr. Lolman
2012-05-04, 14:07:49
Wenn da Schwankungen zwischen 50 und 125fps existieren, sinds zwar sehr unregelmäßige Bilder, aber auffallen wirds trotzdem nicht. Allerdings werdens wohl weniger als 60 gefühlte fps sein. Ausgehend von 40fps die eine Einzelkarte schafft und in Anbetracht der optimalen Skalierung. (avg ~80 vs. 40 bei SingleGPU) und dem AFR-Lag ist der Mehrwert zu SingleGPU zumindest in dem Beispiel imho nicht unbedingt gegeben.

EDIT: Das was Spasstiger anspricht, ist aber imo noch viel schwerwiegender. Eine reine Glättung der Ausgabe ist nämlich sinnfrei, wenn der Bildinhalt immernoch den Versatz drinnen hat. Jedenfalls gehören die Mikroruckler der GTX690 noch viel genauer untersucht - zu widersprüchlich sind momentan die Aussagen der Fachpresse.

Iruwen
2012-05-04, 14:16:54
toll cb hat 1 spiel getestet XD

CB hat zu einem Spiel einen Graphen gemacht, aber laut Text mehrere getestet - genau wie PCGH. Eine Aussage kann man nur treffen wenn man den direkten Vergleich zu den Vorgängerkarten zieht was HT4U leider nicht (zumindest in grafischer Form) getan hat.

MechWOLLIer
2012-05-04, 18:46:30
toll cb hat 1 spiel getestet XD
Ah, immer diese haltlosen Behauptungen...
Wir haben vier Spiele getestet. Hättest du den Text gelesen hättest du gewusst, das es mehr als eines gewesen ist und wir SS3 als Extremfall abgebildet haben.

boxleitnerb
2012-05-04, 19:47:54
Warum habt ihr die anderen Werte nicht abgebildet?

dildo4u
2012-05-04, 19:53:23
Hat er doch geschrieben weil's das extremste Beispiel war,wo also das "alte" SLI und Crossfire die größten Ausschläge zeigten.

Knuddelbearli
2012-05-04, 19:56:13
komischer extremfall wenn man mit ht4u vergleicht ...

dildo4u
2012-05-04, 20:06:07
Und wieder ht4u hat kein Vergleich mit dem alten SLI und Crossfire,vieleicht ist es dort noch extremer.Das Fazit ist besser als Vorher aber nicht perfekt,kein Definitives das Problem ist komplett gelöst.

Knuddelbearli
2012-05-04, 20:18:41
CB bzw MechWOLLIer hat gesagt das sie das am stärksten ruckelnde Spiel hergenommen haben, als Basis muss da natürlich die 590 dienen da es um die in dem Artikel geht.
nimmt man jetzt ht4u her kann die aussage von cb aber nicht korrekt sein! und bis auf 1 satz beziehen sie sich immer auf SS3

Gaestle
2012-05-04, 21:40:02
Wenn die zugehörigen Bildraten bei 30-100 Frames Per Second liegen, ist es ziemlich offensichtlich, dass man es mit Frametimes in Millisekunden zu tun hat ;)

Schlaumeier.

Natürlich ist das logisch. Für jemanden der kurz drüber nachdenkt. Aber es ist einfach unkomfortabel für den Leser, irgendeine unbeschriftete Skala "hingerotzt"* zu bekommen, bei der er sich die dazugehörige Größe selbst dazuphantasieren darf. Das ist IMHO genauso mangelhaft wie Diagramme, die nicht bei 0 beginnen.

Beispiel: Wenn man sich aber nur die Grafiken ansieht, weil man z.B. nicht die Texterklärung zu "Mikroruckler - was ist das" zum hundertsten mal reinziehen will, ist es nicht selbsterklärend. Dann wären nämlich in Zeiten von üblicher fps-Darstellung auch "theoretische fps" als Y-Achse einleuchtend.


*Bitte nicht wörtlich nehmen...

@bearli
Unterschiedliche Szenen desselben Games können unterschiedliche Reaktionen provozieren. Das sieht man auch, wenn man mal die fps bei identischen Einstellungen von verschiedenen Tests vergleicht. Bevor nicht genau klar ist, was da genau gelaufen ist, würde ich jetzt nicht irgendjemandem falsch oder richtig unterstellen. Es ist IMHO total schwierig, Testbedingungen absolut exakt zu replizieren, selbst auf identischem System. Selbst ein mehrfacher Durchlauf der exakt selben Szene mit auf dem immer selben Systen bringt gewisse Ergebnisschwankungen.

Sie haben halt die extremste Szene von den von ihnen beobachteten Szenen genommen und nicht die extremste Szene von allen denkbaren Szenen in der Welt.

Peter Gräber
2012-05-05, 19:24:53
CB bzw MechWOLLIer hat gesagt das sie das am stärksten ruckelnde Spiel hergenommen haben, als Basis muss da natürlich die 590 dienen da es um die in dem Artikel geht.
nimmt man jetzt ht4u her kann die aussage von cb aber nicht korrekt sein! und bis auf 1 satz beziehen sie sich immer auf SS3

Ich möchte an der Stelle mal in den Raum werfen, dass sämtliche Redaktionen gerade einmal 2 Tage Zeit hatten, dieses Review umzusetzen. Von daher ließ man nicht die Zeit, sich mit allen Themen intensiv auseinander zu setzen.

Darüber hinaus hat man gleich ein weiteres NDA hinter gejagt und damit den nächsten, kurzfristigen Launch angesetzt.

Zum eigentlichen Thema: Wir haben uns heute in unserer Testszene des Witchers auch noch die GTX 590, 680-SLI (jeweils mit dem beta Treiber 301.33) angeschaut und dazu auch noch die HD 6990 in gleicher Szene betrachtet.

Ausgehend davon sind unsere Beobachtungen, dass die Mikroruckler auf allen drei NVIDIA-Karten / -Lösungen mehr oder minder gleich ausgeprägt sind. Im Geradeauslauf sind diese weniger störend wahrzunehmen, dreht man aber nur leicht mit der Maus die Lauf-/Blickrichtung, machen die Ruckler sich sofort bemerkbar. Es hat den Eindruck, dass NV mit dem neuen Treiber bei SLI-Betrieb insgesamt etwas optimiert hat. Bei der GTX 590 mag das Problem allenfalls leicht verstärkt sein, da man sich in niedrigeren Framerraten bewegt, aber die Tendenz ist die gleiche.

Auf der HD 6990 sind die Ruckler in gleicher Szene im Geradeauslauf deutlich mehr wahrzunehmen.

Das Witcher-Update werden wir vermutlich im Laufe des morgigen Tages online stellen.

Fabian_HT4U
2012-05-06, 12:12:55
Wie Peter versprochen hat, gibt es bei uns nun ein Update zur MR-Problematik:
http://ht4u.net/reviews/2012/nvidia_geforce_gtx_690_im_test/index4.php
und
http://ht4u.net/news/25495_sag_wie_hast_dus_mit_den_mikrorucklern_geforce_gtx_690/

Untersucht haben wir eine mehr als 14 Sekunden lange Sequenz in "The Witcher 2", die zeigt dass es MR gibt. Sie zeigt aber auch, dass es besser ist als früher. Im Vergleich sind eine Radeon HD 6990, eine GeForce GTX 590, die GeForce GTX 680 (alleine um im SLI) und natürlich die GTX 690 vertreten.

Viel Spaß beim Lesen.

Grüße
Fabian

Knuddelbearli
2012-05-06, 12:17:59
super job wie immer, da können sich fast alle seiten was von abschneiden

ZÜNDELholz
2012-05-06, 13:01:02
super job wie immer, da können sich fast alle seiten was von abschneiden


Kein Superjob!

Vsync ist unabdingbar, wenn es um BQ geht.
Hier versagen leider die Tester!

Wie Peter versprochen hat, gibt es bei uns nun ein Update zur MR-Problematik:
http://ht4u.net/reviews/2012/nvidia_geforce_gtx_690_im_test/index4.php
und
http://ht4u.net/news/25495_sag_wie_hast_dus_mit_den_mikrorucklern_geforce_gtx_690/

Untersucht haben wir eine mehr als 14 Sekunden lange Sequenz in "The Witcher 2", die zeigt dass es MR gibt. Sie zeigt aber auch, dass es besser ist als früher. Im Vergleich sind eine Radeon HD 6990, eine GeForce GTX 590, die GeForce GTX 680 (alleine um im SLI) und natürlich die GTX 690 vertreten.

Viel Spaß beim Lesen.

Grüße
Fabian

Der Peter und Du sollen mal die Szene mit fest eingestellten Vsync testen .
Einstellungen entsprechend so wählen, dass MinFps nicht unter 60FPS fallen(Bei 60Hz-Monitor)
Dann bitte entsprechende Diagramme updaden und über visuellen Eindruck berichten.
Vorab: Ihr werdet staunen, welch enorm positiven Einfluss Vsync auf das Verschwinden der Micruruckler ausübt.

Ausserdem alle Stromsparmechanismen der CPU auf AUS.