PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon HD 7990: (P)Review-Thread


Seiten : [1] 2

AnarchX
2012-08-31, 10:24:13
Powercolor HD 7990 Devil 13 6 GB:

Techpowerup (http://www.techpowerup.com/reviews/Powercolor/HD_7990_Devil_13/)
Hardwareluxx (http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/23591-test-powercolor-devil-13-hd7990.html)
HardwareHeaven (http://www.hardwareheaven.com/reviews/1561/pg1/powercolor-devil-13-hd-7990-graphics-card-review-introduction.html)
PCGH (http://www.pcgameshardware.de/AMD-Radeon-Hardware-255597/Tests/Test-Powercolor-Radeon-HD-7990-Devil-13-1026268/)


AMD HD 7990 (April 2013):
http://www.computerbase.de/artikel/grafikkarten/2013/amd-radeon-hd-7990-im-test/
http://www.pcgameshardware.de/AMD-Radeon-Hardware-255597/Tests/Test-Radeon-HD-7990-Malta-1066320/

http://www.anandtech.com/show/6915/amd-radeon-hd-7990-review-7990-gets-official
http://www.pcper.com/reviews/Graphics-Cards/AMD-Radeon-HD-7990-6GB-Review-Malta-Gets-Frame-Rated
http://www.tomshardware.com/reviews/radeon-hd-7990-review-benchmark,3486.html
http://www.techpowerup.com/reviews/AMD/HD_7990/

Iruwen
2012-08-31, 10:45:59
Großer Wurf :freak: Ich hoffe techreport bekommt auch noch eine in die Finger, die machen immer so schöne Frame Time Graphen.

Zergra
2012-08-31, 10:47:04
AMD muss wohl noch ein paar Profile anpassen :D

Das mit den Mikro-Ruckler wäre noch intressant

Godmode
2012-08-31, 10:47:29
Das ist ne schlechtere GTX 690, nein Danke!

Iruwen
2012-08-31, 10:54:08
AMD muss wohl noch ein paar Profile anpassen :D

Muss das eigentlich für jede Karte einzeln gemacht werden? Wenn AMD die 7990 droppen würde (kommt da überhaupt noch was? (http://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/23516-wo-bleibt-amds-radeon-hd-7990.html)) wären Käufer dieser Karte dann ja ziemlich gekniffen.

dildo4u
2012-08-31, 10:58:22
So ne Karte ist keine gute Idee ohne Referenz von AMD,wenn so eine Karte geplant wäre hätten sie zumindest für die meisten Populären Games Profile.

Skysnake
2012-08-31, 11:04:05
AMD muss wohl noch ein paar Profile anpassen :D

Das mit den Mikro-Ruckler wäre noch intressant
Nen paar ist gut :ugly:

Vor allem das mit der Schraube geht halt mal gar nicht..... :down:
Bei nem 1000$/€ Produkt darf so etwas einfach nicht passieren,

Bei den Treibern muss man mal schauen, ob ein Launch-Treiber noch was reist. So schlecht performt die Karte ja eigentlich gar nicht, wenn da nicht die Totalabstürze wären.

Aber das spielt eigentlich keine Rolle. Die Karte kommt VIEL zu spät und verbraucht zu viel für die Leistung, wobei man das, wie gesagt mit angepassten Profilen nochmal schauen muss.

Auf jeden Fall kann man aber sagen, dass die Karte für unter 2560x1600 absolut unbrauchbar ist, und erst bei 5k sich wenn überhaupt von der GTX690 absetzen kann.

Ich seh in der Karte so keine wirkliche berechtigung, vor allem nicht zu nem Preis von 1000$/€... Wer die GTX690 gekauft hat zum launch, hat wohl die richtige Entscheidung getroffen.

Da muss AMD bei der nächsten Generation ihre Hausaufgaben besser machen. So ist das mehr oder weniger inakzeptabel.

dildo4u
2012-08-31, 11:33:37
Da muss AMD bei der nächsten Generation ihre Hausaufgaben besser machen. So ist das mehr oder weniger inakzeptabel.
Die Karte kommt nicht von AMD das ist ein Experiment von Powercolor(Wie z.b Asus Mars) deshalb der schlechte Treiber Support.


"AMD has been working on a dual-GPU HD 7990 card for a long time, but we are still waiting for a release. PowerColor has taken on the challenge and engineered a working HD 7990 by themselves, without any help from AMD."

Skysnake
2012-08-31, 12:00:50
Und?

Das macht die Sache ja eigentlich nur noch schlimmer. Man sieht ja, das es möglich ist. Warum bekommt AMD das also nicht gebacken?

dildo4u
2012-08-31, 12:03:22
Was bekommt AMD nicht gebacken?AMD lässt es zu das kann man bemängeln aber wie die Lösung von AMD aussieht weiss keiner.Zumindest der Treiber wird x mal besser sein wenn eine Lösung direkt von AMD kommt das ist sicher.Was diese Karte angeht dort werden die Kunden direkt von Powercolor über den Tisch gezogen.

RoughNeck
2012-08-31, 12:06:09
Und?

Das macht die Sache ja eigentlich nur noch schlimmer. Man sieht ja, das es möglich ist. Warum bekommt AMD das also nicht gebacken?


AMD hat wohl auf das Nvidia Gegenstück gewartet und dann aufgegeben. Die 690 ist eine sehr Effiziente Karte, AMD hätte die 7990 ganz schön kastrieren müssen um die 300W Grenze einhalten zu können.
Ansich eine Vernünftige Entscheidung, der Kundenkreis solch Karten ist eh sehr klein.

Skysnake
2012-08-31, 12:13:25
Was bekommt AMD nicht gebacken?AMD lässt es zu das kann man bemängeln aber wie die Lösung von AMD aussieht weiss keiner.Zumindest der Treiber wird x mal besser sein wenn eine Lösung direkt von AMD kommt das ist sicher.Was diese Karte angeht dort werden die Kunden direkt von Powercolor über den Tisch gezogen.
Und warum machen Sie es dann nicht? Kann ja nicht sein, das PowerColor etwas schafft, was AMD nicht gebacken bekommt....

Vor allem, warum lässt AMD es zu, wenn es nicht gewollt ist?

AMD hat wohl auf das Nvidia Gegenstück gewartet und dann aufgegeben. Die 690 ist eine sehr Effiziente Karte, AMD hätte die 7990 ganz schön kastrieren müssen um die 300W Grenze einhalten zu können.
Ansich eine Vernünftige Entscheidung, der Kundenkreis solch Karten ist eh sehr klein.
Naja, so schlecht siehen die Verbrauchswerte doch gar nicht aus. Ok, man hat einen verdammt hohen Maximalverbrauch, aber der Peak (Games) sieht doch ganz brauchbar aus.

Vor allem mit angepassten/besseren Treibern sähe die Perf/W auch besser aus. So kannste die Karte doch aber echt in der Pfeife rauchen.

Zergra
2012-08-31, 13:55:07
Und warum machen Sie es dann nicht? Kann ja nicht sein, das PowerColor etwas schafft, was AMD nicht gebacken bekommt....

Vor allem, warum lässt AMD es zu, wenn es nicht gewollt ist?


Naja, so schlecht siehen die Verbrauchswerte doch gar nicht aus. Ok, man hat einen verdammt hohen Maximalverbrauch, aber der Peak (Games) sieht doch ganz brauchbar aus.

Vor allem mit angepassten/besseren Treibern sähe die Perf/W auch besser aus. So kannste die Karte doch aber echt in der Pfeife rauchen.
Weil AMD sich die Entwicklungskosten sparen möchte ? Denn auch die Karte wird wohl kaum Gewinn abwerfen, denn die Entwicklungkosten sind enorm und die Käuferzahl sehr gering. Da kann man ja gleich auf CF umsteigen.


Die Maximallast von der Karte ist geil :D 557Watt oder so

Spasstiger
2012-08-31, 14:20:29
Wenn Crossfire in allen Spielen funktionieren würde, würde die HD 7990 Devil 13 im Schnitt in den Enthusiasten-Auflösungen tatsächlich deutlich vor der GeForce GTX 690 liegen. Die durchschnittliche Leistungsaufnahme liegt imo auch überraschend niedrig, weit unterhalb der GeForce GTX 590.
Die GTX 690 ist die alltagstauglichere Karte, für Triple-Head-Monitor-Setups scheint die HD 7990 Devil 13 aber durchaus eine Überlegung wert zu sein.

Die Maximallast von der Karte ist geil :D 557Watt oder so
Da pfuscht offenbar kein Powertune rein. Der Spieleverbrauch ist mit 264 Watt auf jeden Fall sehr akkzeptabel.

AMD hätte im Referenzdesign bestimmt nicht so eine kompromisslos auf Performance getrimmte Karte gebracht. Aber anders ist gegen die GeForce GTX 690 kein Kraut gewachsen, vielleicht verzichtet AMD deshalb auch auf ein Referenzdesign.

dildo4u
2012-08-31, 14:40:14
Da pfuscht offenbar kein Powertune rein. Der Spieleverbrauch ist mit 264 Watt auf jeden Fall sehr akkzeptabel.

Hängt wohl vom Game ab,paar Games bieten ja jetzt SSAA in den Optionen an dort könnte man die Karte eher auslasten.Sleeping Dog's wäre ein Beispiel ich hoffe die ganzen Reviewer nutzen demnäst das oder Sniper Elite v2.

Blaire
2012-08-31, 17:13:41
Wenn Crossfire in allen Spielen funktionieren würde, würde die HD 7990 Devil 13 im Schnitt in den Enthusiasten-Auflösungen tatsächlich deutlich vor der GeForce GTX 690 liegen.

Rein nach Balken vieleicht, nach Spielbarkeit eher nein.

M4xw0lf
2012-08-31, 17:45:12
Rein nach Balken vieleicht, nach Spielbarkeit eher nein.

Schon Frametimes gesehen?

HarryHirsch
2012-08-31, 17:50:07
ist doch allgemein bekannt das ati mehr micro-ruckelt...

boxleitnerb
2012-08-31, 17:55:45
Ich würde sehr schätzen, wenn die Tester bzgl. CF und SLI endlich mal gründlicher testen. D.h.

Frametimes messen UND (sofern möglich) 2-3 Leute aus der Redaktion zusammenrufen und die kurz mal vor das System setzen. Je nach Zeitaufwand 3-5 Spiele jeweils ein paar Minuten zocken und dann das Spielgefühl bewerten. Entweder in Worten oder der Einfachheit halber mit einem kleinen Wertungssystem. A für super flüssig, B für etwas zuckelig, C für mies. Damit hilft man dem Leser viel viel mehr als mit einer Messung alleine oder einer sehr kurzen und dürftigen Beschreibung wie im Luxx-Test oder gar wenn man gar nichts zu dem Thema schreibt.

dildo4u
2012-08-31, 18:00:13
Schon Frametimes gesehen?
Die Karte wird nicht vom AMD unterstützt und am Treiber hat sich bei CF genau nix getan.AMD hat auch keine Interesesse dran nur Ausreden und Leugnen nicht Jeder sieht's etc.

http://youtu.be/rHBml7qvVow?hd=1&t=1h18m58s

HarryHirsch
2012-08-31, 18:07:47
Die Karte wird nicht vom AMD unterstützt und am Treiber hat sich bei CF genau nix getan.AMD hat auch keine Interesesse dran nur Ausreden und Leugnen nicht Jeder sieht's etc.

http://youtu.be/rHBml7qvVow?hd=1&t=1h18m58s

das ist genau nicht richtig, es gibt seit ner ewigkeit extra profile.

gedi
2012-08-31, 18:21:17
Was ich nicht nachvollziehen kann ist, dass CF unter Cayman noch sehr gut funktioniert hat, GCN aber offensichtlich arge Probleme hat. Architekturbedingt vielleicht?

Blaire
2012-08-31, 18:58:24
Schon Frametimes gesehen?

Nein, stütze mich da auch nur auf Berichte von Usern in verschiedensten Foren oder Websites (Hardocp z.b.) Hier ein weiterer Test der aber schon eine gewisse Tendenz zeigt: http://www.microsofttranslator.com/bv.aspx?from=&to=de&a=http://www.sweclockers.com/recension/15381-geforce-gtx-690-varldens-snabbaste-grafikkort/18
Ich hatte damals selber Crossfire-Systeme und war alles andere als begeistert, das war damals schon kein Vergleich zu SLI was die gefühlten FPS betraf, nur hat sich bisher kaum jemand die Mühe gemacht, das genauer zu untersuchen. Ich würde das auch nicht alles pauschal als Mikroruckler abtun, es war mehr ein Lagging und trotz hoher FPS war es gefühlt stets schlechter als mit Single-GPU. SLI zeigte dieses Verhalten nicht!

Ich vertraue da zuletzt auch eher dem Fraps-Calculator und den damit verbundenen Werten (Stable FPS), zeigt dieses Tool doch genau das an, was man auch Ingame wahrnimmt.
Auch SingleGPUs liefern nicht immer konstant gute Frametimes und zeigen ähnliche Abweichungen wie SLI-Systeme z.b. BF3, Dragon Age2 oder auch Stalker , habe genug Werte aufgezeichnet SingleGPU, 2-Way und 4-Way SLI und kam immer wieder zum gleichen Ergebnis.

Zwei Runden BF3 auf gleichen Server, einmal Single und einmal SLI GTX680... mit SLI spürbar besser spielbar , logisch aufgrund höherer FPS und die Stable-FPS sind auch praktisch identisch zu SingleGPU.
http://www.abload.de/thumb/singlevssli5do6j.png (http://www.abload.de/image.php?img=singlevssli5do6j.png)

Spasstiger
2012-08-31, 21:02:39
Was ich nicht nachvollziehen kann ist, dass CF unter Cayman noch sehr gut funktioniert hat, GCN aber offensichtlich arge Probleme hat. Architekturbedingt vielleicht?
Es hängt eigentlich immer nur von der Spieleauswahl ab. Die Radeon HD 7990 skaliert in den Enthusiasten-Auflösungen fast in allen Testspielen hervorragend gegenüber der HD 7970, besser als die GeForce GTX 690 gegenüber der GTX 680 (bei ähnlichem Turbotakt). Deswegen liegt die Radeon HD 7990 teilweise auch 30% vor der GTX 690.
Mikroruckler bzw. die Spielbarkeit generell steht natürlich auf einem anderen Blatt, wobei bei Frameraten jenseits der 60 fps eigentlich immer ein gutes Spielerlebniss gegeben sein sollte. Die Radeon HD 7990 Devil 13 ist momentan die beste Karte um bei 5760x1080 Pixeln mit AA jenseits der 60 fps zu kommen.

Das Problem an Crossfire ist halt: Entweder es skaliert fast perfekt oder es ist sogar langsamer als Single-GPU. Bei Nvidia hat man so gut wie immer einen Performancebenefit, wenn auch auf dem Papier meist geringer als mit Crossfire.

HarryHirsch
2012-08-31, 21:11:41
auch in nicht optimierten anwendungen (z.b. der bench von coda) skalliert ein cf system fast immer zu 100%.
die haben da ein "default cf profil" das einfach macht was es soll.

Blaire
2012-08-31, 23:02:15
Mikroruckler bzw. die Spielbarkeit generell steht natürlich auf einem anderen Blatt, wobei bei Frameraten jenseits der 60 fps eigentlich immer ein gutes Spielerlebniss gegeben sein sollte. Die Radeon HD 7990 Devil 13 ist momentan die beste Karte um bei 5760x1080 Pixeln mit AA jenseits der 60 fps zu kommen.


Spielbarkeit ist aber das A und O , was nutzen mir 60 theoretische FPS wenn sie sich eher wie 20 anfühlen? Man kann es eben nicht an der Framerate fest machen, die Frametimes müssen auch über einen längeren Zeitraum passen, damit es sich nicht zäh anfühlt, man sollte sich daher nicht von Balkenlängen täuschen lassen, denn diese sind ziemlich nichtssagend beim Vergleich SLI vs. CF welches sich noch verschärft mit der Anzahl der GPUs.

HarryHirsch
2012-08-31, 23:08:42
dafür gibt es mehr als genug framelimiter.
oder halt den einen...

Blaire
2012-09-01, 00:07:37
dafür gibt es mehr als genug framelimiter.
oder halt den einen...

Das ist aber keine Lösung, hilft zudem auch nicht gegen kaputte Profile oder Inputlag. Bei SLI musste ich schon lang keinen mehr nutzen...

HarryHirsch
2012-09-01, 00:10:04
das gerade du den inputlag ansprichst wundert mich schon etwas...
und kaputte profile gibt es nicht nur bei ati, oder doch? :freak:

boxleitnerb
2012-09-01, 18:17:06
Der Framelimiter ist bei manchen Spielen sehr nützlich, aber wenn die Framerate im Spiel stark schwankt, hat man die Wahl zwischen Mikroruckeln und Performanceverlust. Schließlich richtet sich das Limit nach den niedrigsten fps.

Wobei ich zugeben muss, dass ich den Limiter in 1st Person Spielen immer verwende weil er den Inputlag bei VSync wegnimmt. Wer das auch so handhabt, hat diesen Kompromiss dann sowieso.

Saugbär
2012-09-02, 03:19:27
Ein weiterer Test auf Hardwareluxx.
Auch diemal nur durchwachsene Ergebnisse
http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/23591-test-powercolor-devil-13-hd7990.html

boxleitnerb
2012-09-25, 12:16:35
PCGH:
http://www.pcgameshardware.de/AMD-Radeon-Hardware-255597/Tests/Test-Powercolor-Radeon-HD-7990-Devil-13-1026268/

Und endlich traut sich mal ein Redakteur, die Performance nicht nur stur mit fps zu messen, sondern auch ein subjektives Urteil bzgl. der Mikroruckler anzugeben. Dafür ein ganz dickes Lob, Raff! Neben HardOCP seid ihr damit weltweit die einzigen, die das durchgehend in allen gebenchten Spielen machen. Ich hoffe, das wird auch fortgeführt in allen zukünftigen MGPU-Tests :)

tam tam
2012-09-25, 12:40:55
Spielbarkeit ist aber das A und O , was nutzen mir 60 theoretische FPS wenn sie sich eher wie 20 anfühlen? Man kann es eben nicht an der Framerate fest machen, die Frametimes müssen auch über einen längeren Zeitraum passen, damit es sich nicht zäh anfühlt, man sollte sich daher nicht von Balkenlängen täuschen lassen, denn diese sind ziemlich nichtssagend beim Vergleich SLI vs. CF welches sich noch verschärft mit der Anzahl der GPUs.


Ich hatte bis vor kurzem selber ein CF-System. Abhilfe haben einerseits Bandicam(FPS auf 30-40 begrenzen, arbeitet auch gut mit D3DOverrider zusammen) und dann auch Ati Tray Tool(Flip Queue Size auf "0" setzen, welches sogar noch einen Performance-Schub von bis zu 25% verursacht) geschaffen. Von viel propagierten Microrucklern weit und breit nix zu sehen. Und eine Erfahrung hab ich da auch noch gemacht. Es ist vollkommen egal, ob Profile mit CF-Support für spez. Games existieren, denn solange der Hersteller CF nicht supportet, funzt es auch nicht. Demzufolge kann man auch dann auf die CAPs verzichten, wenn dann irgendwann CF unterstützt wird(Außnahme das erzwungene AA).

boxleitnerb
2012-09-25, 12:46:56
Nun wie gesagt - mit fps-Limiter sind schon klare Einbußen verbunden.

Beispiel Skyrim:
Außen bei viel Vegetation (mit SGSSAA) um die 40fps. Anderswo oder innen 60+fps. Begrenzt man nun auf 40fps, verschenkt man oft satte 20fps bzw. 33% der Leistung (wenn man mit VSync spielt). Das kann auch nicht der Sinn der Sache sein.

Blaire
2012-09-26, 17:26:20
PCGH:
http://www.pcgameshardware.de/AMD-Radeon-Hardware-255597/Tests/Test-Powercolor-Radeon-HD-7990-Devil-13-1026268/

Und endlich traut sich mal ein Redakteur, die Performance nicht nur stur mit fps zu messen, sondern auch ein subjektives Urteil bzgl. der Mikroruckler anzugeben. Dafür ein ganz dickes Lob, Raff! Neben HardOCP seid ihr damit weltweit die einzigen, die das durchgehend in allen gebenchten Spielen machen. Ich hoffe, das wird auch fortgeführt in allen zukünftigen MGPU-Tests :)

Man könnte die theoretischen Werte noch mit den maximal spielbaren Settings ersetzen oder wenigstens separat mit angeben (ist natürlich mit mehr Arbeit verbunden...)

aufkrawall
2012-09-26, 17:57:34
Bei Skyrim hätte mal Vsync@60Hz interessiert.
Bei der fps-Rate gibt es eigentlich keinen Grund, das nicht zu nutzen.

Langenscheiss
2012-09-26, 17:59:20
@Dildo
Nichts anderes habe ich von AMD erwartet. "a difficult thing to capture" - Da brauch ich nur Frametimes. Subjektivität gibt es immer, aber objektive Daten wie Frametimes lügen nicht, und reflektieren wohl auch das Mittel der subjektiven Wahrnehmung. Es gibt auch Leute, die kein Problem mit schlechten Texturfiltern haben. Das ist kein Argument. Insofern ja, da müssen die sich nicht wundern, wenn deren MGPU-Sparte gegen Nvidia abstinkt.

@Raff
Schön, dass ihr das direkt im Balken-Diagramm mit dem Mikroruckeln erwähnt, aber ein mittleres "Delta_FPS" einer Frametimekurve wäre mir lieber. Hersteller reagieren nur auf Balken, nicht auf subjektive Einschätzungen, siehe Interview, das von dildo gepostet wurde.

Blediator16
2012-09-26, 18:21:52
@Dildo
Nichts anderes habe ich von AMD erwartet. "a difficult thing to capture" - Da brauch ich nur Frametimes. Subjektivität gibt es immer, aber objektive Daten wie Frametimes lügen nicht, und reflektieren wohl auch das Mittel der subjektiven Wahrnehmung. Es gibt auch Leute, die kein Problem mit schlechten Texturfiltern haben. Das ist kein Argument. Insofern ja, da müssen die sich nicht wundern, wenn deren MGPU-Sparte gegen Nvidia abstinkt.

@Raff
Schön, dass ihr das direkt im Balken-Diagramm mit dem Mikroruckeln erwähnt, aber ein mittleres "Delta_FPS" einer Frametimekurve wäre mir lieber. Hersteller reagieren nur auf Balken, nicht auf subjektive Einschätzungen, siehe Interview, dass von dildo gepostet wurde.

Ob man da von MGPU Sparte reden kann ist natürlich fraglich^^

Blaire
2012-09-26, 18:58:08
@Raff
Schön, dass ihr das direkt im Balken-Diagramm mit dem Mikroruckeln erwähnt, aber ein mittleres "Delta_FPS" einer Frametimekurve wäre mir lieber. Hersteller reagieren nur auf Balken, nicht auf subjektive Einschätzungen, siehe Interview, das von dildo gepostet wurde.

Du kannst auch bei guten Frametimes ein Lag haben, damals als ich noch Crossfire besaß, half nichtmal ein FPS-Limiter um die Trägheit verschwinden zu lassen. Auch bringen kurze Messungen garnichts, man sollte über einen längeren Zeitraum vergleichen und dabei spielbare Settings verwenden! Das ist schließlich worauf es ankommt, was ist maximal spielbar (ohne Hilfsmittel!) bei Multi-GPU und nicht etwa theoretische Settings.

Langenscheiss
2012-09-26, 20:14:21
Du kannst auch bei guten Frametimes ein Lag haben, damals als ich noch Crossfire besaß, half nichtmal ein FPS-Limiter um die Trägheit verschwinden zu lassen. Auch bringen kurze Messungen garnichts, man sollte über einen längeren Zeitraum vergleichen und dabei spielbare Settings verwenden! Das ist schließlich worauf es ankommt, was ist maximal spielbar (ohne Hilfsmittel!) bei Multi-GPU und nicht etwa theoretische Settings.
Es spricht nichts gegen eine Kombination aller Meßmöglichkeiten.

Blaire
2012-09-26, 20:31:26
Es spricht nichts gegen eine Kombination aller Meßmöglichkeiten.

Ja ist ein schwieriges Thema, da es von vielen Faktoren abhängig ist.
Auch die Profile können Einfluss auf die gefühlten FPS nehmen, dann dieses Lag was ich meinte, wie will man sowas messen? Hardocp macht das schon ganz gut, testet nach subjektiven Maßstäben, was ist maximal spielbar und was nicht. So in der Art meinte ich das.

tam tam
2012-09-27, 09:57:44
Nun wie gesagt - mit fps-Limiter sind schon klare Einbußen verbunden.

Beispiel Skyrim:
Außen bei viel Vegetation (mit SGSSAA) um die 40fps. Anderswo oder innen 60+fps. Begrenzt man nun auf 40fps, verschenkt man oft satte 20fps bzw. 33% der Leistung (wenn man mit VSync spielt). Das kann auch nicht der Sinn der Sache sein.


Nach meiner Beobachtung eben nicht. Nur weil ein solches Programm die FPS auf 40 begrenzt heißt es nicht, daß es deswegen nicht flüssig spielbar ist. Es passiert im Grunde genommen ja nix anderes, als daß dabei Deine max. FPS zwanghaft auf konstant 40 gehalten wird. Und da bricht die auch nicht nach unten weg, solang sie das auch nicht ohne diese Begrenzung täte. Man hat jetzt aber dadurch ein viel ruhigeres und spürbar flüssigeres Bild also ohne einen solchen Begrenzer, wo aus irgendwelchen Gründen die Engine mit schwankenden FPS je nach Umfeld und Situation nicht gut umgehen kann, bzw. diese zu kompensieren vermag, was dann sich wie diese berüchtigten CF-Microruckler anfühlt. Und Bandicam ist eben ein solches Tool, was unbeabsichtigterweise dagegensteuert, ob mit CF oder ohne(z.B. findet es besonders bei SWTOR seine Anwendung).

boxleitnerb
2012-10-08, 09:36:11
Ich merke sehr wohl einen Unterschied zwischen 60fps und limitierten 40fps, und zwar bei der Steuerung. Der Bewegungsablauf ist flüssig auch bei 40fps, aber es fühlt sich vom Input her klar träger an als 60 oder mehr fps.

y33H@
2012-10-08, 10:05:04
Gestern bei Borderlands 2 wieder gemerkt - das lässt sich auf 50 oder zB auf 72 Fps locken, letzteres ist trotz 60-Hz-LCD deutlich flüssiger vom Input her (ist halt UE3).

boxleitnerb
2012-10-08, 10:12:34
Ja das macht die Sache noch komplizierter. Aus welchen Gründen auch immer, ein fps-Limit verringert drastisch den Inputlag. Kommt aber imo nicht an höhere fps (evtl. auch + Limit) dran.

Also 40fps capped < 60fps < 60fps capped. Jedenfalls meiner Erfahrung nach.

y33H@
2012-10-08, 10:22:06
Per Limit hast du weniger Schwankungen bzw die Bandbreite der Schwankungen ist geringer - was natürlich den Input angenehmer macht.

boxleitnerb
2012-10-08, 10:39:29
Das auch, aber ich hab schon festgestellt, dass dieser Effekt auch eintritt, wenn die fps dieselben sind. Also z.B. bei einer kurzen Drehung, ich meine nicht den Durchschnitt, sondern schon die einzelnen Werte jede Sekunde.

Iruwen
2012-10-08, 14:24:59
Bei Guild Wars 2 fällt das auch extrem auf, fühlt sich bei 40FPS an wie Mikroruckler. Aber bei der Engine ist eh einiges komisch.

Effe
2012-10-22, 12:22:45
Sehr detailierter Artikel über die 7000er DualGPUs: http://www.tomshardware.de/Fastest-VGA-Card-2012,testberichte-241127.html
Auch die Lösung von HIS ist "weltexklusiv" dabei, sowie zum Vergleich die Geforce 690.
Fazit: Leistung satt und es gibt Hoffnung für X-Fire in Bezug auf Mikroruckler.

P.S: Es wurde mit dem neuen Catalyst 12.11. gebencht.

boxleitnerb
2012-10-22, 12:27:19
Dass man mit einem Framelimiter (fast) keine MR mehr hat, ist jetzt nicht wirklich was Neues.

dildo4u
2013-01-09, 15:36:10
Ares 2 mit Wakü für 1500$

http://www.pcgameshardware.de/Grafikkarten-Hardware-97980/News/CES-Asus-Ares-2-und-Raidr-1043077/

aufkrawall
2013-01-09, 15:49:29
Dass man mit einem Framelimiter (fast) keine MR mehr hat, ist jetzt nicht wirklich was Neues.
Was die zu Vsync schreiben bzw. was die/das Tool so nennen, lässt mich innerlich aufstöhnen.

samm
2013-01-09, 15:55:41
Was die zu Vsync schreiben bzw. was die/das Tool so nennen, lässt mich innerlich aufstöhnen.fixed it ;) Das Tool nennt es schon richtig, THG hat mal wieder (inkl. Diagrammbeschriftungen) ins Klo gegriffen - das ist wohl DFC (framerate-target, quasi ein Limiter der zusätzlich frames gleichmässig verteilt (?)) was auch eine schöne Funktion von RadeonPro ist.

boxleitnerb
2013-01-09, 18:24:44
Warum heißt das eigentlich "dynamic" frame rate? Es ist soweit ich weiß wie alle anderen Limiter fix, sprich Wert einstellen und der gilt dann bis man ihn ändert. Dynamic wäre mMn, wenn sich der Wert mit den fps anpasst.

aufkrawall
2013-01-09, 18:25:41
Das mein ich ja.

M4xw0lf
2013-01-09, 18:41:09
Ich meine, man kann das Frametarget on the fly ändern. Das ist dann das dynamic in "dynamic framerate control" ^^

boxleitnerb
2013-01-09, 18:45:20
Das geht mit jedem anderen Limiter auch. Toll wäre allerdings ein Hotkey, der das Limit um 1 erhöht oder senkt (oder an- und ausschaltet) und das auch im OSD anzeigt. Dann muss man nicht aus dem Spiel raus mit Alt-Tab, vertragen ja nicht alle.

samm
2013-01-09, 19:29:09
boxleitnerb, genau das funktioniert: DFC feature's frame rate target is adjustable in real time, press SHIFT+INSERT to increase the limit and SHIFT+DELETE to decrease it

Als reiner Limiter macht die "lock to refresh rate"-Funktion noch mehr Sinn, rein von der Beschreibung her würde damit Lag weiter verringert, würd ich mal deuten:
limits internal frame rendering times accordingly to refresh rate (i.e. 60 Hz = 16.67 ms) instead of waiting vertical retrace.Müsste man mal gezielt messen... Hat jemand eine Idee, wie sowas feststellbar wäre?

OK, ist in dem Thread hier eigentlich off-topic, weil's ja um diese überflüssige Krücke "7990" geht.

M4xw0lf
2013-01-09, 20:10:44
Das geht mit jedem anderen Limiter auch. Toll wäre allerdings ein Hotkey, der das Limit um 1 erhöht oder senkt (oder an- und ausschaltet) und das auch im OSD anzeigt. Dann muss man nicht aus dem Spiel raus mit Alt-Tab, vertragen ja nicht alle.
Das mein ich ja mit on the fly :wink:

fondness
2013-01-09, 21:41:12
Als reiner Limiter macht die "lock to refresh rate"-Funktion noch mehr Sinn, rein von der Beschreibung her würde damit Lag weiter verringert, würd ich mal deuten:
Müsste man mal gezielt messen... Hat jemand eine Idee, wie sowas feststellbar wäre?


Ja das funktioniert zumindest bei CF sehr gut um µR zu eliminieren.

Blaire
2013-01-10, 19:00:37
Ja das funktioniert zumindest bei CF sehr gut um µR zu eliminieren.

Glätten ja, eliminieren nein... und das auch nur dann, wenn die nötigen Voraussetzungen gegeben sind. Crossfire ist ziemlich steinzeitlich, man kann nur mit Tools bzw. auf Kosten von FPS spielbare Ergebnisse erzielen, während SLI "Out of the Box" deutlich besser funktioniert und besseres Gaming ermöglicht.

Raff
2013-01-10, 19:02:15
Über das "deutlich" ließe sich streiten, aber ich mag grad nicht. :D

MfG,
Raff

fondness
2013-01-10, 19:07:15
Glätten ja, eliminieren nein... und das auch nur dann, wenn die nötigen Voraussetzungen gegeben sind. Crossfire ist ziemlich steinzeitlich, man kann nur mit Tools bzw. auf Kosten von FPS spielbare Ergebnisse erzielen, während SLI "Out of the Box" deutlich besser funktioniert und besseres Gaming ermöglicht.

Wenn du meinst. Mein Cousin spielt schon ziemlich lange mit Crossfire und hat dank RadeonPro keine µRuckler mehr und ist zufrieden. Die Profile sind mittlerweile gut und werden zeitnah für neue Spiele released, jede Woche gibt es neue Profile. Mir wäre das allerdings auch zu viel gefrickel.

aufkrawall
2013-01-10, 19:09:41
Wo gibts die denn?
Gibts jede Woche neue CAPs oder wie werden die aktualisiert?

fondness
2013-01-10, 19:14:29
Wo gibts die denn?
Gibts jede Woche neue CAPs oder wie werden die aktualisiert?

Meist gibt es pro Monat vier CAPs, wobei das mittlerweile auch nicht mehr immer zutriffft. Seit den Beta Cat. 12.11 scheint das nicht mehr so streng zu sein, dafür würde halt der Treiber mehrmals upgedatet.

Blaire
2013-01-10, 19:31:05
Über das "deutlich" ließe sich streiten, aber ich mag grad nicht. :D

SLI unterstützt deutlich mehr Games "Out of the Box"... ;)
Wenn ich bei SLI bereits mit 40fps smooth zocken kann, bei CF nichtmal 60fps ausreichen , wie würdest du das nennen? Spielbarkeit ist wichtiger, gerade hier hat SLI klare Vorteile. Metro2033 wie in euren Test bei 37fps... ist davon z.b. weit entfernt. Die Russenshooter (wie auch S.t.a.l.k.e.r etc.) fangen erst bei 50fps aufwärts Spass zu machen, sich vom "Schwamm" zu lösen. Will damit nur ausdrücken, testet mehr nach Spielbarkeit, die Balken kann man doch schon jetzt nicht mehr gescheit vergleichen.

aufkrawall
2013-01-10, 19:31:34
Meist gibt es pro Monat vier CAPs, wobei das mittlerweile auch nicht mehr immer zutriffft. Seit den Beta Cat. 12.11 scheint das nicht mehr so streng zu sein, dafür würde halt der Treiber mehrmals upgedatet.
Aha.
Gut, häufige Updates sind was feines. Hoffentlich kommt das mal wieder in Gang.
Sieht momentan ein bisschen nach toter Hose aus.

Iruwen
2013-01-11, 11:28:53
SLI unterstützt deutlich mehr Games "Out of the Box"... ;)

Also es gibt schon ziemlich regelmäßig Gemecker, bei GW2, BF3, FC3 (zugegeben, da wurde recht schnell ein neues Profil nachgeschoben, das war aber auch nicht optimal iirc). Ob der Unterschied ohne Bit-Gefrickel wirklich "deutlich" ist müsste mal jemand auswerten.

Blaire
2013-01-11, 18:38:35
Also es gibt schon ziemlich regelmäßig Gemecker, bei GW2, BF3, FC3 (zugegeben, da wurde recht schnell ein neues Profil nachgeschoben, das war aber auch nicht optimal iirc). Ob der Unterschied ohne Bit-Gefrickel wirklich "deutlich" ist müsste mal jemand auswerten.

Wer macht sich schon die Mühe? Das kannst du nur selbst herausfinden. Lange Balken sagen nichts über gute Spielbarkeit aus, aber wer bitte achtet darauf? Hardocp, Techreport zuletzt etwas mehr... aber sonst wird doch alles nur runtergebencht, Balken gezaubert usw.
Perfekt ist SLI auch nicht, das braucht man nicht zu verschweigen. Farcry3 ist in der Tat nicht optimal, man braucht deutlich mehr FPS als mit Single-GPU, das sollte nicht sein. Da werden aber noch Optimierungen folgen.
BF3 lief eigentlich vom Release an problemlos mit SLI. GW2 kann ich nicht beurteilen, obwohl da auch wieder die CPU wichtiger wird, wie ich hörte...
Wenn man sich die meisten Problemberichte mal durchliest, zeigt es eigentlich nur, das viele Leute nicht wissen , das eine starke CPU mindestens genau so wichtig ist, um SLI/CF nicht verhungern zu lassen oder mit den Bildqualitäts-Features nichts anzufangen wissen und dann trotzdem meinen zweite Karte rein und immer doppelte Performance ...und dann geht das Gemeckere los...

HarryHirsch
2013-01-11, 19:02:15
keine ahnung wann du crossfire das letzte mal getestet hast, aber inzwischen kann man, dank radeon pro, auch profile auswählen.
und das default profil scheint öfter zu greifen als bei sli wo unbekannte sachen 0 skalierung haben.

Blaire
2013-01-11, 20:52:30
Profile auswählen... Das nutzt dir aber nichts, wenn du nicht an die eigentlichen Bits rankommst, diese nicht frei kombinieren kannst, ebenso wenig die Möglichkeit hast, appspezifische Optimierungen einer beliebigen Application zuzuordnen.
Wenn du 3-Way oder 4-Way AFR vernünftig skalieren sehen willst, ist das aber Grundvoraussetzung, ansonsten wartest du im schlimmsten Fall Monate auf einen Treiber-Fix.
Du kannst SLI auch Global AFR 1,2 etc. zuordnen, das klappt schon seit Jahren... für Games die kein Profil besitzen.

Kriton
2013-01-11, 21:10:18
Deine 4 Nvidias in allen Ehren, die meisten werden vermutlich eher 2 Grafikkarten nutzen, oder?

Blaire
2013-01-11, 21:30:54
Deine 4 Nvidias in allen Ehren, die meisten werden vermutlich eher 2 Grafikkarten nutzen, oder?

Ich will doch niemanden anstiften, selbiges zu tun. :wink: 4-Way SLI ist eher experimentell, würde ich nur Bastlern empfehlen, 2-Way und 3-Way SLI ist da problemloser, wird besser unterstützt.

Godmode
2013-01-11, 21:40:00
Deine 4 Nvidias in allen Ehren, die meisten werden vermutlich eher 2 Grafikkarten nutzen, oder?

Die Leute kann man selbst hier im Forum an zwei Händen abzählen, aber lustig ist so ein 4-Way-Gespann schon. Warte nur mehr auf GK110, dann gibts wieder 4 neue ;)

Kriton
2013-01-12, 16:43:44
Ich beziehe mich natürlich auf den vorherigen Post:

Wenn du 3-Way oder 4-Way AFR vernünftig skalieren sehen willst, ist das aber Grundvoraussetzung, ansonsten wartest du im schlimmsten Fall Monate auf einen Treiber-Fix.
Du kannst SLI auch Global AFR 1,2 etc. zuordnen, das klappt schon seit Jahren... für Games die kein Profil besitzen.

Für den "normalen" Anwender reicht also ein Vergleich von Crossfire und SLI mit 2 Grafikkarten. Also schön wenn SLI besser bei 3-4 Karten ist und (je nach Anwender ein Pluspunkt) aber für die generelle Frage der aktuellen Nutzbarkeit spielt das praktisch keine Rolle.

M4xw0lf
2013-01-12, 17:49:54
Eine Frage am Rande: was haben die episch breiten Ausführungen über die Vorzüge von SLI eigentlich im HD7990-(P)Review-Thread verloren?...

Effe
2013-01-28, 23:59:04
Bei Hardwareluxx: Exklusiv im Test: ASUS Ares II im CrossFire (http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/25248-exklusiv-im-test-asus-ares-ii-im-crossfire.html)

Die schnellste, durstigste und teuerste Karte der Welt. Mal zwei.
Schade, daß fast nur auf die Leistung eingegangen wurde. Mich hätte die Spielbarkeit, bezüglich Frametimes, Mikroruckler etc interessiert.

Godmode
2013-01-29, 00:16:57
Bei Hardwareluxx: Exklusiv im Test: ASUS Ares II im CrossFire (http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/25248-exklusiv-im-test-asus-ares-ii-im-crossfire.html)

Die schnellste, durstigste und teuerste Karte der Welt. Mal zwei.
Schade, daß fast nur auf die Leistung eingegangen wurde. Mich hätte die Spielbarkeit, bezüglich Frametimes, Mikroruckler etc interessiert.

Da hast du recht, Frametimes, etc wäre interessant gewesen und auch SGSSAA Benches fehlen komplett.

Es geht aber nichts über 4 Karten im System! ;D

Also die Ares 2 hat irgendwie Style.

Iruwen
2013-01-29, 12:20:10
Find ich auch, geiles Teil :D Das ist einfach so 'ne "Warum? Wie warum? Weils geht, verdammt!" Karte. Der Bugatti Veyron unter den Grafikkarten.

Spasstiger
2013-01-29, 14:20:16
In den fordernden Settings rund 20% schneller als die GTX 690, ich glaube von einer offiziellen Dual-GK110-Karte - sofern eine kommt - werden wir auch nicht mehr Performance erwarten können.

(del676)
2013-01-29, 14:25:51
Also fuer diesen stolzen Preis haette ich mir mehr erwartet. Wie z.b. einen anstaendigen Radiator! Was bringts denn, wenn die eine Karte gleich laut ist wie ein stinknormales GTX680 SLI System.
IMHO - FAIL!

boxleitnerb
2013-01-29, 14:28:14
In den fordernden Settings rund 20% schneller als die GTX 690, ich glaube von einer offiziellen Dual-GK110-Karte - sofern eine kommt - werden wir auch nicht mehr Performance erwarten können.

Glaub ich nicht. Schau mal 560 Ti SLI vs die 590 an. Letztere ist nochmal ein gutes Stück flotter, besonders eben in den fordernden Settings. Nichts anderes würde ich von einer GK110-Dual erwarten - die es aber mMn nicht geben wird.

Spasstiger
2013-01-29, 14:29:39
Also fuer diesen stolzen Preis haette ich mir mehr erwartet. Wie z.b. einen anstaendigen Radiator! Was bringts denn, wenn die eine Karte gleich laut ist wie ein stinknormales GTX680 SLI System.
IMHO - FAIL!
Ist schneller als ein GTX-680-SLI-System und braucht weniger Platz. Und wie man an den Temperaturen sieht, ist das Kühlsystem völlig ausreichend dimensioniert, da ist noch Spielraum für einen leiseren Betrieb.

Glaub ich nicht. Schau mal 560 Ti SLI vs die 590 an. Letztere ist nochmal ein gutes Stück flotter, besonders eben in den fordernden Settings. Nichts anderes würde ich von einer GK110-Dual erwarten - die es aber mMn nicht geben wird.
Dual-GK110 hätte keine 525 Watt TDP, sondern maximal 450 Watt. Deshalb würde ich da auch mit deutlich reduzierten Taktraten gegenüber Single-GPU rechnen. Und die GeForce Titan schätze ich persönlich auf 40% schneller als die GTX 680, maximal 50%. Der Vorteil von einer Dual-GK110-Karte gegenüber einer GTX 690 wäre dann schon deutlich geringer und die Ares II bringt es wie gesagt auch schon auf 20% Vorteil.
P.S.: Ich rechne auch nicht mit einer offiziellen Dual-GK110-Karte, sondern höchstens einer neuen Asus Mars. Die dürfte dann auch wieder auf den Putz hauen und die Ares II verdrängen. Die Ares II zeigt allerdings, welcher Chip im Moment High-End definiert.

boxleitnerb
2013-01-29, 14:40:41
Dual-GK110 hätte keine 525 Watt TDP, sondern maximal 450 Watt. Deshalb würde ich da auch mit deutlich reduzierten Taktraten gegenüber Single-GPU rechnen. Und die GeForce Titan schätze ich persönlich auf 40% schneller als die GTX 680, maximal 50%. Der Vorteil von einer Dual-GK110-Karte gegenüber einer GTX 690 wäre dann schon deutlich geringer und die Ares II bringt es wie gesagt auch schon auf 20% Vorteil.

Erstens kennst du die TDP so einer Karte gar nicht, oder verrätst du mir auch die Lottozahlen?
Zweitens ging ich schon von reduzierten Taktraten aus, sonst hätte ich 580 SLI und nicht die 590 herangezogen, die schon reduzierte Taktraten besitzt.
Drittens ist zwischen 365W (GTX590) und deinen angenommenen 450W auch noch "etwas" Luft, was die Karte statt 60% eher 70-75% schneller als Titan machen würde. Damit wäre sie klar schneller als die 690 oder die Ares 2 - eben auf Kosten der Leistungsaufnahme. Die 690 ist ja unschlagbar effizient.
Abgesehen davon: TDP != Verbrauch.

Spasstiger
2013-01-29, 15:02:29
Du meinst, das SLI mit GK110 besser skaliert als mit GK104 oder wie soll ich dich verstehen? Ich fand meine Ausführungen eigentlich schlüssig.
Eine Dual-GK110-Karte würde einfach wegen der hohen Leistungsaufnahme deutlich stärker gegenüber zwei "Titan" beschnitten sein als die GTX 690 gegenüber zwei GTX 680.
Somit wird aus 40% Vorteil von GK110 gegenüber GK104 im Single-GPU-Bereich nur noch ein Vorteil von vielleicht 20% im Dual-GPU-Bereich. Und das ist genau der Vorteil, den die Ares II gegenüber der GTX 690 bei fordernden Settings hat.

Eine neue Asus Mars würde allerdings den Single-GPU-Vorteil von GK110 auch ins Dual-GPU-Segment transferieren und somit die Ares II klar schlagen können.

Im Moment ist die Ares II das Maß der Dinge, mehr gibt es serienmäßig nicht.

boxleitnerb
2013-01-29, 15:07:44
Nein, du hast meinen Post irgendwie gar nicht verstanden. Ganz simpel:

Titan > 7970 GHz
Dual-Titan > Dual 7970 GHz

Selbe Voraussetzungen natürlich, nicht Ares vs. "Standard" Dual-GPU bei einer vergleichsweise niedrigen TDP, sondern eben Ares vs Mars.

(del676)
2013-01-29, 15:22:05
Ist schneller als ein GTX-680-SLI-System und braucht weniger Platz. Und wie man an den Temperaturen sieht, ist das Kühlsystem völlig ausreichend dimensioniert, da ist noch Spielraum für einen leiseren Betrieb.

Dann lass es mich anders formulieren, dass auch der Blindeste nix positives mehr erkennen kann.
Eine Powercolor Devil13 ist leiser(!!!), 500 Euro billiger und zirka 1-4% langsamer.

Total FAIL!

Effe
2013-01-29, 17:40:14
Hier noch ein eine Youtube-Review: http://www.youtube.com/watch?v=aRy0cM2rLeE

Da kann man die Mickroruckler erahnen.

Spasstiger
2013-01-29, 19:34:32
Eine Powercolor Devil13 ist leiser(!!!), 500 Euro billiger und zirka 1-4% langsamer.
Der Performanceunterschied ist wesentlich größer, wenn man die Ares II auch fordert: http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/25248-exklusiv-im-test-asus-ares-ii-im-crossfire.html?start=17.
In den einzelnen Spielen 7%, 15%, 24%, 61%, 81% 54% und 22% schneller als zwei Radeon HD 7970 im Crossfire.
Die PowerColor Devil13 ist bei vergleichbarer Auflösung dagegen nur 2-5% schneller als zwei HD 7970: http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/23591-test-powercolor-devil-13-hd7990.html?start=17.

Man kauft sich keine 1400€-Grafikkarte für eine popelige FullHD-Auflösung mit 4xMSAA.

boxleitnerb
2013-01-29, 19:51:34
Das ist aber Quatsch. Die Ares II hat knapp 20% mehr Rechenleistung und 20% mehr Bandbreite als ein 7970 CF. Da können diese Werte überhaupt nicht herauskommen, 20% ist das Maximum. Da haben die Tester Mist gebaut.
Du hast dich wohl verguckt - die haben auch zwei (2) Ares II im CF getestet, also vier (4) GPUs.

gedi
2013-01-29, 19:58:13
Das ist aber Quatsch. Die Ares II hat knapp 20% mehr Rechenleistung und 20% mehr Bandbreite als ein 7970 CF. Da können diese Werte überhaupt nicht herauskommen, 20% ist das Maximum. Da haben die Tester Mist gebaut.
Du hast dich wohl verguckt - die haben auch zwei (2) Ares II im CF getestet, also vier (4) GPUs.

Er ist schon im recht - wenn man davon absieht, dass 2 verschiedene Treiberversionen (12.3<->12.11) zum Einsatz kamen :wink:

boxleitnerb
2013-01-29, 19:58:43
Er ist schon im recht - wenn man davon absieht, dass 2 verschiedene Treiberversionen (12.3<->12.11) zum Einsatz kamen :wink:

Wo steht das?

gedi
2013-01-29, 20:10:28
Sorry - für die Powercolor gilt 12.8 (http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/23591-test-powercolor-devil-13-hd7990.html?start=5)

Bis vor kurzem testeten sie noch immer mit 12.3...

boxleitnerb
2013-01-29, 20:14:35
Ich gehe eigentlich davon aus, dass sie nur mit den Treibern testen, die dort stehen. Ergebnisse mit alten Treibern wiederverwenden würde gar nicht gehen.

gedi
2013-01-29, 20:32:43
ist aber leider so.

(del676)
2013-01-29, 22:56:29
Wie schon oben erwaehnt, da hast du dich verguckt Spasstiger.
Die Ares2 hat 18.9% mehr Pixelfuellrate und 20% mehr Bandbreite. Das ist also auch der maximale Vorsprung, den sie theoretisch erreichen kann, aber in der Praxis so gut wie nie erreichen wird.

Spasstiger
2013-01-29, 23:17:01
Ich hab mich nicht verguckt, hier zwei Beispiele:
http://www.abload.de/img/crysis2-7pwpux.jpg
http://www.abload.de/img/skyrim7qbpnt.jpg
Die Ares II hat doppelt soviel Speicher wie die Powercolor Devil13 oder zwei HD 7970. Die Treiberversion ist im Test der Ares II laut Hardwareluxx bei allen Radeon-Karten der Catalyst 12.11.

Bei Crysis 2 kann man aber zumindest ein Crossfire-Skalierungsproblem bei den zwei HD 7970 sehen, welches bei der Ares II nicht auftritt. Bei Skyrim dagegen skalieren die zwei 7970 relativ gut und trotzdem liegt die Ares II noch satt in Front.

(del676)
2013-01-29, 23:23:07
Sorry, aber bullshit.
die Ares2 hat 2x 3GB. Genauso wie die Devil13 oder 2 7970. :rolleyes:

Spasstiger
2013-01-29, 23:27:03
Hm, ok, hatte vom Durchlesen des Textes noch was von 12 GiB GDDR5-RAM in Erinnerung, aber das war auf den Crossfire-Betrieb bezogen. Bei den Benchmarks hab ich mich aber definitiv nicht verguckt wie die Bilder oben beweisen.

gedi
2013-01-30, 00:03:17
mit welchem Treiber wurden denn die 2 7970er getestet:rolleyes:?

boxleitnerb
2013-01-30, 06:32:55
12.8 oder älter.
Wie gesagt, ich hab die Ergebnisse mit früheren Reviews verglichen - die wurden übernommen. Die Treiber sind NICHT für alle getesteten Karten gleich. Höchstwahrscheinlich ist die Ares die einzige Karte, die in den Genuss des 12.11 kam. Da kann Spasstiger aber nix für, das ist nur HWL zuzuschreiben. Deren Tests werde ich in Zukunft meiden, wenn man so irregeführt wird.

Spasstiger
2013-01-30, 09:08:49
Ich hab mittlerweile auch festgestellt, dass die HD-7970-Crossfire-Ergebnisse noch aus dem ersten Test vom März 2012 stammen und mit dem Catalyst 12.3 gewonnen wurden. /EDIT: Die Eyefinity-Egebnisse kommen möglicherweise auch vom Catalyst 12.8.
Da hat der Redakteur bei Hardwareluxx wirklich geschlampt.
Ist aber faszinierend, was sich im Crossfire-Bereich bzw. den Radeons generell treibertechnisch im letzten Jahr getan hat, wenn das überragende Abschneiden der Ares II zum Großteil auf die Treiber zurückzuführen ist.
Für weitere Aussagen muss man einen Test mit aktuelleren Treibern abwarten, ich hoffe auf die PCGH. Wundert mich ohnehin, dass Hardwareluxx von so einer limitierten Auflage (1000 Stück) gleich 2 Karten erhalten hat.

Skysnake
2013-01-30, 11:34:18
Naja, die werden Sie eben weiterreichen müssen, und das Luxx ist durchaus bekannt für Leute, die das Geld auch verbrennen würden.. :rolleyes:

Die Karten werden aber schön die Runde machen.

Raff
2013-01-30, 13:24:18
Für weitere Aussagen muss man einen Test mit aktuelleren Treibern abwarten, ich hoffe auf die PCGH. Wundert mich ohnehin, dass Hardwareluxx von so einer limitierten Auflage (1000 Stück) gleich 2 Karten erhalten hat.

PCGH wundert sich vermutlich auch. ;) Aber: stay tuned (https://www.facebook.com/photo.php?fbid=472336112830063&set=a.132691950127816.25074.116984275031917&type=1&theater).

MfG,
Raff

Screemer
2013-01-30, 15:19:49
als ich den preis der karte las, musste ich erst mal schallend loslachen. der wahnsinn.

M4xw0lf
2013-01-30, 15:33:40
PCGH wundert sich vermutlich auch. ;) Aber: stay tuned (https://www.facebook.com/photo.php?fbid=472336112830063&set=a.132691950127816.25074.116984275031917&type=1&theater).

MfG,
Raff

Bäh, Fratzenbuch... postet das lieber auf PCGH :)

Raff
2013-01-31, 17:13:57
Vorgeschmack: Dual GPU Monster Asus Ares 2: Unboxing, Hands on Review [PCGH] (http://www.youtube.com/watch?v=Rn8sPEqq0XE)

MfG,
Raff

Iruwen
2013-01-31, 17:22:01
Fett. Also die Karte, nicht du :D

M4xw0lf
2013-01-31, 20:10:39
Netter Move mit dem zweiten Karton :D

Wildfoot
2013-01-31, 21:38:56
Es gab mal eine Zeit, da hätte ich diese Karte unbedingt haben müssen. Inzwischen kommt mir aber eine AMD-Dual sicher nichtmehr ins Haus, obwohl die Hardware zwar genial ist, viel zu teuer ist sie mir für das, dass die Treiber einfach dermassen grottenschlecht sind.

Gruss Wildfoot

Pirx
2013-01-31, 21:51:44
Es gab mal eine Zeit, da hätte ich diese Karte unbedingt haben müssen. Inzwischen kommt mir aber eine AMD-Dual sicher nichtmehr ins Haus, obwohl die Hardware zwar genial ist, viel zu teuer ist sie mir für das, dass die Treiber einfach dermassen grottenschlecht sind.

Gruss Wildfoot
Kann mich nicht erinnern, welche Treiber ich in den Jahren, die ich mich mit PC-Hardware beschäftige, als "dermassen grottenschlecht" bezeichnen würde. Vielleicht die ersten Savage3D-Treiber. Die aktuellen AMD-Treiber sind davon jedenfalls Lichtjahre(:ulol:) entfernt. Hast du nur im entferntesten eine Ahnung, wie viel Wissen und Zeit in so einem Treiber steckt?*kopfschüttel*

Wildfoot
2013-01-31, 22:24:14
Kann mich nicht erinnern, welche Treiber ich in den Jahren, die ich mich mit PC-Hardware beschäftige, als "dermassen grottenschlecht" bezeichnen würde. Vielleicht die ersten Savage3D-Treiber. Die aktuellen AMD-Treiber sind davon jedenfalls Lichtjahre(:ulol:) entfernt. Hast du nur im entferntesten eine Ahnung, wie viel Wissen und Zeit in so einem Treiber steckt?*kopfschüttel*

Eindeutig JA.

Aber um es etwas durchsichtiger zu gestalten:

Meine Dual-GPU Erfahrung startete damals mit der Radeon HD3870X2, welche, das kann ich ganz offen zugeben, eigentlich immer ganz gut lief. Aufgrund dieser doch positiver Erfahrung kaufte ich dann voller Erwartungen die Radeon HD5970. Die lief von Beginn weg relativ instabil, das heisst, BSOD's oder direkt Neustarts konnten schonmal vorkommen. Aber immerhin, die Karte lief einigermassen.
Dies aber nur bis und mit dem CCC 10.9, danach war Schluss! Mit keinem neueren Treiber brachte ich die HD5970 noch einigermassen korrekt (geschweige dann stabil) zum Laufen. 2D im Win ging gerade noch so knapp, aber irgendwas 3D-mässiges brachte den PC so immer zum Crash. Der interne CF-Verbund lief auch nichtmehr, jedenfalls tat die 2. GPU nie mehr mehr als Idle.
Völlig frustriert von dieser Situation schmiss ich schlussendlich die HD5970 (auch hier, die Hardware selbst wäre eigentlich genial, aber ohne Treiber...) dann raus und kaufte mir die schnellste Single-GPU Karte, welche damals die Radeon HD6970 war. Diese blieb aber kein halbes Jahr im Rechner, dann wurde sie durch die Radeon HD7970 ersetzt. ;)

Also glaub mir, ich kenne AMD's Dual-Prinzip, die Hardware immer sehr gut, aber leider sind die Treiber für diese Karten mies. Um so schlimmer, wenn man sogar zwei dieser HD5970 wegen diesem Umstand ausmustern muss.

Gruss Wildfoot

gedi
2013-01-31, 23:23:36
Eindeutig JA.

Aber um es etwas durchsichtiger zu gestalten:

Meine Dual-GPU Erfahrung startete damals mit der Radeon HD3870X2, welche, das kann ich ganz offen zugeben, eigentlich immer ganz gut lief. Aufgrund dieser doch positiver Erfahrung kaufte ich dann voller Erwartungen die Radeon HD5970. Die lief von Beginn weg relativ instabil, das heisst, BSOD's oder direkt Neustarts konnten schonmal vorkommen. Aber immerhin, die Karte lief einigermassen.
Dies aber nur bis und mit dem CCC 10.9, danach war Schluss! Mit keinem neueren Treiber brachte ich die HD5970 noch einigermassen korrekt (geschweige dann stabil) zum Laufen. 2D im Win ging gerade noch so knapp, aber irgendwas 3D-mässiges brachte den PC so immer zum Crash. Der interne CF-Verbund lief auch nichtmehr, jedenfalls tat die 2. GPU nie mehr mehr als Idle.
Völlig frustriert von dieser Situation schmiss ich schlussendlich die HD5970 (auch hier, die Hardware selbst wäre eigentlich genial, aber ohne Treiber...) dann raus und kaufte mir die schnellste Single-GPU Karte, welche damals die Radeon HD6970 war. Diese blieb aber kein halbes Jahr im Rechner, dann wurde sie durch die Radeon HD7970 ersetzt. ;)

Also glaub mir, ich kenne AMD's Dual-Prinzip, die Hardware immer sehr gut, aber leider sind die Treiber für diese Karten mies. Um so schlimmer, wenn man sogar zwei dieser HD5970 wegen diesem Umstand ausmustern muss.

Gruss Wildfoot


ICH hatte noch nie CF-Probleme, welche sich nicht sehr einfach lösen ließen, unabhängig des (leider ) vorhandenen Mikro-Stotterns - radeonpro AHOI! Ansonsten schenkt sich das nicht sooo viel zwischen SLI und CFX.

Stell dir mal die Probleme des 310.9 und des 313.95 (welcher sich nicht installieren ließ) im ATI-Forum vor - was glaubst du wie da die NV-Jünger drauf eingestiegen wären....

Aber sry 4 OT

Gipsel
2013-02-04, 00:20:28
Ich glaube, wir sind hier weit vom eigentlichen Thema abgekommen. Wenn ich das in einen Hardware-Hilfe-Thread auslagern soll, bitte ich um eine kurze Nachricht per PN.

Ansonsten: Back to Topic!

=======================================

Die Diskussion über die Stabilität von Wildfoots HD5970 geht hier weiter (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9641014#post9641014).

dildo4u
2013-02-05, 18:50:09
Asus Ares II mit Quad Crossfire im Video: Overclocking und 3DMark-Werte

http://www.pcgameshardware.de/3DMark-Software-122260/Videos/Asus-Ares-II-Overclocking-und-3DMark-1052669/

lol wer sich sowas für 2000€ zum Zocken antut was für ein Schrott.Abartig das skaling ist perfekt es wurde also von AMD schon dran gearbeitet aber Microruckler haben null Priorität Hauptsache die Punkte stimmen.:rolleyes:

boxleitnerb
2013-02-05, 18:55:14
Die Mikroruckler sind schon krass, trotz 70-90fps. Sieht aus wie 20. Mit einer Ares II ist es vielleicht besser.

Godmode
2013-02-05, 19:05:18
Ich will hier AMD nicht verteidigen, aber der 3DMark ist einfach zu neu, als das schon alles perfekt funktionieren würde. Wenn ich lust hab, werde ich mal mit der 690 die Frametimes vermessen.

Effe
2013-02-05, 19:19:56
Die Mikroruckler sind schon krass, trotz 70-90fps. Sieht aus wie 20. Mit einer Ares II ist es vielleicht besser.

Nicht wirklich: http://www.youtube.com/watch?v=sLDdra0U5lc
Raff hats gestern schon mit einer getestet. Eine krebst mit um die 30 FPS rum. Flüssig geht anders.

Ein neuer Beta-Catalyst für den 3Dmark ist ja schon angekündigt.

boxleitnerb
2013-02-05, 19:26:04
Ich meinte eigentlich eine Ares II bei ähnlichen fps ;)

Effe
2013-02-05, 19:32:42
Kauf Dir doch eine! :D

fondness
2013-02-05, 20:05:13
Asus Ares II mit Quad Crossfire im Video: Overclocking und 3DMark-Werte

http://www.pcgameshardware.de/3DMark-Software-122260/Videos/Asus-Ares-II-Overclocking-und-3DMark-1052669/

lol wer sich sowas für 2000€ zum Zocken antut was für ein Schrott.Abartig das skaling ist perfekt es wurde also von AMD schon dran gearbeitet aber Microruckler haben null Priorität Hauptsache die Punkte stimmen.:rolleyes:

Als ob Quad-SLI gerade bei nagelneuer Software so problemlos wäre.

TobiWahnKenobi
2013-02-05, 20:22:33
Als ob Quad-SLI gerade bei nagelneuer Software so problemlos wäre.

da hassu recht - aber grad in solchen szenarien würde ich nicht unbedingt auf den IHV setzen, der beim kunden die gute hoffnung auf den immer wieder nächsten treiber monatlich aufs neue schürt.


(..)

mfg
tobi

HarryHirsch
2013-02-05, 20:50:54
Vorgeschmack: Dual GPU Monster Asus Ares 2: Unboxing, Hands on Review [PCGH] (http://www.youtube.com/watch?v=Rn8sPEqq0XE)

MfG,
Raff

könnt ihr mal testen ob bei 4 gpus auch crossfire aa zum einsatz kommt?

dildo4u
2013-02-05, 20:51:30
Als ob Quad-SLI gerade bei nagelneuer Software so problemlos wäre.
Im welchem Thread bist du hier,wo geht's hier um NV?Wenn's dort genau so abkackt ist es genau so lächerlich Tausende von Euro für diesen Müll auf den Tisch zu legen.

Skysnake
2013-02-05, 21:30:08
Asus Ares II mit Quad Crossfire im Video: Overclocking und 3DMark-Werte

http://www.pcgameshardware.de/3DMark-Software-122260/Videos/Asus-Ares-II-Overclocking-und-3DMark-1052669/

lol wer sich sowas für 2000€ zum Zocken antut was für ein Schrott.Abartig das skaling ist perfekt es wurde also von AMD schon dran gearbeitet aber Microruckler haben null Priorität Hauptsache die Punkte stimmen.:rolleyes:
Und laut Raff solls bei nVidia kein Deut besser sein... Aber hauptsache mal wieder bashing betrieben :facepalm:

Im welchem Thread bist du hier,wo geht's hier um NV?Wenn's dort genau so abkackt ist es genau so lächerlich Tausende von Euro für diesen Müll auf den Tisch zu legen.
Der Kommentar auf den er sich bezog war aber auch unqualifiziert... Bei beiden Herstellern ist es im Moment die gleiche Grütze, oder sollte man eher sagen die FurMark Entwickler haben keine gute Arbeit geleistet, und "hoffen" jetzt wieder auf einen Fix durch AMD und nVidia?

boxleitnerb
2013-02-05, 21:42:10
Wo sagt Raff das?

Knuddelbearli
2013-02-05, 21:57:44
Abartig das skaling ist perfekt es wurde also von AMD schon dran gearbeitet aber Microruckler haben null Priorität Hauptsache die Punkte stimmen.

. .

dildo4u
2013-02-06, 15:17:16
Asus Ares II Test: Wie schnell ist die Matrix HD 7970 GHz Edition Platinum im Doppelpack?


Asus' Ares II unterstreicht die Vorstellung der alten Radeon HD 6990: AMD hat offensichtlich keine Maßnahmen ergriffen, um das Mikroruckeln zu mindern. Beim Test der Ares II fiel uns in fast jedem Spiel Mikroruckeln auch jenseits von 40 Fps auf, in den meisten Fällen übersteigt das die Ausmaße der GTX 690.

http://www.pcgameshardware.de/AMD-Radeon-Hardware-255597/Tests/Asus-Ares-II-Test-1046866/

derguru
2013-02-06, 16:02:19
wieso kackt die 680/690 so stark in ss3 ab,rambedingt? ist eine 7970 im alleingang schneller als eine fast 100% skalierende 690.

Raff
2013-02-06, 16:06:28
Yop, Speicher. Ist eben eine Abart-Einstellung (1600p + 4x SSAA + 4x MSAA). Gefühlt kann sich Crossfire aber nicht absetzen.

MfG,
Raff

fondness
2013-02-06, 16:16:50
Was genau bedeutet 4x SSAA + 4x MSAA? Einen solchen Modus gibt es zumindest bei AMD sicher nicht.

aufkrawall
2013-02-06, 16:18:00
Der Begriff "Mikroruckler" ist imho ein Euphemismus, wenn die auftreten ist es so ziemlich unspielbar.
Deshalb muss man mGPU so nutzen, dass man sie vermeidet.
Da kommt hoffentlich bald ne nette, offizielle Lösung von Nvidia.

derguru
2013-02-06, 16:18:45
Was genau bedeutet 4x SSAA + 4x MSAA? Einen solchen Modus gibt es zumindest bei AMD sicher nicht.

4xssaa ist immer inkl. 4xmsaa,jedenfalls bei amd.;)


edit:ach ssaa,ingame natürlich.

boxleitnerb
2013-02-06, 16:19:51
Sagt doch gleich SGSSAA, das ist korrekt. "SSAA" ist nur ein Oberbegriff. Das kann alles Mögliche sein je nach Abtastmaske.

Raff
2013-02-06, 16:22:02
Wenn wir nun alle Haare spalten, müssten wir auch immer "4x SGMSAA" usw. schreiben. ;)

Gemeint ist 4x OGSSAA, denn das ist bei Serious Sam HD und BFE im Spiel wählbar ("Ingame-Downsampling"). SeSam 3 läuft im Test also in 5.120x3.200 mit 4x MSAA – kein Wunder, dass hier 2 GiB überlaufen.

MfG,
Raff

fondness
2013-02-06, 16:24:14
4xssaa ist immer inkl. 4xmsaa,jedenfalls bei amd.;)

Eigentlich nicht. Multisampling berechnet pro Pixel einen Texturwert, SSAA pro Subpixel. Das beides mit der selben Maske zu überlagern wäre vollkommener Unsinn.

Wenn wir nun alle Haare spalten, müssten wir auch immer "4x SGMSAA" usw. schreiben. ;)

Gemeint ist 4x OGSSAA, denn das ist bei Serious Sam HD und BFE im Spiel wählbar ("Ingame-Downsampling"). SeSam 3 läuft im Test also in 5.120x3.200 mit 4x MSAA – kein Wunder, dass hier 2 GiB überlaufen.

MfG,
Raff

Achso dann ergibt die Angabe auch Sinn.

boxleitnerb
2013-02-06, 16:25:07
Wenn wir nun alle Haare spalten, müssten wir auch immer "4x SGMSAA" usw. schreiben. ;)

Gemeint ist 4x OGSSAA, denn das ist bei Serious Sam HD und BFE im Spiel wählbar ("Ingame-Downsampling"). SeSam 3 läuft im Test also in 5.120x3.200 mit 4x MSAA – kein Wunder, dass hier 2 GiB überlaufen.

MfG,
Raff

Siehste, das hätte ich ohne deine Erklärung jetzt nicht gewusst ;)

@fondness:
SGSSAA nutzt doch die Samplepositionen von MSAA - MSAA ist immer eine Vorrausetzung für SGSSAA, sowohl bei AMD als auch bei Nvidia soweit ich weiß.

derguru
2013-02-06, 16:41:37
Sagt doch gleich SGSSAA, das ist korrekt. "SSAA" ist nur ein Oberbegriff. Das kann alles Mögliche sein je nach Abtastmaske.
ssaa ist aber bei ingame optionen eigentlich immer ogssaa,ich kenne nicht ein spiel wo sgssaa als ingame option zur verfügung steht.

egal ob ss3,the witcher 2,sleeping dogs,sniper elite oder arma 2,alles ogssaa.

boxleitnerb
2013-02-06, 16:43:27
Jo, nach Raffs Post klar. Ich meinte, wenn man per Treiber SGSSAA über funktionierendes MSAA drüberbügelt

derguru
2013-02-06, 16:59:52
Yop, Speicher. Ist eben eine Abart-Einstellung (1600p + 4x SSAA + 4x MSAA). Gefühlt kann sich Crossfire aber nicht absetzen.

MfG,
Raff
selbst wenn die sich nicht absetzen kann ist wohl 19/29fps spielbarer als 6/13fps.

aber imo sind eh beides fpswerte die mir deutlich zu wenig sind,60 fps ist minimum pflicht.:biggrin:

TobiWahnKenobi
2013-02-06, 17:15:23
selbst wenn die sich nicht absetzen kann ist wohl 19/29fps spielbarer als 6/13fps.

aber imo sind eh beides fpswerte die mir deutlich zu wenig sind,60 fps ist minimum pflicht.:biggrin:

nein.


(..)

mfg
tobi

aufkrawall
2013-02-06, 17:20:20
selbst wenn die sich nicht absetzen kann ist wohl 19/29fps spielbarer als 6/13fps.

Das ruckt und zuckt in einer Tour, da fällt einem selbst das Geradeauslaufen schwer.
An Mausbewegungen braucht man gar nicht erst zu denken.

dildo4u
2013-02-06, 17:29:55
Jup unspielbar gutes Beispiel wäre gerade Crysis 3,das läuft so auf meiner GTX460@Max.

derguru
2013-02-06, 22:07:14
framelimiter an und welche dann smooth läuft ist wohl klar,amd ist in den meisten benchs bei den min fps schon höher als die 690 unter avg.:)

aufkrawall
2013-02-06, 22:10:23
2-Way SLI skaliert bereits sehr häufig +90%. Was da bei AMD noch besser gehen soll, erschließt sich mir nicht so ganz.

Godmode
2013-02-06, 22:25:27
framelimiter an und welche dann smooth läuft ist wohl klar,amd ist in den meisten benchs bei den min fps schon höher als die 690 unter avg.:)

Was erwartest du? Die Ares II ist ein stark übertaktetes Sondermodell, die GTX 690 eine Stock Karte. Schon die Gigaherz Edition ist oft schneller als ne GTX 680.

derguru
2013-02-06, 22:34:39
gilt auch für die normale 7970,das die ares die 690 frisst sollte klar sein.

Wildfoot
2013-02-07, 00:02:53
gilt auch für die normale 7970,das die ares die 690 frisst sollte klar sein.

**smile**

Stelle mir das gerade bildlich vor. =)

Gruss Wildfoot

Blaire
2013-02-08, 00:03:32
Yop, Speicher. Ist eben eine Abart-Einstellung (1600p + 4x SSAA + 4x MSAA). Gefühlt kann sich Crossfire aber nicht absetzen.


@Raff: Hat Quad-CF funktioniert bei eurem 3D-Mark Run, waren die GPUs gut ausgelastet während der Tests?

boxleitnerb
2013-02-09, 06:37:10
Btw wie ist das jetzt noch gleich mit dem Inputlag? Ich dachte bisher, mehr GPUs ergeben mehr Input Lag, aber Nvidia schreibt das (dürfte auch für AMD gelten schätze ich):

One additional detail worth noting is that while input latency is the same on SLI AFR configurations as it is on single GPU configurations (each frame will take as long to be complete), inter-frame latency is reduced due to parallelism, so the application appears more responsive. For example, if a typical frame takes 30 ms to render, in a 2-GPU AFR configuration with perfect scaling the latency between those frames is only 15 ms. Thus, increasing the number of frames buffered in SLI does not increase input lag.
http://developer.download.nvidia.com/whitepapers/2011/SLI_Best_Practices_2011_Feb.pdf

Mr. Lolman
2013-02-09, 09:57:25
Ja klar, bei 100% Mehrpferformance und perfekten Frametimes ist der Inputlag trotz dem einen zusätzlichen gebufferten Frame insgesamt nicht höher, als mit SingleGPU (trotzdem hinkt man einen Frame hinterher).

TobiWahnKenobi
2013-02-09, 10:03:38
ich hätte jetzt auch gesagt, dass man pro zusätzlicher GPU einen frame "hinterherhinkt"..


(..)

mfg
tobi

Raff
2013-02-09, 13:34:50
Das schreibt Nvidia doch auch. Dort wird einfach umschrieben, dass Dual-GPU bei "normalen" Bildraten deutlich schwammiger anspricht (= halb so schnell) als nur eine. Quad-GPU erzielt bei 60 Fps dieselbe Latenz wie eine GPU bei 15 Fps – sagt das nicht schon alles? Da muss man auch gar nicht lange herumspekulieren, man muss einfach mal mit 4 GPUs im 30-40-Fps-Bereich unterwegs sein. Wer das nicht bemerkt, hat's gut. :D

MfG,
Raff

aufkrawall
2013-02-09, 13:39:22
Mal abwarten, wie der Input-Lag mit dem neuen Vsync sein wird.
BF3 fühlt sich mit 2-Way damit nicht schwammiger an als mit sGPU, eher das Gegenteil ist der fall (kein Witz).
Wenn das auch mit 4-Way so ist, wäre es, sofern es vernünftig skaliert, full of win.

M4xw0lf
2013-02-09, 13:46:43
Vermutlich hast du mit sGPU aus irgendwelchen Gründen schlechte Frametimes.

aufkrawall
2013-02-09, 13:53:59
Schlechte Frametimes haben nichts mit Input Lag zu tun und nein, ich habe nachgewiesenermaßen keine schlechten Frametimes.

Knuddelbearli
2013-02-09, 15:50:24
doch haben sie ( auch )

du hängst immer x fps hinterher

wenn du wenige fps hast hängst du halt mehr ms hinterher

deshalb ist inputlag mit 1 gpu bei 30 fps und 2 gpus bei 60 fps ja auch der selbe
Sobald SLI aber nicht mit 100 FPS skaliert und oder du die fps in bessere Bildqualität investierst hast du einen höheren Inputlag

aufkrawall
2013-02-09, 16:01:19
Nicht mit dem neuen Vsync (bei halt etwas schlechterer Skalierung).

Knuddelbearli
2013-02-09, 16:24:28
1.)
Schlechte Frametimes hab nichts mit Input Lag zu tun und nein,
2.) reden wir hier über Inputlag durch SLI / CF nicht durch vsynch. Vsynch verschlimmert es nur noch weiter ^^, komplett ohne vsynch verdoppelt sich eben der Inputlag von 1 auf 2 GPUs

Blaire
2013-02-09, 16:45:20
Btw wie ist das jetzt noch gleich mit dem Inputlag? Ich dachte bisher, mehr GPUs ergeben mehr Input Lag, aber Nvidia schreibt das (dürfte auch für AMD gelten schätze ich):


SLI hatte eigentlich nie große Probleme mit Input-Lag oder hast du jemals etwas davon gespürt? :) Vsync-Lag oder durch Games verursachte Lags sind viel störender, die genauso auch auf SingleGPUs auftreten z.b. Max Payne3 oder Hitman:Absolution mit MSAA

boxleitnerb
2013-02-09, 16:50:08
SLI hatte eigentlich nie große Probleme mit Input-Lag oder hast du jemals etwas davon gespürt? :)

Nicht mit zwei GPUs, das ist schon richtig. Aber um ganz sicher zu sein, müsste ich zwei Systeme direkt nebeneinander zum Vergleich stehen haben.

aufkrawall
2013-02-09, 16:52:07
1.)

2.) reden wir hier über Inputlag durch SLI / CF nicht durch vsynch. Vsynch verschlimmert es nur noch weiter ^^, komplett ohne vsynch verdoppelt sich eben der Inputlag von 1 auf 2 GPUs
Bei schlechten Frametimes nimmt man den Input Lag aber nicht als solchen, sondern als Ruckeln wahr.
Das ist was anderes als wenn die Frametimes allgemein höher sind.

Natürlich erhöht sich durch SLI der Input Lag, da ist TB Vsync schon mal recht zäh mit (wobei man mit AFR den TB ja eigentlich gar nicht braucht, man bekommt ihn nur halt häufig ohne adaptives Vsync nicht deaktiviert).
Ein fps-Limiter verringert den Input Lag aber allgemein, so ist der etwa mit 70fps bei BF3 mit 2-Way nur sehr gering.

Ich habe Vsync ins Spiel gebracht, weil es von Nvidia einen neuen Vsync-Modus für AFR geben wird (schon inoffiziell nutzbar), der den Input Lag stark reduziert, sodass dieser als Argument gegen AFR wegfällt.

fondness
2013-02-09, 20:01:31
Ich habe Vsync ins Spiel gebracht, weil es von Nvidia einen neuen Vsync-Modus für AFR geben wird (schon inoffiziell nutzbar), der den Input Lag stark reduziert, sodass dieser als Argument gegen AFR wegfällt.

Und wie soll das technisch funktionieren wenn die Bilder parallel berechnet werden? Zauberei? AFR verursacht Systembedingt einen Input-Lag, da gibt es wenig dran zu rütteln. Dieses Argument fällt garantiert nicht weg solange man bei AFR bleibt.

boxleitnerb
2013-02-09, 21:19:57
Tja, was sollen wir sagen? Wir haben es selbst probiert und es ist so. Kostet aber etwas Performance und funktioniert zumindest hier auf Fermi-SLI noch nicht einwandfrei, aber es zeigt großes Potential. Wenn es funktioniert, ist das Spielgefühl butterweich und direkt. Getestet u.a. mit Just Cause 2, das nun wahrlich nicht dafür bekannt ist, mit VSync spielbar zu sein. Vorher fürchterliches Kaugummi, mit VSync Smooth ein völlig anderes Erlebnis.

HarryHirsch
2013-02-09, 21:22:35
dann kommt wohl kein afr zum einsatz? :confused:

boxleitnerb
2013-02-09, 21:23:52
Was sonst? Die Skalierung ist sehr gut, aber nicht perfekt - wie gesagt, es kostet etwas Performance. Bin sehr gespannt, wie sich das weiterentwickelt.

Raff
2013-02-09, 21:25:57
Das gilt's auf jeden Fall im Auge zu behalten. :)

MfG,
Raff

HarryHirsch
2013-02-09, 21:26:02
war nur so eine frage. afr und kein inputlag.
nv kann tatsächlich zaubern. :freak:

fondness
2013-02-10, 09:37:59
Tja, was sollen wir sagen? Wir haben es selbst probiert und es ist so. Kostet aber etwas Performance und funktioniert zumindest hier auf Fermi-SLI noch nicht einwandfrei, aber es zeigt großes Potential. Wenn es funktioniert, ist das Spielgefühl butterweich und direkt. Getestet u.a. mit Just Cause 2, das nun wahrlich nicht dafür bekannt ist, mit VSync spielbar zu sein. Vorher fürchterliches Kaugummi, mit VSync Smooth ein völlig anderes Erlebnis.

Was sein kann - und was ich auch glaube - ist, dass es vorher mit Vsync einfach einen noch viel größeren Input-Lag gab, denn Vcync verursacht natürlich auch noch mal einen zusätzlichen Input-Lag. Vielleicht reduziert man einfach das Prerender-Limit auf ein Minimum, davon profitieren dann allerdings genau so Single-GPU-Karten.

Den typischen AFR-Lag, der ja auch vorne im NV-Dokument beschrieben wird kannst du nicht eliminieren. Wenn ein neuer Input kommt kann der erst auf den nächsten Frame angewandt werden. Wenn ich die Settings jetzt soweit rauf drehe das ich mit zwei GPUs zB nur noch 40fps habe entspricht das eben einem Input-Verhalten von 20fps bei Single-GPU.

war nur so eine frage. afr und kein inputlag.
nv kann tatsächlich zaubern. :freak:

Ich glaube das vieler dieser Multi-GPU-User schon gar nicht mehr wissen wie es sich anfühlt auf einer GPU mit zB 30fps zu spielen. Subjektive Meinungen in Ehren, aber Gewisse Dinge sind technisch nicht machbar und das sollte man auch akzeptieren.

TobiWahnKenobi
2013-02-10, 10:39:21
Was sein kann - und was ich auch glaube - ist, dass es vorher mit Vsync einfach einen noch viel größeren Input-Lag gab, denn Vcync verursacht natürlich auch noch mal einen zusätzlichen Input-Lag. Vielleicht reduziert man einfach das Prerender-Limit auf ein Minimum, davon profitieren dann allerdings genau so Single-GPU-Karten.

Den typischen AFR-Lag, der ja auch vorne im NV-Dokument beschrieben wird kannst du nicht eliminieren. Wenn ein neuer Input kommt kann der erst auf den nächsten Frame angewandt werden. Wenn ich die Settings jetzt soweit rauf drehe das ich mit zwei GPUs zB nur noch 40fps habe entspricht das eben einem Input-Verhalten von 20fps bei Single-GPU.



Ich glaube das vieler dieser Multi-GPU-User schon gar nicht mehr wissen wie es sich anfühlt auf einer GPU mit zB 30fps zu spielen. Subjektive Meinungen in Ehren, aber Gewisse Dinge sind technisch nicht machbar und das sollte man auch akzeptieren.

das wäre MGPU-leistung DAU-mäßig eingesetzt. ein nicht-dau würde das potenzial einsetzen um geräusch einzudämmen, gleichzeitig die darstellungsqualität zu erhöhen (http://www.abload.de/img/tesv_2013_02_10_11_01swurb.jpg) und/oder um stereoskopische bilder auszugeben.

mich selbst stören eingabeverzögerung weniger (padspieler) als saubere immersion und tearingfreie darstellung.

für mich muss NVidia das rad nicht neu erfinden - solange es möglichkeiten gibt, bestimmte negativa einzudämmen/ zu reduzieren.


(..)

mfg
tobi

aufkrawall
2013-02-10, 11:22:53
Was sein kann - und was ich auch glaube - ist, dass es vorher mit Vsync einfach einen noch viel größeren Input-Lag gab, denn Vcync verursacht natürlich auch noch mal einen zusätzlichen Input-Lag. Vielleicht reduziert man einfach das Prerender-Limit auf ein Minimum, davon profitieren dann allerdings genau so Single-GPU-Karten.

Den typischen AFR-Lag, der ja auch vorne im NV-Dokument beschrieben wird kannst du nicht eliminieren. Wenn ein neuer Input kommt kann der erst auf den nächsten Frame angewandt werden. Wenn ich die Settings jetzt soweit rauf drehe das ich mit zwei GPUs zB nur noch 40fps habe entspricht das eben einem Input-Verhalten von 20fps bei Single-GPU.



Ich glaube das vieler dieser Multi-GPU-User schon gar nicht mehr wissen wie es sich anfühlt auf einer GPU mit zB 30fps zu spielen. Subjektive Meinungen in Ehren, aber Gewisse Dinge sind technisch nicht machbar und das sollte man auch akzeptieren.
Du irrst dich.

fondness
2013-02-10, 11:38:19
Du irrst dich.

Bei so vielen Argumenten geben ich mich natürlich geschlagen. :)

aufkrawall
2013-02-10, 11:54:35
Was sein kann - und was ich auch glaube - ist, dass es vorher mit Vsync einfach einen noch viel größeren Input-Lag gab, denn Vcync verursacht natürlich auch noch mal einen zusätzlichen Input-Lag.

Was heißt "vorher mit Vsync"?
Mit AFR-Vsync ist es genau so gesynct. Wieso soll da "vorher" der Input Lag größer sein?


Vielleicht reduziert man einfach das Prerender-Limit auf ein Minimum, davon profitieren dann allerdings genau so Single-GPU-Karten.

Das kann man schon seit Jahren im Nvidia-Treiber auf 1 festlegen, das wirds wohl dann eher nicht sein.


Den typischen AFR-Lag, der ja auch vorne im NV-Dokument beschrieben wird kannst du nicht eliminieren. Wenn ein neuer Input kommt kann der erst auf den nächsten Frame angewandt werden. Wenn ich die Settings jetzt soweit rauf drehe das ich mit zwei GPUs zB nur noch 40fps habe entspricht das eben einem Input-Verhalten von 20fps bei Single-GPU.

So viel zur blanken Theorie (wie oft sich hier im Forum Theorien schon als falsch und durch die Praxis widerlegt herausgestellt haben...).


Ich glaube das vieler dieser Multi-GPU-User schon gar nicht mehr wissen wie es sich anfühlt auf einer GPU mit zB 30fps zu spielen. Subjektive Meinungen in Ehren, aber Gewisse Dinge sind technisch nicht machbar und das sollte man auch akzeptieren.
Nette Polemik, aber halt Quatsch. Du vergisst nämlich, dass man mit mGPU einfach auf sGPU schalten und den Input Lag davon vergleichen kann.

Hol dir SLI, wenn du mitreden oder es zerreden willst. Ohne praktische Erfahrung dahinter ist das Gebashe immer soo durchschaubar... ;)

fondness
2013-02-10, 12:00:03
Was heißt "vorher mit Vsync"?
Mit AFR-Vsync ist es genau so gesynct. Wieso soll da "vorher" der Input Lag größer sein?


Weil "normales" Vsync den Input-Lag vergrößert.


Nette Polemik, aber halt Quatsch. Du vergisst nämlich, dass man mit mGPU einfach auf sGPU schalten und den Input Lag davon vergleichen kann.

Hol dir SLI, wenn du mitreden oder es zerreden willst. Ohne praktische Erfahrung dahinter ist das Gebashe immer soo durchschaubar... ;)

Mir geht es dabei überhaupt nicht darum Multi-GPU zu bashen. Nur verkaufst du hier Dinge die technisch mit AFR IMO nicht machbar sind sorry. Und da es offensichtlich auch keine Erklärung dafür gibt ist die Luft halt etwas dünn wie du wohl kaum abstreiten wirst können. :)

Aber man wird es ja sehen wenn NV das Geheimnis lüftet was man dort wirklich macht.

aufkrawall
2013-02-10, 12:11:21
Mir geht es dabei überhaupt nicht darum Multi-GPU zu bashen. Nur verkaufst du hier Dinge die technisch mit AFR IMO nicht machbar sind sorry. Und da es offensichtlich auch keine Erklärung dafür gibt ist die Luft halt etwas dünn wie du wohl kaum abstreiten wirst können. :)

Du weißt auch nicht, wie SGSSAA über die Shader im Detail abläuft und hältst es ja trotzdem nicht für Hexenwerk.
Es ist so und das kann jeder mit SLI bestätigen.


Aber man wird es ja sehen wenn NV das Geheimnis lüftet was man dort wirklich macht.
Wieso sollten sie im Detail erklären, wie sie es machen?
Haben sie bei TXAA doch auch nicht gemacht.

TobiWahnKenobi
2013-02-10, 12:14:25
die wären schön doof, wenn sie ihre zutaten offenlegen.

sync mag in der theorie die eingabe minimal verzögern, aber es ist die einzige möglichkeit zu sauberer darstellung (qualität). alles andere ist shice.


(..)

mfg
tobi

aufkrawall
2013-02-10, 12:17:39
sync mag in der theorie die eingabe minimal verzögern, aber es ist die einzige möglichkeit zu sauberer darstellung (qualität). alles andere ist shice.

Jo. Zu schade, dass es mit nicht adaptivem Vsync bei 2-Way noch nicht richtig funzt. Das Tearing bei Crysis 2 nervt. :redface:
*wart*

fondness
2013-02-10, 12:29:36
Du weißt auch nicht, wie SGSSAA über die Shader im Detail abläuft und hältst es ja trotzdem nicht für Hexenwerk.
Es ist so und das kann jeder mit SLI bestätigen.

AFR ist nichts kompliziertes. Aber sonst mal Butter bei den Fischen: Du behauptest also du hast damit mit vier GPUs bei 30fps den selben Input-Lag wie man einer Single-GPU bei 30fps? :)


Wieso sollten sie im Detail erklären, wie sie es machen?
Haben sie bei TXAA doch auch nicht gemacht.

Es wird zumindest zu Untersuchungen kommen und dann wird man ja sehen was übrig bleibt.

aufkrawall
2013-02-10, 12:53:57
AFR ist nichts kompliziertes. Aber sonst mal Butter bei den Fischen: Du behauptest also du hast damit mit vier GPUs bei 30fps den selben Input-Lag wie man einer Single-GPU bei 30fps? :)

Bei 60fps@Vsync ist es mit AFR definitiv nicht träger als ohne.
30fps ist schwieriger zu testen, aber ich spiele Crysis bei 1080p mit 8xSGSSAA oft so um den Dreh, und da ist der Input Lag offenbar auch nicht höher als bei sGPU. Mikroruckler gibts damit btw. auch nicht mehr. ;)
Kostet ~15% Leistung gegenüber normalem/keinem Vsync, aber damit ist man, sofern die Engine nicht rumzickt, alle AFR-Nachteile los.

fondness
2013-02-10, 13:05:26
Bei 60fps@Vsync ist es mit AFR definitiv nicht träger als ohne.
30fps ist schwieriger zu testen, aber ich spiele Crysis bei 1080p mit 8xSGSSAA oft so um den Dreh, und da ist der Input Lag offenbar auch nicht höher als bei sGPU. Mikroruckler gibts damit btw. auch nicht mehr. ;)
Kostet ~15% Leistung gegenüber normalem/keinem Vsync, aber damit ist man, sofern die Engine nicht rumzickt, alle AFR-Nachteile los.

Ich stelle jetzt mal die freche Behauptung auf das du den AFR-Input-Lag bei konstanten 60fps, perfekter Frameverteilung, niedrigen Prerenderlimit und nur 2 GPUs einfach nicht mehr bemerkst. Viele haben wohl schon mit Single-GPU mehr Lag ohne diese Tricks.

Bei dem selben Prerender-Wert mit auch sonst den selben fps und ebenfalls einen Limiter für optimale Frameverteilung hast du mit Single-GPU definitiv nur den halben Input-Lag. Ganz einfach weil das nächste Frame schon von der zweiten GPU berechnet wird und du damit immer erst mit dem übernächste Frame reagieren kannst. Alles andere würde bedeuten die Pipeline bei jeden Input zu flushen, was die Leistung extrem drücken würde.

Skysnake
2013-02-10, 13:47:37
Bei 60fps@Vsync ist es mit AFR definitiv nicht träger als ohne.
30fps ist schwieriger zu testen, aber ich spiele Crysis bei 1080p mit 8xSGSSAA oft so um den Dreh, und da ist der Input Lag offenbar auch nicht höher als bei sGPU. Mikroruckler gibts damit btw. auch nicht mehr. ;)
Kostet ~15% Leistung gegenüber normalem/keinem Vsync, aber damit ist man, sofern die Engine nicht rumzickt, alle AFR-Nachteile los.
Und wie quantifizierst du bitte den Inputlag?

Wenn gar nicht, dann ist das reines holes geblubber ohne Hand und Fuß, auf dessen Grundlage man gar nicht diskutieren muss.

Godmode
2013-02-10, 14:34:28
Und wie quantifizierst du bitte den Inputlag?

Wenn gar nicht, dann ist das reines holes geblubber ohne Hand und Fuß, auf dessen Grundlage man gar nicht diskutieren muss.

Sehe ich auch so, ohne Messung hat das nicht viel Sinn und das geht leider nur mit High-End Equipment.

Als erstes müsste man verstehen wie heutige Spiele Engines funktionieren.

Um an der Diskussion teilnehmen zu können, ist folgender Artikel ein guter Einstieg:
http://gafferongames.com/game-physics/fix-your-timestep/

Mal ein Beispiel, ohne Gewähr:

Input und Physics Update laufen in einem eigenen Thread mit zb. 100 Fps.
In einem zweiten Thread läuft der Renderer mit maximaler Geschwindigkeit.

Zum Zeitpunkt t0 berechnet unsere Engine das Model m0 (Zustand der Welt, Spieler, ... zum Zeitpunkt T0).

Der Renderer berechnet jetzt ein Frame auf den Daten von m0, was zb. 2 Zeiteinheiten in Anspruch nimmt. Dh hier gibt es schon zwei Zeiteinheiten Verzögerung. Also das Bild was jetzt berechnet wird, ist das was mit dem Input aus t0 zustande kam. Also wenn das Bild fertig ist, sind zwei Zeiteinheiten seit dem Input vergangen und da ist das Bild noch gar nicht auf dem Monitor.

Jetzt das selbe Szenario mit einer zweiten GPU: Der Renderer berechnet zum Zeitpunkt t0 Frame 1 mit den Daten von m0 auf GPU1. Wenn wir annehmen, dass der Renderer für ein Frame zwei Zeiteinheiten benötigt, können wir den Renderjob für GPU2 bei t1 beginnen lassen. Zum Zeitpunkt t1 hat GPU1 ca. 50% der Zeit in Anspruch genommen. Durch den Versatz habe ich jetzt jede Zeiteinheit ein neues Frame, was aber immer noch zwei Zeiteinheiten hinterher hinkt, aber auch nicht mehr als bei Single GPU.

Das war jetzt mal der optimal Fall, ohne VSync. Wenn sich die Zeiten beim Rendering ändern, müsen wir unser Modell natürlich integrieren, aber das hab ich jetzt mal ganz bewusst, der Einfachheit halber weggelassen.

aufkrawall
2013-02-10, 15:20:01
Wow, niemand weiß, wie das AFR-Vsync funktioniert, aber alle sind sich ganz sicher, dass sie recht haben. :facepalm:
Ist ja auch logisch, ist schließlich ein Radeon-Fred...

TobiWahnKenobi
2013-02-10, 15:21:08
Wow, niemand weiß, wie das AFR-Vsync funktioniert, aber alle sind sich ganz sicher, dass sie recht haben. :facepalm:
Ist ja auch logisch, ist schließlich ein Radeon-Fred...

komm, wir gehen und lassen alle mit ihrer meinung einfach stehen :P


(..)

mfg
tobi

Godmode
2013-02-10, 15:40:18
Wow, niemand weiß, wie das AFR-Vsync funktioniert, aber alle sind sich ganz sicher, dass sie recht haben. :facepalm:
Ist ja auch logisch, ist schließlich ein Radeon-Fred...

komm, wir gehen und lassen alle mit ihrer meinung einfach stehen :P


(..)

mfg
tobi

Es geht nicht darum wer recht hat, ich wollte mit dem obigen Post nur klar stellen, das man dem auf den Grund gehen muss. Eure beiden Postings tragen nicht dazu bei das wir hier weiter kommen.

:facepalm: ist leider schnell mal gemacht, bringt aber meistens nur, dass der Gegenüber sich aufregt und kontert. Etwas Diskusionskultur sollten wir hier doch schaffen, schließlich sind wir nicht das 0815 Forum.

Kannst du mir mal ein Beispiel Spiel nenen, wo du das getestet hast, weil dann probiere ich das gleich mal aus.

Skysnake
2013-02-10, 15:44:20
Wow, niemand weiß, wie das AFR-Vsync funktioniert, aber alle sind sich ganz sicher, dass sie recht haben. :facepalm:
Ist ja auch logisch, ist schließlich ein Radeon-Fred...
Und du weichst meiner Frage aus....

M4xw0lf
2013-02-10, 15:53:11
Es geht nicht darum wer recht hat, ich wollte mit dem obigen Post nur klar stellen, das man dem auf den Grund gehen muss. Eure beiden Postings tragen nicht dazu bei das wir hier weiter kommen.

:facepalm: ist leider schnell mal gemacht, bringt aber meistens nur, dass der Gegenüber sich aufregt und kontert. Etwas Diskusionskultur sollten wir hier doch schaffen, schließlich sind wir nicht das 0815 Forum.

Daumen hoch für die Stimme der Vernunft :up:

aufkrawall
2013-02-10, 15:56:34
komm, wir gehen und lassen alle mit ihrer meinung einfach stehen :P

Hach ja, einen Versuch noch. :redface:


Kannst du mir mal ein Beispiel Spiel nenen, wo du das getestet hast, weil dann probiere ich das gleich mal aus.
Jedes. Nimm halt BF3, weils populär ist. Am besten mit adpativem Vsync und prerendered Frames 1 als Basis.

Und du weichst meiner Frage aus....
Die ist ja auch doof. Denn wenn der Input Lag subjektiv nicht höher ist, erübrigt sich das Hinweisen darauf als Nachteil bei AFR. Ist dann irrelevant.
Wie soll ich denn deiner Meinung nach Belege bringen? Wie Godmode schon anmerkte, ist das nicht ganz so einfach...
boxleitnerb, Tobi und Blaire haben die gleiche subjektive Erfahrung gemacht.
Im Gegensatz zu dir haben die Erfahrung mit SLI und wissen wovon sie sprechen. Was willst du noch?
Wenn du den endgültigen Beweis willst, leg dir halt SLI zu.

Godmode
2013-02-10, 16:14:24
Jedes. Nimm halt BF3, weils populär ist. Am besten mit adpativem Vsync und prerendered Frames 1 als Basis.


Ok noch ein paar Fragen:
- Limiter ja/nein
- Vsync übern Treiber auf on
- Vsync Tear Control auf Adaptive
- Flag für Smooth AFR auf 1
- 120 oder 60 hz?

Und ich teste es mit der Open Beta von C3, da ich BF3 gerade nicht installiert habe.

Skysnake
2013-02-10, 16:30:17
Die ist ja auch doof. Denn wenn der Input Lag subjektiv nicht höher ist, erübrigt sich das Hinweisen darauf als Nachteil bei AFR. Ist dann irrelevant.
Wie soll ich denn deiner Meinung nach Belege bringen? Wie Godmode schon anmerkte, ist das nicht ganz so einfach...
boxleitnerb, Tobi und Blaire haben die gleiche subjektive Erfahrung gemacht.
Im Gegensatz zu dir haben die Erfahrung mit SLI und wissen wovon sie sprechen. Was willst du noch?
Wenn du den endgültigen Beweis willst, leg dir halt SLI zu.
Mit deiner Subjektivität kannste aber keinen hinterm Ofen vor holen...

Mit subjektiven Eindrücken kann man sich den Hintern wischen, aber das wars auch. Das menschliche Gehirn, insbesondere bei der visuellen Wahrnehmung ist nen Witz. Das lässt sich einfach sehr sehr leicht verarschen. Darauf kannst du einfach keine Argumentation aufbauen... Das ist schlicht lächerlich.

boxleitnerb
2013-02-10, 16:38:24
Aber am Ende zählt doch, wie es rüberkommt für den Spieler. Wir sind keine Messer, wir sind Spieler. Subjektive Eindrücke sind durchaus wertvoll. Beispiel Frametimes. Das Framemetering von Fermi/Kepler greift soweit ich weiß nach dem, was Fraps an Frametimes misst. Sprich: Messung und Realität müssen hier nicht übereinstimmen. Anhand der Messwerte denkt man "OMG!" aber es spielt sich trotzdem gut. Ich würde mich nicht 100pro auf subjektive Eindrücke verlassen, aber ich würde sie ebensowenig voreilig von der Hand weisen.

Es ist immer schwierig, wenn Theoretiker mitreden wollen. Das geht halt oftmals nur bis zu einem gewissen Punkt, weil Theorie und Praxis auch mal auseinanderdriften können. Man kann denen, die erster Hand Erfahrungen damit gesammelt haben, auch mal was glauben statt zu behaupten "geht ja gar nicht".

Godmode
2013-02-10, 16:39:11
Mit deiner Subjektivität kannste aber keinen hinterm Ofen vor holen...

Mit subjektiven Eindrücken kann man sich den Hintern wischen, aber das wars auch. Das menschliche Gehirn, insbesondere bei der visuellen Wahrnehmung ist nen Witz. Das lässt sich einfach sehr sehr leicht verarschen. Darauf kannst du einfach keine Argumentation aufbauen... Das ist schlicht lächerlich.

Das stimmt nicht was du da schreibst. Wenn man ein Spiel mit und ohne VSync spielt, merkt man da einen subjektiven Unterschied, der sich auch objektiv messen lässt.

Skysnake
2013-02-10, 17:10:55
Du willst mir jetzt aber bitte nicht erzählen, dass du durch subjektive Wahrnehmen sicher Inputlagdifferenzen von einzelnen Frames, oder sogar darunter wahrnehmen UND quantifizieren kannst, um eben die Abweichung eben klar herausstellen zu können...

Sorry, aber das ist ziemlich an den Haaren herbeigezogen.

Wir reden hier ja nicht z.B. über 20 vs 100 FPS, sondern von einzelnen Frames...

Und bzgl. der Theoretiker vs "Praktiker" Diskussion:
Ich hab nicht gefragt warum das so ist, sondern nur eine quantifizierung des Unterschieds wissen wollen, und die kann er eben nicht liefern. DAS ist aber das absolut minimum...

Und Theoretiker arbeiten mit Modellen, die immer nur innerhalb ihrer Grenzen gültigkeit haben... Wenn man darüber raus geht, oder schlechte Modelle hat, dann funktioniert das natürlich nicht, das ist aber kein Problem der Theoretiker an sich...

Sorry, aber das läuft hier doch auf folgende Diskussion raus:

A: Das ist voll cool ey, das kann XY
B: Nein, das geht nicht.
A: Doch, das geht irgendwie, ich weiß zwar nicht wie, aber das geht!
B: Ja dann sag mal wie groß der Effekt ist bitte
A: Kann ich nicht, aber das ist so, und voll cool!
B: Sorry, aber das gaub ich dir jetzt einfach nicht, weil ich es nicht nachvollziehen kann, und alles was mir bekannt ist, aus ausschließt
A: Immer diese Theoretiker, glaubs mir halt, und wenn nicht, kaufs dir und schau selbst
B: :facepalm: Ok du hast Recht und ich meine Ruhe...

Genau die Diskussion läuft hier gerade, in die kann man sich auch sparen. Wenn man solche Sachen nicht mal ansatzweise erklären und/oder belegen kann, ist es einfach nur Arsch.

Godmode
2013-02-10, 17:17:43
Du willst mir jetzt aber bitte nicht erzählen, dass du durch subjektive Wahrnehmen sicher Inputlagdifferenzen von einzelnen Frames, oder sogar darunter wahrnehmen UND quantifizieren kannst, um eben die Abweichung eben klar herausstellen zu können...

Sorry, aber das ist ziemlich an den Haaren herbeigezogen.

Wir reden hier ja nicht z.B. über 20 vs 100 FPS, sondern von einzelnen Frames...


Ich sagte nichts von einzelnen Frames. Ich wollte sagen, ich merke zb. in Shootern ob ich VSync On oder Off habe ohne es jetzt zu messen. Die Maus fühlt sich dann schwammig an. Um das messen zu können, bräuchte man eine Highspeed Camera.

Natürlich fällt das nicht jedem auf. Hab früher Semi-Professionell CS gespielt und das perfekte Spielgefühlt ist mit folgenden Setting eingetreten:
VSync off
Mouse Accel off
100 Hz + 100 Fps


Und noch etwas: Wenn du nicht immer so vehement auftreten würdest, würden sich die anderen Diskussions Partner auch ruhiger verhalten. Nimm dir doch ein Beispiel an Gipsel oder Aths, die schaffen es auch Fachwissen, mit viel Sachlichkeit rüber zubringen.

Skysnake
2013-02-10, 17:18:49
Und wie relevant ist das jetzt für den Vergleich des Inputlags einer sGPU vs mGPU?

Godmode
2013-02-10, 17:21:28
Und wie relevant ist das jetzt für den Vergleich des Inputlags einer sGPU vs mGPU?

Das war die Antwort auf dein Posting, das hier subjektive Erlebnisse total sinnlos sind.:confused:

boxleitnerb
2013-02-10, 17:27:26
Du steigerst dich da immer unnötig rein, Skysnake. Da hat Godmode schon Recht, es geht auch respektvoller ggü. anderen Meinungen und Erfahrungen. Es ging hier um persönliche Eindrücke. Bei krawalls Formulierung ist das vielleicht nicht so ganz rausgekommen und hat etwas allgemeingültiger geklungen, aber ich denke die Leser hier sind so intelligent um dennoch zu wissen, was gemeint ist.

Ob jetzt mit AFR ein z.B. 10% höherer Inputlag dabei ist und der in der subjektiven Wahrnehmung untergeht ist doch völlig egal. Denn ob ich jetzt +100% (durch VSync allgemein, nur ein Zahlenbeispiel) oder +110% durch AFR+VSync Inputlag hab, ist gehupft wie gesprungen, beides ist mies.

Der Unterschied zwischen VSync aus und VSync an (ohne AFR) ist auf jeden Fall viel viel deutlicher als der Unterschied zwischen VSync an (Single GPU) und VSync an (AFR). Ich brauch da nix quantifizieren oder irgendwas vorrechnen, genausowenig wie ich dir erklären muss, dass hellblau näher an dunkelblau liegt als an rot. Wenn man eh mit VSync spielt, macht der zusätzliche Lag durch AFR zumindest bei zwei GPUs nicht wirklich einen Unterschied. Jedenfalls für mich, und ich habe jetzt zwei Jahre lang Erfahrung mit AFR und bin auch recht empfindlich, was schwammige Steuerung angeht.

Regt euch beide einfach nicht so auf und freut euch, dass es Streben nach Verbesserungen gibt und dass hier Leute ihre Eindrücke schildern.

Godmode
2013-02-10, 17:34:41
Regt euch beide einfach nicht so auf und freut euch, dass es Streben nach Verbesserungen gibt und dass hier Leute ihre Eindrücke schildern.

100% Agree.

Wir sollten gemeinsam versuchen den Problemen auf den Grund zu gehen und uns nicht immer Sachen an die Köpfe werfen. Leider stelle ich feste, dass das in Internetforen zur Normalität geworden ist. :(

Skysnake
2013-02-10, 18:08:05
Das war die Antwort auf dein Posting, das hier subjektive Erlebnisse total sinnlos sind.:confused:
Das ist mir schon klar, aber das ist eben in einer GANZ anderen Größenordnung. Dass du da einen Unterschied feststellst, glaub ich dir ja, aber sich bei einer Diskussion über einzelne Frames beim Inputlag zu unterhalten ist einfach an den Haaren herbeigezogen. Dafür lässt sich das menschliche Gehirn einfach viel zu einfach austricksen, als das man sich darauf verlassen dürfte.

Du steigerst dich da immer unnötig rein, Skysnake. Da hat Godmode schon Recht, es geht auch respektvoller ggü. anderen Meinungen und Erfahrungen. Es ging hier um persönliche Eindrücke. Bei krawalls Formulierung ist das vielleicht nicht so ganz rausgekommen und hat etwas allgemeingültiger geklungen, aber ich denke die Leser hier sind so intelligent um dennoch zu wissen, was gemeint ist.

Das soll es nicht sein. Als jemand, der schon so manchen Versuch durch mein Studium gemacht habe, weiß ich aber, wie fucking unzuverlässig die eingebauten "tools" eines Menschen sind.

Und ein "ich weiß das aber, und du hast einfach keinen plan" hilft einfach absolut nicht weiter. Das bringt genau 0. Hat man ja auch schön an der Diskussion der beiden gesehen. Ist man einen Schritt weiter gekommen? Nein...

Man hat nur Liebenswürdigkeiten ausgetauscht wie "ich weiß das und kauf dirs doch selbst und schau nach"

So ne Diskussion kann man sich auch wirklich sparen. Vor allem kann man sich das rumgezetere sparen, und es einfach so dastehen lassen, das man es eben nicht sagen kann, und es nur eine subjektive Einschätzung bleibt. Darüber darf man sich freuen, aber das wars auch.

Und macht euch einfach klar, das ich gern mit extremen Aussagen den Kern eines Themas an die Oberfläche zerre. Was die Leute da über mich denken, ist mir scheis egal. Wenn man über die richtigen Punkte mal nachdenkt ist das Ziel erreicht.


Ob jetzt mit AFR ein z.B. 10% höherer Inputlag dabei ist und der in der subjektiven Wahrnehmung untergeht ist doch völlig egal. Denn ob ich jetzt +100% (durch VSync allgemein, nur ein Zahlenbeispiel) oder +110% durch AFR+VSync Inputlag hab, ist gehupft wie gesprungen, beides ist mies.

Der Unterschied zwischen VSync aus und VSync an (ohne AFR) ist auf jeden Fall viel viel deutlicher als der Unterschied zwischen VSync an (Single GPU) und VSync an (AFR). Ich brauch da nix quantifizieren oder irgendwas vorrechnen, genausowenig wie ich dir erklären muss, dass hellblau näher an dunkelblau liegt als an rot. Wenn man eh mit VSync spielt, macht der zusätzliche Lag durch AFR zumindest bei zwei GPUs nicht wirklich einen Unterschied. Jedenfalls für mich, und ich habe jetzt zwei Jahre lang Erfahrung mit AFR und bin auch recht empfindlich, was schwammige Steuerung angeht.

Ja, da hast du auch absolut Recht, und den Kern der Dikussion auch schön aufgezeigt. Man kann es eben nicht auseinander halten, weil es viel näher zusammen liegt. Daher ist die Diskussion zwischen den beiden auch voll fürn ARSCH. Vor allem aber das vehementen Behaupten, das es eben doch genau so gering ist, ohne jedwede Erklärung/Nachweis.

Und da mir auch absolut klar ist, das man das eben nicht zeigen kann, sollte man eben auch sich seiner Unszulänglichkeiten der eingebauten "tools" bewusst sein, und dies akzeptieren.


Regt euch beide einfach nicht so auf und freut euch, dass es Streben nach Verbesserungen gibt und dass hier Leute ihre Eindrücke schildern.
Das kann man ja gern machen, finde ich auch interessant, aber doch dann bitte nicht so ne vehemente Diskussion darüber entfachen, die aus mangelnder Grundlage total für die Katz ist..

Godmode
2013-02-10, 19:27:39
Das ist mir schon klar, aber das ist eben in einer GANZ anderen Größenordnung. Dass du da einen Unterschied feststellst, glaub ich dir ja, aber sich bei einer Diskussion über einzelne Frames beim Inputlag zu unterhalten ist einfach an den Haaren herbeigezogen. Dafür lässt sich das menschliche Gehirn einfach viel zu einfach austricksen, als das man sich darauf verlassen dürfte.



Um es nochmal zu wiederholen: Reden wir hier über den Inputlag von AFR zu Single GPU? Ich hab nämlich den Faden verloren. Raff meinte ja letztens, dass er Leute beneidet, die den Lag beim AFR nicht merken, vielleicht kann er ja was dazu sagen.

Genau den Beitrag meinte ich:
Das schreibt Nvidia doch auch. Dort wird einfach umschrieben, dass Dual-GPU bei "normalen" Bildraten deutlich schwammiger anspricht (= halb so schnell) als nur eine. Quad-GPU erzielt bei 60 Fps dieselbe Latenz wie eine GPU bei 15 Fps – sagt das nicht schon alles? Da muss man auch gar nicht lange herumspekulieren, man muss einfach mal mit 4 GPUs im 30-40-Fps-Bereich unterwegs sein. Wer das nicht bemerkt, hat's gut. :D

MfG,
Raff

aufkrawall
2013-02-10, 20:04:50
@Skysnake: Woher soll denn dann der zusätzliche, spürbare Input Lag bei Vsync & AFR bei allen Anwendungen kommen, der mit dem AFR-Flag bei allen Anwendungen weg ist?

Mr. Lolman
2013-02-11, 07:07:17
Nur eine Frage: Wenn NV nun angeblich drann ist, dass Unmögliche erreichen, wieso hört man dann von denen nix davon? Eher im Gegenteil: NV schreibt ja, dass bei perfektem AFR das Inputlag nicht höher ist, als mit SingleGPU.Tatsache ist jedoch, dass eine Verdoppelung der (SingleGPU) fps das Inputlag um die Hälfte verringert! Wenn nun NV schreibt, dass bei perfekter Skalierung das Inputlag genauso hoch ist, wie mit SingleGPU, heisst das eigentlich nix anderes, als dass, SLI bei gleichen fps ein DOPPELT so hohes Inputlag hat, wie SingleGPU!

Das ist aber seit Ewigkeiten bekannt und nun wird plötzlich 3 Seiten disuktiert, weil jemand meint, dass NV den heiligen Gral gefunden hat - und das anscheiend ohne dass sich NV schon selbst darüber im Klaren war? LOL!



Edit: Diese ominöse AFR Behaviour Flag ist nur zum Glätten der Frametimes da und erhöht maximal den Inputlag von einzelnen Frames zugunsten einer gleichemässigen Ausgabe.

Iruwen
2013-02-11, 11:19:24
holes geblubber ohne Hand und Fuß [...] einfach nur Arsch [...] mir scheis egal [...] voll fürn ARSCH [...] total für die Katz

Auch wenn deine Beiträge oft zumindest teilweise inhaltlich interessant sind, wegen sowas les ich die meist nicht mehr, und weil du immer so 'ne Wall of Text raushaust ohne letztlich viel zu sagen.
Außerdem ist das hier eigentlich immer noch der 7990 Thread, wie wär's mit 'nem separaten Thread dafür da das ja für einige ein interessantes Thema zu sein scheint?

Godmode
2013-02-11, 11:20:50
Auch wenn deine Beiträge oft zumindest teilweise inhaltlich interessant sind, wegen sowas les ich die meist nicht mehr, und weil du immer so 'ne Wall of Text raushaust ohne letztlich viel zu sagen.
Außerdem ist das hier eigentlich immer noch der 7990 Thread, wie wär's mit 'nem separaten Thread dafür da das ja für einige ein interessantes Thema zu sein scheint?

Gute Idee, vielleicht kann ein Mod das mal raussplitten.

Kriton
2013-02-11, 12:14:21
Es geht nicht darum wer recht hat, ich wollte mit dem obigen Post nur klar stellen, das man dem auf den Grund gehen muss. Eure beiden Postings tragen nicht dazu bei das wir hier weiter kommen.

:facepalm: ist leider schnell mal gemacht, bringt aber meistens nur, dass der Gegenüber sich aufregt und kontert. Etwas Diskusionskultur sollten wir hier doch schaffen, schließlich sind wir nicht das 0815 Forum.

Kannst du mir mal ein Beispiel Spiel nenen, wo du das getestet hast, weil dann probiere ich das gleich mal aus.

/signed


Edit: Diese ominöse AFR Behaviour Flag ist nur zum Glätten der Frametimes da und erhöht maximal den Inputlag von einzelnen Frames zugunsten einer gleichemässigen Ausgabe.

Wenn es um dieses geht (auch ich habe zwischendurch den Faden verloren was eigentlich noch der usprüngliche Diskussionsgegenstand war)


Ob jetzt mit AFR ein z.B. 10% höherer Inputlag dabei ist und der in der subjektiven Wahrnehmung untergeht ist doch völlig egal. Denn ob ich jetzt +100% (durch VSync allgemein, nur ein Zahlenbeispiel) oder +110% durch AFR+VSync Inputlag hab, ist gehupft wie gesprungen, beides ist mies.

Der Unterschied zwischen VSync aus und VSync an (ohne AFR) ist auf jeden Fall viel viel deutlicher als der Unterschied zwischen VSync an (Single GPU) und VSync an (AFR). Ich brauch da nix quantifizieren oder irgendwas vorrechnen, genausowenig wie ich dir erklären muss, dass hellblau näher an dunkelblau liegt als an rot. Wenn man eh mit VSync spielt, macht der zusätzliche Lag durch AFR zumindest bei zwei GPUs nicht wirklich einen Unterschied. Jedenfalls für mich, und ich habe jetzt zwei Jahre lang Erfahrung mit AFR und bin auch recht empfindlich, was schwammige Steuerung angeht.


dann passt das IMHO genau zu dem was Mr. Lolman schreibt. Bzw. der größere inputlag bei AFR geht in der deutlich spürbaren Wirkung des VSynch unter. Gerade das glätten der Frametimes sollte doch eine spürbare subjektive Wirkung haben, oder irre ich? Ich meine wenn die Ausgabe von 100 auf 50 Bilder springt sollte ich das subjektiv deutlicher spüren als einen Sprung von 50 auf 40.

Skysnake
2013-02-11, 13:04:27
definitiv, und genau deswegen kann man "subjektive Eindrücke" auch in die Tonne treten um etwas zu erklären. Mann kann Sie als gegeben betrachten, und sich drüber freuen, aber für eine Diskussion/Analyse ist das einfach völlig unbrauchbar.

M4xw0lf
2013-02-11, 13:10:52
Nur eine Frage: Wenn NV nun angeblich drann ist, dass Unmögliche erreichen, wieso hört man dann von denen nix davon? Eher im Gegenteil: NV schreibt ja, dass bei perfektem AFR das Inputlag nicht höher ist, als mit SingleGPU.Tatsache ist jedoch, dass eine Verdoppelung der (SingleGPU) fps das Inputlag um die Hälfte verringert! Wenn nun NV schreibt, dass bei perfekter Skalierung das Inputlag genauso hoch ist, wie mit SingleGPU, heisst das eigentlich nix anderes, als dass, SLI bei gleichen fps ein DOPPELT so hohes Inputlag hat, wie SingleGPU!

Logische Logik ist logisch :D

aufkrawall
2013-02-11, 14:34:49
Nur eine Frage: Wenn NV nun angeblich drann ist, dass Unmögliche erreichen, wieso hört man dann von denen nix davon?

Weil es noch nicht fertig und noch nicht offiziell ist.


Eher im Gegenteil: NV schreibt ja, dass bei perfektem AFR das Inputlag nicht höher ist, als mit SingleGPU.Tatsache ist jedoch, dass eine Verdoppelung der (SingleGPU) fps das Inputlag um die Hälfte verringert! Wenn nun NV schreibt, dass bei perfekter Skalierung das Inputlag genauso hoch ist, wie mit SingleGPU, heisst das eigentlich nix anderes, als dass, SLI bei gleichen fps ein DOPPELT so hohes Inputlag hat, wie SingleGPU!

Ich sehe nicht den Bezug zum neuen AFR-Vsync.



Das ist aber seit Ewigkeiten bekannt und nun wird plötzlich 3 Seiten disuktiert, weil jemand meint, dass NV den heiligen Gral gefunden hat - und das anscheiend ohne dass sich NV schon selbst darüber im Klaren war? LOL!

Erstmal die offizielle Vorstellung abwarten, dann kannst du von mir aus die Keule auspacken.


Edit: Diese ominöse AFR Behaviour Flag ist nur zum Glätten der Frametimes da und erhöht maximal den Inputlag von einzelnen Frames zugunsten einer gleichemässigen Ausgabe.
Stuss², das Gegenteil ist der Fall.
Ein fps-Limiter verringert auch den Input Lag und glättet die Frametimes.

*ächz*
So viel FUD von den immer gleichen Fanboys, es ist zum Kotzen...

Mr. Lolman
2013-02-11, 16:08:38
Stuss², das Gegenteil ist der Fall.
Ein fps-Limiter verringert auch den Input Lag und glättet die Frametimes.

*ächz*
So viel FUD von den immer gleichen Fanboys, es ist zum Kotzen...

Ja klar, wenn ich auf die Bremse steig, fährt das Auto natürlich schneller. Hast recht und ich hab mich getäuscht. sry und tschüss.

Kriton
2013-02-11, 16:12:15
Ein fps-Limiter verringert auch den Input Lag und glättet die Frametimes.

Wie das? Der input lag ist doch doch daran gekoppelt wann der nächste Frame gezeigt wird, oder?
Das er die frame times glättet ist klar, aber das ist so als wenn Du sagst eine Mauer bremst den Wagen.

*ächz*
So viel FUD von den immer gleichen Fanboys, es ist zum Kotzen...

Na ja, Dein Nvidia-Schwerpunkt ist auch nur schwer zu übersehen (über die verschiedenen Threads hinweg).

boxleitnerb
2013-02-11, 16:28:58
Es stimmt aber, was er schreibt. Mit Framelimiter ist die Maus nicht so schwammig, die Steuerung direkter als ohne FL. Mit AFR VSync Smooth dasselbe.

Skysnake
2013-02-11, 16:34:25
Oder euer Gehirn spielt euch einen Streich, dessen Gegenbeweis ihr schuldigt seid, wie jedweden anderen quantitativen Beleg.

boxleitnerb
2013-02-11, 16:39:08
Nicht das schon wieder...muss das echt sein? Glaubst du, du weißt es besser als Leute, die das seit Jahren nutzen?
Mach doch mal mit, statt immer nur zu meckern und zu kritisieren. Nimm ein Spiel, bei dem du mit VSync ne schwammige Steuerung hast, nimm die Testversion von Dxtory z.B., limitiere die fps on-the-fly auf knapp unter den in der Testszene deiner Wahl erreichten fps und vergleiche selbst. Alles andere ist für den ARSCH ;)
Das geht mit jeder GPU, mit jedem System. Also keine Ausreden - probieren und dann hier zurückmelden, dann darfste auch mitreden :D

Ja klar, wenn ich auf die Bremse steig, fährt das Auto natürlich schneller. Hast recht und ich hab mich getäuscht. sry und tschüss.

Probieren geht über Meckern. Wir wissen nicht exakt, wie genau der FL das macht, aber der Effekt ist klar beobachtbar.

Kriton
2013-02-11, 16:47:31
Es stimmt aber, was er schreibt. Mit Framelimiter ist die Maus nicht so schwammig, die Steuerung direkter als ohne FL.

Noch einmal die Frage:
Ist das nicht nur der Effekt, dass die frametimes einheitlicher sind? Und damit eine gefühlt flüssigere Ausgabe einher geht? Sozusagen das Gegenteil von Microrucklern?

boxleitnerb
2013-02-11, 16:50:39
Das ist auch beobachtbar bei fps-Raten, die zumindest bei Nvidia recht unkritisch sind was MR angeht, so 50-60fps (mehr wie 60 hab ich eh nicht, weil mein Bildschirm 60Hz hat). Aber sas geht natürlich auch bei SingleGPU mit dem Framelimiter, von daher kann AFR damit gar nix zu tun haben. Ich schau mir das übermorgen nochmal auch ohne AFR an und schildere dann meine Eindrücke. Die Kiste, an der ich im Moment sitze, ist leider nicht spielefähig und hier ist auch nix drauf, womit ich testen könnte.

Probier du doch mal mit irgendeinem installierten 1st Person Shooter, egal was. Hauptsache Inputlag spürbar.

Kriton
2013-02-11, 17:02:06
Was ich meine ist, dass der framelimiter durch eine einheitlichere Darstellung der frametimes das Gefühl eines flüssigeren Ablaufs vermittelt. Prinzipiell wirkt das natürlich auch bei singleGPU - jedenfalls dort wo du deutliche Ausschläge in den FPS hast.
Aber das Microruckeln kommt doch vor allem dadurch, dass man ständig einen Wechsel der Geschwindigkeit beim Aufbau der frames hat - wenn Du das limitierst erzeugst Du zwangsläufig einen einheitlicheren Aufbau und da die Differenz des Aufbaus der verschiedenen frames bei multiGPU höher ist ist auch der potentielle Effekt größer als er bei singleGPU ist, auch wenn er dort in Abhängigkeit des Frameverlaufs ebenfalls sichtbar sein müsste.

Gerade wenn wir von subjektiven Eindrücken sprechen könnte das der Fall sein, weil die Einheitlichkeit der Ausgabe dazu führt, dass der input lag ebenfalls einheitlicher wird/wirkt, weil dort dann ebenfalls kein beständiger Wechsel der Geschwindigkeiten vorliegt und das Gehirn sich besser darauf einstellen kann anstatt ständig mit Wechseln klarkommen zu müssen - weswegen frametimes ja eben auch gerade eine bessere Aussage treffen als FPS was das Spielgefühl angeht.

aufkrawall
2013-02-11, 17:03:39
Na ja, Dein Nvidia-Schwerpunkt ist auch nur schwer zu übersehen (über die verschiedenen Threads hinweg).
Ich lege Wert drauf, keine Tatsachen zu verdrehen. Man kann auch Posts von mir finden, wo ich GCN ausdrücklich Sympathien ausspreche. ;)

Sorry, aber hier fehlt mangels Erfahrung auf einer Seite definitiv die Diskussionsgrundlage. Wenn das Feature offiziell kommt, wirds vielleicht nochmal interesant im Forum diskutierbar sein. Bis dahin EOD für mich, den Blödsinn hier geb ich mir nicht länger...

Kriton
2013-02-11, 17:09:17
Du könntest auch einfach mal die direkt an Dich gestellte Frage beantworten (auch wenn ich deutlich weniger Ahnung habe als die meisten hier erscheint sie mir schlüssig):

Ein fps-Limiter verringert auch den Input Lag

Wie das? Der input lag ist doch doch daran gekoppelt wann der nächste Frame gezeigt wird, oder?
Ein Limiter zeigt mir den nächsten frame doch später an als ohne - d.h. er erhöht sogar den input lag. Falls ich einen Denkfehler habe lasse ich mich gern berichtigen.

boxleitnerb
2013-02-11, 17:09:55
Was ich meine ist, dass der framelimiter durch eine einheitlichere Darstellung der frametimes das Gefühl eines flüssigeren Ablaufs vermittelt. Prinzipiell wirkt das natürlich auch bei singleGPU - jedenfalls dort wo du deutliche Ausschläge in den FPS hast.
Aber das Microruckeln kommt doch vor allem dadurch, dass man ständig einen Wechsel der Geschwindigkeit beim Aufbau der frames hat - wenn Du das limitierst erzeugst Du zwangsläufig einen einheitlicheren Aufbau und da die Differenz des Aufbaus der verschiedenen frames bei multiGPU höher ist ist auch der potentielle Effekt größer als er bei singleGPU ist, auch wenn er dort in Abhängigkeit des Frameverlaufs ebenfalls sichtbar sein müsste.

Gerade wenn wir von subjektiven Eindrücken sprechen könnte das der Fall sein, weil die Einheitlichkeit der Ausgabe dazu führt, dass der input lag ebenfalls einheitlicher wird/wirkt, weil dort dann ebenfalls kein beständiger Wechsel der Geschwindigkeiten vorliegt und das Gehirn sich besser darauf einstellen kann anstatt ständig mit Wechseln klarkommen zu müssen - weswegen frametimes ja eben auch gerade eine bessere Aussage treffen als FPS was das Spielgefühl angeht.

Das schau ich mir mal mit einer GPU an, und zwar dort, wo die frametimes und das Spielgefühl von der Flüssigkeit der Bewegung her (nicht verwechseln mit der Direktheit der Steuerung) gut sind. Ich würde darauf wetten, dass trotzdem ein Unterschied eintritt, was den (gefühlten) Input Lag angeht. Melde mich bis dahin auch ab.

aufkrawall
2013-02-11, 17:16:06
Du könntest auch einfach mal die direkt an Dich gestellte Frage beantworten (auch wenn ich deutlich weniger Ahnung habe als die meisten hier erscheint sie mir schlüssig):



Wie das? Der input lag ist doch doch daran gekoppelt wann der nächste Frame gezeigt wird, oder?
Ein Limiter zeigt mir den nächsten frame doch später an als ohne - d.h. er erhöht sogar den input lag. Falls ich einen Denkfehler habe lasse ich mich gern berichtigen.
Ich habe zu wenig Kenntnis von der Materie fur ausgefeilte Theorien und viele andere hier mit mehr davon offenbar auch, denn sie verfehlen die Wirklichkeit.
Ich kann dir nur das Gleiche wie boxleitnerb sagen, es einfach mal selbst auszuprobieren.

Kriton
2013-02-11, 17:27:33
Simples Beispiel:

Ich habe flüssig 100 FPS ohne Schwankung. Die Taste wird bei direkt zu beginn einer neuen Sekunde gedrückt. mit Wenn mein input lag dazu führt, dass in frame 70 die Eingabe Wirkung auf meinem Bildschirm zeigt heißt dies, dass ich innerhalb dieser Sekunde die Wirkung sehe. Wenn mein Limiter hingegen auf 60 FPS eingestellt ist sehe ich die Wirkung erst bei Sekunde 2. Ergo habe ich einen höheren input lag.

Das ist die rein objektive Ebene. Wenn man jetzt mit subjektiver Wahrnehmung argumentiert, kann es ja durchaus sein, dass das Gefühl besser ist, weil wir üblicherweise keine idealisierten durchgehenden FPS haben dies durch einen Limiter aber stärker forciert wird und damit das Gehirn keinen Wechsel im input lag mehr dergestalt wahrnimmt, dass er einmal sehr gut und dann wieder deutlich schlechter ist, weil z.B. gerade die frames einbrechen, aber die FPS an sich noch flüssig sind.
Das ist das Äquivalent für mich zur Temperaturwahrnehmung. Die hängt auch subjektiv davon ab welche Temperatur du vorher empfunden hast.

Godmode
2013-02-11, 17:29:47
Ich habe zu wenig Kenntnis von der Materie fur ausgefeilte Theorien und viele andere hier mit mehr davon offenbar auch, denn sie verfehlen die Wirklichkeit.
Ich kann dir nur das Gleiche wie boxleitnerb sagen, es einfach mal selbst auszuprobieren.

Ich kann dazu heute Abend nochmal was schreiben. Ich bin mir nämlich noch nicht so sicher, ob mein letztes Beispiel wirklich stimmt. Es müsste sich hier mal jemand äußern, der zb. weiß wie eine Cry Engine das macht, vor allem mit AFR. Leider ist das in den blöden Streitereien etwas untergegangen.

aufkrawall
2013-02-11, 18:08:00
Ok noch ein paar Fragen:
- Limiter ja/nein

70 gelockte fps sind ja recht schwer vergleichbar mit ~70 ungelockten.
Kannst es ja mal probieren.


- Vsync übern Treiber auf on
- Vsync Tear Control auf Adaptive
- Flag für Smooth AFR auf 1
- 120 oder 60 hz?

Jo, würde dann 60Hz nehmen, damit sollte zusätzlicher Input Lag mehr auffallen.


Und ich teste es mit der Open Beta von C3, da ich BF3 gerade nicht installiert habe.
Sollte gehen. Testest du 2-Way vs sGPU?
Am besten dann Details etwas runter oder zmindest bei 1080p AA aus, das Spiel zieht ja recht happig Leistung.

Blaire
2013-02-11, 18:13:15
Ich habe zu wenig Kenntnis von der Materie fur ausgefeilte Theorien und viele andere hier mit mehr davon offenbar auch, denn sie verfehlen die Wirklichkeit.
Ich kann dir nur das Gleiche wie boxleitnerb sagen, es einfach mal selbst auszuprobieren.

So ist es und auch der falsche Thread, denn die Probleme mit SLI sind vergleichsweise klein, verglichen mit Crossfire. Vsync Smooth verbessert es nur noch weiter.

pest
2013-02-11, 18:20:19
vielleicht bisst du ja so nett, und postest mal (in einen Spoiler verpackt) ein paar Frametimes in den Frappo (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=537679) Thread

Ich würde gern Version 0.03 fertig stellen

Kriton
2013-02-11, 18:52:59
Ich habe zu wenig Kenntnis von der Materie fur ausgefeilte Theorien und viele andere hier mit mehr davon offenbar auch, denn sie verfehlen die Wirklichkeit.
Ich kann dir nur das Gleiche wie boxleitnerb sagen, es einfach mal selbst auszuprobieren.

So ist es und auch der falsche Thread, denn die Probleme mit SLI sind vergleichsweise klein, verglichen mit Crossfire. Vsync Smooth verbessert es nur noch weiter.

Momentan diskutieren wir doch nur über multi-gpu, frame limiter und input lag. Der Hintergrund kam zwar von Nvidia, aber das Thema ist universell.

Ich stelle daher auch nicht in Frage ob SLI ein besseres Spielgefühl hat als Crossfire. Das als gegebend hinnehmen würde ich im gegenwärtigen Kontext unserer Diskussion eher fragen: Warum?

Aber momentan krankt das hier IMHO daran, dass die eine Seite ihre subjektiven Eindrücke angegriffen sieht (was zumindest ich nicht tue) und die Frage nach dem Warum nicht betrachten will, weil (meine Interpretation) der wahrgenommene Vorteil dann vielleicht wirklich nur subjektiv aber nicht objektiv ist.
Wenigstens boxleitnerb beschäftigt sich mal damit.

Die Frage:

Der input lag ist doch doch daran gekoppelt wann der nächste Frame gezeigt wird, oder?

scheint ja wirklich schwierig zu sein - oder es ist doch eher so, dass die Antwort manchen nicht ins Konzept passt.

Ich kann aber auch gern mal zitieren:

In gaming, input lag is defined as the delay between the when a user does something with an input device and when that action is reflected on the monitor.

http://www.anandtech.com/show/2803

Die Schlüsse lasse ich jetzt mal offen, die habe ich jetzt schon einige Male auch mit Beispielen beschrieben.

Edit: Kann es sein, dass Nvidia den Output der 2. Karte verzögert um eine gleichmäßigere Ausgabe zu erreichen?

aufkrawall
2013-02-11, 19:03:50
Ich bezweifle, dass sich das bei der Komplexität von DX & OGL in eine so einfache Form pressen lässt.
Das geht bei den Eingabemedien los, über die Anwendung (der gefühlte Input-Lag kann von Anwendung zu Anwendung stark variieren und keiner weiß genau, was die machen), Treiber, Windows-Kernel, Ausgabemedium...
Das ist wohl ne Forschung für sich, die Leute wie Coda oder Alphatier machen müssten. Da stünde nur der Aufwand in keinerlei zurechnungsfähiger Relation zum Nutzen.
Ich bin mir sicher, dass bei einem "Blind Test" alle, die hier bashen, bei 2-Way das AFR-Vsync nicht von sGPU unterscheiden könnten.
Sobald das Feature offiziell ist, wird es hoffentlich auch Tests von seriösen Testseiten/-magazinen geben, die unseren Eindruck "offiziell" bestätigen werden. ;)

Im Endeffekt definiert es sich natürlich im Groben so, wie du zitiert hast. Wie denn sonst? :biggrin:

Kriton
2013-02-11, 19:12:36
Genau darum geht es doch. Was Du am Anfang aufzählst sind die Bestandteile welche zu DEM input lag führen.

Wenn wir uns hinsichtlich dessen einig sind, dann ist es logisch, dass ein frame limiter den input lag nicht verringern kann! D.h. nicht, dass die subjektive Wahrnehmung mit limiter nicht besser ist.

Daher auch noch einmal die neue Frage:

Kann es sein, dass Nvidia den Output der 2. Karte verzögert um eine gleichmäßigere Ausgabe zu erreichen?

Die Gleichmäßigkeit könnte dann nämlich zu einem subjektiv besseren Spielgefühl führen weil die Schwankungen nicht mehr beständig wahrgenommen werden.
Das würde dann einfach erklären warum Nvidia ggfs. als besser empfunden wird und würde der Beschreibung der Wirkung des frame limiters nicht entgegen stehen (da niemand die Argumentation auch nur zu widerlegen versucht hat, lasse ich diese mal als Prämisse stehen, so dass eine Klärung warum ggfs. AFR-VSync besser soll dem zumindest nicht widersprechen dürfte).

Richtig implementiert würde das dann sogar besser wirken müssen als ein limiter.

Godmode
2013-02-11, 19:37:06
Genau darum geht es doch. Was Du am Anfang aufzählst sind die Bestandteile welche zu DEM input lag führen.

Wenn wir uns hinsichtlich dessen einig sind, dann ist es logisch, dass ein frame limiter den input lag nicht verringern kann! D.h. nicht, dass die subjektive Wahrnehmung mit limiter nicht besser ist.

Daher auch noch einmal die neue Frage:

Kann es sein, dass Nvidia den Output der 2. Karte verzögert um eine gleichmäßigere Ausgabe zu erreichen?

Die Gleichmäßigkeit könnte dann nämlich zu einem subjektiv besseren Spielgefühl führen weil die Schwankungen nicht mehr beständig wahrgenommen werden.
Das würde dann einfach erklären warum Nvidia ggfs. als besser empfunden wird und würde der Beschreibung der Wirkung des frame limiters nicht entgegen stehen (da niemand die Argumentation auch nur zu widerlegen versucht hat, lasse ich diese mal als Prämisse stehen, so dass eine Klärung warum ggfs. AFR-VSync besser soll dem zumindest nicht widersprechen dürfte).

Richtig implementiert würde das dann sogar besser wirken müssen als ein limiter.

Also ohne das jetzt was direkt an der Game Engine geändert wird, kann das nicht funktionieren, was du beschreibst. Wenn sie jetzt die Bildausgabe verzögern, ändert sich ja am Inhalt des Bildes nichts. Theoretisch müsste man , die zweite GPU zum Rendern beginnen lassen, wenn die 1. GPU bei der Hälfte ist. Die Lasten von Frame 1 zu Frame zwei sollten ähnlich sein.

Ich weiß eben nicht genau wie das funktioniert mit den Rendering. Wenn ich den Present Call synchron absetze, also der Programmfluss geht in den Present Funktion rein und unterbricht quasi den restlichen Programmfluss, bis das Bildchen fertig ist.
Da könnte jetzt wirklich der Treiber einspringen und dem Spiel quasi vorgaukeln, dass die GPU schon fertig ist, mit dem Bildchen und bitte das nächste dran kommen soll. In Wirklichkeit rendert aber GPU1 noch und das nächste Bild bekommt GPU2.

Also bevor wir weiter diskutieren, muss mal jemand mit genug Know-How bestätigen, dass das so funktioniert, sonst kommen wir nicht weiter.

Coda oder Demirug würde dazu sicher was sagen können, IIRC.

edit:
Das mit Present ist schon mal falsch, das zeigt nämlich nur den nächsten Frame an, der im Backbuffer liegt.
http://msdn.microsoft.com/en-us/library/windows/desktop/bb174423(v=vs.85).aspx
Presents the contents of the next buffer in the sequence of back buffers owned by the device.

edit2:
den Guide werde ich erstmal lesen, da steht was drinnen:
http://developer.download.nvidia.com/whitepapers/2011/SLI_Best_Practices_2011_Feb.pdf

Kriton
2013-02-11, 19:44:17
Also ohne das jetzt was direkt an der Game Engine geändert wird, kann das nicht funktionieren, was du beschreibst. Wenn sie jetzt die Bildausgabe verzögern, ändert sich ja am Inhalt des Bildes nichts.

Wäre das denn ein Problem?
Konstante 40 FPS fühlen sich doch auch besser an als ständige Wechsel zwischen beispielsweise 50 und 70 (bei hohen Ausschlägen), oder?
Hier geht es ja nur um das subjektive Spielgefühl.

Aber wenn die Annahme falsch ist passe ich :redface:

aufkrawall
2013-02-11, 20:16:29
Kann es sein, dass Nvidia den Output der 2. Karte verzögert um eine gleichmäßigere Ausgabe zu erreichen?

Die Gleichmäßigkeit könnte dann nämlich zu einem subjektiv besseren Spielgefühl führen weil die Schwankungen nicht mehr beständig wahrgenommen werden.
Das würde dann einfach erklären warum Nvidia ggfs. als besser empfunden wird und würde der Beschreibung der Wirkung des frame limiters nicht entgegen stehen (da niemand die Argumentation auch nur zu widerlegen versucht hat, lasse ich diese mal als Prämisse stehen, so dass eine Klärung warum ggfs. AFR-VSync besser soll dem zumindest nicht widersprechen dürfte).

Glaub ich nicht, denn ich kann imho den "Gummibandeffekt" bei der Maus mit AFR & normalem Vsync ganz klar als solchen erkennen, also dass der Input definitiv später umgesetzt wird als ohne AFR (wobei das wie gesagt ohne TB bei 2-Way jetzt meist nicht so übel ist). Das hat auch nicht viel mit unregelmäßigen Frametimes zu tun, weil die die ja eh schon durch normales Vsync geglättet werden (das ist auch messbar).
Mit dem neuen AFR-Vsync ist diese fühlbare Latenz komplett weg.

Blaire
2013-02-11, 20:54:48
Daher auch noch einmal die neue Frage:

Kann es sein, dass Nvidia den Output der 2. Karte verzögert um eine gleichmäßigere Ausgabe zu erreichen?

Ziel ist es die Frametimes so gleichmäßig wie möglich im Spiel zu halten, nicht etwa ein Frame nach 12ms , das zweite nach 16ms , das dritte nach 10ms etc. auszugeben. Das sie nicht im Detail verraten, wie sie das ermögichen, sollte klar sein.

Mr. Lolman
2013-02-11, 21:13:39
Ziel ist es die Frametimes so gleichmäßig wie möglich im Spiel zu halten, nicht etwa ein Frame nach 12ms , das zweite nach 16ms , das dritte nach 10ms etc. auszugeben. Das sie nicht im Detail verraten, wie sie das ermögichen, sollte klar sein.

In Anbetracht der Tatsache, dass nicht plötzlich eine GPU schneller rechnen kann, kann eine gleichmäßigere Framerate nur durch eine Verzögerung des Outputs der 2. GPU erreicht werden, was dann natürlich sich auch auf die Gesamtframerate und auch auf die GPU Last auswirkt. Ersteres beschreibt auch NV in dem von DIR geposteten Link im NV Treiberthread und zweiteres beschreibt auch Krawall als persönliche Erfahrung in eben dem selben Thread! Also frag ich mich, warum ihr aus dieser augenscheinlich doch recht simplen Sache im HD 7990 Thread (!) so ein Mysterium macht.

BTW: Das Behaviourflag, was es nun anscheinend im NVCP gibt, gibts inoffiziell schon seit mehr als 3.5 Monaten...

Godmode
2013-02-11, 21:15:19
BTW: Das Behaviourflag, was es nun anscheinend im NVCP gibt, gibts inoffiziell schon seit mehr als 3.5 Monaten...

Wir verwenden das auch schon seit ein paar Wochen...Blaire hats mir gesagt.

aufkrawall
2013-02-11, 21:21:17
Wir verwenden das auch schon seit ein paar Wochen...Blaire hats mir gesagt.
Jo. afair hatte das mit früheren Treibern auch mit adaptivem Vsync noch nicht richtig bei 2-Way funktioniert, gab zu starke Performance-Drops.

Godmode
2013-02-11, 21:24:01
Jo. afair hatte das mit früheren Treibern auch mit adaptivem Vsync noch nicht richtig bei 2-Way funktioniert, gab zu starke Performance-Drops.

Ja daran kann ich mich erinnern, bei D3 hat das bei mir Probleme gemacht.

Was mich noch interessieren würde: Hast du schon mal geschaut ob du mit Adaptivem VSync Tearing hast? Weil wenn ja, dann würde das die Erklärung für den fehlenden VSync Lag sein. IMO wird ja beim Adaptive VSync, VSync abgedreht, sobald die Framerate unter die Refreshrate von Monitor fällt, oder?

Wäre jemand so frei das mal alles in einen eigenen Thread zu splitten, ich kann das nicht.

aufkrawall
2013-02-11, 21:43:35
Was mich noch interessieren würde: Hast du schon mal geschaut ob du mit Adaptivem VSync Tearing hast?

Nur bei fps unterhalb der Refreshrate, also adaptiv-typisch.
Im Refreshratelimit gibt es definitiv kein Tearing und der Input Lag bleibt niedrig.


IMO wird ja beim Adaptive VSync, VSync abgedreht, sobald die Framerate unter die Refreshrate von Monitor fällt, oder?

Ja, aber das Verhalten ist mit dem zusätzlich aktiviertem AFR-Flag etwas anders.
Wie ich im Treiber-Thread schon erwähnte, fungiert es dann als automatischer fps-Limiter (+ besserer Input Lag).

Godmode
2013-02-11, 21:46:47
Nur bei fps unterhalb der Refreshrate, also adaptiv-typisch.
Im Refreshratelimit gibt es definitiv kein Tearing und der Input Lag bleibt niedrig.


Ja, aber das Verhalten ist mit dem zusätzlich aktiviertem AFR-Flag etwas anders.
Wie ich im Treiber-Thread schon erwähnte, fungiert es dann als automatischer fps-Limiter (+ besserer Input Lag).

Ok, ich werde das jetzt mal mit C2 testen, weil in C3 kann ich die Refreshrate nicht einstellen und mit 120hz merkt man sowiso fast keinen Unterschied IMO.

Godmode
2013-02-11, 22:29:19
Ok, ich werde das jetzt mal mit C2 testen, weil in C3 kann ich die Refreshrate nicht einstellen und mit 120hz merkt man sowiso fast keinen Unterschied IMO.

Verdammt, da kann man auch keine 60 hz auswählen. Weiß jemand wo das noch geht? Wenn ich im Inspektor bei VSync half Refreshrate einstelle, dann ist das ja nicht das selbe, oder?

edit: Ich installiere mal CS1.6, das war immer mein liebster Benchmark was VSync und Inputlag angeht.

edit2: Mit 120hz ist selbst der VSync lag so minimal, das ich ihn fast nicht merke. Also entweder ich werde alt, oder was weiß ich.

aufkrawall
2013-02-11, 22:43:00
Was ist, wenn du auf dem Desktop 60Hz wählst?

TobiWahnKenobi
2013-02-11, 22:47:55
Ich bezweifle, dass sich das bei der Komplexität von DX & OGL in eine so einfache Form pressen lässt.
Das geht bei den Eingabemedien los, über die Anwendung (der gefühlte Input-Lag kann von Anwendung zu Anwendung stark variieren und keiner weiß genau, was die machen), Treiber, Windows-Kernel, Ausgabemedium...
Das ist wohl ne Forschung für sich, die Leute wie Coda oder Alphatier machen müssten. Da stünde nur der Aufwand in keinerlei zurechnungsfähiger Relation zum Nutzen.
Ich bin mir sicher, dass bei einem "Blind Test" alle, die hier bashen, bei 2-Way das AFR-Vsync nicht von sGPU unterscheiden könnten.
Sobald das Feature offiziell ist, wird es hoffentlich auch Tests von seriösen Testseiten/-magazinen geben, die unseren Eindruck "offiziell" bestätigen werden. ;)

Im Endeffekt definiert es sich natürlich im Groben so, wie du zitiert hast. Wie denn sonst? :biggrin:

*respekt* dafür! ich hab mir das lange zu erwähnen verkniffen.

http://www.abload.de/thumb/img_06304zu5d.jpg (http://www.abload.de/image.php?img=img_06304zu5d.jpg)
der letzte zuwachs in meiner mecha-sammlung
-> cherry, 15+ jahre alt, entsifft, lackiert ->>> PS/2


(..)

mfg
tobi

aufkrawall
2013-02-11, 22:56:27
*respekt* dafür! ich hab mir das lange zu erwähnen verkniffen.


(..)

mfg
tobi
:)
T. Lottes hat übrigens einen Artikel über Input Lag geschrieben, wo er auch olle Schrottmäuse erwähnt :D :
http://timothylottes.blogspot.de/2013/01/understand-speed-of-light-of-game-input.html

Godmode
2013-02-11, 23:22:57
Was ist, wenn du auf dem Desktop 60Hz wählst?

Ja das hat funktioniert.

Also folgende Ergebnisse mit 60 Hz:

Am schlimmsten ist es mit VSync Standard, egal ob AFR oder Single
Maus fühlt sich an, wie wenn sie am Gummiband hängt.

Zwischen VSync mit Adaptive und einmal mit und ohne Smooth AFR Flag, merke ich einen ganz leichten unterschied zu Gunsten des Flags, könnte aber auch der Placeboeffekt sein. Ich traue mich nicht, da ein Urteil zu fällen.

Generell kann ich mit 60 FPS keine Shooter spielen, ich hasse das. Auch mit nur einer GPU ist 60 FPS in Shootern für mich keine Option.

Also mir hilft das nicht weiter, kein VSync in Shootern auch wenn das Tearing extrem nervt.

:)
T. Lottes hat übrigens einen Artikel über Input Lag geschrieben, wo er auch olle Schrottmäuse erwähnt :D :
http://timothylottes.blogspot.de/2013/01/understand-speed-of-light-of-game-input.html

THX für den Link.

TobiWahnKenobi
2013-02-11, 23:23:42
@krawall
ja - mäuse sind ebenfalls ein thema für sich. wenn man zwingend USB benötigt und einiges an spieltrieb mitbringt, kann man es mit einer M90 von corsair versuchen; da lässt der treiber abtastungen zwischen 1 und 8ms bei maximal 5000+ dpi auflösung zu. ich hab sowas mal zum verifizieren angeschafft, kam aber noch nicht zu intensiven forschungen (zeit!).

Verdammt, da kann man auch keine 60 hz auswählen. Weiß jemand wo das noch geht? Wenn ich im Inspektor bei VSync half Refreshrate einstelle, dann ist das ja nicht das selbe, oder?

edit: Ich installiere mal CS1.6, das war immer mein liebster Benchmark was VSync und Inputlag angeht.

edit2: Mit 120hz ist selbst der VSync lag so minimal, das ich ihn fast nicht merke. Also entweder ich werde alt, oder was weiß ich.

geh weg mit deinen subjektiven eindrücken. natürlich sind die altersbedingt. aber sie sind praktisch und jetzt kommts: ES SIND MEINE EINDRÜCKE! :P

spiele schon seit ich denken kann und seit es LCDs + tearing gibt mit vsync und ich habe irgendwann nach umstieg auf diesen 120Hz schirm + GTX690 festgestellt, dass es das sauberste spielgefühl ist, das ich mit sync je hatte. ich habs sogar mal irgendwann vor monaten in einer randbemerkung geschrieben. hatte nur keine lust damals desw. ne diskussion loszutreten. wenn ich heute also irgendwo schreibe, das spielgefühl meiner kiste ist voll geil, dann heisst das nicht pauschal "mit einer GTX690 ist alles super!". denn "mein" ist halt die kombination aus eingabe + ausgabe.


(..)

mfg
tobi

Godmode
2013-02-11, 23:40:40
@krawall
ja - mäuse sind ebenfalls ein thema für sich. wenn man zwingend USB benötigt und einiges an spieltrieb mitbringt, kann man es mit einer M90 von corsair versuchen; da lässt der treiber abtastungen zwischen 1 und 8ms bei maximal 5000+ dpi auflösung zu. ich hab sowas mal zum verifizieren angeschafft, kam aber noch nicht zu intensiven forschungen (zeit!).



geh weg mit deinen subjektiven eindrücken. natürlich sind die altersbedingt. aber sie sind praktisch und jetzt kommts: ES SIND MEINE EINDRÜCKE! :P

spiele schon seit ich denken kann und seit es LCDs + tearing gibt mit vsync und ich habe irgendwann nach umstieg auf diesen 120Hz schirm + GTX690 festgestellt, dass es das sauberste spielgefühl ist, das ich mit sync je hatte. ich habs sogar mal irgendwann vor monaten in einer randbemerkung geschrieben. hatte nur keine lust damals desw. ne diskussion loszutreten. wenn ich heute also irgendwo schreibe, das spielgefühl meiner kiste ist voll geil, dann heisst das nicht pauschal "mit einer GTX690 ist alles super!". denn "mein" ist halt die kombination aus eingabe + ausgabe.


(..)

mfg
tobi

Der Flame oben hat sich nur auf 60 Hz bezogen. Mit 120 Hz kann ich auch mit VSync spielen, danke ich zumindest. 120 Hz TFT mit schnellem Ansprechverhalten, kommt relativ gut an einen CRT mit 100 Hz ran. Auch wieder nur subjektiv.

Also wie gesagt, solange man das nicht messen kann, können wir auch nicht genau feststellen um wie viel das jetzt besser ist.

Das wäre auch ein Thema für die PCGH, Highspeed Kamera und los gehts. Raff ist eh der Herr Mister Inputlag ;)

TobiWahnKenobi
2013-02-11, 23:45:10
Der Flame oben hat sich nur auf 60 Hz bezogen. Mit 120 Hz kann ich auch mit VSync spielen, danke ich zumindest. 120 Hz TFT mit schnellem Ansprechverhalten, kommt relativ gut an einen CRT mit 100 Hz ran. Auch wieder nur subjektiv.

Also wie gesagt, solange man das nicht messen kann, können wir auch nicht genau feststellen um wie viel das jetzt besser ist.

Das wäre auch ein Thema für die PCGH, Highspeed Kamera und los gehts. Raff ist eh der Herr Mister Inputlag ;)

mich freuts total, dass ich nicht der einzige irre bin, der das bemerkt. blaire müsste das eigentlich auch noch bestätigen, wir haben exakt bis aufs R den selben schirm.


(..)

mfg
tobi

Blaire
2013-02-11, 23:48:32
In Anbetracht der Tatsache, dass nicht plötzlich eine GPU schneller rechnen kann, kann eine gleichmäßigere Framerate nur durch eine Verzögerung des Outputs der 2. GPU erreicht werden, was dann natürlich sich auch auf die Gesamtframerate und auch auf die GPU Last auswirkt.

Das möchte ich nichtmal ausschließen, allerdings lässt sich das Lag auch verringern, wenn man ein gewisse Anzahl an Frames länger hält, nicht benötigte Frames schneller fallen lässt. Wie der Mechanismus genau funktioniert, wird man sicher nicht verraten.

BTW: Das Behaviourflag, was es nun anscheinend im NVCP gibt, gibts inoffiziell schon seit mehr als 3.5 Monaten...

Nein, seit 310.xx

mich freuts total, dass ich nicht der einzige irre bin, der das bemerkt. blaire müsste das eigentlich auch noch bestätigen, wir haben exakt bis aufs R den selben schirm.

Man kann es nur subjektiv beurteilen, bei 2-Way SLI störts kaum ja, mit 4-Way SLI sieht das schon anders aus, der "Gummiband-Effekt" dann deutlich spürbar, mit Vsync Smooth war es dann perfekt, kein spürbares Lag und sehr direkte Steuerung. Konnte ich in mehreren Games eindeutig reproduzieren.

Godmode
2013-02-11, 23:49:13
mich freuts total, dass ich nicht der einzige irre bin, der das bemerkt.


(..)

mfg
tobi

Ich hab den Benq erst seit Mai, aber weiß noch genau, wie ich drauf das 1. mal CS 1.6 mit 120 Hz angeworfen hab. Das fühlte sich wirklich wie früher an ;)

Ich warte nur mehr auf nen schnellen 30er mit gute Auflösung...

Mr. Lolman
2013-02-12, 07:53:26
Nein, seit 310.xx


Und den gibts seit 3.5 Monaten ;)

EDIT: nicht benötigte Frames?
EDIT²: Bis zu welcher Stufe kann man bei euren Displays mit dem prad lesbarkeitstest etwas erkennen?

Kriton
2013-02-12, 13:17:26
*respekt* dafür! ich hab mir das lange zu erwähnen verkniffen.

So, nach 30 Min. kann ich auch endlich eine Antwort schreiben die den Moderatoren keine Tränen in die Augen treibt.

Einfach mal den Kontext des Posts lesen auf den er sich bezieht - vielleicht auch den link anschauen wo genau das was er meint schreiben zu müssen ebenfalls erwähnt wird (hint: Ich habe das bewusst nicht zitiert, weil das hinsichtlich der gestellten Frage vollkommen irrelevant ist - darauf bin ich nach seinem Post sogar noch eingegangen).

Aber es ist natürlich viel einfacher sich überhaupt nicht inhaltlich mit den Dingen auseinander zu setzen (und bloß nicht den Zusammenhang der Diskussion betrachten - die Definition hatte ja seinen Grund wenn man sich die vorherigen Posts mal ansehen würde) - stattdessen suhlt man sich einfach in seiner eigenen gefühlten Überlegenheit. Natürlich ohne ein eigenes Argument zu bringen - geschweige denn, dass sich dies mit den vorherigen Argumenten auseinandersetzen würde.

Wenn man bedenkt, dass Du vermutlich mehr Ahnung von der Technik hast als ich eigentlich erstaunlich.