PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : The Tech Report: HighSpeed-Videos zeigen Micro-Stuttering


Seiten : [1] 2 3 4 5

AnarchX
2012-12-13, 08:28:28
http://techreport.com/review/24051/geforce-versus-radeon-captured-on-high-speed-video?utm_source=feedburner&utm_medium=feed&utm_campaign=Feed%3A+techreport%2Farticles+%28The+Tech+Report%3A+Articles%29

robbitop
2012-12-13, 08:49:17
Extrem interessant. Da zeigt sich doch immer wie, dass FPS allein über die smoothness aussagt.

boxleitnerb
2012-12-13, 08:51:02
Es ist ein guter Test, aber eine Bestätigung von anderer Seite wäre nicht verkehrt. Da muss nur ein Virenscan im Hintergrund laufen oder sonstwas verkorkst sein.

AnarchX
2012-12-13, 08:56:12
Ich denke mal Techreport, die schon länger Frametime-Analysen machen, wird das schon gründlich prüfen. Aber natürlich muss man wohl auch eingestehen, dass ein zukünftiger Treiber hier für Veränderungen sorgen könnte.

Eigentlich müsste man sich wohl wohl jeden Monat die 10 Top-Games hernehmen, dort 5 verschiedene typische Testszenarien herausnehmen, die wiederrum mit verschieden Qualitätseinstellungen testen und dann noch Frametimes und Bildqualität genau untersuchen. :freak:

boxleitnerb
2012-12-13, 09:00:55
Na das nun nicht, aber wenigstens 3-5 Spiele nehmen, nicht nur eines. Vielleicht kommt da noch was.

Komisch ist, dass diese Probleme in früheren Reviews nie auftraten.

AnarchX
2012-12-13, 09:02:36
Die Video-Aufnahmen wurden von Techreport gemacht, nachdem man in einem 660Ti vs 7950-Test unter Windows 8 verstärktes Stuttering auf der Radeon festgestellt hat: http://techreport.com/review/24022/does-the-radeon-hd-7950-stumble-in-windows-8
Dort sind auch ein paar mehr Spiele dabei.

boxleitnerb
2012-12-13, 09:19:32
Mag ja sein, aber warum ist es in allen früheren Tests ok?
http://techreport.com/review/23527/review-nvidia-geforce-gtx-660-graphics-card/5

Auch verwundert, dass die 660 Ti in Skyrim schneller ist - dies widerspricht allen neueren Tests, die ich kenne (außer mit SGSSAA).

Gouvernator
2012-12-13, 09:23:42
Was? Mikroruckeln Radeons mittlerweile schon sogar als single GPU?!:unono:

Loeschzwerg
2012-12-13, 09:29:13
@boxleitnerb: Evtl. andere Treiber? In dem Link von dir wurde mit dem Catalyst 12.7 gebencht, bei der Frametimeanalyse sicher mit dem aktuellsten WHQL (12.10) oder Beta (12.11??).

boxleitnerb
2012-12-13, 09:31:13
Das könnte natürlich sein. Da müsste AMD dann nochmal verbessern.
Man müsste vielleicht auch eine andere 7950 testen, um einen Defekt an der Karte vollkommen ausschließen zu können.

Loeschzwerg
2012-12-13, 09:40:32
Werden die sicherlich machen, so kann es schlichtweg nicht bleiben.

Bei der Frametimeanalyse fehlt mir generell die Auflistung des verwendeten Setups. Darf bei so einem schönen Test eigentlich nicht fehlen.

Raff
2012-12-13, 09:53:34
Nachweisen kann man viel. Man kann heutzutage auch Stoffe nachweisen, die angeblich tödlich sind – wenn man beispielsweise drei Ozeane voll davon säuft. Will sagen: Das, was da gemessen wurde, ist idR unter der Wahrnehmungsschwelle, also nicht fühlbar und somit irrelevant – im Gegensatz zum AFR-Ruckeln aktueller Multi-GPU-Geschichten. Ausgenommen sind Problemkinder wie der Witcher (2), die auf einer Solo-GPU ruckeln. Siehe dazu auch das Multi-GPU-Special in der PCGH 01/2013 (http://www.pcgameshardware.de/PC-Games-Hardware-Brands-18366/News/PCGH-01-2013-bestellen-Inhalte-1038012/). Wenn sich Windows 8 anders verhält, dann ist das eben ein weiterer Grund gegen dieses Betriebssystem. X-D

http://www.pcgameshardware.de/PC-Games-Hardware-Brands-18366/News/PCGH-01-2013-bestellen-Inhalte-1038012/galerie/2018506/

MfG,
Raff

MadManniMan
2012-12-13, 10:04:12
Das, was da gemessen wurde, ist idR unter der Wahrnehmungsschwelle, also nicht fühlbar und somit irrelevant (...)

Vorsicht mit solchen Aussagen. Wir müssten erstmal definieren können, wo diese Schwelle liegt. Wenn die Jungens dort auf das Problem stießen, weil sie es subjektiv fühlten, ist das schon widerlegt. Sollte es nur durch grafische Auswertung aufgenommener Daten aufgefallen sein, müsste man nachsehen, ob es nicht doch noch andere, fühlbare Problemszenarien gibt.

Und wie Du schon sagst: beim Hexer ist das der Fall! Wenn dort, warum dann auch nicht woanders?

Loeschzwerg
2012-12-13, 10:13:22
Im Single GPU Vergleich fällt dieses Problem vielleicht nur wenigen auf, aber vermutlich bei Multi GPU Systemen dann umso mehr (zusätzliche zum AFR Problem). Ergo hilft es immer auf solche Themen hinzuweisen um dann das Produkt verbessern zu können. Quality Management FTW :cool:

Cyphermaster
2012-12-13, 10:35:25
Bislang ist ja nicht mal klar, ob es an Hardware oder Software liegt, was da gemessen wurde. Es braucht also schon etwas mehr, damit daraus überhaupt ein konkreter Fingerzeig wird.

DryIce
2012-12-13, 10:43:52
Hier hat übrigens jemand ein kleines Programm gemacht das die Fraps frametime Werte etwas anschaulicher darstellt
http://sourceforge.net/projects/frafsbenchview/?source=dlp

robbitop
2012-12-13, 11:08:23
Nachweisen kann man viel. Man kann heutzutage auch Stoffe nachweisen, die angeblich tödlich sind – wenn man beispielsweise drei Ozeane voll davon säuft. Will sagen: Das, was da gemessen wurde, ist idR unter der Wahrnehmungsschwelle, also nicht fühlbar und somit irrelevant – im Gegensatz zum AFR-Ruckeln aktueller Multi-GPU-Geschichten. Ausgenommen sind Problemkinder wie der Witcher (2), die auf einer Solo-GPU ruckeln. Siehe dazu auch das Multi-GPU-Special in der PCGH 01/2013 (http://www.pcgameshardware.de/PC-Games-Hardware-Brands-18366/News/PCGH-01-2013-bestellen-Inhalte-1038012/). Wenn sich Windows 8 anders verhält, dann ist das eben ein weiterer Grund gegen dieses Betriebssystem. X-D

http://www.pcgameshardware.de/PC-Games-Hardware-Brands-18366/News/PCGH-01-2013-bestellen-Inhalte-1038012/galerie/2018506/

MfG,
Raff

Da wäre ich sehr vorsichtig damit! Es gibt Spiele, da fühlen sich 50-60 fps immer noch nicht smooth an. Und andere, bei denen sind 30 fps ok. Die Framelatenzen sind hier ähnlich wichtig, wie bei Multi GPU. Bei letzterem wird es natürlich verstärkt.
Das ist sicherlich Treiber- und Engineabhängig.

Coda
2012-12-13, 11:14:56
Jetzt in lang:
http://techreport.com/review/24022/does-the-radeon-hd-7950-stumble-in-windows-8

AMD muss da wirklich ihre Treiber fixen offenbar :|

boxleitnerb
2012-12-13, 11:29:44
Der Wert "Time spent beyond 16.7ms" hat sich nicht wirklich geändert bei der 7950, bei der 660 Ti aber dramatisch verbessert im ursprünglichen Skyrim Szenario, nämlich von 141ms auf 30ms.

AMD spokesman Antal Tungler is on the ball and said that the review had "raised some alarms" internally at the company. AMD is investigating and hoped to have some answers for us "before the holiday." It appears that AMD also expects the 7950 to perform well in FPS-based benchmarks and give the GeForce GTX 660 Ti a good kicking too.
http://www.fudzilla.com/home/item/29813-radeon-hd-7950-has-no-problems-with-windows-8

MadManniMan
2012-12-13, 12:10:48
Will sagen: Das, was da gemessen wurde, ist idR unter der Wahrnehmungsschwelle, also nicht fühlbar und somit irrelevant (...)

Und nochmal:

Hier ganz unten die Win7-Ergebnisse der 7950 -- das soll man nicht merken?

http://techreport.com/review/24022/does-the-radeon-hd-7950-stumble-in-windows-8/8

Nebenbei: exzellenter Artikel! Schön auch, dass AMD zumindest nichts schönzureden versucht, sondern immerhin zeitnah ein Statement bringen will.

Cyphermaster
2012-12-13, 12:39:49
Nebenbei: exzellenter Artikel!Na ja, an manchen Stellen bin ich schon verwundert. Es wird z.B. immer wieder drauf hingewiesen, daß W7 vs. W8 quasi gar nichts ausmachen würde - obwohl grade bei den 99% und "time spent beyond"-Diagrammen sehr oft deutliche (manchmal sogar drastische) Unterschiede bestehen.

Den Meßansatz selber hingegen finde ich auch sehr gut, grade als willkommene Relativierung des goldenen Kalbs FPS.

MadManniMan
2012-12-13, 12:55:52
Jau, meine überbordende Lobeshymne bezog sich eher auf den Messansatz :usad:

Der Unterschied zwischen Win7 und Win8 ist doch eher gering, mal ist 7 besser, mal 8, oder nicht?

Cyphermaster
2012-12-13, 13:45:07
Das ist richtig. Nur führt W8 bei den "Time spent beyond ..." wenn, dann eher marginal, während bei den Fällen, wo W7 die Nase vorn hat, fast immer gleich 20% oder mehr Unterschied besteht. Nur in einem einzigen der Benches hat W8 überdeutlich die Nase vor W7.

Man sieht auch oft eine eindeutige "Delle" im Kurvenverlauf zwischen 95% und 98%, verglichen mit der Kurve der 660Ti. Das Stotter-Verhalten scheint also mehrere "Schwellenwerte" zu haben, als wäre irgendein Pufferüberlauf oder sowas das Problem. Bei AC3 z.B. scheint es dann wieder so, als würde nur ein solcher Schwellwert erreicht = die Kurven sehen alle gleichförmig aus, aber nV mit Offset vorne. Bei MoH:W wird dagegen gar keine der Schwellen getriggert, die Karten performen auch bezüglich Stottern recht ähnlich. Ein weiteres Indiz dafür ist für mich auch, daß bei Skyrim einmal die 7950 diese "Delle" zeigt, beim anderen Skyrim-Szenario aber nicht = Stotterneigung ist abhängig vom Bildinhalt, nicht der Last bzw. FPS.

MadManniMan
2012-12-13, 13:57:36
Treffliche Analyse! Sehr schön!

Mal eine Theorie: könnte das Power Target irgendwie Schuld an diesem Stuttering sein?

Coda
2012-12-13, 14:24:40
Man könnte die GPU ja mal untertakten/untervolten um das zu überprüfen.

Blaire
2012-12-13, 16:48:54
Nachweisen kann man viel. Man kann heutzutage auch Stoffe nachweisen, die angeblich tödlich sind – wenn man beispielsweise drei Ozeane voll davon säuft. Will sagen: Das, was da gemessen wurde, ist idR unter der Wahrnehmungsschwelle, also nicht fühlbar und somit irrelevant – im Gegensatz zum AFR-Ruckeln aktueller Multi-GPU-Geschichten. Ausgenommen sind Problemkinder wie der Witcher (2), die auf einer Solo-GPU ruckeln. Siehe dazu auch das Multi-GPU-Special in der PCGH 01/2013 (http://www.pcgameshardware.de/PC-Games-Hardware-Brands-18366/News/PCGH-01-2013-bestellen-Inhalte-1038012/).

Umso fragwürdiger, warum du dann Witcher2 mit 30fps bei MultiGPU mit SingleGPU vergleichst, das ist weit entfernt von spielbar. Sollte man die Settings immer so anpassen, wie es maximal spielbar ist und auch nicht nur kurze Messungen durchführen. Letzteres mit viel Zeit verbunden, aber die muss man sich auch nehmen, da es ein komplexes Thema ist.

Cyphermaster
2012-12-13, 17:03:01
Treffliche Analyse! Sehr schön!Mal langsam mit dem Lob... GPU-Experte bin ich definitiv nicht! Ich basiere meine Vermutung (Analyse is was Anderes) lediglich auf grundlegendes Meßtechnik-Wissen: Solche "Stufungen" in Häufigkeitskurven weisen darauf hin, daß mehrere, bestimmte Wertebereiche bevorzugt vorkommen (je deutlicher die "Stufen", desto schmalbandiger) - und das ist nicht mehr zufällig, sondern systematisch.

Da der Unterschied W7/W8 die PT-Regelung aber nicht beeinflußt, würde es mir die als Grund eher unplausibel erscheinen. Bei gleichem PT-Verhalten dürften die Kurven zwischen W7 und W8 im relevanten Bereich nicht so völlig unterschiedlich sein, wie bei Skyrim oder Hitman.

Hübie
2012-12-14, 01:25:05
Nachweisen kann man viel. Man kann heutzutage auch Stoffe nachweisen, die angeblich tödlich sind – wenn man beispielsweise drei Ozeane voll davon säuft. Will sagen: Das, was da gemessen wurde, ist idR unter der Wahrnehmungsschwelle, also nicht fühlbar und somit irrelevant – im Gegensatz zum AFR-Ruckeln aktueller Multi-GPU-Geschichten. Ausgenommen sind Problemkinder wie der Witcher (2), die auf einer Solo-GPU ruckeln. Siehe dazu auch das Multi-GPU-Special in der PCGH 01/2013 (http://www.pcgameshardware.de/PC-Games-Hardware-Brands-18366/News/PCGH-01-2013-bestellen-Inhalte-1038012/). Wenn sich Windows 8 anders verhält, dann ist das eben ein weiterer Grund gegen dieses Betriebssystem. X-D

http://www.pcgameshardware.de/PC-Games-Hardware-Brands-18366/News/PCGH-01-2013-bestellen-Inhalte-1038012/galerie/2018506/

MfG,
Raff

The Witcher 2 ist sehr inkonsistent in dem Punkt. 10 Grad Drehung können 40% Performance kosten. Du darfst ja besonders in diesem Fall die avg-fps gar nicht heranziehen. 4*25 Bilder pro Sekunde +4*35 Bilder pro Sekunde ergeben auch 30 Bilder im Durchschnitt was suggeriert flüssig genug zu sein. Ein Trugschluß. Die fps sind der Kehrwert der frametimes und so ergäbe sich hier ein ungleichmäßiges, subjektiv nicht flüssiges Spielerlebnis. Jeder der an gleichmäßige Frameverteilung gewöhnt ist würde selbst diese Ruckler im Review nachsehen. Scott Wasson ist übrigens an der Sache dran. Am Testsystem liegt es schon mal nicht. AMD hat imo große Softwaredefizite - und damit meine ich nicht nur die Treiber.
Er ist der einzige Reviewer der das "Balkendenken" auflöst.

G 80
2012-12-14, 02:35:22
Schön das der Ansatz mal wieder aufgegriffen wird.


Was? Mikroruckeln Radeons mittlerweile schon sogar als single GPU?!:unono:


Tun sie doch schon immer (aber nicht nur die ATI Karten muss man Fairerweise sagen, dafür aber tendenziell ATI mehr), es braucht nur das richtige Spiel dafür.

Was HL 2 für MGPU ist, ist Gamebyro (auch Skyrim wenn sies halt anders nennen) für SGPU. Spielt mal Fallout 3 auf einer kleinen ATI - die hat MR bei 40-30 FPS die auffallen.

Alle Beth GB-Spiele, bis zu Skyrim hat sich da nicht viel getan - max ein wenig besser.

Und das sage ich nicht erst seit heute:



Noch dazu hab ich eigentlich selten MR Probleme; nur in Spielen mit Drecksengine/programiert machen sie gelegentlich Schlimmes noch übler ..... ich spiele lieber Crysis 1 mit konstant 25 FPS auf MGPU als Fallout 3 konstant unter 35 FPS auf SGPU.



Was die MR angeht: Ich spiele lieber beständig Crysis auf 88 GTX SLI mit 20-30 FPS als Fallout 3 auf 30-40 FPS egal ob NV MGPU oder ATI SGPU.




Raff hat die Wahrnehmungsschwelle angesprochen. Das mag stimmen aber das ist ne ganz üble Pandoras Büchse, die wir da haben.
Ich meine man darf auch unter 60 FPS erwarten, nicht schon auf SGPU MR zu sehen. Va hat wirlich dann wer Lust auf "30 FPS NV sind wie 45 FPS ATI also ist die 680 doch schneller!!!!" Flamewars - eben weils doch ein wenig Wahrheit enthält?

Fixen und aus - nicht rausreden; va weils ja die MR Problematik mit MGPU sicher nicht besser macht. ;D

Gouvernator
2012-12-14, 07:51:17
Zumindest hat man bei NV FPS Limiter von Haus aus. Man kann ihn benutzen solang die Leistung immer für gewisse min. FPS ausreicht. Mit Quad Sli wenn man aus dem Cpu Limit raus ist, kann man 58fps einstellen und immer super flüssig spielen. Die Lastanzeige dient dann dazu wie viel Luft man für weitere BQ hat. Wenn es bereits am Anschlag läuft gibt es immer diverse spikes die eingestellten fps runterdrücken werden, deswegen muss man bisschen Last frei machen. So zocke ich.

Hübie
2012-12-14, 08:22:10
Na ja. SLi macht man nur mit highend-Graka. Und da wiederrum mit einem 120/144-Hz-Monitor oder zwei Monitore. Stimme dir sonst zur. ;)
Besagter Report befasst sich jedoch auch mit mehrern Situation die kaum über die 60 fps Marke herausragen. Das heißt ein Limiter ist hier nur bedingt sinnvoll. Vor allem nicht für 120-Hz Nutzer. Dort musst du sehen so gut es geht an die 120 heran zu kommen.

Edit: Hab scott mal die Vermutung mit dem PT gezwitschert...

G 80
2012-12-14, 09:20:01
PT = Power Target?


Glaub ich insofern nicht als zB eben Gamebyro Spiele das auch schon HD 4 bzw GF 8 haben - dh meiner Erfahrung nach. :smile:

MadManniMan
2012-12-14, 09:47:41
Was HL 2 für MGPU ist, ist Gamebyro (auch Skyrim wenn sies halt anders nennen) für SGPU. Spielt mal Fallout 3 auf einer kleinen ATI - die hat MR bei 40-30 FPS die auffallen.

Krass, ich erinnere mich gerade daran, dass meine Geforce 6600 Go von Anno 2005 in meinem Laptop beim 3DMark 05 auch ständig mikrogeruckelt hat -- warum zur Hölle habe ich damals kein Brimborium drum gemacht?

Es waren echt wenige Frames und die kamen immer mehr oder weniger paarweise. Also: ich bestätige, dass es das auch auf nV-GPUs zumindest gab!

aufkrawall
2012-12-14, 10:51:47
Da gabs auch nicht perfekte Texturfilterung, schlechteres AA etc.
Nur interessiert das keinen mehr. Erst recht nicht, wenn es um die Frage geht, welche GPU man sich als nächstes kaufen will.
Da interessiert nur der Status Quo oder was noch kommt. AMD leistet sich wieder Patzer und verspielt das ohnehin nicht sehr große Vertrauen in ihre Treiber. Man könnte auch krass formulieren, dass die längeren Balken bei AMD nicht viel wert sind.

AA fehlerhaft, schwarzes Flackern, Mikroruckler mit sGPU.. was kommt als nächstes?

Cyphermaster
2012-12-14, 10:54:15
PT = Power Target?

Glaub ich insofern nicht als zB eben Gamebyro Spiele das auch schon HD 4 bzw GF 8 haben - dh meiner Erfahrung nach. :smile:Ließe sich durch einen Test mit einer GPU ohne PT verifizieren. Eine Reihe mit mehreren verschiedenartigen GPUs und verschiedenartigen Treibern unter WXP vs. W7 vs. W8 wäre ohnehin wohl sehr interessant, um die Hintergründe zu eruieren. Dummerweise nur extrem aufwendig.

Ich fände daher schon interessant genug, Szenenabhängikeiten bei der vorhandenen 7950-Karte ausführlicher zu untersuchen - in den Skyrim-Daten gibt es ja auch beim einen Bench eine wahre Ruckelorgie, beim anderen aber praktisch überhaupt nichts. Wenn man die auslösenden Inhalte hat, sollte man auch schon Rückschlüsse ziehen können.

aufkrawall
2012-12-14, 10:59:51
Kann PowerTune so schnell dazwischen funken, dass sich am angezeigten Takt nichts ändert?

mrt
2012-12-14, 11:49:47
Kann PowerTune so schnell dazwischen funken, dass sich am angezeigten Takt nichts ändert?
Ja

-/\-CruNcher-/\-
2012-12-14, 11:54:15
Microruckler im OS können zig gründe haben vor allem heutzutage mit all den Power Saving features auch die treiber mit ihren ganzen PP layern sind sehr komplex geworden (latency) und Aero nicht vergessen so einfach kann man da keine Analyse durchführen auch Timer issues bis zur hardware nicht nur GPU können hier ursache sein auch schlecht geschriebener code Windows ist kein RT OS nicht vergessen ;)

Zu schnelles pooling mag Windows generel nicht (Erfahrung) :)

Z.b würd ich keinem Empfehlen AIDA und co im Hintergrund laufen zu lassen während man höchste performance und low latency benötigt allerdings würde ich bei Rivatuner sagen nicht problematisch selbst mit sehr niedriegem Pooling einfach klasse gecoded ;)
Vor allem solltet ihre Process Explorer nicht laufen lassen das ist ein Microruckler garant ;)

Powertune und co mit ihren state switching in kombination mit den timer changes auf CPU seite das da die latency in mitleidenschaft gezogen wird wenn man auch Multithread mit einkalkuliert sollte jedem klar sein :)

Strom sparen hat eben vor und nachteile :)
bei SLI wird das ganze dann nochmal ein stück komplexer

Jede Messung auf Software (Treiber) seite wenn schlecht optimiert zieht probleme mit sich vor allem unter Windows.

Und Fraps naja das ist nicht gerade optimiert würd ich sagen, das kann einige Engines auch ganz schön aus der Bahn werfen, also wer das zum Analysieren in near Realtime nutzt hmm ;)

Nice zu sehen das Techreport anscheinend als erste Reviewer von FPS abstand nehmen hoffen wir das das die runde machen wird und Computerbase und Co auch dazu drängen wird tiefer zu schauen als das bisher der fall gewesen ist :)

Man kann sofort erkennen wie nice Frostbite 2 optimiert wurde :)

Die sollten mal Rage durchlaufen lassen ;)

Blaire
2012-12-14, 17:30:17
Zumindest hat man bei NV FPS Limiter von Haus aus. Man kann ihn benutzen solang die Leistung immer für gewisse min. FPS ausreicht. Mit Quad Sli wenn man aus dem Cpu Limit raus ist, kann man 58fps einstellen und immer super flüssig spielen. Die Lastanzeige dient dann dazu wie viel Luft man für weitere BQ hat. Wenn es bereits am Anschlag läuft gibt es immer diverse spikes die eingestellten fps runterdrücken werden, deswegen muss man bisschen Last frei machen. So zocke ich.

Versuch mal das neue "Vsync-Flüssig", das macht FPS-Limiter nahezu überflüssig und Tearing gibts damit auch nicht. Da es bereits im Control-Panel erkannt wird, kann wohl davon ausgehn, daß es dies bald auch offiziell im Treiber geben wird.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9575693&postcount=98

Hugo78
2012-12-14, 19:24:31
Was HL 2 für MGPU ist, ist Gamebyro (auch Skyrim wenn sies halt anders nennen) für SGPU.

Jo, die Gamebyro ist in dem Punkt echt suboptimal.
In Skyrim hat es sich ja etwas gebessert, aber Fallout 3 war wirklich schlimm.

Liszca
2012-12-14, 22:01:33
Was? Mikroruckeln Radeons mittlerweile schon sogar als single GPU?!:unono:

Ja, mann sieht sie sogar deutlich mit nur einer karte, mit der zweiten ändert sich jedoch nichts.

Beim spielen fällts wiederum nicht auf.

Mit welcher cpu wurde den dort getestet?

Flusher
2012-12-14, 22:22:08
Ja, mann sieht sie sogar deutlich mit nur einer karte, mit der zweiten ändert sich jedoch nichts.

Beim spielen fällts wiederum nicht auf.

Mit welcher cpu wurde den dort getestet?

Core i7-3820


Unter Sleeping-Dogs sind die Schwankungen der Frameraten deutlich kleiner und vergleichbar mit denen der 660 TI. Wieso fallen unter AC3 die Framzeiten der 7950 nach der Hälfte der Zeit auf 0 ? Auch macht es wenig Sinn, die "Time spent beyond" limits auf beide Karten gleichzeitig zu beziehen - da sollte die AVG Framzeit pro Karte als Offset verwendet werden, und der Grenzwert relativ dazu gesetzt. Irgendwie sieht mir das Ganze halbgar aus. :confused:

samm
2012-12-15, 00:02:18
Ich find diese Art Messung gut, sollte öfter mal gemacht werden in Reviews :) Allerdings halt noch eine Spur systematischer in dem Sinne, dass die von Flusher erwähnten Inkonsequenzen wegfallen, und zweitens:JaDen Einfluss von Powertune könnte man gerne mal Testen, erstens läuft z.B. die 7970 "von Haus aus" seltener ins Limit, zweitens kann man das manuell erhöhen. Auch diese bei Sound relevante DPC-Latency? Etc.

Wenn AMD das wirklich als Problem anerkannt hat, und weiterhin so gute Treiberarbeit leistet wie in letzter Zeit, könnte ja sogar als Nebenprodukt sowas wie ein framerate-smoothing für Crossfire bei Rauskucken *ins Blaue spekulier* ;)

G 80
2012-12-15, 07:24:13
Wenn man die auslösenden Inhalte hat, sollte man auch schon Rückschlüsse ziehen können.


bzw @ rest Post: Stimmt schon wäre sehr interessant; nur die verdammte Seele die das bencht möchte ich nicht sein.

Die Beth Spiele zicken doch genau da auch noch rum.

Bei Oblivion war MT noch kein großes Theme und das Spiel suckt dort einfach. Überhaupt wars alleine schon immer Bastelgebiet, da war AA + HDR noch Spitze des Eisberges. Andererseits gings damals auch darum das @ max 1920x1200 mit HDR und AA von Makro- auf Mirko-Ruckler zu bekommen. ;D Wenigstens verreckt es nicht gleich auf ner CPU mit Ht ... :rolleyes:

In F 3 hast du MT Probleme (ich kanns zb auf einem i7 mit patch 1.7 nicht absturzfrei spielen ohne exzessiv in der Ini rumzufrickeln.)

New Vegas nächster scherbenhaufen: Ruckler genug, Stichworte: Multisampling, Wasser Reflexionen, Festplatte und va Zellen. Ohne Zellentweaking kann man bei durch drehen über einen bestimmten Blickpunkt die FPS abstürzen lassen.

Skyrim ist seit den CPU Patches und allg. ..... etwas besser. Die neueste Version hab ich nicht im Kopf, aber trotzdem können da CPU Geschichten (obwohl genug Leistung da wäre) schon Einfluss nehmen. Zellentwaking ist aber auch hier angesagt aber nicht so dringen wie bei NV wo die wirklich 60-60-60-3-3-3-3-3-60-60-60-3-3-3-3-3-60-.... provozieren konntest.


Ich meine alleine schon Festzulegen was ein fairer Vergleich ist könnte schwirig sein. Die gepatchte Version ohne tweaking würde sich anbieten, nur dann könnte die ATI abkacken ohne das es ihre Schuld ist, sondern die von Skyrim.



P.S.: Bei Oblivion und F 3 hat sich nichtsmehr getan. NV und Skyrim vorbehaltlich, dass sie es doch vielleicht mal gepatcht haben. :hammer:

Neon3D
2012-12-15, 08:39:30
der techreport-test ist ja ein hammerbench !!!

my vote for "best article year 2012" !!!

Hübie
2012-12-15, 09:41:51
Core i7-3820


Unter Sleeping-Dogs sind die Schwankungen der Frameraten deutlich kleiner und vergleichbar mit denen der 660 TI. Wieso fallen unter AC3 die Framzeiten der 7950 nach der Hälfte der Zeit auf 0 ? Auch macht es wenig Sinn, die "Time spent beyond" limits auf beide Karten gleichzeitig zu beziehen - da sollte die AVG Framzeit pro Karte als Offset verwendet werden, und der Grenzwert relativ dazu gesetzt. Irgendwie sieht mir das Ganze halbgar aus. :confused:

Ganz einfach: Weil die schneller fertig ist. Der Benchmark spielt eine vordefinierte Sequenz ab. Je schneller die Karte rendert desto schneller ist der benchrun beendet. Das nennt man timedemo ;)
Und warum bitte ist es nicht sinnvoll die verbrachte Zeit nach x Millisekunden zu betrachten? So kannst du ablesen wie konstant das Verhalten ist.

M4xw0lf
2012-12-15, 10:04:48
Ich halte den Boost der getesteten HD7950 Vapor-X für den Schuldigen. Im Test der ursprünglichen 7950 ohne Boost gabs keine so krassen Frametime-Ausreißer. http://techreport.com/review/22384/amd-radeon-hd-7950-graphics-processor
(Natürlich hier unter Win7, aber wie der aktuelle Test zeigt, liegt es ja nicht an Windows 8).

Lightning
2012-12-15, 10:33:01
Interessanter Artikel. Vor allem auch die Unterschiede zwischen Windows 7 und 8.

Ich habe momentan auch ein Mikroruckelproblem: In Darksiders 2 mit einer GTX 460.
Interessant ist hier, wie stark sich die Nutzung eines Framelimiters auswirkt. Ich habe gerade selber mal einen kurzen Test durchgeführt.
Ohne Limiter sind es avg fps von 50 und "99th percentile frame time" von 40.1 ms (entsprechend 25 fps). Mit Limiter auf 40 fps sind es avg fps von 40 und "99th percentile frame time" von 28.2 ms (entsprechend 35.5 fps).

Ob das bei der Radeon auch so einen Unterschied machen würde?

aufkrawall
2012-12-15, 10:58:50
Bei Darksiders 2 liegt es aber sicherlich an der Anwendung selbst, bei Skyrim ist es der Catalyst-Treiber.

Cyphermaster
2012-12-15, 11:12:16
Ich halte den Boost der getesteten HD7950 Vapor-X für den Schuldigen. Im Test der ursprünglichen 7950 ohne Boost gabs keine so krassen Frametime-Ausreißer. http://techreport.com/review/22384/amd-radeon-hd-7950-graphics-processor
(Natürlich hier unter Win7, aber wie der aktuelle Test zeigt, liegt es ja nicht an Windows 8).Auch in dem ersten Test sieht man Ausreißer bei den HDx - nicht so extrem, und eher bei den HD6:

http://www.abload.de/thumb/superimposediqp2r.jpg (http://www.abload.de/image.php?img=superimposediqp2r.jpg)

Irgendwo ist da ein Abstimmungsproblem, sonst würden die AMD-Karten nicht mal solche schnell-langsam-Wechsel auswerfen, mal nicht. Interessant: Im ersten Test scheint die 580er auch teilweise an zwei Stellen an so eine Schwelle zu kommen, wo sie beginnt, deutlich ungleiche Frametimes in raschem Wechsel zu produzieren.

M4xw0lf
2012-12-15, 11:37:41
Auch in dem ersten Test sieht man Ausreißer bei den HDx - nicht so extrem, und eher bei den HD6:

http://www.abload.de/thumb/superimposediqp2r.jpg (http://www.abload.de/image.php?img=superimposediqp2r.jpg)

Irgendwo ist da ein Abstimmungsproblem, sonst würden die AMD-Karten nicht mal solche schnell-langsam-Wechsel auswerfen, mal nicht. Interessant: Im ersten Test scheint die 580er auch teilweise an zwei Stellen an so eine Schwelle zu kommen, wo sie beginnt, deutlich ungleiche Frametimes in raschem Wechsel zu produzieren.

Trotzdem haben wir hier nicht mal Frametime-Ausreißer über 30ms bei der 7950 (das am Anfang sind ja auch konstant niedrigere FPS und damit keine Microruckler) - im neuen Test sind die Spikes oft 60, bis zu 70 ms. Das ist ein gewaltiger Unterschied.
Alt: (7950)
http://techreport.com/r.x/radeon-hd-7950/skyrim-nv.gif

Neu: (7950 Boost)
http://techreport.com/r.x/7950-vs-660ti/skyrim.gif

Was allerdings noch dazu kommt ist, dass die Testszenen VÖLLIG unterschiedlich sind - einmal in Whiterun vom Schloss um den großen Baum, das andere Mal durch die Pampa. Da ist natürlich die Vergleichbarkeit auch bescheiden.

Lightning
2012-12-15, 11:48:40
Bei Darksiders 2 liegt es aber sicherlich an der Anwendung selbst, bei Skyrim ist es der Catalyst-Treiber.

Möglich. Das schließt aber doch nicht aus, dass ein Limiter hier trotzdem auch etwas brächte (auch wenn das natürlich keine saubere Lösung ist - interessant wäre es).

aufkrawall
2012-12-15, 11:56:17
Möglich. Das schließt aber doch nicht aus, dass ein Limiter hier trotzdem auch etwas brächte (auch wenn das natürlich keine saubere Lösung ist - interessant wäre es).
Ich hatte es mir auch mal angeschaut. Normalereise funktioniert auch Vsync sehr gut zur Frameglättung. Bei DS2 hatte es das Ruckeln aber afair sogar noch verstärkt. Klares Indiz dafür, dass was nicht stimmt. Interessanterweise kann dann ein fps-Limiter in solchen Fällen was bringen.

Skyrim hingegen läuft auch mit SLI & Vsync völlig smooth.

M4xw0lf
2012-12-15, 12:03:28
Bei Darksiders 2 liegt es aber sicherlich an der Anwendung selbst, bei Skyrim ist es der Catalyst-Treiber.

Und wie kommst du zu dieser Schlussfolgerung?
Frühere Tests ( http://techreport.com/review/22653/nvidia-geforce-gtx-680-graphics-processor-reviewed/8, http://techreport.com/review/22384/amd-radeon-hd-7950-graphics-processor) zeigen eine gute Vorstellung bei den Frametimes, da gibts also offenbar kein problem mit dem Treiber. Im neuen Test hat sich einiges geändert, neben dem Treiber ist auch die Testszene geändert worden, und es kommt die 7950 mit Boost zum Einsatz - wir haben hier also sowieso keine 1:1 vergleichbaren Daten.

aufkrawall
2012-12-15, 12:09:25
Die Testszene sollte ja egal sein, so lange Nvidia da nicht genau so ruckelt.
Der Boost ist ja primitiv, da sollte im GPU-Limit doch nichts an der Taktrate schwanken. Überdies muss halt der Treiber irgendwie damit klar kommen. Wenn da irgendwo die Abstimmung fehlt, liegt es letztlich dann doch wieder am Treiber, denn der muss dies doch fixen.

Einzig PowerTune scheint mir etwa mit den höheren Taktwerten durch den Boost sonst noch als wahrscheinliche Ursache.

boxleitnerb
2012-12-15, 12:14:00
VSync bringt doch aber nur was, wenn die fps auch über 60 sind.

Lightning
2012-12-15, 12:14:10
Ich hatte es mir auch mal angeschaut. Normalereise funktioniert auch Vsync sehr gut zur Frameglättung. Bei DS2 hatte es das Ruckeln aber afair sogar noch verstärkt. Klares Indiz dafür, dass was nicht stimmt.

Bei DS2 ist meines Wissens aber nur das ingame-VSync kaputt, über den Treiber geht es jedenfalls.
VSync hilft imo vor allem dann zu Glättung, wenn die fps hoch genug sind bzw. wenn es eben gleichzeitig als Framelimiter fungiert.

aufkrawall
2012-12-15, 12:17:36
VSync bringt doch aber nur was, wenn die fps auch über 60 sind.
Nicht, wenn die Refreshrate bei 30 liegt. :D
DS2 braucht halt nicht viel Leistung, da hatte ich Vsync klar als Limiter im Kopf.

Bei DS2 ist meines Wissens aber nur das ingame-VSync kaputt, über den Treiber geht es jedenfalls.

Hm, das weiß ich nicht mehr.
Kaputt in dem Sinne, dass es nicht mal ansatzweise das tut, was es soll?
afair hatte es auch über den Treiber geruckelt.


VSync hilft imo vor allem dann zu Glättung, wenn die fps hoch genug sind bzw. wenn es eben gleichzeitig als Framelimiter fungiert.
Das lässt sich mit SLI zum Glück meist einrichten.

Blediator16
2012-12-15, 12:29:11
https://forums.geforce.com/default/topic/516509/geforce-600-series/vsync-causing-huge-stuttering-problems-680-off-topic-posts-will-be-deleted-vsync-stutter-discussi/

Ist es sowas ähnliches wie das Problem von NV?

Cyphermaster
2012-12-15, 12:51:30
Zumindest liest es sich sehr ähnlich.

@M4xw0lf: Wenn es der Boost wäre - wie kommt der Effekt dann auf die HD6, die keinen Boost haben? Ob es 100, 50, 30 oder 20ms-Spikes sind, ist für die Frage nach der Ursache egal; bei einigen Spielen gibt es ja zumindest den Meßwerten nach gar keine.
Wenn man die Ursache kennt, dann kann man auch sinnvoll versuchen, die Symptome zu behandeln (= Frametime-Schwankungen auf ein zu definierendes "unkritisches Maß" einzugrenzen).

Hübie
2012-12-15, 16:12:02
Ja aber V-Sync ist im CCC per default auf Anwendungsgesteuert. Die einzige Gemeinsamkeit wird wohl ein Treiberbug sein.

Blediator16
2012-12-15, 16:19:07
AMD kann einem leid tun. Aus solchen Geschichten werden Fakten gestrickt. Man lese sich nur andere Foren durch. Da wird mittlerweile von Leuten berichtet, dass denen nach einem Wechsel auf NV auch aufgefallen war wie "smoother" die NV ist. Alles in allem wiedermal schlechte Presse für AMD. Momentan heisst es "AMD mr even with single gpu setup" und das verbreitet sich wie ein Lauffeuer. Plötzlich fällt allen Leuten auf wieviel Smoother die NVs doch laufen nachdem sie umgestiegen sind^^

Cyphermaster
2012-12-15, 16:34:42
Who wants to see ghosts, sees ghosts. Das wird immer so sein, hab ich über die Jahre gegenüber beiden IHVs erlebt - meist wegen recht unerheblichen Dingen. Man sieht aber auch schon an den Zahlen des akutellen Polls der Hauptseite, daß es viel mehr beinharte nV-Fanboys gibt, als Fanboys von AMD, also war mehr als erwartbar, daß die jetzt steil gehen.

Wenn man nun entdecken würde, daß die nV-Karten genauso mikroruckeln, wenn nur das richtige Szenario, Treiber und Karte zusammenkommen (siehe die 10ms-Jumps der GTX580 in obigen Benches, ~2x so stark wie die HD7950 - ganz gefeit scheinen sie nicht zu sein), dann wäre wieder ein Flamewar perfekt.
Und warum? Wahrscheinlich nur um ein paar winzige Justierungen im Treiber. :rolleyes:

Flusher
2012-12-15, 16:35:35
Ganz einfach: Weil die schneller fertig ist. Der Benchmark spielt eine vordefinierte Sequenz ab. Je schneller die Karte rendert desto schneller ist der benchrun beendet. Das nennt man timedemo ;)
Und warum bitte ist es nicht sinnvoll die verbrachte Zeit nach x Millisekunden zu betrachten? So kannst du ablesen wie konstant das Verhalten ist.

Ah stimmt ja - das sind Timedemos und keine Spielsequenzen. Da drängt sich mir aber dann die Frage auf, ob während einer Spielsequenz diese Schwankungen auch auftreten. :confused:

Bezüglich der "time spent beyond" Grenzwerte: nehmen wir mal an, das Karte X durchschnittlich 30 ms für ein Bild braucht und Karte Y nur 20 ms - es ist dann offensichtlich, dass Karte X deutlich häufiger einen exemplarischen Grenzwert von 35 ms überschreitet, weil diese ja ohnehin langsamer ist als die andere. Entsprechend sollte man den Grenzwert auf bspw. +/-20% der durchschnittlichen Framezeiten setzen. Zudem werden in dem Artikel nur die Frames gezählt welche den oberen Grenzwert erreichen.

Also wäre es sinnvoll, wenn Karte X Framezeiten von durchschnittlich 30 ms liefert den unteren Grenzwert bei 24 ms und den oberen Grenzwert bei 36 ms zu setzen. Anschließend rechnet man alle Frames die ausserhalb dieses Bereiches gerendert wurden zusammen.

(Bei Karte Y mit durchschnittlichen Framzeiten von 20 ms wären die Grenzwerte entsprechend bei 16 ms und 24 ms. )


Ob das jetzt die 7950 besser da stehen lassen würde, kann ich ohne Rohdaten nicht sagen, aber das oben geschriebene macht imho mehr Sinn um den Frameratenverlauf zu beschreiben.

Schaffe89
2012-12-15, 17:03:36
Sehr interessantes Problem, ich hoffe es beteiligen sich mehrere Seiten, damit Hardware oder Softwarefehler ausgeschlossen werden können.

AA fehlerhaft, schwarzes Flackern, Mikroruckler mit sGPU.. was kommt als nächstes?



Naja, meinst du nicht du übertreibst etwas?
Schwarzes Flackern? AA fehlerhaft? Ich glaub da gibts auch dezent andere Meinungen über die Themen.

Wenn man nun entdecken würde, daß die nV-Karten genauso mikroruckeln, wenn nur das richtige Szenario, Treiber und Karte zusammenkommen (siehe die 10ms-Jumps der GTX580 in obigen Benches, ~2x so stark wie die HD7950 - ganz gefeit scheinen sie nicht zu sein), dann wäre wieder ein Flamewar perfekt.


Alles in allem wiedermal schlechte Presse für AMD.

Wird in letzter Zeit aber auch forciert. Der PCGH zum Bleistift fehlen die Klicks, jetzt muss man halt Bild Niveau Artikel schreiben mit tollejn Überschriften und Top News des Tages.
Naja.. wenn man das Niveau so beibehält, dann werden die Nutzer trotzdem irgendwann weniger, selbst wenn man reißerische Artikel raushaut.
I
Ich hab mal nur so die Leise Vermutung, dass sich hier grade wieder etwas aufgebauscht wird, was bei Nvidia genauso auftritt.
Erst war es die Mär von den pauschal besseren Minimum FPS bei Nvidia, was natürlich völlger Unsinn war und jetzt ist es ein angebliches stotterrn bei Single GPU´s.
Wem ist aufgefallen, dass eine Boost HD 7950 genommen wurde? Beim vorherigen Test mit ner normalen HD 7950 gabs nicht solche ausreißer.

Jedenfalls bitte erstmal prüfen, bevor man schon wieder ungelegte Eier wie aufkrawall verbreitet, der sowieso nicht objektiv ist und bei jeder gelegenheit irgendwelche phösen Treibergeschichten verbreitet.

thedudeabides
2012-12-15, 17:09:46
Hey,

der Bericht ist auf jeden Fall extrem interessant und TR wird sicher an der Sache dranbleiben bzw. alle Vorschläge,Anregungen wie auch Kritik in neueren Berichten zu diesem Thema umsetzen. (Hoffentl. zumindest!)
Auf jeden Fall sollten Sie noch mehrere Treiber und auch ältere GPU-Generationen von AMD wie auch NV testen.-Das wäre wirklich geil.
So eine Aktion ist natürlich eine enorme Arbeit.
Das TR irgendwie NVIDIA bevorzugt bzw. AMD schlecht machen will ist IMHO absoluter Blödsinn!

Wie wäre es, wenn 3DCenter sich diesem Thema und dem Test inkl. älteren GPUs annehmen würde.-Wäre echt genial!

Ich persönlich hatte in meinem Leben seit der Voodoo1 viele Grakas und habe fast immer (zumindest zu 90%) nach P/L-geschaut. Dabei war mir die Marke eigtl. meist egal. -Das eine AMD-Karte dabei mehr Microruckeln an den Tag legte als die Pendants von NV habe ich nie bemerkt. -Aber die Sache ist eben auch massiv subjektiv!!!

In dem Video tendiere ich aber ganz klar zu NV!

Viell. ist es ja ein Problem der aktuellen AMD CGN-Generation?! -Das wäre natl. der Oberhammer! -Es ist aber sehr wahrschl. nur ein Treiberproblem. Das hoffe ich zumindest für AMD.

Ich persönlich bleibe auf jeden Fall an dem Thema dran.

VG

TDA

aufkrawall
2012-12-15, 17:18:57
Naja, meinst du nicht du übertreibst etwas?
Schwarzes Flackern? AA fehlerhaft? Ich glaub da gibts auch dezent andere Meinungen über die Themen.

Glauben kannst du in der Kirche.
Gipsel und Coda haben auch festgehalten, dass dort was falsch läuft.
Von mir aus halt "teilweise fehlerhaft oder ungünstig"...

Und nur weil das schwarze Flackern nicht jeder hat oder vielleicht auch nur nicht jedem auffällt, heißt das auch nicht, dass man da "andere Meinungen" zu haben kann.

Gibt nur eine Realität und fertig.

PCGH_Carsten
2012-12-15, 17:19:24
Wenn man nun entdecken würde, daß die nV-Karten genauso mikroruckeln, wenn nur das richtige Szenario, Treiber und Karte zusammenkommen (siehe die 10ms-Jumps der GTX580 in obigen Benches, [...]

So ganz neu (http://extreme.pcgameshardware.de/pcgh/142450-bonusmaterial-pc-games-hardware-05-2011-a-2.html#post2820195)(vorletztes Bild) ist das Problem nicht - WoW hatte dieses Problem (http://www.pcgameshardware.de/World-of-Warcraft-Cataclysm-PC-232999/Tests/WoW-Cataclysm-im-Test-12-AMD-und-Nvidia-Grafikkarten-mit-DirectX-9-und-DirectX-11-803254/) (siehe auch (http://www.pcgameshardware.de/World-of-Warcraft-PC-16678/Tests/WoW-Wrath-of-the-Lich-King-Ati-und-Nvidia-Grafikkarten-im-Benchmark-Test-Update-weitere-Karten-688999/)) eine ganze Weile ebenfalls bis es in einem Treiber gefixt worden ist. In Dragon Age 2 ist es mir persönlich das letzte mal wirklich störend aufgefallen - bei beiden IHVs. Da können durchaus auch Render-Techniken mit reinspielen denke ich. Ich meine, mal was von Engines gehört/gelesen zu haben, die aus Performancegründen nicht die kompletten AO-Daten in jedem Frame erneuern.

V2.0
2012-12-15, 17:31:40
Engineabhängige Probleme sollte aber bei beiden IHVs sichtbar werden.

Blaire
2012-12-15, 17:33:03
So ganz neu (http://extreme.pcgameshardware.de/pcgh/142450-bonusmaterial-pc-games-hardware-05-2011-a-2.html#post2820195)(vorletztes Bild) ist das Problem nicht - WoW hatte dieses Problem (http://www.pcgameshardware.de/World-of-Warcraft-Cataclysm-PC-232999/Tests/WoW-Cataclysm-im-Test-12-AMD-und-Nvidia-Grafikkarten-mit-DirectX-9-und-DirectX-11-803254/) (siehe auch (http://www.pcgameshardware.de/World-of-Warcraft-PC-16678/Tests/WoW-Wrath-of-the-Lich-King-Ati-und-Nvidia-Grafikkarten-im-Benchmark-Test-Update-weitere-Karten-688999/)) eine ganze Weile ebenfalls bis es in einem Treiber gefixt worden ist. In Dragon Age 2 ist es mir persönlich das letzte mal wirklich störend aufgefallen - bei beiden IHVs. Da können durchaus auch Render-Techniken mit reinspielen denke ich. Ich meine, mal was von Engines gehört/gelesen zu haben, die aus Performancegründen nicht die kompletten AO-Daten in jedem Frame erneuern.

Dragon Age2 stimmt, die Frametimes sind dort sehr grenzwertig, meist nur 75% Accuracy bei SLI, mit SingleGPU aber auch nicht wirklich besser.

Demirug
2012-12-15, 17:40:46
Engineabhängige Probleme sollte aber bei beiden IHVs sichtbar werden.

Muss nicht sein. Was glaubst du wie viel Code ein Treiber enthält um kaputte Engines auszugleichen. Entsprechend kann ein Problem mit einem Treiber sichtbar sein und mit einem anderen nicht. Genauso enthält jeder Treiber eine Kristalkugel die versucht zu erraten was die Engine eigentlich will und das funktioniert eben auch nicht immer gleich gut. Wenn der Treiber dann seinen Irrtum bemerkt kann das einen Spike auslösen um wieder aufzuräumen.

PCGH_Carsten
2012-12-15, 17:48:10
Dragon Age2 stimmt, die Frametimes sind dort sehr grenzwertig, meist nur 75% Accuracy bei SLI, mit SingleGPU aber auch nicht wirklich besser.
Ich meine ja sGPU.

Blaire
2012-12-15, 19:05:52
Ich meine ja sGPU.

Ok, wollte ja nur damit ausdrücken versuchen, das ich es bei Dragon Age2 ähnliches beobachtet habe. Oder auch Max Payne3 mit MSAA verhält sich merkwürdig, die Steuerung wirkt hakeliger, trotz vermeintlich hoher FPS (>40fps). Dabei spielt es keine Rolle ob Single oder Multi-GPU beides ist nicht wirklich flüssig. Eine Erklärung dafür, hab ich bis heute nicht.

HarryHirsch
2012-12-15, 19:12:45
http://techreport.com/review/24051/geforce-versus-radeon-captured-on-high-speed-video?utm_source=feedburner&utm_medium=feed&utm_campaign=Feed%3A+techreport%2Farticles+%28The+Tech+Report%3A+Articles%29


ist doch ein alter hut, spasstiger hat das schon hier festgestellt:


/EDIT: Hast du noch ein paar Single-5870-Mesungen von anderen Spielen zur Hand? Die Frametime-Schwankungen sind hier schon ungewöhnlich stark für Single-GPU. Hoffentlich ist das nicht auch in anderen Spielen so. :biggrin:

-/\-CruNcher-/\-
2012-12-15, 21:41:26
Muss nicht sein. Was glaubst du wie viel Code ein Treiber enthält um kaputte Engines auszugleichen. Entsprechend kann ein Problem mit einem Treiber sichtbar sein und mit einem anderen nicht. Genauso enthält jeder Treiber eine Kristalkugel die versucht zu erraten was die Engine eigentlich will und das funktioniert eben auch nicht immer gleich gut. Wenn der Treiber dann seinen Irrtum bemerkt kann das einen Spike auslösen um wieder aufzuräumen.

Tja und gerade AMD wollte deshalb wieder zurück in die Steinzeit ;)

Gipsel
2012-12-15, 22:36:54
Tja und gerade AMD wollte deshalb wieder zurück in die Steinzeit ;)
Worauf spielst Du an?

M4xw0lf
2012-12-16, 09:59:00
Übrigens, ich bin in der aktuellen PCGH im Artikel über CF ud SLI ebenfalls auf Angaben zu SingleGPU-Rucklern gestoßen (ebenfalls ein Artikel mit Frametime-Analyse): Da wird im Text erwähnt, dass die GTX680 in Skyrim und BF3 die größere Frametime-Ausreißer als die 7970GE aufweist (die dazugehörigen Diagramme wurden leider nicht abgedruckt); letztere zeigt heftige Spikes bei The Witcher 2 in 1080p mit 2x2 DS - bei gerade mal 18 FPS durchschnittlich (GTX680: 14 FPS, ohne Angaben zur Frame-Verteilung) kann man hier aber schon von "echten" Rucklern durch mangelnde Leistung ausgehen.
Ich erwarte eine Meldung dazu auf der 3dcenter-Startseite!!!11einself. :freak:

Raff
2012-12-16, 11:02:34
"Echte", d.h. sauber verteilte 18 Fps genügen mitunter (bei langsamen Spielen), während miserabel verteilte 18 Fps völlig unbrauchbar sind.

MfG,
Raff

M4xw0lf
2012-12-16, 11:56:19
The Witcher 2 ist im Kampf aber eindeutig so temporeich, dass 18 FPS da nicht mehr zum Überleben ausreichen ^^

Emploi
2012-12-16, 12:09:18
Es ist schön das im Bereich der dunklen Materie geforct wird.
Obwohl mir der Sinn immer noch nicht ganz klar ist. Mit der 5870 hatte ich mal kleine Aussetzer in Skyrim unter FullHD... Jetzt habe ich auf eine 7970 upgradedt und die Karte läuft immer in den 60FPS Limiter. Warum macht so ein Limiter Sinn, mehr als 60 Bild könnte ich sowieso nicht sehen selbst wenn ich wollte, denn mein Monitor nimmt nicht mehr entgegen.

-/\-CruNcher-/\-
2012-12-16, 12:15:06
"Echte", d.h. sauber verteilte 18 Fps genügen mitunter (bei langsamen Spielen), während miserabel verteilte 18 Fps völlig unbrauchbar sind.

MfG,
Raff

exact drops sind viel schlimmer (HVS) als gut funktionierende slowdowns hier und da, das fällt generel seit NT 6 auf das Microsoft da nachgebesert hat und Aero trägt seinen teil dazu bei :)
Drops können aber auch durch schlecht konfigurierte systeme erzeugt werden Overclocking ist da ein sehr gutes stichwort ;)
Man darf nicht alles nur immer im context von Nvidia und AMD suchen ;)

@Gipsel
Auf die Aussage von herrn AMD Mitarbeiter damals das es doch besser währe wenn wir alle die GPUs in ihrer nativen sprache programmieren würden als über Treiber und APIs zu gehen, dann ist jeder für seine Fehler selbst verantwortlich ;)

Theoretisch sollte sich Windows 8 Aero ja besser verhalten was GPU Latenzen angeht mit WDDM 1.2 daruafhin wurde es ja optimiert (low latency touch GUI input, faster response, instant wakeup, efficient preemptive multitasking, energy saving) Die Treiber müssen das allerdings ordentlich supporten und die Engines sich daran anpassen :)

aufkrawall
2012-12-16, 12:36:27
Was hat Aero mit Spielen zu tun?

Gipsel
2012-12-16, 12:48:13
@Gipsel
Auf die Aussage von herrn AMD Mitarbeiter damals das es doch besser währe wenn wir alle die GPUs in ihrer nativen sprache programmieren würden als über Treiber und APIs zu gehen, dann ist jeder für seine Fehler selbst verantwortlich ;)Sicher, daß das kein durchgeknallter Dev oder 10+ Jahre her war? Von denen kommen ab und zu mal seltsam anmutende Ideen. Link?

Im Übrigen sind auch jetzt öfter mal (aber natürlich nicht immer) die Entwickler "schuld" an Problemen, selbst mit "dickeren" APIs wie DirectX. Hat hier nicht schon irgendwer geschrieben, daß die Treiber ziemlich viele Sachen ausbügeln (müssen)?

Edit:
Das war Demirurg, der darüber etwas besser Bescheid wissen sollte:
Was glaubst du wie viel Code ein Treiber enthält um kaputte Engines auszugleichen. Entsprechend kann ein Problem mit einem Treiber sichtbar sein und mit einem anderen nicht. Genauso enthält jeder Treiber eine Kristalkugel die versucht zu erraten was die Engine eigentlich will und das funktioniert eben auch nicht immer gleich gut.

-/\-CruNcher-/\-
2012-12-16, 13:19:40
@Gipsel

Die Treiber bügeln meist die ineffiziente shader programmierung aus (was für die eine hardware effizient, für die andere wohlmöglich nicht gut) das kann auch zu sollchen spikes führen wenn im shader compiler ein fehler hängt, glaube das meinte Demirug auch :)

@aufkrawall
http://msdn.microsoft.com/en-us/library/windows/hardware/jj124390.aspx

Gipsel
2012-12-16, 14:48:26
Die Treiber bügeln meist die ineffiziente shader programmierung aus (was für die eine hardware effizient, für die andere wohlmöglich nicht gut) das kann auch zu sollchen spikes führen wenn im shader compiler ein fehler hängt, glaube das meinte Demirug auch :)Ich bin ziemlich sicher, daß er nicht den Shadercompiler meinte (und auch echte Fehler). Und Du hast den Link vergessen. ;)

MadManniMan
2012-12-16, 16:46:22
Cruncher,

es würde das Lesen und Verstehen Deiner Beiträge ungemein erleichtern, wenn Du ein bisschen mehr Wert auf Rechtschreibung im Allgemeinen, zumindest aber Interpunktion legtest!

aufkrawall
2012-12-16, 17:02:22
@aufkrawall
http://msdn.microsoft.com/en-us/library/windows/hardware/jj124390.aspx
Ich dachte, Aero spielt bei FSE Anwendungen eh keine Rolle. :confused:

R.I.P.
2012-12-16, 18:24:22
Irgendwie scheint das wieder virales Marketing vonseiten Nvidias zu sein, oder nur Zufall? Gerade jetzt zur Weihnachtszeit, wo einige sich eine neue Graka zulegen, hallt es plötzlich aus allen Ecken wie smooth eine Nvidia doch läuft und jetzt hat man auch einen "wissenschaftlich" belegten Test, dass die 7000er Reihe von AMD in jenem Sinne "Probleme" hat.
Gerade jetzt, wo AMD durch das seit jeher bessere P/L Verhältnis und durch das hervorragende Never Settle Programm eindeutig in jeder Preisklasse die bessere Wahl ist (Physx mal ausgenommen).
Alle "ichglaubeichbineinbesserwisser" weiten das natürlcih auf die ganze Serie aus...nicht nur auf die 7950 boost. Wieder nen Imageschaden bei DAUs. Genau der richtige Zeitpunkt gegen AMD, wirklich nur Zufall?

Schaffe89
2012-12-16, 19:02:49
Ich halte persönllich von den Messungen gar nichts, ehe nicht andere Seiten nachgezogen haben.
In der letzten PCGH wies die GTX 680 in zwei getesteten Spielen schlechtere Frametimes als eine HD 7970 ghz auf.

Virales MArketing? Hm vielleicht.
Wahrscheinlich ist an dem Thema gar nichts drann. Mit hoher Wahrscheinlichkeit finden sich Spiele die auf Nvidia deutlich schlechtere Framtimes ergeben, siehe Witcher 2 Werte der PCGH.

Im Prinzip kann jeder irgendeinen Artikel schreiben und mit zusammengesuchten Werten irgendeine pauschale Aussage treffen.
Ob richtig oder falsch, mal sehen.

aufkrawall
2012-12-16, 19:03:03
Es steht noch gar nicht fest, welche GPUs genau betroffen sind.
Du erweckst jedenfalls den Eindruck, als sei das Problem mit Sicherheit nur bei der 7950 Boost zu finden. Auch nicht wissenschaftlich.

Schaffe89
2012-12-16, 19:07:48
Du erweckst jedenfalls den Eindruck, als sei das Problem mit Sicherheit nur bei der 7950 Boost zu finden. Auch nicht wissenschaftlich.

Wissenschaftlich ist hier erstmal fast kein Kommentar, wir brauchen erstmal Messwerte, dann kann man weiter reden.
Strange ist es auf jeden Fall alle mal, deswegen bin ich auch etwas kritischer, wenn solche News kommen.

aufkrawall
2012-12-16, 19:16:44
Ich meinte eigentlich R.I.P.. :)

Nun ja, es wird ja niemand mit einer Radeon daran gehindert, fleißig zu messen.
Ist nun wirklich keine große Sache.

Skusi
2012-12-16, 19:36:50
Meine 7950 hat kein Boostbios und bei Skyrim und Witcher 2 brauche ich auch keine Messung um die heftigen Mikroruckler zu merken. Bei Skyrim hilft ein 60 Fps Limit schon sehr, aber der Witcher stottert immer. Die beiden sind aber auch Extremfälle, bei anderen Spielen merke ich nichts davon.

N0Thing
2012-12-16, 21:25:38
Irgendwie scheint das wieder virales Marketing vonseiten Nvidias zu sein, oder nur Zufall?
[...]
Genau der richtige Zeitpunkt gegen AMD, wirklich nur Zufall?

Der ursprüngliche Artikel ist sicher kein virales Marketing. Was aus den Fakten dann in den Foren und von anderen News-Seiten gemacht wird, steht dann auf einem anderen Blatt. Techreport hat aber ganz seriös Messungen durchgeführt und kommentiert. Wenn überhaupt, hätten sie mehr Grafikkarten und unterschiedliche Treiber testen sollen, um ein paar der Fehlerquellen ausschließen zu können.

Schaffe89
2012-12-16, 21:46:39
Meine 7950 hat kein Boostbios und bei Skyrim und Witcher 2 brauche ich auch keine Messung um die heftigen Mikroruckler zu merken.

Doch du brauchst eine Messung, denn Ruckler können noch viele andere Gründe haben.

Mit welchem Programm lassen sich die Frametimes am besten messen?
Mein zweitsystem mit FX-8350 und Direct Cu II HD 7970 wären bereit für ein paar Messungen.

Gipsel
2012-12-16, 22:40:49
Mit welchem Programm lassen sich die Frametimes am besten messen?Fraps?

Schaffe89
2012-12-17, 00:25:04
Und woher weiß ich, dass Fraps richtig misst?
Es gab doch da mal Diskussionen deswegen.

Hübie
2012-12-17, 00:41:56
Irgendwie scheint das wieder virales Marketing vonseiten Nvidias zu sein, oder nur Zufall? Gerade jetzt zur Weihnachtszeit, wo einige sich eine neue Graka zulegen, hallt es plötzlich aus allen Ecken wie smooth eine Nvidia doch läuft und jetzt hat man auch einen "wissenschaftlich" belegten Test, dass die 7000er Reihe von AMD in jenem Sinne "Probleme" hat.
Gerade jetzt, wo AMD durch das seit jeher bessere P/L Verhältnis und durch das hervorragende Never Settle Programm eindeutig in jeder Preisklasse die bessere Wahl ist (Physx mal ausgenommen).
Alle "ichglaubeichbineinbesserwisser" weiten das natürlcih auf die ganze Serie aus...nicht nur auf die 7950 boost. Wieder nen Imageschaden bei DAUs. Genau der richtige Zeitpunkt gegen AMD, wirklich nur Zufall?

Trollst du einfach nur? Scott Wasson macht dass schon sehr sehr lange und hat tiefe Verbindungen in diesen Industriezweig. Der wird sicherlich nicht einfach so eine Pfuscherarbeit hinlegen wenn er diese Messungen nicht mehrere Male in unterschiedlichen Konfigurationen durchlaufen hätte. Er stellt dieses Phänomen auch nicht für sich fest. Es gibt viele denen das auffällt. Sorry aber du bist auch nicht auf dem laufenden.

@Schaffe89: Dann lade dir noch dieses tool herunter: http://frapsforum.com/threads/new-tool-for-viewing-fraps-benchmark-files.2121/

da ziehst du die *.csv rein und hast sofort ein visuelles Ergebnis :smile: Eine copy-to-clipboard-Funktion für das Ergebniss gibt es ebenfalls. Hier mal ein Beispiel von einem 55-sekündigen skyrim-run:

http://www.abload.de/img/frametimesn2yel.png (http://www.abload.de/image.php?img=frametimesn2yel.png)

V2.0
2012-12-17, 07:32:31
Muss nicht sein. Was glaubst du wie viel Code ein Treiber enthält um kaputte Engines auszugleichen. Entsprechend kann ein Problem mit einem Treiber sichtbar sein und mit einem anderen nicht. Genauso enthält jeder Treiber eine Kristalkugel die versucht zu erraten was die Engine eigentlich will und das funktioniert eben auch nicht immer gleich gut. Wenn der Treiber dann seinen Irrtum bemerkt kann das einen Spike auslösen um wieder aufzuräumen.

Klar, aber wenn das Problem dann wieder in mehreren Anwendungen mit unterschiedlichen Engines auftritt, dann liegt das Problem zumindest am Treiber. Wobei ich das Problem als real unbedeutend bewerte.

Cyphermaster
2012-12-17, 11:04:22
Es liegt dann wohl am Zusammenspiel zwischen Engine, Treiber und OS. Wie Demirug schon sagte: Ein Treiber kann nicht mit Sicherheit erraten, was eine Engine erwartet.

R.I.P.
2012-12-17, 14:01:18
Trollst du einfach nur? Scott Wasson macht dass schon sehr sehr lange und hat tiefe Verbindungen in diesen Industriezweig. Der wird sicherlich nicht einfach so eine Pfuscherarbeit hinlegen wenn er diese Messungen nicht mehrere Male in unterschiedlichen Konfigurationen durchlaufen hätte. Er stellt dieses Phänomen auch nicht für sich fest. Es gibt viele denen das auffällt. Sorry aber du bist auch nicht auf dem laufenden.

Alles mit der Ruhe! Kein Ferkel hat gesagt, dass seine Arbeit nonsense ist, oder dass er nicht seriös ist, oder dass der Test sogar ein Fake sein kann. Mein Post bezog sich ausschließlich auf den optimal gewählten Zeitpunkt der Veröffentlichung dieses Tests (für Nvidia), auch wenn AMDs boost Reihe schön seit langem auf dem Markt ist. Warum er gerade jetzt den Test gemacht/veröffentlicht hat, bleibt für mich die Frage; wie auch oben geschrieben: entweder beschissener (für AMD) Zufall, oder der Zeitpunkt ist eben induziert (was nicht sein muss).
Bist du mit ihm verwandt, dass du dich so aufregst?

Iruwen
2012-12-17, 14:08:59
Vielleicht waren auch einfach die aktuellen Performancetreiber ein guter Grund sich sowas mal anzusehen ("Going into the contest, we thought the Radeon HD 7950 was the heavy favorite for a number of reasons. Among them is the fact that AMD has released new graphics drivers in recent weeks that promise a general performance increase.") Oder irgendwas beliebiges anderes. Um da spontan auf virales Marketing zu kommen muss man schon ein ziemlich klar definiertes Feindbild haben.

Cyphermaster
2012-12-17, 14:32:14
Wenn etwas "viral" war, dann doch eher die Verzerrungen, die News-Seiten diesbezüglich draus gemacht haben, wie z.B. es fix den HD7000 zuzuschreiben (ist bei weitem noch nicht klar, wo der Hammer hängt) oder in der Auswirkung bzw. Umfang in ihren Meldungen zu übertreiben.

RIPchen
2012-12-17, 14:51:20
Hallo Leute,

mit Interesse habe ich von dem Thema gelesen und kann dazu wirklich nur eins beitragen: eigene Erfahrung.

In Battlefield 3 liefen zwei 5870er bis zum 12.11b3 lausig und mit offenkundig stark variierenden frametimes, sodass es bei ~120fps (fraps) unspielbar war, weil es sich wie 20fps anfühlte. Das alles mag ein Treiberproblem gewesen sein. Allerdings habe ich, der in den letzten 15 Jahren von so gut wie jeder Grafikkartengeneration beider großen Hersteller je ein Exemplar mehr oder weniger lang im Rechner hatte eines festgestellt und als meine ganz eigene und persönliche Erfahrung folgendes festgestellt:

Seit vielen, vielen Jahren fühlen sich Nvidia-Karten bei ungefähr gleich hohen fps deutlich smoother an als das selbe game mit einer ATI-Karte.

Ich habe das zu Beginn auf die massive Unterstützung der Spielehersteller durch Nvidia zurückgeführt. Mittlerweile glaube ich daran jedoch nicht mehr, nachdem sich das selbe auch bei AMD-unterstützten Spielen nicht geändert hat. Jetzt wo ich das hier lese schliesst sich irgendwo ein Kreis.

Ich vermute daher, dass es ein generelles - und altes - Treiberproblem ist.

Wie gesagt: ich tendiere weder zu AMD noch zu Nvidia, habe immer von beiden mal eine (oder wie jetzt zwei) Karten im System. Aber das wirklich smoothe gameplay, das kenne ich eigentlich nur von Nvidia. Und da ich da persönlich sehr empfindlich drauf reagiere - viele Freunde sagen "es läuft doch rund" wo ich es nicht rund finde usw - bin ich sehr gespannt, was letztendlich dahintersteckt.

Dass das ganze jetzt pünktlich zur Vorweihnachtszeit - und wohl Haupt-Grafikkartenkaufzeit - auf den "Tisch" kommt riecht natürlich nach einer feinen Nvidia-Marketingstrategie. Das Leben ist eben hart und herzlos, zumal AMD davon derzeit besonders hart getroffen wird. Laut John Peddie Research (News vor 1-2 Wochen) hat ja AMD im vergangenen Quartal trotz der schnelleren und gleichzeitig billigeren Angebote auch noch Marktanteile an Nvidia verloren.

Man muss allerdings auch sagen, dass Nvidia das Problem Mikroruckler oder auch allgemein die frametimes seit einiger Zeit angeht und hier wirklich beeindruckende Ergebnisse erzielt hat. Wo die frametime-Diagramme bei AMD ein breit verwaschenes Bild ergeben, schnurren die Nvidia-Karten mit niedriger Bandbreite um relativ konstante frameraten herum. Wie gesagt: gefühlt stimmt das seit Jahren mit meinem ganz persönlichen Eindruck vollkommen überein.

Bin sehr gespannt wie es weitergeht.

Grüße
Rippi

aufkrawall
2012-12-17, 15:19:17
Jetzt gibts erstmal einen Shitstorm, dass du ein Opportunisten-Fanboy bist, der die Situation ganz fies ausnutzt, und somit nichts an deinen Worten wahr ist.

Hübie
2012-12-17, 15:33:37
Alles mit der Ruhe! Kein Ferkel hat gesagt, dass seine Arbeit nonsense ist, oder dass er nicht seriös ist, oder dass der Test sogar ein Fake sein kann. Mein Post bezog sich ausschließlich auf den optimal gewählten Zeitpunkt der Veröffentlichung dieses Tests (für Nvidia), auch wenn AMDs boost Reihe schön seit langem auf dem Markt ist. Warum er gerade jetzt den Test gemacht/veröffentlicht hat, bleibt für mich die Frage; wie auch oben geschrieben: entweder beschissener (für AMD) Zufall, oder der Zeitpunkt ist eben induziert (was nicht sein muss).
Bist du mit ihm verwandt, dass du dich so aufregst?

Ganz einfach: er ist bei Ausarbeitungen zum Weihnachts-special darauf gestoßen. Das ist garantiert kein virales marketing. So etwas haben nur schwache Redakteure nötig.
nVidia verwendet seit G80 frame-metering (per Treiber??). Das ist schon mal ein Grund. Ein pre-renderlimit auf einen falschen Wert kann auch sprunghaftes verhalten hervorrufen. Standard bei nV ist 3.

@RIPchen: Das ist auch viel subjektive Selektion. Hirn und Auge bescheißen uns regelmäßig. Wenn nV sich für dich besser anfühlt verstehe ich nicht wieso du dann AMD hast...oben drein auch noch CFX mit Cypress :rolleyes:

Cyphermaster
2012-12-17, 15:47:20
Es ist im Endeffekt doch egal; als Käufer kann man nur gewinnen - weil sich immer der jeweils zurückliegende Hersteller natürlich nicht erlauben kann, diesbezüglich keine Verbesserungen zu bringen. Das heißt, solange auch solche zusätzlichen Qualitätskriterien weiterhin von Reviewern mit betrachtet werden.

Wie "dramatisch" die Unterschiede in tagtäglicher Realität sind, sieht man schon daran, daß im Artikel bezüglich dem Kriterium "Time spent beyond...ms" mehr als nur einmal vom früheren Universalkriterium 50ms zum Besseren hin abgewichen wurde, um überhaupt stutter-frames zu finden - und bisher war der Effekt für die Leute auch nicht verbreitet bzw. wesentlich genug, als daß die Leute deshalb reihenweise ihre Karten zurückgegeben hätten. Sonst gäbe es auch längst viel mehr Frametime-Analysen.

Interessanter für mich ist die Fragestellung, wie es allgemein dazu kommt, bzw. was sich dagegen tun läßt.

R.I.P.
2012-12-17, 16:45:28
@RIPchen: Das ist auch viel subjektive Selektion. Hirn und Auge bescheißen uns regelmäßig. Wenn nV sich für dich besser anfühlt verstehe ich nicht wieso du dann AMD hast...oben drein auch noch CFX mit Cypress :rolleyes:

Habe doch tatsächlich gedacht, dass du mir einen Kosenamen :love4: gegeben hast, bis ich gemerkt habe, dass hier im Forum tatsächlich jemand so heißt

Blediator16
2012-12-17, 16:54:26
Es ist im Endeffekt doch egal; als Käufer kann man nur gewinnen - weil sich immer der jeweils zurückliegende Hersteller natürlich nicht erlauben kann, diesbezüglich keine Verbesserungen zu bringen. Das heißt, solange auch solche zusätzlichen Qualitätskriterien weiterhin von Reviewern mit betrachtet werden.

Wie "dramatisch" die Unterschiede in tagtäglicher Realität sind, sieht man schon daran, daß im Artikel bezüglich dem Kriterium "Time spent beyond...ms" mehr als nur einmal vom früheren Universalkriterium 50ms zum Besseren hin abgewichen wurde, um überhaupt stutter-frames zu finden - und bisher war der Effekt für die Leute auch nicht verbreitet bzw. wesentlich genug, als daß die Leute deshalb reihenweise ihre Karten zurückgegeben hätten. Sonst gäbe es auch längst viel mehr Frametime-Analysen.

Interessanter für mich ist die Fragestellung, wie es allgemein dazu kommt, bzw. was sich dagegen tun läßt.

Das größere Problem ist hierbei, dass wie weiter oben Leute aus ihren Löchern gekrochen kommen und behaupten AMDs fühlen sich bei gleicher FPS weniger smooth an. Und das passiert in mehreren Foren wodurch sich dann ein weiteres Gerücht von vermeidlichen Problemen mit AMD Karten und sGPU MRs ergibt. Das selbe sagen Testpatienten zu Placebopillen, die ihnen angeblich Verbesserungen gebracht haben:rolleyes:

Cyphermaster
2012-12-17, 17:17:22
Kann ja auch stimmen, daß sie subjektiv diesen Eindruck hatten. Ich kenne dafür eine sture GTX570, die ebenfalls trotz theoretisch klar höherer FPS gegenüber einer GTX460 bzw. HD5/6 immer wieder mal gefühlt spuckt, als hätte einer die Handbremse angezogen. Konnte ich auch nie konkret an was festmachen.
Da könnte ich jetzt auch anfangen: Na wenn das mal nicht das böse, böse nV-Mikroruckeln war, das die schon immer hatten... :rolleyes:

Ob solche Erfahrungen a) wirklich exakt so so (grade bei "gefühlten" Sachen) und b) verallgemeinerbar waren, ist mit sowas nicht gesagt. Solcherlei Behauptungen sind -imho- vorwiegend Aufblähen vor DAUs oder Fanboy-ismus.
Es gibt halt schlicht viel mehr eiserne nVidia-Fanboys, als AMD-Fanboys; kommt auch bei der letzten Umfrage hier so raus. Daß die, die "es eh schon immer wußten" natürlich auf sowas anspringen, ist schlicht erwartbar.

aufkrawall
2012-12-17, 17:42:41
Es gibt halt schlicht viel mehr eiserne nVidia-Fanboys, als AMD-Fanboys

Großartige Debatte.
Ich sag dann mal, dass die für AMD viel üblere Zeitgenossen sind. ;)

Cyphermaster
2012-12-17, 18:22:24
Was die "Behauptung" betrifft, es gäbe hier mehr nV-Fanboys: Siehe die Auswertung der Umfrage von neulich (http://www.3dcenter.org/umfrage/grafikkarten-kauf-streng-amd-oder-nvidia-oder-wechselwaehler), in der es unter den Prinzip-Käufern glatt doppelt so viele bekennende "grüne" Jünger gab, wie "rote". Wenn du meinst, es sind die Übleren - geh ihnen halt aus dem Weg.

Mir als Wechselkäufer ist es herzlich egal, wie man -eigentlich- auch aus meinem Post hätte rauslesen können.

aufkrawall
2012-12-17, 18:40:13
Vielleicht sind viele Leute mit AMD (-Treibern) einfach mal auf die Schnauze gefallen und wollen dies nicht unbedingt wiederholen?
Das heißt nicht automatisch, dass es NV-Fanboys sind.

Mein Eindruck ist auch, dass mit GCN die Treiber nicht wirklich besser geworden sind:
ZeroCore ist Glückssache, "Streifencrashes", Grafikfehler bei DX9, jetzt womöglich allgemein mehr Mikroruckler...
Wenn dann noch die AA-Features schlechter sind und man nicht fast ein Jahr (BF3) auf Performanceverbesserungen für manche Spiele warten will (oder diese gar nicht kommen, siehe SC2), dann ist man halt irgendwann bei "kaufe generell Nvidia". :freak:

Das Taktmanagement bei AMD ist auch scheiße. Das kann so aggressiv rauf und runter springen, dass ich Max Payne mit SGSSAA & Vsync nicht ohne arg bescheidenes Geruckel spielen konnte.
Bei AMD stecken gerne mal 1000 Teufel im Detail...

RIPchen
2012-12-17, 18:46:05
@Hübie:

Weil mir kurz nach Erscheinen der 58xx-er ein Freund zu einem sagenhaft günstigen Preis eine 5870 angeboten hat. Die zweite habe ich dazu gekauft, als die Preise unten waren und ein Sonderangebot dazu kam.

@Alle

Wie gesagt ist es mein rein subjektiver Eindruck. Um das hier zu posten bin ich aber wirklich aus keinem Loch rausgekrochen, ich saß friedlich auf meinem Bürostuhl.

Ich verstehe generell nicht, wieso Diskussionen über Grafikkarten doch immer wieder recht flott auf das "Fanboy"-Niveau absinken. Ich denke, dass man sich über so ein Thema ja auch ruhig und sachlich unterhalten kann, wie es der Thread ganz überwiegend zeigt.


Ich selbst überlege seit einigen Wochen ganz verschärft, welche neue Grafikkarte(n) ich mir zulege. Meine beiden 5870er haben nun ausgedient und bringen einfach nicht die von mir gewünschte Leistung. Aber ich bin ja schon etwas älter und das bringt bekanntlich Geduld mit sich :-)

Werde das Thema weiter interessiert verfolgen !

Bis bald mal
Rippi

P.S. @ R.I.P.
Ich habe meinen Namen in der virtuellen PC-Welt seit 1998, auch hier im Forum sicher schon über 5 Jahre, der Ursprung ist aber sicher derselbe...
P.P.S. Genauer gesagt seit 06.01.2003 wie ich gerade sehe...

Iruwen
2012-12-17, 18:54:19
Das größere Problem ist hierbei, dass wie weiter oben Leute aus ihren Löchern gekrochen kommen und behaupten AMDs fühlen sich bei gleicher FPS weniger smooth an. Und das passiert in mehreren Foren wodurch sich dann ein weiteres Gerücht von vermeidlichen Problemen mit AMD Karten und sGPU MRs ergibt. Das selbe sagen Testpatienten zu Placebopillen, die ihnen angeblich Verbesserungen gebracht haben:rolleyes:

Wat. Das Problem wurde im Test systematisch und nachvollziehbar nachgewiesen.
Außerdem gibt es im "grünen Lager" (sigh) genauso Gemecker zu (Adaptive) VSync Stutter mit sämtlichen Kepler Karten das es mit 500ern und davor angeblich nicht gab (kann ich nicht beurteilen weil ich vorher 'ne AMD hatte) - evtl. mal eine eigene Betrachtung wert.

Cyphermaster
2012-12-17, 19:22:57
Vielleicht sind viele Leute mit AMD (-Treibern) einfach mal auf die Schnauze gefallen und wollen dies nicht unbedingt wiederholen?
Das heißt nicht automatisch, dass es NV-Fanboys sind.Bei schlechten Erfahrungen (die ich im Übrigen auch schon weidlich hatte, bei grün wie rot) hätten sie wohl "kaufe tendenziell eher NV" angeklickt. Wer unter allen Umständen eine bestimmte Marke kauft, d.h. egal wie die Faktenlage ist, macht das nicht aus logischer Überlegung, sondern emotional.

Cyphermaster
2012-12-17, 19:26:07
Das Problem wurde im Test systematisch und nachvollziehbar nachgewiesen.Leider nicht ausführlich genug, sonst könnte man evtl. schon mehr sagen, woher es kommen könnte - schlecht für alle ungeduldigen Naturen. Wahrscheinlich hat es einfach nicht mehr dafür gereicht, die nötigen Zusatz-Tests zu fahren, und den Artikel trotzdem noch vor Weihnachten fertig zu stellen.

Schaffe89
2012-12-17, 22:37:26
Mein Eindruck ist auch, dass mit GCN die Treiber nicht wirklich besser geworden sind:
ZeroCore ist Glückssache, "Streifencrashes", Grafikfehler bei DX9, jetzt womöglich allgemein mehr Mikroruckler...
Wenn dann noch die AA-Features schlechter sind und man nicht fast ein Jahr (BF3) auf Performanceverbesserungen für manche Spiele warten will (oder diese gar nicht kommen, siehe SC2), dann ist man halt irgendwann bei "kaufe generell Nvidia".

Naja deine Zusammenfassung riecht ja hier etwas nach tendanziösen Übertreibungen.

Wenn man bei Nvidia kein volles Directx 11.1 erhält, aber man jenes vorher zusichert, man schon ewigkeiten auf mehr Performance in Metro oder MAx Payne 3 wartet, man miterlebenmusste wie es unter vsync zu relegmäßigen Ruckelorgien kam und in BF 3 zur Releasezeit gestottert hat, während es bei AMD smooth lief.

Jaja, man kann sich alles so hindrehen wie man will.
Bevor man hier wieder Werbung für Nvidia macht und alles was AMD betrifft schlecht redet, sollte man lieber mal Werte liefern, bevor man kritisiert.

Das Taktmanagement bei AMD ist auch scheiße. Das kann so aggressiv rauf und runter springen, dass ich Max Payne mit SGSSAA & Vsync nicht ohne arg bescheidenes Geruckel spielen konnte.
Bei AMD stecken gerne mal 1000 Teufel im Detail...

Der Takt springt bei Nvidia auch stark, bitte miss nach.
Max Panye mit SGSSAA ist übrigens nicht so performant, vielleicht hatts eben deswegen geruckelt. ;)

Das größere Problem ist hierbei, dass wie weiter oben Leute aus ihren Löchern gekrochen kommen und behaupten AMDs fühlen sich bei gleicher FPS weniger smooth an. Und das passiert in mehreren Foren wodurch sich dann ein weiteres Gerücht von vermeidlichen Problemen mit AMD Karten und sGPU MRs ergibt. Das selbe sagen Testpatienten zu Placebopillen, die ihnen angeblich Verbesserungen gebracht haben

Das Problem ist, dass nichts gemessen wird und alle "Ruckler" jetzt mit diesen zweifelhaften und wenig vergleichbaren Messungen einer Testseite erklärt werden.
Ich gehe mal davon aus, dass diese Geschichte reiner Blödsinn ist, aber ich warte lieber noch ab, bis ich endlich selbst mal Zeit hab, ne Anleitung gibts ja weiter vorne schon wiedas relativ simpel zu bewerkstelligen ist.

Wer hat denn Nvidia und AMD Karten? Die ungefähr gleich schnell sind?
Niemand hier? Das gibts ja nicht.

Seit vielen, vielen Jahren fühlen sich Nvidia-Karten bei ungefähr gleich hohen fps deutlich smoother an als das selbe game mit einer ATI-Karte.

Ich habe das zu Beginn auf die massive Unterstützung der Spielehersteller durch Nvidia zurückgeführt. Mittlerweile glaube ich daran jedoch nicht mehr, nachdem sich das selbe auch bei AMD-unterstützten Spielen nicht geändert hat. Jetzt wo ich das hier lese schliesst sich irgendwo ein Kreis.

Ja klar. seit vielen vielen Jahren.
Komisch dass ich von sowas noch nie etwas gelesen habe, sei es im Netz oder in der PCGH. Da komm ich zu dem Fazit dass das einfach nur Einbildung und Blödsinn ist.
In der letzten PCGH waren jedenfalls die Frametimes der Nvidiakarte schlechter, bei natürlich viel zu wenig Vergleichbarkeit.

So etwas wär doch mal wieder ein Test "beyond the ordinary stuff" für das 3d Center.

Hübie
2012-12-17, 22:39:56
Habe doch tatsächlich gedacht, dass du mir einen Kosenamen :love4: gegeben hast, bis ich gemerkt habe, dass hier im Forum tatsächlich jemand so heißt

Hahaa :ulove4: Ne war schon an ihn gerichtet. Vielleicht seit ihr Geschwister ohne es zu wissen :D

@RIPchen: Es hat wenig mit fanboy zu tun wenn man mit dem einen zufriedener ist als mit dem anderen. Ich liebe Volvo und schaue mir dennoch mal andere Karren an. Auch wenn die am Ende doch abstinken :freak:
Ne faire Chance bekommt auch AMD nach dem GK110 für Desktop veröffentlicht wurde. Aber ich schau eben nicht auf Balkenlänge. Das Gesamtpaket muss stimmen. Sonst hätte ich hier einen Audi R8 oder so vor der Tür.

@Blediator16: Von dir las ich mal gescheitere Kommentar als das. Ich habe selbst bei BluRays schon ruckeln wahrgenommen. Alle andere Zuschauer (4) merkten dass nicht. Akzeptiere dass oder unterlasse bitte unqualifizierte Kommentare dieser Art.

@Cyphermaster: Ich gehe jede Wette mit dir ein dass es immer noch zwei Bugs mit AMD-Karten gibt die bis heute nicht ausgebügelt wurden. Gewonnen habe ich also schon mal nicht. Erster Bug: FarCry2 unter WinXP x64 mit CFX fabriziert Vierecke um Bäume wenn MSAA aktiviert ist. Unter selben Bedingungen flackert Call of Juarez 1 schwarz weiß wenn es blitzt (diese Nachtmission wo man durch ein feindliches Lager schleichen muss z.B.). Beide Fehler wurden von der Catalyst Crew aufgenommen aber einfach nicht behoben.

@schaffe89: Beide kochen nur mit Wasser. Aber bei nVidia geht (nachweislich) schneller - wenn die Ursache denn erkannt wurde. Ich erinnere mich noch daran dass viele User über lange Zeit einen Treiberreset mit nVidia-Karten hatten.
Taktsprünge macht sogar die CPU innerhalb einer Sekunde mehrere Male. CPU-Z zeigt davon nur nix an.

aufkrawall
2012-12-17, 22:56:07
Der Takt springt bei Nvidia auch stark, bitte miss nach.
Max Panye mit SGSSAA ist übrigens nicht so performant, vielleicht hatts eben deswegen geruckelt. ;)

Ich weiß selber, dass der springt.
Ich meinte übrigens Max Payne 1 und das sollte auch auf Tahiti mit SGSSAA nicht ruckeln. :freak:
Tut es aber, weil die GPU-Auslastung ständig an der Schwelle war, die einen Taktwechsel provozierte.
Bei Nvidia springt der Takt weniger aggressiv und man kann es sogar noch festlegen ("adaptiv", "maximale Performance").

Nur mal so als Beispiel, wo AMD bezüglich Ruckler noch nachholen könnnte.

HarryHirsch
2012-12-17, 23:08:59
Ich weiß selber, dass der springt.
Ich meinte übrigens Max Payne 1 und das sollte auch auf Tahiti mit SGSSAA nicht ruckeln. :freak:
Tut es aber, weil die GPU-Auslastung ständig an der Schwelle war, die einen Taktwechsel provozierte.
Bei Nvidia springt der Takt weniger aggressiv und man kann es sogar noch festlegen ("adaptiv", "maximale Performance").

Nur mal so als Beispiel, wo AMD bezüglich Ruckler noch nachholen könnnte.

Wieso nachholen? Der Takt wird in ein MHz Schritten geregelt...

samm
2012-12-17, 23:09:30
Was aber nichts mit dem vorliegenden Problem zu tun hat ;) In so einem Fall bietet sich an, den Takt z.B. per Afterburner festzutackern, et voilà, Problem gelöst.

HarryHirsch
2012-12-17, 23:30:53
wieso? es wird doch vermutet das es daran liegt weil der takt zu sehr "springt".
er springt aber nicht, es sei denn 1 mhz schritte sind sprünge.

Cyphermaster
2012-12-17, 23:33:06
@Cyphermaster: Ich gehe jede Wette mit dir ein dass es immer noch zwei Bugs mit AMD-Karten gibt die bis heute nicht ausgebügelt wurden.Wenn's nur zwei wären, die pro Hersteller nicht gefixt wurden... Ich sehe den Gewinn darin, daß man zeigen kann, daß es sich um etwas Wichtiges handelt - wenn es sich denn in diesem Fall als sowas rausstellt. Dann wandert sowas auch nicht so einfach auf die unteren Prioritätenränge der "to-do-list", wie das wahrscheinlich die zwei von dir aufgeführten, relativ seltenen Bugs unter einem eher seltenen OS. Daß es perfekte Produkte gäbe, so naiv bin ich nicht. Dafür hat man ja als Käufer (wenigstens meistens) die Wahl beim nächsten Kauf, nach seinen Prioritäten zu entscheiden.

Vielleicht seh ich es einfach entspannter, seitdem ich nicht mehr so viel Zeit zum Zocken habe - ich kann einfach mehr "aussitzen".

@Sprung-Theorie: Das ist nur eine Idee von mehreren, woran es liegen könnte, nichts weiter. Abwarten, Tee trinken.

Hübie
2012-12-17, 23:42:50
Diese beiden Bugs sind exemplarisch zu verstehen. Es gibt sicher noch eine Ecke mehr. AMD entwickelt sich momentan auf dem Gebiet erst in diese Richtung. Leider etwas zu spät.

Cyphermaster
2012-12-17, 23:47:54
Wieso zu spät? Kaufst du nie wieder eine Grafikkarte? ;)

samm
2012-12-18, 00:14:08
wieso? es wird doch vermutet das es daran liegt weil der takt zu sehr "springt".
er springt aber nicht, es sei denn 1 mhz schritte sind sprünge.Ups, da war ich zu langsam - meine Antwort bezog sich auf aufkrawalls Problem mit Max Payne 1. Springen würde der Takt z.B. vom 3D- in den "Bluray"- in den Idle-Modus, oder nicht?

V2.0
2012-12-18, 07:59:51
Wat. Das Problem wurde im Test systematisch und nachvollziehbar nachgewiesen.
Außerdem gibt es im "grünen Lager" (sigh) genauso Gemecker zu (Adaptive) VSync Stutter mit sämtlichen Kepler Karten das es mit 500ern und davor angeblich nicht gab (kann ich nicht beurteilen weil ich vorher 'ne AMD hatte) - evtl. mal eine eigene Betrachtung wert.

Bei dem Thema beobachte ich gerade, dass es bei 100% TDP deutlich unauffälliger ist als bei 75% oder 120%. Bin aber noch tief in der Messwerteermittlung für einen Nachweis.Denkabr wäre nämlich auch, dass die üblichen Tools (Afterbruner, Precision) hier einen Einfluss auslösen.

Bei AMd müsste mal jemand messen ob das Performanceplus der jüngsten Treiber da evtl. auf diese Art und Weise erkauft wurde.

N0Thing
2012-12-18, 14:11:26
Das Problem ist, dass nichts gemessen wird und alle "Ruckler" jetzt mit diesen zweifelhaften und wenig vergleichbaren Messungen einer Testseite erklärt werden.
Ich gehe mal davon aus, dass diese Geschichte reiner Blödsinn ist, aber ich warte lieber noch ab, bis ich endlich selbst mal Zeit hab, ne Anleitung gibts ja weiter vorne schon wiedas relativ simpel zu bewerkstelligen ist.


Was zweifelst du denn an? Daß es die Messungen gegeben hat? Daß die Ergebnisse der Messungen korrekt sind?
Meßergebnisse (und Videos, die darf man ja auch nicht vergessen) ohne weiteren Kommentar als zweifelhaft und reinen Blödsinn abzutun, finde ich einer Diskussion nicht würdig. Es bleibt doch spannend, die Ursachen heraus zu finden. Eine rein ablehnende Haltung suggeriert doch nur einen Beißreflex.

aufkrawall
2012-12-18, 15:46:28
Wieso nachholen? Der Takt wird in ein MHz Schritten geregelt...
Erzähl doch keinen Unsinn.
Dein nebulöses Getrolle ist zwar nicht so ganz verständlich, aber nirgends springt der Takt in "ein MHz Schritten"...

M4xw0lf
2012-12-18, 16:07:07
Bei AMd müsste mal jemand messen ob das Performanceplus der jüngsten Treiber da evtl. auf diese Art und Weise erkauft wurde.

Wie man mehr FPS durch höhere Framezeiten erreicht, musst du mir noch erklären. :freak:

Skusi
2012-12-18, 16:20:11
Was zweifelst du denn an? Daß es die Messungen gegeben hat? Daß die Ergebnisse der Messungen korrekt sind?
Meßergebnisse (und Videos, die darf man ja auch nicht vergessen) ohne weiteren Kommentar als zweifelhaft und reinen Blödsinn abzutun, finde ich einer Diskussion nicht würdig. Es bleibt doch spannend, die Ursachen heraus zu finden. Eine rein ablehnende Haltung suggeriert doch nur einen Beißreflex.

Ich finde es auch doof, dass das hier immer in so Pro/Contra Diskussionen endet. Ich persönlich würde es ja gerne bei mir selbst messen, aber mangels Bencherfahrung etc., wäre ich mir bei meinen Ergebnissen auch nicht sicher, ob sie wirklich korrekt sind.
Deswegen wünsche ich mir, dass das professionell weiter untersucht wird. Evtl. springt bei so etwas ja auch die eine oder andere Lösung für den User heraus. Hier stochern doch alle(ich inkl.) nur im Nebel.

V2.0
2012-12-18, 16:21:59
Wie man mehr FPS durch höhere Framezeiten erreicht, musst du mir noch erklären. :freak:

Es sind ja nur einzelne Frames die hohe Framezeiten haben. Wenn ich davor mehr Frames in derselben Zeiteinheit rausballere steigen die average und max FPS.

Hübie
2012-12-18, 17:42:24
Wieso zu spät? Kaufst du nie wieder eine Grafikkarte? ;)

Hehe. Doch klar. Nur war ich seit der 8500 ein ATi-Jünger. Mit den Jahren kamen aber immer mehr negative Eindrücke und ich wechselte auf die dunkle Seite der Macht :freak:
Zu 70% wird meine nächste auch wieder eine nVidia-Karte. Das nervigste bisher an der GTX 580 ist die Tatsache dass ich mit primärem 120 Hz Monitor und sekundärem 60 Hz Monitor nicht in den P12 state komme. Auch nicht mit MDPS vom inspector. Aber das ist OT.

Eine weitere Ursache die ich mir vorstellen könnte sind falsch gerenderte Frames welche dann verworfen werden und noch einmal berechnet wurden.
Was macht ein Treiber denn wenn er feststellt sich "vertan" zu haben? Ich bin mit dieser Materie nicht sehr vertraut muss ich gestehen. Coda? Demirug? Anyone?
Ich kenne dass halt von CPUs. Wenn die sich verrechnet haben (falsche Sprungvorhersage o.ä.) dann wird eine komplette pipeline geleert und dass frisst Latenzen.

Ach und noch etwas: Weiß jemand genaueres über nVidias frame-metering?? Ist dass nur in software gelöst oder gibts da sogar was in Silizium gegossen? Wie sieht dass überhaupt aus? Läuft da ein timer der die vorangegangenen frametimes als offset nutzt?? :confused:

Cyphermaster
2012-12-18, 18:10:48
Hehe. Doch klar.Eben. ;)

Ich find's schade, daß die Diskussion langsam so überhitzt, und sich die Leute auf Grund von fast nix beginnen, anzugiften. Unnötig - es braucht erst einmal Daten, dann wird das schon. Is ja bald Weihnachten, da hat's viel Zeit zum ausdiskutieren - und AMD hat ja versprochen, sich auch dahinter zu klemmen.

Hübie
2012-12-18, 18:15:55
Ja ich denke dass werden sie auch müssen. Mich erhitzt dass mal gar nicht. Wie gesagt kochen beide nur mit Wasser. AMD liegt aber schon ziemlich am Boden. Besonders nach dem Bulldozer-Desaster im Desktopmarkt. Da kommt so eine Botschaft natürlich nicht gut wenn die zu breit in den Medien zerlatscht wird.
Viele haben eben nicht sehr viel Ahnung der Materie und plappern dann nur nach. Ich kenne dass aus dem Bekanntenkreis. Da sind unheimlich viele (nV)indianer "weil ATi mal sowas mit schlechter Bildqualität hatte". Die Deutschen sind sehr nachtragend. In deren Köpfen rostet Citroen immer noch schnell ;)

Könnte jemand mal auf die Fragen in meinem vorherigen Beitrag eingehen? :smile:

HarryHirsch
2012-12-18, 18:26:50
Erzähl doch keinen Unsinn.
Dein nebulöses Getrolle ist zwar nicht so ganz verständlich, aber nirgends springt der Takt in "ein MHz Schritten"...

sorry, es sind 4mhz schritte.

Gipsel
2012-12-18, 19:16:10
sorry, es sind 4mhz schritte.
Ungefähr 4 MHz. Das hängt ein wenig vom Maximaltakt ab, die Schrittweite beträgt Maximaltakt/255. ;)
Vielleicht auch Maximaltakt/256.

aufkrawall
2012-12-18, 19:34:22
Das hat aber nichts mit den P-State Wechseln zu tun.
Ich wollte auch keinerlei Verbindung zu den Rucklern dieses Threads herstellen, das sind andere.

HarryHirsch
2012-12-18, 19:39:41
nochmals sorry das ich auf eine antwort geantwortet hab die nichts mit dem thema zu tun hat.

RIPchen
2012-12-19, 14:42:54
Ja gibts denn nicht endlich mal neue Infos oder zumindest Gerüchte, woran es liegen könnte ?

Kriton
2012-12-19, 15:42:55
Irgendwo hatte ich gestern gelesen, dass es am Boost-Modus liegen könnte und deswegen nur die 7950 Boost betroffen wäre. Aber ich finde die Quelle gerade nicht.

Cyphermaster
2012-12-19, 15:49:56
Wahrscheinlich um drei Ecken abgeschrieben und lediglich von der Idee von hier stammend.

Blediator16
2012-12-21, 18:54:37
http://www.youtube.com/watch?feature=player_detailpage&v=CqTmx1V47WE

Kann mir jemand sagen wieso bei der 680 die BQ schlechter ist? Habe die ausversehen mit verschiedenen Grafikeinstellungen getestet?

dildo4u
2012-12-21, 19:00:36
Das ist abgefilmt vom Monitor würde da nicht die BQ bewerten sieht nur nach anderen Gamma/Kontrast Einstellung aus.

HarryHirsch
2012-12-21, 19:54:42
jup, die scheinen bei nv und amd unterschiedlich zu sein.

Lard
2012-12-30, 10:42:13
The default location for the skyrim.ini is: My Documents\My Games\Skyrim.
*edited with correct instructions to remove v-sync
There are 2 .ini files in this folder. You will need to make changes to both .ini files. In the SkrimPrefs.ini iPresentInterval should be located in the bottom of the [Display] section, just above the [Grass] section.
To remove v-sync from Skyrim:
Delete iPresentInterval=1 from SkyrimPrefs.ini and save changes.
Open Skyrim.ini and place iPresentInterval=0 in the bottom of the [Display] section and save changes.
I did not need to edit the .ini, because I left the v-sync at the Skyrim default of 60fps.

I did try that one as well as the other, no affect.
EDIT> Got it, did what was suggested earlier, delete the files and let steam reload them.
Lifting the cap improved game play immensely.
Will tweak the vsync settings and do more testing.

http://img254.imageshack.us/img254/416/1197120.png

Mission accomplished...
I can now play without vomiting , no stutter, no input lag, just a smooth playing game.

http://img404.imageshack.us/img404/3175/1197211.png

I also edited the ini..

http://www7.pic-upload.de/30.12.12/u3kc3q7gmpw.png (http://www.pic-upload.de/view-17507804/1197287.png.html)

http://www.overclock.net/t/1340733/nordic-hardware-7970-ghz-vs-680-microstuttering-and-uneven-render-times/370#post_18916165

Hübie
2012-12-30, 13:57:28
Okay. Aber ohne i_presentintervall 1 kommen irgendwann Tag- und Nachtwechsel durcheinander. Dann wird's plötzlich um 13:00 stockdunkel ;D Aber ist doch keine anständige Lösung... Was hat der Typ denn genau in Radeon-Pro geändert? CPU-Affinität oder was?

TobiWahnKenobi
2012-12-30, 14:18:55
Das ist abgefilmt vom Monitor würde da nicht die BQ bewerten sieht nur nach anderen Gamma/Kontrast Einstellung aus.

die AMD-karte lief bestimmt im begrenzten pixelformatmodus und die NV auf vollem RGB. hab das xmal erlebt, dass sich das CCC nach der installation auf begrenzt umgestellt hat, wenn die karte per HDMI mit dem panel verbunden war, während die über DVI am selben panel angedockte NV-karte, die zwei zentimeter über der AMD-krücke im selben rechner steckt per se auf RGB läuft.


(..)

mfg
tobi

samm
2012-12-30, 16:17:10
Okay. Aber ohne i_presentintervall 1 kommen irgendwann Tag- und Nachtwechsel durcheinander. Dann wird's plötzlich um 13:00 stockdunkel ;D Aber ist doch keine anständige Lösung... Was hat der Typ denn genau in Radeon-Pro geändert? CPU-Affinität oder was?Dynamic VSync in RadeonPro aktiviert.

Ich blicke bei Lard's Posting aber irgendwie nicht ganz durch - zunächst geht es darum, Skyrim-eigenes VSync zu entfernen (wobei es der Zitierte *nicht* tut, weil er VSync schon an hat :confused: ), und danach, wie man es wieder aktivieren kann um statt 102 fps (Avg) mehr oder weniger konstant 60 fps zu haben? Ähm was?^^

L233
2013-01-03, 06:16:25
TechReport - As the second turns: the web digests our game testing methods (As the second turns: the web digests our game testing methods)

Ein kleiner Reaktionen-Artikel mit interessanten Links. Das verlinkte B3D-Posting von Andrew Lauritzen ist sehr lesenswert.

Und gleich noch nachgeschoben:
TechReport - Driver software to be tweaked to reduce Radeon frame latencies in series of updates (http://techreport.com/news/24136/driver-software-to-be-tweaked-to-reduce-radeon-frame-latencies-in-series-of-updates)

Sieht also in der Tat nach einem Treiberproblem aus, das offenbar seit Einführung der GCN besteht. Sicherlich ein peinlicher Moment für alle AMD-Fans, die seit Jahren steif und fest behaupten, dass AMD bei der Treiberqualität zu nVidia aufgeschlossen hätte.

Gipsel
2013-01-03, 11:49:08
TechReport - As the second turns: the web digests our game testing methods (As the second turns: the web digests our game testing methods)

Ein kleiner Reaktionen-Artikel mit interessanten Links. Das verlinkte B3D-Posting von Andrew Lauritzen ist sehr lesenswert.Allerdings liegt Andrew Lauritzen glaube ich in einer Sache falsch. Die Zeit wird nicht beim Rendern des Frames in die Swapchain genommen, sondern beim Aufruf von Present (was einen der Backbuffer gegen den Frontbuffer tauscht), also nachdem das fertig gerenderte Frame im Zweifelsfall schon etliche Millisekunden dort drin stand. Damit ergeben sich dann auch etwas andere Schlußfolgerungen. Und was TechReport mißt, ist ja auch nicht die eigentliche Frame-Latenz (die ist vermutlich deutlich höher). Es ist schlicht der Abstand aufeinanderfolgender Present-Aufrufe. Insofern würde ich Andrew Lauritzens Ausführungen mit etwas Vorsicht begegnen, denn Fraps mißt nicht das, was er (richtigerweise) als wesentlich für einen flüssigen Frameverlauf definiert.
Und gleich noch nachgeschoben:
TechReport - Driver software to be tweaked to reduce Radeon frame latencies in series of updates (http://techreport.com/news/24136/driver-software-to-be-tweaked-to-reduce-radeon-frame-latencies-in-series-of-updates)

Sieht also in der Tat nach einem Treiberproblem aus, das offenbar seit Einführung der GCN besteht. Sicherlich ein peinlicher Moment für alle AMD-Fans, die seit Jahren steif und fest behaupten, dass AMD bei der Treiberqualität zu nVidia aufgeschlossen hätte.
Solange wir nicht genau wissen, was exakt das Ganze verursacht, wäre ich noch vorsichtig, von einem Treiberproblem zu reden. Selbst wenn man etwas mit einem Treiberupdate beheben kann, muß es nicht unbedingt ein Problem mit dem Treiber im Sinne des Wortes sein. Ein Treiber kann auch Workarounds für andere Probleme bieten (z.B. der Engine oder auch irgendwelche Thread-Scheduling/CoreParking-Geschichten des Betriebssystems, die eventuell etwas durcheinanderbringen).

L233
2013-01-03, 12:03:20
Allerdings liegt Andrew Lauritzen glaube ich in einer Sache falsch. Die Zeit wird nicht beim Rendern des Frames in die Swapchain genommen, sondern beim Aufruf von Present (was einen der Backbuffer gegen den Frontbuffer tauscht), also nachdem das fertig gerenderte Frame im Zweifelsfall schon etliche Millisekunden dort drin stand. Damit ergeben sich dann auch etwas andere Schlußfolgerungen. Und was TechReport mißt, ist ja auch nicht die eigentliche Frame-Latenz (die ist vermutlich deutlich höher). Es ist schlicht der Abstand aufeinanderfolgender Present-Aufrufe. Insofern würde ich Andrew Lauritzens Ausführungen mit etwas Vorsicht begegnen, denn Fraps mißt nicht das, was er (richtigerweise) als wesentlich für einen flüssigen Frameverlauf definiert.
Gut, ich werde nicht so tun, als ob ich die Thematik in dieser Tiefe verstehen würde, allerdings scheinen ja die tatsächlichen Beobachtungen (siehe die Videos), das, was gemessen wurde (was auch immer das ist) zu stützen.

Solange wir nicht genau wissen, was exakt das Ganze verursacht, wäre ich noch vorsichtig, von einem Treiberproblem zu reden. Selbst wenn man etwas mit einem Treiberupdate beheben kann, muß es nicht unbedingt ein Problem mit dem Treiber im Sinne des Wortes sein. Ein Treiber kann auch Workarounds für andere Probleme bieten (z.B. der Engine oder auch irgendwelche Thread-Scheduling/CoreParking-Geschichten des Betriebssystems, die eventuell etwas durcheinanderbringen).
Also ich interpretiere die Aussage von Dave Baumann mal überspitzt wie folgt:

"Wir haben für GCN eine Speicherverwaltung mit der heissen Nadel gestrickt und die kann zu Problemen mit der Frame-Latenz führen. In dem ganzen Jahr seitdem wir das Ding auf den Markt geschmissen haben, haben wir mit offenbar niedriger Priorität an einer neuen Speicherverwaltung gearbeitet - und jetzt, wo die Kundschaft auf das Problem aufmerksam wurde, kommen wir halt endlich mal in die Pötte."

Oder interpretiere ich das falsch? Wenn nicht, dann wirft das kein gutes Licht auf die Treiberentwicklung bei AMD.

StefanV
2013-01-03, 12:40:17
Irgendwie liest es sich so, als ob der Andrew Lauritzen in dem B3D Thread von vielen Programmierern zusammengeschissen wird und er selbst nicht so wirklich viel Plan hat, was er da überhaupt gemacht hat...

Coda
2013-01-03, 12:59:02
Es ist eigentlich egal, ob man zwischen Presents misst, oder zwischen den tatsächlichen Buffer-Swaps, solange die Queue voll bleibt (GPU Limit).

Exxtreme
2013-01-03, 13:12:14
Also ich interpretiere die Aussage von Dave Baumann mal überspitzt wie folgt:

"Wir haben für GCN eine Speicherverwaltung mit der heissen Nadel gestrickt und die kann zu Problemen mit der Frame-Latenz führen. In dem ganzen Jahr seitdem wir das Ding auf den Markt geschmissen haben, haben wir mit offenbar niedriger Priorität an einer neuen Speicherverwaltung gearbeitet - und jetzt, wo die Kundschaft auf das Problem aufmerksam wurde, kommen wir halt endlich mal in die Pötte."

Oder interpretiere ich das falsch? Wenn nicht, dann wirft das kein gutes Licht auf die Treiberentwicklung bei AMD.

Wobei man auch sagen muss, es ist ein Armutszeugnis, dass das erst jetzt aufgefallen ist. Und jetzt machen sie plötzlich einen Terz draus. Der Kundschaft fiel das wohl auch nicht auf.

L233
2013-01-03, 13:23:15
Wobei man auch sagen muss, es ist ein Armutszeugnis, dass das erst jetzt aufgefallen ist. Und jetzt machen sie plötzlich einen Terz draus. Der Kundschaft fiel das wohl auch nicht auf.
Naja, es ist für den Endkunden sicherlich nicht so ohne weiteres erkennbar, dass das Gezuckel nun an der GraKa liegt und nicht einfach "normal" ist. Man hat ja in der Regel keinen direkten Vergleich. Der AMD-Käufer wird sich wohl auf diverse Testberichte verlassen haben, die dem Produkt eine einwandfreie Performance bescheinigt haben.

Bestenfalls den Hardware-Testern kann man hier einen Vorwurf machen. Die werden doch dafür bezahlt, zu bewerten, wie gut sich ein Produkt zum Zocken eignet...

Tobalt
2013-01-03, 15:00:08
Ich habe mir mal gestern mal ein paar der jüngsten Tests auf TechReport angesehen und die arbeiten ja schon länger mit frametimes in den Reviews.

der jüngste Review zur 650Ti bescheinigt der HD7850 zB einwandfreie Frametimes.

Glaube also nicht, dass das Problem generell bei ATI (die GTX 560 zeigte schlechtere Frametimes) oder generell in der neuen HD7000 Serie auftritt.

Eggcake
2013-01-03, 15:26:42
Ja, weitere Grafikkarten wären interessant - eine einzelne Karte zu testen und darauf eine solch starke krasse Schlussfolgerung zu ziehen, finde ich etwas gewagt - auch wenn sie natürlich in's schwarze treffen könnte. Aber dass nur eine Karte getestet wurde hinterlässt bei mir einen etwas faden Nachgeschmack. Evt. auch einen kurzen Test mit 1-2 anfälligen Spielen mit verschiedenen Treibern o.ä...

StefanV
2013-01-03, 15:47:40
Oder einfach mal 2 Karten mit unterschiedlichen Layouts, dazu noch eine mit einem ganz anderen Chip...

Und was ist, wenns am Ende Powertune ist, das hier rumspackt?!

M4xw0lf
2013-01-03, 15:54:50
Das ist ja Theorie 1. ;)

Hübie
2013-01-03, 16:13:10
Interessant ist auch was nordichardware veranstaltet. Für die schwedisch-sprechenden unter euch: http://www.nordichardware.se/Grafikkort-Recensioner/grafikkortsroundup-2012-radeon-hd-7970-och-geforce-gtx-680/Microstuttering-och-ojamn-prestanda.html#content

Ich konnte in den Videos sofort erkennen welches die GeForce ist und welches die Radeon. :eek:

kruemelmonster
2013-01-03, 17:10:22
Schön dass sich ne zweite Seiten an das Phänomen ranmacht, werd mir den ganzen Artikel zum Feierabend zu Gemüte führen. Im Blindtest-Video konnte ich aber auch ohne den Babelfisch klar den Unterschied zwischen beiden Karten sehen; dieses Verhalten scheint also nicht auf das eine 7950 Muster von TechReport beschränkt.
Schwierig wird es nur das dem Leser beizubringen: weniger, aber dafür rundere fps gegen hohe unrunde fps Zahlen aufzurechnen ist ja noch schlimmer als das Taktraten- und Marketingrennen zwischen P4 und AXP/64.
Und den Leser von avg fps als einzigem Kriterium abzubringen wird wohl ein Ding der Unmöglichkeit werden.

Cyphermaster
2013-01-03, 17:25:28
Wobei man auch sagen muss, es ist ein Armutszeugnis, dass das erst jetzt aufgefallen ist. Und jetzt machen sie plötzlich einen Terz draus. Der Kundschaft fiel das wohl auch nicht auf.Nun, es kann auch sein, daß man schlicht bewußt drauf gespielt hat, daß es der Kundschaft schon nicht so negativ auffallen würde - siehe nVidias "DX11.1-Interpretation". So langsam kann man sich als Kunde viel eher drauf verlassen, daß irgendwo an der neuen Karte ein Haken ist, als daß nicht.

dildo4u
2013-01-03, 17:49:45
Wobei man auch sagen muss, es ist ein Armutszeugnis, dass das erst jetzt aufgefallen ist. Und jetzt machen sie plötzlich einen Terz draus. Der Kundschaft fiel das wohl auch nicht auf.
Natürlich nicht weil kaum einer freiwillig auf Win 8 umgestiegen ist.Auch die Meisten Hardwaretester testen immer noch mit Win7.(PCGH,Computerbase etc)

M4xw0lf
2013-01-03, 17:58:41
Windows 8 ist und war nur nie das Problem.

Interessant ist auch was nordichardware veranstaltet. Für die schwedisch-sprechenden unter euch: http://www.nordichardware.se/Grafikkort-Recensioner/grafikkortsroundup-2012-radeon-hd-7970-och-geforce-gtx-680/Microstuttering-och-ojamn-prestanda.html#content

Ich konnte in den Videos sofort erkennen welches die GeForce ist und welches die Radeon. :eek:
Hey ja, ich auch - die fetten Untertitel mit den Hardwareangaben könnten da allerdings eine Rolle gespielt haben :freak:

Knuddelbearli
2013-01-03, 18:04:43
man sollte mal so ein video machen und bewusst die gpu Bezeichnungen vertauschen wetten bei den meisten wäre trotzdem AMD mieser ^^

aufkrawall
2013-01-03, 18:09:29
Solche Videos kann man an der Pfeife rauchen, viel zu ungenau.

Estella
2013-01-03, 18:16:05
Interessant ist auch was nordichardware veranstaltet. Für die schwedisch-sprechenden unter euch: http://www.nordichardware.se/Grafikkort-Recensioner/grafikkortsroundup-2012-radeon-hd-7970-och-geforce-gtx-680/Microstuttering-och-ojamn-prestanda.html#content

Ich konnte in den Videos sofort erkennen welches die GeForce ist und welches die Radeon. :eek:

Schöner Test, danke für den link! Man sollter sich ihn wirklich durchlesen / übersetzen, denn die Kommentare des Testers sind sehr gut, wie ich finde.
Sehr ausgewogen geschrieben.

MadManniMan
2013-01-03, 18:22:11
Solche Videos kann man an der Pfeife rauchen, viel zu ungenau.

Ja, vor allem, weil Sie mit Deinem Weltbild nicht in Einklang zu bringen sind.

aufkrawall
2013-01-03, 18:45:07
Ja, vor allem, weil Sie mit Deinem Weltbild nicht in Einklang zu bringen sind.
Nach dem, was ich bisher gelesen habe, schon.
Die kann man sich bei in Diagrammform dargestellten Frametimes aber auch sparen, weil sie logischerweise nichts anderes zeigen werden.

kruemelmonster
2013-01-03, 18:48:09
Hey ja, ich auch - die fetten Untertitel mit den Hardwareangaben könnten da allerdings eine Rolle gespielt haben :freak:

Das erste Video (http://www.youtube.com/watch?v=0Md1Xpwq1X0&feature=player_embedded) in dem Artikel ist ein Blindtest ohne Angaben. :rolleyes:

Grasso
2013-01-03, 19:09:41
Hi, sowas gab es vor über einer Dekade schonmal, nur war da Nvidia der Böse. Konstantin von Reactorcritical maß mithilfe eines Intel Tools, das bald verschwand, die Rahmendauer versus Zeit von Gf2MX und Kyro im Unreal-Flyby. Die Gf2 blieb häufig für eine Viertelsekunde stehen. Jeder wußte damals auch, daß man mit Nvidia keine DVDs gucken kann, ohne sauer zu werden. Ati war die Standardlösung zum DVD-Gucken, 3Dfx zum zocken. Irren ist menschlich. Grasso

Timbaloo
2013-01-03, 20:46:10
Schwierig wird es nur das dem Leser beizubringen: weniger, aber dafür rundere fps gegen hohe unrunde fps Zahlen aufzurechnen ist ja noch schlimmer als das Taktraten- und Marketingrennen zwischen P4 und AXP/64.
Man müsste halt ein Merkmal entwickeln, das alleine sollte imho nicht das Problem sein. Problem dabei ist eher, dass das auch konsequent von möglichst vielen Reviewern angewandt wird. Wenn es nicht alle nutzen ist das kein Beinbruch, wenn aber jeder anfangen würde sein eigenes Kriterium zu finden, au weia...

Und den Leser von avg fps als einzigem Kriterium abzubringen wird wohl ein Ding der Unmöglichkeit werden.
Na wer nur auf avrg fps schaut ist eh schon verloren :freak:

samm
2013-01-03, 21:13:19
Grasso: Ja, die Zeit habe ich genau mit einer GF 2 MX erlebt^^ Hübsches Kärtchen, aber neben VGA-BQ war das eins der grossen Mankos.

Mal sehen, was bei künftigen Treibern so rausschaut :) Erstmal wird sicher etwas für FC3 kommen, dann mal sehen... Besonders spannend, ob es generell auch bei besch*** Engines etwas bringt (--> Skyrim).

Hübie
2013-01-04, 04:08:21
Windows 8 ist und war nur nie das Problem.


Hey ja, ich auch - die fetten Untertitel mit den Hardwareangaben könnten da allerdings eine Rolle gespielt haben :freak:
Schön zu erkennen wie genau du gelesen hast. Siehe kruemelmonster´s Antwort :facepalm:

man sollte mal so ein video machen und bewusst die gpu Bezeichnungen vertauschen wetten bei den meisten wäre trotzdem AMD mieser ^^

Siehe kruemelmonster´s Antwort...

Das erste Video (http://www.youtube.com/watch?v=0Md1Xpwq1X0&feature=player_embedded) in dem Artikel ist ein Blindtest ohne Angaben. :rolleyes:

Da habe ich recht schnell ausmachen können welche Karte wo gezeigt wird. Das merkt vielleicht nur nicht jeder und diesem Menschen kannst du dann alles suggerieren. Anton Karmehed hat auch schon bei Scott Wasson an die Tür geklopft.

Schaffe89
2013-01-04, 11:48:55
Wie kann es sein, dass die Frametimes der HD 7850 gegenüber einer GTX 560 besser sind?
Irgendwas ist da an den Tests möglicherweise faul.

Wieso werden denn nicht mehrere Karten verglichen um endlich mal was handfestes zu haben?
Ich hab das Gefühl dass mit einer Karte solange gesucht wird, bis man das Haar in der Suppe findet.

Der Zeite Test von Techreport ist leider auch nicht repräsentativer.

N0Thing
2013-01-04, 12:40:13
Wie kann es sein, dass die Frametimes der HD 7850 gegenüber einer GTX 560 besser sind?
Irgendwas ist da an den Tests möglicherweise faul.

Auf welchen Test beziehst du dich?

Schaffe89
2013-01-04, 13:40:28
Auf einen älteren von techreport

N0Thing
2013-01-04, 15:08:54
Meinst du diesen Test (http://techreport.com/review/22573/amd-radeon-hd-7870-ghz-edition)?

dildo4u
2013-01-04, 15:20:05
Wie kann es sein, dass die Frametimes der HD 7850 gegenüber einer GTX 560 besser sind?

Auch nich besser der Test diese Karten haben nich mal die selbe V-Ram Menge.Kann mir vorstellen das einige Game bei 1080p ein Tick mher als 1GB brauchen was zu Microruckler frühren kann.Crysis 2 z.b geht bis 1.9GB.

http://www.evga.com/forums/tm.aspx?m=1093015&mpage=1

Man müsste 660 mit 2GB gegen die 7850 testen.

Tobalt
2013-01-04, 15:58:56
Ich denke er meinte den schon von mir erwähnten 650Ti review.

Dort sind HD7850 mit 1 gb und 2 gb vorhanden. Beide haben bessere 99% frametimes als sowohl 650Ti und auch als 560

Am VRAM liegts also nicht, am Hersteller oder der HD7000 reihe auch nicht.

vermute komische TReiber probleme von AMD in verbindung mit gewissen karten und engines

Marty98
2013-01-04, 16:23:14
Ich gehe davon aus dass die Treiber bewusst so programiert wurden um den Balken bei avg FPS nach vorne zu veschieben auf Kosten der Frametimes. Es sind die sogenannten "Wundertreiber". Man kann es nun nicht sofort Rückgängig machen, weil man dann in den Benchmarks deutlich hinter NVidia fallen würde.

Knuddelbearli
2013-01-04, 16:28:09
ja klar:freak:

M4xw0lf
2013-01-04, 18:42:11
Mit schlechten, also hohen, Frametimes gewinnt man keine FPS, meine Fresse.

aufkrawall
2013-01-04, 18:43:46
Mit schlechten, also hohen, Frametimes gewinnt man keine FPS, meine Fresse.
Hat er auch nicht gesagt.

Guru meditation
2013-01-04, 23:54:35
Ich finde diese Testmethode gar nicht schlecht. Ich bin ja nur ein User, der nichts anderes will, als ohne Probleme zu zocken. Dann bin ich selbstverständlich über praxisnahe Tests dankbar.

Mir nützen keine Reviews, welche durch Framerate-Peaks gute Ergebnisse suggerieren.

Es geht ja nicht um rot oder grün, sondern um uns Gamer.

aufkrawall
2013-01-04, 23:57:56
Langsam wär es mal an der Zeit für einen Test mit z.B. 3 verschiedenen Karten jedes IHVs und 5 verschiedenen Spielen. :redface:

samm
2013-01-05, 00:04:48
Ja, mehr Ergebnisse für mehr statistische statt anekdotische Evidenz :)Hat er auch nicht gesagt.Doch, ziemlich verdreht formuliert. Der Gedankengang geht jedoch ohnehin nicht auf.

Guru meditation: Auch wenn die Test konkret nicht über alle Zweifel erhaben sind: Ich find's auch eine prinzipiell wertvolle Erweiterung der (min)avg-fps-Messungen. Auch die fps-Verläufe, die selten, aber doch manchmal in Reviews zu finden sind, sind im Vergleich etwas zu "glättend" und ohne entsprechendes Mass für Ausreisser.

aufkrawall
2013-01-05, 00:15:17
Ja, mehr Ergebnisse für mehr statistische statt anekdotische Evidenz :)

Hätt ich ne Radeon, fänd ichs gar nicht witzig, wenn AMD mehrere Monate für einen endgültigen Fix brauchen wird (Speku gemäß der 3DC-News vom 03.01).


Doch, ziemlich verdreht formuliert. Der Gedankengang geht jedoch ohnehin nicht auf.

Jein. Wenn nicht unerhebliche Teile vom Treiber neu geschrieben werden müssen zur Lösung des Problems, AMD ihre Ressourcen aber lieber in medienwirksame Performancetreiber steckt, haben sie quasi schon auf Kosten der Frametimes den Speed geliefert.


Guru meditation: Auch wenn die Test konkret nicht über alle Zweifel erhaben sind: Ich find's auch eine prinzipiell wertvolle Erweiterung der (min)avg-fps-Messungen. Auch die fps-Verläufe, die selten, aber doch manchmal in Reviews zu finden sind, sind im Vergleich etwas zu "glättend" und ohne entsprechendes Mass für Ausreisser.
Mehr z.B. in Richtung Punktwolke gehende Diagramme werden benötigt, ja.

pest
2013-01-05, 08:59:48
Mehr z.B. in Richtung Punktwolke gehende Diagramme werden benötigt, ja.

Wat?

Ich schreibe ja gerade ein kleines Frametime-Analyzer Programm, vielleicht besteht ja Interesse?

fondness
2013-01-05, 09:59:55
Die Fragen die hier viel zu kurz kommen sind: Tritt das bei allen Karten und Spielen auf? Offensichtlich nicht wenn man sich die Tests der 7850 ansieht.

Merkt man das überhaupt wenn es auftritt oder fällt es unter die Wahrnehmungsschwelle? Wenn ich mir bei meinen Cousin sein CF-System ohne fps-Limiter ansehe, merke ich µRuckler, so könnte ich definitiv nicht spielen. Meine Single 7950 zeigt dieses verhalten definitiv nicht, das würde mir sofort auffallen.

StefanV
2013-01-05, 12:35:48
Bisher würde ich eher von einem Kombinationsproblem aus: bestimmte Karten mit bestimmten Treibern zeigen bei bestimmten Spielen dieses Verhalten...

Schaffe89
2013-01-05, 12:42:58
Ich gehe davon aus dass die Treiber bewusst so programiert wurden um den Balken bei avg FPS nach vorne zu veschieben auf Kosten der Frametimes. Es sind die sogenannten "Wundertreiber".

Auf welcher technischen Grundlage? Die Karte muss ja das Bild trotzdem ganz berechnen und letztendlich genausoviele FRames ausgeben.
Es geht ja darum dass die HD 7950 öfter solche Aureißer drinn hat und eben zwischen einigen Bildausgaben mehr millisekunden benötigt um diese auszugeben.
Dafür sind halt dann wieder welche dabei, die schneller hintereinander kommen.
Kein Treiberentwickler würde sowas forcieren,d as ist absoluter Bullshit.
Der Wundertreiber wirkt übrigens nur in ein paar Spielen und nicht generell, also kann man solche generellen Verschlimmbesserungen eig. ausschließen.

Hat er auch nicht gesagt.



bewusst so programiert wurden um den Balken bei avg FPS nach vorne zu veschieben auf Kosten der Frametimes.

?!

Hätt ich ne Radeon, fänd ichs gar nicht witzig, wenn AMD mehrere Monate für einen endgültigen Fix brauchen wird

Ich finds auch nicht gut, allerdings vermute ich immer noch, dass das lediglich ein
a) Spieleabnhängiges Problem ist
b) Kartenabhängiges Problem ist ( Boost)
c) Oder einfach aufgrund eines defekten Samples.

AMD ihre Ressourcen aber lieber in medienwirksame Performancetreiber steckt, haben sie quasi schon auf Kosten der Frametimes den Speed geliefert.



Der Zusammenhang ist aus dem vorherigen Post nicht ersichtlich, hör doch bitte auf zu trollen, danke!





Es wäre ja ganz einfach mal die Frametimes mit alten und mit dem neuen Treiber zu vergleichen.
Ich glaub das werd ich dann auch mal machen, mir fehlt nur immer die Zeit.

Auch nich besser der Test diese Karten haben nich mal die selbe V-Ram Menge.

Doch, haben sie schon, es werden die 1GB und 2Gb Karten getestet.

LSSJBroly
2013-01-05, 12:54:38
Scheint wirklich ein Problem der Treiber von AMD zu sein:
http://www.pcgameshardware.de/AMD-Radeon-Hardware-255597/News/AMD-bezieht-Stellung-zu-Mikroruckeln-1042380/

aufkrawall
2013-01-05, 13:18:51
?!

Ihr interpretiert das jetzt nach eurem Gutdünken, nach dem Motto "Hauptsache die Kritik lässt sich angreifen.".
Das ist mir zu blöd, da verzichte ich gerne aufs "Trollen".

@Broly: Das hat PCGH doch nur aufgewärmt:
http://techreport.com/news/24136/driver-software-to-be-tweaked-to-reduce-radeon-frame-latencies-in-series-of-updates

dargo
2013-01-05, 13:23:24
Die Fragen die hier viel zu kurz kommen sind: Tritt das bei allen Karten und Spielen auf? Offensichtlich nicht wenn man sich die Tests der 7850 ansieht.

Merkt man das überhaupt wenn es auftritt oder fällt es unter die Wahrnehmungsschwelle? Wenn ich mir bei meinen Cousin sein CF-System ohne fps-Limiter ansehe, merke ich µRuckler, so könnte ich definitiv nicht spielen. Meine Single 7950 zeigt dieses verhalten definitiv nicht, das würde mir sofort auffallen.
Ich blicke bei der ganzen Geschichte auch nicht richtig durch. Hab schon länger die HD7970 @1050/1500Mhz übertaktet und merke hier nichts von Microrucklern. Hatte vorher eine GTX480, kein Unterschied in dieser Hinsicht vorhanden. Oder spiele ich die falschen Spiele? :tongue:

aufkrawall
2013-01-05, 13:26:04
Bei hohen fps fällt es sicherlich auch kaum bis gar nicht mehr auf und mit fps-Limiter halt auch nicht.

dargo
2013-01-05, 13:29:51
Ich nutze nicht immer einen fps-Limiter. Das mit den hohen fps könnte hinkommen. In der Regel versuche ich immer bei min. 50+fps zu bleiben, ansonsten ist mir die Maussteuerung zu träge.

Dunkeltier
2013-01-05, 13:46:02
Solche Videos kann man an der Pfeife rauchen, viel zu ungenau.


Immerhin konnte ich bereits im ersten Durchlauf -ohne Bezeichnung was was ist- bereits erkennen, das die Wiedergabe im linken Video rucklig war.

horn 12
2013-01-05, 17:28:35
Wohl eine Aktion VON DER KONKURRENZ, DIE AMD KARTEN SCHLECHT REDEN/ MACHEN ZU WOLLEN. Sonst wäre dies schon bei Release der Karten zu lesen gewesen, nicht erst fast ein Jahr danach.
Mir fällt es bei der HD7950 @900/1250 auch nicht auf.

Coda
2013-01-05, 17:31:13
http://www.operatorchan.org/t/src/135564981994.jpg

boxleitnerb
2013-01-05, 17:33:23
Von pcper können wir dieses Jahr evtl. auch eine neue Methode zur Messung von Ruckeln und dergleichen erwarten:

"Frame Rating"
http://www.pcper.com/reviews/Graphics-Cards/Frame-Rating-New-Graphics-Performance-Metric

Schaffe89
2013-01-05, 17:51:37
Bringt es was, wenn wir einen Thread aufmachen und ein paar Spiele nehmen und messen?
Gleiches Savegame vorrausgesetzt?
Oder bringt das nichts wegen zuunterschiedlichem Setup?

pest
2013-01-05, 17:54:27
Ich finde die derzeitige Beurteilung etwas fragwürdig. Das 99-Quantil ist schonmal ok, aber warum macht eigentlich keiner ein Histogramm der Frametimes. Da kann man auch grafisch sehr schön Beurteilen was passiert?

Coda
2013-01-05, 17:58:56
Schlag es ihnen doch mal vor :)

Vielleicht sollten sie ihre Daten einfach im Roh-Format publizieren, dann kann man damit machen was man will.

aufkrawall
2013-01-05, 18:25:58
Bringt es was, wenn wir einen Thread aufmachen und ein paar Spiele nehmen und messen?

Laber nicht rum, mach!
Würde es um Nvidia gehen, hätten hier schon mehrere User (die bösen grünen Fanboys) längst so etwas gemacht.

L233
2013-01-05, 21:42:27
Das 99-Quantil ist schonmal ok, aber warum macht eigentlich keiner ein Histogramm der Frametimes. Da kann man auch grafisch sehr schön Beurteilen was passiert?

Sowas?

http://techreport.com/r.x/7950-vs-660ti/bl2.gif

tb
2013-01-05, 22:04:06
Von pcper können wir dieses Jahr evtl. auch eine neue Methode zur Messung von Ruckeln und dergleichen erwarten:

"Frame Rating"
http://www.pcper.com/reviews/Graphics-Cards/Frame-Rating-New-Graphics-Performance-Metric

Na ich bin ja mal gespannt. Was mich etwas wundert, bin ich denn der einzige der VSync verwendet? Sind unter DirectX nicht 3 Bilder voraus der Standardwert für Bilder im Berechnungspuffer?

PcPer scheinen folgende Karte zu verwenden:

http://www.ems-imaging.com/online/products.php?product=NEW!-XtremeDVI%252dDualLink-PCIe%2C-input-up-to-4Kx4K%2C-Video-Capture-Card

Maximum Sample Rate: 330 MHz DVI-D connector

Mann kann also leicht berechnen wieviele Bilder die Karte je nach Auflösung wirklich "mitbekommen" kann.


"This shot from Sleeping Dogs shows three frames on our single 16ms instance to the monitor, but notice how little screen spaces the green frame takes up - is measuring this frame even useful for gamers?"

Ich glaube, hier liegt ein Denkfehler vor, jedes Bild von der Grafikkarte ist ein Vollbild(kein Bruchteil davon!) - was jedoch der Monitor oder die Capturekarte zeigt sind nur die Teile, welche sie noch "mitbekommen" hat, da sie eben zu langsam sind(Grafikkarten Pixelrate vs DVI-D Pixelrate) oder die Grafikkarte ohne VSync lief.

Thomas

Coda
2013-01-05, 22:05:27
Kein Denkfehler. Sie meinen ja gerade, dass es verschwendete Zeit ist ein volles Bild zu berechnen, dass dann nur in einem so kleinen Frame-Ausschnitt sichtbar ist.

Die Frage ist nur, ob es überhaupt sinnvoll ist das ganze ohne Triple-Buffered und mit VSync zu testen.

pest
2013-01-05, 22:14:07
Sowas?

http://techreport.com/r.x/7950-vs-660ti/bl2.gif

nein, sowas (2. Bild)

http://www.abload.de/img/frappo1ttawy.png
http://www.abload.de/img/frappo2bqxux.png
http://www.abload.de/img/frappo3pbbov.png

boxleitnerb
2013-01-05, 22:37:14
Schön! Solltest du das Tool zum Download anbieten, hätte ich eine Bitte:
Könntest du es so implementieren, dass man sich die fraps csv per Navigation auswählen kann? Nichts ist nerviger als immer nur eine Datei bearbeiten zu können, die dann womöglich auch noch in einem bestimmten Ordner liegen muss und einen bestimmten Namen haben muss.

pest
2013-01-05, 22:43:31
Was denkst du wozu "My Ass!" gut ist :D - das habe ich gerade in 1h programmiert ;)

-Ich habe zwei Varianten die empirische Verteilungsfunktion zu berechnen.
Einmal über die empirische PDF (zu der Klassen gebildet werden) und einmal über das Ranking der einzelnen Frametimes. Kann mich noch nicht entscheiden was ich zum Berechnen der Quantile nehme.
-das 95% Konfidenzintervall gibt an, das mit Wkt. 95% die Avg-FPS im angebenen Intervall liegen :)

fdk
2013-01-05, 22:43:42
Optimal wäre es wenn die Daten in einem Google spreadsheet veröffentlicht würden. Kann man von einer Website aber nicht wirklich verlangen, immerhin finanzieren die sich über traffic auf ihrer Seite.

Marty98
2013-01-06, 00:20:16
Mit schlechten, also hohen, Frametimes gewinnt man keine FPS, meine Fresse.

Habe ich auch nicht behauptet. Man kann die Frametime Verteilung so ändern dass avg Fps steigen und es trotzdem mehr ruckelt. Das hat AMD offensichtlich getan, weil für viele nur der Fps Balken in den Reviews zählt.

Cyphermaster
2013-01-06, 00:40:52
Habe ich auch nicht behauptet. Man kann die Frametime Verteilung so ändern dass avg Fps steigen und es trotzdem mehr ruckelt. Das hat AMD offensichtlich getan, weil für viele nur der Fps Balken in den Reviews zählt.Verteil doch mal als Beispiel 6000 berechnete frames auf eine Minute, ohne daß am Schluß über die Minute hinweg was Anderes rauskommt als ein Durchschnitt von 100 fps.

G 80
2013-01-06, 05:54:08
Ohne jetzt den Standpunkt zu teilen, aber ich denke was er meint ist folgendes:

Eine (angenommene) 15/15/15/15/15 Abfolge wird zur 15/12/17/12/17 Abfolge.

Das würde die Bedingungen nach (geringfügig) mehr avg FPS bei gleichzeitig (effektiv) schlechteren Frametimes erfüllen.



Persönlich ziehe ich die Erklärung vor das bestimmte Karten-Treiber-Spiele/Engines als Konstellation oder Einzeln Probleme machen.

Wer außerdem meint, ATI Treiber seien das Ergebnis boshaft intelligenter Programierkunst, hat gleich 3 Fehler gemacht. ;D :wink:

boxleitnerb
2013-01-06, 07:19:14
Wieso? Es sind nach wie vor 75 frames in 5 Sekunden, also 15 fps. Ich glaub nicht, dass man so mogeln kann, jedenfalls kann ich es nicht nachvollziehen.

L233
2013-01-06, 08:29:00
nein, sowas (2. Bild)

http://www.abload.de/img/frappo1ttawy.png

Aha, und wo soll da jetzt der Unterschied sein? In beiden Fällen hast Du Frame Time auf der y-Achse und Frame Number auf der x-Achse.

Geldmann3
2013-01-06, 08:44:39
Hmmm, mit VSync, was bei mir immer an ist, doch wohl relativ egal.

Naja, müsste Microruckler ja von meiner 6990 gewohnt sein, merke jedoch nichts. VSync und Dreifachpufferung ist aber auch meist an.

M4xw0lf
2013-01-06, 10:44:57
Wer außerdem meint, ATI Treiber seien das Ergebnis boshaft intelligenter Programierkunst, hat gleich 3 Fehler gemacht. ;D :wink:
Ganz meine Meinung. (ernsthaft jetzt ;) )

Cyphermaster
2013-01-06, 12:21:55
Ohne jetzt den Standpunkt zu teilen, aber ich denke was er meint ist folgendes:

Eine (angenommene) 15/15/15/15/15 Abfolge wird zur 15/12/17/12/17 Abfolge.

Das würde die Bedingungen nach (geringfügig) mehr avg FPS bei gleichzeitig (effektiv) schlechteren Frametimes erfüllen.Auch wenn man 15/12/18/12/18 draus macht (dann sind es 75, wie bei der ersten Abfolge), bleiben die avg. fps über die gesamte Abfolge gleich. Sie würden nur variieren, wenn man sich aus der ungleichmäßigen Folge bewußt bestimmte Teilabschnitte für die Berechnung rauspicken können würde.
Damit der insgesamte Median (d.h. avg fps über einen ganzen Benchmark, wie in den Reviews) sich verändert, müßte sich die effektive Leistung der Grafikkarte verändern, durch reine Variation der Frametimes kann man das schon nach der rein mathematischen Definition nicht erreichen.

Schlechtere Frametimes könnten also höchstens ein ungewünschter Nebeneffekt eines neuen Treibers sein, der die Auslastung der Grafikkarte insgesamt verbessern soll (= mehr effektive Leistung, also höhere avg. fps). Wenn aber die Auslastung optimiert ist, würden wiederum solche "Stolper-Frames", die ja ein Zeichen für nicht-optimales Arbeiten sind, eher seltener statt häufiger auftreten...
Unter dem Strich können solche "Stolperframes" also weder Nutzen, noch Ziel einer Optimierung darstellen. Von der Schwierigkeit, sowas zielgerichtet im Treiber umzusetzen, nicht zu reden.

G 80
2013-01-06, 23:09:59
@ Cyph: Jop stimme dir zu. Ich vertrete wie gesagt die These auch nicht, darum möchte ich sie auch nicht verteidigen. ;) Es ging mir um das Missverständnis:

@ Box und Cyph: Das sollte ein kurzer Ausschnitt von Frametimes in Millisekunden sein - und nur als mathematisches Beispiel und nicht ob man um die 60 FPS noch MR sieht. :tongue::wink:

Das würde nämlich die Zeit für ein Framepaar von 30 auf 29 ms (über die ebenfalls hyp. Länges des BM) drücken und damit statt ~66,6 jetzt ~ 69 FPS AVG FPS geben.

Zumindest verstehe ich seine Theorie so ....also durschn. kürzere Frametimes für ein Paar/Gruppe/whatever aber in ungünstigerer Abfolge damit sie gefühlt mehr Ruckeln, MR eben.



Cyphs zweiten Absatz trage ich ohne Diskussion mit. Falls Marty seine Theorie noch begründen/vertiefen will muss er das selbst machen. :tongue: :wink:



PS: (1 Minute starren und grübeln wie ihr BEIDE auf 75 Frames kommt inklusive. ;D )

Grestorn
2013-01-07, 08:19:56
Unter dem Strich können solche "Stolperframes" also weder Nutzen, noch Ziel einer Optimierung darstellen. Von der Schwierigkeit, sowas zielgerichtet im Treiber umzusetzen, nicht zu reden.

Ziel einer Optimierung sind Stolperframes sicherlich nicht. Aber höhere avg. FPS sind Ziel einer Optimierung. Und es kann durchaus sein, dass eine Optimierung nun mal deutlich bessere FPS bringt, aber eben auch eine ungleichmäßige Frametime-Verteilung.

Ich unterstelle AMD noch nicht mal, dass sie das wissentlich in Kauf genommen haben. Kann ja auch gut sein, dass man das gar nicht bemerkt hat.

Cyphermaster
2013-01-07, 09:55:25
PS: (1 Minute starren und grübeln wie ihr BEIDE auf 75 Frames kommt inklusive. ;D )Einfach: Deine Abfolge statt ms in fps interpretiert ;)
Ziel einer Optimierung sind Stolperframes sicherlich nicht. Aber höhere avg. FPS sind Ziel einer Optimierung. Und es kann durchaus sein, dass eine Optimierung nun mal deutlich bessere FPS bringt, aber eben auch eine ungleichmäßige Frametime-Verteilung.Da bin ich nicht ganz bei dir. Die Stolperframes sind eine kurzzeitige Verlangsamung um ganze Faktoren, nicht nur eine "gewisse Unregelmäßigkeit" (sonst würde man sie auch weniger bemerken). Da die Stolperframes in den Benches effektiv Zeit fressen, müßte zum Ausgleich der gesamte Rest der Frames so viel schneller sein, daß er diesen Nachteil überkompensiert, und "netto" mehr fps rausspringen. Danach sieht es aber im Vergleich zu früheren Tests mit anderen Treiberversionen eher nicht aus, imho. Wenn, dann müßte man diesen Bock also bereits in der "Urversion" der GCN-Treiber geschossen haben, und bei allen Überarbeitungen nicht bemerkt/ignoriert.

Was mir dann aber auch (noch) nicht besonders eingängig ist, sind die Fragen, warum dann solches "Stottern" 1. nicht durchgängig, sondern nur manchmal vorkommt (Wenn die Frameverteilung negativ durch die Treiber beeinflußt wäre, müßte es doch durchgängig sein?) und 2. in früheren Tests auch bei nVidia-Karten erkennbar ist (Wenn die nV-Treiber besser/anders sind, warum taucht es dann da auch auf?).

Andererseits bin ich froh, daß es bemerkt wurde - auch, wenn wie beim AF-Tester wieder mal die User dafür nötig waren, statt die Entwickler.

Grestorn
2013-01-07, 10:56:59
Wenn ich mir diesen Frameverlauf ansehe:

http://techreport.com/r.x/radeon-win8/skyrim-7950-w7.gif

Dann ist das schon ein sehr ungleichmäßiger, gleichwohl aber regelmäßiger Frameverlauf. Das ist nicht bei allen Spielen so, andere Spiele zeigen nur einen oder zwei langsame Frames und dann wieder 5 oder 10 gleichmäßige.

Absicht steckt da sicherlich keine dahinter, aber dass man versucht hat, die FPS zu optimieren und dabei zu wenig auf die Frametimes zu achten, halt ich durchaus für wahrscheinlich.

Cyphermaster
2013-01-07, 11:41:36
Ich sehe es eher über einen gesamten Bench-Run. Das, was du da an Ausschnitt rausgezogen hast, sind grade mal 50 Frames (d.h. eine grobe Sekunde) von Durchläufen, die viele tausend Frames haben. Wenn man sich hier z.B. den Bereich um 1500 ansieht, sieht man einen solchen "Stotterbereich" mit springenden Frametimes, davor und danach aber nicht.

http://techreport.com/r.x/radeon-win8/skyrim-nv.gif

Im Test zeigt zwar die AMD-Karte auch außerhalb dieser "Bänder" eine größere Streuung als die NV-Karte, aber nur in einem sehr begrenztem Umfang (Variation von ~5 statt ~2-3ms bei der Frametime). Die fühlbaren, wirklich massiven Sprünge im oder überhalb des zweistelligen Millisekunden Bereichs sind ebenfalls nicht durchgängig, man sieht z.B. bei dem W8-Verlauf hier drei sehr diskrete problematische Abschnitte:

http://techreport.com/r.x/radeon-win8/skyrim-amd.gif

So wirklich regelmäßig ist der Effekt also nicht, nur innerhalb eines "Stotterbereichs", und diese decken sich auch wieder nicht mit den "Stotterbereichen" der nV-Chips (noch nicht mal mit der gleichen Karte im Vergleich W7/W8!). Wären die AMD-Kurven quasi Verlaufs-Duplikate der nV-Kurven, nur mit größerer Varianz bzw. mehr singulären Ausreißer-Frames, würde ich auch vermuten, daß es Nebenwirkungen von Optimierungen sind - aber die AMD-Karten scheinen viel öfter in mehrere Sekunden dauernde "Stotterphasen" zu geraten, als die nV-Karten, und aus anderem Grund (d.h. bei anderem Inhalt). Aber wie kann man die bei der Treiberoptimierung übersehen, wenn die Karten in diskreten Zeitbereichen im direkten Vergleich zu vorher abkacken, und plötzlich bodenlose min-fps-Werte produzieren? Schaut man da ausschließlich auf avg-fps, obwohl in Reviews mittlerweile auch der min-fps-Wert breit Beachtung findet?

Bevor es einer in den falschen Hals kriegt: Das ist im Übrigen keine rhetorische Frage, sondern ernst gemeint; in den Sachen liegt deine Kompetenz sicher weit oberhalb der Meinen.

Grestorn
2013-01-07, 11:49:05
Ohne dass man den Treiberentwicklern unmittelbar über die Schulter schaut, wird man diese Fragen wohl leider nicht beantworten können!

Ein Treiberentwickler wird sich bei einer Änderung, die er macht, sicher nicht alle Spiele in allen Szenen anschauen können. Es kann also sein, dass eine Optimierung vielversprechend aussieht, in Kernspielen auch eine gute FPS-Verbesserung bringt und auf den ersten Blick keine offensichtlichen Nachteile (es kann auch gut sein, dass dem Entwickler, die "Stottersequenzen" einfach entgangen sind).

In der Testphase sollte so etwas eigentlich auffallen, aber da stellt sich die Frage der Vergleichbarkeit: Der Tester prüft ja vornehmlich, ob der Treiber funktioniert und dass er keine offensichtlichen Fehler produziert. Wenn es jetzt nicht auffällig ruckelt oder die Framerate irgendwo einbricht, wird er das nicht reklamieren. Ich glaube nicht, das es im Test üblich ist, Frametimes statistisch zu überwachen.

Das wird sich aber jetzt eventuell ändern.

Meine Kompetenz was GPU-Treiber angeht ist nicht so dolle... Ich verstehe zwar recht viel von Programmierung allgemein, aber was GPUs angeht gibt's hier im Forum echte Koryphäen, an die ich nicht im Ansatz heranstinken kann.

Knuddelbearli
2013-01-07, 12:11:18
frage bleibt aber wie sollen dadurch die avg steigen? ich sehe da absolut keine möglichkeit eher sinken sie


bevor man irgenwas unterstellt sollte man erstmal das klären, und auch welche karten es genau betrifft
ist ja eine boost edition, viel wahrscheinlich wäre es also das es damit zu tun hat,

ältere test mit einer 7870 zeigten ja auch keine Auffälligkeiten

Grestorn
2013-01-07, 12:24:46
frage bleibt aber wie sollen dadurch die avg steigen? ich sehe da absolut keine möglichkeit eher sinken sie


Natürlich kann die avg Framerate steigen.

100 100 100 100 100 100 100 100 100 100 = 1000 ms für 10 Frames, also 10 fps.

50 50 50 100 200 50 50 50 100 200 = 900 ms für 10 Frames, also 11,11 fps

Du bekommst im zweiten Beispiel durch die langen Pausen "gefühlt" eher nur 5-7 FPS. Obwohl die tatsächlich Framerate sogar 11% höher ist. Das ist doch genau das alte "Mikroruckler-Problem", das seit Jahren bei SLI und CF diskutiert wird.

Knuddelbearli
2013-01-07, 12:32:00
und woher soll die Leistung für die 50er kommen ? und woher das langsame 200er?

außer eben durch boost er taktet zuerst kurz rauf und dann wieder runter
wobei ich stark bezweifle das der AMD boost soschnell reagiert ( könne man aber recht einfach testen indem man auflösung verringert damit man 300+ fps hat soschnell reagiert boost dann definitiv nichtmehr )

rein software mäßig gibt es da aber keine möglichkeit man kann performance nicht aufsparen bzw selbst wenn ergäbe das keinen sinn da man dann lieber die 200er beschleunigen würde, ergäbe rechnerisch ja selben avg FPS



und soweit ich die sli Thematik begriffen habe ( mir reicht die Leistung einer graka locker bin deshalb nicht so in der Materie drinnen ) ist das Problem bei SLI / CF ein ganz anderes, es ist ja immer 1 Karte schneller und die andere langsamer, man müsste das nur synchronisieren, dadurch das die 2 Chips aber räumlich relativ ( für 1GHz takt, da die Synchronisation ja innerhalb eines Bruchteils eines Hz erfolgen müsste ) entfernt sind ist das nicht so ohne weiteres möglich )

falls ich mich da irre lasse ich mich per PN aber gerne aufklären

Grestorn
2013-01-07, 12:34:55
200 ms ist LANGSAM, d.h. die Berechnung des einen Frames hat doppelt so lange gedauert. Bei den 50 ms ist sie doppelt so schnell.

Das kann passieren, wenn Deine Optimierung zwar dafür sorgt, dass Du Frames im besten Fall sehr schnell berechnen kannst, aber irgendwann in Pipelining- oder Cache-Probleme läufst, die sich dann halt alle paar x Frames mal in einem deutlichen Einbruch zeigen.

Cyphermaster
2013-01-07, 12:35:58
In der Testphase sollte so etwas eigentlich auffallen, aber da stellt sich die Frage der Vergleichbarkeit: Der Tester prüft ja vornehmlich, ob der Treiber funktioniert und dass er keine offensichtlichen Fehler produziert. Wenn es jetzt nicht auffällig ruckelt oder die Framerate irgendwo einbricht, wird er das nicht reklamieren. Ich glaube nicht, das es im Test üblich ist, Frametimes statistisch zu überwachen.Es würde ja schon reichen, die min-fps Werte im Auge zu haben, die korellieren ja mit den Ausreißern bei den Frametimes. Ich würde mich wundern, wenn bei der Treiberentwicklung trotz der schon länger laufenden Diskussionen um Framelimiter etc. nicht zumindest diese Werte beobachtet werden würden.
frage bleibt aber wie sollen dadurch die avg steigen? ich sehe da absolut keine möglichkeit eher sinken sieWie grestorn so schön beschreibt: Das geht, wenn der Leistungsgewinn durch die Optimierung größer ist als das, was man durch den unerwünschten Optimierungs-Nebeneffekt der Stolperframes eventuell wieder verliert. Solange die Output-Leistung der Karte gleich bleibt, hast du recht.

Grestorn
2013-01-07, 12:42:39
Es würde ja schon reichen, die min-fps Werte im Auge zu haben, die korellieren ja mit den Ausreißern bei den Frametimes. Ich würde mich wundern, wenn bei der Treiberentwicklung trotz der schon länger laufenden Diskussionen um Framelimiter etc. nicht zumindest diese Werte beobachtet werden würden.

In der Theorie hast Du recht. Aber die Realität ist, dass es nun mal so ist, dass bestimmte Karten dieses Verhalten zeigen.

Ich erinnere mich, dass mir in den Statistiken der PCGH schon öfter aufgefallen ist, dass die Min-FPS Werte speziell bei AMD manchmal auffällig schlechter waren als die der nVidia Karten, bei insgesamt aber höherer Avg-FPS Leistung. Die meisten achten ja nur auf die Länge der Avg-Balkens, und das dürfte auch ein Grund dafür sein, dass AMD damit gut leben konnte.

Knuddelbearli
2013-01-07, 13:15:00
naja das wäre dann schon eins eher spezieller fall und sehr unwahrscheinlich das genau sowas zusammenkommt, wie gesagt bisher wurde das bei 1!!! Karte festgestellt die zufälligerweise auch ne Boost ist

Bei einer anderen Karte früher sah das anders aus, also wieso versteift ihr euch so auf die Performance? anstatt mal auf die Karte bzw eben zB Boost

Irgendwie klingt das danach als ob das dumm rumgelabere von den ganzen Fanyboys wegen schlechteren Treibern usw hier seine Wirkung zeigt ...

Wegen dem Statement von AMD ( ist das überhaupt ein offizielles ) wegen Treiber, das kann auch nur soviel bedeutet das es eben kein Hardwareproblem ist sondern eben per Treiber fixbar ist


Und wegen min FPS die sind ihmo auch totaler quatsch so wie sei heute angegeben werden, wenn es zB 1 frame im ganzen benchmark ist ...

dargo
2013-01-07, 13:28:31
Ich hätte mal eine Frage zu der getesteten HD7950 mit Boost. War beim Testen Powertune bei max.? Sprich +20 oder +50% (keine Ahnung wie hoch man bei der besagten Karte gehen kann) oder bei 0%? Sorry, falls ich es überlesen haben sollte.

Grestorn
2013-01-07, 13:32:39
Und wegen min FPS die sind ihmo auch totaler quatsch so wie sei heute angegeben werden, wenn es zB 1 frame im ganzen benchmark ist ...
Das stimmt, weswegen ich mir über die MinFPS in den Diagrammen auch bislang wenig Gedanken gemacht habe. Oft sind das ja Nachladeruckler oder wenn man sich im Spiel um die eigene Achse dreht und neue Texturen in den lokalen Speicher der GraKa nachgeladen werden müssen.

Wenn man aber z.B. die 5% langsamsten Frametimes rausrechnet und vom Rest die MinFPS nimmt, dann ist das schon aussagekräftig.

Knuddelbearli
2013-01-07, 13:37:54
1% rausrechnen reicht schon

am sinnvollsten wäre statt avg FPS sowieso aber ein Mittelwert

wenn man sich dann aber langsam in solche gefielde vorwagt gibts aber imemr mehr probleme

zB mögen manche Engines Fraps nicht und die fps sind mit fraps spürbar geringer / instabiler als ohne
oder das man die benchmarks mit bots/Makros durchführen muss damit sich die spielfigur wirklich immer exakt gleich bewegt usw ( gerade dafür suche ich schon länger eine gute möglichkeit um die maus zu emulieren )


@dargo da nichts dabeisteht wohl 0%
2t test mit 50% wäre auch schon sehr nett und könnte licht ins dunkel bringen hmmmm

Grestorn
2013-01-07, 13:41:06
1% rausrechnen reicht schonDas sollen die Tester am besten ausprobieren. Wer sich ein wenig mit Statistik auskennt, wird dafür auch den besten Wert herausbekommen.

am sinnvollsten wäre statt avg FPS sowieso aber ein MittelwertAverage ist gleichbedeutend mit Mittelwert. Ich nehme an, Du meinst etwas anderes, oder?

Cyphermaster
2013-01-07, 13:49:03
Die meisten achten ja nur auf die Länge der Avg-Balkens, und das dürfte auch ein Grund dafür sein, dass AMD damit gut leben konnte.Damit gut leben können oder es gar nicht zu bemerken sind aber zwei paar Stiefel. Welcher paßt, wäre interessant herauszufinden.
Bei einer anderen Karte früher sah das anders aus, also wieso versteift ihr euch so auf die Performance? anstatt mal auf die Karte bzw eben zB BoostAndere Testkurven von Techreport zeigen das Verhalten z.B. auch auf völlig anderer Hardware-Basis, und sogar bei nVidia (wenn auch in geringerem Ausmaß). Wenn nicht-Boost-und-nicht-GCN-Karten wie die HD6 das Verhalten aufweisen, warum sollte es dann ausgerechnet und ausschließlich am Boost-Modus liegen?
Irgendwie klingt das danach als ob das dumm rumgelabere von den ganzen Fanyboys wegen schlechteren Treibern usw hier seine Wirkung zeigt ...Was hat das damit zu tun? Treiber-Bugs sind Alltag, bei beiden Herstellern. Fanboys schlagen sich nur die Köpfe darüber ein, welche Firma weniger macht, und sie schneller behebt - und dazu wird hier ja gottlob (noch) nicht gestritten.

Knuddelbearli
2013-01-07, 14:19:23
und weshalb sollte es der treiber sein wenn es komplett verschieden architekturen und unterschiedliche hersteller betrifft?

Ich will den Treiber nicht ausschließen allerdings geht es mir gegen den strich das man sich die letzten paar Seiten jetzt nur mehr auf den Treiber versteift hat

Und wegen fanboys ich meinte das so:
Wenn es die fanboys oft genug wiederholen bleibt es auch in den Gedanken der neutralen irgendwann hängen, ob man will oder nicht.
Wenn ich ehrlich bin passiert das sogar mir immer öfters mal, und muss dann erstmal überlegen ob dahinter überhaupt Fakten stehen

Cyphermaster
2013-01-07, 14:42:35
und weshalb sollte es der treiber sein wenn es komplett verschieden architekturen und unterschiedliche hersteller betrifft?Es erscheint mir logischer, weil mit dem Treiber viele Details der Karten-Steuerung (z.B. Puffer-Nutzung) zusammenhängen, die sich auf so etwas auswirken können. Eine schlechte Anpassung der Treiberparameter an Hardware und/oder Engines kann also sehr leicht auch über verschiedene Architekturen hinweg oder bei unterschiedlichen Herstellern zum selben Problem führen. Es ist für mich auch die simpelste Erklärung dafür, daß die von nVidia entwickelten Chips in manchem Fall zwar auch solche Stolperframe-Strecken haben, aber eben weniger ausgeprägt als die AMDs - jedenfalls klingt es deutlich plausibler, als daß es über verschiedene Architekturen und Hersteller hinweg existierende, ähnliche Hardware-Fehler wären.

Knuddelbearli
2013-01-07, 14:49:17
naja bleibt halt die frage wieso aber bei amd verschieden stark die 7950 bosst massiv die früher gestestet 7870 ( leider nicht in den genau selben szenarien ) war teilweise besser als die nv karte

das es ein Grundproblem gibt bestreite ich ja nicht, die frage ist was der Grund für dieses massive verhalten ist!

Und als es jetzt immer mehr in die richtung gibt das sich amd dadurch angeblich mehr Leistung besorgt ( wo man keinerlei stichhaltige anzeichen dafür hat ) hat bei mir das Fass zum überlaufen gebracht und ahb mich mal eingemischt. Sowas wird bei AMD ganz schnell mal bei vielen seite als fakt zur Supernews

Cyphermaster
2013-01-07, 15:00:01
Nur weil irgendwelche Fanboys jeden Hauch mit ihren eigenen Hirnfürzen aufgeblasen zum Orkan durchs Web kolportieren, werd ich sicher nicht anfangen, meine Wortwahl groß auf irgendwas Weichgespültes einzuschränken...

Was die Ursache angeht, hat sich ja nichts geändert: Ohne weitere Daten kann man nur spekulieren, mehr gibt die aktuelle Lage einfach nicht her.

dargo
2013-01-07, 15:14:25
@dargo da nichts dabeisteht wohl 0%
2t test mit 50% wäre auch schon sehr nett und könnte licht ins dunkel bringen hmmmm
Gibt es denn hier wirklich keinen mit der besagten Karte der das nachstellen kann?

Knuddelbearli
2013-01-07, 15:34:00
naja man müsste es im bestenfall immer gegentesten mit einer nv karte oder non boost karte

aber besser als nichts wär es ^^

Cyphermaster
2013-01-07, 15:57:25
Es hilft nix, Daten zu produzieren, wenn man mit ihnen nichts weiter anfangen kann.
Um aussagefähige Daten zu kriegen, müßte sich jemand an einen recht umfassenden Bench-Parcour mit möglichst 100% reproduzierbaren Szenen machen (tritt ja nicht immer auf), mit mindestens zwei Karten ähnlicher Leistungsklasse (Boost / Non-Boost AMD, am Besten noch eine nV zum Gegencheck), und im Idealfall mehrere Treiberversionen/OS-Versionen benchen (W7/W8 hat teils ja auch schon einen deutlichen Einfluß, siehe obiges Bild).

kruemelmonster
2013-01-07, 17:04:38
naja man müsste es im bestenfall immer gegentesten mit einer nv karte oder non boost karte

aber besser als nichts wär es ^^

Hat TechReport doch schon gemacht, weiß nicht warum du darauf immer noch herumreitest:

We wondered about the possibility of a problem with our Sapphire HD 7950 Vapor-X card or its Boost BIOS causing the slowdowns, but swapping in an older, non-Boost Radeon HD 7950 card from MSI produced very similar results.
Link (http://techreport.com/review/23981/radeon-hd-7950-vs-geforce-gtx-660-ti-revisited/11)

L233 hat mit Posting #153 (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9603102&postcount=153) hier im Thread die imho sinnigste Deutung gebracht welche sich erstmal auch mit TR's Beobachtungen deckt:

I can tell you that we've seen the same spiky frame time plots in most of these games from three separate revisions of AMD's drivers

Damit meint TR auch explizit pre-horny Treiber wie den 12.8; nur zum Benchmarks gewinnen sind die alternierenden Frametimes also nicht drin.

gedi
2013-01-08, 00:46:18
imo ne sinnfreie Diskussion - zumal MIR ein offizielles Statement von AMD abgeht .(

Es wurde im Bericht weder erwähnt:

- die BIOS-Version der GraKa
- die BIOS-Version des Mobo (und ob der Vorfall auf nem Anderen reproduzierbar ist)
- ULPS (und damit Zero-Core) deaktiviert?!


Imo gibt es einige Gründe um so einen Vorfall (unabsichtlich) zu provozieren. Wirklich ernst nehmen sollte man den Bericht nicht, da alle AMD-(GPUs) Ablehner, welche selbst für eine gewisse Zeit ne HD7xxx verbaut hatten, sich nie über angesprochene Probleme beschwert haben.


Trotzdem: Das Setup des Treibers, insbesondere auf nem Clevo-Notebook, erstaunt mich immer wieder aufs Neueste :(

Grestorn
2013-01-08, 07:59:10
Jemand der nur eine betroffene Karte im System hat, wird die Probleme ja auch i.d.R. gar nicht wahrnehmen, deswegen kann man sich auch schlecht darüber beschweren. Die Probleme siehst Du ja nur im direkten Vergleich.

Dann kann man natürlich sagen, "was soll's, wenn die Probleme eh keiner sieht?". Da ist auch was dran, wenn man aber überlegt, dass man gerade z.B. wegen den angenommenen 10% Mehrleistung zu einem Produkt gegriffen hat, und die dann de Fakto nicht bekommt, obwohl alle Benchmarks das behaupten, dann würde mich das schon interessieren und als Kunde auch stören.

Ähnlich wie beim Auto.... Ich merke objektiv nicht, ob mein Wagen nun 150 oder 165 PS hat (ohne direkten Vergleich). Wenn ich aber für die 165 PS bezahlt habe und mich deswegen für ein Modell entschieden habe, dann will ich die auch haben. Wenn man mir dann jemand sagt, jaaaa, die Leistung ist auch theoretisch möglich, wird aber in der Praxis wegen Problem a, b und c nicht auf die Straße gebracht, dann wäre ich auch ziemlich angefressen.