PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : The Tech Report: HighSpeed-Videos zeigen Micro-Stuttering


Seiten : 1 [2] 3 4 5

Cyphermaster
2013-01-08, 10:15:00
Dazu kommt, daß solange keine Klarheit über Ursache (nur AMD-Problem, oder vielleicht auch bei nVidia in anderen Testszenen/mit anderen Treibern möglich? Gibt es einen Zusammenhang mit bestimmter Hardware-Gestaltung?), mögliche Auslöser (Treiber? Engine? Beides? Bestimmter Render-Content? Bestimmte Hardware-Konfigurationen? Bestimmte OS-Versionen?) und den Problemumfang (bei welchen Spielen kommt es vor? Durchgehend oder auf einzelne Szenen beschränkt? Wie stark wirkt es sich da aus? Kann sich das bei späteren Treibern verstärken?) besteht, man das Ganze auch nicht wirklich einschätzen kann.

Wie schlimm man sowas empfindet, muß am Ende sowieso jeder für sich wissen. Ich kenne auch Leute, die völlig unempfindlich (um nicht zu sagen schmerzbefreit) gegenüber dem Flimmern der G71er waren, zwischen einem bilinearen, "brilinearen" und trilinearen AF keinen nennenswerten Unterschied bemerken, und AA für unnötigen Leistungsverlust halten...

Schaffe89
2013-01-08, 13:01:57
Jemand der nur eine betroffene Karte im System hat, wird die Probleme ja auch i.d.R. gar nicht wahrnehmen, deswegen kann man sich auch schlecht darüber beschweren. Die Probleme siehst Du ja nur im direkten Vergleich.

Die PCGH hat eigentlich sehr gute Redakteure die sogut wie jedem Mist auf die Schliche kommen.
Wenn die nichts sehen, dann ists eigentlich eher belanglos, und trotzdem gehört es gefixed, falls es wirklich so sein sollte.

Ich hab mit jedenfalls mal schnell ne GTX 670 bestellt um die Frametimes mit meiner HD 7970 abgleichen zu können.
Mal sehen wann die kommt, evtl ja Mittwoch.

Emploi
2013-01-08, 13:07:13
Microruckler gabs schon auf meinen 1900 Crossfire. Wielange hat es gedauert bis PCGH sie "erstmals gesehen" hat?

aufkrawall
2013-01-08, 15:51:37
Die PCGH hat eigentlich sehr gute Redakteure die sogut wie jedem Mist auf die Schliche kommen.
Wenn die nichts sehen, dann ists eigentlich eher belanglos, und trotzdem gehört es gefixed, falls es wirklich so sein sollte.

Die PCGH macht zweifellos sehr gute Messungen, aber da dort auch nur Menschen arbeiten, sollte man auch keine Wunder erwarten.
Da machst du es dir doch ein bisschen sehr einfach, alles, was PCGH nicht kritisiert, als quasi nicht existent abzutun...

Witzig, dass "die Roten" das bei Nvidias LOD-Geschichte hier etwas anders gesehen haben.
Zweierlei Maß unso...

Cyphermaster
2013-01-08, 16:39:16
Die PCGH hat eigentlich sehr gute Redakteure die sogut wie jedem Mist auf die Schliche kommen.Auch PCGH kann keine Wunder wirken, geschweige denn, daß sie so viel übriges Geld und Redakteurszeit haben, allen möglichen Dingen sorgfältigst analytisch nachzugehen. Geschweige denn, daß die Gewichtung der Redaktion bezüglich einzelner Dinge sich mit meinen persönlichen Präferenzen decken muß.

Botcruscher
2013-01-08, 19:08:14
Imo sollte man mal testen welche Treiberversionen überhaupt betroffen sind.

Schaffe89
2013-01-09, 02:53:57
Da machst du es dir doch ein bisschen sehr einfach, alles, was PCGH nicht kritisiert, als quasi nicht existent abzutun...

Ich habe bisher mit meiner HD 7970 keine schlechten Frametimes ermitteln können.
Die PCGH kritisiert es doch in den News, sie habens bisher blos nicht gesehen oder endteckt und das heißt schonmal dass es kein allzu schlimmes Problem ist.

Ich benutze auch die Termina "eigentlich" und "sollte", vielleicht nicht jede Wort auf die Goldwaage legen, sollte die Problematik andauern, verscherbel ich meine HD 7970 und bau die GTX 670 von Palit ein.

Witzig, dass "die Roten" das bei Nvidias LOD-Geschichte hier etwas anders gesehen haben.
Zweierlei Maß unso...

Und das hat mit dem Thema jetzt was genau zu tun?

Knuddelbearli
2013-01-09, 03:46:07
Ich habe bisher mit meiner HD 7970 keine schlechten Frametimes ermitteln können.
sollte die Problematik andauern, verscherbel ich meine HD 7970 und bau die GTX 670 von Palit ein.



ähm ja :freak::confused:

Emploi
2013-01-09, 08:27:11
ähm ja :freak::confused:

Er meint, ich habe zwar noch nichts enddeckt. Aber sollten andere weiterhin sowas feststellen, werde ich mir das nicht länger antun! :freak:

Kann doch wohl nicht wahr sein! :eek:

Ätznatron
2013-01-09, 11:07:36
Er meint, ich habe zwar noch nichts enddeckt. Aber sollten andere weiterhin sowas feststellen, werde ich mir das nicht länger antun! :freak:

Kann doch wohl nicht wahr sein! :eek:

Ich wollte es auch nicht glauben.

Mich erinnert das irgendwie an das Märchen von "Des Kaisers neue Kleider" (http://de.wikipedia.org/wiki/Des_Kaisers_neue_Kleider).

Vielleicht auch noch an "Es zwitschert eine Lerche im Kamin, wenn du sie hörst" von Joachim Ringelnatz.

Schaffe89
2013-01-09, 14:28:10
Er meint, ich habe zwar noch nichts enddeckt. Aber sollten andere weiterhin sowas feststellen, werde ich mir das nicht länger antun!

Ja, ganz genau. Sollte die PCGH oder irgend eine andere Glaubwürdige Quelle ein generelles Problem sehen, was nicht auf morgen zu fixen ist, bau ich sicherlich die GTX 670 ein. :P

Ätznatron
2013-01-09, 15:02:45
Ja, ganz genau. Sollte die PCGH oder irgend eine andere Glaubwürdige Quelle ein generelles Problem sehen, was nicht auf morgen zu fixen ist, bau ich sicherlich die GTX 670 ein. :P

Ein Downgrade also wegen eines Mutmaßlich-Möglicherweise-Vielleicht-Verdachts in einer Sache, die dir als Problem nicht einmal aufgefallen ist, von der du offenbar nicht mal betroffen bist?

Liszca
2013-01-09, 21:45:09
Ich habe bisher mit meiner HD 7970 keine schlechten Frametimes ermitteln können.
Die PCGH kritisiert es doch in den News, sie habens bisher blos nicht gesehen oder endteckt und das heißt schonmal dass es kein allzu schlimmes Problem ist.

Ich benutze auch die Termina "eigentlich" und "sollte", vielleicht nicht jede Wort auf die Goldwaage legen, sollte die Problematik andauern, verscherbel ich meine HD 7970 und bau die GTX 670 von Palit ein.



Und das hat mit dem Thema jetzt was genau zu tun?

:confused::freak:

Schaffe89
2013-01-10, 15:40:50
Ein Downgrade also wegen eines Mutmaßlich-Möglicherweise-Vielleicht-Verdachts in einer Sache,

Du nervst mich gewaltig Junge.
Ich habe gesagt, falls das Problem weiter besteht und man wirklich was findet.
Ist ja nicht so, dass die GTX 670 in Skyrim und BF3 langsamer wäre.

Du meinst wohl mit Downgrade ein Sidegrade?

aufkrawall
2013-01-10, 16:12:35
Diese geniale Logik muss man sich mal reinziehen, das ist doch echt nicht mehr zu fassen... :uroll:

Schaffe89
2013-01-10, 16:18:44
Die Frametime Analyse werd ich garantiert nicht bei euch Banausen ins Forum posten, sondern ganz wo anders, wo man scheinbar noch sachlich bleiben kann.

Vielleicht sieht man den Unterschied auch nur im direkten Vergleich.

Hübie
2013-01-10, 16:47:41
Och komm schon, Schaffe.

Gib den Trollen doch Mampfen! Ich will auch was! Muss doch nVidia verteidigen, weil die anderswo Mist bauen. ;D

aufkrawall
2013-01-10, 16:52:02
Vielleicht sieht man den Unterschied auch nur im direkten Vergleich.
Bei Serious Sam 3 hatte es damals mit einer 7979 bei mir auch ziemlich störend geruckelt, und zwar reproduzierbar, etwa auf der letzten Map (Canyon). Vielleicht findet sich dazu auch irgendwo hier ein Post von mir.
Da war ich ziemlich enttäuscht, weil die 7970 massig VRAM im Vergleich zur 570 hatte, welcher bei dem Spiel zum Problem wurd.
Durch Treiber-Updates wurde die Ruckelei besser. Ich bin mir nicht sicher, aber afair wurde es zumindest damals nicht völlig gefixt.

Ronny145
2013-01-10, 17:42:28
Die Frametime Analyse werd ich garantiert nicht bei euch Banausen ins Forum posten, sondern ganz wo anders, wo man scheinbar noch sachlich bleiben kann.



Was wohl eher daran liegt, dass Du keine produktive Analyse getätigt hast. Vielmehr wird es eine deiner in den Raum geworfenen Behauptungen sein, die dir keiner hier blind abnimmt. Zumal das Ergebnis deiner "Analyse" vorher festeht. Also spar dir das gleich, nimmt dir eh keiner ab.

MadManniMan
2013-01-10, 18:19:19
Was wohl eher daran liegt, dass Du keine produktive Analyse getätigt hast. Vielmehr wird es eine deiner in den Raum geworfenen Behauptungen sein, die dir keiner hier blind abnimmt. Zumal das Ergebnis deiner "Analyse" vorher festeht. Also spar dir das gleich, nimmt dir eh keiner ab.

Danke. Sein Trollieren ist eh nur als solches angesetzt.

Schaffe89
2013-01-10, 21:41:44
Was wohl eher daran liegt, dass Du keine produktive Analyse getätigt hast.

Liegt wohl daran, dass ich bisher auch nicht gesagt habe ich hätte eine produktive Analyse getätigt, wer hat dir denn das gesagt? :D

Ich habe nur gesagt dass mir bisher keine großen Unterschiede in den Frametimes aufgefallen sind mit einer HD 7970 DCII und alles schön gleichmäßig ist.

Also spar dir das gleich, nimmt dir eh keiner ab.

Bevor du einfach nur Lügemärchen rumerzählst, würde ich dir empfehlen mal in den Thread zu schauen und das lesen was da steht.

Und die GTX 670 bestelle ich mir natürlich auch nur deswegen, damit ich sie im Schrank verschimmeln lasse und alle Werte erfinde, ne, klar.

MadManniMan
2013-01-10, 23:41:05
Du verkaufst halt subjektive Eindrücke als objektiven Bericht, wie soll man Dich da ernst nehmen?

Schaffe89
2013-01-11, 00:06:38
Ich verkaufe gar nichts als objektiven Bericht, wenn dir mein Eindruck der HD 7970 Frametimes ohne Vergleich bisher nicht gefällt, ist das dein Problem, dann warte halt bis ich die GTX 670 habe und vergleichen kann.
Dann kommen auch so schöne Graphen mit Bildchen und Strichchen.

Und nochmal ich verkaufe hier gar nichts, das wird mir nur von den Schlaumeiern unterstellt die nicht fähig sind zu lesen.
Ich habe nur gesagt dass das Problem nicht so schwerwiegend sein kann, wenn die PCGH nichts sieht, und trotzdem gehört es, wenn es denn besteht gefixed, was willst du denn von mir hören?

Soll ich die bisherigen Tests ohne genauere Berücksichtigung der Treiber, Testsamples.. etc.. für bare Münze nehmen und in den Foren rumbashen?
Ich dachte das übernehmen schon die Nvidia Boys :facepalm:

Ob es nur unter directx9 vorliegt oder nicht wäre zum Bleistift auch interessant zu wissen.
Ob verschiedene Settings dafür Verantwortlich sind, oder Taktraten oder weiß der Teufel.

Es wäre ja auch mal nicht verkehrt etwas mehrere Spiele zu testen als nur ein paar.
Eventuell gibt es auch bei Nvidia je nach Spiel schlechte Frametimes und die bessern dann nach.

Ich hab aktuell nur eine GTX 550 Ti, die taugt aber nicht weil zu alt.

MadManniMan
2013-01-11, 00:22:05
Es ist zwar blöd, dass man betriebsblind wird, aber man wird es.

Bevor tombman (RIP) die AFR-Mikroruckler aufdeckte, hat da auch kaum jemand drüber gesprochen. So ist nunmal der Weg der Erkenntnis: immer dazu bereit sein, die eigene Realität zu hinterfragen, Fehler eingestehen, neuen Hinweisen nachgehen.

Wahrscheinlich ist mein Fanboytum zu lange her, als zu verstehen, dass man für einen der beiden Läden brennen kann und dem anderen immer im Zweifel etwas mehr unterstellt.

Schaffe89
2013-01-11, 00:29:10
Mag ja sein, dass man wenn man Hardware von Hersteller XY hat Treiberbugs usw.. nicht so eng sieht.
Das ist aber bei mir bei diesem recht komplexen Bug aber eher nicht egal, ich fürchte halt um die Spielgeschmeidigkeit.

Also "bleiben wir geschmeidig" und gut ist.

http://www.youtube.com/watch?v=DX-q5uBkwe0

fondness
2013-01-11, 09:17:38
Es ist zwar blöd, dass man betriebsblind wird, aber man wird es.

Bevor tombman (RIP) die AFR-Mikroruckler aufdeckte, hat da auch kaum jemand drüber gesprochen. So ist nunmal der Weg der Erkenntnis: immer dazu bereit sein, die eigene Realität zu hinterfragen, Fehler eingestehen, neuen Hinweisen nachgehen.

Wahrscheinlich ist mein Fanboytum zu lange her, als zu verstehen, dass man für einen der beiden Läden brennen kann und dem anderen immer im Zweifel etwas mehr unterstellt.

Man kanns auch übertreiben. Wenn selbst Leute wie Raff, die bei PCGH arbeiten und täglich mit µRuckler zu haben, sagen, dass diese Eregbnisse in der Praxis nicht relevant sind weil sie unter der Wahrnehmungsschwelle liegen, dann sollte man das auch mal akzeptieren können.

Es ist jedenfalls noch immer klar erkennbar in welche Richtung dein Fanboytum "damals" ging. ;)

Ansonsten sollte vielleicht irgendwann mal jemand heraus finden welche Karten bei welchen Spiel und mit welchen Treiber überhaupt betroffen sein sollen, dann könnte man zumindest mal versuchen etwas nachzustellen. Ansonsten werfen sich alle Leute irgend welche Dinge auf den Kopf, wo kaum jemand weiß wovon überhaupt geredet wird. Das hat jedenfalls nichts mit AFR µRuckler zu tun.

Kartoffel123
2013-01-11, 10:31:41
Wenn sich andere Reviewer und Hardware-Magazine zu dem Sachverhalt nicht äussern, dann liegt es einfach an dem Umstand, dass man das vermeintliche Problem nicht reproduzieren kann bzw. nicht als praxisrelevant erachtet. Ihr könnt davon ausgehen, dass sich andere Magazine die Sache sicherlich auch angeschaut haben. Die einfachste Auflösung dieses ominösen Problems wird wohl sein, dass AMD einfach einen "Bock geschossen" hat in den letzten Win8-Treibern, und dieser zudem auch nur Boost-Karten betrifft. Dieses Verhalten wird also vermutlich im nächsten Treiber gefixt sein.

Angesichts dessen halte ich die emotionale Diskussion die hier geführt wird in Kombination mit dem Verteufeln von AMD-Karten für überzogen und auch ein wenig amüsant. :)

aufkrawall
2013-01-11, 14:56:30
Man kanns auch übertreiben. Wenn selbst Leute wie Raff, die bei PCGH arbeiten und täglich mit µRuckler zu haben, sagen, dass diese Eregbnisse in der Praxis nicht relevant sind weil sie unter der Wahrnehmungsschwelle liegen, dann sollte man das auch mal akzeptieren können.

Das sagt Raff auch über AMDs AA oder Nvidias D3D9 LOD Bias.
Das kann man als Enthusiast aber anders sehen.

Als Mainstream-Consumer kann man mit so ziemlich jedem Scheiß glücklich sein.

N0Thing
2013-01-11, 15:22:04
Wenn sich andere Reviewer und Hardware-Magazine zu dem Sachverhalt nicht äussern, dann liegt es einfach an dem Umstand, dass man das vermeintliche Problem nicht reproduzieren kann bzw. nicht als praxisrelevant erachtet.

Es kann auch gut sein, daß über Weihnachten und der anstehenden/aktuellen CES eine solche Untersuchung nicht kurzfristig eingeschoben wird. Immerhin bedeutet das einen hohen Aufwand, wenn man Treiber, Grafikkarten, Hersteller und OS als Faktoren für die Ursache untersuchen will. Da muß man deutlich mehr Zeit investieren als in einen simplen Benchmarkparcours.

Nachdem PCGH und ht4u ihre Mammutbenchmarks hinter sich gebracht haben, besteht ja die Hoffnung, daß dort ab jetzt oder nach der CES an Thema angegangen wird.

Schaffe89
2013-01-11, 15:47:25
Das sagt Raff auch über AMDs AA oder Nvidias D3D9 LOD Bias.

Ich bin der gleichen Meinung. Irgendwann sind die Unterschiede so minimal, dass sie selbst "enthusiasten" relativ egal sein dürften.

aufkrawall
2013-01-11, 16:24:33
Ich bin der gleichen Meinung. Irgendwann sind die Unterschiede so minimal, dass sie selbst "enthusiasten" relativ egal sein dürften.
Blödsinn. Entweder Artefakte fallen auf oder nicht.

Kartoffel123
2013-01-11, 17:23:05
Es kann auch gut sein, daß über Weihnachten und der anstehenden/aktuellen CES eine solche Untersuchung nicht kurzfristig eingeschoben wird. Immerhin bedeutet das einen hohen Aufwand, wenn man Treiber, Grafikkarten, Hersteller und OS als Faktoren für die Ursache untersuchen will. Da muß man deutlich mehr Zeit investieren als in einen simplen Benchmarkparcours.

Nachdem PCGH und ht4u ihre Mammutbenchmarks hinter sich gebracht haben, besteht ja die Hoffnung, daß dort ab jetzt oder nach der CES an Thema angegangen wird.

Du kannst mir glauben, dass da nichts kommen wird, weil es einfach nichts zu berichten gibt. Es handelt sich um einen Ausnahmefall in einer extrem seltenen Konstellation der aller wahrscheinlichkeit einfach nur ein Treiber-Bug ist.

AMD äussert sich vermutlich auch gerade deswegen nicht, weil es eben bereits im nächsten Treiber korrigiert sein wird.

gnahr
2013-01-11, 17:37:42
Du kannst mir glauben, dass da nichts kommen wird, weil es einfach nichts zu berichten gibt. Es handelt sich um einen Ausnahmefall in einer extrem seltenen Konstellation der aller wahrscheinlichkeit einfach nur ein Treiber-Bug ist.

AMD äussert sich vermutlich auch gerade deswegen nicht, weil es eben bereits im nächsten Treiber korrigiert sein wird.
ein TLB-Bug? :)
"glaub mir, zweifel nicht"... ein grund mehr rabatz zu machen.

Blediator16
2013-01-11, 19:37:18
http://techreport.com/review/23150/amd-radeon-hd-7970-ghz-edition/4

Sagt dieser Test das selbe über eine 570 bzw Fermi aus? Wenn nein was ist da anders als beim AMD Test?

aufkrawall
2013-01-11, 19:41:30
Bei der 570 ist der Speicher voll, das darf stocken.

Blediator16
2013-01-11, 20:12:39
http://techreport.com/review/21982/today-mid-range-gpus-in-battlefield-3/6

Bei dem Test ist es "nur" eine Fullhd Auflösung und schon ist der Speicher ebenfalls voll?

dargo
2013-01-11, 20:16:56
http://techreport.com/review/21982/today-mid-range-gpus-in-battlefield-3/6

Bei dem Test ist es "nur" eine Fullhd Auflösung und schon ist der Speicher ebenfalls voll?
Psst... Geforces microruckeln nicht. ;)

PS: bei Full-HD ohne MSAA dürfte der Speicher von einem GB nicht voll sein.

boxleitnerb
2013-01-11, 20:16:57
Es ist ja nicht auszuschließen, dass das wirklich mal so war und dann per Treiber gefixt wurde. Eigentlich müsste man wirklich viele Karten mit aktuellen Treibern neu testen.

dildo4u
2013-01-11, 20:20:30
http://techreport.com/review/21982/today-mid-range-gpus-in-battlefield-3/6

Bei dem Test ist es "nur" eine Fullhd Auflösung und schon ist der Speicher ebenfalls voll?
Scheint so die 650Ti mit 2GB läuft viel besser als die GTX 560 obwohl die GPU kaum stärker ist.Ist schwer zu sagen ob das an Fermi liegt oder zu wenig V-Ram da ist,da dort kein Kepler mit 1GB dabei ist.

High Preset nich Ultra ganz unten auf der Seite.
http://techreport.com/review/23690/review-nvidia-geforce-gtx-650-ti-graphics-card/4

Wenn ich mir die anderen Games angucke scheint's der V-Ram zu sein,in den andere Game's saugt die 650 Ti genau so wie die 560.(Dirt Showdown z.b)Schätze mal BF3 wird im Vergleich zu den anderen Games die höst aufgelösten Texturen nutzen.

Blediator16
2013-01-11, 20:36:17
Die lassen sich aber Zeit mit mehr Tests^^

N0Thing
2013-01-11, 20:43:09
Du kannst mir glauben, dass da nichts kommen wird, weil es einfach nichts zu berichten gibt. Es handelt sich um einen Ausnahmefall in einer extrem seltenen Konstellation der aller wahrscheinlichkeit einfach nur ein Treiber-Bug ist.

Auch das ist für mich wert, berichtet zu werden. Dann kann man sich auch das Reden von Wahrscheinlichkeit und Vermutung sparen, es würde dann Klarheit herrschen.

So gibt es die eine Seite, die davon ausgeht es sei eine Ausnahme und dies als wahrscheinlichste Tatsache hinstellt. Dann die andere Seite, die davon ausgeht das Phänomen würde für alle/einige AMD-Karten gelten und dies als Tatsache verkauft. Und dann gibt es noch diejenigen, die einfach wissen wollen was Sache ist und ich würde mir wünschen, daß die letzte Gruppe hier im Forum die Mehrheit darstellt.

StefanV
2013-01-11, 20:53:46
Bei der 570 ist der Speicher voll, das darf stocken.
Ahjo...
Verstehe ich nicht...

Bei der nVidia ists OK, wenns stockt, aber bei AMD nicht?!?!

dildo4u
2013-01-11, 20:58:29
Ahjo...
Verstehe ich nicht...

Bei der nVidia ists OK, wenns stockt, aber bei AMD nicht?!?!
In diesem Thread ging's doch um Kepler gegen HD 7900 oder nicht?Kepler hat Fermi jetzt durch die ganze Produktpalette ersetzt.Die ganzen Tests sind ja für ne Zukünftige Kaufentscheidung wichtig nicht für was man schon hat.

Schaffe89
2013-01-11, 21:03:09
Bei der 570 ist der Speicher voll, das darf stocken.

Wenn von mir mal eine Aussage kommt, das Problem sei evtl. nicht so schlimm, werde ich derbe kritisiert, aber wenn es mal bei Nvidia µruckelt ist es natürlich der V-ram bei Full HD ohne AA.

Wenn man im Glashaus sitzt... ;)

aufkrawall
2013-01-11, 21:04:18
In diesem Thread ging's doch um Kepler gegen HD 7900 oder nicht?Kepler hat Fermi jetzt durch die ganze Produktpalette ersetzt.Die ganzen Tests sind ja für ne Zukünftige Kaufentscheidung wichtig nicht für was man schon hat.
So ist es.
Und ich halte es für sicher, dass es bei der 570 am VRAM liegt:
Max Details ohne MSAA 1400 MB belegt:
http://www.abload.de/thumb/bf3_2013_01_11_21_02_3cqz0.png (http://www.abload.de/image.php?img=bf3_2013_01_11_21_02_3cqz0.png)

Das Spiel stockt selbst bei 1280x1024 Ultra 4xMSAA auf einer 560 Ti 1 GB.
Hätten wir das geklärt. ;)

Edit: Guck mal schaffe, ich liefere Belege. Kann ich dir nur empfehlen...

HarryHirsch
2013-01-11, 21:05:26
ist es bei nv nicht so das bei vollem vram garnichts mehr geht?
warum sollte es µruckeln?

aufkrawall
2013-01-11, 21:07:09
ist es bei nv nicht so das bei vollem vram garnichts mehr geht?

Unsinn.


warum sollte es µruckeln?
Warum sollte "gar nichts mehr gehen"?

HarryHirsch
2013-01-11, 21:08:37
Unsinn.


Warum sollte "gar nichts mehr gehen"?

ich hab die erfahrung gemacht.
es sei denn 15 fps gehen.

aufkrawall
2013-01-11, 21:13:34
ich hab die erfahrung gemacht.
es sei denn 15 fps gehen.
Als ich die 560 Ti hatte, gab es bei BF3 Stocker (halt die gemeinten "Mikroruckler").
Laut OSD war VRAM voll. Ich stell die Texturdetails runter. VRAM ist nicht mehr voll, Spiel stockt nicht mehr.

Alles klar, oder?

HarryHirsch
2013-01-11, 21:18:42
bei wie viel fps denn?

ich kenne es nur so das die fps drastisch einbrechen.
was natürlich auch ruckelt.

aufkrawall
2013-01-11, 21:25:14
Nope, afair waren es keine Einbrüche/Hänger, sondern Stocker.
Die fps waren dabei recht hoch, mindestens 40, eher 50.

Schaffe89
2013-01-11, 21:44:30
Und ich halte es für sicher, dass es bei der 570 am VRAM liegt:

Sicher ist da gar nichts. Schau dir mal den Thread an.

http://extreme.pcgameshardware.de/battlefield/188443-bf3-wie-hoch-ist-eure-vram-auslastung-bei-welchen-detailstufen-aa.html

Du pickst dir da so ziemlich die Rosinen raus.
Ohne MSAAAA geht da ganz selten was über 1,1gb und wenn dann ist das nur Belegt, heißt noch nicht dass da was ruckeln muss.

aufkrawall
2013-01-11, 21:49:21
Sicher ist da gar nichts. Schau dir mal den Thread an.

http://extreme.pcgameshardware.de/battlefield/188443-bf3-wie-hoch-ist-eure-vram-auslastung-bei-welchen-detailstufen-aa.html

Du pickst dir da so ziemlich die Rosinen raus.

wtf
Du pickst dir gar nichts raus und klatscht stattdessen nen Link ohne Erklärung hin.
Außerdem: Sich auf Caspian Border in nen Jet setzen, ist nicht gerade ne "Rosine", das ist ein Normalfall...

Edit: Und witzig: Der VRAM ist nachweisbar total gefüllt und du behauptest fröhlig weiter, es müsse ja nicht daran liegen.
Nerv wen anders..


Ohne MSAAAA geht da ganz selten was über 1,1gb und wenn dann ist das nur Belegt, heißt noch nicht dass da was ruckeln muss.
Der Verbrauch geht im MP auf großen Außenmaps immer über 1,1 GB, erzähl keinen Stuss.

dargo
2013-01-11, 22:02:38
So ist es.
Und ich halte es für sicher, dass es bei der 570 am VRAM liegt:
Max Details ohne MSAA 1400 MB belegt:
http://www.abload.de/thumb/bf3_2013_01_11_21_02_3cqz0.png (http://www.abload.de/image.php?img=bf3_2013_01_11_21_02_3cqz0.png)

Und jetzt überlegen wir mal wie repräsentativ dein Screenshot ist.

1. Die Seite die die Frametimes gemessen hat hatte für den Test den SP genommen, ist ja auch nicht verwunderlich wenn es um Reproduzierbarkeit geht. Ich habe jetzt mal probeweise eine kurze SP-Mission gespielt und kam in Full-HD ohne MSAA mit max. Details auf 1000-1350MB (leider kriege ich es nicht auf die Reihe einen passenden Screenshot zu posten, das OSD wird nicht mitgeknipst).

2. Was genau misst das Tool da überhaupt bei dem Vram bzw. wie genau ist die Anzeige?

3. Gibt es bei Spielen ein "Vorcachen" wenn die Graka mehr Vram zur Verfügung stellt? Sprich... zeigt mir das Tool bei gleicher Szene die selben MB an wenn ich eine 1GB Graka habe anstatt eine mit 3GB?

Edit:
Noch eine Kuriosität... hatte vorhin die Mission vor der Jet-Mission beendet. Spiel läuft also weiter. Dann fängt die Jet-Mission an. Speicherauslastung angeblich um 1GB. Wenn ich diese Mission abbreche und wieder von vorne starte liegt die Speicherauslastung der gleichen Szenen plötzlich bei 750-870MB. Also ich würde mich auf diese Tools nicht blind verlassen. Und ja... bei Fermi war es so. Wenn der Speicher wirklich übergelaufen ist dann gabs einstellige Frameraten. Ich konnte das damals selbst erleben.

dildo4u
2013-01-11, 22:11:29
So ist es.
Und ich halte es für sicher, dass es bei der 570 am VRAM liegt:
Max Details ohne MSAA 1400 MB belegt:
http://www.abload.de/thumb/bf3_2013_01_11_21_02_3cqz0.png (http://www.abload.de/image.php?img=bf3_2013_01_11_21_02_3cqz0.png)
.
Macht Sinn da die GTX480/580 1.5GB hatten war das Ziel unter 1.5GB zu bleiben.

StefanV
2013-01-11, 22:25:36
In diesem Thread ging's doch um Kepler gegen HD 7900 oder nicht?
Nö, es geht hier um 'µRuckler bei Single GPU Karten'...


Kepler hat Fermi jetzt durch die ganze Produktpalette ersetzt.Die ganzen Tests sind ja für ne Zukünftige Kaufentscheidung wichtig nicht für was man schon hat.
Ahjo, also was du sagen möchtest, ist, dass das irrelevant ist, weil alte Karte und schließlich darf das bei nVidia ja auch nicht sein? Habe ich dich soweit richtig verstanden? Du brauchst nur irgendwas, um gegen AMD schießen zu können?

Zumal bisher noch viel zu viele Fragen offen wären, wie zum Beispiel welche Karten es betrifft, bei welchen Spielen und so weiter...

HarryHirsch
2013-01-11, 22:58:23
ohne neue tests ist der ganze thread für den arsch.
die mods haben geputzt. :freak:

aufkrawall
2013-01-11, 23:04:22
Und jetzt überlegen wir mal wie repräsentativ dein Screenshot ist.

1. Die Seite die die Frametimes gemessen hat hatte für den Test den SP genommen, ist ja auch nicht verwunderlich wenn es um Reproduzierbarkeit geht. Ich habe jetzt mal probeweise eine kurze SP-Mission gespielt und kam in Full-HD ohne MSAA mit max. Details auf 1000-1350MB (leider kriege ich es nicht auf die Reihe einen passenden Screenshot zu posten, das OSD wird nicht mitgeknipst).

Die 570 hat nur 1280 MB.
Zur Repräsentativität hab ich mich schon geäußert, falls dir das entgangen ist.


2. Was genau misst das Tool da überhaupt bei dem Vram bzw. wie genau ist die Anzeige?

Der Treiber muss ja wohl irgendwie einen Wert rausgeben können, wie viel noch alloziierbar ist. Wird wohl kaum einfach ein Fantasiewert sein. Guck mal in den Taskmanger bei der Prozentanzeige des physikalisch belegten Speichers, die spinnt auch nicht.


3. Gibt es bei Spielen ein "Vorcachen" wenn die Graka mehr Vram zur Verfügung stellt? Sprich... zeigt mir das Tool bei gleicher Szene die selben MB an wenn ich eine 1GB Graka habe anstatt eine mit 3GB?

Möglich, wir wissen es nicht. Aber das Cachen wird wohl nicht ohne Grund passieren, also ohne es schlechter laufen.


Edit:
Noch eine Kuriosität... hatte vorhin die Mission vor der Jet-Mission beendet. Spiel läuft also weiter. Dann fängt die Jet-Mission an. Speicherauslastung angeblich um 1GB. Wenn ich diese Mission abbreche und wieder von vorne starte liegt die Speicherauslastung der gleichen Szenen plötzlich bei 750-870MB. Also ich würde mich auf diese Tools nicht blind verlassen. Und ja... bei Fermi war es so. Wenn der Speicher wirklich übergelaufen ist dann gabs einstellige Frameraten. Ich konnte das damals selbst erleben.
Das ist relativ wurst. Man lädt einen Level, rennt durch die Gegend, spawnt ein paar Mal, knallt etwas rum, fertig. Nix neu laden etc.
Sonst kann man auch gleich on the fly an den Grafiktoptionen rumdrehen und damit alles verfälschen...
Wenn solche verfälschenden Ereignisse eintreten, kann man das Ergebnis halt nicht werten.
Man überprüft dann sein Ergebnis auf Reproduzierbarkeit.
Ist jetzt keine hohe Kunst.

Wegen deinem Erlebnis: Ich vermute, es kommt auch drauf an, wie viel Speicher fehlt. Wenn der vorne und hinten nicht reicht, ist klar, dass die fps derbst einkacken.
Ich wiederhole mich: Wenn bei meiner 560 Ti "etwas" gefehlt hat, gab es nur kleine Stocker.

Schaffe89
2013-01-11, 23:22:02
Eigentlich ist es völlig belanglos, aber zu sagen es liegt sicher an der V-ram Auslastung ist Blödsinn, dazu müsste man den Tester fragen. ;)

Bitte zurück zum eigentlichen Thema.

dargo
2013-01-11, 23:51:27
Der Treiber muss ja wohl irgendwie einen Wert rausgeben können, wie viel noch alloziierbar ist. Wird wohl kaum einfach ein Fantasiewert sein.
Ich weiß, dass dieser Wert damals bei DX9 Games schon grob geschätzt wurde (an welchen Daten auch immer), selbst von den Gurus hier wurde der angezeigte Wert angezweifelt. Früher wo es noch kein DX11 gab hatte ich zwei Werte bei der Speicherauslastung. Einen geringen Teil vom Arbeitsspeicher hat das Game immer belegt. Erst wenn dieser Bereich um Faktor X überschritten wurde gabs extreme Framedrops. Wer sagt mir jetzt, dass dieser Bereich im neuen Afterburner nicht inbegriffen ist bei dem einen einzigen Wert?

N0Thing
2013-01-12, 01:25:37
Ich dachte ab DX10 kann man den belegten VRAM nicht mehr akkurat auslesen. Hat sich daran etwas geändert, oder habe ich das vielleicht falsch in Erinnerung?

Ätznatron
2013-01-12, 10:08:30
3. Gibt es bei Spielen ein "Vorcachen" wenn die Graka mehr Vram zur Verfügung stellt? Sprich... zeigt mir das Tool bei gleicher Szene die selben MB an wenn ich eine 1GB Graka habe anstatt eine mit 3GB?


Gewöhnlicherweise wird der Framebuffer (bei 2-oder 3-fach Pufferung entprechend) bei jedem Programmdurchlauf dynamisch allokiert und beschrieben, d.h. jeder Bildpunkt wird neu berechnet (also kein "Vorcachen").

N0Thing
2013-01-12, 10:38:59
Der die Größe des Framebuffers bei einer FullHD-Auflösung beträgt nur ca. 7MB, für die Belegung des VRAM also praktisch unwichtig.

Mich würde aber auch interessieren, ob die Engine oder der Treiber dafür sorgt, daß früher einmal benötige Texturen für eine Weile im VRAM behalten werden, um sie bei Bedarf nicht erst wieder aus dem RAM laden zu müssen. Zum Beispiel beim Laden eines neuen Levels in TF2 oder BF3.

Grestorn
2013-01-12, 12:11:05
Der aktuelle VRAM Bedarf wird schon seit einiger Zeit von der nvapi.dll geliefert und deswegen von allen Tools, die diese verwenden (precisionX, Afterburner, Inspector) immer korrekt angezeigt und ist auch keine Schätzung sondern ein exakter Wert.

Flusher
2013-01-12, 14:38:11
edit:falscher thread

dargo
2013-01-12, 21:16:20
Der aktuelle VRAM Bedarf wird schon seit einiger Zeit von der nvapi.dll geliefert und deswegen von allen Tools, die diese verwenden (precisionX, Afterburner, Inspector) immer korrekt angezeigt und ist auch keine Schätzung sondern ein exakter Wert.
Ah... ok, gut zu wissen. Was ist mit AMD-Karten?

pest
2013-01-13, 23:37:15
ich habe eine kleine Software entwickelt (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=537679)

wir könnten ja jetzt mal anfangen, richtige Ergebnisse zu produzieren :)

N0Thing
2013-01-14, 00:46:52
Danke für deine Mühen. Ich hoffe, es finden sich möglichst viele Mitglieder, die die sich nun an Frametime-Messungen beteiligen. :up:

Ich würde vorschlagen, daß alle Interessierten Teile des Techreport-Reviews (http://techreport.com/review/23981/radeon-hd-7950-vs-geforce-gtx-660-ti-revisited) nachstellen, inklusive Angabe des Systems (minimum OS, CPU, GPU samt Treiberversion, HDD/SDD).

Zusätzliche Testsequenzen sollten willkommen sein, wichtig erscheint mir aber eine möglichst breite Basis an Hardware und eine relative kleine Auswahl an Spielen/Testsequenzen, um die Ursache des Micro-Stutterings leichter eingrenzen zu können.

Hübie
2013-01-14, 02:47:25
Öh. Gibts doch schon von Frafs: http://sourceforge.net/projects/frafsbenchview/ - sogar den sourcecode ;D Aber danke für die Mühe.
Ich habe seit ein paar Wochen intern Tests laufen und kann mit einer GF110 einfach nicht spektakuläres disbezüglich berichten. Das "unsauberste" Spiel ist bisher Dead Island. In kurzen Intervallen gibt es immer mal wieder Ausreißer welche mit ca. 13 ms mehr oder 9 ms weniger als im sonstigen Verlauf auffallen.
Hier mal ein Auszug (Dead Island, Sleeping Dogs und Mafia II). Ich habe bewusst keine Massenware genommen, aber auch in Alan Wake, Skyrim, The Witcher 2 etc gibt es keine Auffälligkeiten:

http://www.abload.de/thumb/frametime_comparisonhzx8k.png (http://www.abload.de/image.php?img=frametime_comparisonhzx8k.png)

pest
2013-01-14, 03:00:59
Das Programm kann nicht mal halb soviel wie meins :rolleyes:
Du kannst in meinen Graphen zoomen und beliebe Quantile berechnen :eek: -ein Histogramm oder Dichteschätzung seh ich auch nicht

den Code kannste gerne haben - die 200 Zeilen sind keine Hexerei

Hübie
2013-01-14, 03:05:15
FPS-Verteilung und Ranking kannst du dort auch machen. Aber gut. Ich kritisiere dein Programm ja nicht. Das bereits erhältliche dient jedoch dem Zweck ausreichend ;)

pest
2013-01-14, 03:09:06
Wo geht eine FPS-Verteilung? Ich finde nicht das das aussreicht, ich finde z.B. Interquantile viel wichtiger.

Hübie
2013-01-14, 03:31:04
Meinst du das?

http://www.abload.de/img/frafsswl3r.png (http://www.abload.de/image.php?img=frafsswl3r.png)

pest
2013-01-14, 03:34:49
nein

Hübie
2013-01-14, 03:44:48
Sondern?

pest
2013-01-14, 04:00:39
schau doch in den Programm-Thread bei PDF

Ich will noch ein paar Sachen mehr einbauen

Hübie
2013-01-14, 16:15:06
Bin gespannt :)

L233
2013-01-17, 08:15:10
http://techreport.com/review/24218/a-driver-update-to-reduce-radeon-frame-times


Neuer Treiber fixt das Problem, auch wenn die Fixes vorerst spielspezifisch zu sein scheinen.

Das bestätigt:
1. Das Problem existiert(e) wirklich
2. AMD's Treiberqualität hat zurecht den Ruf, den sie hat

Ätznatron
2013-01-17, 08:33:22
http://techreport.com/review/24218/a-driver-update-to-reduce-radeon-frame-times


Neuer Treiber fixt das Problem, auch wenn die Fixes vorerst spielspezifisch zu sein scheinen.

Das bestätigt:
1. Das Problem existiert(e) wirklich
2. AMD's Treiberqualität hat zurecht den Ruf, den sie hat

Das nenne ich doch mal eine hervorragende Arbeit des AMD Treiberteams. So schnell eine Lösung zu finden...Respekt!

Die Aussage von Andrew Dodd, AMDs Catalyst Guru ("The driver does not yet contain the new video memory manager. Our intention is release a new driver in a few weeks, which does include the new Video memory manager, which will help resolve latency issues for DX11/DX10 applications.") lässt ja für die nähere Zukunft noch Herausragenderes erwarten.

MadManniMan
2013-01-17, 09:16:24
Das nenne ich doch mal eine hervorragende Arbeit des AMD Treiberteams. So schnell eine Lösung zu finden...Respekt!

Hmpf.

Die nächste Aufgabe der Fachmagazine wäre, erstmal aufzudecken, welche Spiele/Engines überhaupt betroffen sind und welche jetzt gefixt wurden. Wenn es nämlich nur jeweils per Applikation funktioniert, läuft da was nicht rund.

Das sieht im Moment nur nach Symptombekämpfung aus ...

Die Aussage von Andrew Dodd, AMDs Catalyst Guru ("The driver does not yet contain the new video memory manager. Our intention is release a new driver in a few weeks, which does include the new Video memory manager, which will help resolve latency issues for DX11/DX10 applications.") lässt ja für die nähere Zukunft noch Herausragenderes erwarten.

... das hingegen könnte die Ursache bearbeiten.

Bleiben wir skeptisch.

Raff
2013-01-17, 09:29:15
Ich vermisse bei Techreport immer noch den Satz "This problem can NOT be encountered with Windows 7." Steht der irgendwo?

MfG,
Raff

L233
2013-01-17, 09:38:51
Ich vermisse bei Techreport immer noch den Satz "This problem can NOT be encountered with Windows 7." Steht der irgendwo?

MfG,
Raff
Nö, warum sollte der auch irgendwo stehen?

Da gibt's sogar einen ganzen Artikel dazu:
http://techreport.com/review/24022/does-the-radeon-hd-7950-stumble-in-windows-8

MadManniMan
2013-01-17, 10:02:28
Ich vermisse bei Techreport immer noch den Satz "This problem can NOT be encountered with Windows 7." Steht der irgendwo?

Ist das denn so?

Und: seid ihr an dem Problem dran?

fondness
2013-01-17, 10:19:21
Nö, warum sollte der auch irgendwo stehen?


Weil es nur mit Win8 auftritt? Umsonst würde Raff das wohl nicht schreiben.

Grestorn
2013-01-17, 10:45:05
Das hat techreport doch explizit widerlegt Lest ihr denn die Artikel nicht, über die ihr diskutiert?

L233
2013-01-17, 10:59:14
Weil es nur mit Win8 auftritt?
Das ist falsch, wenn TR nicht gerade die Benchmarks getürkt haben.
Umsonst würde Raff das wohl nicht schreiben.
Tja, dazu kann sich wohl jeder selbst seinen Teil denken.

Peter Gräber
2013-01-17, 14:17:20
Ich vermute mal sehr stark, dass Raff damit zum Ausdruck bringen will, dass er die geschilderten Probleme so nicht nachvollziehen konnte. Ich habe vergangene Woche mehrere Stunden in Skyrim, AC III und Max Payne zugebracht (unter Win7) und bin dabei auf keine solchen Probleme getroffen. Augenscheinlich stotterte oder ruckelte da nichts.

Raff
2013-01-17, 14:19:51
Danke, Peter – genau das wollte ich sagen. Windows 8 ist eben ein einziges Problem. ;) Ausnahmen unter Windows 7 bestätigen die Regel.

MfG,
Raff

MadManniMan
2013-01-17, 14:26:38
Also heiße Luft?

L233
2013-01-17, 14:27:21
Ich vermute mal sehr stark, dass Raff damit zum Ausdruck bringen will, dass er die geschilderten Probleme so nicht nachvollziehen konnte.
Ich hingegen vermute mal ganz stark, dass Raff damit genau das zum Ausdruck bringen wollte, was er geschrieben hat: nämlich dass das Problem unter Win7 nicht auftritt.

Was aber falsch ist. Und wenn uns TR nicht gerade eins vor den Latz lügt, dann ist die Vermutung "nur unter Win8" schon seit 5 Wochen widerlegt, was aber bei Raff offenbar noch nicht angekommen ist.

Grestorn
2013-01-17, 14:27:23
Weil eine Person in einigen Spielen kein Problem feststellen konnte (ein Problem, dass ohne konkrete Messung vorher noch von niemandem durch "spielen" und "beobachten" bemerkt wurde) gibt es das Problem nicht?

Merkwürdige Logik.

TR hat gemessen und festgestellt, dass das Problem unter Win7 wie auch Win8 aufritt. Dem normalen Anwender fällt das objektiv ohne direkten Vergleich nicht auf, die gefühlte Framerate ist ja nur etwas niedriger als die angezeigte.

Wir müssen da jetzt nicht auch noch ein Win8 Hate-Thread drausmachen, nachdem viele es ja schon als AMD-Hate Thread empfinden.

MadManniMan
2013-01-17, 14:32:38
Ich war nach Raffs und Peters Aussagen jetzt ehrlich gesagt davon ausgegangen, dass beide gemessen und nicht nur gespielt hätten ...

Grestorn
2013-01-17, 15:16:24
Ich war nach Raffs und Peters Aussagen jetzt ehrlich gesagt davon ausgegangen, dass beide gemessen und nicht nur gespielt hätten ...

Aus Peters Posting lese ich nur heraus, dass er sich mit diesen Spielen mehrere Stunden lang beschäftigt hat. I.d.R. heißt "Beschäftigen mit einem Spiel", dass man es gespielt hat. Es gibt natürlich auch Ausnahmen :)

Peter Gräber
2013-01-17, 15:36:31
Nein, gemessen wurde nicht, das hast du schon richtig verstanden. Und ich bin recht sicher, dass es offenbar in verschiedenen Konstellationen zu Problemen kommen kann, sonst hätte AMD sich zur Thematik wohl auch nicht geäußert.

Der Umstand, dass TR auf einem Skyrim-Video Ruckler zeigt, welche man mit dem Auge sieht sollte sich prinzipiell nachstellen lassen, wenn man es mit einem allgemeinen Problem zu tun hat. Lässt es sich hier aber nicht und bei Raff offenbar auch nicht. Also muss es wohl von bestimmten Faktoren abhängig / begünstigt sein.

Cyphermaster
2013-01-17, 15:46:20
Mich würde interessieren, ob man auch allgemein schon Faktoren finden kann, die zu solchen "Igeln" im Frametime-Verlauf führen können.

TR hat ja sowas auch auf Diagrammen von anderen Karten, unter anderen Treibern usw., wenn auch in nicht so drastischem Umfang. Es scheint mir also nicht ein völlig neues Phänomen, sondern eher umgekehrt ein Fehler oder eine Nachlässigkeit beim Beseitigen/Unterdrücken (zumindest weitgehend) bekannter, grundsätzlicher Effekte.

Hübie
2013-01-17, 15:48:50
Und wieso hat nordichardware die ebenfalls messen können? Anderes System - das hatte Scott auch probiert. Auch diverse tools wie den dpc_latency checker haben die laufen lassen um Systemprobleme auszuschließen.
Es ist eine Sache ein Video zu begutachten als mitten in einer Interaktion zu stecken. Das Gehirn kann immer nur eine Sache ins Bewusstsein drängen. Selektive Wahrnehmung. Es gibt Menschen die schnell die Sinneswahrnehmung wechseln können aber echtes "Multitasking" können nur sehr sehr sehr wenige. Davon ist hier garantiert niemand. Lasst doch einfach mal mitten im Spiel ein paar Benchmarks von 60 Sekunden mitlaufen.
Als ich auf nordichardware das "Blindvideo" angesehen habe wusste ich sofort wo die Radeon ist, weil meine visuelle Wahrnehmung dort stottern bemerkte. Würde ich davor sitzen und richtig spielen würde es mir mit sehr hoher Wahrscheinlichkeit nicht auffallen, da man sich eher darauf konzentriert eine Taktik umzusetzen, sich zu heilen und den Gegner auszuschalten. Da verarbeitet das Gehirn zwar irgendwelche unregelmäßigen Bewegungen aber verwirft diese Inforamtion als unwichtig.

Seit Scotts Artikel lasse ich regelmäßig an allen möglichen Spielen hin und wieder Benchmarks mitlaufen. Das Ergebnis ist mit meiner Karte jedoch einfach nur langweilig und wenig überraschend. Das einzige was ich berichten kann ist dass es trotz framelimiter immer ein frame gibt welches deutlich darüber hinaus schießt. Dies ist zu 99% in Ladebildschirmen der Fall. Im Falle der HD79x0 könnte es entweder ein reiner software-bug sein oder ein hardware-Problem den man per Software umgehen kann. Scheint ja am Ende des Rendering-Prozesses aufzutreten wenn im Treiber das memory-management angepasst wird.

fondness
2013-01-17, 15:54:24
Nein, gemessen wurde nicht, das hast du schon richtig verstanden. Und ich bin recht sicher, dass es offenbar in verschiedenen Konstellationen zu Problemen kommen kann, sonst hätte AMD sich zur Thematik wohl auch nicht geäußert.

Der Umstand, dass TR auf einem Skyrim-Video Ruckler zeigt, welche man mit dem Auge sieht sollte sich prinzipiell nachstellen lassen, wenn man es mit einem allgemeinen Problem zu tun hat. Lässt es sich hier aber nicht und bei Raff offenbar auch nicht. Also muss es wohl von bestimmten Faktoren abhängig / begünstigt sein.

Würde es mehr Redakteure nachstellen können dann hätte es schon wesentlich mehr Artikel gegeben. Es scheint offenbar nur in ganz speziellen Konstellationen aufzutreten. Ich habe auf meinem System auch danach gesucht und nichts gefunden.

aufkrawall
2013-01-17, 15:55:02
Es ist eine Sache ein Video zu begutachten als mitten in einer Interaktion zu stecken. Das Gehirn kann immer nur eine Sache ins Bewusstsein drängen. Selektive Wahrnehmung. Es gibt Menschen die schnell die Sinneswahrnehmung wechseln können aber echtes "Multitasking" können nur sehr sehr sehr wenige.
Am besten die Kamera schwenken oder sonst wie gleichmäßig bewegen und auf den Bildschirmrand achten, so merk ich Ruckler am deutlichsten.

L233
2013-01-17, 16:31:20
Würde es mehr Redakteure nachstellen können dann hätte es schon wesentlich mehr Artikel gegeben. Es scheint offenbar nur in ganz speziellen Konstellationen aufzutreten. Ich habe auf meinem System auch danach gesucht und nichts gefunden.
Da wäre ich mir nicht so sicher. Ich sehe bisher recht wenig Bereitschaft, auf Frame-Time-Messungen umzustellen, obwohl die Unzulänglichkeiten der FPS-Metrik ja mittlerweile klar sein sollten.

Scott Wasson hat dazu geschrieben:
To those who would claim that other "professional" review sites haven't seen results like ours in their comparisons of the 7950 and GTX 660 Ti, I would simply respond: of course not. Virtually nobody else tests like we do. We're working on persuading folks to focus on latency, to use a timer with finer granularity, but such changes are hard. They take time and effort. Heck, we may be nearly alone in using this approach for a long time yet.

Und zu der These "nur in ganz speziellen Konstellationen"... warum kann AMD dann das Problem per Treiber-Update zumindest symptomatisch beheben?

fondness
2013-01-17, 17:12:08
Und zu der These "nur in ganz speziellen Konstellationen"... warum kann AMD dann das Problem per Treiber-Update zumindest symptomatisch beheben?

Was hat das eine mit dem anderen zu tun? Seit wann kann man ein Problem das nur in speziellen konstellationen auftritt nicht per Treiber fixen?

MadManniMan
2013-01-17, 17:21:29
Was hat das eine mit dem anderen zu tun? Seit wann kann man ein Problem das nur in speziellen konstellationen auftritt nicht per Treiber fixen?

Wäre es nicht gnädig von AMD, diese speziellen Konstellationen zu benennen?

L233
2013-01-17, 17:24:21
Was hat das eine mit dem anderen zu tun? Seit wann kann man ein Problem das nur in speziellen konstellationen auftritt nicht per Treiber fixen?
AMD hat für bestimmte Spiele diverse Parameter im Treiber geändert:

"Basically the fix was different per application (for the DX9 applications) – each fix involved tweaking various driver parameters. In the case of Borderlands 2, yes it did involve tweaking the buffer size."

Das sind meinem Verständnis nach allgemeine Änderungen am Treiberverhalten bei bestimmten Applikationen, die auf jedem System greifen. Wie soll man mit sowas Probleme, die nur in "speziellen Konstellationen" vorkommen, beheben können? Wären die Lösungen in solch einem Fall nicht... spezialisierter?

Wäre es nicht gnädig von AMD, diese speziellen Konstellationen zu benennen?
Das hätten sie sofort getan, wenn es tatsächlich nur in enigen wenigen Spezialfällen auftreten würde - dann damit hätte sich die negative Berichterstattung minimieren lassen.

Ätznatron
2013-01-17, 17:48:18
AMD hat für bestimmte Spiele diverse Parameter im Treiber geändert:

"Basically the fix was different per application (for the DX9 applications) – each fix involved tweaking various driver parameters. In the case of Borderlands 2, yes it did involve tweaking the buffer size."

Das sind meinem Verständnis nach allgemeine Änderungen am Treiberverhalten bei bestimmten Applikationen, die auf jedem System greifen. Wie soll man mit sowas Probleme, die nur in "speziellen Konstellationen" vorkommen, beheben können? Wären die Lösungen in solch einem Fall nicht... spezialisierter?


Das hätten sie sofort getan, wenn es tatsächlich nur in enigen wenigen Spezialfällen auftreten würde - dann damit hätte sich die negative Berichterstattung minimieren lassen.

Das siehst du glaube ich falsch:

We asked Mr. Dodd whether the changes included in this beta driver would impact performance generally in DirectX 9 applications or only in the three DX9-based games we tested. We also inquired about whether the previously mentioned buffer size tweak for Borderlands 2 was included. Here's his answer:

Basically the fix was different per application (for the DX9 applications) – each fix involved tweaking various driver parameters. In the case of Borderlands 2, yes it did involve tweaking the buffer size.

So what we have in Cat 13.2 is a series of targeted tweaks that appear to work quite well for the games in question.

Eindeutig sind damit die von techreport (http://techreport.com/review/24218/a-driver-update-to-reduce-radeon-frame-times/5) getesteten Spiele gemeint.

Also stehen die Chancen nicht schlecht, dass es sich tatsächlich um einen hard- und softwarebedingten Ausnahmefall handeln könnte.

fondness
2013-01-17, 17:48:54
AMD hat für bestimmte Spiele diverse Parameter im Treiber geändert:

"Basically the fix was different per application (for the DX9 applications) – each fix involved tweaking various driver parameters. In the case of Borderlands 2, yes it did involve tweaking the buffer size."

Das sind meinem Verständnis nach allgemeine Änderungen am Treiberverhalten bei bestimmten Applikationen, die auf jedem System greifen. Wie soll man mit sowas Probleme, die nur in "speziellen Konstellationen" vorkommen, beheben können? Wären die Lösungen in solch einem Fall nicht... spezialisierter?


Das hätten sie sofort getan, wenn es tatsächlich nur in enigen wenigen Spezialfällen auftreten würde - dann damit hätte sich die negative Berichterstattung minimieren lassen.

Tja, wenn ich mir die Videos ansehe und das mit dem Vergleiche was ich auf meinem Bildschirm sehe stimmt das nun mal nicht überein. So simple. Vielleicht tritt es ja einfach nur in speziellen Szenen auf wenn der Buffer voll ist oder was weiß ich.

Iruwen
2013-01-17, 18:26:55
Ich trau Techreports Testmethodik irgendwie eher als einer subjektiven Wahrnehmung. Da AMD das Problem auch erkannt hat ist das eigentlich nicht mehr diskussionswürdig.


Eindeutig sind damit die von techreport (http://techreport.com/review/24218/a-driver-update-to-reduce-radeon-frame-times/5) getesteten Spiele gemeint.

Also stehen die Chancen nicht schlecht, dass es sich tatsächlich um einen hard- und softwarebedingten Ausnahmefall handeln könnte.

Klingt eher so als hätten sie nur die getesteten Spiele gefixt. Muss man halt nochmal ein paar andere testen.

L233
2013-01-17, 18:33:45
Eindeutig sind damit die von techreport (http://techreport.com/review/24218/a-driver-update-to-reduce-radeon-frame-times/5) getesteten Spiele gemeint.

Also stehen die Chancen nicht schlecht, dass es sich tatsächlich um einen hard- und softwarebedingten Ausnahmefall handeln könnte.
Wie bitte? Ganze Spiele sind jetzt "softwarebedinge Ausnahmefälle" und "spezielle Konstellationen"?

Tja, wenn ich mir die Videos ansehe und das mit dem Vergleiche was ich auf meinem Bildschirm sehe stimmt das nun mal nicht überein. So simple. Vielleicht tritt es ja einfach nur in speziellen Szenen auf wenn der Buffer voll ist oder was weiß ich.
Deine subjektive Wahrnehmung ist komplett irrelevant. Interessanter wäre es gewesen, wenn Du nachgemessen hättest und dabei zu einem anderen Ergebnis als TR gekommen wärst...

Hübie
2013-01-17, 18:39:28
Am besten die Kamera schwenken oder sonst wie gleichmäßig bewegen und auf den Bildschirmrand achten, so merk ich Ruckler am deutlichsten.

So spielt aber niemand. Was ich eigentlich aussagen will ist dass es vielleicht auch einfach größer und schlimmer dargstellt wird als es am Ende ist. Borderlands 2 ist offensichtlich auch ein Extremfall.
Eine neue Architektur erfordert eben vielerlei Aufmerksamkeit.

Peter Gräber
2013-01-17, 18:51:57
Wo in den TR-Artikeln findet man eigentlich Infos zur verwendeten Teststation, den Treibern, den genutzten Grafikkarten (ggf. auch Firmware), sowie den Spielen und dort deren Versionsnummern?

Um Ähnlichkeiten oder Unterschiede abgleichen zu können, wäre das nicht uninteressant.

@Hübie: Wenn ich mir Stellen in Skyrim in freier Wildbahn nehme und schlicht in der Szene nur vor und dann wieder zurück maschiere (nichts anderes zeigt das Video), kann ich mich sehr wohl darauf konzentrieren, ob dort Ruckler vorliegen oder nicht. Auf die Art und Weise haben wir ja auch das Textureflimmern in verschiedenen Szenen gesucht.

Btw. Textur-Flimmern. Ich denke mal, dass dies ein gutes Beispiel dafür ist, was manche deutsche Redaktionen tun, wenn man auf ein Problem stößt. So lange bohren, bis das Problem schließlich behoben wird. Trifft man das Problem nicht an, bohrt man eben auch nicht mit Bitten um Beseitigung. Außerhalb von Deutschland hatte sich beispielsweise kaum jemand für dieses Problem interessiert, obwohl man es breit nachstellen konnte.

Das bedeutet nicht, dass ich die Arbeit von TR nicht schätzen würde, das bedeutet nur: ich kann nichts tun - Raff wohl auch nicht und damit jagen wir nicht tagelang einer Situation nach, die vielleicht doch ein solches Verhalten zeigt.

L233
2013-01-17, 18:52:18
So spielt aber niemand. Was ich eigentlich aussagen will ist dass es vielleicht auch einfach größer und schlimmer dargstellt wird als es am Ende ist. Borderlands 2 ist offensichtlich auch ein Extremfall.
Eine neue Architektur erfordert eben vielerlei Aufmerksamkeit.

Der Punkt ist doch gar nicht, ob es einer bestimmten Person auffällt oder nicht. Es geht vielmehr darum, dass die Summe der FPS über eine Sekunde hinweg als Metrik viel zu Grobkörnig ist, um eine wirklich realistische Aussage darüber zu treffen, wie flüssig ein Spiel auf einer Grafikkarte läuft. Und darum gehts doch, oder? Um ein flüssiges Spielerlebnis. FPS-Histogramme können das offenbar nicht leisten. Schnöde Balken schon gar nicht.

In GW2 z.B. kam beim Test mit Frame Times heraus, dass trotz leicht höherer FPS die Radeon deutlich weniger fllüssig läuft als auf der 660 Ti. Bei reiner FPS-Betrachtungsweise würde man als Hardware-Tester auf dieser Grundlage womöglich eine falsche Kaufempfehlung aussprechen. Wenn man sich als Tester natürlich als reiner Balken-Heini versteht, dann ist's einem wohl auch egal...

Hübie
2013-01-17, 19:10:46
Wo in den TR-Artikeln findet man eigentlich Infos zur verwendeten Teststation, den Treibern, den genutzten Grafikkarten (ggf. auch Firmware), sowie den Spielen und dort deren Versionsnummern?

Um Ähnlichkeiten oder Unterschiede abgleichen zu können, wäre das nicht uninteressant.

@Hübie: Wenn ich mir Stellen in Skyrim in freier Wildbahn nehme und schlicht in der Szene nur vor und dann wieder zurück maschiere (nichts anderes zeigt das Video), kann ich mich sehr wohl darauf konzentrieren, ob dort Ruckler vorliegen oder nicht. Auf die Art und Weise haben wir ja auch das Textureflimmern in verschiedenen Szenen gesucht.

Btw. Textur-Flimmern. Ich denke mal, dass dies ein gutes Beispiel dafür ist, was manche deutsche Redaktionen tun, wenn man auf ein Problem stößt. So lange bohren, bis das Problem schließlich behoben wird. Trifft man das Problem nicht an, bohrt man eben auch nicht mit Bitten um Beseitigung. Außerhalb von Deutschland hatte sich beispielsweise kaum jemand für dieses Problem interessiert, obwohl man es breit nachstellen konnte.

Das bedeutet nicht, dass ich die Arbeit von TR nicht schätzen würde, das bedeutet nur: ich kann nichts tun - Raff wohl auch nicht und damit jagen wir nicht tagelang einer Situation nach, die vielleicht doch ein solches Verhalten zeigt.

Ich sitze nicht neben dir um das zu beurteilen denn wie lang man vor und zurück läuft ist auch wieder so eine Sache. Techreport nutzte zwei Plattformen. Ist alles nachzulesen. Hier die Hardware (http://techreport.com/review/23981/radeon-hd-7950-vs-geforce-gtx-660-ti-revisited/2). Es wurde intern noch etwas herumprobiert (z.B. PCIe 2.0/3.0, SSD getauscht...) um vielleicht Ungereimtheiten herauszufiltern. Ihr nutzt ja auch ein S 2011-System mit dem X79. Also ist da schon mal kein Hund begraben.
Mit welchem Treiber hast du denn gezockt? Hast du Fraps drauf? Dann mach doch einfach mal wie ich vorschlug: Loszocken und mitten im game den hotkey für Benchmarking drücken. Egal welche Situation. Ich lasse den wahlweise 55 oder 110 Sekunden mitlaufen.
Im Gegensatz zum Texturflimmern handelt es sich hier um ein nicht allzu gravierendes Problem, sonst könnte man es nicht so schnell wieder fixen.

Der Punkt ist doch gar nicht, ob es einer bestimmten Person auffällt oder nicht. Es geht vielmehr darum, dass die Summe der FPS über eine Sekunde hinweg als Metrik viel zu Grobkörnig ist, um eine wirklich realistische Aussage darüber zu treffen, wie flüssig ein Spiel auf einer Grafikkarte läuft. Und darum gehts doch, oder? Um ein flüssiges Spielerlebnis. FPS-Histogramme können das offenbar nicht leisten. Schnöde Balken schon gar nicht.

In GW2 z.B. kam beim Test mit Frame Times heraus, dass trotz leicht höherer FPS die Radeon deutlich weniger fllüssig läuft als auf der 660 Ti. Bei reiner FPS-Betrachtungsweise würde man als Hardware-Tester auf dieser Grundlage womöglich eine falsche Kaufempfehlung aussprechen. Wenn man sich als Tester natürlich als reiner Balken-Heini versteht, dann ist's einem wohl auch egal...

Doch das ist der Punkt. Wenn der Endkunde es nicht bemerkt ists ihm Wurscht. Was meinst du wie hoch die Reklamationsquote wäre wenn jeder es überall (in jedem Spiel) bemerken würde?? Die Radeon 7970 kann nach wie vor empfohlen werden. Scott hat einfach einen Fehler aufgedeckt und dieser wird bereinigt. Fertig. Das Problem ist also gar nicht so groß. AMD krampft an anderen Ecken - weshalb die für mich nicht in Frage kommen.
Ich könnte meinen Bruder mal eben fragen ob der nicht GW2 messen kann. Ist vielleicht auch schon behoben? ;)

Übrigens sollte man auch nicht so genau auf FRAPS vertrauen. Mach wie vor ist das subjektive Empfinden beim Spielen ausschlaggebend für den "workflow" (gameflow?! ;D)

LG Hübie
ps: Die kochen alle nur mit Wasser und wollen alle nur euer "Bestes"...

aufkrawall
2013-01-17, 19:14:03
So spielt aber niemand.

So kann man aber gut einem Verdacht nachgehen.
Wenn man einmal wirklich drauf aufmerksam geworden ist und man es überprüft hat, merkt man es eh ständig. Ganz übler psychologischer Effekt.


Eine neue Architektur erfordert eben vielerlei Aufmerksamkeit.
Ich würd eher sagen, Treiber & Features erfordern diese allgemein. Wird leider viel zu wenig genau hingeguckt.

Hübie
2013-01-17, 19:32:49
Das nennt sich Suggestion. Wie im Film "Inception". Hat man einen Gedanken erst mal eingepflanzt ist es unmöglich diesen vollständig zu löschen. Ist wirklich so.
Natürlich bin ich immer dafür dass die Fahnen geschwungen werden wenn etwas nicht in Ordnung ist, denn schließlich zahlt man ja permanent fürs Hobby mit dem sauer verdienten Geld, jedoch sollte die Verhältnismäßigkeit nicht ausser Acht gelassen werden.
Bei der Armee lernt man: "Schieße nie mit Kanonen auf Spatzen!".

Und manch einer übertreibt es halt. Vor allem mit der Verwissenschaftlichung. Lags können im Computer durch viel mehr Dinge als nur der Grafikkarte entstehen. Da sitzen manche länger dran um das Problem nachzustellen und bemerken gar nicht dass es mittlerweile nicht mehr existent ist (bspw. nach dem Treiber-Update).

L233
2013-01-17, 19:32:56
Doch das ist der Punkt. Wenn der Endkunde es nicht bemerkt ists ihm Wurscht.
Der Kunde nimmt auf Grundlage der FPS-Tests einfach an, dass es so, wie es läuft, schon OK sein wird und es auf einer anderen Karte mit weniger FPS eben schlechter laufen würde. Dass er aber eigentlich ein flüssigeres Spielerlebnis haben sollte, kann er ohne direkten vergleich gar nicht wissen. Die Aufgabe von Hardware-Tests ist es doch, genau diese Informationen zu bieten, oder?

Wenn Die Testmethodik das nicht hergibt, dann ist der Test nichts weiter als unbrauchbares, irrelevantes Balkengewichse.

Die Radeon 7970 kann nach wie vor empfohlen werden. Scott hat einfach einen Fehler aufgedeckt und dieser wird bereinigt. Fertig.
Geh mal weg von dem spezifischen Produkt... es geht hier ums Prinzip. Mit Frame-Time-Testing kann der Tester in dem genannten Falle (quasi gleiche FPS, aber deutlich bessere Frame Time Verteilung bei einem der getesteten Produkte) eine Empfehlung aussprechen, die ein anderer Tester mit FPS-Histrogrammen oder Balken eben nicht aussprechen kann.

Übrigens sollte man auch nicht so genau auf FRAPS vertrauen. Mach wie vor ist das subjektive Empfinden beim Spielen ausschlaggebend für den "workflow" (gameflow?! ;D)
Subjektives Empfinden hat in Produkttests nichts zu suchen, weil sich das Empfinden von Person zu Person unterscheidet, ergo "subjektiv".

Als Entscheidungsgrundlage für meinen Kauf taugt das subjektive Empfinden einer anderen Person nicht. Und der Sinn von Tests ist es doch, eine Entscheidungsgrundlage für den Kauf zu sein.

aufkrawall
2013-01-17, 19:38:36
Das nennt sich Suggestion. Wie im Film "Inception". Hat man einen Gedanken erst mal eingepflanzt ist es unmöglich diesen vollständig zu löschen. Ist wirklich so.

Es mag so etwas geben, so meinte ich es aber nicht.
Man wird halt sensibler, gewisse Dinge fallen automatisch auf. Die bildet man sich nicht ein, sie fallen halt auf, weil sie da sind.
Dagegen hilft nur sie zu fixen. ;)

Da sitzen manche länger dran um das Problem nachzustellen und bemerken gar nicht dass es mittlerweile nicht mehr existent ist (bspw. nach dem Treiber-Update).
Gut, aber der Grafiktreiber spielt die zentrale Rolle.
Neben der Anwendung natürlich. Ist immer witzig zu sehen, wenn man meint, Opfer von AFR-Rucklern geworden zu sein, und dann ruckelt es mit Single-GPU reproduzierbar genau so mies...

Hübie
2013-01-17, 19:44:53
Der Kunde nimmt auf Grundlage der FPS-Tests einfach an, dass es so, wie es läuft, schon OK sein wird und es auf einer anderen Karte mit weniger FPS eben schlechter laufen würde. Dass er aber eigentlich ein flüssigeres Spielerlebnis haben sollte, kann er ohne direkten vergleich gar nicht wissen. Die Aufgabe von Hardware-Tests ist es doch, genau diese Informationen zu bieten, oder?

Touché.
Am Ende entscheidet aber immer noch der eigene Verstand welchen Test man liest, wem man glauben schenkt und was man wie analysiert. 95% der Menschen sind Lemminge und rennen auf Computerbase & Co herum wenn das neueste Stück Hardware veröffentlicht wird. Schaut euch mal deren Serverauslastung an wenn z.B. Kepler2 released wird.

Wenn Die Testmethodik das nicht hergibt, dann ist der Test nichts weiter als unbrauchbares, irrelevantes Balkengewichse.

Genau das wissen die meisten jedoch nicht. Nun frage ich dich: Warum weißt du es? ;) Interessensfrage.


Geh mal weg von dem spezifischen Produkt... es geht hier ums Prinzip. Mit Frame-Time-Testing kann der Tester in dem genannten Falle (quasi gleiche FPS, aber deutlich bessere Frame Time Verteilung bei einem der getesteten Produkte) eine Empfehlung aussprechen, die ein anderer Tester mit FPS-Histrogrammen oder Balken eben nicht aussprechen kann.

Korrekt.


Subjektives Empfinden hat in Produkttests nichts zu suchen, weil sich das Empfinden von Person zu Person unterscheidet, ergo "subjektiv".

Doch. Wenn der Redakteur es entsprechend deutlich herausstellt. Das passiert sogar ständig. Es gibt Menschen die kaufen ein Stück Hardware nicht wegen Unstimmigkeiten in der Farbgebung :freak: Wie oft hast du so was schon gelesen: "Wem das Design zusagt..."? ;)

Als Entscheidungsgrundlage für meinen Kauf taugt das subjektive Empfinden einer anderen Person nicht. Und der Sinn von Tests ist es doch, eine Entscheidungsgrundlage für den Kauf zu sein.

Falsch. Wenn du weißt du bist Audiophil und der Tester schreibt dies ebenfalls vertraust du wesentlich mehr auf diese Aussage als irgendwelchen dB(A)-Werten. Wenn ich (als Tester) in einem Test schreibe dass mir die Frame-Verteilung unregelmäßig vorkommt und ich einen Nachtest ausarbeite wartest du garantiert bis ich diesen Nachtest fertig habe. Denn du weißt ja wie "empfindlich" du bist. :freak:

MadManniMan
2013-01-17, 19:58:13
Und manch einer übertreibt es halt. Vor allem mit der Verwissenschaftlichung. Lags können im Computer durch viel mehr Dinge als nur der Grafikkarte entstehen. Da sitzen manche länger dran um das Problem nachzustellen und bemerken gar nicht dass es mittlerweile nicht mehr existent ist (bspw. nach dem Treiber-Update).

Das ist dann aber falsch verstandene Wissenschaft -- richtige würde eben gerade die Scheuklappen ablegen.

Ätznatron
2013-01-17, 19:59:18
Mein Fazit bis jetzt:

Hat das vermeintliche Problem jemand nachstellen können?

Außer dem "Erfinder" Techreport?

Nein? Tatsächlich niemand?

Ergo, um es mit Shakespeare zu sagen: "Much Ado about Nothing".

Hübie
2013-01-17, 19:59:49
Wissenschaft soll neue Erkenntnisse liefern (schafft neues Wissen). Wenn die Erkenntnisse bereits da sind, es begründet werden kann und dennoch weiter getestet wird ist es.... na ja was denkst du? ;)

@Ätznatron: Troll dich!

Ätznatron
2013-01-17, 20:06:07
Wissenschaft soll neue Erkenntnisse liefern (schafft neues Wissen). Wenn die Erkenntnisse bereits da sind, es begründet werden kann und dennoch weiter getestet wird ist es.... na ja was denkst du? ;)

@Ätznatron: Troll dich!

Ah, Diskussionskultur à la Hübie. Sehr aufschlussreich...

Schaffe89
2013-01-17, 20:17:33
Wenn wirklich ein Problem bestünde, also dass es stellenweise wirklich erkennbar µruckelt, hätte das sicher schon jemand mal nachstellen können, oder darüber berichten können.

Es wäre aber schön, wenn in Zukunft mehr solcher Frametime Vergleiche mit in den Tests dabei sein würden.
Ich bin mal gespannt, ob ich Unterschiede der GTX 670 zur HD 7970 messe.

L233
2013-01-17, 20:20:02
Touché.
Am Ende entscheidet aber immer noch der eigene Verstand welchen Test man liest, wem man glauben schenkt und was man wie analysiert.
Wenn man harten Fakten bekommt, braucht man niemandem "Glauben schenken".

Doch. Wenn der Redakteur es entsprechend deutlich herausstellt. Das passiert sogar ständig. Es gibt Menschen die kaufen ein Stück Hardware nicht wegen Unstimmigkeiten in der Farbgebung :freak: Wie oft hast du so was schon gelesen: "Wem das Design zusagt..."? ;)
Beim Design ist aber nicht der subjektive Eindruck des Testers maßgeblich, sondern der subjektive Geschmack des Käufers. Als Testkriterium ist das ungeeignet. Das mag noch bei Merkmalen angehen, die sich gar nicht objektiv quantifizieren lassen (z.B. "Spielspaß"), aber nicht bei Merkmalen, bei denen man objektiv nachmessen kann, um auf dieser Grundlage eine verbindliche Aussagen treffen zu können.

Falsch. Wenn du weißt du bist Audiophil und der Tester schreibt dies ebenfalls vertraust du wesentlich mehr auf diese Aussage als irgendwelchen dB(A)-Werten. Wenn ich (als Tester) in einem Test schreibe dass mir die Frame-Verteilung unregelmäßig vorkommt und ich einen Nachtest ausarbeite wartest du garantiert bis ich diesen Nachtest fertig habe. Denn du weißt ja wie "empfindlich" du bist. :freak:
Interessant, ich hatte nämlich einen Moment lang erwogen, Audio(phile) Tests von HiFi-Hardware als typisches Beispiel für wertlosen, subjektiven Bullshit anzuführen. Da bekommt man meist ein subjektives Geschwurbel ohne Aussagewert serviert, bei dem jeder denkende Mensch doch genau weiss, dass die Erwartungshaltung des Testers eher für das Gehörte verantwortlich ist, als die realen Frequenzgänge...

Gerade bei Tests von Audio-Equipment ist diese ewige Subjektiv-Geschwurbel doch eine absolute Seuche. Die perfekte Audio-Hardware ist die, die komplett transparent ist und sowas kann man messen. Wer euphonische Verzerrungen will, soll sich einen Equalizer kaufen, aber mir nicht erzählen, dass irgend eine Röhrendreck "besser" klingt, wenn er einfach nur "falscher" klingt.

Und um wieder die Brücke zurück zum Grafikkarten-Test zu schlagen... Wir haben die Wahl zwischen:

"Die Frame-Time-Analyse ergibt, dass Produkt B flüssigere Grafik produziert als Produkt A"
vs.
"Meinem subjektiven Gefühl nach (welches durch das Studium der gleich langen FPS-Balken gefärbt wurde) sind beide Produkte gleichwertig"

Ich ziehe die objektive Methode eindeutig vor....

Hübie
2013-01-17, 20:27:56
Tombman (möge er in Frieden ruhen) kam auch durch ein subjektives Empfinden auf die µR-Problematik. Scott Wasson stolperte auch durch subjektives Empfinden auf eine neue Methodik zum Testen und nannte den Artikel "inside a second".
Sicher entscheidet man nicht weil ein Tester subjektives Empfinden darstellt und bunt malt, aber die Empathie springt an und man überlegt noch mal und entscheiden vielleicht anders als ohne. Messen kannst du alles was du willst, nur aufnehmen kannst du nicht was du willst, sondern was die Natur dir gegeben hat.

Mit Fakten schaffst du eine Basis aber keinen Markt. ;)

L233
2013-01-17, 20:38:52
Tombman (möge er in Frieden ruhen) kam auch durch ein subjektives Empfinden auf die µR-Problematik. Scott Wasson stolperte auch durch subjektives Empfinden auf eine neue Methodik zum Testen und nannte den Artikel "inside a second".
Und beide Personen haben sich nicht subjektiv einen Abgeschwurbelt, sondern sich hingesetzt, Messungen betrieben und das ganze mit Zahlen und Fakten nachgewiesen. Darum gehts.

Natürlich können subjektive Wahrnehmungen der Realität entsprechen... oftmals tun sie es aber nicht und genau hier liegt das Problem. Unserer Wahrnehmung können wir nämlich _nicht_ vertrauen, die wird sehr stark durch psychologische Faktoren beeinflusst. Deswegen brauchen wir Messungen, um brauchbare, allgemein gültige Aussagen treffen zu können.

Das sollte man nicht einfach so, wie Du es getan hast, abfällig als "Verwissenschaftlichung" abtun.

Hübie
2013-01-17, 20:41:03
Nein, aber das bestätigt ja dass es nicht alle empfinden und Subjektivität belegt, oder besser gesagt untermauert, werden kann.

MadManniMan
2013-01-17, 20:45:29
Wissenschaft soll neue Erkenntnisse liefern (schafft neues Wissen). Wenn die Erkenntnisse bereits da sind, es begründet werden kann und dennoch weiter getestet wird ist es.... na ja was denkst du? ;)

Du betreibst Wortklauberei. Mir geht es um die wissenschaftliche Methodik und die würde gebieten, dass sich erstmal alle Fachmagazine ans Falsifizieren machen. Passiert aber nicht -- was sich TR eventuell selbst anlasten muss, wenn tatsächlich die eigene Methode nicht komplett offengelegt wurde, wie weiter oben behauptet, aber das habe ich jetzt nicht recherchiert.

L233
2013-01-17, 20:46:27
Nein, aber das bestätigt ja dass es nicht alle empfinden und Subjektivität belegt, oder besser gesagt untermauert, werden kann.
Ähm, kann ich Dich daran erinnern, dass eigentlich der Ausgangspunkt hier war, dass jemand behauptet hat, er können subjektiv nicht wahrnehmen, was objektiv mit Fakten bereits nachgewiesen wurde?

Hübie
2013-01-17, 21:06:14
Wir kennen zu wenig Faktoren um auf so einer Aussage herum zu hacken.

@Manni: So etwas können nur driverengineers falsifizieren. Du kommst da gar nicht ran. Schon gar nicht ohne Schnittstelle. Wir können froh sein dass es sowas wie die NVAPI gibt.

MadManniMan
2013-01-17, 21:10:46
Wir kennen zu wenig Faktoren um auf so einer Aussage herum zu hacken.

@Manni: So etwas können nur driverengineers falsifizieren. Du kommst da gar nicht ran. Schon gar nicht ohne Schnittstelle. Wir können froh sein dass es sowas wie die NVAPI gibt.

Ich rede von den Beobachtungen. Dafür braucht es 1) eine genaue Anleitung zum Reproduzieren des Testszenarios und 2) ebensolche Leute, die sich dieser annehmen.

Hübie
2013-01-17, 21:18:44
Falsifizieren bedeutet aber eine Behauptung mit Gegenbeweisen zu wiederlegen, oder irre ich? Übrigens kenne ich das Wort "Wortklauberei" nicht :redface:

MadManniMan
2013-01-17, 23:56:00
Falsifizieren bedeutet aber eine Behauptung mit Gegenbeweisen zu wiederlegen, oder irre ich?

Man kann ja nicht die Wahrheit von etwas beweisen (außer in der Mathematik), aber der Grundsatz ist eben: entwickle eine These und ersuche diese zu ergründen. Dafür baust Du ein Experiment und sagst "Hier, guckt, mein Versuchsaufbau hat folgenden Kram ergeben!" -- dann gehen andere hin und prüfen das nach, verändern unter Umständen den Aufbau, weil sie ihn damit verbessern oder detaillierter machen oder beleuchten die Sache von einer anderen Seite und sagen dann "Jau, kann ich bestätigen!" oder eben "Nee, is hier nich so!" und je nach dem geht es eben weiter :)


Übrigens kenne ich das Wort "Wortklauberei" nicht :redface:

Das ist ein etwas abwertender Begriff für die wörtliche Auslegung von Begriffen, womit ich Deine Beschreibung der Wissenschaft meinte.

Gipsel
2013-01-20, 22:52:33
Hier uebrigens mal ein weiterer Beitrag zur Faktensuche am Beispiel von Skyrim (http://benchmark3d.com/microstutter-case-study-skyrim-diving-deeper). Bisher habe ich das nur ueberflogen, aber das viel mir dann doch auf:

Normal auf QuadCore:
http://benchmark3d.com/wp-content/uploads/2013/01/present-flip-skyrim-4-cores.jpg

Eingeschraenkt auf einen Kern:
http://benchmark3d.com/wp-content/uploads/2013/01/present-flip-skyrim-1-core.jpg

Gruen sind die Present-Calls, die Fraps misst, rot die eigentlichen Buffer-Flips, wie sie GPUView vom Windows Performance Toolkit ausspuckt. Wie man sieht, ergibt sich zum einen ein deutlicher Unterschied zwischen normalen Betrieb auf einem Quadcore und dem Fall, dass man das Spiel auf einen Kern festpinnt (Microstuttering ist komplett weg). Und zum anderen scheint sich auch zu zeigen, dass selbst wenn die Present-Calls, die FRAPS misst, offenbar ungleichmaessig verteilt sind, die Bufferflips aber trotzdem mit gleichmaessiger Rate erfolgen. Ist zwar eine 6900er GPU und er hat Unterschiede zwischen alten und neuen Treiberversionen gesehen, aber irgendwas scheint auch die Skyrim-Engine selber komisch zu machen.

PS:
Insgesamt kommt mir diese 10ms Granularitaet ziemlich verdaechtig vor. Man kann die Granularitaet des Thread-Schedulings von Windows naemlich von den standardmaessigen 10ms auf 1ms runterstellen (was man bei zeitkritischen Sachen auf jeden Fall tun sollte). Dies beeinflusst durchaus die Wartezeiten bei der Synchronisation von Threads, wenn man kein busy-waiting machen will.

Iruwen
2013-01-21, 13:23:53
Sieht man das gleiche denn mit einer Nvidia Karte?

StefanV
2013-01-21, 15:35:17
@Gipsel

Also irgendwie wird das ganze vom Windows Scheduler verbockt bzw irgendwer hat vergessen, den Counter auf 1ms zu stellen? That's all??


@Rest
Also grundsätzlich fällt schon auf, dass bisher nur einer so einen Wind macht. Und so lange das nicht von einem zweiten, dritten und vierten verifiziert wurde, würde ich da gar nichts zu sagen. Was ist, wenns am Ende an dem System lag? Was ist, wenn irgendein Treiber, eine Einstellung im BIOS oder ähnliches der Übeltäter ist?

Also um das auszuschließen, sollte das noch von jemand anderem verifiziert werden, bevor wir uns hier weiter die Köppe einschlagen...

Gipsel
2013-01-21, 17:16:53
Also irgendwie wird das ganze vom Windows Scheduler verbockt bzw irgendwer hat vergessen, den Counter auf 1ms zu stellen? That's all??Es ist vermutlich nicht alles, könnte aber je nach Spiel durchaus einen Einfluß haben. Die 1ms-Granularität soll man übrigens eigentlich nicht verwenden (zumindest nicht dauerhaft), weil es allgemein gesehen etwas ineffizienter ist und Stromsparmechanismen beeinträchtigen kann. Während eines Spiels, dürfte das aber meiner Meinung zu vernachlässigen sein (sprich, das kann ein Treiber bei Bedarf durchaus für ein anfälliges Spiel per Profil aktivieren).

samm
2013-01-22, 21:01:07
Die Diagramme sehen ja spannend aus und erwecken den Eindruck einer bescheidenen Engine, wie es auch der Text dazu suggeriert, oder ist es wirklich der Treiber, der rumspuckt? Kann man das überhaupt feststellen an solchen Diagrammen?
Und ausserdem: Wenn die Bufferflips regelmässig stattfinden, müssten nicht die am Bildschirm sichtbaren Bilder mikroruckelfrei sein? Die Techreport-Videos zeigen aber Ruckeln am Bildschirm.

Blediator16
2013-02-03, 20:40:41
http://alienbabeltech.com/abt/viewtopic.php?f=6&t=27699&view=unread#p81461

Skandal ;)
Jemand eine Ausrede? VRAM? :P

Gipsel
2013-02-03, 21:22:57
http://alienbabeltech.com/abt/viewtopic.php?f=6&t=27699&view=unread#p81461

Skandal ;)
Jemand eine Ausrede? VRAM? :P
Crappy Engine! :rolleyes:

StefanV
2013-02-03, 21:39:55
Crappy Engine! :rolleyes:
Naa, das muss am Treiber liegen, weil ist halt so.
Spass bei Seite....

Wenn man jetzt gemein wär, könnte man Techreport doch Trollen/Bashen unterstellen, oder?

dildo4u
2013-02-03, 21:43:49
Naa, das muss am Treiber liegen, weil ist halt so.
Spass bei Seite....

Wenn man jetzt gemein wär, könnte man Techreport doch Trollen/Bashen unterstellen, oder?
Wayne wenn es dazu geführt hat das sie ihren Treiber fixen.Bis auf ein paar verletze Gefühle bestimmter Fanboy's ist daraus nur Positives entstanden.

boxleitnerb
2013-02-03, 21:48:47
Was ist daran Trollen/Bashen, Unstimmigkeiten aufzuzeigen und Ergebnisse zu präsentieren? Nur ein Fanboy würde sowas behaupten. Kritischer Journalismus ist immer gut, da ist es doch scheißegal ob rot, grün oder sonstwie. Manche Reaktionen hier sind echt bezeichnend, und das ist sehr schade. Denn wie dildo4u richtig sagt - es ist zu unser aller Besten, wenn solche Sachen aufgedeckt und gefixt werden. Wer das nicht sieht, dem ist nicht zu helfen.

Knuddelbearli
2013-02-03, 22:09:47
sagt der der immer sagt das es nicht sein kann das NV auch davon betroffen ist ...

boxleitnerb
2013-02-03, 22:11:28
Erzähl doch keinen Unsinn, das hab ich nie so gesagt. Echt schade, dass so viele Leute einfach nicht bei der Wahrheit bleiben können.

Hübie
2013-02-04, 02:34:59
Crappy Engine! :rolleyes:

Ack. Und ohne Angaben zu System etc. ist das wertlos. Allein der switch von PCIe 2.0 zu 3.0 kann bei VRAM Überlauf schon gravierende Unterschiede ausmachen.

aufkrawall
2013-02-04, 11:38:03
Der SP von BF3 ruckelt bei mir auch, komischerweise aber selbst mit fps-Limiter.
Also vielleicht doch crappyige Engine? :D
Im MP hats bisher auf keiner Map geruckelt.

M4xw0lf
2013-02-04, 11:44:00
Witzisch. Macht die Engine denn unterschiedliche Dinge im MP und im SP? :confused:

aufkrawall
2013-02-04, 11:48:40
Witzisch. Macht die Engine denn unterschiedliche Dinge im MP und im SP? :confused:
Vielleicht geht durchs Scripting und Nachladen irgendwas schief ("Nachladeruckler"), Treiberbug ist natürlich nicht ausgeschlossen. Vielleicht muss der Treiber aber auch was geradebügeln, was die Engine verkackt.

SP (Operation Swordbreaker, Vsync):
http://www.abload.de/thumb/spzcuua.png (http://www.abload.de/image.php?img=spzcuua.png)

MP:
Kharg:
http://www.abload.de/thumb/kharg8wu36.png (http://www.abload.de/image.php?img=kharg8wu36.png)

Firestorm:
http://www.abload.de/thumb/firestormhiuk1.png (http://www.abload.de/image.php?img=firestormhiuk1.png)

Edit: Ist AFR.

Iruwen
2013-02-04, 11:52:26
Welcher Treiber war das? Bei BF3 gbt es haufenweise Beschwerden dass es seit dem 306.97 nicht mehr "rund" läuft. Wäre mal interessant 306.97, 310.70 und 313.96 zu vergleichen.

aufkrawall
2013-02-04, 11:53:06
War der 313.96 mit Smooth AFR. Ich benche mal Single-GPU ohne & mit Vsync.

fondness
2013-02-04, 11:53:43
Ack. Und ohne Angaben zu System etc. ist das wertlos. Allein der switch von PCIe 2.0 zu 3.0 kann bei VRAM Überlauf schon gravierende Unterschiede ausmachen.

Wie war das noch mit dem Kleinreden? ;)
Wäre schon seltsam wenn der VRAM-Überlauf nur bei der geringeren Auflösung auftritt^^

M4xw0lf
2013-02-04, 11:58:04
Vielleicht geht durchs Scripting und Nachladen irgendwas schief ("Nachladeruckler"), Treiberbug ist natürlich nicht ausgeschlossen. Vielleicht muss der Treiber aber auch was geradebügeln, was die Engine verkackt.

SP (Operation Swordbreaker, Vsync):
http://www.abload.de/thumb/spzcuua.png (http://www.abload.de/image.php?img=spzcuua.png)

MP:
Kharg:
http://www.abload.de/thumb/kharg8wu36.png (http://www.abload.de/image.php?img=kharg8wu36.png)

Firestorm:
http://www.abload.de/thumb/firestormhiuk1.png (http://www.abload.de/image.php?img=firestormhiuk1.png)

Edit: Ist AFR.

Skriptszenen im SP wären natürlich eine einleuchtende Erklärung.

aufkrawall
2013-02-04, 12:11:43
GTX 670 OC sGPU
Firestorm, Vsync aus:
http://www.abload.de/thumb/firestormovskmjq3.png (http://www.abload.de/image.php?img=firestormovskmjq3.png)

Caspian Border, Vsync an:
http://www.abload.de/thumb/caspvsyncdbk2m.png (http://www.abload.de/image.php?img=caspvsyncdbk2m.png)

Im grünen Bereich.

Hübie
2013-02-04, 12:27:34
Also eine mögliche Erklärung könnte vielleicht ein massiveres Texturestreaming im SP sein während im MP mehr Texturepreload verwendet wird. Das könnte man ja mal prüfen.
Ich stelle beim fps-Limiter immer wieder fest das es manchmal zu Ausbrüchen nach oben kommt, wenn geladen wird (also auch Background, nicht nur im Ladebildschirm).

Blaire
2013-02-04, 17:08:05
Welcher Treiber war das? Bei BF3 gbt es haufenweise Beschwerden dass es seit dem 306.97 nicht mehr "rund" läuft. Wäre mal interessant 306.97, 310.70 und 313.96 zu vergleichen.

Kann ich mich nicht dran erinnern, einzig die 310.xx hatten ein paar Probleme mit SLI, ansonsten lief BF3 von Anfang an optimal. Manche Leute verwechseln vieleicht Serverlags oder andere Einflüsse und meinen dann , es läge am Treiber.

Iruwen
2013-02-04, 17:52:20
Das Stuttering in BF3 ist mit neueren Treibern immer präsent, dass das nicht jeder merkt lässt ja schon was erahnen, deshalb würde mich ein direkter Vergleich mal interessieren - ich hab selbst nur keine Lust :p Manuel hat im Guru mal gesagt da wird noch dran gedreht.

aufkrawall
2013-02-04, 18:00:27
Mit fps-Limiter oder AFR-Vsync hab ich im Multiplayer definitiv kein Stuttering. Die Messungen bestätigen meinen Eindruck. ;)
Diese verinzelten Ausschläge in den Graphen bei den Frametimes gehen auf gewisse Umstände zurück, etwa das crappige Spawnmenü (wo die Framerate auch nicht immer konstant ist) oder sprunghafter Leistungsanstieg (etwa Rauchwolken). Völlig normal.

Blaire
2013-02-04, 18:43:15
Das Stuttering in BF3 ist mit neueren Treibern immer präsent, dass das nicht jeder merkt lässt ja schon was erahnen, deshalb würde mich ein direkter Vergleich mal interessieren - ich hab selbst nur keine Lust :p Manuel hat im Guru mal gesagt da wird noch dran gedreht.

Ich hab genug Frametimes die letzten Monate über aufgezeichnet, auch auf leeren Server verglichen (zwecks Reproduzierbarkeit) und keine Auffälligkeiten entdeckt.
Die aktuellen R313.95 sind die ersten Treiber, welche wieder deutliche Performance-Improvements mitbrachten. Siehe auch:
https://forums.geforce.com/default/topic/528426/geforce-drivers/new-drivers-313-95-are-fantastic-for-sli-and-multi-screens/

Knuddelbearli
2013-02-04, 20:49:40
tja da hat NV wohl auf kosten der stabilität der FPS die gesamt FPS erhöht :-/

aufkrawall
2013-02-04, 20:58:17
Nö?
Mit dem letzten Betatreiber, der die Frametimes verbessert hat, gab es noch weitere Performanceverbesserungen.

Edit: Es geht übrigens um SLI...

Guru meditation
2013-02-05, 23:22:16
Ich nutze ja zwei GTX 670 in SLI. Bei Skyrim kann ich bestätigen, das der 306.97 Treiber viel runder läuft als mit dem 370.70. Die 313er Treiber hab ich noch nicht probiert, weils noch nicht nötig war. Mit dem 306.97 bin ich Moment aber top zufrieden. Skyrim läuft damit super-smooth ohne Shuttering. Meine Aussage gilt aber nur für SLI.

dildo4u
2013-02-16, 12:31:40
CB: 17 Grafikkarten im Vergleich Neue Framelatenz-Diagramme

Treiber Catalyst 13.2 Beta4 Nvidia GeForce 313.96

http://www.computerbase.de/artikel/grafikkarten/2013/test-17-grafikkarten-im-vergleich/7/

Ronny145
2013-02-16, 13:00:11
Oha in fast jedem Spiel höhere Latenzen.

Der_Korken
2013-02-16, 13:00:28
Oha, das sieht aber stellenweise ganz düster aus für AMD. FarCry und Hitman laufen mit einer AMD-Karte quasi wie ein Multi-GPU System. Die letzten Releases sollten das ja eigentlich verbessert haben, aber da scheint noch einiges im Argen zu liegen. Schade dass CB kein Skyrim getestet hat, da der Titel bei den Verbesserungen explizit von AMD aufgelistet wurde.

Lowkey
2013-02-16, 13:02:12
Wenn das so stimmt, dann ist eine AMD Karte leicht im Nachteil:

http://www.computerbase.de/artikel/grafikkarten/2013/test-17-grafikkarten-im-vergleich/7/


Wenn ich mich nicht täusche, dann braucht Skyrim mit HD Mods keine 3 Gbyte Arbeitsspeicher, denn teils ist sogar die 2 Gbyte Karte vorne. Ich finde es schon interessant, dass auch 5.760 × 1.080 gestestet wurde.

aufkrawall
2013-02-16, 13:20:59
Interessant, dass die 680 bei 16x16 CSRT jetzt in etwa genau so schnell wie die Ghz-E. ist.
Da dürfte das Perf/W-Verhältnis über 30% schlechter bei letzterer sein.

fondness
2013-02-16, 13:25:46
Interessant, dass die 680 bei 16x16 CSRT jetzt in etwa genau so schnell wie die Ghz-E. ist.
Da dürfte das Perf/W-Verhältnis über 30% schlechter bei letzterer sein.

Rosinen picken ist ja nett, aber im Schnitt über die ganzen GPGPU-Benchmarks liegt die 7970 wohl deutlich über 50% vor der GTX680. ;)
Zumal du gar nicht weißt wie viel Strom eine 7970 in dem konkreten Benchmark benötigt. Immer einfach den Maximalverbrauch her zu nehmen ist dafür äußerst ungeeignet.

TobiWahnKenobi
2013-02-16, 13:35:38
schön dass CB das mal in artikel und diagramme gießt. ich habe das ganze letzte jahr davon gesprochen, dass sich das subjektive spielempfinden zwischen kepler und tahiti unterscheidet.

jetzt brauche ich mich wenigstens nicht mehr mit leuten über subjektiveindrücke rumschlagen, die sich selbst in die tasche lügen. *bookmarken*


(..)

mfg
tobi

aufkrawall
2013-02-16, 13:47:46
Rosinen picken ist ja nett, aber im Schnitt über die ganzen GPGPU-Benchmarks liegt die 7970 wohl deutlich über 50% vor der GTX680. ;)

Ich glaub RT ist interessanter als Fluide, die auch mit der zehnfachen Rechenleistung immer noch unrealistisch aussehen, zumindest was Wasser angeht.
Außerdem heißt es ja, dass Compute allgemein eine Stärke Tahitis sei, wobei dieser Benchmark offenbar eine Ausnahme darstellt, und das ausgerechnet mit Raytracing.


Zumal du gar nicht weißt wie viel Strom eine 7970 in dem konkreten Benchmark benötigt. Immer einfach den Maximalverbrauch her zu nehmen ist dafür äußerst ungeeignet.
Tja, würde AMD vernünftige Sensoren verbauen, die einem einen den Stromverbrauch in % zum TDP anzeigen, wüssten wir mehr.
Ich hab aber von GK104 darauf geschlossen, meine 670 OC ist hier bei 70°C bei 97% PT, also wohl was um die 180W rum.
Der 16x16 heizt hier vergleichsweise viel, Spiele verbraten meist weniger Strom.
Bei Tahiti XT wird die GPU-Load auch bei +95% liegen und ich gehe jede Wette ein, dass das der Energieverbrauch dementsprechend hoch sein wird.

fondness
2013-02-16, 14:34:06
Ich glaub RT ist interessanter als Fluide, die auch mit der zehnfachen Rechenleistung immer noch unrealistisch aussehen, zumindest was Wasser angeht.
Außerdem heißt es ja, dass Compute allgemein eine Stärke Tahitis sei, wobei dieser Benchmark offenbar eine Ausnahme darstellt, und das ausgerechnet mit Raytracing.

Warum glaubst du das RT interessanter ist?
Wenn ich mich nicht irre ist das genau der Benchmark wo NV mit einer Treiberoptimierung deutlich Leistung heraus holen konnte, vorher lag man AFAIK weit abgeschlagen zurück.


Tja, würde AMD vernünftige Sensoren verbauen, die einem einen den Stromverbrauch in % zum TDP anzeigen, wüssten wir mehr.
Ich hab aber von GK104 darauf geschlossen, meine 670 OC ist hier bei 70°C bei 97% PT, also wohl was um die 180W rum.
Der 16x16 heizt hier vergleichsweise viel, Spiele verbraten meist weniger Strom.
Bei Tahiti XT wird die GPU-Load auch bei +95% liegen und ich gehe jede Wette ein, dass das der Energieverbrauch dementsprechend hoch sein wird.

Ich wette dagegen, wenn die Einheiten eben so stark ausgelastet werden wie bei GK104 wäre die Leistung höher.

schön dass CB das mal in artikel und diagramme gießt. ich habe das ganze letzte jahr davon gesprochen, dass sich das subjektive spielempfinden zwischen kepler und tahiti unterscheidet.

jetzt brauche ich mich wenigstens nicht mehr mit leuten über subjektiveindrücke rumschlagen, die sich selbst in die tasche lügen. *bookmarken*


(..)

mfg
tobi

Die Werte sind nichts neues, der neu angekündigte Memory-Manager ist im aktuellen Treiber noch nicht integriert. Probleme gibt es dort allerdings nur in 2 von 9 Spielen.

aufkrawall
2013-02-16, 14:53:40
Warum glaubst du das RT interessanter ist?

Weil es vermutlich eine immer stärkere Rolle spielen wird (UE4)?


Wenn ich mich nicht irre ist das genau der Benchmark wo NV mit einer Treiberoptimierung deutlich Leistung heraus holen konnte, vorher lag man AFAIK weit abgeschlagen zurück.

Das war ja nur bei der 16x16 von wegen zu kleiner Register so.
Vielleicht ein Bug, wer weiß.


Ich wette dagegen, wenn die Einheiten eben so stark ausgelastet werden wie bei GK104 wäre die Leistung höher.

Mit alten Treibern hat afair es auf GK104, obwohl die fps nur die Hälfte waren, auch ordentlich Strom verbraten. Von den fps auf den Stromverbrauch zu schließen ist nicht hilfreich, bei SC2 mit AA verbraten die Radeons trotz unterirdischer Performance auch ne Menge.

fondness
2013-02-16, 15:13:35
Das war ja nur bei der 16x16 von wegen zu kleiner Register so.
Vielleicht ein Bug, wer weiß.

Vielleicht auch einen geschickte Optimierung mit der man den Code deutlich effizienter gestalten kann. Jedenfalls hat NV auf den Bench optimiert.


Mit alten Treibern hat afair es auf GK104, obwohl die fps nur die Hälfte waren, auch ordentlich Strom verbraten. Von den fps auf den Stromverbrauch zu schließen ist nicht hilfreich, bei SC2 mit AA verbraten die Radeons trotz unterirdischer Performance auch ne Menge.

In SC2 verbraucht eine 7970 deutlich weniger Strom als eine GTX680:
http://www.pcgameshardware.de/Grafikkarten-Hardware-97980/Tests/Test-Geforce-GTX-680-Kepler-GK104-873907/19/

Klar kann man das nicht pauschalisieren, aber von einer NV auf eine AMD-Karte zu schließen ist mindestens ebenso waghalsig. ;)

aufkrawall
2013-02-16, 15:19:50
In SC2 verbraucht eine 7970 deutlich weniger Strom als eine GTX680:
http://www.pcgameshardware.de/Grafikkarten-Hardware-97980/Tests/Test-Geforce-GTX-680-Kepler-GK104-873907/19/

Klar kann man das nicht pauschalisieren, aber von einer NV auf eine AMD-Karte zu schließen ist mindestens ebenso waghalsig. ;)
Tatsächlich, hatte das anders in Erinnerung.

Trotzdem: Tahiti performt bei den Bench nicht wie es sollte.
Kann ja irgendwie auch kein Argument sein, dass da "Optimierung" fehle. Die fehlt offenbar ständig.

Hast du einen Nachweis, dass NV auf den Bench hin optimiert hat?

HarryHirsch
2013-02-16, 15:22:53
Tatsächlich, hatte das anders in Erinnerung.

Trotzdem: Tahiti performt bei den Bench nicht wie es sollte.
Kann ja irgendwie auch kein Argument sein, dass da "Optimierung" fehle. Die fehlt offenbar ständig.

Hast du einen Nachweis, dass NV auf den Bench hin optimiert hat?

ich hab einen:

Interessant, dass die 680 bei 16x16 CSRT jetzt in etwa genau so schnell wie die Ghz-E. ist.
Da dürfte das Perf/W-Verhältnis über 30% schlechter bei letzterer sein.

aufkrawall
2013-02-16, 15:23:54
"Jetzt" ist relativ, das ist schon seit der 310 Branch gefixt.
Außerdem muss man es im Vergleich zu Tahitis Rechenleistung sehen.

dildo4u
2013-02-16, 15:25:37
Vermutlich wurde es wegen Titan gefixt und das wirkt sich Positiv auf alle Keplers aus.Titan soll ja auch alle Compute Benches gewinnen.

Lowkey
2013-02-16, 15:52:47
Bei den Frametimes werde ich glatt zum Nvidia Fanboy.

Knuddelbearli
2013-02-16, 16:15:19
wobei man die wohl nicht überbewerten sollte

Jedoch lässt sich nicht generell sagen, dass die aufgezeigten Schwächen bei den Framelatenzen immer spürbar sind und das Spielgeschehen somit negativ beeinflussen. So können wir das sich anhand des Framelatenzdiagramms ergebende Bild in Far Cry 3 zum Beispiel nicht bestätigen – die Radeon HD 7970 GHz Edition ist nicht spürbar schlechter als die GeForce GTX 680.

und gerade krawall ist ja ein fan von subjektiven eindrücken ;-) ^^

TobiWahnKenobi
2013-02-16, 16:18:44
aus endnutzersicht wohl auch verständlich. wer gibt schon gern unsummen für spielzeug aus, wenn es hinterher nicht den gewünschten effekt bringt.. !?

ich stelle seit jeher spielgefühl über maxframes.


(..)

mfg
tobi

aufkrawall
2013-02-16, 16:21:00
FC3 läuft eh mies, da machen die paar Mikroruckler womöglich gar keinen Unterschied. ;)

Jedenfalls gibts bei allen bei CB gebenchten Spielen mit AMD mehr Ausschläge nach oben als mit Nvidia.

Blaire
2013-02-16, 16:23:15
Oha in fast jedem Spiel höhere Latenzen.

In 3 von 6 Games spürbar schlechter, das ist schon ein starkes Stück... Schon traurig das sie das immer noch nicht gefixt haben, dabei ist das Problem doch bereits längere Zeit bekannt? Scheinbar sind lange Balken dann doch wichtiger.

Blediator16
2013-02-16, 16:27:15
FC3 läuft eh mies, da machen die paar Mikroruckler womöglich gar keinen Unterschied. ;)

Jedenfalls gibts bei allen bei CB gebenchten Spielen mit AMD mehr Ausschläge nach oben als mit Nvidia.

Immerhin etwas. Untermenschen haben eh nichts anderes verdient:redface:

fondness
2013-02-16, 16:39:55
Hast du einen Nachweis, dass NV auf den Bench hin optimiert hat?

Ist die Frage erst gemeint? Du hast doch selbst gesagt das es mit alten Treibern deutlich schlechter lief.

In 3 von 6 Games spürbar schlechter, das ist schon ein starkes Stück... Schon traurig das sie das immer noch nicht gefixt haben, dabei ist das Problem doch bereits längere Zeit bekannt? Scheinbar sind lange Balken dann doch wichtiger.

Also die Tester sehen das zwar anders aber wenn du das sagst. Und es ist bekannt das der neue Mem-Manager im aktuellen Treiber noch nicht inkludiert ist.
Ich finde es mehr als befremdlich wie hier von manchen Leuten mit bestenfalls Halbwahrheiten Stimmung gemacht wird.

TobiWahnKenobi
2013-02-16, 16:41:43
In 3 von 6 Games spürbar schlechter, das ist schon ein starkes Stück... Schon traurig das sie das immer noch nicht gefixt haben, dabei ist das Problem doch bereits längere Zeit bekannt? Scheinbar sind lange Balken dann doch wichtiger.

hatte ich dir ja damals schon geschrieben. du bist mit tahiti immer auf der suche nach den optimalen einstellungen, hoffst immer auf den nächsten treiber und auf ein neues cap. das killt einiges der eigentlichen "spaßzeit". dagegen sind aufruf des NVI und das ändern von kompatilibätsbits peanuts.

btw,
montag kommt die kleine pitcairn; bin gespannt ob die sich genauso verhält. eigentlich hoffe ich, dass dem nicht so ist, weil einige bugs ja tahitispezifisch sind - wie damals die high-schatten in skyrim.


(..)

mfg
tobi

boxleitnerb
2013-02-16, 16:42:21
Witcher 2, Alan Wake und Hitman: Absolution. 3 von 6 Spielen, da hat Blaire schon Recht.

Schaffe89
2013-02-16, 16:47:06
hatte ich dir ja damals schon geschrieben. du bist mit tahiti immer auf der suche nach den optimalen einstellungen, hoffst immer auf den nächsten treiber und auf ein neues cap. das killt einiges der eigentlichen "spaßzeit". dagegen sind aufruf des NVI und das ändern von kompatilibätsbits peanuts.

Das habe ich ganz ein anderes Gefühl. Dass die FRametimes von AMD allerdings teils schlechter sind ist denke ich Fakt.

Ich will jetzt nur nochmal auch andere Spiele testen.
Ich bin übrigens grade am Messen und visualisiere das grad mit Pests Tool.

Beim seitwärtslaufen siehts für Nvidia schon nicht mehr so gut aus, dort sind die Frametimes der Nvidiakarte katastrophal, etwa so wie bei CB Hitman oder the Witcher auf AMD´s Seite.

Ich befürchte allerdings dass CB bei the Witcher auf eine andere Problematik gestoßen ist, wenn man schon die starken fremetimeschwankungen bei Hitman gar nicht subjektiv wahrnimmt, thats strange.

Bedeutet scheinbar dass die gemessenen FRametimes noch nichts mit dem Spielgefühl am Hut haben oder zumindest am Hut haben müssen.

In 3 von 6 Games spürbar schlechter, das ist schon ein starkes Stück... Schon traurig das sie das immer noch nicht gefixt haben, dabei ist das Problem doch bereits längere Zeit bekannt? Scheinbar sind lange Balken dann doch wichtiger.

Sowie es aussieht, ist nur 1 Spiel gemeint, nicht 3, was das subjektive empfinden angeht.

Wenn man den Werten vertraut sind es allerdings 3 Spiele.

dildo4u
2013-02-16, 16:49:18
.

Beim seitwärtslaufen siehts für Nvidia schon nicht mehr so gut aus, dort sind die Frametimes der Nvidiakarte katastrophal,

.
Dort gings um Dual Karten.

fondness
2013-02-16, 16:49:21
Witcher 2, Alan Wake und Hitman: Absolution. 3 von 6 Spielen, da hat Blaire schon Recht.

Erstens sind es 9 Messwerte und nicht 6 und zweitens sind es laut den Testern nur in 2 Spielen in denen es spürbar ist, nicht 3.

boxleitnerb
2013-02-16, 16:50:24
Beim Seitwärtslaufen in welchem Spiel mit welcher Karte? Wie fühlt es sich denn an?

Bzgl. Hitman:
Ähnliches können wir über Alan Wake sowie Hitman: Absolution berichten. So rendert die Radeon HD 7970 GHz Edition in der Testeinstellung zum Beispiel mit durchschnittlich 41,6 Frames per Second in Alan Wake, hakt jedoch spürbar mehr als die GeForce GTX 680, die auf 35 FPS kommt. Das Framelatenzdiagramm zeigt genau dieses Phänomen.

Wie kommst du also darauf, dass "man" da nichts wahrnimmt?

Erstens sind es 9 Messwerte und nicht 6 und zweitens sind es laut den Testern nur in 2 Spielen in denen es spürbar ist, nicht 3.

Nö, drei, die genannten Spiele. Musst nur die Augen aufmachen, da steht sogar "spürbar". Hat Blaire sich halt verzählt bei den 6, das hab ich nicht nachgeprüft. Aber wir müssen nicht um einzelne Spiele feilschen - die Situation ist so oder so sehr unschön und eigentlich inakzeptabel. Denn wer weiß, wo es noch auftritt, was nicht getestet wird. Ich wäre da sehr verunsichert.

aufkrawall
2013-02-16, 16:52:19
Ist die Frage erst gemeint? Du hast doch selbst gesagt das es mit alten Treibern deutlich schlechter lief.

Was hat das mit meiner Frage zu tun?
Vielleicht wurd es ja nur zufällig mitgefixt, man ist woanders auf den gleichen Bug gestoßen etc.
Das ist was ganz anderes als wenn Nvidia sich den Test angeschaut und die Performance gezielt dafür optimiert hätte.




Ich finde es mehr als befremdlich wie hier von manchen Leuten mit bestenfalls Halbwahrheiten Stimmung gemacht wird.
Was für Halbwahrheiten?
Neues Speichermanagement ist erstmal noch ein Luftschloss, für Catalyst 13.4 angekündigt...

Witcher 2, Alan Wake und Hitman: Absolution. 3 von 6 Spielen, da hat Blaire schon Recht.
Und AW & Hitman sind sogar AMD promotet.

fondness
2013-02-16, 16:52:59
Beim Seitwärtslaufen in welchem Spiel mit welcher Karte? Wie fühlt es sich denn an?

Bzgl. Hitman:


Wie kommst du also darauf, dass "man" da nichts wahrnimmt?



Nö, drei, die genannten Spiele. Musst nur die Augen aufmachen, da steht sogar "spürbar".

Okay das habe ich in der Tat überlesen. 3 von 9 ist trotzdem was anderes als 3 von 6. ;)

Musst nur die Augen aufmachen, da steht sogar "spürbar". Hat Blaire sich halt verzählt, das hab ich nicht nachgeprüft.

Ach ich wüsste nicht das man hier falsch aussagen nicht mehr korrigieren darf.

Schaffe89
2013-02-16, 16:55:47
Wie kommst du also darauf, dass "man" da nichts wahrnimmt?

Sry, braindump ;)

Ich glaube man kann sagen, dass es bei AMD spürbar schlechter ist, ich merke subjektiv in Hitman sogar die µruckler ganze am Anfang bei der ersten Mission extrem.

Beim Seitwärtslaufen in welchem Spiel mit welcher Karte? Wie fühlt es sich denn an?

Crysis 1.

Blaire
2013-02-16, 16:57:11
hatte ich dir ja damals schon geschrieben. du bist mit tahiti immer auf der suche nach den optimalen einstellungen, hoffst immer auf den nächsten treiber und auf ein neues cap. das killt einiges der eigentlichen "spaßzeit". dagegen sind aufruf des NVI und das ändern von kompatilibätsbits peanuts.


Das merkt man aber sicherlich nur per direkten Vergleich , also wenn man beide Karten zum Testen hat oder? Anders lässt sich sowas kaum erklären, warum das erst jetzt ans Tageslicht kommt und es immer noch Leute gibt, die nichts wahrnehmen wollen.

fondness
2013-02-16, 16:58:40
Was hat das mit meiner Frage zu tun?
Vielleicht wurd es ja nur zufällig mitgefixt, man ist woanders auf den gleichen Bug gestoßen etc.
Das ist was ganz anderes als wenn Nvidia sich den Test angeschaut und die Performance gezielt dafür optimiert hätte.


Tja das ist genau so möglich wie die andere Variante.


Was für Halbwahrheiten?
Neues Speichermanagement ist erstmal noch ein Luftschloss, für Catalyst 13.4 angekündigt...

Ein Luftschloss ist für mich etwas anderes. Der Fix ist immerhin bereits angekündigt.


Und AW & Hitman sind sogar AMD promotet.

Es hat auch nichts mit den Spielen zu tun, sondern mit dem Speicherverhalten.

Ronny145
2013-02-16, 17:00:25
Erstens sind es 9 Messwerte und nicht 6 und zweitens sind es laut den Testern nur in 2 Spielen in denen es spürbar ist, nicht 3.


In 7 von 9 Spielen ist eine schlechtere Latenz in den Diagrammen ablesbar. Das ist für mich fast die wichtigere Info. So zeigt es doch eine eindeutige Tendenz auf. Das Problem betrifft nicht nur vereinzelte Spiele sondern ist ein größeres Problem.

TobiWahnKenobi
2013-02-16, 17:15:25
Das merkt man aber sicherlich nur per direkten Vergleich , also wenn man beide Karten zum Testen hat oder? Anders lässt sich sowas kaum erklären, warum das erst jetzt ans Tageslicht kommt und es immer noch Leute gibt, die nichts wahrnehmen wollen.

"man" vielleicht - ich bin aber nicht man, ich bin tobi. ;-) nach dem aufwand, den ich hier für gute immersion betrieben habe - krawall hatte es schon mit aufgeführt -> eingabe und ausgabegeräte - bemerke ich unrundes verhalten an meiner maschine sofort.

kein jahr, war hier so hardwareintensiv, wie 2012 mit drei tahities (7970), vier keplern (3x 680, 1x 690), drei projektoren (120Hz + 3D fähig), vier bildschirmen (den ausgetauschten nicht mitgezählt, der ist nummer fünf), vier machanischen keyboards (USB + PS/2) und drei gamermäusen. ich hatte auch zwei HDTVs an dem equipment hängen aber das nur am rande und eigentlich nicht zum spielen.

wäre die 690 auch nur annähernd so nervig mit ihrem AFR-rendering, hätte ich die auch gekantet; aber sie macht echt die beste figur in meiner hardwaremüllhalde. dass da irgendwas partout nicht anständig läuft, ist mir genau 1x passiert -> farcry3 mit fehlender .exe-verknüpfung.

edit:
der ganze krempel hat auch einen mainboardwechsel (von z68 auf z77) und im ganzen drei CPUs mitgemacht (i7 2600K + 2x 3770K).


(..)

mfg
tobi

samm
2013-02-16, 17:19:42
Bei Alan Wake, als Beispiel, wo die Verteilung sehr besch*** aussieht, und von cb auch explizit kritisiert wird, sind aber auch die langsamen frametimes noch schneller als die gleichmässigen von nVidia. Insofern *kann* es gar nicht mehr ruckeln, unabhängig von der Behauptung, die cb macht: es läuft zwangsläufig gefühlt flüssiger, wenn auch nicht so flüssig, wie es bei gleichmässigen Frametimes laufen könnte. Nur mal so als Anmerkung für die, welche den hässlich breiten Balken per se für schlechter halten, was gefühlte-fps angeht, oder der Aussage von cb blind vertrauen.

[edit] Bei genauerer Überlegung beschwert sich CB im Fall AW wahrscheinlich eher über die "Makroruckler", die im gezeigten Abschnitt auftreten, nicht über die eigentlich hier zur Debatte stehenden Mikroruckler.

boxleitnerb
2013-02-16, 17:46:49
Das glaub ich nicht. Es geht nicht um die Frametimes an sich, sondern um die Sprünge. Die fps liegen zudem meist bei etwa 40, minimal bei 33. Das sollte auf einer SingleGPU noch flüssig sein, bzw. nicht klassisch ruckeln oder haken.

samm
2013-02-16, 17:53:04
Dann erklär mir doch mal, wie sich
19-23-19-23-19-23... [frametimes AMD in Alan Wake]
nach weniger anfühlen kann als
26-27-26-27-26-27... [frametimes nVidia in Alan Wake]

Bingo: Nicht möglich! Schlechtestenfalls fühlt sich die erste Reihe so schlecht an wie
23-23-23-23-23...

Mein Fazit deswegen: cb moniert die Peaks auf 47ms resp. 60ms, also das ganz gewöhnliche "Makro"-Ruckeln. Anders natürlich beim katastrophal wirkenden Hitman oder auch TW2, wobei ich letzteres vor kurzem gespielt hatte, doch dank DS und Framelimiter sehr wahrscheinlich um Mikroruckeln herumgekommen bin (zumindest nichts entsprechendes gemerkt).

boxleitnerb
2013-02-16, 18:04:42
Ich kann dir die menschliche Wahrnehmung nicht erklären, die ist bei jedem anders. Ich schließe eben nicht aus, dass sowas störend wirken kann - und störender als gleichmäßigere wenn auch langsamere Frametimes.

aufkrawall
2013-02-16, 18:06:33
Ist doch logisch, dass eine ungleichmäßige Frameausgabe es ruckeliger wirken lässt.
Ich versteh samms Punkt nicht.

boxleitnerb
2013-02-16, 18:12:41
Man muss sich dazu z.B. nur mal das Firestrike Video von der PCGH mit der 7990 Ares 2 Quad-CF ansehen. Trotz 70+fps massives Ruckeln. Es kann mir keiner erzählen, dass da nicht eine SingleGPU mit nur 30fps viel besser wäre. 70fps sind 14ms, die Ausschläge dürften da nicht über 33ms hinausgehen (üblicherweise liegt der Mittelwert auch in der Mitte des "Frametimesbandes"), was eben den 30fps entspricht.

samm
2013-02-16, 20:47:40
boxleitnerb: Abgesehen davon, dass MGPU eh für die Tonne ist, imo, ist das einfach nur Vermutung, was du da schreibst. Wenn die längste Frametime wirklich 33ms wäre, kann es nicht schlechter empfunden werden als 30fps (rein von der Wiedergabe her - eine Spiel mit Quad-CF muss sich allein durch den Lag schon besch*** anfühlen, bei 30fps sicher nicht spielbar).
Meine diesbezügliche Vermutung wäre ja, dass die frametimes eher so aussehen: 5ms - 5ms - 5ms - 50ms - 5ms - 5ms - 5ms - 50ms etc :freak: und es dadurch in der Tat schlechter als konstante 30fps wirkt.

Ist doch logisch, dass eine ungleichmäßige Frameausgabe es ruckeliger wirken lässt.
Ich versteh samms Punkt nicht.Logisch ist Folgendes: Es kann nicht ruckeliger empfunden werden, als wenn die längste vorkommende frametime konstant wiederholt würde.

aufkrawall
2013-02-16, 20:49:42
Logisch ist Folgendes: Es kann nicht ruckeliger empfunden werden, als wenn die längste vorkommende frametime konstant wiederholt würde.
Wie kommst du darauf? Ich seh daran nichts Logisches.
Wenn die Frames unregelmäßig rausgegeben werden, empfindet man das als Ruckler. Regelmäßig nicht.

samm
2013-02-16, 20:54:56
Wie kommst du darauf?Logik :P

Knuddelbearli
2013-02-16, 21:17:46
Wie kommst du darauf? Ich seh daran nichts Logisches.
Wenn die Frames unregelmäßig rausgegeben werden, empfindet man das als Ruckler. Regelmäßig nicht.


warst nicht du der der adaptives vsynch so gelobt hat und meine bedenken das vsynch an mit inputlag und dann vsynch aus mit weniger inputlag scheiße ist mit nein abgetan hast?

Match-Maker
2013-02-16, 21:25:29
Natürlich erhöht Dynamic VSync den Inputlag, das ist bei VSync oder nem Framelimiter aber immer so. (Dynamic) VSnyc oder nen Framelimiter benutzt man ja nur, um das Spielgefühl zu verbessern, indem man den Inputlag möglichst konstant hält (und Tearing reduziert/verhindert).
Ehrlich gesagt, weiß gerade gar nicht, was du jetzt mit deinem Post genau meinst.

HarryHirsch
2013-02-16, 21:43:51
Ich glaub RT ist interessanter als Fluide, die auch mit der zehnfachen Rechenleistung immer noch unrealistisch aussehen, zumindest was Wasser angeht.
Außerdem heißt es ja, dass Compute allgemein eine Stärke Tahitis sei, wobei dieser Benchmark offenbar eine Ausnahme darstellt, und das ausgerechnet mit Raytracing.


Tja, würde AMD vernünftige Sensoren verbauen, die einem einen den Stromverbrauch in % zum TDP anzeigen, wüssten wir mehr.
Ich hab aber von GK104 darauf geschlossen, meine 670 OC ist hier bei 70°C bei 97% PT, also wohl was um die 180W rum.
Der 16x16 heizt hier vergleichsweise viel, Spiele verbraten meist weniger Strom.
Bei Tahiti XT wird die GPU-Load auch bei +95% liegen und ich gehe jede Wette ein, dass das der Energieverbrauch dementsprechend hoch sein wird.

die tatsächliche auslastung ist nicht hoch, denn sonst würde ein tahiti den bench nicht mit 1400 mhz gpu-takt ohne irgendwelchen probleme durchziehen.

aufkrawall
2013-02-16, 22:09:41
die tatsächliche auslastung ist nicht hoch, denn sonst würde ein tahiti den bench nicht mit 1400 mhz gpu-takt ohne irgendwelchen probleme durchziehen.
Ist ein Argument.
Muss Coda mal bei AMD klingeln. :freak:

ndrs
2013-02-16, 22:59:13
Wie kommst du darauf? Ich seh daran nichts Logisches.
Wenn die Frames unregelmäßig rausgegeben werden, empfindet man das als Ruckler. Regelmäßig nicht.
Einen Ruckler sieht man, wenn die Frametime eine (persönliche) Schwelle x überschreitet. Jeder Frame der schneller kommt als x wird als flüssige Bewegung wahrgenommen. Zwischen absolut flüssig und noch flüssiger kann man nicht unterscheiden. Ergo merkt man auch nicht wie weit die Frametime unter x liegt.
Ich kann samms Standpunkt absolut nachvollziehen.

aufkrawall
2013-02-16, 23:09:08
Bei Alan Wake gibts aber auch recht üble Ausreißer nach oben, die man definitiv als Ruckler wahrnimmt.

samm
2013-02-17, 15:30:36
Jupp, das ist so. War das, was ich mit dem blöden Begriff "Makro"-Ruckeln gemeint hatte.

aufkrawall
2013-02-17, 18:47:17
Die Frametimes bei Hitman mit SLI (313.96, 1080p 8xSGSSAA) sind wirklich sehr nett.
sGPU:
http://www.abload.de/thumb/sgpuvmo1y.png (http://www.abload.de/image.php?img=sgpuvmo1y.png)

2-Way:
http://www.abload.de/thumb/sli5poqf.png (http://www.abload.de/image.php?img=sli5poqf.png)

Bei der Beurteilung beachten, dass der Maßstab des Graphen bei sGPU doppelt so groß ist, die Ausschläge bei mGPU also im Vergleich vergrößert dargestellt werden.
fps-Limiter ist bei den Frametimes eigentlich unnötig.

Schaffe89
2013-02-17, 22:20:24
Sehen wirklich nicht schlecht aus, da kann selbst eine Single GPU manchmal nicht mithalten.

Allerdings bin ich grade etwas am zweifeln, ob Nvidia mit ihrem Framemetering nicht den Inputlag vergrößert um die guten Frametimes zu erhalten.
Degegen sprechen natürlich die subjektiven Berichte.

pest
2013-02-18, 10:17:56
Wie bereits mehrfach betont, lässt sich die Qualität des AFR-Renderings nicht an diesen Grafiken ablesen.

Gipsel
2013-02-28, 18:38:34
Hier uebrigens mal ein weiterer Beitrag zur Faktensuche am Beispiel von Skyrim (http://benchmark3d.com/microstutter-case-study-skyrim-diving-deeper). Bisher habe ich das nur ueberflogen, aber das viel mir dann doch auf:

Normal auf QuadCore:
http://benchmark3d.com/wp-content/uploads/2013/01/present-flip-skyrim-4-cores.jpg

Eingeschraenkt auf einen Kern:
http://benchmark3d.com/wp-content/uploads/2013/01/present-flip-skyrim-1-core.jpg

Gruen sind die Present-Calls, die Fraps misst, rot die eigentlichen Buffer-Flips, wie sie GPUView vom Windows Performance Toolkit ausspuckt. Wie man sieht, ergibt sich zum einen ein deutlicher Unterschied zwischen normalen Betrieb auf einem Quadcore und dem Fall, dass man das Spiel auf einen Kern festpinnt (Microstuttering ist komplett weg). Und zum anderen scheint sich auch zu zeigen, dass selbst wenn die Present-Calls, die FRAPS misst, offenbar ungleichmaessig verteilt sind, die Bufferflips aber trotzdem mit gleichmaessiger Rate erfolgen. Ist zwar eine 6900er GPU und er hat Unterschiede zwischen alten und neuen Treiberversionen gesehen, aber irgendwas scheint auch die Skyrim-Engine selber komisch zu machen.

PS:
Insgesamt kommt mir diese 10ms Granularitaet ziemlich verdaechtig vor. Man kann die Granularitaet des Thread-Schedulings von Windows naemlich von den standardmaessigen 10ms auf 1ms runterstellen (was man bei zeitkritischen Sachen auf jeden Fall tun sollte). Dies beeinflusst durchaus die Wartezeiten bei der Synchronisation von Threads, wenn man kein busy-waiting machen will.
Es ist vermutlich nicht alles, könnte aber je nach Spiel durchaus einen Einfluß haben. Die 1ms-Granularität soll man übrigens eigentlich nicht verwenden (zumindest nicht dauerhaft), weil es allgemein gesehen etwas ineffizienter ist und Stromsparmechanismen beeinträchtigen kann. Während eines Spiels, dürfte das aber meiner Meinung zu vernachlässigen sein (sprich, das kann ein Treiber bei Bedarf durchaus für ein anfälliges Spiel per Profil aktivieren).
Bin gerade mal wieder über ein paar weitere Messungen (http://uk.hardware.info/reviews/4002/6/amd-radeon-hd-7950-boost-vs-nvidia-geforce-gtx-660-ti-frametimes-review-max-payne-3) zu dieser µRuckler-Thematik gestolpert:

http://content.hwigroup.net/images/articles/660ti-vs-7950-mp3-high.png

Also langsam glaube ich wirklich, daß es zu einem nicht unbeträchtlichen Teil an der Synchronisation in multithreaded Engines liegt. Denn lustigerweise zeigt Max Payne 3 jetzt genau eine Granularität von 1ms, wie man das erwarten würde, wenn der Entwickler sich des Problems bewußt war und die Timergranularität entsprechend niedrig gewählt hat. Vielleicht sollte AMD per Treiber einfach 1ms für betroffene Spiele forcieren. Die 1ms-µRuckler sind ja vollkommen in Ordnung und werden höchstens bei 500fps oder so zum "Problem". :uponder:

MadManniMan
2013-03-05, 13:12:30
Gibt's inzwischen eigentlich mal irgendwas dazu von der PCGH? Vom 3DCenter kommt ja auch nix ...

Gipsel
2013-03-05, 13:58:13
Nicht wirklich. Bei B3D hat sich jemand dazu geäußert (http://forum.beyond3d.com/showthread.php?p=1715735#post1715735), daß die Nichtbeachtung der Scheduling-Granularität (wie von mir oben vermutet) durchaus negativen Einfluß auf die empfundenen µRuckler haben können. Aber wie weitverbreitet dieses (Teil-)Problem in typischen Games ist, da habe ich keine Ahnung.

Do all game engines determine simulation time steps in the exact same way FRAPS is reporting it? Personally, I've always taken an average for a few frames.Most do, with the odd one using some sort of "smoothing". But I'd say it's a fair default to assume.That's rather shocking to me, and almost unbelievable, particularly with the kinds of scheduler jitters you can get from multithreading.

Butterfly
2013-03-06, 12:56:41
@Gipsel
Hallo, wie ist das mit der Granularitaet des Thread-Schedulings von Windows, wo kann man das ändern in Windows?
Kann es sein, das CoreParking von Windows auch eine weitere Verzögerung der Frametimes hevorruft?
Bei AMD FX ist das ja glaube ich nicht so schlimm, die können innerhalb eines Takt die Kerne wieder aufwecken.
Mit meinem X6 hatte ich mit GTX580 SLI mal sehr großen Frametime differenzen wenn alle Energieoptionen an waren (C´n´Q, C6, C1E)
Wenn diese aus waren, war die Differenz deutlich kleiner.

MfG

Grasso
2013-03-06, 18:02:40
... (Dynamic) VSnyc oder nen Framelimiter benutzt man ja nur, um das Spielgefühl zu verbessern, indem man den Inputlag möglichst konstant hält (und Tearing reduziert/verhindert).
Hieß das früher nicht Triple-Buffering? Jede Rahmendauer beträgt dabei ein ganzes Vielfaches der Vertikalperiodendauer des Monitors, möglichst aber dasselbe. Die Latenz beträgt im besten Fall das Dreifache dieser Periode, bei 60 Hz also 50 ms. Will man die höhere Abtastrate der Tastatur von 200 Hz ausnutzen, um die Latenz zu verringern, verkompliziert sich die Programmierung, auch, weil 60 Hz einer Periodendauer von krummen ~17 ms entsprechen. Röhrenmonitore hatten Vertikalfrequenzen bis 200 Hz. Konsolen hingegen mußten oder müssen mit der PAL-Frequenz von 25 Hz (50 Hz ja nur für Teilbilder) leben.

Butterfly, die Abtastrate der Tastatur beträgt 200 Hz, und ein DirectSound-Tonpuffer ist 5 ms lang. Wenn MIDI aufgenommen oder abgespielt wird, beschleunigt Windows den Zeitgeber auf dem Mainboard --es gibt bei x86ern genaugenommen drei davon, einen für's DRAM-Refresh, einen für die Uhrzeit, und einen Joker-- auf 1 ms.

Gipsel
2013-03-06, 19:16:06
@Gipsel
Hallo, wie ist das mit der Granularitaet des Thread-Schedulings von Windows, wo kann man das ändern in Windows?Das kann eine Anwendung/Spiel per Windows-Systemaufruf anfordern. Dann wird wie von Grasso erwähnt, ein Zeitgeber (der den Timerinterrupt auslöst, dessen Behandlung den Windows-Thread-Scheduler aufruft) beschleunigt. von den standardmäßig 10 oder 15,6ms auf (typischerweise) 1 ms. Einige Browser und viele Audio-/Video-Plugins machen das zum Beispiel. Daher kann es durchaus Unterschiede geben, je nachdem, was auf dem System installiert ist bzw. im Hintergrund läuft.
Kann es sein, das CoreParking von Windows auch eine weitere Verzögerung der Frametimes hevorruft?Gehört habe ich davon, daß Einige sagen, sie merken einen Einfluß. Aber genau sagen kann ich das nicht.
Hieß das früher nicht Triple-Buffering?Heutzutage gibt es (leider) meist kein wirkliches Triple-Buffering mehr. Die gerenderten Frames werden oft starr in eine FIFO-Queue gerendert, statt frei laufend in die beiden Backbuffer, wie das beim klassischen TB der Fall war. Der Vorteil der heutigen Lösung ist, daß der Stromverbrauch niedriger ist, wenn die Framerate (ohne VSync) über der Refreshrate liegen würde. Der Nachteil ist eine steigende Latenz.
Jede Rahmendauer beträgt dabei ein ganzes Vielfaches der Vertikalperiodendauer des Monitors, möglichst aber dasselbe. Die Latenz beträgt im besten Fall das Dreifache dieser Periode, bei 60 Hz also 50 ms.Bei klassischem Triple-Buffering ist die (höchst theoretische) best case-Latenz als Zeitdifferenz zwischen Benutzereingabe und Auswirkung auf dem Bildschirm genau Null (wenn Renderzeit Null und man direkt vor dem Bufferflip die Eingabe getätigt hat), trotz dem bei triple Buffering immer aktivem VSync. ;)
Schafft die GPU jetzt realistischerweise die Berechnung von z.B. 100 Frames die Sekunde (wovon bei 60Hz Refreshrate aber nur 60 angezeigt werden, 40 werden bei klassischen Triple buffering zwar berechnet, aber verworfen, weil in der Zwischenzeit [Warten auf Refresh] ein neueres fertig geworden ist), beträgt die Renderzeit pro Frame also 10ms. Jetzt hängt es natürlich von Details bei der Engine ab, wann genau der "Snapshot" des zu rendernden Zustands der Spielwelt erfolgt und was die da genau macht. Aber nehmen wir mal der Einfachheit halber an, direkt nach dem Fertigrendern eines Frames, geht es mit dem nächsten weiter. Dann werden Frames zwischen 0 und 10ms vor der Anzeige auf dem Bildschirm (die Display-Latenz vernachlässigen wir mal) fertig, die wurden also zwischen 10 und 20ms vor der Anzeige gestartet und erfassen die Benutzereingaben (zur Einfachheit hier auch keine Extra-Latenz angenommen) relativ gleichverteilt in einem Zeitfenster von 10 bis 30ms vor Anzeige auf dem Display. Die Eingabelatenz wäre also im Mittel 20ms. Dies gilt allerdings so strikt nur für die Auswirkung auf die Spielmechanik (wenn die Engine ihre Gamestate-Updates an die Renderrate koppelt, machen aber wohl längst nicht alle, aber keine Ahnung, welchen Anteil das betrifft). Es werden ja 40% aller berechneten Frames für die Anzeige verworfen (die zwischen 10 und 16,7ms vor der Anzeige fertig werden, also zwischen 20 und 26,7ms vorher gestartet wurden und Eingaben zwischen 20 und 36,7ms vor der Anzeige erfassen). Insgesamt ergibt sich so eine durchschnittliche Latenz von Eingabe zur Anzeige von irgendwo um 23ms.

Wenn natürlich die Engine in eine Queue von 3 Frames rendert und wenn diese voll ist, pausiert (und das mittlere Bild nicht überspringt wie bei klassischem TB), dann startet das Rendern des Frames tasächlich immer genau 33,3 ms vor der Anzeige und erfaßt Eingaben im Fenster zwischen 33,3 und 50 ms, wodurch sich eine durchschnittliche Eingabelatenz von 42 ms ergibt. Die Latenz erhöht sich, allerdings sinkt dafür der Anzeige-"Judder" durch die übersprungenen Frames (ist eigentlich nur ein merkliches Problem, wenn man ohne VSync nur knapp oberhalb von 60fps liegen würde). Unterhalb von 60fps ist das Verhalten der beiden Verfahren identisch.

Optimalerweise würde eine Engine überwachen, wann die Bufferflips stattfinden und das Starten des Renderns so timen, daß man direkt zum Bufferflip fertig wird. Das senkt die Latenzen (und auch den Judder) am effektivsten. Konsolenspiele machen sowas wohl. Auf dem PC bezweifle ich das etwas, wenn man sich mal diese µRuckler-Problematik ansieht (dann würde man die nämlich von Engine-Seite totschlagen, egal ob für single GPU oder Multi-GPU, solange der Treiber dann keinen Unfug mehr macht [muß er dann aber im Gegensatz zum heutigen Zustand aber auch nicht mehr :rolleyes:]).

Dynamisches VSync dagegen ist double buffering mit VSync an, wenn die Framerate über 60fps geht (gehen würde, pinnt die also bei 60fps fest) und darunter aus.

Iruwen
2013-03-07, 11:20:20
Was passiert eigentlich wenn die Anwendung im Windowed Fullscreen mit Aero läuft? Dann hat man ja offensichtlich automatisch VSync ohne FPS Cap, ist das dann TB? Weil mir das Input Lag da kaum auffällt.

Grasso
2013-03-09, 13:40:34
Gipsel meinte doch, daß VSync FPS-Cap bedeutet. In meinen Worten: Der Ausgabewandler (RAM-D/AC oder digitaler Monitor) bekommt im laufenden Betrieb bei aktiviertem V-sync nur eine Information von der Engine, nämlich ob ein neuer Rahmen gerendert werden konnte. Wenn das der Fall ist, und der Wandler mit der Ausgabe des jetzigen Rahmens fertig ist, wird er zu einem anderen Puffer, nämlich dem, der den neuen Rahmen enthält, springen, und ihn ausgeben. War der Renderer jedoch zu langsam, wird der Wandler den alten Puffer noch mal ausgeben. Beim Ton ist es ähnlich, jeder kennt das Stottern, wenn es hakt.

Früher konnten gute Monitore zumindest bei niedrigen Auflösungen refreshes bis 200 Hz erreichen. Wenn die Engine mithalten konnte, wurde der Zeitfehler somit auf +-5ms verringert, und die Latenz lag unter 30 ms. Bei Konsolen und heutigen PCs (50/60Hz) ist das nicht mehr so einfach, da muß die Engine jeden Rahmen zeitlich in kürzere Abschnitte aufteilen, um ein gutes Timing zu erreichen. Bei klassischen 50Hz-Fernsehern (nur 25 Vollbilder/s!) wird es richtig haarig.

Ich hoffe, das das jemandem geholfen hat oder einfach nur interessant war.

Gipsel
2013-03-12, 18:19:34
Falls irgendwer mal Zeit und Muße hat, gibt da einen Test aus China (http://www.inpai.com.cn/doc/hard/176864_-3.htm), in dem für ziemlich viele verschiedene GPU/CPU-Kombinationen in jeweils mehreren Spielen die Frametimes gemessen wurden. Gibt da ein paar überraschende Unterschiede in Abhängigkeit vom CPU-Typ (vom Pentium über i3 und i5 zu i7, allerdings nur Intel), GraKa und Spiel. Ganz einfach ist das wohl nicht.

Beispiel 1: CoD:Black Ops II mit HD7770/GTX650Ti
http://img.inpai.com.cn/article/2013/2/5/64496b7b-8b9e-4769-bbb0-95f45be66d9b.pnghttp://img.inpai.com.cn/article/2013/2/5/c454c014-3a3b-4f62-bf39-15919b9cdd1c.pnghttp://img.inpai.com.cn/article/2013/2/5/9f482f03-2d5c-4988-8f1d-0a28f4fe05e6.png

http://img.inpai.com.cn/article/2013/2/5/01d1e8bb-af20-49d6-a544-50f45a4e0bcf.pnghttp://img.inpai.com.cn/article/2013/2/5/4f3517c9-4489-4195-9bad-7ce0f9fd3786.pnghttp://img.inpai.com.cn/article/2013/2/5/d3be2652-fcbf-4454-8f96-d2da50da3972.png

Beispiel 2: BF3 auf GTX650Ti mit Core i7 HT on/off:
http://img.inpai.com.cn/article/2013/2/5/df8afc87-bebf-499c-9d6d-3e129edd6dc4.pnghttp://img.inpai.com.cn/article/2013/2/5/54f52364-c4df-4944-a389-c735e72f3d8c.png

Beispiel 3: BF3 auf HD7970GE mit Pentium/Core i5/i7
http://img.inpai.com.cn/article/2013/2/5/8d3e5883-63d0-449d-a710-759f4016c7e8.pnghttp://img.inpai.com.cn/article/2013/2/5/2a9d4467-fb57-46b2-8600-ce31404b7ce5.pnghttp://img.inpai.com.cn/article/2013/2/5/6ef9a8c8-ee32-4d15-8d83-3dad981ce6f2.png

Wie gesagt, da gibt es noch viel mehr. Hitman:Absolution ist eigentlich immer eine ziemliche Katastrophe auf den Radeons, ansonsten gibt es durchaus mehr oder weniger deutliche Akzentuierungen, nicht nur bei AMD, auch bei nV. Ganz offenbar ist das zu einem wesentlichen Teil ein CPU-seitiges Problem (Synchronisation der Threads in der Engine?), die die Treiber je nach Situation mehr oder weniger gut wieder hinbiegen können oder auch nicht (Hitman auf Radeons) bzw. das evt. verschlimmbessern.

M4xw0lf
2013-03-12, 18:29:31
Wie hart sind die Unterschiede denn? :eek: Abgefahren.

Rente
2013-03-12, 19:33:53
Das sieht in der Tat übel aus und wirft noch mal ein vollkommen anderes Licht auf die Problematik.

Wenn ich genügend Zeit haben sollte werde ich ein paar Sachen auch mal versuchen nachzustellen (i7 mit nVidia ist bei mir gegeben), ein umfangreicher Test mit der Thematik der PCGH wäre aber auch toll.
Man muss dafür allerdings sehr akribisch und zeitaufwändig alles einzeln nachstellen, dazu noch jeweils im CPU- und im GPU-Limit testen, das ganze Pro Spiel/Benchmark auch noch wiederholt.

Hätte ich bloß auch noch eine AMD-Karte und die verschiedenen Prozessoren zur Verfügung und würde damit generell mein Geld damit verdienen... ;)

Knuddelbearli
2013-03-12, 19:48:55
man sieht da zumindest definitiv das es kein AMD Problem ist

Rente
2013-03-12, 20:07:04
man sieht da zumindest definitiv das es kein AMD Problem istDa hast du Recht, allerdings wurde dieser Test schon mit dem 13.2 Beta gemacht, das dürfte vorher schlimmer ausgesehen haben.

dildo4u
2013-03-12, 20:09:11
Bilder und Link gehen hier nicht.

fondness
2013-03-12, 20:10:44
Bin gerade mal wieder über ein paar weitere Messungen (http://uk.hardware.info/reviews/4002/6/amd-radeon-hd-7950-boost-vs-nvidia-geforce-gtx-660-ti-frametimes-review-max-payne-3) zu dieser µRuckler-Thematik gestolpert:


Auch bei diesem Test sieht man das es je nach Messung auch mal bei NV schlechter aussehen kann. BF3 und AC3 erzeugen bei NV stärkere Schwankungen.

StefanV
2013-03-12, 20:45:15
Auch bei diesem Test sieht man das es je nach Messung auch mal bei NV schlechter aussehen kann. BF3 und AC3 erzeugen bei NV stärkere Schwankungen.
Blasphemie!!
Silence, infidel...

Aber das bestätigt doch das, was Gipsel die ganze Zeit in diesem Thread vermutet, oder?

Rente
2013-03-12, 20:56:30
Blasphemie!!
Silence, infidel...

Aber das bestätigt doch das, was Gipsel die ganze Zeit in diesem Thread vermutet, oder?
Jupp, wobei man BF3 mit Intel-CPUs mit HT generell mit äußerster Vorsicht genießen sollte, das liegt wohl eher an HT und BF3 als am Grafikkartentreiber bzw. nur dort ist der Unterschied so extrem und AMD hat da wohl bereits nachgebessert (ein Gegentest mit einem Treiber vor 13.2Beta wäre interessant).

Wobei die Probleme mit HT laut dem Test nur mit dem i7, nicht aber mit dem i3 auftreten (auf der Webseite gibt es noch deutlich mehr Tests die Gipsel hier nicht aufgeführt hat), was irgendwie so gar keinen Sinn macht.

Botcruscher
2013-03-12, 21:07:00
Die spielt wohl die Threadverwaltung der Treiber mit rein. Irgendwas eckt dann schön an. Wie empfindlich das ist sieht man ja bei NV und der Kernanzahl.

MadManniMan
2013-03-12, 22:43:23
Wurscht, welcher Hersteller da jetzt unter welchen Bedingungen besonders schuldig ist. Hauptsache, wir bekommen mal eine ordentliche Analyse der tatsächlichen Situation ;(

Iruwen
2013-03-13, 10:17:06
Lustigerweise ist BF3 auch das Spiel bei dem sich die meisten Leute über gefühlte Ruckler auskotzen und der Maßstab für die Qualität jedes neuen Treibers. Der Einfluss von HT und max prerendered frames darauf würde mich mal interessieren, darauf reagiert BF3 auch empfindlich.

Sunrise
2013-03-13, 16:12:36
Das bestätigt wohl in der Tat, warum BF3 bei vielen und u.a. auch bei mir einfach nur beschissen läuft. Ich habe ja schon einiges gesehen, aber wenn ich mal zusammenrechne, wie lange es gedauert hat, um bei meiner HW ein einigermaßen vernünftiges BF3-Spielerlebnis hinzubekommen, dann habe ich wahrscheinlich ganze Tage damit verbracht. Das alles ist völlig unabhängig von der "Qualität" oder der Zusammenstellung der Komponenten selbst, es liegt am Spiel im Zusammenspiel mit bestimmtem HW-Konfigurationen.

Sowohl per user.cfg als auch im NV-Treiber selbst kann man viel optimieren, aber 100%ig werden einige das nie den Griff bekommen. Ich habe hier übrigens noch einen i7-920, der scheint mit HT und NV-Treibern so ziemlich die schlechteste Kombi zu sein, die man besitzen kann. Je neuer man in der i5/7-Generation ist, desto besser scheint es zu laufen. Wenn man dann noch HT deaktiviert, hat man wohl das Optimum. Ich spiele z.B. sehr häufig Abends mit Kollegen, bei denen die mit IvyBridge und HT wenig bis garkeine Probleme haben, die wissen nichtmal, von was man redet.

Ich habe übrigens auch schon etliche NV-Karten durch, sowohl GTX260+, GTX570 als auch aktuell die GTX580. Auf der GTX260+ ruckelte es (unabhängig der Grafikeinstellungen im Spiel, auch wenn ich alles auf Minimum hatte) absolut katastrophal, die GTX580 lässt mich mit allen Optimierungen die ich fahre, nun einigermaßen spielen.

Der Witz ist aber, dass man bei BF3 niemals das gleiche Spielgefühl in jedem Spiel hat. Es kann sein, dass man einen Server joint, abartige Verzögerungen (ich habe immer das Performance-Overlay mit CPU/GPU-Graph mitlaufen, wo man diverse Probleme sofort erkennen kann) hat, man dann das Spiel verlässt, ein paar Minuten wartet und den gleichen Server mit der gleichen Map wieder betritt und es dann plötzlich butterweich läuft. Und nein, das ist kein Serverproblem.

Was bei BF3 auch interessant ist, sind die im Performance-Overlay angezeigten Graphen, die normalerweise relativ konstant und gleich schnell von rechts nach links laufen. Teilweise habe ich aber Spiele, bei denen der GPU-Graph dann für bestimmt 10-20 Sekunden komplett stehen bleibt und wenn ich Gegner dann anvisiere und schieße, verhält sich das Spiel so, als würde es komplett aussetzen. Egal was ich dann mache, es sieht immer so aus, als würde ich mich nicht bewegen (obwohl ich ausweiche). Getestet mit einem meiner Kollegen auf einem eigenen Server über Teamspeak.

Das ist aber auch ein Extrembeispiel und - zumindest bei mir - bisher das einzige Spiel, in welchem ich das beobachten kann und ich habe sowas vorher auch noch nicht gesehen. Ich habe das am Anfang immer auf den Netcode geschoben, bzw. dieser beschissenen Latenz-Anpassung, die es einem mit Ping um die 8-12ms nicht erlaubt, vernünftig spielen zu können. Das ist allerdings wieder ein anderes Problem und hat mit dem Thema hier wenig zu tun.

Wenn ich mal daran denke, wie direkt man damals mit einem CRT, einer Kugelmaus (Wingman) einer ordentlichen Tastatur und einer min. mittelklassigen PC-Konfig im Multiplayer Spiele wie Quake1, Quake2, Quake3 oder CS (das ich allerdings nicht gespielt habe) spielen konnte, dann wird einem bei dem Gedanke daran schon irgendwie schlecht. Da sah man wenigstens auch direkt was passiert.

Iruwen
2013-03-13, 16:28:30
Und ich spiel z.B. mit einem i7-920@3,7GHz mit HT und meiner GTX 670 (bei 1280MHz gelockt, also kein Boost) mit diesen Settings eigentlich weitestgehend stotter- und lagfrei:
GameTime.MaxVariableFPS 59
RenderDevice.VSyncEnable 1
RenderDevice.TripleBufferingEnable 0
RenderDevice.ForceRenderAheadLimit 1
Ich würde annehmen RenderDevice.ForceRenderAheadLimit entspricht dem Prerender Limit im Treiber(?)

aufkrawall
2013-03-13, 16:34:50
Ich würde annehmen RenderDevice.ForceRenderAheadLimit entspricht dem Prerender Limit im Treiber(?)
Wird wohl so sein.
Hast du mal ausprobiert, ob der Befehl tatsächlich funzt?
Mit Vsync (ohne fps-Limit) sollten höhere Werte einen höheren Input-Lag hervorrufen.
Die TB-Option funktioniert ja offenbar nicht.

Sunrise
2013-03-13, 16:35:36
Und ich spiel z.B. mit einem i7-920@3,7GHz mit HT und meiner GTX 670 (bei 1280MHz gelockt, also kein Boost) mit diesen Settings eigentlich weitestgehend stotter- und lagfrei:
GameTime.MaxVariableFPS 59
RenderDevice.VSyncEnable 1
RenderDevice.TripleBufferingEnable 0
RenderDevice.ForceRenderAheadLimit 1
Ich würde annehmen RenderDevice.ForceRenderAheadLimit entspricht dem Prerender Limit im Treiber(?)
Ich habe fast exakt die gleichen Einstellungen. Mit der Ausnahme, dass ich VSync im Spiel aus habe und dafür im NV-Treiber VSync auf "adaptiv". Aus irgendeinem Grund führt VSync im Spiel bei mir zu starken Ausschlägen im GPU-Graph, mit nur "adaptiv" im NV-Treiber habe ich recht glatte Verläufe. Zudem habe ich gefühlt ein direkteres Ansprechen der Maus (wohl weniger Input-Lag). Mit dem ForceRenderAheadLimit im NV-Treiber spiele ich aktuell nichtmehr rum, ich nutzt aktuell nur die Einstellung in der CFG.

Allerdings fahre ich aktuell noch die 306.97er, weil die 310er wieder stotterten wie bescheuert. Neuere habe ich mangels Zeit noch nicht getestet.

Iruwen
2013-03-13, 16:53:13
Das mit dem 306.97er im Vergleich zu r310 sagen viele.

Wird wohl so sein.
Hast du mal ausprobiert, ob der Befehl tatsächlich funzt?
Mit Vsync (ohne fps-Limit) sollten höhere Werte einen höheren Input-Lag hervorrufen.
Die TB-Option funktioniert ja offenbar nicht.
Input Lag hab ich weniger gemerkt als ein Stottern bei hoher CPU-Last. Ein Problem das ich nebenbei gerade auch bei GW2 hatte (extrem CPU-lastig, die GPU gurkt da teilweise bei 25% Auslastung rum), da hat ein Prerender Limit von 1 statt 3 ebenfalls die FPS kaum beeinflusst aber das Stottern behoben. Was zwar auf den ersten Blick irgendwie Sinn ergibt wenn die CPU im Hintergrund nicht noch zusätzlich an weiteren Frames arbeitet, aber war's nicht auch so dass ein CPU-Limit die Frametimes glätten soll? Ich blick da nicht durch. Wobei das in GW2 auch schon ziemlich heftiges Makrostottern ist.
Hat das neue Precision X nicht 'ne integrierte Frametimemessung? Kann ich ja mal ausprobieren.

Schaffe89
2013-03-14, 20:26:30
Auch bei diesem Test sieht man das es je nach Messung auch mal bei NV schlechter aussehen kann. BF3 und AC3 erzeugen bei NV stärkere Schwankungen.

Das gleiche übrigens in Crysis 1 beim Seitwärtslaufen, dort hat Nvidia erhebliche Frametimeschwankungen, ähnlich ausgeprägt wie bei AMD in Hitman.
Scheint wohl doch so zu sein, als ob Nvidia auch damit zu kämpfen hat, jedenfalls hab ich das im Hardwareluxx schon vor Monaten mal gesagt.

Zudem ist es Abhängig von der eingesetzten config und der eingesetzten CPU.
SMT + AMD GPU führt scheinbar zu vermehrtem µruckeln, sowie auch Nvidia + SMT.

Ich habe aus langeweile letztes Wochenende Assassins Creed, Tomb Raider und Crysis 3 angetestet, dort gibts mit meinem FX-8350 jedenfalls keine Frametimeschwakungen mit Nvidia und AMD, jedenfalls mit nem AMD FX System.

Es wäre mal interessant, wie es sich mit einem AMD System und mit einem Intel System Verhält, ich habe nämlich durch meine Vergleiche langsam die Tendenz, dass Intel Systeme ( bedingt durch SMT) deutlich mehr schlechtere Frametimes produzieren.

Wollte mir wenn Haswell kommt ehmal wieder Intel reinschnallen, allerdings wart ich noch bis der USB Bug gefixed ist.

aufkrawall
2013-03-14, 20:29:12
Das gleiche übrigens in Crysis 1 beim Seitwärtslaufen, dort hat Nvidia erhebliche Frametimeschwankungen, ähnlich ausgeprägt wie bei AMD in Hitman.

Definitiv nicht, habs vor ein paar Wochen erst mit und ohne SLI getestet (sogar die Ergebnisse hier irgendwo gepostet).
Eventuell gibts aber nen Bug, dass es mit Vsync bei DX10 Ruckler gibt.
DX9 läuft damit astrein.

Schaffe89
2013-03-18, 11:07:29
Bitte verlinke auf deinen Post, ich habe kein vsync an, allerdings direct10 gemessen und das an 10 verschiedenen Stellen und immer Schwankungen bis zu 20ms durchgehend gehabt, während die Radeon bei gleichen Settings unter 5ms bleibt, bei vergleichbaren FPS.

Seitwärtslaufen ist bei Nvidia auch in anderen Spielen ein Problem.
Das gleiche in AssassinsCreed, Crysis 3 und Tomb Raider.

pest
2013-03-18, 13:42:21
Bei mir läuft BF3 auch bescheiden. Habe die PCGH-Testsequenz nachgestellt. Der E8400 hat starke Schwankungen gezeigt. Fps Werte waren aber ~30% höher als von der PCGH gemessen. Q9xxx eingebaut, qualitativ das selbe Bild.

Gibt es die Daten von dem China-Test im Rohformat?

aufkrawall
2013-03-18, 14:25:47
Bei mir läuft BF3 auch bescheiden. Habe die PCGH-Testsequenz nachgestellt.
Ob das mal nicht am Spiel liegt, die ruckelt bei mir im Gegensatz zum MP nämlich auch.

Gipsel
2013-03-26, 17:52:06
Hier übrigens mal ein neuer Artikel von Anandtech zu dem Thema (http://www.anandtech.com/show/6857/amd-stuttering-issues-driver-roadmap-fraps) (durchgelesen habe ich es mir noch nicht), der versucht, das zu erklären und Ursachenforschung zu betreiben (offenbar aus AMDs Sicht bzw. mit Input von denen).

fondness
2013-03-26, 18:03:42
Gut das man Multi-GPU-Microruckler auch gleich mit angeht:
In their July driver AMD will be introducing a multi-GPU stuttering control that will let the user pick between an emphasis on latency, or an emphasis on frame pacing. The former of course being their current method, while the latter would be their new method to reduce micro-stuttering at the cost of latency.

ndrs
2013-03-26, 18:06:02
Gut das man Multi-GPU-Microruckler auch gleich mit angeht:
Klingt, als würden sie einfach mehrere Frames puffern und dann gleichmäßig ausgeben. Keine schöne Lösung.

fondness
2013-03-26, 18:08:42
Klingt, als würden sie einfach mehrere Frames puffern und dann gleichmäßig ausgeben. Keine schöne Lösung.

Für eine gleichmäßige Frameausgabe musst du eine Karte hin und wieder einbremsen um wieder synchron zu sein, das kostet natürlich Latenz.
Du kannst ja kaum eine Karte schneller rechnen lassen. :D

aufkrawall
2013-03-26, 18:11:36
Für eine gleichmäßige Frameausgabe musst du eine Karte hin und wieder einbremsen um wieder synchron zu sein, das kostet natürlich Latenz.

Wieso nur eine und nicht gleich zwei?

fondness
2013-03-26, 18:17:26
Wieso nur eine und nicht gleich zwei?

Hm? Wenn du beide einbremst ändert sich nichts außer das du fps verlierst. Die zweite Karte sollte idealerweise erst dann zu rechnen anfangen wenn die erste ca. 50% der Rechenzeit bereits abgeschlossen hat. Einfacher wäre es aber natürlich die fertig berechneten Frames zu buffern.

Rente
2013-03-26, 18:37:23
Hier übrigens mal ein neuer Artikel von Anandtech zu dem Thema (http://www.anandtech.com/show/6857/amd-stuttering-issues-driver-roadmap-fraps) (durchgelesen habe ich es mir noch nicht), der versucht, das zu erklären und Ursachenforschung zu betreiben (offenbar aus AMDs Sicht bzw. mit Input von denen).
Sehr interessanter Artikel, allerdings schießen sich sowohl AMD als auch der Autor auf den ersten Blick viel zu sehr auf FRAPS ein, dabei ist das ganze auch schon mit Capture-Cards gemessen worden die fast am Ende (es kommt ja nur noch der Bildschirm und dessen Technik normalerweise) der Kette sitzen.

Ich les dann mal weiter... ;)
€: Hey, die context queue wird mal erklärt...

€²: So, jetzt bin ich komplett durch:
Nett von AMD, dass sie zumindestens scheinbar so offen mit dem Thema umgehen, von nVidia hört man dazu ja nur wenig bis garnichts.

Allerdings schreien für mich die Erklärungen von AMD eher nach einer Art Beschwichtigungstaktik bzw. sogar Verschleierungstaktik. Zuerst werden (ansich nachvollziehbar) die Messungen durch FRAPS als nicht adäquat eingestuft, dann wird eine Methode (GPUView) vorgeschlagen, die zumindestens auf den ersten Blick - und der Autor bestätigt das auch - viel zu komplex ist, ohne dann noch danach auf andere, eventuell praktischere Varianten (z.B. die angesprochenen Capture-Cards, siehe: http://www.pcper.com/reviews/Graphics-Cards/Frame-Rating-New-Graphics-Performance-Metric) einzugehen.

Darüber hinaus sieht nVidia, auch wenn FRAPS wohl nicht so richtig geeignet ist, dort doch oft deutlich besser aus (eventuelle, CPU-indizierte Fälle mal außen vor gelassen) - AMDs Erklärung dazu ("Wir dachten alle hätten das und es wäre normal") ist mir einfach zu billig und zu einfach.

Der Kommentar bei Anand passt dazu auch ganz gut:
As a long time ATI/AMD fan this report doesn't fill me with confidence. It appears AMD is using anandtech for their public relations spin on the stuttering issue. I don't blame anandtech for running the story, AMD's comments are newsworthy and anandtech deserves credit for being honest about AMD's intentions. On the negative side, the explanation about fraps not being an effective tool only need to be said once, it seems (by the number of times it was mentioned) that AMD's message is to make sure everyone knows Fraps its not accurate, but doesn't explain why Nvidia performs better.

On the issue, it sounds like AMD is conceding and preparing us for much of the same. No where in the explanation do they mention why Nvidia performs better in the latency tests, other than to say its not what the end user is seeing. Well I disagree, users have been complaining about stuttering for years. I just don't believe that AMD have never looked into this issue before. Also with the multi-gpu stuttering. It has been an issue since crossfire/SLI first appeared and nothing has really happened there.[...]
Den angesprochenen Schalter im CCC für Multi-GPU anzubieten um entweder eher Richtung Latency oder Frame-Smoothing zu wählen finde ich prinzipiell jetzt allerdings auch nicht so verkehrt wenn es denn halbwegs funktionieren sollte, nVidia baut ja an etwas ähnlichem.