PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : CPU-Upgrade für Spiele: Von Athlon II X4 635 auf Core i5-3570K


Döner-Ente
2012-09-02, 23:03:46
Vorab: Das wird mehr ein kurzer Erfahrungsbericht als ein richtiges Review mit Benchmark-Tabellen etc., wer darauf keine Lust hat, schnell zurück im Browser.

Es hält sich ja teilweise noch recht hartnäckig die Meinung, dass für Spiele die Graka ausschlaggebend ist und übertrieben gesagt jeder Feld-Wald-und-Wiesen-Quadcore ausreicht bzw. im Zweifel die GPU die wichtigere Rolle spielt.
Klar, je nach Spiel und Settings (DS, SSAA) kann schnell die GPU nach oben hin limitieren, aber das ist erstmal egal, wenn die CPU zu schwach ist, um selbst bei moderaten Settings die GPU schnell genug mit Daten zu versorgen.
Spätestens unterhalb 30 Fps, je nach Engine auch schon eher, fängts an, dass Spiele sich nicht mehr so fein anfühlen.

Ich habe mich die letzte Zeit noch mit einem Athlon II X4 635 durchgemogelt, aber immer öfter mit min-Fps im "Unschön-Bereich" zu kämpfen gehabt.
Deswegen habe ich jetzt von erwähnten Athlon auf einen i5-3570k nebst nötigen Zutaten (Board+Speicher) gewechselt, der Rest des Systems ist gleichgeblieben bzw. die Zunahme an ein Speicher von 6 auf 8 GB und die SSD sind für Spiele-Performance eher nebensächlich (von Diablo III und der SSD mal abgesehen :eek:).
Grafik-Settings jeweils moderat gewählt, also so, dass die GTX 460 potentiell 50-60 Fps erreichen kann, wenn sie denn schnell genug gefüttert wird.

Im folgenden einige Spiele im Vorher-Nachher-Vergleich:

- Skyrim: Vorher in den berüchtigten Gegenden (z. B. Markath, Rifton etc.) Fps um die 30, selbst mit den nachgepatchten Leistungssteigerungen. Nachher: Fps immer auf mit Limiter eingestellten 50, egal wo und egal wann.
- Shift 2: Vorher, gerade bei vielen Gegnern und Nachtfahrten, min-Fps 20-30. Nachher: 50-60, egal wo und wann. Lustig hierbei das Verhältnis aus CPU-Auslastung und Fps: Der Athlon hat sich hier für 25-30 Fps mit 40-60% Auslastung abgemüht, der i5 schaukelt 60 Fps mit 20-30% Auslastung.
- Just Cause 2: Zwar vorher jederzeit schon gut spielbare 30-40 Fps, aber auch hier nachher quasi durchgängig am 60-Fps-Limit-Anschlag.
- Sleeping Dogs: Vorher zwar nachts auch schon gute Fps, dafür aber tagsüber und insbesondere bei Tageszeitenwechsel 25-30 Fps. Nachher: 55-60 Fps durchgängig, auch bei Tage und rumheizen in der Stadt.
Werde die Tage nochmal die Rockstar-CPU-Hogs aka GTA IV und LA Noire und die "Hauptsache viel Takt auf einem Kern"-Stalker-Serie installieren, aber ich habe keinen Zweifel, dass das auch hier ein völlig neues Spielgefühl sein wird....

Summa summarum: Das macht mal einen lockeren Anstieg der fürs Wohlgefühl beim Spielen relevanten min-Fps um 100% und aus dem Krepel- in den Jederzeit-sorglos-Bereich, und das Ganze noch mit geringerem Stromverbrauch:
Der i5 verbraucht im typischen Spielebetrieb bei so ca. 50-60% Auslastung, dauerhaft anliegenden 3,8 Ghz und um 0,15 V untervoltet gerade mal ~40 Watt, aufm Desktop mit Browser+Mp3-Player 9-10 Watt.

Auch bei Alltags-Aufgaben liegen Welten zwischen den beiden CPU´s:
Das Syncen meiner Daten und Einstellungen auf eine externe HD mittels Synctoy hat vorher 5-10 Minuten gebraucht, der Athlon war insbesondere beim Abgleich der Google Chrome-Profildaten mit 70-90% anscheinend gut beschäftigt. Jetzt dauert das noch 1-2 Minuten und der i5 langweilt sich dabei...

Moral von der Geschicht: Wer noch mit Athlon/Phenom unterwegs ist und über seine Spiele-Performance unzufrieden ist...ein CPU-Wechsel lohnt sich hier sehr viel mehr als noch ne dickere Graka einzubauen, die dann in den entscheidenden Momenten aka min-Fps nicht schnell genug bedient werden kann.
Kostenmäßig hinkt der Vergleich zugegebenermaßen sehr, da die Intel-Lösung mal locker mit mehr als dem Doppelten zu Buche schlägt, aber dafür bekommt man auch entsprechend mehr Leistung.

ux-3
2012-09-02, 23:13:43
Wenn er fast @Stock läuft, warum dann K?

Ronny145
2012-09-03, 01:05:39
Wenn er fast @Stock läuft, warum dann K?


Um die Möglichkeit der späteren Übertaktung zu haben, wenn die Leistung irgendwann nicht mehr genügsam ist? Größerer Wiederverkaufswert?


Shift 2 mit vielen Gegnern kann ich mir gut vorstellen. In Sleeping Dogs muss ähnlich wie in GT4 viel KI berechnet werden nehme ich an. In all den Spielen braucht es entsprechend CPU Leistung.

TheRaven666
2012-09-03, 08:41:34
Die Kernaussage das CPU's durchaus in der Lage sind zu limitieren ist ja grundsätzlich richtig, allerdings pauschalisiert du deinen Fall für meinen Geschmack etwas zu sehr.

Selbst eine aktuelle DualCore-CPU von Intel mit HT macht die mittlerweile in die Jahre gekommenen Athlon II CPU's nass weil sie eine wesentlich höhere Pro-MHz-Leistung bieten. Skyrim ist ein schlechtes Beispiel für einen Vergleich der beiden genannten CPU's da es nicht mehr als zwei Kerne nutzt. GTA 4 ist beschissen portiert, darüber wurde hier und da auch lang und breit diskutiert.

Zudem kommt es auch immer mit auf die Grafikkarte, Settings und Auflösung an. Das es vorteilhaft ist, ein starke CPU zu haben um Grafikkarten im Bereich HD6950/6970/7870/7950/7970 bzw. GTX570/580/670/680 zu versorgen streitet ja niemand ab, aber wenn man Sleeping Dogs mit maximalen Settings und 1,5-2x Downsamling betreibt limitiert keine CPU mehr weil die Grafikkarte am Limit läuft.

Ein Statement wie "Hallo Leute, die Athlon II CPU's sind mittlerweile wirklich ziemlich alt und es gibt schon schnellere CPU's auf dem Markt" hätte auch gereicht um das Auszudrücken was du mitteilen willst. Meine Freundin spielt immernoch mit ihrem Phenom II 960T und der HD 5850 auf einem 19"er TFT mit nativ 1440x900px und hatte vollkommen ausreichende Spieleperformance für Crysis 2 bei DirectX9 ohne HD-Texturen. Leider wird im 3DCenter als "Enthusiasten-Plattform" immer davon ausgegangen man sei der Nabel der Computerwelt und neigt extrem zu vereinfachten Paschaulisierungen, so auch hier.

JVC
2012-09-08, 11:33:55
ich kann die erfahrung nur bestätigen ...

hatte nen phenom 2 X4 940 @ 3,6GHZ und ne 5870 ( altes mobo mit DDR2 )
nach unzureichender spieleperformance in gerade rollenspielen kaufte ich ne 7970 @ 1100/1500 und war seer entäuscht .

etwas später besorgte ich mir auch den I5 3570K @ 4,6GHZ und erlebte echt ein wunder ! alles lief aufeinmal wie um welten besser !

der grafikkartenwechsel brachte stellenweise nur seeeer wehnig wobei der CPU wechsel die performance nahezu verdoppelte oder gar noch mehr !

ich hätte gute lust die alte 5870 nochmal zu probieren um zu sehen wies dann aussieht ^^

naja ziehl ereicht ...guild wars 2 1920x1200 alles max total flüssig ( selten knapp unter 60fps )

am 2T rechner der die alte hardware beherbergt selbst mit wesentlich schlechteren einstellungen teilweise seer unrund , abgesehen von der wesentlich schlechteren grafik ...

ich hab vor dem CPU upgrade auch viel gelesen und fast alle meinten meinten das die alte CPU loooocker reicht ......
naja dem war nicht so und das auf äuserst krasse weise ^^

m.f.g. JVC

fdk
2012-09-08, 13:17:34
Zudem kommt es auch immer mit auf die Grafikkarte, Settings und Auflösung an. Das es vorteilhaft ist, ein starke CPU zu haben um Grafikkarten im Bereich HD6950/6970/7870/7950/7970 bzw. GTX570/580/670/680 zu versorgen streitet ja niemand ab, aber wenn man Sleeping Dogs mit maximalen Settings und 1,5-2x Downsamling betreibt limitiert keine CPU mehr weil die Grafikkarte am Limit läuft.

Ein Statement wie "Hallo Leute, die Athlon II CPU's sind mittlerweile wirklich ziemlich alt und es gibt schon schnellere CPU's auf dem Markt" hätte auch gereicht um das Auszudrücken was du mitteilen willst. Meine Freundin spielt immernoch mit ihrem Phenom II 960T und der HD 5850 auf einem 19"er TFT mit nativ 1440x900px und hatte vollkommen ausreichende Spieleperformance für Crysis 2 bei DirectX9 ohne HD-Texturen. Leider wird im 3DCenter als "Enthusiasten-Plattform" immer davon ausgegangen man sei der Nabel der Computerwelt und neigt extrem zu vereinfachten Paschaulisierungen, so auch hier.

Das man mit AMD CPUs "ausreichende" Leistung bekommst ist ebenfalls nichts neues - schließlich verwendet selbst das AMD Marketing diesen Begriff.

Und auch im absoluten GPU-Limit kannst du sehr wohl noch Unterschiede bei den min-fps feststellen.

y33H@
2012-09-08, 13:34:35
Ich versuche den Leuten seit Jahren klar zu machen, dass man eine gescheite CPU nutzen sollte - aber idR redet man gegen eine "die GraKa limitiert eh"-Wand, was aber oft genug schlicht Bullshit ist. "Ausreichend" ist übrigens Note 4, also kurz vor "Mangelhaft".

harzer_knaller
2012-09-08, 16:41:59
Ausreichend ist bestanden. Bestanden ist gut. Gut ist 2. ;)

@Topic: Dass ein Athlon II weniger Leistung bringt als ein neuer i5 ist doch abzusehen.
Dem stehen aber auch, wie bereits erwähnt, Mehrkosten bei der Beschaffung der Plattform (Board+CPU) entgegen.
Wer mehr bezahlt bekommt mehr Leistung.

Daredevil
2012-09-08, 17:15:39
Zudem ist die CPU ja auch der Faktor, den man nur sehr schwer kontrollieren kann.
Also wenn du ein Conroe Dual Core hast und GTA4 spielst, bist du am Arsch. Da kannst du an Settings kaum was drehen, das macht erst richtig Spaß ab Quad Core.
Wenn du aber ein nicht so CPU limitiertes, sondern GPU limitiertes Spiel vor dir hast, kannst du an Details einschränken, AA/AF deaktivieren, die Auflösung senken. Das sieht zwar dann nicht so prall aus, aber du hast immerhin noch die Möglichkeit, halbwegs akzeptabel zu zocken.

NaomyMadlener
2012-09-08, 17:16:37
Ausreichend ist bestanden. Bestanden ist gut. Gut ist 2. ;)

@Topic: Dass ein Athlon II weniger Leistung bringt als ein neuer i5 ist doch abzusehen.
Dem stehen aber auch, wie bereits erwähnt, Mehrkosten bei der Beschaffung der Plattform (Board+CPU) entgegen.
Wer mehr bezahlt bekommt mehr Leistung.

Dem stimme ich vollkommen zu. Zudem bin ich der Meinung das häufig ein Festplattenupgade auf eine SSD den besseren Zuwachs gewinnt als zb. eine neue CPU mit Mainboard.

y33H@
2012-09-08, 17:39:25
Es startet halt alles flotter, aber Spiele laufen nicht schneller ;-)

Gast
2012-09-08, 20:17:13
Also ich muss mal vorneweg sagen , dass du von VW Polo auf Mercedes AMG oder Ente von Citroen auf Ferrari umsteigen willst. Ich habe mit der AMD 975, 960T sowie Intel 2500K und 2600K Benchmarks gemacht, sowie einer 560Ti 2GB Phantom und einer Gigabyte 570 SOC. Mein aktueller 1. PC mit der 570 SOC macht im 3DMark11 6690 Punkte und von meinem Kumpel die normale 580 GTX mit seinem AMD FX-8120 125W 8x 3.10GHz macht gerade mal 5700 Punkte. Bei MW3 spielt das keine Rolle bei Battelfield 3 kann er wiederum nicht an meine FPS rankommen, aber nur minimal. Was jetzt dein Graka betrifft wird das nicht so viel besser werden, erst bei einer besseren Graka für FC3 oder Crysis 3 würde ich dir zu einem grösseren Update raten.

larodar
2012-09-08, 21:33:37
Schöner Erfahrungsbericht

Sein persönliches Fazit kann ja jeder selber machen :)

R.I.P.
2012-09-08, 21:40:54
Juhuuu! Auch hier eine coole Geschichte:

Bin von einem Fahhrad, was 75 Euro kostet, auf ein Motorrad, daß 210 Euro kostet umgestiegen und wisst ihr was, das Motorrad ist um einiges schneller. Gratuliere!

Ronny145
2012-09-08, 23:05:26
Juhuuu! Auch hier eine coole Geschichte:

Bin von einem Fahhrad, was 75 Euro kostet, auf ein Motorrad, daß 210 Euro kostet umgestiegen und wisst ihr was, das Motorrad ist um einiges schneller. Gratuliere!


Der Vergleich hinkt. Oder ist das ein Trollversuch? Wenn das so einfach wäre und wir die theoretische Mehrleistung in Spielen immer erhalten würden, gäbe es diese Diskussionen gar nicht. Die Abhängigkeiten sind andere. Vergleichbarer wären Anwendungsleistungen ohne 3D Einfluss, also keine Spiele, die stark von der Grafikkarte bestimmt werden. Die Aussage vom Threadstarter hast du gar nicht verstanden. Und auch ist dir entgangen, dass CPU Leistung für Spiele immer runtergespielt wird.

Curunir
2012-09-08, 23:16:07
Ich glaube, es ist nicht allen bewußt, daß der 635er zwar Athlon II heißt, dahinter aber noch X4. Das ist schon ein Vergleich Quad gegen Quad.

Die Benchmarks und Spieletests hatten ja immer schon darauf hingewiesen, daß der L3-Cache nicht zu unterschätzen ist, demnach hätte das beschriebene System mit einem Phenom II gleicher oder höherer Taktung sicher auch noch etwas bessere Ergebnisse erzielt. Aber wahrscheinlich nicht soviel besser, daß es die Upgrade-Kosten rechtfertigt. Das vollzogene Upgrade ist so ziemlich das beste, was man als Spieler aktuell tun kann. Das muß ich als langjähriger AMD-Nutzer neidlos anerkennen.

Maorga
2012-09-09, 00:33:49
Also ich hab' von einem P2 945 (@3.5GHz) auf einen I3570K(@4.0GHz). Bei keinem Spiel habe ich einen signifikaten Unterschied erfahren. Von Mafia2 über Batman bis hin zu Shogun2. Bei mir sind keine Frames in die Höhe geschnellt, liegt vielleicht auch an der GeForce560Ti (@900MHz).

Das Syncen meiner Daten und Einstellungen auf eine externe HD mittels Synctoy hat vorher 5-10 Minuten gebraucht, der Athlon war insbesondere beim Abgleich der Google Chrome-Profildaten mit 70-90% anscheinend gut beschäftigt. Jetzt dauert das noch 1-2 Minuten und der i5 langweilt sich dabei...

Also wenn dein Athlon 2 bei einer externen HD länger braucht als dein jetziges System muss dann an USB liegen aber nicht an der CPU.

Der L3 Cache dürfte kaum bis gar keine Rolle spielen bei Spielen, wenn überhaupt maximal 10%.


Klar kann es Situationen geben wo mehr CPU Power gefordert und benötigt werden. Aber selbst bei Gothic 3 habe ich keinen sonderbaren Speedschup erhalten. Die Grafikkarte verhält sich so wie sie sich verhalten muss.

Döner-Ente
2012-09-09, 00:46:58
Ich glaube, es ist nicht allen bewußt, daß der 635er zwar Athlon II heißt, dahinter aber noch X4. Das ist schon ein Vergleich Quad gegen Quad.

Die Benchmarks und Spieletests hatten ja immer schon darauf hingewiesen, daß der L3-Cache nicht zu unterschätzen ist, demnach hätte das beschriebene System mit einem Phenom II gleicher oder höherer Taktung sicher auch noch etwas bessere Ergebnisse erzielt. Aber wahrscheinlich nicht soviel besser, daß es die Upgrade-Kosten rechtfertigt. Das vollzogene Upgrade ist so ziemlich das beste, was man als Spieler aktuell tun kann. Das muß ich als langjähriger AMD-Nutzer neidlos anerkennen.

Das stimmt, ein vorhandener L3-Cache und mehr Takt pro Kern hätten hier sicherlich noch einige Fps gebracht.

Es lag auch nicht in meiner Absicht, AMD oder den Athlon schlecht zu machen, noch habe ich die Preisdifferenz von locker doppelt so viel € vergessen.

Ich glaube aber, dass vielen Spielern nicht klar ist, welchen Einfluss die CPU auf die min-FPS (und damit die subjektive Spielbarkeit) hat (war mir ja selber bis zum Upgrade nicht klar :)).
Zu viele Meinungen im Netz suggerieren halt imho "jeder Quad-Core um die 3 Ghz reicht locker für alle aktuellen Spiele" (auch z. B. diese lustigen Gamestar-Technikcheck-Tabellen :D) und das stimmt halt einfach nicht.

Aber wie ich sehe, haben mich durchaus so einige verstanden :smile:.

Gast
2012-09-09, 02:09:49
Die Athlons waren für mich eher Krücken, die einzige Ausnahme war der 64er... schätze das selbst die Phenoms an gewissen Stellen schon Einbrüche hatten, die man im Benchbalken nie gesehen hat (wenn eine 2Minuten demo nur 10sek cpu limitiert ist, fällt das am Endergebniss kaum auf, aber an der spielbarkeit).

Mich würde vorallem mal interessieren, wie stark die Performance vom Q6600 @2,4 und @3,2 GHz ansteigt. Gibt es dazu irgendwelche vernünftige Vergleiche?? (am besten reine CPU performance)
Übertakten geht nix mehr, schon am Limit..

R.I.P.
2012-09-09, 07:29:17
@Ronny

Der Vergleich hinkt mMn nicht. Und ich habe das erste post genau verstanden. Bin natürlich überglücklich, dass ein mit Hausverstand bereits klarer Fall (3570k schneller und mit höheren FPS bei nicht grafiklimitierten Settings) gepostet wird und alle darauf fliegen wie Fliegen auf die Sch.....
Trotzdem kostet der Athlon 75 Euro und der Intel 210 Euro. Wenn dabei der Athlon auch noch schneller gewesen wäre, dann ist irgendetwas Falsch.

Was mich auch ein wenig stört sind dahingeschmissenen FramesPS oder Verbrauchswerte, 9-10W im Desktop sind erstens mal zu beweisen und mMn einfach nur in den Raum geworfen.

Nochmals zurück zu dem Preis der einzelnen CPU: was soll daran nicht verständlich sein? Zwei auf 3 GHz Quad liefern nicht dieselbe Leistung? Die eine CPU kostet 75 Euro, die andere 210 Euro: bietet die 210 Euro CPU die 3fache Leistung der ersten? Also 3fache minFrames und 3fache maxFrames mit 3fachen abgFrames? Nein? Dann troll ich mal: so ne dumme CPU, kostet 3 mal so viel und leistet in den "meisten" Spiele nicht mal doppelt so viel

ux-3
2012-09-09, 08:43:08
Nochmals zurück zu dem Preis der einzelnen CPU: was soll daran nicht verständlich sein? Zwei auf 3 GHz Quad liefern nicht dieselbe Leistung? Die eine CPU kostet 75 Euro, die andere 210 Euro: bietet die 210 Euro CPU die 3fache Leistung der ersten? Also 3fache minFrames und 3fache maxFrames mit 3fachen abgFrames? Nein? Dann troll ich mal: so ne dumme CPU, kostet 3 mal so viel und leistet in den "meisten" Spiele nicht mal doppelt so viel


Aud den ersten Blick logisch, auf den zweiten nicht. Am Ende sollte man die Preise der Rechner vergleichen. Denn auch die günstigere CPU will ein NT und RAM haben.

Wenn der eine Rechner 600 Euro kostet und der andere Rechner 735 Euro, wie verhält sich die Leistung dann? Immer bedenken, du hast 525 Euro schon investiert.

R.I.P.
2012-09-09, 09:01:15
Aud den ersten Blick logisch, auf den zweiten nicht. Am Ende sollte man die Preise der Rechner vergleichen. Denn auch die günstigere CPU will ein NT und RAM haben.

Wenn der eine Rechner 600 Euro kostet und der andere Rechner 735 Euro, wie verhält sich die Leistung dann? Immer bedenken, du hast 525 Euro schon investiert.

Hmm, verstehe jetzt deinen Einwand nicht: Das Netzteil, das für beide Systeme verbaut wird ist gleich (bitte bitte komme mir nicht damit, dass der Athlon so viel mehr verbraucht, dass man mindestens ein Netzteil mit 100 W mehr braucht).
RAM wird auch der geliche verbaut: 1600ter sollte es bei beiden sein. 1866er sollte es bei einer APU sein wo die IGP verwendet wird. Ohne dieser reicht 1600ter vollkommen. Also wieder Gleichstand. Wenn man jedoch das MoBo miteinrechnet, dann zieht der Intel den Kürzeren.Damit würde sich das P/L Verhältnis nochmals verschlechtern.
Was habe ich falsch verstanden an deinem Einwand?

ux-3
2012-09-09, 09:41:11
Hmm, verstehe jetzt deinen Einwand nicht: Das Netzteil, das für beide Systeme verbaut wird ist gleich (bitte bitte komme mir nicht damit, dass der Athlon so viel mehr verbraucht, dass man mindestens ein Netzteil mit 100 W mehr braucht).
RAM wird auch der geliche verbaut: 1600ter sollte es bei beiden sein. 1866er sollte es bei einer APU sein wo die IGP verwendet wird. Ohne dieser reicht 1600ter vollkommen. Also wieder Gleichstand. Wenn man jedoch das MoBo miteinrechnet, dann zieht der Intel den Kürzeren.Damit würde sich das P/L Verhältnis nochmals verschlechtern.
Was habe ich falsch verstanden an deinem Einwand?

Sorry, dann versuche ich es noch mal anders:

Wir sind uns was NT, Ram, Gehäuse, Graka etc. angeht einig. Das wird gleich viel kosten. Beim Mobo, NT und beim Kühler mag es kleine Unterschiede geben, die heben sich aber tendenziell auf. In meinem Beispiel kostet der Unterbau 525 Euro. Und nun kommt die CPU dazu. Mit dem Athlon landest du bei 600 Euro, mit dem Intel bei 735 Euro
Also hast du entweder den AMD Rechner für 600 Euro oder den Intel Rechner für 735 Euro. Der Intel Rechner ist aber fast 50% schneller. Gemäß deiner Argumentation wäre dann der Intel-PC die schlauere Wahl, weil 50% schneller, aber nur 22,5% teurer.

Wenn man Leistungsfähigkeit vergleicht, macht es m.E. schon Sinn, nicht nur die Einzelkomponenten im P/L zu vergleichen, sondern die Systeme.

R.I.P.
2012-09-09, 10:16:14
Was du behauptest ist zwar klar und verständlich, ändert jedoch wenig am Sinn deines ersten Posts. Da der Untersatz mehr oder weniger bei allen Systemen gleich viel kostet, könntest du ja auch eine Extreme Edition von Intel verbauen und der Preisunterschied würde sich im vergleich zur reinen CPU relativieren. Grundsätzlich stimmt deine Aussage jedoch.

Es ist egal, wir können lange noch diskutieren, was ich sagen wollte ist folgendes: du vergleichst 2 unterschiedliche CPUs aus unterschiedlichen Leistungsklassen. Ganz egal, dass beide mehr oder weniger 3 Ghz haben und beide Quads sind. Einer kostet 75 Euro und der andere 210 Euro. Ich nehme mal einen Vergleich von PCGH, um nicht ohne Daten dazustehen (was inzwischen üblich ist): bei einer normierten Leistung von 100 (wo 100 die Leistung eines i7-3960X ist) hat der X4 den Leistungsindex 51,3 und der 3570K 83,6 bei entsprechenden 75 bzw. 210 Euro. Da ergibt 0,684 Leistung pro Euro für den X4 vs. 0,398 Leistung pro Euro für den 3570K.

Beim Wechsel bist du von spielbaren FPS vom X4 auf besser spielbaren FPS vom I5 gewechselt. NICHT von unspielbaren FPS auf spielbaren FPS.
Daß deshalb manche meinen müssen (und noch schlimmer posten müssen) wie schrottig die Athlons sind, ist unkorrekt und wenn dann alle sagen "Jaaa, richtig, an den Pranger mit AMD" geht mir ein wenig auf die Nerven.

Deine Kernaussage bleibt richtig: der 3570k leistet mehr. Wann er mehr leistet? Wenn die CPU auch eine Rolle spielt, also in keinen GPU limitierten Auflösungen und Spielen (was durch die ganzen Konsolenportierungen leider immer mehr der Fall ist; Spiele welche die CPU ausreizen sind leider immer weniger). Vielleicht ändert sich bei minFPS auch dort etwas? Kann sein, aber wieviel? So dass es unspielbar ist? Wohl kaum/selten.

Der 3570k ist ein super Prozessor, kostet jedoch 3 mal so viel wie ein Athlon X4 der Husky-Kerne Serie, welcher sich sehr wohl gut hält, vor allem in Bezug auf seinen Preis.

Deshalb zu behaupten (nicht du), dass er scheiße ist, ist unlogisch, nicht korrekt und trägt zum allgemeinen Befinden bei, dass AMDs CPUs zu nichts zu gebrauchen sind.

Deine 10 W im Desktop glaube ich dir immer noch nicht! :D

Cubitus
2012-09-09, 10:22:18
Wer einen besseren Zockrechner will, der greift zum Intel!
Wer einen günstigen Zockrechner will, der greift zum AMD!

Wo ist das Problem!? ^^

MonsterMeier
2012-09-09, 10:51:13
Hallo,

Passend zu diesem Thread meine Erfahrungen zum Thema CPU vs GPU upgrade:

Vor 2 Tagen bin ich von meinem alten System:

Q9550@3,4 Ghz
8GB Corsair DDR2-800@1066
Asus Formula Rampage
Gigabyte 460GTX OC@822/1644/1000
OCZ Agility 3 128mb

auf einen

i5-3570k
8GB G-Skill Sniper DDR3-1866
Asrock Z77 Pro3

umgestiegen. Grafikkarte, als auch alle anderen übrigen Komponenten blieben gleich. Da ich bisher auch immer der festen Überzeugung war, das die CPU wenigstens im übertackteten Zustand (bis 3,8 Ghz) noch genügend Leistung für aktuelle Games zur Verfügung stellt, wurde ich durch den neuen i5 doch ziemlich überrascht. Nicht nur dass Look&Feel in Win7 auf meiner SSD nun noch einen Tick geschmeidiger rüberkommt (mitunter dank sata2 -> sata3), auch konnte ich in den bisher getesteten Games einen beträchtlichen Anstieg der min-Fps festellen.

Wirbelt mein Barb in Diablo 3 durch 100 Mobs durch, sinkt die fps nicht unter 50, mit der alten CPU regelmäßig unter 25. Generell ist das Spiel recht genügsam, aber nicht mit 3 Mitspielern und 150 Mobs auf dem Screen.

Guild Wars 2 gleiche Einstellungen (alles max ausser supersampling)-> in Löwenstein von 20 fps+ auf 45 fps+. WvWvW vorher 20-40 fps, nun 55fps+

Auch bei Skyrim konnte ich beträchtliche Unterschiede festellen. Bei anderen (meist älteren) Spielen hielt sich der subjektive Performance Anstieg in Grenzen, bzw. fällt aufgrund der mehr als ausreichenden Leistung des Q9550@3,4 Ghz nicht auf.

Meine alte CPU reichte eigentlich bei fast allen Games, um für einen subjektiv flüssigen Spielbetrieb zu sorgen. Das der 3570k@stock(3,4Ghz) gegenüber einem Q9550@3,4 Ghz doch einiges rausholen kann, selbst wenn eine GTX 460 (OC) drin steckt, hätte ich nicht gedacht.

My two cents.

sys64738
2012-09-09, 11:21:29
Der 3570k ist ein super Prozessor, kostet jedoch 3 mal so viel wie ein Athlon X4 der Husky-Kerne Serie, welcher sich sehr wohl gut hält, vor allem in Bezug auf seinen Preis.

Die Sache ist doch, daß ein Athlon heutzutage in vielen Bereichen einfach nicht mehr ausreichend ist, was ihn trotz des günstigeren Preises einfach nur teuer macht, da er in sehr vielen Fällen unnütz ist, weil seine Leistung nicht ausreicht. Insbesondere wenn man die Kosten des Systems vergleicht und nicht nur den Preis der CPU.
Zum Thema gibt es einen zwar angegrauten aber immer noch lesenswerten Artikel:
http://www.computerbase.de/artikel/grafikkarten/2011/bericht-gpu-braucht-cpu/7/

Maorga
2012-09-09, 11:49:35
Die Sache ist doch, daß ein Athlon heutzutage in vielen Bereichen einfach nicht mehr ausreichend ist, was ihn trotz des günstigeren Preises einfach nur teuer macht, da er in sehr vielen Fällen unnütz ist, weil seine Leistung nicht ausreicht. Insbesondere wenn man die Kosten des Systems vergleicht und nicht nur den Preis der CPU.
Zum Thema gibt es einen zwar angegrauten aber immer noch lesenswerten Artikel:
http://www.computerbase.de/artikel/grafikkarten/2011/bericht-gpu-braucht-cpu/7/

Naja angegraut ist er ja noch nicht - dort steht doch 'haste nen AMD 4Kerner halbwegs gut getaktet (+3,0GHz) oder einen Intel 2 Kernprozzi musste dir keine Gedanken machen'
Und diese Aussage gilt heute noch. Ich kenn' einige die haben nur 2Kerner drinnen und können damit auch flüssige Frames erreichen.

CosmiChaos
2012-09-09, 12:13:41
Soll uns das jetzt wundern oder irgendwas sagen? Ich mein du hattest nen Athlon X4 635... sag mal wo haste den Billigkram eigentlich ausgegraben und wie kommste darauf den mit einem mind. 110% teureren CPU zu vergleichen? Der AMD hat weder einen L3-Cache noch ist er so hoch getaktet wie der Intel. Ganz anders wie angesprochen überhaupt nicht mit einem Phenom II gleichzusetzen, erst recht nicht wenn der auf bis zu 4 Ghz läuft.

Vorher:
TDP: 95W • Fertigung: 45nm • L2-Cache: 4x 512kB • HT: 4.0GT/s • Memory Controller: Dual Channel PC3-10667U (DDR3-1333)

Nachher:
TDP: 77W • Fertigung: 22nm • L3-Cache: 6MB shared • DMI: 5GT/s • Memory Controller: Dual Channel PC3-12800U (DDR3-1600)

Genausogut hätte ichn thread aufmachen können indem ich eine Nvidia 8800GTS mit einer ATI 7850 vergleiche und stolz berichte was ich jetzt für max-fps habe und dass n´sichn Upgrade lohnt. Natürlich lohnt der Umstieg von veralteter Mainstream-Ware immer!

Willste uns irgendwie vereimern? Was erwartest du für Antworten? Toll mach weiter so?

Und das sowas "Lahmes" dann auch nur zur Diskussionsanregung verlinkt wird... völlig sinnfrei.

ux-3
2012-09-09, 12:16:42
Was du behauptest ist zwar klar und verständlich, ändert jedoch wenig am Sinn deines ersten Posts.

Beim Wechsel bist du von spielbaren FPS vom X4 auf besser spielbaren FPS vom I5 gewechselt.

Deine 10 W im Desktop glaube ich dir immer noch nicht! :D

Kann es sein, dass du mich gerade mit dem TS verwechselst? ;)


Da der Untersatz mehr oder weniger bei allen Systemen gleich viel kostet, könntest du ja auch eine Extreme Edition von Intel verbauen und der Preisunterschied würde sich im vergleich zur reinen CPU relativieren.

Und das würde ich in der Tat dann auch erwägen, wenn für mein Anwendungsgebiet eine P/L würdige Mehrleistung herauskommt.





Wer einen günstigen Zockrechner will, der greift zum AMD!


Ich dachte, der kauft einen gebrauchten i3-2?



Und noch mal etwas allgemeineres: Was die Döner-Ente beobachtet hat, ist das Schicksal aller Grafik-Benchmarks, die ich so kenne: Nach einigen Jahren wird jeder Grafikbench zum CPU-Bench.


Genausogut hätte ichn thread aufmachen können indem ich eine Nvidia 8800GTS mit einer ATI 7850 vergleiche und stolz berichte was ich jetzt für max-fps habe und dass n´sichn Upgrade lohnt. Natürlich lohnt der Umstieg von veralteter Mainstream-Ware immer!

Der Zusammenhang Grafikkarte-Bildrate liegt schon ein bischen offener. Wenn man von einer alten SB 5.1 Live! auf eine Asus Xonar wechselt, erwartet man nicht unbedingt 40% mehr Frames.

Gast
2012-09-09, 13:40:59
Es startet halt alles flotter, aber Spiele laufen nicht schneller ;-)

Diese Behauptung ist genauso schlimm wie die "Gpu limitiert eh - Wand". Als gäbe es keine Spiele welche dauernd nachladen und dadurch ein min. Fps Problem haben.

R.I.P.
2012-09-09, 15:07:46
Kann es sein, dass du mich gerade mit dem TS verwechselst? ;)

:eek: Sorry, das habe ich tatsächlich. Tut mir Leid.

Döner-Ente
2012-09-09, 16:28:44
:eek: Sorry, das habe ich tatsächlich. Tut mir Leid.

Bitte:

http://www.abload.de/img/aidarzubb.png (http://www.abload.de/image.php?img=aidarzubb.png)

aufkrawall
2012-09-09, 16:46:26
Diese Behauptung ist genauso schlimm wie die "Gpu limitiert eh - Wand". Als gäbe es keine Spiele welche dauernd nachladen und dadurch ein min. Fps Problem haben.
Ich merk von nem flotten Raid 0 auf ne flotte SSD bei Spielen nicht den Riesenunterschied.

Hellstaff
2012-09-09, 17:01:24
Mich würde vorallem mal interessieren, wie stark die Performance vom Q6600 @2,4 und @3,2 GHz ansteigt. Gibt es dazu irgendwelche vernünftige Vergleiche?? (am besten reine CPU performance)
Übertakten geht nix mehr, schon am Limit..

Würde mich auch interessieren. Speziell wie die Q9xxx Serie mit dem höheren FSB gegen den Q6600 FSB performt.

larodar
2012-09-09, 17:19:40
Können sich bitte mal die ganzen superschlauen Trolls aka R.I.P. oder Cosmichaos aus dem Thread entfernen.

Dönerente hat hier schlicht und ergreifend einen subjektiven Erfahrungsbericht geschrieben. Er betreibt hier weder Werbung von Intel noch behauptet er den Standard eines Reviews zu erreichen, nein das hatte er auch gar nicht vor.

Er hat hier lediglich seine persönlichen Erfahrungen geschildert, die darf doch jeder werten wie er will, ich persönlich finde es eine interessante Erkenntnis.

Warum ihr 2 versucht das "gewonnene Wissen" als Selbstverständlichkeit oder Lachnummer darzustellen entgeht mir. Aber hey, vielleicht bin ich ja einfach nicht so schlau wie ihr.

Maorga
2012-09-09, 17:39:03
Können sich bitte mal die ganzen superschlauen Trolls aka R.I.P. oder Cosmichaos aus dem Thread entfernen.

Dönerente hat hier schlicht und ergreifend einen subjektiven Erfahrungsbericht geschrieben. Er betreibt hier weder Werbung von Intel noch behauptet er den Standard eines Reviews zu erreichen, nein das hatte er auch gar nicht vor.

Er hat hier lediglich seine persönlichen Erfahrungen geschildert, die darf doch jeder werten wie er will, ich persönlich finde es eine interessante Erkenntnis.

Warum ihr 2 versucht das "gewonnene Wissen" als Selbstverständlichkeit oder Lachnummer darzustellen entgeht mir. Aber hey, vielleicht bin ich ja einfach nicht so schlau wie ihr.

Na weil es bedeuten würde bessere CPU mehr FPS was aber nicht so ist. Ich kann auch sagen 90% alle Frauen sind geil auf sex - weil das meine Erfahrung ist.

R.I.P.
2012-09-09, 17:49:24
Warum sollen meine Antworten als Troll-Versuch gewertet werden? Habe im Gegensatz zu anderen immer argumentiert warum ich bestimmte Sachen angeführt habe.

@TS
Danke für deine Erfahrung, auch wenn sie für mich und sicherlich für andere eine Selbstverständlichkeit darstellen und ich den Sinn dieses Threads nicht 100% verstehe.

Gast
2012-09-09, 18:35:38
Ich merk von nem flotten Raid 0 auf ne flotte SSD bei Spielen nicht den Riesenunterschied.

Wie soll ich deine Antwort werten? Ausgehend von einem flotten Raid0 merkst du also schon einen Unterschied. Bezogen auf eine single HDD sollte allein durch Logik bestimmt, der Unterschied noch größer sein. Warum gibst du mir nicht einfach grundsätzlich recht?

Maorga
2012-09-09, 18:46:57
Wie soll ich deine Antwort werten? Ausgehend von einem flotten Raid0 merkst du also schon einen Unterschied. Bezogen auf eine single HDD sollte allein durch Logik bestimmt, der Unterschied noch größer sein. Warum gibst du mir nicht einfach grundsätzlich recht?

Er merkt natürlich keinen Unterschied. Da sein Raid System fast genauso schnell ist wie seine SSD - logisch oder.

aufkrawall
2012-09-09, 18:50:52
Er merkt natürlich keinen Unterschied. Da sein Raid System fast genauso schnell ist wie seine SSD - logisch oder.
Unterschied ist schon da, Ladezeiten gehen etwas fixer (wobei mir das fast egal ist).
Es hängt und stockt im Spiel aber auch nicht wirklich weniger, da limitiert was anderes (crappy Streaming, z.B. ;) ).

Gast
2012-09-09, 18:51:36
Er merkt natürlich keinen Unterschied. Da sein Raid System fast genauso schnell ist wie seine SSD - logisch oder.

Keineswegs. Ausser er hat eine verdammt langsame SSD.

aufkrawall
2012-09-09, 18:52:47
Keineswegs. Ausser er hat eine verdammt langsame SSD.
Nicht wirklich.
http://www.abload.de/thumb/samsungkxufv.png (http://www.abload.de/image.php?img=samsungkxufv.png)

Gast
2012-09-09, 19:00:24
Nicht wirklich.
http://www.abload.de/thumb/samsungkxufv.png (http://www.abload.de/image.php?img=samsungkxufv.png)

Lol. Ich bin nicht davon ausgegangen, dass sie langsam ist. Es ist eigentlich auch gerade nicht das Thema. Ich wollte yehaaw nur darauf hinweisen, dass er etwas anprangert, jedoch auf andere Art und Weise dasselbe tut.

Ronny145
2012-09-09, 19:08:58
Diese Behauptung ist genauso schlimm wie die "Gpu limitiert eh - Wand". Als gäbe es keine Spiele welche dauernd nachladen und dadurch ein min. Fps Problem haben.


Welche Spiele laden dauernd und vorallem spürbar von der Festplatte nach? In welchen Spielen werden mit einer SSD höhere min FPS erreicht?

Gast
2012-09-09, 19:17:16
Welche Spiele laden dauernd und vorallem spürbar von der Festplatte nach? In welchen Spielen werden mit einer SSD höhere min FPS erreicht?

Wie schon gesagt, ist das nicht das Thema. Wir beide wissen was mit dem Thread passiert sobald ich ins Detail gehen würde. Meine Intention habe ich oben erläutert und dabei sollte es auch bleiben.

larodar
2012-09-09, 20:42:57
Na weil es bedeuten würde bessere CPU mehr FPS was aber nicht so ist. Ich kann auch sagen 90% alle Frauen sind geil auf sex - weil das meine Erfahrung ist.

Hat er gesagt dass jegliches CPU Upgrade eine Perfomance Steigerung mit sich bringt? Ich glaube nicht.

Er bezog sich auf seine Athlon X4 Cpu und im Fazit auch auf einen Phenom, dabei belegt er es mit seinen Erfahrungen, wo ist hier also deiner Meinung nach der Fehler?

gnomi
2012-09-10, 09:35:50
Das Problem ist, daß das Zocken ohne richtig gute Intel CPU erst gar keinen Spaß mehr macht.
Wer mal die guten Sandy Bridge oder Ivy Bridge Modelle laufen sieht, will denke ich ganz sicher nicht zurück. ;)

Ist auch in dem Techreport Artikel sehr gut zu erkennen: klick (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=531911)

Cubitus
2012-09-10, 09:53:41
Jo guter Test!

Gast_X
2012-09-10, 10:01:08
Ich kann mir gut vorstellen, dass so ein Upgrade einen solchen Geschwindigkeitsschub in Spielen bringt. Allerdings glaube ich kaum, dass man das so auf Intel verallgemeinern kann. Vermutlich wäre der Eindruck der gleiche, würde der TS auf einen Phenom II X6 umsteigen.

Dennoch, wenn ich schon ein Board und Speicher kaufen müsste, dann würde ich jetzt auch auf einen Intel I5 wechseln. Dieser bietet derzeit eine
hervorragende Leistung zu einem angebrachten Preis. Hier kann AMD in dieser Preisregion einfach nicht mithalten.

Cubitus
2012-09-10, 10:07:28
und der Encodungs-Vorgang, wo ja die Allgemeinheit glaubt, je mehr Kerne desto besser, zu irgendwas müssen doch die 6 Kerner von AMD gut sein :freak:. Erschlägt Intel mit Quick-Sync (http://www.intel.com/content/www/us/en/architecture-and-technology/quick-sync-video/quick-sync-video-general.html).

AMD CPUs sind für Einsteiger, Schüler, Studenten oder Bürohengste interessant. Wie gesagt ist ja nicht so als ob man damit gar nicht zocken oder nicht gut arbeiten könnte.

Maorga
2012-09-10, 10:10:10
Also hab' mir mal den Techreport angeschaut. Klar wenn ich 120 Frames brauche dann bringt ne Fette CPU ordentlich etwas. Sobald ich aber MSAA und AF reinhaue begrenzt eigentlich immer zuerst die GPU.

So pauschale aussagen wie jetzt läuft alles flüssiger dank CPU wechsel ist doch irreführend. Man muss doch immer zuerst schauen wo das Bottleneck ist. Wenn ich SLI habe muss ich dementsprechende eine starke CPU haben.

Wer also keine Shooter spielt wo man hohe FPS braucht (BF3 und da sieht ein Athlon 2 X4(P2 X4 840) ohne Cache fast genauso gut aus wie ein Intel), sondern grafisch anspruchsvoll ist mit V-Sync und AA und AF wird bei einem CPU wechsel eben dies nicht bemerken.

Belegungen durch subjektive Wahrnehmung ist toll aber eben nicht aussagekräftig. Wenn man schon in den User Hardwaretest schreibt sollte man das eben schon aufbereiten.

Hier mal Beispiele wie es sein könnte:

Intel (http://home.mnet-online.de/nosc/Frequenz.pdf)
AMD Standard VID (http://home.mnet-online.de/nosc/Standard-VID.pdf)
AMD veringerte Spannung (http://home.mnet-online.de/nosc/TestP2-945.pdf)

Betrifft jetzt zwar was ganz anderes aber man kann daraus zumindest den Verbrauch ablesen und das Verhalten unter Temperaturänderung.

So etwas würde ich mir auch gerne bei einen CPU Upgrade Athlon 2 X4 635 gegen Intel i5-3570K auch vorstellen. Ein paar Spiele zum vergleichen, wo warum etwas limitiert, wie oben schon erwähnt ist bei Skyrim die Engine nicht gerade prickelnd.
Schauen wir uns oben den verlinkten Techreport (http://techreport.com/review/23246/inside-the-second-gaming-performance-with-today-cpus/6) mal BF3 an, huch komisch da ist der P2 ohne Cache fast auf Augenhöhe.

Und bei Aussagen wie:
Moral von der Geschicht: Wer noch mit Athlon/Phenom unterwegs ist und über seine Spiele-Performance unzufrieden ist...ein CPU-Wechsel lohnt sich hier sehr viel mehr als noch ne dickere Graka einzubauen, die dann in den entscheidenden Momenten aka min-Fps nicht schnell genug bedient werden kann.

Das eine stärkere CPU für mehr FPS sorgt ist eben schon sehr weit hergeholt. Aus seinem Beitrag geht auch nicht heruas, handelt es sich jetzt nur um die min Frames per seconds oder ist es generell so von 25-30 FPS auf knapp 50-60 FPS.

Genau wegen dem schreiben ja auch einige so wehement dagegen und bringen auch nicht sinnfreie gegenbeispiele, sei es ich hab' mir ne SSD gekauft merk aber nix.

Daher bitte ich um einen ausführlichen Test mit verschiedenen Spielen dazu einen Vergleich der Frametimes min FPS, durchschnitt und max FPS. Damit sich jeder ein Bild dazu machen kann. Denn jetzt ist es nicht klar ob ich meiner kleinen eine neue CPU geben sollte ;) vielleicht verdoppelt sich dann die FPS und alles läuft flüssig.

Ich finde den Beginn gar nicht schlecht, allerdings noch ein wenig Zeit investieren und du (der TS) hast einen sauberen Beitrag ins Hardwaretest Forum geschrieben.

Ronny145
2012-09-10, 10:17:09
Also hab' mir mal den Techreport angeschaut. Klar wenn ich 120 Frames brauche dann bringt ne Fette CPU ordentlich etwas. Sobald ich aber MSAA und AF reinhaue begrenzt eigentlich immer zuerst die GPU.



Ein Irrtum der sich leider zu lange hält.

fdk
2012-09-10, 10:25:53
90% der Zeit mit ausreichenden FPS unterwegs zu sein reicht eben nicht. Man sollte eigentlich meinen das dieser Umstand zumindest in diesem Forum seit Tombman allerseits anerkannt ist. Mit einer "ausreichenden" CPU hat man eben einen bestimmten Prozentsatz an Frametimes welcher nach oben ausreißt und dieses umrunde Spielgefühl vermittelt. Ähnlich wie bei den microrucklern, nur eben anders zeitlich verteilt.

R.I.P.
2012-09-10, 10:46:08
Also hab' mir mal den Techreport angeschaut. Klar wenn ich 120 Frames brauche dann bringt ne Fette CPU ordentlich etwas. Sobald ich aber MSAA und AF reinhaue begrenzt eigentlich immer zuerst die GPU.

So pauschale aussagen wie jetzt läuft alles flüssiger dank CPU wechsel ist doch irreführend. Man muss doch immer zuerst schauen wo das Bottleneck ist. Wenn ich SLI habe muss ich dementsprechende eine starke CPU haben.

Wer also keine Shooter spielt wo man hohe FPS braucht (BF3 und da sieht ein Athlon 2 X4(P2 X4 840) ohne Cache fast genauso gut aus wie ein Intel), sondern grafisch anspruchsvoll ist mit V-Sync und AA und AF wird bei einem CPU wechsel eben dies nicht bemerken.

Belegungen durch subjektive Wahrnehmung ist toll aber eben nicht aussagekräftig. Wenn man schon in den User Hardwaretest schreibt sollte man das eben schon aufbereiten.

Hier mal Beispiele wie es sein könnte:

Intel (http://home.mnet-online.de/nosc/Frequenz.pdf)
AMD Standard VID (http://home.mnet-online.de/nosc/Standard-VID.pdf)
AMD veringerte Spannung (http://home.mnet-online.de/nosc/TestP2-945.pdf)

Betrifft jetzt zwar was ganz anderes aber man kann daraus zumindest den Verbrauch ablesen und das Verhalten unter Temperaturänderung.

So etwas würde ich mir auch gerne bei einen CPU Upgrade Athlon 2 X4 635 gegen Intel i5-3570K auch vorstellen. Ein paar Spiele zum vergleichen, wo warum etwas limitiert, wie oben schon erwähnt ist bei Skyrim die Engine nicht gerade prickelnd.
Schauen wir uns oben den verlinkten Techreport (http://techreport.com/review/23246/inside-the-second-gaming-performance-with-today-cpus/6) mal BF3 an, huch komisch da ist der P2 ohne Cache fast auf Augenhöhe.

Und bei Aussagen wie:


Das eine stärkere CPU für mehr FPS sorgt ist eben schon sehr weit hergeholt. Aus seinem Beitrag geht auch nicht heruas, handelt es sich jetzt nur um die min Frames per seconds oder ist es generell so von 25-30 FPS auf knapp 50-60 FPS.

Genau wegen dem schreiben ja auch einige so wehement dagegen und bringen auch nicht sinnfreie gegenbeispiele, sei es ich hab' mir ne SSD gekauft merk aber nix.

Daher bitte ich um einen ausführlichen Test mit verschiedenen Spielen dazu einen Vergleich der Frametimes min FPS, durchschnitt und max FPS. Damit sich jeder ein Bild dazu machen kann. Denn jetzt ist es nicht klar ob ich meiner kleinen eine neue CPU geben sollte ;) vielleicht verdoppelt sich dann die FPS und alles läuft flüssig.

Ich finde den Beginn gar nicht schlecht, allerdings noch ein wenig Zeit investieren und du (der TS) hast einen sauberen Beitrag ins Hardwaretest Forum geschrieben.

Danke! Zumindest einer der mitdenkt und nicht pauschalisiert

Ronny145
2012-09-10, 11:02:54
Zum Glück für dich hast du den Beitrag abgeändert. Keiner hat pauschalisiert. Pauschalisiert hat nur Maorga, der behauptet, CPU Leistung wäre egal mit MSAA und AF. Das ist ein Pauschalurteil, welches nicht zutreffend ist. Genau das ist ja das Problem, CPU Leistung wird runtergespielt. Er ist das beste Beispiel dafür.

Maorga
2012-09-10, 12:39:22
Zum Glück für dich hast du den Beitrag abgeändert. Keiner hat pauschalisiert. Pauschalisiert hat nur Maorga, der behauptet, CPU Leistung wäre egal mit MSAA und AF. Das ist ein Pauschalurteil, welches nicht zutreffend ist. Genau das ist ja das Problem, CPU Leistung wird runtergespielt. Er ist das beste Beispiel dafür.

Siehste und schon sind wir so weit. Der Link zum Techreport zeigt auch die Frametimes zu denn einzelnen Prozzis, einfach mal durchklicken.

Weder Spiele ich die CPU Leistung herunter.

Man muss doch immer zuerst schauen wo das Bottleneck ist.

Bringt es eine Verbesserung einen Athlon 2 X2 250 mit einer GeForce9800GTX+ ein Prozessorupgrade zu gönnen?
Bringt es eine Verbesserung einen P2 X4 945 mit Quad SLI 4x GTX260 ein Prozessorupgrade zu gönnen?


So ich möchte nochmal sagen mir gefällt Dönerentes Artikel. Allerdings springen ja nicht nur Leute wie wir hier rum, sondern auch 'Bobs', 'Daus' usw.
Man soll aus dem Hardwaretest erkennen wo liegt mein Flaschenhals. Ich hab Graka XY und beim Review ZA hat die eine viel höhere FPS - hier sollte man dann eben sagen können ja liegt an der CPU um höhere FPS zu erreichen.

Falls man auf die min FPS geht sollte man dies auch expliziet erwähnen. Da ruckeln von vielen eingeschlossen mir als sehr störend empfunden wird.

Also denkt mal dran, diese Test liest nicht nur ein 'Crack', sondern eben Leute die sich informieren wollen aber sehr wenig bzw. gar kein Background haben.

Dönerente mach weiter so.

R.I.P.
2012-09-10, 12:52:38
Zum Glück für dich hast du den Beitrag abgeändert. Keiner hat pauschalisiert.

Hätte ich sonst Haue bekommen?

Pauschalisiert hat nur Maorga, der behauptet, CPU Leistung wäre egal mit MSAA und AF. Das ist ein Pauschalurteil, welches nicht zutreffend ist. Genau das ist ja das Problem, CPU Leistung wird runtergespielt. Er ist das beste Beispiel dafür.

Nein eben nicht. Pauschalisiert wird, in dem gesagt wird (nicht der TS, sondern beim Diskutieren danach) dass der Athlon Schrott ist und nicht zum Spielen reicht. BF3 ist das beste Beispiel dafür, dass der Athlon II als APU Derivat zum Spielen grafisch imposanter Spiele vollkommen ausreicht und nicht "nur" dafür 210 Euro ausgegeben werden müssen (und wenn es noch 2-4 FPS weniger sind) und die von Maorga verlinkten Frameverläufe genauso.

Was am Thema des TS zu bemängeln wäre (mMn) sind genaue Hardwareangaben, Treiber, Frameverläufe, wenn er unbedingt meint, er müsse Wattangaben angeben, dann bitte nicht AIDA-Ausdrucke, etc. Dabei bin ich gegen Maorgas Meinung: wenn dann ordentlich, sonst ist es nur einen Haufen subjektiver Eindrücke mit 0 Sinn. Zumindest hat es sich die Mühe gemacht zu posten und scheinbar zu benchen (auch wenn ich nicht glaube, dass er gebencht hat)

Ronny145
2012-09-10, 13:02:25
Pauschalisiert wird, in dem gesagt wird (nicht der TS, sondern beim Diskutieren danach) dass der Athlon Schrott ist und nicht zum Spielen reicht.

Das hat keiner behauptet. Hier müsstest du/man erstmal differenzieren, was mit unspielbar gemeint ist.


BF3 ist das beste Beispiel dafür, dass der Athlon II als APU Derivat zum Spielen grafisch imposanter Spiele vollkommen ausreicht und ich nicht "nur" dafür 210 Euro ausgeben muss (und wenn es noch 2-4 FPS weniger sind) und die von Maorga verlinkten Frameverläufe genauso.


Ein Spiel ist also der Beweis für alle anderen Spiele? Interessant. Das kannst Du für das eine Spiel behaupten, wobei ich vorsichtig wäre. Singleplayer und Multplayer sind zwei verschiedene Dinge in BF3. CPU Last liegt im Multiplayer deutlich höher. Keine Ahnung was Du ständig mit den 210€ wilst. Prinzipiell trifft das auf alle Sandy Bridge oder Ivy Bridge basierenden Quadcore Modelle zu. Die bieten deutlich mehr Spieleleistung und fangen ab 150€ an. Der Preis sagt im übrigen nicht immer etwas über Spieleleistung aus. Für den FX-8150 hat man lange Zeit 200+€ hinlegen müssen, trotzdem wird er vom 150€+ SB Quad zersägt (oft sogar vom 100€ Dualcore).

R.I.P.
2012-09-10, 13:57:05
Das hat keiner behauptet. Hier müsstest du/man erstmal differenzieren, was mit unspielbar gemeint ist.

Dann blättere mal zurück und lies dir alle Beiträge durch.


Ein Spiel ist also der Beweis für alle anderen Spiele? Interessant. Das kannst Du für das eine Spiel behaupten, wobei ich vorsichtig wäre. Singleplayer und Multplayer sind zwei verschiedene Dinge in BF3. CPU Last liegt im Multiplayer deutlich höher. Keine Ahnung was Du ständig mit den 210€ wilst. Prinzipiell trifft das auf alle Sandy Bridge oder Ivy Bridge basierenden Quadcore Modelle zu. Die bieten deutlich mehr Spieleleistung und fangen ab 150€ an. Der Preis sagt im übrigen nicht immer etwas über Spieleleistung aus. Für den FX-8150 hat man lange Zeit 200+€ hinlegen müssen, trotzdem wird er vom 150€+ SB Quad zersägt (oft sogar vom 100€ Dualcore).

Verstehe nicht ganz ob du bestimmte Dinge nicht verstehst oder verstehen willst: BF3 ist EIN Beispiel wo ein Athlon II in grafiklimitierten Settings sehr gut mithalten kann, auch im MP. Starcraft 2 eines, wo es massive Probleme damit gibt. Von einem Spiel wie Skrym (TS) auf alle zu pauschalisieren ist falsch. Ich habe nur ein Beispiel angeführt. Die 210 Euro sind der Preis den einer bezahlen muss, wenn er einen 3570k will (TS). Einer zahl die Differenz vom Athlon 2 auf den I5 z.B. für BF3 weil er glaubt, dass die CPU nicht ausreicht; BF3 ist nicht das einzige Beispiel, es gibt jedoch Beispiele (Supreme Commander, Starcraft 2, etc.) wo ein I5 oder ein I3 wesentlich besser für den Spieler wären.
Aus dem Post des TS geht es jedoch so hervor als ob der Athlon 2 nicht zum Spielen geeignet wäre, mit nur 1 Spiel als Beispiel. Das prangere ich an. Was soll das Beispiel mit dem FX? Was hat das mit dem Thema zu tun?

boxleitnerb
2012-09-10, 14:35:32
Die Frage ist doch dann, bekommt der Athlon II überhaupt im MP gescheite fps zustande? Man kann natürlich alles auf Teufel komm raus ins GPU-Limit treiben. Aber das ist nicht der Sinn der Sache. Die Leute vergessen viel zu schnell, dass es kein Verbrechen ist, die Settings etwas runterzudrehen, um spielbare fps zu bekommen (und spielbar im MP würde ich bei 80+ sehen persönlich), wenn man eine schwächere Grafikkarte hat (die man übrigens auch aufrüsten kann).

Ronny145
2012-09-10, 14:38:32
Dann blättere mal zurück und lies dir alle Beiträge durch.

Eine konkrete Benennung scheint dir nicht möglich zu sein.


Verstehe nicht ganz ob du bestimmte Dinge nicht verstehst oder verstehen willst: BF3 ist EIN Beispiel wo ein Athlon II in grafiklimitierten Settings sehr gut mithalten kann, auch im MP.

Ich zitiere dich:

BF3 ist das beste Beispiel dafür, dass der Athlon II als APU Derivat zum Spielen grafisch imposanter Spiele vollkommen ausreicht

Du teilst uns fröhlich mit, ein Athlon II wäre für imposante Spiele ausreichend. Es ist nicht ein Beispiel, ansonsten formuliere es genauer beim nächsten mal. So wie es geschrieben steht, soll BF3 der Beweis für alle imposanten Spiele sein. Du hast explizit Spiele in der Mehrzahl geschrieben. Die weniger imposanten brauchen mehr CPU Leistung oder was soll das Schlagwort aussagen? Ab wann wäre bei die eine ausreichende Leistung gegeben?


Aus dem Post des TS geht es jedoch so hervor als ob der Athlon 2 nicht zum Spielen geeignet wäre, mit nur 1 Spiel als Beispiel.

Das ist deine Interpretation. Dem muss ich widersprechen. Erstens hat er 4 Spiele als Beispiel genannt, zweitens hat er nirgendwo geschrieben, der Athlon wäre per se nicht mehr spielefähig. Du interpretierst hier zu viel rein.

ux-3
2012-09-10, 15:59:14
Einer zahl die Differenz vom Athlon 2 auf den I5 z.B. für BF3 weil er glaubt, dass die CPU nicht ausreicht; BF3 ist nicht das einzige Beispiel, es gibt jedoch Beispiele (Supreme Commander, Starcraft 2, etc.) wo ein I5 oder ein I3 wesentlich besser für den Spieler wären.
Aus dem Post des TS geht es jedoch so hervor als ob der Athlon 2 nicht zum Spielen geeignet wäre, mit nur 1 Spiel als Beispiel. Das prangere ich an.

Offen gestanden: Wenn eine CPU A mit x% der Spiele nicht so gut klar kommt, und die andere CPU B mit 0%, dann würde ich mich sofort für B entscheiden wollen. Selbst wenn meine derzeitigen Lieblingsspiele nicht betroffen sind. Und ich würde sagen "CPU A ist für Spiele nicht so gut geeignet".

Einziges plausibles Szenario für A wäre, dass ich die kritischen Spiele nie spielen werde, weil ich z.B. ein ausschließlicher Point&Click Adventure Fan bin.

Maorga
2012-09-10, 17:32:10
Offen gestanden: Wenn eine CPU A mit x% der Spiele nicht so gut klar kommt, und die andere CPU B mit 0%, dann würde ich mich sofort für B entscheiden wollen. Selbst wenn meine derzeitigen Lieblingsspiele nicht betroffen sind. Und ich würde sagen "CPU A ist für Spiele nicht so gut geeignet".

Einziges plausibles Szenario für A wäre, dass ich die kritischen Spiele nie spielen werde, weil ich z.B. ein ausschließlicher Point&Click Adventure Fan bin.
Warum hast du dann nur einen i5-3570K ? Der 3770K wäre doch die bessere Wahl, der versorgt sogar noch dein SLI System. Also von dem her hau deine CPU raus und hol dir einen 3770K.

boxleitnerb
2012-09-10, 17:44:50
Das ist doch Käse. Jeder weiß, dass ein 3770K im Schnitt aller aktuellen Spiele sogar ein paar Prozent langsamer ist als ein 3570K, obwohl ersterer deutlich mehr kostet. Es geht hier doch um viel größere Schritte a la X4 vs. 3570K, wo man für den Aufpreis auch oft entsprechende Mehrleistung bekommt.

ux-3
2012-09-10, 17:46:47
Warum hast du dann nur einen i5-3570K ? Der 3770K wäre doch die bessere Wahl, der versorgt sogar noch dein SLI System. Also von dem her hau deine CPU raus und hol dir einen 3770K.

Die Antwort steht schon weiter oben. Ein i7 bringt bei Spielen auf den Systempreis gerechnet keinen P/L-skalierenden Nutzen. Sonst hätte ich mir vermutlich einen i7 gekauft. (Ich habe auch kein SLI)

Maorga
2012-09-10, 19:32:20
Aber es gibt bestimmt eine Situtation da ist der i7 besser als der i5. Wieso spielt nun das P/L eine Rolle? Oder ob du ein SLI System hast oder nicht. Man kann ja auch mit einem i7 eine Geforce 640 antreiben oder?

Bei dir ist es jetzt das P/L welches dich dazu bewegt keinen i7 zu holen. Bei anderen ist es vielleicht ich hab ein komplettes System AM2+ und rüste nun noch das maximale auf was ich haben kann, nur neuen Prozessor rein und freuen.

Jetzt einen P2 945/960 oder was weiß ich gegen ein komplettes Intel System zu wechseln weil es ruckler gibt - die wohlgemerkt durch keinen von euch aufgezeichnet wurde. Es wird immer nur die Behauptung in den Raum gestellt läuft mit einen Athlon 2 X4 nicht rund/ruckelt oder sonstiges. Keine Aufzeichnungen oder so - nein es wird einfach mal so in den Raum gestellt. Ich möchte die Spiele sehen und hören wo es Probleme gibt.

Ich bin auch gerne bereit euch zu unterstützen. Ich besitze sowohl ein i3570K als auch eine P2 945. In beiden könnte ich meine GeForce560 Ti reinwerfen und dann vergleichen, wo es nun wirklich happert. Ich mein bei Civ V und der Total War Serie ist es nett einfach ordentlich CPU Power zu haben (damit die Runden nicht solange dauern) aber FPS einbrüche sind mir da nicht über den Weg gelaufen.

Ich hau' bei den meisten Spielen SGSSAA rein wenn es mir möglich ist, ansonsten Downsampling.
Am besten Spiele zu denen es Demos gibt - weil First Person Shooter habe ich keine. Bin mehr der Strategiespiele/Rollenspiele Freak.

Ihr sagt dann welche Infos ihr alles benötigt und dann lege ich unter die Woche mal los und mache Aufzeichnungen.

Eigentlich geht es doch darum ab wann ist es sinnvoll seine CPU aufzurüsten. Wo sind die Engpässe bei bestimmten Spielen. Ich hab Freunde die Spielen noch mit einen Athlon X2 6000+ und ihrer GeForce 9800GTX WoT mit über 60 FPS.

Es geht doch draum bei so einem Upgradtest darum nachzuweisen wo sich signifikant etwas gebessert hat. Auf dieser Grundlage können wir diskutieren und Ergebnisse vergleiche.

Wie beim Techreport zu sehen hat ein AMD keine Schwierigkeiten mit einem Intel mitzuhalten. Die Frage ist doch wo gibt es wirklich Probleme wo die zugrundeliegende CPU für Ruckler sorgt. Das sollten wir herausfinden. Alles andere ist doch Glaskugel guckerei.

boxleitnerb
2012-09-10, 19:51:57
Bis zu ca. 35% niedrigere fps verstehst du unter "mithalten"? Merkwürdige Einstellung. Und die Ruckler...du siehst doch die frametime-Aufzeichnungen und -Analysen bei techreport.

Außerdem geht es ja nicht nur um Ruckler per se. Es gibt ja auch sowas wie "flüssig" und "noch flüssiger". Ab einer gewissen Grenze wird das natürlich sinnlos, ja. Aber wo die liegt, hängt vom Spiel und vor allem von der Person ab. "Probleme" wie du es nennst, definiert jeder ganz anders. Beim einen sind das 20fps, beim nächsten reichen nichtmal 50, der braucht konstant 60, der Dritte will 100+ für den MP.

Ich bin ganz klar dagegen, das Thema so aufzuweichen, indem einer sagt "aber läuft doch auch mit dem X4 flüssig". Ja toll - und was sagt das dem, der das anders empfindet? Dann können wir gleich alle Tests bei 30fps cappen, man braucht ja eh nicht mehr (wer Ironie findet, darf sie behalten ;) ).

Maorga
2012-09-10, 19:57:40
Bis zu ca. 35% niedrigere fps......

Sehe ich bei BF3 zum Bleistift nicht. Und Skyrim ist so schlecht da es nur 2 Cores nutzt. Wieviele Spiele haben so eine schlechte Engine, dass es zu Problemen kommt?

€dit: Oder mit anderen Worten gesagt ich habe von einem P2 945 auf einen i5 3570k aufgerüstet, keins wohlgemerkt keins meiner Spiele läuft besser.

ux-3
2012-09-10, 20:00:31
Aber es gibt bestimmt eine Situtation da ist der i7 besser als der i5. Wieso spielt nun das P/L eine Rolle? Oder ob du ein SLI System hast oder nicht. Man kann ja auch mit einem i7 eine Geforce 640 antreiben oder?

Weder der i5 noch der i7 ist stets besser. Der i5 hat bei Spielen aber im Schnitt die Nase vorn. Also macht es keinen Sinn, mehr Geld für weniger Performance auszugeben. Video mach ich nicht.

Bei dir ist es jetzt das P/L welches dich dazu bewegt keinen i7 zu holen. Bei anderen ist es vielleicht ich hab ein komplettes System AM2+ und rüste nun noch das maximale auf was ich haben kann, nur neuen Prozessor rein und freuen.

Das ist unbenommen. In dem von dir geschilderten Aufrüst-Scenario braucht man über einen i5 auch gar nicht nachdenken, er ist keine Option. Das ändert aber nichts am Leistungsvergleich der CPUs.


Jetzt einen P2 945/960 oder was weiß ich gegen ein komplettes Intel System zu wechseln weil es ruckler gibt - die wohlgemerkt durch keinen von euch aufgezeichnet wurde. Es wird immer nur die Behauptung in den Raum gestellt läuft mit einen Athlon 2 X4 nicht rund/ruckelt oder sonstiges. Keine Aufzeichnungen oder so - nein es wird einfach mal so in den Raum gestellt. Ich möchte die Spiele sehen und hören wo es Probleme gibt.


Wenn du keine Ruckler siehst - Prima! Freu dich. Ich beneide Leute wie dich. Leute, die mit den Schultern zucken und sagen: "Ich kann da kein nerviges Geräusch hören". Ich wünschte, ich könnte das auch sagen.

Ich hau' bei den meisten Spielen SGSSAA rein wenn es mir möglich ist, ansonsten Downsampling.

Am besten Spiele zu denen es Demos gibt - weil First Person Shooter habe ich keine. Bin mehr der Strategiespiele/Rollenspiele Freak.

Also fällst du schon mal unter die Point&Click Truppe. ;)

€dit: Oder mit anderen Worten gesagt ich habe von einem P2 945 auf einen i5 3570k aufgerüstet, keins wohlgemerkt keins meiner Spiele läuft besser.
Warum hast du dann aufgerüstet? Und warum nicht auf den i7? Denn für Spiele wirst du das ja nicht getan haben.

Maorga
2012-09-10, 20:18:18
Okay dann bin ich anscheinend nicht fähig Ruckler fest zu stellen. Gut dann hätten wir ja das Thema erledigt - wow echt super Argumentation.

Den i5 habe ich mir für Shogun 2 geholt. Und war wie du auch schon erkannt hast P/L das beste, den 50% mehr zahlen für 20% mehr Leistung (wenn's gut geht) wollte ich nicht.

Wenn Batman/Vampire/Bloodlines/Overlord/TotalWarSerie/TheWitcher/Stalker/Mafia2 unter Point and Click fällt gut dann ist dies eben so, allerdings sollen dort die FPS auch stimmen - aber ich bemerke ja ehh keine Ruckler.


Ruckler kann man technisch nachweisen - da muss man sich auf kein Gefühl verlassen - ich würde die Ruckler auch festellen können durch Frametimeaufzeichnung. Darauf will man aber gar nicht eingehen. Warum nur? Hast du Angst, dass es doch nicht so ist?

boxleitnerb
2012-09-10, 20:20:43
Sehe ich bei BF3 zum Bleistift nicht. Und Skyrim ist so schlecht da es nur 2 Cores nutzt. Wieviele Spiele haben so eine schlechte Engine, dass es zu Problemen kommt?

€dit: Oder mit anderen Worten gesagt ich habe von einem P2 945 auf einen i5 3570k aufgerüstet, keins wohlgemerkt keins meiner Spiele läuft besser.

BF3 im Multiplayer würde sicher mehr fps liefern (ob du das dann flüssiger empfindest, liegt natürlich an deiner Wahrnehmung). Außer BF3 liegen in allen anderen Spielen in dem Test die AMD CPUs weit zurück.

Dann spielst du entweder spiele, die nicht viel CPU-Leistung brauchen oder du bist ggü. Rucklern, ungenauerer Steuerung (du spielst ja keine Shooter sagst du) etc. unempfindlicher. Das kann ja gut sein, bezieht sich halt nur auf dich.

Maorga
2012-09-10, 20:27:13
Also ich gebe euch die Möglichkeit es nach zu weisen - und ihr sagt nur ja kann dein empfinden sein MP BF3 ist es anders usw. Ihr wollt gar nicht wissen ob es wirklich so ist.

Na denn werdet glückselig. Katholische Priester haben ja auch keinen Sex mit Frauen oder sonst irgend wem.

boxleitnerb
2012-09-10, 20:31:21
Die Nachweise kannst du hundertfach im Web nachlesen in CPU-Reviews - dass Intel-Systeme mehr fps liefern als AMD-Systeme, wenn es auf die CPU ankommt. Es ist ja nicht so, als ob es keine Daten gäbe. Wie man die dann bewertet, hängt von den persönlichen Ansprüchen ab. Weiß nicht, warum du Dinge forderst, die es schon gibt und deren Beurteilung total subjektiv ist.

ux-3
2012-09-10, 20:34:27
Okay dann bin ich anscheinend nicht fähig Ruckler fest zu stellen. Gut dann hätten wir ja das Thema erledigt - wow echt super Argumentation.

Die gleiche Argumentation kannst du auch für Silent und Low Noise Karten vs. Referenzkarten einführen. Den einen störts, den anderen nicht. Dort ist es die gleiche super Argumentation. Oder für flimmern: "Merkst du nicht, wie die Lampe (der Bildschirm) flimmert?" "Da flimmert doch nix!".

Den i5 habe ich mir für Shogun 2 geholt. Und war wie du auch schon erkannt hast P/L das beste, den 50% mehr zahlen für 20% mehr Leistung (wenn's gut geht) wollte ich nicht.

Ich kenne jemanden, der spielt ständig Shogun 2 auf einem E8400@4GHz und findet, dass es OK läuft. Offensichtlich unterscheiden sich die Störungsschwellen der Wahrnehmung.

Wenn Batman/Vampire/Bloodlines/Overlord/TotalWarSerie/TheWitcher/Stalker/Mafia2 unter Point and Click fällt gut dann ist dies eben so, allerdings sollen dort die FPS auch stimmen - aber ich bemerke ja ehh keine Ruckler.


Falls du oben mitgelesen hast: Mit P&C meinte ich sinnbildlich Spiele, bei denen sich die CPU nicht auf die Framerate auswirkt. Und da du ja offenbar keinen derartigen Effekt beobachtet hast, fällst du in diese Gruppe (was mich bei deinen Einstellungen auch nicht so verwundert - die dürften größtmögliche Grafiklimitierung erzwingen). Wenn du also was testen willst, dann schraub mal die Grafik soweit zurück, dass du auf dem i5 60 fps erreichst, und vergleiche dann. Denn andere Leute spielen vielleicht mit den Einstellungen. Das würde dann den Unterschied in der Wahrnehmung erklären. Bei mir läuft z.B. im Hintergrund nur selten Musik, da stören mich Geräusche sofort.


Hast du Angst, dass es doch nicht so ist?
Nein, warum sollte ich davor Angst haben?


Katholische Priester haben ja auch keinen Sex mit Frauen oder sonst irgend wem.
Du liest wenig Zeitung bzw. Nachrichten, oder?

Piffan
2012-09-11, 12:54:33
Danke an Dönerente für den guten Artikel.

Es gibt zum Glück immer wieder Leute, die brauchbare Infos liefern. Damals als tombman aktiv war, las ich seine Erfahrungen auch immer gerne. Er schrieb nie bewusst "wissenschaftlich", sondern gab sein GEfühl wieder. Man konnte lesen, wie es an der High- End- Front aussieht. Er war es auch, der nicht nur prollte, sondern die Mikroruckelei bei den teuren SLI- Systemen schonungslos beim Namen nannte.

Sie wie hier gerade die Ente gerupft wurde, musste auch er einigen Bullshit ertragen. Gut dass in diesem Forum immer mal wieder die Leute den Mund aufmachen und ERFAHRUNGEN posten. Vor allem spricht er mir aus der Seele: Was bringt mir ein Bench, wenn es in manchen Stellen ruckelt. Sein Beispiel mit Skyrim sollte jeder nur zu gut aus eigener ERfahrung kennen. Und dass hier nur ein sehr starker Prozessor durch einen noch stärkeren ersetzt werden kann, weiß der Kundige. Wer jahrelang zockt, erkennt einfach an der Szene, ob die Graka oder der Proz der Flaschenhals ist.
Beispiel: Gothic 3 oder auch Skyrim können nie zu viel Prozessorleistung bekommen. Witcher 2 hingegen ist gnadenlos auf Grafikkarten- Beslastung getrimmt....

Der Kostenvergleich ist auch Bullshit: Immer das GEsamtsystem beachten. Schließlich kann man mit dem Prozessor allein auch nicht spielen. Der hohe Kostenunterschied EINER Komponente wird durch einen fühlbaren Boost mehr als wett gemacht.

Was Döner einfach nur mal feststellen wollte: Die Bedeutung des Prozossors wird früher wie heute völlig unterschätzt. Liegt aber auch am Benchmark- Prozedere: Es wird der SCHNITT gewertet. Ist aber Bullshit, weil nur die MINIMA relevant sind. Fürs Wohlfühlen brauche ich eine runde Performance ohne große Spitzen, aber dafür angenehm hohen Minima.

Matrix316
2012-09-11, 13:17:00
Die Frage ist, ob man heute überhaupt noch jemandem einen AMD Prozessor empfehlen kann. Sie sind zwar billiger, aber eben auch langsamer und verbrauchen je nach dem mehr Strom.

ux-3
2012-09-11, 13:17:19
Die Bedeutung des Prozossors wird früher wie heute völlig unterschätzt. Liegt aber auch am Benchmark- Prozedere: Es wird der SCHNITT gewertet. Ist aber Bullshit, weil nur die MINIMA relevant sind. Fürs Wohlfühlen brauche ich eine runde Performance ohne große Spitzen, aber dafür angenehm hohen Minima.

Angeregt durch diesen Thread plane ich gerade ein Experiment: Ich würde die Framerate im Treiber auf z.B. 60 Herz limitieren. Hintergedanke ist, dass so Ausreißer nach oben keine Wertung im Benchmark finden. Und dann den gleichen Bench mit gleicher Grafikkarte aber unterschiedlicher CPU laufen lassen. Wenn sich die Ergebnisse unterscheiden, dann nur noch durch die Verlangsamung der Bildrate. Ein Benchmarkunterschied würde dann nur noch auf Drops unter 60 Hz basieren.

Man könnte dann die Framelimitierung weiter absenken und sehen, ab welcher Framerate die Benchmarks etwa gleich sind.

Hab ich was wichtiges übersehen?

Die Frage ist, ob man heute überhaupt noch jemandem einen AMD Prozessor empfehlen kann. Sie sind zwar billiger, aber eben auch langsamer und verbrauchen je nach dem mehr Strom.

Also ich mache es nicht mehr. :redface:

Matrix316
2012-09-11, 13:25:40
Vor allem, selbst hier in einem älteren Test ist der kleinste i3 immer noch vor dem besten AMD und das in Full HD Auflösung:
https://www.computerbase.de/artikel/prozessoren/2012/test-intel-ivy-bridge/16/

ux-3
2012-09-11, 15:00:29
Vor allem, selbst hier in einem älteren Test ist der kleinste i3 immer noch vor dem besten AMD und das in Full HD Auflösung:
https://www.computerbase.de/artikel/prozessoren/2012/test-intel-ivy-bridge/16/

Der hier kommt zu einem ähnlichen Ergebnis, betrachtet Min Frames.

http://www.tomshardware.de/gaming-fx-pentium-apu-benchmark,testberichte-240958-10.html

boxleitnerb
2012-09-11, 15:30:58
Min fps sind ein ziemlich sinnloser Wert. Man weiß schließlich nicht, wie oft dieses Minimum auftritt, wie lange und ob es noch ähnliche Einbrüche gibt, die nicht von min oder avg erfasst werden.

aufkrawall
2012-09-11, 15:43:27
Es gibt aber eine klare Tendenz.

boxleitnerb
2012-09-11, 15:56:15
Das ändert nichts daran, dass es nur ein einziger Wert ist. Selbst wenn der reproduzierbar ist, kann es abseits dieses Wertes anders aussehen. Wie repräsentativ kann ein Wert sein der bei z.B. 1 Minute Benchmarklänge 1/60 = 1.6% der Zeit repräsentiert?

Piffan
2012-09-11, 15:58:16
Min fps sind ein ziemlich sinnloser Wert. Man weiß schließlich nicht, wie oft dieses Minimum auftritt, wie lange und ob es noch ähnliche Einbrüche gibt, die nicht von min oder avg erfasst werden.

Es gibt Minima, die der Engine geschuldet sind, Beispiel Nachladeruckler von der HD. Daher ist für mich auch immer noch die "gefühlte" Performance wichtig. Ein Hinweis, wo oft die Einbrüche sind und wie lange sie anhalten, sagt tausendmal mehr als ein Schnitt. Der kann hoch sein, so dass die Performance auf dem Papier ausreicht, das Spielen jedoch kann einem gründlich vergrätzt werden, weil die Minimal hässlich tief sind oder unangenehm lange dauern...

boxleitnerb
2012-09-11, 16:13:09
Es gibt Minima, die der Engine geschuldet sind, Beispiel Nachladeruckler von der HD. Daher ist für mich auch immer noch die "gefühlte" Performance wichtig. Ein Hinweis, wo oft die Einbrüche sind und wie lange sie anhalten, sagt tausendmal mehr als ein Schnitt. Der kann hoch sein, so dass die Performance auf dem Papier ausreicht, das Spielen jedoch kann einem gründlich vergrätzt werden, weil die Minimal hässlich tief sind oder unangenehm lange dauern...

Eben. Aus dem Grund sind weder ein Minimum (Singular) noch ein Mittelwert sonderlich aussagekräftig. Leider genau die beiden Datentypen, auf denen 99,9% aller Reviews und User rumreiten :frown:

aufkrawall
2012-09-11, 16:16:19
Das ändert nichts daran, dass es nur ein einziger Wert ist. Selbst wenn der reproduzierbar ist, kann es abseits dieses Wertes anders aussehen. Wie repräsentativ kann ein Wert sein der bei z.B. 1 Minute Benchmarklänge 1/60 = 1.6% der Zeit repräsentiert?
Welche Tester geben denn bessere statistische Informationen mit an?
Minfps sind erstmal besser als nichts.

Piffan
2012-09-11, 16:21:20
Eben. Aus dem Grund sind weder ein Minimum (Singular) noch ein Mittelwert sonderlich aussagekräftig. Leider genau die beiden Datentypen, auf denen 99,9% aller Reviews und User rumreiten :frown:

Und darum schätze ich Leute wie damals tombman oder Döner, die ihre Erlebnisse glaubhaft schildern. Die SLI- Reviews bescheinigten aufgrund der Benches den Graka- Kombis einen gewaltigen Boost. Dem steht aber ein miserables Spielgefühl gegenüber, das man schlecht in Zahlen ausdrücken kann. Ich finde es auch drollig, wie man sich bei Grakas über die Übertaktbarkeit und Taktdifferenzen auslässt und dabei den Praxiswert aus den Augen verliert. Einige Prozente bei Benches dürften auf das Spielerlebnis nicht den geringsten Einfluss haben. Wenn hingegen ein Spiel schlecht portiert wurde und es grausig holpert, sind die Zahlen Makulatur.

aufkrawall
2012-09-11, 16:23:49
Die SLI- Reviews bescheinigten aufgrund der Benches den Graka- Kombis einen gewaltigen Boost. Dem steht stand aber ein miserables Spielgefühl gegenüber, das man schlecht in Zahlen ausdrücken kann.

Fixed.

ux-3
2012-09-11, 16:27:02
Fixed.

Sind Mikroruckler Geschichte?

Mr.Magic
2012-09-11, 16:35:45
Mich würde vorallem mal interessieren, wie stark die Performance vom Q6600 @2,4 und @3,2 GHz ansteigt. Gibt es dazu irgendwelche vernünftige Vergleiche?? (am besten reine CPU performance)
Übertakten geht nix mehr, schon am Limit..

Ich kenne nur den Unterschied vom Q6600 @3,2Ghz zum 2500K @4,5Ghz. Ich wollte doppelte Leistung, und bekam genau das.

AFAIR:
Morrowind 12->25FPS
Oblivion 15->30FPS
Need for Speed 35->70FPS (DOSbox)

aufkrawall
2012-09-11, 16:40:56
Sind Mikroruckler Geschichte?
Die sind zumindest mit Kepler nicht so ein Problem, als wie es oft dargestellt wird.
Siehe z.B.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9446532&postcount=23

boxleitnerb hatte auch mal ausprobiert, ob Vsync, sofern es die fps limitiert, die Frametimes glättet, was es auch tat.

=Floi=
2012-09-11, 16:45:08
Ich kenne nur den Unterschied vom Q6600 @3,2Ghz zum 2500K @4,5Ghz. Ich wollte doppelte Leistung, und bekam genau das.

AFAIR:
Morrowind 12->25FPS
Oblivion 15->30FPS
Need for Speed 35->70FPS (DOSbox)

das ist ein toller vergleich. reicht dir das?
ich frage mich selbst noch immer, ob mir so "viel" reichen würde, weil man selbst nen 2500k noch in die kniee bekommt und es mit der dauerhaftigkeit auch schon wieder so eine sache ist. 5ghz möchte ich auch gerne mitnehmen. (und 8 echte cores)
mein Q6600@ 3,3ghz hat bei BF3 schon ordentlich zu tun und sollte eigentlich ersetzt werden. er ist jetzt aber imho 5 jahre (!!!) im einsatz und genau deswegen würde ich gerne einen großen sprung machen um wieder ca. 4 jahre ruhe zu haben. Dank der neuen konsolen sollte sich bei den games auch wieder ein großer sprung tun.

aufkrawall
2012-09-11, 16:50:58
ich frage mich selbst noch immer, ob mir so "viel" reichen würde, weil man selbst nen 2500k noch in die kniee bekommt und es mit der dauerhaftigkeit auch schon wieder so eine sache ist.

Das Problem ist aber auch, dass die Anwendungen beschissen mit der Leistung umgehen oder sie gar nicht nutzen.
SC2 wird auch in 5 Jahren noch nicht flüssig laufen, wenn viel los ist.


mein Q6600@ 3,3ghz hat bei BF3 schon ordentlich zu tun und sollte eigentlich ersetzt werden.

Die Frostbite 2 Engine nutzt ja schon mal genial die Kerne/Threads.
Ich hab da Hoffnung, dass deshalb der nächste Generals-Teil nicht so abkacken wird wie SC2.

Mr.Magic
2012-09-11, 17:10:04
das ist ein toller vergleich. reicht dir das?
ich frage mich selbst noch immer, ob mir so "viel" reichen würde, weil man selbst nen 2500k noch in die kniee bekommt und es mit der dauerhaftigkeit auch schon wieder so eine sache ist.

Wie meinen?

Ja, reicht mir als Vergleich. Das waren keine Min FPS, sondern CPU-lastige Stellen, die mir mit dem Q6600 beim Spielen sauer aufstießen.
NFS waren einfach stellvertretend die Avg. FPS für DOS-Spiele. Beim DOS Quakebench waren die FPS ebenfalls verdoppelt.

Der 2500K taugt mir momentan, würde aber wechseln, wenn es eine doppelt so schnelle CPU gäbe. Bei der GPU brennt es mir aber mehr.
Die GTX480 ist nicht in der Lage durchgehend 120FPS (bzw. 60FPS bei 3DV) zu liefern (momentan Fallout: New Vegas), und keiner der CPU-Kerne ist annähernd voll ausgelastet.

ux-3
2012-09-11, 18:49:27
Ich hab gerade ein paar Benches laufen lassen, einmal den i3-3570K@default und einmal so gut wie mir möglich auf einen G860 limitiert (2 Kerne, 3 GHz, DDR-1333).

Dann habe ich die 560ti bei 60 Hz limitiert. Probiert hab ich mal 3Dmark06 und 3Dmark11 sowie Heaven 3.0

Bei den Grafikscores ist der größte Einbruch etwa 5% beim Shader 2 im 3DMark06. Der Physikscore in 3DM11 skaliert nahezu perfekt mit der Cpu, 7224 auf 3253. Bei Heaven tut sich im Score fast gar nichts, auch beim Shader 3 Score ist der Unterschied gleich Null.

In welchem Spiel finde ich einen realistischen Bench, den ich mal laufen lassen könnte?

Mr.Magic
2012-09-11, 19:01:30
Definiere realistisch.

Timedemos sind idR für den Popo, weil Sachen wie Skripte oder KI nicht laufen. Genau aus dem Grund wird inzwischen oft mit Savegames gearbeitet. Dann hängt es nur vom Spiel ab, wie es reagiert.
Open World ist meistens (auch) CPU-lastig, und Schlauchspiele reagieren mehr auf die GPU.

ux-3
2012-09-11, 19:08:33
Definiere realistisch.

Timedemos sind idR für den Popo, weil Sachen wie Skripte oder KI nicht laufen.

Sowas mit KI und Skripten, die in der Realität CPU-Leistung ziehen.

boxleitnerb
2012-09-11, 19:16:58
Der Shogun 2 CPU benchmark gibt ganz gut die Performance der Gefechte wieder, wenn wirklich viel los ist. Der integrierte Benchmark von Dirt 3 soll auch recht anwendbar auf die Spieleperformance sein. Far Cry 2 Action-Benchmark ist auch nicht übel.

ux-3
2012-09-11, 20:24:19
Der Shogun 2 CPU benchmark gibt ganz gut die Performance der Gefechte wieder, wenn wirklich viel los ist. ...
Far Cry 2 Action-Benchmark ist auch nicht übel.

Der Shogun 2 Bench kommt nicht in die Nähe von 60 Hz. Und Far Cry Action liefert eine Flatline bei 60 Hz. Auch nachdem ich die Regler angezogen habe.

boxleitnerb
2012-09-11, 21:12:59
Was hat 60 Hz (fps?) jetzt damit zu tun? Wenn die CPUs 60fps schaffen und du durch VSync abregelst, wirst du natürlich keinen Unterschied erleben. Und du wirst mir nicht erzählen wollen, dass du in Shogun 2 60fps erreichst im Kampfgetümmel? Das stimmt nämlich nichtmal annähernd, es sei denn du hast die Einheitengröße auf "mini" oder so.

ux-3
2012-09-11, 21:54:18
Was hat 60 Hz (fps?) jetzt damit zu tun? Wenn die CPUs 60fps schaffen und du durch VSync abregelst, wirst du natürlich keinen Unterschied erleben. Und du wirst mir nicht erzählen wollen, dass du in Shogun 2 60fps erreichst im Kampfgetümmel? Das stimmt nämlich nichtmal annähernd, es sei denn du hast die Einheitengröße auf "mini" oder so.

Hast du überhaupt genau gelesen, was ich geschrieben habe? ;)

Ich riegel mit dem Frame Limiter bei 60 ab. Und der Shogun2 CPU Bench kommt nicht mal in die Nähe von 60.

boxleitnerb
2012-09-11, 21:58:45
Ja und? Das macht ja nicht jeder so. Außerdem gibt es ja wirklich Spiele, wo man die 60fps nicht erreicht. In diesen Fällen hast du dann z.B. eben 30fps statt vorher 20, ist doch gut, oder was hab ich verpasst?

Piffan
2012-09-12, 10:22:16
Ja und? Das macht ja nicht jeder so. Außerdem gibt es ja wirklich Spiele, wo man die 60fps nicht erreicht. In diesen Fällen hast du dann z.B. eben 30fps statt vorher 20, ist doch gut, oder was hab ich verpasst?

Wenn man mit Vsyn spielt, weil man das Tearing nicht mag, dann ist ein overpowered Proz. auch sinnig. Denn man fällt in kritischen Situationen ja nicht knapp unter Vsync, sondern gleich auf die Hälfte. Und wenn es noch mal enger wird, ist es nur noch ein Viertel.

Insofern ist der Test von UX schon begründet. Es geht sich ja darum, wieviel Proz. braucht man mindestens um glücklich zu sein bzw. ist das Geld rausgeworfen, wenn man das Beste nimmt.

Ich persönlich kann mit Vsync nichts anfangen und nehme das Tearing billigend in Kauf, da ich zu sehr im Spiel bin um mich über Kinkerlitzchen aufzuregen. In der Tendenz wäre mir also ein mittelprächtiger Proz. ausreichend. Derzeit bin ich mit einem Phenom II noch recht zufrieden. Dass es bei Skyrim oder in der Stadt von Drakensang 2 mal ein bisschen zäh wird, stört nicht wirklich bei einem RPG.....

aufkrawall
2012-09-12, 10:27:28
Wenn man mit Vsyn spielt, weil man das Tearing nicht mag, dann ist ein overpowered Proz. auch sinnig. Denn man fällt in kritischen Situationen ja nicht knapp unter Vsync, sondern gleich auf die Hälfte. Und wenn es noch mal enger wird, ist es nur noch ein Viertel.

Du hast in 11 Jahren 3DC noch nichts von TB Vsync gehört? ;)

ux-3
2012-09-12, 10:36:40
Wenn man mit Vsyn spielt, weil man das Tearing nicht mag, dann ist ein overpowered Proz. auch sinnig. Denn man fällt in kritischen Situationen ja nicht knapp unter Vsync, sondern gleich auf die Hälfte. Und wenn es noch mal enger wird, ist es nur noch ein Viertel.

Insofern ist der Test von UX schon begründet. Es geht sich ja darum, wieviel Proz. braucht man mindestens um glücklich zu sein bzw. ist das Geld rausgeworfen, wenn man das Beste nimmt.

Ich persönlich kann mit Vsync nichts anfangen und nehme das Tearing billigend in Kauf, da ich zu sehr im Spiel bin um mich über Kinkerlitzchen aufzuregen. In der Tendenz wäre mir also ein mittelprächtiger Proz. ausreichend. Derzeit bin ich mit einem Phenom II noch recht zufrieden. Dass es bei Skyrim oder in der Stadt von Drakensang 2 mal ein bisschen zäh wird, stört nicht wirklich bei einem RPG.....

Ich hab nicht vertical sync angemancht, sondern für den Test im Treiber auf 60 limitiert. Ein Grund dafür war, dass ich Frameraten über 60 killen wollte, unter 60 die Framerate aber nicht unnötig beschneiden will. Im Alltag würde ich mir davon eine leisere Karte versprechen, getestet hab ich das noch nicht.

Jede signifikante Veränderung im Score muss auch eine wahrnehmbare Veränderung nach unten bewirken. (Die Aussage ist nicht umkehrbar)
Das Ergebnis war halt ernüchternd: Bei vielen Ergebnissen hat sich trotz Takteinbruch, Speicherdrosselung und Kernzahlhalbierung das Ergebnis um nicht mal ein Prozent verändert.

Wahrnehmbare Veränderung ergab sich aber z.B. beim Heaven Benchmark. Da ich DTS Connect an hatte und dies m.W. in Software erfolgt, stotterte der Start bei nur zwei Kernen für eine Sekunde. Ob das bei einem echten G850 auch passiert wäre, kann ich nicht beurteilen. In einem echten Spiel würde mich das stören, ich würde es aber hinnehmen. Danach lief ja alles.

aufkrawall
2012-09-12, 10:39:05
Ich hab nicht vertical sync angemancht, sondern für den Test im Treiber auf 60 limitiert. Ein Grund dafür war, dass ich Frameraten über 60 killen wollte, unter 60 die Framerate aber nicht unnötig beschneiden will.
TB Vsync kostet keine Performance.

ux-3
2012-09-12, 10:55:58
TB Vsync kostet keine Performance.

Was willst du sagen? Das ich auch einfach Vsync anmachen könnte um Frames über 60 zu killen und im Alltag leiser zu fahren?

In einigen Spielen beobachte ich dann trotzdem dieses 60-30-20 Raster. Macht das dann das Spiel?

Edit: Du meinst TB: Tripple Buffering :idea:

boxleitnerb
2012-09-12, 10:57:23
Wenn man mit Vsyn spielt, weil man das Tearing nicht mag, dann ist ein overpowered Proz. auch sinnig. Denn man fällt in kritischen Situationen ja nicht knapp unter Vsync, sondern gleich auf die Hälfte. Und wenn es noch mal enger wird, ist es nur noch ein Viertel.

Insofern ist der Test von UX schon begründet. Es geht sich ja darum, wieviel Proz. braucht man mindestens um glücklich zu sein bzw. ist das Geld rausgeworfen, wenn man das Beste nimmt.

Ich persönlich kann mit Vsync nichts anfangen und nehme das Tearing billigend in Kauf, da ich zu sehr im Spiel bin um mich über Kinkerlitzchen aufzuregen. In der Tendenz wäre mir also ein mittelprächtiger Proz. ausreichend. Derzeit bin ich mit einem Phenom II noch recht zufrieden. Dass es bei Skyrim oder in der Stadt von Drakensang 2 mal ein bisschen zäh wird, stört nicht wirklich bei einem RPG.....

Ob sowas stört oder nicht, ist doch wieder hochgradig subjektiv.

Ich störte mich nur an der 60Hz-Geschichte. Das ist nämlich zu allgemein gedacht, da die "alte" CPU nicht in jedem Spiel die 60fps durchgehend packt. Fassen wir mal zusammen:


Mit VSync (GPU kann 60fps, alte CPU nicht):
--> Mehrwert
Mit VSync (GPU kann 60fps, alte CPU auch):
--> kein Mehrwert
Ohne VSync (kein GPU Limit):
Höhere fps, z.B. 30 statt 20 in Shogun 2 --> Mehrwert
Ohne VSync (GPU Limit):
--> kein Mehrwert


Es kommt drauf an, was man spielt. Üblicherweise hat man eine Mischung der Fälle 1 und 2 oder der Fälle 3 und 4 (entweder spielt man immer mit VSync oder nicht). Wenn man nicht gerade ausschließlich mit Fall 2 bzw. Fall 4 unterwegs ist, hat man immer einen gewissen Mehrwert.

Ein Limiter ändert nicht viel daran, es sei denn man limitiert wirklich niedrig, wo keine CPU wirklich ein Problem hat.

ux-3
2012-09-12, 11:02:14
Ein Limiter ändert nicht viel daran, es sei denn man limitiert wirklich niedrig, wo keine CPU wirklich ein Problem hat.

Meine Überlegung war, fürs Messen zu limitieren, damit Overkill-Framerates den Score nicht beeinflussen können. Wäre es dann sinnvoller vsync mit triple buffer beim Messen zu verwenden?

Würde das nicht aber mehr Energie als ein Limiter verbrauchen? Eine schnelle Karte rendert dann doch trotzdem viel mehr Bilder als sie zeigt, oder?

Piffan
2012-09-12, 11:10:48
Du hast in 11 Jahren 3DC noch nichts von TB Vsync gehört? ;)

Klar, aber damit fühlt es sich so eierig an. Wie am Gummiband. Geht ja gar nicht. :freak:

aufkrawall
2012-09-12, 11:13:48
Was willst du sagen? Das ich auch einfach Vsync anmachen könnte um Frames über 60 zu killen und im Alltag leiser zu fahren?

Genau das. TB Vsync (bzw. was mittlerweile darunter verstanden wird) taugt genau so zum Energie sparen wie ein fps-Limiter. Bei vernünftigen Engines ist der Input Lag damit auch nicht viel höher als mit DB.
Wenn man auch meist die 60fps halten kann, kann man bei Nvidia im Treiber noch die CPU Prerendered Frames auf 1 setzen, was den Input Lag nochmal verringert.
So kann ich ohne Probleme BF3 online zocken.


In einigen Spielen beobachte ich dann trotzdem dieses 60-30-20 Raster. Macht das dann das Spiel?

Ja, bei einigen Spielen wird leider kein TB genutzt.
Da gibts dann aber Tricks (über den Treiber forcieren, Vollbild aus und an oder D3DOverrider nutzen).
Eigentlich geht so bei jedem Spiel TB.

boxleitnerb
2012-09-12, 11:21:29
Meine Überlegung war, fürs Messen zu limitieren, damit Overkill-Framerates den Score nicht beeinflussen können. Wäre es dann sinnvoller vsync mit triple buffer beim Messen zu verwenden?

Würde das nicht aber mehr Energie als ein Limiter verbrauchen? Eine schnelle Karte rendert dann doch trotzdem viel mehr Bilder als sie zeigt, oder?

Was ist denn "Overkill"? Das ist ja die Frage - jeder definiert das anders. Wenn man aber so spielt, kann man natürlich so testen.

Kepler spart mit Limiter mehr als mit VSync, ja.

aufkrawall
2012-09-12, 11:24:03
Kepler spart mit Limiter mehr als mit VSync, ja.
Wo steht denn das?

Edit: Hier mit Fermi:
TB Vsync:
http://www.abload.de/thumb/tbvsync0hrat.png (http://www.abload.de/image.php?img=tbvsync0hrat.png)

fps-Limit bei 60, kein Vsync:
http://www.abload.de/thumb/fpslimituhq55.png (http://www.abload.de/image.php?img=fpslimituhq55.png)

0 Unterschied im Energieverbrauch, mit Kepler könnte man sich den sogar anzeigen lassen. ;)
Warum soll also TB Vsync mehr verbrauchen als ein fps-Limit?

boxleitnerb
2012-09-12, 12:01:48
Was sollen die Screenshots zum Energieverbrauch sagen? Gar nix.

Computerbase hat das getestet im Launchartikel:
http://www.computerbase.de/artikel/grafikkarten/2012/bericht-nvidia-geforce-gtx-680/15/

aufkrawall
2012-09-12, 12:13:22
Was sollen die Screenshots zum Energieverbrauch sagen? Gar nix.

Wieso nicht?
Bei beiden läufts nur noch im Videomodus und die GPU-Auslastung ist exakt gleich.
Viel mehr kann bei Vsync also nicht berechnet werden -> ergo gleicher Energieverbrauch.


Computerbase hat das getestet im Launchartikel:
http://www.computerbase.de/artikel/grafikkarten/2012/bericht-nvidia-geforce-gtx-680/15/
Gesamtsystemmessungen bei CB, super. :freak:

boxleitnerb
2012-09-12, 12:15:01
Wieso nicht?
Bei beiden läufts nur noch im Videomodus und die GPU-Auslastung ist exakt gleich.
Viel mehr kann bei Vsync also nicht berechnet werden -> ergo gleicher Energieverbrauch.


Gesamtsystemmessungen bei CB, super. :freak:

Weil ich da kein Wattmeter sehe. Ergo Spekulatius deinerseits.

Ja, weil nur das relevant ist, wenn man wissen will, ob man mit Limiter was sparen kann. Ich kann schließlich nicht die Grafikkarte alleine auf den Tisch legen und sagen "mach mal".

aufkrawall
2012-09-12, 12:20:28
Weil ich da kein Wattmeter sehe. Ergo Spekulatius deinerseits.

Ich hatte auch schon mal ein Wattmeter dran.
Moment, ich hols...

Edit: Nicht auffindbar, später (nur von Genies umgeben...).

boxleitnerb
2012-09-12, 12:36:10
Ist doch auch egal, da ich von Kepler sprach, nicht Fermi. Fermi kann die feinen Takt- und Spannungsstufen nicht einstellen, die es bei Kepler gibt durch den Turbo. Da kommt mMn die Ersparnis her.

aufkrawall
2012-09-12, 12:37:50
Ich hab hoffentlich in spätestens 2 Wochen wieder Kepler, das probier ich dann damit auch nochmal aus.

ux-3
2012-09-12, 13:00:39
Ich sollte mich wohl auch langsam mal für eine Kepler-Karte entscheiden... Warum ist das immer so schwer?

aufkrawall
2012-09-12, 14:45:02
Ist etwas OT, aber was solls:
Nur fps Cap bei 60 ist doch arg unschön. Das läuft im Vergleich zu gesyncten 60fps total unweich und das Tearing stört auch extremst.
Dafür ist es nicht Wert, 20 Watt zu sparen.

ux-3
2012-09-12, 16:29:08
Ist etwas OT, aber was solls:
Nur fps Cap bei 60 ist doch arg unschön. Das läuft im Vergleich zu gesyncten 60fps total unweich und das Tearing stört auch extremst.
Dafür ist es nicht Wert, 20 Watt zu sparen.

Ich nutze sonst V-Sync.

ux-3
2012-09-13, 23:06:32
Ich hab gerade mal mit einem Sandy i3 und einem q9550 gebenched. (GF460)
I3 auf 3,3 GHz, Q9550 auf 3,6 GHz. 3DMark06 durchlaufen lassen.

Sowohl beim Shader 2 wie beim Shader 3 Score kann der i3 trotz Taktnachteil dem Quad davonziehen (um 17 bzw. 4%). Beim CPU Score holt die Realität den i3 dann doch ein, der Quad kommt 40% besser weg.

Edit: Könnte mal bitte jemand eine flotte AMD Quadcore CPU mit z.B. einer GF460 auf 3DM06 benchen und die vier Ergebniswerte posten. Mich würde insbesondere der CPU Score interessieren. Danke.

Edit:
Hier ist noch ein interessantes Ergebnis für CPU Leistung (gerade in anderem Thread gefunden):
www.computerbase.de/news/2012-09/f1-2012-erste-cpu-und-grafikkartenbenchmarks/

Dicker Igel
2012-09-14, 18:05:48
Hab hier noch 'nen alten Screen:

http://www.abload.de/thumb/3dmark06_8xsq_16xhqafyx6w.jpg (http://www.abload.de/image.php?img=3dmark06_8xsq_16xhqafyx6w.jpg)