Archiv verlassen und diese Seite im Standarddesign anzeigen : Quadcore>Dualcore bei Spielen?
FluFFy80
2008-03-31, 22:38:25
Hallo!
In der nächsten Zeit steht bei mir ein neuer PC an.
Ich bin mir aber nicht sicher, zu welcher CPU ich greifen soll. Bringen Quadcores überhaupt etwas gegenüber Dualcores wenn die Leistung des PCs ausschließlich zum Daddeln benötigt wird?
Wenn ja: Wo liegen die Vorteile bzw. in welcher Größenordnung bewegen sie sich leistungsmäßig?
Wenn nein: Danke :)
Die gelbe Eule
2008-03-31, 22:49:56
Es kommt leider auf den Takt an. 4GHz E8XXX laufen Quadcore schon davon und das zum günstigeren Preis. Einen Quad oder E8XXX stock einzubauen lohnt sich kaum, es sei denn, man gibt extra Kohle aus für den höheren Takt, damit man selbst nicht schrauben muss.
http://www.xbitlabs.com/articles/cpu/display/core2quad-q6600_8.html#sect0
Vielleicht hilft das weiter. Man muss auch immer den Aufpreis bedenken den ein Quad mehr kostet.
Es kommt leider auf den Takt an. 4GHz E8XXX laufen Quadcore schon davon und das zum günstigeren Preis. Einen Quad oder E8XXX stock einzubauen lohnt sich kaum, es sei denn, man gibt extra Kohle aus für den höheren Takt, damit man selbst nicht schrauben muss.
http://www.xbitlabs.com/articles/cpu/display/core2quad-q6600_8.html#sect0
Vielleicht hilft das weiter. Man muss auch immer den Aufpreis bedenken den ein Quad mehr kostet.
:D
@FluFFy80
bei gleichem Takt ist ein QC einem DC fast überall uberlegen, auch bei weniger optimierten Anwendungen. Allerdings wird der Support für mehrere Kerne ständig verbessert so das der Vorsprung wächst.
Der Nachteil ist natürlich das ein DC wesentlich günstiger ist wie ein QC bei gleichem takt. Ein E8400 ist mit unter 200€ eigentlich ein Preis/Leistungstipp, der QC fürs Zocken ist der 9450, der kostet mehr und pro Kern fehlen ihm etwa 15% Leistung. In "schlecht" optimierten Spielen ist der E8400 schneller zudem kostet der weniger und der Verbrauch ist niedriger.
FluFFy80
2008-03-31, 23:23:54
Dank an Euch für die Antworten.
Also sieht es momentan noch so aus dass Qudcores für's Spielen zu teuer bzw. deren Preis/Leistungsverhältnis nicht konkurrenfähig zu den Dualcores ist wenn ich es richtig verstehe.
kiwit
2008-04-01, 00:03:46
Wenn du nicht übertakten willst würde ich zum E8400 greifen. Solltest du übertakten wollen wäre der Q9300 mit sicherheit ein Blick wert. Beide sind momentan aber nur zu unverschämten Preisen erhältlich.
Die gelbe Eule
2008-04-01, 00:05:06
Zu teuer ist relativ. Kannst Dir nun einen kaufen und den mindestens 16 Monate drin lassen. Wertverlust ist verschmerzbar.
Tja und was soll der C2D Besitzer machen, der meint das eine CPU vom August 2006 langsam erneuert werden sollte?
Ein E8XXX macht wenig Sinn.
Wenn dann muss ein Quad her... der dann mal eben so teuer (270€) ist das es sich das auch nicht wirklich lohnt.
Thunder99
2008-04-01, 02:13:52
Tja und was soll der C2D Besitzer machen, der meint das eine CPU vom August 2006 langsam erneuert werden sollte?
Ein E8XXX macht wenig Sinn.
Wenn dann muss ein Quad her... der dann mal eben so teuer (270€) ist das es sich das auch nicht wirklich lohnt.
Der hat zu viel Geld. ALT heißt nicht immer langsam
Botcruscher
2008-04-01, 12:20:51
Der Xbitlabs Test von Supcom ist ganau so brauchbar wie der von THG und Konsorten. In einm Multi hat man nie über 50FPS. Wenn da irgendwann mal <20 stehen sollte ist es ein brauchbarer Test.
Und was soll schon wieder der Vergleich zu einem 4GHz E8XXX?! Selbst die ollen Q6600 gehen auf 3,6.
Alles andere hängt von den (PC)-Anwendungen ab. Bei Multiplattform-Titeln wird man nichts sehen. Die sind zwar Multicore aber müssen auf wesentlich langsameren Konsolenkernen laufen.
Der hat zu viel Geld. ALT heißt nicht immer langsam
Ist mir bewust, das er nicht langsam ist. Aber ein entsprechender Quad, leicht höher getaktet, mit höherer Pro/Mhz Leistung als ein Conroe, der wiederum schneller als ein Allendale ist, wär etwas feines.
Nehalem macht ja anfangs wenig Sinn, da ebenfalls teuer, lahmer teurer DDR3 notwendig und ein Brett wechsel verlangt.
Da ist ein Performance Kick heute genau das Richtige.
naja,wie mans nimmt ich hab meinen Q6600@3.4GHZ mal gegen einen 8200@4.0GHZ getauscht,sind ja nur 600mhz und mit nem FSB von 500 und anständigen Rams ist es lt.Everest beim Schreibdurchsatz der minimale Unterschied von knappen 8000 zu 10500.
Zum Zocken reicht mir das,und ja ich hab nie,nirgends auch nur einen Vorteil des Q gesehen,ich mache allerdings auch 1 nach dem andern :tongue: ach ja und beim Rippen brügelt der 8200 den Q sowas von zusammen.
Ich laß den kleinen mal werkeln und im Spätjahr gegen den GT200 antreten,mal schauen,bis jetzt ist das mit Abstand das schnellste Sys was ich je hatte und "kost nix".
Nur vom Vista Test bin ich etwas entäuscht 5.9 Q zu 5.8 Wölfchen,die versauen einem echt den ganzen Spaß ;D
dargo
2008-04-01, 15:44:43
Hallo!
In der nächsten Zeit steht bei mir ein neuer PC an.
Ich bin mir aber nicht sicher, zu welcher CPU ich greifen soll. Bringen Quadcores überhaupt etwas gegenüber Dualcores wenn die Leistung des PCs ausschließlich zum Daddeln benötigt wird?
Natürlich, hängt halt vom Spiel ab.
Wenn ja: Wo liegen die Vorteile bzw. in welcher Größenordnung bewegen sie sich leistungsmäßig?
Diese Frage lässt sich pauschal nicht beantworten, siehe oben.
Unrealswebmaster
2008-04-06, 12:17:14
wenn vergleiche gezogen werden dann doch bitte immer mit dem gleichen takt nicht 3.6 gegen 4.0 ghz :mad:
mike49
2008-04-06, 12:50:47
wenn vergleiche gezogen werden dann doch bitte immer mit dem gleichen takt nicht 3.6 gegen 4.0 ghz :mad:
Wieso denn?
Das bei Quads etwas früher Schluß ist mit OC als bei Dualcores ist nunmal so und sollte durchaus mit berücksichtigt werden.
Daher übrigens auch meine Empfehlung für einen flotten Dualcore. Das höhere OC-Potenzial sollte gerade bei Spielen deutlich mehr bringen als 4 niedriger getaktete Cores.
Daher übrigens auch meine Empfehlung für einen flotten Dualcore. Das höhere OC-Potenzial sollte gerade bei Spielen deutlich mehr bringen als 4 niedriger getaktete Cores.
Ja, jetzt. Und was ist in 6 Monaten und bei schon heute stark mehrfadigen Anwendungen? Ich würde heute keinen Dualcore mehr kaufen. Nicht bei den Preisen für G0-Q6600er und AMDs Phenoms. Es ist nur eine Frage der Zeit, bis die Quads immer schneller sind. Und Letztere sind ja aktuell nicht lahm. Es spielt IMO keine Rolle, ob man aktuell 70 Fps mit 2 Kernen @ 4 GHz oder 60 Fps mit 4 Kernen @ 3,6 GHz hat. 2009 wird das Verhältnis ganz anders aussehen ... und bis dahin hält garantiert jeder Quad dieser Welt. ;)
MfG,
Raff
ich sehe es genauso wir raff.
und was mir aufgefallen ist, gerade bei den min fps empfinde ich mit meinem quad im vergleich (beide @3.3GHz) zu seinem core2duo vorgaenger weniger input lag. gilt insbesondere bei onlinerunden im kampfgetuemmel mit vielen mitspielern.
ein dualcore waehre fuer mich ein inakzeptabler rueckschritt.
In 6 Monaten kosten die QC noch weniger.........und was auf einem DC ohne ende ruckelt ruckelt auch auf einem QC.
Buzzler
2008-04-06, 14:53:25
Ja, jetzt. Und was ist in 6 Monaten und bei schon heute stark mehrfadigen Anwendungen?
Gibts denn wirklich schon Anwendung außerhalb des "embarassingly parallel"-Bereichs, die ernsthaft multi-threaded sind? Bis 2009 einen deutlichen Vorteil zugunsten von Quadcore-CPUs zu sehen, finde ich ganz schön optimistisch.
Ich würde heute keinen Dualcore mehr kaufen. Nicht bei den Preisen für G0-Q6600er und AMDs Phenoms. Es ist nur eine Frage der Zeit, bis die Quads immer schneller sind.
Hmmja, wenn man übertaktet (wohl die meisten hier, mich eingeschlossen), wärs eigentlich Quark, die zusätzlichen zwei Kerne nicht mitznehmen. Wenn man aber mal ein bisschen über den Tellerrand schaut, zu den Leuten, die (mangels Kenntnis oder "Mut") nicht übertakten wollen und bei denen die Rechner mit der ganz heißen Nadel gestrickt werden müssen - ich hab im RL praktisch nur mit solchen Leuten zu tun - lohnt es sich IMHO schon, eher einen hochgetakteten DC als einen niedriggetakteten QC zu nehmen.
Phantom1
2008-04-06, 16:52:50
Bei Spielen mit quadcore optimierung sieht es in der Tat noch sehr schlecht aus, immerhin hat AssasinsCreed schon eine kleine optimierung:
http://img529.imageshack.us/img529/636/unbenannt1yw2.jpg
mike49
2008-04-06, 17:16:45
Es spielt IMO keine Rolle, ob man aktuell 70 Fps mit 2 Kernen @ 4 GHz oder 60 Fps mit 4 Kernen @ 3,6 GHz hat. 2009 wird das Verhältnis ganz anders aussehen ... und bis dahin hält garantiert jeder Quad dieser Welt. ;)
Ich glaube defintiv nicht, daß es bis 2009 Spiele geben wird, die zwingend einen Quadcore voraussetzen.
Um bei obigen Beispiel zu bleiben: Was auf einem Penryn-DC @4GHz ruckelt wird auch auf einem Penryn-Quad @3,6GHz nicht flüssig laufen.
Ach ja, hier übrigens noch was zum aktuellen Stand DC vs. Quad in Spielen:
http://www.abload.de/img/cborr6.png (http://www.abload.de/image.php?img=cborr6.png)
Innerhalb der gleichen Architektur liegt der Quad sogar 1% hinter dem gleichgetakteten DC zurück in Spielen.
dargo
2008-04-06, 17:17:12
Bei Spielen mit quadcore optimierung sieht es in der Tat noch sehr schlecht aus, immerhin hat AssasinsCreed schon eine kleine optimierung:
http://img529.imageshack.us/img529/636/unbenannt1yw2.jpg
So schlecht sieht es heute gar nicht mehr aus. Viele wissen einfach nicht wie man das testet. Wenn ich schon einen Vergleich sehe wo mit 1024x768 gebencht wird. :rolleyes:
Außerdem, eine G8800GT um zu zeigen ob der Quadcore Vorteile bringt? :|
Für solche Tests bräuchte man eine Grafikkarte mit am besten der doppelten Performance der GT.
PS: der Quadcore bringt übrigens gute 20% Vorteil laut diesem Test. Hätte man ein 100%-iges CPU-Limit provoziert kann ich mir gut vorstellen, dass der Quadcore in dieser Szene weitaus mehr als +20% bringt.
Ferengie
2008-04-06, 17:22:02
schöner Vergleich mit Lastanzeige 2Seiten (http://techreport.com/articles.x/14424/4)
dargo
2008-04-06, 17:25:27
Ich glaube defintiv nicht, daß es bis 2009 Spiele geben wird, die zwingend einen Quadcore voraussetzen.
Das stimmt allerdings. Ist aber auch irgendwo logisch. Kein Spielehersteller kann es sich in 2009 leisten Dualcore-Besitzer auszuschließen. Dafür ist es noch viel zu früh.
Um bei obigen Beispiel zu bleiben: Was auf einem Penryn-DC @4GHz ruckelt wird auch auf einem Penryn-Quad @3,6GHz nicht flüssig laufen.
Das ist falsch. Selbst wenn ein Game durch einen Quadcore "nur" zu 80% profitiert ist der 3,6Ghz Quad immer noch 44% schneller als der 4Ghz Dual. Wenn der Dual dann max. 30fps liefert hast du mit dem 3,6Ghz Quad bessere Karten.
PS: es gibt heute schon Games (Engines) die nahezu zu 100% von einem Quad profitieren. In diesem Fall ist der 3,6Ghz Quad sogar ganze 80% schneller als der 4Ghz Dual.
Nightspider
2008-04-06, 17:30:21
Mit Race Driver GRID, Alan Wake, FarCry2 (8 Threads) und vielen anderen Titeln stehen uns dieses Jahr noch viele Spiele ins Haus, sicherlich werden einige von ihnen eine Quad-Auslastung von naha 100% erreichen, wenn man die Grafik auf low stellt.
Wichtig ist aber, ob man die QuadCores auch benötigt, weil überhaupt soviel CPU Power benötigt wird.
Denn was nützt es mir, wenn ich den Quad nur merke, wenn ich die Grafik auf low stelle.
Sicherlich ist die Aussage dahingehen Repräsentativ, wie gut die Programmierer die Last verteilt haben.
Es lässt aber kaum einen Schluss darauf zu, wieviel CPU-Power wirklich benötigt wird.
Edit:
Wenn ich mir dann aber die Auslastungsanzeige bei Supreme Commander anschaue, bekomm ich das kotzen.
Das Spiel wurde zu einer Zeit programmiert, wo es längst DualCores gab. Die Programmierer hätten viel mehr Arbeit in die Lastverteilung stecken müssen.
Sowas nenn ich echt schwach.
mike49
2008-04-06, 17:33:05
Das ist falsch. Selbst wenn ein Game durch einen Quadcore "nur" zu 80% profitiert ist der 3,6Ghz Quad immer noch 44% schneller als der 4Ghz Dual. Wenn der Dual dann max. 30fps liefert hast du mit dem 3,6Ghz Quad bessere Karten.
Sorry, aber dafür will ich Praxisbeispiele sehen. Und zwar nicht auf 640*480 sondern in realistischen Settings mit AA/AF.
Klar gibt es 1-2 Beispiele, wo Games in praxisfernen LQ-Settings von Quadcore profitieren und die die Quad-Befürworter gerne immer wieder rauskramen. Die Regel ist das aber ganz sicher nicht und daran wird sich auch in 2009 nichts ändern ;)
dargo
2008-04-06, 17:35:51
Wichtig ist aber, ob man die QuadCores auch benötigt, weil überhaupt soviel CPU Power benötigt wird.
Das ist die wichtigste Frage überhaupt! Und die kann eh jeder nur für sich individuell beantworten. Es hängt halt von den Ansprüchen ab. Wieviel fps braucht denn wirklich jemand? Ich bin zb. mit ca. 40fps in vielen Games zufrieden. Liefert meine CPU irgendwann mal nur noch 30-35fps wird es höchste Zeit diese durch einen mindestens gleichgetakteten Quad zu tauschen. Das sind aber nur meine Ansprüche. Bei anderen kann es durchaus anders aussehen.
Sorry, aber dafür will ich Praxisbeispiele sehen. Und zwar nicht auf 640*480 sondern in realistischen Settings mit AA/AF.
Du bist wieder einer von der Sorte der es überhaupt nicht verstanden hat wie man CPU-Leistung testet. Sorry, ist nicht böse gemeint. Wenn du das aber nicht verstehst dann erübrigt sich jede weitere Diskussion darüber.
mike49
2008-04-06, 17:39:14
Liefert meine CPU irgendwann mal nur noch 30-35fps wird es höchste Zeit diese durch einen mindestens gleichgetakteten Quad zu tauschen.
Und wer sagt, daß es mit einem gleichgetakteten Quad besser laufen wird?
Zumindest für den allergrößten Teil der aktuellen Spiele kann man diese Aussage nämlich gleich in die Tonne kloppen und ob in Zukunft tatsächlich die Zahl der Cores den Ausschlag geben wird muß sich erst noch zeigen...
dargo
2008-04-06, 17:41:24
Klar gibt es 1-2 Beispiele, wo Games in praxisfernen LQ-Settings von Quadcore profitieren und die die Quad-Befürworter gerne immer wieder rauskramen. Die Regel ist das aber ganz sicher nicht und daran wird sich auch in 2009 nichts ändern ;)
Da wette ich gerne mit. Meine weiteren Kandidaten für Quadcores sind so gut wie sicher Race Driver: GRID und Operation Flashpoint 2. Beides basiert auf der Neon-Engine die schon bei DIRT Verwendung findet.
Und wer sagt, daß es mit einem gleichgetakteten Quad besser laufen wird?
Das ist die ganz normale Entwicklung. Ich sage ja nicht, dass es in jedem Game der Fall sein wird. Aber die selbe Frage stellte man schon früher als der Dualcore in den Kinderschuhen stand.
Eins ist sicher. Um den Quad vernünftig auszulasten muss die Engine mehr als vier Threads verwalten können. Je mehr umso effizienter wird der Quad ausgelastet. Das hat schon sehr gut die Neon-Engine von DIRT mit ihren max. 8 Threads gezeigt.
mike49
2008-04-06, 17:46:38
Du bist wieder einer von der Sorte der es überhaupt nicht verstanden hat wie man CPU-Leistung testet. Sorry, ist nicht böse gemeint. Wenn du das aber nicht verstehst dann erübrigt sich jede weitere Diskussion darüber.
Scheinbar hast Du nicht ganz den Unterschied zw. Theorie u. Praxis (-> von mir ausdrücklich betont) verstanden, daher nochmal:
Wenn dein potenzielles CPU-Killer Spiel auch Grafikleistung zum Frühstuck verspeist hilft mir der theoretische Vorsprung in der Praxis überhaupt nichts.
Theorie: QC produziert 120fps bei 800x600er Auflösung
Praxis: Selbst mit GT200 kommen bei 1.920x1.200 nur 40fps raus
Und letztlich geht es - mit zumindest - um das was tatsächlich am Ende bei rauskommt an fps und nicht das, was theoretisch bei 800er Auflösung rauskommen könnte da solche Auflösungen für jeden Spieler völlig irrelevant sind!
Ein Q6600 G0 ist zur Zeit günstig und gut OC bar und bietet eine sehr gute Performance, ich würde kein DC mehr kaufen :wink:
Ich glaube defintiv nicht, daß es bis 2009 Spiele geben wird, die zwingend einen Quadcore voraussetzen.
Davon sprach niemand. ;) Von Alan Wake sagte man aber schon 2005, dass zumindest ein Dualcore Pflicht ist. Wenn man sich ansieht, wie gerade Konsolenportierungen auf einem Ex-High-End-Singlecore wegbrechen, ist das eine logische Konsequenz. Da das Spiel aber aller Voraussicht nach im Bundle mit dem Duke kommt, spielt es keine Rolle.
Zum Rest siehe dargo & Co. Es ist IMO kurzsichtig, bei gleichen Preisen zwei Kerne zu "verschenken".
MfG,
Raff
dargo
2008-04-06, 17:55:56
Theorie: QC produziert 120fps bei 800x600er Auflösung
Praxis: Selbst mit GT200 kommen bei 1.920x1.200 nur 40fps raus
Ich sags doch. Du hast es nicht verstanden. Dann wirst du mir sicherlich erklären können warum DIRT mir in einer bestimmten Szene mit einem C2D@2,13Ghz 36fps in 1280x1024 4xMSAA/16xAF liefert und ein gleichgetakteter Quad 70fps? Als Graka kam bei mir die G80GTS@612/900Mhz zum Einsatz. Bei dem Quadcore-Besitzer eine HD2900XT@800Mhz (den Speichertakt weiß ich leider nicht mehr). Es macht überhaupt keinen Sinn CPU-Leistung mit GPU-Limits zu benchen. Umgekehrt genauso.
Nochwas zu deiner Theorie (120fps) und Praxis (40fps):
Das ist die wichtigste Frage überhaupt! Und die kann eh jeder nur für sich individuell beantworten. Es hängt halt von den Ansprüchen ab. Wieviel fps braucht denn wirklich jemand? Ich bin zb. mit ca. 40fps in vielen Games zufrieden.
Denk mal drüber nach. ;)
mike49
2008-04-06, 18:00:28
Es ist IMO kurzsichtig, bei gleichen Preisen zwei Kerne zu "verschenken".
Das will ja auch niemand hier machen, aber ganz so gleichauf liegen DC u. QC kostenmässig definitiv nicht:
- Der Quad braucht deutlich mehr Strom, da hängen dann auch NT u. Kühler mit hinten dran.
- Die Quads gehen aktuell bei ~ 160€ los, einen vergleichbaren DC (E4x00) kriegst schon ab ~ 80€.
- Mit dem Quad verschenkt man OC-Potenzial wovon derzeit fast alle Spiele deutlich mehr in Form von höherem Takt profitieren.
Daß die Zeit von SC in Games abgelaufen ist steht natürlich außer Frage, siehe z.B. NFS Pro Street. Hauptsächlich profitieren die Spiele aktuell aber gar nicht direkt von DC sondern nur aufgrund der Tatsache, daß viele OS-Prozesse (GPU-Treiber etc.) auf den 2. Kern ausgelagert werden.
dargo
2008-04-06, 18:03:59
Daß die Zeit von SC in Games abgelaufen ist steht natürlich außer Frage, siehe z.B. NFS Pro Street. Hauptsächlich profitieren die Spiele aktuell aber gar nicht direkt von DC sondern nur aufgrund der Tatsache, daß viele OS-Prozesse (GPU-Treiber etc.) auf den 2. Kern ausgelagert werden.
Mich würde mal interessieren von welchen Games du sprichst? Kann es sein, dass die Spiele schon älter sind? Praktisch jeder Portierung profitiert hervorragend von einem zweiten Kern. Mit hervorragend meine ich nahezu zu 100%.
- Die Quads gehen aktuell bei ~ 160€ los, einen vergleichbaren DC (E4x00) kriegst schon ab ~ 80€.
Ein vergleichbarer DC ist sogar teurer. X-D
http://geizhals.at/deutschland/a200142.html
Ich weiß, der E6600 ist keine gute Wahl. Vergleichbar wäre in etwa der E6550:
http://geizhals.at/deutschland/a261878.html
Den Q6600 bekommt man also für +~55€. Wen die Verlustleistung nicht stört, kein schlechter Deal.
Das will ja auch niemand hier machen, aber ganz so gleichauf liegen DC u. QC kostenmässig definitiv nicht:
- Der Quad braucht deutlich mehr Strom, da hängen dann auch NT u. Kühler mit hinten dran.
- Die Quads gehen aktuell bei ~ 160€ los, einen vergleichbaren DC (E4x00) kriegst schon ab ~ 80€.
- Mit dem Quad verschenkt man OC-Potenzial wovon derzeit fast alle Spiele deutlich mehr in Form von höherem Takt profitieren.
Moment, hier wurde ein Wolfdale mit einem Kentsfield-G0 verglichen. Ein E8400 (180€) (http://geizhals.at/deutschland/a305746.html) kostet aktuell etwa so viel wie ein Q6600 (170€) (http://geizhals.at/deutschland/a276281.html), sie müssen sich also einem Vergleich stellen. Beide sind sauschnell und für heutige Spiele selbst bei Standardtakt idR "zu schnell". Übertaktet man beide auf ihre Topwerte (4 respektive 3,6 GHz), führt der Wolfdale meist (ebenso auf Standardtakt). Geht's aber ans Kernspalten, ist der Kentsfield vorne.
MfG,
Raff
Phantom1
2008-04-06, 18:12:05
- Der Quad braucht deutlich mehr Strom, da hängen dann auch NT u. Kühler mit hinten dran.
So schlimm ist das ehrlich gesagt garnicht, denn ein E6750 und ein Q9300 verbrauchen im IDLE zeimlich genau das gleiche (hab ich selbst nachgemessen). Unter last sinds "nur" ca 25 watt mehr beim Q9300.
mike49
2008-04-06, 18:19:34
Moment, hier wurde ein Wolfdale mit einem Kentsfield-G0 verglichen.
Sorry, aber ich bin zunächst eigentlich von Wolfdale vs. Yorkfield ausgegangen. Die 4 resp. 3,6GHz scheinen mir eigentlich auch nur für Penryns wirklich realitisch @Air
Beide sind sauschnell und für heutige Spiele selbst bei Standardtakt idR "zu schnell". Übertaktet man beide auf ihre Topwerte (4 respektive 3,6 GHz), führt der Wolfdale meist (ebenso auf Standardtakt). Geht's aber ans Kernspalten, ist der Kentsfield vorne.
Vollste Zustimmung! Aber gerade beim Kernspalten haben Spiele nun mal so Ihre Probleme.
Ich erlaube mir nochmal, auf diesen aktuellen CB-Test hinzuweisen: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6411809&postcount=20
Jake Dunn
2008-04-06, 18:19:55
Ich hab ein Q6600@stock gemessen mit CE1 und Speedstep hat der PC im IDLE 125Watt gezogen und der E2160@3,2ghz den ich zur Zeit drin habe verbraucht 122Watt im IDLE (gesamter PC).
In Games ist der unterschied schon krass besonders bei den ganzen konsolen Titeln GOW,DIRT,Bioshock, MoHa, selbst in Q4 merkt man die schlechtere Performance vom C2D :rolleyes:
dargo
2008-04-06, 18:25:55
Ich erlaube mir nochmal, auf diesen aktuellen CB-Test hinzuweisen: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6411809&postcount=20
Der CB-Bench ist leider nichts sagend. Jetzt nichts gegen CB aber von CPU testen haben die keine Ahnung. Das benchen von CPU-Leistung ist schon einiges aufwändiger als paar Timedemos laufen zu lassen.
Ich hab ein Q6600@stock gemessen mit CE1 und Speedstep hat der PC im IDLE 125Watt gezogen und der E2160@3,2ghz den ich zur Zeit drin habe verbraucht 122Watt im IDLE (gesamter PC).
Das kann aber nicht stimmen. Es sei denn, der E2160 läuft in Idle mit 3,2Ghz ohne C1E/EIST.
Jake Dunn
2008-04-06, 18:59:10
Das kann aber nicht stimmen. Es sei denn, der E2160 läuft in Idle mit 3,2Ghz ohne C1E/EIST.
Bei dem E2160 ist OC bedingt das C1E/Speedstep aus ;) beim Zocken zieht der Q6600 ca. 30-50Watt mehr.
Der CB-Bench ist leider nichts sagend. Jetzt nichts gegen CB aber von CPU testen haben die keine Ahnung. Das benchen von CPU-Leistung ist schon einiges aufwändiger als paar Timedemos laufen zu lassen.
Das kann aber nicht stimmen. Es sei denn, der E2160 läuft in Idle mit 3,2Ghz ohne C1E/EIST.
Klar kann man irgendwelche low-res Szenarien testen, die dann einen grossen Unterschied in den CPU tests aufzeigen.
In der Praxis ist das aber nichtssagend. Ein Quad bringt in Spielen sogut wie nichts. Kaum ein Spiel beansprucht mehr als zwei Kerne. Wenn man sich CPU Tests genau anschaut, ist ein dual core optimal, je höher getaktet umso besser.... also lieber hochgetakteter DC als Quad. Das Geld für Quad kann man sich wirklich sparen (oder für was anderes verwenden...)
dargo
2008-04-06, 19:42:26
Klar kann man irgendwelche low-res Szenarien testen, die dann einen grossen Unterschied in den CPU tests aufzeigen.
Seit wann ist 1280x1024 4xAA/16xAF ein low-res Szenario? :|
In der Praxis ist das aber nichtssagend. Ein Quad bringt in Spielen sogut wie nichts.
Das ist eine glatte Lüge. Übrigens, zeig mir mal paar Netz-Benches die praxisnah Grafikkarten testen. Jetzt bin ich gespannt. Kleiner Tipp, Timedemos ist keine Praxis. :wink:
Mich würde mal interessieren von welchen Games du sprichst? Kann es sein, dass die Spiele schon älter sind? Praktisch jeder Portierung profitiert hervorragend von einem zweiten Kern. Mit hervorragend meine ich nahezu zu 100%.
Prey profitiert nicht vom zweiten Kern. Und das obwohl die Engine (Doom3) es eben dort sehr wohl macht.
Schlecht programiert?
MasterElwood
In der letzten Gamestar ist ein vergleich Crysis. 1 Core - 2 Core - 4 Core.
Zwischen 1 und 2 Core tut sich was, zwischen 2 und 4 fast garnix mehr...
MasterElwood
dargo
2008-04-08, 10:36:34
Prey profitiert nicht vom zweiten Kern. Und das obwohl die Engine (Doom3) es eben dort sehr wohl macht.
Schlecht programiert?
MasterElwood
Prey? Wen interessiert heute noch so ein alter Schinken? Selbst wenn Prey keinen Multicore unterstützt macht das überhaupt nichts. Die Frames bewegen sich trotzdem locker über 75fps mit einem C2D@~3Ghz.
In der letzten Gamestar ist ein vergleich Crysis. 1 Core - 2 Core - 4 Core.
Zwischen 1 und 2 Core tut sich was, zwischen 2 und 4 fast garnix mehr...
MasterElwood
Link? Ob Gamestar es richtig getestet hat darf nämlich bezweifelt werden.
@dargo, übertreib mal nicht so. Spiele sind unterhaltung, nicht jeder fährt auf so einen Rotz wie Crysis ab, du brauchst Spiele wegen ihres alters nicht abwerten. Auch wenn ich Prey nicht Spiele.
dargo
2008-04-08, 10:52:40
@dargo, übertreib mal nicht so. Spiele sind unterhaltung, nicht jeder fährt auf so einen Rotz wie Crysis ab, du brauchst Spiele wegen ihres alters nicht abwerten. Auch wenn ich Prey nicht Spiele.
Wer wertet hier was ab? :|
Prey ist nun mal ein alter Schinken wenn es um Multicoresupport geht. Ist aber wie gesagt überhaupt nicht tragisch da selbst ein Singlecore genug fps liefert.
Mr.Fency Pants
2008-04-08, 11:03:18
Link? Ob Gamestar es richtig getestet hat darf nämlich bezweifelt werden.
Du kannst alles so testen, dass es entweder viel oder wenig bringt. Das bekommt man mit beiden Extremen hin. Es geht aber eher darum, was die Masse in den meisten Spielen davon hat und da bringt ein Quad momentan noch kaum Vorteile. Es fehlen einfach Spiele, die einen signifikaten Voteil aus einem Quad ziehen. Die Leute (und auch ich) wollen einen direkten Vorteil sehen, der sich nicht nur auf Ausnahmesituationen bezieht.
KayCee
2008-05-07, 12:28:23
Die Multicore-Anwendungen nehmen mit der Zeit protential zu.
Ich würde heute auch nicht mehr auf "ältere" Dual-Core Technik zurückgreifen.
Wenn man sie Preise ansieht, okay...das wäre ein Argument für einen Dual-Core Prozzessor.
Dennoch ist dann die Frage bzgl. der Zukunftsträchtigkeit zu klären und die macht am besten jeder mit sich selbst aus.
Ich würde heute keinem mehr einen DC empfehlen, aber man muss natürlich auch immer das nötige Kleingeld besitzen.
Interessant zu diesem Thema sind übrigens auch folgende Links:
Klich hier (http://www.tomshardware.com/de/cpu-skalierung-multicore,testberichte-239877.html)
Klick hier (http://www.pcgameshardware.de/?article_id=622467)
Klick hier (http://www.pcgameshardware.de/?article_id=602653)
Exxtreme
2008-05-07, 12:59:28
Auch wenn der Thread schon etwas älter ist, Dualcores würde ich auch nicht kaufen.
Rancor
2008-05-07, 13:02:58
Meiner Meinung nach steht es jawohl außer Frage, das wenn man sich jetzt nen neune Rechner kauft man wohl logischerweise sich einen QuadCore kauft und kein DC mehr.
Man kann davon ausgehen das zukünftige Spiele vom 4 Kernen profitieren, sei es durch bessere Physik, die auf der CPU berechnet wird, oder aber durch deutlich bessere KI.
Aber...
Jetzt von einem aktuell Core2Duo, vonm Schlage einen E6750 oder E8400 aufe einen Quad zu uppen ist imho nicht notwendig.
Ich denke mit einem aktuellen DC wird man wohl noch 1 -2 Jahre lang jedes Spiel zocken können, vorrausgesetzt man hat die passedne Grafikkarte..
Es ist doch eher so das im Moment die neuen Spiele eher GPU-limitiert sind und nicht CPU, und das wird in Zukunft denke ich mal genau so sein....
Und wiedermal: Es kommt immer darauf an, was man testet :D.
Es gibt 3 Arten von Spielen, die getestet werden:
1.) Extrem Grafiklimitiert (Crysis z.B.), damit kann man so gut wie keine Aussage über die tatsächliche CPU-Leistung treffen. Bei Crysis sind die internen Benchmarks auch noch so scheisse gewählt, dass dabei überhaupt kein brauchbarer Wert rauskommt. Weder für CF/SLI und schon garnicht für die CPU-Leistung.
2.) 0 oder Pseudo-MT-Optimiert (UT04, Farcry, C&C3, Anno1701) - hier sind die hochgetakteten DCs stark im Vorteil. Da vor allem Anno nichtmal SSE unterstützt, sind die Core ggü. den AMDs stark im Vorteil. Für mich scheidet dieses Spiel aus jedem sinnvollen Vergleich gnadenlos aus, da nicht mehr repräsentativ.
3.) Stark-MT-optimierte-XBox360-Umsetzungen (AC (damit auch Farcry2), LP, CMR-Dirt, sämtliche U3-based-Titel...), das ist die Zukunft der Games, da der PC sich als alleinige Plattform für Spiele nicht mehr lohnt. Diese Titel sind für die CPU der XBox ausgelegt, welche aus 3(!) Kernen besteht, die an sich recht wenig leisten. Wer diese Konsole ausnutzen will muss gnadenlos auf MT optimierten, die PC-Umsetzungen bekommen diese Optimierungen mit. Man sieht es ganz gut an Benches, in AC z.B. schneidet der Phenom am besten ab (in der PCGH z.B.).
Man sieht, Quads sind alles andere als unnütz, in 2009 ist ein DualCore lowend, bei beiden Herstellern. Wer sich jetzt einen DC holt, rüstet in 2009 eh einen Quad auf. Mir sind die DualCores speziell von Intel auch viel zu teuer. Wer sich für das Geld nen DualCore aus Leistungsgründen holt, wo man doch einen Q6600/Q6700 und Phenom B3 für den gleichen Preis bekommt, hat da was noch nicht begriffen :D.
lumines
2008-05-07, 15:15:09
Diese Titel sind für die CPU der XBox ausgelegt, welche aus 3(!) Kernen besteht
die CPU der 360 kann übrigens auch noch HT.
Du meinst SMT. Dann sinds sogar 6 logische Kerne.
lumines
2008-05-07, 17:36:59
ähm sry genau :redface:
Dr.Dirt
2008-05-07, 18:20:20
Bei Spielen mit quadcore optimierung sieht es in der Tat noch sehr schlecht aus, immerhin hat AssasinsCreed schon eine kleine optimierung:
http://img529.imageshack.us/img529/636/unbenannt1yw2.jpg
Solche Tests gehen meiner Meinung nach komplett an der Praxis vorbei, niemand spielt in der niedrigen Auflösung ohne AA/AF.
MEDIC-on-DUTY
2008-05-07, 18:49:41
Nur kurz und stark vereinfacht gesagt:
Takt ist Fakt! Das gilt auch für den Quadcore. Je mehr desto besser, zumindest für Games bei denen die CPU limitiert. Das war noch nie anderes und wird auch nicht so schnell anders sein. Egal wie viele Kerne. Der Großteil der Games kümmerst sich garnicht um den 3. und 4. Kern. Einzig das verbesserte Stepping und die kleinere Architektur der neuen QC bringt ein wenig mehr Zusatzleistung.
Solche Tests gehen meiner Meinung nach komplett an der Praxis vorbei, niemand spielt in der niedrigen Auflösung ohne AA/AF.
Du hast völlig Unrecht.
Tests dieser Art sind genau der richtige Weg um herauszufinden, was eine bessere CPU an Leistung bringt.
Viele verstehen nach all den Jahren offenbar immer noch nicht, das die CPU-Leistung nur meßbar ist, wenn alle anderen Limits ausgeschlossen werden. Das ist nicht der Fall, wenn AA/AF oder >1280er Auflösungen gefahren werden.
Du könntest eine Pentium 4 CPU @2,4 GHz gegen einen Core 2 @ 3,6 GHz antreten lassen und alles auf 2560x1600 8xAA, 16x AF stellen. Der Effekt wäre ein Unterschied von weniger als 10 %. :crazy2:
Aber entspricht das der Realität? Absolut nicht. Denn überall dort wo Physikberechnungen, Soundberechnungen, KI-Berechnungen vorgenommen werden, existiert kein GPU-Limit mehr und die CPU-Power wird 1:1 umgesetzt. Auch in 2560x1600.
Das Problem ist nun, wenn du die beiden extreme im gleichen Benchmark antriffts, dann ist der Wert unbrauchbar.
Wenn der Benchmark z.B. 60 Sekunden lang ist, davon 20 Sekunden CPU und 40 Sekunden GPU limitiert, kommt ein Wert daraus, der dir lediglich sagt, das du vielleicht 40fps hast, obwohl du 20 sekunden (während des cpu limits) auf unter 20fps gefallen bist. Toll, nicht?
Ein CPU-Limit existiert in jeder Auflösung, sobald CPU intensive Aufgaben auftreten. Es ist völlig egal ob 640x480 oder 2560x1600... aber der Durchschnittswert zeigt das nie. Daher ist er unbrauchbar!
Lokadamus
2008-05-07, 19:08:45
Nur kurz und stark vereinfacht gesagt:
1.) Takt ist Fakt! Das gilt auch für den Quadcore. Je mehr desto besser, zumindest für Games bei denen die CPU limitiert. Das war noch nie anderes und wird auch nicht so schnell anders sein.
2.) Egal wie viele Kerne. Der Großteil der Games kümmerst sich garnicht um den 3. und 4. Kern.
3.) Einzig das verbesserte Stepping und die kleinere Architektur der neuen QC bringt ein wenig mehr Zusatzleistung.mmm...
1.) Ja, je höher Takt, desto besser der Output der CPU. Das war beim P3, beim P4 und bei allen anderen CPUs bisher so.
2.) Formuliere den Satz bitte in "Der Großteil der aktuellen Games ..." um, dann stimmt auch der Satz.
3.) Sind die neuen Quads schon in 45nm gebaut oder immernoch im 60er Bereich? Ich hab mich lange nicht mehr damit beschäftigt ;( ...
Tja und was soll der C2D Besitzer machen, der meint das eine CPU vom August 2006 langsam erneuert werden sollte?
Ein E8XXX macht wenig Sinn.
Wenn dann muss ein Quad her... der dann mal eben so teuer (270€) ist das es sich das auch nicht wirklich lohnt.
270€ und teuer? Hartz4 Empfänger? Schüler?
Schrotti
2008-05-07, 19:39:13
Ob man wohl damit rechnen kann, das Intel einen Pentium E als Quad bringt?
4x1,8 oder 2GHz mit 4MB L2 Cache wären doch mal was (Q2180?).
270€ und teuer?
Preis/Leistung kennst du nicht?
Ein billiger Übergangs Q6600 tuts jetzt auch.
Dr.Dirt
2008-05-07, 19:50:06
Du hast völlig Unrecht.
Tests dieser Art sind genau der richtige Weg um herauszufinden, was eine bessere CPU an Leistung bringt.
Das ist völlig praxisfremd!
Ich finde solche Tests regelrecht schwachsinnig.
Da ist es doch wesentlich schlauer Packprogramme, Videoencoder o.ä. zum Testen von CPU's zu verwenden, weil 1024er Auflösungen nichts mit Spielen zu tun hat.
Das ist völlig praxisfremd!
Ich finde solche Tests regelrecht schwachsinnig.
Es ist ganz und gar nicht praxisfremd. Sondern viel näher an der Realität als jeder Durchschnittswert.
Nur deine Vorstellungskraft reicht nicht aus um den so wichtigen Unterschied zu erkennen! Zockst du ein Rennspiel, so wird haufenweise KI und Physik berechnet, für die allein die CPU entscheidend ist. Drehst du die Grafikauflösung so hoch, dann kommt am Ende ein Durchschnittswert heraus, der alleine von der Grafikkarte nach oben hin "begrenzt" wurde. Obwohl die CPU schneller gekonnt hätte.
Genau da liegt nun der Fehler: Dieser Wert ist ziemlich unnütz. Wichtig ist CPU-Leistung dort, wo sie gebraucht wird und das sind dann meist Szenen, die schon mit niedrigen frameraten laufen, weil zu diesem Zeitpunkt die GPU Limitierung durch eine CPU Limitierung außer Kraft gesetzt ist (z.B. nur 15-20fps).
Wie ich schon sagte: Wenn du es so machst wie du glaubst, dann gibts zwischen einem Pentium 4 @ 2,4 GHz und einem Core 2 @ 3,6 GHz keinen Unterschied... entspricht das etwa der Realität? ...
Denn ohne CPU bekommst du genau was zu sehen? Richtig, nämlich gar nichts oder 0.0fps. :)
Da ist es doch wesentlich schlauer Packprogramme, Videoencodero.ä. zum Testen von CPU's zu verwenden, weil 1024er Auflösungen nichts mit Spielen zu tun hat.
Nein, denn die haben widerum keine Aussagekraft auf andere Bereiche.
Du kannst nicht WinRAR, was z.B. sehr Bandbreitenintensiv ist mit einem Spiel mit UT3 Engine vergleichen... das geht halt nicht.
Botcruscher
2008-05-07, 21:42:32
schöner Vergleich mit Lastanzeige 2Seiten (http://techreport.com/articles.x/14424/4)
Was ist das den für ein mülliger Test. Supcom nutzt da nur einen Kern und die AVG FPD liegen bei 60. LOL.
Exxtreme
2008-05-07, 22:49:49
Nur kurz und stark vereinfacht gesagt:
Takt ist Fakt! Das gilt auch für den Quadcore. Je mehr desto besser, zumindest für Games bei denen die CPU limitiert. Das war noch nie anderes und wird auch nicht so schnell anders sein. Egal wie viele Kerne. Der Großteil der Games kümmerst sich garnicht um den 3. und 4. Kern. Einzig das verbesserte Stepping und die kleinere Architektur der neuen QC bringt ein wenig mehr Zusatzleistung.
Das stimmt zwar. Aber selbst die langsamsten Quadcores kommen bei keinem Game so richtig ins Schwitzen, bei denen ein Dualcore auch nicht schwitzt. Ob ich 70 oder 80 fps habe, ist gehüpft wie gesprungen. Gut, in WoW geht es mal auf 20 fps runter wenn echt viel los ist aber zig Spieler in Shattrah ist nicht spielrelevant.
Umgekehrt sieht es halt anders aus. Gibt paar Spiele, die einen Dualcore in die Knie zwingen können und der Quadcore verträgt das besser, siehe Assassins Creed und so.
(del)
2008-05-08, 00:19:02
Ob ich 70 oder 80 fps habe, ist gehüpft wie gesprungen.Triplebuff und Vsync an bitte.
Dr.Dirt
2008-05-08, 00:45:00
Es ist ganz und gar nicht praxisfremd. Sondern viel näher an der Realität als jeder Durchschnittswert.
Nur deine Vorstellungskraft reicht nicht aus um den so wichtigen Unterschied zu erkennen! Zockst du ein Rennspiel, so wird haufenweise KI und Physik berechnet, für die allein die CPU entscheidend ist. Drehst du die Grafikauflösung so hoch, dann kommt am Ende ein Durchschnittswert heraus, der alleine von der Grafikkarte nach oben hin "begrenzt" wurde. Obwohl die CPU schneller gekonnt hätte.
Ich zocke halt immer so, daß ein Spiel flüssig bei maximaler Grafikpracht läuft. Wenn da dann die CPU Leistung keinen entscheidenden Einfluß hat, zeigt mir das, daß das Spiel grafiklimitiert ist.
Es macht ja in der Praxis beim Zoggen überhaupt keinen Sinn, ob ich in 1024er Auflösung mit CPU1 150 FPS und mit CPU2 120 FPS hätte, beide aber bei meiner Spieleauflösung jeweils 40 FPS liefern würden.
Diese praxisfremden CPU Tests werden doch nur gemacht, um überhaupt Unterschiede sichtbar zu machen. Das ist in meinen Augen Bauernfängerei, ein potentieller Käufer läßt sich von solchen CPU Test fehlleiten und kauft womöglich eine CPU, die er gar nicht brauchen würde.
Es gab mal auf ht4u einen aufschlußreichen CPU Test mit Spielen, da hier mit praxisnahen Gamesettings und zusätzlichen Windowsanwendungen gebencht wurde, so wie man sie auch zu Hause vorfindet.
http://ht4u.net/old/2004/cpu_praxisvergleich/index.php
Schade, das so nicht öfters gebencht wird. :usad:
Ich zocke halt immer so, daß ein Spiel flüssig bei maximaler Grafikpracht läuft.
Das schließt ein CPU Limit nicht aus. Das vergisst du. CPU Leistung ist in jeder Auflösung gefragt, nur begrenzen da eben meistens andere Dinge *vorher*.
Es macht ja in der Praxis beim Zoggen überhaupt keinen Sinn, ob ich in 1024er Auflösung mit CPU1 150 FPS und mit CPU2 120 FPS hätte, beide aber bei meiner Spieleauflösung jeweils 40 FPS liefern würden.
Anders herum wird es deutlich:
Es ist mal völlig egal ob du mit 120 oder 140fps am GPU Limit schrabbst, wenn du durch eine bessere CPU an den wichtigen stellen statt 20, 40 min-fps hast.
Anders herum wird es deutlich:
Es ist mal völlig egal ob du mit 120 oder 140fps am GPU Limit schrabbst, wenn du durch eine bessere CPU an den wichtigen stellen statt 20, 40 min-fps hast.
Ganz genau! Deswegen sollte man so viel wie möglich GPU-Power und CPU-Power haben, damit man, je nachdem was limitiert, immer genug der sehr sehr wichtigen Min-FPS hat! Denn diese "fiesen" Min-FPS treten meist immer dann auf, wenn richtig viel los ist und man möglichst viele FPS zum optimalen reagieren braucht, z.B. in schweren Gefechten mit vielen Gegnern gleichzeitig! Und genau hier limitiert oft die CPU (auch bei 1600x1200 4xAA 16AF +++). ;(
Banshee18
2008-05-08, 06:48:27
Dr.Dirt, bedenke, dass die Tests nicht unbedingt zeigen wollen, ob Spiel xy mit CPU ac oder cd schneller ist, sondern, wieviel schneller eine CPU allgemein ist. Wenn die CPU nicht limitiert, kannst du nicht testen, wie schnell sie ist. Du testest deinen Supersportwagen ja auch nicht im Stadtverkehr. Da ist der nämlich nicht schneller, als ich mit dem Fahrrad. Auf der Rennstrecke dürfte ich den Vergleich wahrscheinlich relativ deutlich verlieren. ;)
Und jetzt setze mal für die Rennstrecke eine CPU-limitierte Szene oder sogar ein nahezu komplett CPU-limitiertes Spiel ein. Ja, es gibt so Spiele, wo die CPU zumindest teilweise sogar auf sehr niedrigem Niveau limitiert, z.B. einige Rennspiele, Echtzeitstrategiespiele, Rollenspiele...
Und wenn die CPU jetzt noch nicht auf niedrigem Niveau limitiert, dann tut sie es halt später. Irgendwann kommen solche Spiele, die wird es immer geben, das ist der Lauf der Zeit. Erinnere dich an Oblivion ( z.B. mit einem X2 und einer 8800GTX), Far Cry (mit Athlon XP und X800XT) oder heute einige Simbin-Racinggames. Alles Spiele, die dank CPU-limit eher mangelhaft liefen bzw. laufen.
Ach halt, in Crysis sind ja alle CPUs in 1680x1050 mit 16xAF gleichschnell, dann müssen sie das ja auch in Oblivion, GTR2 oder Supreme Commander sein. ;)
Merkst du, wie unbrauchbar deine Testmethoden sind?
Dr.Dirt, bedenke, dass die Tests nicht unbedingt zeigen wollen, ob Spiel xy mit CPU ac oder cd schneller ist, sondern, wieviel schneller eine CPU allgemein ist.
Die Frage ist, stimmt das so auch?
Wenn die CPU in 800x600 schneller ist, wäre sie es denn dann auch in 1900x1200 inkl. Filter?
Theoretisch natürlich, aber ein praktischer Beweis fehlt (weil vermutlich die Grafik limitiert) und als logischer Mensch brauche ich erstmal Beweise um glauben zu können, wie bei allen anderen Dingen im Leben auch.
Exxtreme
2008-05-08, 08:40:20
Triplebuff und Vsync an bitte.
Tripple-Buffering verursacht Microruckler. :D
MEDIC-on-DUTY
2008-05-08, 09:29:57
Das stimmt zwar. Aber selbst die langsamsten Quadcores kommen bei keinem Game so richtig ins Schwitzen, bei denen ein Dualcore auch nicht schwitzt. Ob ich 70 oder 80 fps habe, ist gehüpft wie gesprungen. Gut, in WoW geht es mal auf 20 fps runter wenn echt viel los ist aber zig Spieler in Shattrah ist nicht spielrelevant.
Umgekehrt sieht es halt anders aus. Gibt paar Spiele, die einen Dualcore in die Knie zwingen können und der Quadcore verträgt das besser, siehe Assassins Creed und so.
Ja, stimmt. Ich habe bewusst noch einen CRT zu Hause stehen, da hier die FPS auch im oberen Bereich noch eine Rolle spielen, bzw. sichtbar sind. Der zweite Grund ist, dass ich noch keinen TFT gesehen habe, der es in Sachen Quali und Schaltzeiten mit einem DTP-CRT aufnehmen kann. Eigentlich ein Armutszeugnis für die Industrie. Aber das ist ein anderes Thema.
Hat jemand eine Ahnung ob jetzt die Mehrheit der Games CPU oder GPU limitiert?
Bei mir schlägt ein C2Q X6800 @ 3,6/3,7 Ghz und die Erhöhung zum Standardtakt merkt man recht deutlich. Aber auch der Stromverbrauch bei dieser CPU ist damit enorm hoch.
Aber Aufgrund der Preislage würde ich heute wieder nur zum Quad greifen. Alles andere macht aus meiner Sicht für einen Gamer PC wenig Sinn.
Ich bin sehr gespannt auch die neue Intel-Plattform im Herbst und wie sich diese auf Games und OC auswirkt.
MEDIC-on-DUTY
2008-05-08, 09:31:17
mmm...
3.) Sind die neuen Quads schon in 45nm gebaut oder immernoch im 60er Bereich? Ich hab mich lange nicht mehr damit beschäftigt ;( ...
Ja, 45nm bei den Xtreme-Versionen
Mr. Lolman
2008-05-08, 10:47:26
Alle Q9xxx sind imo mit 45nm gefertigt...
Theoretisch natürlich, aber ein praktischer Beweis fehlt (weil vermutlich die Grafik limitiert) und als logischer Mensch brauche ich erstmal Beweise um glauben zu können, wie bei allen anderen Dingen im Leben auch.
Wenn du logisch denken würdest, hättest du deinen Beweis schon längst.
Denn um mal bei der Logik zu bleiben:
Wird eine CPU langsamer? Nein. Es ist egal welche Auflösung du nutzt, die CPU ist immer gleich schnell.
Ergo, der Abstand ist immer gleich groß, sobald ein CPU Limit vorliegt. Du kannst Supreme Commander oder welches Spiel auch immer in höchster Auflösung zocken, das Spiel ist aber nicht mehr GPU limitiert, wenn deine CPU 250 Einheiten auf dem Bildschirm zu berechnen hat...
Surpreme Commander ist nur aus einem Grund so langsam (gilt auch für C&C3 und Anno): Es unterstützt kein oder kaum MT und ist beschissen bis garnicht optimiert (x87). Diese Spiele müssten eigentlich nicht langsam sein.
AA und AF müssen in CPU-Tests nicht an sein, das finde ich auch. Schließlich will man ja die Leistung der CPU abschätzen. Volle Details ok, aber Auflösung und AA/AF können runter.
Stormscud
2008-05-08, 15:32:22
Also SupCom skaliert doch ganz gut mit zumindestens 2 Kernen, wenn man in einer späteren Phase spielt. Heißt: Aufbau ist mehr oder weniger abgeschlossen. Sagen wir mal 4 Spieler, 3 KI Gegner und Ich. Da hab ich min. 1 Kern voll ausgelastet und noch den zweiten zur Hälfte. Spiel ich noch den SupCom Core Optimizer mit drauf dann hab ich von Anfang an 80 / 80 als Auslastung und nach kurzer zeit 100 / 100. Der Performancetest von SupCom scheint alles Andere, nur nicht das wirkliche Spiel zu reflektieren. Das Diagramm aus dem test oben spiegelt bei mir nur die Situatuion ganz am Anfang wieder, aber nicht ein laufende Partie. Ist also nicht zu gebrauchen für Vergleiche.
Wenn wirklich nur 1 Kern ausgelastet wäre, müsste das Spiel ja auch auf Singlecores laufen. Ich durfte es mal sehen auf einem 3.06 GHz P4. Das Spiel lief dort mit 2fps in ähnlichem Setting wie oben von mir beschrieben.
gbm31
2008-05-09, 08:40:19
da ich das basteln nicht lassen kann, steige ich nächstens von einem wolfdale @ 3600mhz auf einen yorkfield @ ca. 3200-3400mhz um. (so denn der xeon, der hier schon liegt, wirklich problemlos auf meinem board läuft)
kann ja dann ein bisschen unbiased berichten - je nach dem, was mehr bringt, bleibt dann drin, das andere wandert wahrscheinlich in den htpc.
robbitop@work
2008-05-09, 13:31:41
Ich zocke halt immer so, daß ein Spiel flüssig bei maximaler Grafikpracht läuft. Wenn da dann die CPU Leistung keinen entscheidenden Einfluß hat, zeigt mir das, daß das Spiel grafiklimitiert ist.
Es macht ja in der Praxis beim Zoggen überhaupt keinen Sinn, ob ich in 1024er Auflösung mit CPU1 150 FPS und mit CPU2 120 FPS hätte, beide aber bei meiner Spieleauflösung jeweils 40 FPS liefern würden.
Diese praxisfremden CPU Tests werden doch nur gemacht, um überhaupt Unterschiede sichtbar zu machen. Das ist in meinen Augen Bauernfängerei, ein potentieller Käufer läßt sich von solchen CPU Test fehlleiten und kauft womöglich eine CPU, die er gar nicht brauchen würde.
Es gab mal auf ht4u einen aufschlußreichen CPU Test mit Spielen, da hier mit praxisnahen Gamesettings und zusätzlichen Windowsanwendungen gebencht wurde, so wie man sie auch zu Hause vorfindet.
http://ht4u.net/old/2004/cpu_praxisvergleich/index.php
Schade, das so nicht öfters gebencht wird. :usad:
Das sagen viele Leser und damit haben sie partiell recht/unrecht.
Vieleicht sollte ich mal einen Kurz-Artikel darüber schreiben.
640er Benches sind zwar nicht unbedingt praxisnahe, aber sie sind weit sinnvoller als lieblos gewählte 1280er Timedemos.
An diesem Punkt, denken die meisten Leser einfach nicht weit genug nach.
1.) Es gibt jetzt nicht den Flaschenhals. Da ein Spiel ja nicht aus einer Szene besteht, in der nichts passiert. Wir haben also Dynamik. Also immer ein dx/dt.
Also: Flaschenhälse wechseln ständig.
2.) Averagewerte sind idR für die Tonne. Schließlich wird damit der gesamte Funktionsverlauf der FPS geglättet. Wir sehen also nichtmehr, was zwischen Start und Ende vor sich ging. Ein aritmetischer Mittelwert wird in der Statistik durch Ausreißer verfälscht. Außerdem zeigt er weder Peaks noch Mins noch deren Häufigkeitsverteilung.
Ein Histogramm mit gruppierten Daten (also FPS von 10-20, 20-30, 30-40 ect) wäre dort aussagekräftiger. Oder gleich die ganze Kurve. Das Problem ist dabei die Informationsvielfalt. Der Leser möchte möglichst einen einzigen Index für die Performance eines Produktes, was die Sache häufig sehr generalisiert. Also nicht praktikabel, mehr als nur Balken anzuzeigen.
3.) Beim Testen eines Produktes sollte IMO sichergestellt sein, dass durch ändern der Testumstände eine möglichst vollständigie Limitierung auf diesem entsteht. Nur so kann die Leistung dieses Produktes quantifiziert werden.
GPUs werden ja auch mit massiv AA/AF und hohen Auflösungen verglichen, wenn man zeigen möchte, wieviel Grafikleistung vorhanden ist und wieviel besser Produkt A als B ist.
Der Einbau sekundärer Flaschenhälse verfälscht die Messung lediglich. Es handelt sich hierbei um Störgrößen.
Also ist bsw eine Messung in 640x480 in Spielen sehr wohl sinnvoll. Zwar nicht praxisnahe, aber dennoch sinnvoll. So läßt sich zweifelsfrei der Leistungsindex der CPU in der jeweiligen Applikation erstellen und ermöglicht die Vergleichbarkeit mit anderen Produkten.
Störgrößen wie die GPU würden das Bild nur verzerren.
Am Ende weiß man, wieviel mehr an CPU Leistung in welchen Bereichen vorhanden ist. Ob diese immer gebraucht wird, ist eine andere Frage.
4.) Damit komme ich zum Entscheidenden Punkt. Den Worst-Case-Szenarien. Wer kennt diese nicht? Man rennt, bewaffnet bis an die Zähne, durch ein Level. Die meiste Zeit 60 fps. Gute Sache. Und aufeinmal blitzt und donnert es und zich Gegner tauchen auf dem Bildschirm auf. Explosionen überall. Fühlt sich immer mal kurz komisch an. Für wenigste Momente bricht die Framerate ein. Zwar ist 99,x % der Zeit eine gute Framerate vorhanden aber in 0,x % bricht sie ein. Und das nervt. Und genau dann braucht man oftmals die CPU-Mehrleistung doch. Und zwar in einer Quantität, die anhand von 1280er Benches mit AVG nicht aufgezeigt worden sind.
Ein sehr guter Kompromiss sind dazu die von Madkiller aufgetanen Worst-Case-Szenario-Benchmarks. Diese isolieren idR diese 0,x % sehr gut. Das bedeutet aber auch, dass eine gute Vorarbeit vorhanden sein muss. Der Redakteur muss viel Zeit aufwenden, um diese Szenarien zu finden und sie zu untersuchen. Kaum eine Redaktion investiert diese Zeit.
BlackBirdSR
2008-05-09, 13:52:29
Ein sehr guter Kompromiss sind dazu die von Madkiller aufgetanen Worst-Case-Szenario-Benchmarks. Diese isolieren idR diese 0,x % sehr gut. Das bedeutet aber auch, dass eine gute Vorarbeit vorhanden sein muss. Der Redakteur muss viel Zeit aufwenden, um diese Szenarien zu finden und sie zu untersuchen. Kaum eine Redaktion investiert diese Zeit.
Ich denke das bringt es perfekt auf den Punkt.
Gilt auch für die ganzen Vista vs XP Tests, oder die völlig daneben gegangenen PhysX-Reviews.
Dr.Dirt
2008-05-09, 17:05:09
4.) Damit komme ich zum Entscheidenden Punkt. Den Worst-Case-Szenarien. Wer kennt diese nicht? Man rennt, bewaffnet bis an die Zähne, durch ein Level. Die meiste Zeit 60 fps. Gute Sache. Und aufeinmal blitzt und donnert es und zich Gegner tauchen auf dem Bildschirm auf. Explosionen überall. Fühlt sich immer mal kurz komisch an. Für wenigste Momente bricht die Framerate ein. Zwar ist 99,x % der Zeit eine gute Framerate vorhanden aber in 0,x % bricht sie ein. Und das nervt. Und genau dann braucht man oftmals die CPU-Mehrleistung doch. Und zwar in einer Quantität, die anhand von 1280er Benches mit AVG nicht aufgezeigt worden sind.
Ja, solche Tests sind wirklich eine feine Sache, da würde man dann sehr wohl in recht praxisnahen Einstellungen sehen, was jetzt eine stärkere CPU an Mehr bringen würde.
Stupide avg Benchmarkwerte in 1024er Auflösung oder dadrunter ohne AA/AF jenseits von 100 FPS sind IMHO für die Tonne.
Ein sehr guter Kompromiss sind dazu die von Madkiller aufgetanen Worst-Case-Szenario-Benchmarks. Diese isolieren idR diese 0,x % sehr gut. Das bedeutet aber auch, dass eine gute Vorarbeit vorhanden sein muss. Der Redakteur muss viel Zeit aufwenden, um diese Szenarien zu finden und sie zu untersuchen. Kaum eine Redaktion investiert diese Zeit.
Das kann man wirklich nochmal lobend erwähnen. :up:
grobi
2008-05-09, 17:23:48
@Stormscud
Weisst du überhaupt was der Core optimizer macht? Er tauscht Simulationsgeschwindigkeit gegen FPS aus. Dadurch steigt die Auslasung weil nicht mehr so viel berchnet wird.
Supreme Commander ist schlecht multithreaded Programmiert wie die meisten Spiele. Das wird sich erst ändern wenn keine Rücksicht bei der Programmierung auf Einzelkerne genommen wird.
Stormscud
2008-05-09, 21:00:12
Ähh das versteh ich jetzt nicht ganz. Also auf dem Laptop haben sich die fps verbessert, wenn ich ganz rauszoome. Alles andere ist ja leider Grafiklimitiert mit einer 7600Go. Auf dem Festrechner lief es auch länger gut.
grobi
2008-05-09, 21:23:42
@Stormscud
Lies es dir doch im SC-Forum durch. Ich meine du bekommst mehr FPS weil die Simulationsgeschwindigkeit gesenkt wird. Ist wohl ein bischen missverständlich ausgedrükt.
mapel110
2008-05-09, 23:39:28
immerhin hat AssasinsCreed schon eine kleine optimierung:
Wieso ist das Game unspielbar bei 16 fps mit einem Single Core?
Mit einer 8800 GT würde ich obendrein das Game sicher nicht in 1024er Auflösung spielen und dann wären die Werte bei den Dualcores und Quadcores auch schon auf SingleCore-Niveau bei 1680er mit 4xAA. Oh man, man bencht sichs, wie mans braucht und zieht haarstreubende Fazits. Hauptsache, der Wirtschaft gehts gut. Kauft CPUs!
btw AMD will wohl 2010 12Core-CPUs bringen. Sinnloser können dann CPUs nicht mehr werden. Hoffentlich kommen dann bald dedizierte Cores für Grafik, Sound, Physik usw mit rein, sonst kauf ich bald gar nix mehr außer Grafikkarten.
AnarchX
2008-05-10, 00:40:47
btw AMD will wohl 2010 12Core-CPUs bringen.
Diese CPU steht auf einer Server-Roadmap.;)
Für den (normalen) Endkunden werden wohl 4 starke Hauptcores lange die Basis bleiben, denen dann durch eine Vielzahl an Hilfs-Cores in bestimmten Aufgaben unter die Arme gegriffen wird.
Liszca
2008-05-10, 01:12:12
Hallo!
In der nächsten Zeit steht bei mir ein neuer PC an.
Ich bin mir aber nicht sicher, zu welcher CPU ich greifen soll. Bringen Quadcores überhaupt etwas gegenüber Dualcores wenn die Leistung des PCs ausschließlich zum Daddeln benötigt wird?
Wenn ja: Wo liegen die Vorteile bzw. in welcher Größenordnung bewegen sie sich leistungsmäßig?
Wenn nein: Danke :)
Auch wenn wir nun schon sechs seiten zu dem thema haben gebe ich auch mal meinen senf dazu:
Gegen einen quadcore spricht eigentlich nicht viel, vor allem wenn du selten die cpu wechselst (eventuell alle 3-4 jahre) dann rate ich dir zu einem günstigen quadcore. beim spielen ist eine grafikkarte definitv ausschlaggebender.
kleines beispiel: ut3 und gears of war laufen beide in 2560x1600, wenn auch knapp aber sie gehen und das auf einem dualcore amd mit 2ghz.
meine meinung ist einfach lieberst dreimal eine neue grafikkarte bevor ich eine neue cpu kaufe. ob die regel für mich auch noch in zukunft gilt kann ich dir aber auch nicht sagen.
Diese CPU steht auf einer Server-Roadmap.;)
Für den (normalen) Endkunden werden wohl 4 starke Hauptcores lange die Basis bleiben, denen dann durch eine Vielzahl an Hilfs-Cores in bestimmten Aufgaben unter die Arme gegriffen wird.
Na ja, wenn die Rev.D 6 Kerne hat, wird man wohl die 6 Kerne auch in alle Bereiche bringen. Vllt gibts noch ne native 3-Kern oder 4-Kern Variante ohne L3 dazu, als Billigversion, aber ich denke, die 4-Kerner werden ab Rev.D nurnoch teildeaktiviert zu Haben sein. AMD würde zu dem Zeitpunkt maximal 3 verschiedene aktuelle Dies produzieren (Swift, Istanbul, Istanbul-Sparversrion), so wie heute auch (K8 Rev.G2, K8 Rev.H, K10) oder im Frühjahr 2009 (K8 Rev.H, K10 Daneb, K10 Propus).
gbm31
2008-05-10, 23:06:42
erster eindruck (bin heute abend endlich mal zum zocken gekommen - crysis & dirt) wolfdale @ 3600mhz vs. yorkfield-6m @ 3375mhz:
schwierig zu beschreiben, spürbar langsamer ists schonmal nicht ;) , aber "untenrum" einiges "runder" - klingt jetzt vieleicht platt, aber wie beim auto: da ist irgendwie mehr hubraum spürbar...
für 175,- ko mer nix saga, sagt der schwabe.
Auch wenn wir nun schon sechs seiten zu dem thema haben gebe ich auch mal meinen senf dazu:
Gegen einen quadcore spricht eigentlich nicht viel, vor allem wenn du selten die cpu wechselst (eventuell alle 3-4 jahre) dann rate ich dir zu einem günstigen quadcore. beim spielen ist eine grafikkarte definitv ausschlaggebender.
kleines beispiel: ut3 und gears of war laufen beide in 2560x1600, wenn auch knapp aber sie gehen und das auf einem dualcore amd mit 2ghz.
meine meinung ist einfach lieberst dreimal eine neue grafikkarte bevor ich eine neue cpu kaufe. ob die regel für mich auch noch in zukunft gilt kann ich dir aber auch nicht sagen.
Hier kommt dann der Unterschied zum tragen den Raff angsprochen hat, gerade UT3 bzw. die komplette UT Serie läuft auf jedem mittelklasse PC, nur wenn es zur Sache geht bricht die Leistung so stark ein das man für diese Momente eine Diashow hat und meist nur noch als Zielscheide umherirrt. Ein AMD 2,6gHz DC reicht auf jeden Fall nicht für UT3, für UT04 war er aber ausreichend. Da ich UT3 auch etwas Sportlich sehe und mir eine min. fps von 30 wichtig ist bin ich glücklich das mein altes AM2 Brett Phenom CPU unterstützung hat und der neue 9750 "nur" noch 95Watt TDP hat....
:/
Für UT04 war auch nen alter AthlonXP ausreichend...
Und bei UT3 sehe ich keine Probleme mit einem X2 Athlon64,
zumal einer seiner Cores meißt schneller rechnet als der aktuelle Phenom.
Ein K8 ist pro Kern garantiert nicht schneller als ein K10.
:/
Für UT04 war auch nen alter AthlonXP ausreichend...
Und bei UT3 sehe ich keine Probleme mit einem X2 Athlon64,
zumal einer seiner Cores meißt schneller rechnet als der aktuelle Phenom.
UT04 war auf einem XP offline/deathmatch sehr gut Spielbar. Nur bietet Deathmatch jeder Shooter was also uninteressant ist im gegenteil zu onslaught, auch ist es langweilig nur gegen 5 zu Kämpfen, eine große Karte muss schon voll sein und das ganze online. UT03 hatte ich noch mit einem XP3000 gespielt und der ist oft stark eingebrochen, ein Update auf die 9700Pro brachte da so gut wie nichts, erst ein A64 brachte das gewünschte Ergebniss.
UT3 ist das gleiche, meine HD3870 geht während dem Spiel öfters in den 2d Modus(lt. Riva Tuner und anhand der Temperaturen wird das stimmen), muss wohl zu lange auf die CPU warten, was die min. fps betrifft schein ein X4 9750 einem X2 6000 ordentlich überlegen zu sein.
schmarn, mitn 2,5ghz xp und ner 7900gt is ut04 sowas von locker flockig, wir haben letztens auf ner lan nur onslaught gespielt und bei höchsten details in 1680*1050 und es gab nicht einen ruckler, immer über 50fps auch bei ordentlich feuerwerk
schmarn, mitn 2,5ghz xp und ner 7900gt is ut04 sowas von locker flockig, wir haben letztens auf ner lan nur onslaught gespielt und bei höchsten details in 1680*1050 und es gab nicht einen ruckler, immer über 50fps auch bei ordentlich feuerwerk
Schön wenn man erst Mittags ein paar std. Arbeiten muss.
Also mal kurz Adara in UT04 auf X2 5000(2x2,6gHz) und HD 3870. Im Flyby um die 120avg fps im Match mit 19 bots um die 70 avg fps, min. 30 fps.
Werd mal nachher mit A64 3200(2,2gHz) und X850XT testen, man hat das ja immer besser in Erinnerung als es eigentlich war.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.