Archiv verlassen und diese Seite im Standarddesign anzeigen : [Zocker only] schneller Dual Core vs mittelmäßiger Quad-Core
Hallo,
Ich weiß das einige gleich wieder schreien werden, das dieser Vergleich unsinnig ist, aber ich finde ihn sehr interessant und würde dazu gerne ein paar Ergebnisse zusammentragen.
Vorallem auch aus dem Grund, weil ich derzeit nicht sicher bin, ob der mir zur Verfügung stehende Quad Core (up to 3.28 GHz) wirklich die beste Wahl für mich als Spieler ist.
Ich hab zur Zeit noch den 65nm Quad zur Verfügung, den ich bis oben genannten Wert übertakten konnte, leider ist danach auch schon schluß - wegen der Hitze. Am Limit ist der noch nicht.
Er wird wirklich ziemlich heiß und zieht ordentlich Saft aus der Leistung.
Nun kam mir der Gedanke auf einen 45nm Duo umzurüsten, dazu ein paar Rechenbeispiele:
Ein 4.2 GHz Duo sollte einem 2.13 GHz Quad-Core entsprechen, aber ist bei Anwendungen die schon älter sind, bis zu ca 100% schneller (Takt sei dank).
Nun sehe ich immer wieder, das Quads empfohlen werden, dabei sind die allein noch kein Garant für Mehrperformance. Es kommt auf den Takt an, viel wichtiger aber noch auf die Effizienz.
Wie ich aus eigener Erfahrung weiß, nutzen nur wenige Programme jeden Kern zu 100% aus. Nicht einmal beim Videoencoding komme ich auf 100%, meist pendelt es sich bei 85-98% ein. Bei Games ist das zum großteil sogar noch weniger. Bei 7zip bin ich auf 2Threads limitiert. :( Tolle Wurst.
Ein Duo bringt jedoch (auf mindestens einem) Kern immer die volle Leistung, der hat das Problem also weitaus seltener und beschleunigt mir so auch andere Software.
Nun stellt sich natürlich die Frage, ab wann der Punkt erreichbar ist, wann ein Quad gegenüber einem Duo lohnt. Vorallem auch wegen des Preises.
In Foren/Shops werden zur Zeit bis zu 4.4 GHz taktende Duos verscherbelt, oft zu Preisen von ca. 180 Euro (bei kleineren Modellen weniger).
Für das gleiche Geld gibts aber noch keine vollwertigen Quads, nur welche mit reduziertem Cache oder einem 2.13-2.50 GHz Takt ohne Übertaktungsgarantie.
Selbst bei einem Modell mit 2.50 GHz und einer Effizienz von 80% auf jedem Kern, wäre der "nur" so schnell wie etwa 2x ~3,9 GHz Kerne (geringere Cachmenge nicht vergessen), ist die Auslastungsrate sogar nur bei 70% pro Kern, so sind wir schon in der Region eines 2x ~3,5 GHz Modells.
Jetzt gibts da also ein Problem: Mehr Performance nur bei neuen Anwendungen oder mehr Performance auch bei alten? Zur Zeit nutze ich persönlich "keine" Anwendungen die so gut mit dem Quad skalieren, das er sich lohnt und dabei schneller ist. Ich denke daher über dieses "Upgrade" (auf Duo) nach. Bei mir würde das eine Leistungssteigerung von ca 35% bedeuten, bei gleichzeitig geringeren Verbrauch.
Ich wäre auch gern bereit ein paar Benches zu machen, leider hab ich aber nur 4GB RAM und ne HD3870 Karte, die Benches sollten daher in niedrigster Auflösung oder in Softwarerendering(=Rohpower) sein.
Wenn jemand einen so hohen Duo hat um ein paar Werte beizusteuern wäre das sehr hilfreich.
Auf die Idee hat mich dieser Artikel hier gebracht:
Crysis (http://www.matbe.com/articles/lire/1121/comparatif-de-100-processeurs/page24.php)
E8600 @ 183fps, QX9770 @ 185fps, Q6600 @ 140fps
Rainbow Six Vegas (http://www.matbe.com/articles/lire/1121/comparatif-de-100-processeurs/page25.php)
E8600 @ 99 fps, QX9770 @ 100fps, Q6600 @ 86fps
FEAR (http://www.matbe.com/articles/lire/1121/comparatif-de-100-processeurs/page26.php)
E8600 @ 533fps, QX9770 @ 524fps, Q660 @ 361fps
World in Conflict (http://www.matbe.com/articles/lire/1121/comparatif-de-100-processeurs/page28.php)
E8600 @ 198fps, QX9770 @ 204fps, Q6600 @ 144fps
========================================
E8600=3.33 GHz (6MB), QX9770=3.20 (2x6MB), Q6600=2.40 (65nm, 2x4MB).
Nicht einmal der eigentlich deutlich leistungsfähigere QX9770 (92% mehr Rohpower) kann sich wirklich absetzen. Bei Taktraten ab 4GHz ist der Duo dann natürlich weitaus schneller. Das wirklich erstaunliche daran finde ich den Preis und den Stromverbrauch.
Das alles ist für max. 180€ möglich und ich kenne kaum einen Quad, der fürs gleiche Geld, ähnliche Performance bietet und dabei so kühl bleiben kann (ca 1,2V @ 4 GHz). Ich bin eben nicht bereit 300€ für einen ebenso guten Quad springen zu lassen, wenn der dann nur bei "bestimmten" Anwendungen etwas bringt.
Bis jetzt kenne ich leider nur ein oder zwei Titel, die wirklich effektiv von der Mehrleistung profitieren (die nutze ich aber nicht):
GTA IV, Supreme Commander... aber auch da kenne ich nicht die Auslastungsrate (Prozessorauslastung % während des Spiels). Hat jemand genauere Infos (Taskmanagerbild)?
PS: Es geht hier nicht um den Core i7 welcher in einer anderen Liga spielt (teure Plattform) und auch nur als Quad verfügbar ist.
PPS: Die Überlegung ist nicht unbegrenzt gültig, spätestens mit erscheinen des Core i5 könnte sich das ändern, ich rede von höchstens 12-18 Zukunftsmonaten.
PPS²: Bitte an den Mod überflüssigen Thrash zu entsorgen, danke.
Crysis (http://www.matbe.com/articles/lire/1121/comparatif-de-100-processeurs/page24.php)
Rainbow Six Vegas (http://www.matbe.com/articles/lire/1121/comparatif-de-100-processeurs/page25.php)
FEAR (http://www.matbe.com/articles/lire/1121/comparatif-de-100-processeurs/page26.php)
World in Conflict (http://www.matbe.com/articles/lire/1121/comparatif-de-100-processeurs/page28.php)
Leider sind das nur 4 Situationen, davon 2 aus uralten Spielen.
Ferner wurde nur mit "Low Details" die avgFPS gebencht, so viel darf man leider nicht drauf geben.
dargo
2009-03-15, 00:26:46
@Gast
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=440739
Da leider immer mehr Entwickler der Meinung sind - freies Speichern wäre nicht notwendig hält sich die Gameauswahl in Grenzen. :cool:
Leider sind das nur 4 Situationen, davon 2 aus uralten Spielen.
Also "Crysis" ist für mich nicht alt, viele Spiele die danach kamen, hatten geringere Anforderungen.
Außerdem halten sich gute Spiele ewig; bei Gothic, Oblivion... freue ich mich immer noch über mehr Performance, bessere Quali.
Ferner wurde nur mit "Low Details" die avgFPS gebencht
Low Details ist genau das, was ich hier sehen will! Denn Low bedeutet oft, das die CPU die Arbeit meiste arbeit geleistet hat, da die GPU in der Regel nicht am Limit gelaufen ist.
Ich will keine schrotten Ergebnisse sehen, die durch die Grafik beeinflusst werden. Es geht mir allein um die Rohpower.
Wenn ich ne Anwendung außerhalb des Spiels ausführe, die keine "3D Grafik" hat, davon gibts jede Menge, zählt auch nur die Rohleistung, nicht meine GPU. Das ist mein Anwendungsbereich [um den es hier gehen soll].
@dargo
Ich kenne deine Artikel, leider stand dort nichts über meinen Anwendungsfall drin, da ich von sehr hohen Taktraten sprach, von denen ich im Web nur selten Benches finde. die xbitlabs hatten früher mal übertaktete CPUs mitgetestet, aber das ist schon lange her.
Wir könnten auch Demos nehmen. Es geht schließlich nur darum die Rohpower (oder Effizienz) zu messen, bei sowas ginge auch sowas wie Comanche in Softwarerendering. :) Wäre eigentlich ein perfekter Anwendungsfall, da selbst dabei Unterschiede zwischen CPU-Caches zum tragen kommen.
Das gleiche am besten noch für bis zu vier cores und wir hätten was zum testen.
dargo
2009-03-15, 00:41:25
@dargo
Ich kenne deine Artikel, leider stand dort nichts über meinen Anwendungsfall drin, da ich von sehr hohen Taktraten sprach, von denen ich im Web nur selten Benches finde.
Das kannst du einfach hochrechnen. Musst nur dabei bedenken, dass ich bei den Tests den "Flaschenhals" FSB etwas gemindert habe.
Wir könnten auch Demos nehmen.
Bringt nichts. Wenn die FULL kein freies Speichern bietet, tut es die Demo auch nicht.
Wenn die FULL kein freies Speichern bietet, tut es die Demo auch nicht.
Ja, das ist dann ziemlich blöd.
Wir könnten es aber auch umgekehrt machen. Wenn du das Spiel hast, was ist dann die niedrigste Taktrate die ein Quad braucht, um das Spiel "flüssig" (spielbar) zu halten?
Wenn spiele schon mit einem 2.13 / 2.40 GHz Quad laufen, dann müssen sie eigentlich auf einem 4-4.2 GHz Duo bei mindestens gleicher Performance laufen können (hier wird dann sogar nur auf 2 statt 4 cores aufgeteilt, was auch ein vorteil ist, außerdem haben diese CPUs dann einen sehr viel höheren FSB; dürft schon ordentlich was ausmachen).
Noch ein Beispiel was mir gerade so einfällt: SimCity4. Selbst heutige Hardware reicht nicht um es ruckelfrei laufen zu lassen, bei ca 1.5 Mio Bewohnern stockt das Spiel langsam, weil Rohpower zählt. Das game ist von 2003! :crazy:
Genau bei solchen Anwendungsfällen ärgere ich mich über den Quad, den ich schon ewig hab.
_DrillSarge]I[
2009-03-15, 00:56:30
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7092362#post7092362
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=449381
^^da bringt ein quad (oder eher tripple) ~30-50% mehr als ein dual-core. und das sind demos, da kann man sich den benötigten taktunterschied schon ausrechnen.
und der abstand wird in zukünftigen spielen sicher nicht kleiner. und man muss keine 300€ für einen quad ausgeben ;).
dargo
2009-03-15, 01:01:30
Wir könnten es aber auch umgekehrt machen. Wenn du das Spiel hast, was ist dann die niedrigste Taktrate die ein Quad braucht, um das Spiel "flüssig" (spielbar) zu halten?
Das lässt sich pauschal nicht beantworten da unterschiedliche Szenen unterschiedliche CPU-Last verursachen können. Dazu müsste man das gesamte Spiel analysieren. :ugly: Und selbst das ist keine Garantie, denn ein anderer User könnte wieder anders vorgehen was zu abweichenden Ergebnissen führen kann.
Wenn spiele schon mit einem 2.13 / 2.40 GHz Quad laufen, dann müssen sie eigentlich auf einem 4-4.2 GHz Duo bei mindestens gleicher Performance laufen können (hier wird dann sogar nur auf 2 statt 4 cores aufgeteilt, was auch ein vorteil ist, außerdem haben diese CPUs dann einen sehr viel höheren FSB; dürft schon ordentlich was ausmachen).
Du wirft hier was durcheinander. :)
Am "Flaschenhals" FSB ändert sich dabei nichts. Hier mal ein Beispiel:
Q9650 mit 3Ghz (9x333Mhz FSB)
Q9650 mit 4Ghz (9x444Mhz FSB)
In beiden Fällen ändert sich nichts am CPU/FSB Verhältnis.
Noch ein Beispiel was mir gerade so einfällt: SimCity4. Selbst heutige Hardware reicht nicht um es ruckelfrei laufen zu lassen, bei ca 1.5 Mio Bewohnern stockt das Spiel langsam, weil Rohpower zählt. Das game ist von 2003! :crazy:
Genau bei solchen Anwendungsfällen ärgere ich mich über den Quad, den ich schon ewig hab.
Ja, manche alten Schinken haben es in sich. :D
Umso schlimmer, dass diese dann nichts mit CPUs >1 Kern anfangen können. In solchen Fällen hilft nur eine CPU mit hoher Pro/Mhz-Leistung. Das wäre dann der i7. Am besten noch auf ca. 4Ghz übertaktet.
I[;7168315']^^da bringt ein quad (oder eher tripple) ~30-50% mehr als ein dual-core.
Vielleicht bin ich blind, aber welches System kam da zum Einsatz?
und man muss keine 300€ für einen quad ausgeben ;).
Wenn ich einen Quad haben will, der mir vergleichbare Leistung zu den angegebenen CPUs bieten kann (bei allen Anwendungen!) dann schon. Leider kosten alle Modelle mit 2x6 MB Cache ab 245€ aufwärts. Für das Geld lohnt sich das nicht.
Q9650 mit 3Ghz (9x333Mhz FSB)
Q9650 mit 4Ghz (9x444Mhz FSB)
Diese Systeme bekomm ich nur leider nicht fürs gleiche Geld, das ist "das Problem".
Selbst nen von mir favorisierter Q9550 (E0) geht erst bei deutlich über 220€ los und selbst wenn ich den überhaupt bis auf 4 GHz bekomme, dann fehlen eben immer noch ein paar MHz' hier und da, in anderen Worten, der kann trotzdem noch langsamer sein. Dafür das er dann nicht mehr so richtig sparsam ist, lohnt sich das für mich irgendwie nicht.
Was wirklich besseres (schneller als jede bisherige CPU) wäre erst eine "3.5 GHz Core i7 CPU" zu "bezahlbaren Preisen" (unter 200). Gibts aber nicht. Irgendwie ist das alles nur eine Übergangslösung zur Zeit. :(
Acid-Beatz
2009-03-15, 23:42:02
In der aktuellen C´t steht ein ausführlicher Test über x86 CPUs drinnen, wo auch auch gesagt wird, dass höher getaktete Dual Cores den Quads bei Spielen immer noch überlegen sind!
Von dem her gesehen bist du mit nem Dual Core (zum Übertakten) besser beraten, weil du nicht so schnell an die thermischen Grenzen stößt!
Des andere is dann wohl nur die Frage, ob du die paar FPS mehr wirklich brauchst!
Wenn du deinen Quad Core auf 3,2GHz laufen hast, dann dürft wohl jedes aktuelle Spiel erträglich laufen!
Was die Zukunft wiederum bringt kann keiner so wirklich sagen!
Dual Cores gibts jetzt doch schonwieder paar Jahre und von mehr als zwei Cores profitiert, wie gesagt, so gut wie kein Spiel ( Ausnahme: GTA IV )
Auf was ich hinaus will: Das sinnvollste meiner Meinung nach wäre, einfach das Geld sparen und dann in ein bis zwei Jahren lieber ordentlich aufrüsten.
Oder eine bessere Grafikkarte, dürfte bei deinem System wohl auch mehr bringen als nur die CPU zu pimpen!
Bye
Wenn du deinen Quad Core auf 3,2GHz laufen hast, dann dürft wohl jedes aktuelle Spiel erträglich laufen!
Ja, aber es gibt Fälle, da hätte ich gern mehr, vorallem bei Anwendungen die noch älter sind.
Der Core i7 könnte das Problem allein durch Taktrate + TurboModus irgendwann lösen, aber bis der in gut bezahlbare Regionen vorgestoßen ist, können noch ein, zwei Jahre vergehen.
Oder eine bessere Grafikkarte, dürfte bei deinem System wohl auch mehr bringen als nur die CPU zu pimpen!
Ich bin nicht so der Grafikfreak, wenn die Spiele rennen die ich nutze und nicht ruckeln, dann gibts da kein Verbesserungspotential mehr. :)
CPU-Leistung ist sozusagen wichtiger, weil es das Herzstück des PCs ist und immer zum tragen kommt. Wenn ich nur 20% meiner Zeit spiele, habe ich in den restlichen 80% nichts von einer dicken GPU.
Aber Rohpower nützt mir eigentlich überall was, egal ob bei Audio, Video, Packer, Games, Verschlüsselung, Emulation usw.
Mehr Rechenleistung wäre auch schön für ne gute VMware Maschine. Stelle dir vor, ich habe Win7/Linux Hauptsystem und habe zur gleichen Zeit Win98/XP in der VM laufen, wo sogar DirectX9 Spiele in Softwarerendering flüssig und fehlerfrei funktionieren. Der Zeitpunkt kommt sicher...
dargo
2009-03-16, 16:37:36
Dual Cores gibts jetzt doch schonwieder paar Jahre und von mehr als zwei Cores profitiert, wie gesagt, so gut wie kein Spiel ( Ausnahme: GTA IV )
Das ist schlicht und ergreifend falsch. Anscheinend hast du meinen Link nicht befolgt. :)
Acid-Beatz
2009-03-16, 16:42:16
Irgendwie gibst du aber zwei verschiedene Aussagen, was du eigentlich haben willst!
Im Eröffnungs Thread steht drinnen " ... wirklich die beste Wahl für mich als Spieler ist".
Hier drüber schreibst du " Ich bin nicht so der Grafikfreak" ... ?!
Ja was denn nun?
Wenn du alte Spiele hast, dann laufen sie auf nem 3,2GHz Quad mehr als schnell genug!
Für Videos ist wohl ein Quadcore das beste, alle anderen Sachen limitieren eher wo anders!
Im Zweifelsfall: Benchmarkliste raussuchen und selber beurteilen!
Greez
Das passt doch alles super zusammen! Ich bin kein "Ballerspieler", ich gehöre in die Strategieriege, da ist CPU-Leistung eben wichtiger als die Grafik! Aber deswegen hast du nie genügend CPU-Power.
Wenn du alte Spiele hast, dann laufen sie auf nem 3,2GHz Quad mehr als schnell genug!
Wenn es so einfach wäre, wäre dieses Thema nicht entstanden, ist es aber nicht. :)
Ein paar Beispiele wurden schon genannt: SimCity4, Fussballmanager(2002, 2003, 2004, 2005 2006, 2007, 2008, 2009 = CPU Leistung wird 1:1 umgesetzt), Strategie (viele Einheiten auf einmal sichtbar) und noch eine menge mehr. Da bringt nen Quad eben gar nichts.
Selbst die DOS-Box wird schneller, weil sie mehr "cycles" berechnen kann, aber eben nicht auf alle Kerne. Dadurch erhöht sich auch die framerate im Spiel (vorallem bei Softwarerendering).
Ich hab wirklich lange gesucht, aber wo gibts denn einen vollwertigen Quad der mit ca. 4.2 GHz läuft und dabei noch sparsam und günstig zu haben ist? Alles ab 250€ lohnt wegen des dann verfügbaren i7 nicht.
Kommt immer auf die Spiele an!
Bin mit meinem E8400@3,6GHz mehr als zufrieden, hatte vorher einen Q6600@2,66GHz und man spürt den Unterschied. Von WoW bis Crysis hab ich im Zusammenspiel mit einer GTS260 mehr gewonnen.
Von daher kann rohe Taktfrequenz Power eines Dualcores schon noch einen Quadcore in die Schranken weisen. Zumal 4GHz mit Luftkühlung heute Problemlos möglich sind bei DCs. Die Zeit der Quads wird kommen, aber rein von der Energieffizienz hoffe ich, das sie niemals im Mainstream ankommen ^^
Acid-Beatz
2009-03-16, 18:16:05
Selbst die DOS-Box wird schneller, weil sie mehr "cycles" berechnen kann, aber eben nicht auf alle Kerne. Dadurch erhöht sich auch die framerate im Spiel (vorallem bei Softwarerendering).
Lassen wirs mal unkommentiert stehen :ulol4:?
Da bringt nen Quad eben gar nichts.
Du hast dir die Antwort ja quasi eh schon gegeben, die du hören willst, also warum dann noch lange rumlabern?
Lassen wirs mal unkommentiert stehen :ulol4:?
Den Schädelklopfer geb ich dir mal zurück = :hammer:
Wenn ich jetzt Lust hätte, würde ich ein kleines Video davon machen und hier ins Forum stellen, denn dann würdest du dich ganz schnell in die Ecke stellen und dich schämen, weil du siehst, das es tatsächlich so ist!
Du kennst scheinbar wenig von der Softwarewelt da draußen, oder? Wenn du "Grafik" in Softwarerendering und auch noch als Emulation laufen lassen willst, dann frisst das ohne Frage Leistung ohne Ende.
Die DOS-Box Standardeinstellung bringt bei sogar nur Ruckelorgien hervor und viele wissen gar nicht, das sich mit Erhöhung der cycles die Framerate deutlich verbessern lässt, was aber gleichzeitig mit höherer CPU-Belastung daher geht. Die DOS-Box frisst bei mir bis zu 30 % Gesamtleistung eines Quad-Cores, also einen ganzen Kern allein! In der Standardeinstellung sind es nur weniger als 10 %. Von anderen Emulatoren rede ich gar nicht erst, bei Konsolen-Emulatoren ist das noch extremer! Oder hast du je etwas von Swiftschader gehört? Das kannst du auch auf aktuellere Applikationen anwenden.
Du hast dir die Antwort ja quasi eh schon gegeben, die du hören willst, also warum dann noch lange rumlabern?
Das labern überlasse ich anderen, ich möchte diskutieren und zwar darüber, welche Anwendungen davon betroffen sind oder es sein können. Hier im Forum scheint es nämlich bis auf wenige Ausnahme die einhellige Meinung zu herrschen, das ein Quad-Core das Nonplusultra ist. Das ist er aber längst nicht, wenn er auf Standard, mit begrenzter Kühlung läuft oder einen unheimlich hohen Stromverbrauch hat. Ich glaube auch nicht, das die Ergebnisse von jemanden mit Kompressorkühlung auf andere übertragbar sind. =)
In erster Linie gehts darum die Problematik sichtbar zu machen, im Augangspost findest du einige Beispiele.
@ TS
Also ich hab mir mal diese Swiftshadersache, die du erwähntest, angesehen.
laut PCGH bringt ein 3,8ghz Yorkfield in Crysis auf 800x600 damit so knapp 5 FPS zustande. Ich glaube das ist in anbetracht deiner Grafikkarte etwas wenig oder? Die ist bestimmt um Welten schneller dabei. Also Crysis ist natürlich kein Strategiespiel, welche du ja bevorzugst, aber die drücken ja meist nochmehr auf die CPU wenn viele Einheiten wuseln. Wenn die Cpu dann auch noch die Grafik machen soll gute nacht...
Also irgendwie ist mir unklar was für einen merkwürdigen Anwendungsfall du da bei dir optimieren willst.
Mal ist eben der Duo schneller wenns eben nur auf 1-2 Cpus optimiert wurde, und mal ist der quad schneller wenn mehr Threads benutzt werden. Pauschal kann man das eben nicht sagen. Mal so mal so *g*
Niemand würde auf die Idee kommen, Crysis in Softwarerendering auf jetziger Hardware laufen zu lassen. :)
Softwarerendering hat aber den großen Vorteil, das die Grafikkarte fast egal ist, die CPU erledigt die Arbeit.
Das hat einen ganz anderen Einsatzzweck, z.B. kannst du neben Vista/Win7 x64 ein Win98 System als virtuelle Maschine im Fenster laufen lassen, welche aber keinen 3D-Support hat. Durch Softwarerendering kommst du trotzdem in den Genuß von 3D und für Win9x-Spiele reicht die Leistung in der Regel völlig aus. In einigen Jahren werden wir garantiert auch Crysis in Softwarerendering laufen lassen können... falls es auf dann aktuellen Betriebssystemen nicht mehr laufen sollte.
Das gleiche gilt auch für Linux und das ist in dieser Hinsicht sogar sehr interessant. Du kannst Linux als Hauptbetriebssystem nutzen und ein Windows in der VM installieren.
In anderen Worten: Alte Software=Software/Emulation, neue Software=nach möglichkeit durch virtualisierung. VMware WS bietet schon begrenzten Direct3D9 Support in einer VM, aber nicht für jedes Betriebssystem.
Das ein Quad sich irgendwann durchsetzen wird, ist keine Frage, es gibt sogar schon 6-Cores. Aber mit aktueller Taktrate (und Preis) ist er eben keine alternative für jedermann. Gegen einen 4 GHz 6-Core mit HT und TurboMode hätte ich sicher nix einzuwenden. :D
Kauf Dir ne bessere Grafikkarte und ne schnellere Festplatte und sei mit deinem 6600 zufrieden.
Ich finde die Benches bei 800x600 nur lächerlich, das ist wie einem Motor im Leerlauf bei Maximaldrehzahl laufen zu lassen -> sagt nix bis wenig über das Verhalten unter Hochlast aus.
Was sollen eine bessere Grafikkarte & schnellere Festplatte bringen? Sie erhöhen die CPU-Leistung nicht.
Außerdem hast du denke ich, den Sinn von CPU-Tests nicht verstanden. Die werden besser sogar noch in 640x480 durchgeführt. Warum? Weil damit ausgeschlossen werden soll, das die Grafikkarte Einfluss auf die Ergebnisse nimmt und das ist bei hohen Auflösungen nicht gegeben, da sie manchmal an ihr Limit kommt und so die CPU Ergebnisse verfälscht.
Eine CPU die bei 640x480 z.B. 20% schneller ist, wird in jeder Auflösung (etwa 20%) schneller sein, sobald "Rohpower" gefragt ist. Wenn jetzt aber die Grafikkarte limitiert, schrumpfen bei herkömmlichen Benches die Durchschnittswerte auf 0-20% zusammen. Das Ergebniss ist also nichtssagend.
Wenn du die auflösung hoch genug schraubst, kann es z.B. passieren, das ein Pentium III und ein Core 2 die gleichen Endergebnisse liefern, weil die Grafikkarte der bremsende Faktor gewesen ist. Ist ein Core 2 deshalb langsamer?
Wenn du die auflösung hoch genug schraubst, kann es z.B. passieren, das ein Pentium III und ein Core 2 die gleichen Endergebnisse liefern, weil die Grafikkarte der bremsende Faktor gewesen ist. Ist ein Core 2 deshalb langsamer?
Nein. Aber auch nicht schneller ;)
Nein. Aber auch nicht schneller ;)
Bist du sicher? Denke nochmal darüber nach.
Wir können mal ein Extrembeispiel nehmen: Eine Voodoo-Karte.
Jetzt lassen wir diese Karte auf einer Pentium III Plattform und einer Core 2 Plattform laufen.
Jetzt nehmen wir einen beliebigen ingame Benchmarks und führen ihn in 1920x1200 High-Quality aus. Wie wird das Ergebniss aussehen?
Bist du wirklich sicher, das eine CPU, die generell schneller ist, nicht schneller sein kann, wenn Szenen eines Spiels allein CPU limitiert sind? z.B. beim Einsatz von KI-Bots (Unreal, Counter-Strike, Quake...)
Das Problem solcher average Benchmarks ist nunmal, das sie meist hochgradig unrealistisch sind (Grafiklimit z.B.), sie also über die CPU-Leistung allein gar nichts aussagen können.
Wenn eine CPU im Mittel 200% schneller ist, kann es passieren, das beim avg Wert am Ende eines üblichen Benches nur noch 50% davon übrig bleiben (eine lange Szene kann sowohl grafiklimitierte, als auch CPU limitierte Stellen beeinhalten).
Als ein Beispiel möchte ich mal einige Benchmarks der Computerbase nennen: Oblivion (~Releasezeitpunkt).
Als ich sie mir angesehen hatte, dachte ich, ich könnte das Spiel nicht spielen, weil alle aktuellen Grafikkarten nicht über 20fps hinaus kamen. Als ich es jedoch installiert habe, lief alles wunderbar flüssig und mit weit mehr als diese 20fps. Ich konnte sogar die Auflösung noch anheben und es war weiterhin gut spielbar. Was sagt uns das?
ein anderer
2009-03-20, 19:59:19
@TS: Im Prinzip hast du das wesentliche doch schon erkannt - oder? Quads sind im Moment den Wolfdales eindeutig nicht ebenbürtig, wenn es um nichtoptimierte Anwendungsfälle geht, in denen es tatsächlich um echte 'Integer-Rohpower' geht. Es ist eben tatsächlich so, daß man mit zwei extremen OC-Kernen schneller 'shreddert' als mit 4 kaum OC-fähigen Durchschnittskernen. Hinzu kommt, daß 4 Threads erstmal ordentlich programmiert sein wollen. Nach wie vor lassen sich in Emulatoren und Spielen die meisten Aufgaben NICHT paralellisieren. Manche Spielehersteller versuchen seit neuestem auch zu betrügen. Offenbar ist man in Entwicklerkreisen jüngst krampfhaft bemüht Engines zu produzieren, die unter Duos und Quads tatsächlich spürbar mehr Leistung bringen, ohne das die Engine für Dualbesitzer/Singlebesitzer (die absolute Mehrheit der potentiellen Kunden) uninteressant wird. Dies wird im Fall von Left4Dead zB. dadurch erreicht, daß man krampfhaft versucht alle vorhandenen Kerne irgendwie zu beschäftigen, so daß es für Uneingeweihte im Taskmanager so aussieht, als ob alle Kerne der CPU tatsächlich 'sinnvoll' beschäftigt werden.
Die Ironie: Wenn man zB. L4D auf einer Mehrkern-CPU spielt, hat man auf einem C2D 100% Auslastung beider Kerne und es ruckelt im Multiplayer geradezu unerträglich. Sobald man der Engine jedoch per Konsolenbefehl jegliches Multithreading verbietet, hat man auf seinem C2D folgendes Bild:
core #0 - 60% Last
core #1 - 20% Last
...und das Spiel läuft bei maximalen Details unter 1680x1050 abolut flüssig und ohne Aussetzer. - Ein Schelm, wer Böses dabei denkt.
Meine Meinung: Die Hardwarehersteller (ob das jetzt nVidia, ATi, AMD oder intel sind) haben schon so oft versucht zu betrügen, daß ich inzwischen nichtmal mehr den Benchmarks glaube. Alles Fake - von vorne bis hinten. Denn genau hier wurde und wird der Hebel angesetzt, um dem Publikum seine Ware unterzujubeln. - Wie im oben gezeigten Beispiel läßt sich mit nur einem einzigen Konsolenbefehl aus einer unspielbar lahmen Engine eine Rakete machen. Ironischerweise auch noch durch das Abschalten des Multithreadings. - Man weiß gar nicht, ob man noch lachen oder schon weinen soll.
Jetzt zu deinem Problem: Q6600/E8600/neuererQuad@3GHz
Meine Meinung: Reine Geschmacksfrage. Das große Argument: Mit Quad bist du auch als Spieler besser für die Zukunft gerüstet, ist in meinen Augen eine Lachnummer. Denn die Zukunft, von der diese Leute träumen ist so ewig ewig ewig weit entfernt, daß ich mich frage, ob ich mir bis dahin nicht ohnehin bereits wieder ein neues Mobo samt neuer CPU zulegen muß. Genausogut könnte man auch seinen Ram auf 64 GB hochrüsten... damit ist man genausoviel besser für die Zukunft gerüstet. Ich suche meine CPU nur nach der Realität aus (also nach der Software die ich tatsächlich habe und auch nutze). - Und OBWOHL ich auch SupCom-FA spiele, habe ich mir den E8400 gegönnt. - Weil das nämlich nur 1 von 100 Spielen ist, die mit 4 Kernen tatsächlich was anfangen KÖNNTEN. Ich schreibe deshalb KÖNNTEN, weil ich das Spiel eigentlich nur im Multiplayer mit anderen spiele. Und jetzt kommt der große Knaller: Die SupCom-Engine passt das Spiel automatisch an den schlechtesten in der Multiplayerpartie vorhandenen Rechner an. - Humor ist, wenn man trotzdem lacht. ;)
Zeig mir mal den Benchmark, der auf solche Unwägbarkeiten des realen Lebens eingeht... :biggrin:
Im Prinzip kann man festhalten, das es heute absolut egal ist, ob man eine DualCore oder QuadCore - CPU hat. Hauptsache, sie hat 3GHz. Alles drunter ist nicht länger zumutbar. Mit deinem Q6600@3,2 bist du also noch gut im Rennen. Gegen einen E8400@5,0 würds' allerdings eng werden. ;) Aber wer braucht schon soviel Power in aktuellen Spielen? Da hat die Grafikkarte schon lange vorher das Licht ausgemacht.
BlacKi
2009-03-20, 20:26:03
wenn du nen e6600 auf über 3ghz hast, dann lass den erstmal drinne, er ist nicht dein limitator.
auch in nächster zukunft limitiert der nicht. lege dir ne scheite grafikkarte zu, das geld ist besser investiert.
denn wenn du angenommen in crysis bei min details 100fps mit deinem proz hast, bekommst du mit ner 4ghz cpu vl 130fps hin, aber beide cpus laufen bei max details vl mit 20-30fps. aber so dicht beieinander das du keinen unterschied merkst. aber deine alte cpu mit ner gescheiten grafikkarte bist du deutlich schneller als mit deiner alten und der schnelleren cpu, weil deine alte grafikkarte limitiert.
und das argument ich bin mit nem quad für die zukunft gerüstet, muss ich nur lachen. bis dahin gibt es deutlich bessere cpus und vl auch die unterstützung dafür, und der quad bleibt trotzdem ne krücke.
quad cores werden bei intel sowieso aussterben. auf der roadmap von intel steht keine quad mehr, nur noch 6kerne oder 2 kerne.
frühestens erst in 2-3 jahren wird die multi cpu erforderlich, und wer bitteschön will in 3 jahren den quad noch haben?
es war noch nie ratsam möglichst viel geld in hardware zu stecken damit man möglichst lange ruhe hat.
die nächsten jahre wird der duo in spielen absolut konkurenzfähig bleiben, wenn sich dann der markt der multicpu zuwendet kann man immernoch umsteigen, und kann eine zeitgemäße cpu kaufen und hat keinen alten stinkenden quad
Liszca
2009-03-20, 20:35:51
mach doch zusätlich noch einen praxisnahen vergleich, zb. als ziel min. 30fps haben.
Ich habe hier gerade noch einen interessanten Test entdeckt: http://www.xbitlabs.com/articles/cpu/display/core2quad-q9300.html
Da wird zum einen ein E8500 @ 4,3 GHz mitgetestet und ein paar Quads @ 3,6 GHz.
Interessanterweise gewinnt selbst der E8500 mehrere synthetische Benchmarks, im 3DMark liegt er zurück, in der Realität bei Games liegt er aber praktisch immer vorn! Man schaue sich die Beispiele in Quake & Half-Life 2 & Crysis an.
Selbst bei Unreal Tournament 3 ist der Duo auf dem Niveau eines 3,6 GHz Quads... war die Engine nicht schon auf mehrere Kerne ausgelegt:confused:
Bei World in Conflict werden die Quads auch wieder gnadenlos abgezogen.
Selbst beim Media-Encoding von MP3s, DivX ist er ganz vorn dabei, bei MPEG, das scheinbar schon hochoptimiert ist, fällt er dann ein wenig zurück.
Dort gibts auch Angaben zum Stromverbrauch, die meines erachtens das Problem sehr verdeutlichen:
E8500 @ 4.3 GHz = 196.1 (Idle), 289 (Volllast)
Q9300 @ 3.5 GHz = 202.6 (Idle), 324.9 (Volllast)
Q6600 @ 3.6 GHz = 244.5 (Idle), 393.5 (Volllast)
Der Q6600 ist auf jeden Fall untragbar wie man sieht... zum großen Teil langsamer und zieht knapp 100W mehr aus der Leistung!! Heftig. Da wundert es mich nicht, das er sich mit LuKü nicht weiter takten lässt bei mir. :)
Schade das sie kein Quadmodell mit 4+ GHz testen konnten, das hätte mich interessiert, ob die sich dann noch weiter absetzen können. Aber scheinbar haben sie genau die gleichen Probleme wie ich so ein Modell aufzutreiben... für ne sehr gute Q9xxx CPU @ 4,2 GHz zahlt man sich leider dumm und dämlich.
sorry aber diese Schwanzmark ergebnisse sind verzerrt ohne ende.
interesannter sind da in meine augen ergebnisse OHNE OC nur mit
STANDART TAKT.
das ander der test ist über ein Jahr alt also kräht da kein hahn mehr danach
auch fehlt der Phenom II Prozi von AMD dort wird nur der Phenom I gezeigt .
grüße
interesannter sind da in meine augen ergebnisse OHNE OC nur mit
STANDART TAKT.
Nein - es muß die tatsächliche Leistungsfähigkeit einer CPU untersucht werden. Die meisten Mobos übertakten inzwischen bereits automatisch. Wenn man bei den ganzen Quads im BIOS tatsächlich alle AI und OC-Features abschalten würde, dann würden sie in aktuellen Spielen aufgrund der technischen Beschränkungen beim Cache sogar noch hinter SingleCores mit gleichem Takt zurückfallen. Dein Vorschlag würde das Leistungsverhalten aktueller CPUs noch weit stärker verzerren.
Wie man die aktuellen Phenom II's einordnen soll, weiß wohl noch keiner so recht. - Aber wenn es inzwischen endlich mal wieder eine AMD-CPU gäbe, die den Core2s auch nur ansatzweise das Wasser reichen könnte (und wenn es nur beim Stromverbrauch wäre), dann hätte man lang und breit davon gehört ;).
Argo Zero
2009-03-21, 15:29:55
Ich bin eben von einem C2D 2.1ghz@2.67ghz auf einen Quad 2.6ghz@3.33ghz umgestiegen. Nun ja, jetzt kann ich Warhammer Online flüssig(er) zocken und die Kerne werden optimal ausgenutzt, denn die CPU bleibt beim Zocken auf 2ghz stehen.
_DrillSarge]I[
2009-03-21, 15:32:37
Die meisten Mobos übertakten inzwischen bereits automatisch. Wenn man bei den ganzen Quads im BIOS tatsächlich alle AI und OC-Features abschalten würde, dann würden sie in aktuellen Spielen aufgrund der technischen Beschränkungen beim Cache sogar noch hinter SingleCores mit gleichem Takt zurückfallen.
was??? öhhhm nein.
Wie man die aktuellen Phenom II's einordnen soll, weiß wohl noch keiner so recht. - Aber wenn es inzwischen endlich mal wieder eine AMD-CPU gäbe, die den Core2s auch nur ansatzweise das Wasser reichen könnte (und wenn es nur beim Stromverbrauch wäre), dann hätte man lang und breit davon gehört ;).
der phenom 2 kann den c2d/c2q locker das wasser reichen (man beachte dabei immer die preisklasse!).
Mr.Magic
2009-03-21, 15:50:11
Nein - es muß die tatsächliche Leistungsfähigkeit einer CPU untersucht werden. Die meisten Mobos übertakten inzwischen bereits automatisch. Wenn man bei den ganzen Quads im BIOS tatsächlich alle AI und OC-Features abschalten würde, dann würden sie in aktuellen Spielen aufgrund der technischen Beschränkungen beim Cache sogar noch hinter SingleCores mit gleichem Takt zurückfallen.
:crazy:
Ich habe noch kein Mainboard gesehen, bei dem im Auslieferungszustand OC aktiviert war. In Spielen war mein 3.2Ghz C2D ebenfalls kein Stück schneller als mein 3.4Ghz C2Q (200Mhz mehr machen ~6% Taktunterschied).
Argo Zero
2009-03-21, 16:03:35
:crazy:
Ich habe noch kein Mainboard gesehen, bei dem im Auslieferungszustand OC aktiviert war. In Spielen war mein 3.2Ghz C2D ebenfalls kein Stück schneller als mein 3.4Ghz C2Q (200Mhz mehr machen ~6% Taktunterschied).
Aber der Prozessor taktet niedriger, wodurch sich eine Verdoppelung der Leistung bemerkbar macht bei weniger Takt?
Mr.Magic
2009-03-21, 16:48:46
Welcher Prozessor taktet wann niedriger?
Mein Quadcore ist (vernachlässigbare) 6% schneller getaktet.
Nein, man hat keine FPS-Verdopplung bei Spielen (zumindest ich nicht, ich spiele nicht im Hässlichkeitsmodus), aber man bemerkt das Fehlen jeglicher Ruckler z.B. bei TDU. Allgemein hat man seine Ruhe/noch Reserven (Hintergrundprogramme/Multitasking etc.), bei allem, was mindestens zwei Kerne voll auslasten kann.
dargo
2009-03-21, 16:57:01
Mein Quadcore ist (vernachlässigbare) 6% schneller getaktet.
Nein, man hat keine FPS-Verdopplung bei Spielen (zumindest ich nicht, ich spiele nicht im Hässlichkeitsmodus), aber man bemerkt das Fehlen jeglicher Ruckler z.B. bei TDU.
Das ist in der Tat so. Ich hatte mich früher mit dem DC immer über diese Ruckler etwas gewundert. Übrigens, bei TDU sind diese Ruckler schon mit einem Triplecore weg. Die Engine scheint von vorne rein auf TC ausgelegt zu sein.
Die Engine scheint von vorne rein auf TC ausgelegt zu sein.
Dank der XBox360 ;)
dargo
2009-03-21, 17:16:37
Dank der XBox360 ;)
Rüchtisch. :)
Ich habe noch kein Mainboard gesehen, bei dem im Auslieferungszustand OC aktiviert war.
Oh - dann hast du wohl noch nie Boards von Asus oder Gigabyte gehabt. Bei meinen Boards war bislang IMMER AI und PEG per default aktiviert. Seit dem A8N-SLI von Asus ist das erste was ich mache: AI abschalten PEG/Linkmode deaktivieren. Mein damaliger A3200+ wurde Dank AI ohne Federlesen gleich mit 2,4 statt 2,0 GHz gestartet. - Das war dann selbst mir zu 'dick', weil ich einen leisen PC haben wollte und zudem nur einen leisen Standardkühler gekauft hatte.
Ich glaub die meisten wissen gar nicht, daß ihre Quads bei default-Einstellungen im BIOS bereits übertaktet werden. Wenn man die Werte am Desktop checkt werden einem meist nur die c'n'q-Werte bei stark reduziertem Takt präsentiert. Es wäre daher wirklich mal interessant einen Benchmark zu sehen, bei dem wirklich darauf geachtet wurde, daß alle versteckten OC-Funktionen abgeschaltet wurden. Ich befürchte, daß dann die ganzen aktuellen Quad-Statistiken im Bereich der unter 3 GHz-Klasse doch arg nach unten korrigiert werden müssten.
Argo Zero
2009-03-21, 17:24:08
Welcher Prozessor taktet wann niedriger?
Mein Quadcore ist (vernachlässigbare) 6% schneller getaktet.
Nein, man hat keine FPS-Verdopplung bei Spielen (zumindest ich nicht, ich spiele nicht im Hässlichkeitsmodus), aber man bemerkt das Fehlen jeglicher Ruckler z.B. bei TDU. Allgemein hat man seine Ruhe/noch Reserven (Hintergrundprogramme/Multitasking etc.), bei allem, was mindestens zwei Kerne voll auslasten kann.
Beispiel Warhamemr Online:
Core2Duo mit 2-2.67GHZ (performance on demand) = 100% CPU-Last beider Kerne bei vollem Takt. Quad Core 2-3.3GHZ = Prozessor-Last von 40-60% bei 2GHZ(!) Takt.
Der Prozessor wird weniger heiß und im idle kann ich ihn sogar runter "volten".
dargo
2009-03-21, 17:32:13
Ich glaub die meisten wissen gar nicht, daß ihre Quads bei default-Einstellungen im BIOS bereits übertaktet werden.
Ich glaube eher du phantasierst hier etwas. Ich habe in meiner Laufbahn noch nie ein Brett gehabt welches von sich aus automatisch übertaktet.
Mr.Magic
2009-03-21, 17:32:32
Oh - dann hast du wohl noch nie Boards von Asus oder Gigabyte gehabt.
Nein, ein Board von Gigabyte hatte ich nie, und Asus nicht mehr seit 2001.
Wobei es bei mir eh keine Rolle spielen würde, wenn es stimmen würde, da ich das BIOS nach dem Kauf/Aktualisieren prinzipiell komplett durchgehe.
ps: Da es Boardabhängig wäre, würden alle SC und DC ebenso übertaktet, nicht nur die QC.
Ich habe in meiner Laufbahn noch nie ein Brett gehabt welches von sich aus automatisch übertaktet.
Nein, das gibt es tatsächlich. Früher war das MSI, damals in Pentium4 Zeiten haben sie großartig geschummelt und bei jedem Mainboardtest den FSB hochgeschraubt.
THG hatte das mal in einem Test erwähnt und danach bei MSI nachgefragt...
Aber generell traf das auf mehrere Hersteller zu, da wurde schon im Standardbetrieb der CPU Takt um 30-50 MHz über Standard betrieben.
Dieses auto-overclocking hat ja mittlerweile jedes board.
Vielleicht hatte der Gast aber nur einen BIOS Bug, automatisch aktiv sollte das nicht mehr sein - wäre aber möglich, das es bei gewissen Boards trotzdem noch so ist, allein ASUS hat mindestens drei dutzend am start. =)
dargo
2009-03-21, 17:39:37
Nein, das gibt es tatsächlich. Früher war das MSI, damals in Pentium4 Zeiten haben sie großartig geschummelt und bei jedem Mainboardtest den FSB hochgeschraubt.
THG hatte das mal in einem Test erwähnt und danach bei MSI nachgefragt...
Aber generell traf das auf mehrere Hersteller zu, da wurde schon im Standardbetrieb der CPU Takt um 30-50 MHz über Standard betrieben.
Dieses auto-overclocking hat ja mittlerweile jedes board.
Ich weiß, dass es Boards gab die beim FSB mimimal "geschummelt" hatten. Wollen wir jetzt aber ernsthaft über +30-50Mhz bei 3Ghz CPUs diskutieren? :rolleyes:
Diese Abweichungen hatten mich ehrlich gesagt eh nie interessiert da es keine CPU gab die ich nicht übertaktet hatte. Von daher musste ich eh am FSB drehen.
Ich weiß, dass es Boards gab die beim FSB mimimal "geschummelt" hatten.
Minimal war das nicht.
Früher wurde das im großen Stil betrieben. Und einige Board in letzter Zeit sollen auch den PCIe Takt auf bis zu 125 MHz hochschrauben, vielleicht erinnert sich noch jemand an diese Nvidia Geschichte...
/Edit: http://www.tomshardware.com/de/msi-fsb-overclocking,testberichte-613.html
Kleiner Denkanstoß, in letzter Zeit hab ich davon aber nix mehr gehört.
Ich weiß, dass es Boards gab die beim FSB mimimal "geschummelt" hatten. Wollen wir jetzt aber ernsthaft über +30-50Mhz bei 3Ghz CPUs diskutieren?
Hmm - liest du eigentlich ab und zu nochmal was die Leute schreiben? Ich hab hier nicht von 30-50MHz gesprochen sondern von 2.400 MHz statt 2.000 MHz - und das bei default-Einstellungen im BIOS.
dargo
2009-03-21, 17:58:28
Hmm - liest du eigentlich ab und zu nochmal was die Leute schreiben? Ich hab hier nicht von 30-50MHz gesprochen sondern von 2.400 MHz statt 2.000 MHz - und das bei default-Einstellungen im BIOS.
Liest du auch was ich schreibe? Mir ist so ein Brett noch nie untergekommen. Und ich hatte locker >15 Stück verbaut. Angefangen 1993.
xiao didi *
2009-03-21, 18:11:11
2.400 MHz statt 2.000 MHz - und das bei default-Einstellungen im BIOS.
Du meine Güte...Münchhausen würde zwei Daumen geben, von mir gibts nur einen :uup:
Eigentlich drehte sich das Thema hier um Taktraten "ab" 3 oder 4 GHz, alles andere ist erstmal egal. :)
Beispiel Warhamemr Online:
Core2Duo mit 2-2.67GHZ (performance on demand) = 100% CPU-Last beider Kerne bei vollem Takt. Quad Core 2-3.3GHZ = Prozessor-Last von 40-60% bei 2GHZ(!) Takt.
Der Prozessor wird weniger heiß und im idle kann ich ihn sogar runter "volten".
Naja, das ist nicht weiter verwunderlich würde ich sagen, wenn sich die Last gleichmäßig verteilen lässt (techreport baut immer Diagramme in den Benches mit ein), dann ist es zum teil sogar möglich im Idle-Mode zu bleiben, also bei abgesenktem Takt+Spannung. Bei Übertaktung fällt das dann oft weg...
Andererseits musst du trotzdem 4 Kerne durchfüttern, was den Spareffekt irgendwie wieder zunichte macht. Ich würde behaupten, ein 3+ GHz Duo bei 1.10-1.15V ist durchaus möglich, selbst mein 65nm Quad-Modell kommt bei bis zu 2.67 GHz noch mit 1.10V oder so aus, dann kommt er nichtmal mehr an die 55Grad Grenze heran.
Niedriger Takt, gute Verbrauch... dann lässt aber leider die Leistung zu wünschen übrig, einen 2,67 GHz Core2 gabs schon vor Jahren. :)
Du meine Güte...Münchhausen würde zwei Daumen geben, von mir gibts nur einen :uup:
Ihr habt echt keinen Plan. - Und Dargo hat schon über 15 Boards verbaut. :uclap:
Also - damit ihr nicht dumm sterben müßt:
Das Asus A8N-SLI hatte bereits das A.I.-Feature, welches heute quasi in jedem Asus-Board eingebaut ist. Ob es immernoch per default aktiviert ist, muß jeder selber checken.
Zum Feature:
A I NOS an inbuilt overclocking facility that will overclock for short bursts depending on CPU loading
(runs CPU higher than stated clock rate IE 2000MHZ might rise by 10-20% higher than stated clock speed as example).
http://www.ciao.co.uk/ASUS_A8N_SLI_Premium__Review_5585614
So wenn ich euch sage, daß mein Board beim ersten Systemstart (da schaut man noch genauer hin) bei default-settings mit 2.400 MHz durchgestartet ist und ich nur knapp einem Herzinfarkt entgangen bin, dann könnt ihr mir das ruhig glauben. Denn 20% mehr sind bei 2.000 MHz ziemlich genau 2.400 MHz. Und 400MHz waren auch damals bei Standardkühlung kein Pappenstil. Zudem sollte sich die Kühlpaste erstmal gleichmäßig bei moderaten Temps verteilen, weswegen ich im BIOS zu dem Zeitpunkt noch keinerlei 'Knöpfchen' gedrückt hatte und das ganze erstmal bei KLEINER Stufe mit memtest ein Stündchen vor sich hin kochen lassen wollte... Zum Glück hab ich überhaupt noch hingeschaut.
-End of Discussion-
BTT plz
Liszca
2009-03-21, 19:58:33
Du meine Güte...Münchhausen würde zwei Daumen geben, von mir gibts nur einen :uup:
:eek:
xiao didi *
2009-03-22, 00:11:30
Ihr habt echt keinen Plan. - Und Dargo hat schon über 15 Boards verbaut. :uclap:
Typ, ich gehe mal davon aus, dass auch diese Aussage von dir stammte:
Die meisten Mobos übertakten inzwischen bereits automatisch. Wenn man bei den ganzen Quads im BIOS tatsächlich alle AI und OC-Features abschalten würde, dann würden sie in aktuellen Spielen aufgrund der technischen Beschränkungen beim Cache sogar noch hinter SingleCores mit gleichem Takt zurückfallen.
Da stellen sich mir mehrere Fragen: Was für "technische Beschränkungen beim Cache" meinst du? Warum ist es bisher niemandem ausser dir aufgefallen, dass die C2Qs "zu schnell" laufen? Und warum sollten namhafte Hersteller ihren Ruf durch eine völlig unkontrollierbare, automatische, standardmässig aktive (!) Übertaktung auf's Spiel setzen und zudem Massen an RMA Aufträgen in Kauf nehmen?
Da frage ich mich berechtigterweise, wem hier der "Plan" fehlt (siehe auch Quote weiter unten) und inwiefern ich dir deine Aussage über das A8N glauben soll.
Meine 3 letzten Boards (DFI nf3 ultra, GB DS4 P35 und Asus P5Q Pro) zeigten sowas übrigens nicht. :uponder:
Wie man die aktuellen Phenom II's einordnen soll, weiß wohl noch keiner so recht. - Aber wenn es inzwischen endlich mal wieder eine AMD-CPU gäbe, die den Core2s auch nur ansatzweise das Wasser reichen könnte (und wenn es nur beim Stromverbrauch wäre), dann hätte man lang und breit davon gehört ;).
Ein Phenom II kann sogar sehr gut mit einem C2Q mithalten:
Computerbase testet Phenom II X4 920 und 940 (http://www.computerbase.de/artikel/hardware/prozessoren/2009/test_amd_phenom_ii_x4_920_940_black_edition/29/#abschnitt_performancerating)
Die diskussion um das Thema find ich gut. Wenn Leute noch darüber diskutieren müssen, ob das eine oder das andere besser ist, kann ich getrost noch bei meinem dual core bleiben...denn soviel unterschied kanns ja nicht sein.
Die fehlende Unterstützung seitens der Spiele ist ja auch nach Jahren noch immer zu spüren. Selbst neuste Titel haben teilweise immernoch nichtmal eine dualcore unterstützung (siehe empire total war, bei tf 2 wurdes gerade erst reingepatcht). Schön. Momentan gibt die Softwareindustrie keinen Grund zum nach oder aufrüsten.
dargo
2009-03-22, 11:00:48
Die fehlende Unterstützung seitens der Spiele ist ja auch nach Jahren noch immer zu spüren.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7171313&postcount=13
Ein Phenom II kann sogar sehr gut mit einem C2Q mithalten:
Computerbase testet Phenom II X4 920 und 940 (http://www.computerbase.de/artikel/hardware/prozessoren/2009/test_amd_phenom_ii_x4_920_940_black_edition/29/#abschnitt_performancerating)
Leider nicht bei Spielen:
http://www.computerbase.de/artikel/hardware/prozessoren/2009/test_amd_phenom_ii_x4_920_940_black_edition/25/#abschnitt_realitaetsferne_spieletests
http://www.matbe.com/articles/lire/1291/amd-phenom-ii-940-3-ghz-et-920-2-8-ghz/page14.php
Ihr habt echt keinen Plan. - Und Dargo hat schon über 15 Boards verbaut. :uclap:
Also - damit ihr nicht dumm sterben müßt:
Das Asus A8N-SLI hatte bereits das A.I.-Feature, welches heute quasi in jedem Asus-Board eingebaut ist. Ob es immernoch per default aktiviert ist, muß jeder selber checken.
Hatte, früher, alter Link...halloooooo die Zeit läuft weiter.
Und der erste Satz kommt dann noch von jemanden dessen 2 GHz CPU mit 2,4 GHz durchstartet, alles klar.
Leider nicht bei Spielen:
hust
„Realitätsferne“ Spiele-Tests
hust
gehe weiter spielen
hust
„Realitätsferne“ Spiele-Tests
hust
gehe weiter spielen
Wenn du hier mitdiskutieren willst, dann solltest du ein gewieses Grundwissen mitbringen, wie man CPUs testet.
Und der erste Satz kommt dann noch von jemanden dessen 2 GHz CPU mit 2,4 GHz durchstartet, alles klar.Für damalige Verhältnisse waren 20% OC ohne Vorankündigung/Hinweis im Handbuch schon eine Menge. Damalige CPUs wurden noch nicht mit 45nm gefertigt. Wenn man da am Takt gedreht hat, dann wurden aus dem Stand tatsächlich beachtliche Temperaturen erreicht. Für einen PC mit Referenzlüfter deutlich zuviel.
---
Wenn man heute im Laden ein Mobo (egal welcher Hersteller) kauft, dann bekommt man selten die Leistung, für die die CPU/das Ram/die NB laut Hersteller-Spezifikationen vorgesehen ist. Ganz im Gegenteil. Und dann tauchen plötzlich bei Computerbase und andernorts Benchmarks unter dem Präfix Q6600@2,4GHz oder Q6600@standard auf, die in keinster Weise die tatsächliche Leistungsfähigkeit der CPU wiedergeben. Bei Computerbase und anderen Orts, ist man es inzwischen wahrscheinlich Leid, seine Artikel ständig nachzubessern und schreibt deshalb genau dazu, welche CPU unter welchen Settings auf welchem Mobo mit welcher Revision und unter welchem BIOS getestet wurde.
Solche Tests sind für eine grobe Einordnung der CPU sicherlich brauchbar - aber für einen Quervergleich völlig ungeeignet. Dies haben auch die Tester erkannt. Mir ist aufgefallen, daß in letzter Zeit nur noch herstellerspezifisch getestet wird. In einem Benchmark werden entweder nur noch AMD-CPUs oder Intel-CPUs getestet. Es geht sogar soweit, daß man inzwischen die einzelnen CPU-Typen streng voneinander trennt: Es gibt kaum noch Benchmarks, wo C2D gegen C2Q antreten. Ich kenne keinen aktuellen Benchmark, wo AMDs P1/P2-CPUs gegen ihre X2-Vorgänger antreten. Und das hat seinen Grund: Es ist den Testern schlicht nicht mehr möglich vergleichbare Testvoraussetzungen zu schaffen. Deswegen werden alle Tests 'schief' - und man läßt es einfach.
Jetzt gibts natürlich die 'cleveren' Kiddies, die sich in ihrer Freizeit einfach mit Hilfe von Google ihre FPS nach Lust und Laune selbst zusammenklicken. Da wird dann einfach ein x-beliebiges Spiel bei einer x-beliebigen Auflösung genommen (zB. Crysis oder UT3 bei 1024x768) und dann werden einfach ohne Sinn und Verstand alle gefundenen CPU- und Grafikkartentestergebnisse zu einem blubbernden FPS-Mojo verrührt und im nächstbesten Forum mundgerecht serviert. - Schon lustig. ;)
BlackBirdSR
2009-03-22, 18:45:40
hust
„Realitätsferne“ Spiele-Tests
hust
gehe weiter spielen
Was du "realisitisch" nennst, nenne ich "unwissenschaftliche Versuchsumgebung und unhaltbare Schlussfolgerung aufgrund falscher und fehlender Informationen".
Und nun?
Eine Meinung zu haben ist gut und rechtens. Jemand damit ohne Rücksicht zu erschlagen, ein Problem. Fangen wir doch so an:
Du beweist deine fundierte Ansicht der Sachlage und ich meine. Danach dürfen die User entscheiden, was logischer klingt. Die Sache aber bitte auf hohem Niveau!
dargo
2009-03-22, 19:01:30
Fangen wir doch so an:
Du beweist deine fundierte Ansicht der Sachlage und ich meine. Danach dürfen die User entscheiden, was logischer klingt. Die Sache aber bitte auf hohem Niveau!
Überfordere ihn nicht gleich. ;)
Ich habe eh das Gefühl, dass einige hier nur rumtrollen wollen.
Typ, (..)
-> http://www.forum-3dcenter.org/vbulletin/showthread.php?t=342268
1. Ich werde angeflamt und bin wütend über denn Depp.
-> 5 min Auszeit. Den Text nochmals durchlesen.
2a) Es ist mir egal was der Typ schreibt - ist eh ein Loser. -> Ignorelist
2b) Ich fühle mich öffentlich blossgestellt, will das dieser Text so nicht da steht -> Melden -> wird gelöscht, oder wenn nichts passiert dann -> 2c
2c) vll. hab ich ihn falsch verstanden -> Nachfragen, in einem ernsten, höflichen und bestimmten Ton. Keine Fäkalsprache, kein Sarkasmus, keine Beleidigung, einfach nur Sachlichkeit.
Oder soll ich dich behandeln wie ein Loser im Sinne des von Simon Moon erstellten Threads? :ulol: - Simon Moon (und viele andere hier) sind nicht mein Niveau. :down:
Da frage ich mich berechtigterweise, wem hier der "Plan" fehlt (siehe auch Quote weiter unten) und inwiefern ich dir deine Aussage über das A8N glauben soll.
Oh - das hab ich mal wieder gerne: Erst großspurig auf Kosten anderer Münchhausen-Sprüche klopfen - aber selbst kein bischen Kritik vertragen. Du und dargo - ihr habt keinen Plan vom Asus A8N-SLI - im Gegensatz zu den Leuten, die das Teil eigenhändig verbaut haben. ;) Was du glaubst oder nicht glaubst bleibt dein Bier. - Aber solltest du mal wieder das Bedürfnis haben es jemandem über den Kopf zu kippen, dann nimm dargo. Der freut sich.
Meine 3 letzten Boards (DFI nf3 ultra, GB DS4 P35 und Asus P5Q Pro) zeigten sowas übrigens nicht. :uponder:
Was gibts denn da groß zu überlegen? Das letzte Asus P5Q welches ich verbaut habe lief Out-of-the-Box auch nicht 20% übertaktet. - Genaugenommen lief es nämlich überhaupt nur 90 Sekunden stabil. Das waren genau die 90 Sekunden, die ich benötigt habe, um im BIOS alle Auto-OC Features abzuschalten und die Speichertimings manuell einzustellen. :up: Seitdem läufts wunderbar.
Ein Phenom II kann sogar sehr gut mit einem C2Q mithalten:
Computerbase testet Phenom II X4 920 und 940 (http://www.computerbase.de/artikel/hardware/prozessoren/2009/test_amd_phenom_ii_x4_920_940_black_edition/29/#abschnitt_performancerating)
Ich zitiere mal aus dem von dir verlinkten Test:
Anhand dieser Diagramme sieht man, welcher Prozessor wo seine Stärken aber auch seine Schwächen hat.
Nicht berücksichtigt werden
(..)
die Werte von Super Pi,
MaxxPi²
die minimalen
und maximalen Bilder pro Sekunde
Insbesondere die minimalen Frames
Nachladeruckler beim Zugriff auf die Festplatte
(..)
Zudem halten wir es für wenig sinnvoll, das niedrigste Ergebnis entscheidend (..) zu machen
Aua, aua, aua. - In diesem stark gekürzten Auszug steht alles drin, was man über die dort abgebildeten Diagramme wissen muß.
Da es sich bei dem gesamten Artikel um eine Ode an den Phenom handelt, wundert es mich nicht, daß man seinen Finger nicht gerade auf die Stelle legen will, an denen die Phenoms wegen ihrer katastrophalen Cachestruktur am verwundbarsten sind:
Min-FPS
Solche Diagramme braucht man. Wirklich. - Traurig zu welchen Mitteln Phenom-Enthusiasten mittlerweile greifen müssen. :down: Ich werd dann demnächst auch mal einen CPU-Bench online stellen, indem ich sämtliche Schwächen des C2D (die zweifellos ebenso vorhanden sind) einfach mal ausblende. Abgesehen davon ist dieser Benchmark ein vorsätzlicher Tritt ins Gesicht aller E8400-Besitzer: Bei den theoretischen Tests liegt der E8400 nur knapp vor dem Leistungsniveau eines X2.... Tut mir Leid. Aber wer selbst da noch nicht merkt, wer am Telefon ist... der hat eine AMD-CPU verdient. Und nichts anderes.
Wenn ihr euch kloppen wollt, geht bitte auf die Straße oder in die Boxschule, aber nicht in dieses Thema! Hier gehts nicht um geflame oder Autoübertaktung.
***
Ich fand die Beschreibung bei der CB auch nicht passend, da sie in einem CPU-Test geschrieben haben, das Spiele bei anderer Auflösung "realitätsfern" wären, das ist jedoch falsch. Die Ergebnisse sind genau richtig, schließlich war es ein CPU-Test. Sie hätten es umgekehrt schreiben müssen!
Bei normaler Auflösung sind nämlich fast alle Prozessoren gleichschnell, bei der verringerten sind deutliche Unterschiede sichtbar. Das entspricht nicht der Realität.
*****
http://ht4u.net/reviews/2008/intel_e8600_e0_stepping/
Da wurde ein Dual Core mit bis zu 4,6 GHz mitgetestet, leider war der Testparcours relativ klein.
Allerdings erstaunt es mich dennoch etwas, das WinRAR; WinAce; Lame eher von Takt profitieren als von Kernen. Nicht einmal ein 3,2 GHz Quad hatte dem was entgegenzusetzen.
Es scheint fast nur in den "Profi-Bereichen" wirklich optimierte Software zu geben.
dargo
2009-03-22, 19:55:40
Wenn ihr euch kloppen wollt, geht bitte auf die Straße oder in die Boxschule, aber nicht in dieses Thema! Hier gehts nicht um geflame oder Autoübertaktung.
Richtig, du merkst aber selbst an deinem Vorredner, dass wir wieder Wochenende haben. ;)
Hier gehts nicht um geflame (..)
Vielleicht hättest du dann bereits den Threadtitel etwas neutraler formulieren sollen. Wenn da schon von mittelmäßigen Quad-Cores die Rede ist, ist es doch klar was passiert. Diese von dir sogenannten 'mittelmäßigen Quads' sind die Quads, die die meisten zufriedenen 3DCF-Quad-Besitzer heute in ihren Rechnern stecken haben.
(..) oder Autoübertaktung.
Da muß ich dir widersprechen. Ich weiß nicht ob es dir bewußt ist, aber gerade der von dir verlinkte Test mit den unglaublich guten Ergebnissen des E8600 ist mal wieder ein Paradebeispiel.
Dort wird nämlich unter anderem getestet:
E8600 OC 4,6 GHz
E8600 Default 3,33 GHz
Dieses "Default" kann sich nur auf die Einstellungen im BIOS des Mobo beziehen. Verwendet wurde ein:
Gigabyte P45-UD3 (BIOS F4)
Es ist also zwingend erforderlich festzustellen, welche Einstellungen bei diesem Board und diesem BIOS für diese CPU als default vorgegeben sind. Ich habe das Board leider nicht hier. Aber ich habe die Erfahrung gemacht (was ich oben auch schon geschrieben habe), daß die default-Einstellungen von heutigen Mobos zum großen Teil doch recht erwartungsvoll gewählt sind. ;) Daß zB. der FSB bei Auslastung der CPU automatisch angehoben wird, ist nur eins von vielen Features, die von manchen unbemerkt bleiben.
dargo
2009-03-22, 20:02:56
Ich fand die Beschreibung bei der CB auch nicht passend, da sie in einem CPU-Test geschrieben haben, das Spiele bei anderer Auflösung "realitätsfern" wären, das ist jedoch falsch. Die Ergebnisse sind genau richtig, schließlich war es ein CPU-Test. Sie hätten es umgekehrt schreiben müssen!
Bei normaler Auflösung sind nämlich fast alle Prozessoren gleichschnell, bei der verringerten sind deutliche Unterschiede sichtbar. Das entspricht nicht der Realität.
Die Unterschiede zwischen CPU X und Y werden erst beim CPU-Limit sichtbar. Ich weiß echt nicht was daran so schwer zu verstehen ist. Das kann durch kleinere Auflösung passieren, oder eben durch eine Szene die hohe CPU-Last erzeugt. Wer glaubt in 1680x1050 limitiert immer die Grafikkarte der irrt. Mal davon ab - CB testet CPUs mit Timedemos was sie schon mal disqualifiziert. Savegames heißt hier die Lösung. :)
Es ist also zwingend erforderlich festzustellen, welche Einstellungen bei diesem Board und diesem BIOS für diese CPU als default vorgegeben sind. Ich habe das Board leider nicht hier. Aber ich habe die Erfahrung gemacht (was ich oben auch schon geschrieben habe), daß die default-Einstellungen von heutigen Mobos zum großen Teil doch recht erwartungsvoll gewählt sind. ;) Daß zB. der FSB bei Auslastung der CPU automatisch angehoben wird, ist nur eins von vielen Features, die von manchen unbemerkt bleiben.
Oh man. :hammer:
Glaubst du denn ernsthaft die Reviewer sind zu dämlich den FSB auf 333Mhz zu setzen? Ein Blick in Windows auf CPU-Z reicht doch schon um die Taktrate zu überprüfen. Oder glaubst du die benchen alles blind? Soviel Kompetenz sollte man von den Reviewern schon erwarten können.
Wenn da schon von mittelmäßigen Quad-Cores die Rede ist, ist es doch klar was passiert. Diese von dir sogenannten 'mittelmäßigen Quads' sind die Quads, die die meisten zufriedenen 3DCF-Quad-Besitzer heute in ihren Rechnern stecken haben.
Der Titel passt schon so, schließlich geht es dabei um den Preis und Takt.
Wenn wir von mittelmäßig reden, bringe ich dir mal ein Beispiel: ein 3.16 GHz Duo von Intel ist ab 165,- EUR zu haben.
Für dieses Geld bekommst du höchstens einen 2.50 GHz Quad (mit beschnittenem Cache 2x2MB statt 2x6MB) oder einen Phenom mit etwa 2.60 GHz.
Übertakten kannst du beide. Das Problem ist jetzt aber, das die Übertaktung von 4-Kernen nur dann möglich ist, wenn alle 4 Kerne auch mitspielen. Außerdem ist die Kühlung bei Quads eher am Limit als bei Duos, wenn es in Bereiche von 4 GHz und erhöhter VCore geht. Würden wir noch den Stromverbrauch mit einrechnen, so müssten wir da auch noch ein paar EUR jährlich abziehen (Quad); dann wären die Modelle noch langsamer die du dir fürs gleiche Geld kaufen kannst.
Wenn ich mehr investieren, so etwa 300,- EUR, dann wäre auch ein Core i7 möglich, aber auch dieser hat das Kühlungsproblem und wenn du ihn nur moderat, sagen wir bis 3.2-3.6 gHz übertakten kannst, ist der auch nicht umbedingt schneller als ein billigere CPU über 4 GHz.
Die Spieleentwicklung geht nicht von heute auf morgen, gute Titel sind jahrelang in Entwicklung, es kann also genauso jahrelang dauern, bis die meisten überhaupt etwas mit 8 Threads anfangen können (Core i7). So siehts im moment auch aus, außer ein paar richtige "high Budget" Titel gibts in dem Bereich noch nicht viel. Bei GTA wundert mich das nicht, das wird in der Regel auch millionenfach verkauft, die haben dafür genug Kohle um früh mit der Optimierungsarbeit zu beginnen. Kleinere Entwicklerstudios nicht umbedingt.
Die Unterschiede zwischen CPU X und Y werden erst beim CPU-Limit sichtbar. Ich weiß echt nicht was daran so schwer zu verstehen ist.
Frag das mal bei Computerbase... und die Leser glauben es noch, das ist noch schlimmer...
Super Beispiel hier: Normaler Test (laut CB nicht realitätsfern):
http://www.computerbase.de/artikel/hardware/prozessoren/2009/test_amd_phenom_ii_x4_920_940_black_edition/20/#abschnitt_far_cry_2
Laut Computerbase realitätsfern:
http://www.computerbase.de/artikel/hardware/prozessoren/2009/test_amd_phenom_ii_x4_920_940_black_edition/27/#abschnitt_far_cry_2 (siehe beschriftung rechts).
Da haben sie einen dicken Fehler gemacht. Jemand der nicht über das technische Hintergrundwissen verfügt, glaubt das jetzt so wie es da steht.
Glaubst du denn ernsthaft die Reviewer sind zu dämlich den FSB auf 333Mhz zu setzen? Ein Blick in Windows auf CPU-Z reicht doch schon um die Taktrate zu überprüfen. Oder glaubst du die benchen alles blind? Soviel Kompetenz sollte man von den Reviewern schon erwarten können.Weder glaube ich, daß die Tester blind sind, noch glaube ich, daß sie dämlich oder gar inkompetent sind. Ich glaube nur, daß die vielen Bildchengucker inzwischen einfach zu bequem sind, sich den zugehörigen Text ebenfalls durchzulesen und deswegen zu recht merkwürdigen Schlußfolgerungen kommen. Was soll man als Tester auch anderes machen, als ausdrücklich dranzuschreiben, daß der Test nicht unter regulären Bedingungen stattgefunden hat, sondern daß man die Einstellung der Umgebung für den Test ohne wenn und aber komplett in die Hände der BIOS(F4)-Entwickler von Gigabyte gelegt hat.
Die Frage was man unter CPU-xy@default verstehen soll, ist die Frage, um die es geht. Der Hinweis in dem Link, daß die CPU mit default-Einstellungen getestet wurde, legt nahe, daß sie genau dieses NICHT getan haben. (FSB manuell festlegen etc.) ;)
Auch ist der Blick auf CPU-Z nicht immer hilfreich. Bei modernen Boards wird nicht nur am FSB manipuliert. Auch der PCIe und der Speicher wird gerne außerhalb der specs betrieben (interessant bei Spielebenchmarks) und das, wobei man doch genau weiß, daß Grafikkarten unter Vollauslastung der CPU auch anders reagieren als im Idle.
dargo
2009-03-22, 20:29:55
Die Spieleentwicklung geht nicht von heute auf morgen, gute Titel sind jahrelang in Entwicklung, es kann also genauso jahrelang dauern, bis die meisten überhaupt etwas mit 8 Threads anfangen können (Core i7). So siehts im moment auch aus, außer ein paar richtige "high Budget" Titel gibts in dem Bereich noch nicht viel. Bei GTA wundert mich das nicht, das wird in der Regel auch millionenfach verkauft, die haben dafür genug Kohle um früh mit der Optimierungsarbeit zu beginnen. Kleinere Entwicklerstudios nicht umbedingt.
Das hat doch mit den Verkaufszahlen nichts zu tun. Bei GTA IV lässt sich aufgrund der lebendigen Stadt sehr viel parallelisieren. Was willst du großartig beim Game XYZ parallelisieren wo die Umgebung praktisch tot ist?
Wenn die soviel Kohle haben frage ich mich was beim Antialiasing und den Schatten schief gelaufen ist? GTA IV ist optisch nicht gerade ein Vorzeigetitel. Es erzeugt halt nur eine ungewöhnlich hohe CPU-Last, was wie gesagt aufgrund der lebendigen Stadt nicht verwunderlich ist.
Auch ist der Blick auf CPU-Z nicht immer hilfreich. Bei modernen Boards wird nicht nur am FSB manipuliert. Auch der PCIe und der Speicher wird gerne außerhalb der specs betrieben (interessant bei Spielebenchmarks) und das, wobei man doch genau weiß, daß Grafikkarten unter Vollauslastung der CPU auch anders reagieren als im Idle.
Der Speichertakt lässt sich ebenfalls mit CPU-Z auslesen. Der PCIe-Takt mit entsprechendem Tool, zumindest bei Gigabyte auch. Ich gebe dir mal einen Tipp - wenn du das alles in Frage stellst maile doch einfach die Reviewer an und hake nach.
Das hat doch mit den Verkaufszahlen nichts zu tun.
Du meinst tatsächlich, das Geld was sie in die Entwicklung stecken können ist "unwichtig"? Das sehe ich aber anders. Wie willst du bei einem "kleinen" Projekt eine 40 Mann Crew mit allen dazu nötigen Systemen, Softwaretools ausstatten und dann noch einen großen Betatest abhalten!?
Optimierungsarbeit kostet nicht nur Zeit, sondern auch viel Geld und die besten Entwicklertools sind nicht immer günstig.
Eine große Firma wie Blizzard oder Microsoft hat da ganz andere Möglichkeiten als z.B. die Entwickler des Müllwagen-Simulators (gibt es tatsächlich), die produzieren offensichtlich mit einer sehr kleinen "Crew".
Bei GTA IV lässt sich aufgrund der lebendigen Stadt sehr viel parallelisieren. Was willst du großartig beim Game XYZ parallelisieren wo die Umgebung praktisch tot ist?
Dann wäre ein Fussballmanager, ein Rollenspiel mit vielen Charakteren oder andere Titel dieser Art sehr gut für Quad-Cores geeignet, ist das bereits so? Diese Entwicklung sehe ich noch nicht. EA braucht auch länger wie es aussieht.
Wenn die soviel Kohle haben frage ich mich was beim Antialiasing und den Schatten schief gelaufen ist?
Spielt das überhaupt eine Rolle? Wenn schon Nutzer von High-End Kisten ihre Probleme haben, warum willst du die Anforderungen dann noch weiter heraufsetzen? Ich könnt mir gut vorstellen, das sie deswegen weniger Arbeit dareingesteckt haben. Prioritäten gibts in der Entwicklung immer, wenn die Zeit knapp wird.
dargo
2009-03-22, 20:52:27
Du meinst tatsächlich, das Geld was sie in die Entwicklung stecken können ist "unwichtig"? Das sehe ich aber anders. Wie willst du bei einem "kleinen" Projekt eine 40 Mann Crew mit allen dazu nötigen Systemen, Softwaretools ausstatten und dann noch einen großen Betatest abhalten!?
Optimierungsarbeit kostet nicht nur Zeit, sondern auch viel Geld und die besten Entwicklertools sind nicht immer günstig.
Eine große Firma wie Blizzard oder Microsoft hat da ganz andere Möglichkeiten als z.B. die Entwickler des Müllwagen-Simulators (gibt es tatsächlich), die produzieren offensichtlich mit einer sehr kleinen "Crew".
Test Drive Unlimited (von 2007) hat deutlich weniger gekostet als GTA IV mit einer deutlich geringeren Man-Power. Trotzdem lastet die Engine einen Triplecore bestens aus, genau wie GTA IV. Was sagt und das jetzt?
Dann wäre ein Fussballmanager, ein Rollenspiel mit vielen Charakteren oder andere Titel dieser Art sehr gut für Quad-Cores geeignet, ist das bereits so?
Das kann ich dir nicht beantworten, ist nicht mein Genre. :)
Spielt das überhaupt eine Rolle? Wenn schon Nutzer von High-End Kisten ihre Probleme haben, warum willst du die Anforderungen dann noch weiter heraufsetzen?
Für denjenigen der AA gewöhnt ist schon. Für Antialising sind zumindest bei GTA IV noch genug GPU-Resourcen vorhanden. Bei den dynamischen Schatten bin ich mir nicht so sicher. Aber der gebotene Pixelbrei ist wirklich unzumutbar. Die Vegetation in diesem Spiel ist auch reiner Pixelbrei.
Test Drive Unlimited hat deutlich weniger gekostet als GTA IV mit einer deutlich geringeren Man-Power. Trotzdem lastet die Enige einen Triplecore bestens aus, genau wie GTA IV. Was sagt und das jetzt?
Das vielleicht die Engine nicht die beste ist? Bei einem Titel aus dem Jahre 2006/07 (+Entwicklungszeit, also noch viel früher) wäre als Mindestanforderung ein Triple-Core schon recht hoch gegriffen.
Vielleicht ist das aber auch nur ein Placebo Effekt. Wenn das Spiel auf einem Duo ebenfalls gut läuft, wars wohl doch nicht so gut optimiert. Da wurden vielleicht hier und da Objekte geaddet oder es wird die Last gleichmäßiger verteilt. Ich kenne keine Benches dazu.
Für denjenigen der AA gewöhnt ist schon. Für Antialising sind zumindest bei GTA IV noch genug GPU-Resourcen vorhanden. Bei den dynamischen Schatten bin ich mir nicht so sicher.
So ist das Leben. Wie du siehst, bist du als "Grafikfan" nicht ganz so wichtig, wenn es um den Umsatz geht, das hört sich für mich so an, als wäre es wichtiger gewesen, das Spiel auf möglichst vielen Rechern zum laufen zu bringen. Für die restlichen paar Prozent hat sich der Aufwand erstmal nicht gelohnt. ;)
Stell dir aber mal vor, was so ein Entwicklerteam kostet.
35,000 - 60,000 $ Jahreseinkommen (in Einzelfällen mehr) für jeden Mitarbeiter, Hardware, Softwareausstattung (einige zehntausend-hunderttausend Dollar) plus Marketing, plus Lizenzkosten (Audio,Videocodecs,KS) plus Vertriebskosten (Verpackung, Transport...), da kommst du bei locker auf mehrere Millionen $.
Wenn du mehrere millionen Einheiten verkaufst ist das weitaus besser zu finanzieren, als bei Projekten die höchstens 50.000 mal über den Ladentisch wandern.
dargo
2009-03-22, 21:16:39
Das vielleicht die Engine nicht die beste ist? Bei einem Titel aus dem Jahre 2006/07 (+Entwicklungszeit, also noch viel früher) wäre als Mindestanforderung ein Triple-Core schon recht hoch gegriffen.
Vielleicht ist das aber auch nur ein Placebo Effekt. Wenn das Spiel auf einem Duo ebenfalls gut läuft, wars wohl doch nicht so gut optimiert. Da wurden vielleicht hier und da Objekte geaddet oder es wird die Last gleichmäßiger verteilt. Ich kenne keine Benches dazu.
Mal eine Frage dazu - seit wann skaliert die CPU-Leistung nur in die Breite? Man kann ohne Probleme einen Triplecore durch einen entsprechend schneller getakteten Dualcore "ersetzen".
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=440739
So ist das Leben. Wie du siehst, bist du als "Grafikfan" nicht ganz so wichtig, wenn es um den Umsatz geht, das hört sich für mich so an, als wäre es wichtiger gewesen, das Spiel auf möglichst vielen Rechern zum laufen zu bringen. Für die restlichen paar Prozent hat sich der Aufwand erstmal nicht gelohnt. ;)
Dann hat man aber mit dem Spiel das Ziel völlig verfehlt. ;)
Der Speichertakt lässt sich ebenfalls mit CPU-Z auslesen. Der PCIe-Takt mit entsprechendem Tool, zumindest bei Gigabyte auch. Ich gebe dir mal einen Tipp - wenn du das alles in Frage stellst maile doch einfach die Reviewer an und hake nach.
Hmm - ich glaube wir reden aneinander vorbei. Ich stelle das oben verlinkte Testergebnis nicht in Frage. - Für mich ist es relativ eindeutig, daß man den Test mit default-Einstellungen im BIOS (also unter Umständen mit aktiviertem 'auto-oc') durchgezogen hat. Nichts anderes steht da. Deswegen ist nicht meine Ansicht abwegig, sondern deine Ansicht (aus meiner Perspektive). Warum soll ich mich mit dem Reviewer über Sachen unterhalten, die aus meiner und seiner Sicht völlig klar sind, wenn man den Artikel gelesen hat?
Abgesehen davon weiß ich nicht was du von mir und dem anderen Gast willst.
Ich glaube eher du phantasierst hier etwas. Ich habe in meiner Laufbahn noch nie ein Brett gehabt welches von sich aus automatisch übertaktet.
(..)
Diese Abweichungen hatten mich ehrlich gesagt eh nie interessiert da es keine CPU gab die ich nicht übertaktet hatte.
(..)
Mir ist so ein Brett noch nie untergekommen. Und ich hatte locker >15 Stück verbaut.
(..)
Überfordere ihn nicht gleich.
(..)
Ich habe eh das Gefühl, dass einige hier nur rumtrollen wollen.
(..)
Richtig, du merkst aber selbst an deinem Vorredner, dass wir wieder Wochenende haben.
Sag selbst - was soll man/der TS mit solchen Beiträgen anfangen?
Ok - ich will nicht ungerecht sein - das Niveau deiner letzten Beiträge zieht an. Hoffentlich gehts so weiter. Ich glaube, du hast den oben verlinkten Test auch gar nicht gelesen, sondern nur Bildchen geklickt, sonst hättest du das hier gelesen:
Aktuell finden sich in Motherboards, welche sich an Enthusiasten wenden, nicht nur unermesslich viele Optionen zur Änderung von Speichertimings, CPU-Multiplikatoren oder FSB, es findet sich inzwischen eine ungewohnte Vielfalt an Spannungsoptionen für alle möglichen Bereiche, welche nicht im Ansatz dokumentiert sind. Und in Ermangelung der Dokumentation gibt es bei den Optionen dann auch Auto-Einstellungen.
(..)
Aktuell muss der Übertakter offenbar abermals nach dem passenden Mainboard suchen und zwar eben nach jenem, welches genau das tut, was der "Herr befiehlt".
(..)
Wir mussten nach diesem CPU-z-Screenshot nicht einmal die "Hirschmänner" auspacken. Schnell ekannten wir, dass eine Anzeige im Tool im Last-Zustand nicht dem Default-Spannungswert des Prozessors entsprach. Das Board setzte also die Spannungen eigenständig hoch. Was dort noch alles an Spannungen im Bereich Northbridge, Southbridge usw. hochgedreht wurde, das wollen wir uns erst einmal überhaupt nicht ausmalen.
(..)
Wie wir aus diversen Gesprächen erfahren haben, sind diese Auto-Optionen heute mehr oder minder an der Tagesordnung, aber nicht in allen Fällen zu deaktivieren.
Ich weiß - du hättest denen jetzt erstmal was anderes erzählt:
Ich glaube eher du phantasierst hier etwas. Ich habe in meiner Laufbahn noch nie...
Hier geht es zwar erstmal nur um die Spannungen - aber ich bin sicher, daß es bei den Optionen zu FSB und Speichertimings beim BIOS(F4) nicht anders aussieht, wenn man sie per default auf 'auto' beläßt.
Mal eine Frage dazu - seit wann skaliert die CPU-Leistung nur in die Breite? Man kann ohne Probleme einen Triplecore durch einen entsprechend schneller getakteten Dualcore "ersetzen".
Genau das sagte ich, wo ist dann aber die Optimierung geblieben? Wenn du die gleiche spielbare Leistung auf einem handelsüblichen Duo erreichst, ist ein Quad ja nicht mehr notwendig oder Vorraussetzung um zu spielen.
Ein Taskmanagerbild wäre da hilfreich, so wie es techreport bei einigen CPU tests macht: http://www.techreport.com/articles.x/14052/6
Das bekannte Bild: http://www.techreport.com/r.x/skulltrail/tm-tf2.gif
An der Grenze: http://www.techreport.com/r.x/skulltrail/tm-lostplanet-snow.gif
So sollte es sein: http://www.techreport.com/r.x/skulltrail/tm-lostplanet-cave.gif
Wenn Punkt 1 oder 2 zutreffen, dann ist der Vorteil eines Quads immer noch fragwürdig, weil er mit den angesprochenen Nachteilen bei anderer Software verbunden ist. Da würde ich einen Duo als ebenbürtig ansehen.
Dann hat man aber mit dem Spiel das Ziel völlig verfehlt. ;)
Das ist eigentlich normal bei diesen high Budget Titeln. GTA bleibt uns noch ein paar Jahre erhalten, da es nicht ungewöhnlich, das die Max-Einstellungen aktuelle Rechner erstmal überfordern. Aber das legt sich mit der Zeit.
Oblivion war auf meinem damaligen Rechner zwar spielbar, aber ich musste schon auf vieles verzichten, mittlerweile ist es absolut flüssig und der Nachfolger kommt erst 2010+.
dargo
2009-03-22, 21:45:27
Genau das sagte ich, wo ist dann aber die Optimierung geblieben?
Was für Optimierung?
Erkläre mir mal warum ich mit einem 2Ghz Triplecore im Game XYZ in einer Szene XYZ 50fps habe und diese Szene plötzlich mit einem 3Ghz Dualcore (beide CPU-Architekturen natürlich identisch bis auf die Corezahl) unspielbar sein sollte? Würden die Fertigungsprozesse Taktfrequenzen von zb. ~10Ghz hergeben würde kein Hahn nach einem Multicore krähen.
Wenn du die gleiche spielbare Leistung auf einem handelsüblichen Duo erreichst, ist ein Quad ja nicht mehr notwendig oder Vorraussetzung um zu spielen.
1. Wer sagt, dass ein Quad notwendig ist? Und vorallem welcher? Du gehst schon wieder nur auf die Breite ein.
2. Was sind spielbare Leistungen und für wen?
Es gibt soviele Fragezeichen bei deinen Pauschalisierungen, dass ich gar nicht weiß wo ich anfangen soll. :usad:
Liszca
2009-03-22, 21:50:09
Genau das sagte ich, wo ist dann aber die Optimierung geblieben? Wenn du die gleiche spielbare Leistung auf einem handelsüblichen Duo erreichst, ist ein Quad ja nicht mehr notwendig oder Vorraussetzung um zu spielen.
Das bekannte Bild: http://www.techreport.com/r.x/skulltrail/tm-tf2.gif
mir persönlich wäre ja bild eins am liebsten, wenn ich mal wieder Eve online, CSS und Race 07 gleichzeitig laufen habe, aber leider habe ich kein quadcore;D
Du bist davon ausgegangen, das TDU bereits für Multicore vorbereitet sei, aber hast du nicht mal daran gedacht, das dies ein Seiteneffekt gewesen ist? Weil der Titel auch für Konsolen erschienen ist z.B.?
Eine "richtige" Optimierung ist in meinen Augen was ganz anderes, die würde jeden Kern, egal ob es 3, 4, 6 sind bis auf 80+ % auslasten.
Es gibt auch alte Titel; SimCity von 2003 genannt, die sich auf mehrere Kerne breitmachen (damals hatte keiner an MultiCore gedacht), aber einen Leistungszuwachs oder andere Vorteile bekommst du damit nicht.
Das müssen wir hier auf jeden Fall unterscheiden.
Wenn einer sagt, "Tripe Core wird genutzt", was heißt das? Erster Kern 80%, rest weniger? gleichmäßig wenig überall? oder fast am Anschlag überall?
Du hast dazu keine Zahlen genannt und somit - wie du so schön sagtest - etwas pauschalisiert. :)
Liszca
2009-03-22, 21:56:31
Eine "richtige" Optimierung ist in meinen Augen was ganz anderes, die würde jeden Kern, egal ob es 3, 4, 6 sind bis auf 80+ % auslasten.
warum glaubst du daß es am pc so laufen muß? der pc ist doch auch keine eierlegendewollmilchsau!
warum glaubst du daß es am pc so laufen muß?
Ich sage nicht, das es so laufen "muß", denn einige Dinge sind so wie sie sind, sie lassen sich schlecht "aufteilen".
Beim Encoding ist das zum Teil schon jetzt drin, das jeder Kern bis auf ca 95% am Limit arbeitet.
Bei games wird das weitaus schwieriger, da die Anforderungen je nach Szene andere sind und abhängigkeiten bestehen, denn Physik, Sound, Grafikberechnungen etc wollen miteinander kombiniert werden. Eine maximale Auslastung erscheint mir da sowieso nicht möglich (vielleicht bei Managerspielen; sonst eher nicht).
Andererseits gibts da auch workarounds. Entwickler könnten zusätzliche Kerne nutzen um zusätzliche Berechnungen oder Objekte einzufügen. Dann hast du zwar keine Performancesteigerung, aber zumindest einen Mehrwert. Beispielweise mehr herumstehende Gegenstände oder umfangreichere Explosionen.
dargo
2009-03-22, 22:05:35
Du bist davon ausgegangen, das TDU bereits für Multicore vorbereitet sei, aber hast du nicht mal daran gedacht, das dies ein Seiteneffekt gewesen ist? Weil der Titel auch für Konsolen erschienen ist z.B.?
Natürlich ist die XBox360 daran nicht ganz unschuldig. Wie soll man sonst die CPU-Leistung entfalten? Die Entwickler hatten doch gar keine andere Wahl als in die Breite bei der Engine zu gehen.
Eine "richtige" Optimierung ist in meinen Augen was ganz anderes, die würde jeden Kern, egal ob es 3, 4, 6 sind bis auf 80+ % auslasten.
Du musst erstmal genug Input haben damit die Kerne auch beschäftigt sind. Stelle dir mal TDU mit 40 Fahrzeugen und nicht nur max. 8 je Rennen vor. Da lässt sich so Einiges parallelisieren.
Es gibt auch alte Titel; SimCity von 2003 genannt, die sich auf mehrere Kerne breitmachen (damals hatte keiner an MultiCore gedacht), aber einen Leistungszuwachs oder andere Vorteile bekommst du damit nicht.
Das müssen wir hier auf jeden Fall unterscheiden.
Das macht Windows und nicht die Engine. Deswegen ist der Taskmanager auch kein Garant für X fps mehr.
Wenn einer sagt, "Tripe Core wird genutzt", was heißt das?
Bei mir heißt es, dass der dritte Kern max. mögliche Frames liefert. Sprich +~50% gegenüber einem gleichgetaktetem DC. Bist du überhaupt meinem Link gefolgt?
Das macht Windows und nicht die Engine.
Gerade weil wir das nicht unterscheiden, sollte das anhand realer Meßwerte nachprüfbar sein. Sonst entsteht hier vielleicht ein falscher Eindruck.
Ich kann mir vorstellen, das viele Forenposter einfach schreiben "bei mir wird der X3, Quad gut genutzt", obwohl die Auslastung jedes Kerns nur bei wenigen Prozenten liegt. Kommt vor und ist daher mit Vorsicht zu genießen diese Aussage.
Bei Tripe-Core ist die Umrechnung auch etwas verwirrend, da nur AMD derzeit solche Prozessoren im Angebot hat und die Pro-MHz-Leistung nicht identisch ist mit der Konkurrenz...
Dann gibts auch noch weitere Sonderfälle... ein ~2 GHz Quad hat auch weniger Leistung auf jeden Kern, zeigt also zT eine höhere prozentuale Auslastung an als welche mit 3.2 GHz und höher, weil auch nicht jede Anwendung soviel benötigt.
Du hast leider nur im Bereich 2 GHz getestet.
dargo
2009-03-22, 22:42:45
Gerade weil wir das nicht unterscheiden, sollte das anhand realer Meßwerte nachprüfbar sein. Sonst entsteht hier vielleicht ein falscher Eindruck.
Ich kann mir vorstellen, das viele Forenposter einfach schreiben "bei mir wird der X3, Quad gut genutzt", obwohl die Auslastung jedes Kerns nur bei wenigen Prozenten liegt. Kommt vor und ist daher mit Vorsicht zu genießen diese Aussage.
Das ist vollkommen richtig und bei solchen Meldungen muss ich nur schmunzeln. "Gut genutzt/ausgelastet" ist keine Aussage mit der ich was anfangen kann, ich brauche Frameraten. ;)
Dann gibts auch noch weitere Sonderfälle... ein ~2 GHz Quad hat auch weniger Leistung auf jeden Kern, zeigt also zT eine höhere prozentuale Auslastung an als welche mit 3.2 GHz und höher, weil auch nicht jede Anwendung soviel benötigt.
Zum Taskmanager hatte ich mich schon geäußert. :)
Du hast leider nur im Bereich 2 GHz getestet.
Dafür gibts auch Gründe. Stelle dir vor ich nehme den Standard-Takt von 2,83Ghz und erwische eine Anwendung die nahezu zu 100% alle 4 Kerne auslastet. Effektiv hätte ich dann einen ~11Ghz Singlecore. Eine GTX260 würde da schon in einigen Games mit max. Details, selbst in der kleinsten Auflösung das Ergebnis aufgrund vom GPU-Limit verfälschen. Wenn ich irgendwann einen GT300 oder Ähnliches habe kann ich auch gerne höher mit dem CPU-Takt.
Auf der anderen Seite kann ich dann aber nicht mehr zeigen wie hoch der Dualcore takten muss um mit dem Quad gleichzuziehen. Gehen wir mal von den effektiven ~11Ghz aus. Dh. ich müsste den DC irgendwo bei 5,5Ghz takten können. Und das ist unmöglich. Ich habe mir bei den Taktfrequenzen für die Tests schon was bei gedacht. :)
Edit:
Sobald eine ca. doppelt so schnelle Grafikkarte wie die GTX260 im Rechner Platz findet werde ich die Taktfrequenzen eh etwas anheben. Ich denke es wird folgendermaßen aussehen:
1. 3,0Ghz
2. 1,85Ghz
Im zweiten Fall kann ich einen Dualcore trotzdem noch auf 3,7Ghz bringen.
BlackBirdSR
2009-03-23, 07:20:37
D
Dafür gibts auch Gründe. Stelle dir vor ich nehme den Standard-Takt von 2,83Ghz und erwische eine Anwendung die nahezu zu 100% alle 4 Kerne auslastet. Effektiv hätte ich dann einen ~11Ghz Singlecore. .
Das unterliegt aber dem Trugschluss, dass jeder Thread, der einem Kern zugewiesen wird, auch der Beschleunigung des Rendervorgangs dient. Speziell wenn wir hier von helper Threads oder spekulativen Sachen reden, fällt das Kartenhaus in sich zusammen. Nur so am Rande.
Exakt es macht imho mehr Sinn die zusätzlichen Cores für besser Physik und vor allem bessere KI zu nutzen.
Hmm ... Als vor ca. 3 Jahren die DualCores populär wurden, sagten auch viele, dass DualCore im Moment niemand brauchen würde. Zum damaligen Zeitpunkt als ich meinen 3800+X2 für ~ 300 € gekauft habe war das auch richtig. Nur dachte ich mir, dass es nicht schadet, einen Kern für den ganzen Kram der nebenher läuft (Virenscanner, Firewall, ICQ, Winamp, Firefox, usw.) zu haben.
In zweiter Linie dachte ich damals natürlich schon, dass irgendwann Spiele davon profitieren würden. Ein Jahr später kamen dann auch tatsächlich die ersten Spiele mit DC-Unterstützung heraus. Profitiert hatten diese davon aber kaum. Die Hersteller mussten ja auch auf die SC-User Rücksicht nehmen. Heute sind knapp 3 Jahre um und mit einer Single-Core CPU geht in neuen Spielen fast gar nichts mehr.
Ähnlich wird es beim QuadCore laufen. Der wurde auch vor ca. 1 Jahr populär. Die ersten Spiele mit QC-Unterstützung sind, dank XBox360, bereits erschienen und profitieren von mehr als zwei Kernen nicht unerheblich. Wer jetzt einen QuadCore kauft, macht mit Sicherheit nichts falsch. Er muss sich nur darüber im klaren sein, dass er ggü. einem DualCore ein paar Frames herschenkt. Wie im übrigen damals mit einem DualCore ggü. einem SingleCore auch. Insbesondere auch deshalb, weil sich die DualCores damals, wie die QuadCores heute, schlechter übertakten ließen. Unspielbar war deshalb damals wie heute kein Spiel.
Wer, so wie ich, ca. alle drei Jahre ein neues System kauft, und so alle eineinhalb Jahre die Grafikkarte aufrüstet, sollte sich jetzt nicht mehr mit einem DualCore herumschlagen. Wer aber sagt: In einem Jahr habe ich dieses System sowieso nicht mehr!, kann sich ruhigen Gewissens einen DualCore kaufen.
Wer, so wie ich, ca. alle drei Jahre ein neues System kauft, und so alle eineinhalb Jahre die Grafikkarte aufrüstet, sollte sich jetzt nicht mehr mit einem DualCore herumschlagen.
Du glaubst also wirklich, daß in den nächsten 3 Jahren auch nur 1 Spiel herauskommt, welches sich auf einem Quadcore besser spielen läßt als auf einem DualCore? Was für ein Spiel soll das sein? (das hier ist ein [Zocker only]-Thread)
Wenn ich in meine Kugel blicke, sehe ich (zumindest in Deutschland) schon jetzt eine totale Rezession auch am Spielemarkt. Es wird ja auch kaum noch was für PC produziert. Wenn irgendwo die Fortsetzung einer Fortsetzung angekündigt wird, brechen die meisten Spielemags ja schon in Tränen der Erleichterung aus, weil sie wieder 3 Jahre Previews und Werbung verkaufen können.
Nein: Wer heute einen QuadCore kauft, der hat als Spieler auch in 3 Jahren absolut keinen Vorteil davon. Denn die Spiele, die in 3 Jahren auf den Markt kommen, sind bereits heute in der Entwicklung. Und für welchen Markt diese Spiele entwickelt werden, kann man sehr schön an solchen Statistiken ablesen:
http://store.steampowered.com/hwsurvey/
Ergo: Vergiß es.
BlackBirdSR
2009-03-23, 12:57:42
Du glaubst also wirklich, daß in den nächsten 3 Jahren auch nur 1 Spiel herauskommt, welches sich auf einem Quadcore besser spielen läßt als auf einem DualCore? Was für ein Spiel soll das sein? (das hier ist ein [Zocker only]-Thread)
Ergo: Vergiß es.
Also ich will gar nicht groß darauf eingehen, sondern nur Supreme-Commaner oder GTA4 in den Raum werfen...
iDiot
2009-03-23, 13:25:06
Denn die Spiele, die in 3 Jahren auf den Markt kommen, sind bereits heute in der Entwicklung. Und für welchen Markt diese Spiele entwickelt werden, kann man sehr schön an solchen Statistiken ablesen:
http://store.steampowered.com/hwsurvey/
Glaubst du denn bis in 3 Jahren bleibt das ganze so stehen? Natürlich werden die Spiele auf Mehrkernfähigkeiten hin optimiert -> und die Spiele in 3 Jahren sind auch auf die geschätzte Basis der PCs in 3 jahren optimiert und nicht auf dem Stand von heute. Sonst würde sich ja nie etwas weiterentwickeln ;)
Armaq
2009-03-23, 13:42:24
Es ist übrigens nicht wichtig, inwiefern mehr fps rausspringen, sondern was generell passiert. Bei GtA IV sieht man über die Benches verteilt und auch im Spiel selbst, dass es eine gewisse Obergrenze an FPS gibt, die ein Proz. bewältigt. Der X2 zB. konnte gewisse Stellen in GTA flüssig darstellen, wie die Tunneldurchfahrt, im Ganzen versagte er aber.
Daraus kann ich nur schlussfolgern, dass es eine Grundlast für den primären Thread gibt und diese muss von einem Kern getragen werden. Alles andere um diesen Thread herum, kann man optimieren. Darauf läuft es doch hinaus. Ich habe ein Kern+Thread und dieser wird umgeben von +X. Dieses +X gibt doch den echten Mehrwert. Die fps-Vergleiche sind zwar ok, aber der Vergleich lässt den Mehrnutzen nicht erkennen. GTA IV rennt auf einem 4 Ghz Dualcore schlechter als auf einem 3 Kerner mit 2.667 Ghz, obwohl rechnerisch die gleiche Leistung verfügbar ist.
Bei einem RPG oder RTS sind mehr als 60 fps nicht wirklich kriegsentscheidend, aber wenn nebenher mehr passiert bzw. mehr möglich ist, nehmen wir Mehrwert war. Insofern ist die Dualcore vs. Quadcore-Diskussion hinfällig, weil wir nur wenige Ausblicke auf die Zukunft haben (vor allem X360-Spiele). Die Frage eines Mehrwertes stellt sich für mich nur im Hinblick auf die Fähigkeiten der Entwickler, als auf die Frage des Kaufs DC/QC. QC macht mehr Sinn, wenn man immer das Neuste will (damit meine ich die Software).
Also ich will gar nicht groß darauf eingehen, sondern nur Supreme-Commaner oder GTA4 in den Raum werfen...
Ich habe Supreme Commander FA und ich möchte dir an dieser Stelle versichern, daß das Spiel auf meinem C2D absolut spielbar ist. Im Multiplayer auf sehr großen Karten mit vielen Rush-KIs hat man auf C2Q exakt dieselben Verzögerungen (1 sec Spiel = 1 min Echtzeit), wie auf C2Ds.
Und auf GTA4 will ICH gar nicht groß drauf eingehen, sondern es am liebsten aus dem Raum werfen...
Denn zu GTA4 muß ich dir 'leider' gestehen, daß ich das Spiel nicht habe, weil es in meinen Augen der letzte Dreck ist. Das soll jetzt keine persönliche Wertschätzung deiner oder irgendeiner anderen Person hier im Forum sein. Ich habe GTA 1 und GTA 2 auf der PS2 gespielt und war begeistert von den tollen Retro-Sounds, der tollen Atmosphäre und den ganzen Minigames. Was aus dieser Serie mittlerweile geworden ist, läßt sich im Deutschen mit einem Wort zu 100% erfassen: Dreck. Das Spiel lebte schon damals davon, daß man sich von der Integrationsperson in eine Welt voller Ganoven und Mafiosi entführen ließ. Leider ist diese Integrationsperson (zumindest für Leute wie mich) heute keine Integrationsperson mehr. Ich finde das Spiel abstoßend und bin ein bischen traurig, daß ich mit dieser Meinung noch ziemlich allein dastehe. Aber ich bin durchaus tolerant und kann mich trotzdem noch dazu überwinden mit Leuten zu reden, die diesem Spiel etwas Positives abgewinnen können. Bei manchen dauert es eben etwas länger bis die Grenze dessen erreicht ist, was sie noch ignorieren können. Ich frage mich, ob der Protagonist in GTA5 vielleicht mal ein bischen jünger ist. Vielleicht so 17... ...ach so - mit sowas macht man keine Witze? Sollte auch keiner sein: Ist doch nur ein Spiel! Und wenns den Leuten Spaß macht...
„Ich habe ihn zur Ablenkung gefragt, wo willst du denn hin, wohin soll ich dich denn fahren?“ Wolf versuchte den Jungen immer wieder zu beschwichtigen. „Warum machst du so einen Scheiß?“, fragte er ihn. „Ganz laut hat er geantwortet: ´Aus Spaß, weil es Spaß macht´.“
http://www.focus.de/panorama/welt/winnenden/amoklauf-geisel-erzaehlt-von-fahrt-mit-tim-k-_aid_381701.html
Ich bitte um Verständnis: Aber ich weigere mich diese Software zur Diskussionsgrundlage von technischen Aspekten der neuen CPU-Generationen zu machen. Dieses Spiel ist für Leute wie mich 'nicht existent'.
BlackBirdSR
2009-03-23, 14:20:43
ich möchte dir an dieser Stelle versichern, daß das Spiel auf meinem C2D absolut spielbar ist.
Um Spielbar oder Dreck gings ja gar nicht, wenn ich den Post noch in Erinnerung habe. Es ging um spürbare Verbesserungen, und die gibt es ja. Ergo...
Du glaubst also wirklich, daß in den nächsten 3 Jahren auch nur 1 Spiel herauskommt, welches sich auf einem Quadcore besser spielen läßt als auf einem DualCore? Was für ein Spiel soll das sein? (das hier ist ein [Zocker only]-Thread)
Wenn ich in meine Kugel blicke, sehe ich (zumindest in Deutschland) schon jetzt eine totale Rezession auch am Spielemarkt. Es wird ja auch kaum noch was für PC produziert. Wenn irgendwo die Fortsetzung einer Fortsetzung angekündigt wird, brechen die meisten Spielemags ja schon in Tränen der Erleichterung aus, weil sie wieder 3 Jahre Previews und Werbung verkaufen können.
Nein: Wer heute einen QuadCore kauft, der hat als Spieler auch in 3 Jahren absolut keinen Vorteil davon. Denn die Spiele, die in 3 Jahren auf den Markt kommen, sind bereits heute in der Entwicklung. Und für welchen Markt diese Spiele entwickelt werden, kann man sehr schön an solchen Statistiken ablesen:
http://store.steampowered.com/hwsurvey/
Ergo: Vergiß es.
1.) Wie gesagt, diese Spiele gibt es bereits und BlackBirdSR hat diese auch bereits genannt.
2.) Steam-Spiele sind, was den Hardwarehunger anbelangt, nicht die Referenz. Zudem ist das Klientel ein anderes. Aber selbst die Butterbrot-PCs von Aldi sind bereits mit X3 und X4 ausgestatet. Auch das verändert sich schon. Ganz im Gegensatz zum Beginn der X2-Ära. Zudem ist die Source-Engine-2007 bereits auf Multithreading ausgelegt. Das aktuelle Spiel Left4Dead sei hier angeführt (http://www.pcgameshardware.de/aid,667560/Left-4-Dead-Grafikkarten-und-CPU-Benchmark-Test/Action-Spiel/Test/?page=3). Der 8500 muss schon extrem übertaktet werden um mit dem "normale" getakteten QX9650 mithalten zu können.
3.) Orientiere dich doch bitte an den Blockbustern, die vor ~2 Jahren erschienen sind. Da gab es zu Beginn dieser Ära Spiele wie z. B. Doom3. Doom3 war nicht Dualcore optimiert. Alles in allem hat dieses Spiel dennoch mit einem Dualcore ~ 13% mehr FPS (http://www.hartware.de/review_575_4.html) geboten. Dann erschienen nach und nach Titel welche explizit auf DC hin optimiert wurden (soweit das der technische Stand halt ermöglichte). Diverse Titel wurden bereits genannt (Prey, Quake4, Oblivion, usw.). Heute sind wir soweit, dass fast jedes Spiel (mal mehr oder weniger) (http://www.computerbase.de/artikel/hardware/prozessoren/2008/bericht_1_2_3_4_cpu-kerne/5/) von Dualcore profitiert. Und wie man in dem Test von CB schön sieht hat die Quadcore-Ära hat bereits begonnen (siehe Assassin's Creed, UT3 (diese Engine ist sehr verbreitet)).
4.) Wenn Du Dir deine Statistik einmal näher betrachtest fällt Dir auch auf, dass Quadcore CPUs bereits mit 13% vertreten sind. Dieses Zahl wird nicht kleiner werden. ;)
selbst die Butterbrot-PCs von Aldi sind bereits mit X3 und X4 ausgestatet.
Schön, das du diese Karte (Medion Akoya MD8833) spielst. Drin steckt ein uralter Q6600 und der PC erreicht unfassbare 4.057 Punkte im 3Dmark:
http://www.channelpartner.de/tests/hardware-tests/sonstiges/256505/index5.html
Ich kann mir nicht vorstellen, das sich jemand der aktuelle Spiele spielen möchte den kauft. Tut mir Leid. Und die Entwickler sind nicht doof. Die schauen sich nicht an wieviele Quads verkauft werden, sondern wieviele und welche Quads bei ihren Kunden tatsächlich im Einsatz sind.
Zudem ist die Source-Engine-2007 bereits auf Multithreading ausgelegt. Das aktuelle Spiel Left4Dead sei hier angeführt
Oh Graus!!! L4D und multithreading!!!!! - Bitte sofort google anwerfen und dort 'L4D mat_queue_mode "0"' eingeben. :biggrin: L4D ist das erste und einzige neuere Spiel, welches out-of-the-box auf einem uralten A64 3200+ (SINGLECORE!!!!) schneller läuft, als auf meinem E8400 (bei aktivem Multithreading). Wenn das richtungsweisend wird, dann bereue ich es bereits einen C2D gekauft zu haben. Und: Was die PC-GAMES HARDWARE dort veröffentlicht hat ist der blanke Hohn! Was nutzen einem xy-FPS, wenn das Spiel (Dank multithreading) in regelmäßigen Abständen im Multiplayer für MINUTEN!!!! (wir reden hier nicht von Microrucklern/Nachladerucklern) komplett einfriert?
Der 8500 muss schon extrem übertaktet werden um mit dem "normale" getakteten QX9650 mithalten zu können.
hahahahaha.... ok - was ich eigentlich sagen wollte: HAHAHAHAHA!!!! :biggrin:
Heute sind wir soweit, dass (mal mehr oder weniger) von Dualcore profitiert. Das hat auch einen guten Grund (das Betriebssystem wird ab DualCore eliminiert). Aber im Vergleich Dual/Quad spielt dies keine Rolle mehr.
4.) Wenn Du Dir deine Statistik einmal näher betrachtest fällt Dir auch auf, dass Quadcore CPUs bereits mit 13% vertreten sind. Dieses Zahl wird nicht kleiner werden. ;)
Ja - und nächstes Jahr(?) kommen dann die 6/8-Kerner und die 87% die heute noch keinen Quad haben, werden dann bestimmt erstmal alle einen mittelmäßigen Quad kaufen.... man will ja nichts auslassen. ;)
Botcruscher
2009-03-23, 15:50:54
Ich habe Supreme Commander FA und ich möchte dir an dieser Stelle versichern, daß das Spiel auf meinem C2D absolut spielbar ist.
Singleplayer und ab 3.5GHz C2D womölich. Multi niemals...
Im Multiplayer auf sehr großen Karten mit vielen Rush-KIs hat man auf C2Q exakt dieselben Verzögerungen (1 sec Spiel = 1 min Echtzeit), wie auf C2Ds.
Hat man nicht. Zum einen gibts ein kleines Tool was die Kernverteilung verbessert(auch beim DC) und des weiteren ist die KI verbugt. Das merkt man wenn die Spielgeschwindigkeit nach Ableben einer KI durch die Decke geht. Das Hauptptoblem von SC ist der KI Bug und die Primärthread.
PS: Zudem sehe ich das Problem nicht. Ohne OC geht heute eh garnix mehr und da liegen die Duals auch nur ein paar Prozent vorn. Das einzige Argument ist der Preis. Aber wenn ich mir da so die PII ansehe... Einzig Intel greift mit dem Q9550 so richtig in die volle Kundentasche.
Schön, das du diese Karte (Medion Akoya MD8833) spielst. Drin steckt ein uralter Q6600 und der PC erreicht unfassbare 4.057 Punkte im 3Dmark:
http://www.channelpartner.de/tests/hardware-tests/sonstiges/256505/index5.html
Ich kann mir nicht vorstellen, das sich jemand der aktuelle Spiele spielen möchte den kauft. Tut mir Leid. Und die Entwickler sind nicht doof. Die schauen sich nicht an wieviele Quads verkauft werden, sondern wieviele und welche Quads bei ihren Kunden tatsächlich im Einsatz sind.
Wer spielt schon 3D-Mark? Zudem ist der Q6600 schon über ein Jahr alt und wird auch nicht mehr verbaut. Die Entwicklung bleibt nicht bei Rechnern stehen die vor einem Jahr bei Aldi erschienen sind.
Oh Graus!!! L4D und multithreading!!!!! - Bitte sofort google anwerfen und dort 'L4D mat_queue_mode "0"' eingeben. :biggrin: L4D ist das erste und einzige neuere Spiel, welches out-of-the-box auf einem uralten A64 3200+ (SINGLECORE!!!!) schneller läuft, als auf meinem E8400 (bei aktivem Multithreading). Wenn das richtungsweisend wird, dann bereue ich es bereits einen C2D gekauft zu haben. Und: Was die PC-GAMES HARDWARE dort veröffentlicht hat ist der blanke Hohn! Was nutzen einem xy-FPS, wenn das Spiel (Dank multithreading) in regelmäßigen Abständen im Multiplayer für MINUTEN!!!! (wir reden hier nicht von Microrucklern/Nachladerucklern) komplett einfriert?Du bist mit dem Source-Engine/Valve-Hardware Vergleich gekommen und hast die Entwicklung auf der Basis dieses Hardwarsurveys als richtungsweisend propagiert. Nicht ich!
Zudem: Wer sagt Dir, dass dieser Schalter nicht gewisse Dinge, die ansonsten berechnet werden, nicht abschaltet? Wie Naiv bist Du eigentlich, dass Du glaubst die Performance kommt aus dem Nichts?
Was du von PCGH hälts interessiert hier niemanden. Genauso könnte ich jetzt deine Worte verreissen und als lächerlich hinstellen.
hahahahaha.... ok - was ich eigentlich sagen wollte: HAHAHAHAHA!!!! :biggrin:
Ja und jetzt? Diskutierst Du so mit Deiner Frau, deinen Freunden und Verwandten? So wird dich kaum jemand ernst nehmen und sich eher abwenden. Was ich hiermit auch tun werde. Das ist keine Umgangsform.
Ja - und nächstes Jahr(?) kommen dann die 6/8-Kerner und die 87% die heute noch keinen Quad haben, werden dann bestimmt erstmal alle einen mittelmäßigen Quad kaufen.... man will ja nichts auslassen. ;) Wie gesagt der Q6600 ist einfach alt und gehört zur ersten Generation der QuadCores.
Es ist übrigens nicht wichtig, inwiefern mehr fps rausspringen, sondern was generell passiert.
(..)
Die Frage eines Mehrwertes stellt sich für mich nur im Hinblick auf die Fähigkeiten der Entwickler, als auf die Frage des Kaufs DC/QC.
Ja - das ist der richtige Ansatz. Es gibt noch keine Spiele, die die Möglichkeiten eines echten Multithreadings wirklich nutzen. Für den Endanwender kommt nichts am Ende dabei raus. Anders wäre es zum Beispiel, wenn man bei einem Spiel wie StarCraft 2 hingehen würde und mal eine Gegner-AI programmieren würde, die den Namen AI verdient. Wenn es dann zB. so wäre, daß die Zahl der möglichen Computer-Gegner in Strategietiteln von der Anzahl der Cores abhängig wäre, würden sicher viele sofort nach Quads und mehr schreien. Dem ist aber leider nach wie vor nicht so. Spiele werden nach wie vor schön eingleisig entwickelt und dann mit dem entsprechenden Compiler auf mehrere Threads aufgeblasen. Total sinnlos. Null Innovation. Das ist als ob man einen 3D-Beschleuniger dazu einsetzt ein 2D-Spiel auf einen Würfel im 3D-Desktop zu projezieren und dann behauptet, daß man dieses Spiel nur in einem PC mit 3D-Beschleuniger richtig spielen könnte.... Mummpitz!
QC macht mehr Sinn, wenn man immer das Neuste will (damit meine ich die Software).
DC macht Sinn mehr Sinn, wenn man das Neueste will und nur Geld für einen mittelmäßigen QC hätte. Und irgendwo gehts in diesem Thread ja um diese Frage. Und nicht um irgendwelche realitätsfernen Spekulationen.
janky
2009-03-23, 16:13:55
Wie gesagt der Q6600 ist einfach alt und gehört zur ersten Generation der QuadCores.
Und ist noch immer mehr als ausreichend schnell, selbst unübertaktet. Übertaktet bekommt man bis auf den i7 wohl kaum Besseres (abgesehen von Energieeffizienz).
Undertaker
2009-03-23, 16:20:11
DC macht Sinn mehr Sinn, wenn man das Neueste will und nur Geld für einen mittelmäßigen QC hätte. Und irgendwo gehts in diesem Thread ja um diese Frage. Und nicht um irgendwelche realitätsfernen Spekulationen.
Um das mal am konkreten Beispiel anzuführen: E8500 und Q8300 kosten in etwa das gleiche mit ~170€. Nutzt du nur 2 Kerne, ist der Dualcore ~35% schneller. Nutzt du 3 Kerne, ist der Quad schon ~15% schneller, bei voller Auslastung hat der Quad schon 50% mehr Speed.
Selbst spiele nutzen nun mittlerweile häufiger 3 Kerne und mehr gut aus, so dass der Quad fast nie langsamer sein dürfte, dabei auch noch deutlich zukunftssicherer. Nein, in Preisbereichen von Quadcores würde ich keinen Zweikerner mehr kaufen.
Und ist noch immer mehr als ausreichend schnell, selbst unübertaktet. Übertaktet bekommt man bis auf den i7 wohl kaum Besseres (abgesehen von Energieeffizienz).
Das ist überholt:
http://www.anandtech.com/cpuchipsets/intel/showdoc.aspx?i=3453&p=3
Zitat:
Der 8500 muss schon extrem übertaktet werden um mit dem "normale" getakteten QX9650 mithalten zu können.
Zitat:
hahahahaha.... ok - was ich eigentlich sagen wollte: HAHAHAHAHA!!!!
Zitat:
Ja und jetzt? Diskutierst Du so mit Deiner Frau, deinen Freunden und Verwandten? So wird dich kaum jemand ernst nehmen und sich eher abwenden. Was ich hiermit auch tun werde. Das ist keine Umgangsform.
Ach nu sei nich so empfindlich! Ein mäßig übertakteter E8500@5.035 sieht so aus:
http://forums.legitreviews.com/about15557.html#p109654
Damit erreicht man Super PI 1M in 9,391 Sekunden.
Das da ein QX9650@3.000 da auch nur ansatzweise noch mithalten könnte, ist einfach 'sehr schwer vorstellbar'. Das du auch noch ausgerechnet den E8500 ausgesucht hast...
Damit du mal eine Vorstellung hast, was mit einem C2D möglich ist:
http://www.pcgameshardware.de/aid,654717/Team-Japan-holt-sich-neuen-C2D-Taktrekord-und-neuen-Weltrekord-in-SuperPi-1M/Overclocking-CPU/News/
E8500@6.673 - das nenne ich mal einen 'extrem' übertakteten C2D.
Super PI 1M in 7,172 Sekunden.
Der Core2 Extreme QX9650 braucht fette 15,523 Sekunden:
http://www.computerbase.de/artikel/hardware/prozessoren/2007/test_intel_core_2_extreme_qx9650/8/
Was du da schreibst ist also einfach nicht richtig. Ein extrem übertakteter E8500 ist mehr als doppelt so schnell wie ein Core2 Extreme QX9650.
BlackBirdSR
2009-03-23, 17:18:51
Damit du mal eine Vorstellung hast, was mit einem C2D möglich ist:
Kurze Randnotiz:
Worin liegt der Sinn, gleiche CPU-Kerne bei unterschiedlichen Taktraten in einem Single-Thread-Benchmark zu vergleichen und daraus DualCore vs. Quad abzuleiten?
1.) Was willst Du mit deinen synthetischen Benchmarks schon wieder. Weder 3D-Mark noch SuperPI sind dazu geeignet die Performance einer CPU in Spielen zu bewerten.
2.) Nicht jeder übertaktet und setzt dabei eine Wasserkühlung oder mehr ein. Die 3,6 GHz sind gemessen an dem was die CPU mit herkömmlicher Luftkühlung zu leisten vermag hoch. PCGH könnte auch eine KoKü einsetzen um zu zeigen, dass ein 8500 schnell sein kann. ...
3.) Du vergleichst Äpfel mit Birnen. Auch ein QX9650 kann extrem übertaktet werden. Was er in dem Benchmark von CB aber nicht ist.
4. Du zitierst mit PCGH fragwürdige Quellen. Um Dich mal selbst zu zitieren. Außerdem ist der 940BE auch schon mit 6,5 GHz gelaufen. Von daher. Wayne!
5. Du bleibst nicht beim Thema und bist nicht einmal ansatzweise auf die in Beitrag #94 zitierten Seiten eingegangen.
Worin liegt der Sinn, gleiche CPU-Kerne bei unterschiedlichen Taktraten in einem Single-Thread-Benchmark zu vergleichen und daraus DualCore vs. Quad abzuleiten?
Es geht um die tatsächliche Leistungsfähigkeit der Kerne. Super PI 1M skaliert nicht mit den Kernen, sondern nur mit dem Takt. Oder warum glaubst du, daß bei jedem OC-Wettbewerb Super PI 1M gefahren wird?
Außerdem geht es hier nicht um DualCore vs. Quad, sondern um die Aussage des Gastes, daß nur ein extrem übertakteter E8500 mit einem normalen QX9650 mithalten kann, was schlicht falsch ist.
Da die meisten Spiele bis heute ohnehin nur rudimentär von Multithreading profitieren, so das der Kopierschutz und das Betriebssystem nicht mehr bremsen, halte ich Super PI 1M durchaus für eine realistische Anwendung.
_DrillSarge]I[
2009-03-23, 17:35:43
Es geht um die tatsächliche Leistungsfähigkeit der Kerne. Super PI 1M skaliert nicht mit den Kernen, sondern nur mit dem Takt. Oder warum glaubst du, daß bei jedem OC-Wettbewerb Super PI 1M gefahren wird?
ein c2q ist BEI GLEICHEM TAKT genauso schnell wie ein c2d (pro kern und mindestens gleich schnell insgesamt).
nimm bspw. cinebench. da kannste mit dem c2d den staub von nem quad fressen ;)
€: -> BEIDE benches zeigen NICHT die realworld performance ;)
Auch ein QX9650 kann extrem übertaktet werden. Was er in dem Benchmark von CB aber nicht ist.
(..)
Du bleibst nicht beim Thema
Was meinst du wie lange ich gesucht hab um den Super PI 1M bei CB zu finden. - Es ging um deine Aussage:
Der 8500 muss schon extrem übertaktet werden um mit dem "normale" getakteten QX9650 mithalten zu können.
Wenn du nur auf Streit aus bist, dann wende dich an dargo - der braucht noch Futter für seinen Postcounter. Ich hab gedacht du weißt es nur nicht besser. - Wenn das ganze natürlich nur ein Flame von dir war, dann haste mich ja schön reingelegt. Einfach mal den Dummen spielen und die anderen zur Verzweiflung treiben. :up:
Meine Aussage war im Kontext mit L4D. Einem SPIEL und keinem BENCHMARK!
Nochmal für die langsamen:
http://www.pcgameshardware.de/aid,667560/Left-4-Dead-Grafikkarten-und-CPU-Benchmark-Test/Action-Spiel/Test/?page=3
L4D@8500@3,6 GHz ~ 87,5 FPS max.
L4D@QX9650@3,0 GHz ~ 88,6 FPS max.
Taktunerschied: 600 MHz
Jetzt frage ich dich welche CPU schneller ist? In L4D und nicht in SuperPI oder sonst einem Schwanzmark der lediglich mit dem Takt skaliert.
Mr.Magic
2009-03-23, 18:20:43
Eindeutig der C2Q.
Wobei die Min FPS* in dem Fall viel interessanter wären. Da merkt man den Unterschied normalerweise (Drops die zu kleinen Rucklern führen), auch wenn die Average/Max fast identisch sind.
*Als Zeitgraph versteht sich.
I[;7186456']ein c2q ist BEI GLEICHEM TAKT genauso schnell wie ein c2d (pro kern und mindestens gleich schnell insgesamt).
Core2 Extreme QX9650@3.000: 15,523 Sekunden
http://www.computerbase.de/artikel/hardware/prozessoren/2007/test_intel_core_2_extreme_qx9650/8/
Core2 Duo E8400@3.000: 15,453 Sekunden
(grad selbst getestet)
-> setzen! 6!
Der Core2 Extreme QX9650 ist damit nicht mindestens gleich schnell wie ein E8400. ;)
_DrillSarge]I[
2009-03-23, 18:28:31
Core2 Extreme QX9650@3.000: 15,523 Sekunden
http://www.computerbase.de/artikel/hardware/prozessoren/2007/test_intel_core_2_extreme_qx9650/8/
Core2 Duo E8400@3.000: 15,453 Sekunden
(grad selbst getestet)
-> setzen! 6!
Der Core2 Extreme QX9650 ist damit nicht mindestens gleich schnell wie ein E8400. ;)
:confused:
:|
Mr.Magic
2009-03-23, 18:32:32
Core2 Extreme QX9650@3.000: 15,523 Sekunden
http://www.computerbase.de/artikel/hardware/prozessoren/2007/test_intel_core_2_extreme_qx9650/8/
Core2 Duo E8400@3.000: 15,453 Sekunden
(grad selbst getestet)
-> setzen! 6!
Der Core2 Extreme QX9650 ist damit nicht mindestens gleich schnell wie ein E8400. ;)
Werter Gast. Mindestens so schnell bedeutet, so schnell wie oder schneller. Da der C2Q laut deiner Aussage 0,5% schneller ist...
Jetzt frage ich dich welche CPU schneller ist? In L4D
Der C2D natürlich. Der E8400 braucht nur 600 MHz um mit dem C2QX gleichzuziehen. Wenn man sowieso schon beim OC'en ist, dann hätte man gleich mal schauen können, wie weit man beim C2QX in L4D mit Standardkühlung takten kann und wie weit man mit dem C2D bei Standardkühlung kommt. Ich befürchte das 600 MHz Vorsprung da nicht ausreichen und das dem C2QX deutlich vorher der Kragen zu eng wird.
Abgesehen davon habe ich dir bereits oben empfohlen dich über die Fähigkeiten der L4D-Programmierer (was Multithreading anbelangt) zu informieren. Das man dieses Spiel bei einem Prozessorvergleich verwendet ist einfach ein Witz. Kein Mensch kann L4D mit aktiviertem Multithreading im Mulitplayer spielen. Die ganzen von PCGH ermittelten FPS kannst du dir also getrost in den *beeeeeeeep*.
Werter Gast. Mindestens so schnell bedeutet, so schnell wie oder schneller. Da der C2Q laut deiner Aussage 0,5% schneller ist...
Goil... ich sags nur ungern: Aber bei Super PI ist weniger mehr.
_DrillSarge]I[
2009-03-23, 18:57:08
Der C2D natürlich. Der E8400 braucht nur 600 MHz um mit dem C2QX gleichzuziehen. Wenn man sowieso schon beim OC'en ist, dann hätte man gleich mal schauen können, wie weit man beim C2QX in L4D mit Standardkühlung takten kann und wie weit man mit dem C2D bei Standardkühlung kommt. Ich befürchte das 600 MHz Vorsprung da nicht ausreichen und das dem C2QX deutlich vorher der Kragen zu eng wird.
Abgesehen davon habe ich dir bereits oben empfohlen dich über die Fähigkeiten der L4D-Programmierer (was Multithreading anbelangt) zu informieren. Das man dieses Spiel bei einem Prozessorvergleich verwendet ist einfach ein Witz. Kein Mensch kann L4D mit aktiviertem Multithreading im Mulitplayer spielen. Die ganzen von PCGH ermittelten FPS kannst du dir also getrost in den *beeeeeeeep*.
OMG. was sind das für seltsame argumente. hattest du kein geld für einen quad und musst jetzt den c2d bis aufs blut verteidigen?
denk einfach mal logisch: ein c2q sind zwei zusammengepappte c2d. wenn man nun diese vegleicht (gleiche taktraten, chache etc.) sollte doch klar sein was raus kommt ;). ich streite mich hier dann auch nicht um messschwankungen im bereich kleiner 1%.
I[;7186686']OMG. was sind das für seltsame argumente. hattest du kein geld für einen quad und musst jetzt den c2d bis aufs blut verteidigen?
denk einfach mal logisch: ein c2q sind zwei zusammengepappte c2d. wenn man nun diese vegleicht (gleiche taktraten, chache etc.) sollte doch klar sein was raus kommt ;). ich streite mich hier dann auch nicht um messschwankungen im bereich kleiner 1%.
Ich hab dir doch schon quasi Recht gegeben indem ich meinen Super PI Wert gepostet hab. :biggrin: - Willst du da jetzt noch ein Weilchen drauf rumreiten? Es ist mir auch klar, daß der C2QX nix anderes als 2 Wolfdales auf einem Die mit offenem Multi sind. :D Das ganze soll ja auch nicht in eine Dual vs. Quad Diskussion ausufern.
Dem TS geht es ja nur um die Frage schneller Dual Core (E8400,E8500,E8600) vs. mittelmäßiger Quad. - Warum hier jetzt einige mit dem Core2 Extreme QX9650 ankommen mußt du mich nicht fragen...
Mr.Magic
2009-03-23, 19:14:50
I[;7186686']denk einfach mal logisch: ein c2q sind zwei zusammengepappte c2d. wenn man nun diese vegleicht (gleiche taktraten, chache etc.) sollte doch klar sein was raus kommt ;).
Das man sich besser gleich einen i7 kauft? Der ist taktbereinigt nochmal schneller, und es gibt ihn gar nicht erst als DC.
Das man sich besser gleich einen i7 kauft? Der ist taktbereinigt nochmal schneller, und es gibt ihn gar nicht erst als DC.
Richtig, so kann das Fazit eigentlich nur lauten, die Boards werden ja auch immer billiger...
So ein i920 ist praktisch genauso teuer wie der Q9550 mit 2.83 GHz, aber der i920 hat nunmal noch HT und den Turbomodus, kann also einige Nachteile schon von Haus aus ausbügeln.
Die Quads haben gegenüber einem Dual Core aber auch einen winzigen Vorteil: Die Q9xxx Modelle besitzen zum Teil 2x6 MB Cache.
Nutzt man also MAXIMAL zwei Kerne, kann es sein, das Kern 1 und Kern 3 (veranschaulicht dargestellt) jeweils volle 6MB zur Verfügung haben.
Bei einem 6MB Duo müssen sie sich den aber Teilen. Aber mehr als 1-5% bringt das leider nicht.
xiao didi *
2009-03-23, 20:35:22
So ein i920 ist praktisch genauso teuer wie der Q9550 mit 2.83 GHz
Der i7 Plattform-Preis ist erheblich höher als beim Q9550.
Nutzt man also MAXIMAL zwei Kerne, kann es sein, das Kern 1 und Kern 3 (veranschaulicht dargestellt) jeweils volle 6MB zur Verfügung haben.
Bei einem 6MB Duo müssen sie sich den aber Teilen. Aber mehr als 1-5% bringt das leider nicht.
;(
Stünde deine letzte Aussage wenigstens im Konjunktiv, könnte man dir noch einen guten Artikel empfehlen, der den Vorteil eines gemeinsamen Caches erläutert, aber das klingt so gefestigt, dass ich mich nicht traue.
(Wieder geflamet heute. Tut mir leid ;()
Der i7 Plattform-Preis ist erheblich höher als beim Q9550.
So kann ich das nicht stehen lassen. Was ist für dich eine Plattform?
CPU? etwa gleich teuer, dabei meistens schneller und weitere Vorteile
RAM? Preis fällt dramatisch, 2x2GB 1600er RAM = ca. 60€ (und weniger)
Grafikkarte? identisch
Mainboard? ab 170,- EUR.
Wie du siehst, nimmt sich das nicht mehr Viel, die neue Plattform hat aber den großen Vorteil, das sie Upgradefähig sein wird. Außerdem kannst du 6 RAM-Module einbauen, das geht beim Core 2 auch nicht.
Du darfst auch nicht aus den Augen verlieren, das es sich dabei um "High End" Boards handelt, die haben 2-3 PCIe Slots und vieles weitere mehr, was die günstigen Boards nicht haben (denk mal an Dual-GB-Lan usw.)
Noch dazu kann ich mich gut erinnern, das die Xtreme-Boards für den Core2 vor nicht langer Zeit auch 200,- EUR gekostet haben. Es ist jetzt also nur noch die Frage, ob du diese Boards brauchst oder nicht.
Wenn ich plane mehr als eine Grafikkarte einzusetzen, zahle ich eigentlich keinen Euro mehr als beim Core2.
Stünde deine letzte Aussage wenigstens im Konjunktiv, könnte man dir noch einen guten Artikel empfehlen
Wovon sprichst du? Ich kenne die meisten Artikel der letzten ~12 Jahre. :tongue:
Für andere Leser könnten sie aber interessant sein.
Undertaker
2009-03-23, 22:07:12
Die Quads haben gegenüber einem Dual Core aber auch einen winzigen Vorteil: Die Q9xxx Modelle besitzen zum Teil 2x6 MB Cache.
Nutzt man also MAXIMAL zwei Kerne, kann es sein, das Kern 1 und Kern 3 (veranschaulicht dargestellt) jeweils volle 6MB zur Verfügung haben.
Bei einem 6MB Duo müssen sie sich den aber Teilen. Aber mehr als 1-5% bringt das leider nicht.
Das wird vermutlich dadurch aufgefressen, dass der Datenaustausch dann über den FSB stattfinden muss...
Das wird vermutlich dadurch aufgefressen, dass der Datenaustausch dann über den FSB stattfinden muss...
Wird zwar oft gesagt, aber ich denke nicht, das es da zu großen Engpässen kommt. Wenn alle 4 Cores bis zum Anschlag ausgelastet sind, hab ich auch schon Tests gesehen, die mit Faktor ~3,9 von 4 nahe an das Maximum kommen und das sind ja meist schon spezialisierte Anwendungen (Raytracing, Encoding...)
Bei nur zwei aktiven Cores ist die Last und benötigte Bandbreite vermutlich noch weniger wichtig.
Bei einem i7 würde ich das aber gleich mit einkalkulieren, wenn wir 8 aktive Threads haben, würde ich nicht mehr umbedingt 1066er RAM kaufen... bei Six-Cores mit 12 Threads wirds interessant.
dargo
2009-03-23, 22:55:02
GTA IV rennt auf einem 4 Ghz Dualcore schlechter als auf einem 3 Kerner mit 2.667 Ghz, obwohl rechnerisch die gleiche Leistung verfügbar ist.
Gibts dafür auch eine Quelle? :)
Denn logisch erscheint es mir nicht und ich auch keine Benchmarks der PCGH (die wohl alleine ein Savegame verwendet) mit einem X3 @2,66Ghz und gleichzeitig einem X3 @2 Kerne mit 4Ghz kenne.
Mich würde das überhaupt nicht wundern. GTA IV macht meiner Meinung nach irgend nen groben Müll. Wahrscheinlich fixiert es Threads fest auf Cores oder sowas.
dargo
2009-03-23, 23:44:59
Wahrscheinlich fixiert es Threads fest auf Cores oder sowas.
Du meinst Rockstar kommt auf solch hirnrissige Ideen? :|
san.salvador
2009-03-23, 23:47:18
Du meinst Rockstar kommt auf solch hirnrissige Ideen? :|
Vielleicht ergibt das auf den Konsolen Sinn bzw. spart Arbeit, aber wurde für den PC nicht mehr angepasst.
dargo
2009-03-23, 23:53:05
Vielleicht ergibt das auf den Konsolen Sinn bzw. spart Arbeit, aber wurde für den PC nicht mehr angepasst.
Cell und Xenon sind sich aber nicht gerade ähnlich. Außerdem kann ich mir dadurch keine Vorteile zusammenreimen. :confused:
san.salvador
2009-03-23, 23:58:45
Auch wieder wahr. trotzdem kann ich mir nicht vorstellen, dass Rockstar programmiertechnisch großen Mist baut. Zumindest nicht auf Konsolen, wo die Rechenleistung für Monster wie GTA stark begrenzt ist.
dargo
2009-03-24, 00:07:08
trotzdem kann ich mir nicht vorstellen, dass Rockstar programmiertechnisch großen Mist baut. Zumindest nicht auf Konsolen, wo die Rechenleistung für Monster wie GTA stark begrenzt ist.
Man sollte die Rechenleistung etwas trennen. GTA IV hat gerade mit "Konsolendetails" nicht gerade eine extreme GPU-Last. Die CPUs (den i7 jetzt mal außen vorgelassen) der Konsolen sind imo nicht um den Faktor langsamer wie aktuelle Grafikkarten PC vs. Konsole. Die Diskussion basiert aber eh auf der Meldung von Armaq - 4Ghz DC schlechter als 2,66Ghz TC. Dazu würde ich gerne erstmal Benches sehen bevor man darauf weiter eingeht. :)
Edit:
Ich würds ja gerne selbst testen. Da GTA IV aber kein freies Speichern ermöglicht sind genaue Ergebnisse eher nicht möglich.
Armaq
2009-03-24, 02:06:11
Reichen auch Ungenaue. Ich werde morgen per numproc mal 2 und 3 Kerne testen. Allerdings erstmal in dem Benchmarkmenü. Mir erscheint es daher logisch, als dass es einen kritischen Arbeitsthread zu geben scheint, der für die Performance verantwortlich ist (s. Tunnel) und die anderen T. liefern nur die Daten. Allerdings beschleunigen sie das Spiel insgesamt nicht. Daher auch die Vermutung. Ich kann es nur auf einem PhII testen und dort gehen 2,8 Dual was 1,8667 Tri entspricht. Sollte also machbar sein. Ich hoffe nur, dass die Ergebnisse nicht durch die Änderung verfälscht werden. Auch meine ich, dass DC mehr Stuttering aufweisen bei GTA IV.
san.salvador
2009-03-24, 02:27:53
Ich glaube nicht, dass man die CPU-Last ingame mit der der Benchmark-Funktion vergleichen kann, leider.
dargo
2009-03-24, 09:10:18
@Armaq
Bitte keine Timedemos, den Aufwand kannst du dir sparen. :)
Auch meine ich, dass DC mehr Stuttering aufweisen bei GTA IV.
Welcher DC? Das ist besonders in Bezug auf die sogenannte Grundlast der Games wichtig.
Armaq
2009-03-24, 10:46:08
@Armaq
Bitte keine Timedemos, den Aufwand kannst du dir sparen. :)
Welcher DC? Das ist besonders in Bezug auf die sogenannte Grundlast der Games wichtig.
So, wieder erwacht von den Toten werde ich mir mal die Sache zu herzen nehmen.
Schema ist folgendes:
Ich lade ein Savegame, steige in ein ercheateten Porsche und fahre eine fixe Route ab (mit maximal möglicher Geschwindigkeit ohne Crash). Die Fraps-Daten (low mid high) werde ich dann hier posten. Stuttering lässt sich schwer in Zahlen fassen, daher kann man das nur angeben.
Dann beende ich GTA per TaskMng. und boote mit zwei Kernen, lade das gleiche Savegame und werde nochmal die gleiche Strecke abfahren. Damit sollte sich das nachweisen lassen.
Natürlich fahre ich 3x1.8667 und 2x2.8 Ghz.
dargo
2009-03-24, 10:55:36
Schema ist folgendes:
Ich lade ein Savegame, steige in ein ercheateten Porsche und fahre eine fixe Route ab (mit maximal möglicher Geschwindigkeit ohne Crash). Die Fraps-Daten (low mid high) werde ich dann hier posten. Stuttering lässt sich schwer in Zahlen fassen, daher kann man das nur angeben.
Dann beende ich GTA per TaskMng. und boote mit zwei Kernen, lade das gleiche Savegame und werde nochmal die gleiche Strecke abfahren. Damit sollte sich das nachweisen lassen.
Natürlich fahre ich 3x1.8667 und 2x2.8 Ghz.
Das ist zwar nett gemeint, es kann aber auch schiefgehen. Bei dem Abfahren deiner Route kann die Umgebung nach jedem neuen Startversuch anders reagieren. Das kann einfach keine genauen Zahlen bedeuten. Ich weiß, anders ist es leider nicht möglich, die PCGH macht es ja ähnlich. Tue mir bitte nur einen Gefallen. Fahre deine Route so kurz wie möglich ab um Veränderungen der Umgebung möglichst gering zu halten (Vorschlag 5-10 Sekunden). Und das wichtigste - mit je X3@1,86Ghz und X2@2,8Ghz bitte mehrere Durchläufe absolvieren und davon einen Mittelwert nehmen. Sollten die Durchläufe bei der Framerate kaum von einander abweichen ist das Ergebnis noch relativ brauchbar.
Armaq
2009-03-24, 11:13:38
Gibt keine Ergebnisse. Da ich auf meinen Mainboard die Frequenzen nicht exakt genug hinbekomme bzw. mehr NB/HT Takt auf ein Setting liefere und schiefe Multiplikatoren ja ein NoGo sind. Ist halt doch nur ein Budget-Board und hat nicht die Vielfalt an Einstellungen.
dargo
2009-03-24, 11:22:47
Gibt keine Ergebnisse. Da ich auf meinen Mainboard die Frequenzen nicht exakt genug hinbekomme bzw. mehr NB/HT Takt auf ein Setting liefere und schiefe Multiplikatoren ja ein NoGo sind. Ist halt doch nur ein Budget-Board und hat nicht die Vielfalt an Einstellungen.
Schade... wobei minimale Abweichungen beim NB/HT-Takt kein Beinbruch wären. Wir wollen hier doch nicht über +/- 2% diskutieren. Schon gar nicht wenn kein freies Speichern möglich ist.
Ich werde mal bei Gelegenheit das mit meiner CPU versuchen nachzustellen. Auch wenn ich eigentlich dagegen war. Da bei mir aber ein Core beim simulierten TC vollen Zugriff auf 6MB Cache hat bekomme ich allerdings auch keine exakten Messwerte hin. Aber wie gesagt, ohne freies Speichern...
Sonyfreak
2009-03-24, 11:38:00
Ich persönlich wäre auch sehr an einem solchen Vergleich interessiert Armaq. Selbst wenn das Ergebnis nicht genau passen würde, könnte man dennoch einen ungefähren Trend erkennen. Also falls du Zeit und Lust hast: :up:
mfg.
Sonyfreak
BlackBirdSR
2009-03-24, 11:59:23
Ich habe für UT3 eine spezielle Methode gefunden (in Vol 3 des XP vs. Vista Artikels, leider noch nicht erschienen), die mir eigentlich gut zuspricht für Vergleiche von 1/2/4 CPUs.
Ein Botmatch wird in Realzeit gestartet mit dem Spieler nur als Zuschauer, dessen Ansicht alle 10Sekunden oder so von Bot zu Bot springt. Die Dauer des Matches beträgt 5 bis 10 Minuten (10 wären besser) Nach jedem Durchgang legt man die aufgezeichneten Fraps Kurven übereinander und prüft auf unnütze Abweichungen. Nach 3 Durchläufen stellt man für UT3 z.B fest, dass die unterschiedlichen Durchläufe zwar nie identisch sind, aber immer in einem bestimmten Rahmen liegen (z.B. max. ~90fps aber 80% der Zeit bewegt sich das Spiel bei ~30-34fps etc).
Ein Ablauf mit SC und einer mit DC haben dann natürlich nie vergleichbare Werte in der Zeitachse. Nach 5 Sekunden Augentraining, kann man die Basisaussage allerdings perfekt extrahieren. Für die Single/Dual-Core-Versuche für den Artikel hat das perfekt geklappt.
Ist die Frage welcher Mechanismus sich für GTA4 perfekt eignen würde.
Armaq
2009-03-24, 12:02:08
Ich werde es mal anders angehen. Ich nehme einfach nur den Multiplikator. 9x200 und 14x200 sollten für Gleichstand sorgen. TC verliert hier sogar ein paar Punkte.
Frameverläufe kann ich nur mit der Vollversion von Fraps darstellen?
BlackBirdSR
2009-03-24, 12:10:05
Frameverläufe kann ich nur mit der Vollversion von Fraps darstellen?
kannst doch neben average/min/max fps auch die einzelnen frames für jede Sekunde in eine csv-File schreiben lassen. Daraus kannst du dann mit jedem gängigen Programm die Kurve darstellen lassen.
Armaq
2009-03-24, 12:22:58
So. Ich hab es eben getestet und es gibt keinen Unterschied. 1800 Mhz x3 und 2800 Mhz x2
Edit: Ich habe in den ersten Läufen alle anderen Programmen abgeschaltet. Jetzt habe ich einmal die Programme die sonst nebenher laufen angelassen und nochmal verglichen. Die TriCore-Werte sind nahezu exakt gleich, allerdings unterscheiden sich die Duo-Werte schon ein gutes Stück mehr.
Tri // Duo // Duo mit Progr.
FPS FPS FPS
16 17 17
16 16 15
15 16 16
15 16 14
18 18 15
20 20 17
19 21 19
19 18 17
19 19 18
19 20 15
20 21 18
22 24 20
25 24 21
23 25 24
22 24 25
PhII 920@Standard 4 Kerne aktiv.
FPS
24
22
22
23
26
31
31
28
30
30
29
33
37
36
37
Armaq
2009-03-24, 12:30:01
So. Doppelpost, aber! für die Frametime-Fetische unter euch:
3 Kerne 2 Kerne
Frame, Time (ms) Frame, Time (ms)
1, 0.000 1, 0.000
2, 62.372 2, 55.854
3, 119.920 3, 110.436
4, 183.732 4, 165.209
5, 241.407 5, 220.115
6, 301.289 6, 276.016
7, 358.005 7, 340.008
8, 422.793 8, 396.176
9, 532.895 9, 465.509
10, 608.638 10, 531.174
11, 668.035 11, 591.729
12, 727.605 12, 651.563
13, 789.127 13, 712.495
14, 848.585 14, 772.933
15, 912.585 15, 830.296
16, 977.867 16, 922.777
17, 1042.013 17, 981.883
18, 1100.230 18, 1045.107
19, 1163.245 19, 1109.692
20, 1221.920 20, 1170.189
Vielleicht sind die 1800 Mhz einfach zu wenig, um GTA IV zu befriedigen.
_DrillSarge]I[
2009-03-24, 15:22:00
Ich habe für UT3 eine spezielle Methode gefunden (in Vol 3 des XP vs. Vista Artikels, leider noch nicht erschienen), die mir eigentlich gut zuspricht für Vergleiche von 1/2/4 CPUs.
bitte hier erläutern :)
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=449381
:)
naja UT3 ist ziemlich physix optimiert.
das gibt alleine ein plus von 20-30%
NNN :)
BlackBirdSR
2009-04-03, 09:06:56
naja UT3 ist ziemlich physix optimiert.
das gibt alleine ein plus von 20-30%
NNN :)
Nicht für normale Levels, zumindest gibt es keinen einzigen Benchmark im Netz, der das bestätigen würde,
Bei mir auch nicht
Lawmachine79
2009-04-17, 16:52:51
Das Spiel lebte schon damals davon, daß man sich von der Integrationsperson in eine Welt voller Ganoven und Mafiosi entführen ließ. Leider ist diese Integrationsperson (zumindest für Leute wie mich) heute keine Integrationsperson mehr. Ich finde das Spiel abstoßend und bin ein bischen traurig, daß ich mit dieser Meinung noch ziemlich allein dastehe. Aber ich bin durchaus tolerant und kann mich trotzdem noch dazu überwinden mit Leuten zu reden, die diesem Spiel etwas Positives abgewinnen können. Bei manchen dauert es eben etwas länger bis die Grenze dessen erreicht ist, was sie noch ignorieren können. Ich frage mich, ob der Protagonist in GTA5 vielleicht mal ein bischen jünger ist. Vielleicht so 17... ...ach so - mit sowas macht man keine Witze? Sollte auch keiner sein: Ist doch nur ein Spiel! Und wenns den Leuten Spaß macht...
Wenn der Protagonist in GTA4 integrer und glaubwürdiger wäre, würde das Spiel wahrscheinlich deutlich schneller auf Dual-Core CPUs laufen.
Liszca
2009-04-22, 17:13:22
Wenn der Protagonist in GTA4 integrer und glaubwürdiger wäre, würde das Spiel wahrscheinlich deutlich schneller auf Dual-Core CPUs laufen.
;D
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.