PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Von 3500+ zum E6600 ?


loci2005
2006-09-06, 11:21:09
Ich spiele mit dem Gedanken mir ein neues System zuzulegen.

Ich hatte dabei an einen Intel Core 2 Duo E6600 gedacht, da er für mich das beste Preis/Leistung-Verhältnis hat und laut div. Benchmarks in etwa doppelt soviel Leistung hat wie mein AMD Athlon 64 3500+ (Newcastle). 2GB RAM müssen sein, MDT reicht aus...CPU muss nicht besonders hoch übertaktet werden. Hauptsache grundsätzlich deutlich mehr Leistung.

Ich arbeite mit einem Widescreen 20" TFT mit einer Auflösung von 1680x1050. AA ist für mich sehr wichtig, also müssen Spiele in der Auflösung gut funktionieren. Maximum-Details sollten es auch sein (wozu kaufe ich mir denn sonst ein Highend-System)...alles flüssig spielbar (nicht unter 40fps).

Ich spiele gerne CoD2, WoW, TRL, SF2, NFS (egal welcher Teil) und Q4/Prey zur Zeit. Besonders bei CoD2, TRL und SF2 merke ich in der Auflösung schon störendes ruckeln, einer der Gründe warum ich aufrüsten will.

So jetzt die Frage: ob sich das lohnt umzusteigen? Vorallem jetzt?

Wann kommen überhaupt die DX10-Karten raus? R600 & G80? Eigentlich will ich bis dahin warten...aber die Verführung vom Core 2 ist schon gross :redface:

MfG

Gast
2006-09-06, 12:05:26
Ich arbeite mit einem Widescreen 20" TFT mit einer Auflösung von 1680x1050. AA ist für mich sehr wichtig, also müssen Spiele in der Auflösung gut funktionieren. Maximum-Details sollten es auch sein (wozu kaufe ich mir denn sonst ein Highend-System)...alles flüssig spielbar (nicht unter 40fps).

Ich spiele gerne CoD2, WoW, TRL, SF2, NFS (egal welcher Teil) und Q4/Prey zur Zeit. Besonders bei CoD2, TRL und SF2 merke ich in der Auflösung schon störendes ruckeln, einer der Gründe warum ich aufrüsten will.


Es kann aber gut sein, dass hier die stellenweise auch die Graka limitiert.

Macht es geschwindigkeitstechnisch einen Unterschied, wenn Du AA+AF deaktivierst? Wenn ja, dann lohnt eine dickere CPU in jedem Fall, wenn nein, dann nur bedingt (eben an den Stellen, wo die Graka nicht limitiert).

gammler
2006-09-06, 12:10:18
Wann kommen überhaupt die DX10-Karten raus? R600 & G80? Eigentlich will ich bis dahin warten...aber die Verführung vom Core 2 ist schon gross :redface:


G80 laut NVIDIA schon im November, die wollen wohl mit aller Macht das Weihnachtsgeschäft mitnehmen... würde an deiner Stelle wohl noch etwas warten und dann Ende 06/ Anfang 07 nen E6600 und ne 8900GT holen...

Gast
2006-09-06, 12:23:25
Es kann aber gut sein, dass hier die stellenweise auch die Graka limitiert.

Macht es geschwindigkeitstechnisch einen Unterschied, wenn Du AA+AF deaktivierst? Wenn ja, dann lohnt eine dickere CPU in jedem Fall, wenn nein, dann nur bedingt (eben an den Stellen, wo die Graka nicht limitiert).

Wenn ich AA+AF komplett deaktiviere bringt es schon einen Leistungszuwachs, aber das ist für mich keine Option...zumindest AA will ich auf keinen Fall deaktivieren (incl. AAA).

loci2005
2006-09-06, 12:24:45
G80 laut NVIDIA schon im November, die wollen wohl mit aller Macht das Weihnachtsgeschäft mitnehmen... würde an deiner Stelle wohl noch etwas warten und dann Ende 06/ Anfang 07 nen E6600 und ne 8900GT holen...

Dann werde ich noch warten. Hatte eh Weihnachten 06 im Kopf...auch wenn mich das leichte Ruckeln etwas nervt...


MfG

Dr.Dirt
2006-09-06, 12:40:47
Macht es geschwindigkeitstechnisch einen Unterschied, wenn Du AA+AF deaktivierst? Wenn ja, dann lohnt eine dickere CPU in jedem Fall

Das ist falsch, AA/AF wird von der Graka erzeugt und berechnet.

Gast
2006-09-06, 18:43:09
Das ist falsch, AA/AF wird von der Graka erzeugt und berechnet.

Stimmt. Da hatte ich wohl grade einen leichten geistigen Durchhänger. ;)

Gast
2006-09-06, 18:45:40
Wenn ich AA+AF komplett deaktiviere bringt es schon einen Leistungszuwachs, aber das ist für mich keine Option...zumindest AA will ich auf keinen Fall deaktivieren (incl. AAA).

Dann lohnt eine schnellere CPU bei besagtem SPiele nur bedingt, da hier ja die Graka schon am Limit zu werkeln scheint.

Madkiller
2006-09-06, 18:54:03
Dann lohnt eine schnellere CPU bei besagtem SPiele nur bedingt, da hier ja die Graka schon am Limit zu werkeln scheint.
...unter diesen Umständen bringt sie ihm garnichts. :)

@loci2005
Was grundlegendes:
Die CPU ist dafür zuständig, wie schnell eine gewisse Szene überhaupt dargestellt werden kann, die GraKa bestimmt, bei welchen Grafiksettings dies möglich ist.
So wie du es beschreibst, hast du ne klare GraKa-Limitierung.
Um herauszufinden, ob die CPU nicht vielleicht doch (ab und zu) limitiert, Spiele deine Spiele auf einer sehr niedrigen Auflösung mit den gewünschten Details (kein AF, AA). Wenn dir die Spiele dann in stressigen Szenen schnell genug sind, ist deine CPU für dich ausreichend schnell. Da bringt nur ein GraKa-Update was - oder natürlich reduziert Details.

hyperterminal
2006-09-06, 19:09:31
Bei MDT Speicher und 965er Boards musst du aufpassen. Da gibt es teilweise Inkompatibilitaeten.

Dr.Dirt
2006-09-06, 19:21:19
Um herauszufinden, ob die CPU nicht vielleicht doch (ab und zu) limitiert, Spiele deine Spiele auf einer sehr niedrigen Auflösung mit den gewünschten Details (kein AF, AA). Wenn dir die Spiele dann in stressigen Szenen schnell genug sind, ist deine CPU für dich ausreichend schnell. Da bringt nur ein GraKa-Update was - oder natürlich reduziert Details.

Simpel erklärt und auf den Punkt gebracht, super. :up:

=Floi=
2006-09-06, 20:26:05
mtd kannst du komplett vergessen
kauf dir nen guten corsair ram den gibt es auch günstig aber ist gut 50€ teurer

loci2005
2006-09-07, 09:17:03
Die Frage ist, ob sich ein Upgrade der Grafikkarte lohnt. Ich spiele zwar generell in 1680x1050 mit AA+AF was sich in etwa mit den Benchmarks bei 1600x1200 AA+AF vergleichen lässt in diversen Tests, aber ein Umstieg auf eine 7950GX2 zb. oder X1950XTX lohnt sich die? Oder liegt das eventuell alles daran, dass meine GFX nur 256 MB Videospeicher hat? :|

Btw. CPU wollte ich eh bald aufrüsten, auf jedenfall einen E6600, 2GB RAM (DDR2-800). Jetzt stellt sich nur die Frage welchen Anteil die GFX nun in Sachen Performance hat...hmm...

loci2005
2006-09-07, 09:19:49
...unter diesen Umständen bringt sie ihm garnichts. :)

@loci2005
Was grundlegendes:
Die CPU ist dafür zuständig, wie schnell eine gewisse Szene überhaupt dargestellt werden kann, die GraKa bestimmt, bei welchen Grafiksettings dies möglich ist.
So wie du es beschreibst, hast du ne klare GraKa-Limitierung.
Um herauszufinden, ob die CPU nicht vielleicht doch (ab und zu) limitiert, Spiele deine Spiele auf einer sehr niedrigen Auflösung mit den gewünschten Details (kein AF, AA). Wenn dir die Spiele dann in stressigen Szenen schnell genug sind, ist deine CPU für dich ausreichend schnell. Da bringt nur ein GraKa-Update was - oder natürlich reduziert Details.

Werde ich wenn ich von der Arbeit komme mal machen. Aber die CPU werde ich auf jedenfall tauschen, noch dieses Jahr. Bei der GFX bin ich mir nicht sicher.

cR@b
2006-09-07, 10:10:59
Habe gestern zufällig bei nem Kumpel die PC Games gelesen und es ist heftig wie der Conroe gehyped wird. Trotz der Bench Diagramme die eindeutig beweisen, dass ein 35er bei 1280x1024 4AA/8AF nicht wesentlich langsamer ist (bei HL² 5fps weniger usw.) und der Conroe sich wirklich nur bei 1024x768 kein AA/AF brutal absetzen konnte (50 fps mehr). Wer zum Teufel spielt noch ohne AA/AF und in ner niedrigen Auflösung????
Das Ding kann mir noch ne ganze Weile gestohlen bleiben, hol dir lieber nen günstigen X² da haste wesentlich mehr davon!!

Lightning
2006-09-07, 10:32:53
Das Ding kann mir noch ne ganze Weile gestohlen bleiben, hol dir lieber nen günstigen X² da haste wesentlich mehr davon!!

Nö, wenn man grakalimitiert ist bringt auch ein X2 nichts.

Kommt eben auch auf das Spiel bzw. die Art des Spiels an. Simulationen sind z.B. meist CPU-limitiert, solange die Grafikkarte auf einem halbwegs aktuellen Stand ist.

GrandSurf
2006-09-07, 10:41:35
Yepp, nimmt man zB. meine bevorzugten Sims :wink: wie GTR(2), rFactor, GTL und Lockon bringt ein Conroe im Gespann mit einer X1900XTX sicher mehr Performance als mit einem 35er, da hier bei gleicher CPU selbst bei 1024x786 0xAA 0xAF nicht viel mehr FPS als bei 4xAA + 16xHQAF bei 1280x1024 erreicht werden.

Dr.Dirt
2006-09-07, 11:57:10
Habe gestern zufällig bei nem Kumpel die PC Games gelesen und es ist heftig wie der Conroe gehyped wird. Trotz der Bench Diagramme die eindeutig beweisen, dass ein 35er bei 1280x1024 4AA/8AF nicht wesentlich langsamer ist (bei HL² 5fps weniger usw.) und der Conroe sich wirklich nur bei 1024x768 kein AA/AF brutal absetzen konnte (50 fps mehr). Wer zum Teufel spielt noch ohne AA/AF und in ner niedrigen Auflösung????
Das Ding kann mir noch ne ganze Weile gestohlen bleiben, hol dir lieber nen günstigen X² da haste wesentlich mehr davon!!
So sah auch der Vergleich zwischen "altem" P4 und Athlon 64 aus, und obwohl auf ht4u es einen Bericht gab, der aussagte, daß sich P4 und A64 bei real life Betrieb nicht viel nehmen, der A64 als deutlich bessere Spiele CPU gilt.

loci2005
2006-09-07, 11:59:51
Es geht mir bei der CPU hauptsächlich darum zukunftsorientiert zu denken. Was Anwendungen angeht, langt die CPU noch völlig aus. Sobald aber Vista erhältlich ist, wird es eng werden. Speziell im Multitasking-Bereich.

Abgesehen davon will ich eigentlich auch "Gesamtaufrüsten", von Teile nach und nach kaufen bin ich eigentlich kein Fan. Etwa alles oder nichts. Es wäre sinnlos würde ich mir jetzt eine X1950XTX kaufen um dann 2 Monate später festzustellen das es eigentlich ein Fehlkauf war. Wie gesagt das hatte ich mal bei der Geforce 4. Ein paar Monate später kahm die deutlich bessere R9700Pro raus, die zudem DX9 konnte, die GF4 nur DX8.1 ...

Also ich denke ich muss abwarten was passiert auf dem Markt...ich denke ich richte mich nach dem was die Grafikkarten-Hersteller demnächst anbieten werden.

Ich wollte eigentlich zu Weihnachen aufrüsten, mal sehen, vielleicht warte ich dann doch noch. So schlimm ist die Performance im Moment ja noch nicht das es unspielbar ist oder so. Aber das in manchen Szenen teilweise heftige Ruckler kommen ärgert mich schon irgendwie...und AA+AF will ich nicht deaktivieren...dann bleibt mir meist nur übrig z.B. Soft-Shadows zu deaktivieren... :frown:

TB1333
2006-09-07, 13:29:16
.....Aber das in manchen Szenen teilweise heftige Ruckler kommen ärgert mich schon irgendwie...und AA+AF will ich nicht deaktivieren...dann bleibt mir meist nur übrig z.B. Soft-Shadows zu deaktivieren... :frown:

Das wäre mit einer X1950XTX sicherlich auch nicht viel anders. Wenns mit der X1800XT "unspielbar" ist, wirds mit der XTX auch nicht berauschend laufen behaupte ich mal :wink:

loci2005
2006-09-07, 13:43:09
Das wäre mit einer X1950XTX sicherlich auch nicht viel anders. Wenns mit der X1800XT "unspielbar" ist, wirds mit der XTX auch nicht berauschend laufen behaupte ich mal :wink:

Eben drum will ich eigentlich auf die neue Grafikkarten-Generation warten. Muss ich halt ein paar Detailabstriche machen, was solls... :rolleyes:

Achja: SLI oder Crossfire kommt nicht in Frage: zu teuer.

Madkiller
2006-09-07, 15:12:25
Aber die CPU werde ich auf jedenfall tauschen, noch dieses Jahr. Bei der GFX bin ich mir nicht sicher.
Klar, deine Entscheidung. :)
So ist es aber in jedem Fall die teurere Entscheidung ohne groß momentan nen Nutzen zu haben, als wenn du mit dem CPU-Upgrade noch wartest - trotz GPU-Limitierung.

Habe gestern zufällig bei nem Kumpel die PC Games gelesen und es ist heftig wie der Conroe gehyped wird. Trotz der Bench Diagramme die eindeutig beweisen, dass ein 35er bei 1280x1024 4AA/8AF nicht wesentlich langsamer ist (bei HL² 5fps weniger usw.) und der Conroe sich wirklich nur bei 1024x768 kein AA/AF brutal absetzen konnte (50 fps mehr). Wer zum Teufel spielt noch ohne AA/AF und in ner niedrigen Auflösung????
Das Ding kann mir noch ne ganze Weile gestohlen bleiben, hol dir lieber nen günstigen X² da haste wesentlich mehr davon!!
HL2 hängt (für einen Ego-Shooter) sehr stark an der CPU. Aber warum steht dann in der PC Games was anderes?
Weil die nur die avg fps in Verbindung mit Timedemos auswerten. Und sie machen CPU-Vergleich bei (teilweiser) GraKa-Limitierung.

Ich versuch die Problematik verständlicher zu machen:

Timedemos(TD): sind vorbestimmte Spielabläufe die einfach nur abgespult werden. D.h. die CPU wird deutlich weniger belastet - nicht selten sogar nur zu 70% als wenn die Szene wirklich gespielt wird.

avg fps: Sagen wir, du hast ein TD in dem nur zu 20% der Zeit die CPU limitiert... Also wird dir das Ergbniss am Schluß nur ein Fünftel dessen ausspucken, um was die CPU in der bestimmten Szene schneller war. Du weißt aber auch nicht, wann die CPU limitiert hat. Sprich, du hast nen Wert, wo du nicht rückschließen kannst, bis zu wieviel die CPU eigentlich schneller ist, und du hast keine Ahnung davon, ob in deinen für dich relevanten Spielszenen jetzt die CPU oder die GraKa limitieren würde.

avg fps aus Timedemos: Jetzt werden beide Nachteile (s.o.) auch noch kombiniert. D.h. einmal kann die CPU-Last in der fraglichen Auflösung/Szene/Bedingung wenn du selbst spielst mal schnell um die Hälfte höher sein, zum anderen verfälschen die Grakalimitierten Szenen das Ergebniss noch mehr.

Sry, aber Timedemos sind für CPU-Vergleiche eigentlich unbrauchbar.

Gast
2006-09-07, 21:03:58
Timedemos(TD): sind vorbestimmte Spielabläufe die einfach nur abgespult werden. D.h. die CPU wird deutlich weniger belastet - nicht selten sogar nur zu 70% als wenn die Szene wirklich gespielt wird.

avg fps: Sagen wir, du hast ein TD in dem nur zu 20% der Zeit die CPU limitiert... Also wird dir das Ergbniss am Schluß nur ein Fünftel dessen ausspucken, um was die CPU in der bestimmten Szene schneller war. Du weißt aber auch nicht, wann die CPU limitiert hat. Sprich, du hast nen Wert, wo du nicht rückschließen kannst, bis zu wieviel die CPU eigentlich schneller ist, und du hast keine Ahnung davon, ob in deinen für dich relevanten Spielszenen jetzt die CPU oder die GraKa limitieren würde.

avg fps aus Timedemos: Jetzt werden beide Nachteile (s.o.) auch noch kombiniert. D.h. einmal kann die CPU-Last in der fraglichen Auflösung/Szene/Bedingung wenn du selbst spielst mal schnell um die Hälfte höher sein, zum anderen verfälschen die Grakalimitierten Szenen das Ergebniss noch mehr.

Sry, aber Timedemos sind für CPU-Vergleiche eigentlich unbrauchbar.

Schon klar.
Allerdings sind dort auch die Min-FPS angegeben.

Hierbei erreicht ein 3500+ bei 1280x1024+4xAA/8xAF fast den gleichen Wert wie ein X6800.

Die MIn-FPS des X6800 sind hingegen bei 1024x768 fast doppelt so hoch. Rechnet man hier nun die geschätzten 70% hinein, so macht die Graka trotzdem noch vor dem Prozzi dicht.

Gast
2006-09-07, 21:06:34
Schon klar.
Allerdings sind dort auch die Min-FPS angegeben.

Hierbei erreicht ein 3500+ bei 1280x1024+4xAA/8xAF fast den gleichen Wert wie ein X6800.

Die MIn-FPS des X6800 sind hingegen bei 1024x768 fast doppelt so hoch. Rechnet man hier nun die geschätzten 70% hinein, so macht die Graka trotzdem noch vor dem Prozzi dicht.

Vergesst mal grade den letzten Satz - ich weiß grade selber nicht mehr, was genau ich da schreiben wollte. :D

Gast
2006-09-07, 21:17:07
So, nochmal ich: Vergesst die letzten 2 Post. :)

HL2 war/ist ein schlechtes Bspw. da dieses eben recht cpu-limitiert ist (dafür produziert aber auch schon ein Prozzi mittleren Leistungskalibers durchgehend schiche fps).

Beim COD2-Test in der PCGH sieht man jedoch, dass hier auch ein 3000+ bei 1024x768 eine signifikant höhere framerate liefern kann. Sprich wenn man hier die 70% ansetzt, ändert sich kaum etwas am Ergebnis bei 1280x1024(+Qualigedöns).

Gut, wirklich alle Fälle kann man nur dadurch erschließen, dass man das Spiel mit allem möglichein Einstellungen durchspielt und schaut, durch was Ruckler (wenn überhaupt vorhanden) entstehen. ;)

loci2005
2006-09-08, 08:43:58
So ich werde meinen PC definitiv erst dann aufrüsten, wenn die DX10-Karten auf dem Markt erscheinen. Alles andere macht im Moment für mich keinen Sinn. Die CPU alleine würde nicht besonders viel bringen und die Grafikkarte auch nicht. Die X1800XT ist nur unwesentlich langsamer als die X1950XT. Der Aufpreis (bei Verkauf der Alten) lohnt sich einfach nicht, erst Recht nicht bei einer 7950GX2...also noch warten...und die gelegentlichen Ruckler ertragen ;)

MfG

cR@b
2006-09-10, 17:41:39
Klar, deine Entscheidung. :)
So ist es aber in jedem Fall die teurere Entscheidung ohne groß momentan nen Nutzen zu haben, als wenn du mit dem CPU-Upgrade noch wartest - trotz GPU-Limitierung.


HL2 hängt (für einen Ego-Shooter) sehr stark an der CPU. Aber warum steht dann in der PC Games was anderes?
Weil die nur die avg fps in Verbindung mit Timedemos auswerten. Und sie machen CPU-Vergleich bei (teilweiser) GraKa-Limitierung.

Ich versuch die Problematik verständlicher zu machen:

Timedemos(TD): sind vorbestimmte Spielabläufe die einfach nur abgespult werden. D.h. die CPU wird deutlich weniger belastet - nicht selten sogar nur zu 70% als wenn die Szene wirklich gespielt wird.

avg fps: Sagen wir, du hast ein TD in dem nur zu 20% der Zeit die CPU limitiert... Also wird dir das Ergbniss am Schluß nur ein Fünftel dessen ausspucken, um was die CPU in der bestimmten Szene schneller war. Du weißt aber auch nicht, wann die CPU limitiert hat. Sprich, du hast nen Wert, wo du nicht rückschließen kannst, bis zu wieviel die CPU eigentlich schneller ist, und du hast keine Ahnung davon, ob in deinen für dich relevanten Spielszenen jetzt die CPU oder die GraKa limitieren würde.

avg fps aus Timedemos: Jetzt werden beide Nachteile (s.o.) auch noch kombiniert. D.h. einmal kann die CPU-Last in der fraglichen Auflösung/Szene/Bedingung wenn du selbst spielst mal schnell um die Hälfte höher sein, zum anderen verfälschen die Grakalimitierten Szenen das Ergebniss noch mehr.

Sry, aber Timedemos sind für CPU-Vergleiche eigentlich unbrauchbar.

Das ist schon möglich aber in der PCGames waren auch die minimum frames angegeben und auch hier ist ein 35er SC oder 44er DC von AMD bei 1280x1024 + Qualigeschichten gleich auf mit einem Conroe.
Ganz ehrlich aber Marketing ist derzeit alles um jeden Dreck zu verkaufen! Es gibt soviele Reviews, welche besagen dass der Conroe rockt aber genauso viele welche das Gegenteil zeigen bzw. das der PCGames wiederlegen ;)
Ich glaube dennoch an letzteres und für mich war es günstiger auf den X² zu setzen...

Madkiller
2006-09-10, 18:27:29
Das ist schon möglich...
Das ist 100%ig so. :)
http://www.3dcenter.org/artikel/timedemos2/
aber in der PCGames waren auch die minimum frames angegeben
Minimum fps sind nicht viel mehr Wert als avg fps, wenn man nicht weiß, wie genau die entstanden sind und was genau gebencht wird.
Bei ner FlyBy-Demo (oder laß es auch ne reale Spieleszene sein, wo (fast) nichts passiert) bringt das überhaupt nichts.
und auch hier ist ein 35er SC oder 44er DC von AMD bei 1280x1024 + Qualigeschichten gleich auf mit einem Conroe.
Ok, es gibt Spiele, bei denen ein 3500+ absolut ausreichend ist.
Aber mindestens genausoviele hängen an der CPU. Ich sage also nicht, daß jedes Spiel bei hohen Auflösungen/AF/FSAA von ner stärkeren CPU profitiert. Aber es sind doppelt bis dreimal so viel, wie man durch die gängige Benchmethode meinen könnte!
CPU-Limitierung tritt verhältnissmäßig in stressigeren Szenen eher auf. Und da zählen die fps, nicht wenn nichts los ist.
Es gibt soviele Reviews, welche besagen dass der Conroe rockt aber genauso viele welche das Gegenteil zeigen bzw. das der PCGames wiederlegen ;)
Ya, und ich habe erläutert, warum das so ist.

Ich glaube dennoch an letzteres und für mich war es günstiger auf den X² zu setzen...
glauben != wissen
Es ist ja auch nicht so, daß ich sage "glaub mir". Ich kann das alles belegen. :)
btw
Will dich sicher nicht von nem X² abbringen. Ich werde selber auf so einen "um"rüsten.
Aber man sollte sich dennoch keine Illusionen machen, daß es eben auch viele Spiele gibt, wo man (gerade wenn man OCed) die höhere Performance eines C2D auch spüren würde.