PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : 2400er vs 3000er


Klatty
2003-05-02, 07:31:13
Hallo

Bin am überlegen ob ich demnächst aufrüßte.
Sind die Unterschiede zwischen einem übertakteten 2400er(momentan 2186Mhz) und einem 3000er Barton denn so gewaltig??
Ich weiss das der Barton 512kb Cache besitzt und meiner nur 256 aber bringt das solch ein Leistungszuwachs?

Danke im Voraus!!
Gruß
Klatty

Nobody4ever
2003-05-02, 10:48:25
IMO zahlt sich ausrüsten nicht aus (vor allem nicht für den Preis). Vor allem Spiele und die gängigen Office Applikationen profitieren wenig bis gar nicht von den 256K mehr.

Madkiller
2003-05-02, 11:29:16
Originally posted by Nobody4ever
IMO zahlt sich ausrüsten nicht aus (vor allem nicht für den Preis).
Full ACK!
Deine Spiele werden nur so 10-20% (je nach FSB) schneller laufen.


Originally posted by Nobody4ever
Vor allem Spiele (...)profitieren wenig bis gar nicht von den 256K mehr.

Wie sich dieses Gerücht halten kann, werde ich wohl nie verstehen...
http://www.tweakpc.de/hardware/tests/cpu/barton/barton_bench_10.html
..und die nächsten 4 Seiten.

Nobody4ever
2003-05-03, 15:10:17
Uups, da hab ich mich doch zu undeutlich ausgedrückt. Ich habe dort mehr auf das XP-Ratng bezogen. Denn ein XP2800+ hält recht gut mit einem 3000+ mit, wobei natürlich der 2800+ schneller getaktet ist. Bei gleicher Taktfrequenz ist nat. das Plus an 2nd level cache deutlich merkbar. Man sieht, die Gehirnwäsche des XP-Ratings wirkt (leider)

Unregistered
2003-05-13, 22:30:51
@madkiller
und das steht in deiner Quelle im Fazit:

In acht von 14 Benchmarks liegt der Barton 2500+ hinter dem Thoroughbred 2400+. Noch deutlicher wird es beim Vergleich Barton 3000+ und Thoroughbred 2800+. In neun von 14 Benchmarks ist der Thoroughbred mit seinem um 200 Punkte kleinerem Rating schneller.

Madkiller
2003-05-14, 05:22:05
Originally posted by Unregistered
@madkiller
und das steht in deiner Quelle im Fazit:



Ich weiß ;)
Ich rede auch von Spielen =)

Unregistered
2003-05-14, 14:49:39
naja, die spiele waren ja ein Teil des benchmarks!
aber du hast ja recht, es bringt schon was, aber nich wirklich so viel, dass der höhere Preis gerechtfertigt wäre. http://sledgehammers.gmxhome.de/pages/smilies/images/uglyhammer.gif

Nobody4ever
2003-05-14, 16:51:50
Das hat er aber auch nicht behauptet: er hat nur gesagt er ist vor allem in Spielen schneller, zahlt sich aber nicht für den Preis aus zum Upgraden.

Meiner Meinung nach ist der Barton eine Verzweiflungstat von AMD, vor allem da jetzt beim 3200+ das Rating nicht mehr paßt und der Kern wirklich ausgelutscht ist. Hoffentlich kommt der Athlon 64 bald ...

Dunkeltier
2003-05-14, 18:29:12
Die Benchmarks bremst wohl eher die Geforce 3, also sind alle Benchmarks für die Tonne.

Madkiller
2003-05-14, 18:54:47
Originally posted by Aratlyg
Die Benchmarks bremst wohl eher die Geforce 3, also sind alle Benchmarks für die Tonne.

???
Sie skalieren aber noch sichtbar, und eine Tendenz ist zu erkennen, auch wenn die Abstände mit ner besseren GraKa sicherlich größer gewesen wäre....
Warum soll deswegen alles für die Tonne sein?

Dunkeltier
2003-05-15, 00:16:44
Originally posted by Madkiller


???
Sie skalieren aber noch sichtbar, und eine Tendenz ist zu erkennen, auch wenn die Abstände mit ner besseren GraKa sicherlich größer gewesen wäre....
Warum soll deswegen alles für die Tonne sein?

Dann drehe ich mal das Beispiel (etwas EXTREM) um. Ich will 3 Grafikkarten testen, eine Geforce 3, eine Geforce 4 4600 und eine Ati Radeon 9700 Pro. Diese Karten teste ich auf ein 400 Mhz System. Was meinst du, welche Karte führt? :D Ich würde sagen die Geforce 4, die Radeon brauchen bekanntermaßen etwas mehr CPU-Power um ihren Speed entfalten zu können. Verkehrte Welt, nicht wahr? Genauso ist auch der Benchmark gemacht worden, man kann gar nicht die Unterschiede erkennen da die Grafikkarte limitiert was bei einen solchen CPU Test nicht sein sollte.

Lotus
2003-05-20, 21:26:16
Originally posted by Aratlyg
Die Benchmarks bremst wohl eher die Geforce 3, also sind alle Benchmarks für die Tonne.

aber mit sicherheit nicht unter den dort auch angegebenen 640x480x16

HOT
2003-05-21, 11:17:44
Da sollte alle gleichauf liegen. Die angebliche CPU Mehrbelastung bei Radeons ist auch nicht mehr als ein Gerücht ;)
Da tut sich wahrlich net viel.

Madkiller
2003-05-21, 14:28:15
Originally posted by HOT
. Die angebliche CPU Mehrbelastung bei Radeons ist auch nicht mehr als ein Gerücht ;)


...oder besser gesagt: Veraltet =)
Seit dem 3.1 oder 3.2 ist die CPU-last nicht mehr spürbar höher als die der GeForce 4.