PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : 3870 vs 8800GT - bei "kleiner" Hardwareumgebung


Volker S
2008-06-24, 02:05:07
Hallo Forengemeinde,

da meine 7900GT so langsam dahinscheidet, bin ich schon seit längerem auf der Suche nach einem Ersatz. Viele Tests und Benchmark beziehen sich sehr oft auf hardwarefressende Spiele mit dem nötigen Unterbau dazu.
Da ich nur meine Grafikkarte ersetzen möchte, kann ich (mit meinem kleinen System -> X2 4400+, 19"-CRT-Monitor, wenn ich mal spiele -> 1024x768-Auflösung) kaum etwas mit diesen Benches anfangen.

Habe hier nun einen Vergleichs-Benchmark gefunden (der zwar auch u.a. auf Crysis testet) aber Auflösungen mit 1024x768 berücksichtigt. Ferner ist das Testsystem "nur" ein E6300 mit 2,4Ghz (dazu stelle ich gleich noch eine Frage zur Skalierung AMD<->Intel).

Außerdem geht dieser Bericht der Frage nach "Ich möchte auf diese Karte aufrüsten, reicht mein Prozessor noch?"
Als CPU-Vergleichtaktungen und deren Auswirkungen auf die fps werden 1.8, 2.2, 2.6 und 3.0 Ghz herangezogen.

Hier der Bericht: http://extreme.pcgameshardware.de/grafikkarten/9933-review-g92-vs-rv670.html

...und noch meine Frage zur Vergleichbarkeit der CPU's (AMD<->Intel): Warum stehen die AMD's in so einem schlechten Licht dar? Bei der Skalierung wird ein Intel mit 1.8Ghz einem AMD X2 4800+ gegenübergestellt (der ja mit wesentlich mehr als 1.8Ghz taktet). Kann mir das bitte jemand erklären - oder skaliert AMD im Vergleich zu Intel wirklich so schlecht?
Meiner taktet @stock mit 2.3Ghz und @tuned auf ca. 2.6Ghz. Wie ist denn dann mein kleiner CPU laut Intelmaßstab einzuschätzen?

-volker-

Psychopat
2008-06-24, 04:04:03
Die haben sich ja genau die Titel zum CPU-Skaling rausgesucht, die am meisten davon profitieren (Crysis, WiC). Hätten sie auch Fear oder Prey getestet, würde man kaum einen Unterschied bei den Prozessoren sehen. Es kommt da sehr auf das Spiel drauf an, ob mehr CPU-Power auch mehr Leistung bringt. Wenn du einen Athlon64 X2 (AMD) mit einem Core2Duo (Intel) vergleichst, musst du berücksichtigen dass der Core2Duo pro Takt etwa 20% schneller rechnet (je nach Anwendung). Deswegen haben die daneben geschriebenen vergleichbaren AMD Prozessoren deutlich mehr Takt. Die Tester waren jedoch Faul und haben die AMD's nicht wirklich getestet, ein tatsächlicher Vergleich ist somit nicht gegeben.

Meiner Meinung nach reicht deine CPU noch locker für das, was du damit anstellen willst. So klein ist die nun auch wieder nicht, ist ja immerhin ein DualCore. Als Grafikkarte würde ich dir aber die 4850 empfehlen. Kostet nur 144 Euro, z.B. bei Mindfactory (link (http://www.mindfactory.de/product_info.php/info/p430248_-512MB-Sapphire-HD4850-GDDR3-256bit-2xDVI-TVOut-PCIe.html/Query/4850/searchbutton_x/0/searchbutton_y/0/act/search)), und ist wesentlich schneller als 3870 oder 8800GT. Bei Mindfactory musst du nicht mal Versand zahlen (bei Artikeln über 100 Euro).

Volker S
2008-06-24, 12:10:24
...danke für die Aufklärung der Leistungsfähigkeiten in Hinblick des Brandings der CPU's. Habe zwar immer gehört, das Intel schneller als AMD ist - so richtig geglaubt habe ich es nicht (wie oft hat man schon behauptet das etwas schneller ist - und in Wirklichkeit zeigte es sich kaum). Dachte halt 2.2 Ghz sind 2.2 Ghz und die eingeführte Zahlensyntax von AMD wäre der Konformitätsfaktor in Hinblick auf Intel (so wie es früher mal war). Aber nun weis ich es ja besser.

Eine HD 4850? Mhh - müsste ich noch etwas warten, wie die tatsächlichen Werte hinsichtlich Idle-Stromverbrauch wären (ab Mittwoch fällt ja wohl die NDA bezüglich der inneren Werte dieser Grafikkarte). Bin wirklich kein großer Spieler (vielleicht alle 3-4 Monate mal Siedler DNG oder Anno). Von den Hardwareriesen wie Crysis und Konsorten bin ich also weit entfernt, da ich keine Ego-Shooter-Games mag.

Hier mal der Energieverbrauch der in meiner Auswahl befindlichen Karten (Bezugsgröße ist meine augenblickliche 7900GT - Werte von CB und dann die Differenz berechnet)

8800 GT: +22/+50W (Idle/Last)
9600 GT: +3 /+ 24W (Idle/Last)
HD 3870: -7 /+ 54W (Idle/Last)

Unbestätigte Werte (HD 4850) ohne verifizierten Treiber (wohl kein Powerplay)
http://www.zdnet.de/i/et/client/Grafikkarten/HD4850/image009-ig.jpg

Auf meine Grafikkarte bezogen:
HD 4850: +15/+ 91W (Idle/Last)

...mein jetziges Gesamtsystem (ohne Monitor) hat 115/165 Watt (Idle/Last=gemessen während eines 3D Spieles)

So gesehen (und mit dem Argument meiner hohen Nutzung meines Compis als Büroplatzrechner) spielen die ATI's Ihre Energieeffizienz unter Idle voll aus. Wobei ich bei einem Mehrverbrauch von 91 Watt (4850) allmählich etwas Bammel bekomme, ob das mein Enermax Coolergiant 435 (430 Watt) noch schafft. Überlegung: shared Leistung auf meinen beiden 12V-Strängen (14+15 A)= 29x0.75= 21,75 A x 12V = 261 Watt. Auch der Test (http://www.liquidluxx.de/cgi-bin/ubb/ultimatebb.cgi?ubb=get_topic&f=14&t=000043&p=4) schreibt eine Gesamtleistung beider Lines etwas von 348 Watt (jede Line getrennt gemessen). Bei Shared ergebe das wieder 348x0,75= 261 Watt. Das könnte tatsächlich knapp werden mit einer 4850.

...ich glaube ich bleibe doch besser bei den alten Karten.

-volker-

Psychopat
2008-06-24, 13:20:44
Wenn dich die Leistungsaufnahme interessiert, solltest du bei der 4850 noch ein bisschen warten. Die jetzigen Tests sind nicht korrekt, weil der 2D-Stromsparmodus der 4850 Treiberseitig noch nicht funktioniert (PowerNow), den gibt's erst mit dem nächsten Treiber. Mit funktionierendem Treiber sollte sich die 4850 etwa so verhalten wie eine 3850 was die Stromaufnahme betrifft.

Gast
2008-06-24, 13:25:01
erstmals die wichtigste frage, ist dein system noch ein AGP-system oder bereits PCIe?

falls ersteres, zahlt sich ein aufrüsten der grafikkarte eigentlich nicht aus, du zahlst einen unverhältnismäßig hohen aufpreis.

zu den karten: die 8800GT ist meistens etwas schneller, ich würde sie wegen der besseren texturfilterung bevorzugen. die 3870 ist sicher auch keine schlechte wahl, aber vor allem die oft inkonsistente performance stört neben der schlechten texturfilterung imo schon.

Volker S
2008-06-24, 14:32:38
...ist schon ein PCIe. Ja die 8800GT wird allmählich immer interessanter (da sie immer weiter im Preis nachgibt). Und die 22W Mehrverbrauch bekomme ich durch Biosundervolting und auch mit einem Riva-2D-Profil bezüglich des Taktes wohl fast auf mein jetziges Idle-Niveau abgesenkt (siehe: Hier (http://www.computerbase.de/forum/showpost.php?p=3932844&postcount=5) - Ersparnis im Load ist dabei für mich erstmal zweitrangig). Alle meine bisherigen Spiele werden trotzdem einwandfrei laufen - da bin ich mir sicher (der Ganze Thread zum undervolten: Hier (http://www.computerbase.de/forum/showthread.php?t=391848))


-volker-

grobi
2008-06-24, 14:48:12
Wenn du bis zu 150€ für eine neuen Grafikkarte ausgeben willst, kann ich dir die Ati 4850 empfehlen.

Gast
2008-06-24, 16:55:31
...ist schon ein PCIe. Ja die 8800GT wird allmählich immer interessanter (da sie immer weiter im Preis nachgibt). Und die 22W Mehrverbrauch bekomme ich durch Biosundervolting und auch mit einem Riva-2D-Profil bezüglich des Taktes wohl fast auf mein jetziges Idle-Niveau abgesenkt

jein, mit der 8800GT kannst du keine unterschiedlichen spannungsprofile festlegen. wenn du die spannung verringerst bleibt sie auch in 3D gering, damit riskierst du instabilitäten.

taktänderung bringt beim G92 im gegensatz zum G80 auch überhaupt nichts.

allerdings ist der stromverbrauch der 8800GT imo nicht so wirklich schlimm, beim G80 war er schlimm ;)

durch den wechsel von einer 8800GTS(G80) auf eine 8800GT braucht mein netzteil im windowsbetrieb schon um ganze 50W weniger, unter last um 80W.

beim G80 hat starkes untertakten noch ca. 30-35W ersparnis (immer natürlich am netzteil gemessen, wirkungsgrad des netzteiles nicht berücksichtigt) gebracht, bei der 8800GT bringt untertakten fast nichts, selbst wenn ich bis auf ca. 100/300/300MHz runtergehe.

Volker S
2008-06-24, 18:25:15
jein, mit der 8800GT kannst du keine unterschiedlichen spannungsprofile festlegen. wenn du die spannung verringerst bleibt sie auch in 3D gering, damit riskierst du instabilitäten.

ja, dass ist mir bewusst. Aber wenn ich nur alle 3 Monate (oder auch mal alle halbe Jahre) mal ein Spiel starte kann man das Originalbios auch wieder zurück flashen (falls das Spiel wirklich instabil sein sollte). Aber eine Ersparnis von 12 Watt im Idle ist natürlich nicht so der Bringer - da gebe ich Dir recht.

-volker-

Psychopat
2008-06-24, 18:38:19
Wenn es primär um den Verbrauch geht, solltest du aber keine 8800GT nehmen, sondern eine 9600GT. Bisschen weniger Leistugn aber deutlich weniger Verbrauch.
Im Idleverbrauch sind die ATI-Karten aber am Besten. Wie gesagt, bei der 4850 funktioniert deren 2D Profil noch nicht wegen dem Treiber, deswegen kommt sie im Test nicht gut weg.

LovesuckZ
2008-06-24, 18:40:56
Mit der irgendwann mal erscheinenen 9800GT (ca. 100€ bzw. 9800GTX 150€) wird Hybrid-Power unterstützt werden. Und mit einem 8200 Board sowie einer 65nm CPU von AMD kann man den wohl geringsten IDLE Verbrauch erreichen. Das wäre die sinnigste Kombination, wenn man beim IDLEN den niedrigsten Verbrauch erreichen will!

dr.denton
2008-06-24, 19:04:58
Dafür bringt Hybrid Power aber immer noch auch ein paar kleine Einschränkungen mit, so ich mich nicht irre: nur unter Vista nutzbar - das ist lange nicht selbstverständlich für jemanden, der ein funktionierendes XP oder 2k hat - und manuelle Umstellung per Treibermenü notwendig.

Da würde ich eher mal auf die finalen technischen Daten zur HD4850 und einen passenden Treiber warten.
Wenn alles wie von AMD behauptet läuft, so wird der idle-Verbrauch einer solchen Karte kaum mehr als 10W betragen und die integrierte Grafik - sofern vorhanden - kann deaktiviert werden (macht bei meinem 690G Board runde 4W aus, ein GF8200 dürfte evtl. 1-2W mehr schlucken).

Das würde zwar nicht die ultimative Ersparnis bringen aber keinerlei Einschränkungen unterworfen sein.

mfG

denton

Mark3Dfx
2008-06-24, 19:19:15
Morgen um 15Uhr sind wir schlauer.

Gast
2008-06-24, 19:25:01
...danke für die Aufklärung der Leistungsfähigkeiten in Hinblick des Brandings der CPU's. Habe zwar immer gehört, das Intel schneller als AMD ist - so richtig geglaubt habe ich es nicht (wie oft hat man schon behauptet das etwas schneller ist - und in Wirklichkeit zeigte es sich kaum). Dachte halt 2.2 Ghz sind 2.2 Ghz und die eingeführte Zahlensyntax von AMD wäre der Konformitätsfaktor in Hinblick auf Intel (so wie es früher mal war). Aber nun weis ich es ja besser.

Eine HD 4850? Mhh - müsste ich noch etwas warten, wie die tatsächlichen Werte hinsichtlich Idle-Stromverbrauch wären (ab Mittwoch fällt ja wohl die NDA bezüglich der inneren Werte dieser Grafikkarte). Bin wirklich kein großer Spieler (vielleicht alle 3-4 Monate mal Siedler DNG oder Anno). Von den Hardwareriesen wie Crysis und Konsorten bin ich also weit entfernt, da ich keine Ego-Shooter-Games mag.

Hier mal der Energieverbrauch der in meiner Auswahl befindlichen Karten (Bezugsgröße ist meine augenblickliche 7900GT - Werte von CB und dann die Differenz berechnet)

8800 GT: +22/+50W (Idle/Last)
9600 GT: +3 /+ 24W (Idle/Last)
HD 3870: -7 /+ 54W (Idle/Last)

Unbestätigte Werte (HD 4850) ohne verifizierten Treiber (wohl kein Powerplay)
http://www.zdnet.de/i/et/client/Grafikkarten/HD4850/image009-ig.jpg

Auf meine Grafikkarte bezogen:
HD 4850: +15/+ 91W (Idle/Last)

...mein jetziges Gesamtsystem (ohne Monitor) hat 115/165 Watt (Idle/Last=gemessen während eines 3D Spieles)

So gesehen (und mit dem Argument meiner hohen Nutzung meines Compis als Büroplatzrechner) spielen die ATI's Ihre Energieeffizienz unter Idle voll aus. Wobei ich bei einem Mehrverbrauch von 91 Watt (4850) allmählich etwas Bammel bekomme, ob das mein Enermax Coolergiant 435 (430 Watt) noch schafft. Überlegung: shared Leistung auf meinen beiden 12V-Strängen (14+15 A)= 29x0.75= 21,75 A x 12V = 261 Watt. Auch der Test (http://www.liquidluxx.de/cgi-bin/ubb/ultimatebb.cgi?ubb=get_topic&f=14&t=000043&p=4) schreibt eine Gesamtleistung beider Lines etwas von 348 Watt (jede Line getrennt gemessen). Bei Shared ergebe das wieder 348x0,75= 261 Watt. Das könnte tatsächlich knapp werden mit einer 4850.

...ich glaube ich bleibe doch besser bei den alten Karten.

-volker-

Blöde Frage, aber was haben die für ein Sys getestet, die 500Watt sind ja rofl... Der Umstieg von meiner 8800GTS640 auf die GTX260 hat unter Last mir grade mal 15Watt mehr geliefert, im Idle ists andersrum...