PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Graphics Cards vs. High-Definition Video Playback


Gast
2009-01-24, 19:23:54
High-Definition PC Experience: Graphics Cards vs. High-Definition Video Playback

Interessanter Bericht bei xbitlabs ;)

http://www.xbitlabs.com/articles/video/display/media-playback.html

deekey777
2009-01-24, 20:06:57
Uninteressant. Warum? Weil das Wichtigste fehlt: Was bringt die Grafikkarte an Energieersparnis?
Diese CPU-Load-Diagramme sind sowas von uninteresant, denn hier kommt es einzig darauf an, inwieweit die Grafikkarte die Rechenlast übernehmen kann, so dass der Gesamtverbrauch des PCs sich positiv ändert.

Beispiel: Fußball auf Anixe HD mit bis 20 MBit/s.
Wenn ich zB DivX 7 nutze, so läuft mein X2 4200+ (AM2 in 90 nm) durchgehend mit vollem Takt und somit mit voller Spannung. Wenn ich dagegen auf Cyberlinks H.264-Decoder wechsle, womit dann meine HD3850 die Rechenarbeit übernimmt*, bleibt der Prozessor durch C'n'Q auf dem niedrigsten Takt sowie mit abgesenkter Spannung.
Laut Erfahrungen anderer Leute mit einem G92 ist der Vorteil der DXVA-Nutzung eine Leistungsersparnis von 50 W.

Dass Grafikkarten die CPU-Last senken können, ist nichts Neues.


*Leider läuft sie dann mit 670/830 anstelle 300/830, aber es ist ja eine HD3850.

=Floi=
2009-01-24, 20:14:20
man könnte auch den prozessor noch undervolten und runtertaken. Theoretisch könnte man da bis ca. 95% auslastung gehen sofern da die framerate noch stabil bleibt. Es zählt hier einzig und allein der gesamtverbrauch des systems.
Das ganze macht auch keinen sinn, wenn ich nebenbei noch im 1920X1200 spielen möchte. Da bringt eine 4550 zu wenig leistung und eine 9800GTX+ verbraucht in reinem 20 wieder zu viel...

Der test ist nett, aber leider nicht wirklich aussagekräftig.

Gast
2009-01-24, 20:37:25
Ich find gut das die Playback Quality verglichen wurde

Gast
2009-01-24, 21:46:16
Uninteressant. Warum? Weil das Wichtigste fehlt: Was bringt die Grafikkarte an Energieersparnis?


Das ist weder das wichtigste, noch überhaupt halbwegs vernünftig zu ermitteln. Warum? Welche CPU hätte man denn nehmen sollen zum Testen? Einen der Highend Stromfressern mit 130W TDP oder eine auf Sparsamkeit getrimmte CPU mit 45W TDP?
Bei letzteren wirst du durch GPU-Dekodierung keine Energie einsparen, hast aber die CPU für andere Aufgaben frei (was meiner Meinung nach das wichtigste bei GPU-Dekodierung ist!).