PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Videobeschleunigungslimitationen aktueller GPUs (Split aus Southern Islands)


deekey777
2011-12-19, 13:27:38
Kann die Radeon HD 7970 auch H.264 in 1080p60 von entsprechenden, neuen Camcordern ohne Framedrops per DXVA wiedergeben? Meine Radeon HD 6630M im Notebook kann das nicht, die bricht dabei auf 30-40 fps ein, wobei die Wiedergabe stottert.
Die Intel HD 3000 dagegen haut flüssige 60 fps über DXVA raus.
Getestet mit Media Player Classic Home Cinema.
Hast du die ganzen Tweaks durchgeführt?
Meine mobile HD3470 ist definitiv keine HD6630, aber erst mit den Tweaks funktionierte die DXVA-Beschleunigung vernünftig.
(Gilt nicht für 1080p60, da ich keine Samples dafür habe).

Spasstiger
2011-12-19, 13:34:28
Alles mit geringeren Anforderungen als 1080p60 geht problemlos auf der HD 6630M über DXVA. Tweaks hab ich keine angewandt.
Es ist für mich kein Problem, da ich dank Dynamic Switching die Intel HD 3000 für Videowiedergabe nutzen kann. Aber in den High-End-Notebooks und in Desktops ist dieses Feature in der Regel nicht vorhanden oder genutzt. Und es wäre schon böse, wenn 1080p60-Camcorder-Videos auf einem High-End-PC mit Radeon HD 7970 über DXVA ruckeln.

Ein 1080p60-Sample gibts hier: https://docs.google.com/leaf?id=0BzVsbZCTO4l3OGJjMTFlMmQtZmNjZS00MTQzLWE4M2UtZDBiNDJhNTVlN2Nh&hl=en&authkey=CIqHopUH.
Ist die Quelle von diesem Video: http://www.youtube.com/watch?v=Y_pCdThsgOc.

deekey777
2011-12-19, 13:59:08
Alles mit geringeren Anforderungen als 1080p60 geht problemlos auf der HD 6630M über DXVA. Tweaks hab ich keine angewandt.
Es ist für mich kein Problem, da ich dank Dynamic Switching die Intel HD 3000 für Videowiedergabe nutzen kann. Aber in den High-End-Notebooks und in Desktops ist dieses Feature in der Regel nicht vorhanden oder genutzt. Und es wäre schon böse, wenn 1080p60-Camcorder-Videos auf einem High-End-PC mit Radeon HD 7970 über DXVA ruckeln.

Ein 1080p60-Sample gibts hier: https://docs.google.com/leaf?id=0BzVsbZCTO4l3OGJjMTFlMmQtZmNjZS00MTQzLWE4M2UtZDBiNDJhNTVlN2Nh&hl=en&authkey=CIqHopUH.
Ist die Quelle von diesem Video: http://www.youtube.com/watch?v=Y_pCdThsgOc.
OT:
Meine HD4850 kommt mit dem Video auch nicht klar. Es verwendet 4 Ref-Frames, vielleicht liegt's daran (Highlevel@4.2)

AnarchX
2011-12-19, 14:05:29
Wie hoch ist denn die Bitrate?

Anandtech hatte auch mal eine Limitation auf Nvidia GPUs älter als GF119 festgestellt: http://www.anandtech.com/show/4380/discrete-htpc-gpus-shootout/11

aufkrawall
2011-12-19, 14:27:06
Wie hoch ist denn die Bitrate?

Wie Standard-BD: ~23mbit

Auf die Gefahr hin, jemandem damit langsam auf die Nerven zu gehen:
Probiert doch mal den PotPlayer aus:
http://www.videohelp.com/tools/PotPlayer

Der braucht bei dem Video nur die halbe CPU-Auslastung (7% bei Idle-CPU anstatt 15% wie der MPC HC).
Kann im Gegensatz zu MPC HC auch interlaced VC-1 mit DXVA.

Nicht, dass ihr einfach nur ein Software-Problem habt.

Spasstiger
2011-12-19, 14:59:15
PotPlayer zeigt bei dem 1080p60 sowohl auf der Intel HD 3000 als auch auf Radeon HD 6630M Darstellungsfehler, wenn DXVA aktiv ist. Leider finde ich im PotPlayer auch keine so ausführliche Renderstatistik wie im MPC:HC, aber mir kommt es so vor, dass der PotPlayer auf beiden Grafiklösungen deutliche Framedrops produziert. Was nicht heißt, dass das Video durchgehend ruckeln würde, Framedrops von 60 fps auf 30 fps bedeuten immer noch eine weitestgehend flüssige Wiedergabe (60 fps sehen aber flüssiger aus).

Hier hab ich noch Screenshots vom MPC:HC mit Renderstatistik, links auf der Intel HD 3000, rechts auf der Radeon HD 6630M:

http://www.abload.de/thumb/intelhd3000_1080p60rypr.jpg (http://www.abload.de/image.php?img=intelhd3000_1080p60rypr.jpg)http://www.abload.de/thumb/radeonhd6630m_1080p60na27.jpg (http://www.abload.de/image.php?img=radeonhd6630m_1080p60na27.jpg)

Auffällig ist die durchgehend höhere CPU-Last auf der Intel-Grafik. Sogar Hyper-Threading greift beim Videorendering auf der Intel HD 3000, während mit der Radeon HD 6630M nur die physikalischen Kerne ausgelastet sind.

aufkrawall
2011-12-19, 15:06:45
Ich bemerke hier mit meiner GTX 570 keinen visuellen Unterschied zwischen PotPlayer oder MPC HC.
ATI sollten vielleicht mal ihre Treiber fixen. Auf unserem Fusion Medien-PC zickt der Flashplayer auch wieder rum mit GPU-Beschleunigung, etwa bei der ZDF-Mediathek.

Spasstiger
2011-12-19, 15:08:33
NV-Karten sollten ab Fermi keine Probleme mit 1080p60 haben. Daher bin ich nicht überrascht, dass mit deiner GTX 570 alles rund läuft.

deekey777
2011-12-19, 15:32:37
DXVA auf Radeons hat schon immer empfindlich auf H.264-Videos reagiert, die von gewohnten Videostreams (Blu-rays, DVB-Streams...) abwichen. Insbesondere Level 5.0 oder zu viele Ref-Frames machten eine Beschleunigung unmöglich.

aufkrawall
2011-12-19, 15:44:18
Es liegt aber nicht an einem Hardwarelimit?
AFAIR sollte erst ab GF114 der VP3 im Einsatz sein, ich hab mit GF110 bei VC-1 aber keine höhere CPU-Auslastung als bei H264.

MadManniMan
2011-12-20, 17:13:14
Ich muss zugeben, dass ich mich bisher noch nie konkret mit der Videobeschleunigung auseinandergesetzt habe ... welche Codecs sind momentan üblicherweise im Gebrauch und welche können von Grafikkarten beschleunigt werden?

deekey777
2011-12-20, 17:33:02
Es liegt aber nicht an einem Hardwarelimit?
AFAIR sollte erst ab GF114 der VP3 im Einsatz sein, ich hab mit GF110 bei VC-1 aber keine höhere CPU-Auslastung als bei H264.
Nicht unbedingt:
Es heißt ja nicht umsonst "DXVA". Es gab mal eine Diskussion im Doom9-Forum, wo es darum ging, warum CoreAVC (damals) nur Geforces unterstützt und nicht auch Radeons. Wenn ich mich nicht täsuche, war der Standpunkt, dass man den Videoprocessor der Gerforces einfach viel besser nutzen kann, da Nvidia im Cuda-Paket die nötige Implementierung liefert, mit der man die DXVA-Limitierungen umgehen kann. AMD ist in diesem Punkt erst vor einem Jahr wachgeworden und liefert ähnliches mit OpenVideo (Teil des APP SDK). Offensichtlich haben die Entwickler zurecht null Bock darauf.

aufkrawall
2011-12-20, 17:57:20
Ich muss zugeben, dass ich mich bisher noch nie konkret mit der Videobeschleunigung auseinandergesetzt habe ... welche Codecs sind momentan üblicherweise im Gebrauch und welche können von Grafikkarten beschleunigt werden?
Üblich bei BDs ist hauptsächlich H264 und auch VC-1 etwas.
Es gibt glaub ich auf Wikipedia eine Übersicht über die Anteile der eingesetzten Codecs, ich find sie aber gerade nicht.
Es können nur H264 und VC-1 per DXVA mit dem Videoprozessor auf der GK beschleunigt werden.
Mit CUDA und madVR geht wohl so ziemlich alles, aber die CPU- als auch die GPU-Auslastung war bei mir damit aber immer fürchterlich hoch.
Wenn das immer so ist, ziemlicher Schwachsinn...

Mit anderen Codecs ist die CPU-Auslastung auf den meisten Geräten meist nicht so hoch, dass man die GPU zu Hilfe nehmen müsste.

Nicht unbedingt:
Es heißt ja nicht umsonst "DXVA". Es gab mal eine Diskussion im Doom9-Forum, wo es darum ging, warum CoreAVC (damals) nur Geforces unterstützt und nicht auch Radeons. Wenn ich mich nicht täsuche, war der Standpunkt, dass man den Videoprocessor der Gerforces einfach viel besser nutzen kann, da Nvidia im Cuda-Paket die nötige Implementierung liefert, mit der man die DXVA-Limitierungen umgehen kann.

Offiziell unterstützt CoreAVC aber auch nur H264 und VC-1. Wahrscheinlich ist es bei der Unterstützung von Farbpaletten oder FPS/s besser, bisher hab ich aber in der Praxis noch jedes AVC/VC-1 Video mit DXVA abspielen können.


AMD ist in diesem Punkt erst vor einem Jahr wachgeworden und liefert ähnliches mit OpenVideo (Teil des APP SDK). Offensichtlich haben die Entwickler zurecht null Bock darauf.
Ist schon schade.
Wird Zeit für Playersoftware, die universell jeden Codec über die GPU beschleunigen kann.
Oder ist das trotz Fermi/Tahiti immer noch nicht möglich?

Deinorius
2011-12-25, 18:31:42
Es können nur H264 und VC-1 per DXVA mit dem Videoprozessor auf der GK beschleunigt werden.


Das stimmt so nicht ganz. MPEG-2 kann auch dekodiert werden. Es gibt ja mittlerweile schon Videobeschleunigungshardware, die auch MPEG-4 ASP dekodieren kann. Bei nvidia gibts ja schon VP5, was aber bis jetzt nur in einem Chip, der GT 520, verbaut wurde.

ENKORE
2011-12-25, 20:18:06
Ja, MPEG-2 in Hardware zu dekodieren ergibt aber wenig Sinn, weil das schon ein 266 MHz Pentium II (in PAL-Auflösung) schafft...

Benedikt
2011-12-25, 21:04:38
Auffällig ist die durchgehend höhere CPU-Last auf der Intel-Grafik. Sogar Hyper-Threading greift beim Videorendering auf der Intel HD 3000, während mit der Radeon HD 6630M nur die physikalischen Kerne ausgelastet sind.
Optionen->Output->Resizer auf Bilinear gestellt? Bicubic bringt meine HD 2000 gnadenlos zum Absaufen...

aufkrawall
2012-03-04, 01:45:39
Mit einer Hardwarekonfiguration, die meiner ähnlich ist, macht es eigentlich keinen Sinn, die GPU/VPU zum Dekodieren zu verwenden.
Hab mal den Stromverbrauch gemessen: Mit der GK im P8-State verbraucht der Rechner 180 W, auch ohne ein H.264 Video zu dekodieren.
Mit der CPU sinds durchschnittlich höchstens 50 Watt (GK im P12-State), ohne dass man irgendwelche Nachteile hätte.
madVR geht auch.

Ausnahme ist Deinterlacing bzw. GPU-Deinterlacing sieht besser aus.

=Floi=
2012-03-04, 02:00:44
beim aktuellen treiber ist bei nv aber auch ein bug, dass nach einer video session (mit mehreren videos) die puffer nicht mehr geleert werden und dann alle videos das ruckeln anfangen. (cpu-auslastung steigt da auf 100%)
mit dem alten treiber geht alles problemlos. ich nahm vlc-player her und verschiedene videos.

aufkrawall
2012-03-04, 03:03:12
Mit dem 295er beta gab es so ein Problem, mit dem WHQL sollte es aber gefixt sein.
Wenn, dann ist es mit Sicherheit ein VLC-Problem, das Programm und insbesondere dessen Videobeschleunigung ist buggy.
Es gibt allerdings einen Bug, dass MPEG-4 ASP (DivX, Xvid...) nicht in Hardware geht.

The Nemesis
2012-03-04, 14:37:16
Was für Tweaks eigentlich, wenn ich fragen darf, auf den Startpost bezogen?

aufkrawall
2012-03-04, 14:53:40
Was für Tweaks eigentlich, wenn ich fragen darf, auf den Startpost bezogen?
Hm, vielleicht meint er die Nachbearbeitung, die man im CCC einstellen kann.
Am besten den ganzen Schmarrn aus. ;)