PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Video Decodierung: CPU oder GPU?


blackbox
2016-05-28, 10:59:20
Moin!
Was meint ihr, sollte man Videos das Dekodieren der CPU oder der GPU überlassen?

Ich habe als System einen I5 Sandy und eine GTX 960.
Im Prinzip geht es hier nur um H.264
Performanceprobleme gibt es keine mit H.264, auch mit 4k nicht.

Die Fragen lauten:
- was ist stromsparender?
- gibt es Unterschiede in der Ausgabequalität?

HisN
2016-05-28, 11:00:39
Strommessgerät verlegt?

Sorry, das soll nicht blöd rüberkommen, aber ich kann mir heutzutage kaum einen Haushalt ohne vorstellen.

Argo Zero
2016-05-28, 11:08:47
Mit Sony Vegas ist das Codieren mit der GPU um einiges schneller. Würde es einfach mal ausprobieren.
Stromverbrauch? Da ich kein Messgerät habe, ist es wohl eine Rechnung aus Mehrstromverbrauch aus der GPU vs. schnellere Berechnung.

seba86
2016-05-28, 13:02:09
Strommessgerät wird sich höchstwahrscheinlich erübrigen... zu 99% wird die GPU effizienter sein, weil sie eben durch die tausende Parallprozessoren (Shader) eben mehr für die Aufgabe prädistiert ist.

Ausnahme kann nutzung von Q-Sync der Intel-CPU sein

AintCoolName
2016-05-28, 15:35:08
Ich glaube nicht das eine GPU egal welche Videos per shader decodiert. Das sind mit Sicherheit gesonderte Funktionsblöcke im Chip

illidan
2016-05-28, 15:41:55
Die Fragen lauten:
- was ist stromsparender?

Je komplexer das Video, desto mehr Vorteil für die GPU bzw. die integrierte VPU, wenn es kein ineffizienter Hybrid-Dekoder ist.
Die 960 kann alle ihre unterstützten Formate nativ dekodieren.


- gibt es Unterschiede in der Ausgabequalität?
Nein, bei Dekodierung kommt exakt das gleiche Resultat heraus.
Allerdings kann Software-Decoding manchmal besser mit sehr seltsamen oder teilweise kaputten Video-Streams umgehen.

Gast
2016-05-28, 16:31:27
Die Frage im Startpost lautetettetetetetet (komische schreibweise ..)

"Decodierung" von h264

Wenn man surft und nebenbei was zockt, kann es schon mal zum Konflikt zwischen Browser 4K Hardware Dec. und Spiel X kommen. Sollte die GPU stark genug sein, würde ich es per gpu decodieren lassen.

Sollte der Fan der GPU zu hören sein, per CPU decodieren. Beim Encode ist die Frage was, wer die Datei sehen wird oder soll

Internet > Uploadrate < hat man keine Probleme paar GB pro Stunde hochzuladen, alles per GPU encodieren via 20mbit oder mehr. Wer aber eine lahme Uploadrate hat < via CPU encodieren (nachts).

Maorga
2016-05-28, 18:42:27
geht's jetzt um encodieren oder decodieren. Decodieren klar die 960 nehmen da die halb hardwaremäßig decodieren kann.

Matthias80
2016-06-04, 17:06:49
mmh dazu kann ich nur sagen das meine erfahrungen mit gpu die schon etwas älter sind, ein deutlich schlechteres ergebnis geliefert haben!

mfg

illidan
2016-06-04, 17:28:47
Du dürftest Decoding und Encoding verwechseln.

TheAntitheist
2016-06-04, 22:55:40
decode= hardware
glaub madvr funktioniert sogar damit oder?

illidan
2016-06-04, 23:01:21
decode= hardware

Wie meinen?


glaub madvr funktioniert sogar damit oder?
LAV Filters bieten einen Copyback-Modus an, der mit jeder Software so kompatibel ist wie Software-Decoding (wobei Software-Decoding immer noch kompatibler mit kaputten Videos ist und auch keine Grafiktreiber-Bugs kennt).
Mit AMD kann man auch natives DXVA2 nutzen, bei Nvidia gibts damit eine Qualitätsverschlechterung fürs Chroma-Scaling bei madVR.

TheAntitheist
2016-06-05, 00:19:25
Wie meinen?


LAV Filters bieten einen Copyback-Modus an, der mit jeder Software so kompatibel ist wie Software-Decoding (wobei Software-Decoding immer noch kompatibler mit kaputten Videos ist und auch keine Grafiktreiber-Bugs kennt).
Mit AMD kann man auch natives DXVA2 nutzen, bei Nvidia gibts damit eine Qualitätsverschlechterung fürs Chroma-Scaling bei madVR.
hardware = harte Ware = kann man anfassen
hoffe das ist geklärt.

Gast
2016-06-05, 02:07:43
Decodieren klar die 960 nehmen da die halb hardwaremäßig decodieren kann.
Nichtnur halb sondern voll.

Deine GTX 960 (="Feature Set F") kann H.264 bis 4096 × 4096 in HW dekodieren sowie sogar auch H.265 bis Main/Main10.

Zitat : "added support for decoding H.264 with a resolution of up to 4096 × 4096" & "dedicated HEVC (H.265) Main/Main10 video decoding" - letzteres "dedicated"
Source : https://en.wikipedia.org/wiki/Nvidia_PureVideo#Nvidia_VDPAU_Feature_Sets
Nebenbei deine GTX960 sogar den VP9-Codec in HW (z.b. auf Youtube per HTML5 in Verwendung) : https://en.wikipedia.org/wiki/VP9#Decoding

Was stromssparender bin ich leider überfragt, Verbrauchsmessgerät nutzen :-) Von der Speed her würde ich die GPU vorne sehn.