PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Mit der GPU Videos komprimieren


Seiten : [1] 2 3 4

Moralelastix
2007-12-23, 04:20:12
Ich such und such und find nix dazu.

Seit Jahren wird Hardwaredecoding in den Grakas angepriesen. Mittlerweile können viele Codecs beschleunigt werden. Is ja ganz prächtig so weit!


Aber wieso tut sich auf der anderen Seite beim hardwarebeschleunigten Encoden rein garnix?

Wieso gibts z.B. keinen hardwarebeschleunigten h264 Encoder?
Ewigkeiten brauch ich um per CPU einen mpg2 Video in h264 zu transcoden.
Muss sowas heute immer noch sein?

Wieso ist das so ein Problem für ATI und NV?

Gast
2007-12-23, 04:47:01
Nach der avivo-verarsche würde ich mal sagen, weil es nicht so einfach ist und vor allem nicht schneller als auf einer guten SSE() CPU.

=Floi=
2007-12-23, 07:28:13
ich würde sagen, der kosten nutzen faktor ist zu klein! (so ein feature MUSS ja auch zukünftig gepflegt werden)
Wieviele leute encoden denn wirklich viel?

Sentionline
2007-12-23, 08:01:08
Wieviele leute encoden denn wirklich viel?
Vollkommen irrelevant. Nur weil eine CPU nicht immer auf 100% steht brauchen wir nix schnelleres?:|

Wieso gibts z.B. keinen hardwarebeschleunigten h264 Encoder? Ewigkeiten brauch ich um per CPU einen mpg2 Video in h264 zu transcoden.
Naja, wenn man die Entwicklung mitgemacht hat, dann ist man als "einsichtiger" Bürger der sowas machen will auf einen AMD-X2 oder Intel C2D umgestiegen. In sachen Encoding Performance sind die wirklich geil, im gegensatz zu den Krücken P4/AthlonXP.

Das eine GPU jetzt auch noch Videos encodieren soll...Find ich aber unfair das jetzt ATi oder Nvidia vorzuwerfen. So, als bräuchten wir in 2 Jahren keine CPU mehr, da diese ja alles rechnen "müssten"...:|

Die Decoder für h264 auf den Grafikkarten sind mittlerweile recht gut, und die High-Speed Encoder sind ja schon da...C2D, C2Q, PhenomX4, Athlon64 X2 etc. Das Problem ist eher aktuell die Transcoder-Software, die mit optimierungen für Multicore nicht gerade überhäuft sind und hinterherdaddeln.

mfg

BibleMan
2007-12-23, 08:24:09
genau das würde ich auch sagen. wieso sollte man das auf die graka verschieben? wieviele werden und würden das nutzen!

das problem momentan ist eher das die coder software nachhinkt und noch nicht korrekt mehrkerner unterstützt.

Phantom1
2007-12-23, 09:41:33
Ich benutze schon lange die GPU fürs schnellere encodieren von videos.

Um genau zu sein benutze ich einen AviSynth-Filter namens FFT3DGPU, diesen Filter gibt es auch ohne GPU beschleunigung (FFT3DFilter) allerdings dauert dort das filtern/encodieren um ein vielfaches länger!

=Floi=
2007-12-23, 11:01:23
Sentionline du hast mich falsch verstanden
es geht nicht um die auslastung oder geschwindigkeit (wäre ja auch was für sli und tsli mit voller steigerung der performance :eek: )
sondern um die masse die sowas auch nutzt und nutzen würde

Moralelastix
2007-12-23, 17:52:33
Ich benutze schon lange die GPU fürs schnellere encodieren von videos.

Um genau zu sein benutze ich einen AviSynth-Filter namens FFT3DGPU, diesen Filter gibt es auch ohne GPU beschleunigung (FFT3DFilter) allerdings dauert dort das filtern/encodieren um ein vielfaches länger!


Hä?

http://forum.doom9.org/showthread.php?t=89941
Ist sicher schon sehr interessant.
Aber wenn ich die Infos da richtig deute ist das einzig ein Filter.
Das encoden bleibt auch weiterhin Sache der CPU.

Kann man dieses tool mit VirtualDub nutzen?
Oder mit was für einer Videobearbeitungssoftware nutzt du das?

blackbox
2007-12-23, 17:55:38
Kann man nicht mit dem ATI Tray Tool encodieren?

Moralelastix
2007-12-23, 18:44:12
Wie geht das und was für Codecs werden unterstützt?

deekey777
2007-12-23, 18:45:28
Nach der avivo-verarsche würde ich mal sagen, weil es nicht so einfach ist und vor allem nicht schneller als auf einer guten SSE() CPU.
Irgendwelche Belege?
Moralelastix, es ist nicht neu, dass eine Grafikkarte bestimmte Videoeffekte berechnet, das konnte schon die 8500DV (es gab mal eine angepasste Videoschnittsoftware, die im Bundle mit einer 8500DV verkauft wurde; die 8500 rechnete dabei einige Effekte in Echtzeit für die Videovorschau).
Aktuell ist tote Hose, was Videoencoding auf Grafikkarten angeht. ATi startete mit der X1800XT die nötige Ausgangsposition (DPP) und wollte irgendwann die passende Software anbieten, auf die man noch heute wartet (keine Resourcen, dazu kommt, dass man auf F@H setzt).
Es hindert keinen Hersteller eigene Lösungen fürs Transcoding auf Grafikkarten zu bringen, es bringt nichts, etwas ATi/AMD oder nVidia vorzuwerfen, beide haben die nötige Hardware und Software auf den MArkt gebracht, für die Dritte GPU-Transcoder schreiben können. Auch soll Vistas DX die nötige Schnittstelle für Videotranscoding besitzen.

Moralelastix
2007-12-23, 19:05:07
Ja so hab ich mir das vorgestellt.

Angeblich vom Prinzip her kein Problem weil ja alles vorhanden ist aber den letzten Schritt zur realen Anwendung überlässt man dem Zufall des Marktes.

Wieso kümmert sie(ATI/NV) dann überhaupt das Beschleunigen des Decodens durch Grakas? Wieso progammieren sie dafür?

Wo bleiben eigentlich irgendwelche realen GPGPU Anwendungen für NV? Wie z.B. F@H oder sonstwas in die Richtung? Wieso passiert auch da nix?

Sentionline
2007-12-23, 19:08:51
Wieso kümmert sie(ATI/NV) dann überhaupt das beschleunigen des Decodens durch Grakas? Wieso progammieren sie dafür?
HTPC? Decodieren tun sie heute schon recht gut, weil; BlueRay, HD-DVD.

Wo bleiben eigentlich irgendwelche realen GPGPU Anwendungen für NV? Wie z.B. F@H oder sonstwas in die Richtung? Wieso passiert auch da nix?
Da ist schon was passiert (http://folding.stanford.edu/). Allerdings scheint da nur ATi interesse zu haben. Für Nvidia wohl nicht "lukrativ"...

mfg

_DrillSarge]I[
2007-12-23, 19:10:10
dieses avivo xcode, bringt das eigentlich was, oder nur "fake"?

Sentionline
2007-12-23, 19:15:26
I[;6134690']dieses avivo xcode, bringt das eigentlich was, oder nur "fake"?
Bei der Einführung war es recht schnell, aber hatte nicht soo die Qualität zu bieten. Mittlerweile haben konventionelle Encoder eingeholt (bsp TMPGEnc Xpress 4 (http://tmpgenc.pegasys-inc.com/de/product/te4xp.html))...

Optimiert für Intel Pentium4 Prozessor mit HT-Technologie und Intel® Core™ 2 Duo Prozessor

Ich hatte vor langer Zeit mal einen Test gemacht:

Encodierleistung im Vergleich zu meinen anderen Rechnern...
Um die Scalierungsgeschwindigkeit so aussagekräftig wie möglich zu gestalten, habe ich mich für ein HD-DVD Trailer entschieden. Zum einsatz kam der Trailer von King Kong in der HD-Auflösung 1080p. Dieser entspricht der HDTV Auflösung 1920x1080. Die weiteren Eigenschaften des Trailers:

Format: WMV
Länge: 2:51 Min
Auflösung: 1080p (1920*1024)
Bitrate: 8000 kb/s
Audiobitrate: 384 kb/s (AC-3 / Dolby Digital)
Audio Auflösung: 48.000 hz

Die Encoder mussten also auch die Audiospur auf 2 Kanäle & 44 khz herunterrechnen.

http://www.abload.de/img/zwischenablage02il6wny.gif

Wie das Tempo jetzt mit dem "hochskalieren" ist, weiss ich nicht.

mfg

deekey777
2007-12-23, 19:19:53
HTPC? Decodieren tun sie heute schon recht gut, weil; BlueRay, HD-DVD.


Da ist schon was passiert (http://folding.stanford.edu/). Allerdings scheint da nur ATi interesse zu haben. Für Nvidia wohl nicht "lukrativ"...

mfg
Es ist für NV weder "nicht lukrativ" noch sonstwas. Mike Houston (der seit November bei AMD in der GPGPU-Abteilung sitzt) hat mehrmals betont, dass es ein Problem zwischen dem Treiber und dem GPU-Client gab, F@H-Verantwortliche und NV arbeiteten von Anfang an zusammen, um dieses Problem zu beheben, Nvidia wäre es natürlich lieber, dass der F@H-Client vollständig CUDA nutzen würde, was aber niemand an Stanford will, denn man will mit DirectX als Backend für alle Grafikkarten offen bleiben.

_DrillSarge]I[
2007-12-23, 19:23:51
Bei der Einführung war es recht schnell, aber hatte nicht soo die Qualität zu bieten. Mittlerweile haben konventionelle Encoder eingeholt (bsp TMPGEnc Xpress 4 (http://tmpgenc.pegasys-inc.com/de/product/te4xp.html))...



Ich hatte vor langer Zeit mal einen Test gemacht:



Wie das Tempo jetzt mit dem "hochskalieren" ist, weiss ich nicht.

mfg
thx. bei längeren sachen dürfte sich das schon rechnen.
hab leider keine avivo ed (zumnindest keine x1000). mal sehen ob man das auch irgendwie so hinbekommt.

Moralelastix
2007-12-23, 19:28:56
Was gibts denn an realen CUDA Anwendungen für normale Enduser?

Nix oder?

_DrillSarge]I[
2007-12-23, 19:31:29
Was gibts denn an realen CUDA Anwendungen für normale Enduser?

Nix oder?
musst mal schaun ob die da was zum dl anbieten
http://www.gpgpu.org/

sputnik1969
2007-12-30, 18:29:29
Sentionline du hast mich falsch verstanden
es geht nicht um die auslastung oder geschwindigkeit (wäre ja auch was für sli und tsli mit voller steigerung der performance :eek: )
sondern um die masse die sowas auch nutzt und nutzen würde
Ist sicher mindestens genau so eine "Masse" wie Menschen die sich Ultra-Highend-Grafikkarten kaufen ;)
Aber der Markt wird ja auch bedient, warum nicht der andere... so gesehen finde ich seine Frage nur sehr vernünftig... Ich habe mir diese Frage auch schon mehr als einmal gestellt

Bullz
2008-01-03, 01:17:41
nur nebenher weil eingige user wenig davon halten

4 stunden rendern nur cpu und gpu hat urlaub

2 stunden rendern cpu und gpu und keiner hatte urlaub...

ich kenne die technischen Probleme natürlich nicht, aber es ist doch das logischste der Welt das man seine Resorcen maximal ausschöpfen sollte... und die graka hat doch schlappe 300 millle Transistoren, mehr als ein Intel...

also ich hoffe das in nächster Zeit mehr in die Richtung kommt, ich will in unter 1 minute einen 2 Stunden 1080p h264 Film nach divx pressen...

Entropie
2008-01-04, 15:19:20
soviel ich gelesen habe kann Windows z.Z die GPU Ressourcen noch nicht optimal verwalten.
Mit DirectX 10.1 soll das etwas besser werden, so richtig funktionieren wird es damit aber auch noch nicht.

littlejam
2008-01-04, 15:31:06
ich will einen 2 Stunden 1080p h264 Film nach divx pressen...
Warum willst du das denn?

Gruß

Coda
2008-01-04, 15:46:03
soviel ich gelesen habe kann Windows z.Z die GPU Ressourcen noch nicht optimal verwalten.
Mit DirectX 10.1 soll das etwas besser werden, so richtig funktionieren wird es damit aber auch noch nicht.
Das hat damit nichts zu tun.

Entropie
2008-01-04, 17:00:25
hast recht, war das WDDM und nicht DirectX.

Demogod
2008-01-05, 15:31:04
Man wird wohl noch ein Weilchen auf Apple warten müssen.
Leopard unterstützt encoding per CoreImage und CoreVideo Frameworks.
Ich denke mal, dass durch Apples erstarken nun sehr viel Arbeit in MacOS X Treiber gesteckt werden muss (Stichwort extrem schlechte GMA Treiber für os X). Desweiteren erscheint demnächst OpenGL, was bestimmt auch dazu beiträgt.

Gast
2008-01-06, 00:51:15
[Quote]ich will einen 2 Stunden 1080p h264 Film nach divx pressen...[\quote]

Ist denn deine Leitung sooo schnelllll ?!!!!!!!! :Kopfschuetteln:

CUDA soll bereits "erhaeltlich" sein, wer will selber comp./bzw. programmieren und voila ........

Weiterer Faktor, so glaube ich, ist die einfache Genauigkeit der GPU, waehrend die CPU doppelt "abcheckt", ist die heutige GPU Architektur noch auf 1xfache Genu. ausgelegt.

Wo nun hier VOr- und Nachteile sind, ist denn meisten eh wurshct.

Wer heute HD rippen/encoden muss, hat irgendwie die letzten Jahren unter der Erde verbracht. Entweder "geniesst" man die neue Quali. oder bleibt bei der DVD....

deekey777
2008-02-12, 13:28:09
GPGPU: far more important than you think. Think 10x a CPU's performance (http://www.hexus.net/content/item.php?item=11725)
As an example, during the CTO conference in Amsterdam, Holland, a high-definition clip was transcoded to MPEG2 HD. Running on a Radeon HD 3870 X2, with the Adobe Premier plug-in activated, the GPU ran at 4x a quad-core CPU's speed.

Now, it's clear that extensive developer-relations' support needs to be fostered and promoted before large software houses bother to take advantage of the GPU's massive horsepower, but we see GPGPU as more than just a fad. Rather, the burgeoning industry needs to be helped along via close collaboration with NVIDIA and AMD.

SaschaS
2008-02-13, 09:08:15
Super! Wenn Adobe so ein Plug-In schon hat dann werden die Freeware-Tools davon hoffentlich bald was abkupfern :)

deekey777
2008-04-12, 22:02:02
http://elementaltechnologies.com/products.php
RapiHD™ AVC/H.264 Baseline Profile Encoder SDK (http://elementaltechnologies.com/products.php?id=4)

The RapiHD™ AVC/H.264 Baseline Profile Encoder SDK is a GPU-accelerated, intra-frame and inter-frame encoding software platform. It is ideal for many applications, including video encoding for Internet and mobile distribution, consumer media processing (i.e. formatting video for common consumer devices such as portable media players, mobile phones, and so on), and professional applications such as browse view generation .

Specifications

Real-time high-definition video encoding
Support for encoding multiple streams simultaneously
Fully programmable output resolution
Fully programmable output bitrate
Supports 8-bit per pixel resolutions
4:2:0 chroma output
Runs on Windows XP and Linux; Macintosh and Windows Vista versions coming soon
Requires NVIDIA GeForce G80-based or later GPU
Target Applications:

Video servers
Non-Linear editors
Post-Production tools
Consumer media applications
Internet and mobile video playout
http://elementaltechnologies.com/careers.php
NVIDIA CUDA GPU Software Developer


This position is for ‘superstar’ software engineers who are creative, self motivated and enjoy solving challenging problems. If you are an expert in video compression and/or parallel processing and are interested in developing extremely high performance professional video applications using NVIDIA's CUDA parallel processing tools, we want to talk to you.

_DrillSarge]I[
2008-04-12, 22:14:48
Requires NVIDIA GeForce G80-based or later GPU
also auch rv670? ;D ;D
....nice, nur bräuchte man sowas auch bei ati.

tombman
2008-04-12, 22:25:35
http://elementaltechnologies.com/products.php
RapiHD™ AVC/H.264 Baseline Profile Encoder SDK (http://elementaltechnologies.com/products.php?id=4)


http://elementaltechnologies.com/careers.php
ich sehe nirgendwo einen Preis?

deekey777
2008-04-12, 22:27:42
I[;6426965']also auch rv670? ;D ;D
....nice, nur bräuchte man sowas auch bei ati.
Man weiß ja nie, vielleicht schafft NV die Position auszubauen und CUDA als einheitliche Hochsprache auch für ATi/AMD anzubieten. NV hat da ein schönes Druckmittel und zwar PhysX, was eine gemeinsame Schnittstelle benötigt, um den Kampf gegen Intel und dessen Physik-Anstrengungen für sich zu entscheiden.

_DrillSarge]I[
2008-04-12, 22:37:33
ich sehe nirgendwo einen Preis?
http://elementaltechnologies.com/contact.php :biggrin:
google und co finden auch nix. zu neu?

AnarchX
2008-04-12, 22:43:17
Das sind doch alles SDKs, mit denen man dann erst für den Endnutzer relevante Apps erstellen kann.

Gast
2008-04-13, 17:43:37
Warum glaubt jeder das NV ein Druckmittel hat?
Und gegen Intel schon mal gar nicht.
Warum sollte AMD ausgerechnet Cuda unterstützen?

deekey777
2008-04-14, 13:15:21
Nvidia Analyst Day: Biting Back at Intel (http://www.bit-tech.net/hardware/2008/04/14/nvidia_analyst_day_-_biting_back_at_intel/4)

One software application that was shown off during the Analyst Day was RapiHD – a video encoder designed to run on the GPU using CUDA. Sam Blackman, CEO of Elemental Technologies, the company behind RapiHD, showed a GeForce 8800M GTS running an h.264 video encode completing around 10 times faster than a quad-core Intel CPU. The software will be available in August or September and will be price competitive with current video encoders – expect it to be around $50 US for the standard version.
...


PS: Der ganze Artikel lohnt sich. :biggrin:

Moralelastix
2008-04-14, 13:53:58
Was heißt "IA" in dem Artikel?

AnarchX
2008-04-14, 13:57:18
Intel Architecture

tombman
2008-04-14, 14:03:09
Sam Blackman, CEO of Elemental Technologies, the company behind RapiHD, showed a GeForce 8800M GTS running an h.264 video encode completing around 10 times faster than a quad-core Intel CPU. The software will be available in August or September and will be price competitive with current video encoders – expect it to be around $50 US for the standard version.
Oh yeah :D

Aber braucht man da unbedingt CUDA kompatible Treiber oder kann man da weiterhin jeden WaldundWiesen Betatreiber installieren?

Moralelastix
2008-04-14, 14:32:30
Hoffentlich kommt bei der Physik Geschichte auch wirklich was brauchbares raus.

tombman
2008-04-14, 14:34:40
Wenn Phyisk bei den devs wer durchdrücken kann, dann Nvidia.
Der Ageia Kauf war ein sehr guter Schachzug.

Moralelastix
2008-04-14, 15:27:14
Dein Wort in Gottes Ohr! :biggrin:

AnarchX
2008-04-15, 17:43:15
http://img252.imageshack.us/img252/2140/nvidia41b61c44ezk3.jpg (http://imageshack.us)
http://img156.imageshack.us/img156/4025/nvidia31b621facxj4.jpg (http://imageshack.us)
http://pc.watch.impress.co.jp/docs/2008/0416/nvidia.htm?ref=rss

Scheint auch ziemlich gut zu skalieren, auf einem GT-200-SLI mit geschätzen 2 TFLOPs, brauch es dann wohl keine 10s, sofern die HDD die Daten ensprechend schnell liefern kann.:D

deekey777
2008-04-15, 17:50:22
Speed ist nichts, die Qualität ist alles. Zwar werden sich die meisen über die hohen Frames aufgeilen und nur auf die Balkenlänge starren, aber wenn die Bildqulität mies ist, dann bringt dieser Encoder nichts.

Der AVIVO-Encoder ist einer der schnellsten Encoder, aber die Bildquali ist schlecht.

Gast
2008-04-16, 13:38:13
Speed ist nichts, die Qualität ist alles. Zwar werden sich die meisen über die hohen Frames aufgeilen und nur auf die Balkenlänge starren, aber wenn die Bildqulität mies ist, dann bringt dieser Encoder nichts.


natürlich, aber mit der rechenpower einer gpu sollte man auch mit guter qualität einen ordentlichen vorsprung schaffen.

robbitop@work
2008-04-16, 14:23:35
Der Screenshot offeriert hoffentlich nicht den vollen Umfang des Programmes.
Dann wäre ich enttäuscht. Ich erwarte eher eine Art GPU-beschleunigtes ffd-show/AVI-Synth. So, dass man die richtig guten und rechenlastigen Algorithmen drüberlaufen lassen kann. Gerade das bringt BQ und kostet natürlich auch Rechenleistung.
Das was AVI-Synth macht, ist ja auch sehr gut. Aber eine starke GPU würde diese Weltklasse BQ dann in Echtzeit schaffen.

Wenn ich aber einfach nur ein Standard-Video 10x schneller encodieren kann ohne Extras, bringt mir das nämlich gar nix.

deekey777
2008-04-16, 15:00:37
Google-Übersetzung:
http://translate.google.com/translate?u=http%3A%2F%2Fpc.watch.impress.co.jp%2Fdocs%2F2008%2F0416%2Fnvidia.ht m&langpair=ja%7Cen&hl=de&ie=UTF8
Irgendwie werde ich daraus nicht schlauer.
Mit dem Videoconverter braucht die CPU etwa 42 sec, mit einer Grafikkarte und RapiHD dagegen ein Drittel. Dann zeigt NV eine Folie, wonach für ein zwei Stunden langes Video auf einer CPU in 5-7 Stunden umgewandelt wird, aber der 8800M in 53 Minuten, auf einer 8800GT in 23. Und was für ein Video ist das?

Gast
2008-04-20, 12:59:42
Mann, das ist doch der letzte Schrott. Das ist als wenn ATI und NV eigene Spiele anbieten würden die wie unter DX11 aussehen, woo alle Welt DX9 anbieten würde.
Ich brauch keine Anwendungen von NV und keine von ATI, sondern APIs. So daß bekannte und alteingesessene Programme und Codecs sie in neuen Versionen nutzen können. So wie es langsam mit SSE4 der Fall ist.

Auch brauche ich keinen zehnfachen Speed. Mir würde schon eine dreifache Beschleunigung reichen, wenn die Qualität mit den momentan höhsten Qualitätsstufen der aktuellen Programme halten kann oder sie och leicht übersteigt.

Und natürlich geht mir nicht nur bei MPEG4 einer ab ;) sondern auch das gewöhnliche HomeCinema. Für jemanden der nicht nur zu den Rippern :| gehört, sondern auch eigenen Content erstellt, interessiert mich die Beschleunigung von DivX wie auch MPEG2 ebenfalls.

deekey777
2008-04-25, 15:53:26
http://forum.doom9.org/showthread.php?t=136847

Wenn ich es richtig verstehe, wird es einen Port des x264-Encoders auf CUDA geben. :biggrin:

deekey777
2008-05-11, 12:37:24
Google-Übersetzung:
http://translate.google.com/translate?u=http%3A%2F%2Fpc.watch.impress.co.jp%2Fdocs%2F2008%2F0416%2Fnvidia.ht m&langpair=ja%7Cen&hl=de&ie=UTF8
Irgendwie werde ich daraus nicht schlauer.
Mit dem Videoconverter braucht die CPU etwa 42 sec, mit einer Grafikkarte und RapiHD dagegen ein Drittel. Dann zeigt NV eine Folie, wonach für ein zwei Stunden langes Video auf einer CPU in 5-7 Stunden umgewandelt wird, aber der 8800M in 53 Minuten, auf einer 8800GT in 23. Und was für ein Video ist das?
Ich hatte schon eine Vermutung, das da Staub in die Augen geblasen wird, behielt's aber für mich:
http://www.techradar.com/news/computing-components/graphics-cards/nvidia-current-cpu-gpu-balance-in-pcs-is-obscene-364646
Downsizing a typical HD movie for an iPod using a conventional PC processor can take up to eight hours or more, even with a decent dual-core Intel chip. Nvidia says the same job can be done in just over 20 minutes on an 8800 series Nvidia graphics board.
Irgendwie kann ich dieser Aussage nicht so richtig glauben, dass die Umwandlung eines 720p-Videos fürs iPod bis zu acht Studen dauern soll.
Fürs iPhone dauern meine Umwandlungen von 576i-MPEG2 mit Nero Record 3 mindestens in Echtzeit (und da 2-Pass-Encoding kommt vielleicht noch eine halbe Stunde hinzu).
Das iPod-Profil braucht solche Spässe wie CABAC nicht, dagegen die Umwandlung für andere Profile (ich nutze die Nero-Digital-Bezeichnungen) wie Home (576i), Cinema (720p) oder HDTV (1080i) sowie AVCHD oder mini-HD-DVD drängt sich CABAC sowie weitere bildqualitätverbessernde Maßnahmen auf, obwohl sie deutlich mehr Rechenleistung verlangen.
Laut x264-Entwickler ist auf der GPU grundsätzlich alles möglich, was auf der CPU geht - außer CABAC (was zwar auch auf der GPU laufen kann, kann aber nicht parallelisiert werden).
Ich frage mich, wieviel von dieser Aussage, dass eine GPU fürs Encoden Minuten braucht, wofür eine CPU Stunden braucht, übrig bleibt, wenn es auf "echtes" Umwandeln in 720p ankommt (zB: Gestern begann ORF 1 mit seiner 720p-Testausstrahlung, ab 02. Juni geht's richtig los).

L.ED
2008-05-12, 19:42:29
Mal rein Technisch gefragt, welche von den aktuell existierenden Grafikkarten Generationen ist dann für solche Zwecke eher und besser geeignet? Unter den beiden Gesichtspunkten bei vergleichbarer (möglichen) Qualität wie CPU Encoding (Augenhöhe) und gleichsam Geschwindigkeit!?

Demogod
2008-05-12, 20:20:27
Vermutlich die mit den meisten (aktivierten) Stream Prozessoren.



Hab noch die Produktseite hier gefunden: http://elementaltechnologies.com/products.php?id=4

L.ED
2008-05-12, 22:45:29
Das würde in dem Fall ja dann heißen das dort dann auch die HD2900 und HD3850/70 auch später einmal noch vergleichsweise insbesondere gut dastehen werden?

Diesbezüglich Ambitionierte Leute ggf. nachträglich über ein fettes Geschenk (in Form von einem massiven Leistungsplus beim Video Encoden z.b.), freuen könnten (wenn es dann wirklich mal soweit sein sollte und es auch genutzt bzw. für die breitere Öffentlichkeit nutzbar wird)!?

AnarchX
2008-05-12, 22:49:38
Naja, kommt halt ganz auf die verwendeten Algorithmen an, sobald viele abhängige Skalare benötigt werden, wird G9x/G8x davon rennen.

L.ED
2008-05-12, 23:03:45
ich würde ja mal von ausgehen wollen, wenn das erst einmal angelaufen das für die unterschiedlichen Architekturen entsprechende Algorithmen geben wird? :|

Anhand denen man sehen wird was geht und oder was besser (im Sinne von Bildqualität und Geschwindigkeit), wobei aber vor allem halt Primär das die Qualität stimmt die am Ende bei raus kommt.

Wenn diese hinhaut(?) dann ist ja eins sowieso schon mal gewiss das es verglichen zum herkömmlichen rein CPU basierenden Encoding, sehr schnell sein wird. Egal welche der beiden Architekturen da am Ende den längsten offeriert. Ein allgemeiner Gewinn ist es am Ende dennoch für Alle (beim einen dann mehr beim anderen halt weniger)! ;)

AnarchX
2008-05-12, 23:31:30
ich würde ja mal von ausgehen wollen, wenn das erst einmal angelaufen das für die unterschiedlichen Architekturen entsprechende Algorithmen geben wird? :|

Es wird den Algorithmus geben, der das gewünschte Resultat nach sich zieht.

Aber der Einwurf mit dem abhängigen Skalaren, war nur ein Hinweis, dass es eben nicht auf die SP-Zahl bzw. theoretische Peak-Leistung ankommt, sondern eben auch andere Faktoren wichtig sind. Ob nun dieses Beispiel konkret im Videoencoding Anwendung findet, kann ich nicht sagen.

L.ED
2008-05-13, 00:00:19
Dazu fehlt mir auch der Hintergrund, aber rein vom Betrachten her fällt doch irgendwo auf das die HD2/HD3 Serie irgendwo eine “Unkonstruktion“ (?) wenn man es nur darauf Beschränken mag für was ursprünglich 3D Beschleuniger einmal nur Konzipiert wurden.

Ich meine die Ingenieure und Chipdesigner müssen sich doch dabei was gedacht haben als sie dieses Ding konzipierten? :| Wenn ich mir den R600/R670 so ansehe erinnert mich das an ne Runde Pokern, irgendwo hoffte man das wird schon reichen (auch noch für dato dann Aktuelle Spiele) und Klotzte an anderer stelle um so weiter, leider hat man sich da leicht verfehlt.

Je nach dem wie man es nimmt und sieht, so schlecht Performen tun die Dinger ja gar nicht, aber eben verglichen zu den NV sind sie (zumindest Aktuell noch?), meistens dann doch langsamer.

Da beschleicht einen doch die Frage wo denn sonst noch die Stärken dieser Architektur liegen sollen/müssen? Im Endeffekt Kochen doch alle mit Wasser und auf dem Papier sieht R600/670 doch auch relativ Stark aus, so Stark das er in mancherlei Bereichen überlegen sein sollte/müsste? Und wenn das in Spielen nicht der Fall, naja dann vielleicht woanders!? :confused:

Auch vor dem Hintergrund wenn die Gerüchte um den R700 Stimmen und wo der nur erweitert wird? Sieht im Moment nur nach aus das man halt Spieltechnisch (wo man sich ein wenig verfehlte), ein wenig nach legt/bessert und ansonsten an besagter anderer Stelle erneut eine Schippe drauf wirft. :|

Allein an Zahlenwerten und für den Laien, sind doch auch schon die Aktuellen ATI Karten regelrechte Shader Monster!? :cool:

Gast
2008-05-13, 18:44:13
Das würde in dem Fall ja dann heißen das dort dann auch die HD2900 und HD3850/70 auch später einmal noch vergleichsweise insbesondere gut dastehen werden?


sie werden zumindest nicht dermaßen weit hinten sein, gegen G80/G92 haben sie trotzdem keine chance.

Gast
2008-05-13, 19:32:32
sie werden zumindest nicht dermaßen weit hinten sein, gegen G80/G92 haben sie trotzdem keine chance.

Was laberst du eigentlich immer so nen unbegründeten Grütz. Du hast doch überhaupt keine blasse Ahnung welche Anforderungen für die unterschiedlichen nötigen Operationen maßgeblich sind. Von daher kannst du auch keine dies betreffende Aussage machen.

Gast
2008-05-13, 20:38:02
Was laberst du eigentlich immer so nen unbegründeten Grütz. Du hast doch überhaupt keine blasse Ahnung welche Anforderungen für die unterschiedlichen nötigen Operationen maßgeblich sind. Von daher kannst du auch keine dies betreffende Aussage machen.

ich weiß dass die math-rohleistung von G92/G80 und RV670/R600 ähnlich sind und dass die auslastung bei ATI tendenziell schlechter als bei NV ist, das sollte eigentlich reichen.

Gast
2008-05-13, 21:11:20
ich weiß dass die math-rohleistung von G92/G80 und RV670/R600 ähnlich sind und dass die auslastung bei ATI tendenziell schlechter als bei NV ist, das sollte eigentlich reichen.

Der Meinung bin ich nicht. Welche mathematischen Operationen braucht man den für das transcodieren nach H.246? Kann man Simd16 Rechenwerke dafür effektiv einsetzen? Reicht einfache Präzision? Kann man die TMUs für das Up-/Downsizen nutzen? Wenn ja, welche anderen Einschränkungen ergeben sich daraus?

Alles Fragen auf die du sicher eine Antwort hast...

Coda
2008-05-13, 21:12:53
G8x rechnet nicht auf Vec16-Werten, sondern auf Skalaren. Es sind 16 parallele Programme pro ALU, die aber nur eine gemeinsame Steuerlogik haben.

AnarchX
2008-05-17, 18:47:43
Eine CUDA-Implementierung für Dirac/VC-2:
http://we.pcinlife.com/thread-934785-1-1.html###

Scheint wohl aus einem Paper kopiert zu sein, fragt sich nur woher?

ZilD
2008-05-21, 13:42:51
obs jetzt 10 minuten dauert oder 5 ... wayne interessierts.

Gast
2008-05-23, 18:29:18
obs jetzt 10 minuten dauert oder 5 ... wayne interessierts.

ich denkem mal jeden, statt 10 und 5min kann man ja auch 1 und 2 stunden hinschreiben.

L.ED
2008-05-23, 19:30:03
Hauptsächlich Interessiert daran erst einmal was anderes und zwar wann und ob überhaupt diesbezüglich mal was kommt!?

Und wenn dieses, dann unter welchen Voraussetzungen das geschehen soll? Wenn dem z.b. nur im Zusammenhang mit einem Vista? Für mich als gleich von vorne herein schon Obsolet und da wäre dann Interessant in wie weit das dann offen und ob freie Programmierer, Beispielsweise auch unter Linux solches dann realisieren könnten!?

Alles irgendwo noch im Raum stehende Fragen?


Anscheint scheint es ja rein Technisch (u.a. Hochwertiges H264 Encoding auf GPU), als durchaus gut und möglich erachtet zu werden, jedenfalls haben die (aus diesem Forum) von denen ich annehme das se diesbezüglich Durchblick haben sollten/könnten, auch noch keine expliziten und sonderlichen Vetos dagegen geführt!? :cool:

aths
2008-05-23, 20:50:32
G8x rechnet nicht auf Vec16-Werten, sondern auf Skalaren. Es sind 16 parallele Programme pro ALU, die aber nur eine gemeinsame Steuerlogik haben.Damit werden also immer 16-er Vektoren verrechnet, auch wenn die Datenbestückung aus den einzelnen Datenströmen jeweils Skalare genutzt werden.

Coda
2008-05-23, 22:03:48
Es sind halt 16 parallele Programme die aber gemeinsame Flusskontrolle haben - so wie ich das verstanden hab.

aths
2008-05-24, 16:06:02
Ja wir "streiten" hier nur über die Sichtweise. Die ALUs berechnen dieselbe Operation auf 16 Werte, diese Werte sind jeweils Skalare von 16 Datenströmen. Die ALU kann nicht (bei allen Shadertypen) pro Takt die Operation ändern, Pixel- oder Vertexprogramme (das habe ich jetzt vergessen) haben Batches von 32 Operationen.

"In Wahrheit" sind es soweit ich weiß auch 8 Werte pro ALU, nur dass diese höchstens alle 2 Takte neue Operationen bekommen kann, womit sich eine kleinste Batch-Größe von 16 ergibt.

deekey777
2008-05-24, 17:45:30
Und jetzt zum Thema: Wieviel lässt sich beim H.264 parallelisieren?
Aus dem Doom9.org-Forum:
Actually, basically everything can be reasonably done on the GPU except CABAC (which could be done, it just couldn't be parallelized).
...
Dark Shikari ist einer der X264-Entwickler.

AnarchX
2008-05-26, 23:29:13
BadaBOOM - die RapidHD-Version für den Endkunden?

http://img66.imageshack.us/img66/7305/00078659626f03813ip3.jpg (http://imageshack.us)
http://www.pcpop.com/doc/App/296837/000786596.html

Wenn man jetzt mal naiv hier mit vergleich so hat sich doch viel getan bzw. GT200 kann hier richtig aufdrehen:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6433023&postcount=44

Odal
2008-05-27, 01:18:08
das ding heisst bodaboom ;)

wird das auch aufm g92 encoden können? und wann und wo gibts das?

deekey777
2008-05-27, 01:19:47
das ding heisst bodaboom ;)

wird das auch aufm g92 encoden können? und wann und wo gibts das?
Das kann jede Grafikkarte, die CUDA-fähig ist.
Aber beeindrückend ist es erst, wenn es Main oder High Profile mit CABAC samt 720p oder höher ist.

(Das Programm wurde schon früher auf einem G92 gezeigt, einfach mal zurückblättern.)

Moralelastix
2008-05-27, 13:34:05
New Nvidia GFX cards used to encode HD videos 2xReal Time (http://www.youtube.com/watch?v=8C_Pj1Ep4nw)

HDV Video(keine Ahnung was das is) mit 25Mbit/s 30FPS mpeg2 file

nach 1440 x 1080 h.264 >>> encoding @ 47FPS

(verwendete GPU wahrscheinlich GT200)

Scheiss auf Quadcore & Co.!

Wann und Wo bekomm ich die Software? Jetzt!

Moralelastix
2008-05-29, 09:38:35
Grafikkarten als Turbolader für HD-Video-Encoding
http://www.heise.de/newsticker/Grafikkarten-als-Turbolader-fuer-HD-Video-Encoding--/meldung/108594

AnarchX
2008-05-29, 11:26:03
http://img66.imageshack.us/img66/3435/p522160759ef41ea4.jpg (http://imageshack.us)
http://www.pcgameshardware.de/?article_id=645277

L.ED
2008-05-31, 00:44:32
Nu wäre ja mal Interessant was diesbezüglich auf AMD Seiten nun zu Erwarten!?

Oder was und wie da nun in Zukunft allgemein kommt, es weiterlaufen soll? :|

Ich halte ab einen bestimmten Bereich nicht mehr viel von wenn jeder dann noch immer an sein eigenes Süppchen am Kochen. Welches auf jeweils der anderen Hardware dann nicht läuft oder wo ggf. vielleicht auch dann (erst einmal?) künstlich ausgesperrt oder eingeschränkt. ^^


Nun gut und wie dem letztendlich dann auch sei, wenn Nvidia diesmal wirklich Ernst macht und nicht wieder ein Rückzieher wie seiner Zeit und das dann auch @Home so ankommen kann!? Dürfte es ja jetzt nicht lange Dauern bis AMD mit etwas ähnlichem oder besseren Kontert, außerdem genau das der oder die Bereiche wo sie gerade Intel Aktuell und bis auf weiteres so richtig eins Reinwürgen könnten (die ja erst dabei sich etwas ähnliches für solch ein Konter zu etablieren, ich glaube vor dieser Entwicklung hatte/hat Intel nu am meisten Sorge)!?

AnarchX
2008-06-04, 19:52:03
Intel says video encoding belongs on the CPU (http://www.bit-tech.net/news/2008/06/04/intel-says-video-encoding-belongs-on-the-cpu/1)

:D

Wobei sie in gewissen Punkten nicht Unrecht haben.

Sorkalm
2008-06-04, 19:58:04
Naja, sie fürchten als um ihr Kerngeschäft, ist ja logisch, wenn immer mehr Aufgaben auf andere Prozessoren verlegt werden...
Die normalen Programme brauchen ja kaum Leistung, und die speziellen werden eher für spezielle Anforderungen angepasst...

Coda
2008-06-04, 20:33:49
Ich hätte eher um mein Kerngeschäft Angst wenn ich NVIDIA heißen würde. CPUs und GPUs steuern wirklich deutlich aufeinander zu. Welches Bauteil braucht man bei einem PC auf jeden Fall und für welche Architektur sind 99% aller Programme nochmal kompiliert?

Larrabee könnte langfristig ein sehr großes Problem werden für NVIDIA wenn sie nicht auch ins normale CPU-Geschäft einsteigen wollen. Da haben sie dann aber wieder das Problem dass sie dort mit übermächtigen Konkurenten mit eigenen Fabs zu tun haben.

Sorkalm
2008-06-04, 21:28:31
Tja, letztendlich hat Nvidia ebenso Angst um ihr Kerngeschäft, das stimmt schon.

Ich sehe aber noch nicht den Sieg der CPUs, denn x86 kann zwar viel ausführen, aber viel Leistung braucht eben die meiste Software nicht mehr. Das soll im übrigen auch nicht das Gegenteil heißen, eventuell übernehmen auch die CPU-ähnlichen Ausführungseinheiten da. Da muss man mal abwarten, mal schauen was Larrabee bringt.

Letztendlich kann ich mir zwei Szenarien vorstellen:

A) Schwächere x86-Prozessoren werden mit starken non x86-Co-Prozessoren ausgestattet [daher der Großteil des Forschungsgelder fließt dann in die Co-Prozessoren, rechenstarke Software muss entsprechend angepasst werden]

B) x86-Prozessoren setzen sich als Hauptrechenzentrum durch (ob nun als traditionelle CPU-Einheit oder als wie auch immer umgemodelte Version in Co-Prozessoren).

Version A wäre wohl Nvidia lieber, Version B Intel. Jedenfalls kann sich hier zumindest AMD heraushalten.

Gast
2008-06-05, 00:21:13
GPUs wird man immer teuer verkaufen können, bei den CPUs sieht das aber ganz anders aus, die Preise gehen von Jahr zu Jahr nach unten.

Genau das sieht Intel ja selber ein, sonst würden sie wohl kaum den Larrabee auf den Markt bringen.

NVIDIA wird sich schon irgendwie durchsetzen, das haben sie schon immer getan, egal ob 3Dfx, Kryo, ATI usw.

Es gibt nun mal keinen erfolgreicherer Hersteller der letzten 10 Jahren und das wird der Larrabee der ersten Generation zu 100% auch nichts ändern, schon nur die Entwicklung für gute Treiber dürften Monate wenn nicht sogar Jahre vergehen...

Einige Vergessen wohl auch das es schon mal Grafikakrten von Intel gab, die konnten aber nicht wirklich überzeugen ;)

AnarchX
2008-06-05, 19:01:42
http://img374.imageshack.us/img374/8985/comp140939c3faf6wi4.jpg (http://imageshack.us)
http://pc.watch.impress.co.jp/docs/2008/0606/comp14.htm?ref=rss

deekey777
2008-06-05, 19:18:10
iTunes ist Mist, was das Neukodieren angeht, denn es gibt deutlich effizientere Wege (insbesondere x264). Der ständige Vergleich zu iTunes ist arm: Auch wenn iTunes die am meisten bevorzugte Anwendung ist, so muss man ehrlich sein und RapiHD mit solcher Software vergleichen, die die Hardware ausreizt.

L.ED
2008-06-05, 23:54:11
Ja, langsam aber sicher geht einen das ganze Marketing Gezülze (um den heißen Brei rum), dann auch mal auf dem Keks (man sollte tunlichst nicht mit übertreiben). ^^

Wäre endlich mal Zeit für Tacheles und Handfestes, Taten folgen zu lassen!

Sollen die Software und Möglichkeiten allgemein verfügbar raushauen damit dem sich auch andere mal annehmen und nen Bild von Zeichnen können (Unabhängige Quellen).

deekey777
2008-06-05, 23:58:34
Ja, langsam aber sicher geht einen das ganze Marketing Gezülze (um den heißen Brei rum), dann auch mal auf dem Keks (man sollte tunlichst nicht mit übertreiben). ^^

Wäre endlich mal Zeit für Tacheles und Handfestes, Taten folgen zu lassen!

Sollen die Software und Möglichkeiten allgemein verfügbar raushauen damit dem sich auch andere mal annehmen und nen Bild von Zeichnen können (Unabhängige Quellen).
Die Software ist noch nicht fertig, sie soll erst im dritten Quartal kommen. Gleiches gilt für den x264-GPU-Encoder.

Wie es bei ATi aussieht, weiß nur der Weihnachtsmann.

Moralelastix
2008-06-06, 00:03:17
Die haben es doch auch mit Adobe Premiere verglichen und dort siehts für CPUs genau so düster aus.

Ich brauch keinen Quad oder noch mehr CPU Core tralala zum encoden wenn schon die billigste GPU den Quad über den Tisch zieht.

L.ED
2008-06-06, 00:13:56
Tjoa, schön wärs und täte es Begrüßen, allgemein gehalten. Wenn die GPUs solches dann heute schon vermögen, dann sollen sie es ggf. auch tun können (ganz klar)!

Auch aus Ökologischen Aspekten heraus gesehen dann ein richtiger und wichtiger Weg.

HarryHirsch
2008-06-06, 00:39:45
ich hab jetzt nicht alles gelesen...
aber ist das nun 1 oder 2 pass?

Gast
2008-06-06, 10:07:08
ich hab jetzt nicht alles gelesen...
aber ist das nun 1 oder 2 pass?


sollte doch egal sein, das verhältnis bleibt gleich.

blackbox
2008-06-16, 16:28:17
CB hat für den Test der neuen Karte die Software "BadaBOOM Media Converter" benutzt. Wo haben die den her? Also gibts den schon irgendwo? Nur wo? Will auch haben!

deekey777
2008-06-16, 18:53:28
CB hat für den Test der neuen Karte die Software "BadaBOOM Media Converter" benutzt. Wo haben die den her? Also gibts den schon irgendwo? Nur wo? Will auch haben!
Im Eifer des Gefechts erzählt man viel, also nächster Versuch:
BadaBOOM Media Converter ist noch nicht frei verfügbar (wird auch Geld kosten, wenn fertig ist).
Wenn du es nötig hast, hast du schon zB AutoMKV (http://automkv.a.wiki-site.com/index.php/Main_Page) probiert?
Anandtech hat's hier getestet: http://www.anandtech.com/video/showdoc.aspx?i=3334&p=20

Black-Scorpion
2008-06-16, 19:07:38
CB hat für den Test der neuen Karte die Software "BadaBOOM Media Converter" benutzt. Wo haben die den her? Also gibts den schon irgendwo? Nur wo? Will auch haben!
Steht doch da wo sie die herhaben.

Nvidia konnte uns freundlicherweise von beiden Programmen eine noch nicht finale Vorabversion zur Verfügung stellen
Quelle: http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_gtx_280_sli/29/#abschnitt_gpucomputing_und_cuda

deekey777
2008-06-24, 14:46:28
More Details on Elemental's GPU Accelerated H.264 Encoder (http://www.anandtech.com/video/showdoc.aspx?i=3339)

Der BadaBoom-Encoder war einige Zeit lang bei Benchmarkreviews zu finden (wie auch der F@H-GPU-Client).

Gast
2008-06-24, 16:56:16
wann kommt x.264 endlich in der CUDA-version?

pest
2008-06-24, 17:12:14
ohne Bildqualitätsvergleiche sind die Encoderbenches nicht vergleichbar. Man kann da soviel tricksen

Gast
2008-06-24, 17:30:46
ohne Bildqualitätsvergleiche sind die Encoderbenches nicht vergleichbar. Man kann da soviel tricksen

stimmt, allerdings sollte rein von der rohleistung die GPU in jedem fall deutlich schneller sein, je höher die BQ desto höher sollte auch der vorsprung sein.

pest
2008-06-24, 17:33:19
je höher die BQ desto höher sollte auch der vorsprung sein.

ich denke nicht. da sind zu viele abhängigkeiten um sie gut auf der gpu auszuführen (RD, 2-pass,...), nen "einfacher" Kodierer ist da immer effizienter.

up¦²
2008-07-01, 10:27:49
Wirklich interessante Entwicklung mit BadaBOOM.
Bloq dazu: http://www.badaboomit.com/bloq

dabei haben die erst rund 12/07 angefangen... :eek:
http://elementaltechnologies.com/dev/press.php

deekey777
2008-07-01, 10:52:48
Ich warte lieber auf Power Director 7 Ultra.

GPU transcodes four 1080p video files in real time (http://www.tgdaily.com/content/view/38117/140/)
http://static.pcinpact.com/pdf/docs/06DaveBaumann-HDMedia-Final.pdf

Skinner
2008-07-01, 11:09:42
wann kommt x.264 endlich in der CUDA-version?

Im regefalls wenn er fertig ist. Aber da es noch nichtmal ne Beta gibt, wird wohl noch länger dauern.

up¦²
2008-07-01, 11:19:34
Ja, CyberLink PowerDirector 7 Ultra sieht sowieso schon gut aus, auch wenn GPU-coding z.B. hier noch nda war und also noch nicht zur Sprache kam:
http://www.pcmag.com/article2/0,1759,2319829,00.asp

Damit hat Cyberlink also beide im Sack: AMD und nvidia - (... und das ist gut so)

randy
2008-07-01, 11:36:17
Das will ich natürlich sofort ausprobieren und habe die Trial-Version von hier (http://www.cyberlink.com/multi/download/trials_4_ENU.html) heruntergeladen. Gestartet, ein filmchen hineingezogen und auf eine videospur gelegt und danach auf erstellen gegangen. nur - was muss ich jetzt wählen um von der gpu-berechnung zu profitieren ?

::edit::

okay, darum wohl

CyberLink PowerDirector with support for Accelerated Video Transcoding (AVT) Technology on ATI Radeon HD 4800 series graphics cards will be available in Q3 2008.

http://www.cyberlink.com/eng/press_room/view_1756.html ;(

Gast
2008-07-01, 12:30:17
Wie siehts denn mit den ATI Karten aus? Gibts da nichts vergleichbares?

Gast
2008-07-01, 13:09:33
Das will ich natürlich sofort ausprobieren und habe die Trial-Version von hier (http://www.cyberlink.com/multi/download/trials_4_ENU.html) heruntergeladen. Gestartet, ein filmchen hineingezogen und auf eine videospur gelegt und danach auf erstellen gegangen. nur - was muss ich jetzt wählen um von der gpu-berechnung zu profitieren ?

ich glaube nicht dass es schon eine version mit GPU-unterstützung gibt, jedenfalls kann ich nichts davon finden.

deekey777
2008-07-02, 11:43:01
http://www.custompc.co.uk/news/602868/intel-cuda-will-be-just-a-footnote-in-computing-history.html
... :biggrin:
Toll.
Und wo ist der Bezugspunkt zum Thema "Mit GPU Videos encoden"? (die Frage ist rein rhetorisch)
Edit:
Der Beitrag sowie Anworten darauf wurden in den Larrabee-Thread (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=366311) verschoben.

deekey777
2008-07-05, 17:30:09
CyberLink PowerDVD and PowerDirector Support ATI Radeon™ HD 4800 Graphics Series from AMD, Delivering Optimized HD Playback and Accelerated Video Transcoding (http://www.cyberlink.com/eng/press_room/view_1756.html)
Product Availability

CyberLink PowerDVD with support for UVD 2 Technology on ATI Radeon HD 4800 series graphics cards is already available online. Existing PowerDVD 8 users can update their software for free. Please visit the CyberLink website for more information. CyberLink PowerDirector with support for Accelerated Video Transcoding (AVT) Technology on ATI Radeon HD 4800 series graphics cards will be available in Q3 2008

Das war mir so klar.

35007
2008-07-05, 20:27:05
CyberLink PowerDVD and PowerDirector Support ATI Radeon™ HD 4800 Graphics Series from AMD, Delivering Optimized HD Playback and Accelerated Video Transcoding (http://www.cyberlink.com/eng/press_room/view_1756.html)


Das war mir so klar.

Super geil! Wenn der Codec dem HQ-x264-Slow Preset ebenbürtige Ergebnisse liefert, wird eine 4850 sowei die Powerdirector Software gekauft.

35007

Gast
2008-07-06, 12:46:49
Es gibt weder in PowerDirector 7, noch in der Hilfe/Handbuch irgendeinen Hinweis darauf dass die GPU zum encoden benutzt wird. Die sich nicht verändernde GPU Temperatur spricht auch dagegen.
Das AVC Encoding ist zwar ca 2x schneller als Nero (720p Auflösung, gleiche Settings, alles von Hand eingestellt), sieht aber sichtbar schlechter aus, und das Ergebnis wird immer auf PAL/NTSC Framerate umgerechnet, und noch schlimmer, immer interlaced, selbst wenn das Video explizit als progressiv eingestellt wird (und es auch ist).
Fazit: gut für Erstellen von klassischen DVDs aus Homevideos welche von einer Cam kommen und demnach immer PAL/NTSC Framerates haben und interlaced sind. Zum Transkodieren von HD Material qualitätsmässig überhaupt nicht geeignet.

Skinner
2008-07-14, 13:56:19
Es gibt weder in PowerDirector 7, noch in der Hilfe/Handbuch irgendeinen Hinweis darauf dass die GPU zum encoden benutzt wird. Die sich nicht verändernde GPU Temperatur spricht auch dagegen.
Das AVC Encoding ist zwar ca 2x schneller als Nero (720p Auflösung, gleiche Settings, alles von Hand eingestellt), sieht aber sichtbar schlechter aus, und das Ergebnis wird immer auf PAL/NTSC Framerate umgerechnet, und noch schlimmer, immer interlaced, selbst wenn das Video explizit als progressiv eingestellt wird (und es auch ist).
Fazit: gut für Erstellen von klassischen DVDs aus Homevideos welche von einer Cam kommen und demnach immer PAL/NTSC Framerates haben und interlaced sind. Zum Transkodieren von HD Material qualitätsmässig überhaupt nicht geeignet.

Ich weiss zwar nicht was Du uns sagen willst. Aber PD7 mit Support für ATI Transcoding ist noch gar nicht draußen.

TheBrother
2008-07-16, 09:47:49
25. August ist es wohl soweit. Dann gibt es Badaboom! zu kaufen:

Preis steht wohl leider noch nicht fest.

Als standard Edition:


Badaboom™

Elemental Technologies’ Badaboom™ Media Converter takes a fundamentally different approach to video format conversion from other solutions. Instead of performing format conversion on the CPU, it harnesses massively parallel GPUs from NVIDIA. By using the power of the GPU, the time required for video conversion is reduced. As an added bonus, you can still use the CPU for normal everyday tasks such as email and internet browsing. Anyone can now painlessly convert video between formats, leaving more time to enjoy the video and eliminating the frustration of video conversion delays. The Badaboom™ Media Converter provides a simple to use tool for standard definition media conversion.



- Input video formats – MPEG1, MPEG2, H.264, WMV, VC-1, FLV, RAW

- Input audio formats – MP2, PCM

- Input file types – .m2v, .mpg, .vob, .avi, .TRP, .m2t, .mt2s, .mpeg, .264, .mkv

- Input resolutions supported – Standard definition (720×480p) and below

- Output video formats supported – H.264 (MP4) Baseline Profile

- Output audio formats – AAC

- Output resolutions supported – Standard definition(720×480p) and below, fixed GUI resolutions supported

- Availability – Badaboom will be available on August 25th from the www.badaboomit.com website

- Hardware compatibility – Badaboom is compatible with all CUDA enabled NVIDIA GPUs which are described on the NVIDIA site here http://www.nvidia.com/object/cuda_learn_products.html

- Software compatibility – Badaboom supports Microsoft Windows software only. Windows Vista 32, Windows Vista 64 and Windows XP 32 are supported

- Price – final pricing has not yet been determined


und als Pro Edition:


Badaboom™ pro



Elemental Technologies’ Badaboom™ Media Converter takes a fundamentally different approach to video format conversion from other solutions. Instead of performing format conversion on the CPU, it harnesses massively parallel GPUs from NVIDIA. By using the power of the GPU, the time required for video conversion is reduced. As an added bonus, you can still use the CPU for normal everyday tasks such as email and internet browsing. Anyone can now painlessly convert video between formats including AVCHD, leaving more time to enjoy the video and eliminating the frustration of video conversion delays. The Badaboom™ pro Media Converter allows full customization of the conversion process and is designed for advanced users or users converting HD content.



- Input video formats – MPEG1, MPEG2, H.264, WMV, VC-1, FLV, RAW, AVCHD

- Input audio formats – MP2, PCM

- Input file types – .m2v, .mpg, .vob, .avi, .TRP, .m2t, .mt2s, .mpeg, .264, .mkv

- Input resolutions supported – High definition(1920×1080p) and below

- Output video formats – H.264 (MP4) baseline profile

- Output audio formats – AAC

- Output resolutions supported – High definition(1920×1080p) and below, user definable resolutions supported

- Availability – Badaboom pro will be available on August 25th from the www.badaboomit.com website

- Hardware compatibility – Badaboom is compatible with all CUDA enabled NVIDIA GPUs which are described on the NVIDIA site here http://www.nvidia.com/object/cuda_learn_products.html

- Software compatibility – Badaboom supports Microsoft Windows software only. Windows Vista 32, Windows Vista 64 and Windows XP 32 are supported

- Price – final pricing has not yet been determined


Quelle: http://www.badaboomit.com/blog/

Gruß

Brother

deekey777
2008-07-16, 11:45:03
Baseline unterstützt kein CABAC. Und für solche Sachen gibt es alternative kostenlose Anwendungen, die auf der CPU laufen und je nach CPU kaum langsamer sind als eine GTX280.

Moralelastix
2008-07-16, 14:51:31
@deekey777
Hä, Bahnhof oder was willst du damit sagen? Machs doch net immer so kompliziert!

TheBrother
2008-07-17, 09:50:52
Er meint Context Adaptive Binary Arithmetic Coding (http://de.wikipedia.org/wiki/Context_Adaptive_Binary_Arithmetic_Coding)

ist im h.264 standard (http://de.wikipedia.org/wiki/H.264) drinnen und ist ein Verfahren zur verlustfreien Kompression der Videodaten.

bzw was er sagen will: Der Badaboom! encoder kann nur baseline und das suckt ;D ;D ;D

Gruß

Brother

DevilX
2008-07-17, 09:59:46
also ich denke mal wenn wir bereit sind ein bisschen zu warten x264 soll ja auch "bald" Grakas nutzen können, dann ist das bestimmt die bessere Wahl, bzw mal abwarten was von Cyberlink kommt.

robbitop
2008-07-17, 10:02:58
Habe ich mir schon gedacht. Denn CABAC ist ein sehr rechenintensives Element am 264er Encodingprozess und ist kaum parallelisierbar.

Gast
2008-07-17, 11:01:14
Habe ich mir schon gedacht. Denn CABAC ist ein sehr rechenintensives Element am 264er Encodingprozess und ist kaum parallelisierbar.
Darum prüft man für den x264@CUDA, ob es weitere Optionen gibt (RDO usw.).
Es gab hier und einige boese Worte in Richtung Badaboom, was das CABAC und das angebotene Basic Profil angeht, man hat diesen nicht umsonst gegen iTunes antreten lassen.

deekey777
2008-07-18, 16:56:06
wann kommt x.264 endlich in der CUDA-version?

Vielleicht habe ich die Äußerungen der x264-Entwickler falsch verstanden, aber es sieht so aus, dass es kein x264@CUDA geben wird, denn Avail Media ist auf FPGAs umgesattelt.

Auch traue ich Cyberlink PowerDirector nicht viel, was H.264-Encoding angeht. Andererseits: Es muss nicht immer H.264 sein, VC-1 ist alles andere als schlecht.

robbitop
2008-07-18, 17:03:23
Na FPGAs bieten nicht annähernd ähnliche Leistungsregionen wie heutige GPUs. Hinzu kommt, dass man die erst entwickeln muss. Gerade für aufwändige Rekonstruktions- oder Detailfilter, wie man sie in Avisynth kennt, wäre die GPU eine günstige Möglichkeit all diesen Kram in Echtzeit zu realisieren.
Soweit ich weiß, haben die Videoprozessoren, von denen Denis immer so schwärmt, solche Dinger verbaut.

Gast
2008-07-31, 21:28:00
Vielleicht habe ich die Äußerungen der x264-Entwickler falsch verstanden, aber es sieht so aus, dass es kein x264@CUDA geben wird, denn Avail Media ist auf FPGAs umgesattelt.

Auch traue ich Cyberlink PowerDirector nicht viel, was H.264-Encoding angeht. Andererseits: Es muss nicht immer H.264 sein, VC-1 ist alles andere als schlecht.
Irgendwie scheint VC-1 auch weniger rechenintensiv als h264 zu sein.Die Cpu-Last ist viel geringer.

deekey777
2008-08-06, 23:24:44
VC-1 ist qualitativ ein sehr guter Codec, ist nicht umsonst neben H.264 und MPEG2 obligatorischer Codec für HD DVD und BD.
Die Encoding-Performance scheint nicht übel zu sein, da VC-1 ua CABAC nicht beherrscht. Mich persönlich würde schon interessieren, ob VC-1 nicht die bessere Alternative für GPU-Encoding wäre als H.264 Baseline.

http://www.elementaltechnologies.com/news.php?area=news

ETI will be at SIGGRAPH, August 12th-14th
2008-07-29

Elemental is excited to have a presence at the SIGGRAPH 2008 show in Los Angeles, California. We'll be sharing a booth with our friends from NVIDIA, Booth #554. Come meet Strategic Account Executive Steve Goffena as he shows off a beta version of Elemental's GPU-accelerated RapiHD™ Accelerator for Adobe Premiere® Pro. Please stop by and say hi

deekey777
2008-08-12, 15:37:22
weis nicht ob schon gepostet (177.83_whql 120mb - da müssten physx treiber schon dabei sein):
http://www.nvidia.com/content/forcewithin/us/download.asp

Ua ist dort auch der Badaboom-Converter 0.9 (voller Umfang, aber auf 30 Umwandlungen eingeschränkt).

TheBrother
2008-08-12, 16:57:39
Schon nett das teil: Standard DVD -> 720p mit 62 FPS

http://img352.imageshack.us/img352/1381/badaboomlw6.th.jpg (http://img352.imageshack.us/my.php?image=badaboomlw6.jpg)

Von der Geschwindigkeit schon beeindrucken.

Gruß

Brother

deekey777
2008-08-14, 16:21:35
Hier ist die Meinung eines der x264-Entwicklers:
Anaylsis of Baseline encoder, thanks to a stream from Cruncher:

1. No partitions in P-macroblocks. At all. p16x16 only. This seems rather silly given that this thing is marketed as, among other things, an iPod encoder...

2. Pyramidal motion search; the motion in some frames can be distinct inly divided into 16x16 groups of macroblocks, 8x8, 4x4, 2x2, etc.

3. No row-based ratecontrol: I'm not sure how much this impacts VBV. If they had lookahead, this wouldn't be a huge problem, but...

4. Their ratecontrol is completely broken. In static scenes, it will suffer the "waving quantizer effect," where it has a couple huge frames, then a bunch of tiny ones, then a couple huge, etc, repeated continuously until the scene ends. Obviously, this drastically changing quality looks awful visually.

5. No adaptive quantization; I doubt they have any psy-opts at all.

6. I'm going to guess that they do have DCT decimation of some sort, as empty 8x8 CBPs seem to be slightly biased in favor of.

7. No scenecut detection whatsoever.

8. I suspect that they don't have any fast-pskip; this makes some sense, I guess, given that its a graphics card implementation.

9. Their motion search is slightly bugged; in a letterboxed video with a completely black top section, you'll find motion vectors that are purely horizontal. This reminds me of an old bug in the a certain encoder, way back, which omitted checking the predicted motion vector when doing a diamond search, and only searched away from it, resulting in cascading motion vectors pointing in the right horizontal direction. In this case, it could be caused by the pyramidal motion search catching motion from below the letterboxing during the higher-level searches, and carrying it down to the lower-level searches.

10. There is almost surely no RDO in this encoder. In fact, I get an itchy feeling they're using SAD for mode decision, though I can't be sure.

The overall quality, ignoring cases where the ratecontrol decides to bork, is somewhat comparable to x264 on absolute fastest Baseline Profile settings with AQ and all psy-opts off.

florymonth
2008-08-17, 20:12:01
Bezieht sich das jetzt nur auf die Datei,die für den Ipod konvertiert wurde??
Wenn nicht,wäre das wirklich schwach.

TheBrother
2008-08-17, 20:38:32
Es gibt hier (http://forum.doom9.org/showthread.php?p=1170987#post1170987) Vergleichsshots da sieht der Badaboom Encoder echt schlecht aus.

Gruß

Brother

pest
2008-08-17, 21:01:19
Es gibt hier (http://forum.doom9.org/showthread.php?p=1170987#post1170987) Vergleichsshots da sieht der Badaboom Encoder echt schlecht aus.

Gruß

Brother

x264 hätte man aber auch mit 1pass testen können, so ist es etwas unfair, obwohl die (nichtvorhandene) Qualität unübersehbar ist

DevilX
2008-08-17, 21:06:15
Ich hab nen mpg2 HD Video mit 1800p durchlaufen lassen, die Qualität war unter alles sau...

HarryHirsch
2008-08-18, 00:03:03
ich hab das schon mal gefragt: wird denn bei der gpu lösung 1 oder 2 pass verwendet? und geht das überhaupt?

deekey777
2008-08-18, 01:42:49
x264 hätte man aber auch mit 1pass testen können, so ist es etwas unfair, obwohl die (nichtvorhandene) Qualität unübersehbar ist
Ich habe NeroShowtime verwendet: 1 Pass, gleiche Bitrate (840 kbit/s), iPhone-Profil. Im Badaboom alles entsprechend eingestellt.
Die 8600GT (540/~1200/400) war mit 35 FPS um 5-8 FPS schneller als die CPU (X2 3600+ mit 2 GHz für S939), aber die Bildqualität war deutlich schlechter.

ich hab das schon mal gefragt: wird denn bei der gpu lösung 1 oder 2 pass verwendet? und geht das überhaupt?

Wenn die CPU das Video analysiert?
Selbst als iPhone-Converter kann Badaboom nicht überzeugen. Der Encoder ist einfach nicht ausgereift.

HarryHirsch
2008-08-18, 01:49:23
Wenn die CPU das Video analysiert?
Selbst als iPhone-Converter kann Badaboom nicht überzeugen. Der Encoder ist einfach nicht ausgereift.

na also, ist doch garnicht so schwer. ist also der gleiche scheiss wie von ati, der anscheinent nur auf cpu lief.
eine cpu kann halt bei solchen sachen nicht durch eine simple gpu ersetzt werden.

deekey777
2008-08-18, 02:02:14
Der AVIVO-Transcoder läuft weiterhin auf der CPU.
Keiner von uns weiß, ob die Badaboom-Entwickler das nötige Knowhow besitzen, was aber klar ist, dass sie noch am Anfang sind. Die Beta-Version des Encoders ist wirklich sehr schwach, man hätte deutlich mehr daraus machen können.
Es gibt ja noch Cyberlink mit Power Producer 7, das irgendwann um GPU-Unterstützung erweitert werden soll. An sich müssten sie das nötige Wissen besitzen, um einen vernünftigen Encoder zu bringen, der sich die Grafikkarte zu Nutze macht.

Eigentlich brauchen wir einen Encoder, der die CPU und die GPU nutzt.

HarryHirsch
2008-08-18, 02:11:23
Der AVIVO-Transcoder läuft weiterhin auf der CPU.
Keiner von uns weiß, ob die Badaboom-Entwickler das nötige Knowhow besitzen, was aber klar ist, dass sie noch am Anfang sind. Die Beta-Version des Encoders ist wirklich sehr schwach, man hätte deutlich mehr daraus machen können.
Es gibt ja noch Cyberlink mit Power Producer 7, das irgendwann um GPU-Unterstützung erweitert werden soll. An sich müssten sie das nötige Wissen besitzen, um einen vernünftigen Encoder zu bringen, der sich die Grafikkarte zu Nutze macht.

Eigentlich brauchen wir einen Encoder, der die CPU und die GPU nutzt.

jo den wird es aber nicht geben weil cpus ja zur schwarzen macht gehören und gpus das wundermittel sind

Gast
2008-08-18, 15:33:02
Mit Open Cl wäre das möglich.Da werden die Aufgaben auf Gpu und Cou aufgeteilt.

Gast
2008-08-18, 16:01:52
Ohne Standardisierung läuft die ganze Sache eh nicht zur Höchstform auf.
Ich hoffe, NV wird in Zukunft kein eigenes Süppchen mehr kochen...

AnarchX
2008-08-18, 19:02:45
Badaboom: A Full Test of Elemental's GPU Accelerated H.264 Transcoder @Anand
(http://www.anandtech.com/video/showdoc.aspx?i=3374&p=1)
... mit Bildqualitätsvergleich und Benchmarks wo doch die Leistung/€ von den GraKa etwas in Frage gestellt wird.

Moralelastix
2008-08-18, 20:12:57
"I want a CUDA enabled version of x264 or of the MainConcept H.264 encoder."

>>
ich auch!

pest
2008-08-18, 21:03:20
... mit Bildqualitätsvergleich

Erstens sind das nicht die selben Bilder und zweitens steht dort nirgends ob I/P/B

Moralelastix
2008-08-19, 17:43:39
Hier gibts die Beta von Badaboom:

http://www.nvidia.com/content/forcewithin/us/download.asp

Freiwillige vor!:biggrin:

Moralelastix
2008-08-20, 17:14:10
Was geht keiner Lust auf Grütze?

Pfff.....Spielverderber!

randy
2008-08-20, 17:33:30
nun, deekey hat weiter oben schon seine erfahrung geposted http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6727814&postcount=131 oder war's das nicht ?

Moralelastix
2008-08-20, 17:46:50
Keine Ahnung was für ne Version hat der getestet?

Badaboom_v0.9.exe ?

deekey777
2008-08-20, 17:54:22
Was geht keiner Lust auf Grütze?

Pfff.....Spielverderber!
Mal abgesehen davon, dass du die letzten paar Postings lesen solltest: Das Teil ist in diesem Zustand pure Geldverschwendung. Mit x264&passendem GUI bist du mit einem halbwegs aktuellen DC-Prozessor nicht nur kaum langsamer*, sondern bekommst auch eine vernünftige Bildqualität.
http://www.anandtech.com/video/showdoc.aspx?i=3374&p=5



*Es wurden nicht die schnellsten Einstellungen verwendet, siehe Comments: http://www.anandtech.com/video/showdoc.aspx?i=3374&p=4&cp=3#comments

Moralelastix
2008-08-20, 17:59:21
Du weisst schon was Grütze is oder?

Und was für ne Version hast du da gestestet und was für ne Version hat anand getestet, war das alles 0.9?

AnarchX
2008-08-25, 21:40:20
NVIDIA CUDA Delivers 446% Speed Increase to Pegasys Video Processing Solution (http://www.techpowerup.com/index.php?69536)

Today, at the NVISION 2008 conference, NVIDIA Corporation in conjunction with Pegasys Inc., makers of TMPGEnc 4.0 XPress multi-format video encoding software, showcased a technology demonstration to optimize video processing with the massively parallel architecture of the GPU.

Using NVIDIA CUDA technology (a C-language programming environment for the GPU), Pegasys is taking advantage of the parallel processing capabilities of an NVIDIA GeForce GPU to create a GPU-enabled beta version of TMPGEnc 4.0 XPress software. The software is used to dramatically increase video decode and processing speed by as much as 446% on a GeForce GPU.

Gast
2008-08-25, 23:16:50
Leider steht da nicht,auf was genau sich diese Prozent beziehen.Divx,h264,Qualitätsstufe.

deekey777
2008-08-26, 01:01:10
NVIDIA CUDA Delivers 446% Speed Increase to Pegasys Video Processing Solution (http://www.techpowerup.com/index.php?69536)
Das wird ein Kopf-an-Kopf-Rennen, denn Cyberlink will das "AVT"-Update in diesem Quartal bringen. Auch soll mittels UVD2 Upscaling durch Grafikkarte durchgeführt werden, und Cyberlink kündigte das Update für PowerDVD 8.0 für den Herbst an.

http://static.pcinpact.com/pdf/docs/06DaveBaumann-HDMedia-Final.pdf

Gast
2008-08-26, 22:33:18
Lest doch erstmal worum es bei TMPGEnc & Cuda geht: nämlich nicht um encoding, sondern um das berechnen der videofilter. Auf der Pegasys website ist die komplette, offizielle pressemitteilung drauf wo alles schön beschrieben und bebildert ist.
Encoding mit der GPU soll laut Pegasys auch irgendwann kommen, sämtliche angaben aus aktuellem anlass beziehen sich aber ausschliesslich auf die berechnung der videofilter über Cuda (wobei es bei 2 von 5 filtern überraschenderweise (deutlich) langsamer läuft als auf dem Q9450; bei den restlichen 3 geht die sau dann ab).

deekey777
2008-08-28, 11:54:04
Lest doch erstmal worum es bei TMPGEnc & Cuda geht: nämlich nicht um encoding, sondern um das berechnen der videofilter. Auf der Pegasys website ist die komplette, offizielle pressemitteilung drauf wo alles schön beschrieben und bebildert ist.
Encoding mit der GPU soll laut Pegasys auch irgendwann kommen, sämtliche angaben aus aktuellem anlass beziehen sich aber ausschliesslich auf die berechnung der videofilter über Cuda (wobei es bei 2 von 5 filtern überraschenderweise (deutlich) langsamer läuft als auf dem Q9450; bei den restlichen 3 geht die sau dann ab).
Stimmt genau. Wurde bei B3D auch klar gestellt.

Edit: Sie nutzen die GPU auch zum Decodieren des Videos, was die CPU-Last senkt.

http://tmpgenc.pegasys-inc.com/en/press/08_0825.html

Bullz
2008-08-29, 14:16:33
schnellfrage, kann man nun gescheit mit der gpu encoden... ? Und wenn ja mit welcher. Habe gerade nicht die Zeit alles durchzulesen, nebenher hab ich den den letzten post auch nicht viel verstanden

Gast
2008-08-29, 19:10:28
schnellantwort: nein.

Gast
2008-09-03, 14:24:13
schnellantwort: nein.
Ausführliche Begründung??

Gast
2008-09-03, 20:53:22
Er hatte eine schnellfrage gestellt, weil er keine zeit hat den thread durchzulesen, da habe ich ihm eine schnellantwort gegeben. Schnell heisst nicht ausführlich. Wenn dich die schnellantwort nicht zufriedenstellt, dann lies ausführlich den thread. ;)

Gast
2008-09-12, 18:07:27
Wird auch mal langsam Zeit,daß die Gpus für solche Aufgaben auch genutzt werden.Selbst mit den schnellsten Hauptprozessoren dauert Encoding ewig.

Deinorius
2008-09-19, 20:58:30
Das größte Problem liegt erstmal darin, dass alle GPUs, sowohl von ATI, nivida und hoffentlich auch von Intel (Larabee) den gleichen Standard nutzen können. Das Fortgeschrittenste derzeit ist CUDA und das können derzeit offiziel nur nvidia-GPUs. Mit ATI-GPUs gehts theoretisch auch (gabs mal einen, der hat CUDA auf ATI angeblich ermöglicht) und zu Larabee kann keiner etwas sagen.

Man kann jetzt zwar für CUDA programmieren, aber ob das so auch bleibt, oder ob sich OpenCL oder DirectX11 durchsetzt... wer weiß.

Gast
2008-09-19, 21:08:06
DirectX11

das kannst du schon mal streichen ;)

Deinorius
2008-09-19, 21:27:11
Wieso? Compute Shader sollen darin kommen. Man kann es dann natürlich nicht in Linux und MacOS einsetzen. Aber das hat bei anderen Sachen auch keinen Unterschied gemacht.
Ich sag jetzt nicht, dass es sich sicher durchsetzt, aber man sollte es nicht schon vorweg unterschätzen. Allein schon deswegen nicht, weil es noch nichtmal draußen ist.

Gast
2008-09-20, 20:05:30
Das größte Problem liegt erstmal darin, dass alle GPUs, sowohl von ATI, nivida und hoffentlich auch von Intel (Larabee) den gleichen Standard nutzen können.

wenn es schnell sein soll muss es sowieso an die hardware angepasst werden, von daher ist ein unterschiedlicher standard kein so großes problem.

Deinorius
2008-09-20, 22:52:37
Mag ja sein, dass ich mich da irre, denn ich kenne mich ja nicht soo gut darin aus, aber...

Bei einer API wie DirectX wird ja immerhin die Hardware danach aufgebaut. Schließlich hat das ja den Sinn Produktionskosten seitens der Programmierer zu sparen. Natürlich kann immer optimiert werden, aber das liegt doch eher eine Prioritätsstufe unter dem Standard/API.

Schnelligkeit bringt nicht viel, wenn man nicht möglichst viele Kunden/Anwender erreichen kann. Und gerade bei profitorientierten Unternehmen gilt das.

Gast
2008-09-21, 00:01:22
Bei einer API wie DirectX wird ja immerhin die Hardware danach aufgebaut.

sagen wir mal so, eine API wird für einen bestimmten verwendungzweck geschrieben und sowohl hard- als auch software darauf ausgerichtet.

bei DirectX bzw genauer Direct3D (jetzt auf grafikkarten bezogen) ist das recht einfach, da man ein genau abgestecktes einsatzgebiet hat, nämlich 3D-grafikdarstellung.

bei GPGPU ist das ganze schon sehr viel schwieriger, da man praktisch unendlich viele einsatzgebiete hat.


Schließlich hat das ja den Sinn Produktionskosten seitens der Programmierer zu sparen. Natürlich kann immer optimiert werden, aber das liegt doch eher eine Prioritätsstufe unter dem Standard/API.

stimmt schon, der weg geht immer mehr in die richtung auf performance zugunsten einfacherer programmierung zu verzichten, da die hardware immer billiger wird und im gegenzug dazu die software immer teurer.

das ist allerdings nicht unbedingt das einsatzgebiet von GPGPU. GPGPU wird genau dort gebraucht wo die performance mit heutiger hardware eben nicht ausreicht und man jedes bischen an leistung braucht, welche man kriegen kann.

hinzu kommt, dass GPUs sehr viel anfälliger für unpassenden code sind wie beispielsweise CPUs.


GPGPU wird immer nur für spezielle extrem performancekritische teile zum einsatz kommen, für die sich eine extra optimierung auch auszahlt. es wird kaum jemand auf die idee kommen ganze programme auf der GPU laufen zu lassen.

vergleichbar ist das ganze eventuell mit assembleroptimierungen, auch hier musst du die zielarchitektur genau kennen um das optimum herauszuholen, unter umständen sogar unterschiedliche cachegrößen bei gleichen architekturen berücksichtigen.

das ganze wird natürlich auch nur bei performancekritischen stellen gemacht, man schreibt deshalb nicht das ganze programm in assembler.

Skinner
2008-09-22, 21:54:46
Wer mal ein gutes beispiel für sinnvolle Cuda Programm sucht, sollte sich mal DGAVCIndexNV anschauen :D

Ein bissel Ahnung von Avisynth wäre klar von Vorteil.

Das teil rockt die hütte :eek:

deekey777
2008-09-22, 21:57:31
Wer mal ein gutes beispiel für sinnvolle Cuda Programm sucht, sollte sich mal DGAVCIndexNV anschauen :D

Ein bissel Ahnung von Avisynth wäre klar von Vorteil.

Das teil rockt die hütte :eek:
Es gibt ja so ein Bildchen, wo einem Spieler sein Baseballschläger aus den Händen fliegt - direkt in die Zuschauer. Und der Typ der da so ruhig sitzt ist ATi.
Die letzte CUDA-Version enthält auch die nötige API, um den Videoprozessor direkt zu nutzen, das ist einfach nur ein Hammer.

Skinner
2008-09-22, 22:09:14
Genau das wird mit dem Programm auch gemacht ;)

Für leute wie mich die viel Videos encoden, ist das teil ein Traum.
Angeblich soll ja noch eine MPEG2 Version kommen (DGIndex). Wenn das der Fall ist, fehlt nur noch ein x264 cuda encoder.

deekey777
2008-09-22, 22:19:10
Genau das wird mit dem Programm auch gemacht ;)

Für leute wie mich die viel Videos encoden, ist das teil ein Traum.
Angeblich soll ja noch eine MPEG2 Version kommen (DGIndex). Wenn das der Fall ist, fehlt nur noch ein x264 cuda encoder.
Ich wollte nur deutlich machen, um was es sich handelt.

Einen x264@CUDA-Encoder wird es nicht geben, denn die Portierung wurde (vorerst?) aufgegeben.

Bei ATi werden immernoch große Sprüche geklopft, aber bis jetzt sind weder AVT noch Cyberlinks Programm-Update, das AVT nutzt, verfügbar.

€: Auch CoreAVC wird mittels CUDA von Grafikkarten beschleunigt.

(+44)
2008-09-22, 22:20:38
Wo gibts besagtes Programm? Google spuckt nur 4 results aus, und die führen relativ ins Leere.

robbitop
2008-09-22, 22:30:08
Wer mal ein gutes beispiel für sinnvolle Cuda Programm sucht, sollte sich mal DGAVCIndexNV anschauen :D

Ein bissel Ahnung von Avisynth wäre klar von Vorteil.

Das teil rockt die hütte :eek:
Lassen sich damit alle Avisynthfilter auf der GPU ausführen? Geht das auch in Echtzeit wie es mit ffdshow geht?

Skinner
2008-09-22, 23:56:16
€: Auch CoreAVC wird mittels CUDA von Grafikkarten beschleunigt.

Cuda ist in CoreAVC nicht integriert. Bisher jedenfalls nicht

Und ob x264 mit Cuda wirklich auf eis liegt, wissen wohl nur die entwickler. Kann auch gut sein, das die einfach in ruhe den encoder entwickeln wollen.

Lassen sich damit alle Avisynthfilter auf der GPU ausführen? Geht das auch in Echtzeit wie es mit ffdshow geht?

Nein. Es wird nur der Videostrom von der GPU Decodiert. Den Rest machs weiterhin die CPU. Jedenfalls solange bis Cuda Filter kommen ;)

deekey777
2008-09-23, 00:12:02
Cuda ist in CoreAVC nicht integriert. Bisher jedenfalls nicht

Und ob x264 mit Cuda wirklich auf eis liegt, wissen wohl nur die entwickler. Kann auch gut sein, das die einfach in ruhe den encoder entwickeln wollen.
...

Wird - in der Zukunft, siehe CoreAVC-Thread.
:biggrin:

Deinorius
2008-09-23, 00:16:47
Die CoreAVC-Entwickler versprechen schon lange GPU-Unterstützung. Ich hoffe, da kommt jetzt endlich bald mal was. Und wenn es über CUDA geht (über VP2 würde es anscheinend nicht viel bringen, das wäre kein Unterschied zu anderen VP2/UVD-Decodern), dann hoffe ich, dass ATI-Unterstützung auch nicht zu lange braucht.

robbitop
2008-09-23, 07:55:03
Nein. Es wird nur der Videostrom von der GPU Decodiert. Den Rest machs weiterhin die CPU. Jedenfalls solange bis Cuda Filter kommen ;)
Macht das nicht seit Jahren eh der Videoprozessor auf den Geforces? Oder muss das bei Avisynth wieder die CPU übernehmen? Falls ja spart das natürlich ein bisschen Rechenzeit.

Deinorius
2008-09-23, 11:21:54
Es würde mich eigentlich sehr wundern, wenn Avisynth überhaupt in den nächsten 5 Jahren überhaupt für GPUs optimiert/programmiert werden. Ich werd schon froh sein, wenn Multithreading standardmäßig integriert ist, das ist derzeit eher eine sporadische Lösung, bei der man sich gut durchlesen muss.

Wenn ich mich nicht irre, muss nicht nur Avisynth selber, sondern besonders die Filter für GPU programmiert werden und diese sind immerhin von mehreren Autoren geschrieben.

robbitop
2008-09-23, 12:40:31
Mir wäre ffdshow wichtiger, da man das Videomaterial, was man schaut in Echtzeit schicker machen kann.

Skinner
2008-09-23, 12:52:01
Falls ja spart das natürlich ein bisschen Rechenzeit.

Das spart enorm viel Rechenzeit

robbitop
2008-09-23, 12:56:33
Das spart enorm viel Rechenzeit
Bein nem Quaddi warens rund 10-15% im Doom9-Forum.

Gast
2008-09-23, 13:08:34
Macht das nicht seit Jahren eh der Videoprozessor auf den Geforces?


über DXVA funktioniert das nur wenn der decoder direkt mit dem richtigen renderer verbunden ist (XP overlay, Vista EVR), wird der videostrom anderswo umgeleitet (z.b. postprocessing-filter, oder eben auch in eine datei oder einen anderen encoder) muss die CPU das decoding übernehmen


Oder muss das bei Avisynth wieder die CPU übernehmen?

ja.

Skinner
2008-09-23, 13:24:08
Bein nem Quaddi warens rund 10-15% im Doom9-Forum.

mit dem was ich hier im moment an ergebnissen habe, ist das einiges mehr.
aber ich bin noch am testen.

robbitop
2008-09-23, 14:44:25
mit dem was ich hier im moment an ergebnissen habe, ist das einiges mehr.
aber ich bin noch am testen.
Dein X2 ist mit dem 3,5 GHz Q6600 im Doom9 Forum auch nicht wirklich vergleichbar :biggrin:

Skinner
2008-09-23, 14:49:34
Dein X2 ist mit dem 3,5 GHz Q6600 im Doom9 Forum auch nicht wirklich vergleichbar :biggrin:

Das in der Signatur ist mein HTPC und nicht mein Arbeits PC!

robbitop
2008-09-23, 14:57:05
Das in der Signatur ist mein HTPC und nicht mein Arbeits PC!
Achso. Na dann immer mal rein mit dem Hauptsystem in die Signatur. ;)

Skinner
2008-09-23, 15:47:52
Achso. Na dann immer mal rein mit dem Hauptsystem in die Signatur. ;)

http://www.forum-3dcenter.org/vbulletin/member.php?u=11#additionalinfo_list2

Meine CPU takte ich aber nach lust und Laune ;)

Lonesloane
2008-09-24, 10:22:07
Eine Graka-Unterstützung für Nero Recode/Vision und zum shrinken wäre auch nicht schlecht.

Deinorius
2008-09-26, 21:08:40
bei GPGPU ist das ganze schon sehr viel schwieriger, da man praktisch unendlich viele einsatzgebiete hat. Ein bisschen widersprichst du dich selbst. Siehe unten.
GPGPU wird immer nur für spezielle extrem performancekritische teile zum einsatz kommen, für die sich eine extra optimierung auch auszahlt. es wird kaum jemand auf die idee kommen ganze programme auf der GPU laufen zu lassen. Insofern muss man die GPUs nur darauf auslegen, wo es sich auch auszahlt. Im Grunde also für Programme wie Folding/SETI/usw.@home, Videoencoding, Physik und was weiß ich. Es ist also ziemlich überschaubar. Ich würde jedenfalls nicht mal auf die Idee kommen, Office-Programme für GPUs zu optimieren. :|
das ist allerdings nicht unbedingt das einsatzgebiet von GPGPU. GPGPU wird genau dort gebraucht wo die performance mit heutiger hardware eben nicht ausreicht und man jedes bischen an leistung braucht, welche man kriegen kann. Jein, wenn ich das mal so sagen darf. Es ist schon klar, dass man das letzte bisschen aus einer Hardware herausholen will. Aber man hat auch so schon gesehen, wieviel schneller man mit GPUs sein kann. Wenn die Leistungssteigerung bei einfacher Programmierung 10x gegenüber CPUs beträgt, mit optimierter Programmierung hingegen, sagen wir mal, bei 13x liegt, dann wäre ich allein schon über die 10fache Steigerung mehr als glücklich.
Ich verweise hier an Dark Shikari aus dem engl. Doom9 Forum, welcher gesagt hat, dass man für x264gpu ein großes Team bräuchte, um es richtig für GPUs programmieren zu können (also schön optimiert).
Es ist zwar möglich, aber was bringt mir ein super schnelles x264, wenn es danach gar einige Hunderter kostet. :P

deekey777
2008-10-07, 23:08:08
Photoshop CS4 acceleration works on ATI (http://www.fudzilla.com/index.php?option=com_content&task=view&id=9809&Itemid=65)

ATI Radeon HD 4000 will accelerate Premiere and in Nvidia's case, you need an ultra expensive Quadro for that. This makes a big difference and ATI told Fudzilla that HD 3000 series will help accelerate video transcoding that will lead to faster video editing. 3D effects and transition, something that you use regularly in video edition are also accelerated on the GPU. ATI HD 4000 series might definitely sell well in this video editing market as you pay a fraction of the price of Quadro and still get the acceleration. It will be fun to compare Nvidia vs ATI on this particular application set.

Photoshop CS4 extended is also accelerated on both Radeon HD 4000 and 3000 series. Both cards will help accelerate image and 3D model previewing including panning, zooming and rotation. ATI can accelerate 3D manipulations on photos (map an image onto a 3D object such as a sphere for example).

PHuV
2008-10-27, 13:33:16
Erste Anwendung ist nun kaufbar:

Download: Testversion Badaboom 1.0 Videokonverter mit GPU-Beschleunigung (http://www.pcgameshardware.de/aid,664907/Download/Download_Testversion_Badaboom_10_Videokonverter_mit_GPU-Beschleunigung)

Kaffetasse
2008-10-31, 13:40:15
Der Windows MovieMaker bzw DVDMaker scheint auch auf Ati zu zugreifen, denn wenn ich diese etwas übertakte, schlägt DVDMaker Alarm und verweigert den Dienst. Auch das codieren an sich geht schon recht flott voran, hab ja nur einen E5200@3,3Ghz und eine 4850.
Vom capturen ( 60min miniDV ) bis zur fertigen DVD brauche ich bzw der PC etwa 1,5h.
Also wenn da nicht die GraKa hilft weiß ich auch nicht. ;D

Modulor
2008-10-31, 23:00:22
In den nächsten Tagen wird auch Pegasys eine offizielle Ankündigung bezgl. CUDA machen.Dürfte dann wohl demnächst per Update in TMPGEnc 4.0 Xpress und dem neuen "Reborn" Verwendung finden.Als Nutzer von TMPGEnc 4.0 XPress bin ich sehr gespannt was CUDA wirklich bringt...

Kaffetasse
2008-11-02, 04:19:51
Hab grad wieder ein Vid bearbeitet, dabei mal mit GPUz die Taktraten beobachtet und ja, die Videokarte schaltet in den Performancemodus mit 700mhz, also aktiv beteiligt.

JaDz
2008-11-02, 08:46:32
In den nächsten Tagen wird auch Pegasys eine offizielle Ankündigung bezgl. CUDA machen.Dürfte dann wohl demnächst per Update in TMPGEnc 4.0 Xpress und dem neuen "Reborn" Verwendung finden.Als Nutzer von TMPGEnc 4.0 XPress bin ich sehr gespannt was CUDA wirklich bringt...
Da ist es: http://tmpgenc.pegasys-inc.com/en/product/te4xp.html#tabs

Gast
2008-11-02, 09:50:05
Na ganz toll, die 8800 mal wieder nicht unterstützt:

NVIDIA CUDA technology is now supported for processing the video filters and decoding. The multiple cores of the GPU can divide the workload and run the processes in parallel for a huge boost in processing speed over your computer's CPU*. This lets you apply multiple filters such as video noise removal (time), smart sharpen, color correction, and more without having to add hours to your output time!

*Speed improvements are dependent on your hardware specifications.
The GeForce8800 GTX/GTS video card using the G80 core is not currently supported. Thank you for your understanding.
Decoding benefits apply to MPEG-1/2 video only and may produce unexpected video output quality compared to regular CPU decoding.

TheBrother
2008-11-02, 09:58:48
Gerade die 30 Tage Trial installiert: ist schon nett das Ding, unterstützt vor allem Main und High Profile (nicht nur Baseline wie Badaboom). Jetzt müsste mir das Ding nurnoch 99$ Wert sein :o

Gruß

Brother

Gast
2008-11-02, 11:10:12
Gerade die 30 Tage Trial installiert: ist schon nett das Ding, unterstützt vor allem Main und High Profile (nicht nur Baseline wie Badaboom).

allerdings werden nur die filter von der GPU beschleunigt, das encoding wird weiterhin von der cpu übernommen.

Modulor
2008-11-02, 16:52:29
allerdings werden nur die filter von der GPU beschleunigt, das encoding wird weiterhin von der cpu übernommen.

Selbst einfache Filter sind sehr zeitraubend und können die Zeit zum Enkodieren schonmal verdoppeln oder verdreifachen.Da ist CUDA (höchstwahrscheinlich) schon sehr hilfreich.Pegasys würde das nicht implementieren wenn der Nutzen fragwürdig wäre...
Kann es leider noch nicht testen da es noch kein Update für die deutschsprachige Version gibt...hoffentlich lassen die sich nicht wieder mehrere Monate Zeit damit :| - will auch CUDA! :D

mapel110
2008-11-02, 16:57:02
Ich hab damit eben ein Mpeg2-File in Mpeg4 encodiert. Ging etwa 30-40 % schneller dank meiner 8800 GT.

TheBrother
2008-11-03, 17:50:21
Cyberlink PowerDirector7 (http://www.cyberlink.com/prog/product/main.do?ProductId=4&Tab=6) scheint auch soweit zu sein. Nur noch gibts kein Update zum runterladen.

Gruß

Brother

deekey777
2008-11-03, 18:32:10
Das Update kommt sicherlich, aber so oder so: Das ist schon die vierte Anwendung, die von einer Grafikkarte&CUDA profitiert (Badaboom, Arcsofts Theater, TMPGEnc und jetzt PowerDirector). Was ist bloß los bei AMD? AMD und Cyberlink haben während der Vorstellung der HD4800-Serie auch AVT vorgestellt und in Aktion gezeigt, aber das dritte Quartal ist schon zu Ende, von AVT fehlt jede Spur; es sit nicht einmal klar, ob PowerDVD 8 die versprochenen Bildfilter nutzt (UVD2).

Walkman
2008-11-03, 18:52:10
Von den genannten Programmen kann aber keines ein avi File in MPEG 4 AVC umwandeln oder? Mit CUDA meine ich.

Modulor
2008-11-03, 22:30:07
Von den genannten Programmen kann aber keines ein avi File in MPEG 4 AVC umwandeln oder? Mit CUDA meine ich.

TMPGEnc 4.0 XPress kann AVI in ISO MPEG4 oder MPEG4 AVC transkodieren.Der verwendete Codec ist für CUDA unerheblich da die Transkodierung logischerweise nach Anwendung der Filter erfolgt.

deekey777
2008-11-03, 22:39:18
Wenn mich nicht alles täuscht, wird das Video bei der Umwandlung von der Grafikkarte decodiert.

Modulor
2008-11-03, 22:51:54
Wenn mich nicht alles täuscht, wird das Video bei der Umwandlung von der Grafikkarte decodiert.

Im Falle von TMPGEnc 4.0 Xpress trifft das leider nur auf MPEG 1/2 Videos zu.Und selbst da muß mit einer fehlerhaften Decodierung gerechnet werden ("...may produce unexpected video output quality compared to regular CPU decoding." - wie Pegasys dieses Nebenwirkung euphemistisch beschreibt :D).

deekey777
2008-11-04, 00:26:28
Da habe ich mich von DGAVCDecNV 1.0.5 leiten lassen.
IMO ist es eine Frage der Zeit, bis auch CUDA-Filter für AviSynth auftauchen. Und zwar kostenlos.

aths
2008-11-04, 11:38:06
Ich möchte anregen, dass Cuda nicht CUDA geschrieben wird da man es "Kuhda" spricht, nicht "C. U. D. A." Es fügt sich auch besser in den Fließtext ein, wenn man Cuda schreibt.

An die "offiziellen" Schreibweisen braucht man sich nicht zu halten, wenn sie den Schreibregeln widersprechen. Sonst müsste man auch NVIDIA GEFORCE (wahrscheinlich noch mit (TM) oder (R) oder so) schreiben, oder ATI RADEON.

Gast
2008-11-04, 12:07:11
Ich möchte anregen, dass Cuda nicht CUDA geschrieben wird da man es "Kuhda" spricht, nicht "C. U. D. A." Es fügt sich auch besser in den Fließtext ein, wenn man Cuda schreibt.

CUDA ist ein akronym weshalb man es durchaus in großbuchstaben schreiben kann.

TheBrother
2008-11-07, 16:15:31
Patch sollte es bald geben:

CyberLink PowerDirector 7 Optimized for NVIDIA CUDA is Now Available

klick (http://www.cyberlink.com/prog/company/press-news-content.do?pid=1898)

Gruß

Brother

deekey777
2008-11-10, 20:52:06
Die Trial-Version von PowerDirector enthält CUDA-DLLs, also kann jeder mit einer GF8 und neuer das Programm auf GPGPU-Fähigkeiten testen.
Gleiches gilt auf TMPGEnc. :)

robbitop
2008-11-10, 21:17:32
Da steht was von Videos rendern aber nicht vom Encoding.
Gibts eigentlich schon ein Plugin für ffdshow dass das Decoding über CUDA macht? Denn sobald man ffdshow nutzt, nutzt man das DXVA Encoding der Karte ja leider nichtmehr so dass man sinnlos Rechenzeit fürs Decoding ausgeben muss.

mekakic
2008-11-11, 08:07:57
Da steht was von Videos rendern aber nicht vom Encoding.
Gibts eigentlich schon ein Plugin für ffdshow dass das Decoding über CUDA macht? Denn sobald man ffdshow nutzt, nutzt man das DXVA Encoding der Karte ja leider nichtmehr so dass man sinnlos Rechenzeit fürs Decoding ausgeben muss.Echt? Womit nutzt man den DXVA?

robbitop@work
2008-11-11, 08:32:25
Echt? Womit nutzt man den DXVA?
Mit jedem normalen Videoplayer. ;) Oder siehst du beim DivX oder h264 schauen eine hohe CPU-Auslastung? Macht seit Jahren alles die Grafikkarte. Das entfällt bei der Nutzung von ffdshow leider.

mekakic
2008-11-11, 09:07:14
Ich benutze seit Jahren nix anderes als ffdshow, deswegen frage ich ja. Auch da ist zwar die CPU Last nicht so besonders hoch, aber wenn ich z.B. den nativen DivX Codec installiert hätte, würde das die Grafikkarte machen?

Gast
2008-11-11, 11:59:18
Ich benutze seit Jahren nix anderes als ffdshow, deswegen frage ich ja. Auch da ist zwar die CPU Last nicht so besonders hoch, aber wenn ich z.B. den nativen DivX Codec installiert hätte, würde das die Grafikkarte machen?

unter DXVA fällt einiges zusammen, was nun benutzt wird hängt von der verwendeten hard- und software ab.

einerseits mal das videorendering, also das zeichnen des fertig decodierten videos auf die bildschirmposition.

dafür muss der player einen hardwarebeschleunigten renderer nutzen (overlay unter XP, EVR unter vista)

das rendering wird üblicherweise schon ewig lange von der grafikkarte gemacht. dabei können auch von der hardware unterstütze PP-filter (z.b. deinterlacing, schärfefilter etc.) benutzt werden.

beim encoding entfällt dieser teil natürlich, da das video ja nicht auf den bildschirm wiedergegeben wird.

als nächstes kann die hardware noch das video decoden, je nach hardware kann hier mehr oder weniger beschleunigt werden. allerdings funktioniert das DXVA nur unter bestimmten umständen.
erstmals muss die hardware den videocodec überhaupt beschleunigen können. die hardware unterstützt heute üblicherweise MPEG2, VC1/WMV und H.264.
als nächstes muss der decoder das ganze noch unterstützen, was auf nur sehr wenige freeware-decoder zutrifft (mir fallen im moment nur die decoder vom MPC-HC ein, bei denen ist die beschleunigung auch beschränkt). die meisten kommerziellen decoder unterstützen allerdings mittlerweile DXVA-decoding (cyberlink, windvd, nero)
dazu muss noch der richtige renderer verwendet werden (vista EVR, XP overlay/vmr) und es darf kein filter dazwischen sein.

was cyberlink über CUDA hier beschleunigt sind lediglich die filter, die zum bearbeiten des videos eingesetzt werden können, für reines encoding von A nach B sollte das ganze nichts bringen.

AnarchX
2008-12-09, 22:10:28
Badaboom 1.1 to come out in mid-December

When we spoke in October, Elemental Technologies CEO Sam Blackman revealed that a Badaboom update with support for new video formats would come out before long. Well, Nvidia has dropped us a line to say Badaboom 1.1 is due in "mid-December," and it's written up a list of the improvements users can look forward to:

# Support for additional input file formats and containers: DivX, Xvid, MpegPEG-1, VC-1, AVI, MKV, among others. The file formats supported by Badaboom 1.0 will still be supported as well.
# Multi-GPU Support: Effectively doubles the transcode performance of Badaboom by letting the users run two or more Badaboom applications to run on separate video clips simultaneously with multiple NVIDIA GPU working on a separate video clips to get the work done faster.
# New output profiles: YouTube, Blackberry Bold and Microsoft Zune have been added. User-customizable outputs are available as well.
# H.264 Main profile output: Provides even higher quality output than version 1.0, especially useful when outputting at resolutions higher than 480p. Baseline profile is still supported.
# 1920x1080 (1080p) output: The largest standard ATSC video resolution now available is an output option, which provides great video quality when combined with Main profile.
http://techreport.com/discussions.x/16022

Gast
2008-12-09, 22:18:28
im neuen forceware für GTA IV befindet sich eine recht interessante datei ;)

http://img161.imageshack.us/img161/588/nvpvewv8.png

robbitop@work
2008-12-10, 09:20:12
Wenn das Mainprofile CABAC enthällt, würden mich erste Ergebnisse interessieren. Natürlich nur 2-pass.

Modulor
2008-12-10, 12:54:21
Ich warte weiterhin auf das deutsche Update für TMPGEnc mit CUDA...ist jetzt über 4 Wochen her daß die englische Version draussen ist,mittlerweile ist die sogar um 2 Buildnummern weiter...:rolleyes:

ollix
2008-12-10, 19:49:06
Benutzt TMPGEnc CUDA nicht nur für die Filter?

Gast
2008-12-10, 20:11:26
Benutzt TMPGEnc CUDA nicht nur für die Filter?


richtig.

Gast
2008-12-10, 21:14:26
Wenn das Mainprofile CABAC enthällt, würden mich erste Ergebnisse interessieren.
Ist das nicht sowieso Pflicht?


Natürlich nur 2-pass.
Das wär mir wieder egal, hauptsache es funktioniert. CRF reicht mir, da ist 2-pass Zeitverschwendung...

Deinorius
2008-12-12, 12:41:45
crf bietet aber nicht jeder an. Es ist zwar ganz nützlich, aber nur wenn einem die Dateigröße relativ wurscht ist.

Coda
2008-12-12, 14:33:24
Ist das nicht sowieso Pflicht?
Soweit ich weiß ja.

LordDeath
2008-12-12, 22:57:14
Bisher habe ich nur CUDA fähige Programme gesehen, die mit recht wenigen Einstellungen Videos encodieren lassen. Gibt es denn schon Programme, wo ich das Aufgabeformat selbst bestimmen kann? Also Auflösung, Codec, Bitraten, Zieldateigröße (mit VBR) usw.?

deekey777
2008-12-13, 00:24:32
TMPGEnc?
Mit dem mitgelieferten MC-Encoder kannst du eigentlich alles einstellen. Leider bekommst du dann nur eine MP4-Datei, sprich der Ton wird auch neucodiert.

Gast
2008-12-13, 00:30:19
TMPGEnc?
Mit dem mitgelieferten MC-Encoder kannst du eigentlich alles einstellen. Leider bekommst du dann nur eine MP4-Datei, sprich der Ton wird auch neucodiert.

TMPGEnc encodiert mittels CPU, lediglich filter werden über CUDA berechnet.

deekey777
2008-12-14, 03:26:53
Wenn das Mainprofile CABAC enthällt, würden mich erste Ergebnisse interessieren. Natürlich nur 2-pass.
Ist das nicht sowieso Pflicht?


Das wär mir wieder egal, hauptsache es funktioniert. CRF reicht mir, da ist 2-pass Zeitverschwendung...
Soweit ich weiß ja.
Ich war mir nicht ganz sicher, habe deswegen im D9-Forum gefragt.
Main Profile bedeutet nicht, dass CABAC benutzt wird, sondern es enthält CAVLC und CABAC zur Auswahl. Sprich: Es kann bei CAVLC bleiben.

Im TMPEnc hat man beim Main-Profile die Wahl zwischen CABAC und CAVLC (und ja, ich weiß, dass CUDA nur für Filter benutzt wird).

robbitop
2008-12-14, 13:44:50
Dachte ich mir schon fast. Die x264 Leute meinten ja schonmal, dass CABAC kaum parallelisierbar ist.

deekey777
2008-12-15, 22:13:22
Yeeha: http://www.anandtech.com/video/showdoc.aspx?i=3475&p=7
Main profile with CABAC support is also enabled, making Badaboom 1.1 closer to a real alternative for high quality rips of DVDs and Blu-rays. The 1.1 beta isn’t ready for prime time but I wanted to see what it could do, so I grabbed my Casino Royale Blu-ray, ripped it to the hard drive (resulting in a 46GB iso). The Blu-ray file structure is pretty straightforward, in the \BDMV\STREAM directory you’ll find a bunch of m2ts files, in this case the 34GB 00000.m2ts file is the main 1080p movie.

mekakic
2008-12-16, 08:21:05
sweet...

robbitop
2008-12-16, 19:41:58
Hm 28,4 fps AVG mit Badaboom beim BluRay Rip im Mainprofile mit CABAC. Wie schnell ist ein aktueller Quaddi (besser der Core i7) bei vergleichbaren Settings?

Gast
2008-12-16, 21:00:00
http://ht4u.net/reviews/2008/intel_nehalem_core_i7/index43.php
Kann man sich dann wohl selber ausrechnen.

robbitop
2008-12-16, 22:14:33
Da steht nicht welches Profil genutzt wurde und wie lang das Video ist. Ich hoffe, Anand liefert bald Vergleichszahlen. Gleiche Settings.

florymonth
2008-12-16, 23:13:43
Hier wären wohl brauchbare Benchmarks:
http://www.tomshardware.com/de/Core-i7-Nehalem,testberichte-240172-15.html
http://www.tomshardware.com/de/Core-i7-Nehalem,testberichte-240172-32.html

Ri*g*g*er
2008-12-17, 09:18:01
Hi all,

sagt mal gibt es irgendwo im Netz eine Anleitung wie man Schritt für Schritt vorgehen muss
um das Encoden über die GPU im Gegensatz zur CPU mal auszuprobieren.

Hier werden einem ja immer nur Bruch/Puzzelstücke an den Kopf geworfen mit denen man nicht viel anfangen kann.

Welche Software bzw. Tool empfehlt Ihr denn ?

Gruss
Ri*g*g*er

TheBrother
2008-12-17, 15:23:14
Badaboom 1.1 wirds wohl heute geben:


Within hours, Badaboom Media Converter version 1.1 will available at your fingertips.


Quelle: Badaboomit.com

TheBrother
2008-12-18, 07:01:56
Badaboom 1.1 Ist da:

klick (http://www.badaboomit.com/?q=node/19)

Direkter Link zum File:

klick (http://download.nvidia.com/downloads/nZone/demos/nzd_Badaboom_Setup_1.1.0.132_Trial.exe)

Skinner
2008-12-18, 18:00:35
http://www.abload.de/img/zwischenablage018bfc.jpg

rennt soweit schonmal gut, gleich mal gucken, ob das ergebniss was taugt ^^

Sorkalm
2008-12-18, 18:59:35
Hat sich denn der Sound verbessert? :)

JaDz
2008-12-18, 20:59:07
TMPGEnc 4.0 XPress Build 4.6.3.268 jetzt auch in Deutsch verfügbar:

http://www.computerbase.de/downloads/software/multimedia/tmpgenc_xpress/

Modulor
2008-12-18, 21:04:45
Pegasys hat heute nun endlich auch das deutsche Update für TMPGEnc XPress 4.0 nachgeschoben und die Ergebnisse mit CUDA sind echt phänomenal ("Transformers" HD Trailer mit 1:57 Länge nach 720x576/MP4/384kbit,Filter: Gaußscher Weichzeichner 85%):
Ohne CUDA: 7:38 (448 Sek.)
Mit CUDA: 3:48 (198 Sek.)

Die CPU/GPU Auslastung pendelt sich beim Transkodieren bei etwa 25%/75% ein.
Eine signifikant schnellere Transkodierung bei Erhöhung von GPU- und Shadertakt von 576 MHz Core Clock (default) auf 702 MHz ist nicht festzustellen (196 Sek. vs. 198 Sek.) wohl aber eine starke Verlangsamung bei auf 435 MHz reduziertem Core Takt (196 Sek. vs. 256 Sek.).

Und wie erwartet wird CUDA nur für die Filter verwendet,ohne aktivierte Filter liegen die Meßergebnisse mit und ohne CUDA nicht auseinander (1:23 Min/ 83 Sek.).

deekey777
2008-12-23, 21:08:35
Ich habe testweise meine 8600GT eingebaut.
http://www.abload.de/img/zwischenablage018bfc.jpg

rennt soweit schonmal gut, gleich mal gucken, ob das ergebniss was taugt ^^
Ich bin ziemlich erstaunt, wie schnell meine 8600GT (1 GB DDR2 x-D) ist. Ich komme auch mindestens 10 fps bei Umwandlung von 1080 auf zB 720, egal ob mit CABAC oder nicht (immer Main 4.1).
Aber: Die umgewandelten 50-Hz-Videos lassen sich nicht abspielen, egal von von ANIXEHD (1080i50) oder ArteHD (720p50). Nach der Umwandlung frieren MPC HCE, MPlayer und VLC ein. Einige zu TS gemuxte H.264-Videos mit 1080p24 lassen sich nicht einmal laden (MPEG2 und VC-1 gehen), auch m2ts geht (alles Samples).
Gerade die Sache mit 50-Hz-Videos ist absoluter Mist, ob sie Europa hassen würden.
Pegasys hat heute nun endlich auch das deutsche Update für TMPGEnc XPress 4.0 nachgeschoben und die Ergebnisse mit CUDA sind echt phänomenal ("Transformers" HD Trailer mit 1:57 Länge nach 720x576/MP4/384kbit,Filter: Gaußscher Weichzeichner 85%):
Ohne CUDA: 7:38 (448 Sek.)
Mit CUDA: 3:48 (198 Sek.)

Die CPU/GPU Auslastung pendelt sich beim Transkodieren bei etwa 25%/75% ein.
Eine signifikant schnellere Transkodierung bei Erhöhung von GPU- und Shadertakt von 576 MHz Core Clock (default) auf 702 MHz ist nicht festzustellen (196 Sek. vs. 198 Sek.) wohl aber eine starke Verlangsamung bei auf 435 MHz reduziertem Core Takt (196 Sek. vs. 256 Sek.).

Und wie erwartet wird CUDA nur für die Filter verwendet,ohne aktivierte Filter liegen die Meßergebnisse mit und ohne CUDA nicht auseinander (1:23 Min/ 83 Sek.).
Die MPEG2-Beschleunigung bringt bei mir etwas (die Filter habe ich nicht ausprobiert).

HarryHirsch
2008-12-23, 21:16:46
Ich habe testweise meine 8600GT eingebaut.

Ich bin ziemlich erstaunt, wie schnell meine 8600GT (1 GB DDR2 x-D) ist. Ich komme auch mindestens 10 fps bei Umwandlung von 1080 auf zB 720, egal ob mit CABAC oder nicht (immer Main 4.1).
Aber: Die umgewandelten 50-Hz-Videos lassen sich nicht abspielen, egal von von ANIXEHD (1080i50) oder ArteHD (720p50). Nach der Umwandlung frieren MPC HCE, MPlayer und VLC ein. Einige zu TS gemuxte H.264-Videos mit 1080p24 lassen sich nicht einmal laden (MPEG2 und VC-1 gehen), auch m2ts geht (alles Samples).
Gerade die Sache mit 50-Hz-Videos ist absoluter Mist, ob sie Europa hassen würden.

Die MPEG2-Beschleunigung bringt bei mir etwas (die Filter habe ich nicht ausprobiert).

scheint ja sehr brauchbar das ganze
wie ist denn die qualität der videos, die funzen?

deekey777
2008-12-23, 22:08:51
scheint ja sehr brauchbar das ganze
wie ist denn die qualität der videos, die funzen?
Annehmbar. Es ist zwar keine BD-Qualität, aber ziemlich gut.

Ein "BD-Rip-Tool" ist Badaboom trotzdem nicht, da ihm einfach die Option fehlt, die Zielgröße zu bestimmen, wofür dann 2-pass-Encoding mehr als wünschenswert ist. Ich habe auf der HDD Aufzeichnungen vom vorletzten HD-Showcase von EinsFestival: Malabgesehen davon, dass diese zu der problematischen Gruppe gehören, bringt es mir nichts, diese Files (deutlich über 8 GB) mit Badaboom umzuwandeln, ohne dabei einen Einfluss auf die Zielgröße&Qualität zu haben.

Modulor
2008-12-24, 21:55:29
scheint ja sehr brauchbar das ganze


Gesehen,gelacht,gelöscht.
Mehr fällt mir zu dem Programm bei dem derzeitigen Entwicklungsstand nicht ein...

HarryHirsch
2008-12-24, 23:51:24
Gesehen,gelacht,gelöscht.
Mehr fällt mir zu dem Programm bei dem derzeitigen Entwicklungsstand nicht ein...

hmm, vielleicht hätte ich ja doch nen :ugly: dahinter setzen sollen

AnarchX
2009-01-09, 16:33:25
Added support for the new NVIDIA CUDA Video Encoder with H.264 optimization

Vielleicht bald ein frei zugänglicher CUDA-Encoder?

edit:
Cyberlink verwendet ihn offenbar schon:
CyberLink Launches the New PowerDirector 7 Optimized for NVIDIA CUDA Technology
The First Consumer Video Editing Software Designed with NVIDIA CUDA Video Encoder featuring H.264 Optimization (http://www.cyberlink.com/prog/company/press-news-content.do?pid=1994)

Gast
2009-01-09, 16:48:45
Vielleicht bald ein frei zugänglicher CUDA-Encoder?

edit:
Cyberlink verwendet ihn offenbar schon:
CyberLink Launches the New PowerDirector 7 Optimized for NVIDIA CUDA Technology
The First Consumer Video Editing Software Designed with NVIDIA CUDA Video Encoder featuring H.264 Optimization (http://www.cyberlink.com/prog/company/press-news-content.do?pid=1994)


ich würde mal darauf tippen: http://img518.imageshack.us/img518/9510/nvpvefu0.th.png (http://img518.imageshack.us/my.php?image=nvpvefu0.png)

deekey777
2009-01-11, 01:47:53
ich würde mal darauf tippen: http://img518.imageshack.us/img518/9510/nvpvefu0.th.png (http://img518.imageshack.us/my.php?image=nvpvefu0.png)
So wie ich CruNcher im Doom9-Forum verstehe, ist das eher etwas, was dem AVIVO-Encoder entspricht: purer Software-Modus.
Das letzte Update für PowerDirector 7 sowie 181.20 bringen wirklich echtes GPU-Videoencoding, laut CruNcher ist es auch doppelt so schnell als der Software-Encoder von Cyberlink und bringt gar High Profile (Level 4).
Gegen Badaboom soll das Teil aber chancenlos sein, was die Qualität angeht.

TheBrother
2009-01-11, 10:04:37
laut CruNcher ist es auch doppelt so schnell als der Software-Encoder von Cyberlink und bringt gar High Profile (Level 4).
Gegen Badaboom soll das Teil aber chancenlos sein, was die Qualität angeht.

Die Geschwindigkeit kann ich bestätigen - Die Renderzeit halbiert sich etwa. Wenn ich Qualität will nehme ich aber immernoch TMPGenc ist zwar langsam, aber da geht bis jetzt nichts drüber :)

Gruß

Brother

klumy
2009-01-18, 13:58:01
Unterstützt Badaboom auch die Integration von Untertitel und mehreren Audiokanälen wie bei Nero Digital?

deekey777
2009-02-04, 17:47:23
http://www.cyberlink.com/multi/download/patches_4_en_US.html#

Jetzt mit AMD Stream.

Daredevil
2009-02-04, 17:51:16
PowerDirector 7 unterstützt die Stream-unterstützenden Grafikkarten der ATI RadeonTM HD 4800 und ATI RadeonTM HD 4600 Serien.
Wie wat wo, die 38xx Serie nicht?

Gast
2009-02-04, 18:07:17
Wie wat wo, die 38xx Serie nicht?

kann schon sein, einige für GPGPU nötige features wurden erst mit der 4er serie eingebaut.