PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Video decodiern/encodieren per Graka beschleunigen


Aqualon
2004-07-15, 19:44:54
Jetzt mal die Fakten auf den Tisch. Gibt es ausser den Werbesprüchen von ATI und Nvidia schon irgendwelche Tests oder Nachweise bzgl. den Decodier/Encodier-Fähigkeiten von NV4x bzw. R42x?

Behauptungen, dass alles schöner, schneller und weiß der Geier was noch sind ja schön und gut, aber ohne Beweise fällt das Ernstnehmen dieser Features doch ziemlich schwer.

Aqua

Muh-sagt-die-Kuh
2004-07-15, 20:07:36
Aus eigener Erfahrung kann ich sagen, dass die ATI R3xx Chips die Postfilter-Aufgaben bei DivX zu 100% übernehmen können, d.h. CPU-Last mit und ohne Postfilter ist identisch.

Motion-Compensation und iDCT können eigentlich alle aktuellen Chips. Schön wäre, wenn du nochmal kurz auflisten könntest, was für beworbene Fähigkeiten du genau meinst.

Aqualon
2004-07-15, 20:13:51
Haupsächlich geht es mir um die Encodier-Fähigkeiten, die sowohl von ATI als auch von Nvidia beworben wurden. Decodieren durch die GPU scheint ja wie du bestätigt hast zu funktionieren, aber wie schaut es mit Encodieren von Videos durch die GPU aus?

Aqua

Gohan
2004-07-16, 07:32:13
Bis jetzt habe ich davon nur was im Mac Os X 1.4.0 Preview gesehen, nennt sich Core- Image und Video ;)

In der PC Welt habe ich noch nichts dergleichen gesehen. Kommt aber wohl früher oder später mit den Treibern.

q@e
2004-07-16, 08:14:16
Da Video-Encoding bislang eigentlich eine reine CPU-Aufgabe war, bzw. wohl von der meisten Software dazu gemacht wurde, denke ich, daß man sich erstmal umschauen sollte, wann und für welches Programm es Plug-Ins gibt, die Teile der Berechnungen auf die GPU umleiten können.
(Oder gibt's sowas schon - ich encode nicht so häufig Videos...)

Ohne sowas ist's müßig, da eine Messung anstellen zu wollen.

Fadl
2004-07-16, 09:17:06
Original geschrieben von Gohan
Bis jetzt habe ich davon nur was im Mac Os X 1.4.0 Preview gesehen, nennt sich Core- Image und Video ;)

In der PC Welt habe ich noch nichts dergleichen gesehen. Kommt aber wohl früher oder später mit den Treibern.

Genau. Mac OS Tiger soll Core Image und Core Video beinhalten.
Dabei werden diese Prozesse auf die Grafikkarte ausgelagert. Inwiefern das Entlastung bringt müsste man testen. Ich bin mir aber nicht sicher das die Preview Version von 10.4 dieses schon implimentiert hat.
Weisst du darüber etwas Gohan?
Dann könnte ich das evtl. mal hier zu hause an einem Dual 2GHz G5 testen.

Aqualon
2004-07-16, 09:36:51
Original geschrieben von q@e
Da Video-Encoding bislang eigentlich eine reine CPU-Aufgabe war, bzw. wohl von der meisten Software dazu gemacht wurde, denke ich, daß man sich erstmal umschauen sollte, wann und für welches Programm es Plug-Ins gibt, die Teile der Berechnungen auf die GPU umleiten können.
(Oder gibt's sowas schon - ich encode nicht so häufig Videos...)

Ohne sowas ist's müßig, da eine Messung anstellen zu wollen.
Mir gehts auch in erster Linie nicht einmal darum, wie schnell das ganze ist. Ich hab nur noch keinen Artikel gesehen, der zeigt, dass es überhaupt geht. Das wäre ja schon ein Anfang, wenn man sehen könnte, dass Video-Encoding funktioniert. Die Geschwindigkeit wäre dann erst in zweiter Linie interessant.

Video Encoding
The GeForce 6 Series GPUs are also capable of hardware video encode acceleration. Traditionally, video encoding is a difficult and time consuming process. The GeForce 6 Series GPUs include a motion estimation engine. Using state-of-the-art technologies, the motion estimation engine delivers higher-quality video at the same or lower bit rate, as well as lower CPU utilization for improved system performance.
Das ist die Aussage von Nvidia (http://www.nvidia.com/object/feature_on-chip-video.html) zu dem Thema. In den Techspecs steht dann noch was von mpeg-encoding. Aber genauere Ausführungen, wie das ganze in der Praxis eingesetzt werden kann, habe ich nicht gefunden.

Bei ATI (http://www.ati.com/products/radeonx800/index.html) dasselbe in grün:

Cutting Edge Video Technology
RADEON™ X800 graphics technology gives you more than just a great gaming experience. It also has sophisticated video processing, filtering and acceleration features that make multimedia applications more efficient, inspiring and fun. With VIDEOSHADER™ HD, RADEON™ X800 graphics technology takes advantage of its advanced shader processing engine for user programmable video effects, video quality enhancement, and encoding and decoding of many video standards, including MPEG1/2/4, Real Media, DivX and WMV9.

RADEON™ X800 Graphics Technology also supports the latest high-definition and wide display formats, giving users bigger and more vivid movie, gaming and Internet experiences.

Aber auch hier keinerlei Hinweise, wie man dieses Feature benutzen kann.

Groß Features ankündigen, die dann in der Praxis nicht benutzbar sind (zumindest momentan), halte ich dann doch für etwas unverschämt. Das ist doch ungefähr dasselbe, wie wenn ein Autohersteller sagen würde, dass sein Auto 20% weniger verbraucht als die Konkurrenz, aber der Nachweis nicht möglich ist, weil die speziellen Aerodynamik-Kits und Reifen nicht verfügbar sind und man doch bitte warten sollen, bis diese ein Drittanbieter zur Verfügung stellt.

Aqua

x-dragon
2004-07-16, 09:37:56
Hab hier gerade die aktuelle c't (Nr. 15) vor mir liegen und da ist ein Artikel zum Mac OS X 10.4 alias "Tiger" drin:
... Hinter Core Image verbirgt sich eine neue Bildbearbeitungs-Engine. Ihre über 100 grafischen Filter und Effekte nutzen direkt den Prozessor der Grafikkarte, was die CPU entlastet und dafür sorgt, das viele Effekte in Echtzeit ablaufen. ... Mit der Bibliothek Core Video lassen sich Core-Image-Funktionen auf Videos anwenden, teilweise ebenfalls in Echtzeit. ...

q@e
2004-07-16, 09:51:22
Original geschrieben von Aqualon
Mir gehts auch in erster Linie nicht einmal darum, wie schnell das ganze ist. Ich hab nur noch keinen Artikel gesehen, der zeigt, dass es überhaupt geht. Das wäre ja schon ein Anfang, wenn man sehen könnte, dass Video-Encoding funktioniert. Die Geschwindigkeit wäre dann erst in zweiter Linie interessant.
[...]


Um die Geschwindigkeit geht's mir auch nicht, aber wie stellst du dir vor, daß die GPU auf einmal Daten rechnet, die sie von der Software überhaupt nicht geschickt bekommt?

War doch dasselbe mit dem Video-Deblocking Filter der nur von der Bezahlversion des RealPlayer unterstützt wurde - Drittanbieter.

Selbst die grundlegenden Funktionen einer Grafikkarte oberhalb des VESA-Standards werden erst durch Third-Party Software möglich - Betriebssysteme.

Aqualon
2004-07-16, 10:13:53
Original geschrieben von q@e
Um die Geschwindigkeit geht's mir auch nicht, aber wie stellst du dir vor, daß die GPU auf einmal Daten rechnet, die sie von der Software überhaupt nicht geschickt bekommt?
Damit das überhaupt funktioniert, muss doch der Grafikkartentreiber das unterstützen und eine API existieren, auf der Codec-Programmierer aufsetzen können.

Wäre es denn so schwer für die Chiphersteller gewesen eine kleine Demo zu schreiben, die das Video-Encoding demonstriert? Es muss ja nicht gleich die riesige Anwendung sein, ein kleines Kommandozeilentool, das unkomprimierte AVIs in MPEGs umwandelt, ohne dass die CPU groß daran beteiligt ist, hätte zur Demonstration doch völlig genügt.

Selbst die grundlegenden Funktionen einer Grafikkarte oberhalb des VESA-Standards werden erst durch Third-Party Software möglich - Betriebssysteme.
Natürlich braucht ein Teil eines Computersystems eine gewisse Grundlage, das bestreitet ja keiner. Es würde auch niemand von einem Hardwarehersteller erwarten, dass er sein eigenes Betriebssystem programmiert, wenn es bereits etablierte Betriebssystem gibt, für die er einen Treiber schreiben kann.

Es ist auch verständlich, dass die Grafikchip-Hersteller nur die Basis anbietet, die andere erst benützen müssen (ist ja bei den ganzen Shader-Effekten nicht anders), aber trotzdem würde ich von den Herstellern ein proof-of-concept erwarten, dass die versprochenen Features funktionieren. Wenn sie dann niemand unterstützt hat man als Konsument halt Pech gehabt, aber Behauptungen bestimmte Features zu unterstützen, ohne es zeigen zu können, halte ich für ziemlich bedenklich.

Zu den Shadereffekten gibt es ja auch sehr aufwändige Grafikdemos, die die neuen Möglichkeiten einer Grafikkartengeneration demonstrieren. Warum dann nicht auch für das Video-Encoding?

Aqua

ow
2004-07-16, 10:34:54
Original geschrieben von Aqualon
aber Behauptungen bestimmte Features zu unterstützen, ohne es zeigen zu können, halte ich für ziemlich bedenklich.


Aqua

Was ist denn daran bedenklich?
Die Chiphersteller werden schon wissen was ihre Hardware kann und deren Faehigkeiten zu nutzen ist Aufgabe der Softwarehersteller.

aths
2004-07-16, 10:57:17
Original geschrieben von ow
Was ist denn daran bedenklich?
Die Chiphersteller werden schon wissen was ihre Hardware kann und deren Faehigkeiten zu nutzen ist Aufgabe der Softwarehersteller. Vertrauensbildend ist das aber nicht, erst von den ach so großartigen Videofeatures zu reden und dann kommt – nix. Um den Launch herum hieß es zum NV40 noch, der Video-Support sei im Treiber noch nicht vollständig, inzwischen hört man gar nix mehr.

ow
2004-07-16, 11:19:41
Original geschrieben von aths
Vertrauensbildend ist das aber nicht, erst von den ach so großartigen Videofeatures zu reden und dann kommt – nix. Um den Launch herum hieß es zum NV40 noch, der Video-Support sei im Treiber noch nicht vollständig, inzwischen hört man gar nix mehr.

Was heisst hier, es kommt - nix?
NV ist kein ISV sondern ein IHV. Also was soll da kommen?

Muh-sagt-die-Kuh
2004-07-16, 11:21:24
Halten wir mal fest: Laut Werbeaussagen enthält der NV40 eine Motion-Estimation Engine. Schön und gut, wenn man die genauen Specs kennt...

Ist es ein simpler Block-Matching-Algorithmus mit fixen Blockgrößen? Ist der Suchbereich dynamisch anpassbar? Was für ein Fehlermaß wird verwendet? Ist dieses änderbar? Wird Global Motion Compensation unterstützt? Wie sieht es mit Quarter-Pixel Motion Estimation aus? Wie schnell ist sie.

Motion-Estimation ist der stumpfsinnigste, aber auch rechenaufwändigste Teil eines Videokompressionsalgorithmus....also genau das, wo man mit relativ wenig Hardwareaufwand eine Menge Geschwindigkeit rausholen kann. Die restlichen Bestandteile sind immer noch Aufgabe der CPU.

Wenn ein paar dieser Fragen beantwortet werden könnten, wäre das schonmal nett :)

Tjell
2004-07-16, 11:25:19
Original geschrieben von ow
Was heisst hier, es kommt - nix?
NV ist kein ISV sondern ein IHV. Also was soll da kommen?
NVidia bietet also keine Software (http://nvidia.com/page/multimedia.html)?

Hm, dann verstehe ich da wohl was falsch. :)

q@e
2004-07-16, 11:37:13
:up:
Oha, man lernt nie aus (bzw. wird vergeßlich).

Dann wird es langsam wirklich mal Zeit, daß in Sachen Video-Beschleunigung was passiert...

Aqualon
2004-07-16, 11:41:06
Original geschrieben von ow
Was ist denn daran bedenklich?
Die Chiphersteller werden schon wissen was ihre Hardware kann und deren Faehigkeiten zu nutzen ist Aufgabe der Softwarehersteller.
Auch wenn das jetzt ein wenig offtopic geht, halte ich deine Aussage für das größte Problem der IT-Branche.

Es werden zuviele Versprechungen von Herstellern gemacht, die dann nur eingeschränkt, verspätet oder manchmal gar nicht eingehalten werden. Wenn ein IHV es selbst nicht leisten kann, Software zu programmieren, die wenigstens die Fähigkeiten seiner Hardware demonstriert (produktive Lösungen können von mir aus Sache von Spezialanbietern bleiben), kann er doch immerhin ein Softwareunternehmen beauftragen, das für ihn zu erledigen.

Ein Autohersteller wendet sich ja auch an spezialisierte Zulieferer für Features, die er selbst nicht anbieten kann. Das IT-Denken auf Autos umgesetzt würde bspw. so Sachen wie Navigationssysteme ohne Kartenmaterial rausbringen. Man könnte dann zwar schön mit seinem tollen Navigationssystem in 16,7Mio Farben, Touchscreen, usw. werben, aber die Benutzbarkeit müsste der Käufer durch Erwerb von Zusatzsoftware (in dem Fall den Karten) sicherstellen.

Niemand erwartet von einem IHV, dass er zu seinem Grafikchip zig Codecs für alle möglichen Videoformate mitliefert. Aus Lizenzgründen wäre das auch nicht wirtschaftlich möglich. Aber es sollte dann wenigstens versucht werden Softwareunternehmen zu gewinnen, die entsprechende Software anbieten, falls sie der Benutzer wünscht. So bleibt das Video-Encoding doch ein Feature, das zwar in Hardware möglich sein soll, aber bislang nicht genutzt werden kann.

Vielleicht gibt es ja in den nächsten 1-2 Monaten Codecs, die die Video-Fähigkeiten der Grafikchips unterstützen. Die Frage ist nur, ob es sich für einen Codec-Hersteller lohnt, Video-Codecs auf die Grafikchips zweier Hersteller anzupassen. Das wird im Workstation-Bereich mit den entsprechenden Einnahmemöglichkeiten mit Sicherheit gemacht und als Feature entsprechender Quadro oder FireGL Karten Sinn machen.

Aber die Werbung suggeriert dieses Feature auch für die Gamerkarten, obwohl es so wie es im Moment aussieht von 99% der User nicht benutzt werden kann, da sie entweder nicht die Möglichkeit haben, solche Codecs zu schreiben bzw. nicht zusätzlich Geld für etwas ausgeben wollen, was die CPU jetzt bereits kann.

Aqua

deekey777
2004-07-16, 11:55:54
Aqua, weißt du, auch die R300 hat eigentlich die WMV9 Beschleunigung, die allerdings "etwas" buggy ist. Und wer ist schuld? Microsoft, da es nötig ist, für die fehlerfreie Beschleunigung ein bestimmtes Update für den WMP9 herauszubringen - so ein Typ von ATi. Angeblich sollen schon R3x0 MPEG2/4-Encoden beherrschen - gesehen habe ich aber davon noch nichts. Dafür ist die DivX-Beschleunigung einwandfrei.
Immer die anderen sind schuld.

Aber es gibt ein Licht im Dunklen: Es gab von der 8500 eine Edition für die Videobearbeitung, die zB mit Hilfe derer PS Vorschau einiger (Video-)Effekte in Echtzeit darstellen konnte, ohne vorher das Video bzw. den Abschnitt zu Kodieren.

ow
2004-07-16, 12:05:04
Original geschrieben von Aqualon
Auch wenn das jetzt ein wenig offtopic geht, halte ich deine Aussage für das größte Problem der IT-Branche.


Also ich sehe das Problem im mangelnden Interesse der Kunden. Es fehlt also derzeit noch der Markt fuer Video-Encoding per Grafikchip. Und wo kein Markt wird auch kein IHV irgendwas investieren.
Aber ich geb dir ja recht, kleine Techdemos von NV/ATi zum Zeigen und Bewerben der Features sollten immer drin sein.

Jesus
2004-07-16, 12:18:10
Original geschrieben von deekey777
Angeblich sollen schon R3x0 MPEG2/4-Encoden beherrschen - gesehen habe ich aber davon noch nichts. Dafür ist die DivX-Beschleunigung einwandfrei.


Jede All-In-Wonder Radeon 9xxx kann Mpeg2/4 in Echtzeit encodieren. ( hab ich selbst ;) echt praktisch wenn man was vom TV aufnimmt in Divx / Xvid mit 720x576 )

mrdigital
2004-07-16, 12:21:38
Original geschrieben von Jesus
Jede All-In-Wonder Radeon 9xxx kann Mpeg2/4 in Echtzeit encodieren. ( hab ich selbst ;) echt praktisch wenn man was vom TV aufnimmt in Divx / Xvid mit 720x576 )
Bit du dir sicher, dass das nicht eine reine Softwarelösung ist?

mrdigital
2004-07-16, 12:24:27
Original geschrieben von ow
Also ich sehe das Problem im mangelnden Interesse der Kunden. Es fehlt also derzeit noch der Markt fuer Video-Encoding per Grafikchip. Und wo kein Markt wird auch kein IHV irgendwas investieren.
Aber ich geb dir ja recht, kleine Techdemos von NV/ATi zum Zeigen und Bewerben der Features sollten immer drin sein.
Ack.
Ein andere Aspekt ist die Medienindustrie, sie sieht die steigende Videofähigkeit von PCs eh sehr kritisch, immerhin ist so ein PC eine ordentliche Kopierstation und auch in der Lage die meisten Kopierschutzmechanismen auszuhebeln. Warum soll man das dann auch noch weiter erleichtern?

Jesus
2004-07-16, 12:28:03
Original geschrieben von mrdigital
Bit du dir sicher, dass das nicht eine reine Softwarelösung ist?

denke nicht, denn 30 - 40 % CPU auslastung um ein Mpeg4 Xvid Video mit 100% Quality in Echtzeit zu encodieren in der Auflösung 720x576 und gleichzeitig mit 192kBit/s MP3 Ton ist ziemlich unrealistisch ;)

Gast
2004-07-16, 12:38:51
Original geschrieben von Jesus
denke nicht, denn 30 - 40 % CPU auslastung um ein Mpeg4 Xvid Video mit 100% Quality in Echtzeit zu encodieren in der Auflösung 720x576 und gleichzeitig mit 192kBit/s MP3 Ton ist ziemlich unrealistisch ;)

Was waere denn realistisch fuer eine reine SW-Loesung?

Jesus
2004-07-16, 12:41:19
also wenn ich das mit Virtual Dub ( nichtmal in Echtzeit !)o.ä. mach hab ich 100% :)

ShadowXX
2004-07-16, 12:52:13
Original geschrieben von Jesus
denke nicht, denn 30 - 40 % CPU auslastung um ein Mpeg4 Xvid Video mit 100% Quality in Echtzeit zu encodieren in der Auflösung 720x576 und gleichzeitig mit 192kBit/s MP3 Ton ist ziemlich unrealistisch ;)

Hmm...wenn ich mit DVDx eine DVD in DivX umrechne (incl. 192kBit/s MP3) dann hab ich meistens um die 60 bis 80 FPS....(machmal auch mehr...da streikt wohl auch irgendwann eher die HDD).

Und das in SW....ist also nicht soooo unrealistisch das das alles in SW passiert.

StefanV
2004-07-16, 12:58:52
Original geschrieben von mrdigital
Bit du dir sicher, dass das nicht eine reine Softwarelösung ist?

Nunja, dafür könnte der Rage Theatre verantwortlich sein, der seit einiger Zeit auf diesen Karten verbaut wird.

Denn Soweit ich weiß ist der RageTheatre eigentlich für Settopboxen und sowas in der Art entwickelt worden.

Er sollte also schon eine gewisse Rechenkraft besitzen...

mrdigital
2004-07-16, 13:02:36
Original geschrieben von Stefan Payne
Nein, dafür könnte der Rage Theatre verantwortlich sein, der seit einiger Zeit auf diesen Karten verbaut wird.

Denn Soweit ich weiß ist der RageTheatre eigentlich für Settopboxen und sowas in der Art entwickelt worden.

Er sollte also schon eine gewisse Rechenkraft besitzen...
nein, der Rage Theater ist ein Videomischer Baustein und ein PAL / NTSC Codec, kein DSP mit eigener Rechenleistung

mrdigital
2004-07-16, 13:05:45
Original geschrieben von Jesus
denke nicht, denn 30 - 40 % CPU auslastung um ein Mpeg4 Xvid Video mit 100% Quality in Echtzeit zu encodieren in der Auflösung 720x576 und gleichzeitig mit 192kBit/s MP3 Ton ist ziemlich unrealistisch ;)
Ich hatte halt die selben Features schon mit einer seeligen AllInWonder Radeon, und da wurde es komplett in SW gemacht (allerdings damals nur MPEG2). Und man kann auf nem halbwegs aktuellen Rechner mit DivX in Echtzeit codieren.
Hast du irgendwas handfestes zu der Hardwarelösung? Evtl. kannst mal das Readme der Software posten!

Muh-sagt-die-Kuh
2004-07-16, 13:07:42
Original geschrieben von ShadowXX
Hmm...wenn ich mit DVDx eine DVD in DivX umrechne (incl. 192kBit/s MP3) dann hab ich meistens um die 60 bis 80 FPS....(machmal auch mehr...da streikt wohl auch irgendwann eher die HDD).Settings? Bitrate?

Jesus
2004-07-16, 13:20:17
würd ich auch gern wissen :)

mit Virtual Dub hab ich auf meinem Athlon 64 mit reduzierter Auflösung und mp3 192kbit/s sowie Xvid 100% Quality setting ( 1 pass qualtity ) ca. 20-22 fps bei 100% CPU auslastung ( konstant )

dazu kann ich im ATI Multimediacenter noch allerhand filter und sonstiges Schnickschnack zum aufnehmen dazuschalten

Readme hab ich leider keine gefunden, nur einen sehr alten Artikel über die 9700 Pro AIW:

Adaptive de-interlacing is new, but the All-in-Wonder 9700 Pro's ability to accelerate MPEG decoding in hardware is not. Even NVIDIA's GeForce4 MX series is capable of hardware MPEG decoding, so that's nothing special. What sets the All-in-Wonder 9700 Pro apart from other consumer-level graphics cards is its ability to accelerate 15-20% of the MPEG2 encoding process on the graphics card. This won't result in a 15-20% decrease in encoding times, but it should drop the number of CPU cycles dedicated to MPEG2 encoding by 15-20%.

The All-in-Wonder 9700 Pro's ability to accelerate video encoding in hardware is currently confined to MPEG2 formats, but a recent strategic partnership with DivXNetworks could eventually result in DivX decoding or even encoding acceleration being added to the card's list of credentials. I've got my fingers crossed

Tjell
2004-07-16, 13:42:07
Original geschrieben von Jesus
würd ich auch gern wissen :)

mit Virtual Dub hab ich auf meinem Athlon 64 mit reduzierter Auflösung und mp3 192kbit/s sowie Xvid 100% Quality setting ( 1 pass qualtity ) ca. 20-22 fps bei 100% CPU auslastung ( konstant )

dazu kann ich im ATI Multimediacenter noch allerhand filter und sonstiges Schnickschnack zum aufnehmen dazuschalten

Readme hab ich leider keine gefunden, nur einen sehr alten Artikel über die 9700 Pro AIW:
MPEG-2/4-Beschleunigung des Encodierens oder wirkliches hardwarebasiertes MPEG-Encodieren wie mit dedizierten MPEG2-PCI-Karten sind zwei verschiedene Paar Schuhe.

Gerne würde ich aber mal wie Ihr auch einen Bericht/Test lesen, der die bei den neuen Karten, und hier maßgeblich die der 6800er, angkündigten Hardware-Encoding-Fähigkeiten der Chips beleuchtet.

Denn wie in einem Fachartikel zu lesen war: hardwarebeschleunigtes Software-Encodieren ist qualitativ um einiges schlechter als Hardware-Encodieren.

Meines Wissens existiert derzeit im Massenmarkt auch kein Produkt, das MPEG-4 in Hardware beherrscht, sondern es müßten allesamt alle Lösungen MPEG-2-Karten sein. Was der "Profibereich" (> 1000 €) bietet, weiß ich nicht.

Jesus
2004-07-16, 14:04:04
also ich bin mit der Qualität sehr zufrieden, das einzige was mich stört ist dass ich keinen SVideo augang am Sat Receiver habe, nur Cinch, und dadurch das Bild etwas unscharf wirkt :)

hier mal die auslastung eines Mpeg 2 Recordings in DVD qualtität und gleichzeitigen Anschauings ( TV , leider wurde das TV Bild nicht mitgecaptured ) ( bei mpeg 4 ändert sich das nur um ca. 5% mehr Auslastung )

Die CPU auslastung steigt von 10% ( nur schauen ) auf ca. 30 % beim aufnehmen ( siehe Graph ;) bei den angegebenen Settings:

http://nemesis.rushers.net/pics/3.jpg

Gast
2004-07-16, 14:25:15
Original geschrieben von mrdigital
Ich hatte halt die selben Features schon mit einer seeligen AllInWonder Radeon, und da wurde es komplett in SW gemacht (allerdings damals nur MPEG2). Und man kann auf nem halbwegs aktuellen Rechner mit DivX in Echtzeit codieren.
Hast du irgendwas handfestes zu der Hardwarelösung? Evtl. kannst mal das Readme der Software posten!

Eben.
Ich kann hier auch nur MPG2 in SW aufzeichnen von meiner TV Karte und das schafft meine XP1700 muehelos. Da kann ich sogar noch normal am PC weiterarbeiten waehrend im Hintergrund Videos aufgezeichnet werden.

*ow*

Gast
2004-07-16, 15:03:01
Then I got an email from an ATI PR rep about MPEG encoding and decoding support in GFX card. It appears that ATIs Radeon 9800 contains hardware DCT and iDCT blocks that can be used for MPEG-2/4 encoding and decoding. Furthermore, the chip does also support WMV9 decoding. However, at this point I'm still waiting to get a link to an official documentation on those features as the ATI website only mentions MPEG-2 decoding acceleration in the Radeon 9800 specs.

q@e
2004-07-16, 15:05:44
Ist es richtig, daß, je höher die Bitrate/Auflösung, desto weniger CPU-Last (oder auch Last auf anderen Chips, die entsprechende Rechnungen durchführen) muss aufgewendet werden, da eine geringere Kompression erfolgt?

Wenn ich bei 7z von "ultra" auf "fast" gehe, wird das Archiv auch größer, ist aber schneller erstellt...

ShadowXX
2004-07-16, 15:18:52
Original geschrieben von Muh-sagt-die-Kuh
Settings? Bitrate?

1 Pass, 1100 Bit...bei der Auflösung bin ich mir Momentan nicht so sicher...glaub aber hab auch halbe DVD-Auflösung genommen.

(Ja ja ich weiss...nicht gerade die tollsten Settings)

Ist ein P4 3GHz...mit SSE2-Optimierung bei DVDx an..

Muh-sagt-die-Kuh
2004-07-16, 16:13:01
Original geschrieben von ShadowXX
1 Pass, 1100 Bit...bei der Auflösung bin ich mir Momentan nicht so sicher...glaub aber hab auch halbe DVD-Auflösung genommen.

(Ja ja ich weiss...nicht gerade die tollsten Settings)

Ist ein P4 3GHz...mit SSE2-Optimierung bei DVDx an.. OK, dann kommen die Ergebnisse hin.....hohe Bitrate, niedrige Auflösung....nicht sehr fordernd für den Encoder.

DrumDub
2004-07-16, 16:18:01
Original geschrieben von Tjell
Gerne würde ich aber mal wie Ihr auch einen Bericht/Test lesen, der die bei den neuen Karten, und hier maßgeblich die der 6800er, angkündigten Hardware-Encoding-Fähigkeiten der Chips beleuchtet.


also das decoden klappt noch nicht wirklich. der deltachrome ist da momentan das maß der dinge: http://www.xbitlabs.com/articles/video/display/r420_10.html

zum encoden gibts noch nix, außer diese aussage:

Beim Encoden von MPEG 1/2/4 dagegen sind Anpassungen der Software notwendig. Adobe hat bereits entsprechenden Support für künftige Versionen von After Effects angekündigt.
http://www.de.tomshardware.com/graphic/20040414/nv40_geforce6800ultra-16.html

ohne entsprechende software läuft da also nix, wie hier schon angemerkt wurde.

ow
2004-07-16, 16:18:34
Original geschrieben von q@e
Ist es richtig, daß, je höher die Bitrate/Auflösung, desto weniger CPU-Last (oder auch Last auf anderen Chips, die entsprechende Rechnungen durchführen) muss aufgewendet werden, da eine geringere Kompression erfolgt?

Wenn ich bei 7z von "ultra" auf "fast" gehe, wird das Archiv auch größer, ist aber schneller erstellt...

Ja, das ist richtig.

Rechenaufwand und Dateigroesse sind hier gegeneinander austauschbar.

Crushinator
2004-07-16, 16:21:35
Original geschrieben von q@e
Ist es richtig, daß, je höher die Bitrate/Auflösung, desto weniger CPU-Last (oder auch Last auf anderen Chips, die entsprechende Rechnungen durchführen) muss aufgewendet werden, da eine geringere Kompression erfolgt? (...) Im wesentlichen richtig, allerdings gilt das nur bei "je höher die Bitrate". Es wird dabei nämlich weniger Zeit für die interpolative Bewegungskompensation (Erzeugung von B-Frames) aufgewendet und oft frühzeitig auf I-Frames umgeschwenkt. Bei gleicher Bitrate sollte eine höhere Auflösung jedenfalls mehr Rechenzeit kosten.

q@e
2004-07-16, 16:36:32
Danke und sorry für diesen OT-Exkurs. Mir ist nicht klar gewesen, oder zumindest nicht sicher klar gewesen, ob man das Verhalten von "normalen" Packern auf Videokompression auch anwenden kann.

Eine Sache noch zur Auflösung: Wenn ich die native Auflösung des Videomaterials verändere, brauche ich doch sicher mehr Rechenleistung, als wenn ich die Auflösung 1:1 übernehme und "nur" die Bildqualität zusammenstauche, weil ja das runterrechnen auf die neue Auflösung entfällt?

del_4901
2004-07-16, 16:42:46
Also soweit wie ich gehört habe soll man die NV40 Filter über Directshow ansprechen können, es war auch mal irgendwo zu lesen, das die ein entsprechendes SDK planen.

DrumDub
2004-07-16, 16:45:36
Original geschrieben von AlphaTier
Also soweit wie ich gehört habe soll man die NV40 Filter über Directshow ansprechen können, es war auch mal irgendwo zu lesen, das die ein entsprechendes SDK planen.

sicher? ich dachte das betrifft nur das decoden.

del_4901
2004-07-16, 16:47:15
Original geschrieben von DrumDub
sicher? ich dachte das betrifft nur das decoden.
Das soll für En- und Decoding gedacht sein.

Sprich man kriegt über die DS Api extensions zugriff auf einen VideoProzessor, der macht dann das was du ihm sagst.

DrumDub
2004-07-16, 16:54:31
Original geschrieben von AlphaTier
Das soll für En- und Decoding gedacht sein.

Sprich man kriegt über die DS Api extensions zugriff auf einen VideoProzessor, der macht dann das was du ihm sagst.

hmm... wartens wirs mal ab. im moment ist es schon traurig, dass man von nvidia dazu nichts mehr hört. auf jeden fall hat der deltachrome da jetzt in allen bereichen die nase vorn. hdtv encoding kann er ja auch: http://firingsquad.com/hardware/s3_deltachrome_s8_preview/page2.asp

Crushinator
2004-07-16, 17:15:08
Original geschrieben von q@e
Danke und sorry für diesen OT-Exkurs. Mir ist nicht klar gewesen, oder zumindest nicht sicher klar gewesen, ob man das Verhalten von "normalen" Packern auf Videokompression auch anwenden kann. Ich finde das gar nicht mal OT. Es hat alles IMHO sehr wohl mit "Video decodieren/encodieren" zu tun, und es wird sich auch mit Verlagerung des Rechenaufwandes auf GPUs nicht wesentlich anders verhalten. :)
Eine Sache noch zur Auflösung: Wenn ich die native Auflösung des Videomaterials verändere, brauche ich doch sicher mehr Rechenleistung, als wenn ich die Auflösung 1:1 übernehme und "nur" die Bildqualität zusammenstauche, weil ja das runterrechnen auf die neue Auflösung entfällt? Ja, selbstverständlich. Allerdings ist das dann nicht mehr die Verhaltensweise von MPEG oder einem anderen Videokomprimierungsverfahren, sondern die des Codec (eine Ebene höher) oder einer Applikation die einen Codec zum Encoden mit Rohdaten füttert.

[edit]
Tippfehler ;(

zeckensack
2004-07-16, 18:14:27
Original geschrieben von DrumDub
hmm... wartens wirs mal ab. im moment ist es schon traurig, dass man von nvidia dazu nichts mehr hört. auf jeden fall hat der deltachrome da jetzt in allen bereichen die nase vorn. hdtv encoding kann er ja auch: http://firingsquad.com/hardware/s3_deltachrome_s8_preview/page2.asp In diesem Fall bedeutet das aber nur die Ausgabe von Material auf ein HDTV-Endgerät. Das hat mit Videokodierung im hier behandelten Sinn nichts zu tun :kratz2:

Tjell
2004-07-17, 04:05:22
Original geschrieben von DrumDub
also das decoden klappt noch nicht wirklich. der deltachrome ist da momentan das maß der dinge: http://www.xbitlabs.com/articles/video/display/r420_10.html

zum encoden gibts noch nix, außer diese aussage:


http://www.de.tomshardware.com/graphic/20040414/nv40_geforce6800ultra-16.html

ohne entsprechende software läuft da also nix, wie hier schon angemerkt wurde.
Danke für die Artikel. :)

Ich präzisiere hiermit aber noch ein wenig:
Inwieweit ist zu erwarten, daß die Features der Grafikkarten (vor allem die 6800er) an die Fähigkeit einer professionellen MPEG-Authoring-Karte (http://www.matrox.com/video/de/products/rtx100xtremepro/power_of_x.cfm) heranreichen wird. Ich glaube nicht, daß so schnell eine Grafikkarte die Qualität dieser Karten erreicht, aber der Abstand würde mich schon interessieren. Nicht aus privatem Grund (da reicht auch mir softwarecodiertes Filmmaterial), sondern weil ich halbprofessionell auf meiner Arbeit damit hin und wieder in Berührung komme.

Gibt es überhaupt eine vergleichbare MPEG-4-Hardware als Profi-Karte?

Aqualon
2004-07-17, 09:08:59
Original geschrieben von Tjell
Gibt es überhaupt eine vergleichbare MPEG-4-Hardware als Profi-Karte?
Ich hab auf die Schnelle mal das gefunden:

http://www.darvision.com/mpegator4/index.shtml
http://www.optibase.com/html/products/MPEG_Encoding_-_Decoding_Boards/MPEG-2_ENCODING_BOARDS/MPEG_MovieMaker_400.html

Scheint also Karten zu geben, die MPEG4 in Hardware encodieren können.

Auch Hybrid-Lösungen, die die Arbeit auf die CPU und den Chip auf der Karte verteilen sind erhältlich:

http://www.vitecmm.com/product.php?id=21

Allerdings alles Karten, die man bei uns wohl nur schwer bekommt. Bei Geizhals ist kein einziger der Hersteller gelistet.

Aqua

Tjell
2004-07-17, 15:13:12
Cool, danke.
Direkt mal meinem Chef weiterreichen. :)

Wenn ich mir so die Preise dieser Profi-Lösungen ansehe, bezweifle ich nun, daß es sich bei den Fähigkeiten Grafikkarten um mehr als ein wenig Hardwarebeschleunigung beim Software-Encodieren handelt. Eher also was für uns Normalverbraucher.

Frank
2004-07-18, 19:03:28
Original geschrieben von Jesus
also ich bin mit der Qualität sehr zufrieden, das einzige was mich stört ist dass ich keinen SVideo augang am Sat Receiver habe, nur Cinch, und dadurch das Bild etwas unscharf wirkt :)

hier mal die auslastung eines Mpeg 2 Recordings in DVD qualtität und gleichzeitigen Anschauings ( TV , leider wurde das TV Bild nicht mitgecaptured ) ( bei mpeg 4 ändert sich das nur um ca. 5% mehr Auslastung )

Die CPU auslastung steigt von 10% ( nur schauen ) auf ca. 30 % beim aufnehmen ( siehe Graph ;) bei den angegebenen Settings:
Die AIW Aufnahmelösung von ATI dürfte trotzdem Softwarebasierend sein. Und die Qualität ist zwar brauchbar - aber meilenweit von sehr gut entfernt. Egal wie hoch man die Bitrate bei voller DVD Auflösung wählt: die Aufnahme hat trotzdem Kompressionsartefakte. Da wird meilenweit an dem "vorbeikodiert", was theoretisch möglich wäre. Eben weil der Prozessor in manch Rechner nicht so gut ist und ebn weil das ganze nirgendwo in Hardware realisiert wird.

Gast
2004-07-18, 23:02:27
selbst auf einer DVD gibt es Kompressionsartefakte, Mpeg2 ist auch nicht perfekt ;)

Frank
2004-07-18, 23:15:13
Original geschrieben von Gast
selbst auf einer DVD gibt es Kompressionsartefakte, Mpeg2 ist auch nicht perfekt ;) Na das sind bei der AIW aber zu-niedrige-Bitrate Artefakte. Da sehen 8MBit schonmal so aus wie 1.5.

Jesus
2004-07-18, 23:51:59
Original geschrieben von Frank
Na das sind bei der AIW aber zu-niedrige-Bitrate Artefakte. Da sehen 8MBit schonmal so aus wie 1.5.

Naja so pauschal lässt sich das nicht sagen, ist immer auch eine Einstellungssache, ( vbr,cbr, max_bitrate, target_bitrate, motion estimation quality , kann man alles einstellen ;) ).

Es ( das aufgezeichnete ) sieht auf dem TV jedenfalls nicht schlechter aus als das was vorher auf dem TV lief ;) Aber TV ist ja nicht DVD ;) ( auch kein digitaler Sat Receiver )

Aber natürlich sieht ein single pass Mpeg4 kaum besser aus als ein 2-pass oder mehr ,das wird sich mit "echten" ( ich denke die ATI Lösung ist eine "Hybrid" Lösung ) Mpeg4 encodern aber wohl kaum ändern.

Muh-sagt-die-Kuh
2004-07-19, 00:23:21
Original geschrieben von Jesus
Aber natürlich sieht ein single pass Mpeg4 kaum besser aus als ein 2-pass oder mehr ,das wird sich mit "echten" ( ich denke die ATI Lösung ist eine "Hybrid" Lösung ) Mpeg4 encodern aber wohl kaum ändern. Irgendwie verstehe ich nicht ganz, was du uns hier sagen willst...

Jesus
2004-07-19, 10:52:38
naja mpeg2 hardware encoding unterstützt sie ja bereits seit langem ( nicht voll, aber unterstützend zur CPU ). Und aufgrund der niedrigen CPU auslastung denke ich das sowas ähnliches auch für Mpeg 4 gilt

Tjell
2004-07-19, 11:36:38
(Aus einem anderen Thema entliehener Link und Bilder)

http://www.hardinfo.dk/art/site/pic/video/graphiccard/nvidia_gf_6800_ultra/mpeg2-decoding.jpg

http://www.hardinfo.dk/art/site/pic/video/graphiccard/nvidia_gf_6800_ultra/mpeg2-encoding.jpg

Test der V9999 Ultra (dänisch) (http://www.hardinfo.dk/show.asp?page=4590)

Zu beachten ist, daß die Grafiken aus einer (neuen?) NVidia-Präsentation stammen. Aber ich sehe das mal als Hinweis, daß das Thema nicht gestorben ist, sondern eher auf Sparflamme vor sich hin köchelt, um dann irgendwann doch nochmal in einem Treiber aufzutauchen, gerade im Hinblick auf die neue Forceware Multimedia. :)

DrumDub
2004-07-19, 12:08:47
Original geschrieben von zeckensack
In diesem Fall bedeutet das aber nur die Ausgabe von Material auf ein HDTV-Endgerät. Das hat mit Videokodierung im hier behandelten Sinn nichts zu tun :kratz2:

uppss... hast recht. habe mich vom begriff "encoden" in die irre leiten lassen. ;(

LordDeath
2004-07-19, 12:52:47
Original geschrieben von Tjell
...gerade im Hinblick auf die neue Forceware Multimedia. :)

was soll ich jetzt darunter verstehen? wird es eine spezille multimadia version der forceware geben?

Tjell
2004-07-19, 13:01:29
Original geschrieben von LordDeath
was soll ich jetzt darunter verstehen? wird es eine spezille multimadia version der forceware geben?
Kommt bald (http://nvidia.com/page/multimedia.html). :)

LordDeath
2004-07-19, 13:25:58
na toll! wird bestimmt kostenpflichtig :(

sieht auf dem ersten blick eh aus wie ein bundle aus dem nvidia dvd player + treiber

Jesus
2004-07-19, 16:26:32
Original geschrieben von Tjell
Kommt bald (http://nvidia.com/page/multimedia.html). :)

= ATI MMC ;)

Tjell
2004-07-19, 16:36:36
Original geschrieben von Jesus
= ATI MMC ;)
Jaaaaaa....
Und was heißt das jetzt?

LordDeath
2004-07-19, 16:41:29
Original geschrieben von Tjell
Jaaaaaa....
Und was heißt das jetzt?


d.h. dass er gerne zum rumflamen provoziert! :D

Crushinator
2004-07-19, 16:48:24
Original geschrieben von Tjell
Jaaaaaa....
Und was heißt das jetzt? Er wollte damit vermutlich sagen, daß der Funktionsumfang dem erweiterten MMC von ATi (Für die AIW-Serie) gleicht bzw. gleichen könnte.
Original geschrieben von LordDeath
d.h. dass er gerne zum rumflamen provoziert! :D Och Leute, seht doch nicht in jedem Posting Flames, wo Keine sind.

An dieser Stelle: Geht bitte on Topic, danke!

Jesus
2004-07-19, 19:41:39
Original geschrieben von Crushinator
Er wollte damit vermutlich sagen, daß der Funktionsumfang dem erweiterten MMC von ATi (Für die AIW-Serie) gleicht bzw. gleichen könnte.
Och Leute, seht doch nicht in jedem Posting Flames, wo Keine sind.

An dieser Stelle: Geht bitte on Topic, danke!

korrekt ;)

sogar die Bezeichnungen sind identisch ( Personal Video Recorder, TV On-Demand etc.. )

winter
2004-08-10, 13:13:30
Mich würde interessieren, wie es inzwischen mit den Treibern um das Decoding von MPEGII steht. Für mich ist vorallem ein Adaptiver Deinterlacer für die Wiedergabe auf dem TFT wichtig. Ist das inzwischen soweit, dass es in z.B. PowerDVD mit ner 6800gt/u funktioniert?
Es gibt hier ja schon einige User die eine der Karten zuhause haben.

Geist
2004-08-10, 14:59:41
Die Bildqualität beim DVD schauen ist mit meiner Gainward Ultra/2600 GS meiner Meinung nach nicht besonders gut (habe unteranderem mit mehreren Versionen von WinDVD getestet), die Bildqualität komm bei Hardwareentschlüsselung/Wiedergabe eindeutig nicht an die meiner Sapphire 9800 Pro heran.

Ich weiß allerdings nicht ob das dam NV40 oder an den Treibern liegt, nutze zur Zeit den 6176 (habe aber z.B. auch mit dem 6145 getestet, aber das Ergebnis bleibt gleich) und hoffe das es nur am Treiber liegt, dann ließe sich die Bildqualität mit einem neuen in dem Punkt verbesserten Treiber einfach anheben.

winter
2004-08-10, 15:18:13
WinDVD zum Testen zu verwenden ist IMO nicht unbedingt ideal, denn ich z.B. habe es nie geschaft, auf Nvidia Karten mit WinDVD Hardwarebeschleunigung zustande zu bringen, was an WinDVD lag. denn mit PowerDVD gings problemlos (und bei ner GF4 hässlich ;))

Geist
2004-08-10, 15:41:46
Also WinDVD lag bei meiner Karte dabei und ich habe auch noch zwei weiter Version von WinDVD getestet, aber auch mit PowerDVD, habe ich auch da, ist das Ergebnis das gleiche, die Bildqualität beim DVD schon ist einfach nicht so toll.

winter
2004-08-10, 15:58:34
Schade, ist ein durchaus wichtiges Kaufkriterium für mich, da ich mit einer SkyStar2 an meinem Rechner TV sehe und damit auf einen guten Hardwaredecoder angewiesen bin. Der meiner Geforce4 ist schlicht und ergreifend schlecht, ein billiger BOB-Deinterlacer, nur ansatzweise ertragbar.

Geist
2004-08-10, 16:44:56
Schade, ist ein durchaus wichtiges Kaufkriterium für mich, da ich mit einer SkyStar2 an meinem Rechner TV sehe und damit auf einen guten Hardwaredecoder angewiesen bin. Der meiner Geforce4 ist schlicht und ergreifend schlecht, ein billiger BOB-Deinterlacer, nur ansatzweise ertragbar.
Overlay bei Dualview – habe zwei Displays an meiner Karte laufen – gib es bei den jetzigen Treibern auch noch Problemchen und die Treiber unterstützen kein DDC/CI bzw. es ist fehlerhaft implementiert!

Ich hoffe das bald Treiber kommen die diese ganzen Fehler beheben.

Die 6800U ist wirklich einen sehr schnelle Karte, aber für über 500,- € erwarte zumindest ich nicht nur speed, sondern auch die weiteren Featuers sollten funktionieren!

winter
2004-08-10, 17:15:13
Nuja, die Karte is noch relativ jung und die Treiber wurden auch nur so maleben WHQL Zertifiziert, damit Nvidia die Karten überhaupt verkaufen kann. Ich denke, das kann noch dauern, bis der Treibersupport voll ausgereift ist, mindestens ebenso lange, bis die Produktion richtig angelaufen is, denn nv40 gibt es ja anscheinend fast garkeine 0_o

DrBen
2004-09-09, 21:17:11
Hi all,

weiss jemand wann "endlich" die Encodierung ermöglicht wird? Mit NVIDIA-eigener oder fremder Software? Mit DIVX 5.x? Evtl. mit nächstem Canopus ProCoder? http://das.slashcam-forum.de/forumc_config.pl?read=64402

Ich bin wohl der einzige der die meisten 6600 Reviews langweilig findet: Alle TOP-Sites benchen weltweit die 6600 nur mit Spielen. Keine Vivo-Tests und WENN dann wird nur Decodieren/Playback getestet.

Traurige Beispiele bzw. eigentlich löbliche Ausnahmen:
http://www.xbitlabs.com/articles/video/display/geforce6600gt-theory_6.html
http://www.beyond3d.com/previews/nvidia/nv43/index.php?p=23

Das Thema würde soviel hergeben:
(habe leider nicht das Budget zum selber testen)

Warum schließt keiner 2 23" TFTs an, mit je 1920x1200 per DVI ?!.
(Oder analog auf einem IBM c220p)
THG kommen doch bestimmt an sowas heran.

Z.B. auf dem einen Display Premiere Pro 1.5 mit HDV Patch, Vegas o.ä. und auf dem anderen 1080p Playback. Solche Screenshots würden mich interessieren, mit durchgehender Taskleiste (Stretched Desktop).

Oder ein Testaufbau mit einem 23" und einem 1280x1024-Beamer.
(Oder 2x1024x768-Beamer mit Overlapping/Edge-Blending)

Warum zeigen die keinen DIVX-Screenshot in 1920x1080?
(ich habe sowas noch nicht gesehen, nur die vom 1080i Sender)

Oder ein In-Game-Shot in 1920x1200 (welches Spiel kann da eigentlich füssig & darstellen; ohne AA? Schaltzeiten vs. FPS ? ;)

Mir würde ja schon ein Desktop-Pur-Screenshot gefallen. Besonders in 2x1920x1200 per DVI ROTATED.
:)

Gruß
Ben

Benedikt
2004-09-09, 22:18:23
Schade, ist ein durchaus wichtiges Kaufkriterium für mich, da ich mit einer SkyStar2 an meinem Rechner TV sehe und damit auf einen guten Hardwaredecoder angewiesen bin. Der meiner Geforce4 ist schlicht und ergreifend schlecht, ein billiger BOB-Deinterlacer, nur ansatzweise ertragbar.
Ich hab die Hauppauge WinTV DVB-S in meinem Rechner zum Sat-gucken, und ich kann deine Aussage eindeutig bestätigen - grässlich anzusehen mit BOB-Modus. :frown:

MFG,
B. W.

Benedikt
2004-09-09, 22:22:05
Hi all,

weiss jemand wann "endlich" die Encodierung ermöglicht wird? Mit NVIDIA-eigener oder fremder Software? Mit DIVX 5.x? Evtl. mit nächstem Canopus ProCoder? http://das.slashcam-forum.de/forumc_config.pl?read=64402

Ich bin wohl der einzige der die meisten 6600 Reviews langweilig findet: Alle TOP-Sites benchen weltweit die 6600 nur mit Spielen. Keine Vivo-Tests und WENN dann wird nur Decodieren/Playback getestet.

Traurige Beispiele bzw. eigentlich löbliche Ausnahmen:
http://www.xbitlabs.com/articles/video/display/geforce6600gt-theory_6.html
http://www.beyond3d.com/previews/nvidia/nv43/index.php?p=23

Das Thema würde soviel hergeben:
(habe leider nicht das Budget zum selber testen)

Warum schließt keiner 2 23" TFTs an, mit je 1920x1200 per DVI ?!.
(Oder analog auf einem IBM c220p)
THG kommen doch bestimmt an sowas heran.

Z.B. auf dem einen Display Premiere Pro 1.5 mit HDV Patch, Vegas o.ä. und auf dem anderen 1080p Playback. Solche Screenshots würden mich interessieren, mit durchgehender Taskleiste (Stretched Desktop).

Oder ein Testaufbau mit einem 23" und einem 1280x1024-Beamer.
(Oder 2x1024x768-Beamer mit Overlapping/Edge-Blending)

Warum zeigen die keinen DIVX-Screenshot in 1920x1080?
(ich habe sowas noch nicht gesehen, nur die vom 1080i Sender)

Oder ein In-Game-Shot in 1920x1200 (welches Spiel kann da eigentlich füssig & darstellen; ohne AA? Schaltzeiten vs. FPS ? ;)

Mir würde ja schon ein Desktop-Pur-Screenshot gefallen. Besonders in 2x1920x1200 per DVI ROTATED.
:)

Gruß
Ben
Was möchtest du sehen, superhohe Auflösungen zum Spielen oder was? Ich denke hier geht's eher um den programmable Video-Processor der Geforce6-Serie, das heißt Beschleunigung des En-/Decodierens von MPEG2 und MPEG4 ...
BTW, da Nvidia noch immer mit der entsprechenden Funktionalität wirbt (http://www.xbitlabs.com/articles/editorial/display/idf2004f-2_3.html) (auf dem IDF), gehe ich immer noch davon aus dass da bald etwas kommen wird.

MFG,
B. W.

winter
2004-09-10, 01:21:31
Mit dem gestesteten 65.76 Treiber funktioniert bei mir bisher nur die HD-MPEGII-Beschleunigung. Die HD-WMV Beschleunigung funktioniert jedenfalls nicht, die selbe last gibts auch im Softwaremodus, und DivX ist auch nicht schneller als sonst, wobei ich auch kein wirklich gutes DivX Testvideo hab. Meine bringen eine last von 2-15% zustande, das is wohl nicht genug zum Testen.

Interessanterweise konnte in den Tests nur eine funktionalität mit PCI-E Karten bescheinigt werden, weiß da einer was genaueres?

Benedikt
2004-09-10, 15:23:03
Mit dem gestesteten 65.76 Treiber funktioniert bei mir bisher nur die HD-MPEGII-Beschleunigung. Die HD-WMV Beschleunigung funktioniert jedenfalls nicht, die selbe last gibts auch im Softwaremodus, und DivX ist auch nicht schneller als sonst, wobei ich auch kein wirklich gutes DivX Testvideo hab. Meine bringen eine last von 2-15% zustande, das is wohl nicht genug zum Testen.

Interessanterweise konnte in den Tests nur eine funktionalität mit PCI-E Karten bescheinigt werden, weiß da einer was genaueres? Eventuell wegen des schnelleren Rückkanals von PCIe? Weiß aber nicht genau, ob das auch auf's Dekodieren eine Auswirkung hat. Wer weiß, vielleicht aktivieren sie's auch nur für PCIe-Karten.

MFG,
B. W.

/P.S.: 15% kommen mir arg wenig vor für dein System - welche Auflösung haben denn die Videos, und welche Postprocessing-Optionen hast du aktiv?

winter
2004-09-12, 17:33:52
Keine wirklich Hochauflösenden Videos, ich benutze DivX nicht für meine eigenen Videos. Postprocessing ändert sehr wenig an der Last, vielleicht 1%.

Dass der VideoProzessor auf den AGP-Karten nicht aktiv ist liegt wohl daran, dass von dem Treiber offiziell nur PCI-E Karten supported werden, Guru3D hat ja wieder an der ini rumgepfuscht, so dass alle Karten unterstützt werden. Dabei werden die AGP-6800er wahrscheinlich nicht als Karten mit VP erkannt (wie gesagt, ja nicht von Nvidia unterstützt sondern nur von Guru3D per ini gemoddet)

Benedikt
2004-09-12, 17:57:55
Keine wirklich Hochauflösenden Videos, ich benutze DivX nicht für meine eigenen Videos. Postprocessing ändert sehr wenig an der Last, vielleicht 1%.

Dass der VideoProzessor auf den AGP-Karten nicht aktiv ist liegt wohl daran, dass von dem Treiber offiziell nur PCI-E Karten supported werden, Guru3D hat ja wieder an der ini rumgepfuscht, so dass alle Karten unterstützt werden. Dabei werden die AGP-6800er wahrscheinlich nicht als Karten mit VP erkannt (wie gesagt, ja nicht von Nvidia unterstützt sondern nur von Guru3D per ini gemoddet) Du könntest die ungemoddeten 65.76er probieren - siehe NV-Forum.
Oder die 66.00er oder die 66.31er - suchs dir aus :)

MFG,
B. W.

r@h
2004-09-12, 19:44:45
sogar die Bezeichnungen sind identisch ( Personal Video Recorder, TV On-Demand etc.. )Hoffentlich hast Du wenigstens schon mitbekommen, dass diese "Bezeichnungsgleichheit" schlicht von der Tatsache herrührt, da es sich dabei nicht um Produkt-, sondern um Eigenschafts-Bezeichnungen handelt.

Im Bereich der TV-Karten (ja, weder von ATI noch von nVidia ;-) gibt's PVR's und Video-On-Demand schon seit Ewigkeiten.

Razor

r@h
2004-09-12, 19:48:54
Ich hab die Hauppauge WinTV DVB-S in meinem Rechner zum Sat-gucken, und ich kann deine Aussage eindeutig bestätigen - grässlich anzusehen mit BOB-Modus. :frown:BOB finde ich 'eh nicht grad' ideal... warum nicht Weave?
:confused:

Razor

Benedikt
2004-09-12, 22:22:48
BOB finde ich 'eh nicht grad' ideal... warum nicht Weave?
:confused:

Razor
Gibt leider definitiv nur BOB zur Auswahl, sowohl bei der original-App die dazu geliefert wird und bei Fremd-Tools wie WatchTVPro oder ProgDVB (einfach mal googeln). Traurig, aber wahr! :(

MFG,
B. W.

r@h
2004-09-13, 10:11:36
Gibt leider definitiv nur BOB zur Auswahl, sowohl bei der original-App die dazu geliefert wird und bei Fremd-Tools wie WatchTVPro oder ProgDVB (einfach mal googeln). Traurig, aber wahr! :(Ein Grund mehr, DScaler als Tool der Wahl vorzuziehen.

Allerdings bietet dieses wohl keine Unterstützung für die DVB-S...
Welcher BT-Chip ist da noch gleich drauf'?

Razor

winter
2004-09-13, 13:00:00
Auf normalen DVB-S Karten ist definitiv KEIN BT-Chip. Es gibt da drei Typen, Technotrend (am meisten verbaut, alle Hauppauge Karten, Hardware MPEGII, soweit mir bekannt ziemlich hässlich aufm Monitor), TwinHan (Software MPEGII oder Graka, Karten unter 100€) und B2C2 (Software MPEGII, Beispiel Skystar2, Karten auch unter 100€)

Benedikt: Du hast da wohl echt pech gehabt, wenn schon im Hardware MPEGII Decoder auf der Karte Deinerlaced wird. Die kann nähmlich dann wirklich nur Bob. Wobei Weave noch schlimmer zum TV-schaun ist. Für Filme mit Kinotypischen 24fps ideal, für das TV Programm mit vollen 50 (2x25) absolut schauerhaft, bei Bewegungen gibts Kamm-effekte und es ruckelt mit 25fps vor sich hin. Bob hat den vorteil, volle 50fps darzustellen und *nur* ein bisschen zu flimmern. Allerdings gibt es auch nur die halbe vertikale Auflösung, da ja nur die Hälfte des Bildes dargestellt wird. Das macht das Bild so hässlich.

Glückliche mit adaptivem Filter, der errechnet die Differenz aus zwei Bildern und kann das Video in voller Auflösung und in voller Geschwindigkeit darstellen.

Zu den Treibern:
Zumindest der 66.00 bietet keine Unterstützung für den Videoprozessor, selbst getestet. Der 66.31 lauft Aussagen hier im Forum auch nicht, ich spaar mir die Stunde Downloadzeit.

Der ungemoddete 65.76 bietet zumindest laut Nvidia keine Unterstützung für AGP-Karten.

Benedikt
2004-09-14, 02:01:57
Benedikt: Du hast da wohl echt pech gehabt, wenn schon im Hardware MPEGII Decoder auf der Karte Deinerlaced wird. Die kann nähmlich dann wirklich nur Bob. Wobei Weave noch schlimmer zum TV-schaun ist. Für Filme mit Kinotypischen 24fps ideal, für das TV Programm mit vollen 50 (2x25) absolut schauerhaft, bei Bewegungen gibts Kamm-effekte und es ruckelt mit 25fps vor sich hin. Bob hat den vorteil, volle 50fps darzustellen und *nur* ein bisschen zu flimmern. Allerdings gibt es auch nur die halbe vertikale Auflösung, da ja nur die Hälfte des Bildes dargestellt wird. Das macht das Bild so hässlich.

Das Deinterlacing ist selbstverständlich deaktivierbar - ohne sieht's besser aus obwohl man Kammartefakte bekommt.
Und ob der MPEG2-decoder auf der Karte oder die Grafikkarte das Deinterlacing übernimmt, weiß ich nicht. Wenns die Graka wäre könnte man ja auf Besserung hoffen (sofern man sich die Methode endlich aussuchen könnte, und nicht BOB oder stirb!).

MFG,
B. W.

winter
2004-09-14, 15:10:17
Der Deinterlacer wird nicht selbiger der Graka sein, der ist nähmlich immer adaptiv, die Graka kann garkein Bob X-D. Es wird wohl von der Karte übernommen. Schade, bob und weave sind die einfachst möglichen Methoden, interlacing loszuwerden. Interlaced darstellen ist schwachwitz, da zeigt er auf einem Progressive-Scan Bildschirm ohne Deinterlacing einfach beide Fields gleichzeitig an, so jedenfalls sieht das aus. und das ist nichts anderes als Weave. Is trotzdem alles hässlich X-D. Ich bin da mit meiner SkyStar2 echt fein raus (netterweise hat die auchnoch fast nix gekostet X-D).

winter
2004-09-24, 19:41:28
Um das ganze mal wieder in die Diskussionen zu heben, hat sich inzwischen irgendwas auf diesem Gebiet getan? Nvidias PCIe Karten haben ja inzwischen den Videoprozessor aktiviert bekommen. Aber wie sieht es mit einem neuen Treiber aus, was macht Nvidia denn grade?

Benedikt
2004-09-24, 22:29:29
Um das ganze mal wieder in die Diskussionen zu heben, hat sich inzwischen irgendwas auf diesem Gebiet getan? Nvidias PCIe Karten haben ja inzwischen den Videoprozessor aktiviert bekommen. Aber wie sieht es mit einem neuen Treiber aus, was macht Nvidia denn grade? Was aber AFAIK noch niemand reproduzieren konnte ... :sneak: ;)

MFG,
B. W.

/edit: das soll natürlich an alle "early adopters" hier im Forum ein Aufruf sein, uns hiermit endlich aufzuklären, ob's nun doch einen Grund gibt, auf PCIe zu wechseln... :biggrin:

up¦²
2004-09-27, 22:57:11
Da sollte doch auch der VIA CLE266 0erwähnt werden!

A Leading Edge Digital Video Experience
The integrated VIA 2D/3D 128-bit graphics engine with internal AGP 8X possesses every feature required for digital video. Hardware MPEG-2 decoding delivers must have applications like DVD playback and and video streaming at an equivalent level to today's multi-gigahertz, discrete graphics PC systems, at a fraction of the cost.


http://www.via.com.tw/en/products/chipsets/c-series/cle266/#benefits
Immerhin kompensiert er die schwache brust des C3 damit :rolleyes:

Andererseits hat Ati gerade den neuen THEATER 550 PRO rausgebracht der schon immer HW-Mpeg-2 konnte :rolleyes:
Ging leider ziemlich unter, da die x800/fx6800 Schlacht gerade tobte ;D
http://www.ati.com/products/theater550/index.html


Specifications
Sharper video capture is achieved through an industry leading 2D 5-line comb filter.


Professional quality 3D comb filter which is used to separate the luminance and chrominance components of video. The 3D filter works best on still areas of video because it is able to scan ahead a frame and determine whether the image has changed or not. It then uses this information to properly separate the luminance and chrominance parts of a composite or TV tuner signal to eliminate color bleeding or other artifacting.


The THEATER™550 PRO’s digital audio architecture delivers 100% synchronized audio and video. Audio and video streams are processed in together in the chip and sent out packaged as a MPEG stream to the system for storage or playback. Say goodbye to bad lip synch!


High horsepower chip ensures that frames are never dropped and smooth and fluid video is recorded, providing an ideal PVR experience.


Bright bursts in white or color levels occur due to fluctuating signal strength and cause video to suddenly brighten and then darken. The THEATER™550 PRO prevents this problem from occurring by using a 12-bit analog to digital converter which converts and smoothes out the analog signal, along with Automatic Gain Control (AGC) circuitry.


Most analog video sources, whether from cable TV or antenna are very noisy with snow and other distortions. The THEATER™550 PRO has been designed to tackle this real-world video and has a dedicated engine to intelligently remove noise, yet still achieved sharp edges and fine textures.


The THEATER™550 PRO combines all the features of a TV tuning PVR card into a single chip complete with high-end THEATER™quality

Weiter mit dem DeltaChrome:
Da scheinen mir noch Talente zu schlummern :confused:

Gast
2004-09-28, 05:53:53
DASS moderne Video-Chips wie der X800 oder erst recht der 6800 intern viele Berechnungsschritte beim De- und Encoden von Videos übernehmen können, steht ja außer Frage (und meinetwegen auch der DeltaChrome). Nur muß das ganze eben eine Software unterstützen!!!
Da hat ATI schon mal gigantisch vorgelegt (nämlich mit einem ganzen sagenhaften Programm, dem DivX-Player), wünschenswert wäre natürlich eine generelle Unterstützung gerade von HDTV-Formaten.

winter
2004-09-28, 15:59:31
Und schon wieder ein neuer Nvidia Treiber (66.70) und immernoch kein Lebenszeichen vom Videoprozesser, HD-WMV Auslastung wie eh und jeh. Langsam nervts aber wirklich. DIe sollen gefälligst mal damit rausrücken!

Benedikt
2004-09-28, 16:40:32
Ich denke (oder besser hoffe), die nächsten offiziellen Treiber werden in die Richtung etwas bieten können. 3DMark2005 ist nicht mehr weit... :)

MFG,
B. W.

Benedikt
2004-10-02, 14:44:32
Update vom 02.10.04:
ForceWare 66.81 (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=173484) (offiziell von NV) bringt keinen funktionierenden Videoprozessor. CPU-Last beim De-/Encodieren von Divx, Xvid, WMV9 ist absolut unverändert. Keine qualitativen Verbesserungen egal welcher Art. Kein besseres Deinterlacing. ;(

MFG,
B. W.

winter
2004-10-03, 15:38:34
Bei DivX stört mich das ganze nicht wirklich, mit postprocessing bei einem hq video unter 10% last...

Ice =A=
2004-10-03, 16:30:52
@winter:
Glaube ich Dir nicht. Lade mal ein HDTV-DivX-Video runter, da kannst Du froh sein, wenn Dein System das Video bei maximaler Qualität überhaupt ruckelfrei abspielt...

Benedikt
2004-10-03, 17:08:04
Bei DivX stört mich das ganze nicht wirklich, mit postprocessing bei einem hq video unter 10% last...
Ich dachte da auch eher an encodieren. Da brauche ich alle Power, die ich kriegen kann... ;)

MFG,
B. W.

Quasar
2004-10-03, 17:19:13
Konträr zur hier geäußerten Meinung wäre für mich persönlich eine entscheidende Entlastung der CPU bei HD-Material, sowie passive Kühlung und geringe Leistungsaufnahme ein absolutes Kaufkriterium. Egal, ob das nun von nVidia, ATi, S3 oder sonstwem geliefert würde (*aufdenS4Omnichromeschiel*)

winter
2004-10-03, 17:22:32
Ich encodiere nicht in DivX, schrottformat :P
Encoding sollte ja angeblich sowieso nur mit der NvidiaSoftware Hardwarebeschleunigt funktionieren.

BTW: WinMedia9 HD 1080p 16:9 immernoch 50->60% Auslastung.
XVid 624x336, Postprocessing: 5-7% Last. Find ich jetzt nicht derart dramatisch X-D

up¦²
2004-10-03, 17:48:03
Sys: AXP-TB 2.249GHz, 1024MB DDR 173MHz, MSI GF6800 GT@Ultra
BTW: WinMedia9 HD 1080p 16:9 immernoch 50->60% Auslastung.

... niemals! :biggrin:

Benedikt
2004-10-03, 20:54:22
Ich encodiere nicht in DivX, schrottformat :P
Encoding sollte ja angeblich sowieso nur mit der NvidiaSoftware Hardwarebeschleunigt funktionieren.


Wus? Wo hast du das denn her? Quelle?
Denke nicht, dass das irgendwo so gestanden hat (man möge mich bitte korrigieren, wenn ich falsch liege). :confused:

MFG,
B. W.

winter
2004-10-03, 21:08:26
Nö, keinen Link, hab das nur mal (war das ned hier?) aufgeschnappt. Deswegen das "angeblich", nicht für Bare Münze zu nehmen. Ähnlich sehen würde es Nvidia aber leider schon.

Benedikt
2004-10-03, 22:53:05
Nö, keinen Link, hab das nur mal (war das ned hier?) aufgeschnappt. Deswegen das "angeblich", nicht für Bare Münze zu nehmen. Ähnlich sehen würde es Nvidia aber leider schon.
Hmm, täuscht du dich da jetzt nicht? AFAIK haben Leute wie Razor & co immer behauptet, dass der VP mit den entsprechenden DirectShow-Codecs funktionieren sollte, d. h. mit allen Programmen, die mit DS arbeiten (also fast alle). Ich gehe mit dieser "Spekulation" konform, das würde IMO auch mehr Sinn machen. Und ich denke mal (hoffe?), dass NV das auch so sieht - würde die Nutzbarkeit des VP stark erweitern.

MFG,
B. W.

Tjell
2004-10-03, 23:08:35
Nö, keinen Link, hab das nur mal (war das ned hier?) aufgeschnappt. Deswegen das "angeblich", nicht für Bare Münze zu nehmen. Ähnlich sehen würde es Nvidia aber leider schon.
Das kann ich aus meiner Erinnerung bestätigen.

Es gab mal eine Pressemitteilung von oder ein Interview mit nVidia, wo sie aussagten, daß die Videobeschleunigung derzeit nur mit der nvidiaeigenen Software cpuentlastend funktioniert, man jedoch derzeit (also zu jenem Zeitpunkt) in Verhandlungen mit Firmen wie Intervideo zur Unterstützung der Funktion stünde.

Benedikt
2004-10-04, 22:32:59
Das kann ich aus meiner Erinnerung bestätigen.

Es gab mal eine Pressemitteilung von oder ein Interview mit nVidia, wo sie aussagten, daß die Videobeschleunigung derzeit nur mit der nvidiaeigenen Software cpuentlastend funktioniert, man jedoch derzeit (also zu jenem Zeitpunkt) in Verhandlungen mit Firmen wie Intervideo zur Unterstützung der Funktion stünde.

Welche Software von nVidia ist das? ForceWare Multimedia?
Wo kann ich die downloaden?

MFG,
B. W.

Tjell
2004-10-05, 08:39:30
Ich meine, daß da gestanden hätte, daß die Software nur den Produkten beiliegt und noch nicht einzeln herunterzuladen ist.

Ich vermute, daß es sich dabei um die Personal Cinema-Produkte handelt, der die "Forceware Multimedia" inklusive Aufnahme- und Editiersoftware beiliegen soll.

Tjell
2004-10-06, 10:41:24
Hier ein Auszug aus dem PDF des neuen Treibers 66.81 vom nVidia-FTP (ftp://download.nvidia.com/Windows/66.81/66.81_ForceWare_Release_65_Graphics_Drivers_Release_Notes_Windows_XP-2000.pdf):
Release 65 Enhancements
...
Video Enhancements
Video enhancements in Release 65 include
• Optimized motion compensation and video processing to take advantage of
the capabilities of the newest generation of NVIDIA GPUs.
• Support for Microsoft’s Certified Output Protection Protocol (COPP)
• Improved media capture interface
...
HDTV Support Enhancements
Release 65 offers improved HDTV over DVI underscan support, exposed
through the NVIDIA control panel.
...

winter
2004-10-06, 16:57:48
Am Deinterlacer wurde ein bisschen geschraubt, sieht jetzt besser aus. HD-wmv nicht mehr über 65% CPU (mediaplayer9 Win2k3). Last bei allem DivX/Xvid material das ich habe sehr niedrig...

Ice =A=
2004-10-06, 17:21:29
Also, bei mir mit den neuesten Treibern funktioniert das nicht!

@ winter:
Welchen Player benutzt Du? Muß man irgendwas in den Optionen oder Grafiktreibern einstellen?
Sagst Du nur einfach, daß es momentan gut bei Dir läuft, oder ist es mit älteren Treibern tatsächlich im Vergleich (!) langsamer gelaufen? Hast Du eine AGP oder eine PCIX-Grafikkarte?

Tjell
2004-10-11, 15:58:07
Hard[OCP] orakeln im Review der GeForce 6200 etwas zum Videoprozessor der NV4x:

The Bottom Line
While we did not cover other uses for the 6200 here, it is full of features. Considering there is a possibility a passively cooled GeForce 6200, it could make an excellent video card for a home theater system or in a system where quiet computing is a must. The programmable video processor on board has a bevy of features that appeal to the home video / home theater enthusiast, which we will be hearing a lot more about soon. Due to some changes at product launch, we were not able to share this with you today, but it looks very promising.

Quelle (http://www.hardocp.com/article.html?art=Njc0LDEy)

winter
2004-10-11, 16:13:11
Also, bei mir mit den neuesten Treibern funktioniert das nicht!

@ winter:
Welchen Player benutzt Du? Muß man irgendwas in den Optionen oder Grafiktreibern einstellen?
Sagst Du nur einfach, daß es momentan gut bei Dir läuft, oder ist es mit älteren Treibern tatsächlich im Vergleich (!) langsamer gelaufen? Hast Du eine AGP oder eine PCIX-Grafikkarte?
AGP 6800GT, Vergleich zu allen bisher probierten treibern, Seit 66.29 ist der WMV-HD Bug weg (100% Last), seitm 66.81 ist die Last unter 70%, Deinterlacer getestet über PVA Stream, Sat1, irgendne Gerichtshow, angesehen wie immer mit PowerDVD 5 (WinDVD kann keine Hardwarewiedergabe, NVDVD nutze ich nicht X-D)

DrumDub
2004-10-11, 17:24:19
sieht nicht gut aus für den (kompletten) vp im nv40:

The Video Processor (soon to receive a true marketing name) on the NV40 was somewhat broken, although it featured MPEG 2 decode acceleration. Apparently, support for WMV9 decode acceleration was not up to par with what NVIDIA had hoped for. As of the publication of this article, NVIDIA still has not answered our questions of whether or not there is any hardware encoding acceleration as was originally promised with NV40. So, the feature set of the Video Processor on NV40 (the GeForce 6800) was incomplete, only in its support for WMV9 acceleration (arguably the most important feature of it).

http://www.anandtech.com/video/showdoc.aspx?i=2238&p=2

mit dem nv43 wurde das offenbar gefixt.

MechWOLLIer
2004-10-11, 18:34:28
Toll gemacht Nvidia, wirklich.
Kommt wohl ziemlich nahe an "Kundenverarsche" vom feinsten dran.
Ist zwar nicht so, dass ich mir den NV40 deswegen gekauft habe, aber ärgern tuts mich irgendwie schon.

Nur, Nvidia muss doch wohl schon vor der Ankündigung gewusst haben, dass der VP im NV40 defekt ist. Also warum haben die das denn so an die große Glocke gehangen?

Gast
2004-10-11, 18:38:55
Gabs bisher ein offizielles Wort wann der VPU aktiv genutzt wird? Nein, also abwarten Tee rauchen, noch ist nicht aller Tage abend, es wird nur gemunkelt und vermutet.
Können wir gleich weiter Spekulieren ^^ sollte der VPU auf den NV40 Chips einen Fehler haben, können sicher andere Recheneinheiten per Treiber/Programm/Fix dazu gebracht werden diese Aufgabe zu übernehmen, wäre ne gelungene Schadensbegrenzung/Vertuschung.

Aber abwarten ;)

Benedikt
2004-10-11, 18:50:45
Toll gemacht Nvidia, wirklich.
Kommt wohl ziemlich nahe an "Kundenverarsche" vom feinsten dran.
Ist zwar nicht so, dass ich mir den NV40 nicht deswegen gekauft habe, aber ärgern tuts mich irgendwie schon.

Nur, Nvidia muss doch wohl schon vor der Ankündigung gewusst haben, dass der VP im NV40 defekt ist. Also warum haben die das denn so an die große Glocke gehangen?

Für mich war der VP zwar auch nicht der ausschlaggebende Grund, einen NV40 zu kaufen, aber doch habe ich mich sehr darauf gefreut, die nicht unerhebliche Ausgabe für eine 6800NU für mich mittels eines "Vernunftbonus" wie dem VP zumindest subjektiv etwas erträglicher zu machen.
Hmm. Kundenverarsche vom Feinsten? Könnte IMO hinkommen. Ich kann doch nicht massig Launch-Folien herausgeben, die zeigen sollen, wie toll dieser VP doch ist und was er (nicht) alles kann. Wenn's schon nicht Kundenverarsche ist, ist es doch höchstgradig irreführend hat zumindest einen flauen Beigeschmack (muss ich doch sehen, wenn's bei den Prototypen und dann bei den Release-Kandidaten nicht funktioniert - so "blind" kann man doch gar nicht sein!!).
Nvidia, ich kanns nicht oft genug wiederholen, ich bin enttäuscht, aber schwer! :frown:

MFG,
B. W.

Gast
2004-10-11, 21:14:11
hier http://www.xbitlabs.com/articles/video/display/geforce6600gt-theory_6.html wird auch eine 6800GT mitgetestet, und der VP scheint eindeutig zu funktionieren, obwohl die 6800GT für PCI Express ja nichts anderes als ein NV40 mit AGP-to-PCIExpress bridge ist (oder wohl doch nicht ?)
hier http://www.anandtech.com/video/showdoc.aspx?i=2238&p=2 wird auch noch etwas zum VP im NV40 philosophiert, aber man kann auch hier nicht herauslesen ob das teil jetzt gar nicht läuft, ob es vielleicht teilweise laufen wird, ob möglicherweise nur der encoding-teil betroffen ist, usw. AT sagen ja sie werden sich melden wenn sie neue infos haben, und sie scheinen fest davon überzeugt antworten auf ihre fragen zu erhalten ;)
also schaumermal was noch kommt...
P.S. gibt´s wirklich niemanden hier der mit seiner NV40 z.b. vergleichbare werte mit denen von xbitlabs beim abspielen des step into liquid 1080-videos hat ? *hoff*

DrumDub
2004-10-11, 21:33:50
hier http://www.xbitlabs.com/articles/video/display/geforce6600gt-theory_6.html wird auch eine 6800GT mitgetestet, und der VP scheint eindeutig zu funktionieren, obwohl die 6800GT für PCI Express ja nichts anderes als ein NV40 mit AGP-to-PCIExpress bridge ist (oder wohl doch nicht ?)


ich versteh das so, dass die wmv 9 acceleration nicht richtig funktioniert beim nv40. alles andere funktioniert ja lt. anandtech. was die encodingfähigeiten angeht, so haben wir das ja leider noch keine ergebnisse. ich denk mal, da liegt der knackpunkt beim nv40.

Tjell
2004-10-12, 08:59:31
Ich habe den Artikel von Anandtech gelesen, und da ist an keiner Stelle die Rede davon, daß das begründete Gerüchte, geschweige denn gesicherte Angaben seien, woraus hervorginge, daß der VP im NV40 generell defekt sei.

Das ist eine (nachvollziehbare) Mutmaßung seitens Anandtech.

Mir Lieblingsbenchmarkignorierseite Hard[OCP] deuteln da etwas völlig Gegenteiliges, was sich nicht danach anhört, als beschränke sich die VP-Funktionalität nur auf die 6600er und 6200er.

Abtrinken und Tee warten.

Gast
2004-10-12, 12:29:19
ich versteh das so, dass die wmv 9 acceleration nicht richtig funktioniert beim nv40. alles andere funktioniert ja lt. anandtech
der test von xbitlabs besagt ja genau daß der VP bei der 6800GT funktioniert, das ist ja das komische daran (zumindest bei der 6800GT welche die da haben - in allen tests, vor allem beim WMVHD test ist die niedrige CPU auslastung deutlich)
Ich habe den Artikel von Anandtech gelesen, und da ist an keiner Stelle die Rede davon, daß das begründete Gerüchte, geschweige denn gesicherte Angaben seien, woraus hervorginge, daß der VP im NV40 generell defekt sei. Das ist eine (nachvollziehbare) Mutmaßung seitens Anandtech.
sag ich doch auch: "...aber man kann auch hier NICHT herauslesen ob das teil jetzt gar nicht läuft..."
daß der VP auf 6600 und 6200 läuft, daran zweifelt niemand. aber es ist der 6800 der mich interessiert und eben da hört man zum VP von jeder quelle etwas anderes.

DrumDub
2004-10-12, 12:46:54
der test von xbitlabs besagt ja genau daß der VP bei der 6800GT funktioniert, das ist ja das komische daran (zumindest bei der 6800GT welche die da haben - in allen tests, vor allem beim WMVHD test ist die niedrige CPU auslastung deutlich)


stimmt schon. dazu gibt es meines erachtens zwei möglichkeiten:

a) der vp ist nicht in allen nv40s defekt, sondern nur auf einigen/den meisten. (unterschiedliche steppings?).
b) nv hat einen workaround für dieses hw-problem über den treiber gefunden.

dir große frage, die sich mir aber dennoch stellt, ist, wie es um die die encodingfähigkeiten bestellt ist bzw. ob diese je für den nv40 verfügbar sein werden.

Benedikt
2004-10-12, 12:58:42
stimmt schon. dazu gibt es meines erachtens zwei möglichkeiten:

a) der vp ist nicht in allen nv40s defekt, sondern nur auf einigen/den meisten. (unterschiedliche steppings?).
b) nv hat einen workaround für dieses hw-problem über den treiber gefunden.

dir große farge, die sich mir aber dennoch stellt, ist, wie es um die die encodingfähigkeiten bestellt ist bzw. ob diese je,als für den nv40 verfügbar sein werden.

Die Große Frage ist IMO wieso dieser VP noch bei keiner NV40 so richtig funktioniert hat. Dieses von Xbitlabs festgestellte hohe "Delta-CPU-Last" konnte ich nicht nachvollziehen, noch mit keinem Treiber. Ergo: VP funktioniert (noch) nicht.

Für Interessierte gibts bei AnandTech auch einen offiziellen Thread. (http://forums.anandtech.com/messageview.aspx?catid=31&threadid=1408216&enterthread=y)
Und, fast noch wichtiger: Ein "offener Brief" (http://forums.anandtech.com/messageview.aspx?catid=31&threadid=1408216&STARTPAGE=7&enterthread=y) an Nvidia, den IMO möglichst viele unterschreiben sollten! Lassen wir Nvidia wissen, dass diese Situation untragbar ist!

MFG,
B. W.

DrumDub
2004-10-12, 13:09:01
Die Große Frage ist IMO wieso dieser VP noch bei keiner NV40 so richtig funktioniert hat. Dieses von Xbitlabs festgestellte hohe "Delta-CPU-Last" konnte ich nicht nachvollziehen, noch mit keinem Treiber. Ergo: VP funktioniert (noch) nicht.

Für Interessierte gibts bei AnandTech auch einen offiziellen Thread. (http://forums.anandtech.com/messageview.aspx?catid=31&threadid=1408216&enterthread=y)
Und, fast noch wichtiger: Ein "offener Brief" (http://forums.anandtech.com/messageview.aspx?catid=31&threadid=1408216&STARTPAGE=7&enterthread=y) an Nvidia, den IMO möglichst viele unterschreiben sollten! Lassen wir Nvidia wissen, dass diese Situation untragbar ist!

MFG,
B. W.

interessant. damit sind xbitlabs die einzigen, die es mit dem 65.76 geschafft haben den vp auf einem nv40 mit wmv-wiedergabe ans laufen zu bekommen. irgendwie ist das ganz schon sehr merkwürdig. nv sollte dazu endlich mal stellung beziehen. der offene brief ist da echt ne gute aktion. da sollte jeder besitzer einer karte der 6800er-serie mitmachen.

edit: aha, anscheinend hat ein user (DBoy00) mit einer 6800 im anadtech-forum die sache soch ans laufen bekommen, auch wenn die cpulast höher ist als bei xbitlabs: http://forums.anandtech.com/messageview.aspx?catid=31&threadid=1408216&STARTPAGE=7&FTVAR_FORUMVIEWTMP=Linear

BenB
2004-10-13, 10:52:14
interessant. damit sind xbitlabs die einzigen, die es mit dem 65.76 geschafft haben den vp auf einem nv40 mit wmv-wiedergabe ans laufen zu bekommen. irgendwie ist das ganz schon sehr merkwürdig.


Wo steht bei Xbitlabs etwas von WMV-Wiedergabe? Das "HDTV Playback" kann ein normales Mpeg2-HDTV File sein.

DrumDub
2004-10-13, 11:04:03
Wo steht bei Xbitlabs etwas von WMV-Wiedergabe? Das "HDTV Playback" kann ein normales Mpeg2-HDTV File sein.

das ist allerdings möglich. aber auch für mpeg4/divx sind die werte ebenfalls mit dem 65.76 gesunken. und wmv ist doch meines wissens nach auch mpeg4.

Benedikt
2004-10-13, 19:22:17
das ist allerdings möglich. aber auch für mpeg4/divx sind die werte ebenfalls mit dem 65.76 gesunken. und wmv ist doch meines wissens nach auch mpeg4.

Für MPEG2-HD würde auch sprechen, dass ja offenbar der VP unter PowerDVD schon funktioniert. Da kann ich mir schon eine Last-Reduktion vorstellen.

MFG,
B. W.

up¦²
2004-10-14, 13:19:07
Probiert doch mal den neuen Intervideo WinDVD 6 Platinum (Demo reicht).
Hat zwar nicht 'native' WMV-HD support aber wenn WMP 9/10 installiert sind, wird er genutzt :biggrin:
Bei WinDVD dann HW und SW anfinken :wink:
http://www.intervideo.com/jsp/WinDVD_Profile.jsp

Also bei mir läuft eine WMV-HD DVD tatedellos (720p, 5.1):
AXP1500
Radeon 9200se
512mb

Mit dem WMP10 ruckelt es, solang ich im Menü bin, aber wenn der Film läuft, geht's so lala ;D