PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Deinterlacing und Bandbreite der CPUs


Lenon
2008-10-09, 09:17:02
Hi Leute,


ich habe derzeit vor, mir einen HTPC ins Wohnzimmer zu stellen.

Also stellte ich mir auf Basis des AMD 780G Chipsets einen relativ stromsparenden PC zusammen (um auch HD beschleunigen zu können).

Als ich mich aber mit der Software für diesen HTPC beschäftigte (Mediaportal), stieß ich auf folgenden Thread im Mediaportalforum

http://forum.team-mediaportal.com/hardware-174/erfahrungen-mit-mainboard-gigabyte-ga-ma78gm-s2h-40306/

Hier wurde über das 780g Mainboard von Gigabyte diskutiert. Es stellte sich dann heraus, daß einige deinterlacing Modi nicht funktionieren (bei 1080i), wenn nicht ein Phenom Prozessor im Sockel steckt. Dies wurde damit begründet, daß der Phenom durch sein HT3 ein schnelleres "Peripherieinterface" besäße (Athlon X2 8GB/s - Phenom 14,4GB/s)

Zitate aus dem verlinkten Thread:

Ich habe gerade einen Phenom 9750 erhalten und gleich eingebaut - ging blitzschnell. Die CPU idlt mit 30 Grad vor sich hin (Lüfter bei 1000 Umdrehungen/Sekunde). Ich brauchte gar nichts neu einzustellen, ich habe den PC nach CPU-Tausch einfach so neu hochgefahren, und Mediaportal ist automatisch gestartet. Und gleich machte sich die beschleunigte Radeon 3200 bemerkbar. Bei SD-TV kein Bob-Deinterlace mehr (Vista mit Aero eingeschaltet), das Bild ist jetzt hervorragend. Wenn ich jetzt durch den EPG mit der Fernbedienung rase, stottert das Bild unten links nicht mehr. HDTV läuft jetzt auch einwandfrei. Man merkt schon dass die Grafik deutlich schneller geworden ist, die kleinen Slowdowns mit Mediaportal wie vorher sind jetzt Geschichte.

Im CCC sind jetzt 5 Deinterlace-Optionen sichtbar (vorher waren es mit Aero nur zwei).

Ich habe meinen neuen Phenom X3 (3x2,1 GHz, 1,8 GH HT3) eingebaut. Schnelleindruck:

1. HDTV phenomenal 1080i flüssig, super deinterlaced! Sogar denoise und edge enhancement funktionieren!!! Nicht zu vergleichen mit dem HDTV Bild mit dem X2 (ich hatte BE-2400). Perfektes Bild.

Nun würde mich mal der technische Hintergrund interessieren. Also Bob und Weave deinterlacing (wenn man diese Verfahren überhaupt als deinterlacing bezeichnen kann) funktionieren auch mit nem Athlon X2 aber erst mit dem Phenom werden andere Modi "freigeschaltet" (vector adaptive usw). Anwählbar wären diese Modi im CCC, funktionieren würde diese aber wie gesagt nur mit dem Phenom.

Vielleicht hat hier jemand ne Ahnung ob für deinterlacing wirklich soviel Bandbreite benötigt wird ?!?!?

Gruß

Lenon

haifisch1896
2008-10-09, 09:22:55
Ich bin zwar nicht sicher, dass es an der Bandbreite liegt. Aber ich würde es für eine politische Entscheidung halten.

Berni
2008-10-09, 12:20:21
Ich halte es auch eher für eine politische Entscheidung. Denn wenn das Deinterlacing von der Grafikkarte gemacht werden soll, sollte die Prozessorleistung und die Bandbreite eigtl. relativ egal sein weil ja nur Bandbreite innerhalb der Grafikkarte gebraucht wird.

ShadowXX
2008-10-09, 12:33:06
Ich persönlich glaube auch nicht das es an den CPUs liegt (technisch)....aber woran macht es AMD bei Intel CPUs fest (Radeons können ja auch mit Intel CPUs betrieben werden)?

Bei meinem Intel C2Q sind auch die hohen Deinterlacer wie Motion/Vector Adaptive "freigeschaltet".
Wie sieht es bei P4s aus?

deekey777
2008-10-09, 12:48:26
Also mit der X1950Pro hatte ich alle Deinterlacing-Modi und das unabhängig davon, welche CPU drin war (A64 3800+ oder X2 3600+). Auch mit der 9800Pro waren alle Deinterlacing-Modi im CCC vorhanden.

Kantenschärfe sowie De-Noise funktionieren bei meiner HD3800 auch (egal ob X2 3600+ S939 oder X2 4200+ AM2).

Gast
2008-10-09, 14:17:01
Es geht hier um den Amd chipsatz 780g und der darin enthaltenen Radeon 3200. Separate Grafikkarten haben eigene Speicherinterfaces und sind deshalb davon nicht betroffen.

roidal
2008-10-10, 08:59:18
Ich halte es auch eher für eine politische Entscheidung. Denn wenn das Deinterlacing von der Grafikkarte gemacht werden soll, sollte die Prozessorleistung und die Bandbreite eigtl. relativ egal sein weil ja nur Bandbreite innerhalb der Grafikkarte gebraucht wird.

Ja, und bei der Onboard-Grafikkarte wird als Speicher der RAM hergenommen, also müssen die Daten jedesmal wenn das Bild an den Bildschirm geschickt wird auch über den HT-Link. Und da können schon mal einige GBit/s nur für die Graka draufgehen.

Berni
2008-10-10, 11:23:33
Ich dachte der 780G hat Sideport-Memory?
Edit: Ok, das haben scheinbar nur manche...

Lenon
2008-10-10, 12:08:22
Ich dachte der 780G hat Sideport-Memory?
Edit: Ok, das haben scheinbar nur manche...

Das scheint aber auch nichts zu nutzen

http://forum.team-mediaportal.com/hardware-174/neues-bios-fuer-ma790gp-ds4h-mit-sideport-only-45960/

Ja, und bei der Onboard-Grafikkarte wird als Speicher der RAM hergenommen, also müssen die Daten jedesmal wenn das Bild an den Bildschirm geschickt wird auch über den HT-Link. Und da können schon mal einige GBit/s nur für die Graka draufgehen.

Also ist eine "technische Hürde" doch denkbar. Wie kann man das denn ausrechnen, wie hoch bei zb. 1080i der Datenaufwand ist ???

Das würde mich echt mal interessieren.

Wie kann man sich das denn vorstellen ???

Die TV Karte enddröselt die Video und audiostreams (also alles komprimiert). Wie wird da gerechnet um die beiden Halbbilder zusammenzufügen.

passiert diese Berechnung in der GPU oder wie ???

roidal
2008-10-10, 14:36:14
Grundsätzlich kann man wohl sagen bei 8 Bit pro Farbkanal wären das
24 Bits Pro Pixel
bei einer Auflösung von 1920×1080 macht das 2.073.600 Pixel also 49.77MBit pro Bild. Bei 25 Bildern/s müssen 1,24GBit/s übertragen werden. Wenn die Grafikkarte selbst das Bild dekodiert weiß ich nicht ob sie das Bild gleich anzeigt, oder zuerst in den Framebuffer schreibt und dann anzeigt. (Was dann die doppelte Belastung wäre, zuerst über HT zum Framebuffer im Ram, und dann wieder zurück auf die Graka).

Berni
2008-10-10, 15:09:50
So einfach dürfte das nicht zu berechnen sein, denn die Grafikkarte erhält ja das komprimierte Bild und nicht das unkomprimierte. Zum Dekodieren und Anwenden von Filtern muss sie dann evtl. auf Speicher zugreifen und für den Framebuffer auch.

Gast
2008-10-10, 19:50:14
da fällt auf jeden fall noch einiges mehr an, wieviel kann dir aber nur AMD sagen, alles andere ist ein reines ratespiel.

mit aktiver beschleunigung kommt erstmal der komprimierte videostrom bei der GPU an.

dieser wird dann decodiert und in den speicher geschrieben.

für das postprocessing wie das deinterlacing muss dann jedes frame mindestens 1x noch gelesen und wieder geschrieben werden, wobei die adaptiven deinterlacingverfahren auf jeden fall mehrere frames betrachten, also darauf lesend zugreifen. wie weit hier caches mehrfache speicherzugriffe vermindern können kann man von außen natürlich auch nicht sagen.

zum schluss müssen die fertigen frames noch auf die endgültige videogröße skaliert werden, wobei das ganze je nach renderer auch nochmal eindgültig in den framebuffer zurückgeschrieben werden muss, oder auch nicht (overlay).

Lenon
2008-10-10, 21:14:11
da fällt auf jeden fall noch einiges mehr an, wieviel kann dir aber nur AMD sagen, alles andere ist ein reines ratespiel.

mit aktiver beschleunigung kommt erstmal der komprimierte videostrom bei der GPU an.

dieser wird dann decodiert und in den speicher geschrieben.

für das postprocessing wie das deinterlacing muss dann jedes frame mindestens 1x noch gelesen und wieder geschrieben werden, wobei die adaptiven deinterlacingverfahren auf jeden fall mehrere frames betrachten, also darauf lesend zugreifen. wie weit hier caches mehrfache speicherzugriffe vermindern können kann man von außen natürlich auch nicht sagen.

zum schluss müssen die fertigen frames noch auf die endgültige videogröße skaliert werden, wobei das ganze je nach renderer auch nochmal eindgültig in den framebuffer zurückgeschrieben werden muss, oder auch nicht (overlay).

Naja das klingt als wüßtest Du wovonDu redest. Für mich klingt diese HT3 Geschichte plausibel genug. :D

Ich werde noch auf X2 Phenoms mit kleiner TDP warten, um dann auf der "sicheren" Seite zu sein :)

Gruß

lenon

Lenon
2008-10-14, 11:15:29
So mal nen update :)


Ich konnte mich persönlich davon überzeugen.


Ich habe zum Test einen 35W X2 installiert und konnte bei Anixe HD tatsächliche keine deinterlacing Modi anschalten. Die CPU Last beim Abspielen lag bei rund 25 %

Dann habe ich nen Phenom 9150e aufgeschnallt :)

Damit sah das Anixe HD Bild bombig aus. Die VCore konnte ich auch noch uf 1V heruntersetzen (def vcore : 1.125V).

Ich habe fertig :)