PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : TV-Out kostet Performance?


Gandalf
2005-01-10, 22:44:30
Hi..

Habe bei meinem Laptop feststellen müssen, dass die aktivierung des tv-outs und damit die darstellung des spiels auf crt/TV ordentlich performance kostet...
werde das ganze mal mit 3dmark o.ä. belegen...

Wie ist das technisch zu erklären - kann man da was machen?

Um endgültig ins falsche Forum zu entrücken:
Nen TFT vom Notebook zieht ja schlieren..wenigstens ein wenig. auf dem TV seh ich die aber auch - das kann doch eigentlich gar nicht sein, oder? Schließlich entstehen die schlieren ja im display und nicht in der graka.... :confused:

Hoffe auf Erfahrungen,
Gruß
G.

Gandalf
2005-01-11, 05:46:43
Ergänzung:

mit pentium-m 1.5ghz, radeon 9600 mobile und 768 MB RAM ca. 2900 Punkte im 3dmark03.
Mit TV-Out und gleicher Config: 2800.

Kein wirklich großer Unterschied...hm...aber pes4 und ähnlichem versagt bei mir auf dem TV-Out...nicht jedoch allein auf dem Laptop.

Die Fragen bleiben...

Gruß,
G.

CrazyHorse
2005-01-11, 09:36:24
Welchen Ausgang hast du denn jetzt für die Messung benutzt? Den TV-Ausgang oder D-Sub?

Wenn ich davon ausgehe, dass du den D-Sub Ausgang genommen hast und sagen wir mal einen Monitor in 1024x768 (oder eben die Auflösung deines TFTs) und einer Bildwiederhlfrequenz von 85 oder gar 100Hz genommen hast würde ich sagen, dass genau darin der Grund liegt. Es wird mehr Bandbreite benötigt um die Mehranzahl der Bilder durch die Steigerung von 60Hz auf 85Hz oder 100Hz zu generieren. Allerdings müsste dann deine Messung am TV-Out ein geringfügig besseres Ergebnis liefern, weil nur 50Hz ausgegeben werden.

Soviel zu meiner Theorie, oder sagen wir besser Hypothese ;-)

Gandalf
2005-01-11, 15:47:20
Hehe...das hört sich aber soweit schonmal ganz handfest an.

Habe bei meiner Messung gestern den TV-Out benutzt...TFT in 1400x1050@60 Hz, TV in 800x600@50 Hz...
Na gut, das Ergebnis ist nicht mehr ganz fehlertolerant..nur als Messungenauigkeit würde ich es nicht abtun.

Die früheren Erfahrungen mit dem D-Sub könnten Deine These eher bestätigen --- TFT und CRT auf 1280x1024@100(!)Hz... Legt man Deine Ansicht zugrunde ist bei diesen Einstellungen logisch, dass weniger performance am Ende erreicht wird.

ABER ist es denn so - auch bei nem Desktop-Rechner mit CRT, dass je mehr Hz man nutzt, desto geringer die Bandbreite wird??? Und damit der Rechner letztenendes langsamer wird? :eek: Oder ist die Situation hier anders, da die Graka alles 2mal berechnen muss?

Würde es einen Unterschied machen, egal ob ich D-Sub oder TV-Out nutze, wenn ich das TFT Display abschalten würde?

Müsste ja eigentlich - das gibt mir Hoffnung.

Gruß,
G.