PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Abfotografieren von HDTV....wie?


Ronny G.
2009-02-12, 02:34:50
Ich bekomme es einfach nicht hin, das Bild was ich live daheim auf der Couch wahrnehme springt mir förmlich vor Farbe und Kontrast ins Gesicht, Fotografiere ich das ganze dann mal ab(Standbild), sieht es fad unscharf und lange nicht nicht so farbenfroh aus.

Was ich will ist ein 1A Bild zu machen wenn ich über meinen 50"Plasma HD-Material anschaue, zum Abfotografieren habe ich meine Canon Eos 1000D mit Kitobjektiv, stativ habe ich auch da.

Auf was kommt es nun an?

doors4ever1
2009-02-12, 05:29:14
Auf besseres Objektiv. Als allererstes muss eine Festbrennweite her. Und dann kann man noch gewaltig steigern wenn du solche Qualitätfestbrennweiten kaufst wie die von Zeiss oder Leica.

Gast
2009-02-12, 08:11:09
Die Kamera sollte man so einstellen, das sie dir maximale Qualität ausgibt, also niedrigster ISO Wert.
Dann kannst du mal versuchen die Schärfe am TV höher zu stellen.
Es ist immer Schärfeverlust und auch Detailsverlust beim abfotografieren vorhanden.
Eventuell noch einen Weissabgleich der Kamera am Motiv machen.
Ansonsten eignet sich auch nicht jeder Film gleich gut, sollte schon Referenz Blu-ray Bildqualität sein für richtig fette Screenshots.
CGI Titel eignen sich schon sehr gut dafür, die besten dafür in meinen Augen Kung Fu Panda und Tinkerbell, Cars geht auch, bei Wall-E ist es schon schwieriger, weil sehr viel Bewegung im Film ist.
Bei den Non CGI's Filme wie Apocalypto oder Zodiac.
Dann ist es wichtig möglichst unbewegte Szenen zu nehmen.
Beim Pausieren einer BD geht immer Schärfe verloren und Bewegung die normalerweise flüssig, scharf und detailliert dargestellt wird verwischt beim Pausieren.
Von daher eignen sich am besten Portraitszenen, wo fast keine Bewegung vorhanden ist.
Das ist ein ganz entscheidender Faktor für gute abfotografierte Fotos von einem Flat-TV.
Pausierte Bewegung sieht nie gut aus, die Szene muss auch beim Pausieren knüppelscharf und detailliert sein.
Idealerweise sucht man mit Einzelbildsuchlauf das optimale Bild einer ruhigen Szene raus, oft ist es genau das erste Bild einer neuen Szene.
Dann hängt es natürlich auch etwas vom Objektiv der Kamera ab, Festbrennweite ist aber nicht nötig, ich hab die Fotos im Plasma/LCD Thread alle mit einer Panasonic Lumix LX2 gemacht mit einem Vario Elmit Zoom, also keine Festbrennweite.
Dann ist es wichtig eine kleine Blende zu nehmen, im dunklen Raum zu fotografieren ohne Blitz natürlich und mit Stativ oder Stativersatz zu arbeiten.
Unbedingt mit Selbsauslöser, idealerweise > 5sec um absolut keine Verwackler drin zu haben.
Letztendlich hängt es aber auch ein gutes Stück weit vom TV und Zuspielung ab.
Je besser dort das Equipment, desto besser sehen auch die Bilder später aus.
Auf meinen Bildern ist auch immer ordentlich Verlust, die sehen im Original auch noch eine Ecke besser aus.
Hab zum Vergleich mit gleicher Kamera mal Fotos von einem 08/15 Budget LCD gemacht und die sehen absolut grottig aus, obwohl alles identisch war, Zuspielung, Kamera und Einstellungen, Licht, u.s.w.

TACO
2009-02-12, 12:52:47
Auf besseres Objektiv. Als allererstes muss eine Festbrennweite her. Und dann kann man noch gewaltig steigern wenn du solche Qualitätfestbrennweiten kaufst wie die von Zeiss oder Leica.

Absoluter quatsch...
Geh einfach aus dem Weitwinkel raus, auf ca. 30-50mm und Blende mal auf 8.0 ab. Solang du vom Stativ fotografierst würde ich den IS ausschalten (Am besten vllt sogar noch mit Spieglvorauslöung und 2sek timer). Jetzt in RAW fotografieren im Manuellen Modus. Probier mal paar Bilder, einige normal manche vllt sogar leicht überbelichtet. Nun kannst du bequem am PC die Raw Daten in das kostenlose DPP oder Lightroom laden und die Farbtemperatur bzw Belichtung, Helligkeit, Kontrast, usw. so lang bearbeiten bis es deiner Vorstellung entspricht...

RaumKraehe
2009-02-12, 12:55:08
In RAW shooten und danach eben Kontrast und Farbe anheben bis das gewünschte Ergebniss erzielt wird.

Ronny G.
2009-02-12, 14:06:26
dieses Nachbearbeiten währe wahrscheinlich noch die letzte Variante Farbtechnisch was raus zu holen, aberirgendwie ist das wie Cheaten.

Aber das mit dem IS deakt. probiere ich mal..........auch die Spiegelvorauslösung könnte was bei den recht geringen Belichtungszeiten reisen. Mit Selbstauslöser arbeite ich ja eh schon.

Ich werde mich heute nochmal ein paar stunden hinsetzen und proben.

RaumKraehe
2009-02-12, 14:14:09
dieses Nachbearbeiten währe wahrscheinlich noch die letzte Variante Farbtechnisch was raus zu holen, aberirgendwie ist das wie Cheaten.

Aber das mit dem IS deakt. probiere ich mal..........auch die Spiegelvorauslösung könnte was bei den recht geringen Belichtungszeiten reisen. Mit Selbstauslöser arbeite ich ja eh schon.

Ich werde mich heute nochmal ein paar stunden hinsetzen und proben.


IS auf dem Stativ gehört sowieso aus. Die Spiegelvorauslösung hilf eigentlich nur zwischen 1/30 bis zu einer sek. Danach wird die Belichtung wieder so lang das es keinen Einfluss mehr hat.
Wenn möglich würde ich kein AF verwenden sondern MF per Liveview mit 10X zoom.

Gast
2009-02-12, 14:24:41
dieses Nachbearbeiten währe wahrscheinlich noch die letzte Variante Farbtechnisch was raus zu holen, aberirgendwie ist das wie Cheaten.

alles ist cheaten, da der bildprozessor immer anders als dein auge arbeiten wird.

TACO
2009-02-12, 14:28:43
RAW ist nun wirklich alles andere als cheaten ;)

Ronny G.
2009-02-12, 15:37:36
Habe jetzt mal alle möglichen Tipps probiert,
die Farbe ist nicht mal mehr das eigentliche Problem, eher das man förmlich jeden Pixel des HDTV´s sieht, das aus ner entfernung von 2m. Man selbst würde niemals live das Bild so wahrnehmen, da erkennt man keine einzelnen Pixel. Auf den Fotos ist halt immer ein schleier übern ganzen Bild der ihm seine Brilianz nimmt, real wirkt es schon plastisch, gerade bei diesen Zeichentrickfilmen.

Ich habe auch mal versucht mit weniger als 10MP zu knipsen, bringt aber nix.

Ich glaube die DSLR ist einfach zu ehrlich:rolleyes:

http://www.abload.de/img/img_2717yu7k.jpg

Gast
2009-02-12, 15:44:38
Ich glaube die DSLR ist einfach zu ehrlich:rolleyes:



das moire entsteht wenn sich 2 verschiedene raster überlagern, in dem fall das pixelraster vom LCD und das vom kamerasensor.

da unsere augen kein derartiges festes raster haben treten natürlich solche effekte auch nicht auf.

Gast
2009-02-12, 15:45:52
Ich habe auch mal versucht mit weniger als 10MP zu knipsen, bringt aber nix.


das bringt natürlich nichts, man müsste den genau umgekehrten weg gehen, nämlich die aufnahmeauflösung weit genug vergrößern und das bild anschließend herunterrechnen.

Ronny G.
2009-02-12, 15:56:41
das bringt natürlich nichts, man müsste den genau umgekehrten weg gehen, nämlich die aufnahmeauflösung weit genug vergrößern und das bild anschließend herunterrechnen.

soweit kann man das ja garnicht runterrechnen das es wirklich was bringt.
Ist übrigens ein Plasma und kein LCD.

Hmm was kann ich also tun? Ich habe dank HTPC einige möglichkeiten mit der einstellung, nur weiß ich nicht wo ich da was ändern soll das es am überhaupt was bringt, der Samsung hat ja auch noch ne menge tiefgreifende einstellmöglichkeiten mit den ich jetzt noch garnix anfangen kann.

Pinoccio
2009-02-12, 16:25:03
IS auf dem Stativ gehört sowieso aus.Der neue IS schaltet sich aus, wenn er merkt, daß er nicht benötigt wird (hab ick jelesen).da unsere augen kein derartiges festes raster haben treten natürlich solche effekte auch nicht auf.Das nicht, aber unsere Bildprozessor ist da um Welten besser und rechnet es heraus.

mfg

Ronny G.
2009-02-12, 16:43:24
da wirkt ja analoges Kabeltv fast gleichwertig zum HD-Bild weiter oben ;D

das habsch jetzt einfach mal mit dem Vollautomatikmodus gemacht.

http://www.abload.de/img/img_2733h10d.jpg

Gast
2009-02-12, 18:55:25
soweit kann man das ja garnicht runterrechnen das es wirklich was bringt.

sag ich ja, du müsstest in einer viel höheren auflsösung aufnehmen (ich würd mal sagen mindestens 4x) und das dann runterrechnen.

Ronny G.
2009-02-12, 19:38:53
sag ich ja, du müsstest in einer viel höheren auflsösung aufnehmen (ich würd mal sagen mindestens 4x) und das dann runterrechnen.
höher als 10MP geht aber net, gut es würden dann immer noch 2,5MP über bleiben, das sollte reichen, aber das runterrechnen also verkleinern mache ich doch so oder so, kann ja keine 10MP Bild hier posten.:biggrin:

Ich habe jetzt mal noch etwas herum probiert, der Automatische Modus scheint echt der beste zu sein, ich muß halt nur pro bild am besten mindest 5x auslösen, die Bilder unterscheiden sich teils enorm, eines past dann meistens.

Wie hier, das finde ich ganz in Ordnung, ist aber gerade was den Detailgrad angeht noch immer nicht annähernd das was ich live sehe, aber die Farben stimmen schon so, da habsch jetzt nur runtergerechnet, sonst nix.
http://www.abload.de/img/23432423421jmq.jpg

Gast
2009-02-12, 19:43:03
höher als 10MP geht aber net, gut es würden dann immer noch 2,5MP über bleiben, das sollte reichen, aber das runterrechnen also verkleinern mache ich doch so oder so, kann ja keine 10MP Bild hier posten.:biggrin:

nochmal, das runterrechnen bringt nichts, die auflösung ist zu gering, mir ist schon klar, dass deine kamera nicht mehr als 10MP aufzeichnen kann.

um das ganze moire-frei und scharf abzubilden (minimaler fehlfokus würde das moire natürlich auch eliminieren) bräuchtest du wahrscheinlich mindestens 50MP.

Ronny G.
2009-02-12, 19:57:59
nochmal, das runterrechnen bringt nichts, die auflösung ist zu gering, mir ist schon klar, dass deine kamera nicht mehr als 10MP aufzeichnen kann.

um das ganze moire-frei und scharf abzubilden (minimaler fehlfokus würde das moire natürlich auch eliminieren) bräuchtest du wahrscheinlich mindestens 50MP.

und warum können das andere auch ohne das runterrechnen? Was ist bei denen anders, bzw. warum haben sie das Problem nicht, das interessiert mich am meisten.

HeldImZelt
2009-02-12, 20:00:52
Warum überhaupt abfotografieren? Das macht nur Sinn wenn man mehr als nur das Fernsehbild haben will.

Ronny G.
2009-02-12, 20:10:20
es geht um diesen Thread
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=4314196#post4314196

dort sind teils Super abfotografierte HDTV´s zu sehen, dort wollte bzw. habe ich auch ein paar Shoots, aber die Qualität auf den Fotos kommt nicht annähernd an das heran was ich Live sehe, darum bin ich der Sache jetzt auf der Spur, woran es bei mir liegt.

Gast
2009-02-12, 20:14:12
und warum können das andere auch ohne das runterrechnen?

das runterrechnen hat damit garnichts zu tun, die auflösung der kamera reicht einfach nicht aus, diesmal wirklich die sensorauflösung.

natürlich kann man das moire auch verringern indem man gezielt eine leichte unschärfe in kauf nimmt, beispielsweise durch einen leichten fehlfokus, möglicherweise reicht unter gewissen umständen auch schon der tiefpassfilter vor dem sensor (die canons sind ja für ihren schwachen tiefpassfilter bekannt)

HeldImZelt
2009-02-12, 20:22:29
es geht um diesen Thread
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=4314196#post4314196

dort sind teils Super abfotografierte HDTV´s zu sehen, dort wollte bzw. habe ich auch ein paar Shoots, aber die Qualität auf den Fotos kommt nicht annähernd an das heran was ich Live sehe, darum bin ich der Sache jetzt auf der Spur, woran es bei mir liegt.
Du meinst doch nicht die montierten Marketingfotos aus der Werbung? Du jagst einem Phantom nach.

Ronny G.
2009-02-12, 20:55:24
Du meinst doch nicht die montierten Marketingfotos aus der Werbung? Du jagst einem Phantom nach.

du denkst doch nicht das ich die Produktfotos von den Homepages oder Katalogen nacheifer??:wink:

@Gast
ich glaube das macht die Kamera auch, von 5 Schüssen pro Bild ist eines meist i.O, wirkt dann aber meist gleichzeitig etwas unscharf, wie eben das Bild was hier gerade gepostet habe.

Gast
2009-02-12, 21:05:10
du denkst doch nicht das ich die Produktfotos von den Homepages oder Katalogen nacheifer??:wink:
Such doch bitte mal ein paar Fotos aus dem Thread raus, welche dir gut gefallen und verlinke diese.

Gast
2009-02-12, 22:22:25
@Gast
ich glaube das macht die Kamera auch, von 5 Schüssen pro Bild ist eines meist i.O, wirkt dann aber meist gleichzeitig etwas unscharf, wie eben das Bild was hier gerade gepostet habe.


klar, kann der autofokus mal etwas danebenliegen und damit die moire-effekte verhindern.

mit scannern kann es übrigens zum gleichen problem kommen, der ausweg ist dann immer eine höhere scanauflösung zu wählen, im gegensatz zur digitalkamera hat man da ja etwas luft ;)

Gast
2009-02-12, 22:24:13
Das nicht, aber unsere Bildprozessor ist da um Welten besser und rechnet es heraus.g

macht er nicht, sonst würde er ja das moire auch aus dem foto rausrechnen und du kannst moire auch in der realität wahrnehmen wenn sich 2 gitter unterschiedlich überlagern, beispielweise bei einem feinen vorhang.

mit einer analogen kamera würde es auch kein moire geben.

Mr Power
2009-02-12, 22:32:18
Such doch bitte mal ein paar Fotos aus dem Thread raus, welche dir gut gefallen und verlinke diese.

Ich denke es geht ihm bspw um die hier: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7098370&postcount=690

doors4ever1
2009-02-12, 22:44:29
Ich habe jetzt einbisschen rumprobiert und es scheint das für die Bildqualität allein Ausgangsmaterial verantwortlich ist. Je geiler ein Foto/Film desto geiler kommt es rüber.

Einmal PC Monitor mit TV Signal und einmal mit einem Foto.

http://www.abload.de/img/riddickczka.jpg (http://www.abload.de/image.php?img=riddickczka.jpg)

http://www.abload.de/img/apfelgzet.jpg (http://www.abload.de/image.php?img=apfelgzet.jpg)

Gast
2009-02-12, 22:57:22
Es ist die Kombination aus Ausgangsmaterial und Qualität des TV Gerätes, je besser der das Bild wieder gibt, desto mehr bleibt davon auch auf einem Foto drauf.
Dazu kommt noch die Qualität der Digicam/Objektiv.
Sailor Monn hat auch mal Fotos gemacht, SD hochskaliert mit einem Lumagen Scaler dort sieht man auch, das SD sehr gut aussieht.
TV und Scaler Qualität (im Falle der SD Aufnahmen) finden sich deutlich auf Fotos wieder.
Würde man von einem 800,- TV und einem 3500,- Euro TV die gleichen Szenen, bei gleicher Zuspielung mit gleicher Digicam und Einstellungen abfotografieren, wird man das auf Bildern auch deutlich sehen, wenn auch nicht ganz so präzise wie in der Realität.

HeldImZelt
2009-02-12, 23:34:36
Wenn er das OSD auf hat, sieht das auch billig und typisch Telesync aus. Das ist nur der Film, der einen sehr starken Dynamikumfang hat und den die Kamera gut verarbeiten kann.

Ronny G.
2009-02-13, 00:56:19
Ja genau diese Bilder meine ich, diese Animierten Filmchen mit dem Kuro.
Und nicht anders nehme ich das Bild bei mir Real bei solchen Filmchen war, nur bekomme ich es nicht aufs Foto, und das beschäftigt mich nun arg.

Was ich aber mal überlegt habe, ist es manchmal ein Auflösungsproblem?
Mein Samsung hat nur eine native Auflösung von 1376x720, das wird auch über den HTPC so eingespeist, Bildmaterial hat meist ne 720p Ausgabe, also 1280x720, wer rechnet da also die Auflösung runter, der TV oder der HTPC, der TV?
Ich habe auch schon mal 1920p Material probiert, das Ergebnis sieht aber identisch aus.

edit:ich meine statt 1920p 1080p

HeldImZelt
2009-02-13, 01:25:09
Eigentlich sollte da garnichts umgerechnet werden, weil die Vertikale ja stimmt. Ob es wirklich Pixelexakt ist, solltest du am Desktop oder an Schriften sehen, die nicht ClearType oder anderweitig verwurschtelt sind.

HTPC ist so eine Sache. Schau mal unten im ersten Post dieses Threads (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=348835). Da sind ein paar Testvideos erstellt. Achte auf die 3 Balken am Fernseher, wie im Thread beschrieben. Sind sie da, läuft der Player nicht richtig. Das mindert den Kontrast und die Brillanz.

Gast
2009-02-13, 03:35:37
Ja genau diese Bilder meine ich, diese Animierten Filmchen mit dem Kuro.
Und nicht anders nehme ich das Bild bei mir Real bei solchen Filmchen war, nur bekomme ich es nicht aufs Foto, und das beschäftigt mich nun arg.

Was ich aber mal überlegt habe, ist es manchmal ein Auflösungsproblem?
Mein Samsung hat nur eine native Auflösung von 1376x720, das wird auch über den HTPC so eingespeist, Bildmaterial hat meist ne 720p Ausgabe, also 1280x720, wer rechnet da also die Auflösung runter, der TV oder der HTPC, der TV?
Ich habe auch schon mal 1920p Material probiert, das Ergebnis sieht aber identisch aus.


1920p Material gibt es so nicht, höchsten 1080p, halt Blu-ray.
Wenn dein Samsung ein HDReady ist, ist es sicherlich ein Grund warum die Bilder nicht ganz so fein werden.
Bei einer nativen Auflösung von 1376x720 ist er HD Ready, kann also auch 1080p Zuspielung nur in HD Ready anzeigen.
FullHD ist immerhin mehr als die doppelte Anzahl an Bildpunkten und das wirkt sich auch beim abfotografieren aus.
Die Kamera
Ganz davon abgesehen ist auch rein bildqualitativ ein gewaltiger Unterschied zwischen einem HD Ready Samsung Plasma für 800,- und einem Kuro für 3500,-, auch das macht sich beim abfotografieren bemerkbar.

Ronny G.
2009-02-13, 12:51:22
Ja genau diese Bilder meine ich, diese Animierten Filmchen mit dem Kuro.
Und nicht anders nehme ich das Bild bei mir Real bei solchen Filmchen war



Ganz davon abgesehen ist auch rein bildqualitativ ein gewaltiger Unterschied zwischen einem HD Ready Samsung Plasma für 800,- und einem Kuro für 3500,-, auch das macht sich beim abfotografieren bemerkbar.


........Der Stolz des Kuro Besitzers :wink:
Da sieht man mal wie objektiv man ein Bild live wahrnimmt, man würde wahrscheinlich keinen großen Unterschied sehen, die frage ist halt wie viel Geld man für sein TV ausgeben will.
Sollte man aber der bisherigen Theorie dieses Threads nachgehen und man einen möglichst großen Fotoauflösung fotografieren um es am ende wieder herunter zu rechnen geht es bei nem Kuro noch viel weniger auf als bei meinem InstantDiscountSAMSUNG.

Ich denke die fehler müssen wo anders liegen, nur doof das sich kaum einer mal richtig beim Abfotografieren ans Thema wagt, alls knipsen nur ihre HDTV`s äußerlich ab und das wars.

Ich werde mal das Testen was HeldImZelt vorgeschlagen hat.

Sailor Moon
2009-02-13, 14:09:01
Eigentlich sollte da garnichts umgerechnet werden, weil die Vertikale ja stimmt. Ob es wirklich Pixelexakt ist, solltest du am Desktop oder an Schriften sehen, die nicht ClearType oder anderweitig verwurschtelt sind.
Ich gehe mal davon aus, dass er sich bei der Angabe vertan hat und einen WXGA Bildschirm mit 1366x768 Pixeln hat.

Sind sie da, läuft der Player nicht richtig. Das mindert den Kontrast und die Brillanz.
Das alte Problem mit nicht abgestimmten Signalpegeln (= flaues Bild, oder starke Tonwertverluste), wobei es ja inzwischen direkt im nVidia Treiber die Möglichkeit gibt, das Overlay auf PC-Level zu spreizen. Der Verlust von wtw und btb ist dabei unproblematisch. Bei Ausgabe auf einem TV sollte man bei RGB Zuspielung aber ohnehin auch direkt am Bildschirm den korrekten Signalpegel bestimmen können (Samsung: HDMI Schwarzwert). Ich möchte nicht wissen, wieviele Leute, insbesondere bei Zuspielung über den PC, immer noch "falsch" schauen.

Zumindest bei Zuspielung durch einen Standalone, würde ich empfehlen, möglichst immer in YCbCr ausgeben zu lassen (wobei man hier bei skalierter Ausgabe auch mächtig aufpassen muß, weil die meisten TVs die falsche Transformationsmatrix (gehen von HDTV aus) nach RGB anwenden werden, d.h. eine Anpassung vor der Ausgabe erfolgen muß).

Gruß

Denis

HeldImZelt
2009-02-13, 15:33:05
Es gibt doch mindestens 3 Plasma Panelauflösungen (1024x768, 1366x768 und 1920x1080). In welchem Verhältnis stehen die Zahl der Aktivelemente und die Gesamtfläche/Dichte des Panels? Steigt mit der Anzahl der Elemente automatisch Leuchtkraft, Kontrast, usw und 1080p sind meist immer besser oder kann man das nicht pauschalisieren?

Ronny G.
2009-02-13, 15:38:24
@Sailor Moon
Die auflösung stimmt ja nun auch, es sind 1360x768

Meine 7600Gs unterstützt leider nur RGB über HDMI, meine GTX280 wiederum erlaubt auch YCbCr über HDMI, nur steckt diese nicht im HTPC und wäre ohne toomuch für solche Zwecke. ich habe da auch mal YCbCr und empfand das als unnatürlicher, so richtig fehlt mir aber auch das Auge dafür, nun muß ich wegen der 7600GS mit RGB auskommen.

Wo gibt es denn mal das ultimative Testbild zum kalibrieren des Bildschirmes.
Den Test vom HeldImZelt, dort ist es Playerabhängig ob es korrekt abgebildet wird oder nicht.

edit:

@HeldImZelt
ich vermute mal das es da keinen richtigen zusammenhang zwischen Auflösung und Kontrast und Leuchtstärke gibt, ich weiß aber was du meinst, das mehr Pixel logischerweise auch mehr Leisten.
Zwangsläufig geht das aber schon einher, aber eher von der Seite das Panels mit 1920x1080 meist die neueren und Modernen Panels sind und somit automatisch mehr Kontrast und Leuchtstärke habe. Ursprünglich wollte ich auch einen Plasma mit 1920x1080 Pixeln haben, aber ich habe mir gedacht das es fürs Analoge TV, was ja mindest 50% meiner verwendung entspricht ein 1360x768 Panel das bessere Bild liefert, es ist ja immer eine Native Auflösung, und umso höher der TV das Analoge Signal hoch auf die 1920x1080 rechnet, umso bescheidener sieht das am ende auch aus.
Mit nem 1024x768er Panel weiß ich aber absolut nix anzufangen, was hat das für einen Sinn, da ist ja nichtmal 720p Material geeignet.

HeldImZelt
2009-02-13, 15:49:46
Den Test vom HeldImZelt, dort ist es Playerabhängig ob es korrekt abgebildet wird oder nicht.
Genau genommen ist es hauptsächlich vom Renderer und Renderpfad abhängig. Nimm den KMPlayer (oder MPC-HC, ZoomPlayer) und Haali Renderer und es sollte immer stimmen.


Mit nem 1024x768er Panel weiß ich aber absolut nix anzufangen, was hat das für einen Sinn, da ist ja nichtmal 720p Material geeignet.
Man mag es wahrlich nicht fassen wollen, aber die Dinger können tatsächlich HD-Ready sein. Meiner Meinung nach hätte eher 'pixelexakte Darstellung' Kriterium werden müssen.

Ronny G.
2009-02-13, 15:59:42
den werde ich mal probieren, habe zwar noch nie was davon gehört aber mal schauen.

Ich habe jetzt mal den Ultimativen Vergleich zwischen meinem Benq 22" TFT-Monitor vs. Samsung 50"Plasma, beide mit der gleichen Szene, ich habe lediglich das Bild verkleinert und sonst nix herum getrickst. Der Unterschied ist doch mal Irre, und ich rege mich über meinen Plasma auf;D Dieser Moire Effekt ist auch auf meinem TFT zu sehen.

BENQ 22" TFT am PC
http://www.abload.de/img/img_2863m97z.jpg

Samsung 50" Plasma an HTPC
http://www.abload.de/img/img_2743ybr6.jpg

Gast
2009-02-13, 16:59:05
Ursprünglich wollte ich auch einen Plasma mit 1920x1080 Pixeln haben, aber ich habe mir gedacht das es fürs Analoge TV, was ja mindest 50% meiner verwendung entspricht ein 1360x768 Panel das bessere Bild liefert, es ist ja immer eine Native Auflösung, und umso höher der TV das Analoge Signal hoch auf die 1920x1080 rechnet, umso bescheidener sieht das am ende auch aus.


eine höhere displayauflösung ist niemals schlechter, weder mit nativem noch mit interpoliertem material. bei PAL-auflösung wird es natürlich keine großen unterschiede geben, schlechter ist die hohe auflösung aber mit sicherheit nicht.

Ronny G.
2009-02-13, 17:07:29
eine höhere displayauflösung ist niemals schlechter, weder mit nativem noch mit interpoliertem material. bei PAL-auflösung wird es natürlich keine großen unterschiede geben, schlechter ist die hohe auflösung aber mit sicherheit nicht.
Natürlich sind mehr Pixel immer fast immer von Vorteil, aber gerade beim Analogen Kabelanschluss schweigt jeder heimlich darüber, natürlich ist ein HDTV nicht für Kabelfernsehen ausgelegt, die stärken zeigen sich erst bei entsprechenden hochauflösenden Filmmaterial.
Wenn aber intern im Fernseher schlecht umgerechnet wird wirkt sich das bei nem 1080p fähigen TV massiver aus als bei nem 720p Panel. Man braucht doch nur mal an beim PC statt der nativen 1680x1050 eben 1360x768 einstellen, das zeigt was ich meine. Klar, beim PC sitzt man nicht 50cm vom Bildschirm entfernt und bekommt das nicht so stark mit, aber der vorgang ist der gleiche und verdeutlicht was ich meine.
Oder wer nen HDPC hat brauch nur mal unterhalb der nativen Auflösung des HDTV´s gehen, was dabei raus kommt ist wohl klar, es wird immer schwammiger.
Wo keine Pixel her kommen können auch keine sein.

HeldImZelt
2009-02-13, 17:24:54
PAL hat keine Quadratpixel. Du wirst es niemals Pixelexakt auf diesen Geräten abbilden können. Subpixelmatsche entsteht so oder so, egal ob 720p oder 1080p. Eine höhere Auflösung ist theoretisch immer besser, weil sich die Oversamplingartefakte dadurch abschwächen lassen.

Ronny G.
2009-02-13, 17:29:22
PAL hat keine Quadratpixel. Du wirst es niemals Pixelexakt auf diesen Geräten abbilden können. Subpixelmatsche entsteht so oder so.
das ist ja klar, aber der effekt des Matsches verstärkt sich ja mit steigender Auflösung

Gast
2009-02-13, 17:39:57
das ist ja klar, aber der effekt des Matsches verstärkt sich ja mit steigender Auflösung


NEIN!

ganz im gegenteil, je mehr pixel vorhanden sind und je höher damit die auflösung ist, desto besser wird die skalierung eher, auf keinen fall aber schlechter.

HeldImZelt
2009-02-13, 17:50:39
das ist ja klar, aber der effekt des Matsches verstärkt sich ja mit steigender Auflösung
Pro Pixel mehr Texel, ja, aber dafür bei höherer Dichte. Perzeptiv dürfte das im Idealfall nicht ins Gewicht fallen, bzw. nur Vorteile mit sich bringen.

Insgesamt dürfte es mehr auf den Scaler ankommen. Bei 1080 könnte man sogar sauberes Prescale x2 in der Vertikalen nehmen (768[787]x576*2) bei 36 Pixeln Verlust/Crop. Sofern das vertretbar und technisch überhaupt zur Verfügung gestellt wird, würde ich persönlich wahrscheinlich diese Option wählen.

Ronny G.
2009-02-13, 20:28:12
NEIN!

ganz im gegenteil, je mehr pixel vorhanden sind und je höher damit die auflösung ist, desto besser wird die skalierung eher, auf keinen fall aber schlechter.
der stolze mal wieder

das ist doch aber quatsch.
Die Bildschirmgröße jetzt mal außer acht gelassen, den mir ist klar das ein 50" mit 1920x1080 nen feineres Bild liefert, aber!!!!, nur bei entsprechender Quelle, bei nem 1080p Material zieht ein solcher Bildschirm alle register und funktioniert perfekt, wenn man aber nur ein PAL Signal von max.720x576 in Form von Kabelfernsehen einspeißt bedeutet das eine Skalierung von 5fach bei 1920x1080 , also grob das dopellte an hochrechnung des Bildes als bei 1360x768, das bedeutet bei euch als ein Besseres Bild, aha!

Klar kommt es auch sehr auf den Scaler an, aber rein vom logischen Sinn ist ein Full-HD beim PAL Signal doch im Nachteil

Gast
2009-02-13, 20:49:50
wenn man aber nur ein PAL Signal von max.720x576 in Form von Kabelfernsehen einspeißt bedeutet das eine Skalierung von 5fach bei 1920x1080 , also grob das dopellte an hochrechnung des Bildes als bei 1360x768, das bedeutet bei euch als ein Besseres Bild, aha!

es ist bei gleicher ausgabegröße auf keinen fall schlechter, als wenn der fernseher eine geringere auflösung hätte.

der vorteil dürfte wohl minimal bis garnicht vorhanden sein, schlechter ist es aber auf keinen fall.

Ronny G.
2009-02-13, 20:54:18
es ist bei gleicher ausgabegröße auf keinen fall schlechter, als wenn der fernseher eine geringere auflösung hätte.

der vorteil dürfte wohl minimal bis garnicht vorhanden sein, schlechter ist es aber auf keinen fall.

wenn der Scaler aber die 5fache Arbeit nicht sauber verrichtet neigt ein fullHD wesentlich mehr zu nem schlechten PAL-Bild, das meine ich halt. Man kann nicht ohne verlust unendlich hoch rechnen, das würde ja bedeuten das wir alle nur noch mit 3Megapixeln fotografieren und es auf das 5fache hochrechnen und meinen es sieht genauso gut aus wie das was auf 2fach hoch gerechnet wurde, verstehst du?

HeldImZelt
2009-02-13, 22:04:34
Je öfter man vorskalieren kann (Verdoppeln, Pixelwiederholung), um so weniger muss man interpolieren, bzw. desto besser können die Pixel gewichtet werden und wirken konturreicher, scharfkantiger. Die Interpolation/Oversamplingartefakte nehmen mit steigender Auflösung/Prescalefaktor verhältnismäßig ab, das Bild nähert sich stetig dem Ideal. Der Informationsgehalt steigt natürlich nicht. Die Reproduktion der Pixel auf eine größere Fläche ist lediglich besser.

http://img509.imageshack.us/img509/4999/multi43ph2.th.png (http://img509.imageshack.us/img509/4999/multi43ph2.png)
(Simple4x, PAR Korrektur 1.14 <> 1.33 vertikal)

http://img14.imageshack.us/img14/314/interpnb4.th.jpg (http://img14.imageshack.us/img14/314/interpnb4.jpg)
Interpoliert

Das ist technisch nicht 100% korrekt und der Effekt wird in der Praxis zwischen 720p und 1080p nicht so hoch ausfallen wie auf den Bildern, beschreibt aber illustrativ die Problematik der Interpolation und den Vorteil von Prescaling, Pixelgewichtung oder ähnlicher Verfahren, die von steigenden Auflösungen profitieren.

Gast
2009-02-14, 11:31:40
wenn der Scaler aber die 5fache Arbeit nicht sauber verrichtet neigt ein fullHD wesentlich mehr zu nem schlechten PAL-Bild, das meine ich halt.

wenn der scaler sauber arbeitet, was bei den meisten halbwegs ordentlichen geräten auch der fall sein sollte, ist das verhältnis quell-zielauflösung ziemlich egal. je mehr pixel man zur verfügung hat, desto feiner kann die interpolation natürlich erfolgen, und damit insgesamt eventuell zu einem etwas besseren bild führen. auch eventuelle schärfefilter führen bei niedrigerer auflösung eher zu artefakten, mit mehr pixeln kann man stärker schärfen ohne dass es schlecht auffällt.

kurz gesagt, es gibt einfach keine situation wo eine auflösung von 1360x768 die bessere qualität als eine auflösung mit 1920x1080 bringen würde (natürlich immer vorausgesetzt die restlichen bildparameter unterscheiden sich nicht).
bei PAL-material oder 720p-material hat der 1920er montitor natürlich auch kaum bis garkeine vorteile, aber eben auch keine nachteile.


Man kann nicht ohne verlust unendlich hoch rechnen,

natürlich, wenn der skalierungsalgorithmus bekannt ist kann man aus dem hochskalierten bild jederzeit das ausgangbild wiederherstellen(mal von rundungsfehler abgesehen). beispielsweise nicht verlustfrei ist das anschließende schärfen, die skalierung schon.


das würde ja bedeuten das wir alle nur noch mit 3Megapixeln fotografieren und es auf das 5fache hochrechnen und meinen es sieht genauso gut aus wie das was auf 2fach hoch gerechnet wurde, verstehst du?

nein, durch das hochskalieren entstehen keine neuen informationen, es gehen aber auch keine verloren. ein ausgangsbild mit höherer auflösung hat natürlich mehr informationen (oder sagen wir mal sollte es haben, gerade bei digitalkameras ist das ja heutzutage oft nicht der fall) und sieht damit logischerweise auch besser aus.