PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Anaglyphes Realtime-3D durch Shader?


Android
2006-04-05, 18:21:58
Hi,

Hab letztens ein wenig das CCC von ATI durchstöbert und bin bei den Smartshader Effekten hängengeblieben. Da es ja schon 2D-2-3D Echtzeit Converter für Bilder und Videoquellen gibt, die soweit ich weiss ausschliesslich über die CPU berechnet werden, frage ich mich ob das nicht auch über die Shader (und damit meiner Meinung nach auch erheblich schneller) realisierbar wäre.

Und gerade für Spiele müsste das doch mit Demirugs DXTweaker über den PostFilter relativ einfach gehen, oder ? Oder läuft der Postfilter nicht über die Shader ?

Vielleicht habt ihr ja eine Idee ;)

Coda
2006-04-05, 19:06:00
Ne das geht nicht, du kannst aus einem fertig berechneten 2D-Bild nicht mehr die verschiedenen Perspektiven rausrechenen.

nVIDIA hat dafür die Stereotreiber, die können das soweit ich weiß, aber von ATI ist mir nichts bekannt.

Android
2006-04-05, 19:15:42
Ne das geht nicht, du kannst aus einem fertig berechneten 2D-Bild nicht mehr die verschiedenen Perspektiven rausrechenen.

nVIDIA hat dafür die Stereotreiber, die können das soweit ich weiß, aber von ATI ist mir nichts bekannt.

Es ging nicht um die Frage, ob es geht. Denn das es geht sieht man an den entsprechenden Programmen von ColorCode.
Es geht nur um die Frage, ob es auch über die Shader geht.
Und: Nvidias Methode hat nichts mit dem anaglyphen Verfahren zu tun.

Coda
2006-04-05, 19:18:39
Nein es geht nicht, da man damit nur einen Postfilter realisieren kann. Und das hat sehr wohl etwas mit meinem ersten Post zu tun.

Android
2006-04-05, 19:23:03
Nein es geht nicht, da man damit nur einen Postfilter realisieren kann. Und das hat sehr wohl etwas mit meinem ersten Post zu tun.

Womit kann man nur einen Postfilter erzeugen ? Mit dem Shader als solches oder meinst du mit dem DXTweaker ?

Coda
2006-04-05, 19:26:01
Der Shader bildet den Filterkernel für den Postfilter. Und nein du kannst damit kein anaglyphes 3D-Bild erzeugen, glaubs einfach.

Dafür müssten 2 Bild mit leicher verschobener Perspektive berechnet und anschließend dann entsprechend eingefärbt und vermischt werden.

Android
2006-04-06, 00:26:48
Der Shader bildet den Filterkernel für den Postfilter. Und nein du kannst damit kein anaglyphes 3D-Bild erzeugen, glaubs einfach.

Dafür müssten 2 Bild mit leicher verschobener Perspektive berechnet und anschließend dann entsprechend eingefärbt und vermischt werden.

Also geht das nur über die CPU ? Ist ja dämlich. :frown:

Spasstiger
2006-04-06, 03:48:19
Also geht das nur über die CPU ? Ist ja dämlich. :frown:
Es geht natürlich auch über die GPU, es muss sogar zwangsweise über die GPU gehen. Aber es geht nicht mithilfe der "Smartshader", die lediglich als Postfilter fungieren.

P.S.: Du verwechselst hier Smartshader mit Shader im Generellen. Smartshader ist einfach nur ein Kunstwort, das von ATI ins Leben gerufen wurde. Es bezeichnet keine spezielle Hardwarefunktion von ATI-Karten, sondern einfach nur die Nutzung der Shader-Hardware, um Postfilter auf das fertig gerenderte Bild anzuwenden.

Coda
2006-04-06, 13:21:12
Also geht das nur über die CPU ? Ist ja dämlich. :frown:
Wenn das Bild fertig ist, ist es zu spät. Egal ob CPU oder GPU.

Sowas kann nur der Treiber machen und wie gesagt, nVIDIA kann es sogar...

Android
2006-04-06, 14:46:54
Wenn das Bild fertig ist, ist es zu spät. Egal ob CPU oder GPU.

Sowas kann nur der Treiber machen und wie gesagt, nVIDIA kann es sogar...

Wusst ichs doch, dass wir aneinander vorbeireden. ColorCode sagt dir also doch nichts :D

http://www.colorcode3d.com/#
http://www.cyberhaven.de/3D/software.htm

Lies dir mal beim zweiten Link, den Absatz über die Software 3DProDVD durch.

MeLLe
2006-04-06, 16:22:53
Wusst ichs doch, dass wir aneinander vorbeireden. ColorCode sagt dir also doch nichts :D

http://www.colorcode3d.com/#
http://www.cyberhaven.de/3D/software.htm

Lies dir mal beim zweiten Link, den Absatz über die Software 3DProDVD durch.
Ob ihr aneinander vorbeiredet oder nicht ist praktisch egal - der Kern von Codas Aussage trifft für dich zu: einen fertigen Film/ein fertiges Bild in einer 2D-Aufzeichnung kann man nicht so mir nichts dir nichts nach 3D transformieren. Man kann einen Film mit zwei getrennen, perspektivisch geschickt aufgezeichneten Spuren nach colorcode3D encoden. Oder zwei getrennte, für Anaglyphs gedachte 2D-Bilder. Aber kein 2D-only-Video. Und auch kein 2D-only-Bild. Woher soll denn die Software Tiefeninformationen generieren? Die gehen nämlich praktisch beim Übergang von 3D nach 2D verloren ...

Coda
2006-04-06, 16:23:55
Wusst ichs doch, dass wir aneinander vorbeireden.
Nein tun wir nicht. Du verstehst es offenbar nur nicht.

Android
2006-04-06, 17:03:23
@MeLLe:

Du redest nicht von der 3-DonDemand™ Software von ColorCode. Du beschreibst das gewöhnliche Verfahren, was auch mit anderer Software von ColorCode oder anderen Herstellern möglich ist. Das übliche Verfahren ist auch mir bekannt. Der Sinn meiner Nachfrage zielt direkt auf die 3-DonDemand™ Software ab.
Und genau deshalb habe ich auch den zweiten Link aufgeführt.
Also: Wenn du mitreden willst, dann lies dir bitte erstmal alles richtig durch.

@Coda:

Wenn auch du keine Lust hast die Links zu besuchen, warum redet du dann überhaupt mit ? :confused: Langeweile ? :|

Hier ist noch ein Link direkt vom Hersteller:
http://www.colorcode3d.dk/group.asp?group=29

Coda
2006-04-06, 17:08:54
Du möchtest nicht verstehen dass man für anaglyphes 3D zwei Ausgangsbilder braucht, oder?

Ich behaupte jetzt einfach mal, dass das was die da versprechen ist schlicht unmöglich und kann gar nicht zuverlässig funktionieren kann.

Android
2006-04-06, 17:15:01
Du möchtest nicht verstehen dass man für anaglyphes 3D zwei Ausgangsbilder braucht, oder?

Okay das reicht. Würdest du dich bitte von diesem Thread fernhalten. Lesen/Denken vor Schreiben/Sprechen sagt dir wohl nix, oder ?
:uattack4:

Edit:
Würdest du bitte in Zukunft deine Edits in einen neuen Post stecken, wenn sie eine 120 Grad Wende zur Folge haben. Danke. Ansonsten verliert man ein wenig die Übersicht.
Denn das stand bis eben noch nicht da:
Ich behaupte jetzt einfach mal, dass das was die da versprechen ist schlicht unmöglich und kann gar nicht zuverlässig funktionieren kann.

Kabelsalat
2006-04-06, 17:23:03
Es geht sehr wohl aus einem 2D-Bild eine 3D-Ansicht zu erstellen. Es gibt Software bzw. Algorythmen, die in etwa genauso wie unser Gehirn bei der Betrachtung eines perspektivisch gezeichneten 2D-Bildes vorgehen. Aus den Größenrelation lassen sich Entfernungen und Abstände berechnen, welche die Vorraussetzung für das verschieben der zweiten Ansicht sind. Da beide Perspektiven jedoch zwangläufig andere Informationen beinhalten, gibt es bei der Transformation "leere" Bereiche, die gefüllt werden müssen. Bei im Hintergrund gelegenen Bereichen geht das relativ einfach durch interpolation, im Vordergrund ist aber i.d.R. manuelle Nachbearbeitung gefragt - zumindest werden bestehende Filme, wie z.B. Star Wars, die in 3D gewandelt werden, im Vordergrund manuell nachbearbeitet.

Neomi
2006-04-06, 18:32:44
Es geht sehr wohl aus einem 2D-Bild eine 3D-Ansicht zu erstellen.

Klar gibt es das, aber es funktioniert nicht wirklich zuverlässig. Die Software muß von bestimmten Gegebenheiten ausgehen, genau wie unser Gehirn von Erfahrungswerten. Und genau so, wie sich unser Gehirn täuschen läßt (siehe Herr der Ringe, die Hobbits wurden durch perspektivische Tricks "verkleinert"), irrt sich auch die Software. Die Tiefeninformation wird nicht ermittelt, sondern mehr oder weniger erraten.

http://www.wwco.com/photos/20051001StarParty/IMG_0209-s.jpg

Stichort: "forced perspective"

Kabelsalat
2006-04-06, 18:38:59
... genau deshalb ist auch manuelle Nachbearbeitung notwendig, wobei sich auch die Software von erwähntem Herr der Ringe Effekt täuschen lassen sollte - sie soll es schließlich so interpretieren, wie wir es tun würden.

=> Realtime-3D nicht möglich!

Neomi
2006-04-06, 18:50:44
Genau das ist ja das Problem. Die Software muß interpretieren, weil sie es nicht wirklich berechnen kann. Für kontrollierte Umgebungen geht das sicherlich, eine Nachbearbeitung ist so eine Kontrolle. In Echtzeit ohne Nachbearbeitung besteht allerdings keine reelle Chance, die 3D-Daten wieder fehlerfrei zu rekonstruieren.

Btw, auch mit 2 versetzten Bildern gibt es massig Probleme. Sobald spiegelnde Oberflächen dabei sind, gibt es wieder Ungewißheiten. Nur rein diffuse Reflektionen lassen sich halbwegs (auch da gibt es noch ein paar Ausnahmen) zuverlässig auflösen.

Kabelsalat
2006-04-06, 18:53:24
In einer der letzten C'T stand ein Artikel zu diesem Thema. Die Transformation einiger Filme (u.a. Star Wars) scheint ziemlich problemlos zu funktionieren - allerdings mit Nachbearbeitung und einen entsprechendne Budget...

RoKo
2006-04-06, 19:12:44
Dass das ganze unproblematisch und fehlerfrei funktioniert, hat ja auch niemand behauptet. Aber wenn dieses ColorCode-Dingen irgendsowas in Echtzeit kann, wird genau das wohl theoretisch auch per PixelShader gehen. Allerdings verletzt man dann Patent No. 6,377,625 :ugly:

Gast
2006-04-06, 20:53:02
@MeLLe:

Du redest nicht von der 3-DonDemand™ Software von ColorCode. Du beschreibst das gewöhnliche Verfahren, was auch mit anderer Software von ColorCode oder anderen Herstellern möglich ist. Das übliche Verfahren ist auch mir bekannt. Der Sinn meiner Nachfrage zielt direkt auf die 3-DonDemand™ Software ab.
Und genau deshalb habe ich auch den zweiten Link aufgeführt.
Also: Wenn du mitreden willst, dann lies dir bitte erstmal alles richtig durch.

@Coda:

Wenn auch du keine Lust hast die Links zu besuchen, warum redet du dann überhaupt mit ? :confused: Langeweile ? :|

Hier ist noch ein Link direkt vom Hersteller:
http://www.colorcode3d.dk/group.asp?group=29



Ich glaub das ist abzocke 40 $ keine trailversion
praktisch hier schon mal gesehen
http://139.134.5.123/tiddler2/stereographer/stereograph.htm
mit leider schlechten ergebnis
man braucht zwei perspektiven ums perfekt zu haben
reatime müsste gehn mit leicht verschobener kamera(2xrendern) oder gebufferter bewegung - und die shader
die zeigens dann an ;-)
kein wiederspruch also

Android
2006-04-06, 21:36:40
Dass das ganze unproblematisch und fehlerfrei funktioniert, hat ja auch niemand behauptet. Aber wenn dieses ColorCode-Dingen irgendsowas in Echtzeit kann, wird genau das wohl theoretisch auch per PixelShader gehen. Allerdings verletzt man dann Patent No. 6,377,625 :ugly:

Zumindest einer, der versteht was ich meinte ;).
Denn ich habe in keinem Post behauptet, dass es besonders toll funktionieren würde und immer einen tollen 3D-Effekt ergibt.
Es ging schlicht um die Machbarkeit und die eventuelle Berechnung über die Shader.

@Gast:
Also an Abzocke glaube ich bei ColorCode nicht. Warscheinlich erwartet man einfach zu viel, wenn man sich das Programm holt. Daher auch die Idee, dass zum Beispiel ATI das als kleines Gimmick im Treiber mitliefert..........als ob die das machen würden :D.
Die Probierversion gab es übrigens mal. Jetzt komischerweise nicht mehr. :confused:

Zum Thema habe ich noch folgendes gefunden:

eyeSCREAM

http://www.bluesmoke.net/review20.html
http://www.amdpower.com/sections.php4?op=viewarticle&artid=45
http://www.littlewhitedog.com/content-24.html
http://www.hexus.net/content/item.php?item=172&redirect=yes
http://www.hwextreme.com/reviews/misc/wicked3d/
http://www.stereo3d.com/eyescreamlight.htm

eyeSCREAM Demo
http://www.wicked3d.com/downloads/es2/demo/wickedes.exe

seeehr interessante Threads aus anderen Foren
http://forum.tweakpc.de/showthread.php?t=27142&goto=nextoldest
http://www.rage3d.com/board/showthread.php?t=33797203

Coda
2006-04-06, 22:06:09
Naja wenn das so ist: Es kommt auf den Algorithmus an, aber ich vermute vor D3D10 ist das nicht möglich, wenn überhaupt.

MeLLe
2006-04-07, 08:45:28
Wenn es nur um eine Farbverschiebung diversere Bereiche eines Films/Bilds geht - das geht sicher, egal ob nun via PS oder CPU. Ob 3D-on-Demand allerdings überhaupt das leisten kann, was der Hersteller verspricht, bezweifle ich aus den schon weiter oben im Thread angeführten Gründen. Und dann stellt sich für mich wieder die Frage des Sinns.
Aber naja :|

del_4901
2006-04-07, 16:26:03
Wenn das Bild fertig ist, ist es zu spät. Egal ob CPU oder GPU.

Sowas kann nur der Treiber machen und wie gesagt, nVIDIA kann es sogar...

falsch:

http://www.in-three.com/

Neomi
2006-04-07, 16:47:27
falsch:

http://www.in-three.com/

Fehlende Informationen lassen sich nicht aus dem Nichts rekonstruieren, das ist ein Prinzipproblem. Wenn hinter dem Link etwas anderes behauptet wird, liegen die falsch.

FlashBFE
2006-04-07, 18:48:26
Fehlende Informationen lassen sich nicht aus dem Nichts rekonstruieren, das ist ein Prinzipproblem. Wenn hinter dem Link etwas anderes behauptet wird, liegen die falsch.

Genau. Es ist ja auch schonmal durchs Internet gegeistert, dass ein Kompressionsalgorithmus erfunden wurde, der beliebig oft wiederholbar ist und so theoretisch eine unendliche Kompression erreicht. Sowas ist aber unmöglich, denn wie will man aus ein paar Bits zurückkonstruieren, ob diese mal ein Lexikon oder Star Wars 1 waren? :)

Was aber möglich ist, sind diese Pseudo-3D Sachen wie es sie ab und zu mal im Fernsehen zu sehen gab (zusammen mit einer Hell-Dunkel-Brille). Das ist aber erstens nur eine optische Täuschung (die aber trotzdem ein ganz gutes räumliches Empfinden ergibt) und zweitens funktioniert das nur mit gleichförmig bewegten Bildern.

del_4901
2006-04-08, 12:00:06
Fehlende Informationen lassen sich nicht aus dem Nichts rekonstruieren, das ist ein Prinzipproblem. Wenn hinter dem Link etwas anderes behauptet wird, liegen die falsch.

Die infomationen fehlen ja nicht, sie sind nur "anders" erkennbar. Texturgradient/Verdeckung/Fluchtpunkte etc. Unser Gehirn macht auch nichts anderes, selbst wen du dir ein Auge zuhälst kannst du noch Entfernungen abschätzen.

Trap
2006-04-08, 12:26:32
Die infomationen fehlen ja nicht, sie sind nur "anders" erkennbar. Texturgradient/Verdeckung/Fluchtpunkte etc. Unser Gehirn macht auch nichts anderes, selbst wen du dir ein Auge zuhälst kannst du noch Entfernungen abschätzen.
http://upload.wikimedia.org/wikipedia/de/0/02/Penrose_dreieck.png

del_4901
2006-04-08, 12:28:10
http://upload.wikimedia.org/wikipedia/de/0/02/Penrose_dreieck.png

Das haben sich clevere Künstler ausgedacht, die genau jehnes schon vor langer langer Zeit erkannt haben.


Die Kunst ist aus der Realität entstanden!
Wie auch immer die Leute das damals gesehen haben! Das verstehen viele Informatiker einfach nicht. Sogar die Mathematematiker sind da näher dran. Auch ich habe lange Zeit dafür gebraucht das zu verstehen, obwohl Mutter und Vater Künstler sind, und der Sohn Informatiker.

Trap
2006-04-08, 12:35:10
Das Bild lässt sich aber von keinem Algorithmus der Welt in ein sinnvolles 3d-Objekt wandeln. Obwohl es Fluchtpunkte, Texturgradienten und Überschneidungen hat.

del_4901
2006-04-08, 12:38:56
Das Bild lässt sich aber von keinem Algorithmus der Welt in ein sinnvolles 3d-Objekt wandeln. Obwohl es Fluchtpunkte, Texturgradienten und Überschneidungen hat.

Es geht hier aber auch um "reale Bilder" nicht um die Ideen eines Künstlergenies. Da Spielen soviele Sachen mit rein: Blaukontrast/Farbtemperatur. Unser Gehrin verwendet über 20 verschiedene Informationen für die Erstellung der 3Dimensionalen Realität... der Parallaxenunterschied ist einer davon!

Du magst vllt in "Gegenbeispiel" gefunden haben Trap aber das ist nicht Element in diesem Unterraum.
Man kann sich immer Elemente erzeugen die in einem höher Dimensionierten Raum liegen, das sind einfache Gesetze der Mathematik, die überall Anwendung finden.

del_4901
2006-04-08, 12:50:10
BTW: wo's mir grad noch auffällt, das obrige Bild hat eben keine Fluchtpunkte! Es fehlt ein Erkennungs-Element. Unser Gehirn baut jedoch trotzdem ein 3d Bild, aus Verdeckung und Kontrast! Ebenso fehlt auch der Parallaxenunterschied.

Das Beispiel bestätigt eigendlich meine Aussagen.

Coda
2006-04-08, 12:52:44
Es geht hier aber auch um "reale Bilder" nicht um die Ideen eines Künstlergenies. Da Spielen soviele Sachen mit rein: Blaukontrast/Farbtemperatur. Unser Gehrin verwendet über 20 verschiedene Informationen für die Erstellung der 3Dimensionalen Realität... der Parallaxenunterschied ist einer davon!
Selbst das Gehirn kann es nicht immer vollständig rekonstruieren und eine Software schon 10x nicht.

Trap
2006-04-08, 12:53:45
Auch 2d-Projektionen von sinnvollen 3d-Objekten sind nicht immer erkennbar und auch selbst wenn man etwas darauf erkennt erkennt man es nicht immer richtig. Das kommt häufig vor wenn man die Darstellung der Objekte irgendwie automatisch erzeugt oder man nur ein einzelnes 2d-Foto von irgendwelchen Dingen hat (z.B. von Forschungssonden).

Allerdings sind die meisten Spiele und Filme so erstellt dass man erkennen kann was dargestellt wird.

del_4901
2006-04-08, 12:57:45
Selbst das Gehirn kann es nicht immer vollständig rekonstruieren und eine Software schon 10x nicht.

Da sich In-Three leider nicht in die Karten schauen lässt kann ich dazu nichts sagen. Als Informatiker der unter der Obhut 2er Künster aufgewachsen ist, sage ich das dieses Problem in endlich deterministischer Zeit lösbar ist.

Dafür reichen Fluchtpunkte,Verdeckung und Texturgradient. Das es in Echtzeit lösbar währe, davon distanziere ich mich aber!

del_4901
2006-04-08, 12:59:22
Auch 2d-Projektionen von sinnvollen 3d-Objekten sind nicht immer erkennbar und auch selbst wenn man etwas darauf erkennt erkennt man es nicht immer richtig. Das kommt häufig vor wenn man die Darstellung der Objekte irgendwie automatisch erzeugt oder man nur ein einzelnes 2d-Foto von irgendwelchen Dingen hat (z.B. von Forschungssonden).

Allerdings sind die meisten Spiele und Filme so erstellt dass man erkennen kann was dargestellt wird.

Das sind alles Spezialbeispiele, die wie du schon gesagt hat, in der Unterhaltungsindustrie keinen Anklang finden.

Bei Filmen ist es sogar noch "einfacher" da Blaukonstrast und Tiefenschärfe auf dem Film mit abgelichtet werden.

Bei großen Entfernungen kann man die Rotverschiebung als Merkmal für die Entfernung mit ranziehen .. das ist aber mehr wissenschaftlich als künstlerisch begründet.


Zu ersterem: es ist natürlich hier, wo es schwer ist genaue Aussagen über den 2d->3d Bildinhalt zu machen, von Vorteil, wenn man das Bild aus mehreren Perspektiven analysieren kann ... z.B in einem Kameraschwenk.

Coda
2006-04-08, 13:12:54
Da sich In-Three leider nicht in die Karten schauen lässt kann ich dazu nichts sagen. Als Informatiker der unter der Obhut 2er Künster aufgewachsen ist, sage ich das dieses Problem in endlich deterministischer Zeit lösbar ist.
Mach mal ein Auge zu: Siehst du noch perspektivisch? Du kannst schätzen wie weit etwas entfernt ist, aber du wirst ziemlich weit daneben liegen wenn du vorher nicht mit beiden Augen die Szene schonmal gesehen hast.

del_4901
2006-04-08, 13:17:48
Mach mal ein Auge zu: Siehst du noch perspektivisch? Du kannst schätzen wie weit etwas entfernt ist, aber du wirst ziemlich weit daneben liegen wenn du vorher nicht mit beiden Augen die Szene schonmal gesehen hast.

Da spielt auch ein Gewisses Training mit rein. Ich für meinen Teil sicher nicht, aber ein Einäugiger mit Sicherheit! Ich weiß das Kunst für Infomatiker ein Buch mit 7 Siegeln ist, und da können sie nochsoviele Engines programmiert haben. Ich war selber in der Lage und noch vor 5 Jahren währe ich voll und ganz auf deiner Seite, aber heute nicht mehr.

Coda
2006-04-08, 13:40:10
Sorry, aber ich sehe es einfach nicht wie das zuverlässig gehen sollte, vor allem weil der GPU-Output nicht immer deinen Kunstidealen entspricht (Postfilter, GUI, etc.)

Vor allem stelle ich mir es in Bewegung ziemlich grausig vor wenn das Zeug sich vor- und zurückbewegt weil die Software je nach Blickwinkel anders "schätzt".

del_4901
2006-04-08, 13:50:04
Sorry, aber ich sehe es einfach nicht wie das zuverlässig gehen sollte, vor allem weil der GPU-Output nicht immer deinen Kunstidealen entspricht (Postfilter, GUI, etc.)

Vor allem stelle ich mir es in Bewegung ziemlich grausig vor wenn das Zeug sich vor- und zurückbewegt weil die Software je nach Blickwinkel anders "schätzt".

Es ging ja nicht nur um die GPU: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=4171010&postcount=26

Schon allein da Fragmente keine Infomtionen über ihre Nachbarn haben dürfte es sich als kompliziert darstellen, hier eine Mustererkennung zu machen. Und ich habe mich auch ausdrücklich davon distanziert das es in Echtzeit machbar währe, wo man zu jedem Frame einen Schuss ins Blaue wagen muss.

Coda
2006-04-08, 14:40:40
Es ging ja nicht nur um die GPU:
Doch genau darum geht es hier ;)

Schon allein da Fragmente keine Infomtionen über ihre Nachbarn haben dürfte es sich als kompliziert darstellen, hier eine Mustererkennung zu machen.
Die Information hätte ein Postfilter durchaus, trotzdem halte ich das Konzept für total abwegig.

Neomi
2006-04-08, 17:50:49
Die infomationen fehlen ja nicht, sie sind nur "anders" erkennbar. Texturgradient/Verdeckung/Fluchtpunkte etc. Unser Gehirn macht auch nichts anderes, selbst wen du dir ein Auge zuhälst kannst du noch Entfernungen abschätzen.

Die Informationen fehlen definitiv. Sie lassen sich zwar in vielen Situationen erahnen, aber es gibt keine Möglichkeit, das alles auch zuverlässig hinzubekommen.

- Verdeckung sagt nichts über die Entfernung zwischen den Dingen aus, von denen das eine durch das andere verdeckt wird. Nicht mal die Entfernung vom Betrachter zu einem der Dinge ist daraus zu erkennen.
- Fluchtpunkte sind ein Indiz, mehr nicht. An der erzwungenen Perspektive in z.B. "Herr der Ringe" kann man sehr gut erkennen, daß man sich darauf nicht verlassen kann.
- Texturgradient? Wozu sollte man den heranziehen können?
- Verblauung zählt auch nicht. Zu jeder Farbe, die durch Verblauung aus einer anderen Farbe entsteht, gibt es eine Farbe, die ohne Verblauung genauso aussieht. Solange man die Originalfarbe nicht kennt, kann man auch nicht sagen, was für einen Anteil die Verblauung nun an der Endfarbe hat.
- Für die Rotverschiebung gilt das gleiche.
- Auch alle anderen Indizien lassen sich aushebeln.

del_4901
2006-04-09, 03:16:06
Neomi, du hast es nicht verstanden und ich bin im moment leider zu Müde das nochmal durchzukauen. Such einfach mal nach Wahrnehmung/Perception.
Da findest du dann auch infos zum Texturgradienten etc.

Und natürlich kann man alles "faken". Man kann sogar die Paralaxenverschiebung ausnutzen um das Gehirn zu verarschen! Die vorletzte Ct hat auch einen "dürftigen" Artikel drüber. Und wenn's nicht gehn würde, dann würden Cameron Lucas und Co. nicht auf diesen Zug aufspringen!

BTW: Rotverschiebung ist rein wissenschaftlich und tritt nur bei astronomischen Entfernungen auf!

Neomi
2006-04-09, 04:32:30
Neomi, du hast es nicht verstanden und ich bin im moment leider zu Müde das nochmal durchzukauen. Such einfach mal nach Wahrnehmung/Perception.

Und wie ich das verstanden habe. Die Informationen fehlen, Punkt. Was du als "funktioniert doch" interpretierst, ist keine Rekonstruktion der fehlenden Daten, sondern eine reine Schätzung. Die Schätzung basiert auf Indizien, die man nur dann heranziehen kann, wenn man von definierten Rahmenbedingungen ausgehen kann. Und selbst dann lassen sich diese Indizien noch so manipulieren, daß sie eine völlig falsche Schätzung hervorrufen. Es ist und bleibt aber wirklich nur eine Schätzung. Es gibt keine Möglichkeit, die Daten tatsächlich zu rekonstruieren. Ein Punkt in 2D kann jedem beliebigen 3D-Punkt auf einer unendlich langen (zumindest in eine Richtung) Linie entsprechen.

BTW: Rotverschiebung ist rein wissenschaftlich und tritt nur bei astronomischen Entfernungen auf!

Die Rotverschiebung tritt dabei nicht durch die Entfernung auf, sondern durch die relative Geschwindigkeit zwischen dem Betrachter und dem betrachteten Objekt.

FlashBFE
2006-04-09, 11:34:57
Die Rotverschiebung tritt dabei nicht durch die Entfernung auf, sondern durch die relative Geschwindigkeit zwischen dem Betrachter und dem betrachteten Objekt.

Ich glaube nicht, dass sich in einem Film ein Objekt mit mehreren 1000km/s bewegt ;). Und dann ist eine 8Bit Auflösung für den Rotanteil eh unbrauchbar.

Coda
2006-04-09, 11:45:18
Das war auf AlphaTier bezogen:
Bei großen Entfernungen kann man die Rotverschiebung als Merkmal für die Entfernung mit ranziehen .. das ist aber mehr wissenschaftlich als künstlerisch begründet.
Das ist schlicht falsch.

del_4901
2006-04-09, 12:10:59
Das war auf AlphaTier bezogen:

Das ist schlicht falsch.

Dann nenn mir mal nen Beispiel außerhalb der Astononomie wo es Verwendung findet! Ich bin ganz Ohr!

Coda
2006-04-09, 16:01:32
Es wird nicht die Entfernung sondern die relative zur Erde Geschwindigkeit gemessen. Dopplereffekt eben.

Das hilft uns hier nicht. Ich habe zumindest noch nicht bemerkt dass ich mehr Parkplätze finde weil sich das Universum ausdehnt X-D

zeckensack
2006-04-09, 16:50:22
Gaaaaaanz einfaches Beispiel:
http://www.belowski.de/partner/juraj/hackers/plakatwand.jpg

Ist das ein Spiegel ("3D" "hinter" der Spiegelebene notwendig)?
Oder ist es ein Plakat (alle Farbinformation auf der Ebene ist flach)?

Wie soll man diese wichtige Information durch Postpro gewinnen?

DanMan
2006-04-09, 17:16:25
Also bei 2D Filmen könnte ich mir z.B. vorstellen, dass man sie ganz gut in 3D umwandeln könnte, indem man sich Perspektivenänderungen bei Kamerafahrten zu nutze macht. Man könnte ja über mehrere Bilder hinweg analysieren wie sich die Elemente im Bild verzerren. Dadurch sollte man ableiten könne, wie diese im Raum platziert sind. Gerade weil es keine Echtzeitaufnahme ist, sondern bekannt ist was im nächsten Bild passieren wird.

Standbilder (aka Photos) sind natürlich eine andere Geschichte.

RaumKraehe
2006-04-09, 18:28:11
Aus 2d Filmen kann man sehr wohl 3d Filme machen, auch wenn die nicht ganz so "3d" sind wie richtig für 3d konzipierte Filme. Das ging übrigens schon vor knapp 8 oder 9 Jahren. Zumindest hatte ich damals ein 3d-Demo-Kino mit gebaut wo genau sowas gemacht wurde.

Allerdings passiert die Umwandlung von 2d zu 3d nicht automatisch sondern bedarf einer enorm aufwändigen Handarbeit.

Demirug
2006-04-09, 19:17:32
Also bei 2D Filmen könnte ich mir z.B. vorstellen, dass man sie ganz gut in 3D umwandeln könnte, indem man sich Perspektivenänderungen bei Kamerafahrten zu nutze macht. Man könnte ja über mehrere Bilder hinweg analysieren wie sich die Elemente im Bild verzerren. Dadurch sollte man ableiten könne, wie diese im Raum platziert sind. Gerade weil es keine Echtzeitaufnahme ist, sondern bekannt ist was im nächsten Bild passieren wird.

Standbilder (aka Photos) sind natürlich eine andere Geschichte.

Die beim Film eingesetzten digitalen Kameras können inzwischen ja extra positionsangaben für jedes einzelne Bild speichern um es der Tricksoftware einfacher zu machen.

DanMan
2006-04-09, 19:50:19
Die beim Film eingesetzten digitalen Kameras können inzwischen ja extra positionsangaben für jedes einzelne Bild speichern um es der Tricksoftware einfacher zu machen.
Klar, heute wirds einfacher sein. Ich dachte an der Stelle auch eher daran wie sie das bei den alten Star Wars Filmen gemacht haben könnten.

MeLLe
2006-04-09, 22:04:09
Die beim Film eingesetzten digitalen Kameras können inzwischen ja extra positionsangaben für jedes einzelne Bild speichern um es der Tricksoftware einfacher zu machen.
Ein wunderbares Wort, was genau den Nährwert des Vorgang beschreibt, der hier Thema des Threads ist ;)