PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : könnte man...


Mark
2004-06-30, 17:56:22
... einen film wie final fantasy mit den heutigen computern in echtzeit berechnen? also amd 64fx,x800xt usw

MechWOLLIer
2004-06-30, 18:29:14
Original geschrieben von skyworxx
... einen film wie final fantasy mit den heutigen computern in echtzeit berechnen? also amd 64fx,x800xt usw

Imo ist das mit allen Details noch nicht möglich.
Außerdem vermute ich, dass ein NV40 für diese Aufgabe deutlich besser geeignet wäre aufgrund der fortschrittlicheren Technik.
Ist allerdings nur eine Vermutung.

dildo4u
2004-06-30, 18:31:11
nö dazu gabs einen schönen artikel in der lezten PCGH
das wurde am beispiel von Shrek veranschaulicht wurde z.B braucht man für ein bild ca 3GB Speicher und es wird ein 64XAA benutzt die PCGH schätz wenn die GK entwicklung im selben tempo weiter geht wie in den lezten 10 jahren müsste man im jahre 2014 soweit sein das in echtzeit zu berechnen

Die polygone leistung müsste für 60fps bei 127milliarden
Dreicke pro sekunde liegen

Strayed
2004-06-30, 18:33:20
Ich denke das ist noch nicht möglich weil zwischen farcry hl2, doom3 etc. und Final Fantasy liegen noch riesige Unterschide an Details. Wenn man dann bedenkt was diese Spiele für Leistung fressen...

Edit: zu spät

ram
2004-06-30, 18:36:34
Nein, nicht in Echtzeit. Wenn man überhaupt schon mal alle diese Effekte auf der GPU berechnen kann (algorithmisch), wär das schon ein Fortschritt.

Nvidia bietet aber mit Gelato (http://film.nvidia.com/page/gelato.html) ein Produkt an, dass solche Film-Sequenzen Offline mit Hilfe von NV3X/NV4X Karten berechnen können sollte (das dauert dann Minuten bis Stunden pro Bild). Allerdings sind die Informationen über die Praxistauglichkeit von Gelato noch recht dünn gesäht.

q@e
2004-06-30, 18:51:34
Original geschrieben von skyworxx
... einen film wie final fantasy mit den heutigen computern in echtzeit berechnen? also amd 64fx,x800xt usw

Aber sicher. Es kommt nur darauf an, genügend der X800XT-Athlon64/FX zu beschaffen, und diese dann optimal auszulasten. ;)

Xmas
2004-06-30, 20:15:25
Wozu auch in Echtzeit? So schnell kann man den Content ja gar nicht produzieren ;) Ne Echtzeit-Vorschau beim bearbeiten reicht ja aus.

dildo4u
2004-06-30, 21:42:52
Original geschrieben von Xmas
Wozu auch in Echtzeit? So schnell kann man den Content ja gar nicht produzieren ;) Ne Echtzeit-Vorschau beim bearbeiten reicht ja aus. z.B um dann mit der Grafik zu zocken ;-)

Aquaschaf
2004-06-30, 22:15:06
Original geschrieben von dildo4u
Die polygone leistung müsste für 60fps bei 127milliarden
Dreicke pro sekunde liegen

Ich denke, dass man mit einem 1/100 oder einem 1/1000 der Polygonmenge eine nicht merklich schlechter aussehende Grafik erzeugen könnte.

Ranz0r
2004-06-30, 22:29:50
Original geschrieben von Aquaschaf
Ich denke, dass man mit einem 1/100 oder einem 1/1000 der Polygonmenge eine nicht merklich schlechter aussehende Grafik erzeugen könnte.

Man siehe sich die Unreal3 Engine an... Die Kreaturen sehen auch so aus als hätten weiß Gott wie viel Polygone aber durch die Engine wirds heruntergerechnet auf 9000?

Sunrise
2004-07-04, 13:47:44
Original geschrieben von skyworxx
... einen film wie final fantasy mit den heutigen computern in echtzeit berechnen? also amd 64fx,x800xt usw
Einen aktuellen Rechner mit den "Rohdaten" von FF zu füttern wäre zwar sicher machbar, aber keine momentan verfügbare PC-HW kann hier helfen, diese auch in Realtime umzusetzen. Dazu müsste die Architektur der GPUs noch mehr Flexiblität zulassen, größere Mengen RAM wären dringend vonnöten -, mehr Rechenpower ...

Was du auch bedenken musst: Die Frames die du damit erhälst sind noch völlig unbearbeitet -> viel zu scharf und zu künstlich, d.h. das Post-Processing wäre damit auch nicht abgedeckt. Der ganze Prozess ist viel zu aufwendig, um in naher Zukunft solch´ einen hohen Workload auf nur einem Rechner zu bewältigen.

Mit Multi-Core Chips und entsprechend wachsender Flexibilität/Speed der GPUs wird das natürlich irgendwann machbar, aber du ersetzt damit sicher keinen Content, denn wer will schon zufällig generierte Abläufe sehen, wenn es sich um einen Film handelt. Das ganze ist 100% vorher geplant -> wirkt sich direkt auf den Film aus und beeinflusst direkt die Wirkung einer Szene. Ein Computer kann das durch seine Emotionslosigkeit auch schwer nachvollziehen.

egdusp
2004-07-04, 19:11:25
Ich denke nicht, dass der PC jemals deiselben Verfahren benutzt wie bei FF oder Shrek eingesetzt, da durch Neuentwicklungen und Optimierungen eine vergleichbare Qualität mit sehr viel geringerem Aufwand möglich sein wird.

Man nehmen als Beispiel das Offest Mapping der U3 Engine oder Echtzeit Beleuchtungsmethoden.
Die U3 Engine kann IMHO eine vergleichbare Qualität in 95% des Films erreichen. Das dabei getrickst wird ohne Ende kann dem Anwender egal sein, wenn er es nicht merkt.

Das Entwicklen solcher Optimierungen und "Tricksereien" ist nur so langwierig, dass es sich für einen Animationsfilm nicht lohnt, da wird dann einfach mal Rechenkapazität erhöht. Im PC Berreich braucht es ja auch Jahre, bis sich eine neue Technologie durchgesetzt hat, und das obwohl sehr viel mehr Programmierer damit arbeiten können.

Außerdem ist die Auflösung bei einem echten Kinofilm ungleich höher verglichen mit einem Monitor.

mfg
egdusp

tokugawa
2004-07-04, 19:28:24
Außerdem macht die Hälfte der Sache ja nicht nur die Grafik, sondern eben auch die Animation aus - Motioncapturing, Physik-Simulation (wie etwa bei Kleidung oder Fell) und dergleichen. Da investiert man im Film schon gern "ein paar" Zyklen mehr Rechenpower, um den "Realismus" (oder eher "Plausibilität") zu erhöhen, während man bei Cloth- und Physik-Simulation in Echtzeit ja doch Abstriche machen muß (auch wenn das heutzutage nett schnell und plausibel aussieht, aber eben noch nicht perfekt, da man Zeit-Constraints hat).

aths
2004-07-04, 19:50:22
Original geschrieben von Ranz0r
Man siehe sich die Unreal3 Engine an... Die Kreaturen sehen auch so aus als hätten weiß Gott wie viel Polygone aber durch die Engine wirds heruntergerechnet auf 9000? Nicht durch die UT-Engine, das macht ein Extra-Tool.