PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Gibt es Grafikdemos von der Grafik von übermorgen?


2phil4u
2013-04-04, 18:04:48
Gibt es eigentlich eine Grafikdemo, die in Echtzeit selbst auf aktueller Highendhardware 2 Titan oder so nur mit 5 FPS liefert, aber durch z.B. langsames Abspielen und spaeteres Beschleunigen des Videos dann doch flüssig aussieht, so dass man sehen kann, wozu bsp ein Grafikchip, der 10 mal so schnell ist wie Titan in der Lage ist ?

Habe etwas gegoogelt aber finde immer nur PS4 Zeugs und Cryengine 3.5

Oder vielleicht eine Raytracingdemo, die auf einem grossen Server mit sehr viel paralleler Hardware erstellt wuurde ?

Würde mich über einige links freuen.

Danke schonmal im Vorraus

novl
2013-04-04, 18:31:24
Gibt es eigentlich eine Grafikdemo, die in Echtzeit selbst auf aktueller Highendhardware 2 Titan oder so nur mit 5 FPS liefert, aber durch z.B. langsames Abspielen und spaeteres Beschleunigen des Videos dann doch flüssig aussieht, so dass man sehen kann, wozu bsp ein Grafikchip, der 10 mal so schnell ist wie Titan in der Lage ist ?

Habe etwas gegoogelt aber finde immer nur PS4 Zeugs und Cryengine 3.5

Oder vielleicht eine Raytracingdemo, die auf einem grossen Server mit sehr viel paralleler Hardware erstellt wuurde ?

Würde mich über einige links freuen.

Danke schonmal im Vorraus

Gibt es, so ziemlich jeder Film der digital bearbeitet wurde.
Bestes Beispiel is da wohll Avatar, da besteht ja an sich alles aus gerenderten Szenen, mal abgesehen von den Innenaufnahmen.
Demos für den eigenen Rechner, die unzureichend laufen, da reicht doch auch der aktuelle 3D Mark.
Und einen Benchmark / Demo zu erstellen die auf keinem System sinnvoll läuft, wo steckt da der Sinn?

Ringwald
2013-04-04, 20:40:38
Gibt es, so ziemlich jeder Film der digital bearbeitet wurde.
Bestes Beispiel is da wohll Avatar, da besteht ja an sich alles aus gerenderten Szenen, mal abgesehen von den Innenaufnahmen.
Demos für den eigenen Rechner, die unzureichend laufen, da reicht doch auch der aktuelle 3D Mark.
Und einen Benchmark / Demo zu erstellen die auf keinem System sinnvoll läuft, wo steckt da der Sinn?

Um beim Kunden künstlichen Bedarf nach schnellerer Hardware zu erzeugen.

2phil4u
2013-04-04, 20:55:08
Avatar ist jetzt aber kein gutes Beispiel, da erstens Schauspieler eingesetzt werden und 2. die Leistung, die dafür benötigt wird nicht 10 Titan sondern etwa 10 Mio Titan entspricht.:wink:

Problem dürfte halt sein, dass keiner eine Engine entwickelt, die 10 Titans als Mindestanforderung hat, sogesehen dürfte es halt auch keine Demos geben, die aussehen wie Spiele im Jahr 2020.

-/\-CruNcher-/\-
2013-04-04, 21:38:16
Alle rätseln wie er das schaft, das ist Creation Engine DX9 aber Gionight hat eine ENB Pipeline in der es absolut nicht mehr wie Rasterization wirkt :)

http://img189.imageshack.us/img189/5420/tesv2013032720001765.jpg

http://img109.imageshack.us/img109/8573/tesv2013033020163824.jpg

http://imageshack.us/photo/my-images/5/tesv2013032717011641.jpg/

http://img6.imageshack.us/img6/3841/tesv2013033117342848.jpg

http://img441.imageshack.us/img441/6753/tesv2013033117502772.jpg

http://img41.imageshack.us/img41/2967/tesv2013032720491288.jpg

Coda
2013-04-04, 21:57:55
Avatar ist jetzt aber kein gutes Beispiel, da erstens Schauspieler eingesetzt werden und 2. die Leistung, die dafür benötigt wird nicht 10 Titan sondern etwa 10 Mio Titan entspricht.:wink:
~100 TFLOPs sollten reichen. Also so ungefähr 25 Titan. Aber selbst mit 10 kannst du wahrscheinlich schon was machen was extrem nahe dran ist.

Iruwen
2013-04-05, 10:57:06
Die letzten 5% Qualität kosten vermutlich 90% der Leistung?

Coda
2013-04-05, 11:06:01
Das größte Problem ist, dass bei Avatar ja auch extrem viel Matte Painting ist. Wenn man sich mal die Vordergrund-Vegetations-Geometrie anschaut dann ist die teilweise echt extrem grottig. Motion-Blur drüberkippen und niemand merkt's :tongue:

Bei nem Spiel muss es immer gut aussehen, weil man keine Kontrolle über die Kamera hat.

Iruwen
2013-04-05, 11:38:34
Leicht OT: ich fand Avatar eigentlich eh nicht so beeindruckend, eher überhypet. Drachenzähmen leicht gemacht hatte das bessere 3D und war m.E. auch der bessere Film, die Renderqualität ist da für mich eher sekundär. Wie bei Spielen halt.

seaFs
2013-04-05, 11:44:28
Du kannst dich ja mal auf Pouet.net umschauen, ob es da wieder was Hardwarekillendes gibt.

Wenn ich mich recht erinnere, hatte zu GTX285-Zeiten "Agenda Circling Forth" von CNCD/Fairlight richtig reingehauen (keine Polygone, nur Partikelberechnung). Ob es momentan was für Titan gibt, weiß ich nicht.

-/\-CruNcher-/\-
2013-04-05, 22:21:00
http://img24.imageshack.us/img24/2900/tesv2013032717124265.jpg

http://img46.imageshack.us/img46/4828/tesv2013032800183338.jpg

Screemer
2013-04-06, 00:17:09
warum gibts von cruncher dauernd enb-shots in allen möglichen threads?

-/\-CruNcher-/\-
2013-04-06, 00:51:26
http://i.minus.com/iFbrQmWRgqqY3.png

Es geht um die Grafik von übermorgen und dort versuchen wir nichts anderes mit verschiedenen ENB Pipelines bassierend auf der Creation Engine und verschiedenen ansätzen hinzubekommen und das ganze sehr individuel und international ;)

Sie dienen mir als Referenz in den anderen Threads gegen andere Tech Demo und Engine Render resultate meine eigenen sieht man unter anderem im Avatar Thread oder im ENB Thread selbst

Sven77
2013-04-06, 01:48:47
Gibt es, so ziemlich jeder Film der digital bearbeitet wurde.
Bestes Beispiel is da wohll Avatar, da besteht ja an sich alles aus gerenderten Szenen, mal abgesehen von den Innenaufnahmen.
Demos für den eigenen Rechner, die unzureichend laufen, da reicht doch auch der aktuelle 3D Mark.
Und einen Benchmark / Demo zu erstellen die auf keinem System sinnvoll läuft, wo steckt da der Sinn?

Wenn du die Bilder sehen würdest die bei solchen Filmen von der Renderfarm kommen würdest du dich wundern. Da steckt immer noch sehr viel Handarbeit drin ;)

Neurosphere
2013-04-06, 10:06:58
Naja, das bisschen ENB rumgespiele hat aber nicht wirklich was mit Übermorgen zu tun...

Fragman
2013-04-09, 00:40:40
wieviele titans wuerd ich allein fuers supersampling von avatar brauchen?
bei dem was weta bearbeitet hat wurden die schatten vom film schon auf gpu gerendert und in renderman erfolgte nur ein lookup, ka wieviel das waren und wie lange die gerendert haben, duerfte aber pro bild einiges gewesen sein.

das mit den matte painting darf man nicht ueberschaetzen, es wurde sehr viel in 3d direkt erstellt weil es noetig war. gerade bei den waldueberfluegen ist das in camnaehe immer 3d und keine 2dplanes.

dazu kommen halt die ganzen fluidsims fuer feuer und rauch was auch wieder echtes 3d ist.

10 titans wuerden da nie reichen fuer realtime. hab die genauen renderstunden nicht im kopf, aber man redet von 100h pro frame im schnitt. kann man sich ja ausrechnen wieviel titans man braeuchte, also rein von der rechenleistung her.

bsp:
titan=10 mal schneller als hexcore i7
=10 stunden pro frame pro titan
=1h bei 10 titan pro frame
=600 titan pro minute
=36000 titan pro sekunde
= about 1mio titan fuer 30 bilder/sekunde beim spielen.

die reale zahl duerfte vielleicht bei nur dreiviertel soviel liegen, also 750k titans da weta noch auf quadcores gerendert hat. nehmen wir die leistungssteigerung liegen wir vielleicht bei einer halben mio titans dann fuer 30 bilder. 1 mio dann wieder fuer 60 frames da das ja doch angenehmer waehre. ;)

EDIT:
wurde grad drauf hingewiesen das der film natuerlich stereo gerendert wurde. wenn wir optimistisch sind und die bei renderman aktuellen 30 prozent mehr fuers 2. auge dazurechnen sind wir dann doch wieder bei 1,33 mio titans fuer 60 frames.

Iruwen
2013-04-09, 10:13:14
"2011 Oscar nominee How To Train Your Dragon was also an HP-assisted production, keeping nearly 10,000 cores busy almost 100 percent of the time – 24 hours a day, 7 days a week for 28 weeks."

Coda
2013-04-09, 11:51:21
...
Offline-Rendering ist wesentlich ineffizienter als was wir machen. Das kannst du so nicht vergleichen.

2phil4u
2013-04-23, 18:36:04
Ich habe gerade das entdeckt.

http://video.golem.de/games/10222/grafikbenchmark-unigine-valley-ausprobiert.html

Man stelle sich diese Engine als Hintergrund vor und Menschen, Tiere, Monster etc mit nahezu photorealister Qualitaet.

Das alles zusammen würde wohl etwa die 4-fache Leistung einer Titan erfordern, eventuell durch sehr gute Programmierung auch weniger.

So sollte die Grafik der übernaechsten Spielekonsolegeneration aussehen, oder PC Spiele ab 2018.

-/\-CruNcher-/\-
2013-04-23, 19:12:42
Der erste comment auf Golem ist schon echt irre da weis ich warum ich nie auf dieser Seite unterwegs bin ;)

Geldmann3
2013-04-25, 22:36:16
wieviele titans wuerd ich allein fuers supersampling von avatar brauchen?
bei dem was weta bearbeitet hat wurden die schatten vom film schon auf gpu gerendert und in renderman erfolgte nur ein lookup, ka wieviel das waren und wie lange die gerendert haben, duerfte aber pro bild einiges gewesen sein.

das mit den matte painting darf man nicht ueberschaetzen, es wurde sehr viel in 3d direkt erstellt weil es noetig war. gerade bei den waldueberfluegen ist das in camnaehe immer 3d und keine 2dplanes.

dazu kommen halt die ganzen fluidsims fuer feuer und rauch was auch wieder echtes 3d ist.

10 titans wuerden da nie reichen fuer realtime. hab die genauen renderstunden nicht im kopf, aber man redet von 100h pro frame im schnitt. kann man sich ja ausrechnen wieviel titans man braeuchte, also rein von der rechenleistung her.

bsp:
titan=10 mal schneller als hexcore i7
=10 stunden pro frame pro titan
=1h bei 10 titan pro frame
=600 titan pro minute
=36000 titan pro sekunde
= about 1mio titan fuer 30 bilder/sekunde beim spielen.

die reale zahl duerfte vielleicht bei nur dreiviertel soviel liegen, also 750k titans da weta noch auf quadcores gerendert hat. nehmen wir die leistungssteigerung liegen wir vielleicht bei einer halben mio titans dann fuer 30 bilder. 1 mio dann wieder fuer 60 frames da das ja doch angenehmer waehre. ;)

EDIT:
wurde grad drauf hingewiesen das der film natuerlich stereo gerendert wurde. wenn wir optimistisch sind und die bei renderman aktuellen 30 prozent mehr fuers 2. auge dazurechnen sind wir dann doch wieder bei 1,33 mio titans fuer 60 frames.

Ich denke, dass ist eine Fehlannahme für Spielgrafik. Man würde "Avatar Grafik" in einem Game schon mit 1 Geforce Titan hinbekommen denke ich. Ich fand die Grafik generell nicht so beeindruckend und wenn man sich den Film in 3D ansieht, bemerkt man, dass bei großen Szenen etwas mit statischen Hintergründen getrickst wurde.

Die haben so viel Leistung gebraucht, weil das gar nicht ansatzweise darauf ausgelegt war, in Echtzeit zu laufen. Ist auch nicht mit einem Game vergleichbar. Im Gegensatz zu einem Game muss dort auch nur das beachtet werden, was der Zuschauer sehen soll. Ich denke, "Avatar Grafik" ist mit PC's schon möglich. Selbst in einer frei begehbaren Welt. Das größte Problem ist wohl nur die Umsetzung. Der Content fehlt. Mit der Cryengine 3.5+ stelle ich mir ein Avatar super vor, wenn man einen Mega Rechner hat... - Gab sogar mal eine Mod, doch sowas kommt natürlich nicht ansatzweise an die Qualität einer großen Produktion ala Crytek ran.

Nvidia hat ja auch mal gezeigt, wie sie die fotorealistischen Szenen aus Transformers von vor ein paar Jahren jetzt in Echtzeit auf "nur" 100 Titans rechnen lassen. Alles eine Sache der Optimierung. ich denke, es wäre mit dem Fotorealismus in Avatar nicht mehr weit hergeholt gewesen, wenn man menschliche Gesichter gerendert hätte. Die Technik steckt noch immer in den Kinderschuhen, da fehlt es sogar weniger an Leistung als an Know-How.

Du müsstest in deiner Berechnung dann die 1Mio Titans nochmal locker verdoppeln, weil in einem Spiel auch solche bisher "unmöglchen" Sachen gerendert werden müssten. Neben den Gesichtern u.a. auch die epischen Aussichten, die teils nur Bilder waren.

Fragman
2013-04-25, 22:46:49
es ist nicht machbar, rein vom content her nicht. bsp die creatures, 200 4k uv tiles pro char pro layer inkl dispmap. dazu das AA und die highres basemeshes, die anzahl an verschiedenen objekten, das lighting das geht alles nicht in echtzeit, nichtmal ansatzweise.

natuerlich kann man den content extrem runterbrechen, dann ginge zumindest die darstellung, siehe eben crysis. aber das hat dann nicht mehr viel mit dem orig film und dessen detailgrad zu tun.

Geldmann3
2013-04-25, 22:57:49
In Avatar gab es ja wohl auch kaum ein LOD...

Fragman
2013-04-25, 23:12:18
In Avatar gab es ja wohl auch kaum ein LOD...

doch den gibt es, mipmaps und geolods von renderman.

Geldmann3
2013-04-25, 23:17:41
Oh ok...

Iruwen
2013-04-25, 23:52:21
http://www.datacenterknowledge.com/archives/2009/12/22/the-data-crunching-powerhouse-behind-avatar/
Geht nicht schon massiv Renderzeit dafür drauf das Zeug so zu rendern dass es kein Aliasing gibt? Was wird da überhaupt verwendet?

2phil4u
2013-04-26, 12:29:56
Da sieht man ja schon, ein Supercomputer wird gebraucht, der wahrscheinlich wochenlang an einem 120 min Film rechnet.
Hat jemand eine Ahnung, ob Raytracing ab einer gewissen Performance Rasterizing ersetzen könnte ?
Soll ja bei sehr anspruchsvoller Grafik besser skalieren habe ich gehört.
Man stelle sich also eine Karte 2020 vor, die 1000 CPU hat, die jeweis 0.3 Watt verbrauchen.
Jeder dieser CPUs hat 4 Kerne und 4-faches Hyperthreading und taktet dank Finfet und co bei vielleicht 0.2 Volt mit 2 ghz.
Wären also 4000 Kernen, nehmen wir mal die Leistung eines jetzigen Ivy Bridge auf 2 ghz mit Hyperthreading.
Würde die Power reichen für gutes Realtimeraytracing oder wäre das immer noch zu wenig ?

Fragman
2013-04-26, 12:45:53
Da sieht man ja schon, ein Supercomputer wird gebraucht, der wahrscheinlich wochenlang an einem 120 min Film rechnet.
Hat jemand eine Ahnung, ob Raytracing ab einer gewissen Performance Rasterizing ersetzen könnte ?
Soll ja bei sehr anspruchsvoller Grafik besser skalieren habe ich gehört.
Man stelle sich also eine Karte 2020 vor, die 1000 CPU hat, die jeweis 0.3 Watt verbrauchen.
Jeder dieser CPUs hat 4 Kerne und 4-faches Hyperthreading und taktet dank Finfet und co bei vielleicht 0.2 Volt mit 2 ghz.
Wären also 4000 Kernen, nehmen wir mal die Leistung eines jetzigen Ivy Bridge auf 2 ghz mit Hyperthreading.
Würde die Power reichen für gutes Realtimeraytracing oder wäre das immer noch zu wenig ?

rasterizer wird schnell ineffizient bei spezifischen raytrace effekten, deshalb nimmt man dann gleich raytracing. der aufwand das gleiche im rasterizer zu machen ist dann einfach zu hoch.

fuer games wird raytracing so schnell nicht kommen. fuer spezifische effekte vielleicht nen sehr einfachen prepass, fuer glossis zb wie beim kommenden killzone, aber komplett darauf zu bauen ist einfach viel zu langsam. die komplexitaet von filmshots haben games ja bei weitem nicht, auch nicht absehbar, deshalb sicher nicht 2020 (sind ja auch nur noch 7 jahre). der punkt an dem raytracing schneller als rasterizer ist haben wir bei games noch lange nicht erreicht. der uebergang wird dann sowieso nicht von heut auf morgen kommen sondern ueber eine hybrid loesung stueck fuer stueck einzug halten.

2phil4u
2013-05-03, 15:47:01
Ich wusste bisher nicht, dass eine Hybridlösung überhaupt praktikabel ist, aber anscheinend gibt es schon ein Spiel, welches Raytracing für bestimmte Dinge nutzt, war in den News zu Raytracing auf Google.

Gipsel
2013-05-03, 19:04:47
Hat jemand eine Ahnung, ob Raytracing ab einer gewissen Performance Rasterizing ersetzen könnte ?
Soll ja bei sehr anspruchsvoller Grafik besser skalieren habe ich gehört.Das skaliert theoretisch besser mit der Anzahl der Objekte (logarithmisch) als "normale" Rasterizer (linear). Allerdings ist sowas praktisch nicht immer entscheidend, wenn der Vorfaktor beim Rasterizer um Größenordnungen kleiner sein kann (für jeden Ray irgendeinen Baum der Objekte für die Kollisionsabfrage zu traversieren, ist nunmal umständlich und erzeugt wenig kohärente Zugriffsmuster [langsam, schlechte Nutzung der verfügbaren Bandbreite], auch wenn das prinzipiell gut mit der Baumgröße skaliert).

-/\-CruNcher-/\-
2013-05-03, 19:19:59
Ich wusste bisher nicht, dass eine Hybridlösung überhaupt praktikabel ist, aber anscheinend gibt es schon ein Spiel, welches Raytracing für bestimmte Dinge nutzt, war in den News zu Raytracing auf Google.

Es gibt momentan viele neue Ansätze in fast jeder neuen Japan Engine sind sie vorhanden, vieles der Mathematik ist Raytracing vor allem bei Reflektionen auch die Reflektionen die man in den Screens sieht die ich gepostet habe das ist Raytracing ;)
Es vermischt sich schon seit längerem auch die Reflektionen in der CryEngine 3 und das GI da kommen Raytracing Prinzipien zum Einsatz.
Auch verändert sich das aussehen immer mehr es sieht halt alles mehr nach CGI aus PBL und PBS sind schon fast standard nicht mehr dieser Typische Rasterizer Look, früher oder später wird der History sein :)
Bei der PS4 wird man den wahrscheinlich gänzlich nirgends mehr sehen, ausser bei Engines die noch Altlastig sind.
Nicht ohne Grund wurden viele der Engines aus Japan von Grund auf neu Entwickelt das haben wir Sony zu verdanken und CryEngine sieht in diesem Fall alt aus da ja Grundgerüst noch von damals auch UE4 wird sich schwer tun vor allem ohne ihr State of the Art Voxel GI ;)
Vor allem die Workflows sind state of the Art, die brauchen sich vor Epic nicht verstecken.
Da werden auch die Russen hart dran knabbern ;)

Die PS4 hat wirklich eine Welle in Japan losgetretten gleich zu Anfang aber durch die Bank weg jeder NEUE ENGINE und das sind alles keine Altlasten alles von Grund auf Neuentwicklungen mit allem State of the Art was zu der Zeit gerade aus dem Research raus war.
Und die sind alle Jünger als Frostbite und Co das wird noch lustig werden ;)

Was am interessantesten ist wir haben jetzt definitiv 2 Lager

Realtime GI
Bake GI

Neurosphere
2013-05-03, 22:41:52
Ich würde erstmal abwarten was von Enginedemos bei fertigen Spielen noch übrig bleibt ;)

KiBa
2013-05-04, 14:16:26
Das skaliert theoretisch besser mit der Anzahl der Objekte (logarithmisch) als "normale" Rasterizer (linear)..
Das sich diese Meinung immer noch hält und sogar gelehrt wird, verwundert mich immer wieder. Raytracing skaliert auch linear O(n) mit der Anzahl der Dreicke. Erst durch Einsatz von Beschleunigungsstrukturenn (kd-tree z.B.) verbessert man das im Schnitt (worst case bleibt aber weiterhin O(n)).

Diese Beschleunigungsstrukturen kommen nun aber auch bei Rasterizern zum Einsatz (front-to-back mit z-bufffer, occlusion culling etc.), wobei sich auch grob ein logharithmisches Laufzeitverhalten einstellt.

Der Unterschied ist nur, dass Raytracing hier auf kleinerer Ebene (Pixel) arbeitet, was aber nur selten auch einen Performancevorteil bedeutet, da Rasterizer meist kohärente Speicherzugriffe ausnutzen können. Raytracing wird auch in Zukunft "nur" Spezialanwendungen haben (physikalische Simulationen und komplexe optische Effekte).

Rooter
2013-05-05, 22:42:37
Ich wusste bisher nicht, dass eine Hybridlösung überhaupt praktikabel ist, aber anscheinend gibt es schon ein Spiel, welches Raytracing für bestimmte Dinge nutzt, war in den News zu Raytracing auf Google.Und welches Spiel ist das?

MfG
Rooter

2phil4u
2013-05-06, 19:52:22
Musste ich erst wieder suchen.
Killzone 4 heisst das Spiel, hier der Atrikel.

http://gamingbolt.com/killzone-4-has-raytracing-for-real-time-reflections

del_4901
2013-05-06, 19:56:24
Killzone verwendet ScreenSpaceRealtimeReflections das macht nach Cryengine 3 mittlerweile jede groessere Engine. Das als "Raytraching" zu bezeichnen ist vielleicht nicht total falsch, aber trozdem sehr gewagt.

Knuddelbearli
2013-05-06, 21:45:22
Antwort auf die Frage:

Gibt es Grafikdemos von der Grafik von übermorgen?

Nein nicht wirklich. An Technologien haben wir inzwischen so alles da! Es kommt nur noch darauf an wie sehr sich die (Level)Designer bemühen ( bzw man ihnen Zeit gib ).
Wie nahe man dem Uncanny Valley Effekt kommt und wie hoch die Verfügbare Leistung ist ( Wobei letzteres stark mit ersterem zusammenhängt, mit genug Geld und fähigen Coder würde Crysis 3 auf Ultra selbst auf einer AMD 5630 laufen )

Ich persönlich fände es besser wenn die Hersteller mal mehr in Richtung echter Physik gibt. Und nicht dieser Schmarrn von Physikx, der einfach nur mal dahingeklackst wird um von NV einw enig Schmiergeld zu bekommen.
Also zerstörbarer Häuser und Terrain ohne feste Bruchkanten usw

Iruwen
2013-05-07, 10:58:59
Antwort auf die Frage:

Gibt es Grafikdemos von der Grafik von übermorgen?

Nein nicht wirklich. An Technologien haben wir inzwischen so alles da! Es kommt nur noch darauf an wie sehr sich die (Level)Designer bemühen ( bzw man ihnen Zeit gib ).

Nur mal so: genau das ist nicht die Antwort auf die Frage. Die war ja gerade nicht ob es schon Spiele mit der Grafik von übermorgen gibt, sondern eben Demos. Und die gibt es und gab es schon immer.

Piffan
2013-05-07, 20:47:40
Ich habe gerade das entdeckt.

http://video.golem.de/games/10222/grafikbenchmark-unigine-valley-ausprobiert.html

Man stelle sich diese Engine als Hintergrund vor und Menschen, Tiere, Monster etc mit nahezu photorealister Qualitaet.

Das alles zusammen würde wohl etwa die 4-fache Leistung einer Titan erfordern, eventuell durch sehr gute Programmierung auch weniger.

So sollte die Grafik der übernaechsten Spielekonsolegeneration aussehen, oder PC Spiele ab 2018.

Sehr schöne Demo. Ich mag Natur- Szenen. Wird mal Zeit für einen Nachfolger des Wandersimulators Gothic 3. :smile:

Was aber über die letzten Jahre unverändert geblieben ist: Im Nahbereich wird geprotzt, dafür sorgt dann heftiges LOD dafür, dass man stets weiß, dass es eben "nur" am Pc gerendert wurde.

AintCoolName
2013-05-08, 20:28:47
Was ist eigentlich aus dieser Sache (http://www.youtube.com/watch?v=0YjXCae4Gu0) geworden? Das kam nie als Demo raus immer nur als Video obwohl ich meine das es auch Real Time sein sollte. Das ist auch schon ein paar Jahre alte.

2phil4u
2013-05-08, 20:55:59
Bei dieser Demo mit den Autos kann ich mich an Beitraege hier erinnern, die besagten, dass dafür stundenlang berechnet werden musste und es absolut nicht in Echtzeit möglich ist.
AFAIK handelt es sich hierbei auch um Raytracing bei den Autos, was nicht heissen soll, dass mit sehr guter Programmierung und der 5-fachen Grafikleistung heutiger Higheendsysteme sowas nicht machbar waere, aber diesen Photorealismus hat glaube ich noch niemand in Echtzeit erreicht.

RLZ
2013-05-08, 21:07:19
Was ist eigentlich aus dieser Sache (http://www.youtube.com/watch?v=0YjXCae4Gu0) geworden? Das kam nie als Demo raus immer nur als Video obwohl ich meine das es auch Real Time sein sollte. Das ist auch schon ein paar Jahre alte.
Cinema 2.0 = otoy = Octane Render
Inzwischen stehen sie bei Nvidia regelmäßig auf der Bühne ;)

Rooter
2013-05-09, 15:11:20
Was aber über die letzten Jahre unverändert geblieben ist: Im Nahbereich wird geprotzt, dafür sorgt dann heftiges LOD dafür, dass man stets weiß, dass es eben "nur" am Pc gerendert wurde.Was mich an der Valley Demo am meisten stört sind die ständig ein- und ausblendenden Objekte. Fliegt man z.B. mal ein paar hundert Meter hoch sind alle Bäume komplett verschwunden. Das sollte ein modernes LOD-System doch besser hinkriegen!? Diesen Grasteppich um die eigene Position konnte z.B. schon die erste Serious Engine anno 1999...

MfG
Rooter

aufkrawall
2013-05-09, 16:48:58
Serious Sam war von 2001. ;)
Sieht aber auch heute noch gar nicht so übel aus. Sound & Steuerung wirken angestaubter als die Grafik.
Kein oder ein großzügiger LOD fressen halt enform Leistung. Wenn man das mit ein paar Tricks und Leveldesign übertüncht, find ichs ok.

Mir fehlt eher glaubwürdige Belichtung.
Wenn man bei Crysis 3 übers Gras springt und dabei nach unten schaut, fällt der verschwindende AO-Effekt negativ auf. Oder wenn bei Level 2 das Tor aufgeht, hat man nicht wirklich den Eindruck, Licht würde in den Raum einfallen.
Kein Fortschritt im Vergleich zu Crysis 2 von vor zwei Jahren.

Hoffentlich kommen spätestens mit Big Maxwell Lösungen wie SVOGI, genauere Lichtberechnung am besten in Echtzeit wären mal ein wirklicher Fortschritt.

Rooter
2013-05-09, 23:31:19
Serious Sam war von 2001. ;)Oh, hast Recht, hatte es mit Q3A verwechselt.

Hoffentlich kommen spätestens mit Big Maxwell Lösungen wie SVOGI, genauere Lichtberechnung am besten in Echtzeit wären mal ein wirklicher Fortschritt.Wer oder was ist Big Maxwell? :confused:

Ich fürchte nur dass die Techniken künftiger Engines auf die aktuellen Konsolen angepasst sein werden. Wenn ich es richtig verstanden habe ist SVOGI doch aus der Unreal Engine 4 rausgeflogen weil die PS4 wohl nicht leistungsfähig genug dafür sein wird. :usad:

MfG
Rooter

aufkrawall
2013-05-09, 23:49:31
Wer oder was ist Big Maxwell? :confused:

Der Nachfolger von GK110.


Ich fürchte nur dass die Techniken künftiger Engines auf die aktuellen Konsolen angepasst sein werden. Wenn ich es richtig verstanden habe ist SVOGI doch aus der Unreal Engine 4 rausgeflogen weil die PS4 wohl nicht leistungsfähig genug dafür sein wird. :usad:

Ich hoffe mal, dass man durch Optimierungen und dem Rauskitzeln von Performance auf Konsolen das noch hinbekommt.
Sie haben es ja immerhin für später angekündigt, hoffentlich dann nicht nur PC only.

Loeschzwerg
2013-05-10, 16:32:13
http://youtu.be/KLd8kEQJIzw

Nach Angaben alles Echtzeit und ohne Nachbearbeitung. Hoffentlich gibt es von den Jungs bald neues Material.

Ansonsten muss ich sagen fällt mir bei Project Cars laufend die Kinnlade runter.

Beides nicht die Grafik von übermorgen, aber vielleicht von morgen :)

samm
2013-05-10, 22:11:41
Nja, der Trailer ist cool, aber schon länger erhältlich. Letztes Update vom 16. April: Hello friends. From the deep dungeons of creation we crawl back to the surface only to inform that the gameplay premiere will be delayed some more. We were aiming to release gameplay stuff next week before my paternity leave kicks in, but despite working night and day, even skipping all social contacts, we’re not happy with it yet. This is life folks.(Quelle: http://reset-game.net/?p=351) Die "Woche" ist schon länger rum... ;)

Loeschzwerg
2013-05-13, 07:52:48
Ja leider :frown:

Nvidia hat derweil die Ira Techdemo mit "Faceworks"-Technology freigegeben:
http://www.pcgameshardware.de/Nvidia-Geforce-Hardware-255598/Downloads/Nvidia-FaceWorks-Tech-Demo-Digital-Ira-Download-1069415/

2phil4u
2013-05-30, 20:13:24
Mal eine Frage. Bei welcher Leistung würde denn Raytracing Sinn machen ?

Würde Raytracing eher von X86 Prozessoren wie Intel Xeon Phi profitieren ?

Angenommen ich haette 1000 dieser Prozessoren statt 63 oder die GPU Leistung von 10 Titans.

Könnte man dann Raytracing ohne dieses Rauschen anwenden in Spielen und waere es bei entsprechend hochaufgelösten Figuren perfomanter als mit Rastericertechnik ?

just4FunTA
2013-05-30, 20:40:54
Ja leider :frown:

Nvidia hat derweil die Ira Techdemo mit "Faceworks"-Technology freigegeben:
http://www.pcgameshardware.de/Nvidia-Geforce-Hardware-255598/Downloads/Nvidia-FaceWorks-Tech-Demo-Digital-Ira-Download-1069415/

sau stark, die Animationen lassen das Gesicht wirklich sehr real wirken. Das sollte das kurzfristige Ziel sein diese Qualität der Gesichter in Spielen umzusetzen.

robobimbo
2013-05-30, 22:28:32
Ich find ja dieses Demo von der Revision 2013 genial - ist echtzeitraytracing und find es für ein einmannprojekt sehr beeindruckend.

Inweiweit es jetzt praktikabel für ein Game ist, kann ich leider nicht beurteilen.

http://www.youtube.com/watch?v=i8hSZGTXTx8

Supern0va
2013-06-16, 22:14:36
Nvidia GRID + Nvidia Octane Render Cloud
http://www.youtube.com/watch?v=HYUOUMy-VDo

Ich fürchte nur dass die Techniken künftiger Engines auf die aktuellen Konsolen angepasst sein werden.

Die E3 zeigte genau das Gegenteil.
Bis auf eine Hand voll Exklusivspiele sind alle Engines extrem auf PC Hardware zugeschnitten.
Auch Dice nennt den PC mit BF4 "Leader-Platform".

Also so ungefähr 25 Titan. Aber selbst mit 10 kannst du wahrscheinlich schon was machen was extrem nahe dran ist.

Ergeben im Kinofilm Transformers 3 ~1 FPS.
In Echtzeit (~25 FPS) bräuchte man also ~250 Titan.

Sieht dann so aus:
http://www.youtube.com/watch?v=S79ATLR-SSw

Iruwen
2013-06-17, 01:34:25
Auch Dice nennt den PC mit BF4 "Leader-Platform".

Das haben sie bei BF3 auch gesagt. Stimmte für die Engine vermutlich auch noch. Das eigentliche Spiel war dann aber leider für Konsolen optimiert, speziell das UI. Ich hoffe das wird bei BF4 anders.

2phil4u
2013-10-10, 02:40:51
Sehr übermorgen, schätze mal 100 fache Performance noetig.

http://www.youtube.com/watch?v=G1iVJExd5vA

DinosaurusRex
2013-10-10, 08:07:52
Das hier ist auch ganz frisch und sehr, sehr gut:

http://vimeo.com/75781782#at=0

Loeschzwerg
2013-10-30, 07:27:21
Und es geht weiter mit RESET :smile:

http://www.youtube.com/watch?v=g063gr1SPWU

Rooter
2013-11-03, 22:18:41
Und es geht weiter mit RESET :smile:

http://www.youtube.com/watch?v=g063gr1SPWU
Schick! =)
Wobei Regentropfen, die auf dem Boden aufschlagen, im Debut Trailer viel besser aussahen.

MfG
Rooter

Coda
2013-11-03, 23:28:30
Reset ist kein Benchmark für Next-Gen. Das Shading ist schrecklich.

Das hier ist auch ganz frisch und sehr, sehr gut:

http://vimeo.com/75781782#at=0
Das ist gar keine so üble Prognose für was ich am Ende des Lifecycles der Next-Gen-Konsolen erwarte. Ich würde ja echt gern mal Sci-Fi-Content haben mit der Tech die wir in letzter Zeit gebaut haben ;)

-/\-CruNcher-/\-
2013-11-03, 23:49:27
Hoffe ja auf ein neues Star Trek Game in CryEngine ;)

First Contact steht ja immernoch aus ;)

Coda
2013-11-04, 00:36:51
Erstmal kommt Star Wars von DICE. Das wird auch sehr interessant.

SamLombardo
2013-11-04, 08:15:16
Das ist gar keine so üble Prognose für was ich am Ende des Lifecycles der Next-Gen-Konsolen erwarte. Ich würde ja echt gern mal Sci-Fi-Content haben mit der Tech die wir in letzter Zeit gebaut haben ;)
Wenn das wirklich so kommt wäre das fantastisch. Aber denkst du nicht, dass du etwas zu optimistisch bist?

Coda
2013-11-04, 11:13:19
Die Bildruhe wird wohl so nicht erreicht werden, aber sonst seh ich da nichts was man nicht machen könnte. Da wird man aber vor allem in die Content-Produktion investieren müssen, sonst kann sich das niemand leisten.

del_4901
2013-11-04, 13:25:06
Ich denke Content Produktion selber laesst sich relativ einfach fixen. Viele AAA Engines haben aber immernoch das Problem nicht richtig Prototypen zu koennen. Und jedesmal dafuer zu Unity zu greifen ist keine Loesung.

Rooter
2013-11-06, 18:05:27
Reset ist kein Benchmark für Next-Gen. Das Shading ist schrecklich.Worauf beziehst du das? Darauf, dass fast alle Oberflächen einfach glatt sind, ohne Struktur!? Zumindest das ist mir auch aufgefallen... :-/

MfG
Rooter

Loeschzwerg
2014-04-07, 10:50:16
Beleben wir diesen thread mal wieder ein wenig:
http://www.youtube.com/watch?v=ErWicf6yuDo

Das sieht stellenweise echt beeindruckend aus.

sloth9
2014-04-07, 13:55:07
der Detailgrad an den Metalloberflächen, wow.

-/\-CruNcher-/\-
2014-04-13, 09:16:13
Find die Aussage die diese Demo transportieren soll sowas wie "Yebis 2 as good as Analog" klasse und die Japsen haben auch ohne Zweifel eine der besten implementationen mit Yebis 2 :)

Dieser Gegensatz in der Demo High Tech und Analog einfach klasse gemacht :)

2phil4u
2014-04-17, 10:11:43
Sieht halt sehr fotorealistisch aus, wie in Filmen, dürfte Raytracing sein.

Irgendwie habe ich aber meine Zweifel, dass sowas realtime laufen kann, aber auf jeden Fall meilenweit besser als derzeitige Grafik in Spielen.

PrefoX
2014-04-17, 14:19:47
Sieht halt sehr fotorealistisch aus, wie in Filmen, dürfte Raytracing sein.

Irgendwie habe ich aber meine Zweifel, dass sowas realtime laufen kann, aber auf jeden Fall meilenweit besser als derzeitige Grafik in Spielen.
du kannst gar nicht sehen ob das raytracing ist oder nicht... vorallem würde die performance bei raytracing gar nicht ausreichen, um diesen detailgrad zu erreichen.

Coda
2014-04-17, 17:45:59
Irgendwie habe ich aber meine Zweifel, dass sowas realtime laufen kann, aber auf jeden Fall meilenweit besser als derzeitige Grafik in Spielen.
Das ist nicht meilenweit besser als die ganzen Next-Gen-Titel die schon draußen sind. Eher gar nicht.

-/\-CruNcher-/\-
2014-04-18, 07:23:17
Da stimm ich Coda zu vom Rendering könnte das genauso auch die CryEngine, Frostbite oder UE :)

Interessant währen letztendlich nur die nuoncen die beim Rendering herauskommen würden vor allem wenn man Haargenau das selbe Workflow und Assets nutzt und natürlich die Renderzeit :)