PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Wie weit sind wir von fotorealistischer Grafik entfernt?


chatman
2011-12-15, 14:11:47
Hallo!

Wenn man sich die Entwicklung der letzten 5 Jahre anschaut dann ist schon beeindruckend was sich grafisch getan hat. Mit der Frostbite Engine bei BF3 hat das ganze wieder einen riesen Schritt gemacht.

Was würdet ihr sagen, wie viele Generationen an (Grafik)Hardware trennen uns noch von fotorealistischenn Spielen?

(del)
2011-12-15, 14:16:34
Jahre. Die Grafik ist schon gut genug, lieber sollte man die Physik und KI verbessern.

Maorga
2011-12-15, 14:17:03
Kommt darauf an was du unter fotorealisch verstehst. Alte schwarz/weiß Bilder von damals oder eine heutige Hightec Spiegelreflexkamera mit super duper feinkörningen Film.

Henroldus
2011-12-15, 14:20:13
grad in den letzten 5 Jahren(seit Crysis) ist doch wenig passiert!?
Es ist grad ziemlich gesättigt und der Aufwand für größere Fortschritte wird immer größer.
und dann droht auch noch das Uncanny Valley (http://de.wikipedia.org/wiki/Uncanny_Valley)

Das Thema hatte wir doch schon mal.

Meiner Meinung ist der größte Mangel die Umsetzung einer realistischen Beleuchtung, noch vor höherer Auflösung und Polygonzahl

chatman
2011-12-15, 14:21:28
Kommt darauf an was du unter fotorealisch verstehst.

Na ja, so, daß ich wenn ich eine Spielszene sehe nicht weiß ob es echt ist oder aus dem Computer stammt. OK, das funktioniert jetzt schon in Filmen mit sehr viel CGI und Rechenleistung aber ich meine die Consumerprodukte.

Der Ursprung der Frage war übrigens die Diskussion mit Freunden ob bzw. ab wann man uns TV-Konsumenten gefakte Nachrichten unterjubeln könnte. Das ist aber hier OT

chatman
2011-12-15, 14:25:25
grad in den letzten 5 Jahren(seit Crysis) ist doch wenig passiert!?

Findest du? Auf Gamestar gibts da eine nette Vergleichsserie (http://www.gamestar.de/hardware/praxis/2322687/3d_grafik_im_wandel_der_zeit.html) Da merkt man die Unterschiede sehr deutlich wie ich finde (wenn sie vielleicht auch nicht so groß sind wie von 2000-2005)

Deathcrush
2011-12-15, 14:30:23
In den letzten 5 Jahren ist technisch nicht wirklich viel passiert, viel zu oft wurde sogar der Rückwärtsgang eingelegt, vor allem bei der dyn. Beleuchtung

http://www.youtube.com/watch?v=lbzFfYwhz68

Spasstiger
2011-12-15, 14:31:21
Ich finde, dass sich in den letzten 5 Jahren bei den Grafikreferenztiteln nur wenig getan. Einen größeren Schritt habe ich nur mit Crysis gesehen, an dessen Niveau sich der Rest nach und nach angeglichen hat. Auch Battlefield 3 finde ich im Vergleich zu Crysis nicht herausragend, das Lighting ähnelt sich imo sehr.
Um die Jahrtausendwende rum hat sich wesentlich mehr getan. Man vergleiche z.B. Trespasser (1999) mit Far Cry (2004). Ähnliches Setting und beide mit weitläufigen, frei begehbaren Levels. Beide Titel haben zu ihrer Zeit Aufsehen erregt. Grafisch liegen aber Welten dazwischen.

Der Aufwand für noch realitätsnähere Grafik steigt exponentiell.

Odal
2011-12-15, 14:34:51
Und gerade frostbite2 Engine mit bf3 ist doch ein eher sehr schlechtes Beispiel.

extrem Konstrast- und Farbarm sowie super flimmerige Vegetation oder Matschfilter - von Fotorealismus ist das viel weiter entfernt als so manch älteres Spiel mit super HiRes texturen

chatman
2011-12-15, 14:36:16
In den letzten 5 Jahren ist technisch nicht wirklich viel passiert, viel zu oft wurde sogar der Rückwärtsgang eingelegt, vor allem bei der dyn. Beleuchtung

http://www.youtube.com/watch?v=lbzFfYwhz68


Bei vielen der genannten Beispiele habe ich aber den Eindruck: die Möglichkeiten wurden nicht genutzt, waren aber da. Dynamische Schatten hätten sie damals wohl schon hinbekommen? (Bin aber mit der technischen Seite nicht wirklich bewandert, mich interessiert eher die Machbarkeit)

Lowkey
2011-12-15, 14:45:52
Ich erinnere mich an die Tipps wie "mach die Schatten aus, dann hast du wesentlich mehr FPS" um 2005 rum.

Ich persönlich finde fotorealistische Grafik "nett", aber würde behaupten, dass dann der Rest zu kurz kommt. Grafik ist eine Verpackung, aber der Inhalt zählt. Ein Spiel mit guter Grafik muss derzeit auf Konsolen laufen, also hat der PC nur wenige Möglichkeiten die Grafik zu verbessern. Demnach wird es bestimmt noch 10 Jahre dauern, bis etwas auf den Markt kommt, dass man als fotorealistisch bezeichnen kann. Der Trend geht einfach weg von Grafik hin zu "leichter zugänglich".

RLZ
2011-12-15, 15:00:00
@Topic:
Weiter weg als von Pong.

Was würdet ihr sagen, wie viele Generationen an (Grafik)Hardware trennen uns noch von fotorealistischenn Spielen?
Die Grafikhardware macht Spiele nicht fotorealistisch. Entsprechender Content ist in absehbarer Zeit nicht im großen Stil erstellbar.

dargo
2011-12-15, 15:23:29
Hallo!

Wenn man sich die Entwicklung der letzten 5 Jahre anschaut dann ist schon beeindruckend was sich grafisch getan hat. Mit der Frostbite Engine bei BF3 hat das ganze wieder einen riesen Schritt gemacht.

Was würdet ihr sagen, wie viele Generationen an (Grafik)Hardware trennen uns noch von fotorealistischenn Spielen?
Da die Konsolen in den letzten Jahren die Entwicklung extrem bremsen gehe ich mittlerweile von mindestens 20-30 Jahren aus. Eventuell sogar mehr. Für Fotorealismus fehlt noch extrem viel. Dazu gehört auch unter anderem eine deutlich höhere Auflösung. Full-HD ist Kindergarten. Und ich beziehe mich hier auf die übliche TFT-Größe von 24". Von großen TVs reden wir erst lieber gar nicht. Für ein absolut glattes und vor allem scharfes Bild ist somit extrem viel mehr GPU-Leistung nötig als heute und morgen selbst High-End GPUs liefern können.

Henroldus
2011-12-15, 15:30:14
Da die Konsolen in den letzten Jahren die Entwicklung extrem bremsen gehe ich mittlerweile von mindestens 20-30 Jahren aus. Eventuell sogar mehr. Für Fotorealismus fehlt noch extrem viel. Dazu gehört auch unter anderem eine deutlich höhere Auflösung. Full-HD ist Kindergarten. Und ich beziehe mich hier auf die übliche TFT-Größe von 24". Von großen TVs reden wir erst lieber gar nicht. Für ein absolut glattes und vor allem scharfes Bild ist somit extrem viel mehr GPU-Leistung nötig als heute und morgen selbst High-End GPUs liefern können.
nein, nein, die Auflösung ist es nicht!

warum können wir denn sonst mit einem Blick sehen, ob ein Film läuft oder eine Timedemo eines Spiels? Bei gleicher Auflösung!!!
Beleuchtung und Schatten sind IMO das wichtigste Kriterium
Ambient Occlusion (http://video.golem.de/games/6500/nvidia-zeigt-ambient-occlusion-mit-geforce-290.36.html) ist zum Beispiel ein großer Schritt, kostet aber auch

dargo
2011-12-15, 15:36:30
nein, nein, die Auflösung ist es nicht!

Doch!


warum können wir denn sonst mit einem Blick sehen, ob ein Film läuft oder eine Timedemo eines Spiels? Bei gleicher Auflösung!!!

Weil Computergrafik @Full-HD rein gar nichts mit TV-Ausstrahlung bzw. Film @Full-HD zu tun hat. Bei den üblichen Rendertechniken fehlen einfach entsprechende AA-Algorithmen. Schau dir diverse Aktionfilme an. Da werden auch genug Effekte am Computer berechnet/erstellt und je nach Umsetzung siehst du gar nicht, dass es Fake ist.


Beleuchtung und Schatten sind IMO das wichtigste Kriterium
Ambient Occlusion ist zum Beispiel ein großer Schritt, kostet aber auch
Das sind natürlich auch wichtige Bereiche die deutlich verbessert werden müssen.

Edit:
Ich kenne keinen Film der aliased oder flimmert. Beides lässt sich nur durch besseres Aliasing und/oder höhere Pixeldichte bei Spielen beseitigen damit das Auge es nicht mehr erkennen kann. Wer sehr hohes Downsamling bzw. SSAA-Modis kennt weiß wovon ich rede.

Und gerade frostbite2 Engine mit bf3 ist doch ein eher sehr schlechtes Beispiel.

extrem Konstrast- und Farbarm sowie super flimmerige Vegetation oder Matschfilter - von Fotorealismus ist das viel weiter entfernt als so manch älteres Spiel mit super HiRes texturen
Auch das ist nur die Folge von viel zu geringer Auflösung pro Fläche. Die AA-Algorithmen versagen leider bei Frostbite 2.

Henroldus
2011-12-15, 15:56:45
AA und downsampling haben eine ganz andere Wirkung(Bildruhe) als reine eine höhere Auflösung!
und ja ich unterstütze auch DS ;)

dargo
2011-12-15, 16:13:39
AA und downsampling haben eine ganz andere Wirkung(Bildruhe) als reine eine höhere Auflösung!

Hä?

Ein 24" Bildschirm mit Full-HD und einer Auflösung über DS von 3840x2160@1920x1080 liefert nahezu das selbe Ergebnis wie ein 24" Bildschirm mit nativ 3840x2160. Zweiterer wird sogar noch eine etwas bessere Qualität liefern.

KiBa
2011-12-15, 18:21:13
Hä?

Ein 24" Bildschirm mit Full-HD und einer Auflösung über DS von 3840x2160@1920x1080 liefert nahezu das selbe Ergebnis wie ein 24" Bildschirm mit nativ 3840x2160. Zweiterer wird sogar noch eine etwas bessere Qualität liefern.

nein, aber diese diskusion hatten wir in diesem forum schon zu oft und immer endete es im streit... ;)
um es kurz zu machen, der monitor mit der höheren auflösung wird zwar das schärfere bild liefern, was aber auch mehr flimmern wird. erst bei pixeldichten weit über dem, was das auge im typischen abstand erkennen kann, stellt sich auch eine glättungswirkung ein. aliasing inklusive moire-effekte sind räumlich meist größer ausgebildet als ein pixel breit ist.

Knuddelbearli
2011-12-15, 18:24:12
deutlich bessere grafik wird es wohl erst geben wenn man endlich auf Raytracing umsteigt. so langsam sollte die Leistung doch reichen ? Auflösung stagniert ja schon ewig im Consumer Bereich.

KI und Pysik ist aber erstmal wichtiger vor allem da dann hoffentlich dei CPU mal wieder mehr gefordert wird

dargo
2011-12-15, 19:35:00
nein, aber diese diskusion hatten wir in diesem forum schon zu oft und immer endete es im streit... ;)
um es kurz zu machen, der monitor mit der höheren auflösung wird zwar das schärfere bild liefern, was aber auch mehr flimmern wird. erst bei pixeldichten weit über dem, was das auge im typischen abstand erkennen kann, stellt sich auch eine glättungswirkung ein.
Achso... also flimmert 2x2SSAA mehr als 1xAA. :facepalm:

Mr.Magic
2011-12-15, 21:19:26
Achso... also flimmert 2x2SSAA mehr als 1xAA. :facepalm:

Das ist jedenfalls das, was du oben behauptest. :freak:

dargo
2011-12-15, 21:45:58
Zeig mal wo?

Mr.Magic
2011-12-15, 22:57:44
Ein 24" Bildschirm mit Full-HD und einer Auflösung über DS von 3840x2160@1920x1080 liefert nahezu das selbe Ergebnis wie ein 24" Bildschirm mit nativ 3840x2160. Zweiterer wird sogar noch eine etwas bessere Qualität liefern.

Da.

dargo
2011-12-16, 00:12:02
Und wo ist der Widerspruch?

Geldmann3
2011-12-16, 00:30:00
Man kann es auch optimistischer sehen.

Betrachten wir die Entwicklung der Spielgrafik im 5 Jahres Zyklus:


1990 - Es gibt sehr wenige 3D berechnete Spiele und wenn, handelte es sich um sehr primitive 3D Grafik.
Elite [Mega Drive/Genesis - Tech Demo / Cancelled]
(http://www.youtube.com/watch?v=rnr3g81nS7U)
1995 - 3D Grafik begann sich langsam durchzusetzen. Die PS1 war da. Die nun gebotene Mainstream-Grafik war kein Vergleich zu jener aus dem Jahr 1990. Ein gewaltiger Fortschritt.
[ARCADE] Ridge Racer 1993 NAMCO (480p/30fps) (http://www.youtube.com/watch?v=1xcrTVqONJc)

2000 - Die PS2 war eine der Next Gen Konsolen, die die Spielegrafik mächtig angekurbelt haben. Nun hatten sich Spiele mit 3D Grafik längst durchgesetzt. Man bekam von der Polygonanzahl und den Texturen her extrem viel mehr geboten als 1995. Die Spielegrafik war nun aus den Kinderschuhen gewachsen...
Let's Play Tekken Tag Tournament (PS2) (http://www.youtube.com/watch?v=WEApa-yJ_vw)

2005 - Die neue XBOX360 und die PS3 standen kurz vor dem Release, zwar hatte sich bis Ende 2005 auf den Konsolen nichts getan, doch die Spiele auf dem PC verzeichneten einen gewaltigen grafischen Fortschritt gegenüber dem Jahr 2000. Einige Spiele setzten neue Maßstäbe. Ich erinnere mich an die 3 atemberaubenden next Gen Titel Far Cry, Doom3 und Half Life2. Mainstream CPUs stießen mit immer höheren Taktraten erstmals auf die "Schallmauer".
Far Cry Gameplay HD max.Details ATi Radeon 5870 XT H.264 (http://www.youtube.com/watch?v=yy8nhHj0JVk)

2010 - Auch hier hatte sich wieder einiges getan, die PS3 und XBOX360 sorgten auch auf dem Mainstream Markt durchweg für hochauflösende Spielegrafik. Far Cry, welches 2005 noch für einen Wow Effekt sorgte wurde von etlichen Spieletiteln übertrumpft was die Darstellung angeht. Crysis erschien für den PC, welches es vermochte Far Cry grafisch völlig in den Schatten zu stellen. Crysis soll hier nur als Beispiel genannt sein. Einige andere Titel wie Stalker können großteils locker mithalten. Um die "Schallmauer" zu umgehen wurde nun erstmals auch im mainstream Sektor auf Mehrkernprozessoren gesetzt.
[/URL]Crysis Ultra High HD (http://www.youtube.com/watch?v=_1LYdpS8ibY)

[U]2020/25 - Fotorealismus auf dem Mainstreammarkt? Wir sind gespannt.

Mr.Magic
2011-12-16, 05:31:44
- Elite ist von 1984. Castle Master, Midwinter und Co. sind 1990 schon ein gutes Stück weiter.
- PS2? Ausgerechnet den flimmernden Texturkrüppel! Voodoo 5 Powa.
- Half-Life 2 passt da nicht rein. Das war grafisch auf dem Stand von 2002.
- Das 720p der Konsolen ist niedriger als die üblichen PC Auflösungen im Jahr 2000. Jedenfalls habe ich mit der GF2 öfter mal in 1280x960 gespielt. Mit der GF3 dann auch gerne 1600x1200.

Radeonator
2011-12-16, 09:39:04
Um Fotorealismus zu erreichen, braucht eine Szene komplette dynamic in Optik (Belichtung/Schatten etc.) , Umgebung (PhysX&co -> z.B. Blätter an Boden müssen beweglich sein, selbst Plakate an einer Wand müssen wenn Sie abstehen sich bewegen, Kleidung muss sich komplett bewegen und nicht nur Fototape sein, alles muss beweglich /zerstörbar sein etc etc etc ), Materialien /Oberflächen müssen alle natürlich reagieren/bewegt werden (Haut, Papier,Stoff etc etc etc) usw

Es sind so unglaublich viele Informationen die den Realismus unserer optischen Wahrnehmung ausmachen, das es wohl noch viele Jahre dauern wird, bis Spiele die Realität optisch erreichen werden.

Was z.B. Crysis&Co angeht, wer diese Grafik als Realismus bezeichnet, sollte mal aus dem Fenster schauen :rolleyes: OK, die Gesichter haben aus der Nähe Poren, unreinheiten etc. und trotzdeben sehen sie wächsern und unnatürlich aus. Die Grafik ist beeindruckend aber weit entfernt davon ,realistisch zu sein.

Lightning
2011-12-16, 14:03:09
Um Fotorealismus zu erreichen, braucht eine Szene komplette dynamic in Optik (Belichtung/Schatten etc.) , Umgebung (PhysX&co -> z.B. Blätter an Boden müssen beweglich sein, selbst Plakate an einer Wand müssen wenn Sie abstehen sich bewegen, Kleidung muss sich komplett bewegen und nicht nur Fototape sein, alles muss beweglich /zerstörbar sein etc etc etc ), Materialien /Oberflächen müssen alle natürlich reagieren/bewegt werden (Haut, Papier,Stoff etc etc etc) usw


Naja, streng genommen geht es hier ja nur um Fotorealismus. Das interpretiere ich so, dass man eine feste Szene aus einem Spiel mit einem Foto verwechseln könnte, die physikalische Dynamik muss da noch nicht unbedingt mit drin sein.

Ich denke aber, dass der Begriff sowieso sehr subjektiv ausgelegt wird bzw. sehr vom Betrachter abhängt. Je mehr man grafiktechnisch bewandert ist, desto schneller sieht man die Fehler (weil man weiß, wo man hinsehen muss), desto genauer schaut man auch automatisch hin.
Wenn ich beispielsweise meinen Eltern einen Screenshot aus einem aktuellen Spiel zeigen würde, und die schauen sich das mal kurz aus etwas Entfernung an - ich bin sicher, die könnten das mit einem Foto verwechseln.
Wenn man sich mehr damit beschäftigt und genau hinschaut, wird man noch in 20 Jahren keine Fotorealistische Grafik sehen. Die benötigte Rechenleistung ist zu heftig, zumal man immer mehr Leistung für immer kleinere Fortschritte aufbringen muss. Hinzu kommt dann noch, dass man für ein tatsächliches, umfangreicheres Spiel große Mengen an fotorealistischem Content erstellen müsste, was sich kaum rentabel erreichen lassen wird.

- PS2? Ausgerechnet den flimmernden Texturkrüppel! Voodoo 5 Powa.

Da scheiden sich dann sicher die Geister. Ich finde, dass das Erscheinen neuer Konsolengenerationen auch immer einen größeren Umschwung der (durchschnittlichen) Grafikqualität gebracht haben, sodass man dies gut als Zeitpunkt festhalten kann (während es auf dem PC eben schneller, aber in kleineren Schritten vorranging).

- Half-Life 2 passt da nicht rein. Das war grafisch auf dem Stand von 2002.

Ich sags mal so: Wenn HL2 auf dem Stand von 2002 war, dann waren 95% der Titel seiner Zeit auf dem Stand von 2000. ;) Far Cry mag ja weiter gewesen sein, erschien aber auch erst 2004 und war die große Ausnahme.

- Das 720p der Konsolen ist niedriger als die üblichen PC Auflösungen im Jahr 2000. Jedenfalls habe ich mit der GF2 öfter mal in 1280x960 gespielt. Mit der GF3 dann auch gerne 1600x1200.

Damit warst du dann aber selbst unter den Technikaffinen eine Ausnahme. Wenn man sich ältere Threads/Umfragen hier im Forum ansieht, lag die durchschnittliche Auflösung eher bei 1024*768, und in 2006 dann bei 1280*1024.

RLZ
2011-12-16, 14:08:07
Naja, streng genommen geht es hier ja nur um Fotorealismus. Das interpretiere ich so, dass man eine feste Szene aus einem Spiel mit einem Foto verwechseln könnte, die physikalische Dynamik muss da noch nicht unbedingt mit drin sein.
Fotorealismus so wörtlich zu nehmen ist wohl falsch. Dann müsste man wohl eher von Videorealismus reden.

Lightning
2011-12-16, 14:12:16
Fotorealismus so wörtlich zu nehmen ist wohl falsch. Dann müsste man wohl eher von Videorealismus reden.

Dieses Wort wollte ich auch tatsächlich erst in meinem Beitrag nennen. :)
Aber du magst recht haben, vielleicht habe ich da selber eine ungewöhnliche Definition.

Spasstiger
2011-12-16, 14:21:47
Ich sags mal so: Wenn HL2 auf dem Stand von 2002 war, dann waren 95% der Titel seiner Zeit auf dem Stand von 2000. ;) Far Cry mag ja weiter gewesen sein, erschien aber auch erst 2004 und war die große Ausnahme.
HL2 war 2004 als Gesamtpaket wahrscheinlich das Spiel mit dem größten grafischen Realismus mit den für seine Zeit hervorragend animierten Figuren und dem Radiosity-Lighting, was bei statischem Licht einfach besser und weniger künstlich aussah als die harte Beleuchtung von Doom 3 oder Far Cry. HL2 hatte bereits indirekte Beleuchtung, wenn auch nur statisch. Es ist mit der Source Engine auch möglich, den Look von Mirror's Edge zu kopieren, hab selbst solche Levels gesehen.

Ich hab übrigens damals Jemanden HL2 spielen lassen, der sonst nur seine PS2 kannte und mit PC-Gaming nix am Hut hatte. Nach einer halben Stunde hat er sich sichtlich gestresst von seinem Platz erhoben und gemeint, das sei ihm zu realistisch.

Moralelastix
2011-12-16, 14:36:02
Angesichts den ganzen Turbulenzen der Weltwirtschaft wird die Entwicklung wohl eher noch langsamer verlaufen/stagniern.
Mal abgesehen von irgendeinem Technischen Durchbruch.

seba86
2011-12-16, 20:38:45
Als ich die Frage gesehen habe... sie wurde schon Mitte der 90er gestellt und wird wohl auch in 15 Jahren gestellt werden. Hat auch mit dem Zeitgefühl zu tun vermutlich; erinnert mich an ""Monkey Island 1 hat realistische 3D-Grafik" aus einem Lösungsbüch.

HL² habe ich auch mal einen PS2-Jünger spielen lassen, der nix mit PC am Hut hat. Rechner war P3 900 / 192MB RAM (!) / Gef 2MX 400 32MB SD-RAM. Entsprechend habe ich die niedrigsten Einstellungen gewählt, 640x480 auf einem 15" Pixelmatsch Monitor 1. TFT-Generation. Und er war baff von der Grafik ;D

Persönliche finde den Unterschied seit '1998 (Unreal, Need for Speed 3) bzw. 2001 (Max Payne) eher enttäuschend, aber Portal 2 war bis jetzt das neueste Spiel.

Auffallend war auch, dass ich Ende 90er TOCA2 auf der PSX beim Freund gezoggt hatte. Habs vor ein, zwei Jahren aufn Emu mit verbesserter Grafik angespielt; die in subjektive Erinnerung "hervorragende, fotorealsitische" Grafik war nur noch ein Pixelbrei.

Geldmann3
2011-12-16, 22:23:21
In eine Auflösung von 320x240 runter gerechnet (PS1 Auflösung) sind wohl viele aktuellen Games bereits ansatzweise "Fotorealistisch". Kommt ganz auf Spiel und aktuelle Szene an. :wink:

CCCP
2011-12-16, 23:36:06
...Auffallend war auch, dass ich Ende 90er TOCA2 auf der PSX beim Freund gezoggt hatte. Habs vor ein, zwei Jahren aufn Emu mit verbesserter Grafik angespielt; die in subjektive Erinnerung "hervorragende, fotorealsitische" Grafik war nur noch ein Pixelbrei.

das kenne ich auch nur zu Gut man hat noch im Kopf ne schoene Grafik bis man es wieder sieht. Liegt wohl daran das wir es anders Speichern. Man sollte aber grundsaetzlich unterscheiden was man unter fotorealismus versteht ein Bild/Screenschot oder eine bewegte Szene/Film, Beim Bild denke ich mal sind wir schon fast dran wenn man es nicht grad dann mit Luppe betrachtet. Was bewegte Scene angeht schaetze das werde ich nicht erleben. Ein Film sogar komplett in 3D ist es moeglich (Avatar)?, aber der wird nicht in Echtzeit gerendet. Da fehlt dann gewaltig an Rechenleistung vieleicht irgendwan mit Quanten-Prozesoren moeglich.

Kephis
2011-12-17, 02:32:19
Imho hängt es sehr vom content des Spiels ab, alles natürliche ist viel schwerer nach zu bilden als künstliches. Als Beispiel nimm Autorennspiele mit dennen man heute schon ne Fotorealistische Grafik erreichen kann, aber sobald Menschen, Tiere oder viel Vegetation dazu kommt ist es damit vorbei.

Du kannst auch heute schon ein fotorealistisches Game haben wenn der content entsprechend ist und gleichzeitig wirst du auch in 50 Jahren kein fotorealistisches game haben wenn der content nicht stimmt. Ergo it depends on content!

Bringhimup
2011-12-17, 10:37:01
Ich glaube, einen wirklich großen Fortschritt in Richtung Video-/Fotorealismus in Spielen wird erst möglich sein, wenn man mit dem Aufbau einer weltweiten Contentdatenbank beginnt, wo alles in standartisierten Datenformaten drin gespeichert wird, was für Filme und Spiele erschaffen wird. Und damit meine ich wirklich alles. Modelle. Texturen. Motion Capture. Alles. Jeder müsste sich hier gegen Gebühren bedienen dürfen.

Es macht einfach keinen Sinn, dass man z.B. für Spiele und Filme in New York immer und immer wieder die gleichen Häuser digital nachbaut, anstatt es einfach einmal richtig zu machen und sich dann mehrfach dieser Modelle zu bedienen.

Momentan findet eine unglaubliche Ressourcenverschwendung statt, die nicht sein müsste. Es wird halt logistisch immer schwieriger genug erstklassigen Content in einer vertretbaren Zeitspanne mit einer vertretbaren Manpower zu erstellen. Dabei ist glaube ich gar nicht mal das Geld an sich die große Problematik. Geld ist da. Auch Spiele mit Budgets von 100 Mio und mehr lassen sich finanzieren und trotzdem kann man damit Gewinn machen. Wenn sie gut genug sind.

MasterElwood
2011-12-17, 11:36:28
Der Fotorealismus kommt mit der ÜBERnächsten Konsolengeneration (PS5).

Die nächste Generation (PS4) wird mal mit den grundlegenden Schwächen der aktuellen Generation aufräumen:

1. Zu wenig Polygone
2. Zu matschige Texturen
3. Zu schwach für volles 1080p bei gscheitem AF/AA

Die 3 Sachen müssen mal erledigt sein. Mir hilft die realistischte Beleuchtung nix solange die beleuchteten Objekte kantig und matschig sind.


PS4 & 720 werden die 3 Probleme nicht mehr haben und wunderschöne "sterile" Grafik bieten - bei gewissen sachen auch sicher schon teilweise fotorealistisch (z.B. Autorennen wo keine Lebewesen in grossaufnahme zu sehen sind).

PS5 & co wird dann die Lücke zum Fotorealismus schliessen. Maybe mit DX14 - eher Raytracing.


2020 klingt also gut.

Piffan
2011-12-17, 11:37:08
Ich glaube, einen wirklich großen Fortschritt in Richtung Video-/Fotorealismus in Spielen wird erst möglich sein, wenn man mit dem Aufbau einer weltweiten Contentdatenbank beginnt, wo alles in standartisierten Datenformaten drin gespeichert wird, was für Filme und Spiele erschaffen wird. Und damit meine ich wirklich alles. Modelle. Texturen. Motion Capture. Alles. Jeder müsste sich hier gegen Gebühren bedienen dürfen.

Es macht einfach keinen Sinn, dass man z.B. für Spiele und Filme in New York immer und immer wieder die gleichen Häuser digital nachbaut, anstatt es einfach einmal richtig zu machen und sich dann mehrfach dieser Modelle zu bedienen.

Momentan findet eine unglaubliche Ressourcenverschwendung statt, die nicht sein müsste. Es wird halt logistisch immer schwieriger genug erstklassigen Content in einer vertretbaren Zeitspanne mit einer vertretbaren Manpower zu erstellen. Dabei ist glaube ich gar nicht mal das Geld an sich die große Problematik. Geld ist da. Auch Spiele mit Budgets von 100 Mio und mehr lassen sich finanzieren und trotzdem kann man damit Gewinn machen. Wenn sie gut genug sind.

GEnau das habe ich auch schon mal gedacht. Wie wäre es, wenn man nicht immer wieder das Rad neu erfinden würde und stattdessen sämtlichen Man- und Brainpower in das Gameplay stecken würde......

Man muss natürlich unterscheiden zwischen den Gattungen. Skyrim zum Beispiel hat ein begrenztes Set an Texuren und Objekten, dafür eine grandios ausgearbeitete Kulisse bestehend aus riesiger und flüssig und ruckelfrei begehbarer Landschaft....Also nur aus dem Baukasten zu nehmen wird sicher nie was werden, aber viel Kleinarbeit könnte man einsparen durch einen großen 3d- Pool....

MasterElwood
2011-12-17, 11:47:55
das kenne ich auch nur zu Gut man hat noch im Kopf ne schoene Grafik bis man es wieder sieht. Liegt wohl daran das wir es anders Speichern. Man sollte aber grundsaetzlich unterscheiden was man unter fotorealismus versteht ein Bild/Screenschot oder eine bewegte Szene/Film, Beim Bild denke ich mal sind wir schon fast dran wenn man es nicht grad dann mit Luppe betrachtet. Was bewegte Scene angeht schaetze das werde ich nicht erleben. Ein Film sogar komplett in 3D ist es moeglich (Avatar)?, aber der wird nicht in Echtzeit gerendet. Da fehlt dann gewaltig an Rechenleistung vieleicht irgendwan mit Quanten-Prozesoren moeglich.

Kinofilme rechnen extrem ineffizient, da sie auf Perfektion ausgelegt sind.

Bei Games reicht auch 95% Perfektion - dafür mit 0.01% der Rechenleichtung.


Fotorealismus bedeutet ja nicht das es wirklich 100%ig so ist wie in Wirklichkeit, sondern das man mit freiem Auge nicht erkennt das es künstlich ist.

Superheld
2011-12-17, 11:57:45
manchmal fotorealistisch:)
http://www.youtube.com/watch?v=EXE0nGU0uCo&feature=player_embedded

GBWolf
2011-12-17, 12:05:25
manchmal fotorealistisch:)
http://www.youtube.com/watch?v=EXE0nGU0uCo&feature=player_embedded


Äh nein nicht wirklich, darüber werden wir irgenwann lachen und uns fragen wir dir davon kein Augenkrebs bekommen konnten. ;)

MasterElwood
2011-12-17, 12:33:09
Äh nein nicht wirklich, darüber werden wir irgenwann lachen und uns fragen wir dir davon kein Augenkrebs bekommen konnten. ;)

Teile davon sehen schon richtig gut aus - andere Teile nicht.


Hier ein weiteres Beispiel für CryEngine 3:

http://youtu.be/jXxrbmDrRSc?hd=1&t=30s


Meiner Meinung nach die momentan beste Vegetation. Teilweise echt hammer (die blöde Hand muss man wegdenken die macht alles kaputt).

Dafür ein richtiger Schock wenn man die Hütte betritt, die im Vergleich dazu DEUTLICH künstlicher aussieht!


Schon ein Unglaublicher Fortschritt von CryEngine 1 und immer noch ein sehr grosser von CryEngine 2. Wenn das so weitergeht sind wir bei CryEngine 4 schon fast - und bei CryEngine 5 dann wirklich beim Fotorealismus (zumindest bei Vegetation).

Lightning
2011-12-17, 12:44:20
Ich glaube, einen wirklich großen Fortschritt in Richtung Video-/Fotorealismus in Spielen wird erst möglich sein, wenn man mit dem Aufbau einer weltweiten Contentdatenbank beginnt, wo alles in standartisierten Datenformaten drin gespeichert wird, was für Filme und Spiele erschaffen wird. Und damit meine ich wirklich alles. Modelle. Texturen. Motion Capture. Alles. Jeder müsste sich hier gegen Gebühren bedienen dürfen.

Es macht einfach keinen Sinn, dass man z.B. für Spiele und Filme in New York immer und immer wieder die gleichen Häuser digital nachbaut, anstatt es einfach einmal richtig zu machen und sich dann mehrfach dieser Modelle zu bedienen.

Momentan findet eine unglaubliche Ressourcenverschwendung statt, die nicht sein müsste. Es wird halt logistisch immer schwieriger genug erstklassigen Content in einer vertretbaren Zeitspanne mit einer vertretbaren Manpower zu erstellen. Dabei ist glaube ich gar nicht mal das Geld an sich die große Problematik. Geld ist da. Auch Spiele mit Budgets von 100 Mio und mehr lassen sich finanzieren und trotzdem kann man damit Gewinn machen. Wenn sie gut genug sind.

Ist ja nicht so, dass heutzutage noch jeder seinen Content selber erstellen würde. Gerade Texturen und Sounddateien stammen desöfteren schon aus Datenbanken. Und Contentproduktion wird teilweise an externe Studios ausgelagert.

Ich sehe da aber Gefahren, wenn sich diese Entwicklung zu sehr verstärkt. Ich habe keine Lust darauf, irgendwann Spiele zu spielen und dabei zu erkennen: Diese Textur da kenn' ich doch aus Spiel X! Diese Animation sieht genau aus wie in YZ!

Mal abgesehen davon, dass du vor allem Spiele zu meinen scheinst, die in unserer Welt spielen und dabei einen realistischen Grafikstil verfolgen. Das sind gar nicht mal so viele.
Was natürlich auch zu der Frage führt: Wie wichtig ist Fotorealismus überhaupt, wenn man ihn in vielen Fällen gar nicht will oder braucht?

Alex Denton
2011-12-17, 12:49:08
Die Frage ist, ob Foto-/Videorealismus überhaupt das Ziel der Entwickler ist.

Geldmann3
2011-12-17, 13:13:04
Die Frage ist, ob Foto-/Videorealismus überhaupt das Ziel der Entwickler ist.

Nein, die Frage ist: "Wie weit sind wir von fotorealistischer Grafik entfernt?"

Ob es Ziel der Entwickler ist? Was ist das denn für eine Frage?? Natürlich ist es Das, wenn es um die Nachstellung realistischer Szenerien wie beispielsweise in den meisten Rennspielen geht.
Nein, man hat in Need For Speed Shift extra solche Bitmapbäume und Plastikpuppen an den Wegrand gestellt, weil es so viel hübscher und Stilechter aussieht :freak::freak:

Unsinn!! Wenn Entwickler von solchen Spielen behaupten, realistische Grafik wäre eigentlich gar nicht das Ziel gewesen ist das eine Lüge. Man nimmt in NFS reale Strecken, reale Autos, in GTA4 eine reale Stadt zum Vorbild. Natürlich soll das ganze möglichst realistisch aussehen und dabei meist noch mehr glänzen als die realen Vorbilder selbst. Alles was die Entwickler davon abhält sind technische Grenzen sowie die eigenen Möglichkeiten.

CCCP
2011-12-17, 13:26:16
Kinofilme rechnen extrem ineffizient, da sie auf Perfektion ausgelegt sind.

Bei Games reicht auch 95% Perfektion - dafür mit 0.01% der Rechenleichtung.


Fotorealismus bedeutet ja nicht das es wirklich 100%ig so ist wie in Wirklichkeit, sondern das man mit freiem Auge nicht erkennt das es künstlich ist.

Die Paar % fehlen aber, man nehme z.B. Schatten, je weiter der von dem Object ist desto verschwoner und heller wird der (Kern und Halbschaten), fehlt aber in allen Spielen, ein Bild um es zu verdeutlichen http://www.andromedagalaxie.de/html/mond_finsternisse.htm Schaten im Gebaude wo man z.B. Mehrere Fenster (Lichtquelen) Waende reflektiren auch Licht, so das man mehre Schtten wirft die dann von anderen Lichtquelen noch ueberstrahlt werden etc alles nicht da. Ohne Raytracing in Echtzeit sehe ich da keine Optionen.

Und zum Content natuerlich kommt es auf den Content drauf an bei einfachen Szenen ist es moeglich, aber ich gehe von solchen Spielen aus wie Skyrim etc wo man OpenWorld hat.

Mr. Lolman
2011-12-17, 14:16:54
Die Paar % fehlen aber, man nehme z.B. Schatten, je weiter der von dem Object ist desto verschwoner und heller wird der (Kern und Halbschaten), fehlt aber in allen Spielen, ein Bild um es zu verdeutlichen http://www.andromedagalaxie.de/html/mond_finsternisse.htm

Contact Hardening Shadows bietet zB. Stalker: Call of Pripyat

http://www.anandtech.com/show/2877/5


Schaten im Gebaude wo man z.B. Mehrere Fenster (Lichtquelen) Waende reflektiren auch Licht, so das man mehre Schtten wirft die dann von anderen Lichtquelen noch ueberstrahlt werden etc alles nicht da. Ohne Raytracing in Echtzeit sehe ich da keine Optionen.

Das kann man mittlerweile ganz gut mit Global Illumination/Ambient Occlussion faken. Oder man verwendet prebaked Shadowmaps. Muss ja nicht alles Echtzeit und dynamisch sein. Recht gute Echtzeitbeleuchtung bei erstaunlich hoher Performance zeigt bspw. die 4 Jahre alte Lightsmark Demo: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=517112

EDIT: Mit dem richtigen Content bekommt man imo schon jetzt aktuell die 4 Jahre alte Cryengine 2 auf Videorealismus Niveau. (auf aktueller Hardware in PAL Auflösung)

y33H@
2011-12-17, 15:04:53
Contact Hardening Shadows gibt's auch in Dragon Age 2 sowie Crysis 2 und die Trinigy-Engine kann es auch.

RLZ
2011-12-17, 15:16:54
Das kann man mittlerweile ganz gut mit Global Illumination/Ambient Occlussion faken.
Ich mache zwar nicht gerne Begriffsreiterei, aber "Globale Beleuchtung (engl. Global Illumination, abgekürzt GI) bezeichnet in der 3D-Computergrafik allgemein die Simulation der Licht-Wechselwirkungen von Objekten."

Wenn du GI als Faken bezeichnet, was ist für dich dann nicht mehr gefakt?
Oder man verwendet prebaked Shadowmaps. Muss ja nicht alles Echtzeit und dynamisch sein.
Womit wir dazu kommen, dass die Grafik heute dort ist, wo sie ist, weil man es geschafft hat effizient Rechenzeit gegen Speicherverbrauch zu tauschen. Voll dynamische Umgebungen zerstören wieder alles (nicht nur im Bereich der Grafik).
Recht gute Echtzeitbeleuchtung bei erstaunlich hoher Performance zeigt bspw. die 4 Jahre alte Lightsmark Demo: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=517112
Damit kommt man aber so schnell nicht auf die Offline Qualität. Ich war vom GI in BF3 teilweise recht negativ erstaunt, obwohl ich recht wenig erwartet hatte.


Ohne Raytracing in Echtzeit sehe ich da keine Optionen.
Der einzige Grund warum du keine Alternativen siehst, ist fehlende Einarbeitung in das Themengebiet.

Tigerchen
2011-12-17, 15:22:34
Nein, die Frage ist: "Wie weit sind wir von fotorealistischer Grafik entfernt?"

Ob es Ziel der Entwickler ist? Was ist das denn für eine Frage?? Natürlich ist es Das, wenn es um die Nachstellung realistischer Szenerien wie beispielsweise in den meisten Rennspielen geht.
Nein, man hat in Need For Speed Shift extra solche Bitmapbäume und Plastikpuppen an den Wegrand gestellt, weil es so viel hübscher und Stilechter aussieht :freak::freak:

Unsinn!! Wenn Entwickler von solchen Spielen behaupten, realistische Grafik wäre eigentlich gar nicht das Ziel gewesen ist das eine Lüge. Man nimmt in NFS reale Strecken, reale Autos, in GTA4 eine reale Stadt zum Vorbild. Natürlich soll das ganze möglichst realistisch aussehen und dabei meist noch mehr glänzen als die realen Vorbilder selbst. Alles was die Entwickler davon abhält sind technische Grenzen sowie die eigenen Möglichkeiten.
Nein. Es soll nicht realistisch aussehen. Ein Gemälde von Rafael soll auch nicht realistisch aussehen.

Das "Endziel" ist eine stimmige Atmosphäre zu schaffen die den Betrachter anspricht, ja geradezu einfängt. Geh mal ins Museum. Die großen "realistischen" Maler der Renaissance sind bei näherer Betrachtung unrealistisch. Und genau daß macht ihre Bilder interessanter als platte Urlaubsfotos.

Ihr habt zu sehr rein technische Aspekte im Blick. Das ist nicht verwunderlich in so einem Forum. Da geht der künstlerische Blickwinkel verloren.

(natürlich sind aufpoppende Bäume und Bitmapmännchen aus keinem Blickwinkel positiv)

Lightning
2011-12-17, 15:27:00
Nein. Es soll nicht realistisch aussehen. Ein Gemälde von Rafael soll auch nicht realistisch aussehen.

Das "Endziel" ist eine stimmige Atmosphäre zu schaffen die den Betrachter anspricht, ja geradezu einfängt. Geh mal ins Museum. Die großen "realistischen" Maler der Renaissance sind bei näherer Betrachtung unrealistisch. Und genau daß macht ihre Bilder interessanter als platte Urlaubsfotos.

Ihr habt zu sehr rein technische Aspekte im Blick. Das ist nicht verwunderlich in so einem Forum. Da geht der künstlerische Blickwinkel verloren.

(natürlich sind aufpoppende Bäume und Bitmapmännchen aus keinem Blickwinkel positiv)

Und deshalb muss man eben unterscheiden.

Eine Rennsimulation beispielsweise, die möglichst akkurat eine Fahrphysik simulieren will, will sicher auch grafisch einfach nur möglichst realistisch aussehen.

Wie ich vorher schon schrieb, ist das aber imo nicht bei der Mehrheit der Spiele der Fall. Viele Spiele wollen Dinge überzeichnen, einen eigenständigen Grafikstil haben. Dinge zu bunt, zu grau, zu groß, zu schön, zu hässlich darstellen. Selbstverständlich kann auch hier bessere Technik helfen, noch bessere Ergebnisse zu erzielen, aber mit Fotorealismus hat das dann nicht mehr unbedingt etwas zu tun.

BAGZZlash
2011-12-17, 17:32:24
Richtig. Auch in Filmen werden diese Stilmittel (Dinge zu bunt, zu grau, zu groß, zu schön, zu hässlich darzustellen) eingesetzt. Dennoch widerspricht dies nicht der Tatsache, dass es sich um foto- oder, um es mit den Worten der Umfrage auf der Homepage zu sagen, videorealistische Bilder handelt.

ZipKaffee
2011-12-17, 20:14:27
Man darf auch nicht die kosten Frage unterschätzen, der Aufwand solche Spiele welche eine "Fotorealistische Darstellung" bieten zu programieren steigt mit Sicherheit exorbitant an.

Piffan
2011-12-17, 20:46:11
Sicher ist es für die Immersion förderlich, wenn es "echt" zu sein scheint, muss man nicht ernsthaft drüber reden....

Nur wann wirkt etwas "echt"? Muss man dafür Fotorealismus erreichen oder reicht auch ein gewisser Content? Ist es nicht auch eine "Kunst", eine mangelhafte Grafik "echt" wirken zu lassen?
Wie wird Weite simuliert? Durch geschickten Dunstschleier. Dieses Beispiel zeigt, wie simple Kniffe Eindruck schinden.
Und genau um den Eindruck, das visuelle Erleben, geht es.

Nicht vergessen sollte man den Stellenwert der Animationen. Da zeigt das Video schon recht eindrucksvoll, wie weit wir schon sind.

Hat mal jemand auf Atmosphäre- Effekte bei den Helis geachtet? Stellt euch mal vor, dass es fehlen würde........:eek:

domian
2011-12-17, 23:50:00
Diese Umfrage ist absolut sinnfrei!

Eine "photorealistische Umgebung" ist in absehbarer Zeit absolut undenkbar. Warum hier die Mehrheit 10 bis 15 Jahre schätzt, erschliesst sich mir nicht.

Schaut euch Games von vor 15 Jahren an und von Heute. Ausser ein bisschen Eye-Candy - d.h. höherer Auflösung, schönere Texturen und mehr Polygone hat sich kaum was getan. Eine komplett photorealistische Umgebung ist schon deshalb undenkbar, da ein 1:1 Abbild der Umwelt einer White-Box entspricht, die auf Grund der Unendlichtkeit der Variablen gar keiner programmieren kann.

Kephis
2011-12-18, 01:15:05
Diese Umfrage ist absolut sinnfrei!

Eine "photorealistische Umgebung" ist in absehbarer Zeit absolut undenkbar. Warum hier die Mehrheit 10 bis 15 Jahre schätzt, erschliesst sich mir nicht.

Schaut euch Games von vor 15 Jahren an und von Heute. Ausser ein bisschen Eye-Candy - d.h. höherer Auflösung, schönere Texturen und mehr Polygone hat sich kaum was getan. Eine komplett photorealistische Umgebung ist schon deshalb undenkbar, da ein 1:1 Abbild der Umwelt einer White-Box entspricht, die auf Grund der Unendlichtkeit der Variablen gar keiner programmieren kann.

Bin mir nicht 100% sicher aber denke das stimmt so nicht. Auch das Universum ist endlich (nach stand der Forschung) und damit die Teilchen in ihm. Das bedeutet man brauch nur genug Rechenleistung, aber damit mich keiner falsch versteht ich spreche von Leistung die wir vielleicht in 5000 Jahren haben werden und die Energie benötigen wird ähnlich einer Sonne. Aber es ist nicht unerreichbar (wenn sich die Menschheit nicht vorher selber stoppt, was wahrscheinlich ist!).

Auf absehbare Zeit kommt es wie gesagt auf den content an, man kann auch heute schon ein foto/videorealistisches Spiel erstellen es ist nur die Frage des contents. Aber genauso wird es 100 Jahren noch content geben der nicht realistisch realisierbar ist wie z.b. das meiste natürliche in unserer Umwelt.

Zockmaschine
2011-12-18, 11:55:31
Hallo!

Wenn man sich die Entwicklung der letzten 5 Jahre anschaut dann ist schon beeindruckend was sich grafisch getan hat. Mit der Frostbite Engine bei BF3 hat das ganze wieder einen riesen Schritt gemacht.

Was würdet ihr sagen, wie viele Generationen an (Grafik)Hardware trennen uns noch von fotorealistischenn Spielen?

Zu viele, da einfach jede Entwicklung von Schrottkonsolen, die bis zu 7-8 Jahre pro Generation leben, nach unten gezogen wird.

Wenn ich mir die Entwicklung vor dem grossen Konsolenrun und danach ansehe, befürchte ich, dass sich da in absehbarer Zeit (15 Jahre) nicht annähernd so viel tun wird, wie möglich wäre.

Zergra
2011-12-18, 13:38:19
Hallo!

Wenn man sich die Entwicklung der letzten 5 Jahre anschaut dann ist schon beeindruckend was sich grafisch getan hat. Mit der Frostbite Engine bei BF3 hat das ganze wieder einen riesen Schritt gemacht.

Was würdet ihr sagen, wie viele Generationen an (Grafik)Hardware trennen uns noch von fotorealistischenn Spielen?

ich find da hat sich noch nicht viel getan... Crysis 2007 veröffentlicht.. das heißt 2006 auf jedenfall schon mit der Grafik soweit... das sind min. 5 Jahre und soweit haben die sich in der zeit nicht weiterentwickelt... bin von BF3 auch nicht gerade überzeugt... mal schauen was da kommt .... selbst Crysis -> zu Crysis 2 hat sich nicht viel getan...

MadManniMan
2011-12-18, 13:55:53
Moment ... an alle, die sagen "Videorealismus ist gar nicht das Ziel, weil es um Stile geht, die gar nicht realistisch aussehen": es ist VIEL leichter, ausgehend vom Realismus als technischer Basis die eigenen kreativen Ideen abzuleiten.

Jemand hier "Tim und Struppi" gesehen? Da ist videorealistischer Realismus der technische Unterbau und DARAUF aufbauend wurde dann ein eigener Stil angewandt.

Wer mit 3D-Programmen arbeitet, kann sehr wohl bestätigen, dass mit den richtigen Shadern aufbauend auf "realistischem" Content und Animationen der Stil der großen malenden Künstler ohne weiteres erreicht werden kann.

Gunny Hartman
2011-12-18, 14:47:22
Wenn es an der Auflösung liegt, wieso werden dann nicht endlich Monitore mit höheren Auflösungen entwickelt und auf den Markt gebracht? Sobald ein Monitor eine höhere Auflösung als 1920*1200 bzw. 1080 hat, kostet er oft gleich 100 bis 500% mehr. Monitore mit 2560*1600/1440 Bildpunkten könnten heute schon deutlich billiger sein. An der technischen Umsetzung kann es nicht liegen, Smartphones und Tablets erreichen heute schon ähnliche Pixeldichten.

Ich denke auch, dass nicht alleine die reine grafische Darstellung das Problem ist. Vor allem die Berechnung der Physik muss noch deutlich verbessert werden. Auch Beleuchtungseffekte bedürfen einer weiteren Verbesserung.

Ich finde auch, dass viele Spiele zu kontrastreich und übersättigt sind. Die Farben leuchten in manchen Spielen einfach zu sehr und sind zu bunt, so dass es dann schon wieder künstlich wirkt.

Ich bin aber sehr optimistisch, dass die Rechenleistung der Hardware bis 2020 ausreichend sein wird.

Knuddelbearli
2011-12-18, 15:18:17
naja 2560*1440 sind gegenüber 1920*11080 auch 70% mehr PÜixel 100% Preisaufschlag ist da schon ok.

Dells Ultrasharp ist da schon ganz nahe dran.

Bei leuchtenden Farben hat es du recht sah man aber schön an der gothic und witcher reihe, für uns Europäer war es schön dunkel. für die amis wurde es extra bisl bunter gemacht.

Dalai-lamer
2011-12-18, 17:07:14
Es ist doch relativ einfach in die Zukunft zu schauen. Schaut euch Vorgerenderte Clips an.
Da berechnen Großrechner über mehrere Tage eine kleine Sequenz. Solch eine Grafik werden wir in 10
Jahren etwa in Echtzeit berechnen können, oder sogar noch länger hin.

Meiner Meinung nach liegt es an den Texturen , beleuchtung und Bewegungen

Don Magic
2011-12-18, 17:22:13
das wird in absehbarer Zeit nichts mit der fotorealistischen Grafik...wieso ich das meine ?
Ja weil sich ein übler Trend bei der Spieleherstellung eingeschlichen hat ....die neusten Games werden auf der PS/XBox 260 entwickelt und dann auf den PC importiert .... ergo ein totaler Entwicklungsstillstand

Geldmann3
2011-12-18, 19:42:56
Mittlerweile soll Gerüchten zufolge intern auch schon für PS4 und XBOX720 entwickelt werden.

Bösewicht
2011-12-19, 02:38:44
Ich denke die übernächste Konsolen Generation wird das hier in Echtzeit können.
http://www.youtube.com/watch?v=Qy9hiWlk8yk&hd=1
2020-2025

Hätten wir fotorealistischer Grafik würde doch jedes Zweite Spiel in Deutschland verboten werden;D

Raff
2011-12-19, 08:28:57
Meiner Meinung nach liegt es an den Texturen , beleuchtung und Bewegungen

Dank verfeinertem Motion-Capturing ist zumindest die Animation humanoider Modelle kaum noch verbesserungsfähig. Das kann man derzeit in Battlefield 3 bestaunen – der Wahnsinn! Das erste Mal richtig von den Animationen beeindruckt war ich in Perfect Dark (2000; N64). Das ist nun 11 Jahre her und man sieht, dass sich auf diesem Teilgebiet nicht soo viel getan hat (beim Rest der Grafik natürlich schon).

MfG,
Raff

Surtalnar
2011-12-19, 09:24:45
Es wird meiner Meinung nach noch sehr lang dauern, ehe fotorealistische Grafik kommt. Die Hersteller haben sich imho von dem Ziel verabschiedet, fotorealistische Darstellungen zu kreiieren. Man scheint sich nun wieder vorrangig auf den Content zu konzentrieren.

MasterElwood
2011-12-19, 09:47:04
Ich denke die übernächste Konsolen Generation wird das hier in Echtzeit können.
http://www.youtube.com/watch?v=Qy9hiWlk8yk&hd=1
2020-2025

Hätten wir fotorealistischer Grafik würde doch jedes Zweite Spiel in Deutschland verboten werden;D

Wenn das nicht schon die nächste Generation kann wär ich enttäuscht.

Ich würde das nicht als fotorealistisch bezeichnen.

MasterElwood
2011-12-19, 09:50:30
Man darf auch nicht die kosten Frage unterschätzen, der Aufwand solche Spiele welche eine "Fotorealistische Darstellung" bieten zu programieren steigt mit Sicherheit exorbitant an.

Nicht sooo stark.

Schon jetzt werden am Anfang immer extrem hochauflösende Modelle / Texturen erstellt und danach dann für die jeweilige Plattform heruntergerechnet.

MasterElwood
2011-12-19, 09:54:46
Wenn es an der Auflösung liegt, wieso werden dann nicht endlich Monitore mit höheren Auflösungen entwickelt und auf den Markt gebracht?

An der Auflösung liegt es nicht, weil immerhin empfinden wir auch SD-Fernsehen als fotorealistisch.

Solange du Kantenflimmern wirksam unterdrückst ist Auflösung egal. 1080p reicht locker wenn man gscheites AA hat.

MasterElwood
2011-12-19, 09:56:47
Diese Umfrage ist absolut sinnfrei!

Eine "photorealistische Umgebung" ist in absehbarer Zeit absolut undenkbar. Warum hier die Mehrheit 10 bis 15 Jahre schätzt, erschliesst sich mir nicht.

Eine komplett photorealistische Umgebung ist schon deshalb undenkbar, da ein 1:1 Abbild der Umwelt einer White-Box entspricht, die auf Grund der Unendlichtkeit der Variablen gar keiner programmieren kann.

Du verwechselst "photorealistische Umgebung" mit "simulation der Welt".

zwei völlig verschiedene Sachen...

Piffan
2011-12-19, 10:25:50
Diese Umfrage ist absolut sinnfrei!

Eine "photorealistische Umgebung" ist in absehbarer Zeit absolut undenkbar. Warum hier die Mehrheit 10 bis 15 Jahre schätzt, erschliesst sich mir nicht.

Schaut euch Games von vor 15 Jahren an und von Heute. Ausser ein bisschen Eye-Candy - d.h. höherer Auflösung, schönere Texturen und mehr Polygone hat sich kaum was getan. Eine komplett photorealistische Umgebung ist schon deshalb undenkbar, da ein 1:1 Abbild der Umwelt einer White-Box entspricht, die auf Grund der Unendlichtkeit der Variablen gar keiner programmieren kann.

Dein Posting ist sinnfrei. Und faktisch einfach falsch. Bitte zeige mir ein 15 jahr altes Spiel, bei dem sich die Grafik schon auf so hohem Niveau befindet, dass sich im vergleich zu Spielen wie Mafia 2, Witcher 2 oder BF3 kaum was getan hat.

Dein mathematisches Geschwurbel ist hier völlig daneben. Es geht um Grafik und wie wir sie empfinden, nicht um eine Kopie der realten Welt.....

Sven77
2011-12-19, 11:11:16
Die Technik wird in Zukunft immer weniger limitieren, dafür um so mehr der Content. Irgendwann wird man da einen Punkt erreicht haben, an dem nicht mehr viel geht. Irgendwelche Filme da als Vergleich heranzuziehen ist absolut naiv, das sind meistens Shots an denen ganze Teams mehrere Monate gearbeitet haben. Wie man glaubt das sowas in eine frei begehbare 3D Welt übertragbar sein soll ist mir schleierhaft. Schon jetzt kosten Spiele mehr als mancher Hollywood-Blockbuster und bieten am Ende nur 7h Spielzeit.

Bösewicht
2011-12-19, 11:26:23
Wenn das nicht schon die nächste Generation kann wär ich enttäuscht.

Ich würde das nicht als fotorealistisch bezeichnen.
Das muss ich dich jetzt enttäuschen sorry:biggrin:
Die Nextgen Konsolen können kaum mehr als 250watt verbrauchen allein deswegen weiß man heute schon wie leistungsstark die in etwa werden könnten...
Und das reicht noch gaaaanz lange nicht:wink:

Piffan
2011-12-19, 11:34:09
Die Technik wird in Zukunft immer weniger limitieren, dafür um so mehr der Content. Irgendwann wird man da einen Punkt erreicht haben, an dem nicht mehr viel geht. Irgendwelche Filme da als Vergleich heranzuziehen ist absolut naiv, das sind meistens Shots an denen ganze Teams mehrere Monate gearbeitet haben. Wie man glaubt das sowas in eine frei begehbare 3D Welt übertragbar sein soll ist mir schleierhaft. Schon jetzt kosten Spiele mehr als mancher Hollywood-Blockbuster und bieten am Ende nur 7h Spielzeit.

Den Punkt haben wir schon lange erreicht, von daher ist die weitere Aufrüstung der Hardware nur noch dazu geignet, die Artefakte zu eliminieren, die aufgrund der Abtastung auftreten....Vielleicht freuen sich auch die Studios, dass die Renderfarmen schneller arbeiten werden.

Shink
2011-12-19, 11:58:54
Fotorealismus so wörtlich zu nehmen ist wohl falsch.
Naja, was heißt falsch? Es gibt diesen Begriff in der Computergrafik (zumindest gab es ihn vor 10 Jahren als ich das studiert hab:freak:) und wird dort oft als Ziel gesehen.

Wenn es an der Auflösung liegt, wieso werden dann nicht endlich Monitore mit höheren Auflösungen entwickelt und auf den Markt gebracht?
Natürlich liegt es nicht an der Auflösung. Zeigt mir ein Foto in der Größe 1024x768 das wegen seiner geringen Auflösung unrealistisch aussieht.:rolleyes:

Man sollte sich hüten die Auflösung hochzudrehen wenn das Ziel Fotorealismus ist: Je höher die Auflösung desto besser muss der Content sein - und dann wird es richtig teuer.

Sven77
2011-12-19, 12:02:08
Wenn man sich irgendwelche gifs von BF3 oder GT5 ansieht, sieht das schon fotorealistisch aus ;)

RLZ
2011-12-19, 12:15:43
Naja, was heißt falsch? Es gibt diesen Begriff in der Computergrafik (zumindest gab es ihn vor 10 Jahren als ich das studiert hab:freak:) und wird dort oft als Ziel gesehen.
In vielen Forschungsbereichen ist das auch völlig ausreichend, da nur sehr spezifische Aspekte des Renderings betrachtet werden.
Sobald allerdings Animationen ein wichtiger Bestandteil sind, ist es vorbei mit Vergleich von Fotos.
Deswegen ist das "oft" in deinem Satz auch sehr wichtig. :wink:

Shink
2011-12-19, 12:25:44
Die Fragestellung des Threads bezieht sich aber nunmal darauf. Und warum sollte man sie auch nicht stellen? Ist ja nicht ganz uninteressant.

dargo
2011-12-19, 12:35:25
Wenn man sich irgendwelche gifs von BF3 oder GT5 ansieht, sieht das schon fotorealistisch aus ;)
Ganz sicher nicht. Dafür ist zuviel Blur um die Objekte die in Szene gesetzt werden. Und wenn du den Blur weglässt ist die Umgebung noch lichtjahre vom Fotorealismus entfernt.

joepesci
2011-12-19, 15:54:00
Ich weite den Ausdruck "Fotorealistische Graphik" mal etwas aus, und bezeichne die Sache eher als "Realitätskonformes Spieleerlebnis".

Meine Antwort, ab wann man dieses erwarten kann: nicht in absehbarer Zukunft.

Zur Erklärung, was ich mir unter dem Begriff "Realitätskonformes Spieleerlebnis" vorstelle, folgende Aufschlüsselung:

Zur Zeit sind alle Folgen bestimmter Handlungen die in einem Spiel passieren können gescriptete Ereignisse. Was die Programmierer nicht explizit vorgesehen haben, kann auch nicht passieren, auch wenn es in der Realität passieren würde. Im Prinzip müsste die Spielengine auf den uns zur Zeit bekannten ~ 110 Elementen und deren möglichen Verbindungen basieren, hinzukommend alle physikalischen Gesetzmäßigkeiten. In heutigen Spielen gibt es immer noch viele Stellen, die gegen jede vom Spieler eingeleitete Veränderung immun sind, es gibt z.B. Gegenstände, die bekommen nichtmal bei einer direkten Explosionen einen Kratzer ab, man kann Stundenlang mit dem MG draufhalten, es passiert nichts. Es passiert nichts, weil es nicht explizit programmiert ist. Ein Spieleengine der Zukunft würde sich den Effekt selbst berechnen... Material, Geometrie und Geschwindigkeit der Kugel zusammen mit den Eigenschaften des beschossenen Gegenstandes, und das Ergebnis ergibt sich einfach. Die Explosion oder die Zerstörung müssen nicht programmiert werden, sie ergeben (berechnen) sich einfach aufgrund der vorhandenen Gegebenheiten.

Ja, sowas wird es sobald nicht geben, die zur Zeit vorhandene Rechenleistung ist mehr als lächerlich in Anbetracht des Geforderten.

AnarchX
2011-12-19, 16:05:40
Ja, sowas wird es sobald nicht geben, die zur Zeit vorhandene Rechenleistung ist mehr als lächerlich in Anbetracht des Geforderten.
Wenn man bedenkt, dass State-of-Art-CGI-Filme immernoch nicht vollständig fotorealistisch sind, deren Einzelbilder Minuten bis Stunden auf Clustern mit mehreren TFLOPs rechnen, ist da noch ein weiter Weg bis man das bei >30FPS in Echtzeit auf einem PC ermöglichen kann.

Laut Nvidia auf der GTC könnten 2019 eine 100W Konsole etwa 10 TFLOPs leisten, ein PC könnte wohl dann bei 20-30 SGPU und bis zu 100 TFLOPs @ High-End-MGPU liegen. Die 100W Konsole sollte laut NV den Assassin's Creed Revelations Trailer in Echtzeit rendern können: http://www.youtube.com/watch?v=8-Ixo7QXw_E

Shink
2011-12-19, 16:23:34
Ich weite den Ausdruck "Fotorealistische Graphik" mal etwas aus, und bezeichne die Sache eher als "Realitätskonformes Spieleerlebnis".

Meine Antwort, ab wann man dieses erwarten kann: nicht in absehbarer Zukunft.
- Das war nicht die Frage. Wir sind das 3D-Center. Die Frage nach der Fotorealität ist durchaus interessant denn: Ist Fotorealität einmal erreicht benötigt man für Grafik keine zusätzliche Rechenleistung. Wegen Moores Law etc. wird der Grafikchip also irgendwann einmal ein winziger Baustein des Prozessors den niemand mehr interessiert.
- Wenn ich Realität will dann brauch ich keine Spiele.:freak: Etwas wie Diablo oder Starcraft wird nie auch nur annähernd realistisch sein (dürfen). Muss es auch nicht.
- Es gibt natürlich auch Spiele bei denen man alles kaputt machen kann (z.B. Voxatron:biggrin:).

Piffan
2011-12-19, 17:12:47
Ich weite den Ausdruck "Fotorealistische Graphik" mal etwas aus, und bezeichne die Sache eher als "Realitätskonformes Spieleerlebnis".

Meine Antwort, ab wann man dieses erwarten kann: nicht in absehbarer Zukunft.

Zur Erklärung, was ich mir unter dem Begriff "Realitätskonformes Spieleerlebnis" vorstelle, folgende Aufschlüsselung:

Zur Zeit sind alle Folgen bestimmter Handlungen die in einem Spiel passieren können gescriptete Ereignisse. Was die Programmierer nicht explizit vorgesehen haben, kann auch nicht passieren, auch wenn es in der Realität passieren würde. Im Prinzip müsste die Spielengine auf den uns zur Zeit bekannten ~ 110 Elementen und deren möglichen Verbindungen basieren, hinzukommend alle physikalischen Gesetzmäßigkeiten. In heutigen Spielen gibt es immer noch viele Stellen, die gegen jede vom Spieler eingeleitete Veränderung immun sind, es gibt z.B. Gegenstände, die bekommen nichtmal bei einer direkten Explosionen einen Kratzer ab, man kann Stundenlang mit dem MG draufhalten, es passiert nichts. Es passiert nichts, weil es nicht explizit programmiert ist. Ein Spieleengine der Zukunft würde sich den Effekt selbst berechnen... Material, Geometrie und Geschwindigkeit der Kugel zusammen mit den Eigenschaften des beschossenen Gegenstandes, und das Ergebnis ergibt sich einfach. Die Explosion oder die Zerstörung müssen nicht programmiert werden, sie ergeben (berechnen) sich einfach aufgrund der vorhandenen Gegebenheiten.

Ja, sowas wird es sobald nicht geben, die zur Zeit vorhandene Rechenleistung ist mehr als lächerlich in Anbetracht des Geforderten.

Wir reden hier doch um die Grafik. Für mich ist Fotorealismus, wenn ein Shot, hier in diesem Falle das "Foto", von dem Foto der Realität nur bei genauer Analyse abweicht.

Wenn da jemand sagt, dass nach Abzug von Postprocessing es keineswegs mehr natürlich aussähe, dann hat er das Prinzip nicht kapiert....:rolleyes:

Natürlich ist alles Fake und Maskierung, die Unschärfe bzw. Blur und Volumeneffekte sind zwingend erforderlich, um die Mängel zu kaschieren.

Wenn ich einen Screen von einem Rennspiel sehe, habe ich wirklich manchmal Mühe, den Schwindel zu sehen, zumindest sticht es heutzutage kaum noch ins Ausge. Oder die Sportspiele von EA, ob nun Eishhockey oder Basektball: Während die Animationen noch recht putzig aussehen, aucn die Ballphysik beim Zuspiel natürlich verbogen wird, sind Shots schon recht nahe an Fotos ran.....

Timolol
2011-12-19, 19:02:15
Irgendwie scheint der Trend bei Rennspielen ein anderer zu sein wie bei Shootern oder anderen "First Person" Spielen.
Wenn ich mir da dirt 3 angucke http://www.virtualr.net/wp-content/gallery/2743/604155_20110204_screen003.jpg
Fehlt da nicht mehr viel damit mans nicht mehr ausmachen kann ob realität oder nicht. Klar gibts immer wieder irgendwelche kleineren Ausrutscher, aber der Gesammteindruck ist schon recht stimmig.
Die Monitore werden ja auch immer größer, dadurch fallen manche Details viel mehr auf. Dirt 3 auf nem Handy Display könnte man wohl nur noch schwerlich von der Realität unterscheiden.

Gut irgendwie scheint die Hard und software in der letzten Zeit etwas zu stagnieren und der Fortschritt wird immer langsamer???!!!:eek: Was das ganze wohl etwas rauszögert.
Früher dachte ich auch Realitätsnahe Grafik wird weit vor 2010 schon machbar sein.

Geldmann3
2011-12-19, 19:36:55
Wobei der Shot noch einer der schlechteren ist. :wink:

Ich schätze um ehrlich zu sein, dass bereits eine hundertfach bessere Grafik möglich wäre als wir sie jetzt in Computerspielen beobachten. Die Spiele-Engines werfen die Leistung zu sehr aus dem Fenster. Es gibt bestimmt Möglichkeiten die nun zur Verfügung stehende Leistung viel effizienter zu nutzen. Das dauert aber seine Zeit, bisher hatten die Hersteller es kaum nötig nach neuen Möglichkeiten zu suchen, weil alle x Jahre exponentiell mehr Leistung zur Verfügung stand.
Unlimted Detail (http://www.youtube.com/watch?v=00gAbgBu8R4)

RLZ
2011-12-19, 19:49:19
Die Fragestellung des Threads bezieht sich aber nunmal darauf. Und warum sollte man sie auch nicht stellen? Ist ja nicht ganz uninteressant.
Der Threadersteller hat sich dazu nicht geäußert.
Spinnt man diese Idee mit dem Fotorealismus weiter, werden irgendwelche Randgruppenspiele das Ziel zuerst erreichen. Point&Click Adventures mit statischem Hintergrund sind ein Kandidat dafür.

Oder auch Modellflugsimulatoren wie Aerofly.
http://www.aerofly.com/ss-md900-aspach.jpg
Fotorealistisch und Spiel. Kriterien des Anfangspostings erfüllt. :freak:

Geldmann3
2011-12-19, 20:05:41
Ja, Fotorealistisch ist es. (Wobei einige natürlich immer etwas auszusetzen haben.) Klar gibt es auch schon Videorealistische Spiele, die bei denen man nur auf etwas klickt und bei denen anschließend ein anderes realistisches Video abgespielt wird, je nachdem worauf man geklickt hat. Google Streetview ist ziemlich realistisch...

Knuddelbearli
2011-12-19, 20:59:14
also der Pilot im Heli sieht billig aus :-/

RLZ
2011-12-19, 21:15:13
also der Pilot im Heli sieht billig aus :-/
In einem Modellflugsimulator fliegt man halt auch einen Modellhubschrauber. :freak:

Sven77
2011-12-19, 21:20:52
Ganz sicher nicht. Dafür ist zuviel Blur um die Objekte die in Szene gesetzt werden. Und wenn du den Blur weglässt ist die Umgebung noch lichtjahre vom Fotorealismus entfernt.

Das ist Fotorealismus. Also exakt dasselbe wie die Abbildung durch eine Kamera. Grain, DoF u. Motion Blur gehöre dazu.. deal with it

dargo
2011-12-19, 22:49:04
Das ist Fotorealismus. Also exakt dasselbe wie die Abbildung durch eine Kamera. Grain, DoF u. Motion Blur gehöre dazu.. deal with it
Als ob eine Kamera nur das ablichten könnte. :rolleyes: Zeig mir mal sowas in GT5. :ulol:
http://www.lifepr.de/attachment/287255/StartDTM2010_wundersch%C3%B6n.jpg

Dabei ist das Foto noch nicht mal sehr gut gelungen.

Oder hier hat mal einer behauptet Dirt3 wäre schon beinahe fotorealistisch. :| :ulol: So sieht Rally real aus. Diese Qualität werden die meisten hier in einem Videospiel noch nicht mal erleben.
http://www.thewallpapers.org/photo/33258/2008-wrc-rally-mexico-widescreen-08.jpg

http://www.imgbase.info/images/safe-wallpapers/cars/rally/9523_rally.jpg

http://www.thewallpapers.org/photo/33231/2008-wrc-rally-mexico-widescreen-18.jpg

http://www.thewallpapers.org/photo/33221/2008-wrc-rally-mexico-widescreen-28.jpg

Geldmann3
2011-12-19, 23:47:52
GTA3 kam im Jahr 2001 auf den Markt. Jetzt 10 Jahre später, kann man es auf einem Smartphone zocken und sogar auf einem welches nicht-mal eine high end CPU integriert hat. GTA IV kam 2008 auf den Markt, läuft das dann 2018 auch auf unseren Smartphones? Wenn ja, was läuft dann erst auf unseren PCs/Spielekonsolen... Die Zukunft der IT ist extrem spannend, ich bin sehr gespannt!

Wenn sich die IT nur ansatzweise so schnell weiterentwickelt, wie in den letzten 40 Jahren, werden wir 2020 GTA IV + Enbseries + Texturmodgrafik auf unseren Handys erleben. Und das kann schon beeindruckend sein. Auf unseren PCs werden wir immer häufiger Bilder, nahezu wie die oben geposteten in Spielen antreffen.

Gutes AA. Aus welcher Auflösung ist das GT5 Bild runter-gerechnet? :freak:
Vielleicht kommt dieser Kommentar in 10 Jahren gar nicht mehr so blöd rüber

Kephis
2011-12-20, 06:09:51
Der Threadersteller hat sich dazu nicht geäußert.
Spinnt man diese Idee mit dem Fotorealismus weiter, werden irgendwelche Randgruppenspiele das Ziel zuerst erreichen. Point&Click Adventures mit statischem Hintergrund sind ein Kandidat dafür.


Fotorealistisch und Spiel. Kriterien des Anfangspostings erfüllt. :freak:

Wie schon gesagt es hängt rein vom content ab und in diversen genres ist das Ziel heute schon erreicht und in einigen wird es in 100 Jahren noch nicht erreicht sein. Man müsste die Fragestellung präzisieren und genau definierten content nennen dann könnte man sie vielleicht eindeutiger beantworten.

Beispiel aus GT5:

http://www.videogameszone.de/tsimg/260/2010/03/Gran-Turismo-5.jpg

http://images.bit-tech.net/content_images/2010/11/gran-turismo-5-review/gt5-1-614x250.jpg

Reine content Frage!

dargo
2011-12-20, 06:20:05
@Geldmann3

Du weißt aber schon wieviele Pixel durchschnittlich so ein Smartphone bietet? Sollen wir zudem jetzt Fotorealismus anhand von Briefmarken beurteilen? Das gilt auch für die GT5-Bilder von Kephis. Zudem wirds noch lächerlicher wenn man den Photomodus hinzuzieht.

Edit:
Hier mal paar Bilder von GT5 außerhalb vom geschönten Foto-Modus.

http://www.gamereactor.se/media/96/granturismo5_229637b.jpg

http://www.gamereactor.se/media/96/granturismo5_229641b.jpg

http://1.bp.blogspot.com/_ZReVeyMqlsA/TPgN2blxHJI/AAAAAAAABtE/AbNtSgvRgyU/s1600/Gran_Turismo_5_Forza_3_Vergleich_08.JPG

http://www.gamesaktuell.de/screenshots/original/2010/11/Gran_Turismo_5_h_ssliche_Standard_Autos__8_.jpg

http://i37.tinypic.com/1zw2ef7.jpg

http://i33.tinypic.com/xpr24j.jpg
Und selbst hier sind manche Bilder noch zu klein. Zugegeben... manche Bilder sind zu stark komprimiert. Gute und große Bilder außerhalb vom Foto-Modus sind bei Google recht schwer zu finden.

chatman
2011-12-20, 09:22:08
Hallo!

Na da habe ich ja eine ordentliche Diskussion losgetreten - gut so :smile:

Worums mir mit der Anfangsfrage ging war die Idee eines Touring-Tests fürs Auge. Also durchaus technisch zu verstehen. Das die Schwächen dann bei der Story liegen könnten oder die Physik nicht mithalten kann ist eine andere Geschichte. Aber ein GTA mit "Welt-Simulator-Engine" kann auch ich mir in den nächsten Jahren nicht vorstellen.

Das so viele BF3 grafisch als nicht besonders gut empfinden wundert mich, für mich ist es doch eine Sprung nach vorne und war mit ein Grund für den Kauf.
Aber gut, das liegt vermutlich daran daß ich mich mit Spielen nicht mehr so viel beschäftige und mir daher das know how auf dem Gebiet fehlt.

Habe ein interessantes PDF aus dem Jahr 2004 von Nvidia gefunden mit der Vorschau auf 2014. Da ich technisch nicht so bewandert bin: inwiefern hat sich diese Prognose erfüllt und welche Schlüsse lässt sie für die Zukunft zu?

Pennywise
2011-12-20, 09:46:53
Rolfcopter 100 Ghz CPU in 2014 - der Rest sind wohl auch nur bunte Striche.

chatman
2011-12-20, 10:04:21
Rolfcopter 100 Ghz CPU in 2014

Ja, das war vielleicht ein wenig hoch gegriffen :freak: Andererseits gingen sie damals halt noch von einer linearen Steigerung aus.
Außerdem hat sich die Technik ja anders entwickelt als vorhergesehen (Mehrkern etc.) insofern kommt man vlt. auch ohne diese gigantischen Taktungen an die prognostizierten Füllraten etc?

Zephyroth
2011-12-20, 11:02:46
Die GFlops/s sehen gut geschätzt aus, wenn auch optimistisch. Mit 2TFlop/s im Jahr 2010 liegt man ja nicht so weit daneben, wenn man bedenkt das eine GTX570 schon 1.5TFlop/s erreicht.

Grüße,
Zeph

akuji13
2011-12-20, 12:17:30
Für einen Fotorealismus reicht es fast, für realistische Grafik wird es noch sehr lange brauchen.

In Bewegung sieht das alles wesentlich unrealistischer aus als auf Fotos.
Diese lächerliche Bewegungsunschärfe oder DOF habe ich noch nie gesehen wenn ich ein Autorennen live oder am TV gesehen habe.

In vielen Bereichen möchte ich auch keine realistische Grafik, Skyrim z.B. habe ich mit dem FXAA Injector extra schön bunt gemacht. :)

Geldmann3
2011-12-20, 13:01:06
Mit 25 Kernen mit je 4Ghz hätten wir das CPU Ziel zumindest ansatzweise erreicht. Allerdings werden wir "knapp" darunter liegen.
2014 könnten etwa 10 x 3,3Ghz im Gamingsystem drin sein, was dann zusammengerechnet 33Ghz sind.
(Klar kann man das nicht einfach addieren, doch man muss nun-mal die physikalischen Grenzen im Auge umgehen)

THEaaron
2011-12-20, 13:25:30
Man kann und wird das ganze auch nicht im Auge umdrehen können. Ansonsten musst du das Parallel aus deiner Argumentation nehmen.

FlashBFE
2011-12-20, 15:53:27
Diese lächerliche Bewegungsunschärfe oder DOF habe ich noch nie gesehen wenn ich ein Autorennen live oder am TV gesehen habe.

Mit Foto/Video wäre eine solche Schärfentiefe problemlos möglich und Bewegungsunschärfe gibt es da prinzipbedingt auch. Genau das soll ja simuliert werden. Und auch das Auge hat keine unendliche Schärfentiefe und unendliche zeitliche Auflösung.

Dass diese meist starre Simulation von Unschärfe dann in einem Spiel stören kann, ist ein anderes Thema.

Zergra
2011-12-20, 22:19:41
Jemand hier "Tim und Struppi" gesehen? Da ist videorealistischer Realismus der technische Unterbau und DARAUF aufbauend wurde dann ein eigener Stil angewandt.


stimmt! das war teilweise echt krass wie das umgesetz wurde... zeichtrick style aber dann doch so reale bewegungen ... einfach unglaublich :D

Kephis
2011-12-21, 08:32:05
@Geldmann3

Du weißt aber schon wieviele Pixel durchschnittlich so ein Smartphone bietet? Sollen wir zudem jetzt Fotorealismus anhand von Briefmarken beurteilen? Das gilt auch für die GT5-Bilder von Kephis. Zudem wirds noch lächerlicher wenn man den Photomodus hinzuzieht.

Edit:
Hier mal paar Bilder von GT5 außerhalb vom geschönten Foto-Modus.


Die Screenshot stammen nicht aus dem fotomodus sondern von replays, aber das nur am Rande. Du hast eigentlich mein Argument sogar noch untermauert das es auf den content ankommt. Screenshot a von Spiel x kann z.b. fotorealistisch sein wohingegen Bild b vom selben Spiel x weit davon entfernt ist. Anderes Beispiel wäre der Himmel in vielen fps Vanessa der schon fotorealistisch ist. Würde man also ein Spiel machen das nur diese Art content berücksichtigt hätte man es heute schon. Wie gesagt reine content frage. Menschen hingegen oder fast alles natürliche das etwas komplexer ist wird man in 100 Jahren noch nicht fotorealistisch darstellen können.

mfg, Kephis!

Edit: schreibe vom Handy also bitte etwaige Fehler ignorieren, danke!

Radeonator
2011-12-21, 11:54:27
OK , wenns darum geht über eine Tapete hin und her zu laufen, dann geht das auch jetzt schon. Wenn es um das geht, was ich denke, nämlich Realismus zu erreichen, sind wir noch zig Jahre davon entfernt!
Die bisher gezeigten Shots hier sind alles, aber haben nichts mit Realismus zu tun. Kauft euch mal ne Brille und geht vor die Tür...

Geldmann3
2011-12-21, 12:29:42
Menschen hingegen oder fast alles natürliche das etwas komplexer ist wird man in 100 Jahren noch nicht fotorealistisch darstellen können.
Vermutlich sind wir in 100 Jahren schon längst über solche Probleme hinaus. Dann geht es eher darum Spiele so zu designen, dass man nicht mehr merkt, dass es überhaupt ein Spiel ist. Die werden dann vielleicht schon direkt ins Hirn gestreamt.

Kephis
2011-12-22, 03:12:09
OK , wenns darum geht über eine Tapete hin und her zu laufen, dann geht das auch jetzt schon. Wenn es um das geht, was ich denke, nämlich Realismus zu erreichen, sind wir noch zig Jahre davon entfernt!
Die bisher gezeigten Shots hier sind alles, aber haben nichts mit Realismus zu tun. Kauft euch mal ne Brille und geht vor die Tür...

Es geht um Fotorealismus und das ist eine reine content Frage, nimm spiele ala Flower z.b. wo du im ganzen Spiel quasi nur Wiesen und Blumen hast. Ich sagte ja wenn es aber darum geht jedweden content fotorealistisch darzustellen dann sind wir in 100 Jahren noch lange nicht am Ziel. Anderes Beispiel wären diverse Simulatoren von Modell über Zug usw die auch heute schon fast fotorealistisch wirken und es in ~ 10 Jahren auch generell sein werden. Anderes Beispiel wäre ein Tischtennis Spiel in dem du den Tisch siehts plus Ball und schläger (keine Menschen!) damit hast du auch heute schon keine Probleme, es ist einfach eine reine content frage. Wenn du mir spezifischen Inhalt nennst dann kann man darauf genauer eingehen, falls du die typischen AAA FPS meinst dann siehe meinen comment in Zeile 2.

Piffan
2011-12-22, 09:24:39
Reine Contentfrage? Nicht ganz richtig. Wir reden von Spielen, nicht von Standbildern.

So sehen manche Shots von Max Payne 2 schon fotorealistisch aus, was die stimmige Beleuchtung der Szenerie betrifft. Manche Innenräume sind fantastisch präzise dargestellt. ABER: Alles statisch vorausberechnet.

Lange Rede kurzer Sinn: Zur realistischen Darstellung gehört die Ausleuchtung in Echtzeit, sonst sieht es zwar auf Shots klasse aus, in Bewegung jedoch unrealistisch.
Erst gute Beleuchtungstechniken, effiziente Alghorythmen und die passende, parallel rechnende Hardware erlauben Fotorealismus in Spielen.

Der Content kann lediglich auf Standbildern Realismus vortäuschen.....

MasterElwood
2011-12-22, 09:58:03
Das muss ich dich jetzt enttäuschen sorry:biggrin:
Die Nextgen Konsolen können kaum mehr als 250watt verbrauchen allein deswegen weiß man heute schon wie leistungsstark die in etwa werden könnten...
Und das reicht noch gaaaanz lange nicht:wink:

In 28nm kann man mit 250W schon viel machen....

MasterElwood
2011-12-22, 10:16:43
Das muss ich dich jetzt enttäuschen sorry:biggrin:
Die Nextgen Konsolen können kaum mehr als 250watt verbrauchen allein deswegen weiß man heute schon wie leistungsstark die in etwa werden könnten...
Und das reicht noch gaaaanz lange nicht:wink:

Ist nur eine Frage wie effektiv man die Hardware ausnutzt. Schau mal was die mobile UT Engine mit Infinity Blade II aus dem power VR vom iphone 4S rausholt. Und was braucht der? Ein paar Watt?

Piffan
2011-12-22, 10:32:10
Ist nur eine Frage wie effektiv man die Hardware ausnutzt. Schau mal was die mobile UT Engine mit Infinity Blade II aus dem power VR vom iphone 4S rausholt. Und was braucht der? Ein paar Watt?

MasterElwood vergisst, dass die Rechenleistung im Quadrat zur Kantenlänge des Bildes ansteigt. Oder andersrum: Der Einwand ist wohl alsl Scherz gemeint?

MasterElwood
2011-12-22, 10:51:29
MasterElwood vergisst, dass die Rechenleistung im Quadrat zur Kantenlänge des Bildes ansteigt. Oder andersrum: Der Einwand ist wohl alsl Scherz gemeint?

1. Was hat die LÄNGE damit zu tun? Auflösung ist Auflösung - egal wie groß das Display ist.
2. 960x640 sind nicht mehr wirklich weit von 720p entfernt. Viele Games wie Ghostbusters gehen sogar unter die 720p weil sie sonst zuviel ruckeln.



3. Und ich hab nicht gesagt das IB2 so gut aussieht wie z.B.normale Games auf der PS3. Das was ich sag ist das es z.B. 1/2 oder 1/4 so gut aussieht -bei 1/20 Stromverbrauch.

Selbes wie bei ARM generell:

Selbe Leistung wie X86 CPUs? nein.
Reine Leistung pro Watt: MEILENWEIT vorne.

AnarchX
2011-12-22, 15:02:07
Bei dem Erreichen eines gewissen Leistungsniveaus geht eben entsprechend Effizienz verloren.

Moralelastix
2011-12-22, 16:35:55
Wenn sich die Grafikentwicklung auch weiterhin so schleichend und an der Konsolenentwicklung orientiert hab ich damit eigentlich nicht so wirklich ein Problem denn einen entscheidenden Vorteil hat das aus meiner Sicht. Bei Spielen wie z.B. Sykrim die für Konsolenchips optimiert wurden um da möglichst das Maximum aus der alten Hardware rauszuholen ist alte Spiele-PC Hardware kein Problem. Obendrauf kommen dann die Mods als optische Schmankerln und ruck zuck sieht's aus wie ne geile Crysis Mod.

Sprich, ist also von einem superduper PC only AAA+++ multimillionen Euro Spiel das auf aktueller Highend Hardware grad so läuft kaum zu unterscheiden.

Also braucht's keine neue PC-Hardware um damit die Ineffizienz/Schlamperei/Bugs der Spielesoftware auszugleichen sondern man kann dieses Geld stattdessen in "geeignete!" Spiele und deren Mods stecken und hat am Ende mehr davon worum's ja eigentlich geht "Computer-Spiele".

Kephis
2011-12-22, 18:27:54
Reine Contentfrage? Nicht ganz richtig. Wir reden von Spielen, nicht von Standbildern.

So sehen manche Shots von Max Payne 2 schon fotorealistisch aus, was die stimmige Beleuchtung der Szenerie betrifft. Manche Innenräume sind fantastisch präzise dargestellt. ABER: Alles statisch vorausberechnet.

Lange Rede kurzer Sinn: Zur realistischen Darstellung gehört die Ausleuchtung in Echtzeit, sonst sieht es zwar auf Shots klasse aus, in Bewegung jedoch unrealistisch.
Erst gute Beleuchtungstechniken, effiziente Alghorythmen und die passende, parallel rechnende Hardware erlauben Fotorealismus in Spielen.

Der Content kann lediglich auf Standbildern Realismus vortäuschen.....

Meine Beispiele waren keine Standbilder! ^^
Nimm ein game wie flower, so einen content kann man heute schon fotorealistisch erzeugen (Wiese, Blumen, Wind). Oder mein Tischtennis Beispiel, Schläger/Ball/Tisch all das kann man heute schon erzeugen, ich spreche also ebenfalls von vollwertigen games.

MasterElwood
2011-12-23, 09:23:44
Bei dem Erreichen eines gewissen Leistungsniveaus geht eben entsprechend Effizienz verloren.

Ich denke eher es liegt daran das

1. x86 im vergleich zu ARM veraltet ist und
2. Intel keine Konkurrenz hat und sich überhaupt nicht beiilen muss beim Fortschritt

AnarchX
2011-12-23, 10:48:01
http://www.realworldtech.com/page.cfm?ArticleID=RWT050911220752&p=2

MasterElwood
2011-12-25, 16:04:40
http://www.realworldtech.com/page.cfm?ArticleID=RWT050911220752&p=2


BULLSHIT!

Schau dir mal das Video an:

http://youtu.be/QmvJxbHWZSU?hd=1

Das ist kein Techdemo, sondern ein bereits downloadbares Spiel für Tegra 3 Geräte quasi Standard für 2012 Android Tablets. Und läuft so in 720p.

Und das ist nicht mehr soooo weit von "normaler" Grafik weg.

Das ist Tegra 3.

Tegra 4 bekommt ende 2012 die jeweils doppelte CPU & GPU Leistung.
Tegra 5 bekommt ende 2013 die jeweils FÜNFFACHE CPU & GPU Leistung von Tegra 4 - also dann die jeweils ZEHNFACHE Rechenleistung von dem im gezeigten Video.

In 2 Jahren sind Tablets & Smartphones also dann schon WEIT bei PS3 & XB360 vorbei. Und das Wachstum geht so weiter.

Von wegen ARM ist nix für Performance. Wir sind voll am Weg dahin.

Iruwen
2011-12-26, 00:01:53
stimmt! das war teilweise echt krass wie das umgesetz wurde... zeichtrick style aber dann doch so reale bewegungen ... einfach unglaublich :D
Furchtbarer Film, Uncanny Valley ahoi. Konnte ich mir nicht ansehen.

Lange Rede kurzer Sinn: Zur realistischen Darstellung gehört die Ausleuchtung in Echtzeit, sonst sieht es zwar auf Shots klasse aus, in Bewegung jedoch unrealistisch.

Wenn du durch einen Raum läufst ändert sich dadurch doch nicht ständig die Beleuchtung :freak:

AnarchX
2011-12-26, 11:13:43
BULLSHIT!

Schau dir mal das Video an:

http://youtu.be/QmvJxbHWZSU?hd=1

Das ist kein Techdemo, sondern ein bereits downloadbares Spiel für Tegra 3 Geräte quasi Standard für 2012 Android Tablets. Und läuft so in 720p.

Und das ist nicht mehr soooo weit von "normaler" Grafik weg.

Das ist Tegra 3.
Und der relative Unterschied ist eben das, was ein vielfaches an Leistung kostet. Darin stellt sich auch das Problem der Erreichung fotorealistischer Grafik dar, die nötige Leistung steigt exponentiell.


Von wegen ARM ist nix für Performance. Wir sind voll am Weg dahin.
Trotz allem hat ARM bei weitem nicht die Ressourcen eines Intels, für Tablet und Smartphones mag es reichen, aber darüber hinaus wird es wohl mehr als fraglich, wie es auch RealWordTech beschreibt. Wenn ARM jetzt CPU in den Vebrauchsregionen von Intel und AMD bauen wöllte, wäre die Pro-Watt-Leistung wohl kaum besser. Einzig Many-Cores könnten wohl brauchbar sein, aber Single-Thread-Leistung ist heute immernoch für viele Anwendungen wichtig.

MasterElwood
2012-01-07, 10:29:59
Trotz allem hat ARM bei weitem nicht die Ressourcen eines Intels, für Tablet und Smartphones mag es reichen, aber darüber hinaus wird es wohl mehr als fraglich, wie es auch RealWordTech beschreibt. Wenn ARM jetzt CPU in den Vebrauchsregionen von Intel und AMD bauen wöllte, wäre die Pro-Watt-Leistung wohl kaum besser. Einzig Many-Cores könnten wohl brauchbar sein, aber Single-Thread-Leistung ist heute immernoch für viele Anwendungen wichtig.

Irgendwas MUSS bald passieren.

ARM liegt weit über Moores Law mit einer verdreifachung der Leistung pro Jahr - und x86 hat was pro Jahr? +20% vielleicht?

Wenn ARM sich weiter so steigert (und lt. NVIDIA und TI gehts so weiter) und INTEL nicht gas gibt dann hat mein Handy in ein paar Jahren die Leistung von meinem Desktop.

Klingt verrückt - is aber reine Mathematik.

Und geht schnell: 3 Jahre verdreifachung ist ja gleich 27 fache Leistung...

Knuddelbearli
2012-01-07, 10:35:52
naja
von single core auf dual bringt immer nen extremen leistungssprung wie sonst selten, dazu ist auch der verbrauch und die DIE Fläche deutlich gestiegen

MasterElwood
2012-01-07, 10:56:26
naja
von single core auf dual bringt immer nen extremen leistungssprung wie sonst selten, dazu ist auch der verbrauch und die DIE Fläche deutlich gestiegen

Denau das is ja mein Punkt: Es tut sich nix mehr am X86 Sektor seit wir bei Quads stehen.

Ich hatte nen Riesensprung in der Leistung von meinem SingelCore Athlon zu meinem DC E6300.

Und dann einen Riesensprung auf meinen jetztigen QC Q9550.


Und jetzt? Ich hab noch nie so wenig lust gehabt CPU zu wechseln weil: Leistungsmässig bin ich nach 3 Jahren mit meiner CPU immer noch recht gut dabei.

Das gabs früher nicht. Nach 3 Jahren warst beim Uralteisen.


Das ist jetzt bei ARM so. Da bist nach 2 Jahren schon in der Steinzeit so schnell gehts weiter.


Nebenbei: Ein Tegra 3 braucht für dieselbe Leistung WENIGER Strom als ein Tegra 2 - bei der doppelten Leistung nur ca. 20 Prozent mehr Power...

Knuddelbearli
2012-01-07, 11:00:38
ist tegra 3 nicht auch eine andere Fertigung ?

zumindest gegenüber der 20er serie von tegra 2

MasterElwood
2012-01-07, 12:44:03
ist tegra 3 nicht auch eine andere Fertigung ?

zumindest gegenüber der 20er serie von tegra 2

eben nicht.

Beide sind 40nm.

Erst Tegra 4 bekommt neue Fertigung - dann wird das Power/Leistung Verhältniss NOCHMALS besser.

Momentan arbeitet alles für ARM.

Hayab
2012-01-10, 03:15:27
Um wieder auf das Thema fotorealistische Grafik zu kommen.

Ich glaube der ganze Technik die man heute bei den Spielen verwendet wird, ist eine Sackgasse. Polygongrafik hat einen Nachteil, es ist aufgebaut aus Dreiecken die zwar raeumlich in 3 Dimensionen angeordnet sind aber selbst keine Tiefe besitzen. Die reale Welt ist eher mit Minecraft vergleichbar als mit der Polygongrafik, nur die atomaren Strukturen sind viel feiner.

Wenn in der Polygongrafik was zerbroeckelt, fliegen zwar irgendwelche Dreiecke in alle Richtungen, es wird aber meistens nur durch Partikelgeneratoren gerendert. Auf das Loch wird dann eine Textur aufgeklebt, und es sieht aus wie ein Einschussloch.
Wuerde die "Spielmaterie" aus Milliarden kleinen Bloecken bestehen wie die Minecraftwelten, nur eben viel feiner. Koennte man die Expolsion oder ein Projektileinschlag direkt auf der mit diesen Partikeln berechnen.
Das ist eben nur ein Beispiel, und man hat versucht schon vor Jahren dieses Konzept mit diversen Engines zu realisieren. Leider fehlte damals wie heute die Rechenleistung.

Raytracing als Beleuchtung ist auch so eine Sache. Es soll mit virtuellen Teilchen die Photone simulieren und von diversen Flaechen abprallen je nach Eigenschaft von der Oberflaeche. Im Grunde ist es der richtige Weg zum Fotorealismus, aber die Rechenleistung um Milliarden von virtuellen Photonen in Echtzeit zu Simulieren gibt es noch nicht wirklich. Bei Polygongrafik halbtransparenz (zb. Wasser) muss da auch getrickst werden, weil ohne Tiefe kann man das "verschlucken" der Rays nicht realistisch simulieren.

Wo wir zum letzten Punkt kommen, die Physik. Nvidia versucht zwar mit PhysX die Partikel von Fluiden und Gasen zu simulieren, aber das was da geboten wird ist recht bescheiden. Die Physik muesste mit der gesamten 3D Welt interagieren und nicht da und hier wenige Kollisionen berechnen.

Wenn die Menschheit sich selbst nicht vernichtet wird es irgendwann fotorealisitische Echzeitgrafik geben. Nur werden die Chips die auf heutigen Siliziumtechnik aufbauen in Museen zu sehen sein und fuer die Leute so aussehen, wie fuer uns die Roehrencomputer aus der 1940er Jahren.;D

MasterElwood
2012-01-22, 13:28:39
Um wieder auf das Thema fotorealistische Grafik zu kommen.

Ich glaube der ganze Technik die man heute bei den Spielen verwendet wird, ist eine Sackgasse. Polygongrafik hat einen Nachteil, es ist aufgebaut aus Dreiecken die zwar raeumlich in 3 Dimensionen angeordnet sind aber selbst keine Tiefe besitzen. Die reale Welt ist eher mit Minecraft vergleichbar als mit der Polygongrafik, nur die atomaren Strukturen sind viel feiner.

Wenn in der Polygongrafik was zerbroeckelt, fliegen zwar irgendwelche Dreiecke in alle Richtungen, es wird aber meistens nur durch Partikelgeneratoren gerendert. Auf das Loch wird dann eine Textur aufgeklebt, und es sieht aus wie ein Einschussloch.
Wuerde die "Spielmaterie" aus Milliarden kleinen Bloecken bestehen wie die Minecraftwelten, nur eben viel feiner. Koennte man die Expolsion oder ein Projektileinschlag direkt auf der mit diesen Partikeln berechnen.
Das ist eben nur ein Beispiel, und man hat versucht schon vor Jahren dieses Konzept mit diversen Engines zu realisieren. Leider fehlte damals wie heute die Rechenleistung.

Raytracing als Beleuchtung ist auch so eine Sache. Es soll mit virtuellen Teilchen die Photone simulieren und von diversen Flaechen abprallen je nach Eigenschaft von der Oberflaeche. Im Grunde ist es der richtige Weg zum Fotorealismus, aber die Rechenleistung um Milliarden von virtuellen Photonen in Echtzeit zu Simulieren gibt es noch nicht wirklich. Bei Polygongrafik halbtransparenz (zb. Wasser) muss da auch getrickst werden, weil ohne Tiefe kann man das "verschlucken" der Rays nicht realistisch simulieren.

Wo wir zum letzten Punkt kommen, die Physik. Nvidia versucht zwar mit PhysX die Partikel von Fluiden und Gasen zu simulieren, aber das was da geboten wird ist recht bescheiden. Die Physik muesste mit der gesamten 3D Welt interagieren und nicht da und hier wenige Kollisionen berechnen.

Wenn die Menschheit sich selbst nicht vernichtet wird es irgendwann fotorealisitische Echzeitgrafik geben. Nur werden die Chips die auf heutigen Siliziumtechnik aufbauen in Museen zu sehen sein und fuer die Leute so aussehen, wie fuer uns die Roehrencomputer aus der 1940er Jahren.;D


Und dann wären wir wieder hier:

http://forum.myrabbits.de/threads/24066-Neue-Grafik-Technik-verspricht-unendlich-viele-Details!

MasterElwood
2012-01-22, 14:10:40
http://www.imgtec.com/News/Release/index.asp?NewsID=666

***

The PowerVR Series 6 GPU cores promise 20 times better performance than current generation GPU cores and 5 times the efficiency. Performance is said to exceed 100gigaFLOPS and even reaches the teraFLOPS range. There are already eights licensees for the PowerVR Series 6 cores, including ST-Ericsson and Texas Instruments.

***

Coda
2012-01-22, 14:14:05
Und was hat das mit dem Thema zu tun?

Nein, ARM und PowerVR können auch nicht zaubern. Nein, sie werden bei Chips mit gleicher Fertigungs-Technologie nicht auf einmal 10x schneller sein.

MasterElwood
2012-01-22, 15:01:16
Und was hat das mit dem Thema zu tun?

Nein, ARM und PowerVR können auch nicht zaubern. Nein, sie werden bei Chips mit gleicher Fertigungs-Technologie nicht auf einmal 10x schneller sein.

Aber sie werden DEUTLICH schneller sein.

Und sie werden 10-20x Energie-Effizienter sein.

Wer in 5 Jahren eine Konsole bauen will und sich um Kompatibilität nicht scheren muss, nimmt 4, 9 oder 16 ARM GPU´s, schmeisst sie auf eine platine, und lässt sie ähnlich wie beim tile-based deferred rendering arbeiten - und ist damit nicht nur viel schneller, sondern hat dann immer noch geringere Stromaufnahme und damit geringere Hitzeentwicklung.

Coda
2012-01-22, 16:48:29
Aber sie werden DEUTLICH schneller sein.

Und sie werden 10-20x Energie-Effizienter sein.
Sorry, aber nö.

Wer in 5 Jahren eine Konsole bauen will und sich um Kompatibilität nicht scheren muss, nimmt 4, 9 oder 16 ARM GPU´s, schmeisst sie auf eine platine, und lässt sie ähnlich wie beim tile-based deferred rendering arbeiten - und ist damit nicht nur viel schneller, sondern hat dann immer noch geringere Stromaufnahme und damit geringere Hitzeentwicklung.
Red doch bitte nicht von Sachen, von denen du nichts verstehst.

Software lässt sich nicht automatisch parallelisieren.

MasterElwood
2012-01-22, 23:24:06
Sorry, aber nö.


Red doch bitte nicht von Sachen, von denen du nichts verstehst.

Software lässt sich nicht automatisch parallelisieren.


Wenn DU eine Konsonle - also ein geschlossenens, unabhängiges System entwickelst, dann gibst DU die Guidelines vor wie die Software zu programmieren ist.

Hier wird Parallelisierung also nicht im nachhinein dazugeschludert sondern ist von Anfang an Konzept. Zudem kannst du perfekt optimieren weil die Hardware einer Konsole eine fixe Größe ist.

Die Voraussetzungen für eine effektive Ausnutzung sollten also optimal sein.

Coda
2012-01-23, 22:19:55
Ist gut, du hast Recht und ich meine Ruhe ;)

Spirou
2012-01-23, 22:51:53
Ist bei Entwicklungsumgebungen für sogenannte Transaktionsmonitore bereits vor Jahrzehnten kommerziell gemacht worden.

Nahezu alle Mainframes beherrschten sowas. Das heute übliche Eventbubbling stellt eine dilettantische Adaption damaliger Techniken dar. Objektorientierung war nichts anderes als der Versuch, einige der Vorteile solcher Systeme auch auf dafür ursprünglich untauglichen Systemen zu implementieren.

Coda
2012-01-23, 22:56:44
Bitte was? :|

Edit: hat das jetzt was mit STM zu tun?

PatkIllA
2012-01-23, 23:26:21
Objektorientierung war nichts anderes als der Versuch, einige der Vorteile solcher Systeme auch auf dafür ursprünglich untauglichen Systemen zu implementieren.OOP ist doch wohl vor allem der Modellierung und Wartbarkeit geschuldet.
Das ist doch allgemein das Problem, dass man für immer komplexere Software nicht nur schnellere Hardware braucht.
Wenn DU eine Konsonle - also ein geschlossenens, unabhängiges System entwickelst, dann gibst DU die Guidelines vor wie die Software zu programmieren ist.Wenn sich die Entwickler auch nur annähernd an Guidelines halten würden.
Hier wird Parallelisierung also nicht im nachhinein dazugeschludert sondern ist von Anfang an Konzept. Zudem kannst du perfekt optimieren weil die Hardware einer Konsole eine fixe Größe ist.

Die Voraussetzungen für eine effektive Ausnutzung sollten also optimal sein.Da geht trotzdem nichts automtisch.
Die PS3 hat mit ihren SPE inkl. lokalem Speicher tolle Voraussetzungen für eine hohe prallele Rechenleistung und trotzdem sind alle am Fluchen, weil das so kompliziert ist.

Spirou
2012-01-23, 23:28:24
@ Coda: Hat was mit Software Engineering zu tun. Du stelltest generell in Frage, daß man automatisch parallellisieren kann, und ich halte dem entgegen, daß man es auf dafür ausgelegten Systemen gemacht hat.

Soweit Hardware und Betriebssystem dafür ausgelegt sind, eine entsprechende Entwicklungsumgebung eingesetzt wird, sehe ich da überhaupt kein Problem.

@ PatkIllA:

Hat man ja auf den großen Mainframes mit entsprechender Middleware gehabt. Es gibt eine Entwicklungshistorie, die zu OOP führte.

PatkIllA
2012-01-23, 23:45:44
Man kriegt doch kaum vernünftig automatisch die SIMD Einheiten gefüllt. Und da willst du ganze Algorithmen automatisch parallisieren?
Es gibt Bereiche wo man das sehr gut machen kann. Grafikberechnung in einer höheren Auflösung ist so ein Fall. Und auch da muss erstmal Geometrieverarbeitung durch sein bevor es ans Rastern geht. Ein weiterer Grund für die gute Skalierung ist, dass auf Ergebnisse früherer Berechnungsschritte nur lesend zugriffen wird.

Allgemeingültig geht das schlicht nicht. Wie soll das bei einem Algorithmus gehen, der jeweils das Ergebnis der Operation davor benutzt?

Meinst du mit Transaktionsmonitore die Teile die mehr oder weniger einen Auftrag nachdem anderen abgearbeitet haben? Also vergleichsweise lange Aufträge mit wenigen Berührungspunkten abgearbeitet werden?

Spirou
2012-01-24, 00:06:19
Das wesentliche an transaktionsorientierten Systemen war ja nicht die Zerstückelung der Tasks, die das Entwickeln komplexer Anwendungen vereinfachte, sondern die Nutzung spezieller Compiler und die in den Laufzeit modulen organisierte Lastverteilung in stark parallellisierten Systemen.

Damit entwickelte Anwendungen haben multiple Datenströme mit unterschiedlich ausgeprägten Abhängigkeiten ganz gut im Griff gehabt, weil die Hardware dementsprechend ausgelegt war. Wenn man das Starten residenter Module über entsprechende Trigger in solchen Systemen anhand von Blockschaltbildern und Ablaufdiagrammen betrachtet, springen schon Ähnlichkeiten zu Renderfarmen ins Auge.

Man muss bedenken, daß man damals Transaktionsmonitore hauptsächlich für die Organisation von kooperativer Bearbeitung großer Datenbestände in komplexen Netzwerken eingesetzt hat, in denen immens viele Terminals unter derselben Anwendung liefen.

Ich habe in den 80ern solche Systeme weiterentwickelt, optimiert und daran ausgebildet, eine der ersten grafischen Oberflächen für so etwas gemacht.

Ich erwähne das hier, weil die Anwendungsentwickler damals mit der Middleware gearbeitet haben, ohne sich je über die Parallellisierung Gedanken zu machen, deren Optimierung im Compiler und in der Laufzeit nicht mal kannten. Entwickler haben nur Datenbeziehungen gesehen.

PatkIllA
2012-01-24, 00:09:59
Ich erwähne das hier, weil die Anwendungsentwickler damals mit der Middleware gearbeitet haben, ohne sich je über die Parallellisierung Gedanken zu machen, deren Optimierung im Compiler und in der Laufzeit nicht mal kannten. Entwickler haben nur Datenbeziehungen gesehen.Damit bist du aber auf den Funktionsumfang der Middleware beschränkt und ganz ganz weit genereller automatischer Parallelisierung weg.
Genau so wenig ist die vorhandene Parallelität da automatisch passiert sondern mit viel Aufwand von Software- und Hardwareentwicklung entstanden. Die aus Programmsicht weitesgehend unabhängigen Terminalsitzungen lassen sich dagegen recht problemlos parralisieren. Das geht auch mit normaler Hardware und Betriebssystemen.
Und ganz sicher konnte man da auch nicht einfach unbegrenzt Recheneinheiten dazustellen und die maximale Parallelität ist in gleichem Umfang gestiegen.
Ein Datenbanksystem ist doch heute auch nicht anderes als deine Middleware damals. Und die skalieren auch nicht einfach so unendlich obwohl da in eine vergleichsweise einfach zu beschreibenes Aufgabe deutlich mehr optimiert wurde als man das man bei allgemeiner Entwicklung machen würde.

Spirou
2012-01-24, 01:31:58
Du legst den Begriff Middleware zu eng aus. DirectX ist eine Middleware. Ohne Middleware geht schon lange nichts mehr. Die Frage ist also nicht, ob man sich von Middleware abhängig macht, sondern wie man die verschiedenen Schichten definiert, auf denen Middleware zum Einsatz kommt, und wie man ihre Schnittstellen auslegt.

Ich weiß nicht, wie Du auf unabhängige Terminalsitzungen kommst. Wenn an vernetzten Arbeitsplätzen auf einem gemeinsamen Datenbestand in einer hierarchischen Datenbank gearbeitetet wird, können selbst einfache Packlistenproblematiken immense Syncronisationsprobleme aufwerfen. Unabhängig ist da nahezu gar nichts. Sonst bräuchte man keine Transaktionsorientierung.

Und selbstverständlich war die Hardware solcher Systeme nahezu unbegrenzt ausbaufähig. Die Variabilität früherer Mainframesysteme hat nichts anderes je wieder erreicht. Mit der heute üblichen Hardware, die Du und ich zuhause haben, ist an die Leistung solcher Systeme nicht mal ansatzweise heranzukommen.

Ich nehme an, Du theoretisierst, ohne je mit solchen Systemen gearbeitet zu haben. Worum es mir in diesem Thread geht, ist der Hinweis, daß man zwar aus seriell codierten Anwendungen nicht so einfach automatisch parallellisierte Verarbeitungsfolgen generieren kann, aber unter Einsatz von auf Parallellisierung ausgelegten Sprachen auf dementsprechend ausgelegten Systemen weit effizientere und mächtigere Parallisierungen realisieren kann, und das so etwas eben auch schon gemacht wurde.

Ich würde ohnehin erwarten, daß in den nächsten fünf bis zehn Jahren nicht wenige Teilaufgaben von der Anwendungsebene auf die Middelware verschoben werden, der Markt für Middleware wachsen wird, und am Ende Industrienormen und Systemkomponenten stehen, die fast alle Aufgaben heutiger Spieleengines erledigen.

Man wird irgendwann nur noch Content produzieren, und nicht mehr an der Algorythmik herumfrickeln. Alles andere würde mich überraschen.

PatkIllA
2012-01-24, 02:13:13
Du legst den Begriff Middleware zu eng aus. DirectX ist eine Middleware. Ohne Middleware geht schon lange nichts mehr. Die Frage ist also nicht, ob man sich von Middleware abhängig macht, sondern wie man die verschiedenen Schichten definiert, auf denen Middleware zum Einsatz kommt, und wie man ihre Schnittstellen auslegt.Die Middleware verschiebt Probleme auf andere Ebenen löst sie aber nicht in Luft auf.
Ich bin bei jedweder Middleware aus allen Bereichen auf die zu erwartenden Einschränkungen gestoßen. Gerade Parallelität wird oft sogar völlig ausgeschlossen oder zumindest nicht ausgeschöpft.
Ich weiß nicht, wie Du auf unabhängige Terminalsitzungen kommst. Wenn an vernetzten Arbeitsplätzen auf einem gemeinsamen Datenbestand in einer hierarchischen Datenbank gearbeitetet wird, können selbst einfache Packlistenproblematiken immense Syncronisationsprobleme aufwerfen. Unabhängig ist da nahezu gar nichts. Sonst bräuchte man keine Transaktionsorientierung.Die Sache ist das in den interaktiven Benutzersitzungen wenige zu synchronisierende Datenzugriffe vielen Befehlen zur Eingabe und Ausgabe gegenüberstehen. Egal ob Client-Serveranwendung oder früheren Mainframe-Anwendungen. Mit den "richtigen" Zugriffen auf die "richtigen" Daten kriegst du jedes System relativ schnell klein.
Und selbstverständlich war die Hardware solcher Systeme nahezu unbegrenzt ausbaufähig.Die Hardware vielleicht schon, aber nicht die erreichbare Leistung bei beliebigen Anwendungen.
Mit der heute üblichen Hardware, die Du und ich zuhause haben, ist an die Leistung solcher Systeme nicht mal ansatzweise heranzukommen.Jedes Smartphone schlägt deinen Supercomputer aus den 80ern. Und die heutigen Supercomputercomputer sind oft gar nicht so viel anders als vernetzte Heimrechner.
Ich nehme an, Du theoretisierst, ohne je mit solchen Systemen gearbeitet zu haben.Stimmt. Es hat in der Praxis noch kein Computer geschafft die mathematisch und technischen Einschränkungen außer Kraft zu setzen.
Worum es mir in diesem Thread geht, ist der Hinweis, daß man zwar aus seriell codierten Anwendungen nicht so einfach automatisch parallellisierte Verarbeitungsfolgen generieren kann, aber unter Einsatz von auf Parallellisierung ausgelegten Sprachen auf dementsprechend ausgelegten Systemen weit effizientere und mächtigere Parallisierungen realisieren kann, und das so etwas eben auch schon gemacht wurde.Das muss dann allerdings auch erstmal alles von Entwicklern umgesetzt werden. Und das erlaubt immer noch nicht begrenzte Probleme beliebig zu parallelisieren. Teilweise braucht man auch ganz andere Algorithmen, damit es überhaupt parallel läuft.
AFAIK gibt es z.B. immer noch keinen GPU basierten H264 Encoder mit guter Qualität und allen Features. Unter anderem weil viele der Algorithmen extreme ausgeklügelte Optimierungen für CPUs drin sind, die auf GPUs kontraproduktiv sind. Dass müsste man von Grund auf neuentwickelten, weil man es nicht mal eben durch den CUDA Compiler schieben kann.
Ich würde ohnehin erwarten, daß in den nächsten fünf bis zehn Jahren nicht wenige Teilaufgaben von der Anwendungsebene auf die Middelware verschoben werden, der Markt für Middleware wachsen wird, und am Ende Industrienormen und Systemkomponenten stehen, die fast alle Aufgaben heutiger Spieleengines erledigen.Es ist ja heute schon üblich die Engine einzukaufen. Durch das Verschieben in die Middleware werden Probleme aber wie gesagt nur Verschoben und nicht automatisch gelöst. Da kommen dann wahrscheinlich bessere Ergebnisse bei rum, als wenn das jeder selbst macht, aber algorithmentheoretische Begrenzungen kannst du damit auch aufheben.
Man wird irgendwann nur noch Content produzieren, und nicht mehr an der Algorythmik herumfrickeln. Alles andere würde mich überraschen.Mag sein, aber ich mir ziemlich sicher, dass wir das nicht mehr erleben werden. Vielleicht kann ja KI irgendwann mal Probleme wirklich lösen, aber da ist man in vielen Bereichen auch mit enormen Aufwand und Jahrzehnten theorethischer und praktischer Forschung kaum den Fähigkeiten von einfachen Insekten gewachsen.

Spirou
2012-01-24, 02:43:30
Transaktionsmonitore lösen Interaktionen in Einzelschritte auf, bei denen jede Ausgabe einen Augenblickszustand der Datenbasis abbildet, und jede Eingabe eine konkrete Veränderung der Datenbasis auslöst. Die Systeme, die Wang, Siemens und IBm dafür entwickelte, waren auf der Hardwareseite modular aufgebaut und skalierten dabei hundertprozentig, was daran lag, daß die Verteilung von Tasks aller Art in solchen Systemen extern zwischen den Funktionseinheiten organisiert wurde.

Die reine Rechenleistung war nach heutigen Masstäben winzig, der Durchsatz dafür aber gewaltig. Man kann zwar einen heutigen PC recht leicht mit nahezu unendlich vielen anderen vernetzen, aber eben nicht so einfach Datenzugriffe syncronisieren, und damit Abhängigkeiten innerhalb der Datenbasis Rechnung tragen.

Deswegen sind die Softwarekonzepte der damaligen Zeit heute durchaus wieder aktuell, soweit es um Parallellisierung geht.

Das Smartphone möchte ich sehen, mit dem tausende syncroniserter Lese- und Schreibzugriffe auf größere Datenbanken zugleich organisierbar sind.

Die größten Hürden liegen meiner Meinung nach in ganz anderen Bereichen. Effiziente Lösungen trennen Daten und Code vollständig, basieren auf stringenten Datenstrukturen, hochgradiger Modularisierung und Spezialisierung des Codes und sind damit schlecht kontrollierbar. So etwas liefe auf verschiedensten Plattformen, und liesse sich weder von Aktivierungen abhängig machen, noch mit Datenträgerchecks versehen. Könnte sein, daß wir nur deswegen stehen, wo wir grade stehen, denn von der Rohleistung her kann man schon recht viel verwirklichen.

Coda
2012-01-24, 10:26:50
Und du glaubst wirklich, dass es noch keine Task basierenden Systeme in modernen Game-Engines gibt?

Sorry, aber so blöd sind die Leute nicht. Trotzdem kann man nicht einfach alles parallelisieren. Und schon gar nicht automatisch.

AnarchX
2012-02-11, 16:23:58
Tim Sweeney: "5.000 TFLOPs für den Fotorealismus."

And while Samaritan's 2.5 teraflops (that's trillions of floating-point operations per second, laymen) is a far cry from the 10 megaflops that were needed to power the original Doom, we're still a good deal short of the 5,000 teraflops Sweeney calculates we'd need to process a fully realistic 3D scene in real time.
http://arstechnica.com/gaming/news/2012/02/how-close-are-we-to-truly-photorealistic-real-time-games.ars
Solche Rechenleistung steht für den Endkunden wohl erst in >30 Jahren zur Verfügung, wenn nicht noch deutlich später. Muss man wohl auf die Technologische Singularität hoffen. ;D

Der restliche Artikel ist aber auch lesenswert. ;)

Spasstiger
2012-02-11, 22:21:24
Solche Rechenleistung steht für den Endkunden wohl erst in >30 Jahren zur Verfügung, wenn nicht noch deutlich später. Muss man wohl auf die Technologische Singularität hoffen. ;D
NVidia will noch in diesem Jahrzehnt Exaflops-Supercomputer auf die Beine stellen, das sind > 1 Mio. TFlops. Jetzt rühre man noch Cloud Gaming in die Rechnung hinein, schon erscheint die Vision von Tim Sweeney gar nicht mehr so fern.
Allerdings muss ich auch sagen, dass die letzten zehn Jahre (2002 -> 2012: UT 2003 -> Battlefield 3/Crysis 2 DX11/?noch ausstehend?) im Vergleich zu den zehn Jahren davor (1992 -> 2002: Wolfenstein 3D -> UT 2003) eher enttäuschend waren, was Fortschritte beim grafischen Realismus angeht.

Geldmann3
2012-02-12, 00:23:36
Es sei denn, Bruce Dell kommt bald mal mit Unlimited Detail aus dem Busch. Dann dauert es plötzlich nur noch 10 Jahre bis wir viele annähernd fotorealistische Spiele haben. (Wenn die Gaming Industrie die Chancen wahrnimmt.) Es gibt sicher viele Entwickler die momentan ebenfalls daran werkeln die aktuelle Rechenleistung viel effizienter zu nutzen.
Ausserdem-> NOCH sieht man jährlich minimale Fortschritte in der Spielegrafik. Wobei die Entwicklung in den letzten 3 Jahren schon ziemlich stagnierte.

Screemer
2012-02-12, 01:29:49
hardwarebeschleunigte voxel sind aber auch nicht der weisheit letzter schluss, oder?

Iruwen
2012-02-12, 20:41:50
Da fällt mir grad ein Interview mit Carmack ein:
http://www.pcper.com/reviews/Graphics-Cards/John-Carmack-id-Tech-6-Ray-Tracing-Consoles-Physics-and-more

Geldmann3
2012-02-12, 23:00:42
hardwarebeschleunigte voxel sind aber auch nicht der weisheit letzter schluss, oder?
Nein, da gehört natürlich viel mehr dazu.

MasterElwood
2012-02-17, 14:32:03
Tim Sweeney: "5.000 TFLOPs für den Fotorealismus."

http://arstechnica.com/gaming/news/2012/02/how-close-are-we-to-truly-photorealistic-real-time-games.ars
Solche Rechenleistung steht für den Endkunden wohl erst in >30 Jahren zur Verfügung, wenn nicht noch deutlich später. Muss man wohl auf die Technologische Singularität hoffen. ;D



Der redet da aber - wenn ich das richtig sehe - auch von 33 MP.

Runter gerechnet auf FullHD sinds dann nur mehr 313 TFLOPS.

Das ist nur die 125 fache Leistung vom Samaritan Demo...



Und selbst wenn nicht und wir brauchen 5.000:

ZITAT: "As for the "decades" that it will take to get there.. 10 MFLOPS from Doom to the 2.5 TFLOPS today. Is 250,000x the power in 19 years. The journey from 2.5TFLOPS to 5 EFLOPS is simply 2000x the power. I'm not seeing that take "decades".

MasterElwood
2012-02-17, 14:50:01
Da fällt mir grad ein Interview mit Carmack ein:
http://www.pcper.com/reviews/Graphics-Cards/John-Carmack-id-Tech-6-Ray-Tracing-Consoles-Physics-and-more

Dazu fällt mir ein: WTF happend to ID?

Waren Vorreiter im Grafikbereich von Wolfenstein bis Doom 3 - und mittlerweile sind sie Randerscheinung...

Iruwen
2012-02-17, 14:56:47
Dafür schreibt Carmack seine Engines alleine nachts aufm Klo. In Emacs.

MasterElwood
2012-03-09, 01:30:50
Das schon jemand gesehen?

WOW!

http://www.youtube.com/watch?v=JtbDDqU3dVI&hd=1


The demo is running in real time on a PlayStation 3 console. Cage insists that he’ll be able to show even more impressive examples of performance capture soon, closer to the time that the next Quantic Dream game is unveiled.

“The Kara demo was made a year ago, and we’ve made incredible progress since then,” he said.

The Kara tech demo will be available for free to all PlayStation 3 users.

DrumDub
2012-03-09, 12:09:39
ähmm .. was seh ich da jetzt so besonderers?

ich erinner mal an eine über dreieinhalbjahre jahre alte demo: http://www.youtube.com/watch?v=slN_kOnzDyY

AnarchX
2012-03-09, 12:12:58
Letzteres ist wohl aber keine Polygon-Grafik und lief nicht nur auf einer PS3.

Kara ist schon durchaus beeindruckend, aber bei weitem noch nicht Fotorealismus.

MasterElwood
2012-03-09, 13:06:52
Letzteres ist wohl aber keine Polygon-Grafik und lief nicht nur auf einer PS3.

Kara ist schon durchaus beeindruckend, aber bei weitem noch nicht Fotorealismus.

Teile wie die Roboterarme gehen schon durchaus die die Fotorealismus Richtung.

Das aufregende an Kara ist aber eher der Gedanke wie die Engine auf einer PS4 aussehen wird, wenn sie auf einmal 10-20 mal mehr Leistung zur Verfügung hat...

KNemeth
2012-03-09, 13:16:21
Naja so sehr hat mich die Kara Demo nicht beeindruckt und auch die Roboterarme sind noch weit weg vom Fotorealismus.
Aber storytechnisch könnte man eine geiles Spiel aus diesem Fitzel machen, das hat mich viel eher beeindruckt.

Geldmann3
2012-03-09, 14:19:09
Mich hat die Kara Demo sehr beeindruckt. Sowohl die Grafik als auch der Inhalt. Wobei die Grafik mich nicht überrascht hat, da ist auf der PS3 einiges möglich und es war ja abgesehen vom Cyborg eine eher sterile Szene.

DrumDub
2012-03-09, 15:03:00
Letzteres ist wohl aber keine Polygon-Grafik und lief nicht nur auf einer PS3. ja, richtig. dann nimm halt die ruby whiteout demo (http://www.youtube.com/watch?v=AVUMAGzkIBY), die noch polygonbasiert ist. sieht im jahr 2007 mindestens genauso gut aus und lief schon auf einer 2900 xt, die ja nun leistungsmäßg zwar vor dem nividia rsx der ps3 liegt, aber dennoch eben fast 5 jahre alt ist. oder nimm das adrianne demo (http://www.youtube.com/watch?v=AnYOJD9R42s) von nvidia.

Kara ist schon durchaus beeindruckend, aber bei weitem noch nicht Fotorealismus. ich frag nochmal: was ist daran beeindruckend? wir sind im jahr 2012 und nicht 2007. dass die ps3-hardware da bis zum letzten ausgereizt werden kann, ist ja wohl mehr als normal.

Spasstiger
2012-03-09, 15:06:25
Die Kara-Demo zeigt, wie wichtig Animationen für eine glaubhafte Grafik sind. Vom Rendering her ist das Niveau ja schon von Spielen erreicht.

Tesseract
2012-03-09, 15:10:07
was ist an der demo besonders? die texturen sind matschig, die animationen bestenfalls mittelmaß, die schatten sind durchschnitt, das ganze beleuchtungssystem sehr künstlich und die szene als ganzes ist sehr detailarm und trotz der schlechten videoqualität (unschärfe, kompression) flimmert es an allen ecken und enden.

mit fotorealismus hat das genau garnix zu tun.

schau auch mal ein paar bilder an, die mit hilfe von radiosity (http://www.vue-cg.jp/assets/images/infinite/radiosity_jb-verdierB.jpg) beleuchtet wurden. sowas geht schon eher in richtung fotorealismus.

dilated
2012-03-09, 16:26:06
Die Kara-Demo zeigt, wie wichtig Animationen für eine glaubhafte Grafik sind. Vom Rendering her ist das Niveau ja schon von Spielen erreicht.

was da nahe an fotorealismus sein soll seh ich auch nicht...

so wird imho jedes gute spiel @ ps4 xbox 3 aussehen
fotorealistisch ist da aber nix, nicht ein pixel imho

warum sich filmstudios ganze rechenfarmen mieten für ihre "effekte"
geht doch auch @ps3 -.-

DBGTKING88
2012-03-13, 18:39:51
hallo ich habe es mal durchgelesen was ihr da so schreibt.Es stimmt crysis ist nicht ansatzweise so gut wie es immer behauptet wurde.Ich habe eine spiel das eine bessere grafik hat.Ich meine Serious sam 3 ist im gesammten viel besser.Hat es doch eien bessere beleuchtung.Sand partikel streuen nach oben sobald man auf ein stein haut.Dank der vielen effekte und sontiges sticht es crysis warhead aus ,ich denke sogar crysis 2 kann es ausstechen.Sehr feine texturen.Als ich das spiel zum ersten mal gespielt hatte war ich erstaunt und fazinierend.Auch die Monster sind sehr gut gerendert.Das spiel haben die so gut gemacht das auch ohne Kantenglättung keine Treppeneffekte zu sehen sind.Glaubt ihr das spiel kann auch gegen Battle field 3 grafsch ausstechen?

y33H@
2012-03-13, 18:49:12
Kein Aliasing ohne AA? Vergiss es.

Mr.Magic
2012-03-13, 18:54:14
Wie weit sind wir von fotorealistischer Grafik entfernt?

Nachdem ja das iCrap zukünftig alle anderen Computerarten (das schließt Konsolen ein) verdrängt, mindestens 50 Jahre.

AnarchX
2012-03-17, 23:31:00
Tim Sweeney: "5.000 TFLOPs für den Fotorealismus."

http://arstechnica.com/gaming/news/2012/02/how-close-are-we-to-truly-photorealistic-real-time-games.ars
Solche Rechenleistung steht für den Endkunden wohl erst in >30 Jahren zur Verfügung, wenn nicht noch deutlich später. Muss man wohl auf die Technologische Singularität hoffen. ;D

Der restliche Artikel ist aber auch lesenswert. ;)
Vortrag von Sweeney: http://www.gamespot.com/unreal-1990/videos/tim-sweeney-dice-2012-session-6350144/

BaggiBox
2012-05-18, 02:04:08
2006
http://www.youtube.com/watch?v=CfjfAzMd8x8&feature=related

6 Jahre danach:

2012
http://www.youtube.com/watch?v=TS_BLPRoGuk

Fotorealismus werden wir sicherlich noch miterleben.
Beeindruckend wie schnell sich alles entwickelt und trotzdem könnte es noch schneller gehen gäbe es keine Multiplatformtitel.

Nightspider
2012-05-18, 02:10:21
Wieso sollte die Entwicklung schneller gehen ohne Konsolen?

Glaubst du ohne Konsolen werden die Abstände zwischen Fertigungsprozessen kleiner?
Glaubst du Architekturen oder andere ominöse, leistungsgebende Faktoren werden ohne Konsolen schneller?

Nein.

Konsolen bremsen einzig allein die temporäre Entwicklung der Spiele. Denn wie stark die Leistungssprünge zwischen Konsolen werden hängt auch einzig allein an der Hardwareentwicklung ab die nicht von den Konsolen beeinflusst wird.

Klar würden die Hardwareenwickler mehr Geld einnehmen, wenn alle nur PCs kaufen würden.
Das würde die Entwicklungsgeschwindigkeit aber kaum beeinflussen.

Entwicklung braucht nun einmal Zeit und lässt sich nicht großartig durch mehr Geld verkürzen.

Edit:

Hab dir sogar extra mal 'was hingepaintet:
http://www.abload.de/img/leistungsentwicklung3juew.jpg

Ohne Konsolen steigt die Gerade des PCs auch nicht.
Wobei es mittlerweile eh keine gerade mehr ist, da die Leistung langsamer steigt als in der Vergangenheit und die Schritte zwischen Fertigungsprozessen größer werden.