PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Unlimited Detail: Vaporware oder die Zukunft der Grafik?


Seiten : [1] 2

Kephis
2010-03-10, 13:54:57
Tja Frage steht im Titel, kann mir einer der Experten hier sagen ob das überhaupt machbar ist und wenn ja wie? Für mich als Laie hört sich das doch eher nach Vaporware an, oder irre ich?

Für alle die nicht wissen was Unlimited Data ist hier ein Link:
http://www.gametrailers.com/user-movie/future-of-game-graphics/341479?playlist=featured

Hier noch ein Link:
http://unlimiteddetailtechnology.com/

Neomi
2010-03-10, 16:27:52
Das, was da zu sehen ist, ist eine begrenzte Menge an Instanzen aus einem begrenzten Pool von Modellen mit jeweils einer begrenzten Anzahl an Punkten, das alles auch noch komplett statisch. Das "Unlimited" im Namen ist schon zu offensichtlicher Quatsch, um sich damit ernsthaft auseinanderzusetzen. Unendlich viele Punkte können nicht in endlich viel Speicher gespeichert werden, egal wie stark komprimiert. Und auch eine Suche nach einem passenden Punkt pro Pixel wird wohl mindestens logarithmische Laufzeit haben. Und was ist noch gleich der Logarithmus von Unendlich? Unendlich natürlich. Dazu gibt es noch weitere wirklich grobe Schnitzer...

- Ein Punkt pro Pixel, wie im Video und auf der Seite genannt, reicht nicht. Pro Pixel benötigt man jeden Punkt, der in irgendeiner Weise dazu beiträgt. Sonst hat man nicht nur fürchterliches Aliasing, sondern verzichtet auch noch auf Schatten, Reflektionen und Transparenz.

- Eine perfekt runde Oberfläche hat nicht unendlich Details, sondern nur "unendlich" viele Flächen. Wobei das eigentlich auch nicht stimmt, eine Kugel hat je nach Sichtweise einfach nur eine Fläche. Und eine Kugel hat weniger Details als ein Würfel, was die reine Form angeht.

- Die Erklärung, wie das ganze jetzt funktionieren soll, geht auf die eigentlichen Probleme gar nicht ein. Quasi keine echte Erklärung.

hell_bird
2010-03-11, 16:32:54
Ich kann mir bei der Demo gerade nichts anderes als Volume Raycasting vorstellen. Der tolle Suchalgorithmus ist dann irgend eine geeignete Baumstruktur mit den bekannten Problemen. "Zufälligerweise" hat man ja auch nur statische Geometrie gesehen.

Diese Idee wurde ja auch schon von id-Software aufgegriffen und warum sollte es nicht irgendwann bei den statischen Anteilen der Szene zum Einsatz kommt.

Wo wäre eigentlich beim Volume Raycasting das Bottleneck? In der Bandbreite? Kann man das inzwischen mit den großen GPU-Caches schon in Echtzeit bei geeigneten Auflösungen berechnen?

// edit: haha passenderweise hat das "Technology Comparison Video" den Titel "propaganda 2009"

Gast
2010-03-11, 19:38:07
Hmm, also sie geben vor die ultimative 3D-Engine programmiert zu haben, aber haben so eine Website? Irgendwie riecht das ganze wie die Phantom-Konsole ...

Baalzamon
2010-03-12, 16:27:52
Ich würde das ganz ähnlich wie neomi sehen, wenn ich mich jetzt auch nicht am 'unlimited' aufhängen würde, das ist einfach nur ein 'Marketing' Name.

Interessant wäre tatsächlich wie das funktionieren soll.

* Point Cloud Search Algorithm
Ja wie denn? Wie heisst den der Algorithmus, in welchem Paper kann ich den nachlesen? Auf welcher SigGraph wurde das gezeigt? In welcher Datenstruktur wird die Punktwolke gehalten? Wie verhält sie sich, wenn ich nicht nur darin suchen will (Kamera) sonder neue Punkte in Echtzeit einfügen oder löschen will?

* Mass connected processing
Ah ja. :| Wie denn? Alles auf einem SingleCore in Software? Würden sie die GPU für parallele Rechnungen nutzen oder einen andern SIMD-Prozessor könnte ich das noch verstehen. Aber so? Wie soll den dieses neue revolutionäre Verfahren aussehen? In welchem Paper kann ich das denn nachlesen?

Solange ich da keinen wissenschaftlichen Hintergrund, oder auch nur ansatzweise eine Erklärung für bekomme, bzw. das Ganze live bei mir zuhause mit dynamischen Objekten sehe, glaube ich da nicht dran.

Grey
2010-03-12, 17:15:19
Schreibt den Leuten doch einfach mal eine Mail. Meiner Erfahrung nach sind die häufig kommunikativ.

Man muss die Leute doch nicht immer als unnahbare arrogante BWL-Juppies sehen.

Gast
2010-03-13, 16:21:37
Hier mal ein etwas realistischeres Beispiel:
http://www.atomontage.com/?id=home

Gast
2010-03-13, 16:45:39
Id Tech 5 benutzt so etwas ähnliches.

Id Tech 5 Engine Demo HD
http://www.youtube.com/watch?v=XnBPqrhY3hw

fdk
2010-03-13, 19:50:04
Ein Comeback der Voxel? Das die Technik Potential hat sah man ja schon bei Outcast, wenn man das Ganze dank gpgpu-trend irgendwann auf der Grafikkarte laufen lassen kann - wieso nicht. Wenn man sich den theoretischen Performanceunterschied PIII <> 5870 ansieht könnte das durchaus Schick werden. Allerdings wird es das auch nicht einfacher haben als RT, immerhin hängt ja derzeit alles von der Grafik über die AI bis zur Soundberechnung an den Polygonen.
Und dann gibt es ja immernoch die Konsolen deren Techlevel-Beschränkung auf mehrere Jahre solchen im Prinzip interessanten Ansätzen schnell den Gar aus machen können.

Sephiroth
2010-03-13, 20:47:44
Hier mal ein etwas realistischeres Beispiel:
http://www.atomontage.com/?id=home
Ein Comeback der Voxel? ...
Laut Webseite und Video ist es eben was anderes als Voxel.

Coda
2010-03-13, 21:10:10
Was mich stutzig macht ist das komplette Fehlen irgendwelcher wissenschaftlichen Beschreibungen etc.

Gast
2010-03-14, 01:46:52
Die Voxel wie man sie von "früher" kennt sind eine Art Streifen, diese hier
sind richtige Punkte/Vektoren ähnlich wie Point Sprites.

andererGast
2010-03-14, 04:36:18
Voxel waren eher Würfel und keine Streifen. Und nicht ausgedehnte Punkte können das hier auch nicht sein, denn sonst bräuchten die schon überabzählbar unendlich viele davon, damit die Aussage ein Punkt pro Pixel wieder hinkommt, denn sonst wäre die Wahrscheinlichkeit mit einem Strahl pro Pixel einen Punkt in der Cloud zu treffen genau 0% (kann trotzdem mal vorkommen, dass man einen findet, aber i.a. nicht). Also müssen die nicht-Voxel auch irgendwie ausgedehnt sein, und wenn das dann keine Würfel, sondern Kugeln oder Pferde sind macht bei hinreichender Auflösung der Point Cloud keinen Unterschied.

Tigerchen
2010-03-14, 06:41:17
Voxel waren eher Würfel und keine Streifen. Und nicht ausgedehnte Punkte können das hier auch nicht sein, denn sonst bräuchten die schon überabzählbar unendlich viele davon, damit die Aussage ein Punkt pro Pixel wieder hinkommt, denn sonst wäre die Wahrscheinlichkeit mit einem Strahl pro Pixel einen Punkt in der Cloud zu treffen genau 0% (kann trotzdem mal vorkommen, dass man einen findet, aber i.a. nicht). Also müssen die nicht-Voxel auch irgendwie ausgedehnt sein, und wenn das dann keine Würfel, sondern Kugeln oder Pferde sind macht bei hinreichender Auflösung der Point Cloud keinen Unterschied.
Wenn ich mich recht erinnere waren Voxel Quadrate mit Höheninformation (?). Also eigentlich mehr 2D.

mboeller
2010-03-14, 08:42:02
Voxels auf der Oberfläche von Objekten sind Surfels:

http://www.merl.com/projects/surfels/

Kephis
2010-03-14, 09:07:16
Kann mir das wer erklären plz! Sie haben also einen Suchalgo ähnlich wie Google, Bing und dergleichen und können damit in echtzeit die Pointcloud nach den benötigten Daten absuchen?!

"We have a way, a rather complicated way, of searching through unlimited amounts of Pointcloud data and grabing only the points that we need. How many do we need? Well we really only need one for every Pixel on the Screen if your resolution ist 1024x768 thats all the points you need . Its a little bit complicated to be able to grab exactly the ones you need taking in consideration things like perspective, how close the object is, is anything covering the object, etc but we found ways around this. So our Algorythm is fastly different to Voxel, which is conventionell ways of doing Pointcloud Data, thats limited, avoid that. Its different to Polygons, its different to raytraycing!"

Btw ein zweites Video:
http://www.gametrailers.com/user-movie/unlimited-detail-comparison/341570

Im Prinzip wäre das ja eine Art imitieren der realen Welt so das man quasi je nach Rechenpower Objekte Atom für Atom nachbauen könnte, oder? Damn der Suchalgo muß Hammer sein, warum sie daraus nicht ne Suchmaschine machen frag ich mich, natürlich wenn das alles stimmt was sie uns auftischen!

DaBrain
2010-03-14, 09:34:36
Und mit welcher Software soll ich dann bitte die Modelle erstellen?

http://upload.wikimedia.org/math/d/2/4/d245777abca64ece2d5d7ca0d19fddb6.pngD Studio Max?

Selbst wenn man Polygon Modelle einfach umwandeln könte...
Also ich finde die Sache sehr fragwürdig.

Es kann ja wirklich immer mal jemand eine geniale Idee haben, aber hier passen einige Sachen einfach nicht gut zusammen.

Warum wird es auf der GDC vorgestellt? Wäre die Sigraph nicht besser für die Vorstellung einer neuen Technik?
Das Logo sieht furchtbar aus... und die Website noch schlimmer... Sonderlich professionell ist das nicht.


Ich denke wie erst man Unlimited Detail nehmen kann, wird man daran erkennen können welcher Geldgeber sich dahinter stellen wird, falls es einer tut.

Gast
2010-03-14, 19:53:16
So wirklich neu ist die Idee ja nicht. Gab doch sogar mal ein Spiel, dass nicht Voxel sondern Kugeln benutze, was ja diesem PointClouds schon recht ähnlich ist. Da noch eine ordentliche hierarchische instanzierende Datenstruktur, die man clever durchsuchen kann und fertig ist das ganze teil.
Das Problem bei Punkten/Voxeln gegenüber Polygonen ist nur, dass die keine Oberfläche, bzw keinen Oberflächenvektor haben. Damit kann man dann auch keine SChöne Echtzeitbeleuchtung machen. Und das ist heute schon ein ziemliches Problem.

Gruss,
Steffen Bendel

PS:
Ich hatte vor 10 Jahren mal einen Raytracer mit rekursiver Geometrie geschrieben (gerade getestet, läuft mittlerweile auf Multicore echt flott). Da hatten die Objekte potentiell auch unendlich viele Grundobjekte. Muss man aber beschränken, sonst bleibt das Program hängen, wenn man dorthin guckt, wo die Rekursion nicht abbricht wird (ähnlich wie beim Apfelmänchen an den Stellen, an denen der Algorithmus nicht endet)

lilgefo~
2010-03-15, 01:56:24
and it uses UNNLIMIIITED....and the tress are UNLIIMIITTED....so you see UNNLIMMITTED...gott nervt das xD

huha
2010-03-15, 03:20:58
Voxel sind Volume Elements, also 3d-Pixel. Ob man die nun rund, eckig oder sonstwie macht, ist eine Frage der Programmierung und nicht genau definiert.

In den Demos ist nicht nur die extrem häßliche Graphik zu sehen, die in einem einzigen graubraunen Matsch endet (man sieht so gut wie nichts!), sondern auch gelegentliche Probleme mit Schatten. Klingt für mich wie eine etwas bessere Voxelgraphik, wobei man für schnelle Suchen die Daten auch irgendwie im Speicher vorhalten muß--so unbegrenzt kann die Datenbasis also schon deswegen nicht ausfallen.

-huha

tombman
2010-03-15, 03:33:12
Solange die mit ihren supergeilen Technik nicht mal ne ansehnliche Szene hinbekommen, nimmt die doch keiner ernst. Da engagier ich doch ein paar Profikünstler, wenn ich selbst den skill nicht habe. Und jo, die Schatten waren ja grausam poppig.

Btw, wer braucht die Typen noch, wenn es schon Tesselation gibt?

Grafik ist IMO weniger das Problem, eher Physik und Interaktion.

Kephis
2010-03-22, 08:01:53
Was meint ihr dazu? Unlimited Detail wants to kill 3D graphic cards! (http://www.rockpapershotgun.com/2010/03/10/unlimited-detail-wants-to-kill-3d-cards/?utm_source=feedburner&utm_medium=feed&utm_campaign=Feed%3A+RockPaperShotgun+%28Rock%2C+Paper%2C+Shotgun%29)

Das wäre dann ein Todesstoß für ATI/Nvidia würde sich sowas in der Art durchsetzten, oder?
Und wahrscheinlich ist das auch einer der Gründe das sich sowas in der Art nicht schon durchgesetzt hat, da das meiste an R&D in dem Bereich von Firmen finanziert wird die logischerweise kein Interesse haben irgendwas anderes als Polygonbasierte Grafik zu supporten.

Und wie funktioniert das eigentlich mit non static objects? Denn in den ganzen Videos und Screens ist alles immer nur statisch. Denn dann kann die Grafik so toll aussehen wie sie will, wenn alles statisch ist dann kommt man sich ja eher wie in einem Gemälde vor als in einem Game. Eher so wie in den alten Resident Evil oder Final Fantasy Games mit vorgerenderten Hintergründen oder in vielen Adventures. Ausserdem was für eine Rechenpower bräuchte man wenn man dann noch die Physik für jeden einzelnen Punkt in der Pointcloud Data berechnen wollen würde? Das wäre doch niemals machbar, oder?

Geht nicht auch John "The fucking genius" Carmack den Voxel Weg in seiner neuen Engine? Ich weiß das er sich in seinen letzten Auftritten immer auf die Megatextures fokusiert hat und darüber viel gesprochen hat aber irgendwo bilde ich mir ein gelesen zu haben das seine Engine auch auf Voxel setzt (nicht nur)?!

Gast
2010-04-11, 19:36:15
Ich fürchte die Rendertechnik kann weder Schatten noch Reflektionen berechnen.
Das ganze müßte dann statisch vorberechnet werden

hell_bird
2010-04-11, 21:01:20
Das wäre dann ein Todesstoß für ATI/Nvidia würde sich sowas in der Art durchsetzten, oder?
Und wahrscheinlich ist das auch einer der Gründe das sich sowas in der Art nicht schon durchgesetzt hat, da das meiste an R&D in dem Bereich von Firmen finanziert wird die logischerweise kein Interesse haben irgendwas anderes als Polygonbasierte Grafik zu supporten.
Massive Rechenpower also GPGPU wird vermutlich auch hier gebraucht. Ich denke nicht, dass ATI oder nVidia etwas dagegen haben.

Und wie funktioniert das eigentlich mit non static objects? Denn in den ganzen Videos und Screens ist alles immer nur statisch. Denn dann kann die Grafik so toll aussehen wie sie will, wenn alles statisch ist dann kommt man sich ja eher wie in einem Gemälde vor als in einem Game. Eher so wie in den alten Resident Evil oder Final Fantasy Games mit vorgerenderten Hintergründen oder in vielen Adventures. Ausserdem was für eine Rechenpower bräuchte man wenn man dann noch die Physik für jeden einzelnen Punkt in der Pointcloud Data berechnen wollen würde? Das wäre doch niemals machbar, oder?
Ich kann es nicht herleiten, aber rein nach Gefühl kann das gar nicht dynamisch sein. Der sogenannte Suchalgorithmus kann nur dann eine Logarithmische Zeit haben, wenn alles in einer baumartigen Struktur ist, die nur sehr begrenz dynamisch ist. Alles andere (vermutlich Lineare Zeit) wäre aber für "unlimited" Punkte nicht geeignet.

Geht nicht auch John "The fucking genius" Carmack den Voxel Weg in seiner neuen Engine? Ich weiß das er sich in seinen letzten Auftritten immer auf die Megatextures fokusiert hat und darüber viel gesprochen hat aber irgendwo bilde ich mir ein gelesen zu haben das seine Engine auch auf Voxel setzt (nicht nur)?!
Ja und dem traue ich zu dass es Ergebnisse gibt (im Gegensatz zu diesem unlimited data Scherz). Die dynamische Geometrie will Carmack glaub ich wie gehabt mit Dreiecken rendern.
Das soll einfach die verallgemeinerung von der Megatextur sein. Unglaubliche Geometrie-/Farb-/Materialdetails, die zur Laufzeit hineingestreamt werden.
Ich fürchte die Rendertechnik kann weder Schatten noch Reflektionen berechnen.
Das ganze müßte dann statisch vorberechnet werden
Garantiert einfacher als bei Dreiecken, da ja Pixelweise gerendert wird und keine Trennung zwischen Geometrie und Textur besteht.

san.salvador
2010-04-11, 21:05:57
Wäre es nicht eine Möglichkeit, beides zu kombinieren?
Für den statischen Inhalt nimmt man UD (sofern das kein Hoax ist), und alles animierte wird klassisch erzeugt und dann hineingelegt.
Zu märchenhaft? :)

Gast
2010-04-11, 21:39:14
Garantiert einfacher als bei Dreiecken, da ja Pixelweise gerendert wird und keine Trennung zwischen Geometrie und Textur besteht.

Nö, um eine Reflektion berechnen zu können brauchst du den Einfallswinkel zu einer Oberfläche. Den gibt es aber bei einem punktförmigen Pixelobjekt aber gar nicht.

Erst in Kombination mit mehreren punktförmigen Objekten kannst du daraus eine Fläche bilden und erst dann eine Reflektion errechnen.
Aber genau das, dürfte unglaublich rechenintensiv sein wenn die Nachbarn erstmal zu einer Fläche umgerechnet werden sollen.

Da sind Polygone in dieser Hinsicht sehr einfach zu handhaben.

hell_bird
2010-04-11, 23:50:36
Nö, um eine Reflektion berechnen zu können brauchst du den Einfallswinkel zu einer Oberfläche. Den gibt es aber bei einem punktförmigen Pixelobjekt aber gar nicht.
Ich war davon ausgegangen, dass jedem Punkt neben Farb und Materialeigenschafen auch ein Normalenvektor mitgegeben wird. Ansonsten kann man ja nicht einmal Beleuchtung damit umsetzen.

id-Software hat übrigens auf der siggraph 2008 auch eine kleine Demo von ihrer Voxel Rendertechnik gegeben:
YouTube (http://www.youtube.com/watch?v=VpEpAFGplnI)
Folien (http://s08.idav.ucdavis.edu/olick-current-and-next-generation-parallelism-in-games.pdf)

Tesseract
2010-04-12, 00:18:51
Unendlich viele Punkte können nicht in endlich viel Speicher gespeichert werden, egal wie stark komprimiert.

natürlich kann man das wenn du nicht die punkte selbst sondern z.B. eine rekursive definition davon speicherst. siehe fraktale.

allerdings ist sowas dann zwar mathematisch "unendlich genau", aber nicht gestalterisch. am ende muss der content trotzdem noch von irgendjemandem zusammengesetzt werden.
wenn die behaupten ihr dachziegel hat mehr details als als eine ganze stadt auf polygonbasis klingt das zwar am papier toll, ist im grunde aber heiße luft weil ab irgendeinem punkt der ganze rest der details auch nur irgendwas rekursives ist.

das ist in etwa so als würde man den spieler durch eine unendlich lange röhre laufen lassen und behaupten "die spielwelt ist größer als alles was es bisher hab".

das wirklich interessante an dem ganzen ist imho, wie sie es geschafft haben einen algorithmus zu bauen, der aliasingfrei und performant die passenden punkte suchen kann. aber darüber verlieren sie kein wort.

ShadowXX
2010-04-12, 00:44:08
das wirklich interessante an dem ganzen ist imho, wie sie es geschafft haben einen algorithmus zu bauen, der aliasingfrei und performant die passenden punkte suchen kann. aber darüber verlieren sie kein wort.
Weil Sie Ihn nicht haben....das ganze ist eine Investoren-Blase. Die warten darauf das jemand dumm genug ist in Sie zu investieren.

Gast
2010-04-12, 01:40:30
Weil Sie Ihn nicht haben....das ganze ist eine Investoren-Blase. Die warten darauf das jemand dumm genug ist in Sie zu investieren.

Kein Investor wäre aber so doof und liese sich das Zeug nicht direkt am Computer in Echtzeit zeigen.

Neomi
2010-04-12, 13:44:35
natürlich kann man das wenn du nicht die punkte selbst sondern z.B. eine rekursive definition davon speicherst. siehe fraktale.

Unendlich viele Punkte kann man also doch "speichern", indem man sie generiert, anstatt sie zu speichern? Ah ja... :D

Abgesehen davon, daß zusätzliche generierte Punkte keine zusätzlichen Details sind, dürfte eine Laufzeit-Generierung auch technisch nicht drin sein. Zumindest müßte man dann pro Pixel gleich alle in Frage kommenden Generatoren berücksichtigen und erstmal gezielt jeweils einen Punkt generieren, was auch nicht bei allen Arten von Generatoren möglich sein dürfte. Ein Generator müßte auch nicht zwangsläufig die gleiche Punktwolke zu unterschiedlichen Zeiten ausspucken, eine so elendig statische Anzeige wäre bei so einem Ansatz also gar nicht nötig.

Metzler
2010-04-12, 13:48:46
Das System scheint schon recht alt zu sein (frag mich, ob daran überhaupt noch gearbeitet wird).
Auf jeden Fall diskutiert hier
http://www.tkarena.com/Articles/tabid/59/ctl/ArticleView/mid/382/articleId/38/Death-of-the-GPU-as-we-Know-It.aspx
einer der Entwickler mit ein paar Usern, es wird auch ein Link auf ein wissenschaftliches Paper genannt, welches wohl mit dem Prinzip verwandt ist.

Ailuros
2010-04-12, 14:33:03
Das System scheint schon recht alt zu sein (frag mich, ob daran überhaupt noch gearbeitet wird).
Auf jeden Fall diskutiert hier
http://www.tkarena.com/Articles/tabid/59/ctl/ArticleView/mid/382/articleId/38/Death-of-the-GPU-as-we-Know-It.aspx
einer der Entwickler mit ein paar Usern, es wird auch ein Link auf ein wissenschaftliches Paper genannt, welches wohl mit dem Prinzip verwandt ist.

Er diskuttierte mit ihnen in 2008. Seither sehe ich nichts von ihm. Der letzte Beitrag von 2010 spiegelt sich aehnlich wie in manchen Reaktionen in diesem Thread wieder:

No, that doesn't sound technical at all, it sounds 100% like marketing hype. I understand the need to get potential investors stoked, but for anyone even casually knowledged in 3D tech the enthusiastic description is a mild insult to intelligence. Some down to earth objectivity would but lend credibility to the project and the budding enterprise.

Showtime
2010-04-12, 14:53:41
Würde mich nicht wunder, wenn das Zeug nur auf einer Bitboys Grafikkarte anständig performt...

Fetza
2010-04-12, 15:45:50
Hmm, also ich fand die vids, die ich jetzt bei golem.de sehen konnte schon sehr beeindruckend, was den detailgrad angeht.

Angeblich sollen in 16 monaten ja sogar schon spiele auf den markt kommen, die jungs müssen sich also ziemlich sicher sein.

http://www.golem.de/1004/74399.html

Sind sich die experten hier sicher, das dieser ansatz keine zukunft hat?

Brillus
2010-04-12, 17:23:09
Hmm, also ich fand die vids, die ich jetzt bei golem.de sehen konnte schon sehr beeindruckend, was den detailgrad angeht.

Angeblich sollen in 16 monaten ja sogar schon spiele auf den markt kommen, die jungs müssen sich also ziemlich sicher sein.

http://www.golem.de/1004/74399.html

Sind sich die experten hier sicher, das dieser ansatz keine zukunft hat?

Also ich sehe es auch wie viele andere hier so ziemlich alles was man gesehn hat ist statische Geometrie. Das heiß Suche in readonly Data das geht schnell.

Für vernünftigen Spieleeinsatz brauhct du aber was wo schnell lesen und schreiben kannst, basieredn auf der Position (du benötigist Kollision mit Strahlen und die ergebnisse sortiert) Wenn die wirklich so was hätten würde die bestimmt nicht nur 3D-Grafik machen.

Ailuros
2010-04-13, 08:16:54
Hmm, also ich fand die vids, die ich jetzt bei golem.de sehen konnte schon sehr beeindruckend, was den detailgrad angeht.

Angeblich sollen in 16 monaten ja sogar schon spiele auf den markt kommen, die jungs müssen sich also ziemlich sicher sein.

http://www.golem.de/1004/74399.html

Sind sich die experten hier sicher, das dieser ansatz keine zukunft hat?

Und was ist in den vergangenen 2 Jahren genau passiert?

Aus Deinem Link:

Derzeit sucht das Unternehmen nach Investoren und arbeitet an einem Software Development Kit (SDK). Spiele und anderen Anwendungen, die auf der neuen Technologie basieren, sollen in rund 16 Monaten auf den Markt kommen können.

Bruce Dell (einer der Entwickler von dem Zeug) am 1. April 2008:

http://www.tkarena.com/Articles/tabid/59/ctl/ArticleView/mid/382/articleId/38/Death-of-the-GPU-as-we-Know-It.aspx

No we are not looking for venture capitalists. They have come to us before. They draw a big box on a white board, then they put a line through the middle, then another line through half of that and another through half of that etc etc etc. then they say “And see that 10%, that’s what you get !, buts its still very good as even Bill Gates doesn’t own more then 10% of Microsoft”. So we kindly escort them to the door and wish them a lovely day.

I would like nothing more than to tell the world how it is done, because the system is quite unique.
At present how ever I thank you for understanding the current need for secrecy. We had our first meeting today with a company. Where the technology could finally be explained under NDA and real time examples shown. I was pleased with the response and how quickly the system was grasped.
By no means is the system simple, but it is logical, and this adds to quick understanding.
I apologise for the impoliteness of keeping secrets, its very bad manners, and I hope to have it as publicly understood knowledge by the end of the year. We are off to America in a few weeks to see the interested parties who have invited us, there are some companies who have not yet heard of this technology who we would like to see, if any of you are from a company that does not yet have a presentation with Unlimited Detail, then please contact me. unlimited_detail@hotmail.com

Ergo wandern sie seit 2 Jahren mit dem Zeug rum und es gibt in der Zwischenzeit nichtmal ein SDK fuer es noch eine anstaendige technische Erklaerung wie es genau vorgeht.

Und zum Punkt wo wir das Zeug schon vergessen hatten, taucht das Zeug wieder auf in den Medien aber ohne eine halbwegs logische technische Erklaerung nach 2 Jahren.

Wenn es wirklich eine so revolutionaere Erfindung ist frage ich mich ernsthaft warum niemand bis jetzt in das Zeug investiert hat.

DR.ZEISSLER
2010-04-13, 13:51:14
das klingt sehr interessant und vor allem auch logisch.
gab es nicht mal so ne kyro oder ähnlich, wo auch verdeckte
objekte nicht berechnet wurden ? das ganz hier scheint zwar noch effektiver, aber ist vermutlich auch schwer umzusetzen für die spieleentwickler ?

woher weis man denn, wie man ein objekt erstellt und wie das letztlich im raum aussieht;
ich stelle mir das schwierig vor; außerdem hatte bspw. eine ähnlich technology (voxel) zumindest bei outcast auch ein wenig ein flackerproblem von sich überlagernden voxels (ist aber meckern auf hohem niveau)

PS: sofern denn das geld ausgeht, werden die von nvidia sicher geschluckt und die technology eingestampft. (war es nicht bei 3dfx auch so ?)


Doc

Henroldus
2010-04-13, 14:25:25
So wirklich neu ist die Idee ja nicht. Gab doch sogar mal ein Spiel, dass nicht Voxel sondern Kugeln benutze, was ja diesem PointClouds schon recht ähnlich ist.
Es waren Ellipsoide ;) und hier das Spiel:
http://en.wikipedia.org/wiki/Ecstatica
http://www.mobygames.com/images/i/01/30/461630.png

killacat
2010-04-13, 14:31:28
Entschuldigt mein nicht allzu ausgeprägtes Fachwissen auf dem Gebiet, aber wenn die von "unlimited" sprechen, disqualifizieren sie sich doch von selbst! Es muss doch immer eine limitierte Datenbasis geben, aus der was auch immer wie auch immer generiert wird. Wo soll die denn dann gespeichert werden? Im unlimitierten RAM, den sie gleich mitliefern?

Rekursion oder was auch immer erzeugt doch keine zusätzlichen (realistischen) Details, sondern nur tote Masse, oder versteh ich das falsch?


*lol* Ich seh grad meine Sig ist gute 7 Jahre nicht mehr aktualisiert worden!

DR.ZEISSLER
2010-04-13, 19:11:39
das darstellungsverfahren ist doch auch limitiert und zwar auf die sichtbaren pixel.
alles was verdeckt ist wird nicht berechnet. die software filtert die sichtbaren bildpunkte der objekte heraus und so muss die hardware nur die wirklich sichtbaren pixel der gewählten auflösung berechnen.

so hab ich das verstanden.

san.salvador
2010-04-13, 19:20:07
Wenn ichs verstanden habe, liegst du völlig falsch.
Der Witz ist ja der, dass hier nichts berechnet wird, sondern die Pixel/Punkte in einer Liste gesucht und einfach nur dargestellt werden.

Aquaschaf
2010-04-13, 19:28:58
Der Witz ist ja der, dass hier nichts berechnet wird, sondern die Pixel/Punkte in einer Liste gesucht und einfach nur dargestellt werden.

Wenn nichts berechnet würde, dann müsste gespeichert werden wie jeder Punkt aus jeder Richtung mit jeder möglichen Beleuchtung aussieht.

Ailuros
2010-04-14, 07:53:03
das klingt sehr interessant und vor allem auch logisch.
gab es nicht mal so ne kyro oder ähnlich, wo auch verdeckte
objekte nicht berechnet wurden ? das ganz hier scheint zwar noch effektiver, aber ist vermutlich auch schwer umzusetzen für die spieleentwickler ?

KYRO war eine tile based deferred rendering GPU die hidden surface removal (HSR) ausfuehrte. Die Technologie lebt auch heute noch weiter aber da Imagination Technologies nur IP entwickelt haben sie sich genau auf den Markt konzentriert wo IP am meisten Sinn macht: embedded SoCs fuer handhelds/smartphones/netbooks (wenn IMG MBX und IMG SGX Dir etwas sagen sollte).

Seit NV20 benutzen GPUs earlyZ (oder auch hierarchicalZ) welches ebenso HSR ausfuehrt aber eben nur auf front to back order begrenzt, wobei aber sowieso die Mehrzahl der Applikationen auf front to back getuned sind.

woher weis man denn, wie man ein objekt erstellt und wie das letztlich im raum aussieht;
ich stelle mir das schwierig vor; außerdem hatte bspw. eine ähnlich technology (voxel) zumindest bei outcast auch ein wenig ein flackerproblem von sich überlagernden voxels (ist aber meckern auf hohem niveau)

PS: sofern denn das geld ausgeht, werden die von nvidia sicher geschluckt und die technology eingestampft. (war es nicht bei 3dfx auch so ?)


Doc

Tja der Haken ist eben dass man aus den zu vereinfachten Beschreibungen sich nichts ausdenken kann. Aber erstmal egal wie das Zeug vor sich geht ...Algorithmen und Ideen werden unter normalen Umstaenden relativ schnell aufgeschnappt wenn sie etwas wert sind. Ich kann mich noch gut erinnern als jemand im B3D forum auf parallax mapping deutete und es war nur eine Frage der Zeit bis es in Spielen erschienen ist. Ein weiteres Beispiel waere MLAA (ist doch eine quasi Intel research Erfindung oder?) welches heute stellenweise in Konsolen auftaucht. Oder auch etwas weiter zurueck EMBM welches von Bitboys OY entwickelt wurde.

Es gibt sicher noch weitere Beispiele, aber die zu wenigen Informationen zur Methode und dass sich bis jetzt noch keiner ueber das Zeug interessiert hat gibt mir ein muerbes Gefuehl. Von Rauch und Qualm "Revolutionen" haben wir in der 3D Geschichte die Nase voll und wenn's schon sein muss, waere es tatsaechlich etwas dass den "Tod der GPU so wie wir sie kennen" bedeuten wuerde waere Intel als erste Firma daran interessiert, da es auch eher in ihre "sw Revolutions-Ideen fuer GPUs" passt.

del_4901
2010-04-14, 09:31:28
Seit NV20 benutzen GPUs earlyZ (oder auch hierarchicalZ) welches ebenso HSR ausfuehrt aber eben nur auf front to back order begrenzt, wobei aber sowieso die Mehrzahl der Applikationen auf front to back getuned sind.
Das ist ein wunderbares Futter für Missverständnisse. Front to Back zeichnet Niemand heutzutage, mal abgesehen von den wenigen transparenten Objekten.
Bei earlyZ wird nen Z-Prepass gerendert und danach wird alles nochmal gezeichnet, aber diesmal mit den teuren Shadern, die aber nun verworfen werden können.

Demirug
2010-04-14, 09:41:30
Das ist ein wunderbares Futter für Missverständnisse. Front to Back zeichnet Niemand heutzutage, mal abgesehen von den wenigen transparenten Objekten.
Bei earlyZ wird nen Z-Prepass gerendert und danach wird alles nochmal gezeichnet, aber diesmal mit den teuren Shadern, die aber nun verworfen werden können.

Hardware earlyZ bedeutet das die Hardware den depth Wert prüft bevor ein Pixel in den Pixelshader geht. Dazu werden dann häufig noch spezielle kleinere Depthbuffer mit Min/Max Werten benutzt um gleich Blöcke von Pixel verwerfen zu können.

Der Z-Prepass ist eine Software methode um diese zu füllen. Kann man aber günstig Front to Back sortieren kann dies ohne Z-Prepass sogar schneller sein.

PS: Für transparente Objekte rendert man back to front. Painter eben.

del_4901
2010-04-14, 10:13:11
Hardware earlyZ bedeutet das die Hardware den depth Wert prüft bevor ein Pixel in den Pixelshader geht. Dazu werden dann häufig noch spezielle kleinere Depthbuffer mit Min/Max Werten benutzt um gleich Blöcke von Pixel verwerfen zu können.

Der Z-Prepass ist eine Software methode um diese zu füllen. Kann man aber günstig Front to Back sortieren kann dies ohne Z-Prepass sogar schneller sein.

PS: Für transparente Objekte rendert man back to front. Painter eben.
Stimmt Transparenz von hinten anch vorn. Kommt davon wenn man nicht erst schreibt und dann denkt.
Günstig sortiern ist aber so eine Sache, bei den meissten anwendungen findet man das eher nicht, da es zu teuer ist.

DR.ZEISSLER
2010-04-14, 13:43:35
soll angeblich interessant sein ??
ich find da jetzt nix spannendes dran:

WHOIS information for unlimiteddetailtechnology.com : [Querying whois.verisign-grs.com] [whois.verisign-grs.com]

Whois Server Version 2.0

Domain names in the .com and .net domains can now be registered
with many different competing registrars. Go to http://www.internic.net
for detailed information.

Domain Name: UNLIMITEDDETAILTECHNOLOGY.COM
Registrar: ENOM, INC.
Whois Server: whois.enom.com
Referral URL: http://www.enom.com
Name Server: NS44.MOCHAHOST.COM
Name Server: NS45.MOCHAHOST.COM
Status: clientTransferProhibited
Updated Date: 04-sep-2009
Creation Date: 04-sep-2009
Expiration Date: 04-sep-2010

DR.ZEISSLER
2010-04-14, 18:29:37
http://www.vistainter.com/reviews/E/enom.com/
Wollen die damit sagen, dass das ein Betrügerladen ist ?

Irgendwie verstehe ich das ganze nicht.
http://www.insidemacgames.com/forum/index.php?showtopic=39431&pid=387523&st=0&#entry387523

Spasstiger
2010-04-14, 21:17:31
Punktewolken rendern? Damit verdient ein Kumpel sein täglich Brot. Kann mir nicht vorstellen, dass es sich für Echtzeit-3D in Spielen durchsetzt.

Ailuros
2010-04-15, 07:23:24
http://www.vistainter.com/reviews/E/enom.com/
Wollen die damit sagen, dass das ein Betrügerladen ist ?

Irgendwie verstehe ich das ganze nicht.
http://www.insidemacgames.com/forum/index.php?showtopic=39431&pid=387523&st=0&#entry387523

Muss nicht sein aber bei so viel sinnlosem Rauch und Qualm eine einfache hotmail Addresse und eine Heimadresse die zu einer Villa fuehrt die unter verkauft steht, duftet das ganze nach wie vor nach Kabeljau ;)

Das ist ein wunderbares Futter für Missverständnisse. Front to Back zeichnet Niemand heutzutage, mal abgesehen von den wenigen transparenten Objekten.
Bei earlyZ wird nen Z-Prepass gerendert und danach wird alles nochmal gezeichnet, aber diesmal mit den teuren Shadern, die aber nun verworfen werden können.

Der Sinn der Vereinfachung war lediglich zu zeigen dass IMRs in hw seit NV20 eine Verwerfung von ueberfluessigen Daten vornehmen koennen was vor NV20 eben nicht der Fall war. Mit Ausnahme von z.B. alpha blending und die paar anderen Stellen wo back to front anliegt, haben TBDRs in dem Bereich im Vergleich zu IMRs keinen besonderen Vorteil mehr. Vorteile fuer DRs an die ich mich gerade erinnern kann sind Speicher- und Bandbreiten-Verbrauch fuer AA (dafuer gibt's seit G80 hingegen CSAA fuer billiges high sample AA), MRTs und post-processing.

Gast
2010-04-15, 14:22:28
Unendlich viele Punkte kann man also doch "speichern", indem man sie generiert, anstatt sie zu speichern? Ah ja... :DDas ist eine Frage des Blickwinkels. Wenn man Rekursion als Kompression betrachtet, dann kann man das durchaus so sagen. Werden Daten nicht roh gespeichert, sondern komprimiert, dann führt das immer zu einem erhöhten Rechenaufwand. Ich sehe keinen Grund warum man Rekursion nicht in einer Linie mit anderen Kompressionsalgorithmen sehen sollte. So lange sich eine Datenmenge rekursiv beschreiben lässt, kann man damit sogar unendlich große Datenmengen verlustfrei komprimieren. Die Datenmenge lässt sich nur nicht mehr verlustfrei dekomprimieren, sofern man keine Maschine mit unendlich viel Speicher hat. ;)

Coda
2010-04-15, 15:12:42
Stimmt Transparenz von hinten anch vorn. Kommt davon wenn man nicht erst schreibt und dann denkt.
Günstig sortiern ist aber so eine Sache, bei den meissten anwendungen findet man das eher nicht, da es zu teuer ist.
Was ist daran zu teuer? Man traversiert von der Kamera aus den Scene-Graph von vorne nach hinten.

Es geht ja nicht darum auf Polygoneebene zu sortieren. Mesh reicht völlig, vor allem wenn man die auch noch mit ATIs Tootle o.ä. bearbeitet hat.

del_4901
2010-04-15, 15:46:45
Was ist daran zu teuer? Man traversiert von der Kamera aus den Scene-Graph von vorne nach hinten.

Es geht ja nicht darum auf Polygoneebene zu sortieren. Mesh reicht völlig, vor allem wenn man die auch noch mit ATIs Tootle o.ä. bearbeitet hat.
Das sollte man lieber abwägen, und evtl. lieber nach Batches sortieren. Das mag vllt bei Terrain ganz gut funktionieren, aber wenn dann eine komplette belebte Welt dazukommt?

Gauß
2010-04-15, 18:05:24
Was ist daran zu teuer? Man traversiert von der Kamera aus den Scene-Graph von vorne nach hinten.Nur doof das Szenengraphen höchstens in akademischen Kreisen verwendet werden weil man sich dort mit Dingen wie praktischer Effizienz zu selten auseinandersetzt.

Liege ich richtig mit der Vermutung das du noch keine signifikante Erfahrung in der Industrie gemacht hast?

Fetza
2010-04-15, 18:50:19
Also ich sehe es auch wie viele andere hier so ziemlich alles was man gesehn hat ist statische Geometrie. Das heiß Suche in readonly Data das geht schnell.

Für vernünftigen Spieleeinsatz brauhct du aber was wo schnell lesen und schreiben kannst, basieredn auf der Position (du benötigist Kollision mit Strahlen und die ergebnisse sortiert) Wenn die wirklich so was hätten würde die bestimmt nicht nur 3D-Grafik machen.

Und was ist in den vergangenen 2 Jahren genau passiert?

Aus Deinem Link:



Bruce Dell (einer der Entwickler von dem Zeug) am 1. April 2008:

http://www.tkarena.com/Articles/tabid/59/ctl/ArticleView/mid/382/articleId/38/Death-of-the-GPU-as-we-Know-It.aspx





Ergo wandern sie seit 2 Jahren mit dem Zeug rum und es gibt in der Zwischenzeit nichtmal ein SDK fuer es noch eine anstaendige technische Erklaerung wie es genau vorgeht.

Und zum Punkt wo wir das Zeug schon vergessen hatten, taucht das Zeug wieder auf in den Medien aber ohne eine halbwegs logische technische Erklaerung nach 2 Jahren.

Wenn es wirklich eine so revolutionaere Erfindung ist frage ich mich ernsthaft warum niemand bis jetzt in das Zeug investiert hat.

Hmm ok, also ist es dann warscheinlich doch nichts - schade.

Es waren Ellipsoide ;) und hier das Spiel:
http://en.wikipedia.org/wiki/Ecstatica
http://www.mobygames.com/images/i/01/30/461630.png

Ecstatica war damals so geil! Man was habe ich immer für panik bekommen, wenn der werwolf zum mampfen kam! :D

Coda
2010-04-15, 19:11:46
Nur doof das Szenengraphen höchstens in akademischen Kreisen verwendet werden weil man sich dort mit Dingen wie praktischer Effizienz zu selten auseinandersetzt.
Natürlich verwendet jedes Spiel verwendet eine Art von Scenegraph, sei es ein Octree, ein BSP-Tree oder eine Bounding Volume Hierarchy. Anders könnte man nichtmal effektiv Frustum Culling betreiben, geschweige denn fortschrittlicheres Culling (z.B auf Basis von Occlusion Queries) oder Raycasting für Kollisionserkennung.

Und das hat nichts mit "akedemischen Kreisen" zu tun. Hauptsache den Mund voll nehmen.

Gauß
2010-04-15, 19:53:39
Natürlich verwendet jedes Spiel verwendet eine Art von Scenegraph, sei es ein Octree, ein BSP-Tree oder eine Bounding Volume Hierarchy. Anders könnte man nichtmal effektiv Frustum Culling betreiben, geschweige denn fortschrittlicheres Culling (z.B auf Basis von Occlusion Queries) oder Raycasting für Kollisionserkennung.

Und das hat nichts mit "akedemischen Kreisen" zu tun. Hauptsache den Mund voll nehmen.Homogene Szenengraphen, die wie von dir beschrieben Verdeckungsprobleme durch eine einfache Traversierung der Struktur lösen sind ineffizient und werden daher in der Praxis nicht eingesetzt.

Übrigens ist auch deine Behauptung dass z.B. die Sortierung von Polygonen pauschal nicht notwendig währe einfach falsch. Selbst wenn man einzelne Dreiecke sortiert sind inkorrekte Ergebnisse bei der Transparenzmischung möglich.

Coda
2010-04-15, 19:55:46
Homogene Szenengraphen, die wie von dir beschrieben Verdeckungsprobleme durch eine einfache Traversierung der Struktur lösen sind ineffizient und werden daher in der Praxis nicht eingesetzt.
Könntest du von deinem hohen Ross herabsteigen und etwas genauer erklären was du meinst? So kommen wir hier nicht weiter. Ich studiere zwar Info, das heißt aber noch lange nicht, dass ich mich nicht auch praktisch mit 3D-Engine auseinandergesetzt hätte.

Was ich sicher weiß, ist dass Crysis einen Octree einsetzt, die Unreal-Engines einen BSP und den auch für diese Sachen nutzen. Quake und die ganzen Abkömmlinge (Valves Source und selbst noch Modern Warefare 1/2) sind wohl auch BSP-Engines. UT3 verwendet sogar ganz sicher Hardware-Occlusion-Queries auf die BSP-Nodes um das Verdeckungsproblem zu lösen.

Wenn man natürlich nur auf Portale für Vis setzt, dann geht's evtl. auch ohne, aber wie man gänzlich ohne hierarchische Struktur dann halbwegs effizient die Kollisionserkennung handhaben soll musst du mir erklären.

Und ohne hierarchische Struktur ist auch jegliches Frustum-Culling aus Mesh-Ebene O(n). Ich glaube kaum, dass das irgendwo gemacht wird.

Übrigens ist auch deine Behauptung dass z.B. die Sortierung von Polygonen pauschal nicht notwendig währe einfach falsch. Selbst wenn man einzelne Dreiecke sortiert sind inkorrekte Ergebnisse bei der Transparenzmischung möglich.
Darum geht's hier nicht, und das weißt du.

Ich gehe übrigens jede Wette ein, dass es nicht eine bekannte FPS-Engine da draußen gibt die nicht irgendeine hierarchische Szenen-Struktur einsetzt.

Gauß
2010-04-15, 20:09:25
Könntest du von deinem hohen Ross herabsteigen und etwas genauer erklären was du meinst? So kommen wir hier nicht weiter außer Anfeindung. Ich studiere zwar Info, das heißt aber noch lange nicht, dass ich mich nicht auch praktisch mit 3D-Engine auseinandergesetzt hätte.

Was ich sicher weiß, ist dass Crysis einen Octree einsetzt, die Unreal-Engines einen BSP und den auch für diese Sachen nutzen. Wenn man natürlich nur auf Portale für Vis setzt, dann geht's evtl. auch ohne, aber wie man gänzlich ohne hierarchische Struktur dann halbwegs effizient die Kollisionserkennung handhaben soll musst du mir erklären.Das Problem ist eben dass die Szene nicht durch einen Octree oder einen BSP-Baum repräsentiert wird, und es deswegen auch nicht "den einen" Szenengraphen gibt den man mal einfach mal so transformiert und damit Probleme wie Transparenz löst.

Darum geht's hier nicht, und das weißt du.Wieso auf einmal nicht mehr?

Coda
2010-04-15, 20:12:54
Das Problem ist eben dass die Szene nicht durch einen Octree oder einen BSP-Baum repräsentiert wird, und es deswegen auch nicht "den einen" Szenengraphen gibt den man mal einfach mal so transformiert und damit Probleme wie Transparenz löst.
Also kackst du wirklich nur auf der Nomenklatur rum.

Es ging mir nur darum, dass es irgend eine hierarchische Struktur gibt womit sich *sehr wohl* die Meshes grob sehr schnell von vorne nach hinten sortieren lassen. Entschuldige die Majestät bitte dass ich dabei das Wort "Scenegraph" dafür verwendet habe.

Das es in heutigen Engines nicht nur einen Tree gibt für alle Anwendungen ist mir auch völlig klar, nur wollte ich die Sache hier nicht unnötig verkomplizieren.

Wieso auf einmal nicht mehr?
Es ging darum für performantes Rendering die Szene günstig von vorne nach hinten zu sortieren und nicht um Transparenz. Siehe den Post von Demirug:
Hardware earlyZ bedeutet das die Hardware den depth Wert prüft bevor ein Pixel in den Pixelshader geht. Dazu werden dann häufig noch spezielle kleinere Depthbuffer mit Min/Max Werten benutzt um gleich Blöcke von Pixel verwerfen zu können.

Der Z-Prepass ist eine Software methode um diese zu füllen. Kann man aber günstig Front to Back sortieren kann dies ohne Z-Prepass sogar schneller sein.


Dass das *nichts* mit dem Painter-Pass von hinten nach vorne für transparente Polygone danach zu tun hat sollte doch wohl klar sein.

Ich war es nicht der das miteinander vermischt hat, sondern AlphaTier in seiner Antwort auf Demirugs Post:
Stimmt Transparenz von hinten anch vorn. Kommt davon wenn man nicht erst schreibt und dann denkt.
Günstig sortiern ist aber so eine Sache, bei den meissten anwendungen findet man das eher nicht, da es zu teuer ist.


Das interpretiere ich so, als würde er meinen, dass das generell teuer ist. Ist es nicht. Polygone ja, grob Meshes von vorne nach hinten: Nein.

DR.ZEISSLER
2010-04-15, 20:18:33
die ganze streiterei könnt ihr euch sparen, da das ganze von den kollegen bei insidemacgames mit hoher wahrscheinlichkeit als "fake" entlarvt wurde.

spart euch die luft und geht ein bierchen trinken.

Coda
2010-04-15, 20:20:31
Darum geht's doch schon lange nicht mehr ;)

Gauß
2010-04-15, 20:28:28
Also kackst du wirklich nur auf der Nomenklatur rum.

Es ging mir nur darum, dass es irgend eine hierarchische Struktur gibt womit sich *sehr wohl* die Meshes grob sehr schnell von vorne nach hinten sortieren lassen.

Entschuldige die Majestät bitte dass ich dabei das Wort "Scenegraph" dafür verwendet habe.Ich kritisiere solche Aussagen aus gutem Grund, weil es wirklich ein Problem ist dass die meisten Studienabgänger mit völlig überzogenen Abstraktionserwartungen zugemüllt worden sind.

Konkret zu diesem Problem: berücksichtigt man z.B. eine Szene mit tausenden, komplett dynamischen Partikel-Polygonen (wie es etwa für Spiele üblich ist), verpufft der Traum von der simplen Graphentransformation.

Es ging darum für performantes Rendering die Szene von vorne nach hinten zu sortieren.

Dass das *nichts* mit dem Painter-Pass von hinten nach vorne für transparente Polygone danach zu tun hat sollte doch wohl klar sein.Die Realität ist aber dass es eben doch (zumindest teilweise) notwendig ist.

Coda
2010-04-15, 20:33:52
Ich kritisiere solche Aussagen aus gutem Grund, weil es wirklich ein Problem ist dass die meisten Studienabgänger mit völlig überzogenen Abstraktionserwartungen zugemüllt worden sind.
Da stimme ich dir ohne Zweifel zu.

Ich bin aber keiner derjenigen, die nicht auch schon vor dem Studium mit der Praxis vertraut gewesen wäre.

Konkret zu diesem Problem: berücksichtigt man z.B. eine Szene mit tausenden, komplett dynamischen Partikel-Polygonen (wie es etwa für Spiele üblich ist), verpufft der Traum von der simplen Graphentransformation.
Ein Partikelsystem wird ja in der Regel wohl auch als einzige Entität im Graph liegen.

Da muss man dann bei Alpha-Blending aber wirklich O(n * log(n)) sortieren. Auch das ist mir bewusst.

Die Realität ist aber dass es eben doch (zumindest teilweise) notwendig ist.
Ist mir alles bekannt. Nur ging es eben um den Early-Z-Pass und das Demirug gemeint hat den kann man sich je nach Anzahl der nötigen Passes auch sparen, wenn man grob von vorne nach hinten sortiert.

Das Transparenzproblem wurde erst von AlphaTier eingeworfen obwohl es überhaupt nicht reinpasst.

Gast
2010-04-17, 13:33:17
Ich fürchte die Rendertechnik kann weder Schatten noch Reflektionen berechnen.
Das ganze müßte dann statisch vorberechnet werden
ja da sieht man ja wirklich mal, das hier leute posten ohne sich die vids anzugucken. Reflektionen sind doch direkt am Anfang sichtbar...

Fusion_Power
2010-04-18, 00:17:43
die ganze streiterei könnt ihr euch sparen, da das ganze von den kollegen bei insidemacgames mit hoher wahrscheinlichkeit als "fake" entlarvt wurde.

spart euch die luft und geht ein bierchen trinken.
Wenn das Fake ist, was hat der Faker dann davon? Riesen Aufwand für nix?
Na, ich bin eh immer skeptisch bei sowas also wenns Fake ist, dann geht für mich die Welt auch nicht unter :D
Aber trotzdem find ich die Idee interessant, rein theoretisch natürlich.

ShadowXX
2010-04-18, 16:30:17
Wenn das Fake ist, was hat der Faker dann davon? Riesen Aufwand für nix?

Anlocken von Investoren die dann Geld in die Vapor-Ware pusten (und die Faker sich davon Ferraris kaufen;))

skizzoschmidt
2010-04-19, 12:55:37
Hoffe dass ichs nicht überlesen hab, aber abseits der Fake-Frage wüsste ich nicht, wie ein komplexes Beleuchtungsmodell realisiert werden soll, wenn nur sichtbare Punkte aus einem "Datenhaufen" gesucht und angezeigt werden. Reflexionen mögen ja noch machbar sein, aber man bräuchte doch für jede Lichtquelle die selbe Suche aus einem anderen Blickwinkel, je nach Distanz und Detailgrad eine hohe Auflösung, abgesehen davon, wie man dann den Schatteneinfall auf die restlichen Punkte, die der Anwender sieht abbilden will. Und selbst wenn das ginge, wie wären realistische und in meinen Augen zukunftsträchtige Effekte wie ambient occlusion oder global illumination möglich? Unendlich viele Lichtquellen (heißt ja auch "unlimited detail)?
Nur mal so aus Interesse

DR.ZEISSLER
2010-04-19, 13:30:03
je länger man darüber nachdenkt, desto mehr muss man zu dem schluß kommen, dass es fake ist.

Konami
2010-04-19, 14:38:04
Wenn das Fake ist, was hat der Faker dann davon? Riesen Aufwand für nix?
Na, ich bin eh immer skeptisch bei sowas also wenns Fake ist, dann geht für mich die Welt auch nicht unter :D
Aber trotzdem find ich die Idee interessant, rein theoretisch natürlich.
Es könnte auch ein viraler PR-Gag von nVidia sein.

Um mal eine Verschwörungstheorie ins Spiel zu bringen. :D

Ailuros
2010-04-19, 19:41:19
Es könnte auch ein viraler PR-Gag von nVidia sein.

Um mal eine Verschwörungstheorie ins Spiel zu bringen. :D[/QUOTE]

Wenn sie auf irgend einem Konkurrenten herumhacken koennten wuerden sie schon zu etwas greifen aber es waere dann wohl eher in die Richtung Comic-Zeug wie gegen Intel.

Es hat keinen Zweck fuer NV und jeglicher hypothetische Witz waere nach etlichen Jahren ziemlich ausgelatscht.


Aber trotzdem find ich die Idee interessant, rein theoretisch natürlich.

....und aus was besteht die Idee genau? Denn ich hab bis jetzt nur generellen Humbug darueber lesen koennen.

Spasstiger
2010-04-19, 19:58:38
Und selbst wenn das ginge, wie wären realistische und in meinen Augen zukunftsträchtige Effekte wie ambient occlusion oder global illumination möglich? Unendlich viele Lichtquellen (heißt ja auch "unlimited detail)?
Nur mal so aus Interesse
Man kann ja jedem Punkt nicht nur einen Farbwert, sondern einen Shader zuweisen. Die Beleuchtung bzw. das Rendering ganz allgemein könnte man per Raytracing realisieren.

....und aus was besteht die Idee genau? Denn ich hab bis jetzt nur generellen Humbug darueber lesen koennen.
Die Weltdaten werden nicht durch Polygone und Texturen, sondern durch Punkte repräsentiert. Ein Suchmaschinen-ähnlicher Algorithmus ermittelt aus den Milliarden von Punkten die fürs Rendering relevanten Millionen von Punkten.
Ein Kumpel hat mit der Repräsentation von Geometrie durch Punktewolken sogar beruflich zu tun. Humbug ist das nicht.

Tesseract
2010-04-20, 00:01:20
Unendlich viele Punkte kann man also doch "speichern", indem man sie generiert, anstatt sie zu speichern? Ah ja... :D

sie werden nicht generiert sondern rekonstruiert. "generiert" werden sie wenn sich der entwickler ein entsprechendes rekursives pattern überlegt.

Neomi
2010-04-20, 02:43:48
Och bitte, wenn schon Haare spalten, dann wenigstens richtig. Rekonstruiert wird eine Oberfläche, und zwar mittels generierter Punkte. Rekonstruktion funktioniert nicht, ohne etwas zu generieren. Und Rekursion ist auch nicht nötig, um etwas zu generieren, nur für rekursiv definierte Dinge wie z.B. Fraktale.

@Spasstiger:
Niemand hier hat behauptet, daß Punktwolken generell Humbug wären. Bloß dieser "revolutionäre" Ansatz, um den es in diesem Thread ursprünglich ging, der unmögliche Dinge verspricht und dessen Vorgehensweise geheim gehalten wird, ist Humbug. Und zwar, weil es eben nicht nur um Milliarden von Punkten geht, sondern um unendlich viele, um nur den offensichtlichsten Fehler nochmal kurz zu nennen.

Spasstiger
2010-04-20, 16:19:54
Und zwar, weil es eben nicht nur um Milliarden von Punkten geht, sondern um unendlich viele, um nur den offensichtlichsten Fehler nochmal kurz zu nennen.
Wieso unendlich viele? Das könnte man gar nicht speichern. Man braucht keine unendlich vielen Punkte. Zu jedem Punkt aus der (reduzierten) Punktewolke wird das zugehörige Pixel im Framebufer ermittelt.
Beim Rendern per Raytracer wird es natürlich komplizierter, da müsste man für jeden Punkt schauen, ob ein Strahl nahe genug rankommt.

Neomi
2010-04-20, 17:07:59
Wieso unendlich viele? Das könnte man gar nicht speichern.

Ja eben. Genau das ist es aber, was Unlimited Detail Technology verspricht. Folge einfach mal dem Link im Startposting und schau dir an, was die Leute da behaupten.

Man braucht keine unendlich vielen Punkte. [...]

Wie schon gesagt, geht es nicht um eine realistische Art der Darstellung von Punktwolken mit einer endlichen Menge an Punkten. Es geht um die bekloppten Behauptungen, die hinter "Unlimited Detail Technology" stehen. Dort ist die Zahl der Punkte angeblich unbegrenzt (quasi unendlich hoch, denn jede noch so hohe endliche Zahl als Grenze ist eine Begrenzung) und es wird nur ein einziger pro Pixel überhaupt angerührt.

Spasstiger
2010-04-20, 17:15:38
Die Entwickler reden von "billions" von Punkten, also Milliarden. Und nicht von unendlich vielen Punkten.

Neomi
2010-04-20, 18:37:42
Die Milliarden von Punkten haben sie, wenn auch nur über generierte Instanzen, in einem konkreten Beispielbild. Sie sprechen aber von unendlich vielen -> "it can process unlimited point cloud data". Wie groß ist die Obergrenze, wenn es kein Limit gibt? Es gibt keine endliche Zahl, die dieses Kriterium erfüllt.

Spasstiger
2010-04-20, 18:44:18
Das ist doch jetzt Wortklauberei. Mit "unlimited" meinen sie natürlich nicht unendlich viele Punkte. Die Rede ist ganz allgemein von Milliarden von Punkten ohne Bezug auf eine bestimmte Szene.

Neomi
2010-04-20, 20:26:01
Mit "unlimited" meinen sie natürlich nicht unendlich viele Punkte.

Doch, zumindest wollen sie die Leute genau das glauben lassen. Und um es ganz deutlich zu belegen, zitiere ich mal aus dem im Startposting verlinkten Video (bei 3:50 kommt die Stelle):

"We have unlimited graphics power. You can't have more than unlimited, it's the end of the race for geometry."

Nichts gegen Punktwolken an sich, aber der angebliche Wunderalgorithmus und das ganze ominöse Drumherum ist einfach nur unseriös. Machbar ist das, was du gutmütig in die Behauptungen hineininterpretierst, aber nicht das, was da versprochen wird.

Sonyfreak
2010-04-20, 22:07:28
Dass es nicht unendlich viele Punkte sein können ist alleine schon deshalb klar, weil wir uns in einem Universum mit endlichen Ressourcen befinden.

mfg.

Sonyfreak

DR.ZEISSLER
2010-04-20, 22:47:25
http://www.youtube.com/watch?v=9YPL4wyvaBA&feature=related

haut in die gleiche kerbe...

DR.ZEISSLER
2010-04-21, 21:23:13
ok, nochmal zu verständnis von was der herr bruce dell da spricht.

Die haben nicht das Point-Cloud-Data System erfunden, sondern eine Methode die auf Basis des Point-Cloud-Data-Systems nur die Pixel "googelt"
die der Bildschirmauflösung entsprechen, bzw. auf dem Bildschirm sichtbar sind.

Das wären beispielsweise:
2.280.000 für 1900x1200 und bei 30 FPS > 68.400.000 /sekunde

Das ist ein Haufen Zeugs. Nur was ist den eine Point-Cloud-Data-Engine ? Die ist doch an sich arsch langsam und das wird jetzt durch "unlimited detail" kaschiert ?

irgendwie stehe ich auf dem schlauch ?!?

Ailuros
2010-04-25, 17:39:30
Ich hab nach was anderem gesucht und bin aufs folgende gefallen:

http://forum.beyond3d.com/showthread.php?t=47405

http://forum.beyond3d.com/showpost.php?p=1142142&postcount=17

Seriously though, you seem to be the same person who contacted us in 2005. What struck me was, to be honest, that it didn't actually look that good.

Simon Fenney ist einer der leading engineers bei PowerVR und wenn er sagt dass sich Herr Dell mit ihnen in 2005 in Kontakt gesetzt hatte, dann wird's auch stimmen.

I would imagine that whoever was at that certain company would have been more impressed if the demos did not just consist of a fly through of a static scene consisting of replicated models. It gives the impression that there is a fundamental limitation to the technology <shrug>

http://forum.beyond3d.com/showthread.php?p=1405143#post1405143

It was the same problem several years ago when "a certain company" was told it was not a point cloud. Apparently it now is a point cloud. <shrug>
I've been trying to see if he has any published patents but these don't seem to have made it to a public state.

I'm sure there is some interesting technology buried in there somewhere but whether it is of practical use is another matter.

http://forum.beyond3d.com/showpost.php?p=1405847&postcount=34

Kurz keiner der Patent-Registrierungen (vier fuer das Zeug hier) seit 2005 von Herrn Dell haben es zur Oeffentlichkeit geschafft.

Wenn man die oben verlinkten Threads bei B3D durchliest tut es regelrecht weh....und Simon behandelt das Ganze (wie es fuer ihn ueblich ist) sehr gemessen. Eine radikalere Version seiner jeweiligen Reaktionen ueberlasse ich jederman's Phantasie....

DR.ZEISSLER
2010-04-25, 19:36:45
und was lernen wir daraus ?
"unlimited vapoware"

Ailuros
2010-04-26, 07:24:52
und was lernen wir daraus ?
"unlimited vapoware"

Im Klartext: Simon hat damit bestaetigt dass sich die Herren in 2005 mit PowerVR bzw. IMG in Kontakt gesetzt haben (und es wird wohl nicht die einzige Firma gewesen sein zwischen damals und heute). Sie haben sich das Zeug angesehen, es war nicht der Rede wert und haben abgesagt. Die Gruende stehen ja in seinen Aussagen.

Unter anderen Umstaenden lizenziert IMG neue interessante Technologien so schnell wie moeglich, wie z.B. Polybump von Crytek, Textur-kompression von Ericssson, VP6 von On2, Sorenson Spark video decoder von Sorenson Media usw.

Vaporware ist es nicht nur eben eine point cloud Variante mit ernsthaften Limitierungen. Wenn ein Patent nach etlichen Versuchen nichtmal veroeffentlicht wird, dann klingt es eher danach als ob das jeweilige Patentamt erstmal das Ganze nicht als neue "Erfindung" garantiert.

Coda
2010-04-26, 15:52:25
Polybump von Crytek
Wie? Polybump war nix neues mehr und auch keine Technologie wo Patente draufgewesen wären.

Ailuros
2010-04-27, 07:14:05
Wie? Polybump war nix neues mehr und auch keine Technologie wo Patente draufgewesen wären.

Hast recht; hatte ich schlecht in Erinnerung http://www.imgtec.com/News/Release/index.asp?NewsID=263

Gast
2010-04-27, 13:42:15
"We have unlimited graphics power. You can't have more than unlimited, it's the end of the race for geometry."

Ein übliches Dreiecksbeschreibung beschreibt ja schon eine überabzählbare Menge von Punkten (die Dreieck liegen). Insofern haben wir ja selbst da schon mehr als unendlich, und das sehr gut komprimiert und einfach zu rendern. (Allerdings sind es aufgrund der digitalen Darstellung und Berechnung im Computer am Ende natürlcih nur endlich viele, die man dann auch heraus picken kann. Ein Computer hat ja nur endlich viele verschiedene Zustände)

RLZ
2010-04-27, 13:58:42
Abgesehen von der hier besprochenen Vaporware, wundert es mich, dass Gigavoxels hier noch nicht erwähnt wurde.
Ich fand den Ansatz recht interessant mit lustigen Ergebnissen (z.B. sind Softshadows performanter als harte Schatten).

http://artis.imag.fr/Publications/2009/CNLSE09/

Mittelfristig sehe ich aber nicht, wie die Speicherplatzprobleme von dem ganzen Voxel- und Pointbased Rendering gelöst werden soll.

Coda
2010-04-27, 18:35:42
Den Speicherplatz kann man wohl mit einem Sparse-Octree verbunden mit Streaming in den Griff bekommen.

Brillus
2010-04-27, 19:51:39
Abgesehen von der hier besprochenen Vaporware, wundert es mich, dass Gigavoxels hier noch nicht erwähnt wurde.
Ich fand den Ansatz recht interessant mit lustigen Ergebnissen (z.B. sind Softshadows performanter als harte Schatten).

http://artis.imag.fr/Publications/2009/CNLSE09/

Mittelfristig sehe ich aber nicht, wie die Speicherplatzprobleme von dem ganzen Voxel- und Pointbased Rendering gelöst werden soll.
Sehe ich wieder das gleiche wie bei dem andern Teil hier, Beispile nur mit statischer geometrie, solang niemand bei dem Voxeln was dynamisches macht wird es wohl da nciht viel werden.

Kampf-Sushi
2010-08-16, 10:04:18
Hat sich hier eigentlich in den letzten Monaten was getan?
Irgendwie Infos ob das jetzt n Hoax war oder nicht?

Baalzamon
2010-08-25, 16:18:27
Hat sich hier eigentlich in den letzten Monaten was getan?
Irgendwie Infos ob das jetzt n Hoax war oder nicht?
Würde mich auch mal interessieren.

Ich bin mir aber inzwischen ziemlich sicher das die ganze Sache ein Hoax ist/war. Niemand, aber wirklich niemand der so eine Engine aus dem Hut zaubert würde sich nicht direkt ein Ticket für die nächste SigGraph kaufen. Das sie das nicht getan haben, kann für mich nur eigentlich nur bedeuten, das irgendwas an der Engine faul ist.

Wie man es richtig macht kann man an den Spare Voxel Trees der id Tech 6 sehen. ;)

ROXY
2011-04-05, 03:20:41
Hmm, also sie geben vor die ultimative 3D-Engine programmiert zu haben, aber haben so eine Website? Irgendwie riecht das ganze wie die Phantom-Konsole ...

coder ist nicht gleich layouter oder grafiker

geht ja um die engine ... wie die hp aussieht ist doch egal, leute die sich für interessieren sind sowieso vom fach.

DR.ZEISSLER
2011-04-05, 19:25:03
sollten nicht jetzt die neuen spiele mit deren UD-engine rauskommen ?

iltis2k
2011-04-05, 19:31:12
Ja, Duke Nukem Forever ;D

BigKid
2011-04-12, 15:34:27
Nur der Vollständigkeit halber...
Die Seite "lebt" immernoch... Die Firma wurde mittlerweile in Euclideon unbenannt um Firma und Technologie auseinander zu halten... Ferner wurde am 15 März 2011 nochmal ein wenig Luft gepumpt.

http://www.euclideon.com/home.html

Habe selbst keine Meinung zu dem Thema...

DR.ZEISSLER
2011-04-12, 18:04:07
ich weis nicht...so langsam kommt mir das auch komisch vor...

Ailuros
2011-04-13, 08:23:03
ich weis nicht...so langsam kommt mir das auch komisch vor...

Das Ganze schreit nach wie vor nach einem startup Firmchen das versucht von groesseren IHVs aufgekauft zu werden. Eine Frage waere eher von wem das Ganze finanziert wird bis jetzt, wenn ueberhaupt.

Keine Ahnung ob sie irgend etwas bis jetzt patentieren konnten, aber wenn nicht dann spinnen die Patentamte auch nicht wenn sie ein jegliches Patent nicht goennen.

What I mean is : where do we get polygon trees that have as much detail as the real world ?, were do we acquire realistic polygon objects ? People have not been this free before so there was not any reason to create such objects with massive levels of detail. If anyone can assist with directing us to some immensely high detailed 3d models we would be most grateful.

As for demos we still can’t give any release date but we are working as hard as we can and we hope we will soon have something that we can humbly submit to the approval of the public and hope that our efforts have been well pleasing to you all.

http://www.euclideon.com/home.html

Uhmmm ok....:rolleyes:

Kephis
2011-04-22, 06:38:10
http://www.euclideon.com/attachments/Image/redjeep.jpg

At completion we will be able to import objects straight from CGI movies directly in to games, which will be quite an improvement over the current system of having to rebuild them all by hand.

Polygon conversion is important to our customers as most artists have been trained in such programs as 3DS Max and Maya and we feel it will be best for everyone if we can make our technology fully compatible with what exists so that no retraining is required. No retraining does not mean that there won’t be big changes. Artists of 3D graphics will no longer have a “Polygon Budget” they are completely free to make whatever they want with as much detail as possible.

We are often asked if the work is encountering any sort of problems. Whilst the engine is working fine and tools are progressing very well, we do have a small dilemma in that we wonder where we can find any content that is worthy of the technologies abilities. What I mean is : where do we get polygon trees that have as much detail as the real world ?, were do we acquire realistic polygon objects ? People have not been this free before so there was not any reason to create such objects with massive levels of detail. If anyone can assist with directing us to some immensely high detailed 3d models we would be most grateful.

As for demos we still can’t give any release date but we are working as hard as we can and we hope we will soon have something that we can humbly submit to the approval of the public and hope that our efforts have been well pleasing to you all.

Once again thank you all for your support.

Kindest Regards

Bruce Robert Dell

Also es wäre natürlich schon cool direkt mit den Hollywood Film Modellen arbeiten zu können aber kann es mir immer weniger vorstellen das was da hinter steckt. Würde ich so eine super duper engine entwickeln (nicht das ich dazu fähig wäre) dann würde ich doch sofort eine Szene zeigen die alle vom Hocker haut und keinen Matsch. Ausserdem scheint sich ja auch keine bekannte Firma dafür zu interessieren wenn die schon seit zig Jahren am rumtingeln sind, sie meinten zwar das sie nicht nur mit paar Prozent abgespeist werden wollen aber 10% von paar Millionen ist besser als 100% von nix. Deshalb glaube ich nicht das daraus noch wird.

Edit: Ach ja von euch kennt doch sicher jemand " immensely high detailed 3d models", oder? Sendet ihm dochmal so ein Teil zu und sagt ihm er soll das Ergebniss präsentieren.

robobimbo
2011-05-11, 21:57:28
Hm, einen eigenen Thread wollt ich dafür nicht aufmachen, aber um solche Point-Clouds zu ergeugen könnte man deren Software verwenden: http://www.youtube.com/user/urobots2

BigKid
2011-05-23, 19:16:25
Update:
http://www.euclideon.com/pr_9_may_11.html
Euclideon behauptet von der australischen Regierung gefördert zu werden...

Irgendwie hat mir das keine Ruhe gelassen und ich habe mal die Behauptung von Ecuclideon überprüft von der Australischen Regierung gefördert zu werden...
Und Treffer:
http://www.commercialisationaustralia.gov.au/OurParticipants/Pages/Euclideon%20Pty%20Ltd.aspx
Es geht um $1,984,652.00 Australische Dollar (und nein - das ist KEIN Spielgeld)

Es sieht also so aus als hätte Dell zumindest hier jemanden überzeugen können... Entweder ist er also ein genialer Täuscher - oder es ist doch was drann ? Was meint ihr nun ?

Ich bin fachlich zu weit weg um mir eine fundierte Meinung zu bilden...
Ich bin lediglich der Meinung, dass hinter jeder bahnbrechenden 3D Engine AUCH immer ein paar geniale Ideen stecken, ohne die die Engine sich nicht von den anderen abheben könnte- denn NUR einfach mit der wachsenden Hardware Power skalieren oder ne gute Toolbox, SDK etc. haben - das können "alle"...

Vlt. hat hier jemand wirklich eine Idee gehabt, auf die Sonst noch niemand gekommen ist...
Fraktale Kompression (ähnlich JPEG2000) nur in 3D (hmm... wäre sowas eigentlich denkbar ?), was weiss ich...

Spasstiger
2011-05-23, 19:29:32
2 Mio. Dollar Förderung für ein Forschungsprojekt sind nicht so ungewöhnlich, das heißt noch lange nicht, dass hier eine Revolution des Echtzeit-3D-Rendering bevorsteht. Und in bestimmten Bereichen gibt es auch Bedarf für solche Renderer. Ein Kumpel entwickelt z.B. eine Software mit, die Punktewolken verarbeitet und darstellt. Die haben einen eigenen Renderer unter OpenGL geschrieben, der aus zig Milliarden vorhandenen Punkten die jeweils für die Darstellung relevanten Punkte anzeigt (Link zum Produkt (http://www.faro.com/content.aspx?ct=ge&content=pro&item=5&subitem=48)).

BigKid
2011-05-23, 19:38:04
2 Mio. Dollar Förderung für ein Forschungsprojekt sind nicht so ungewöhnlich, das heißt noch lange nicht, dass hier eine Revolution des Echtzeit-3D-Rendering bevorsteht. Und in bestimmten Bereichen gibt es auch Bedarf für solche Renderer. Ein Kumpel entwickelt z.B. eine Software mit, die Punktewolken verarbeitet und darstellt. Die haben einen eigenen Renderer unter OpenGL geschrieben, der aus zig Milliarden vorhandenen Punkten die jeweils für die Darstellung relevanten Punkte anzeigt (Link zum Produkt (http://www.faro.com/content.aspx?ct=ge&content=pro&item=5&subitem=48)).

Ja - aber eher ungewöhnlich ist es, dass solche Förderung für "Vaporware" gegeben wird - siehe den Thread-Titel... Und um den Teil des Thread-Titels gings mir...
Die Videos von den Techdemos (schon über ein Jahr alt) sind jedenfalls durchaus beeindruckend unter dem Aspekt, dass es sich hier um Content handelt der von Entwicklern und nicht von Grafikern erstellt wurde und es stellt sich somit zumindest schonmal nicht mehr ganz so die Frage ob die Fake sind...

Spasstiger
2011-05-23, 19:41:34
Ich persönlich hab die Echtheit der Bilder (und dass sie auch das darstellen, was die Entwickler vorgeben) nie angezweifelt, weil ich weiß, dass solche Renderer bereits existieren.
Aber Zweifel, dass das für Spiele taugt, hab ich nach wie vor.

Der Namenlose
2011-05-25, 15:34:37
Aus meiner Erfahrung in Deutschland ist es nicht so gigantisch schwer eine Technologieförderung zu bekommen. Die fachlichen Anforderungen sind meist eher niedrig. Es muss halt nur zu den politschen Gegebenheiten passen. D.h. für ein 3D Flash Kissenschlachtspiel bekommt man eventuell was, für FarCry wohl kaum, selbst wenn letzteres eher eine moderne Technik benutzt.
Ausserdem muss man sich auf den ganzen formalbürokratischen Verwaltungsaufwand einlassen. Das lohnt sich meist eher nicht, wenn man etwas marktfähiges entwickeln will. Die Ansprüche zwischen verkaufbar und förderbar sind meist einfach zu gross und es bindet zusätzliche Arbeitskraft.
Insofern passt eine Förderung wunderbar zu diesem Projekt. (siehe in in Deutschland dieses Projekt mit den Bildern im Web, die nur eine zeitlang betrachtbar sein sollen; komplett weltfremd). Die Bilder sind total unspektakulär, vermutlich weil einfach nicht viel mehr geht. Sicher kann man viele Flächen/Punkte malen. Aber heutzutage braucht man gute Beleuchtung, und dynamisch wird da vielleicht eher schwierig. Von anderen praktischen Problemen mal ganz abgesehen. Einen Grossteil der Qualität wird eh unabhängig von der Technik im Artdepartment erzeugt.

RLZ
2011-07-08, 13:29:09
Sehe ich wieder das gleiche wie bei dem andern Teil hier, Beispile nur mit statischer geometrie, solang niemand bei dem Voxeln was dynamisches macht wird es wohl da nciht viel werden.
Dank der Siggraph 2011 hier mal noch ein Update der Gigavoxels mit dynamischen Objekten.
http://www.youtube.com/watch?v=fAsg_xNzhcQ
http://www.youtube.com/watch?v=QNQtwzVGmsM

Fragman
2011-08-01, 14:17:44
neues video ist verfuegbar. content sieht um einiges besser aus, nur wieder alles zig mal instanziert. wirkt schon nicht mehr ganz so kuenstlich, aber immernoch generisch. vor allem die quadraqtische aufteilung sieht sch... aus.

http://www.youtube.com/watch?v=UKUuUvDSXk4&feature=autoshare

SaschaW
2011-08-01, 15:50:43
Sieht auf den ersten Blick sicher ganz interessant aus und der Detailgrad ist natürlich erstmal erstaunlich. Wobei das Video wohl eher an die breite Masse gerichtet ist, so wie der da manche technoligschen Begriff für normale Menschen verständlich machen will. Blattwerk z.b. bezeichnet er als "Sprites", korrekt wären hier natürlich Billboards...

Aber wie hier angesprochen werden da x-mal die selben Objekte dargestellt, und den Speicherverbrauch für z.b. ne komplette Stadt oder nen Wald bei dieser Technologie will ich garnicht kennen. Letztendlich dürfte es sich hier wie bei einer 2D zu einer 3D-Textur verhalten, da ist der Mehverbrauch enorm höher, was bei 1000x dem selben instanzierten Objekt natürlich nicht der Fall ist, in ner abwechslungsreichen dynamischen Umgebung aber schon. Und da wäre auch schon der nächste Punkt, nämlich Animation. Herkömmliche Technologien dürften hier etwas schwierig werden, denn dann müsste man z.b. wenn man Bones nimmt ja die passenden "Atome" mit den Bones verknüpfen, was bei mehreren Milliarden Atomen pro Baum/Objekt echt happig im Bezug auf Speicherverbrauch werden könnte.

Wichtig ist natürlich auch dass sie hier ne passenden Physiklösung im SDK mitliefern, herkömmliche Physikengines wird man nicht nutzen können. Es sei denn man liefert evtl. ein Tool/Plugin mit dass vereinfachte Kollisionshüllen für die eigenen Modelle erstellt die dann in aktuellen Physikengines verwendet werden können.

Ich für meinen Teil, der schon seit über 20 Jahren v.a. Spiele und 3D-Kram entwickelt, sehe das eher skeptisch. Es gibt viele Ansätze wie z.b. die hier erwähnten Gigavoxel die auf aktuellen GPUs laufen können oder auch Raytracing (für dass es ja mit dem SaarCOR schon experimentelle Hardware gibt). Klar, irgendwann wird unsere bisherige polygonbasierte Renderingtechnik ersetzt, aber dass ein so kleines australisches Unternehmen in einem so großen Markt wie dem der Videospielbranche schaffen wird ist fraglich. Da gibt es nicht nur die technologiehemmenden Konsolen (die nunmal das meiste Geld einbringen) sondern auch die Engine-Platzhirsche von Epic, iD und co., ganz zu schweigen von den Grafikkartenherstellern, die jetzt sicher nicht nen kompletten Architekturwechsel durchlaufen wollen.

Interessant ists aber trotzdem, mal schaun wieviel vom Gesagten dann noch da ist wenn das angekündigte SDK veröffentlich wird...

RLZ
2011-08-01, 17:42:03
Sieht auf den ersten Blick sicher ganz interessant aus und der Detailgrad ist natürlich erstmal erstaunlich.
Schon auf den ersten Blick benutzen sie lang bekannte Techniken und schaffen es nichtmal zu zeigen, dass sie auch nur eins der bekannten Probleme gelöst haben.
Kombiniert mit dem Ego des Sprechers ist es vorallem aus humoristischer Sicht interessant.

Crazy_Bon
2011-08-01, 18:01:04
Also wenn die Engine von einer Spieleschmiede kommt, wo ist das Spiel?

Spasstiger
2011-08-01, 18:19:56
Welche Spieleschmiede? Im Video wird sogar extra betont, dass sie keine "game company", sondern eine "technology company" sind. In naher Zukunft soll ein SDK erscheinen.

Geldmann3
2011-08-01, 18:22:20
Warum laufen die Demos nicht butterweich, wenn es doch so leistungsschonend ist?:freak:
Ich kenne die jetzt schon so lange und es ist immer noch kein Beweis da, dass die Engine existiert. Man sollte nicht alles direkt glauben was in einem Video geredet wird.

Spasstiger
2011-08-01, 18:25:00
Warum laufen die Demos nicht butterweich, wenn es doch so leistungsschonend ist?:freak:
Laut Video soll das am Softwarerenderer liegen, mit dem sie in der Demo bisher nur 20 fps erreichen. Aber anscheinend hat man schon eine weit performantere Lösung (vermutlich GPU-gestützt), die fast ausgereift und Basis fürs SDK sein soll.
Dass die Engine existiert, bezweifle ich nicht. Warum sollte das auch gelogen sein? Ein Kumpel macht auf der Arbeit was ähnliches.

BigKid
2011-08-02, 09:02:37
Also wenn ich das richtig verstehe, dann ist euer Hauptbedenken der Speicherbedarf (daher instanziieren sie vermutlich dauernd mehrfach) und vermutete Probleme bei Animation.

Wieso sie ständig bei so wenigen Modellen bleiben habe ich mich auch schon gefragt - andererseits: Der Detailgrad bleibt erstaunlich wenn man animmt, dass zumindest die Modelle für (Elefant, Baum, Steine, die Statue am Tempel, Blattwerk, Kaktus) gleichzeitig vorhanden sind.
Frage: Würde da ein herkömmlicher Renderer bei aktueller Hardware nicht schon an die Wand laufen ?

Andererseits: Es sollte doch recht "einfach" möglich sein Objekte zu generieren, die eine zufällige Varianz aufweisen - sowas wie Speedtree(s) zum Beispiel. Und genau das sehen wir IMHO hier nicht - nicht die leiseste Varianz. Oder liege ich da falsch ?

Henroldus
2011-08-02, 12:48:16
was mich besonders skeptisch stimmt:
die gezeigten Szenen sind komplett leblos, nur die Kamera selbst bewegt sich!
Es gibt keinerlei Interaktionen zwischen den Objekten.
Gerade dann muss aber Licht und Schatten neu berechnet werden.

BattleRoyale
2011-08-02, 19:41:35
hier gbits das neue vid auch noch in HD:

http://www.youtube.com/watch?v=00gAbgBu8R4

Grey
2011-08-02, 21:03:05
was mich besonders skeptisch stimmt:
die gezeigten Szenen sind komplett leblos, nur die Kamera selbst bewegt sich!
Es gibt keinerlei Interaktionen zwischen den Objekten.
Gerade dann muss aber Licht und Schatten neu berechnet werden.

Ja. Lighting, Animationen, Physik... da ist noch einiges zu tun - wie auch immer. "Polycount" ist eben nur der eine Teil der Geschichte.

Immerhin kann man wohl das "Vaporware" ad acta legen. Wo es dann hin geht, muss sich zeigen. In dem Video ist die Rede von "months from now" für das SDK. Also wohl irgendwann 2012 frühestens.

RMC
2011-08-03, 00:45:29
Notch: It's a scam (http://notch.tumblr.com/post/8386977075/its-a-scam)

It’s a very pretty and very impressive piece of technology, but they’re carefully avoiding to mention any of the drawbacks, and they’re pretending like what they’re doing is something new and impressive. In reality, it’s been done several times before.

foenfrisur
2011-08-03, 10:35:49
auf golem gibs auch eine news

http://www.golem.de/1108/85418.html

aber eigentl. auch nix neues dabei

außer der comment, wegen fehlender schatten.

"Offen erklärt Dell auch, dass die Demo-Szenen bisher nur über sehr einfache Beleuchtung verfügen."
das erklärt die fehlenden schatten "erstmal"

dennoch könnte ich mir dieses verfahren mit raytracing in kombi gut vorstellen, sofern raytracing damit umgehen kann.

mfg

MadManniMan
2011-08-03, 11:17:48
Ich habe jetzt erst von dem Zeug etwas mitbekommen - wie rendert das Zeug überhaupt? Voxel? Echte Kugeln? Und diese 20 FPS ... auf was für einer Maschine in welcher Auflösung? Und das ist doch alles statisch, oder?

Fragman
2011-08-03, 11:32:17
Ich habe jetzt erst von dem Zeug etwas mitbekommen - wie rendert das Zeug überhaupt? Voxel? Echte Kugeln? Und diese 20 FPS ... auf was für einer Maschine in welcher Auflösung? Und das ist doch alles statisch, oder?

werden wohl point clouds sein.
und ja, das ist alles statisch, animiert wuerde das wohl nicht mehr funktionieren. dasgleiche gilt fuer die instanzen, ersetzt man die durch mehr variationen duerfte das ebenfalls nicht mehr performant sein.

RLZ
2011-08-03, 11:39:45
Ich habe jetzt erst von dem Zeug etwas mitbekommen - wie rendert das Zeug überhaupt? Voxel? Echte Kugeln?
Das weiss man nicht genau. Für Punktwolken zu rendern gibt es verschiedenste Verfahren.

Und diese 20 FPS ... auf was für einer Maschine in welcher Auflösung? Und das ist doch alles statisch, oder?
Wen interessiert denn sowas.
Das Video ist eindeutig eine VC Sache. Es gibt 2 Möglichkeiten Geld als Firma zu bekommen. Entweder man verkauft etwas an Kunden oder man besorgt sich Geld von Investoren. Die Videos sind eindeutig nicht für Kunden (=Entwickler) gedacht. Es geht nur darum ein möglichst großes mediales Echo zu erzeugen um potentielle Geldgeber zu überzeugen.

Nvidia ist ja auch nicht untätig bei alternativen Renderingverfahren (http://www.youtube.com/watch?v=Mi-mNGz0YMk). Aber das zugehörige Paper (http://www.tml.tkk.fi/~samuli/publications/laine2010i3d_paper.pdf) zeigt beim Speicherverbrauch mal wieder die üblichen Probleme.
Man kann ein Voxel in einem SVO mit einem kleineren Speicherplatzverbrauch als ein gleich großes Dreieck bauen, aber bis Dreiecke in dieser Größe verwendet werden dauert es noch einige Zeit.

Ich persönlich vermute, dass die Voxelbasierende Verfahren sich irgendwann durchzusetzen. Die Frage ist dann noch, ob mit Raycasting oder Conecasting.

dennoch könnte ich mir dieses verfahren mit raytracing in kombi gut vorstellen, sofern raytracing damit umgehen kann.
Was genau soll uns diese Aussage sagen?

sloth9
2011-08-03, 12:59:09
neues video ist verfuegbar. content sieht um einiges besser aus, nur wieder alles zig mal instanziert. wirkt schon nicht mehr ganz so kuenstlich, aber immernoch generisch. vor allem die quadraqtische aufteilung sieht sch... aus.

http://www.youtube.com/watch?v=UKUuUvDSXk4&feature=autoshare

geil auch die Behauptung, Crysis 2 hätte den doppelten Polygon-Count von Crysis 1... (bei ca. 3:10)

Iruwen
2011-08-03, 15:31:44
Interview bei Kotaku: Euclideon Creator Swears Infinite Detail is "Not a Hoax" (http://kotaku.com/5827192/euclideon-creator-swears-infinite-detail-is-not-a-hoax)

Lyka
2011-08-03, 15:35:58
den sch... bringen sie schon bei Chip -.-
http://www.chip.de/news/Euclideon-Zukunft-der-Spielegrafik-oder-nur-Betrug_50680314.html

mksn7
2011-08-03, 15:58:01
Die Rechnung mit den 513 Petabyte ist ja mal totaler Schwachsinn. Das zeug heißt nicht umsonst Sparse Trees! Außerdem hab ich anderswo auch schon Zahlen von unter einem Bit pro Voxel gehört.
Mit den restlichen Einwänden hat er aber Recht.

Zu den Wiederholungen: Wieviele verschiedene Palmen sieht man denn jetzt i.e. bei Crysis wirklich?

Rajin the troll
2011-08-03, 16:27:49
Außerdem hab ich anderswo auch schon Zahlen von unter einem Bit pro Voxel gehört.


Ich will ja jetzt nicht klugschei... aber was soll denn unter einem Bit sein?
eine halbe 0? :biggrin:

BTT: Ich glaube persönlich auch das das Thmea speicherbedarf wohl das größte Problem darstellen dürte. Insbesondere ja auch da sie dahingehend noch kein Wort verloren haben soweit ich weis.

DocEW
2011-08-03, 17:25:42
Ich will ja jetzt nicht klugschei... (...)
Keine Sorge. ;)
Falls die Frage ernst gemeint war: Wenn von 100 Voxeln nur fünf belegt sind, und du für deren Speicherung 40 bits brauchst, bist du bei 0,4 bits/Voxel.

RLZ
2011-08-03, 17:34:51
Keine Sorge. ;)
Falls die Frage ernst gemeint war: Wenn von 100 Voxeln nur fünf belegt sind, und du für deren Speicherung 40 bits brauchst, bist du bei 0,4 bits/Voxel.
Die Zahl die er vermutlich gelesen hat, war vermutlich aus dem Olick Paper. Dort haben sie nachträglich verschiedene Kompressionen über die Octreedaten gejagt und kamen dadurch auf "1.15 bits of positional data per voxel".

Hübie
2011-08-03, 17:48:47
Mich interessiert dabei mal der Hardwarebedarf. Im Video wird gesagt es laufe im Softwarerenderer mit um die 20fps. Entweder die haben da massig CPUs verbaut oder das Ding ist irgendwie effizient.
Was meint ihr? Kann man das irgendwie mal theoretisch runterrechnen? Durch hardwarebeschleunigung soll es ja deutlich schneller laufen (Tesselator??).

Die_Allianz
2011-08-03, 18:19:00
ganz rudimentäre Frage:
Kann man einen 'Punkt'/Atom einfach weglassen, wenn es kleiner als ein Pixel ist? Also nimmt die Genauigkeit einfach nach hinten ab?

Coda
2011-08-03, 20:18:19
Das muss man sogar, sonst flimmert's wie Hölle.

RMC
2011-08-03, 21:52:45
Das Problem das ich mit Euclideon und der Einstellung bzw. dieser Präsentation hab ist Folgendes: Es wirkt einfach von vorn bis hinten komplett unseriös. Das ergibt sich durch zwei Fakten:

Erstens, Euclideon pusht die Technologie aus Förderungsgründen enorm. Es gibt auch hierzulande jedemenge Produkte die staatlich gefördert werden und daher ist Förderung an sich auch nichts Böses, ganz im Gegenteil. Aber die Öffentlichkeitsarbeit ist unverhältnismäßig für diesen uralten Ansatz der Voxel/Point Cloud Technologie und aus PR Gründen werden auch Drawbacks dieses Ansatzes zurückghalten. Diese wären zB Speichereffizienz, Objekte außerhalb von repetitiven Strukturen, allemöglichen Effekte die heute Standard sind, etc.

Zweitens, Euclideon gibt selbst an eine Firma zu sein die selbst nichts mit Spieleentwicklung zu tun hat, will aber ihre Produkte gerade für Spieleentwickler interessant machen. Die Idee, eine komplett fremde Industrie mit einem alten Ansatz umkrempeln zu wollen ist anmaßend. Sie sind sicher nicht die ersten mit der Idee und der Fakt dass es jemand bis heute nicht gemacht hat liegt sicher nicht darin begründet, dass es nicht möglich wäre oder dass es keiner bisher probiert hat, sondern viel mehr darin, dass bereits gezeigt wurde dass es ungeeignet ist.

Denn allein mit der Verbannung von Polygonen ergibt sich ja automatisch ein ganzer Rattenschwanz an Problemen, denn alles in der Computergrafik basiert auf Polygonen. Alle existierenden 3rd Party Tools und SDKs für Animation, Texturierung, Physik usw. basieren auf dem Ansatz von Polygonen und sind darauf zugeschnitten.

Wenn Euclideon wirklich ernsthaft vor hätte die Industrie davon zu überzeugen dass ihr Ansatz richtig ist, dann _müssen_ sie eine spieletaugliche Demo aufarbeiten mit Material, das von solchen Praxisspezialisten entwickelt wurde und nicht von träumenden Theoretikern, inklusive einer vollständig praxisnahen production pipeline. Da nützt auch die Betonung nicht dass ihre Artists "Far from the best in the world" sind. Ein SDK für Spieleentwickler muss zumindest ein praxistaugliches Gesamtkonzept vorweisen und bisher ist absolut alles schwach. Sie bleiben ein praktisches proof of concept sowie einen Effizienznachweis schuldig, der das Ganze erst wirklich überlegenswert macht. Die Frage, warum überhaupt jemand aus der Industrie die Überlegung antreten sollte auf dieses Konzept einzugehen bleibt ebenfalls offen.

Und last but not least, die Sinnfrage: Ich glaub es hat sich keiner wirklich überlegt, was denn "unlimited Detail" für den Endverbraucher, den Spieler, überhaupt in der Praxis ausmacht. Warum sollte ein Spieler mit heutigen Ansätzen überhaupt unzufrieden sein? Ist es sinnvoll den Dreck am Boden bis ins Detail zu erkennen wenn man eh nicht die Nase reinsteckt sondern in effektiv 99.99% der Fälle an allen Details vorbeirennt und es so gar nicht wahrnimmt? Ich sehe eigentlich nur Verschwendung pur und zwar an allen erdenklichen Stellen.


Also für mich ist das nach wie vor eine überstürzte untaugliche Überlegung aus mehreren Perspektiven.

Die_Allianz
2011-08-03, 22:02:02
Und last but not least, die Sinnfrage: Ich glaub es hat sich keiner wirklich überlegt, was denn "unlimited Detail" für den Endverbraucher, den Spieler, überhaupt in der Praxis ausmacht. Warum sollte ein Spieler mit heutigen Ansätzen überhaupt unzufrieden sein? Ist es sinnvoll den Dreck am Boden bis ins Detail zu erkennen wenn man eh nicht die Nase reinsteckt sondern in effektiv 99.99% der Fälle an allen Details vorbeirennt und es so gar nicht wahrnimmt? Ich sehe eigentlich nur Verschwendung pur und zwar an allen erdenklichen Stellen.

da muss ich aber widersprechen: Etliche Spiele geben sich selbst den Anspruch zu versuchen die Realität abzubilden. Dann muss man sich auch daran messen lassen, und das heißt wenn ich näher wo ran gehe sehe ich mehr Details!
Also entweder verfolgt der Entwickler einen 'Kunststil' oder er versucht die echte Welt nachzubauen, mit bisher enttäuschenden/lächerlichen Ergebnissen. Wenn ich an jedem runden Gegenstand die Polygone erkenne, hat man klar versagt, und das ist leider bei 100% der Games der Fall. ;(

Hübie
2011-08-03, 22:18:52
Vor allem würden wir immer noch in Höhlen wohnen wenn alle so denken würden ;)
Fortschritt dauert eben und/oder wird im Keim erstickt (denke da an BTX). Innovationen müssen sich am Markt beweisen und wenn die das richtige Konzept (SDK) bieten dann wird sich die Chance deutlich erhöhen.

LG Hübie

FeuerHoden
2011-08-03, 22:22:26
@RMC,

der Typ im Video gibt an einen Polygon to Atom Konverter entwickelt zu haben. Damit kann die ganze Industrie weiter mit Polygonen arbeiten und erst im letzten Schritt wird konvertiert. Wenn es denn wirklich so tut wie behauptet.

00-Schneider
2011-08-03, 22:37:44
Kann man beide Technologien nicht irgendwie miteinander verbinden? Point Clouds für statische Objekte und Polygone für den Rest?

(Ja, ich bin ein Noob.)

mksn7
2011-08-03, 23:25:06
Klar kann man das.

Die Atomontage-Engine macht übrigens ganz ähnliche Sachen: http://www.youtube.com/watch?v=_CCZIBDt1uM

Das Auto in der Szene besteht glaub ich aus Polygonen. Hier ist zumindest in einem gewissen Rahmen eine Veränderung der Spielwelt möglich. Irgendwo ist es schon reizvoll, dass die Mauern tatsächlich massiv sind. Aber in dem Video sieht man auch deutlich die kleinen Klötzchen.

Warum wird zu einer Engine, bei der es um hohen Detailreichtum geht, eigentlich sooft der Minecraft Entwickler zitiert? Hallo? Minecraft?

samm
2011-08-04, 00:24:28
Die Atomontage-Engine macht übrigens ganz ähnliche Sachen: http://www.youtube.com/watch?v=_CCZIBDt1uMYeah, das hat schon mehr Substanz :) Der Ansatz gefällt mir auch, von einem Physik-Modell auszugehen.

Ich will ja jetzt nicht klugschei... aber was soll denn unter einem Bit sein?
eine halbe 0? :biggrin:Kompression. Ein einzelnes Datum kann natürlich nicht unter einem Bit gross sein, aber bei einer grossen Menge Daten, die effizient komprimiert werden kann: why not?

Kann man beide Technologien nicht irgendwie miteinander verbinden? Point Clouds für statische Objekte und Polygone für den Rest?Kann man. Gibt auch ein cooles Game damit, nämlich Outcast :) Ich glaube, auch einige Deltaforce(?)-Teile.

Rajin the troll
2011-08-04, 08:59:43
Yeah, das hat schon mehr Substanz :) Der Ansatz gefällt mir auch, von einem Physik-Modell auszugehen.

Kompression. Ein einzelnes Datum kann natürlich nicht unter einem Bit gross sein, aber bei einer grossen Menge Daten, die effizient komprimiert werden kann: why not?
Das war schon klar keine Angst, bei der relativ unkonkreten aussage konnte ich es mir aber leider nicht verkneifen.


Kann man. Gibt auch ein cooles Game damit, nämlich Outcast :) Ich glaube, auch einige Deltaforce(?)-Teile.
Ich glaube zumindest die ersten beiden Teile von deltaFoce nutzen Voxel Technologie. Dann gab es noch die ersten Commanche Spiele und ich meine z.B. bei Shadow Warrior wurden auch ein paar Voxel Objekte verwendet.

Fusion_Power
2011-08-04, 16:03:34
Ich war schon bei dem 2010er Video von Unlimited Detail skeptisch. Kam mir irgend wie suspekt vor, zumal sich ewig nix auf deren Website getan hat, keine News, kein Kontakt, kein Forum zum diskutieren, rein gar nix. Sowas macht mich immer stutzig.
Ich finde Voxel zwar sehr interessant aber die offensichtlichen Nachteile schliessen im Moment noch den praktischen Nutzen aus. Und sind unsere derzeitigen Grafikkarten nicht allein auf die Darstellung von Polygonen/Vertix getrimmt? Gab ja glaube auch noch kein Voxel-Spiel mit Hardwarebeschleunigung oder? Wie will man das Problem lösen ohne dass man eine spezielle Voxel-Grafikkarte braucht?

urbi
2011-08-04, 19:52:01
Naja, die GPU könnte schon die Rechenarbeit übernehmen (CUDA und Co.).

Wenn man geschickt Polygone und Voxel kombiniert könnte man u.U. auch das GPU-Limit, das heute fast bei allen Games herrscht etwas abfedern. Theoretisch zumindest. ;)

RMC
2011-08-04, 20:25:58
da muss ich aber widersprechen: Etliche Spiele geben sich selbst den Anspruch zu versuchen die Realität abzubilden. Dann muss man sich auch daran messen lassen, und das heißt wenn ich näher wo ran gehe sehe ich mehr Details!
Also entweder verfolgt der Entwickler einen 'Kunststil' oder er versucht die echte Welt nachzubauen, mit bisher enttäuschenden/lächerlichen Ergebnissen. Wenn ich an jedem runden Gegenstand die Polygone erkenne, hat man klar versagt, und das ist leider bei 100% der Games der Fall. ;(

Die Ergebnisse von Euclideon mögen vielleicht detailliert wirken, aber erstens tun sie das (bisher) nur unter äußerst banalen Umständen wo man im Vergleich zu gewohnten Gesamtergebnissen nur müde lächeln kann und zweitens machen Details für sich allein eben noch lang keine Ästhetik oder gar eine realistische Darstellung aus. Euclideon bietet eben Details, aber sonst gar nichts. Dazu sind der Techologie sehr harte Grenzen gesetzt. Ein Schritt vorwärts und 20 Schritte zurück ist unterm Strich nicht die Richtung in die man gehen möchte.


--

Der Versuch allein verdient Respekt. Möglicherweise ist er der bisher am Weitesten entwickelte Ansatz einer solchen Technologie. Das ist gut und das sollte man ausbauen. Jedoch bin ich der Meinung, dass nicht jeder beliebig simple Ansatz gleich für ein marktreifes SDK ausreicht das man einer bereits hochentwickelten Industrie andrehen möchte.

Was mich sehr stutzig macht: Sie versteifen sich extrem auf die Spieleindustrie (von keinem anderen Einsatzgebiet ist die Rede), aber haben selbst keinen einzigen fähigen Artist in ihren Reihen ("we're not a game company") und arbeiten offensichtlich auch nicht mit ihrer eigenen Zielgruppe zusammen, sodass brauchbares Anschauungsmaterial dabei entsteht.

Sie haben keine lauffähige Spieledemo die man als proof of concept für die Industrie ansehen könnte, sondern lediglich eine ästhetisch arme Ansammlung von sich wiederholenden statischen Objekten. Das bringt mich einfach zu dem Schluss, dass sie noch lange nicht soweit sind.

SaschaW
2011-08-06, 17:07:34
Digital Foundy vs. Unlimited detail (http://www.eurogamer.net/articles/digitalfoundry-vs-unlimited-detail)

Sehr interessant, denn der Mensch hinter der Technologie ist auch ggü. DF sehr defensiv und scheint nur ungern auf die Details hinter seiner Technologie einzugehen.

Angeblich sei ihre "revolutionäre" Technologie auch schon in der Lage Animationen zu zeigen, es wäre halt noch nicht fertig.

Auch stutzig macht seine Behauptung dass die Technologie für die 3D-Daten weniger (!) Speicherplatz verbrauche als herkömmliche Ansätze mit Polygonen. Das hört sich sehr unglaubwürdig an.

Mal abwarten was dabei rauskommt. Normalerweise redet man doch gerne offen wenn man ne super-tolle Technologie hat, aber im Interview (und auch woanders) wird permanent ausgewichen.

Wenns denn mal ne öffentliche Demo gibt die gut läuft, gut aussieht und alles bietet was eine aktuelle Engine bietet dann kann man nochmal drüber reden.

Hübie
2011-08-06, 19:59:07
Naja Industriespionage/reversed Engineering sind weit verbreitet und gefürchtet. Ich würde da auch nicht alles preisgeben. Schon garnicht wenns unfertig ist.
Und aller Anfang ist nun mal schwer. Man sollte zwar eine gesunde Skepsis mitbringen, aber nicht permanent alles in Frage stellen.

Und immer hin gibt es Aussage auf welcher Hardware es läuft:

The latest demo was running on our office laptop which is 2GHz Core i7. It ran at 20FPS [at] 1280x720 purely in software without touching the 3D part of the GPU, but we certainly haven't added all our optimisation yet. I think next time you will be pleasantly surprised," he reveals.

Kampf-Sushi
2011-08-11, 18:24:42
Euclideon & Unlimited Detail - Bruce Dell Interview
http://youtu.be/JVB1ayT6Fdc

randy
2011-08-11, 20:12:13
http://www.youtube.com/watch?v=JVB1ayT6Fdc#t=0h36m37s

man beachte den schatten

Metzler
2011-08-11, 20:32:27
So schön das aussieht, mir fehlen:
- Realtime-Schatten
- Animationen
- "Shader" (z.B. für Wasser)
- Oder besser gleich: Bewegtes 3D Wasser mit echten Reflexionen
- Gute Kollisionsabfragen
Ich kann mir auch nicht so recht vorstellen, dass die das alles hinbekommen, wüsste auch nicht, wie bei den Datenmengen. Abfragen lass ich mir eingehen, aber ein Objekt mit mehreren hundert Millionen Datenpunkten zu animieren / Kollisionsabfragen darauf zu machen oder Echtzeitschatten... Zumindest nicht mehr mit unlimited Detail ;)

Capt'N Coax
2011-08-12, 15:03:46
Ich kann überhaupt kein Statement dazu abgeben, was die technische Machbarkeit dieser Engine angeht oder nicht, genauso wenig wie die meisten anderen hier, die hier ohne tiefere Kenntnisse der Algorithmen "unmöglich" schreien.

Allerdings sehe ich folgende "Problematiken":

1. In einem klassischen Spieleansatz liege ich selten auf dem Boden oder stehe Millimeter von einer Wand entfernt, so dass diese Details zum Tragen kommen würden. Auf normale Entfernungen reichen BumpMapping und Konsorten etc. eigentlich aus, um den Eindruck von Tiefe zu vermitteln.

2. Wer soll den Content erstellen? So wie ich das sehe benötigt man ebenfalls entsprechende Tools um "Unlimited Content" zu erschaffen. Die Kosten für Content sind doch heute schon pervers hoch und wahrscheinlich der Hauptkostenfaktor.

Ich bin mir also nicht mal sicher, ob fehlende Details (wenigstens in dieser Tiefe) das Problem sind, zumal die heutige Technik ja nicht stillsteht. Ich würde es viel lieber sehen, wenn die Industrie anfängt, Engine-unabhängige "Content Generatoren" zu entwickeln, die jeder Hersteller kostensparend einsetzen kann (z.B. SpeedTree oder Terrain Generatoren (Name entfallen)).

In dem Bereich ist wohl eher praxistauglicher Input zu holen.

Metzler
2011-08-12, 15:17:58
2. Wer soll den Content erstellen? So wie ich das sehe benötigt man ebenfalls entsprechende Tools um "Unlimited Content" zu erschaffen. Die Kosten für Content sind doch heute schon pervers hoch und wahrscheinlich der Hauptkostenfaktor.


Im Video spricht er ja von 3D Scannern für Objekte. Generell könnte da der Job des klassischen Modellbauers wieder mehr in den Vordergrund rücken..?

seaFs
2011-08-12, 15:24:24
1. In einem klassischen Spieleansatz liege ich selten auf dem Boden oder stehe Millimeter von einer Wand entfernt, so dass diese Details zum Tragen kommen würden. Auf normale Entfernungen reichen BumpMapping und Konsorten etc. eigentlich aus, um den Eindruck von Tiefe zu vermitteln.
Die gleiche Diskussion gab es schonmal vor 13 Jahren, als mit Unreal Detail textures eingeführt wurden. Heute begrüßen wir hochauflösende Texturen, warum also auch nicht dazu hochauflösende Plastizität?

Grey
2011-08-12, 15:31:47
Ich kann überhaupt kein Statement dazu abgeben, was die technische Machbarkeit dieser Engine angeht oder nicht, genauso wenig wie die meisten anderen hier, die hier ohne tiefere Kenntnisse der Algorithmen "unmöglich" schreien.

Allerdings sehe ich folgende "Problematiken":

1. In einem klassischen Spieleansatz liege ich selten auf dem Boden oder stehe Millimeter von einer Wand entfernt, so dass diese Details zum Tragen kommen würden. Auf normale Entfernungen reichen BumpMapping und Konsorten etc. eigentlich aus, um den Eindruck von Tiefe zu vermitteln.

2. Wer soll den Content erstellen? So wie ich das sehe benötigt man ebenfalls entsprechende Tools um "Unlimited Content" zu erschaffen. Die Kosten für Content sind doch heute schon pervers hoch und wahrscheinlich der Hauptkostenfaktor.

Ich bin mir also nicht mal sicher, ob fehlende Details (wenigstens in dieser Tiefe) das Problem sind, zumal die heutige Technik ja nicht stillsteht. Ich würde es viel lieber sehen, wenn die Industrie anfängt, Engine-unabhängige "Content Generatoren" zu entwickeln, die jeder Hersteller kostensparend einsetzen kann (z.B. SpeedTree oder Terrain Generatoren (Name entfallen)).

In dem Bereich ist wohl eher praxistauglicher Input zu holen.

Zu 1.

Denke bspw. mal an Titel wie Armed Assault, wo Ego-Robben ein essentieller Teil vom Spiel ist. Oder mehr Mainstream: Call of Duty MW (1) in Pripyat. Klar braucht es wohl kaum jeden Stein ausmodeliert, aber das ist ja eigentlich eher ein "Nebeneffekt" allgemein. Es geht halt. Und da man so oder so immer für Details sorgen muss... warum nicht mit richtiger Geometrie, wenn es denn tatsächlich nichts kostet?

Zu 2.

Der Content entsteht doch schon heute und muss dann runter gecruncht werden. Viele Firmen nutzen bspw. für Charaktere Sculpting-Tools, die mit enormen Polyzahlen in Echtzeit hantieren, nur um dann daraus Normal+Sonstige Maps zu machen, die dann auf den Lowpoly-Charakter gepackt werden. Genau hier sehe ich schon mal ein Fortschritt in der Engine, sofern es irgendwann tatsächlich machbar sein wird. CC kostet ohnehin schon derbe viel Zeit, da ist es dann wohl angenehm wenn wenigstens ein Teil der ordinären Pipeline schon mal weg fällt. Zumal ja, wie schon geschrieben, hierbei oft "3D-Scanner" erwähnt werden. Da weiß ich aber nicht wie das Cleanup solcher Dinge in 3D-Tools aussieht und wie viel Arbeit die Technik tatsächlich den Leuten abnimmt, zumal dafür auch nur kleinere und nicht fiktionale Objekte in Frage kommen.

Ansonsten stimme ich mit dir überein... die Machbarkeit steht noch in den Sternen. Ich bin trotzdem gespannt und finde den Ansatz gut, weil ich auch nicht unbedingt so eine Zukunft in aktuellen Methoden mit Polygonen sehe. Ich mein dafür spricht wohl ziemlich jedes aktuelle Spiel... es sind immer Kompromisse.

PS: WTF?!

http://www.youtube.com/watch?v=VxE4QTPs3Zg

Capt'N Coax
2011-08-12, 17:03:14
Im Video spricht er ja von 3D Scannern für Objekte. Generell könnte da der Job des klassischen Modellbauers wieder mehr in den Vordergrund rücken..?

Die gleiche Diskussion gab es schonmal vor 13 Jahren, als mit Unreal Detail textures eingeführt wurden. Heute begrüßen wir hochauflösende Texturen, warum also auch nicht dazu hochauflösende Plastizität?



Es geht halt. Und da man so oder so immer für Details sorgen muss... warum nicht mit richtiger Geometrie, wenn es denn tatsächlich nichts kostet?


Weil ich der Meinung bin, das es sehr wohl kostet:
Vielleicht keine Rechenzeit, aber Zeit für Content Creation. Gerade hier im Forum ist das Geschrei doch schon groß, wenn mal irgendwo 'ne gröbere Textur entdeckt wird. In 10 Jahren regt man sich dann auf, wenn man mit Zoom 3000 auf die Backsteinmauer schaut und sich aufregt, dass die Staubpartikel unrealistisch aussehen?

Für einzelne Skulpturen etc. pp. mag der Vorteil durchaus Sinn machen. Aber du musst die ganze Welt unlimitieren, wenns nicht wieder komisch aussehen soll. Da muss man sich schon mehr einfallen lassen, als eine Möglichkeit zur Darstellung zu liefern, da müssen Tools her welche großflächigen Content mit dieser Detailtiefe erzeugen können.

Ich bin natürlich grundsätzlich auch für jedes Detail mehr in Spielen, aber ich bin skeptisch ob mehr Details am generellen Artwork und Look and Feel derart massive Änderungen bringen, das sich der Aufwand lohnt. Unlimited Gameplay wär mir lieber.

Optimal wäre natürlich, wenn die unlimited Detail Technologie es ermöglichen würde, deren kleinste Bausteine physikalisch zu verändern, aber gerade das scheint ja einer der größten Schwachpunkte zu sein.

BigKid
2011-08-12, 17:49:43
Ich habs auch unter der heutigen News vermerkt - aber eigentlich gehörts doch hier her:

So wie ich das Verstanden habe, sprach er doch in dem Interviw davon die 2-3 fache Performance ALLEINE durch einbringen der neusten, in der Demo noch nicht implementierten Optimierungen zu bekommen. Er weisst mehrfach darauf hin, das dabei die GPU noch nicht einbezogen ist/wurde.
Ich denke also das ist falsch wiedergegeben...

Wenn die Engine so funktioniert wie er behauptet (es wird pro Pixel genau das richtige Atom gegriffen), dann bedeutet dies IMHO das 1900x1080 - c.a. 2.6 mal so viele Pixel - auch ziemlich linear 2.6 mal langsamer laufen würden. Dazu kommt noch, dass der DEMO PC ein Laptop war.

Also die angedeuteten Optimierungen + ein Desktop anstelle eines LapTops und somit sollte FullHD bereits auf aktueller Hardware im Bereich des Machbaren liegen - wohl gemerkt immer unter der Annahme, dass man dem Herren glauben kann/will/darf.

Neosix
2011-08-12, 18:43:57
Also in der News von Heute steht "Mit einer zukünftigen Hardware-Unterstützung durch die Grafikkarte verspricht man die dreifache Performance". Also 3x mit GPU, nicht mit Wunderoptimierungen.

Wenn man allerdings zusätzliche Effekte + die Auflösung auf Full HD oder drüber aufbläst, bleibt davon vielleicht am Ende kaum ein Performance Gewinn übrig.

Hübie
2011-08-12, 19:10:04
Nach diesem Interview frage ich mich doch was wohl John Romero und Konsorten dazu sagen würden. Die hätte er ebenfalls einladen sollen.
Menschen sind immer so: Wenn sie was nicht kennen oder verstehen wird es erst mal verschrieen. Tolle Einstellung :up:
@BigKid: So wie Neosix schon sagte wird in der finalen Demonstration die Leistung um das ~3-fache anwachsen. Rein durch Optimierungen holt man selten solche speedups heraus.

lumines
2011-08-12, 20:16:23
Das muss doch nicht nur für Spiele interessant sein. Allein die Möglichkeit eine große Anzahl eingescannter Objekte in extrem hoher Detailauflösung darzustellen ist schon ziemlich beeindruckend.

Hübie
2011-08-13, 00:17:02
Aber die sind Spieler und wollen das für Spieler entwickeln ;) Die Spieleindustrie ist auch maßgeblich am Fortschritt neuer Technologien im 3D-Bereich beteiligt.

LG Hübie

Flusher
2011-08-13, 09:36:56
In der aktuellen News sind zwei der gezeigten Screenshots aus dem Game Bulletstorm und nicht von Euclideon.

BigKid
2011-08-13, 10:36:24
Also in der News von Heute steht "Mit einer zukünftigen Hardware-Unterstützung durch die Grafikkarte verspricht man die dreifache Performance". Also 3x mit GPU, nicht mit Wunderoptimierungen.

Wenn man allerdings zusätzliche Effekte + die Auflösung auf Full HD oder drüber aufbläst, bleibt davon vielleicht am Ende kaum ein Performance Gewinn übrig.
Darum geht's mir ja. Die News bezieht sich auf das Interview und dort sagt er imho genau das nicht... Er spricht davon dass das Demo noch nicht alle optimierngen enthält und das die GPU noch nicht genutzt würde aber das man das auch noch versuchen will... Also wird es imho in der news falsch wiedergegeben...

FeuerHoden
2011-08-13, 11:11:51
Darum geht's mir ja. Die News bezieht sich auf das Interview und dort sagt er imho genau das nicht... Er spricht davon dass das Demo noch nicht alle optimierngen enthält und das die GPU noch nicht genutzt würde aber das man das auch noch versuchen will... Also wird es imho in der news falsch wiedergegeben...

Ist das nicht genau das was Neosix auch gesagt hat? Genau die Stelle hat er ja zitiert?

Zum scannen von Objekten: Objekte werden ja heute schon gescant, bzw. die Möglichkeit besteht. Iirc sind alle Autos in den Gran Turismo Spielen für die Playstation maschinell gescant (und Handoptimiert?). Es gibt aber eine Reihe von Objekten die man nicht scannen kann und sehr viel Kontent existiert reell gar nicht und wird von den Entwicklern erdacht/entworfen.

Was ich nicht verstehe: Die Entwickler geben an einen Polygon to Atom(Voxel Konverter entwickelt zu haben und gleichzeitig sagen sie dass sie, da sie keine Spieleentwickler sind, nicht in der Lage sind eigenen Content zu erstellen. Warum also nicht fertigen Content aus anderen Spielen nehmen und in die eigene Engine konvertieren? So wie sie es beschreiben soll es ja funktionieren und man kann ja so einen Konverter nicht entwickeln wenn man in wärenddessen nicht testet und Testmaterial adaptiert.

Demirug
2011-08-13, 11:31:54
Wenn sie sich Content aus einem echten Spiel leihen könnte man zu gut vergleichen und dabei schnell feststellen das „unendliche“ Details bei der Geometrie eben nicht alles ist.

Hübie
2011-08-13, 11:34:45
Weil die weder Modelle noch Texturen als Rohmaterial haben. Also die Daten die bei den Entwicklern liegen mein ich. Aus einem (im Vergleich damit) low-poly Modell lässt sich vllt. kein anständiges Atom-Modell erstellen. Wer weiß.

@BigKid: Doch es gibt eine Stelle wo er von einer Verdreifachung der Performance ausgeht wenn alles optimiert und harwarebeschleunigt ist. Musst du mal selber suchen ich muss gleich weg :tongue:

Neosix
2011-08-13, 13:53:02
Ich hab ich mir vor paar Tagen das Youtube Video angesehen, und da spricht er explizit von 3x Performance MIT GPU. Ich weiß es noch, weil ich damals noch dachte, dass es mir total wenig vorkommt. Umstellung von Software Renderung auf Hardware sollte doch in der Regel mehr Performance bringen.

IchoTolot
2011-08-13, 14:27:02
http://www.youtube.com/watch?v=1sfWYUgxGBE&feature=player_detailpage#t=180s

Das sieht sehr beeindruckend aus, wie ich finde.

Baalzamon
2011-08-13, 14:27:53
Ich habe mir das Interview auch angesehen und muss meine vorherige Meinung revidieren. Auch wenn sich Dell (aus meiner Sicht aus vernünftigen Gründen) mit Details sehr zurückhält und keine halbgaren Ergebnisse präsentiert, wirkt das auf mich inzwischen schon einigermaßen seriös.

Offensichtlich sind sie ja nicht darauf 'nur' Investoren anzulocken und die Kohle abzuzocken.

Natürlich steht immer noch die große Frage im Raum wie es mit dynamischen Inhalten aussieht. Allerdings sehe ich nicht warum man ihm nicht glauben sollte, wenn er behauptet das sie Animation darstellen können und es auch ganz wunderbar funktioniert.

Auf mich wirkt Bruce Dell auch ziemlich sympathisch und wenn seine Engine das hält was er verspricht hat er auch allen Grund auf manche ein bisschen 'arrogant' zu wirken (auch wenn ich das nicht so empfinde).

Da er ein 'homemade' Programmierer ist, erklärt das auch bis zu einem gewissen Grad, warum es keine Papers oä zu diesem Ansatz gibt.

Ich kann auch gut nachvollziehen, das man sich als Programmierer einen Scheiss darum kehrt, wie es erstmal aussieht. Das Ding ist das Proof of Concept, die werden schon wissen was die Engine zu leisten im Stande ist. Wenn die Engine erstmal läuft ist das Austauschen der Grafik das geringste Problem.

Ich bin inzwischen auf jeden Fall ziemlich gespannt wie es da weitergehen wird.

IchoTolot
2011-08-13, 14:29:25
Edit: Das hier sieht gut aus. Kann mir das in absehbarer Zeit schon in Game vorstellen. :)

http://www.youtube.com/watch?v=1sfWYUgxGBE&feature=player_detailpage#t=304s

Hübie
2011-08-13, 19:18:12
Also ich könnte mir durchaus vorstellen das es da draussen so einige gibt die das verhindern möchten und/oder sich angegriffen fühlen weil die nicht auf so eine Idee gekommen sind und nun dumm darstehen ;D

AffenJack
2011-08-13, 21:42:57
Ich zweifle trotz dem Interview noch sehr stark an der wirklichen Reife von dem Zeug. Unlimited Detail wurde 2003 schon mit Videos präsentiert und in diesen 8 Jahren hat mans nicht geschafft irgendwen von der Idee zu überzeugen? Das sieht mir noch eher nach Vaporware aus und dem Versuch, dass irgendwer die kauft.

Baalzamon
2011-08-13, 22:26:12
Ich zweifle trotz dem Interview noch sehr stark an der wirklichen Reife von dem Zeug. Unlimited Detail wurde 2003 schon mit Videos präsentiert und in diesen 8 Jahren hat mans nicht geschafft irgendwen von der Idee zu überzeugen? Das sieht mir noch eher nach Vaporware aus und dem Versuch, dass irgendwer die kauft.
Hmmm... Offensichtlich hat er die australische Regierung überzeugt und zwei hochrangige IT Unternehmer (auch wenn mir die Namen nichts gesagt haben, wäre es doch ziemlich beschränkt in so einem Interview vom 'australischen Bill Gates' zu reden wenn das nicht auch nur annähernd der Wahrheit entspräche).

Hübie
2011-08-13, 22:38:27
Vor allem machte er das zuvor allein. Das als Vapoware zu betiteln fände ich zu voreilig. Ich denke da steckt einiges dahinter :smile:

Geldmann3
2011-08-14, 00:09:38
Offensichtlich hat er die australische Regierung überzeugt und zwei hochrangige IT Unternehmer
Das kann jeder behaupten. Und Jesus haben sie ebenfalls überzeugt. Hat etwa jemand von denen Stellung bezogen?

Wenn sie allerdings die Wahrheit sagen sollten, wird das in der Tat eine Grafische Revolution. Vergleichbar mit dem Sprung von PS1 zu PS3.

lumines
2011-08-14, 00:21:02
Ich zweifle trotz dem Interview noch sehr stark an der wirklichen Reife von dem Zeug. Unlimited Detail wurde 2003 schon mit Videos präsentiert und in diesen 8 Jahren hat mans nicht geschafft irgendwen von der Idee zu überzeugen? Das sieht mir noch eher nach Vaporware aus und dem Versuch, dass irgendwer die kauft.

Die Engine muss ja nicht direkt alles über den Haufen werfen und überflüssig machen. Das Gesamtpaket stimmt dafür, wie man sieht, noch nicht und ich vermute mal, dass das auch bis zu einem gewissen Grad so bleiben wird wegen der genannten Nachteile. Irgendwie werden sie da schon etwas tricksen, aber das wird bestimmt nicht 100%ig überzeugen. Die Frage ist natürlich, ob die Engine das überhaupt können muss. Sie wird ihre Nische schon finden.

Geldmann3
2011-08-14, 02:15:39
Die Frage ist natürlich, ob die Engine das überhaupt können muss. Sie wird ihre Nische schon finden.
Für mich gibt es noch immer keinen Beweis, dass es die angepriesene Engine überhaupt gibt.

Ich sage nicht, dass es sie nicht gibt, doch bisher beruht alles noch auf Behauptungen. 10^5 mal mehr Details in Echtzeit-3D-Grafik, dass sollen sie mir erstmal in Echtzeit auf meiner Hardware zeigen.

neustadt
2011-08-14, 02:33:11
klar gibt es die engine. wurde doch in echtzeit vorgeführt.
außerdem sind auch geldgeber da, team muss ja bezahlt werden. eine engine müssen die schon vorgezeigt haben um an geld zu kommen.

Hübie
2011-08-14, 03:06:51
Für mich gibt es noch immer keinen Beweis, dass es die angepriesene Engine überhaupt gibt.

Ich sage nicht, dass es sie nicht gibt, doch bisher beruht alles noch auf Behauptungen. 10^5 mal mehr Details in Echtzeit-3D-Grafik, dass sollen sie mir erstmal in Echtzeit auf meiner Hardware zeigen.

Dann schau dir doch das Interview von Hard OCP an ;D Der Interviewer sitzt davor und steuert. Ist das denn kein Beweis?

Geldmann3
2011-08-14, 03:58:29
Dann schau dir doch das Interview von Hard OCP an ;D Der Interviewer sitzt davor und steuert. Ist das denn kein Beweis?
Habs mir jetzt angesehen (http://www.hardocp.com/article/2011/08/10/euclideon_unlimited_detail_bruce_dell_interview), hat mich merklich beeindruckt.

Ist das denn kein Beweis?
Nein, ich kann auch ein XBOX Controller in die Hand nehmen und ein Video abspielen. Der Interviewer könnte ebenfalls zur Täuschung gehören.

Ich will eine umfangreiche Realtime Demo ala 3D Mark auf meinem Rechner laufen sehen. Am besten ein Game. Für den Anfang würde auch das Gezeigte mit viel mehr Objekten genügen. Wenn Das geht, wird auch der Rest funktionieren.

Oder sollen die doch einfach mal einen echten kleinen Garten detailliert so (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=512732) einscannen und dann mit dem Polygonkonverter konvertieren.

qu3x^
2011-08-14, 10:43:03
Ich kann auch gut nachvollziehen, das man sich als Programmierer einen Scheiss darum kehrt, wie es erstmal aussieht. Das Ding ist das Proof of Concept, die werden schon wissen was die Engine zu leisten im Stande ist. Wenn die Engine erstmal läuft ist das Austauschen der Grafik das geringste Problem.
Diese Aussage ist schlichtweg Falsch.
Wie man der Entwicklerlegenden John Carmack, bei der Entstehung von Rage schon sagen hörte, musste die gesamte Engine umgeschrieben werden. Das Konzept der MT komplett überarbeitet werden, gerade weil mehr Kontent ins Spiel reingewandert ist.
Kontentverwaltung = Speicherverwaltung, wenn du deinen Code für 20 Props (Objekte) hinoptimierst, und dann das 10fache darstellen zu versuchst wirst du sehen das deiner Engine schnell die Puste ausgeht.

Die Demo erinnert an die ersten Geometry Instancing Sachen, wo 20 Objekte ins unzählbare geklont wurden.

Abgesehn von dem was gezeigt wurde ist bei jedem polygonbasierten Spiel heute schon eine mehr oder minder gute Crowd vorhanden. In GoW2 hat der Spieler auch eine Horde von Klonkriegern am Schirm gesehn der die Performance der XBOX nicht in die Knie zwingt. Die Map/Demo als solche betrachtet ist eine Instanzierung von rund 20 Objekten die sich weder in Größe noch Diemension (Skalierung) unterscheiden. Ein Ausgeklügelter Algo könnte das auch mit Tris sofern es immer die exakt gleichen Diemensionen sind.

UHHHHH Unlimited random Tris überall :freak:
Die Technik ist Schwachsinn, und purer Hoax. Sobald man das Projekt mit sagen wir +200 Unterschiedlichen Objekten füllen, ist Ende im Gelände. Ganz zu schweigen davon das hier nichts animiert ist, kein PP gezeigt wird...

FeuerHoden
2011-08-14, 11:04:21
@qu3x^:

Wieviele unterschiedliche Objekte siehst du in dem Video? Ich meine es sind ~100.

neustadt
2011-08-14, 11:34:08
Interview (http://pc.gamespy.com/articles/118/1187338p1.html)von GameSpy. Bruce Dell (Dass er auch noch so heißt bei seiner Ego stimme ;D) geht auf viele Kritikpunkte ein. Animation, Speicherverbrauch, etc.
Zu seinem MausMitKleinenAugenUndGroßenOhrenSorry: Entweder sehr heuchlerisch, dann unsympathisch oder ironisch, dann ok. (http://www.youtube.com/watch?v=BeP6CpUnfc0)

Was mir bei nicht zusammen passt, ist dass sie angeblich alle zeit und geld der welt haben - denn sie wollen sich demnächst wieder für ein jahr absetzten, aber auf anderen seite hatte man nicht genug zeit mehr objekte für die demo einzuscannen/zu erstellen.

FeuerHoden
2011-08-14, 12:02:53
So wie ich das verstanden habe, haben sie das Geld seit 8 Monaten und davor wars nur ein Hobbyprojekt. Jetzt ist es ein Team von 9 Leuten und nur einer von ihnen macht Content, wie lang der aber an Board ist weiß ich nicht.

Und ich ziehe meine Aussage mit den ~100 unterschiedlichen Objekten zurück. Wenn man die verschiedenen Steine und Gräser betrachtet sind es in dieser Demo schon weit über 200.

Interessant finde ich aber in dem Demo Video dass die 2 Statuen bei denen der HardOCP-Typ 'Wooow' gesagt hat unter der Erde versteckt sind, also an einem Ort wo man den Rest des Levels nicht sieht. Das könnte schon ein Hinweis auf eine Limitierung sein den man zu verstecken versucht.

Und weiters fällt mir auf dass der Entwickler sich bemüht nicht durch irgendwelche Objekte durchzufliegen, dass es keine Kollisionsabfrage gibt sagt er ja. Nur wo wäre das Problem wenn er den Elefanten einfach mal von innen zeigt, oder so dass man den Konturverlauf als Linie von der Seite sieht. Ich hätte das interessant gefunden aber er scheint wirklich ein Problem damit zu haben.

josefYY
2011-08-14, 12:25:06
Hier ist ein aktuelles und richtig interessantes Interview mit dem Entwickler der Atomontage Engine.
Die scheint ja ähnlich zu funktionieren.
http://www.deltagamer.com/12583/interview-atomontage-engine

Edit 1: Die Seite ist wohl gerade down. Gestern Abend ging sie noch.

Edit 2: Hier der Link zu Google Cache:
http://webcache.googleusercontent.com/search?q=cache:eU9GIIBgF4EJ:deltagamer.com/12583/interview-atomontage-engine+http://www.deltagamer.com/12583/interview-atomontage-engine&cd=1&hl=de&ct=clnk&gl=de&client=firefox-a&source=www.google.de

qu3x^
2011-08-14, 13:08:54
@qu3x^:

Wieviele unterschiedliche Objekte siehst du in dem Video? Ich meine es sind ~100.
Auf den zweiten Blick sehe ich:

5 Steine
4 Bodensteinderl
2 Typen Gräser
2 Bäume
1 Strauch
1 Kaktus
1 Liane
2 Statuen
4 Bätter

Ich weis nicht wie du auf 100 Objekte kommst. Gemoetrie Instanzierung hat nichts damit zu tun dass die Objekte nicht rotiert werden dürfen! Im Angegebenen Beispiel selbst ist es sogar extrem schlecht gemacht da die Verteilung von Bäumen nicht mal mit einer Random Z Ausrichtung gesetzt sind. Stellenweise erinnert die Demo an Sprites wo einem alle Objekte aus der gleichen Perspektive in die Kamera schauen. Ich traue mich zu behaupten das bei unwesentlich mehr Variation das gesamte Konzept in die Brüche geht.

samm
2011-08-14, 14:45:42
Wie bereits gesagt, scheint an der Atomontage-Engine einiges mehr dran zu sein als an der schwammigen Geheimnistuerei um Unlimited Details. Der Entwickler geizt auch nicht mit technischen Detail-Angaben, die Demos sind glaubwürdiger, die Verknüpfung mit Physik und die Idee zum verteilten System sind spannend etc. pp.

Bloss die Website und deren Link auf den Arbeitgeber sowie, dass das Interview nur noch im Cache vorhanden ist - alles sehr merkwürdig :)

FeuerHoden
2011-08-14, 22:13:51
Auf den zweiten Blick sehe ich:

5 Steine
4 Bodensteinderl
2 Typen Gräser
2 Bäume
1 Strauch
1 Kaktus
1 Liane
2 Statuen
4 Bätter

Ich weis nicht wie du auf 100 Objekte kommst. Gemoetrie Instanzierung hat nichts damit zu tun dass die Objekte nicht rotiert werden dürfen! Im Angegebenen Beispiel selbst ist es sogar extrem schlecht gemacht da die Verteilung von Bäumen nicht mal mit einer Random Z Ausrichtung gesetzt sind. Stellenweise erinnert die Demo an Sprites wo einem alle Objekte aus der gleichen Perspektive in die Kamera schauen. Ich traue mich zu behaupten das bei unwesentlich mehr Variation das gesamte Konzept in die Brüche geht.

Schau mal um 36:xx, 37:xx, da sehe ich an Steinen, steinderln, Gräsern und Blättern mehr Variationen. Man sieht oft das gleiche, das stimmt, aber es ist schwierig im Video die Stellen zu finden wo wirklich mehr Variationen zu sehen sind da sie ja meist schnell über die Karte fliegen. Oder der Boden bei 7:24-7:34. Das sieht so konfus aus, ich sehe da kaum eine Struktur mehr als einmal. Auch bei 29:20 meine ich mehr als 10 unterschiedliche Steine auszumachen und bei 30:18 sehe ich auch in Form und Farbe andere Steine als bisher. Außerdem gibt es noch diese 'Balken' aus Stein unter der Map in mindestens 2 Variationen. Bei 30:36 sehe ich auch mehr als 2 Lianenarten.

Ich schließe nicht aus dass ich mich hier und da mal irre und ich will mich auch nicht drum streiten. Es kann immer noch ein Hoax sein und es kann immer noch in einer anderen Variante funktionieren als wir uns denken. Ich bin jedenfalls auf weitere Informationen gespannt wenn Euclideon in 1-2 Jahren wieder von sich hören lassen.

BigKid
2011-08-15, 13:16:42
Das kann jeder behaupten. Und Jesus haben sie ebenfalls überzeugt. Hat etwa jemand von denen Stellung bezogen?

Ja - z.B. die australischen Ämter. Kannst du bei denen nachlesen... Ich hab mir die Mühe gemacht... Such mal nach meinen Posts in diesem Thread...

Baalzamon
2011-08-15, 13:28:17
Diese Aussage ist schlichtweg Falsch.
Wie man der Entwicklerlegenden John Carmack, bei der Entstehung von Rage schon sagen hörte, musste die gesamte Engine umgeschrieben werden. Das Konzept der MT komplett überarbeitet werden, gerade weil mehr Kontent ins Spiel reingewandert ist.
Kontentverwaltung = Speicherverwaltung, wenn du deinen Code für 20 Props (Objekte) hinoptimierst, und dann das 10fache darstellen zu versuchst wirst du sehen das deiner Engine schnell die Puste ausgeht. [...]

Die Aussage ist schon korrekt, du hast mich nur falsch verstanden. ;)

Mehr Content ist für die Engine (evtl.) ein Problem. Nicht die Art des Contents. Was ich meinte ist eigentlich trivial, wird aber leider oft von den grafikbegeisterten Spielern vergessen.

Wenn ich eine Grafik-Engine programmiere (oder ein Spiel, oder irgendwas mit einer GUI oder Grafik) ist es zuerstmal egal wie diese Grafik aussieht.

Ob die Textur ein Schachbrettmuster ist, ein Foto aus dem letzten Urlaub oder die 'echte' Textur ist der Engine egal (solange immer dasselbe Format genutzt wird).

Ob ich einen Elefanten darstellen möchte, ein Auto, oder einen Zylinder ist der Engine egal (solange die Polygonanzahl gleich ist).

Das meine ich mit 'die Grafik ist egal'. Und ganz ehrlich, als Programmierer interessiert einen das normalerweise auch nicht. Da geht es nur darum zu zeigen, das es möglich ist, nicht das es auch toll aussieht. Dafür gibt es andere Leute.

Baalzamon
2011-08-15, 13:35:25
Das kann jeder behaupten. Und Jesus haben sie ebenfalls überzeugt. Hat etwa jemand von denen Stellung bezogen?
Geldmann3 kann auch viel behaupten. Aber noch nicht mal das Video (zu dem Zeitpunkt) gesehen und BigKids Post auch überlesen. :uup: :rolleyes:

Wenn sie allerdings die Wahrheit sagen sollten, wird das in der Tat eine Grafische Revolution. Vergleichbar mit dem Sprung von PS1 zu PS3.
PS1 zu PS3 ist Evolution. Das hier wäre schon eher sowas in der Kategorie wie Dell im Video sagt: Von 'bloppy 3 color graphics' zu Crysis. ;)

Edit: Huch, sorry für Doppelpost.

Hübie
2011-08-15, 21:25:23
Und genau deswegen fühlen sich viele auf den Schlips getreten. Ein möglich Szenario wäre, dass man die vom Markt kauft oder in der Entwicklung soweit behindert das wir auch in 50 Jahren noch mit Radeon 80.000 und GTX 7880 abgespeist werden können.
Diese Mann (und sein Gefolg) ist dabei eine komplette Industrie zu kippen ;D

hell_bird
2011-08-15, 22:32:03
Entweder ich bin Ironieblind oder die Typen haben mit ein wenig heißer Luft schon jede Menge Leute überzeugt. Ist wahrscheinlich wie Lottospielen: die Hoffnung stirbt zuletzt. Ich empfehle auch mal auf Youtube nach "free energy" zu suchen. Es ist unglaublich mit wieviel Mühe/Kreativität und totaler Realitätsverweigerung die Leute irgendwelche Aufbauten testen aus denen mehr Energie rauskommt als reingeht.

Geldmann3
2011-08-15, 22:40:28
Das hier wäre schon eher sowas in der Kategorie wie Dell im Video sagt: Von 'bloppy 3 color graphics' zu Crysis.
Hmmm, da müssten sich die Entwickler aber auch 10x mehr Mühe beim Design geben und Games würden eventuell viel mehr Speicherplatz verbrauchen.

FeuerHoden
2011-08-16, 02:20:17
Der Entwickler macht ja nur die Engine, für den Content sind dann die Spieleentwickler zuständig die die Engine lizensieren, wenn es dazu kommt.

Andere Frage: Wer glaubt denn dass der Typ von HardOCP tatsächlich 'gekauft' ist? Ich kenne HardOCP nicht sehr gut, aber als Online Schmierblatt die unseriös Unsinn verbreiten sind sie mir noch nicht aufgefallen.

Geldmann3
2011-08-16, 08:16:33
Ich finde seine Euphorie etwas verdächtig. Die Figuren wirken auf mich nicht beeindruckender als diverse Polygonmodelle. Auch die Steine wirken auf mich aufgrund der fehlenden Shader nicht sonderlich realistisch. Das einzige was mich beeindruckt, ist die Masse an Details.

Jetzt rage ich mich mal ganz weit aus dem Fenster und hoffe nicht runterzufallen:

Das wäre mit einer entsprechenden Super-Engine auch mit Polygonen möglich. Es dürfte eben nur das gerechnet werden, was man sieht und das LOD müsste optimal sein, sodass man den Übergang nicht mal mehr sieht.

-> Den Punkt, mehr Leistung sei überflüssig kann ich nicht nachvollziehen. Allein für Physikberechnungen kann man gar nicht genug Leistung haben. Wahrscheinlich müssen auch optische Effekte sowie Schatten anders dargestellt werden. Für Lichteffekte müsste man ja wieder (bis zu unendlich viele) Objekte aus der Umgebung einbeziehen. Sodass man am Ende eben doch mehr Leistung braucht. Je nachdem wie genau man Schatten etc. berechnen möchte.

BigKid
2011-08-16, 11:05:02
Ich finde seine Euphorie etwas verdächtig. Die Figuren wirken auf mich nicht beeindruckender als diverse Polygonmodelle. Auch die Steine wirken auf mich aufgrund der fehlenden Shader nicht sonderlich realistisch. Das einzige was mich beeindruckt, ist die Masse an Details.

Jetzt rage ich mich mal ganz weit aus dem Fenster und hoffe nicht runterzufallen:

Das wäre mit einer entsprechenden Super-Engine auch mit Polygonen möglich. Es dürfte eben nur das gerechnet werden, was man sieht und das LOD müsste optimal sein, sodass man den Übergang nicht mal mehr sieht.

-> Den Punkt, mehr Leistung sei überflüssig kann ich nicht nachvollziehen. Allein für Physikberechnungen kann man gar nicht genug Leistung haben. Wahrscheinlich müssen auch optische Effekte sowie Schatten anders dargestellt werden. Für Lichteffekte müsste man ja wieder (bis zu unendlich viele) Objekte aus der Umgebung einbeziehen. Sodass man am Ende eben doch mehr Leistung braucht. Je nachdem wie genau man Schatten etc. berechnen möchte.
Ich sage aktuell nicht dass ich dem Herrn Dell glaube - aber darum geht es mir auch nicht, denn das zu beurteilen fehlen uns imho immernoch Fakten.

Der Unterschied zwischen der Unlimited Details Engine (wie von Dell beschrieben) und jeder noch so superhyper Polygon Engine ist:
- bei der Polygon Engine bricht die Leistung mit der Anzahl der Polys und geringfügiger auch der Auflösung ein.
- bei der Unlimited Detail Engine bricht die Leistung "nur" mit der Auflösung ein.

Die Aussage von Dell IMHO ist schlicht: Egal wieviele Details, du brauchst nicht mehr Power.
Bei der Poly-Engine bricht selbst mit guten LOD die Leistung mit der Anzahl der sichtbaren Polys ein... Und LOD kommt auch nicht umsonst, genauso wie allein die Bestimmung der sichtbaren Polys auch kostet...

Grund ist, dass seine Engine pro Pixel direkt das passende Atom aus dem Hut zaubert. Und genau das ist der Punkt wo die (berechtigte) Kritik ansetzt: Man hat Zweifel, dass das mit dynamischen Inhalten noch klappt (Schatten, Animation, Oberflächen-Shader). Ein weiteres Argument ist, dass dieses aus dem Hut Zaubern laut Dell ein wichtiger Teil seiner Forschung ist, weil eben nicht gesucht werden muss, sondern geziehlt zugegriffen - das wiederum würde aber vermutlich einen immensen Speicherbedarf bedeuten. Das heisst aber nicht, dass er es nicht vielleicht irgendwie gelöst haben könnte... Und dass er hier vage bleibt und die Klappe hält bis es fertig und unter Dach und Fach ist halte ich für verständlich... Ein Betrüger wäre IMHO schon lange mit den abgegriffenen Mitteln abgetaucht aber zurück zur Technik...

Samtener Untergrund
2011-08-16, 13:35:23
Es ist halt noch eine Softwaretechnik, die viel Entwicklung benötigt. Und zwar löst sie wie Raytracing ein bestimmtes Problem, ob sie aber andere, ebenso wichtige Probleme ebenso beherrscht wie eine auf Polygonen basierte Engine, das wird man sehen, wenn sie ein Produkt an Spieleproduzenten oder CGI-Leute verkaufen wollen. Wo ich mir den Einsatz ganz gut vorstellen könnte, wäre bei Visualisierungen von z.B. Bauprojekten. Sicherlich eine interessante Technik, aber das war der Wankelmotor auch.

hell_bird
2011-08-16, 14:51:40
Der Unterschied zwischen der Unlimited Details Engine (wie von Dell beschrieben) und jeder noch so superhyper Polygon Engine ist:
- bei der Polygon Engine bricht die Leistung mit der Anzahl der Polys und geringfügiger auch der Auflösung ein.
- bei der Unlimited Detail Engine bricht die Leistung "nur" mit der Auflösung ein.

Die Aussage von Dell IMHO ist schlicht: Egal wieviele Details, du brauchst nicht mehr Power.

Bei einer Voxelengine bricht die Leistung linear zur Pixelanzahl und logarithmisch zur Voxelanzahl ein. Für Unlimited Detail braucht man also eine Voxelfindungszeit von erwarteten O(1) ungefähr wie bei einem Hash. Man muss ja fair bleiben: es gibt kein Naturgesetz oder algorithmische Regel die so eine Erfindung kategorisch ausschließt, aber es ist trotzdem ein Witz wie der Typ Versprechungen ohne Substanz macht.

Coda
2011-08-16, 15:10:10
Naajaa. O(log(n)) ist praktisch so gut wie O(1).

Geldmann3
2011-08-16, 15:32:02
Vermutlich ist was er erzählt durchaus möglich. Doch bei logischer Betrachtung wird spätestens mit Schatten oder Reflexionen mehr als 1 Voxel(pro Pixel) benötigt. Wobei man im Grunde dann pro reflektierenden Pixel nur 1 Voxel mehr berechnen müsste, kommt drauf an wie realitätsnah man sein möchte. Denn reflektierte Objekte reflektieren wiederum andere Lichtquellen. Es sei denn man verwendet sehr ungenaue oder vor berechnete Schatten, da könnte man natürlich tricksen.

hell_bird
2011-08-16, 15:53:28
Naajaa. O(log(n)) ist praktisch so gut wie O(1).
Fair enough. Wenn die eine einigermaßen brauchbare Voxelengine mit einer ganz normalen Baumstruktur auf die Beine stellen ist das eigentlich auch eine Leistung. Die ganze Übertreibung und Geheimnistuerei nervt mich aber inzwischen schon ein wenig.

Geldmann3
2011-08-16, 16:02:34
Ich verstehe die Geheimnistuerei. Man möchte keine genauen Details herausgeben, weil andere beginnen würden ähnliches zu entwickeln. Würde man eine Realtime-Techdemo veröffentlichen, würden direkt die Ersten versuchen herauszufinden wie die Engine funktioniert und irgendwann würde man sie kopieren.

Man versucht sich zuerst zu vermarkten.
Oder*
Hat nicht das angekündigte vorzuweisen.
Oder*
Ist wirklich noch in einer sehr frühen Phase und es gibt noch einige Probleme
Oder*
Mehrere und eventuell andere Punkte treffen zu.

hell_bird
2011-08-16, 16:25:39
Hier (http://www.pcgameshardware.de/aid,681315/Voxel-Rendering-am-Beispiel-id-Tech-6-erlaeutert/Technologie/Wissen/) ist übrigens auch ein Beispiel einer kleinen Softwarefirma, die an einer Engine mit unlimited details arbeitet und sich sehr bedeckt hält, was die genaue Umsetzung angeht.

Jetzt wird natürlich gleich das Argument kommen, dass Euclideon ein noname ist und die Aufmerksamkeit benötigt um überhaupt wahrgenommen zu werden. Das stimmt aber nicht. Unigine ist auch alleine durch tolle Demos und gute Technik bekannt geworden ohne sich mit lächerlichen Behauptungen zu blamieren.

Hübie
2011-08-16, 16:53:46
Naja nur hat Unigine kaum etwas revolutioniert und/oder hat Engines auf den Consumer-Markt gebracht (oder gibt es ein Spiel mit der Engine?). Sie waren lediglich oft die ersten welche aktuelle features grafisch umgesetzt haben.

Die benötigen jedenfalls keine Geheimniskrämerei. Ich stimme da Geldmann3 zu, denn ich würde auch nix an die Verbrecher da draussen Preis geben.
Mein Vorschlag ist daher: Mal die Füße still halten. Das ein Mensch die Welt verändern kann wurde oft genug bewiesen!
Wobei ein kritisches Auge natürlich nicht verkehrt ist solang es nicht in Ketzerei ausartet ;D

LG Hübie

Geldmann3
2011-08-16, 17:36:46
Der Sprung zu neuen Technologien scheint ein logischer Schritt. Bisher wurden Spiele grafisch immer verbessert indem man die Leistung der Hardware stark hoch-getrieben hat. Zwar entwickelt sich diese immernoch schnell weiter, jedoch kommt man schnell an die Grenzen des Möglichen. Für eine gefühlt doppelt so detailreiche Grafik braucht man locker 5x mehr Leistung.

Daher wird nun versucht die vorhandene Leistung (Welche richtig eingesetzt unfassbar viel ist) besser zu nutzen. Voxel scheinen viel Potential zu haben. Ich freue mich schon auf das erste Spiel, in dem man mit dem Scharfschützengewähr auf eine Wiese zoomen kann und dennoch viele Details zu Augen bekommt. Schon allein für die Darstellung einer solchen Wiese wäre unlimited Detail geil. Wie man es hin-bekommt die Grashalmen alle unterschiedlich zu bewegen ist eine andere Sache.

Aquaschaf
2011-08-16, 19:25:12
Ich sage aktuell nicht dass ich dem Herrn Dell glaube - aber darum geht es mir auch nicht, denn das zu beurteilen fehlen uns imho immernoch Fakten.

Der Unterschied zwischen der Unlimited Details Engine (wie von Dell beschrieben) und jeder noch so superhyper Polygon Engine ist:
- bei der Polygon Engine bricht die Leistung mit der Anzahl der Polys und geringfügiger auch der Auflösung ein.

Wenn das LOD gut genug funktioniert eben nicht - denn das begrenzt ja die Zahl der sichtbaren Polygone. Und mehr Polygone als du durch die begrenzte Auflösung überhaupt wahrnehmen kannst brauchst du nicht.

Geldmann3
2011-08-16, 19:39:40
Genau das meinte ich, ab einer gewissen Leistung kann man einfach immer genug Polygone darstellen um das Bild detailreich zu halten. Wenn ich mir ein Käfer in groß ansehe, sollten optimaler Weise genauso viele Polygone dargestellt werden, wie wenn ich den gesamten Wald betrachte. Die Framerate würde folglich nur minimal schwanken, egal was man gerade sieht.

Diese gewisse Leistung, macht sich auch unlimited Detail zunutze. Die Rechenleistung muss ja nur reichen, damit immer 1 Voxel/Pixel rausgesucht und dargestellt werden kann. Mehr wird ohne Schatten etc. nie nötig sein. Eben so, dass in der jeweiligen Auflösung optisch immer alles voll ausgefahren ist.

Vom Weiten hat der Käfer dann eben nur 1 Polygon vom Nahen (in der Großaufnahme) 10000+. Je nach Setting/Rechner müsste das LOD dann eben anders Skalieren. Bei einer optimalen Engine + Mid-Range Grafikkarte sieht man das LOD dann nicht mal mehr.

Ist der Käfer nur noch etwa 1px groß wird nur noch ein Voxel berechnet, ist er noch kleiner, sodass er den Farbwert des Pixels in dem er sich befindet nicht mehr dominiert, wird er irgendwann gar nicht mehr dargestellt.


davon sind heutige Entwickler aber noch weit entfernt. Die Engine müsste des weiteren in der Lage sein eigenständig von jedem Objekt ein LOD zu erstellen welches aus der jeweiligen Entfernung keinen optischen Unterschied zum Original aufweist. Es bedarf viele verschiedene Modelle eines Objekts, damit der Übergang nicht sichtbar wird sowie die Framerate gleich bleibt. Bisher erstellen die Entwickler die Levels of Detail meist noch von Hand. Wie gesagt kostet dieser Vorgang (automatisiert) allerdings ebenfalls einiges an Rechenleistung. Es braucht einen ausgeklügelten Algorithmus zum erstellen der LODs. Die Entwickler können da allerdings noch einiges optimieren.

Der Algorithmus könnte Polygone eines Modells löschen, sobald sie weniger als z.b. 4x4 Pixel einnehmen. Diese würde dann durch Voxel mit der durchschnittliche Farbe der verwendeten Textur ersetzt.
Irgendwann wie beim Käfer beschrieben ganz weg-rationalisiert.

Im Moment schafft das keine Engine. Dabei schaffen Moderne Rechner schon Millionen von Polygonen in einem Bild flüssig. Doch ich gehe davon aus, dass es allein mit Codeoptimierung möglich wäre den Polycount um das 10 fache zu erhöhen. Man bedenke, wenn bereits Javascript Engines so stark optimiert werden können, was kann man dann noch aus GameEngines herausholen, wenn man nochmal von vorne Entwickelt.

Warum bisher kaum etwas in dieser Richtung gecoded wurde ist einfach zu erklären ->, die Entwickler wollen Spiele raushauen und keine 6 Jahre+ in die Entwicklung einer Game-Engine stecken. Zumal man nicht weiß, ob das Konzept aufgeht oder es dann nicht schon etwas besseres gibt. Euclideon (http://www.euclideon.com/) konnte vielleicht nur entstehen, weil da diese einzelne Person war, die einen Traum hatte, die nicht darauf aus war ein bestimmtes Game zu releasen.

Coda
2011-08-16, 20:49:52
Das LOD-Problem bei Rasterisierung lässt sich sehr elegant und einfach mit Tesselation lösen.

BigKid
2011-08-16, 20:56:59
Wenn das LOD gut genug funktioniert eben nicht - denn das begrenzt ja die Zahl der sichtbaren Polygone. Und mehr Polygone als du durch die begrenzte Auflösung überhaupt wahrnehmen kannst brauchst du nicht.
Das ist Ansichtssache... Wie war das mit dem Spruch von Bill Gates ? 640kb sind mehr als jemals jemand brauchen wird ?
Denk mal an die Grafikdemos von Nvidia da wird meist die GESAMMTE verfügbare Power für 1-2 Chars verpulvert...und für die Umgebung bleibt fast nix ... Denk mal nur an Haare und die ganzen Details die man durch Bumpmapping etc mehr schlecht als recht simuliert... die wären dann WIRKLICH da...

Geldmann3
2011-08-16, 21:03:51
Das LOD-Problem bei Rasterisierung lässt sich sehr elegant und einfach mit Tesselation lösen.
Nein. Das mit dem Käfer ginge mit Tesselation nicht. Tesselation kann man nur anwenden, wo es lediglich nötig ist Höheninformationen in Polygone umzuwandeln. Selbst Gras kann man mit Tesselation nicht wirklich erstellen. Für einfache Strukturen oder das Erstellen von Erhöhungen ist Tesselation hingegen sehr gut geeignet.

Wobei bei heutigen Lösungen verpasst wird, tesseliertes Material bei entsprechender Entfernung gegen Bump Maps oder ähnliches zu ersetzen. Stattdessen sieht man die Polygone entweder wegfloppen und zu einer glatten Oberfläche werden oder das Ganze läuft nur noch mit High End Hardware ansatzweise flüssig. Siehe Heaven DX11 Benchmark (http://unigine.com/products/heaven/)

Coda
2011-08-16, 21:26:20
Nein. Das mit dem Käfer ginge mit Tesselation nicht.
Doch.

Selbst Gras kann man mit Tesselation nicht wirklich erstellen.
Aber selbstverständlich. Zusammen mit dem Geometry Shader funktioniert das wunderbar.

BigKid
2011-08-16, 21:41:40
Doch.
Aber selbstverständlich. Zusammen mit dem Geometry Shader funktioniert das wunderbar.
Wunderbar klingt so einfach ? Auch performant ?

SaschaW
2011-08-16, 21:46:47
Sicher, für stufenloses LOD sollten die aktuellen Tesselatoren problemlos ausreichen. Mit Occlusion Queries kann man dann sogar schön ermitteln wie viele Pixel von einem Objekt sichtbar sind und so dann z.b. ab einer bestimmten Größe auf Impostors umstellen oder das Objekt ganz weglassen. In Sachen LOD kann man heutzutage sehr viel machen, nur wird das eher selten benutzt. Wenn LOD-Stufen unangenehm hart ineinander übergehen oder z.b. Beplanzung aufm Boden aufploppt hat das nichts mit der Hardware zu tun, sondern eher mit Zeitdruck/Limitationen (Konsole) oder mangelnder Fachkentniss des 3D-Entwicklers.

BigKid
2011-08-16, 22:08:20
Sicher, für stufenloses LOD sollten die aktuellen Tesselatoren problemlos ausreichen. Mit Occlusion Queries kann man dann sogar schön ermitteln wie viele Pixel von einem Objekt sichtbar sind und so dann z.b. ab einer bestimmten Größe auf Impostors umstellen oder das Objekt ganz weglassen. In Sachen LOD kann man heutzutage sehr viel machen, nur wird das eher selten benutzt. Wenn LOD-Stufen unangenehm hart ineinander übergehen oder z.b. Beplanzung aufm Boden aufploppt hat das nichts mit der Hardware zu tun, sondern eher mit Zeitdruck/Limitationen (Konsole) oder mangelnder Fachkentniss des 3D-Entwicklers.
Dafür kommt es aber verdammt oft vor...

Grey
2011-08-16, 22:21:58
Gibt ja auch kaum DX11-Titel... und DX11-Only gibt es gar nicht.

Coda
2011-08-16, 22:30:42
Wunderbar klingt so einfach ? Auch performant ?
Sicher.

BigKid
2011-08-16, 22:33:50
Gibt ja auch kaum DX11-Titel... und DX11-Only gibt es gar nicht.
Was hat DX11 mit LOD zu tun *kopfkratz* ?

Geldmann3
2011-08-16, 22:46:00
DX11 Grafikkarten müssen Tesselation voll unterstützen. Im DX9/10 Mode ist Tesselation meist deaktiviert obwohl sie meist eigentlich (mit leichten Performance Einbußen) möglich wäre.

Zitat aus de.wikipedia.org (http://de.wikipedia.org/wiki/DirectX)
Grafikkartenseitige Unterteilung von 3D-Flächen in Dreiecke (Tessellation), durch die der Detailgrad von 3D-Szenen ohne Belastung des restlichen Systems erhöht werden kann. Dieses Feature wird derzeit schon von allen AMD-Grafikkarten ab der HD-5XXX Serie sowie von allen Nvidia-Grafikkarten ab der GeForce GTX 4XX Serie unterstützt.[5]

Coda
2011-08-16, 22:54:06
Im DX9/10 Mode ist Tesselation meist deaktiviert obwohl sie meist eigentlich (mit leichten Performance Einbußen) möglich wäre.
Wäre sie nicht.

Geldmann3
2011-08-16, 22:59:28
Warum nicht? Zwar nicht per Hardware, doch per Software kann man dennoch tesselieren. Die neuen Polygone würden dann von der GPU gerendert. Das wäre eben etwas langsamer...

Grundsätzlich hat die Technik doch nichts mit den Grafikkarten zu tun.

Yavion
2011-08-16, 23:11:48
There ain't no such thing as a free lunch.
An irgendetwas wird es hängen: Entweder am Speicher oder an der Rechenzeit. Und auch O(n) kann in der Praxis verdammt teuer sein.

Coda
2011-08-16, 23:31:23
Warum nicht? Zwar nicht per Hardware, doch per Software kann man dennoch tesselieren. Die neuen Polygone würden dann von der GPU gerendert. Das wäre eben etwas langsamer...

Grundsätzlich hat die Technik doch nichts mit den Grafikkarten zu tun.
Ich kann auch den ganzen Tag einen Kopfstand machen. Das ist ungefähr genauso sinnvoll.

SaschaW
2011-08-17, 10:27:34
Warum nicht? Zwar nicht per Hardware, doch per Software kann man dennoch tesselieren. Die neuen Polygone würden dann von der GPU gerendert. Das wäre eben etwas langsamer...

Grundsätzlich hat die Technik doch nichts mit den Grafikkarten zu tun.

Egal wie schnell deine CPU ist, in Software würde das viel zu langsam laufen.

Zum einen müsste man seine Vertices dann auch im Arbeitsspeicher halten (heute hat man die i.d.R. ja als VBOs direkt im VRAM liegen, früher als Display listen, VAs, etc.), und zum anderen müssten man dann die neuen Vertices, die durch die Tesselation entstehen bei jeder Änderung wieder zur CPU senden, was dank der geringen (im Vergleich zur Anbindung GPU-VRAM) Bandbreite ganz schlimm enden würde, denn die so generierte dynamische LOD-Darstellung des Modells kann man ja erst rendern wenn die neuen Vertices auch komplett im VRAM liegen.

Tesselation via Software ist also ein no-go für eine solche Technik die in jedem Frame das Erzeugen von Vertices erfordert (klar kann man optimieren, aber selbst dann ists via CPU viel zu langsam). Schliesslich gibts das ja schon ewig in der GLU und es wird nicht für Echtzeit-Tesselation genutzt.

Aber da man ja mit neuen GPUs nen frei programmierbaren Tesselator hat (inkl. Tesselationsshader) wird es wohl nicht mehr lange dauern bis die ersten PC-Titel mit sutfenlosem LOD kommen, wo man nur noch schwer erkennen wird wenn die LOD-Stufe gewechselt wird.

Ailuros
2011-08-17, 10:47:12
Ich sehe zwar ein dass es das Technologie-Forum ist und die relevante Debatte ist durchaus interessant, aber ich moechte trotz allem daran erinnern dass sie vor Jahren das Zeug zu diversen IHVs getragen haben und keiner daran interessiert war. Wurde ihnen denn zumindest ein Patent bis jetzt gegoennt oder ist es weiterhin der gleiche mysterioese/zwielichtige Laden der jetzt mit diesen Blah-demo wieder aufgefrischt wurde?

Geldmann3
2011-08-17, 14:34:30
Zum einen müsste man seine Vertices dann auch im Arbeitsspeicher halten (heute hat man die i.d.R. ja als VBOs direkt im VRAM liegen, früher als Display listen, VAs, etc.), und zum anderen müssten man dann die neuen Vertices, die durch die Tesselation entstehen bei jeder Änderung wieder zur CPU senden, was dank der geringen (im Vergleich zur Anbindung GPU-VRAM) Bandbreite ganz schlimm enden würde, denn die so generierte dynamische LOD-Darstellung des Modells kann man ja erst rendern wenn die neuen Vertices auch komplett im VRAM liegen.
Warum das der Overkill sein soll, kann ich nicht wirklich nachvollziehen. Angenommen wir lassen der CPU 1/25 Sekunde Zeit die Geometrie zu erzeugen, anschließend noch einmal solange um das Ganze in den Ram und VRAM zu schreiben (Wobei 1/25 Sek schon ziemlich lahm wäre). Die Anbindung des Ram ist zwar langsamer aber dafür müsste sie doch locker ausreichen. Dann wird das Ganze gerendert. Es müssten nur ein paar kb übertragen werden. Es wäre ja nicht zu vergleichen wie das Streamen von großen Texturen.
Eine Neuberechnung alle X Frames könnte je nach System/Ingame Setting auch genügen.
Spiegelungen werden bei niedrigem Setting in Need For Speed Most Wanted auch nicht jeden Frame neu berechnet. (Klar, das ist wieder was ganz anderes)

Oder hab ich da was übersehen? Wo genau wäre der Flaschenhals?

Grey
2011-08-17, 15:13:58
Ich sehe zwar ein dass es das Technologie-Forum ist und die relevante Debatte ist durchaus interessant, aber ich moechte trotz allem daran erinnern dass sie vor Jahren das Zeug zu diversen IHVs getragen haben und keiner daran interessiert war. Wurde ihnen denn zumindest ein Patent bis jetzt gegoennt oder ist es weiterhin der gleiche mysterioese/zwielichtige Laden der jetzt mit diesen Blah-demo wieder aufgefrischt wurde?

Da hast du wohl Recht. Es findet sich nirgends ein Hinweis auf eine registrierte oder unregistrierte Trade Mark. Weder auf der australischen Patent-Seite (http://www.ipaustralia.gov.au/) noch auf der Webseite von Euclideon. Bin da nicht bewandert, aber zumindest ein "TM" sollte doch nicht so schwierig sein?!

Ailuros
2011-08-17, 15:27:55
Da hast du wohl Recht. Es findet sich nirgends ein Hinweis auf eine registrierte oder unregistrierte Trade Mark. Weder auf der australischen Patent-Seite (http://www.ipaustralia.gov.au/) noch auf der Webseite von Euclideon. Bin da nicht bewandert, aber zumindest ein "TM" sollte doch nicht so schwierig sein?!

Falls es ein oder mehrere Patente geben sollte, koennte es auch nur unter dem Namen des Erfinders registriert sein. Auf jeden Fall wurde ihnen in der Vergangenheit keines ihrer Patent-Anfragen gegoennt.

SaschaW
2011-08-17, 16:54:55
Es müssten nur ein paar kb übertragen werden. Es wäre ja nicht zu vergleichen wie das Streamen von großen Texturen.
Genau da liegt der Denkfehler. Oft denken Leute die selber keinen 3D-Kram entwicklen ein 3D-Modell würde nur aus ein paar "Polygonen" bestehen (in OpenGL und co. gibt es Polyone, nur nutzen sollte man die nicht, müssen ja trianguliert werden, 3D-Daten werden i.d.r. als Dreiecke oder Dreicksreihen übergeben), wobei jedes Polyon Eckpunkte hat. Aber dem ist nicht so, Beispiel :

Ein Dreieck (!) für ein aktuelles 3D Modell beinhaltet aber viel mehr Daten. In etwa so (macht jedes Team ein wenig anders, ich beschränk mich mal aufs Einfachste)
3 Eckpunkte = 12 Bytes (32 Bit, double nutzt man in einer 3D-Spielewelt eher nicht)
3 Normalen = 12 Bytes (benötigt man für die korrekte Beleuchtung des Modells)
3 Texturkoordinatenpaare (Colormap, uv) = 24 Bytes
3 weitere Vertexattribute (z.b. binormale für Normalmapping, usw.) = 24 Bytes (bei 3-Kompnenten halt mehr)

Ergibt also aktuell mindestens (!) 72 Bytes pro Dreiecke. In der Realität eher mehr, oft hat man mehrere Vertexattribute, je nach Fall auch mehrere Texturkoordinaten für Multitexturing etc. (wobei man hier im Shader dafür dann auch Vertexattribute verwenden kann).

Also 72 x 20.000 (ich denke für aktuelle Spiele der passende Polycount für ein (!) Figurenmodell) entspricht dann circa 1,4 MByte pro Modell an reinen Grundvertexdaten, je nach Szenario kann das auch mal doppelt so viel sein.

Ausserdem werden Modelle schon lange nicht blind als Dreieckssuppe gerendert, sonder über ein Indexarray dass die Dreiecks-IDs ablegt, das hat Performancegründe. Sprich zu obigen Dreiecksdaten kommen noch die passenden Indexdaten dazu die auch gespeichert, berechnet und übermittelt werden müssen.

Für die CPU-Tesselierung musst du diese Daten natürlich noch im RAM halten (was ansonsten nicht nötigt wäre) und auf der CPU neue Vertices inkl. Indizes erstellen (inkl. allem was dazu gehört, also Normalen, UV-Koordinaten, Vertexattribute, etc.) bzw. neue Repräsentationen für verschieden LOD-Stufen. D.h. du musst dich nicht nur durch die Vertices arbeiten um die anderen LOD-Stufen zu errechnen bzw. zu tesselieren, sondern auch neue Speicherbereiche erstellen. Und ja, Speicher fragmentiert, genauso wie deine Platte, also muss dahinter auch ein sehr performantes Speichermanagement stehen. Dann musst du die Daten wieder an die CPU senden, das geht nicht nur auf den Bus sondern erzeugt auch wieder einiges an CPU-Overhead durch die CPU-Calls die man fürs Hochalden aufrufen muss (auch wenn das durchaus wenig Overhead ist gehört er doch dazu).

Spätestens für ein dutzend solcher Modelle wird das knapp. Dann hättest du 12 * 1,4+ MByte an Daten pro Frame die bearbeitet, abgelegt und über den Bus zur Grafikkarte hochmüssen. Und da die Bus Bandbreite durch andere Dinge auch schon teilweise belegt ist wird das nichts werden. Selbst wenns nur 10 MByte an Daten wären die du einach nur hochjagst ohne was daran zu berechnen wären dass bei 30 FPS schon 300 MByte Daten und jede Menge Overhead. Und da dann zu sagen "alle x frames" (macht man bei Spiegelungen ja oft wie du sagst, ich in meinem Spielen/Demos auch) bringts auch nicht.


Kurz gesagt : Tesselierung auf der CPU ist nicht so trivial wie man evtl. annehmen dürfte!

del_4901
2011-08-17, 18:13:01
Genau da liegt der Denkfehler. Oft denken Leute die selber keinen 3D-Kram entwicklen ein 3D-Modell würde nur aus ein paar "Polygonen" bestehen (in OpenGL und co. gibt es Polyone, nur nutzen sollte man die nicht, müssen ja trianguliert werden, 3D-Daten werden i.d.r. als Dreiecke oder Dreicksreihen übergeben), wobei jedes Polyon Eckpunkte hat. Aber dem ist nicht so, Beispiel :

Ein Dreieck (!) für ein aktuelles 3D Modell beinhaltet aber viel mehr Daten. In etwa so (macht jedes Team ein wenig anders, ich beschränk mich mal aufs Einfachste)
3 Eckpunkte = 12 Bytesu (32 Bit, double nutzt man in einer 3D-Spielewelt eher nicht)
3 Normalen = 12 Bytes (benötigt man für die korrekte Beleuchtung des Modells)
3 Texturkoordinatenpaare (Colormap, uv) = 24 Bytes
3 weitere Vertexattribute (z.b. binormale für Normalmapping, usw.) = 24 Bytes (bei 3-Kompnenten halt mehr)

Ergibt also aktuell mindestens (!) 72 Bytes pro Dreiecke. In der Realität eher mehr, oft hat man mehrere Vertexattribute, je nach Fall auch mehrere Texturkoordinaten für Multitexturing etc. (wobei man hier im Shader dafür dann auch Vertexattribute verwenden kann).

Also 72 x 20.000 (ich denke für aktuelle Spiele der passende Polycount für ein (!) Figurenmodell) entspricht dann circa 1,4 MByte pro Modell an reinen Grundvertexdaten, je nach Szenario kann das auch mal doppelt so viel sein.

Ausserdem werden Modelle schon lange nicht blind als Dreieckssuppe gerendert, sonder über ein Indexarray dass die Dreiecks-IDs ablegt, das hat Performancegründe. Sprich zu obigen Dreiecksdaten kommen noch die passenden Indexdaten dazu die auch gespeichert, berechnet und übermittelt werden müssen.

Für die CPU-Tesselierung musst du diese Daten natürlich noch im RAM halten (was ansonsten nicht nötigt wäre) und auf der CPU neue Vertices inkl. Indizes erstellen (inkl. allem was dazu gehört, also Normalen, UV-Koordinaten, Vertexattribute, etc.) bzw. neue Repräsentationen für verschieden LOD-Stufen. D.h. du musst dich nicht nur durch die Vertices arbeiten um die anderen LOD-Stufen zu errechnen bzw. zu tesselieren, sondern auch neue Speicherbereiche erstellen. Und ja, Speicher fragmentiert, genauso wie deine Platte, also muss dahinter auch ein sehr performantes Speichermanagement stehen. Dann musst du die Daten wieder an die CPU senden, das geht nicht nur auf den Bus sondern erzeugt auch wieder einiges an CPU-Overhead durch die CPU-Calls die man fürs Hochalden aufrufen muss (auch wenn das durchaus wenig Overhead ist gehört er doch dazu).

Spätestens für ein dutzend solcher Modelle wird das knapp. Dann hättest du 12 * 1,4+ MByte an Daten pro Frame die bearbeitet, abgelegt und über den Bus zur Grafikkarte hochmüssen. Und da die Bus Bandbreite durch andere Dinge auch schon teilweise belegt ist wird das nichts werden. Selbst wenns nur 10 MByte an Daten wären die du einach nur hochjagst ohne was daran zu berechnen wären dass bei 30 FPS schon 300 MByte Daten und jede Menge Overhead. Und da dann zu sagen "alle x frames" (macht man bei Spiegelungen ja oft wie du sagst, ich in meinem Spielen/Demos auch) bringts auch nicht.


Kurz gesagt : Tesselierung auf der CPU ist nicht so trivial wie man evtl. annehmen dürfte!
Soviel bytes braucht man nicht. Normalen etc. quetscht man in 3byte fuer color nimmt man sogar nur 1byte fuer position reichen einem auch 6byte in grossen leveln braucht manauch schon mal 12byte. Indizies werden solang es geht mit 2bytes codiert.

SaschaW
2011-08-17, 18:16:24
Soviel bytes braucht man nicht. Normalen etc. quetscht man in 3byte fuer color nimmt man sogar nur 1byte fuer position reichen einem auch 6byte in grossen leveln braucht manauch schon mal 12byte. Indizies werden solang es geht mit 2bytes codiert.

Das glaube ich nicht Tim! Farbe hab ich ja weggelassen (mit einem Byte wärens nur 256 Farben, ich glaube du verwechselst da was...), braucht man in Shaderzeiten eh nicht. Aber wie will man Normalen bitte in 3 Byte quetschen (ausser mit Kompression), und Position in 6 Bytes? Position ist (mindestens) X,Y,Z (und evlt. noch W), also 3xSingle (=3x4 Bytes).

del_4901
2011-08-17, 18:17:57
Warum das der Overkill sein soll, kann ich nicht wirklich nachvollziehen. Angenommen wir lassen der CPU 1/25 Sekunde Zeit die Geometrie zu erzeugen, anschließend noch einmal solange um das Ganze in den Ram und VRAM zu schreiben (Wobei 1/25 Sek schon ziemlich lahm wäre). Die Anbindung des Ram ist zwar langsamer aber dafür müsste sie doch locker ausreichen. Dann wird das Ganze gerendert. Es müssten nur ein paar kb übertragen werden. Es wäre ja nicht zu vergleichen wie das Streamen von großen Texturen.
Eine Neuberechnung alle X Frames könnte je nach System/Ingame Setting auch genügen.
Spiegelungen werden bei niedrigem Setting in Need For Speed Most Wanted auch nicht jeden Frame neu berechnet. (Klar, das ist wieder was ganz anderes)

Oder hab ich da was übersehen? Wo genau wäre der Flaschenhals?
Das Hauptproblem duerfte in der Latenz liegen , und wenn du das Loch nicht gefuellt bekommst, dann knickt die GPU ganz schnell ein. Unter DX10 koennte man tesselation noch mit Instancing emulieren unter DX9 seh ich schwarz.

del_4901
2011-08-17, 18:25:32
Das glaube ich nicht Tim! Farbe hab ich ja weggelassen (mit einem Byte wärens nur 256 Farben, ich glaube du verwechselst da was...), braucht man in Shaderzeiten eh nicht. Aber wie will man Normalen bitte in 3 Byte quetschen (ausser mit Kompression), und Position in 6 Bytes? Position ist (mindestens) X,Y,Z (und evlt. noch W), also 3xSingle (=3x4 Bytes).
fuer normalen reicht ein byte pro channel, die finalen Werte holt man sich eh aus der Normalmap. Und fuer Position reicht meisst ein half pro channel. Jeder gute Input assembler packt dir das dann wieder aus. Unser Maincharacter hat mit seinen 200k polys etwa 600kb und das ist incl. skinning daten.

Geldmann3
2011-08-17, 19:51:33
Danke, jetzt weiß ich etwas mehr. :wink:
Ob es jetzt vom Prinzip her klappen würde, da scheinen sich die Meinungen zu scheiden.
Mit DX11 ist es allerdings um einiges einfacher. Hoffen wir mal, dsas die Entwickler diese Möglichkeit endlich mal wahrnehmen. :freak:

Wenn die PS3 / XBox360 nur auf der Stufe von DX9 entwickelt wurden, muss der Nachteil gegenüber heutiger Gaminghardware ja gewaltig sein. Man müsste man die Spiele-Engines kostspielig doppelt entwickeln.

Daher die teilweise schwache Grafik/Hardware Korrelation in heutigen Games.

Grey
2011-08-17, 20:13:33
Im Übrigen ist die Problematik noch eine Zusätzliche, die bei diesem Thema eine Rolle spielt. Ich bin der Ansicht, dass (ebenso wie heute) auch die kommende Generation der Konsolen das Geschehen und die Geschwindigkeit der Etablierung neuer Technologien bestimmen wird.

Von daher müsste eine "UD" eigentlich schon genau dort Fuß fassen (was wohl kaum der Fall sein wird) um mittelfristig überhaupt etwas zu werden. Ich bin zu sehr Laie um die Hardware <-> Software-Konstellation als Ganzes zu sehen. Wenn aber diese Idee nicht mit der kommenden Generation der Konsolen zu vereinigen ist, sehe ich wiederum kaum Zukunft dafür. Alles natürlich unter dem Aspekt, dass es eine realistische Technologie ist. Ailuros Einwand war schon wieder so ein Tritt in die Pfeiler des gerade gesetzten Konstruktes der Glaubwürdigkeit...

Aquaschaf
2011-08-19, 08:10:42
Das ist Ansichtssache...

Was ist daran bitte Ansichtssache? Mehr Polygone kannst du nicht sehen.

Geldmann3
2011-08-19, 14:02:01
Angenommen 1,5Mio Polygone müssten für unlimited Detail in Full HD immer dargestellt werden. Nochmal sowiel Leistung geht weg für Texturen Shader etc. und nochmal soviel für die Nachbearbeitung. Genau-soviel nur für die Berechnung des LOD.

Dann könnte ein PC, mit einer "Superpolygonengine" in FullHD unlimited Detail abspielen, dabei würde "nur" soviel Leistung verbraten werden wie bei einer sehr komplexen Szene in Crysis.

Ist natürlich alles sehr hypothetisch.

Doch bereits Crytek hat versucht sich dem anzunähern und ist auf einige Hürden gestoßen. Wer sich in Crysis das Drahtgittermodell ansieht, bemerkt, dass immer nur Das berechnet wird, was der Spieler ansatzweise sieht. Jedoch muss man abwägen, was der Spieler einen Moment später sehen könnte. Es wird sozusagen für die nächsten Frames vorgesorgt, damit es nicht zu nachladerucklern oder Pop-Ups kommt. Ausserdem gibt es noch kein komplett selbst-generierendes LOD. Auch werden Objekte immer mit einer gewissen Detaildichte dargestellt, egal wie weit man weg ist. Bäume sind auch noch nicht ansatzweise optimal, es werden viel zu viele Polygone dargestellt.
Ist wohl generell so, spätestens wenn der Polycount 2Mio überschreitet. Das ist dann ja im Schnitt 1 Polygon pro Pixel.... Doch bei einem Pixel macht ein Polygon gar keinen Sinn mehr, denn ein Punkt kann kein Vieleck darstellen. An dieser Stelle müsste man wie oben von mir beschrieben temporär in Voxel übergehen.

SaschaW
2011-08-19, 17:25:55
Entwickelst du selbst auch 3D-Anwendungen? Hört sich nämlich nicht so an. Zu sagen 2 Millionen Dreiecke (wie gesagt verwendet man keine Polygone, die stellen den langsamsten Primitiventyp überhaupt dar) würden 1 Dreieck pro Pixel entsprechen ist ne sehr eigenwillige Aussage die man so nicht stehen lassen sollte. Ein Dreieck kann riesig sein (Hälte ner Hauswand) oder ganz klein (Hälfte des Billboards für nen Grashalm z.b.), und selbst dann weiß man noch nicht wieviel Platz es letztendlich im 2D-Raum einnimmt. Von daher kann man also nicht sagen welches Dreieck wieviel Platz einnehmen würde. Das müsste man dann mit Queries machen die aber für so viele Polygone nicht machbar sind (die nimmt man z.b. für Portale bei PVS, also nur wenige pro Frame).

Und es wird sehr wohl geprüft was man im nächsten Frame sieht, das hat aber nur indirekt mit Popups und Nachladerucklern zu tun. Zumal grade in einer so extrem dynamischen Umgebung wie es in einem Spiel der Fall ist extrem schwierig ist zu ermitteln was der Spieler die nächsten paar Frames zu Gesicht bekommt. Dies wird versucht, aber wie gesagt haben Nachladeruckler usw. nix damit zu tun. Damit diese ganz wegfallen würden (bei aktueller Technologie) müsste man schon sehr früh wissen was als nächstes gebraucht wird und dieses langsam und in Stücken hochladen, was aber in einem Spiel kaum machbar ist. Was wenn der Spieler sich schnell umdreht? Dann war die Vorhersage vollkommen falsch und macht alles im Endeffekt noch schlimmer. Sowas ginge sicher bei nem Railshooter, aber das wars auch schon.

Und deine erste Aussage passt auch nicht. Wie gesagt kann man nicht einfach sagen "X Dreiecke" reichen für "unlimited" Detail in Auflösung z, da wie oben gesagt ein Dreieck winzig aber auch riesig sei kann. Und alle Stufen des Renderings mit gleicher Leistung hinzustellen ist bei der aktuellen Generation auch falsch. Die Limits ändern sich von Anwendungsfall zu Anwendungsfall. So kann an je nach Szenario durch den Shaderdurchsatz limitiert sein und ein paar Frames später ists dann die Füllrate die bremst weil man viel Post-Processing macht etc.

Mr. Lolman
2011-08-19, 17:55:20
. Auch werden Objekte immer mit einer gewissen Detaildichte dargestellt, egal wie weit man weg ist. Bäume sind auch noch nicht ansatzweise optimal, es werden viel zu viele Polygone dargestellt.

Die Bäume haben im Schnitt min. 2 LOD-Stufen und werden ab einer gewissen Entfernung nur mehr mit in Echtzeit generierten 64x64Pixel großen Bitmaps dargestellt. Das der Polygoncount tw. so hoch ist, liegt am Overdraw. Gerade bei Bäumen funktioniert das Culling prinzipbedingt nicht optimal, da die Transparenzen über Alphakanäle in den Texturen geregelt sind, und man deswegen Objekte dahinter komplett berechnen muss, auch wenn sie vielleicht von einem Mesh (durch den opaken Teil des daraufliegenden Materials) ohnehin größtenteils abgedeckt würden. Das was das Crysis LOD so suboptimal macht, ist dass es kein Blending zwischen den einzelnen LOD-Stufen gibt - das würde zwar den Polygoncount weiter erhöhen, dafür wären die Übergänge nicht so abrupt.

Geldmann3
2011-08-19, 18:01:30
Entwickelst du selbst auch 3D-Anwendungen? Hört sich nämlich nicht so an.
Nein, bin nur im Modding-Bereich unterwegs.

Zu sagen 2 Millionen Dreiecke (wie gesagt verwendet man keine Polygone, die stellen den langsamsten Primitiventyp überhaupt dar) würden 1 Dreieck pro Pixel entsprechen ist ne sehr eigenwillige Aussage die man so nicht stehen lassen sollte. Ein Dreieck kann riesig sein (Hälte ner Hauswand) oder ganz klein (Hälfte des Billboards für nen Grashalm z.b.), und selbst dann weiß man noch nicht wieviel Platz es letztendlich im 2D-Raum einnimmt. Von daher kann man also nicht sagen welches Dreieck wieviel Platz einnehmen würde. Das müsste man dann mit Queries machen die aber für so viele Polygone nicht machbar sind (die nimmt man z.b. für Portale bei PVS, also nur wenige pro Frame).
Ist klar, sollte auch nur als ganz grobe Darstellung herhalten. Natürlich ist jede Situation völlig anders.

Und es wird sehr wohl geprüft was man im nächsten Frame sieht, das hat aber nur indirekt mit Popups und Nachladerucklern zu tun.
Es hat mit Nachladerucklern und Popups zu tun (Natürlich nicht immer), wenn etwas dargestellt werden soll, was noch nicht gerändert ist, muss entweder ein Error ausgegeben werden (Spiel Ende) oder es muss gewartet werden (Nachladeruckler oder gar Hänger) oder man lässt die nicht fertige Version einfach auf den Bildschirm los (Pop Up) Für jede einzelne Situation könnte ich dir Beispiele in realen Spielen nennen.

Und es wird sehr wohl geprüft was man im nächsten Frame sieht, das hat aber nur indirekt mit Popups und Nachladerucklern zu tun.
Meiner Erfahrung nach, wird nicht wirklich geprüft, sondern mögliche Szenen werden nur vorgeladen und (zum sehr geringen Teil!)teilweise auch vor/gerendert. Das Spiel versucht aber nicht anhand der aktuellen Bewegung oder Situation zu erahnen, wo der Spieler als nächstes hinsieht, sondern aufgrund der aktuellen Kameraeinstellung.

Was wenn der Spieler sich schnell umdreht?
Dann muss es schnell gehen. Eine problematische Situation, hinter dem Spieler ist nämlich meist 0 vorgerändert und nicht unbedingt alles nötige im VRAM. (Kann ich auch Praktische Beispiele nennen, in denen das auf langsamen Rechnern nicht schnell genug geht...)

Und deine erste Aussage passt auch nicht. Wie gesagt kann man nicht einfach sagen "X Dreiecke" reichen für "unlimited" Detail in Auflösung z, da wie oben gesagt ein Dreieck winzig aber auch riesig sei kann.
Riesige Dreiecke machen keinen Sinn! Höchstens wenn du Bumpmappen oder ähnliches willst, nicht aber wenn eh alles aus kleinen Polygonen besteht. Oder willst du nochmal unnötig eine Zweite Schicht aus Dreiecken über das erste Polygon kleben. Der erste Layer wäre dann nicht sichtbar und somit Sinnfrei. Und kleiner als 4 Pixel macht auch (als Polygon)kaum noch Sinn.

In der Praxis sollten es also sogar viel weniger als 1,5Mio Polygone sein. Bei einer Auflösung von 1920x1080px hätte man selbst, wenn in jedem Pixel im Schnitt 1/2 Polygon wäre nur 1Mio Polys. Natürlich gibt es Ausnahmen für die man eine höhere Polygonzahl/Pixel benötigen könnte. Wie transparente Oberflächen.
---
Die Bäume haben im Schnitt min. 2 LOD-Stufen und werden ab einer gewissen Entfernung nur mehr mit in Echtzeit generierten 64x64Pixel großen Bitmaps dargestellt.
Jo, meist echt hässlich, hab ich glaube ich zuerst in Far Cry gesehen. Zum Glück lässt sich das LOD dort beliebig erhöhen. Das Problem ist der Übergang und die Größe der Bitmaps. Sowie, dass man die LODs locker voneinander unterscheiden kann.

Baalzamon
2011-08-23, 14:22:29
Cevat Yerli im Interview: Crytek findet Unlimited Detail "absolut glaubwürdig" (http://www.golem.de/1108/85910.html)

Artiekl von golem.de, der leider nicht sehr informativ ist. Ausser das Crytek sich selbst vor 7 Jahren an dieser Technik versucht und für zu langsam befunden haben.

Und natürlich werden die bereits bekannten Probleme der Toolchain und Physik angesprochen.

Trotzdem schön zu sehen, das hier jemand mit (praktischer) Ahnung mal was dazu sagt.

Ailuros
2011-10-24, 07:59:22
Ich hab zwar nach etwas anderem gesucht, aber Euclideon scheint immer und immer wieder Patent-Applikation anzulegen die entweder nach einem spezifischen Zeitpunkt auslaufen oder einfach aus X Gruenden zurueckgezogen werden: http://pericles.ipaustralia.gov.au/ols/auspat/quickSearch.do;jsessionid=Tk9HqSKY6bV7hRRL9L9rbFPgVKW22S0Tk5qvBj4Bl6Q1GRh2vdjp!-1208919755

:biggrin:

Hübie
2011-10-24, 09:04:12
Ich seh da nix von einem Patent. Ich finde nur das (http://pericles.ipaustralia.gov.au/ols/auspat/applicationDetails.do?applicationNo=2011900489) eine zurückgezogene Patent.

Warum er das zurückgezogen hat weiß ich nicht.

sloth9
2011-10-24, 09:10:44
Ich lach mich noch immer über alle kaputt, die das hier jemals ernstnahmen...

Ailuros
2011-10-24, 09:20:25
Ich seh da nix von einem Patent. Ich finde nur das (http://pericles.ipaustralia.gov.au/ols/auspat/applicationDetails.do?applicationNo=2011900489) eine zurückgezogene Patent.

Warum er das zurückgezogen hat weiß ich nicht.

Such mal unter Dell Bruce nach ;)

Hübie
2011-10-24, 09:30:34
Ah okay. Hab unter Euclideon gesucht ;)
@sloth9: Wer zuletzt lacht...

Ailuros
2011-10-24, 11:11:31
Ah okay. Hab unter Euclideon gesucht ;)

;)

@sloth9: Wer zuletzt lacht...

Das gleiche Zeug wird schon seit 2004 immer und immer wieder eingereicht. Nach 7 Jahren duerfte man wohl zumindest ein einziges gegoenntes Patent von jeglichem Patentamt erwarten.

So wie es aussieht wird es vorruebergehend mal wieder Ruhe um das Zeug geben bis in ein paar Jahren ein aehnlicher ramtamtam darueber anfaengt. Quasi ein perpetuum mobile.

Hübie
2011-10-25, 03:04:44
*lol* Naja Bruce meinte ja das bis nächstes Jahr ohne hin Funkstille herrscht. Wenn dann nix brauchbares kommt wars ne Ente.
Ich bleib da mal neutral und guck mir das in Ruhe an ;)

Ailuros
2011-10-25, 14:46:36
*lol* Naja Bruce meinte ja das bis nächstes Jahr ohne hin Funkstille herrscht. Wenn dann nix brauchbares kommt wars ne Ente.
Ich bleib da mal neutral und guck mir das in Ruhe an ;)

War aber auch nicht das erste Mal dass er aehnliches behauptete. Mir ist persoenlich die Geduld ausgegangen und das schon seit Jahren als er das Zeug zu diversen Grafik-IHVs getragen hat und es keiner haben wollte.

Spasstiger
2011-10-25, 15:07:44
Ich lach mich noch immer über alle kaputt, die das hier jemals ernstnahmen...
Warum sollte man es nicht ernst nehmen? Zwei Kumpels von mir arbeiten beruflich an sowas und Crytek hat damit offenbar auch schon experimentiert. In 3DMark 2001 SE gabs das auch schon, der letzte Feature-Test (Point Sprites).