PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Unlimited Detail: Vaporware oder die Zukunft der Grafik?


Seiten : 1 [2]

MädBrain
2011-10-25, 15:50:51
Weil *** immer und jeden belächlen, der etwas "Neues" hat. ;D

Wie oft werden Innovationen belächelt...

hell_bird
2011-10-25, 16:15:58
Warum sollte man es nicht ernst nehmen?
Weil es schon viel bessere Voxeldemos gab und sie immer davon reden, dass sie irgendetwas komplett Neues erfunden hätten, wofür es keine Anzeichen gibt.

Ich verstehe es immernoch nicht woher die ganzen Optimisten ihren Optimismus haben.

Zwei Kumpels von mir arbeiten beruflich an sowas
Lass mich raten: medizinische Visualisierung? Das hat ein wenig andere Anforderungen als Spiele.

Spasstiger
2011-10-25, 16:33:20
Lass mich raten: medizinische Visualisierung? Das hat ein wenig andere Anforderungen als Spiele.
Ne, Anwendersoftware für 3D-Scanner. Dort gibt es wie bei Unlimited Detail die Problemstellung, dass man Milliarden von Punkten in einem Projekt hat, die in einer geeigneten Datenstruktur abgelegt sein müssen, um eine repräsentative Auswahl davon in Echtzeit darstellen zu können.

Ich behaupte nicht, dass Unlimited Detail der große Durchbruch ist und die Spielegrafik revolutionieren wird. Aber ich denke, dass dieses Stück Software tatsächlich existiert. Ich sehe keine Gründe, von einem Hoax auszugehen, zumal Euclideon staatlich gefördert wird.

Ailuros
2011-10-25, 16:49:59
Ich behaupte nicht, dass Unlimited Detail der große Durchbruch ist und die Spielegrafik revolutionieren wird. Aber ich denke, dass dieses Stück Software tatsächlich existiert. Ich sehe keine Gründe, von einem Hoax auszugehen, zumal Euclideon staatlich gefördert wird.

Ein Hoax ist es sicher nicht, nur eben nichts so originales dass die ganze Hintergrund-Idee erstmal patentiert werden kann und von da ab auch nichts besonderes dass ein jeglicher IHV und/oder ISV etwas von Euclideon kaufen oder lizenzieren wird.

Weil *** immer und jeden belächlen, der etwas "Neues" hat. ;D

Wie oft werden Innovationen belächelt...

Innovationen werden sicherheitshalber patentiert.

Coda
2011-10-25, 20:06:11
Software lässt sich nur leider nur in den USA patentieren. Zurecht.

Ailuros
2011-10-25, 20:31:36
Software lässt sich nur leider nur in den USA patentieren. Zurecht.

Nicht nur :D

MädBrain
2011-10-25, 23:07:43
...
Innovationen werden sicherheitshalber patentiert.

Wie Linux z.B.?

Coda
2011-10-26, 12:24:21
Linux? Was möchtest du uns damit sagen?

Tigerchen
2011-10-26, 14:53:47
Software lässt sich nur leider nur in den USA patentieren. Zurecht.
Zun unrecht. Das US Patentwesen für Software ist eine echte Innovationsbremse. Nur die Rechtsabteilungen freuen sich über viel Arbeit.:freak:

Coda
2011-10-26, 15:01:05
Du hast mich falsch verstanden.

Ailuros
2011-10-26, 15:18:22
Um es auf eine andere Basis zu bringen: Simon Feeney einer der erfahrensten engineers bei Imagination Technologies erwaehnte vor Jahren bei B3D dass Dell Bruce an sie gewendet hat und sie den Vorschlag dank fehlender Originalitaet abgelehnt haben. Es wurde auch erwaehnt dass sie nicht der einzige IHV waren an den er sich gewendet hatte.

IMG hat vor kurzem Caustic graphics aufgekauft fuer eine relativ kleine Summe; Caustic's software ist hw agnostic, aber alles dass sie in hw umgesetzt haben (ray-tracing co-Prozessoren) sind durch diverse Patente geschuetzt. Ist sowieso OT und ich kenn mich leider mit ray tracing zu wenig aus, aber von dem was ich bisher sehen konnte sah ich nichts besonders berauschendes. Vielleicht "erzaehlt" die dedizierte hw wenn immer sie erscheint dann eine andere Geschichte.

Lange Geschichte kurz: man naehert sich nicht diversen Grafik sw und hw Firmen nur um ihnen ueber den Kaffeekranz etwas zu zeigen, sondern um jegliche Idee versuchen zu verkaufen. Wenn diese jetzt ablehnen und behaupten dass es an Originalitaet der Idee fehlt, brauch ich mir persoenlich nicht besonders viel den Kopf darueber zu zerbrechen.

Anders IHVs/ISVs koennen wohl aehnliche Methoden anwenden wenn sie es wollen ohne Euclideon bzw. Dell Bruce dafuer zu bezahlen.

Coda
2011-10-26, 15:28:55
Was hat jetzt Caustic damit zu tun?

Ailuros
2011-10-26, 16:04:03
Was hat jetzt Caustic damit zu tun?

Genauso wenig relevant wie Linux. Linux ist genauso open source wie auch OpenRL. IMG hat Caustic hauptsaechlich wegen der hw gekauft (PowerVR RTX - unter Entwicklung); frag mich jetzt bloss wo und wieso eine solche Zusteck-Karte eine Zukunft haben wird.

Coda
2011-10-26, 16:15:16
OpenRL ist nicht open source.

Ailuros
2011-10-26, 16:19:13
OpenRL ist nicht open source.

http://www.caustic.com/register.php

Later this year, we will be proposing the OpenRL specification as an open standard to the non-profit technology consortium, the Khronos Group. Moreover, we will actively solicit and support the introduction of third-party implementations of OpenRL. In the meantime, we are pleased to introduce the first implementation of the OpenRL specification, which we are calling the OpenRL SDK.

Coda
2011-10-26, 16:21:14
Ja. Und?

Es ist nicht open source.

Ailuros
2011-10-26, 16:30:32
Ja. Und?

Es ist nicht open source.

Noch nicht; der Haarspalterei zu Liebe ist das Ding nicht rein zufaellig "Open" genannt, wenn sein Zweck nicht fuer open source gedacht waere. Deshalb sagte ich ja hw agnostic. Dafuer ist die Khronos group genau die richtige Stelle. OpenCL war ja auch eine quasi modifizierte Version von dem GPGPU API das Apple unter einem anderen Namen anfangs patentieren wollte.

Coda
2011-10-26, 18:13:48
Noch nicht
Wird es auch nie sein. Ein Standard kann gar nicht das Attribut "Open Source" haben. Das ergibt keinen Sinn.

BigKid
2012-06-13, 17:30:34
Es gibt übrigens neues Futter für die Verschwörungstheoretiker und Beführworter...

http://xbigygames.com/euclideon-still-alive-with-new-footage/

Neue Einsichten ?
Das kleine Demo am Ende zeigt zumindest mal, dass auch mehrere verschiedene Objekte gehen... Aber obs jetzt wirklich MEHR Objekte sind als bei der Island Demo - das war mein erster Gedanke. Beim genauen Ingucken habe ich dann aber doch einige Objekte entdeckt und auch der Detailgrad beeindruckt zum Teil (auch wenns spannendere Objekte hätten sein dürfen) - aber bei dem Zeitschriften-Schuber links Hinten zum Beispiel kann man in die Schnittkannten reingucken und sieht sogar die Wellpappe...

Hat noch jemand andere weitere neue Infos ?
Ich verfolge das immer noch gespannt und Ergebnis offen...
Für einen reinen SCAM hält es sich aber IMHO zu lange... Obs tatsächlich für Spiele taugt... Ich warte auf Animationen...

Das Jahr Sendepause, dass Bruce D. angekündigt hat neigt sich ja so langsam dem Ende zu :-)...

Update:
Ist das hier schon gepostet worden ?
http://www.youtube.com/watch?v=cF8A4bsfKH8&feature=youtube_gdata_player
Unlimited Detail Animation Test

Nicht eindrucksvoll aber ein Proof of Concept ?


Übrignes scheinen da einige drann rumm zu kauen...
http://www.youtube.com/watch?v=Tl6PE_n6zTk&feature=youtube_gdata_player

no6ody
2012-06-14, 00:56:18
Das letzte video handelt von voxel animationen, das hat damit eigentlich nichts zu tun. ;)

Coda
2012-06-14, 11:39:53
Die Unreal Engine 4 voxelt die Szene auch in einen dynamische Sparse Voxel Octree auf der GPU für die Lichtberechnung (nicht für's eigentliche Rendering, bevor mich jemand falsch versteht).

BigKid
2012-06-14, 11:45:24
Das letzte video handelt von voxel animationen, das hat damit eigentlich nichts zu tun. ;)
War das nicht der Vorwurf an Euclideon ? Das ist doch auch nix anderes als Voxels und das läßt sich nicht animieren ?

RLZ
2012-06-14, 20:21:52
Die Unreal Engine 4 voxelt die Szene auch in einen dynamische Sparse Voxel Octree auf der GPU für die Lichtberechnung (nicht für's eigentliche Rendering, bevor mich jemand falsch versteht).
Ein paar mehr Details im passenden Thread wären ganz nett. :)
War das nicht der Vorwurf an Euclideon ? Das ist doch auch nix anderes als Voxels und das läßt sich nicht animieren ?
Deine Links zeigen nicht wirklich Neues.
Die statische Szene ist ein typischer Usecase für Pointcloud Rendering, der Vogel sieht nach in der Praxis unbrauchbarer Keyframeanimation aus und der letzte Link zeigt einfach nur, dass praxisrelevantes Skinning nicht so einfach möglich ist.

Könnten sie wirklich etwas liefern, hätten sie schon längst eine kleine Spieldemo gebaut.

Langenscheiss
2012-06-14, 23:25:30
Ein paar mehr Details im passenden Thread wären ganz nett. :)


Für sowas gibt es papers, die ich mit google und 2 klicks gefunden habe:

http://research.nvidia.com/publication/interactive-indirect-illumination-using-voxel-cone-tracing

Ich find es übrigens seltsam, dass es solche papers so häufig gratis gibt. Für physikalische Literatur brauch ich oft VPN zum Uninetzwerk.

PrefoX
2012-06-15, 09:16:49
War das nicht der Vorwurf an Euclideon ? Das ist doch auch nix anderes als Voxels und das läßt sich nicht animieren ?
klar kann man die animieren, gibt auch Videos dazu, nur wie schwer das Ganze ist, ist eine andere Frage.

RLZ
2012-06-15, 10:26:10
Für sowas gibt es papers, die ich mit google und 2 klicks gefunden habe:
Herzlichen Glückwunsch zur erfolgreichen Google Bedienung. Aber die Paper kenne ich und haben relativ wenig damit zu tun.

randy
2012-06-15, 10:35:43
die Paper kenne ich und haben relativ wenig damit zu tun.

Aber laut Autor des Papers basiert die UE4 Technologie genau darauf http://blog.icare3d.org/2012/06/unreal-engine-4-demo-with-real-time-gi.html

RLZ
2012-06-15, 10:37:13
Aber laut Autor des Papers basiert die UE4 Technologie genau darauf http://blog.icare3d.org/2012/06/unreal-engine-4-demo-with-real-time-gi.html
Das ist... überraschend.
Thx.

Langenscheiss
2012-06-15, 13:11:00
Das ist... überraschend.
Thx.

Tja, manchmal muss man wirklich nur google bedienen können ;)

Chris Lux
2012-06-15, 13:20:45
Aber laut Autor des Papers basiert die UE4 Technologie genau darauf http://blog.icare3d.org/2012/06/unreal-engine-4-demo-with-real-time-gi.html
und die idee basiert auf Crytecs idee...

Coda
2012-06-15, 13:42:59
Nicht wirklich.

Der Voxel-Ansatz funktioniert aber auch nur mit DX11 class hardware, LPVs mussten auch auf PS3 und Xbox 360 laufen.

Das Voxel-Grid kann man auch noch für viele andere Sachen gebrauchen, deshalb geh ich mal davon aus, dass sich das breit durchsetzt. (It's the new Z-Readback ;))

BigKid
2012-06-15, 13:50:27
Ein paar mehr Details im passenden Thread wären ganz nett. :)

Deine Links zeigen nicht wirklich Neues.
Die statische Szene ist ein typischer Usecase für Pointcloud Rendering, der Vogel sieht nach in der Praxis unbrauchbarer Keyframeanimation aus und der letzte Link zeigt einfach nur, dass praxisrelevantes Skinning nicht so einfach möglich ist.

Könnten sie wirklich etwas liefern, hätten sie schon längst eine kleine Spieldemo gebaut.

naja...also der erste Link zeigt eine bisher NICHT hier erwähnte RealTime-Demo der Engine mit einem neuen Szenario - er IST also etwas neues...
(http://xbigygames.com/euclideon-still-alive-with-new-footage/)

Sie richtet sich IMHO gegen dern Vorwurf gar nicht unlimited details zu haben sondern dass man immer das selbe Objekt wiederholt und wiederholt.
Dem wiedersprach Dell ja und behauptete, dass es nur daran läge dass man eben nicht genug Objekte habe und deshalb aus Zeit und Geldgründen auf Wiederholung zurück griff (Island Demo).

Die neue Demo zeigt nun mehr verschiedene Objekte. Zuerst dachte ich auch naja - so viele sinds ja nicht. Aber dann habe ich mal genauer hingeguckt. Die Zeichnungen auf dem Boden, die Steine, die Details bis hin zur Wellpappe in den Schnittkannten des Kartons, das Speilzeug, Nägel mit denen die Bespannung gemacht wurde, die Bespannung selbst mit all ihren Knitterfalten... ... ...

Den großen WOW-Effekt hatte das nicht aber es bleibt trotzdem ein neues Detail...

Die anderen Videos sind mir nur so aufgefallen und zum Teil recht alt...


Könnten sie wirklich etwas liefern, hätten sie schon längst eine kleine Spieldemo gebaut.
http://www.youtube.com/watch?v=sZqPMg-Y7gE
Eventuell sind sie es auch einfach Müde ? Egal was sie zeigen, es wird immer angezweifelt....Dass Animationen prinzipiell möglich sind hat er schon vor mittlerweile fast 2 Jahren gezeigt. Das scheint sogar ein kleines Test-Spiel zu sein. Die Frage ist halt worauf sie aktuell den Fokus in der Entwicklung legen... Jetzt kommt garantiert "naja aber die Grafik ist ja nicht vergleichbar mit dem was wir zuletzt gesehen haben" und es wird bezweifelt, dass es mit der neuen Menge an Daten geht obwohl Dell ja immer wieder sagt dass bei ihrem Ansatz genau das keine Rolle spielt...

Weitere Beispiele:
- Kritiker: Ja aber das Material sieht alles so Künstlich erzeugt aus
- Dell: Wo sollen wir denn so detailliertes Material herbekommen ? Wir sind bisher nur ein paar Entwickler und kein Künstler dabei. Irgendwelche CGI Firmen haben vielleicht solches Material aber die rücken das nicht raus.
- Kritiker: Glauben wir nicht...

Also haben sie angefangen Material mit einem Laserscanner zu erzeugen und echte Objekte zu nutzen (Island Demo) und was passiert...
- Kritiker: Ja aber das sind doch auch nur unendliche Wiederholungen der selben Objekte

Das jedes dieser Objekte fast schon mehr Details enthalten hat als bei herkömmlichen Games eine ganze Szene wird einfach mal übersehen - überhaupt scheinen da bei Dell ganz andere Maßstäbe angesetzt zu werden - wie viele verschiedene Bodentexturen für "felsig" gibt es denn in aktuellen Spielen, wie viele verschiedene Grashalme wiegen sich denn im Wind ?
Und wieviel davon ist wirklich im RAM ?

Das Spielchen läßt sich beliebig fortsetzen... Ich halte es jedenfalls nach wie vor für Möglich und glaube langsam die meisten stossen sich einfach an "unlimited" und verweigern sich daher... Eventuell hätte er es lieber "HD Detail" nennen sollen...

Bezüglich "hätten schon lange eine Demo draussen" ... Wie lange hat es von der Unreal 3 zur Unreal 4 Demo gedauert ? Wie lange dauert es bis ein neuer 3D Mark das Licht der Welt erblickt ? Wo ist die NewDawn Techdemo von NV ?
Vor allem liefert Dell auch Begründungen: z.B. sagt er dass nicht die Animation selbst das Problem ist sondern die Tatsache, dass die ganze bestehende Infrastruktur auf Polygone ausgelegt ist und sie alles neu schreiben oder anpassen müssen. Das klingt meiner Ansicht nach nicht unglaubwürdig.
Wie lange würde die Entwicklung einer modernen Engine denn dauern, wenn man nicht auf Speedtree, Skelethal Animation Bibliotheken usw usw zurückgreifen könnte ?

Und das bei der negativen Stimmung die Ihnen entgegen schlägt wenn sie was neues zeigen ? Vielleicht wollen sie auch einfach nur noch warten bis sie wirklich was perfektes fertig haben...

Übrigens: Wer den Link gelesen hat: Dell sagte zuletzt dass sie Aufgrund von vielen Anfragen die Technologie wirklich einzusetzen und aufgrund mangelnder Kapazitäten erstmal darauf beschränken es im Medizinischen Bereich unter zu bekommen und alles andere deshalb warten muss... Haben wir einen greifbaren Grund das anzuzweifeln ?

RLZ
2012-06-15, 14:49:40
naja...also der erste Link zeigt eine bisher NICHT hier erwähnte RealTime-Demo der Engine mit einem neuen Szenario - er IST also etwas neues...
Nur weil andere Objekte drin sind, ist es technisch etwas neues?
Sie können noch 100 Objekte einscannen. Das wird ihnen nichts bringen.

- Dell: Wo sollen wir denn so detailliertes Material herbekommen ?
Einfache Antwort: Kaufen
:freak:

Du kannst noch 50 Seiten Romane hier schreiben und trotzdem wirst du damit niemanden überzeugen.

Fragman
2012-06-15, 15:03:04
kaufen, stimmt, man bekommt sehr gute modelle fuer verhaetnissmaessig wenig geld.

die anis in dem video sind ein schlechter witz, null skinning. das sind einfach figuren aus primitives zusammengesetzt, sowas animatierte character zu nennen ist heut schon mutig.

das neue vid mit dem spielzeug sieht aus wie fotografiert aus allen blickwinkeln, dann daraus ein model inkl texturen generiert. das ist nix besonderes mehr. um sowas dann realtime zu zeigen braucht man seine engine nicht.

zb
http://www.3dsom.com/flash3d/flash-3d-examples.html

Coda
2012-06-15, 16:25:50
Man könnte auch mit prozedural erzeugter Geometrie oder schlechten Meshes ohne weiteres erstmal beweisen, dass die Welt völlig zufällig sein kann.

Hayab
2012-06-15, 21:47:55
Eine neue Renderengine zu presentieren ist das eine, verlinkung mit einer brauchbaren physik engine und das Erstellen von development tools die andere.

Wenn die engine keine polygone verwendet, wird es schwer so eine 3D Software fuer Modelerstellung aus dem Hut zu zaubern. Maya,3DSMax, Blender u.s.w fallen da aus, weil sie alle polygon bassierend sind. Sculpting programme sind gut um Normalmaps herzustellen, aber Animationen sind damit nur bediengt machbar.

Wenn die schon,die 3D Welt auf dem Kopf stellen wollen, sollten sie auch gleich ein Konzept entwickeln, wie die neue 3D Welt erschaffen werden soll.

BigKid
2012-06-16, 10:27:35
Eine neue Renderengine zu presentieren ist das eine, verlinkung mit einer brauchbaren physik engine und das Erstellen von development tools die andere.

Wenn die engine keine polygone verwendet, wird es schwer so eine 3D Software fuer Modelerstellung aus dem Hut zu zaubern. Maya,3DSMax, Blender u.s.w fallen da aus, weil sie alle polygon bassierend sind. Sculpting programme sind gut um Normalmaps herzustellen, aber Animationen sind damit nur bediengt machbar.

Wenn die schon,die 3D Welt auf dem Kopf stellen wollen, sollten sie auch gleich ein Konzept entwickeln, wie die neue 3D Welt erschaffen werden soll.
Das war ja einer meiner Punktr und es ist das was Dell immer wieder anführt wenn er gefragt wird warum es so lange dauert... Leider ist bei mir ein Roman draus geworden... :redface:

kaufen, stimmt, man bekommt sehr gute modelle fuer verhaetnissmaessig wenig geld.

die anis in dem video sind ein schlechter witz, null skinning. das sind einfach figuren aus primitives zusammengesetzt, sowas animatierte character zu nennen ist heut schon mutig.

das neue vid mit dem spielzeug sieht aus wie fotografiert aus allen blickwinkeln, dann daraus ein model inkl texturen generiert. das ist nix besonderes mehr. um sowas dann realtime zu zeigen braucht man seine engine nicht.

zb
http://www.3dsom.com/flash3d/flash-3d-examples.html
Selbst das kaufen von 3D Modellen ist nicht so einfach bevor man Konverter hat... Übrigens glaube ich NICHT das Pixar einfach so einem "niemand" wie Dell Modelle raus rückt egal wieviel er dafür zahlt... Immerhin haben sie (aus Verzweiflung ?) einen LaserScanner gekauft (oder gemietet) die Dinger sind aktuell doch sicher auch noch nicht umsonst zu haben ?
Und "gute" 3D Modelle - ich gucke mal in meine Glaskugel und sage: Wenn die nur "gute" Polygon-Modelle kaufen und nutzen - dann würde garantiert jemand mit der Lupe suchen und dann schreien "HA - Polygone - ich hab doch gewusst dass die mogeln !"

Und was die Animationen betrifft: Proof of Concept sagt dir aber schon was - oder ?

Man könnte auch mit prozedural erzeugter Geometrie oder schlechten Meshes ohne weiteres erstmal beweisen, dass die Welt völlig zufällig sein kann.
Der Einwand von Coda ist allerdings berechtigt...
Dagegen halte ich jetzt nochmal: In der Island Demo hatte IMHO schon alleine der Elefant mehr Details als eine ganze herkömmliche Szene, gleichzeitig waren noch alle Statuen, Bäume, Felsen, Sträucher etc. da - ist das nicht beachtenswert und ein riesen Sprung ?

Ist es nicht auch ein RIESEN Sprung denn die Software von Dell in einem Jahr gemacht hat ? Vergleicht doch bitte mal objektiv die ersten Demo-Videos von vor 2 Jahren mit denen von vor etwa einem Jahr ! Ich finde das ziemlich beindruckend...

Ich habe wirklich den Eindruck viele hängen sich am "Unlimited" auf und nehmen das deshalb auseinander und ignorieren den Fortschritt im Vergleich zum "ist"... Na und ? Dann ist es eben nicht unlimited sondern nur "HD" :)

Es geht mir übrigens nicht darum hier irgendwen zu überzeugen sondern eine Diskussion zu führen, weil ich das Thema sehr spannend finde,
mir aber im Gegensatz zu einigen Membern hier der Hintergrund fehlt - ich habe "nur" TI studiert (oder mich durchs Studium gemogelt - je nach Blickwinkel) und endete dann als Consultant / Entwickler...

Übrigens gibt es 3 Stadien die Innovationen durchlaufen:
1. Das ist unmöglich, wenn es nicht unmöglich wäre hätte das schon lange jemand gemacht
2. Ja das würde schon gehen, aber das ist viel zu aufwändig/das braucht keiner
3. Klar. Das ist doch ein alter Hut - das hätte ich auch so gemacht...

;)

Unlimited Detail ist irgendwo vor/bei Stufe 2 ;) oder ein sehr gut gemachter SCAM. Je länger ich das beobachte desto weniger glaube ich persönlich an Betrug. OB die Engine in absehbarer Zeit für Spiele taugt ist ja auch noch eine Frage...

RLZ
2012-06-16, 12:21:54
Als Kurzanwort:
- Ein Konverter ist Pipifax. Sowas kann man notfalls dem Praktikanten geben.
- siehe vorherigen Punkt + niemand braucht solche Detailierte Modelle um überzeugt zu werden. Es geht um das generelle Speicherprobleme von Pointcloud Rendering bei größeren, nicht instanzierten Welten.
- Es ist kein Proof of Concept, dass ein neu konstruiertes Auto fährt, wenn man einen Reifen holt und den auf dem Boden rollt.
- Pointcloud Rendering ist nichts neues und wird vorallem in der Medizin schon länger eingesetzt.

BigKid
2012-06-16, 13:05:22
Als Kurzanwort:
- Ein Konverter ist Pipifax. Sowas kann man notfalls dem Praktikanten geben.

Sicher nur hat er als "Ein Mann Unternehmen" angefangen und ist erst vor etwa 2 Jahren durch die Fördergelder in der Lage gewesen Personal aufzubauen...


- siehe vorherigen Punkt + niemand braucht solche Detailierte Modelle um überzeugt zu werden. Es geht um das generelle Speicherprobleme von Pointcloud Rendering bei größeren, nicht instanzierten Welten.

Spielt es denn eine Rolle ob ich die Szene aus a) wenigen aber dafür ultra-detaillierten Objekten zusammen setze oder b) aus vielen aber dafür weniger detaillierten ? So wie ich das verstehe nicht... Man hat sich für die Island-Demo für A entschieden...


- Es ist kein Proof of Concept, dass ein neu konstruiertes Auto fährt, wenn man einen Reifen holt und den auf dem Boden rollt.

Das kommt darauf an was ich beweisen will... Wenn ich beweisen will, dass es geschickter ist einen runden Reifen zu nehmen anstelle eines eckigen, dann schon... :biggrin: Sorry - couldn't resist...


- Pointcloud Rendering ist nichts neues und wird vorallem in der Medizin schon länger eingesetzt.
Hossa - damit wären wir doch schon bei Stufe 3 ;)

Ich weiss nicht wie sehr du das jetzt verfolgt hast aber was DELL behauptet ist nicht das Point Cloud Rendering erfunden zu haben. Was er sagt ist dass er eine Lösung gefunden hat um die Daten a) so zu organisieren, dass er die sichtbaren Pixel direkt herausgreifen kann anstelle sie suchen zu müssen (somit hängt der Rechenaufwand nicht von der Datenmenge sondern nur von der Ziel-Auflösung des Bildes ab) UND b) er behauptet das hinzukriegen ohne, dass der Speicherbedarf zum Problem wird...

Wenn ich das einmal als Annahme stehen lassen, dann Frage ich mich eher:
- Wie wollen so Oberflächeneingenschaften simuliert werden (Matt, Spiegelnd, ...)
- Wie sollen so z.B. Wellen simuliert werden (Wasser), oder Hitzflirren durch Feuer (also der Shader-Kram)
- Kann man eventuell die herkömmliche und diese Technologie koppeln um das jeweils besser geeignete zu nutzen ?

Fragman
2012-06-16, 14:32:37
nochmal, die anis die gezeigt wurden als solche zu bezeichnen ist ein schlechter witz.
die aussage sie haben kein artists ist ein schlechter witz und als ausrede zu werten. ich kann garnicht soviel mit dem kopf schuetteln wie mich so eine aussage erstaunt in heutigen zeiten.
artist fuerne woche anheuern, den groben content aus mud oder zbrush raushauen lassen und das macht tausendmal mehr her als das gezeigte im vid.
nichts passiert, ausser das er jahr um jahr das gleiche zeigt mit dem hinweiss das eh alles moeglich ist, nur nicht im vid weil er kein artists ist. sorry, aber auf sowas kann man doch nicht mehr reinfallen.

BigKid
2012-06-16, 14:56:34
nochmal, die anis die gezeigt wurden als solche zu bezeichnen ist ein schlechter witz.
die aussage sie haben kein artists ist ein schlechter witz und als ausrede zu werten. ich kann garnicht soviel mit dem kopf schuetteln wie mich so eine aussage erstaunt in heutigen zeiten.
artist fuerne woche anheuern, den groben content aus mud oder zbrush raushauen lassen und das macht tausendmal mehr her als das gezeigte im vid.
nichts passiert, ausser das er jahr um jahr das gleiche zeigt mit dem hinweiss das eh alles moeglich ist, nur nicht im vid weil er kein artists ist. sorry, aber auf sowas kann man doch nicht mehr reinfallen.

Ok... Also von hier (vor 2 Jahren)
http://unlimiteddetailtechnology.com/attachments/Image/u2008giraffe.jpg

nach hier (vor einem Jahr)
http://arnokohl.files.wordpress.com/2011/08/statue.jpg?w=640

Siehst du keinen Fortschritt ?

Oder von hier (2 Jahre alt)
http://unlimiteddetailtechnology.com/attachments/Image/ttt-junglepuppy22.JPG

Nach hier (1 Jahr alt)
http://3.bp.blogspot.com/-CSlf8-J34FY/TkBASY8YavI/AAAAAAAAAT8/gcjFkvZQj8E/s1600/elephant.jpg

RLZ
2012-06-16, 16:50:38
Siehst du keinen Fortschritt ?
Er hat sich einen 3D Scanner geleistet. Toller Fortschritt. :freak:

Du verstehst nicht mal die grundlegenden Probleme, die angekreidet werden.
Vielleicht solltest du dir ein paar Grundlagen vor einer weiteren Diskussion aneignen.

LieberAal
2012-06-16, 17:30:01
Sieht so aus, als hätte Bruce einen Teil der Fördergelder in eine Pointools Lizenz investiert :D

BigKid
2012-06-16, 23:06:04
Er hat sich einen 3D Scanner geleistet. Toller Fortschritt. :freak:

Du verstehst nicht mal die grundlegenden Probleme, die angekreidet werden.
Vielleicht solltest du dir ein paar Grundlagen vor einer weiteren Diskussion aneignen.

Ja - ich verstehe tatsächlich nicht warum wenige aber dafür hochdetaillierte Objekte nicht schon beeindruckend genug sind... Für mich scheint es als hätte allein der Elefant schon mehr Geometrie als bei einigen Spielen ne ganze Szene. Und dazu kommen dann noch die anderen Objekte...

Und was ich auch nicht verstehe ist wie manche regelrecht was zum Mäkeln suchen... Der eine findet die Aussage lachhaft das man sich keinen gescheiten Kontent leisten kann, wenn dann gescheiter Kontent kommt ist es nicht genug davon - egal wie detailliert die einzelnen Modelle sind - ... ... ...

Ein sehr guter Einwand kam bisher von Coda - prozedurale Objekte mit Varianz sollten sich eigentlich leicht genug erzeugen lassen - egal wie hässlich... wenn ich mir die alten Demos so ansehe scheint er das mit prozedural ja schonmal gemacht zu haben - nur mit der Varianz scheint es zu hapern.
Also doch Speicher oder Performanceprobleme ?

PrefoX
2012-06-17, 08:22:56
Carmack hat doch auch gesagt das es machbar ist, aber es zurzeit noch keine Hardware gibt die es darstellen könnte. Klar, Carmack brauch Engines für das jetzt, Eucl. brauch welche für in 5 Jahren. das kann schon alles funktionieren.

Die Modelle sind mit Abstand das beste was es je gab, dieser Elefant hätte doch mehr Polys als ganz crysis (ihr wisst was ich meine). Jetzt müssen sie aber noch den Rest hinbekommen und vorallem das lighting.

DR.ZEISSLER
2012-06-17, 09:10:08
der carmack hat mit seiner letzten engine auch einen griff ins Klo gemacht.
ich hätte niemals gedacht dass der spielspass so stark unter den sich
aufbauenden verwaschenen texturen leidet.

LieberAal
2012-06-17, 11:55:28
Die Modelle sind mit Abstand das beste was es je gab, dieser Elefant hätte doch mehr Polys als ganz crysis (ihr wisst was ich meine).

Ich weiß, dass die Rechnung ein bisschen schief ist. Hatte der Rüsselträger mehr Oberflächenelemente als alle Texel auf allen Tris in Crysis? Wohl kaum.

Fragman
2012-06-17, 12:00:50
Carmack hat doch auch gesagt das es machbar ist, aber es zurzeit noch keine Hardware gibt die es darstellen könnte. Klar, Carmack brauch Engines für das jetzt, Eucl. brauch welche für in 5 Jahren. das kann schon alles funktionieren.

Die Modelle sind mit Abstand das beste was es je gab, dieser Elefant hätte doch mehr Polys als ganz crysis (ihr wisst was ich meine). Jetzt müssen sie aber noch den Rest hinbekommen und vorallem das lighting.

carmack hat aber schoen vorgerechnet wie gross der speicherberdarf waere wenn alles animierbar sein soll. deshalb war ja sein fazit voxel fuer alles statische wie landschaft und den rest ueber polys zu machen.

der elefant ist simpel, den kannste ohne probleme im flashplayer darstellen.
das ist ein gescanntes model, deshalb auch so unsauber.
nochmal, um high poly gehts hier nicht, das ist alles machbar.
nur schafft es unlimited detail eben nicht alles dynamisch darzustellen.
das ist bis heute ein technisch nicht geloestes problem weil die datenmengen astronomisch hoch waeren. carmack meinte er arbeite dran und das es vielleicht eine loesung geben koennte, das wars bisher aber von ihm. ob da noch was nochkommt werden wir sehen.

RLZ
2012-06-17, 19:14:12
Und was ich auch nicht verstehe ist wie manche regelrecht was zum Mäkeln suchen... Der eine findet die Aussage lachhaft das man sich keinen gescheiten Kontent leisten kann, wenn dann gescheiter Kontent kommt ist es nicht genug davon - egal wie detailliert die einzelnen Modelle sind - ... ... ...
Nochmal:
Jemand kommt an und sagt, dass er eine neue tolle Entdeckung gemacht hat, die die Grafikwelt revolutioniert, aber es sagt nicht wie oder was er macht.

Danach stellt sich raus, dass es sich um Point Cloud Rendering handelt. Eine eigentlich alte Geschichte, die mehrere Probleme hat, die den Praxiseinsatz in Spielen unmöglich machen (Speicherverbrauch und vernünftige Animation). Deswegen wird sie dort eingesetzt, wo diese beiden Punkte keine solche Relevanz haben (z.B. im medizinischen Bereich).
Da er nicht erklärt was er macht, will man natürlich wissen, ob er die Probleme gelöst hat. Antwort von ihm "klar hab ich die gelöst, aber ich sag nicht wie". Einen Beweis, dass er sie gelöst hat, bleibt er schuldig.

Wenn man ehrlich ist, haben schon schon andere (z.B. Cyril Crassin , Ingo Wald, ...) gezeigt, dass man für dynamische Objekte aus triangulierter und geskinnter Geometrie zur Laufzeit wieder auf der GPU einen SVO bauen kann. Er sagt "ich brauche dafür keine andere Geometrie, aber ich sag nicht wie". Dafür zeigt er dann trivialste Animationen, die keinerlei Relevanz haben und auch nicht als Proof of Concept durchgehen.

Dann kommt man zum Speicherverbrauch... Da sich der Kram nicht vernünftig texturieren lässt, muss man eine Auflösung in dem Bereich erreichen, bei der sich die Texturen ersetzen lassen. Hat man viele uninstanzierte Geometrie explodiert einem der Speicherverbrauch gnadenlos.
Er sagt wieder "hab ich gelöst, aber ich sage nicht wie" und bleibt jeden Beweis schuldig. Unter anderem Carmack hat versucht mit Kompressionsalgorithmen weiterzukommen, hat es inzwischen aber wohl auch vorerst aufgegeben.

Niemand zweifelt an, dass das was er zeigt gefakt ist. Nur zeigt er nichts, was nicht schon andere gezeigt hätten, und ist nicht der Lage zu beweisen, dass er die kritischen Probleme gelöst hätte. Dafür kommt er mit den haarsträubendsten Begründungen, warum er nicht in der Lage ist etwas Sinnvolles zu zeigen.

PrefoX
2012-06-18, 08:50:30
.
Da er nicht erklärt was er macht, will man natürlich wissen, ob er die Probleme gelöst hat. Antwort von ihm "klar hab ich die gelöst, aber ich sag nicht wie". Einen Beweis, dass er sie gelöst hat, bleibt er schuldig.

Ja wenn er das jedem verraten würde, dann hätte seine Firma doch keine daseinsberechtigung oder? gerade das ist es doch was alle wollen und er vielleicht hat. also bitte, keine firma verrät seine technologie einfach so :tongue:

Fragman
2012-06-18, 09:05:53
Ja wenn er das jedem verraten würde, dann hätte seine Firma doch keine daseinsberechtigung oder? gerade das ist es doch was alle wollen und er vielleicht hat. also bitte, keine firma verrät seine technologie einfach so :tongue:

einfach patentieren lassen und schon gehts ohne probleme.
genau das wird er nicht gemacht haben oder nicht koennen oder aber er hat einfach nichts, was ich glaube.

del_4901
2012-06-18, 09:46:12
einfach patentieren lassen und schon gehts ohne probleme.
genau das wird er nicht gemacht haben oder nicht koennen oder aber er hat einfach nichts, was ich glaube.
Er hat es mehrfach probiert, und sein Antrag ist mehrfach abgelehnt worden...

Fragman
2012-06-18, 10:36:17
dann hat er wohl nichts wirklich neues zu bieten wenn das patent abgelehnt wurde. oder aber es ist einfach zu generell, dann hat er wiederum nichts besonderes.

Coda
2012-06-18, 10:39:01
also bitte, keine firma verrät seine technologie einfach so :tongue:
Ist in der Branche (http://kesen.realtimerendering.com/sig2012.html)eigentlich (http://www.crytek.com/cryengine/presentations)ziemlich (http://publications.dice.se/) üblich (http://www.valvesoftware.com/publications.html).

Die konkrete Implementierung ist natürlich etwas anderes, aber die Algorithmen werden veröffentlicht.

PrefoX
2012-06-18, 18:57:37
Ist in der Branche (http://kesen.realtimerendering.com/sig2012.html)eigentlich (http://www.crytek.com/cryengine/presentations)ziemlich (http://publications.dice.se/) üblich (http://www.valvesoftware.com/publications.html).

Die konkrete Implementierung ist natürlich etwas anderes, aber die Algorithmen werden veröffentlicht.
Ist aber nicht gerade der Algorithmus das Herzstück der Voxel Engine? In irgendeinem Video hat "er" das auch immer Herausgestellt.
Ich denke die Links die du gepostet hast sind ja auch alle aus einem Bereich, alles Raster Engines, er hat aber keine Konkurrenz und will den Vorsprung solange wie möglich hinaus zögern, weil es wohl noch länger dauert.

Wenn eine Engine kurz vor dem erscheinen ist, kann man natürlich genauere Daten rausgeben weil die Konkurrenz es sowieso nicht schnell genug kopieren kann. Aber 4-5 Jahre vorher? denke nicht dass das Weise wäre oder Coda?

RLZ
2012-06-18, 19:14:44
Wenn eine Engine kurz vor dem erscheinen ist, kann man natürlich genauere Daten rausgeben weil die Konkurrenz es sowieso nicht schnell genug kopieren kann. Aber 4-5 Jahre vorher? denke nicht dass das Weise wäre oder Coda?
Auch hier gibt es Beispiele (http://s08.idav.ucdavis.edu/olick-current-and-next-generation-parallelism-in-games.pdf) genau zu dem Thema (ab Seite 91).

Ich würde gerne sowas (http://www.youtube.com/watch?v=fAsg_xNzhcQ) mit einer größeren Szene ohne Instanzierung sehen. :biggrin:

del_4901
2012-06-18, 19:41:29
Ich würde gerne sowas (http://www.youtube.com/watch?v=fAsg_xNzhcQ) mit einer größeren Szene ohne Instanzierung sehen. :biggrin:
http://www.youtube.com/watch?v=RmtiQpTPfg0 :biggrin:

RLZ
2012-06-18, 19:51:24
http://www.youtube.com/watch?v=RmtiQpTPfg0 :biggrin:
Es ist ja schon noch ein Unterschied, ob man Conetracing für alles oder nur für die Beleuchtung verwendet. ;)
Den Detailgrad für die Voxeldarstellung kann man da wesentlich niedriger ansetzen.

edit:
Ich überleg grad, ob ich das Paper wegen seinen Vorarbeiten falsch verstanden hab und es nur die Beleuchtung verwendet wird. Irgendwie geht das aus dem Paper nicht wirklich hervor. :(

del_4901
2012-06-18, 20:04:24
Es ist ja schon noch ein Unterschied, ob man Conetracing für alles oder nur für die Beleuchtung verwendet. ;)
Den Detailgrad für die Voxeldarstellung kann man da wesentlich niedriger ansetzen.

edit:
Ich überleg grad, ob ich das Paper wegen seinen Vorarbeiten falsch verstanden hab und es nur die Beleuchtung verwendet wird. Irgendwie geht das aus dem Paper nicht wirklich hervor. :(
Cyril nimmt den SVO auch nur fuer die Beleuchtung. In seiner "alten" Gigavoxel Thesis auch fuer die Geometrie, aber das waehre wohl zu Speicheraufwaendig gewesen, und die Gigavoxel Toolchain ist auch nicht grade das Gelbe vom Ei.

BigKid
2012-06-20, 12:20:46
Dann kommt man zum Speicherverbrauch... Da sich der Kram nicht vernünftig texturieren lässt, muss man eine Auflösung in dem Bereich erreichen, bei der sich die Texturen ersetzen lassen. Hat man viele uninstanzierte Geometrie explodiert einem der Speicherverbrauch gnadenlos.
Er sagt wieder "hab ich gelöst, aber ich sage nicht wie" und bleibt jeden Beweis schuldig. Unter anderem Carmack hat versucht mit Kompressionsalgorithmen weiterzukommen, hat es inzwischen aber wohl auch vorerst aufgegeben.

Ja deshalb Frage ich jetzt zum x-ten mal:
Die Island Demo enthielt den Elefanten, mindestens eine Statue, Bäume, Sträucher, und Felsen... Sie enthielt nicht viele verschiedene Objekte - aber hochdetaillierte. Gibt es denn einen Untschied ob ich nun viele niedriger Detaillierte Objekte habe oder ob ich weniger hochdetaillierte mehrfach instanziere ?

Wenn ich deine Aussage richtig verstehe sagst du:
Ja - weil man braucht zwingend hochdetaillierte Objekte, niedrigdetailliert taugt nicht weil ich keine Texturen habe. Im Extremfall brauche ich also ein Atom pro sichtbarem Pixel und zwar auch dann noch , wenn zu erwarten ist, dass der Betrachter sich seine Nase an dem Objekt plattdrückt ?

Der Elefant alleine hatte (sollten die Angaben nicht gelogen sein) das Äquivalent zu 530.000 Polygonen. Nehmen wir mal für die Statue an, dass sie halb so viele Polys hatte... Sind das nochmal c.a. 200.000.
Die Steine etc. ich hab keine Ahnung. je 10.000 ?

Was schaffend denn aktuelle Engines Typischwerweise ?

Meine Frage war nun: Ist das in Summe nicht genug um zumindest zu zeigen, dass sie in Sachen Speicher irgendwas in der Hinterhand haben dürften ?
Verstehe ich das richtig, dass du nun sagst: "Nein - aus den oben genannten Gründen ?" Bzw. "Mag ja sein aber es reicht nicht."

Fragman
2012-06-20, 13:23:57
polycount ist rein quantitativ. hat null aussagekraft wieviel details letztlich am objekt zu sehen sind.
der elefant mit 200k koennte aber hinkommen, mit dx11 sollte das kein problem sein.

aber was er zeigt ist nicht viel wert. ich kann in mudbox an einen 35mio objekt sculpten oder painten mit mehreren textureschichten und jede davon 30k oder mehr hoch aufgeloest.

bei instanzen hast du den vorteil das die keinen zusaetzlichen speicher kosten.
deshalb nutzt er ja soviele, du kannst mio kopien erstellen und brauchst trotzdem nur den speicher eines objektes. hast du aber mehrere verschiedene objekte und instanzierst die, musst du auch diese objekte einmal im speicher halten.

BigKid
2012-06-20, 13:36:30
polycount ist rein quantitativ. hat null aussagekraft wieviel details letztlich am objekt zu sehen sind.
der elefant mit 200k koennte aber hinkommen, mit dx11 sollte das kein problem sein.

aber was er zeigt ist nicht viel wert. ich kann in mudbox an einen 35mio objekt sculpten oder painten mit mehreren textureschichten und jede davon 30k oder mehr hoch aufgeloest.

bei instanzen hast du den vorteil das die keinen zusaetzlichen speicher kosten.
deshalb nutzt er ja soviele, du kannst mio kopien erstellen und brauchst trotzdem nur den speicher eines objektes. hast du aber mehrere verschiedene objekte und instanzierst die, musst du auch diese objekte einmal im speicher halten.
Ja klar... Das mit den Instanzen war mir schon bewusst - auch wo die Vorteile hinsichtlich des Speicherbedarfs liegen...
Was mir nicht klar war, war ob es wichtig ist viele Hochdetailierte Objekte zu zeigen oder ob die es reicht die paar zu zeigen, die er gezeigt hat...
Aktuell verstehe ich RLZ so, dass es halt gar nicht möglich ist niedriger aufeglöste Objekte zu nutzen weil keine Texturen da sind... Also brauche ich annähernd ein Atom pro sichtbarem Pixel oder es sieht aus wie PixelMatsch halt aussieht... Also bevor sie nicht mal eine Demo mit deutlich mehr Varianz zeigen beweist das nix...
Andererseits geht doch die ToyBox von diesem Monat in die Richtung... Wenn man berücksichtigt DASS es eben keine Texturen gibt, dann ist da schon einiges an Atomen zu sehen - oder ?

RLZ
2012-06-20, 13:39:50
Ja deshalb Frage ich jetzt zum x-ten mal:
Die Island Demo enthielt den Elefanten, mindestens eine Statue, Bäume, Sträucher, und Felsen... Sie enthielt nicht viele verschiedene Objekte - aber hochdetaillierte. Gibt es denn einen Untschied ob ich nun viele niedriger Detaillierte Objekte habe oder ob ich weniger hochdetaillierte mehrfach instanziere?
Klar. Sonst würde niemand Instanzierung benutzen. Das wird bei allen Renderingverfahren verwendet um Speicher zu sparen.
Hat ein Model in der "Atom" Darstellung 80MB kannst du es millionenfach instanziieren. Allerdings wirst du nie in der Lage soviele unterschiedliche Objekte zu bauen.

Der Elefant alleine hatte (sollten die Angaben nicht gelogen sein) das Äquivalent zu 530.000 Polygonen. Nehmen wir mal für die Statue an, dass sie halb so viele Polys hatte... Sind das nochmal c.a. 200.000.
Die Steine etc. ich hab keine Ahnung. je 10.000 ?
Das sind nun keine Zahlen, die heute noch jemanden schocken würden. Zumal kein Renderingverfahren bei hochauflösendem Content ohne eine Form von LOD auskommt, da sonst der ganze Bildschirm nur noch aus Flimmern besteht.

Meine Frage war nun: Ist das in Summe nicht beeindruckend genug um zumindest zu zeigen, dass sie in Sachen Speicher irgendwas in der Hinterhand haben dürften?
Nicht im geringsten.
Schau mal hier (http://www.tml.tkk.fi/~samuli/publications/laine2010tr1_paper.pdf) oder hier (http://maverick.inria.fr/Publications/2011/Cra11/CCrassinThesis_EN_Web.pdf) rein. Das ist alles um Welten beeindruckender, aber trotzdem nicht ausreichend.

Also brauche ich annähernd ein Atom pro sichtbarem Pixel oder es sieht aus wie PixelMatsch halt aussieht... Also bevor sie nicht mal eine Demo mit deutlich mehr Varianz zeigen beweist das nix...
Genau. Mit niedriger Auflösung kann man arbeiten, wenn man es zum Beispiel nur für die Beleuchtung benutzt (UE4) und nicht das ganze Bild damit berechnen muss.
Andererseits geht doch die ToyBox von diesem Monat in die Richtung... Wenn man berücksichtigt DASS es eben keine Texturen gibt, dann ist da schon einiges an Atomen zu sehen - oder ?
Das ist aber nur eine kleine Szene. Sowas können andere auch in Echtzeit rendern. Schau einfach mal in die Links rein.

BigKid
2012-06-20, 13:57:05
Ok... Danke... Dann habe ich den Teil mit dem nötigen Detailgrad verstanden... Es ist nicht nur ein Bonus - es ist dann ein "Muss" ...
Das sind nun keine Zahlen, die heute noch jemanden schocken würden. Zumal kein Renderingverfahren bei hochauflösendem Content ohne eine Form von LOD auskommt, da sonst der ganze Bildschirm nur noch aus Flimmern besteht.
.
Na zumindest DAS können wir dem Point-Cloud-Rendering glaube ich zu gute halten bzw. das sehen wir in der Island-Demo - das braucht er nicht...
Kein "Hochpoppen" von Objekten...

PrefoX
2012-06-21, 11:21:31
Ok... Danke... Dann habe ich den Teil mit dem nötigen Detailgrad verstanden... Es ist nicht nur ein Bonus - es ist dann ein "Muss" ...

Na zumindest DAS können wir dem Point-Cloud-Rendering glaube ich zu gute halten bzw. das sehen wir in der Island-Demo - das braucht er nicht...
Kein "Hochpoppen" von Objekten...
jopp die hat kein LOD, wird aber in den vids auch erklärt warum und wie etc.

BigKid
2012-07-04, 12:14:58
Ich durchstöber immer noch immer wieder mal das Netz und finde immer wieder mal interessante Details...

Ist zwar alt aber:
http://www.youtube.com/watch?v=_5hg9VfbyYg
Ab Minute 2:20 - bewegende Lichtquelle (auch wenns nur eine ist).

Und das hier(erster Suchlink):
AEROmetrex point cloud rendered by Euclideon - YouTube
http://www.google.de/search?q=euclideon+aermometrex&ie=utf-8&oe=utf-8&aq=t&rls=org.mozilla:en-GB:official&client=firefox-a#hl=de&client=firefox-a&hs=yjN&rls=org.mozilla:en-GB:official&sa=X&ei=bxb0T7STJs6WsgaT2YjcBQ&ved=0CE4QvwUoAQ&q=point+cloud+rendering+metrex&spell=1&bav=on.2,or.r_gc.r_pw.r_qf.,cf.osb&fp=2cb54042af9d4df&biw=1280&bih=920
Leider ist das Video mittlerweile wohl privat... Aber hier hat jemand wohl noch reinschauen können...
http://www.youtube.com/watch?v=KRP5km8gHoo
(Nach etwa einer Minute)

Ich trage nur zusammen... Das Bewerten überlass ich den Profis ;)

PrefoX
2012-07-04, 18:17:03
Das Australienvideo sieht aber nicht danach aus, als ob es Probleme hätte mit nicht redundanten Objekten. Ich denke da sind genug verschiedene Objekte die keine Duplikate sind. Also damit hat die Engine wohl keine Probleme

BigKid
2012-07-05, 10:12:21
Das Australienvideo sieht aber nicht danach aus, als ob es Probleme hätte mit nicht redundanten Objekten. Ich denke da sind genug verschiedene Objekte die keine Duplikate sind. Also damit hat die Engine wohl keine Probleme

Ahh... Wieder ein Puzzle-Teilchen in zusammenhang mit dem Video (auf Facebook gefunden):

The dots get thinner by edges (and especially inaccurate nearer the bottom sides) because it is generated from top-down imagery, where information is occluded. Euclideon Geoverse should patch it up by automatically interpolating between near points, but I think you can blame the source of the geospatial data, and not Euclideon's renderer.

Euclideon Geoverse is an application or engine dedicated to this kinf of stuff. I was already aware about before this video: it's mentioned as a product coming this year in the linkedin profile from one of the Euclideon staff member.

Weitere Zitathappen von Aerometrex sagen wohl aus, dass der Point-Cloud Renderer von Euclideon der schnellste war den sie jemals gesehen haben...

Das zusammen mit der Aussage von Dell dass demnächst eine Anwendung von Euclideon Marktreif wird, aber es erstmal leider keine Spiele-Enginge sein wird weil man sich (erstmal) auf die Industrie fokussiert läßt mich glauben dass wir hier einen Blick auf eben diese Anwendung erhaschen können...

Also mein Zwischenfazit (mist jetzt bewerte ich ja doch)
- Scam ... Nein das glaube ich einfach nicht mehr... Zu lange... Zu viele Indizien für eine Ernsthafte Anwednung
- Spiele Tauglichkeit: Immer noch offen...
---- Ich glaube die Sache mit den Details und dem Speicherverbrauch können wir abhaken
---- Animation - offen - es gibt allerdings Proof of Concepts
---- Beleuchtung - offen - es gibt allerdings Proof of Concepts
---- Oberflächeneigenschaften (Shader) - offen - noch nix gesehen

RLZ
2012-07-05, 10:37:03
Also mein Zwischenfazit (mist jetzt bewerte ich ja doch)
- Scam ... Nein das glaube ich einfach nicht mehr... Zu lange... Zu viele Indizien für eine Ernsthafte Anwednung
- Spiele Tauglichkeit: Immer noch offen...
---- Ich glaube die Sache mit den Details und dem Speicherverbrauch können wir abhaken
---- Animation - offen - es gibt allerdings Proof of Concepts
---- Beleuchtung - offen - es gibt allerdings Proof of Concepts
---- Oberflächeneigenschaften (Shader) - offen - noch nix gesehen
Ich bewerte auch mal:
- war abzusehen, dass ein normaler PCR rauskommt
- :freak:
- Da gibt es noch gar nichts abzuhaken.
- Da gibts nicht mal ein gültiges Proof of Concept von denen
- Kein Problem
- Kein Problem

BigKid
2012-07-05, 11:21:51
Ich bewerte auch mal:
- war abzusehen, dass ein normaler PCR rauskommt
- :freak:
- Da gibt es noch gar nichts abzuhaken.
- Da gibts nicht mal ein gültiges Proof of Concept von denen
- Kein Problem
- Kein Problem

Also wenn ich das jetzt richtig auf meine Aussagen Mappe dann...
bezog sich:
- da gibt es nicht mal ein gültiges Proof of Concept von denen
auf
---- Animation - offen - es gibt allerdings Proof of Concepts

Ok... wie ist das hier zu bewerten (und das ist richtig alt... mehr als 2 Jahre alt - angeblich sogar 7 als Dell noch ganz alleine geschraubt hat...)
http://www.youtube.com/watch?v=sZqPMg-Y7gE

RLZ
2012-07-05, 11:39:41
Ok... wie ist das hier zu bewerten
Ohne richtiges Skinning gibt es nichts zu bewerten.

Coda
2012-07-05, 11:58:17
Was spricht gegen einen Point Cache?

Mit intelligenter Kompression (Movement-Predication und Quantisierung etc.) dürfte der sich relativ klein bekommen lassen.

RLZ
2012-07-05, 12:12:11
Was spricht gegen einen Point Cache?
Wir wissen doch gar nichts darüber wie genau gerendert wird und wie die Beschleunigerstrukturen aussehen. Deswegen ist es müßig darüber zu diskutieren. Unmöglich ist es sicherlich nicht. Aus geskinnter Geometrie wieder eine eine Pointcloud zu erzeugen sollte ja eigentlich auch nicht so schwer sein.

BigKid
2012-09-28, 13:44:48
Da ich mal wieder google...

Hat man aufgegeben die Engine an Spiele Entwickler verkaufen zu wollen ? Es sieht so aus als fokussiere man den industriellen Einsatz...
http://www.kotaku.com.au/2012/09/euclideons-given-up-on-unlimited-detail-for-games-its-new-website-suggests-so/

AintCoolName
2012-09-30, 11:34:16
Hier (http://www.atomontage.com/) gibt’s anscheint was neues. Sieht jetzt alles ein bisschen realer aus von der praktischen Nutzbarkeit.

-/\-CruNcher-/\-
2012-09-30, 14:04:15
Nicht wirklich neu nur mal wieder in den News, bei PC Games liest es sich allerdings wirklich als hätten die das jetzt erst in den News und verkaufen es als etwas absolut neues schon lustig ;)

AintCoolName
2012-10-01, 14:16:49
Wenn ich das richtig sehe ist das nicht der selbe wie dieses "Euclideon Unlimited Detail" es handelt sich dabei um jemand anderes.

johla
2012-10-01, 16:25:24
Jetzt auch bei golem: http://www.golem.de/news/atomontage-engine-weg-mit-den-polygonen-her-mit-den-sponsoren-1210-94841.html

Milchkanne
2012-10-01, 18:32:14
Das ist ein völlig anderer Entwickler. Der macht das schon seit Jahren und ist auch glaubwürdig(er) im Gegensatz zu den Unlimited Detail Leuten. Zumindest behauptet der keine Abstrusen sachen und zeigt was seine Engine kann und man sieht auch die Beschränkungen.

Ailuros
2012-10-01, 19:29:22
Das ist ein völlig anderer Entwickler. Der macht das schon seit Jahren und ist auch glaubwürdig(er) im Gegensatz zu den Unlimited Detail Leuten. Zumindest behauptet der keine Abstrusen sachen und zeigt was seine Engine kann und man sieht auch die Beschränkungen.

Die Beschreibung des Entwicklers liesst sich auf jeden Fall um zich Male ehrlicher, aber dass er seine Arbeit patentiert hat in irgend einer Art will ich ebenso bezweifeln.

MartinB
2012-10-01, 19:40:04
Naja, was sollte er da auch patentieren? Außer er hat einen Weg zur effizienten Speicherung/Komprimierung/Suche entwickelt, wird sich da nicht viel tun. Aber er hat recht mit der Aussage dass mit der heutigen Hardwarepower soetwas machbar wäre.

Ailuros
2012-10-01, 19:48:43
Naja, was sollte er da auch patentieren? Außer er hat einen Weg zur effizienten Speicherung/Komprimierung/Suche entwickelt, wird sich da nicht viel tun. Aber er hat recht mit der Aussage dass mit der heutigen Hardwarepower soetwas machbar wäre.

Er erwaehnt wohl nicht ohne Grund Patenttrolle waehrend er erklaert warum er ein demo noch nicht veroeffentlichen will. Wenn jegliche Patentierung ausser Frage steht, frage ich mich ernthaft was die generelle Geheimnistuerei soll und wie man ueberhaupt jegliche Implentierung der unterliegenden Technologie an jeglichen IHV bzw. ISV genau verkaufen will.

Hübie
2012-10-01, 23:13:09
Mal blöd gefragt: Kann man die Voxel unterschiedlich groß machen? Oder skalieren die einfach mit der Auflösung?
Ich kann mich noch eine eine frühere Demo erinnern. Wenn man da weit rein zoomte erkannte man viele viele Ecken... AA adé.

Flusher
2012-10-03, 20:09:52
Würde mich auch interessieren ob da derzeitige AA-Methoden überhaupt greifen. Die Screenshots sehen zwar bei der Detailtiefe durchaus beeindruckend aus, allerdings scheint das ganze zum einen noch etwas unscharf zu sein, zum anderen aber auch unregelmäßige Kanten zu bilden.

randy
2012-10-04, 07:06:10
jau, steht z.B. auf dieser page: http://www.atomontage.com/?id=gallery&pid=dec30_2010


As the scene has been generated without super-sampling the generated geometry suffers from numerous artifacts that are visible near to everywhere. This flaw can be reduced to minumum using super-sampling or multi-sampling. Generation with super-sampling takes about 6 times longer and requires much more memory during the process.

Coda
2012-10-04, 10:29:27
Würde mich auch interessieren ob da derzeitige AA-Methoden überhaupt greifen. Die Screenshots sehen zwar bei der Detailtiefe durchaus beeindruckend aus, allerdings scheint das ganze zum einen noch etwas unscharf zu sein, zum anderen aber auch unregelmäßige Kanten zu bilden.
Was meinst du mit "derzeitige AA-Methoden"?

Ailuros
2012-10-04, 11:14:32
Was meinst du mit "derzeitige AA-Methoden"?

Er meint wohl Super- bzw. Multi-sampling und alle anderen Schmier-Methoden :D

Coda
2012-10-04, 12:37:17
Natürlich funktioniert Hardware-Anti-Aliasing nicht, wenn man keine Dreiecke rendert.

Hübie
2012-10-04, 16:26:17
Eigentlich meinte ich genau das nicht. Sondern ob an einem Objekt unterschiedlich große Voxel "texturiert" werden können. Also so das an Kanten kleinere Voxel gerendert werden und auf der Ebene halt größere um Ressourcen zu schonen.
Hoffe das war verständlich.

del_4901
2012-10-04, 18:45:08
Kann man machen, bringt aber glaube ich nicht so viel Performance. Was man macht ist das man die Voxel prefiltert. In der Distanz nimmt man dann eine hoehrere "MipMap-Stufe" Damit kann man sehr effizient Undersampling Artefakte unterdruecken. Oversampling wuerde ich mit leichtem Rauschen und mit nem Post Filter bekaempfen. Das coole ist das man die pre-blurten Daten auch gleich mit fuers DoF und Motion Blur mitverwenden kann.

Flusher
2012-10-04, 22:39:38
Natürlich funktioniert Hardware-Anti-Aliasing nicht, wenn man keine Dreiecke rendert.

Mir ging es darum ob NVIDIA oder AMD in ihren Treibern irgendwelche AA-Methoden mitbringen die mit Voxel umgehen können. Dass klassisches MSAA, SSAA und Derivate nur mit Dreiecken funktioniert ist einleuchtend.

Coda
2012-10-04, 23:39:12
Naja, das Postprocessing-Gematsche halt.

Hübie
2012-10-05, 04:03:29
Kann man machen, bringt aber glaube ich nicht so viel Performance. Was man macht ist das man die Voxel prefiltert. In der Distanz nimmt man dann eine hoehrere "MipMap-Stufe" Damit kann man sehr effizient Undersampling Artefakte unterdruecken. Oversampling wuerde ich mit leichtem Rauschen und mit nem Post Filter bekaempfen. Das coole ist das man die pre-blurten Daten auch gleich mit fuers DoF und Motion Blur mitverwenden kann.

Danke. Das wars was ich wissen wollte :smile:
Neue Frage: Welchen nutzen könnte heutige Hardware mit dieser Technik haben? Tesselator und co wären dann nutzlos oder etwa nicht?

Hatte Bruce nicht gesagt das innerhalb des nächsten Jahres etwas neues kommt? :| Das ist ja nun ziemlich genau jetzt vorbei...

del_4901
2012-10-05, 04:30:38
Neue Frage: Welchen nutzen könnte heutige Hardware mit dieser Technik haben? Tesselator und co wären dann nutzlos oder etwa nicht?

Nur weil man Voxel effizient rendern kann heisst das noch lange nicht das man keine Polys mehr braucht. Texturierung auf Voxeln ist ziehmlich haesslich und Skulpting geht auch sehr gut mit Polys. Voxel abspeichern ist auch so eine Sache die Datenmengen sind gross da braucht man gutes Streaming. Von daher wird man unter anderem auch Polys zur Laufzeit in Voxel umwandeln um danach erst zu Rendern, und da kann man den Tesselator etc. noch verwenden.

Hübie
2012-10-05, 05:30:01
Also werden die Polygone sozusagen in ein Gitternetz transformiert um an Koordinaten Voxel zu "installieren"? Ich check das noch nicht so richtig mit der Voxelgrafik :redface:

del_4901
2012-10-05, 05:58:12
Also werden die Polygone sozusagen in ein Gitternetz transformiert um an Koordinaten Voxel zu "installieren"? Ich check das noch nicht so richtig mit der Voxelgrafik :redface:
Es gibt viele Moeglichkeiten der "Polygon Voxelization" ob nun solid oder conservative mit GPU-Hardware und ohne, mit oder ohne Cuda etc. einfach mal googlen.

Hübie
2012-10-05, 07:26:46
Puh. Hab da gerade so einiges gefunden. Bin nun aber nicht mehr in der Verfassung das durchzukauen (schau mal auf die Uhr ;D).

Gn8 und Danke. Voxelization war das Schlagwort was mir wohl fehlte. Unter "Voxel" findet man zuviel.

Kampf-Sushi
2013-08-09, 11:22:26
grad mal wieder an dieses projekt gedacht und mal geguckt obs was neues gibt.
http://youtu.be/Irf-HJ4fBls
Ein paar Monate alt.

Sieht so aus als ob sie langsam ihr erstes Produkt am start hätten.

HajottV
2013-08-09, 12:38:52
Sieht so aus als ob sie langsam ihr erstes Produkt am start hätten.

Imho sieht das ziemlich verzweifelt aus...

foenfrisur
2013-08-09, 12:46:20
sicherlich ist das in gewisser weise auch verzweifelung, weil man leute, die alles schlechtreden, so schlecht überzeugen kann. ;)

ich finde erstmal eine nette sache, aus der sich auf jeden fall etwas gutes/sinnvolles entwickeln kann.

das problem mit den spielen sind ja immernoch bewegte elemente ;)
somit sehe ich das eher wie im video -> GOOGLE-MAPS in schickem 3D

mfg

Kampf-Sushi
2013-08-09, 12:56:37
Naja irgendwas funktionierendes haben sie schon mal. Auch wenn die Spieletauglichkeit immer noch nicht bewiesen ist. Deutet zumindest an dass es nicht ganz Vaporware ist und sie am Ball bleiben.

Toll aussehen tuts aber noch immer nicht, "unlimited" detail hin oder her.

Hübie
2013-08-09, 14:23:58
das problem mit den spielen sind ja immernoch bewegte elemente ;)
somit sehe ich das eher wie im video -> GOOGLE-MAPS in schickem 3D

mfg

Full ack. Das ist wohl auch der Grund warum man weg vom Spielekram ist und hin zu immobilien schwenkte. Durchaus eine sinnvolle Sache. Steigert die Effizienz einiger Unternehmen. In etwa so wie in Hollywood den Studios Präsentationen erleichtert wurden.

BigKid
2013-08-09, 15:40:04
Ich glaube wenn man Dell etwas vorwerfen kann, dann dass er halt (bewusst?) die falschen Erwartungen geweckt hat...

Aber ich hab Lust auf einen Fact Check :)

Die Kritikpunkte waren ja:
1) vaporware
2a) nix unlimited da wiederholt sich ja alles
2b) man braucht auch unendliche viele Voxels weil nicht mit Texturen gearbeitet werden kann und dann platzt ihm der Speicherbedarf...
3) keine Animation Nur KEY FRAME und kein Skinning


Ich denke 1+2a sollten solangsam endgültig ausgeräumt sein. Und auch 2b sieht mir nicht nach einem Problem aus... Wiedersprüche ?

Zu 3... Hier ist IMHO der Stand immernoch folgender: GAR KEINE ANIMATION läßt sich nicht halten, da gibts uralte Videos die das wiederlegen... Also war der letzte Vorwurf: Nur Keyframe und kein Skinning... Ich meine Dell hat dazu mal gesagt, dass das Problem halt die ganzen 3rd Partie Software/Middleware ist, die auf Polys ausgelegt ist... Und ich denke wir WISSEN es einfach nicht wie er es gemacht hatte...

Dass bei 3 nu keine Vortschritte kommen halte ich für erklärlich - liegt bei der aktuell angestrebten Nutzung halt auch nicht im Fokus...

Ich persönlich finde es Schade, dass man sich der Industrie zuwenden musste... Ein Spiel auf der Basis hätte seinen ganz eigenen Reiz haben können finde ich... Solche Spiele floppen entweder oder bleiben als besonders in Erinnerung - oder beides :)

Geldmann3
2013-08-10, 06:08:21
So wie es aussieht, hat diese Technik unfassbares Potential. Es sieht für mich so aus, als wäre es für Euclideon für den Anfang die richtige Entscheidung gewesen, erstmal nicht in die Games Industry einzusteigen.
Angenommen, man hätte ein großes Game/Engine entwickelt, es wäre gefloppt, weil der Markt noch nicht bereit für diese neue Technik ist, dann hätte das auch das Ende von Euclideon Unlimited Detail bedeuten können.
Geoverse muss sich erstmal nicht mit solchen Problemen herumschlagen, da dort offensichtlich eh schon mit Voxeln gearbeitet wird. Auch die Software scheint für ihre Zwecke der Hammer zu sein und ein Scheitern ist sehr unwahrscheinlich.
Ich vermute, auch das mit den Animationen wird sich bald lösen.
Ich sehe solche Techniken in 10 Jahren schon in Spielen kommen. Das fängt bestimmt mit "Polygon-Kooperation" an und geht dann immer weiter in diese Richtung.
An Licht muss natürlich auch noch enorm gearbeitet werden.
Die Engine könnte so stark sein, dass man damit auf einer PS3 fotorealistische Spielszenen realisieren könnte. Solange es keine Physik, Animationen und statische Lichtverhältnisse gibt jedenfalls.

Ailuros
2013-08-14, 11:43:24
Ich glaube wenn man Dell etwas vorwerfen kann, dann dass er halt (bewusst?) die falschen Erwartungen geweckt hat...

Und die Tatsache dass er von IHV zu IHV gewandert ist um die "Technologie" zu verkaufen muss wohl auch ein Zufall gewesen sein?

Das Problem war und ist dass nichts einzigartiges an der Geschichte liegt und daher auch nichts patentiert werden kann um es erstmal zu verkaufen.

Aber ich hab Lust auf einen Fact Check :)

Die Kritikpunkte waren ja:
1) vaporware
2a) nix unlimited da wiederholt sich ja alles
2b) man braucht auch unendliche viele Voxels weil nicht mit Texturen gearbeitet werden kann und dann platzt ihm der Speicherbedarf...
3) keine Animation Nur KEY FRAME und kein Skinning


Ich denke 1+2a sollten solangsam endgültig ausgeräumt sein. Und auch 2b sieht mir nicht nach einem Problem aus... Wiedersprüche ?

Zu 3... Hier ist IMHO der Stand immernoch folgender: GAR KEINE ANIMATION läßt sich nicht halten, da gibts uralte Videos die das wiederlegen... Also war der letzte Vorwurf: Nur Keyframe und kein Skinning... Ich meine Dell hat dazu mal gesagt, dass das Problem halt die ganzen 3rd Partie Software/Middleware ist, die auf Polys ausgelegt ist... Und ich denke wir WISSEN es einfach nicht wie er es gemacht hatte...

Dass bei 3 nu keine Vortschritte kommen halte ich für erklärlich - liegt bei der aktuell angestrebten Nutzung halt auch nicht im Fokus...

Ich persönlich finde es Schade, dass man sich der Industrie zuwenden musste... Ein Spiel auf der Basis hätte seinen ganz eigenen Reiz haben können finde ich... Solche Spiele floppen entweder oder bleiben als besonders in Erinnerung - oder beides :)

Gut er hat einen Weg gefunden an der Geschichte etwas zu verdienen welches wohl auch sein originales Ziel war; sonst koennen wir noch lange darueber diskuttieren wieso eine handvoll Kerle in einer Garage es ploetzlich besser wissen als die gesamte Industrie.

Screemer
2013-08-14, 12:45:04
... sonst koennen wir noch lange darueber diskuttieren wieso eine handvoll Kerle in einer Garage es ploetzlich besser wissen als die gesamte Industrie.die frage ist in der dem bereich in dem wir uns hier bewegen nicht wirklich ernst gemeint. gab schon genug garagen startups, die der etablierten industrie gezeigt haben wo es hingeht. die sind aber meist schneller geschluckt als man guggen kann. bei euclidion war das ja nicht der fall, also is da was nicht ganz so unique.

Ailuros
2013-08-14, 14:18:02
die frage ist in der dem bereich in dem wir uns hier bewegen nicht wirklich ernst gemeint. gab schon genug garagen startups, die der etablierten industrie gezeigt haben wo es hingeht. die sind aber meist schneller geschluckt als man guggen kann. bei euclidion war das ja nicht der fall, also is da was nicht ganz so unique.

Eben. Beispiele sind unter vielen anderen Ageia, Icera, Caustic usw.

DR.ZEISSLER
2013-10-17, 19:50:25
http://www.youtube.com/watch?v=csvmRgi0gZQ&feature=em-subs_digest

DR.ZEISSLER
2013-10-17, 19:56:42
die sind voll auf der kommerz-geomap-schiene, keine spieleengine ;-)

foenfrisur
2013-10-17, 21:39:35
dafür isses wohl auch gut.
für statische gebilde.

die wollen doch nur für ein paar millionen von google gekauft werden :D

mfg

Thunderhit
2013-10-18, 12:57:51
Was für ein furchtbares Video! Audiokommentare, die sich so anhören, als würden sie von einem schlechten Sprachsynthesizer erzeugt.

Showtime
2013-10-18, 13:09:53
Mir persönlich gefällt vor allem das permanent eingeblendete gigantische Telefon, das die Sicht auf das Bild effektiv verdeckt.

MasterElwood
2013-10-28, 01:01:01
Was für ein furchtbares Video! Audiokommentare, die sich so anhören, als würden sie von einem schlechten Sprachsynthesizer erzeugt.

Das sind hald Telefoninterviews.


Google Earth in der Technik - das wär was.

BigKid
2013-10-30, 09:50:30
Das Problem war und ist dass nichts einzigartiges an der Geschichte liegt und daher auch nichts patentiert werden kann um es erstmal zu verkaufen.
Weil du in vielen Ländern eher ein Geschmacksmuster schützen kannst als einen bestimmten Algorithmus. Vielleicht waren seine Ideen für Spiele nicht geeignet. Vielleicht wäre es aber auch zu aufwendig den nötigen Content zu generieren ? Ich kann mir einige Gründe denken wieso er abgeblitzt ist, die nichts damit zu tun haben wie gut oder einmalig seine Idee ist...

Aber wenn ich mir Geoview anschaue und wie fix das im Vergleich zu anderen Systemen am Markt zu sein scheint dann muss schon was einmaliges an seiner Idee sein, sonst gäbe es solche Systeme doch schon wie Sand am Meer ?

Fragman
2013-10-30, 10:36:52
Weil du in vielen Ländern eher ein Geschmacksmuster schützen kannst als einen bestimmten Algorithmus.

wenn du was neues oder eigenstaendiges hast dann kannst du das auch patentieren lassen. das war hier aber wohl nicht der fall.

hell_bird
2013-10-30, 13:47:03
Die Typen müssten nicht einmal besonders viel machen um halbwegs ernst genommen zu werden: einfach die Zahlen von speedup und daten overhead gegenüber irgendeiner Technik die man nachvollziehen kann veröffentlichen. Vielleicht noch die Szene zeigen mit der gemessen wurde, damit man grob abschätzen kann, dass nicht gerade der Vergleichsalgorithmus gewählt wurde der in der Szene besonders schlecht performt. Fertig! Damit wird nichts von der geheimen Technik verraten und der Fachmann kann es überhaupt einmal irgendwie einordnen, was das für Behauptungen sind.

Kann nicht fassen, dass das immernoch so ein Thema ist obwohl die einzigen Infos die es bisher gibt sind, dass die ein Programm gemacht haben, das ganz hübsch Volumendaten darstellen kann und dass sie jetzt wohl auch einen Abnehmer gefunden haben...

edit: achja... jetzt fällt es mir auf. Inzwischen scheint ja wohl die Revolution zu sein, dass der algorithmus für external memory optimiert ist. Kenne mich zu wenig aus um das einschätzen zu können, aber im Gegensatz zu den Behauptungen vor 3 Jahren könnte ich mir vorstellen, dass das mehr als nur heiße Luft ist...

Thunderhit
2013-10-30, 21:41:14
Bei dem Video, wo einfach ein USB Stick angeschlossen wird und man sofort das Modell im Programm nutzen kann frag ich mich trotzdem, wie das möglich sein soll. Die Punktwolke wird bei den Welten ja auch mehrere Millionen Punkte enthalten. Individuelle Details existieren nicht, es ist alles ziemlich grob dargestellt, dafür jedoch eine große Fläche (z.B. ganze Stadt).
Jedoch sollte doch das Laden der Daten mindestens einige Zeit in Anspruch nehmen! Selbst wenn nur die Daten geladen werden, die der Nutzer gerade ansieht, ist das nicht gerade trivial.

DR.ZEISSLER
2013-10-30, 23:43:21
ich verstehe das wie eine art streaming (nur halt sichtbare punkte herausfiltern)

Hayab
2013-10-30, 23:47:57
Bei dem Video, wo einfach ein USB Stick angeschlossen wird und man sofort das Modell im Programm nutzen kann frag ich mich trotzdem, wie das möglich sein soll. Die Punktwolke wird bei den Welten ja auch mehrere Millionen Punkte enthalten. Individuelle Details existieren nicht, es ist alles ziemlich grob dargestellt, dafür jedoch eine große Fläche (z.B. ganze Stadt).
Jedoch sollte doch das Laden der Daten mindestens einige Zeit in Anspruch nehmen! Selbst wenn nur die Daten geladen werden, die der Nutzer gerade ansieht, ist das nicht gerade trivial.

Das wird wahrscheinlich auch so aehnlich funktionieren wie das LOD System.
Weit entfernte Objekte werden mit groesseren punkte Abstaenden gerendert, der Voxel der an dem Punkt angezeigt wird entsprechen groesser. Kommt der Betrachter naeher hin wird es genauer.

So kann man den Renderer ein wenig schonen.

Optimieren kann man das ganze in dem man die Punkte die einen Objekt die Form geben, hoehere Werte vergibt, damit diese als spaeter aus der Betrachtersicht verschwinden.

Interessant ist die Technik fuer die Mapdienste, da man relativ genaue Radarvermessung aus dem All hat und das kann man mit Satellitenbilder automatisch Verknuepfen. Mit Polygonen wuerde das sicher auch gehen, allerdings bei relativ hohen Radar Aufloesung wird es auch viele Polygone geben und diese lassen sich nicht immer gut automatisch reduzieren.

Ich glaube fuer ein Flightsimulator waere die Technik brauchbar, wenn man die Technik mit polygon technik mischen wuerde.

Kephis
2013-11-09, 15:50:21
Was haltet ihr hiervon?
Ist er auf der richtigen Fährte? Ich kann das nicht wirklich einschätzen dazu fehlt mir das technische Verständniss.

http://www.youtube.com/watch?v=0-zd_XyqQbM

FeuerHoden
2013-11-09, 16:08:40
Ich finds schade dass er so einen starken Akzent hat, das macht es schwer dem Inhalt zu folgen.

Geldmann3
2013-11-09, 20:16:45
Ich verstehe ihn glücklicherweise ganz gut, bin aber nicht sehr vertraut mit dem Thema.

Ok, mal ein Vorschlag von mir, wie es funktionieren könnte. Die abzutastenden Punkte werden im Raum ähnlich wie hier (http://www.youtube.com/watch?v=prtAkHxjAj8) ermittelt. So, nun wäre die Speicherauslastung viel zu groß, als das man so etwas mit einer gesamten Insel tun könnte. Man könnte es sich allerdings einfach machen und eine "low-res Point-Cloud" zu jeder Karte hinzufügen, welche nur 1/10000 so hochauflösend ist, wie das original. Die Originaldatei teilt man in ein Grid ein. Dabei muss das 3D-Grid nicht zwingend nur räumlich ausgerichtet sein, sondern man könnte auch einzelne Objekte als Teil des "Grids" behandeln und sie beliebig oft dort duplizieren indem man die Werte des 3D Array verschiebt. So spart man sich Speicherbandbreite, weil ein Einzelteil des Grids nur 1x geladen werden muss. Anstatt in Objekte einzuteilen, könnte man natürlich auch Kompressionstechniken verwenden, wie es bei Bildkompression der Fall ist. Nur eben in 3D. Die Daten müssen ja nicht 1 zu 1 wiederhergestellt werden. Wie bei Dateikompressionstechniken könnte man ein "3D Wörterbuch" für jede Karte erstellen und sich wiederholende Strukturen müsste man nur noch platzieren, indem man die Werte des 3D Arrays welches aus einem Wörterbucheintrag entsteht im "Grid" verschiebt. Nun werden zuerst Punkte auf der "Low-Res" Version abgetastet. Jedoch kann anhand dieser festgestellt werden, welche Einzelteile, des Grids aus der Datei geladen werden müssen, was wiederum vorgibt, welche "Wörter" aus dem "3D Wörterbuch" geladen werden müssen. So wird immer nur das nötige geladen. Das Streaming vom USB Stick könnte ähnlich wie Interlacing Verfahren bei Grafiken arbeiten, bis der Ladevorgang abgeschlossen ist, wird auch einfach von der "low-resolution-block-technique" gebrauch gemacht.

CokeMan
2014-09-19, 20:45:07
So nach langer Zeit gibt es mal wieder etwas neues. :wink:
Die Kirche und vor allem der Wald am Ende sind einfach :eek:

5AvCxa9Y9NU

http://abload.de/img/ssssj0xwf.jpg

DR.ZEISSLER
2014-09-19, 20:59:58
Die Vapoware tritt aber kräftig in den Arsch! :-)

MasterElwood
2014-09-19, 21:31:46
THIS + Oculus = i am NEVER leaving my house again! ;D

del_4901
2014-09-19, 21:38:05
Naja er braucht wieder mal Geld und verspricht wieder mal mehr als er zeigen kann.

schoppi
2014-09-19, 21:51:43
Alleine die Machart vom Video ist derart peinlich und arrogant...als wenn man nicht sofort sieht, dass das Gezeigte vom Computer kommt.:rolleyes:

foenfrisur
2014-09-19, 22:06:24
es ist eben nix für spiele.
nur für statische 3D ansichten.

und das dann offenbar auch noch sparsamer mit ressourcen.

also ist doch alles ok.

mfg

RLZ
2014-09-19, 22:17:04
Mit Bier und etwas zum Knabbern sind die Videos recht witzig. :biggrin:

del_4901
2014-09-19, 22:21:03
https://www.youtube.com/watch?v=prtAkHxjAj8
Speicher ist leider nicht Unlimited. :)

KiBa
2014-09-20, 11:23:11
Ich arbeite seit ca. 4 Jahren an genau so einer Lösung, ausgehend von einem Visualisierer, der mit großen CAD-Daten zurecht kommt (mehrere Milliarden Dreiecke). Unsere Resultate sehen ziemlich genau so aus wie in diesem Video, es werden einfach die Punkte im Shader soweit vergrößert, bis sie ihre Nachbarn berühren. Die entsprechenden Berechnungen sind simpel, da die Daten meist von stationären Laserscanern (z.B. Zöller+Fröhlich oder FARO) kommen und diese eine feste Schrittweite haben, was in einer bestimmten Tiefe in einen festen Abstand resultiert. Lods zu berechnen ist auch simpel, da die Daten quasi ein 2,5D-Grid ausfüllen und man nur einfaches Mipmapping machen muss. Wir berechnen dabei noch einen Coverage-Wert, so dass die Daten mit Alpha-To-Coverage gerendert in der Entfernung besser aussehen als hier gezeigt.

Viel herausfordernder ist es, mehrere dieser stationären Scans zu vereinen. Im Video sieht man eigentlich immer nur einzelne Räume mit wahrscheinlich wenigen Scans. Es ruckelt auch stark in der Monitoransicht. Unser Algorithmus schneidet viele Scans in der Vorberechnung gegenseitig aus und macht eine Segmentierung der Daten (Flächenerkennung). Mit diesen Daten kann beim Rendern noch Occlusion Culling zusätzlich zum Lod angewendet werden. Mit dieser Lösung können wir riesige Datenmengen aus hunderten Scans visualisieren (jeder Scan mit ca. 50Mio. Punkten). Zeigen darf ich das Ganze leider nicht, da solch große Datenmengen von großen Konzernen in ihren Fabrikhallen erzeugt werden, um z.B. einen Soll-Ist-Vergleich anzustellen.

Das was im Video gezeigt wird ist Stand der Technik, im Hintergrund wird aber schon an viel größeren Problemen gearbeitet. Und nein, für Spiele ist dies alles nicht wirklich geeignet. Vielleicht für Filme, wo die Sets nur eingescannt und die Schauspieler reinkopiert werden.

foenfrisur
2014-09-20, 12:03:32
deswegen verstehe ich auch nicht, wieso man hier versucht etwas schlecht zu reden, obwohl es für den einsatzzweck sehr gut ist...

immer wird es auf spiele bezogen, weil man im video die engines als vergleich ranzieht...

mfg

RLZ
2014-09-20, 12:31:30
immer wird es auf spiele bezogen, weil man im video die engines als vergleich ranzieht...
In den Videos stellt er die Spieleindustrie als minderbemittelt dar. Dabei verspricht er Sachen, die keinen logischen Sinn ergeben.

Ihr Lösung scheint inzwischen ok zu sein, aber ist halt auch nicht weltbewegend. Wenn sie sich darauf konzentrieren würden, das zu vermarkten, was sie gut können, wäre ja alles ok und niemand würde sich beschweren. Arrogant eine Revolution zu versprechen ruft halt Gelächter hervor.

foenfrisur
2014-09-20, 13:03:45
ja, ein bisschen sicherlich.
es schadet ja aber auch nicht, mal andere ansätze zu verfolgen.
und am ende gibts einen hybriden.

der weißheit letzter schuss ist die aktuelle technik ja nun mal nicht für alle belange.
rt kommt ja auch noch.

mfg

PrefoX
2014-09-20, 14:43:56
ja, ein bisschen sicherlich.
es schadet ja aber auch nicht, mal andere ansätze zu verfolgen.
und am ende gibts einen hybriden.

der weißheit letzter schuss ist die aktuelle technik ja nun mal nicht für alle belange.
rt kommt ja auch noch.

mfg
Raytracing kommt höchstens als Hybrid, sehe da aber kaum Vorteile in den nächsten 10 Jahren.

-/\-CruNcher-/\-
2014-09-20, 14:48:17
Es ist schon längst da

und Laser Scaner sind total langweilig 4D Lightfield Recording yeahh ;)

Seine verzweifeltheit zeigt nur das die Konkurenz immer größer wird in seinem jetzigen Photogrammetry field ;)

RMC
2014-09-20, 17:46:01
Euclideon wieder :D Haben ihren nächsten Schritt erreicht, suchen scheinbar erneut Aufmerksamkeit und klammern sich immernoch an den Strohhalm Spiele. Beim letzten Update haben sie mit Geoverse und der Visualisierung von Point Cloud Data noch auf den industriellen Bereich (zB Vermessung) geschielt. Da hat man zumindest den Eindruck erhalten, dass das wenigstens Sinn macht. Von Games war keine Rede mehr.

Und jetzt wissen sie schon wieder nicht was und wo sie mit ihrer Software hin sollen und was sie tun wollen. Mal einfach wieder in den Raum hineinrufen, vielleicht meldet sich ja die Spieleindustrie :facepalm:

PrefoX
2014-09-20, 18:57:24
Euclideon wieder :D Haben ihren nächsten Schritt erreicht, suchen scheinbar erneut Aufmerksamkeit und klammern sich immernoch an den Strohhalm Spiele. Beim letzten Update haben sie mit Geoverse und der Visualisierung von Point Cloud Data noch auf den industriellen Bereich (zB Vermessung) geschielt. Da hat man zumindest den Eindruck erhalten, dass das wenigstens Sinn macht. Von Games war keine Rede mehr.

Und jetzt wissen sie schon wieder nicht was und wo sie mit ihrer Software hin sollen und was sie tun wollen. Mal einfach wieder in den Raum hineinrufen, vielleicht meldet sich ja die Spieleindustrie :facepalm:
ähm hättest du das video dir angeguckt, hättest du gehört, dass im Moment mindestens 2 Spiele dafür entwickelt werden und sie selbst ein eigenes Studio aufmachen.
Das heißt nicht das es nicht funktionieren wird, aber trotzdem probieren sie es.

Hübie
2014-09-20, 19:54:00
https://www.youtube.com/watch?v=prtAkHxjAj8
Speicher ist leider nicht Unlimited. :)

Der is echt pfiffig und erklärt gut. Nur der Akzent is grausam X-D

@KiBa:

Dann solltest du dich bei Euclideon melden. Hat er im Video gesagt :D

-/\-CruNcher-/\-
2014-09-20, 20:28:05
Wird dir auch gefallen ;)
http://procworld.blogspot.de/

sein approach ist schon lange kommerz und er arbeitet momentan für Sony im Everquest Next Team ;)

http://www.youtube.com/watch?v=nUO_A9I3GUQ

RMC
2014-09-20, 20:38:59
ähm hättest du das video dir angeguckt, hättest du gehört, dass im Moment mindestens 2 Spiele dafür entwickelt werden und sie selbst ein eigenes Studio aufmachen.

Ich hab schon zur Kenntnis genommen, dass sie zwei "Spiele" bereitstellen wollen für ihre eigene Technologie. Ein funktionierender Proof-of-Concept ist eigentlich aber das Minimum was man sich erwarten kann, bevor man sich anmaßt eine ganze Industrie umkrempeln zu wollen (was im Übrigen nicht passieren wird). Das hätten sie schon vor Jahren machen können, als sie ihren "revolutionären" neuen Ansatz präsentiert haben.

Kudos dafür, dass sie es "probieren". Hab ich nix dagegen, im Gegenteil, das ist längst überfällig

Es ist nur so, dass sie seit Jahren das Maul aufreißen ohne auch nur annähernd erklären zu können, wie sie mit der Verarbeitung von Point Clouds neben der optischen Darstellung (das ist das Einzige was sie scheinbar bisher können) ganz alltägliche Probleme lösen oder verbessern wollen, die dabei für die Arbeitsprozesse in der Spieleindustrie entstehen.

Andere haben schon was gezeigt, sind viel weiter und machen bei Weitem nicht so einen Wind. Vielleicht liegts auch daran, dass Euclideon keine Ahnung von der Spieleindustrie hat. Sie haben eine Technologie die vielleicht etwas kann, von dem sie selbst nicht wissen wofür es gut sein soll, sonst würden sie nicht dauernd abwechselnd mit der Spieleindustrie und dann wieder mit der Architektur/Bau- und Vermessungsindustrie liebäugeln.

MasterElwood
2014-09-22, 12:09:08
Die Technik wäre ideal für die nächste Version von Google Earth.

KiBa
2014-09-22, 12:14:23
Die Technik wäre ideal für die nächste Version von Google Earth.
Mit Sicherheit nicht. Höchstens als Vorstufe für die Geometrierekonstruktion von Gebäuden z.B. Die Datenmengen sind beim Punkte-Ansatz einfach zu groß.

CokeMan
2014-09-24, 19:36:08
So noch etwas Material, für Adventures oder Google Maps könnte ich mit das gut vorstellen.

DbMpqqCCrFQ

DR.ZEISSLER
2014-09-24, 19:55:08
Auch wenn sich die Kamera etwas "statisch" bewegt, sieht die Waldszene dennoch HAMMER! aus.

Milchkanne
2014-09-24, 22:56:21
Sag mal, habt ihr irgendwie ein anderes Youtube als ich? Wie Detailreich das wirklich ist kann ich da nicht beantworten.
Und ob man die Artefakte vom Scan ausreichend wegbekommt (die fliegenden Laternen und zerfetzten Autos jetzt mal ausgenommen) und die größte Frage, ob man ein ausreichendes Detailevel (und Kontent) in ein 30GB Spiel bekommt sind noch ungeklärt.

Klar sieht das nicht schlecht aus, ist ja quasi ein 3D-Foto, da ist die Beleuchtung natürlich phänomenal gut, weils ja nun mal die echte Beleuchtung ist. Aber dynamisch ist da nix. Glanzlichter scheinen mir immer an der exakt selben Stelle zu sein, egal wie der Blickwinkel ist. (Was in den Fenstern der Kirche (von außen) passiert, keine Ahnung.)

Ob das im fertigen Produkt wirklich überzeugt, ist eine andere Frage. Ich glaube, das wird ein ganz anderes Gefühl von Unechtheit vermitteln als normale 3D-Engines.

aufkrawall
2014-09-24, 23:10:08
Videos zeigen kann man viel (wobei da auch schon krasse Schwächen auffallen). Ohne herunterladbare Showcase-Demo, die 1-2 frei begehbare Räume zeigt, geb ich nichts drauf.

Die Beleuchtung stört mich fast noch am meisten. Man schaut halt nur auf Fotos, da emitiert nichts wirklich Licht.
Dementsprechend ists auch mit Reflexionen etc. Essig.

aths
2014-09-25, 00:20:05
Und Spielefirmen bauen dann die 3D-Spielwelt erst mal in echt nach, um sie mit dem Laser einzuscannen? :hammer:

Coda
2014-09-25, 01:09:01
Das Problem ist, dass er auch die Lichtsituation von einem statischen Punkt einfängt. Es gibt aber praktisch kein Material das sich nicht blickwinkelabhängig verhält. Und das sieht man extrem in den Videos. Das sieht alles aus als wären es mit Fotos bedruckte Pappkartons.

Nichts gegen die Technik - für Laser-Scan-Daten ist das bestimmt super. Aber sie müssen auch dynamische Lichtverhältnisse abbilden können wenn es eine ernstzunehmende Alternative sein soll. Ich weiß nicht inwiefern das ein Problem ist, weil es ja immer noch nur sehr grobe Anhaltspunkte gibt wie er genau rendert.

Fusion_Power
2014-09-25, 02:40:55
Hach ja, "Unlimited Detail" mal wieder, gibts die also noch, wer hätte das gedacht. :D
Wollen wohl immer noch ihre Technik an den Mann bringen, von Spielen scheinen sie immerhin erst mal den fokus weg zu bewegen richtung ernsthafte Anwendungen, wo man sowas in der Tat gut gebrauchen kann, dagegen ist nichts zu einzuwenden. 3D Brille auf und virtuell Gebäude und Stätten rund um den Globus betrachten, am besten übern Browser wie Google Earth, fände ich schon mal super. :)


Das was im Video gezeigt wird ist Stand der Technik, im Hintergrund wird aber schon an viel größeren Problemen gearbeitet. Und nein, für Spiele ist dies alles nicht wirklich geeignet. Vielleicht für Filme, wo die Sets nur eingescannt und die Schauspieler reinkopiert werden.
Das war ja eben der Punkt, sie haben immer Game-Engines gezeigt und sich darauf bezogen, vor allem in den älteren Videos. Ich kann mir aber auch nicht vorstellen wie man mit dieser Technik all das hinbekommt, was noch zu einem 3D Spiel gehört, wie eben dynamisches Licht, Schatten, diverse andere Effekte, zerstörbare Umgebung etc...

RMC
2014-09-25, 14:13:05
Und Spielefirmen bauen dann die 3D-Spielwelt erst mal in echt nach, um sie mit dem Laser einzuscannen? :hammer:

Natürlich ;) Und wie siehts dann zB mit fiktiven Welten aus?

Grey
2014-09-25, 14:36:01
So wie früher!

http://www.youtube.com/watch?v=EP1ut8KG5eM

Viel einfacher als alles selber machen... uhm, warte mal :ubash:



Für Sightseeing wie im Video finde ich es aber auch interessant. Wobei gerade bei den Naturaufnahmen der Detailgrad spannend wäre, der natürlich totkomprimiert ist.

PrefoX
2014-09-25, 16:33:50
Und Spielefirmen bauen dann die 3D-Spielwelt erst mal in echt nach, um sie mit dem Laser einzuscannen? :hammer:
zum glück gibts ja keine spiele die voxel nutzen oO
Man kann doch auch direkt aus 3dsmax die voxel models konvertieren, sehe da nicht ernsthaft ein Problem.

RLZ
2014-09-25, 17:07:31
Man kann doch auch direkt aus 3dsmax die voxel models konvertieren, sehe da nicht ernsthaft ein Problem.
Und was ist dann der Gewinn?

Coda
2014-09-25, 17:22:11
Unlimited Detail!

RLZ
2014-09-25, 17:27:13
Unlimited Detail!
Stimmt!
Hab ich glatt übersehen.


Die Floatingpoint Fehler, wenn man zu weit reinzoomt, sind auch nur eine realistische Simulation der Unschärferelation. :up:

PrefoX
2014-09-25, 18:16:23
Und was ist dann der Gewinn?
darum gings ja nicht, seine Behauptung war nur, das man damit nur reale Inhalte digitalisieren könnte, versteht hier keiner mehr Zusammenhänge oder was?

Ausserdem gibt es Vorteile, guck dir mal Everquest Next an.
Soll ich dir jetzt ernsthaft die Vorteile von Voxeln erklären?

Coda
2014-09-25, 18:50:38
Strohmann-Argument. Es gibt einen bedeutenden Unterschied zwischen dem was Everquest und dem was Unlimited Detail macht.

PrefoX
2014-09-25, 18:56:11
Strohmann-Argument. Es gibt einen bedeutenden Unterschied zwischen dem was Everquest und dem was Unlimited Detail macht.
Er hat doch auch in älteren Videos gezeigt das er auch unechte Inhalte darstellen kann... warum kommste dann mit so einem Argument?

RLZ
2014-09-25, 19:04:48
Er hat doch auch in älteren Videos gezeigt das er auch unechte Inhalte darstellen kann... warum kommste dann mit so einem Argument?
Weil da kein großer Zusammenhang besteht.

PrefoX
2014-09-25, 19:07:06
Weil da kein großer Zusammenhang besteht.
aha okay also kann man nur Reale Inhalte darstellen, alles klar. Okay dann ist ja gut. Bullshit

RLZ
2014-09-25, 19:21:18
aha okay also kann man nur Reale Inhalte darstellen, alles klar. Okay dann ist ja gut. Bullshit
Das hat niemand behauptet.
Du wirfst nur verdammt viel durcheinander.

Du kannst aber gerne genauer erklären, wo der Zusammenhang sein soll. :D

PrefoX
2014-09-25, 19:34:16
Das hat niemand behauptet.
Du wirfst nur verdammt viel durcheinander.

Du kannst aber gerne genauer erklären, wo der Zusammenhang sein soll. :D
aths hat doch die Anspielung gemacht... lies mal nach.

Und Spielefirmen bauen dann die 3D-Spielwelt erst mal in echt nach, um sie mit dem Laser einzuscannen?

Die Frage ist doch eher, warum müssen die Entwickler Modelle machen, von realen Objekten, die schon existieren? DAS ist doch die Zeitverschwendung über die sich Aths aber nicht beschwert.

Fragman
2014-09-25, 19:46:00
das ist ein ganz normaler pointcloud viewer, mehr nicht. was er nun gemacht hat ist scanned data herzunehmen und die optisch aufbereitet. das was man im vfx bereich zum beispiel seit einiger zeit macht, naemlich setteile oder das ganze set per laser einzuscannen. der nuke compositer kann damit zb die integration von cgi in live action plates vereinfachen indem er dazu noch die point cloud per retopo in ein polyobjekt umwandelt, das live action plate reprojeziert und damit kann man dann weiterarbeiten.

aths schrieb das weil man eben scanned data braucht fuer das was er da im video zeigt. fuer games wuerde das bedeuten man scanned dinge ein oder modelliert dinge als echte modelle um sie dann einzuscannen. das kann man machen, ist nur unsinnig. denn das ganze ist starr und nicht dynamisch, das wuerde die datenmengen explodieren lassen und ist heute nicht machbar, auch in ein paar jahren nicht.

RLZ
2014-09-25, 20:18:36
aths hat doch die Anspielung gemacht... lies mal nach.
Du hast Everquest Next gebracht.


Die Frage ist doch eher, warum müssen die Entwickler Modelle machen, von realen Objekten, die schon existieren? DAS ist doch die Zeitverschwendung über die sich Aths aber nicht beschwert.
Da gibt es viele Gründe dafür.
In der Regel ist die Überarbeitung der Modelle mehr Arbeit ist als alles von Grund auf neu zu bauen. Wobei der Aufwand ständig sinkt und Spiele wie Ethan Carter in die Richtung gehen.

PrefoX
2014-09-25, 20:54:03
Du hast Everquest Next gebracht.



Da gibt es viele Gründe dafür.
In der Regel ist die Überarbeitung der Modelle mehr Arbeit ist als alles von Grund auf neu zu bauen. Wobei der Aufwand ständig sinkt und Spiele wie Ethan Carter in die Richtung gehen.
ich hab EQN isn spiel gebracht um das gegenteil von Real zu zeigen,obwohl es wohl Voxel sind.

die Gründe dafür kenn ich auch, der Aufwand der Änderungen wäre aber nicht so groß wenn der Konverter gut wäre. Das ist aber ein anderes Thema.

RLZ
2014-09-25, 22:14:15
ich hab EQN isn spiel gebracht um das gegenteil von Real zu zeigen,obwohl es wohl Voxel sind.
Unlimited Detail benutzt keine Voxel.
Also nochmal: Wo ist der Zusammenhang?

Geldmann3
2014-09-25, 22:33:49
Die Datenmengen sollten zum streamen über Google Earth eigentlich nicht zu groß sein, er hat in einem Video mal gezeigt, dass der Geoverse Viewer auch noch mit einer langsamen Internetverbindung klar kommt. Man hat dann halt in den ersten Sekunden doch kurz Blöckchenbildung. Von einem USB2.0 Stick dauert das Laden eines beliebigen Modells wohl weniger als 1 Sekunde. Auch mit regulären Festplatten soll der Point Cloud Suchalgorithmus keine Probleme haben.

Thunderhit
2014-09-25, 22:44:34
Immer mal langsam. Es wurde ein Video mit USB Stick und ziemlich viel blabla gezeigt. Wie von anderen schon gesagt wurde ist es schwer Dinge zu glauben ohne, dass man selbst das auch wirklich testen/nachvollziehen kann. Sollen sie eine Demo rausbringen. Dann kann jeder selbst sehen, wie gut die Modelle beim Streaming über USB-Stick dann sind.

PrefoX
2014-09-26, 01:37:51
Unlimited Detail benutzt keine Voxel.
Also nochmal: Wo ist der Zusammenhang?
leck mich fett, langsam gehts hier ab.

Euclideon have previously described their technique as being a voxel rasterizer,[7] but decided to use their own terminology such as "3D atoms" and "point cloud", saying that "that word [voxels] doesn't have the prestige in the games industry that it enjoys in medicine and the sciences"

also nutzen sie Voxel, nennen es aber nur "3D Atoms" weil es in der Spieleindustrie nicht gut ankommt.. also bitte.

Natürlich sind es Volumetrische Pixel/Punkte, wofür Voxel nunmal steht.

Coda
2014-09-26, 10:42:06
Der Unterschied besteht nicht nur in der Terminologie, sondern im eigentlichen Rendering-Verfahren. Everquest ist ein sinnloser Vergleich. Die triangulieren eh alles.

Und normalerweiße verwendet man den Begriff "Voxel" wenn es um reguläre Gitter geht und "Point Cloud" wenn es eine lose Ansammlung ist. Insofern hat er recht.

RLZ
2014-09-26, 11:03:20
lalso nutzen sie Voxel, nennen es aber nur "3D Atoms" weil es in der Spieleindustrie nicht gut ankommt.. also bitte.

Punkte aus einer Pointcloud von 3D Scannern haben kein Volumen.
Wie nun das Splatting realisiert ist, ist eine andere Geschichte.

Dann muss man noch unterschieden was beschrieben wird.
Die Pointclouds hier sind, wie die üblichen Polygonmodelle, eine Oberflächenbeschreibung.

Volumerenderer kann man auch als Pointcloudrenderer sehen. Allerdings ist hier die Art der Daten eine komplett andere.

In Everquest/Minecraft modellierst du auch eher das Volumen und rekonstruierst für das Rendering eine Oberfläche.


Also sind Beschreibung unterschiedlich, Daten unterschiedlich und Rendering unterschiedlich.

del_4901
2014-09-26, 12:59:10
Ausserdem gibt es Vorteile, guck dir mal Everquest Next an.
Soll ich dir jetzt ernsthaft die Vorteile von Voxeln erklären?
Ich bitte darum.

PrefoX
2014-09-26, 14:11:27
Punkte aus einer Pointcloud von 3D Scannern haben kein Volumen.
Wie nun das Splatting realisiert ist, ist eine andere Geschichte.

Dann muss man noch unterschieden was beschrieben wird.
Die Pointclouds hier sind, wie die üblichen Polygonmodelle, eine Oberflächenbeschreibung.

Volumerenderer kann man auch als Pointcloudrenderer sehen. Allerdings ist hier die Art der Daten eine komplett andere.

In Everquest/Minecraft modellierst du auch eher das Volumen und rekonstruierst für das Rendering eine Oberfläche.


Also sind Beschreibung unterschiedlich, Daten unterschiedlich und Rendering unterschiedlich.
Der Typ von Euclideon sagt doch selbst, das sie die Punkte nehmen und soweit aufblasen, bis es keine lücken mehr gibt, ergo hat es Volumen, egal was du willst.
Auch egal wie ihr euch ausreden wollt, EQN nutzt Voxel, wenn auch nicht für die Charaktere. Durch die Voxel ist doch die Welt zerstörbar. Klar geht das auch mit Polys, nur muss man doch dann schon die Polys dort schneiden, sonst gehts nicht. Zweitens haben ja Polys kein Volumen und dorthinter ist nichts. Bei Voxeln ist das eben anders. DAS ist der Vorteil von Voxeln @ Alphatier, hätte gedacht das du soetwas wissen würdest, bin irgendwie enttäuscht.

Ich hab doch nie gesagt, dass eine Voxel engine besser ist, nur manche wollen auch einfach nicht die Wahrheit hören. Fakten bleiben Fakten, dafür kann ich nichts sorry.

Fakt ist, das Euclideon eine Voxel engine hat, sie nutzen NICHT NUR lasergescannte Objekte, also kommt nicht immer mit diesem Argument.

Ausserdem kann man Lasergescannte Objekte anscheinend wohl doch sehr gut in Spiele unterbringen, aber das ist AUCH ein anderes Thema. RLZ hat ja den Titel genannt, The Vanishing of Ethan Carter sieht verdammt gut aus.

und Coda, dann zeig mal nen Link wo steht, das Everquest Next alles in Polys umwandelt. Denn die Kugeln die dort gebaut wurden sind wirklich SEHR SEHR rund, würden aus viel zu vielen Polys bestehen, ist also unvorstellbar. Zweitens ist die Performance viel zu schlecht für Polys, das _glaube_ ich aber auch nur.

RLZ
2014-09-26, 14:30:57
Ist ja gut, du hast recht. :up:

@ Alphatier, hätte gedacht das du soetwas wissen würdest, bin irgendwie enttäuscht.
:lol:


und Coda, dann zeig mal nen Link wo steht, das Everquest Next alles in Polys umwandelt. Denn die Kugeln die dort gebaut wurden sind wirklich SEHR SEHR rund, würden aus viel zu vielen Polys bestehen, ist also unvorstellbar. Zweitens ist die Performance viel zu schlecht für Polys, das _glaube_ ich aber auch nur.
http://youtu.be/JuArYKTkL6U?t=1m44s

Coda
2014-09-26, 14:35:15
:facepalm:

del_4901
2014-09-26, 16:07:23
Zweitens haben ja Polys kein Volumen und dorthinter ist nichts. Bei Voxeln ist das eben anders. DAS ist der Vorteil von Voxeln
Und ich dachte immer der grosse Vorteil von Voxeln ist, dass man sie Prefiltern kann.
Solid Voxelization ist nicht trivial. Und alles was ich bisher im Internet gesehen habe war nicht solid. Das meisste war nicht mal wasserdicht. Euclideon hat auch nichts dahinter, weil der Laserscanner dass gar nicht erfassen kann.

M4xw0lf
2014-09-26, 17:37:37
Und ich dachte immer der grosse Vorteil von Voxeln ist, dass man sie Prefiltern kann.
Solid Voxelization ist nicht trivial. Und alles was ich bisher im Internet gesehen habe war nicht solid. Das meisste war nicht mal wasserdicht. Euclideon hat auch nichts dahinter, weil der Laserscanner dass gar nicht erfassen kann.
Röntgenlaser! :freak:

KiBa
2014-09-26, 17:37:46
Und normalerweiße verwendet man den Begriff "Voxel" wenn es um reguläre Gitter geht und "Point Cloud" wenn es eine lose Ansammlung ist. Insofern hat er recht.
Mmh, Einspruch. Bei Point-Clouds geht es um eine Ansammlung von Punkten, da unterscheidet man noch in ordered (meist grid) und unordered. Voxel beschreiben dann Volumenelemente. Die haben also eine Ausdehnung in alle 3 Raumdimensionen und eignen sich meist eher schlecht für die Repräsentation von Oberflächen.

Gauß
2014-09-27, 09:51:49
Voxel haben kein Volumen, genauso wie auch Pixel keine Groesse haben. Es sind einfach die Punkte eines Raster, denen Daten zugeordnet sind.
Eine volumetrische Darstellung kann aus Voxeln generiert werden, was als "sampling" (EDIT: eben nicht splatting) bezeichnet wird. Dazu gibt es endlos viele Verfahren die teils bereits vor Jahrzehnten entwickelt wurden.

Bei diesem "unlimited detail" Zeugs kann ich nichts innovatives erkennen. Die Effizienz des Raycasters scheint recht gut zu sein, jedoch wird nichts aussergewoehnliches gezeigt, was nicht bereits schon vorher erreicht wurde.

Coda
2014-09-27, 10:40:18
Natürlich habe Voxel ein Volumen.

del_4901
2014-09-27, 10:52:56
Definitionssache wenn man conservative rastert eventuell ja, wenn man nur sampled eher nein.

Gipsel
2014-09-27, 11:17:26
Definitionssache wenn man conservative rastert eventuell ja, wenn man nur sampled eher nein.Ein Pixel hat eigentlich immer eine konkrete (screen space) Fläche (mit 'nem CRT, einem Laser Projector oder auch seltsamen Subpixelverteilungen einiger Displays vielleicht real nur nicht mehr rechteckig ;)). Das mit dem Samplen ist ja erstmal nur eine Vereinfachung. Man rechnet irgendwas (am Ende den Farbwert) an einem Ort aus (man sampled an einem hoffentlich representativen Ort) und weist dann diesen Wert der kompletten Fläche eines Pixels zu. Mehrere Samples pro Pixel (Antialiasing) verbessern diese Näherung. Und analog haben Voxel eigentlich auch ein Volumen (steckt doch schon im Namen).
Wie das nachher in einer Implementation konkret behandelt wird (bzw. daß man das auch anders behandeln kann oder gar muß), ist eine andere Frage, da stimme ich zu.

Gauß
2014-09-27, 11:20:04
Nein, ein Voxel ist ein Punkt und ein Punkt hat kein Volumen.
In Bezug auf "Voxel" wird nur die Topologie als "Volumen" beschrieben.
Das ist eine ganz entscheidende Eigenschaft fuer sinnvolles sampling (EDIT: eben nicht splatting). Im Prinzip ist dies mit den unterschiedlichen Eigenschaften zwischen Vektor- und Rastergrafik vergleichbar.

Werden anstatt Punkte, geometrische Objekte (Kugel, AAB) betrachtet, sind es keine Voxel mehr. Raycaster/Raytracer die so etwas machen sind miserabel.

Coda
2014-09-27, 11:30:43
Ein Voxel hat ein Volumen das sich aus seiner Gitterposition ergibt. Es ist keine Box, aber es ist auch nicht Null.

Das ist so als würde man sagen ein Texel hätte keine Fläche.

Gipsel
2014-09-27, 11:35:37
Ich würde mein obiges Statement etwas entschärfen und sagen, ein Voxel repräsentiert ein gewisses Volumen (edit: genauso wie Texel eine Fläche). Ob das konzeptionell immer so sein muß, daß es eins hat, ist wohl tatsächlich Definitionsfrage bzw. Haarspalterei.

Coda
2014-09-27, 11:35:54
Okay, es ist Haarspalterei, einigen wir uns darauf.

Gauß
2014-09-27, 11:45:26
Ein Texel ist genauso nichts weiter als ein Punkt und keine Flaeche.
Es wird lediglich auf Basis von unabhaengigen Daten in der R2/R3-Topologie projiziert und abgetastet (Texturkoordinaten + Dreieck).

Ich will natuerlich auch nicht einen Definitionskrieg anzetteln, jedoch ist es gut beobachtbar was fuer schlechte Resultate geliefert werden, wenn man da nicht klar differenziert und sich der signifikanten Unterschiede bewusst ist. Man kann das gut an den vielen schlechten AAB raycastern auf Youtube erkennen. Sampling ist richtig, splatting ist Mist.

Gipsel
2014-09-27, 12:41:33
Letztendlich kommt die Bildinformation praktisch an Deinem Display auf einzelne kleine Flächenelemente projiziert an. Das impliziert, daß egal welche Repräsentation Du zwischendurch verwendest, wie Du genau abtastest und welche Annahmen und Näherungen damit verbunden sind oder welcher Güte dann die Ergebnisse sind, somit jeder Datenpunkt immer eine gewisse Fläche/Volumen repräsentiert (die Texel bzw. die Texturfilterung z.B. nehmen explizit Rücksicht auf den Footprint der Fläche eines Pixels im Texelspace (bzw. andersrum, ist das Gleiche), damit man ordentliche Resultate bekommt).
Du könntest da auch wieder argumentieren, das wären nur Unzulänglichkeiten der Anzeige, konzeptionell könnten man das als infinitesimal kleine Punkte auffassen, woraus unser Gehirn dann erst Flächen und Volumen rekonstruiert, da wir typischerweise nicht in Gittern oder point clouds denken.
Ich nenne sowas Haarspalterei, da es im Endeffekt irrelevant ist, wenn man sich den Begrenzungen der jeweils konkret benutzten Näherungen, die das Sampeln an diskreten Koordinaten und Transformation (wie auch immer) in das letztendlich angezeigte Bild immer darstellen, bewußt ist.

del_4901
2014-09-27, 12:49:44
Eine (Pixel)Flaeche oder ein (Voxel)Volumen ist ein Integral, was die meissten Renderer durch sampling annaehern. Eine zu einfache Definition ohne Coverage fuehrt zu schlechten Resultaten, weshalb ich erstmal Abstand von einer einfachen Definition nehmen wuerde. Was das Display am Ende daraus macht ist fuer das Rendering erstmal egal muss aber auch in teilweise Betracht gezogen werden, soweit das ueberhaupt moeglich ist.

RLZ
2015-04-09, 15:25:36
UNLIMITED DETAIL

http://abload.de/img/i4cimgpsh_origm5sl2.png

http://abload.de/img/ulzls65.jpg


http://udserver.euclideon.com/demo

aths
2015-04-09, 15:34:22
Hab bisschen in der Kirche herumprobiert. Ziemlich limited Detail und keine Interaktion mit Licht.

Das heißt nicht, dass so eine Technik totaler Quatsch ist, nur haben wir damit natürlich nicht einfach mal superrealistische Spielwelten.

Coda
2015-04-09, 15:47:41
UNLIMITED DETAIL

http://abload.de/img/i4cimgpsh_origm5sl2.png

http://abload.de/img/ulzls65.jpg


http://udserver.euclideon.com/demo
Das liegt aber an den Pointcloud-Daten, das da Löcher sind.

Das Demo streamt nix rein bei mir. Server überlastet?

RLZ
2015-04-09, 15:56:07
Das liegt aber an den Pointcloud-Daten, das da Löcher sind.
Schon klar. :)

Man sieht aber an den angegebenen Datenmengen, dass die versprochene Kompressions-Magie nicht existiert.
Die Kirche hat schon 5GB Daten und ist wirklich begrenzt im Detailgrad.

Das Demo streamt nix rein bei mir. Server überlastet?
Bei mir tut es noch problemlos. Vielleicht Leitung zu langsam?

Grey
2015-04-09, 15:59:51
Firefox geht bei mir nicht, Chrome schon.


Sehr... unspektakulär. Da würden mich mal direkte Vergleiche interessieren, bspw. mit Scans von IR.

Coda
2015-04-09, 19:15:25
Schon klar. :)

Man sieht aber an den angegebenen Datenmengen, dass die versprochene Kompressions-Magie nicht existiert.
Die Kirche hat schon 5GB Daten und ist wirklich begrenzt im Detailgrad.


Bei mir tut es noch problemlos. Vielleicht Leitung zu langsam?
100 MBit/s reichen nicht?

Sehr... unspektakulär. Da würden mich mal direkte Vergleiche interessieren, bspw. mit Scans von IR.
Hä? Das sind doch Laser-Scans?

Darum geht's doch, Euclideon positioniert sich als Renderer für Point-Cloud-Daten und dafür ist es meiner Meinung nach ziemlich gut geeignet.

del_4901
2015-04-09, 19:23:10
BOtx4Jk-OaQ

Hübie
2015-04-09, 21:15:05
ANQ1v6fLofo

Coda
2015-04-09, 22:06:12
"This video is private"

Hübie
2015-04-09, 22:26:34
Jetzt bitte X-D Aber sei nicht enttäuscht wenn der klick umsonst war...

RMC
2015-04-09, 22:47:07
Unlimited Shit

Hübie
2015-04-09, 22:52:33
Also für Bauingenieure, Geologen und auch anderen ähnlichen Bereichen ist das eine sehr gute Lösung. Der Aufwand ist ungleich geringen um ein Abbild der Umgebung zu erstellen als mit professionellen Programmen.

Es ist nur nicht für Spiele geeignet. Ich halte nach wie vor viel davon.

FlashBFE
2015-04-09, 23:10:33
Funktionieren denn nun eigentlich dynamisch bewegte Objekte in der Engine?

Geldmann3
2015-04-09, 23:28:39
Wer die Videos von Unlimited Detail gesehen hat und dann diese Demos sieht... :freak:

Das ist doch sooooo lächerlich :eek: !!

Warum hat man nicht die hochauflösenden Modelle aus der Videodemo, wie die Insel reingestellt? Ganz einfach, weil es nicht geht!! ;)

Man kann mir jetzt auch nicht mit dem Argument kommen, man hätte niedriger aufgelöste Modelle genommen, weil die Datenmengen sonst zu groß seien. Im Video wurde nämlich explizit gesagt, dass es auch mit sehr langsamen Verbindungen funktionieren solle.

Und warum läuft meine CPU am Anschlag (100%) obwohl ich die Demo nur mit diesen niedrig aufgelösten Modellen in 480p laufen habe? Dann kann ich ja davon ausgehen, dass es mit höheren Auflösungen und detaillierteren Modellen noch ruckeliger wird. Im Video wurde aber gesagt, dass eine ältere Laptop CPU keine Probleme mit 720p habe?!

Dennoch gute Technik, Google sollte es kaufen und Google Earth damit umsetzen.

2. Eindruck.
Genauer betrachtet kann ich mir die Zukunft der Spielegrafik doch so vorstellen. Es ist doch schon beeindruckend, wie viel Geometrie in der Kirche teilweise zu sehen ist. Wie nah ich an Objekte ranzoomen kann. Das weckt einen ganz neuen Entdeckungsdrang als mit Polygonen. Man sollte sich von der scheinbar groben Matschoptik nicht täuschen lassen. Es ist einfach noch sehr rudimentär.

Hübie
2015-04-10, 00:54:22
Also bei manchen weiß ich echt nicht mehr was ich sagen soll...
Es hieß auch dass GPU-Processing gebastelt wird. Inwiefern da Browser und API eine Rolle spielen weiß ich nicht weil ich davon keine Ahnung habe.
CPU-Leistung ist da um diese zu nutzen.
http://abload.de/thumb/euclideondemogzqxr.png (http://abload.de/image.php?img=euclideondemogzqxr.png)

Und wo findest du so schnell diesen Detailgrad im richtigen Maßstab? :rolleyes: Denkt doch mal bitte etwas pragmatischer.
http://abload.de/thumb/euclideondemo2mopno.png (http://abload.de/image.php?img=euclideondemo2mopno.png)

Ja es ist ausbaufähig. Nein man kann damit nicht Doom 4 spielen.

y33H@
2015-04-10, 04:19:43
Das Demo streamt nix rein bei mir. Server überlastet?Für eine Sekunde sehe ich was, dann tot.

EDIT
Ok, mit ner Geforce geht's, nette CPU-Last ^^

y33H@
2016-05-20, 11:44:11
Es gibt wieder was Neues, ein sogenannte Holoverse in Australien: http://www.golem.de/news/holoverse-euclideon-eroeffnet-entertainment-center-mit-hologrammen-1605-121010.html

lTz_mHZAOCs

Hier noch die komplette Info (Achtung Textwüste!):


Information On The Technology

Euclideon’s Position
Australia is normally known for kangaroos, mining and exporting food, it’s not often seen as a world leader in technology, but we intend to change all that. Australia isn’t just a country it’s a continent and we think we should start acting that way.

Euclideon is very different to other technology companies. Normally technology companies do a lot of B2B (“business to business”) negations to create a product. One company makes the hardware, they take it to many different companies to make the content, other companies make the graphics tools they use, and then the product goes to different distributors around the world. Euclideon feels there is strength in independence so we design and build the most critical hardware ourselves, we make our own content (we will be opening numerous content development teams) we make our own graphics tools, (all our animation programs, map editor, and even our programming editors are all made ourselves), we also set up our own centres around the world and run them ourselves.

Rebuilding Everything
Humanity spent 30 years developing 3d graphics for computers. Some companies invented 3d algorithms, others made 3d tools, and others built graphics cards. This was done by thousands of people on the planet working together to produce something great. The system they created is known as the polygon system. It makes all 3d graphics out of little flat triangles that it process on the computers graphics card. This system was great for making angular things like buildings and boxes but isn’t so great for rounded objects. The system takes time to make each triangle so if you want more detailed graphics then you need to have bigger computers.

Euclideon looked at this system and decided it was time to wipe it all away and completely start again. Humanity needed a better way of making 3d graphics that didn’t have these limitations. The idea of rebuilding every graphics algorithm, every graphics tool, no longer using the graphics card, and recreating moving objects, animation and lighting, seems like madness of the highest order. It should have taken thousands of people and another 3 decades to do, but our team had a clear plan and so in a matter of only 5 years all of 3d graphics have been replaced with a much better system entirely built here in Australia.

Euclideon’s Technology what are the differences
The pictures on the left is from a polygon based computer game, normally in such games people move quickly so you do not notice how angular the graphics really are.

Graphics
Polygons look like flat pieces of cardboard. The way people solve this is by having a lot more of them, if your sphere is made of 30 polygons it looks like a diamond, if it’s made of 2000 it looks more round. But more polygons mean more processing power.

Euclideon doesn’t make its graphics out of polygons, it makes things out of trillions of little 3d atoms just like the real world, so objects that are round and organic have over a thousand times more detail in Euclideon’s system then they do in the normal polygon system.

Computing power
When Euclideon first announced they had a way of giving computer graphics unlimited power people where very sceptical. Everyone knows that better graphics take more computing power, so these claims could not possibly be true. But Euclideon’s technology is now licenced by some of the world’s biggest geospatial 3d graphics corporations (Leica, Hexagon, Ball Aerospace). The system is very different to the polygon system. Normally in 3d graphics if you put an object on the screen it takes up a certain amount of computing power, so if you put two objects on screen it uses up twice as much. Euclideon shows examples of where they put hundreds, thousands, millions, or billions of objects on screen and the computer does not slow down. This is because Euclideon has created a new 3d search algorithm. One that finds exactly one atom for each pixel on the screen, so weather your environment is one object or billions, it all uses up the same processing time, and give you unlimited amounts of detail on the screen.

Content Creation
Normally when artists make content with a polygon system, they have “polygon budgets”. Each object takes a certain amount of polygons so they have to downscale and simplify their objects to make them all fit in to their game. Euclideon’s technology gives the artists unlimited power to create whatever they want. We have unlimited power map editors were even the grains of dirt on the ground are all complex real geometry.

Object Import
When an object is laser scanned in from the real world it has a lot of geometry and detail. The polygon system removes most of this geometry and detail to make them small enough to handle. Because Euclideon has unlimited power they can run an unlimited number of laser scanned objects, and because they are made of little 3d atoms no detail is lost in translation and they don’t get downscaled. So now making games is more like making movies, traditional art forms like sculpting and making models are now a normal part of computer game construction.

Animation
Originally when we showed the world we could make graphics out of little 3D atoms many professional people (like the creator of “Minecraft”) said that it would be impossible to do animation. Our response was “you have no idea as to how we do what we can do, so how can you possibly think you can tell us what we can’t do”. Now we animate not only robots and solid structures, but also squishy bending things like frogs and snails. In one animation we show a snail coming out of a shell which no one ever expected to see from animation without polygons. Animation is new to us but the standards we have already achieved match what you would find in any Blizzard game. It will be another year before we match games like assassins creed or games from Crytek, but if you look at what we’ve achieved in such a small amount of time, I would consider it unwise to underestimate us.

Graphics Cards
3d computer graphics today are made by the computers 3d graphics cards. Graphics cards make the computer about 200 times stronger for processing 3d graphics. Euclideon’s system doesn’t use the 3d functions of the graphics card at all and yet gives a similar result on a fraction of the processing power.

Production Time
Triple A polygon games are made by large studios of hundreds of people.
Alternatively for the two pieces of content we are opening Holoverse with we used
1 artist for sculpture, 2 animators, and our CEO wrote the script made most of the back grounds and arranged the voice actors and music. Our engine team finished most of the tools to build hologram room content by January 12th, and we finished most of the games and experiences 2.5 months later. When you scan in most of your graphics from the real world, and you have no polygon budgets, production is many many times faster.

The Polygon Use by date
The biggest problem with polygons is they have a used by date. If I look at a polygon object up close on screen the polygons are big, but if the object is far away then the polygons are so small they are less than a pixel in size. When polygons are less than a pixel in size we should not be using polygons we should be using atoms. When round objects are made of polygons they look angular. To compensate for this better graphics cards are made to give more polygons of smaller size. The smaller your polygons are the more life like your graphics will look. So polygons are headed down the road of wanting as many polygons as possible, and wanting them as small as possible. If you think about it, the end of this road is where the polygons are so small that they are 1 pixel atoms on the screen. The conclusion is that after a few more decades of evolution the polygon system will finally reach the place where Euclideon is now.

The Hardware

Euclideon is not the first company to create a hologram room. Different Universities’ and science centres around the world have created many different types of hologram rooms at different points in time, but the holographic hardware that Euclideon has created has some very big advantages.
In addition to the unlimited graphics power already discussed, this section will speak of the advantages of Euclideon’s hardware. It will refer to the hardware that others created as “Normal” hardware, to reflect that the rest of the industry is fairly standardised and unified in the forms of hardware they use.

Normal Tracking
In other tracking systems there are lots of cameras all over the room. The more cameras and resolution you have the better your tracking will be. Each camera returns a picture to a computer and that computer scans each image to look for little balls of light that are put on the player to help track them. The more cameras you have the more computers you need to scan all the pictures that come in.

Euclideon’s Tracking
Euclideon makes some very advanced tracking hardware.

The tracking dome actually scans the room for many points of lights and process the result on our tracking dome itself. Rather than have lots of computers to take input from lots of cameras Euclideon’s tracking domes simply return the numerical position of the tracking balls directly to the computer.

Normal Tracking Calibration
The second issue with tracking is calibration and stability. When you have lots of separate cameras if they move even a small amount (as the do many times during the day) your tracking will be warped, it will give bad results and the 3d won’t look right.

Euclideon’s Tracking Calibration
The approach of lots of cameras pointing into a room is not a good approach at all. We have created a different way to track, instead of numerous single cameras looking in we have 26 cameras on two tracking domes looking out. By fixing these cameras to the wall at a known distance we eliminate all need to constantly recalibrate because the cameras moved.

Normal Hologram room Glasses
In a hologram room the glasses track which way you look, so the computer can process the fake holographic atoms in the room to bend in the right way according to where your standing. Normally there are two different ways to track a person’s rotation in a hologram room. The first is with tracking light balls, (these sometimes get blocked or cross in to each other, so they sometimes cause hologram rooms to jump around a bit), the second way is with magnetic gyros and accelerometers, (these de-calibrate over time so a person has to reset them often).

Euclideon’s Hologram room Glasses
Both of the above rotation tracking systems have major faults, But these faults are not the same. Where one system is weak the other is strong, so Euclideon fused the two systems together and made self-calibrating glasses. Normally the glasses will use the gyro tracking, but whenever the tracking domes see the player looking at the front wall they take a rotation reading from the tracking balls on the glasses and use them to recalibrate the gyros. This way when one system is weak the other is strong and the result is a system that is stable and does not require human calibration.

Normal tracking wand
Normal tracking devices update using blue tooth which broadcasts with a delay of 50milliseconds before the computer receives it.

Euclideon’s tracking wand
Euclideon examined the Bluetooth chips that the rest of the world uses, and we believed that for our purposes we could improve them, so we built an alternative wireless system that runs at about 5 milliseconds (10 times faster than blue tooth). In addition to this the tracking wand also has the dual fused gyro system we use in the glasses, so there is no need to calibrate.

Euclideon’s central belt
To cut down on interference Euclideon does its wireless broadcasting from a single belt rather than having the interference from three different separate devices (wand, belt, glasses). The main advantage of this is that Euclideon can now have up to 40 hologram rooms running in the same location (instead of 13). The belt box has the central computer that looks after all auto calibration, it also has a larger battery for 8 hours or more of battery life, and its tracked for artificial gravity so the computer can know exactly when you are over a hole in the ground or stepped over a ledge. In addition to this the belt process Euclideon’s new multistep system. In this system one step in the real world equals 3 steps in the virtual world. So in applications were this is activated the hologram room feels like it’s 3 times bigger on the inside.

The projectors

Euclideon does not make projectors we have modified projectors built for us with our own firmware changes.

Normal Projector Alignment
Normally whenever a projector moves all the projectors have to be realigned because there will be tearing in the image on the walls where the two projectors images don’t touch. Such alignment must be done when the room gets bumped, or if the room is transported as well as regular alignments due to projectors micro movements over time. This alignment process is done by people manually using positioning software and can take around an hour, depending on how precise you want the room to be and the skill of the person who has been taught the art of alignment.

Euclideon’s Projector Alignment
Euclideon’s hologram room has a built in camera that automatically aligns the projectors for you. The auto alignment scans the room to acquire its shape then it moves the projection zones into position. The auto alignment process takes about 3-5 minutes.

The Computer
By using a computer that has been installed with our own unlimited power algorithms we are able to make a hologram room run with walls of 3840 pixels (width) doubled for stereo (both eyes) all from one computer. Hologram rooms in the past were millions of dollars before Euclideon entered this field because of all the computer processing involved. More importantly hologram rooms of the past were known for their terrible instability. When you have lots of computers hooked together you can be sure that there will be regular breakdowns. A common saying in this field is “a hologram room is like a helicopter, it takes a full time maintenance team to keep it operational”.
By using one computer rather than many we have stability equal to that of an ordinary computer you would use at home.

Reverse Compatibility
Point cloud data is superior to polygon data in many respects, but for the sake of reverse compatibility, some of Euclideon’s hologram products have the ability to run polygons directly in the hologram room. Whilst point cloud data is unlimited (when using Euclideon’s software), polygons are not, so the more polygons you have, the slower your room will run. The hologram room comes with a fairly good graphics card and does reasonably well at running most cad models. The hologram room can run traditional point cloud data formats (.LAS) etc. after they have been converted to our format (conversation times are around 90 seconds per gigabyte)

Loading
Euclideon’s geospatial hologram rooms are equipped with a new streaming technology. Traditionally loading of large geospatial models takes up to 20 minutes per 100 gigabytes. Euclideon’s loading technology can load similar sized models in less than a second. In fact the loading system is so fast you can run a model in real time straight from a USB stick (one of the slowest storage devices around). Though this instant streaming technology seems too good to be true it is now used by Arup, Leica, French railways (SNCF), the Hungarian government and many others.

Data Collection
Euclideon’s also produces a technology called “Solidscan”. Normally a laser scanner makes the environment out of little points that have lots of holes in-between. Solidscan is a new technology that allows a laser scanner to make a solid water tight copy of the real world that is many time higher in resolution that what the laser scanner normally records. So now you can bring real copies of the real world in to your hologram room using a laser scanner.

Conclusion
Euclideon creates hologram rooms that are:

* a lot cheaper,

* many times more stable and robust from breakdowns,

* do not have jumps in there tracking system

* Automatically recalibrate their own gyros

* Automatically align their own projectors

* Can display unlimited graphics power.

* Load multi gigabyte-to terabyte models in less than a second

* Can run a wide variety of 3d data types, including Solid scan which allows you to copy the real world.

DinosaurusRex
2016-05-20, 13:21:49
Das hat mit Holografie nicht das geringste zu tun. Der Name ist Bauernfängerei.

Von diesem Unternehmen war aber auch nichts anderes zu erwarten.

-/\-CruNcher-/\-
2016-05-20, 13:26:18
Es gibt wieder was Neues, ein sogenannte Holoverse in Australien: http://www.golem.de/news/holoverse-euclideon-eroeffnet-entertainment-center-mit-hologrammen-1605-121010.html

http://youtu.be/lTz_mHZAOCs

Hier noch die komplette Info (Achtung Textwüste!):


Information On The Technology

Euclideon’s Position
Australia is normally known for kangaroos, mining and exporting food, it’s not often seen as a world leader in technology, but we intend to change all that. Australia isn’t just a country it’s a continent and we think we should start acting that way.

Euclideon is very different to other technology companies. Normally technology companies do a lot of B2B (“business to business”) negations to create a product. One company makes the hardware, they take it to many different companies to make the content, other companies make the graphics tools they use, and then the product goes to different distributors around the world. Euclideon feels there is strength in independence so we design and build the most critical hardware ourselves, we make our own content (we will be opening numerous content development teams) we make our own graphics tools, (all our animation programs, map editor, and even our programming editors are all made ourselves), we also set up our own centres around the world and run them ourselves.

Rebuilding Everything
Humanity spent 30 years developing 3d graphics for computers. Some companies invented 3d algorithms, others made 3d tools, and others built graphics cards. This was done by thousands of people on the planet working together to produce something great. The system they created is known as the polygon system. It makes all 3d graphics out of little flat triangles that it process on the computers graphics card. This system was great for making angular things like buildings and boxes but isn’t so great for rounded objects. The system takes time to make each triangle so if you want more detailed graphics then you need to have bigger computers.

Euclideon looked at this system and decided it was time to wipe it all away and completely start again. Humanity needed a better way of making 3d graphics that didn’t have these limitations. The idea of rebuilding every graphics algorithm, every graphics tool, no longer using the graphics card, and recreating moving objects, animation and lighting, seems like madness of the highest order. It should have taken thousands of people and another 3 decades to do, but our team had a clear plan and so in a matter of only 5 years all of 3d graphics have been replaced with a much better system entirely built here in Australia.

Euclideon’s Technology what are the differences
The pictures on the left is from a polygon based computer game, normally in such games people move quickly so you do not notice how angular the graphics really are.

Graphics
Polygons look like flat pieces of cardboard. The way people solve this is by having a lot more of them, if your sphere is made of 30 polygons it looks like a diamond, if it’s made of 2000 it looks more round. But more polygons mean more processing power.

Euclideon doesn’t make its graphics out of polygons, it makes things out of trillions of little 3d atoms just like the real world, so objects that are round and organic have over a thousand times more detail in Euclideon’s system then they do in the normal polygon system.

Computing power
When Euclideon first announced they had a way of giving computer graphics unlimited power people where very sceptical. Everyone knows that better graphics take more computing power, so these claims could not possibly be true. But Euclideon’s technology is now licenced by some of the world’s biggest geospatial 3d graphics corporations (Leica, Hexagon, Ball Aerospace). The system is very different to the polygon system. Normally in 3d graphics if you put an object on the screen it takes up a certain amount of computing power, so if you put two objects on screen it uses up twice as much. Euclideon shows examples of where they put hundreds, thousands, millions, or billions of objects on screen and the computer does not slow down. This is because Euclideon has created a new 3d search algorithm. One that finds exactly one atom for each pixel on the screen, so weather your environment is one object or billions, it all uses up the same processing time, and give you unlimited amounts of detail on the screen.

Content Creation
Normally when artists make content with a polygon system, they have “polygon budgets”. Each object takes a certain amount of polygons so they have to downscale and simplify their objects to make them all fit in to their game. Euclideon’s technology gives the artists unlimited power to create whatever they want. We have unlimited power map editors were even the grains of dirt on the ground are all complex real geometry.

Object Import
When an object is laser scanned in from the real world it has a lot of geometry and detail. The polygon system removes most of this geometry and detail to make them small enough to handle. Because Euclideon has unlimited power they can run an unlimited number of laser scanned objects, and because they are made of little 3d atoms no detail is lost in translation and they don’t get downscaled. So now making games is more like making movies, traditional art forms like sculpting and making models are now a normal part of computer game construction.

Animation
Originally when we showed the world we could make graphics out of little 3D atoms many professional people (like the creator of “Minecraft”) said that it would be impossible to do animation. Our response was “you have no idea as to how we do what we can do, so how can you possibly think you can tell us what we can’t do”. Now we animate not only robots and solid structures, but also squishy bending things like frogs and snails. In one animation we show a snail coming out of a shell which no one ever expected to see from animation without polygons. Animation is new to us but the standards we have already achieved match what you would find in any Blizzard game. It will be another year before we match games like assassins creed or games from Crytek, but if you look at what we’ve achieved in such a small amount of time, I would consider it unwise to underestimate us.

Graphics Cards
3d computer graphics today are made by the computers 3d graphics cards. Graphics cards make the computer about 200 times stronger for processing 3d graphics. Euclideon’s system doesn’t use the 3d functions of the graphics card at all and yet gives a similar result on a fraction of the processing power.

Production Time
Triple A polygon games are made by large studios of hundreds of people.
Alternatively for the two pieces of content we are opening Holoverse with we used
1 artist for sculpture, 2 animators, and our CEO wrote the script made most of the back grounds and arranged the voice actors and music. Our engine team finished most of the tools to build hologram room content by January 12th, and we finished most of the games and experiences 2.5 months later. When you scan in most of your graphics from the real world, and you have no polygon budgets, production is many many times faster.

The Polygon Use by date
The biggest problem with polygons is they have a used by date. If I look at a polygon object up close on screen the polygons are big, but if the object is far away then the polygons are so small they are less than a pixel in size. When polygons are less than a pixel in size we should not be using polygons we should be using atoms. When round objects are made of polygons they look angular. To compensate for this better graphics cards are made to give more polygons of smaller size. The smaller your polygons are the more life like your graphics will look. So polygons are headed down the road of wanting as many polygons as possible, and wanting them as small as possible. If you think about it, the end of this road is where the polygons are so small that they are 1 pixel atoms on the screen. The conclusion is that after a few more decades of evolution the polygon system will finally reach the place where Euclideon is now.

The Hardware

Euclideon is not the first company to create a hologram room. Different Universities’ and science centres around the world have created many different types of hologram rooms at different points in time, but the holographic hardware that Euclideon has created has some very big advantages.
In addition to the unlimited graphics power already discussed, this section will speak of the advantages of Euclideon’s hardware. It will refer to the hardware that others created as “Normal” hardware, to reflect that the rest of the industry is fairly standardised and unified in the forms of hardware they use.

Normal Tracking
In other tracking systems there are lots of cameras all over the room. The more cameras and resolution you have the better your tracking will be. Each camera returns a picture to a computer and that computer scans each image to look for little balls of light that are put on the player to help track them. The more cameras you have the more computers you need to scan all the pictures that come in.

Euclideon’s Tracking
Euclideon makes some very advanced tracking hardware.

The tracking dome actually scans the room for many points of lights and process the result on our tracking dome itself. Rather than have lots of computers to take input from lots of cameras Euclideon’s tracking domes simply return the numerical position of the tracking balls directly to the computer.

Normal Tracking Calibration
The second issue with tracking is calibration and stability. When you have lots of separate cameras if they move even a small amount (as the do many times during the day) your tracking will be warped, it will give bad results and the 3d won’t look right.

Euclideon’s Tracking Calibration
The approach of lots of cameras pointing into a room is not a good approach at all. We have created a different way to track, instead of numerous single cameras looking in we have 26 cameras on two tracking domes looking out. By fixing these cameras to the wall at a known distance we eliminate all need to constantly recalibrate because the cameras moved.

Normal Hologram room Glasses
In a hologram room the glasses track which way you look, so the computer can process the fake holographic atoms in the room to bend in the right way according to where your standing. Normally there are two different ways to track a person’s rotation in a hologram room. The first is with tracking light balls, (these sometimes get blocked or cross in to each other, so they sometimes cause hologram rooms to jump around a bit), the second way is with magnetic gyros and accelerometers, (these de-calibrate over time so a person has to reset them often).

Euclideon’s Hologram room Glasses
Both of the above rotation tracking systems have major faults, But these faults are not the same. Where one system is weak the other is strong, so Euclideon fused the two systems together and made self-calibrating glasses. Normally the glasses will use the gyro tracking, but whenever the tracking domes see the player looking at the front wall they take a rotation reading from the tracking balls on the glasses and use them to recalibrate the gyros. This way when one system is weak the other is strong and the result is a system that is stable and does not require human calibration.

Normal tracking wand
Normal tracking devices update using blue tooth which broadcasts with a delay of 50milliseconds before the computer receives it.

Euclideon’s tracking wand
Euclideon examined the Bluetooth chips that the rest of the world uses, and we believed that for our purposes we could improve them, so we built an alternative wireless system that runs at about 5 milliseconds (10 times faster than blue tooth). In addition to this the tracking wand also has the dual fused gyro system we use in the glasses, so there is no need to calibrate.

Euclideon’s central belt
To cut down on interference Euclideon does its wireless broadcasting from a single belt rather than having the interference from three different separate devices (wand, belt, glasses). The main advantage of this is that Euclideon can now have up to 40 hologram rooms running in the same location (instead of 13). The belt box has the central computer that looks after all auto calibration, it also has a larger battery for 8 hours or more of battery life, and its tracked for artificial gravity so the computer can know exactly when you are over a hole in the ground or stepped over a ledge. In addition to this the belt process Euclideon’s new multistep system. In this system one step in the real world equals 3 steps in the virtual world. So in applications were this is activated the hologram room feels like it’s 3 times bigger on the inside.

The projectors

Euclideon does not make projectors we have modified projectors built for us with our own firmware changes.

Normal Projector Alignment
Normally whenever a projector moves all the projectors have to be realigned because there will be tearing in the image on the walls where the two projectors images don’t touch. Such alignment must be done when the room gets bumped, or if the room is transported as well as regular alignments due to projectors micro movements over time. This alignment process is done by people manually using positioning software and can take around an hour, depending on how precise you want the room to be and the skill of the person who has been taught the art of alignment.

Euclideon’s Projector Alignment
Euclideon’s hologram room has a built in camera that automatically aligns the projectors for you. The auto alignment scans the room to acquire its shape then it moves the projection zones into position. The auto alignment process takes about 3-5 minutes.

The Computer
By using a computer that has been installed with our own unlimited power algorithms we are able to make a hologram room run with walls of 3840 pixels (width) doubled for stereo (both eyes) all from one computer. Hologram rooms in the past were millions of dollars before Euclideon entered this field because of all the computer processing involved. More importantly hologram rooms of the past were known for their terrible instability. When you have lots of computers hooked together you can be sure that there will be regular breakdowns. A common saying in this field is “a hologram room is like a helicopter, it takes a full time maintenance team to keep it operational”.
By using one computer rather than many we have stability equal to that of an ordinary computer you would use at home.

Reverse Compatibility
Point cloud data is superior to polygon data in many respects, but for the sake of reverse compatibility, some of Euclideon’s hologram products have the ability to run polygons directly in the hologram room. Whilst point cloud data is unlimited (when using Euclideon’s software), polygons are not, so the more polygons you have, the slower your room will run. The hologram room comes with a fairly good graphics card and does reasonably well at running most cad models. The hologram room can run traditional point cloud data formats (.LAS) etc. after they have been converted to our format (conversation times are around 90 seconds per gigabyte)

Loading
Euclideon’s geospatial hologram rooms are equipped with a new streaming technology. Traditionally loading of large geospatial models takes up to 20 minutes per 100 gigabytes. Euclideon’s loading technology can load similar sized models in less than a second. In fact the loading system is so fast you can run a model in real time straight from a USB stick (one of the slowest storage devices around). Though this instant streaming technology seems too good to be true it is now used by Arup, Leica, French railways (SNCF), the Hungarian government and many others.

Data Collection
Euclideon’s also produces a technology called “Solidscan”. Normally a laser scanner makes the environment out of little points that have lots of holes in-between. Solidscan is a new technology that allows a laser scanner to make a solid water tight copy of the real world that is many time higher in resolution that what the laser scanner normally records. So now you can bring real copies of the real world in to your hologram room using a laser scanner.

Conclusion
Euclideon creates hologram rooms that are:

* a lot cheaper,

* many times more stable and robust from breakdowns,

* do not have jumps in there tracking system

* Automatically recalibrate their own gyros

* Automatically align their own projectors

* Can display unlimited graphics power.

* Load multi gigabyte-to terabyte models in less than a second

* Can run a wide variety of 3d data types, including Solid scan which allows you to copy the real world.



Naja wenn man sich die zu erwartende Tracking und Output Latency anschaut das ist noch extreme zu hoch für das was ich mir als echtes Hollogram vorstelle.

CokeMan
2016-09-12, 20:49:17
So, gibt es paar News vom Hersteller.
Das Holodeck wurde eröffnet in Australien.

4uYkbXlgUCw

Interessant ist vor allem das es jetzt Animationen gibt, ob das ganze jetzt realistisch aussieht oder nicht bleibt jedem selber überlassen.
Aber ich kann mir vorstellen das daraus noch einiges werden könnte.

Chris Lux
2016-09-12, 21:00:56
Was ist an einer CAVE neu?

Skysnake
2016-09-12, 21:08:46
Ich bin mal nicht beeindruckt. Das ist ne stink normale CAVE, die die da zeigen. Was ganz nett ist, ist das Sie jetzt gezeigt haben, dass Sie bewegte Objekte wirklich können, aber das wars auch.

Wie lange läuft das jetzt schon? Ah ja richtig. Mehr als 6! Jahre!!!

Kommt schon, außer Spesen nichts gewesen bisher.

RLZ
2016-09-12, 21:16:20
Interessant ist vor allem das es jetzt Animationen gibt
https://i.imgflip.com/1ahavj.jpg

N0Thing
2016-09-13, 01:11:35
Es ist zumindest mehr, als man ihnen bisher zugetraut hat.
Ob deren Technik eine Chance hat, wage ich weiterhin zu bezweifeln und auch ihre Präsentation mit Seitenhieben und überzogenen Vergleichsbildern hilft nicht wirklich, einen seriösen Anstrich zu wahren.

Wo ich Potential sehe, sofern die Aussagen korrekt sind, ist der Einsatz in virtuellen Umgebungen, die auf realen, gescannten Umgebungen basiert, weniger auf neu und eigen kreierten Welten. Da besteht ja auch im Video ein dramatischer Unterschied in der visuellen Qualität. Also eher nix für Spiele, sondern für virtuelle Darstellung real existierender Umgebungen, z.B. Museumsbesuche, oder städtische Erkundungen.

aths
2016-09-13, 09:53:40
Es ist zumindest mehr, als man ihnen bisher zugetraut hat.
Ob deren Technik eine Chance hat, wage ich weiterhin zu bezweifeln und auch ihre Präsentation mit Seitenhieben und überzogenen Vergleichsbildern hilft nicht wirklich, einen seriösen Anstrich zu wahren.

Wo ich Potential sehe, sofern die Aussagen korrekt sind, ist der Einsatz in virtuellen Umgebungen, die auf realen, gescannten Umgebungen basiert, weniger auf neu und eigen kreierten Welten. Da besteht ja auch im Video ein dramatischer Unterschied in der visuellen Qualität. Also eher nix für Spiele, sondern für virtuelle Darstellung real existierender Umgebungen, z.B. Museumsbesuche, oder städtische Erkundungen.
Man beachte allerdings, dass die neue Technologie nix mit der Ursprungsidee zu tun hat. (unlimiteddetailtechnology.com ist sogar offline.)

Rooter
2016-09-18, 13:02:17
Man beachte allerdings, dass die neue Technologie nix mit der Ursprungsidee zu tun hat. (unlimiteddetailtechnology.com ist sogar offline.)
Wieso nix? Sie benutzt doch einen Point-Cloud-Renderer, oder nicht?

MfG
Rooter

aths
2016-09-18, 16:27:54
Wieso nix? Sie benutzt doch einen Point-Cloud-Renderer, oder nicht?
Anfangs wurde unbegrenzter Detailgrad versprochen, während die jetzt präsentierten gescannten Objekte natürlich nur das zeigen was beim Scanvorgang erfasst wurde.

Foobar2001
2016-09-18, 19:19:11
Naja, das "unlimited" haben sie damals halt durch Instancing und Rekursion erreicht. Das sollte schon immer noch gehen.

Q14: What is the file size difference between a model using Unlimited Detail and a polygon model?

A: UD models are about 20% smaller, but memory size is virtually irrelevant for us. We work as though we have unlimited RAM. This is because UD models stream in more detail from the hard drive when needed, vs polygon models that must have their full texture map sheets loaded entirely in to RAM to use them.
Pure Luege uebrigens. Jede moderne Engine hat sowohl Mesh- als auch Texture-Streaming auf die eine oder andere Weise.

CokeMan
2018-08-18, 20:01:03
Hallo,

hier mal wieder etwas neues.
Anscheinend hat sich EuclideonOfficial auf Hologram Darstellungen konzentriert.

x7A8u5ZY7Ow

Leider gibts wieder keinerlei Infos oder irgendwelche Berichte dazu.
Hat jemand irgendwelche Infos dazu?

Screemer
2018-08-22, 22:35:23
Das sieht aber schon cool aus.

Skysnake
2018-08-23, 14:12:46
Na ob da jetzt noch was kommen wird?

aths
2018-09-03, 11:49:30
Ich lach mich immer noch kaputt über dieses (nicht gerade aktuelle) Video: https://www.youtube.com/watch?v=4uYkbXlgUCw

"Real Holodeck"? Zum Anfassen? Natürlich nicht.

Im Video spricht der Typ ausführlich davon dass ihnen nicht geglaubt wurde. Er tut so als sei die gesamte Videogaming-Branche auf dem Holzweg, während ein pfiffiges Team in Australien den wahren Durchbruch bringt ... jahrelang wurden nur Demos gezeigt, statische Grafik, ohne Interaktion, hier im Video gibt es holprige Animation. Ohne dass die Grafik an sich besonders gut aussieht. Ständig redet er von den Vorteilen, nur zeigt er sie nicht – dafür gibt es mehrfach diesen Zoom in einen (allerdings nicht gerade realistischen) Baum, eine Sequenz die Jahre alt ist.

Wenn Marketing die Produktdarstellung diktiert ...

Fragman
2018-09-03, 12:28:16
er redet ne menge und waehrend dessen warte ich drauf, das er endlich mal etwas zeigt, das optisch mit der "polygongrafik" mithalten kann. aber da kommt nix. sieht aus wie damals, nur mit ruckligen animationen. aber lighting und shading ist immenoch kaum bis garnicht vorhanden.

vollends laecherlich wuerde es werden, wenn man mal das letzte battlefield video mit rt gegen das aktuelle von denen stellt. ;D

CokeMan
2018-09-03, 12:30:38
Hallo,

das Holodeck von denen gibt es doch schon in Australien. Ist wohl in einem Einkaufszentrum oder so.
Kann jederzeit besucht werden, hier die Adresse und Infos dazu.

https://www.holoverse.com.au/

ApSbDz7zspw

Erfahrungsberichte
https://www.golem.de/news/holoverse-euclideon-eroeffnet-entertainment-center-mit-hologrammen-1605-121010.html
https://www.tripadvisor.de/Attraction_Review-g495002-d10389488-Reviews-Holoverse-Southport_Gold_Coast_Queensland.html

Wiki: https://en.wikipedia.org/wiki/Holoverse
The technology differs from standard Virtual Reality. With standard Virtual Reality, people wear screens over their eyes, the headsets through which they are unable to see their own torso, arms or legs. Whereas in a VR CAVE, instead of going into the computer game, the person wears clear glasses and can see their own body, the computer-generated objects appearing to be in the real world with them.


So habe hier noch ein Video gefunden was die Technik etwas beschreibt. So wie es aussieht sind es wohl mehr oder weniger 5 Beamer die einen Raum ausleuchten.
6s7_VnYqSoY

Nochwas von 2011 https://www.youtube.com/watch?v=JVB1ayT6Fdc

RLZ
2018-09-03, 12:49:49
The technology differs from standard Virtual Reality. With standard Virtual Reality, people wear screens over their eyes, the headsets through which they are unable to see their own torso, arms or legs. Whereas in a VR CAVE, instead of going into the computer game, the person wears clear glasses and can see their own body, the computer-generated objects appearing to be in the real world with them.
Verkaufen die jetzt eine primitive Cave als ihre Erfindung? :freak:

CokeMan
2018-09-03, 13:08:19
So, habe mal etwas recherchiert... google benutzt.

Was Technologisch aktuell wohl am weitesten an Hologramme dran kommt ist Kio-Mo https://kino-mo.com/
Natürlich ist es kein Hologramm welches im Raum steht, sondern eher ein rotierendes Display.
Aber wenigstens wird hier nichts verschwiegen und die Technologie dahinter erklärt.

https://www.youtube.com/user/OldBondLondonLtd/videos

Aufs echte Holodeck müssen wir wohl noch warten.

Milchkanne
2022-08-19, 11:05:13
Erinnert sich noch wer?

Inzwischen haben die Demos (https://udcloud.euclideon.com/#page=3d-view), die man sich im Browser angucken kann. Läuft bei mir sehr durchwachsen. Ich vermute, dass vor allem der Server zu langsam ist. Ist jetzt nicht 100% vergleichbar, aber Google Earth beeindruckt mich mehr.

Die haben auch einen Desktop clienten, aber der benötigt einen Login...


Dagegen wer erinnert sich auch an die Atomontage Engine? Die hat inzwischen auch interaktive Demos im Browser auf der Webseite.

https://client.atomontage.app/experience/mouse-heart
https://client.atomontage.app/experience/teravoxel-landscape
https://client.atomontage.app/experience/visible-human-project

Die vierte klappt bei mir nicht:
https://client.atomontage.app/experience/atomontage-combat

Das läuft bei mir viel besser. Ob das jetzt als Engine für Spiele taugt ist eine andere Frage. Aber als Engine für Google Earth oder so, wäre das schon tauglich. Ist halt die Frage, wie Bandbreitenintensiv das im Vergleich ist.

Beide haben sowieso wohl den Fokus eher auf Professionelle Anwender gelegt, wobei Atomontage auch noch Games im Auge hat. Auch Animationen zeigen die noch in Videos. In den Demos habe ich keine gefunden.

Interessiert sich noch wer dafür?

*edit* Übrigens ist bei Atomontage auch der Entwickler von Cortex Command (https://youtu.be/aBwUW-uFkKw?t=27) dabei.