PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : PCP: John Carmack on id Tech 6, Ray Tracing, Consoles, Physics and more


deekey777
2008-03-16, 12:40:38
http://www.pcper.com/article.php?aid=532&type=expert&pid=1
Das Interview tauchte hier und da auf, aber es verdient seinen eigenen Thread.

_DrillSarge]I[
2008-03-16, 12:42:32
zwar schon öfter hier gesehen, aber egal ;)

-> er scheint ja nicht gerade beigeister von physX und co zu sein :biggrin:

interessant find ich die aussagen zu ray tracing vs. rastergrafik.

HellHorse
2008-03-16, 17:16:42
If you look back over 40 years of research and what people have done on trying to use multiple processors to solve problems, the fact that we can do so much so easily with the vertex fragment model, it’s a real testament to its value. A lot of people just think “oh of course I want more flexibility I’d love to have multiple CPUs doing all these different things” and there’s a lot of people that don’t really appreciate what the suffering is going to be like as we move through that; and that’s certainly going on right now as software tries to move things over, and it’s not “oh just thread your application”. Anyone that says that is basically an idiot, not appreciating the problems. There are depths of subtly to all of this where it’s been an ivory tower research project since the very beginning and it’s by no means solved.
Damit wäre das auch geklärt.

deekey777
2008-08-27, 12:51:43
Einblick in id Tech6:
http://raytracey.blogspot.com/
http://ompf.org/forum/viewtopic.php?f=3&t=904
http://s08.idav.ucdavis.edu/olick-current-and-next-generation-parallelism-in-games.pdf

deekey777
2009-01-31, 20:26:30
In der aktuellen c't ist ein Artikel über Voxel-Rendering zu lesen, in dem auch auf id tech6 eingegangen wird (insbesondere auf das Octree-Format).

roidal
2009-02-04, 14:21:10
In dem Artikel steht ja auch das es einscheinend einer Firma gelungen ist eine Voxel-engine zu programmieren welche ganz ohne HW-beschleunigung auf einer single-core-CPU eine spielbare Framerate bei einer Auflösung von 1024x768 ermöglichen soll.

Raff
2009-02-04, 14:47:37
Das ist bisschen schwammig formuliert. "Spielbar" war 1999 schon das optisch grandiose Outcast – mit einem 500-MHz-Singlecore. Je mehr Voxel, desto weniger Fps.

MfG,
Raff

Gast
2009-02-04, 14:51:37
In dem Artikel steht ja auch das es einscheinend einer Firma gelungen ist eine Voxel-engine zu programmieren welche ganz ohne HW-beschleunigung auf einer single-core-CPU eine spielbare Framerate bei einer Auflösung von 1024x768 ermöglichen soll.

das ist schon vor ca. 10 jahren gelungen.

Arcanoxer
2009-02-04, 14:54:47
Das ist bisschen schwammig formuliert. "Spielbar" war 1999 schon das optisch grandiose Outcast – mit einem 500-MHz-Singlecore. Je mehr Voxel, desto weniger Fps.

MfG,
Raff

Comanche war sogar schon 1992 Spielbar.
Auch wenn es keine 100% Voxel Engine war.

Der erste Teil (engl. Originaltitel: Comanche: Maximum Overkill) erschien Ende des Jahres 1992 für MS-DOS. Die Simulation setzte als erste ihrer Art die damals revolutionäre Voxel-Technik ein, welche eine realistische Darstellung von Landschaften zu allen Tageszeiten ermöglichte. Im Gegensatz zur dreidimensionalen Umgebung waren Objekte allerdings noch als Bitmaps dargestellt.

http://de.wikipedia.org/wiki/Comanche_(Computerspiel)

derguru
2009-02-04, 15:12:14
Comanche war sogar schon 1992 Spielbar.
Auch wenn es keine 100% Voxel Engine war.
http://de.wikipedia.org/wiki/Comanche_(Computerspiel)

die erste beiden teile von delta force auch,nova logic nutze sehr lange die voxel engine.
eigentlich kenne ich nur die outcast und novalogic die die voxelengine nutzten,gabs sonst noch bekannte spiele mit der engine?

Arcanoxer
2009-02-04, 15:25:23
die erste beiden teile von delta force auch,nova logic nutze sehr lange die voxel engine.
eigentlich kenne ich nur die outcast und novalogic die die voxelengine nutzten,gabs sonst noch bekannte spiele mit der engine?
Der release von Delta Force (1998) war doch lange nach Comanche.
http://de.wikipedia.org/wiki/Delta_Force_(Computerspiel)

Coda
2009-02-04, 19:02:56
Das Comanche-Voxel-Zeug hat rein gar nichts mit dieser Technik zu tun.

Arcanoxer
2009-02-04, 19:28:56
Das Comanche-Voxel-Zeug hat rein gar nichts mit dieser Technik zu tun.
Natürlich hat es nicht wirklich viele Gemeinsamkeiten.
Jedoch Voxel ist Voxel.

Coda
2009-02-04, 19:46:50
Natürlich hat es nicht wirklich viele Gemeinsamkeiten.
Gar keine.

Jedoch Voxel ist Voxel.
Nein.

Arcanoxer
2009-02-04, 20:13:26
Ich höre. :rolleyes:

Michbert
2009-02-05, 02:45:04
Na ja, mit Voxel ist nun ja auch nicht mehr angedeutet, als dass die Information über die 3D Objekte in Form der Ausdehnung des Objekts vorliegen, im Gegensatz zu der gängigen Form: den Koordinaten der Eckpunkte der Dreiecke, welche die Oberfläche eines Objekts bilden.
Zwischen einer 2D Heightmap in der nur die Vertikale Ausdehnung an jeder Stelle angegeben ist und daher nur zur Darstellung von Terrain verwendet werden kann und der Aufteilung des Raums in eine komplexe Baumstruktur besteht sicher ein großer Unterschied, doch ist die Idee ja nicht völlig unähnlich.
Abgesehen davon gabs ja auch schon andere Implementierungen der Idee mit "Voxel" zu arbeiten (z.B. Blade Runner), dabei würde mich interessieren wie das da genau realisiert wurde...

Wobei man wenn man bei Voxel strikt von Würfeln ausgeht, passt das natürlich im ersten Fall nicht mehr so wirklich.

san.salvador
2009-02-05, 02:47:32
Im Gegensatz zu Caramcks Voxel-Idee wurden die Voxel zur Outcast-Zeit nur in 2D gespeichert, womit zB. Überhänge schlicht unmöglich waren. Codas "Nein." dürfte auch das beinhalten. :)

Coda
2009-02-05, 02:51:18
Die "traditonellen" "Voxel-Engines" sind Rasterisierer, das was id jetzt macht ist Raycasting. Zudem ist es eine völlig andere Datenstruktur und es waren früher viel eher vertikale Splats als Voxel was da gerendert wurde.

Das ganze ist ungefähr als würde man einen Düsenjet mit einem Heißluftballon vergleichen, weil ja beide irgendwie fliegen.

Gast
2009-02-05, 04:04:07
Ohne Heisluftballone würde kein Düsenjet fliegen. Mag ja Wortklauberei sein, nur erklärt dein Beispiel mal rein garnichts. ;)

Gruß

Coda
2009-02-05, 04:22:23
Das Beispiel illustriert doch sehr gut, dass es technisch fast nichts miteinander zu tun hat.

Die Ansicht taugt einfach nichts. Jetzt werden bestimmt schon bald wieder Reden geschwungen wie "zukunftsweisend" das alles damals doch alles war, obwohl es nichtmal im Ansatz als Grundlage dafür taugt für das was hier gemacht wird.

moloch
2009-02-05, 07:10:35
Warum streiten wenn es wiki gibt? http://en.wikipedia.org/wiki/Voxel

Gaestle
2009-02-05, 12:27:55
Die Frage, die sich mir stellt ist, ob Carmack damit einen Trend aufzeigt, in dessen Richtung sich die ganze Industrie bewegt, oder ob er ein Exot bleibt.
Wenn ich an ID Tech4 (Doom3) denke, dann hat er mit der ganzen Schattenspielerei einen Trend aufgezeigt, in dessen Richtung sich auch die ganze Industrie bewegte, allerdings ist er wohl mit der technischen Umsetzung (Stencil-Shadows) tendenziell eher Exot geblieben.
Andererseits hat der doch für damalige Verhältnisse recht starke Shader-Einsatz doch die Entwicklung in der ganzen Industrie wiederspiegelt.

Ich will nicht diskutierenn, ob Carmack ein TrendSETTER ist oder nicht, ich will nur wissen, wie nah er am Puls/ der Bewegung der gesamten Industrie ist.

Gast
2009-02-05, 13:00:16
Wenn ich an ID Tech4 (Doom3) denke, dann hat er mit der ganzen Schattenspielerei einen Trend aufgezeigt, in dessen Richtung sich auch die ganze Industrie bewegte, allerdings ist er wohl mit der technischen Umsetzung (Stencil-Shadows) tendenziell eher Exot geblieben.


hat er das wirklich? imo ist die doom3-engine eigentlich ein ziemlicher exot geblieben, und dass man neben licht auch schatten berechnet, dafür hat es wirklich keinen carmack gebraucht.

auch technisch war die doom3-engine eigentlich schon beim erscheinen überholt.

Gaestle
2009-02-05, 13:22:52
Ich habe ja auch nicht geschrieben, dass es ihm alle NACHGEMACHT haben, aber zeitgleich / kurz nach Doom kamen auch viele andere Spiele mit Schattenspielereien an, von daher ist er in diesem Punkt am Puls der Industrie gewesen, auch wenn die technische Umsetzung etwas anders war.

iDiot
2009-02-05, 13:23:44
Zu Quake 3 zeiten hatte Carmack usw das Sagen, inzwischen sind andere imho vorbeigezogen (Crytek allen voran). Ob er wieder einen neuen "Standard" setzen wird, ist fraglich.

Gaestle
2009-02-05, 13:28:49
Grrrr.
Es geht mir überhaupt nicht darum, ob Carmack der Chef / der Tollste / die Leitfigur oder eben nicht ist. Das ist mir komplett Stulle.

Ich frage lediglich, wie weit er von GENERELLEN Entwicklungen in der Industrie entfernt ist bzw. wie nah dran er da ist, und ob wir ähnliche Entwicklungen (id-tech6-Voxel / Raycasting) auch von anderen Entwicklern sehen oder ob Carmack mit dieser Technik einen hochgradig individuellen Weg beschreitet.

Ich sage, dass er mit id-tech4 nahe an der generellen Entwicklung der Industrie dran war und somit KEINEN individuellen Weg beschritten hat. Meine Frage ist: Wie ist das heute?

Wenn man es noch genereller formulieren will: Carmack setzt auf Raycasting, was für mich als Laien nach einer Hinentwicklung in Richtung Raytracing klingt (ist sage nicht, dass Raycasting und Raytracing identisch sind!). Ist das ein Indiz dafür, dass sich die ganze Industrie in diese Richtung bewegt, oder steht Carmack alleine da?

iDiot
2009-02-05, 13:32:29
Sry, war gar nicht als direkte Antwort auf deine Frage gemeint. Ich wollte damit nur ausdrücken das Carmack (ink. id tech) inzwischen, so kommt mir vor, überbewertet ist was die breite Plattform der Spiele angeht.

deekey777
2009-02-05, 13:37:45
Zumindest für Spiele ist er der Erste, der Early-Z macht, was aktuelle Engines auch machen sollen.
Der Hauptvorteil id tech 4 ist die Vereinfachung des Lebens für Artists: Sie können mal einfach so eine Lichtquelle setzen und sehen sofort, was diese Lichtquelle so alles verursacht (Schattenwurf etc).

Auch Megatexture sowie die Tools dazu sind vielleicht nicht das Superduperblendwerk der Technologie, aber sie erleichtern das Leben beim Erstellen der Levels. Hier mal ein Artikel: http://www.krawall.de/web/Rage/news/id,29544/s,,

Gast
2009-02-05, 13:40:09
Ich frage lediglich, wie weit er von GENERELLEN Entwicklungen in der Industrie entfernt ist bzw. wie nah dran er da ist, und ob wir ähnliche Entwicklungen (id-tech6-Voxel / Raycasting) auch von anderen Entwicklern sehen oder ob Carmack mit dieser Technik einen hochgradig individuellen Weg beschreitet.

ich würd mal sagen, schon doom3 war sehr stark individuell. man hat zwar in der starbreeze- und monolith-engine nachahmer gefunden, aber das war es eigentlich schon.

und wir reden hier von technik, und nicht dem ergebnis davon.

Coda
2009-02-05, 15:17:53
Die Frage, die sich mir stellt ist, ob Carmack damit einen Trend aufzeigt, in dessen Richtung sich die ganze Industrie bewegt, oder ob er ein Exot bleibt.
Zumindest Crytek hat sich soweit ich weiß auch schon in einem Interview so geäußert, dass es aber einem bestimmten Detaillevel sich nicht mehr rentiert an Polygonen festzuhalten.

Problem an der Voxelsache ist wieder die dynamische Geometrie.

Gaestle
2009-02-05, 15:48:28
Das heist, eine wesentliche Weiterentwicklung von Engines stellt die Fähigkeit dar, sich verändernde Geometrie zu verarbeiten / zu verwenden? Bedeutet Dein Statement, dass id-tech6 das nicht kann, aber andere kommende Engines beherrschen dies?

Welchen Stellenwert hat das Problem der Verarbeitung von dynamischer Geometrie in der Industrie allgemein?

Coda
2009-02-05, 15:52:57
Es ist allgemein ein sehr großes Problem die Beschleunigungsstruktur bei Raycasting/Raytracing dynamisch zu verändern. Ansätze gibt es dafür, aber die sind doch relativ komplex zu handhaben.

Soweit ich weiß soll id Tech 6 die Umgebung relativ statisch mit Raycasting rendern (vorberechnete Dinge mal außen vor) und den Rest immer noch mit Polygongeometrie.

Gaestle
2009-02-05, 16:03:39
Aber Carmack hat sich von reinen Rasterizing ein bißchen in Richtung Raytracing bewegt? Wie groß war der Schritt? Ist es die halbe Wegstrecke, ein Viertel, ein Drittel? (spekulativ, persönliche meinung)

Wann rechnest Du (spekulativ, persönliche meinung) mit der Implementation von dynamischer Geometrie in Engines mit brauchbarer Handhabung?

Welche andere große Baustellen werden momentan von den Entwicklern angegangen?

Coda
2009-02-05, 16:10:52
Aber Carmack hat sich von reinen Rasterizing ein bißchen in Richtung Raytracing bewegt? Wie groß war der Schritt? Ist es die halbe Wegstrecke, ein Viertel, ein Drittel? (spekulativ, persönliche meinung)
Für die Szenengeometrie ist das reines Raycasting. Die Sache ist nur, dass es keine Polygone mehr sind.

Raytracing ist auch weiterhin nicht der heilige Gral des Renderings, sondern nur eine Option.

Wann rechnest Du (spekulativ, persönliche meinung) mit der Implementation von dynamischer Geometrie in Engines mit brauchbarer Handhabung?
Das traue ich mich nicht zu berurteilen. Ich habe keine genaue Übersicht darüber was da genau geforscht wird, vor allem in Bezug auf die Voxel Octrees.

Welche andere große Baustellen werden momentan von den Entwicklern angegangen?
Das Licht und Materialeigenschaften werden weiterhin wichtig bleiben.

Gast
2009-02-05, 16:35:20
Raytracing ist auch weiterhin nicht der heilige Gral des Renderings, sondern nur eine Option.
Welcher ist es dann, deiner Meinung nach? Was ist denn dem Raytracing überlegen?

Gast
2009-02-05, 16:39:07
Ich frage lediglich, wie weit er von GENERELLEN Entwicklungen in der Industrie entfernt ist bzw. wie nah dran er da ist, und ob wir ähnliche Entwicklungen (id-tech6-Voxel / Raycasting) auch von anderen Entwicklern sehen oder ob Carmack mit dieser Technik einen hochgradig individuellen Weg beschreitet.

Ich sage, dass er mit id-tech4 nahe an der generellen Entwicklung der Industrie dran war und somit KEINEN individuellen Weg beschritten hat. Meine Frage ist: Wie ist das heute?
Ich denke schon, dass er relativ nah am Puls der Zeit ist. id Software diskutiert seine Konzepte sehr offen (was denke ich auch mit der Grund ist wieso Konkurrenten mit ähnlichen oder gar optimierten Engines so zeitnah am Markt sind).

Korrigiert mich wenn ich falsch liege: Das besondere an idtech4 war ja, dass alles einheitlich gerendet wird, inkl. Beleuchtung/Schatten. Andere Engines haben das auch aufgegriffen, siehe Source in Episode 2 (scheint tatsächlich auch dynamische Schatten zu haben, witzigerweise auch mit den oft kritisierten harten Kanten).

Coda
2009-02-05, 16:41:09
Welcher ist es dann, deiner Meinung nach? Was ist denn dem Raytracing überlegen?
Es gibt keinen. Mit Raytracing kann man viele Sachen einfach machen, es ist aber sehr schwer schnell zu bekommen. Rasterisierung ist schnell, aber viele Dinge sind schwierig zu machen.

Man muss sich immer alles offen halten.

Korrigiert mich wenn ich falsch liege: Das besondere an idtech4 war ja, dass alles einheitlich gerendet wird, inkl. Beleuchtung/Schatten.
Du meinst id tech 3, oder?

Andere Engines haben das auch aufgegriffen, siehe Source in Episode 2 (scheint tatsächlich auch dynamische Schatten zu haben, witzigerweise auch mit den oft kritisierten harten Kanten).
Source rendert nicht einheitlich, auch nicht in Episode 2. Die Schatten haben auch keine harten Kanten.

Gaestle
2009-02-05, 16:41:43
@Coda:
Danke für die Antworten.

Wo könnte ich mehr erfahren, möglichst in einer Form, die ich auch als Laie verstehe?

Coda
2009-02-05, 17:00:37
Für solche Dinge die noch extrem in Entwicklung sind gibt's wohl nichts was für Laien verständlich wäre.

Gaestle
2009-02-05, 17:03:56
Schade.

Aber trotzdem danke.

deekey777
2009-02-05, 17:09:05
@Coda:
Danke für die Antworten.

Wo könnte ich mehr erfahren, möglichst in einer Form, die ich auch als Laie verstehe?
3,30 für die aktuelle c't ausgeben?
Die Basis für den Artikel bilden das Interview von PCPer sowie die Präsentation, was den aktuellen Stand sowie die Zukunft angeht.

Coda
2009-02-05, 17:11:54
Ich kenne den Artikel nicht, aber ich hatte zuletzt ja schlechte Erfahrungen mit der CT gemacht was 3D-Technik angeht.

deekey777
2009-02-05, 17:19:36
Ich kenne den Artikel nicht, aber ich hatte zuletzt ja schlechte Erfahrungen mit der CT gemacht was 3D-Technik angeht.
Zweischneidiges Schwert. Definitiv. Hängt aber von dem Autor ab bzw. davon, was dieser Artikel überhaupt sein soll (zB in Grafikkartenvergleichen ist es nunmal egal, ob die Aussagen stimmen oder nicht, was die 3D-Technik angeht).

Gast
2009-02-06, 04:07:37
Nachdem was John mit der Doom3 Engine abgeliefert hat,muß endlich mal was halbwegs gutes kommen.

BlackBirdSR
2009-02-06, 07:24:39
Nachdem was John mit der Doom3 Engine abgeliefert hat,muß endlich mal was halbwegs gutes kommen.

Gibt es so ein Gesetz, dass eine Person namens Carmack immer die beste Engine, mit den besten Features und den meisten Lizenzspielen erfinden muss?
Muss er das per Gesetz alleine tun, oder darf er auch 20 Leute dazu nehmen, wie es anderer Orts abläuft.

Da sitzen hunderte Menschen jeden Tag an der Aufgabe, neueste Engines für all die Features zu entwerfen, die man geboten bekommt. Wie soll da ein Mensch über all dem stehen? Uber-Carmack oder was?

Ich schätze ihn, weil er Ahnung hat, daraus auch etwas greifbares macht und generell viele Einblicke bietet. Aber er ist eben nicht Herr der Engines, das hat die Presse und der Spieler sich ausgedacht.

Egal wie gut und beliebt die Doom3-Engine nun war, sie hat uns Abwechslung gebracht und etwas neues. Dafür steht Carmack meiner Meinung nach und nicht für die Welt beste Engine.

san.salvador
2009-02-06, 14:01:33
Ein Beinbruch ist auch eine Abwechslung, aber will das schon? ;)

betasilie
2009-02-06, 15:03:09
Gibt es so ein Gesetz, dass eine Person namens Carmack immer die beste Engine, mit den besten Features und den meisten Lizenzspielen erfinden muss?
Muss er das per Gesetz alleine tun, oder darf er auch 20 Leute dazu nehmen, wie es anderer Orts abläuft.

Da sitzen hunderte Menschen jeden Tag an der Aufgabe, neueste Engines für all die Features zu entwerfen, die man geboten bekommt. Wie soll da ein Mensch über all dem stehen? Uber-Carmack oder was?

Ich schätze ihn, weil er Ahnung hat, daraus auch etwas greifbares macht und generell viele Einblicke bietet. Aber er ist eben nicht Herr der Engines, das hat die Presse und der Spieler sich ausgedacht.

Egal wie gut und beliebt die Doom3-Engine nun war, sie hat uns Abwechslung gebracht und etwas neues. Dafür steht Carmack meiner Meinung nach und nicht für die Welt beste Engine.
Nunja, es gibt eben ein paar Genies und JC hatte halt lange den Ruf den besten und effizientesten Engine-Code zu schreiben, was aber eben in einer Zeit war, als wirklich fast einer alleine so eine Gerüst bauen konnte. Nur hat sich das geändert, wobei ich auf die neue id Tech doch recht gespannt bin.

Von daher würde nicht sagen, dass sich das Spieler oder Presse ausgedacht haben, ebenso wenig wie den Ruf, den Naughty Dog bei den Konsolen inne hatte, aber manche Sachen liegen halt eben in der Vergangenheit.

Gast
2009-02-06, 16:01:28
Finde auch das John C. bis zur tech3 engine geniales geliefert hat, man bedenke wie lange die Q3 engine benutzt wurde. Sie war richtig performant und sah auch noch schick aus.

Ich denke mal, oder ich hoffe, das tech4 ein ausrutscher war oder er zumindest dachte, dass das die zukunft sei. Ok natürlich dachte er es aber nobody is perfect.

Jedoch sehen die Bilder von tech5 wirklich gut aus und wenn es den designern stark bei der entwicklung helfen sollte wird diese engine wohl sehr erfolgreich werden und es sollten auch bessere Spiele damit machbar sein.

Wenn die Entwickler sich mehr auf andere Dinge konzentrieren können.

Coda
2009-02-06, 16:40:59
Ich denke mal, oder ich hoffe, das tech4 ein ausrutscher war oder er zumindest dachte, dass das die zukunft sei.
Ist es ja auch. Nur eben statt Stencil heute Shadowmaps. Sonst waren seine Überlegungen schon nicht so falsch. Statische Beleuchtung ist am Aussterben.

Quaker
2009-02-06, 16:55:13
Also in Sachen Performance/Effiizienz/Feeling sind die ID Soft Engines den anderen immer noch um Welten voraus.
Einzig Painkiller (Engine?) konnte da einigermassen mithalten.

deekey777
2009-02-06, 17:13:29
Als Doom 3 erschien, hieß es zu oft, das Spiel sei ein Blendwerk, das die Fähigkeiten der Engine zeigen soll, aber spielerisch langweilig war. Jetzt (nachdem acht Jahre seit den ersten beweglichen Bildern als Teil der Präsentation der GF3 auf der Mac-Expo in Tokyo vergangen sind), soll id tech 4 ein Ausrutscher sein? Das ist unfair. Als Prey kam (Quake 4 war definitiv ein Ausrutscher), haben die Entwickler gezeigt, was sie mit der Doom-3-Engine so alles können: Parallax-Mapping (zB beim Großvater), schönes Postprocessing (Colorcorrection, Bloom, Blur usw). Das Spiel hatte alles, was zu dem Zeitpunkt "in" war. ETQW trumpfte zusätzlich mit MegaTexture auf.
Was Carmack oder id Software bei Doom 3 angelastet werden kann, ist, dass sie zu pessimistisch waren, was die Fähigkeit der CPUs/GPUs des Jahres 2003 (als D3 herauskam, entsprach meine HW eher dem Jahr 2003 als 2004). Hätten sie genauso wie Crytek bei Far Cry auf die Kacke gehauen, so hätte D3 wohl besser ausgesehen (mehr Geometrie und bessere Texturen).

Das weitere Problem ist, dass mit dem neuen Jahrtausend neue und vor allem junge Spielschmieden kamen, die ihre Fähigkeiten eindrucksvoll zeigen konnten (Chrome, Far Cry, Painkiller usw). Das war eher der Grund, warum id tech 4 nicht so "hammerhart" war.

Malsehen, was sie mit Rage und insbesondere Doom 4 bringen.

G.A.S.T.
2009-02-06, 17:14:27
Nachdem was John mit der Doom3 Engine abgeliefert hat,muß endlich mal was halbwegs gutes kommen.
Oh, ich dachte immer, die Engine sei das einzig Gute an Doom3. :|

Sonst wäre Doom3 ja einfach nur schlecht. ;)

Quaker
2009-02-06, 17:18:09
Als Doom 3 erschien, hieß es zu oft, das Spiel sei ein Blendwerk, das die Fähigkeiten der Engine zeigen soll, aber spielerisch langweilig war. Jetzt (nachdem acht Jahre seit den ersten beweglichen Bildern als Teil der Präsentation der GF3 auf der Mac-Expo in Tokyo vergangen sind), soll id tech 4 ein Ausrutscher sein? Das ist unfair. Als Prey kam (Quake 4 war definitiv ein Ausrutscher), haben die Entwickler gezeigt, was sie mit der Doom-3-Engine so alles können: Parallax-Mapping (zB beim Großvater), schönes Postprocessing (Colorcorrection, Bloom, Blur usw). Das Spiel hatte alles, was zu dem Zeitpunkt "in" war. ETQW trumpfte zusätzlich mit MegaTexture auf.
Was Carmack oder id Software bei Doom 3 angelastet werden kann, ist, dass sie zu pessimistisch waren, was die Fähigkeit der CPUs/GPUs des Jahres 2003 (als D3 herauskam, entsprach meine HW eher dem Jahr 2003 als 2004). Hätten sie genauso wie Crytek bei Far Cry auf die Kacke gehauen, so hätte D3 wohl besser ausgesehen (mehr Geometrie und bessere Texturen).

Das weitere Problem ist, dass mit dem neuen Jahrtausend neue und vor allem junge Spielschmieden kamen, die ihre Fähigkeiten eindrucksvoll zeigen konnten (Chrome, Far Cry, Painkiller usw). Das war eher der Grund, warum id tech 4 nicht so "hammerhart" war.

Malsehen, was sie mit Rage und insbesondere Doom 4 bringen.
Hä? Quake 4 ein Ausrutscher? Gilt auch Heute noch als eines der Besten SP Games! So Positiv überrascht war ich schon lange nicht mehr - klar Prey war zudem noch innovativ und daher für viele noch ein Quäntchen besser.
Wie immer auch Geschmackssache, aber ein Ausrutscher war Quake 4 definitv nicht - eher das Gegenteil.

Coda
2009-02-06, 17:18:54
http://www.metacritic.com/games/platforms/pc/quake4?q=Quake%204

Naja. 81% und 75% Userwertung ist nicht gerade so überragend. Mag ja deine Meinung sein, aber nicht die der Allgemeinheit.

Und ja, ich habe es durchgespielt.

Gast
2009-02-06, 17:20:24
ETQW trumpfte zusätzlich mit MegaTexture auf.
ETQW hatte das Problem, dass dei Doom3-Engine absolut nicht auf Außenareale zugeschnitten war.

Coda
2009-02-06, 17:21:18
Eigentlich stören da vor allem die Stencil Shadows. Die Terrain-Engine ist ja komplett neu und schon sehr gut für Außenareale geeignet.

Ich finde ETQW sieht eigentlich gar nicht so übel aus.

deekey777
2009-02-06, 17:21:54
Hä? Quake 4 ein Ausrutscher? Gilt auch Heute noch als eines der Besten SP Games! So Positiv überrascht war ich schon lange nicht mehr - klar Prey war zudem noch innovativ und daher für viele noch ein Quäntchen besser.
Wie immer auch Geschmackssache, aber ein Ausrutscher war Quake 4 definitv nicht - eher das Gegenteil.
Natürlich war Q4 ein Ausrutscher: abgespecktes Beleuchtungssystem, miserable Texturen, eine Skybox zum Kotzen. Schönes Bumpmapping wie in Prey? Fehlanzeige.
ETQW hatte das Problem, dass dei Doom3-Engine absolut nicht auf Außenareale zugeschnitten war.
Ach darum finden sich die Anfänge von MegaTexture schon in Doom 3?

Coda
2009-02-06, 17:23:29
abgespecktes Beleuchtungssystem
Was war da abgespeckt? Es wurde halt viel Ambient eingesetzt.

miserable Texturen
Die waren in Doom 3 noch viel viel mieser ;)

eine Skybox zum Kotzen. Schönes Bumpmapping wie in Prey? Fehlanzeige.
Ja.

Aquaschaf
2009-02-06, 17:31:10
Ich denke mal, oder ich hoffe, das tech4 ein ausrutscher war oder er zumindest dachte, dass das die zukunft sei. Ok natürlich dachte er es aber nobody is perfect.

Wenn man konsistente und dynamische Beleuchtung wollte, dann gab es zum damaligen Zeitpunkt keine andere Wahl als stencil shadows.

deekey777
2009-02-06, 17:32:04
Was war da abgespeckt?


...

Entweder bist du so 1337, dass du die Taschenlampe nicht benutzt hast, oder hast vergessen, dass diese nicht mehr mit der Umgebung interagiert (und nicht nur deine, sondern von allen). :biggrin:

Coda
2009-02-06, 17:36:24
Was meinst du mit "inteagiert"? Wurde der Stencil-Schatten weggelassen?

Gast
2009-02-06, 20:29:06
Entweder bist du so 1337, dass du die Taschenlampe nicht benutzt hast, oder hast vergessen, dass diese nicht mehr mit der Umgebung interagiert (und nicht nur deine, sondern von allen). :biggrin:
Vielleicht solltest Du die Grafik mal auf "Ultra Quality" stellen, dann wirft die Taschenlampe auch wieder Schatten. Im Gegensatz zu Doom3 ist es bei Quake4 nicht so, dass unter Ultra nur die Texturkompression deaktiviert wird, bei HQ fehlen auch Effekte.

Fetza
2009-02-06, 20:57:07
Zu Quake 3 zeiten hatte Carmack usw das Sagen, inzwischen sind andere imho vorbeigezogen (Crytek allen voran). Ob er wieder einen neuen "Standard" setzen wird, ist fraglich.

Wie kommst du zu dieser aussage? Was an crytek bzw der engine so toll sein soll weiss ich jetzt nicht. Ich denke mal nicht das es eine besondere kunst für gute programmierer ist, ein solches grafisches ergebnis wie in crysis zu erzielen, wenn sie auch bereit sind (so wie crytek es war) an jeder aktuellen, bestehenden hardwaregeneration vorbeizuprogrammieren.

Ich erinnere mich noch an die whine orgien von den crytek leuten, das die raubkopierer (natürlich, wer sonst?) schuld an den schlechten absatzzahlen von crysis wären - wenn ich heute auf meiner gtx 280 endlich flüssig crysis auf high-detail zocken kann, kommen mir da zweifel.

Natürlich war Q4 ein Ausrutscher: abgespecktes Beleuchtungssystem, miserable Texturen, eine Skybox zum Kotzen. Schönes Bumpmapping wie in Prey? Fehlanzeige.

Ach darum finden sich die Anfänge von MegaTexture schon in Doom 3?

Sorry, aber das stimmt nicht. Q4 war endlich mal ein gutes (gameplaytechnisch, aber auch insgesamt) game auf basis von id-tech 4. Hier scheint dich deine erinnerung zu trügen, alles was du da aufzählst wurde damals als gut empfunden. Prey kam 1-2 jahre später raus, klar dass das nochmal ne ecke besser aussieht.

Quake 4 kann ich heute sogar noch gut und gerne zoggen.

deekey777
2009-02-06, 21:02:01
Vielleicht solltest Du die Grafik mal auf "Ultra Quality" stellen, dann wirft die Taschenlampe auch wieder Schatten. Im Gegensatz zu Doom3 ist es bei Quake4 nicht so, dass unter Ultra nur die Texturkompression deaktiviert wird, bei HQ fehlen auch Effekte.
Ich versuche es schon auszuprobieren, nur verursachte die Installation bzw. die Meldung einer fehlerhaften Installation des Patches, dass das Spiel abstürzte, so dass ich den Rechner neustarten muss, was ich bisher nicht tun konnte.
...


Sorry, aber das stimmt nicht. Q4 war endlich mal ein gutes (gameplaytechnisch, aber auch insgesamt) game auf basis von id-tech 4. Hier scheint dich deine erinnerung zu trügen, alles was du da aufzählst wurde damals als gut empfunden. Prey kam 1-2 jahre später raus, klar dass das nochmal ne ecke besser aussieht.

Quake 4 kann ich heute sogar noch gut und gerne zoggen.
Wie kommst auch du, dass es hier um das Spiel geht und nicht um das technische dahinter?

Fetza
2009-02-06, 21:10:34
Wie kommst auch du, dass es hier um das Spiel geht und nicht um das technische dahinter?

So habe ich deinen post verstanden, das du quake 4 als (vergleichsweise) grafisch schlechtes spiel ansiehst. Dabei hat es damals in jeder hinsicht gerockt, wie du die texturen zb als schlecht ansehen kannst verstehe ich nicht. Das erste, was ich damals dachte, als ich die ersten schritte in q4 machte war: "wow, endlich mal vernünftige texturen, und keine texelbrei ala doom3"

Aquaschaf
2009-02-06, 23:51:56
Wie kommst du zu dieser aussage? Was an crytek bzw der engine so toll sein soll weiss ich jetzt nicht. Ich denke mal nicht das es eine besondere kunst für gute programmierer ist, ein solches grafisches ergebnis wie in crysis zu erzielen, wenn sie auch bereit sind (so wie crytek es war) an jeder aktuellen, bestehenden hardwaregeneration vorbeizuprogrammieren.

Das war eine falsche Design- bzw. Management-Entscheidung. Die Leistung der Programmierer schmälert das nicht.

betasilie
2009-02-07, 04:58:22
Ist es ja auch. Nur eben statt Stencil heute Shadowmaps. Sonst waren seine Überlegungen schon nicht so falsch. Statische Beleuchtung ist am Aussterben.
Und selbst bei den Stencils wusste JC, dass es nicht die Zukunft ist. Er hat in einigen Interviews durchaus durchschauen lassen, dass er sich der schlechte Skalierung bewusst ist. Aber eben für dieses Zeitfenster war es ggf. garnicht mal so schlecht für Doom3 und Co. eben genau so eine Engine zu machen.


Also in Sachen Performance/Effiizienz/Feeling sind die ID Soft Engines den anderen immer noch um Welten voraus.
Einzig Painkiller (Engine?) konnte da einigermassen mithalten.
Erklär das doch bitte mal genauer. :rolleyes:

Hä? Quake 4 ein Ausrutscher? Gilt auch Heute noch als eines der Besten SP Games! So Positiv überrascht war ich schon lange nicht mehr - klar Prey war zudem noch innovativ und daher für viele noch ein Quäntchen besser.
Wie immer auch Geschmackssache, aber ein Ausrutscher war Quake 4 definitv nicht - eher das Gegenteil.
Achso, und die mittelmäßigen Werungen waren also nur Betrug.;(

Ich zumindest fand Quake4 lediglich nett und afair ist id Soft garnicht der Entwickler, sondern der Langezeit-Partner Ravensoft.

Und im übrigen finde ich es schon ziemlich dumm über Spiele hier zu reden und wie man sie fand, denn es geht in diesem Thread wohl um die Technologie und nicht wie man einezelne Spiele finde.

Aber ich sehs schon kommen - gleich ruft wieder jemand, dass alle Spiele mit id-Engine gelb aussehen und alle Spiele mit Unreal-Engine grau. Gott bewahre!

_DrillSarge]I[
2009-02-07, 09:35:57
ETQW hatte das Problem, dass dei Doom3-Engine absolut nicht auf Außenareale zugeschnitten war.
what? GERADE das terrain ist (zum einen auch dank megatexture) eines der schöneren dinge an quakewars.
durch mt wirkt das ganze wie aus einem guss (was es ja auch ist;)).

Entweder bist du so 1337, dass du die Taschenlampe nicht benutzt hast, oder hast vergessen, dass diese nicht mehr mit der Umgebung interagiert (und nicht nur deine, sondern von allen). :biggrin:
das hat aber nicx mit der engine zu tun. ich glaub die cvar heisst "g_showplayershadow 1", dann gehts mit der taschenlampe.
und ja, dass schlimmste an quake4 war die skybox, es gab genau EINE :ugly:

Buzzler
2009-02-07, 12:56:18
Was an crytek bzw der engine so toll sein soll weiss ich jetzt nicht. Ich denke mal nicht das es eine besondere kunst für gute programmierer ist, ein solches grafisches ergebnis wie in crysis zu erzielen, wenn sie auch bereit sind (so wie crytek es war) an jeder aktuellen, bestehenden hardwaregeneration vorbeizuprogrammieren.
Das ist jetzt aber schon ganz schön ungerechtfertigt abwertend. Klar, andere hätten das auch hingekriegt, aber trotzdem haben die Entwickler da jede Menge Aufwand getrieben, um die Features so zu optimieren, dass die Hardware-Anforderungen bei "Maximal-Nutzung" nicht bis in ferne Zukunft völlig utopisch sind. Das ist IMHO keine schlechte Leistung.

Ich erinnere mich noch an die whine orgien von den crytek leuten, das die raubkopierer (natürlich, wer sonst?) schuld an den schlechten absatzzahlen von crysis wären - wenn ich heute auf meiner gtx 280 endlich flüssig crysis auf high-detail zocken kann, kommen mir da zweifel.
Das ist aber eine andere Geschichte. Sie hätten Crysis trotz CryEngine2 ja auch so machen können, dass es gleich beim Release auf Perfomance-Rechnern mit maximalen Details perfekt läuft. Stattdessen sind sie den Weg gegangen, den sich seit Chris Roberts keiner mehr zu betreten getraut hat und haben dafür unterm Strich vom Markt einen Hecktritt bekommen, was im Grunde jedem von Anfang klar sein musste - mit dem schlechten MP-Support haben sie es dann noch extra versaut.

Das Ganze begreife ich auch bis heute nicht. Mag sein, dass die auf dem gleichen Trip waren wie die "Urgesteine" der Szene, also primär Spiele machen die kewl sind und nicht primär Spiele machen, die sich gut verkaufen. Jedenfalls kann ich mir nicht vorstellen, dass sich das nochmal rechnet, selbst wenn sie noch ein paar Lizenzen für die Engine verkaufen.

Coda
2009-02-07, 16:13:51
mit dem schlechten MP-Support haben sie es dann noch extra versaut.
Das ist eine Legende. Der MP-Support in der Cryengine ist sehr gut. Es ist nur schlicht und einfach komplett GPU-Limitiert.

_DrillSarge]I[
2009-02-07, 16:17:27
Das ist eine Legende. Der MP-Support in der Cryengine ist sehr gut. Es ist nur schlicht und einfach komplett GPU-Limitiert.
ich glaube er meint den (wirklich) verissenen mp-modus (content), bugs etc. und keine patches mehr (für das "ur-crysis").

Coda
2009-02-07, 16:20:23
Ach soo... Okay. Der war echt nich so toll.

iDiot
2009-02-07, 21:15:31
Wie kommst du zu dieser aussage? Was an crytek bzw der engine so toll sein soll weiss ich jetzt nicht. Ich denke mal nicht das es eine besondere kunst für gute programmierer ist, ein solches grafisches ergebnis wie in crysis zu erzielen, wenn sie auch bereit sind (so wie crytek es war) an jeder aktuellen, bestehenden hardwaregeneration vorbeizuprogrammieren.


Bei Crysis und auch bei Far cry hatte ich einen gewissen "Wow - Effekt", vor allem als ich das erste mal das Meer sah oder die Palmen usw. Grafisch sicher die spektakulärsten Spiele der letzten zeit.

An Doom 3 erinnere ich mich nur noch wegen der Taschenlampe und den ewigen Ladezeiten, aber wirklich spektakulär war das nicht und auch das movement war sehr zäh.
Ich hab früher viel Quake 3 gespielt, das war wirklich ein Meilenstein, und auch fast alle Spiele die mit dieser Engine erschinen sind. (RTCW, medal of honor und und und)

Ich möchte mir hier aber nicht anmaßen über den technischen Aspekt, der hinter den Engines steht zu urteilen, dafür habe ich schlicht zu wenig Ahnung von 3D Grafik.

dust
2009-02-08, 15:15:27
dass es gleich beim Release auf Perfomance-Rechnern mit maximalen Details perfekt läuft.

dagegen, ich will mich nicht von einem hersteller für blöd verkaufen lassen!

das spiel soll einfach das maximum aus der hardware rausholen. am liebsten wäre mir die möglichkeit wenn ich die fps auf 30 bis 60 einstellen kann. unter 30fps soll er die qualität verringern und über 60 alles in qualität pumpen und damit es nicht zu sprunghaft wird gibt es die bandbreite zwischen 30 und 60 fps. die spiele sollen besser skalieren, der eine verwendet ein notebook und der andere einen pc mit mehreren gpu. beide sollen zusammen spielen können, ohne einem vorteil für den einen oder andern. das sollte das ziel sein!

Fetza
2009-02-08, 15:48:04
Das ist jetzt aber schon ganz schön ungerechtfertigt abwertend. Klar, andere hätten das auch hingekriegt, aber trotzdem haben die Entwickler da jede Menge Aufwand getrieben, um die Features so zu optimieren, dass die Hardware-Anforderungen bei "Maximal-Nutzung" nicht bis in ferne Zukunft völlig utopisch sind. Das ist IMHO keine schlechte Leistung.


Das ist aber eine andere Geschichte. Sie hätten Crysis trotz CryEngine2 ja auch so machen können, dass es gleich beim Release auf Perfomance-Rechnern mit maximalen Details perfekt läuft. Stattdessen sind sie den Weg gegangen, den sich seit Chris Roberts keiner mehr zu betreten getraut hat und haben dafür unterm Strich vom Markt einen Hecktritt bekommen, was im Grunde jedem von Anfang klar sein musste - mit dem schlechten MP-Support haben sie es dann noch extra versaut.

Das Ganze begreife ich auch bis heute nicht. Mag sein, dass die auf dem gleichen Trip waren wie die "Urgesteine" der Szene, also primär Spiele machen die kewl sind und nicht primär Spiele machen, die sich gut verkaufen. Jedenfalls kann ich mir nicht vorstellen, dass sich das nochmal rechnet, selbst wenn sie noch ein paar Lizenzen für die Engine verkaufen.

Also ich möchte bestimmt nicht cryteks arbeit abwertend darstellen, dass kann ich auch garnicht, denn letztlich fehlt mir das technische wissen um die engine an sich zu kritisieren. Ich finde jedoch, das die relation zwischen erreichter graphischer qualität und den hardwareanforderungen einfach nicht stimmt. Da finde ich zb ut3 wesentlich gehaltvoller.

Aber far cry zb war damals auch ein spiel, dass hervorragend auf damaliger high-end hardware in max-detail performte. Heutzutage gibt es noch keine einzelchiplösung die crysis in very high flüssig stemmen kann, und crysis ist an die 2 jahre alt, wenn ich es richtig im hinterkopf habe.

Deine hypothese, das crysis sich auch mit vernünftigen hardwareanforderungen so schlecht verkauft hätte teile ich aber nicht. Denn o-ton in allen foren war, das die hardwareanforderungen einfach viel zu hoch waren. Ein völlig lineare shooter, mit 08/15 story, der von seiner cinematik lebt ist auf gute graphik angewiesen, dass ist klar. Nur hatte man dann entweder die wahl auf ruckelorgie zu stellen, oder eben auf durchschnittsoptik - zumindest ich fand crysis auf mittleren details jetzt nichtmehr wirklich beeindruckend.

Bei Crysis und auch bei Far cry hatte ich einen gewissen "Wow - Effekt", vor allem als ich das erste mal das Meer sah oder die Palmen usw. Grafisch sicher die spektakulärsten Spiele der letzten zeit.

An Doom 3 erinnere ich mich nur noch wegen der Taschenlampe und den ewigen Ladezeiten, aber wirklich spektakulär war das nicht und auch das movement war sehr zäh.
Ich hab früher viel Quake 3 gespielt, das war wirklich ein Meilenstein, und auch fast alle Spiele die mit dieser Engine erschinen sind. (RTCW, medal of honor und und und)

Ich möchte mir hier aber nicht anmaßen über den technischen Aspekt, der hinter den Engines steht zu urteilen, dafür habe ich schlicht zu wenig Ahnung von 3D Grafik.

Bei farcry hatte ich auch ein wow erlebnis damals, allerdings war die atmosphäre für mich in doom3 viel intensiver, da es eben ein horrorshooter war. Hierfür braucht es natürlich geeigneter verhältnisse, ich kenne viele die sagen doom3 wäre letztlich garnicht so toll (die haben auch recht, nach dem durchspielen wurde mir auch klar, das es letztlich nur eine graphikorgie war ohne echten gameplayinhalt), diese leute zockten es aber auch in hellen oder halbhellen räumen, wo mutti/vati oder auch mal die freundin stören konnten. So kann ich natürlich kein horrorgame genießen.

Klar war quake 3 ein geiler multiplayer shooter, und id-tech 3 eine super engine.

Über den punkt mit den technischen aspeckten > hier sind wir schon zu zweit. :) Darum werde ich mich jetzt auch aus der unterhaltung ausklinken, weil ich hier zur eigentlichen diskussion nichts beitragen kann. :)

_DrillSarge]I[
2009-02-08, 15:51:06
Ich finde jedoch, das die relation zwischen erreichter graphischer qualität und den hardwareanforderungen einfach nicht stimmt.
quatsch. schau dir doch das spiel mal GENAUER an ;)

Gast
2009-02-08, 15:55:13
Heutzutage gibt es noch keine einzelchiplösung die crysis in very high flüssig stemmen kann, und crysis ist an die 2 jahre alt, wenn ich es richtig im hinterkopf habe.

was hast du davon wenn ein spiel mit maximaler qualität flüssig läuft?

man kann in crysis die details auch reduzieren und es sieht immer noch blendend aus und läuft sehr gut.

ich wäre froh wenn mehr spielehersteller den mut hätten entsprechende qualitätssettings anzubieten die erst in ein paar jahren spielbar sind, das erhöht den wiederspielwert enorm.

Gast
2009-02-08, 22:20:51
I[;7090319']what? GERADE das terrain ist (zum einen auch dank megatexture) eines der schöneren dinge an quakewars.
durch mt wirkt das ganze wie aus einem guss (was es ja auch ist;)).
Die Texturen waren doch eine der Schwächen von ETQW.

Hier sieht man wie unscharf sie sind:
http://www.tangential-lemonade.net/etqw/shot00001(ETQW1.1).jpg

Coda
2009-02-08, 22:38:30
Megatexture wird bei ETQW nur für das Terrain verwendet.

dargo
2009-02-08, 23:08:30
Aber far cry zb war damals auch ein spiel, dass hervorragend auf damaliger high-end hardware in max-detail performte.

Das stimmt doch gar nicht. Als Farcry erschien war eine R9700pro High-End. Und mit dieser lief FC alles andere als flüssig mit max. Details und hoher Auflösung. Hohe Auflösung war damals schon 1280x1024 4xAA/16xAF. Damit war eine R9700pro völlig überfordert. Wenn mich meine Erinnerung nicht täuscht hatte ich das mit 1024x768 oder 1152x864 2xAA/8xAF gespielt. Und die Framerate lag sicherlich nicht hoch.


Heutzutage gibt es noch keine einzelchiplösung die crysis in very high flüssig stemmen kann, und crysis ist an die 2 jahre alt, wenn ich es richtig im hinterkopf habe.

Warhead mit 1280x960 2xAA/16xAF (Enthusiast):
http://img3.imagebanana.com/img/vr9avte5/Crysis2009020822562485.jpg
Und das mit einer GTX 260. Eine GTX 285 legt noch ~40% zu. ;) Und komme mir nicht mit die Auflösung wäre viel zu klein. Diese Auflösung war auch zu FC-Zeiten normal bzw. sogar hoch.

Gast
2009-02-08, 23:22:02
Und das mit einer GTX 260. Eine GTX 285 legt noch ~40% zu. ;) Und komme mir nicht mit die Auflösung wäre viel zu klein. Diese Auflösung war auch zu FC-Zeiten normal bzw. sogar hoch.
Heute sind die Monitore aber wesentlich größer ;) Früher war 19" - 1280x1024 Standard, heute ist es 22" - 1920x1080

Außerdem sehe ich bei dir kein AA, die Bäume sehen total zerfetzt aus, sieht schrecklich aus.

dargo
2009-02-08, 23:40:39
Heute sind die Monitore aber wesentlich größer ;) Früher war 19" - 1280x1024 Standard...

Wenn schon dann waren 17" CRTs Standard. Ich hatte selber einen.


heute ist es 22" - 1920x1080

Na klar. ;)
Du wirst mir sicherlich auch eine Quelle dazu geben können. Der Durchschnitt dürfte irgendwo zwischen einem 19" TFT über 19" WS TFT bis hin zu 20/22" 1680x1050 liegen. Wobei letzteres schon optimistisch geschätzt sein dürfte.


Außerdem sehe ich bei dir kein AA, die Bäume sehen total zerfetzt aus, sieht schrecklich aus.
Dann liege ich wohl richtig mit der Annahme, dass du kein Crysis/Warhead besitzt/gespielt hast. Sonst wüsstest du woran das liegt.

Gast
2009-02-08, 23:49:12
Dann liege ich wohl richtig mit der Annahme, dass du kein Crysis/Warhead besitzt/gespielt hast. Sonst wüsstest du woran das liegt.
Weil DX10 im Gegensatz zu DX9 kein AAA (Adaptives AA) unterstützt.

mekakic
2009-02-09, 09:15:43
Wie kommst du zu dieser aussage? Was an crytek bzw der engine so toll sein soll weiss ich jetzt nicht. Ich denke mal nicht das es eine besondere kunst für gute programmierer ist, ein solches grafisches ergebnis wie in crysis zu erzielen Was für Crysis an Entwicklungsarbeit geleistet wurde, ist sogar absolut beispielhaft. Die haben in mehreren Bereichen Innovationen und Lösungen entwickelt, die mittlerweile zum Teil auch von anderen eingesetzt werden können, aber zu dem Zeitpunkt schlicht neu waren. Ich empfand den technologischen Sprung gegenüber den restlichen Spielen größer als bei Wing Commander, größer als bei Doom, größer als bei Ultima9.

_DrillSarge]I[
2009-02-14, 13:46:56
Heute sind die Monitore aber wesentlich größer ;) Früher war 19" - 1280x1024 Standard, heute ist es 22" - 1920x1080
war nicht die meistgenutzte auflösung bei der steam-umfrage 1024x768?
;D

iDiot
2009-02-14, 14:32:22
Nein, 1280x1024 und 1680*1050 (22" WS) waren die häufigsten.

_DrillSarge]I[
2009-02-14, 14:37:32
Nein, 1280x1024 und 1680*1050 (22" WS) waren die häufigsten.
habs gefunden...naja, fast

http://www.abload.de/img/unbenanntt83t.png

=Floi=
2009-02-14, 14:41:03
weil das in allen ländern gemessen wird und du kannst eben nicht industrienationen wie deutschland etc. mit anderen ländern vergleichen.

Gast
2009-02-14, 14:52:13
Was für Crysis an Entwicklungsarbeit geleistet wurde, ist sogar absolut beispielhaft. Die haben in mehreren Bereichen Innovationen und Lösungen entwickelt, die mittlerweile zum Teil auch von anderen eingesetzt werden können, aber zu dem Zeitpunkt schlicht neu waren. Ich empfand den technologischen Sprung gegenüber den restlichen Spielen größer als bei Wing Commander, größer als bei Doom, größer als bei Ultima9.
Ist halt wie bei Killzone 2. Schade, das es dann nur für ein Spiel wie Cr oder KZ2 genutzt wird statt für U10 oder WC6

Fetza
2009-02-14, 15:16:10
Das stimmt doch gar nicht. Als Farcry erschien war eine R9700pro High-End. Und mit dieser lief FC alles andere als flüssig mit max. Details und hoher Auflösung. Hohe Auflösung war damals schon 1280x1024 4xAA/16xAF. Damit war eine R9700pro völlig überfordert. Wenn mich meine Erinnerung nicht täuscht hatte ich das mit 1024x768 oder 1152x864 2xAA/8xAF gespielt. Und die Framerate lag sicherlich nicht hoch.


Warhead mit 1280x960 2xAA/16xAF (Enthusiast):
http://img3.imagebanana.com/img/vr9avte5/Crysis2009020822562485.jpg
Und das mit einer GTX 260. Eine GTX 285 legt noch ~40% zu. ;) Und komme mir nicht mit die Auflösung wäre viel zu klein. Diese Auflösung war auch zu FC-Zeiten normal bzw. sogar hoch.

Als crysis rauskam gabs gerademal die 8800gtx inklusive die in hohen auflösungen schlechtere 9800gtx, also wenn schon bitte nichts schönbenchen mit karten, die es damals nicht gab. ;)

Und 40% schneller wird die gtx 285 auch nicht sein, es sei denn du gehst von unübertakteten karten aus, aber deine ist bestimmt übertaktet. ;)

Mit meiner gtx 280@702/1458/1215 war ich jedenfalls mäßig begeistert von crysis, wobei ich auch nicht weiss, ob dx10 das ganze eventuell noch beschleunigen könnte. Ich muss aber auch dazu sagen, das crysis einfach brutal einstürzt mit aa und die graphik an sich so gut sein kann wie sie will, wenn weiter hinten der dschungel in einem flimmer-meer untergeht.

Wenn schon dann waren 17" CRTs Standard. Ich hatte selber einen.


Ich hatte nen 22" und so ziemlicher jeder den ich kannte hatte auch einen 19". Aber das tut ja eigentlich auch nichts zur sache, ich finde einfach nur das graphische ergebnis in relation zur performance bei ut3 wesentlich geiler - klar, jetzt kann man sagen setz halt auch nen wald in eine große ut3 map und dann sehen wir mal wie es performt, aber irgendwie hat mich crysis auch insgesamt nicht angesprochen, von daher.

Was für Crysis an Entwicklungsarbeit geleistet wurde, ist sogar absolut beispielhaft. Die haben in mehreren Bereichen Innovationen und Lösungen entwickelt, die mittlerweile zum Teil auch von anderen eingesetzt werden können, aber zu dem Zeitpunkt schlicht neu waren. Ich empfand den technologischen Sprung gegenüber den restlichen Spielen größer als bei Wing Commander, größer als bei Doom, größer als bei Ultima9.

Welche wären das?

G.A.S.T.
2009-02-14, 15:56:47
das spiel soll einfach das maximum aus der hardware rausholen. am liebsten wäre mir die möglichkeit wenn ich die fps auf 30 bis 60 einstellen kann. unter 30fps soll er die qualität verringern und über 60 alles in qualität pumpen und damit es nicht zu sprunghaft wird gibt es die bandbreite zwischen 30 und 60 fps. die spiele sollen besser skalieren, der eine verwendet ein notebook und der andere einen pc mit mehreren gpu. beide sollen zusammen spielen können, ohne einem vorteil für den einen oder andern. das sollte das ziel sein!
quasi ein Spiel, dass die grafische Qualität während des spielens selbstständig verändert?
das wär ja mal der Hammer...aber ob es technisch so einfach umzusetzen wäre?

Simon
2009-02-14, 18:02:28
quasi ein Spiel, dass die grafische Qualität während des spielens selbstständig verändert?
das wär ja mal der Hammer...aber ob es technisch so einfach umzusetzen wäre?
Dann kommt es zu Flackern und Aufpoppen und dann heulen darüber alle :rolleyes:

@dust: lass es einfach. Oder besser: Lern programmieren und zeig uns mal, wie das so schön skalieren soll.

_DrillSarge]I[
2009-02-14, 18:08:03
quasi ein Spiel, dass die grafische Qualität während des spielens selbstständig verändert?
gibt (gab) es schon, zB messiah von shiny, da haben die figuren auf schwächeren rechnern "gewabert" :biggrin:

Gast
2009-02-16, 04:54:01
Wenn schon dann waren 17" CRTs Standard. Ich hatte selber einen.


Na klar. ;)
Du wirst mir sicherlich auch eine Quelle dazu geben können. Der Durchschnitt dürfte irgendwo zwischen einem 19" TFT über 19" WS TFT bis hin zu 20/22" 1680x1050 liegen. Wobei letzteres schon optimistisch geschätzt sein dürfte..........


Nö Bob:)

http://marketshare.hitslink.com/report.aspx?qprid=17&qpmr=100&qpdt=1&qpct=3&qptimeframe=Y

deekey777
2009-02-16, 14:12:43
Zurück zum Thema.

mekakic
2009-02-16, 16:50:15
Welche wären das?SSAO (Screen Space Ambient Occlusion) und approximiertes SSS (Sub Surface Scatterting) fällt mir spontan ein. Dynamisches Ambient Occlusion gab es zu dem Zeitpunkt nur in einiges Papers, die tw. noch deutlich von dem entfernt waren was echtzeitfähig oder gar für große Szenen tauglich war. SSAO bzw. diese Lösung hat Nachteile aber man kann es bei brauchbaren Ergebnisse praktisch nebenbei machen. SSS bei Gesichtern empfinde ich bei der CryEngine noch immer als genial. Zu dem Zeitpunkt kannte ich auch nur einige Papers und Demos - die sahen alle nicht besser aus (eher schlechter) als bei der CE2 und waren deutlich hardwarefressender. Bei SSS weiß ich gar nicht was die treiben, es sieht aber gut aus und funktioniert auch nebenbei.

Ansonsten habe ich jetzt auch mal den c't Artikel gelesen und finde das sehr spannend - insbesondere über den Voxeloctree automatisch LOD zu bekommen, der zweite Teil des Artikels war aber arg unkonkret. Wie arbeitet man den mit Material Shadern auf Voxeloberflächen - es interessiert ja mehr als nur die Farbe und die Normale?

G.A.S.T.
2009-02-18, 14:51:16
I[;7106700']quasi ein Spiel, dass die grafische Qualität während des spielens selbstständig verändert?
gibt (gab) es schon, zB messiah von shiny, da haben die figuren auf schwächeren rechnern "gewabert" :biggrin:
Was meinst du jetzt mit "gewabbert"? :|
Ich ahne es: Es sprang immer von hoher grafischer Qualität auf Niedrige und zurück, richtig? Falls es das sein sollte, hätte man es ja wohl einfach verhindern können.
Als Beispiel aus dem Automobilbau gibt es ja Porsche-Modelle, wo ab 80km/h der Heckflügel ausgefahren wird, aber erst ab 10km/h wieder eingefahren wird, damit das Teil nicht während der Fahrt ständig ein- und wieder ausfährt.


Hat sich bei Messiah eigentlich nur die Textur-Quali während des Spiels verändert?

Coda
2009-02-18, 14:54:01
Ein Porsche springt auch nicht von 10 auf 100 innerhalb von unter einer Sekunde. Der Vergleich ist völlig daneben.

Natürlich könnte man das ganze etwas glätten, aber dann ist der Nutzen wieder nicht gegeben, weil Frameeinbrüche dann trotzdem nicht abgefangen werden können.

san.salvador
2009-02-18, 14:54:34
Bei Messiah wurde durchgehend die Polygonanzahl/das LOD stufenlos verändert. Und das hat gewabbert. :D

G.A.S.T.
2009-02-18, 23:44:42
Ein Porsche springt auch nicht von 10 auf 100 innerhalb von unter einer Sekunde. Der Vergleich ist völlig daneben.

Natürlich könnte man das ganze etwas glätten, aber dann ist der Nutzen wieder nicht gegeben, weil Frameeinbrüche dann trotzdem nicht abgefangen werden können.
Es ging mir eher darum, dass erst dann wieder auf hohe Qualität zurückgeschaltet wird, wenn "nichts mehr los" und eine sehr hohe Framerate möglich ist...auch wenn man dadurch dann oft in niedriger Quali zockt.



Dazu aber mal eine Verständnisfrage, falls es Jemand beantworten kann: Wurde bei Messiah die Qualität abhängig von der Framerate verändert, oder abhängig von Polygonenanzahl und ähnlicher Faktoren?

Coda
2009-02-19, 08:43:34
Es ging mir eher darum, dass erst dann wieder auf hohe Qualität zurückgeschaltet wird, wenn "nichts mehr los" und eine sehr hohe Framerate möglich ist...auch wenn man dadurch dann oft in niedriger Quali zockt.
Wie willst du die Last eines Frames wissen bevor du ihn gerendert hast?

Gast
2009-02-19, 14:40:03
Wie willst du die Last eines Frames wissen bevor du ihn gerendert hast?
man kann aber nachdem der eine frame länger gedauert hat als X, die quali runterstellen damit der nächste Frame schneller gerendert wird.

Coda
2009-02-19, 16:30:16
Kann man. Bringt aber nichts, weil da oft kein Zusammenhang besteht.

AndererGast
2009-02-19, 17:55:23
in 99.xxx % der frames besteht ein zusammenhang, deswegen schaut man sich beim optimieren auch irgend ein frame aus einer situation an, alle vorherigen und nachfolgenden werden nicht grossartig abweichen.

Entsprechend kann man das auch bei der Bildqualy machen.

Echtzeit movie-compression nutzen genau das aus um anhand z.b. der Motion Estimation des vorherigen frames und sogar der naheligenden tiles die potentiellen suchbereiche auszusuchen und manche compressionen haben auch optimierungen dahingehend dass nur ein gewisses delta zum vorherigen motion vector abgespeichert werden kann.


sicherlich gibt es mal hier oder da eine explosionen die ganz andere performance eigenschaften verursacht/verlangt. Aber zumeist ist performance vorhersagbar.

Ein paar gute Engines steuer entsprechend auch ihr LOD nach und balancieren z.B. das culling.

Esseiden du meinst was ganz anderes ;)

Coda
2009-02-19, 17:58:49
in 99.xxx % der frames besteht ein zusammenhang, deswegen schaut man sich beim optimieren auch irgend ein frame aus einer situation an, alle vorherigen und nachfolgenden werden nicht grossartig abweichen.
Das ist einfach falsch. Eine schnelle Blickwechseländerung oder Explosionen o.ä. können inerhalb von einem Frame die Last extrem verändern.

Krishty
2009-02-19, 18:02:42
in 99.xxx % der frames besteht ein zusammenhang, deswegen schaut man sich beim optimieren auch irgend ein frame aus einer situation an, alle vorherigen und nachfolgenden werden nicht grossartig abweichen.Sind sie nicht, deshalb schaut man sich den langsamsten an.

Echtzeit movie-compression …… hat damit nichts zu tun.

sicherlich gibt es mal hier oder da eine explosionen die ganz andere performance eigenschaften verursacht/verlangt. Aber zumeist ist performance vorhersagbar.Ein einziges Objekt kann die Situation um 180° wenden, sei es wegen Materialien & Shadern, wegen Effekten wie Transparenz, Refraktion oder Blur … von Lichtquellen ganz zu schweigen.

betasilie
2009-02-19, 18:03:12
Wer Filmkompression und LOD in einem Spiel vergleicht, der sollte sich vielleicht ein anderes Thema suchen zum diskutieren.

Ebenso dumm ist es die gesamte qualität runterzustellen, weil ein Frame länger dauert, ohne einen Algo zu haben, der wirklich weiß wieso irgendetwas runtergestellt werden sollte. Außerdem ist die Frequenz mal ihrsinnig hoch. Wer soll sich so ein Bild denn antun, zumal ein einzelnes Frame überhaupt nichts aussagt.

betasilie
2009-02-19, 18:37:29
Im übrigen ist so ein lastabhängiges LOD sowieso Schwachsinn. Es ist Aufgabe der Entwickler einen relativ homogenen Lastverlauf im Spiel zu gewährleisten.

Wenn in einem Spiel die durchschnittliche Framerate 60fps ist und dann kommt eine Stelle, in der die fps plötzlich für 10 Sekunden auf 10 fps absacken, dann liegt das an der Dummheit der Entwickler, weil sie Content und Effekt einbauen, die viel zu viel Last verzeugen.

Anstrebenswert wäre, bevor sowas überhaupt ansatweise in Echtzeit im Spiel gemacht wird, einen vernünftigen Lasttest als Option im Spiel, der Algos verwendet, die wirklich Qualitätssettings generieren, welche der eingesetzen Grafikkarte gerecht werden. Sowas würde völlig reichen, wenn der Content nicht extreme Lastschwankungen verursacht, was dann andere Ursachen hat.

Sowas gibt es und gab es noch nicht. Bisher waren alles diese Laststests sehr primitv und es wurden Settings vorgeschlagen, die meistens ganz einfach von Spielern per Hand erheblich optimiert werden konnten.

So lange es sowas nicht gibt, ist man weit von einer Echtzeitlösung entfernt.

san.salvador
2009-02-19, 19:45:44
Messiah? :rolleyes:

everfast
2009-02-19, 22:01:49
Mir fällt da spontan der fps-optimizer für Morrowind ein. Das ist ein kleines Programm mit dem man die Morrowind-ini tweaken kann und bei dem man die Sichtweite so einstellen kann, dass sie sich mit den fps ändert (bis zur dreifachen Sichtweite die im Spiel einstellbar ist). Passt hier aber auch nur ganz am Rande rein, da die Sichtweite erstens überwiegend den Prozessor belastet und Morrowind zweitens so, ich sag mal schlecht optimiert ist, dass auf meinem P4 3.2 bei voller Sichtweite kaum 15fps zustande kommen.

Grüße

G.A.S.T.
2009-02-20, 00:45:54
Wie willst du die Last eines Frames wissen bevor du ihn gerendert hast?
Deshalb hatte ich meine zweite Frage gestellt.


Diese bezog sich auf Veränderung der Qualität eben nicht abhängig von der Gesamt-Last, sondern anhand einiger Faktoren, die man vorher schon wissen kann.
Damit kann man dann natürlich die Framerate auch nicht konstant halten...darum geht es mir auch nicht.

Wenn in einem Action-Spiel zwei Gegner einer Sorte auftauchen, sollen diese gut aussehen. Hat man es gleich mit 20 zu tun, soll die Framerate nicht völlig zusammenbrechen und sie können halt ruhig schlechter aussehen.

MasterElwood
2009-02-20, 20:39:28
Man sollte das Problem von der anderen Seite her angehen:

Ein Game sollte bei der Installation einen gescheiten Bench durchführen - mit den Angaben was der User will (Auflösung/AA/AF/...).

Nach dem Bench sollte die Engine Details wissen: Wie schnell ist das System in: PHYSIK/TEXTURIEREN/RENDERN/SHADER/usw...

Jetzt könnte der User ein paar Vorgaben machen (min/max/avg FPS) und die Engine könnte sich danach selbst einstellen so das sie immer optimal läuft.

Und zwar nicht nach einzelnen Frames, sondern generell nach Spielesituationen.

Beispiele:

- Mein User geht von einem großen Raum in einen schmalen gang - also kann ich für dort die Texturqualität hochschrauben weil dort gibts viel weniger davon

- Sind mehr als x Gegner in sichtmöglichkeit dann dreh ich ihre LOD runter weil das überfordert das system.

- Im nächsten Level schneit es was die Shader stark beansprucht also spar ich dort bei y


Und so weiter...

ME

betasilie
2009-02-21, 00:36:24
Man sollte das Problem von der anderen Seite her angehen:

Ein Game sollte bei der Installation einen gescheiten Bench durchführen - mit den Angaben was der User will (Auflösung/AA/AF/...).

Nach dem Bench sollte die Engine Details wissen: Wie schnell ist das System in: PHYSIK/TEXTURIEREN/RENDERN/SHADER/usw...

Jetzt könnte der User ein paar Vorgaben machen (min/max/avg FPS) und die Engine könnte sich danach selbst einstellen so das sie immer optimal läuft.

Und zwar nicht nach einzelnen Frames, sondern generell nach Spielesituationen.

Beispiele:

- Mein User geht von einem großen Raum in einen schmalen gang - also kann ich für dort die Texturqualität hochschrauben weil dort gibts viel weniger davon

- Sind mehr als x Gegner in sichtmöglichkeit dann dreh ich ihre LOD runter weil das überfordert das system.

- Im nächsten Level schneit es was die Shader stark beansprucht also spar ich dort bei y


Und so weiter...

ME
Schau mal 4 Postings über deinem. ;) Genau das sage ich eben auch.

Nur hat bisher noch kein Game einen solchen Test mit guten Algos, die wirklich differenzierte Grafiksettingsetting generieren können, nach den Vorgaben des Nutzers (~60 oder min. fps, res. und AF/AA).

Wenn dann die Last des Contents sauber ist, was wie gesagt Aufgabe der Entwickler ist, dann wäre das mit einem guten Sichtweiten-LOD eigentlich schon ziemlich perfekt.

_DrillSarge]I[
2009-02-21, 15:58:10
Wie willst du die Last eines Frames wissen bevor du ihn gerendert hast?
gar nicht.
man könnte es aber nach dem system machen: seit 30 frames ist die fps sehr niedrig -> weniger detail. frames in einer bestimmten zeitspanne überhalb eines limits (bspw. 30 fps) -> detail wieder hoch.

TheGoD
2009-04-15, 18:31:58
Voxel-Rendering am Beispiel id-Tech-6 erläutert
id Software, die Spieleschmiede um Programmiererlegende John Carmack, ist ebenso für technologisch innovatives Design ihrer Spiele-Engines wie für die Indizierungsgefahr der damit veröffentlichten Titel bekannt. Die kommende id-Tech-6-Engine soll sich gar von der bekannten Polygon- und Rasterwelt entfernen und auf Voxel-Rendering setzen. Wir beleuchteten den technischen Hintergrund dieses Verfahrens der 3D-Darstellung bereits in der PCGH-Printausgabe 05/2009 und bieten unseren Online-Lesern diesen Artikel als kleines Ostergeschenk bereits jetzt auf der Webseite an.


PC-Games Hardware (http://www.pcgameshardware.de/aid,681315/Voxel-Rendering-am-Beispiel-id-Tech-6-erlaeutert/Technologie/Wissen/?page=1)

Id Software rechnet damit, dass eine Geforce 8800 ein Bild in 720p mit 30 Fps berechnen könnte. In der Praxis wurde dies jedoch nicht ganz erreicht. Bei einer Prognose für die nächste Konsolengenera*tion glaubt man, dass 1080p mit 60 Fps erreichbar seien.

LordDeath
2009-08-07, 17:13:41
Split aus dem Rage-Thread (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7461556#post7461556)


id Software spricht über Interna der Engine für Rage



http://www.golem.de/0908/68902.html

Auf Seite 2 steht:
"Das Out-of-Order-Processing von x86-CPUs führe zu hohen Latenzen, welche die Parallelität behindern: Die einzelnen Jobs, besser bekannt als "Threads", müssten in einer Spieleengine viel zu oft aufeinander warten."

Stimmt das denn? Oder ist diese Aussage einfach nur zu sehr pauschalisiert?

san.salvador
2009-08-07, 18:18:40
Ich frag mich wie die Alternative aussieht. Wollen die ernsthaft wieder in-order-CPUs?
Sollen sie doch mal für den Atom entwickeln, viel Spaß. :D

Blacksoul
2009-08-07, 18:23:47
Ich frag mich wie die Alternative aussieht. Wollen die ernsthaft wieder in-order-CPUs?
Sollen sie doch mal für den Atom entwickeln, viel Spaß. :D

Die Xbox 360 hat eine In-Order-CPU. ;)


t.b.d

san.salvador
2009-08-07, 18:26:14
Die Xbox 360 hat eine In-Order-CPU. ;)


t.b.d
Ich kann mir dennoch nicht vorstellen, dass das - nach Abwägung aller Vor- und Nachteile - die bessere Umgebung ist.

Blacksoul
2009-08-07, 18:37:04
Ich kann mir dennoch nicht vorstellen, dass das - nach Abwägung aller Vor- und Nachteile - die bessere Umgebung ist.

Das ist wieder eine andere Sache und da muss ich dir zustimmen. Aber vielleicht sieht es auf Konsolen eben anders aus. Verallgemeinern kann man die Aussage vermutlich nicht.


t.b.d

Demirug
2009-08-07, 19:58:16
Auf Seite 2 steht:


Stimmt das denn? Oder ist diese Aussage einfach nur zu sehr pauschalisiert?

Das ist absoluter Blödsinn. Aber mit einer Aussage wie „Die einzelnen Jobs, besser bekannt als "Threads", müssten in einer Spieleengine viel zu oft aufeinander warten.“ beweist der Autor ja schon das er überhaupt nicht verstanden hat wie eine moderne Multicore Engine funktioniert. Jobs sind ja gerade keine Threads weil Threads viel zu viel Overhead haben (unabhängig ob es nun eine out of order oder in order CPU ist).

Exxtreme
2009-08-07, 20:39:24
Out-of-order-CPUs sind als Universal-CPUs eigentlich immer deutlich im Vorteil. Man müsste schon konstruierte Fälle haben damit In-Order-CPUs besser wären. Eine Out-of-order-CPU bringt real "im schlimmsten Fall" keine Vorteile und damit verschwendete Transistoren.

Die Konsolen setzen aber auf In-Order-CPUs. Warum das so ist darüber kann ich nur spekulieren. Meine Vermutung ist, dank der geringeren Komplexität einer In-Order-CPU kann man diese höher takten und dann kann man besser mit theoretischen GFLOP-Zahlen protzen. Einen anderen guten Grund sehe ich ehrlich gesagt nicht.

In-Order CPUs würde ich nur dann verbauen wenn die Leistung der CPU nur eine sehr untergeordnete Rolle spielt und/oder man wirklich extrem auf die Kosten schauen muss.

ShadowXX
2009-08-07, 20:48:22
Die Konsolen setzen aber auf In-Order-CPUs. Warum das so ist darüber kann ich nur spekulieren. Meine Vermutung ist, dank der geringeren Komplexität einer In-Order-CPU kann man diese höher takten und dann kann man besser mit theoretischen GFLOP-Zahlen protzen. Einen anderen guten Grund sehe ich ehrlich gesagt nicht.
In-Order-CPUs sind wesentlich kleiner und dadurch wesentlich billiger....das ist der Hauptgrund warum die X360 eine In-Order-CPU benutzt.

Der hohe Takt ist eher ein muss um das In-Order auszugleichen (das der sich auf dem Papier fürs Marketing gut macht ist allerdings ein gern mitgenommener Nebeneffekt).

dildo4u
2009-08-07, 20:52:37
In-Order-CPUs sind wesentlich kleiner und dadurch wesentlich billiger....das ist der Hauptgrund warum die X360 eine In-Order-CPU benutzt.

Und brauchen weniger Strom siehe Atom auch ein Hauptgrund das Gehäuse der 360 ist ja schon recht kompackt und die ersten Chips mussten 2005 noch in 90nm kommen.

san.salvador
2009-08-07, 20:58:51
Mit out-of-order wäre die Xbox 360 dann wohl ein Tischgriller geworden. :D

Wobei aber auch schon HTT sehr viel bringt, mein Atom spuckt dadurch in vielen Fällen 50%+ Mehrleistung aus.

Exxtreme
2009-08-07, 21:09:34
In-Order-CPUs sind wesentlich kleiner und dadurch wesentlich billiger....das ist der Hauptgrund warum die X360 eine In-Order-CPU benutzt.

Der hohe Takt ist eher ein muss um das In-Order auszugleichen (das der sich auf dem Papier fürs Marketing gut macht ist allerdings ein gern mitgenommener Nebeneffekt).
Wenn man bedenkt, daß die Xbox360-CPU ca. genauso schnell ist ein 2,1 GHz Core2Duo dann frage ich mich schon ob's da eine echte Ersparnis gibt. Sie hat ja über ein GHz mehr an Takt und einen Kern mehr. Ist ja nicht so, daß die Out-of-order-Schaltungen die Designkomplexität jetzt extrem in die Höhe treiben.

Und man sollte auch bedenken, daß das einen Rattenschwanz an weitern Auswirkungen bringt. Man muss viel mehr Softwareoptimierung betreiben damit die Reihenfolge der Befehle/Anweisungen der In-Order-CPU schmeckt. Und nein, mit einem besseren Compiler ist das nicht getan.

dildo4u
2009-08-07, 21:12:46
Wenn man bedenkt, daß die Xbox360-CPU ca. genauso schnell ist ein 2,1 GHz Core2Duo dann frage ich mich schon ob's da eine echte Ersparnis gibt. Sie hat ja über ein GHz mehr an Takt und einen Kern mehr. Ist ja nicht so, daß die Out-of-order-Schaltungen die Designkomplexität jetzt extrem in die Höhe treiben.

Die 360 wurde 2004/05 entwickelt da gabs eine solche Desktop CPU mit dem Speed noch gar nicht.Und GTA 4 killt eine solche CPU die 360 Schafft noch 25-30fps je nach dem wie Modern die Engine ist die CPU deutlich schneller als ein 2Ghz Dual-Core mit Out-of-order.

Huhamamba
2009-08-07, 21:18:43
Wenn ich sehe wie die Xbox360 ein Rechenlastmonster wie GTA IV *meist* mit flüssigen framerates stemmt, kann die CPU ja nicht sooo scheiße sein. ;D

Exxtreme
2009-08-07, 21:20:35
Die 360 wurde 2004/05 entwickelt da gabs eine solche Desktop CPU mit dem Speed noch gar nicht.Und GTA 4 killt eine solche CPU die 360 Schafft noch 25-30fps je nach dem wie Modern die Engine ist die CPU deutlich schneller als ein 2Ghz Dual-Core mit Out-of-order.
Doch doch, da gab es schon CPUs mit >2 GHz. Auch Carmack hat bei der Vorstellung der Nex-Gen-Konsolen gesagt, die damaligen High-End-PCs erreichten diese Rechenleistung jetzt schon.

san.salvador
2009-08-07, 21:20:42
Wenn ich sehe wie die Xbox360 ein Rechenlastmonster wie GTA IV *meist* mit flüssigen framerates stemmt, kann die CPU ja nicht sooo scheiße sein. ;D
Wenn ich mir ansehe, wie sehr GTA auf den Konsolen im Vergleich zur PC-Version kastriert wurde, wundert mich das nicht.

dargo
2009-08-07, 21:21:55
Wenn ich sehe wie die Xbox360 ein Rechenlastmonster wie GTA IV *meist* mit flüssigen framerates stemmt, kann die CPU ja nicht sooo scheiße sein. ;D
Ein GTA IV @Konsolendetails ist kein Rechenlastmonster. ;)

reunion
2009-08-07, 21:22:57
Out-of-order-CPUs sind als Universal-CPUs eigentlich immer deutlich im Vorteil. Man müsste schon konstruierte Fälle haben damit In-Order-CPUs besser wären. Eine Out-of-order-CPU bringt real "im schlimmsten Fall" keine Vorteile und damit verschwendete Transistoren.

Die Konsolen setzen aber auf In-Order-CPUs. Warum das so ist darüber kann ich nur spekulieren. Meine Vermutung ist, dank der geringeren Komplexität einer In-Order-CPU kann man diese höher takten und dann kann man besser mit theoretischen GFLOP-Zahlen protzen. Einen anderen guten Grund sehe ich ehrlich gesagt nicht.

In-Order CPUs würde ich nur dann verbauen wenn die Leistung der CPU nur eine sehr untergeordnete Rolle spielt und/oder man wirklich extrem auf die Kosten schauen muss.

In-Order ist effizienter. Kleiner, stromsparender. Einziger Nachteil ist die Software muss passen. Intel hätte auch eine Single OOO-Core verbauen können, hätte gleich viel Strom benötigt, wäre gleich teuer gewesen, aber in den meisten Fällen deutlich langsamer.

dildo4u
2009-08-07, 21:23:59
Doch doch, da gab es schon CPUs mit >2 GHz.
AMD X2 gabs erst ab Ende 05 die 360 wurde vorher entwickelt und die schaffen selbst bei 3Ghz GTA4 nicht flüssig.

xxxgamerxxx
2009-08-07, 21:31:35
Wenn ich mir ansehe, wie sehr GTA auf den Konsolen im Vergleich zur PC-Version kastriert wurde, wundert mich das nicht.

Welche wären das denn alles?

dargo
2009-08-07, 21:31:36
AMD X2 gabs erst ab Ende 05 die 360 wurde vorher entwickelt und die schaffen selbst bei 3Ghz GTA4 nicht flüssig.
Es ist immer wieder erstaunlich wie du Parallelen bei GTA IV Konsole vs. PC aufstellst und daran die CPU-Leistung messen willst wo ich schon zig fach erwähnt habe, dass die PC-Version @standard eine höhere Sichtweite bietet. Was natürlich auch eine höhere CPU-Last verursacht. Ich halte mich noch etwas zurück bis RE5 draußen ist. ;)

Exxtreme
2009-08-07, 21:35:36
In-Order ist effizienter. Kleiner, stromsparender. Einziger Nachteil ist die Software muss passen. Intel hätte auch eine Single OOO-Core verbauen können, hätte gleich viel Strom benötigt, wäre gleich teuer gewesen, aber in den meisten Fällen deutlich langsamer.
Die Softwareoptimierung kostet auch extra Kohle. Gut, in dem Fall wälzt man das auf die Entwickler ab.

Und wären In-Order-CPUs tatsächlich effizienter dann hätten sie sich schon lange durchgesetzt.
AMD X2 gabs erst ab Ende 05 die 360 wurde vorher entwickelt und die schaffen selbst bei 3Ghz GTA4 nicht flüssig.

John Carmack auf der Quakecon 2005:
In comparison to high-speed AMD/Intel system, X360 runs about half as fast

Gibt es noch viele andere Beispiele, die zeigen, daß der Port viel schlechter läuft?

Jules
2009-08-07, 21:43:13
Die Softwareoptimierung kostet auch extra Kohle. Gut, in dem Fall wälzt man das auf die Entwickler ab.

Und wären In-Order-CPUs tatsächlich effizienter dann hätten sie sich schon lange durchgesetzt.


John Carmack auf der Quakecon 2005:
In comparison to high-speed AMD/Intel system, X360 runs about half as fast

Gibt es noch viele andere Beispiele, die zeigen, daß der Port viel schlechter läuft?
Sind effizienter, nur schwerer dafür zu entwickeln...zumindest aufwändiger.

Wir schweifen etwas vom Thema ab.

dildo4u
2009-08-07, 21:43:38
Gibt es noch viele andere Beispiele, die zeigen, daß der Port viel schlechter läuft?
X2 5000 mit 2.6Ghz unter 22min fps.
http://www.pcgameshardware.de/aid,690425/CPUs-Benchmarks-von-Resident-Evil-5-Core-i7-fuehrt-Phenoms-trotzdem-stark/Action-Spiel/Test/

reunion
2009-08-07, 21:45:12
Die Softwareoptimierung kostet auch extra Kohle. Gut, in dem Fall wälzt man das auf die Entwickler ab.

Und wären In-Order-CPUs tatsächlich effizienter dann hätten sie sich schon lange durchgesetzt.


Nein, da man wie du schon selbst sagst es nicht immer auf die Entwickler abwälzen kann. In einem geschlossenen System mit fest definierten Aufgaben kann man das aber und da nimmt man schon immer das effizientere System, nämlich In-Order-Cores. Dazu gab es sogar mal eine nette Präsentation von Intel.

Huhamamba
2009-08-07, 21:45:37
Es ist immer wieder erstaunlich wie du Parallelen bei GTA IV Konsole vs. PC aufstellst und daran die CPU-Leistung messen willst wo ich schon zig fach erwähnt habe, dass die PC-Version @standard eine höhere Sichtweite bietet. Was natürlich auch eine höhere CPU-Last verursacht. Ich halte mich noch etwas zurück bis RE5 draußen ist. ;)
RE5 ist auch alles andere als ein CPU-Killer. ;) Und selbst wenn die Sichtweite runtergeschraubt ist, allein Euphoria frisst schon einen ganzen Kern. Dazu die KI, die selbstständig auch hinter hinteraktiven Objekten und Fahrzeugen Deckung sucht und natürlich das perverse Streaming in dem Spiel. Dass es bei all dem Betrieb in der Stadt nicht im Sekundentakt rumst und Fußgänger (ohne mein Verschulden :D) übern Haufen gefahren werden halte ich für eine Meisterleistung der Rockstar-Programmierer, was die CPU natürlich gut ins Schwitzen bringt.^^


PS: http://www.youtube.com/watch?v=N12j6SekpTY&fmt=18
:biggrin:

Demirug
2009-08-07, 21:45:52
In-Order ist effizienter. Kleiner, stromsparender. Einziger Nachteil ist die Software muss passen. Intel hätte auch eine Single OOO-Core verbauen können, hätte gleich viel Strom benötigt, wäre gleich teuer gewesen, aber in den meisten Fällen deutlich langsamer.

Selbst mit passender Software geht Microsoft inzwischen für die gesammte XBox CPU von einem IPC Wert von nur 0.2 aus.

Ein einzelner Opteron Core dagegen wird mit typisch 0.6 eingestuft. Für die Intel CPU habe ich leider gerade keine Werte zur Hand.

Man muss also sehr genau abwägen. Ich vermute mal auch dass sich Microsoft versprochen hat mehr durch den Compiler raus zu holen.

Exxtreme
2009-08-07, 21:47:09
X2 5000 mit 2.6Ghz unter 22min fps.
http://www.pcgameshardware.de/aid,690425/CPUs-Benchmarks-von-Resident-Evil-5-Core-i7-fuehrt-Phenoms-trotzdem-stark/Action-Spiel/Test/
Liegt wohl an der Eigenart der Engine mit sehr gut mit mehreren Kernen zu skallieren. Steht auch im Text so drinne:

"Wie ihr Name bereits impliziert, skaliert die MT Framework Engine exzellent mit Mehrkernprozessoren: So rechnet der C2Q Q6600 (4x 2,4 GHz) satte 41 Prozent schneller als der C2D E6600 (2x 2,4 GHz), der C2D E8400 ist trotz 2x 3,0 GHz und 6 MiByte L2-Cache nur so flott wie der Q6600. Im Gegensatz zu den meisten anderen Engines legt Capcoms Eigenentwicklung auch beim Wechsel von drei auf vier Kerne zu, taktbereinigt steigen die Fps um rund 13 Prozent. Mehr L2-Cache nimmt die MT Framwork ebenfalls dankend an, der C2Q Q9650 (12 MiByte) schlägt den taktgleichen C2E QX6850 (8 MiByte) um 9 Prozent. "

Wie schnell läuft das Ding auf der Xbox360?

dargo
2009-08-07, 21:53:03
RE5 ist auch alles andere als ein CPU-Killer. ;)
Du hast mich wohl falsch verstanden. RE5 scheint (zumindest nach dem Benchmark) sehr gut mit mehr als 2 Cores zu skalieren. Wenn man schon einen C2D mit dem Xenon vergleicht dann sollte man schon eine Anwendung wählen die zumindest 3 Cores auslasten kann. Sonst wäre das gegenüber der XBox360 unfair.

Exxtreme
2009-08-07, 21:59:20
Nein, da man wie du schon selbst sagst es nicht immer auf die Entwickler abwälzen kann. In einem geschlossenen System mit fest definierten Aufgaben kann man das aber und da nimmt man schon immer das effizientere System, nämlich In-Order-Cores. Dazu gab es sogar mal eine nette Präsentation von Intel.
Du müsstest schon extrem hardwarenah programmieren und auch sämtlichen Content speziell anpassen um an vergleichbare Ergebnisse zu kommen. Nur sprengt das garantiert die Kosten. Denn man müsste auch auf sämtliche Middleware verzichten.

Ach ja, das Linux auf der PS3 läuft in etwa so schnell wie auf einem 800 MHz-P3.

Mr. Lolman
2009-08-07, 22:03:17
X2 5000 mit 2.6Ghz unter 22min fps.
http://www.pcgameshardware.de/aid,690425/CPUs-Benchmarks-von-Resident-Evil-5-Core-i7-fuehrt-Phenoms-trotzdem-stark/Action-Spiel/Test/

Vista FTW :up:

dildo4u
2009-08-07, 22:04:04
Liegt wohl an der Eigenart der Engine mit sehr gut mit mehreren Kernen zu skallieren. Steht auch im Text so drinne:

Jo wie gesagt je moderner die Engine um so besser für die Konsolen CPUs.Diese Engines werden offensichtlich auch für moderne PC CPU's in die richtige Richtung entwickelt siehe Speed/Auslastung der Nehalem und Phenom 2.




Wie schnell läuft das Ding auf der Xbox360?
Mit 30fps habs bis jetzt ca 5 Stunden gezockt und keine größeren Slowdowns bemerkt.

dargo
2009-08-07, 22:57:15
Wie schnell läuft das Ding auf der Xbox360?

http://www.eurogamer.net/articles/face-off-resident-evil-5-article?page=2
http://forum.beyond3d.com/showpost.php?p=1302761&postcount=277

moBi
2009-08-07, 23:27:50
Jobs sind ja gerade keine Threads weil Threads viel zu viel Overhead haben....

Könntest Du da etwas genauer sein? Gerne auch per PN, Link oder Buchempfehlung :biggrin:.

cR@b
2009-08-08, 00:53:12
Was auch immer... Carmack ist ein Genie und DooM³ war zu seiner Zeut grafisch wegweisend und lief auf meiner 6800Ultra mit nem A64 3500+ sogar anständig. Der Typ holt alles raus aus seiner Engine und das auch passend zur Zeit.
Ich freue mich auf Rage wie en Schnitzel!

san.salvador
2009-08-08, 00:55:57
Was auch immer... Carmack ist ein Genie und DooM³ war zu seiner Zeut grafisch wegweisend und lief auf meiner 6800Ultra mit nem A64 3500+ sogar anständig. Der Typ holt alles raus aus seiner Engine und das auch passend zur Zeit.
Ich freue mich auf Rage wie en Schnitzel!
Das ist aber seeehhhr... subjektiv. :ugly:

ShadowXX
2009-08-08, 00:56:21
Mit 30fps habs bis jetzt ca 5 Stunden gezockt und keine größeren Slowdowns bemerkt.
Dann bist scheinbar der einzige Mensch auf der Welt der die massigen Slowdowns und Detailabstriche die es auf der X360 gibt nicht bemerkst.

Ein Grund warum ich mir damals zum Release von GTA4 auf der X360 es nicht gekauft habe war der Grund das die HW der X360 das Game IMHO gar nicht packt.
Und nachdem ich die PC-Version gespielt hatte (die solala portiert ist, IMHO besser als viele sagen aber schlechter als es möglich wäre) wusste das ich richtig gehandelt habe.

Mädls, keine In-Order-CPU ist effizienter als eine Out-of-Order CPU. MS macht bei der X360 noch viel durch den Compiler gut, sonst wäre die Ergebnisse der X360 unglaublich mies.
Um es nochmal mit AiLs worten zu sagen: You get what you pay for.

Und was meint Ihr was mit speziellen Optimierungen des Codes an eine C2D/C2Q bzw. Phenom an Leistungszuwachs möglich wäre.....momentan compiliert quasi jeder noch gegen 586-Standard (=Pentium 1), manchmal sogar nur gegen 386-Standard (als toll kann man es schon ansehen wenn SSE2 mit integriert wird (und damit meine ich nicht den compiler-switch, sondern echte low-level Programmierung von SSE2)).

Könntest Du da etwas genauer sein? Gerne auch per PN, Link oder Buchempfehlung :biggrin:.
Dem schließe ich mich an, da ich auch gerade vor dem Problem stehe das meine 5 Threads zuviel Overhead haben, die Aufgaben die diese erledigen aber eigentlich ziemlich klein sind.

LordDeath
2009-08-08, 02:13:08
Die 360 wurde 2004/05 entwickelt da gabs eine solche Desktop CPU mit dem Speed noch gar nicht.Und GTA 4 killt eine solche CPU die 360 Schafft noch 25-30fps je nach dem wie Modern die Engine ist die CPU deutlich schneller als ein 2Ghz Dual-Core mit Out-of-order.

Das sind aber zwei total unterschiedliche Szenarien. Steckt man einen C2D mit 2,1 Ghz in eine Konsole, wo sie kein voll funktionsfähiges PC Betriebssystem stemmen muss und somit die Software die Hardware viel direkter ansprechen darf, dann wirst du auch viel bessere Ergebnisse sehen, als mit der PC Version von GTA 4.

Demirug
2009-08-08, 08:28:09
Könntest Du da etwas genauer sein? Gerne auch per PN, Link oder Buchempfehlung :biggrin:.

Dem schließe ich mich an, da ich auch gerade vor dem Problem stehe das meine 5 Threads zuviel Overhead haben, die Aufgaben die diese erledigen aber eigentlich ziemlich klein sind.

Job Systeme sind sowas wie die Black Art der heutigen Engine Entwicklung. Ich wüsste jetzt nicht dass darüber schon jemand etwas Ausführlicheres geschrieben hat. Das könnte auch damit zusammen hängen das es im Detail wenn es an die Implementierung geht noch viele unterschiedliche Ansichten gibt.

Das Grunddesign sagt dabei das man pro Kern einen Thread hat welche die in einer oder mehreren Listen gespeicherten Jobs abarbeitet. Darauf folgen dann noch eine ganze Menge Regeln was das Job Design angeht. Daneben gibt es dann noch Erweiterungen des Grundsystems für blocking Jobs. Das sind zum Beispiel Jobs die auf Daten aus einer Datei oder Datenbank warten. Das führt hier aber jetzt alles zu weit und ist massiv Offtopic.

Armaq
2009-08-08, 09:02:00
Job Systeme sind sowas wie die Black Art der heutigen Engine Entwicklung. Ich wüsste jetzt nicht dass darüber schon jemand etwas Ausführlicheres geschrieben hat. Das könnte auch damit zusammen hängen das es im Detail wenn es an die Implementierung geht noch viele unterschiedliche Ansichten gibt.

Das Grunddesign sagt dabei das man pro Kern einen Thread hat welche die in einer oder mehreren Listen gespeicherten Jobs abarbeitet. Darauf folgen dann noch eine ganze Menge Regeln was das Job Design angeht. Daneben gibt es dann noch Erweiterungen des Grundsystems für blocking Jobs. Das sind zum Beispiel Jobs die auf Daten aus einer Datei oder Datenbank warten. Das führt hier aber jetzt alles zu weit und ist massiv Offtopic.
Aber allein aus der Differenzierung lässt sich schließen, dass Jobs abgehandelt werden und dann erstmal erledigt sind, bis sie wieder aufgerufen werden und eben dadurch ein wenig besser "durchlaufen" und das ist für Laien ja immer viel wert (vom Verständnis).

xxxgamerxxx
2009-08-08, 10:12:12
Ein Grund warum ich mir damals zum Release von GTA4 auf der X360 es nicht gekauft habe war der Grund das die HW der X360 das Game IMHO gar nicht packt.


Packt sie aber.


Und was meint Ihr was mit speziellen Optimierungen des Codes an eine C2D/C2Q bzw. Phenom an Leistungszuwachs möglich wäre.....


Du kaufst dir also HW wegen der theoretischen Rohleistung und nicht wie in der Praxis die SW darauf läuft? Theoretisch war die PC CPU Rohleistung zum XBOX 360 Release auch schon deutlich höher.


momentan compiliert quasi jeder noch gegen 586-Standard (=Pentium 1), manchmal sogar nur gegen 386-Standard (als toll kann man es schon ansehen wenn SSE2 mit integriert wird (und damit meine ich nicht den compiler-switch, sondern echte low-level Programmierung von SSE2)).


Du glaubst doch selbst nicht, dass sich das in absehbarer Zukunft ändern wird oder gar rückwirkend Patches erscheinen.

xxxgamerxxx
2009-08-08, 10:28:16
Job Systeme sind sowas wie die Black Art der heutigen Engine Entwicklung.


Wobei hier die Frage ist, wie man genau einen Job definiert. Job Kernel Objekte wird man damit wohl kaum meinen, da die ja eher eine Gruppe von Prozessen verwalten.


Ich wüsste jetzt nicht dass darüber schon jemand etwas Ausführlicheres geschrieben hat. Das könnte auch damit zusammen hängen das es im Detail wenn es an die Implementierung geht noch viele unterschiedliche Ansichten gibt.


Vielleicht nicht in der Spielebranche, aber das Prinzip wird letztendlich schon woanders verwenden, um letztendlich an dem Windows Scheduler "vorbeizuschedulen".


Das Grunddesign sagt dabei das man pro Kern einen Thread hat welche die in einer oder mehreren Listen gespeicherten Jobs abarbeitet.

Was man z.B. mit fibers realisiert.

Demirug
2009-08-08, 10:48:06
Wobei hier die Frage ist, wie man genau einen Job definiert. Job Kernel Objekte wird man damit wohl kaum meinen, da die ja eher eine Gruppe von Prozessen verwalten.

Jobs sind in sich geschlossene Arbeitseinheiten.

Vielleicht nicht in der Spielebranche, aber das Prinzip wird letztendlich schon woanders verwenden, um letztendlich an dem Windows Scheduler "vorbeizuschedulen".

Wobei ich dort einen klaren Trend zu Threadpools anstelle von Jobmanagern sehe.

Was man z.B. mit fibers realisiert.

Bei Spielen eher nicht da fibers nicht von jedem System unterstützt werden. Da Fibers zusätzlich auch noch einen eignen Stack brauchen ist der Overhead auch dort noch zu hoch.

Zudem sollen Jobs in der Regel nicht gezielt unterbrochen werden um sie später fortzusetzten. Man möchte das Jobs komplett durchlaufen und dann andere Jobs freigeben.

xxxgamerxxx
2009-08-08, 11:07:40
Zudem sollen Jobs in der Regel nicht gezielt unterbrochen werden um sie später fortzusetzten. Man möchte das Jobs komplett durchlaufen und dann andere Jobs freigeben.

Dann gibt es wohl spezielle Jobs in der Spieleengine, die für Synchronisationen zuständig sind?!

Demirug
2009-08-08, 11:27:29
Dann gibt es wohl spezielle Jobs in der Spieleengine, die für Synchronisationen zuständig sind?!

Das ist eine Option. In der Regel setzt man aber eher drauf das Jobs die Ausführung von anderen Jobs abhängig macht. So „meldet“ ein Job seine Ausführung an alle anderen Jobs die auf diesen warten. Sind alle Vorbedingungen erfüllt wird der Job zur Ausführung freigegeben. Dadurch ergibt sich ein sogenannter Jobtree. Dieser lässt sich gut visualisieren und man erkennt schnell die Stellen bei denen es potenziell zu wenige gleichzeitig ausführbare Jobs gibt.

deekey777
2009-08-16, 16:13:21
Ist in Rage bzw. iVm MT Displacement Mapping mit der Nutzung der Tessellation möglich? Bei der Xbox360 hätten wir das Problem mit dem Speicherplatz der DVDs (es sind 13 GB reiner Speicherplatz bei zwei DVD9, wenn ich mich nicht irre), Halo Wars zB nutzt die Tessellation des Xenos/C1. Bei der PS3 wäre es über den CELL möglich. Auf dem PC wäre dies aber ideal: Einmal hätten wir die aktuellen Radeons, für die Geforces gibt es mehrere Ideen, wie man Tessellation löst (Cuda?).

Demirug
2009-08-16, 16:44:12
Die Displacement map würde wohl mindestens nochmal 50% mehr Speicher beanspruchen. Und Speicher ist ja jetzt schon das große Problem.

deekey777
2009-08-16, 16:50:33
Aber man es geschafft hat, Doom 3 auf drei CDs auszuliefern, sollte es doch möglich sein, Rage für den PC/Mac auf 3 DVD9 auszuliefern?
Oder eine Spinnerei: Das Spiel kommt zusätzlich in einer Ultra-Version auf BD-50.

Es geht mir nur darum, ob das möglich wäre.

Demirug
2009-08-16, 16:53:13
Aber man es geschafft hat, Doom 3 auf drei CDs auszuliefern, sollte es doch möglich sein, Rage für den PC/Mac auf 3 DVD9 auszuliefern?
Oder eine Spinnerei: Das Spiel kommt zusätzlich in einer Ultra-Version auf BD-50.

Man wird aber kaum nur für die PC Version zusätzliche Displacement Maps erstellen.

Ansonsten können sie natürlich eine weniger stark komprimierte Version für den PC ausliefern.

Coda
2009-08-16, 17:18:32
Dann gibt es wohl spezielle Jobs in der Spieleengine, die für Synchronisationen zuständig sind?!
Schaut mal in meine Signatur. Ich habe auf Sourceforge bisschen Open Source dazu beigetragen ;)

_DrillSarge]I[
2009-08-16, 17:24:25
Aber man es geschafft hat, Doom 3 auf drei CDs auszuliefern, sollte es doch möglich sein, Rage für den PC/Mac auf 3 DVD9 auszuliefern?
klar ist das möglich. der pc hat, wie die xbox, auch das problem mit mangelndem speicherplatz auf den "zuliefermedien" (ausser man liefert das auf festplatte aus ;D). aber afaik muss man bei der xbox ja pro datenträger noch was an ms abdrücken (???).

Szenario21
2009-08-16, 19:06:40
Ich rechne mit einer fast vollen Singlelayer BD für die PS3 und 3DVDs für XBOX und PC. Zumindest hoffe ich das.
Das man pro zusätzlichem Datenträger was an MS abdrücken muss könnte dem natürlich im Wege stehen. Inwieweit ist das überhaupt gerechtfertigt?

LordDeath
2009-08-16, 20:32:40
Großes Problem der Xbox360 Spiele mit mehr als einer DVD ist doch, dass auf allen DVDs bestimmte Daten mehrfach vorliegen müssen. Das verringert den nutzbaren Speichergewinn pro DVD erheblich.
Auf PCs, wo alles zuerst auf der Festplatte zu einem großen Ganzen zusammengefügt wird, ist das erheblich einfacher.

Crazy_Chris
2009-08-16, 20:44:20
Oder eine Festplatteninstallation wird Pflicht.

LordDeath
2009-08-16, 20:50:14
Was aber alle Xbox 360 Arcade Besitzer aussperren würde. Gibt es denn schon Spiele, die eine HDD voraussetzen?

lumines
2009-08-16, 21:20:11
Nicht komplett, für bestimmte Funktionen aber auf jeden Fall (einige Spiele im Multiplayer).

Obwohl... FFIX setzt afaik eine HDD vorraus.

_DrillSarge]I[
2009-11-10, 23:07:25
über seine ganzen iphone-ausflüge in letzter zeit
http://venturebeat.com/2009/11/05/hell-returns-as-id-softwares-john-carmack-builds-doom-classic-for-the-iphone/

VB: How long did it take, and how many people worked on it?

JC: It was just me doing the code, and I Shanghaied one of the artists to do icons and things like that. The development all told is hard to estimate. I jumped around doing other things. It was maybe six weeks of serious work. The reason it took so long was because we tried to be good businesspeople and worked around other release dates. I kind of wish we hadn’t. I thought if we rushed it out after two months of Wolfenstein 3D Classic sales on the iPhone, then that might have been a better release time. But the scheduling just wasn’t right for me to put the last couple of days into it. It was only last month where we said we had to get it done and I spent two more days on it and then submitted it to Apple.

VB: Did you take any lessons from your earlier iPhone games like Doom Resurrection and apply it to this?

JC: There were certainly technical details like running in multiple threads. I got more skilled on the platform itself. We went back and forth on the music on Wolfenstein 3D Classic and Doom Classic. We wound up sharing some code back and forth on that. Most of the technical work was learning how the iPhone plays out relative to the underlying hardware. What are the system software and hardware issues? It’s a continuous process of experimenting with user-interface design. I started with the Wolfenstein 3D Classic interface but there are a few new wrinkles. I made positive steps, but a lot of people played Wolfenstein 3D Classic on the iPhone. So any changes I made to the interface really ticked some people off. If you spent 10 hours playing Wolfenstein 3D Classic, any change in the interface means it won’t feel right to you. So I regret I didn’t have the exact same interface.


VB: How does it work on the older iPhone and the newer iPhone 3GS model?

JC: It works fine on the older iPhone. The biggest performance glitch you have on this game is that the Apple system software handles multitouch really really poorly. Apple is aware of this now. The 3.1 iPhone system software made some improvements on it. But fully a third of the CPU time can be sucked up by the multitouch when you have two thumbs on the screen. It’s appallingly bad. They are making some steps to address that. A large chunk of the processing is completely out of my hands. A later release — I’m not sure when Apple has it scheduled — will have a direct, low-level interface into the touchscreen. That will make all of that wasted processing vanish. The bottom line is, the game plays great on every iPod Touch and iPhone ever made.

VB: Does it have better performance on the iPhone 3GS?

JC: No. There is no win on that. The other phones can still play the game at 30 frames per second. You never drop a frame on a 3GS. But there are no extra features. I am excited about doing a tech demo for the 3GS. I believe I can actually retarget some of the mega-texture content creation stuff that we are creating for the big id tech 5 games. I don’t know if I want to make a game out of it or if I want to throw it out there and say, gee, look at this. I am excited about playing with that technology when I get time on my hands.

VB: If you target the iPhone 3GS as a base platform, you could probably do something interesting.

JC: I think we could do the real Xbox Doom 3 game on a 3GS if we targeted it exclusively. That is pushing it a bit. You could probably get that kind of visual fidelity.

!

VB: How well have some of these games sold and, considering the time you put into them, is the trade-off pretty good and does it pay off?

JC: The classic games, where I don’t spend much time, are very lucrative. We have been very happy with Wolfenstein 3D Classic sales. Doom Resurrection was an experiment. It was the very first game that id Software funded completely out of pocket. We have always instead made publishers cough up money with a guarantee. We were doing it ourselves. We took money from our bank account and paid an outside development company. That was a bit of a gamble. It was before we saw the sales results from Wolfenstein 3D Classic. But it did earn out completely and had hundreds of thousands of dollars in profit and it is still earning revenue. We expect Doom Classic to be the biggest seller out of all of them. It’s the biggest intellectual property and has the biggest nostalgia factor. We have made more money in the traditional cell phone market, the Java/Brew market, where we have sold a few million units. But developing on those is so much less fun. You have to cram everything into these ridiculously small memory limits and worry about compatibility across 300 handsets. We are in the process of winding down our traditional cell phone development in favor of iPhone development.

mapel110
2011-05-14, 01:11:45
http://www.pcgamer.com/2011/05/11/id-softwares-john-carmack-picks-a-side-in-the-nvidiaamd-gpu-war/
Let me caution this by saying that this is not necessarily a benchmarked result. We’ve had closer relationships with Nvidia over the years, and my systems have had Nvidia cards in them for generations. We have more personal ties with Nvidia. As I understand it, ATI/AMD cards are winning a lot of the benchmarks right now for when you straight-out make synthetic benchmarks for things like that, but our games do get more hands-on polish time on the Nvidia side of things.

Any of the add-in cards from AMD or Nvidia are all insanely powerful.

To some degree, it seems almost inevitable where the world of multi-hundred-dollar add-in cards are doing something that’s being done pretty well by an on-die chip. Not right now, maybe not next year, but it’s hard to imagine a world five years from now where you don’t have competent graphics on every CPU die.

Alles in allem nichts überraschendes, was der Herr von sich gibt.

Leonidas
2011-05-14, 13:57:16
"competent graphics" ist eine hervorragende Formulierung - hervorragend in der Form, als daß sie Hoffnung auf viel zu machen scheint, letztlich aber nur Standard verspricht.

Ich sehe nicht, wie integrierte Grafik auch in 5J der extra Grafik nahe kommen sollte. Ich habe eher die Befürchtung, daß AMD mit Llano mittelprächtig anfängt, um dann groß nachzulassen.

Nächstes Problem integrierter Grafik: Eine gute CPU benutzt man auch schon einmal 3J, heutzutage eher länger als kürzer. Aus CPU-Sicht kein Ding, die integrierte LowCost-Grafik ist in 3J aber natürlich ein Witz. Ich glaub fast, gerade Intel sieht integrierte Grafik als ein Mittel an, um die Konsumenten zum schnelleren CPU-Wechsel zu bewegen.

LovesuckZ
2011-05-14, 14:41:01
Ich sehe nicht, wie integrierte Grafik auch in 5J der extra Grafik nahe kommen sollte. Ich habe eher die Befürchtung, daß AMD mit Llano mittelprächtig anfängt, um dann groß nachzulassen.


"Mittelprächtig"? Auch LIano ist nichts weiteres als Low-End. Betrachtet man die Tatsache, dass nVidia vor einem Jahr mit dem MCP89 und einem 48/16TMU IGP auf dem Markt kam, ist der Leistungssprung von 320m auf LIano nur die natürliche Steigerung.

G.A.S.T.
2011-05-14, 14:47:28
"competent graphics" ist eine hervorragende Formulierung - hervorragend in der Form, als daß sie Hoffnung auf viel zu machen scheint, letztlich aber nur Standard verspricht.

Ich sehe nicht, wie integrierte Grafik auch in 5J der extra Grafik nahe kommen sollte. Ich habe eher die Befürchtung, daß AMD mit Llano mittelprächtig anfängt, um dann groß nachzulassen.

Nächstes Problem integrierter Grafik: Eine gute CPU benutzt man auch schon einmal 3J, heutzutage eher länger als kürzer. Aus CPU-Sicht kein Ding, die integrierte LowCost-Grafik ist in 3J aber natürlich ein Witz. Ich glaub fast, gerade Intel sieht integrierte Grafik als ein Mittel an, um die Konsumenten zum schnelleren CPU-Wechsel zu bewegen.
Deine Befürchtung ist natürlich absolut gerechtfertigt.
Im Grunde genommen wäre es aber schon möglich, mit der extra Grafik zu konkurrieren, wenn auch nicht grade mit dem High-End.

Man müsste natürlich APUs anbieten, mit sehr starkem Grafik-Teil und genügend embedded RAM.
Dann würde die Grafik auch in 3 Jahren noch reichen.

Was Hardware-Anforderungen bei Spielen angeht ist mMn meist eh eine zu schwache CPU das Problem

Tigerchen
2011-05-14, 14:53:11
"competent graphics" ist eine hervorragende Formulierung - hervorragend in der Form, als daß sie Hoffnung auf viel zu machen scheint, letztlich aber nur Standard verspricht.

Ich sehe nicht, wie integrierte Grafik auch in 5J der extra Grafik nahe kommen sollte. Ich habe eher die Befürchtung, daß AMD mit Llano mittelprächtig anfängt, um dann groß nachzulassen.

Nächstes Problem integrierter Grafik: Eine gute CPU benutzt man auch schon einmal 3J, heutzutage eher länger als kürzer. Aus CPU-Sicht kein Ding, die integrierte LowCost-Grafik ist in 3J aber natürlich ein Witz. Ich glaub fast, gerade Intel sieht integrierte Grafik als ein Mittel an, um die Konsumenten zum schnelleren CPU-Wechsel zu bewegen.
Ne. Der integrierten Grafik gehört die Zukunft. Um aktuelle Grafikkarten auszunutzen mußt heute schon exorbitante Auflösungen nutzen. Es sieht aber so aus als ob bei der 1920x1080 Auflösung der Punkt erreicht ist wo die Masse der Kundschaft keinen Bedarf mehr an noch mehr Auflösung hat. Die Ansprüche der Spiele steigen auch kaum noch. Es wird kommen wie bei der CD-ROM. Eine Zeitlang mußte alle 18 Monate eine neue CD-ROM gekauft werden weil die 2x oder 4x Geschwindgkeit einen in den Wahnsinn trieb. Aber irgendwann waren die CD`s schnell genug. Und irgendwann waren auch die Festplatten groß genug. Heute wird nur noch ganz kleines Geld für diese Ex-HighTech Produkte gezahlt. Das wird den Grafikkarten ähnlich gehen. Nur eben das die Grafik gleich ganz mit integriert wird.

Die Pionierzeit geht zu Ende. Computertechnik im Speziellen wird so profan daß immer weniger bei neuesten Entwicklungen mitfiebern. Kannst ja auch in den Technikforen sehen. Die großen Glaubenskriege mit aufregenden Benchmarks und die Aufregungen über technische Spitzfindigkeiten sind Schnee von Gestern.

LovesuckZ
2011-05-14, 14:57:59
Ne. Der integrierten Grafik gehört die Zukunft. Um aktuelle Grafikkarten auszunutzen mußt heute schon exorbitante Auflösungen nutzen. Es sieht aber so aus als ob bei der 1920x1080 Auflösung der Punkt erreicht ist wo die Masse der Kundschaft keinen Bedarf mehr an noch mehr Auflösung hat.

Sollte man sich nicht erstmal erkundigen, welche Leistung HD3000 und 320m haben, bevor man solche Aussagen trifft? Die HD3000 ist langsamer als eine GT520 und 6450. Die GT520 hat das Leistungsniveau von High-End von vor 5 Jahren oder so. Und wenn diese Karte schon schneller ist als die HD3000, dann müsste die Leistung im iGPU-Bereich pro Jahr sich verdreifachen, um überhaupt eine Auswirkung zu haben.

PatkIllA
2011-05-14, 15:19:10
Was sind denn exorbitante Auflösungen?
Die übliche Pixeldichte von Monitoren ist immer noch ein schlechter Scherz. Die Stagnation liegt ja vor allem an den Konsolen. Und bei der Qualität ist noch soviel Luft nach oben. Da muss man sich nur mal die besseren Rendertrailer oder was in Filmen üblich ist anzusehen.
Selbst so natürliche Dinge wie Gräser und Bäume sehen derzeit gelinde gesagt absolut schäbig aus. Und sowas ließe sich noch ganz gut automatisiert erzeugen.

Das CD-ROM Wettrüsten ist dagegen an mir vorbeigegangen. Da wurde halt beim nächsten Rechner oder wenn es kaputt war was aktuelles mitgekauft.

RLZ
2011-05-14, 15:27:54
Ne. Der integrierten Grafik gehört die Zukunft. Um aktuelle Grafikkarten auszunutzen mußt heute schon exorbitante Auflösungen nutzen. Es sieht aber so aus als ob bei der 1920x1080 Auflösung der Punkt erreicht ist wo die Masse der Kundschaft keinen Bedarf mehr an noch mehr Auflösung hat.
Samsung kündigt für Ende des Jahres 10 Zoll Tablet Panels mit 2560x1600 (http://www.engadget.com/2011/05/13/samsung-and-lg-to-showcase-large-high-pixel-density-lcd-panels/) an und du beschwörst die Stagnation der Auflösung am Desktop herauf?

Imo werden wir auch weiterhin steigende Bildschirmgrößen und Auflösungen sehen. Die Masse der Kundschaft sah noch nie Bedarf an Fortschritt, nimmt ihn aber gerne in Kauf.

Tigerchen
2011-05-14, 17:58:25
Jawohl. Das sehe ich so. Das Steckkartenprinzip wird aussterben. Es steht jedem frei das anders zu sehen.

Avalox
2011-05-14, 21:39:28
Samsung kündigt für Ende des Jahres 10 Zoll Tablet Panels mit 2560x1600 (http://www.engadget.com/2011/05/13/samsung-and-lg-to-showcase-large-high-pixel-density-lcd-panels/) an und du beschwörst die Stagnation der Auflösung am Desktop herauf?


Eben der stationäre PC Markt schrumpft. Die mobilen und die stationären spezialisierten PC Nachfolger sind die interessanten wachsenden Märkte.
Spielt es denn nun für ein Upgrade eine Rolle, ob die GPU in der CPU, auf dem nicht standardisierten Mainboard separat aber fest verlötet oder in einem SoC steckt? Diese modernen Geräte werden alle komplett in die Tonne geworfen und mit etwas neuen ersetzt, wenn es irgendwo nicht mehr reicht.

Windi
2011-05-14, 23:22:30
Imo werden wir auch weiterhin steigende Bildschirmgrößen und Auflösungen sehen. Die Masse der Kundschaft sah noch nie Bedarf an Fortschritt, nimmt ihn aber gerne in Kauf.
Irgend wie habe ich das anders mitbekommen.
Früher haben sich alle den neusten ALDI-PC gekauft. Die waren damals immer einigermaßen auf der Höhe der Zeit.
Dann wurden die ALDI-PCs langsamer und immer mehr stiegen auf Notebooks um, die natürlich nicht dieselbe Leistung wie ein gleich teures Desktop-System liefern.
Und seit einiger Zeit kaufen die Leute immer mehr Netbooks und Tablet-PCs, die noch nicht einmal die Leistung des 5 Jahre alten Vorgänger Notebooks erreichen.

mapel110
2011-08-14, 03:52:13
http://www.pcper.com/reviews/Editorial/John-Carmack-Interview-GPU-Race-Intel-Graphics-Ray-Tracing-Voxels-and-more
Langes Video-Interview mit JC über diverse Themen.

ROXY
2011-08-21, 17:59:44
Nächstes Problem integrierter Grafik: Eine gute CPU benutzt man auch schon einmal 3J, heutzutage eher länger als kürzer. Aus CPU-Sicht kein Ding, die integrierte LowCost-Grafik ist in 3J aber natürlich ein Witz. Ich glaub fast, gerade Intel sieht integrierte Grafik als ein Mittel an, um die Konsumenten zum schnelleren CPU-Wechsel zu bewegen.

die integrierte cpu grafik ist bei notebooks sinnvoll - aber am desktop oder im htpc keineswegs.

jede NV/ATI karte 5770 - 550ti ... 80-100€ ist um welten besser und verbraucht im idle "nur" ~30 watt.

nvidia hat nun auch mit den neuen treibern die adobe gpu unterstützung verfeinert.
adobe hat auch für premiere cuda support.


ich bekomm quasi für 100€ eine desktop GPU die im gegensatz zur integrierten cpu/gpu richtig abgeht - und 100€ sind nicht viel.

ich sehe den pc im aufschwung im hochpreisigen segment in einem anderen formfaktor als multimediazentrale im wohnzimmer.
spiele, archivierung, bildbearbeitung, dvd wiedergabe, schnittstelle, internet etc. etc. etc.


mit dem intel hd 3000 kann man doch nicht viel anfangen ... der sinn ist fragwürdig.
für spiele langt es nicht wirklich und für den desktop ist es zu overpowerd.
also ein mittelding .. weder für das eine / noch das andere optimal.

=Floi=
2011-08-21, 23:26:30
die verbrauchen im idle nicht mal die hälfte:
http://ht4u.net/reviews/2011/evga_geforce_gtx_550ti_oc_test/index11.php

100€ sind 100€

die 550er ist aber ein schlechtes beispiel. da hatte nv kein so gutes händchen, weil man mit der brechstange den takt erhöhte.
---
ich sehe als 3dcenter user natürlich eine gute gpu als nötig an und für das gebotene ist eine 560er oder 570er sicherlich sehr gut. ich bin auch bereit dafür geld auszugeben, aber viele normale user nicht und für viele reicht eine aktuelle IGP. noch heftiger wird es ja bei amd, welche schon gute leistung verbauen und zusätzlich noch auf ihren treiber setzen können.

Konami
2011-08-22, 02:20:32
http://www.pcper.com/reviews/Editorial/John-Carmack-Interview-GPU-Race-Intel-Graphics-Ray-Tracing-Voxels-and-more
Langes Video-Interview mit JC über diverse Themen.
Nerdgasm! Danke für den Link. :D

ROXY
2011-08-22, 09:46:21
die 550er ist aber ein schlechtes beispiel. da hatte nv kein so gutes händchen, weil man mit der brechstange den takt erhöhte.

und wo liegt das problem? gerade die 550 ti kann man ohne probleme sehr hoch takten (core) (wobei es nicht so viel sinn ergibt .. 192 shader bleiben 192 shader)

der einzige nachteil der 550ti war der anfangs zu hohe preis von 150€
mitlerweile kostet das ding ~110€ und ist somit gleichzustellen mit der 5770
ob man sich nun für die eine oder andere entscheidet ist eine treiber/future/hersteller-frage

brauchbare 5770 > Club 3D Radeon HD 5770 ~110€
brauchbare 550ti > EVGA GeForce GTX 550 Ti FPB ~110€




ps.: die 460 GTX wäre natürlich besser, jedoch gab es den preisrutsch erst vor kurzen und eine brauchbare kostet weiterhin ~150€

deekey777
2011-08-22, 10:48:52
Was hat diese Diskussion mit dem Thema zu tun?

deekey777
2016-02-18, 14:52:02
Kriege ich die goldene Schaufel für das Ausgraben des Threads?

http://gamegpu.com/action-/-fps-/-tps/doom-alpha-test-gpu.html

Die Russen meinen, dass in Doom, was auf id tech 6 basiert, Sparse Voxel Octree (SVO) eingesetzt wird. Die Levelgeometrie sei voxelbasiert und damit statisch. Die auf Raycasting basierte Beleuchtung sei somit ebenfalls statisch. Alles, was dynamisch ist (Charaktere zB) ist polygonenbasiert, dynamisch und wird dynamisch beleuchtet. Hinzu kommt deutlich verbesserte MegaTexture-Technologie.

Ich weiß nicht, wie viel davon stimmt.

Chris Lux
2016-02-18, 15:12:38
Jap, mit Sicherheit und dann mit 60Hz auf einer Konsole.

Lord_X
2016-02-18, 15:22:49
Sitzen jetzt nicht alle CryEngine Entwickler bei ID? Ah stimmt ein paar sind noch bei Star Citizen untergekommen.

=Floi=
2016-02-18, 16:31:00
AA High = FXAA + TSAA j
a sicher, was für ein shit.

samm
2016-02-18, 17:16:22
Die Levelgeometrie sei voxelbasiert und damit statisch.Merkwürdige Implikation.

Atma
2016-02-18, 21:23:17
Hatte einer der Entwickler nicht mal gesagt, dass MegaTexture in id Tech 6 gestrichen wurde?

N0Thing
2016-02-18, 22:26:52
Habe ich auch so in Erinnerung. Vielleicht steckte der nicht so tief in der Entwicklung der Engine mit drin, oder MegaTexture in id Tech 6 funktioniert deutlich anders als zuvor.

deekey777
2016-02-19, 13:03:47
Jap, mit Sicherheit und dann mit 60Hz auf einer Konsole.
Ich hatte auch in der Erinnerung, dass die angekündigten Neuerungen (SVO inbesondere) aus der id tech 6 rausgeflogen sind.

Gestern habe ich die russische Wiki-Seite zu id tech 6 angeschaut und es sieht so aus, dass der Autor des Tests einfach die - veralteten - Infos aus Wiki übernommen hat.

Ich find's schade, wenn die id tech 6 erleichtert worden ist, was nicht überraschend wäre.

Chris Lux
2016-02-19, 13:15:51
Ich kann mir eher vorstellen, dass man nach dem Abgang von Carmack erstmal reinen Tisch gemacht hat und in idTech6 vieles neu ist. Der Renderer sieht sehr danach aus, und insgeheim hoffe ich, dass MegaTexture raus ist. Das hat in der Art leider nicht gut funktioniert.

Edit: Zum neuen Renderer: https://twitter.com/idSoftwareTiago/status/611952196578467840

Rooter
2016-02-21, 15:25:09
und insgeheim hoffe ich, dass MegaTexture raus ist. Das hat in der Art leider nicht gut funktioniert.+1 , ich finde nach wie vor, dass diese Technik für den getriebenen Aufwand viel zu wenig optischen Vorteil bringt, an der Grenze zu gar keinem. In anderen Spiele ärgere ich mich ja auch nicht über sich ständig wiederholende Texturen -- sofern fähige Designer dran saßen, versteht sich.

MfG
Rooter

Timbaloo
2016-02-21, 15:41:40
+1 , ich finde nach wie vor, dass diese Technik für den getriebenen Aufwand viel zu wenig optischen Vorteil bringt, an der Grenze zu gar keinem.
Ich weiss nicht ob Megatexture primär zum Ziel hatte die Optik zu verbessern, als eher das Erstellen des Contents zu erleichtern.

del_4901
2016-02-21, 18:10:58
Ich bin ein grosser Fan von Megatexture.

aufkrawall
2016-02-21, 18:23:09
Wenn es auf der GDC nichts zu MT zu hören gibt, würd ichs bis zum Ende der Gen erstmal abschreiben.

=Floi=
2016-02-21, 19:25:02
Ich bin ein grosser Fan von Megatexture.

was hat dir als entwickler daran so gut gefallen?

aufkrawall
2016-02-21, 19:25:50
Gibts in Frostbite seit BF3 fürs Terrain.

deekey777
2016-05-19, 10:59:23
https://twitter.com/idSoftwareTiago/status/733181294536843264

Geek trivia: idTech 6 is an Hybrid Forward & Deferred renderer

Noch etwas Balla-Balla: https://youtu.be/la0O0SyM3gg

deekey777
2016-07-19, 16:04:19
Was von id tech 6 übrig blieb:
http://www.eurogamer.net/articles/digitalfoundry-2016-doom-tech-interview

Foobar2001
2016-07-19, 21:32:20
Der Artikel geht ueberhaupt nicht darauf ein "was uebrig blieb"?

Jupiter
2016-07-19, 23:12:08
Es blieb sehr wenig übrig. Die Engine wurde offenbar von Grund aus in sehr kurzer Zeit selbst geschrieben.
Das muss ein anderes Team erst einmal in der kurzen Zeit schaffen. Dennoch finde ich Battlefront am PC viel beeindruckender. DICE wird womöglich auch weitaus mehr Ressourcen haben.

KiBa
2016-07-20, 01:18:55
Wo lest ihr da raus, wieviel neu geschrieben wurde? Zumindest MegaTexture blieb erhalten, wenn auch wohl modifiziert.

deekey777
2016-07-20, 09:58:05
Dieser Thread begann mit diesem Artikel: http://www.pcper.com/reviews/Graphics-Cards/John-Carmack-id-Tech-6-Ray-Tracing-Consoles-Physics-and-more

Carmack schildert darin die Zukunft der id tech, davon ist in der id tech 6 nichts zu finden, zumindest das meiste nicht. Auch war das nicht ganz ernst gemeint.


id Software on OpenGL versus DirectX 11 and on why it chose Vulkan over DirectX 12 (http://www.dsogaming.com/news/id-software-on-opengl-versus-directx-11-and-on-why-it-chose-vulkan-over-directx-12/)

A couple of weeks ago, we had the pleasure of interviewing id Software’s Tiago Sousa and Axel Gneiting. And as you may have guessed, we asked the team about the advantages of OpenGL over DX11 (and vise versa) and why it chose Vulkan over DX12.

Who the f**k is Axel Gneiting? ;D Wusste gar nicht, dass er bei id software gelandet ist.

RLZ
2016-07-20, 12:12:10
Carmack schildert darin die Zukunft der id tech, davon ist in der id tech 6 nichts zu finden, zumindest das meiste nicht. Auch war das nicht ganz ernst gemeint.
Carmack war ja nach dem ersten Prototyping schon vor Jahr zurück gerudert. Sowas passiert halt, wenn man über den aktuellen State-of-the-Art hinausgeht. Man hat Idee/Vision, testet sie und oft heißt es halt "Gehe zurück auf Los".

deekey777
2016-07-23, 20:15:25
Jetzt das ganze Interview: http://www.dsogaming.com/interviews/id-software-tech-interview-dx12-vulkan-mega-textures-pbr-global-illumination-more/

nalye
2016-07-24, 18:07:27
Topic, bitte. Danke

deekey777
2016-09-15, 21:51:13
Lesestoff: http://www.adriancourreges.com/blog/2016/09/09/doom-2016-graphics-study/