PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : interessantes Videointerview mit Tim Sweeney


Gast
2006-05-12, 23:45:24
es dreht sich um die Zukunft der Games,Aussagen zu AM2,Conroe usw

wer Tim nicht kennt er ist einer der besten Programmierer in der Spielebranche.

solltet ihr euch mal antun

http://www.nvnews.net/vbulletin/showthread.php?t=70056


hier mal ein Ausschnitt

Gpus ("graphics accelerators") will be a thing of the past. a temporary solution .in about 10 years. CPus and software rendering will be the future . DIrectx's will be seen as outdated technology in the future ,because CPUS will be strong enough in the future to handle everything in game including realistic photon lighting like CG movies use today. UNless ATi/Nvidia start to move to general computing CPus those companies will need to do business somewhere else than games. because multiple processors technology is now possible financially speaking to be used for games.. (it have been used for CG for movies in more than 20years by companies with lot of cash). Once better programming is invented to handle multi-core cpus ,GPus will be less and less significant in game graphics like they are today.
-------------------------------------------------------------------

Sweeney- Haha, well thats hard to say, I don't know much about AM2, but Conroe is a really fantastic chip. The funny thing is very few people in the industry have been willing to come out and say that the Pentium 4 architecture sucks. It sucked all along. Even at the height of it's sucking, when it was running at 3.6GHz and not performing as well as a 2GHz AMD64... People were reluctant to say it sucked... so IT SUCKS! But Conroe really makes up for that and I am really happy to see that, that Intel is back on this track of extremely high computing performance at reasonable clockrates. Not having to scale up to these extremely hot running systems that require alot of cooling. I think they are on a good track there and if they scale the conroe architecture up to four and eight cores in the future, then that will put the industry on a really good track for improving performance dramatically at a faster rate than we have seen in the past.

Monger
2006-05-13, 00:38:12
Wer Tim wirklich nicht kennt: Tim Sweeney ist neben Cliff Bleszinsky und Mark Rein quasi das Urgestein der Unreal-Reihe.


Ganz interessant fand ich seine Aussage zu Megatexturing, vorallem weil sie so extrem simpel ist. Vom Blick des Designers aus ist es nunmal ziemlich ineffizient, die gesamte Welt von Hand zu malen ;)

Rente
2006-05-13, 00:47:39
Naja, ich hallte es schon für ziemlich unrealistisch ( :biggrin: ), dass es in 10 Jahren keine Grafikkarten mehr geben soll, weil die CPU so leistungsfähig sind. Momentan sind Grafikkarten doch noch locker 50-100 mal leistungsfähiger als CPUs wenn es um die Berechnung von Grafik geht und warum sollten sich die Grafikkarten in den nächsten 10 Jahren nicht auch deutlich weiter entwickeln.

photon lighting
Na viel Spaß, das wird und darauf verwette ich meinen Arsch in 10 Jahren nicht in Realtime möglich sein, zumindesten nicht physikalisch korekkt, höchstens plausibel.

Gmax
2006-05-13, 01:32:27
Sweeny hat ja mal in einem Interview ziemlich über die CryEngine abgeläßtert, und gemeint, der einzig schöne Effekt wäre das Wasser in FarCry und man solle das doch mal mit der kommenden Unreal Engine 07 vergleichen...
Und das zu einen Zeitpunkt, als die UT2004 raus kam :D
Ich schätze mal, er wird sich vor Crysis auch ein bischen fürchten.
Meines Erachtens plappert der viel Unsinn...

dildo4u
2006-05-13, 01:42:00
Gmax[/POST]']Sweeny hat ja mal in einem Interview ziemlich über die CryEngine abgeläßtert, und gemeint, der einzig schöne Effekt wäre das Wasser in FarCry und man solle das doch mal mit der kommenden Unreal Engine 07 vergleichen...
Und das zu einen Zeitpunkt, als die UT2004 raus kam :D
Ich schätze mal, er wird sich vor Crysis auch ein bischen fürchten.
Meines Erachtens plappert der viel Unsinn...Naja zumindest gibts ca 40 Games die die UE3 nutzen und kein einziges was die Farcry Engine nutzt.Ist zwar schade aber da ID leicht schwächelt wird die UE3 die nästen 3 Jahre herrschen.

http://wiki.beyondunreal.com/wiki/Unreal_Engine_Versions

Announced Games
[Gears of War] - [Epic Games]
[Unreal Tournament 2007] - [Epic Games]
Huxley(MMOFPS) and Endless Saga and Webzen's other next generation projects - [Webzen]
[Mass Effect] - [BioWare]
America's Army v3.0 - [US Army]
America's Army : Real Heroes(Xbox 360 and PS3) - [US Army]
Midway's next generation projects - [Midway]
StangleHold - [Midway]
Tom Clancy's Rainbow Six : Vegas - [Ubi Montreal]
RoboHorde(RoboBlitz) - [Naked Sky Entertainment]
Section 8 - [Timegate Studios]
Project New Jersey - [Obsidian Entertainment]
Hirez's Studios's new project(MMOG) - [Hirez Studios]
Microsoft Game Studios's next generation projects - [Microsoft Game Studios]
Frame City Killer and Namco's next generation projects - [Namco]
Lineage 3(Korean MMORPG) and NC Soft's other next generation projects - [NC Soft]
Too Human - [Slicon Knights]
Acony's new project(MMOFPS) - [Acony]
Brothers in Arms 3 and Gearsbox Software's other next generation projects - [Gearbox Software]
Mad Dog's new projects - [Mad Dog]
Vivendi Universal Games's next generation projects - [Vivendi Universal Games]
Lucky Chicken Games's next generation projects - [Lucky Chicken Games]
Lost Odyssey - [Mist Walker]
Tripwire Interactive's new project - [Tripwire Interactive]
Tom Clancy's Splinter Cell 5 and Ubi's next generation projects - [Ubi Montreal]
Elveon - [10Tacle]
Zombie Studios's new project -[Zombie Studios]
Majesco Games's next generation projects - [Marjesco Games]
GlyphX's next generation titles - [GlyphX]
Assassin's Creed - [Ubi Soft]
Tom Clancy's Rainbow Six : Vegas - [Ubi Montreal]
Tom Clancy's Rainbow Six 5 - [Ubi Montreal]
2015's new project - [2015]
Vanguard(SOH) : second expansion - [Sigil Games Online]
Tom Clancy's Firehawk - [Ubi Soft]
Marble Comics Online - [Sigil Games Online]
Indiana Jones - [LucasArts]
Streamline Studios's next generation projects - [Streamline Studios]
All Point Bulletin and Real Time Worlds's next generation projects - [Real Time Worlds]
Magna Carta 2(Xbox 360 RPG) and Soft Max's other next generation projects - [Soft Max]
Buena Vista Games next generation projects - [Buena Vista Games]
Spark Unlimited's new project - [Spark Unlimited]
Atari's next generation projects - [Atari]
Trilogy's next generation projects - [Trilogy]
Project IM - [Zero Point Software]
Perception's next generation project - [Perception]
Spellborn International's new project - [Spellborn International]
Surreal Software's next generation projects - [Surreal Software]
inXile Entertainment's next generation projects - [inXile Entertatinment]
High Moon Studios's next generation projects - [High Moon Studios]
Ensemble Studios's next generation project - [Ensenble Studios]
Cranky Pants Games's next generation projects - [Cranky Pants Games]
RockSteady Studios's next generation projects - [RockSteady Studios]
Swat 5 - [VUG]
Vision Studios's next generation projects - [Vision Studios]
Wolfpack Studios's next generation MMO gmae project - [Wolfpack Studios]
Mind Control Software's next generation projects - [Mind Control Software]
Eidos Interactive's next generation projects - [Eidos Interactive]
Sony Computer Entertainment's next generation projects - [Sony Computer Entertainment]
Stranglehold and Tiger Hill Entertainement's next generation projects - [Tiger Hill Entertainment]
THQ's next generation projects - [THQ]

Die gelbe Eule
2006-05-13, 01:48:07
Man muss sich nicht vor etwas fürchten, das noch keinen Releasetermin hat. Crytek hat sich nicht gerade mit Ruhm bekleckert, was Ihre Engine anging.

Siehe nur E3:

MS setzt auf Connectivität
Nintendo auf Interaktion, das wirkliche "be part of the game"
Sony hat eine Mischung aus allem und will das bestmögliche anbieten, war eher Kampfansage

Der PC muss dann schauen, wie er das alles unter einen Hut bekommt, damit der normale Spieler auch finanziell mithalten kann.

anorakker
2006-05-13, 03:38:33
ich halte das für ziemlichen schwachsinn, was der da erzählt. raytracing gibt es schon so lange, wie es computer gibt, wirklich leistungs- und konkurrenzfähige lösungen wird es aber auch kaum in 10 jahren geben. alleine an den heutigen gpu-evolutionen lässt sich erahnen, dass diese technik noch immer munter weiter nach oben skalieren wird.
man kriegt ja heutzutage noch nichteinmal ein "unreal" in raytracing auf aktueller hardware in gleicher qualität hin, wie es die 10jahre alte 3d-hardware damals hinbekommen hat.

und seine plötzliche erkenntnis, dass der p4 eine fehlentwicklung war, ist auch mehr als verwunderlich, der conroe ist ein aufgemotzter pentium-m aus der p3 vergangenheit und wird ebenso wie amd entwicklungen nur sehr langsam weitere ghz berge erklimmen....

multicore muss erst noch beweisen, dass es mehr als das übliche marketinggewäsch ist. die proz-hersteller müssen verkaufen, wenn das "hertz-argument" ausgeht, wird halt etwas anderes genommen, völlig unabhängig davon, ob es wirklich etwas bringt.

S3NS3
2006-05-13, 09:04:33
Glaub auch kaum das in 10 Jahren nur noch CPUs die Grafik rendern.

Wobei man sagen muss das in 10 Jahren aber eine gigantisch höhere Rechenleistung als heute in den PCs vorhanden ist. Und wenn man nicht gerade die Maxwellrender-Engine (www.maxwellrender.com) in ein Game einbaut sondern was sehr optimiertes ist bis dahin mit SICHERHEIT GlobalIllumination/Radiosity möglich. 100%. Ich denke sogar einiges früher in angenäherter berechnung auf GPUs.

Auf jeden fall wird sich einiges tun und das ist doch mal was ;)

Coda
2006-05-13, 10:32:13
Die Aussage ist zwar etwas arg spekulativ aber nicht unbedingt unwahrscheinlich. Die GPUs gehen immer mehr in Richtung general purpose und die Prozessoren umgekehrt in Richtung Streamprozessoren. Irgendwo in der Mitte sollte sich das treffen.

Demirug
2006-05-13, 10:44:05
Coda[/POST]']Die Aussage ist zwar etwas arg spekulativ aber nicht unbedingt unwahrscheinlich. Die GPUs gehen immer mehr in Richtung general purpose und die Prozessoren umgekehrt in Richtung Streamprozessoren. Irgendwo in der Mitte sollte sich das treffen.

Das mit den 10 Jahren hat Sweeney vor einiger Zeit ja schon mal aufgeführt. Scheint irgendwie ein gleitendes Fenster bei ihm zu sein.

Noch gibt es in den GPUs zu viele fixed functions als das die CPUs da eine echte Gefahr darstellen. Im Low End bereich könnte ich mir aber durchaus vorstellen das wir irgendwann wieder Softwarerenderer sehen.

Anorakker@Gast
2006-05-13, 11:14:00
wäre es eigentlich mal möglich tatsächlich annähernd einen vergleich von raytracing und den heutzutage üblichen renderverfahren zu machen, hinsichtlich der performance ? wieviel speicher/ops braucht man für vergleichbare szenen, wie "teuer" sind hohe auflösungen, hohe polygonzahlen bzw. bildfilter ala antialiasing? gibt es ähnlich einfache methoden zur effektberechnung wie die heutigen shader es ermöglichen ?

Coda
2006-05-13, 11:21:22
Ich sags evtl. zum 10. Mal aber das Problem mit Raytracing ist, dass man große Probleme mit dynamischer Geometry hat, weil man alles in nem Scenetree halten muss in HW damit der Tracer effizient arbeiten kann.

Demirug[/POST]']Das mit den 10 Jahren hat Sweeney vor einiger Zeit ja schon mal aufgeführt. Scheint irgendwie ein gleitendes Fenster bei ihm zu sein.
Auf die 10 Jahre würde ich mich auch nicht festnageln lassen, aber die Möglichkeit dazu ist doch durchaus da.

The funny thing is very few people in the industry have been willing to come out and say that the Pentium 4 architecture sucks. It sucked all along. Even at the height of it's sucking, when it was running at 3.6GHz and not performing as well as a 2GHz AMD64... People were reluctant to say it sucked... so IT SUCKS!
Wie wahr, wie wahr...

Monger
2006-05-13, 15:32:05
anorakker[/POST]']ich halte das für ziemlichen schwachsinn, was der da erzählt. raytracing gibt es schon so lange, wie es computer gibt, wirklich leistungs- und konkurrenzfähige lösungen wird es aber auch kaum in 10 jahren geben. alleine an den heutigen gpu-evolutionen lässt sich erahnen, dass diese technik noch immer munter weiter nach oben skalieren wird.

Dass Raytracing kommt, halte ich inzwischen für denkbar. Was ich aber nicht glaube ist, dass die GPU überflüssig werden wird. Klar werden die Grenzen mehr und mehr verschwimmen, und irgendwann wird man Shadercode sicherlich in Hochsprache formulieren...

Aber Grafik wird immer ein extrem rechenaufwendiger Prozess bleiben, den man am besten durch Parallelisierung auflöst. Auch wenn wir jetzt Multicore Lösungen bekommen, wäre die CPU für solch eine Aufgabe immer noch viel zu unwirtschaftlich ausgelastet.

Ich könnte mir aber vorstellen, dass man künftig Multicore Lösungen mit spezialisierten GPU Kernen bekommt, oder Steckkarten die sowohl das eine als auch das andere können. Aber ich bin überzeugt davon, dass für so unterschiedliche Aufgaben immer noch spezialisierte Hardware die bessere Wahl ist.

S3NS3
2006-05-13, 15:37:08
Ja auf jedenfall. Wenn wirklich Raytracing+GI ingame zu sehen sein soll (dabei ja dann nicht mit dem heutigem Ingamedetail sondern viel mehr) müssten normale CPUs erstmal geschätzt minimal 100 mal schneller sein das nebenbei zu schaffen. Eine optimierte Programmierung der Engine vorrausgesetzt.
Aber 10 Jahre sind lang...

Es gab aber schon vor Jahren eine Realtime Raytracing Demo. War damals aber unfassbar lahm. Aber es ging, wenn auch grieselig und niedrige res für damalige Zeiten mit GEILER Optik.
Aber ka mehr wie das hies.
Irgendwas mit "Nature" und "Reality" ? :ugly: ka

MeLLe
2006-05-13, 16:15:22
Meinst du das (http://www.realtimeraytrace.de/)? =)

Rooter
2006-05-13, 17:24:01
Vermutlich eher das (http://graphics.cs.uni-sb.de/~sidapohl/egoshooter/) (q3rt Video ankucken!)

MfG
Rooter

EDIT: Braucht aber derbe Rechenleistung, lief auf einem "36 GHz" Cluster.
Die haben das aber auch in Hardware entwickelt, Golem hat dazu schon mehrfach berichtet.
Der verantwortliche Prof. hatte auch mal eine interessante Diskussion mit David Kirk (nVidia Cheftechniker).

Kuckuck
2006-05-13, 17:24:48
Hat hier jemann einen aktuellen Stand zum Thema SaarCore?

http://graphics.cs.uni-sb.de/SaarCOR/

Wir da noch was draus?

drmaniac
2006-05-13, 18:26:19
hm wenn man überlegt, das Intel Richtung Multicore mit hunderten Cores auf einer CPU hin will... was spricht dagegen, wenn dann 5% davon hochspezialisierte Cores mit Code für Grafik ist, und zwar solcherart Cores, die per Software updatebar sind, wie diese Grafikkarte damals .. P10 oder so?

In 10 Jahren haben wir dann eben DirectX-RealLifeV1.1 mit nem Intel Multi-100 Core Inside :D

Rooter
2006-05-13, 18:53:58
Kuckuck[/POST]']Hat hier jemann einen aktuellen Stand zum Thema SaarCore?

http://graphics.cs.uni-sb.de/SaarCOR/

Wir da noch was draus?Bei Golem ist das hier die letzte Meldung, ist vom Sommer 2005 :
Uni Saarland: Echtzeit-Raytracing auf Cell-Processor (http://www.golem.de/0507/39524.html)

MfG
Rooter

RLZ
2006-05-13, 19:32:36
Kuckuck[/POST]']Hat hier jemann einen aktuellen Stand zum Thema SaarCore?

http://graphics.cs.uni-sb.de/SaarCOR/

Wir da noch was draus?
Der aktuellen Stand wird wohl wieder zur Siggraph veröffentlicht.
Interessant im Bezug auf dynamische Szenen sind wohl die 2 aktuellen Paper von Ingo (http://www.sci.utah.edu/~wald/Publications/) .

S3NS3
2006-05-13, 22:48:02
MeLLe[/POST]']Meinst du das (http://www.realtimeraytrace.de/)? =)

YESS, das. Und was sehe ich da?!
2006ér Version mit Global Illu !!!!!!111seins

Direkt mal anschaun. So von wegen in 10 Jahren :)

tombman
2006-05-13, 22:57:52
S3NS3[/POST]']YESS, das. Und was sehe ich da?!
2006ér Version mit Global Illu !!!!!!111seins

Direkt mal anschaun. So von wegen in 10 Jahren :)
Und wie man an meinem comment vm FEB. im Gästebuch sehen kann, haben sie es nach Jahren immer noch ned geschafft, des Ding multithreaded zu proggn :rolleyes: Im Realtime-Bereich is das Ding zum vergessen und damit auch generell ;)

Coda
2006-05-13, 23:14:06
S3NS3[/POST]']YESS, das. Und was sehe ich da?!
2006ér Version mit Global Illu !!!!!!111seins
Das Mad-Max-Demo von nVIDIA hat auch Global Illumination (der Begriff ist eh dehnbar)

Das Problem an der Sache ist, dass das mit der Levelgröße die Komplexität ändert.

S3NS3
2006-05-14, 09:50:05
Jupp, stimmt ja auch.
Aber es "geht". Sagte ja auch das die CPUs mindestens 100 mal so schnell sein müssen damit sowas mit sehr optimierter Programmierung im Spiel möglich wäre.

Gast
2006-05-14, 13:35:27
wer ist jetzt eigentlich das brain bei denen und wer der pinky. rein und blezienski sind die adlati von sweeney, oder wie?

Kinman
2006-05-14, 14:09:53
CliffyB ist soweit ich weiß der LeadDesigner bei Epic.

mfg Kinman

Android
2006-05-14, 15:17:29
Irgendwann wird es mit Sicherheit eine Uinversallösung geben. Dann wird die CPU einfach alles berechnen. Dadurch werden Computersysteme auf ein Minimum schrumpfen (ähnlich wie VIA EPIA, nur leistungsfähiger).
Aber auch ich halte zehn Jahre für eine ziemlich gewagte Aussage.
Meiner Meinung nach dauert das noch min. 20 Jahre.
Der Übergang wird aber mit Sicherheit auch schon in zehn Jahren zu spüren sein.

Ich denke es wird folgendermassen oder so ähnlich ablaufen, für den Home-User-Markt:

2007-2017: CPUs und Grafikkarten vollständig getrennt. CPU-Kernzahl steigt bis 2017 auf 30-40 an. SLI oder Crossfire ähnliche Technologien unterstützen Mehrkern-GPUs. Direktlink oder andere Verbindung zwischen CPU und GPU mit extrem hoher Bandbreite inklusive grossem Cache. CPUs übernehmen durch stark grafikoptimierte Befehlssätze und neuer Universal-Architekturen Teilaufgaben der GPUs womit die Transistorzahl der GPUs deutlich sinkt.
Southbridge wird Bestandteil der CPU.

2017-2027: CPUs und Grafikkarten verschmelzen allmählich. CPU-Kernzahl steigt bis 2027 auf 100 Kerne an. CPUs übernehmen noch grössere Teile der GPU-Berechnung. "Rest"-GPU wird On-Board.

2057: Eine "UPU" (Universal Processing Unit) mit >500 Kernen übernimmt sämliche Aufgaben eines Systems. Absolute Minimalisierung.



Nach dem Mooreschen Gesetz wird sogar noch mehr möglich sein. Die Frage die sich in Zukunft jedoch stellen wird ist: Braucht der Home-User Markt die Technologie überhaupt ?
Das sieht man schon an den heutigen Dual-Core Prozessoren, obwohl es erst der Anfang ist. Stellt euch das dann mal mit 20-40 Kernen vor. ;)

Coda
2006-05-14, 15:29:53
Android[/POST]']Northbridge wird Bestandteil der CPU.
Ist sie heute schon bei AMD.

Android[/POST]']Stellt euch das dann mal mit 20-40 Kernen vor. ;)
Ich nehme an du kennst Amdhal's Law nicht, oder?

Android
2006-05-14, 15:33:57
Coda[/POST]']Ist sie heute schon bei AMD.


Ich nehme an du kennst Amdhal's Law nicht, oder?

Meinte natürlich die Southbridge; Verdreher :D. AMD hat ja schon den Speichercontroller etc. drin.

Amdahl's Law ist mir schon bekannt, aber was hat das damit zu tun ?

Gasthaus
2006-05-14, 23:52:56
Die gelbe Eule[/POST]']Man muss sich nicht vor etwas fürchten, das noch keinen Releasetermin hat. Crytek hat sich nicht gerade mit Ruhm bekleckert, was Ihre Engine anging.

Siehe nur E3:

MS setzt auf Connectivität
Nintendo auf Interaktion, das wirkliche "be part of the game"
Sony hat eine Mischung aus allem und will das bestmögliche anbieten, war eher Kampfansage

Der PC muss dann schauen, wie er das alles unter einen Hut bekommt, damit der normale Spieler auch finanziell mithalten kann.

Nur weil Crytek nicht das Budget hat seine Engine unters"Volk"zu bringen.

FarCry war damals(04)ABSOLUTE Referenz in Grafik und K.I. sowieso.Erstes echtes HDR-Game,nachträglich in die Engine integriert.Für mich immer noch die beste Engine.Und Crysis wird bestimmt wieder neue Masstäbe setzen,zu einer Zeit in der dann endlich Unreal3 da ist,vielleicht.

Ich möcht von einem Programmierer nicht soviel Worte hören,sondern anstäöndige Games auf dem Screen SEHEN.Hallo Mr.Doom,oder wie war das ürsprünglich auf ner GF2:)

Von den FarCry Jungs hab ich jedenfalls kein Geweine gehört...

RLZ
2006-05-15, 00:09:15
Gasthaus[/POST]']Nur weil Crytek nicht das Budget hat seine Engine unters"Volk"zu bringen
Dann müßte bei deren aktuellem Budget die CryEngine 2 ja wie warme Semmeln weggehen. ;)

Jules
2006-05-15, 00:54:07
Android[/POST]']Irgendwann wird es mit Sicherheit eine Uinversallösung geben. Dann wird die CPU einfach alles berechnen. Dadurch werden Computersysteme auf ein Minimum schrumpfen (ähnlich wie VIA EPIA, nur leistungsfähiger).
Aber auch ich halte zehn Jahre für eine ziemlich gewagte Aussage.
Meiner Meinung nach dauert das noch min. 20 Jahre.
Der Übergang wird aber mit Sicherheit auch schon in zehn Jahren zu spüren sein.

Ich denke es wird folgendermassen oder so ähnlich ablaufen, für den Home-User-Markt:

2007-2017: CPUs und Grafikkarten vollständig getrennt. CPU-Kernzahl steigt bis 2017 auf 30-40 an. SLI oder Crossfire ähnliche Technologien unterstützen Mehrkern-GPUs. Direktlink oder andere Verbindung zwischen CPU und GPU mit extrem hoher Bandbreite inklusive grossem Cache. CPUs übernehmen durch stark grafikoptimierte Befehlssätze und neuer Universal-Architekturen Teilaufgaben der GPUs womit die Transistorzahl der GPUs deutlich sinkt.
Southbridge wird Bestandteil der CPU.

2017-2027: CPUs und Grafikkarten verschmelzen allmählich. CPU-Kernzahl steigt bis 2027 auf 100 Kerne an. CPUs übernehmen noch grössere Teile der GPU-Berechnung. "Rest"-GPU wird On-Board.

2057: Eine "UPU" (Universal Processing Unit) mit >500 Kernen übernimmt sämliche Aufgaben eines Systems. Absolute Minimalisierung.............

was das?

also ich sage 2037 wirds schon quanten "personal" computer geben die die heutigen supercomputer furztrocken alt aussehen lassen.
ach was rede ich da, der vergleich lohnt sich gar nicht.

nein, mal im ernst, wie sieht das aus mit der quanten-technick.
der erste quantenbyte ist ja schon längst vollbracht, hat da jemand was neues zu?

PS: ich weis, nicht wirklich ot, würd michaber sehr interessier was ihr dazu sagt!

Android
2006-05-15, 11:17:27
Ikari[/POST]']was das?

also ich sage 2037 wirds schon quanten "personal" computer geben die die heutigen supercomputer furztrocken alt aussehen lassen.
ach was rede ich da, der vergleich lohnt sich gar nicht.

nein, mal im ernst, wie sieht das aus mit der quanten-technick.
der erste quantenbyte ist ja schon längst vollbracht, hat da jemand was neues zu?

PS: ich weis, nicht wirklich ot, würd michaber sehr interessier was ihr dazu sagt!

Den Begriff habe ich mir ausgedacht um die volle Integration zu verdeutlichen. ;)
Natürlich wird 2037 mehr möglich sein, es geht aber auch darum was wir als Endverbraucher davon sehen werden. Denn man muss dabei bedenken, dass der Mensch sich innerhalb von 30 Jahren nicht zu einem Multitaskmonster entwickeln wird, welches 20 Programme gleichzeitig auf 10 Monitoren in der selben Geschwindigkeit bedienen kann. So bleibt also der Nutzen von Mehrkernprozessoren darauf beschränkt integrative Entwicklungen anzutreiben oder spezielle Software extemst leistungsfähig zu machen (3D, Audio, virtuelles CAD etc.). Aber selbst in diesem Bereich gibt es einfach Grenzen. In der Audiotechnik beispielweise sind Mehrprozessorsysteme schon lange nichts besonderes mehr. Durch die Weiterentwicklung der DAW's (siehe mein Eintrag in Wikipedia "DAW", "Digital Audio Workstation") wurden viele externe Aufgaben in den PC verlagert. Wo man früher (aber man nutzt sie auch noch heute) Lexicon Hallgeräte für verdammt viel Geld kaufen musste kann man heute Faltungshall mit einem Computer erzeugen. Und Faltungshall gehört schon zu den aufwendigeren Berechnungen in der Audiotechnik. Also was bringt einem beispielweise ein Prozessor mit 100 Kernen in der Audiotechnik ?
Man kann mehr Spuren mit qualitativ höheren Effekten versehen. Das lastet aber dann noch immer nicht annähernd 100 Kerne aus. Die Frage über den Sinn macht sich also breit.

Zur Quantentechnik:
Bis zum Quantencomputer dauert es noch ein wenig. Aber die Quantentechnik und Quantenmechanik kannst du schon heute in jeder CPU bewundern.

Hydrogen_Snake
2006-05-15, 12:47:06
Gmax[/POST]']Sweeny hat ja mal in einem Interview ziemlich über die CryEngine abgeläßtert, und gemeint, der einzig schöne Effekt wäre das Wasser in FarCry und man solle das doch mal mit der kommenden Unreal Engine 07 vergleichen...
Und das zu einen Zeitpunkt, als die UT2004 raus kam :D
Ich schätze mal, er wird sich vor Crysis auch ein bischen fürchten.
Meines Erachtens plappert der viel Unsinn...

Alter sag sowas nicht! Du kannst bei UT2k4 immer noch auf Software Rendering umstellen! Wo geht das sonst noch heutzutage?

MuLuNGuS
2006-05-15, 13:10:05
Gmax[/POST]']Sweeny hat ja mal in einem Interview ziemlich über die CryEngine abgeläßtert

der hat überhaupt nirgends über die CryEngine abgeläßtert, dat war Mark Rein und der hat ja eh immer eine große klappe...

Gast
2006-05-15, 13:23:06
MuLuNGuS[/POST]']der hat überhaupt nirgends über die CryEngine abgeläßtert, dat war Mark Rein und der hat ja eh immer eine große klappe...

und er hat sowas von Recht damit

Expandable
2006-05-15, 22:22:14
Hydrogen_Snake[/POST]']Alter sag sowas nicht! Du kannst bei UT2k4 immer noch auf Software Rendering umstellen! Wo geht das sonst noch heutzutage?

Hä? Was bitte sagt ein vorhandener (aber absolut nutzloser) Software-Modus über die Qualität der Engine aus? Zumal das die Unreal Engine 3 auch nicht mehr kann... ist sie jetzt deswegen schlechter?

Kinman
2006-05-15, 22:35:35
Expandable[/POST]']Hä? Was bitte sagt ein vorhandener (aber absolut nutzloser) Software-Modus über die Qualität der Engine aus? Zumal das die Unreal Engine 3 auch nicht mehr kann... ist sie jetzt deswegen schlechter?

Ich weiß jetzt nicht ob es in der Art und Weise genutzt wurde, aber mit der UE2 kann man sehr viel mehr Dinge machen, als nur Spiele. Und Für manche kleinere 3D Vorführungen reicht Softwarerendering völlig aus (z.B. auf einem Laptop, der keine besondere 3D Karte oder sonstiges hat).
Es sind zwar keine Vorteile für Spiele dabei, aber ein Softwarerenderer ist nicht vom Nachteil.
Übrigens hab ich den mal für UT2004 genutzt als der Grafikspeicher meines verstorbenen Laptops kaputt war.

mfg Kinman

Coda
2006-05-15, 23:21:10
Der Softwarerenderer von UE2 ist nachträglich angeflanscht, da wurde nix spezielles in die Engine dafür eingebaut. Das kannst mit jeder x-beliebigen anderen Engine mit Plugin-Architektur beim Renderer auch machen (inkl. Cryengine). Nur will das kein Schwein.

Kinman
2006-05-15, 23:29:16
Coda[/POST]']Der Softwarerenderer von UE2 ist nachträglich angeflanscht, da wurde nix spezielles in die Engine dafür eingebaut. Das kannst mit jeder x-beliebigen anderen Engine mit Plugin-Architektur beim Renderer auch machen (inkl. Cryengine). Nur will das kein Schwein.

Stimmt, der Pixomatic Renderer glaub ich war das ;)
Aber so ganz umsonst werden die das nicht drangehängt haben...

Coda
2006-05-15, 23:43:29
Nö, aber es ist trotzdem absolut kein Qualitätsmerkmal für eine Engine meiner Meinung nach.

Gast
2006-05-16, 14:32:23
MuLuNGuS[/POST]']der hat überhaupt nirgends über die CryEngine abgeläßtert, dat war Mark Rein und der hat ja eh immer eine große klappe...

stimmt, der giga-redaktion schuldet er immer noch ne grafikkarte

Gmax
2006-05-16, 16:22:53
MuLuNGuS[/POST]']der hat überhaupt nirgends über die CryEngine abgeläßtert, dat war Mark Rein und der hat ja eh immer eine große klappe...

Mensch, du hast recht! Wie konnte ich die beiden nur verwechseln :frown:
Sie arbeiten aber zusammen, oder?

MuLuNGuS
2006-05-17, 11:34:07
Gmax[/POST]']Mensch, du hast recht! Wie konnte ich die beiden nur verwechseln :frown:
Sie arbeiten aber zusammen, oder?


jo, Rein arbeitet für Sweeney wenn man es genau nimmt :D

Coda
2006-05-17, 11:48:23
Mark Reign heißt der gute Mensch

Monger
2006-05-17, 11:55:49
Coda[/POST]']Mark Reign heißt der gute Mensch

Nö, heißt er nicht:

http://www.google.de/search?hl=de&q=%22Mark+Rein%22&meta=

Robbson
2006-05-20, 03:12:32
Was wäre denn der Sinn von Echtzeit Raytracing & Radiosity in Games? Mit den heutigen Shadern (und selbst zum Teil mit den alten DX7 fixed Effekten) lassen sich doch Schatten, Reflektionen, Refraktionen usw. einigermaßen glaubwürdig nachahmen, was tendenziell immer besser und weniger gefaked aussieht.

Für den Otto-Normalverbraucher lohnen die deutlich aufwendigeren Technologien doch sowieso nicht, zumal sich einige Leuts schwer tun werden, überhaupt einen Unterschied zu sehen.

Und warum sollte man sich's schwerer machen als es ist? Überall wird heutzutage optimiert an allen Ecken und Kanten, um nur irgendwie performanter zu sein... warum sollte das in 10 Jahren anders sein und enorme Rechenzeit in (für Games unnötiges) Raytracing & Co investiert werden?

Was Sweeney da für 10 Jahre voraussagt ist wirklich unrealistisch... Denn die vielen CPU Cores müssen erstmal ganz andere Aufgaben übernehmen, in denen seit Jahren Nachholebedarf besteht... also KI, Spracherkennung, natürliche Text2Speech Sprachausgabe (ohne auf Samples zurückgreifen zu müssen, siehe AT&T) und natürlich (ganz wichtig) die Physik... hier herrscht der größte Nachholbedarf... und nein, nicht etwa um Gegenstände in 1000 Einzelteile korrekt zerfallen zu lassen, sondern um z.B. alle Objekte in einer Spielwelt glaubwürdig bewegen und kollidieren zu lassen.
Z.B. die natürliche Bewegung einer Spielfigur, wenn sie eine Treppe hinaufgeht... bisher gibt's da nur ein gelooptes Motion Capturing "Treppe hochsteigen" entlang eines Vektors parallel zur Treppenneigung oder eben komplett gescriptete Sequenzen... vielleicht wird es aber einmal möglich sein, auf Motion Capturing komplett zu verzichten und alle Bewegungen entsprechend diverser Parameter (Bodenbeschaffenheit, Anstieg, Verfassung & Gewicht der Figur, etc.) in Echtzeit zu berechnen.

Und ohne Entwicklungen in diese Richtung verlieren Games an Glaubwürdigkeit, da mag die Grafik noch so bombastisch / realistisch sein... gutes Beispiel ist Oblivion: Next Gen Grafik, aber alles andere beim Alten... NPC Bewegungen und Kämpfe ohne echte Kollissionen, sondern lediglich ein Abspielen vorgefertigter Animationen, wo bspw. Körper ineinander tauchen oder in Umgebungsobjekte hineinragen... sieht besonders interessant aus, wenn NPCs Türen öffnen. :rolleyes:

Von anderen Ansätzen, wie eine intelligentere Kommunikation mit den NPCs ganz zu schweigen... alles noch vorgefertigt und nix neues.

Also wenn's in naher Zukunft in Games nichts besseres zu tun gibt, als z.B. Reflektionen noch korrekter darzustellen, na dann gute Nacht!

Robbson.