PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Unreal Engine 3


janky
2005-10-27, 18:19:23
Ich wollte mal fragen was man so ungefähr für ne Hardware brauch, um die Unreal Engine 3 (z.B. in UT 2007) darzustellen.

Ist die Hardwareanforrung so viel höher als in F.E.A.R.???

Ich habe mal in nem Interview von dem Designer gelesen, dass die Unreal Engine 3 mit nem Athlon 64 3000+, einem Gigabyte RAM und einer 6800 GT schon richtig gut laufen würde.

Wird mein Laptop die Engine überhaupt einigermaßen flüssig darstellen können???

Hinweis: Ne Mobility Radeon X700 ist in der Leistung zwischen einer normalen X700 und ner -Pro-Variante im Dektop angesiedelt.

Gruß

janky :)

AnarchX
2005-10-27, 18:31:52
Ich schau mal in meine Glaskugel.... ;)

Da die Spiele noch nicht erschienen sind, wird dir niemand sagen können wie sie laufen werden.
Aber eins kann ich dir sagen max. Details wirst du mit deiner X700 nicht sehen, mit Glück vielleicht mittlere Details.
Vram wird in Zukunft wichtig werden, wobei für UT2007 wohl eher 256MB benötigen wird durch das Zusammenspiel relativer hoch aufgelöst Textruen + Bumpmaps.
Unrealengine 3 ist eine Engine, die Performance der darauf erscheinenden Spiele ist vom Entwickler mit abhängig.

Coda
2005-10-27, 18:37:01
Wird mein Laptop die Engine überhaupt einigermaßen flüssig darstellen können???

Hinweis: Ne Mobility Radeon X700 ist in der Leistung zwischen einer normalen X700 und ner -Pro-Variante im Dektop angesiedelt.Wird schwierig. F.E.A.R läuft wahrscheinlich deutlich besser als ein UE3-Spiel.

janky
2005-10-27, 18:38:54
Das wär ja schön, wenn das bei mir in mittel noch laufen würde!!!

Aber meinste echt???

In 1024x768 hoffentlich...

Aber jetzt mal ernst: Ist das so ein Unterschied zu der F.E.A.R. - Engine???
Rein optisch wie auch von der Hardware.

Gruß

janky :smile:

BlackArchon
2005-10-27, 18:43:02
Hm, bisher waren die Unreal-Engines doch viel mehr von der CPU abhängig als von der Graka. Soll sich das wirklich ändern?

AnarchX
2005-10-27, 18:44:19
Aber jetzt mal ernst: Ist das so ein Unterschied zu der F.E.A.R. - Engine???

Naja FEAR ist ja von der Architekur ziemlich simpel, da gibts bei UT2007 einiges mehr zu sehen. Zusätzlich wird wohl wie aus einigen Videos schon zu sehen war einiges beim Lighting darauf gelegt -HDR. Wobei das deine Karte eh nicht betreffen wird. Dazu kommen ja noch die riesigen Aussenlevel bei UT2007, welche ja nochmal die Grösse derer von UT2004 übertreffen werden sollen.

Hm, bisher waren die Unreal-Engines doch viel mehr von der CPU abhängig als von der Graka. Soll sich das wirklich ändern?

CPU wird weiterhin eine wichtige Rolle spielen, auf Grund der ziemlich guten KI und die Verbesserung der Physik, deshalb hat sie auch Dualcore-Support.
Aber anfänglich wird die Graka wohl eher limitieren, da man ja in diesem Bereich neue Maßstäbe setzen wird, soweit man bis jetzt erahnen kann am vorhandenen Material.
Die jetzige UT-Engine ist hauptsächlich so CPU-limitiert, da die hier auf DX7-Techlevel Grafik keinen hohen Anspruch mehr an die Graka hat.

Nightspider
2005-10-27, 19:33:49
Da Unreal Tournament 2007 eine PPU und Dualcore Unterstützung besitzt, ist es klar, das man mit einem einfachen Notebook leider nicht alles rausholen kann. Ich denke viele zukünftige Titel wird man nur auf Desktop PC´s in ihrer vollen Pracht spielen können. :(

Coda
2005-10-27, 19:36:41
Hm, bisher waren die Unreal-Engines doch viel mehr von der CPU abhängig als von der Graka. Soll sich das wirklich ändern?Sehr wahrscheinlich. Die GPU-Vendors sagen alle man soll nur noch sehr grob cullen und lieber mehr auf die GPU schmeißen.

Wenn dann noch UnrealScript besser optimiert wurde (JITC), dann wird das schon.

r3ptil3
2005-10-27, 21:21:00
Ich könnte jetzt schon darauf wetten, dass die Unreal Engine 3 besser läuft als Fear.

Coda
2005-10-27, 21:43:43
Ich wette dagegen. Die Shader sind deutlich komplexer.

r3ptil3
2005-10-27, 21:45:01
Ich wette dagegen. Die Shader sind deutlich komplexer.

Meinst du damit deutlich komlexer als die von Fear oder wie?

Coda
2005-10-27, 21:47:52
Ja. Genauer gesagt können sie fast beliebig komplex sein, weil sie vom Artist zusammengelickt werden. Dazu kommt noch HDR und andere Spielchen die Epic eingebaut hat.

Allerdings halte ich F.E.A.R. auch für zu langsam für die gebotene Grafik (die mich eh mal überhaupt nicht vom Hocker reißt).

Spasstiger
2005-10-27, 21:49:25
Die Engine wird sicherlich schon mit einem Athlon 1 GHz, 128 MB Ram und irgendeiner DX9-kompatiblen Grafikkarte laufen.
Die eigentlichen Hardwareanforderungen macht der Content und das Spiel an sich aus.

Bei UT2007 denke ich z.b. dass volle Details in 1280x1024 mit 4xAA und 8:1 AF mit keiner aktuellen Grafikkarte anständig laufen wird (auch Radeon X1800 XT nicht). In jedem Fall wird man für höchste Details mindestens eine 512 MB Grafikkarte brauchen, sonst sind Lags bei den Texturgrößen vorprogrammiert.

An CPU-Power sollte man schon einen Athlon 64 oder einen schnellen Pentium 4 im Rücken haben, da Physik und KI sicherlich ihren Tribut fordern werden. Auch einige Grafikeffekte dürften auf der CPU laufen, ich denke da an Partikeleffekte.

2 GB Ram sollten es wohl auch mindestens sein für volle Details.

Im Moment macht es keinen Sinn, ein System speziell für Unreal Engine 3 Spiele zu kaufen, da erstens noch kein solches Spiel in greifbarer Nähe ist (für den PC) und da zweitens über die Hardwareanforderungen nur spekuliert werden kann. Ein Athlon 64 X2 dürfte aber nicht verkehrt sein.

Coda
2005-10-27, 21:51:23
2 GB Ram sollten es wohl auch mindestens sein für volle Details.Glaube ich nicht, 1GB sollte ausreichen. Die UE3 macht kein Streaming im Gegensatz zu BF2.

MikBach
2005-10-27, 21:51:59
Ich wette dagegen. Die Shader sind deutlich komplexer.
Ich wette dagegen...
Die U3-Engine wird extrem optimiert sein.

Coda
2005-10-27, 21:55:55
Jaja, die alte "optimieren"-Geschichte.
So nach dem Prinzip: wenn man etwas oft genug komprimiert, es irgendwann 1 byte groß sein...

Spasstiger
2005-10-27, 21:56:05
Ich wette dagegen...
Die U3-Engine wird extrem optimiert sein.

Mit den Softshadows, dem allgegenwärtigen Parallax Mapping, HDR und evtl. noch aktiverten Qualitätsoptionen wie AA und AF zwingt man jede aktuelle Grafikkarte in die Knie, das bekommt man auch mit Optimierungen nicht gebacken. Evtl. besteht bei zwei GeForce 7800 GTX 512 MB im SLI oder zwei Radeon X1800 XT im Crossfire die Chance, auf maximalen Details flüssig spielen zu können. Aber da macht es ja mehr Sinn, auf UT2007 zu warten und sich dann eine Grafikkarte der nächsten Generation zu holen.

MikBach
2005-10-27, 21:56:41
Ja. Genauer gesagt können sie fast beliebig komplex sein, weil sie vom Artist zusammengelickt werden. Dazu kommt noch HDR und andere Spielchen die Epic eingebaut hat.
Das HDR sieht mir aber nach FX16-HDR aus oder ich habe mir die falschen Bilder abgesehen..,

Allerdings halte ich F.E.A.R. auch für zu langsam für die gebotene Grafik (die mich eh mal überhaupt nicht vom Hocker reißt).
Da muß ich dir zustimmen.

MikBach
2005-10-27, 21:58:39
Jaja, die alte "optimieren"-Geschichte.
So nach dem Prinzip: wenn man etwas oft genug komprimiert, es irgendwann 1 byte groß sein...
Nicht wirklich...
Man lernt die Hardware kennen, um Stalls in der Pipeline zu verhindern oder zu umgehen.

Coda
2005-10-27, 21:59:37
Das HDR sieht mir aber nach FX16-HDR aus oder ich habe mir die falschen Bilder abgesehen..,Und? FX16-HDR braucht die gleiche Bandbreite.

Nicht wirklich...
Man lernt die Hardware kennen, um Stalls in der Pipeline zu verhindern oder zu umgehen.So direkt kannst du am PC die Hardware lange nicht programmieren. Du hast immer mindestens eine Abstraktionseben über den Shadern. Die Compiler müssen's richten, vor allem weil wir hier von dynamisch generierten Code reden. Da is nix mehr mit hand-tuning.

Was die Schattenalgorithmen angeht ist UE3 auch auf Stencil oder Shadowmaps beschränkt. Beides verschlingt Unmengen an Füllrate.

aths
2005-10-27, 22:02:42
Ja. Genauer gesagt können sie fast beliebig komplex sein, weil sie vom Artist zusammengelickt werden. Dazu kommt noch HDR und andere Spielchen die Epic eingebaut hat.Image-based Lighting und Parallaxmapping zum Beispiel :)

Spasstiger
2005-10-27, 22:03:01
Was Unreal Engine 3 Games wie UT2007 aber bieten dürften, ist anständige Performance bei niedrigen bis mittleren Details bei immer noch guter Optik. So dürfte man bei Verzicht auf Schatten, HDR und maximale Texturauflösung wohl immer noch eine ansprechende Optik rausbekommen (dank schickem Parallax-Mapping) und sogar mit DX9-Grafikkarten der ersten Generation (Radeon 9700 Pro) noch auf eine anständige Performance hoffen können.

Zumindest wurde angekündigt, dass man Unreal Engine 3 Spiele einer möglichst breiten Zielgruppe zugänglich machen möchte. Und dies geht nur, wenn die Engine gut skalierbar ist.

r3ptil3
2005-10-27, 22:23:45
Bei UT2007 denke ich z.b. dass volle Details in 1280x1024 mit 4xAA und 8:1 AF mit keiner aktuellen Grafikkarte anständig laufen wird (auch Radeon X1800 XT nicht). In jedem Fall wird man für höchste Details mindestens eine 512 MB Grafikkarte brauchen, sonst sind Lags bei den Texturgrößen vorprogrammiert.

An CPU-Power sollte man schon einen Athlon 64 oder einen schnellen Pentium 4 im Rücken haben, da Physik und KI sicherlich ihren Tribut fordern werden. Auch einige Grafikeffekte dürften auf der CPU laufen, ich denke da an Partikeleffekte.

2 GB Ram sollten es wohl auch mindestens sein für volle Details.

Im Moment macht es keinen Sinn, ein System speziell für Unreal Engine 3 Spiele zu kaufen, da erstens noch kein solches Spiel in greifbarer Nähe ist (für den PC) und da zweitens über die Hardwareanforderungen nur spekuliert werden kann. Ein Athlon 64 X2 dürfte aber nicht verkehrt sein.

Hier liegst du falsch.
Die UE3 wird ähnlich "performen" wie etwa die Grafik Engine von Quake 4 (vielleicht auch ein bisschen schlechter) und das mit einer sehr sehr hohen Sicherheit!
Ich bin mir hier wirklich ziemlich sicher, eine 6800 GT reicht schon aus um es bei 1024x768 auf etwa high quality zu spielen! (ohne AA AF)

Spasstiger
2005-10-27, 22:25:33
Ich bin mir hier wirklich ziemlich sicher, eine 6800 GT reicht schon aus um es bei 1024x768 auf etwa high quality zu spielen! (ohne AA AF)

Ich gehe aber wie schon geschrieben von 1280x1024 mit 4xAA und 8:1 AF bei maximalen Details aus. Denn nur dann bekommt man auch wirklich die Optik, die man aktuell auf den Screenshots bewundern kann.

Zur guten Skalierbarkeit habe ich auch schon was geschrieben, mit einer 6800 GT wird man sicherlich auch noch eine anständige Optik rausholen können.

r3ptil3
2005-10-27, 22:28:42
Ich gehe aber wie schon geschrieben von 1280x1024 mit 4xAA und 8:1 AF bei maximalen Details aus. Denn nur dann bekommt man auch wirklich die Optik, die man aktuell auf den Screenshots bewundern kann.

Aha ok, aber eine 7800 GTX wird da wahrscheinlich schon noch reichen (durchschnttlich dann 40-50fps und @ 7800 GTX SLI vollkommen flüssig), die Entwickler haben vor über einem Jahr gesagt das eine 6600GT reicht um es flüssig auf 800x600 zu spielen!
Man sollte sich jetzt vorstellen wie das dann bald in einem halben Jahr ist.

Spasstiger
2005-10-27, 22:35:45
Man sollte sich jetzt vorstellen wie das dann bald in einem halben Jahr ist.

Wenn Gears of War nicht überraschend früh kommt, würde ich nicht vor dem Herbst 2006 mit Unreal Engine 3 Games für den PC rechnen.

m.sch
2005-10-27, 23:54:27
Dazu kommt Epic's Unreal Engine 3 neuerdings mit der FaceFX-Technologie von OC3 Entertainment daher. Wird schwer,jetzt schon einzuschätzen welchen Hardwarehunger dass Game haben wird.

Kladderadatsch
2005-10-28, 00:53:50
Aha ok, aber eine 7800 GTX wird da wahrscheinlich schon noch reichen (durchschnttlich dann 40-50fps und @ 7800 GTX SLI vollkommen flüssig), die Entwickler haben vor über einem Jahr gesagt das eine 6600GT reicht um es flüssig auf 800x600 zu spielen!
Man sollte sich jetzt vorstellen wie das dann bald in einem halben Jahr ist.
bei d3 wurde auch von offizielle seite gesagt, dass eine geforce3 absolut genügt. und das war etwa genau so lang vor release des spiels, wie es hier der fall ist...

up¦²
2005-10-28, 01:15:25
Die Quelle: :uponder:
http://www.unrealtechnology.com/html/technology/ue30.shtml

Ganz unten steht dann bei:
Typical Content Specifications

We are authoring most character and world normal maps and texture maps at 2048x2048 resolution. We feel this is a good target for games running on mid-range PC's in the 2006 timeframe. Next-generation consoles may require reducing texture resolution by 2X, and low-end PC's up to 4X, depending on texture count and scene complexity.

Alles klar? :tongue:

Coda
2005-10-28, 01:26:06
2006 ist die 6600 nicht mehr midrange.

Spasstiger
2005-10-28, 01:35:04
2006 ist die 6600 nicht mehr midrange.

Ne, wirklich nicht. Bis in einem Jahr dürften Grafikkarten der Leistungsklasse einer Radeon X1800 XL oder einer GeForce 7800 GT als Midrange gelten.

up¦²
2005-10-28, 01:37:29
Also richtung G70-R520 bitte aber mit 512mb, oder lieber gleich 1gb ahoi?

Nebenbei:
Ich hab heute Age of Empire 3 auf 'nem 2005-top-pc gesehn:
Oh mann, flüssig wie sirup :biggrin:

Ailuros
2005-10-28, 01:50:38
Ich warte lieber ab bis ich ein Spiel wie UT2007 in der Hand habe bevor ich zu solchen Schlussfolgerungen komme. Neben dem bloeden Hype und der Realitaet gibt es stets Unterschiede. Genauso wie angeblich UT2003 besser mit 256MB ram GPUs laufen wuerde. Wo bitteschoen?

Dabei lief UT2k3 bei seiner Vorstellung eben noch befriedigend mit den damaligen high end NV25, aber wohl doch um einiges optimaler ab R300 und hoeher. Viel anders wird es wohl mit UT2007 auch nicht sein. Um Missverstaendnissen zu entgehen ohne die dementsprechende hoehere Shader-Fuellrate wird ein groesserer Framebuffer auch nicht unbedingt Welten von Unterschieden machen.

Ausser ihr glaubt dass eine 512MB X800XL schneller sein wird als eine 256MB 7800GTX :rolleyes:

Coda
2005-10-28, 02:46:41
Ausser ihr glaubt dass eine 512MB X800XL schneller sein wird als eine 256MB 7800GTX :rolleyes:Das kann durchaus sein, wenn man Einstellunge wählt, die über 256MiB VRAM belegen.

Ailuros
2005-10-28, 03:43:06
Das kann durchaus sein, wenn man Einstellunge wählt, die über 256MiB VRAM belegen.

Woher willst Du es jetzt schon wissen? Wer sagt mir dass nicht andere Faktoren zuerst limitieren und dann erst die Framebuffer-groesse?

http://www.xbitlabs.com/articles/video/display/asus-v9999ge_7.html

Warum ist die 9800XT 256MB nicht hier deutlich schneller als eine 6800nonU 128MB, sogar in 1600 mit 4xAA/8xAF?

Coda
2005-10-28, 03:52:17
Weil UT2004 auch in der Auflösung den VRAM anscheinend nicht vollbekommt.

http://www.xbitlabs.com/images/video/asus-en7800gtx/fear_candy.gif
Da siehtst du den Effekt überdeutlich.

betasilie
2005-10-28, 04:26:59
Woher willst Du es jetzt schon wissen? Wer sagt mir dass nicht andere Faktoren zuerst limitieren und dann erst die Framebuffer-groesse?

http://www.xbitlabs.com/articles/video/display/asus-v9999ge_7.html

Warum ist die 9800XT 256MB nicht hier deutlich schneller als eine 6800nonU 128MB, sogar in 1600 mit 4xAA/8xAF?
Weil es von der Map abhängt?

Ailuros
2005-10-28, 04:40:59
Weil es von der Map abhängt?

Oder weil eine 9800/256MB doch nicht wirklich schneller ist als eine 6800/128MB.

Ich hoere aber trotzdem Vorschlaege welche maps hier den Unterschied machen sollten in UT2k4.

betasilie
2005-10-28, 04:47:20
Oder weil eine 9800/256MB doch nicht wirklich schneller ist als eine 6800/128MB.

Ich hoere aber trotzdem Vorschlaege welche maps hier den Unterschied machen sollten in UT2k4.
Weiß ich leider nicht mehr, aber ich weiß, dass das nur bei wenigen oder nur einer Map der Fall war mit entsprechend hohen Settings. Dort hat man den Unterschied deutlich gespürt und er war auch einfach messbar.

Ailuros
2005-10-28, 04:53:10
Weil UT2004 auch in der Auflösung den VRAM anscheinend nicht vollbekommt.

Ich verschwende jetzt keine Zeit alten Mist vor der UT2k3 Veroeffentlichung fuer UE2 zu finden, aber den angeblichen 256MB Quark hoerte man schon damals.

http://www.xbitlabs.com/images/video/asus-en7800gtx/fear_candy.gif
Da siehtst du den Effekt überdeutlich.

Herzlichen Dank fuer's pre-release demo in 1024*768 :P

Was genau soll ich sehen?

http://www.firingsquad.com/hardware/fear_performance_mainstream/page8.asp

http://www.firingsquad.com/hardware/fear_performance_mainstream/images/fear1600aafss.gif

http://www.firingsquad.com/hardware/fear_performance_mainstream/page6.asp

Zwar kein AF, aber total wertlos nun auch wieder nicht:

http://www.firingsquad.com/hardware/fear_performance_mainstream/images/fear16004aa.gif

Ach ja eine 6800GT versohlt in allen Situationen eine X800XL/512MB, und die letztere soll Vorteile in UE3 gegen eine 7800GTX/256MB sehen? Das moechte ich aber mal erlaeutert bekommen.

***edit: etwas mehr Lektuere...final game + first patch:

http://www.anandtech.com/video/showdoc.aspx?i=2575&p=1

Ailuros
2005-10-28, 05:00:19
Weiß ich leider nicht mehr, aber ich weiß, dass das nur bei wenigen oder nur einer Map der Fall war mit entsprechend hohen Settings. Dort hat man den Unterschied deutlich gespürt und er war auch einfach messbar.

Ach Du liebe Zeit, wenn Du jetzt wirklich glaubst dass eine 9800/256MB spielbarer war als eine 6800/128MB in 1280*960/4xAA/8xAF (und das sogar grosszuegig denn es hapert auf beiden in so manchen ONS-maps) bei jeweils gleicher CPU, dann soll es wohl so sein. UT2k3/4 waren zur gleichen Zeit CPU und Fuellraten-limitiert (staerker natuerlich CPU limitiert ueberhaupt in single-player). Die <20% Fuellrate einer 9800XT spielen hier trotzdem noch mit.

betasilie
2005-10-28, 05:32:08
Ach Du liebe Zeit, wenn Du jetzt wirklich glaubst dass eine 9800/256MB spielbarer war als eine 6800/128MB in 1280*960/4xAA/8xAF .........
Habe ich das behauptet?

Ailuros
2005-10-28, 05:52:15
Habe ich das behauptet?

Der schlimmste Fall in UT2k4 war stets Primeval und das timedemo dass 3DCenter benutzt eines der gemeinsten. Ich hatte auf einem XP 3000+ in 1280*960/4xAA/16xAF auf der 6800 nur 16.6 fps nachgemessen damals, wobei auf einem 2.5GHz P4 hier in einem der reviews mit einer 9800XT in der gleichen Situation mit gleichen settings 15.7 fps gemessen hat. Einen extremeren Fall als diesen kann ich mir nicht vorstellen und ja meine CPU war leicht staerker.

Mr. Lolman
2005-10-28, 07:30:47
15.7 fps (http://www.3dcenter.org/artikel/catalyst_treibervergleich/index_bench29.php) erreicht eine 128MB 9800pro (@XT-Takt) in 1600x1200 4xAA/16xtriAF. Ich hab auf meiner 9700p (@400/350) mit 1280x1024 4xAA/4xbiAF 30fps erreicht. Und das noch auf einem präAi-Catalyst.

Ailuros
2005-10-28, 07:46:12
15.7 fps (http://www.3dcenter.org/artikel/catalyst_treibervergleich/index_bench29.php) erreicht eine 128MB 9800pro (@XT-Takt) in 1600x1200 4xAA/16xtriAF. Ich hab auf meiner 9700p (@400/350) mit 1280x1024 4xAA/4xbiAF 30fps erreicht. Und das noch auf einem präAi-Catalyst.

http://www.3dcenter.org/artikel/r420_benchmarks/index27.php

Das war Cat 4.4 und dieser war etwa gleichzeitig mit dem von mir damals verwendeten ForceWare Treiber. Dass die Leistung dann spaeter auch hier gestiegen ist, ist ja wirklich Haarspalterei. Ob 11 oder 16 fps in 1600, es ist in allen Faellen eine nette "slideshow" and die extra 128MB einer 9800XT machen hier auch nichts mehr aus.

Mr. Lolman
2005-10-28, 08:04:35
Natürlich machen zusätzlichen 128MB in so einer AUflösung was aus. Außerdem gings um 1280x1024 und nicht um 1600x1200. Und über Leos niedrige UT2004 Werte, auf seinem alten P4, hab ich mich schon immer gewundert, liegt wahrscheinlich zT auch daran, dass Leo, beim Benchen, nie seine ganzen Hintergrund Proggies deaktiviert (hat).

Und wenn du dir die 1024x768 Werte von Raff ansiehst, merkst du, dass es sehr wohl einen Unterschied macht, wie alt der Catalyst ist.

BTW. Raff hat mit seinem Dothan@2.5GHz mit seiner Radeon @ 445/380 in 1024x768 6xAA/16xtriAF 36.8fps erreicht, wo sein Kärtchen mit leicht niedrigerem Takt am XP@2.3GHz nur 27.8fps geschafft hat (fast 33% Mehrleistung): http://www.forum-3dcenter.de/vbulletin/showthread.php?p=3438015#post3438015 (Im gleichen Thread sind auch irgendwo meine UT2004 Ergebnisse)

Ailuros
2005-10-28, 08:24:11
Natürlich machen zusätzlichen 128MB in so einer AUflösung was aus. Außerdem gings um 1280x1024 und nicht um 1600x1200. Und über Leos niedrige UT2004 Werte, auf seinem alten P4, hab ich mich schon immer gewundert, liegt wahrscheinlich zT auch daran, dass Leo, beim Benchen, nie seine ganzen Hintergrund Proggies deaktiviert (hat).

Dann belege es doch; so schwer wird es wohl nicht sein oder? Nein ich will's sehen anstatt mir mit billigen Entschuldigen zu kommen dass Leo's Resultate verpfuscht sind.

Und wenn du dir die 1024x768 Werte von Raff ansiehst, merkst du, dass es sehr wohl einen Unterschied macht, wie alt der Catalyst ist.

Es liegt soweit ich sehen kann nichts falsches an den Resultaten, denn ich hab mich mit den 15.7 fps eben auf den 4.4 Catalyst nach Leo's Resultaten bezogen und hier bekam er die gleichen 11 fps wie Raff auch in seinem Vergleichstest mit dem 4.4 Cat eben.

BTW. Raff hat mit seinem Dothan@2.5GHz mit seiner Radeon @ 445/380 in 1024x768 6xAA/16xtriAF 36.8fps erreicht, wo sein Kärtchen mit leicht niedrigerem Takt am XP@2.3GHz nur 27.8fps geschafft hat (fast 33% Mehrleistung): http://www.forum-3dcenter.de/vbulletin/showthread.php?p=3438015#post3438015 (Im gleichen Thread sind auch irgendwo meine UT2004 Ergebnisse)

Tut mir leid aber das ist so verdammt irrelevant dass Du Dir es gar nicht vorstellen kannst. Wie ich schon sagte weiter oben stieg bei der 6800 mit folgenden Treibern die Leistung auch und dass ist genauso verdammt irrelevant. Ich hatte drei high end GPUs von der R3xx Familie, mir braucht keiner beibringen wie und wo jegliche lauft und ich brauch auch keine Weihraucherei darueber. Bitte beim Thema bleiben; entweder kannst Du mir belegen dass 256MB in UT2k4 etwas ausmachen oder nicht.

Mr. Lolman
2005-10-28, 08:27:58
Warum so schnippisch?:

http://www.3dcenter.de/artikel/ati_nvidia_aa_performance/index10.php

Ailuros
2005-10-28, 08:45:36
Warum so schnippisch?:

http://www.3dcenter.de/artikel/ati_nvidia_aa_performance/index10.php


Ich hol gleich Wavey's Bratpfanne LOL :D Detonator 45.23 und Cat 3.9 ....

Nochmal ein letzter verzweifelter Versuch: ich sagte dass ich bevor ich UT2007 erstmal sehe an gar kein Marketingfusel glaube. Und ich bezweifle auch immer noch dass in meinen Beispiel eine 512MB X800XL gegen eine 256MB 7800GTX in diesem Spiel dank Framebuffer einen Vorteil haben wird. Naechstbestes Beispiel zwischen GPUs von zwei verschiedenen "Generationen" war eine 256MB 9800XT gegen eine 128MB 6800. Merkst Du dass in beiden Faellen die aeltere GPU doppelt so viel Speicher hat?

Kann es so verdammt schwer sein zu kapieren, wenn ich sage dass andere Faktoren zuerst limitieren in solchen Faellen als die Speichergroesse? Das nervliche ist dass Du mich voll verstehst, aber doch nicht verstehen willst.

Ich hab nicht GPUs der gleichen Generation verglichen wie hier z.B. eine 6800GT mit einer 6800nonU:

http://www.3dcenter.de/artikel/ati_radeon_x850/index8.php

up¦²
2005-10-28, 12:09:01
Ailuros:
Ich verschwende jetzt keine Zeit alten Mist vor der UT2k3 Veroeffentlichung fuer UE2 zu finden, aber den angeblichen 256MB Quark hoerte man schon damals.

Die sache war wirklich interessant bei UT2k3, weil die LOD-setting beim installieren an hand der graka bestimmt wurde, aber über die ini geh@ckt werden konnte . In diesem zusammenhang äußerte Daniel Vogel selber den umstand, das einige mappen UltraHigh-Texturen (2048²) hätten.

crane
2005-10-28, 13:23:51
***edit: etwas mehr Lektuere...final game + first patch:

http://www.anandtech.com/video/showdoc.aspx?i=2575&p=1

Im Final Game (F.E.A.R.) liegen, entgegen der Demo, G70 und R520 ja wieder gleich auf :)
Aber warum liegt die G70 bei Soft-Shadows auf on eigentlich so weit vor der 1800XT ?

Grüße

Gandharva
2005-10-28, 15:12:59
Ausser ihr glaubt dass eine 512MB X800XL schneller sein wird als eine 256MB 7800GTX :rolleyes:

schau dir doch mal cod2 an:

0xaa:
http://www.amdzone.com/pics/gaming/callofduty2/aaafoff.jpg

4xaa:
http://www.amdzone.com/pics/gaming/callofduty2/aaafon.jpg

kommt eben immer aufs spiel an.

Ailuros
2005-10-28, 16:14:03
schau dir doch mal cod2 an:

0xaa:
http://www.amdzone.com/pics/gaming/callofduty2/aaafoff.jpg

4xaa:
http://www.amdzone.com/pics/gaming/callofduty2/aaafon.jpg

kommt eben immer aufs spiel an.

Pre-release demo; bitte auf Resultate vom finalen game abwarten. Die 7800GTX rendert uebrigens in 1600 auf keinen Fall hier mit high detail Texturen; dieser verbuggte Mist sagt mir noch gar nichts.

Ailuros
2005-10-28, 16:16:15
Im Final Game (F.E.A.R.) liegen, entgegen der Demo, G70 und R520 ja wieder gleich auf :)
Aber warum liegt die G70 bei Soft-Shadows auf on eigentlich so weit vor der 1800XT ?

Grüße

Weil eben kein AA verwendet wird und da scheint eben die massive Bandbreite der X1800XT nicht durch. Lies mal B3D's R520 review; das Ding zwinkert meistens nur sehr wenig egal ob 4x oder 6xAA einschaltet.

betasilie
2005-10-28, 16:21:55
Pre-release demo; bitte auf Resultate vom finalen game abwarten. Die 7800GTX rendert uebrigens in 1600 auf keinen Fall hier mit high detail Texturen; dieser verbuggte Mist sagt mir noch gar nichts.
Aber trotzdem kann man klar eine Schlussfolgerung bzgl. des VRams ziehen, oder wie willst Du dieses offensichtliche Ergebnis ansonsten werten? Ist ja leicht zu sagen, das ist nur eine Demo, aber es liegt wohl offensichtlich auf der Hand, wieso die XL512 schneller ist - jetzt erstmal in der Demo.

Gandharva
2005-10-28, 16:22:13
Pre-release demo; bitte auf Resultate vom finalen game abwarten. Die 7800GTX rendert uebrigens in 1600 auf keinen Fall hier mit high detail Texturen; dieser verbuggte Mist sagt mir noch gar nichts.

erscheint ja heute bei den amis. bin mal gespannt was der 81.87 bei der 7800er bringt. paar frames werdens schon sein. allerdings schon herbe wie die 512mb karte der ansonsten um ~20% schnelleren xt-pe zeigt wos langgeht.

Spasstiger
2005-10-28, 16:24:40
Die 7800GTX rendert uebrigens in 1600 auf keinen Fall hier mit high detail Texturen; dieser verbuggte Mist sagt mir noch gar nichts.

Die auch nicht? Ich dachte, es sei nur die GeForce 6 Reihe betroffen.

Ailuros
2005-10-28, 16:27:17
Die sache war wirklich interessant bei UT2k3, weil die LOD-setting beim installieren an hand der graka bestimmt wurde, aber über die ini geh@ckt werden konnte . In diesem zusammenhang äußerte Daniel Vogel selber den umstand, das einige mappen UltraHigh-Texturen (2048²) hätten.

Und die Maps kann man auch leicht finden. Was aber Daniel damals auch erklaerte ist dass UE2 eine ziemlich ausgetueftelte texture-swapping Methode (agp texturing) fuer ihre Zeit hatte.

Ich hab UT2kX auf vier GPU-"Generationen" jetzt gespielt; die ersten 3 hatten nur 128MB Speicher. Mit jeder Generation wurde es spielbarer und natuerlich am besten heute. Nur eben ist es dann weniger dank den 256MB und mehr dank der hoeheren Fuellrate und der verdammt hoeheren Leistung der CPU.

Ailuros
2005-10-28, 16:31:50
erscheint ja heute bei den amis. bin mal gespannt was der 81.87 bei der 7800er bringt. paar frames werdens schon sein. allerdings schon herbe wie die 512mb karte der ansonsten um ~20% schnelleren xt-pe zeigt wos langgeht.

Demo laeuft mit dem Treiber 1600 immer noch nicht richtig, was wohl zeigt dass das demo ein Problemchen hat. Steige ich aber hoeher als in 1600 sind die Texturen wieder normal. Ich hab sogar den Speicherverbrauch in jeweiliger Aufloesung abgemessen.

1280*1024 4xAA/16xAF

241.63 GPU memory + 66.32 system memory = 307.95MB

1600*1200 4xAA/16xAF

222.73 GPU + 25.18 system = 247.91MB :confused:

1920*1440 4xAA/16xAF

241.63 GPU + 164.11 system = 405.74MB

***edit: und ja es ist tatsaechlich etwas schneller, aber von dem Kack kann ich ja auch nichts anstaendiges beurteilen.

Ailuros
2005-10-28, 16:35:58
Aber trotzdem kann man klar eine Schlussfolgerung bzgl. des VRams ziehen, oder wie willst Du dieses offensichtliche Ergebnis ansonsten werten? Ist ja leicht zu sagen, das ist nur eine Demo, aber es liegt wohl offensichtlich auf der Hand, wieso die XL512 schneller ist - jetzt erstmal in der Demo.

Das Konzept eines pre-release demos brauch ich Dir nicht erklaeren. Schau Dir mal die vergangenen Fear Resultate (in allen reviews) and und schau Dir die finalen Resultate des finalen Spiels + patch an.

Noch schlimmer sobald nur ein Faktor zeigt dass eine Applikation einen bug hat, ist es weiser und frommer auf die Beseitigung dieses bugs zu warten und dann erst zu jeglichen Schlussfolgerungen zu kommen. Dass alle Quake4 Resultate z.B. fuer die Tonne sind weil keine Schatten im timedemo mitspielen waere ein weiteres Beispiel.

betasilie
2005-10-28, 16:44:42
Das Konzept eines pre-release demos brauch ich Dir nicht erklaeren. Schau Dir mal die vergangenen Fear Resultate (in allen reviews) and und schau Dir die finalen Resultate des finalen Spiels + patch an.

Noch schlimmer sobald nur ein Faktor zeigt dass eine Applikation einen bug hat, ist es weiser und frommer auf die Beseitigung dieses bugs zu warten und dann erst zu jeglichen Schlussfolgerungen zu kommen. Dass alle Quake4 Resultate z.B. fuer die Tonne sind weil keine Schatten im timedemo mitspielen waere ein weiteres Beispiel.
Natürlich sagen die Benchmarks nichts über die Final aus, weil die Demos oft in keinster Weise optimiert wurden, was ich aus Marketingsicht übrigens sehr seltsam finde. Trotzdem kann man sagen, dass die pre-release demo von 512MB massiv profitiert. Nicht mehr und auch nicht weniger.

Ailuros
2005-10-28, 16:51:46
Natürlich sagen die Benchmarks nichts über die Final aus, weil die Demos oft in keinster Weise optimiert wurden, was ich aus Marketingsicht übrigens sehr seltsam finde. Trotzdem kann man sagen, dass die pre-release demo von 512MB massiv profitiert. Nicht mehr und auch nicht weniger.

Was aber im angesicht des pre-release keinen besonderen Wert auf die Schlussfolgerung legt. Das demo ist verdammt verkackt, es ist nichtmal zustande die Anzahl meines Systemsspeichers richtig anzuerkennen und Aufzwingen in einem "read-only" ini hilft auch nichts. Modell-Detail ist "nur" auf "normal" - hoeher geht es momentan nicht usw. usw.

Angesicht Marketing ist es durchaus laecherlich, denn CoD2 ist ein TWIMTBP Spiel. Ich bin aber froh dass so etwas vorkommt, denn es ist ein weiterer Punkt gegen jegliche bloeden Konspirations-theorien.

Mr. Lolman
2005-10-28, 16:53:15
Angesicht Marketing ist es durchaus laecherlich, denn CoD2 ist ein TWIMTBP Spiel. Ich bin aber froh dass so etwas vorkommt, denn es ist ein weiterer Punkt gegen jegliche bloeden Konspirations-theorien.

Achwas. Daran glaubt ja niemand mehr. Wär ja nicht das erst TWIMTBP Spiel was auf ATis schneller rennt...

Ailuros
2005-10-28, 17:02:15
Achwas. Daran glaubt ja niemand mehr. Wär ja nicht das erst TWIMTBP Spiel was auf ATis schneller rennt...

Das brauchst Du mir persoenlich nicht sagen. Mir dreht sich der Kopf aber immer noch wenn ich trotzdem aehnlichen Mist auf dem Netz lesen kann.

Eine weitere OT erlaube ich mir aber noch: als BF2 rauskam war es das absolut miserabelste Stotter-fest und man konnte locker einschlafen bei den Ladezeiten (sie sind tatsaechlich etwas besser geworden). Zwischen dem Epos dass man fuer das Ding unbedingt 2GB Hauptspeicher braucht und das eine oder das andere stieg die Leistung zumindest zweimal um 10-15% zumindest auf beiden GPU-Familien seit der Veroeffentlichung. Der 1.02 patch machte bei mir die Sache eigentlich noch mieser und ich war gezwungen das ganze Spiel nochmal ohne diesen SW-virus zu installieren. Vom 1.03 patch hab ich mich aus Schiss ferngehalten. Fazit waere aber hier dass ich am Anfang nur mit reduzierten in game settings BF2 in 1600 mit AA/AF spielen konnte; heutzutage aber geht es mit den gleichen settings auch in 2048 (rein theoretisch denn die Aufloesung ist sinnlos aus anderen Gruenden).

Ich hab sowieso vor mir alle neuen Spiele anzuschafffen und es wird wohl der erste review sein der sich dann mit Demi's vidmemory Resultaten beschaeftigt ;)

Gandharva
2005-10-28, 17:05:47
Ich hab sowieso vor mir alle neuen Spiele anzuschafffen und es wird wohl der erste review sein der sich dann mit Demi's vidmemory Resultaten beschaeftigt ;)

na hoffentlich nicht erst anfang dezember ;)

Ailuros
2005-10-28, 17:10:16
na hoffentlich nicht erst anfang dezember ;)

Hoffentlich im November. Ich muss mir erstmal auch noch CoD2 besorgen koennen, das Spiel richtig spielen und dann komme ich erst zu den benchmarks. Schnell mal zu benchen und ein paar Seiten zusammenkritzeln kann ich auch innerhalb ein paar Stunden.

Gandharva
2005-10-28, 17:12:29
Hoffentlich im November. Ich muss mir erstmal auch noch CoD2 besorgen koennen, das Spiel richtig spielen und dann komme ich erst zu den benchmarks. Schnell mal zu benchen und ein paar Seiten zusammenkritzeln kann ich auch innerhalb ein paar Stunden.

ach wieso denn? viele andere nachen das doch auch :biggrin: ;)

Ailuros
2005-10-28, 17:25:07
ach wieso denn? viele andere nachen das doch auch :biggrin: ;)

a) Ich bin kein reviewer im sturen Sinn.
b) Spielen macht mehr Spass als ueber endlose Benchmarks zu masturbieren.
c) Vermeidet so viel wie moeglich Fehler und man hat nur mit ausgereifterem Material zu tun.
d) Alle anderen werden unter Umstaenden sogar dafuer bezahlt.

betasilie
2005-10-28, 17:41:16
Achwas. Daran glaubt ja niemand mehr. Wär ja nicht das erst TWIMTBP Spiel was auf ATis schneller rennt...
Joint Ops ist ein TWIMTBP-Spiel und es läuft z.B. auf einer X800Pro schneller, als auf einer 6800Ultra. :lol:

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=173906

Mr. Lolman
2005-10-28, 17:46:43
d) Alle anderen werden unter Umstaenden sogar dafuer bezahlt.

Na, berufsmässig zu benchen wär mir zu stupide. Geld fürs Leveldesignen bekommen, das wärs :rolleyes:

Joint Ops ist ein TWIMTBP-Spiel und es läuft z.B. auf einer X800Pro schneller, als auf einer 6800Ultra. :lol:

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=173906

Ja da gabs schon ein paar solche Spiele. UT2004 ist ja auch TWIMTBP ;) (http://www.computerbase.de/artikel/hardware/grafikkarten/2005/test_ati_radeon_x1800_x1600_x1300/15/#abschnitt_unreal_tournament_2004)

betasilie
2005-10-28, 17:49:07
Ja da gabs schon ein paar solche Spiele. UT2004 ist ja auch TWIMTBP ;) (http://www.computerbase.de/artikel/hardware/grafikkarten/2005/test_ati_radeon_x1800_x1600_x1300/15/#abschnitt_unreal_tournament_2004)
Oder dieses Rallyspiel, als DestructionDerby. Da waren es auch 40% weniger trotz TWIMTBP. ;)

Coda
2005-10-28, 17:49:51
Herzlichen Dank fuer's pre-release demo in 1024*768 :P

Was genau soll ich sehen? 1600x1200 4xAA, volle Texturen.

Du sollst sehen, dass da die X1800XT nur durch den Speicher so einen Vorteil hat. Anders kann man den Leistungssprung ggü. der X1800XL gar nicht erklären.

Xmas
2005-10-28, 17:59:10
Glaube ich nicht, 1GB sollte ausreichen. Die UE3 macht kein Streaming im Gegensatz zu BF2.
Doch, tut sie. Oder redest du von einer anderen Art von Streaming?

Ailuros
2005-10-29, 00:31:58
1600x1200 4xAA, volle Texturen.

Wo steht es im review dass es sich um 1600 handelt? Schau Dir mal etwas genauer die noAA/AF Leistungszahlen an und dann erklaer mir warum diese viel zu hoch sind fuer 1600*1200.

Hier xbitlabs:

http://www.xbitlabs.com/articles/video/display/asus-en7800gtx_14.html

Hier anandtech ohne soft shadows (noAA/AF):

http://www.anandtech.com/video/showdoc.aspx?i=2575&p=4

anandtech mit soft shadows (noAA/AF):

http://www.anandtech.com/video/showdoc.aspx?i=2575&p=6



Du sollst sehen, dass da die X1800XT nur durch den Speicher so einen Vorteil hat. Anders kann man den Leistungssprung ggü. der X1800XL gar nicht erklären.

Nur durch den Speicher ja? Dass die X1800XT 25% mehr Bandbreite hat als die 7800GTX ist unwichtig? Lies mal vorsichtig genug Wavey's R520 review durch und erklaer mir warum der Leistungseinbruch mit 4x und/oder 6xAA so klein ist, wenn Bandbreite hier ueberhaupt keine Rolle spielen sollte.

Erstens sind es keine 1600 Resultate von xbitlabs, zweitens zeigst Du mir immer noch pre-release demo Resultate und drittens sehe ich hier:

http://www.anandtech.com/video/showdoc.aspx?i=2575&p=5

....ein ganz anderes Bild. Und entschuldige aber bis ich mehr Tests darueber sehe, haben Resultate vom finalen Spiel mit seinem ersten offiziellen patch um einiges mehr Wert als die von einem pre-release demo.

deekey777
2005-10-29, 00:39:13
Joint Ops ist ein TWIMTBP-Spiel und es läuft z.B. auf einer X800Pro schneller, als auf einer 6800Ultra. :lol:

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=173906

Der Sinn des TWIMTBP-Logos ist dir aber bekannt?

betasilie
2005-10-29, 00:53:22
Der Sinn des TWIMTBP-Logos ist dir aber bekannt?
Ja, ist mir bekannt. Er soll den Leuten suggerieren, dass die Spiele mit nVidia Karten schneller, besser und stabiler laufen. ... "the way its meant to be played". Für diese Werbung zahlt nVidia auch ordentlich Kohle.

Aber ich bin schon gespannt was Du mir jetzt erzählen willst. Wahrscheinlich, dass es bugfreiheit garantieren soll. :lol:

deekey777
2005-10-29, 00:57:10
Ja, ist mir bekannt. Er soll den Leuten suggerieren, dass die Spiele mit nVidia Karten schneller, besser und stabiler laufen. ... "the way its meant to be played". Für diese Werbung zahlt nVidia auch ordentlich Kohle.

Aber ich bin schon gespannt was Du mir jetzt erzählen willst. Wahrscheinlich, dass es bugfreiheit garantieren soll. :lol:

Wenn keiner dieser Punkte zutrifft, wieso erwähnst du dann das TWIMTP-Logo?

betasilie
2005-10-29, 01:00:56
Wenn keiner dieser Punkte zutrifft, wieso erwähnst du dann das TWIMTP-Logo?
Ich erwähne dass, weil nVidia es auf die Spiele draufpappt. :biggrin:

aths
2005-10-29, 22:37:17
Der Sinn des TWIMTBP-Logos ist dir aber bekannt?Er legt seine Interpretation des Sinns dieses Logo als allgemein anerkannte Tatsache aus.

Coda
2005-10-29, 22:51:35
Doch, tut sie. Oder redest du von einer anderen Art von Streaming?Tut sie? Ich habe nur gehört, dass sie nur flexibel genug ist um das zu implementieren. Ich meine eben dynamisches Nachladen.

betasilie
2005-10-29, 23:04:36
Er legt seine Interpretation des Sinns dieses Logo als allgemein anerkannte Tatsache aus.
Es ist schlicht Wertbung, für die Nv zahlen muss. Aber wenn wundert es, dass Du das anzweifeln willst.

Xmas
2005-10-30, 00:04:13
Tut sie? Ich habe nur gehört, dass sie nur flexibel genug ist um das zu implementieren. Ich meine eben dynamisches Nachladen.
Ja, und genau das ist ausführlich implementiert. Es gab doch mal so ein Demo-Video wo gezeigt wurde wie sich ein Buggy durch eine Stadt bewegte und dabei die Kamera langsam über die Dächer schwebte um dann die ganze Stadt zu zeigen. Das soll so funktionieren dass detailierte Models nur dann geladen werden wenn sie auch nah genug sind.

Ailuros
2005-10-30, 00:21:51
Noch etwas fruehzeitig da ich mich nur mit demos von Fear und CoD2 beschaeftigt habe, aber beide laden etwa so viel Systemspeicher nach wie BF2. Oder noch genauer das was der Treiber eben berichtet.

aths
2005-10-30, 00:49:49
Es ist schlicht Wertbung, für die Nv zahlen muss. Aber wenn wundert es, dass Du das anzweifeln willst.Mich wundert es. Seit wann hält Werbung, was sie verspricht? Warum ist es also lustig, wenn es TWIMTBP-Spiele gibt, die auf einer Radeon scheller und/oder schöner laufen? Was ist insbesondere zu TWIMTBP zu sagen, wenn ATI mit GITG eine ähnliche Schiene fährt, nur nicht so viel Geld hat, es also entsprechend weniger Spiele mit dem ATI-Logo gibt? Fühlst du dich deshalb berufen, dich einseitig über solche Logos lustig zu machen, um ein in deiner Wahrnehmung vorhandenes ungerechtes Ungleichgewicht wieder auszubügeln? Fällt dir bei Diskussionen nichts weiter ein, wenn dir nichts weiter einfällt, außer dem anderen zwischen den Zeilen bornierte Tendenziösität zu unterstellen woraus logisch folgert, dass eine weitere Diskussion nicht lohnt? Diese Schiene kann ich – wie du siehst – auch fahren. Und was bringt das? Nichts.

Xonotron
2005-10-30, 01:32:59
Hallo zusammen,
ich lese im 3dc Forum nun schon eine ganze Weile - jetzt möchte ich mich mal zu Wort melden :smile:


Bis vorhin war ich über das, was ich so über die UnrealEngine3 gehört habe ziemlich begeistert - aber ehrlich gesagt bin ich gerade etwas enttäuscht.
Meine Enttäuschung bezieht sich auf den Trailer X05 Trailer HD Are you afraid? (http://www.gametrailers.com/gamepage.php?id=1650).

Zuerst war ich, wie schon zuvor bei Demos und Screenshots, total begeistert über die Grafik.
Bei genauerem Hinsehen erkennt man aber doch deutlich einen Unterschied zwischen der genialen Grafik und gar nicht spektakulärer standard Grafik.

So zum Beispiel die erste Szene in der die Kinderstimme zur Männerstimme wechselt.
Atemberaubende Grafik - einfach super stimmungsvoll und beeindruckend.
Auch die folgende Explosion. Homogen und einfach echt irgendwie. (Ich nenne das mal leuchtenden, volumetrischen Nebel.)

Dann (man sieht kurz das GoW Logo) wechselt die Grafik zu besagter standard Grafik - stimmungslos und platt.
Einzig die Charaktere und Waffen sind relativ hoch aufgelöst, schaut man sich aber z.B. die Rüstung an so erkennt man einen deutlichen Unterschied zu der ersten Szene. Außerdem ist die ganze Umgebung wenig detailiert und irgendwie schlecht beleuchtet. Die ganze Stimmung aus den hochqualitativen Szenen fehlt.
Schaut man sich eine der folgenden Szenen als Standbild an (die mit der splatter-Blutwolke) wir noch klarer was ich meine - ich finde das sieht einfach nur noch schlecht aus.

Dann kommen wieder ein paar schöne Sequenzen und dann (Gegner wird erschossen, rechts im Bild eine brennende Tonne) wieder matsch-Grafik.
Die etwas später zu sehende Explosion sieht mit Abstand schlechter aus als die in der ersten Szene - überhaupt nicht mehr homogen und volumetrisch.
Das gleiche gilt auch für die Animation der Charaktere übrigens...

Ich will das alles ja nicht schlechtreden - nur kann ich den Hype nicht verstehen, wenn er nur auf Videos basiert, die in irgend einem HiQuality Modus gerendert sind, den man dann später eh nicht zu sehen bekommt.
...oder ist das alles ganz offiziell so und ich hab es einfach nicht gewusst?

betasilie
2005-10-30, 01:46:08
Mich wundert es. Seit wann hält Werbung, was sie verspricht? Warum ist es also lustig, wenn es TWIMTBP-Spiele gibt, die auf einer Radeon scheller und/oder schöner laufen? Was ist insbesondere zu TWIMTBP zu sagen, wenn ATI mit GITG eine ähnliche Schiene fährt, nur nicht so viel Geld hat, es also entsprechend weniger Spiele mit dem ATI-Logo gibt? Fühlst du dich deshalb berufen, dich einseitig über solche Logos lustig zu machen, um ein in deiner Wahrnehmung vorhandenes ungerechtes Ungleichgewicht wieder auszubügeln? Fällt dir bei Diskussionen nichts weiter ein, wenn dir nichts weiter einfällt, außer dem anderen zwischen den Zeilen bornierte Tendenziösität zu unterstellen woraus logisch folgert, dass eine weitere Diskussion nicht lohnt? Diese Schiene kann ich – wie du siehst – auch fahren. Und was bringt das? Nichts.
Fühlst Du dich nun zum Beschützer NVidias berufen? Natürlich ist ATIs GITG genau das selbe in rot. Hat wer was anderes behauptet? Nur schmeißt ATI nicht soviel Kohle dafür raus. :)

Aber schön, dass Du so einen dummes Werbelogo verteidigst - jedenfalls wenn es von nVidia kommt.

Ailuros
2005-10-30, 01:58:08
Fühlst Du dich nun zum Beschützer NVidias berufen? Natürlich ist ATIs GITG genau das selbe in rot. Hat wer was anderes behauptet? Nur schmeißt ATI nicht soviel Kohle dafür raus. :)

Aber schön, dass Du so einen dummes Werbelogo verteidigst - jedenfalls wenn es von nVidia kommt.

Beide IHVs bezahlen NUR X-Summen an Geld wenn Spiel X, Y oder Z mit gewissen GPUs fuer Gratis angeboten wird; in dem Fall geht die Kohle nicht mal an den ISV selber sondern an den publisher oder anders an diejenige Firma die das Zeug auch verkauft. Ausser Du glaubst dass selbst Firmen etwas geschenkt bekommen auf dieser Welt.

Zeig mir eine Statistik von beiden IHVs wo genau drinsteht wieviel jeder und fuer was ausgiebt und dann erst koennen wir darueber reden. Dass Du "gehoert" hast dass IHV "A" mehr ausgiebt als IHV "B" ist mir zwar klar; der Unterschied ist aber dass es auch der Wahrheit zutreffen muesste. Alternativ zaehl die "game bundles" beider IHVs im letzten Jahr nach und sag mir wer und warum mehr oder weniger Gelder ausgegeben hat.

Und nein bevor es jemand sagt oder andeutet es fliessen keine schwarzen Gelder unterm Tisch wie viele sich vorstellen. Weder ATI noch NVIDIA haben gigantische Cash-resourcen um mit Geld nur so rumzuschmeissen.

***edit: der eigentliche Zweck beider Programme ist die Entwickler so gut wie moeglich durch die Entwicklung zu unterstuetzen. Das heisst natuerlich dass wen X-beliebiger Heini von einem unbekannten IHV einen bug im Treiber findet dass er entweder gar keine Antwort bekommt oder einfach viel zu spaet. Schickt aber Carmack oder jeder Carmack ein e-mail rueber kann es sein dass die Treiber-Affen auf beiden Seiten mehrere Tage nicht schlafen um ihm zu helfen. GPUs werden in etwas gleicher Anzahl an bekannte Entwickler verschickt afaik.

betasilie
2005-10-30, 02:05:51
Beide IHVs bezahlen NUR X-Summen an Geld wenn Spiel X, Y oder Z mit gewissen GPUs fuer Gratis angeboten wird; in dem Fall geht die Kohle nicht mal an den ISV selber sondern an den publisher oder anders an diejenige Firma die das Zeug auch verkauft. Ausser Du glaubst dass selbst Firmen etwas geschenkt bekommen auf dieser Welt.

Zeig mir eine Statistik von beiden IHVs wo genau drinsteht wieviel jeder und fuer was ausgiebt und dann erst koennen wir darueber reden. Dass Du "gehoert" hast dass IHV "A" mehr ausgiebt als IHV "B" ist mir zwar klar; der Unterschied ist aber dass es auch der Wahrheit zutreffen muesste. Alternativ zaehl die "game bundles" beider IHVs im letzten Jahr nach und sag mir wer und warum mehr oder weniger Gelder ausgegeben hat.

Und nein bevor es jemand sagt oder andeutet es fliessen keine schwarzen Gelder unterm Tisch wie viele sich vorstellen. Weder ATI noch NVIDIA haben gigantische Cash-resourcen um mit Geld nur so rumzuschmeissen.
Wir sind doch voll einer Meinung. :) Ich habe nur gesagt, dass Nvidia mehr für die TWIMTBP Logos auf den Spielen ausgibt, was ich schlicht aus der Menge ableite. Ist mir doch auch Latte, wofür die Werbegelder drauf gehen. Und nVidias TWIMTBP Logo ist doch sehr ausgeklügelt :up:

Ich finde es nur dumm, wenn man hier mehr draus machen will, als es eigentlich ist.

Tomcat70
2005-10-30, 10:07:19
Ne, wirklich nicht. Bis in einem Jahr dürften Grafikkarten der Leistungsklasse einer Radeon X1800 XL oder einer GeForce 7800 GT als Midrange gelten.

das ist wunschdenken.
defakto wird sich die sicht in zukunft immer mehr verzerren, im neuverkaufssektor könnte das vielleicht so sein, sicher aber nicht im bereich installierter weltweiter basis.

Ailuros
2005-10-30, 10:32:23
Wir sind doch voll einer Meinung. :) Ich habe nur gesagt, dass Nvidia mehr für die TWIMTBP Logos auf den Spielen ausgibt, was ich schlicht aus der Menge ableite.

Eben da beginnt auch schon der Fehler. NV bezahlt keinen Pfennig fuer das Logo oder das ein ISV im Programm teilnimmt. Ich hab Dir gerraten die "game bundles" zu zaehlen und nicht wie oft jeweils jegliches Logo auftritt in Spielen.

Ist mir doch auch Latte, wofür die Werbegelder drauf gehen. Und nVidias TWIMTBP Logo ist doch sehr ausgeklügelt :up:

Ich wuerde liebend gerne wissen wo wir uns einig sind. Keine Werbegelder. Lies nochmal meinen vorigen Post durch. Dass ATI seltener mit Logos auftritt liegt an der Tatsache dass ihr DevRel und Treiber-Team andere Reaktions-zeiten haben und das kann nur ATI's eigene Entscheidung und Programm sein denn insgesamt hat heutzutage ATI auch viel mehr Personal als NVIDIA.

Und da es sein muss NVIDIA hat insgesamt so stark die Unkosten seit 2004 reduziert, dass es fast oefters laecherlich wurde. So steigen auch nur die Margen und der Gewinn und nicht anders. Wenn man sich natuerlich erstmal die Muehe macht und sich ueber die jeweiligen Finanzen beugt, anstatt nur sie ins Leere zu blubbern gell?

Ailuros
2005-10-30, 10:34:28
das ist wunschdenken.
defakto wird sich die sicht in zukunft immer mehr verzerren, im neuverkaufssektor könnte das vielleicht so sein, sicher aber nicht im bereich installierter weltweiter basis.

Ueberhaupt kein Wunschdenken. Behalt mal den Gedanken fuer die naechsten zwei Wochen und dann sehen wir wie es im kommenden Fruehling weitergeht.

Mr. Lolman
2005-10-30, 10:41:17
Eben da beginnt auch schon der Fehler. NV bezahlt keinen Pfennig fuer das Logo oder das ein ISV im Programm teilnimmt. Ich hab Dir gerraten die "game bundles" zu zaehlen und nicht wie oft jeweils jegliches Logo auftritt in Spielen.

Ich wuerde liebend gerne wissen wo wir uns einig sind. Keine Werbegelder. Lies nochmal meinen vorigen Post durch. Dass ATI seltener mit Logos auftritt liegt an der Tatsache dass ihr DevRel und Treiber-Team andere Reaktions-zeiten haben und das kann nur ATI's eigene Entscheidung und Programm sein denn insgesamt hat heutzutage ATI auch viel mehr Personal als NVIDIA.

Und da es sein muss NVIDIA hat insgesamt so stark die Unkosten seit 2004 reduziert, dass es fast oefters laecherlich wurde. So steigen auch nur die Margen und der Gewinn und nicht anders. Wenn man sich natuerlich erstmal die Muehe macht und sich ueber die jeweiligen Finanzen beugt, anstatt nur sie ins Leere zu blubbern gell?

Und wenn man jetzt von ATI und von NV Support bekommt, darf/muss man beide Logos auf sein Spiel draufpappen? Kann man auch Support bekommen, und dann kein Logo ins Spiel einbauen?

Tomcat70
2005-10-30, 10:53:26
Ueberhaupt kein Wunschdenken. Behalt mal den Gedanken fuer die naechsten zwei Wochen und dann sehen wir wie es im kommenden Fruehling weitergeht.

totales wunschdenken......beweis siehe hier: http://www.steampowered.com/status/survey.html
die gesamte installierte basis-gfx-performance lässt sich selbst durch noch schnellere karten nicht so zügig erhöhen. nicht mal durch günstigere preise funktioniert das so einfach/schnell.

Demirug
2005-10-30, 10:59:59
Und wenn man jetzt von ATI und von NV Support bekommt, darf/muss man beide Logos auf sein Spiel draufpappen? Kann man auch Support bekommen, und dann kein Logo ins Spiel einbauen?

Es gibt ja mehr als eine Stufe von Support.

Demirug
2005-10-30, 11:04:17
totales wunschdenken......beweis siehe hier: http://www.steampowered.com/status/survey.html
die gesamte installierte basis-gfx-performance lässt sich selbst durch noch schnellere karten nicht so zügig erhöhen. nicht mal durch günstigere preise funktioniert das so einfach.

Traue keiner Statistik die du nicht selbst gefälscht hast.

Tomcat70
2005-10-30, 11:06:55
Traue keiner Statistik die du nicht selbst gefälscht hast.

verstehe dich nicht ganz, willst du behaupten diese daten sind von valve gefälscht?

mapel110
2005-10-30, 11:16:48
verstehe dich nicht ganz, willst du behaupten diese daten sind von valve gefälscht?
Eher von den Leuten, die CS 1.6 spielen. ;)
Schau dir mal die ersten Grafikkarten an. Sehen so Grafikkarten von den Leuten aus, die Fear oder Quake4 spielen? Ich glaube nicht.

Demirug
2005-10-30, 11:19:26
verstehe dich nicht ganz, willst du behaupten diese daten sind von valve gefälscht?

Der Spruch sagt etwas über die Qualität von Statistiken im Allgemeinen aus. Da Statistiken auch ein Marketingwerkzeug sind werden sie auch entsprechend missbraucht. Nun kann man eine Statistik natürlich direkt fälschen. Aber sowas machen nur Anfänger. Profis "fälschen" eine Statistik in dem sie schon im Vorfeld für die richtigen Vorraussetzungen sorgen das am Ede das herauskommt was sie haben wollen.

Ich weiß nun nicht ob Valve die Zahlen irgendwie marketingtechnisch nutzt um anderen ihr Steam Netzwerk schmackhaft zu machen aber das ist hier sowieso egal. Fakt ist das diese Zahlen nur einen kleinen Ausschnitt aus dem Gesamtmarkt zeigen der durch die Gutscheinaktion von ATI und Valve zudem noch verzert wurde.

Ailuros
2005-10-30, 11:31:46
totales wunschdenken......beweis siehe hier: http://www.steampowered.com/status/survey.html
die gesamte installierte basis-gfx-performance lässt sich selbst durch noch schnellere karten nicht so zügig erhöhen. nicht mal durch günstigere preise funktioniert das so einfach/schnell.

Wie gesagt behalte den Gedanken fuer die naechsten 2 Wochen und dann koennen wir das Thema nochmal besuchen.

Spasstiger sagte ein Jahr und dass ist ueberhaupt nicht uebertrieben; unter Umstaenden sogar etwas konservativ wenn man sich vorstellen kann was Anfang naechstes Jahres genau kommt im high end Markt. Die Leistung einer X1800XL/7800GT wird im Vergleich zu den zukuenftigen high end GPUs definiert und nicht im Vergleich zu was jede 0815 Statistik Dir sagen will.

betasilie
2005-10-30, 12:30:32
Eben da beginnt auch schon der Fehler. NV bezahlt keinen Pfennig fuer das Logo oder das ein ISV im Programm teilnimmt. Ich hab Dir gerraten die "game bundles" zu zaehlen und nicht wie oft jeweils jegliches Logo auftritt in Spielen.



Ich wuerde liebend gerne wissen wo wir uns einig sind. Keine Werbegelder. Lies nochmal meinen vorigen Post durch. Dass ATI seltener mit Logos auftritt liegt an der Tatsache dass ihr DevRel und Treiber-Team andere Reaktions-zeiten haben und das kann nur ATI's eigene Entscheidung und Programm sein denn insgesamt hat heutzutage ATI auch viel mehr Personal als NVIDIA.

Und da es sein muss NVIDIA hat insgesamt so stark die Unkosten seit 2004 reduziert, dass es fast oefters laecherlich wurde. So steigen auch nur die Margen und der Gewinn und nicht anders. Wenn man sich natuerlich erstmal die Muehe macht und sich ueber die jeweiligen Finanzen beugt, anstatt nur sie ins Leere zu blubbern gell?
Dann Beweise mr mal, dass die Publischer und Studios kein Geld bekommen dafür, dass sie das TWIMTBP Logo auf die Packung draufdrucken und im Intro laufen lassen. ... NVidia zahlt dafür, so einfach ist das.

Ailuros
2005-10-30, 12:57:47
Dann Beweise mr mal, dass die Publischer und Studios kein Geld bekommen dafür, dass sie das TWIMTBP Logo auf die Packung draufdrucken und im Intro laufen lassen. ... NVidia zahlt dafür, so einfach ist das.

Schoen wie sich der Ton ploetzlich aendert wenn einem die Argumente ausgehen ja? Es gibt fuer weder noch eigentliche Beweise, am allerwenigsten fuer Deine Konspirations-Thesen.

Weder NV noch ATI bezahlen dafuer und schon gar nicht weil gerade DU es so haben willst oder weil es in Deine wilde Fantasie passt. Entweder setzt Du Dich hin und dokumentierst mir dass NVIDIA's Ausgaben fuer Periode X biz Y hoeher sind als die von ATI und davon ab koennen wir eine halbwegs logische Debatte fuehren oder wir koennen nur auf "Hoeren-Sagen" und Deiner Vorstellung weiterhin sinnlos daherquaken.

betasilie
2005-10-30, 13:41:50
Schoen wie sich der Ton ploetzlich aendert wenn einem die Argumente ausgehen ja?
Erstens mal wo ändert sich mein Ton? Bin ich unfreundlich geworden, oder meinst Du das nur, weil ich offensichtlich anderer Meinung bin?

Es gibt fuer weder noch eigentliche Beweise, am allerwenigsten fuer Deine Konspirations-Thesen.
Was für konspirative Ideen? :rolleyes: Werbung kostet Geld, und wenn auf Spielekartons fett nVidia Werbung drauf kommt, dann zahlen sie dafür. In was für einer Welt lebst Du eigentlich, dass Du es für eine Verschwörungstehorie hältst, dass nVidia Werbefläche nicht geschenkt bekommt?

Im übrigen weiß ich es definitv von THQ, dass es selbstverständlich finanzelle Aufwendungen für das Logo gibt, je nach Größe, Platzierung und Länge des Trailers im Vorspann des Spiels, und ich denke nicht, dass es bei anderen Publishern anders läuft.

aths
2005-10-30, 23:05:10
Aber schön, dass Du so einen dummes Werbelogo verteidigst - jedenfalls wenn es von nVidia kommt.Das tu ich nicht – außer in deiner Wahrnehmung.

Dann Beweise mr mal, dass die Publischer und Studios kein Geld bekommen dafür, dass sie das TWIMTBP Logo auf die Packung draufdrucken und im Intro laufen lassen. ... NVidia zahlt dafür, so einfach ist das.Beweise mir mal, dass Nvidia dafür zahlt. Nvidia "zahlt" in Form von Devsupport, so einfach ist das.

betasilie
2005-10-31, 02:35:50
Das tu ich nicht – außer in deiner Wahrnehmung.
Tja, dann drück dich anders aus. Und ich versichere dir, dass das nicht nur in meiner Wahrnehmeung ist, was Du z.B. in diversen Threads nachlesen kannst, wo dich die Leute pro-NV halten. Eigentlich müssten die dich schon bezahlen, bei dem was Du teilweise so schreibst.

Beweise mir mal, dass Nvidia dafür zahlt. Nvidia "zahlt" in Form von Devsupport, so einfach ist das.
Erstensmal sitzt einer meine Jugendfreunde bei THQ, und den hatte ich gestern mal angerufen und er hat das ganz klar bestätigt, dass neben dem Dev-Support auch Geld fließt, je nach Größe des Logos auf der Packung und für den TWIMTBP Trailer im Vorspann. Und seine Position trägt ein "Vize" am Anfang, daher wird er das wohl wissen. Einen namen als Quelle werde ich aber sicher nicht angeben.

Zweitens ist schon alleine deine Vorstellung, dass NVidia diese große Werbeflächen umsonst bekommt, ist total abwegig. Wer sowas behauptet, hat entweder keine Ahnung von den wirtschaftlichen Abläufen in dem Geschäft, oder er will den Dev-Support seitens NVidia in einem lächerlichen Maße hypen.

Aber, dass Du das Offensichtliche leugnen willst, zeigt ja mal wieder wie kritisch Du bist, wenn es um deine heißgeliebte Firma geht.

aths
2005-10-31, 03:00:45
Tja, dann drück dich anders aus.Ich sehe keine Veranlassung, mich betareverse-approved auszudrücken. (Im Gegenteil macht es Spaß, den Beta aus der Reserve zu locken – und seine Sprüche zu hören, wie viel oder wenig Ahnung man zum Beispiel von wirtschaftlichen Abläufen habe.)

Und ich versichere dir, dass das nicht nur in meiner Wahrnehmeung ist, was Du z.B. in diversen Threads nachlesen kannst, wo dich die Leute pro-NV halten. Eigentlich müssten die dich schon bezahlen, bei dem was Du teilweise so schreibst.Ja, es gibt eine kleine Zahl von Leuten die sich laufend gegenseitig Mut zureden und sich die Aussagekraft ihrer Argumente zusichern, um ihre Traumwelt aufrecht zu erhalten. Fakten stören da nur, weshalb Artikel und Postings bewusst einseitig gelesen werden.

Erstensmal sitzt einer meine Jugendfreunde bei THQ, und den hatte ich gestern mal angerufen und er hat das ganz klar bestätigt, dass neben dem Dev-Support auch Geld fließt, je nach Größe des Logos auf der Packung und für den TWIMTBP Trailer im Vorspann. Und seine Position trägt ein "Vize" am Anfang, daher wird er das wohl wissen. Einen namen als Quelle werde ich aber sicher nicht angeben.Werd doch trotzdem mal genauer.

Zweitens ist schon alleine deine Vorstellung, dass NVidia diese große Werbeflächen umsonst bekommt, ist total abwegig. Wer sowas behauptet, hat entweder keine Ahnung von den wirtschaftlichen Abläufen in dem Geschäft, oder er will den Dev-Support seitens NVidia in einem lächerlichen Maße hypen.

Aber, dass Du das Offensichtliche leugnen willst, zeigt ja mal wieder wie kritisch Du bist, wenn es um deine heißgeliebte Firma geht.Was für dich alles so offensichtlich ist – für wen offensichtlich ist, dass NV meine "heißgeliebte Firma" sei, der sollte sich untersuchen lassen.

Angenommen, ich wäre tatsächlich pro Nvidia. Das würde einen, der tatsächlich neutral ist, nicht stören (oder beklagen sich Demirug, Zeckensack, Xmas, ...?) Gerade weil du dich ständig an angeblichen pro-NV-Tendenzen hochziehst, zeigt das dein Präferenz – interessanterweise halten mir weder nagus, noch Tarkin oder Jesus meine angebliche pro-NV-Einstellung vor.

Coda
2005-10-31, 03:03:36
Ich kann irgendwie auch nicht glauben, dass z.B. EPIC für das dicke TWIMTBP-Logo-Intro in UT2004 nichts bekommt.

Dev-Support sollte umsonst sein - es geht immerhin um die Performance auf der eigenen Hardware.

betasilie
2005-10-31, 03:12:13
Was für dich alles so offensichtlich ist – für wen offensichtlich ist, dass NV meine "heißgeliebte Firma" sei, der sollte sich untersuchen lassen.
Unfreundlich zu werden stärkt nicht gerade deine ohnehin schwache Argumentatioskette und zeigt nur, dass ich scheinbar nicht falsch liege mit meiner Aussage.

betasilie
2005-10-31, 03:16:03
Ich kann irgendwie auch nicht glauben, dass z.B. EPIC für das dicke TWIMTBP-Logo-Intro in UT2004 nichts bekommt.
Wäre ja auch ein Witz so eine immens teure Werbefläche für einen fast selbstverständlichen Dev-Support rauszugeben.

Das TWIMTBP-Logo ist ein Marketinglogo, was bezahlt wird und geht über den normalen Dev-Support weit hinaus.

mapel110
2005-10-31, 03:17:35
Das "The Way It's Meant To Be Played"-Logo findet sich auf vielen Spielepackungen wieder. Von Zeit zu Zeit werden Stimmen laut, die behaupten, dieser Sticker sei nichts weiter als bezahlte Werbefläche. Vom gestellten Entwickler-Support abgesehen, muss nVidia wirklich zahlen, um dann das Logo platzieren zu können?

Darryl Still: Lassen Sie mich das sehr klar sagen: Das trifft die Wahrheit nicht im entferntesten und man muss nur mal sehen, welche Stimmen sich da erheben, um die durchsichtigen Absichten zu erkennen. Nicht ein Dollar geht über den Tisch von oder zu einer der Seiten, wenn es darum geht, einen Titel in das "The Way Its Meant To Be Played"-Programm aufzunehmen.

"The Way its Meant to be Played" ist ein Programm, dass die gesamte Lebenszeit einer Software umfasst. Wir tun uns so früh wie möglich mit den Entwicklern zusammen und unterstützen sie während der Optimierung und dem Sicherstellen der Kompatibilität ihres Programmes, die Konsultationen gehen weiter bis zur Fertigstellung (und weiter bis zu den Patches). Wir haben ein ganzes Test-Lab nur dafür, einen detaillierten QA-Report (Report für die Qualitätssicherung - die Redaktion) für jede Version zu erstellen, die sie uns übermitteln. Wenn nötig, helfen wir sogar den richtigen Publisher für ihren Titel zu finden.

Wenn das Produkt erst mal lauffähig ist und zuverlässig auf NVIDIA-Hardware funktioniert, dann bieten wir dem Publisher die Möglichkeit, das "The Way Its Meant To Be Played"-Logo auf ihre Verpackungen und Materialien zu drucken. Als Gegenleistung können sie die Vorteile der ganzen Palette an Promotion-Aktionen, die wir laufen haben, nutzen, welche dem Kunden zeigen, dass sie den Kauf dieses Titels in Betracht ziehen und auf ihrem PC mit NVIDIA-Grafik sorglos spielen können. Diese Aktionen umfassen die Aufnahme in unsere NZone-Website. In unserem Verkaufs-Kiosk, in unserem vierteljährlichem "The Way"-Beiblatt mit einer Auflage von einer Million, in unseren Einzelhandel-Verkaufsstellen, welche die "The Way Its Meant To Be Played"-Titel im Laden direkt neben der Hardware platzieren, so dass Hard- und Softwarekäufe zugleich gemacht werden können - und so weiter und so fort.

Im Endeffekt ist das Logo das gleiche wie das Playstation2-Logo auf einem PS2-Spiel, es sagt dem Kunden "dieses Spiel läuft auf deinem NVIDIA-basiertem PC" - und das wäre nicht möglich ohne die schwere Arbeit mit dem Entwickler-Studio und im Back-End. Der Beweis für den Erfolg ist, dass der Einzelhandel mehr Stückzahlen von Titeln ordert, die das Logo tragen, weil sie a) mehr verkaufen und b) weniger Rücklauf haben. Dies kann in Zeiten, wo Kompatibilität die größte Herausforderung ist, mit dem man sowohl gegen Konsolen als auch integrierte Grafik kämpft, nur gut für die PC-Spieleindustrie sein.

aths
2005-10-31, 03:18:09
Ich kann irgendwie auch nicht glauben, dass z.B. EPIC für das dicke TWIMTBP-Logo-Intro in UT2004 nichts bekommt.Ich hab mal mit einem Typen von Eidos gesprochen, der meinte dass NV dafür nicht bezahle. Ich sagte, dass ich sofern ich eine Radeon-Karte im PC hätte, dieses NV-Logo nicht sehen wolle, und er meinte dass Eidos natürlich auch mit ATI zusammenarbeite.

Ich finde den Vorspann in UT ziemlich lächerlich (es verplempert meine wertvolle Lebenszeit), und das NV-Logo im WoW-Videokonfigurationsscreen störend (ich spiele es auf einer Radeon Mobility.) Allerdings merkt man in WoW, dass Blizzard offenbar von 3D-Profis beraten wurde, das betrifft die Ingame-Einstellungen für AA und AF, sowie bi/trilineare Filterung, Triple Buffering und so weiter – bisher kümmerten sich Spiele-Entwickler ja weniger darum, und man musste sowas mit externen Tools einstellen. Zum Glück hat Blizzard WoW offenbar auch hinreichend auf den Radeons getestet, jedenfalls ist die Performance für den Mobility-Chip ganz gut – und ich kann sogar mit AAA spielen, was mit einer GeForce abgesehen von der 7-er Serie nicht drin ist.

Dev-Support sollte umsonst sein - es geht immerhin um die Performance auf der eigenen Hardware.Japp.

betasilie
2005-10-31, 03:21:39
Das "The Way It's Meant To Be Played"-Logo findet sich auf vielen Spielepackungen wieder. Von Zeit zu Zeit werden Stimmen laut, die behaupten, dieser Sticker sei nichts weiter als bezahlte Werbefläche. Vom gestellten Entwickler-Support abgesehen, muss nVidia wirklich zahlen, um dann das Logo platzieren zu können?

Darryl Still: Lassen Sie mich das sehr klar sagen: Das trifft die Wahrheit nicht im entferntesten und man muss nur mal sehen, welche Stimmen sich da erheben, um die durchsichtigen Absichten zu erkennen. Nicht ein Dollar geht über den Tisch von oder zu einer der Seiten, wenn es darum geht, einen Titel in das "The Way Its Meant To Be Played"-Programm aufzunehmen.

"The Way its Meant to be Played" ist ein Programm, dass die gesamte Lebenszeit einer Software umfasst. Wir tun uns so früh wie möglich mit den Entwicklern zusammen und unterstützen sie während der Optimierung und dem Sicherstellen der Kompatibilität ihres Programmes, die Konsultationen gehen weiter bis zur Fertigstellung (und weiter bis zu den Patches). Wir haben ein ganzes Test-Lab nur dafür, einen detaillierten QA-Report (Report für die Qualitätssicherung - die Redaktion) für jede Version zu erstellen, die sie uns übermitteln. Wenn nötig, helfen wir sogar den richtigen Publisher für ihren Titel zu finden.

Wenn das Produkt erst mal lauffähig ist und zuverlässig auf NVIDIA-Hardware funktioniert, dann bieten wir dem Publisher die Möglichkeit, das "The Way Its Meant To Be Played"-Logo auf ihre Verpackungen und Materialien zu drucken. Als Gegenleistung können sie die Vorteile der ganzen Palette an Promotion-Aktionen, die wir laufen haben, nutzen, welche dem Kunden zeigen, dass sie den Kauf dieses Titels in Betracht ziehen und auf ihrem PC mit NVIDIA-Grafik sorglos spielen können. Diese Aktionen umfassen die Aufnahme in unsere NZone-Website. In unserem Verkaufs-Kiosk, in unserem vierteljährlichem "The Way"-Beiblatt mit einer Auflage von einer Million, in unseren Einzelhandel-Verkaufsstellen, welche die "The Way Its Meant To Be Played"-Titel im Laden direkt neben der Hardware platzieren, so dass Hard- und Softwarekäufe zugleich gemacht werden können - und so weiter und so fort.

Im Endeffekt ist das Logo das gleiche wie das Playstation2-Logo auf einem PS2-Spiel, es sagt dem Kunden "dieses Spiel läuft auf deinem NVIDIA-basiertem PC" - und das wäre nicht möglich ohne die schwere Arbeit mit dem Entwickler-Studio und im Back-End. Der Beweis für den Erfolg ist, dass der Einzelhandel mehr Stückzahlen von Titeln ordert, die das Logo tragen, weil sie a) mehr verkaufen und b) weniger Rücklauf haben. Dies kann in Zeiten, wo Kompatibilität die größte Herausforderung ist, mit dem man sowohl gegen Konsolen als auch integrierte Grafik kämpft, nur gut für die PC-Spieleindustrie sein.

Tja, das man das so hinstellt ist ja klar und den Text kennen wir alle.

Schon alleine diese Passage ist wohl ein schlechter Witz:
Im Endeffekt ist das Logo das gleiche wie das Playstation2-Logo auf einem PS2-Spiel, es sagt dem Kunden "dieses Spiel läuft auf deinem NVIDIA-basiertem PC" - und das wäre nicht möglich ohne die schwere Arbeit mit dem Entwickler-Studio und im Back-End.
Also ob irgendein Spiel nicht auf NVidia Hardware läuft, weil keine TWIMTBP Logo drauf ist, oder irgendein anderes Spiel nicht auf ATI Haradware.

Wer so einem Marketing glauben schenkt, der tut mir echt leid. Als ob ATI oder NV mit offenen Karten spielen. :rolleyes:

betasilie
2005-10-31, 03:22:50
Ich hab mal mit einem Typen von Eidos gesprochen, der meinte dass NV dafür nicht bezahle. Ich sagte, dass ich sofern ich eine Radeon-Karte im PC hätte, dieses NV-Logo nicht sehen wolle, und er meinte dass Eidos natürlich auch mit ATI zusammenarbeite.
Und was sagt uns das? Komisch, nicht - NVidia gibt Dev-Support und ATI gibt Dev-Support und NVidia wird beworben. :biggrin:

aths
2005-10-31, 03:31:23
Unfreundlich zu werden stärkt nicht gerade deine ohnehin schwache Argumentatioskette und zeigt nur, dass ich scheinbar nicht falsch liege mit meiner Aussage.Richtig. Scheinbar liegst du nicht falsch, aber anscheinend schon. ("Scheinbar" verwendet man, wenn etwas nur zum Schein so ist, in Wahrheit aber ganz anders. "Anscheinend" gibt den Schein einer Sache wieder, ohne dass beurteilt werden kann ob der Schein auch das Sein widerspiegelt.)

Wer so einem Marketing glauben schenkt, der tut mir echt leid. Als ob ATI oder NV mit offenen Karten spielen. :rolleyes:Aber du weißt natürlich, wie es läuft.

Und was sagt uns das? Komisch, nicht - NVidia gibt Dev-Support und ATI gibt Dev-Support und NVidia wird beworben. :biggrin:Tja. Da sollte man mal drüber nachdenken. Ich behaupte an dieser Stelle, dass es eine signifkante Korrelation gibt zwischen der Häufigkeit der TWIMTBP- und GITG-Logos und der Güte/Reaktionszeit des Developer-Supports.

betasilie
2005-10-31, 03:33:48
Richtig. Scheinbar liegst du nicht falsch, aber anscheinend schon.
Nun, anscheinend* liege ich richtig, wie Du im selben Posting unter Beweis stellst.
Tja. Da sollte man mal drüber nachdenken. Ich behaupte an dieser Stelle, dass es eine signifkante Korrelation gibt zwischen der Häufigkeit der TWIMTBP- und GITG-Logos und der Güte/Reaktionszeit des Developer-Supports.

Sowas lächerliches gibts doch garnicht. Als ob NV wegen dem besseren Dev-Support gleich Millionen schwere Werbeflächen bekommt. :ulol:

Und wenn der Dev-Support von NV soo gut sein soll, dann fragt sich der intelligente Mensch doch, wieso der NV-Dev-Support es nicht hinbekommt, dass TWIMTBP Games auf NV Hardware schneller laufen, als auf Karten der Konkurrenz.

*edited

aths
2005-10-31, 03:36:32
Nun, scheinbar schon, wie Du im selben Posting unter Beweis stellst.Richtig: Scheinbar schon. Anscheinend aber nicht. (Siehe zur näheren Erläuterung das obige editierte Posting.)

Sowas lächerliches gibts doch garnicht. Als ob NV wegen dem besseren Dev-Support gleich Millionen schwere Werbeflächen bekommt. :ulol:Du pickst dir die ganze Zeit nur wenige Zeilen aus den Postings, und überliest das andere – ganz ähnlich werden von dir und anderen leider auch meine Artikel gelesen. Ailuros hat einige kluge Dinge zum Thema TWIMTBP und GITG gesagt, die du leider ebenfalls ignoriert hast.

betasilie
2005-10-31, 03:38:42
("Scheinbar" verwendet man, wenn etwas nur zum Schein so ist, in Wahrheit aber ganz anders. "Anscheinend" gibt den Schein einer Sache wieder, ohne dass beurteilt werden kann ob der Schein auch das Sein widerspiegelt.)
Danke für den Hinweis.

aths
2005-10-31, 03:46:14
Danke für den Hinweis.Den Unterschied kenne ich auch erst seitdem ich die entsprechende Zwiebelfisch-Kolumne von Bastian Sick gelesen habe.

betasilie
2005-10-31, 03:48:24
Den Unterschied kenne ich auch erst seitdem ich die entsprechende Zwiebelfisch-Kolumne von Bastian Sick gelesen habe.
Liegt wohl daran, dass das umgangssprachlich von nahezu niemanden differenziert wird. Aber man lernt ja nie aus. :)

TheGamer
2005-10-31, 07:40:44
Mein Gott tut doch nicht so bloed hier und lasst es einfach so stehen es bringt ja eh nichts von beiden

Tomcat70
2005-10-31, 08:27:38
Der Spruch sagt etwas über die Qualität von Statistiken im Allgemeinen aus. Da Statistiken auch ein Marketingwerkzeug sind werden sie auch entsprechend missbraucht. Nun kann man eine Statistik natürlich direkt fälschen. Aber sowas machen nur Anfänger. Profis "fälschen" eine Statistik in dem sie schon im Vorfeld für die richtigen Vorraussetzungen sorgen das am Ede das herauskommt was sie haben wollen.

Ich weiß nun nicht ob Valve die Zahlen irgendwie marketingtechnisch nutzt um anderen ihr Steam Netzwerk schmackhaft zu machen aber das ist hier sowieso egal. Fakt ist das diese Zahlen nur einen kleinen Ausschnitt aus dem Gesamtmarkt zeigen der durch die Gutscheinaktion von ATI und Valve zudem noch verzert wurde.

naja, hauptsache man stellt in den raum das valve irgendwas verfälscht.........echt super methode um jemanden in verruf zu bringen ohne den ansatz von wahrheit.

langsam aber sicher wundert mich hier sowieso nix mehr.

Tigerchen
2005-10-31, 10:00:06
Ich wollte mal fragen was man so ungefähr für ne Hardware brauch, um die Unreal Engine 3 (z.B. in UT 2007) darzustellen.

Ist die Hardwareanforrung so viel höher als in F.E.A.R.???

Ich habe mal in nem Interview von dem Designer gelesen, dass die Unreal Engine 3 mit nem Athlon 64 3000+, einem Gigabyte RAM und einer 6800 GT schon richtig gut laufen würde.

Wird mein Laptop die Engine überhaupt einigermaßen flüssig darstellen können???

Hinweis: Ne Mobility Radeon X700 ist in der Leistung zwischen einer normalen X700 und ner -Pro-Variante im Dektop angesiedelt.

Gruß

janky :)

Unreal 3 wird eine Hardware erfordern wie sie auch zum ruckelfreien spielen von Duke Nukem Forever erforderlich ist.

Xonotron
2005-10-31, 10:36:55
...mich würde eure Meinung zu meinem Beitrag (#85) interessieren.

Ich finde, der Unterschied zwischen den schön gerenderten Szenen und den scheinbar wirklichen in-game Szenen sehr stark.
Die Enginge wird aber aufgrund der schönen Bilder/Videos und technischen Spezifikationen zurzeit als der heilige Gral der neuen 3D-Grafik hochgehalten und wie ich finde (wenn meine Schlussfolgerungen aus dem was ich gesehen habe richtig sind) übermäßig gehyped.

Kommt es mir alleine nur so vor, dass die in-Game Szenen deutlich schlechter aussehen als z.B. der aktuelle Lost-Coast Level von HL2?

[MK2]Mythos
2005-10-31, 11:04:37
Ja.

Winter[Raven]
2005-10-31, 11:11:23
Finde ich das gehype mehr als störend. Ich warte lieber auf die neuen Build der DOOM III Engine ab, den laut einem der Programmierer bei Raven soll es mehr als fertzen.

//EDIT:

Andere Engines werden wir auch erst nächstes Jahr sehen, und da sollte man nun wirklich sich nicht nur auf die U3 festlegen.

Kladderadatsch
2005-10-31, 12:30:45
dann wäre da ja auch noch die engine von the elder scrolls: oblivion. und wie es ausschaut, will valve von seiner hl²-engine auch noch lange nicht ab. (wozu sonst jetzt lost coast?)

Armaq
2005-10-31, 14:44:23
naja, hauptsache man stellt in den raum das valve irgendwas verfälscht.........echt super methode um jemanden in verruf zu bringen ohne den ansatz von wahrheit.

langsam aber sicher wundert mich hier sowieso nix mehr.


Demirug hat nur erwähnt, dass es bei der Valve-Statistik gewisse Faktoren gibt, die das Gesamtbild verfälschen.
Der ATI-Gutschein, den ich selbst genutzt habe, zählt dazu. Inzwischen habe ich 2 PC's mit Steam (ein älterer CS Key), jeweils rote und grüne Fraktion, wie schon mehrfach erwähnt.

Ansonsten finde ich diese Art der Umfrage aber schlichtweg genial, da viele Nutzer diese Informationen sonst gar nicht übermitteln könnten.
Die schiere Anzahl an übermittelten Daten lässt die meisten Meinungsforschungsinstitute sicherlich erblassen.
Ich kenne keine Umfrage mit ~800.000 Teilnehmern, jetzt komm mir keiner mit Wahlen.

Fakt ist dass der Nachteil den Nvidia durch die Marketingaktion erfahren hat im Laufe der Zeit verschwinden wird, bzw. keine relevante Größe mehr darstellt.

Ansonsten widerspreche ich Demirug, denn an einer Hardwareumfrage kann man nunmal nichts drehen. Es sind Fakten und keine Meinungen, dem entsprechend kann die Fragestellung nicht zum Schaden oder Vorteil manipuliert werden.

Wenn ich alle Bauern zu ihrer Kuhherde befrage mit folgendem Satz;

Wie viele Kühe haben sie insgesamt auf ihrem Hof, egal welcher Art und Herkunft?

Kann er mir eigentlich nur eine Antwort geben. Er kann noch versuchen die Antwort zu verfälschen, oder aus Unwissenheit falsch antworten.
Werden alle Kühe aber elektronisch erfasst ist der Bauer in dem Fall aussen vor. Lediglich technische Fehler sind jetzt noch denkbar.

MuLuNGuS
2005-10-31, 16:20:50
...mich würde eure Meinung zu meinem Beitrag (#85) interessieren.

Ich finde, der Unterschied zwischen den schön gerenderten Szenen und den scheinbar wirklichen in-game Szenen sehr stark.
Die Enginge wird aber aufgrund der schönen Bilder/Videos und technischen Spezifikationen zurzeit als der heilige Gral der neuen 3D-Grafik hochgehalten und wie ich finde (wenn meine Schlussfolgerungen aus dem was ich gesehen habe richtig sind) übermäßig gehyped.

Kommt es mir alleine nur so vor, dass die in-Game Szenen deutlich schlechter aussehen als z.B. der aktuelle Lost-Coast Level von HL2?

nix vorgerendert..

Coda
2005-10-31, 16:33:35
dann wäre da ja auch noch die engine von the elder scrolls: oblivion. und wie es ausschaut, will valve von seiner hl²-engine auch noch lange nicht ab. (wozu sonst jetzt lost coast?)Wieso sollten sie auch?

Spasstiger
2005-10-31, 18:29:47
Unreal 3 wird eine Hardware erfordern wie sie auch zum ruckelfreien spielen von Duke Nukem Forever erforderlich ist.



Welches Unreal 3? Und wie soll ein Unreal Engine 2 Game dieselben Hardwareanforderungen haben wie ein Unreal Engine 3 Game?

Oder sollte das ironisch gemeint sein, da Duke Forever genauso wie Unreal 3 wahrscheinlich nie erscheinen wird?

Tigerchen
2005-10-31, 19:03:42
Welches Unreal 3? Und wie soll ein Unreal Engine 2 Game dieselben Hardwareanforderungen haben wie ein Unreal Engine 3 Game?

Oder sollte das ironisch gemeint sein, da Duke Forever genauso wie Unreal 3 wahrscheinlich nie erscheinen wird?

Der Duke wird kommen! :biggrin:

Kladderadatsch
2005-10-31, 19:20:15
Wieso sollten sie auch?
ich habe die in hl² ein bisschen altertümlich empfunden, wie die aufgemotzte q3-engine in cod...deshalb ging ich jetzt halt davon aus, dass die angesichts der konkurrenz was neues machen.

Xonotron
2005-10-31, 23:32:28
nix vorgerendert..
Hmm, wäre natürlich super, wenn es so wäre!
...ich zeige Euch mal, was ich meine:

Hier zuerst fünf Bilder aus den schönen Szenen.

http://img22.imageshack.us/img22/6439/unrealengine3tgowx05h264019li.th.jpg (http://img22.imageshack.us/my.php?image=unrealengine3tgowx05h264019li.jpg) http://img494.imageshack.us/img494/8804/unrealengine3tgowx05h264022rk.th.jpg (http://img494.imageshack.us/my.php?image=unrealengine3tgowx05h264022rk.jpg) http://img494.imageshack.us/img494/5310/unrealengine3tgowx05h264031rx.th.jpg (http://img494.imageshack.us/my.php?image=unrealengine3tgowx05h264031rx.jpg) http://img494.imageshack.us/img494/2635/unrealengine3tgowx05h264046ij.th.jpg (http://img494.imageshack.us/my.php?image=unrealengine3tgowx05h264046ij.jpg) http://img494.imageshack.us/img494/7559/unrealengine3tgowx05h264114jt.th.jpg (http://img494.imageshack.us/my.php?image=unrealengine3tgowx05h264114jt.jpg)

Und nun fünf aus Szenen, die qualitativ abfallen, oder nicht?

http://img494.imageshack.us/img494/8927/unrealengine3tgowx05h264057ya.th.jpg (http://img494.imageshack.us/my.php?image=unrealengine3tgowx05h264057ya.jpg) http://img494.imageshack.us/img494/5266/unrealengine3tgowx05h264061zl.th.jpg (http://img494.imageshack.us/my.php?image=unrealengine3tgowx05h264061zl.jpg) http://img494.imageshack.us/img494/6818/unrealengine3tgowx05h264075zl.th.jpg (http://img494.imageshack.us/my.php?image=unrealengine3tgowx05h264075zl.jpg) http://img494.imageshack.us/img494/7943/unrealengine3tgowx05h264086xu.th.jpg (http://img494.imageshack.us/my.php?image=unrealengine3tgowx05h264086xu.jpg) http://img7.imageshack.us/img7/7494/unrealengine3tgowx05h264101zg.th.jpg (http://img7.imageshack.us/my.php?image=unrealengine3tgowx05h264101zg.jpg)

...vergleicht doch mal z.B. (Reihe-Bild) 1-1 mit 2-3. Die Rüstung ist auf dem unteren Bild total verwaschen.

Oder 1-3 und 2-5. In der ersten Reihe - DAS ist eine geniale Explosion, in der zweiten die sieht total billig dagegen aus.

Insgesamt ist in den Szenen der zweiten Reihe alles viel platter und undetallierter. Woher kommt das denn, wenn nicht die anderen offline oder mit irgend einem anderen System gerendert sind?
...die werden wohl doch kaum Szenen mit irgendwelchen abgestellten Grafikdetails in ihre Preview-Videos packen!

Ich würde mich super freuen, wenn die Engine Spiele mit Grafik wie aus Reihe eins ermöglicht, habe da aber so meine Zweifel.

betasilie
2005-11-01, 01:41:04
Hmm, wäre natürlich super, wenn es so wäre!
...ich zeige Euch mal, was ich meine:

Hier zuerst fünf Bilder aus den schönen Szenen.

http://img22.imageshack.us/img22/6439/unrealengine3tgowx05h264019li.th.jpg (http://img22.imageshack.us/my.php?image=unrealengine3tgowx05h264019li.jpg) http://img494.imageshack.us/img494/8804/unrealengine3tgowx05h264022rk.th.jpg (http://img494.imageshack.us/my.php?image=unrealengine3tgowx05h264022rk.jpg) http://img494.imageshack.us/img494/5310/unrealengine3tgowx05h264031rx.th.jpg (http://img494.imageshack.us/my.php?image=unrealengine3tgowx05h264031rx.jpg) http://img494.imageshack.us/img494/2635/unrealengine3tgowx05h264046ij.th.jpg (http://img494.imageshack.us/my.php?image=unrealengine3tgowx05h264046ij.jpg) http://img494.imageshack.us/img494/7559/unrealengine3tgowx05h264114jt.th.jpg (http://img494.imageshack.us/my.php?image=unrealengine3tgowx05h264114jt.jpg)

Und nun fünf aus Szenen, die qualitativ abfallen, oder nicht?

http://img494.imageshack.us/img494/8927/unrealengine3tgowx05h264057ya.th.jpg (http://img494.imageshack.us/my.php?image=unrealengine3tgowx05h264057ya.jpg) http://img494.imageshack.us/img494/5266/unrealengine3tgowx05h264061zl.th.jpg (http://img494.imageshack.us/my.php?image=unrealengine3tgowx05h264061zl.jpg) http://img494.imageshack.us/img494/6818/unrealengine3tgowx05h264075zl.th.jpg (http://img494.imageshack.us/my.php?image=unrealengine3tgowx05h264075zl.jpg) http://img494.imageshack.us/img494/7943/unrealengine3tgowx05h264086xu.th.jpg (http://img494.imageshack.us/my.php?image=unrealengine3tgowx05h264086xu.jpg) http://img7.imageshack.us/img7/7494/unrealengine3tgowx05h264101zg.th.jpg (http://img7.imageshack.us/my.php?image=unrealengine3tgowx05h264101zg.jpg)

...vergleicht doch mal z.B. (Reihe-Bild) 1-1 mit 2-3. Die Rüstung ist auf dem unteren Bild total verwaschen.

Oder 1-3 und 2-5. In der ersten Reihe - DAS ist eine geniale Explosion, in der zweiten die sieht total billig dagegen aus.

Insgesamt ist in den Szenen der zweiten Reihe alles viel platter und undetallierter. Woher kommt das denn, wenn nicht die anderen offline oder mit irgend einem anderen System gerendert sind?
...die werden wohl doch kaum Szenen mit irgendwelchen abgestellten Grafikdetails in ihre Preview-Videos packen!

Ich würde mich super freuen, wenn die Engine Spiele mit Grafik wie aus Reihe eins ermöglicht, habe da aber so meine Zweifel.
Ken Wunder. Gerade bei den XBox360 Filcmhen und Pics wird eine Menge mit pre-rendered Stuff gefaked, in einem Maße, dass es die DAUs am Ende nicht merken.

MuLuNGuS
2005-11-01, 09:43:58
Hmm, wäre natürlich super, wenn es so wäre!
...ich zeige Euch mal, was ich meine:

Hier zuerst fünf Bilder aus den schönen Szenen.

http://img22.imageshack.us/img22/6439/unrealengine3tgowx05h264019li.th.jpg (http://img22.imageshack.us/my.php?image=unrealengine3tgowx05h264019li.jpg) http://img494.imageshack.us/img494/8804/unrealengine3tgowx05h264022rk.th.jpg (http://img494.imageshack.us/my.php?image=unrealengine3tgowx05h264022rk.jpg) http://img494.imageshack.us/img494/5310/unrealengine3tgowx05h264031rx.th.jpg (http://img494.imageshack.us/my.php?image=unrealengine3tgowx05h264031rx.jpg) http://img494.imageshack.us/img494/2635/unrealengine3tgowx05h264046ij.th.jpg (http://img494.imageshack.us/my.php?image=unrealengine3tgowx05h264046ij.jpg) http://img494.imageshack.us/img494/7559/unrealengine3tgowx05h264114jt.th.jpg (http://img494.imageshack.us/my.php?image=unrealengine3tgowx05h264114jt.jpg)

Und nun fünf aus Szenen, die qualitativ abfallen, oder nicht?

http://img494.imageshack.us/img494/8927/unrealengine3tgowx05h264057ya.th.jpg (http://img494.imageshack.us/my.php?image=unrealengine3tgowx05h264057ya.jpg) http://img494.imageshack.us/img494/5266/unrealengine3tgowx05h264061zl.th.jpg (http://img494.imageshack.us/my.php?image=unrealengine3tgowx05h264061zl.jpg) http://img494.imageshack.us/img494/6818/unrealengine3tgowx05h264075zl.th.jpg (http://img494.imageshack.us/my.php?image=unrealengine3tgowx05h264075zl.jpg) http://img494.imageshack.us/img494/7943/unrealengine3tgowx05h264086xu.th.jpg (http://img494.imageshack.us/my.php?image=unrealengine3tgowx05h264086xu.jpg) http://img7.imageshack.us/img7/7494/unrealengine3tgowx05h264101zg.th.jpg (http://img7.imageshack.us/my.php?image=unrealengine3tgowx05h264101zg.jpg)

...vergleicht doch mal z.B. (Reihe-Bild) 1-1 mit 2-3. Die Rüstung ist auf dem unteren Bild total verwaschen.

Oder 1-3 und 2-5. In der ersten Reihe - DAS ist eine geniale Explosion, in der zweiten die sieht total billig dagegen aus.

Insgesamt ist in den Szenen der zweiten Reihe alles viel platter und undetallierter. Woher kommt das denn, wenn nicht die anderen offline oder mit irgend einem anderen System gerendert sind?
...die werden wohl doch kaum Szenen mit irgendwelchen abgestellten Grafikdetails in ihre Preview-Videos packen!

Ich würde mich super freuen, wenn die Engine Spiele mit Grafik wie aus Reihe eins ermöglicht, habe da aber so meine Zweifel.

irgendwo hab ich ein video gesehen wo es live gespielt(tokio glaub ich) wird und da hatte ich nicht das gefühl das die quali irgendwie abfällt.
auch sah Malcolm in der live gespielten UT2007 demo auf der E3 genau wie auf den pics aus.

klar für zwischenfilmchen wird immer das beste rausgesucht, aber ich glaube nicht das irgendwas auf einer anderen rechnerfarm vorgerendert wurde. vielleicht auf der UE3 selbst weils sonst zu langesam ist..lol
alles selbst testen ist doch immer noch am besten, hrhr

hier noch das vid von GC präsentation..
klick (http://download.beyondunreal.com/get.php/6/demos/ut2007_praesentation.rar)

Xonotron
2005-11-01, 11:53:51
irgendwo hab ich ein video gesehen wo es live gespielt(tokio glaub ich) wird und da hatte ich nicht das gefühl das die quali irgendwie abfällt
Danke für den Link!
Hmhmm... ich finde man sieht auch hier einen Unterschied zwischen dem ersten Video und den späteren ingame-Szenen.
Der Typ sagt ja auch extra (bei 6:10 etwa) dass von nun an alles in Echtzeit auf einem Intel-System laufen würde.

Der Unterschied ist aber nicht soo groß wie auf dem ersten Video, erstmal weil durch das Abfilmen schon einiges verloren ging, außerdem waren die schönen Szenen in "t_gow_x05_h264" insgesamt detaillierter.

http://img133.imageshack.us/img133/7623/unrealengine3ut1007praesentati.th.jpg (http://img133.imageshack.us/my.php?image=unrealengine3ut1007praesentati.jpg) http://img158.imageshack.us/img158/7623/unrealengine3ut1007praesentati.th.jpg (http://img158.imageshack.us/my.php?image=unrealengine3ut1007praesentati.jpg) http://img158.imageshack.us/img158/5880/unrealengine3ut1007praesentati1.th.jpg (http://img158.imageshack.us/my.php?image=unrealengine3ut1007praesentati1.jpg)
http://img158.imageshack.us/img158/4921/unrealengine3ut1007praesentati2.th.jpg (http://img158.imageshack.us/my.php?image=unrealengine3ut1007praesentati2.jpg) http://img158.imageshack.us/img158/296/unrealengine3ut1007praesentati3.th.jpg (http://img158.imageshack.us/my.php?image=unrealengine3ut1007praesentati3.jpg) http://img471.imageshack.us/img471/7623/unrealengine3ut1007praesentati.th.jpg (http://img471.imageshack.us/my.php?image=unrealengine3ut1007praesentati.jpg)

In den ingame-Szenen ist die Beleuchtung stumpfer, in dem ersten Teil wirkt alles irgendwie authentischer.

Natürlich ist es irgendwie müßig, weil eh noch kein Game auch nur annähernd fertig ist - "selbst testen ist doch immer noch am besten" da gebe ich Dir vollkommen Recht.
Ich denke aber, dass man das gezeigte Preview-Material nicht unkritisch sehen sollte - nicht getreu dem Motto "Die HeiligeGralEnginge(tm) wirds schon richten" alles durchgehen lassen :wink:

Dass es wirkt sieht man ja :rolleyes:

MuLuNGuS
2005-11-01, 12:00:49
die ingame szenen nutzen glaub ich sogar einen anderen FOV.

wie auch immer, wenn es der heilige grale wäre würde man|n| nicht bereits an der Unreal Engine 4 arbeiten.

ohne vernünftiges gameplay nützt das eh alles nix.

derMeister
2005-11-01, 12:56:42
Also im Vergleich zum entäuschenden UT2k4, wird 2k7 aber ein richtiger Sprung. Das es geht, zeigt ja FEAR schon deutlich. Nur wird 2k7 wohl komplexer durch Fahrzeuge und Außenareale. Ich kann mir aber kaum vorstellen, dass 2k7 erst 07 kommen soll, das wäre doch viel zu spät? Oder bin ich auf dem Holzweg?

mbee
2005-11-01, 13:03:00
Was zum Geier war bei UT2004 zur Zeit des Release enttäuschend? :|
Es ist immer noch erstaunlich, was diese Engine auch heutzutage noch zu leisten vermag und Modi wie Onslaught waren damals auch recht innovativ.

Wixi
2005-11-01, 13:40:12
im vergleich zu ut2003 aber kaum ein fortschritt ^^.

mbee
2005-11-01, 13:47:26
Sehe ich persönlich anders aufgrund der neuen Modi (Onslaught, Assault) bzw. wurden hier zudem die Möglichkeiten der Engine auch weit besser ausgenutzt (man braucht nur die Außenareale zu vergleichen). Eine neue Engine in dieser kurzen Zeit zu erwarten, wäre auch mehr als nur ein wenig unrealistisch gewesen und einige Leute sind ja schon aufgrund der nicht einmal so stark gestiegenen Hardware-Anforderungen Sturm gelaufen ;)

Spasstiger
2005-11-01, 14:24:06
Anhand von Videocaps aus einem abgefilmten Video in schlechter Qualität würde ich mir keine Meinung über die Grafik eines Spiels bilden, weil einfach zu viele Details verloren gehen.

Xonotron
2005-11-01, 15:11:42
Anhand von Videocaps aus einem abgefilmten Video in schlechter Qualität würde ich mir keine Meinung über die Grafik eines Spiels bilden, weil einfach zu viele Details verloren gehen. Right!
...das Gesagte basiert ja vor allem auf dem Video "t_gow_x05_h264" - nicht abgefilmt und HD.
In dem abgefilmten Video sind - wie gesagt - die Unterschiede sehr viel geringer.

robbitop
2005-11-01, 17:29:55
Fühlst Du dich nun zum Beschützer NVidias berufen? Natürlich ist ATIs GITG genau das selbe in rot. Hat wer was anderes behauptet? Nur schmeißt ATI nicht soviel Kohle dafür raus. :)

Aber schön, dass Du so einen dummes Werbelogo verteidigst - jedenfalls wenn es von nVidia kommt.
Ist dir so ein Scheiss nicht eigentlich viel zu platt?

betasilie
2005-11-01, 17:41:32
Was zum Geier war bei UT2004 zur Zeit des Release enttäuschend? :|
Es ist immer noch erstaunlich, was diese Engine auch heutzutage noch zu leisten vermag und Modi wie Onslaught waren damals auch recht innovativ.
Ich habe das Ding damals gekauft, und finde es absolut enttäuschend - spielerisch, wie auch technolgisch.

betasilie
2005-11-01, 17:42:02
Ist dir so ein Scheiss nicht eigentlich viel zu platt?
Das frage ich mich oft auch bei einigen Postings.

Spasstiger
2005-11-01, 17:44:13
Ich habe das Ding damals gekauft, und finde es absolut enttäuschend - spielerisch, wie auch technolgisch.

Warum hast du technologisch irgendwelche Fortschritte erwartet? UT2004 war ein perfektioniertes UT2003, ich habs auf Lans bisher immer gerne gespielt, einmal sogar auf einem Turnier (1on1).

derMeister
2005-11-02, 02:13:53
Sehe ich persönlich anders aufgrund der neuen Modi (Onslaught, Assault)
Hätte man auch nen Add-on drauss machen können. Hab zwar gern Onslaught gedaddelt, aber es auch nur das, grafisch eine Enttäuschung. Zumal noch nicht mal DX9 Game.

Hydrogen_Snake
2005-11-02, 13:09:14
Hätte man auch nen Add-on drauss machen können. Hab zwar gern Onslaught gedaddelt, aber es auch nur das, grafisch eine Enttäuschung. Zumal noch nicht mal DX9 Game.

Ach komm leute. Erwartungen habt Ihr!? DX9 Game!? Wenn ihr wollt könnt ihr euch den dx9 Patch ziehen. Da gabs mal was mit dx9 support aber damals waren DX9 karten nicht so etwas wie Standard, die haben sich erst dieses Jahr durchgesetzt liegt aber auch nur an Nvidia das die GT6600 und 6800 so spottbillig raushausen bzw. ATI die x800.

Grafisch sah UT2k4 damals auf high immer noch besser aus als alles andere bis auf Splinter Cell.

Kommt mal wieder runter.

Monger
2005-11-02, 14:09:28
Ach komm leute. Erwartungen habt Ihr!? DX9 Game!? Wenn ihr wollt könnt ihr euch den dx9 Patch ziehen. Da gabs mal was mit dx9 support aber damals waren DX9 karten nicht so etwas wie Standard, die haben sich erst dieses Jahr durchgesetzt liegt aber auch nur an Nvidia das die GT6600 und 6800 so spottbillig raushausen bzw. ATI die x800.

Grafisch sah UT2k4 damals auf high immer noch besser aus als alles andere bis auf Splinter Cell.

Kommt mal wieder runter.

Sehe ich genauso.

a) Nur weil ein Spiel irgendeinen DirectX 9 Effekt unterstützt, ist es nicht automatisch grafisch hochwertig.

b) UT2004 sieht sogar immer noch gut aus. So hoch aufgelöste, scharfe Texturen und detaillierte Geometrie kenne ich aus keinem anderen Spiel. Natürlich merkt man langsam das Alter, aber etliche aktuelle Spiele sehen deutlich schlechter aus.

Ri*g*g*er
2005-11-02, 17:03:10
Hi all,

jetzt muss ich aber mal meinen Finger heben.

UT 2004 war zwar keine Neuerfindung aber wie oben bereits geschrieben worden ist.

Bei dem Game stimmt einfach alles. !!!

Die Grafik ist noch nicht mal DX 9 und sieht dabei schon verdammt genial aus.
Davon sollten sich heute Games mal eine Scheibe abschneiden.

Tolle DX 9 Spielereien hin oder her aber die sollten mal lieber Geniale Texturen + Spielerein auf den Markt bringen und das sehe ich im mom sehr selten wenn überhaupt nicht.

Die Unreal Engine 3 wird so etwas bringen.
Ich wette das wir uns die Augen reiben werden wenn wir das Game auf der Platte haben werden.

Von alle Engines die auf dem Markt sind halte ich die Unreal Engine für immer noch das beste Produkt weil sie einfach modular aufgebaut ist und man über die Zeit hinweg einzelne Sachen ausgetauscht hat bzw. stetig weiterverbessert hat.

Für mich hat und wird die U-Engine für folgende Punkte gelobt und bewundert:

- Auch auf älteren Rechnern wunderbar performant einzustellen
- Der Netzcode ist einfach klasse (an z.b. Onslaught denke)
- Man kann unzählige Mods selber basteln sowie Moddels und Maps
- Es gibt sowohl eine Linux Variante wie auch Windows
(Server eingeschlossen)
- Der Support (Patches) lässt einen nicht im Regen stehen

und Epic bringt immer Patches raus und hat und wird auch immer dafür sorgen das ein Game läuft.

Wenn ich da z.b. an EA mit diversen Battlefield Spielen denke bekomme ich gleich mehrere Würgekrämpfe.

Mfg
Ri*g*g*er

MuLuNGuS
2005-11-02, 22:00:42
Hi all,

jetzt muss ich aber mal meinen Finger heben.

UT 2004 war zwar keine Neuerfindung aber wie oben bereits geschrieben worden ist.

Bei dem Game stimmt einfach alles. !!!

Die Grafik ist noch nicht mal DX 9 und sieht dabei schon verdammt genial aus.
Davon sollten sich heute Games mal eine Scheibe abschneiden.

Tolle DX 9 Spielereien hin oder her aber die sollten mal lieber Geniale Texturen + Spielerein auf den Markt bringen und das sehe ich im mom sehr selten wenn überhaupt nicht.

Die Unreal Engine 3 wird so etwas bringen.
Ich wette das wir uns die Augen reiben werden wenn wir das Game auf der Platte haben werden.

Von alle Engines die auf dem Markt sind halte ich die Unreal Engine für immer noch das beste Produkt weil sie einfach modular aufgebaut ist und man über die Zeit hinweg einzelne Sachen ausgetauscht hat bzw. stetig weiterverbessert hat.

Für mich hat und wird die U-Engine für folgende Punkte gelobt und bewundert:

- Auch auf älteren Rechnern wunderbar performant einzustellen
- Der Netzcode ist einfach klasse (an z.b. Onslaught denke)
- Man kann unzählige Mods selber basteln sowie Moddels und Maps
- Es gibt sowohl eine Linux Variante wie auch Windows
(Server eingeschlossen)
- Der Support (Patches) lässt einen nicht im Regen stehen

und Epic bringt immer Patches raus und hat und wird auch immer dafür sorgen das ein Game läuft.

Wenn ich da z.b. an EA mit diversen Battlefield Spielen denke bekomme ich gleich mehrere Würgekrämpfe.

Mfg
Ri*g*g*er

u 've got point!

derMeister
2005-11-02, 22:22:50
Ach komm leute. Erwartungen habt Ihr!? DX9 Game!? Wenn ihr wollt könnt ihr euch den dx9 Patch ziehen. Da gabs mal was mit dx9 support aber damals waren DX9 karten nicht so etwas wie Standard, die haben sich erst dieses Jahr durchgesetzt liegt aber auch nur an Nvidia das die GT6600 und 6800 so spottbillig raushausen bzw. ATI die x800.

Grafisch sah UT2k4 damals auf high immer noch besser aus als alles andere bis auf Splinter Cell.

Kommt mal wieder runter.

Du meinst wohl eher, weil nVidia noch nicht soweit war :wink:
Was war die 9500/9700 Karten doch gleich, ahja Dx9 rischtisch?!
Aber ok, will auch nicht auf 2k4 rumhacken, das machte schon meine FX5900 bei PrimeEval :redface:

Ailuros
2005-11-04, 00:41:47
Erstensmal sitzt einer meine Jugendfreunde bei THQ, und den hatte ich gestern mal angerufen und er hat das ganz klar bestätigt, dass neben dem Dev-Support auch Geld fließt, je nach Größe des Logos auf der Packung und für den TWIMTBP Trailer im Vorspann. Und seine Position trägt ein "Vize" am Anfang, daher wird er das wohl wissen. Einen namen als Quelle werde ich aber sicher nicht angeben.

Welches Spiel oder Spiele genau und was beinhaltet ein Vertrag wo tatsaechlich Geld reinfliesst genau?

Zweitens ist schon alleine deine Vorstellung, dass NVidia diese große Werbeflächen umsonst bekommt, ist total abwegig. Wer sowas behauptet, hat entweder keine Ahnung von den wirtschaftlichen Abläufen in dem Geschäft, oder er will den Dev-Support seitens NVidia in einem lächerlichen Maße hypen.

Ob ich jetzt eine persoenliche Ahnung habe wie Sachen in diesem Geschaeft ablaufen ist ein Kapitel dass nichts mit der Debatte zu tun hat. Und ich werde mich auch nicht hinsetzen und versuchen irgenwelchen Bloedsinn zu beweisen. Mit nem ziemlich fetten Addressenbuch koennte ich auch werben, aber das ist nicht nur Kindergarten-Material sondern ist auch total irrelevant hier.

Ailuros
2005-11-04, 01:01:56
Tja, das man das so hinstellt ist ja klar und den Text kennen wir alle.

Schon alleine diese Passage ist wohl ein schlechter Witz:
Im Endeffekt ist das Logo das gleiche wie das Playstation2-Logo auf einem PS2-Spiel, es sagt dem Kunden "dieses Spiel läuft auf deinem NVIDIA-basiertem PC" - und das wäre nicht möglich ohne die schwere Arbeit mit dem Entwickler-Studio und im Back-End.
Also ob irgendein Spiel nicht auf NVidia Hardware läuft, weil keine TWIMTBP Logo drauf ist, oder irgendein anderes Spiel nicht auf ATI Haradware.

Wer so einem Marketing glauben schenkt, der tut mir echt leid. Als ob ATI oder NV mit offenen Karten spielen. :rolleyes:

Dabei warte ich immer noch ueber eine halbwegs logische Analyse was die Finanzen beider IHVs betrifft. Logischerweise muesste NVIDIA extrem hoehere Ausgaben haben mit Deiner Logik und nein bei einer oeffentlichen Firma kann man den Investoren solche Ausgaben nicht unterschlagen oder anders abschreiben.

Natuerlich gibt es bei allen Firmen merkwuerdige Marketing-Schranzen, aber wenn ich behaupte dass NVIDIA seit einiger Zeit ihre Ausgaben drastisch reduziert hat, dann weiss ich auch genau wie, wo und seit wann. Komischerweise sogar bevor das TWIMTBP Programm offiziell angefangen hat, wobei NV ziemlich tief im Dreck hockte mit dem NV30-Flop. Es ist eben so dass IHVs nicht so sinnlos mit Moneten rumwerfen, weil sie eben auch Gewinn machen moechten.

Gewinn macht man eben nur wenn man durch eine Krise die Margen maximalisiert und die Ausgaben minimalisiert und so UND NUR SO kam NV aus der NV3x-Krise raus und nicht anders rum. Es gab ja auch u.a. die tolle These dass Activision ganze 6 Mio $ bekam, dass Carmack einen extra path in Doom3 fuer NV3x schreiben wuerde. Mit welchem path das Spiel veroeffentlicht wurde, was dieser genau beinhaltete und ob das Spiel als "bundle" mit GeForces verkauft wurde ist natuerlich nebensaechlich. Es ist eben leichter zu glauben dass Activision angebliche Schmiergelder fuer Carmack kassiert, wobei id wohl angebrachter waere als der obrige Schwachsinn.

Aehnliche Beispiele gibt es genug, genauso eben wie Leute die glauben wollen was ihnen gerade passt. Nein NVIDIA und ueberhaupt ihre PR-Abteilung ist keinesfalls unschuldig, aber es gibt einfachere und um weiteres billigere Wege Schlammschlachten auszufuehren. Und von denen erfaehrst Du und Dein Freund sowieso nur ein Bruchteil.

Hydrogen_Snake
2005-11-04, 10:51:47
Du meinst wohl eher, weil nVidia noch nicht soweit war :wink:
Was war die 9500/9700 Karten doch gleich, ahja Dx9 rischtisch?!
Aber ok, will auch nicht auf 2k4 rumhacken, das machte schon meine FX5900 bei PrimeEval :redface:

Naja zwischen unterstütztem DX9 und genutzdem DX9 ist immer noch ein Himmelweiter unterschied! Nun und die GF5800 bzw 5900 war damals auch ziemlich performant, und in ut sowiese keine probs da ja nicht massig dx9 shader...

janky
2005-11-04, 13:21:06
Beim Stöbern im Internet bin ich auf folgendes gestoßen:
(von amazon.de, unter UT2007 kaufen)

Link: klick (http://www.amazon.de/exec/obidos/ASIN/B0009POABQ/ref=br_lf_vg_8/302-6470195-5982459)

Folgendes Zitat:

30 von 60 Kunden fanden die folgende Rezension hilfreich:

5 von 5 Sternen UT 2007 schon 2006, 26. Juni 2005
Rezensentin/Rezensent: siquch (Mehr über mich) aus Büchlberg, Bayern Deutschland
Das Spiel UT 2007 soll in der zweiten Jahreshälfte 2006 erscheinen! Im allgemeinen kann man sich auf diese Angabe der Entwickler verlassen, da diese mit UT 2003 und UT 2004 in Terminsachen ihr Wort hielten! Es wird im Spiel zudem neue laut Entwicklern Insektenähnliche Fahrzeuge geben, aber mehr wurde noch nicht verraten!

Die Unreal 3 Engine die in UT 2007 verwendet wird stellt dabei sehr realistische Bilder dar! Jedoch ist die heutige Hardware noch zu schwach für diese Engine, denn Laut den Entwicklern wird man eine Grafikkarte mit mindestens 1GB Grafikspeicher brauchen, da die Engine nicht mehr nur den Effekt von vorhandenen Details vortäuscht, sondern diese wirklich rendert!

Man könnte also sagen das man für diese Engine und die Vollen Details eine Grafikkarte bräuchte die viermal so Stark wie eine Geforce 6800 Ultra ist! Der Arbeitsspeicher den man brauchen wird, dürfte bei 2-3gigabyte liegen und die CPU bei etwa 4 GhZ!

Jetzt Aufzurüsten wäre also nicht nur sehr verfrüht sondern auch für diese Anforderungen nicht möglich!

Abschließend kann man sagen das dieses Spiel mit sicherheit der Knaller wird, genauso wie der PC den man däfur haben muss!

War diese Rezension für Sie hilfreich?


Gruß

janky :smile:

drmaniac
2005-11-04, 13:44:26
gut nur, dass sich die kommenden Intel CPUs problemlos auf 4.25 bis 4.5 ghz übertakten lassen (65nm) (mit standart Luftkühler!!!) , Review dazu siehe 3dcenter news :D

das gepaart mit den refresh chips von R520 und GTX7800 (die ja doppelt so schnell sein sollten wie dann eine 6800er) sind die technischen Voraussetzungen auf jeden Fall gegeben ;)

Spasstiger
2005-11-04, 13:56:48
Beim Stöbern im Internet bin ich auf folgendes gestoßen:
(von amazon.de, unter UT2007 kaufen)

[...]

Gruß

janky :smile:

Ich hoffe mal, dass du die Informationen aus Amazon-Kundenrezesionen nicht für bare Münze nimmst. :|
Da wird einfach wild drauflosspekuliert, wenn natürlich auch in realistischem Maß.

stav0815
2005-11-04, 15:52:03
Ich hoffe mal, dass du die Informationen aus Amazon-Kundenrezesionen nicht für bare Münze nimmst. :|
Da wird einfach wild drauflosspekuliert, wenn natürlich auch in realistischem Maß.
du hältst 1Gb Grafik-Ram für ein realistisches Maß?
dann rüste ich meinen PC nichtmehr auf! Bis 2007 haben einige noch nichmal 512Mb, was wollen die dann von 1Gb?

Spasstiger
2005-11-04, 17:23:57
du hältst 1Gb Grafik-Ram für ein realistisches Maß?

Bei maximalen Details mit allen Schikanen (4xAA+8:1AF) in mindestens 1280x1024 wird man wohl nur mit High-End-Grafikkarten flüssig spielen können, die auch mit 1 GB Grafikspeicher kommen. Allerdings denke ich, dass man mit einer 512 MB Karte auch keine gravierenden Nachteile haben wird. Erst bei 256 MB wird man bei vollen Details ernsthafte Einbrüche haben, denke ich mal.

stav0815
2005-11-04, 17:56:11
Bei maximalen Details mit allen Schikanen (4xAA+8:1AF) in mindestens 1280x1024 wird man wohl nur mit High-End-Grafikkarten flüssig spielen können, die auch mit 1 GB Grafikspeicher kommen. Allerdings denke ich, dass man mit einer 512 MB Karte auch keine gravierenden Nachteile haben wird. Erst bei 256 MB wird man bei vollen Details ernsthafte Einbrüche haben, denke ich mal.
danke, das halte ich doch für wesentlich realistischer =)

janky
2005-11-04, 19:25:12
Schaut mal hier:

klick (http://forum.gamestar.de/gspinboard/showthread.php?t=162684)

Auch nit schlecht!!!

Dann läuft das ja noch bei mir!!!

Ein bisschen komisch: Bei Minimum wird GeForce 6 angegeben.
Ne 6200 Turbocache oder ne 6800 ULTRA???
Doof!

Gruß

janky :smile:

gnomi
2005-11-05, 12:40:51
Schaut mal hier:

klick (http://forum.gamestar.de/gspinboard/showthread.php?t=162684)

Auch nit schlecht!!!

Dann läuft das ja noch bei mir!!!

Ein bisschen komisch: Bei Minimum wird GeForce 6 angegeben.
Ne 6200 Turbocache oder ne 6800 ULTRA???
Doof!

Gruß

janky :smile:


Ne 6600 GT sollte es schon sein. (der Rest ist kastrierter Müll und für Gamer eher unbrauchbar)
Über 800*600 mit mittleren Details wird man da aber schätzungsweise wohl nicht hinauskommen.
Die genannten Minimalanforderungen beziehen sich denke ich nicht auf das, was man später auf der Verpackungsrückseite sehen wird.
(ist eher als grobe Schätzung für einigermaßen angenehme Spielbarkeit mit genug Details zu sehen)

Spasstiger
2005-11-05, 13:04:05
Ne 6600 GT sollte es schon sein. (der Rest ist kastrierter Müll und für Gamer eher unbrauchbar)
Über 800*600 mit mittleren Details wird man da aber schätzungsweise wohl nicht hinauskommen.

Ich bin so optimistisch, zu glauben, dass man es auch mit meiner DX9-Grafikkarte der ersten Generation (Radeon 9700) auf niedrigen bis mittleren Details in 1024x768 ohne AA zocken gut zocken können wird. Kein HDR, mittlere Texturauflösung, geringe Schattenauflösung und evtl. statt dem Parallax Mapping nur Normal Mapping, dann sollte es wohl klappen.
Aber zu UT2007 werd ich mir eh nen neuen Rechner zulegen.

Narrenkönig
2005-11-05, 16:43:53
Also in der Gamestar und PCGH stand immer das UT07 auf GF 6800 GT optimal läuft, weil die Entwickler die Karte als Basis genommem haben.
Was optimal ist, ist dann wohl eine andere Frage.

aths
2005-11-05, 17:40:25
Dass die UE3 auf einer Radeon 9700 brauchbar läuft, bezweifle ich. Dafür wurde die Engine ja auch nicht ausgelegt – UT2004 läuft auf der 9700 doch noch sehr gut, mit allen Details und in hoher Auflösung. Die richtige Hardware für die richtige Engine :)

aths
2005-11-05, 17:43:29
Also in der Gamestar und PCGH stand immer das UT07 auf GF 6800 GT optimal läuft, weil die Entwickler die Karte als Basis genommem haben.Das kannst du vergessen. Für Doom 3 sollte ja auch die GeForce 256 gut sein (wurde ja anfangs darauf entwickelt) dann die GeForce 2 GTS (ist schneller), dann – natürlich – GT3 (man denke an den Launch-Event), dann die GeForce4 Ti, die optimale Karte für das kommende und zukunftsträchtige Doom 3. Die 5800 war dann aber wirklich für Doom 3 optimiert, jedenfalls bis es die 5900 gab, die Karte die man sich schon mal kaufen solle weil ja Doom 3 darauf wunderbar laufen würde. Es kam dann zur 6800 und läuft darauf auch anständig. (Mit der 5900 XT läufts auch akzeptabel, die 6600 bietet jedoch spürbar mehr Leistung, für ein Erlebnis "meant to be played" sollte es wohl aber eine 6800 sein.)

Was optimal ist, ist dann wohl eine andere Frage.Genau. Ich habe mit eigenen Augen gesehen, wie eine ältere Version auf einer 6800 in mittlerer Auflösung brauchbar lief, doch die Entwicklung der Engine geht ja weiter.

derMeister
2005-11-05, 17:45:41
>Here are some of the details he provided:
- minimum: 2.8GHz, 512mb Ram,Geforce6
- for high details: 3-4GHz, 1Gb Ram, Nvidia 6800GT/ultra or 7800GT/GTX SLI
- Dual-core Processor use: Multi-Threading is supported and should provide much better performance.
- 64 Bit version available with better textures
- Renderers: Shader-3.0, Fallback-Mode for Shader 2.0 maybe a dx8 renderer.
- HDR: yes
- physics: Novodex-Physik-Engine.
- Ageias PhysX Processor supported.<

Is schon recht, Fallbackmode PS2 auf DX8, wem wollen die eigentlich solche Märchen verkaufen :P

Spasstiger
2005-11-05, 17:46:27
Dass die UE3 auf einer Radeon 9700 brauchbar läuft, bezweifle ich. Dafür wurde die Engine ja auch nicht ausgelegt – UT2004 läuft auf der 9700 doch noch sehr gut, mit allen Details und in hoher Auflösung. Die richtige Hardware für die richtige Engine :)

UT2004 kann man aber auch noch mit ner GeForce 4 MX-460 sehr gut spielen bei hohen Details in 1024x768 (ohne AA oder AF).
Eine Radeon 9700 stellt schon fast das obere Ende der Fahnenstange bei UT2004 dar, 1280x1024 mit 4xAA und 16:1 bei vollen Details sind flüssig spielbar (30fps+). Wichtiger ist die CPU, alles unter Athlon 64 kann nicht in jeder Situation optimale Performance gewährleisten.


- Renderers: Shader-3.0, Fallback-Mode for Shader 2.0 maybe a dx8 renderer.

Is schon recht, Fallbackmode PS2 auf DX8, wem wollen die eigentlich solche Märchen verkaufen :P

Ich glaub da fehlt einfach nur ein Komma nach dem 2.0 und vor dem maybe.

aths
2005-11-05, 18:12:49
>Here are some of the details he provided:
- minimum: 2.8GHz, 512mb Ram,Geforce6
- for high details: 3-4GHz, 1Gb Ram, Nvidia 6800GT/ultra or 7800GT/GTX SLI
- Dual-core Processor use: Multi-Threading is supported and should provide much better performance.
- 64 Bit version available with better textures
- Renderers: Shader-3.0, Fallback-Mode for Shader 2.0 maybe a dx8 renderer.
- HDR: yes
- physics: Novodex-Physik-Engine.
- Ageias PhysX Processor supported.<

Is schon recht, Fallbackmode PS2 auf DX8, wem wollen die eigentlich solche Märchen verkaufen :PBessere Texturen dank 64-Bit-Support? :bonk:

Demirug
2005-11-05, 18:21:18
Bessere Texturen dank 64-Bit-Support? :bonk:

Theoretisch denkbar wenn sie ein Adressraum Problem haben.

Den Editor soll es ja angeblich gar nicht mehr als 32 Bit Version geben.

aths
2005-11-05, 18:27:49
Theoretisch denkbar wenn sie ein Adressraum Problem haben.Daran hatte ich gar nicht gedacht. Ja, 2 GiB können knapp werden – ich will mittelfristig 2 GiB Speicher auf der Grafikkarte haben. 1024 kiB reichen vorläufig für Highend-Content, aber nicht allzulange.

Den Editor soll es ja angeblich gar nicht mehr als 32 Bit Version geben.Das ist einsichtig.

Coda
2005-11-05, 18:30:36
Daran denken viele nicht, wenn sie 64bit als unnötig abstempeln wollen...

Es gibt ja auch keinen Grund mehr hier irgendwie Marketing mit AMD zu machen, da Intel AMD64 schon länger unterstützt jetzt.

mapel110
2005-11-06, 17:57:27
Hier gibts ein Interview, wo die UE3 Engine ein wenig angekratzt wird.
http://www.beyond3d.com/forum/showthread.php?p=616619#post616619
UE Editor gut, dynamic LOD System gut, Multithreading schwierig (in ihrem speziellen Fall)

drmaniac
2005-11-07, 13:32:49
die bis jetzt veröffetlichten Specs sind Unsinn, aus den Fingern gesogen,.

Die Entwickler haben das klargestellt und gesagt, dass kann man jetzt noch nicht benennen, weil sie nicht fertig sind (ok ich denke sie KÖNNTEN schon sagen, was die UE3 braucht, aber die Specs klingen in einem Jahr halt harmloser ;) )

Nightspider
2005-11-11, 07:25:43
Unterstützt die U3 Engine eigentlich Shader Effekte, die bisher von keinen Spiel geboten wurden ?

Assemblerguru
2005-11-11, 09:30:42
Unterstützt die U3 Engine eigentlich Shader Effekte, die bisher von keinen Spiel geboten wurden ?

Hi !

Nach dem, was ich gelesen habe nicht. Die unterstützen und kombinieren 3 Verfahren gleichzeitig, aber eben so, dass sie Shatten nicht "aufgeklebt" aussehen. Das wären dann Stencil-Shaddows für scharfe Schatten und bewegte Lichtquellen, dann ShaddowMaps für starre Lichtquellen und bewegte Objekte mit weichen Schatten und Radiosity für die starren Objekte mit starren Lichtquellen....

A.

Nightspider
2005-12-02, 00:17:52
Gibt es Neuigkeiten von der Unreal Engine 3 Front ?

Wie stehen die Chancen, das Epic einen Teil des Shader Models 4.0 integriert ?

Coda
2005-12-02, 00:43:52
Wie stehen die Chancen, das Epic einen Teil des Shader Models 4.0 integriert ?
Nightspider ist gerade online Beitrag meldenSchlecht, da die Engine DX9 ist ;)

MuLuNGuS
2005-12-02, 09:57:48
Gibt es Neuigkeiten von der Unreal Engine 3 Front ?

Wie stehen die Chancen, das Epic einen Teil des Shader Models 4.0 integriert ?


model 4.0 wird wohl erst in der Unreal Engine 4 zur verfügung stehen die ja derzeit nur als 1 mann projekt in arbeit ist. da wird sicherlich einiges anders laufen.

Monger
2005-12-02, 10:06:33
Gibt es Neuigkeiten von der Unreal Engine 3 Front ?

Wie stehen die Chancen, das Epic einen Teil des Shader Models 4.0 integriert ?
So wie ich das mitgekriegt habe, wird der Shaderbaukasten relativ abgetrennt von der restlichen Engine funktionieren. Da neue Shader reinzupacken sollte nicht so das Problem sein, insofern gehe ich davon aus dass nach Release von Vista auch Unreal Engine 3 Titel mit verbesserten Shader erscheinen werden.

Wenn man bedenkt dass die Unreal Engine 2 ja ursprünglich ausschließlich DirectX 7 Effekte verwendete und wo man heute steht, wird wohl auch die nächste Engine sehr skalierbar werden.

Neomi
2005-12-02, 10:36:13
So wie ich das mitgekriegt habe, wird der Shaderbaukasten relativ abgetrennt von der restlichen Engine funktionieren. Da neue Shader reinzupacken sollte nicht so das Problem sein, insofern gehe ich davon aus dass nach Release von Vista auch Unreal Engine 3 Titel mit verbesserten Shader erscheinen werden.

Und was sollen diese Shader bringen, wenn man sie nicht benutzen kann? Ohne eine Portierung der Engine auf WGF 2.0 ist man auf SM 3 beschränkt.

Wenn man bedenkt dass die Unreal Engine 2 ja ursprünglich ausschließlich DirectX 7 Effekte verwendete und wo man heute steht, wird wohl auch die nächste Engine sehr skalierbar werden.

Bloß, weil nur Effekte verwendet wurden, die auch mit Direct3D 7 umsetzbar waren, heißt das noch lange nicht, daß die Engine am Anfang auf Direct3D 7 beschränkt gewesen wäre. Weniger als möglich geht immer, mehr als möglich aber nicht. Und die UE3 ist auf Direct3D 9 beschränkt.

Monger
2005-12-02, 10:46:42
Und was sollen diese Shader bringen, wenn man sie nicht benutzen kann? Ohne eine Portierung der Engine auf WGF 2.0 ist man auf SM 3 beschränkt.


... was ja wohl kein Problem darstellen dürfte. Ist doch nur eine Frage des passenden Shadercompilers, oder etwa nicht?
Ich weiß nicht wie sehr D3D10 mit der Abwärtskompatibilität bricht, aber ich kann mir schwer vorstellen dass das aus Sicht der Anwendung einen riesigen Unterschied macht.

Demirug
2005-12-02, 11:34:07
... was ja wohl kein Problem darstellen dürfte. Ist doch nur eine Frage des passenden Shadercompilers, oder etwa nicht?
Ich weiß nicht wie sehr D3D10 mit der Abwärtskompatibilität bricht, aber ich kann mir schwer vorstellen dass das aus Sicht der Anwendung einen riesigen Unterschied macht.

D3D10 ist ganz anders und es macht einen riesigen Unterschied.

Neomi
2005-12-02, 11:37:33
... was ja wohl kein Problem darstellen dürfte. Ist doch nur eine Frage des passenden Shadercompilers, oder etwa nicht?

Nein, der ShaderCompiler ist nicht das einzige, sondern das kleinste Problem an der Sache. Du kannst keinen Shader in eine Direct3D-Version einbinden, die diese Shaderversion nicht unterstützt. SM 4 wird unter Direct3D 9 nicht möglich sein, dafür ist WGF 2.0 bzw. Direct3D 10 zwingend notwendig. Und zwar durchgehend für die gesamte Engine.

Ich weiß nicht wie sehr D3D10 mit der Abwärtskompatibilität bricht, aber ich kann mir schwer vorstellen dass das aus Sicht der Anwendung einen riesigen Unterschied macht.

Dann stellst du dir das komplett falsch vor. Es ist ein großer Bruch, Direct3D 10 wird nicht kompatibel sein zu Direct3D 9. Jetzt kann man ja auch noch uralte Karten per Direct3D 9 ansprechen. Die Caps melden sämtliche neueren Features als nicht unterstützt, aber es geht. Bei Direct3D 10 wird das anders sein. Caps gibt es nicht mehr, jetzige D3D9-Karten können nicht darüber angesprochen werden.

Monger
2005-12-02, 11:42:00
D3D10 ist ganz anders und es macht einen riesigen Unterschied.

Das ist jetzt etwas OT, aber wie soll das unter Vista laufen?

Wird es da einen DirectX 9 "Legacy Mode" geben um all die alten DX9 Spiele noch laufen lassen zu können, und dann ein D3D10 für alle zukünftigen?

Und ich reiche die Frage an dich weiter: wird die Unreal Engine sich wirklich nur auf DX9 beschränken?

Mir scheint das so EXTREM unwahrscheinlich, immerhin werden wohl die meisten UE3 Titel zu Lebzeiten von D3D10 erscheinen...

T.
2005-12-02, 11:44:21
Nun ja, da die UE3 ja sowohl D3D9 für PC und XBox 360 als auch OpenGL für PS3 unterstützen muss, müsste ihr Renderer so wie in UE1 und 2 austauschbar sein. Also sollte sich auch eine D3D10-Unterstützung einbauen lassen.
Die Frage ist nur, ob D3D10 bei einer Engine, die nicht speziell nur auf diese API ausgelegt ist, überhaupt größere Vorteile bringt.
Die Shader könnte man dann natürlich für das Shader Model 4.0 kompilieren, nur wird bei den allerallermeisten Effekten gar keinen Unterschied machen.

Demirug
2005-12-02, 12:00:08
Das ist jetzt etwas OT, aber wie soll das unter Vista laufen?

Wird es da einen DirectX 9 "Legacy Mode" geben um all die alten DX9 Spiele noch laufen lassen zu können, und dann ein D3D10 für alle zukünftigen?

So in etwa wobei die DX9 Unterstützung nicht "legacy" ist. Allerdings werden zukünftige Spiele die auch mit nicht D3D10 Karten laufen wollen oder unter Windows XP funktionieren müssen auch noch DX9 unterstützen.

Und ich reiche die Frage an dich weiter: wird die Unreal Engine sich wirklich nur auf DX9 beschränken?

Mir scheint das so EXTREM unwahrscheinlich, immerhin werden wohl die meisten UE3 Titel zu Lebzeiten von D3D10 erscheinen...

Epic selbst hat die UE2 nie auf DX9 umgestellt und das wäre kaum Arbeit gewesen.

up¦²
2006-08-28, 18:57:26
Kleiner Refresh :wink:

Mal nicht Mark Rein :rolleyes: , sondern Tim Sweeney!

Aktueller Stand der Dinge in einem Interview mit Tim Sweeney:
http://www.firingsquad.com/news/newsarticle.asp?searchid=11906

peanball
2006-08-28, 23:33:55
Kleiner Refresh :wink:

Mal nicht Mark Rein :rolleyes: , sondern Tim Sweeney!

Aktueller Stand der Dinge in einem Interview mit Tim Sweeney:
http://www.firingsquad.com/news/newsarticle.asp?searchid=11906
Was labert der denn für einen scheiß wegen intel IGPs?
Die waren seit es 3D Beschleuniger gab um den Faktor 5-10 schwächer. Da hat sich auch keiner drüber beschwert. Ernsthaft zocken (vor allem mit Unreal engines wenn diese gerade aktuell sind) eh nur die Enthusiasten.
Klingt nach ner schäbigen Ausrede dafür, dass am Konsolenmarkt mehr Geld offen rumliegt und man den Fokus gerade darauf gesetzt hat.
Intel IGPs als Buhmann hinzustellen (zumindest erst jetzt) ist auch nicht so passend.

Gast
2006-08-28, 23:41:09
Vielleicht ist das auch so gemeint, daß für moderne Spiele eine HighEnd-Grafikkarte am besten geeignet wäre. Doch das Problem ist, daß man nicht uneingeschränkt für HighEnd entwickeln kann, wenn der meistverkaufte Grafikchip von Intel (ja, Intel ist Marktführer) kommt, die wahrlich nicht HighEnd sind.

Gast
2006-08-28, 23:49:54
oh man, ein käufer kauft das spiel wenn er es gut findet und nciht weil er die passende grafikkarte hat
kein gamer nutzt onboard lösungen, das wissen die auch

scheint echt ne dumme ausrede zu sein

Neon3D
2006-08-29, 00:23:15
@mapel

Multithreading schwierig

-> dabei hat epic wie wild gerade in dem bereich firmen eingekauft.

Spasstiger
2006-08-29, 00:39:53
scheint echt ne dumme ausrede zu sein
Ausrede für was?

Die Aussage war nur, dass die aktuellen Intel-Grafikchips zu langsam für UE3-Spiele sind und da der Großteil an verkauften PCs eben mit Intel-Onboardgrafik läuft, wechseln die Spieler zur Konsole.
Und dies wiederum schadet dem PC-Markt.
Der Entwickler muss ja auch einen Anreiz haben für eine bestimmte Plattform zu entwicklen, indem er weiß, dass er mit der Plattform ein breites Publikum erreicht.
Das ist mehr oder weniger auch die Begründung, warum sie so stark in den Konsolenbereich vorgedrungen sind. Sie entwicklen die UE3 allerdings auch für den PC. Mit Ausrede hat das also nix zu tun.

Mark Rein wollte mit der Aussage wohl auch ein wenig Kritik an der Marktmacht Intels ausüben. Ist ja auch was wahres dran, die meisten verkauften Grafikchips stammen von Intel und bekanntermaßen sind die Intel-Grafiklösungen stets deutlich langsamer gewesen als das was ATI und Nvidia im Low-Budget-Bereich angeboten haben. Von einem Marktführer kann man durchaus auch schnellere Alternativen erwarten (nur hat Intel diese eben nicht nötig, weil sich die bisherigen Lösungen auch prächtig verkaufen).

Gasthaus
2006-08-29, 01:07:00
Erazor']Was labert der denn für einen scheiß wegen intel IGPs?
Die waren seit es 3D Beschleuniger gab um den Faktor 5-10 schwächer. Da hat sich auch keiner drüber beschwert. Ernsthaft zocken (vor allem mit Unreal engines wenn diese gerade aktuell sind) eh nur die Enthusiasten.
Klingt nach ner schäbigen Ausrede dafür, dass am Konsolenmarkt mehr Geld offen rumliegt und man den Fokus gerade darauf gesetzt hat.
Intel IGPs als Buhmann hinzustellen (zumindest erst jetzt) ist auch nicht so passend.

Er wollte wohl nicht direkt sagen das der Konsolenmarkt offensichtlich um ein Vielfaches lukrativer ist.
Die Ausrede mit Intel ist schwach weil es schon damals UnrealEngines gab ebenso wie integrierte Grafiklösungen.

Doch vergisst er wohl offensichtlich(oder will es)das es auch Mid-Range-Karten gibt(gab)ebenso wie unteres High-End,welches gerade heute sehr günstig zu haben ist,wie eine X1900XT für 300,Mr.Unreal?Oder ist die Dank DAU-Programming auch zu lahm:)

Worum es ihm wohl am meissten geht,Raubkopiererei,welche im Konsolenbereich weit nicht solche Ausmasse hat.Das lass ich als Argument gelten.Doch wie schnell spielt sich dann U3 mit Pad*nachdenk,verwerf*

Doch ist euch schon aufgefallen das schon Jahre über die U3-Engine philsophiert und dann gleichzeitig gejammert oder besser noch damals beim Erscheinen von FarCry?Alles kagge ausser das Wasser,sinngemäss Epic.

Hallo Epic,bis ihr U3 draussen habt,zocken wir schon Crysis.Dann habt ihr wenigstens wieder was zu meckern um von eurer eigenen"Unfähigkeit"abzulenken.Ja sicher,U4-Engine würde besser aussehen...genauso wie euer PS3-Fake bei der 05E3.

Mir ist Klar das UT und die ganzen anderen Us sicher gute Spiele sind,auch wenn sie mir persönlich nicht zusagen,kann ich sehr wohl"objektiv"einschätzen das sie gut sind.Doch jahrelange Warterei ist mir zu dumm.Das hatte ich beim N64 schon,seitdem reisst N seinen Mund nicht mehr auf,im Gegenteil,die sagen garnix mehr.

drmaniac
2006-08-29, 09:53:18
"PS3-Fake bei der 05E3"

was meinst du damit??

Gasthaus
2006-09-01, 00:07:58
Wurde da nicht die U3 Engine auf einem Steroid-PC als PS3-Echtzeit verkauft?

Natürlich mit einem USB-Konverter für PS/2/3-Pads,damit es auch keiner merkt:)

Wie dem auch sei,ein Game wird gezockt und nicht geredet.FC gehört zu ersterem,Doom3,HL2 und U3 zu letzterem.

HellHorse
2006-09-01, 12:37:28
....
Aktueller Stand der Dinge in einem Interview mit Tim Sweeney:
http://www.firingsquad.com/news/newsarticle.asp?searchid=11906
Keep in mind that 64-bit only brings significant benefit when your PC has 4GB or more memory.
Bisher habe ich Tim Sweeney nicht für so doof gehalten.

Gast
2006-09-02, 11:07:23
@spasstiger
achso die leute kaufen sich also nen gma950, wollen dann zocken und merken das es nicht läuft

glaubst du das wirklich?
wer zockt kauft sich auch ne anständige graka
intel schmälert die zielgruppe für epic um 0,0%

manche käufer sind zwar dumm aber nicht so dumm das sie denken mit nem igp könnte man aktuelle spiele zocken

und niemand kauft sich irgend nen rechner und meint dann zufällig: "ach lönnt ma wieder zocken" und merkt das der rechner nicht reicht

Hvoralek
2006-09-03, 00:47:02
Es wird schon Leute geben, die davon schlicht nichts verstehen, sich nicht beraten lassen (bzw. bei Saturn & Co, beraten lassen, das ist ja praktisch das gleiche wie gar nicht) und dann beim Kauf selbst bestenfalls noch gucken, ob da irgendwas mit 3D- Grafik steht und dann ist gut. Oder stell Dir vor, jemand hat Ende des Jahres tatsächlich schonmal gehört, dass eine (Radeon) X2800 richtig toll sein soll und sieht dann einen Rechner mit (GMA) X3000...

Nightspider
2006-09-03, 02:42:24
Ihr versteht den Mann nur nicht ^^

Er meint, wenn jeder Typ, egal ob Sekretär oder Lehrer ein Notebook hätte, indem auch eine halbwegs vernünftige Grafikeinheit steckt, kann man mehr Menschen zum Spielen bekehren.

Das ist bisher eine Sache der Kinder und Jugendlichen.

Wenn ein älterer Arbeitender mal in seiner Freizeit auf die Idee kommt, solch ein Spiel zu starten und auf den Geschmack kommt, wird auch mehr gekauft.

Es gibt so viele Leute, die viel Geld für ein teures Notebook ausgeben.
Wenn diese sich dann ein teures bestellen würden, hätten sie auch gleich einen guten Grafikchip und die Leute würden eher auf die Idee kommen, mit dem Spielen anzufangen oder sich ein schönes Ballerspiel wie UT2007 für ne schnelle Runde zwischendurch zu kaufen. :rolleyes: