PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : leaked doom 3 und nv30 kommt bald zufall ?


Kampf Ameise
2002-11-02, 12:33:58
also denkt ihr auch so wie ich daß die doom 3 demo mit absicht geleakt wurde (auf wunsch von nvidia), weil wenn die nv30 jetzt bald kommt( auch wenn nur aufm papier) die leute drausen irgendwie erfahren werden das die doom 3 demo mit dem nv30 bei durchschnittlich 45 fps (1600x1200x2AA)läuft, dann sagen sich viele leute ich kauf mir keine 9700 pro sondern warte auf nv30

ist doch möglich oder ?? weil nvidia und carmack gehören zusammen wie fliegen und scheisse? (mir ist jetzt auf anhieb kein anderer vergleich eingefallen)

Iceman346
2002-11-02, 12:48:30
Wenn ich mir so ansehe wie die Demo performt wage ich es extrem zu bezeifeln das die auf irgendeinem PC mit durchschnittlich 45 fps läuft (auch nicht in 640x480).

Kampf Ameise
2002-11-02, 13:25:44
und was ist mit den vorführungen gewesen von id software????
dort liefs relativ flüssig und das vor einem halben jahr

zeckensack
2002-11-02, 13:49:22
Das Thema 'geplante Leaks' ist interessant, aber wer hier anfängt illegales Zeugs zu verbreiten wird standesrechtlich am nächsten Baum aufgeknüpft.

Keine Hints, keine Fragen/Antworten zu Bezugsquellen bitte.

@Topic
IMO ein Unfall

nggalai
2002-11-02, 13:55:36
Originally posted by Kampf Ameise
und was ist mit den vorführungen gewesen von id software????
dort liefs relativ flüssig und das vor einem halben jahr Die E3-Demo lief mit 20-25fps, im Schnitt--also noch weit von 45fps entfernt. Darüber hinaus ist die leaked Version älter (und deutlich langsamer) als das, was z.B. Entwickler von id erhalten haben--also ABSOLUT nicht representativ.

ta,
-Sascha.rb

Quasar
2002-11-02, 14:03:56
[Para: on]
Wenn man sich mal die spassigen Dinge, die's neulich auf beyond3d.com zu lesen gab, vorhält, könnte man schon auf die Idee kommen, dass es nV gelegen käme, Doom3 schon in einer Art pre-Alpha-Version herumfliegen zu sehen.

Grundlage dieser Spekulation:
der nV30 hat wirklich nur ein 128Bit-Speicherinterface und braucht dringend Programme, die möglichst komplexe Berechnungen anstellen, damit die Vorteile bei den nötigen Rendering-Passes zum Tragen kommen und das Interface als Bremse möglichst wenig auffällt.

Das würde in letzter Konsequenz heissen, dass der nV30 nur wenig, wenn überhaupt schneller ist, als der R300.

nagus
2002-11-02, 14:05:16
ich möchte nur anmerken, das diese geleakte version auf meinem system auf 1600x1200 mit ca. 20 fps im durchschnitt läuft. extreme rucklig wirds, wenn z.b. blut spritzt, aber solche slowdowns ist bei einer alpha version sowieso normal....

btw, eindrüche auf 5fps und weniger gibts auch auf 640x480

wenn nicht gerade irgend eins von den viechern angreift, läufts halbwegs "normal"

zeckensack
2002-11-02, 14:12:39
Wir hatten da gerade eine interne Diskussion und haben uns einigermaßen darauf geeinigt, daß wir auch solche Erfahrungsberichte eigentlich nicht hier haben wollen.

Führt nur dazu daß andere interessierte die unerwünschten Fragen stellen :|

Quasar
2002-11-02, 14:13:56
Mal abgesehen davon, dass es illegal ist, nagus, aber was würdest du sagen, wenn dieselbe Version auf einem P4 2,53GHz mit 512MB PC2100 bei der nV30 mit, sagen wir mal, ähhm geschätzten ;) , 35fps läuft, und das ohne Einbrüche?

Und vor allem: Was, wenn das in der Vollversion in ähnlicher Relation stünde?

Kai
2002-11-02, 14:30:26
Originally posted by nggalai
Die E3-Demo lief mit 20-25fps, im Schnitt--also noch weit von 45fps entfernt. Darüber hinaus ist die leaked Version älter (und deutlich langsamer) als das, was z.B. Entwickler von id erhalten haben--also ABSOLUT nicht representativ.

ta,
-Sascha.rb

Richtig. Woher die Version stammt ist mittlerweile auch schon geklärt. Hab das zwar schon im Spiele-Forum erwähnt, es aber nachträglich wieder wegeditiert falls die betroffenen Personen mitlesen sollten.

Das ganze wird wahrscheinlich in den nächsten Tagen sowieso an die Presse weitergegeben. Fest steht, das es eine preview-Version für den Publisher war. Den Rest kann man sich ja denken ;)

nggalai
2002-11-02, 14:31:49
Ich glaube kaum, dass der Leak absichtlich geschah ;)--in dem Fall hätten's nicht den Uralt-Build genommen, sondern einen neueren, mit welchem sowohl id als auch DooM3 selbst in einem deutlich besseren Licht gestanden hätten.

ta,
-Sascha.rb

Iceman346
2002-11-02, 14:32:16
Originally posted by Kai
Das ganze wird wahrscheinlich in den nächsten Tagen sowieso an die Presse weitergegeben. Fest steht, das es eine preview-Version für den Publisher war. Den Rest kann man sich ja denken ;)

Hört sich so an als würden bald ein paar Köpfe bei Activision rollen ;)

nagus
2002-11-02, 14:36:55
Originally posted by Quasar
Mal abgesehen davon, dass es illegal ist, nagus, aber was würdest du sagen, wenn dieselbe Version auf einem P4 2,53GHz mit 512MB PC2100 bei der nV30 mit, sagen wir mal, ähhm geschätzten ;) , 35fps läuft, und das ohne Einbrüche?

Und vor allem: Was, wenn das in der Vollversion in ähnlicher Relation stünde?


ich würde sagen: die alpha version ist eine ALPHA version und min. 6 monate alt. wie das finale spiel letzendlich wirklich läuft ist weit von dem entfernt, was hier und jetzt illegalerweise geleakt ist...

Demirug
2002-11-02, 14:50:55
Originally posted by Quasar

Grundlage dieser Spekulation:
der nV30 hat wirklich nur ein 128Bit-Speicherinterface und braucht dringend Programme, die möglichst komplexe Berechnungen anstellen, damit die Vorteile bei den nötigen Rendering-Passes zum Tragen kommen und das Interface als Bremse möglichst wenig auffällt.

Das würde in letzter Konsequenz heissen, dass der nV30 nur wenig, wenn überhaupt schneller ist, als der R300.

Das glaube ich nun wiederrum nicht.

DOOM III ist aber eher Texturlastig als rechenlastig. Wobei sich auf dem NV30 (und R300) aber wohl 2 Texturzugriffe einsparen lassen sollten. Wenn NVIDIA also wirklich auf ein 128 Bit Interface gesetzt hat und keinen weg zum massiven einsparen der Bandbreite gefunden hat ist DOOM III nicht unbedingt die beste wahl um den Chip gut aussehen zu lassen.

nagus
2002-11-02, 14:58:29
keine Benchmarks von Alphas, Betas usw. bitte

Demirug


---- und wieso nicht ????

nagus

aths
2002-11-02, 15:02:16
Originally posted by nagus
wer es haben will, soll selber suchen! ... der soll es selber kaufen, sobald im Laden verfügbar.

Quasar
2002-11-02, 15:04:59
@Demirug:

Wenn nicht Doom3, was sonst? ;)

Was ist mit dem ganze Schattenzeug in Verbindung mit dem "deferred shading" auf delphi3d.net?

nagus
2002-11-02, 15:06:47
1600x1200 , gleiche settings wie oben!

ca. 1/3 langsamer als die 1024er auflösung :)

Demirug
2002-11-02, 15:09:33
Quasar,

es gibt derzeit (und wohl auch in naher Zunkunft) kein Spiel was rechenlastige Pixelshader hat. Vor dem R300/NV30 war sowas technisch ja nicht machbar.

Das "deferred shading" ist IMO eine schöne techdemo in wie weit es wirklich sinn macht muss man mit der richtigen Hardware testen.

Demirug
2002-11-02, 15:18:03
nagus, ich erlaube mir dich zu zitieren:


ich würde sagen: die alpha version ist eine ALPHA version und min. 6 monate alt. wie das finale spiel letzendlich wirklich läuft ist weit von dem entfernt, was hier und jetzt illegalerweise geleakt ist...


Also sind alle Performacen Aussagen ebenfalls irrelevant. Zudem ist dir ja wohl hoffentlich klar das du dich hier fortwährend öffentlich selbst der Urheberrechtsverletzung bezichtigst.

Pirx
2002-11-02, 15:26:45
hmm das leaken als solches war illegal, die Benutzung des leaks auch???

Demirug
2002-11-02, 15:29:46
Originally posted by Pirx
hmm das leaken als solches war illegal, die Benutzung des leaks auch???

ja, ausser dem Teil liegt eine Lizenzvereinbarung bei welche die Benutzung erlaubt. Aber das wird wohl kaum der Fall sein.

Quasar
2002-11-02, 16:29:33
Originally posted by Demirug
Quasar,

es gibt derzeit (und wohl auch in naher Zunkunft) kein Spiel was rechenlastige Pixelshader hat. Vor dem R300/NV30 war sowas technisch ja nicht machbar.

Das "deferred shading" ist IMO eine schöne techdemo in wie weit es wirklich sinn macht muss man mit der richtigen Hardware testen.

Deswegen meine ich ja auch ein möglichst realitätsnahes, vorzeigbares Beispiel, denn wo, wenn nicht bei Doom3 sollten die Pixelpipelines als möglicher Flaschenhals auftreten? Insbesondere, da Doom3 wohl ziemlich extensiv von Bumpmapping Gebrauch machen wird, und in einigen Tests dort der R300 nicht soo gut ausschaut, wie man erwarten sollte (was aber wohl an den Tests liegt, nicht am R300).

Bei "normalen" Spielen wird man eventuell gar keinen Unterschied sehen....

Demirug
2002-11-02, 16:35:48
@Quasar,

so betrachtet hast du natürlich Recht. Aber da wir vom NV30 zuwenige Details kennen ist es schwer zu sagen wie er sich verhalten wird. Das einzige was wohl derzeit als gesichert angenommen werden kann ist.

1. Einen Pass pro Lichtquelle für die Schatten.
2. Einen Pass pro Lichtquelle für das Licht.

Aber das trift auch auf den R300 zu.

Quasar
2002-11-02, 16:49:34
Ok,

dann bleibt die entscheidende Frage: wieviele Takte werden pro Pass benötigt, oder?
Obwohl ich eigentlich nicht von mehr als 8TMUs ausgehe, wird bei, sagen wir mal 6-8 Takten pro Pass die Speicherbandbreite keine soo entscheidende Rolle mehr spielen....

Demirug
2002-11-02, 16:55:37
Quasar, die Bandbreite spielt dabei schon eine rolle wenn der Chip dabei fleisig Texturen sampeln muss. In Summe gebe ich dir aber recht das "längere" Passes die Bandbreite weniger belasten da der Anteil der Framebuffer zugriffe an der gesamtbelastung sinkt. Dadurch ist MSAA mit weniger einbruch verbunden.

aths
2002-11-02, 17:49:03
Ich glaube nicht, dass ID für nVidia einen deratigen Gefallen tun würde. Ob Doom3 auf dem NV30 deutlich besser läuft als auf R300 halte ich für fraglich. "Mehr Berechnungen" pro Pass sind zwar ganz nett, aber damit das Sinn macht, müssen auch die erforderlichen Daten bereitgestellt werden, Bandbreite wird imo nicht allzuviel gespart.

betasilie
2002-11-02, 21:53:26
Ich denke auch, dass NV diesmal die Finger nicht im Spiel hat, aber die Vermutung, dass die leaked Alpha ein Marketing Trick seitens iD ist, halte ich nicht für Paranoid.
Wenn im Multimillionen-Dollar-Geschäft der Software Industrie, die wahrscheinlich z.Zt. wichtigste 3d-Softwareschmiede der Welt, sowas nicht verhindern kann fresse ich ein Besen. Ich halte es für völlig Naiv, wenn einige solche Vermutungen für abwegig halten, auch wenn Activision und iD was anderes sagen. Ich glaube erst an den Wahrheitsgehalt des Diebstahls, wenn auch Klage gegen Irgendjemand eingereicht wird. Komischerweise passiert das aber nur seltenst bei dem "unerwünschten" Release von Alphas und Betas.
Was solche möglichen Marketinggeschichten angeht kann man Activision und iD, insbsondere Todt H., 0,00% glauben schenken.

Weder wird die Alpha einen finanziellen Schaden (Absatz) bedeuten, noch wird sie der Konkurenz zu irgendwelchen Entwicklungsschüben verhelfen. Das Einzige was diese DOOMIII Version macht, ist iD ein Feedback zu geben.

Ob diese Version wirklich "uralt" ist, wie Kai behauptet (musser er ja auch ;) ... die iD-Neurose lässt Grüßen), weiß ich nicht, aber denkbar wäre auch, dass der R300, den iD benutzt hat, eine sehr hoch getaktete "Spezialausführung" war und denkbare wäre auch der Einsatz des integrierten DDR/II-Interfaces mit entsprechend schnellen Speicherbausteinen (kleinserie), denn iD hat nie behauptet auf den Messen eine 9700er laufen zu haben, sondern einen R300. ;) Somit wären die nicht so tollen FPS erklärbar.

... mich macht die Geschichte, aber richtig heiß aufs Spiel. ...

Xmas
2002-11-02, 23:37:47
Die Firma heißt übrigens immer noch id Software... ;)

betasilie
2002-11-03, 00:27:50
Danke, gute Id. :bäh:

zeckensack
2002-11-03, 01:15:45
Originally posted by betareverse
<...> iD hat nie behauptet auf den Messen eine 9700er laufen zu haben, sondern einen R300. ;) Somit wären die nicht so tollen FPS erklärbar.Sie konnten's garnicht anders nennen. Damals gab's nämlich noch keinen offiziellen Namen für das Teil ;)

Razor
2002-11-03, 03:40:37
Originally posted by aths
Ich glaube nicht, dass ID für nVidia einen deratigen Gefallen tun würde. Ob Doom3 auf dem NV30 deutlich besser läuft als auf R300 halte ich für fraglich. "Mehr Berechnungen" pro Pass sind zwar ganz nett, aber damit das Sinn macht, müssen auch die erforderlichen Daten bereitgestellt werden, Bandbreite wird imo nicht allzuviel gespart.
Tja aths...
Sagen Dir folgende Parameter etwas ?
:D

seta r_useStandardGL "0"
seta r_useParhelia "0"
seta r_useNV20 "1"
seta r_useNV30 "0"
seta r_useGL2 "0"
Bis denne

Razor

AlfredENeumann
2002-11-03, 03:55:10
Dann JC seine Meinung aber sehr schnell geändert. Er sagte vor nicht alzu langer zeit das es vorläufig keinen Pfad für NV30/R300 geben wird.

mirp
2002-11-03, 08:24:39
http://www.geeknewz.com/comments.php?catid=1&id=2030

Well it looks like the Demo of Doom III isnt a fake so i decided to do a bit of investigating and found a french site that showed a irc chat with Xian saying that ATI leaked it. This could be fake so dont take my word on it you can decide for yourself but i'll post the IRC chat anyways.

Xian> ATI leaked it
Xian> oh we will. We are hoping our rep gets fired.
Xian> John sent them a flame mail yesterday basically saying "This has hurt our relationship"
Xian> haha, no
Xian> not really
Xian> they sent us a development laptop with a full build of Unreal Warfare on it
Xian> yep
Xian> Well, we deleted it
Xian> that's a whole can of worms we don't want to get into
Xian> yeah, well, ATI has clearly violated our NDA
Xian> we thought about that.
Xian> but, no
Xian> ATI is on our shitlist righ tnow
Xian> we are not dealing with them until further notice
Xian> no, it's not public chiQ
Xian> We know ATI leaked it. We watermark all releases
Xian> Squiggle: ATI has a relaxed policy about pre-release software. Remeber, they ave us a laptop that had Unreal Warfare loaded on it 3 months ago
Xian> They don't seem to care about strict enforcement of NDA's
Xian> on a positive note, people seem to *REALLY LIKE* the leaked shit

nggalai
2002-11-03, 09:29:26
Hi mirp,

die "quote" wurde bereits hier besprochen:
http://www.forum-3dcenter.net/vbulletin/showthread.php?s=&postid=491576#post491576

Geeknewz hat die von einer französischen Seite abgeschrieben, nachdem Warp das Ding auch gepostet hatte. Zur Quote ist zu bemerken, dass es da mehrere Widersprüche drin hat, und keiner die Original-Konversation verfolgt hatte . . . den Rest kann man im anderen Thread verfolgen.

ta,
-Sascha.rb

P.S. ich habe mitlerweilen auch die Quote mit "GWBush" anstelle von ATi gefunden . . . ;) -.rb

Exxtreme
2002-11-03, 09:40:50
Originally posted by nggalai

P.S. ich habe mitlerweilen auch die Quote mit "GWBush" anstelle von ATi gefunden . . . ;) -.rb
Cool, eine geleakte Alpha direkt vom Präsi der USA... hat was. ;) ;D

Xmas
2002-11-03, 14:52:28
Originally posted by AlfredENeumann
Dann JC seine Meinung aber sehr schnell geändert. Er sagte vor nicht alzu langer zeit das es vorläufig keinen Pfad für NV30/R300 geben wird.
Für NV30 schon, für R300 nicht, weil es hier keinen Pass-Vorteil gegenüber R200 gibt.

Quasar
2002-11-03, 17:18:46
Und jetzt ist nichtmal eine für den R200 in dieser Alpha...

Was mir aber recht gut gefällt, ist, dieser Eintrag:
seta r_useGL2 "0"

Demirug
2002-11-03, 17:20:40
Originally posted by Quasar
Und jetzt ist nichtmal eine für den R200 in dieser Alpha...

Was mir aber recht gut gefällt, ist, dieser Eintrag:


Was ist damit? Das ist für OpenGL 2.0.

nagus
2002-11-03, 17:27:15
Originally posted by Demirug


Was ist damit? Das ist für OpenGL 2.0.

was kann OGL2 besser/mehr als OGL1.3?

wann kommt das raus?

Demirug
2002-11-03, 17:48:01
Originally posted by nagus


was kann OGL2 besser/mehr als OGL1.3?

wann kommt das raus?

Fangen wir mit der zweiten Fragen an. Im Moment gibt es eine vorläufige spec und einen experimental Treiber von 3dlabs für P10-Karten. Ein Datum zu dem OpenGL 2.0 verabschiedet wird kann ich dir aber nicht nennen.

OpenGL 2.0 ist notwendig geworden da die Grafikchip Hersteller in den letzten Jahren OpenGL 1.x durch viele Extension für die Entwickler zu einer Qual werden lassen haben. Gerade im Realtimebereich muss man immer mehr auf die Herstellerextension zurückgreifen um die notwendige Leistung zu erreichen.

OpenGL 2.0 bringt OpenGL also primär wieder auf den stand der Technik zurück.

Quasar
2002-11-03, 17:50:13
Originally posted by Demirug
Was ist damit? Das ist für OpenGL 2.0.

Eben.

Razor
2002-11-03, 17:59:39
Originally posted by Quasar

Eben.
Interessant, gell ?
:D

Razor

aths
2002-11-03, 18:11:41
Originally posted by Razor

Tja aths...
Sagen Dir folgende Parameter etwas ?
:D

seta r_useStandardGL "0"
seta r_useParhelia "0"
seta r_useNV20 "1"
seta r_useNV30 "0"
seta r_useGL2 "0"
Bis denne

Razor Was möchtest du damit sagen?

StefanV
2002-11-03, 18:22:03
Originally posted by Razor

Tja aths...
Sagen Dir folgende Parameter etwas ?
:D

seta r_useStandardGL "0"
seta r_useParhelia "0"
seta r_useNV20 "1"
seta r_useNV30 "0"
seta r_useGL2 "0"
Bis denne

Razor
EY, GEIL!!!

Gibt 'nen eigenen Codepath für meine Parhelia *freu*

Razor
2002-11-03, 18:22:46
Originally posted by aths
Was möchtest du damit sagen?
Demirug sagte:
Quasar, die Bandbreite spielt dabei schon eine rolle wenn der Chip dabei fleisig Texturen sampeln muss. In Summe gebe ich dir aber recht das "längere" Passes die Bandbreite weniger belasten da der Anteil der Framebuffer zugriffe an der gesamtbelastung sinkt. Dadurch ist MSAA mit weniger einbruch verbunden.
Du sagtest:
Ich glaube nicht, dass ID für nVidia einen deratigen Gefallen tun würde. Ob Doom3 auf dem NV30 deutlich besser läuft als auf R300 halte ich für fraglich. "Mehr Berechnungen" pro Pass sind zwar ganz nett, aber damit das Sinn macht, müssen auch die erforderlichen Daten bereitgestellt werden, Bandbreite wird imo nicht allzuviel gespart.
Darauf habe ich geantwortet...

Warum sollte es sonst einen eigenen Codepath für NV20 und NV30 geben ?
???

Razor

Razor
2002-11-03, 18:24:50
Originally posted by Stefan Payne

EY, GEIL!!!

Gibt 'nen eigenen Codepath für meine Parhelia *freu*
Jep, das hat mich auch gewundert !
Keinen Codepath für R200/R300, aber einen für den Parhelia...
Vorausgesetzt natürlich, dass diese nicht doch noch implementiert werden.

Glückwunsch, Stefan !
Und ? Schon ausprobiert ?
;-)

Razor

Demirug
2002-11-03, 18:28:48
Razor,

Beim NV30 macht ein eigener Codepfad sinn da er eine Lichtquelle in einem Pass berechnen kann (NV2x braucht dafür 2oder 3). Beim R300 macht ein eigener Pass aber nicht mehr viel sinn da bereits der R200 Codepfad die Lichtquellen in einem Pass schafft.

@Stefan Payne,

ja aber JC hat auch gesagt: "zu langsam".

Edit: PS: es gibt einen eigenen R200 Codepfad. Warum der aber nicht aufgeführt ist kann ich nicht sagen.

tEd
2002-11-03, 18:39:08
Originally posted by Demirug
Razor,

Beim NV30 macht ein eigener Codepfad sinn da er eine Lichtquelle in einem Pass berechnen kann (NV2x braucht dafür 2oder 3). Beim R300 macht ein eigener Pass aber nicht mehr viel sinn da bereits der R200 Codepfad die Lichtquellen in einem Pass schafft.

@Stefan Payne,

ja aber JC hat auch gesagt: "zu langsam".

Edit: PS: es gibt einen eigenen R200 Codepfad. Warum der aber nicht aufgeführt ist kann ich nicht sagen.

ja er ist drin und der nv10 ist auch drin obwohl er nicht aufgeführt ist. Ihr könnt in der konsole "gfxinfo" eingeben um alle verfügbaren codepath anzusehen.

Razor
2002-11-03, 18:49:41
Jep, ist tatsächlich so...

- ARB Path (enabled)
- NV10 Path (enabled)
- NV20 Path (enabled)
- NV30 Path (disabled)
- R200 Path (disabled)
- GL2 Path (disabled)
Dann haben die Schalter vermutlich lediglich die Funktion, einen bestimmten Pfad zu erzwingen, oder ggf. diesen zu deaktivieren.

Interessant...
;-)

Aber trotzdem noch eine Anmerkung an Demirug:
Warum sollte hinter dem NV30 Path nicht mehr stecken, als 'nur' die Brechnung einer Lichtquelle in einem Pass ?

Bis denne

Razor

Demirug
2002-11-03, 18:58:41
Originally posted by Razor
Aber trotzdem noch eine Anmerkung an Demirug:
Warum sollte hinter dem NV30 Path nicht mehr stecken, als 'nur' die Brechnung einer Lichtquelle in einem Pass ?

Bis denne

Razor

was soll er den noch reinbauen? Mehr als einen Lichtquelle pro pass ist aufgrund der Stencilschatten nur sehr schwer zu machen. Möglicherweise kann die Engine noch etwas von den erweiterten möglichkeiten der NV30 VS profitieren. Da bin ich mir aber noch nicht sicher.

Quasar
2002-11-03, 19:00:20
Originally posted by Razor
seta r_useStandardGL "0"
seta r_useParhelia "0"
seta r_useNV20 "1"
seta r_useNV30 "0"
seta r_useGL2 "0"


Ausserdem ein ziemlich gutes Indiz dafür, dass das Teil NICHT von ATi geleaked wurde, wenn das die default-Einstellung ist. :)

Razor
2002-11-03, 19:03:21
Originally posted by Quasar

Ausserdem ein ziemlich gutes Indiz dafür, dass das Teil NICHT von ATi geleaked wurde, wenn das die default-Einstellung ist. :)
1) es IST die Default-Einstellung !
2) sehe ich diese ATI-Leak-Geschichte sowieso als absoluten Hirnriss an...
:D

Bis denne

Razor

Razor
2002-11-03, 19:05:33
Originally posted by Demirug

was soll er den noch reinbauen? Mehr als einen Lichtquelle pro pass ist aufgrund der Stencilschatten nur sehr schwer zu machen. Möglicherweise kann die Engine noch etwas von den erweiterten möglichkeiten der NV30 VS profitieren. Da bin ich mir aber noch nicht sicher.
Wär schon interessant...

Und JC hat ja mal gesagt, dass diese Engine auf Fähigkeiten eines NV10 geproggt wird (die nächste dann auf Basis des NV30 ;-). So würde es also durchaus Sinn machen, die zusätzliche Codepfade abschalten zu können...

Na ja, wir werden sehen !

Razor

Exxtreme
2002-11-03, 19:08:21
Originally posted by Razor

1) es IST die Default-Einstellung !
2) sehe ich diese ATI-Leak-Geschichte sowieso als absoluten Hirnriss an...
:D

Bis denne

Razor
Hehe, da kenn ihr die neuesten Gerüchte noch nicht. Ageblich soll es AMD geleaked haben...
Mehr im Spiele-Forum.

Razor
2002-11-03, 19:13:16
Originally posted by Exxtreme

Hehe, da kenn ihr die neuesten Gerüchte noch nicht. Ageblich soll es AMD geleaked haben...
Mehr im Spiele-Forum.
Die Theorie um Bush find' ich viiiiiel interessanter !
:D

Razor

nggalai
2002-11-04, 12:40:32
Vielleicht hat ja doch ATi geleakt?Yes, me and my friends had the pleasure of loading Doom3 at the LGlan in Sunnyvale, CA. last night, and we had the unusual opportunity to run it on both a GeForce ti4600 and a Radeon 9700 Pro (side by side no less with FPS draw on so we could watch the fps go up and down onscreen).

Both PCs used Athlon 2100XPs at 800x600. Since the alpha version of Doom3 had no working options menu, the only way to configure the game is by manually editing the .cfg files with Quake commands. WE SAW AN OPTION IN .CFG for the NV30 options to be turned on (coolness, eh?).

The Radeon 9700 Pro drew a consistent ~50-60+ fps while the ti4600 was really straining, going from 12-15 fps to an occasional `30fps. On some screens it went as low as 7 fps!

Without a doubt, the only way to play it flawlessly is with a Radeon - the card just rocked with the game. Without a doubt, this experience has made me want to go out an get a new Radeon 9700 Pro as soon as I pay my rent this month (first) - ;) The quality of the graphics is totally unreal - it just blew us all away.

Can't wait to buy it. (www.hardocp.com)

;)

ta,
-Sascha.rb

Iceman346
2002-11-04, 14:27:07
Originally posted by nggalai
Vielleicht hat ja doch ATi geleakt? (www.hardocp.com)

;)

ta,
-Sascha.rb

mmh...

Der Text klingt eher nicht danach, wenn ich sehe wie die 9700er in der Alpha performt. Das sieht nähmlich eher nach dem Verhalten der Ti 4600 aus das der Autor beschreibt ;)

MeLLe
2002-11-04, 18:52:29
Originally posted by Iceman346
Das sieht nähmlich eher nach dem Verhalten der Ti 4600 aus das der Autor beschreibt ;)
?????????
Lies nochmal:
Originally posted by nggalai
The Radeon 9700 Pro drew a consistent ~50-60+ fps while the ti4600 was really straining, going from 12-15 fps to an occasional `30fps. On some screens it went as low as 7 fps!

nggalai
2002-11-04, 19:02:32
Originally posted by MeLLe

?????????
Lies nochmal
Man beachte den Smiley. ;)

ta,
-Sascha.rb

Xmas
2002-11-04, 21:20:45
Man beachte dass Iceman346 seine eigenen Erfahrungen beschreibt. ;)

MeLLe
2002-11-04, 22:34:48
Originally posted by nggalai
Man beachte den Smiley. ;)

Zählt nicht. Kleinkram wird nicht beachtet ;)

Thresh
2002-11-05, 09:42:34
Also ich finde, das die ATI Karte besser läuft als die NVidea Karte :)

Exxtreme
2002-11-05, 10:01:45
Originally posted by Thresh
Also ich finde, das die ATI Karte besser läuft als die NVidea Karte :)
Das heisst nVidia und nicht nVidea...
Sorry, aber wenn man schon hunderte nVideas gesehen hat...
;)

nggalai
2002-11-05, 10:09:11
Xian hat übrigens in einer E-mail an Geeknewz das IRC-Chatlog dementiert ("it's fake"). Andererseits ist jetzt die Frage, ob Geeknewz hier wieder Mist verzapft oder nicht. ;)

ta,
-Sascha.rb

Unregistered
2002-11-05, 11:08:17
Also mal ehrlich : IHR übertreibt es wieder einmal bis es nicht mehr geht! Man misst seinen PC/seine GPU doch nicht an irgendeiner vorserien-vorserien Version IRGENDEINES ( ;) ) Spieles welches VIELLEICHT in EINEM Jahr erscheint. Zumal zum Zeitpunkt des ERSCHEINENS des Spieles die NV30-Generation und die unseres Mitbewerbers ATI schon längst vorbei sein wird, wenn man bedenkt, dass die neuen Chipgenerationen im Halbjahrestakt erscheinen. Es könnte sogar schon der 2. NACHFOLGER der NV30 existieren wenn das Game erscheint. Also wirklich. Ausserdem entwickeln wir GPUs nicht auf der Basis von Performance-benchs, bei denen 35fps ohne Reserven als Ultimum angesehen werden. Bis dahin :) Happy Gaming (ob nun mit uns oder ATI).

skampi
2002-11-05, 17:08:26
Originally posted by Unregistered
...(ob nun mit uns oder ATI).

lol;)

zeckensack
2002-11-05, 17:42:20
Originally posted by Razor

Tja aths...
Sagen Dir folgende Parameter etwas ?
:D

seta r_useStandardGL "0"
seta r_useParhelia "0"
seta r_useNV20 "1"
seta r_useNV30 "0"
seta r_useGL2 "0"
Bis denne

Razor Sowas wirst du auch bei UT2k3 in der ini finden ...

Normalerweise macht man sowas, wenn man experimentelle Pfade drinhat, die aber noch nicht richtig laufen. Da wo '0' steht, heißt's "Nicht verwenden, auch wenn die passende Hardware gefunden wurde, läuft nämlich nicht richtig.".

Die Pfade die bereits zuverlässig laufen und wo die Autodetectionen keinen Mist bauen kann stehen da garnicht mehr.

edit:
Übrigens hier zur allgemeinen Belustigung mal ein Auszug aus meinem Code, verhält sich ganz ähnlich
//log bad data alignment
//#define TRACK_ALIGNMENT

//allow ushorts for vertex indices instead of uints
#define USHORT_INDICES

//allow ATI_vertex_array_object and ATI_map_object_buffer to store vertices on card memory
//needs some more work, currently this is _slower_ than regular vertex arrays
//#define ALLOW_VAO_AND_MOB

//allow NV_register_combiners codepath, not really working yet
//#define ALLOW_NV_REGISTER_COMBINERS

//log time spent in pipe.internal_unlatch()
//#define PROFILE_LATCHES

//use own memory management
#define USE_HUNK_FOR_TEXTURES

#ifdef USE_HUNK_FOR_TEXTURES
#define USE_HUNK
#endif

zeckensack
2002-11-05, 17:49:13
Originally posted by Unregistered
Also mal ehrlich : IHR übertreibt es wieder einmal bis es nicht mehr geht! Man misst seinen PC/seine GPU doch nicht an irgendeiner vorserien-vorserien Version IRGENDEINES ( ;) ) Spieles welches VIELLEICHT in EINEM Jahr erscheint. Zumal zum Zeitpunkt des ERSCHEINENS des Spieles die NV30-Generation und die unseres Mitbewerbers ATI schon längst vorbei sein wird, wenn man bedenkt, dass die neuen Chipgenerationen im Halbjahrestakt erscheinen. Es könnte sogar schon der 2. NACHFOLGER der NV30 existieren wenn das Game erscheint. Also wirklich. Ausserdem entwickeln wir GPUs nicht auf der Basis von Performance-benchs, bei denen 35fps ohne Reserven als Ultimum angesehen werden. Bis dahin :) Happy Gaming (ob nun mit uns oder ATI). Ich wußte bisher garnicht, daß deutsche Entwickler an NV-Chips basteln dürften. Das ist doch hier nur eine ausgelagerte Marketingabteilung, oder? *eg*

Unregistered
2002-11-05, 20:22:38
Stimmt. Wär ja schön wenn man in München dieser Arbeit nachgehen könnte, aber dennoch meine ich ist mir das Thema nicht fern :), denn schliesslich werden neue GPUs immer noch nach den Ansprüchen des Massenmarktes entwickelt, und die Masse hat nunmal die fertige Version von Doom 3 erst frühestens Ende nächsten Jahres in den Händen ;) also JEDER. Und gerade deswegen ist auch gerade das Thema Leaking / wem bringt das Nutzen (im Bereich GPUs) a b s u r d.

aths
2002-11-08, 00:06:29
Ich würde mich freuen, einen registrierten nVidia-Mitarbeiter im Forum begrüßen zu dürfen :)