PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Doom III und 256MB Grafikkarten-RAM


trollkopf
2004-01-01, 11:32:15
wie wichtig werden 256 ram im bezug auf doom 3 unter high quality wohl werden?

Bokill
2004-01-01, 11:50:47
Nette Frage...

Aber id war immer bekannt dafür, dass derjenige die fetteste Hardware haben muss..., wenn man in allerfeinster Qualität spielen will...

id setzte Standards und wir wohl auch neue setzen, wer jetzt extra Hardware für Doom3 kauft heizt die Wirtschaft an, aber macht sich selber nicht unbedingt den besten Gefallen.

"It`s ready when it`s done"... und die richtige Hardware kommt frühestens dann, wenn das Spiel zu kaufen ist.

eXistence
2004-01-01, 12:48:36
das hab ich mich auch schon gefragt, es wird ja immer gesagt, dass man von 256MB bei heutigen games nicht wirklich viel hat, aber wenn ich mir überlege, dass bei Doom3 jede Oberfläche aus mindestens drei maps ("texturen")besteht (diffuse-,bump- und specular-map) könnte ich mir da durchaus vorstellen, dass man von viel Grafik-Speicher profitiert.
Was sagen uns technik-experten denn dazu ?

(Mal abgesehen davon, dass man bei hohen Auflösungen+AA/AF auch von 256MB profitieren soll...)

zeckensack
2004-01-01, 13:43:20
Ist IMO egal. Doom 3 wird so viel Füllrate verschlingen, dass man zwangsläufig auf relativ kleine Auflösungen gehen muss. Dadurch wird der Speicherverbrauch ja wieder geringer.

Kann man in etwa vergleichen mit Halo. Wenn man Halo in 1600x1200 + 4xAA durchweg mit ~60fps spielen kann, dann kann man sich auch über 256MB-Karten Gedanken machen (... weil dann der Speicher langsam knapp wird). Vorher IMO nicht.

Ich gehe auch nicht davon aus, dass die Doom-Engine ebenso dumm mit dem Texturspeicher umgeht wie die Unreal-Engines.

Apropos Speicherverbrauch,
Original geschrieben von eXistence
Mal abgesehen davon, dass man bei hohen Auflösungen+AA/AF auch von 256MB profitieren sollAF steigert den Speicherverbrauch nicht. Kein Stück.

Gast
2004-01-01, 14:52:57
Original geschrieben von zeckensack
cut
Ich gehe auch nicht davon aus, dass die Doom-Engine ebenso dumm mit dem Texturspeicher umgeht wie die Unreal-Engines.

cut

Etwas OT, aber was macht die Unreal Engine so dumm mit dem Texturenspeicher(rein aus neugierde)

mfg Kinman

Rampage 2
2004-01-03, 21:54:53
Original geschrieben von zeckensack
Ist IMO egal. Doom 3 wird so viel Füllrate verschlingen, dass man zwangsläufig auf relativ kleine Auflösungen gehen muss. Dadurch wird der Speicherverbrauch ja wieder geringer.

Kann man in etwa vergleichen mit Halo. Wenn man Halo in 1600x1200 + 4xAA durchweg mit ~60fps spielen kann, dann kann man sich auch über 256MB-Karten Gedanken machen (... weil dann der Speicher langsam knapp wird). Vorher IMO nicht.

Ich gehe auch nicht davon aus, dass die Doom-Engine ebenso dumm mit dem Texturspeicher umgeht wie die Unreal-Engines.

Apropos Speicherverbrauch,
AF steigert den Speicherverbrauch nicht. Kein Stück.


Wenn ich aber 2xAF in SoF2 einsetze (und die Texturqualität ist natürlich auf "very high") dann kommt es zu deutlich mehr Graka-RAM-bedingten Rucklern und die Texturen werden häufiger nachgeladen (was für mich natürlich extrem lästig ist...).

aths
2004-01-03, 22:41:51
Original geschrieben von Rampage 2
Wenn ich aber 2xAF in SoF2 einsetze (und die Texturqualität ist natürlich auf "very high") dann kommt es zu deutlich mehr Graka-RAM-bedingten Rucklern und die Texturen werden häufiger nachgeladen (was für mich natürlich extrem lästig ist...). Die werden häufiger in den Cache nachgeladen. Ich wüsste nicht, dass man von einer Textur getrennt MIPs (aus dem RAM) nachladen kann, afaik werden immer ganze Textur geswappt.

Tigerchen
2004-01-04, 05:39:42
Original geschrieben von Rampage 2
Wenn ich aber 2xAF in SoF2 einsetze (und die Texturqualität ist natürlich auf "very high") dann kommt es zu deutlich mehr Graka-RAM-bedingten Rucklern und die Texturen werden häufiger nachgeladen (was für mich natürlich extrem lästig ist...).

Diese Ruckler hatte ich mit der GeForce3. Was hast du für eine Grafikkarte?

zeckensack
2004-01-04, 17:26:33
Original geschrieben von Gast
Etwas OT, aber was macht die Unreal Engine so dumm mit dem Texturenspeicher(rein aus neugierde)

mfg Kinman Negativer LOD-Bias (-0.6) und die dazu passenden unscharfen Basistexturen. Wären die Basistexturen scharf, würde negativer LOD-Bias unweigerlich zu Textur-Aliasing führen.

Dh eine 1024x1024-Textur ala Unreal enthält nur ca soviel Information, wie eine 'normale' (=nicht-Unreal), viel kleinere Textur.
Man könnte mindestens die Hälfte des enormen Texturspeicherverbrauchs von zB UT2k3 einsparen, ohne Qualität opfern zu müssen - wenn man denn eine Ahnung von Texturen und Texturfiltern hätte.

Schlimmer noch, der LOD-Bias wird mit Absicht gesetzt, sowas macht man nicht aus Versehen. Ebenso wird mit Absicht überfiltertes Rohmaterial an die Graka geschickt. Es steht zu befürchten, dass das irgendjemand mal für eine verdammt clevere Idee gehalten hat. In Wahrheit ist's einfach nur dämlich, killt Texturcaches, verbläst sinnlos Speicher und Bandbreite, und erzeugte in direkter Folge erst die Motivation der IHVs, allerhand fragwürdige "Optimierungen" speziell für UT2k3 anzusetzen.

Coda
2004-01-04, 18:57:32
Dh eine 1024x1024-Textur ala Unreal enthält nur ca soviel Information, wie eine 'normale' (=nicht-Unreal), viel kleinere Textur.
So ein Schwachsinn, hast du die Texturen im Editor überhaupt schonmal bei 100% angeschaut?
Laber laber...

So sieht es wirklich aus (http://www.team-novum.de/files/bdr02BA-high.jpg)
Und so müsste es nach dir aussehen O_o (http://www.team-novum.de/files/bdr02BA-low.jpg)

Sorry, aber du stellst hier Behauptungen in den Raum, die definitiv nicht wahr sind.

BrandyFly
2004-01-04, 19:44:46
ich hab selbst 768mb pc-333 ram ne 128mb radeon 9600pro
atholon xp 2400+ und denke es reicht nicht

zeckensack
2004-01-05, 03:04:33
Original geschrieben von Coda
Und so müsste es nach dir aussehen O_o (http://www.team-novum.de/files/bdr02BA-low.jpg)Kannst du's vielleicht noch brutaler? Ich glaube deine Argumentation erfordert noch etwas mehr künstliche Unschärfe. Mach das Bild am besten rein mittelbraun, das würde mich wirklich beeindrucken.

Coda
2004-01-05, 16:03:20
Was laberst du? Die Orginaltextur ist eindeutig scharf und nützt 1024x1024 aus. Und im Spiel sieht man das auch so.

Dh eine 1024x1024-Textur ala Unreal enthält nur ca soviel Information, wie eine 'normale' (=nicht-Unreal), viel kleinere Textur.
Das stimmt einfach nicht.

Aquaschaf
2004-01-05, 18:26:43
Eine 724² Textur benötigt ungefähr die Hälfte des Speichers einer 1024² Textur. Skalier mal eine UT2003 Textur von 1024² auf 724² und wieder zurück. Leg sie dann z.B. in Photoshop als Ebene über die originale Textur und lass dir das Differenzbild anzeigen. Die von dir gepostete Textur ist dafür ziemlich ungünstig. Nimm irgendeine Fels,Sand oder Gras Textur, da sieht man es am deutlichsten.

Coda
2004-01-05, 18:34:55
Wenn er es denn behauptet muss es für alle Texturen gelten. Und diese nützt auf jeden Fall die 1024er Auflösung aus!

Zumal ich sie hier auch mit 30% jpg komprimiert hatte, damit das Bild nich so rießig wird...

Selbst wenn man selber Texturen bei 1024 ins Spiel importiert sind die immer noch scharf. Es ist definitiv falsch was er behauptet.

724^2 wäre auch überhaupt nicht Möglich gewesen, weil alle UT 2003 texturen DXT5 komprimiert sind, das heißt sie müssen 2^n Dimensionen haben, also 512x512, 512x1024 oder 1024x1024 etc...

Und ne volle RGBA 8888 724x724 braucht mehr Speicher als ne DXT5 1024x1024! (DXT5 braucht 8 bit pro Pixel ...)

Börk
2004-01-05, 19:02:59
Natürlich sind die Texturen 1024*1024, das hat zbag auch nicht bestritten. Aber fakt ist, dass Ut2k3 generell einen negativen Lod-Bias benutzt, ka ob die -0,6 so stimmen, und das nur um die Texturen zu schärfen.
Jetzt muss man sich natürlich fragen warum die Ausgangstexturen nicht schon so gerendert wurde, dass man diese Lod-Bias verschiebeung benötigt. Richtig das kann sich kein normaler Mensch erklären, den es verschlingt nur Leistung und die Texturen werden ausserdem weitaus unschärfer, als sie hätten sein hätten sein können.
Dass die Texturen jetzt trotzdem relativ scharf sind höngt alleine davon ab, dass man riesige Texturen verwendet, soweit ich weiss sind es bis zu 160MB.
Hätte man die Texturen nicht künstlich "verwaschen" so hätte man kleiner Texturen auskommen können und trotzdem die gleiche Quali gehabt...

P.S.: Achja und ZBag hat sehr wohl Ahnung was den Grakabereich angeht. Ich denke er weiss mehr, als die meisten bei Epic Games^^, also überleg dir was du sagst....

GloomY
2004-01-05, 19:03:59
Coda, es gibt weit aus mehr als deine eine Beispiel-Textur, auf die das Gesagte wohl eher nicht zutrifft. Für den Großteil des Restes aber schon. Aber es geht eigentlich darum: Einen LOD Bias von -0,6 vorzugeben, heisst bei der Auswahl der beiden Mipmaps diese um mehr als eine halbe Mipmap-Stufe zu verschieben (größer zu machen).

Beispiel: Irgend eine Pixel hat ein LOD von 3,5. D.h. bei einer Basistexturgröße von 1024x1024 (LOD=0) braucht man für ein trilineares Sample die Mipmaps mit LOD=3 und LOD=4, also 128x128 und 64x64. Von diesen beiden wird jeweils ein bilineares Sample genommen und dann linear interpoliert (hier 50:50 bei LOD 3,5).

Wenn man jetzt aber einen LOD Bias von -0,6 vorgibt, dann hat dieser eine Pixel ein LOD von 2,9. D.h. er benötigt nicht mehr die 128er und die 64er Textur sondern auf einmal die 256er und die 128er. Dass das sowohl den Speicherbedarf als auch den Bandbreitenverbrauch beim Erstellen der beiden bilinearen Samples erhöht, sollte klar sein. Die Hitrate des Texture Caches geht logischerweise bei größeren Texturen auch nach unten...

Die Idee, ein negatives LOD Bias per Default vorzugeben, ist einfach nur blödsinnig. :balla: Normalerweise gibt das schönes Textureflimmern, es sei denn, die Texturen sind so "informationsarm", dass das unterdrückt wird...

btw: Ich hoffe, mein Beispiel stimmt (LOD=0 bei Basistextur?).

Börk
2004-01-05, 19:04:33
Original geschrieben von Coda
Wenn er es denn behauptet muss es für alle Texturen gelten. Und diese nützt auf jeden Fall die 1024er Auflösung aus!

Zumal ich sie hier auch mit 30% jpg komprimiert hatte, damit das Bild nich so rießig wird...

Selbst wenn man selber Texturen bei 1024 ins Spiel importiert sind die immer noch scharf. Es ist definitiv falsch was er behauptet.

724^2 wäre auch überhaupt nicht Möglich gewesen, weil alle UT 2003 texturen DXT5 komprimiert sind, das heißt sie müssen 2^n Dimensionen haben, also 512x512, 512x1024 oder 1024x1024 etc...

Und ne volle RGBA 8888 724x724 braucht mehr Speicher als ne DXT5 1024x1024! (DXT5 braucht 8 bit pro Pixel ...)
Man kann auch gleich große Texturen benutzen und die auf eine größere Fläche drüberziehen. Oder man nimmt 512^2 und benutzt dann eine wesentlich kleiner Fläche, sowas ist alles möglich...

Coda
2004-01-05, 20:21:28
Dass die Texturen jetzt trotzdem relativ scharf sind höngt alleine davon ab, dass man riesige Texturen verwendet, soweit ich weiss sind es bis zu 160MB.
Hätte man die Texturen nicht künstlich "verwaschen" so hätte man kleiner Texturen auskommen können und trotzdem die gleiche Quali gehabt...
Schau dir die Texturen doch im Editor an. Sie SIND NICHT künstlich verwaschen.

Für den Großteil des Restes aber schon.
Nö.

Bei 512x512 hätte man definitiv ne schlechtere Qualität gehabt und dazwischen gibt's mit Textur Kompression nix.

Aquaschaf
2004-01-06, 00:09:29
Ich kann nur wiederholen, skalier eine Textur runter und wieder rauf. Bilde dann die Differenz mit der Originaltextur. Dann wirst du feststellen, dass beinahe jede Textur bei UT2003 durch das herunterskalieren praktisch keine Informationen verliert.

Coda
2004-01-06, 00:51:08
Vielleicht. Aber wenn ich's auf 512x512 runterskalier und dann wieder rauf, DANN SCHON.
Und dazwischen gibt's mit Texturkompression nunmal keine Möglichkeit.
Und dein 724^2 wär wie gesagt auch keine Lösung, weil das mit RGB8888 doppelt so groß wäre als 1024^2 DXT5

Und dass das bei den meisten Texturen so wäre ist mir auch neu... Vielleicht solltet ihr sie euch wirklich mal anschauen...

Aquaschaf
2004-01-06, 00:56:59
Hätte ich mir nicht genügend angeschaut, hätte ich nichts geschrieben ;) Texturkompression hab ich aber jetzt nicht beachtet.

Lokadamus
2004-01-06, 05:00:25
mmm...

Coda
Mal ganz blöd gefragt, ist die von dir gezeigte Textur aus einem "laufenden" Spiel aufgenommen oder aus einem Editor, wo man die Texturen "direkt" sehen kann ? (will die Grafik aus einem laufenden Spiel sehen) Soweit ich Gloomy und Zeckensack verstanden habe, werden die Texturen im laufenden Betrieb von der Grafikkarte nochmals überarbeitet (LOD = -0,6), wodurch die Texture im laufenden Spiel mehr Speicher verbrät, als unbedingt notwendig ... achja, im welchem Format liegen die Texturen eigentlich vor ? BMP, JPG oder etwas komplett eigenständiges (also im Editor) ? sollte es dort als JPG oder sowas vorliegen, sind die Texturen schon einmal komprimiert worden, was zu einer gewissen Unschärfe führt, aber im Alltag nicht weiter stört (komprimier mal JPG mit Qualität auf 100 % (Standard sind 75 %), die Unterschiede sind nicht wirklich sichtbar) ...

Aquaschaf
2004-01-06, 11:23:48
Nein, so ist es nicht. Die Texturen haben nur überwiegend eine höhere Auflösung als nötig, wodurch sie unscharf sind. Der negative LOD Bias gleicht das wieder aus.

Coda
2004-01-06, 17:11:19
Was allerdings in Zusammenhang mit Texturkompression steht und nicht von irgendeiner Epic-Dummheit ...

Bei 512x512 hätte das Spiel sicher nicht mehr die Texturqualität gehabt...

der Grafikkarte nochmals überarbeitet (LOD = -0,6)
Das bedeutet nur, das früher die schärferen Mip Stufen sichtbar werden.
Wenn man direkt davorsteht sieht man davon überhaupt nichts.
Und es ist nicht so das alle Texturen unscharf wären, mir is bisher noch nichts extremes ins Auge gestochen

Ach ja, diese Unschärfe könnte auch ein Resultat der Texturkompression sein btw...

Aber wie gesagt 1024^2 DXT sieht sicherlich besser aus als 512^2 RGB 8888

Und ohne den beschissenen Bug in den GeForce 1,2 und 3 Karten hätte man auch DXT1 nehmen können *grmpf*

VooDoo7mx
2004-01-06, 17:59:44
Sehr interessanter Thread...

Kan man dieses "Problem" eigentlich auf alle Games mit der Unreal Warfare Engine übertragen?

Coda
2004-01-06, 18:19:43
Es ist kein Problem O_o

VooDoo7mx
2004-01-06, 18:24:39
Es ist ein Problem!
Denn hier wird völlig sinnloserwiese Leistung verschenkt!

Coda
2004-01-06, 18:26:18
Nein wird es nicht, da mit Texturkompression nunmal nur 1024x1024 möglich ist und 512x512 schlechtere Bildqualität wär

DXT erfordert Dimensionen von 2 hoch n. Also 16 32 64 128 256 512 1024 etc. Dazwischen is nichts.

Warum schiebt ihr's eigentlich nich?

Selbst 724^2 RGB 8888 hätte ne doppelte Größe als 1024^2 DXT5 bei von mir aus manchmal gleicher Qualität.
Aber 512x512 DXT5 kann auf keinen Fall mit 1024x1024 DXT5 mithalten. (auch nicht bei den angeblich verwaschenen Texturen)

GloomY
2004-01-06, 18:50:42
Original geschrieben von Coda
Nein wird es nicht, da mit Texturkompression nunmal nur 1024x1024 möglich ist und 512x512 schlechtere Bildqualität wär

DXT erfordert Dimensionen von 2 hoch n. Also 16 32 64 128 256 512 1024 etc. Dazwischen is nichts.

Warum schiebt ihr's eigentlich nich?

Selbst 724^2 RGB 8888 hätte ne doppelte Größe als 1024^2 DXT5 bei von mir aus manchmal gleicher Qualität.
Aber 512x512 DXT5 kann auf keinen Fall mit 1024x1024 DXT5 mithalten. (auch nicht bei den angeblich verwaschenen Texturen) Geh' doch mal von deiner DXTC weg. Darum geht es (wie bereits erwähnt) doch gar nicht.

Das Problem ist das negative LOD Bias. Dadurch müssen für Pixel, die weiter weg liegen, unnötigerweise großen Mipmaps für die Sampleberechnung verwendet werden. Und das kostet Performance und Speicherplatz.
In welchem Format die Texturen nun vorliegen ist doch nur zweitrangig.

Coda
2004-01-06, 18:57:45
Und das kostet Performance und Speicherplatz.
Speicherplatz kostet es sicher nicht, die Mips müssen eh immer alle im Grafikspeicher liegen
Und soo unglaublich viel Leistung braucht das auch nicht

Die Texturkompression spielte in dieser Entscheidung auf jeden Fall ne Rolle.

Gast
2004-01-06, 22:13:51
@coda, folgendes haben sie gemacht...

1. Das orginal (das ist nicht im texturpack) wurde in 1024x1024 erzeugt.

2. Dann wurde diese Textur auf 724x724 verkleinert.
=> hier gehen Informationen verloren!!!

3. Die Textur wird wieder auf 1024x1024 vergrößert
=> keine Verbesserung, da keine Informationen hinzu kommen!
=> Die Textur sieht jetzt verwaschender als das Original aus!

4. Diese "verwaschene" Textur kommt nun ins Texturpack vom Spiel und wird von diesem verwendet.
=> Textur wäre etwas unscharf, um das zu verhinder, wählt man ein LOD von -0.6 um die Textur zu überfiltern und so eine fiktive Schärfung zu erzeugen, auch hier bekommt man keine neuen Informationen und die Textur wird nicht besser.

ZBags Aussage: Die Unreal-Texturen (1024x1024) enthalten nur soviel Informationen wie eine kleiner - sollten gleich der verkleinerten Orginaltextur sein (724x724).
Das bedeutet, man könnte "mehr" Informationen in der Textur behalten, wenn man die orginal Texturen verwenden wurde und man müsste nicht überfiltern...

@All
Frage?
Es trehten doch Kompresstions-Artefakte auf (Pixel werden in 2x2 Blöcke zusammen gefast?) - werden diese durch diese Methode weich gezeichnet bzw. trehten nicht auf, da durch verkleinerung und danach vergrößerung schon solche Blöcke erzeugt wurden?

...denke da an das paper von nvidia "Using texture compression in OpenGL" zu "ARB_texture_compression", dort war die Bockbildung bei komprimierung zu sehen... link gerade nicht zu hand

Achill
2004-01-06, 22:16:39
Das war ich ebend...

Aquaschaf
2004-01-06, 22:22:39
Ich glaube jetzt hast du irgendetwas durcheinander gebracht. Und ich wohl in früheren Postings in diesem Thread auch.

Achill
2004-01-06, 22:34:26
meine Aussage steht in keinem Zusammenhang - bitte löschen - habe gelesen was nicht da steht ;) ... ich gehe leiber zu bett bevor ich noch mehr verzapfe...

Coda
2004-01-07, 00:03:32
Original geschrieben von Gast
@coda, folgendes haben sie gemacht...

1. Das orginal (das ist nicht im texturpack) wurde in 1024x1024 erzeugt.

2. Dann wurde diese Textur auf 724x724 verkleinert.
=> hier gehen Informationen verloren!!!

3. Die Textur wird wieder auf 1024x1024 vergrößert
=> keine Verbesserung, da keine Informationen hinzu kommen!
=> Die Textur sieht jetzt verwaschender als das Original aus!

4. Diese "verwaschene" Textur kommt nun ins Texturpack vom Spiel und wird von diesem verwendet.
=> Textur wäre etwas unscharf, um das zu verhinder, wählt man ein LOD von -0.6 um die Textur zu überfiltern und so eine fiktive Schärfung zu erzeugen, auch hier bekommt man keine neuen Informationen und die Textur wird nicht besser.

Hää die Texturen sind schon als DXT5 vorkomprimiert, die Engine macht an den Dingern gar nichts mehr (nix skalieren oder so)

Die werden so dargestellt wie sie im Editor aussehen...

edit: ah.. hätte auch mal mehr lesen sollen ;)

GloomY
2004-01-09, 20:50:15
Original geschrieben von Coda
Speicherplatz kostet es sicher nicht, die Mips müssen eh immer alle im Grafikspeicher liegenLiegen wirklich immer alle Mipmaps jeder Textur im Graka-Speicher? Ich bin mir da nicht so sicher... (Demirug, Zeckensack? Oder sonst wer...;) )
Original geschrieben von Coda
Und soo unglaublich viel Leistung braucht das auch nichtWoher willst du das denn wissen?

Fakt ist: Es ist unnötig und kostet Performance, wie viel auch immer. Allein die Tatsache dass es Performance kostet ist zumindest mir persönlich schon zu viel.
Original geschrieben von Coda
Die Texturkompression spielte in dieser Entscheidung auf jeden Fall ne Rolle. Das kommt hierbei dazu und mindert höchstwahrscheinlich den Effekt, da es Bandbreite einspart. Es ändert trotzdem nichts daran, dass ein negativer LOD Bias per Default ziemlicher Schwachsinn ist.

Mr. Lolman
2004-01-09, 21:25:12
Es lag halt in der Unfähigkeit der Texutdesigner die richtige Grösse der zu kachelnden Textur im Vorraus zu bestimmen. Die haben sich dann auch schön gewundert, dass dann beim Kacheln die Textur um die Hälfte kleiner wurde, und da son komischer Rand drum zusehen ist, und dann halt man sichs leicht gemacht, und die Textures einfach aufgeblasen, anstatt das man im Vorhinein ein vernünftiges Format wählt.

Gast
2004-01-09, 22:56:53
Sicher würde Doom 3 auch von einer 512MB Grafikkarte profitieren keine frage ;)
Viel wichtiger ist doch die Frage, ab welcher mindest Konfiguration das Spiel ohne zu ruckeln spielbar ist, ich würde zur Not auch mit 640x480 spielen =)

Aquaschaf
2004-01-09, 22:59:18
Original geschrieben von Gast
Sicher würde Doom 3 auch von einer 512MB Grafikkarte profitieren keine frage ;)
Viel wichtiger ist doch die Frage, ab welcher mindest Konfiguration das Spiel ohne zu ruckeln spielbar ist, ich würde zur Not auch mit 640x480 spielen =)

Zwischen 512MB und 256MB Grafikspeicher würde es wahrscheinlich von der Performance keinen Unterschied geben.

Coda
2004-01-10, 00:09:27
Liegen wirklich immer alle Mipmaps jeder Textur im Graka-Speicher? Ich bin mir da nicht so sicher... (Demirug, Zeckensack? Oder sonst wer... )
Wenn die Textur selber auch im VRAM liegt, dann definitiv. Wenn zuwenig Speicher auf der Karte ist, dann wird sie natürlich mit den Mipmaps in den AGP ausgelagert. Aber sonst sind immer alle Mip Level vorhanden, das geht gar nicht anders.

Fakt ist: Es ist unnötig und kostet Performance, wie viel auch immer. Allein die Tatsache dass es Performance kostet ist zumindest mir persönlich schon zu viel.
Was ist daran unnötig? Die Bildqualtität wird dadurch besser.

Es lag halt in der Unfähigkeit der Texutdesigner die richtige Grösse der zu kachelnden Textur im Vorraus zu bestimmen. Die haben sich dann auch schön gewundert, dass dann beim Kacheln die Textur um die Hälfte kleiner wurde, und da son komischer Rand drum zusehen ist, und dann halt man sichs leicht gemacht, und die Textures einfach aufgeblasen, anstatt das man im Vorhinein ein vernünftiges Format wählt.
Du weißt nicht von was du redest.

Gast
2004-01-10, 04:06:00
Original geschrieben von Aquaschaf
Zwischen 512MB und 256MB Grafikspeicher würde es wahrscheinlich von der Performance keinen Unterschied geben.




ich denke doch, die grafikkarte muss nur schnell genug rendern können=)

Mr. Lolman
2004-01-10, 05:07:24
Original geschrieben von Coda
Was ist daran unnötig? Die Bildqualtität wird dadurch besser.


Sie könnte jedoch auch bei höherer Leistung (nämlich LOD 0.0 statt -0.5) viel besser sein, wenn manbeim Texturdesign nicht so gepfuscht hätte.

Gast
2004-01-10, 11:35:46
kann man den LOD verstellen um es "normal" anzusehen?
ist es in *.ini oder so?

sth
2004-01-10, 12:49:45
Original geschrieben von BrandyFly
ich hab selbst 768mb pc-333 ram ne 128mb radeon 9600pro
atholon xp 2400+ und denke es reicht nicht

Ist doch wunderbar, wo ist das Problem?
DOOM3 wird wohl vor allem eines brauchen: Viel RAM.
Aber mit 768MB ist man da schon auf der sicheren Seite.

Von Graka-Seite her: Bitte nicht vergessen, dass DOOM3 nach den bisherigen Informationen eine DX9-Class-Graka featuremäßig nicht ausnutzen wird (außer Carmack programmiert noch ein GL_ARB_fragment_program shader-backend).

1024x768x32 Max Detail ohne AA/AF (evtl. sogar mit kleinen AF-Stufen) sollte eigentlich locker drin sein mit der Karte.


Zum Thema "Informationsgehalt von Texturen": Ich glaube die Leute von id wissen mittlerweile recht gut, wie sie mit den Vorgaben der Engine umzugehen haben. Wie kommt ihr eigentlich darauf, dass das bei DOOM3 so sein wird wie bei UT2k3? Irgendwelche Hinweise?

Coda
2004-01-10, 12:57:39
Original geschrieben von Mr. Lolman
Sie könnte jedoch auch bei höherer Leistung (nämlich LOD 0.0 statt -0.5) viel besser sein, wenn manbeim Texturdesign nicht so gepfuscht hätte.

Ich bin davon überzeugt dass du die Texturen noch nichtmal angeschaut hast. Was hier behauptet wird kann ich immer noch nicht bestätigen

Sie hatten wohl bei manchen Texturen nur Material das für sagen wir 800x800 reicht. Wenn sie 512x512 genommen hätten, hätten sie Qualität verloren. Also benützen sie 1024x1024.
Was wäre dir lieber gewesen? Alles auf 512x512? Kannst du haben. Einfach die Texturen von Ultra High Detail auf High Detail stellen.

Ach ja. Wenn es wirklich so wäre, dann würdet ihr zwischen Ultra High Detail und High Detail Textures keinen Unterschied sehen.

außer Carmack programmiert noch ein GL_ARB_fragment_program shader-backend
Ich bin überzeugt das er das hat. Zumindest für die Pass reduzierung

MadManniMan
2004-01-10, 13:11:16
Coda, dann hätte man sich einfach ein wenig mehr Gedanken über das Kachelmanagement machen müssen. Was ist daran nicht zu verstehen? Daß -0.6 mehr Leistung frißt, als 0.0?

Coda
2004-01-10, 13:26:51
Coda, dann hätte man sich einfach ein wenig mehr Gedanken über das Kachelmanagement machen müssen.
? Die Beschränkung auf 512x512 und 1024x1024 liegt am DXT, das hatten wir doch schonmal

Sicherlich, aber das ist um die Bildqualität zu verbessern und hat nichts damit zu tun das die Texturen angeblich verwaschen wären

MadManniMan
2004-01-10, 13:36:18
Original geschrieben von Coda
? Die Beschränkung auf 512x512 und 1024x1024 liegt am DXT, das hatten wir doch schonmal

Sicherlich, aber das ist um die Bildqualität zu verbessern und hat nichts damit zu tun das die Texturen angeblich verwaschen wären

?-)

Sagen wirs so: die Performance ist nicht so hoch, wie sie bei der gegebenen Quali sein müßte und die Quali ist nicht so hoch, wie sie bei gegebener Technik ist.

Coda
2004-01-10, 13:50:34
Wie gesagt, nach eurer Theorie müssten die Texturen bei High Detail gleich aussehen wie bei Ultra High Detail
Also hat die LOD bias entscheidung wohl kaum was mit verwaschenen Texturen zu tun

Aquaschaf
2004-01-10, 14:02:56
Original geschrieben von Coda
Was hier behauptet wird kann ich immer noch nicht bestätigen


Nur bist du mit der Position alleine.

Coda
2004-01-10, 15:24:35
Es hat mir hier noch keiner auch nur eine Textur gezeigt wo das zutrifft, das man auch 512x512 nehmen können hätte

Aquaschaf
2004-01-10, 16:26:45
Original geschrieben von Gast
ich denke doch, die grafikkarte muss nur schnell genug rendern können=)

Wofür soll denn Doom 3 so viel Speicher brauchen? Bei hohen Auflösungen und AntiAliasing wird man mit 256MB vielleicht einen Vorteil haben, aber 512MB bringen mit an Sicherheit grenzender Wahrscheinlichkeit gar nichts.

Aquaschaf
2004-01-10, 16:28:28
Original geschrieben von Coda
Es hat mir hier noch keiner auch nur eine Textur gezeigt wo das zutrifft, das man auch 512x512 nehmen können hätte

Das kann man ja auch nirgendwo. Aber wären die Texturdesigner klüger gewesen hätten sie weitaus informationshaltigere 1024er Texturen erstellen können.

Liszca
2004-01-10, 16:38:11
Original geschrieben von zeckensack
Apropos Speicherverbrauch,
AF steigert den Speicherverbrauch nicht. Kein Stück.

appropos, aber das fsaa kann das, nur dass es niemand vergisst, wollte nur alle etwas geistig zurückgebliebenen dran erinnern, bei fragen einfach mich anmachen, erklaere dann wie ich darauf schliesse.

marco42
2004-01-10, 17:07:06
Original geschrieben von sth


Von Graka-Seite her: Bitte nicht vergessen, dass DOOM3 nach den bisherigen Informationen eine DX9-Class-Graka featuremäßig nicht ausnutzen wird (außer Carmack programmiert noch ein GL_ARB_fragment_program shader-backend).

http://finger.planetquake.com/plan.asp?userid=johnc

Name: John Carmack
Email:
Description: Programmer
Project:
Last Updated: 02/08/2003 13:59:55 (Central Standard Time)
-------------------------------------------------------------------------------
Jan 29, 2003
------------
NV30 vs R300, current developments, etc

...

The R300 can run Doom in three different modes: ARB (minimum extensions, no
specular highlights, no vertex programs), R200 (full featured, almost always
single pass interaction rendering), ARB2 (floating point fragment shaders,
minor quality improvements, always single pass).

...

Doom has dropped support for vendor-specific vertex programs
(NV_vertex_program and EXT_vertex_shader), in favor of using
ARB_vertex_program for all rendering paths. This has been a pleasant thing to
do, and both ATI and Nvidia supported the move. The standardization process
for ARB_vertex_program was pretty drawn out and arduous, but in the end, it is
a just-plain-better API than either of the vendor specific ones that it
replaced. I fretted for a while over whether I should leave in support for
the older APIs for broader driver compatibility, but the final decision was
that we are going to require a modern driver for the game to run in the
advanced modes. Older drivers can still fall back to either the ARB or NV10
paths.

The newly-ratified ARB_vertex_buffer_object extension will probably let me do
the same thing for NV_vertex_array_range and ATI_vertex_array_object.

June 27, 2002
-------------



I was duly impressed when the P10 just popped right up with full functional
support for both the fallback ARB_ extension path (without specular
highlights), and the NV10 NVidia register combiners path. I only saw two
issues that were at all incorrect in any of our data, and one of them is
debatable. They don't support NV_vertex_program_1_1, which I use for the NV20
path, and when I hacked my programs back to 1.0 support for testing, an
issue did show up, but still, this is the best showing from a new board from
any company other than Nvidia.

It is too early to tell what the performance is going to be like, because they
don't yet support a vertex object extension, so the CPU is hand feeding all
the vertex data to the card at the moment. It was faster than I expected for
those circumstances.

Given the good first impression, I was willing to go ahead and write a new
back end that would let the card do the entire Doom interaction rendering in
a single pass. The most expedient sounding option was to just use the Nvidia
extensions that they implement, NV_vertex_program and NV_register_combiners,
with seven texture units instead of the four available on GF3/GF4. Instead, I
decided to try using the prototype OpenGL 2.0 extensions they provide.

The implementation went very smoothly, but I did run into the limits of their
current prototype compiler before the full feature set could be implemented.
I like it a lot. I am really looking forward to doing research work with this
programming model after the compiler matures a bit. While the shading
languages are the most critical aspects, and can be broken out as extensions
to current OpenGL, there are a lot of other subtle-but-important things that
are addressed in the full OpenGL 2.0 proposal.

I am now committed to supporting an OpenGL 2.0 renderer for Doom through all
the spec evolutions. If anything, I have been somewhat remiss in not pushing
the issues as hard as I could with all the vendors. Now really is the
critical time to start nailing things down, and the decisions may stay with
us for ten years.

...

Es wird also vielleicht ein OpenGL 2.0 Backend geben. Die Integration von GSlang ist IMHO sowieso die bessere Entscheidung auf lange Sicht. Der Treiber hat einfach mehr Informationen ueber die GPU, so das die Optimierung einfach besser sein kann.

Gast
2004-01-10, 18:37:08
Original geschrieben von Aquaschaf
Das kann man ja auch nirgendwo. Aber wären die Texturdesigner klüger gewesen hätten sie weitaus informationshaltigere 1024er Texturen erstellen können.
Naja das ist manchmal halt nicht ganz einfach...
Ich denke mal Epic's Leute sind nicht die schlechtesten in der Industrie
Du must erstmal genügend hochauflösendes Material finden...

Aquaschaf
2004-01-10, 23:23:42
Das ist kein Problem. Wirklich hochauflösende Texturen kann man käuflich erwerben ;) Natürlich sind die Leute bei Epic nicht unfähig, das Spiel sieht ja gut aus.

Gast
2004-01-11, 01:12:20
Original geschrieben von Aquaschaf
Das ist kein Problem. Wirklich hochauflösende Texturen kann man käuflich erwerben ;) Natürlich sind die Leute bei Epic nicht unfähig, das Spiel sieht ja gut aus.

Hmm, kaufen kostet Geld und Geld ist nicht immer grenzenlos verfügbar. Vielleicht sind die Kosten vergleichsweise gering, aber wer sagt, dass man geringe Kosten nicht auch einsparen kann.

, ein Laie

Gast
2004-01-11, 01:15:42
Wieso soll eigentlich die Texturwahl ein generelles Engine-Problem sein? Ich bin Laie, dachte aber eigentlich immer, dass die Wahl der Texturen Designern obliegt und nicht Programmierern, oder zwingt Unreal-Engine einem die negative LOD auf?

Mr. Lolman
2004-01-11, 03:45:09
Original geschrieben von Coda
Ich bin davon überzeugt dass du die Texturen noch nichtmal angeschaut hast. Was hier behauptet wird kann ich immer noch nicht bestätigen

Sie hatten wohl bei manchen Texturen nur Material das für sagen wir 800x800 reicht. Wenn sie 512x512 genommen hätten, hätten sie Qualität verloren. Also benützen sie 1024x1024.
Was wäre dir lieber gewesen? Alles auf 512x512? Kannst du haben. Einfach die Texturen von Ultra High Detail auf High Detail stellen.



EPIC ist zwar nicht unfähig, und die Texutrdesingner sinds sicher auch nicht, aber die haben sich ein schönes bisschen Mehraufwand auf Kosten der User erspart. Wär das Rohmaterial zb in 1448² vorhanden gewesen, hätten die bei gleichen Überblendungsgrad nicht auf 1024² hinaufskalieren müssen. Bei niedrig aufgelöstem Rohmaterial bau ich die Textur so um dass halt auf jeder Seite 100 Pixel weggeschnitten werden (bei ~720 verschmerzbar), die Textur die gleichen Details hat wi do GRosse hat, aber nurmehr ein Viertel das Platzes benötigt,

Vo.a. hätte man sich da nicht nicht mit verschobenem TexturLOD herumspielen müssen, was ja in anbetracht der so einiger doch recht scharfer Texturen (hatte zuerst nur Arboreo Terrain auf die schnelle nochmal durchgekuckt gehabt), dann tw. doch wieder ein Schuss ins Knie ist, mal abgesehen dass es das sowieso ist, da unnötig Leistung verballert wird.


@Gast:
Das liegt nicht an der Engine sondern an den Texturdesignern. Die Engine gleicht das nur mit dem Wert "DefaultTexMipBias=-0.500000" in der UT2003.ini aus.

Bei so einer Einstellung flimmern Texturen normalerweise. Bei UT2003 (und wahrscheinlich auch bei U2) ist das grossteils nicht der Fall => zu unscharfe Texturen.





Nochwas: man kann mit schönen scharfen 512x512 Texturen durch die gesparte Rechenleistung durchaus mit zusätzlichen Details, ein schöneres Ergebnis zustande bringen als mit 4x so hoch aufgelösten aber nur 2x so detaillerten Texturen.

Aquaschaf
2004-01-11, 11:03:18
Original geschrieben von Gast
Hmm, kaufen kostet Geld und Geld ist nicht immer grenzenlos verfügbar. Vielleicht sind die Kosten vergleichsweise gering, aber wer sagt, dass man geringe Kosten nicht auch einsparen kann.

, ein Laie

Ein paar hundert Dollars für einige GB an Material sind ja nicht zu viel.

Gast
2004-01-14, 21:53:11
Also für Doom 3 braucht man für alle details höchste stufe ne ATI Radeon 9800Paro /GeForce FX 5900
3 Ghz und 1024MB Ram....also wenn es sonst keine wünsche sind...achja, das SPiel läuft dann aber mit sage und schreibe 70 - 80 FPS!!!^^
Man braucht schon allein für 800x600 auf mittleren details:
1,8 Ghz 512 MB Ram und ne Ge Force 4 TI bis Radeon 9700(non Pro)(aber es läuft dann auf grademal 20 FPS!) !!! ich werde es wenn dann auf 800x600 spielen und die schatten wegmachen damit sich die Performance steigert.
Ich hätte da noch ne Frage:
Ist die 9600 XT eigentlich schneller als ne 9700 (non Pro) ?
Mfg...

Gast
2004-01-15, 14:19:09
Original geschrieben von Gast
Ich hätte da noch ne Frage:
Ist die 9600 XT eigentlich schneller als ne 9700 (non Pro) ?
Mfg...

Nein, sie ist ein gutes Stueck langsamer.

Gast
2004-01-15, 20:09:38
ich hätte da noch ne frage:
für doom 3, lohnt es sich erstmal neue RAMS zu holen bevor man sich ne neue Grafikkarte kauft? weil ich habe ne GeForce 4 Ti 4200 aber nur 384 MB Ram (drei 128 MB Ram blöcke) .
Ich werde wohl erstmal nen neuen 512 MB Ram block ( ca. 90€) kaufen und einen 128 ausbauen dann hätte ich ja 768MB oda so :D , denn da sind RAMS eher wichtiger, ne?^^
PS: ich habe nen 2200+ AMD-Athlon XP.
was schlagt ihr mir denn für ne Grafikkarte vor (die ich mir dann danach kaufen werde)? ich habe bei ebay 9600 Pro-Karten für 120-130€ gesehen...lohnt sich das oda sollte ich etwas für ne 9600 XT oda 9700 Pro sparen?
lol
cya

mapel110
2004-01-15, 20:20:14
doom3 ist noch nicht raus. 384 mb ram sind sicherlich selbst für heutige games meist schon zu wenig. wenn du jetzt nutzen von der hardware hast, kannst du sie auch jetzt kaufen. wenn bei dir aber noch alles läuft, was du gerne zockst, würd ich noch warten. preise fallen ja ständig.

btw hört sich so an, als ob du noch sd-ram drin hast. da würd ich keinen ram mehr kaufen, sondern auf ddr-ram umrüsten.

Gast
2004-01-16, 13:59:26
nee, ich habe DDR Ram drin^^.
Naja ich werde mir erstmal neue 512 MB Ram kaufen dann sehn wa weiter, aber was schlagt ihr mir für ne Grafikkarte vor?-vielleicht 9600 XT oda 5700 Ultra ? naja ich kenn mich da mit den Preisen n icht so gut aus^^.
Aber hat ne 9600 XT bzw. Ge Force 5700 Ultra ( beide 256 MB wenn dann^^) denn auch ein gutes Preis-Leistungs verhältnis oda soll ich für ne 9700 Pro oda so sparen?
Mfg

mapel110
2004-01-16, 14:05:01
wieviel kannst du denn ausgeben?
bestes preisleistungsverhältnis hat derzeit wohl die 5900 XT.
http://www.geizhals.at/deutschland/?fs=geforce+5900&x=0&y=0
183.75 €

Gast
2004-01-16, 15:16:49
ich kenne diese Karte nur ich war mir nicht sicher ob das irgendein schrott oda so ist weil die Karte ja eigentlich superteuer "war".
Also die FX 5900 XT für ca. 190 € ist besser als eine ATI Radeon 9700 Pro oda 9600 XT?
Ich habe diese Karte auch schon für billiger im internet gesehn.
achja, ich werde mir jetzt noch keine kaufen erstmal die RAMS aber ich habe bald wieder Geld ca. März also dann wann die ganzen superspiele rauskommen :D
dann kaufe ich mir noch ne Karte ich wollte nur jetzt schonmal mehr über Leistungsverhältnisse und Preise verschiedener Karten erfahren^^.
MfG

Gast
2004-01-16, 15:52:52
Original geschrieben von Gast
Also die FX 5900 XT für ca. 190 € ist besser als eine ATI Radeon 9700 Pro oda 9600 XT?


die fx 5900xt ist leistungsmäßig besser als die 9600xt, aber schlechter als ne 9700pro.

Gast
2004-01-16, 16:07:52
ich habe grade gelesen, dass die 9500 Pro weitaus besser als eine 9600 Pro ist, ist sie aucvh besser als eine 5900XT? ab welchem ATI CHIP kann man sagen das es ein High-End Chip ist?
cya

Aquaschaf
2004-01-16, 16:14:02
Zwischen 9500 Pro und 9600 Pro ist der Unterschied nicht sehr groß. Die 5900XT ist schneller als die 9500 Pro. "Highend" ist bei ATI alles ab 9700Pro/9800non-Pro.

Mr. Lolman
2004-01-16, 16:58:45
Original geschrieben von Aquaschaf
Die 5900XT ist schneller als die 9500 Pro.


Aber nur mehr ganz gering, da selbst eine 9600XT bei 4xAA 8xAF sich auf gleichem Level mit einer 5900XT bewegt (bei höherer BQ versteht sich)

Trotzem ist die FX5900XT von der Rohleistung betrachtet (=höher etwas als bei der 9600XT) die momentan günstigste Karte...


/edit: Andersrum ist die 9600XT die ATi Karte mit dem momentan bestem P/L Verhältnis (~35€ günstiger als eine FX5900XT), kann aber nur bei DX8/9 Shader Anwendungen oder aktivierten BQ Features (wie AA/AF) eine FX5900XT überholen, oder zumindest gleichziehen...

(Die Rohleistung in OpenGl Spielen oder DX Spielen ohne Shadernutzung ist der einer Fx5900XT unterlegen)

Gast
2004-01-16, 18:03:38
Für ein SPiel wie Doom 3, welches die neuesten Shader (etc. ) nutzt ist also ne Radeon 9600XT besser als ne FX 5900XT, zumindest wenn man 2xAA und 4:1 AF anwendet, oder wie sehe ich das?lol
dann warte ich noch en bissl bis märz und schaue dann nochmal bei ebay rum , für Grafikkarten denn dann müssten 9600 XT und FX 5900 XT billiger sein^^.
danke für die Infos!
MfG...

Aquaschaf
2004-01-16, 18:14:36
Doom 3 ist wahrscheinlich nicht shaderlimitiert, da kommt es eher mehr auf die Stencil-Leistung an. Und da liegen die FX Karten eher vor den Radeon Karten.

Gast
2004-01-16, 18:36:22
Ich habe mir grade nen ausführlichen Benchmarcktest der FX 5900 XT und 9600 XT. Also da werde ich mir 100 Pro eher die FX 5900 XT kaufen denn die lag immer vorn und das auch bei AA und AF!:D
Die hat mich überzeugt^^ okay dann warten wir mal ab bis sie noch billiger ist.
Da muss ich Aquassowieso recht geben, denn bei spielen wie HALO lagen die FX Karten weitaus vor den ATI Karten^^.
Danke nochmal!
Mfg

Mr. Lolman
2004-01-16, 19:28:16
Dann liess dir nicht nur einen Benchnmarktest durch, sondern gleich mehrere.

Die Leute kommen da z.T. auf sehr unterscheidliche Ergebnisse. (Beim letzten THG Roundup z.B. liegt die 9600XT mit 4xAA 8xAF gleichauf mit der 5900Xt.)


Es kommt auch sehr auf die getesteten Spiele draufan. Bei NFSU liegt die ATi vorne, bei TROAD ebenfalls, bei SC4 und bei FS2004 auch...

Andersrum: Bei Q3a liegt die FX vorne, bei Halo muss nicht sein (was ich da schon an unterscheidlichen Benchmarkergebnissen sah, ist zum Haareraufen), Nascar 2003 und IL" Sturmovik gefällt den FXen auch mehr.

Dafür ist Max Payne II und GTA VC wieder ATI Revier...



Ja wie auch immer, mit einer Fx5900XT machst du im Prinzip nichts falsch...

Gast
2004-01-16, 20:06:22
Jo,bei Max Payne sind ATI Karten besser, ich werde dann mal schauen welche ich mir kaufe....aber was schlagt ihr mir für ne ATI Karte vor, so im 170-200€ bereich?
Also eine, die der FX 5900XT konkurenz macht .
Ich habe außerdem bei ebay ne FX5900XT für 190 € gesehn die ist von ZEUS ist das irgendeine Billig-Marke oda so?
cya

Gast
2004-01-16, 20:10:09
hi ich bin neu hier, mal ne Frage an euch ist ne FX5800/5800 Ultra schneller als die FX 5900 XT?
und ist die Radeon 9500 Pro schneller als die Radeon 9600 XT ( weil sie ja schneller als ne Pro ist).
würde mich über antworten freuen.

Aquaschaf
2004-01-16, 21:30:40
9500 Pro und 9600XT liegen ungefähr gleichauf. Die 5800 Ultra ist in einigen Situationen wahrscheinlich schneller als die 5900XT, die 5800 non-Ultra ist langsamer.

Smolo
2004-01-31, 22:33:28
Hi

also Preis/Leistungsmässig liegen die 9600XT Karten wohl einiges vor den 5900...

Ich hab für meine Sapphire 179 bezahlt vor Weihnachten...da war TombRaider und HL2 Key dabei...rechnet mal nur die Hl2 Vollversion runter dann liegt sie schon auf dem Preisniveau einer 9600er und is einiges schneller wie diese....

9500pro würde ich nicht mehr zugreifen lieber die 9600XT hat paar neue Features und ist bei manchen Tests auch schon einiges schneller (bei manchen sonst meist gleich auf)