PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Enttäuschende Leistung


Fantastic
2001-12-13, 21:32:15
Hi leute !! Habe mir eine GeForce 2 Ti von Asus gegönnt (hatte vorher ne schnöde ATI Rage 128).... ich hab schon etwas mehr Leistung nach dem kauf erwartet !! Bei UT in 1024*768 stottert es, weinn ich im 32 Bit Farbmodus spiele !! Da kann was nicht stimmen !! Hab auch die neusten Treiber !!

Mein System :
P III 700 Mhz
Biostar M6VBE-A (SOund onboard)
256 MB RAM
Win 98 SE
ASUS V 7700 TI

Amarok
2001-12-13, 21:40:42
Würde sagen, wenn du im 32 Bit-Modus spielst kann, das ruhig stimmen. Mit meinem System (siehe unten) stottert es in dieser Auflösung auch. Soviel ich weiß ist UT auch stark Prozzi abhängig (verbessert mich, wenn ich mich irre!)

Legolas
2001-12-13, 21:46:57
Ja UT ist arg CPU limitiert.. und da du 'nur' 700 Mhz hast, ist halt nicht mehr drinn...

Fantastic
2001-12-13, 22:01:16
Also würdet ihr sagen, es liegt im allegemeinen an meinem Prozi... denn Max Payne schafft auch nur bei 1024*768*32 und alle Details ca. 22 FPS....

Gohan
2001-12-13, 22:03:02
Klingt realistisch. Hast du die Treiber von der CD genommen? Geh mal auf www.nvidia.de und lade da die neusten runter :)

Amarok
2001-12-13, 22:07:43
Originally posted by Fantastic
Also würdet ihr sagen, es liegt im allegemeinen an meinem Prozi... denn Max Payne schafft auch nur bei 1024*768*32 und alle Details ca. 22 FPS....
Denke schon, dass es der Prozzi ist...

Unregistered
2001-12-13, 23:16:43
Hi!

Ich bin eigentlich kein NVidia-Hasser oder extremer ATI-Fan, aber an deiner Stelle hätte ich gleich ... ohne nachzudenken ... R8500 gekauft. Denn mit dieser Karte (!!!man... ist die schnell!!!) MaxPayne läuft wirklich sahnemässig mit allen Details..(und ich meine wirklich MIT ALLEN DETAILS) bei 1024x768x32bit.

Und bei UT... versuch mal v-sync einschalten, also v-sync on, und den Monitor auf 1024x768x32bit mit 75Hz einstellen.

Amarok
2001-12-13, 23:19:15
Bei einem 700er Prozzi wird eine High-End-Graka auch nicht viel mehr rausholen können.

Zitrone
2001-12-13, 23:24:15
Originally posted by Amarok
Bei einem 700er Prozzi wird eine High-End-Graka auch nicht viel mehr rausholen können.


...bestimmt schafft ne GF3 2-3 fps mehr ;)

Haarmann
2001-12-13, 23:28:21
Is wohl kaum die CPU, wenns offenbar erst ab 1024 lahmt ;-)

Ev mal auf OGL umschalten...

Unregistered
2001-12-13, 23:31:06
...na ja mein System ist auch nich die modernste:

PIII 1GHz
512MB RAM PC133
VIA 4.16
Radeon 8500 OEM 250/250

Kai
2001-12-14, 00:50:20
Also ich würde auch auf die CPU-Bremse tippen. Übrigens ist Max Payne auch sehr stark CPU limitiert ...

Com1
2001-12-14, 11:48:30
Originally posted by Amarok
Bei einem 700er Prozzi wird eine High-End-Graka auch nicht viel mehr rausholen können.

Das würd ich aber mal nicht pauschalisieren. Es gibt viele Spiele bei die CPU keine so große rolle spielt. Aqaunox z.b. Läuft schon auf einem Duron 600 (!!!) mit entsprechender DX 8 karte superflüssig, bei einem Bench in der aktuellen PCGH gabs qausi gar keinen Performancegewinn wenn man die CPU gegen einen Athlon 1,2 austauschte.

Auch die Q3 Engine ist klar Graka Limitiert, die skaliert allerdings im vergleich zu A-nox auch noch stark mit der CPU, besonders natürlich unterhalb von 1024x768.

Bei mir läuft alles top mit der Radeon 8500, obwohl ich mit "nur" 850 Mhz auch an der Untergrenze für so eine Top Graka bin.

Zum Thema: UT würde ich erst gar nicht in 32 Bit zocken. Das bringt nämlich gar nix von der Bildq. her! Wurde immerhin auf Glide optimiert, wo 32 Bit rendering ja bekanntermaßen nicht vorgesehen ist ;)

Amarok
2001-12-14, 11:57:37
Sollte auch nicht als Verallgemeinerung verstanden werden. Unbestritten ist jedoch, dass eine G3 oder Radeon bei einem 1 GHZ-Prozzi besser aufgehoben ist als bei einem 600er.

Kellwolf
2001-12-14, 13:01:13
Würde auch auf CPU-Bremse tippen...
700 MHZ sind nu mal etwas langsam.... in der jetzt Zeit


MFG
Kellwolf

Exxtreme
2001-12-14, 14:09:21
Originally posted by Kellwolf
Würde auch auf CPU-Bremse tippen...
700 MHZ sind nu mal etwas langsam.... in der jetzt Zeit


MFG
Kellwolf

Ich hoffe, daß es nicht dein Ernst ist. UT kann ich mit meinen 350 MHZ PII + Voodoo2 flüssig zocken. Ich glaube in dem Fall gibt es ein anderes Problem. Ich würde versuchen den alten ATI-Treiber runterzuschmeissen denn da soll es besonders viele Performanceprobleme geben. Dann würde ich schauen ob der DMA-Mode aktiviert ist. Wenn dies nicht hilft.........format c:
IMHO sind die Reste des ATI-Treibers schuld. Also in den Anzeigeoptionen erstmal auf Standard-VGA stellen und neustarten und dann die nVidia-Treiber installieren.

Gruß
Alex

Unregistered
2001-12-14, 14:59:18
Hi!

Glaub auch net an CPU schuld: Hab Unreal Trnmnt auf 3 verschiedenen Systemen: P2 350; P3 600EB ; Athlon C 1,4Ghz
selbe Graka; Von P2 auf P3 gehts schon nochmal flüssiger; Zwischen P3 Unt Athlon tut sich meiner ansicht nach nix mehr kanns aber gern nochmal daheim testen;
UT WAR sicher mal Prozessorlastig, kam aber ja schon raus als 350 Mhz ne Menge zunder waren(man möge mich berichtigen wenn s net stimmt) und irgendwann isses dann halt wurscht ob man 3 Ghz mehr oder weniger hat ;)

cu

Flo

Amarok
2001-12-14, 15:31:53
An die obigen:
Welche Auflösung, wieviel Bit ???

Kai
2001-12-14, 16:39:07
Die Q3A Engine ist generell gesehen (Q3A) stark Grafikkarten-limitiert. Die gemoddete Engine für RTCW Beispielsweise allerdings nicht mehr, da sie wirklich komplett ausgereizt wird, was Polygone, Texturauflösungen, vor allem aber Dynamic Lightning angeht.

RTCW, FAKK², ALICE oder ELITE FORCE dürften erstaunlich gut mit der CPU mitskalieren.

Unregistered
2001-12-14, 17:08:28
Hi!

Was für einen Prozessor soll man den bitte in Kombination mit GF2TI benötigen um UT(!) mit meinetwegen 1024er Auflösung 32 Bit und Max Details zu spielen ??? Alle über PIII 600 is da meiner Ansicht nach schön aber unnötig. Das Spiel is einfach auch alt. Anders mags wieder bei UT->T0 aussehen.

Gruss,

Flo

Com1
2001-12-14, 17:16:10
Nun, als ich UT das erste mal gespielt habe war das auf einen P3 450 mit Voodoo3. Lief eigentlich sehr flüssig. Aber meine 64 MB RAM die ich damals hatte waren viel zu wenig für das Spiel.

Als ich dann auf den Coppermine 850 umgestiegen bin, hab ich zwar die bessere Performance bemerkt, aber das war nicht viel besser. Nur bei großen DM Maps mit vielen Gegnern merkte man es deutlich.

Also ich denke eigentlich auch das für UT selbst eine 700 MHz CPU völlig ausreicht, die aktuellen Spiele mit der Engine (z.b. Harry Potter) benötigen aber etwas mehr.

Razor
2001-12-14, 18:24:53
Also, wenn es euch wirklich interessiert, wie 'gut' UT auf den GraKa's lüft, dann schaut euch mal dieses Bildchen an (Test von 3DConcept):

http://www.3dconcept.net/reviews/asusv8200/utall.gif
(D3D, vom Juli diesen Jahres)

Auf der gf3 läuft's ganz OK, dank neuen Deto's...
(PIII900, 256MG CL2 SDRAM)

Und das UT auf 'ner V2 vernünftig läuft, könnte schon allein daran liegen, daß die gar net mehr als 800x600 in 16-Bit macht...

Also bitte keine Äpfel-mit-Birnen Vergleiche !
;-)

In diesem Sinne

Razor

Exxtreme
2001-12-14, 18:27:54
Originally posted by Razor

Und das UT auf 'ner V2 vernünftig läuft, könnte schon allein daran liegen, daß die gar net mehr als 800x600 in 16-Bit macht...

Also bitte keine Äpfel-mit-Birnen Vergleiche !
;-)

In diesem Sinne

Razor

Was hat die Auflösung mit einer CPU zu tun?

Gruß
Alex

Razor
2001-12-14, 18:33:28
... eleiminiert wegen Hirnriß !...
(der eindeutige Beweis, daß Kaffe schadet !)
;-)

Razor

Matrix316
2001-12-14, 18:36:58
Nach dem oberen Bild wäre es ja mit einer GF3 noch langsamer.:D;) Naja...

Razor
2001-12-14, 18:41:49
War auch so !
Aber dank den neuen Deto's ist sie nun schneller, als 'ne V5 (in D3D wohlgemerkt)
;-)

In diesem Sinne

Razor

P.S.: Alles andere, als GLIDE ist bei UT nicht sonderlich dolle implementiert, aber lange nicht so schrottig, wie bei U9...
AAAARRRRRGGGGHHHHHH !
(ich hab' dieses U*grmpf* schon wieder erwähnt)
*lauf amok*
*kreisch*
*zitter*
;-)

StefanV
2001-12-14, 18:48:03
Originally posted by Razor
Je höher die Auflösung, dest mehr Arbeit für die CPU !
(eigentlich doch ganz logisch, oder ;-)

Seit wann ist es in 3D Anwendungen so??

Die CPU bekommt AFAIK nicht mehr arbeit bei 1280x1024 als bei 640x480!

Teste es doch mal mit einem alten K6!!

Kaum einbruch zwischen 640 und 1024!!

Exxtreme
2001-12-14, 19:03:28
Originally posted by Razor
Je höher die Auflösung, dest mehr Arbeit für die CPU !
(eigentlich doch ganz logisch, oder ;-)

Tatsächlich? Seit wann denn das? Zumindest bei 'beschleunigten' 3D-Grafik. Wieso ist dann eine GF2MX bei 1600x1200 deutlich langsamer als eine GF3 wenn es von der CPU abhängt. Nee Razor, ich glaube du verwechselst etwas. ;-)


Gruß
Alex

Xmas
2001-12-14, 19:05:10
Originally posted by Razor
Je höher die Auflösung, dest mehr Arbeit für die CPU !
(eigentlich doch ganz logisch, oder ;-)
:lol::lol:

Razor
2001-12-14, 19:10:14
Geb ja zu daß es 'nen Trugschluß war...
(könnte an dem 10'ten Kaffe liegen ;-)

Werde den Post mal 'reduzieren' !
;-)

Razor

Exxtreme
2001-12-14, 19:19:31
Originally posted by Razor
... eleiminiert wegen Hirnriß !...
(der eindeutige Beweis, daß Kaffe schadet !)
;-)

Razor

Bist du dir sicher, daß das Kaffee war, was du getrunken hast ? ??? :D

Gruß
Alex

Razor
2001-12-14, 19:36:06
Bin mir da auch nicht mehr so sicher...
*zitter*
;-)

Kann auch gut sein, daß mich die Kälte da draußen geschockt hat !
(minus 3 Grad *schüttel* ;-)

Razor

Frank
2001-12-14, 21:10:11
Originally posted by Razor
Bin mir da auch nicht mehr so sicher...
*zitter*
;-)

Kann auch gut sein, daß mich die Kälte da draußen geschockt hat !
(minus 3 Grad *schüttel* ;-)

Razor
WAS ?? ??
Bei -3°C ?? ??

...Warmduscher

AlfredENeumann
2001-12-14, 21:10:43
Originally posted by Razor
War auch so !
Aber dank den neuen Deto's ist sie nun schneller, als 'ne V5 (in D3D wohlgemerkt)



Aber warum wird dann immer noch auf die leicht schlechtere Geschwindigkeit der R200 rumgehackt, wenn es bei der Gf3 damals "normal" war, und sich mit den Treibern gebessert hat. Traut das ATI keiner zu, das Sie noch schneller werden können ?
Stabil sind die Treiber allemal.

Kobold
2001-12-14, 21:15:27
Ich meine ATI wird "bald" auch bessere Treiber haben das braucht nun mal seine Zeit. Also die ersten Deto´s waren meiner meinung nach auch total scheiße.


MFG Kobold

Piffan
2001-12-15, 00:24:23
Originally posted by Com1



Zum Thema: UT würde ich erst gar nicht in 32 Bit zocken. Das bringt nämlich gar nix von der Bildq. her! Wurde immerhin auf Glide optimiert, wo 32 Bit rendering ja bekanntermaßen nicht vorgesehen ist ;)

Vollkommen falsch! UT sieht um einiges besser mit 32 bit aus. Z.B. der scharze Rauch, wenn man den zweiten Modus des Rocketlaunchers wählt. Unter 16 bit ist schwarzer Rauch schier unmöglich! (Bei UT)

Dann gibts viele Z- Fehler in 16 bit! Am besten zu sehen an der Plasmagun. Oder auf der Map "Facings Worlds".

In 16 bit sind auch die dunklen Regionen einer Map saumäßig häßlich!

UT ist nach wie vor stark Prozessorlastig! Es kommt natürlich sehr auf die Map an, "Turbine" oder "Pressure" sind da genügsam, hier sorgen erst viele Bots für Ruckelei....

Netterweise wurden die Maps der "Grundausstattung" schon von den Entwicklern in große und kleine klassifiziert, an die Empfehlungen bezüglich der Bots sollte man sich tunlichst halten.

Im Internet gibts so schöne Maps wie "Wild West", "Zahltag", "Dark City 2". Die sind mit einem P3 der Gigaklasse nicht ohne Ruckelei zu spielen. Erst mit meinem neuen Athlon XP @1800+ ist die Ruckelei weg!

Falls ihr Fragen zu UT habt, da kenne ich mich bestens aus! Bin als Spieler mit der Unreal- Engine groß geworden "g".
Halte übrigens größte Stücke auf dieses programmtechnische Meisterwerk. Vor allem, nachdem ich den ersten Abschnitt von RTCW durchhabe bin ich wieder mal bestätigt: Die Quake- Engine ist zwar nicht übel, aber die Explosionen, Partikel und Lichteffekte sind mies!

Wo ich dabei bin: Grafisch hat mich RTCW enttäuscht! Die Models sind zwar klasse und gut animiert, aber der irgendwie sieht alles recht altbacken aus, die Levels sind irgendwie so leer. Von Max Payne ist man nun schon einen ganz anderen Detailreichtum und wesentlich bessere dynamische Lichter gewöhnt. Sogar NOLF macht mehr Bock als RTCW!

Demnächst werde ich meinem System mal wieder ein bißchen Auslauf in U9 gönnen, endlich nervt kein Ruckeln mehr! (Wobei die ständigen Nachlader der "unendlichen" Engine natürlich nach wie vor bestehen, aber mit riesigem V-Cache gar nicht mehr stören!)

TFA
2001-12-15, 01:08:33
Würde sagen das du Unreal TOurnament nicht richtig eingestehlt hast
und vielleicht machtste mal die neueste versin drauf den in 32 bit stottert es net sonder es kommt halweniger fps her.700Mhz sin mehr als genug für UT .stell ma deine AGP SIZE IM BIOS auf 128 MB und den V-sync im treiber aus ,benutze mal die 21.83 Treiber denn alle anderen am Version 2X.xx machen bei vielen spielen Grafik und Polygon Fehler.


PS: Nimm mal die Neuesten Mainboard Treiber.

AUßERDEM Läuft UT Auf Geforce 3 karte wie auch alle anderen UT ENGINE SPIELE bis zu 6-8 fps schneller als Geforce 2 und Ultra Karten .

Alle anderen Gerüchte und Bechmarks sind Purer Schwachsinn.Von wegen langsamer als Kyro 2 oder GF2 ULTRA

Com1
2001-12-15, 02:02:42
Originally posted by Piffan


UT sieht um einiges besser mit 32 bit aus. Z.B. der scharze Rauch, wenn man den zweiten Modus des Rocketlaunchers wählt. Unter 16 bit ist schwarzer Rauch schier unmöglich! (Bei UT)

Dann gibts viele Z- Fehler in 16 bit! Am besten zu sehen an der Plasmagun. Oder auf der Map "Facings Worlds".



Also einiges besser ist wohl etwas zuviel des guten. Ein Spiel das auf 16 Bit Farben optimiert wurde... oh ja das sieht in 32 Bit vieeel besser aus ;) Wenn du das bei einem Spiel wie RTCW sagen würdest, das voll auf 32 Bit optimiert wurde, wärs ja verständlich, aber die Unreal Engine... oh je Mitte 1998 war 32 Bit Rendering noch ein schöner Traum mehr nicht. Natürlich gibt es immer einige Effekte die immer von 32 Bit profitieren, aber bei UT sind das sehr sehr wenige.

Piffan
2001-12-15, 02:12:56
Originally posted by TFA
Würde sagen das du Unreal TOurnament nicht richtig eingestehlt hast
und vielleicht machtste mal die neueste versin drauf den in 32 bit stottert es net sonder es kommt halweniger fps her.700Mhz sin mehr als genug für UT .stell ma deine AGP SIZE IM BIOS auf 128 MB und den V-sync im treiber aus ,benutze mal die 21.83 Treiber denn alle anderen am Version 2X.xx machen bei vielen spielen Grafik und Polygon Fehler.


PS: Nimm mal die Neuesten Mainboard Treiber.

AUßERDEM Läuft UT Auf Geforce 3 karte wie auch alle anderen UT ENGINE SPIELE bis zu 6-8 fps schneller als Geforce 2 und Ultra Karten .

Alle anderen Gerüchte und Bechmarks sind Purer Schwachsinn.Von wegen langsamer als Kyro 2 oder GF2 ULTRA

Meinst Du mich? Du willst mir allen Ernstes sagen, wie man die Unreal-Engine einstellt? Wo schon Unreal mit einem 233 MMX und ner Voodoo1 gezockt habe? LOL

Wenn Du meinst, daß 700 MHZ für riesengroße Maps und mit vielen Spielern (16) reichen, dann kennst Du sicher nur einige Maps aus dem Spiel. Wahrscheinlich sogar nur die Demo- Maps! Dann gehe mal auf den Ut- Server Internova. Da weißt Du, was eine große Map ist. So mit Hochhäusern, Fahrstühlen und Kellergeschossen, aber auch gewaltigen offenen Plätzen....

Aber wahrscheinlich haben wir verschiedene Erfahrungen. Als ich noch mit einem P2@400 und ner Voodoo2- SLI gezockt habe, dachte ich auch noch, daß mein System schnell genug ist. Heute weiß ich, das "schnell" verdammt relativ ist.

Vor allem ist der Durchschnitt einen Dreck wert, die Minima sind entscheidend!

Hier mal meine UT- benchwerte:

Minimum: 34,7

Schnitt 58,6

Maximum 98,9


Dein 700er Proz dürfte so bei 25 FPS Minimum sein. ABer bitte den Original Bench und alle Details auf Max, Minimum Frames auf 0!

In den Singleplayerlevels liegt der Schnitt dicht an der Monifrequenz von 85, die Minima liegen immer knapp über 50. Habe die Kappungsgrenze für das LOD 55 angesetzt...

Dank des genialen "Level of Detail" Systems ist UT durchaus auch auf schwächren Systemen einigermaßen spielbar, aber die volle Pracht und maximale Partikelzahl, realistische Decals usw. hat man erst ab 1 Gigahertz. Wirklich mulitplayertauglich wird es aber erst mit noch mehr Saft!

Was die Boardtreiber angeht: 23 000 Ktriangels beim 3dMark2000 sind wohl Beweis genug für korrekte AGP- Implementierung (4 fach)

Wenn mir einer was vormachen will: Die UT- Engine ist mein "Fachgebiet". Also gib es gleich auf ;-)

Piffan
2001-12-15, 02:22:52
Originally posted by Com1


Also einiges besser ist wohl etwas zuviel des guten. Ein Spiel das auf 16 Bit Farben optimiert wurde... oh ja das sieht in 32 Bit vieeel besser aus ;) Wenn du das bei einem Spiel wie RTCW sagen würdest, das voll auf 32 Bit optimiert wurde, wärs ja verständlich, aber die Unreal Engine... oh je Mitte 1998 war 32 Bit Rendering noch ein schöner Traum mehr nicht. Natürlich gibt es immer einige Effekte die immer von 32 Bit profitieren, aber bei UT sind das sehr sehr wenige.

Du bist ja ein ganz schlauer!

Ist dem Herrn vielleicht entgangen, daß die Engine inzwischen so umgemodelt wurde, daß sie unter direct3d optimal läuft?

Nimm mal Wheel of Time: In 16 bit sieht es unter direct3d saumäßig mies aus, die Texturen sehen äußerst mau aus. Erst in 32 bit kommt es an die Glide- Version heran. Übrigens habe ich immer noch eine Voodoo 2 im Rechner..... Schaltet man dann noch die detailed Textures hinzu, sieht es in 32bit umwerfend gut aus.....

Um nochmal auf UT zu kommen: Viele Decals sehen kaputt aus, die Schatten unter den Spielern sind von Quadraten umgeben (scheinbar stimmt da was mit den Alphawerten nicht, eigentlich sollten nur die Schatten, nicht aber die Polygonränder sichtbar sein. Der gleiche Transparenzfehler macht den schwarzen Rauch des Rocketlaunchers kaputt... Wahrscheinlich ist bei der Portierung von Glide nach directx einiges kritisch und nur unter 32bit vernünftig.

Wenn du mal die Z-Fehler in UT sehen willst, lade die Map "Facing Worlds". Oder im Internet die Map "Dark- Citiy". Dummerweise werden die Z- Fehler erst geringer, wenn man 32bit FArbtiefe wählt.....

Amarok
2001-12-15, 02:33:18
Originally posted by Frank

WAS ?? ??
Bei -3°C ?? ??

...Warmduscher
Da LACH ich wirklich !!!

Wir haben hier im Moment -21°C !!!

Kobold
2001-12-15, 02:37:29
Wo wohnst du den in Sebirien?

StefanV
2001-12-15, 02:40:15
@ALL

Bitte sachlich bleiben!!

KEINE BELEIDIGUNGEN!!!!

Kobold
2001-12-15, 02:47:13
Mein Posting war auf die -21°c bezogen.


MFG Kobold

StefanV
2001-12-15, 03:09:23
Originally posted by Kobold
Mein Posting war auf die -21°c bezogen.


MFG Kobold

:rofl:

Amarok
2001-12-15, 03:19:59
Originally posted by Kobold
Wo wohnst du den in Sebirien?
Österreich :D

Razor
2001-12-15, 08:25:46
@Frank

-3Grad... gefühlt -12Grad...
*bibber*
;-)

@AlfredENeumann

Damals lief die gf3 noch mit gf2-Treibern, die lediglich ein paar Features mehr unterstützten...

Das nVidia das hinbekommen würde, war eigentlich jedem klar, der nVidia kannte.
Daß ATI das auch hinbekommt, wage ich mal in Frage zustellen !
(die Vergangenheit läßt diese Schlußfolgerung leider nicht zu)

Und mit 'stabil' meinst Du wohl hoffentlich nur die Win9x-Treiber...
Oder willst Du all denjenigen Lügen strafen, die was anderes fest stellten ?
(zumal sich ATI mit W32-Treibern noch nie sonderlich hervor getan hat)
;-)

@Kobold

Welche NV-treiber meinst Du ?
Die ersten Deto's von vor 5 Jahren ?
Da gab's auch schon ATI-Karten... hat denn ATI nichts dazu gelernt ?

@Piffan

Da kann ich Dir nur zustimmen.
Auch bei UT ist 32-Bit absolute Pflicht (in D3D !), wenn man auf BQ wert legt.

@Com1

Wie kann es sein, daß einige Effekte von 32-Bit profitieren, wenn es doch so ist, wie Du sagst, daß es auf 16-Bit optimiert wurde ?
(oder muß ich Dir den Unterschied zwischen GLIDE und D3D erlaütern ?)
???

@Amarok

Wie, -21Grad ?
*brrrrr*

Da beneide ich Dich wirklich nicht...
Aber ev isses bei euch 'nen wenig 'trockener', dann isses lang net mehr so schlimm !
;-)

In diesem Sinne

Razor

Piffan
2001-12-15, 09:52:12
Ich möchte mal frech behaupten, daß es wohl Engines gibt, die auf 16bit so gestaltet sind, daß man nur in wenigsten Fällen beim Umschalten auf 32bit was sehen kann. Die Quake 2 kenne ich da als Beispiel. Die UT- Engine ist aber ursprünglich für Glide entwickelt worden: Die Texturen sind unter glide in 8bit (Palette, was immer das heißt, keine Ahnung). Dennoch sehen Unreal oder UT unter glide klasse aus.
Von Anfang an gab es Streß mit der Portierung auf andere APIs. Heute ist UT unter OpenGl nominell und subjektiv zwar einen Zacken fixer (keinerlei Mauslag), aber es kommt immer wieder zu dramatischen Hängern. Habe fast den Eindruck, daß besonders große Maps und OpenGl nicht miteinander kompatibel sind. Bei RTCW fällt mir auf, daß es selten eine imposante Fernsicht gibt, entweder kaschiert der Nebel (Seilbahn) oder man rennt durch klaustrophobische Gänge und Verliese...Allerdings bin ich bei RTCW erst in die Katakomben eingestiegen und fand das bisher gesehene irgendwie altbacken (Max Payne hat den Maßstab kräftig nach oben gelegt)...

Nachdem sich Sweeny nach Nvidia orientiert hat, ist die UT- Engine für direct3d kräftig umgestrickt worden. Mit meiner Geforce Ultra ist die Performance in 32bit und 16bit nur minimal unterschiedlich, erst ab 1024x768 aufwärts dirfferiert es um ein zwei Frames. Angesichts der Power heutiger Prozis ist der Vorsprung von Glide null! Dagegen sieht es in 32bit superb aus. Wenn ich erstmal die G3 habe, kann ich auch die Detailtextures zuschalten, ist bisher ein gewaltiger Bremsklotz; der Geforce schafft halt nur zwei Texturen pro Durchgang... Ist bei MP auch so: ohne Detailtextures ist es genauso flott wie UT, mit wird es in manchen Umgebungen schon zäh. Zäh ist für mich unter 32 FPS....

Verdammt, die MSI G3 ti200 mit Vivo ist immer noch nicht verfügbar. Wahrscheinlich vor Weihnachten keine Chance mehr, hinterher wird sie evtl. teurer. Schluchz, hätte ich doch blos vor zwei Wochen sofort bestellt.....499 mit Vivo und LCD!

Exxtreme
2001-12-15, 09:56:00
Originally posted by Amarok

Da LACH ich wirklich !!!

Wir haben hier im Moment -21°C !!!

Alles Warmduscher... ;) ;D ;)
Als ich noch in Polen gewohnt habe war das im Winter die Durchschnittstemperatur. Also bitte nicht heulen. ;D

Gruß
Alex

Razor
2001-12-15, 10:22:07
@Piffan

Also wegen UT würd' ich mir nicht gerade 'ne gf3 holen...
(obwohl's natürlich mit Detailtexturen besser aussieht ;-)
Aber ein wenig flotter wird's auf jeden Fall (auch in MaxPayne mit MaxQuali).

Aber bist Du sicher, daß Du von einer gf2ultra auf 'ne gf3 umsteigen willst ?

Die gf2ultra wird ja auch schon 'ne stange Geld gekostet haben und der Geschwindigkeitsvorteil ist bei einer gf3 gegenüber der gf2ultra auch lange nicht so heftig, als daß sich das (z.Zt.) lohnen würde...
Klar, wenn man genug Geld rum liegen hat... aber die Frage nach dem Sinn sollte schon gestellt werden !
;-)

In diesem Sinne

Razor

Piffan
2001-12-15, 10:38:20
Originally posted by Razor
@Piffan

Also wegen UT würd' ich mir nicht gerade 'ne gf3 holen...
(obwohl's natürlich mit Detailtexturen besser aussieht ;-)
Aber ein wenig flotter wird's auf jeden Fall (auch in MaxPayne mit MaxQuali).

Aber bist Du sicher, daß Du von einer gf2ultra auf 'ne gf3 umsteigen willst ?

Die gf2ultra wird ja auch schon 'ne stange Geld gekostet haben und der Geschwindigkeitsvorteil ist bei einer gf3 gegenüber der gf2ultra auch lange nicht so heftig, als daß sich das (z.Zt.) lohnen würde...
Klar, wenn man genug Geld rum liegen hat... aber die Frage nach dem Sinn sollte schon gestellt werden !
;-)

In diesem Sinne

Razor

Der Sinn ist, daß ich ich beim Athlon XP mit der Ultra wieder am Ende der Fahnenstange bin. Beim 3dMark200 komme ich durch Reduktion der Auflösung sehr viel weiter, beim P3 @944 spielte Auflösung und Farbtiefe fast keine Rolle... Ich versprche mir mehr Bandbreite durch den neuartigen Memory- Controller und auch bessere Performance beim Antialiasing. Bei der Ultra ist das FSAA mit anisotrophem Filtering leider nur brauchbar bei älteren Gurken (da bringt es dann aber heftige Verbesserungen, z.B. bei Jedi oder Tomb), richtig wichtig wäre es mir aber bei F1RC (geht mit 1x2 so einigermaßen), NOLF oder Gothic.... Demnächst will ich mir auch einen 19er Moni zulegen, schaue sehr gern gerippte Videos ;-)(Nein, nein und nochmals nein, ich will keine Ati ;-))

Wenn dann noch Vivo dabei ist, kann ich auch meine Hi8- Bänder auf Cd bringen.....

Ich will Spaß, ich geb Gas.....

Razor
2001-12-15, 11:06:05
OK, Piffan...
FSAA und aniso ist ein Argument !
LMA ebenso...
;-)

DivX sowieso !
(vor allem auf 'nem 19-Zoller ;-)

Razor

mirp
2001-12-15, 11:35:40
Bei UT ist unter D3D 32 Bit schon wichtig. Unter GLide oder OpenGL mag das anders sein. Aber seht euch mal DOM-Sesmar unter D3D und 16 Bit an. Dort von Unterschieden zwischen 16 und 32 Bit zu sprechen wäre weit untertrieben.

Piffan
2001-12-15, 12:00:13
Originally posted by mirp
Bei UT ist unter D3D 32 Bit schon wichtig. Unter GLide oder OpenGL mag das anders sein. Aber seht euch mal DOM-Sesmar unter D3D und 16 Bit an. Dort von Unterschieden zwischen 16 und 32 Bit zu sprechen wäre weit untertrieben.

Gerade bei OpenGl sind 32bit Pflicht, sonst schwerste Z-Fehler. Geht schon im Intro los.....
Ist es eigentlich ein Nvidia-spezifisches Problem, oder sind die Z-Werte mit der Farbtiefe zwangsläufig verkoppelt? Ich meine, daß man eigentlich den Z- Wert ruhig hoch ansetzen sollte, auch bei reduzierter Farbtiefe.... Das eine hat mit dem anderen doch eigentlich gar nicht so viel zu tun?

Wenn das mal nicht wieder so schmutziger Trick ist, um unter 16 bit noch mehr Performance rauszuschlagen.... Pfui!

Birdman
2001-12-15, 12:34:55
Z iss an sich an die farbtiefe gekoppelt, aber imho iss es möglich bei 32bit farben mit 16bit Z zu fahren. Umgekehrt habe ich es aber noch bei keinem grakahersteller gesehen.

StefanV
2001-12-15, 14:23:39
Originally posted by Piffan
Ich möchte mal frech behaupten, daß es wohl Engines gibt, die auf 16bit so gestaltet sind, daß man nur in wenigsten Fällen beim Umschalten auf 32bit was sehen kann. Die Quake 2 kenne ich da als Beispiel. Die UT- Engine ist aber ursprünglich für Glide entwickelt worden: Die Texturen sind unter glide in 8bit (Palette, was immer das heißt, keine Ahnung). Dennoch sehen Unreal oder UT unter glide klasse aus.


DU meinst sicher 8bit Palettet Textures, richtig??

Es gab auch mal einige D3D Spiele, die das benutzt haben.
zB hat Final Fantay 7 das zwingend vorrausgesetzt (rate mal, welche Karten dieses Feature nicht konnten)

Es wird heute (leider) nicht mehr verwendet, da ein gewisser Hersteller keine Unterstützung in HW hat.

Ich persönlich halte 8bit Texturen bei manchen Spielen für sehr sinnvoll, da man so wertvolle Bandbreite sparen kann.

Quasar
2001-12-15, 14:31:13
...oooochh! Schade, dabei vermisse ich den Farbbrei aus grün, grau und braun, wie in Quake2, soooo doll!

Hab extra schon mal Q2 mit Quincunx und niedrigster Texturauflösung versucht...aber hat nix geholfen...

Razor
2001-12-15, 15:06:04
Ja genau, Quasar...
Was sind schon 16- oder 32-Bit Texturen ?
Wir wollen wieder in die Steinzeit und damit auch 8-Bit Texturen !
;-)

Oh mann, Stefan...
Langsam wird's dürftig !

Razor

aths
2001-12-15, 16:48:14
Piffan,

du schreibst: "Dagegen sieht es in 32bit superb aus." Nunja, ich sehe in D3D auch in 32 Bit in UT seltsame Beleuchtungsfehler, obwohl es mit Glide korrekt aussieht. Das war auch mein Grund, an einer Stelle zu behaupten, in UT sei Glide dem 32 Bit D3D überlegen.


Razor,

8-Bit-Texturen haben durchaus ihren Sinn. Gerade einer TNT(2), die ein Bandbreiten-Problem hatten, hätte das sehr gut getan. Offenbar geht auch die Unterstützung für DXTC zurück, nur weil nVidia DXT1 recht bescheiden implementiert hat. Man kann 8-Bit-Texturen als auch komprimierte Texturen (mit 8-Bit-CLUT) sehen. Texturen zu komprimieren (natürlich lieber mit S3TC oder FXT1) ist generell sinnvoll, da man bei vernachlässigbarem Qualitätsverlust gehörige Performance-Vorteile bekommt. Es kann halt nicht jeder 870 DM für eine GF3 ausgeben.

Übrigens finde ich deine Statements zur Textur-Qualität etwas gewagt, weil du sie gerne blurry hast - was inzwischen ebenfalls Steinzeit ist. (Bis Banhsee, ab Voodoo3 konnte man am LOD spielen.)

GloomY
2001-12-15, 17:17:25
Originally posted by Birdman
Z iss an sich an die farbtiefe gekoppelt, aber imho iss es möglich bei 32bit farben mit 16bit Z zu fahren. Umgekehrt habe ich es aber noch bei keinem grakahersteller gesehen.

Doch, die Kyro kann das.

24 Bit Z-Buffer (plus 8 Bit Stencil-Buffer) funktioniert auch in 16 Bit.

Piffan
2001-12-15, 17:17:55
Originally posted by aths
Piffan,

du schreibst: "Dagegen sieht es in 32bit superb aus." Nunja, ich sehe in D3D auch in 32 Bit in UT seltsame Beleuchtungsfehler, obwohl es mit Glide korrekt aussieht. Das war auch mein Grund, an einer Stelle zu behaupten, in UT sei Glide dem 32 Bit D3D überlegen.


Razor,

8-Bit-Texturen haben durchaus ihren Sinn. Gerade einer TNT(2), die ein Bandbreiten-Problem hatten, hätte das sehr gut getan. Offenbar geht auch die Unterstützung für DXTC zurück, nur weil nVidia DXT1 recht bescheiden implementiert hat. Man kann 8-Bit-Texturen als auch komprimierte Texturen (mit 8-Bit-CLUT) sehen. Texturen zu komprimieren (natürlich lieber mit S3TC oder FXT1) ist generell sinnvoll, da man bei vernachlässigbarem Qualitätsverlust gehörige Performance-Vorteile bekommt. Es kann halt nicht jeder 870 DM für eine GF3 ausgeben.

Übrigens finde ich deine Statements zur Textur-Qualität etwas gewagt, weil du sie gerne blurry hast - was inzwischen ebenfalls Steinzeit ist. (Bis Banhsee, ab Voodoo3 konnte man am LOD spielen.)

Mag sein, daß die Portierung von Glide nach dx immer noch Haken und Ösen hat, jedoch sehe ich nix negatives! Rune, Wot, Deus ex und Undying sind in meinen Augen auch makellos.
Noch mal zu den 8bit- Texturen: Die Vorteile sind unbestreitbar, anfangs war Ultima 9 deshalb nur auf Voodoos brauchbar zu zocken. Der optische Unterschied ist auch nicht ausschlaggebend. Die Leute, die sich den Mund zerreißen, haben offensichtlich noch nie ne Voodoo gehabt......
Diese alte Streiterei ist heute irrelevant, die neuen Grakas packen auch so die Texturen, auch in 32bit...

Was mir nur immer wieder zu denken gibt: Es ist möglich, mit geringer Farbtiefe top Optik zu erzielen, dennoch sehen manche Spiele zum Kotzen aus, wenn man 16bit Texturen spielt: Max Paine in halbdunklen Arealen, bei RTCW und Nolf unbeschreiblich häßlicher Himmel usw. Warum war bei Unreal der Himmel mit einer Voodoo 1 zehnmal besser als heutzutage bei RTCW?! Da hat man fast den Eindruck, daß da Absicht hinter steckt... daß die neuen Engines bewußt Ressourcen fressen ohne Ende. Irgendwie muß man ja auch die Bandbreite für Schnickschnack verbraten...

Nochmal ne Korrektur zu RTCW: Der erste Abschnitt in der Burg war grafisch nicht die Erleuchtung. So richtig schön ist es jetzt in den Katakomben. Leider ist die geniale Beleuchtung statisch, die einzige Dynamik kommt von den Fackeln (wabernde Lightmaps) oder von dem Mündungsfeuer der eigenen Knarre. Die Granaten produzieren außer pechschwarzem Rauch oder zwei drei Partikeln leider kein dynamisches Licht an den Wänden, schade..... Dennoch, so langsam kommt Freude auf! Die Atmosphäre von RCTW ist nicht von schlechten Eltern, will sagen ich scheiß mich fast ein vor Angst. ;-) So sollte ein Spiel sein! Wer weiß, vielleicht ist es ja sogar besser als Undying...

Razor
2001-12-15, 17:35:06
@Piffan

Nur ganz kurz:

- Unreal war auf damalige Verhältnisse optimiert (i.e. GLIDE 16-Bit)
- MP, RTCW und NOLF sind moderner und eben auf 32-Bit optimiert (i.e. D3D/OpenGL 32-Bit)

Auch die späten D3D-Umsetzungen von Rune, Wot, Deus ex und Undying sind folglich auf 32-Bit (i.e. BQ) optimiert...

16-Bit-Darstellungen sind schlicht 'veraltet', so einfach ist das !
;-)

Und bei RTCW kann ich Dir nur zustimmen.
Leider stellen die Katakomben-Level eine ziemliche Ausnahme dar...
Bin jetzt bei Mission 6 und damit wieder in Castle Wolfenstein.
(und damit leider auch kurz von dem finalen Level 7)
:-(

In diesem Sinne

Razor

TFA
2001-12-15, 17:36:58
Also das ist gar nicht net den ich habe Unreal Tournament auch auf meinem 266Mhz und voodoo 1 ind der Beruehmten aufloesung 640x480 gezockt und deshalb weiss ich wo von ich spreche .wenn dir hilf probier mal den S3TC(OpenGL Treiber) von Loki aus der holt einiges mehr raus aus 700Mhz .Die S3TC Texturen Sind nur Optional .

Auberdem moechte ich sagen das ich die Unreal Engine von ihrer geburt aus Spiele .


PS: AUF 700Mhz ist es auch net SO Intelligent Mega MAps Zu ZOCKEN !!

DO YOU UNDERSTAND!!

PSS: I HAVE RESPECT FROM ALL FORUM WRITERS SO LIVE IN PEACE!!

ALLRIGHT!!

Com1
2001-12-15, 17:51:30
Originally posted by Razor
@Com1

Wie kann es sein, daß einige Effekte von 32-Bit profitieren, wenn es doch so ist, wie Du sagst, daß es auf 16-Bit optimiert wurde ?
(oder muß ich Dir den Unterschied zwischen GLIDE und D3D erlaütern ?)
???

[/B]

Ich vergleiche hier auch gar nicht mit GLide. Das gibts nicht mehr.
Im Gegensatz zu D3D ist GLide nur auf 16 Bit ausgelegt, das ist ein großer Unterschied.

Unter D3D und OpenGL profitieren die Effekte klar von 32 Bit. Aber UT ist sicher so ziemlich das schlechteste Beispiel dafür *g*

Aber das mit dem schwarzen Rauch stimmt, der hat unter 16 Bit typsiche Artefakte (Rasterung...) Aber da muss man mit der Nase auch schon 1 cm vor dem Monitor sitzen um diese Unterschiede zu sehen ;)

Piffan
2001-12-15, 18:13:25
Originally posted by Com1


Ich vergleiche hier auch gar nicht mit GLide. Das gibts nicht mehr.
Im Gegensatz zu D3D ist GLide nur auf 16 Bit ausgelegt, das ist ein großer Unterschied.

Unter D3D und OpenGL profitieren die Effekte klar von 32 Bit. Aber UT ist sicher so ziemlich das schlechteste Beispiel dafür *g*

Aber das mit dem schwarzen Rauch stimmt, der hat unter 16 Bit typsiche Artefakte (Rasterung...) Aber da muss man mit der Nase auch schon 1 cm vor dem Monitor sitzen um diese Unterschiede zu sehen ;)

Nee, ich meine nicht die Rasterung(Dithering). Ich meine, daß die Poygone, die ja die Grundlage für den Rauch bilden, leider irgendwelche Alphafehler aufweisen. Man sieht die Polygon, was ja nicht sein darf, man sollte korrekterweise nur die Rauchtextur sehen! Hinter den Polygonen gibt krasse Fehlfarben, so sehen dunkle Bereiche hinter den Rauchfahnen manchmal pink aus...... Auch die Decals, welche die Schatten der Akteure darstellen, sind an Polygone gebunden, sieht man auch unter 16 bit....

Diese Alphafehler, also Transparenzfehler, gibts unter glide überhaupt nicht bzw. man muß bei direct3d zwingend 32bit wählen...

Ich habe immer mehr den Eindruck, daß hier keiner so recht folgen kann oder keine echten UT- Freaks hier sitzen. "Schmoll"

Leute, theoretisiert hier nicht nur rum, so von wegen damals gabs ja kein 32bit usw... probiert einfach mal aus. Also: Die hell/dunkel- Verläufe sind bei UT nur in 32bit erträglich, die Decals funktionieren nicht korrekt und bei schwarzem Rauch sieht man die Polygone, die in hoher Zahl die Rauchfahne erzeugen. Nun endlich gerafft wovon ich rede? ;-)

Com1
2001-12-15, 19:02:27
Originally posted by Piffan

Ich habe immer mehr den Eindruck, daß hier keiner so recht folgen kann oder keine echten UT- Freaks hier sitzen. "Schmoll"


Och... ;)

Es ist nur so das ich mit bisher nie Gedanken über sowas gemacht hab, hab mit GLide gezockt und gut wars ;)

Könntest mal Screenshots machen? Könnte man das da erkennen?

Kobold
2001-12-15, 19:03:43
Ich bin ein echter UT Freake

AlfredENeumann
2001-12-15, 21:05:43
Originally posted by Razor
@AlfredENeumannUnd mit 'stabil' meinst Du wohl hoffentlich nur die Win9x-Treiber...
Oder willst Du all denjenigen Lügen strafen, die was anderes fest stellten ?
(zumal sich ATI mit W32-Treibern noch nie sonderlich hervor getan hat)
;-)




Möchte ich. Mein System: Athlon XP1700+, ECS Elitegroup K7S5A, 512MB SDRAM, Radeon 8500LE, Rest uninteressant. WIN XP !!!!

Mein System Läuft absolut stabil. Ich konnte bisher keine Systemabstürze werder in 2D noch in 3D verzeichnen.

Basta.

Und bei den anderen im Forum mit XP und Radeon 8500 hab ich auch noch nix davon gelesen das da irgendwas instabil ist.

AlfredENeumann
2001-12-15, 21:07:40
Originally posted by Razor
@AlfredENeumann

Damals lief die gf3 noch mit gf2-Treibern, die lediglich ein paar Features mehr unterstützten...




Ja und ??
Also wurde die Karte noch nichtmal mit richtigen Treibern für die Karte ausgeliefert, sondern mit "Proforma-Treibern". Unglaublich.
Und dann wird Auf Beta-Treiber von ATI rumgehackt ?

Razor
2001-12-15, 21:21:32
@Com1

Sorry, dann haben wir uns mißverstanden...
:-(

@Piffan

Also ich muß ehrlich sagen, daß ich gar nicht wüßte, wann ich das letzte mal in 16-Bit gedaddelt habe...
(oder gar getestet - damit meine ich übrigens nicht nur ut ;-)

Werde ich mal bei UT mit 16-Bit versuchen... kann auch gut sein, daß dies damals der Fall gewesen ist (habe es erst vor so 2 Monaten wieder ausgegraben, als ich was nachprüfen wollte, was Laperlippe behauptet hatte - und er hatte recht ;-).
Hmmm... schaun' wir mal !

@AlfredENeumann

Das mit Deinem XP ist dann mehr, als nur merkwürdig...
Aber gut zu wissen, daß es auch Postiv-Meldungen gibt !
;-)

Auch wird hier nicht auf den Beta-Treibern von ATI rumgehackt, sondern auf den finalen... bei nVidia wurden sie weinigstens als Beta-Treiber gekennzeichnet (wohl aber von einigen Herstllern nicht ;-). Waren die 11.01, glaube ich...

Die übrigens sehr stabil, aber noch nicht auf dem Performance-Optimum liefen...
(Stereo-Support war auch erstmalig integriert, wenn auch nicht über die Treiber-Optionen)
;-)

In diesem Sinne

Razor

Piffan
2001-12-15, 21:38:08
Originally posted by Com1


Och... ;)

Es ist nur so das ich mit bisher nie Gedanken über sowas gemacht hab, hab mit GLide gezockt und gut wars ;)

Könntest mal Screenshots machen? Könnte man das da erkennen?

Na klar, aber ob ich das Attachment auf die Reihe bringen, werden wir gleich sehen.

Ich habe in der Map "Liandri" eine STelle gefunden, wo man einerseits die wirklich schlimme Texturqualität im Halbdunkeln sieht, andererseits auch das Prob mit dem schwarzen Rauch sichtbar ist.

Piffan
2001-12-15, 21:38:43
So, nun das ganze in 32bit

Razor
2001-12-15, 21:39:58
Jupp, sieht wirklich grausam aus, der 16-Bit-Shot !
(die 32-Bit-Darstellung hat einen Wiedererkennungswert)
;-)

Kan jetzt noch mal jemand 'nen GLIDE-Shot machen ?
???

Razor

Piffan
2001-12-15, 21:41:00
Der Unterschied ist ja wohl spektakulär! Wie gesagt, 32bit ist Pflicht. Sicher gibts noch stellen, wo man die Polygone und die Farbverschiebungen dahinter (hier sind sie grün), noch krasser sieht. Bei diesem Beispiel sieht man aber die lausigen Texturen so schön...

Bei weißem Rauch, etwa nach Abschuß von Raketen, ist da kein Prob...

Piffan
2001-12-15, 21:50:43
Originally posted by Razor
Jupp, sieht wirklich grausam aus, der 16-Bit-Shot !
(die 32-Bit-Darstellung hat einen Wiedererkennungswert)
;-)

Kan jetzt noch mal jemand 'nen GLIDE-Shot machen ?
???

Razor

Könnte ich auch, aber dat gildet nicht! Ich habe nämlich nur noch eine Voodoo2, da ist das Dithering bei 800x600 so potthäßlich......Als ich mit der SLI- Konfiguration zockte, da war das Dithering kaum zu sehen (oder ich war noch nicht verwöhnt ;-))

Vor allem: Bei der Addon- Voodoo bräuchte ich Hypersnap, und das habe ich irgendwo verlegt. Selbst bei der Voodoo3 ist ein Screen problematisch, weil der Shot noch vor dem Postfilter erfolgt.

Vielleicht geht das mit ner Voodoo5? Dann aber auch mit FSAA!


So vom Gefühl her liegt Glide verdammt nah an einer ordentlich 32bit- Qualität! Wie gesagt, meine Meinung zu den Farbtiefen der Texturen hab ich ja schon gesagt: Nix als Ressourcenschinderei. Da stecke die Iluminaten dahinter ;-)

Was die Präzision bei Transparenzen und mehren Überlagerungen betrifft, ist 32bit sicher wichtig. Aber warum müssen die Texturen so viel Farbtiefe aufweisen?!

Razor
2001-12-15, 21:54:44
Auch 'nen V2-Shot wäre interessant gewesen...
Und ja, die Iluminaten haben sicher Schuld !
;-)

In diesem Sinne

Razor

Legolas
2001-12-15, 22:31:03
Here we go

V5 mit 2xFSAA unter Glide.. ohne Postfilter, da mit UT Screenshotfunktion gemacht..

Piffan
2001-12-15, 22:38:16
Guter Schuß, aber leider etwas, äh, dunkel.

Darum noch mal ein Shot von der Voodoo2. Aber seid bitte milde, es ist ein Museumsstück. Das Dithering ist recht heftig, und die miese Auflösung kriegt durchs jpg noch den Rest.....

Dafür bin ich einer der wenigen, die tombraider 1 unter Dos in glide zocken können. Habs sogar vor einigen Wochen nochmal durchgedaddelt!

Xmas
2001-12-15, 22:42:41
Ziemlich dunkel ;)

Nun ja, deutlich besser als der 16-Bit Shot oben, aber an der Wand sind trotzdem noch erkennbare Flecken, die auch der Postfilter nicht mehr wegbügeln kann.

Piffan
2001-12-15, 22:43:18
Wie man unschwer sieht, ist der schwarze Rauch gehörig gedithert. Dafür gibts keine Alphafehler wie bei directx in 16 bit!

Wenn die Auflösung besser wäre, wurde sich Glide wie 32bit anfühlen, und das mit nur 8bit palettisized Textures (oder so, "g").

Die Skeptiker könne es ruhig glauben: Auch 8bittige Texturen sehen gut aus. Bei Ultima 9 sieht man den Unterschied nur im direkten Vergleich!

Übrigens: Die Shot sind normalerweise extrem duster. Darum habe ich in einem Photoprogramm (Iplus, war beim Scanner dabei,"g") ein wenig die Gammawerte korrigiert.....

Piffan
2001-12-15, 22:48:04
Originally posted by Xmas
Ziemlich dunkel ;)

Nun ja, deutlich besser als der 16-Bit Shot oben, aber an der Wand sind trotzdem noch erkennbare Flecken, die auch der Postfilter nicht mehr wegbügeln kann.

Nun werd mal nicht albern! Wenn der Gammawert stimmern würde, dann wäre da nix mit "Flecken" außer Blut und Ruß "fg"

Wie gesagt, der 16 bit Schuß kommt von einer GTS Ultra, bei einer Kyro sollte es auch da bestens ausschauen.

Nun muß man fairerweise einräumen, daß die Gammawerte bei NV recht knackig eingestellt sind und darum 16bit so mau rüberkommt. Wenn man die etwas weicher einstellt (REgler nach rechts), dann sind die dunklen Zonen nicht ganz so "schmutzig".
Ich habe mit meiner MX halt im Dunkeln die Wände nicht so genau angesehen......

Piffan
2001-12-15, 22:52:22
Originally posted by Xmas
Ziemlich dunkel ;)

Nun ja, deutlich besser als der 16-Bit Shot oben, aber an der Wand sind trotzdem noch erkennbare Flecken, die auch der Postfilter nicht mehr wegbügeln kann.

Unfug, würde ich mal sagen. Der Postfilter bügelt nur Dithering- Artefakte weg, die Flecke können nur vom Blut oder Ruß sein "g"

Nun sieht es unter 16 bit ja nur im Halbdunkel so mau aus. Durch geschickt gewählte Gammawerte im Spiel läßt sich die Optik immerhin ertragen unter 16 bit. Was aber bleibt, sind Z-Fehler in großen Maps und der unsägliche schwarze Rauch. Weißer Rauch sieht nicht schlechter aus als bei Quake 3 in 16 bit......

Piffan
2001-12-15, 22:53:33
Huch, ich dachte, daß ein Reply auf der Strecke geblieben war. Nun der gleiche Quark gleich zweimal.... Mahlzeit!

GloomY
2001-12-15, 22:58:28
Also im Gegensatz zu dem 16 Bit - Bild von Piffan sieht es bei mir in 16 Bit (auch Direct 3D) gar nicht so schlecht aus.

Ich denke, es liegt auch an der Karte und nicht nur an der verwendeten 3D-Schnittstelle.

GloomY
2001-12-15, 23:00:40
Hehe, Piffan war schneller als ich (mein Shot ist von ner Kyro)...

btw: zockt ihr etwa alle noch mit sichtbarer Waffe ?

Piffan
2001-12-15, 23:02:41
Originally posted by GloomY
Also im Gegensatz zu dem 16 Bit - Bild von Piffan sieht es bei mir in 16 Bit (auch Direct 3D) gar nicht so schlecht aus.

Ich denke, es liegt auch an der Karte und nicht nur an der verwendeten 3D-Schnittstelle.

Kann schon sein, vielleicht ist auch der Treiber schuld... denn die Gammawerte können da viel schaden oder kompensieren. ABer wie ist das mit dem Rocketlauncher, wenn du den zweiten Modus nimmst? Gibts da auch Bildfehler beim schwarzen Rauch?

Ich habe den Deto 12.41, die Ini von UT nicht verändert.....

Ich schaue nochmal nach, ob vielleicht das FSAA die Sache so zugespitzt hat... Habe die Shot mit 2fach FSAA und anisotrophem Filtering gemacht...

GloomY
2001-12-15, 23:05:49
Hehe, Piffan war schneller als ich (mein Shot ist von ner Kyro)...

btw: zockt ihr etwa alle noch mit sichtbarer Waffe ?

Piffan
2001-12-15, 23:12:56
Ich habe es jetzt nochmal ohne FSAA und mit optimierten Gammawerten probiert. Und zwar habe ich den Regler so nach rechts gezogen, daß der Desktop völlig verwaschen aussieht. DAfür ist in 3d dann die Optik erheblich besser.
Was man dafür umso deutlich sieht, ist das "Rauchartefakt".

@Gloomy: Wie sieht der schwarze Rauch aus mit der Kyro?

Legolas
2001-12-15, 23:16:23
Im Spiel selber sieht man nix von den Flecken, weils viel heller ist als auf dem Shot... ach ja.. mit ner V5 kann man TR auch unter dos in glide spielen :D:D

Piffan
2001-12-15, 23:22:52
Originally posted by Legolas
Im Spiel selber sieht man nix von den Flecken, weils viel heller ist als auf dem Shot... ach ja.. mit ner V5 kann man TR auch unter dos in glide spielen :D:D

Echt wahr? Ich dachte bis jetzt, daß Dosglide nur bis zur Voodoo 2 unterstützt wurde!

Übrigens: Die schieterigen Texturen meines ersten Shots kommen vom FSAA! Irgendwie klappt das FSAA nicht unter 16bit bei UT, in 32 bit sah es ganz ordentlich aus!

Aber was ist nun mit den Rauchartefakten?! Ein Problem meiner Karte oder eins der Engine?! "unruhig mit den Fingern auf dem Tisch trommel"

Nach los, Gloomy, wie sieht es mit der Kyro aus?

zaboron
2001-12-15, 23:28:14
ich weiss nich was ihr habt ...
ich spiel UT auf 800*600, niedrigste details, auch alles in den *.inis abgestellt, kein rauch und so, und die grafik find ich trotzdem akzeptabel - wenn ich geile grafik will, geh ich auf die Straße und seh mich dort um ;)
die fps wurden btw mit einem Athlon classic 600 MHz, 256 MB RAM @ 100 MHz, und 3DProphet 4500 erreicht ... also ganz ordentlich

Piffan
2001-12-15, 23:35:24
Originally posted by zaboron
ich weiss nich was ihr habt ...
ich spiel UT auf 800*600, niedrigste details, auch alles in den *.inis abgestellt, kein rauch und so, und die grafik find ich trotzdem akzeptabel - wenn ich geile grafik will, geh ich auf die Straße und seh mich dort um ;)
die fps wurden btw mit einem Athlon classic 600 MHz, 256 MB RAM @ 100 MHz, und 3DProphet 4500 erreicht ... also ganz ordentlich

Sieht irgendwie zweckmäßig aus. ;-)

zaboron
2001-12-15, 23:49:11
das soll es auch sein ;)
schöne grafik is in singleplayerspielen zwar ganz lustig, aber in UT bin ich hauptsächlich darauf bedacht meine fps möglichst hoch zu halten - bin mit meinen 90 avg online aber noch lange nicht zufrieden :(

Razor
2001-12-16, 00:05:00
Tja, ich hab' jetzt auch mal gesnappt (gf3)...

Wie immer mit JEPG90 in 1024x768.
Urteilt selbst !
;-)

Razor

Hier also erst einmal in 32-Bit...

Razor
2001-12-16, 00:05:45
Und jetzt in 16-Bit...
(sieht irgendwie heller aus, aber Einstellungen sind alle gleich)

Razor
2001-12-16, 00:10:25
Wurde übrigens beides mit Hypersnap gemacht...

Also ich finde 32-Bit irgendwie schöner !
;-)

Und so wie zaboron könnt ich nie spielen.
Auch finde ich, daß mein 16-Bit-Shot besser aussieht, als auf 'ner Kyro (Gloomys Shot).

Der V5-Shot ist irgendwie zu dunkel, was wahrscheinlich an dem Abstand zu Deckenlampe liegt. Legolas, kannst Du nicht mal 'nen bissel näher ran gehen und noch mal 'nen Shot machen ?
Büdde...

Bis denne

Razor

Xmas
2001-12-16, 00:11:49
Originally posted by Piffan
Nun werd mal nicht albern! Wenn der Gammawert stimmern würde, dann wäre da nix mit "Flecken" außer Blut und Ruß "fg"

Öhm, ich meinte den Shot von Legolas. Wenn ich meinen Monitor helldrehe (so dunkel kann man wohl kaum spielen), sehe ich an den Wänden deutliche einfarbige "Flecken", die in deinem 32 Bit-Shot nicht auftreten. Und auf Gloomys Shot sehen die Texturen gelinde gesagt auch lausig aus.

Xmas
2001-12-16, 00:17:04
Interessant wie gut die Detailtexturen das Ditheringmuster unterdrücken...;) aber am Rauch sieht man es dann doch gut.

Razor
2001-12-16, 00:24:41
Meinst Du meine Shot's, Xmas ?
Detailtexturen ?
Meinst Du die vom S3TC ?
Hmmm...

Also das hier ist UT-Standard in D3D !
(hab' aber auch die S3TC-Version auf der Platte, wüsste nur nicht, wie da 'nen Snap zu machen wäre)

Razor

Pengo
2001-12-16, 00:53:25
Originally posted by zaboron
ich weiss nich was ihr habt ...
ich spiel UT auf 800*600, niedrigste details, auch alles in den *.inis abgestellt, kein rauch und so, und die grafik find ich trotzdem akzeptabel - wenn ich geile grafik will, geh ich auf die Straße und seh mich dort um ;)
die fps wurden btw mit einem Athlon classic 600 MHz, 256 MB RAM @ 100 MHz, und 3DProphet 4500 erreicht ... also ganz ordentlich

Bei so einer Grafik würde ich auf das Spiel im Jahre 2001 verzichten, einfach schrecklich, schaut nicht nach 16 sondern nach 8 bit aus.

GloomY
2001-12-16, 01:04:03
So, also der Rauch sieht bei der Kyro normal aus:

GloomY
2001-12-16, 01:05:28
oder auch hier:

GloomY
2001-12-16, 01:07:39
Das einzige, was etwas stört, ist der Grünstich bei den Lichtmaps auf der Bodentextur.
Nur zur Erinnerung: alle Shots in 16 Bit

Legolas
2001-12-16, 01:20:38
Originally posted by Pengo


Bei so einer Grafik würde ich auf das Spiel im Jahre 2001 verzichten, einfach schrecklich, schaut nicht nach 16 sondern nach 8 bit aus.

Du solltest mal Q3 bei nem Profiquaker sehen...

Com1
2001-12-16, 01:24:43
Also jetzt mal wieder was zum Thema:

das ist irgendwas beim D3D faul.

Wenn ich unter D3D 1024x768x32 spielte, hab ich konstant um 40 fps und es stockt/laggt. Wenn ich dann im Fenster Spiele (800x600x32) hab ich plötzlich fast doppelt soviel fps! komisch!

Unter OpenGL 1024x768x32 saubere 60-80 fps ohne laggs.

aths
2001-12-16, 01:26:37
"Meinst Du meine Shot's, Xmas ?
Detailtexturen ?
Meinst Du die vom S3TC ?
Hmmm..."

Ach du grüne Neune, Razor, dir sagen Detail Textures in Unreal/UT nichts? In Max Payne gibts auch sowas feines...

Das sind Texturen, die über die anderen Texturen gelegt werden, da diese ja bei starker Vergrößerung keine Details mehr erkennen lassen. So legt man dann Detail Texturen rüber.

Übrigens meintest du sicher Shots und nicht Shot's, denn Mehrzahl wird ohne Apostroph gebildet. Sogar im Englischen.

aths
2001-12-16, 01:29:33
Xmas,

die von dir bemängelten Raster können auf jedem Fall vom 22-Bit-Filter weg gemacht werden. Bei UT sehe ich jedenfalls an einer Wand keine Rasterung, höchstens Color Banding. Der Shot wurde ja offenbar nicht mit Hypersnap (also SW Postfilter) gemacht.

Piffan
2001-12-16, 01:42:59
Originally posted by GloomY
Das einzige, was etwas stört, ist der Grünstich bei den Lichtmaps auf der Bodentextur.
Nur zur Erinnerung: alle Shots in 16 Bit

Der schwarze Rauch ist tadellos. Allerdings rechnet die Kyro intern immer mit 32 bit......

Wie schon gesagt, in 32bit ist das Phänomen verschwunden....

GloomY
2001-12-16, 01:49:35
Hmm, naja alle anderen Grakas rechnen intern auch mit (mindestens) 32 Bit Genauigkeit. Der Unterschied ist halt bloß, daß die anderen Grakas Zwischenbilder im Framebuffer ablegen (und damit auf 16 Bit runterrechnen mässen). Das macht die Kyro halt nicht. Und dort, wo mehrere transparente Effekte (z.B. Rauch zu sehen ist) merkt man halt, wie oft von 32 auf 16 Bit heruntergerechnet wurde.
Bei der Kyro geschieht das eben nur ein einziges Mal.

Piffan
2001-12-16, 01:53:01
Originally posted by Razor
Wurde übrigens beides mit Hypersnap gemacht...

Also ich finde 32-Bit irgendwie schöner !
;-)

Und so wie zaboron könnt ich nie spielen.
Auch finde ich, daß mein 16-Bit-Shot besser aussieht, als auf 'ner Kyro (Gloomys Shot).

Der V5-Shot ist irgendwie zu dunkel, was wahrscheinlich an dem Abstand zu Deckenlampe liegt. Legolas, kannst Du nicht mal 'nen bissel näher ran gehen und noch mal 'nen Shot machen ?
Büdde...

Bis denne

Razor

Nee, so anhand eines Shots kann man kaum die Optik erkennen. Da spielt doch schon eine Rolle, ob man den GAmmawert nachträglich ändert. Ich mußte das sogar machen, weil es bei mir genauso duster war wie bei Legolas.....

Ich habe damit nur angefangen, um die Artefakte beim schwarzen Rauch zu zeigen. Wie isses, Razor, kannste nicht noch mal nen Shot genauso machen wie ich: 16 bit und bitte schwarzen Rauch, also Rocketlauncher zweiter Modus.( Grenadelauncher)

Mich würde ja auch mal interessieren, warum mein erster Shot so bescheiden aussieht; es war im Gegensatz zu den folgenden Shots das 2fach FSAA aktiviert... Kann durch FSAA (Supersampling, was anderes kann die GTS ja nicht) die Textur so vor die Hunde gehen? Die Antwort ist ja klar, man sieht es ja, aber wundern darf man sich doch trotzdem, oder?

Übrigens: Snappen ist gar nicht nötig: Ein Druck auf F9 und es werden Bitmaps im Systemordner von UT abgelegt... Habe ich auch erst gesehen, also ich die Userini studiert habe... da stehen alle Tasten fein drin..

Piffan
2001-12-16, 02:05:34
Originally posted by aths
"Meinst Du meine Shot's, Xmas ?
Detailtexturen ?
Meinst Du die vom S3TC ?
Hmmm..."

Ach du grüne Neune, Razor, dir sagen Detail Textures in Unreal/UT nichts? In Max Payne gibts auch sowas feines...

Das sind Texturen, die über die anderen Texturen gelegt werden, da diese ja bei starker Vergrößerung keine Details mehr erkennen lassen. So legt man dann Detail Texturen rüber.



Ja, und bei NOLF gibts die auch, und wer weiß wo noch überall...Die bringen aber nur was, wenn man mit der Nase direkt die Wand berührt. Dadurch wird Rauhigkeit oder Holzmaserung recht gut imitiert.

Leider ist da ein Geforce angeschmiert. Der schafft ja nur zwei Texturen pro Durchgang, für die Detail Textures darf er dann noch mal ne Runde einlegen, mit Abspeichern und Auslesen und all son Kram, der Bandbreite und Performance kostet. WAs hat das elendig lange gedauert, bis ich bei Max Payne den Hemmschuh entdeckt habe. Bei den Byzanthine Powergames (oder so ähnlich) wurde mir die Sache dann zu zäh und ich hab sie abgeschaltet... Ich hoffe, daß die G3 da besser klarkommt, von wegen Loopback usw....

Es ist wirklich nicht ganz ohne Grundlage, daß der Kyro so viele Texturen kleben kann, ohne die Zwischenwerte abzulegen. Vielleicht ist achtfach leicht übertrieben, aber zweifach wie bei Geforce ist viel zu wenig...

Pengo
2001-12-16, 02:44:59
Originally posted by Legolas


Du solltest mal Q3 bei nem Profiquaker sehen...

Habe ich gesehen, und? Ich viel Spass beim Spielen haben, muß nicht immer gewinnen.

GloomY
2001-12-16, 03:03:41
Originally posted by Piffan

Es ist wirklich nicht ganz ohne Grundlage, daß der Kyro so viele Texturen kleben kann, ohne die Zwischenwerte abzulegen. Vielleicht ist achtfach leicht übertrieben, aber zweifach wie bei Geforce ist viel zu wenig...
Das achtfach kommt ja nur daher, daß die DirectX7-Spezifikationen nicht mehr als 8 Texturoperationen pro Pixel erlauben.
Theoretisch kann der Kyro eine beleibige Zahl an Texturen in einem Pass auftragen.

Mit DirectX9 sollen ja bis zu 16 Texturen erlaubt sein...

Kai
2001-12-16, 03:04:33
Originally posted by Piffan


Ja, und bei NOLF gibts die auch, und wer weiß wo noch überall...Die bringen aber nur was, wenn man mit der Nase direkt die Wand berührt. Dadurch wird Rauhigkeit oder Holzmaserung recht gut imitiert.

Leider ist da ein Geforce angeschmiert. Der schafft ja nur zwei Texturen pro Durchgang, für die Detail Textures darf er dann noch mal ne Runde einlegen, mit Abspeichern und Auslesen und all son Kram, der Bandbreite und Performance kostet. WAs hat das elendig lange gedauert, bis ich bei Max Payne den Hemmschuh entdeckt habe. Bei den Byzanthine Powergames (oder so ähnlich) wurde mir die Sache dann zu zäh und ich hab sie abgeschaltet... Ich hoffe, daß die G3 da besser klarkommt, von wegen Loopback usw....

Es ist wirklich nicht ganz ohne Grundlage, daß der Kyro so viele Texturen kleben kann, ohne die Zwischenwerte abzulegen. Vielleicht ist achtfach leicht übertrieben, aber zweifach wie bei Geforce ist viel zu wenig...

Also ich habe beim benchen mit und ohne Deteiltextures absolut keine Performanceverluste zu verbuchen. Als Beispiel habe ich mal Alice rangezogen, welches auch DetailTexturing unterstützt.

Übrigens - RTCW unterstützt es auch ... standardmässig ist es sogar aktiviert ... Nur die Detailtextures fehlen! Ne Frechheit IMO.

Xmas
2001-12-16, 04:32:50
Originally posted by aths
Xmas,

die von dir bemängelten Raster können auf jedem Fall vom 22-Bit-Filter weg gemacht werden. Bei UT sehe ich jedenfalls an einer Wand keine Rasterung, höchstens Color Banding. Der Shot wurde ja offenbar nicht mit Hypersnap (also SW Postfilter) gemacht.
Ich habe nicht das Raster bemängelt, sondern Flecken, also Color Banding. Und das ist auf den 16Bit Shots hier (mit Ausnahme des Shots von Razor, da Detailtexturen für Variation sorgen) sehr deutlich zu sehen. Sind bei 16Bit Farbtiefe in UT auch automatisch die Texturen 16bittig? Grauenvoll...

Originally posted by Gloomy
Das achtfach kommt ja nur daher, daß die DirectX7-Spezifikationen nicht mehr als 8 Texturoperationen pro Pixel erlauben.
Theoretisch kann der Kyro eine beleibige Zahl an Texturen in einem Pass auftragen.
Nein, kann er nicht. Denn dann wäre es unter OpenGL möglich. Der Chip bräuchte auch eine entsprechende Anzahl von TMU-Registersätzen, die natürlich nur begrenzt vorhanden sind.
Es wäre auch wenig sinnvoll, denn unverständlicherweise hat ausgerechnet der Chip mit den meisten möglichen Texturlagen die geringste Präzision - 32 Bit. Das ist bei acht Texturlagen völlig unzureichend! Wenn man dann noch die geringe Combiner-Flexibilität nimmt, wird klar dass die "8 Texturen pro Pass" nur fürs Marketing gut sind.

StefanV
2001-12-16, 04:54:03
Nicht zu vergessen die Füllrate von 350MPixeln/sec

Das TBR kann zwar eine Menge rausreißen, am ende ist es aber dennoch nicht viel.

zaboron
2001-12-16, 09:35:23
jo, ich hab auch ne kyro 2 und detail textures ziehen die performance schon ziemlich nach unten ... selbst bei 1.2 GHz Athlon hat UT mit detail textures noch leicht (~50 fps avg) geruckelt.
nun, ich hab sie eh ausgeschalten

Piffan
2001-12-16, 11:32:28
Originally posted by Kai


Also ich habe beim benchen mit und ohne Deteiltextures absolut keine Performanceverluste zu verbuchen. Als Beispiel habe ich mal Alice rangezogen, welches auch DetailTexturing unterstützt.

Übrigens - RTCW unterstützt es auch ... standardmässig ist es sogar aktiviert ... Nur die Detailtextures fehlen! Ne Frechheit IMO.

Jepp, bei Alice gibts bei mir auch keine Verlust. Probiers mal bei Max Payne!

Übrigens, wenn du eine G3 hast, ist es klar, daß Du nix merkst: Die beherrscht Loopback, dh. der Pixelwert kann mehrfach durch die TMU- Mühle geschickt werden, bevor er in den Speicher zurückuß. Bei mir schlagen die Detail Texures bei Max P. so heftig durch, weil der Geforce 2 ja nur zwei Texels pro Runde schafft, dann muß er wieder das Speicherinterface belasten. Wenn ich die Texturen auf 16 bit zurücksetze, hemmt Detail T. auch nicht mehr fühlbar.. Irgenwann ist halt schluß und die Bandbreite des Speichers wirkt sich aus..

Zwei Texturen sind arg wenig: Die Haupttextur und die Lightmap nehmen ja so schon die volle Kapazität in Anspruch, da ist für dynamische Lichter und Detail-Textures nur noch durch erneute Speicherzugriffe was zu machen; das zieht runter...

Genau da liegt das Geheimnis der UT- Engine: Weil die nämlich nur das rendert, was das Auge sieht (hinter Wänden ist da nix, wird softwareseitig bereits eliminiert), kann man mit den herrlichsten Lichtmaps protzen, die schönsten Decals in den Speicher laden usw., ohne daß die Graka schwächelt. Dafür skaliert die Optik grandios mit dem Prozi...

Legolas
2001-12-16, 13:13:47
Originally posted by Xmas

Ich habe nicht das Raster bemängelt, sondern Flecken, also Color Banding. Und das ist auf den 16Bit Shots hier (mit Ausnahme des Shots von Razor, da Detailtexturen für Variation sorgen) sehr deutlich zu sehen. Sind bei 16Bit Farbtiefe in UT auch automatisch die Texturen 16bittig? Grauenvoll...


UT hat, egal in welchem Modus, immer nur 8bit Texturen... wers nicht glaubt, sollte einfach mal mit Unreal ED ne Textur exportieren..

Razor
2001-12-16, 14:18:48
Sorry, daß ich mich erst so spät melde, aber wie das so ist...
;-)

Das mit den DetailTexturen hab' ich schlich in den falschen Hals bekommen, da es ja bei UT auch die hochauflösenden S3TC-Texturen unter OpenGL gibt. Klar, die InGame-DetailTexturen (D3D) sind antürlich aktiviert (wie auch bei allen andern Games, wenn verfügbar). Habe damals mit Laberlippe die UT-Optionen auf MaxQuality abgeklopft und diese dann natürlich in den RedneringOptionen auch aktiviert und selbstverständlich weiß ich, was es damit auf sich hat.

Wie dem auch sei, Piffans Vermutung bezüglich des schlechten Ditherings hat sich wohl bestätigt. Habe dann im Anschluß an diesen Post auch einen entsprechenden Shot angehängt. Dazu wäre dann auch zu sagen, daß es teilweise noch sehr viel schlechter aussieht, aber ich denke, daß man an den Shot trotzdem gut erkennen kann, was da schief läuft...

Ach ja, hab' auch noch mal kurz die Performance bei aktivierten DetailTexturen abgeklopft und subjektiv keinen Unterschied festgestellt. Für 'nen Bench hahtte ich leider zu wenig Zeit und muß auch glich wieder weg, um mich unserem Familien-Advent zu widmen (das wird wieder ein Spaß :-()...

Wie dem auch sei, bis heute abend !

Razor

Hier also der 16-Bit-Shot mit 'Granade-Launcher-Smoke':

P.S.: Schade eigentlich, das Forum möchte meinen JPEG nicht mehr...
(werde es also nachher nochal versuchen :-()

aths
2001-12-16, 14:37:27
Xmas, ich nehme doch mal sehr stark an, dass UT für Glide 16-Bit-Texturen verwendet. Anders kann ich mir das teilweise heftige (mich jedoch nicht großartig störende, hehe) Banding nicht erklären.

GloomY
2001-12-16, 15:13:41
Originally posted by Xmas
Nein, kann er nicht. Denn dann wäre es unter OpenGL möglich. Der Chip bräuchte auch eine entsprechende Anzahl von TMU-Registersätzen, die natürlich nur begrenzt vorhanden sind.

Das Argument mit OpenGL ist natürlich wahr...
Wie ist dasa mit den TMU-Registersätzen gemeint?
Aber zumindest sehe ich keine großen technischen Schwierigkeiten auch mehr als 8 Texturen pro Pass in das Renderkonzept der Kyro miteinzubauen.
Originally posted by Xmas
Es wäre auch wenig sinnvoll, denn unverständlicherweise hat ausgerechnet der Chip mit den meisten möglichen Texturlagen die geringste Präzision - 32 Bit. Das ist bei acht Texturlagen völlig unzureichend! Wenn man dann noch die geringe Combiner-Flexibilität nimmt, wird klar dass die "8 Texturen pro Pass" nur fürs Marketing gut sind.Du vergißt, daß es bereits zwei Demos (D3DHouse und D3DFur) von PowerVR gibt, in der jeweils acht Texturen pro Pixel aufgetragen werden. Und das sieht mal gar nicht so schlecht aus...

Natürlich wird so etwas nicht in Spielen verwendet, aber es ist trotzdem möglich (somit nicht nur Marketing) und sieht wirklich gut aus.

Legolas
2001-12-16, 15:58:51
Originally posted by aths
Xmas, ich nehme doch mal sehr stark an, dass UT für Glide 16-Bit-Texturen verwendet. Anders kann ich mir das teilweise heftige (mich jedoch nicht großartig störende, hehe) Banding nicht erklären.

Wie schonmal gesagt: Das Ausgangsmaterial ist nur 8bittig.. nix mit 16bit Texturen..

Xmas
2001-12-16, 20:22:41
Originally posted by GloomY

Das Argument mit OpenGL ist natürlich wahr...
Wie ist dasa mit den TMU-Registersätzen gemeint?
Aber zumindest sehe ich keine großen technischen Schwierigkeiten auch mehr als 8 Texturen pro Pass in das Renderkonzept der Kyro miteinzubauen.
Hm, TMU-Register ist bei der Architektur des Kyro wohl das falsche Wort.
Beim Rendern werden erst Dinge wie Filtermodus, Textur und Combiner-Funktion pro TMU eingestellt, dann werden die Dreiecksdaten an die Grafikkarte gesendet und entsprechend den vorher gemachten Einstellungen gerendert. Diese Einstellungen werden bei traditionellen Renderern in TMU-Registern gespeichert. Wenn ein solcher Renderer Loopback macht, dann müssen logischerweise mehr TMU-Registersätze als TMUs vorhanden sein, damit die Karte schnell zwischen den Einstellungen wechseln kann.
Beim Kyro ist das nun etwas anders. Hier wird ja nicht Dreieck für Dreieck, sondern Pixel für Pixel in einem Tile gerendert. Und da ja theoretisch jeder Pixel zu einem anderen Dreieck, mit anderen Textureinstellungen, gehören kann, müssen die Einstellungen pro Pixel gespeichert werden. Natürlich in einem schnellen OnChip-Buffer. Damit dieser Puffer nicht zu groß wird, hat man die Grenze bei acht Texturen pro Pixel gesetzt.
Das ist jetzt nicht ganz der Realität entsprechend, zeigt aber doch wo das Problem ist. Theoretisch ist es wirklich möglich, mehr als 8 Texturen pro Pass zu Rendern, nur ist eben irgendwann der Puffer voll. Ich bin mir sogar ziemlich sicher dass der Kyro intern mehr als 8 Texuren "pro Pass" macht, indem er nämlich mehrere Passes bzw transparente Polygone zusammenfasst. Es wird also jeder Pixel nur einmal gerendert.



Du vergißt, daß es bereits zwei Demos (D3DHouse und D3DFur) von PowerVR gibt, in der jeweils acht Texturen pro Pixel aufgetragen werden. Und das sieht mal gar nicht so schlecht aus...

Natürlich wird so etwas nicht in Spielen verwendet, aber es ist trotzdem möglich (somit nicht nur Marketing) und sieht wirklich gut aus.
Dass es von PowerVR solche Demos gibt, überzeugt mich nicht wirklich. Natürlich wurde da auch darauf geachtet, dass die geringe interne Präzision nicht zu sichtbar ist.


Legolas,
dann ist es aber erstaunlich, dass gerade auf den Kyro-Shots noch Color-Banding zu sehen ist. 8-Bit Texturen sind ja nicht generell schlechter als 16-Bit Texturen, nicht selten sind sie sogar besser (zumindest wenn nur 256 Farben zu sehen sind). Die S3TC-Texturen sind aber nicht 8-bittig ;)

Razor
2001-12-18, 04:56:51
So, das mit den Bildchen scheint wieder zu funzen...

Hier dann also ('etwas' verspätet ;-) der gf3-ut-16Bit-smoke-shot:

Piffan
2001-12-18, 12:06:04
Kein Artefakt. Dann liegts also nicht an der Engine, sondern am Treiber.
Wenn ich die G3 habe (morgen kommt sie, sie ist wieder verfügbar "freu und ungeduldig hüpf), dann muß ich eh den bewährten 12.41 in Rente schicken und ein neueres Release installieren. Denn erst die späteren bringen ordentlich Dampf.

Nun habe ich mein Abit Bx-Board mit 512 ram, P3@944 und die Geforce Ultra schon meinem Bruder versprochen. Darf ich dafür noch 500 Öcken nehmen oder ist das doch zuviel? Eigentlich macht er doch einen guten Schnitt, zumal er die Geforce zur Quadro hackt und beruflich für 3d-CAD nutzen will...

Piffan
2001-12-18, 13:39:30
Na sowas, jetzt habe ich zu Hause am besseren Monitor noch mal nachgesehen: So ganz ordentlich sieht es ja doch nicht nicht aus: Häßliches Dithering und doch Farbverfälschung hinter den Rauchpolygonen.... Dann isses wohl kein Treiberprob, sondern evtl. die fehlende Präzision der Graka...Komisch nur, daß es mit der alten Voodoo2 klappt....

Razor
2001-12-18, 17:53:20
@Piffan

Wunderte mich auch schon, warum da für Dich alles Ok aussah...
Hatte ja in meinem vorherigen Post geschrieben, daß es net so dolle aussieht...
Und das sogar noch eines der 'schönen' Beispiele ist, konnte aber wegen Zeitmagel keine weiteren Shot's machen.

Wie dem auch sei, die gf3 ist 'eh nicht sonderlich für 16-Bit 'geeignet' und glaube mir, Du wirst in Sachen Performance (selbst bei ut ;-) erstaunt sein !

Aber dieses Dithering ist wohl auf ALLEN Karten beim ut-D3D zu beobachten, außer natürlich bei der Kyro, aber die 'verhindert' ja regelrecht einen 'echten' 16-Bit-Modus...

Also, dann mal viel Spaß mit Deiner gf3 !

Bis denne

Razor

Legolas
2001-12-18, 18:19:46
Originally posted by Xmas

Legolas,
dann ist es aber erstaunlich, dass gerade auf den Kyro-Shots noch Color-Banding zu sehen ist. 8-Bit Texturen sind ja nicht generell schlechter als 16-Bit Texturen, nicht selten sind sie sogar besser (zumindest wenn nur 256 Farben zu sehen sind). Die S3TC-Texturen sind aber nicht 8-bittig ;)

Naja, die S3TC Texturen hab ich nicht gemeint :D:D. Zumindest hat ja jede Textur ihre eigene 8Bit Palette, was dann doch zu einer etwas höheren Farbenvielfalt führt... Nicht dass es dann so ausschaut wie bei Q1, wo insgesamt nur 256 Farben vorgesehen sind. Der Unterschied zw. 8 und 16 Bit Images ist auch nicht wirklich groß.. wenn man ein wirkliches 16 Bit Image hat, und dann z.b in Photoshop die Farbtiefe auf 8 Bit reduziert, dann sieht man (zumindest ich) kaum bis keinen Unterschied zum 16 Bit Image.