Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : [Geforce 8800GT] Probleme mit Colorbanding bei alten Spiele


Majestic
2007-12-23, 22:57:22
Hallo,

ich habe leider Probleme mit einigen älteren Spielen die nur mit 16Bit Farbtiefe arbeiten. Es gibt leider ein unschönes Colorbanding und teils auch Fehldarstellungen bei diesen Spielen. Die gleichen Spiele laufen auf einer GF6150SE (gleicher Treiber) aber ohne Probleme. Die Farbverläufe wiesen ein Dithering auf und sehen gut (für 16Bit) aus. Ich habe das ganze mit zwei Treibern getestet (169.02 und 169.21) und bei beiden identische Ergebnisse.
Gibt es eine Möglichkeit (Switch im Treiber) das zu ändern?

James Ryan
2007-12-24, 07:46:44
Das liegt daran, dass NVIDIA seit der Geforce 6 bei der 16 Bit Farbdarstellung was verschlechtert hat (frag mich nicht was ;) ), daher ist dein Problem normal.
ATi hat ähnliches mit der HD 2900 XT gemacht.

MfG :cool:

Majestic
2007-12-24, 13:09:20
Hmm meine Geforce 6 (6150se) macht das aber korrekt bei gleichem Treiber. Meine X1950GT und X1800XT haben das ebenfalls richtig dargestellt. Wenn die Geforce 8 damit ein HW Problem hat wäre das echt ziemlich traurig. Vielleicht kann das ja mal jemand mit ner HD38X0 oder HD2900 testen.

Hier ein Beispiel.....
Geforce 6150SE Forceware 169.21
http://mitglied.lycos.de/enterpriseforum/3dc/starlancer.jpg

Hier mal ein Bild der 8800GTS (sieht bei meiner GT genauso aus). Ausgeliehen von Schrotti aus diesem Thread (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=385625)....
http://www.abload.de/img/starlancer3x5.png

Schrotti
2007-12-26, 23:15:01
Ich habe noch keine Lösung für das Problem gefunden (bin angenervt deswegen).

DaBrain
2007-12-27, 01:29:36
Oh Sch*****!?!

Das sieht echt übel aus. Und jetzt habe ich mir schon eine 8800GT besorgt. :(

Kann die Karte nicht intern mit 32-Bit rechnen? Irgendwie muss man das doch umgehen können.

Sonst muss ich mir echt noch zwei Voodoo2 Karten besorgen um bessere Grafikqualität zu bekommen als mit meiner 8800. (Das klingt echt mal lächerlich...)

Schrotti
2007-12-27, 01:51:35
Ich habe ja zum Glück ein Zweitsys (potent genug für Starlancer) um Starlancer spielen zu können.

Aber es kann ja nicht angehen, das eine neue Graka, einen alten Standard nicht mehr vollständig unterstützt.

Majestic
2007-12-27, 07:32:49
Das schlimme ist das ich nun auch bei einigen älteren aber reinrassigen 32Bit Spielen schon solche Bandings gesehen habe. Vielleicht bin ich ja überempfindlich aber er stört schon das ein so neuer Chip das nicht besser hinbekommt.
@Schrotti
Ich habe auch schon gegoogelt und scheinbar ist wirklich ein Problem der GF8800 im allgemeinen.

http://www.nvnews.net/vbulletin/showpost.php?p=1204693&postcount=351

Wäre wirklich schön wenn ein ATI HD2900 oder HD38X0 User mal testen könnte wie das Dithering bei alten Spielen auf diesen Karte ist.

4 Vitamins
2007-12-27, 14:37:26
Wäre wirklich schön wenn ein ATI HD2900 oder HD38X0 User mal testen könnte wie das Dithering bei alten Spielen auf diesen Karte ist.

Bei starLancer gleiche shit wie bei nividia:

http://img299.imageshack.us/img299/6684/41711211ad9.th.jpg (http://img299.imageshack.us/my.php?image=41711211ad9.jpg)

Habe alle einstellungen im CCC durch, nix hilft.

gruss

Gast
2007-12-27, 14:50:03
Das schlimme ist das ich nun auch bei einigen älteren aber reinrassigen 32Bit Spielen schon solche Bandings gesehen habe.

Das ist eigentlich nicht möglich, da bei 32Bit nicht gedithert wird.

Majestic
2007-12-27, 16:00:57
Das ist eigentlich nicht möglich, da bei 32Bit nicht gedithert wird.

Woran auch immer das dann liegt. Bei "Star Trek: Bridge Commander" ist es mir z.b. an dunklen Flächen (wie den Uniformen) aufgefallen. Ich denke da hängt es mit den Lightmaps zusammen weil es je nach Blickwinkel etwas variert. Bei Star Trek:Voyager Elite Force ein ähnliches Szenario. Wenn ich Zeit habe werde ich mal ein paar Screenshots machen.

@4 Vitamins
Das ist echt mist. Damit wäre eine Alternativkarte raus...:frown: Danke fürs probieren.

P.S. Was hattest du für eine Karte? Eine HD2900 oder HD38x0 ?

4 Vitamins
2007-12-27, 16:21:38
P.S. Was hattest du für eine Karte? Eine HD2900 oder HD38x0 ?

HD3870 PoCo 862/1282

Schrotti
2007-12-28, 01:25:48
Würde mich echt mal interessieren, was nvidia dazu meint.

betasilie
2007-12-28, 02:01:40
Würde mich echt mal interessieren, was nvidia dazu meint.
Das ist denen sicher Latte. Wieviel Leute kratzt das schon.

Hart aber wahr.

Coda
2007-12-28, 03:32:59
Es kann auch sein, dass D3D10 sogar erfordert dass man aus Präzisionsgründen nicht dithert.

StefanV
2007-12-28, 03:52:30
Es kann auch sein, dass D3D10 sogar erfordert dass man aus Präzisionsgründen nicht dithert.
Hm, das kann durchaus sein, nur warum macht mans Dithering nicht von der API abhängig??
Oder zumindest von der benutzten Farbtiefe??

Bzw 'vergewaltigt' 16bit Content auf 32bit?

Coda
2007-12-28, 04:03:53
Das "korrekte" Ergebnis ist nunmal das ohne Dithering.

betasilie
2007-12-28, 04:27:40
Das "korrekte" Ergebnis ist nunmal das ohne Dithering.
Nöö. Die Entwickler haben die 16bit Spiele in Hinsicht auf Dithering gemacht. Und nur mit Dithering wird der Content "korrekt" dargestellt. ...Mathematische Theorie ist wohl völlig nebensächlich.

Majestic
2007-12-28, 14:11:30
Das ist denen sicher Latte. Wieviel Leute kratzt das schon.

Hart aber wahr.

Ja das befürchte ich auch. Man braucht nur mal im Nvidia-Forum (http://forums.nvidia.com/index.php?act=Search&CODE=show&searchid=eab2eb36c61c3e3157203d7be47ff8de&search_in=posts&result_type=topics&highlite=dithering) zu suchen. Die Probleme sind ja schon längere Zeit bekannt. Nicht nur das hier besprochene sondern die Unterstützung von alten Spielen im allgemeinen. Leider macht zumindenstens die ATI (HD3870) es beim Dithering auch nicht anders. :frown:

Schrotti
2007-12-28, 19:45:58
MS sollte WHQL entziehen.

Mal schauen, ob dann was passieren würde.

betasilie
2007-12-28, 19:53:35
MS sollte WHQL entziehen.

Mal schauen, ob dann was passieren würde.
Es könnte ebenso an MS selber liegen.

Coda
2007-12-28, 20:01:48
Nöö. Die Entwickler haben die 16bit Spiele in Hinsicht auf Dithering gemacht. Und nur mit Dithering wird der Content "korrekt" dargestellt. ...Mathematische Theorie ist wohl völlig nebensächlich.
Ist es eben nicht. Direct3D 10 ist da viel genauer bei der Spezifikation weil man die Werte evtl. für weitere Rechnungen möglichst exakt braucht. Das hat auch nichts mit "mathematischer Theorie" zu tun.

MS sollte WHQL entziehen.
Ironischerweise könnte genau im umgekehrten Fall exakt das passieren (s.o.).

Raff
2007-12-28, 20:09:13
Alte Spiele spielt man am besten mit einer alten Grafikkarte. Voodoo5 PCI neben das aktuelle Teil klatschen, 22 Bit und 4x RGSSAA anwerfen – beste BQ in alten Spielen.

MfG,
Raff

Schrotti
2007-12-28, 20:55:10
Die Lösung ist keine Lösung mit der ich leben kann.

Sollen nvidia/Microsoft eben nachbessern (Stichwort abwärts kompatibel).

betasilie
2007-12-28, 21:42:23
Ist es eben nicht. Direct3D 10 ist da viel genauer bei der Spezifikation weil man die Werte evtl. für weitere Rechnungen möglichst exakt braucht. Das hat auch nichts mit "mathematischer Theorie" zu tun.
Da kannst Du dich winden wie Du willst, die 16bit Spiele werden nicht korrekt dargestellt, und für sowas sollte man ein Fallback einbauen, weil es sonst zu Grafikfehlern kommt.

Majestic
2007-12-30, 16:42:39
Scheinbar läßt sich das Problem lösen. Zumindestens für zwei Spiele wurde eine Lösung (http://www.ttlg.com/forums/showthread.php?t=113501) gefunden (Thief und Systemshock2). Das macht zumindestens Hoffnung auf ne flächendeckende Lösung.

1238401
2007-12-31, 02:13:44
NVIDIA soll den Hintern hochbekommen und eine Lösung in den Treiber einbauen! Das ist doch wohl ein Witz! Ein absolutes Armutszeugnis.

Schrotti
2007-12-31, 04:09:36
Mir geht es eigentlich nur um Starlancer und Diablo 2.

Was bei D2 abläuft weiß ich auch nicht. Jedenfalls hatte ich vor dem Wechsel zur 8800er Reihe durchgängig konstante fps (über 250fps laut Ingameanzeige).

Seid der 8800GTS/8800GT wird es wirklich schlimm wenn viele Effekte dargestellt werden müssen. Die fps sinken dann auf 15-20 (es werden massiv frames ausgelassen).

Eingestellt habe ich D3D für Diablo 2 Lord of Destruction.

GLIDE3-to-OpenGL-Wrapper Version 1.4a (c) 2007 by Sven Labusch habe ich probiert aber dann bekomme ich überhaupt kein Bild mehr.

DaBrain
2008-02-24, 12:53:57
Hat jemand mitlerweile eine Lösung für das Problem gefunden?

Ich habe gerade mal wieder eine Runde StarLancer gespielt (wow... eigentlich ein geniales Spiel!), aber dass das Spiel so grausam aussieht, obwohl ich eine 8800GT habe sehe ich nicht ein.

Mit ist jeder Trick recht, selbst wenn er doppelt und dreifach soviel Performance frisst.

Razor
2008-02-24, 20:39:11
Hab' den zugehörigen Thread nicht zu Hand... aber es wurde festgestellt, dass da mehr die Displays ein Problem haben, denn die Treiber oder die Grafikkarten.

Fazit war AFAIK: auf CRT kein Colorbanding, auf (nonPVA-) TFT Colorbanding.
Da bleibt Dir als Alternative wohl nur ein neuer TFT oder eben eine gute alte Röhre...

Viele vergessen halt, dass sie damals noch analoge Displays nutzten.

Razor

P.S.: bei übler Programmierung hat damals das Umschalten des Displays auf 16Bit Farbtiefe geholfen...

mapel110
2008-02-24, 20:47:17
War da nicht mal was, dass auf 32bit Farbtiefe geforced wird, wenn man AA aktiviert? oder war das mal bei ATI?

DXtweaker mal probiert, ob damit was geht?
http://www.nonatainment.de/
Seite allerdings gerade down, aber das Tool gibts auch noch wo anders.
http://www.techpowerup.com/downloads/247/DXTweaker_2005.1.html

Razor
2008-02-24, 21:06:48
Eigentlich eine gute Idee... aber war der nicht nur für D3D8 und drüber?

Razor

Schrotti
2008-02-25, 17:42:58
Ich habe noch ne 17" Röhre hier und den mal eben angeschlossen.

Fazit: kein Unterschied zum TFT, es schaut scheiße aus!