PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Echte User-Erfahrungen zur 8800GT, Teil 2


seahawk
2007-12-21, 07:38:10
Nein, wenn man maximal 1024x768 nutzt, dann ist eine 8800GT völlig überdimensioniert.

Das ist relativ. Zum einen macht gerade bei diesne kleinen Auflösungen AA extrem viel Sinn, zum anderen ermöglicht so eine Karte in der Auflösung ein recht lange Haltedauer, bis man damit im unspielbaren Bereich ankommt.

Teil 1:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=388617&page=50

vinacis_vivids
2007-12-21, 08:47:35
Ich würde mal behaupten, dass Crysis in der Auflösung nicht sonderlich gut läuft.

-/\-CruNcher-/\-
2007-12-22, 08:54:07
So nun waren Bioshock und Crysis dran und was glaubt ihr was mir schon wieder aufgefallen ist, richtig wieder extremes Banding speziel in Licht und Volumetric Fog Screens folgen

jjensson
2007-12-22, 14:41:57
So nun waren Bioshock und Crysis dran und was glaubt ihr was mir schon wieder aufgefallen ist, richtig wieder extremes Banding speziel in Licht und Volumetric Fog Screens folgen

Mit welcher Karte denn? Ich vermute mal mit der 8800GT.
Kann es sein, dass dein Monitor Banding produziert? Hast du einen Gamer-TFT?

Tip: Ein Hardwareprofil in die Signatur, und diese Fragen wären unnötig.

Cheers,
jj

-/\-CruNcher-/\-
2007-12-23, 07:30:45
So hier nun die Crysis (DX9 High) und Bioshock (DX9) Screens :)

Bei Crysis wurde es richtig laut also es kommt locker an Atitool ran was Auslastung angeht und das im Dauerzustand. Bioshock verhielt sich da so dynamisch wie andere Titel mal etwas Lauter mal wieder flüsterleise aber nie so extreme wie Crysis. Wie schon bei Prey ist auch bei diesen beiden Games Banding in sehr feinen Farbabstufungen sichtbar vor allem Volumetric Fog und Lichtquellen.

Crysis

http://s4.directupload.net/images/071223/olaqvgkh.png [Banding]
http://s2.directupload.net/images/071223/t5g22qh7.png
http://s1.directupload.net/images/071223/feaptooe.png [Banding]
http://s3.directupload.net/images/071223/9vpiwvsv.png [Banding]
http://s2.directupload.net/images/071223/ab83h33j.png
http://s5.directupload.net/images/071223/7rroxbgc.png
http://s3.directupload.net/images/071223/edobw3cg.png
http://s2.directupload.net/images/071223/iflvzej9.png
http://s6.directupload.net/images/071223/ar39utgm.png
http://s4.directupload.net/images/071223/sibydsbl.png
http://s6.directupload.net/images/071223/whcb2tbj.png
http://s5.directupload.net/images/071223/48xdwkks.png
http://s4.directupload.net/images/071223/8on9a6xr.png
http://s2.directupload.net/images/071223/5rd4lqht.png
http://s3.directupload.net/images/071223/mkuoq6d6.png
http://s3.directupload.net/images/071223/4vz5domj.png
http://s2.directupload.net/images/071223/jw6lxxuh.png

Bioshock

http://s3.directupload.net/images/071223/8p48a9s9.png [Banding]
http://s4.directupload.net/images/071223/2su7xrpz.png
http://s3.directupload.net/images/071223/4lzrs7ye.png [Banding]
http://s6.directupload.net/images/071223/sjh6nyvh.png
http://s6.directupload.net/images/071223/ebt2tiwh.png
http://s4.directupload.net/images/071223/7wmfgxte.png
http://s5.directupload.net/images/071223/toyf29rm.png
http://s5.directupload.net/images/071223/zzj9pcnz.png
http://s2.directupload.net/images/071223/e536pydd.png [Banding]
http://s6.directupload.net/images/071223/vqi3wifj.png [Banding]
http://s5.directupload.net/images/071223/quwjz7bx.png
http://s1.directupload.net/images/071223/lmyobmke.png
http://s1.directupload.net/images/071223/j5zcqj4c.png
http://s3.directupload.net/images/071223/glbvypxr.png
http://s5.directupload.net/images/071223/st45dei9.png
http://s3.directupload.net/images/071223/go6yyetn.png
http://s5.directupload.net/images/071223/5lxrh84m.png
http://s3.directupload.net/images/071223/wf3pnrb3.png
http://s1.directupload.net/images/071223/6mqek89g.png [Banding]
http://s1.directupload.net/images/071223/lk9m3wdy.png [Banding]
http://s6.directupload.net/images/071223/y2d4feyn.png
http://s3.directupload.net/images/071223/9bfi79lj.png

@jjensson
LG 22 Zoll TN Display 8Bit mit f-Engine http://de.lge.com/products/model/detail/businessundoffice_l226wtqsf.jhtml

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6099255&postcount=873
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6099466&postcount=875

-/\-CruNcher-/\-
2007-12-23, 07:45:46
Siehe oben

Gast
2007-12-23, 09:46:03
Gibbet das Banding nur bei der 8800GT oder haben das alle gemein.

RoNsOn Xs
2007-12-23, 15:27:03
sorry aber was ist banding?

Majestic
2007-12-23, 15:38:23
sorry aber was ist banding?

http://en.wikipedia.org/wiki/Colour_banding
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=18132

jjensson
2007-12-23, 15:53:16
So hier nun die Crysis (DX9 High) und Bioshock (DX9) Screens :)

Bei Crysis ist das nur die Skybox-Textur, denke ich. Aber Bioshock zeigt echtes Banding (Nebel)... :frown:
jj

Majestic
2007-12-23, 16:20:25
Gibt es gerade bei älteren Spielen (16Bit) eine Möglichkeit das Banding zu unterdrücken? Seit ich wieder ne Geforce habe tritt das leider verstärkt bei älteren Gamers auf.

RoNsOn Xs
2007-12-23, 17:59:56
http://en.wikipedia.org/wiki/Colour_banding
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=18132

und wo sieht man da auf den screens jetzt banding? kann keines erkennen.

Gast
2007-12-23, 19:17:51
und wo sieht man da auf den screens jetzt banding? kann keines erkennen.

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=385625

RoNsOn Xs
2007-12-23, 19:44:03
jo aber auch erst dort

Majestic
2007-12-23, 19:58:39
jo aber auch erst dort

Hier mal das Bild vom Wikipedia Link... Das ist das Problem bei 16Bit Farbtiefe. Bei
einer 8800 hast du das Banding z.b. bei Starlancer. Mit einer älteren Geforce oder Radeon wird auch noch ein Dithering gamacht damit es keine "harten" Übergänge gibt. Hab das gerade nochmal mit meiner GF6150SE getestet (gleicher Treiber)und dort sieht das OK aus.

http://upload.wikimedia.org/wikipedia/en/thumb/9/9a/Colour_banding_example01.png/180px-Colour_banding_example01.png

Razor
2007-12-23, 20:16:55
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=385625
Da kam die Empfehlung, den Desktop mal auf 16Bit einzustellen... wie eben die Farbtiefe der problembehafteten Engine.
Und was kam als Antwort vom TI?
"Isch habsch doch scho 32Bitta druff..."

Und der Thread war zuende...
:uclap:

Razor

Gast
2007-12-23, 20:51:53
Da kam die Empfehlung, den Desktop mal auf 16Bit einzustellen... wie eben die Farbtiefe der problembehafteten Engine.
Und was kam als Antwort vom TI?
"Isch habsch doch scho 32Bitta druff..."

Und der Thread war zuende...
:uclap:

Razor

Hasch disch aber richtig amüsiert, was? Wie wäre es denn wenn du uns einfach an deinem fundierten Wissen teilhaben läßt anstatt rum zu blödeln?!

-/\-CruNcher-/\-
2007-12-23, 21:51:26
Wenn ich das richtige sehe beschwert sich kein AMD/ATI HD3850/3870 User bis jetzt über sowas, also vermute ich mal das AMD/ATI einen Post Processor ditherer im Catalyst einsetzen der das verhindert oder der RV670 das intern schon so macht, wieso Nvidia auf dieses Feature beim G92 und wie ich hier lesen muss auch beim G80 verzichten konnte ist mir ein Rätsel (Geschwindigkeitsgründe können es nicht sein, ein Post Processing Filter als Shader implementiert würde nicht viel Leistung des G92 in anspruch nehmen, natürlich steht es auch jedem Engine Programmierer frei das selbst in der Engine als Option zu implementieren). Aber wie immer weist da kein "Professioneles" Review drauf hin, das solche IQ Probleme überhaupt existieren.

Bei Crysis ist das nur die Skybox-Textur, denke ich. Aber Bioshock zeigt echtes Banding (Nebel)... :frown:
jj


http://s4.directupload.net/images/071223/olaqvgkh.png <- schau mal dort in die Wolke was erkennt man? Banding, ich hab auch noch nicht weitergespielt gibt bestimmt noch mehr Szenen in denen das zu tragen kommt. In wie weit das jeden einzelnen stört ist eine andere Frage aber dieses IQ Problem ist definitiv beim G92 momentan vorhanden, bis jetzt stört es nicht sehr in Crysis bei Prey und Bioshock sieht das schon anders aus meiner Meinung nach. Als nächstes nehm ich mir mal Cod4 unter die Lupe, dort soll es ja auch sehr heavy im Gebrauch von Nebel und Shader effekten im Allgemeinen zugehen (b.z.w ich sitz schon dran) :)

Coda
2007-12-23, 21:57:31
Wenn ich das richtige sehe beschwert sich kein AMD/ATI HD3850/3870 User bis jetzt über sowas, also vermute ich mal das AMD/ATI einen Post Processor ditherer im Catalyst einsetzen der das verhindert
Ganz sicher nicht.

oder der RV670 das intern schon so macht, wieso Nvidia auf dieses Feature beim G92 und wie ich hier lesen muss auch beim G80 verzichten konnte ist mir ein Rätsel. Aber wie immer weist da kein "Professioneles" Review drauf hin.
Machen sie auch nicht. Du kannst den Screen 100% genau so auch auf einem RV670 nachstellen.

Das einzige was da helfen würde wäre ein 30-Bit-Rendertarget anzufordern, das muss aber die Engine explizit machen.

-/\-CruNcher-/\-
2007-12-24, 05:14:28
@Coda
Hmm da bin ich gespannt auf die RV670 resultate, bin mir aber ziemlich sicher das ein 30bit Rendertarget nicht das einzigste ist was da helfen kann.

Beim Overclocking ist mir aufgefallen das der G92 thermisch gesehen bei seinen Standardtaktraten (600/1500/900) im AVG Yield anscheinend bis 95°C absolut stabil läuft alles was drüber ist verschiebt sich dann, bei mir war ja das Original 95°C Bios von MSI auf der MSI OC nicht dauerstabil (660/1650/950) mit dem neuen Bios und 85°C ist sie es selbst leicht übertaktet sprich (675/1750/975), allerdings erkauft man sich das dann mit einem Anstieg der Lautstärke mit dem Stock Cooler, bessonders wie gesagt bei niedrigem Air Flow im Case, allerdings macht das dann auch nicht mehr so einen großen unterschied bei Crysis ob man 70-75% oder 80-85% lautstärke ertragen muss ;) und bei weniger grafisch anspruchsvollen Games (wobei Cod4 Engine ist ja mal nicht schlecht her specht) (Bioshock,Prey,Cod4) bleibt sie troztdem noch sehr leise 30-40%.

PS: Die Cod4 Engine ist doch sicherlich nicht nur diese Executable? da werden doch sicher nocht Libraries aus den IWD dateien geladen?
Die Homage an S.T.A.L.K.E.R mit dem One Shoot one Kill Level ist ja mal bombig gelungen :D Ein besinliches Fest wünsch ich allen noch :)

Coda
2007-12-24, 13:51:39
@Coda
Hmm da bin ich gespannt auf die RV670 resultate, bin mir aber ziemlich sicher das ein 30bit Rendertarget nicht das einzigste ist was da helfen kann.
Doch ist es. Da fehlt eindeutig Präzision an einer Stelle, und da D3D10 da strenge Richtlinien hat die in den WHQL-Tests auch überprüft werden kann es da keine großen Unterschiede mehr geben bei D3D10-GPUs.

wolf-Cottbus
2007-12-25, 11:34:45
Morgen und schöne Feiertage an Alle. Ich bin von diesen nvlddmkm Problem betroffen. http://www.computerbase.de/forum/showthread.php?t=265367
Tritt das auch mit den G92 unter D3D10 auf? den mit meiner GTX kann ich unter Vista und DX10 zB kein CoH:OF spielen. Der Treiber semmelt in jeder Mission ab und nichts hilft bisher. Entweder XP oder eine ATI Karte oder gibt es noch andere Alternativen?

Gruß Wolf

Gast
2007-12-28, 13:20:24
neue NVIDIA BIOS Editor (NiBiTor) v3.7
Fan Speed IC (Fan Speed Code non Merlin wurde realisiert)


http://www.mvktech.net/component/option,com_remository/Itemid,0/func,download/filecatid,2385/chk,e1daca672cd0b92353528dc992faccc5/

Picknatari
2007-12-29, 14:59:28
Das Banding kann ich bei meiner 8800GT bestätigen (Herr der Ringe Online u.a.) und wollte es erst aber auf meinen EIZO 2031W schieben. Aber der EIZO Monitor Test zeigt beim Banding Testbild eben kein Banding, komisch??

Gast
2007-12-29, 17:22:06
ATI: bis zu RGB10A2 Backbuffer möglich (= 10bit pro Frabe)
nVIDIA: nur RGBA8 Backbuffer möglich (= 8bit pro Farbe)
Jedenfalls soweit mir bekannt (2900XT + 8800GTX vorhanden) bietet nVidia kein 10bit Backbuffer-Format an.
(Nicht mit einem Zwischen-Rendertarget verwechseln (das dann als Textur noch in den Backbuffer gerendert werden muß - diese können bei allen DX10 Grakas 16bit Fließkommabreite haben), gemeint ist der Speicherbereich, der das gerenderte Bild für den Output bereit hält, der kann nämlich noch nicht als Fließkomma-Speicher angelegt werden)
--> Banding bei nVidia theortetisch schneller sichtbar...
...falls Spiele wie Crysis dieses Format nutzen bietet ATI hier noch einen "echten" Vorteil...
...der z.B. auf DVI-Flatpanels wieder verfällt da diese die höhere Farbtiefe garnicht können (digital max. 8bit pro Kanal, nur mit Dual-Link 10...)

...

Cleric
2007-12-29, 20:14:24
Es ist leider ziemlich schade das bei angeblich gleichen/ähnlichen Einstellungen einige Tests doch sehr aus dem Rahmen fallen. Aber inzwischen kann man das ja "Filtern" ;)

Coda
2007-12-29, 20:17:59
ATI: bis zu RGB10A2 Backbuffer möglich (= 10bit pro Frabe)
nVIDIA: nur RGBA8 Backbuffer möglich (= 8bit pro Farbe)
Falsch. G8x/G9x unterstützten R10G10B10A2. Das ist eine Grundvorraussetzung für jede D3D10-GPU. Es ist auch unter Direct3D 9 verfügbar.

Gast
2007-12-29, 20:54:57
Falsch. G8x/G9x unterstützten R10B10G10A2. Das ist eine Grundvorraussetzung für jede D3D10-GPU. Es ist auch unter Direct3D 9 verfügbar.

Leider nicht?!
Als reines Texturformat geht´s ja auch - inklusive Rendertarget - problemlos, standard, normal...
Aber da nimmt man lieber gleich A16B16G16R16F ("64bit floating point)^^
Der BACKBUFFER im Vollbildmodus macht den Unterschied.

Und mit Direct3D9-API:
Es läßt sich zumindest auf meiner 8800 GTX kein 10bit-Vollbildmodus enumerieren (per GetAdapterModeCount() -> DisplayModesCount() -> EnumAdapterModes() für das jeweilige Farbformat) - und auch nicht aktivieren!
Bei der ATI 2900XT geht das problemlos!

Nachvollziehbar auf Anwendungs-Ebene ist dies mit der Software "screenAV" (www.screenAV.de) welches aber 'nur' per DirectX9 rendert. Dort gibts unter ["Global-settings" -> "Screen" -> "Device" -> "Buffer formats" -> "Backbuffer"] eine Liste mit allen verfügbaren Vollbild-Farbformaten - und bei nVidia geht eben kein 10bit!
Unter DX10 hab ich noch nichts selbst getestet, könnte also sein da geht´s; aber warum sollte es unter DX9 künstlich weggelassen worden sein?

Ob es wirklich an der Hardware liegt oder an den bisherigen NV Treibern vermag ich aber auch nicht zu sagen, würde mich ja freuen wenn´s demnächst dann geht :-)
Evtl. ist hier einer der Punkte für DX10.1 - wo nVidia noch nachholen muß?
Erwartet hatte ich das selbst nicht so und will mich gern korrigieren lassen...

Den Unterschied zu merken wird eh schwierig - falsch eingestellte Displays "bauen" ganz schnell ihr eigenes Banding, da hilft dann der perfekte Farbmix im Backbuffer eh nix...

-/\-CruNcher-/\-
2007-12-30, 08:22:23
So ich hab mich von den Spieletests so langsam verabschiedet (genug eindrücke) und begebe mich nun in das Feld Video Playback (High Definition Acceleration Capabilities, Interoperability and Quality of PureVideo) wurde auch schon von Nvidias neuem treiber mit einem Bluescreen in nv4_disp.sys herzlich empfangen (WinXP PowerDVD 7.3 versuch WMV 720p beschleunigt abzuspielen), allerdings war das mit der 169.28 beta nichts desto trotz erwarte ich selbst mit den WHQL 169.21 böse Überaschungen besonders bei DVB-S2 ;)

Razor
2007-12-30, 09:58:50
So ich hab mich von den Spieletests so langsam verabschiedet (genug eindrücke) und begebe mich nun in das Feld Video Playback (High Definition Acceleration Capabilities, Interoperability and Quality of PureVideo) wurde auch schon von Nvidias neuem treiber mit einem Bluescreen in nv4_disp.sys herzlich empfangen (WinXP PowerDVD 7.3 versuch WMV 720p beschleunigt abzuspielen), allerdings war das mit der 169.28 beta nichts desto trotz erwarte ich selbst mit den WHQL 169.21 böse Überaschungen besonders bei DVB-S2 ;)
Keine 'Panik'... läuft alles so, wie es soll.
Einen Bluescreen hatte ich unter WinXP schon seit jahren nicht mehr... und Videos werden hier viele abgespielt.
(ja, auch WMV-HD mit 720p bzw. 1080i, oder H.264 1080p oder, oder, oder... ;-)

Razor

P.S.: Von den 169.2x nehme ich im übrigen generell Abstand...

-/\-CruNcher-/\-
2007-12-30, 11:38:11
Naja es läuft nicht alles so wie es soll hier allerdings ist es schwer zusagen wo die ganzen probleme herkommen es gibt viele Probleme z.b mit Matroska, PowerDVD (filter) und X264 ich hab auch Vermutungen woher die rühren aber ich werd mich sicher nicht dran machen das zu debugen, weil das einfach zu zeit aufwendig ist und ich dafür nicht bezahlt werde.
Wir leben nun mal in einem absoluten Interoperabilitätsdisaster momentan und ich kann garantieren das der ganze content der so im Netz herumschwirt alles andere als wie Problemlos laufen wird mit Hardware Accelleration unter Windows XP es ist aber schwer zusagen ob einige dieser sachen durch Nvidias Purevideo API verursacht werden die im Cyberlink Decoder über den Forceware Treiber und VMR9 zum Einsatz kommt. Es gibt standards die eingehalten werden müssen und einige Firmen scheinen ihre eigenen Vorstellungen von Restriktionen diesbezüglich zu haben, da kann es danns schonmal vorkommen das man nen Matroska H.264 sehen will und sieht nen schwarzen Bildschirm. Im Software mode wird es immer funktionieren aber bei Hardware gibt es mächtig Probleme die ich selbst mit PureVideo erlebt habe und aus vielen Foren kenne viele Bitstreams werden falsch decoded obwohl sie standard compliant sein sollten und im Software Mode herlich funktionieren (da stocked das bild dann plötzlich für einige sekunden und die framerate kracht ein oder läuft konstant anstelle mit 25 fps mit 22 fps :D) das ist nicht mehr feierlich war jedenfalls mit meiner 7600 GS VP1 ohne Cabac der fall und scheint sich mit der 8800 GT und VP2 fortzusetzen, aber ich hab auch von einem Mitarbeiter eines angesehenen Video Codec Developer gehört das Nvidia und ATI beide dort Probleme haben und ihre Hardware dort DSPs wie von Brooktre und Co noch nicht das Wasser reichen können was Interoperabilität und Error Resistance angeht, von daher wird man solche Probleme wohl auf dem Desktop in Kauf nehmen müssen da sie höchstwahrscheinlich mit Software Updates nicht behoben werden können und erst in einer neuen Generation von VP3 und UVD2 da Besserung zu erwarten ist, fairerweise sollte gesagt werden das full complaint HD-DVD und Blu-Ray H264 bitstreams eigentlich überhaupt keine Probleme machen (und das wahr ja auch das Ziel dieser Decoder Cores) nur ist es für Otto normal fast unmöglich solche Streams kostenlos zu mastern (einzige ausweich möglichkeit AVCHD) b.z.w erfordert ein riesen know how und somit wird man sich weiterhin mit schwarzen Screens und falschen Framerates rumärgern müssen oder auf Software Decoding umschalten, und solche Probleme drückt die Leute auch immer weiter hin zu Microsofts Windows Media Video Standard der im Vergleich nicht besser ist (eher schlechter) aber sehr wenig bis gar keine Interoperabilitätsprobleme zeigte bis heute (was aber auch nicht verwunderlich ist der Decoder kommt mit Windows und ist voll Hardware Decoding Optimiert und das erste wo Nvidia bugs behebt im Forceware ist bei Accelleration Problemen mit VC-1 und Microsofts Decoder, der Absturz von vorhin scheint auch eher vom Cyberlink VC-1 Decoder zu kommen mit Microsofts Decoder Bluescreened nv4_disp.sys nicht bei dem File) ;).

Razor
2007-12-30, 19:12:19
Schöner langer Text... aber leider nicht sehr inhaltsreich.

Standards funktionieren... sogar sehr gut, wenn ich das richtig verstanden habe.
(DVD, HD DVD, BlueRay und auch generische H.264 Formate)

Rest muss halt über Software laufen, wie dies bei irgendwelchen Wald- und Wiesen-Codec-Formaten wie z.Bsp. Matroska bei allen Grafiklösungen der Fall ist (übrigens auch bei professionellen VPs ;-).

Warum also kannst Du nicht einfach schreiben:
- Video-Beschleunigung funkt wie erwartet
- 'schwierige' Formate genauso wenig, wie bei AMD

Das wäre für Dich auch nicht zu nVidia freundlich ausgedrückt, hätte aber eine menge Text 'gespart'.
;)

Razor

Gast
2007-12-30, 20:08:10
Ähm... sitzte grad an nem P3 mit GF2 und vor allem nem CRT-Bildschirm und kann hier http://s4.directupload.net/images/071223/olaqvgkh.png auf crunchers Screenshot echt kein Banding erkennen. Glaube aber, dass das auf meinem Rechner zuhause am TFT wieder ganz anders aussehen würde... die TN-Panels neigen doch zu eher schlechten Farbübergängen. Kann das also nicht eher am Bildschirm statt der Graka liegen?

Gast
2007-12-30, 21:19:22
Mein TFT sollte nicht so schlecht sein in der Farbdarstellung (MVA panel, "echte" 24 bit) und darauf kann man in der Wolke rechts unter dem Flugzeug schon banding erkennen. Leider kein CRT zur Überprüfung vorhanden :(

Coda
2007-12-30, 21:41:32
Leider nicht?!
Du hast recht. Es geht im Vollbild tatsächlich nicht.

Das ist natürlich wirklich sehr bedauerlich. Hoffentlich wird das mit G9x gelöst, aber ich fürchte nicht...

RoNsOn Xs
2007-12-30, 22:20:02
ach daher rührt mein vorhergegangenes unverständnis gegenüber dem banding auf den geposteten screens.
hab ebenfalls nen crt und kann keinerlei banding erkennen.

-/\-CruNcher-/\-
2007-12-31, 02:34:27
Banding und Macroblocking ist generel auf CRTs nicht so sichtbar wie auf TFTs ein Problem mit dem auch Codec Developer heutzutage zu kämpfen haben.

@Razor
Standards sind für mich heutzutage eine Farce ein Konsortium von Mega Konzernen die sich in Meetings mit Universitäts Forschern treffen um etwas einheitliches zu entwickeln. Um diese Entwicklung danach so uninteroperable wie nur möglich in ihren finalen Produkten zu machen, das sind für mich schein standards. In der Praxis sieht das alles ganz anders aus als wie es uns vorgegaukelt wird Interoperabilität ist schlecht für Firmen wie Sony oder Microsoft da sie die Benutzer nicht mehr an ihre Produkte binden können, deshalb wird alles obwohl das nicht das Ziel dieser eigentlichen Forschungsarbeit gewesen ist so unkompatibel in den Produkten gemacht wie nur irgendwie geht zum Nachteil der Kunden (und dies fördert wieder Properitäre Systeme wie Microsofts WMV oder Apples Quicktime).


Ähm... sitzte grad an nem P3 mit GF2 und vor allem nem CRT-Bildschirm und kann hier http://s4.directupload.net/images/071223/olaqvgkh.png auf crunchers Screenshot echt kein Banding erkennen. Glaube aber, dass das auf meinem Rechner zuhause am TFT wieder ganz anders aussehen würde... die TN-Panels neigen doch zu eher schlechten Farbübergängen. Kann das also nicht eher am Bildschirm statt der Graka liegen?

Das ist eines der Beispiele wo das Banding am unaufäligsten ist und für ein nicht geschultes Auge auch nicht auffallen würde, vor allem nicht auf einem CRT :)
und ja TFTs setzen auch Dithering ein je nachdem wie gut ist auch das Ergebniss zusätzlich könnte man aber auch in der Engine oder im Treiber (oder im Chip) direkt einen Postprocessing Step durchführen der den selben effekt hätte und mich wundert es das ich so eine Option bis jetzt noch in keiner Engine gefunden habe, als zusatzoption (aktivieren/deaktivieren) wäre das sicher kein Beinbruch für echte 8< bit output Devices. Allerdings muss ich sagen ist mir Banding bis jetzt in 2 Spielen (Gears of War und Call of Duty 4) nicht aufgefallen (witzig hierbei ist das das wohl die am Performantesten beiden Engines sind die ich bis jetzt gesehen hab sprich UE3 und COD4s modifizierte IDtech Engine rocken auf Nvidia extreme und was man bei UE3 ja schon sehen konnte nicht nur auf Nvidia also als Indoor Engine ist klar die UE3 mein momentan absoluter Favourit die ist Performant bis zum geht nicht mehr scheint absolut irre Optimiert worden zu sein, übrigens ist euch aufgefallen das alle vorab Screens und Test Videos die man von der UE3 Engine sehen konnte von Gears of War stamten, so einen WOW effekt hat das letztemal bei mir die Doom3 Engine ausgelöst und das war noch auf ner Geforce 3 Ti 200 ;). Bei Crysis kamm dieser WOW effekt irgendwie nicht und wenn man mal das Ingame Rendering vergleicht (Realtime Zwischensequenzen) wundert es schon das die Crysis Engine da genauso einbricht wie im Spiel selbst obwohl die Charaktere die sichtbar sind weniger sind und die Qualität nicht wirklich sehr viel besser als wie bei den Gears of War Ingame zwischensequenzen nur stürzen da 0 frames ein (konstant 60 fps bei 1680x1050) , allerdings weicht man bei extreme vielen Charakteren und Action Szenen immer wieder auf Pre Gerenderte Bink Video Sequenzen wie diese http://www.stage6.com/user/NetLorK/video/1841728/gears-of-war-pc aus trotzdem im Vergleich zu Crysis wo sich die "normalen" Zwischensequenzen bei 25 fps bewegen erstaunlich. Selbst mit so nem Riesen Brumak http://www.stage6.com/user/cardozocar/video/1983234/Gears-Of-War-PC-fase-20 der da Gerendert wird oder die Spinne (Corpser) http://www.stage6.com/user/NaBaBa/video/1862470/Gears-of-War:-vs-Corpser kracht die Performance nicht merklich wech von den 60 FPS einfach beachtliche arbeit die dort geleistet wurde) obwohl dort auch z.b. Volumetric Fog zum Einsatz kommt ist kein Banding zu sehen.

Dr.Dirt
2007-12-31, 09:38:10
Ähm... sitzte grad an nem P3 mit GF2 und vor allem nem CRT-Bildschirm und kann hier http://s4.directupload.net/images/071223/olaqvgkh.png auf crunchers Screenshot echt kein Banding erkennen. Glaube aber, dass das auf meinem Rechner zuhause am TFT wieder ganz anders aussehen würde... die TN-Panels neigen doch zu eher schlechten Farbübergängen. Kann das also nicht eher am Bildschirm statt der Graka liegen?
Ich hab hier einen Eizo TFT mit S-PVA Panel und kann ebenfalls kein Banding erkennen.

Razor
2007-12-31, 09:59:46
Standards sind für mich heutzutage eine Farce ein Konsortium von Mega Konzernen die sich in Meetings mit Universitäts Forschern treffen um etwas einheitliches zu entwickeln. Um diese Entwicklung danach so uninteroperable wie nur möglich in ihren finalen Produkten zu machen, das sind für mich schein standards. In der Praxis sieht das alles ganz anders aus als wie es uns vorgegaukelt wird Interoperabilität ist schlecht für Firmen wie Sony oder Microsoft da sie die Benutzer nicht mehr an ihre Produkte binden können, deshalb wird alles obwohl das nicht das Ziel dieser eigentlichen Forschungsarbeit gewesen ist so unkompatibel in den Produkten gemacht wie nur irgendwie geht zum Nachteil der Kunden (und dies fördert wieder Properitäre Systeme wie Microsofts WMV oder Apples Quicktime).
Öhm... ist jetzt nicht Dein ernst, oder?
Willst Du hier tatsächlich irgendwelche Grundsatzdiskussionen los treten?
In diesem Falle würde ich Dir nochmal dringend raten, über den Inhalt dieses Threads nachzudenken!

Nochmal:
Matroska ist kein Standard, auch wenn sich dieses Zeug ursprünglich im japanischen Anime-Bereich, jetzt aber maßgeblich im illegalen Video-Underground-Bereich durchgesetzt hat.

Aber das Abspielen ist überhaupt kein Problem... denn da das Zeug nicht kopiergeschützt ist, bleibt für die CPU kaum noch was zu tun, wenn des dann in Software dekodiert wird. Mit aktiviertem PureVideo gibts Darstellungsfehler, richtig (setzt halt auf 'Standards'), insofern einfach deaktivieren (sind im PowerDVD maximal 1-2 Mausklicks) und schon wird es noch immer bestens abgespielt... und die CPU langweilt sich noch immer... die GPU nun natürlich auch.
;)

Wo ist also genau Dein Problem?
Funzt es denn mit AMD besser?
Funktioniert es überhaupt mit irgendwelcher Hardware besser?

Aber klar, wenn es keine Produkt-spezifische Kritik mehr gibt, muss es eben weltpolitisch sein, nicht wahr?
Mann, mann, mann...

Razor

Razor
2007-12-31, 10:04:26
Ich hab hier einen Eizo TFT mit S-PVA Panel und kann ebenfalls kein Banding erkennen.
Ist der gleiche Unfug...
Plötzlich tut hier jemand so, als ob die Nachteile von TFTs auf die suuuuper schlechten Treiber oder Produkte eines IHV zurück zu führen sind.

Ja, auf meinem TFT (TN-Panel) gibt es Banding, auf dem CRT (good old Phillips 19") nicht...
WAS FÜR EIN WUNDER!!!111einseinszwei

Was meint Ihr eigentlich warum ich hier TFT und CRT im DualView stehen habe, hmmm?
:confused:

Razor

-/\-CruNcher-/\-
2007-12-31, 11:26:52
Ist der gleiche Unfug...
Plötzlich tut hier jemand so, als ob die Nachteile von TFTs auf die suuuuper schlechten Treiber oder Produkte eines IHV zurück zu führen sind.

Ja, auf meinem TFT (TN-Panel) gibt es Banding, auf dem CRT (good old Phillips 19") nicht...
WAS FÜR EIN WUNDER!!!111einseinszwei

Was meint Ihr eigentlich warum ich hier TFT und CRT im DualView stehen habe, hmmm?
:confused:

Razor
Es gibt aber nunmal Post Processing Algorithmen die in der Lage sind Banding effektiv zu verhindern und mich interessiert ganz einfach ob Nvidia oder ATI davon in ihren Chips oder Treibern gebrauch machen wie gesagt man kann sowas in verschiedenen bereichen implementieren wie Chip,Treiber, Engine oder Display. Wenn das TFT Panel eine schlechte implementation nutzt kann ein ein zusätzlicher Pass einer besseren implementation hier helfen für Leute die schon eine Super Implementation in ihrem Panel haben (was unwahrscheinlich ist da zu der Zeit meist die sachen noch in der Forschung steckten und gerade mal als Paper existierten) ist das natürlich unsinn für die anderen jedoch ein nette Zugabe deswegen ist direkte Chip Implementierung auch nicht so toll es sei denn man kann sie auch im Treiber aktivieren und deaktiviern dann macht das durchaus einen Sinn :).

seahawk
2007-12-31, 11:33:38
Ich hab hier einen Eizo TFT mit S-PVA Panel und kann ebenfalls kein Banding erkennen.

Natürlich Du hast ja auch einen TFT, der den gesamten SRGB Farbraum zu 90+% darstellen kann. Ich habe mir die "Beweise" übrigens auch angegickt.

19" TFT TN Panel -> Banding
22" TFT S-PVA -> wenn überhaupt minimales Banding
19" CRT aus dem damaligen Profibereich von Samsung -> Kein Banding

Wir reden von dem selben jpg.

Es gibt aber nunmal Post Processing Algorithmen die in der Lage sind Banding effektiv zu verhindern und mich interessiert ganz einfach ob Nvidia oder ATI davon in ihren Chips oder Treibern gebrauch machen wie gesagt man kann sowas in verschiedenen bereichen implementieren wie Chip,Treiber, Engine oder Display. Wenn das TFT Panel eine schlechte implementation nutzt kann ein ein zusätzlicher Pass einer besseren implementation hier helfen.

Bis auf einem billigen TN-Panel kein Banding mehr zu sehen ist, siehst Du auf einem hochwertigen S-PVA Panel oder gar einer Röhre nur noch Farbmatsch, also wollen wir hoffen, dass dieser Scheiss niemals eingesetzt wird. Es gibt ja auch Menschen die ihre Karte auch für Bildbearbeitung und ähnliches verwenden.

Um es deutlich zu sagen. Auf meiner alten Profiröhre sieht das G92 Bild top aus. Imho sogar etwas kontrastreicher und klarer als G70.

Razor
2007-12-31, 11:38:01
@Cruncher

Der Treiber/die Hardware soll Probleme anderer Hardware korrigieren?
Oh ha...

Kauft Euch lieber vernünftige Hardware und versucht die miese Qualität der eigenen Hardware nicht anderen aufzubürden!
Bei meinem TFT habe ich diesen Nachteil 'geschluckt'... wenn es mich stört, dann wird eben auf dem CRT geschaut... ;)
(so einfach können Dinge sein, gell? ;-)

Razor

vinacis_vivids
2007-12-31, 13:55:30
Ich hab hier einen Eizo TFT mit S-PVA Panel und kann ebenfalls kein Banding erkennen.

Sitze hier vorm Dell 2407WFP mit S-PVA und kann auch kein "Banding" erkennen. Weder bei Biosshock noch bei den Crysis-screens.

Dr.Dirt
2007-12-31, 18:20:35
Natürlich Du hast ja auch einen TFT, der den gesamten SRGB Farbraum zu 90+% darstellen kann. Ich habe mir die "Beweise" übrigens auch angegickt.

19" TFT TN Panel -> Banding
22" TFT S-PVA -> wenn überhaupt minimales Banding
19" CRT aus dem damaligen Profibereich von Samsung -> Kein Banding

Wir reden von dem selben jpg.
Ja, als ich noch ein 19" TFT mit TN-panel basaß, habe ich auch solche "banding" Effekte beobachten können.
Das hat dann aber gar nichts mit der Grafikkarte zu tun, wie uns /\-CruNcher-/\- hier weismachen will.

TeleTubby666
2008-01-05, 15:25:00
Sagt mal: Bei vmktech gibt es ein neues Bios für meine EVGA 8800GT SC:

http://www.mvktech.net/component/option,com_remository/Itemid,26/func,fileinfo/filecatid,2409/parent,category/

Bei EVGA finde ich das nicht. Da ich noch Hoffnung auf eine vernünftige Lüftersteuerung durch das Bios habe - sollte ich diese Version probieren?

seahawk
2008-01-05, 15:30:31
Gug mal bei EVGA im Forum, da verlinken Sie auch die jeweils neune BIOSE, die eine geänderte Lüftersteuerung haben.

TeleTubby666
2008-01-05, 16:15:45
Verliere ich dann nicht die Garantie?

Gast
2008-01-05, 16:26:17
Also mal ehrlich, das Banding ist locker zu sehen und kommt sicher nicht von meinem Monitor.

seahawk
2008-01-05, 16:37:59
Verliere ich dann nicht die Garantie?

Nein, EVGA empfiehlt das Update. Nimm aber bitte die Files aus dem EVGA Forum, die von dem Admin dort gepostet wurden. Nicht, dass Du eiens erwischt, das von dritten modifiziert wurde.

http://www.evga.com/forums/tm.asp?m=176929

RoNsOn Xs
2008-01-05, 17:27:27
Also mal ehrlich, das Banding ist locker zu sehen und kommt sicher nicht von meinem Monitor.

ist doch schon geklärt das es aber so ist. ;)

-/\-CruNcher-/\-
2008-01-06, 17:35:47
Ja, als ich noch ein 19" TFT mit TN-panel basaß, habe ich auch solche "banding" Effekte beobachten können.
Das hat dann aber gar nichts mit der Grafikkarte zu tun, wie uns /\-CruNcher-/\- hier weismachen will.

Nichts kapiert, natürlich hat es direkt nichts mit der Grafikkarte zu tun es geht hier um 32 bit -> 8 bit b.z.w. 10 bit zu 8 bit Umwandlung und dessen Qualität auf Geräten die dir nicht ein riesen Loch in dein Portemonaie schlagen. Wenn Debanding per Software machbar ist, was heutzutage der fall ist, dann interessiert es mich schon ob ATI oder Nvidia das in ihrem Treiber optional anbieten (man muss es nicht einschalten kann aber ein netter Bonus für viele TN Panel Benutzer wenn vorhanden) oder sogar adaptive davon gebrauch machen (dafür ist ATI bekannt viele sachen sind dort adaptive implementiert die das Bild in gewissen Situationen verbessern, was viele normale Benutzer aber nicht bemerken). Für Video gibt es diese Softwarelösung schon nennt sich Deband und ist unter anderem in ffdshow integriert, genau denselben algorithmus könnte man auch benutzen um Spiele (sei es im Grafikartentreiber direkt in der Spiele Engine oder im Panel selbst) für solche weniger guten Panels wie bei TN der Fall in Echtzeit zu Debanden.
Ehrlichgesagt verstehe ich nicht was die Leute dagegen haben wenn man so eine billige und effiziente Lösung hat um die Qualität der ausgegebenen Bilder zu verbessern. Es sollte halt schlau geschehen, b.z.w. sollte der Benutzer die Entscheidung haben es zu aktivieren/deaktivieren, ansonsten hat seahawk schon recht würde es auf guten Monitoren wahrscheinlich genau das Gegenteil bewirken. Das ist aber kein Grund soetwas dann gleich zu verteufeln, insbesondere nicht wenn es einer Menge anderen Benutzern dabei helfen kann die Qualität auf ihrem Monitor zu verbessern, ohne extra dafür nochmal zur Kasse gebeten zu werden.

Razor
2008-01-06, 18:20:47
Es geht nicht darum, dass hier irgend jemand was dagegen hätte...
...es geht darum, dass weder nVidia, noch AMD/ATI so etwas im Treiber anbieten - jetzt nicht und auch früher nicht.

Was also dieser Murks (wieder mal :rolleyes:) in einem Erfahrungsthread zu suchen haben soll, musst Du mir mal erklären.
Vergiß diesen Schrott hier also und mach' nen neuen Thread dafür auf, wenn Du meinst, dass sich jemand dafür interessiert...

Razor