Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: HighEnd-Chip G70: Nur noch mit flimmernder Grafik?


Seiten : 1 2 3 4 5 6 [7]

Matt
2005-09-02, 14:20:09
Naja, sehr schade. Wenn der Treiber nicht bald kommt, oder nur eine möglichkeit sein sollte, um zu verschleieren (Was ich jetzt natürlich nicht unterstelle), oder gar eine andere, für BAUs nicht so stark sichtbare "Optimierung" eingeführt wird(z.B.: Unschärferer Texturen) , dann Prost und Mahlzeit :down: (n)
P.S.: @DÖG.. Post 1500 ;)

Matt
2005-09-02, 16:13:43
@DÖG: Der 78.03 ist jetzt auf dem FTP Ordner von Nvidia:
ftp://download.nvidia.com/Windows/78.03/

mapel110
2005-09-02, 16:15:42
@DÖG: Der 78.03 ist jetzt auf dem FTP Ordner von Nvidia:
ftp://download.nvidia.com/Windows/78.03/
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=245952
Hier die Diskussion zum Treiber im Hilfeforum.

Matt
2005-09-02, 16:16:34
Danke, hab ich noch ned gesehen..
Bin wohl zu selten im 3DC Forum ;)

derominöseGast
2005-09-02, 17:14:27
Wunderbar! Jetzt müsste ich nur noch zuhause sein....

edit: ned übel, gar ned übel... ;)

mapel110
2005-09-03, 02:34:52
http://www.hexus.net/content/reviews/review.php?dXJsX3Jldmlld19JRD0xNTQ5
Hier gibts einen Artikel zum Problem und zum Treiber.

http://forums.hexus.net/showthread.php?t=53394
Hier gibts noch ein Statement, dass es dem Reviewer leid tut, dass er beim Launch nicht auf die Texturqualität geachtet hat.

aths
2005-09-04, 13:38:12
Hrrr, Hexus tut in dem Artikel so als seien sie die totalen Technik-Checker.

aths
2005-09-04, 15:05:09
Naja, immerhin Grund genug mir ne zweite GTX zuzulegen, da ATI mit dem R520 und Crossfire leider nicht aus den Puschen zu kommen scheint ;)
Das heißt allerdings nicht, dass ich den Q-Modus und auch HQ nicht noch weiter verbesserungswürdig finde.Wer auf AF-Qualität wert legt, sollte imo noch die Geduld aufbringen, auf den R520 zu warten. Dann lässt sich entscheiden, mit welcher Karte man besser bedient ist.

Piffan
2005-09-04, 19:35:24
Ich kann meine Ungeduld auch noch zügeln. Oblivion wird für mich ein Grund zum Aufrüsten sein, bis dahin habe ich die Ruhe weg. Ich hoffe, dass Ati auch TSAA bietet. Sonst sind die für mich endgültig aus dem Rennen......

mbee
2005-09-04, 21:34:26
Wer auf AF-Qualität wert legt, sollte imo noch die Geduld aufbringen, auf den R520 zu warten. Dann lässt sich entscheiden, mit welcher Karte man besser bedient ist.

Ich will jetzt alle meine Spiele mit TSAA/4xAF/8xAF unter 1600x1200 spielen und habe deshalb auch nicht auf den Launch eines Chips gewartet, für dessen Crossfire-Lösung es dann ebenfalls kaum Motherboards gibt.
Das HQ ist für mich mit dem neuen Treiber völlig in Ordnung (für meine Ansprüche), die Bildqualität bei sehr vielen Titeln mit TSAA weitaus besser als alles, was meine XT PE bieten konnte und die Geschwindigkeit dank SLI selbst bei F.E.A.R. göttlich.

Bloß weil der R520 ggf. ein etwas besseres AF bietet, würde ich darauf niemals warten wollen. Fragt sich eh, wie lange es dauert, bis Crossfire und die Mobos entsprechend ausgereift sind. Für mich werden die Karten erst wieder mit dem R580 neu gemischt.

Gast
2005-09-05, 10:27:21
Ich will jetzt alle meine Spiele mit TSAA/4xAF/8xAF unter 1600x1200 spielen und habe deshalb auch nicht auf den Launch eines Chips gewartet, für dessen Crossfire-Lösung es dann ebenfalls kaum Motherboards gibt.
Das HQ ist für mich mit dem neuen Treiber völlig in Ordnung (für meine Ansprüche), die Bildqualität bei sehr vielen Titeln mit TSAA weitaus besser als alles, was meine XT PE bieten konnte und die Geschwindigkeit dank SLI selbst bei F.E.A.R. göttlich.

Bloß weil der R520 ggf. ein etwas besseres AF bietet, würde ich darauf niemals warten wollen. Fragt sich eh, wie lange es dauert, bis Crossfire und die Mobos entsprechend ausgereift sind. Für mich werden die Karten erst wieder mit dem R580 neu gemischt.

full ack!

aths
2005-09-05, 10:42:15
Ich will jetzt alle meine Spiele mit TSAA/4xAF/8xAF unter 1600x1200 spielen und habe deshalb auch nicht auf den Launch eines Chips gewartet, für dessen Crossfire-Lösung es dann ebenfalls kaum Motherboards gibt.
Das HQ ist für mich mit dem neuen Treiber völlig in Ordnung (für meine Ansprüche), die Bildqualität bei sehr vielen Titeln mit TSAA weitaus besser als alles, was meine XT PE bieten konnte und die Geschwindigkeit dank SLI selbst bei F.E.A.R. göttlich.

Bloß weil der R520 ggf. ein etwas besseres AF bietet, würde ich darauf niemals warten wollen. Fragt sich eh, wie lange es dauert, bis Crossfire und die Mobos entsprechend ausgereift sind. Für mich werden die Karten erst wieder mit dem R580 neu gemischt.Immer wieder, obs nun bei einer Radeon oder später bei den GeForce-Karten ist, finden User Begründungen warum sie mit der AF-Qualität noch ganz gut leben können.

mbee
2005-09-05, 10:48:19
Die brauche ich nicht zu finden, ich kann's (damit gut leben).
Auch wenn das AF unter HQ auch mit dem neuen Treiber immer noch verbesserungswürdig ist, ist es IMO annehmbar.
Bei ATI ist hingegen IMO eine Schwachstelle die Texturschärfe was mir beim Wechsel sofort ins Auge gestochen ist (das Bild auf der XT PE wirkte in vielen Titeln um einiges "matschiger").
Wenn es nach Deinen Kritierien ginge, dürfte man tatsächlich nur mit einer GF3 spielen.
Mach das mal bei aktuellen Titeln mit einem 1600x1200 TFT ;)
Ich finde Deinen Einsatz für besseres AF und eine generelle Möglichkeit zur Abschaltung aller Optimierungen auch sehr löblich und gehe damit konform. Allerding verzichte ich deswegen nicht auf einen Großteil der Spiele bzw. statte deshalb mein recht aktuelles System mit einer Grafikkarte als Flaschenhals aus. Dazu spiele ich zu gerne.

aths
2005-09-05, 11:05:39
Die brauche ich nicht zu finden, ich kann's (damit gut leben).Ja. Ich hingegen sehe die Nachteile. Im Jahre 2005 ist es absurd, solches Spar-AF zu haben. Insbesondere im Highend-Bereich ist das aus meiner Sicht purer Unsinn, zum Nachteil des Kundens – auch wenn sich viele User dessen so nicht bewusst sind.

Auch wenn das AF unter HQ auch mit dem neuen Treiber immer noch verbesserungswürdig ist, ist es IMO annehmbar.Annehmbar, bei aktiviertem 16x AF hier und da nur 2x AF zu bekommen?

Bei ATI ist hingegen IMO eine Schwachstelle die Texturschärfe was mir beim Wechsel sofort ins Auge gestochen ist (das Bild auf der XT PE wirkte in vielen Titeln um einiges "matschiger").
Wenn es nach Deinen Kritierien ginge, dürfte man tatsächlich nur mit einer GF3 spielen.
Mach das mal bei aktuellen Titeln mit einem 1600x1200 TFT ;)ATIs AF ist – soweit ich das weiß, und ich weiß nicht alles – nicht so viel matschiger. ATIs AF hat Schwachstellen in beide Richtungen: Mal zu matschig, mal zu scharf, ja, aber das fällt selbst mir nicht gleich ins Auge. Die Winkelabhängigkeit sehe ich bei ATI und bei Nvidia sehr schnell.

Man könnte auch mit einer GeForce FX 5900 spielen. Natürlich ziemlich langsam und nur blödes OG-MSAA im 4x-Modus.

Wer einen 1600x1200-TFT kauft, muss wissen was er tut. Von der Feinkörnigkeit her reicht 1280x960 bei solchen Diagonalen eigentlich aus (mehr als HDTV mit 1280x720!) und die Kantenglätte holt man über MSAA, die Texturdetails über AF rein. Grafikdetails primär über die Auflösung zu holen ist teuer, da der Rechenaufwand quadratisch steigt, während der AF-Aufwand nicht mal linear steigt. Das ist das Argument für quasi-perfektes AF. Das wirkt sich zwar einerseits spürbar auf die Geschwindigkeit aus, bietet dafür aber das beste Tauschverhältnis Geschwindigkeit->Qualität.

Bessere Gesamtqualität ist mit gutem AF billiger als mit dem jetzigen Spar-AF. Das Spar-AF spart mehr Qualität als Geschwindigkeit.

Ich habe keinerlei Information, ob ATI am AF was verbessert hat. Aber ich erwarte es von ATI.

Ich finde Deinen Einsatz für besseres AF und eine generelle Möglichkeit zur Abschaltung aller Optimierungen auch sehr löblich und gehe damit konform. Allerding verzichte ich deswegen nicht auf einen Großteil der Spiele bzw. statte deshalb mein recht aktuelles System mit einer Grafikkarte als Flaschenhals aus. Dazu spiele ich zu gerne.Ach, was der Jesus gesagt hat, fanden auch viele sehr löblich. Daran gehalten haben sich die wenigsten. Bei dir steht Rendering-Speed über Texturqualität. Du kaufst auch Karten mit Spar-AF. Das interessiert die IHVs. Wie du dich im 3dcf äußerst, was du alles löblich findest, interessiert den IHV nicht die Bohne.

mbee
2005-09-05, 11:10:04
In der Hinsicht hast Du recht: Zu einem Boykott habe ich nicht Deinen Idealismus ;)
1280x960 sieht auf 20" IMO definitv sehr bescheiden aus bzw. geht's mir auch um die nutzbare Arbeitsfläche (ich arbeite auch ab und an zu Hause) und da wären mir 1280x960 ebenfalls zu wenig.

aths
2005-09-05, 11:14:43
In der Hinsicht hast Du recht: Zu einem Boykott habe ich nicht Deinen Idealismus ;)
1280x960 sieht auf 20" IMO definitv sehr bescheiden aus bzw. geht's mir auch um die nutzbare Arbeitsfläche (ich arbeite auch ab und an zu Hause) und da wären mir 1280x960 ebenfalls zu wenig.Deshalb sollte man zwei Monitore haben: Einen zum arbeiten, einen zum spielen.

Pollo
2005-09-05, 14:57:30
In der Hinsicht hast Du recht: Zu einem Boykott habe ich nicht Deinen Idealismus ;)
1280x960 sieht auf 20" IMO definitv sehr bescheiden aus bzw. geht's mir auch um die nutzbare Arbeitsfläche (ich arbeite auch ab und an zu Hause) und da wären mir 1280x960 ebenfalls zu wenig.

ist ja auch logisch und sehe ich auch so. 19" mit 1024 wäre auch übel und gleiches gilt für einen 21" mit 1280x960 man kann dann schon scanlines sehen und darauf verzichte ich gerne. Ist imo schlimmer als jedes AF geflimmere wenn die Auflösung nicht stimmt. (Ich rede hier sogar von CRT und nicht TFT)

Ob ich nun Arbeite oder Zocke: unter 1600x1200 geht nix und schon gar nicht unter 21"!

Warum die LCD Hersteller nicht langsam einsehen, dass es sehr viele Leute gibt die einen 21" mit der Reaktionszeit eines 19" haben wollen, wissen die Götter. Ich zähle da zukünftig vorallem auf Samsung mit dem 214T und dem 244T die sehr schnelle Panels haben sollen und NEC hat mit dem neuen NEC 2170NX auch ein gutes und vorallem preiswertes Gerät.

Das AF könnte imo sogar schlechter sein als es nun auf der 7800GTX ist (ATI AF ist somit wieder sicher nicht besser nach dem bugfix) und trotzdem würde ich mir niemals eine GF3 oder was auch immer einbauen. Schönes AF ohne spielbare FPS? Wem soll das etwas bringen? Das AF der G70 ist nun wirklich nicht mehr schlecht und wenn die winkelabhängigkeit noch draufgehen würde ohne grossen Performanceverlust (weiter träumen) , wäre dies genial wird aber nie eintreffen.

Derart krasse Leistungsreserven hat die GTX gar nicht. Nicht mal FEAR kann man auf 1600x1200 spielen, UE3 und kommende Konsorten noch gar nicht berücksichtigt. Einen optionalen "Full Quality" Schalter der halt 50% Performance frisst wäre trotzdem angebracht... nutzen, für neue Spiele, würde ihn zwar niemand können aber....

mbee
2005-09-05, 15:09:55
Deshalb sollte man zwei Monitore haben: Einen zum arbeiten, einen zum spielen.

Ich spiele aber auch lieber auf 1600x1200 als auf einem TFT mit kleinerer Auflösung (den Du ab 20" eh nicht finden wirst und kleinere Bildschirmdiagonalen will ich nicht) ;)

aths
2005-09-05, 16:21:15
Das AF könnte imo sogar schlechter sein als es nun auf der 7800GTX ist (ATI AF ist somit wieder sicher nicht besser nach dem bugfix) und trotzdem würde ich mir niemals eine GF3 oder was auch immer einbauen. Schönes AF ohne spielbare FPS? Wem soll das etwas bringen?Schönes AF bringt ein besseres Verhältnis von Geschwindigkeit in Qualität. Sinkt die Geschwindigkeit zu stark, schaltet man einfach den AF-Grad zurück und hat unter dem Strich ein besseres Erlebnis als mit einem AF, das sich zwar 16x nennt, aber in der Praxis fast nirgends volle 16x-Qualität bringt.

Das AF der G70 ist nun wirklich nicht mehr schlecht und wenn die winkelabhängigkeit noch draufgehen würde ohne grossen Performanceverlust (weiter träumen) , wäre dies genial wird aber nie eintreffen.Natürlich nicht, denn Qualität muss naturgemäß Leistung kosten. Aber noch mal: Ein nicht so winkelabhängiges AF hätte ein besseres Tauschverhältnis, man würde insgesamt mehr Qualität für die gleiche geopferte Geschwindigkeit bekommen.

Derart krasse Leistungsreserven hat die GTX gar nicht. Nicht mal FEAR kann man auf 1600x1200 spielen, UE3 und kommende Konsorten noch gar nicht berücksichtigt. Einen optionalen "Full Quality" Schalter der halt 50% Performance frisst wäre trotzdem angebracht... nutzen, für neue Spiele, würde ihn zwar niemand können aber....Warum sollte man neue Spiele mit einem Modu spielen, der 16x AF heißt, aber teilweise nur 2x AF bringt? Durchgehend z. B. 6x AF wäre viel sinnvoller. (Der Treiber bietet nur 2x, 4x, 8x und 16x, die Hardware beherrscht unter anderem auch 6x.)

mapel110
2005-09-05, 16:40:03
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3452990&postcount=13
Dann mal her mit der Analyse, was hier zu sehen ist.

tEd
2005-09-05, 16:50:31
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3452990&postcount=13
Dann mal her mit der Analyse, was hier zu sehen ist.

das cs_assault video kann ich mit meiner x800pro nicht nachvollziehen. Das sieht bei mir einfach nicht so aus , ich seh da bei mir keine probleme.

das aztech video hab ich nicht gesehen ich weiss aber das da gewisse texturen flimmern vorallem die grünen.

Man muss auch sehen das alles oberflächen mit normal maps sind welche wahrscheinlich ein bisschen unberechenbarer sind als normale texturen

MadManniMan
2005-09-05, 18:23:29
Was da flimmert ist aber deutlich der diffuse Anteil - das schreit entweder nach tiefgründiger, grundlegenderer ATi-AF Betrachtung anderer populärer Benches (da ja UT augenscheinlich flimmerfrei ist), oder aber nach einer spezifischen ... Optimierung :|

Gast
2005-09-05, 19:07:40
Man vergisst in dieser Diskussion leicht, das es Content gibt der flimmert, den vieleicht nichtmal eine GF4 sauber filtern könnte, wollte ich nochmal dran erinnert haben.

Und egal wie idealistisch hier einige Denken, es gibt für Leute wie mich, die TOP Performance wollen keine Alternative. Klar freut sich jeder das es Seiten wie 3dCenter und Beyond3d gibt, die komplizierte Sachverhalte darlegen, ein großes Forum bieten und vorallem mit "aktiven" Teilnehmern gesegnet sind, die Schweinerein aufdecken.

Aber ich kann keinen IHV boykottieren in meiner Situation ^^

Xmas
2005-09-07, 13:12:39
Die Diskussion zum winkelunabhängigen AF per Shader wurde hierhin verfrachtet.

Gast
2005-09-07, 17:38:18
das cs_assault video kann ich mit meiner x800pro nicht nachvollziehen. Das sieht bei mir einfach nicht so aus , ich seh da bei mir keine probleme.

das aztech video hab ich nicht gesehen ich weiss aber das da gewisse texturen flimmern vorallem die grünen.

Man muss auch sehen das alles oberflächen mit normal maps sind welche wahrscheinlich ein bisschen unberechenbarer sind als normale texturen


genauso konnten die GTX Besitzer auch die Videos von 3DC nicht nachvollziehen. Movies flimmern nunmal mehr als wirkliches ingame Material.

Ich hatte schon immer gesagt: totaler Unfug wenn behauptet wird ATI flimmere nicht. Das kann jeder selber prüfen wenn er will und das Geld dazu hat...

aths
2005-09-07, 17:51:54
genauso konnten die GTX Besitzer auch die Videos von 3DC nicht nachvollziehen. Movies flimmern nunmal mehr als wirkliches ingame Material.Wäre die Szene in einem Spiel so wie im Video, würde es genauso stark flimmern.

Ich hatte schon immer gesagt: totaler Unfug wenn behauptet wird ATI flimmere nicht. Das kann jeder selber prüfen wenn er will und das Geld dazu hat...Das kann bei applikationsspezifischer "Optimierung" sein. Das AF ansich ist im Vergleich zum G70 AF deutlich weniger anfällig fürs Flimmren.

moeb1us
2005-09-08, 09:57:34
was fehlt, ist eine art benchmark für texturfilter-qualität, der objektive vergleiche zulässt (in dem rahmen in dem das möglich ist). vielleicht eine art testlevel mit verschieden komplexen texturen auf einer weit verbreiteten engine.

das ist atm so ein wirrwarr aus verschiedenen spielen mit/ohne optimierungen mit/ohne mips blablub hochfrequenten texturen oder texturen die angeblich immer flimmern etc pp :tongue:

beispiel aus der praxis:
ich liebe rennsims. gtr zB. nun interessiert mich eine hardware, die in der lage ist, die gridlines mit zäunen etc und alles was da perspektivisch auf den horizont zuläuft, in möglichst optimaler bildqualität darzustellen. das ist das paradebeispiel dafür, das eben nicht in jeder situation renderleistung das nonplusultra ist, denn FU! wenn ich in ein flüssig dargestelltes flimmerchaos blicke beim rennen (und man schaut die meiste zeit in den hot-spot) hilft mir das nun mal überhaupt nicht.

Raff
2005-09-09, 19:43:43
Alphatest-Zäune, -Vegetation oder sonstige Späße werden auf einer nVIDIA-Karte weniger flimmern als auf den ATi-Pendants. Letztere sind dagegen nämlich per default komplett machtlos, weil irgendein *insertnastyword* angeordnet hat, dass kein SSAA kommen wird. nV hat das schon ewig, und es gibt nichts besseres, um Flimmern dieser Art zu bekämpfen. :)

MfG,
Raff

mbee
2005-09-09, 19:57:36
Doch (gut, in Relation zur Leistung gesehen natürlich): TSSAA ;)
Aber ich bezweifle irgendwie, dass wir das mit dem R520 sehen werden.

Raff
2005-09-10, 01:52:17
Ja, aber das ist eben wieder von den Grünen (nein, das ist keine Werbung für eine Partei ;)). Die SPD unter den IHVs bietet nur mit Xfire SSAA ... und selbst das kann man nicht kaufen.

Mal sehen, ob der R520 da etwas bringt. Denn mit 16 Pipes und keinen neuen Features sehe ich da schwarz ...

MfG,
Raff

aths
2005-09-10, 15:38:01
Alphatest-Zäune, -Vegetation oder sonstige Späße werden auf einer nVIDIA-Karte weniger flimmern als auf den ATi-Pendants. Letztere sind dagegen nämlich per default komplett machtlos, weil irgendein *insertnastyword* angeordnet hat, dass kein SSAA kommen wird. nV hat das schon ewig, und es gibt nichts besseres, um Flimmern dieser Art zu bekämpfen. :)Solches Flimmern sollte gar nicht erst auftreten. Am Ende lese ich noch, es gäbe nichts besseres als SSAA, um

- den winkelabhängig gesenkten AF-Maximalgrad zu bekämpfen

- um Unterfilterung beim AF zu bekämpfen.

Bei der AF-Implementierung sind die HW-Hersteller gefragt, beim Alphatesting sind die ISV gefragt, es nur dann einzusetzen, wenn es nicht zum Flimmern führt. Zumal es nicht sooo schwer ist, beides (Testing für schwache, und Blending für stärkere Karten) anzubieten.

mapel110
2005-10-03, 20:05:51
Falls sich mit neuen Treiberversionen etwas ändert, werden wir versuchen, den Leser auf dem Laufenden zu halten.

Aus dem Versuchen ist wohl nichts geworden?! ;(

aths
2005-10-03, 21:53:18
Kommt noch, wenn klar ist, was der R520 genau bietet.

Gast
2005-10-11, 19:13:14
Kann ich mir jetzt ruhigen Gewissens eine 7800GT/7800GTX kaufen, da ja ab dem 78.03 das Texturflimmern der vergangenheit angehören soll?!

Auf welchem Niveau ist denn jetzt das Flimmern?

Qualität ist mir sehr wichtig, daher wäre ich für eine ausführliche Antwort sehr dankbar!

Ha Chi
2005-10-16, 15:11:01
Kann ich mir jetzt ruhigen Gewissens eine 7800GT/7800GTX kaufen, da ja ab dem 78.03 das Texturflimmern der vergangenheit angehören soll?!

Auf welchem Niveau ist denn jetzt das Flimmern?

Qualität ist mir sehr wichtig, daher wäre ich für eine ausführliche Antwort sehr dankbar!
Jupp, das wüsste ich auch gern.

aths
2005-10-17, 08:39:35
Mit dem 78.03 ist in HQ (und nur dort) das Flimmern genau grenzwertig: Es flimmert nur so viel, wie es unter Einhaltung des Nyquist-Shannon-Abtasttheorems flimmern darf.

Grestorn
2005-10-17, 08:50:11
Mit dem 78.03 ist in HQ (und nur dort) das Flimmern genau grenzwertig: Es flimmert nur so viel, wie es unter Einhaltung des Nyquist-Shannon-Abtasttheorems flimmern darf.Und wenn ich Dich richtig verstehe, bedeutet das auch, dass man noch weniger Flimmern nur mit entsprechend matschigeren Texturen erkaufen kann? Also etwas, dass auch mit einem entsprechend verstellten LOD BIAS zu erreichen ist?

aths
2005-10-17, 09:07:18
Das LOD-Bias sollte nicht verstellt werden.

Wenn Texturen flimmern, obwohl das Nyquist-Shannon-Abtasttheorems eingehalten wird (und nach meinem Kenntnisstand wird es das) dann sind es "böse" Texturen. Die Frage ist aber auch, ab wann man "Flimmern" sagt.

Gast
2005-10-17, 09:58:08
Das LOD-Bias sollte nicht verstellt werden.

Ich glaube, was grestorn meint, ist, daß Texturen, die auf dem "aths-approved" 78.03 flimmern und auf anderen Karten/Treibern/whatever dies nicht tun, und Flimmerfreiheit nur mit einem verstellten LOD-Bias (seitens des Treibers/der Karte) erreicht wird.

Ice =A=
2005-10-17, 10:07:29
Ein "Abtast-Theorem"! Mann, das klingt gut!!! :) Ist das über die mathematisch standardisierte Berechnung von AF?

Mr. Lolman
2005-10-17, 10:14:57
Ein "Abtast-Theorem"! Mann, das klingt gut!!! :) Ist das über die mathematisch standardisierte Berechnung von AF?

Nein, das handelt (ursprünglich) von der notwendigen Abtastrate um ein analoges Signal verlustfrei digitalisieren zu können...

aths
2005-10-17, 11:32:43
Ein "Abtast-Theorem"! Mann, das klingt gut!!! :) Ist das über die mathematisch standardisierte Berechnung von AF?Nein. Aber Wikipedia hilft hier weiter.

Ich glaube, was grestorn meint, ist, daß Texturen, die auf dem "aths-approved" 78.03 flimmern und auf anderen Karten/Treibern/whatever dies nicht tun, und Flimmerfreiheit nur mit einem verstellten LOD-Bias (seitens des Treibers/der Karte) erreicht wird.Das LOD-Bias sollte nicht verstellt werden. Wenn etwas flimmert, wo es nicht flimmern sollte, würde ich hinterfragen ob der Content in Ordnung ist.

Gast
2005-10-17, 11:43:48
Nein. Aber Wikipedia hilft hier weiter.

Das LOD-Bias sollte nicht verstellt werden. Wenn etwas flimmert, wo es nicht flimmern sollte, würde ich hinterfragen ob der Content in Ordnung ist.
Du hast es nicht verstanden. Diese Aussage bestreitet niemand. Und nun denke mal einen Schritt weiter – wenn etwas auf dem NV40/G70 flimmert, obwohl es eigentlich nicht dürfte und auf einer anderen Karte nicht flimmert....

aths
2005-10-17, 12:44:07
Du hast es nicht verstanden. Diese Aussage bestreitet niemand. Und nun denke mal einen Schritt weiter – wenn etwas auf dem NV40/G70 flimmert, obwohl es eigentlich nicht dürfte und auf einer anderen Karte nicht flimmert....... dann überfiltert die andere Karte vielleicht?

Mr. Lolman
2005-10-17, 12:45:05
... dann überfiltert die andere Karte vielleicht?

So ein bisschen Überfilterung kann nie schaden...

aths
2005-10-18, 02:06:47
So ein bisschen Überfilterung kann nie schaden...... doch, sie kann sich negativ auf die Schärfe auswirken.

Grestorn
2005-10-18, 06:54:12
... doch, sie kann sich negativ auf die Schärfe auswirken.Was ist der effektive Unterschied zwischen einer Überfilterung und einer Reduzierung des LOD Bias um einen geringen Wert?

aths
2005-10-18, 15:18:57
Mit einer Erhöhung des LOD-Bias (nicht Reduzierung) nimmt das Verhältnis Texel zu Pixel, man hat also weniger Informationen pro Pixel. Bei der Überfilterung werden zuviele Nachbartexel mitverrechnet, und/oder die Nachbartexel werden zu stark gewichtet, und man dämpft somit die hohen Frequenzen.

edit: Schreibfehler berichtigt.

Grestorn
2005-10-18, 16:39:26
Mit einer Erhöhung des LOD-Bias (nicht Reduzierung) nimmt das Verhältnis Texel zu Pixel abnimmt, man hat also weniger Informationen pro Pixel. Bei der Überfilterung werden zuviele Nachbartexel mitverrechnet, und/oder die Nachbartexel werden zu stark gewichtet, und man dämpft somit die hohen Frequenzen.
Merci!

mapel110
2005-11-02, 10:59:37
ah, ist ja nett, dass wenigstens ein paar Zeilen geschrieben wurden. Also ist jetzt auch laut aths das Flimmern eindeutig Geschichte seit 78.03?!

Gast
2005-11-02, 13:14:24
Mit einer Erhöhung des LOD-Bias (nicht Reduzierung) nimmt das Verhältnis Texel zu Pixel, man hat also weniger Informationen pro Pixel. Bei der Überfilterung werden zuviele Nachbartexel mitverrechnet, und/oder die Nachbartexel werden zu stark gewichtet, und man dämpft somit die hohen Frequenzen.



aber das ergebnis wäre doch annähernd das gleiche oder?

aths
2005-11-02, 14:19:20
ah, ist ja nett, dass wenigstens ein paar Zeilen geschrieben wurden. Also ist jetzt auch laut aths das Flimmern eindeutig Geschichte seit 78.03?!Im HQ-Modus zeigen Damiens G70-Videos mit dem 78.03-er Treiber kein unnatürliches Flimmern mehr.

aber das ergebnis wäre doch annähernd das gleiche oder?Beides führt zu unschärferen Texturen, aber zu anderer Unschärfe. Überfilterung beim AF ist, sofern es nicht übertrieben wird, weniger schlimm da mittebetont. Ein erhöhtes LOD-Bias senkt den Texturdetailgrad stärker.

Gast
2005-11-05, 09:09:21
Unabhängig von LOD-Bias und Überfilterung stört mich auch bei aktuellen Treibergenerationen, dass in der Richtung 45 Grad Winkel immer stärkere Moiremuster zu sehen sind. Das Bild wird dadurch in Bewegungen so unruhig, dass es effektiv auch als Flimmern wahrgenommen wird.

Sehr deutlich sieht man dass zum Beispiel in der FEAR Demo, wenn man die Wellblechwände des Innenhofes betrachtet. Nette Muster, wie bei einem Spitzendeckchen, aber sicher so nicht vom Spielehersteller gedacht.

Ebenfalls auffällig sind Detailproblemchen bei entfernten Objekten. Die Karte ist sich offensichtlich nicht einig, welche Informationen sie zeigen soll. Zum Beispiel gibt es in EVE Online diverse Raumstationen mit vielen kleinen Lichtpunten (sollen die beleuchteten Fenster darstellen). Da diese allerdings nur ein oder zwei Pixel hoch sind, blinken sie in Bewegung ständig an/aus, ein reines Flimmergewitter. Allerdings sollte solches Material vielleicht auch vom Spielehersteller umgangen werden.

Gast
2005-12-11, 18:25:18
Hallo,

also ich habe mit meiner GeForce 6800GT (von Leadtek) keinerlei Flimmern im Quality Modus. Lediglich alle "Optimierungen" (reduce trillinear quality, only bilinear AF on nonprimary stages, reduce AF-Samples) wurden deaktivert.

Das gibt wunderschöne 16fache Ansitropische Filterung beim Forceware 77.72
:-D

greetz
antiwende

Gast
2005-12-11, 21:14:18
nachtrag zu meinem letzen posting (sry bin zu faul mich anzumelden)

ich hatte vorher eine 9800pro, bin also nicht der typ der nvidia kauft und sich die schönredet ^^

die videos konnte ich noch nicht sehen da ich ned zuHause bin und deshalb nur über isdn verfüge.

ich habe aber wirklich kein flimmern, zB bei Quake4 1280x1024 8xAA 16xAF.

kann das also doch auf verschiede treiber versionen zurückzuführen sein?
Oder mal so gefragt hat jmd auf einer Leadtek 6800GT mit dem 77.72 flimmern?

greetz
antiwende

mapel110
2005-12-11, 22:17:19
Bei dem Artikel geht es auch mehr um die Geforce 7800 GT/GTX. Dort wurden mit Treibern vor 78.03 einige Optimierungen nicht abgeschaltet, auch wenn man das wollte.

SurfaceCleanerZ
2005-12-20, 13:01:28
>Das war zu Zeiten des R300 (Radeon 9500/9700 Serie) vielleicht >noch akzeptabel, ist aber heute nicht mehr zeitgemäß

Wenn ich mich nicht irre, war die R300 die letzte (nur ATI oder auch Nv?) Karte, die komplettes AA konnte, also alles aufm Schirm 16x oder so (im Vergleich zur 9800er).
Dies liess sich nur in frühen Treibern einstellen, oder im atuner!

Dazu gabs doch auch nen grossen Bericht hier...

Ice =A=
2005-12-20, 15:40:55
Meinst Du AA oder AF? Die Radeons konnten vor der aktuellen Generation nie volles AF, die nVidia könnens seit zwei Generationen nicht mehr!

aths
2005-12-20, 17:02:04
Hallo,

also ich habe mit meiner GeForce 6800GT (von Leadtek) keinerlei Flimmern im Quality Modus. Lediglich alle "Optimierungen" (reduce trillinear quality, only bilinear AF on nonprimary stages, reduce AF-Samples) wurden deaktivert.

Das gibt wunderschöne 16fache Ansitropische Filterung beim Forceware 77.72
:-D16x anisotrop filtert die 6800 GT leider nur bei bestimmten Winkeln. Andere Winkel bekommen bei aktiviertem so genannten 16x AF maximal 2x AF ab. In World of Warcraft führt das wegen der unebenen Geometrie schon mal zu seltsamen Effekten: Superscharfe Texturen neben unscharfen Texturen. Und das bei der (auf WoW bezogenen) sehr hohen Rohleistung der 6800 GT.

Allerdings dürfte auch die 6800 GT im Quality-Modus bei aktiviertem AF noch zum Flimmern tendieren. Erst auf HQ ist auch dies weg.

Wenn ich das auch noch sagen darf: Es heißt anisotrop, nicht anisotropisch.

Banshee18
2005-12-20, 18:39:45
Wenn ich das auch noch sagen darf: Es heißt anisotrop, nicht anisotropisch.
Ich hab mir auch "anisotrop" angewöhnt, da ich euch Gurus sehr viel vertrauen schenke, aber selbst in Spielen habe ich schon "anisotropisch" gelesen.

mbee
2005-12-20, 19:13:34
Übersetzungsfehler von "anisotropic" ;)

Raff
2005-12-20, 19:14:02
Ich hab mir auch "anisotrop" angewöhnt, da ich euch Gurus sehr viel vertrauen schenke, aber selbst in Spielen habe ich schon "anisotropisch" gelesen.

Sogar im ATi-CP steht "anisotropisch", dennoch hat es nichts mit den Tropen zu tun, sondern ist ein Übersetzungsfehler. ;)

MfG,
Raff

aths
2005-12-20, 19:32:17
Ich hab mir auch "anisotrop" angewöhnt, da ich euch Gurus sehr viel vertrauen schenke, aber selbst in Spielen habe ich schon "anisotropisch" gelesen.Auch im ATI Control Panel steht "anisotropisch". Das ist trotzdem falsch. Die Begriffe "isotrop" (aber auch isobar, isochor, und isotherm) gibts auch außerhalb des Grafik-Bereiches (isobar, -chor und -therm betrifft bestimmte Zustandsänderung bei Gasen.)

Gast
2005-12-20, 20:28:42
Auch im ATI Control Panel steht "anisotropisch". Das ist trotzdem falsch. Die Begriffe "isotrop" (aber auch isobar, isochor, und isotherm) gibts auch außerhalb des Grafik-Bereiches (isobar, -chor und -therm betrifft bestimmte Zustandsänderung bei Gasen.)Richtig.
Isotropie bedeutet Richtungsunabhängigkeit, daraus leitet sich das Adjektiv isotrop ab. Da Gegenteil ist dann anisotrop.

Banshee18
2005-12-20, 22:52:18
Auch im ATI Control Panel steht "anisotropisch". Das ist trotzdem falsch. Die Begriffe "isotrop" (aber auch isobar, isochor, und isotherm) gibts auch außerhalb des Grafik-Bereiches (isobar, -chor und -therm betrifft bestimmte Zustandsänderung bei Gasen.)
Trotz Chemie-LK sagen mir die Begriffe nichts.
Schlimm, dass so grobe Schnitzer noch nicht ausgebessert wurden.

MadManniMan
2005-12-21, 01:12:37
Trotz Chemie-LK sagen mir die Begriffe nichts.
Schlimm, dass so grobe Schnitzer noch nicht ausgebessert wurden.

Ich hatte Chemie zwar nur als GK, aber da ham wirs auch nich gehört ... im Physik LK jedoch haben wirs dauernd benützt!

Thowe
2005-12-21, 07:44:24
Ich hatte Chemie zwar nur als GK, aber da ham wirs auch nich gehört ... im Physik LK jedoch haben wirs dauernd benützt!


Dabei hatten wir vor 4 Jahren oder so mal hier im Forum eine Diskussion darüber. :D ...

... in x Jahren stehts mit beiden Formen im Duden, dann spielt es eh keine Rolle mehr. Wobei mir persönlich die korrekte Form mehr zusagt.

No.3
2005-12-21, 12:25:30
Trotz Chemie-LK sagen mir die Begriffe nichts.

LOL - sei froh - 99% der Chemiker sind froh wenn sie die Physikalische Chemie hinter sich lassen X-D

Rainer

MadManniMan
2005-12-21, 15:23:20
Dabei hatten wir vor 4 Jahren oder so mal hier im Forum eine Diskussion darüber. :D ...

Huch? Echt?

Link! :D

BK-Morpheus
2006-02-13, 18:29:00
da mir der Thread zu lang ist, als das ich ihn komplett durchlesen will, frage ich einfach mal so:

Ist das Flimmern jetzt mit aktuellen Treibern geschichte, oder net?
Bzw. muss man immernoch den HQ Modus anschalten, damit's halbwegs ertragbar ist?

aths
2006-02-13, 19:00:52
da mir der Thread zu lang ist, als das ich ihn komplett durchlesen will, frage ich einfach mal so:

Ist das Flimmern jetzt mit aktuellen Treibern geschichte, oder net?
Bzw. muss man immernoch den HQ Modus anschalten, damit's halbwegs ertragbar ist?Ohne HQ bei NV (NV40, G70) immer Flimmer-Gefahr. Wie es aktuell bei der GF FX aussieht, weiß ich nicht.

BK-Morpheus
2006-02-14, 11:59:36
Ohne HQ bei NV (NV40, G70) immer Flimmer-Gefahr. Wie es aktuell bei der GF FX aussieht, weiß ich nicht.
und mit HQ Modus bricht die Leistung wieder gut ein, oder wurde das was verändert?

OMFG...also auf default settings (bzw. nur mit AF an, sonst standard) ist es dann wohl immernoch totall verflimmert. :(

Raff
2006-02-14, 12:02:02
Die Geforce7-Serie bricht mit HQ nicht so übel weg wie die GF6s.

Wobei ich noch keine Q-vs.-HQ-Tests mit der aus Füllraten-Sicht etwas kastrierten 7800 GS AGP gesehen habe ...

MfG,
Raff

Skorpion75
2006-04-20, 23:58:34
hmmm, habe gerade den Review zur 7800gtx (G70) gelesen.
Bisher war ich der Meinung, die 7800gtx wäre eine absolute Topkarte, zumindest bei Benches ist sie auf den vorderen Plätzen, aber was bringt Geschwindigkeit, wenn die (Bild)Qualität nicht stimmt?
So günstig finde ich die Karte ehrlich gesagt nicht, erst recht, wenn eine 7900gtx zum gleichen Preis zu haben ist.
Kann man in anbetracht des Preises die 7800gtx als "Highend"-Karte empfehlen? Oder doch eher die 7900gtx?

Tritt dieses Texturflimmern auch bei 6800gs-Karten auf oder generell bei allen N40er?

:confused:

mapel110
2006-04-21, 00:11:26
hmmm, habe gerade den Review zur 7800gtx (G70) gelesen.
Bisher war ich der Meinung, die 7800gtx wäre eine absolute Topkarte, zumindest bei Benches ist sie auf den vorderen Plätzen, aber was bringt Geschwindigkeit, wenn die (Bild)Qualität nicht stimmt?
So günstig finde ich die Karte ehrlich gesagt nicht, erst recht, wenn eine 7900gtx zum gleichen Preis zu haben ist.
Kann man in anbetracht des Preises die 7800gtx als "Highend"-Karte empfehlen? Oder doch eher die 7900gtx?

Tritt dieses Texturflimmern auch bei 6800gs-Karten auf oder generell bei allen N40er?

:confused:
Die 7900 ist neues High End von nvidia. Vorstellung des Chips war im März auf der Cebit.
Informationen dazu gibts hier
http://www.3dcenter.org/artikel/2006/03-10_a.php
http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_geforce_7600_gt_7900_gt_7900_gtx/

Die 6000er Serie von nvidia hat im Prinzip die gleiche Filtertechnik wie die 7000er Serie, wobei nvidia es eben bei der 7000er zu Anfangs mit den Treiberoptimierungen übertrieben hat.

Nachtrag von Seite 2 lesen.